text
stringlengths
444
1.36M
meta
stringlengths
53
76
Le Port de Paris : naissance d'un port industriel (milieu du XIXe siècle-1914) Alexandre Lalandre To cite this version: Alexandre Lalandre. Le Port de Paris : naissance d'un port industriel (milieu du XIXe siècle-1914). Histoire. Université Panthéon-Sorbonne - Paris I, 2017. Français. NNT : 2017PA01H019. tel01692458 HAL Id: tel-01692458 https://tel.archives-ouvertes.fr/tel-01692458 Submitted on 25 Jan 2018 Université Paris 1 Panthéon-Sorbonne École doctorale d'Histoire (ED 113) UFR d'Histoire (UFR 09) Institut d'histoire économique et sociale (IHE.S) IDHE.S-CNRS (UMR8533) Thèse présentée en vue de l'obtention du grade de docteur en histoire contemporaine. Alexandre LALANDRE LE PORT DE PARIS. Naissance d'un port industriel (milieu du XIXe siècle-1914). Thèse dirigée par Michel MARGAIRAZ. Soutenue le 24 mai 2017 VOLUME I Membres du jury : Isabelle Backouche (Directrice d'études à l'EHESS-CRH RHiSoP-HHS (Bureau 553)), rapporteuse Dominique Barjot (Professeur de l'Université de Paris 4-Sorbonne UMR 8596 Centre Roland Mousnier), rapporteur Anne Conchon (Professeure de l'Université de Paris 1 Panthéon-Sorbonne, UMR8533 IDHE.SCNRS) Michel Margairaz (Professeur de l'Université de Paris 1 Panthéon-Sorbonne, UMR8533 IDHE.S-CNRS) Brunot Marnot (Professeur à l'Université de La Rochelle-EA 1163 CRHIA) Remerciements : Je tiens tout d'abord à remercier mon directeur de recherche, Monsieur Michel MARGAIRAZ pour avoir eu la bonté et la patience de reprendre mon travail de thèse et de m'avoir permis d'aboutir là où je souhaitais véritablement parvenir, sans en avoir toujours été conscient. J'ai été vraiment heureux de notre si fructueuse collaboration. Je remercie également tous les membres du jury de ma soutenance, et plus spécialement Monsieur Dominique BARJOT. Je lui suis sincèrement très reconnaissant d'avoir accepté de participer à ma soutenance. Et ce sera un honneur pour moi de recevoir ses remarques et critiques. Car j'ai bien conscience des nombreuses faiblesses de mon travail, et je m'excuse auprès des membres du jury et de mes éventuels lecteurs. Ensuite, je remercie Monsieur Laurent ROBLIN, conservateur du Musée de la batellerie pour son accueil chaleureux et enthousiaste. Je lui adresse toutes mes plus sincères amitiés. Je remercie M. Jean PACPOUL, documentaliste aux Archives de la Section des Canaux de Paris, pour sa gentillesse, et notamment d'avoir photocopié de nombreuses archives qui m'ont été extrêmement précieuses. Je suis très reconnaissant à Madame Catherine Nicoletta du service des Archives de la Section des Canaux de Paris pour son « coup » de pouce de dernière minute Je remercie également Monsieur Olivier COTTAREL et son équipe des archives de la chambre de commerce de Paris, pour leur accueil et leur efficacité. Il est un des rares archivistes à m'avoir pris au sérieux lorsque je parlais d'étudier le port de Paris. Je remercie le personnel de la bibliothèque de l'INSEE pour son accueil à la fois détendu et d'une efficacité remarquable, qualité qui est suffisamment rare pour être soulignée. Je remercie également Monsieur Jean MILLARD du service juridique du port autonome de Paris (aujourd'hui ports de Paris Haropa). Je remercie également le service des statistiques, de la communication de ce même établissement, le Service de la Navigation Amont qui m'a permis de découvrir les fameux magasins d'Austerlitz Je rends hommage aussi au regretté François CARON, qui malgré sa passion pour les chemins de fer, a contribué à la formation des plus farouches canalistes ! Je rends aussi hommage et remercie à l'association Ville-Univers. 1 Sur le plan personnel, je dois aussi remercier ma famille, sans qui la présente thèse n'aurait jamais pu voir le jour. Aucun mot ne saurait exprimer ma gratitude. Je dois remercier plus particulièrement Madame Marie-Louise LALANDRE, ma mère, Monsieur David LALANDRE, mon frère et sa compagne Céline DENAT, d'avoir bien voulu relire l'introduction et la conclusion, leurs corrections, avis, conseils m'ont été extrêmement précieux. Je n'oublie pas mon autre frère Daniel LALANDRE et bien sûr mon père Philippe LALANDRE pour son soutien indéfectible, matériel, technique ou moral et nos longues conversations sur l'Histoire. Bien entendu, je pense à mes amies et amis, certains m'ont apporté une aide directe, d'autres une aide morale, qui n'en a pas été moins précieuse. En tout cas, ils occuperont toujours une place spéciale dans mon coeur. Malheureusement, je ne peux pas toutes/tous les citer, et je m'excuse d'avance pour les omissions Il n'y a aucun ordre de préférence, je les cite en vrac : Mlle TRAN Nhu, Mlle LUONG Maiez, Mlle HUNG Shiau des étoiles, Mlle NGUYEN Kim-Cuong, Mlle CHANG Pe-Jou, Mlle ZHANG Shuang, Mlle HSIEH Yu-Hsin, Mlle HUANG Yahsien, Mlle CHI Yi-Ting, Mlle SOMA Atsumi, M. MAHEMARA Keisuke, M. SONG Dae-hyeon, Mlle HANG Ho, Mlle Ngoc LAN PHAN, M. LIN Ting-Hsu, Mlle LIU An-Chi, Mlle NGUYEN Quyen, M. Olivier JOURDAIN, (merci pour tes premiers essais de numérisation !) Je ne pensais pas faire autant de remerciements, mais je ne dois pas oublier mes trois plus grandes inspiratrices pour cette recherche, à savoir les deux soeurs jumelles, l'Yonne, la Seine et la Durance dont le goût si cher à Giono m'accompagnera jusqu'à la fin de mes jours. Il ne faudrait pas omettre non plus la musique, la peinture, la littérature, cette recherche a souvent été le prétexte pour m'imprégner de la beauté de la vie : Debussy, Ravel, Tournemire, Magnard, les impressionnistes qui sont trop nombreux pour être cités et bien évidemment Émile Zola, Hector Malot (pour le tour de France en voie d'eau qu'il nous propose) et tant d'autres 2 Liste des abréviations usitées : AN : Archives Nationales. AD : Archives départementales. AP Archives de Paris. AMB Archives Municipales de la Batellerie. ACCIP : Archives de la Chambre de Commerce et d'Industrie de Paris CGT : Confédération Générale du Travail. CMP Compagnie du Chemin de fer Métropolitain de Paris C.S.S. : Compagnie des Sablières de la Seine PLM : Paris Lyon Marseille H.P.L.M. : Havre Paris Lyon Marseille O.N.N. : Office Nationale de la Navigation P.A.P. : Port Autonome de Paris. PO Paris-Orléans 3 Introduction générale : écrire et penser l'histoire d'un port improbable : le port de Paris. Les défis à relever pour une définition du sujet. Un port est un lieu ambigu, une interface entre l'eau et la terre : il n'est ni tout à fait l'un, ni tout à fait l'autre. Bien que composante du paysage urbain, les berges des fleuves semblent receler une dimension singulière, et constituer un lieu à part qui n'est pas tout à fait la ville1. Le héros du roman d'Émile Zola, Claude Lantier, se réfugie ainsi loin des tumultes de son existence et de la ville dans la peinture, à l'ombre du pont des Saints-Pères ou au port de Saint-Nicolas 2 , au point de devenir un familier des employés de la navigation qui lui gardent ses peintures fraîches de manière à ce qu'il n'ait pas à les transporter chaque jour de son domicile aux quais séquaniens3. L'écrivain décrit fort bien ce statut si singulier des bords de la Seine : « C'était une joie pour lui, ce refuge, sous ce Paris qui grondait en l'air, dont il sentait la vie ardente couler sur sa tête » 4. Pourtant, ce même lieu étrange, ou tout au moins étranger à la ville, apparaissait comme le théâtre d'une activité portuaire intense : « [] la grue la Sophie, manoeuvrait, hissait des blocs de pierre ; des tombereaux venaient s'emplir de sable; des bêtes et des hommes tiraient, s'essoufflaient sur les gros pavés en pente qui descendaient jusqu'à l'eau, à ce bord de granit où s'amarrait une double rangée de chalands et de péniches; et, pendant des semaines, il s'était appliqué à une étude, des ouvriers déchargeant un bateau de plâtre, portant sur l'épaule des sacs blancs, poudrés de blanc euxmêmes, tandis que, près de là, un autre bateau, vide d'une large tache d'encre5 ». Enfin, ce commerce ne se caractérisait pas seulement par son intensité, mais il revêtait une dimension 1 Émile Zola, L'oeuvre, Paris, Le Livre de poche Classique, 1996, p.334. Comme en témoigne la précision des descriptions dans ses oeuvres, Zola avait mené des recherches approfondies sur la navigation fluviale à Paris. Voir « Notes sur Paris », dans Émile Zola, Carnets d'enquêtes : Une ethnologie inédite de la France, Paris, Plon, Terre humaine/Plon, 1993, p.285. La Seine se manifeste comme un des « personnages » récurrents chez Zola qui la dissémine effectivement dans ses romans : dans la série des Rougon-Macquart, L'oeuvre est sans doute le roman qui décrit le plus volontiers les berges de la Seine, à Paris ou en dehors de la capitale, et plus spécialement, l'activité portuaire. Toutefois, la Seine apparaît également dans La Curée (1872), Son excellence Eugène Rougon (1876), La Débâcle (1892), et en filigrane dans Le Ventre de Paris (1873) En dehors de la fameuse série, il faut mentionner bien entendu Thérèse Raquin (1867), où le fleuve apparaît bien plus que pour simplement planter le décor, et joue un rôle majeur dans l'intrigue. 2 Localisé sur la rive droite de la Seine, le port Saint-Nicolas a porté également le nom de port du Louvre et plus anciennement de port du Musée, il constitue une portion de l'actuel port du Louvre. Il sera question à plusieurs reprises de ce port dans le courant de la thèse. 3 Les bords de Seine et de ses affluents ont constitué une source majeure de la peinture de ce siècle. Sans les transformations que connut le réseau navigable, l'histoire de l'art aurait pu être différente. Le thème de la Seine et de la peinture au XIXe siècle a fait l'objet de nombreuses expositions, recherches 4 Situé dans les 6e et 7e arrondissements de Paris, le quai des Saints-Pères commence au pont des Arts pour finir au pont Royal. 5 Émile Zola, L'oeuvre, op. cit., pp.334-335. 4 dépassant le simple cadre régional : « Le port Saint-Nicolas le passionna d'abord de sa continuelle activité de lointain port de mer, en plein quartier de l'Institut6 ». Le port de Paris est l'un des aspects/lieux les plus méconnus de la région parisienne. De prime abord, il peut sembler insolite de parler de « port » pour la capitale. Nombre de Parisiens ignoraient et ignorent encore aujourd'hui, jusqu'à son existence même. En effet, le port de Paris n'a longtemps correspondu à aucune entité administrative bien déterminée, et cela, au moins pour la période qui concerne cette étude. En outre, l'autre obstacle de la compréhension de notre sujet consiste dans le fait que l'étendue géographique du port de Paris a considérablement évolué du XIXe siècle à nos jours. Dans ces conditions, le port de Paris ne correspond pas à la définition traditionnelle du terme. On doit observer, en premier lieu, qu'il s'agit d'un port fluvial. Le terme fluvial n'est pourtant pas tout à fait pertinent, puisque des petits caboteurs remontent la Seine jusqu'à Paris. Il serait alors plus approprié de parler de « port intérieur », sauf que certains d'entre eux revêtent une physionomie maritime plus marquée, tels les ports des grands lacs américains ou encore ceux de la mer Caspienne Le terme port fluvial intérieur semblerait peut-être plus adapté. Cependant, cette définition s'appliquerait de même à Rouen, à la différence près que cette ville possède a priori une vocation maritime sensiblement plus prononcée. La difficulté de définir le port de Paris tient au fait qu'il consiste en plusieurs types d'installations : canaux, ports à darses, ports sur berges (quais droits et ports de tirage) et par voie de conséquence, à des réalités protéiformes. Ainsi, les ports de Gennevilliers, de Bonneuil et Limay correspondraient mieux à la définition moderne d'un port, dans la mesure où ils se composent de darses avec tout l'équipement destiné à recevoir des marchandises, et d'une zone industrielle portuaire incluant des activités industrielles plus ou moins liées à l'activité portuaire et d'un hinterland formé par les zones où se trouvent disséminées leurs marchandises. Les autres catégories d'installations sur le fleuve et les canaux correspondraient plutôt à l'image classique de l'activité fluviale avec une berge équipée ou non d'un quai, pouvant se révéler de tous les types (palplanches métalliques, quais droits en pierre ou béton, etc.), et bien entendu de grues. Le port de Paris apparaît ainsi tel un réseau de rivières, de canaux et de bassins (bassins de La Villette et de Pantin). Certains analystes préfèrent parler des « ports de Paris », en soulignant avec le pluriel, à juste titre, le caractère hétéroclite de ce dispositif portuaire7. Néanmoins, au XIXe siècle, on parlait également des 6 Ibid., p.334. Voir notamment la préface de l'ouvrage suivant : Auguste Pawlowski, Les ports de Paris, avec 27 vues photographiques, Paris, Berger-le-Vrault, 1910, 159p. Toutefois, l'auteur cherchait avant tout à rendre compte de 7 5 « ports de Paris », c'est-à-dire des installations sur la Seine, par opposition aux canaux, ce qui ne renvoyait pas tout à fait à la même réalité. Il faut noter que depuis 2010, le port autonome de Paris a été rebaptisé « Ports de Paris »8. La délimitation spatiale de notre sujet bute sur diverses complications. La première consiste à s'interroger si l'on doit cantonner cette étude aux installations portuaires de Paris intra-muros ? La question se révèle fondamentale dans la mesure où le port de Paris s'est conformé à l'évolution progressive des transferts de l'industrie parisienne vers la périphérie de la capitale. Celle-ci se voit de moins en moins tolérée par ses habitants, et surtout face à une conception urbanistique aspirant à la monumentalisation de Paris9, où évidemment des activités telles que les industries ne trouvaient plus guère leur place Les industries se montraient, en outre, gourmandes en surfaces, et seule la banlieue paraissait offrir les conditions nécessaires au déploiement de leurs activités 10 . L'évolution des installations portuaires de la région parisienne a suivi, bien évidemment, celle de l'industrie : développement des ports de La Villette, d'Ivry, du canal Saint-Denis Ce mouvement s'est opéré sur près de deux siècles. Même si le terme était déjà employé, les relevés de la navigation effectués par le ministère des Travaux publics ont, sans doute, contribué à la popularité de l'expression « port de Paris » dont la première mention officielle, et par voie de conséquence, historique, se formulait de la sorte : « Dans la traversée de Paris, les quais de la Seine, ainsi que ceux des canaux Saint-Martin et Saint-Denis, sont aménagés en vue de pourvoir à tous les besoins de la navigation. Les points où s'effectuent les embarquements et les débarquements sont nombreux ; ils se succèdent à intervalles si rapprochés que cette section du fleuve et ses annexes forment, pour ainsi dire, l'activité de chacun des ports de Paris et de sa banlieue. En ce sens, il adoptait une vision plus large de l'activité portuaire, et avait parfaitement perçu les interactions entre la capitale et sa périphérie et saisissait bien la globalité de l'activité portuaire. Il est l'un des premiers à avoir montré l'importance des ports de banlieue, ou à tout le moins, à avoir popularisé la connaissance de l'activité portuaire dans toute la région parisienne, et pas seulement dans Paris intramuros. 8 Ce déplacement sémantique n'est pas anodin. En effet, l'ouvrage de Jean Millard publié en 1994 s'intitulait « Paris, Histoire d'un port. Du Port de Paris au Port autonome de Paris ». À l'occasion de mon propre ouvrage, le port autonome de Paris préférait souligner la dimension francilienne du port, tandis que l'éditeur souhaitait tout de même ancrer le livre par rapport à la capitale. Un compromis fut donc trouvé : « Les ports de Paris et d'Ilede-France ». 9 Isabelle Backouche, La trace du fleuve, La Seine et Paris, Paris, Éditions de l'École des Hautes Études en Sciences Sociales, 2000, 430p. 10 Jean Bastié, La croissance de la banlieue parisienne, Paris, P.U.F., 1964, pp. 81-87. Néanmoins, comme on l'observera, cette évolution s'est révélée bien plus lente et plus complexe que ce que l'on aurait pu le croire, Paris conservant sa primauté pendant longtemps encore 6 un port unique11 desservant différents quartiers de la ville et de sa banlieue. Ainsi défini, le port de Paris est l'objet d'un trafic considérable qui le place au premier rang12. » En 1889, les mêmes relevés ajoutèrent la portion intra-muros du canal de l'Ourcq et insistèrent sur le rôle du bassin de la Villette en tant que point de jonction entre les trois canaux à la faveur des travaux de rénovation de ces deux ouvrages. Les années suivantes, la définition n'a guère varié, en dehors de quelques précisions au sujet de l'outillage et des infrastructures. Les services des Ponts-et-Chaussées considéraient ainsi « la Seine et les canaux affluents du département de la Seine comme les bassins gigantesques d'un port unique, dit de Paris13 ». Il importe de noter que le ministère des Travaux publics ne bornait pas cet ensemble portuaire à la seule capitale intra-muros, mais prenait en compte ses interactions avec la banlieue. L'impression d'unicité se trouvait renforcée par le fait que les statistiques de ce même ministère ne fournissaient pas les tonnages transbordés spécifiquement sur chaque quai, mais seulement des chiffres globaux 14 . Pourtant, cette définition s'avère, somme toute, exclusivement technique, pour ainsi dire « logistique », elle évacue toute dimension administrative. C'est-à-dire que même s'il n'existait pas d'organe propre à gérer ces ports, cette définition n'évoque pas même les acteurs encadrant, ou ne serait-ce que chargés d'entretenir, surveiller, ces quais Le « port de Paris » se trouve ainsi « dépolitisé », dans le sens de « extrait » de son contexte urbain, comme extraite de la cité, afin qu'il apparaisse avant tout comme une entité économique et technique, quasi abstraite aux yeux des ingénieurs du corps des Ponts-et-Chaussées, ou tout au moins, du point de vue de la représentation officielle qu'ils en font. Malgré cette disparité, de manière paradoxale, l'unicité du terme port de Paris semblait tenir à coeur aux différentes administrations encadrant l'activité portuaire : « Pour le service des ponts et chaussées, qui construit et entretient les quais, pour celui de la navigation fluviale, filiale de la préfecture de police, qui régit l'exploitation et le trafic du fleuve, pour la ville, qui perçoit ses redevances sur les arrivages fluviaux et préside aux destinées du bassin de la Villette, l'expression Ports de Paris, au pluriel, est plus qu'une superfétation, c'est une hérésie15 ». C'était toute l'étrangeté d'un port dépourvu de réel statut, mais dont l'unicité économique semblait remporter l'unanimité auprès des administrations qui le régissaient. 11 Nous soulignons. Ministère des Travaux publics. Direction des routes, de la navigation et des mines. Division de la navigation. Service spécial de statistique. Nomenclature et conditions de navigabilité des fleuves, rivières et canaux. Relevé du tonnage des marchandises transportées sur les fleuves, rivières et canaux pendant l'année 1883, Paris, Imprimerie Nationale, 1885, p.34. 13 Auguste Pawlowski, op.cit., p.IX. 14 D'où l'importance de la question des statistiques. Voir plus loin le développement sur ce thème. 15 Ibid. 12 7 Considéré dans son sens le plus large, le « port de Paris » correspondait, pour d'autres analyses16, à un ensemble bordé d'une soixantaine de kilomètres de rives, dont une partie était destinée à la batellerie. Au seuil du XXe siècle, il se composait d'une quarantaine de ports au sens le plus souvent de sections de quais, offrant ainsi en Seine plus de 26 km et de 9 à 10 km de rives accostables sur les canaux. L'administration des Ponts-et-Chaussées attribuait au port de Paris, en dehors des canaux et des sections fluviales dans Paris intra-muros, toute la partie extérieure du canal de Saint-Denis jusqu'à la jonction avec la Seine à la Briche, alors qu'administrativement, en 1911, au moment où ont été créées les commissions pour réflechir sur l'avenir des infrastructures portuaires, après la crue de 1910, le port s'étendait sur près de 28 à 30 km de voies et de bassins 17 . Ces installations portuaires se révélaient cependant d'inégales qualités : certaines devenues obsolètes à l'aube du XXe siècle18, demeuraient des ports de tirage et se trouvaient parfois dépourvues de matériel19. D'autres consistaient en ports droits équipés d'une arête de quai perpendiculaire contre laquelle les bateaux bénéficiaient de la possibilité d'accoster, c'est-à-dire, en 1911, un peu plus de 9 000 mètres, dont 4 000 sur la rive droite et 5 000 sur la rive gauche. Sur les canaux, la largeur des quais droits atteignait 7 kilomètres. De fait, après la période étudiée dans la présente thèse, les publications du service technique du port de Paris de 1933 et 1958 intégraient les ports de Gennevilliers et de Bonneuil-sur-Marne. Il faut donc y adjoindre : Choisy-le-Roi, Alfortville, Ivry, Charenton, Bercy en amont, Issy, Billancourt, Boulogne, Puteaux, Courbevoie, Levallois, Clichy, SaintOuen, Saint-Denis en aval, Pantin à la sortie du canal de l'Ourcq Il s'agit, en quelque sorte, de « dépendances » de la grande ville par rapport à leurs centres d'emmagasinage, de concentration, de distribution de vivres, de matériaux et de forces, avec leurs entrepôts, ateliers et usines, etc. Une étude du port de Paris ne saurait donc se cantonner simplement à la ville, et cela d'autant plus qu'au cours du XXe siècle, les installations portuaires tendirent à disparaître des quais parisiens pour se transférer vers les périphéries, voire dans l'ensemble de l'actuelle Île-de-France20. 16 À savoir celle de François Maury, mais surtout d'Auguste Pawloswki. En fait, il s'agit de celle adoptée pour cette thèse aussi, tout en prenant, et en prenant en compte les multiples conceptions. Au contraire, l'objectif vise à les envisager, comparer, confronter 17 Répartis comme suit : 1) Seine : Traversée de Paris des fortifications amont aux fortifications aval, par le grand bras du fleuve : environ 12 km. Autres bras du fleuve : 2 km. 2) Canal Saint-Martin : 4,5 km. 3) Canal de l'Ourcq [bassins de La Villette jusqu'aux fortifications] : 2 km 4) Canal de Saint-Denis et bassins : 7,5 km. 18 Et les autorités tardèrent à les convertir en ports en droit 19 Bien qu'il soit malaisé de fournir un chiffre précis, le port de Paris aurait employé encore autour de 2 000 ouvriers pour le déchargement des péniches. 20 Même si la précocité ou non de ce mouvement peut prêter à discussion. 8 Figure 1 Le canal Saint-Denis au début du XXe siècle. Cette photographie du début du XXe siècle témoigne à la fois de l'intensité du trafic du canal Saint-Denis, de sa vocation industrielle et commerciale, mais elle justifie également l'appellation de « port municipal » ; plus qu'un simple canal, il s'agit d'un alignement de plusieurs kilomètres de quais accostables, et d'autant d'activités portuaires potentielles [archives personnelles]. Après avoir défini d'une part, la typologie du port de Paris, et d'autre part, sa géographie, il convient d'en déterminer la fonction. En effet, deux types de ports doivent être distingués : les ports de transit et les ports de consommation. Un port de transit reçoit des marchandises majoritairement destinées à être réexpédiées. Ce sont souvent les ports maritimes tels que Le Havre, Rotterdam encore faut-il remarquer que ces villes ont développé une zone industrielle portuaire. Toutefois, une partie notable de leur trafic se contente de transiter. Par exemple, le port de Rouen reçoit des matières premières vouées à la région parisienne : charbons, céréales Les marchandises sont transbordées des navires de mer à destination du rail, de la route ou encore de la voie d'eau. De même, il existe des ports intérieurs de transit à l'instar du port de Duisbourg, dont les marchandises transitent vers Hambourg ou inversement. Or, tel n'a jamais été vraiment le cas pour Paris et son port. Paris s'avère avant tout un port de consommation, dont la vocation consiste à recevoir les marchandises à moindre frais, et pour certaines, à les convoyer au plus près des consommateurs : usines électriques, chantiers de construction, ce qui explique en partie la structure de notre sujet21. Toutefois, ce constat ne signifie pas qu'il n'y ait pas eu de tentative 21 Archives de la Chambre de Commerce et d'Industrie de Paris, IV-4.61(13), Charles Lavaud, « Le port de Paris », mai 1925, Chambre de Commerce de Paris. 9 de modifier cette vocation, bien au contraire, le siècle fut marqué par la volonté d'un autre Paris, et de ce fait, d'un autre port de Paris. L'autre problématique réside dans la complexité administrative de l'ensemble portuaire envisagé. L'objet de notre étude constitue une vaste mosaïque de ports qui n'a été gérée par aucune administration spécifique jusqu'à la création du port autonome en 196822. Observateurs et usagers du port regrettaient certes, une telle situation, qu'ils jugeaient déplorable, dans la mesure où elle empêchait effectivement toute gestion rationnelle, ou bénéficiant au moins d'une certaine coordination : « Il n'en reste pas moins établi que l'organisation est trop complexe et que l'unité de direction indispensable à toute grande entreprise, n'y est pas assurée23. » Un autre élément permettait de souligner le caractère « portuaire » de Paris, à savoir le rapport entre le trafic en tonnages absolus et le tonnage-kilométrique. En effet, le tonnage absolu sur la Seine dans la traversée de Paris se rangeait à lui-seul au premier rang quasiment tout au long de la période étudiée devant les autres sections (Escaut, Oise). Le plus remarquable est que son trafic-kilométrique s'avère relativement plus modeste, celui-ci étant le produit du tonnage absolu par la distance parcourue par ces tonnes. En effet, la traversée de Paris s'étend « seulement » sur une douzaine de kilomètres, ce qui montre l'intensité du trafic. D'ailleurs, un autre indicateur significatif était celui des arrivages qui se situent également au premier rang français. Par exemple, en 1882, le tonnage-kilométrique de la 7e section de la Seine, c'est-à-dire le parcours entre la Briche et Conflans-Sainte-Honorine, se montait à 87,9 millions de tonnes kilométriques, contre 20,6 millions pour la traversée de Paris, soit presque quatre fois moins pour ce dernier. Pourtant, en termes de tonnage effectif, son trafic figurait en première place, avec 2,9 millions de tonnes, pour la même année, contre 2,3 millions pour la section entre la Briche et Conflans24. 22 Le port de Bonneuil a été construit par l'État pour des besoins militaires, la Chambre de commerce de Paris fut conviée à développer les installations, mais progressivement elle se désengagea. Finalement, l'Office National de la Navigation se chargea de son développement. La police des ports a longtemps été à la charge de la Préfecture de Police qui en est déchargée dans les années 1930 au profit du département de la Seine. Il n'est devenu opérationnel qu'après la seconde guerre mondiale pour devenir actuellement la seconde plate-forme multimodale du Port autonome de Paris. 23 Bulletin municipal officiel du mardi 18 avril 1905. Renvoi à l'Administration à la 6 e Commission de M. Jolibois et de plusieurs de ses collègues relative à l'unification des services administratifs du port de Paris, pp.101-102. 24 Bien que figurant tout de même à la 4e place. 10 Problématiques : les facteurs de dynamisme des voies navigables sur l'économie parisienne. La difficulté de notre sujet tient au fait que celui-ci ne correspond pas à un ensemble cohérent du point de vue tant physique (réseau de voies d'eau) qu'administratif. Les sources d'archives se trouvent, par conséquent, écartelées entre diverses institutions : archives nationales, départementales, de la préfecture de Police, municipales, de la chambre de commerce et d'industrie de Paris, du Musée de la batellerie L'enjeu de son étude consiste à synthétiser un sujet qui a évolué de manière confuse. Il faudra donc se montrer capable de cerner les logiques de son évolution, de déterminer finalement comment le port de Paris s'est adapté aux mutations économiques. Les choix des décideurs ont-ils été judicieux ? Quels ont été les facteurs de son développement ? Quels ont été les freins ? L'autre questionnement vise à s'interroger sur la capacité de la batellerie à s'adapter aux nouvelles conditions économiques. Quels modes techniques, économiques, composèrent la dynamique de transport fluvial, plus particulièrement sur la Seine à Paris ? Quelle a été la contribution du fleuve à l'économie de l'agglomération parisienne ? L'autre grande interrogation consiste à réfléchir en quoi la batellerie a contribué ou non à favoriser l'industrie française, notamment sous l'emprise du libre-échange et du protectionnisme. La navigation intérieure a souvent été accusée d'avoir favorisé les importations de marchandises telles que les combustibles minéraux britanniques, les céréales des nouveaux mondes, les vins d'Espagne et d'Algérie, etc. Il convient d'examiner en quoi ces assertions se vérifient dans les faits, si elles n'appellent pas quelques nuances. Au final, ces questions reviennent à un questionnement bien plus large : la batellerie a-t-elle représenté un frein ou un moteur pour l'économie française, et plus spécifiquement parisienne ?25 C'est encore reposer la question de la pertinence des politiques menées en faveur ou au détriment des voies navigables. 25 Ce qui n'est pas forcément la même chose. 11 Intérêt de la recherche : envisager sous un nouvel angle le rôle de la navigation avant la Première Guerre mondiale. La part de l'utopie dans la compréhension des infrastructures. L'objet de thèse débute à une époque durant laquelle le transport fluvial se trouve confronté aux effets de la concurrence des chemins de fer. Il lui faudra plusieurs décennies pour s'adapter et revêtir une nouvelle fonction, à savoir celle, quasi exclusive, de pourvoyeuse de pondéreux. Cette conversion s'est opérée essentiellement à travers l'amélioration des infrastructures fluviales. Le XIXe siècle apparaît de façon simultanée comme un siècle marqué par l'avènement de la technique et du rationalisme, mais ces deux mêmes éléments ont, de manière paradoxale, encouragé les utopies. Au point que souvent, les sources liées aux projets se révèlent plus abondantes que celles se rapportant strictement à l'exploitation d'un ouvrage, un entrepôt Les sources se montrent ainsi plus prolixes quant au processus d'élaboration des projets ou à l'égard des échecs Toutefois, la part d'utopie de ces documents n'enlève rien à leur intérêt, non seulement en termes de représentation, mais tout autant pour les informations qu'ils contiennent le plus souvent. Cette approche n'est pas inédite. Les projets de ports et entrepôts parisiens dans la première moitié du XIX e siècle ont suscité de nombreux articles, surtout depuis celui de Barrie M. Ratcliffe26, qui s'est efforcé d'étudier minutieusement des projets qui avaient échoué pour finalement être oubliés avec l'avènement des chemins de fer. Pourtant, ces projets ont fait l'objet de nombreuses spéculations et discussions, et ils éclairent sur les enjeux économiques, commerciaux et urbanistiques, voire stratégiques exprimés dans les débats qu'ils ont suscités27. La modernisation portuaire revêtait deux volets : l'amélioration de l'outillage en vue d'optimiser le conditionnement des marchandises et une vision plus globale de la fonction du port de Paris, voire de Paris lui-même. Paris port de mer appartient à cette dernière. Il est possible de parler d'une opposition entre le « port réel » et le port « mythique », à savoir une voie alternative visant à transformer la vocation portuaire de la capitale. Des tentatives de réconciliation entre les deux visions se manifesteront à travers la création du port d'Ivry, au travers des commissions entre 1911 et 1914 sur la modernisation de l'outillage portuaire, et plus tard sur les grandes réalisations que sont les ports de Gennevilliers et de Bonneuil 26 Barrie Michael Ratcliffe, « The business elite and the development of Paris: interventions in ports and entrepôts, 1814-1834 », Journal of European economic history, 1985, pp.95-142. Mais consulter aussi : Sara Von Saurma, « Les entrepôts du canal Saint-Martin », in Béatrice Andia, Simon Texier (dir.), Les Canaux de Paris, Délégation à l'action artistique de Paris, Paris, 1994, pp.118-132 ; Isabelle Backouche, La trace du fleuve, La Seine et Paris, Paris, Éditions de l'École des Hautes Études en Sciences Sociales, 2000, pp.352-358. 27 Claire Lemercier, La Chambre de Commerce de Paris, 1803-1852. Un « corps consultatif » entre représentation et information économiques, sous la direction de Gilles Postal-Vinay, École des Hautes Études en Sciences Sociales (EHESS), 2001, p.430 [Version électronique]. 12 Les conflits constituent souvent un des moteurs de l'histoire, ou tout au moins, permettent d'en mieux cerner les dynamiques. Sans prétendre à une dialectique hégélienne28 ou marxiste, il n'en demeure pas moins que les mutations de la navigation s'inscrivirent bien dans la confrontation avec les nouvelles contraintes qu'imposa l'avènement de l'ère ferroviaire. En réalité, cette révolution dépassait largement la simple entrée d'un nouveau mode de transport, elle correspondait à un bouleversement bien plus considérable, à savoir la révolution logistique que sous-tendaient les nouvelles techniques issues de la révolution industrielle et plus encore, d'un déplacement de l'échelle spatiale. Cette évolution a ainsi mis en congruence activités commerciales, travaux publics, industries Les ports sont devenus un élément et un enjeu de ce vaste mouvement d'industrialisation et de mondialisation29. Les enjeux que représentaient les politiques de transports se révélaient donc considérables, car en dépendait la puissance économique d'un pays. La rivalité entre les chemins de fer et la batellerie résultait de ces enjeux. En un sens, cette thèse dépeint une « guerre » entre deux modes de transports, cette vaste bataille dont le terrain s'étendrait sur tout le bassin parisien, dans la mesure où Paris constituait l'axe de gravité de l'économie française, ou tout au moins, des voies de communication, et plus particulièrement de la batellerie30. Certes, il s'agissait bien évidemment d'un conflit « pacifique31 ». Étudier la batellerie au XXIe siècle revient, en apparence, à envisager celle-ci telle une technologie désuète ou l'évocation d'une époque révolue De la même façon, les Français semblent avoir oublié la source d'énergie dont leur économie dépendait dans de très larges proportions, et à une date qui n'était pas si reculée, à savoir le charbon. Péniches et centrales thermiques au charbon paraissent avoir sombré dans les tréfonds de l'Histoire Pourtant, ce point de vue ne correspond pas forcément à la réalité : le charbon demeure une source d'énergie majeure et est toujours employé par des puissances économiques que l'on ne saurait 28 Georg Wilhelm Friedrich Hegel, La raison dans l'histoire : introduction à la Philosophie de l'histoire, trad. Kostas Papaïoannou, Plon, 1965, pp.177-230. 29 Bruno Marnot, La mondialisation du XIXe siècle (1850-1914), Paris, Armand Colin, 2012 ; Bruno Marnot, Les grands ports de commerce français et la mondialisation du XIXe siècle, Paris, Presses universitaires ParisSorbonne, 2011, p.1. 30 Les statistiques de la navigation intérieure reprenaient pour le compte des voies navigables le « réseau en étoile » de Legrand. Toutefois, il y avait, quand même, une certaine logique de prendre Paris comme centre nodal, dans la mesure où ce choix ne résultait pas purement de motivations politiques de renforcer la centralité de la capitale. Mais de manière plus prosaïque, Paris se trouvait localisé à la confluence des cours d'eau du bassin séquanien. La simple logique des trafics encourageait à ce découpage, le contraire n'aurait guère été naturel. 31 Pas toujours si pacifique, comme on l'évoquera, des conflits parfois violents ont pu se produire, notamment des émeutes de mariniers. Il est possible de citer encore les grèves de sablières, qui résultèrent, en un sens, de la concurrence avec les chemins de fer qui obligèrent à une surspécialisation des voies navigables, et une recherche extrême des bas coûts et de la disparition du modèle familial qui prévalait dans les sablières. 13 qualifier d'arriérées : que ce soit « d'anciennes » nations industrielles, telles que les ÉtatsUnis ou l'Allemagne ou des pays émergents tels que la Chine ou l'Inde, etc. Or, une analyse identique pourrait être formulée concernant la navigation intérieure qui se développe dans certains de ces mêmes pays. Pourquoi étudier le transport fluvial ? Tout d'abord, si l'on considère le transport fluvial comme appartenant au passé, il paraît naturel de l'étudier en tant qu'objet historique. L'erreur pour l'historien consisterait à considérer comme inéluctable le déclin du transport fluvial, ce qui le conduirait à envisager l'histoire des transports à partir du point de vue de la fin du XXe siècle ou du début du XXIe siècle. En outre, ce constat de déclin doit être nuancé, car le transport fluvial demeure non négligeable dans des pays tels que la Chine ou les États-Unis32, voire en Europe avec l'Allemagne ou les Pays-Bas33. Le port de Liège a ainsi connu une véritable résurrection, dans les années 1990, avec un trafic fluvial progressant de 7 à près de 12 millions de tonnes34, talonnant, dépassant même le trafic actuel du port autonome de Paris35. Le trafic fluvial est resté autour de 10 % du trafic global, en France, jusqu'au début des années 197036. Il s'avère malaisé de définir une chronologie stricte pour notre sujet. L'objet d'étude ne correspond, en effet, pas à un ensemble clairement identifiable, mais au contraire en constante évolution. Il n'y a, en outre, guère de dates marquantes. L'inauguration d'un ouvrage ne constitue qu'une péripétie, et l'on doit envisager tout le processus ayant abouti à sa création, et il faut ensuite examiner son exploitation. Le milieu du XIX e siècle correspond à une rupture technologique, à savoir l'émergence des chemins de fer en France. Le transport fluvial s'est trouvé alors confronté à un nouveau concurrent qui remit en cause sa propre existence. Cette menace nécessita une profonde mutation. C'est au cours de cette période que le port de Paris revêt sa physionomie actuelle, à savoir celle d'un port de consommation au 32 « États-Unis : des infrastructures fluviales remarquablement étendues », in Navigation, ports et industries, 30 juin 1998, p. 363. Bien entendu, la question du transport fluvial américain mériterait une thèse à elle seule. 33 J. M. Deplaix, « À l'encontre de l'impression générale, la voie d'eau poursuit sa croissance à travers le monde », Navigation, ports et industries, 25 décembre 1986, pp. 740-742. 34 P. Prijs, « Liège termine le millénaire en force », port autonome de Liège, 2000, p. 3. Le trafic global (route, voie ferrée) est passé de 9 millions à 25 millions de 1990 à 1999. Cependant, durant la décennie suivante, le port a connu une progression moindre avec un sommet de 21 807 221 tonnes, en 2008. Depuis, le trafic semble marquer le pas On pourrait invoquer encore l'exemple du port de Gand. Voir : Port autonome de Liège, Rapport annuel 2014, p.48. Il est à noter que le port autonome de Liège n'hésite pas à fournir les statistiques de son trafic depuis sa création en 1939. Sur le très long terme, malgré l'infléchissement du début des années 2010, la progression demeure remarquable, car jusqu'en 1990, le trafic n'avait jamais excédé la barre des dix millions de tonnes. 35 Jean-Pierre Grafé, « Port de Paris ou port de Liège ? Le classement », in La vie du Rail, 19 avril 2000. L'article émane d'un député, ex-ministre belge. Les rédacteurs de la revue font toutefois remarquer que le trafic total du port autonome de Paris, si l'on incluait le rail et la route, dépassait les 50 millions de tonnes. 36 Ministère des Transports, ministère de l'Équipement, Office National de la Navigation Statistique annuelle de la navigation intérieure. Année 1970. 14 service de l'industrie et de la construction. Concernant la périodicité de la fin de la thèse, la tâche s'avère plus délicate. En effet, il serait envisageable d'opter pour 1910, année correspondant à l'inondation historique qui entraîna une remise en cause globale de l'outillage portuaire. Après la création d'une commission contre les inondations de la Seine dans le courant de l'année 1910, fut créée le 14 janvier 1911 une commission dite « Paris port de mer » en vue d'améliorer l'outillage. Celle-ci rendit ses conclusions en juin 1914. En conséquence, les dates de 1910, 1911 et 1914 paraissent toutes recevables. Le déclenchement de la guerre ne modifia pas grand-chose quant au développement du port. La rupture intervient avec la reconstruction et le nouvel essor industriel des années 1920. En effet, le trafic du port de Paris atteint un de ses sommets vers 1931. Les années d'après-guerre inaugurent par conséquent une nouvelle phase. Sur le plan de l'outillage portuaire, le département de la Seine s'appropria les propositions émises par les commissions entre 1911 et 1914. Tout système et à plus forte raison tout système économique, s'efforce d'exploiter au maximum ses capacités, mais il peut se révéler au final inférieur à un système qui tout au moins en apparence, n'est pas censé parvenir à des résultats comparables 37. Les chemins de fer pouvaient paraître plus modernes, plus efficaces, et la batellerie désuète, mais la « victoire des chemins de fer38 » n'apparut au bout du compte que tardivement, et pire encore, sembla constituer une « victoire à la Pyrrhus », dans la mesure où ce même mode de transport se trouva confronté à de nouvelles difficultés avec l'avènement de nouveaux systèmes techniques impliquant la concurrence inédite de modes de transport émergents. De toute évidence, il s'agit d'un processus dont les éléments ne manifestèrent leurs effets définitifs que sur la longue durée, et il ne semble pas pertinent d'envisager la réussite de tel ou tel système de transport sur un très bref laps de temps, car les transformations se déroulèrent sur le très long terme, de l'élaboration d'une politique, à sa mise en oeuvre et à ses effets. S'il paraît envisageable de discerner des phases subites d'accélération au milieu de périodes apparemment stagnantes, le caractère chaotique de ces bouleversements ne doit pas être négligé, et l'on doit se prémunir d'une vision idéaliste des effets de la conjoncture et d'une supposée « destruction créatrice39 », dans le sens où les choix effectués et leurs conséquences n'étaient pas forcément pertinents, ni même imaginés ou compris. Cette « destruction 37 Joseph Schumpeter, Capitalisme, socialisme et démocratie, traduction de l'anglais de Gaël Fain, Paris, Bibliothèque Payot, 1969, p.122. 38 Nicolas Neiertz, La coordination des transports de 1918 à nos jours, Paris, Comité pour l'histoire économique et financière de la France, Ministère de l'Économie, des finances et de l'industrie, 1999, pp.7-8. 39 Joseph Schumpeter, ibid., p.122. 15 créatrice » peut se révéler coûteuse, voire inutile. Ces considérations justifient le choix de la longue durée pour cette recherche. La thèse projetée englobera ainsi les deux révolutions des transports, celle des chemins de fer et celle des débuts de l'automobile et de l'électricité. Au cours de cette période, le port a défini sa fonction de port de consommation de matières pondéreuses, fonction qu'il a conservée jusqu'à nos jours. En ce sens, le port de Paris se distinguait de nombreux ports maritimes de commerce, jouant un rôle de rupture de charge et de noeud de communication. Les ports de commerce maritimes français s'efforcèrent de permettre une transition optimale entre transports maritimes et terrestres. Cette préoccupation existait de manière très ténue pour ce qui était de Paris, puisque se développa un trafic modeste de cabotage, mais plus encore, parce que les produits acheminés étaient directement consommés. Et plus encore, le raccordement allait rencontrer des difficultés pour se mettre en place. Si les ports maritimes, comme le suggère Bruno Marnot sont « devenus les premières-plates-formes multimodales et, par conséquent, les premiers espaces à devoir penser et gérer l'intermodalité des transports 40 », qu'en était-il du port de Paris ? Intermodalité et multimodalité sont-elles totalement et forcément synonymes ? La vocation de port de consommation de Paris et sa banlieue semblait intimement liée à celle des rapports qui se sont établis entre les différents modes de transports, principalement les chemins de fer et les voies navigables. Méthodologie : l'intermodalité en tant que curseur de la dynamique de la modernisation du port de Paris. État de la recherche : une batellerie française contemporaine relativement méconnue. Contrairement à ce que l'on pourrait imaginer, la question fluviale a été assez peu traitée. Étudier la question fluviale contemporaine (prise dans son sens large, à savoir depuis la période industrielle) relève de la gageure Sur le plan de l'histoire universitaire, les travaux demeurent rares et souvent ne sont plus si récents. La thèse de Michèle Merger sur la politique de la IIIe République en matière de navigation s'avère malheureusement déjà ancienne, mais demeure irremplaçable.41 40 Bruno Marnot, « Comment les ports de commerce devinrent-ils des noeuds de communication ? Les leçons de l'histoire française », in Revue d'histoire des chemins de fer [en ligne], 42-43, 2012, mis en ligne le 14 novembre 2014, consulté le 18 novembre 2014. 41 Michèle Merger, La politique de la IIIe République en matière de navigation intérieure de 1870 à 1914, thèse de l'université de Paris-IV sous la direction de François Caron, 1979, 451p 16 Jusque dans les années 1970, la question avait intéressé de nombreux spécialistes, qu'ils soient universitaires, ingénieurs42 Pourtant, ces travaux appartiennent rarement au milieu universitaire historien. Ces études sont souvent le produit de techniciens, de géographes, d'économistes, etc. leur ancienneté et leur nature même conduisent à les employer avec quelques précautions. En effet, il s'agit à la fois d'études de recherches, certes précieuses, mais, du fait de leur ancienneté, celles-ci constituent des documents historiques. Par ailleurs, les géographes et les sociologues se sont longtemps intéressés aux mariniers, mais ces recherches négligent souvent l'évolution des techniques, des politiques fluviales Ou envisagent ces dernières trop succinctement. De manière paradoxale, il revient à un historien des chemins de fer, François Caron, d'avoir posé les bases de la recherche historique universitaire actuelle en matière de navigation intérieure. Dans sa thèse sur la Compagnie du Nord43, il pose effectivement les grandes problématiques sur la concurrence entre les modes de transport, question qui n'avait jusqu'alors que peu intéressé les historiens44. La brillante thèse de Nicolas Neiertz45 se montre concise en matière de transport fluvial. Elle porte finalement un regard « contemporain », faisant apparaître comme inéluctable le déclin de ce mode de transport, et ne méritait donc qu'un traitement limité. Pour ce qui est au moins du port de Paris, le transport fluvial continue de jouer un rôle non négligeable, si ce n'est stratégique46. Il est difficilement imaginable que la reconstruction, puis l'expansion de l'agglomération parisienne, auraient été possibles sans ce mode de transport. Les dernières politiques marquantes en matière de navigation intérieure ont été conduites sous la IVe République et au début de la Ve République, non pas tant du fait d'un véritable regain d'intérêt, mais en raison de besoins objectifs. D'ailleurs, ces politiques demeurent médiocres et peu pertinentes, même si elles ont eu le mérite d'exister 47 Les gouvernements ultérieurs se démarquent par leur absence de courage, tout projet en la matière étant instrumentalisé sans qu'il y ait eu d'aboutissement 42 Leur nombre s'avère trop pléthorique pour les citer ici. François Caron, Histoire de l'exploitation d'un grand réseau : la Compagnie des chemins de fer du Nord, 1846-1937, Paris, Mouton, 1973, 619p. 44 Il faut d'ailleurs rendre hommage à son honnêteté, tant la consultation des sources sur les chemins de fer ne conduisaient pas forcément à l'équité. Sans avoir nécessairement innové, il eut le mérite de prolonger les travaux de Jean-Claude Toutain et Dominique Renouard. 45 Nicolas Neiertz, op. cit. 46 Dès les années 1950, Lucien Morice dans son Que-sais-je ? sur le transport fluvial rappelle les services encore rendus par ce mode de transport. 47 L'inauguration du canal du Nord en 1966 se révèle exemplaire, car nécessitant, dès son ouverture, la création d'un canal à grand gabarit Encore plus dispendieux. Ce dernier apparaît d'ailleurs plutôt répondre au gré des conjonctures politiques. 43 17 Sur le plan de la recherche, les années 1990 constituèrent un rendez-vous manqué. De nombreux ouvrages sont sortis sur le thème48, notamment sur les canaux de Paris, les réseaux parisiens, etc. Le paradoxe des années 2000 réside dans la relative pauvreté des études en matière d'histoire des techniques, un déclin de l'intérêt pour le patrimoine industriel, en dépit des discours bienveillants, à une époque où la technologie et l'innovation se trouvent érigées en dogme quasi religieux, comme si le « progressisme » nuisait à la recherche historique sur les mécanismes oeuvrant effectivement au « progrès » économique La fascination pour le progrès ne favorise donc pas forcément son étude. Il faut ajouter à cela un désintérêt chronique du secteur des transports pour les recherches historiques, notamment universitaires. Aborder la question du port de Paris soulève, par conséquent, un certain nombre de difficultés. En premier lieu, l'historien se trouve confronté au manque de recherches dans le domaine du transport fluvial. Il n'existe aucune étude récente (c'est-à-dire postérieure à 1970) sur l'Office National de la Navigation. En outre, l'historien du port de Paris n'est pas censé écrire l'histoire des politiques françaises en matière de navigation intérieure. Il dispose certes d'études éparses menées par des chercheurs courageux, mais elles s'avèrent souvent anciennes49. Le lecteur des études sur le transport fluvial aux XIXe et XXe siècles ne devra pas s'étonner que celles-ci ne puissent guère s'inscrire dans les problématiques globales de l'histoire académique. Le chercheur doit ici faire « feu de tout bois », et ne négliger aucune étude, même les plus obscures, tant elles paraissent rares. Il ne peut se payer le luxe d'une hiérarchisation trop poussée, dans la mesure où cela reviendrait à atrophier sa réflexion. L'écueil de la littérature historique des transports est de négliger systématiquement l'histoire de la batellerie contemporaine (XIXe-XXe siècles). Tout au plus, les auteurs spécialisés, que ce soit pour l'histoire des transports ou celle de l'urbanisme, y consacrent-ils une ou deux pages, dans le meilleur des cas. Dans sa thèse, au demeurant remarquable, Nicolas Neiertz consacre une place beaucoup plus large à la période d'après-guerre, la partie sur la coordination rail-eau dans les années 1930 semble plus réduite, alors que la documentation disponible sur la question mériterait une étude à elle seule 50 . Pourtant, il n'existe aucune 48 Et plus largement sur celui des transports. Michèle Merger s'intéresse aujourd'hui plutôt à l'histoire des chemins de fer italiens. On peut citer tout de même pour le XXe siècle son étude sur le canal Rhin-Rhône, qui décrit certains aspects de la politique fluviale française. Restent encore les études de Bernard Lesueur d'une grande richesse, qui s'intéressent surtout aux mariniers et aux évolutions techniques, mais assez peu aux questions économiques et aux politiques fluviales proprement dites. 50 La question semble quasi absente de l'historiographie au XXe siècle. Aujourd'hui, on parle du déclin de la batellerie sans connaître réellement l'histoire de ce déclin. Le raisonnement est essentiellement tenu sous le prisme de l'émergence du transport routier, surtout après la seconde guerre mondiale. Pourtant, on mésestime le 49 18 synthèse sur les politiques en matière de navigation intérieure au XX e siècle51. La thèse de Michèle Merger déjà ancienne s'arrête avant la Première Guerre mondiale. On dispose d'une thèse sur l'O.N.N., mais qui date de 1945 52! Pour le XIXe siècle, les travaux ont longtemps été assez rares en dehors de la thèse de Michèle Merger et de ses quelques articles53. Il faut chercher parmi des travaux étrangers, comme celui de Geiger pour trouver une étude plus complète sur le plan Becquey54. Cependant, un regain d'intérêt semble se manifester à l'égard de la navigation intérieure depuis le tournant des années 2010, celles-ci portent principalement sur la période s'étirant du XVIIIe et jusqu'au milieu du XIXe siècle55. Ces recherches portent tout d'abord sur le jeu des acteurs, notamment les ingénieurs, comme en témoigne le travail de Frédéric Graber56, ou encore l'article de Nathalie Montel sur certains aspects du plan Becquey57. Cette approche peut présenter des limites, dans la mesure où les réalités des politiques, de l'activité économique se trouvent quelque peu occultées 58 . Toutefois, d'autres études viennent compenser cet écueil potentiel. Dans son article sur le quartier de la Villette, Isabelle Backouche souligne la nécessité de mesurer l'activité portuaire, et présente des analyses de trafic 59 . Les historiens modernistes s'intéressent à la préexistence du concept de réseau technique ou de transport avant même sa formulation dans les années 1830, par le biais de l'usage du concept de « système de navigation intérieure »60. Dans sa thèse, Éric Szulman va rôle des pipe-lines dans les années 1950-1960 qui s'est révélé tout aussi fatal. En effet, l'analyse par rapport à la navigation sur la Seine tend à montrer que les pipe-lines ont sur le long terme pesé un poids déterminant dans le déclin de la navigation fluviale, en la privant d'un débouché potentiel, et ce surtout après la crise de 1973 et le développement de l'énergie nucléaire. 51 On peut toutefois citer l'ouvrage de Pierre Miquel, qui n'est toutefois pas exclusivement consacré au XXe siècle. 52 Lucien Morice, L'Office National de la Navigation et l'exploitation réglementée des voies navigables, thèse pour le doctorat en droit, présentée et soutenue le 29 novembre 1945, ouvrage publié avec le concours de l'Office National de la Navigation, 1946, 27p. Voir également : Marcel Jouanique, Le problème des transports fluviaux, Toulouse, ouvrage publié avec le concours de l'Office National de la navigation, Imprimerie Cleder, 1947, 231p. 53 Michèle Merger, « La concurrence rail- navigation intérieure en France », Histoire, Économie et Société, 1, 1990, pp.65-94. 54 Reed Geiger, Planning the French canals: bureaucracy, politics, and enterprise under the restoration, Newark (N.J.): University of Delaware Press, London: Associated University Presses cop., 1994, 338 p. 55 Il faut remarquer la mise en ligne notamment sur le site Gallica d'une abondante documentation jusqu'au début du Second Empire, la documentation se faisant par la suite plus lacunaire. Ce nouveau phénomène a sans doute encouragé les recherches. 56 Fréderic Graber, Paris a besoin d'eau. Projet, dispute et délibération dans la France napoléonienne, Paris, CNRS éditions, 2009, 417p. 57 Nathalie Montel, « L'État aménageur dans la France de la Seconde Restauration, au prisme du Rapport au roi sur la navigation intérieure de 1820 », in Revue d'histoire moderne et contemporaine, janvier 2012, pp.34-61. 58 Sans être toutefois totalement niées. 59 Isabelle Backouche, « Mesurer le changement urbain à la périphérie parisienne. Les usages du Bassin de La Villette au XIXe siècle », Éditions de l'E.H.E.S.S. in Histoire & mesure, janvier 2010, vol. XXV, pp. 47-86. 60 Éric Szulman, La Navigation intérieure sous l'Ancien Régime, Rennes, Presses Universitaires de Rennes, 2014, 376 p. 19 jusqu'à affirmer la possibilité d'envisager non seulement un réseau de voies navigables, mais plus encore, de l'entrevoir selon le prisme de l'intermodalité61. La notion de réseau est relativement ancienne, et remonte à l'ère industrielle, les première théories ont été effectivement formalisées dès les années 1830-1840, en particulier par les saint-simoniens. Le concept de réseau intermodal formulé en ces termes s'avère plus récent. Depuis les années 1970, les géographes et les urbanistes ont élaboré une théorie sur les réseaux qui a influencé les économistes et les techniciens travaillant dans le domaine des transports. Les véhicules et les infrastructures ne se manifestent plus comme les vecteurs exclusifs de l'innovation62. L'intermodalité est donc revenue au goût du jour, et a participé à un renouvellement de l'historiographie portuaire. Après une relativement longue éclipse 63, la recherche historique autour de la thématique portuaire s'est trouvée considérablement renouvelée grâce à un certain nombre de monographies64, mais surtout à la faveur des travaux de Bruno Marnot. Ceux-ci nous offrent une vision plus globale des politiques portuaires menées au XIXe siècle jusqu'en 191465, mais l'historien s'est également fort étendu sur la question de la logistique et de l'émergence de l'intermodalité66. Compte tenu des difficultés inhérentes à l'objet de notre étude, la parution de ces travaux a constitué un apport inespéré, en permettant des confrontations et des comparaisons jusqu'alors délicates. Repenser l'histoire de l'intermodalité à l'aune de celle du port de Paris : 61 Éric Szulman, La Navigation intérieure sous l'Ancien Régime, Rennes, Presses Universitaires de Rennes, 2014, pp.17-19. 62 Nicolas Neiertz, op. cit, p.593. 63 Bien que la thématique de la mer ait toujours intéressé les géographes, et par comme ricochet les historiens destinés à l'enseignement. La marine marchande n'a toutefois pas été totalement négligée : Philippe Masson, Marines et Océans, Paris, Imprimerie Nationales, 1982, 500p. ; Marie-Françoise Berneron-Couvenhes, « La compagnie de la navigation française des messageries maritimes de 1851 à 1914 », thèse de doctorat, université Paris-Sorbonne, sous la direction de Dominique Barjot, 2002, 2 vol. ; Bernard Cassagnou, Les grandes mutations de la Marine marchande française (1945-1995), Paris, Comité pour l'histoire économique et financière de la France, 2002, 2 vol. 64 Sur le port du Havre : J.-L. Maillard, « La révolution industrielle au Havre, 1860-1914 », Université de Rouen, Thèse de IIIe cycle, sous la direction de J. Vidallenc, 1978 ; Claude Malon, Le Havre colonial de 1880 à 1960, Caen/Mont-Saint-Aignan, Presses universitaires de Caen/Publications des universités de Rouen et du Havre, 2006, 679 p. Concernant le port de Rouen : André Vigarié, « Le Havre et le modèle des ports de marché : réussite ou échec ? » ; dans É. Wauters (dir.), Les Ports normands, un modèle ?, actes du colloque Rouen-Le Havre, Publication de l'Université de Rouen, 1999, pp.39-57. ; Michel Groguennec, « L'Aménagement du port de Rouen de 1800 à 1940, contraintes, techniques et stratégies », thèse de doctorat, université de Rouen, sous la direction de Michel Pigenet, 1999. 65 Bruno Marnot, « La politique des ports maritimes en France de 1860 à 1920. » in Histoire, économie et société, 1999, 18e année, n°3. pp. 643-658. 66 La bibliographie de Bruno Marnot est déjà abondante dans le domaine : « La genèse du concept d'intermodalité en France dans le transport des marchandises du début du XIX e siècle à 1937 », Colloque COST de Lisbonne, 24-25 mai 2005, « Interconnexion et reclassement : l'insertion des ports français dans la chaîne multimodale au XIXe siècle, Flux, janvier 2005, n°59, pp.10-21. ; La mondialisation du XIXe siècle (1850-1914), Paris, Armand Colin, 2012 ; Les grands ports de commerce français et la mondialisation du XIXe siècle, Paris, Presses universitaires Paris-Sorbonne, 2011, 589p. 20 L'historiographie récente française se montre essentiellement ferriste, c'est-à-dire qu'elle entrevoit l'évolution des techniques essentiellement à l'aune de l'essor des chemins de fer, même si Yves Leclercq insiste sur le fait que les jeux n'étaient pas faits au tout début du chemin de fer67. Malgré tout, il dépeint une France des transports relativement archaïque, et souligne le retard français dans les chemins de fer, et la seule issue semble être le triomphe de ces derniers. Nicolas Neiertz débute sa thèse sur le constat de la défaite de la navigation intérieure68. Bien qu'ardente défenseuse des voies navigables, Michèle Merger ne semble pas moins un constat pessimiste, qui n'est finalement pas si éloigné sur ce point, de l'analyse ferriste dans sa thèse 69 , et plus encore dans son article sur la concurrence entre les voies navigables et les chemins de fer70. Il s'agissait d'un point de vue partagé même par certains canalistes. La révolution industrielle est présentée comme largement liée à l'essor des chemins de fer. Son rôle est perçu comme décisif et évident. Les chemins de fer auraient été seuls à l'origine de la relance de l'industrialisation de la Grande-Bretagne et son édification aurait suivi, voire conduit de manière inéluctable, la révolution industrielle dans les autres pays71. La compréhension française de l'histoire des transports repose sur une conception téléologique des progrès en termes modaux, les chemins de fer se substituèrent aux voies navigables défaillantes, puis peu à peu, les voies ferrées se virent confrontées aux routes72. En ce sens, elle correspond à la vision saint-simonienne des transports qui n'éprouva guère de difficultés à se « convertir » aux voies ferrées, après avoir promu ardemment la construction de canaux, cette même conception allait prévaloir lors de l'avènement de l'automobile. Pourtant, ce point de vue comporte des faiblesses. Il semble ignorer que les voies navigables ont également progressé, qu'elles ne s'apparentent en rien à ce qu'elles ont pu être, tout au moins en ce qui concernait les réseaux les plus modernes. En outre, comment expliquer le renouveau des routes ? Pourquoi les routes auraient-elles connu cette « renaissance » ? Cette analyse linéaire et inéluctable de l'évolution des transports ne se montre-t-elle pas trop 67 Yves Leclercq, Le réseau impossible. La résistance au système des grandes compagnies ferroviaires et la politique économique en France, 1820-1852, Paris, Droz, 1987, 287p. 68 Nicolas Neiertz, op. cit, p.593. 69 Michèle Merger, op. cit. 70 Michèle Merger, « La concurrence rail-navigation intérieure en France, 1850-1914 », Histoire, Économie, Société, 1, 1990, pp.70-94. 71 Patrick Verley, La Révolution industrielle, Paris, Gallimard, Folio, 1997, pp.200-206 ; Sur le rôle des chemins de fer dans la croissance, consulter : François Caron, Histoire des chemins de fer en France 1740-1883, Paris, Fayard, tome 1, pp. 537-588. Alfred de Foville, La Transformation des moyens de transport et ses conséquences économiques et sociales, Paris, Guillaumin, 1880, pp.89-232. 72 Une telle compréhension n'est pas simplement française, l'ouvrage d'Alfred Chandler s'avère finalement assez caricatural, Alfred D., Jr Chandler, La main visible des managers, une analyse historique, Paris, Economica, pp. 88-234. 21 simpliste ? Et ne serait-il, au fond pas possible d'inverser le raisonnement ? La véritable question ne réside-t-elle pas justement dans la survie de la navigation intérieure française, et cela, en dépit de tout ce qui a pu être consenti pour rendre son déclin inexorable ? Pourquoi et comment a-t-elle pu rendre autant de services à l'industrie française malgré de tels handicaps ? Les facteurs de mutation de la batellerie pourraient, sans doute, expliquer qu'en fin de compte, le mode le plus « archaïque » ait supplanté les autres modes de transports au cours du XXe siècle L'étude du port de Paris remet de manière paradoxale, et involontaire, au goût du jour, en quelque sorte, certaines assertions de la new economy history, - tout au moins certains aspects de sa méthode -, à savoir une remise en cause partielle du rôle des chemins de fer dans le processus d'industrialisation. Sans sombrer dans les excès des historiens Fogel et Fishlow 73 , l'historien étudiant les voies navigables durant la Révolution industrielle doit adopter une démarche « naïve », c'est-à-dire qu'il n'est pas censé connaître l'avenir, tout en mettant cette démarche en perspective par rapport à ce qui s'est réellement déroulé. Autrement dit, il doit se garder d'envisager le déclin du fluvial comme inéluctable, à l'aune de ce qui s'est passé en France après les crises pétrolières des années 197074. Le rôle des voies navigables se formule d'une manière très singulière pour Paris, dans la mesure où l'on ne constate pas un effondrement du trafic, tant en volume absolu, qu'en part relative. Il faudrait bien entendu prendre en compte la dimension qualitative, qui constitue sans doute le principal écueil de la new economy history75. L'historiographie tend à envisager la contribution des voies ferrées comme décisive et surtout évidente. Les chemins de fer auraient ainsi été à l'origine de la relance de l'industrialisation et sa construction aurait accompagné, voire aurait généré la Révolution industrielle dans les autres pays. La contribution des voies ferrées dans l'essor économique a été plutôt bien examinée 76, mais 73 Sans non plus tomber dans les excès de leurs détracteurs qui ont mal saisi la dimension quelque peu provocatrice de leurs thèses, mais très précieuse pour reconsidérer l'histoire même des chemins de fer. Alfred D., Jr Chandler, op. cit., p. 587. 74 En réalité, concernant la région parisienne, c'est surtout le second choc pétrolier qui semble s'être révélé fatal. Voir les statistiques publiées par l'Office National de la Navigation et surtout celle du port Autonome de Paris de cette période. 75 Pour un aperçu de la question : Patrick Verley, La Révolution industrielle, Paris, Gallimard, Folio, 1997, pp.200-205. Sinon, consulter : Robert William Fogel, Railroads and American Economic Growth: Essays in Econometric History, Baltimore, Johns Hopkins Press, 1964, 296 p. ; Albert Fishlow, American railroads and the transformation of the antebellum economy, Cambridge, Massachusetts, Harvard University Press, 1965, 452 p. 76 Par exemple, François Caron, Histoire des chemins de fer en France, 1740-1883, Paris, Fayard, 1997, tome 1er, pp.537-588. Pour des comparaisons européennes, voir : Rainer Fremdling, « Railways and German Economic Growth : a leading Sector Analysis with Comparison to the United States and Great Britain », The Journal of Economic History, septembre 1977; G.R. Hawke, Railways and Economic Growth in England and 22 celle des voies navigables, voire de la route au XIXe siècle, finalement assez peu, et très succinctement, car jugée trop secondaire. Pourtant, l'histoire du port de Paris tend à nuancer cette vision, dans le sens où les rapports de force entre les deux modes de transports, en termes de tonnages absolus, se sont révélés beaucoup moins défavorables que l'on serait tenté de l'imaginer, à savoir, une quasi parité vers la fin de la période, tout au moins sur certaines années77. Faut-il y voir une surévaluation du rôle des chemins de fer ? Ou serait-il possible de concevoir l'hypothèse que les évolutions des autres modes de transports ont accompagné le développement même des chemins de fer, phénomène qui semble avoir été trop peu examiné Certains analystes ne croient pas possible la renaissance d'un mode de transport ancien concurrencé par un nouveau mode, à l'instar de Fair et Williams, dans leur formalisation du cycle des techniques de transports, où l'ultime phase, celle du déclin, coïncide avec celle de la transition de deux systèmes techniques78. Pourtant, chaque mode de transport possède des avantages spécifiques, si bien qu'aucun ne saurait remplacer complètement les autres d'une façon aussi mécanique. En outre, l'histoire même de la route démontre que les cheminements techniques peuvent aboutir à des renversements de situation tout à fait inattendus. L'histoire des concurrences entre modes de transport renferme une complexité trop extrême pour que l'on puisse la réduire à des schémas trop simplistes79. L'étude de l'activité portuaire dans la région parisienne ne s'avère point fortuite, puisqu'il s'agit précisément de la région fluviale la plus dynamique de cette époque, et qui a représenté le théâtre majeur du « conflit » entre la navigation intérieure et le chemin de fer. Pour s'en rendre compte, il suffit de constater que le rang des trois, voire des quatre premières sections de la navigation intérieure, d'après la nomenclature du ministère des Travaux publics figurent celles qui étaient localisées dans le bassin séquanien, ou « au pire », des liaisons reliant la Seine au nord de la France. La question intermodale ne peut que constituer l'axe majeur de notre réflexion. En outre, face à un ensemble aussi vaste, disparate que celui de notre étude, et des sources parfois lacunaires, ou tout au moins inégales, et en raison d'une absence d'une institution propre à Wales, 1840-1870, Oxford, Clarendon Press, 1970, 421p.; Patrick O'Brien, (ed.), Railways and the Economic Development of Western Europe, 1830-1914, New York, St. Martin's Press, 1983. 77 Soit 51% et 49% respectivement en 1911 et 1912. 78 Marvin Luke Fair et Ernest William Jr Williams, Economics of Transportation, New York, Harper, 1950. Voir aussi G.-J. Bouveret, « La concurrence du rail et de la route », Dijon, thèse de science économique, 1955, p.34. Joseph-Alois, Schumpeter, Business cycles, New York, harper, 1939. Leur analyse s'appuie essentiellement sur l'observation du déclin des chemins de fer face au transport routier. 79 Nicolas Neiertz, La coordination des transports de 1918 à nos jours, Paris, Comité pour l'histoire économique et financière de la France, Ministère de l'Économie, des finances et de l'industrie, 1999, avec une préface de François Caron, introduction générale, p. XXII. 23 l'activité portuaire parisienne qui nous procurerait un point d'appui solide, la question de la concurrence intermodale offre un angle d'approche permettant d'envisager l'ensemble du secteur des transports, et par voie de conséquence, de mieux cerner les dynamiques de l'activité portuaire dans la région parisienne. L'intermodalité et la modalité ont été des thèmes qui ont commencé à intéresser plus particulièrement les historiens à partir des années 1990, même si les travaux de François Caron et surtout de Michèle Merger, revêtaient déjà une nette dimension intermodale, la thèse de cette dernière portant sur la politique de la navigation intérieure sous la IIIe République, c'est-à-dire au moment même de la mise sur pied du plan Freycinet. Figure 2. Nouvelle gare d'Orléans (actuel musée d'Orsay) et port d'Orsay au début du XX e siècle. Nouvelle gare d'Orléans (actuel musée d'Orsay) et port d'Orsay au début du XX e siècle. Photo emblématique, pour ne pas dire symptomatique, de l'absence de coordination entre les voies navigables et ferroviaires, si ce 24 n'est que les matériaux de construction débarqués sur ces quais ont pu contribuer à l'édification de cette gare [Source : Archives personnelles]. Historiographie sur le port de Paris : l'exception portuaire parisienne. La relation entre la Seine et Paris a suscité un regain d'intérêt à partir seulement des années 1990. Là encore, Michèle Merger a joué un rôle pionnier grâce à son article publié dans le cadre d'une exposition intitulée « Paris et ses réseaux » organisée par la Bibliothèque historique de la Ville de Paris80. Cet article porte sur le port de Paris de la seconde moitié du XIXe siècle à 1939. Dans sa thèse, elle avait déjà abordé la question du port de Paris. Ensuite, Jean Millard, pour le compte du port autonome de Paris, a rédigé un ouvrage visant à retracer le processus ayant conduit à la création du port autonome de Paris 81 . En 1995, Isabelle Backouche soutient une thèse sur la Seine et Paris entre 1750-1850 82 , ses recherches se penchent sur les évolutions des représentations, du rapport des Parisiens au fleuve. À noter encore que la thèse de Jeanne Gaillard83 s'avère très utile pour le Second Empire. Il faut citer encore l'exposition organisée par l'Action artistique de la Ville de Paris sur Paris et la Seine84 qui a donné lieu à la publication d'un bel ouvrage regroupant des articles d'auteurs issus de toutes les disciplines. Toutefois, les questions économiques ne sont guère évoquées et l'ouvrage privilégie les périodes anciennes. À quoi l'on peut aouter mes propres études, sur le port de Gennevilliers, sur le port de Paris85. La restructuration de l'Est parisien a occasionné un regain d'intérêt pour les canaux de Paris. On peut évoquer l'ouvrage publié par une exposition organisée encore par l'Action artistique de la Ville de Paris. L'ouvrage, moins académique, de Marc Gayda se montre pourtant fort utile86. Malgré tout, toutes ces études manquent d'un point de vue historique, ce qui rend difficile de dresser une chronologie sur le long terme de l'histoire des canaux de Paris. Il faut admettre, en outre, que cette question mériterait une thèse à elle-seule 80 Michèle Merger, « La Seine dans la traversée de Paris et ses canaux annexes : une activité portuaire à l'image d'une capitale (1800-1939) », dans Paris et ses réseaux : naissance d'un mode de vie urbain, XIX e-XXe siècles, pp.349-386, sous la direction de François Caron, Jean Derens, Luc Passion et Philippe Cebron de Lisle, Paris, Direction des affaires culturelles et Université de Paris-IV Sorbonne Centre de recherche en histoire de l'innovation, Bibliothèque Historique de la Ville de Paris, 1990, pp. 349-386. 81 Jean Millard, Paris, histoire d'un port, du port de Paris, au Port autonome de Paris, Paris, l'Harmattan, 1994. 82 En fait, la thèse porte plus particulièrement sur le XVIIIe siècle et le début du siècle suivant. 83 Jeanne Gaillard, Paris, la ville (1852-1870), Paris, L'Harmattan, 528p. 84 Béatrice de Andia, Arnaud Alexandre, Stéphanie Boura (dir.), La Seine et Paris, Paris, Action Artistique de la Ville de Paris, 2000, 203p. 85 On peut citer mon mémoire de DEA, un livre édité par les éditions Ouest-France, et un article sur le rôle du port de Paris durant la seconde guerre mondiale. 86 Marc Gayda, Les canaux parisiens, Valignat, Éditions de l'Ormet, 1995, 127p. 25 Cet aperçu des études réalisées dans ce domaine montre que l'on ne saurait se passer des sources primaires, à savoir les archives nationales (séries F14, F12 87 ), les archives départementales, municipales, archives de la chambre de commerce de Paris, les archives de la section des canaux de Paris Les plus décevantes ont sans doute été les archives départementales, qui ne proposent, nonobstant une profusion certaine, finalement qu'assez peu de boîtes exploitables, tout au moins concernant la période étudiée ici. L'autre déception a été le fonds de la Préfecture de police, tout au moins, lorsque l'on a pu consulter les documents, il semble qu'une part significative en a été perdue. Ce qui s'avère fort dommageable dans la mesure où l'inspection de la navigation jouait un rôle à la fois de police et commercial, ce qui aurait pu procurer de précieuses informations sur l'activité portuaire dans la traversée de Paris. Cependant, ce défaut de documentation se trouve partiellement compensé par le fonds Carivenc du musée de la batellerie de Conflans-Sainte-Honorine. En effet, M. Carivenc était le dernier inspecteur de la navigation, au service de la Préfecture de Police. En l'occurrence, son intérêt pour la navigation intérieure dépassait le simple cadre professionnel, puisqu'il écrivit de nombreux articles dans diverses revues se rapportant à cette question 88 . Ses archives personnelles comportent une riche documentation sur les voies navigables, mais dans le même temps, des documents de l'Inspection de la navigation, notamment de nombreuses statistiques, etc. Il serait trop long, bien entendu, de mentionner les archives de façon exhaustive. En l'absence d'organe administratif spécifique de la batellerie, l'écueil des archives nationales consiste dans la dispersion inhérente des recherches de l'historien, qui doit déterminer avec précision vers où chercher. Néanmoins, une part non négligeable a déjà été exploitée, ce qui facilite l'exploration de ces archives. En effet, les Archives Nationales, Départementales et même celles du Musée de la Batellerie sont relativement connues. Dans le cadre de cette recherche, d'autres archives ont été consultées, à savoir celles de la Section des Canaux de Paris, et celles de la chambre de commerce de Paris. Les premières sont, sans doute, les moins connues, car les moins aisément consultables89. Pourtant, il serait possible de les considérer comme les véritables archives du port de Paris. En effet, bien loin de se borner à la simple gestion des canaux parisiens, leur construction, leur amélioration, leur contenu englobe un cadre beaucoup plus large, à savoir Paris port de mer, le canal du Nord Ces archives contiennent à la fois des dossiers techniques et des documents imprimés, de presse, etc. Par 87 C'est-à-dire respectivement les archives du ministère des Travaux publics et du ministère du Commerce. Par exemple, la revue de la Navigation du Rhin. 89 Une autorisation préalable auprès de l'administration concernée s'avère effectivement nécessaire 88 26 ailleurs, elles abritent les procès-verbaux des compagnies des canaux, l'annuaire statistique de la Ville de Paris, etc.90 demeure une source, en fin de compte, relativement peu exploitée, mais qui s'est révélée majeure pour nos recherches : les archives de la chambre de commerce de Paris. La chambre consulaire remplissait une fonction ambiguë, consistant à la fois à représenter les intérêts du commerce parisien, tout en s'intéressant plus largement à toutes les questions économiques. D'ailleurs, elle s'est directement impliquée dans des activités d'entrepôts et portuaires. De par sa fonction consultative, elle servait souvent d'intermédiaire entre les différents acteurs, qu'ils soient publics ou privés ou même avec d'autres établissements consulaires, par exemple, celles concernées par le canal du Nord. La chambre de commerce a rédigé de nombreuses études, externes ou internes, qui revêtent une dimension à la fois technique, économique et commerciale, qui manque souvent aux archives publiques. Leur caractère transversal s'avère inappréciable, malgré leurs lacunes 91 Les sources se révèlent par conséquent extrêmement riches, mais posent tout de même la difficulté tant de la dispersion que de la redondance de certains documents, ce qui exige de ne pas trop se disperser et de cerner les priorités. En somme, savoir quoi et où chercher. Difficultés méthodologiques autour des sources statistiques : La compréhension de l'ampleur et des dynamiques portuaires de la région parisienne, qu'elles soient spatiales ou qualitatives, nécessite de s'appuyer sur des instruments de mesures objectives, à savoir les statistiques. Malgré son caractère apparemment rébarbatif, ces dernières constituent un aspect primordial pour notre méthodologie. Celles-ci doivent permettre de mesurer l'insertion du port dans l'ensemble de la navigation intérieure, mais tout autant de son insertion régionale, à l'égard de la banlieue, proche ou éloignée. De manière plus globale, elles doivent nous placer en situation de saisir son insertion régionale par rapport aux ports de Seine maritime et du nord industriel de la France. La question des sources s'avère donc primordiale, et cela d'autant plus, que les difficultés méthodologiques qu'elles soulèvent, rendent compte des problématiques de notre objet d'étude. Le premier obstacle se révèle d'ordre chronologique. En effet, toutes les périodes ne sont pas pareillement représentées par les statistiques. Avant les années 1840, le trafic fluvial s'avère extrêmement malaisé à quantifier avec exactitude, car les relevés statistiques effectués par les responsables ou préposés attachés au service de la navigation demeurent peu 90 91 Avec des corrections à la main de la part des ingénieurs de la Ville de Paris, en cas de fautes de frappe Notamment dues à un incendie survenu au XIXe siècle. 27 nombreux et incomplets. L'Administration des contributions indirectes a réalisé les relevés du trafic sur les rivières et canaux qui étaient imposés par les droits de navigation. Les ingénieurs chargés du contrôle recueillaient les renseignements touchant les voies concédées Cette publication présentait le désavantage de recouvrir exclusivement les cours d'eau administrés par l'État. Concernant la période 1847-1938, les deux sources consistaient dans le bulletin statistique et de Législation comparée du ministère des finances et la Statistique annuelle de la navigation intérieure Ces données comportent le trafic kilométrique par section de voie et par nature de marchandises. Le problème des statistiques publiées par le ministère des Contributions indirectes résidait dans le fait qu'elles consistent exclusivement en des tonnages kilométriques, et bien entendu, aucune statistique des ports dans la traversée de Paris. Si elles fournissent le tonnage kilométrique par sections de voies navigables, le tonnage total transporté, etc., elles n'opèrent aucune distinction entre le trafic « né sur la voie » et celui « né hors de la voie ». Dans ces conditions, elles ne nous informent pas sur le tonnage chargé par sections, et par voie de conséquence, le trafic sur l'ensemble du réseau92. En outre, la définition de la « basse Seine » a sensiblement fluctué au fil du temps, au gré des progrès enregistrés par les ingénieurs sur le plan méthodologique. Ainsi, pour les premières années, les documents de cette administration présentent le trafic uniquement entre Paris et Rouen. À partir de 1853, la basse Seine se trouve divisée en deux sections, c'est-àdire entre Paris et la confluence avec l'Oise, et de ce même point avec Rouen. Par la suite, pour l'année 1866, le nombre de sections a encore été modifié pour passer à trois : entre Paris et la Briche (confluence de la Seine avec le canal Saint-Denis), entre la Briche et Conflans, puis entre Conflans et Rouen Toutefois, dans le même temps, les documents ne fournissent plus le trafic entre Paris et Rouen, ce qui nécessite d'effectuer la somme des sections. Ces lacunes se trouvent néanmoins partiellement compensées, en recourant à des études publiées ou conservées en archives, notamment celles de Grangez 93 et Michal94. Il faut ajouter à cela l'ensemble des rapports des préfets des différents départements concernés : Seine-et-Oise, Seine-et-Marne, mais également ceux du Nord, Pas-de-Calais, Aisne, qui s'appuyaient sur les rapports des ingénieurs du corps des Ponts-et-Chaussées 95 . L'important travail de 92 Dominique Renouard, Les transports de marchandises par fer, route et eau depuis 1850, Paris, 1960, p.28. Le total obtenu se révélerait plusieurs fois supérieur au total réel dans le cas où l'on additionnerait l'ensemble des tonnages transportés. En effet, ce total inclurait les tonnes chargées et celles de transit. 93 Ernest Grangez, Précis historique et statistique des voies navigables et d'une partie de la Belgique, Paris, Chaix, 1855, 797p. 94 AN (Pierrefitte-sur-Seine), F14 6820, mémoire Michal du 27 mai 1853. 95 Ils offrent, en outre, l'avantage d'être disponible sur le site Gallica. 28 Grangez96 a consisté à regrouper l'ensemble des données statistiques de son époque au sujet de la navigation intérieure. Le même constat pourrait être formulé pour la haute Seine et l'Yonne Jusqu'en 1833, les documents statistiques se montrent relativement peu fiables, mais à partir de cette date, l'administration des Travaux publics a commencé à fournir dans sa publication annuelle : Statistiques de la navigation intérieure, les renseignements concernant le mouvement des marchandises à l'intérieur de Paris, en établissant la distinction entre le poids des expéditions, des arrivages, du transit et du trafic local. Assez tardivement, le premier annuaire statistique de la Ville de Paris et du département de la Seine paru en 1880, comprenait un tableau récapitulatif du mouvement des marchandises (expéditions et arrivages97) dans les ports de la capitale pour la période 18711881, son inconvénient toutefois consistait en ce qu'il exprimait le trafic de cette période en tonneaux et non en tonnes. D'ailleurs, on peut ajouter une autre difficulté : la difficulté de manier les unités. Dans sa thèse, Isabelle Backouche, , nous avertit que les unités entre les ports fluviaux et La Villette ne sont pas toujours conformes selon les produits98. Le premier volume des annuaires statistiques comporte les résultats des canaux de 1867 à 1879. Les auteurs eux-mêmes reconnaissaient que les conditions dans lesquelles ont été relevés ces résultats, n'ont pas été idéales. Les statistiques de la batellerie avaient été dressées jusqu'en 1881 par le Service des contributions directes chargé de percevoir les droits de navigation non concédés et les rivières du domaine public. Or, la loi du 19 novembre 1880 d'abrogation des droits de navigation a rendu caduc l'intérêt que pouvait y percevoir le Trésor de sorte que la constatation du tonnage établie par les Contributions directes n'a plus été aussi rigoureuse jusqu'au 31 décembre. Un décret du 17 novembre 1880 a confié à l'Administration des Travaux publics la tâche d'établir les statistiques de la voie d'eau. Les dispositions de ce décret ont été mises en vigueur à partir du 1er janvier 188199. Pourtant, les résultats n'apparaissaient pas toujours crédibles de l'aveu 96 Ernest Grangez était le Chef du bureau au ministère de l'Agriculture, du Commerce et des Travaux publics (Direction des Ponts-et-Chaussées). Il fut décoré Chevalier de l'Ordre Impérial de la Légion d'honneur et de l'Ordre Royal de Léopold. Attaché au dépôt des Ponts-et-Chaussées, il participa à l'élaboration de l'Atlas des dépôts de la France publié au milieu du XIXe siècle. Il a été l'auteur de nombreuses cartes des voies de communication françaises, notamment des voies navigables du nord de la France. 97 Pour la première moitié du XIXe siècle, les statistiques recouvrent uniquement les arrivages. 98 Isabelle Backouche, « Paris/Seine », E.H.E.S.S., thèse d'Histoire sous la direction de Bernard Lepetit, 1995, 2 vol., p. 465. 99 « Instruction ministérielle du 15 décembre 1885 concernant le service de la statistique de la navigation intérieure », in Guide officiel de la navigation intérieure avec itinéraires graphiques des principales lignes de navigation et carte générale des voies navigables de la France. Dressé par les soins du Ministère des Travaux Publics (Direction de la Navigation), Paris, Librairie polytechnique Baudry et Cie Éditeurs, cinquième édition, revue et augmentée, 1891, pp.8-19. Voir aussi : Dominique Renouard, op. cit., p.28. ; Jean-Claude Toutain, « Les transports en France de 1830 à 1965 », in Économies et Sociétés, série AF, n°9, Paris, PUF, 1967, pp.79- 29 même des rédacteurs de l'Annuaire statistique de la Ville de Paris100. Ce dernier publia les résultats de la navigation à Paris de 1880 à 1914101. Élaborés sur l'initiative de la Ville de Paris, les annuaires statistiques parisiens indiquaient avant tout les résultats du trafic des canaux de Paris. Pourtant, ils fournissaient celui des ports dans la traversée de Paris102, et puis plus intéressant encore, à partir de 1891, les chiffres du mouvement de la navigation dans le département de la Seine. L'année suivante, ils inclurent le trafic des canaux de Paris dressé par les ingénieurs de la navigation sur la base des déclarations effectuées par les mariniers aux agents du ministère des Travaux publics. Pour ce qui est du département de la Seine, les annuaires statistiques indiquent les provenances et destinations des marchandises, et en proposent une décomposition plus fine103. Ces documents statistiques s'avèrent fort précieux, leur inconvénient réside dans le fait que leur opérationnalité s'est révélée relativement laborieuse. Ces carences ne permettent de dresser des courbes sur les canaux, les ports dans la traversée de Paris, le département de la Seine, avec des données totalement homogènes, que sur une période finalement assez restreinte104. Déjà évoquée en filigrane, l'autre source majeure consiste dans les relevés du trafic de la navigation intérieure publiés par le ministère des Travaux publics. Débarrassée des considérations fiscales, l'administration de ce dernier mena à bien un vaste programme de réorganisation du relevé des statistiques des voies navigables, dont la mise en oeuvre complexe nécessita quatre années. Jusqu'au 1er janvier 1949, les statistiques de la navigation intérieure ont paru sous forme de volumes annuels105. Ces documents comportaient le trafic par sections de voies navigables, et après 1900 106 , les mouvements des principaux ports fluviaux, autrement dit, des informations touchant principalement la voie d'eau à proprement parler. Ces statistiques opéraient désormais la distinction entre « le trafic né sur » et celui né « hors de la voie », ainsi que son partage par nature de marchandises. La nouvelle manière de 93 ; Michèle Merger, La politique de la IIIe république en matière de navigation intérieure de 1870 à 1914, op. cit, pp.351-353. 100 Annuaire statistique de la Ville de Paris, année 1881, pp.126-127. 101 L'annuaire de l'année 1914 ne fournit de tableau du mouvement de la navigation dans le département de la Seine. 102 Le chiffre correspond à celui de la 5e section de la navigation de la Seine indiquées par les statistiques de la navigation intérieure publiées par le ministère des Travaux publics. Cette date n'était pas fortuite, comme on s'en rendra compte par la suite. En outre, ils permettent ainsi de dresser des comparaisons plus stables entre le trafic des canaux de Paris, dans la traversée de Paris. En effet, les statistiques de la Ville de Paris ne sont pas rigoureusement identiques, par contre, elles peuvent être confrontées avec celles du département de la Seine 103 Par exemple, pour les denrées alimentaires : céréales, vins, sucres 104 Même si comme on l'a vue, il est déjà possible de dresser le trafic de 1872 à 1889. 105 Statistiques annuelles de la navigation intérieure par courants de trafic, introduction, 1952. 106 En fait, on dispose d'informations ponctuelles sur le trafic des ports dans des sections déterminées, mais pas de manière forcément systématique et continue. Pour la période 1901-1913 (et dans l'entre-deux-guerres aussi), on bénéficie ainsi d'un classement des ports fluviaux français, ainsi que la répartition du trafic de ces ports. 30 procéder offrait ainsi l'avantage de mettre en évidence la quantité de tonnes effectives ayant circulé annuellement sur le réseau des voies navigables françaises, et la composition de ces chargements par nature de marchandises. Les ingénieurs des ponts et chaussées assurèrent le relevé spécifique à chaque voie, ce qui permit d'en décomposer le trafic en fonction de quatre catégories : trafic local, expéditions, arrivages et enfin, transit. En outre, les ingénieurs se trouvaient en mesure de rendre compte de la diversité des modes de navigation : navigation ordinaire et à vapeur, et navigation à vapeur107. La suppression des droits sur la navigation a représenté une réelle aubaine pour l'historien du « port de Paris », dans la mesure où la navigation parisienne a bénéficié d'un traitement très particulier, consistant en une présentation du trafic, incluant un tableau récapitulatif, et cela pour les années 1883-1913. Par rapport à la période précédente, cela a signifié une rationalisation des relevés de trafic. Ils comportent une dimension intermodale, nous fournissant un trafic comparatif entre les voies ferrées et la voie d'eau, mais également, jusqu'en 1900, la répartition modale et par origine du trafic des combustibles minéraux, et cela sur plusieurs sections pour les années 1887-1900 : Paris intra-muros, la 6e section, c'està-dire l'immédiate banlieue jusqu'à la confluence avec le canal Saint-Denis, et parfois même, sur certaines années, la 7e section, entre la Briche et Conflans Sainte-Honorine. Ces données permettent de mesurer la réalité du rôle de la basse Seine en tant que voie majeure d'importation, au point que son développement a été dénoncé par les ferristes et les protectionnistes108. La période 1887-1900 a ainsi bénéficié d'un soin tout particulier. En effet, chaque année comportait, en principe, deux parties, l'une consistant en une présentation générale et l'autre contenant les tableaux de trafic. Sur cette période, le réseau fluvial est considéré comme un ensemble cohérent, et les voies majeures bénéficient toutes d'un descriptif qui détaille chaque trafic et incluant parfois des tableaux récapitulatifs de ces mêmes trafics. En l'occurrence, ces années contiennent des cartes de trafic et du réseau des voies navigables. Par conséquent, il s'agit d'une source inestimable que l'on peut compléter par les différents guides officiels de la navigation 109 107 Par « navigation à vapeur », il fallait entendre « navigation autoportée ». En effet, la navigation ordinaire et à vapeur incluait aussi bien les bateaux à traction humaine, animale, par halage mécanique ou électrique, ou encore par le touage et le remorquage. En effet, les automoteurs sont demeurés assez rares jusqu'en 1914. 108 Michèle Merger, « La politique » op. cit., p.353. Les ferristes pouvaient également se montrer libreéchangistes, cette accusation servait avant tout d'argumentaire contre la batellerie. À l'inverse, les protectionnistes pouvaient dénoncer le fait d'avoir privilégié la navigation entre Paris et Rouen, aux dépens de celle entre les régions du Nord et la capitale, et défendre de ce fait, le creusement du canal du Nord. Il ne s'agit que d'exemples, car les configurations pouvaient être multiples, voire interchangeables, variant au gré des conjonctures, des situations et surtout des intérêts et des préférences des acteurs du moment. 109 Consulter notamment : Guide officiel de la navigation intérieure avec itinéraires graphiques des principales lignes de navigation et carte générale des voies navigables de la France. Dressé par les soins du Ministère des 31 expliquant les conditions dans lesquelles ont été constituées les statistiques, ainsi que les divers documents officiels relatifs aux voies navigables. Pour ce qui est de notre travail, les statistiques du ministère des Travaux publics offrent l'intérêt d'indiquer les trafics du bassin parisien considérés dans l'acception la plus étendue et de dégager les interactions entre les différentes sections et bassins : banlieue parisienne, Seine maritime, et nord de la France, etc.110 18 000 000 16 000 000 14 000 000 12 000 000 10 000 000 8 000 000 6 000 000 4 000 000 2 000 000 0 Port de Paris selon le Ministère des Travaux publics 1913 1910 1907 1904 1901 1898 1895 1892 1889 1886 Mouvement de la navigation dans le département de la Seine 1883 Tonnages Graphique 1. Activité portuaire dans la région parisienne estimée par les différentes administrations 1883-1913. Sources : Pour les années 1883-1889 : AMB, C143-4, Préfecture de Police, Inspection générale de la navigation et des ports, Paris, Imprimeries Municipales, 1891, p.2. ; pour les années 1890-1911 : Annuaires statistiques de la Ville de Paris ; La navigation du Rhin, 15 avril 1928, p.133. ; Ministère des Travaux publics. Statistiques de la navigation intérieure, Nomenclature et conditions de navigabilité des fleuves, rivières et canaux. Années 1883-1911. Travaux Publics (Direction de la Navigation), Paris, Librairie polytechnique Baudry et Cie Éditeurs, cinquième édition, revue et augmentée, 1891, 555p. ; Guide officiel de la navigation intérieure. Dressé par les soins du Ministère des Travaux Publics (Direction de la Navigation), Paris, Nouvelles éditions, Paris-Levrault, 1912. 110 Même s'il s'avère possible de le faire aussi à l'aide des annuaires statistiques de la ville de Paris, mais de manière indirecte et moins affinée. 32 En comparant les deux courbes du tableau ci-dessus, l'écart ne se révèle pas tant marqué. En fait, le port défini par le ministère des Travaux publics incluait le canal de Paris qui dans une très large portion, traversait des communes extra-muros : une partie du 19e arrondissement, Saint-Denis, Aubervilliers Ce canal étant une artère majeure de la banlieue parisienne, son trafic était considérable111. La différence entre les deux chiffres ne pouvait naturellement pas être considérable. Encore une fois, c'est moins l'absence de données que leur disparité qui pose problème à l'historien désireux de créer des courbes sur le long terme et qui de ce fait, a besoin de s'appuyer sur des données relativement homogènes. Dans le même temps, cette diversité le préserve des dangers inhérents au fait de ne disposer que d'une source unique peu fiable. Par ailleurs, diverses études contemporaines s'avèrent susceptibles d'apporter de précieux compléments : celles d'Auguste Pawlowski112, de François Maury113, de Paul Léon 114 , ainsi que les articles dans diverses publications : Annales des Ponts et Chaussées, Revue politique et parlementaire, Revue des deux mondes 115 Les fameux ouvrages des deux premiers auteurs cités 116 constituaient les références pour la compréhension du port de Paris au début du XXe siècle, et ont exercé une influence notable, au point de pouvoir considérer le premier comme l'un de ceux qui ont contribué à la création 111 D'ailleurs, l'autre avantage des statistiques du ministère des Travaux publics est de fournir les chiffres des ports des canaux parisiens (ainsi que ceux de banlieue), que n'indiquent pas les annuaires statistiques de la Ville Paris. Dans le même temps, les premières statistiques évoquées ne nous informent pourtant pas sur les trafics spécifiques des ports dans la traversée de Paris qui nous sont fournis par des documents de la préfecture de Police ! Ces contradictions rendent compte de la confusion administrative régnant dans la gestion des activités portuaires, et de la nécessité de « jongler » avec ces différents documents qui s'avèrent complémentaires, mais embarrassent toute tentative de dresser, comparer des séries homogènes. 112 Né en 1874, Auguste Gustave Stanislas Pawlowski était journaliste, rédacteur au Petit journal et à l'Information. En outre, il a été professeur à l'École des hautes études sociales. On peut mentionner qu'il était aussi auteur dramatique sous le pseudonyme : A.-P. de Lannoy. Il a publié de nombreux ouvrages techniques, géographiques, économiques destinés à un large public sur les ports de Paris, les inondations de la Seine, pour ce qui nous intéresse, mais également sur la houille blanche, la bauxite, le pétrole 113 François Maury (1876-19 ?) était un journaliste, poète, mais aussi Directeur de Finance-Univers, secrétaire général de la Revue bleue et de la Revue scientifique. Il soutient une thèse précisément sur le port de Paris en 1903, qui sera publiée encore en 1904. Elle connut un certain succès, puisqu'elle reçut le prix de l'Institut et fut rééditée avec de profonds remaniements en1911, sans doute à la suite des inondations 1910, et de l'émotion qu'elles suscitèrent auprès de l'opinion. 114 Paul Léon est le plus connu des auteurs évoqués ici. Né le 2 octobre 1874 et mort à Rueil-Malmaison en 1962 à Chantilly, Paul Léon a été directeur général des Beaux-Arts, professeur au Collège de France, grand-croix de la Légion d'honneur. Il fut le principal historiographe du service des Monuments historiques français. Paul Léon a passé son enfance dans les Vosges avant de retourner à Paris après le baccalauréat pour poursuivre ses études. Étudiant à l'École Normale Supérieure, il obtint l'agrégation d'histoire-géographie en 1898. Après quelques années dans l'enseignement et de chargé d'études pour le ministère des Travaux publics, puis journaliste dans les Annales de Géographie, il est devenu en 1905 chef de cabinet du Sous-secrétaire d'État aux Beaux-Arts : Étienne Dujardin-Beaumetz. Dans le cadre du plan Baudin, il a rédigé, en 1902, une importante étude défendant les voies navigables et le raccordement. À noter qu'il s'est marié avec la fille de l'ingénieur Paul Alexandre qui avait conduit les travaux de l'agrandissement du port de Dieppe 1881-1888. 115 Auguste Pawlowski, op. cit., pp.76-78. 116 François Maury, Le port de Paris, depuis un siècle, Paris, thèse de droit, Impr. de Suresnes, 1903, 279p. et Auguste Pawlowski, op. cit. 33 du port autonome de Paris quelque soixante ans plus tard Cette foisonnante littérature économique et technique s'avère des plus précieuses, car souvent de grande qualité, et solidement documentée117, elle fournit de nombreuses informations techniques, économiques, et contient des documents officiels, ou des documents statistiques inédits. En outre, ces ouvrages apportent une critique méthodologique des statistiques118, ce qui prévient des pièges déjà évoqués que comportent celles-ci. La plupart de ces documents ne tiennent guère compte des résultats de l'immédiate banlieue, dont le rôle s'est renforcé à partir de la seconde moitié du XIXe siècle. En effet, les installations portuaires ont tendance à être transférées vers la périphérie de la capitale, comme dans le cas d'Ivry, Gennevilliers, Bonneuil-sur-Marne Ce n'est qu'en 1929 que le ministère des Travaux publics a fait paraître pour la première fois les statistiques concernant le trafic global des ports de l'agglomération parisienne (Paris intra-muros non compris). De même, on peut trouver des résultats statistiques disséminés dans les différents fonds d'archives : Nationales, Départementales, de la Préfecture de Police, de la Chambre de Commerce de Paris et enfin du fonds du Musée de la Batellerie Ce sont souvent des boîtes inattendues qui fournissent des données éclairantes. L'approche intermodale nécessite de se pencher sur les sources ferroviaires, et force est de reconnaître que certaines se montrent fort bien documentées et apportent de nombreux éclairages et informations, y compris statistiques, et l'on peut citer les ouvrages d'Alfred Picard 119 , Clément Colson 120 , Richard de Kauffmann121 117 François Maury et Paul Léon n'hésitèrent pas à consulter les archives nationales, le premier dans le cadre de l'obtention d'une thèse de droit, le second, en tant qu'employé du ministère des Travaux publics. 118 En effet, Pawlowski a dressé un tableau synoptique des trafics selon les différentes administrations. Ses données s'avèrent extrêmement fiables, selon nos propres vérifications par rapport aux documents officiels. En outre, l'inspecteur général de la navigation, M. Guillemin, lui a fourni d'anciennes statistiques difficiles à se procurer qu'il publie dans son ouvrage. Auguste Pawlowski, Les ports de Paris, avec 27 vues photographiques, Paris, Berger-le-Vrault, 1910, pp.69-99. 119 Alfred Picard, Les chemins de fer : aperçu historique, résultats généraux de l'ouverture des chemins de fer, concurrence des voies ferrées entre elles et avec la navigation, Paris, H. Dunod et E. Pinat, Éditeurs, 1918, pp.437-790. L'ouvrage est un classique, l'auteur a consacré le cinquième chapitre à la question de la concurrence entre le chemin de fer et la navigation intérieure. 120 Bien que farouchement ferriste, Clément Colson (1853-1939) publia, outre des articles spécifiques sur la question de la concurrence entre les deux modes de transport, presque chaque année dans la Revue politique et parlementaire un rapport annuel sur l'état du trafic de la navigation (généralement dans le numéro de novembre). Ses publications se révèlent intéressantes en raison de son influence, mais également sur l'importante documentation sur laquelle il s'appuie, notamment statistique. 121 Richard de Kauffmann, La politique française en matière de chemins de fer, traduit, mis à jour et précédé d'une étude complémentaire par Frantz Hamon, Paris, Librairie polytechnique Ch. Béranger, Éditeur, 1900, pp.799-876. Le chapitre XIX se consacre complètement à la question de la navigation intérieure. Solidement documenté, l'ouvrage fournit de nombreuses statistiques sur les voies ferrées et navigables, tant françaises qu'allemandes, ce qui rend cet ouvrage inestimable. En outre, il offre un point de vue externe, non français (alors qu'il existe de nombreuses études françaises sur les transports allemands), et se sert moins de l'exemple allemand à des fins idéologiques 34 La véritable difficulté réside dans l'évaluation des frets fluviaux. Durant toute la période étudiée ici, les frets étaient le fruit d'accords passés entre les usagers et les transporteurs 122 . Les journaux spécialisés publiaient les cours dans les réseaux les plus fréquentés. Pour ce qui était des courants de trafic secondaires, la liberté apparaissait quasitotale123. Pour l'historien, la structure du marché contribue à rendre des plus opaques cette question, en raison d'une documentation très fragmentaire. Fort heureusement, pour ce qui est du port de Paris, deux des courants de trafic majeurs se révèlent les moins mal documentés, à savoir la ligne Lens-Paris, et la ligne Paris-Rouen124. Structure de la thèse : cerner les dynamiques d'une modernisation controversée. Le plan combine logique thématique et chronologique. La démarche adoptée s'efforce d'articuler à la fois une perspective globale et des questions plus particulières, afin de mettre en évidence les dynamiques, négatives ou positives, à travers la question intermodale et la dialectique utopie-réalité. Il s'articulera selon trois mouvements principaux, le premier recouvrant la période de troubles de la batellerie, c'est-à-dire entre le début des années 1840 et 1871. Le second traitera des grands plans d'aménagements de la batellerie qui décideront de son avenir entre les années 1871 et 1893 essentiellement. Le troisième évoquera un « retour à la réalité » et tentera d'expliquer comment l'activité portuaire a pu se développer malgré une politique erratique en la matière. Ces trois mouvements se déclineront en six chapitres, soit respectivement deux chapitres par partie. Le premier chapitre s'étendra du milieu du XIXe siècle jusqu'au début des années 1870, ce qui correspond peu ou prou au Second Empire. Cette partie dressera un panorama des activités portuaires au cours de ces deux décennies. Le propos s'inscrira dans une perspective intermodale, car c'est bien la concurrence des chemins de fer et la crise de la batellerie et le remodelage de la répartition des transports qui en résultent, qui constituent l'élément fondateur du mode des transports à l'ère industrielle. La démarche intermodale implique de s'intéresser à la question des entrepôts de Paris. Ce thème revêt une dimension utopique, ce qui montre qu'en un sens, la 122 Jean-Claude Toutain, op. cit., p.94 ; Michèle Merger, « La politique de la IIIe République », op.cit., 1979, p.336. 123 En 1936, seulement, des commissions régionales ont été établies en vue de calculer des taux de fret, qui devinrent, par la suite, obligatoires. 124 En l'occurrence, le Journal de la Navigation, la Revue noire pour ce qui est des frets au départ de Lens, le Journal de la Navigation et le Bulletin des usagers de la batellerie, en ce qui concerne les frets de l'Est en direction de Paris, et le Journal de la Navigation et Le Nord Charbonnier pour ce qui touche les frets RouenParis. 35 navigation intérieure contenait des failles qui se révéleront, face à l'apparition d'un concurrent tel que les voies ferrées. Le troisième chapitre portera sur les années 1872-1900. Elle constitue une période clef pour la navigation intérieure, plus particulièrement la navigation de la Seine qui connaît une profonde transformation via des aménagements de grande ampleur. Si le plan Freycinet représente une étape cruciale de cette modernisation. Il est nécessaire d'en présenter les conditions préalables, mais également d'en montrer les conséquences sur le long terme, notamment sur la navigation à Paris, à savoir la modernisation du « port de Paris ». Il nous paraît important de souligner la continuité entre le Second Empire et la IIIe République. D'une part, parce qu'il nous semble que l'étape cruciale est la « crise de la batellerie » survenue à la suite de l'émergence des chemins de fer. De plus, les modalités du redressement de la batellerie étaient déjà présentes dès cette période, finalement assez mal comprise, de la navigation intérieure. En effet, la période antérieure a été mieux étudiée, de la même façon que celle des voies fluviales, pendant et après le plan Freycinet, et s'avère donc bien mieux connue. Sans doute, cela tient en partie aux sources. Il a paru indispensable de combler cette lacune, car le milieu des années 1850 représente, selon nous, une étape cruciale de la compréhension des évolutions ultérieures. La mise en évidence d'une certaine continuité entre le Second Empire et la IIIe République ne concerne, d'ailleurs, pas exclusivement la navigation intérieure, on pourrait en dire autant de l'urbanisme : symbole du Paris haussmannien, l'opéra Garnier n'en a-t-il pas cependant été achevé sous le régime suivant ? Ces aspects seront traités dans le second chapitre. Si le troisième chapitre recouvre plutôt la dimension « réelle » (mais pas forcément réaliste) de l'activité portuaire, le siècle est marqué par le foisonnement de projets alternatifs autour de la question de « Paris port de mer ». Le quatrième chapitre se penchera, en quelque sorte, sur le « port utopique », de la recherche d'un « Paris utopique ». Alors que les ingénieurs des Ponts et Chaussées oeuvrant pour le compte du ministère des Travaux publics s'échinèrent à améliorer les conditions de navigation, d'autres s'ingénièrent à penser autrement l'activité portuaire parisienne, et les succès mêmes de la navigation fluviale, les incitèrent à élargir la fonction de ce port, et lui conférer une dimension utopique. Alors que les acteurs autour de la navigation de la Seine à Paris ne s'étaient qu'assez peu intéressés au statut de ces ports, à la modernisation de leur outillage, sa fiscalité Si les ingénieurs des Ponts et Chaussées ont introduit l'usage du port de Paris, les promoteurs de « Paris port de 36 mer » lui ont, en un sens, donné corps, il n'y avait qu'un pas entre « port de Paris » et « Paris port de mer » Le cinquième chapitre contient les contradictions mises en exergue dans les chapitres précédents. Sur le plan de la chronologie, il s'inscrit à la lisière entre deux périodes, celle du plan Freycinet et des aménagements qui en ont résulté, et celle de la Belle Époque, marquée, au début par le plan Baudin, adopté le 22 décembre 1903, mais ayant perdu une bonne part de sa substance. La question du raccordement a constitué une vive préoccupation à l'orée du XXe siècle. Le plan Baudin se proposait de moderniser plus particulièrement les infrastructures fluviales et portuaires, et de mettre l'accent sur la coopération avec les chemins de fer, gage d'efficacité économique. C'est la raison pour laquelle le cinquième chapitre se penchera de manière plus spécifique sur la question du raccordement et de l'outillage, notamment à travers des cas concrets, tels que celui du port d'Ivry, exploité par la chambre de commerce de Paris à partir de 1899. Enfin, le sixième et ultime chapitre, portant sur le port de Paris à la Belle Époque, traitera d'une période fort contrastée. Les succès même de la navigation fluviale soulevèrent de nouvelles difficultés face à des structures administratives et économiques héritées du Consulat et jugées, au seuil du siècle suivant, mal adaptées. Cette période allait assister à la convergence des questions intermodales et de la dialectique utopie-réalité. Carte 1. Voies navigables dans la région parisienne en 1891. 37 Carte extraite d'une carte globale du réseau des voies navigables françaises. En aval de Paris, on peut distinguer la 6e section qui s'étendait sur 21 km entre Paris et la Briche c'est-à-dire à l'intersection entre la Seine et le canal Saint-Denis, la 7e section (42km) entre la Briche et Conflans Sainte-Honorine. Cette dernière ville correspond à la confluence entre la Seine et l'Oise qui conduit jusqu'au bassin de l'Escaut, et donc aux houillères du Nord et du Pas-de-Calais. Enfin, la 8e section (171km) connectait Conflans et Rouen. En amont de Paris, la carte figure la Marne et surtout la 4e section (qui s'étirait en réalité sur 40km jusqu'à Corbeil). Source : Ministère des Travaux publics. Direction des routes, de la navigation et des mines. Statistiques de la navigation intérieure, Nomenclature et conditions de navigabilité des fleuves, rivières et canaux. Relevé général du tonnage des marchandises. Année 1891. 38 Carte 2. Plan des ports de Paris au début du XXe siècle. Source : Plan des ports de Paris, in Je sais tout, juin 1917, p.552. 39 Carte 3. Rayonnement du « port de Paris ». Source : Elicio Colin, Le port de Paris, dans la série Les Grands ports français, VIII, Paris, Dunod, 1920, VIII, p.103. 40 PREMIÈRE PARTIE : CRISE ET REDRESSEMENT (début des années 1840-1871) 41 CHAPITRE I : UNE ACTIVITÉ PORTUAIRE À LA CHARNIÈRE DE DEUX MONDES milieu du XIXe siècle-1872. Introduction : une batellerie à la croisée des chemins. Vers le milieu du XIXe siècle, l'ensemble des voies navigables dans le monde industrialisé connut une profonde remise en cause, celle-ci tenait en majeure partie à l'apparition d'un concurrent redoutable, la voie ferrée. La batellerie s'avérait auparavant l'unique mode de transport capable de transporter des marchandises en quantités notables125 sur de longues distances à l'intérieur des terres. C'était d'ailleurs aussi valable pour le transport de passagers. Si la crise semble commune à tous les pays industrialisés disposant d'un réseau fluvial opérationnel, les réponses apportées se révélèrent fort variables. Il est possible de distinguer trois groupes126, le premier composé de pays où la navigation intérieure est réellement, voire de manière définitive entrée en déclin, à l'instar de l'Italie, du Japon, de la Grande-Bretagne D'autres pays ne purent ressentir cette crise avec la même intensité dans la mesure où les chemins de fer ne se sont développés que tardivement à l'instar de la Russie 127 et enfin le troisième groupe où les pays le composant ont su moderniser leurs réseaux et leurs techniques de propulsion de façon à permettre à ce mode de transport ancien de lutter contre ce nouvel entrant dans le domaine des transports, à savoir, l'Allemagne, la Belgique, les Pays-Bas, la France, les États-Unis. Remarquons que ce troisième groupe est loin d'appartenir aux moins performants sur les plans économique et technique. Le transport fluvial a ainsi contribué dans une large proportion à leur essor, le plus bel exemple étant sans doute l'Allemagne. Reste bien entendu à déterminer à quel degré ? Ce qui s'avère valable sur le plan national l'est a fortiori sur le plan régional. Cette « conversion » de la voie d'eau ne s'est généralement accomplie que dans certaines zones du troisième groupe précité : le Rhin en Allemagne, la partie Nord de la France Toutefois, là encore, il s'agit des régions parmi les plus dynamiques sur le plan industriel, l'exemple français semble particulièrement éclairant L'intérêt du cas américain réside dans le fait que la navigation fluviale a connu un regain 125 Bien sûr, il faut se replacer aux conditions de l'époque. Andréas Kunz, « Voies navigables et développement économique », in Histoire, Économie et Société, n°1, 1992, pp.13-17. 127 Ministère des Voies de Communication, Direction des routes et voies navigables, Voies navigables intérieures de la Russie, XIe Congrès international de navigation, Saint-Pétersbourg, Imprimerie Kügelgen & Co, 1908, 180p. 126 42 particulièrement marqué à partir de la fin du XIXe siècle et au début du XXe siècle, grâce entre autres à des investissements colossaux. Cet aperçu mondial s'est révélé nécessaire afin de replacer dans une perspective plus large le cas qui nous intéresse ici et qui constitue en quelque sorte, une illustration. Se posent alors un certain nombre de questionnements : comment expliquer la coexistence de deux modes de transport pour la circulation des marchandises ? Quels sont les facteurs explicatifs de la survivance de la batellerie par rapport au coche d'eau et roulage ? Comment la navigation intérieure ne s'est-elle pas simplement maintenue, mais a connu un essor à l'ampleur inédite sur les mêmes lignes desservies par les voies de chemins de fer les plus performantes ? Sa survie ne constitua-t-elle que le simple produit d'un soutien artificiel de l'État ? Auquel cas, ce dernier apparaîtrait comme allant à l'encontre du sens de l'histoire des techniques que semblaient préfigurer les chemins de fer, et aurait freiné la modernisation du pays ? Cela signifierait que le rôle de l'État se serait révélé néfaste pour la modernisation du pays. Dans ce cas, la liberté accordée à l'initiative privée aurait représenté une solution bien plus pertinente pour l'outillage du pays. Ou bien au contraire, l'État n'a-t-il pas privilégié l'émergence d'un nouveau mode de transport au détriment de ses concurrents plus traditionnels ? Cependant, ces explications classiques à travers l'unique prisme de la non intervention ou d'une intervention étatique à outrance ne brouillent-elles pas l'analyse et ne mériteraient-elles d'être dépassées, sans être forcément mises à l'écart, mais au moins réinterprétées selon une autre approche ? En effet, la navigation intérieure ne recèle-t-elle pas des spécificités qui en firent un instrument de transport alternatif aux voies ferrées, voire parfois supérieur sous certains aspects ? Le propos se proposera donc ici de fournir quelques clefs afin d'apporter quelques éclairages à ces interrogations. Ce chapitre s'articulera selon deux moments principaux Le premier exposera les conditions de la navigation intérieure au milieu du XIX e siècle, expliquant sa vulnérabilité par rapport au transport ferroviaire. Le chapitre débutera autour des années 1843-1844, pour leur symbolique, à savoir l'ouverture de la ligne Paris-Orléans, mais aussi parce qu'à partir de ces années, les chemins de fer commencèrent à représenter une véritable menace pour les voies navigables et l'on commença sérieusement à songer à renoncer à l'établissement d'un système complet de canaux. Ce chapitre s'achèvera vers 1871, pour à la fois se conformer à la chronologie classique de l'histoire de France et de Paris, c'est-à-dire la chute du Second Empire, mais également, pour des raisons plus prosaïques. En effet, pour obtenir les statistiques de la fin des années 1860, il est nécessaire de consulter le volume relatif à l'année 1871. En outre, les statistiques des ports dans la traversée de Paris et dans le département de la 43 Seine deviennent stables à partir de l'année 1872. À partir de cette date, une nouvelle ère conjoncturelle s'ouvre. De ce fait, il y a une véritable évolution dans la perception et l'évaluation de l'activité portuaire à Paris. Tous ces facteurs concourent au choix de cette chronologie. Le chapitre comporte deux donc parties. La première concerne, à proprement parler, ce que l'on a pu désigner comme « crise de la batellerie », qui recouvre les années 1843-1860. L'année 1860 paraît naturelle, dans la mesure où elle constitue un tournant dans le règne de Napoléon III, caractérisé par un revirement libéral à la fois sur le plan politique et économique. En effet, le traité de libre-échange signé avec la Grande-Bretagne le 23 janvier 1860 impliquait de renforcer la compétitivité commerciale et industrielle de la France, et donc, une réévaluation du rôle des voies navigables dans la contribution à l'économie nationale128. Si la première partie se penche plus spécifiquement sur les tendances globales de la navigation intérieure et leurs conséquences sur l'activité portuaire à Paris, la seconde partie se focalisera davantage sur Paris et son équipement portuaire. Cette question apparaît comme le corollaire de la précédente, c'est-à-dire qu'elle consiste à s'interroger sur les conditions de l'intermodalité à Paris à travers les infrastructures et les superstructures portuaires. L'expression de cette intermodalité reflète également les tensions que connut le transport fluvial, ainsi que les modalités des mutations qui en résultèrent. 128 Néanmoins, la chronologie adoptée doit faire preuve de porosité, dans la mesure où le tournant adopté par le Second Empire n'est pas aussi radical, ce régime ayant mené une attitude finalement plutôt « suiviste », selon les conditions du moment, sans être ouvertement et complètement hostile à la batellerie, mais sans apporter pour autant un soutien réel. 44 Carte 4. Carte des voies fluviales dans le bassin parisien Source : François Beaudoin, « La canalisation de la Seine par barrages mobiles éclusés au XIX e siècle », dans les Cahiers du Musée de la batellerie, n°2, décembre 1988, pp. 19. 45 I. UNE CRISE D'IDENTITÉ (1843-1860). A. L'intrusion ferroviaire. 1. Un réseau mal adapté aux enjeux de la révolution industrielle (milieu du XIXe siècle). Le recensement de 1851 nous informe que 1 590 millions de tonnes-kilométriques ont été transportées sur les routes nationales et le tonnage acheminé sur les autres routes de grande voierie a atteint 800 millions de tonnes-kilométriques. La même année, les bateaux charriaient 1 670 millions de tonnes-kilométriques sur les voies navigables françaises. On pouvait ainsi considérer la répartition des transports avant l'avènement des chemins de fer à respectivement 60% pour la route et 40% pour la batellerie 129 . Le succès de la batellerie résidait dans l'infériorité des autres modes de transport alors en fonction, et plus particulièrement le roulage130. Celle-ci n'exigeait que de faibles frais de traction, l'importance des chargements qu'elle offrait lui permettait de supporter de nombreuses dépenses accessoires. Le roulage ne déplaçait, quant à lui, que des quantités de marchandisages limitées et rencontrait de nombreux problèmes en cours de route La batellerie représentait ainsi l'unique mode de transport susceptible de convoyer d'énormes quantités de marchandises sur de longues distances, donc de ce point de vue, il apparaissait comme le plus rentable. Les estimations du coût réel des frets fluviaux variaient selon les auteurs. Pour Pillet-Will, dans les années 1830, le taux de fret de la navigation ordinaire s'élevait à 0,06 franc la tonne-lieue, et à 0,18 franc pour la navigation accélérée. Il fallait ajouter des droits de navigation oscillant entre 15 et 21 centimes. Le coût du transport de la navigation ordinaire atteignait ainsi entre 32 et 38 centimes la tonne-lieue, sans comprendre les droits et entre 5,25 et 9,5 centimes en incluant les droits131. De son côté, le roulage ordinaire valait 25 centimes la tonne-kilomètre, tandis que le roulage accéléré coûtait 37,5 centimes. La batellerie offrait ainsi une économie 129 Dominique Renouard, Les transports de marchandises par fer, route et eau depuis 1850, Paris, 1960, p.39. Louis Becquey, Statistiques des routes de France, Paris, Imprimerie royale, 1824, 429p. 131 Michel Frédéric, Cte Pillet-Will, De la dépense et du produit des canaux et des chemins de fer ; De l'influence des voies de communication sur la prospérité industrielle de la France, Paris, P. Dufart, 1837, vol.2, p. 316. Pour sa part, concernant les canaux, Michel Chevalier évaluait, le fret le plus courant entre 1,5 et 2 centimes la tonne-kilomètre. Son calcul incluait le salaire du batelier, le loyer des chevaux de halage et l'usure du bateau. Dans le cas des rivières, le fret se révélait inférieur d'un quart à la descente et supérieur de moitié à la remonte. Le péage coûtait autour de 0,25 la tonne-kilométrique. Il supposait que le trafic à la remonte était deux fois plus intense qu'à la descente et le trafic sur les rivières était à peu près aussi important que sur la globalité des canaux, ce qui l'amena à proposer un fret moyen entre 1,65 et 2,25 centimes. Voir : Michel Chevalier, Des intérêts matériels de la France, Travaux publics, routes, canaux, chemins de fer, Paris, Libr. Ch. Gosselin, 1838, p.161. Jean-Claude Toutain fait remarquer que la pondération n'influait guère sur le chiffre initial, donc on peut considérer ce dernier comme très proche du montant final. 130 46 de 1300 francs sur le roulage132. Les avantages de la paraissaient toutefois moindres sur la Basse-Seine où elle se voyait contrainte de partager le trafic avec le roulage du fait des conditions de navigation qui étaient telles sur cette ligne que la batellerie était d'une lenteur considérable. Construction et exploitation constituaient deux opérations totalement cloisonnées, alors que les voies ferrées allaient contribuer à les rassembler. Les concessionnaires d'une voie navigable avaient tendance à tellement tirer sur les prix qu'ils lui attribuaient le plus faible tirant d'eau possible, ce qui les incitait à multiplier les écluses de manière à éviter les terrassements. En outre, le réseau avait été construit sans véritable plan d'ensemble, et les concessionnaires ne se montraient assez peu soucieux d'harmoniser les dimensions avec celles des voies à proximité. Si les canaux de Bourgogne et du Rhône au Rhin débouchaient quasiment l'un en face de l'autre dans la Saône, ils n'acceptaient pas des bateaux de même gabarits 133 . Ce type d'incohérence présentait comme fâcheuse conséquence d'empêcher le développement du transit entre l'Est et l'Ouest du territoire français, alors que la navigation semblait potentiellement capable de le réaliser134. Les péages sur les canaux s'avéraient parfois prohibitifs, ce qui avait tendance à faire de la voie d'eau, « une ligne de répulsion135» amenant le commerce à éviter autant de fois que possible, la voie d'eau, quitte à faire appel au roulage : sur le canal du Centre, les établissements faisaient camionner leurs marchandises jusqu'à Chalons ou Digoin 136 . Les droits de navigation grevaient de 78% le prix du transport de Mons à Paris et de 11% celui de Dunkerque à Paris alors que la navigation se montrait très active sur le réseau du Nord137. La chambre de commerce de Dunkerque constatait que d'Amiens à Saint-Quentin, d'Arras à Amiens, tous les transports étaient réalisés par voie terrestre, malgré l'existence des canaux ! Le fret de retour de Paris vers le Nord passait entièrement par camionnage, car le bateau chargé de 20 à 30 t payait comme s'il était plein. Le batelier préférait alors retourner à vide plutôt qu'avec une charge incomplète. Les convois de charbon français à destination de Calais 132 François Maury, Le port de Paris, depuis un siècle, Paris, thèse de droit, Impr. de Suresnes, 1903, p.57. François Aulagnier, Études pratiques sur la navigation du Centre, de l'Est et du Nord de la France et des principales voies navigables de la Belgique, Paris, Carilia-Guoeury et Vos Dalmont, Libraires, 1841, p.23. 134 François Aulagnier, ibid. 135 Paul Léon, Fleuves, canaux, chemins de fer, avec une introduction de Pierre Baudin, Paris, Librairie Armand Colin, 1903, p.9. 136 Michel Frédéric Pillet-Wil, op. cit., p. 178. 137 Le 27 mai 1845, le comte d'Angerville avait expliqué à la Chambre des Députés que sur les canaux du Midi, latéral à la Loire, et de Saint-Quentin, les frais de traction, y compris l'usage du bateau, le temps et le bénéficie du marinier ne coûtait qu'entre 1,5 et 1,75 la tonne-kilomètre. Toutefois, plus loin, il estimait les frets payés sur les grandes lignes navigables, en moyenne, à 4 centimes la tonne-kilométrique. Consulter : Jean-Claude Toutain, « Les transports en France de 1830 à 1965 », in Économies et Sociétés, série AF, n°9, Paris, PUF, 1967, p.105 . 133 47 ou Dunkerque effectuaient un immense détour par la Belgique, c'est-à-dire par Tournay, Gand, Bruges, Nieuport et Furnes de façon à éviter les taxes prélevées sur les voies françaises 138! L'émergence des chemins de fer représenta un nouveau défi pour la batellerie traditionnelle. Les conséquences de ces bouleversements sur l'activité portuaire parisienne paraissaient donc inévitables. Malgré cette situation périlleuse, le milieu batelier parvint à résister grâce à des innovations techniques et une redéfinition de la doctrine de son emploi. 2. L'attrait de la nouveauté. Les chemins de fer permettaient aux marchandises de circuler quasiment sans limite, sans nécessiter de transbordement ou autres cas de ruptures de charge. Ces causes de gêne sur les transports créaient de grandes disparités dans les prix, qui pouvaient s'appliquer parfois du simple au double, notamment pour les céréales139. La médiocrité relative des conditions de navigation devait aboutir à une situation de crise au cas où un nouvel entrant dans le domaine des transports, plus performant, arrive et rafle l'essentiel du trafic, rompant ainsi le fragile équilibre entre la voie d'eau et le roulage140. Les chemins de fer furent ce nouvel entrant. Si la batellerie se trouva face à une situation des plus dramatiques, il faut quand même rappeler que les choses n'étaient pas gagnées d'avance. Et si l'on peut brosser un portrait peu flatteur des conditions de l'état des voies navigables de France au milieu du XIX e siècle, ce n'est là qu'une lecture a posteriori de l'historien141 Pourtant, on ne saurait incriminer totalement les différents gouvernements ayant succédé au régime napoléonien. Sous la Monarchie de Juillet, le budget total consacré aux voies navigables passa de 183 à 482 millions de francs142. Le nouveau régime désira achever le programme de 1821, qui le fut finalement en 1842. Une nouvelle tranche de travaux fut alors lancée, ouvrant 2 000 km de canaux avec entre autres, les canaux de la Marne au Rhin, de l'Aisne à la Marne ainsi que le canal latéral à la 138 Paul Léon, Fleuves, op. cit, pp.9-10. Alfred De Foville, La Transformation des moyens de transport et ses conséquences économiques et sociales, Paris, Guillaumin, 1880, p.237. 140 Sur les facteurs permettant l'entrée d'un nouvel entrant sur un marché, consulter Michael Porter, L'Avantage concurrentiel. Comment devancer ses concurrents et maintenir son avance, traduit de l'américain par Philippe de Lavergne, Paris, Dunod, 1997, 647p. 141 Il faut noter que des contemporains s'en montraient tout de même déjà conscients, comme en témoigne la littérature à ce sujet déjà très abondante dans les années 1830. Voir notamment à ce sujet : Yves Leclercq, Le réseau impossible. La résistance au système des grandes compagnies ferroviaires et la politique économique en France, 1820-1852, Paris, Droz, 1987, 287p. 142 François Caron, Histoire des chemins de fer en France, 1740-1883, Paris, Fayard, 1998, p.47. 139 48 Garonne 143 . En effet, sous la Restauration, la France s'était lancée dans un vaste plan d'aménagement de canaux, plus connu sous le nom de plan Becquey, sur l'initiative du directeur général des Ponts et Chaussées, Louis Becquey. Dans son Rapport au roi, Becquey s'était largement inspiré sur celui du voyage d'études en Angleterre de Joseph Dutens 144 réalisé deux ans auparavant. Ce dernier avait été le concepteur du canal de Berry doté d'un système de canaux de petite et double sections et reposant sur un système de financement par compagnies privées concessionnaires. Les lois des 5 août 1821 et 14 août 1822 entérinaient un programme ambitieux de canaux en France, et visait une standardisation de leur gabarit. En un sens, il s'agissait d'un « plan Freycinet » avant le « plan Freycinet ». Les lois précitées comportaient un volet financier et un volet technique. Sur le plan technique, le plan Becquey tournait autour de deux idées-phares. D'une part, il visait à moderniser et étendre le réseau existant grâce à l'ouverture de nouvelles voies. Il s'agissait donc de construire des canaux de jonction et canaliser les rivières, les canaux latéraux devaient compenser la canalisation des cours d'eau lorsqu'elle se révélait impossible. D'autre part, le plan se fondait sur l'adoption d'un gabarit minimal uniforme à l'ensemble du réseau, à l'exception des voies secondaires où l'on pouvait adopter un gabarit deux fois moindre145. Le volet financier consistait en un mélange d'emprunts et de concessions. L'État était censé inciter la création de compagnies destinées à financer les travaux dont il assurait l'exécution. En effet, la réalisation du plan Becquey se heurtait à des obstacles qui s'avéraient moins techniques que financiers. En effet, après l'aventure napoléonienne, les finances publiques n'offraient guère de possibilités pour aménager un réseau de canaux aussi vaste, et la rentabilité incertaine de ces ouvrages tendait à rebuter les initiatives privées. En outre, l'intervention publique se révélait particulièrement délicate dans un contexte libéral et face à des parlementaires de plus en plus réticents quant aux dépenses de travaux publics de prestige. 143 Nathalie Montel, « L'État aménageur dans la France de la Seconde Restauration, au prisme du Rapport au roi sur a navigation intérieure de 1820 », in Revue d'histoire moderne et contemporaine, n°59-1, janvier 2012, pp.34-61. 144 Becquey ne le cite pas dans ce rapport. 145 Il s'agit du « gabarit Becquey » aux dimensions minimales utiles suivantes : longueur 30,40 m ; largeur 5,20 m ; mouillage 1,60 m (pour un tirant d'eau de 1,20 m) ; hauteur libre sous ouvrages 3,00 m. Les bateaux circuleront avec 150 tonnes à l'enfoncement de 1,20 m. En comparaison du maximum de 80 tonnes maximum que pouvaient transporter certains bateaux, comme les chalands de Loire, cela représentait un progrès notable. C'était d'autant plus vrai que le canal pouvait recevoir un transport pendant presque toute l'année, avec des conditions de sécurité optimales, tout au moins, en principe. En outre, étant donné les conditions de navigation de l'époque, les bateaux de canal réclamaient moins de main-d'oeuvre qu'en rivière : deux hommes suffisaient, un sur chaque bord, pour haler un bateau. Le plan Becquey était ainsi censé équiper l'industrie d'un instrument de développement performant. 49 Le projet de Louis Becquey146 proposa donc une solution originale consistant en une forme de partenariat public-privé. Selon ce schéma, l'État se chargeait de la construction et l'entretien des ouvrages, tandis que des sociétés privées en assuraient le financement des travaux. À partir d'un système assez complexe147, l'État évaluait le coût des travaux, en était le maître d'oeuvre et se chargeait de leur gestion, tandis que des compagnies privées avançaient les fonds. En retour, ces dernières recevaient la ou les voies dont elles avaient financé les travaux pour des concessions de 50 à 99 ans, suivant les accords contractés. La plus importante d'entre elles, la Compagnie des quatre canaux, fournissait 68 millions de francs. Le montage financier consistait en un emprunt avec un intérêt de 5 %, remboursable de 1833 à 1867, il comportait également des titres de participation aux bénéfices du canal. Il s'agissait de financiers tels que Hagerman, Odier, Laffitte, Pillet-Will, Casimir Perier, André et Cottier, etc. Ce système était néanmoins critiqué. En effet, c'était l'État qui s'engageait sur les délais d'exécution et apportait une garantie à l'emprunt, ce qui laissait supposer que ces concessions semblaient peu risquées pour les compagnies148. En outre, les libéraux dénonçaient la prise en charge des travaux par l'État, considérant celui-ci comme le « pire des constructeurs »149 . L'attribution de la conception et l'exécution des travaux au secteur privé leur semblaient préférables. La question de l'action des Ponts et Chaussées fut débattue devant la Chambre le 19 juillet 1828, après que Becquey ait sollicité encore une fois le vote de crédits supplémentaires. Certains députés critiquaient les débordements de l'Administration dans les budgets assignés à ces projets. Le contexte n'était guère favorable à une action publique. Un puissant courant libéral commençait à se propager dans les dernières années de la Restauration, marquées par un foisonnement des écrits économiques promouvant le libreéchange150. Les libéraux désiraient effectivement une déréglementation du secteur des travaux 146 Louis Becquey (1760-1849) a été nommé au poste de directeur des Ponts et Chaussées, le 17 septembre 1817. Le personnage a un parcours atypique. En effet, s'il était le neveu de l'ingénieur Louis Marie Becquey, il avait une formation de droit, débutant sa carrière en tant que procureur-général-syndic du département de la haute Marne. C'est peut-être sa fonction de directeur général du commerce en 1814, qui le sensibilisa à la question des transports, notamment pour affronter la concurrence britannique. Voir « Louis Becquey », dans Robert et Cougny, Dictionnaire des parlementaires français, 1889 ou encore Reed G. Geiger, Planning the French canals: bureaucracy, politics, and enterprise under the restoration, Newark (N.J.): University of Delaware Press, London: Associated University Presses cop., 1994, p.82. 147 Gwenaël Nieradzik, « La construction du réseau de canaux français et son financement boursier (18211868) », in Georges Gallais-Hamonno (éd.), Le marché financier français au XIXe siècle, vol. 2 : aspects quantitatifs des acteurs et des instruments à la Bourse de Paris, Paris, Publications de la Sorbonne, 2007, p. 459506. 148 Pierre Pinon, « » Ministère de la culture, Un canaldes canaux, exposition tenue dans le cadre de la Conciergerie à Paris, du 7 mars au 8 juin 1986, Picard Éd., 416p. 149 B.-P.-E. Clapeyron, E. Flachat, S. Flachat, G. Lamé, Vues politiques et pratiques sur les travaux publics de France, Paris, imprimerie d'Everat, 1832, p. 14. 150 David Todd, L'identité économique de la France. Libre-échange et protectionnisme 1814-1851, Paris, Grasset, 2008, p.114. 50 publics, certains n'hésitant pas jusqu'à exiger l'abolition du corps des Ponts et Chaussées. Pour défendre leur point de vue, ils s'appuyaient sur l'exemple de la Grande-Bretagne dépourvue d'une administration et d'ingénieurs équivalant aux Ponts et Chaussées, ce qui n'avait pas représenté un réel obstacle pour s'équiper d'un système de transport d'une ampleur encore inégalée jusque-là. Ils dénonçaient les responsabilités de l'Administration quant aux retards enregistrés dans l'achèvement des canaux prévu par le plan Becquey. Ils mettaient en exergue les erreurs effectuées dans l'estimation de l'enveloppe financière151. Les atermoiements dans la mise en oeuvre de ce vaste programme d'aménagement offraient ainsi une tribune privilégiée pour s'exprimer en public et diffuser leurs idées, dans un dessein qui dépassaient largement la question des transports. En outre, les libéraux n'étaient pas les seuls à déplorer la lenteur des travaux. Certains même, à l'instar de Proudhon152, envisageaient l'affermage des voies navigables en 1845. Toutefois, au moment du plan Becquey, la controverse portait moins sur la légitimité d'aménagements fluviaux que dans leur mode de financement153. Sous la Monarchie de Juillet, les crédits attribués aux aménagements fluviaux représentaient 40% des dépenses totales consacrées à la navigation contre 22% sous la Restauration. Il ne s'agissait pas d'un penchant nécessairement marqué pour la voie d'eau, mais la batellerie demeurait un des modes de transports terrestres essentiels pour la vie économique du pays, et les débuts du chemin de fer ne laissaient que des perspectives plutôt floues, comme le souligne Michèle Merger : « Jusqu'au début des années 1830, la politique menée en faveur de la voie d'eau n'a suscité aucune polémique car l'avenir du système ferroviaire demeurait encore incertain 154 ». Les premières lignes de chemins de fer furent créées sur l'initiative d'industriels et ne s'étaient pas avérées à la hauteur des résultats escomptés. Dans le Nord, la Compagnie de chemin de fer devait affronter les vieilles habitudes, les dirigeants s'étonnant que le trafic ne vienne pas à eux ! Par ailleurs, dans leur quête de parts de marché, les compagnies de chemins de fer adoptaient une stratégie visant à 151 Antoine Picon, « De l'utilité des travaux publics en France aux XVIIIe et XIXe siècles », in Acteurs privés et acteurs publics : une histoire du partage des rôles, Paris, Ministère de l'Équipement, des Transports et du Tourisme, Direction de la Recherche et des Affaires Scientifiques et Techniques, 1994, p. 125. Dans César Birotteau, publié en 1837, Balzac pose un regard amusé sur cette période, notamment le rôle des banquiers dans le financement des canaux (il fait allusion au plan Becquey et à l'achèvement du canal Saint-martin), voir notamment Honoré de Balzac, César Birotteau, Paris, Garnier Flammarion, 1996, p.239. 152 Joseph Proudhon, De la concurrence entre les chemins de fer et les voies navigables, Paris, Au bureau du Journal des Économistes, Guillaumin, 1845, 48p. Il n'est pas inutile de rappeler que Proudhon s'est installé à Lyon pour travailler en tant que comptable dans une entreprise dirigée par un de ses anciens condisciples, de navigation sur le Rhône et le Rhin. Il possédait donc une réelle expérience dans ce domaine. 153 Il n'en demeurait pas moins que la plupart des détracteurs du plan Becquey se convertirent aux chemins de fer. 154 Michèle Merger, op. cit. , p.67. 51 contracter des ententes avec les compagnies de navigation. Au cours de la période de construction d'une voie ferrée, la compagnie de chemin de fer établissait des correspondances avec le bateau à vapeur, celles-ci disparaissaient bien entendu dès l'ouverture de la voie. En haute Seine, la compagnie dite des Parisiens dépendait ainsi du PLM et contribuait de ce fait à réduire toute velléité concurrentielle. L'ingénieur Chanoine 155 jugeait donc possible la renaissance de la navigation fluviale que dans le cas où les rivières pouvaient être desservies par des compagnies indépendantes des compagnies de chemins de fer156. De nombreux commerçants établirent leurs magasins et entrepôts sur les rives des canaux ou des cours d'eau. À Lille, en 1847, les tarifs de la voie ferrée excédaient ceux proposés par le roulage. Le canal transporta les quatre septièmes des sucres, tous les métaux, tout le charbon, au mois de février 1847. Le trafic n'est donc pas venu de lui-même vers la voie ferrée. Les commerçants n'apportaient pas leurs marchandises à la gare : soit ils étaient dépendants de leurs expéditeurs, soit les avantages tarifaires proposés par le chemin de fer ne compensaient pas l'embarras que représentait cette opération. Indifférents à la régularité procurée par la voie ferrée, la batellerie et le roulage leur proposaient des prix meilleur marché : « Il fallait conquérir le trafic157». En outre, demeuraient moult interrogations quant aux coûts réels de construction et d'exploitation, la mise en place des lignes exigeant d'énormes capitaux Or, l'État avait déjà investi beaucoup pour l'amélioration de son réseau navigable. Cependant, dès 1832, une voie ferrée à une vaste échelle semblait réalisable, la longueur du réseau de chemin de fer national passant de 59 à 180 km jusqu'en 1838, soit le triple158. 155 Né en 1805, Jacques Henri Chanoine est entré à l'âge de 15 ans à l'école polytechnique et deux années plus tard à l'école des Ponts et Chaussées. En 1828, il a dirigé par intérim le service des arrondissements de Lons-leSaunier et de Saint-Claude, dans le Jura. En 1838, il est affecté au canal du Nivernais, où il a l'occasion d'observer l'expérimentation du premier barrage mobile de Poirée à Basseville. Entre 1836 et 1842, il a participé à la construction de neuf barrages de type Poirée. Il étudia durant une année un projet d'exécution de sept grands réservoirs (dont celui de Settons). Affirmant manquer de travail, il sollicita un changement de service : de 1843 à 1845, il effectua l'étude, le tracé et participa aux débuts des travaux du chemin de fer entre Paris et Lyon. Il est alors considéré comme suffisamment expérimenté pour assurer la gestion du service de la navigation de la Seine entre Paris et Troyes. Il continua à concevoir et réaliser des aménagements et des ouvrages d'art (barrages écluses et digues). Entre 1849 et 1852, il est entré dans le service hydraulique du département de la Seine-etMarne. C'est à cette époque qu'il conçut les barrages à hausse mobiles, qui représentaient un perfectionnement des barrages mobiles Poirée. Lors des travaux d'une dérivation de la Seine, il a expérimenté ses barrages alors qu'il oeuvrait à la construction d'écluses, et de divers ponts de diverses sortes. Entre 1859 et 1864, il a conduit les travaux d'amélioration de la Seine entre Paris et Montereau (douze barrages à hausses mobiles et grandes écluses, barrage de Beaulieu). Il prit sa retraite trois ans plus tard. 156 AN (site de Pierrefitte-sur-Seine), F14 6811. 157 François Caron, Histoire de l'exploitation d'un grand réseau. La Compagnie du chemin de fer du Nord 18461937, Paris, Mouton, 1973, p.58. 158 Michèle Merger, op. cit., p. 67. 52 Les premiers grands axes furent mis en place les années qui suivirent, si bien qu'à la veille du Second Empire, 3 000 km de voies étaient exploitées. La majorité des tronçons étaient situés au nord de la Loire et rayonnant autour de Paris, en conformité à la loi du 11 juin 1842 159 qui envisageait l'établissement d'un réseau national reliant la capitale aux frontières du pays. L'extension du réseau ferré s'accentua encore sous le Second Empire et plus particulièrement entre 1852 et 1860. L'allongement de la durée des concessions, la création de six grandes compagnies bénéficiant de la garantie d'intérêt versée par l'État en cas de déficit, le recours aux obligations pour la constitution du capital social se trouvèrent à l'origine de ce développement160. Dès 1860, la longueur des voies exploitées représentait le triple de celui de 1850, soit 17 000 km, la décennie suivante, elle doubla quasiment encore, pour atteindre les 39 500 km en 1870161. À cela, il fallait ajouter bien entendu les progrès enregistrés dans la technologie ferroviaire en matière de traction, permettant de mieux exploiter ce nouveau mode de transport. Pour la première fois, en 1857, le tonnage transporté par les chemins de fer excéda celui de la voie d'eau162. Graphique 2. Concurrence entre les voies navigables et ferrées sur la ligne Paris-Rouen 1844-1852. 159 Loi n°1842-06-11 du 11 juin 1842 relative à l'établissement des grandes lignes de chemins de fer. Dans Bulletin des lois 1842, n°481-486. La loi en elle-même ne semblait pas avoir eu l'effet décisif que l'on croit souvent. En effet, le réseau apparaissait loin de l'achèvement. Voir Yves Leclerc, « Les transferts financiers. État-compagnies privées de chemin de fer d'intérêt général (1833-1908) », in Revue économique, volume 33, n°5, 1982. p. 903. 160 Yves Leclercq, Le réseau impossible. La résistance au système des grandes compagnies ferroviaires et la politique économique en France, 1820-1852, Paris, Droz, 1987, pp.66-69. 161 Statistiques générales de la France. 162 Louis Girard, La politique des travaux publics op. cit., p.214. 53 Tonnages absolus 500 000 450 000 400 000 350 000 300 000 250 000 200 000 150 000 100 000 50 000 0 Batellerie Chemins de fer Sources : AN F14 6814 (site de Pierrefitte-sur-Seine), Note sur les projets dressés d'après les indications du Conseil des Ponts et Chaussées qui ont servi de base à la loi du 31 mai 1846, pour l'amélioration des 2 e et 3e section de la navigation de la Seine, depuis Bercy jusqu'à Rouen, par Michal, 27 mai 1853 ; Ernest Grangez, Précis historique et statistique des voies navigables et d'une partie de la Belgique, Paris, N. Chaix, 1855, pp.641-642163. Les premiers grands axes ferrés furent primitivement conçus afin d'assurer le transport des personnes, mais les compagnies développèrent rapidement le trafic des marchandises et marquèrent des points sur la batellerie par le biais d'une politique tarifaire habilement ciblée. Les tarifs généraux de la Compagnie du Nord ont été élaborés de façon à se rapprocher le plus de ceux de la batellerie, tout en proposant une vitesse supérieure164. Les principales modalités de tarification reposaient sur les tarifs différentiels en fonction de la distance, des distances d'application, diversification, de la valeur de la marchandise et du volume des expéditions. Ces mesures ne furent toutefois appliquées que très modérément, ne se révélant guère du goût du ministère des Travaux publics qui jugeait les propositions de tarifs insuffisantes, c'est-àdire trop élevées, notamment pour la houille transportée du Nord vers Paris. Durant la première moitié du XIXe siècle, se développèrent des méthodes de mesures de l'efficacité des travaux publics. En effet, d'une part, on commençait à prendre conscience que la monumentalité d'un ouvrage n'était pas synonyme de son efficacité. D'autre part, les travaux publics figurant désormais dans un budget voté annuellement devant un parlement, il apparaissait nécessaire de s'appuyer sur des méthodes mathématiques pour défendre les dépenses de l'administration des Ponts et Chaussées dans un contexte où les libéraux se 163 Voir également Isabelle Backouche, La trace du fleuve, La Seine et Paris, Paris, Éditions de l'École des Hautes Études en Sciences Sociales, 2000, p.360. 164 cf. François Caron, Histoire de l'exploitation op. cit., p.59. Voir aussi François Caron, Histoire des chemins de fer en France op. cit., p.354. 54 montraient méfiants à l'égard des dépenses de grands travaux165. Ce contexte favorisa l'essor du calcul économique par les ingénieurs : Brisson, Navier, et surtout Dupuit166. En 1844, ce dernier a publié De la mesure de l'utilité des travaux publics 167 , recherche qui s'avérait pionnière concernant la théorie de l'utilité. Dans cet ouvrage, il estime que l'on avait surestimé les chiffrages de l'utilité des canaux creusés en France dans les années 1820. De ce fait, il proposa une règle de calcul novatrice pour son époque. L'ingénieur Jules Pétiet définit une politique qui, pour déterminer le tarif, s'attacha à tenir compte du coût réel du transport168. Il évaluait le prix d'une tonne kilométrique dans les trains de 150 tonnes à 3 centimes. Il proposa encore, en août 1847, d'aligner le tarif sur celui du canal sur la direction Mons-Paris, le canal baissa alors son tarif, le fret passant de 16 francs en 1845 à 11 francs en 1847. Sur cette ligne, la compagnie marqua des points dans les traités particuliers passés avec les expéditeurs. Le premier, remontant en avril 1847 touchait les transports de l'huile depuis Cambrai, puis ce furent les sucres, les boissons, les alcools, les verres, les grains, les pommes de terre, etc. Ces traités accordaient des remises avec en contrepartie une promesse d'exclusivité169. Le Comité consultatif des chemins de fer les interdit toutefois en 1857, ce qui amena les compagnies à proposer des tarifs d'abonnement avec une clause préférentielle d'exclusivité. Ces tarifs étaient applicables pour tout expéditeur s'engageant à la fourniture d'une quantité minimale de marchandises. Pourtant, là encore, le Comité consultatif abrogea ces tarifs en 1860170. Les compagnies trouvèrent la parade en élaborant des tarifs spéciaux, qui pouvaient se révéler régressifs selon la distance ou à prix ferme pour un type de produit particulier sur tel parcours. Les milieux industriels et commerciaux, par la voix des chambres de commerce en particulier, ont multiplié les critiques contre cette politique tarifaire qui attira pourtant le trafic 165 Antoine Picon, « De l'utilité des travaux publics en France aux XVIIIe et XIXe siècles », in Acteurs privés et acteurs publics : une histoire du partage des rôles, Paris, Ministère de l'Équipement, des Transports et du Tourisme, Direction de la Recherche et des Affaires Scientifiques et Techniques, 1994, p. 129-136. 166 L'influence de Jules Dupuit a été considérable dans la pensée libérale, bien que parfois oubliée. Cet ingénieur et économiste français figura parmi les premiers à avoir étudié la relation coût-efficacité des travaux publics. Né à Fossano, dans le Piémont italien, Arsène Jules Étienne Juvénal Dupuit a étudié à l'École polytechnique de Paris, pour rejoindre ensuite le corps des Ponts et Chaussées, dont il est devenu plus tard inspecteur général. Son travail l'a conduit à s'intéresser aux questions économiques en relation avec l'aménagement d'infrastructures publiques et à l'imposition d'une taxe pour leur emploi. Arnaud Diemer, « Léon Walras et le syndrome Dupuit », in Colloque de l'Association Internationale Walras, Dijon, 21 septembre 2000 Cahier du CERAS, Hors-série n°2, novembre 2001, pp. 140-156. 167 Jules Dupuit, « De l'utilité des travaux publics », in Annales des Ponts et Chaussées, 2e semestre, 1844, p. 332-375. 168 Ibid. 169 Ces tarifs n'étaient pas encore trop du goût de l'Administration 170 « Rapport du Ministre du Commerce et des Travaux Publics à l'Empereur », in Moniteur universel, 27 février 1860. 55 sur les voies ferrées. Les Compagnies du Nord et de l'Ouest avaient en effet réduit de façon très marquée leurs tarifs de houilles, et plus globalement ceux sur les produits lourds et encombrants, et ce, dès le début du Second Empire. Les agents de la Compagnie du Nord suivaient journellement l'évolution du trafic des voies navigables pour observer les moindres variations de prix. Un agent commercial avait même été proposé au magasin houiller de Mons afin d'enlever à la navigation le plus de tonnage possible. Une tactique similaire fut adoptée pour d'autres marchandises à l'instar du plâtre, du cuivre expédié par une usine de Vitry, ainsi que des sucres De son côté, la Compagnie de l'Ouest effectuait le calcul du fret en fonction de celui pratiqué sur la Basse-Seine, mais elle avait affaire à un adversaire autrement plus redoutable Ces mêmes compagnies recourraient par ailleurs à une politique de tarifs saisonniers, les prix s'abaissant tant que fonctionnait la voie d'eau, et le rehaussaient brutalement au cours des périodes de chômage. Ainsi, dès 1865, les recettes des transports à petite vitesse excédèrent celles des transports à grande vitesse. Deux années après, le tonnagekilométrique des voies ferrées distança celui des voies navigables, oscillant de 1 600 à 2 000 millions de tonnes-kilomètres entre 1851 et 1862 pour se maintenir à 2 000-2 100 millions de tonnes-kilomètres entre 1862 et 1869171. Graphique 3. Fréquentation des voies navigables françaises 1847-1871. 171 Navigation intérieure, Administration des contributions indirectes. Relevés du tonnage des marchandises par classe et par cours d'eau tant à la descente qu'à la remonte pendant les années 1851-1869. Étant donné les circonstances de la guerre franco-prussienne, les chiffres de l'année 1870 n'ont pas été publiés, mais on les retrouve, tout au moins pour le trafic global, dans le volume de l'année 1871, publié en 1872. D'ailleurs, il est possible de retrouver les mêmes chiffres dans les volumes conçus par le ministère des Travaux publics et publiés à partir des années 1880. 56 Millions de tonnes-kilomètres 2500 2000 1500 Canaux Rivières 1000 500 1847 1848 1849 1850 1851 1852 1853 1854 1855 1856 1857 1858 1859 1860 1861 1862 1863 1864 1865 1866 1867 1868 1869 1870 1871 0 Source : Ministère des Travaux publics. Direction des routes, de la navigation et des mines. Statistiques de la navigation intérieure, Nomenclature et conditions de navigabilité des fleuves, rivières et canaux. Relevé général du tonnage des marchandises. Année 1913, premier volume, Paris, Imprimerie Nationale, 1914, p.134. Peu à peu, l'idée se développa l'idée de considérer la voie d'eau comme un mode de transport condamné. Dès 1844, Philippe Dupin172, lors de la concession du Chemin de fer de l'Est, en tant que rapporteur, réclama l'abandon des travaux du canal de la Marne au Rhin et de se servir des matériaux pour la pose de voies ferrées 173 : « La batellerie fut délaissée, l'opinion se fit qu'elle était démodée, comme le roulage, condamnée à disparaître174». La commodité des solutions offertes par les chemins de fer en faisaient le transport typique de ce siècle marqué par les progrès industriels. Le doute s'immisça ainsi auprès des pouvoirs publics visiblement saisis par l'essor des investissements ferroviaires dans les années 1840. En 1845, l'ingénieur Deniel ne croyait plus en l'aptitude des canaux à affronter la concurrence, même en supprimant les péages. La menace apparaissait d'autant plus inquiétante que les voies ferrées semblaient insuffler une nouvelle dynamique. En s'appropriant une part du volume des marchandises convoyées par la route ou la navigation intérieure, ce nouveau mode de transport se trouvait susceptible d'ébranler la pérennité de leurs fonctions, et plus encore, leur rentabilité, s'ils se lançaient dans des réductions de 172 Moniteur universel, 28 juin 1844. Il faut remarquer que le même avait été un des promoteurs d'un canal maritime reliant Paris à la mer ! Cela prouve la variabilité des postures, non parfois teintées d'opportunisme. 174 François Maury, Le port de Paris, depuis un siècle, Suresnes, Imprimerie de Suresnes, 1903, p.59. 173 57 tarifs175. Le Moniteur industriel regrettait le désaveu de l'Administration à l'égard des canaux. Si les collectivités locales, les notables, les instances économiques soutenaient les projets d'aménagement fluvial 176 , les réalisations devenaient de plus en plus ponctuelles, l'établissement d'un système complet de navigation intérieure, censé couvrir le pays dans son entier perdait de son attrait. Le désintérêt du régime impérial à l'égard des voies navigables dans les années 1850 procéda en deux phases. Il faut tout d'abord noter que les travaux financés par le budget ont été menés avec parcimonie, l'Empire a ainsi moins dépensé que la Monarchie de Juillet en la matière. De facto, entre 1852 et 1859, les dépenses à destination des travaux publics s'étaient élevés à seulement 508 millions, contre 958 millions pour les sept derniers exercices du régime précédent 177 . En outre, les défenseurs d'une ligne « budgétaire » privilégiaient le recours au crédit par rapport à la hausse des impôts, et préféraient financer la construction des voies ferrées sur la base des obligations des compagnies. Il n'en demeurait pas moins que les efforts consentis pour les voies ferrées et l'urbanisme contrastaient avec les efforts médiocres en matière de voies navigables, de routes et même de ports. Dans le même temps, l'administration des Ponts et Chaussées ne semblait pas pour autant avoir négligé ces aménagements, mais se trouvait plutôt confrontée à une pénurie de crédits178. En effet, la navigation intérieure qui, bien que n'ayant pas bénéficié de crédits équivalents à ceux alloués aux voies ferrées, n'avaient pas été totalement oubliée. Le canal de la Marne au Rhin a ainsi été livré au commerce dans l'ensemble de son parcours en 1853179. En fait, le Second Empire se contenta d'achever des travaux retardés du fait des événements politiques et économiques de la fin des années 1840. Par ailleurs, le Conseil général des Ponts et Chaussées envisagea les modalités en vue d'un encadrement plus satisfaisant du flottage qui tendait à embarrasser la navigation180, d'aménager la Marne afin d'optimiser le potentiel du canal de la Marne au Rhin et remédier aux écueils de la navigation dans la traversée de Paris181. 175 Yves Leclercq, Le réseau impossible, op. cit., pp.102-105. Pour la Commission des voies et moyens de communication des Conseils généraux de l'Agriculture, des Manufactures et du Commerce en 1850, la voie d'eau gardait son utilité, et surtout, devait prévenir de tout risque d'hégémonie des compagnies de chemin de fer. Voir Yves Leclercq, Le réseau impossible. La résistance au système des grandes compagnies ferroviaires et la politique économique en France, 1820-1852, Paris, Droz, 1987, p.105. 177 Casimir Périer, « Les finances de l'Empire », in Revue des deux Mondes, Paris, Bureau de la Revue des DeuxMondes, 1er février 1861, p.664. 178 Louis Girard, La politique des travaux publicsop. cit., p.103. Charles de Franqueville, p. 530. 179 Moniteur Universel, 30 décembre 1853. 180 AN (site de Pierrefitte-sur-Seine), F14 10912, Conseil général des Ponts et Chaussées, 8 mars 1852, 123, p.403. On pourrait ajouter le canal latéral à la Garonne, mais il ne concerne que relativement peu notre sujet. 181 « Travaux de Paris » in Moniteur Universel, 9 septembre 1852. AN (site de Pierrefitte-sur-Seine), F14 (site de Pierrefitte-sur-Seine) 6820, rapport Michal 1853. 176 58 Tableau 1. Budgets définitifs alloués à la navigation intérieure au début des années 1850-1852. Rivières ordinaire Canaux extraordinaire ordinaire Total extraordinaire 1850 6 3,6 4,5 2,7 16,8 1851 5,5 2,5 4,2 2,9 15,1 1852 5,4 3,3 4,2 4,1 17 Source : Louis Girard, La politique des travaux publics du Second Empire, Paris, Librairie Armand Colin, 1952, p.104. À partir de 1853, les pouvoirs publics s'intéressèrent sensiblement moins à la batellerie. De fait, les affaires marquantes à l'ordre du jour au Conseil général des Ponts et Chaussées ou au Corps législatif se firent plus rares, hormis l'endiguement de la Seine maritime dont les travaux se poursuivent de manière active Encore que ces aménagements touchaient avant tout les ports maritimes de l'embouchure de la Seine, et préservaient de manière plus spécifique, le port de Rouen, du péril qu'une ligne directe du chemin de fer vers le port du Havre aurait pu représenter. De façon générale, le régime s'est détourné des travaux jugés peu rentables et pesant trop fortement sur le budget. L'évolution des allocations budgétaires confirmaient cette évolution : Graphique 4. Allocation budgétaires destinées aux travaux neufs des voies navigables dans la première moitié des années 1850. 59 Allocations en francs 10 000 000 8 000 000 6 000 000 Canaux 4 000 000 Rivières 2 000 000 0 1850 1853 1854 1855 Source : Louis Girard, La politique des travaux publics du Second Empire, Paris, Librairie Armand Colin, 1952, p.155. Les efforts consentis pour les chemins de fer n'étaient pas comparables concernant les canaux, dont le financement s'inscrivait dans le cadre du budget ordinaire, sans emprunt, sans recours au crédit 182 . Le manque d'une quinzaine de millions de francs contribua à n'entreprendre quasiment aucune construction nouvelle sur la Marne ou l'Yonne 183 .La commission du corps législatif se montrait favorable à un affermage général des canaux. Toutefois, ce procédé ne reçut pas l'approbation du Conseil des Ponts et Chaussées. En effet, les compagnies de chemins de fer menaient une stratégie d'affermage en vue de moduler à leur gré le rapport entre l'équipement ferroviaire et celui des voies d'eau modernisées. Dans une brochure de 1859, Bartholony formula un affermage global des canaux au profit des compagnies de chemins de fer, sous la surveillance d'une direction générale créée par le Corps législatif184. Sa proposition paraissait bénéficier d'appuis politiques185. Dans les faits, seul le canal du Midi a été concédé à une compagnie. Cependant, après l'inauguration de la ligne Bordeaux-Cette, la compagnie du canal du Midi lança une offensive tarifaire contre les chemins de fer. Elle perdit de nombreux frets, mais désarticula la correspondance avec la voie ferrée sur le canal latéral de la Garonne. L'achèvement de ce dernier avait été concédé à la compagnie Tarbé des Sablons, proche des Pereire Cette association rendait la concurrence fatale, pour ne pas dire déloyale. Les Pereire avaient obtenu la concession du chemin de fer de Bordeaux-Cette, ainsi que le droit de perception des péages du canal pour une durée de 99 ans. Finalement, par un traité en date du 20 mai 1858, approuvé par le décret du 21 juin de la 182 Pierre Miquel, Histoire des canaux, fleuves et rivières de France, Paris, Édition °1, 1994, p.181. AN (Site Pierrefitte-sur-Seine), C. 1 055 Budget 1859, PV Commission, p.347, M.U/, intervention de Schneider, réponse Franqueville. Girard, p.214. 184 François Bartholony, Simple Exposé de quelques idées financières et industrielles, Paris, Éditeur H. Plon, 1860, p.75. 185 Louis Girard, La politique des travaux publics op. cit., p.218. 183 60 même année, le canal du Midi fut affermé à la compagnie de chemins de fer, non pas pour 99 ans, mais pour les quarante années indispensables à l'amortissement d'un emprunt contracté par la compagnie du canal en vue de supporter la lutte. Autrement dit, les perspectives du canal étaient condamnées, puisque la totalité des tarifs du Midi ont été augmentés, tandis que ceux du canal latéral connurent une hausse d'un centime. Or, le trafic du canal reposait moins sur des marchandises pondéreuses, - fruits, vins, etc. -, ce qui rendit la hausse des tarifs d'autant plus manifeste. La mise en place de ce monopole, approuvée par les pouvoirs publics, provoqua le déclin inévitable de ce canal. Cette décision résultait de la conjonction entre la préservation des intérêts des actionnaires du canal, composés pour moitié de personnalités influentes186. Cet exemple montrait le danger des concessions de canaux, qui si elles se trouvaient confiées à des intérêts liés aux chemins de fer, risquaient tout bonnement de disparaître. Il illustrait également les difficultés pour les compagnies de canaux de faire jeu égal avec des intérêts « ferristes » qui bénéficiaient, outre leurs capacités financières, de puissants soutiens de la part des gouvernants. En effet, la compagnie concessionnaire du canal du Midi n'était pourtant pas si loin de battre la voie ferrée concurrente, si le canal latéral à la Garonne n'avait pas été concédé à des intérêts proches des Pereire. Pour autant, aurait-on laissé la ligne de chemin de fer décrépir comme ce fut le cas du canal ? Il est fort probable que non. Dans ces conditions, la survivance des voies navigables dépendaient du bon vouloir de l'État à jouer un rôle d'arbitre. Quoiqu'il en soit, l'affaire du canal du Midi correspondit au torpillage d'une politique de canaux qui s'était inscrite sur plusieurs siècles, et condamnait à terme l'activité fluviale dans le Sud-Ouest de la France. Dans le même temps, ce précédent persuada les défenseurs de la navigation intérieure que celle-ci était la seule à même à jouer le rôle de contrepoids contre le monopole des chemins de fer, mais aussi de la nécessité d'une reprise en main des canaux par l'État, à plus ou moins brève échéance, afin que celui-ci puisse jouer à plein son rôle d'arbitrage dans le combat opposant les deux modes de transports187. L'expérience britannique ne pouvait que les confirmer dans cette conviction. En effet, la concurrence des voies ferrées britannique avait quasiment paralysé les canaux. Ces derniers avaient été envisagés moins en tant qu'ouvrages d'intérêt public qu'en tant que placements avantageux de capitaux Les capitalistes se désintéressèrent très rapidement des voies 186 Alfred Picard, Les chemins de fer : aperçu historique, op. cit., pp.440-441. Comme on l'a vu, c'est ce qu'avait déjà préconisé Proudhon dans les années 1845 : Joseph Proudhon, De la concurrence , op. cit., 48p. 187 61 navigables au profit des chemins de fer. Plusieurs compagnies de canaux s'étaient même converties en compagnies de chemins de fer, d'autres vendirent leur canal à ces dernières Plus particulièrement, durant les années 1845-1847, les canaux passèrent progressivement entre les mains de leurs rivales188. Ainsi, l'important réseau de canaux de Birmingham passa dans le giron du London and North Western Railway. Bien évidemment, les compagnies de chemins de fer n'avaient guère intérêt à favoriser la circulation sur les canaux. De surcroît, si elles étaient propriétaires de canaux, elles ne disposaient pas pour autant du monopole des transports, ce qui laissait potentiellement la place à des rivaux. C'est la raison pour laquelle elles établirent des tarifs adaptés au profit de la voie ferrée. Lorsqu'une compagnie de chemin de fer était propriétaire en totalité d'un canal, à l'instar de la London and North Western qui possédait le Shropshire Union Canal et le Birmingham Canal, elle conditionnait le trafic de façon à ne pas nuire à la voie ferrée. Dans le cas où elle n'en possédait qu'une partie, comme la Great Western, possesseur des Thames and Severn Canal et Avon and Kennet Canal, elle obstruait le trafic sur les autres tronçons, ce qui se trouvait facilité par l'hétérogénéité du réseau britannique dans son ensemble. Dès lors, cela éclaire pourquoi dans la seconde moitié du XIXe siècle, les ferristes tendirent à promouvoir le modèle britannique, tandis que les canalistes se montrrent beaucoup plus frileux. En réalité, adopter un tel modèle signifiait la mort assurée des voies navigables Quoiqu'il en soit, si le péril pesant sur les voies navigables était bien réel dans les années 1850 sur les réseaux les plus vulnérables, qu'en était-il concernant la capitale ? 3. La crise de la batellerie et le « port de Paris ». La crise se répercuta dans la capitale, alors vaste centre de consommation, avant même les années 1850, période durant laquelle, on date en général cette crise. La ligne de chemin de fer Rouen-Paris entra en service en mai 1843. La compagnie concessionnaire appliqua un tarif unique sur le café, le fumier, les liqueurs, la houille, le riz, les pavés, les moellons La compagnie cherchait à atteindre la batellerie pour y parvenir. Cette dernière procura à Paris, en 1840, 400 000 tonnes de produits du Havre, de Rouen ou encore de l'Eure alors qu'elle n'en livra que 225 000 en 1845! Les deux tiers de son ancien trafic lui furent ravis en 1850 avec un total de chargement s'élevant à 148 000 t. Le rapport des forces en présence pencha rapidement en faveur des chemins de fer, le tonnage en direction de Paris ayant progressé de 188 Albert Demangeon, « La navigation intérieure en Grande-Bretagne », in Annales de Géographie, t. 21, n°115, 1912. pp. 40-49. 62 seulement 2% pour la batellerie, contre 50% pour la voie ferrée189. La prépotence de cette voie ferrée provoqua un tel désespoir dans le milieu des mariniers séquanien que certains d'entre eux s'en prirent à des installations ferroviaires en février 1848190. L'avènement des chemins de fer s'avéra fatal au transport de passagers. C'est ainsi que le service de bateauxposte sur le canal de l'Ourcq, établi en 1837, s'effondra aussitôt après l'ouverture de la ligne de Paris à Meaux le 5 juillet 1849191. Le chemin de fer avait appliqué une politique agressive en termes de tarifs que ne pouvait suivre ce service192. La Compagnie des Canaux dut céder ce transport au Chemin de fer de Paris à Strasbourg dès 1851193, le trafic cessant dès 1860. Les conséquences sur la navigation marchande à Paris ne se révélèrent pas homogènes, dans la mesure où les compagnies de chemins de fer ont été ouvertes à des dates décalées. Sur la Basse-Seine, les lignes de la Loire, l'Yonne éprouvèrent successivement un déclin de leur trafic. Le mouvement atteint 2,2 millions de tonnes en 1843 pour chuter à 1,9 millions en 1845. Le trafic gonfla légèrement en 1847 avec 2,1 millions de tonnes grâce à des arrivages de houille, de bois, de fer La révolution de 1848 et les troubles qui s'ensuivirent, affectèrent gravement le trafic, à savoir 14 648 bateaux, 1 685 trains convoyant un trafic total de 1,4 millions de tonnes 194 ! Cependant, cette régression, somme toute conjoncturelle, qui pouvait paraître compréhensible, dissimulait une évolution de fond de fragilisation déclinante de la batellerie traditionnelle. Graphique 5. Tonnages effectifs par provenance des arrivages sur les ports parisiens 1843-1853. 189 Louis Girard, La politique des travaux publics du Second Empire, Paris, Librairie Armand Colin, p.156. Isabelle Backouche, La trace du fleuve, La Seine et Paris, Paris, Éditions de l'École des Hautes Études en Sciences Sociales, 2000, p.359. 191 Marc Gayda, Les canaux parisiens, Valignat, Éditions de l'Ormet, 1995, p.42. 192 1,25 franc en 1ère classe. En outre, le trajet était sensiblement plus long, à savoir 5h30 et les fréquences limitées, soit un par jour dans les deux sens. 193 Devenue Compagnie des chemins de fer de l'Est en 1854. 194 Ernest Grangez, Précis historique et statistique des voies navigables et d'une partie de la Belgique, Paris, N. Chaix, 1855, p.775. 190 63 Arrivages en tonnes 2 500 000 2 000 000 Ourcq 1 500 000 Oise Basse Seine 1 000 000 500 000 Marne Yonne Haute Seine 0 Source : Ernest Grangez, Précis historique et statistique des voies navigables et d'une partie de la Belgique, Paris, N. Chaix, 1855, p.775. B. Survivance de la batellerie. 1. Une solidité inattendue. Si l'on peut établir une évaluation à travers le prisme de la politique économique adoptée, l'analyse devient plus complexe pour chaque régime sur le plan local. En effet, l'activité portuaire parisienne ne semblait pas s'être conformée tout à fait à l'évolution nationale. Elle ressentit de manière très prématurée la crise, mais s'est rétablie tout aussi précocement. Cela induit des difficultés à mesurer avec précision l'ampleur de cette « crise ». Divers facteurs atténuèrent les séquelles de la concurrence des chemins de fer. En premier lieu, il convient de rappeler que les voies ferrées n'étaient pas encore totalement opérationnelles, car elles demeuraient en cours de construction jusqu'aux années 1854-1855, et ce ne fut qu'à partir de 1856 que les effets de cette nouvelle concurrence commencèrent à se faire sentir. Par ailleurs, les voies navigables avaient été notablement touchées par la dépression de 1848, et bénéficièrent dans le même temps de la reprise des années 1852 et 1853. De façon paradoxale, les travaux d'aménagement ferroviaire fournirent des débouchés à la batellerie. Sur l'Yonne, on observa ainsi une hausse, bien que relative, du tonnage à la descente dans les années 1846-1848. Une partie significative se composait de matériaux destinés à l'établissement du chemin de fer de Lyon. Des matériaux parvenus par les canaux de Bourgogne et du Nivernais ont été employés sur une longueur de 75 km de voies ferrées longeant l'Yonne entre Laroche et Montereau, à savoir 73 354 tonnes transportées entre 1846 64 et 1848, consistant en des rails de coussinets, moellons, pierres de taille195 Par ailleurs, des locomotives descendirent ainsi la Saône par voie fluviale196. L'essor du bâtiment à la faveur des travaux haussmanniens constitua de la même façon de nouveaux débouchés qui compensèrent les frets cédés au profit du chemin de fer197. Il s'agissait donc là d'une forme de « destruction créatrice » : ce que les chemins de fer détruisaient, ils le « recréaient », en quelque sorte, même involontairement, à la faveur des nouveaux besoins économiques qu'ils suscitaient198. Malgré une volonté évidente des chemins de fer de porter un coup fatal à la navigation intérieure, celle-ci résista tant bien que mal : « On comprit que ce n'était point la navigation, mais les procédés qui étaient décrépis 199 ». Alors que la traction par eau pouvait réduire aisément son tarif pour la tonne-kilomètre à 0,02952 franc, la voie ferrée ne l'abaissait qu'à 0,09 franc200. La batellerie conservait le principe du bon marché et demeurait qualifiée pour ce qui relevait du transport des marchandises pondéreuses. Le bateau offrait l'avantage de se placer à la disposition du marchand durant une semaine ou deux, ce que l'on nommait « les jours de planche », qui permettaient au commerçant de vendre le chargement pour le faire porter directement chez l'acheteur 201 . Si les chemins de fer disposaient des capacités de transporter des matières pondéreuses, la place manquait dans les gares de marchandises parisiennes202. Or, la voie d'eau évitait le recours à des camionnages et des dépôts au chantier d'autant plus onéreux compte tenu du poids des pondéreux. La lenteur ne représentait pas un inconvénient insurmontable pour les marchandises lourdes, si la navigation réglait les problèmes de régularité des livraisons. Elle se révélait bien adaptée au transport des matériaux de construction et des charbons vendus à terme. L'exploitation des chemins de fer connaissaient des limites, du fait des exigences du transport des voyageurs. Les encombrements induits provoquaient des ajournements dommageables dans la remise des colis qui ne pouvaient que mécontenter le négoce. De plus, si la création des chemins de fer s'était trouvée à l'origine d'un abaissement des frets, la présence même de la batellerie dissuadait les compagnies d'établir des tarifs excessifs. 195 Vignon, « Navigation de la rivière d'Yonne ; études statistiques », in Annales des Ponts et Chaussées. Mémoires et documents relatifs à l'art des constructions et au service de l'ingénieur ; lois, ordonnances et autres actes concernant l'administration des Ponts et Chaussées, Paris, Carillan-Gueury et Ver Dalmont, 3e série, 1er semestre, n°9, 1851, pp. 341-342. 196 Louis Girard , La politique des travaux publics du Second Empireop. cit., p.156. 197 AN (site de Pierrefitte-sur-Seine) F14 6811, Rapport Chanoine, 1er mars 1860. 198 Joseph Schumpeter, Capitalisme p.122. 199 François Maury, Le port de Paris, depuis un siècle, Suresnes, Imprimerie de Suresnes, 1903, p.131. 200 François Maury, ibid, p.131. 201 AN (site de Pierrefitte-sur-Seine) F14 6811, Rapport Chanoine, 1er mars 1860. 202 Louis Girard, La politique des travaux, op. cit., p.156. 65 Si les défenseurs de la navigation, tels que Pillet-Will203, reconnaissaient la médiocre rentabilité des canaux, ils n'en mettaient pas moins en avant la nécessité de les étendre. Parmi les facteurs expliquant la résistance du transport fluvial à Paris 204 , figuraient les besoins grandissants en combustibles minéraux. Ainsi, la batellerie conserva, voire accrut, pendant la crise, son trafic de houille. Elle en fournit à la capitale 395392 t en 1847, 567 682 en 1850, et 671 545 en 1855, se contentant d'une rémunération de 3 à 5 centimes par tonne et par kilomètre contre 7 à 10 centimes pour les chemins de fer205. De son côté, l'exploitation des voies ferrées modérait la hausse de 30 à 50% sur les charbons apportés l'hiver. La batellerie ne laissa échapper le moins possible les marchandises encombrantes sur les voies satisfaisantes. Le canal de l'Ourcq qui charriait des bois et des pierres, offrait de réelles facilités à la navigation qui put renforcer son tonnage durant la crise. En effet, elle conduisit à la Villette une masse de près de 75 000 t, en 1840, pour la porter à 171 000, en 1845, et 334 000 en 1856, soit le triple ! La navigation intérieure semblait donc capable de répondre aux besoins de la grande industrie, mais il s'avérait indispensable de la rénover. Les navires convoyant ces masses de marchandises se déclinaient en trois types. Les plus grands que l'on nommait « besognes », transportaient de 600 à 700 tonnes de marchandises avec un tirant d'eau de 1,80 à 2 m. Pourtant, ils présentaient l'inconvénient de ne naviguer qu'en période de hautes eaux 206 . Ils n'effectuaient de ce fait qu'un ou deux voyages annuellement, leur remonte exigeant de quinze à vingt jours Il existait néanmoins des bateaux qui voyageaient en « accéléré », navigant de jour et de nuit et qui ne parvenaient à parcourir la distance entre Rouen et le port Saint-Nicolas à Paris, qu'entre 85 et 90 heures Il s'agissait d'un véritable exploit pour l'époque, et cela montre que la vitesse ne constituait pas un critère absolu, les chemins de fer ne pouvant guère faire mieux alors. Cependant, ce type de bateaux n'existait qu'en nombre extrêmement limité. Le troisième type naviguait aussi en accéléré et convoyait essentiellement des huîtres. On peut encore signaler l'introduction des porteurs à vapeur, établis dès 1822 et dont le chargement maximum s'élevait de 130 à 280 tonnes. Les conditions de navigation expliquaient le coût onéreux du transport, de 16 à 20 francs la tonne pour les marchandises ordinaires, et pouvait monter à 30 francs pour d'autres. 203 Michel Frédéric, Cte Pillet-Will, De la dépense et du produit , 453p. Jeanne Gaillard, Paris, la ville (1852-1870), Paris, L'Harmattan, 1997, pp.362-363. 205 François Maury, op. cit., p.133. 206 Stéphane Flachat, Du canal maritime de Rouen à Paris, et des perfectionnements de la navigation intérieure par rapport à Marseille, Bordeaux, Nantes, Le Havre, Metz et Strasbourg, Paris, F. Didot, 1829, LVIII, 470p. 204 66 La métamorphose de la batellerie s'était accomplie de façon presque spontanée. En un sens, elle avait précédé sa conceptualisation par les ingénieurs et les économistes de l'époque. Ce processus correspondait aux nécessités du démarrage industriel : expansion de l'agriculture, des industries extractives et des infrastructures de transports, etc. 207 La navigation intérieure devait permettre l'articulation entre ces trois facteurs clef de cette phase initiale de l'industrialisation, bien qu'il faille se garder de tout schématisme, car il ne suffit pas de creuser un canal, d'ouvrir une mine ou une ligne de chemin de fer pour entrer dans l'ère industriel Le processus ne s'inscrit pas dans une linéarité temporelle inexorable, au contraire, il peut varier d'un pays ou d'une région à l'autre. Au final, le mouvement s'est révélé plutôt chaotique pour la navigation, dans le sens où sa résistance surprit plus d'un observateur. Dans une large mesure, elle bénéficia d'un répit dans les secteurs que n'occupaient pas encore les voies ferrées sur le marché si concurrentiel des transports. Plus encore, elle assura des transports que ces dernières n'aurait peut-être jamais assurés. L'ère industrielle exigeait de produire de l'énergie en d'énormes quantités et à des prix accessibles. Le charbon répondait à ces exigences. Le bassin houiller du Pas-de-Calais s'est trouvé valorisé dès lors que les bouleversements structurels de l'industrie suscitèrent le développement d'une production charbonnière rentable208. Le nouveau contexte énergivore e incita l'instauration de conditions adéquates à une production de masse de matières premières afin de répondre aux nouveaux besoins suscités par l'industrie. La navigation intérieure trouvait enfin des débouchés et les éléments indispensables à sa propre modernisation. Il existe d'ailleurs une correspondance frappante entre la crise et le renouveau des voies navigables avec l'évolution des houillères. Un constat à peu près similaire pourrait être formulé à propos des voies navigables allemandes et la production de charbon de ce pays209. En effet, le démarrage et exploitation des bassins houillers de Lorraine et de la Ruhr se situent également au milieu du siècle, la production houillère passant de 1,6 millions de tonnes en 1850 à 11,8 millions en 1870 dans le bassin allemand210. Le développement de ces bassins stimulèrent plus globalement l'essor économique, et par voie de conséquence, la batellerie. En 207 W.W. Rostow, Les étapes de la croissance économique, Éditions du Seuil, 1963, pp.33-60. Marcel Gillet, Les charbonnages du Nord de la France au XIXè siècle, Paris-La Haye, Mouton, 1973, pp.4243. 209 Andreas Kunz, « La modernisation d'un transport encore préindustriel pendant l'ère industrielle : le cas des voies navigables de l'Allemagne Impériale de 1871 à 1918 », in Histoire, économie et société, 1992, 11e année, n°1, Les transports terrestres en Europe continentale (XIX e-XXe siècle), pp.19-32. 210 M. Baumont, La Grosse industrie allemande et le charbon, thèse Lettres, Paris, Doin, 1928, pp.49-50. 208 67 France, la production de charbon est passée de 3 millions de tonnes en 1840 à 4,4 millions en 1850, puis de 8,3 millions en 1860 à 13,3 millions en 1870211. Si le rôle des chemins de fer ne saurait, bien entendu, être nié, il n'en demeure pas moins que l'accroissement de la production charbonnière française ouvrait des débouchés inespérés pour la batellerie. Plus encore, la supposée faible rentabilité des canaux signifiait sans doute que la production industrielle était demeurée à un stade qui, sur le plan quantitatif, ne permettait pas de rendre optimale leur utilité 212 . L'historiographie a trop tendance à assimiler la révolution industrielle aux seules voies de chemins de fer, alors que la navigation intérieure en constitua une des composantes organiques. Quoiqu'il en soit, ce redressement n'a pas été possible, ou tout au moins, s'est trouvé facilité, par un ensemble de nouveaux procédés techniques visant à renforcer les capacités des voies navigables, et par voie de conséquence, à participer à une réduction massive et durable du coût des matières premières. Si l'on adopte le principe des « grappes d'innovations », défendue par la pensée schumpétérienne213, les voies navigables devraient y figurer aux côtés des chemins de fer, de la vapeur et de la sidérurgie Tout au moins, ce raisonnement semble valoir pour l'ensemble de l'Europe du Nord : Allemagne, Belgique, et France du Nord bien entendu En ce sens, le mérite de la new economy history aura consisté à remettre en perspective le rôle des chemins de fer dans la Révolution industrielle214, ou plus précisément le recadrer. En Grande-Bretagne, la révolution industrielle s'est manifestée de manière très précoce, les voies navigables ont pu finalement remplir une fonction qui n'était guère éloignée de celle que les chemins de fer ont pu accomplir pour le continent. Le cas des Pays-Bas semble encore plus frappant, le rôle des voies ferrées ne parut pas avoir été aussi décisif215. Il existe donc bel et bien des exemples où la révolution industrielle n'est pas obligatoirement passée par la construction des chemins de fer, au moins dans sa phase initiale de démarrage. La mobilisation des épargnants en vue de financer les voies ferrées s'est révélée massive, ce à quoi n'étaient pas parvenus les politiques de canaux menées sous la Monarchie de Juillet, car la rentabilité des ouvrages s'était révélée 211 Marcel Gillet, Les charbonnages op. cit., p.83. Pour une analyse financière, voir : Gwenaël Nieradzik, « La construction du réseau de canaux français et son financement boursier (1821-1868) in Georges Gallais-Hamonni (éd.), Le marché financier français au XIXe siècle, vol.2 : aspects quantitatifs des acteurs et des instruments à la Bourse de Paris, Paris, Publications de la Sorbonne, 2007, pp.459-506. 213 Joseph-Aloïs Schumpeter, Business Cycles: A Theoretical, Historical and Statistical Analysis of the Capitalist Process. New York Toronto London: McGraw-Hill Book Company, Abridged, with an introduction, by Rendigs Fels, 1939, 461p. 214 Robert William Fogel, Railroads and American Economic Growth. Essays in Economic History, Baltimore, Maryland, The Johns Hopkins Press, 1964, 296 p. 215 Herman J. de Jong, « Les transports intérieurs aux Pays-Bas avant et pendant la formation du réseau ferroviaire (1800-1880), in Histoire, économie et société, 1992, 11e année, « Les transports terrestres en Europe Continentale (XIXe-XXe siècles) », pp.61-79. 212 68 trop aléatoire. Les voies ferrées semblaient montrer une puissance spéculative bien plus évidente, car les aménagements fluviaux ne peuvent s'inscrire que sur le long terme, et ne se prêtent, dans ces conditions, qu'assez mal à la spéculation financière. Le véritable défaut des canaux construits en France au cours de cette période résidait sans doute dans leur faible gabarit, ce qui gênait même le passage des péniches dans les deux sens. L'exemple britannique montrait ses limites dans son application en France. De plus, on distinguait deux types de canaux en France : les canaux latéraux et les canaux de jonction. Ces derniers étaient destinés à joindre deux bassins hydrographiques et économiques. De ce fait, ils traversaient des zones souvent moins industrieuses, puisque précisément, leur fonction consistait à joindre les bassins industriels entre eux, et ne supposaient pas forcément l'installation d'industries sur leurs rives, ce qui aurait pu renforcer leur rentabilité. Cependant, rentabilité et utilité ne vont pas forcément de pair. En effet, les routes étaient-elles vraiment rentables ? Pour autant, fallait-il interrompre l'entretien et la construction de routes sous prétexte qu'elles ne rapportaient pas suffisamment, voire pesaient lourdement sur les finances publiques ? Il faut d'ailleurs remarquer que si la phase initiale d'édification des voies ferrées s'est révélée rentable, et si celles-ci ont apporté une impulsion aux grands établissements sidérurgiques, qui paraissaient avoir végété dans les années 1830, à la faveur de la naissance d'une industrie de la locomotive216, leur exploitation ultérieure l'était beaucoup moins. 2. Une profonde mutation technique de la navigation intérieure. a) La révolution du barrage mobile. La cause essentielle des difficultés de la navigation résidait dans l'impuissance des ingénieurs à maîtriser complètement les rivières. S'ils semblaient briller dans le creusement des canaux, ils ne parvenaient guère à résoudre les problèmes de filtration et d'évaporation. Les canaux de l'Ourcq, de Saint-Martin, de Saint-Quentin et de Bourgogne connaissaient ainsi de manière récurrente des carences en termes d'alimentation en eau. D'autres problèmes survenaient pour les canaux plus anciens, à l'instar du canal du Loing, de Briare et du Centre dont les écluses se révélaient trop étriquées, tandis que la navigation sur le canal du Nivernais devait cohabiter avec le flottage217 La mutation du réseau des voies navigables devait donc passer par une meilleure maîtrise des cours d'eau. Les ingénieurs trouvèrent enfin un moyen 216 Patrick Verley, La Révolution industrielle, Paris, Gallimard, Folio histoire, 1997, pp.200-206. François Aulagnier, Études pratiques sur la navigation du Centre, de l'Est et du Nord de la France et des principales voies navigables de la Belgique, Paris, Carilia-Guoeury et Vve Dalmont, Libraires, 1841, p.8. 217 69 de réguler correctement les rivières : le barrage mobile. On doit essentiellement cette invention à l'ingénieur ordinaire de l'Yonne, Charles Antoine Poirée 218. Dès 1820, il conçut l'idée d'établir en travers de la rivière des hangars offrant la particularité d'être entièrement mobiles. Il adjoignit ultérieurement une écluse à ce dispositif, inventant ainsi le barrage mobile éclusé. Il effectua lui-même de 1837 à 1843 les réalisations initiales sur la Seine. Le barrage mobile éclusé autorisait la canalisation des rivières de plaine qui s'avérait impossible avec des barrages de maçonnerie fixes. Le principe résidait dans le fait de monter le niveau de l'eau, la maintenir à un niveau constant quel que fût le débit de la rivière, d'où une navigation constante219. Cela représentait un progrès décisif dans l'aménagement des rivières 220, même s'il s'agissait en réalité de la combinaison de deux techniques plus anciennes221, à savoir la canalisation par barrage fixes et la navigation par lâchures ou « navigation par éclusée », consistant en des barrages à pertuis et à portes marinières. Jusque-là, le savoir des ingénieurs excellait à la construction de canaux et à celle de barrage. De par leur caractère même, les possibilités qu'offraient les barrages fixes à la navigation apparaissaient des plus limitées, voire impossible sur les cours d'eau de plaine et à rives basses La maîtrise de la construction des canaux et des écluses ouvraient la possibilité de suivre le modèle anglais de canaux de dimensions réduites en nombre important. Pourtant, telle ne fut finalement pas la voie suivie, dans la mesure où elle limitait les gabarits des bateaux. Cette solution fit les beaux jours de la navigation fluviale aux débuts de la révolution industrielle anglaise qui avait elle-même précédé celle de la France. Or, pour concurrencer la voie ferrée, la batellerie française se devait d'emporter davantage de marchandises. En tant qu'ingénieur de la HauteSeine, l'ingénieur Poirée connaissait bien la technologie des pertuis et il l'adapta pour réguler 218 Jacques Henri Chanoine, « Barrages automobiles ; fusion des systèmes Poirée et Thénard ; mémoire », in Annales des Ponts et Chaussées. Mémoires et documents relatifs à l'art des constructions et au service de l'ingénieur ; lois, ordonnances et autres actes concernant l'administration des Ponts et Chaussées, Paris, Carillan-Gueury et Vve Dalmont, 3e série, 2èmesemestre, n°5, 1851, pp. 133-166 ; Jacques Henri Chanoine, Notice sur les barrages mobiles et automobiles, Paris, V. Dalmont, 1855, 24p. 219 Les retenues étaient formées par des pièces métalliques que Poirée avait baptisées « fermettes » par analogie aux fermes soutenant les toitures. Lesdites pièces pouvaient tourner autour d'un axe horizontal. C'était contre ces fermettes que venaient s'appuyer en amont les aiguilles, c'est-à-dire des pièces en bois avant de coucher les fermettes sur le radier, en retirant les barres de réunion et la passerelle. Pour le relever, il fallait, dans un premier temps, redresser les fermettes en les reliant l'une à l'autre avant d'installer la passerelle et placer les aiguilles. L'abattage du barrage se révéla une opération très longue et délicate, voire dangereuse, les accidents mortels pouvant intervenir au moment d'une crue subite de la rivière. L'autre inconvénient de ce système résidait dans l'étanchéité insuffisante, les agents du service de la navigation ayant recours à du foin, des escarbilles pour colmater les interstices entre les aiguilles! Cela dit, on ne pouvait guère contester l'importance de ce procédé, car ce type d'écluse permettait une navigation continue de la rivière. 220 François Beaudouin, Paris et la batellerie du XVIIIe siècle au XXe siècle, Musée de la batellerie de ConflansSainte-Honorine, éditions Maritimes et d'Outre-Mer, 1979, p.22. 221 François Beaudoin, « La canalisation de la Seine par barrages mobiles éclusés au XIXe siècle », in les Cahiers du Musée de la Batellerie, Bulletin de l'Association des Amis du Musée de la Batellerie, ConflansSainte-Honorine, n°2, 2ème édition, décembre 1988, p.10. 70 les cours d'eau avec des moyens relativement modestes. En un sens, il s'agissait davantage d'un recyclage de techniques déjà éprouvées sur l'Yonne et les canaux du Bourbonnais. L'originalité du « nouveau procédé » résida plus dans sa capacité à rendre opératoire leur combinaison. L'Yonne a servi de champ d'expérimentation du barrage mobile222. Avant d'arrêter un système de travaux pour améliorer la navigation si précaire de cette rivière, l'Administration souhaita entreprendre l'essai d'un barrage mobile en aval de l'embouchure du canal de Bourgogne. La loi du 19 juillet 1837 ouvrit un crédit de 1 050 000 de francs qui fut consacré à la construction de ce barrage situé près d'Épineau, ainsi qu'à améliorer les parties les plus vétustes du chemin de halage et des rives de l'Yonne, et entre autres, aussi la construction de ports à Joigny, Sens et Pont-sur-l'Yonne. Ces différents travaux furent achevés en 1839. Un nouveau crédit fut accordé par la loi du 8 juillet 1840, se montant à 1,2 millions de francs, pour l'établissement de quatre autres barrages à Pêchoir, Joigny, Villeneuve-le-Roi et SaintMartin, à proximité de Sens ainsi que pour l'amélioration des berges et du chemin de halage. Ces quatre barrages ont été édifiés en 1841 et 1842, ils démontrèrent la pertinence du barrage mobile, car les conditions de navigation avaient été notoirement améliorées, d'Épineau jusqu'à Pont-sur-Yonne, la rivière offrait un tirant d'eau de 0,90 m à comparer aux 0,60 et 0,70 m antérieurs de haut-fond des éclusées223 Une allocation de 6,5 millions de francs fut affectée à la poursuite des travaux de perfectionnement de l'Yonne par la loi rendue le 31 mai 1846 sur les propositions de l'année précédente 224 . Les ouvrages prévus par cette loi comportaient cinq écluses de grandes dimensions accolées aux barrages déjà établis, six nouveaux barrages dotés d'écluses à Auxerre, Monéteau, Bassou, Champfleury, Port-Renard et Cannes, un grand réservoir à établir sur la Cure, aux Settons pour l'alimentation de la rivière, quatre barrages sur la haute Yonne, la défense des rives, fixation et approfondissement du chenal navigable, l'agrandissement de divers ports, l'élargissement des arches marinières de Villeneuve et de Montereau et quelques autres ouvrages accessoires. Après une expérience concluante sur l'Yonne, on décida de procéder à un premier essai en Seine. On aménagea un barrage avec écluses, en dérivation entre 1838 et 1840 au passage de la Marne. 222 Jacques Henri Chanoine, « Barrage automobiles : fusion des systèmes de MM. Poirée et Thénard », in Annales des Ponts et Chaussées, 2ème semestre, 1851, pp.133-140. 223 François Aulagnier, Études pratiques sur la navigation du Centre, de l'Est et du Nord de la France et des principales voies navigables de la Belgique, Paris, Carilia-Guoeury et Vos Dalmont, Libraires, 1841, p.2. 224 Loi relative à la navigation intérieure, 31 mai 1846, Bulletin des Lois du Royaume de France, IXe série, juillet 1846, vol.32. 71 Figure 3 Système Poirée : 1 = aiguille, 2 = appui, 3 = passerelle, 4 = fermette, 5 = pivot, 6 = heurtoir, 7 = radier. (Source : Wikipédia) b) Une solution originale aux insuffisances de la navigation intérieure : le touage. On ne porta pas les améliorations exclusivement sur le réseau, mais elles concernèrent aussi les modes de tractions. Parmi elles, figurent le toueur. Il s'agit d'un bateau symétrique doté d'un gouvernail à chacune de ses extrémités, ce qui lui permettait de naviguer dans les deux sens. Ce bateau était équipé d'une machine à vapeur actionnant un treuil sur lequel s'enroulait une chaîne posée au fond de la rivière sur toute la longueur de la section à parcourir, comme par exemple les 70 km séparant Conflans-Sainte-Honorine de Paris. Une poulie portée par un bras articulé faisait monter la chaîne à bord du toueur, s'enroulant plusieurs fois autour du treuil et redescendant dans l'eau à l'arrière. Le treuil mis en marche, le toueur avançait le long de la chaîne entraînant derrière lui les bateaux remorqués. Ce procédé formait une alternative intéressante par rapport au halage animal, présentant l'avantage sur ce dernier d'être axial et non pas oblique et d'autoriser une concentration de puissance supérieure225. Le touage à vapeur et à chaîne continue a été mis au point vers 1820 par l'ingénieur Tourasse 226 et ne devait connaître que des modifications secondaires par la suite 227 . La 225 François Beaudouin, Paris et la batellerie du XVIIIe siècle au XXe siècle, Musée de la batellerie de ConflansSainte-Honorine, éditions Maritimes et d'Outre-Mer, 1979, p.23. 226 Tourasse (ingénieur-mécanicien), François-Noël Mellet, Essai sur les bateaux à vapeur appliqués à la navigation intérieure et maritime de l'Europe, sur les bateaux aqua-moteurs et particulièrement sur le touage par la vapeur, ou remorque à points fixes, accompagné de considérations sur les transports par terre et par eau et sur les chemins de fer, Paris : Malher et Compagnie, 1828, 236p. 227 AN C3283 : note de Jean-Baptiste Krantz, en date du 1er mai 1871. 72 première ligne de touage à vapeur à chaîne continue fonctionna à Paris à partir de 1845 228, entre le pont de la Tournelle, à la sortie amont du petit bras de la Seine et à Port-à-l'Anglais, en amont de la confluence de la Marne avec la Seine. La concession de ce système de remorquage avait été accordée au sieur Delagneau et Cie de par une ordonnance en date du 18 mars 1845, elle était d'une durée de cinq ans à partir du jour de la suppression effective du halage sur berge. La première ligne à longue distance a été établie de Conflans-SainteHonorine à la Briche à l'écluse de la Monnaie, à la suite de la construction du barrage de Suresnes229. L'efficacité s'avéra totale, ce qui conduisit les pouvoirs publics à prescrire par la loi du 31 mai 1846, le réglage du fleuve. Malgré tout, le touage ne s'imposa que vers 1850230. C'est ainsi que le toueur « Austerlitz » assura de façon permanente le remorquage des convois entre le pont de la Tournelle et Charenton. Le gouvernement impérial donna son accord pour de nombreuses concessions qui furent autorisées surtout en faveur de la Basse-Seine. Les concessions des 6 avril 1854, 13 août 1856 et du 16 août 1857 concernaient les sections des écluses Monnaie-Conflans-Sainte-Honorine (72km), de la Monnaie-Montereau (104km), Conflans-Sainte-Honorine-Rouen-Trait Le touage contribua à une restructuration de la navigation fluviale sur la Seine, avec l'émergence de société susceptible d'assurer un transport de masse. Trois compagnies furent constituées afin d'assurer ces services : la Compagnie de la Basse-Seine et de l'Oise, la Compagnie de touage de la Haute-Seine. Les canaux virent aussi apparaître le touage sur les sections où les conditions d'exploitation s'avéraient délicates (souterrains et sections étroites). Le touage connut ainsi un vif succès, il absorba, par exemple, 90% de la section alors que la ligne entre Conflans Sainte-Honorine et Paris venait à peine d'être créée 231 ! L'avantage du touage résidait dans son efficacité motrice par rapport aux conditions de navigation de la fin du Second Empire, soit 75-80% contre 60% pour la roue à aube et 50% 228 Michèle Merger, « La Seine dans la traversée de Paris et ses canaux annexes : une activité portuaire à l'image d'une capitale (1800-1939) », dans Paris et ses réseaux : naissance d'un mode de vie urbain, XIX e-XXe siècle, pp.349-386, sous la direction de François Caron, Jean Derens, Luc Passion et Philippe Cebron de Lisle, Paris, Direction des affaires culturelles et Université de Paris-IV Sorbonne Centre de recherche en histoire de l'innovation, Bibliothèque Historique de la Ville de Paris, 1990, pp.360-363. 229 Jacques Cambuzat, « Substitution d'une navigation continue à l'aide de barrage mobile à la navigation intermittente produite par les éclusées de l'Yonne sur la Seine et sur l'Yonne entre Paris et Auxerre », in Annales des Ponts-et-Chaussées, 1873, pp.177-242. 230 AN C3283 : note de Jean-Baptiste Krantz datée du 1er mai 1871. 231 Molinos, A. de Bovet, « Le touage sur la Seine », rapport présenté au 5ème congrès international de navigation intérieure », Paris, 1892, pp.1-2. 73 pour l'hélice 232 233 M. Eugène Godeaux a obtenu, le 4 avril 1854, une concession lui autorisant d'établir un touage sur chaîne noyée sur 69 km entre l'écluse de la Monnaie à Paris et Conflans Sainte-Honorine en Seine234, avec un prolongement sur l'Oise jusqu'à Pontoise (14 km)235. Le cahier des charges spécifiait qu'il ne s'agissait pas d'un monopole. Le tarif s'élevait à 1 centime la tonne par kilomètre, ce qui en pratique signifiait qu'une péniche chargée de 200 tonnes de houille partie de la Briche (à l'embouchure du canal Saint-Denis avec la Seine) et acheminée par un toueur à l'écluse de la Monnaie, au niveau du Pont-Neuf, c'est-à-dire un trajet de 29km, devait payer 58 francs pour le remorquage, 12 francs pour le pilotage et 5 francs pour la location des cordages, ce qui faisait un total de 75 francs 236 . L'industriel avait formulé auparavant une requête encore plus ambitieuse, consistant à noyer une chaîne entre Paris et Rouen, et entre Conflans et Janville Cependant, le projet inquiéta l'Administration qui limita sur le plan administratif l'espace de cette technique nouvelle. En effet, le risque était que les toueurs, en tant qu'entrepreneurs, ne favorisent leurs propres bateaux, ce qui ne correspondait pas aux principes des Ponts et Chaussées selon laquelle les voies navigables devaient servir à l'État et aux usagers de contrepoids contre un éventuel monopole des voies ferrées237. Le but n'était donc pas de substituer un monopole par un autre. Le Conseil général des Ponts et Chaussées proclamait, lors de la séance du 12 juillet 1855 : « mais c'est par les réductions de tarifs qu'elle impose au voies de fer que la batellerie est appelée à rendre de grands services au commerce et à l'industrie ; qu'en fait, par l'amélioration de son matériel et par les perfectionnement qu'il reçoit tous les jours, l'industrie des transports par eau est entrée dans une voie de progrès, or il convient de l'encourager et de la soutenir comme le seul modérateur utile de la puissance des chemins de fer238 ». Le 17 juillet 1855, la Compagnie du touage de la Basse-Seine et de l'Oise vit le jour. La chaîne fut accrochée, dans les mois qui suivirent, à l'une des piles du pont routier de Conflans. Le service se cantonna dans un premier temps à trois toueurs circulant entre 232 Jean-Baptiste Krantz, Note sur l'amélioration de l'amélioration de la navigation de la Seine entre Paris et Rouen, Saint-Germain-en-Laye, 1er mai 1871, p.18. 233 Bernard Le Sueur, Conflans Sainte-Honorine. Histoire fluviale de la capitale de la batellerie, Paris, L'Harmattan, 1994, p.276. 234 Jean Millard, Paris, histoire d'un port, du port de Paris, au Port autonome de Paris, Paris, L'Harmattan, 1994, p33. 235 « Le service de traction entre Conflans et Paris » in Le Journal des transports, 25 octobre 1884. 236 Maxime Ducamp, « La Seine à Paris, les Industries fluviales et la Police du fleuve », in Revue des Deux Mondes, 2e période, tome 72, 1867, p.180. 237 Louis Girard, La politique des travaux publics du Second Empire, op. cit., p.155. 238 AN (site de Pierrefitte-sur-Seine), F14 10912 130 Lagrené, Cours de navigation intérieure, II, 126, AN (site de Pierrefitte-sur-Seine) F14 10 912 130, p. 249. 74 Conflans et la Briche 239 . Peu à peu, les résultats de cette compagnie se sont révélés tout spectaculaires, en s'accaparant de 85 à 95% du total du trafic de la Seine sur cette section. Pour la seule année 1868, ses navires ont remorqué 10387 bateaux transportant le volume colossal de 1,6 millions de tonnes entre Conflans et la Briche, le tonnage d'un train moyen s'élevant entre 1 200 et 1 500 t, voire 2 000 t 240 . Entre Paris et Conflans, ces bateaux naviguaient à une vitesse moyenne de 3 km/h à la remonte et 8 km/h à la descente, mais ils pouvaient avancer à une vitesse supérieure entre Conflans et Rouen. En amont de Paris, a été créée la Compagnie de la haute Seine, destinée alors à un service de moindre importance qu'en basse Seine. En effet, le trafic s'accomplissait avant tout à la remonte, le tonnage des trains s'avérait plus réduit, ainsi que l'effort de traction 241. Moins ambitieuse que son homologue en aval de Paris, cette société semblait plutôt viser une économie de capital que celle de la consommation de combustible proprement dite. Les craintes de l'Administration d'un potentiel monopole de ces sociétés de touage n'étaient donc pas infondées, mais elles avaient préfiguré la possibilité une véritable industrialisation de la navigation fluviale. Les bateaux à vapeur convoyeurs de marchandises se sont multipliés et commencèrent à s'imposer au début des années 1860, tout au moins sur la Basse-Seine242. Pour l'essentiel, ces nouveaux types de bateaux appartenaient à de grandes compagnies, qui les louaient aux mariniers, désormais obligés d'y recourir, le halage ayant été prohibé dans la traversée de Paris. La chaîne de touage était « appelée à devenir le rail de la navigation243 » Tableau 2. Halage et remorquage sur la Basse-Seine, entre Paris et Rouen 1847-1853. Années Total des bateaux Bateaux halés Bateaux remorqués montants 239 Bernard Le Sueur, Mariniers, histoire et mémoire de la batellerie artisanale, Paris, Éditions du Chasse-Marée / Glénat, tome 2, 2005, pp.162-163. 240 Jean-Baptiste Krantz, Note sur l'amélioration de l'amélioration de la navigation de la Seine entre Paris et Rouen, Saint-Germain-en-Laye, 1er mai 1871, p.18. La Compagnie entre Conflans et Rouen avait quant à elle procédé au remorquage de 3 500 bateaux transportant 417 000 tonnes. 241 Ces toueurs présentaient une force de 35 chevaux, sans condensation et tiraient 0,40 m d'eau. Les toueurs en basse Seine étaient quant à eux dotés d'une hélice, ils descendaient sans recourir à la chaîne noyée, car cela ne s'avérait guère possible pour un fleuve aussi sinueux. 242 Inspection de la Navigation, Registres de Correspondance, 8 juin 1863. 243 Charles-Denis Labrousse, Navigation intérieure : Traité du touage sur chaîne noyée : Établissement et exploitation : Technologie et discussion, Paris, Liège, Noblet et Baudry, 1866. 75 1847 969 510 459 1848 522 129 393 1849 632 192 440 1850 766 223 543 1851 810 251 547 1852 1233 391 681 1853 1513 363 738 Source : Ernest Grangez, Précis historique et statistique des voies navigables et d'une partie de la Belgique, Paris, N. Chaix, 1855, p.776. Pourquoi la navigation éprouva-t-elle tant de mal à se motoriser ? On a montré l'effet d'entraînement limité de la voie d'eau sur l'économie, du moins en comparaison avec les chemins de fer. Il convient de s'interroger pourquoi la navigation fluviale est si longtemps demeurée « traditionnelle », la vapeur en tant que motorisation ne s'imposant que tardivement. Et encore s'agissait-il de remorqueurs ou encore du touage tirant plusieurs chalands en bois ! Il s'agissait là d'un cercle vicieux puisque la batellerie, moins consommatrice d'énergie, ne pouvait pas peser autant que ne l'ont fait les chemins de fer. Les compagnies minières, qui même si elles étaient favorables à la concurrence entre les différents transports, ne pouvaient pas s'aliéner le débouché si considérable que représentaient les voies ferrées. On aurait pu espérer que les compagnies de chemin de fer travaillant hors des zones minières (PO, Midi244) fissent appel à la batellerie Ce fut parfois le cas, mais le plus souvent elles s'accordèrent davantage à éliminer un concurrent jugé dangereux qu'à jouer la concurrence entre les compagnies fluviales et leurs homologues pour disposer d'un combustible le moins onéreux possible Car elles trouvaient, sans doute, des compensations, et refusaient, plus ou moins consciemment tout compromis La technologie de l'époque ne semblait guère favoriser le développement précoce de la navigation à vapeur sur les canaux : « De nombreuses tentatives ont été faites pour arriver à appliquer la vapeur au transport sur les canaux. Il nous faut d'abord constater qu'elles ont toutes échoué au point de vue commercial. C'est certainement un enseignement dont on ne 244 Le cas de la Compagnie de l'Ouest est plus complexe. Certes, elle ne desservait pas à proprement parler un bassin houiller, mais elle transportait charbons étrangers transbordés dans les ports de Seine Inférieure. Ce qui ne changeait finalement pas grand-chose, peu importait l'origine de la marchandise, en l'occurrence ici le charbon, pour un mode de transport. On ne saurait affirmer qu'il n'y a aucune incidence sur l'économie, c'est un autre problème, mais l'objectif ici est de montrer que la situation de la Compagnie de l'Ouest était assez comparable de celle du Nord, dans la mesure où elles consommaient toutes les deux une partie du charbon des centres de production ou de distribution qu'elles desservaient 76 peut méconnaître l'importance 245 ». Le remorquage par des vapeurs qui halaient plusieurs péniches et chalands se développa sur le fleuve. Cependant, les vapeurs à quille et à fort tirant d'eau, du fait du poids des machines, ne pouvaient naviguer que dans des conditions propices de navigation246. Les toueurs à vapeur ne présentaient pas cet inconvénient. La traction des péniches sur les canaux s'effectuait soit à bras d'hommes, soit par des chevaux. La première tendait à péricliter étant donné l'augmentation des tonnages des péniches, et elle ne pouvait guère plus s'appliquer qu'aux navires vides : « elle est lente, et par conséquent encombrante. L'usage, qui deviendra bientôt universel est la traction par chevaux247». La traction d'une péniche nécessitait le recours à deux chevaux que l'on appelait « courbe », le coût était de 0,50 à 0,60 franc248. De manière paradoxale, le problème résidait dans la faible force que nécessitait la voie d'eau et la médiocrité du prix de revient de la traction animale. Or, la mise en place d'un moteur mobilisant un capital de départ assez considérable impliquait des frais de fonctionnement élevés : frais de mécanicien, d'entretien, etc. Il ressortait donc que « l'emploi de la vapeur n'est donc pas un progrès évident, considérable, comme on peut le penser au premier abord, et ce résultat assez paradoxal, mérite d'être signalé249». La navigation à vapeur présentait un autre inconvénient, la machine, le stock de combustible et le moteur prenaient inévitablement de la place et réduisaient de ce fait le tonnage possible au-dessous de la limite imposée par la dimension des écluses. La vitesse obtenue n'offrait pas un avantage sérieux, la vitesse du halage animal s'élevant à 2,5 km/heure environ, tandis que celle de la vapeur n'était susceptible d'atteindre au grand maximum de 4 km/heure en raison du peu de longueur d'un très grand nombre de biefs, ce qui interdisait au navire de se lancer. L'étroitesse des canaux accentuait la résistance avec la vitesse Les croisements avec d'autres navires en devenaient d'autant plus délicats et une vitesse excessive combinée avec un trafic trop dense posaient la question de la conservation 245 Louis Molinos, La navigation intérieure. Son état actuel, son avenir, Paris-Liège, Librairie Polytechnique, JBaudry, Librairie-éditeur, 1875, 257p. 246 Il s'agissait essentiellement de bateaux à aube, leur tonnage était en moyenne de 145 t et ils voyageaient la nuit, pour un trajet d'une durée de 36 heures. En fait, l'écart avec les chemins de fer n'était pas si évident à cette époque. Toutefois, comme on le verra par la suite, la recherche absolue de la vitesse s'avérait illusoire, voire contreproductive. 247 Louis Molinos, ibid 248 L'ingénieur Molinos, en prenant le prix moyen de 0,55 francs, calculait le prix de revient de la tonnekilométrique appliquée à une péniche de 250 tonnes, l'évaluant à 0,0022 francs, soit moins d'un quart de centime par tonne et par kilomètre. Le prix de revient d'une péniche de 280 tonnes s'élevait à moins d'un cinquième de centime par tonne kilométrique. Les bateaux dits « accélérés » marchaient à la vitesse de 3 km par heure, payant 0,80 francs, c'est-à-dire un peu moins d'un tiers de centime par tonne et par kilomètre pour une péniche de 280 tonnes. 249 Louis Molinos, ibid., p.81. 77 des berges. En effet, un bateau avançait à 4 km/heure dans un canal étroit soulevant une onde assez forte pour produire des dégâts appréciables, ce qui entraînait par là même la nécessité d'un entretien renforcé Il fallait, en outre, considérer la durée effective du temps de marche : une éclusée prenait en moyenne 30 minutes, étant donné le nombre d'écluses sur la plupart des canaux : « la moitié du temps employé au parcours total était absorbée par le passage des écluses250». L'avantage de la vitesse que proposait la vapeur paraissait bien médiocre et chèrement obtenu « donnât-il une économie de 40 pour 100 sur le temps de marche, ne produisait plus qu'un avantage d'un cinquième sur la durée du parcours 251 ». Diverses tentatives ont été entreprises, mais avec des résultats mitigés. En effet, on avait expérimenté des bateaux à roues à aubes Ces roues se trouvaient placées à l'arrière pour ne pas provoquer une diminution exagérée dans la largeur de la coque du bateau. Le problème de la traction en rivière se posait un peu différemment, en raison de sa complexité. Il fallait tenir compte des flux de trafic : à la différence des canaux où l'effort de traction était à peu près identique dans les deux sens, la remonte exigeait davantage d'énergie que la descente. Le courant facilitait les transports, rendant encore avantageux le halage animal ou encore plus humain ! L'Oise était canalisée, avec un courant presque toujours extrêmement faible, ce mode de traction demeurait alors encore compétitif. Il en allait tout autrement pour des cours d'eau comme la Seine dont le courant s'avérait bien plus rapide et dont les quatre cinquièmes du trafic s'accomplissaient à la remonte252. L'effort de traction devenait trop excessif pour les chevaux avec un courant de 0,70 à 1 mètre par seconde en eau moyenne. La longueur des biefs et des écluses sur la Seine gênait la navigation des trains pour les remorqueurs. Néanmoins, l'adoption de l'hélice allait peu à peu résoudre une partie des difficultés évoquées ici. Les premières unités à hélice ont consisté en des bateaux voués aux transports urbains des passagers lyonnais vers le début des années 1860. Sur la Seine, les premiers remorqueurs à hélice apparurent en 1866 et plus tard les porteurs automoteurs. Il s'agissait de bateaux profonds dont la conception dérivait des constructions maritimes. Les premières hélices étaient dotées d'une rotation plutôt lente et de fort diamètre. C'est pourquoi les hélices devaient être profondément immergées pour obtenir une efficacité optimale. La 250 Louis Molinos, La navigation intérieure, op. cit., p.83. Louis Molinos, ibid. 252 Tel est par exemple le cas pour l'arrondissement de Corbeil. Département de Seine-et-Oise. Rapport de M. le Comte de Saint-Marsault, Préfet du département de Seine-et-Oise au conseil-général, le 30 août 1855, session de 1855, Versailles, chez C. Dufaure, imprimeur, 1855, p.54. 251 78 supériorité de l'hélice par rapport à la roue à aube résidait dans le fait qu'elle offrait des facilités appréciables pour virer, un encombre réduit et des remous moins brutaux253. En résumé, les bouleversements ayant touché les voies navigables ont paradoxalement contribué à retarder la mécanisation de la batellerie, tant la priorité se portait sur la recherche des plus bas frets possibles face à la concurrence redoutable des chemins de fer qui proposaient un système intégré et une masse considérable de capitaux, ce que ne pouvaient, en tout cas dans un premier temps, guère s'autoriser les acteurs de la batellerie. Le danger semblait d'autant plus réel que les chemins de fer tendaient à supplanter la variété des transporteurs individuels - roulage, mariniers - en assurant des circulations en masse pour l'industrie, tout en satisfaisant les contraintes de spécialisation régionale254. Car dans le même temps, soucieux de lutter contre toute forme de monopole, les défenseurs des voies navigables misaient précisément sur le caractère atomisé de la « petite batellerie ». Le marinier ne disposait que d'un pouvoir réduit de négociation, au contraire des compagnies fluviales naissantes qui sur le long terme, auraient pu être tentées d'imposer des prix à leurs clients255. Pour certaines marchandises, la lenteur ne constituait qu'une gêne relative, il suffisait aux clients des canaux et des rivières d'échelonner à leur guise leurs commandes afin d'être approvisionnés à temps Plus encore, cette lenteur pouvait même représenter un avantage dans la mesure où elle permettait aux clients de spéculer sur les cours ou réduire leurs frais de stockage256. En somme, les efforts de motorisation se trouvaient confrontés au système socioéconomique instauré au cours de cette période. Les mariniers du Nord surent s'adapter au transport de produits lourds sur de longues distances avec les technologies à leur disposition. L'établissement d'une navigation motorisée devait compter sur la concurrence combinée de la batellerie traditionnelle et des chemins de fer257. Figure 4. Plan du toueur La Ville de Sens (1850) 253 Laurent Roblin, Cinq siècles de transport fluvial en France, Rennes, Éditions Ouest France, 2003, pp.80-83. Yves Leclercq, Le réseau impossible. op. cit., p.8. 255 Bernard Le Sueur, Bernard Le Sueur, Mariniers, op. cit., tome 2, p.92. 256 Lucien Morice, Les transports fluviaux, P.U.F. (« Que sais-je ? »), 1968, n° 494, p.112. 257 Bernard Lesueur, Conflans-Sainte-Honorine, op. cit., p.275. 254 79 Source : wikipédia) 2. Transformations dans Paris : lever le verrou parisien. Le plus grand défi consistait à faire de la Seine un axe de circulation continu entre les en amont et en aval de Paris. Malgré toutes les innovations techniques évoquées précédemment, la navigation dans Paris resta obstruée et périlleuse pendant encore de longues années258. Les débordements du fleuve n'étaient plus endigués par la vieille ligne brisée des quais bas et étroits, d'où périodiquement des inondations sur les rues et habitations environnante. Les premiers changements ont été réalisés en aval. Dès 1843, l'île Louviers a été annexée à la rive droite, les eaux ne formant plus qu'un unique jet épaissi. Les quais de la Grève au Louvre ont été ensuite redressés et réfectionnés. Le lit en amont du Pont-Neuf et plus tard en aval a été creusé259. En 1851, le service de la Seine procéda au dragage du fleuve, ainsi qu'au remblaiement des berges, ces opérations ont été achevées jusqu'à la Concorde. Quatre ports de tirage accordés aux marchands de bois en 1849 260, ont été aménagés aux 258 AN (site de Pierrefitte-sur-Seine), F14 6729, Seine, traversée de Paris : améliorations et perfectionnements, an VII-1860. 259 Moniteur universel, 27 octobre 1845, p.2604. 260 AN (site de Pierrefitte-sur-Seine), F14 10 912-114, Conseil général des Ponts et Chaussées, 11 janvier 1849. 80 Invalides à l'Esplanade, au Gros-caillou ainsi qu'à l'Île-des-Cygnes261. Enfin, les berges de la Conférence et Débilly furent achevées en 1856262. Une transformation complète avait initialement été décidée en 1846263. Deux remparts de pierre devaient encastrer la Seine afin de préserver la ville contre les inondations. On procéda à l'exhaussement des berges et leur rectification en enlevant les anfractuosités du fleuve, au rétrécissement du lit ainsi qu'à l'extraction des bancs de sable. En outre, les ponts faisant obstacles devaient être modifiés. Les travaux s'étalèrent de 1845 à 1855. En septembre 1848, toute la berge gauche, du quai Saint-Bernard au Pont-Neuf fut renversée, remblayée et maçonnée par des centaines d'ouvriers. Restait le barrage de la Monnaie. Cet ouvrage revêtait une importance toute particulière pour le paysage parisien 264 . Les travaux ont été supervisés par le fameux ingénieur Charles Antoine Poirée265, responsable alors de la navigation de la Seine depuis la limite du département de la Seine jusqu'à Rouen. Ces travaux faisaient appel aux plus récentes techniques de l'époque. Il proposait d'édifier un barrage fixe avec une écluse face à l'hôtel de la Monnaie et le remplacement du Petit Pont, le pont Saint-Charles et le pont au Double par trois arches simples. De même, il souhaitait créer un chemin de halage continu depuis le pont de l'Archevêché jusqu'au pont des Arts et appliquer des turbines à la hauteur de l'écluse pour assurer la distribution de l'eau dans des conduites souterraines. Cet agencement se voyait complété sur le petit bras par un barrage mobile à la hauteur du pont Notre-Dame, les pompes étant supprimées. La dépense estimée se montait à trois millions de francs, la dernière version déposée en janvier 1842 266 étendait le nombre de barrages, et comprenait également la transformation de la plupart des ponts et la création de chenaux de navigation distincts pour la navigation montante et descendante267. Ce dernier projet se révélait, comme on peut se l'imaginer, encore plus onéreux en se montant à 13 millions de francs et mobilisa plus de trois-cents ouvriers pour en consolider les 261 Ces nouveaux ports étaient destinés au déchirage des trains et au recueillage des bois de charpente. Les ports du Gros Caillou et de l'Île-des-Cygnes étaient voués à se substituer au port de recueillage des Tuileries qui avait été enlevé après l'aménagement d'un chemin de halage sur la rive droite entre le Pont-Royal et le pont de la Concorde. 262 AN (site de Pierrefitte-sur-Seine), F14 6729, Situation ou crédits alloués par la loi du 31 mai 1846, 9 mars 1860. 263 Isabelle Backouche, La trace du fleuve, La Seine et Paris, Paris, Éditions de l'École des Hautes Études en Sciences Sociales, 2000, pp.359-366. 264 Isabelle Backouche, ibid., p.362. 265 AN (site de Pierrefitte-sur-Seine), F14 6729, Exposé de l'avant-projet de la canalisation du petit bras de la Cité, 9 avril 1840. 266 AN (site de Pierrefitte-sur-Seine), F14 6729, Note remise à la commission d'enquête, 11 janvier 1842. 267 Jean-Baptiste Krantz, Note sur l'amélioration de l'amélioration de la navigation de la Seine entre Paris et Rouen, Saint-Germain-en-Laye, 1er mai 1878, 78p. 81 fondations. Flanqué d'une écluse longue de 120 m et 12,50 m de large, il était la réunion de quatre secteurs de 10 m de large, appuyés sur des piles en maçonnerie. L'écluse de la Monnaie ne fonctionna qu'à partir du mois d'avril 1854 et le petit bras de la Seine totalement canalisé ne fut ouvert de manière définitive à la navigation qu'en octobre de la même année. Cette dernière décision impliqua la suppression du service du pilotage des ponts de Paris en vertu d'une ordonnance du préfet de police du 26 septembre précédent, entrant en vigueur le 1er octobre. Divers travaux furent exécutés en aval de l'écluse de la Monnaie, du même ordre que ceux effectués en amont : chemin de halage, amélioration des quais, un port devant le quai Malaquais Les performances de la batellerie apparaissaient d'autant plus remarquables compte tenu des conditions d'exploitation des canaux. La péniche flamande ne pouvait circuler que de façon irrégulière. La traction demeura longtemps encore animale, les chevaux étant la possession, soit de bateliers soit de charretiers appelés « haleurs aux longs-cours » Ces derniers, très nombreux le long de voies navigables, allaient jusqu'à exiger des tarifs très élevés quand la demande de transports s'intensifiait. Or, ce fut au détriment des bateliers, ce qui conduisit l'administration des Travaux publics à organiser un service de halage instaurant un tour de rôle pour les haleurs sur le canal de Saint-Quentin, de Cambrai à Chauny. Cette expérience s'avéra de courte durée, elle s'acheva en septembre 1860, en raison de l'action de petits charretiers assurant les fonctions d'affréteurs, ainsi que des charretiers de ChaunyJanville qui provoquèrent moult désordres et encombrements. Toutefois, l'administration des Travaux publics établit un service de touage à vapeur sur presque toute la longueur du bief de partage du canal de Saint-Quentin, tronçon dont le franchissement était extrêmement délicat. La loi du 31 mars 1846 relative à la navigation intérieure 268 fixa un programme national pour la régulation des fleuves en vue d'augmenter le mouillage des cours d'eau et de lever les divers obstacles à la navigation. La Seine occupait une place prépondérante dans ce programme avec un budget de 33,5 millions, dont 5 millions pour la seule traversée de Paris, sur un total de 75 millions269. Si les canaux parisiens palliaient en partie aux insuffisances de la navigabilité de la Seine dans la capitale, leur utilité se révélait limitée par leur incapacité à recevoir des bateaux de fort gabarit. L'ingénieur Charles Bérigny avait préconisé d'établir douze barrages mobiles qui, associés à des écluses, haussaient le niveau de l'eau et atténuait le 268 Loi relative à la navigation intérieure, 31 mai 1846, Bulletin des Lois du Royaume de France, IXe série, juillet, 1846, vol.32. 269 Isabelle Backouche, op. cit., p.361. D'autres cours d'eau étaient concernés : la Mayenne, la Sarthe, le Rhône et l'Adour 82 courant du fleuve270. Il estimait le coût de ces aménagements à 17 millions de francs, les travaux devant, selon lui, être effectués par l'État et non pas par une société privée271. Les lois des 19 juillet 1837, 16 juillet 1845 et 31 mai 1846 consacraient 13,3 millions pour la Seine entre Paris et Rouen272, 10 étant votés en 1846, à titre de compensation, les voies ferrées fonctionnant depuis 1844. L'idée de Paris port de mer avait été particulièrement en vogue entre les années 1796 et 1830, si l'on n'y a pas renoncé de façon définitive273, on se résigna à améliorer les conditions de navigation entre Paris et Rouen274. Ces améliorations consistaient en la défense des berges, au dragage des hauts fonds, l'amélioration des arches marinières, la clôture de certains bras, ainsi que la réalisation de cinq dérivations avec barrages et écluses à Bougival, Andrésy, Melun, Notre-Dame de la Garenne et Poses 275 . Ces aménagements, somme toute limités, ne s'accomplirent que très laborieusement, puisque 5,7 millions demeuraient à dépenser encore en 1857 276 . Toutefois, ils permirent une amélioration non négligeable des conditions de navigation. En 1849, le tirant d'eau s'élevait annuellement de 1,80 à 2 m durant 177 jours au plus, c'est-à-dire entre décembre et février. Il permettait aux bateaux de fort gabarit, nommés « besognes », de transporter de 600 à 700 tonnes. Il résulta 270 Né à Rouen en 1772 et mort à Paris en 1842, Charles Bérigny a été chargé en 1798 de travaux pour la navigation sur la Somme puis au port de Cherbourg. En 1802, il a conduit les travaux des ports de Dieppe, de Saint-Valéry et du Tréport. À Dieppe, avec Gayant, il a été l'initiateur des premiers grands travaux. Afin de réparer les anciennes écluses, il innova en 1802 par des injections de mortier, procédé qui a été par la suite généralisées. De même, il y construisit la grande écluse du bassin à flot. Promu ingénieur en chef en 1809, Bérigny a été nommé à Strasbourg pour diriger les travaux du département du Bas-Rhin, où il participa à la réfection des routes. En 1814, il a été nommé secrétaire du Conseil général des Ponts et Chaussées, inspecteur de l'École des Ponts et Chaussées. En tant qu'inspecteur divisionnaire, il a été chargé d'étudier les améliorations de la navigation de la Seine, il publia un mémoire : Les moyens de faire remonter jusqu'à Paris tous les bâtiments qui peuvent entrer au port du Havre. Il est nommé inspecteur général des Ponts et Chaussées en 1830. Par ailleurs, il apparaît aussi comme une des grandes figures des débuts de l'histoire des chemins de fer, puisqu'il a été un des membres fondateurs du chemin de fer de Paris à la mer. 271 AN (site de Pierrefitte-sur-Seine), F14 6813, Charles Bérigny, Mémoire sur les moyens de perfectionner la navigation de la Seine entre Paris et Rouen en donnant aux bateaux un tirant d'eau de deux au moins lors des plus basses eaux, 20 janvier 1834. Voir aussi : Charles Bérigny, Navigation maritime du Havre à Paris ou Mémoire sur les moyens de faire remonter jusqu'à Paris tous les bâtimens de mer qui peuvent entrer dans le port du Havre, Paris, de l'imprimerie de Demonville, mars 1826, 84p. 272 AN (site de Pierrefitte-sur-Seine), F14 6820, notices sur les rivières. 273 Comme on le verra dans le quatrième chapitre consacré à cette question. 274 Louis Girard, La politique des travaux publics, op. cit., p.18. 275 AN (site de Pierrefitte-sur-Seine), F14 6184, Importance et avenir de la navigation de la Seine, 14 avril 1844. 276 Sur la Basse-Seine, on établit à Bezons, en 1838-1839, afin de supprimer le pertuis de la Morue, un barrage mobile dont les fermettes, une fois couchées, permettait aux bateaux de passer à toute hauteur d'eau dans l'emplacement de ce pertuis, sans faire appel à des pilotes et des chevaux de soutien 276. La retenue formée par ce barrage a été élevée de façon à produire un mouillage de 2 m sur le busc de l'écluse du canal Saint-Denis contre 1,68 m antérieurement. Une dérivation avait été, en outre, ouverte à travers l'île de Bougival et une écluse insubmersible avait été bâtie, constituée d'un long sas divisé en deux grâce à une porte intermédiaire. Ces ouvrages ont été livrés à la navigation le 15 juillet 1840. Le pertuis des Gourdaines ainsi que les étroites passes de Tournebourse et de Modèle, les hauts-fonds des Bosses à Manon et de Notre-Dame de l'Isle, ont été contournés à l'aide d'une dérivation dite du Goulet et achevée en 1849. Cette dérivation se composait de l'écluse de Notre Dame-de-la-Garenne à Gaillon (1847-1848), d'un barrage accolé ainsi que d'un autre barrage à NotreDame-de-l'Isle (dans l'Eure). 83 de ces progrès techniques un raccourcissement sensible du temps de parcours entre la capitale et ses avant-ports maritimes. Le trajet Rouen-Paris s'accomplissait désormais entre quatre et cinq jours, et pouvait même s'effectuer en 60 heures par remorqueurs tirant des convois. L'autre conséquence de ces améliorations du réseau et des modes de traction s'est traduite par un abaissement des coûts du coût du transport fluvial sur les grandes lignes de navigation. En 1855, les frets Rouen-Paris baissèrent ainsi pour se situer autour de 20% au-dessus des frets Mons-Paris, contre 40% en 1845277. II. LE RÔLE DE PARIS DANS LE REDRESSEMENT DE LA BATELLERIE DURANT LA PHASE « LIBÉRALE » DU SECOND EMPIRE (1860-1870). La nouvelle conception de la batellerie allait insuffler à cette dernière un premier essor au cours du Second Empire. Pourtant, cette période se révèle ambiguë, car si l'essor industriel et urbain (travaux haussmanniens) ont clairement favorisé la batellerie, le régime impérial n'a pas pour autant su élaborer une politique spécifique pour l'aménagement des voies d'eau et des installations portuaires. A. Montée d'un courant favorable à la batellerie. Il semble évident que le Second Empire a contribué à l'essor des chemins de fer français. Cette période se caractérisa aussi par une croissance industrielle remarquable Ces deux facteurs expliquèrent l'attitude ambivalente de ce régime à l'égard des voies navigables. Comme on a eu l'occasion de le constater, la batellerie était entrée dans une période de crise durant le règne de Napoléon III, mais ce fut aussi sous ce même règne que la batellerie connut une renaissance spectaculaire. En fait, la responsabilité de l'effondrement de la batellerie n'était pas inévitablement imputable au Second Empire, puisque celle-ci s'est déclenchée dès 1844, et puisait ses racines dans des dysfonctionnements plus profonds et bien antérieurs du réseau navigable français Mais de manière plus globale, la batellerie a été tout de même relativement négligée au profit des chemins de fer au cours des années 1850. À titre de comparaison, on payait pour les chemins de fer 15,30 francs pour les mêmes marchandises, hormis celles de sujétions portées dans les 3ème et 4ème classes taxées de 21,50 277 La moyenne des frets se trouvait donc égale à 3,3 centimes la tonne-kilométrique : 3 centimes sur la ligne Paris-Mons, 3,6 centimes sur le trajet Rouen-Paris. Voir : Jean-Claude Toutain, « Les transports en France de 1830 à 1965 », in Économies et Sociétés, série AF, n°9, Paris, PUF, 1967, p.107. 84 francs à 26,85 francs. À la descente de la rivière, le voyage durait de l'ordre de huit jours de Troyes à Paris et de dix jours à la remonte. Un décret de l'Assemblée Nationale du 10 juin 1848 allouait, dans le même temps, au prolongement du canal de la haute Seine en amont de Troyes, un crédit de 500 000 francs dans le cadre des Ateliers Nationaux. Néanmoins, ces travaux furent interrompus en 1849. Les dépenses consenties se montaient à 693 000 francs pour l'indemnité du terrain et les terrassements, les ouvrages d'art à exécuter devaient se monter à 650 000 francs278. Pour l'essentiel, le pouvoir impérial n'entreprit aucune construction nouvelle, n'achevant que quelques voies. Vers 1860, un tournant s'accomplit pourtant au profit de la navigation intérieure après l'enthousiasme qu'avait suscité la voie ferrée. En effet, la crainte s'accentuait concernant les situations de monopole que les compagnies de chemins de fer étaient susceptibles d'imposer 279 . En outre, après les aventures militaires en Crimée et en Italie, le Second Empire devait rassurer l'opinion en affirmant s'orienter vers une politique pacifique. C'est dans ce contexte que s'explique la volonté du pouvoir impérial de concevoir un budget consacré aux travaux publics qui affiche d'une part une grande ambition pour soutenir l'activité industrielle et qui d'autre part, ne soit plus exclusivement destiné aux chemins de fer. Ce tournant s'exprima dans la fameuse lettre adressée par Napoléon III au ministre de l'Agriculture, du Commerce et des Travaux publics, Eugène Rouher, en date du 5 janvier 1860 et publiée dans le Moniteur du 15 janvier de cette même année : « Un des plus grands services à rendre au pays, est de faciliter le transport des matières premières pour l'agriculture et pour l'industrie. À cet effet le Ministre des Travaux publics fera exécuter le plus promptement possible les voies de communications, canaux, routes et chemins de fer qui auront surtout pour but d'amener la houille et les engrais sur les lieux où les besoins de la production les réclament, et il s'efforcera de réduire les trafics en établissant une juste concurrence entre les canaux et les chemins de fer 280 ». En outre, la lettre recommanda l'abaissement des péages sur les canaux : « Amélioration énergiquement poursuivie des voies de communication ; - Réduction des droits sur les canaux, et par suite abaissement général 278 Ernest Grangez, Précis historique et statistique des voies navigables de la France et d'une partie de la Belgique, Paris, N. Chaix, 1855, p.614. 279 Exposé de la situation de l'Empire présent au Sénat et au Corps Législatif, février 1867, Paris, Imprimerie Impériale, 1867, pp.107-114. Ou « Exposé de la situation de l'Empire présenté au sénat et au corps législatif. » in Moniteur du 17 février 1867. Extrait relatif aux travaux publics, in Annales des Ponts et Chaussées. Mémoires et documents relatifs à l'art des constructions et au service de l'ingénieur ; lois, ordonnances et autres actes concernant l'administration des Ponts et Chaussées, Paris, N°140, 4e série, Paris, Dunod, Éditeur, 1867, pp.6-14. 280 Lettre de l'Empereur au Ministre de l'Agriculture, du Commerce et des Travaux publics, 5 janvier 1860. Moniteur, 1860, p.61. Le texte est si célèbre qu'on le retrouve dans d'innombrables publications. 85 des frais de transport281 ». Le revirement du régime impérial devait être lu sous le prisme de la signature du traité de libre-échange passé avec la Grande-Bretagne. La conclusion de cet accord avait pour corollaire implicite de renforcer la compétitivité de l'économie hexagonale282, et la réduction des coûts du transport représentait donc la condition sine qua non pour atteindre cet objectif283. Nonobstant, ce n'était pas tellement les tarifs douaniers qui s'avéraient décisifs, mais le coût du transport : 15 centimes pour les premiers qui montait le prix du quintal de houille depuis la mine de 1 franc à 2-6 francs, en fonction des distances284. Le problème des transports semblait de ce fait bien plus crucial pour la houille que celui des droits de douanes. Depuis que les transports par voie ferrée avaient dépassé ceux de la batellerie en 1857, il apparaissait de toute évidence que cette supériorité ne pouvait plus être raisonnablement contestée. L'objectif de Napoléon III visait plus à endiguer la disparition totale de la navigation intérieure et une domination complète des chemins de fer sur le marché des transports 285 . Les derniers perfectionnements techniques touchant la canalisation de la Seine répondaient très précisément à cette préoccupation. Encore fallait-il des voix pour promouvoir le potentiel de la voie d'eau comme alternative crédible aux chemins de fer. La chance de la batellerie fut de disposer de défenseurs qui surent convaincre sur l'utilité retrouvée de ce mode de transport qui semblait sur un déclin inexorable. Des personnalités influentes contestèrent ainsi l'état de fait et se dirent partisans de la concurrence entre les chemins de fer et les voies navigables : Collignon, Comoy et Bazin286. Dès 1838, Charles Collignon fut chargé, de la seconde section du canal de la Marne au Rhin alors en construction. Élu ensuite député de l'arrondissement de Sarrebourg 281 Ibid. C'était d'autant plus vrai que cet accord s'inscrivait dans une vague de fond d'essor du libre-échange, avec plusieurs accords similaires passés avec la Belgique (1861), la Prusse et les États du Zollverein allemands (1862). Par la suite, divers accords de dégrèvements sur les matières premières et de substitutions de droits modérés aux prohibitions ont été conclus avec d'autres pays européens. Comme on l'a vu, le charbon français n'était pas concurrencé uniquement par les charbons britanniques Les inquiétudes des industriels paraissaient alors des plus légitimes. 283 Le traité de libre-échange passé avec la Grande-Bretagne a effectivement eu d'importantes répercussions politiques, notamment l'aliénation de nombreux notables qui avaient jusque-là soutenu le régime, sans parler de la politique italienne de Napoléon III qui inquiétait les milieux catholiques. Il fallait donc rassurer une partie de l'opinion conservatrice. Dans le même temps, le pouvoir impérial ressentait le besoin de trouver de nouveaux appuis, et l'on ne peut négliger non plus une part des industriels de sensibilité républicaine. Concernant l'activité fluviale, les milieux du flottage de bois se trouvaient en contact avec les nouvelles idées, ce qui expliquait les nombreux cas de résistance lors du coup d'État du 2 décembre 1851. Certains membres des familles Morillon et Corvol montraient des convictions républicaines. En effet, Charles Corvol fils assista à la proclamation de la IIIème République le 4 septembre 1870 dans le salon de l'Hôtel de Ville de Paris. Le frère Eugène participera à la sortie de Buzenval de janvier 1871. Il eut d'ailleurs de graves blessures. Voir Isabelle Backouche, Sophie Eustache, Morillon Corvol, une entreprise née de la Seine, Paris, Les Éditions textuel, 2003, p.17. 284 Léonce de Larverne, « Le programme de la paix », in Revue des Deux mondes, 15 février 1860, p.950. 285 Louis Girard, La politique des travaux publics , op. cit., p.301. 286 Jean-Baptiste Krantz, « Notice sur la vie et l'oeuvre de Charles-Étienne. Collignon», in Annales des Ponts et Chaussées, 1er semestre, 1886, pp.789-844. 282 86 en 1846, il dirigea le service du canal latéral à la Loire entre 1848 et 1851, service dans lequel il revint à Nancy afin de s'occuper à nouveau celui de la Marne au Rhin, service dans lequel il resta jusqu'en 1853287. Les promoteurs de la voie d'eau s'activèrent pour défendre leur nouvelle conception de ce mode de transport 288. Pour tout dire, de nombreux ingénieurs avaient accompli leur carrière dans la navigation intérieure et se montraient encore attachés à ce mode de transport qui apparaissaient déjà pour certains, et très tôt, comme désuet. Ces ingénieurs « canalistes » avaient pourtant perçu, et cela dès les débuts des chemins de fer, à la fois les limites de ceuxci, et les possibilités de reconversion des voies navigables pour servir les industries naissantes. Ainsi, Collignon se révéla un ardent et efficace défenseur de la voie d'eau 289. Il multiplia les publications en vue de promouvoir une nouvelle conception de la batellerie. Son ouvrage Du concours des canaux et des chemins de fer parut en janvier 1845 290. Par ailleurs, dans la Revue des deux mondes291, il dénonça vivement les réductions budgétaires réalisées en 1848 au détriment des travaux publics et affirmait que l'argent public suffisait amplement à financer les chemins de fer et la batellerie, celle-ci servant au transport des marchandises pondéreuses et de modératrice contre les tentations hégémoniques des compagnies de chemins de fer. Guillaume Comoy avait, quant à lui, été attaché au service du canal du Centre de 1828 à 1855, sauf entre 1842et 1843292. Il publia de son côté, un mémoire en 1847 dans les Annales des Ponts et Chaussées où il démontra l'utilité de canaux dans la réduction du prix du fret293. Il estimait que l'exploitation des voies navigables pouvait répondre aux besoins de l'industrie, mais elle devait bénéficier d'un certain nombre d'améliorations qui passaient par l'agrandissement des ouvrages d'art (ponts, écluses, chemin de halage), par l'organisation 287 Pour une étude globale de la politique du Second Empire en matière de navigation intérieure, consulter Michèle Merger, « Voies navigables », in Dictionnaire du Second Empire, sous la direction de Jean Tulard, 1995, pp.1322-1325. 288 Sur la période allant de la monarchie de Juillet à la fin du Second Empire, voir Alfred Picard, Les chemins de fer : aperçu historique, résultats généraux de l'ouverture des chemins de fer, concurrence des voies ferrées entre elles et avec la navigation, Paris, H. Dunod et E. Pinat, Éditeurs, 1918, pp.437-460. 289 Jean-Baptiste Krantz, « Notice », Ibid. 290 Charles Collignon, Du concours des canaux et des chemins de fer et de l'achèvement du canal de la Marne au Rhin, Carilian-Goeury et Vve Dalmont Éditeurs, Paris, Nancy, 1er janvier 1845. 291 Charles Collignon, « Les travaux publics en France depuis la révolution de février. Des mesures à prendre pour achever les chemins de fer et les canaux », in Revue des deux Mondes, Paris, 1849, tome quatrième, pp.861888. 292 Michèle Merger, « Voies navigables », in Dictionnaire du Second Empire, sous la direction de Jean Tulard, 1995, p.1322. 293 Guillaume Comoy, « Observations. Sur les conditions dans lesquelles on doit mettre les canaux de navigation pour qu'ils puissent augmenter la fortune publique. Conséquences que l'on doit en tirer pour le mode d'exploitation des canaux de France », in Annales des Ponts et Chaussées. Mémoires et documents relatifs à l'art des constructions et au service de l'ingénieur ; lois, ordonnances et autres actes concernant l'administration des Ponts et Chaussées, Paris, Carilian-Gueury et Vrt Dalmont, n°180, 2e série, 2e semestre, 1847, pp.133-217. 87 de la traction des bateaux ou encore la transformation du matériel navigant. Il développa ses idées dans un autre mémoire, rédigé en 1849, intitulé Principes généraux d'après lesquels ont disposé les ouvrages des canaux au point de vue de leur fréquentation294. Leur action fit tache d'huile en convaincant d'autres personnalités. L'ingénieur Bazin 295 approfondit les idées de Collignon et de Comoy. Celui-ci était encore considéré comme un ingénieur de premier plan. Il avait été attaché au service du canal de Bourgogne dès 1854, et chargé, en 1875, de la direction de l'ensemble de ce canal 296. En résidence à Dijon, il rencontra Darcy, célèbre pour ses travaux sur l'hydraulique. Il fut de même nommé à la direction du service des études dans le bassin de la Loire, avant d'obtenir le grade d'inspecteur. Il bénéficia du soutien personnel de Napoléon III, rencontré au hasard d'une rencontre aux eaux de Plombières. Dès la fin de 1857, il reçut le grade supérieur, plus en conformité avec les hautes fonctions qu'il avait assumées après les crues de 1856 et qui lui conféra davantage d'autorité sur plusieurs ingénieurs en chef. En 1867, il publia dans les Annales des Ponts et chaussées un article concernant l'état de la navigation intérieure297. Il ne niait pas les mérites de la voie ferrée, estimant qu'elle pouvait être aussi économique que la batellerie. Fondant son argumentation sur la notion de coût, il évaluait le prix de revient proprement dit de la voie ferrée à 3,2 centimes par tonne-kilométrique tandis qu'il s'élevait pour les voies navigables de 1,5 à 3 centimes. Il déplorait le manque de concurrence entre les deux modes de transport, à l'exception des départements du nord du pays où la batellerie sut résister et maintenir son trafic, dans les matières pondéreuses de faible valeur plus particulièrement. Si les dirigeants du Second Empire affichaient, au mieux, de l'indifférence à l'égard de la navigation intérieure, ils ne s'appuyaient pas moins sur des ingénieurs de premier plan, qui eux, croyaient en l'utilité des voies navigables, à savoir Legrand et Franqueville 298 . Le parcours de ce dernier se trouve directement lié aux mutations des transports que connut son 294 Comoy, « Canaux ; principes généraux d'après lesquels ont disposé les ouvrages des canaux au point de vue de leur fréquentation », in Annales des Ponts-et-Chaussées. Mémoires et documents relatifs à l'art des constructions et au service de l'ingénieur ; lois, ordonnances et autres actes concernant l'administration des Ponts et Chaussées, Paris, n°206, 2e série, 1er semestre, 1849, pp.1-129. 295 Michèle Merger, « Voies navigables », op. cit., p.1322. 296 Il exerça cette fonction jusqu'en 1886, où il fut nommé inspecteur général et membre du Conseil général des Ponts et Chaussées. 297 Henry Bazin, « État de la navigation intérieure », Annales des Ponts-et-Chaussées, 1867, pp.149-198. 298 Voir François Prosper Jacqmin, M. de Franqueville, conseiller d'État, Directeur général des Ponts et Chaussées et des Chemins de fer : Sa vie et ses Travaux, Hachette et Cie, 1877, pp.24-25. et François Prosper Jacqmin, « Alfred Charles Ernest Franquet de Franqueville (1809-1876) » in Annales des Mines, 7e série tome 11, 1877. 88 époque. Sorti de l'École des Ponts et Chaussées, Franqueville s'est trouvé attaché au secrétariat du Conseil général des Ponts et Chaussées en 1832, auprès d'Alexis Legrand. En 1834, il fut ensuite nommé ingénieur de l'arrondissement de Soissons. Successivement, il se vit en charge de l'arrondissement nord-est du département de la Seine-et-Oise, en 1837, et ensuite, de l'arrondissement Est du département de la Seine, en 1838. En octobre de la même année, il est entré au ministère des Travaux publics, chargé des canaux et des ports, sous l'impulsion du secrétaire d'État, Legrand. En novembre 1853, il est nommé directeur des Ponts et Chaussées, puis directeur général des Ponts et Chaussées et des chemins de fer. Il prit en main l'aménagement des chemins de fer français, à travers le développement du réseau et concentration des compagnies. En tant que responsable de la navigation, il a dû gérer la délicate question des concessions des voies navigables, mais il s'occupa conjointement des travaux préventifs contre les inondations de villes sur le Rhône, la Loire et la Garonne . De façon plus globale, il supervisa l'aménagement des voies navigables sur l'ensemble du territoire. Il s'est trouvé à l'origine de l'achèvement du canal latéral à la Garonne et du canal de la Marne au Rhin, et cela, malgré les aléas en termes de crédits disponibles pour les voies navigables. Parallèlement, il accéda au grade de conseiller d'État, hors section, en 1857, inspecteur général de première classe, en 1863, et membre du Conseil supérieur du commerce, de l'agriculture et de l'industrie en 1869. L'année suivante, il est devenu vice-président du Conseil Général des Ponts et Chaussées, mais demeura directeur, à la requête de ses ministres de tutelle. Franqueville joua un rôle décisif dans la question de l'affermage à laquelle il exprima constamment son opposition. Les canaux étaient, à ses yeux, assimilables aux routes de terre, et tout propriétaire de bateau devait bénéficier de la possibilité de circuler comme celui d'un véhicule sur les routes de terre. En fait, l'affermage des canaux à des compagnies de chemins de fer ne pouvait que signifier leur arrêt de mort, à l'instar de ce qui s'était passé en Grande-Bretagne. La lutte rail-eau devint un thème en vogue dans le milieu des industriels qui se mirent à critiquer ouvertement les compagnies de chemins de fer. Les réductions de tarifs enregistrées dans les années 1852-1857 présentaient un caractère avant tout différentiel. Ces pratiques placèrent les compagnies sous le feu des critiques, à savoir qu'elles tendaient à provoquer des inégalités entre producteurs, localités et même régions. Les compagnies se voyaient reprochées d'abaisser dans des proportions excessives les tarifs pour les uns, et pas suffisamment pour les autres. On opposait ainsi le principe de coût marginal à celui d'égalité 89 par rapport à la concurrence, et plus largement, l'égalité des citoyens299. Les réductions de tarifs étaient accordées surtout aux clients les plus importants qui recourraient de manière exclusive à la voie ferrée. Pour des clients dépourvus de fret considérable, les compagnies se contentaient souvent d'exiger l'ensemble des transports du client, ce qui leur permettait de contrer la navigation et le roulage. Certains commerçants recouraient respectivement à la batellerie et aux chemins de fer et unissaient leurs envois afin de bénéficier du traité particulier de la voie ferrée et du bas tarif de la batellerie suivant les périodes les plus favorables des deux modes de transport300. Attachées à la libre concurrence, les chambres de commerce firent de la lutte contre ces traités spéciaux, leur cheval de bataille et revendiquèrent une égalité-kilométrique des plus strictes 301 . Le commerce craignait effectivement que l'élimination de la concurrence n'exposât les commerçants à la toutepuissance des compagnies ferroviaires. Ces dernières prient alors des mesures drastiques pour parer à ce type de procédés. La profusion des traités spéciaux montrait le coût jugé excessif du tarif général302, tandis que les tarifs préférentiels correspondaient à une certaine rationalisation de l'exploitation, en permettant d'étendre ses débouchés. À mesure que se multipliaient les chantiers de voies ferrées, les milieux industriels et commerciaux prirent conscience de la nécessité de disposer d'un moyen de pression pour négocier avec les compagnies chemins de fer. Or, les voies navigables constituèrent justement cet instrument : « Que l'on améliore la Loire, le Rhône, la Saône, l'Yonne, les canaux du Rhône au Rhin, de Bourgogne, du Centre, de Roanne, le canal latéral, les canaux de Briare, du Loing et d'Orléans, que l'on supprime le reste des tarifs, et l'on obtiendra des compagnies de chemins de fer plus que par les négociations303 ». Après la « folie du rail », les acteurs économiques paraissaient souhaiter revenir à la politique traditionnelle des Ponts et Chaussées conduite sous la Monarchie de Juillet, de dotation d'un réseau complet de navigation. Alors même que les voies navigables se trouvaient menacées, l'opinion publique et l'Administration envisageaient la possibilité d'établir un système complet et organisé, comme cela avait été le cas de la mise en place d'un 299 François Caron, La France des Patriotes : de 1851 à 1914, tome V de la collection dirigée par Jean Favier, Histoire de France 1852-1918, Paris, Fayard, 1985, 640 p. Réimpr. Paris, Le Livre de Poche, 1993, p.51. 300 Ce qui permettait de pallier le problème des chômages sur les canaux. 301 Les rapports de la chambre de commerce de Paris se trouvaient alors empreints d'un discours libreéchangiste. Celui-ci résultait à la fois des lectures de certains membres et de l'atmosphère présente depuis les lois de la Constituante, notamment la loi le Chapelier. Les recherches de Claire Lermercier semblent suggérer que certains membres ont même fréquenté Jean-Baptiste Say et Adam Smith. Voir Lemercier Claire, « Devenir une institution locale, la Chambre de commerce de Paris au XIX e siècle », Revue d'histoire moderne et contemporaine, 2007/3 n°53-3, pp. 44. 302 Clément Colson, Transports et tarifs : régime administratif des voies de communications. Conditions techniques et commerciales des transports, 1908, p.501. 303 Comité des houillères françaises, Navigation intérieure de la France. Amélioration des rivières et des canaux, Paris, Imprimerie de A. Guyot et Scribe, 1861, p.135. 90 réseau national de voies ferrées qui avait, de façon paradoxale 304 , encouragé l'idée d'un réseau de navigation à l'échelle du pays305. Pour être en mesure d'affronter leurs homologues britanniques, le commerce et l'industrie français avaient besoin de consolider leur équipement en machines à vapeur. Cette modernisation signifiait consommer davantage de combustibles minéraux, et que ceux-ci parviennent en abondance et à des prix supportables 306 . Les producteurs de houille des départements du Nord et du Pas-de-Calais s'étaient réunis pour constituer, en 1851, le Comité des houillères françaises307. Ce dernier réclama que des travaux fussent exécutés sur l'Yonne, les canaux de la Marne au Rhin, du Berry, du Centre, du canal latéral à la Loire 308. Le même comité exprima son voeu à l'Empereur, lors de son passage en 1867, pour la suppression des droits de navigation afin d'alléger les charges financières de la batellerie et de faire d'elle une concurrente efficace à la voie ferrée. De leur côté, maîtres de forge, manufacturiers et commerçants formèrent des groupes d'intérêt encourageant le développement des canaux : métallurgistes du haut-marnais309, de la société des Forges de Franche-Comté, du Comité pour la défense de la navigation intérieure310, etc. Fondé au début des années 1860 à Strasbourg, ce dernier réclamait l'abrogation des droits de navigation, l'instauration d'un gabarit uniforme de deux mètres pour le réseau navigable afin d'amenuiser le prix du fret De même, il se montra partisan de l'amélioration des conditions de navigation sur la Seine, la Marne et du canal de la Marne au Rhin en vue d'établir une jonction entre Le Havre et Strasbourg311. Il sut faire entendre sa voix plus particulièrement auprès des chambres de commerce, qui de leur côté, n'avaient cessé depuis les années 1850, de soutenir la concurrence entre les deux modes de transport312. Le projet du canal des houillères de la Sarre avait été élaboré dès 1846, pour 304 François Caron, « La naissance d'un système à grande échelle. Le chemin de fer en France (1832-1870) », in Annales. Histoires, Sciences Sociales, 53e année, 1989, pp.859-885. 305 Louis Girard, La politique des travaux publics du Second Empire, Paris, Librairie Armand Colin, 1952, p.216. 306 C'était notamment le cas du Creusot dont l'essor se trouvait freiné en raison des carences récurrentes en combustibles et en matières premières, voir Jean-Philippe Passaqui, La stratégie des Schneider. Du marché à la firme intégrée (1836-1914), Rennes, Presses Universitaires de Rennes, 2006, pp. 101-146. 307 François Caron, Histoire des chemins de fer, op. cit., p. 353. Voir aussi : Marcel Gillet, Les charbonnages, p. 140. 308 Comité des houillères françaises, Navigation intérieure de la France. Amélioration des rivières et des canaux, Paris, Imprimerie de A. Guyot et Scribe, 1861, 176p. 309 Philippe Delorme, « Jules Rozet maître de forges et notable en Haute-Marne au XIXe siècle (18001871) », thèse de doctorat en Histoire sous la direction de Denis Woronoff soutenue en 2002 à Paris 1, chapitre 4, sous-parties I, II et III. 310 AN (site de Pierrefitte-sur-Seine) F14 7074, Pétition du Comité pour la défense de la navigation, 26 mai 1866. 311 Michèle Merger, « La politique de la IIIème République , op. cit., pp.22-23. 312 Le commerce local parisien se montrait réticent quant au monopole des voies ferrées. Sous le Second Empire, les délibérations de la chambre de commerce de Paris regorgent de résolutions où elle se dit hostile à tout privilège et réclame la réduction des droits de navigation. Consulter par exemple, la délibération du 9 septembre 1853. 91 sommeiller depuis 1848. Les industriels de Mulhouse, avec l'appui de ceux de Champagne, appelaient à sa réalisation depuis 1857. En outre, après avoir renoncé au projet d'une compagnie du Nord-Est, ils reprochèrent à l'État d'avoir délaissé ce canal, cet abandon revenait, pour eux, à livrer les industriels au monopole de la Compagnie de l'Est qui leur imposait ses tarifs pour l'acheminement des charbons de la Sarre 313 . De leur côté, les houillères de Ronchamp et d'Épinac, exigeaient des aménagements susceptibles de leur ouvrir des débouchés vers l'Est, sur les canaux du Centre, du Rhône et de la Marne au Rhin. La compagnie ferroviaire invoquait la hausse des prix du charbon et justifiait le tarif différentiel de 4 centimes qu'elle imposait, pour les distances excédant les 240 km314. Afin de satisfaire aux réclamations des industriels, elle suggérait l'établissement d'une ligne déficitaire avec la garantie de l'État. En Haute-Marne, les industriels se plaignaient d'une desserte fluviale insuffisante et d'une voie ferrée jugée trop onéreuse. L'état des canaux rendait la navigation intermittente, laborieuse et lente, elle exigeait, en permanence, réparations et de longs chômages. Sur le canal de la Marne au Rhin, l'enfoncement théorique des bateaux de 1,80 m à 2 m n'était que rarement obtenu, notamment parce que les écluses se révélaient insuffisantes315. Les progrès des ingénieurs en matière de régulation des cours d'eau encouragèrent d'autant plus l'action de ces groupes d'intérêt favorables à l'extension des voies navigables. L'ingénieur Poirée avait construit le premier barrage mobile en 1834. L'ingénieur Thénard aménage un nouveau type de barrage sur l'Isle, qui n'est devenu réellement opérationnel que grâce aux perfectionnements de Chanoine, il fut appliqué pour la première fois en 1857, sur la Seine, à Conflans-Sainte-Honorine. Louiche Desfontaines construisit le premier barrage à tambour sur la Marne à Damery. Toutes ces innovations ne pouvaient que conforter les espoirs en faveur d'un relèvement de la batellerie, laissant entrevoir de vastes travaux de canalisation des cours d'eauDans le même temps, la relative déception suscitée par le développement des chemins de fer alimenta ces espérances. En effet, industriels et commerçants déploraient plus en plus l'insuffisance des matériels fournis durant les périodes 313 « Tribunal de commerce de la Seine. Audience du 13 juin 1861. Ventes de charbon par la Compagnie de l'Est. Concurrence aux négociants en charbons. Dommages-intérêts », in Comité des houillères françaises, Navigation intérieure de la France. Amélioration des rivières et des canaux, Paris, Imprimerie de A. Guyot et Scribe, 1861, pp.153-154. 314 Dollfus, Schlumberger, Kestner 315 Soit une longueur de 34,50 m sur la jonction contre 35 m pour les canaux du Nord. L'enfoncement pratiqué ne se montait donc qu'à 1,40 m. Voir : Comité des houillères françaises, Navigation intérieure de la France. Amélioration des rivières et des canaux, Paris, Imprimerie de A. Guyot et Scribe, 1861, pp.173-176. 92 de trafic intense, le développement n'avait pas procuré tous les avantages attendus316. La voie ferrée se trouvait en quelque sorte victime de ses propres succès. Les crises que connaissaient les transports paralysaient chroniquement les transactions. Ainsi peut-on citer le cas d'un marchand qui n'avait reçu que dix quinze wagons en novembre et décembre 1861, alors qu'il en avait réceptionnés une soixantaine au mois de septembre de la même année 317 L'autre problème consistait, bien entendu, dans les tarifs que les industriels estimaient toujours excessifs, alors que les compagnies de chemins de fer se refusaient à toute réduction, arguant qu'elles avaient atteint la limite des concessions possibles. L'opinion se répandit selon laquelle ces dernières ne pouvaient effectuer des transports aussi économiques que ceux proposés par la batellerie dont les frais ne comprenaient que la location des chevaux et le prix du chaland de 12 000 francs, pour une cargaison équivalente portée par 30 wagons ordinaires, qui en valait au moins 100 000 francs 318 . Les clients se plaignaient surtout des tarifs arbitraires. Les compagnies, particulièrement celle du Nord, pratiquaient des tarifs préférentiels là où s'exerçait la concurrence avec la voie d'eau319. La Compagnie du Nord établit, en 1863, un tarif pour les houilles, avec Paris pour destination, elle se proposait de transporter au même prix de 7,80 francs la tonne, les houilles britanniques depuis Calais, les houilles belges depuis Quiévrain, les houilles françaises depuis Lens Les expéditeurs anglais se voyaient ainsi octroyer 116 km de transports gratuits pour les dissuader d'emprunter les canaux du Nord320. De la même façon, les Belges bénéficiaient de 52 km pour empêcher que leurs houilles n'empruntent la Sambre La même compagnie favorisait les gros consommateurs et les incitaient à ne plus faire appel aux mariniers, elle avait ainsi signé un traité avec le Gaz parisien qui s'engagea à ne pas recourir à la batellerie afin de profiter d'un prix sensiblement réduit qui ne tenait plus compte des distances kilométriques321. Les élus locaux des département du Nord et du Pas-deCalais étaient bien conscients de la politique tarifaire de la Compagnie du Nord, et réclamaient l'établissement d'un tirant d'eau de 2 mètres sur l'ensemble du réseau du Nord. 316 Paul Léon, Fleuves, canaux, op. cit., pp. 16-17. Amédée Burat, Situation de l'industrie houillère en 1861, Comité des Houillères françaises, Paris, Comité des Houillères françaises, Lacroix, 1862. 318 Paul Léon, ibid., p.18. 319 Archives nationales, site Pierrefitte. 48AQ348. 320 Preuve que les voies navigables n'avaient pas l'exclusivité pour favoriser les importations de charbons étrangers François Caron, Histoire de l'exploitation d'un grand réseau, op. cit., p.133. 321 Comité des houillères françaises, Situation de l'industrie houillère en 1866, Paris, Imprimerie de A. Guyot et Scribe, 1867, 1866, p.130. 317 93 De même, ils exigeaient la réduction progressive des tarifs dans la perspective d'une suppression complète322. L'endurance étonnante des voies navigables du Nord, dont le réseau avait bénéficié d'aménagements décisifs, notamment concernant le tirant d'eau, avait encouragé le commerce et l'industrie à attiser la rivalité entre la navigation intérieure et les chemins de fer. Un des signes de cette résistance résidait dans l'écart d'au moins 10% entre les frets globaux et les frets sur la ligne Mons-Paris323. La concurrence devait inciter ces derniers à réduire davantage leurs tarifs, multiplier les ramifications, ainsi qu'à améliorer leur exploitation. En un sens, les canaux du Nord de la France devaient servir de modèle pour faire renaître un réseau de navigation intérieure moderne. Tonnages -kilométriques Graphique 6. Trafic du canal de Saint-Quentin 1849-1867. 200 000 000 180 000 000 160 000 000 140 000 000 120 000 000 100 000 000 80 000 000 60 000 000 40 000 000 20 000 000 0 Sources : Navigation intérieure, Administration des contributions indirectes. Relevés du tonnage des marchandises par classe et par cours d'eau tant à la descente qu'à la remonte pendant les années 1849-1867. 322 AN (site de Pierrefitte-sur-Seine) F14 7074 ; Rapport du Préfet du Nord en date du 24 mai 1870. Voeux du Conseil général du Nord. Sessions 1867-1868. 323 Jean-Claude Toutain, « Les transports en France, op. cit., p.108 . De 1835 à 1845, les frets ont oscillé de 2 à 3 centimes, droits inclus, et de 3-4 centimes droits inclus. 94 La nécessité d'améliorer les conditions de navigation sur la Seine pour approvisionner Paris était apparue évidente dès la fin de la Monarchie de Juillet. Concernant la Haute-Seine, un projet avait déjà été élaboré et adopté en 1845-1846, en vue d'obtenir un mouillage d'au moins un mètre au plein de l'éclusée. Les travaux entrepris sur les fonds des lois du 19 juillet et du 21 mai 1846, comportaient en amont de Paris, la reconstruction de l'écluse et la dérivation de Nogent, l'amélioration de la traversée de Melun et Corbeil et la complète restauration des chemins de halage ainsi que l'endiguement du lit du fleuve. Des barrages mobiles étagés et accompagnés d'écluses en rivière ou en dérivation ont permis d'obtenir en petite Seine, c'est-à-dire de Nogent à Montereau, un tirant d'eau supérieur à celui antérieur qui permit de porter à un mètre, lorsque les eaux ne s'avéraient pas suffisamment hautes pour procurer une navigation convenable. En aval de Montereau, section dite aussi de « grande Seine », un tirant d'eau suffisant pour les besoins du commerce avait été obtenu, grâce à des lignes de rétrécissement, de dragage de hauts fonds et des écluses combinées de l'Yonne et de la petite Seine. On a remédié aux corrosions des rives et à l'exhaussement des graviers par la protection contre les attaques des eaux par des ouvrages de renfort sur les berges du fleuve. L'écluse de la Monnaie présentant une largeur identique et une longueur utile de 113 m. Le tirant d'eau, à l'étiage, s'élevait en amont de Montereau à près de 0,50 m et 0,70m et 0,80 m en aval324. Les travaux réalisés dans les années 1840-1850 s'étaient pourtant révélés insuffisants, l'ingénieur Chanoine en dressa d'ailleurs un état peu reluisant 325 Afin d'obtenir le mouillage recherché et renforcer le débit sur un parcours d'une centaine de kilomètres, il préconisa de bâtir trois barrages à hausses. Son programme fut approuvé par le décret du 17 septembre 1859 et complété en 1860. Neuf barrages éclusés de type Chanoine entre 1859 et 1868 furent ainsi établis, possédant des écluses de dimensions imposantes avec 12 m de largeur et 180 m de longueur utile de façon à autoriser le passage de douze bateaux ou bien de quatre trains de bois à brûler 326 . L'Yonne formait, en effet, un axe stratégique reliant la capitale aux bassins de la Loire par le canal du Nivernais, de la Saône et du Rhône par le 324 AN (site de Pierrefitte-sur-Seine), F 14 6819 et 6820 : Amélioration de la navigation de la Seine, 1741-1877. Jacques Henri Chanoine, Ministère de l'Agriculture, du commerce et des Travaux Publics. Navigation de la Seine. 1ère section, de l'embouchure du canal de Troyes à Paris. Mémoire sur les travaux projetés pour l'amélioration de la navigation de la partie de la Haute-Seine comprise entre Paris et Montereau, Paris : impr. de G. Jousset, Clet et Cie, 1859, 29p 326 Jacques Cambuzat, « Note sur les barrages mobiles du système Poirée et du système Chanoine qui fonctionnent simultanément pour les éclusées de l'Yonne », in Annales des Ponts et Chaussées. Mémoires et documents relatifs à l'art des constructions et au service de l'ingénieur ; lois, ordonnances et autres actes concernant l'administration des Ponts et Chaussées, Paris, N°146, 4e série, Paris, Dunod, Éditeur, 1867, pp.135138. 325 95 canal de Bourgogne, la section commune de ces deux directions étant le tronçon LarocheMontereau d'une longueur de 92 km. Les barrages n'étaient pas de type Poirée, l'ingénieur des Ponts et Chaussées Chanoine avait effectivement mis au point un nouveau type de retenue composé de panneaux de bois nommés « hausses », qui lui conférèrent le nom de barrages à hausses mobiles327. Ce nouveau type d'écluses était censé permettre le passage d'une douzaine de bateaux ou quatre trains de bois à brûler 328 . Figure 5. Hausse Chanoine dotée d'une passerelle sur fermettes en amont (pertuis navigable de Port-à-l'Anglais sur la Seine (Source : François Beaudoin, « La canalisation de la Seine par barrages mobiles éclusés au XIXe siècle. Les premiers travaux touchant l'amélioration des conditions de navigation sur la Basse Seine furent effectués au début des années 1850, sur la base de la loi du 19 juillet 1837. Ils furent terminés avec l'installation des barrages de type Poirée à Poses en 1850 et Meulan en 1853 Pourtant, la construction de ces deux barrages ne permit pas d'améliorer les conditions de navigation dans les proportions espérées. Le premier objectif en vue de fixer le tirant d'eau à 1,60 m n'avait en effet pas été atteint, si bien que l'Administration comprit la nécessité de porter le mouillage à 2 m. Une série de décrets avait été publiée prévoyant l'exhaussement de deux des cinq barrages éclusés existants, c'est-à-dire Bezons et Andrésy et la création de trois nouveaux barrages éclusés de type Poirée, l'un à Martot sur l'Eure, en 327 Jacques Henri Chanoine, Henri-Melchior de Lagrené, Mémoire sur les barrages mobiles à hausse, Paris, Dunod éditeur, 1862, 179p. 328 Plus précisément 12 bateaux de 30 x 5 m ou quatre trains de bois à brûler de 4,80x90 m. 96 vertu d'un décret de 1861, l'autre à Suresnes (décret de 1864) et le troisième à Suresnes (décret de 1866). Le tirant d'eau entre Paris et l'Oise atteignit 2 m en 1868, même s'il ne s'élevait qu'à 1,10 m entre Conflans-Sainte-Honorine et Rouen. Figure 6 Tirants d'eau avant et après la canalisation de la Seine. Source : François Beaudoin, « La canalisation de la Seine par barrages mobiles éclusés au XIX e siècle », dans les Cahiers du Musée de la batellerie, n°2, décembre 1988, p.3. L'Administration s'occupa également de la section maritime du fleuve, le mascaret représentant une gêne pour la navigation jusqu'à La Mailleraye. Pléthore de navires avaient sombré, une centaine d'entre eux ont été perdus à Tancarville et Caudebec du 1er janvier 1830 au 1er janvier 1832. Le Second Empire poursuivit en fait des travaux qui avaient été amorcés dès 1846329 et qui visaient à obtenir un chenal de 28 km, en allongeant les digues dans le chenal de navigation : 8,5 millions de francs furent accordés par les décrets des 19 janvier 1852, 3 août 1853, 14 janvier 1861 et du 12 août 1863. L'aménagement du chenal contribua à une meilleure direction des courants, ceux-ci continuant à exercer leur influence dans la partie 329 Loi du 31 mai 1846. 97 de l'embouchure longue de 17 km d'Honfleur à la mer. Ces réalisations portèrent leurs fruits dans la mesure où vers la fin du Second Empire330, la Basse-Seine desservait un puissant courant commercial, le volume s'élevait annuellement autour de 200 millions de tonneskilométriques331, entre Paris et Rouen, soit près du cinquième du total du trafic navigable332. Graphique 7. Mouvement de la navigation de Paris à Rouen sur la période 1848-1866. 250 000 000 Tonnages kilométriques 200 000 000 150 000 000 100 000 000 50 000 000 1848 1849 1850 1851 1852 1853 1854 1855 1856 1857 1858 1859 1860 1861 1862 1863 1864 1865 1866 0 Sources : Navigation intérieure, Administration des contributions indirectes. Relevés du tonnage des marchandises par classe et par cours d'eau tant à la descente qu'à la remonte pendant les années 1849-1867. La Marne fut de même l'objet de divers travaux d'amélioration. Les aménagements sur la rivière, à partir de son point de jonction avec la Seine jusqu'à Dizy et son point de départ du canal latéral à la Marne, furent achevés en 1845333, cet axe constituait la première partie de la ligne Paris-Strasbourg 334 . Certaines améliorations visaient à couper les nombreuses boucles du cours d'eau et des dérivations, elles étaient prévues pour être opérationnelles avant 1850 : canal de Saint-Maur en 1825, canal de Meaux à Chalifert entre 1837 et 1848, etc. Parmi ces travaux, certains furent achevés après 1860 : canal de SaintMaurice et dérivation de Chelles. Cependant, l'aménagement véritable de la rivière ne fut 330 Michèle Merger, « La politique de la IIIème République », op. cit., p.35. 261 539 724 tonnes-kilométriques en 1866. Voir Navigation intérieure, Administration des contributions indirectes. Relevés du tonnage des marchandises par classe et par cours d'eau tant à la descente qu'à la remonte pendant l'année 1866, pp.136-137. 332 Michèle Merger, « Voies navigables, op. cit., p.1324. 333 Ernest Grangez, Précis historique et statistique des voies navigables de la France et d'une partie de la Belgique, Paris, N. Chaix, 1855, pp.374-375. 334 Ernest Grangez, Ibid, pp.365-369. 331 98 réellement engagé qu'à partir de 1857 où fut établi le premier barrage à tambour à Damery, par son inventeur, l'ingénieur Louiche Desfontaines, ne faisait en réalité que préluder l'établissement de quatorze barrages, dont neuf éclusés du type analogue et prévus par le décret du 24 mars 1860 Malheureusement, ces efforts se révélèrent décevants dans la mesure où la Marne, malgré les travaux, n'offrait souvent qu'un tirant d'eau égal à 1,40 m335. L'action du Second Empire porta également sur la continuation de travaux de construction ou même le creusement de nouveaux canaux. Entre 1850 et 1870, ce furent près de 630 km qui furent ouverts au trafic. Le canal de la Marne au Rhin fut réalisé à partir de 1846, en concomitance et par les mêmes ingénieurs, avec la ligne de chemin de fer ParisStrasbourg : la section entre Vitry et Nancy fut mise en service en novembre 1851, celle entre Nancy et Strasbourg en octobre 1853, comportant 178 éclusées sur 314 km. Le canal de l'Aisne à la Marne a été ouvert à la navigation en 1866 entre Berry-au-Bac et Condé sur la Marne, comportant 24 écluses sur une longueur de 58 km. L'administration des Travaux publics se préoccupa aussi d'optimiser les conditions de navigation des canaux creusés avant 1851 pour une meilleure alimentation en eau, difficulté qui se révéla particulièrement aiguë en ce qui concernait les biefs de partage. Les ingénieurs jusqu'en 1870 s'efforcèrent de remédier à ce problème grâce à l'alimentation naturelle, en établissant des réservoirs d'eau, généralement à proximité des biefs de partage et par la construction de prises d'eau établies le long de rivières près du canal en vue de l'alimenter par des rigoles d'écoulement. Les travaux les plus notables furent le canal du Centre, reliant la Loire à la Saône entre Digoin et Chalon. L'État procéda à divers travaux d'étanchement des cuvettes des canaux de Bourgogne, du Berry, du Nivernais, du Rhône au Rhin, de l'Aisne à la Marne, de Saint-Quentin, de la Somme La longueur des canaux concédés dépassait 3 000 km, en 1851, dont 1 182 étaient réellement fréquentés. Des mesures relatives à l'abaissement des droits de navigation, droits perçus au profit du Trésor sans affectation particulière, furent adoptées dès le 22 août 1860, date d'un décret annonçant la baisse des droits et fixant des tarifs particuliers pour six types de canaux. Pour les rivières ou canaux assimilés aux rivières (à l'instar du canal de Bourgogne), les droits s'élevaient entre 0,002 et 0,001 francs par tonne-kilométrique, tandis que sur les rivières canalisées assimilées aux canaux, (Aa, Escaut, Loire, Oise canalisée, Scarpe supérieure) et sur les canaux, les droits variaient entre 0,005 et 0,002 francs. Face au 335 Philippe Delorme, « Jules Rozet maître de forges et notable en Haute-Marne au XIXe siècle (18001871) », thèse de doctorat en Histoire sous la direction de Denis Woronoff soutenue en 2002 à Paris 1, troisième partie, chapitre 4, sous-partie II. 99 recul du trafic navigable, le gouvernement impérial alla jusqu'à envisager la suppression de ces droits336. Les dépenses consenties pour le réseau fluvial entre 1852 et 1870 se montèrent à 450 millions de francs. Les dépenses moyennes annuelles avaient atteint 23,7 millions de francs, dont 14,9 millions pour les fleuves et les rivières et 8,7 millions pour les canaux. Si ces chiffres paraissaient légèrement inférieurs à ceux de la Monarchie de Juillet, de près de 17%, les travaux de canalisation des rivières avaient été plus importants, ce qui explique la hausse de 28% par rapport à la période 1830-1848 337 . Le Second Empire consacra la moitié des dépenses aux travaux d'entretien, soit 47%, cette progression des dépenses ordinaires se justifiait par l'octroi de crédits spéciaux pour l'aménagement des fleuves et l'entretien des rivières canalisées. Tableau 3. Dépenses consenties pour le réseau fluvial français entre 1852 et 1870. Dépenses Dépenses extraordinaires. Totales ordinaires. Moyennes Totales annuelles Total des dépenses Moyennes Total annuelles Moyennes annuelles. Rivières 162 419 8 548 122 369 6 440 284 788 14 988 Canaux 76 371 4 020 89798 4 726 166 169 8 746 Ensemble 238 790 125 568 212167 11 166 450 957 23 734 Source : Ministère des Travaux publics, actes législatifs concernant les travaux de navigation intérieure et maritimes, 1814-1900, Paris, 1902. Les aménagements sur les rivières et les canaux ne pouvant s'accomplir à brève échéance, le régime impérial se lança dans une politique de rachat de canaux, politique qui coïncida avec un abaissement des droits perçus sur la navigation par le fisc 338 . Le gouvernement procéda à de nombreux rachats, tout en concédant le canal latéral à la Garonne et son prolongement, le canal du Midi. La loi du 29 mai 1845 avait prévu les rachats des canaux du Rhône au Rhin, de Bourgogne, des Quatre-Canaux (Nivernais, Berry, Bretagne, Canal latéral à la Loire). Trois Décrets lois du 21 janvier 1852 décidèrent l'application de la loi de 1845, fixant à plus de 23 millions de francs le total des indemnités à verser aux sociétés soumissionnaires des emprunts contractés en vertu des lois de 1821-1822339. L'Administration 336 Toutefois, il fallut attendre 1880 au lendemain de l'adoption du plan Freycinet . Michèle Merger, « Voies navigables », op. cit., pp.1322-1325. 338 Louis Girard, La politique des travaux publics , op. cit., p.302. 339 Nathalie Montel, « L'État aménageur dans la France de la Seconde Restauration, au prisme du Rapport au roi sur a navigation intérieure de 1820 », in Revue d'histoire moderne et contemporaine, 2012/1 n°59-1, p55-56. 337 100 procéda aux rachats de divers canaux à partir de 1863 : ceux de Briare, du Loing, de la Somme, des Ardennes, d'Orléans, de Roanne à Digoin Le total s'élevait à plus de 53 millions de francs. La politique du Second Empire manqua pourtant de cohérence de ce point de vue. D'un côté, les décrets de 1860 marquèrent un tournant décisif, dans la mesure où les pouvoirs publics considéraient que travaux fluviaux allaient être réalisés à perte, et que leur entretien s'accomplirait largement aux frais de l'État, à l'instar des routes impériales340. D'un autre côté, le revers de la médaille résidait dans le fait que les créations de nouveaux canaux tendraient à se raréfier. De même, comme l'a fait involontairement observé Clément Colson341, on pouvait s'interroger sur une politique de rachats bien plus onéreuse que ce qu'ils avaient pu rapporter. Les Quatre-Canaux se trouvaient en déficit de 500 000 francs, mais leurs actions furent rachetées pour 17 millions. Le canal du Rhône au Rhin avait été racheté 13 millions, alors qu'il n'avait produit annuellement que 40 000 francs, celui de Bourgogne 10 millions. Cela signifiait une différence de 40 millions pour racheter des produits déjà existants. Autrement dit, les compagnies se voyaient octroyer un « véritable bénéfice fictif342 ». La politique de concession, puis de rachat, s'était donc révélée fort onéreuse, et c'était autant d'argent qui aurait pu servir à la modernisation des voies navigables En ce sens, les critiques dénonçant les dépenses somptuaires consenties en faveur des canaux, négligent souvent le fait qu'une partie des fonds qui leur ont été alloués ont consisté au remboursement de concessions qui n'étaient guère rentables, et dont le rachat s'était révélé plus avantageux pour l'ancien concessionnaire que pour l'essor du commerce fluvial343. Le rachat des actions de jouissance des canaux s'était, en fait, inscrit dans le prolongement des concessions des chemins de fer. Malgré les réserves exprimées plus haut, la politique menée à partir des années 1860 marqua quand même des points : le trafic progressa de 85% sur les canaux desservant le territoire sous le contrôle de la Compagnie du Nord. La batellerie transporta, en 1869, les trois cinquièmes du trafic des chemins de fer, soit 2,5 millions de tonnes contre 3,5 millions. Le trafic s'élevait à 250 millions de tonnes kilométriques. La Compagnie du Nord qui n'avait pas réagi assez énergiquement, se vit contrainte de reprendre sa politique de tarifs réduits entre 1863 et 1867. Il s'agissait de rétablir un équilibre plus favorable et d'empêcher que de 340 Louis Girard, La politique des travaux publics, op. cit., p.302. « Involontairement », dans le sens que Clément Colson est un des plus redoutables adversaires des voies navigables, ou tout au moins, des dépenses publiques en faveur de ce mode de transport. Clément Colson, Transports et tarifs : régime administratif des voies de communications. Conditions techniques et commerciales des transports, 1908, pp.147-149. 342 Louis Girard, La politique des travaux publics , op. cit., p.302. 343 Dans le chapitre suivant et le troisième chapitre, on verra qu'un constat similaire pouvait être formulé à l'égard du rachat des canaux de Paris. 341 101 nouvelles habitudes en faveur de la batellerie ne fussent reprises La concurrence ne s'exerça pas sur les transports sur longues distances durant les années 1850-1860344, car la batellerie perdit du terrain sur les importations de houilles belges en France, le chemin de fer assurant 17,4% du trafic en 1855, 40% en 1858 et 68% en 1872, les canaux ne connaissant une évolution positive que sporadiquement en 1856 grâce aux relèvements tarifaires ferroviaires, en 1861, après la réduction des droits de navigation. La concurrence porta en revanche sur les matières premières portées sur un faible rayon : la houille, les betteraves, engrais et bois Dans les départements du Nord, les canaux étaient encore largement employés par les industries locales souvent situées de longue date sur la voie d'eau : à Eblinger, Saint-Omer, Watten, Audruicq où les transports s'effectuaient presque exclusivement par eau ! Vers la fin du Second Empire, sur la ligne Mons-Paris, la plus représentative sans doute du trafic navigable, le fret moyen d'une tonne de houille se montait à 6,40 francs contre 7,40 francs pour les voies ferrées quel que fût le parcours345. Les tarifs des marchandises convoyées par la batellerie se révélèrent inférieurs aux tarifs moyens, tandis que celles à grande vitesse échappaient au trafic navigable (produits frais) et leurs tarifs avaient été maintenus à un niveau élevé Malgré la volonté farouche des chemins de fer d'asséner un coup fatal à la navigation intérieure, les mariniers résistèrent par une baisse, en premier lieu, de leurs prix. Les frets évalués en tonnes-kilométriques sont ainsi passés de 5,3 centimes en moyenne en 1845 à une moyenne de 3,6 centimes en 1855 sur Paris-Rouen, de 3,76 à 3,04 centimes sur Paris-Lens. Le pouvoir impérial accorda par ailleurs son soutien en allégeant les charges de la batellerie. En effet, les conditions de travail des mariniers étaient loin d'être idylliques pour la petite batellerie du Nord, et cela, en dépit de sa résistance héroïque 346 . Les mariniers adressèrent de nombreuses pétitions à l'Empereur entre 1857 et 1860 pour faire état de leur situation. Ces documents permettent de mesurer la précarité de leur profession347. Le voyage entre Mons et Paris était rémunéré à hauteur de 1 867 francs. Les droits de navigation en absorbaient 580 francs, l'intérêt et l'amortissement se montant à 400 francs. Le marinier percevait, de ce fait, journellement 80 centimes et perdait près de 1,10 franc. Pour remédier à cette situation, l'État poursuivit le rachat des canaux de l'Escaut et de Saint-Quentin en 1860, ce qui contribua à un abaissement sensible du fret sur cet axe. Les réductions des droits de 344 François Caron, Histoire de l'exploitation d'un grand réseau, op. cit., pp.160-161. En 1861, le fret moyen pour une tonne transportée s'élevait à 11 francs de Charleroi à Paris et de 7 francs pour le parcours entre Mons et la capitale. Consulter : Comité des houillères françaises, Navigation intérieure de la France. Amélioration des rivières et des canaux, Paris, Imprimerie de A. Guyot et Scribe, 1861, p.130. 346 Paul Léon, Fleuves, canaux, op. cit., p.17. 347 AN (site de Pierrefitte-sur-Seine), F14 14629 : Pétition des mariniers du Nord, 29 novembre 1859. 345 102 navigation perçus sur la navigation en 1860, 1863 produisirent un effet global avec un fret moyen qui tomba à 1,83 centime348. Les économistes à la base du plan Freycinet 349 n'ont donc pas été les principaux contributeurs du redressement de la navigation intérieure. En effet, tel ne fut pas le cas. La contestation contre l'hégémonie des chemins de fer et la refonte de la batellerie remontent quasiment aux origines de la concurrence entre les deux modes de transport. Mieux encore, plus spécifiquement après le tournant libéral, l'administration impériale s'est impliquée davantage, plus ou moins de bon gré d'ailleurs, dans la modernisation du réseau fluvial national. Si les tonnages transportés par les voies ferrées avaient surpassé ceux des voies navigables dès 1857, et si la primauté semblait désormais revenir aux premières, « l'hémorragie fluviale » paraissait s'être stabilisée. Comme on a pu se rendre compte, la pensée de Napoléon III visait plus à maintenir une concurrence raisonnable que d'empêcher réellement le nouveau mode de transport d'anéantir l'ancien350. Sur certains aspects, la France demeurait encore un pays en plein développement, surtout en comparaison du voisin britannique, alors au faîte de sa puissance et la priorité semblait passer par l'extension des infrastructures 351 . Dans les faits, il y avait finalement plus de continuité qu'une rupture radicale entre la politique menée en matière de navigation intérieure par le Second Empire et la IIIème République. B. Activité fluviale à Paris sous le Second Empire. 1. Un contexte économique propice au développement de la capitale. La capitale constituait, bien évidemment, la pierre angulaire du réseau fluvial français, et il importe donc de s'intéresser plus précisément à comment l'activité portuaire s'est comportée face à l'émergence des chemins de fer. Le premier constat est que les voies ferrées ne sont finalement pas parvenues à ruiner les voies navigables à Paris352. Si le Second Empire ne s'est pas impliqué de manière considérable dans l'essor de la navigation intérieure, il n'en demeurait pas moins que : « La décennie 1850-1860 tient une place exceptionnelle dans l'histoire économique française. C'est à la fois l'apogée de la prospérité agricole, la 348 Michèle Merger, « La concurrence rail-navigation intérieure en France, 1850-1914 », Histoire, Économie, Société, 1, 1990, p.71. 349 F. Bertauld, La Navigation intérieure et la concurrence étrangère (l'amendement Versigny), Montdidier, Imprimerie Hourdequin-Deschaux, 1888, 32p. 350 Louis Girard, La politique des Travaux publics, op. cit., pp.300-309. 351 Paul Bairoch, « Commerce extérieur et développement économique : quelques enseignements de l'expérience libre-échangiste de la France au XIXe siècle», in Revue économique, volume 21, n°1, 1970, p.3. 352 Jeanne Gaillard, Paris, la ville, op. cit., pp.362-363. 103 naissance du système bancaire moderne, l'ère des grands travaux de rénovation urbaine, la phase décisive de la révolution ferroviaire» 353 . La métallurgie est devenue une branche motrice, avec le déclin de la production des hauts fourneaux au charbon de bois, tandis que le nombre et la capacité moyenne des hauts fourneaux au coke a crû rapidement. En parallèle à l'extension des chemins de fer évoquée précédemment, la construction de matériel ferroviaire contribua à un essor remarquable de cette industrie, la France devenant vers 1860, exportatrice dans ce domaine. Concernant Paris, trois facteurs expliquaient la croissance de la navigation fluviale : la croissance démographique de la ville, l'essor du bâtiment et de l'industrie De fait, la population parisienne est passée de 935 261 habitants en 1840, 1 053 262 en 1851, 1 174 346 en 1856 354 , cette croissance était due principalement à l'immigration : sur les 197 256 habitants acquis par le département de la Seine entre 1856 et 1866, 150 007 étaient des immigrés, soit 75% du total 355. Avec l'annexion des hauteurs de Paris décidées autour de 1859, la Ville en comprenait près de 600 000 habitants de plus pour en abriter en 1866, 1,8 million356. La ville grossissait donc au rythme annuel de 25 000 habitants357. Il fallait noter que la poussée démographique avait particulièrement profité aux quartiers les plus industriels : 15e, 19e, 10e et 13e358 L'édification de l'enceinte fortifiée, dite « enceinte de Thiers », laissa une bande circulaire de onze communes entre elle et la ligne d'octroi : Auteuil, Passy, Les BatignollesMonceaux, Montmartre, La Chapelle, La Villette, Belleville, Charonne, Bercy, Vaugirard et Grenelle Ainsi que treize portions de communes où l'industrie, la voirie et la construction avaient pris leur essor dans une certaine confusion, laissant de ce fait de nombreux espaces vides. Si l'annexion semblait nécessaire, elle avait pris du retard en raison de trop nombreux intérêts particuliers, par exemple, les industriels et ouvriers qui s'étaient établis afin d'être 353 Jean-Charles Asselain, Histoire économique de la France du XVIII ème siècle à nos jours, Point, Le Seuil, pp.146-147. 354 Sur la population, consulter : Ibid., p.133. Louis Chevalier, La Formation de la population parisienne au XIXe siècle, PUF, collection Travaux et documents/Institut national d'études démographique, 1949, 312 p. Louis Girard, Nouvelle histoire de Paris. La Deuxième République et le Second Empire (1848-1870), Paris, Hachette, 1981, pp.135-140. Voir aussi Jeanne Gaillard, Paris, la ville (1852-1870), Paris, L'Harmattan, 1997, pp.133-169. 355 Ibid. 356 François Maury, Le port de Paris, op. cit., p.165. 357 La population du département de la Seine, déjà urbanisé à 90%, vers le milieu du XIX e siècle, croissait au rythme annuel de 2,49% de 1831 à 1861. Sur les liens entre démographie et construction, voir Michel Lescure, Les Banques l'État et le marché immobilier en France à l'époque contemporaine 1820-1940, Paris, École des Hautes Études en Sciences Sociales, 622p. 358 Nathalie Montel, « L'agrandissement de Paris en 1860, un projet controversé », in Florence Bourillon et Annie Fourcaut (dir.), Agrandir Paris, 1860-1970, Paris, Publications de la Sorbonne / Comité d'histoire de la Ville de Paris, pp.99-112. Michel Carmona, Haussmann, Paris, Éditions Fayard, 2000, pp.403-444. 104 préservés des taxes. Napoléon III tergiversa, mais il se décida d'imposer l'annexion qui prit effet le 1er janvier 1860, s'étendant à la zone « non aedificanti » de 200 m entourant l'enceinte. Le nombre d'arrondissements passa de cette manière de 12 à 20, ceux de la périphérie étant à cheval sur l'ancienne ville et la banlieue. La zone ainsi annexée s'étendait sur 38 000 ha, renfermant plus de 35 000 habitants359. Parallèlement et corrélativement à cette poussée démographique, le bâtiment connut une croissance remarquable360. Cette industrie occupa une place singulièrement prépondérante dans les années correspondant à la fin de la Monarchie de Juillet et surtout au Second Empire361 : 15,6% de la valeur ajoutée dans le produit global de l'industrie française, pour la période 1845-1854, 16,9% pour la période 1855-1864 et 16,8% au cours des années 18651874362. La moyenne annuelle de maisons bâties entre 1821 et 1850 s'éleva à 262, le chiffre monta à 1 240 maisons par an dans Paris proprement dit et 3 588 dans les communes de la proche banlieue entre 1850 et 1860. Après 1860, ces chiffres dépassèrent les moyennes annuelles précédentes pour atteindre 4 677 pour l'ancien Paris et la proche banlieue réunis. Les constructions entières sont passées de 1 277 à 2 418, la valeur des immeubles se montant de 2,577 à six milliards de francs entre 1852 et la fin du Second Empire avec une plus-value des maisons anciennes de 1,5 millions de francs363. Paris comptait 26 801 maisons en 1817, la ville n'en refermait que 30 175 en 1857, soit seulement 3 374 de plus. Or, de nombreux édifices surgirent après cette date, et avec l'annexe des communes limitrophes, le nombre de maisons dans l'enceinte s'éleva à 55 160. En 1872, malgré les destructions de la Commune, on comptait quand même encore 64 203 maisons 364 . Les travaux de voirie ouvrirent des terrains nus à la construction neuve et suscitèrent la reconstruction des immeubles anciens. L'industrie du bâtiment a donc pris un essor considérable à partir de 1855. En termes d'effectifs, les enquêtes de la chambre de commerce la figuraient à la seconde place après l'habillement, soit 12% en 1847 pour 41 000 salariés, 17% en 1860 avec 71 000 salariés. Pour ce qui était du chiffre d'affaires, l'industrie du bâtiment figurait en troisième place après 359 Michèle Fleury, « Paris », Dictionnaire du Second Empire Louis Girard, Nouvelle histoire de Paris. La Deuxième République et le Second Empire (1848-1870), Paris, Hachette, 1981, pp. 171-203. Voir aussi Jeanne Gaillard, Paris, la ville (1852-1870), Paris, L'Harmattan, 1997, pp.124. Michel Carmona, Haussmann, Paris, Éditions Fayard, 2000, pp.454-564 ; Christian Topalov, Le logement en France. Histoire d'une marchandise impossible, Paris, Presses de la Fondation nationale des sciences politiques, 1987, pp.108-109. 361 Maurice Lévy-Leboyer, « La croissance économique en France au XIXe siècle. Résultats préliminaires », in Annales. Économies, Sociétés, Civilisations , 1968, volume 23, n°4, p.800. 362 Michel Lescure, Les Banques l'État et le marché immobilier en France à l'époque contemporaine 1820-1940, Paris, École des Hautes Études en Sciences Sociales, 1982, p.25. 363 Jeanne Gaillard, Paris, la ville, op. cit., p.61. 364 François Maury, Le port de Paris, op. cit., p.159. 360 105 l'habillement et l'alimentation, à savoir 145 millions en 1847365. L'enquête de 1860 dénombra 5 378 entreprises de construction, leur chiffre d'affaires est passé à plus de 315 millions de francs par an, c'est-à-dire près du dixième de la valeur de la production totale de Paris366. Les briqueteries de la région parisienne connurent une prospérité extraordinaire, les usines de Paris fabriquait en effet à elles-seules 100 millions de briques, tuiles et carreaux, soit un chiffre supérieur à celui de la Seine et Marne, des arrondissements de Sceaux et de SaintDenis réunis 367! Le percement des boulevards constituaient autant de débouchés pour la navigation fluviale, car ils supposaient à la fois des évacuations de déblais et l'acheminement de matériaux de construction368. Haussmann procéda à diverses percées : la vieille croisée de Paris a été substituée par les axes ouest-est (Champs-Élysées, rue de Rivoli) et Nord-Sud (boulevard de Strasbourg, Sébastopol et Saint-Michel). Les élargissements étaient jugés trop onéreux, c'est pourquoi l'on procéda à d'autres percées formant un système de voies et de place, le plus souvent en double réseau concentrique, lui-même relié par des diagonales. Les gares se sont ainsi trouvées reliées avec le centre de la ville et neufs ponts, ceux d'Austerlitz, d'Arcole, Notre-Dame, Petit-Pont, Pont-au-Change, Saint-Michel, de Solferino, des Invalides et de l'Alma ont été construits ou élargis. Le préfet transforma d'ailleurs plusieurs de ces gares ou en a fait édifier une par Hittorff, la gare du Nord, avec une monumentale façade de pierre et une grande halle métallique369. Les mairies d'arrondissement, les marchés ont été reconstruits ou agrandis : les halles de la Villette placées à la périphérie. Il fallait bien entendu ne pas omettre l'opéra Garnier, la Trinité, Saint-Ambroise La ville de Paris offrait des conditions assez favorables pour son développement industriel. La capitale ne bénéficiait sans doute pas de la proximité des mines de charbon ou des grands centres de métallurgie primaire. Malgré tout, elle abritait un important bassin de consommateurs, la ville était donc en elle-même un site de consommation et disposait d'une main-d'oeuvre nombreuse et compétente. En outre, Paris se trouvait doté d'un réseau remarquable de transports, d'abord fluvial, puis ferré, alors que la voierie renouvelée optimisait l'évacuation des marchandises. Dès la première moitié du XIXe siècle, Grenelle 365 Chambre de commerce de Paris, Statistique de l'Industrie à Paris résultant de l'enquête faite par la Chambre de commerce pour les années 1847-1848, Paris, Dépôt des documents officiels publiés par le Ministère du Commerce et l'Administration des Douanes, chez Guillemin & C ie, Librairie-Éditeurs, 1851, 362p. Chambre de commerce de Paris, Statistique de l'Industrie à Paris résultant de l'enquête faite par la Chambre de commerce pour l'année 1860, Paris, à la Chambre de commerce, 1864, 49p. 366 Recherches statistiques sur la ville de Paris et le département de la Seine, tome VI, 1860Ibid. 367 Jeanne Gaillard, Paris, la ville op. cit., p.64. 368 Michel Carmona, Haussmann, op. cit., pp.281-320. 369 René Clozier, La Gare du Nord, J.-B. Baillière et fils, 1940, 296 p. 106 reçut sa gare à proximité de la Seine, la gare de La Chapelle renforça l'attraction exercée sur l'industrie par les travaux réalisés dans le nord de Paris. L'éloignement des matières premières et plus spécifiquement des mines de houille n'a donc pas constitué un handicap insurmontable pour l'industrie de la capitale dans la mesure où elle a su faire jouer la concurrence entre les différents modes de transport et s'est équipée du réseau adéquat. Cet éloignement pouvait d'ailleurs se révéler profitable, dans la mesure où certains produits finis posaient des difficultés de transport, surtout dans le contexte de l'époque, sans oublier le fait qu'une part significative de la production industrielle ne nécessitait pas d'être transportée, car consommée sur place370. 2. Développement de l'activité fluviale. Si le bassin parisien n'est pas un bassin « industriel » au sens traditionnel du terme, c'est-à-dire un « bassin houiller », étant donné le peu de ressources en charbon de cette région, il n'en demeurait pas moins une région intéressante pour ce qui était de l'agriculture et surtout des ressources minérales et des matériaux de construction Le bassin parisien apparaît ainsi comme « un bassin de matériaux de construction » Il ne faut alors pas s'étonner de l'essor de l'architecture dans cette ville. Le bassin de Paris possède de nombreuses carrières aux environs de Corbeil et Melun. Dans les gisements de ChâteauLandon près du Loing, on extrayait les pierres à plâtre et à chaux sur les bords de l'Ourcq ainsi que les pierres de la Ferté-Milon. L'Yonne traversait une région renommée pour ses calcaires, ceux de l'Abbaye du Val, de Tonnerre ainsi que Clamecy La vallée de l'Oise disposait de blocs de pierres tendres que l'on pouvait débiter à la scie, le Vergelet, le SaintLeu, les roches de Conflans, de Senlis Les voies navigables jouaient le rôle d'exécutoire de tous ces filons Le canal de l'Ourcq avait ainsi accueilli un trafic énorme : 330 000 t en 1856, 443 000 t en 1865371. Dans ces conditions, les berges de Paris étaient extrêmement encombrées de matériaux de construction, soit 598 846 t en 1855 et 942 813 t en 1859. Dans la seconde moitié du Second Empire, les chiffres s'amplifièrent pour atteindre 1,4 millions de tonnes en 1863 et 1,7 millions en 1869 Sachant tout de même qu'il fallait prendre en compte les matériaux destinés aux commerçants qui réexpédiaient vers d'autres régions. Graphique 8. Arrivages par nature de marchandises sur les ports de Paris en 1853 (en tonnes) 370 Jeanne Gaillard, Paris, la ville (1852-1870), Paris, L'Harmattan, 1997, p.456. M. Humblot, Les canaux de Paris à la fin de 1884, Paris, Imprimerie et librairie des Chemins de fer, Imprimerie Chaix, 1885, annexe n°6. 371 107 Objets divers Métaux Beurre, oeufs Poissons Graines diverses Bois à oeuvrer Charbons de terre Bois à brûler Cotons Savons Sucres Vinaigres, cidres Vins 49410 476765 58612 10857 699 4683 1059 2561 24072 48406 283444 11651 618878 53635 67178 11559 994 2802 1600 13460 8936 1454 3755 132301 293815 Source : Ernest Grangez, Précis historique et statistique des voies navigables et d'une partie de la Belgique, Paris, N. Chaix, 1855, p.774. Graphique 9. Arrivages sur les ports dans la traversée de Paris en 1853 (en tonnes) Ports de Charenton, Carrières, de la Marne Ports de la Briche, de Saint-Ouen, Clichy, Neuilly. Ports de Choisy-le-Roi et Port-àl'Anglais. 17860 100311 15934 Ports du canal Saint-Martin. 391614 Port de la Villette Ports des Invalides, des Champs-Elysées, de Passy, de Grenelle et de Sèvres. Ports de Saint-Nicolas, des Saints-Pères, d'Orçay, du Recueillage. Ports de Louviers, Saint-Paul, des Ormes, de la Grève. Ports de l'Hôpital, Saint-Bernard, des Miramiones Ports de Bercy, la Gare, la Rapée. 668373 299236 108090 71529 112659 410280 Source : Ernest Grangez, Précis historique et statistique des voies navigables et d'une partie de la Belgique, Paris, N. Chaix, 1855, p.774. La progression en quatorze années atteignait donc presque 300%, le trafic fluvial s'éleva sous le Second Empire autour de 1,15 millions de tonnes. Le transport de houille, avec la nécessité de charrier cette marchandise essentielle à l'industrialisation du pays, avait permis 108 à la batellerie de compenser la concurrence exercée par les chemins de fer. En effet, si ces derniers désiraient « anéantir» la batellerie, l'ampleur des besoins de consommations incita le gouvernement impérial à soutenir la batellerie. En un sens, le traité de libre-échange avec la Grande-Bretagne de 1860 se révéla salvateur, car il incitait à contrebalancer la suprématie de la voie ferrée. Le libre-échange favorisait donc les voies navigables pour défendre des intérêts a priori protectionnistes. Il apparaissait comme un remède contre les supposés maux du libreéchange. Le coeur du problème résidant dans le coût de l'énergie. La houille était devenue le seul combustible intense des débuts de l'ère industriel, et se substitua peu à peu au bois Il en était résulté une croissance énorme de la consommation de houille. Elle était passée de 7376000 t en 1861 à 21 millions en 1866, la production dans les mines françaises ayant progressé de 3,7 millions de tonnes en 1843 à 7,5 millions en 1859 et 16,9 millions en 1873 372! La profusion du numéraire, l'organisation du crédit mettaient à la disposition des fabricants des capitaux élevés qu'ils employaient à renouveler leur outillage. Les chemins de fer étaient évidemment le principal transporteur Dans le même temps, un des consommateurs majeures, si bien qu'ils ne pouvaient pas satisfaire à tous les besoins de l'industrie. Les chemins de fer brûlaient eux-mêmes beaucoup de charbon de terre, et pouvaient ainsi en assurer le transport sans réduire la part de la navigation, et c'est ce qui se produisit. Depuis la Monarchie de Juillet, les houillères du Nord et du bassin belge étaient devenues les plus importants fournisseurs de la capitale. En 1848-1849, ces charbons étaient transportés au loin à 2,5 millions de tonnes par la navigation intérieure et seulement 60 à 70 000 t par les chemins de fer. La voie ferrée voiturait 620 000 t contre 2,8 millions pour leur rivale en 1856 373 . Dès la fin de la Monarchie de Juillet, on avait instauré un tirant d'eau uniforme de 1,60 m. Le trafic du canal Saint-Quentin et de l'Oise généra un trafic d'un million de tonnes, soit plus que l'ensemble Basse-Seine et Rhône374. Les livraisons de charbon au port de la Villette ou sur les bas-ports de la Seine furent quasiment en constante augmentation. Elles s'élevèrent ainsi à 671 545 t en 1855 et 622 412 en 1856. La moyenne en remonte atteignait 737 609 t entre 1861 et 1865, se haussant à 877161 t entre 1866 et 1869. À titre d'exemple, l'industrie des fils et des tissus comptait dans la capitale 23 800 établissements en 1860, fabriquant pour 454 millions de francs d'articles. 372 François Maury, Le port de Paris, op. cit., p.161. Ibid., p.162. 374 Marcel Gillet, Les charbonnages op. cit., p.508. 373 109 Celles de l'acier, du fer, du cuivre, du zinc avaient une production estimée à 163 millions de francs375. Les deux types de marchandises ayant contribué à la reprise de la batellerie à Paris ont été le charbon et les matériaux de construction, les apports réunis de ces deux catégories de marchandises s'élevant à 2,6 millions de tonnes, excédant de ce fait la somme des arrivages divers en 1840. Le commerce du bois était révélateur de cette évolution. Traditionnellement, et cela depuis au moins l'époque médiévale, il fournissait, entre autres, les manufactures et le chauffage Dans la première moitié du XIXe siècle, le bois demeurait encore le principal combustible pour le chauffage domestique. Il servait aussi à l'industrie du bâtiment, notamment pour les charpentes. En outre, on comptait 7 391 ateliers et fabriques en 1860, livrant des meubles pour 200 millions de francs Le bois devenait une marchandise de valeur, conduisant les familles à recourir aux dérivés de la houille pour la cuisson des aliments ou pour se chauffer Par ailleurs, le fer tendit à se substituer au bois. Il fallait ajouter que l'on faisait de plus en plus appel à des essences étrangères pour la fabrication des meubles, ces bois exotiques étant amenés d'Amérique au Havre et transmis à la capitale par le chemin de fer. Les forêts du bassin parisien tendaient à s'épuiser, le flottage amenant leurs arbres à peine équarris, tombant de ce fait en désuétude Tous ces facteurs concoururent au déclin des apports de bois sur les ports parisiens. Entre 1856 et 1862 376 , 709 213 tonnes de bois arrivaient, intacts ou calcinés, notamment 352 221 tonnes de bois à brûler, 304 190 tonnes de bois à oeuvrer et enfin 52 802 tonnes de charbon de bois, les trois catégories subissant toutes un déclin. Entre 1864 et 1869, 39 416 tonnes de charbon de bois, 274 433 tonnes de bois de charpente et menuiserie, 298 399 tonnes de bois de chauffage, soit un total annuel bien réduit de 612 248 tonnes377. Les vins : un enjeu considérable dans la relation entre les modes de transport La consommation de vin était loin de diminuer sous le Second Empire, étant de 7 millions d'hectolitres sous les régimes précédents et passant de 2,5 millions d'hectolitres de 1860 à 1865, dans une ville, il est vrai, agrandie et à 3,6 millions de 1866 à 1869. Toutefois, la batellerie a perdu du terrain face aux chemins de fer et là, l'effet de la crise était évident : la moyenne des arrivages par voie d'eau était de 163 583 tonnes de vins de 1850 à 1854, 375 Chambre de commerce de Paris, Statistique de l'Industrie à Paris résultant de l'enquête faite par la Chambre de commerce pour l'année 1860, Paris, à la Chambre de commerce, 1864, 49p. 376 En excluant 1860. 377 François Maury, Le port de Paris,op. Cit., pp.163-164. 110 tombant à 37 667 tonnes en 1855 pour ne plus apporter que 23 000 tonnes de 1861 à 1862378 . Le vin en provenance du Languedoc n'était acheminé que fort péniblement par de longs détours sur des canaux et fleuves disparates. Les péniches descendant de Bourgogne se trouvaient sujettes sur l'Yonne aux dangers de la navigation par éclusées, aux heurts et enlisements. Les vins de Champagne que deux entreprises de transports se disputaient, ont été captés par les chemins de fer avec l'achèvement des grandes lignes, provoquant de ce fait une perte notable pour la navigation parisienne. Résistance des commerces anciens. L'agglomération parisienne ne pouvait pas ne compter que sur les chemins de fer pour son développement économique, démographique et urbanistique Du fait de la croissance démographique, les chemins de fer devaient apporter de nombreuses marchandises, denrées alimentaires Que la voie d'eau d'ailleurs transportait traditionnellement tout en exportant la production parisienne (industrie du luxe et autres produits manufacturés). Une brèche était donc laissée pour la voie d'eau pour transporter, notamment les matériaux de construction, les combustibles minéraux et les produits agricoles. Par le jeu de la concurrence, la batellerie jouait le rôle de régulation des prix, limitant les tentatives hégémoniques et monopolistiques des chemins de fer, et cela, bien entendu pour les marchandises précitées, mais également les autres, rendant de ce fait possible le développement parisien. Elle présentait par ailleurs l'avantage de fournir au plus près des industries et des chantiers qui se trouvaient à proximité de la voie d'eau, ou du moins avec un camionnage limité sans impliquer d'infrastructures trop lourdes Et par conséquent trop coûteuses ! Tandis que l'offre des chemins de fer était moins souple, nécessitant la pose de voies jusqu'au site Ce qui ne posait pas trop de difficultés pour une usine, établie de façon durable, mais s'avérait plus problématique pour un chantier qui supposait l'enlèvement de la voie La batellerie ne présentait pas ces désavantages. Et il y avait tout lieu de penser, vu l'ampleur des besoins de la capitale que les chemins de fer ne pouvaient assurer à eux-seuls leur satisfaction. La batellerie a su reprendre des trafics qu'elle avait perdus tels que les foins et les grains. La crise de l'activité des ports de Paris entre 1850 et 1855 avait donné lieu à un trafic de fourrage de 78 140 tonnes en moyenne annuelle. Néanmoins, la situation ne tarda pas à s'améliorer. L'échelle mobile a été supprimée en 1861, ce qui stimula le marché des grains. Les importateurs de grains et les cultivateurs français avaient tout intérêt à ce que la 378 François Maury, Le port de Paris, op. cit., p.165. 111 concurrence entre les modes de transport s'intensifiât, car cela leur permettait de proposer des prix attractifs tout en s'assurant des marges. En outre, l'année 1863 vit l'affranchissement de la boulangerie qui prit un grand essor dans la capitale. Tous ces facteurs contribuèrent à ce que les arrivages de céréales et de fourrages doublent durant la période, enregistrant une moyenne annuelle de 146 739 tonnes par an. Il fallait considérer des marchandises qui prises ensemble n'étaient pas à négliger. Il s'agissait de denrées agricoles telles que les fruits, liqueurs ou objets fabriqués, des produits étrangers ou des matières premières : 169 871 tonnes furent déchargées en 1855. Les arrivages de vins connurent un redressement entre 1867 et 1869, avec une moyenne annuelle de 63 278 t. Ces marchandises, fourrage et céréales, vins et divers représentaient un trafic de 481 324 t en 1868, 441 902 t en 1869, année pourtant moins favorable, soit le huitième du trafic total. Le bilan était plus partagé en ce qui concernait l'industrie métallurgique qui à Paris, trop éloignée des régions métallifères et houillères se maintenait sans se développer. La batellerie souffrait en outre des liens très étroits tissés entre le Creusot et les chemins de fer. Paris avait ainsi reçu par la voie d'eau 49977 tonnes de métaux en moyenne annuelle de 1856 à 1859 et 47 902 tonnes entre 1866 et 1869379. Sans doute, là résidait un des paradoxes et un des grands échecs de la batellerie que cette incapacité à capter ce type de trafic qu'elle semblait pourtant à même de transporter Et surtout, l'interaction entre industrie et batellerie s'est révélée moindre, car on peut supposer que la traction à vapeur, la généralisation des coques en métal aurait certainement pu stimuler l'industrie380 Le développement industriel, imputable dans une large mesure aux chemins de fer, avait généré des besoins dans des proportions qu'ils ne pouvaient suivre totalement. Le risque d'une flambée des prix, altérant de ce fait la compétitivité de l'industrie française, était donc bien réel, l'on comprend, encore une fois pourquoi l'industrie s'attacha à encourager la concurrence entre les modes de transports afin d'abaisser le prix des matières premières. Les progrès combinés des modes de traction et des conditions de navigation se révélèrent favorable au développement du transport de passagers à une époque où les transports urbains restaient encore sommaires, tout au moins pour ce qui était des transports collectifs de masse. L'enjeu devenait crucial à la faveur des événements tels que les expositions universelles qui nécessitaient de transporter des masses inhabituelles de personnes. Comme on l'a vu, la canalisation du petit bras de la Seine (et du barrage éclusé de la Monnaie qui en résultait) facilitèrent la traversée de la capitale et la navigation à l'intérieur 379 380 L'ensemble de ces chiffres provient du livre de François Maury, Le port de Paris, op. cit., pp.166-167. Il ne faut pas non plus oublier les écluses ainsi que les grues pour les ports 112 de la capitale. Les premières demandes d'autorisation pour l'établissement d'un service de voyageur parvinrent au ministère des Travaux publics et à la préfecture de Police. Cependant, les ingénieurs de la Navigation et les inspecteurs de la Navigation 381 se montrèrent fort réticents à cette idée, avançant les nombreuses difficultés que posaient l'encombrement des ports et des établissements flottants (bateaux-lavoirs, bateaux-bains), l'intensité du trafic commercial. Ils estimaient par ailleurs trop limitées les perspectives de trafic. À l'approche de l'Exposition universelle de 1867, les autorités politiques n'eurent guère de choix d'intervenir et de donner la consigne d'instruire les dossiers sans se soucier de la « praticabilité, mais strictement du point de vue organisationnel et réglementaire. Dès lors, les événements se précipitèrent, le principe étant retenu de n'autoriser qu'un seul service pour des raisons de sécurité et de sélectionner les différents matériels proposés. L'exclusivité du service devait revenir à une seule société. Le choix est porté sur un bateau à vapeur à hélice de la Compagnie des bateaux omnibus de Lyon contre celui d'un bateau à roues à aubes d'une société britannique. Le bateau à hélice s'est révélé bien plus manoeuvrant, ce qui annonçait une évolution plus globale de la navigation, de marchandises ou de passagers, en faveur de l'hélice382. La compagnie lyonnaise reçut l'autorisation d'établir un service de transport de passagers entre le pont Napoléon et le viaduc d'Auteuil par arrêté du préfet de police du 10 août 1866. À la faveur de l'exposition universelle de 1867 entre le 14 avril et le 31 décembre, la compagnie lyonnaise transporta près de 2,7 millions de passagers. 381 C'est-à-dire ceux travaillant respectivement pour le ministère des Travaux publics et pour la Préfecture de Police, qui eux-mêmes oeuvraient le plus souvent pour la Ville de Paris et le Conseil général de la Seine. La question de cette « pluralité » administrative sera abordée plus en détail dans le dernier chapitre. 382 Laurent Roblin, Cinq siècles de transport fluvial en France, Rennes, Éditions Ouest France, 2003, pp.80-83. 113 Conclusion : une mutation inexorable ou improbable ? La mutation du réseau s'est révélée tout à fait remarquable, bouleversant les conditions de navigation par une transformation du fleuve, pour faire de celui-ci une sorte de canal hybride. Cette dichotomie entre le réseau et le mode de traction reflète la place de la voie d'eau dans le développement industriel de la France. La batellerie se trouvait davantage au service de l'industrie qu'elle ne l'entraînait, et c'était certainement là où résidait sa plus grave faiblesse. La création d'un système technique complet, avec l'essor d'un capitalisme autour de la batellerie ne semblait pas possible, comme ce fut le cas avec les chemins de fer, étant donné le faible effet d'entraînement de la voie d'eau. Le rôle de l'État est apparu prépondérant dans ce processus383. Il ne fallait pas tant y percevoir un interventionnisme excessif de l'État français, mais le résultat du manque d'initiative privée. L'historien Geiger a formulé une analyse comparative entre trois pays, la France, la Grande-Bretagne et les États-Unis : The statist character of the canal acts of 1821 and 1822 and the relative failure of the waterway system they created were not the perverse result of a statist mindset of political elites or an ant capitalist policy of bureaucrats or engineers or the timidity of bankers and entrepreneurs. Instead, one needs to look more closely on the demand side at weaknesses in the French market and on the supply side at high costs imposed by French geography384. Divers facteurs expliquaient la prépondérance de l'État. Le premier résidait dans la relative faiblesse du marché intérieur, un marché très morcelé. Un second facteur semblait tout aussi déterminant, et il expliquait dans une certaine mesure le premier. La topographie française s'avérait moins favorable que celle de la Grande-Bretagne ou de la Belgique en ce qui concernait les fleuves, combinant des caractères méditerranéens, avec des rivières difficilement navigables, surtout pour une navigation industrielle exigeant d'importants gabarits, mais une partie nord plus favorable, quoique nécessitant également des travaux. Le caractère impétueux des rivières françaises, en l'absence de la technique du barrage mobile de Poirée, signifiait la construction de canaux, qui devaient être d'autant plus longs que les régions industrieuses étaient séparées les unes par rapport aux autres, et leur jonction impliquait de traverser des régions de relief Cette combinaison de facteurs limitait la rentabilité au kilomètre des canaux, en comparaison de la Grande-Bretagne, si bien qu'une 383 Éric Szulman, La Navigation intérieure sous l'Ancien Régime. Naissance d'une politique publique, Rennes, Presses Universitaires de Rennes, 2014, 376p. 384 Reed G. Geiger, Planning the French canals: bureaucracy, politics, and enterprise under the restoration, Newark (N.J.): University of Delaware Press, London: Associated University Presses cop., 1994, p.26. 114 présence de l'État ne pouvait qu'être nécessaire Au contraire, grâce au Mississipi , les États-Unis disposaient d'un fleuve profond naturellement : The rivers of north Western Europe coursed through a flat topography, their placid currents benefiting from a relatively even flow of water year-round. But France belonged only in part to this fluvial northwest. As one travelled from northeast to southwest in France, these rivers became increasingly difficult to navigate, more 385 subject to flood and drought, less channeled, and more turbulent. Les Français s'efforcèrent de trouver des solutions en étudiant le modèle britannique386 – Becquey avait ainsi envoyé ses ingénieurs examiner la technologie et l'organisation du système des canaux anglais, mais à la différence d'autres domaines de l'industrie, les chemins de fer, la sidérurgie etc., ils durent se rendre à l'évidence que le modèle anglais n'était guère intégralement applicable en raison des contraintes du territoire français. Dans ces conditions, la France devait créer son propre système, technique et organisationnel, son système technique en somme, qui inspira par la suite les États-Unis et la Russie. Le barrage Poirée fit de la France une pionnière en matière d'innovation en matière de canalisation des rivières, dans la mesure où paradoxalement, elle possédait le réseau le moins favorable d'Europe du nord-ouest, ce qui l'obligea à trouver les innovations techniques appropriées, à créer une « nouvelle science fluviale ». L'émergence d'une navigation industrielle devait passer par là. L'enjeu s'avérait d'autant plus crucial face au risque d'une domination des chemins de fer, l'absence de concurrence modale empêchait des transports bon marché, et de ce fait, compromettait l'industrialisation du pays. La survie de la navigation intérieure tenait à la combinaison de divers facteurs. En fait, dès l'apparition des chemins de fer, les défenseurs des voies navigables ont aussitôt élaboré une réflexion en vue de leur modernisation, à savoir dès les années 1830. Ils ont rapidement envisagé les relations intermodales en termes de complémentarité. Néanmoins, le facteur déterminant a été peut-être avant tout la confrontation aux réalités. Au fond, les compagnies de chemins de fer étaient en plein essor, et ce développement exigeait lui-même de faire appel aux voies navigables, pour leur propre édification, ou encore pour compenser les incomplétudes de leur réseau en plein expansion. Si le réseau ferroviaire a été conçu en étoile, avec la capitale pour centre, la région parisienne constituait « un réseau en étoile naturel », à la confluence des principaux cours d'eau du bassin parisien (Seine, Yonne, Marne, Oise) et 385 Reed G. Geiger, Planning the French canals: bureaucracy, politics, and enterprise under the restoration, Newark (N.J.): University of Delaware Press, London: Associated University Presses cop., 1994, p.27. 386 Nathalie Montel, « L'État aménageur dans la France de la Seconde Restauration, au prisme du Rapport sur la navigation intérieure de 1820 », Revue d'histoire moderne & contemporaine, 59-1, janvier-mars 2012, pp. 3461. 115 d'une façade maritime majeure avec les ports du Havre et de Rouen, eux-mêmes lancés dans un processus de complémentarité. Dans la banlieue immédiate de Paris, les méandres qui représentent normalement un obstacle, représentaient un atout de première importance dans la mesure où ils offraient des longueurs de quai appréciables, quasi continues entre l'aval de Paris et les canaux parisiens, ce qui expliquait la survie étonnante du canal Saint-Martin après avoir subi des coups qui auraient pu lui paraître fatals. Mais rien de tel ne survint, au contraire, son trafic reprit de plus belle. Cette disposition des voies navigables offrait aux industriels et commerçants des possibilités quasi infinies de s'établir sur les rives de la Seine, ce dont les chemins de fer ne se montraient pas toujours capables. La batellerie pouvait venir au plus près des chantiers, même au coeur de la capitale, et cela, malgré la volonté d'évacuer les activités industrielles des fronts de Seine. Il aurait fallu mobiliser un nombre considérable de convois de roulage jusqu'aux gares de chemins de fer, déjà absorbées par la ville, ce qui n'était ni réalisable, ni même souhaitable. Il n'empêche que la batellerie s'était sortie de l'impasse dans laquelle elle s'était trouvée piégée presque « naturellement », la substitution d'un système complet de canaux à un système de chemins de fer 387 , avait signifié de privilégier l'aménagement des rivières et de quelques canaux spécialisés dans le transport de masse. Il en résulta un mouvement d'agrégation dans le Nord et l'Est : en 1850, le tonnage kilométrique des voies navigables du Nord388 et de l'Est a représenté 50% du trafic global, cette part atteint 65% en 1880389. La batellerie doit son salut au soutien des industriels, grandes forges de l'Est, houillères du Nord et de la Loire, les chambres de commerce, à l'instar de celle de Paris et des villes du nord, qui servirent de médiateurs, mais également de défenseures d'une démarche libérale consistant à maintenir les conditions nécessaires à une saine concurrence. La lecture des conseils généraux des départements de Seine-et-Oise et de Seine-et-Marne tend à montrer un intérêt certain intérêt pour la navigation intérieure. À certains égards, sous le Second Empire, l'attitude de l'État à l'égard des voies navigables se rapproche de celle qu'il adopta à l'égard du secteur minier. Celle-ci trancha singulièrement de celle qui prévalut par rapport aux chemins de fer. En effet, la préoccupation visait avant tout à parer à toute tendance de concentration du secteur batelier, de la même façon qu'il encadra le partage des bassins. Il s'agissait de favoriser la production, et d'abaisser les prix de la houille, encourager l'émiettement des transporteurs fluviaux visait à une 387 Yves Leclercq, Le réseau impossible, op. cit ., p.105. En comprenant la Seine aval de Paris. 389 Dominique Renouard, Les transports de marchandises, vol.2, pp.60-61. 388 116 réduction des prix des transports, et de ce fait, aussi transporter un charbon à moindre frais, dans un souci de favoriser l'intérêt global des consommateurs. Même si ce raisonnement appelle à des nuances à la lumière des pressions de la part des acteurs qui réclamèrent à cor et à cris la poursuite des aménagements sur les canaux et les rivières. En effet, il ne fallait pas forcément y percevoir une politique délibérée, savamment orchestrée par le régime impérial, mais plutôt une adaptation aux réalités économiques 390 . Pourtant, les contradictions, les retournements, voire les errances du Second Empire incitent plutôt à parler de politiques au pluriel plutôt que d'une politique cohérente. L'un des résultats paradoxaux de cette politique polymorphe est sans doute d'avoir abouti à un partage intermodal relativement équilibré vers la fin des années 1860391. Du statut de fossoyeur des voies navigables dans les années 1850, le Second Empire est devenu la décennie suivante un quasi sauveur de ce mode de transport dont la modernisation devait aussi consolider les bases politiques fragiles de ce régime. Le même constat pourrait être formulé pour le roulage. S'il n'y eut pas de vaste programme comparable au plan Frecyinet, l'action de l'État ne se révéla pas moins déterminante, elle s'est d'ailleurs de plus en plus imposée, sans doute parce que les leçons du plan Becquey avaient été partiellement retenues392. L'étude de la politique en matière de navigation intérieure prouve que le Second Empire n'a pas entièrement reposé sur le libéralisme et le libre-échange, mais tend à montrer au contraire une montée de l'intervention de l'État, une forme de dirigisme qui n'en portait pas forcément le nom. Les efforts de modernisation du réseau de voies navigables consentis sous la Restauration et la Monarchie de Juillet avaient pu sembler remarquables, et cela d'autant plus que l'on était parvenu à accomplir ce qui ne l'avait pas été sous les régimes précédents. Pourtant, l'état du réseau au moment de l'émergence des chemins de fer tend à montrer un réseau inadapté. Ce constat appelle à nuancer tout autant l'image d'un réseau délabré qui aurait causé une crise de la batellerie que celle d'un plan Becquey préfigurant le plan Freycinet et offrant à la France un réseau complet et compétitif. En effet, si les efforts ont été réels, la réalité des travaux et la capacité des ingénieurs de l'époque n'étaient pas nécessairement à la hauteur des espoirs. En outre, les conceptions de ces travaux demeuraient largement inspirées des projets élaborés au XVIIIe siècle. Certes, ceux qui avaient été à l'origine du plan Becquey s'étaient basés sur l'expérience britannique, mais là consistait précisément la difficulté. Le modèle britannique semblait avoir globalement correspondu aux 390 Marcel Gillet, Les charbonnages, op. cit., pp.78-78. Philippe Séguin, Louis Napoléon le Grand, Paris, Le Livre de Poche, 1992, p.389. 392 En partie seulement, parce que l'affaire du canal du Midi illustrait les dérives autour des rachats de concession. 391 117 besoins de la première industrialisation, mais l'effondrement de la navigation intérieure insulaire prouvait les limites de ce modèle, tant vanté par les libéraux. Si les canaux s'étaient révélés une affaire spéculative réussie à leur départ, cet aspect spéculatif expliquait le désintérêt rapide pour de mode de transport, laissant un réseau disparate, bigarré, peu apte à affronter la concurrence des chemins de fer. Plus encore, le mode de financement allait se révéler coûteux dans l'avenir, puisqu'il était apparu évident que les canaux devaient être à plus ou moins long terme, et d'une manière ou une autre, par l'État. Les détracteurs de la navigation intérieure, omettent souvent cet aspects, à savoir une part significative des dépenses consenties pour le réseau navigable, entre 1815 et 1900, estimées autour de 1,5 milliards de francs, étaient passées dans le financement des travaux et dans le remboursement généreux d'investisseurs, pas toujours scrupuleux d'ailleurs, et ce, parfois pour des canaux dont les perspectives s'étaient révélées « limitées ». Tout cela s'est fait au détriment de canaux dont l'importance ne pouvait guère être contestée et l'aménagement des rivières. Avec le recul, les canaux et leur mode de financement durant la première moitié du XIXe siècle, s'étaient révélés coûteux sur le long terme, tant sur le plan financier que politique, car cela fournissait un argument de choix pour les adversaires des voies navigables. Il faudrait toutefois nuancer cette analyse pessimiste en considérant les services qu'ils ont pu apporter à l'économie générale, à une époque où de toute manière, il n'y avait encore guère d'alternative à la voie d'eau et au roulage. De plus, les ingénieurs paraissaient s'être emmurés dans une logique « canaliste », et non pas « fluviale », alors que l'avenir consistait, de tout évidence, dans la « canalisation » des rivières, ce qui n'excluait pas pour autant certains projets vitaux de canaux de jonction. De ce point de vue, comme on a pu le constater à propos du barrage mobile et des premiers travaux de canalisation des rivières, notamment sur l'Yonne et la Seine, la Monarchie de Juillet avait préparé l'avenir. Les travaux réalisés sur les canaux du Nord ont été tout aussi remarquables, car comme on l'a vu, ils ont permis d'affronter efficacement la concurrence des chemins de fer, et plus encore, de montrer la voie d'une redéfinition de la vocation de la navigation intérieure. 118 CHAPITRE II. AMBIVALENCES DE LA QUESTION PORTUAIRE SOUS LE SECOND EMPIRE. 119 Introduction : un urbanisme contesté. Si le Second Empire a contribué à la renaissance de la navigation fluviale, ce n'était qu'indirectement que le « port de Paris » s'était redressé, grâce à l'essor de l'industrie, du bâtiment, de la population Le régime impérial n'avait accompli que peu de choses concernant les infrastructures portuaires ou tout au plus avait-il restauré des quais Encore s'agissait-il là de mesures qui n'étaient pas strictement destinées à la navigation, mais plus à l'embellissement de la capitale Dans ses Mémoires, le baron Haussmann s'étendit largement sur la question de l'eau à Paris, il n'évoque les infrastructures portuaires qu'à travers la couverture du canal Saint-Martin qui correspondit précisément à une restriction de l'activité portuaire Sans doute, ce relatif silence s'expliquait par le fait que l'essentiel de la traversée du fleuve et des berges avait été accompli au début de l'Empire, c'est-à-dire par ses prédécesseurs. Ces travaux avaient profondément transformé à la fois le paysage, mais aussi la structure du marché parisien, avec la disparition progressive des ports de marché393. La rénovation de la capitale s'inscrivait donc plus dans la continuité que dans la rupture. Il fallait néanmoins reconnaître l'apparition d'outillage, quoique limité. Ceci expliqua le relatif tassement du nombre d'ouvriers, « relatif » dans la mesure où il est bien délicat de les chiffrer avec une réelle précision. Car si l'on peut estimer le nombre de professionnels, c'est-à-dire les effectifs permanents, il s'avère quasiment impossible de les dénombrer lors des importants arrivages de printemps et d'automne. Le dénombrement de 1856 mentionnait 32 établissements de navigation occupant 37 patrons et 173 employés, 5 armateurs, 13 entreprises de travail sur les ports 394 . Le nombre d'ouvriers estimé par cette statistique s'élevait à 921, chiffre bien inférieur à celui de 1805395. La tendance à la réglementation a mis du temps à disparaître. La révolution de 1848 a même représenté l'occasion pour les débardeurs, avec la complicité des autorités, de conserver leur travail en éloignant les nouveaux venus. Les ouvriers du port de la Villette étaient groupés en une « société nationale de Saint-Joseph » et fixaient en accord avec les délégués des négociants, le prix des embarquements, transbordements et débarquements sur les dépendances du bassin et des canaux de la Ville. Ce tarif fut approuvé par le préfet de Police le 9 avril 1848, confirmant le privilège des ouvriers du port aux fruits par une ordonnance du 5 mai 1848. Cependant ces pratiques tendirent à disparaître sous le Second 393 Isabelle Backouche, La trace du fleuve, La Seine et Paris, Paris, Éditions de l'École des Hautes Études en Sciences Sociales, 2000, p.360. 394 François Maury, Le port de Paris, depuis un siècle, Paris, thèse de droit, Impr. de Suresnes, 1903, p.155. 395 Recherches statistiques sur la Ville de Paris et le département de la Seine, Paris 1860, vol.6, p.644. 120 Empire. En 1868, la société des tonneliers et dérouleurs de l'entrepôt général des boissons et du port Saint-Bernard qui avait déjà été réorganisée plusieurs fois, pour être finalement supprimée, les « dockers » se trouvant toutefois encore soumis par la police impériale au port de la médaille396. Une autre mesure reflète les transformations de la navigation dans la capitale. En 1865, la « règle du passavant » a été abolie, les mariniers ne se trouvant plus dans l'obligation de stationner dans des gares d'approche. Désormais, ils recevaient immédiatement de la part des agents de la navigation les indications quant à l'emplacement à occuper sur le quai. Du souci de sécuriser l'approvisionnement, les transports entraient dans une ère où la circulation en termes de flux et de volumes prenait une telle ampleur que certaines contraintes antérieures perdaient de leur substance. 396 Philippe Ruer, « Un métier de l'eau : les dérouleurs sur les ports de Charenton et de Bercy (XVIII e-première moitié du XIXe)», pp.247-255. 121 I. LES CANAUX DE PARIS ET LES CONTRAINTES URBAINES : A. Un canal dont l'histoire a débuté par une controverse pour finir par un compromis. 1. L'enjeu de l'eau pour la capitale. Les canaux de Paris représentent sans doute la plus importante réalisation parisienne fluviale du XIXe siècle. Ils forment une composante de ce que l'on allait qualifier de « port de Paris », même si leur gestion a toujours été séparée de la navigation en rivière et présentait la particularité d'être payante. Toutefois, ils s'intégraient parfaitement dans l'économie de la capitale et constituaient un élément du réseau navigable de la région parisienne. En outre, leur importance stratégique résidait dans le fait qu'ils permettaient la traversée de la capitale, qui se révélait, avant leur création, quasiment impossible. Notons par ailleurs que de nos jours, ils apparaissent comme une construction récente, bien qu'ils semblent appartenir depuis longtemps à l'imaginaire de Paris. Par conséquent, leur étude s'intègre parfaitement dans le cadre de notre recherche qui s'articule entre les XIXe et XXe siècles. L'Administration, dans ses diverses publications, rapports sur « le port de Paris », les traitait avec la même considération que les ports sur les rives de la Seine397. Tout cela participe à la conception d'un ensemble unique, en dépit de la pluralité des installations. Les canaux de Paris ont connu un regain d'intérêt dans les années 1990, ce qui favorisa la publication d'ouvrages sur le sujet. Si la question de savoir s'il existait « un port » ou « des ports » de Paris avait divisé les auteurs, l'appellation de canal ou de canaux de Paris n'a pas été tranchée pour autant Les canaux de Saint-Denis, de Saint-Martin et de l'Ourcq formaient-ils des composantes séparées ou bien un même organisme ? La question peut paraître saugrenue aujourd'hui, mais il n'est pas superflu de rappeler que les canaux ont fonctionné jusque dans les années 1860, au moment de leur reprise en main par la Ville de Paris, sous la gestion de compagnies distinctes. En outre, seul le canal Saint-Martin était strictement parisien, puisque le canal Saint-Denis traversait les communes de Saint-Ouen, Saint-Denis, La Courneuve, Aubervilliers et enfin Paris. De son côté, le canal de l'Ourcq prend sa source dans l'Aisne398. Certains auteurs comme François 397 D'ailleurs, avec la création de la direction du port de Paris à la fin de la guerre 1914-1918, elle-même relevant de la direction des canaux de Paris, c'était, en réalité les mêmes ingénieurs qui géraient les canaux et les ports dans le département de la Seine. 398 Le Canal de l'Ourcq se compose de deux parties distinctes : 1° la rivière Ourcq canalisée de Port-aux-Perches (Aisne) à Mareuil (Oise) ; 2° le canal proprement dit, depuis Mareuil jusqu'à l'extrémité aval du bassin de la 122 Beaudoin, premier conservateur du musée de la batellerie de Conflans-Sainte-Honorine, soutiennent la thèse d'un canal de Paris au singulier, qui, à l'instar du port de Paris, formerait un organe unique399. L'ouvrage se compose certes, de trois parties distinctes : une branche amont, SaintMartin, et une branche aval, Saint-Denis, se rejoignant au col de La Villette où elles reçoivent les eaux nécessaires à son fonctionnement grâce à une « rigole » alimentaire 400, elle aussi navigable, le canal de l'Ourcq. Cependant, ces trois parties se révèlent indissociables comme les membres d'un même organisme. Ce problème d'appellation ne s'avère pas sans conséquence, il a contribué à brouiller dans la conscience collective des Parisiens l'image de ce canal dont ils ignorent la ou les raisons d'être et dont le rôle historique semble largement méconnu et de ce fait sous-estimé401. 2. Controverse autour du canal de l'Ourcq : alimentation en eau ou navigation ? Le canal de l'Ourcq est né d'une controverse liée à un double objectif 402 : l'alimentation de la ville en eau et la traversée de Paris. Pour ce qui est du dernier point, on a pu se rendre compte des difficultés de la navigation dans la capitale et plus particulièrement du « verrouillage » que représentait le centre de la ville pour la navigation d'aval et d'amont403. Villette. Longueur totale 107,914 km ; longueur dans le département de Seine-et-Marne 67,700 Km. La cuvette du canal a 4,50 m au plafond et 9 à 10 m au plan d'eau. Le tirant d'eau moyen est de 1,50 m. Le canal de l'Ourcq est, avant tout, un canal d'alimentation pour la ville de Paris ; il ne sert qu'accessoirement à la navigation et n'admet que des bateaux dits « flûtes de l'Ourcq », ayant 3,10 m de largeur sur 29 m de longueur. Le halage, tant à la remontée qu'à la descente, s'accomplissait, le plus souvent, au moyen de chevaux, sur un chemin empierré de 2 m de largeur moyenne qui suivait la rive gauche. On étudie actuellement un projet de touage à vapeur entre Claye et Meaux. La vitesse de marche ordinaire était de 2 km par heure à la remonte et de 3 km à la descente, en comptant le passage des écluses. Le canal offrait une pente totale de 15,36 m rachetée par dix écluses et par la pente même des biefs variant entre 0,0625 m et 0,12366 m. Ces écluses présentaient 60 m de longueur utile, mesurée entre la pointe des buses, et 3,20 m de largeur. Il existait des ports à May, Lizy, Congis, Meaux, Villenoy, Vignely, Claye ; on pouvait d'ailleurs débarquer partout où se trouvaient des chemins à proximité. On trouve à Villenoy un bassin de radoub et de construction de bateaux. Il n'y avait pas de chômage. L'arrêt moyen par les glaces était de 10 jours; l'arrêt a été de 30 jours au maximum. Des écluses sont établies à Varreddes, à Meaux (à l'extrémité du faubourg Saint-Nicolas), à Villenoy, à Vignely et à Fresnes. Le canal est alimenté par les eaux de l'Ourcq, dont il n'est qu'une dérivation, par les eaux de la Collimance, du Clignon, de la Gergogne, de la Thérouanne, du Rutel, de la Beuvronne, de l'Arneuse, et par deux prises d'eau sur la Marne, l'une au barrage d'Isles-les-Meldeuses, l'autre à Trilbardou. 399 François Beaudoin, « Le canal de Paris », in Béatrice de Andia et Simon Texier (dir.), Les Canaux de Paris, Paris, Délégation à l'action artistique de la Ville de Paris, 1994, p.68. 400 Ou rigole d'alimentation. Les enjeux entre « rigole d'alimentation » et canal seront envisagés plus en détails. La nuance s'avère cruciale. 401 Canaux de Paris (Les), Paris, Délégation à l'action artistique de la Ville de Paris, 1994, 222p. 402 Fréderic Graber, Paris a besoin d'eau. Projet, dispute et délibération dans la France napoléonienne, Paris, CNRS éditions, 2009, 417p. 403 Voir premier chapitre. 123 La Seine constituait jusque vers la fin du XVIIIe siècle la principale ressource en eau de la capitale. Les pompes installées à l'époque classique se révélaient insuffisantes si bien que l'on songea à les remplacer par des machines plus régulières et plus puissantes. Jacques Périer forma, en 1781, une société 404 afin d'installer une pompe à feu à Chaillot. Deux machines à vapeur importées de Grande-Bretagne (plus précisément de Birmingham) aspiraient l'eau du fleuve et alimentaient quatre réservoirs édifiés sur la colline de Chaillot. Devant leur succès, il installa, sur la rive droite, au Gros-Caillou405, une machine similaire en 1786-1788. Ces machines n'en demeuraient pas moins insuffisantes pour l'alimentation de toute la capitale406. La qualité de l'eau se révélait souvent médiocre pour un prix onéreux407. Une autre solution, fondée sur l'écoulement gravitaire, concurrençait les pompes à feu. En 1762, l'académicien Deparcieux avait lu son Mémoire, sur la « possibilité d'amener à Paris, à la même hauteur à laquelle y arrivent les eaux d'Arcueil, mille à douze cent pouces d'eau, belle et de bonne qualité, par un chemin facile et par un seul canal ou aqueduc ». Imprimé l'année d'après 408 , ce mémoire préconisait de dériver de la petite rivière de l'Yvette, renforçant sensiblement le volume d'eau disponible à Paris. En effet, il y avait fort à faire dans ce domaine, car la Ville ne disposait, selon les calculs de Deparcieux, que de 200 à 230 pouces par jour. Les ingénieurs Perronnet et Fer de la Nouerre reprirent ses évaluations, dans leurs projets de dérivation de l'Yvette409. Si Perronnet envisageait un aqueduc en pierre, pour un coût de 8 millions de livres, Fer de la Nouerre, de son côté, limitait la dépense à un million en renonçant à la maçonnerie. Il citait l'exemple la dérivation de la source de Chadwell et de la rivière de Lew, alimentant Londres depuis 1608, qui avait procuré des économies substantielles. Le principe demeurait néanmoins assez proche, les deux ingénieurs envisageaient des travaux hydrauliques d'une vaste ampleur. Le caractère onéreux de ces réalisations était censé être compensé par une plus Compagnie des eaux de Paris. Voir J. Bouchary, L'eau à Paris à la fin du XVII e siècle. La Compagnie des eaux de Paris et de l'entreprise de l'Yvette, Paris, 1946, pp.37 et suivantes. 405 Dans l'actuel 7e arrondissement. 406 Voir Marc Gayda, Les canaux parisiens, Valignat, Éditions de l'Ormet, 1995, p.24. Sur les fontaines, consulter : Michel Belloncle, La ville et son eau. Paris & ses fontaines, s.l., Serg, 1978, 287p. 407 Près d'un sou pour 15 litres pour la livraison de 268 litres par jours 408 Antoine Deparcieux, Mémoire lu à l'Assemblée publique de l'académie royale des sciences, le samedi 13 novembre 1762, sur la possibilité d'amener à Paris, à la même hauteur à laquelle y arrivent les eaux d'Arcueil, mille à douze cent pouces d'eau, belle & de bonne qualité, par un chemin facile & par un seul canal ou aqueduc, Paris, 1763, p.8. Deparcieux publia un Second mémoire sur le projet d'amenée à Paris la rivière d'Yvette, reprenant en grande partie les arguments du premier mémoire. 409 Jean Rodolphe Perronnet, Mémoire lu à l'Assemblée royale des sciences le 15 novembre 1775 sur les moyens de conduire à Paris une partie de l'eau des rivières de l'Yvette et de la Bièvre, Paris, 1776 ; Fer de la Nouerre, Mémoire sur le projet d'amener à Paris les eau des rivières de l'Yvette et de la Bièvre, s.i.n.d. Sur l'ensemble de la querelle, lire J. Bouchary, op. cit., pp. 33 et suivantes. 404 124 grande fiabilité par rapport à des machines susceptibles d'avaries et de vieillissement410 . Ces arguments furent repris par l'académie des sciences, préférant ouvertement l'écoulement gravitaire à la multiplication des pompes à feu. Fer de la Nouerre obtint par la suite la concession des travaux de l'Yvette, mais devant de graves difficultés techniques et surtout financières, il abandonna son entreprise en 1793. On peut encore signaler les analyses de Parmentier qui jugeait la Seine amplement suffisante aux besoins parisien. Il publia à cet effet une Dissertation sur la nature des eaux de la Seine, en 1787, où il attribua au fleuve des qualités de pureté, liées à son mouvement, ayant la capacité de purifier les matières et dépôts de toutes sortes s'y accumulant : « Loin donc que l'eau de la Seine se vicie en traversant Paris, il me semble au contraire qu'elle y acquiert de la qualité par l'augmentation de son mouvement411». 3. Fin de la controverse. Les divergences se poursuivant, le 8 mars 1805, Napoléon trancha en faveur des vues de Girard412. Ce dernier avait, par ailleurs, reçu le soutien de la chambre de commerce de Paris, qui se montrait favorable à l'idée d'une petite navigation413. Napoléon III souhaitait favoriser le commerce parisien, et il fallait, d'après lui, prolonger le canal de l'Ourcq jusqu'à celui de Saint-Quentin qui devait être achevé quelques années après. On décida alors que le canal allait être rendu navigable pour des bateaux de gabarit moyen et qu'il n'allait prolonger jusqu'à la rivière de l'Aisne à Soissons. À partir de ce moment, Girard allait désormais conduire les travaux avec empressement. En 1806, il publia un Devis général du canal de l'Ourcq, dressant enfin l'inventaire complet des ouvrages et des tâches à accomplir, depuis la première prise d'eau à Mareuil jusqu'à la barrière de Pantin 414 . Pierre-Simon Girard, bénéficiant du soutien de l'Empereur, fut placé, en 1807, à la tête de la direction des Eaux de Paris, regroupant l'ensemble des services de l'approvisionnement de la capitale, des pompes à feu aux aqueducs existants. Les premières parvinrent, en 1808, au bassin de la Villette. Ce n'était encore que des eaux de la Beuvronne. Les travaux continuèrent en direction de 410 Pierre Pinon, « Le canal de l'Ourcq, une controverse théorique », in Béatrice de Andia, Simon Texier (dir.), Canaux de Paris (Les), Paris, Délégation à l'action artistique de la Ville de Paris, 1994, p.93. 411 Antoine Parmentier, Dissertation sur la nature des eaux de la Seine, Paris, 1787, p.30. En fait, cette considération se trouvait largement en vogue au XVIIIe siècle, cf. articles de la revue Dix-huitième siècle, n°9, 1977, consacrés aux problèmes du sain et du malsain à l'époque. 412 Pour une étude complète de cette controverse, consulter : Frédéric Graber, Paris a besoin d'eau. Projet, dispute et délibération technique dans la France napoléonienne, Paris, CNRS Éditions, 2009, 412 p. Voir aussi : Frédéric Graber, « Le canal de l'Ourcq : entre faveur politique et questions théoriques », Les dossiers de Pour la Science, no 27, mai-juillet 2006, pp. 26-29. 413 Chambre de commerce de Paris, Rapport sur le canal de l'Ourcq, 27 prairial an XII. 414 Pierre-Simon Girard, Devis général du canal de l'Ourcq. Depuis la première prise d'eau à Mareuil jusqu'à la barrière de Pantin, Paris, 1806. 125 l'Ourcq, mais l'ingénieur remporta son pari en accomplissant un canal de navigation dépourvu d'écluse sur une portion importante de son cours 415 . Dans le même temps, il entreprit toute une série d'aqueducs souterrains et de fontaines dans Paris 416 . Les travaux furent poursuivis, bien qu'irrégulièrement, par les agents de l'État jusqu'en 1817, mais les finances de l'État et des villes étaient vides, ce qui amena à faire appel à une société privée afin de terminer les travaux. Les ingénieurs tels que Pierre-Simon Girard qui a dirigé les travaux du canal de l'Ourcq et l'économiste Jean-Baptiste Say 417 se mobilisèrent pour l'achèvement des travaux, et si nécessaire par une entreprise privée, à l'instar de ce qui avait pu se faire pour la construction des ponts418. Un traité fut passé le 19 avril 1818 avec MM. de Saint-Didier et Vassal pour achever le canal de l'Ourcq jusqu'à Port aux Perches et pour exécuter le canal Saint-Denis 419. Le Conseil municipal approuva le traité qui conférait la concession des deux canaux auxdits contractants et les Chambres le sanctionnèrent. La Ville consentit à une subvention de 7,5 millions de francs, en échange de quoi la compagnie prenait l'engagement d'achever les canaux de Saint-Denis et l'Ourcq, recevant la jouissance du bassin de la Villette et la perception des droits de navigation pour une durée de quatre-vingt-dix-neuf ans. Les travaux furent alors poussés activement, les canaux de l'Ourcq et Saint-Denis étant entièrement ouverts en 1822. La concession du canal Saint-Martin fut réalisée par l'adjudication, le 12 janvier 1821, à M. Vassal, agissant pour le compte de la Compagnie des Canaux, selon les mêmes conditions420. Les adjudications livrèrent le canal à la circulation le 4 novembre 1825. Les deux concessions accordées se trouvèrent réunies dans les mains d'une même société dont plus tard, M. Hainguerlot prit la direction et exploita simultanément les trois canaux de l'Ourcq, Saint-Denis et Saint-Martin421. 415 Pierre Pinon, op. cit., p.101. Ibid., pp.101-102. 417 Jean-Baptiste Say, De l'importance du port de la Villette, Paris, Deterville, 1818, 23p. 418 Isabelle Backouche, La trace du fleuve, op. cit., p.346. 419 Sur l'histoire des compagnies des canaux, voir : Yves Lefresne et Jean Dubreuil, « Création des canaux SaintDenis et Saint-Martin » in Canaux de Paris (Les), Paris, Délégation à l'action artistique de la Ville de Paris, 1994, pp. 105-107. ; Jean-Pierre Dubreuil et Jean Pacpoul, « Les compagnies des canaux. Chronologie », in ibid., pp.108-115 420 Félix Humblot, Les Canaux de Paris à la fin 1884, Paris, Impr. Chaix, 1885, p.6. 421 Michèle Merger, « La Seine dans la traversée de Paris et ses canaux annexes : une activité portuaire à l'image d'une capitale (1800-1939) », in François Caron, éd., Paris et ses réseaux. Naissance d'un mode de vie urbain, XIXe siècle, Paris, Bibliothèque historique de la ville de Paris, 1990, pp.350-352. 416 126 Le canal Saint-Denis ne fut ouvert à la navigation qu'en 1821, et le canal de l'Ourcq en 1822, même si l'achèvement global du dispositif fut fixé en 1817422. Girard prit entretemps la direction des travaux, le retour des Bourbons se traduisant par l'arrivée de nouveaux hommes de confiance. Il conserva toutefois le contrôle sur la distribution de l'eau dans la capitale ainsi que sur les canaux Saint-Denis et Saint-Martin, par l'intermédiaire d'une compagnie privée, formée à son instigation423. Prolongeant le canal Saint-Denis du bassin de La Villette à la Seine, le canal Saint-Martin est achevé en 1825. Girard résuma par la suite l'expérience et ses travaux dans ses mémoires424. Sous la Restauration et la Monarchie de Juillet, les controverses autour de l'oeuvre de l'ingénieur, membre de l'Institut depuis 1813, s'estompèrent pour sombrer dans l'oubli 425. Malgré tout, elle permit de révéler certains problèmes essentiels. La volonté de Napoléon Ier et l'obstination d'un de ses ingénieurs se révélèrent décisives pour la réalisation finale du canal de l'Ourcq. Dans le même temps, les canaux de Paris allaient insuffler une nouvelle impulsion à une activité industrielle et commerciale d'une importance majeure, au point de laisser place au rêve d'un « Paris, port de transit ». Si, comme on l'a vu, le système des canaux avait été élaboré à l'orée du XIXe siècle en vue de résoudre les difficultés de la traversée de Paris, il n'en a pas, pour autant, remplacé la navigation fluviale, mais a plutôt instauré une relation de complémentarité426. Le rapport allait évoluer au fil du siècle, au fur et à mesure des aménagements effectués sur les rivières. En effet, après leur entrée en service, les canaux tendirent à supplanter la navigation en rivière dans Paris et la banlieue immédiate en aval, sans toutefois l'annihiler. Isabelle Backouche évoque « l'instauration d'une sorte de centralité fluviale et commerciale, à la périphérie nord de Paris427 ». Cependant, dès le Second Empire, cette « suprématie » finit par s'estomper à la faveur des facilités offertes par les aménagements fluviaux, notamment sur le verrou que constituait le centre de la capitale. 422 AP VO3 544: Canaux : traité entre la Cie du Canal St-Martin et la Ville de Paris (juillet 1833) ; actes de la société (1831), pièces relatives à la construction du canal (plans) ; état des bateaux circulant sur le canal (1845) ; lettres et arrêtés préfectoraux concernant la construction du canal (1825-1836). 423 Pierre-Simon Girard, Mémoires sur le canal de l'Ourcq et la distribution de ses eaux ; sur le dessèchement et l'assainissement de Paris, et divers canaux navigables qui ont été mis en exécution ou projetés dans le bassin de la Seine pour l'extension du commerce de la capitale ; avec un atlas descriptif, Paris, Chez Carilian-Goeury & Vor Dalmont, Librairies des Corps Royaux des Ponts et Chaussées et des Mines, , 1831-1845, t.1, p.172. 424 Ibid. 425 Frédéric Graber, « Le canal de l'Ourcq : entre faveur politique et questions théoriques », Les dossiers de Pour la Science, no 27, mai-juillet 2006, pp. 26-29. 426 Isabelle Backouche, « Mesurer le changement urbain à la périphérie parisienne. Les usages du Bassin de La Villette au XIXe siècle », Éditions de l'E.H.E.S.S. in Histoire & mesure, janvier 2010, vol. XXV, p. 50. 427 Isabelle Backouche, « Mesurer le changement urbain à la périphérie parisienne. Les usages du Bassin de La Villette au XIXe siècle », Éditions de l'E.H.E.S.S. in Histoire & mesure, janvier 2010, vol. XXV, p. 51. 127 B. Couverture du canal Saint-Martin : entre visées sécuritaires et contraintes de l'urbanité. L'ambiguïté du Second Empire vis-à-vis de la batellerie s'est exprimée à l'occasion de la couverture du canal Saint-Martin qui eut pour conséquence de limiter la navigation : « Cependant l'administration, loin d'agrandir le port, enlève au trafic des berges fort utiles428. L'image du canal Saint-Martin s'était sensiblement dégradée. En premier lieu, le canal Saint-Martin passait pour un endroit mal famé, où des bandes prenaient plaisir à jeter les passants dans l'eau, cette fâcheuse « pratique » prit d'autant plus d'ampleur que le service des Canaux offrait une récompense à qui sauvait les noyés Sa réputation de lieu « coupegorge » était d'ailleurs entrée dans l'imaginaire populaire, une pièce de théâtre lui a même été consacrée et connut un certain succès429 : « Redoutez à minuit le canal Saint-Martin430 ». Plus globalement, le fait que la compagnie concessionnaire ait porté à la baisse le tirant d'eau du canal Saint-Martin comme condition pour achever les travaux entrepris sous le Consulat, en condamnait les perspectives de développement sur le long terme. D'ailleurs, cette société avait privilégié les revenus issus de la vente d'eau aux industriels à ceux de l'essor de la navigation ce qui explique le piètre état du canal à la veille du rachat du canal par la Ville de Paris431. Plus grave encore, Émile Pereire proposa, en 1858432, aux actionnaires de la Compagnie des Docks de boucher le canal pour établir des voies de raccordement entre les magasins et les voies ferrées433 Si sa contribution s'avère difficilement mesurable, le canal semble bien avoir favorisé l'essor industriel des quartiers qui le bordaient, que ce soit en raison de la proximité de la navigation ou des disponibilités en eaux industrielles. Les 428 François Maury, op. cit., p.152. Sur le Paris criminel, voir Louis Chevalier, Classes laborieuses et classes dangereuses, Paris, Tempus, 2007, 608p. 430 Charles Dupeuty et Eugène Cormon, Le Canal Saint-Martin, drame en 5 actes et 7 tableaux, présenté à Paris, pour la première fois, au théâtre de la Gaieté, le 12 juillet 1845, Marchant-Walder, Paris, p.16. Cette pièce reflétait le caractère ambivalent de la représentation de ce canal dans l'imaginaire populaire, puisque une page auparavant et à la fin de la pièce, les personnages scandaient : « Vive, vive à jamais le canal Saint-Martin », ibid., p.15 et 47. Les couplets de la chanson montraient les vertus économiques du canal Saint-Martin qui faisait vivre de nombreuses professions (débardeurs, blanchisseuses, etc.) et approvisionnait la capitale, tout en constituant un espace de vie pour la population parisienne (pêcheurs, jeunes amoureux, etc.). Ce n'est évidemment pas la seule oeuvre à faire référence à ce lieu. Le canal Saint-Martin sert également de décor à l'incipit au roman de Gustave Flaubert, Bouvard et Pécuchet (1881), et comme on l'a déjà vu dans le premier chapitre, Balzac avec César Birotteau (1837). 431 Cela explique aussi, en partie, pourquoi la compagnie concessionnaire renonça rapidement à ses droits, car la partie couverte du canal signifiait autant de centaines de mètres de quais accessibles à des industriels ou des commerçants de perdus. 432 Sur la Compagnie des Docks Napoléon et la Compagnie des entrepôts et des Magasins généraux, voir Jeanne Gaillard, Paris, la Ville (1852-1870), Paris, L'Harmattan, pp. 369-381. 433 AN (site de Pierrefitte-sur-Seine) F12 3781, Rapport d'Émile Pereire du 5 juillet 1858 à l'Assemblée générale de la Cie des Docks. Émile Pereire expose le projet de « remplacer le canal Saint-Martin par une voie ferrée qui serait alors bordée de des deux côtés par vos entrepôts et vos magasins, à deux kilomètres seulement du Chemin de fer de ceinture avec lequel ils peuvent se relier au moyen d'un embranchement depuis longtemps utilisés. » 429 128 industries chimiques et du raffinage du sucre se sont ainsi implantées dans les Xe et XIe arrondissements 434 , les rives du canal Saint-Martin accueillaient plus particulièrement les industries mécaniques435. Sur le plan urbanistique, la couverture du canal Saint-Martin, « plus favorable à la circulation de surface qu'aux intérêts de la navigation436 » répondait à trois objectifs437 : le premier consistait à structurer l'Est parisien dont les nombreuses communes venaient d'être rattachées à Paris par la loi du 24 juin 1860, le second était la création des avenues nouvelles entre les pôles de la Villette, République, Bastille et Nation. Le troisième, souvent négligé, mais peut-être le plus vital, visait à rationaliser l'approvisionnement en eau. L'ouverture des boulevards Voltaire, Richard Lenoir et l'actuel Jules Ferry devaient s'interpréter dans cette optique 438 . L'opinion traditionnelle fonde les réalisations haussmanniennes sur des considérations essentiellement sécuritaires afin de pouvoir faire maintenir l'ordre et faciliter l'évolution des troupes, notamment et plus spécialement dans l'Est parisien, populeux et ouvrier, donc a priori défavorable au pouvoir impérial439. Cependant, il s'agissait là, selon Marc Gayda, d'idées reçues, tout au moins en partie. Il nous rappelle le contexte dans lequel avait été prise cette décision. Haussmann avait su, comme on l'a vu précédemment, élaborer des modes de financements assez originaux pour l'époque, et donc avait disposé de fonds importants pour le paiement des grands travaux qu'il avait entrepris. Sa méthode consista, entre autres, à vendre auprès des « promoteurs » de terrains à bâtir, dégagés des constructions anciennes à la suite d'expropriations. Ce système connut néanmoins des limites, et les difficultés commencèrent Il fallut par conséquent diversifier les financements, avoir recours à des impôts locaux et le vote de crédits de la part des assemblées municipales de Paris et départementale de la Seine. Mais celles-ci se montraient particulièrement mal disposées à l'égard d'Haussmann qui bouleversait un équilibre socioprofessionnel établi, et il devenait de plus en plus délicat pour le préfet de la Seine d'obtenir les crédits nécessaires. Afin de parvenir à ses fins, une des tactiques du préfet de la Seine consistait à invoquer le réflexe sécuritaire, ce qui lui permettait 434 Les sucres coloniaux parvenaient notamment jusqu'au bassin de la Villette. Maurice Daumas et collab., Évolution de la géographie industrielle de Paris et sa proche banlieue au XIX e siècle, Paris C.D.H.T.-C.N.A.M., 1976, pp.83; 103 et 116. 436 Annuaire statistique de la Ville de Paris, 1880, p.81. 437 Marc Gayda, Les canaux parisiens, Valignat, Éditions de l'Ormet, 1995, pp. 43-45. 438 L'ouverture du boulevard Prince-Eugène (aujourd'hui le boulevard Voltaire) par décret du 29 août 1857 impliqua directement l'abaissement du canal Saint-Martin. 439 À contrario, le canal perdait aussi un intérêt stratégique en cas d'invasion étrangère Les troupes répressives se retrouvaient plus à découvert, plus spécialement la cavalerie. 435 129 d'obtenir le vote favorable des élus inquiets des mouvements dans les quartiers ouvriers440 . Dans ce cas, il s'agissait donc plus d'une manoeuvre politique pour obtenir les fonds indispensables à des desseins plus vastes que celui de répondre à une réelle préoccupation stratégique441. Il ne s'agit bien entendu pas de faire d'Haussmann un défenseur de la classe ouvrière, ni de nier l'intérêt de cette couverture en termes de sécurité. D'ailleurs, il s'avère parfois malaisé de discerner dans ses mémoires, ce qui relève de sa volonté lors des événements, ou de l'autojustification a posteriori 442 . L'unique certitude, c'est que ses ambitions portaient en priorité sur les domaines de l'urbanisme, de l'hygiène et de salubrité443. Le passage de ses mémoires évoquant l'abaissement du canal Saint-Martin reflète cette ambiguïté. La vertu sécuritaire de cette opération n'est pas évoquée en première instance, Haussmann insiste avant tout sur des objectifs de circulation, puis achève son récit sur des questions d'hygiène et de considérations urbanistiques. Plus troublant encore, il insiste particulièrement tant sur l'enthousiasme de l'Empereur que l'on hésite sur la nature de ses intentions réelles. En effet, la mémoire a laissé une image bien déformée du personnage de Haussmann, à la suite de la « légende noire » propagée sous la IIIème République444. Né dans la douleur, la nouvelle république avait toutes les raisons de noircir le régime antérieur, ne serait-ce pour en renforcer sa propre légitimité, et ceci d'autant plus que certains de ses acteurs avaient des responsabilités dans la défaite contre la Prusse. Le paradoxe résidait sans doute dans le fait que les plus fervents opposants au régime ont eux-mêmes alimenté le mythe Haussmann. En pourfendant la brutalité de ses réalisations, celles-ci s'en trouvaient rehaussées, et sans doute, bien au-delà de la réalité. Conséquence peut-être des excès de cette légende noire, une historiographie plus récente s'est efforcée au contraire de réhabiliter le Second Empire445 et par voie de conséquence, les grands travaux haussmanniens446. Le préfet est présenté comme un visionnaire incompris, dont l'oeuvre novatrice s'est révélée salvatrice 440 Marc Gayda, Les canaux parisiens, Valignat, Éditions de l'Ormet, 1995, p.44. Cette pratique était courante de la part du préfet de la Seine, comme le souligne Nicolas Chaudun Voir Nicolas Chaudun, Haussmann Georges Eugène, préfet-baron de la Seine, Arles, Actes Sud, Paris, 2009, p.176. 442 En effet, Haussmann se gargarise d'avoir introduit les squares et autres jardins publics, d'après le modèle londonien Sauf que l'idée ne venait pas forcément de lui Et plus encore, ces apports compensaient mal les énormes pertes d'espaces verts suite à des projets immobiliers, comme en fut victime le parc Monceau, et comme faillit l'être le jardin du Luxembourg Sans compter les innombrables jardins privés et autres promenades disparus à la faveur des constructions. Les squares pouvaient ainsi apparaître comme de maigres compensations. 443 Marc Gayda, Les canaux parisiens, Valignat, Éditions de l'Ormet, 1995, p.44. 444 Immortalisée par Jules Ferry dans ses fameux « Comptes fantastiques d'Haussmann ». Voir Jules ferry, Les Comptes fantastiques d'Haussmann, Paris, Armand le Chevalier, 1868. Pour faire le point sur l'historiographie des travaux d'Haussmann, consulter : Pierre Pinon, « Le double mythe Haussmann », 445 L'ouvrage qui a popularisé cette réhabilitation est sans doute celui de Philippe Séguin, voir Philippe Séguin, Louis Napoléon le Grand, Paris, Édition Grasset & Fasquelle, 1990, Le Livre de Poche, 1992, 575p. 446 Voir par exemple, George Valance, Haussmann le grand, Paris, Flammarion, 2000, 362p. L'ouvrage suit finalement une démarche assez proche du précédent, mais appliquée au préfet de la Seine, 441 130 pour remédier à une crise urbaine en phase d'engloutir la capitale447. Selon les tenants de cette vision plus positive, l'argument sécuritaire tend plutôt à être évacué hormis curieusement pour les canaux parisiens. Un autre courant historiographique nuance cette réhabilitation. Certains historiens tendent à montrer la continuité dans laquelle s'inscrit Haussmann dans l'urbanisme parisien448. La redécouverte du contenu des commissions présidées par Henri Siméon tend à prouver que celles-ci ont joué une influence plus considérable que ne semblaient le laisser croire les mémoires d'Haussmann449. Les conceptions de Louis-Napoléon Bonaparte, devenu Napoléon III, se seraient donc révélées plus décisives que ce que l'on a pu penser. L'Empereur ne s'était pas contenté d'approuver les propositions de son préfet, ou de concrétiser les idées exprimées sur une simple carte coloriée 450 . Au fond, Haussmann apparaîtrait plus comme un exécutant brillant et énergique que réellement innovateur 451, et les travaux qu'il dirigea se seraient inscrits dans les conceptions de son temps, et auraient reçu globalement l'assentiment général. Il semble bien que le percement des grands boulevards relevait avant tout de considérations de circulation plutôt qu'exclusivement sécuritaires, et résultait d'une longue réflexion menée depuis le siècle précédent par les urbanistes, architectes et déjà entreprises par les prédécesseurs de Haussmann 452. Pour ce qui était du canal Saint-Martin, il faudrait peut-être plutôt se référer à la première partie des Mémoires d'Haussmann 453 . En effet, ce dernier souhaitait améliorer la circulation entre la Place du Château d'Eau et celle du Trône454 qui était franchie par un pont fréquemment ouvert afin d'autoriser la circulation terrestre. Diverses études avaient été mises en oeuvre, mais aucune 447 Consulter Pierre Lavedan, Nouvelle histoire de Paris. Histoire de l'urbanisme à Paris, Paris, Association pour la publication d'une Histoire de Paris, Bibliothèque Historique de la Ville de Paris, Diffusion Hachette, 1975, + Supplément (1974-1993) de Jean Bastié, p.368 ; Philippe Vigier, Paris pendant la monarchie de Juillet, 1830-1848, Paris, Hachette- Nouvelle Histoire de Paris, 1991, p.207. 448 Il n'est pas inutile de rappeler qu'Adolphe Alphand est resté aux commandes des travaux de Paris jusqu'en 1891. Nicolas Chaudun, Haussmann Georges Eugène, préfet-baron de la Seine, Arles, Actes Sud, Paris, 2009, pp.251-257. Ou encore Émilie Grandfond, « Les Embellissements du Paris post-haussmannien au temps d'Adolphe Alphand (1871-1891) », mémoire de master sous la direction de Jean-Pierre Chaline, Paris-IV Sorbonne, 2007. 449 Pierre Casselle éd., Commission des Embellissements de Paris. Rapport à l'empereur Napoléon III rédigé par le comte Henri Siméon, dans Cahiers de la Rotonde, n° 23, Paris, 2000, 205p. 450 Mémoires, t.2, p.53. 451 Il fut sans doute un exécutant remarquable, ce qui n'était quand même pas rien. 452 Toutefois, il ne faut pas pour autant complètement écarter le fait que le régime du Second Empire ait résulté d'un coup d'État. Reposant sur une légitimité des plus fragiles, il pouvait authentiquement nourrir la crainte d'une insurrection populaire, mais pas seulement, à savoir d'un renversement par les républicains et même les monarchistes. Sur les conceptions urbanistiques du siècle précédent, voir notamment : Jean Chagniot, Nouvelle Histoire de Paris. Paris au XVIIIe siècle, Paris, Association pour la publication d'une Histoire de Paris, Bibliothèque Historique de la Ville de Paris, 1988, pp.153-181. 453 Sur ce point, il diverge de Nicolas Chaudun ou Pierre Pinon, pour qui, la couverture du canal Saint-Martin semble bien liée à des raisons sécuritaires dans le quartier ouvrier. Pourtant, l'analyse de Marc Gayda paraît tout de même plus convaincante, ici, dans la mesure où la IIIème République allait couvrir de nouvelles portions du canal. 454 Il s'agit aujourd'hui respectivement des places de la République et de la Nation. 131 solution ne parvenait à satisfaire totalement le préfet : l'édification d'un pont tournant ne résolvait en rien l'interruption de la circulation lors du passage des bateaux. De plus, un pont fixe nécessitant d'importantes rampes rendait malaisée la desserte de l'ensemble du quartier. Ainsi, à la fin des travaux, l'hebdomadaire l'Illustration proclamait en 1862 : « Plusieurs ponts à pivot établissaient une communication entre les deux bords, et ajoutaient ainsi à la difficulté de la navigation, qui avait à franchir des obstacles nombreux sur un très petit parcours. Ces passages, souvent interrompus, étaient, en outre, d'une incommodité fort grande pour la circulation publique. La canalisation souterraine supprime la plus grande partie de ces obstacles, et fait disparaître les inconvénients de ces nombreuses interruptions. De la gare de l'Arsenal jusque sous le bassin de la Douane, le canal n'offre plus qu'une nappe d'eau455. » La mise en souterrain réglait effectivement le problème, le croisement des voies principales qui étaient les boulevards Voltaire et Richard Lenoir, pouvait alors s'effectuer à niveau. Les travaux furent autorisés par un décret du 30 avril 1859 : « C'est après bien des insomnies que me vint à l'esprit cette combinaison. Dès que Belgrand l'eut reconnue praticable, je me hâtais d'en porter la nouvelle à l'Empereur Napoléon III qui monta de suite à cheval pour s'en rendre compte456 ». Selon ses propres mots, l'ancien préfet de la Seine reconnaissait que la circulation constituait sa préoccupation prioritaire. Le passage de ses mémoires évoquant l'abaissement du canal Saint-Martin s'avère révélateur de cette ambiguïté457. La vertu sécuritaire de cette opération n'est pas évoquée en première instance, elle ne figure que sur deux paragraphes, encore relèvent-ils plus de l'anecdote que d'un exposé péremptoire. Il est possible d'envisager que le préfet cherchait plutôt à enrober d'arguments sécuritaires pour justifier un projet onéreux 458 . En effet Haussmann souligne avant tout les objectifs de circulation, puis achève son récit sur des questions d'hygiène et urbanistiques. Plus troublant encore, il insiste plus spécifiquement l'enthousiasme de l'Empereur : « J'ai rarement vu mon Auguste souverain enthousiasmé. Cette fois, il le fut sans réserve, tant il attachait de prix dans son intérêt d'ordre public, au travail par lequel je proposais de faire disparaître l'obstacle permanent dont le plan d'eau, 455 L'Illustration, janvier 1862. Eugène Haussmann, Mémoires du baron Haussmann, II, Grands travaux de Paris, Paris, Victor-Havard, éditeur, 1893, t. 2, p.318. 457 Marc Gayda, Les canaux parisiens, Valignat, Éditions de l'Ormet, 1995, p.44. 458 Pour être tout à fait honnête intellectuellement, on peut aussi avancer l'argument opposé : Haussmann pourrait avoir enrobé de motifs urbanistiques pour justifier un ouvrage essentiellement répressif. Toutefois, à la lecture attentive du texte, cela ne semble guère convaincant. 456 132 trop élevé, du bief du Canal menaçait, soit, la circulation commode, soit, l'établissement, à peine voyant, d'un bout à l'autre de la ligne magistrale d'où l'on pourrait, au besoin, prendre à revers tout le Faubourg Saint-Antoine 459 ». Cet extrait laisse entrevoir le soupçon du procédé haussmannien consistant à invoquer les motivations sécuritaires pour mieux convaincre du bienfondé des travaux qu'il projetait. Certes, plus loin, lui-même recourt à un argumentaire assez proche : « Bien plus, le Boulevard que je projetais au-dessus du Canal couvert, et dont le nom me fut indiqué par l'Empereur devait substituer, au moyen de défense que le Canal offrait aux émeutiers une nouvelle voie d'accès dans le centre habituel de leurs manifestations460 ». De manière paradoxale, Haussmann s'étonne de la pléthore de pétitions émanant de populations ouvrières et même d'industriels et de commerçants, dont l'activité était censée dépendre fortement du canal : « Détail curieux ! lorsque mon projet fut mis à l'enquête, plus de 30,000 dépositions favorables provenaient surtout des classes ouvrières461 ». L'oeuvre du Second Empire ne s'opposait pas de manière exclusive aux classes populaires, mais potentiellement tout autant aux industriels et négociants dont il dénonçait la nocivité des activités, au moins dans la Paris intra-muros, et donc du caractère insalubre du canal en évoquant les : « miasmes délétères de ses eaux, renouvelées insuffisamment, comme des mérites divers de la promenade nouvelle, dont la promesse charmait les petites gens462. » À le lire, l'abaissement du canal Saint-Martin faisait presque office « d'oeuvre sociale », ou tout au moins de salubrité publique Il est vrai que les canaux parisiens transportaient des quantités considérables de matériaux de construction, les transbordements de plâtre s'étaient révélés si nuisibles, qu'ils furent prohibés sur les quais du grand bassin de la Villette. Les poussières de plâtre créaient des conflits avec d'autres entrepreneurs qui leur reprochaient de détériorer les sucres, d'encrasser les mécanismes des grues463 En outre, la qualité de l'eau s'en ressentait, celle-ci se caractérisait par une quantité anormale de sulfate et de sels de chaux 464 . Cette 459 Haussmann, Mémoires, t.2, p.318. Haussmann, Ibid., p.318 461 Plus curieux encore, Haussmann montre même une forme de mépris à l'égard des commerçants et industriels usagers des quais canal Saint-Martin, car ils se montraient peu soucieux de l'état sanitaire du quartier : « Les 500 autres avaient été presque toutes faites par des négociants et industriels, qui profitaient du service à quai du canal, sans souci, pour la population, des miasmes délétères de ses eaux, renouvelées insuffisamment () » Ibid, pp. 318-319. Si son oeuvre semblait destinée à la bourgeoisie, elle ne l'était donc pas forcément à l'industrie parisienne. 462 Haussmann, Mémoires, t.2, pp.318-319. 463 Emmanuelle François, « Le XIXe siècle du bassin de la Villette », mémoire de maîtrise sous la direction de Michelle Perrot, Université de Paris VII, U.E.R. de géographie, Histoire et science de la société, octobre 1984, p.120. 464 Le transport du plâtre représentait une part significative du trafic, notamment sur le canal de l'Ourcq. En outre, plus de la moitié de ces plâtres passaient par le canal Saint-Martin. En outre, il fallait ajouter que le bassin 460 133 assertion était révélatrice d'un projet urbain où les activités industrielles n'avaient plus « droit de cité » dans la ville465. Le préfet parlait des « mérites divers de la promenade nouvelle, dont la promesse charmait les petites gens466 ». L'étonnement d'Haussmann résultait de l'association que l'on établissait entre classes laborieuses et criminelles. Cela n'aurait pourtant pas dû tant le surprendre, même si cela posait la question des relations entre l'activité industrielle et commerciale locale et l'activité fluviale. En effet, les deux n'étaient pas forcément connectées de façon permanente, et à la faveur du développement des quartiers bordant le canal, les activités économiques se diversifiaient de plus en plus, au point de devenir totalement étrangères à la voie d'eau, voire se montraient hostiles en termes de circulation. Au fond, la population ouvrière ressentait tout autant le besoin de circuler, et le canal représentait un obstacle gênant. Il n'était pas non plus impossible qu'ouvriers et industriels ne se montraient guère conscients du péril que la disparition de ces lignes de quai pouvait représenter pour la pérennité de leur activité sur le très long terme. En effet, les deux réalités pouvaient coexister. En outre, les populations d'artisans et ouvrières ont eu tendance à demeurer dans leurs quartiers d'origine, soucieuses de la proximité de leurs clientèles. Les faubourgs se sont développés grâce à l'apport de populations nouvelles, d'origine rurale ou provinciale 467 . En outre, pour des raisons financières, certains travaux se limitaient aux bordures des grands boulevards, les quartiers conservant quasiment leur structure antérieure, ce qui prouve que l'oeuvre du Second Empire a moins transformé la ville que ce que l'on pourrait le croire468. Le centre ancien demeurait encore très populaire, tandis que s'embourgeoisait à l'ouest, et plus particulièrement le nordouest de la capitale. Ils ne firent souvent qu'accentuer les formes de ségrégation sociale entre quartiers populaires, quartiers intermédiaires et quartiers bourgeois. Et force est de constater que les conceptions urbanistiques supposées sécuritaires, si elles semblaient avérées et au fondement de l'urbanisme du Second Empire, ne montrèrent pas leur pertinence, dans la de la Villette pouvait servir de sanitaires publics Eugène Belgrand, Historique du service des eaux depuis l'année 1854 jusqu'à l'année 1874. Note à M. le préfet de la Seine, Paris, Dunod, 1875, p.2. 465 Le centre-ville avait ainsi connu un essor considérable de son activité industrielle dans la première moitié du XIXe siècle, soit un triplement. Voir Maurizio Gribaudi, Paris, Ville ouvrière. Une histoire occultée 1789-1848, Paris, La Découverte, 2014, p.202. 466 Haussmann, op.cit. 467 Florence Bourillon, « La rénovation de Paris sous le Second Empire : étude d'un quartier », in Revue historique, n° 563, 1987, pp. 135-159. 468 Bernard Marchand, Paris, histoire d'une ville, XIXe- XXe siècle, Paris, Seuil, 1993, p.90. 134 mesure où les barricades se sont dressées peu ou prou aux mêmes endroits en juin 1848 et 1871469. L'abaissement du canal Saint-Martin représentait malgré tout une opération colossale. Il était prévu d'élever un barrage en amont du pont du Faubourg du Temple et de vider ensuite l'eau du bief neutralisé et retirer près de 23 000 mètres cubes de vases470. Les opérations de terrassement étaient destinées à abaisser le lit du canal de 5,50 m. Les travaux furent accomplis en 21 mois. Réalisée en 1861-1862 par l'ingénieur Rozat de Mandres, la voûte de la rue Richard Lenoir représenta un véritable tour de force technique, autant par sa largeur que par sa faible épaisseur, variant de 4,40 m au niveau des piédroits à seulement 0,80 m d'épaisseur, dominant le plan d'eau à 4,85 m. Le tunnel se trouvait réduit à 16 m de large avec des trottoirs de 1,75 m pour le halage des bateaux. L'éclairage était assuré naturellement par le percement d'une trentaine d'oculi de 3 mètres de diamètre, ce qui permettait en même temps la ventilation de l'ouvrage471. La couverture du canal Saint-Martin contribua ainsi à une profonde restructuration des quartiers l'environnant. Les divers entrepôts, appentis ou petits immeubles bâtis pour servir la navigation ne présentaient plus aucune utilité et ont cédé la place à de nouveaux immeubles de rapport472. Malgré cette sérieuse amputation, le trafic s'est maintenu à un niveau élevé jusqu'à la fin du Second Empire et même par la suite473, en passant de 678 000 à 918 336 t entre 1867 et 1869474. Cela montre les contradictions permanentes résultant du conflit entre les desseins urbanistiques et les conséquences de celles-ci qui nécessitaient justement de faire appel à la batellerie pour leur mise en oeuvre475. Circulation et préoccupations sécuritaires se mêlaient étroitement, et fonctionnaient de manière concomitante. L'assainissement sanitaire 469 À l'inverse, le coup d'état du 2 Décembre n'a pas eu besoin de ces grands travaux pour réussir. En outre, les grands boulevards peuvent tout autant se retourner contre le répresseur en le mettant à découvert contre des francs-tireurs. 470 Toutefois, la gare de l'Arsenal demeura ouverte à la navigation, elle permit le transport des matériaux et des déblais. Passant sous la voûte de la Bastille et longeant la rigole d'épuisement, une voie ferrée fut établie afin de convoyer les déblais jusqu'à la gare où ils étaient évacués dans des bateaux qui les acheminaient pour être déchargés sur des ports en Seine. Cette mini ligne de chemin de fer amenait la meulière, le sable et les divers matériaux parvenant par la rivière. Signe des relations paradoxales entre les voies ferrées et la voie d'eau, les moellons ont été extraits des carrières de Saint-Maur et transportés par le chemin de fer de Vincennes, ou de la vallée de l'Ourcq et convoyés par les canaux de l'Ourcq et Saint-Martin. 471 A.P. VO3 1839-1841 Abaissement du canal : rapports et ordres de service de l'ingénieur, arrêtés préfectoraux, notes de calculs, plans, devis estimatif, avant-métré des travaux, bordereau de prix. 1859-1878. 472 Le nouveau quartier fut alors rebaptisé du nom de deux industriels propriétaires d'une manufacture de tissus rue de la Roquette connus pour leur réussite sociale, Richard-Lenoir. 473 M. Humblot, Les canaux de Paris à la fin de 1884, Paris, Imprimerie et librairie des Chemins de fer, Imprimerie Chaix, 1885, annexe n°6. 474 Annuaire statistique de la Ville de Paris , année 1880, p.43. 475 Sur ce sujet, voir le sixième chapitre, à la fois en ce qui concerne la seconde couverture du canal SaintMartin, mais également les tensions exercées sur les ports de Seine en raison des travaux liés au métropolitain. 135 s'accompagnait d'un « assainissement social », qui supposait une « désindustrialisation » urbaine. La disparition visuelle ne résidait pas uniquement dans la couverture sur deux kilomètres du canal Saint-Martin, mais tout autant dans son enfoncement. Il en résultait donc une profonde mutation de la physiologie tant du canal Saint-Martin, que d'un paysage urbain qui durant les quelques décennies de fonctionnement du canal, avait pris une tonalité pittoresque et « maritime » : « Lorsque cet immense travail sera terminé, le canal SaintMartin ne sera plus reconnaissable : l'aspect hollandais que présentaient ses bassins, ses écluses, ses ponts tournants, aura fait place à un véritable parc et ce changement de décoration ne sera pas une des moindres merveilles des grands travaux qui s'exécutent dans la ville de Paris476. » Les installations servant aux activités en relation avec le canal disparurent pour laisser place à de nouveaux immeubles de rapport. Cependant, les travaux de couverture ne furent pas totalement négatifs pour la navigation, puisque, de manière paradoxale, comme en témoignait un rapport du service municipal des travaux publics d'octobre 1861, ils favorisèrent les opérations de halage477, les haleurs n'ayant plus à traverser les cinq ponts qui traversaient l'ancienne portion de canal 478 . En outre, le chemin de halage n'était plus embarrassé par des marchandises ou des bateaux en train de décharger leurs marchandises, et qu'il était nécessaire de contourner. La couverture du canal Saint-Martin signifia donc également une modernisation des conditions de navigation. Peu après la remise en eau du canal, durant l'été 1861, on procéda à des essais de touage sous la direction de l'ingénieur Arnoux479. La chaîne de touage placée dans les eaux du canal permettait de remorquer le toueur à vapeur « Richard Lenoir » qui apportait un gain significatif de temps, à savoir la moitié de la durée du parcours antérieur. Cette opération ne visait pas simplement la modernisation des conditions de navigation, mais contribuait à améliorer l'image de la marine des canaux. L'ingénieur Belgrand faisait ainsi observer en novembre 1861 que l'on ne pouvait « laisser sous les yeux des habitants le spectacle affligeant du halage à col d'homme480 ». Les autorités craignaient également des mouvements concertés destinés à perturber le trafic, même si le milieu des haleurs s'avérait plutôt désorganisé481. 476 L'Illustration, 18 janvier 1860. Il est à noter que le halage animal n'a jamais été autorisé sur ce canal, les bateaux étant tirés par des haleurs ou selon le poids des cargaisons, par des barques avec un ou plusieurs rameurs. 478 Rapport cité dans Marc Gayda, Les canaux parisiens, Valignat, Éditions de l'Ormet, 1995, p.88. 479 L'ingénieur Arnoux avait dirigé la construction de la ligne de chemin de fer de Paris à Sceaux. 480 Cité par Marc Gayda, Les canaux parisiens, Valignat, Éditions de l'Ormet, 1995, p.88. 481 En 1859, il existait trois catégories de haleurs : 1. Une trentaine d'hommes dépendant d'un centre établi au boulevard de la Villette pour descendre les bateaux en direction de la Seine, ou remonter les bateaux ayant déchargé à l'intérieur du canal Saint-Martin ; 2. Une quarantaine de haleurs au bassin de l'Arsenal pouvant 477 136 L'abaissement du canal Saint-Martin ne se bornait pas aux questions sécuritaires immédiates et circulatoires, il s'inscrivait dans une vaste politique de l'eau décidée sous le Second Empire. Haussmann visait une réorganisation en profondeur les services municipaux dont les moyens techniques, humains et financiers lui semblaient sous-dimensionnés face aux défis auxquels ils se trouvaient confrontés, et à plus forte raison, face aux travaux colossaux que lui-même envisageait et de manière plus immédiate, à l'agrandissement de de la ville qu'impliquait l'annexion des communes avoisinantes. La question de l'eau s'avérait donc stratégique. Les questions de l'eau était significative de cette volonté de réorganisation administrative. Au-delà des travaux proprement dits, le regroupement des services de l'eau lui avait semblé nécessaire, et ses conceptions sont clairement affichées dans ses mémoires : Dès 1860, afin de concentrer, dans un seul service embrassant l'ensemble de la Ville agrandie, les distributions d'eau de toutes provenances, le Conseil Municipal avait délibéré, sur ma proposition, le Rachat, moyennant 60 annuités de 1,160,000 francs chaque, représentant un capital de plus de 21 millions, et payables à partir du 1 er Janvier 1861, non seulement, des Concessions faites à la Compagnie Générale des Eaux par les communes annexées, mais encore, de tous les Établissements et Usines de cette puissante Société, qui prit ensuite la Régie Intéressée des Eaux de Paris livrées à la consommation particulière. Le Traité de Rachat, passé le 11 Juillet, 482 avait été sanctionné par un Décret d'approbation rendu, sur l'avis du Conseil d'État, le 2 octobre suivant . En réalité, il s'agissait bien d'une forme de réappropriation des eaux de Paris sous la forme d'un rachat en régie intéressée. Haussmann envisageait un doublement des disponibilités en eau pour la capitale ce qui impliquait d'énormes investissements, car la configuration géologique de Paris faisait que l'on devait prélever les eaux domestiques beaucoup plus loin pour obtenir les volumes nécessaires. S'appuyant sur les nombreuses études menées par Belgrand, il est parvenu à convaincre un conseil municipal encore très réticent, afin de distinguer un réseau privé et public lors de la séance du 12 janvier 1855. En d'autres termes, il les persuada de la pertinence de fournir la population en eau de source, de meilleure qualité 483 . Les eaux du canal de l'Ourcq et de la Seine devaient être réservées désormais aux services. En 1854, les eaux de l'Ourcq représentaient encore les trois-quarts de l'approvisionnement en eau de la Ville de Paris484. Par ailleurs l'absorption des communes avoisinantes signifiait l'apport de près de 500 000 habitants à qui il fallait fournir une d'eau de qualité et à un prix équivalents. Or, les canaux et les eaux de Paris avaient été concédés à effectuer l'avalage des bateaux au retour ; 3. Des haleurs oeuvrant pour des entreprises désignées. Ces hommes pouvaient être de simples débardeurs assurant en supplément le travail de halage. 482 Haussmann, Mémoires, t.2, pp.317-318. 483 En effet, beaucoup se méfiaient des eaux puisées en profondeur, et demeuraient convaincus de la valeur supérieure des eaux de la Seine. 484 Il n'est pas inutile de rappeler que les eaux de l'Ourcq représentaient respectivement 74% des eaux distribuées en moyenne par jour à Paris en 1854, contre 21% pour les eaux de la Seine. Eugène Belgrand, Historique du service des eaux depuis l'année 1854 jusqu'à l'année 1874. Note à M. le préfet de la Seine, Paris, Dunod, 1875, pp.11-12. 137 des sociétés privées distinctes, ce qui réduisait la marge de manoeuvre de la municipalité. Au final, ces concessions ne s'étaient pas révélées si intéressantes pour la Ville de Paris. Le traité de rachat est passé le 11 juillet 1860 485 , et sanctionné par un décret d'approbation du 2 octobre de la même année. La municipalité s'est substituée à la Compagnie générale des eaux dans la possession des établissements et dans le droit de vendre l'eau. En compensation, la compagnie recevait pour une durée de cinquante ans une somme annuelle de 1,16 millions de francs, payée mensuellement ; à titre de prime, le quart de la somme excédant une recette de 3,6 millions à 6 millions de francs et le cinquième de la somme excédant 6 millions. La compagnie devait se charger des abonnements, de la surveillance de la distribution des eaux dans les propriétés particulières, filtrage de l'eau vendue dans les fontaines marchandes, des perceptions. Ces conditions ne s'avéraient pas forcément avantageuses pour la Ville, Maxime Ducamp en dénonçait le coût onéreux486. Autre conséquence, le rachat de la concession du canal. Le chômage forcé du canal Saint-Martin, durant les travaux de couverture, entraîna la liquidation du concessionnaire Hainguerlot, président de la Compagnie des Canaux. La disparition de ces milliers de mètres linéaires de quais signifiait autant de péages et de revenus perdus. Et ce d'autant plus que la compagnie concessionnaire avait eu la fâcheuse tendance à multiplier les implantations d'établissements industriels ou commerciaux qui n'entretenaient pas toujours des relations immédiates avec le canal. Or, le projet du Second Empire visait sur le long terme une désindustrialisation de la capitale. Avec le décret du 30 avril 1859 déclarant d'utilité publique le projet d'abaissement du plan d'eau du canal Saint-Martin, la Compagnie concessionnaire se considéra comme expropriée pour cause d'utilité publique et proposa un arrangement à l'amiable à la Ville de Paris. Elle réclama une indemnité de 6 millions de de francs le 12 septembre 1859. Une réunion se tint le 12 septembre 1859 après que les travaux d'abaissement aient débuté le 1er novembre 1859 pour discuter de la rétrocession du canal Saint-Martin. La question donna lieu à un procès entre la Ville de Paris et la Compagnie, M. Vavin servant de médiateur auprès de la Ville. Le Conseil municipal finit par accepter les propositions d'arrangement de la Compagnie par une délibération du 31 août 1860. Le traité a été signé le 9 juillet 1861 entre le baron Eugène Haussmann, sénateur de l'Empire, grand officier de l'ordre impérial de la Légion d'honneur, préfet du département de la Seine et MM. Alexis Vavin, notaire honoraire, ancien député Frédéric, Adolphe Mercuard, 485 .A.P. D3 S5/1, Préfecture de la Seine, Rachat à la Compagnie des canaux par la Ville de Paris de la concession du canal Saint-Martin, 27 juillet 1860. 486 Maxime Ducamp, Paris, ses organes, ses fonctions et sa vie dans la seconde moitié du XIX e siècle, Paris : Hachette, 1869-1875, 6 vol., p.260. 138 banquier et Antoine, Louis, Christophe Dupin, membre de l'Ordre impérial de la Légion d'honneur, alors président de la Compagnie. La Ville devait verser 1 338 800 francs, censés compenser la perte causée par l'arrêt de la navigation. Le versement a été aussitôt effectué. La Ville devait payer pour le prix de l'abandon de tous ses droits pour la période restante, 61 annuités de 180 000 francs payables le 16 janvier 1862 et tous les 16 janvier suivants. Le traité fut déposé chez Maître Du Boys, notaire à Paris. Le 15 novembre 1862, la Ville a remis à la Compagnie 3 590 bons de liquidation au porteur de 949 francs chacun à 5% par année, et ce, jusqu'à la fin du remboursement. Cette opération pourrait s'inscrire dans la logique de rachat des concessions sur les canaux par le Second Empire, mais il était aussi fortement lié à des motivations spécifiques au contexte parisien, à savoir le renforcement du contrôle sur l'alimentation en eau de la capitale et des revenus qui pouvaient en résulter487. En effet, c'était sans doute un des aspects essentiels à la fois de l'abaissement du canal Saint-Martin et du rachat de la concession. Les activités portuaires se trouvaient ainsi placées sous une triple administration : les ingénieurs de l'État, ceux de la Ville de Paris sur le canal Saint-Martin, la Compagnie des canaux sur le bassin de la Villette et les canaux de Saint-Denis et de l'Ourcq. Les concessionnaires tendirent à envisager principalement la rémunération à tirer de leur entreprise, sans trop se soucier de l'étanchéité du canal de l'Ourcq. En outre, ils cédaient des quantités notables d'eau aux établissements riverains 488 . Or, les années 1861-1865 furent caractérisées par des périodes de sécheresse qui réduisirent d'autant plus le débit du canal de l'Ourcq. Il en résulta deux conséquences : d'une part, la navigation se vit sensiblement perturbée, voire carrément interrompue, d'autre part, la Ville, se trouva privée du volume d'eau qu'elle s'était réservée. Dans de telles conditions, le conseil municipal décida d'établir deux usines hydrauliques à Tribaldou489 et Isles-les-Meldeuses490 afin de puiser dans la Marne et rejeter dans l'Ourcq un volume quotidien de 83 000 m3 d'eau. Ces éléments expliquaient le rachat complet au cours de la période suivante en 1876. 487 Il n'est pas inutile de rappeler que le canal de l'Ourcq distribuait de 120 000 à 130 000 m3 d'eau par jour, soit entre le tiers et la moitié du cube total de l'eau consommée dans la capitale. Voir Annuaire statistique de la Ville de Paris pour l'année 1880, p.41. 488 A.P. VO3 940-942, Canal Saint-Martin. Toueur (1928-1934) tableau comparatif des dépenses d'eau faites par les canaux St-Denis et St-Martin (1862-1874). 489 A.P. VO3 541 : Canal de l'Ourcq et canal St-Denis : rachat de la Ville (1875-1876), usine de Tribaldou. 490 A.P. VO3 508, Canaux municipaux. Canal de l'Ourcq : travaux autorisation et divers, 1882-1884. Acquisition : Usine d'Isles-les-Meldeuses, 1868-1884. 139 Carte 5. Tracé du canal Saint-Martin dans les années 1830. Source : Plan de Paris d'Ambroise Tardieu, 1838. 140 Figure 7. Vue de la voûte souterraine de canal Saint-Martin en 1862. Source : L. Dumont, L'Illustration, Journal universel, 1862 (Musée de la Batellerie). II. BOULEVERSEMENTS DU COMMERCE PARISIEN : LES ENTREPÔTS DE PARIS. A. Les raisons d'un échec. L'échec relatif de l'entrepôt des Marais tenait, dans une certaine mesure, à une gestion et une tarification inadéquates. Ce non-succès ne découragea pas pour autant ceux qui aspiraient à développer le transit dans la capitale et estimaient des réformes nécessaires pour y parvenir. Un rapport du 31 janvier 1859 de la chambre de commerce de Paris décrivait la fin de l'aventure des deux entrepôts parisiens : « Nous avons eu deux entrepôts ; l'un a dû être fermé, les recettes n'y pouvant couvrir les dépenses ; l'autre après être passé de, main en main, semble toucher à son déclin et ne peut servir à ses actionnaires ni intérêts ni dividende 491 ». Si l'aventure des entrepôts liés à la voie d'eau échoua, était-ce dû à « l'industrialisation » de la voie d'eau, conséquence de sa spécialisation dans le transport de masse pour lequel la voie d'eau restait compétitive ? On pourrait répondre positivement, tout en nuançant cette thèse. Si les chemins de fer et le télégraphe ont profondément modifié les pratiques commerciales, pourquoi entreposer des marchandises à Paris ? En effet, cela 491 ACCIP I-3.40 (34), Rapport sur les entrepôts de Paris. Manutention du Commerce près de la Douane de M. Moreno-Henriquès, Directeur de la Manutention du Commerce près la Douane, 18 janvier 1859. 141 supposait de payer des frais de transport, alors que les conditions techniques et économiques ne l'incitaient plus. La rapidité des transports et des télécommunications autorisaient une adaptabilité bien supérieure face aux fluctuations de la demande Néanmoins, cette analyse ne saurait satisfaire entièrement : il fallait considérer la réalité de l'état des réseaux existants. Le réseau fluvial apparaissait encore vétuste, décourageant toute velléité de transit par voie d'eau. La route était loin d'offrir les avantages du siècle suivant Les chemins de fer n'ont par ailleurs jamais vraiment désiré établir un partenariat avec la voie d'eau, mais au contraire, et s'efforcèrent au contraire d'intensifier la concurrence et si possible ralentir les travaux d'infrastructures en faveur de la voie d'eau La navigation sur la Basse-Seine ne bénéficia réellement de l'innovation décisive que représentait le barrage mobile qu'assez tardivement, et cela, au moment même où la voie ferrée prit son essor. Il était paradoxal que l'on escomptât sur des perspectives de trafic sur la Basse-Seine à un moment où cette route fluviale demeurait, malgré les importants efforts d'aménagement, onéreuse et moins développée qu'en amont. Le réseau fluvial permettait-il réellement le transit vers l'Allemagne ou la Suisse sans aménagement approprié ? Il fallait encore ajouter une autre donnée : l'ampleur même du marché parisien qui se trouvait en pleine expansion. Cet essor ne favorisait pas nécessairement le transit, car le marché local absorbait les marchandises importées de province ou de l'étranger pour les consommer ou les transformer. Le commerce parisien semblait donc avoir une vocation plus locale qu'internationale492. L'activité économique intra-muros se tournait alors davantage vers les industries du luxe, l'artisanat que vers la grosse industrie proprement dite493. Or, ce type d'activités ressentait moins le besoin de bénéficier d'un transport bon marché, les prix des produits finis justifiant leur qualité que d'un transport souple, rapide et sûr, même onéreux, les quantités étant relativement faibles, du moins si l'on raisonne en termes de tonnage. En revanche, ces activités s'avéraient susceptibles de suivre les fluctuations de la demande et des prix, c'est-à-dire qu'elles étaient propices à la spéculation. Développer le commerce de transit revenait en définitive à favoriser la concurrence étrangère Le manque d'adaptation des modalités commerciales de ces entrepôts était patent, aussi bien de la part de l'Administration, qui imposa souvent des règles irréalistes, voire 492 Jeanne Gaillard, Paris, la ville (1852-1870), Paris, L'Harmattan, 1997, pp.369-374. Même si cette assertion mérite d'être largement nuancée. En tout cas, il n'existait pas de grandes implantations sidérurgiques comparables au Creusot ou Krupp par exemple. Il existe tout de même des industries lourdes, à l'instar de la société Ernest Goüin et Cie qui est la première société de construction de matériel ferroviaire créée à Paris. Cet établissement a été fondé aux Batignolles, par Ernest Goüin en 1846. Par al sutie, elle a laissé la place à la Société de construction des Batignolles en 1871. Voir Rang-Ri Park-Barjot, La Société de construction des Batignolles: Des origines à la Première Guerre mondiale (1846-1914), Presses Paris Sorbonne, 2005, p.544. 493 142 injustes face aux entrepôts maritimes par exemple, et trop soucieuse de contrôler le commerce de la capitale, mais aussi peut-être de la part de concessionnaires manquant d'esprit commercial. Les carences gestionnaires des concessionnaires paraissaient évidentes, ou bien relevant de « délires » modernisateurs, ils ne semblaient guère s'interroger sur l'évolution du marché et comment réagir face aux flux commerciaux ou bien visant plus à un enrichissement personnel Cette avidité jouait elle-même sur ces représentations fantasmagoriques Paris apparaissait tel un « monstre » en plein essor dévorant les ressources, démographiques, intellectuelles et économiques du pays. Le tracé du chemin de fer en étoile est bien connu, mais il en allait de même sur le plan hydrographique. La capitale apparaît remarquablement placée à la confluence de quatre grands cours d'eau, les canaux renforçant encore cet état de fait. Pourtant, le transit par voie fluviale ne connut pas l'essor escompté. En 1844, les actionnaires découvrirent dans les caisses du concessionnaire, M. Thomas un déficit de 60 000 francs On lui associa alors un cogérant qui combla le déficit, un certain M. Louis Jonnart, fils de l'Inspecteur des Douanes qui avait assisté à l'ouverture de l'entrepôt. Ce dernier demeura l'unique gérant suite au décès de M. Thomas 494 . Le personnage ne semblait guère armé pour relever l'établissement déficitaire : « C'est un homme faible, peu propre à conduire un établissement en mauvais état, et qui eut trouvé la ruine, sans l'intervention de son père dont l'habileté est bien connue 495 ». De manière prévisible, la gestion de M. Jonnart ne fit que peu de progrès au cours des huit années qui suivirent, même si les actionnaires touchèrent quelques intérêts et dividendes M. Louis Jonnart céda ses droits de gérant pour une indemnité de 200 000 francs à MM. Cusin, Legendre et Cie. banquiers de leur état. Ces derniers modifièrent immédiatement, et en profondeur, grâce à un décret du 8 octobre 1852, la Société des entrepôts, en portant son capital de 1 500 000 à 50 000 000 francs496 Situé dans le quartier de l'Europe, la société prit alors le nom prestigieux de « Dock Louis Napoléon ». La gestion de ces derniers se révéla encore plus catastrophique, car leur objectifs reposaient sur des bases beaucoup moins réalistes : « MM. Cusin, Legendre 494 L'entrepôt des Marais avait été adjugé le 23 juillet 1833 pour une durée de 81 ans à Albert Thomas. La première pierre avait été posée, en grande pompe, le 29 juillet 1833, en présence du roi Louis-Philippe. L'ouverture pour la réception des marchandises survint le 1er avril 1834, alors même que les travaux n'avaient pas été achevés. Voir : Claire Lemercier, « La Chambre de Commerce de Paris, 1803-1852. Un « corps consultatif » entre représentation et information économiques », sous la direction de Gilles Postal-Vinay, École des Hautes Études en Sciences Sociales (EHESS), 2001, pp.618-624 ; Sara Von Saurma, « Les entrepôts du canal Saint-Martin », in Béatrice Andia, Simon Texier (dir.), Les Canaux de Paris, Délégation à l'action artistique de Paris, Paris, 1994, pp.118-132. 495 ACCIP I-3.40 (34), Rapport sur les entrepôts de Paris, op. cit. 496 Sur l'histoire des Docks Napoléon, consulter : Jeanne Gaillard, Paris, la ville (1852-1870), Paris, L'Harmattan, 1997, pp.369-374. 143 et Cie, on le sait, n'eurent pas précisément en vue la prospérité des Docks Napoléon, et cet écart des plus simples, loin du succès, les amena de chûte en chûte à engloutir 10 millions nets de capital, à rendre les 15 autres millions difficiles à réaliser, et enfin à s'asseoir sur les bancs de la police correctionnelle 497 ». La volonté des gérants visait à s'appuyer sur la proximité de la ligne du havre pour faire de Paris une plaque-tournante entre les continents européens et américains. Les banquiers fondaient leurs espoirs sur la découverte de l'or californien et les progrès des exportations parisiennes vers l'autre rive de l'Atlantique. Le dessein était sans doute trop vaste pour le commerce, et se déconnectait des attentes des industriels de l'ouest parisien qui avaient pourtant émis le voeu de créer un entrepôt plus proche de leurs activités que celui du Marais. Dans ces conditions, l'affaire des Docks Napoléon tourna court. La chambre de commerce de Paris s'était, quant à elle, opposée à l'idée, car ses membres n'estimaient pas possible l'établissement d'un second entrepôt, à la lumière de l'expérience récente. Un décret daté du 19 décembre 1855, retira à la Société Cusin, Legendre & Cie, le privilège d'ouvrir des docks 498 Les dits « Docks Napoléon » furent mis entre les mains de trois liquidateurs provisoires, un médecin, un agent de change et un avocat499 . B. Le rêve d'un « Paris de transit ». 1. Nécessité et possibilité d'une réforme du commerce parisien ? Les pouvoirs publics parisiens semblaient partagés quant à l'avenir d'un entrepôt, même si une refonte se révélait nécessaire. Cette redynamisation devait s'inscrire dans une vision plus vaste de la vocation de la capitale. L'une des graves faiblesses de la voie d'eau française résidant dans son incapacité à exporter, et c'était d'autant plus vrai à Paris. Cette tendance s'aggrava durant tout le XIXe siècle à la faveur de la concurrence croissante de la voie ferrée. La batellerie avait perdu bon nombre de marchés, et plus particulièrement les 497 ACCIP I-3.40 (34), Rapport sur les entrepôts de Paris, op. cit. AN (site de Pierrefitte-sur-Seine) F12 6395. 499 Le premier exercice, en 1853, s'était révélé déjà déficitaire, les concessionnaires, MM. Cusin et Legendre s'étaient alors lancés dans diverses opérations de prestige afin de camoufler les mauvais résultats : ouverture d'agences à l'intérieur du pays et à l'étranger, instauration d'un réseau de commissionnaires pouvant fournir des ordres d'achat et de vente Cusin et Legendre sollicite l'aide des Pereire. Malheureusement pour eux, l'affaire tourne court, puisque les gérants sont emprisonnés trois ans plus tard Il s'ensuivit une restructuration laborieuse des entrepôts parisiens qui allait aboutir à la création de la compagnie des Entrepôts et Magasins Généraux en 1860. 498 144 marchandises « non lourdes ». Elle avait dû se spécialiser pour survivre. Dans ces conditions, les marchandises du luxe se trouvaient quasi exclues. Cela renvoyait à la vaste question du poids des industries du luxe dans la dynamique économique française, particulièrement prégnantes dans le contexte parisien. En effet, si l'on compare les cas belges et allemands, la batellerie jouait dans ces deux pays un rôle d'exportateur ou de transit. Cela se vérifiait également pour le bassin du Nord de la France, mais la concurrence rail-eau empêcha une telle dynamique. Les pouvoirs publics ne décidèrent finalement jamais d'établir une liaison Paris-Nord digne de ce nom. Le cas des chemins de fer se révélait tout autre dans la mesure où la diversité de leurs marchandises leur permettait aussi bien d'importer vers la capitale que d'exporter les produits qui y étaient fabriqués. En outre, le transport de marchandises de valeur leur permettait ainsi de financer leur développement Le Chemin de fer du Nord, disposant depuis 1847 d'un bureau de Douane500, avait exporté, pour plus de 400 millions de francs de marchandises de valeur sur les 447 millions francs exportés en totalité : « Les 447 millions de valeur qui représentent plus d'un million de colis, expédiés sans que nos opérations de manutention aient diminué, montrent l'extension que peut prendre l'importation elle-même dans ces stations 501 ». Se trouvait peut-être là une explication : la mauvaise gestion, la négligence des administrateurs de l'entrepôt. Une des constantes des installations portuaires parisiennes semble avoir été leur caractère figé, suscitant au départ les plus vifs espoirs, mais ne parvenant pas à produire de dynamique. Il s'agissait sans doute d'un des plus forts arguments des partisans de la voie ferrée : à quoi bon dépenser des sommes considérables pour des projets aux perspectives plus qu'aléatoires À cela, il fallait ajouter des facteurs aggravants tels que le manque de crédits, les lourdeurs administratives et l'état du réseau fluvial 2. Un vaste dessein commercial. Le constat de l'échec des entrepôts ne découragea pas une partie du milieu d'affaires parisien, attisant une fois de plus la flamme de « Paris port de transit ». Le thème revenait au goût du jour de manière récurrente et les témoignages de cette obsession étaient monnaie courante, comme en témoignait un rapport de la chambre de commerce : Et cependant Paris devrait être par sa position géographique l'Entrepôt général de France ; car les ports qu'on veuille bien le remarquer, s'ils ont l'avantage de la mer ; ont le désavantage d'être à la frontière et de n'avoir 500 Claire Lemercier, « La Chambre de Commerce de Paris, 1803-1852. Un « corps consultatif » entre représentation et information économiques », sous la direction de Gilles Postal-Vinay, École des Hautes Études en Sciences Sociales (EHESS), 2001, pp.625-629 ; 501 ACCIP I-3.40 (34), Rapport sur les entrepôts de Paris, op. cit. 145 qu'un centre d'action extrêmement restreint. Paris, au contraire, placé à peu près au centre industriel de la France, relié par des voies de fer, des fleuves ou des canaux avec tous les points de l'Empire, est le lieu où doivent converger les affaires502 . La position particulière de la capitale attisait toutes les spéculations. Les gérants des Docks avaient cru pouvoir exploiter la localisation de la capitale française au coeur de l'Europe et rivaliser avec les autres grandes places : Liverpool, Londres503 À l'instar de ses prédécesseurs, ce même document plaçait son dessein dans le contexte immédiat qui lui paraissait extrêmement favorable : Il est l'heure de songer à son avenir. Voici les Messageries Ompériales qui vont relier l'Amérique-Sud avec Marseille, l'Amérique-Nord doit bientôt toucher Saint-Nazaire, l'Isthme de suez va ouvrir le chemin de l'Indochine ; l'Algérie, enfin, passée sous un nouveau régime, nous fournir régulièrement ses produits. Il est temps de remettre à l'oeuvre et de faire en sorte que Paris puisse recevoir les produits du monde entier504. L'essor du commerce international et de l'empire colonial naissant justifiaient pour certains observateurs ces spéculations505. Certains spéculateurs semblaient ainsi convaincus que Paris allait devenir une importante place d'échanges et de redistribution des produits coloniaux, notamment le sucre 506 . On opposait l'exemple de la Caisse d'escompte qui avait échoué : « Les Caisses d'escompte, création financière pleine de génie et qui devait fédéraliser un jour toutes nos places de commerce, pourquoi sont-elles tombées ? Parce qu'il leur a manqué un administrateur507 » à celui des Messageries Impériales qui entamèrent en 1851 leurs opérations avec un matériel en triste état, mais qui avaient en moins de huit années triplé leurs voyages et le nombre de passagers, après avoir triplé leur flotte 508 Le nombre de tonneaux de marchandises transportées était ainsi passé de 11 000 t au début des années 1850 à 69 000 t vers 1858. Le potentiel des Docks Napoléon avait paru tout aussi prometteur : amélioration des transport censée apporter de nouveaux produits dans les meilleurs délais, et en plus grandes quantités, tout en baissant le coût du transport et donc de la marchandise On demeurait donc dans une logique saint-simonienne. Pourtant, faute d'administrateur « honnête » et compétent, les Docks ont fini par tourner au fiasco : 502 ACCIP I-3.40 (34), Rapport sur les entrepôts de Paris, op. cit. AN (site de Pierrefitte-sur-Seine) F12 6395, Lettre non datée de Cusin et Legendre au ministre de l'Agriculture et du commerce. 504 Ibid. 505 Sur l'aspect colonial, consulter la thèse de Philippe Lacombrade. 506 Francis Démier, « La construction d'une identité libérale (1803-1848), in La Chambre de commerce et d'industrie de Paris 1803-2003. Histoire d'une institution, Paris, Droz, 2003, p. 65. 507 ACCIP I-3.40 (34), Rapport sur les entrepôts de Paris, id. 508 Marie-Françoise Berneron-Couvenhes, Les messageries maritimes : l'essor d'une grande compagnie de navigation française, 1851-1894, PUPS, Paris, 2007, 839 p. 503 146 La structure même du commerce décourageait les financiers et spéculateurs pour ce type d'entreprises. Pour une ville renfermant de si nombreuses richesses, et d'établissements de crédit, Paris ne semblait pas générer le chiffre de transactions commerciales attendu. La spéculation à Paris paraissait alors concerner essentiellement sur des valeurs de bourse et des marchandises délaissées. Les problèmes s'exprimaient alors autant en termes de structures commerciales et financières, que d'infrastructures et de superstructures. L'insuffisance des entrepôts allaient de nouveaux être dénoncées au début XXe siècle. Les auteurs appelant à la réforme de ce que l'on allait désormais nommer « port de Paris » déploraient l'insuffisance de structure d'entrepôts. 3. Relocalisation des activités d'entrepôt vers les périphéries. Au changement d'échelle du commerce, du national à l'internationale, correspondait à celle du centre de Paris vers sa périphérie. L'essor des gares de chemin de fer était tel qu'on allait leur faire bénéficier du privilège de l'entrepôt et du magasin général. Or, dans l'entrepôt des Marais, les dépenses de camionnage, les frais de séjour étaient apparus excessifs. La chambre de commerce de Paris en imputait la faute à la localisation de l'entrepôt des Marais et préconisait la construction d'une gare d'eau à Grenelle! Site qui s'était révélé un fiasco retentissant avec la malencontreuse expérience des entrepôts de l'Île des Cygnes Les défenseurs de ce projet ne semblait par ailleurs pas craindre la « supériorité technique des chemins de fer. Il était vrai que la batellerie avait connu depuis les années 1855 une véritable renaissance, ayant su surmonter ses faiblesses : le total des arrivages à Paris était passé à 2,2 millions de tonnes en 1855 contre 1,9 millions pour les chemins de fer 509, ce qui autorisait tous les espoirs. Le redressement de la batellerie s'était accompli à la fois à l'égard des chemins de fer, mais également des canaux parisiens, qui sur le long terme, allaient perdre leur intérêt pour la traversée de Paris pour devenir un immense port municipal Le site de Grenelle devait se situer à proximité du chemin de fer de Ceinture. Le lieu disposait de terrains disponibles : « les terrains sont assez vastes pour qu'on y puisse faire quelque chose de grandiose510 ». Grenelle constituait le « point de départ de ces Canaux qui rattachent l'un à l'autre les méandres de la Seine, raccourcissant de moitié la distance de 509 ACCIP I-3.40 (34), Rapport sur les entrepôts de Paris. Manutention du Commerce près de la Douane de M. Moreno-Henriquès, Directeur de la Manutention du Commerce près de la Douane, 18 janvier 1859. 510 Ibid. 147 Paris à Rouen » ajoutant « La pensée du Premier Empire de faire de Grenelle un port était une pensée de génie, le temps est venu peut-être de la réaliser511 ». Encore une fois, on se rattachait à un passé prestigieux, mais cette fois, celui de l'Empire Le projet envisageait en fait un immense système d'entrepôts à Paris, formé des entrepôts et de magasins généraux des gares de chemins de fer, de ceux de Grenelle, des établissements des Marais Ce qui représentait sept stations, avec sept bureaux de Douane Le tout placé sous une même direction, facilitant de ce fait le travail des administrateurs des chemins de fer. Sur ce point, ne faisait-on pas preuve d'une certaine naïveté dans son dessein de placer les deux modes de transport sous une même autorité 512 . D'ailleurs, l'ensemble du projet semblait quelque peu utopique, avançant des arguments très proches de ceux développés pour la création des entrepôts de Paris. Cependant, l'historien doit admettre qu'il bénéficie de l'avantage de connaître « l'avenir du passé ». Il s'avérait certes, plus délicat de pressentir cette évolution, tant la reprise de la batellerie pouvait apparaître spectaculaire, renaissance bien réelle, mais selon des modalités bien différentes de la batellerie d'avant la crise. « La division des transports », comparable à celle du travail, aurait créé une autre batellerie dont l'activité aurait été plus diversifiée. La chambre de commerce envisageait une optique où les chemins de fer auraient été regroupés en syndicats, alors pourquoi pas encore pour Paris un service d'entrepôt – tous modes de transports confondus ? S'il est vrai d'ailleurs que le Gouvernement songe à regrouper tous les chemins de fer et à en former un syndicat, la question d'entrepôts isolés tombe d'elle-même et il ne reste que l'organisation dans la seconde513 . La proposition de la chambre de commerce de Paris s'avérait encore caractéristique d'une époque où les pratiques commerciales modernes n'avaient pas atteint totalement leur maturité, et où l'évolution des transports demeurait incertaine. L'affirmation de la voie ferrée n'était pas encore une chose acquise, la répartition des transports, telle qu'elle est survenue plus tard, n'était donc peut-être pas inévitable Les marchandises qui n'étaient pas enlevées dans les trois jours de l'acquittement en Douane, se trouvaient à cause de cet acquittement, qui les plaçait au-dessus du tarif de magasinage de l'Entrepôt, et par suite des frais de conservation qu'elles pouvaient occasionner, soumises à un tarif spécifique. L'évolution de 511 Ibid. On entend ici les entrepôts desservis par la voie d'eau et les chemins de fer, et non pas le transport en général bien évidemment 513 ACCIP I-3.40 (34), Rapport sur les entrepôts de Paris, id. 512 148 l'urbanisation de la capitale et les déboires financiers de l'entrepôt des Marais signifièrent sa fin prochaine et son transfert vers un nouveau centre des affaires : le bassin de la Villette514. C. Vers de nouveaux entrepôts en périphérie. Le manque de succès du site des Marais conduisit à trouver un emplacement dans une zone moins résidentielle et plus propice à son activité. Par ailleurs, le développement de la banlieue aidant, on sentit le besoin d'ouvrir des entrepôts extra-muros et celui de Saint-Ouen constitua une des premières tentatives du genre. 1. Transfert du bureau de la Douane au Bassin de la Villette (1865). Progressivement, les magasins de la Compagnie des Entrepôts durent être fermés dans la capitale, entraînant dans leur sillage le transfert des bâtiments de la Douane du Marais vers la Rotonde de la Villette. Les débats autour du choix de ce site éclairent sur l'évolution du commerce parisien. Le choix du bassin de la Villette pouvait se comprendre aussi par le dynamisme de l'activité portuaire sur les quais qui le bordaient 515. Il se trouvait positionné au coeur des quartiers de gros commerce et les hangars sur ses rives contribuaient à ce que s'effectuât l'essentiel des expéditions par voie fluviale. Les déchargements s'élevaient à 1,3 millions de tonnes de marchandises en 1867 516 , pour un mouvement total de près de 2 millions de tonnes, ce qui le plaçait en comparaison avec le port du Havre. La société des Magasins généraux avait établi de nouveaux établissement, dotés d'un important outillage et desservi d'un chenal (novembre 1858-1859). Le directeur de la Douane de Paris avait adressé au président de la Chambre de commerce une lettre, en date du 21 mars 1865, accompagnée de documents relatifs à la translation de l'entrepôt réel de la douane à la place de la Rotonde à la Villette. Cette mesure ne concernait pas vraiment les intérêts des commerces se rattachant à l'exploitation de cet établissement et qui n'avaient pas été consultés a priori. Les intérêts qu'offrait cette opération relevaient de deux ordres. Le premier touchait la revente des terrains, le second la réunion sur un même point favorable où elle exploitait déjà une branche importante de ses services. 514 Sur l'essor du quartier de la Villette dans la seconde moitié du XIXe siècle, voir Alain Faure, « L'industrie à Paris : La Villette », in J.M. Jenn (éd.), Le XIXe arrondissement, une cité nouvelle, Paris, Délégation artistique de la Ville de Paris, 1996, pp.91-112. Voir aussi : Emmanuelle François, « Le XIXe siècle du bassin de la Villette », mémoire de maîtrise sous la direction de Michelle Perrot, Université de Paris VII, U.E.R. de géographie, Histoire et science de la société, octobre 1984, 220 p.89-135. 515 Isabelle Backouche, « Mesurer le changement urbain à la périphérie parisienne. Les usages du Bassin de La Villette au XIXe siècle », in Histoire & Mesure, 2010, XXV-1, pp. 47-86. Voir aussi : Alain Faure, « L'industrie à Paris : La Villette », in Jean-Marie Jenn, Le XIXe arrondissement. Une cité nouvelle, Paris, Délégation artistique de la ville de Paris, 1994, pp.91-112. 516 François Maury, Le port de Paris, op. cit., pp.151-152. 149 Néanmoins, les avantages de cette translation ne faisaient pas l'unanimité. La Chambre de commerce de Paris n'y voyait ainsi que peu de réel intérêt pour le commerce 517 . Ses réticences portaient principalement sur trois aspects : la distance à parcourir, le camionnage, et l'étendue des magasins. Le nouvel emplacement destiné à l'Entrepôt réel, accusait une supériorité moins marquée que pour les locaux précédents, mais la disposition du nouveau bâtiment assurait une surface de plancher plus étendue518. La compagnie concessionnaire estimait que, du fait du traité de libre-échange avec l'Angleterre en 1860, le stock des marchandises entreposées réellement par la suppression des droits de douane sur le plus grand nombre. En outre, elle escomptait sur le fait que sa situation paraissait plus favorable, avec la proximité des voies d'eau, facilitant la division des marchandises, soit en Entrepôt libre, soit en Entrepôt réel, ces dispositions la rapprochaient en plus à un entrepôt maritime. Le Second Empire fit preuve d'une certaine neutralité sur ce dossier. Il aurait été effectivement tout à fait envisageable à cette époque le déplacer les magasins de l'administration des Douanes au profit de la gare du Nord. Or, le commerce parisien, hostile à toute forme de monopole, craignait précisément une hégémonie de la Compagnie du Nord. L'administration des douanes observait ainsi qu'un « entrepôt lié intimement à la gare du Nord serait absolument fermé à tout le trafic de la navigation519 », à une époque où près des deux cinquièmes du stock parvenaient encore par péniche. Le Conseil d'État entérinait ainsi encore une législation prohibant toute société mixte transports-entrepôts dans le but de parer à toute formation de monopole520. 2. Les docks de Saint-Ouen521. Vers le milieu du XIXe siècle, apparut l'idée de raccorder le réseau de chemins de fer de Paris à son réseau navigable, et d'établir à ce point de jonction un dépôt de marchandises suffisant522. Cette préoccupation devint insistante avec l'accord de libre-échange signé entre la France et la Grande-Bretagne en 1860. Les avantages procurés par la manutention du 517 ACCIP II-3.40 (38), Lettre du Directeur de la Douane de Paris, le 1 er avril 1865. Ibid., pp.2-3. 519 AN (site de Pierrefitte-sur-Seine) F12 6395, Lettre du Directeur des Douanes 1865. 520 Jeanne Gaillard, Paris, op. cit., p.367. Cela étant, Jeanne Gaillard souligne que le Second Empire préparait la création d'un monopole par le biais d'une fusion entre les compagnies de transport et l'entrepôt. Le but visait à parer des rivalités trop coûteuse et aussi se conforter une clientèle politique 521 AMB, C 159, « Port et gare de Saint-Ouen », Note Carivenc. 522 Il faut noter qu'à leurs débuts, des raccordements existaient afin de pallier aux limitations des réseaux de chemins de fer. Une fois que les lignes étaient prolongées, ces raccordements présentaient moins d'intérêt. Cependant, il s'agissait plus d'une intermodalité technique, imposée par la force des choses, que de la volonté d'une multimodalité comme ce sera le cas dans le développement suivant. 518 150 magasinage et du camionnage en commun dans les docks, de leur mobilisation par les warrants, de leur écoulement par les ventes publiques étaient apparus évidents. Ils avaient été démontrés au Havre, à Rouen, Saint-Nazaire, Bordeaux, Lyon, Dijon et Marseille, si bien que l'idée avait germé d'établir des docks à Paris : « Tous les bons esprits sont d'accord sur la nécessité d'importer à Paris une organisation féconde et longuement éprouvée par une pratique décisive, de l'autre côté du détroit, en l'appropriant au caractère et aux allures du commerce français523.» Deux systèmes ont été envisagés. Les uns proposèrent d'emmagasiner les marchandises à la tête de chacune des grandes lignes de chemin de fer, et à proximité des grands centres d'arrivages par eau. Cette organisation exposait cependant le commerce à des déplacements onéreux, ainsi qu'à de longues et inutiles recherches dans les magasins incomplètement achalandés et nécessairement rejetés sur la périphérie éloignée de Paris. D'autres ont envisagé d'agglomérer les marchandises convenablement divisés et classés sur un seul point où le commerce pouvait les trouver sans recherche, les assortir aisément et les comparer sans déplacement. Ce fut en fin de compte cette solution qui prévalut, restait encore à déterminer le site. « Le meilleur n'était-il pas celui qui pouvait recevoir et expédier à la fois les marchandises en provenance et à destination d'un point quelconque 524 ?» Le site de Saint-Ouen avait semblé le plus approprié, car réunissant le réseau entier des voies navigables, celui des chemins de fer de l'Empire et même de l'Europe occidentale, sans être pour autant éloigné des gares du centre commercial de Paris, avec lequel il communiquait par les artères les plus larges et les plus directes, à l'image des grands ports maritimes français525. On avait donc disposé entre les rails du chemin de fer et les murs du canal les plates-formes et les magasins nécessaires pour disposer les marchandises qui pouvaient exiger un séjour plus ou moins long, à couvert ou à découvert, en chambre sous hangar, en cave, en bac ou sur chantier découvert. Les marchandises des bateaux et des wagons qui les conduisaient sur les plates-formes et les magasins où elles devaient séjourner pouvaient être déposées directement. Et réciproquement, on pouvait les recharger afin de les livrer à la consommation, sur voiture, sur wagon ou encore sur bateaux et les diriger sur une destination nouvelle quelconque par une voie quelconque. Les voies de garage et les quais du canal avaient été commandées par de puissants appareils capables de lever jusqu'à quarante tonnes et répartir les houilles, les pierres, les charpentes et toutes espèces de matières encombrantes, sur des plates-formes de plus de cent mille mètres de surface. 523 AMB, C159-12, « Inauguration des Docks de Saint-Ouen-Paris », L'Illustration, 1864. Le texte fait référence au modèle des docks de Londres. 524 Ibid. 525 Jeanne Gaillard, Paris op. cit., p. 366. 151 L'idée d'établir un entrepôt desservi par un port n'était pas nouvelle, puisque le site était convoité depuis longtemps. En effet, dès le 9 janvier 1826, MM. Ardoin526, Hubard et Cie avaient sollicité l'autorisation d'établir une gare entre Saint-Ouen et Clichy. Par ordonnance royale, cette autorisation avait été accordée le 28 juin de la même année consistant à emprunter à la Seine le volume suffisant afin d'alimenter la gare. La Compagnie des Docks de Saint-Ouen avait affiché de vastes ambitions 527 . Les établissements destinés aux marchandises les plus précieuses et qui nécessitaient un magasinage clos, se divisaient en deux parties bien distinctes : les magasins flottants, les magasins du pourtour du bassin, les magasins flottants que la compagnie venaient de mettre en exploitation, étaient au nombre de cinq et constituaient chacun un groupe de cent cuves, dont chacune contenaient 25 000 hl ou quintaux de liquides. Ils étaient totalement en fer et recouverts jusqu'à la ligne de flottaison d'une carapace en bois qui leur conférait l'aspect d'énormes pontons et les abritait contre les influences atmosphériques. Amarrés dans le milieu du bassin qu'ils garnissaient et employaient, ils étaient complètement préservés de tout risque d'incendie et sous l'oeil d'une surveillance permanente. Mobiles sur leurs amarres, ils venaient se remplir et se vider sur le quai du pourtour du bassin, où se trouvaient les appareils de jaugeage et de pesage. Ils pouvaient être conduits dans le canal en cas de sinistre. Enfin, ils prenaient la température dans une eau tranquille. Ces conditions essentielles et leurs dispositions de détail étaient dirigées en vue de leur affectation spéciale au magasinage en commun des huiles, des spiritueux et des essences qu'ils pouvaient conserver sans risque, sans péril et sans déchet. Les constructions des environs du bassin de la Compagnie étaient élevées à une altitude pour ne pas être atteintes par les inondations, soit à 30 m au-dessus du niveau moyen de la mer. Le relèvement résultant de cette altitude facilitait singulièrement les abords des Docks et les raccordait avec les avenues les mettant en communication avec Paris dans des conditions favorables aux transports terrestres. Sur une longueur développée de 500 m et sur une largeur uniforme de 9 m, autour du bassin, à plomb des murs de bassin, d'un côté, à plomb des murs de bassin, d'un côté et à un mètre au-dessus du rail du chemin de fer, de l'autre, régnait un quai de manutention dont la superficie s'élevait à 4 500 m2, qui était prévu pour la manutention de 500 000 tonnes par an. Ce quai communiquait sur ces flancs par le bassin avec la Seine, 526 Banquier de profession, Ardoin figurait également parmi les promoteurs du boulevard Magenta, et parmi ceux désireux de reprendre les Docks Napoléon. 527 François Caron, Histoire de l'exploitation d'un grand réseau. La Compagnie du chemin de fer du Nord 18461937, Paris, 1973, p. 132. 152 récepteur commun à Paris du réseau des voies navigables et il offrait à toutes les batelleries une marquise afin de les abriter et vingt grues mécaniques pour les opérations de manutention. Un des bâtiments fut constitué, en 1885, en entrepôt réel des Douanes, destiné à être géré par la Compagnie des Entrepôts et Magasins Généraux de Paris qui en avait reçu la concession de la Ville de Paris 528 . Les Docks de Saint-Ouen ne donnèrent toutefois les résultats escomptés, en partie à cause du fait que la Compagnie du Nord en prit la concession en 1872 et ne souhaita pas favoriser le transport fluvial et n'apporta aucune réelle modernisation, notamment pour lui permettre de s'adapter à l'évolution de la navigation, et ce, jusqu'à veille de la première mondiale L'attitude de la Compagnie du Nord ne devait pas étonner, car dès la création de ces docks, celle-ci avait protesté contre l'éventualité d'un embranchement sur le chemin de fer de Ceinture. En résumé, elle refusait une société alimentant le trafic fluvial. Les Docks de Saint-Ouen disposaient d'une situation très spécifique, dans la mesure où ils comptaient simultanément sur le trafic de la Basse-Seine, alors prometteur à la faveur des premiers travaux d'aménagement, et bien entendu de la voie ferrée529. Rouher dut intervenir en personne pour soutenir la Compagnie des Docks de SaintOuen : « J'ai dû employer le Chemin de fer de Ceinture à m'écrire qu'elles étaient disposées à continuer le chemin autour de Paris et à y annexer les Docks à la ligne de Saint-Ouen à des conditions à débattre avec les intéressés530 ». Le raccordement ne fut pas réalisé, même si Haussmann accorda à la Compagnie des Docks une ouverture routière que celle-ci avait réclamée vers l'intérieur de Paris531. Les docks de Saint-Ouen ont connu un retentissement important et durable dans l'imaginaire fluvial. Ils constituent une des premières tentatives, du moins celle la plus médiatisées, de raccordement entre les chemins de fer et la voie d'eau. Et cela à une époque où les chemins de fer commençaient tout juste à s'imposer et la voie d'eau profondément mise en cause Cette contradiction initiale expliqua sans doute l'échec final de cette initiative en termes de raccordement. L'histoire du commerce d'entrepôts semblait entrer dans une nouvelle étape. L'ère des spéculations fondée sur la vision d'un Paris en tant que plaque-tournante de l'Europe occidentale paraissait s'estomper pour laisser place à une forme plus proche des réalités des 528 ACCIP II-3.40 (40), Historique de l'Entrepôt de Saint-Ouen, s.d. (années 1950), 3p. Jeanne Gaillard, Paris, op. cit., p. 366. 530 AN 45 AP2, Lettre à l'Empereur du 24 juillet 1857. 531 Sur l'emplacement de l'actuelle avenue de Saint-Ouen. Le Conseil d'administration des Docks avait aspiré dès le 2 mai 1863 à une liaison avec le centre de Paris, observant que le prolongement du boulevard Magenta (l'actuel boulevard Barbès) avait fait déjà l'objet d'une requête d'édilité à deux reprises. La liaison fut établie par l'avenue de Saint-Ouen. 529 153 activités commerciales et industrielles parisiennes. Preuve de la conversion saint-simonienne en faveur des chemins de fer, l'action d'Émile Pereire sur les questions d'entrepôts s'avère significative d'une volonté de dénouer les relations entre les anciennes compagnies d'entrepôts avec les canaux. En un sens, l'expérience malheureuse des premiers entrepôts parisiens entérinait les mutations du transport fluvial, et d'une vocation de ports de consommation des quais sur les rivières et canaux dans la région parisienne. Et cela, avant même le plan Freycinet et les transformations que celui-ci supposa. Parmi les éléments explicatifs du succès des chemins de fer, il faut noter la rapidité accrue des voyages d'hommes d'affaires, le développement des embranchements particuliers et des entrepôts aux gares La rapidité ne constituait pas l'unique facteur de la suprématie des voies ferrées dans ce domaine, la nouvelle régularité qu'elles offraient avait sans doute pesé en leur faveur. En effet, cet avantage limitait dans des proportions considérables les stocks et de ce fait, procurait une économie grâce à l'élimination du capital et des matières premières. Les chemins de fer rendaient moins indispensable la formation de stocks au cours de la saison hivernale. La régularité apparaissait donc comme aussi cruciale que la vitesse en tant que telle 532 . Cela permettait d'éviter toute immobilisation d'un capital de quelque ampleur et des intérêts élevés que supposait celle-ci. Il apportait de ce fait une certitude renforcée dans la marche des affaires et favorisait la spéculation. Cette montée en puissance des chemins de fer impliqua toutefois une période transitoire. De façon paradoxale, les chemins de fer paraissaient se trouver dans une situation défavorable, tout au moins dans la phase primitive de leur développement. Les bateaux et les quais de rivières pouvaient effectivement faire office de gare d'arrivages et de séjour, alors que dans le même temps, les entrepôts et les magasins généraux étaient localisés au bord même des canaux. Les compagnies de chemins éprouvèrent toutes les peines à imposer une quelconque discipline à leurs clients. Les gares se transformèrent en magasins et en entrepôts, malgré le fait que le séjour fût prohibé dans ces mêmes gares Cette incapacité des chemins de fer empoisonna les relations avec les établissements bénéficiant du privilège légal d'entrepôts. Il en allait d'ailleurs de même pour les ports en rivières dans la traversée de Paris et sur les bords des canaux qui servaient également au stockage de marchandises pour très peu, alors que ces pratiques se voyaient strictement limitées sur le plan législatif. L'échec partiel des entrepôts liés à la voie d'eau dans la région parisienne puisait partiellement son explication dans le « relatif » laisser-aller des pratiques commerciales. Dans le même temps, 532 François Caron, Histoire de l'exploitation, op. cit., p. 130. 154 les Compagnies de chemins de fer surent peu à peu accorder leur exploitation aux usages du commerce et aux besoins des industriels. Cette adaptation contribua à davantage d'efficacité en termes de stocks, de capital, de temps grâce aux voies ferrées. L'intérêt des entrepôts parisiens liés à la voie d'eau se trouvait dans ces conditions considérablement amoindries L'évolution du commerce des vins et alcools s'inscrivait dans cette tendance. Les forains ne vendaient plus leurs récoltes sur les quais de la Seine vers l'automne. Cette tâche incombait désormais aux grossistes et aux commissionnaires qui effectuaient le tour des vignobles. Ils accordaient des avances aux propriétaires des avances sur les récoltes qui ne parvenaient à la capitale qu'en fonction des ordres d'achat533. L'ampleur du trafic parisien des vins était sans rapport avec celle du marché. Les vins consommés ne provenaient pas tous de Bercy ou de Saint-Ouen, mais c'est à Bercy que s'effectuait le commerce. Bercy ne constituait pas uniquement le lieu des magasins, mais le site pour un « marché » fonctionnant, fonctionnant jusqu'au 31 décembre 1869 comme un entrepôt réel. De son côté, le rôle de l'entrepôt du quai Saint-Bernard se rapprochait de celui du Marais, il servait notamment de régulateur pour le négoce et la production. Les grossistes et les manutentionnaires entreposaient les liquides sur le quai et accordaient des avances aux producteurs et fabriquaient des vins adaptés aux préférences des consommateurs534. En 1858, Pereire avait affirmé aux actionnaires des Docks Napoléon que Paris allait devenir Londres535. Pourtant, l'entrepôt n'a jamais recouvré depuis 1848 les tonnages de la Monarchie de Juillet. Si la courbe des entrées et des sorties semble s'être quelque peu redressée après le creux profond caractérisant les débuts de la Seconde République, les 10 000 tonnes qu'il reçut se révélaient très modestes par rapport aux 100 000/150 000 tonnes des entrepôts londoniens qui avaient fait tant rêver l'ingénieur Flachat en 1836 536. Le tonnage des marchandises enregistrées par la Douane de Paris entre 1860 et 1869 atteignait un volume annuel de 107 158 tonnes pour une valeur totale de 181 millions de francs. Or, l'entrepôt accueillait seulement 13 000 tonnes, tonnage représentant une valeur de 30 millions de francs537. La capitale ne semblait pas être parvenue à capter le commerce des ports. Plus grave encore pour les entrepôts parisiens, les villes portuaires s'étaient appropriées une part 533 Jeanne Gaillard, Paris, op. cit., p.380. AN (site de Pierrefitte-sur-Seine) F12 6395. Dossiers Halle aux vins. 535 AN (site de Pierrefitte-sur-Seine) F12 6381, Rapport d'Émile Pereire 536 Eugène Flachat, Docks de Londres, entrepôts de Paris, Paris, librairie de F.-G. Levrault, rue du Havre et même maison à Strasbourg, 1836, 44p. 537 AS VFII 2. Ces chiffres étaient fournis par les pétitionnaires qui n'avaient eu de cesse de réclamer un second entrepôt depuis 1871. 534 155 significative du commerce d'entrepôts de la capitale538. La réflexion de chambre de commerce de la Seine différait de celle des frères Pereire. Selon elle, si l'intérêt à disposer de marchandises sous la main n'était pas discutable, le chemin de fer et le télégraphe permettaient des communications rapides. Il semblait donc plus pertinent de laisser le plus longtemps possible les marchandises dans les entrepôts des ports maritimes, à partir desquelles elles pouvaient être aisément acheminées vers Paris ou réexportées si nécessaire539. En outre, la variété des stocks de ces derniers était telle qu'elle leur conférait un avantage décisif par rapport aux villes intérieures. C'était la raison pour laquelle les produits d'outremer avaient plus ou moins déserté les entrepôts de la capitale dont ils formaient pourtant un des principaux soutiens au début de l'Empire. Les stocks des bois travaillés au faubourg Saint-Antoine ne cessaient de se réduire en peau de chagrin dans les entrepôts parisiens. Les négociants de la capitale ont conformé leurs méthodes de travail par rapport à ces nouvelles conditions. Si les grossistes en denrées coloniales disposaient toujours de leurs affaires dans les 3e et 4e arrondissements actuels, ils vendaient sur échantillon, leurs stocks se trouvant au Havre. La multiplicité des voies de transport provoquait une dispersion des points d'arrivage sur des sites guère favorables à l'entrepôt. Lorsque les voies d'eau jouaient un rôle prépondérant, et que le lieu de départ et d'arrivée pour les transactions avec l'étranger était unique, les bâtiments de la Douane et les entrepôts réunissaient l'ensemble des marchandises à proximité du canal Saint-Martin. La multiplication des réseaux avait comme conséquence d'associer les douanes aux gares, tant et si bien que la concentration des entrepôts ne présentait plus un intérêt aussi évident : Il faut des hommes spéciaux qui connaissent bien les besoins du commerce, et le mécanisme de nos lois de douane ; mais surtout des hommes honnêtes qui soient totalement étrangers aux combinaisons de la Bourse. Les Docks avaient devant eux un avenir tout aussi brillant. Le développement de notre vaste réseau de chemin de fer, le progrès de la navigation à vapeur, la liaison de nos cinq gares entre elles et enfin l'essor pris par la batellerie devaient apporter aux Docks des produits nouveaux et simplifier leurs opérations. Nous avons vu que leur situation ne s'est pas modifiée et que l'extension des affaires d'entreposage s'est arrêtée aux Gares mêmes de la Villette, station d'eau. Le tarif élevé des Docks, leur position centrale, qui grève la marchandise d'un double camionnage à l'entrée et à la sortie, ont amené à un résultat prévu, l'Établissement de bureaux de Douane dans les gares, avec faculté d'y conserver la marchandise pendant 10 jours avant d'acquitter les droits, ou de la diriger sur l'entrepôt. Cette simple faculté de conserver les marchandises pendant dix jours, vous savez ce qu'elle a produit ; qu'on l'étende à deux ou trois mois, et l'entrepôt n'existe plus540. 538 Jeanne Gaillard, Paris, op. cit., pp.378-379. ACCIP, Correspondance, 2 mai 1852. 540 ACCIP I-3.40 (34), Rapport sur les entrepôts de Paris, op. cit. 539 156 La fabrique parisienne avait elle-même tendance à éviter le magasinage qui représentait pour elle une dépense supplémentaire dépourvue de contrepartie ? Les raffineries des arrondissements périphériques emmagasinaient le sucre brut dans leurs propres bâtiments après avoir acquitté en gare les droits de douane ou d'octroi (qu'il s'agisse de produits étranger ou indigène). L'erreur des promoteurs de ces entrepôts consistait sans doute dans le fait d'avoir envisagé le volume total du trafic parisien que la composition des stocks fort hétéroclite. La composition de la fabrique parisienne ne présentait pas l'homogénéité qui aurait pu recourir à de tels établissements. En outre, les mécanismes financiers indispensables au commerce d'entrepôt n'ont jamais été instaurés : telle est l'histoire de notre entreposage à Paris, de ce correctif de nos lois douanières qui eut favorisé au plus haut point le commerce, si le système eut été appliqué dans le but d'être utile et non de satisfaire des intérêts privés ou de fournir des gains illicites. C'est ainsi que la pensée de Colbert est restée à l'état d'embryon, et que la France qui a inventé, il y a deux siècles, les entrepôts, en est encore pour ainsi dire à les ouvrir dans sa 541 capitale . Le rappel d'un passé glorieux restait toujours intact, qui au demeurant, n'avait pas pourtant pas connu de suite Il n'existait pas d'équivalent des brokers londoniens, les banques parisiennes n'ont jamais établi de services afin de suppléer à leur absence. Le Comptoir de l'Escompte a liquidé son comptoir de denrées coloniales en 1858 et limitait ses avances sur marchandises, à l'exception du sucre. Les Pereire souhaitaient associer les opérations de prêts au magasinage, mais si le décret du 12 mars 1859 n'avait pas prohibé le prêt aux propriétaires de docks, la censure du commerce local les aurait empêchés de le faire. Le commerce d'entrepôts n'allait s'implanter durablement que sous le régime suivant. En effet la Compagnie des Docks de Saint-Ouen se rapprocha avec celle des entrepôts en 1876. De nouveaux magasins furent édifiés le long de la Ceinture rive gauche achevée. La IIIe République réussit là où le Second Empire avait échoué. Le magasinage qui n'avait jamais passé la barre des 50 000 tonnes annuelles, dépassa celle des 100 000 tonnes dès 1876 pour s'élever vers la fin du siècle autour de 750 000 tonnes 542 . Le Second Empire s'était effectivement heurté aux résistances des milieux commerciaux et industriels face aux velléités hégémoniques des chemins de fer et de compagnies d'entrepôt qui semblaient vouloir agir de conserve pour imposer leur monopole, ce à quoi ils n'étaient pas prêts à céder. À bien des égards, le Second Empire apparaît encore comme une période de « transition », dans le sens 541 542 ACCIP I-3.40 (34), Rapport sur les entrepôts de Paris, id. Jeanne Gaillard, Paris, op. cit., p. 393. 157 d'un manque de maturité des nouvelles conditions techniques pour répondre aux vastes desseins auxquels prétendaient les promoteurs d'un « Paris plate-forme de transit ». 158 Conclusion : l'impossible Pari(s). Les grands magasins et l'Entrepôt ont suivi une évolution symétrique, mais dans le sens d'un échec pour les premiers et d'un succès pour les seconds. Les deux se révèlent toutefois significatifs d'une mutation du commerce parisien antérieure même au Second empire, puisque les deux existaient à Paris dès avant 1848. La simple mesure de l'échec ou de la réussite de telle ou telle mutation ne saurait pourtant suffire, dans la mesure où ces deux mutations témoignaient d'une évolution plus globale du marché. La croissance urbaine du Second Empire semble avoir conféré aux entrepôts et aux grands magasins une dimension supérieure à celle qu'ils possédaient précédemment. Entrepôts et grands magasins ne bouleversèrent pas brutalement les structures commerciales parisiennes, mais au contraire, se sont superposées à des entreprises industrielles et commerciales profondément ancrées dans le tissu économique parisien. Malgré sa complexité, la question des entrepôts de Paris illustre parfaitement la contradiction inhérente de la batellerie, prisonnière d'un positionnement entre projection et réalité des faits. Cette question s'inscrit dans le sillage des vastes desseins de la capitale : faire de Paris autre chose qu'il ne l'est vraiment, lui attribuer une fonction inédite, une vocation quasi mythique, relevant à certains égards de l'utopie À savoir celle de développer la fonction de transit de la capitale et en faire un centre nerveux du commerce européen Pourtant, bien évidemment, ce rêve a été rattrapé par la réalité économique, ou plutôt de celle du capitalisme parisien. Les entrepôts de Paris offrent un autre intérêt pour les historiens. La concentration des sites renforça la vocation de seconde artère économique du canal Saint-Martin 543 . Les résultats de ces entrepôts ne se révélèrent néanmoins pas à la hauteur de ceux qu'ils avaient suscités. Si les entrepôts ne bouleversèrent pas radicalement l'activité économique, ils participèrent tout de même à l'outillage des besoins de la distribution. Leur histoire éclaire sur les mutations commerciales de cette période, empreinte d'une volonté d'instaurer l'abondance. En devenant un marché attractif, la capitale recevait un flot migratoire considérable. La création de ces entrepôts se situait à une époque charnière. C'est l'avènement des chemins de fer qui allait se révéler véritablement décisif dans l'essor des entrepôts parisiens. Cette expérience soulignait la nécessité d'une redéfinition de vocation commerciale de la voie d'eau. Celle-ci ne pouvait plus se vouer au transport de marchandises diversifiées, 543 Sara Von Saurma, « Les entrepôts du canal Saint-Martin », op. cit., p.132. 159 mais devait se spécialiser dans les marchandises lourdes. En effet, Paris s'étendait dans de larges proportions à cette époque. L'urbanisation parisienne allait justement servir de tremplin à cette redéfinition. Si l'activité d'entrepôt liée à la batellerie avait montré ses limites, l'essor industriel et ses répercussions (installations d'usines, approvisionnement en charbon et plus globalement l'urbanisation du quartier, qu'induisaient l'activité sur les deux rives du canal), favorisait logiquement le transport fluvial. Ces entrepôts étaient donc les précurseurs du bâtiment logistique. Du moins, telle s'affichait l'ambition de leurs créateurs. Mais sans faire de jeu de mot, « la logistique n'a pas suivi », et leur gestion s'est révélée plutôt désastreuse. Sans doute, les conditions de la navigation n'étaient pas adaptées. Il fallait également compter sur la riposte des commerçants havrais soucieux de leurs prérogatives. Et là encore, un facteur technologique a joué : l'émergence combinée du télégraphe et du chemin de fer. D'ailleurs, il semble que le premier a joué un rôle encore plus crucial sur cette question : il introduisit la notion d'information transmise en direct, ôtant par là même, une large partie de l'intérêt de disposer d'entrepôts à proximité du marché parisien, puisque celui-ci permettait de gérer les transports quasiment en flux tendus. Il s'agit du premier échec d'une tentative de modifier la structure du commerce parisien. L'histoire des entrepôts des Marais et celle de l'île des Cygnes se révélaient à la fois symboliques de la fin d'une certaine batellerie, dont le trafic se composait de marchandises diverses de valeurs. L'ère industrielle, avec la machine à vapeur, bouleversa la donne avec une massification des transports de pondéreux par la batellerie et le transport des marchandises de valeur par les chemins de fer. L'intérêt des entrepôts de Paris est de montrer l'antériorité de cette « mutation » par rapport à l'essor du chemin de fer en France. Ils manifestent que les conditions traditionnelles de la navigation ne répondaient plus complètement aux nouveaux besoins de l'économie parisienne544. La victoire de l'entrepôt des Marais face à l'entrepôt des Cygnes apparaissait éloquente à cet égard, même si les canaux révélèrent aussi leurs propres limites. Les entrepôts parisiens correspondent à une période charnière, à la fois en termes de mutations du commerce parisien, mais aussi et surtout, pour ce qui intéresse notre sujet : les transports. En un sens, ils s'inscrivent dans une certaine continuité du transport fluvial, celui de pourvoyeur de la capitale, par la Seine, mais également, ce qui était nouveau, les canaux. Il est possible qu'à cet égard, leur création se révéla trop tardive, et que leur succès aurait été possible quelques décennies auparavant ? La référence à Vauban n'était d'ailleurs pas 544 Louis Bergeron, « Haute banque parisienne et spéculation immobilière au XIXe siècle » in Construire la ville, XVIIIe-XXe siècle, Lyon, Presses universitaires de Lyon, 1983, p.17. 160 anodine Quoiqu'il en soit, l'arrivée des chemins de fer remettait profondément en cause la batellerie, et obligeait celle-ci à une reconversion radicale. Sa fonction consistait moins à l'approvisionnement qu'au transport. Tel se formule le paradoxe des entrepôts, prétendant à la fois à une certaine modernité commerciale, s'inscrivant en même temps, dans une continuité. Il s'agissait d'une conception avant-gardiste sous certains aspects, mais celle-ci se révélait tout autant désuète L'enjeu se rapportait plutôt sur le contrôle des moyens de transport et de stockage. Le commerce parisien ne se comptait guère sur le soutien de l'État afin de parer aux abus des chemins de fer et de l'entrepôt, mais misait sur la concurrence et le contrôle des usagers545. Le commerce parisien ne se montrait toutefois pas viscéralement hostile à tout projet destiné à faire de Paris un emporium à l'image de Londres546. Les délibérations de la Chambre de commerce de Paris prouvaient non seulement qu'elle suivait les initiatives spéculatives allant dans ce sens, mais qu'elles les suscitaient547. Loin de décourager, les échecs successifs des entrepôts parisiens du quartier des Marais, de l'île-aux-Cygnes et les Docks de Saint-Ouen ont paradoxalement nourri au fil du temps l'utopie d'un « Paris port de transit ». Les Docks de Saint-Ouen allaient directement inspirer l'expérience du port d'Ivry. Au cours du siècle suivant, de nombreux projets s'inscrivirent dans le même imaginaire. La majorité de ces projets ne connurent pas le succès escompté et se trouvèrent confrontés à la réalité du Paris port de consommation : le port d'Ivry (1899), les magasins d'Austerlitz (1905), le port de Bonneuil-sur-Marne (1916-1950) les magasins de Pantin (1931), et bien entendu, le plus connu, le port de Gennevilliers (19231950) Tous ces projets ne constituèrent pas intrinsèquement des échecs, mais échouèrent dans leur vocation première et pour la plupart dans la satisfaction du dessein plus vaste auquel ils étaient destinés pour se trouver « condamnés » au service de l'économie locale. En ce sens, si la question des entrepôts parisiens paraît quelque peu ancienne par rapport au cadre strict de notre étude, elle s'inscrit pleinement dans ses problématiques. Plutôt que d'échec, ne faudrait-il pas parler d'errements, d'impasse ? Le concept même d'échec doit être relativisé. La voie fluviale offre l'exemple d'une activité économique ayant su s'adapter à une donne économique inédite. Elle dut ainsi s'accommoder au nouveau contexte de 545 Jeanne Gaillard, op. cit., p.367. Barrie Michael Ratcliffe, « The business elite and the development of Paris: interventions in ports and entrepots, 1814-1834 », Journal of European economic history, 1985, p.113. 547 Jeanne Gaillard, id., p.366. 546 161 l'industrialisation qui ne lui était pas forcément favorable, et plus de façon plus spécifique, à l'avènement des chemins de fer. Si ce ne fut pas chose aisée, son adaptation s'est tout compte fait accomplie assez promptement, c'est-à-dire sur près d'une dizaine d'années. Il faut toutefois relativiser cette adaptation, car l'originalité de la voie d'eau réside dans le fait que sa modernisation s'est réalisée plutôt sur le réseau que sur le mode de traction qui n'a au bout du compte pas évolué tant que cela, sur la période envisagée, le halage par traction animale, voire humaine sur certains canaux, étant demeuré une réalité jusqu'après la Première guerre mondiale 162 DEUXIÈME PARTIE : ESPOIRS ET DÉSILLUSIONS AUTOUR DES GRANDS PROGRAMMES (1871-1893). 163 CHAPITRE III : NAISSANCE D'UN PORT INDUSTRIEL. Introduction : controverse autour d'un plan. Les débuts de la IIIe République représentèrent une étape fondamentale pour la structuration de ce que les ingénieurs des Ponts et Chaussées allaient désigner désormais comme « le port de Paris ». Cette évolution s'inscrit dans un contexte économique qui n'était pas forcément favorable aux travaux publics et par voie de conséquence à la modernisation des voies navigables. En effet, les années 1880 et au moins une partie des années 1890 furent caractérisées par une grave dépression économique548. Cette période fut, en outre, marquée par un certain élan protectionniste, offrant, à première vue, un cadre peu propice à l'essor de la basse Seine, plus spécialement entre Conflans et Rouen Ce développement n'aurait sans doute pas connu cette ampleur sans le plan Freycinet, et les importants efforts d'investissement qui en ont résulté. Cette partie se propose de présenter le contexte dans lequel ce programme a été élaboré, ses réalisations, ainsi que ses conséquences. Pour autant, si les mesures prises dans le cadre du plan Freycinet ont durablement marqué au point de façonner les structures de la batellerie et de la répartition entre modes de transports, leurs effets ne se sont pas révélés nécessairement positifs pour la batellerie sur le long terme, ne serait-ce par le caractère inachevé de vaste programme de travaux publics. Les bouleversements ayant marqué les transports semblent correspondre au processus de mutation industrielle décrit par Schumpeter, celui de « destruction créatrice », à savoir révolutionner la structure économique en détruisant en permanence les éléments anciens et en générant de nouveaux. Ce processus de destruction créatrice représenterait l'essence même du capitalisme, sa caractéristique essentielle, tant et si bien que tout acteur doit concevoir les 548 Voire jusqu'au début des années 1900. La « reprise » s'établit pas de manière graduelle et par à coup, ce qui explique sans doute l'âpreté des débats entre historiens et économistes sur la datation de la dépression. En ce qui nous concerne, on a sciemment évité le verbe « rétablir », dans la mesure où la « stagnation » des années de dépression masque en réalité de profondes mutations de l'économie. Il y a peut-être reprise de la croissance, mais pas de l'économie en tant que elle, puisque celle-ci ne semble pas s'être vraiment interrompue, mais avoir plutôt traversé une période de fortes perturbations. D'ailleurs, la dépression a affecté moins l'industrie que l'agriculture, au cours d'une période, il est vrai, où la population demeurait majoritairement rurale. Quoiqu'il en soit, une des caractéristiques de cette dépression pour la France réside dans sa durabilité par rapport aux grandes puissances industrielles : François Crouzet, « La première révolution industrielle », in Maurice Lévy-Leboyer (dir.), Histoire de la France industrielle, Paris, Larousse, 1996, p.92. 164 moyens de s'y adapter, au risque de disparaître549. La navigation fluviale a dû ainsi faire face à l'émergence d'un nouvel entrant, devenu un concurrent majeur, à savoir la voie ferrée. Cette situation se révélait jusque-là inédite dans l'histoire des transports, car l'avenir même de la batellerie s'en trouvait menacé. Ce nouveau rapport défavorable ne pouvait qu'affecter l'activité portuaire parisienne. Restait à déterminer le sort réservé à la batellerie. Les contemporains allaient-ils y renoncer ou trouver les moyens de la défendre ? Bien que profonde, la crise de la batellerie, ne dura pas longtemps, car très tôt, les innovations techniques lui fournirent les moyens de riposter. Cette réponse au défi ferroviaire ne supposa pas simplement un ensemble d'innovations techniques offrant une amélioration des conditions de navigation, mais également une redéfinition de son rôle économique. Cette mutation se répercuta, bien évidemment, sur l'activité portuaire parisienne, dans une ville alors en plein essor industriel et urbain. La question ne doit pas se poser uniquement selon une grille de lecture focalisée sur l'intermodalité, il s'agit aussi de mesurer l'impact des mutations que connut la navigation intérieure sur le tissu industriel et commercial de la capitale, et ses acteurs, c'est-à-dire de raisonner en termes de système technique. Comment les acteurs de l'économie parisienne se sont-ils adaptés à ces bouleversements ? Ces derniers ont-ils favorisé l'émergence d'un système technique spécifique ? Si oui, quelles en furent les modalités ? Même si durant les périodes précédentes, l'effort de modernisation des voies navigables s'était déjà révélé significatif, le programme amorcé aux débuts de la IIIe République, baptisé à postériori plan Freycinet, allait fournir une impulsion décisive pour la navigation fluviale. Une autre interrogation réside dans le rôle de l'activité portuaire pedant une période économique extrêmement tourmentée, celle de la grande dépression des années 1880-1890. En quoi la batellerie représenta-t-elle un moyen de la surmonter ou tout au moins d'en atténuer certains effets ? Ou bien s'est-elle révélée un palliatif pire que le mal en accélérant la dépendance de la région la plus dynamique du pays à l'égard des importations étrangères ? Dans ces conditions, la renaissance des voies navigables se serait accomplie aux dépens d'un redressement plus profond de l'économie français, ce qu'étaient tentés de concevoir les adversaires des canalistes. I. UN PLAN POUR RIEN ? A. De l'euphorie à la désillusion. 549 Joseph Schumpeter, Capitalisme, socialisme et démocratie, traduction de l'anglais de Gaël Fain, Paris, Bibliothèque Payot, 1969, p.122. Toutefois, Schumpeter admet lui-même que ce processus n'est pas forcément positif, en raison même de son caractère destructeur. 165 1. Contexte de l'élaboration du plan Freycinet : un compromis républicain autour d'une politique de grands travaux. a) Redéfinition de la batellerie et lutte contre l'hégémonie ferroviaire. Au début des années 1870, le système des chemins de fer a connu une profonde remise en cause. La défaite face à la Prusse avait effectivement révélé un certain nombre de carence du réseau établi sous le Second Empire. Ce constat semblait d'autant plus paradoxal en raison des efforts accomplis durant cette période. La défaite française avait été autant militaire que logistique 550 . En outre, sur le plan des voies navigables, suite à l'annexion de l'AlsaceLorraine, le réseau fluvial français s'était vu grevé de la perte de 443 kilomètres de voies navigables extrêmement fréquentées, à savoir le canal des houillères de la Sarre dans sa totalité, le canal de la Brusche, l'embranchement de la Moselle et des canaux de la Marne au Rhin et du Rhin au Rhône 551 . Après le conflit franco-allemand, les charges pesant sur le budget français amenèrent le gouvernement français à limiter dans de notables proportions les crédits alloués à l'entretien, la construction et l'amélioration et du réseau fluvial. Le budget extraordinaire destiné aux travaux hydrauliques a été supprimé, si bien que les dépenses nécessaires aux voies navigables furent effectuées par le biais de crédits à la seconde section du budget ordinaire des travaux publics. Dans ces conditions, entre 1872 et 1877, la dotation budgétaire pour les travaux extraordinaires n'excéda annuellement guère 6 ou 7 millions concernant les rivières et 4 millions pour ce qui était des canaux. Cependant, l'État français n'oublia pas totalement la question des canaux. La guerre de 1870 n'avait interrompu que temporairement les études et discussions portant sur les moyens de transport552. Dès 1872, la Chambre des députés nomma une commission qu'elle chargea d'examiner la situation des trois modes de transports terrestres. Elle constitua également une commission d'enquête sur les chemins de fer et les moyens de transport, consultant les divers intéressés : chambres de commerce, chambres consultatives, conseils généraux, préfets, maires, industriels, commerçants, négociants, tribunaux de commerce, chambres syndicales et ingénieurs, etc. La commission d'enquête rédigea de nombreux rapports, dont les plus marquants furent ceux de Krantz et de Dietz-Monnin, tous deux Bruno Marnot, Les ingénieurs au Parlement sous la IIIe République, Paris, CNRS Éditions, 2000, p.44. Direction générale des Contribution indirecte, Navigation intérieure, cours d'eau administrés par l'État, Relevés du tonnage des marchandises par espèce, par classe et par cours d'eau tant à la descente qu'à la remonte pendant l'année 1871, Paris, Imprimerie Nationale, 1872, p.3. 552 Richard de Kauffmann, La politique française en matière de chemins de fer, traduit, mis à jour et précédé d'une étude complémentaire par Frantz Hamon, Paris, Librairie polytechnique Ch. Béranger, Éditeur, 1900, pp.814-815. 550 551 166 rapporteurs des première et deuxième sous-commissions553. Rapporteur d'une commission sur les voies de transports, l'ingénieur Krantz sensibilisa l'Assemblée générale sur l'intérêt d'une liaison dans la région de l'Est, des voies navigables interceptées par la nouvelle frontière. Les lois du 1er 1872 et du 24 mars 1874 avaient ainsi décidé en un ensemble la canalisation de la Meuse à la Moselle et à la Saône et l'amélioration du canal de la Marne au Rhin. L'objectif visait l'établissement entre la frontière belge et la Saône d'une vaste ligne de navigation nommée depuis « canal de l'Est ». Ingénieur éminent, Jean-Baptiste Krantz s'affirma comme un des plus fervents défenseurs de la voie d'eau554. Né en 1817, il fut affecté en 1844 au service de la navigation de la Marne après ses études à l'école des Ponts et Chaussées entre 1838 et 1840. Il se fit mettre en congé, en 1853, en raison de travaux pour la Compagnie du Centre, puis celle d'Orléans. Il rentra au service de l'État une décennie ans plus tard, prenant par ailleurs, le rang d'Ingénieur en Chef. On le nomma dans le département de l'Ardèche et prit en 1867 le service de la navigation de la Seine, au sein duquel il demeura jusqu'en 1875. Il entama sa carrière politique, en 1871, en devenant député de Paris. Il fut alors appelé à faire partie de la commission d'enquête sur les voies de communication, pour laquelle il fut nommé rapporteur général. Entre le mois de juin 1872 et juin 1874, il déposa neuf longs rapports devant la Chambre des Députés (dont un sur le bassin de la Seine)555. Krantz figurait parmi ceux qui jugeaient que la concurrence entre les chemins de fer et les canaux était susceptible de compenser l'impossibilité de la concurrence entre les chemins de fer entre eux556. L'ingénieur estimait dépassée l'ère des chemins de fer, à l'instar de ce qu'avait montré la crise des transports de 1872. Il croyait en l'avènement d'une nouvelle ère des canaux, qui « sans être indéfinie la puissance de transport de la voie d'eau a des limites 553 « Rapport de Jean-Baptiste Krantz sur l'ensemble des voies navigables : résumé et conclusions, in Journal Officiel, 13 juillet 1874, annexe n°2474, 13 juillet 1874, pp.4876 et suivantes ; « Rapport fait au nom de la commission d'enquête sur le régime des chemins de fer par Dietz-Monnin », séance du 14 mars 1874, in Journal Officiel, 26 juin 1874, annexe n° 2291, pp.4365 et suivantes. 554 Adolphe Robert, Edgar Bourloton et Gaston Cougny (dir.), Dictionnaire des parlementaires français : depuis le 1er mai 1789 jusqu'au 1er mai 1889, Paris, Edgar Bourloton, 1889-1891, 5 vol. ; Michèle Merger, « La politique de la IIIe République en matière de navigation intérieure de 1870 à 1914 », thèse de l'université de Paris-IV sous la direction de François Caron, 1979, pp.53-54. 555 Concernant notre sujet, on citera les suivants : « Rapport sur la situation des voies navigables dans le bassin de la Seine », séance des 2 août 1872, in Journal Officiel, annexe n°1402, pp.7012, 7037, 7238. 556 François Caron, Histoire de l'exploitation d'un grand réseau. La Compagnie du chemin de fer du Nord 18461937, Paris, Mouton, 1973, p.58. 167 plus étendues 557 ». L'argument du prix était considéré comme inséparable de celui de l'encombrement558. Dans ses rapports, Krantz fournit de nombreux témoignages relatant les difficultés de la batellerie. La dimension des écluses empêchait les péniches flamandes désireuses de pénétrer dans l'Est par le canal des Ardennes. La rupture de charges se révélait inévitable pour les bateaux picards remontant l'Oise et ceux désireux de naviguer sur l'Aisne. Chaque voie se trouvait dotée d'ouvrages d'art d'un type différent dans le bassin de la Marne. Le marinier se rendant de Paris à Lyon se voyait contraint d'alléger à deux reprises sa péniche de 300 t, la première à Laroche et la seconde à Saint-Jean-de-Losne, ce qui l'amenait à préférer traverser la ligne à vide : « La conséquence de cette infériorité technique était la stagnation des transports par eau, en présence de l'essor général du trafic et de la circulation toujours croissante des marchandises 559 .» La commission s'évertua à justifier l'importance du programme établi, en démontrant le rôle économique crucial que remplissaient les voies navigables. Afin d'appuyer sa thèse, elle s'efforça d'évaluer le prix réel de la voie d'eau et le comparer avec celui de la voie ferrée. La force des idées développées par Jean-Baptiste Krantz résidait dans le fait qu'elle correspondait à une prise de conscience nationale de la nécessité d'une remise à niveau du transport fluvial. Parallèlement, l'ingénieur bénéficiait du soutien des milieux d'affaires, défavorables depuis 1870 à l'hégémonie ferroviaire 560 . Différents cercles d'acteurs se liguèrent de façon formelle ou informelle, spontanément ou involontairement dans le but d'encourager les pouvoirs publics à faire de la batellerie un concurrent crédible, face à des compagnies de chemins de fer perçues comme hégémoniques. Le Comité des Houillères du Nord et du Pas-de-Calais signa un accord en 1873 avec l'État pour obtenir le mouillage des canaux, joignant Dunkerque à la Scarpe à deux mètres, les fonds étant avancés par le Comité et les départements du Nord et du Pas-de-Calais. Les travaux en vue de l'amélioration de l'axe Le Havre-Paris-Lyon-Marseille furent envisagés grâce aux efforts de la chambre de commerce de Lyon et notamment, l'un de ses membres, M. Jean Bonnardel561, administrateur 557 Assemblée nationale : rapport sur la navigation intérieure, n°1206, 1874. Toutefois, ses propos n'étaient pas tout à fait inédits. L'ingénieur des Ponts-et-chaussées, Bazin, avait déjà développé ces thématiques dès 1867. Cela montre à la fois les permanences des difficultés de la batellerie et la lenteur de l'application des solutions 559 Paul Léon, Fleuves, canaux, chemins de fer, avec une introduction de Pierre Baudin, Paris, Librairie Armand Colin, 1903, p.28. 560 Yasuo Gonjo, « Le plan Freycinet. Un aspect de la grande dépression économique », in Revue historique, juillet-septembre 1972, p.57. 561 Sur la famille Bonnardel et la Compagnie générale du Rhône, voir Jean Bouvier, « Une dynastie d'affaire lyonnaise », in Revue d'histoire moderne et contemporaine, juillet-septembre 1955, pp. ; Bernard Le Sueur, La « Grande Batellerie », 150 ans d'histoire de la Compagnie Générale de Navigation XIX ème-XXème siècles, 558 168 délégué de la Compagnie générale du Rhône. Les différents intérêts se regroupèrent en 1876. On prévit un tirant d'eau plus important ainsi que l'agrandissement des écluses. L'ingénieur Krantz présenta son rapport final à la Chambre des députés le 13 juin 1874 et y proposa une série de travaux destinés à l'amélioration du réseau fluvial ainsi que de le compléter, pour un montant s'élevant à 800 millions de francs562. Ces dépenses se déclinaient selon trois classes : la première touchant les travaux de première urgence pour 435 millions, la seconde désignant les travaux pouvant être provisoirement reportés (191 millions de francs) et enfin la troisième, concernant les réalisations susceptibles d'être ajournées à une date ultérieure pour 205 millions de francs. Pour ce qui était des travaux neufs, la sous-commission songeait au concours des intérêts régionaux et locaux avec en contrepartie, le versement d'avances dont le remboursement par l'État aurait été exécuté à un taux égal à 4%. Cette dernière proposition s'inspirait des principes adoptés au lendemain de la construction du canal du Nord-Est entre la vallée de la Meuse et celle de la Saône. Un autre facteur allait s'avérer décisif dans le renouveau de la batellerie. La France connut de graves difficultés économiques qui persistèrent durant au moins deux décennies (1870-1890), se caractérisant par une dépression agricole, un déclin démographique et un ralentissement de l'industrie563. Les prix des céréales connurent une baisse prolongée du fait de la concurrence des pays neufs qui contribua à freiner la production nationale : le cours du blé s'écroulant de 45%, entre 1860 et 1895. L'industrie de son côté subit un ralentissement, sans que l'on puisse le comparer au blocage de l'agriculture. De la fin des années 1860 à la fin des années 1880, la production de locomotives françaises s'est réduite de près de la moitié et les exportations de 80%. L'investissement ferroviaire tendit à reculer, tandis que de façon générale, l'Allemagne, l'Autriche-Hongrie, l'Italie, la Suisse et le Canada retournèrent à une politique de protectionnisme, ce qui réduisait d'autant plus les exportations françaises564. Un débat théorique tourna alors autour de la question des transports. Celle-ci était censée résoudre les difficultés auxquelles se trouvaient confrontés les charbonnages, la métallurgie, l'industrie textile et l'agriculture Les uns critiquèrent le traité de libre-échange Coédition, La Mirandole-Pascale Dondey, éditeur-Ville de Conflans-Sainte-Honorine, Musée de la Batellerie, 1996, 163p. 562 Assemblée nationale : rapport sur la navigation intérieure, n° 1206, 1874. 563 Yves Breton, « La longue stagnation française : panorama général, in Yves Breton, Albert Broder, Michel Lutfalla (sous la dir. de), La Longue Stagnation en France. L'autre grande dépression, Paris, Economica, 1997, pp.9-58. 564 Sur les effets du libre-échange et du protectionnisme sur la croissance économique, consulter aussi Paul Bairoch, Commerce extérieur et développement économique de l'Europe au XIX e siècle, Paris, Mouton, 1976 ; Paul Bairoch, « Commerce extérieur et développement économique : quelques enseignements de l'expérience libre-échangiste de la France au XXe siècle, in Revue économique, volume 21, n°1, 1970, pp.1-33. 169 passé avec la Grande-Bretagne en 1860 qui aurait été à l'origine de la perte de prospérité de l'industrie française, tandis que les autres souhaitaient son maintien. Le plus remarquable est que tous exprimèrent la nécessité de développer les infrastructures de transport afin de réduire les coûts et par-là même améliorer la compétitivité de l'industrie française. La voie fluviale devait tenir un rôle de régulateur du coût du transport : les intérêts houillers soulignaient les défectuosités de la voie d'eau 565 , ce qui leur permettait d'écarter les critiques des libreéchangistes et des autres producteurs, selon lesquels ils auraient été parmi les principaux responsables des déséquilibres entre production et consommation566. b) Ébranlement de la prééminence technique et politique des grandes compagnies de chemins de fer. Le système ferroviaire connut une profonde remise en cause tant sur le plan technique qu'auprès de l'opinion. La défaite face à la Prusse avait mis en exergue les carences du réseau établi sous le Second Empire. Même si les responsabilités pouvaient être partagées entre les compagnies et les choix des militaires567, il n'en demeurait pas moins que la défaite militaire s'était accompagnée d'une défaite de la logistique dont les conséquences allaient se révéler lourdes quant à l'issue du conflit et le relèvement du pays. Celui-ci se trouva effectivement confronté à une grave crise des transports au lendemain de la guerre 1870-1871. Les Français avaient pu constater notamment l'insuffisance des investissements, en gares, locaux etc., insuffisance d'ailleurs déjà latente depuis les dernières années du Second Empire 568 . Par ailleurs, la technologie de la vapeur avait progressé plus vite que celle de l'exploitation, signalisation, freinage, triage des wagons ainsi que des tâches annexes au sein des gares qui reposaient sur un empirisme, ce qui conduisit à des blocages internes. Il en résulta, par conséquent, de graves encombrements569. Ces difficultés risquant de bloquer l'économie du pays, une loi encourageant les travaux d'infrastructures, ne pouvait être accueillie que très favorablement, et la batellerie figura parmi les bénéficiaires. Certains ont pu attribuer l'ampleur marquée de la crise dans le domaine des transports, tout au moins en partie, par le caractère mixte du système ferroviaire français, contrairement au système britannique plus libéral, et aux équivalents allemands et belges plus étatiques570. 565 « Rapport de l'ingénieur Cotard, fait devant l'Association française pour l'avancement des sciences » in Revue scientifique, 2 octobre 1880, p.351. 566 Michèle Merger, « La politique de la IIIème République », op. cit., pp. 64-65. 567 François Caron, Histoire des chemins de fer en France 1740-1883, Paris, Fayard, tome 1, pp. 419-426. 568 cf. François Caron, Histoire de l'exploitation op. cit., pp.170-171. 569 « Rapport fait au nom de la commission d'enquête sur le régime des chemins de fer par Dietz-Monnin », séance du 14 mars 1874, in Journal Officiel, 26 juin 1874, annexe n° 2291, pp.4365 et suivantes. 570 Yasuo Gonjo, « Le plan Freycinet. Un aspect de la grande dépression économique », in Revue historique, juillet-septembre 1972, p.57. 170 La controverse qui éclata à partir de 1877 au sujet des chemins de fer résultait des contradictions mises au jour par la dépression économique entre la question du régime ferroviaire et les attentes des industriels. La discussion ne se réduisait pourtant pas exclusivement à la dénonciation des « monopoles », mais posait plus largement la question du rachat partiel ou total du réseau de chemin de fer. S'il s'agissait effectivement d'une crise du capital ferroviaire, les économistes libéraux y percevaient une crise du capital privé et craignaient l'avènement d'une forme de « socialisme »571. Par-delà les considérations techniques et économiques, l'impopularité des compagnies ferroviaires résultait aussi de considérations purement politiques, voire idéologiques 572 . Créées sous la Monarchie de Juillet et sous le Second Empire, celles-ci étaient perçues par de nombreux républicains comme des bastions réactionnaires et les monopoles dont elles bénéficiaient avaient favorisé, selon leurs détracteurs, des formes de clientélisme. Sur ce point, les républicains rejoignaient de nombreux économistes de l'époque qui abhorraient toute forme de monopole. Pour la plupart, ils se montraient favorables au protectionnisme et envisageaient d'imposer d'une manière ou d'une autre des tarifs modérés aux compagnies de chemins de fer afin de soulager l'industrie, le commerce et l'ensemble de la population. L'argumentaire des partisans des compagnies de chemins de fer ne s'avérait pas moins idéologique, dans la mesure où ils rejetaient toute forme d'étatisme, à l'instar de Léon Sayet Leroy-Beaulieu. Ils refusaient l'idée de lancer l'État dans des aventures industrielles et estimaient que l'exploitation par celui-ci était génératrice de gaspillage, tandis que celle des compagnies concessionnaires était synonyme d'efficacité et de bonne gestion573. Cependant, comme on a pu le voir à maintes reprises sur ce genre de question, les arguments reposaient davantage des convictions de chacun des partis que sur des données tangibles. En effet, la plupart du temps, les analyses statistiques sur lesquelles ils se fondaient, demeuraient discutables. Toutefois, dans le camp des libéraux, La Gournerie élabora une théorie des 571 Léon Say, Paul Leroy-Baulieu, etc. Le roman Sans famille d'Hector Malot reflète la désillusion de l'époque à l'égard des chemins de fer. Ce propose au lecteur un véritable périple fluvial canal du Midi, du Nivernais, Yonne, Seine, Saône. D'ailleurs, la petite Lise est recueillie par une famille d'éclusiers. Il mentionne notamment une certaine nostalgie à l'égard des voies navigables, notamment le canal du Midi, délaissé à cause des chemins de fer. La vitesse que ceux-ci offraient ne permettait plus de contempler le paysage. D'ailleurs, la batellerie apparaît comme le mode de transport pour le jeune James Milligan à la santé fragile. On peut citer aussi le témoignage d'un jeune gadzarts qui après le conflit avec la Prusse, s'installa dans la région de Montargis, et mise beaucoup sur les canaux pour développer notamment l'activité de meunerie dans laquelle il se lance : E.J. Fort, Un gadz'arts franc-tireur. Scène vécues de la Campagne 1870-1871, préface de Jules Ramas, Paris, Librairie des Facultés E. Muller, 1934, 370p. 573 Le propos est ici à peine exagéré. Voir Paul Leroy-Beaulieu, L'État moderne et ses fonctions, Paris, Guillaumin, 1900, p.23. 572 171 monopoles cherchant à démontrer la congruence entre les intérêts des compagnies et l'intérêt général574. 2. Le plan Freycinet : entre espoirs et désillusions. a) Vote de la loi : la recherche d'un compromis national pour la cohésion républicaine. L'élaboration du plan Freycinet semble avoir été principalement motivée par la dépression économique, le programme de grands travaux apparaissait comme un moyen d'atténuer les divergences d'intérêts entre libre-échangistes et protectionnistes. Il s'agissait également de réconcilier les intérêts industriels et ferroviaires par le biais d'une politique de travaux extensifs. Pour ce faire, Charles de Freycinet effectua une série de voyages de septembre à octobre de l'année 1878575. Il présenta ensuite son programme à la Chambre des députés le 8 novembre 1878576. Les débats furent menés rondement, puisque la loi fut adoptée dès le 5 août 1879577. Elle visait à répondre au voeu des républicains d'atténuer l'influence des compagnies ferroviaires ainsi qu'aux aspirations des milieux d'affaires, qu'ils fussent d'ailleurs protectionnistes ou libre-échangistes, qui appelaient à améliorer les différents réseaux de transport dans le but d'atténuer les effets de la dépression économique survenue, comme on l'a vu, dès 1876-1878578. Il s'agissait également de limiter les inégalités régionales, dont certaines avaient été accentuées par l'extension du réseau ferroviaire. Cet aspect allait constituer un des points faibles de ce programme. Concernant les chemins de fer, le plan avait été conçu comme un complément aux lignes existantes, soit 17 000 km de voies nouvelles à établir. Le programme envisageait d'améliorer les débouchés maritimes des communications terrestres, prévoyant entre autre l'agrandissement de 76 ports579. Faisant appel à des capitaux considérables, le financement des dépenses était censé s'accomplir par le biais du budget extraordinaire, lui-même alimenté par des emprunts. Le fait était la situation budgétaire paraissait plutôt favorable au moment de l'élaboration du projet de loi580. Les budgets français connurent de façon récurrente à partir du 574 La Gournerie, Études économique sur l'exploitation des chemins de fer, Paris, Gauthier-Villars, 1880, 182p. Charles de Freycinet, Souvenirs, tome 2 : 1878-1893, Paris, p.7. 576 Projet de loi relatif au classement et à l'amélioration des rivières navigables. Exposé des motifs, annales de la Chambre des Députés, annexe 862. 577 Le programme Freycinet incluait deux autres lois : celle du 17 juillet 1879 pour les chemins de fer, du 28 juillet 1879 pour les ports intérieurs. 578 C. Lavollée, « Le tarif des douanes et les enquêtes », in Revue des Deux Mondes, février 1878, p.908. 579 Bruno Marnot, « La politique des ports maritimes en France de 1860 à 1920 », in Histoire, économie et société, 1999, 18e année, n°3, pp. 643-658. 580 Yasuo Gonjo, ibid., pp. 61-62. 575 172 milieu des années 1870 des plus-values de recette, ce qui permettait de disposer de réserves pour l'amortissement du nouvel emprunt nécessaire à l'application de ce programme de travaux581. Un des principes majeurs du programme de Freycinet en matière fluviale reposait sur l'uniformisation du réseau. Lors des discussions devant les députés et des différentes commissions, le ministre déplora effectivement à maintes reprises l'hétérogénéité du réseau navigable. Ce dernier fonctionnait encore sur le plan local, mais le caractère hétérogène de ce mode de transport en prohibait tout développement global. En outre, il distinguait deux types d'ouvrages, les lignes principales et les lignes secondaires582. Cette conception n'était peutêtre pas dépourvue d'arrière-pensées politiques avec des visées électoralistes. En d'autres termes, en promouvant des ouvrages sur toute la France, le projet de loi était susceptible de satisfaire tout le monde, ce qui empêchait d'être accusé de privilégier les régions industrielles dotées de voies navigables, c'est-à-dire principalement celles du Nord et du Nord-Est, et « plus grave » encore la région parisienne. Cet argument allait pourtant servir de cheval de bataille pour les milieux agricoles et ferroviaires. Le non achèvement des travaux envisagés par le programme de travaux publics est ainsi devenu une source de frustrations, voire de jalousies C'était précisément une des faiblesses que pouvait représenter un plan prétendant englober l'ensemble du territoire. Les lignes principales devaient procurer au minimum les dimensions suivantes : 38,50 m de longueur d'écluse, 5,20 m de largeur d'écluse, un mouillage de 2 m ainsi qu'un tirant d'air des ponts de 3,70 m. En fait, cela correspondait au gabarit fixé par le Conseil général des Ponts-et-Chaussées en 1877, lui-même s'inspirant sensiblement des travaux de l'ingénieur Krantz583. De tels navires se montraient capables de transporter 300 t de marchandises. Ce gabarit constituait un minimum, si bien que rien n'excluait des dimensions supérieures. Formant un ensemble de 5 000 km administré par l'État, les lignes principales ne pouvaient faire l'objet de concession pour un temps limité et celles soumises à ce régime, en 1878, allaient être rachetées progressivement. Il s'agissait des voies du Nord de la France, du bassin de la Seine, du Rhône, etc. Il n'avait pas été fixé de gabarit spécifique pour les lignes secondaires qui, bien que formant un ensemble de 6 880 km, se révélaient de moindre importance. En outre, elles pouvaient être sujettes à une concession temporaire, à des associations ou bien encore à des particuliers. 581 Léon Say, « Le rachat des chemins de fer », in Journal des Économistes, décembre 1881, p.331. « Projet de loi relatif au classement des voies navigables », in Journal Officiel, 4 novembre 1878, annexe 862, p.11087. 583 Jean-Baptiste Krantz, Note sur l'amélioration de la navigation de la Seine entre Paris et Rouen, SaintGermain-en-Laye, 1er mai 1871, 78p. Ses propositions dérivaient elles-mêmes de proposition antérieures. 582 173 Le second volet du programme visait à améliorer le réseau existant et le compléter afin de former de grandes lignes de navigation. L'idée maîtresse de Freycinet, reprenant, en réalité, celle de Krantz, consistait à établir une répartition entre les transports tirant parti du meilleur des spécificités de chacun des modes de transport: la batellerie se chargeait des produits encombrants qu'elle semblait la mieux à même de transporter sur de longues distances et à moindre coût, tandis que les chemins de fer s'occupaient des marchandises de valeur, des produits manufacturés, des produits périssables ainsi que des voyageurs584 Le raisonnement de Freycinet et de ceux qui l'ont aidé à concevoir son projet de loi était que la voie d'eau soulageait les chemins de fer de trafics gênant son exploitation et empêchait de développer correctement la grande vitesse ou le transport de passagers585 Ils envisageaient, pour un ensemble de 14 600 km, d'améliorer 3 600 km de voies existantes ou en cours de construction et 11 000 km. Ces travaux correspondaient à un total estimé à 4,5 millions de francs, la majorité correspondant aux lignes principales avec l'augmentation du mouillage, l'agrandissement des écluses, travaux divers comme les dragages, consolidation des rives et des perrés, aménagement des digues, exhaussement reconstruction de barrages, établissement de réservoirs d'alimentation etc. b) Travaux d'aménagement des grandes lignes : tentative de standardisation du réseau des voies navigables : Une des grandes idées du plan Freycinet résidait dans la création de grandes lignes de navigation intérieures comparables aux lignes de chemins de fer, Paris constituant le centre de gravité du trafic global et par conséquent de l'ensemble du réseau. L'aménagement des grandes lignes de navigation fut donc méthodiquement entrepris. La ligne du Nord de Paris à la frontière avec la Belgique et aux ports de la mer du Nord fut régularisée pour une dizaine de millions de francs, tandis que l'on paracheva la ligne des Ardennes par l'Aisne. On entreprit, bien entendu, et ce qui nous intéresse le plus ici, des travaux d'amélioration de la navigabilité de la Seine. Sur la Haute-Seine qui formait l'exutoire des lignes de Lyon et de la Loire, le mouillage avait été porté jusqu'à Montereau à deux mètres pour un coût d'environ cinq millions de francs 586 . Les pouvoirs publics intensifièrent leurs travaux pour relier la capitale à la mer, c'est-à-dire doter la Basse-Seine des meilleures conditions de navigation possibles. 584 Lettre au Président de la République dans le Journal Officiel du 16 janvier 1878. Journal Officiel, 4 novembre 1878, p.11087. 586 A.P., D7S4 1, Augmentation du tirant d'eau entre Montereau et Paris (1876-1880). 585 174 Ce fut chose accomplie avec la loi du 6 avril 1878 qui prescrivit l'établissement d'un mouillage de 3,20 m entre Paris et Rouen. Au préalable, trois importantes entreprises avaient été déclarées d'utilité publique avant que ne fût adoptée de manière définitive la loi du 5 août 1879. Ces travaux se répartissaient de la manière suivante 587: 1. Aménagements pour obtenir un mouillage de 3,20 m entre Paris et Rouen (loi du 6 avril 1878) : 32 000 000 francs588 ; 2. Aménagements pour un mouillage de 2 m entre Montereau et Paris (loi du 13 juin 1878) : 3 500 000 francs589 3. Travaux pour obtenir un mouillage de 2 m entre Montereau et Marcilly (loi du 2 avril 1879) : 5 millions francs Total : 40 500 000 francs. Les dépenses pour les travaux concernant la traversée de Paris furent confirmées par la loi du 21 juillet 1880 qui autorisa une dépense de 10,5 millions de francs en vue de porter le mouillage à 3,20m sur cette section. La décision ministérielle du 5 novembre de la même année répartit les travaux à effectuer entre les divers services d'ingénieurs. Elle affecta au service de la Navigation de la Seine la somme de 3,9 millions francs, la construction de l'écluse et du barrage de Suresnes s'élevant à elle-seule à 3,3 millions, le reste revenant à des travaux de dragages en aval de Paris (120 000 francs), de réfection de ports en aval de la capitale (80 000)590. Tous ces chiffres montrent l'ampleur des aménagements réalisés sur la Basse-Seine qui représentaient près de 80% du total des travaux591. Sur le parcours de 243 km entre Paris et la mer, le nombre d'écluses se vit ramené au nombre de neuf592. Ces barrages furent dotés de deux écluses, l'une de 41,60m destinée aux chalands isolés et l'autre de 141 mètres pour 587 Michèle Merger, « La Seine dans la traversée de Paris et ses canaux annexes : une activité portuaire à l'image d'une capitale (1800-1939) », dans Paris et ses réseaux : naissance d'un mode de vie urbain, XIX e-XXe siècles, pp.349-386, sous la direction de François Caron, Jean Derens, Luc Passion et Philippe Cebron de Lisle, Paris, Direction des affaires culturelles et Université de Paris-IV Sorbonne Centre de recherche en histoire de l'innovation, Bibliothèque Historique de la Ville de Paris, 1990, p. 358. 588 Il s'agit des 6e (entre Paris et l'embouchure du canal Saint-Denis), 7e (entre la Briche et Conflans-SainteHonorine) et 8e sections (entre Conflans et Rouen). 589 Soit respectivement les 3e et 4e sections de la Seine, en amont de Paris. 590 Le reste consistait en la part proportionnelle à la somme à valoir générale. Voir Annuaire statistique de la Ville de Paris, année 1886, p.94. 591 A.P., D7S4 1, Entretien du chenal de navigation entre Rouen et Paris (1871-1894) ; A.P. D7S4/2 : Affaires générales : Amélioration de la Seine entre Paris et Rouen (1871-1890). 592 La pente naturelle de 25,50 m présentée par la Seine, depuis l'amont de Paris jusqu'à l'écluse de Port-àl'Anglais sur une longueur de 225 km était rachetée par neuf barrages à écluses, installés à Suresnes, Bougival, Andrésy, Méricourt, Villez, la Garenne, Poses et Martot. 175 les convois de plusieurs péniches593. En effet, la loi du 6 avril 1878 avait porté à 3,20 m le mouillage du bief parisien compris entre les écluses de Port-à-l'Anglais et de Suresnes. Ce tirant d'eau fut atteint définitivement sur toute l'étendue du bief le 15 septembre 1886. Chacune des retenues était formée par plusieurs barrages comportant une ou plusieurs passes navigables594 . Parmi ces grands barrages, on peut citer le barrage de Suresnes et celui de Marty595. Le premier avait été envisagé afin de remplacer le barrage mobile à fermettes et à aiguilles, établi antérieurement en 1866596 et qui n'offrait qu'un tirant d'eau de 2,20 m dans la traversée de Paris comme l'avait prévu la loi du 21 juillet 1880. L'exécution de travaux d'une telle ampleur eut tout de même un coût, à savoir que les dépenses passèrent rapidement à près de 67 millions de francs, par rapport à la quarantaine de millions prévue initialement. Malgré tout, il s'agissait d'un axe majeur pour l'approvisionnement de la capitale et qui pouvait justifier de tels sacrifices, car ces aménagements contribuaient simultanément à la prospérité des ports normands et des industries des départements du Nord de la France. La navigation de la Seine connut ainsi une mutation profonde, le mouillage n'étant jamais inférieur à 3,20 m et aucun chômage n'était plus à craindre en période de basses eaux. La durée du trajet de Rouen à Paris se voyait ramenée à trois jours, voire plus pour les convois toués ou remorqués, et elle n'excédait pas 28 à 30 heures pour les porteurs à vapeur isolés ou automoteurs!Même si les chemins de halage se trouvaient dans un état acceptable, leur usage se bornait tout au plus à la traversée. Le prix du fret a considérablement profité de ces aménagements passant de 12 à 15 francs en 1840 à de 4 à 5 francs à la remonte en 1890, et à 2,75 francs et 3,50 francs à la descente. Il s'est produit une augmentation de plus de la moitié dans le tonnage remorqué : 389 tonnes-kilométriques alors qu'en 1881, avant l'exécution de ces derniers travaux, ce dernier n'excédait pas 227 millions T.-K.597. Il s'agit d'une évolution majeure. En effet, les conditions antérieures de la navigation rendaient pénible et onéreuse la remontée des bateaux des ports de Seine inférieure vers la capitale. Néanmoins, grâce aux travaux de dragage, à l'installation de barrages éclusés, à la motorisation des péniches, la remontée se trouvait dans une large mesure facilitée et plus apte à répondre au transport de marchandises à plus forte valeur ajoutée. 593 Les barrages mobiles employés étaient de deux types, soit du système à fermettes pivotantes, s'enfonçant dans le lit du fleuve, comme les lames d'un éventail, suivant l'agencement mis au point par l'ingénieur Poirée, soit du type du pont supérieur supportant un cadre oscillant se relevant horizontalement et hors de l'eau. 594 La Nature, 29 juillet 1890, p.116. 595 « Les travaux de canalisation de la Seine entre Paris et la mer. », La Nature, 5 mars 1890, pp.275-276. 596 Voir premier chapitre. 597 Alfred Picard, Traité des chemins de fer : économie politique, commerce, finances, administration, droit, études comparées sur les chemins de fer, Paris, Paris, J. Rothschild, 1887, vol.1, p.347 et suivantes. 176 Figure 8 Profil en long de la Seine canalisée après les aménagements effectués entre Paris et Rouen en 1886. Source : François Beaudoin, « La canalisation de la Seine par barrages mobiles éclusés au XIXe siècle », dans les Cahiers du Musée de la batellerie, n°2, décembre 1988, p. 19. B. Un plan inachevé. 1. Les limites du plan Freycinet. Moins ambitieux que le programme élaboré par Jean-Baptiste Krantz, le plan Freycinet paraissait marquer une volonté de la part des pouvoirs publics d'insuffler une nouvelle impulsion à l'industrie batelière. La crise financière de 1882 déçut toutefois rapidement les espoirs 598 , condamnant l'exécution du plan par l'État. La machine s'était emballée 599 , par souci électoraliste, et de manière à satisfaire tout le monde, les pouvoirs publics promirent un peu tout et n'importe quoi ; si bien que les crédits annuels connurent une progression inquiétante : 52 millions de francs en 1879, 103 en 1880, 146 en 1883 L'ensemble des entreprises projetées était estimé à près de 2 milliards, on dut renoncer à 973 598 Jean Bouvier, Études sur le krach de l'Union générale, Paris, PUF, 1960. Charles Gomel, « De l'emploi et de l'émiettement de l'emploi des crédits affectés aux travaux publics », in L'Économiste Français, samedi 18 juin 1887, p.763. 599 177 millions francs de travaux600. La signature des conventions ferroviaires de 1883601, ainsi que l'abaissement des allocations budgétaires formèrent une réponse aux entraves du moment et la troisième section du budget des travaux publics, le budget extraordinaire disparut en 1887, et cela, à la grande satisfaction des adversaires de la combinaison mise en place en 1879 par Léon Say 602 . Le réseau navigable puisait désormais ses financements sur les ressources normales fixées sur chaque exercice. Ainsi, les crédits qui lui furent alloués connurent une baisse sensible jusqu'à la fin du XIXe siècle et il fallut recourir au système des avances versées par les départements et les intérêts locaux en 1884, date à laquelle on renonça à de nombreux projets et avant-projets classés en 1879 dont celui du canal du Nord603, du canal du Nord-Est (de l'Escaut à la Chiers), du canal latéral à la Loire et enfin celui des Grandes Landes. La moyenne quinquennale des fonds alloués aux voies navigables a progressé de la manière suivante : 58,1 millions entre 1880 et 1884 ; 21 millions entre 1885-1885 ; 14,8 millions pour 1890-1894 et enfin 11,3 millions pour 1895-1899604. Outre la politique d'amélioration du réseau, le plan Freycinet impliquait un autre volet dont l'importance ne se révéla pas moins considérable. Dès le Second Empire, le gouvernement avait procédé à diverses réductions sur les droits de navigation, le but visant à rendre la batellerie plus compétitive face aux voies ferrées605. La loi du 19 février 1880606 décida ainsi la suppression totale des droits de navigation. Si cette mesure pouvait paraître positive pour la navigation fluviale, et elle le fut dans une large proportion, elle présentait pour autant un danger sur le long terme. En effet, elle la privait de financements et à terme pouvait aggraver le désintérêt de l'État à son égard dans la mesure où elle n'apportait plus de contributions Le contexte de financement des infrastructures fluviales devenait ainsi inquiétant : privé d'un côté des revenus de leur exploitation et d'un autre côté, des investissements de l'État qui devenaient de plus en plus hasardeux, soumis à la conjoncture et au bon vouloir des pouvoirs publics et l'opinion Le milieu particulièrement morcelé de la 600 Paul Léon, Fleuves, canaux, op. cit., p.33. François Caron, Histoire des chemins de fer , op. cit., pp. 495-499. 602 Peut-être à la satisfaction du concepteur lui-même, dans la mesure où il n'avait adhéré au projet de Freycinet qu'à contrecoeur. Voir Michèle Merger, « La concurrence rail-navigation intérieure en France », Histoire, Économie et Société, 1, 1990, p.74. 603 Voir un développement plus important sur ce canal dans le dernier chapitre de cette thèse. 604 Kauffmann, op. cit. 605 Voir le chapitre I. 606 « Loi du 19 février 1880 portant sur la suppression immédiate des droits de navigation », in Guide officiel de la navigation intérieure avec itinéraires graphiques des principales lignes de navigation et carte générale des voies navigables de la France. Dressé par les soins du Ministère des Travaux Publics (Direction de la Navigation), Paris, Librairie polytechnique Baudry et Cie Éditeurs, cinquième édition, revue et augmentée, 1891, pp.3-4. Voir aussi Michèle Merger, « La politique de la IIIe République», op. cit., pp.82-84. 601 178 navigation intérieure se révélait moins bien armé que les compagnies de chemins de fer pour constituer un lobby suffisamment puissant pour faire pression sur le milieu politique607Les mariniers formaient une population de tempérament considéré par les contemporains comme « routinier » et « conservateur », accompagné d'un puissant individualisme608. Le passage à la batellerie industrielle a impliqué la mobilisation de l'ensemble de la cellule familiale dans le fonctionnement du bateau 609 Tant et si bien que les mariniers ne bénéficiaient guère de l'opportunité d'améliorer leur niveau d'instruction610. Cela les plaçait en situation d'infériorité à l'égard des différentes administrations auxquels ils avaient affaire, des industriels et des compagnies de navigation 611 En outre, ces dernières tiraient un certain avantage à la désorganisation générale du marché612. D'une part, elles se voyaient en mesure de contrôler les mariniers. D'autre part, elles apparaissaient comme des interlocutrices « sûres » dans ce contexte de marché désorganisé. En raison de la nature même de leur profession, les mariniers manquaient de temps et de moyens commerciaux. En effet, ils travaillaient à bord de leurs bateaux qu'ils manoeuvraient eux-mêmes. En permanence sur les fleuves et canaux, ils n'entretenaient que des relations sporadiques avec leurs chargeurs613. Et leur trajet accompli, ils devaient se lancer dans la quête de nouveaux frets, ce qui les amenait à prospecter auprès de leur clientèle 614 . C'est la raison pour laquelle de façon paradoxale, les compagnies de navigation, et surtout de touage, ne se montraient pas systématiquement favorables aux propositions d'améliorations du réseau615. Pour autant, le bilan des travaux décidés en 1879 ne saurait être considéré comme totalement négatif. Si un grand nombre de projets ont été abandonnés, et parfois, les conséquences étaient grave pour ce qui était de la non construction du canal du Nord, les travaux engagés portaient tout de même encore sur 765 millions de francs. L'exécution avait excédé les prévisions de 200 millions. Un tiers de cette somme a servi à l'unification du 607 G. Captier, « Le marinier », rapport présenté au 5ème Congrès international de la navigation intérieure tenu à Paris en 1892. 608 Henry Bazin, « État de la navigation intérieure », Annales des Ponts-et-Chaussées, 1867, p.155. 609 Louis Marlio, « Le marinier », in Revue de Paris, 15 août 1909, p.773. 610 Louis Marlio, ibid., p.778 ; Adrien Legrand, La condition économique et sociale des mariniers du Nord, thèse pour le doctorat en droit, université de Nancy, Merville, impr. de L. Loïez, 1910, pp.38-39. 611 G. Renaud, « Le batelier, son bateau, son industrie », in Revue Politique et Parlementaire, 10 janvier 1914, p.124. 612 Lucien Morice, L'Office National de la Navigation et l'exploitation réglementée des voies navigables, Paris, impr. du Laboureur, 1946, pp.105-106. 613 Adrien Legrand, La condition économique et sociale des mariniers du Nord, thèse pour le doctorat en droit, université de Nancy, Merville, impr. de L. Loïez, 1910, p.36. 614 Michèle Merger, « La politique de la IIIe République », op. cit., pp.312-317. 615 On verra leur opposition à Paris port de mer dans le cinquième chapitre. C'était vrai également pour les compagnies de touage qui n'avaient pas nécessairement intérêt à un approfondissement de la Seine trop considérable, qui signifiait leur déclin à plus ou moins long terme en faveur des chalands. 179 réseau, alors que seulement 145 millions de francs ont été dépensés effectivement pour les voies nouvelles qui figuraient au programme pour 850 millions. L'application partielle du plan Freycinet avait malgré tout modifié en profondeur le réseau de la navigation intérieure française en contribuant à l'unification des gabarits sur les voies principales et la création d'un certain nombre de voies nouvelles. La longueur du réseau de canaux et de rivières disposant de deux mètres de mouillage minimum et d'écluses de 38,50 m de longueur et de 5,50m de longueur est passée de 235 km et 996 km en 1878, à respectivement 1 915 km et 1 884 km en 1890, ce qui représentait une extension de 717% et 89%616. De toute évidence, on avait privilégié la navigabilité des rivières, les efforts en matière de canaux ayant été considérables au cours des années antérieures. Par ailleurs, de 1881 à 1899, le trafic global avait progressé de 49%, tandis que le parcours moyen était passé de 110 km à 1340, soit une progression de 22%. Ce mouvement ascensionnel pouvait être attribué à l'amélioration des voies navigables qui correspondaient justement aux lignes du Nord et du Nord-Est, à savoir sur les travaux qui avaient été achevés en grande partie617. La corrélation entre les travaux réalisés dans le cadre du plan Freycinet et la hausse du trafic semblait évidente. Il fallait ajouter une baisse sensible du prix du fret. Pour ce qui était de la houille, au départ des bassins du Nord et du Pas-de-Calais, le fret qui tournait entre 1,5 et 3,5 centimes par tonne et par kilomètre, s'établissait autour de 1,5 centime vers 1890618. 2. Faible rendement de la batellerie et tentative libérale de relancer le plan Freycinet : le projet de loi Guyot (15 juillet 1890). Malgré les progrès incontestables, le rendement de l'exploitation était loin de satisfaire. Dans un rapport déposé à la Chambre, le 15 juillet 1890619, le ministre des Travaux publics avait montré les 24 millions de tonnes de marchandises effectivement transportées en 1889 réparties entre 16 000 bateaux d'une capacité totale, 2,7 millions de tonnes kilométriques correspondaient à 8,5 fois le port en lourd d'une péniche. Le parcours moyen d'une péniche s'élevait à près de 1 140 km. Si l'on considérait les deux mois de chômage et la 616 Clément Colson, « Revue des questions de transports, in Revue Politique et Parlementaire, tome X, novembre 1896, pp.420-421. 617 Richard de Kauffmann, La politique française en matière de chemins de fer, traduit, mis à jour et précédé d'une étude complémentaire par Frantz Hamon, Paris, Librairie polytechnique Ch. Béranger, Éditeur, 1900, pp.814-815. 618 Jean-Claude Toutain, « Les transports en France de 1830 à 1965 », in Économies et Sociétés, série AF, n°9, Paris, PUF, 1967, p.103. 619 Projet de loi sur la Navigation Intérieure, présenté par M. Yves Guyot, ministre des Travaux Publics, document parlementaire, déposé à la chambre le 15 juillet 1890, annexe 838, p.1565. 180 dizaine de jours aux ports pour chaque voyage, le trajet moyen en bateau ne s'élevait journellement qu'à 5 km. La réalité était que les péniches avançaient à une vitesse moyenne de 15 à 20km par jour, c'est-à-dire un niveau relativement médiocre, même pour l'époque620. Le trafic était donc loin d'atteindre son point de saturation. Il existait ainsi un décalage entre les progrès techniques et le rendement économique. Les causes semblaient diverses. Certaines étaient inhérentes à l'exploitation : entretien, aléas climatiques, insuffisance de l'outillage des ports, traction, etc. Le rapport du ministre des Travaux publics Yves Guyot pointait aussi un manque de coordination entre les différents services qui paraissait encore plus graves encore. En effet, si l'État était propriétaire du réseau, l'exploitation du matériel relevait du ressort de l'industrie. Le temps perdu entre le Nord et Paris à chacun des points s'élevait en moyenne entre une quinzaine et une vingtaine de jours, ce qui excédait la durée même du voyage d'une vingtaine de jours, pourtant très insuffisante en soi. Ces carences structurelles poussèrent l'État à organiser lui-même la traction sur le canal Saint-Quentin, particulièrement fréquenté et au bord de la rupture, au début du 19 juin 1875. L'Administration avait ainsi instauré un halage obligatoire avec monopole. Par ailleurs, sur le même canal, l'administration des Ponts et Chaussées exploitait en régie des services de tonnage au passage des souterrains des biefs de partage. Cette intrusion étatique était en fait perçue comme un moindre mal, dans la mesure où l'on ne trouvait aucun entrepreneurs privés suffisamment solides sur le plan financier et non susceptibles d'instaurer un monopole inéquitable ou au service de quelques intérêts privés. Par exemple, la rivalité existant entre les houillères du Nord et du Pas-deCalais incitait l'administrateur à remplir le rôle d'arbitre « impartial »621. En outre, la « petite batellerie » se montrait hostile à une concession en faveur d'un exploitant privé, ne serait-ce une compagnie fluviale. Les mariniers avaient déjà fort à faire pour trouver un moyen de traction à bas prix, ils ne se sentaient pas la force de négocier avec un exploitant privé. L'Administration de son côté préférait maintenir l'ordre, ce qui représentait d'ailleurs l'intérêt de tous. Pour leur part, les houillères préféraient les inconvénients d'une exploitation médiocre à celui de devoir négocier dans une position qui ne leur était pas nécessairement favorable. Cela signifiait avoir en face deux puissants partenaires : la puissante Compagnie du Nord et un éventuel exploitant concernant la traction sur le canal Saint-Quentin. Dans un 620 Le rapport d'Yves Guyot préconisait 30-40km. Sur les enjeux des voies navigables dans la concurrence inter bassins et avec les charbons étrangers, voir Jules Marmottan, Les houilles du Nord et du Pas-de-Calais et l'approfondissement de la Seine, Paris, Guillemin, 1878, 16p. ; Marcel Gillet, Les Charbonnages du Nord de la France au XIX e siècle, Paris, Mouton, 1973, pp.151-154. 621 181 contexte de marché du fret totalement libéralisé (ou plutôt désorganisé622), les houillères se trouvaient dans une position bien plus profitable pour elles et pouvait obliger les mariniers à baisser les frets à loisir, et se servir de la menace d'obtenir de meilleurs prix auprès de la voie ferrée. Les exploitants des houillères des régions du Nord trouvaient un autre avantage à recourir au service des mariniers, en retenant les péniches de trois à six semaines afin de les remplir de charbon. Ces pratiques signifiaient la réapparition des stationnements que les coûteux travaux accomplis sur les voies navigables et au port de Paris étaient censés remédier Pourtant, les mariniers ne semblaient guère avoir le choix : « Disséminés, timorés, les mariniers sont contraints de subir ces exigences. Les grands charbonniers menacent de recourir aux chemins de fer si la loi limitait, comme en Allemagne, les délais de chargement 623 ». Le raisonnement des consommateurs de la région parisienne ne différait guère de celui des houillères, il s'agissait avant tout de privilégier la concurrence et donc la petite batellerie. En 1888, un projet de construction de magasins en dur sur les bords du bassin de l'Arsenal, près de la Bastille, pour remplacer ceux en bois fut déposé et débattu devant le Conseil municipal de Paris. Les défenseurs du projet soulignaient d'une part les bienfaits de la concurrence entre les voies navigables et les chemins de fer, et d'autre part, ils exprimèrent leur soutien à la batellerie artisanale, le conseiller municipal Jules Joffrin 624 expliquant : « personne ne voudra ici laisser ces petits entrepreneurs qui travaillent sur leur propre bateau, à la merci des grandes compagnies, et c'est là le but de la proposition 625 ». Les conseillers municipaux s'inspiraient directement de l'attitude des houillères et entendaient produire les mêmes résultats, comme l'exprima un autre conseiller municipal, M. Deligny : « Le meilleur moyen de faire baisser le fret, c'est de favoriser le développement de la petite batellerie. C'est ainsi que dans le Nord, on a pu forcer la Compagnie des Chemins de fer du Nord à transporter la houille à raison de 0fr25 la tonne626. » La priorité était donc moins de favoriser une grosse batellerie capable de rivaliser avec les grandes compagnies de chemins de fer, ce qui aurait peut-être signifié avoir affaire à des partenaires trop puissants, que d'encourager la batellerie artisanale, moins organisée et pléthorique. 622 Lucien Morice, L'Office National de la Navigation op. cit., p.132. François Maury, Le port de Paris, op. cit., p.203. 624 Conseiller municipal du XVIIIe arrondissement d'obédience républicaine. Il s'est entre outre confronté à Boulanger lors des élections législatives. 625 « Construction d'une gare d'eau au bas-port de l'Arsenal », in Bulletin Municipal Officiel du vendredi 21 décembre 1888, p.2877. 626 A.P. VO3 1899: Bassin de l'Arsenal, création d'un port : détail et avant-métré des travaux à exécuter, devis, cahier des charges, pétition de la chambre syndicale de la Marine pour l'élargissement des berges, rapports et ordres de service de l'ingénieur, plans (dont calques), correspondance, notes (1876-1902) ; création de magasins : mémento sur l'édification de magasins sur le bassin, rapports et ordres de service de l'ingénieur, plans, correspondance, notes. 623 182 Toutes ces considérations contribuèrent sans doute à l'échec du projet de loi proposé par Yves Guyot. En effet, celui-ci entendait poursuivre la politique de grands travaux publics menée depuis 1878 par une voie résolument libérale, à savoir en recourant le plus possible à l'initiative privée de manière à réduire au maximum l'effort budgétaire de la part de l'État. L'idée centrale du projet consistait en la création de chambres de navigation qui auraient été chargées d'administrer l'outillage public sur l'ensemble du réseau, et de participer à l'aménagement des voies navigables. Pour les ouvrages importants, il était prévu d'établir des péages pour contribuer à leur financement. La plupart des chambres de commerce des départements du Nord de la France et le Comité des Houillères du Nord accueillirent plutôt favorablement le projet de loi Guyot, car elles entrevoyaient la possibilité de réactiver les travaux de construction d'une nouvelle voie venant suppléer le canal Saint-Quentin 627 . Néanmoins, de leur côté, les chambres de commerce de Rouen et de Roanne exprimèrent leurs inquiétudes par rapport au rétablissement des droits de navigation, car ces villes correspondaient à des noeuds fluviaux majeurs et bénéficiaient largement de l'essor de leurs réseaux respectifs. II. L'ÉVOLUTION DES TRAFICS FERROVIAIRE ET NAVIGABLE : ENTRE CONCURRENCE ET SPÉCIALISATION INTERMODALE. La comparaison entre l'évolution des trafics fluvio-ferroviaires implique de prendre en compte préalablement deux facteurs : d'une part, l'essor du réseau ferré, et d'autre part, les conventions de 1883 qui encadrèrent ce développement et modifièrent quelque peu le rapport entre l'État et lesdites compagnies de chemins de fer. A. Développement du réseau ferré et convention de 1883 : les fondements d'une domination paradoxale. 1. La convention de 1883 ou le renforcement des relations entre l'État et les compagnies de chemin de fer. Le réseau ferroviaire avait connu de son côté un essor certain, entre 1897 et 1906, grâce à la construction des lignes secondaires, cette phase avait connu un ralentissement en 1884-1885 et 1895-1896628. Les investissements jusqu'en 1913 avaient été réalisés surtout pour les lignes et équipements déjà existants, ces dépenses ayant contribué à favoriser la 627 AN (site Pierrefitte-sur-Seine), C5532, Lettre de M. Villemin, président du Comité des Houillères du Nord et du Pas-de-Calais, 9 août 1889 ; Commission des députés chargés d'examiner le projet de loi Guyot. Séance du 13 février 1891. Déclaration de M. Villemin. 628 François Caron, Histoire des chemins de fer, op. cit., pp. 495-499. 183 concurrence rail-eau. Il faut remarquer que la construction des voies ferrées secondaires n'inquiétait pas directement la marine fluviale, car celle-ci utilisait des axes parallèles aux lignes ferroviaires principales ouvertes au trafic antérieurement à 1870. Six conventions ont été signées le 26 mai 1883 avec le PLM, le 5 juin avec le Nord, le 9 juin avec le Midi, le 11 juin avec l'Est, le 28 juin avec le Paris Orléans et enfin le 17 juillet avec l'Ouest. On avait accordé la priorité à l'extension du réseau. Les compagnies avaient consenti à concéder 8 360 km à construire et 2 823 km déjà en exploitation. Les compagnies prenaient à leur charge la construction. Le service spécial, créé par le ministère des travaux publics à cet effet, avait été ainsi supprimé. Elles assuraient, par ailleurs, le financement des travaux, pour 25 000 francs par kilomètres, en plus du matériel. La prévision de dépense se révéla toutefois supérieure à 200 000 francs, c'était donc l'État qui devait assurer la majeure partie de la dépense. La participation des compagnies variait, la compagnie du Nord consentait à une dépense de 100 000 francs, la dépense globale ayant été estimée à 140 000 francs. Le PO prit à sa charge 40 millions de francs sur la ligne Montauban-Limoges. Les compagnies finançaient cependant l'ensemble des travaux dans l'immédiat. L'État devait les rembourser en versant des annuités couvrant les intérêts et l'amortissement des emprunts réalisés par elles. Les travaux incombant à l'État étaient payés grâce à un prélèvement sur la créance qu'il conservait vis-à-vis des réseaux de l'Ouest, du PO, de l'Est et du Midi du fait des versements qu'il leur avait été consenti à titre de garantie. Les conventions ne l'exonéraient cependant pas pour autant des dépenses de construction. Elles l'autorisaient à recourir au crédit des compagnies afin de poursuivre la réalisation du programme Freycinet. Les conventions permirent ainsi d'abroger le budget extraordinaire, cette suppression ne fut toutefois effective qu'à partir de 1891. Le système de garantie a été généralisé à l'ensemble des lignes. On avait supprimé toute distinction entre l'ancien et le nouveau réseau. Les lignes, prises en charge à des titres divers par les compagnies et n'appartenant ni à l'un, ni à l'autre, avaient été intégrées à l'ensemble, ce qui était primordial pour les compagnies. Le réseau du Nord exploitait effectivement 1 088 km de lignes, en décembre 1882, qui étaient exclues des comptes de garantie et de partage. Elles avaient entraîné une perte de plus de 6 millions de francs et de nouvelles lignes des réseaux du Nord-Est et de Picardie-Flandres devaient s'y ajouter. Les comptes de l'ancien et du nouveau réseau se rapprochaient de la limite du partage. Le montant des dividendes a été déterminé, étant « réservé » sur les recettes de ce réseau unique et ayant été fixé par référence à ceux qui avaient été distribués dans les périodes 184 précédentes, toute limite étant abrogée pour les travaux complémentaires portés au compte d'établissement alors que les insuffisances des lignes concédées par les conventions pouvaient être affectées à ce compte. Par-delà un certain niveau, nettement plus faible que celui fixé par les conventions précédentes, l'État recevait deux tiers des bénéfices et les compagnies un tiers 629 . Celui-ci ne pouvait intervenir que quinze ans après le démarrage effectif de l'exploitation de l'ensemble des lignes. Le réseau d'État n'obtenait néanmoins aucun accès vers Paris et s'avérait par conséquent exclu du Syndicat de Ceinture. On peut estimer que la tutelle de l'État se renforça globalement. Le Comité d'exploitation technique, fondé en 1864, avait été élargi en 1882, et son rôle accentué en ce qui concernait les accidents et la sécurité. On réorganisa le contrôle financier. Les commissions de vérification des comptes par réseaux mises sur pied dans les années 1860, furent substituées, en mars 1883, par une commission unique composée de deux conseillers d'État, quatre représentants du ministère des Finances, trois de celui des Travaux publics, des inspecteurs généraux des finances chargés du contrôle des comptes des compagnies et des inspecteurs des Ponts et Chaussées. Le contrôle exercé par cette commission était d'abord a posteriori, mais un décret du 7 juin 1884 avait instauré, des commissaires généraux, sous l'autorité du ministère des Travaux publics, ayant pour vocation de surveiller les actes de gestion financière. 2. La lutte acharnée de la voie d'eau et des chemins de fer. L'extension du réseau ferroviaire combinée à la modernisation du réseau navigable ne pouvaient qu'intensifier la concurrence entre les deux modes de transport. Le trafic des voies navigables paraissaient ne devoir sa survie qu'à l'aide du niveau bas des frets qui avaient été rendus possibles grâce aux subventions de l'État. Celui-ci ne lui faisait plus payer ni l'amortissement, ni même la totalité de l'entretien du réseau 630 . Dans ces conditions, il semblait plausible que la réduction sur le long terme des tarifs moyens de la tonne kilométrique des voies ferrées allait s'avérer fatale au développement des voies navigables. Les événements prirent toutefois une tournure très différente. Les mesures adoptées au bénéfice de la navigation intérieure participèrent dans les faits de mettre celle-ci en mesure de proposer des tarifs moins onéreux que ceux des voies ferrées et, par voie de conséquence, de contribuer, au développement global des transports et de l'économie. En dépit de la 629 François Caron, Histoire des chemins de fer en France, op. cit., p.497. Même si comme on a pu le voir dans le premier chapitre, ce mouvement a été très progressif. En fait, il s'est opéré sous la pression des partisans de la navigation intérieure, et au moment où l'essor des chemins de fer était suffisamment solide, pour ne pas craindre une menace de la concurrence. Il s'agissait plutôt d'une mesure compensatoire. 630 185 dépression économique, le tonnage kilométrique des voies navigables progressa de 3%, en 1883 et 1885, tandis que celui des chemins de fer, sur la même période, recula de 13%, et celui du tonnage transporté de 10%631. Toutefois, sur le réseau du Nord, le plus concurrentiel, la baisse se révéla plus significative, avec un recul général de 19%, et de 20% pour les combustibles minéraux. L'influence combinée de la dépression et de la concurrence de la voie d'eau semblait manifeste632. Les adversaires de la batellerie attribuaient les rapides progrès du tonnage des voies navigables à un simple détournement du trafic dont aurait été victime les chemins de fer concurrents. Ils appuyaient leur argumentation sur le fait que le tonnage des voies ferrées n'avaient progressé que très laborieusement au cours de la période du développement du réseau de la navigation intérieure. Les années 1884 et 1889 durant lesquelles furent exécutées sur les voies navigables les travaux prévus par le plan Freycinet, correspondirent effectivement à une période de dépression pour les voies ferrées. Cependant, les intérêts ferristes ne s'étaient pas privés auparavant de décrire le déclin des voies fluviales comme naturel, en théorie, les parts prises par ces dernières au détriment des chemins de fer n'auraient pas dû tant choquer, et cela, au nom du principe libéral de la libre concurrence. Certes, les pourfendeurs de la navigation intérieure pouvaient dénoncer le fait que le plan Freycinet avait perturbé un processus naturel, ce dont elles ne se privèrent d'ailleurs pas. C'est pourquoi ils s'attelèrent à réclamer le retour des péages sur la navigation. Or, le lien de causalité quant à la stagnation du trafic des chemins de fer, qui aurait résulté de la simple concurrence des voies navigables n'était pas si évident. En effet, le trafic des grandes lignes avait reculé à un rythme assez proche sur les voies subissant directement la concurrence de la batellerie et sur celles qui en étaient préservée, soit respectivement une baisse de 8,6% et 7,5%633. Pourtant, on pouvait tout autant incriminer les lignes secondaires, dans la mesure où elles réalisaient des jonctions nouvelles et des limitations de parcours entre les voies existantes. Et force était de constater qu'entre 1883 et 1885, les lignes d'un tonnage moyen634 connurent un essor considérable de 49% 635 . Au fond, sur le long terme, le trafic des principales lignes de chemins de fer en concurrence avec les plus importantes artères navigables n'avait pas vraiment été restreint. 631 De Préaudeau, « La crise des transports de 1883-1885 » in Association française pour l'avancement des Sciences, 18e session, II, 1889, pp. 923-940. 632 Dominique Renouard, Les transports de marchandises par fer, route et eau depuis 1850, Paris, 1960, p.63. 633 Pour un tonnage moyen de 100 000 t. 634 En dessous de 100 000 t. 635 De Préaudeau, « Répartition des transports entre les chemins de fer et les voies navigables 1885-1887 », in Association française pour l'avancement des Sciences, 20e session, II, 1891, pp.888-901. 186 Graphique 10. Répartition intermodale du trafic des combustibles minéraux consommés dans la région parisienne 1883-1900. 100% 90% 80% 70% 60% 50% 40% 30% 20% 10% 0% Houilles transportées par la voie fluviale Houilles transportées par les chemins de fer Source : Ministère des Travaux publics. Direction des routes, de la navigation et des mines. Division de la navigation. Statistique de la navigation intérieure. Année 1883-1900. Un autre élément entrait en ligne de compte. L'essor des chemins de fer sous la Monarchie de Juillet et le Second Empire était le résultat des bouleversements structurels de l'économie française. La demande de transport semblait telle que les crises de 1847, 1857 et 1865 n'influencèrent guère l'activité du rail. Cependant, vers 1875, la reconversion de l'économie s'achevait et en 1880, elle pouvait être considérée comme quasiment accomplie, la France apparaissait en la matière relativement bien équipée 636 . Le réseau français comportait au 31 décembre 1881 24 900 km de voies, ce qui correspondait peu ou prou au niveau actuel grande desserte. Les centres industriels se trouvaient désormais relativement 636 Dominique Barjot, La grande entreprise française de travaux publics (1883-1974), Paris, Economica, 2006, 944p. 187 bien desservis par les chemins de fer, avec des rendements financiers de l'ordre de 5%637. En ce sens, l'utilité d'un plan massif de travaux d'infrastructures en faveur des chemins de fer n'était pas si évidente sur le long terme638. Les voies ferrées avaient peut-être été construites trop rapidement sous le Second Empire, si bien que les gouvernements ne bénéficiaient plus guère de marge d'ajustement pour mener une politique de soutien de l'activité industrielle grâce aux travaux publics qui soit pertinente. L'industrie batelière profita néanmoins de la jurisprudence du Comité consultatif qui eut après 1883, pour objectif de garantir le respect d'une stricte égalité entre les expéditeurs et les situations acquises, mais également, de défendre les petits expéditeurs. Le Comité consultatif considéra vers la fin des années 1880, qu'un tarif susceptible de concurrencer la navigation n'allait être homologué que s'il excédait de 20% le fret correspondant. Cette mesure touchait plus particulièrement les matières pondéreuses qui constituaient l'aliment essentiel de la navigation intérieure. La profonde mutation de la batellerie depuis le Second Empire et accentuée par le plan Freycinet a consisté en la spécialisation de celle-ci notamment dans le convoiement de combustibles minéraux639. Quel a été donc l'impact sur le trafic fluvial à Paris des profonds bouleversements induits par l'application du programme Freycinet ? C'est ce qui va être, à présent, envisagé. La simple quantification de l'activité du port de Paris ne s'avère pas une tâche si aisée en raison des sources et de la définition même du cadre d'études. B. Le renouvellement de la question intermodalité sous l'influence du plan Freycinet. 1. La Basse-Seine : voie sous-employée ou voie royale pour la pénétration des marchandises importées ? Les difficultés économiques que connaissait la France réactivèrent la concurrence entre les voies ferrées et les voies navigables640. En fait, elles représentaient davantage une opportunité pour critiquer la politique qui avait été conduite depuis 1879. Ainsi, le directeur de la très libérale revue l'Économiste Français Paul Leroy-Beaulieu dénonça la charge que 637 Dominique Renouard, Les transports de marchandises, op. cit., p.64. David Le Bris, « Les grands travaux du plan Freycinet : de la subvention à la dépression ? », in Entreprise et histoire, avril 2012, n°69, pp.19-26. 639 « Procès-verbal de l'assemblée générale de la Chambre Syndicale de la Marine réunie le 19 avril 1886 », in Journal des transports, 17 juillet 1886, p.320. 640 Michèle Merger, « La politique de la IIIe République », op. cit., p.103. 638 188 représentaient les travaux publics 641 . Selon lui, il aurait été préférable de contracter des accords avec les compagnies de chemins de fer dans le sens d'un abaissement des prix du transport et de créer un mode de transport accéléré intermédiaire entre la petite vitesse et la grande vitesse. Cette solution aurait été plus efficace que de se lancer dans une politique de travaux publics qu'il jugeait ruineuse, car elle revenait à construire des canaux inutiles, des voies de chemins de fer secondaires qui l'étaient tout autant et des ports maritimes de seconde catégorie dont les perspectives étaient forcément limitées. La voie était ainsi ouverte pour les compagnies de chemins de fer afin de riposter contre la politique favorable à la batellerie. Leroy-Baulieu formulait le fameux argument de la « tonne en plus642 » qui allait être défendu par les ferristes par la suite, à savoir l'inutilité de développer des infrastructures navigables, les chemins de fer pouvant transporter l'ensemble des marchandises à moindre frais. Critiquée en raison de leurs politiques tarifaires pour leur caractère arbitraire et sa complexité, les compagnies répliquèrent en mettant en cause le bienfondé de la modernisation des voies navigables. Leurs accusations gravitaient essentiellement autour de deux thèmes : en premier lieu, la concurrence des voies navigables n'aurait eu pour résultat que de contribuer à la détérioration de leurs recettes et à la hausse de la garantie d'intérêt. En second lieu, elles incriminèrent le régime de faveur dont bénéficiait la batellerie depuis la suppression des droits de navigation par la loi du 19 février 1880643. En outre, elles jouèrent la carte du régionalisme contre le centralisme parisien, et dénoncèrent « l'injustice » que représentaient, selon elles, la dépense annuelle de 15 millions de francs au seul profit du Nord et de la Meurthe-et-Moselle, et cela au détriment de régions moins industrialisées et moins bien dotées en voies navigables C'est-à-dire bien entendu, des régions susceptibles d'être desservies par les chemins de fer et bénéficier d'investissement en matière d'infrastructures ferroviaires. L'un de leurs chevaux de bataille consista à réclamer à cor et à cri le rétablissement des droits de navigation644, mesure censée palier cette « injustice régionale ». Dans le même temps, cette argumentation globalement s'inscrivait en contradiction avec l'avis partagé des contemporains - et parfois il pouvait s'agir des mêmes personnes - d'une excessive dispersion 641 Paul Leroy Beaulieu, « La baisse des prix et la crise commerciale », in Revue des deux Mondes, 15 mai 1886. Ferdinand Arnodin, La lutte économique des transports, Paris, Librairie des sciences politiques et sociales Marcel Rivière, 1909, p.18. 643 Voir notamment Léon Leygue, Chemins de fer : notions générales et économiques, Paris, Librairie polytechnique, Baudry et Cie, libraires-éditeurs, 1892, pp. 644 « Extrait du discours prononcé par M. Noblemaire, directeur de la Compagnie PLM devant la commission des Transports de l'Alliance Syndicale pour la défense des intérêts généraux du Commerce et de l'Industrie », in Journal des transports, 31 mai 1889. 642 189 des travaux envisagés et effectués dans le cadre du plan Freycinet645. En effet, une politique rationnelle aurait supposé de favoriser les ouvrages prioritaires, les plus utiles, ce qui revenait à privilégier les régions industrielles déjà pourvues de canaux et nécessitant de desservir et accroître les trafics existant et potentiels, et donc les régions du nord et du nord-est de la France. Il n'en demeurait pas moins que les compagnies de chemins de fer trouvèrent un appui auprès des milieux protectionnistes et agricoles regroupés, entre autres, au sein de la Société des agriculteurs de France qui exprima ses inquiétudes sur la situation de l'agriculture française, lors de son assemblée général à Paris en février 1888. Les détracteurs du plan Freycinet dénoncèrent notamment la progression du trafic de certaines voies navigables qui semblaient avoir favorisé les importations de produits étrangers. Les cultivateurs français de Normandie ou de la Beauce payaient le transport vers la capitale 6 ou 7 francs la tonne, voire plus, alors que les blés en provenance d'Amérique du Nord débarqués à Rouen remontaient à Paris pour seulement 3 ou 4 francs la tonne646. L'action des compagnies ferroviaires et des milieux agricoles aboutit au dépôt d'un amendement au projet de loi des finances de l'exercice 1888647. Une des plus graves allégations contre les voies navigables formulées était d'avoir encouragé les importations, notamment de charbons et de denrées agricoles, et cela aux dépens de la production française. Cette détérioration du secteur agricole national les conduisit à dénoncer la suppression des droits sur la navigation décidée en 1880. Ainsi, devant le congrès des agriculteurs de France, M. Noblemaire, directeur du PLM s'écriait : « Dans ces conditions, la navigation intérieure est l'instrument par excellence de la pénétration des produits étrangers dans notre pays 648 ». Celui-ci constitua un des plus redoutables adversaires de la batellerie. Tout au long de la période, il engagea une lutte de longue haleine contre les voies navigables, son arme favorite consistant à préconiser le retour aux droits sur la navigation. Cependant, l'amendement Versigny ne fut finalement pas adopté lors de la séance du 8 décembre 1888. En effet, les chambres de commerce avaient exprimé leur hostilité à ce projet 649 et le Syndicat de la Marine sut faire prévaloir l'utilité de la 645 « Rapport de M. Lecherbonnier, rapporteur du budget du Ministère des Travaux publics », in Journal Officiel, 12 mai 1881. 646 F. Berthauld, La concurrence étrangère (L'amendement Versigny), Montdidier, Imprimerie HourdequinDescaux, 1888, p.16. 647 Il s'agissait de quatre députés de la Haute-Saône :Versigny, Marquisery, Levrey et Mercier. 648 « Extrait du discours prononcé par M. Noblemaire, op. cit. 649 « Rapport de Félix Faure au nom de la Commission du Budget », in Journal Officiel, année 2038, séance du 25 octobre 1887. 190 navigation dans son rôle de modérateur des prix650. En tant que rapport du budget des travaux publics, Félix Faure montra à plusieurs reprises les bienfaits des voies navigables sur l'économie générale. Au fond, deux logiques s'affrontaient, correspondant à des intérêts apparemment divergents : les uns prétendaient défendre les producteurs, tandis que les autres affirmaient défendre les consommateurs, qu'il s'agisse de la population (surtout urbaine) que des industries de transformation. Cet échec ne le découragea pas pour autant les milieux ferristes dans leur action subversive. Le directeur du PLM présenta encore un nouveau plan d'action le 25 avril 1898 devant le banquet annuel de la Société d'Économie politique à Lyon651. S'il exprima son hostilité aux rivières et canaux en tant que voies navigables, il se montra « étrangement » favorable aux canaux d'irrigation, et accusait justement les aménagements effectués sur le Rhône d'avoir privé l'agriculture de précieuses quantités d'eau. En réalité, il s'agissait bien sûr de rallier les milieux agricoles à sa cause et d'empêcher notamment la construction du canal du Rhône. La navigation intérieure paraissait contribuer à atténuer les effets de la crise en atténuant le prix du transport et par voie de conséquence, des marchandises, notamment grâce à l'importation de produits étrangers, voire coloniaux dans le cas des vins algériens. C'est une représentation assez traditionnelle. Qu'en est-il réellement du rôle de la batellerie ? A-t-elle vraiment favorisé les importations ou bien la production française ? Il semble qu'une analyse chronologique fine des statistiques aboutit à une image plus complexe et contrastée des choses, et qu'elle justifie clairement de distinguer deux périodes, avant et après le tournant du XXe siècle 652 , à la fois parce que la présentation même des statistiques se modifie radicalement, mais aussi parce que l'on observe une inflexion conjoncturelle du trafic et des modifications structurelles. Les aménagements de la Basse-Seine qui représentaient une des plus grandes réussites du plan Freycinet sur le plan technique n'en constituaient pas moins un enjeu économique et idéologique majeur entre les tenants du protectionnisme et du libreéchangisme, de la batellerie et des chemins de fer, d'une politique volontariste ou « libérale653 » 650 Chambre Syndicale de la Marine. Navigation intérieure : Protestation contre l'amendement Versigny tendant à l'établissement d'un droit de circulation sur les voies navigables, 1888, p.5. 651 Jean-Charles Roux, « Voies navigables et voies ferrées », in Revue Politique et Parlementaire, novembre 1898, pp.583-585. 652 Bien entendu, on ne doit pas considérer de façon hermétique la chronologie, mais au contraire en envisager toutes les porosités. Et l'on ne doit pas non plus perdre de vue la continuité sur le long terme du trafic global. 653 Ou tout au moins, non interventionniste. 191 Graphique 11. Transports des combustibles minéraux acheminés vers la région parisienne par origine et par mode 1883-1900. 2 500 000 Combustibles français transportés par la voie fluviale Tonnages 2 000 000 Combustibles français transportés par les chemins de fer 1 500 000 Combustibles étrangers transportés par la voie fluviale 1 000 000 Combustibles étrangers transportés par les chemins de fer 500 000 0 1883 1885 1887 1890 1892 1894 1896 1898 1900 Source : Ministère des Travaux publics. Direction des routes, de la navigation et des mines. Division de la navigation. Statistique de la navigation intérieure. Années 1883-1900. Si les aménagements sur la Basse-Seine 654 ont sensiblement amélioré la navigation entre Paris et Rouen, en portant le tirant d'eau à 3,20 m, la progression du trafic sur la 8e section jusqu'au début du XXe siècle était certes, sensible, mais peut-être pas encore aussi considérable qu'on aurait pu le croire sur cette période à savoir 117%, avec un trafic passant 654 La problématique intermodale se situait au coeur même de la modernisation des voies navigables. Elle concernait plus spécifiquement les liaisons dites de Paris à la Belgique et la basse Seine, car il s'agit des deux voies possibles de pénétration, mais également de la production française de charbon pour ce qui est de la liaison avec la région du Nord. La basse Seine est une appellation regroupant en fait plusieurs réalités. D'une part, elle désignait la navigation sur la Seine entre Paris et Rouen, voire le Havre, mais depuis le Second Empire, elle a été peu à peu décomposée pour aboutir dans les années 1880 aux 6 e, 7e et 8e sections, voire parfois 9e section (entre Rouen et le Havre). La 6e section désignait le trafic aval immédiat de Paris jusqu'à la Briche, au niveau d'Épinay et Saint-Denis, à savoir la confluence entre le canal Saint-Denis et la Seine, la 7e section s'étendait à cette époque entre Épinay et Conflans-Sainte-Honorine, c'est-à-dire qu'elle correspondait à la confluence entre le trafic de Seine maritime, et les canaux du Nord. La 8e section recouvrait de la façon plus spécifique le trafic entre Conflans et Rouen, une 9e section étant parfois employée (mais pas systématiquement) pour désigner la navigation entre Rouen et le Havre (notamment le canal de Tancarville). Or, au cours des deux dernières décennies du XIXe siècle, ces deux portions de la Seine ne connurent pas nécessairement des évolutions parallèles. Plus précisément, la mesure des importations de combustibles minéraux et denrées alimentaires ne peut véritablement s'effectuer qu'en considérant la 8e section. 192 de 947 644 tonnes en 1882 à 2 millions de tonnes en 1900. Cela paraissait beaucoup, mais c'était finalement peu, si l'on considérait le trafic de l'Oise avec respectivement 2,2 et 3, 6 millions tonnes pour les mêmes années, alors que les investissements consentis, et tout simplement le potentiel n'étaient pourtant pas comparables. Des facteurs techniques pouvaient expliquer cette relative modestie, car si depuis 1885, le fleuve disposait d'une profondeur minimale de 3,20 m sur les 244 km séparant Paris et Rouen, et le rendait théoriquement accessible à tous les bateaux, demeurait la question de l'exiguïté des arches marinières de divers ouvrages d'art qui restreignait notablement le port des chalands et des bateaux porteurs655. Graphique 12. Trafic dans la 8e section de la Seine 1882-1900. Tonnages 2 500 000 2 000 000 1 500 000 1 000 000 500 000 1882 1883 1884 1885 1886 1887 1888 1889 1890 1891 1892 1893 1894 1895 1896 1897 1898 1899 1900 0 Source : Ministère des Travaux publics. Direction des routes, de la navigation et des mines. Division de la navigation. Statistique de la navigation intérieure. Année 1883-1900. Le trafic des combustibles minéraux a certes progressé de 157%, mais en tonnages absolus, les quantités demeuraient modestes, le trafic étant passé de 133 827 à 344 109 tonnes entre en 1883 et 1900. Une précision surprenante doit être formulée, à savoir que le trafic de descente sur cette section, en matière de combustibles minéraux s'est maintenu à un niveau relativement élevé, comme le montre le graphique ci-dessous : 655 L. Sekutowicz, La Seine maritime, étude sur l'importance économique du port de Rouen, Paris, publications du journal "Le Génie civil", 1903,142 p.80. Ce n'est qu'au début du XX e siècle que ces défauts allaient être remédiés, tout au moins en partie, et par là, provoquer une véritable explosion du trafic dans cette section. Voir dernier chapitre de notre thèse. 193 Graphique 13. Remonte et descente dans la 8e section de la Seine 1883-1900. 100% Tonnages 80% 60% Remonte 40% Descente 20% 0% Source : Ministère des Travaux publics. Direction des routes, de la navigation et des mines. Division de la navigation. Statistique de la navigation intérieure. Années 1883-1900. Le trafic de descente tendit plutôt à croître jusqu'en 1898, jusqu'à 67,6% en 1889. Il ne déclina que dans la première décennie du siècle suivant. C'est peut-être le constat le plus étonnant, car cela signifierait que cette section, et plus singulièrement Rouen, se fournissait elle-même en partie de charbons venus du nord de la France (belges ou français). Si l'on considère cette seule section, le mythe d'une voie de pénétration des charbons étrangers s'écroule en partie, tout au moins, et c'est important de le souligner, jusqu'à la fin du XIXe siècle. Et si l'on compare avec l'activité de l'Oise au cours de la même période, il apparaît que les transports de charbons sur cette ligne étaient bien plus considérables, non seulement en proportion, mais également en tonnages absolus, comme tend à le prouver le graphique suivant : Graphique 14. Trafic des combustibles minéraux sur la Basse-Seine, sur l'Oise et dans la traversée de Paris 1883-1900. 3 000 000 Tonnages 2 500 000 2 000 000 1 500 000 1 000 000 500 000 0 Combustibles minéraux dans la 8e section de la Seine Combustibles minéraux sur l'Oise de Janville à la Seine Trafic des combustibles minéraux à Paris 194 Source : Ministère des Travaux publics. Direction des routes, de la navigation et des mines. Division de la navigation. Statistique de la navigation intérieure. Années 1883-1900. La proportion des combustibles minéraux par rapport au trafic total sur cette voie a progressé, en passant de 57% en 1883 à 68,5% en 1900. Leur volume a progressé de 91% contre 61% pour le trafic global, soit de 1,3 millions à 2,5 millions de tonnes sur la même période. Il ressort que les efforts ont été réels pour transporter davantage de charbons sur cette ligne, et qu'au pire, ce ne sont guère les charbons anglais qui auraient été favorisés, mais les charbons belges, même si ces derniers semblaient marquer le pas par rapport à la production des mines françaises, notamment celles du Pas-de-Calais 656 . Cela reflétait également les progrès de la production des charbonnages du nord du pays. La prise en compte de la structure par origine des charbons dans la 7e section semblait corroborer ce constat : Graphique 15. Répartition des houilles dans la 7e section de la Seine au cours de la période 1887-1899. 100% 90% 80% 70% 60% 50% 40% 30% 20% 10% 0% Houilles allemandes Houilles anglaises Houilles belges Houilles françaises Source : Ministère des Travaux publics. Direction des routes, de la navigation et des mines. Division de la navigation. Statistique de la navigation intérieure. Années 1887-1900. Il apparaît que les charbons français dominaient sur cette portion de la navigation de la Seine, et plus encore que les charbons en provenance des voies navigables du nord étaient prépondérants, qu'ils fussent français ou belges. La part des charbons français est passée de 68% à 71%, tandis que celle des charbons belges est tombée de 32 % à près de 20% vers la fin du siècle. Il fallait moins percevoir une montée des charbons étrangers qu'un déclin des charbons en provenance de Belgique au profit de ceux de Grande-Bretagne, encore que leur proportion demeurât encore assez restreinte, soit 8,3% en 1899. 656 Marcel Gillet, Les Charbonnages du Nord de la France au XIX e siècle, Paris, Mouton, 1973, pp.81-84. 195 2. La Seine, une voie de pénétration pour les produits d'importation de produits agricoles. Le trafic des denrées alimentaires a fortement progressé durant les deux dernières décennies du XIXe siècle. En effet, il a connu une hausse de 174% entre 1883 et 1900657. Cependant, en termes de volume, il demeurait à un niveau relativement modeste par rapport au trafic global, oscillant entre un minimum de 8% et un maximum de 17% en 1891. Il connut d'ailleurs un certain déclin vers la fin du siècle. L'unique mesure du trafic global ne permet pas d'évaluer la part des denrées alimentaires d'importation, car les statistiques fournies par le ministère des Travaux publics ne les mesurent pas formellement, il faut les déduire à partir d'une comparaison entre les trafics de remonte et de descente. On peut raisonnablement supposer que le premier se composait principalement des marchandises en provenance de la Basse-Seine et donc des ports normands A contrario, selon le même raisonnement, les seconds devaient concerner essentiellement la production française658. À ce titre, force était de constater que le trafic de remonte excédait sensiblement celui de la descente, jusqu'à 78% en 1886, c'est-à-dire au pire moment de la crise que connaissait l'agriculture, et avec une quasi parité en 1895, soit 55%659. La courbe du trafic des denrées alimentaires était assez chaotique, ce qui tenait au caractère très spéculatif de ce marché, extrêmement dépendant des conditions naturelles en France et à l'étranger. Il faut noter que le trafic de la descente, bien que plus modeste, n'en a pas moins crû fortement, soit une hausse de 97% entre 1883 et 1900. À dire vrai, la courbe du trafic de remonte correspondait à peu près à celle du trafic global, ce qui montrait sa suprématie. On peut distinguer trois phases, une première de hausse importante de 131% entre 1883 et 1891, où il frôla le million de tonnes660. Ensuite, il connut une phase descendante de 38% entre 1892 et 1895661. Il s'est repris ensuite entre 1896 et 1897662. Les statistiques du département de la Seine montrent une prépondérance des alcools et des céréales en provenance de la Basse-Seine 663 . Le constat semblait plus marquant pour les alcools. En effet, ceux en provenance de Basse-Seine (entre le Havre et Paris) représentaient 657 En passant de 391 286 t à 679 653 t. Encore qu'il pouvait s'agir de denrées transformées et réexportées, c'est-à-dire une production française à partir de produits français ou étrangers. 659 Ministère des Travaux publics, Statistiques de la navigation intérieure. 660 Passant de 391 286 t à 903 121 t. 661 Tombant à 556 102 t. 662 Cette reprise pouvait s'expliquer par des récoltes médiocres en France. Voir Clément Colson, « Questions de transport », in Revue Politique et Parlementaire, 1898. 663 Annuaires statistiques de la Ville de Paris, années 1891-1900. . 658 196 entre 87 et 91% sur la période étudiée. Cette prééminence s'expliquait par la crise que connaissait la production de vin française, mais également par la guerre de tarifs que menaient les compagnies de chemins de fer afin de s'approprier la production nationale664. Sur ce point, il semble manifeste que les aménagements de la Seine ont favorisé les importations, et cela, en dépit des mesures protectionnistes665. L'ampleur de ce trafic tend à montrer encore une fois que la période était moins protectionniste que ce que l'on imagine souvent. La progression des importations semblaient résulter des difficultés, structurelles ou conjoncturelles, de la production agricole française. L'agglomération parisienne était un centre majeur de consommation, et de transformation des produits agricoles, l'important pour les édiles parisiens résidait surtout dans la régularité des approvisionnements et la modération des prix. La navigation fluviale jouait donc un rôle de régulateur et de compensateur des variations de la production agricole française. Les lieux de débarquement des vins étaient le port SaintBernard qui se situait à proximité de la Halle aux vins, il recevait les huiles, vins et autres alcools 666 , et bien entendu, le port de Bercy, réaménagé à la suite de la construction des entrepôts en 1878. Graphique 16. Trafic circulant des alcools et des céréales circulant dans le département de la Seine en provenance de la Basse-Seine 1891-1900. 450 000 400 000 350 000 Tonnages 300 000 250 000 200 000 150 000 100 000 50 000 Déchargements des céréales en provenance de Basse-Seine Total des déchargements de céréales dans le département de la Seine Déchargements des alcools en provenance de Basse-Seine Total des déchargements des alcools dans le département de la Seine 0 664 Alfred Picard, Les chemins de fer : aperçu historique, résultats généraux de l'ouverture des chemins de fer, concurrence des voies ferrées entre elles et avec la navigation, Paris, H. Dunod et E. Pinat, Éditeurs, 1918, pp.840-841. 665 Paul Bairoch, Commerce extérieur et développement économique de l'Europe au XIX e siècle, Paris, Mouton, 1976, pp.219-238. 666 J. Malatesta, « Les ports de Paris », extrait du Monde moderne, 1900, II, pp.349-363. 197 Source : Annuaires statistiques de la Ville de Paris, années 1891-1900. Cependant, les voies navigables pouvaient également servir les producteurs nationaux dans la mesure où le trafic de sucres et mélasses originaires du Nord dépassaient ceux provenant de la Basse-Seine667. Pour cette catégorie de marchandises, les flux s'effectuaient majoritairement, sauf accidents conjoncturels, en 1898 et 1910, entre le Nord de la France et la région parisienne. Le problème résidait donc moins dans le choix du mode de transport que dans le dynamisme intrinsèque de la production industrielle ou agricole considérée. D'ailleurs, la critique des ferristes et des milieux agricoles était réversible : les voies navigables en étaient parfois réduites à favoriser les importations de denrées alimentaires parce que les compagnies de chemins de fer s'étaient lancées dans une politique tarifaire extrêmement agressive qui obligeait à chercher d'autres débouchés. En ce sens, la batellerie jouait encore son rôle de modératrice des prix et permettait aux agriculteurs de bénéficier de tarifs ferroviaires plus avantageux. Plus largement, si les lobbies agricoles français tempêtaient contre les voies navigables pour avoir favorisé les denrées alimentaires étrangères, c'était précisément ce que cherchaient d'autres acteurs. Tel était le cas, par exemple, l'industrie agro-alimentaire, mais aussi la Ville de Paris qui aspirait à une modération des prix afin de soulager sa population en croissance constante, et de manière « accessoire » cherchait à s'assurer la paix sociale. En dépit des aléas de la production agricole française dans les dernières décennies du XIXe siècle, la minoterie industrielle s'est considérablement développée dans la région parisienne, notamment en bordure des rivières et des canaux, comme l'attestaient les constructions des Grands moulins de Pantin sur le canal de l'Ourcq en 1882 par le meunier de la Brie Abel Stanislas Leblanc et des Grands moulins de Corbeil en 1893668. C'est ainsi que ce minotier de la Brie fit construire en 1882, au seuil de la capitale, entre le canal de l'Ourcq et les voies du chemin de fer de l'Est, un moulin équipé de 24 meules. Au décès du fondateur, en 1883, le fils de ce dernier, Abel Désiré Leblanc a fondé, en collaboration avec le meunier Duval,, la société des Moulins de Pantin et adopta, dès 1884, le procédé de la mouture hongroise669. Ces établissements ont contribué à la modernisation du 667 4 772 t contre 10 909 t en 1891. Simon Texier, « Les grands moulins de Pantin », in Béatrice de Andia et Simon Texier (dir.), Les Canaux de Paris, Paris, Délégation à l'action artistique de la Ville de Paris, 1994, p.159-162. 669 Il s'agit de moulins à cylindres, ce procédé mettait ainsi fin à la mouture par meules. Cette innovation technologique a été mise au point autour de 1870 par le meunier-mécanicien suisse Friedrich Wechman. Le directeur, André Mechwart, de la firme hongroise Ganz et Cie a racheté le brevet en 1874. Cette technique de mouture dite « hongroise » apportait davantage d'efficacité, tant sur le plan de la blancheur de la farine que de la qualité du pain fabriqué. 668 198 secteur agro-alimentaire de la région parisienne, ce qui devait permettre de faire face à l'expansion démographique de cette région. Si la batellerie n'a guère aidé au relèvement du secteur agricole français en pleine période de dépression, elle n'en a pas moins contribué à l'essor du secteur agro-alimentaire qui permit par la suite le redressement de l'agriculture nationale en lui procurant de nouveaux débouchés. Graphique 17. Provenance des déchargements de produits liés à l'industrie sucrière dans le département de la Seine 1891-1911. 250000 Déchargements de sucres, mélasses, etc. en provenance de la Basse-Seine 200000 150000 Déchargements de sucres, mélasses, etc. en provenance de l'Oise, canaux du Nord 100000 Total des déchargements de sucres, mélasses, etc. 50000 1891 1893 1895 1897 1899 1901 1903 1905 1907 1909 1911 1913 0 Source Annuaire statistique de la Ville de Paris, années 1891-1911. En résumé, sur la Seine, 57 millions de francs ont été dépensés depuis 1878 et 1900 en vue d'obtenir un mouillage régulier de 3,20 m en aval de Paris. L'influence des travaux devint sensible à partir de 1886. Le tonnage-kilométrique de la section entre la confluence de l'Oise et de la Seine et Rouen, la 8e section de la Seine, selon la nomenclature de l'administration des Travaux publics, a effectivement connu un doublement dans les vingt dernières années du siècle, en passant de 135 millions en 1885 à 323 millions en 1900670. À l'inverse, le chemin de fer de Paris à Rouen a enregistré pendant une décennie des difficultés dans son trafic (188 millions de tonnes-kilométriques en 1885 contre 176 millions en 1895). Cependant, au crépuscule de ce siècle, le trafic connut un redressement notable : 220 millions de tonneskilométriques en 1899, et 176 millions en 1900. Il est ainsi permis de penser que les trafics des deux modes de transport avaient prospéré de manière parallèle. Plus encore, les deux trafics paraissent s'être nourris en proposant une offre de transport plus étendue à l'industrie et au commerce. En effet, la batellerie ne transportait pas forcément les mêmes qualités de 670 Ministère des Travaux publics, Statistiques de la navigation intérieure. 199 charbon671. Cela signifiait que si la concurrence transparaissait en termes de fret, la réalité des trafics ne reflétait pas nécessairement cette concurrence symbolique. Si Clément Colson envisageait le rôle psychologique dans les actes économiques, il n'appliquait pas forcément son raisonnement pour la batellerie672. Sur les voies du Nord, les travaux réalisés dans le cadre du plan Freycinet n'avaient pas véritablement affecté le trafic des chemins de fer ; sur la ligne de Paris à Mons, près de 11 millions de francs ont été dépensés entre 1879 et 1896, les trafics de l'Oise et du canal SaintQuentin ont ainsi plus que doublé en deux décennies, tandis que ceux de l'Escaut et du canal latéral à l'Oise ont progressé de moitié. Concernant les lignes concurrentes de Paris à la frontière par Creil et Amiens, Lille et embranchement de Douai, le trafic sur la première a connu une évolution assez comparable : 84 millions de tonnes-kilométriques en 1880 contre 184 millions de tonnes-kilométriques en 1900. Un rapport de 25% pour les voies navigables et 75% pour les voies ferrées s'était établi, les accusations des ferristes relevaient donc plus de la rhétorique que de la réalité. Graphique 18. Extraction et transport par voie fluviale des houilles du nord de la France 1882-1899. 25 000 000 Extraction Tonnages 20 000 000 Tonnages des houilles embarquées dans le service des Voies navigables du Nord et du Pas-de-Calais 15 000 000 10 000 000 Tonnages des houilles embarquées dans le Service de la Navigation entre la Belgique et Paris 5 000 000 Total des houilles transportées par eau 1882 1884 1886 1888 1890 1892 1894 1896 1898 0 Source : Archive des canaux de Paris, boîte Paris-port-de-mer. Canal du Nord. Ministère des Travaux publics. Départements du Nord, du Pas-de-Calais ; de la Somme et de l'Oise, M. La Rivière, M. Bourgeois, Canal du Nord. Avant-projet. Enquête d'utilité publique (titre Ier de la loi du 3 mai 1841). Notice explicative, Lille, le 15 août 1901, annexe 1. 671 J.H. Jevons, The British Coal Trade, Newton Abbot, 1919, p.31. Clément Colson, Transports et tarifs : régime administratif des voies de communications. Conditions techniques et commerciales des transports, Paris, Rothschild, Éditeur, 2e édition 1898, 682p. 672 200 En réalité, les partisans de la voie d'eau ne reconnaissaient qu'une exception, pas forcément la plus attendue, celle de la ligne de Paris à la frontière de l'Est673. Le tonnage kilométrique du canal de la Marne était effectivement passé de 932 millions à 295 millions, celui de la ligne de Paris à Avricourt reculaient de même de 410 à 279 millions. L'action de la concurrence des voies navigables a pu jouer, encore fallait-il prendre en compte la perte des départements de l'Est après leur rattachement forcé à la Prusse en 1871. Par ailleurs, les pertes supposées pour les compagnies de chemins de fer ne l'étaient pas forcément pour l'économie générale. Les deux millions de tonnes kilométriques gagnées par la batellerie représentaient, selon les partisans des canaux, une économie de 40 millions de francs, grâce à un fret de 1,5 centime la tonne contre 3-4 centimes concernant les marchandises pondéreuses. Les adversaires de la batellerie attribuaient les rapides progrès du tonnage des voies navigables à un simple détournement du trafic dont auraient été victimes les compagnies de chemins de fer concurrentes674. Ils appuyaient leur argumentation sur le fait que le tonnage des voies ferrées n'avait progressé que très laborieusement au cours de la période du développement du réseau de la navigation intérieure. Les années 1884 et 1889 durant lesquelles furent exécutées sur les voies navigables les travaux prévus par le plan Freycinet, correspondirent effectivement à une période de dépression pour les voies ferrées. Cependant, ce lien de causalité quant à la stagnation du trafic des chemins de fer à la simple concurrence des voies navigables n'était pas si évident. En effet, le trafic des grandes lignes avait reculé à un rythme assez proche sur les voies subissant directement la concurrence de la batellerie et sur celles qui en étaient préservée, soit respectivement une baisse de 8,6% et 7,5%675. Toutefois, on pouvait tout autant incriminer les lignes secondaires, dans la mesure où elles réalisaient des jonctions nouvelles et des limitations de parcours entre les voies existantes. Et force était de constater qu'entre 1883 et 1885, les lignes d'un tonnage moyen676 connurent un essor considérable de 49%677. Au fond, force était de constater que sur le long terme, le trafic des principales lignes de chemins de fer en concurrence avec les plus importantes artères navigables n'avait pas vraiment été restreint. Du reste, la hausse du trafic d'une voie ne signifiait pas nécessairement une concurrence au détriment de l'autre mode de transport. Dans les régions où un canal ou un chemin de fer avait des composantes de trafic similaires, chacun pouvait posséder son propre 673 Émile Aimont, « L'outillage national », in Revue Politique et Parlementaire, juin 1902, t. XXXI, pp.242-243. Clément Colson, Cours d'économie politique professé à l'École des Ponts et Chaussées, 6 vol., 1901-1907 (2e éd. 1924-1931). 675 Pour un tonnage moyen de 100 000 t. 676 En dessous de 100 000 t. 677 De Préaudeau, « La crise des transports », op. cit., pp.925-940. 674 201 trafic678. Dans ces conditions, si l'une des voies ayant des conditions de trafic favorables, son trafic ne revenait pas de manière inéluctable à l'autre. Il pouvait même disparaître purement et simplement. Ainsi, le trafic enlevé aux voies navigables par l'établissement ne serait donc pas de manière systématique retourné vers la voie ferré679. III. MUTATIONS DU TRAFIC FLUVIAL PARISIEN. A. Structuration du trafic global. 1. Effets des aménagements de la Seine depuis le plan Freycinet sur le port de Paris. Les événements de 1870-1871 portèrent un rude coup sur le trafic qui sombra jusqu'à 55%. Pour la période suivante jusqu'à la première guerre mondiale, l'activité connut ensuite une progression quasi discontinue. De 1872 à 1881, le tonnage des expéditions et des arrivages doubla, passant de 1 073 à 2 281 millions de tonneaux 680 . Ce doublement s'est accompli dans la régularité : de 1872 à 1876, la hausse équivalait à celle du marché parisien, dont l'approvisionnement ne pouvait être exclusivement effectué par les chemins de fer et aux premiers effets positifs des travaux de canalisation de la Seine681. Graphique 19. Mouvement de la navigation dans le département de la Seine 1872-1882. 678 Jules Fleury, « Rôles respectifs des voies navigables et des chemins de fer dans l'industrie des transports en France », in Ve Congrès international de navigation, Paris, 1892, 2 e question, p.3. 679 Beaurin-Gressier, « Navigation intérieure », in Léon Say, Dictionnaire des finances, tome II, Paris-Nancy, Berger-Levrault et Cie éditeur, 1894, p.653. 680 Annuaire statistique de la Ville de Paris et du débarquement de la Seine, année 1881, p. 127. 681 Michèle, « La Seine dans la traversée de Paris et ses canaux annexes : une activité portuaire à l'image d'une capitale (1800-1939) », in Paris et ses réseaux : naissance d'un mode de vie urbain XIX e-XXe siècles, sous la direction de François Caron, Jean Derens, Luc Passion et Philippe Cebron de Lisle, Paris, Bibliothèque historique de la Ville de Paris Hôtel d'Angoulême Lamoigon, p. 364. 202 7 000 000 6 000 000 Tonnages 5 000 000 4 000 000 3 000 000 Débarquements Embarquements 2 000 000 1 000 000 0 Source : AMB, C143-4, Préfecture de Police, Inspection générale de la navigation et des ports, Paris, Imprimeries Municipales, 1891, p.3 ; Annuaires statistiques de la ville de Paris pour les années 1890-1900. La répartition par nature du trafic du port de Paris se caractérisait par une prédominance des arrivages qui représentaient à eux seuls 67%, soit plus des deux tiers du mouvement total. L'écart énorme entre le tonnage des expéditions et des arrivages prouve que le port de Paris était de toute évidence un port de consommation. La navigation fluviale desservait en effet la capitale qui était un centre de consommation de premier ordre abritant de nombreuses industries. La ville et sa banlieue recevaient une quantité considérable de combustibles, de matériaux de construction et autres matières premières, qui étaient utilisés sur place en partie, et en partie transformés en produits de toute nature pour être réexpédiés hors de la région parisienne, en France ou même à l'étranger. Les expéditions se composaient majoritairement de produits fabriqués dont la valeur pour un même poids était supérieure, mais ne représentaient qu'un tonnage relativement faible. 203 Graphique 20. Trafic du port de Paris 1883-1900. 12 000 000 Tonnages 10 000 000 8 000 000 Arrivages 6 000 000 4 000 000 Expéditions Transit Trafic local 2 000 000 0 Source : Ministère des Travaux publics, Direction des routes, de la navigation et des mines. Division de la navigation. Statistique de la navigation intérieure. Nomenclature et conditions de navigabilité des fleuves, rivières et canaux. Relevé du tonnage des marchandises. Année 1883-1900. Les statistiques des ingénieurs de la navigation évaluaient les chargements moyens par ce qu'elle nommait « le degré d'utilisation des bateaux », ce dernier s'éleva en 1887 à 69,5% de la capacité des bateaux, leurs chargements moyens étaient de 155 t pour l'ensemble du mouvement des bateaux chargés, mais en tenant compte dans le calcul les bateaux vides, le rapport tombait à 47%. Le rapport par nature de trafic ne s'élevait qu'à 45% pour les expéditions, les bateaux vides n'entrant pas en ligne de compte, contre 77% pour les arrivages et 66% pour le transit. Cela confirmait la faiblesse du fret de retour, ainsi qu'un degré d'utilisation bien plus favorable pour les débarquements et le transit. Dans le premier cas, il excédait les trois quarts de la capacité des bateaux pour atteindre les deux tiers dans le second cas. Les ingénieurs expliquaient encore la différence entre la capacité et le chargement par la variété des routes empruntées, quelques-unes ne permettaient effectivement pas encore à la batellerie « flamande », il faut entendre par-là les péniches au gabarit Freycinet, prédominant sur la Seine, de circuler partout avec des chargements complets. Le degré d'emploi le plus haut résidait dans le trafic intérieur, s'élevant à 87% de la capacité des bateaux, mais on avait affaire à des transports spéciaux effectués par un matériel construit ad hoc, transportant presque exclusivement des vidanges embarquées à Paris et amenées aux dépotoirs et usines au bord du canal Saint-Denis. Les expéditions comportaient les plus faibles changements, tandis que le transit connaissait les plus importants pour les raisons évoquées plus haut. La moyenne du chargement se montait pour les arrivages à 122 t à 204 la descente et 227 t à la remonte, soit une moyenne de 161 t dans les deux sens. Le contraste marqué entre la descente tenait à la diversité des bateaux provenant de la haute Seine et de ses affluents, où naviguaient de nombreuses embarcations à faible tonnage. La situation était inverse sur la Basse-Seine, où dominaient les péniches à gros gabarit, en fait en majorité des chalands. Les moyennes apparaissaient ainsi beaucoup plus fortes pour les transports empruntant la basse Seine et les voies affluentes remontant vers les ports de la mer du Nord et vers la frontière du Nord-Est, que pour les transports de la haute Seine et des voies du centre. Le parcours moyen atteignait 278 km pour le premier contre 131 km pour le second. L'écart favorable pour les voies du Nord et de l'Est s'avérait, par conséquent, considérable, et ce principalement à cause des conditions propices pour la navigation fluviale au point de vue de la navigabilité et de la profusion du fret. Il s'agissait, entre autres, des combustibles minéraux provenant de la Belgique et surtout des bassins français du Nord, atteignant jusqu'à 377 km pour les arrivages de cette provenance. Ce constat s'appliquait de même aux parcours moyens des transports en transit qui étaient plus longs, mais présentaient des variations analogues à celles des arrivages, le cours moyen d'une tonne transitant étant de 285 km à la descente et de 337 km à la remonte. Les variations seraient encore plus marquées si l'on considérait chaque ligne de navigation ou chaque cours d'eau. On obtenait alors un parcours moyen de 592 km aux arrivages de la Haute-Seine et de 631 km aux expéditions de la même ligne. La moyenne du trajet pour le même transit y atteignait 756 km682. Sur un poids total des embarquements réalisés sur la capitale, tant dans les ports de la Seine que sur ceux des canaux se montant à 1,3 millions de tonnes en 1887, les expéditions atteignaient 740 739 t. Ces expéditions se répartissaient selon les directions de la manière suivante en 1887 : 381 014 t à destination des ports de la basse Seine et de ses affluents, 360888 t vers les ports de haute Seine et de ses affluents et 48 477 t vers les ports de l'Ourcq. Le tonnage le plus important, s'élevant à 159 545t s'effectuait principalement à destination des ports de Poissy, Triel, Meulan, Mantes et Rouen. Il s'agissait majoritairement de transports de produits agricoles, de produits divers, d'engrais, et de bois. Ensuite, venaient les expéditions empruntant l'Oise, les canaux de l'Oise et de Saint-Quentin, et l'Escaut ainsi que la ligne de la Sambre pour gagner les ports du nord de la France et de la Belgique, entre autres ceux de Pontoise, Creil, Chauny, Saint-Quentin, Cambrai, Anzin, Valenciennes, Douai, Lille, Béthune, Saint-Omer, Dunkerque, Maubeuge, Hautmont La ligne de l'Aisne, des Ardennes 682 Mais les ingénieurs de la navigation précisaient que ces moyennes ne s'appliquaient qu'à de faibles tonnages et exerçaient par suite peu d'influence sur le résultat d'ensemble (Ibid. p. 82). 205 venait en dernier avec 18 512 t de produits agricoles et de marchandises diverses. À la remonte, Paris avait expédié un poids total de 360 888 t de marchandises en 1887, transportant majoritairement des matériaux de construction (82 505 t), 68 836 t de produits agricoles, 29 090 t de produits métallurgiques, 41 040 t de produits industriels et divers. La majeure partie de ces expéditions, soit 174 566 t, avait eu pour destination des ports de la haute Seine tels que Choisy-le-Roi, Corbeil, Saint-Mammès, Ponthierry, Melun, Montereau. Pour ce qui était des arrivages, un poids total de marchandises de 3,7 millions de tonnes avaient été débarquées. Parmi les arrivages par la haute Seine, on comptait 905 201 t en provenance des ports en aval de Montereau, consistant en matériaux de construction avec 776 234 t, 51663 t de produits agricoles, 41 110 t de charbon, 32 945 t de bois flottés683. L'analyse du trafic des ports dans la traversée de Paris confirmait le fait que les arrivages l'emportaient sur les expéditions. Les ports les plus importants se localisaient sur les lisières de la capitale, en amont de Paris (ports de Bercy, Râpée, Hôpital) et en aval (Passy, Grenelle684), à l'exception notable du port d'Orsay (254 320 t685). Le port le plus fréquenté était alors le port Saint-Bernard pour ses vins avec 368 165 t, tandis que le port du Champ-deMars était occupé par l'Exposition de 1889. 683 Le déclin du trafic de bois flotté à l'intérieur de Paris a été irrémédiable et rapide. Cependant, il s'est poursuivi aux portes de la capitale jusque vers les années 1910. 684 Le port de Javel demeurait encore relativement modeste avec 95 225 t en 1889, contre 263 931 t pour le port de Grenelle la même année). 685 Il faut noter que les expéditions et arrivages se trouvaient quasiment au même niveau, soit respectivement 125 000 et 129 320 t. 206 Graphique 21. Composition du trafic sur la Seine dans la traversée de Paris en 1898. Flottage (bois flottés de toutes espèces) 3 573 Divers 186 669 Produits agricoles et denrées alimentaires 1 024 829 Produits industriels 441 891 Industries métallurgiques 451 954 Machines 3 307 Bois à brûler et bois de service 397 719 Engrais et amendements 1 035 288 Matériaux de construction 3 918 234 Combustibles minéraux 1 701 361 0 1 000 000 2 000 000 3 000 000 4 000 000 Tonnages Source : Ministère des Travaux publics, Direction des routes, de la navigation et des mines. Division de la navigation. Statistique de la navigation intérieure. Nomenclature et conditions de navigabilité des fleuves, rivières et canaux. Relevé du tonnage des marchandises. Année 1898, Paris, Imprimerie Nationale, 1898, vol. 2, pp.42-43. Graphique 22. Arrivages et expéditions sur les ports dans la traversée de Paris en 1889 (en tonnes). 300 000 250 000 200 000 150 000 100 000 50 000 Expéditions Gare Bercy Hôpital (Austerlitz) Râpée Saint-Bernard Henri IV Tournelle Saint-Paul (Célestins) Hôtel-de-Ville Orfèvres Saints-Pères Saint-Nicolas Idem Port d'Orsay Recuillage Invalides Esplanade Gros-Caillou Debilly Passy Ile des Cygnes Champ-de-Mars Cunette Galiotte (Auteuil) Grenelle Javel 0 Arrivages Source : Auguste Pawlowski, Les ports de Paris, avec 27 vues photographiques, Paris, Berger-le-Vrault, 1910, p.70, d'après un document communiqué par M. Guillemin, inspecteur général de la Navigation. 207 2. Le trafic en amont de Paris : un courant de trafic déséquilibré et pourtant majeur. La position géographique, à mi-chemin entre sa source et son débouché sur la mer, ainsi que sa situation au carrefour des grands affluents686 a fait de Paris et sa banlieue le coeur névralgique de la navigation fluviale séquanienne, c'est-à-dire le point d'arrivée obligé. Le fait s'avère d'autant plus remarquable que la grande navigation s'arrête principalement et réellement, sur la Seine, à Montereau 687 . À cela, il faut bien entendu prendre en compte l'importance économique de la capitale. L'activité portuaire se révèle à la fois un facteur propulsif et tributaire de la prospérité économique de la région. Cette position de « verrou navigable » justifie donc de considérer deux grands flux : ceux en amont et en aval688. a) Une conséquence de la concurrence intermodale : la spécialisation dans les matériaux de construction. Au début des années 1890, plus de deux millions de tonnes en provenance de la HauteSeine étaient déposées dans l'enceinte même de la capitale. Il s'agissait du tonnage le plus important du port de Paris intra-muros. Si l'on envisageait les entrées aux dépendances suburbaines où s'arrêtaient de nombreux chargements de houilles du Nord et de GrandeBretagne, les poids totaux des arrivages de la Basse-Seine, de l'Oise et de la Haute-Seine s'équilibraient. Cet intense mouvement de transports s'exerçait entre la ville et les rives amont du fleuve : 1,3 millions de tonnes étaient débarqués sur les berges de la capitale intra-muros en 1891. Ce chiffre apparaissait d'un niveau remarquable, le trafic de retour étant très faible, y compris sur les lignes de Rouen et de Valenciennes689. La Haute-Seine navigable n'était pourtant guère longue, sa section ouverte à la navigation industrielle, avec une profondeur de deux mètres, s'étendait entre Paris et Montereau690, soit seulement une centaine de kilomètres De Montereau à Marcilly (68 km), la batellerie était plus clairsemée malgré un approfondissement de 1,50 m. Cette section comptait deux prolongements d'une quarantaine de kilomètres : le canal de la Haute-Seine jusqu'à Troyes qui aboutissait à Marcilly au confluent de l'Aube à une quinzaine de kilomètres en aval de Méry où débutait théoriquement la Seine navigable34, et la fraction navigable de l'Aube jusqu'à Arcis-sur-Aube. 686 Rappel : Yonne, Loing, Marne, à l'amont et Oise à l'aval. Pour la simple et bonne raison, que la Seine n'est, en réalité, que le confluent de l'Yonne. 688 D'ailleurs, au risque de se contredire, cela est valable pour tous les ports fluviaux, à la différence des ports maritimes, dont certains peuvent seulement constituer des ports de consommation, un peu à l'image de Paris. 689 François Maury, op. cit., p.114. 690 Jean Marais, « Le port de Montereau au XIXe siècle », in La Seine et son histoire en Île-de-France, actes du septième colloque de la fédération de Conflans-Sainte-Honorine, 5-6 décembre 1992, Mémoire de la Fédération des Sociétés historiques et archéologiques de Paris et de l'Île-de-France, 45, 1994, pp.266-280. 34 De Méry à Marcilly, la Seine dont les détours de 26 km n'étaient pas utilisés. 687 208 Les canaux du Briare et du Loing livraient à la batellerie, avec les seules ressources du Gâtinais, une centaine de milliers de tonnes de marchandises : sable pour la verrerie, grès, céréales de Nemours, moellons de Souppes, cédant de même sucres et céréales, minerais, engrais, produits industriels de Montargis. Le canal d'Orléans, à petite section, y ajoutait quelques bois de la forêt riveraine, mais aucun trafic d'aval. La vallée inférieure de la Loire n'apportait plus rien par voie d'eau, et ce en raison de l'absence d'une ligne en continu entre Nantes et Paris. Le fleuve n'offrait qu'un mouillage de 0,70 m entre l'embouchure de la Vienne et Briare où s'amorçait le canal latéral. Il allait même jusqu'à tomber à 0,25 m, au moment des basses eaux691. La Bourgogne alimentait la batellerie avec les ciments de Marigny et Venarey, des drogueries, vinaigres, moutardes de Dijon, de pierres de taille, de tuiles et briques, de bois et céréales des carrières, fabriques et localités riveraines et qui ajoutaient aux pierres de taille et aux bois déjà chargés à Saint-Jean-de-Losne une soixantaine de milliers de tonnes, au plus. À l'instar de ceux de Champagne, les vins de Bourgogne ont été détournés par les Compagnies de chemins de fer qui ont su capter ce trafic par le moyen de tarif attractif. La Basse-Yonne dérivait vers Paris un tonnage égal de céréales, farines et sucres, de bois à brûler, de ciments, embarqués à Sens et Joigny. La navigation s'y montrait active, disposant de remorqueurs et d'un service de touage sur chaîne noyée692. Sur l'Yonne, le trafic est demeuré stable durant toute la période. Alors qu'il s'agissait auparavant d'une des voies d'approvisionnement majeure pour la capitale, le trafic sur cette voie ne semblait guère avoir profité du plan Freycinet, passant de 428 983 à 455 854 tonnes de 1883 à 1900, à savoir une croissance de 6%, ce qui signifiait une quasi stagnation si l'on tenait compte d'autres voies navigables. Élément très significatif, le transit dominait, oscillant entre un minimum 73%, en 1897 et un maximum de 82% en 1889 du trafic. S'il avait servi de laboratoire d'expérimentation pour les aménagements modernes des rivières françaises, cet axe fluvial s'était, tout compte fait, révélé le vrai perdant des importantes mutations de la navigation intérieure opérées surtout à partir du plan Freycinet693. De ce point de vue, les chemins de fer avaient gagné la partie contre la batellerie. Les raisons de ce déclin relatif au cours de cette période tenaient sans doute à l'insuffisance des aménagements, au manque d'industries et encore à une agriculture encore 691 François Maury, op.cit., p.120. Sur le touage, voir premier chapitre. 693 Car comme on a pu le voir dans le chapitre précédent, l'Yonne demeurait une voie importante sous le Second Empire. 692 209 fondée sur la polyculture 694 . De manière ironique, les « améliorations » de la navigation s'étaient retournées contre le trafic fluvial local, dans la mesure où en atténuant la force du courant, elles condamnèrent à plus ou moins brève échéance le flottage du bois, activité majeure sur l'Yonne, à une époque aussi où le charbon de terre s'était substitué au bois pour le chauffage et plus globalement l'activité industrielle. La rivière est devenue peu à peu un axe de transit, reliant le Centre de la France par le canal du Nivernais695 et la Saône, via le canal de Bourgogne. Cependant, ces axes restaient eux-mêmes secondaires, dans la mesure où les conditions de navigation demeuraient peu satisfaisantes, car nécessitant respectivement le franchement de 138 et 189 écluses Tonnages Graphique 23. Trafic de la 2nde section de l'Yonne (Laroche-Montereau) 1883-1900. 500 000 450 000 400 000 350 000 300 000 250 000 200 000 150 000 100 000 50 000 0 Transit Arrivages Expéditions Trafic local Source : Statistique de la navigation intérieure, années 1883-1900. Ces axes n'entretenaient donc que des relations limitées avec la capitale. L'activité batelière la plus notable s'effectuait entre Montereau et la frontière amont de Paris, l'administration des Travaux publics la divisait elle-même en deux sections, à savoir la 3e section, entre Montereau et Corbeil, soit 58 kilomètres et la 4 e section entre Corbeil et Paris, sur une quarantaine de kilomètres. Du fait de son éloignement de la capitale, l'activité de la 3e section était plus modeste, sans être pour autant négligeable, soit 1,9 millions de tonnes en 1900. Son trafic connut ainsi une progression significative de 57% entre 1882 et 1900. Toutefois, celui-ci consistait essentiellement en du transit, qui ne composait pas moins de 85% du total. 694 Adolphe Jouanne, Département de l'Yonne, Paris, Librairie Hachette et Cie, 1909, pp.38-41. La spécialisation aujourd'hui de la vallée icaunaise dans la culture des céréales convient paradoxalement mieux à la navigation fluviale. 695 Long de 174 km, ce canal avait été créé afin de relier la Seine et la haute Loire via l'Yonne et l'Aron. Il commençait par Auxerre et se terminait à Decize. Il approvisionnait la capitale en charbons et en bois. 210 Les villes d'amont telles que Corbeil, Melun, Montereau, n'entretenaient pas un commerce très puissant avec la capitale, tout au moins, pas encore. La dernière ville citée expédiait néanmoins des tuiles et des briques. En outre, la batellerie avait perdu des trafics traditionnels tels que les céréales. Les bourgs de la Brie n'envoyaient plus guère de céréales, préférant la voie ferrée, apparemment plus appropriée pour la conservation des grains et relativement peu coûteuse en raison de la courte distance à effectuer vers la capitale696. Tous les ports riverains recevaient en revanche des houilles du Nord et des charbons anglais qui avaient simplement transité par Paris. Les grands chalands de la Basse-Seine remontaient jusqu'à Montereau en s'allégeant dans la capitale. Les bateaux les plus ordinaires sur le cours supérieur du fleuve jaugeaient de 250 à 300 tonnes. La plupart étaient remorqués, les autres faisaient appel au touage, le halage ayant fortement décliné à la fin du XIXe siècle La Haute-Seine formait le débouché des lignes de Lyon par la Bourgogne et de la Loire par le Bourbonnais et le Nivernais, grossissant le mouvement de la section entre Montereau et Paris. Graphique 24. Trafic de la 3e section (Montereau Corbeil) de la Seine 1882-1900. 2 500 000 Tonnages 2 000 000 1 500 000 1 000 000 500 000 1882 1883 1884 1885 1886 1887 1888 1889 1890 1891 1892 1893 1894 1895 1896 1897 1898 1899 1900 0 Source : Ministère des Travaux, Statistiques de la navigation intérieure, années 1883-1900. 696 Les raisons invoquées par les agriculteurs français semblaient assez curieuses. Comment expliquer que le transport des céréales importées depuis Rouen prospérait alors que celles-ci étaient souvent importées de très loin ? Clément Colson affirme pourtant que la batellerie était plus dangereuse sur de courtes distances. De manière paradoxale, comme une revanche de l'histoire, après le déclin du charbon enclenché dans les années 1970, la batellerie française a compensé une partie de ses pertes par le transport de céréales. Il fallait sans doute chercher ailleurs ces réticences 211 b) Paris amont ou le temps des sablières. La voie majeure en amont de Paris au cours de cette période, et la plus symbolique des mutations de la navigation intérieure était, sans conteste, la 4e section de la Seine. En passant de 2,4 à 6,5 millions de tonnes, l'essor du trafic s'est révélé fulgurant sur la période 18831900, enregistrant une hausse de 165% 697. Cette section comportait elle-même trois zones d'activité, à savoir celle touchant immédiatement les fortifications de Paris, où se sont implantées de nombreux industries et commerces : usines Fresne, Springer et Breuil, forges et usines à gaz à Alfortville, Magasins généraux à Ivry Ensuite, il y avait une zone intermédiaire, en réalité, la plus importante, celle des sablières : Vigneux, Draveil, Villeneuve-Saint-Georges, Choisy-le-Roi, puis une zone plus éloignée, abritant diverses industries : Grands Moulins à Corbeil, papeterie à Vignons, usines Decauville à Essonnes Une des originalités de cette portion de la Seine réside dans l'importance des expéditions. L'activité portuaire ne se bornait pas à l'approvisionnement de matières premières venues de l'extérieur, mais il s'agissait aussi d'une zone de production, ce qui marquait sa singularité par rapport aux autres sections de la Seine. Graphique 25. Courants de trafic de la 4e section de la Seine en 1899. 2% 27% 33% Trafic local Expéditions Arrivages Transit 38% Source : Ministère des travaux publics, Statistiques de la navigation intérieure, année 1899. 697 Avec un pic de 7,6 millions de tonnes en 1899, ce qui représentait une croissance de 208% ! Cette progression remarquable s'expliquait en partie par les travaux liés à l'Exposition universelle de 1900 et au creusement du métropolitain réalisé pour la même occasion. Pour faciliter les comparaisons avec les autres sections, on a préféré conservé la période 1882-1900. L'année 1900 était « effectivement » une année de correction, et correspondait au relatif marasme du début du siècle. Ces questions seront abordées de manière plus approfondie dans le sixième chapitre de cette thèse. 212 Graphique 26. Trafic de la 4e section de la Seine 1883-1900. 8 000 000 Tonnages effectifs 7 000 000 6 000 000 5 000 000 Transit 4 000 000 Arrivages 3 000 000 Expéditions Trafic local 2 000 000 1 000 000 1883 1884 1885 1886 1887 1888 1889 1890 1891 1892 1893 1894 1895 1896 1897 1898 1899 1900 0 Source : Ministère des Travaux publics, Statistiques de la navigation intérieure, années 1883-1900. Comme le montre le graphique suivant, la principale source d'approvisionnement de la Haute-Seine était formée par les matériaux de construction. Leur pourcentage varia de 52% en 1886, à 70% en 1899, année, il est vrai, exceptionnelle, mais qui préfigurait la période suivante. La 4e section de la Seine fournissait ainsi autour de deux millions de tonnes de matériaux les ports situés dans la traversée de la capitale et les canaux parisiens 698. Cette proportion témoignait d'une hyperspécialisation, notamment les matériaux de construction, qui était en partie le résultat de la concurrence des chemins de fer. En effet, la haute Seine représentait une des voies de prédilection pour l'approvisionnement de marchandises lourdes, car la descente ne mobilisait que peu d'énergie, qu'elle soit animale, humaine ou mécanique699 Graphique 27. Trafic des matériaux de construction dans la 4 e section de la Seine 1883-1900 (en tonnes). 698 Dont le trafic pour cette catégorie de marchandises s'élevait à 3,7 millions de tonnes, soit théoriquement, près de 55%. 699 Voire en fait, la simple énergie du courant, surtout au début de la période étudiée. 213 8 000 000 7 000 000 6 000 000 5 000 000 4 000 000 Poids total des chargements 3 000 000 Matériaux de construction 2 000 000 1 000 000 1883 1884 1885 1886 1887 1888 1889 1890 1891 1892 1893 1894 1895 1896 1897 1898 1899 1900 0 Source : Ministère des Travaux Publics, Statistiques de la navigation intérieure, années 1883-1900. L'essor des sablières s'expliquait également en raison de conditions géologiques très spécifiques. Le fleuve coulait en amont de Paris entre d'épaisses couches de gravier constituées par les alluvions de sa masse liquide dans un passé très lointain. Les gisements étaient tels que l'exploitation de ces sablières suffisait à alimenter la navigation fluviale. De vastes excavations s'étaient produites, ce qui obligeait à les combler et à restaurer le sol, avec les déblais occasionnés par les grands travaux parisiens comprenant les aplanissements, démolitions, percements de tunnels pour chemins de fer souterrains, enlèvement de terre pour l'aménagement de caves : « De là ce singulier va-et-vient de lourds bateaux, propre à la Haute-Seine700.» Certains villages figuraient ainsi parmi les premiers ports intérieurs français, à l'instar de Vigneux qui, avec ses 1,3 millions de tonnes enregistrées en 1900, figurait en troisième position après Paris et Rouen ! Avec Vigneux, Villeneuve-le-Roi et Draveil, bourgs localisés à une vingtaine de kilomètres de Montereau, ils étaient les principaux centres de trafic, ce dernier s'échelonnait toutefois jusqu'à Travers, Ponthierry et Valvins, non loin de Montereau. Cette exploitation se trouvait aux mains de quelques industriels syndiqués, possédant tout un matériel spécifique pour l'extraction, dragues et autres grues de déchargement Ils conduisaient les opérations de fouilles, envois et remblaiements Leur activité était telle qu'ils encombraient la plus grande partie des quais fluviaux, ce qui ne manquait pas d'entrer en conflit avec la navigation proprement dite, celle de la Basse-Seine plus particulièrement. Le haut fleuve n'apportait donc plus grand-chose à ce trafic. Graphique 28. Trafic des ports sabliers de la Haute-Seine (4e section Paris-amont) 1886-1900. 700 François Maury, op. cit., p.115. 214 1 400 000 1 200 000 Tonnages 1 000 000 Draveil 800 000 Vigneux 600 000 Villeneuve 400 000 Choisy 200 000 1900 1899 1898 1897 1896 1895 1894 1893 1892 1891 1890 1889 1888 1887 1886 0 Source : Ministère des Travaux publics, Statistiques de la navigation intérieure, années 1883-1900. Il semble utile de s'intéresser plus précisément à ces acteurs majeurs de la navigation fluviale dans la région parisienne qu'étaient ces entreprises extractives. Le concept de système technique trouve sa cohérence avec l'émergence de compagnies d'extraction, qui elles-mêmes créèrent une activité de travaux publics, comme ce fut le cas de Morillon-Corvol 701 et de Piketty. En effet, à partir des années 1890, les travaux liés au métro parisien stimulèrent l'essor du marché du sable. Fait révélateur des imbrications parfois contradictoires du marché, la Compagnie du Métropolitain devenait dans le même temps une concurrente potentielle, dans la mesure où le creusement des galeries générait du sable et cet afflux inattendu contribuait à la chute des cours. Malgré tout, les évacuations de délais s'avéraient tellement considérables qu'elles constituèrent une activité fort profitable pour les sociétés Piketty, Leneru, Garçin et Cie et Morillon-Corvol702. La batellerie jouait ainsi sur les deux tableaux, c'est-à-dire intervenait à la fois le rôle de transporteur des matériaux (sable, pierres de taille), du site d'extraction à celui du chantier, mais aussi a servi à l'évacuation des déblais. Les travaux d'Haussmann avaient contribué à l'éclosion de petites entreprises le long de la 701 La société Morillon-Corvol comportait deux activités distinctes : d'une part, l'extraction et le transport de sable et d'autre part les travaux publics (en particulier les dragages). Sur la première activité, voir Isabelle Backouche et Sophie Eustache, Morillon-Corvol, Paris, textuel, 2003, 192p. Sur l'activité travaux public, consulter : Dominique Barjot, La trace des bâtisseurs. Histoire du groupe Vinci, Vinci, Rueil-Malmaison, 2003, pp.191-193. 702 Il faut noter que les frères Piketty et certains de ces investisseurs entretenaient des liens familiaux : beau-père, beaux-frères par alliances De la même façon, les familles Morillon et Corvol avaient tissé des liens familiaux, dans la mesure où les fondateurs, Nicolas Morillon (1810-1866) et Charles Corvol père (1808-1870) s'était mariés avec deux soeurs, cette alliance familiale les avait conduits à se traiter réciproquement de « cousines ». Cf. Backouche et Sophie Eustache, Morillon-Corvol, Paris, textuel, 2003, 192p. Sur l'activité travaux public, consulter : Dominique Barjot, La trace des bâtisseurs. Histoire du groupe Vinci, Vinci, Rueil-Malmaison, 2003, pp.10-11. 215 Seine en amont de Paris dans le lit mineur du fleuve, puis sur les rives703. Le secteur s'est peu à peu structuré à la faveur des améliorations techniques, comme l'apparition des dragues mécaniques à godets mues à vapeur, qui autorisaient des prélèvements plus conséquents. Les sociétés d'extractions se sont équipées d'une flotte de péniches en vue du transport des sables vers les ports établis sur les quais dans la traversée de Paris. Les déblais issus des démolitions étaient destinés au comblement des sablières épuisées704. Sur le plan du capital, ces sociétés se sont rapidement agrandies. En s'associant avec d'autres exploitants, la société Piketty et Cie est devenue, le 22 janvier 1889, la société Piketty, Leneru et Cie, société en nom collectif et en commandite simple, au capital de 1 060 000 francs705. Une autre société fondée par Albert Morillon et M. Charles Corvol s'est montrée aussi fort active, plus particulièrement à Draveil où elle exploitait un énorme site. L'histoire de entreprise Morillon Corvol se révélait encore plus significative des mutations des voies navigables qui ont marqué la seconde moitié du XIXe siècle. Originaires de Clamecy, dans le Morvan, la famille Corvol travaillait dans le commerce du bois et son transport par flottage jusqu'à Paris depuis le XVIIe, à une époque où cette région fournissait massivement le bois de chauffage pour la capitale. Dans la première moitié du XIX e, ils devinrent entrepreneurs et possédaient leurs propres bateaux. Avec d'autres familles de Clamecy, ils se lancèrent, en 1848, dans les affaires en créant la Nivernaise, entreprise de transport par voie d'eau et par terre, qui ne subsista que jusqu'en 1852. Toutefois, Charles Corvol poursuivit l'activité de sa société de marine et de transport par voie d'eau Corvol aîné qui se consacrait principalement à convoyer du bois entre Clamecy et la capitale, et des vins de l'Yonne entre Auxerre et Paris. La société prospéra au point d'associer les fils et devenir Corvol aîné et fils en 1868. Si les événements de 1870 n'affectèrent finalement qu'assez peu l'entreprise, les profondes mutations liées à la Révolution industrielle contribuèrent au déclin du bois de chauffage et du charbon de bois au profit des charbons du Nord convoyé par chemins de fer ou via le canal Saint-Quentin. En définitive, le trafic de la basse Seine s'est accompli aux dépens de celui de la haute Seine et surtout l'Yonne. En outre, comme on a pu le voir, les améliorations de la navigation avaient paradoxalement condamné à plus ou moins long terme le flottage, dans la 703 Les berges correspondent au « lit majeur ». La couche de sable et de cailloutis est susceptible de dépasser sept mètres. 704 Il s'agissait souvent de contrats de fortage, qui stipulaient la remise en état initial des terrains, sauf pour certaines parcelles destinées à composer un paysage lacustre. Dans les années 1880, la société Piketty et Cie s'était ainsi associée avec George Chaudron de Courcel, ancien officier de marine qui avait fait bâtir une vaste résidence en bord de Seine à Vigneux. 705 Jacques Macé, « Le temps des sablières à Vigneux, Draveil et dans le Val de Seine », in Bulletin n°73 de la Société historique de l'Essonne et du Hurepoix, Archives départementales de l'Essonne, septembre 2004, pp.2-5. 216 mesure où le courant des rivières se trouvait considérablement ralenti. Par ailleurs, le trafic des vins souffrit des conséquences des destructions des vignobles français par le phylloxéra sévissant en France depuis 1864 et qui détruisit la majeure partie des vignobles de l'Yonne. Les familles Morillon et Corvol se virent ainsi contraintes d'une conversion de leur activité. Les Corvol prirent la mesure des transformations de la navigation intérieure, et se lancèrent dans le secteur prometteur que représentait l'extraction des sables et graviers alluvionnaires. Les entreprises Piketty et Morillon Corvol s'imposèrent ainsi peu à peu sur le marché, même si elles durent affronter la concurrence de plus modestes entrepreneurs qui tentèrent de casser les prix afin d'attirer des clients706. Comme on a pu s'en rendre compte en analysant les trafics des seconde et troisième sections de la navigation de la Seine, l'ampleur du trafic amont ne saurait masquer certaines faiblesses. En effet, l'hyperspécialisation dans les matériaux de construction signifiait, en un sens, une certaine défaite de la batellerie par rapport aux voies ferrées qui se sont accaparées l'essentiel des autres trafics, tels que celui des denrées alimentaires (céréales, vins) qui ne constituaient plus qu'autour de 30% pour les céréales sur la Haute-Seine et entre 5-10% sur l'Yonne. Graphique 29. Céréales en provenance de l'Yonne et de la Haute-Seine dans le transport fluvial du département de la Seine 1891-1900. 706 Parmi eux : Lavollay, Charvet, Grousselle, Pers, etc. 217 140 000 120 000 Céréales en provenance de l'Yonne, Saône et Rhône Tonnages 100 000 80 000 60 000 Céréales en provenance de la Haute-Seine 40 000 20 000 1891 1892 1893 1894 1895 1896 1897 1898 1899 1900 0 Source : Annuaires statistiques de la Ville de Paris, années 1891-1900. B. Impact du plan Freycinet sur le plan des infrastructures portuaires parisiennes Après avoir considéré les deux courants d'approvisionnement de la capitale, il convient à présent de s'intéresser à l'activité à l'intérieur de Paris, et plus particulièrement les canaux parisiens. 1. Les canaux de Paris : un déclin relatif, mais inéluctable. En termes d'infrastructures portuaires, l'essentiel des aménagements sur les berges de la Seine avait été réalisé dans les années 1840 sous la Monarchie de Juillet et dans une moindre mesure sous le Second Empire. En revanche, le plan Freycinet a eu de profondes répercussions sur les canaux de Paris, en termes d'infrastructures, de rapports avec la navigation en rivière et même de rapports entre eux. Jusqu'au plan Freycinet, les canaux de Paris suivirent une évolution à peu près comparable à celle de la Seine. Si la guerre contre la Prusse avait notablement perturbé le trafic global en passant de 2,6 millions de tonnes en 1869 à 1,3 millions en 1871, celui ne rattrapa le niveau d'avant-guerre qu'assez lentement et seulement dans les années 1877-1878707. Les aménagements du plan Freycinet ont provoqué une différentiation croissante entre les canaux, car si leur niveau de parité demeurait relativement proche, autour de 600 000 t pour le canal de l'Ourcq, 900 000 t pour le canal Saint-Martin et un million pour le canal Saint-Denis, les trafics des deux premiers ouvrages cités semblent avoir décroché à partir de 1883. Le trafic du canal de l'Ourcq a chuté brutalement d'un million de tonnes pour stagner de façon durable, pour ne pas dire définitive, 707 A.P. VO3 782, Canal Saint-Martin : relevé du tonnage (1876-1892), canaux Saint-Denis, Saint-Martin et bassin de la Villette, diagramme du tonnage 1876-1885. 218 autour de 600 000 tonnes. En fait, hormis la portion comprise dans Paris, les conditions de navigation n'incitaient guère à un accroissement du trafic. L'activité du canal Saint-Martin s'est également écroulée, tombant jusqu'à 632 682 t en 1887 pour se redresser et se stabiliser autour de la barre du million de tonnes. Finalement, si l'on tenait en compte la couverture sur une partie de son parcours, la suppression des droits sur la navigation et les aménagements sur le fleuve, le plus étonnant résidait moins dans son déclin que dans le fait que son trafic se soit maintenu à un niveau singulirement élevé708. En un sens, l'essor global du mouvement de la navigation sur la Seine a contribué à en soutenir le trafic. Les relations entre la navigation et le fleuve relevaient désormais moins de la concurrence que de la complémentarité709, ce qui avait été très tôt le voeu des ingénieurs des Ponts-et-Chaussées 710 . En fin de compte, le rattrapage du trafic des ports dans la traversée par rapport aux canaux de Paris et au bassin de la Villette s'est opéré à un rythme relativement lent. Encore une fois, c'est plutôt la résistance des canaux qui doit surprendre. En 1872, le trafic des ports en Seine s'élevait à près de 932 000 t contre 1,5 millions pour le bassin de la Villette 711 . En fait, il fallut attendre le tournant des années 1880 pour obtenir une quasi parité et l'année 1888 pour que la suprématie des ports séquaniens devienne pérenne, année qui correspondait à l'achèvement des travaux prévus par la loi du 5 juillet 1879. Ces derniers s'étaient donc révélés plus décisifs que la suppression des droits de navigation décidée dès le mois de février 1880, alors que rappelonsle, la navigation sur les canaux était toujours soumise à des péages. Par conséquent, cela oblige à relativiser encore une fois les débats autour de cette mesure controversée, les améliorations portées sur les conditions de navigation ont constitué les réels moteurs du redressement des voies navigables, davantage que l'abrogation des droits qui visait plus à soulager la batellerie artisanale à court terme dans l'attente de l'achèvement des travaux sur les cours d'eau. Graphique 30. Rapport des trafics canaux/traversée de Paris (5 e section de la Seine) 1882-1900. 708 François Maury, Le port de Paris, Paris, Librairie Félix Alcan, troisième édition entièrement refondue, 1911, p.153. 709 Isabelle Backouche, « Mesurer le changement urbain à la périphérie parisienne. Les usages du Bassin de La Villette au XIXe siècle », Éditions de l'E.H.E.S.S. in Histoire & mesure, janvier 2010, vol. XXV, p.58. 710 AN F14 6729 (site de Pierrefitte-sur-Seine), Délibération du conseil général des Ponts et Chaussées, 21 novembre 1842. 711 A.P. VO3 782. 219 100% 90% 80% 70% 60% 50% 40% 30% 20% 10% 0% Trafic total dans la traversée de Paris Trafic total des canaux de Paris Source : Ministère des Travaux publics. Direction des routes, de la navigation et des mines. Division de la navigation. Statistique de la navigation intérieure. Années 1883-1900. 10 000 000 9 000 000 8 000 000 7 000 000 6 000 000 5 000 000 4 000 000 3 000 000 2 000 000 1 000 000 0 Trafic total des canaux de Paris Total dans la traversée de Paris 1882 1884 1886 1888 1890 1892 1894 1896 1898 1900 Tonnages Graphique 31. Trafic des canaux de Paris et de la 5e section de la Seine (traversée de Paris) 1882-1900. Sources : Ministère des Travaux publics. Direction des routes, de la navigation et des mines. Division de la navigation. Statistique de la navigation intérieure. Années 1883-1900. Comme en témoignait l'ampleur des travaux effectués, le canal Saint-Denis semblait avoir été le principal bénéficiaire du plan Freycinet, et cela d'autant plus qu'il profita également des aménagements réalisés sur la Basse-Seine et les voies navigables du Nord. La composition de son trafic s'avère bien plus diversifiée que celle de ses homologues davantage tributaires de l'industrie du bâtiment : 59% pour le canal de l'Ourcq et 43% pour le canal Saint-Martin. Les combustibles minéraux figuraient en bonne place dans le trafic du canal Saint-Denis, avec 29%, les produits industriels, l'industrie métallurgique, les machines représentaient respectivement 5%, 2% et 2%. L'accumulation de ces postes montrait la vocation industrielle du nord de Paris et du canal qui les desservait. En un sens, le trafic du 220 canal Saint-Denis suivait une évolution contracyclique dans la mesure où il progressait sensiblement en pleine période de dépression. 2. Travaux de modernisation des canaux parisiens. La modernisation des canaux et du bassin de la Villette comportait deux volets, d'une part le rachat de la concession, d'autre part des travaux d'amélioration. En ce sens, elle se conformait à la philosophie du plan Freycinet. Toutefois, le rachat des canaux ayant grevé une part non négligeable des dépenses. En outre, le canal Saint-Denis et le bassin de la Villette constituaient une des destinations majeures pour les transports par voie d'eau, en particulier pour les charbons en provenance du Nord et des ports normands. Cependant, à l'instar du rachat de la concession du canal Saint-Martin sous le Second Empire, les canaux de Paris représentaient également un enjeu plus vaste pour la Ville de Paris, à savoir l'alimentation en eau. La concession du canal de l'Ourcq avait montré ses limites vers la fin du Second Empire. En effet, ses concessionnaires ne semblaient guère soucieux des déperditions du canal, si bien que la navigation dut être interrompue à plusieurs reprises entre 1861 et 1865. En outre, la Ville de Paris manquait d'eau, ce qui l'amena à édifier les usines de Trilbardou et d'Isles. Celles-ci puisaient 83 000 m3 dans la Marne pour les rejeter journellement dans l'Ourcq. Si les documents de l'administration municipale tendaient à charger les concessionnaires, c'est qu'il lui était apparu que finalement, il lui était plus profitable de gérer directement ces canaux. Cela devait, tout au moins en théorie, lui permettre de sécuriser l'approvisionnement en eaux industrielles. C'est la raison pour laquelle le préfet lança la procédure de rachat de la concession dès 1874. Celui-ci fut arrêté le 29 juin 1876 712 . Les concessionnaires avaient obtenu quarante-six annuités de 540 000 francs, compensation qui semblait, au dire de l'ingénieur Humblot, très favorable aux anciens concessionnaires713. C'était d'ailleurs le cas de nombreux rachats de concessions au cours de cette période. La politique menée par la municipalité républicaine n'avait donc guère différé de celle menée par le baron Haussmann sous le régime précédent, pour le meilleur et pour le pire. Le coût pouvait paraître quelque peu exorbitant dans la mesure où le canal restitué nécessitait d'importants travaux de réfection et de modernisation, mais la Ville reprenait la main dans la fourniture de l'eau714. En effet, il 712 AP VO3 495, Canal de l'Ourcq (1871-1885) travaux, autorisations, instance Chambellaud (1871), rachat du canal (1876). 713 Humblot, Les canaux de Paris à la fin de 1884, Paris, Imprimerie et Librairie Centrales des Chemins de fer, Imprimerie Chaix, p.67. 714 Deligny, Rapport sur les projets destinés à compléter l'alimentation en eau de Paris, Conseil Municipal, 1890. 221 ne fallait pas perdre de vue que ce rachat s'inscrivait avant tout dans une vaste politique de l'eau impliquant à la fois l'approvisionnement et l'assainissement de la capitale715. En 1878, fut lancée l'idée d'approfondir le canal Saint-Denis, le bassin de la Villette ainsi que la gare de l'Arsenal. Un avant-projet présenté par M. Mallet716, au nom de la 6ème Commission sur les travaux à exécuter pour l'approfondissement à 3,20 m du tirant d'eau du canal Saint-Denis, du bassin de la Villette et de la gare de l'Arsenal fut déposé et accepté par le Conseil Municipal de Paris. Le rapport prenait en considération les travaux d'amélioration de la Seine qui étaient alors en oeuvre pour rapprocher Paris de la mer. Ce n'était pas tout à fait Paris port de mer, dans la plus stricte appellation, mais l'avant-projet soulignait que l'approfondissement de la Seine était susceptible de permettre aux caboteurs d'arriver jusqu'à la capitale, mais bien entendu, aussi les péniches au gabarit augmenté. En conséquence, il s'agissait de faire acheminer davantage de marchandises en provenance des ports de la Seine Inférieure717 : Paris port de mer, ce rêve de plus d'un Parisien, est, sur le point de se réaliser ; non pas que les flots de l'Océan vont venir baigner les quais du port Saint-Nicolas, mais des navires d'un tonnage de près de 800 tonnes, et non pas seulement des caboteurs, vont pouvoir à pleine charge, remonter la Seine depuis Rouen et venir déposer sur les bords du fleuve, les marchandises provenant des pays d'outre-mer, à la grande satisfaction du commerce et de l'industrie, et faire de la capitale un véritable entrepôt entre l'Ouest, l'Est et le Centre de la France () Telles vont être, on ne peut en douter, les conséquences de l'approfondissement de la Seine, dont le tirant d'eau, de Rouen à Paris va être porté à 3 m 20 718. L'Administration affichait donc une réelle volonté d'interconnecter la capitale avec ses « avant-ports » sur la Manche. Au moment même où le programme Freycinet était discuté et allait être voté, la Ville de Paris décidait de son côté de coordonner son action pour améliorer ses infrastructures fluviales, à savoir les canaux et le bassin de la Villette. Le bassin de la Villette semblait connaître un certain déclin dû à l'établissement des chemins de fer et à l'annexion de la Villette à Paris. Depuis le rachat des canaux, la Ville avait d'autant plus intérêt à valoriser son 715 Sur les enjeux de l'eau à Paris au XIXe siècle, voir Julia Csergo, « L'eau à Paris au XIXe siècle : approvisionnement et consommation », in Paris et ses réseaux : naissance d'un mode de vie urbain XIXe-XXe siècles, sous la direction de François Caron, Jean Derens, Luc Passion et Philippe Cebron de Lisle, Paris, Bibliothèque historique de la Ville de Paris Hôtel d'Angoulême Lamoigon, pp.137-152. 716 A.P. VO3 765, Rapport présenté par M. Mallet, au nom de la 6ème Commission sur un avant-projet de travaux à exécuter pour l'approfondissement à 3,20 m du tirant d'eau du canal Saint-Denis, du bassin de La Villette et de la Gare de l'Arsenal. Conseil Municipal de Paris, n°29, 1878. 717 Actuelle Seine-Maritime. 718 Si la loi n'avait pas encore été votée, il n'en demeurait pas moins que son avant-projet avait déjà été déposé en 1878, si bien que le contenu du programme Freycinet était globalement connu. On parlait déjà dans ce rapport de porter le tirant d'eau du canal Saint-Denis et du bassin de la Villette à 3,20 m. Les dimensions des écluses, au moins, devaient être augmentées. 222 patrimoine fluvial. Un des enjeux consistait à adapter le canal Saint-Denis et le bassin de la Villette aux travaux d'amélioration de la Seine envisagés par le ministre des Travaux publics. Le rapport de la Ville de Paris envisageait déjà de porter le tirant d'eau du canal Saint-Denis et du bassin de la Villette à 3,20 m. Les dimensions des écluses devaient être augmentées, au moins en longueur. Certaines difficultés se posèrent toutefois quant à la nécessité d'atteindre ce résultat par divers travaux de gaz, la longueur des écluses était portée à 60 m719. Au moment du rachat, le canal Saint-Denis se trouvait dans un état de dégradation avancée, ce qui impliquait d'importantes réparations720. Le manque de crédits accordés et la perspective de la reconstruction et la transformation de ces ouvrages ont contribué à ce que les réparations jusqu'en 1885 n'aient été pourvues que pour le strict nécessaire. La situation était donc peu brillante, les pierres de taille des écluses étaient, entre autres gravement rongées des écluses. Les portes en bois de ces dernières, dont la construction remontait à plusieurs décennies, obligeaient d'interrompre de façon récurrente la navigation pour des réparations partielles. Les mortiers étaient tellement désagrégés et délavés qu'ils se révélaient réutilisables : « Nous avons trouvé un curieux exemple de décomposition du mortier dans une écluse où l'on a pu employer pour une réparation le sable de l'ancien mortier sans lui faire subir de lavage, tellement il était pur et dépouillé de toute parcelle de chaux721». Le canal Saint-Denis n'était pas une exception, et le même constat pouvait être formulé pour les deux autres canaux 722 . L'état de délabrement des canaux parisiens lors de la reprise de la concession par la Ville posait la question de la légitimité du montant du remboursement à la compagnie privée concessionnaire723. La Ville paraissait avoir généreusement rétribuée celleci, dans la mesure où elle récupérait des infrastructures peu opérationnelles pour faire face à la montée globale du trafic de la navigation intérieure conséquemment au plan Freycinet. Or, l'abrogation des droits sur les voies navigables françaises rendant plus compétitive la navigation en Seine par rapport aux canaux. Le cas n'était bien entendu pas unique, et pouvait s'étendre à la plupart des canaux rachetés par l'État. Une partie significative des budgets 719 A.P. VO3 765 : Approfondissement du bassin de la Villette et du canal Saint-Denis (1880-1885). M. Le Chatelier « Note sur la reconstruction du bassin de la Villette et du canal Saint-Denis » in Annales des Ponts et Chaussées, tome XI, 1er semestre 1886, pp.709-772. 721 Humblot, Les canaux de Paris à la fin de 1884, Paris, Imprimerie et Librairie Centrales des Chemins de fer, Imprimerie Chaix, pp. 46-47. 722 Les cas d'échouages de bateaux n'étaient pas si rares, comme le montrait le cas d'un marinier qui avait fait couler à huit mois d'intervalle sa péniche dans le canal Saint-Martin sur la période 1858-1859. Même si la négligence du marinier fut démontrée, il n'en demeurait pas moins que l'état du canal Saint-Martin était aussi en cause, et que la Compagnie s'en était sortie à bon compte. A.P. VO 3 763, échouage de la péniche n°35, patron Houdreau [en fait Houdereau] 1859-1860. Note pour la Compagnie du canal Saint-Martin, le Secrétaire général, Dupin. Tribunal du Commerce-Compagnie des assurances maritimes, 16 juin 1859. 723 Sur les concessions, voir Dominique Barjot (dir.), « Concessions et optimisation des investissements publics », in Entreprises et Histoire, n°38, juin 2005. 720 223 alloués aux voies navigables avait donc consisté à racheter des canaux vétustes construits sous la Restauration et la Monarchie de Juillet peu aptes à répondre aux exigences de la batellerie industrielle et fournissait de quoi renforcer les arguments des anticanalistes724. Encore que comme on a pu le voir, dans le cas des canaux parisiens, la Ville n'était pas perdante, puisqu'en reprenant la mainmise sur les canaux, elle pouvait entreprendre une vaste politique d'alimentation en eau pour la capitale. En outre, elle récupérait une double source de revenus résultant des droits sur la navigation et surtout de la vente de l'eau. Bien que très favorable à l'ancienne compagnie concessionnaire, le rachat des canaux constituait tout de même une affaire intéressante pour la Ville de Paris. De plus, en modernisant les canaux, celle-ci favorisait l'approvisionnement de la capitale en denrées à un coût moindre et stimulait l'activité industrielle et commerciale725. Le canal Saint-Denis connut donc une importante modernisation, le nombre de ses écluses fut ramené de 12 à 7 726 . Celles-ci étaient dotées de deux sas, l'un de petites dimensions destiné aux péniches du nord et l'autre plus grand, aux chalands du fleuve. Les travaux durent plusieurs années et coûtèrent près de 15 millions de français, la Ville de Paris ayant bénéficié d'une subvention du Conseil général de la Seine. Pour compléter ces aménagements, des travaux furent effectués entre 1891 et 1895 sur le canal de l'Ourcq de manière à porter le tirant d'eau à 2 mètres jusqu'à Pantin727. Le but visait à rendre accessibles les usines installées au-delà des fortifications aux péniches du nord728, le canal de l'Ourcq ne pouvant recevoir que des flûtes, bateaux de très faible gabarit. 3. Le bassin de la Villette au coeur du tissu industriel et commercial. 724 Pourtant, ils se gardaient d'avancer cette argumentation qui aurait quelque peu mis à mal le bienfondé de la construction d'infrastructures par des investissements privés. En effet, ils étaient partisans d'un retour aux droits de navigation et à l'affermage de ces canaux quand cela était possible. Comme on l'a vu dans le premier chapitre, les canaux du Midi et du canal latéral à la Garonne avaient été affermés à des intérêts liés aux frères Pereire, puis à la Compagnie du Midi. Il apparaissait difficile de dénoncer le coût faramineux des dépenses en faveur des voies navigables, si dans le même temps, certaines dépenses avaient consisté à racheter des canaux au profit de ceux qui dénonçaient justement une politique dilapidant l'argent du contribuable. 725 Le système de l'Octroi n'ayant pas été aboli, l'afflux de marchandises grâce aux voies navigables en son sein représentait un apport financier non négligeable, bien que difficile à mesurer. Sur l'essor du quartier de la Villette, voir Alain Faure, « L'industrie à Paris : La Villette », in J. Jenn (éd.), Le XIXe arrondissement, une cité nouvelle, Paris, Délégation artistique de la Ville de Paris, 1996, p. 91-112. 726 Yves Lefresne, Jean-Pierre Dubreuil, « Les travaux sur les canaux », in Béatrice de Andia et Simon Texier (dir.), Les Canaux de Paris, Paris, Délégation à l'action artistique de la Ville de Paris, 1994, p.68. 727 A.P. VO3 477, Canaux municipaux. Bassin de La Villette et Canal de l'Ourcq, autorisation et divers. Canal Saint-Denis : reconstruction des écluses, 1895-1897. 728 Hughues Fiblec, « Deux usines de Paul Friesé » in Béatrice de Andia et Simon Texier (dir.), Les Canaux de Paris, Paris, Délégation à l'action artistique de la Ville de Paris, 1994, pp.152-158. 224 La question du tissu industriel et commercial autour du bassin de la Villette est relativement bien connue, car elle a suscité déjà de nombreuses études. Plusieurs recherches ont déjà répertorié un certain nombre d'entreprises qui ont joué un rôle d'ailleurs plus ou moins durable dans le port parisien. Il s'agissait principalement de négociants en charbon et en matériaux de construction729. Le bassin de la Villette remplissait une double fonction pour les canaux parisiens, la première consistant à servir de point de jonction entre celui de l'Ourcq dont il formait une partie intégrante et tête d'alimentation des canaux de Saint-Denis et de Saint-Martin. Néanmoins, son rôle ne se bornait pas à constituer un carrefour d'alimentation hydraulique, dans la mesure où il représentait un point de terminus majeur pour la batellerie730. Le volume de son trafic témoignait de ce rôle, atteignant en 1882, un total de 1,3 millions de tonnes. Il s'agissait avant tout d'un port de réception avec 1,1 millions de tonnes d'arrivages et 199 175 t de départs pour la même année. L'ampleur des tonnages embarqués et débarqués pouvaient se comparer à celle du port de Dunkerque (1,3 millions de tonnes), même si les autres ports maritimes majeurs le dépassaient, à savoir Marseille (4,1 millions de tonnes), le Havre (2,6 millions de tonnes) et enfin Bordeaux (2,1 millions de tonnes) 731 . Toutefois, les chiffres cités ne concernaient que les bateaux s'arrêtant aux bassins de la Villette, car un nombre significatif de bateaux le traversaient en vue de passer d'un canal à un autre. Dès lors, le trafic devenait plus conséquent encore, le transit s'étant élevé à 610 193 t en 1882, ce qui faisait porter le trafic à 1, 9 millions de tonnes pour cette année732. Graphique 32. Trafic du bassin de la Villette et des canaux de Paris 1885-1900. 729 Emmanuelle François, « Le XIXe siècle du bassin de la Villette », mémoire de maîtrise sous la direction de Michelle Perrot, Université de Paris VII, U.E.R. de géographie, Histoire et science de la société, octobre 1984, 220p.; Isabelle Backouche, « Entrer dans Paris par voie d'eau. Usages et urbanisation du bassin de La Villette au XIXesiècle », Entrer en ville, Noëlle Dauphin, Jean-Pierre Guihembet, Françoise Michaud-Fréjaville (éds), Rennes, Presses Universitaires de Rennes, 2006, pp. 285-306 ; Isabelle, « Mesurer le changement urbain à la périphérie parisienne. Les usages du Bassin de La Villette au XIX e siècle », Éditions de l'E.H.E.S.S. in Histoire & mesure, janvier 2010, vol. XXV, pp. 47-86. 730 L'ingénieur Humblot rendait indissociable le bassin proprement dit et la partie du canal formant sur 900 mètres de long, un tronçon commun au canal Saint-Denis et au canal de l'Ourcq, dont la largeur avait été portée dès l'origine à 30 m au niveau de la flottaison. C'est pourquoi l'on parlait souvent de deux « bassins » de la Villette. Voir Humblot, Les canaux de Paris à la fin de 1884, Paris, Imprimerie et Librairie Centrales des Chemins de fer, Imprimerie Chaix, Paris, p.24. 731 Humblot, Les canaux de Paris à la fin de 1884, Paris, Imprimerie et Librairie Centrales des Chemins de fer, Imprimerie Chaix, Paris, p.24. 732 Humblot, Les canaux de Paris à la fin de 1884, Paris, Imprimerie et Librairie Centrales des Chemins de fer, Imprimerie Chaix, Paris, p.25. 225 4 000 000 3 500 000 Tonnages 3 000 000 2 500 000 2 000 000 1 500 000 1 000 000 Bassin de la Villette Trafics cumulés des canaux parisiens 500 000 0 Source : Annuaires statistiques de la Ville de Paris, années 1885-1900 ; AMB- C-20 2, Inspection de la Navigation, Mouvement de la navigation (Grands bassins de La Villette). Grâce aux travaux visant à rénover le bassin de la Villette ainsi que l'agrandissement du canal Saint-Denis, le trafic connut un nouvel essor, et ce, dès 1885, montrant qu'il y a un lien évident entre l'amélioration des infrastructures et le développement commercial. Il fallait également et bien entendu prendre en compte l'essor de la batellerie favorisé par le programme Freycinet. Le mouvement de la navigation (embarquements, débarquements) variait annuellement entre 1,25 et 1,5 millions de tonnes, soit à lui seul plus de la moitié du tonnage cumulé des trois canaux ! Le port de la Villette était ainsi devenu un centre de trafic primordial et cela d'autant plus grâce aux travaux de rénovation entrepris dans les années 1880. La quantité de marchandises s'est élevée à 1,3 millions de tonnes en 1891, soit 1,2 millions tonnes pour les débarquements (85,9%) et seulement 189 976 tonnes (14,1%) pour embarquements, le port de la Villette étant conforme à la vocation générale de l'activité portuaire à Paris, c'est-à-dire un port de consommation. Le trafic est demeuré assez stable jusqu'avant la première guerre mondiale : 1,1 millions de tonnes en 1900, un million en 1913. L'exploitation était divisée en deux zones distinctes, la première constituée par les francsbords du bassin, les quais avec les grandes entrées du port larges de 20 m et donnant accès aux quais de la Loire et de la Seine. Considérés comme essentiels à l'exploitation du port, ces terrains n'étaient que temporairement loués, du moins en principe, à des entrepreneurs ayant des marchandises à transborder. Le port public comprenait cette première zone couverte de magasins, pour les simples chantiers répartis sur le quai de la Loire et étaient loués souvent pour un temps plus long à des entrepreneurs dont les marchandises ne nécessitaient pas de magasins clos pour les abriter. La deuxième zone incluait neuf magasins bâtis en 1881 et réservés aux entreprises à fort tonnage. Le port public était davantage un lieu de transit pour 226 les marchandises sans destinataires ou parce que l'entrepreneur ne disposait pas de la place suffisante dans son magasin. On trouvait ainsi les bois en grumes, bois de sciage, briques et ciments, mais également des blés et de l'avoine 733 . Il faut remarquer qu'après 1910, le manque de magasins amena à louer le port public à des entrepreneurs attitrés. L'ensemble formait un espace clos, le port étant fermé à heures fixes par deux grandes barrières censées protéger les magasins des « maraudeurs ». Cette enceinte divisait elle-même les entreprises en deux groupes, celles dont l'activité était liée au canal et celles installées au bord de l'eau. Les entreprises desservant le port de la Villette pouvaient être divisées en quatre catégories : les transporteurs fluviaux, les négociants en marchandises diverses (denrées alimentaires, produits coloniaux), les négociants en charbon et enfin ceux en matériaux de construction. Le port était très fréquenté par les entrepreneurs de matériaux de construction qui avaient diverses spécialités. Ils débarquèrent en 1899 : 166 000 t de plâtre, 48 000 t de sable, 31 000 t de bois, 5500 t de verres, 27 000 t de tuyaux divers et briques, ce qui faisait un total de 277 000 t. Les grains et farines étaient acheminés par la batellerie des entrepreneurs de transport par eau, mais aussi des commerçants entrepositaires disposant de leur propre flotte exclusivement réservée à leurs affaires tels que Collin et Compagnie, négociant spécialisé dans les grains en gros, fourrages, mouture et concassage. De son côté, l'entreprise Alphonse Morel convoyait des denrées alimentaires (vermicelles, farines) qu'elle produisait par le canal de l'Ourcq, de son moulin jusqu'au bassin de la Villette où l'entrepreneur loua de 1881 à 1897 un magasin complet au 29-33 quai de Seine. La seconde activité dans le port consistait dans le négoce du charbon. Le charbon formait près d'un tiers du trafic du port, par exemple, en 1898, 377 000 t de charbons sur un trafic total de 1,25 millions de tonnes. Les entrepreneurs étaient pléthores dans ce domaine. C'était ainsi que 377 000 t avaient été débarquées en 1898 sur les quais. On peut citer la famille Dehaynin 734, qui était une grande famille de la Villette. Elle avait pris la tête des Entrepôts et magasins généraux en 1867735. Le tonnage réalisé fut de 27 000 tonnes en 1879 et de 39 950 tonnes l'année suivante. Il y avait également Guissez & Cousin, présents à la Villette ente 1877 et 1905, avec un tonnage de 21 000 tonnes en 1879. Parmi les transporteurs par eau, certains se sont implantés depuis longtemps au port de la Villette et y ont conservé une place privilégiée. Ainsi, les Bateaux Fournier, entreprise originaire de Meaux, s'étaient installés sur le port de la Villette en 1830, un des chefs de la 733 Consulter les Annuaires statistiques de la Ville de Paris. Emmanuelle Françoise, Le XIXème siècle du bassin de la Villette, mémoire de maîtrise d'histoire, Paris VII Jussieu, 1985, p.111. 735 Elle donna son nom à une rue du quartier en 1907. 734 227 société, Jules Fournier était considéré comme le défenseur de la marine de l'Ourcq. La succession de père en fils a permis à la Maison Fournier de conserver une position significative dans le port jusqu'en 1917. Entre 1880 et 1917, elle loua un même magasin d'une surface de 720m2 sur le quai de la Seine avec un tonnage moyen de 28 000 tonnes par an. La société dota son magasin d'un appontement équipé d'appareils élévatoires en vue de faciliter l'embarquement et le débarquement des marchandises. On peut encore citer la Compagnie Ardennaise des porteurs de la Meuse. Bien que cette entreprise n'eût qu'une présence fugace dans le port, elle était d'une taille relativement conséquente avec un capital de 10 millions de francs. La Compagnie Ardennaise assurait un service de navigation reliant Bordeaux, le Havre, Paris, Rouen, la Belgique et la Haute-Meuse. Elle loua, entre 1877 et 1887, un terrain de 550 m2, aménageant son magasin reconstruit en 1881736, pour la réception des grains et des farines d'avoine et de blé dont elle s'était faite la spécialité. Durant sa courte présence dans le port de la Villette, son tonnage a connu un doublement en passant de 15 000 à 35 000 tonnes entre 1879 et 1880. Sa flotte se composait d'une vingtaine de chalands et steamers. Toutefois, il existait d'autres sociétés spécialisées dans les denrées alimentaires : la société Larget, la société Pavot. La première approvisionnait les raffineries en pains de sucre, mais importait également de la fécule, de l'avoine ainsi que des raisins secs. La première entreprise de transport était sans conteste la Compagnie de navigation du Havre-Paris, installée quai de la Loire. Elle occupait 1 140 m2 de magasins en 1883 pour un trafic de 80 000 t en 1887. Cette société a procédé à divers rachats d'entreprises. En 1889, elle prit la dénomination de Compagnie Française des Transports Fluviaux et Maritimes HavreParis-Lyon 737 . En 1891, elle procéda au rachat de la Compagnie générale de transport Dommartin qui travaillait à la Villette depuis 1883. La nouvelle entreprise ainsi constituée recevait et expédiait annuellement 97 000 t au bassin de la Villette. La Compagnie HPL fit l'acquisition des biens de La Seine en 1911, arrivée au bassin en 1899 sous la dénomination de La Fluviale et locataire de nombreux magasins. Il s'agissait d'un des acteurs majeurs du secteur batelier, l'importance de cette société de transport fluvial se vérifiait ainsi dans la répartition des magasins entre les entrepreneurs : l'HPLM occupa cinq magasins complets en 1917, la Compagnie Havre-Paris de Duchemin disposait de 17 chalands de fer et 15 bateaux à 736 Cf. précédemment sur la rénovation du bassin de la Villette. Bernard Le Sueur, La « Grande Batellerie », 150 ans d'histoire de la Compagnie Générale de Navigation XIXème-XXème siècles, Coédition, La Mirandole-Pascale Dondey, éditeur-Ville de Conflans-Sainte-Honorine, Musée de la Batellerie, 1996, 163p. 737 228 vapeur en 1887, ajoutant huit péniches à vapeur de 220 t, trois vapeurs porteurs marins de 200 tonnes, 17 chalands de 320 t. Une tentative de structuration des usagers : la création du Syndicat du Bassin de la Villette L'importance de l'activité du bassin de la Villette incita ses usagers à se regrouper afin de défendre leurs intérêts. En 1884, ceux-ci se groupèrent en un syndicat adoptant la dénomination de « Syndicat du bassin de la Villette et des Canaux Adjacents ». La création du syndicat fut accueillie plutôt favorablement par la direction des canaux. Ce syndicat intervenait souvent sur les problèmes de navigation ainsi que sur les questions touchant l'outillage portuaire. Il porta particulièrement son attention sur la navigabilité du canal de l'Ourcq et son entretien. Il était épaulé dans cette tâche par le Syndicat de la Navigation de l'Ourcq qui avait été créé, quant à lui, en février 1881. Le syndicat du bassin de la Villette était exclusivement un syndicat de défense des intérêts privés. Il intervint depuis sa création auprès de l'administration des canaux afin de formuler souhaits et protestations. Les entrepreneurs du bassin de la Villette entendaient conserver certaines prérogatives comme l'établissement d'appareils de levage de force moyenne et d'en être ainsi les exploitants. Ils préféraient investir dans l'achat investir d'un engin plutôt que de verser des droits d'usage à la direction des canaux. Cependant, il n'était pas toujours possible de se passer complètement des services de l'administration, notamment concernant la dotation d'un outillage d'une certaine importance comme ce fut le cas pour une grue de 50 000 tonnes de puissance qui impliqua l'intervention des finances de la Ville de Paris. Au cours des deux dernières décennies du XIXe siècle, l'essor industriel et commercial autour du bassin de la Villette résulte de manière indiscutable des aménagements effectués dans le cadre du plan Freycinet, et plus particulièrement, ceux réalisés en Basse-Seine et sur le canal Saint-Denis. Pourtant, conçu sous le Consulat, l'ambiguïté de sa vocation738 en faisait une infrastructure hybride. Tout compte fait, sa vocation industrielle et commerciale ne s'affirma qu'assez tardivement. S'il semblait solidement ancré dans le tissu économique local, comme en témoignait la prépondérance de négociants, ses dimensions interdisaient l'établissement de sites de production. Le plus curieux était que son ambivalence n'avait guère favorisé la liaison avec les chemins de fer, même s'il profitait de l'émulation créée par 738 Isabelle Backouche, « Mesurer le changement urbain à la périphérie parisienne. Les usages du Bassin de La Villette au XIXe siècle », Éditions de l'E.H.E.S.S. in Histoire & mesure, janvier 2010, vol. XXV, pp. 60-65. 229 l'activité autour des gares 739 . Cette stricte séparation manifestait l'âpreté des relations intermodales et le fait qu'il s'agissait d'un outil industriel incomplet. Sans doute, ce constat pourrait être formulé en des termes assez proches pour les gares intra-muros, tant il était vrai aussi, que les pouvoirs publics s'efforcèrent de contenir l'activité industrielle et commerciale 740 de la capitale. Cette incomplétude allait d'ailleurs susciter divers projets d'agrandissement du bassin de la Villette741. 739 Et inversement. Par activité commerciale, on entend le commerce de gros, l'entreposage, le grand négoce, et non, bien entendu, le commerce de détail qui connut un développement significatif et ne fut pas découragé par les pouvoirs publics, comme le montre l'essor des grands magasins. Il s'agissait en réalité d'activités plus proches de l'industrie. 741 François Maury, Le port de Paris, depuis un siècle, Paris, thèse de droit, Impr. de Suresnes, 1903, pp.236240. 740 230 Conclusion : La singularité et le rôle méconnu du port de Paris. Le plan Freycinet avait échoué autant par la dérive financière que par les craintes que suscitaient le renforcement du réseau d'État entre 1879 et 1881 qui pouvait signifier le rachat de l'ensemble du réseau. En outre, l'engouement du public à l'égard de cette politique de travaux publics s'était dissipé, car elle avait montré ses limites et s'était révélée dispendieuse, et dans le cas des aménagements fluviaux, ne pouvait produire des résultats tangibles que sur le long terme. Les préoccupations s'orientèrent alors vers les dépenses liées aux conquêtes coloniales et à l'instruction publique, tandis qu'une partie de l'épargne se tournait vers des investissements à l'étranger742. Les conséquences du plan Freycinet et du projet de loi Guyot ne furent pas sans ambiguïté. En effet, si cette politique de travaux publics permit aux voies navigables de résister à la concurrence des chemins de fer, les conditions de son ajournement posèrent les bases de ses limitations. La dispersion des dépenses contribua paradoxalement à des déséquilibres en termes de réseau, qui allaient se révéler lourds de conséquences pour la batellerie. Dans le cas qui nous concerne, les aménagements insuffisants des canaux du nord de la France et les prodigieuses avancées de la navigation sur la Seine, notamment la ligne entre la capitale et la mer, allaient s'avérer problématiques dans un pays devenu plus favorable au protectionnisme743, et de ce fait, affaiblir la position de la batellerie. L'ironie résidait dans le fait que les républicains, pourtant plutôt hostiles initialement aux grandes compagnies, ont finalement contribué, grâce au plan Freycinet, à un renforcement des monopoles de ces dernières. La convention de 1883 signifia à brève échéance un répit pour les compagnies ferroviaires, à savoir qu'elles avaient évité le rachat, mais elles avaient préservé leur monopole au prix de contreparties assez lourdes sur le long terme. Cela allait signifier une intensification de la concurrence avec les voies navigables et affaiblir la compétitivité de ces dernières, surtout pour ce qui était des canaux. Dans le même temps, la convention de 1883 combinée avec la suppression des droits sur la navigation intérieure en 1880 eurent pour corollaire un désintérêt insidieux des pouvoirs publics à l'égard la navigation intérieure. La politique menée à cette époque revenait en quelque sorte à une forme d'étatisation des deux réseaux, étatisation involontaire et paradoxale tout au moins pour les voies navigables, car elle concernait plus le réseau que son exploitation et son outillage. En réalité, elle n'avait été ni vraiment souhaitée, ni même réellement théorisée. Il s'agissait avant 742 Allain-Targé, « Discours lors de la discussion de la convention de 1883 », in Journal Officiel, p.1761. Yasuo Gonjo, « Le plan Freycinet. Un aspect de la grande dépression économique », in Revue historique, juillet-septembre 1972, p.79. 743 231 tout de mesures pragmatiques visant à répondre à des besoins ponctuels de la navigation fluviale, mais elles avaient servi à faire pression sur les chemins de fer et à les contraindre à modérer leurs tarifs et améliorer l'exploitation de leur réseau. En ce sens, l'intérêt du plan Freycinet s'était révélé triple si l'on ajoutait les services rendus aux industries et aux commerces situés sur les voies navigables. Cette « étatisation » témoignait aussi de l'échec de politiques d'essence libérale cherchant à améliorer le rendement des voies navigables. Le paradoxe résidait dans la nécessité par défaut d'une intervention étatique afin de soutenir les conditions indispensables au maintien de la libre concurrence. Dans la région parisienne, la batellerie semble avoir suivi une évolution différente de celle du mouvement global de l'économie nationale. En effet, la navigation connut un essor considérable après une période, il est vrai, de difficultés, mais qui correspondit paradoxalement à une période de croissance de l'économie nationale (début des années 1850), mais récession économique ne signifie pas nécessairement crise des transports 744 . L'intensification de la concurrence exigeait de réduire le coût des marchandises, et notamment du transport, à une époque où l'offre de transport n'était pas aussi variée qu'aujourd'hui, la main-d'oeuvre peu onéreuse étant relativement abondante. À contrario, un mode de transport susceptible de convoyer en masse des marchandises de faible valeur, et ce, à moindre coût, n'était pas si courant. À l'époque, seuls trois modes de transports en étaient capables : le transport maritime, mais celui-ci ne concernait que marginalement le transport terrestre, le transport ferroviaire et enfin la voie fluviale. La voie ferrée était certes, rapide, mais le risque était, aux yeux des contemporains, de voir se créer un quasi-monopole des grandes compagnies de chemins de fer, plaçant les industriels et les commerçants dans une situation d'otages. Par ailleurs, lors de la « crise ferroviaire », les grandes compagnies de chemins de fer s'étaient révélées incapables d'assumer entièrement les transports de marchandises. Un mode alternatif apparaissait nécessaire et l'on envisagea le rôle assigné à la batellerie comme modérateur des prix dans la capitale, notamment par l'importation de charbons, blés et vins étrangers. Autre signe que le port de Paris semblait se jouer de la conjoncture de l'époque, c'était le fait que durant cette période, le port affirma sa fonction de port de consommation, permettant, entre autres, l'importation de charbons anglais ou belges, de blés des nouveaux mondes ou même de Russie, ou encore de vins algériens ou espagnols En effet, beaucoup attribuèrent la récession aux divers traités de libre-échange, et plus particulièrement, celui de 744 D'ailleurs, paradoxalement, un contexte de prospérité économique, du moins de croissance, peut provoquer une crise des transports par un essor non maîtrisé des flux. 232 1860, passé avec la Grande-Bretagne, si bien que des mesures protectionnistes ont été prises, afin de protéger, entre autres, l'agriculture française745. Il s'agissait notamment des fameuses lois Méline. Pourtant, leurs effets étaient somme toute à relativiser dans la mesure où l'analyse du trafic du port de Paris en témoigne, elles n'ont pas empêché ces trafics de se développer. La batellerie a joué un rôle comparable à celui de la navigation intérieure allemande746 : inciter la concurrence entre les modes de transports pour réduire à la fois le coût des charbons importés et des charbons produits dans le pays. On était donc bien loin de l'autarcie et des mesures protectionnistes qui allaient être prises durant les années 1930, comme le fit remarquer Schumpeter : « Mais, l'un dans l'autre, et par comparaison avec ce qui devait se passer pendant et après la Première Guerre mondiale, on peut dire sans beaucoup se tromper que, dans les principes et la réalité pratique, le commerce mondial était fondamentalement libre. Il faudrait prendre comme référence les principes professés par les partisans extrémistes de la liberté du commerce pour considérer que ce monde était agressivement protectionniste, tout au moins si l'on exclut les États-Unis, la Russie et l'Espagne747.» La batellerie a su trouver un nouveau souffle par une refonte complète de ses modalités. La question consiste donc à déterminer s'il y a eu effectivement l'émergence d'un « système technique » fluvial748. Par ce terme, il faudrait entendre un cycle liant la matière première, énergie, la production et le transport, correspondant aux fameuses « grappes d'innovations » de Schumpeter749 : par exemple, fer-charbon-vapeur-chemins de fer. Pour le port de Paris, il s'agirait de lier le charbon750, le fer, la navigation, les grues Les navires, construits en fer, réclamant du charbon pour leur production et même chose pour les grues Voir Paul Bairoch, Commerce extérieur et développement économique de l'Europe au XIX e siècle, Paris, Mouton, 1976, 355p. 746 Rainer Fremdling, « Les frets et le transport du charbon dans l'Allemagne du Nord, 1850-1913 », in HES n°1, 1992, pp.31-60. 747 Joseph A. Schumpeter, Histoire de l'analyse économique, tome III L'âge de la science, Paris, tel Gallimard, traduit de l'anglais sous la direction de Jean-Claude Casanova, 1983 pour la traduction française, p.30. Le livre sortit en anglais en 1954 sous le titre History of economic analysis. 748 Bertrand Gille, « La notion de ''système technique'' (essai d'épistémologie technique) », in Culture technique, 1979, n° 1 ; pp. 8-18. 749 Joseph Schumpeter, Théorie de l'économie économique. Recherche sur le profit, le crédit, l'intérêt et le cycle de la conjoncture, traduit de l'allemand par Jean-Jacques Anstett, Paris, Dalloz, 1999, 371p. ; Joseph Schumpeter, Capitalisme, socialisme et démocratie, traduction de Gaël Fain, Paris, bibliothèque historique Payot, 399p. 750 À propos de la question du charbon dans la région parisienne: « Nouvelle ville, nouvelle vie : croissance et rôle du réseau gazier parisien au XIXe siècle », Jean-Pierre Williot, Paris et ses réseaux : naissance d'un mode de vie urbain XIXe-XXe siècles, publié sous la direction de François Caron, Jean Dérens, Luc Passion et Philippe Cebron de Lisle, Paris, Bibliothèque historique de la Ville de Paris, 1990, pp.213-239. ; « Création et développement du réseau électrique parisien 1878-1939 », Alain Beltran, ibid., pp. 241-257. Voir encore dans le même ouvrage : « Se chauffer à Paris au XIXe siècle » par Afred Fierro, pp. 207-212. 745 233 Toutefois, le problème ne s'avère pas si simple à résoudre dans le sens où jusqu'à la Première Guerre mondiale, la motorisation éprouva bien des difficultés à s'imposer, les coques en fer restaient exceptionnelles. En outre, l'outillage public demeurait rare et il s'agissait souvent de matériel d'occasion 751 L'émergence de grandes compagnies de transport, telles que la Compagnie générale HPLM n'a pas contribué de façon décisive à la modernisation du secteur. Pire encore, les compagnies de touage n'avaient aucun intérêt à un approfondissement excessif des cours d'eau. Elles appelaient plutôt à des améliorations minimales qui leur garantissaient une clientèle soucieuse de bénéficier d'une offre crédible face aux mariniers dont les moyens financiers et intellectuels apparaissaient bien plus limités pour espérer une modernisation considérable du parc fluvial français. D'ailleurs, ce constat pouvait être étendu au reste des autres compagnies fluviales. Elles cherchaient à tirer profit du désordre global de la profession, ce qui leur procurait une meilleure visibilité au milieu d'un secteur désordonné. On ne peut pas dire non plus que la construction de péniches ait contribué au développement économique dans des proportions comparables à ce qui s'est vu pour les chemins de fer ou l'automobile752. D'une certaine manière, c'est une batellerie faite de « bric et de broc » qui a servi l'industrialisation ! Ce qui rend d'autant plus singulier l'histoire de la batellerie dans la seconde moitié du XIXe siècle jusqu'en 1914. La singularité du port de Paris repose encore sur le rôle de l'État753. Si ce dernier a incontestablement contribué au développement, à la refonte du transport fluvial, son rôle, en ce qui concerne les infrastructures fluviales s'avère plus que modeste, hormis les canaux de Paris, seul acte volontaire de reprise en main d'une infrastructure portuaire fluviale, encore faut-il nuancer par les faits qu'il s'agit de la Ville de Paris et d'une appropriation d'une rente financière que représentait l'approvisionnement en eau, et accessoirement les droits de navigation. En effet, comme on l'a vu, ce sont avant tout les ingénieurs des Ponts et Chaussées qui ont repensé la batellerie, mis au point les innovations techniques. Il s'agit là d'ailleurs d'une attitude originale dans la mesure où l'on peut parler d'un « dirigisme au service de l'initiative privée », dans la mesure où il s'agissait d'offrir une infrastructure utile aux entreprises privées, sans qu'il ait été question de nationalisation, ou même d'aide, sous forme de prêt ou autres, aux compagnies de transport fluvial. De ce point de vue, le cas diffère sensiblement des chemins de fer. 751 Adrien Legrand, La condition économique et sociale des mariniers du Nord, thèse pour le doctorat en droit, université de Nancy, Merville, impr. de L. Loïez, 1910, p.33. 752 Encore que cette question mériterait d'être étudiée, s'il existe des sources permettant de réaliser une telle analyse. 753 Pierre Rosanvallon, L'État en France de 1789 à nos jours, Paris, Le Seuil, L'Univers historique, 1990 ; coll. Points Histoire, 1993 et 1998. 234 Pour finir, le port de Paris prit sa physionomie moderne durant cette période, à savoir un « « port » de consommation », transportant des marchandises pondéreuses, et ce, grâce aux efforts des pouvoirs publics pour moderniser le réseau fluvial. Pourtant, ces derniers ont jusqu'alors peu oeuvré pour les infrastructures portuaires à proprement parler. 235 CHAPITRE IV. PARIS PORT DE MER, UN CONTRE-PLAN FREYCINET : ENTRE MYTHES ET RÉALITÉ. Introduction : entre imaginaires et réalités. Jusqu'ici, a été envisagé ce que l'on pourrait désigner comme le « port de Paris réel754», c'est-à-dire tout ce qui concernait l'activité portuaire, le trafic, les mutations du transport fluvial Dans le présent chapitre, on abordera un aspect plus « mythique 755 », renvoyant à la représentation que les contemporains s'en sont faite. Certains aspects utopiques ont, en fait, déjà été évoqués dans cette recherche 756 . La première caractéristique de ces utopies réside dans une volonté de transformer la structure commerciale parisienne, notamment par le biais de la navigation fluviale. « Paris port de mer » a constitué un thème récurrent, pour ne pas dire obsessionnel, de la question portuaire parisienne au XIXe siècle, défrayant la chronique jusqu'à la veille de la Première guerre mondiale, voire au-delà Cette question semble pourtant avoir désintéressé les historiens. Sans doute l'un des ultimes vestiges du mythe, la nouvelle de Blaise Cendrars est demeurée célèbre. La première à avoir « ressorti des cartons », selon l'expression de l'écrivain, a été certainement Michèle Merger757 dans sa thèse. L'historienne semble y percevoir un réel enjeu économique. D'autres auteurs évoquent la question, mais ne portent leur intérêt que sur les aspects pittoresques 758 . Peu prennent finalement la question au sérieux. Certes, les cartes postales du début du XXe siècle, de par leur caractère humoristique, n'encouragent guère à mieux considérer cette question. La thématique des canaux maritimes cependant a littéralement obnubilé le XIXe siècle si bien qu'il paraît surprenant, pour nous contemporains, de constater la surabondance des documents se rapportant à Paris port de mer qui a mobilisé des individus farfelus pour certains, mais 754 D'ailleurs, on a pu se rendre compte que le terme de « port de Paris » était lui-même sujet à caution, car, considéré dès l'époque, comme le produit de « technocrates » 755 Il est difficile de qualifier cette approche de la question portuaire. L'emploi de « mythique » plutôt que d'autres termes, tels que « chimérique », « fabuleux », pose le risque d'un jugement de valeur : au fond, il est difficile de trancher pour Paris port de mer, dans la mesure où aucun de ces projets n'a pas vu le jour. Le terme « mythique »paraît le plus neutre - celui de mythologique semblant trop fort et mal adapté à la question – tout en prenant en compte l'aspect représentatif de ce thème. On peut aussi l'associer à celui d'utopie. Le mythe signifie à quel point il a marqué les esprits et a guidé les conceptions postérieures. Mais il renferme bien entendu une dimension utopique. Le terme d'utopie peut donc lui être associé aussi. 756 Dans sa thèse, Isabelle Backouche met bien en évidence le lien entre la question des entrepôts et de Paris port de mer, mais sans l'aborder. 757 Michèle Merger, La politique de la IIIe République en matière de navigation intérieure de 1870 à 1914, thèse de l'université de Paris-IV sous la direction de François Caron, 1979, 451p. 758 Jean-Pierre Arthur Bernard, Les deux Paris : Essai sur les représentations de Paris dans la seconde moitié du dix-neuvième siècle, Seyssel (Ain), Champ-Vallon, 2001, pp. 88-91. L'ouvrage est fort intéressant pour aborder l'histoire de la représentation de Paris par ses contemporains. L'évocation de Paris port de mer demeure toutefois fort succincte, si bien que le danger consiste à ne voir en Paris port de mer qu'un événement folklorique. 236 également la « crème » des ingénieurs et scientifiques. Il ressort de tout cela l'impossibilité de faire l'impasse de ce thème incontournable, dès lors que l'on désire aborder la question du port de Paris. Après une évocation de Paris port de mer, des origines à Bouquet de la Grye, ce chapitre envisagera les divers groupes d'intérêts, favorables ou hostiles. Enfin, on se focalisera sur la portée de Paris port de mer, à la fois dans l'imaginaire et les faits, avec le développement du transport fluviomaritime. Sur le plan méthodologique, cette question combine histoire des techniques, histoire sociale, économique, des mentalités et même se penche sur des considérations stratégiques. Il ne s'avère guère envisageable de faire abstraction de chacun de ces éléments. La difficulté consistera à tenter d'articuler différentes thématiques. Cela suppose de passer en revue les divers projets, en n'omettant pas les aspects techniques, pouvant paraître certes, très descriptifs, pour ne pas dire rébarbatifs, mais tout de même indispensables à la compréhension du propos. Il s'agit de suivre les « méandres »759 de dossiers techniques parfois obscurs, mais dont la prise en compte se révèle essentielle pour envisager les enjeux plus larges liés à une question qui a tant fasciné les contemporains. Leur étude même constitue un argument pour montrer la réalité de Paris port de mer. Celui-ci ne relève pas du simple folklore, il mérite une étude approfondie pour lever à la fois le voile sur les mystères autour de cette question et éclairer sur une facette méconnue, mais instructive de l'histoire parisienne. I. DES INTÉRÊTS CONTRADICTOIRES. 759 Au sens propre comme au sens figuré. 237 A. Les projets de Bouquet de la Grye : un contre-plan Freycinet. 1. Création de la Société d'études de Paris-Port-de-Mer760. La seconde moitié du XIXe siècle connut une profusion de projets de canaux maritimes reliant Paris à la mer. Les plus marquants furent certainement ceux de Bouquet de la Grye, soutenus par la Société d'études de Paris-Port-de-Mer. Ingénieur hydrographe, Anatole Bouquet de la Grye se fit chef de file des défenseurs de l'idée de Paris port de mer. Anatole Bouquet de La Grye était sorti de l'École polytechnique en 1847 pour devenir ingénieur hydrographe. Sa carrière a commencé par un relevé des côtes de l'Île d'Elbe, de la Toscane et une reconnaissance de la Loire-Atlantique (1853). Il voyagea en NouvelleCalédonie pour effectuer des relevés des côtes et produit 14 cartes détaillées. En 1861, il s'est rendu à Alexandrie (Égypte) afin de réaliser des relevés de la ville. Par ailleurs, il était astronome et géodésien, il a ainsi été chargé de missions astronomiques en Nouvelle-Zélande et au Mexique. Il a étudié les côtes de l'Atlantique et créé le port de La Pallice (La Rochelle). Il est devenu membre de l'Académie des sciences en 1884 et président en 1902. Ce personnage ne sortait pas de nulle part, il s'agissait donc d'une figure scientifique éminente et respectée rn France de la seconde moitié du XIXe siècle. Il élabora un projet dès 1881 qui connut plusieurs modifications successives : un canal reliait avec une seule écluse Rouen et Poissy, où devait être créé un vaste port L'ingénieur estimait cette agglomération suffisamment proche de la capitale, s'appuyant sur l'exemple anglais : les nouveaux docks de la Tamise étaient plus éloignés du coeur de la capitale britannique que ne l'était Poissy de Paris L'exemple des villes étrangères nouvelles, américaines, australiennes ou encore indiennes n'hésitant pas à placer leur port loin de la ville, l'avaient conduit à placer les quais de Paris port de mer à 20km de Paris. Le projet prévoyait aussi une prolongation de ce canal coupant alors la boucle de la Seine à SaintGermain avec le nombre d'écluses nécessaires pour élever les navires au niveau de la Seine à Saint-Denis Il fondait la viabilité économique de son projet sur l'activité normande pour le maintien des profondeurs aval à la capitale. Le premier projet s'avérait néanmoins trop dispendieux : 350 millions de francs Ce qui l'amena à l'abandonner lui-même. En guise d'amélioration à son projet, il proposa la création de deux écluses provisoires : l'une à Poses, l'autre à Rolleboise-Méricourt. Le canal passait alors de Poissy jusqu'à Clichy, l'une d'elle 760 ACCIP IV-4.61 (9), Société d'études coloniales et maritimes, 18, rue Donnou, Paris, le 27 septembre 1890, signé : Baron Michel, secrétaire général, Sicre de Fontbruce, vice-président de la société. 238 devant disparaître dans un temps limité, pour obtenir ainsi un bief unique d'Andrésy au quai de Clichy. Les projets de Bouquet de la Grye trouvèrent un appui solide, financier, politique et moral grâce au soutien d'une société d'études. Fondée le 15 septembre 1885, la Société d'études de Paris-Port-de-Mer disposait d'un capital de 300 000 francs divisé en 60 parts de 5 000 francs, et placée sous le patronage des vice-amiraux Thomasset et Jauréguiberry. Ce patronage garantissait à la société une force morale non négligeable. Bouquet de la Grye réduisit la dépense prévue sous la pression de la Société d'études, la faisant passer de 256 à 150 millions de francs. Le second projet consistait en un canal suivant le cours de la Seine, coupant en deux ponts les boucles formées par le fleuve entre Oissel et Pont-de-l'Arche et entre Sartrouville et Bezons Il en résultait ainsi un abaissement du trajet de 33 km, obtenant ainsi 185 km contre 218km761. L'idée de Bouquet de la Grye était que la coupure de deux boucles sur cinq sections permettait d'éviter de nombreux ponts gênant de par leur tirant d'air, le passage des navires maritimes plus hauts que les navires fluviaux. Une des difficultés de la navigation séquanienne résidait effectivement dans ces boucles qui ralentissaient ou plus précisément en rallongeaient le parcours. La navigation fluviale en Basse-Seine se trouvait désavantagée par rapport au transport ferroviaire. La voie ferrée de Paris à Rouen traversait la boucle d'Oissel sur deux ponts. Concernant la boucle de Sartrouville, deux voies la franchissaient : celle entre Rouen et celle de Paris à Saint-Germain, toutes deux sillonnées par de nombreux trains Or, les travaux envisagés supposaient donc la modification de quatre ponts de routes et quatre ponts de chemins de fer Ce qui aurait immanquablement provoqué les protestations de la Compagnie de chemin de fer de l'Ouest. Le moins que l'on puisse dire, c'est que le projet affichait de fortes ambitions. La profondeur du canal prévu atteignait 6,20m, soit la profondeur entre le Havre et Rouen autorisant le passage des navires de 5,90 m, voire 6 m. Certains firent remarquer que seulement 6% des navires entrant au Havre disposaient d'un tirant d'eau de six mètres et audessus « quoique le Havre soit le siège et la tête de la ligne de la Compagnie Transatlantique dont les navires sont les colosses que tout le monde connaît762.» Pourtant, le port du Havre apparaissait relativement vétuste et mal équipé vers la fin du XIXe siècle, comparativement à ses homologues nord-européens La navigation maritime allait en outre connaître une 761 Comptés du pont de Clichy jusqu'au pont de Brouilly à Rouen. Edmond Brochon, Paris port de cabotage. Historique de la question. Études sommaires des Moyens d'exécution, Comité d'études de Paris-port-de Cabotage. Avec lettres de l'Amiral Réveillère et M. Alphonse Humbert, Paris, Aux bureaux de la « marine de France, 1894, p.9. 762 239 évolution cruciale, pour ne pas parler de révolution, grâce à la substitution de la voile par la vapeur, offrant des perspectives inédites, notamment en matière de capacité de tonnage. Toutefois, cette nouvelle donne technique remettait aussi en cause le projet de la Société d'études Le projet de Bouquet de la Grye défendu par la Société d'études de Paris-Port-de-Mer rencontra un certain succès. Sur le plan politique, il recueillit l'adhésion du Parlement, de 23 conseils généraux, de 123 conseils municipaux et de tous les corps électifs de Paris, des Congrès économiques, commerciaux et ouvriers Devant un tel engouement de l'opinion, les pouvoirs publics étaient amenés à prêter attention à ce projet. Le ministre des Travaux publics Yves Guyot reçut de nombreuses délégations du commerce et s'engagea à soumettre le projet aux enquêtes et à accorder la concession du canal maritime de Paris à Rouen à la Société d'études Paris-Port-de-Mer. Cette société devait se justifier d'une souscription préalable du tiers du capital nécessaire à la réalisation de l'oeuvre, soit 50 millions. Seulement, aucune banque française ne put ou ne désira pas souscrire une part du capital dans ces conditions, la société ne disposant pas non plus du droit de réaliser une émission publique. Cette dernière s'adressa alors aux commerçants et industriels de la France entière : au lieu de 50 millions, la souscription atteignit tout de même à 70 millions, et depuis, la clôture de la souscription, 25 autres millions furent offerts. Face à ce succès, le ministre des Travaux publics annonça au Conseil des Ministres la mise aux enquêtes du projet Paris-Port-de-Mer. L'arrêté ministériel dans lettres des 12 et 18 septembre 1890 rendit officielle cette formalité et étendit les enquêtes à toutes les chambres de commerce de France et des colonies. Le ministre des Travaux publics soumit aux enquêtes le 26 août 1890 le projet « Paris port de mer » présenté par la Société d'études de Paris-Portde-Mer. L'enquête fut ouverte pendant deux mois dans les quatre départements traversés par le canal projeté. 2. Désaccords entre Bouquet de la Grye et vision des Ponts et Chaussées. L'élaboration d'un tel projet questionne sur l'appréciation de ses auteurs à l'égard des travaux effectivement réalisés. Le lecteur qui aurait entamé la lecture de ce travail historique seulement à partir de ce chapitre serait tenté de penser que la navigation en Basse-Seine se trouvait dans un état de délabrement ou même en terrain vierge Or, la réalité se révélait tout autre. Au contraire, la Seine connut depuis le Second Empire, puis plus encore sous la IIIème République, une des phases d'aménagements les plus considérables de son histoire. Mieux 240 encore, les travaux venaient à peine d'être achevés. Ce rappel contextuel pose des éléments de réponse quant aux idées du concepteur Les deux phrases ci-dessous résument assez bien la conception de Bouquet de la Grye : Chose singulière, les ingénieurs des Ponts et Chaussées de notre pays qui, à l'étranger, joignaient dans le congrès leurs votes à ceux de leurs collègues, au point de vue des canaux de pénétration maritime, faisaient, de retour en France, une exception en ce qui concerne la Seine. On ne pouvait, disaient-ils, modifier des travaux en cours d'exécution763. Bouquet de la Grye prenait à contre-pied l'état d'esprit dans lequel l'Administration des Ponts et Chaussées avait envisagé l'aménagement de la Basse-Seine. La loi de 1878764 avait ainsi accordé au ministère des Travaux publics un crédit de 33 millions de francs afin de porter la profondeur du fleuve à 3,20 m, en relevant son niveau par des barrages. L'ingénieur hydrographe exposa son point de vue dans un petit fascicule intitulé Canal maritime de Paris à Rouen daté de juin 1894 765 . Il rappelle que cette même année, une vive controverse se déclencha lors un congrès international siégeant au Trocadéro : « Les ingénieurs et les maires qui en faisaient partie et que l'exposition avait amenés à Paris, transigeaient que cette amélioration était trop grande ou trop petite766.» En effet, la profondeur des canaux de France n'atteignait que deux mètres au maximum, et la batellerie ne pouvait circuler partout qu'avec un tirant d'eau de 1,80 m, ce qui supposait procéder à de nouveaux travaux d'approfondissement sur ces canaux, d'où de nouvelles dépenses Les mesures pouvaient d'un autre côté être jugées trop faibles : « avec le peu de hauteur des arches surbaissés des ponts, on ne peut songer faire venir des navires de mer à Paris767.» Selon Bouquet de la Grye, presque tous les membres du Congrès avaient émis le voeu de créer un véritable canal maritime doté d'une profondeur de sept mètres entre Paris et Rouen. Par ses conclusions, le Congrès inspira de nombreuses personnes à envisager comment relier Paris à la mer : soit par des coupures, soit par un canal maritime traversant la terre ferme Cet enthousiasme n'était pas proprement français, mais européen : on rêvait de relier les capitales à la mer Rome port de mer, Berlin, Bruxelles, Manchester Devant les chambres prussiennes, le Kaiser avait annoncé qu'après avoir achevé la voie de grande navigation entre Berlin et Siettin ainsi que d'autres rectifications, le port d'Emden allait être 763 Commission parlementaire. Déposition de M. Bouquet de la Grye op. cit., p.1. Voir chapitre précédent sur le plan Freycinet. 765 Ibid. 766 Ibid. 767 Idem. 764 241 en état d'être utilisé par les bateaux à vapeur de haute mer afin de rendre indépendantes les industries des provinces rhénanes : Pendant ce temps, les congrès de navigation se succédaient, tenant leurs assises à Vienne, Bruxelles, etc. et l'idée de la pénétration des canaux prenait si bien corps – par suite de l'abaissement successif du prix des transports par des navires, tandis que ceux de la batellerie restaient presque stationnaires - que toutes les capitales d'Europe rêvaient de devenir ports de mer, et que des projets sérieux étaient présentés pour faire arriver de grands navires à Saint-Pétersbourg, à Manchester, à Bruxelles, etc.768 Il invoquait l'abaissement des coûts des tarifs maritimes, contrairement à ceux de la batellerie qui paraissaient stagner. L'aménagement d'un canal maritime signifiait, à ses yeux, favoriser un trafic plus rentable La stabilité des prix des frets fluviaux pouvait alors s'expliquer par l'ampleur de son essor. L'argument principal des promoteurs de Paris port de mer demeurait toutefois le « rattrapage » des ports européens dans le domaine commercial et portuaire. Pour justifier leur dessein, ils se plaçaient dans le contexte européen. Dans le même temps, Bouquet de la Grye élabora une critique, radicale du plan Freycinet, concernant les infrastructures de transport de marchandises sur la Basse-Seine. Ses critiques n'étaient pas tant techniques : « Les travaux dont il est ici question sont terminés en effet depuis six ans ; ils ont été, il faut le dire, fort bien exécutés769», mais se portaient plutôt sur le plan des intérêts et profits qu'en a pu tirer l'État : « et l'administration s'est applaudie des résultats qu'elle avait obtenus tant au point de vue des ouvrages eux-mêmes que des résultats commerciaux qui en ont été la conséquence770.» Si l'on considère le trafic de 1885, avant l'achèvement des travaux, le trafic s'élevait entre Paris et Rouen (descente + remonte) à 792 000 t, le prix moyen était de 5 francs, quatre/cinq ans après, le trafic atteignit 1,2 millions de tonnes en 1892, avec un prix de 3 francs - que Bouquet de la Grye et la Société évaluaient réellement à 4 francs - d'où un bénéfice évalué pour le commerce de 800 820 francs. Si les travaux coûtèrent cher, l'entretien de la Seine entre Rouen et Paris nécessitait, selon lui, 500000 francs, soit une centaine de milliers de francs de plus qu'avant les grands aménagements, le bénéfice net de l'opération ressortant à 700 000 francs environ771. La concurrence de la batellerie ôta par ailleurs les quatre cinquièmes du trafic de la Compagnie de l'Ouest. Or, les conventions de 1883 contraignaient l'État à garantir le revenu des actionnaires : 768 Ibid. Ibid., p.4. 770 Idem. 771 Ibid. 769 242 en somme, l'opération, qui n'a créé aucune source nouvelle de richesse, et qui n'a point fait augmenter le tonnage de Rouen – puisque de 1880 à 1892 il est passé de 2 millions de tonnes à 1 932 000 tonnes- n'a agi qu'en déplaçant chaque année 1 million de francs environ de péage au détriment de l'État, possesseur en réalité des deux voies qui se font concurrence772. De manière paradoxale, Bouquet de la Grye reprenait à son propre compte certains arguments des détracteurs du plan Freycinet, à savoir des travaux extrêmement onéreux, dont le coût n'avait pas été compensé par la suppression des droits de navigation en 1880773. Il se montrait ainsi plus ferriste que les ferristes ! Les aménagements de la Seine n'auraient contribué qu'à retirer le trafic et le volume d'affaires qui l'accompagnait aux chemins de fer au profit d'une batellerie. Sur ce point, les plus fervents ferristes n'auraient effectivement rien eu à redire. Cependant, Bouquet de la Grye allait beaucoup plus loin. Il se plaçait en porte-àfaux à l'égard de la conception générale des Ponts et Chaussées en matière d'infrastructures. Il y aurait lieu de s'interroger s'il ne fallait pas y percevoir une rivalité entre ingénieurs hydrographes et ceux des Ponts et Chaussées, entre ingénieurs et savants Depuis la fin du XVIIIe siècle, les Ponts et Chaussées s'étaient accaparés la décision pour les questions d'infrastructures, et cela au détriment des scientifiques de l'Institut774. La question de Paris de mer constituait pour lui une revanche du savant contre des technocrates aux conceptions beaucoup trop orthodoxes, qu'il jugeait de surcroît responsable du retard français. À juste titre, il rappelait que les deux réseaux –fluvial et ferré- appartenaient de facto à l'État. Or, il dénonçait la concurrence entre la batellerie et le chemin de fer, dont le prix s'est révélé ruineux pour les pouvoirs publics, et dont les résultats ne lui semblaient guère convaincants : le canal maritime qu'il projetait devait au contraire faire affluer en direction de la capitale un tonnage de deux à trois millions de tonnes775, accroissement qui aurait été dû à une prise de trafic sur les ports du Nord de l'Europe. Les opérations de manutention, la redistribution devaient, pour lui, accroître le trafic de la compagnie de chemin de fer de l'Ouest « et qui viendra s'ajouter au dernier cinquième irréductible776.» Les résultats de la compagnie s'en 772 Ibid. F. Berthauld, La concurrence étrangère (L'amendement Versigny), Montdidier, Imprimerie HourdequinDescaux, 1888, 32p. 774 Fréderic Graber, Paris a besoin d'eau. Projet, dispute et délibération dans la France napoléonienne, Paris, CNRS éditions, 2009, 417p. 775 Le volume du tonnage n'était pas très exagéré, puisqu'il correspondit à peu près à la réalité, le trafic atteignant deux millions de tonnes en 1900 et même quatre millions en 1913 sur la 8e section de la Seine. Son argumentation reposait donc sur des prévisions de trafic assez exactes de section entre Paris et Rouen. Ce n'était donc pas la faiblesse du projet, celle-ci résidait plutôt dans l'intérêt ou non de creuser un canal maritime pour obtenir un volume de trafic assez comparable. 776 Commission parlementaire. Déposition de M. Bouquet de la Grye, op. cit., pp.4 -5. 773 243 seraient trouvés améliorés, l'État n'ayant plus à verser la garantie d'intérêts qui alourdissait alors le budget Le projet de Bouquet de la Grye n'était donc pas sans soulever d'oppositions, et l'on devine rapidement que les ingénieurs des Ponts et Chaussées alors en service dans l'Administration n'allaient pas se montrer des plus disposés à consentir à un projet qui, tout compte fait, contredisait radicalement les travaux qu'ils avaient conduits depuis des années et ce n'était pas les seules oppositions. Malgré tout, Bouquet de la Grue s'efforça de riposter aux questions de ses adversaires. Il se plaça notamment sur le plan commercial et économique. Le devis et la viabilité commerciale de l'entreprise devaient prendre notamment en considération la concurrence avec la compagnie de l'Ouest, la batellerie et les intérêts des charbonniers du Nord. On a déjà évoqué l'impulsion dont devait profiter le trafic de la compagnie de chemin de fer de l'Ouest. Concernant la concurrence avec la batellerie, les arguments de Bouquet de la Grye ne manquaient pas d'ambiguïté. Tel qu'il avait été imaginé, son projet devait nuire à la batellerie : si la majorité des navires de mer remontaient à Paris, les transbordements à Rouen et au Havre devenaient inutiles. Seulement, à l'instar de la compagnie de l'Ouest, les perspectives de trafic auraient été telles que la batellerie dut y trouver son compte : Si, entre Paris et Rouen, elle croit pouvoir lutter contre le navire, les améliorations projetées lui seront grandement favorables ; elle n'aura plus à se faire écluser à Saint-Aubin, à la Garenne, à Port-Villez, à Meulan d'où un gain de temps et d'argent très appréciable, et comme elle continuera à être affranchie de toute taxe, on ne comprendrait pas ses réclamations777. Afin de ne pas froisser les milieux bateliers, il défendit le maintien de la suppression des droits de navigation. Il s'agissait d'un des points les plus sensibles divisant les détracteurs et les promoteurs des voies navigables. Ainsi, une note de la chambre de commerce de Paris778 précisait que la batellerie pouvait rester exempte de taxe, si elle continuait à naviguer dans les conditions d'alors avec le tirant d'eau de trois mètres. En suivant le cours de la Seine, les navires de mer désireux également d'emprunter cette voie n'auraient été soumis à aucun péage. La batellerie n'aurait pas versé de droit proportionnel pour l'emprunt des coupures de Sartrouville ou d'Oissel en faisant usage des ports, quais et warfs La Société d'études de Paris-Port-de-Mer avançait l'idée que la création d'un canal maritime, si elle était susceptible de réduire les perspectives en Basse-Seine pour la batellerie, allait créer d'autres courants de 777 Déposition de M. Bouquet de la Grye, idem., p.14. ACCIP IV-4.61 (9), Non datée, mais ayant probablement servi pour l'enquête sur le rapport présenté par M. Pozzy présentée à la Chambre dans sa séance du 20 décembre 1899 ; et ACCIP IV-4.61 (9), Rapport présenté par M. Pozzy au nom de la Commission des Voies et Moyens de Communication lors de la séance du 20 décembre 1899, imprimé le 7 mars 1900. 778 244 trafic dans le reste de la France. En ce sens, il s'agissait d'établir un port qui se serait substitué à Anvers : L'accroissement du tonnage de Paris par toutes les voies qui desserviront la place maritime ne pourra que lui procurer de nouveaux éléments d'activité : l'Oise, la Marne, l'Yonne, les canaux en communication avec la Seine, aussi bien du côté des Ardennes que du côté de la Saône jusqu'à Lyon, partiront à Paris et remporteront de Paris bien des marchandises qui prennent aujourd'hui le chemin d'Anvers779. La position de Bouquet de la Grye demeurait équivoque : il tenta de rassurer le milieu fluvial, et ses défenseurs, tout en ayant sévèrement critiqué la philosophie du plan Freycinet, sans d'ailleurs l'avoir évoquée expressément. Il réitéra son opinion après un paragraphe plus rassurant : Dans le cas où sur certains points la batellerie céderait la place aux navires, ce serait au profit de notre commerce, et de nos ingénieurs, dans le Congrès de navigation, s'ils n'ont point ménagé leur sentiment sur l'utilité de la pénétration des canaux maritimes, c'est-à-dire de la prépotence du navire sur le canal780. L'autre risque potentiel du projet était de favoriser l'importation de charbons étrangers, et l'on pouvait craindre l'hostilité des houillères du nord du pays. Là résidait toute l'ambiguïté d'une époque marquée par le dilemme entre protectionnisme et libre-échange781. Paris port de mer était censé renforcer la France par l'afflux de marchandises, mais favorisait-il pour autant la production nationale et par là même la production française ? Conscient de cette ambivalence, Bouquet de la Grye cite les résultats d'un rapport de la chambre de commerce de Rouen, préconisant dans sa conclusion, le rachat du canal de la Sambre à l'Oise afin de faire baisser le prix du charbon de deux francs sur le charbon belge de Charleroi. Ce canal pouvait jouer un rôle de régulateur du prix de la houille, les producteurs du Nord bénéficiant d'une quasi situation de monopole. En déclarant que « le marché régulateur vient du prix de la houille 782 », Bouquet de la Grye visait les propriétaires d'Anzin, de Lens Selon la chambre consulaire rouennaise, dans un rapport de 1892, le prix du wagon de houilles fines était de 18 francs pour les houilles belges, 16 francs pour les françaises et 14,50 francs pour le nord de l'Angleterre et 15,75 francs pour le sud. Bouquet de la Grye en conclut à une quasi parité du prix de la houille. La consommation rouennaise en houille provenait en majorité par navires de mer : sur un total de 579 595 t, 432 000 t étaient arrivées par voie maritime, 12 852 779 ACCIP IV-4.61 (9), Note annexe pour l'enquête de la Société d'Études. Déposition de Bouquet de la Grye, op. cit., p.14. 781 Paul Bairoch, « Commerce extérieur et développement économique : quelques enseignement de l'expérience libre-échangiste de la France au XIXe siècle », in Revue économique, volume 21, 1970, pp.1-33. 782 Déposition de Bouquet de la Grye, op. cit., p.5. 780 245 t par voie ferrée et 19 619 t par batellerie. Les navires au départ emportaient 41 950 t, tandis que la batellerie amont embarquait 97 652 t et le chemin de fer 114 033 t, soit un total de 253 635 t. La batellerie faisait monter donc 97 000 t de houilles et en faisait descendre 19 000 t de charbons français, « la deuxième preuve que le marché de Rouen est loin d'être exclusivement livré à une matière première de provenance étrangère 783 !». Il observa ensuite qu'en 1892, la consommation de houilles étrangères ne constituait que 2,7% de la consommation du département de la Seine (36 000 000 t). Batellerie et Paris port de mer entraient ainsi au coeur du débat sur le libre-échange et la lutte contre les monopoles tels que ceux des chemins de fer et des charbonniers. La concurrence entre les modes de transports et celle exercée sur les charbonniers du Nord jugés tout puissants étaient censées favoriser le reste de la production française, en leur fournissant un combustible à moindre coût. Une des faiblesses des projets de Bouquet de la Grye résidait dans leur propension à s'aliéner les principaux protagonistes concernés. Certes, la chambre de commerce de Paris, représentant le commerce parisien, des appuis politiques non négligeables (municipalité de Paris, département de la Seine) lui apportèrent un soutien, ne serait-ce que moral et médiatique. Cependant, ces lobbies, diffus au demeurant, n'exerçaient aucun pouvoir effectif sur la question. Ils étaient plus séduits par l'idée que véritablement disposés à fournir une aide concrète, et encore moins à ouvrir la bourse, même si de nombreux commerçants avaient souscrit une aide financière pour appuyer le projet Bouquet de la Grye de 1887 auprès du ministre des Travaux publics. Celui-ci se trouvait alors en mesure de soumettre la question aux chambres consulaires. Il ne s'agissait que de voeux, majoritairement favorables il est vrai, il manquait pourtant les décideurs clefs. Bouquet de la Grye se montra sans doute trop maladroit vis-à-vis de l'administration des Ponts et Chaussées, comme en témoigne sa déposition à une commission parlementaire de juin 1894. Tout en appelant la collaboration des ingénieurs de la navigation : « répétons-le, leur expérience sera grandement utilisée pour la construction ou la réfection des quelques ouvrages qui doivent servir à élever les navires du plan d'eau de la mer à celui du quai de Clichy 784 », il ne se priva pas de critiquer l'aménagement de la Seine, non sans dissimuler, une certaine ironie Son projet dénonçait fondamentalement les travaux antérieurs, fort dispendieux, et ayant posé de graves difficultés techniques. Si les travaux se déroulèrent sur six années, comment l'ingénieur hydrographe pouvait-il espérer les convaincre que ce projet grandiose ne nécessitait que quatre années ? À maintes reprises, il fit preuve d'une certaine naïveté, du 783 784 Idem., p.7. Idem., p.12. 246 moins un surcroît d'enthousiasme, tout en reconnaissant lui-même les obstacles considérables des ingénieurs pour des travaux d'aménagement somme toute classiques. Ce dernier point ne les encourageait pas à s'engager dans des entreprises aux perspectives pour le moins hasardeuses : « Disons en terminant que les critiques des ingénieurs sur la dépense probable de la création d'un canal maritime, tiennent peut-être aux mécomptes qu'ils ont eus dans les dépenses d'amélioration de la Seine785.» Les projets de Bouquet de la Grye eurent suffisamment de retentissement pour éveiller l'intérêt du Conseil des Ponts et Chaussées (par la négative)786. Ils ne furent pas les seuls à réagir, de véritables lobbies sont formés pour combattre ou soutenir ces projets. L'idée de Paris port de mer suscita ainsi bien des passions. Ces passions peuvent apparaître a posteriori étranges, pour ne pas dire exotiques, à nous contemporains, nombreux aujourd'hui sommesnous à ignorer tout de la question. Pourtant, la violence de la polémique était bien réelle. Il ne s'agissait pas d'une simple idée en l'air, mais d'un puissant espoir qui mobilisa forces politiques - députés, sénateurs, conseils généraux, municipalités, chambres de commerce etc.-, industriels, citoyens Ce débat n'en mobilisa pas moins une pléthore de redoutables adversaires. On ne tentera pas ici de déterminer, à l'instar des ingénieurs du conseil national des Ponts et Chaussées, si techniquement parlant, le projet de la Société d'études de ParisPort-de-Mer était viable ou non, mais de saisir les motivations de ses adversaires et défenseurs. 3. Un retentissement national : mise à l'enquête du projet en 1890. L'ampleur de l'écho de Paris port de mer transparaît dans l'enquête ouverte le 15 septembre 1890 et close le 15 novembre de la même année 787 . Elle produisit pour le département de la Seine les réponses suivantes : inscription de 196 dires sur le régime spécial, au dépôt de 56 mémoires ou délibérations élaborés du 15 septembre au 15 novembre. Vingthuit délibérations ou voeux antérieurs à l'enquête, émis de 1887 à 1889, furent déposés par diverses collectivités. L'enquête donna lieu à la production de listes imprimées d'adhésion 785 Ibid. Archives de la Section des Canaux de Paris. Ministère des Travaux publics. Construction d'un canal maritime entre Rouen et Paris. Avant-projet de la Société d'études de Paris-port-de-mer. Avis du conseil Général des Ponts et Chaussées, Paris, le 27 décembre 1888, 85p. 787 Voir pour les statistiques et les avis de l'enquête de 1890 : Archives de la Section des Canaux de Paris, Établissement d'un canal maritime entre Paris et Rouen. Dépouillement des résultats de l'enquête ouverte dans le département de la Seine et résumé des dires formulés du 15 septembre au 15 novembre 1890, Paris, Imprimerie et Librairie centrales des chemins de fer, Imprimerie Chaix, 1891, 47p. Consulter également Conseil municipal, Rapport au nom de la 6ème Commission, sur le régime de la Seine, Paris-Port de Mer et l'outillage de Paris présenté par M. George Lemarchand, conseiller municipal, Paris, Imprimerie Municipale, 1911, pp. 316-327. 786 247 comportant un ensemble de 216 signatures. Divers documents étaient parvenus à la Préfecture de la Seine touchant cette enquête après la clôture même de celle-ci, soit vingt délibérations, 39 048 signatures apposées sur des formules imprimées, l'avis de la Chambre de commerce de Paris, ainsi que celui de M. Maes, membre de celle-ci Parmi les 197 dires de particuliers, en incluant l'avis émis postérieurement à la clôture de l'enquête, 182 se déclaraient favorables, 15 défavorablement, dont 7 venant de contreprojets. Sur 19 mémoires émanant de particuliers, 9 étaient favorables au projet, 10 étaient défavorables, dont 5 provenant d'auteurs de contre-projets, d'accords sur le principe, mais divergents sur les moyens d'exécution. 344 638 signatures des 34 4811 produites figuraient sur les listes d'adhésion au projet. Les 173 émanant d'opposants au projet se ralliaient au contre-projet de M. Hennequin. Sur les 345 027 avis émis par des particuliers sous différentes formes, 345 014 s'étaient donc exprimés favorablement au principe proprement dit de ParisPort de mer, 13 seulement étant défavorables. 344 829 étaient favorables au projet soumis à l'enquête pour 198 défavorables Parmi les délibérations émanant de collectivités du département de la Seine, 28 délibérations antérieures à l'enquête étaient favorables, émanant d'un côté du Conseil général de la Seine et de plusieurs conseillers municipaux du département, d'un autre côté de la chambre de commerce de Paris, du comité central des chambres syndicales, de l'Union nationale du Commerce et de l'industrie, et de divers syndicats professionnels. Dix délibérations ou mémoires élaborés par sept conseils municipaux et trois syndicats furent élaborés durant l'enquête, tous favorables. Postérieurement à l'enquête, 19 conseils municipaux avaient aussi adressé des délibérations favorables et la chambre de commerce de Paris avait produit une nouvelle délibération en faveur du projet. La compagnie de Chemin de fer de l'Ouest ainsi que sept sociétés commerciales de transport par voie ferrée s'étaient opposées au projet Concernant les délibérations prises par des collectivités étrangères au département de la Seine, 11 chambres de commerce de l'intérieur 788 , deux chambres de commerce françaises de l'étranger, un tribunal, soit 13 corps constitués se déclarèrent en faveur du projet. En revanche, deux chambres de commerce (Bordeaux et Rouen), deux conseils municipaux (Bordeaux et Rouen), quatre corporations ou sociétés rouennaises s'élevèrent contre le projet. Le gouvernement consulta 125 chambres de commerce en vertu de la circulaire du 12 septembre 1890, c'est-à-dire 102 chambres de commerce de France et de Corse, 5 d'Algérie 788 Lyon, Toulouse, Saint-Étienne, Saint-Malo, etc. 248 et 18 des colonies. Sur les 125 chambres consulaires interrogées par le gouvernement, 113 répondirent de la manière suivante : 38 favorablement, 24 favorablement, avec certaines réserves ou conditions, 48 défavorablement, 3 étant restées neutres. Tableau 3. Résultats de la consultation des chambres de commerce. Avis des chambres de commerce France Algérie continentale Colonies et Totaux protectorats et Corse Favorables 29 4 5 38 Favorables avec réserves ou conditions 24 « « 24 Défavorables 46 1 1 48 Neutres 3 « « 3 N'ont pas répondu « « « 12 Totaux 102 5 18 125 Source : Conseil municipal, Rapport au nom de la 6ème commission, sur le régime de la Seine, Paris-Port de Mer et l'outillage de Paris présenté par M. George Lemarchand conseiller municipal, Paris, Imprimerie Municipale, 1911, p. 322. En dehors des réponses formulées par les chambres de commerce consultées, l'Administration reçut les délibérations de divers corps, sociétés ou compagnies dont la plupart n'avaient pas été saisies des documents émanant de l'Administration et avaient été sollicitées directement par la Société d'études de Paris-Port-de-Mer. Il s'agissait des corps suivants : 6 conseillers généraux et municipaux, 11 chambres de commerce françaises à l'étranger sur un nombre total de 26 existant en 1890, 21 tribunaux de Commerce en France sur un total de 219, cinq chambres consultatives, enfin syndicats et sociétés divers. On obtenait un total de 48 dont les avis se décomposaient ainsi : 27 favorables, 10 favorables avec réserves et 11 défavorables. Ces derniers se composaient des tribunaux de Grasse et de Dax, de la chambre consultative des Arts et manufactures de Louviers, des conseils généraux de Seine inférieure, des conseillers municipaux de Boulogne-sur-Mer, Rouen, Nantes. Les sociétés diverses comprenaient la Corporation des courtiers maritimes du Havre, la Chambre Syndicale de la Marine (Paris)2, l'Union géographique du Nord de la France 2 Ce syndicat défendait en réalité les intérêts de la batellerie, non pas la navigation maritime. 249 B. Des ennemis aussi farouches que variés : Les adversaires de Paris port de mer ne formaient pas un cercle cohérent, mais se composaient plutôt d'une nébuleuse, difficile à définir, dans la mesure ces différents cercles pouvaient réunir des « ennemis naturels » : milieux protectionnistes et libre-échangistes, batellerie et chemins de fer 1. Courants protectionnistes. a) Paris port de mer, un facteur aggravant les importations. L'attitude des différents milieux hostiles à l'idée de Paris port de mer était assez singulière, car réunissant des intérêts par définitions antagonistes 789 : les ports de la Seine inférieures, les autres ports (mer du Nord, Atlantique), les houillères du Nord et du Pas-deCalais790, les producteurs de céréales et de vin français, la batellerie et les compagnies de chemin de fer Par exemple, la Chambre de commerce de Dieppe, reprochaient à l'aménagement de la Basse-Seine de favoriser les importations : Cette exploitation par l'État entraînait, par similitude avec les voies navigables, la libre pratique de la Seine jusqu'à Paris, elle constituerait ainsi une sorte de pénétration gratuite en faveur des houilles anglaises, des graisses exotiques, des vins, en un mot, de toutes les productions étrangères, industrielles ou agricoles 791. L'argument paraissait d'autant plus surprenant que la chambre de commerce de Lille rappela la nécessité de réceptionner les matières premières au plus près des besoins, à savoir notamment des charbons et cotons Or, les importations de charbons britanniques aux ports de Dieppe ou de Dunkerque répondaient parfaitement à ces critères ! La chambre de commerce lilloise n'en était pas non plus à une contradiction près, elle dénonça le détournement de trafic des ports de Rouen et du Havre vers Paris, reprochant d'avoir favorisé la navigation de la Basse-Seine et négligé celle des départements du nord de la France ! La concurrence étrangère, si favorisée déjà par l'approfondissement de la Seine, deviendrait ruine pour l'agriculture, le commerce et l'industrie, et surtout pour nos ports de la Manche. Les marchandises venant de l'étranger pour alimenter les diverses industries, doivent toujours être transportées vers des centres industriels qui consomment ces marchandises792. Les producteurs de blés français accusèrent largement la batellerie de Basse-Seine de favoriser l'intrusion de blés étrangers (argentin, russe, américain), et pour cette raison, du 789 Michèle Merger, Entrant eux-mêmes en concurrence. 791 ACCIP IV-4.61 (9), R. Lebourgeois (Rapporteur), Enquête sur le projet de M. Bouquet de la Grye. Rapport de la Commission. Délibération de la Chambre, Dieppe, Imprimerie Delevoye frères, Levasseur et Cie, Séance du 10 novembre 1890. 792 ACCIP IV-4.61 (9), Chambre de commerce de Lille, séance du 7 novembre 1890, p.6. 790 250 moins en partie, préférèrent la voie ferrée Il en allait de même pour les producteurs de vins (en particulier la Bourgogne qui parvenaient autrefois par l'Yonne) Or, Rouen était un grand port céréalier et les vins espagnols parvenaient par Rouen et Le Havre. De même, les chemins de fer de l'Ouest acheminaient ces mêmes marchandises ! La chambre de commerce de Rouen défendit ainsi la batellerie avec détermination, car cela servait ses propres intérêts. La voie fluviale servait de modérateur sur les prix sur les produits en en Basse-Seine et à destination de la capitale, car les aménagements effectués sur le fleuve avaient instauré des conditions favorables à la concurrence intermodale. À longue échéance, en termes de volume de trafic, les progrès de la navigation contribuèrent à un renversement des équilibres antérieurs entre Basse-Seine et Haute-Seine793. Les producteurs de blés en amont de Paris ne pouvaient donc envisager avec bienveillance, ni l'essor de la batellerie en aval de Paris, ni encore moins l'idée de Paris port de mer. Les insuffisances des conditions de navigation s'étaient révélées néfastes à la Haute-Seine ou aux charbonniers des départements du Nord et du Pas-de-Calais Il semble d'ailleurs étrange que ces derniers n'aient guère songé à encourager un trafic de caboteurs en liaison directe avec Paris, comme ce fut le cas en Grande-Bretagne, ne serait-ce pour faire pression sur les compagnies de chemins de fer et la batellerie pour modérer leur prix Dans ce sens, Paris port de mer pouvait répondre aux besoins de transport des houillères. Toutefois, cette option n'a pas vraiment été prise au sérieux. Paris port de mer a réuni des protagonistes se livrant par ailleurs une concurrence acharnée : la batellerie, directement visée et les chemins de fer. L'hostilité de la Compagnie de l'Ouest ne doit pas surprendre, ayant lutté avec acharnement contre la batellerie, combat qu'elle n'était pas parvenue à remporter de manière définitive. Elle ne pouvait que se montrer hostile à un projet détournant une partie de son trafic, déjà gravement entamé par la concurrence avec la batellerie794 la compagnie de chemin de fer se serait trouvée face à une concurrence intermodale aggravée, elle aurait été contrainte d'abaisser encore ses tarifs pour certaines marchandises, ce qui aurait amené des complications financières supplémentaires En revanche, la position de la batellerie n'était pas entièrement justifiée, dans la mesure où après tout, ce projet apportait d'indéniables améliorations à la navigation entre la mer et la capitale, améliorations qui auraient pu a priori lui profiter. En effet, le désavantage de la batellerie ne résidait pas tant dans sa lenteur intrinsèque, mais dans la longueur excessive du 793 Et ce d'autant plus que les conditions de la Basse-Seine étaient plus prometteuses que celles en amont de Paris. 794 Cf. premier chapitre. 251 tracé, allongée par les méandres du fleuve Inconvénient que la Société d'études Paris-Portde-Mer cherchait précisément à remédier. La convergence d'intérêt paraissait pourtant impossible : cette dernière visait justement la disparition de la batellerie et refusait tout compromis, notamment celui de ne faire payer aucun droit à la batellerie comme c'était le cas sur la Seine. Le canal maritime envisagé menaçait plus précisément la petite batellerie, or celle-ci était perçue comme la garantie pour maintenir des prix modérés. Les compagnies de remorquage et surtout de touage ne pouvaient se montrer favorables à un tel projet, car celuici ne pouvait que contribuer au déclin de leur activité, surtout pour celles travaillant entre Conflans et Paris. Le protectionnisme en France vers la fin du XIXe siècle contribua, sans doute, lourdement à l'échec du projet de Bouquet de la Grye. Au demeurant, la Société d'études ne sut se rallier des intérêts économiques puissants, mais se les aliéna au contraire. Le XIXe siècle a été celui des canaux maritimes : soit avec des liaisons intra océaniques comme les canaux de Suez et de Panama, soit fluvio-océaniques avec le canal de Tancarville, celui de Manchester ou encore le canal Albert Sans parler des innombrables projets n'ayant pas vu le jour. Ces projets autorisèrent les rêves les plus fous, voire dans le cas de leur réalisation effective, mobilisèrent des moyens considérables (canal de Suez, Panama) « Paris port de mer » n'était donc pas un cas isolé. Certains de ces projets connurent le succès, d'autres se soldèrent par des échecs retentissants, l'expérience malheureuse du canal de Panama a sans doute refroidi les esprits de beaucoup : « Le public sait ce que coûte à la nation ce qui s'est produit à Panama ; il est vrai que le travail à exécuter en Seine serait moins gigantesque ; néanmoins, il ne laisse pas que de présenter, les calculs des Ingénieurs le prouvent, des côtés très aléatoires795.» Malgré tout, l'argument a été curieusement assez peu avancé, alors que l'on saisit mal pourquoi la chambre de commerce de Rouen ou celle du Havre s'en seraient tout compte fait privées Si l'argument a pu jouer, il n'a pas été aussi déterminant que l'on aurait pu le croire a priori. Plus que les milieux politiques, c'est l'Administration qui afficha l'hostilité la plus résolue ; « Paris port de mer » contredisait sa conception de la navigation intérieure, et avait fait déjà investir à l'État des sommes considérables qu'il s'agissait de rentabiliser. Souvent les adversaires se rangèrent du côté de l'avis du Conseil général des Ponts et chaussées, évidemment parce qu'il leur était favorable, dissimulant du même coup leurs propres intérêts au nom de ceux de l'Administration Du point de vue méthodologique, leurs motivations par rapport aux objections des ingénieurs de la navigation doivent être distinguées : 795 ACCIP IV-4.61 (9), Protestation du Conseil municipal au nom de la ville de Rouen contre le projet « Paris port de mer ». Dire à l'enquête. Séance du 7 novembre 1890, p.8. 252 Nous partageons entièrement les opinions émises par ces fonctionnaires, et nous trouvons que les nécessités et les inconvénients qu'ils ont signalés, loin d'être exagérés, ont été définis avec un tel désir de montrer une grande modération et une complète impartialité, qu'ils sont dans bien des cas, restés en deçà de la vérité, notamment pour ce qui est des conditions indispensables pour la navigation maritime et des dispositions pour qu'elle puisse s'effectuer sans trop grands risques796. b) Le cercle des charbonniers du Nord. Le nord industriel de la France ne se montrait guère favorable à l'idée de Paris port de mer, alors qu'il l'était plutôt pour la batellerie797. En effet, les intérêts économiques du Nord et du Pas-de-Calais encourageaient une concurrence entre les chemins de fer et la batellerie afin de réduire le coût du fret de manière à rendre leurs produits plus compétitifs. Ajoutons que les ports de cette région, comme celui de Dunkerque, n'avaient nullement intérêt à ce que Paris détournât leur trafic Lors de la consultation des chambres de commerce de France et d'Algérie par le ministre des Travaux publics, la chambre de commerce de Lille prononça son avis dans un rapport au nom de la Commission des Transports par son président, M. Le Ban798. La chambre de commerce lilloise émit plusieurs objections. Sa première était le détournement du trafic actuel des ports : Ce courant commercial que les auteurs de Paris-Clichy ambitionnent de porter, par la Seine et leur canal, de 1100 000 tonnes actuellement à 5 000 000 de tonnes après 5 ans d'exploitation et à 20 000 000 de tonnes au bout de 20 ans, ne pourrait donc se créer que par le déplacement, c'est-à-dire en enlevant aux ports, tel que Le Havre et Dunkerque, pour ne parler que de nos plus proches, la plus grande partie de leur tonnage actuel799. Le transbordement par le Havre et Rouen lui paraissait, à cet égard, inévitable, en raison du tonnage des navires de long-cours jaugeant au maximum des navires censés parvenir à Clichy en empruntant le canal Rouen-Clichy. La nature des marchandises, telles que les cafés, sucres, alcools, céréales, de forte valeur, ne souffraient pas du transbordement, et ce d'autant que les chalands étaient exonérés de toute redevance sur la Seine alors que les navires empruntant le canal se voyaient dans l'obligation de verser, pour la montée et la descente, une redevance de 6,50 francs la tonne. Le transbordement au Havre ou à Rouen coûtant en moyenne 0,75 centime, l'économie obtenue aurait été de 5,75 francs par tonne. En 796 Ibid., p. 3. François Caron, Histoire de l'exploitation d'un grand réseau. La compagnie du chemin de fer du Nord 18461937, pp.268-271. 798 ACCIP IV-4.61(9), Chambre de commerce de Lille, rapport présenté au nom de la commission des Transport, par l'un de ses membres, Séance du 7 novembre 1890, 7 p. 799 Idem., p.11. 797 253 outre, les capacités de la Basse-Seine, selon la chambre de commerce de Lille, approfondie à 3,20 m permettaient de transporter quinze fois plus que le trafic actuel800. Il ne s'agissait pas là des intérêts propres aux forces économiques du Nord. Il faut prendre en compte le contexte de récession économique que traversait la France durant cette période : crise agricole notamment due aux importations de céréales étrangères, perte de compétitivités de certains secteurs économiques. Or, le Nord était une des grandes victimes. Le charbon français était plus cher que le charbon britannique ou belge et le développement de la Basse-Seine en était le symbole. La région craignait plusieurs choses. En premier lieu, le canal projeté allait encourager l'importation de produits étrangers qui exerceraient une concurrence encore plus vive. Il ne fallait pas perdre de vue la loi Méline qu'ils avaient soutenue : « Tout d'abord, votre Commission observe que ce canal maritime servirait uniquement à favoriser encore davantage l'invasion des produits étrangers801.» La chambre de commerce de Lille se montrait plutôt favorable à des infrastructures visant à stimuler le trafic intérieur, tel que le fameux canal du Nord 802. Elle reprochait à l'État d'avoir consacré 90 millions de francs à l'approfondissement de la Seine à 3,20 m procurant un avantage aux marchandises étrangères, sans avoir pour autant doté le pays d'une liaison navigable digne de ce nom entre le Nord et la capitale, en n'exigeant, selon elle, que deux tiers de la somme investie pour la Seine. Le canal du Nord aurait présenté l'avantage de fournir à la région un débouché économique de trois francs la tonne au lieu des sept francs alors en vigueur pour les produits de l'agriculture et les houilles. Pourquoi alors encourager une réalisation aggravant cette tendance ? : « Cela ne suffit pas encore, l'État devrait comparer à nouveau cent millions pour achever une entreprise uniquement destinée à favoriser encore davantage, l'envahissement des produits étrangers803.» En second lieu, les intérêts économiques du Nord éprouvaient une autre crainte : celle que Paris ne détournât les flux de trafic, allongeant ainsi le transport des matières premières, ce qui présentât comme désavantage d'alourdir le coût de leurs produits. Or ils désiraient que les matières premières étrangères parviennent au plus près des zones industrielles : « Les marchandises venant de l'étranger pour alimenter les diverses industries, doivent toujours être transportées dans les ports les plus rapprochées des centres industriels qui consomment ces marchandises 804 .» Concernant le Nord, Dunkerque recevait directement des cotons 800 Soit 1,1 millions de tonnes. Ibid., p.2. 802 On aura l'occasion d'évoquer la question dans les chapitres suivants 803 Idem., p.5. 804 Idem., p.6. 801 254 d'Égypte, des laines de La Plata, des lins russes, pour les industries de Lille, Roubaix, Tourcoing, Fourmies Le port de Dunkerque semblait afficher un fort dynamisme, son trafic étant effectivement passé de 1,8 millions à 2 millions de tonnes entre 1887-1889, soit 200 000 de tonnes de plus, c'est-à-dire 16% de plus en deux ans ! La crainte de détournement de trafic des ports du Havre et surtout de Dunkerque, renchérissant par là même l'importation des matières premières, s'adjoignait à celle d'un afflux de marchandises étrangères concurrentes Toutes ces raisons conduisirent la chambre de commerce de Lille à répondre avec énergie négativement au projet de canal maritime, parlant de « véritable non-sens économique » : C'est donc au nom des intérêts maritimes, de ceux de notre Agriculture si malheureuse depuis de longues années, du Commerce et de l'Industrie de notre région, comme ainsi au nom du développement de nos houillères du Nord et du Pas-de-Calais, que notre Commission est unanime à vous proposer de demander, avec toute l'énergie possible, que l'autorisation soit refusée au Canal maritime de Rouen-Clichy805. Les milieux protectionnistes n'étaient pourtant pas les seuls à compter parmi les opposants à Paris port de mer, au sein même des partisans du libre-échange se trouvaient des opposants c) Le cercle des ports maritimes hostiles à l'entrée d'un nouveau concurrent. Les ports maritimes n'avaient aucune raison, en principe du moins, à s'opposer au libre-échange. Sans être naturellement hostiles aux exportations de leur pays, les importations apportaient logiquement aux ports français d'autres activités contribuant à leur prospérité. Ils pouvaient se plaindre de la concurrence « déloyale », en fonction du point de vue adopté, des ports étrangers, mais ne pas reprocher aux différents gouvernements d'encourager les importations806 Rouen : un adversaire acharné. Les ports de la Seine maritime ne pouvaient que se montrer hostiles à l'idée de « Paris port de mer », notamment la ville de Rouen, la plus concernée par la moyenne navigation et le cabotage 807 . Rouen jouait au demeurant le rôle de plaque tournante entre la navigation maritime et le transport fluvial808, et entendait le demeurer. La ville de Rouen exprima ainsi une protestation contre le projet « Paris port de mer » de Bouquet de la Grye et défendu par la 805 Ibid., p.7. Paris-port de mer pouvait aussi stimuler le cabotage entre les ports français Tout au moins en théorie. 807 Le dépouillement de l'enquête du 15 septembre au 15 novembre 1890 mentionne parmi les intérêts rouennais qui se sont exprimés de manière défavorable : le conseil municipal de Rouen, la chambre de commerce de Rouen, la Société industrielle de Rouen, la Société de défense des intérêts de la vallée de la Seine, la compagnie des courtiers maritimes de Rouen, la chambre syndicale de la Marine. Voir op. cit. p. 17. 808 Le Havre entretenait aussi un trafic fluvial important, et ce d'autant avec le creusement du canal de Tancarville. 806 255 Société d'études de Paris-Port-de-Mer, lors de la séance du conseil municipal du 7 novembre 1890809. La chambre de commerce de Rouen approuva à l'unanimité, dans sa séance du 13 novembre 1890, le rapport de M. Wallon lui ayant été présenté, celui-ci se prononçant évidemment contre Paris port de mer810. La presse locale a de même et largement, manifesté son déplaisir. La communauté de vue, sur cette question tout au moins, entre la Ville et la chambre de commerce de Rouen qui avancèrent les mêmes arguments apparaissait bien naturelle. Les arguments défendant les intérêts propres à Rouen se révélaient relativement peu nombreux. La ville normande s'évertua à prouver que le projet de Paris port de mer risquait de ruiner l'ensemble de l'économie. Elle reprochait les perturbations sur la circulation de la ville la coupure des deux ponts de la ville et du pont de chemin de fer : le projet de la Société d'études prévoyait que vingt à trente navires montants ou descendants par jour traversent Rouen et donc interrompent la circulation de cinq à dix minutes811. La Société envisageait qu'à la montée, les navires parvinssent fréquemment les uns derrière les autres, à 200 m de distance, mais aux yeux de la chambre de commerce de Rouen, c'était méconnaître la navigation en Basse-Seine, des navires avec des vitesses hétérogènes ne pouvaient parcourir simultanément les 125km séparant Rouen de la mer : Cette suspension fréquente de la circulation sur les ponts de la ville serait une gêne pour la population des deux rives, un inconvénient pour la transition [le transit] des voyageurs d'une gare à l'autre, et surtout un gros embarras pour le camionnage desservant les quais du port812. Le port de Rouen lui-même aurait souffert de ces entraves : les navires approchant les ponts et venant avec le courant auraient été contraints de ralentir afin de laisser passer un navire venant du sens opposé, surtout ceux portés par le courant, le contraire paraissait peu probable aux membres de la chambre de commerce rouennaise. Cela impliquait que les abords de l'arche marinière des ponts auraient dû demeurer libres pour le stationnement de ces navires « Une partie du bassin de Rouen serait ainsi accaparée par le trafic parisien813.» Il en allait de même avec la coupure de la voie ferrée au pont de Brouilly. La chambre de commerce de Rouen reprochait au projet de montrer moins d'égards pour le service de Rouen que pour la ligne Paris-Le Havre, épargnée grâce à une dérivation vers le Pont-de809 ACCIP IV-4.61 (9), Protestation du Conseil municipal au nom de la Ville de Rouen contre le projet de « Paris port de mer » à l'enquête. Séance du 7 novembre 1890, 25 p. 810 ACCIP IV-4.61 (9), Chambre de commerce de Rouen. Dire à l'enquête sur le projet d'un canal maritime de paris à la mer, Rapport de M. Wallon, Rouen, Imprimerie F. Lapierre, 1890, 24p. 811 Ce n'était tout de même pas énorme 812 Idem., p.3. 813 Ibid. 256 l'Arche et au passage de la Seine à Freneuse sur un pont fixe. Les deux gares de marchandises de Saint-Sever et celle de Sotteville, gare de dépôts de wagons de locomotive ne communiquaient pas avec les quais de la rive droite, les lignes du Havre, de Dieppe et d'Amiens que par un pont occupé. Hormis ces objections pratiques, la chambre de commerce de Rouen constatait d'autres inconvénients plus sérieux. L'approfondissement du canal projeté lui paraissait très insuffisant, notamment pour les navires de 5,50 m, aux biefs de Poses et de Méricourt, voire sur tout le canal pour les navires de 6,50 m. Certaines améliorations lui semblaient nécessaires. Parmi celles-ci, on peut citer la création d'un port d'attente en aval de la première écluse dans le bief de Rouen, l'établissement d'une écluse sur la coupure de Tancarville, la construction de deux écluses accolées à chaque barrage, la modification par abaissement des rails sur les barrages de Poses et de Méricourt, le creusement d'un chenal spécial pour la batellerie dans la partie amont du bief de Rouen entre Oissel et Poses, etc. L'opération apparaissait ainsi fort dispendieuse : 250 millions de francs, selon les Ponts-et-Chaussées, au lieu des 135 millions proposés par la Société d'études Paris-Port-deMer. Cette dernière évaluait à 925 000 francs la dépense annuelle nécessaire à l'exploitation, mais celle-ci devait être compensée par l'entrée de 1,26 millions de tonneaux de jauge, soit 3,15 millions de tonnes de marchandises, mais seulement 2,3 millions selon les ingénieurs de l'Administration. Or, il lui semblait que la Société d'étude Paris Port-de-mer mésestimait le coût annuel, évalué à 15 millions de francs par les ingénieurs. De la même, un trafic de 2,3 millions de tonnes s'avérait le seuil minimal indispensable, soit 414 000 t de marchandises avec le coefficient de 1,80814, soit 5,75 millions de tonnes avec celui de la Société d'études. L'équilibre ne serait survenu que vers la quatorzième année, avec un budget en recettes et dépenses de 18 millions et un tonnage de jauge à l'entrée de 2,75 millions de tonneaux, c'est-à-dire 5 millions de tonnes avec le coefficient de 1,80 et 7 millions avec celui de la société. Cette dernière prévoyait que l'approfondissement de la Seine de 3 à 6,20 m ne pouvait que doubler le trafic dès l'ouverture du canal maritime et du port de Paris, portant le trafic entre l'Oise et Rouen de 1,1 millions à 2,2 millions de tonnes, si l'on se référait à l'approfondissement de la Basse-Seine de 4 à 6,20 m qui avait fait tripler effectivement le tonnage du port de Rouen. C'était oublier pourtant, selon la chambre de commerce rouennaise, que le trafic parvenait en grande partie au Nord en provenance de Paris et Rouen : 814 Coefficient = droit de navigation. 257 Si nous comparons le chiffre (soit 500 000) du tonnage qui serait nécessaire pour faire vivre la société de Parisport-de-Mer, à ceux du trafic des ports, du trafic de Paris et du trafic de la Seine, nous constatons qu'il représente plus de six fois le trafic actuel de Rouen et du Havre avec Paris, le quart du trafic maritime de tous les ports de France, le tiers de celui des ports de l'Océan, plus que la moitié de celui de tous les ports de Seine, enfin près de la moitié de tout le mouvement commercial de Paris (arrivages, expéditions et transit), par toutes les voies et dans toutes les directions815. La chambre de commerce de Rouen avançait un autre argument : la Société d'études paraissait négliger le fait que la navigation à voile représentait encore 60% du tonnage général : « On a dit, pendant un temps, que la navigation à vapeur les ferait disparaître. Ils reprennent faveur au contraire et on augmente leur capacité. On construit des voiliers à 4 ou 5 mâts. Dans l'estimation générale du trafic, cette catégorie de transporteurs n'est donc pas négligeable816.» Le rapporteur ajouta, non sans ironie : « Si on n'en dit mot dans les études du canal, c'est qu'on ne compte guère sur leur montée à Paris817.» Un service remorquage se révélait alors obligatoire, avec un coût prohibitif : « Il est probable que les navires à voile ne prendraient pas la route de Paris. C'est un gros chiffre à défalquer du tonnage que le port de mer de Paris devrait attirer dans son canal818.» Le rapport objectait de plus les accidents climatiques : crues, sécheresse, glace Ces perturbations réduisaient le nombre de voyages de 36 à 28 D'où une perte pour un charbonnier par exemple de 90 000 francs 819. La Société promettait un dédommagement de 0,40 franc pour les 1 500 t à la remonte et 0,20 franc pour 1 000 t à la descente, soit 800 francs. Il manquait au demeurant dans le devis des moyens de réparation des navires, les cinq millions de francs prévus par la société, suffisant à peine, selon le rapporteur, à rembourser les expropriations et le creusement des bassins. La Ville de Rouen accusait la Société de vouloir ruiner la batellerie, représentant pour la première une activité essentielle pour elle. Rouen constituait une plaque tournante entre le trafic maritime et terrestre, qu'il soit fluvial ou ferroviaire : Nous signalons cependant, à titre d'exemple, qu'elle affirme que l'exécution du canal ne diminuera en rien l'importance du trafic des ports du Havre et de Rouen et qu'elle déclare, d'autre part, que la batellerie entre Rouen et Paris, qui est cependant le mode principal d'expédition pour le port de Rouen devra disparaître820. Le rapport de la municipalité de Rouen rappelait que Rouen, Dunkerque et le Havre effectuaient des expéditions directes, notamment par la voie d'eau, sur les départements du Nord, de l'Est, du Centre et en Alsace-Lorraine à des prix bien inférieurs à ceux que la Société maritime était susceptible de proposer, et ce d'autant plus si les voies fluviales étaient 815 Ibid., p. 18. Idem. 817 Ibid. 818 Ibid. 819 Soit 7,50 francs la tonne de charbon pour un navire de 1 500 t, ce qui fait un total de 3 000 francs par voyage. 820 Protestationop. cit., p.4. 816 258 améliorées, notamment en vue d'éviter les chômages de 40 à 60 jours. Tout comme celui de la chambre de commerce de Rouen, le rapport estimait que les frais de camionnage alourdissaient le coût du transport, Clichy, étant encore relativement alors éloigné de la capitale Et que l'avantage de la batellerie consistait à desservir les clients au plus près de leurs besoins, et à moindre coût. Certains trafics étaient irremplaçables, selon la chambre de commerce rouennaise : ceux drainés par les canaux du Nord, le trafic de plâtre de Triel, sable de Fontainebleau, pierres de Lorraine descendant naturellement par péniche Le message de la Ville de Rouen était des plus clairs : ne pas nuire à sa vocation de quelque façon que ce fût, et donc ne pas perturber le réseau « traditionnel » le desservant Autrement dit, la voie ferrée, la circulation dans la ville et la batellerie Tout en ne lui ôtant, bien sûr, aucun trafic (caboteur). Le plan Freycinet (1879) ne pouvait donc que recevoir sa bénédiction, améliorant très notablement la navigation sur la Basse-Seine. Il entérinait la division des tâches821 : Paris port de réception, le Havre accueillant les navires au long cours et Rouen la moyenne et petite marine Les ports maritimes autres que Le Havre et Rouen. Les villes portuaires étaient dans leur grande majorité hostiles à Paris port de mer comme en témoignaient les réponses des chambres de commerce lors de l'enquête de 1890. Celle de Boulogne-sur-Mer822 répondit par la négative dans sa séance du 7 novembre 1890 à la lettre du ministre des Travaux publics du 12 septembre de la même année. Celle de Dieppe fit de même dans sa séance du 10 novembre 1890823. Outre les arguments techniques et commerciaux déjà mentionnés, cette dernière fit valoir les pertes que le port de Dieppe pourrait subir. Les importations824 de 1889 s'étaient ainsi élevées à 431 419 t, dont 331 652 de houilles anglaises825, 91 120 de bois826. Lui restait, selon ses calculs, uniquement le trafic réalisé par les gares de sections de Dieppe à Maromme, de Dieppe à Benzeville, à Gournoy, au Tréport par la direction du Nord via les États-Unis, le trafic s'élevant à 13 888 t pour le bois, 52 207 t pour les houilles. La chambre de commerce de Dieppe évaluait ses pertes à 70 473 t pour le bois « commerce qui fait vivre quatre à cinq 821 Des projets envisagèrent une fusion des trois ports ACCIP IV64.61 (9), Chambre de commerce de Boulogne-sur-Mer, Paris port de mer. Délibération de la chambre de commerce de Boulogne, Boulogne-sur-Mer, Société typographique, rue Adolphe Thiers, 1890, 11p. 823 ACCIP IV-4.61 (9), Chambre de commerce de Dieppe. Séance du 10 novembre 1890. Enquête sur le projet de Bouquet de la Grye. Rapport de la Commission. Délibération de la Chambre, Dieppe, Imprimerie Delevoye Frères, Levasseur et Cie, 1890, 17p. 824 Les chiffres cités sont tirés du document cité dans la note précédente, pp. 13-14. 825 217 276 t étant transportées par la compagnie de chemin de fer de l'Ouest. 826 84 361 t étant transportées par la compagnie de chemin de fer de l'Ouest. 822 259 cents ouvriers et ménages d'ouvriers [disparaît] 827 . » Elle notait que Dieppe constituait la seule ville portuaire à posséder une ligne régulière française entre la Grande-Bretagne, de Dieppe à Grimsby, transportant en grande et petite vitesse, et complétant ses embarquements par du charbon. Il en résultait selon elle une perte d'intérêt sur cette ligne figurant pour un total de 127 365 t à l'entrée, dont 14 233 t de marchandises diverses et 18 906 t à la sortie en 1889 D'où une perte à l'entrée de 14 233 t, à laquelle s'ajoutaient selon elle 6 097 t de fonte et 5 000 t de marchandises variées. La chambre de commerce de Dieppe évaluait à 260 877 t, c'est-à-dire 60% de son trafic actuel d'importation, le total de ses pertes à l'entrée, « sans aucun espoir de retour828.» Sa lettre au ministre concluait : « Ce serait la ruine de notre ville ; la valeur des immeubles y serait avilie, le commerce réduit presqu'à néant, et toute sa population laborieuse ne pouvant y trouver ni les éléments nécessaires à son activité, ni les moyens829.» Le plus grave était que l'ensemble des forces économiques du pays se seraient trouvées ruinées par la création de ce canal830. Les ports avançaient l'argument classique : la perte de trafic qui en serait incombée Le rapport de l'ingénieur Bourgeois 831 rappelait que l'État venait de consacrer depuis une dizaine d'années plus de 200 millions de francs pour le développement des ports du Nord. L'État aurait ainsi effectué ces dépenses pour rien, et cela, d'autant plus que la Société d'études Paris-Port-de-Mer réclamait l'abandon des droits, tout en ne sollicitant aucune subvention. Or, la chambre de commerce de Dieppe évaluait à 2 086 665 francs par an, pour 99 ans, la durée de la concession « la subvention énorme de 206 millions, intérêt non compris 832 », argument qui ne pouvait laisser indifférent l'État, car touchant une corde sensible On ne pouvait du reste sous-estimer le risque d'un échec de la compagnie créée, sans compter certaines mauvaises expériences833 « après l'expérience des dernières années, il y a lieu de songer834. » Les chambres de commerce des villes portuaires avaient emprunté des sommes conséquentes en vue d'améliorer les ports et de perfectionner leur outillage. Ces emprunts 827 Enquête sur le projet, idem., p.14. Ibidem. 829 Idem., p.16. 830 Entendant par « forces économiques », les ports, les chambres de commerce, l'industrie, l'agriculture, les chemins de fer, les finances de l'État 831 ACCIP-IV-4.61 (9), Protestation du Conseil Municipal au nom de la ville de Rouen contre le projet de Paris port de mer, séance du 7 novembre 1890, p.9. En tant qu'ingénieur ordinaire dans les départements du Nord et du Pas de Calais, il allait élaborer un projet de canal du Nord dans le cadre du plan Baudin avec l'ingénieur Rivière. 832 Op. cit., p.115. 833 Il s'agit bien entendu du canal de Panama 834 Idem. 828 260 contractés solidairement avec l'État étaient remboursés par annuités pouvant s'étaler sur de longues périodes : « Le gage des Chambres de Commerce disparaissant, c'est sur l'État que retomberait le déficit considérable de leurs droits de tonnage835.» Il cite encore les chemins de fer qui voyaient leurs recettes diminuer, le compte de garantie de l'État s'en trouvait encore alourdi. La chambre de commerce de Dieppe n'a curieusement pas cité la batellerie, pourtant hostile dans son ensemble à Paris port de mer, en tant que groupe d'intérêt menacé, ce qui tend à prouver la collusion de celle-ci avec les chemins de fer. Le rapport montrait tout de même que la batellerie pouvait proposer des coûts du transport extrêmement bas, soit un centime la tonne-kilométrique pour les gros transports. En outre, le tirant d'eau de 3,20 m projeté par les plans d'aménagement de la Basse-Seine laissaient présager une nouvelle baisse en faisant tomber le prix du trajet à trois francs à la remonte contre 6,14 francs en 1886 et 4,53 francs à la descente contre 4,53 francs avant. Dans le même temps, il observait que les chemins de fer eux-mêmes allaient faire payer certains de leurs trafics à 1,5 centime la tonnekilométrique. À la fin du rapport, la batellerie ne figure pourtant pas parmi les intérêts menacés Ce qui reflète l'ambiguïté des acteurs de l'économie française vis-à-vis de la batellerie : l'essor du trafic de la Basse-Seine a été perçu comme un facteur favorisant l'importation de produits étrangers (houilles, blés et vins surtout) Dans un contexte où le protectionnisme reprit de la vigueur (Loi Méline)836. Le projet Paris port de mer en faisait alors les frais : « Cette exploitation par l'État entraînerait, par similitude avec les voies navigables, la libre pratique de la Seine jusqu'à Paris, elle constituerait ainsi une sorte de pénétration gratuite en faveur des houilles anglaises, des grains exotiques, des vins, en un mot, de toutes les productions étrangères, industrielles ou agricoles 837 .» La chambre de commerce de Dieppe avança encore un argument touchant le renforcement de la centralisation, exprimant la crainte d'un « Paris tout puissant » : En cas de succès, ce projet centraliserait davantage encore la vie commerciale au détriment de la Province où elle se trouve disséminée, il drainerait le travail et les moyens d'existence de nos populations ouvrières, et c'est là une considération sociale des plus graves, qui peut à juste titre, inquiéter le législateur 838. 2. Une « alliance » contrenature entre les compagnies de chemin de fer et la batellerie. 835 Ibid. Jean-Charles Asselain, Histoire économique tome 1, pp.179-180. 837 Ibid., p.16. 838 Ibid., p.11. 836 261 La controverse autour de Paris port de mer réunit des protagonistes susceptibles d'entrer en concurrence sur d'autres sujets. a) Le cercle des compagnies de chemins de fer. La Société d'études s'efforça de rassurer les chemins de fer de l'Ouest qui, avec la batellerie étaient les premiers concernés par une éventuelle concurrence du canal maritime projeté. Bouquet de la Grye répliqua aux réserves formulées par la compagnie de l'Ouest, lors des séances du 24 et du 31 janvier 1891. Par exemple, il reconnut la transformation du pont de chemin de fer d'Argenteuil en pont-mobile susceptible de créer des difficultés d'exploitation sur la ligne « et qu'en réalité, de toutes les objections faites par la compagnie, celle-là doit être prise en compte». Imaginant une variante avec un pont fixe de 22 m au-dessus du plan d'eau, il conclut : En résumé, nous pensons que l'on peut surmonter ou obvier à toutes les difficultés signalées par la Compagnie de l'Ouest et qu'après une étude détaillée faite en commun, on arrivera à adopter des solutions qui ne feront subir à la Compagnie aucune gêne sérieuse et par suite ne pouvant donner lieu à aucune demande d'indemnité839. La compagnie de l'Ouest formula des réserves surtout d'ordre technique : mise en circulation de nombreux trains de voyageurs du fait de l'établissement d'une bifurcation avec une gare de triage au Manoir, transfert de la gare d'Argenteuil, substitution du pont mobile d'Argenteuil remplaçant le pont fixe alors en place 840 Tout cela induisait des difficultés d'exploitation. Il en résultait un allongement des voies à exploiter sans compensation des frais d'exploitation en résultant, si bien que le public aurait à souffrir du surcroît de parcours, et de conditions de services sensiblement moins favorables Les arguments paraissaient à première vue bien innocents. La Compagnie de l'Ouest s'en tenait à des raisons purement techniques, même si elle soulignait les perturbations auxquelles « il y avait lieu de s'attendre ». Les compagnies de chemin de fer ne se sont d'ailleurs guère prononcées sur la question : on compte assez peu de documents émanant des compagnies potentiellement menacées, à savoir la compagnie de l'Ouest et celle du Nord Il ne faut pourtant pas se leurrer, on retrouvait une stratégie similaire à celle vis-à-vis des voies A.P. D2S4/1, Paris port de mer. Complément de la déposition de M. Bouque de la Grye devant la Commission d'enquête du département de la Seine, p.7. 840 Voir : A.P. ADS4/1, Compagnie des chemins de fer de l'Ouest. Réplique à la réponse du Comité d'Études de Paris port de Mer aux observations présentées par la Compagnie des chemins de fer de l'Ouest sur l'avant-projet du canal de Paris à la mer. Département de la Seine et de Seine-et-Oise, 31p. 839 262 navigables841. Les critiques étaient rarement directes, souvent on feignait se borner à l'aspect technique du problème Les arguments étaient malgré tout bien présents, rien ne pouvait être fait, car ces projets pouvaient potentiellement gêner l'exploitation 842 S'il s'agissait de reconstruire un pont pour accroître ses propres capacités, il y a tout lieu de croire que les compagnies de chemin de fer ne s'y seraient pas opposées ! Dans le cas où la batellerie se trouvait gênée par un pont ferroviaire, cela aurait paru moins sérieux ! Si l'action des compagnies de chemins de fer paraissait bien discrète, c'était sans doute parce qu'elles ont eu recours à d'autres biais, en influençant par exemple les chambres de commerce843 ou groupes de pression844 b) Le cercle de la batellerie. Tous les protagonistes hostiles au projet de Bouquet de la Grye s'accordaient845 sur l'idée que la batellerie s'acquittait très bien de son rôle sur la Basse-Seine pour approvisionner la capitale, la chambre de commerce de Rouen rappelant que son trafic en 1890 avait été multiplié par quinze Cela signifiait que la batellerie avait une responsabilité dans l'afflux de produits étrangers Cette accusation n'était pas sans circonstances atténuantes, car c'était le fait de mauvais choix d'aménagement des infrastructures fluviales ; Le problème se révélait plus complexe dans la mesure où la chambre de commerce de Rouen et de Lille soutinrent ardemment la batellerie, et pour cause : Rouen était un grand port de transit ne pouvait qu'encourager la batellerie et les chemins de fer La ville avait grandement profité du plan Freycinet, directement grâce à l'amélioration de ses équipements portuaires et indirectement grâce à celle de la navigation en Basse-Seine devenue la plus performante du pays en termes techniques Ce qui ne manquait pas d'agacer certains partisans de Paris port de mer : 841 L'analyse peut paraître ici un peu abrupte, mais en fait, les compagnies de chemins usèrent du même procédé dans d'autres dossiers délicats dont nous aurons l'occasion d'en parler dans les chapitres suivants quelques années après 842 Cela signifie que les intérêts de la batellerie étaient secondaires. Le même argument allait être avancé en 1944, lors de la « guerre des ponts », la SNCF arguant le même argument pour éviter de reconstruire les ponts avec un trop fort tirant d'air, le but étant d'empêcher le maximum de caboteurs de remonter jusqu'au port de Gennevilliers. De même, le port de Bonneuil ne connut qu'un essor tardif : le PLM refusa de hausser le pont situé en aval. Pour notre période, on n'hésitera pas à interrompre la navigation sur le canal Saint-Martin pendant plusieurs mois, pour la construction du métropolitain, et cela aux dépens de la batellerie. 843 Cette connivence s'observait à travers des publications en commun, comme en témoignait le document suivant : A.P. DS4/1, La Chambre de commerce de Rouen et la Compagnie de l'Ouest devant la question de Paris Port de Mer entrevue entre les deux intéressés le 3 novembre 1890. 844 Ce qu'on qualifierait aujourd'hui d'action de lobbying 845 En excluant la Compagnie de l'Ouest dont la position était « particulière » sur cette question pour des raisons évidentes 263 Rouen, ville de 124 000 habitants est un port uniquement de transit, ne consommant rien des marchandises exotiques qu'il reçoit. Dans son égoïsme, Rouen veut s'accaparer le monopole de fournisseur de Paris, qu'il considère comme son rival et qu'il veut conserver sous sa tutelle846. Le milieu batelier aurait pu a priori défendre Paris port de mer, dans la mesure où la navigation sur la Basse-Seine se trouvait améliorée en limitant la longueur du parcours grâce à la suppression des boucles du fleuve. La Société d'études Paris-Port de Mer avait cependant pour dessein plus ou moins délibéré d'éliminer la batellerie, comme en témoignait son refus de toute exonération de droit au cas où celle-ci aurait désiré emprunter le canal. La marine fluviale se sentait ainsi menacée et s'était rangée dans le camp des adversaires de Paris port de mer. Ce sentiment ressort du rapport d'un membre du Syndicat du bassin de la Villette et des canaux adjacents, présentée à l'assemblée générale du 9 mai 1911. Il s'agissait d'un avis « défavorable à la création qui est proposée, d'un Canal maritime aboutissant à Clichy847.» Malgré l'hostilité exprimée, ce document reconnaissait tout de même la faisabilité technique du dernier projet de Bouquet de la Grye: Ou aussi des canaux maritimes déjà existants ou en construction, et des brochures de propagande citant Suez ou Panama ; la prospérité du premier ne prouve pas l'utilité du canal maritime de Paris, puisque les buts à atteindre sont différents ; quant à Panama, il vaut mieux ne pas en parler. Au surplus, nous ne croyons pas qu'aucun ingénieur n'ait jamais mis en doute la possibilité matérielle de construire le canal maritime de Paris : seule la question commerciale et économique est en jeu848. Ce rapport s'était inspiré lui-même de ceux de M. Mallet présenté à la Fédération des industriels et Commerçants et de M. Lavaud du Syndicat de la Marine, autre représentant des intérêts de la batellerie849. Les reproches du Syndicat du Bassin de la Villette contre le projet Paris port de mer portaient sur l'éloignement du port de Clichy des centres économiques et de consommation rendant indispensables le recours à des camionnages : 846 ACCIP IV-4.61 (10), Amédée JOUY, Il faut prolonger Paris port de Mer pour assurer la Défense Nationale, Argenteuil, mars 1914, p.13. 847 ACCIP IV-4.61 (10), Syndicat du Bassin de La Villette et des canaux adjacents (8 quai de la Seine, Paris 19ème), Note sur le Projet « Paris port de mer », par Jules Couvreur, 1911, p.14. 848 Ibid., p.9. 849 Diverses compagnies de navigation avaient exprimé leurs réticences lors de l'enquête de l'automne 1890 (op. cit., p. 17) : la Compagnie du touage de la Basse-Seine à l'Oise, la Compagnie du touage de Conflans à la mer, la Compagnie de touage et de remorquage de l'Oise, Syndicat de la Marine, Compagnie de touage et de remorquage de transports. Cette énumération est éloquente. Comme on peut le constater, il s'agissait majoritairement de sociétés de touage qui avaient bénéficié d'un certain oligopole pour la traversée de la Seine entre Conflans et Corbeil, le halage ayant été prohibé depuis 1854 dans la traversée de Paris. Ces compagnies se trouvaient toutefois gravement menacées par l'essor de la navigation à vapeur et plus spécifiquement des remorqueurs, capables de transporter davantage de navires, et ayant profité des aménagements sur la Seine. Paris port de mer aurait porté un coup fatal à leur activité. D'ailleurs, la prise de position de Charles Lavaud n'était pas anodine, puisqu'il se trouvait justement à la tête d'une société de touage. Celle de la société travaillant sur l'Oise correspondait plutôt à la crainte de favoriser les importations de charbons étrangers en basse Seine. Là encore, les intérêts n'apparaissaient pas strictement convergents. 264 Si les usagers de ce bassin [le bassin de la Villette] et de ses canaux adjacents ont choisi les emplacements qu'occupent leurs usines et leurs chantiers, ce n'est pas arbitrairement ni pour le vain plaisir de payer annuellement à la Ville de Paris les 1 266 000 francs de droits de navigation qu'elle perçoit, leur situation leur a été imposée par les nécessités de leurs expéditions, de leurs approvisionnements et de l'alimentation de leur clientèle850. Jules Couvreur estimait que le camionnage pour Paris aurait coûté au moins de 4 à 5 francs la tonne, la réexpédition par péniche ou par chaland ne s'élevait selon son estimation de moins de 1,25 francs à 1,50 francs la tonne. Il doutait que les économies réalisées par les navires de mer remontant par le canal fussent évidentes. Selon le projet de loi Leboucq, elles auraient été d'un franc la tonne contre quatre francs par tonne sur le fret d'alors, perçu de Rouen à Clichy. Ce maigre rabais avait été calculé sur la base d'un fret de quatre francs. Or, on payait couramment, selon le même document, moins de 2,50 francs par tonne de Rouen à Clichy pour des chargements complets, voire même 2 francs. S'ajoutait à cela le fait que l'amélioration du port de Paris réduisait encore le fret en activant le déchargement des péniches : Il est, du reste, évident que l'amélioration de l'outillage des ports de Paris, n'est pas subordonnée à la réalisation du projet « Clichy Port de mer » et on a déjà fait observer que toutes les mesures qui seront prises pour activer le déchargement des chalands permettant la diminution des frets perçus par ceux-ci851. L'ennui était que beaucoup de ces navires n'auraient pas eu de fret de retour : si en navigation maritime, le trajet long s'avère souvent plus avantageux, mais Paris, grand port fluvial de consommation, ne pouvait offrir de fret de retour, car la région n'était pas un bassin minier. Le coût du transport importait peu à l'industrie du luxe, prenant plutôt en compte la rapidité et la souplesse du mode choisi Il ne fallait pas entendre par « souplesse », que le transport fluvial était totalement rigide : pour être rentable, il devait transporter de grosses quantités, avec des marchandises groupées Toutes ces raisons faisaient préférer aux industries du luxe le train plutôt que la batellerie : Mais quel fret de retour peut procurer une région dépourvue de charbons et de minéraux ? Les articles de luxe qui sont la spécialité de l'industrie parisienne ne représentent pas un tonnage important : ils doivent surtout être transportés vite et ils n'iront pas toujours rejoindre où qu'ils soient, les grands paquebots en partance ; et personne n'a jamais pu espérer voir les transatlantiques remonter la Seine 852 ! Le Syndicat du bassin de la Villette émettait ainsi de profonds doutes quant à la viabilité économique du projet, car ne correspondant pas réellement aux besoins des usagers parisiens, ni aux pratiques des armateurs maritimes, ni même sur le plan technologique comme en 850 Idem., p.6. Ibidem., p. 8. 852 Ibid., p.7. 851 265 témoignait la dernière phrase. Le canal envisagé se révélait en effet mal adapté à la voile853. Les tirants d'eau prévus par la Société d'études étaient ou allaient être largement dépassés. En revanche, Jules Couvreur suggéra d'acheminer jusque dans la capitale des « chalands de mer », dont le trafic ne nécessitait que quelques perfectionnements : Ces perfectionnements peuvent se continuer, ces essais peuvent se faire, modestement, sans augmenter le mouillage actuel, sans aliéner aucune partie du domaine public, sans entraver la circulation sur les ponts. Il est vrai qu'ils n'ont pas pour eux le prestige des mots ni les formules brillantes ; mais le commerce et le public s'en consoleront si, à défaut du mirage, ils ont la réalité854. L'économiste Paul de Rousiers, dans un ouvrage sur les grands ports de France855, suggéra cette idée, s'inspirant de l'emploi des chalands de mer dont les Allemands firent un grand usage. Ces navires effectuaient de courtes traversées afin d'amener à Paris des marchandises sans transbordement856. Jules Couvreur soulignait que le canal de Manchester ne constituait pas une panacée : ouvrage certes, remarquable, mais qui montra ses limites. Louis Molinos, professeur d'honneur de la Société des Ingénieurs Civils de France, président au Conseil d'administration de la Société Générale de Touage et de remorquage, dans son Examen critique du Projet de canal de Clichy à la mer 857 fit observer que le canal de Manchester avait été imaginé d'après une conception « parfaitement raisonnable et fort différente du canal actuel858», car construit sur terre le long de la Mersey et non sur le lit d'un fleuve. Ce canal n'offrait que peu de sinuosité. La ville de Manchester l'avait creusé en vue de pallier sa dépendance à l'égard de Liverpool qui percevait des droits onéreux. Or, les conditions de navigation n'y étaient pas toujours aisées : le passage de deux navires simultanément, l'un à la descente, l'autre à la remonte, ne se révélait pas possible partout. Jules Couvreur se gardait bien d'invoquer le véritable grief contre ce canal maritime. Le port de la Villette avait grandement profité des travaux d'amélioration de la navigation sur la Seine, particulièrement sur la Basse-Seine. En effet, le canal Saint-Denis avait été remarquablement amélioré 859 . Le bassin de la Villette figurait ainsi parmi les principaux bénéficiaires du plan Freycinet. Le canal Saint-Denis n'était pas vraiment en mesure de recevoir des navires de mer. L'établissement d'un port concurrent dans la zone de Clichy (situé près de son embouchure à la Briche) signifiait potentiellement un détournement 853 Cf. les dires de la chambre de commerce de Rouen et de la municipalité de Rouen dans les pages précédentes 854 Ibid. 855 Paul de Rousiers, Les grands ports de France ; leur rôle économique, Paris, Armand Colin, 1909, p.106. 856 On développera cette question dans les pages consacrées au transport fluviomaritime. 857 ACCIP IV-4.61 (10), Louis Molinos, Examen critique du Projet de canal de Clichy à la mer, 1911, 38p. 858 Ibid., p.28. 859 Voir la troisième partie du chapitre III. 266 significatif de son trafic. De toute évidence, Paris port de mer n'était pas une bonne idée pour les usagers du port de la Villette Les compagnies de touage se montraient parmi les plus farouches adversaires de Paris port de mer, à l'instar de M. Molinos. Il estimait que le projet n'avait aucun lien avec les inondations et que le soi-disant avantage que procurait un transbordement accompli à Clichy, et non plus à Rouen, aurait été au mieux dérisoire. Concernant le prix du fret, l'auteur de la plaquette nota que celui-ci variait de 1,75 à 2,25 francs la tonne entre Rouen et Clichy, chiffre irréalisable avec les moyens préconisés Le fret du chaland devenait bien plus dispendieux, proportionnellement, entre Clichy et Bercy que de Rouen à Bercy ! La batellerie transportait une tonne de Rouen à Tolbiac pour 2,25 francs, un chaland aurait pris au moins 1,25 franc, à ajouter au trois francs de redevance prévus par les promoteurs du projet, c'est-à-dire 4,25 francs, plus le prix de la remonte du navire. Les partisans de Paris port de mer croyaient pouvoir exporter à Paris les minerais de l'Est. Ils envisageaient ainsi l'expédition des minerais de Briey à Villeneuve-Saint-Georges. Le prix du transport par l'Est et la Ceinture s'élevait au taux le plus réduit, de 6,80 francs par tonne, ou en wagons spéciaux de 6,30 francs. Le prix du fret pour un port britannique ne pouvait être inférieur à 3 francs, en supposant un fret de retour de charbon ou coke, soit 9,30 francs et en incluant les manutentions. Si l'on ajoutait 4,50 francs d'achat, prix minimum, le prix de revient total se montait à 13,80 francs. Le minerai de l'Est était malheureusement pauvre, d'une teneur en fer de près de 34% : il ne pouvait supporter de longs transports. L'auteur concluait que ces prix posaient un obstacle insurmontable pour l'introduction du minerai de fer de l'Est vers la Grande-Bretagne Louis Molinos en déduisait que le fret de sortie ne pouvait être fourni que par des matières lourdes, matières premières, matières fabriquées Les industries de grosse mécanique, de chaudronnerie, etc. émigraient, chassées par le coût de la vie et la hausse de celui de la main d'oeuvre. Il estimait que les prix de revient du pays ne lui permettaient pas d'exporter : « Comme matière et main d'oeuvre ils sont supérieurs à ceux de nos voisins, et les charges nouvelles dont l'impôt menace l'industrie française, ne peuvent que faire empirer la situation860.» Le port de Paris était avant tout un port de consommation, n'offrant aucun fret de retour, et ce, même si le trafic venait à croître dans des proportions colossales : « Le mouvement du port de paris augmentera probablement sans cesse avec l'accroissement de la population, de ses constructions, etc. Mais sera toujours pour la consommation ; Paris continuera à absorber sans rendre 861 .» Puis il examina les facilités et les délais de 860 861 Cit. dans G. Lemarchand, Rapport op.cit., p.367. Ibid. 267 navigabilité entre Paris et Rouen. La tonne aurait été payée, y compris le droit de trois francs, près de quatre francs jusqu'au port de Clichy, somme à laquelle s'ajoutait le transbordement sur les chalands à effectuer, soit à Rouen, soit à Clichy ainsi que la location desdits pour transporter la marchandise chez le consommateur coûtant au moins en moyenne 1,25 franc au Port-à-l'Anglais et au bassin de la Villette. Cela donnait un ensemble de 5,25 francs, le prix moyen perçu pour la batellerie pour ces diverses destinations étant de 2,50 francs suivant les contrats en cours. La Chambre Syndicale de la Marine se montra tout aussi hostile au projet. M. Lavaud, ingénieur des Arts et Manufactures publia un rapport hostile au projet de la société d'études. Les promoteurs de Paris port de mer ne défendaient, à ses yeux, qu'une chimère : Paris port de mer Formule prestigieuse et suggestive ! Elle a suffi à provoquer le mouvement d'opinion auquel nous assistons en ce moment, mouvement possible seulement en un pays où l'on se paye facilement de mots, sans se donner la peine d'aller au fond des choses. Quel but poursuivent véritablement les promoteurs de cette affaire ? On est en droit de se poser cette question quand on voit le soin qu'ils apportent, non seulement à faire illusion sur les avantages à retirer de l'entreprise, mais encore à créer une sorte de mirage sur son essence même862. Ce canal maritime n'en n'était, pour lui, d'ailleurs pas réellement un : s'il pouvait accueillir les navires de mer de plus fort tonnage, les conditions de navigation de canal se seraient révélées immanquablement pénibles : Pourquoi dénommer Canal maritime de Paris-Port de Mer une voie navigable que, de leur aveu même, il est de toute impossibilité de faire aboutir à Paris, et qui, en aucun cas, ne peut être un canal, mais doit fatalement demeurer une rivière extrêmement sinueuse, avec des courants quelquefois fort intenses, et tout à fait impropres à la navigation des bâtiments de mer863. Il ne fallait pas s'attendre à voir arriver dans la capitale des transatlantiques : Mais avouer que tous les efforts, quels qu'ils soient, ne peuvent aboutir qu'à Clichy-Port de Mer, que les transatlantiques seront toujours dans l'impossibilité de doubler le Trocadéro : c'est mettre à mal le prestige de l'opération projetée et éteindre l'ardeur de ceux dont il faut entretenir l'illusion, afin d'en obtenir le concours financier indispensable à la réalisation de l'affaire864. S'il ne contestait pas la faisabilité technique du projet - les experts s'accordaient pour la plupart sur ce point -, il qualifiait les perspectives de trafic attendues par ses promoteurs de 862 Archives de la section des canaux de Paris, Syndicat de la Marine (navigation Intérieure), étude du projet « Clichy-port-de-mer, par Charles Lavaud, ingénieur des arts et manufactures, membre de la chambre Syndicale de la Marine, février 1911, p.1. 863 Ibid. 864 Ibid. 268 « fantasmagorie ». Le projet devait non pas améliorer le fret, mais aggraver le prix du fret de la marchandise transportée : en outre, contrairement à l'attente de certaines personnes mal informées ou éblouies par une fantasmagorie de chiffres, il en résulterait non une économie, mais une aggravation865 dans le prix du fret de la marchandise transportée d'un point quelconque du globe à Paris et vice et versa 866. M. Lavaud867 examina successivement le prix de revient de l'opération, évalué à 188 millions par les promoteurs du projet alors qu'il évaluait personnellement à 800 millions de francs. Il réfuta un à un les arguments en faveur du projet, se basant sur la comparaison de navigabilité des canaux de Suez, de la mer du Nord, de Corinthe, de Manchester et de Kiel Il mit en évidence des difficultés de navigation à la descente, le danger des ponts mobiles, ponts-routes et de chemin de fer. La durée du trajet semblait bien supérieure à celle envisagée par la Société d'études Paris-Port-de-Mer, le tirant d'eau, même de 7,20 m semblant insuffisant. Les avantages militaires lui paraissaient tout aussi illusoires dans la mesure où l'ennemi pouvait se contenter de démolir un seul ouvrage d'art et de barrer la rivière pour faire échouer les navires. Il ne fallait pas non plus perdre de vue les frais de fonctionnement considérables, notamment pour entretenir le chenal. L'ouvrage nécessitait effectivement un nombre considérable de fonctionnaires. Au fond, les recettes espérées par les intéressées s'avéraient, d'après lui, chimériques, recouvrant à peine les frais de premier établissement. La batellerie semblait manifestement se satisfaire d'une situation qui s'était révélée fructueuse pour elle. Les travaux lancés dans le sillage du plan Freycinet avaient contribué à un accroissement sans précédent du trafic. La fonction de Paris en tant que port de consommation semblait leur convenir, et ils n'avaient aucun intérêt à remettre en cause cette situation. Les représentants de la batellerie, tout au moins, ceux qui ont laissé des traces, ne formulaient aucune revendication quant à l'amélioration d'une liaison fluviale entre l'Est et Paris, ce qui tend à montrer qu'ils ne se souciaient guère d'exporter la production nationale Les compagnies de touage avaient tout intérêt pour le statut quo, ce qui les distinguait du Syndicat du Bassin de la Villette, qui ne s'était pas montré hostile à l'idée d'acheminer des chalands de mer jusqu'à Paris, puisque ses usagers pouvaient en tirer profit. 865 Souligné dans le texte original. Ibid. 867 Avant d'être un membre éminent de la chambre de commerce de Paris, Charles Lavaud est entré dans une société de touage sur la Seine. Son opinion s'avère caractéristique du lobby batelier. Il n'avait que peu d'intérêt à des travaux impliquant l'approfondissement de la Seine, et signaient alors l'arrêt de mort du touage. Il ne fait guère de doute que même s'il avait jugé faisable le projet de Bouquet de la Grye, il l'aurait de la même façon rejeté. 866 269 C. Les défenseurs de Paris port de mer. 1. Enthousiasme pour une idée. Il convient à présent d'examiner de plus près les défenseurs du projet de Bouquet de la Grye. On a évoqué la création de la Société d'études Paris-Port-de-Mer, la vie du concepteur du projet. Or, des groupes de pression, parfois même assez puissants, se disaient prêts à soutenir ce projet. Les adversaires appartenaient plus ou moins à la sphère économique ou administrative -le corps des Ponts-et-Chaussées-, la Compagnie de chemin de fer de l'Ouest, les villes portuaires de l'Atlantique et de la Manche, les industriels du Nord, dans une moindre mesure, la batellerie, les régions agricoles du Centre, et ce, pour des raisons très différentes, car étant rivaux entre eux- tandis que les défenseurs relevaient plutôt de groupes sociopolitiques : députés, mairie, départements, plus particulièrement le département de la Seine, municipalité de Paris, militaires, société géographique commerciale de Paris De prime abord, leurs arguments, à la différence des intérêts hostiles, se révélaient plutôt homogènes, quoique plus flous. Il serait injuste d'affirmer que « Paris Port de Mer » relevait du fantasme, d'un rêve irréalisable Les partisans de « Paris port de Mer » n'étaient pas tous des fantaisistes, totalement ignorants des réalités techniques et scientifiques, mais au contraire, on rencontrait des ingénieurs, des intellectuels, des scientifiques, des militaires Autrement dit, des individus appartenant à des milieux « convenables ». Bouquet de la Grye, membre de l'Institut avait une réputation incontestée et bénéficiait d'un réel respect, même de la part de ses détracteurs. Cela explique la portée politique de ses projets et pourquoi l'administration des Ponts et Chaussées prit la peine d'examiner ses projets qui, s'ils avaient été émis pas une autre personne moins prestigieuse, n'auraient certainement pas été examinés par le Conseil des Ponts et Chaussées Jamais les détracteurs des différents projets de la Société d'études ne mirent en cause les compétences de M. Bouquet de la Grye, ni même la faisabilité, mais son coût jugé exorbitant, son inadaptation aux réalités maritimes de l'époque, aux réalités économiques Les défenseurs de « Paris port de mer » ne se privèrent pas, quant à eux, de vanter les mérites de l'ingénieur hydrographe. La municipalité de Paris s'exprima ainsi à propos de ce dernier en 1887 : « L'auteur, M. Bouquet de la Grye, a un nom et une autorité qui méritent 270 tout d'abord une grande confiance868.» Quels étaient les intérêts économiques favorables à Paris port de mer ? On a montré qu'il s'agissait de la région parisienne prise dans son ensemble, ou de régions ne revêtant aucun réel intérêt en jeu : chambre de commerce des Hautes-Alpes, d'Auxerre869 Le projet de Bouquet de la Grye suscita, au demeurant, un vif enthousiasme, comme en témoignaient divers discours enflammés : Tout démontre que ce magnifique et utile projet va se réaliser prochainement ; il importe donc d'y songer et de faire en sorte pour le jour où il faudra donner à cette belle création toute l'activité qu'elle comporte (Applaudissement) [] la loi que le commerce attend pour nous mettre sous ce rapport, au même rang que les nations étrangères et nous permettre de lutter victorieusement avec elle dans la voie du progrès et de la liberté ! (Salve d'applaudissements)870. Les milieux coloniaux et libre-échangistes se montraient particulièrement intéressés par l'idée de relier la capitale à la mer. La Société des études coloniales et maritimes avait, dans sa séance du 27 septembre 1890, manifesté son soutien aux différents projets de Bouquet de la Grye dès 1880 et 1881. Elle qualifia le projet de 1890 de « prestigieux » : « C'est au nom de cette solidarité, au nom des intérêts généraux du pays que nous avons l'honneur, Messieurs, de vous prier de répondre à la demande du Gouvernement en émettant un avis favorable à la création d'un canal maritime reliant Paris à la mer871.» Les arguments développés en faveur du projet se révélaient somme toute assez classiques : faire de Paris un pôle commercial majeur872 : « Paris devenu un grand entrepôt de distribution, un grand centre commercial, s'intéressera à toutes les questions fluviales, maritimes, coloniales, et apportera dans toutes ces questions, par solidarité nationale, le puissant appoint de son influence 873 .» Cet important pôle de commerce était censé concurrencer les grandes cités portuaires telles que Londres et Anvers : « La France tributaire de l'étranger pour la majeure partie de son commerce maritime, n'a même pas le bénéfice de voir sur son territoire plusieurs millions de tonnes de marchandises qu'elle importe et qu'elle exporte ; le port d'Anvers, notamment, qui est, au point de vue économique déjà sous la main ACCIP IV-4.61(9), Rapport présenté par M. Guichard, au nom de la 6ème Commission sur divers projets adressés au Conseil municipal de Paris et relatifs à l'établissement d'un port maritime, Paris, 24 mars 1887, p.13. 869 Le cas d'Auxerre paraît quelque peu surprenant, dans la mesure où il s'agissait d'une région agricole, qui, à l'instar de celles du Centre, aurait dû craindre les importations de produits agricoles, notamment de céréales. Sans doute, les acteurs économiques espéraient-ils un nouveau souffle à une région économique plutôt sur le déclin à cette époque ? La chambre de commerce d'Auxerre espérait peut-être une impulsion pour son industrie Quoiqu'il en soit, la raison reste ouverte. 870 ACCIP IV-4.61 (9), Extrait des discours prononcés lors du Congrès commercial international, 19 septembre 1890. L'extrait du premier discours cité est de M. Couste, président de la chambre de commerce de la Seine, le second de M. Boverat, président de la Compagnie des Courtiers Assermentés. 871 À Messieurs les Présidents et Messieurs les Membres des Chambres de Commerce, Société d'Études coloniales et Maritimes, Paris, 27 septembre 1890. 872 Le terme est anachronique, mais il reflète bien l'esprit du projet. 873 Idem., p.3. 868 271 de l'Allemagne, lui prend un trafic estimé à 3 millions de tonnes874.» La Société d'études coloniales estimait que le projet Bouquet de la Grye ne pouvait nuire aux intérêts des compagnies de chemins de fer, ni même au Chemin de fer de l'Ouest qui « a perdu tout ce qu'il peut perdre, soit les quatre cinquième de son trafic 875 », le trafic ramené par cette réalisation « grandiose » ne pouvant qu'accroître les perspectives de trafic. La chambre de commerce française de Bruxelles876, elle aussi, se rangea parmi les partisans du projet. 2. Les chambres de commerce : un soutien non sans ambiguïtés. Les chambres de commerce furent consultées par le ministre des Travaux publics pour exprimer leur avis sur la question. Elles furent nombreuses à se prononcer favorablement. La chambre de commerce d'Auxerre répondit positivement, car elle jugeait le projet comme encourageant le commerce en général. Ce fut d'ailleurs l'avis de beaucoup de chambres de commerce favorables. Ce fut néanmoins la chambre de commerce de Paris dont le rôle fut le plus important dans l'affaire, étant concernée le plus directement. Une de ses préoccupations au XIXe siècle consistait à réduire le prix des marchandises 877 , ce qui l'amena à soutenir toutes initiatives susceptibles de favoriser le commerce, par le développement d'infrastructures de transport et d'entrepôt présentant des perspectives intéressantes C'est la raison pour laquelle elle encouragea la concurrence entre les divers modes de transport, craignant une hégémonie des chemins de fer, dont elle reconnaissait aussi la nécessité 878. Elle s'était posée pour cela en défenseur de la voie d'eau et exprima le 9 mars 1871 l'avantage que pouvait procurer l'arrivée directe à Paris de navires de fort tonnage. Toutefois, une note du 24 janvier 1911 879 soulignait, pour ce qui était de Paris port de mer, que la Chambre de commerce de Paris ne s'y intéressa qu'assez tard : « Elle [la chambre de commerce de Paris] a, à plusieurs reprises exprimé l'avis qu'il serait avantageux de voir arriver directement à Paris des navires de fort tonnage, mais jusqu'en 1888, les divers projets présentés lui ayant paru trop incertains, elle ne crut pas pouvoir les prendre en considération880.» 874 Ibid., p.2. Ibid. 876 Là encore, la prise de position s'avère difficilement explicable. Sans doute, ses membres ne se sentirent pas concernés Ou y-avait-il un lobby colonial ? 877 Consulter la thèse de Philippe Lacombrade, pp. 878 La Chambre de commerce et d'industrie de Paris 1803-2003. Histoire d'une institution, Genève, Droz, 2003, p. 879 ACCIP IV-4.61 (9), Note du secrétariat, 24 janvier 1911. 880 ACCIP IV-4.61 (10), Ibid., p.1. 875 272 Ce ne fut, semble-t-il, qu'avec le projet de la Société d'études de Paris-Port de mer que la chambre de commerce de Paris se mit à soutenir activement Paris port de mer, y percevant une entreprise sérieuse avec des hommes compétents, tels que MM. Bouquet de la Gryeet Thomasset. Elle trouvait d'autant plus intéressant ce projet, qu'il ne devait pas se réaliser grâce à un fonds public, mais par un financement privé, ne comportant ni subvention, ni garantie de l'État. En ce sens, elle restait fidèle à son positionnement libéral881. Bien entendu, elle pensait que ce projet permettait à la France, Paris plus spécialement de rattraper le retard commercial français à l'égard des ports du Nord. Ces derniers avaient capté une partie du trafic, tels que les cotons allant vers l'Est et les Vosges, et cela malgré l'excédent de distance entre le Havre et l'Est par voie ferrée de 150km par rapport à Anvers : « Il ne s'agissait donc plus d'un rêve sans consistance, mais d'un projet qui, sous la forme nouvelle se renferme dans les limites du possible, en se contentant d'amener à Paris les navires qui peuvent dès à présent, parvenir jusqu'à Rouen 882.» Le Conseil Général des Ponts et Chaussées appela la chambre de commerce de Paris à se prononcer sur la question préjudicielle de savoir s'il fallait accorder à la société demandeuse par voie de concession, un monopole de 99 ans ou même d'une durée moindre sur la Seine, autrement dit le domaine public. La chambre consulaire se prononça favorablement dans sa séance du 19 avril 1889 883 . Elle répondit que cette demande de concession avait des précédents : les compagnies de chemins de fer pour la traversée des routes, fleuves et rivières, et ce, pour une même durée. Il en allait de même pour diverses compagnies de tramways ayant été autorisées à emprunter des routes nationales ou départementales pour leur voie. En outre, on autorisait l'immersion d'un câble de tonnage dans le fleuve. La chambre de commerce de Paris ne voyait par conséquent aucun inconvénient majeur à accorder cette concession. Elle émit néanmoins quelques réserves, notamment pour garantir la jouissance du chenal de l'époque ou d'un équivalent durant l'exécution des travaux, l'achèvement desdits travaux dans les délais déterminés et la reprise par l'État sans aggravation de charges pour les contribuables, si l'exploitation par la société concessionnaire ne correspondait pas au cahier des charges. 881 Elle n'avait, en outre, à ne fournir aucun soutien financier ACCIP IV-4.61 (10), Lettre de la Chambre de commerce de Paris à Monsieur le Ministre des Travaux Publics, n.d., p.2. 883 ACCIP IV-4.61 (9), Procès-verbal de la séance du 20 décembre 1899. 882 273 La Société d'études s'était évertuée à appeler le soutien de la chambre consulaire parisienne comme en témoignait le procès-verbal de la séance du 20 décembre 1899884. M. Bouquet de la Grye avait effectué une visite au président885 de la chambre de commerce de Paris dans le but d'obtenir son soutien. L'affaire Paris port de mer avait ressurgi de l'actualité en raison des décisions prises par le Conseil général de la Seine et du Conseil municipal de Paris qui avaient demandé aux ministres des Travaux publics et du Commerce de tâcher d'obtenir la réalisation du projet, avec en tout cas la mise à l'étude au Parlement. La Chambre des Députés avait d'ailleurs effectivement mis à l'ordre du jour l'étude du projet. L'attitude de la chambre de commerce parisienne n'était pourtant pas sans ambiguïté. Elle s'était montrée globalement favorable à la question, même si certains de ses membres émit de sérieuses réserves quant à la viabilité commerciale du projet de Bouquet de la Grye886. Le président de la chambre de commerce de Paris estimait que la démarche de son institution s'inscrivait désormais dans la suite de l'action de la municipalité de Paris, du Conseil Général de la Seineet de la Chambre des Députés. M. Sciama, membre de la chambre de commerce de Paris rapporta de son entretien avec M. Bouquet de la Grye, que celui-ci reprochait aux rapports de la chambre consulaire d'être trop légers, quoique favorables, ajoutant qu'elle avait plutôt reconnu l'intérêt possible pour le commerce de la capitale qu'un avis franc Il demandait une étude plus approfondie qui aurait servi de pièce pour soutenir son projet, même s'il ne réclamait pas un avis favorable immédiat. Cela signifiait donc que la chambre de commerce ne s'était que modérément intéressée à la question. M. Lainey, autre membre de la chambre, doutait de la viabilité commerciale du projet et qu'une étude était nécessaire : Il est d'autant plus à propos que la question soit renvoyée à la Commission N°2 887, qu'au moins personnellement il ne me paraît pas prouvé que, commercialement, le projet de Paris port de mer, tel qu'il est présenté, soit viable. Cette affaire a besoin d'être étudiée ; elle trouvera probablement une petite, mais cependant une minorité qui voudra se faire entendre888. Un rapport de la chambre consulaire s'est finalement prononcé positivement au projet de Bouquet de la Grye889. Discuté lors de la séance de la chambre du 7 mars 1900, le débat autour de ce rapport illustre les contradictions au sein de la chambre 890 Les discussions 884 ACCIP IV 4.61 (9), Lettre du Président de la Chambre de commerce de Paris au Ministre des Travaux Publics, 17 novembre 1890. 885 ACCIP IV-4.61 (9), Lettre du Ministre des Travaux Publics au Président de la Chambre de Commerce de Paris, 11 décembre 1890. 886 Le Jules Couvreur cité comme défenseur des intérêts de la batellerie, au nom du Syndicat du bassin de la Villette, était également membre de la Chambre de commerce de Paris 887 Commission des voies et moyens de communication. 888 Ibid., pp.5-6. 889 ACCIP IV-4.61 (9), Rapport présenté par M. Pozzy au nom de la Communication des Voies et Moyens de Communication, 1900, 19p. 890 ACCIP IV-4.61 (9), Procès-verbal de la séance du 7 mars 1900. 274 s'étaient révélées assez houleuses. Le contenu même du rapport Pozzy fut vivement contesté. Le directeur du PLM, M. Noblemaire critiqua un certain nombre des chiffres fournis891. Il en allait de même pour les sorties du futur port, dont le chiffre semblait exagéré compte tenu de celles du port de Paris d'alors892. M. Bouquet de la Grye paraissait sous-estimer le coût des dragages des vases amenées par les affluents dont le montant s'élevait à 5 francs le mètre cube, ce qui représentait un total de 250000 francs, ainsi que le temps pour parvenir au tirant d'eau projeté893 Malgré cela, il ne contestait pas le principe même de Paris port de mer : « Je considère, pour ma part, que la Chambre et Commerce de Paris ne peut formuler une opinion contraire à celle des promoteurs du projet qu'on lui offre : ses conclusions me paraissent être forcément approbatives 894 .» Il lui semblait que le rapport n'avait pas suffisamment insisté sur le fait qu'à Hambourg, le tirant d'eau était d'après ses informations plutôt faible, soit 4,40 m en basse mer et 6,60 m en haute mer et éloigné de la mer de 130 km. Cela devait constituer un argument de poids pour défendre Paris port de mer : J'estime donc qu'il est essentiel, dans le rapport de M. Pozzy 895 de mettre ce fait en valeur, car c'est un argument considérable en faveur de Paris port de mer, que d'établir par l'espérance que malgré le tirant d'eau que d'aucuns appellent faible un trafic colossal peut être fait à Paris, avec 6,20 mètres de tirant d'eau, peut devenir un port de mer très important896. D'autres membres exprimèrent des objections plus graves encore. M. Lesieur se prononça ainsi contre le projet, car inadapté à l'évolution des navires : « Exécuter un travail pareil pour des navires de 1500 ou [ou « et » ?] de 2000 tonnes, cela n'en vaudrait véritablement pas la peine. Vous savez que la navigation actuelle comporte des navires jaugeant 5000 tonnes, et que l'avenir est proche où ils jaugeront 8000 tonnes897.» Il rappelait que le canal de Tancarville, primitivement destiné à la grosse navigation, n'avait servi qu'à la batellerie ou encore à de petits caboteurs. Le projet ne semblait être viable que pour le petit et grand cabotage. Les frets de sortie allaient être fort réduits. Les assurances primes d'assurances devaient en outre grever les finances. M. Lainey et M. Couvreur appuyèrent les propos de M. Lesieur: le tirant d'eau 891 M. Pozzy déclarait les avoir tirés du rapport Descombes et de M. Bouquet de la Grye lui-même : pour le trafic du Havre, M. Noblemaire avançait 3 518 000 t contre les 6 060 000 t avancés par M. Pozzy. 892 34%, en 1898, selon lui. 893 6,50 m. 894 Ibid., p.10. 895 Le Kaiser Wilhem qui avait un tirant d'eau de 7,93 m allait à Brême et non à Hambourg comme c'était écrit dans le rapport, les grands navires s'arrêtant à Wolfenbatten, c'est-à-dire à l'entrée du canal de Kiel Voir notamment « Le canal maritime allemand et les flottes modernes », in Revue des Deux Mondes, 1895, tome 130, p.320. (Auteur anonyme). 896 Ibid. 897 Ibid., p. 15. 275 paraissait insuffisant, le fret au retour quasi inexistant Les difficultés de navigation s'avéraient considérables : on devait craindre un fort taux d'échouage, déjà considérable dans les conditions d'alors, la première année de mise en service du canal de Suez, pourtant sans écluse, ce taux s'était élevé à 52%, d'où un surcroît d'assurance. L'argument le plus lourd était celui avancé par celui de M. Couvreur : la structure même de l'industrie parisienne. Il s'agissait d'une industrie d'artisanat, dont les tonnages étaient somme toute modestes, et qui n'aurait pas éprouvé d'intérêt à avoir recours à ce canal : remplir les navires au retour devenait alors problématique : Qu'est-ce que l'industrie parisienne ? C'est de l'industrie artistique, c'est l'industrie des infiniment petits. Et si je pousse dans leurs derniers retranchements ceux qui sont les partisans de ce projet et que je leur demande de quoi ces chargements de 2500 tonnes se composeront, ils seront fortement embarrassés. Or si, comme je le pense, il n'y a pas de fret de sortie, vous êtes en présence d'un droit obligatoire, non de 3 francs 25 mais de 6 francs 50, puisque c'est le tonnage de jauge qui est prohibitif898. Si l'on s'est concentré sur les objections, c'est qu'elles furent les plus nombreuses, et surtout, les interventions ont été les plus longues, mais personne ne semblait convaincu. M. Suillot, autre membre présent, s'exprima ainsi : « Je suis prêt à voter les conclusions du rapport si le rapport lui-même ne paraît pas. Je voterais contre si le rapport devait paraître899.» Toute une discussion éclata pour déterminer s'il fallait publier ou non le rapport dans le bulletin de la chambre de commerce et sous quelle forme900 Finalement le voeu suivant fut adopté : « La Chambre de commerce de Paris, rappelant ses décisions antérieures, exprime à nouveau le voeu que le projet de Paris port de mer soit déclaré d'utilité publique901.» D'où venaient ces réticences ? Un des arguments cruciaux semble avoir été l'évolution de la marine : « Depuis que nos précurseurs -en 1890- ont émis un avis favorable à Paris port de mer, il s'est passé beaucoup de choses nouvelles en matière de navigation 902 .» Les objections de certains consuls poussèrent sans doute Bouquet de la Grye à des modifications pour son dernier projet (1907). Il augmenta ainsi le tirant d'eau de son canal à 8 m. L'abaissement du fret fluvial entre Paris et Rouen vint encore appuyer les avis défavorables, ce d'autant plus que certains membres de la chambre de commerce étaient plus ou moins liés à la batellerie, à l'instar de M. Couvreur, président du Syndicat du Bassin de la Villette, qui n'avait pas forcément intérêt à encourager un projet mettant en cause la batellerie qui offrait 898 Ibid., p. 23. Ibid. 900 Facultatif ou à titre d'information. 901 Ibid., p.34. 902 Ibid., p.19. 899 276 un prix du fret extrêmement compétitif. Les doutes grandirent, même si en majorité, répétonsle, les consuls s'étaient montrés plutôt favorables à Paris port de mer. Les détracteurs au sein de la Compagnie ont cependant contribué à atténuer l'action de leur établissement sur cette question, si bien qu'elle ne joua pas le rôle qu'escomptaient la Société d'études et les partisans du projet Les divergences s'accentuèrent les années suivant cette délibération. Le 31 mars 1908903, lors de l'examen d'une communication de M. Lionel Rodiguet exhortant la Chambre à intervenir afin d'empêcher les dépenses réalisées au Havre qui auraient nui à Paris port de mer. Les avis au sein de la Chambre se montrèrent effectivement très partagés. M. Soulé estima même que la chambre de commerce de Paris devait joindre ses efforts à ceux de leurs confrères du Havre pour encourager la construction rapide d'une seconde voie ferrée entre la capitale et Le Havre. Par ailleurs, le rapport présenté par M. Mallet, déposé le 26 octobre 1911, adopté et converti en délibération par la chambre de commerce dans sa séance du 8 novembre 1911904 se montrait beaucoup moins enthousiaste pour Paris port de mer, du moins dans la forme envisagée par la Société d'Études Paris port de mer. Il ne traitait que très peu de la question de Paris port de mer : « Nous croyons qu'elle a été disséquée depuis quelques mois pour ne plus la discuter905.» Il relativisait largement la question, du moins telle qu'elle avait été envisagée jusqu'à présent : mais s'il a été démontré qu'elle est utopique en tant qu'elle conçoit de grands bateaux de mer remontant, non pas à Paris même (il ne saurait en être question) mais seulement à Clichy, elle mérite d'être prise en toute spéciale considération si elle se propose de faire parvenir à Paris les chargements maritimes avec plus de sécurité, plus de régularité, plus de rapidité, plus d'économie 906. Il estimait qu'une hausse de calaison d'un mètre eût contribué à ce résultat dans une large mesure. L'idée de Paris port de mer offrait l'avantage d'accélérer les travaux sur la Basse-Seine pour améliorer les conditions de navigation maritime ou fluviale par l'augmentation des dimensions sous les ponts tant en hauteur qu'en longueur, permettant à la navigation en hautes eaux : « Elle a, en navigation fluviale, une énorme importance comme en navigation maritime907.» 903 ACCIP IV-4.61 (10), Note du secrétariat, Canal maritime de Paris à Rouen, 24 janvier 1911. ACCIP IV-4.61 (10), « Protection contre les inondations dans le bassin de Paris. Navigation de la Seine. « Paris port de mer » », Rapport présenté au nom de la Communication des Voies et Moyens de communication par M. Mallet, déposé le 26 octobre 1911, et adopté et converti en délibération par la Chambre de commerce de Paris dans sa séance du 8 novembre 1911. 905 Ibid., p.16. 906 Idem. 907 Ibid. 904 277 Il ne s'agissait plus nécessairement d'apporter un soutien à des projets aussi grandioses que ceux imaginés dans le passé Charles Lavaud, spécialiste de la question fluviale au sein de la chambre consulaire, dans son ouvrage sur la navigation de la Seine et du port de Paris écrivit à propos de Paris port de mer : « Par bonheur, on l'a ramené à de justes proportions 908 », ajoutant « et elle aura eu l'immense avantage de créer un mouvement d'opinion en faveur d'une amélioration de la navigabilité sur Seine et du port fluvial de Paris909.» L'amélioration de la navigation fluviale lui paraissait plus pertinente pour baisser les prix des transports. Il notait à ce propos que les prix pratiqués pour les transports par chalands remorqués étaient déjà « très inférieurs à ceux qu'on pourrait envisager dans l'hypothèse de la réalisation de Paris Port de Mer, tel que l'avait conçu son auteur 910 . » D'autres facteurs expliquaient ce changement d'attitude, en premier lieu, la composition des membres de la chambre, relevant plus des industries du luxe, moins concernées par conséquent par la navigation, et en second lieu, l'important effort consenti par la compagnie dans le domaine de l'éducation. Cependant, Charles Lavaud avait tout intérêt à empêcher toute concrétisation de Paris port de mer. Si ses arguments paraissaient relever du bon sens, ils dissimulaient mal des arrière-pensées liées à la défense d'intérêts très particuliers. En effet, son statut de spécialiste du transport fluvial tenait au fait qu'en 1893, il était entré en qualité d'ingénieur911 à la Société Générale de touage et de remorquage pour en devenir par la suite le directeur général912. De ce fait, les projets de Paris port de mer représentaient une menace potentielle pour la pérennité de son entreprise. 3. Des soutiens politiques à l'appui d'un dessein grandiose. a) Des appuis instables. Paris port de mer ne manqua pas de partisans, bénéficiant notamment d'appuis politiques. On peut affirmer que globalement les pouvoirs politiques se montraient plutôt favorables. Sans doute plus pour des raisons électorales que par réelle conviction913. Ainsi, lors du Congrès commercial international qui s'était tenu le 19 Septembre 1890, le ministre Charles Lavaud, 2ème section, La Navigation sur la Seine et le Port de Paris, Association française pour le développement des travaux publics, 4ème Congrès National des travaux publics français à Paris, les 18, 19 & 20 Novembre 1912, Paris, août 1912, p.1. 909 Ibid. 910 Ibid. 911 Sorti de l'École Centrale des Arts et Manufactures en 1886. 912 ACCIP IVI 2.55 (32), Notice biographique de M. Charles Lavaud (1864-1946). 913 Ce que tend à montrer le début de la nouvelle de Blaise Cendrars sur Paris port de mer 908 278 des Travaux publics, M. Guyot, déclarait : « je considère que ce serait une politique dépressive que de s'y opposer914. » Deux handicaps majeurs se posaient pour que le soutien politique fût efficace. Le premier résidait dans l'instabilité ministérielle récurrente. Le ministre des Travaux publics, M. Puech quitta effectivement le 1er mars 1911 son ministère après un séjour de seulement quatre moisLe Journal de la Navigation notait dans son numéro du 4 mars 1911 : Sa situation de député de Paris lui rendait particulièrement délicate son attitude devant la campagne de reprise du projet de Bouquet de la Grye. Il a su concilier l'intérêt général avec les voeux de l'opinion politique en créant la Commission qui procède, en ce moment, dans le calme à l'étude des améliorations pratiques et désirables à réaliser pour l'organisation du Port de Paris, et non de Clichy-Port-de-Mer915. Ce même journal retenant quelques opinions, dont une défavorable : Le projet de Paris port de mer sera bientôt enterré. Avant que la commission nommée par le ministre des travaux publics ait terminé ses travaux, il apparaît dès maintenant que le projet sera abandonné parce que antiéconomique, et remplacé par un projet plus sérieux consistant en un approfondissement de la Seine permettant aux chalands actuels de naviguer en temps de crue916. Cette dernière citation en dit long sur le processus d'étouffement de l'affaire. Les pouvoirs publics créent une commission, afin de satisfaire les passions de l'opinion, plutôt favorable Mais cet engouement s'estompe en fin de compte, jusqu'à ce que le projet soit rejeté par l'Administration qui s'était déjà faite son propre avis. L'alternance politique facilita ce processus, chaque nouveau ministre créant une commission d'enquête pour examiner l'affaire, ce qui en retardait d'autant l'exécution Il s'agissait souvent de gagner du temps. Il est malaisé de déterminer la conviction réelle des différents ministres : étaient-ils sincères ? Menaient-ils un double jeu consistant à satisfaire l'opinion publique tout en ne s'aliénant pas l'Administration, ni les énormes intérêts économiques ayant exprimé leur hostilité à un projet qui les menaçaient directement ? La seconde grande faiblesse de Paris port de mer reposait indubitablement sur l'opposition de l'Administration des Ponts et Chaussées qui, comme on l'a vu, rejeta 914 Op. cit., p.4. Le document indique de « vifs applaudissements » et met la déclaration en italique pour la souligner. Avec le recul, ses propos paraissent très ironiques dans la mesure où comme le verra par la suite, il allait devenir un des plus violents détracteurs du plan Baudin et plus largement des projets de construction de canaux. On lui doit effectivement le terme « d'aquatiques » pour désigner les défenseurs des voies navigables. Son projet de loi destiné à poursuivre le programme de travaux publics entamé en 1879 était d'essence libérale, et reposait en grande partie sur l'initiative privée. Le fait que ce soit précisément une société privée qui finançât les travaux pouvait partiellement expliquer son attitude favorable. Voir notamment GUYOT (Yves), Le Repêchage des cinq cent millions à l'eau, le programme Baudin au Sénat, 1903, 64p. 915 ACCIP IV-4.61 (10), Journal de la Navigation, samedi 4 mars 1911, N°12, 9ème année. 916 Ibid. 279 poliment, mais systématiquement, tous les projets de Bouquet de la Grye, car ils s'opposaient à leur propre conception de l'aménagement de la Seine. Et c'est en fin de compte le Conseil général des Ponts et Chaussées qui eut le dernier mot. Au fond, ce conseil était la quadrature du cercle, le cercle ultime, le noeud gordien impossible à trancher Afin de s'en rendre compte, une chronologie de la question s'impose, car très révélatrice du jeu entre les différents pouvoirs917. Ainsi, le vice-amiral Thomasset, président de la Société d'études de Paris port de mer, présenta un projet élaboré par M. Bouquet de la Grye le 6 octobre 1886. Ce même projet fut soumis au Conseil Général des Ponts et Chaussées qui conclut dans un avis du 27 janvier 1887 que le projet proposé soulevait de graves objections et qu'il ne jugeait pas utile d'y donner suite. Le ministre de l'époque ne partagea pas ce sentiment et exigea de la Société d'Études des documents supplémentaires qu'il reçut le 1er juillet 1887. Le 1er octobre de la même année, une dépêche ministérielle appela les ingénieurs de la navigation à donner leur avis sur le projet, avis qui allait, sans surprise, encore se montrer hostile. Au final, les ministères se succèdent, mais l'Administration demeure Et il est fort à parier que dans un contexte d'instabilité ministérielle, le pouvoir réel revenait à l'Administration. b) Soutien de la part de certains parlementaires. La Chambre des Députés s'intéressa également à la question : le 24 février 1888, M. Achard déposa une proposition de résolution se terminant par une demande de mise à l'enquête. Sa proposition fut renvoyée à la Commission d'initiative parlementaire, qui fit déposer à son tour par M. Gomot, un rapport dans lequel il relatait l'approbation donnée au projet par les amiraux Jauréguiberry et Thomasset, le « considérant comme réalisable et fécond en résultat918.» La Chambre des Députés adopta ces conclusions et renvoya la question à une commission qui déposa, à son tour, son rapport le 9 juillet 1889919. Quelques mois plus tard, en décembre 1889, le Conseil général de la Seine, sur la proposition de M. Alexis Muzet, émit le voeu que le Parlement se penche sur la question le plus tôt possible. La Chambre nouvelle, le 4 mars 1890, sur proposition de M. Jacques, le Sénat, le 29 mars sur la 917 ACCIP IV-4.61 (9), Rapport de la Commission chargée d'examiner la proposition de loi de M. Jacques et de plusieurs de ses collègues ayant fait l'objet et de déclarer d'utilité publique le projet d'un canal maritime de Paris à Rouen, par M. Descubes, 6ème législative, session 1897, séance du 18 juin 1897, annexe au P.V. de la séance du 18 juin 1897, 59 p. 918 Ibid., p.9. 919 ACCIP IV-4.61 (8), Rapport déposé par M. Gomot, n°2806, 4 ème législature, session de 1888, annexe au procès-verbal du 21 juin 1888. 280 proposition de l'amiral Peyron réclamèrent une mise à l'enquête définitive920. M. Guieysse921, au nom de la Commission d'initiative de la Chambre, déposa le 20 mars 1890, un rapport favorable à la proposition. Le ministre des Travaux publics, M. Guyot, accueillit positivement cette proposition, et la porta au Conseil des Ministres et l'enquête a été décidée le 22 août 1890. M. Descubes-Desgueraines, ancien député de la Corrèze922, rédigea un fascicule de mai 1898923, défendant le projet Bouquet de la Grye, qui servit de base à la proposition de loi de Paris port de mer de 1902 de M. Charles Bos924. La prise en considération fut votée le 20 janvier 1894, le 27 février de la même année, la Chambre nomma dans ses bureaux une commission spéciale dont M. Descombes était le rapporteur. Elle n'eut pas le temps de délibérer sur cette question. Le 4 juillet 1898 toutefois, M. Chassaing925, en son nom et au nom de 108 autres députés se joignit à cette proposition. Aucune suite ne fut donnée à cette proposition. Il fallut attendre que le gouvernement demandât à la Chambre de se prononcer sur tout un plan de travaux concernant les ports et voies de navigables, qui ne comprenaient pas le port en eau profonde de Paris pour que MM. Chassaing et Bos déposent un amendement au projet du ministre. À nouveau, une commission fut nommée, chargeant Charles Bos de lui rapporter une étude sur cette question Plusieurs commissions successives, d'initiatives parlementaires, s'étaient réunies afin de discuter de la question : M. Guieysse, député publia ainsi un rapport au nom de la quatrième commission parlementaire chargée d'examiner la proposition de M. Jacques relative au projet de canal de Paris à la mer 926. Les conclusions du rapport se montraient favorables à Paris port de mer, avançant les arguments classiques : concurrencer le port 920 ACCIP IV-4.61 (9), Projet de délibération relatif au projet de canal de Paris à la mer. N°54. Session 1890. Annexe au Procès-verbal de la séance du 29 mars 1890. 921 Polytechnicien, Ingénieur hydrographe de la Marine, Pierre-Paul Guieysse était député radical et républicain du Morbihan de 1890 à 1910. 922 Rédacteur au ministère des Travaux publics, il est devenu chef adjoint de cabinet d'un ministre. Il devint député de la Corrèze de 1893 à 1898, siégeant chez les Républicains progressistes. En parallèle à ses activités politiques, il écrit dans de nombreuses revues. Après sa défaite en 1898, il devient administrateur de la société Panhard et Levassor, président de l'Électrique Lille-Roubaix-Tourcoing et de l'Union des Tramways. 923 ACCIP IV-4.61 (9), « Paris port de mer » par M. Descubes, ancien député de la Corrèze. Extrait de la Revue politique et Parlementaire, (mai 1898), Paris, Bureaux de la Revue politique et Parlementaire, 110 rue de l'université, 20p. 924 Conseiller municipal de Paris en 1896, il est élu député de la Seine de 1898 à 1906, inscrit au groupe Radicalsocialiste. Battu en 1906, il retourné à ses activités de journaliste. 925 Eugène Antoine Chassaing était député radical-socialiste du Puy-de-Dôme. 926 ACCIP IV-4.61 (9), Chambre des députés. 5ème législature. Session de 1890. Rapport sommaire fait au nom de la 4ème commission d'initiative parlementaire chargée d'examiner la proposition de résolution de M. Jacques et plusieurs de ses collègues relative au projet d'un canal de Paris à la mer, par M. Guieysse, député, sur proposition de M. Jacques, le 20 mars 1890, 4 p. 281 d'Anvers, encourager le commerce en France même. Le projet était confié à une société privée, et donc ne comportait que peu ou pas de risque pour l'État Paris port de mer fut encore défendu dans l'enceinte de la Chambre des Députés, lors de la séance du 28 novembre 1910 par M. Charles Leboucq 927 soutenu par 206 de ses collègues ayant déposé une proposition de loi avec pour objet de faire déclarer d'utilité publique le projet de canal maritime de Paris de Bouquet de la Grye à Rouen soumis aux enquêtes par arrêté du 26 avril 1890. Ce projet était susceptible, selon lui, de résoudre le problème des crues928 du fait de l'abaissement général des plans d'eau prévus par le projet. La proposition de la commission des inondations d'un travail coûtant 30 millions de francs et ne s'appliquant que sur la partie comprise entre Suresnes et Bougival ne lui paraissait pas suffisante. Il n'était en outre pas opposé à une concession du canal à la collectivité, c'est-àdire soit au département de la Seine, soit à la Ville de Paris, sans toutefois être opposé à une prise en charge par une compagnie privée. Le Sénat publia aussi un projet de résolution dans la séance du 29 mars 1890, rédigé, entre autres, par l'amiral Peyron, et MM. Isaac et Poirrier929, de la chambre de commerce de Paris930. Ce projet exhortait le Gouvernement à soumettre à l'enquête, conformément à la loi du 3 mai 1841, le projet de canal de Rouen à Paris proposé par la Société d'études de « Paris port de mer ». De nombreuses initiatives de ce genre furent renouvelées à la Chambre des Députés, telles que celle de la proposition d'utilité publique du projet de canal maritime daté de 1893 et dont M. Jacques était encore l'auteur. M. Jacques et 31 de ses collègues présentèrent une proposition de loi en vue de rendre d'utilité publique le projet de canal maritime Paris-Rouen. Celui-ci fut examiné par la commission d'initiative parlementaire de la dernière législature avec M. Edmond Muller comme rapporteur concluant à la prise en considération de la proposition, et au vote de la loi avant expiration des pouvoirs de la législature. Ce voeu ne fut pourtant pas réalisé, faute de temps C'est la raison pour laquelle M. Jacques et 38 collègues renouvelèrent la proposition dès le début de la législature suivante. L'action de soutien de Paris port de mer ne s'exerçait pas uniquement au niveau de l'exécutif et du législatif, mais plus encore sur le plan local. 927 Député radical de la Seine de 1906 à 1928. Il est secrétaire de la Chambre de 1909 à 1911. Il ne faut bien sûr pas oublier la fameuse crue de janvier 1910 qui marqua fortement les esprits et donné une nouvelle impulsion aux défenseurs de Paris port de mer. 929 Alice Poirrier fut élu président de la chambre consulaire le 12 janvier 1887. 930 ACCIP IV-4.61 (9), Chambre des députés. Sixième législature. Session extraordinaire de 1893. Annexe au procès-verbal de la séance du 2 décembre 1893. N°85. Proposition de loi ayant pour objet de déclarer d'utilité publique le projet d'un canal maritime de paris à Rouen, présenté par M. Jacques. 928 282 c) Soutien local : le département de la Seine et la Ville de Paris. Le département de la Seine s'était également intéressé à la question, s'étant prononcé favorablement au projet de Bouquet de la Grye à la suite de cinq séances d'une commission intitulée « Commission d'enquête » concernant le projet d'établissement d'un canal maritime entre Paris et Rouen présenté par la société d'étude dite de « Paris port de Mer » 931 . Les séances se tinrent les 10, 17, 24, 31 janvier et 14 et 21 février 1891 932. Elle adopta le projet plus exactement lors de la cinquième séance, sous la présidence de M. Alphand, Inspecteur général des Ponts et Chaussées, directeur des Travaux de Paris à la préfecture de la Seine. Le rapport 933 adopté lors de la sixième séance avait pour rapporteur le député Poirrier. La commission formula néanmoins des réserves. La première exigeait de ne pas gêner les services de la Compagnie de l'Ouest et ne pas causer de préjudices aux communications des deux rives du fleuve. La seconde réserve réclamait que l'exécution du canal ne donnât pas l'occasion de charges supplémentaires pour la batellerie. La troisième exigence consistait à maintenir les parties du fleuve abandonnées par le canal à 3,20 m. Dans la quatrième réserve, la Commission prenait acte des réserves formulées par les représentants de la Ville de Paris au sujet de l'exécution des travaux d'assainissement de la Seine qu'elle ne pouvait ajourner, réclamant des modifications par suite de l'ouverture du canal que la Ville laissait à la charge des concessionnaires du canal. La dernière exigence était que l'État se réservât le décret de rachat de la concession avant l'expiration de la durée pour laquelle elle était prévue. Par contre, dans la cinquième séance, le président de la commission, rappela que la commission devait tenir compte, dans son avis, de la question du chemin de fer. M. Gauckler ne considéra pas l'exploitation du canal maritime comme inconciliable avec celle de la voie ferrée. Il invoquait l'exemple de la navigation du Rhin considérable s'effectuant sans grande gêne pour le trafic par voie ferrée entre Anvers et Amsterdam. Le président avait remarqué de son côté que le trafic sur le réseau de l'Ouest était avant tout un trafic de voyageurs934. 931 La composition de la commission d'enquête était la suivante : M. Poirrier, rapporteur, M. Alphand à la présidence, et les autres membres étaient MM. Bailly, Bull, Bompard, Buret, Chambrelent, De Bussy, Gauckler, Lefoullon, Péghoux et Prevet. 932 Les procès-verbaux ainsi que le matériau ayant permis ce rapport sont contenus dans la boîte AD S4/1 des archives de Paris boulevard Serrurier, en fait, pour être plus exact les archives départementales de la Seine. 933 ACCIP IV- 4 .61(9), Avis de la Commission d'enquête du département de la Seine sur le projet présenté par la Société d'Études de Paris-Port-de-Mer, rapporteur A. Poirrier, Paris, Imprimerie et Librairie centrales des chemins de fer, Imprimerie Chaix, 1891, 38p. 934 A.P. DS4/1, Procès-verbal de la 5ème séance tenue le 14 février 1891, de la Commission d'enquête concernant le projet d'établissement d'un canal maritime entre Paris et Rouen, présenté par la Société d'études dite « Paris port de Mer ». 283 La municipalité de Paris apporta également son soutien aux projets de Bouquet de la Grye. Elle se prononça en faveur du projet de Bouquet de la Grye dès 1887, en acceptant plusieurs conclusions du rapport de M. Guichard en date du 24 mars 1887935. Pour de telles conditions, l'oeuvre que nous examinons se présente plutôt comme une suite, une conséquence presque forcée des améliorations antérieures que comme une oeuvre puissamment nouvelle. Mais son originalité propre est d'avoir cherché l'économie et la facilité du travail, là où plusieurs avaient en vue de provoquer l'étonnement par la grandeur de leur spéculation936. Le coût du projet lui paraissait réaliste : 2 francs la tonne pour les déblais, 1,50 franc pour les dragages dans le gravier Se bornant à effleurer dans tout ce parcours la couche crayeuse, aucun surcoût ne semblait à prévoir. Il voyait dans ce projet aussi de nombreux aspects positifs pour la défense du pays : on pouvait placer les deux seules écluses au milieu d'ouvrages défensifs pour les rendre inaccessibles à l'ennemi. Par ailleurs, ce projet présentait l'avantage d'accorder « toute liberté au chemin de fer du Havre à Paris 937» et de ne pas perturber les habitudes riveraines : nous pouvons le considérer comme apportant une amélioration à l'état actuel, en même temps qu'il se prête facilement à celles que l'avenir peut réserver 938» et « En résumé, de tous les projets soumis à notre examen, le seul qui paraisse mériter l'approbation du Conseil est celui que nous avons étudié en dernier lieu : la modalité de la dépense, le soin avec lequel ont été faites les études, le temps même consacré à leur évaluation, nous sont une garantie de leur valeur. Nous vous proposons donc d'émettre un voeu en faveur de la réalisation de l'oeuvre conçue par M. Bouquet de la Grye et soumise au Conseil par M. le vice-amiral Thomasset939. Cette prise de position a été réitérée à maintes reprises, la municipalité s'affichant comme défenseur de l'idée de Paris port de mer. 344 829 électeurs parisiens avaient, en effet, réclamé l'exécution du projet Bouquet de la Grye, lors de l'enquête de 1890. Selon une recherche de la Société d'études de Paris Port-de-Mer, 191 dires au mémoire de Bouquet de la Grye favorables avaient été inscrits au registre d'enquête déposé à l'Hôtel de Ville 940. Ainsi, dans le Bulletin municipal officiel du samedi 9 décembre 1899, il était fait mention d'une proposition d'un voeu de M. Sauton sollicitant la mise en oeuvre de Paris port de mer en vue de son achèvement pour l'Exposition universelle de 1900 qui allait, d'après lui, entraîner le ACCIP IV-4.61(9), Rapport présent par M. Guichard au nom de la 6ème Commission, sur divers projets adressés au Conseil municipal de Paris et relatifs à l'établissement d'un port maritime, Paris le 24 mars 1887, 15p. 936 Ibid., p.14. 937 Ibid. 938 Ibid. 939 Ibid., p.15. 940 ACCIP IV-4.61(9), Annexes. Canal maritime de Paris à la mer. État général au 1 er octobre 1892 des Voeux, Délibérations et Pétitions collectives ou individuelles favorables au projet de construction d'un canal maritime de Paris à Rouen (Paris Port de Mer). 935 284 chômage de beaucoup d'ouvriers appelés de la province sur Paris941. Pour cela, le président et les membres du Conseil municipal de Paris devaient formuler la demande auprès du président du Conseil des ministres et des ministres des Travaux publics et du Commerce « à l'effet d'obtenir la présentation d'urgence d'un projet de loi appelant le Parlement à se prononcer sur le projet Paris port de mer942.» Le Conseil municipal de Paris réitéra son action par l'adoption d'un voeu de M. Pierre Jolibois pour qu'un projet de loi sur Paris port de mer fût présenté aux Chambres le plus tôt possible, renouvelant par ailleurs la proposition de M. Blachette, dans la séance du 31 mai 1899, visant à émettre le voeu que les pouvoirs publics autorisent le plus rapidement possible la création d'un canal maritime de Paris à la mer. M. Jolibois, conseiller municipal, prononça un long exposé sur la question943 et demanda que le Conseil municipal émît le voeu « qu'un projet de loi soit déposé par le Gouvernement pour l'exécution d'un canal maritime de Paris à Rouen ou à Dieppe944.» Dans son rapport, M. Guichard définit les avantages de Paris port de mer, selon trois ordres : bénéfice commercial, moral, patriotique Le bénéfice moral existait dans la mesure où ce canal apportait, selon lui, une diminution du prix de fret entre l'étranger et la capitale française par rapport au prix alors en vigueur, comprenant un transbordement aux ports du Havre et de Rouen. Pour ce qui était du bénéfice moral, M. Guichard avançait un raisonnement similaire à celui du rapport de la Commission d'enquête du département de la Seine : Paris port de mer allait insuffler aux Français le sens des affaires semblant leur faire défaut, ou du moins insuffisant : « Elle [la capitale, Paris] deviendrait plus sérieuse si les habitants avaient le contact plus fréquent de commerçants sérieux eux-mêmes, et si les Parisiens, devenus voyageurs, rentraient au bercail, après avoir beaucoup vu et beaucoup retenu 945. » Si le conseil municipal de Paris avait apporté un soutien indéniable946 aux projets de Bouquet de la Grye, ce soutien même était-il réellement inconditionnel ? Il apparaissait plus attaché à l'idée même de Paris port de mer qu'au projet même de l'ingénieur hydrographe, 941 Bulletin municipal officiel du samedi 9 décembre 1899. ACCIP IV-4.61 (9), Bulletin municipal officiel du samedi 9 décembre 1899. Adoption d'une proposition de M. Sauton relative au projet de « Paris-Port de mer », pp.39-49. 943 Avec d'importants rappels historiques sur le problème, s'attardant d'ailleurs sur les projets Dumont-Richard déjà évoqués précédemment 944 ACCIP IV-4.61 (10), Bulletin officiel du mardi 12 mars 1907. Renvoi à l'Administration et à la 6 ème Commission d'une proposition de M. Jolibois relative à la création de Paris port de mer, pp.1492-1495. 945 Ibid. 946 Et ce, jusque dans les rapports présentés par Georges Lemarchand de 1911 et 1916 942 285 comme en témoignaient les derniers propos relevant plus de ce que l'on peut appeler le mythe de Paris port de mer II. PARIS PORT DE MER : ENTRE RÊVE ET RÉALITÉ. A. Une fièvre européenne de canaux maritimes. La question de Paris port de mer suscita tous les fantasmes possibles et imaginables. Elle demeure un mythe dans la mesure où les projets n'ont jamais vu le jour. Pourtant, se développa parallèlement un mode de transport original, synthèse entre réalisme et l'espoir tenace de relier Paris à la mer : le fluviomaritime. Les projets de Paris port de mer n'étaient pas spécifiques à la France. En effet, on assista durant la seconde moitié du XIXe siècle à une vague de projets reliant des villes en pleine terre à la mer. Par ailleurs, Paris port de mer ne se cantonnait pas simplement à un projet économique, mais visait à renforcer le pays : à la fois par la protection militaire qu'il était censé procurer et par une régénérescence morale. Cette revitalisation devait finalement contribuer à combler le « retard » du pays. Au point de vue strictement économique et technique se greffait un aspect plus idéologique. Il est intéressant de saisir pourquoi tant de personnes, tant d'écrits furent mobilisés pour de tels projets. S'agissait-il d'un pur fantasme ou Paris port de mer pouvait-il réellement voir le jour ? Sur le plan technique, les ingénieurs émirent des réserves, mais comme on a déjà eu l'occasion de le dire, à aucun moment, concernant les projets de Bouquet de la Grye, ils ne mirent en doute sa faisabilité, prétextant plutôt le coût prohibitif, l'absence de trafic Il en alla de même pour d'autres projets tels que ceux de Dumont et Richard947 Bien sûr, certains projets étaient extravagants et là, les ingénieurs ne se privèrent pas d'en critiquer la non faisabilité Ceux-ci ne cherchaient-ils pas à dissimuler leur incapacité à construire de tels ouvrages948 ? 947 Paris port de mer. Canal maritime de Dieppe à Paris proposé par M. E. Sabattié. Avant-projet et mémoire justificatif, par M. Aristide Dumont et M. Louis Richard, Paris, Henri Plon, Éditeur, 1865. 948 La comparaison avec les canaux de Suez et de Panama s'avère très révélatrice, à cet égard. En effet, la réalisation du premier, traversant des zones sablonneuses, était plus aisée que celui du second qui imposait de creuser la montagne C'était d'autant plus vrai que les travaux publics de l'époque n'étaient pas aussi mécanisés qu'ils ne le devinrent plus tard. D'ailleurs, une part de l'échec de Panama pour les entrepreneurs français résida dans le manque de moyens financiers et techniques pour une telle entreprise. Si le coût se révéla lourd également, les Américains y parviendront, mais avec des moyens bien plus considérables. Les techniques avaient dans le même temps évolué et rendaient plus faisables ce type de projet. En outre, le canal de Panama s'intégrait bien mieux aux intérêts stratégiques et économiques des États-Unis On peut saisir alors qu'il y avait de quoi faire reculer les ingénieurs français quant à la réalisation d'un canal maritime entre Paris et la mer ! 286 Paris port de mer ne représentait pas un cas unique, les canaux maritimes étaient en vogue dans la seconde moitié du XIXe siècle On peut citer le Wilhem canal. L'Allemagne projeta d'élargir et d'approfondir le canal de Kiel creusé de 1887 à 1895 qui avait déjà coûté 156 millions de marks. Le but était de permettre aux bateaux anglais d'y avoir accès. La largeur du canal devait être de 44 m au plafond et 102 m à la flottaison pour un mouillage de 11 m sous flottaison normale. Les courbures n'auraient pas eu un rayon inférieur à 1800 m. Il exista même un projet de Rome port de mer ! Il avait pour objet de creuser un canal maritime indépendant du cours du Tibre en vue de relier Rome à la Méditerranée. Les travaux étaient évalués à 59 millions. Le projet comportait trois parties. La première comportait un port situé aux environs de Castel-Fusano, d'une profondeur s'échelonnant entre 9 et 10 m, sur 250 à 300 m de largeur. Deux longues jetées s'étendant au loin dans la mer étaient censés le protéger. Il s'apparentait à celui d'Ymuiden, en Hollande, à l'entrée du canal de la mer Nord. La seconde partie était un canal de navigation tracé de manière à éviter les collines de la rive gauche du Tibre et se développant sur une longueur totale de 25 km. Ce canal devait offrir une profondeur de 8,50 m et une largeur de 63 m. Ce canal permettait d'effectuer le trajet de Rome à la mer en deux heures. Le troisième volet du projet consistait à creuser une darse dans les environs de la basilique de Saint-Paul d'une longueur de 910 m et munie d'un outillage perfectionné pour le déchargement des navires. Cette darse, au moyen d'écluse, communiquait avec le Tibre dans sa partie navigable. Un chemin de fer électrique, parallèle au canal, devait être relié au réseau de l'État italien de manière à intensifier le mouvement. Il est à noter que plusieurs liaisons de métropoles vers la mer virent effectivement le jour en Europe du Nord. Embouchure du Rhin sur la mer du Nord, la voie de Rotterdam à la mer offrait une largeur minimum de 100 m pour une profondeur de 8,50 m à marée basse et de 10 m à marée haute. Malgré le développement de la vapeur, les bateaux étaient loin de décliner durant les années 1880-1910, leur nombre ayant crû de 85,5% durant cette même période. Les difficultés posées par les grands canaux. Parmi les exemples les plus connus : canal de Suez, de Panama, de Corinthe, canal de Tancarville, il faut remarquer tout d'abord que les canaux maritimes ne constituaient pas forcément une panacée, la navigation s'y révélant pénible949 Il s'agissait d'une adaptation à Pourtant, en dehors de rares allusion, l'argument n'a curieusement guère été avancé pour critiquer Paris port de mer. 949 Lente, voire même dangereuse 287 l'évolution des navires, dont les cheminements technologiques s'avéraient incertains, avec une cohabitation de la vapeur et de la voile Creuser un canal en soi ne pose pas de réelle difficulté950, mais le rendre navigable représente une tâche bien plus délicate, car nécessitant de maîtriser le courant En outre, ces types de canaux exigent un entretien méticuleux, les berges de Suez, composées de sable, se révèlent extrêmement friables si bien que les navires se voient contraints de naviguer à faible vitesse et à être pilotés par des pilotes spécialisés. Paris port de mer suscita de vives passions, aussi bien de la part de ses défenseurs que de ses détracteurs et mobilisa ainsi les instances les plus hautes de la France : ministre des Travaux publics, conseils généraux, municipalités, la presse Paris port de mer n'était donc pas simplement, selon l'expression de Blaise Cendrars : « Comme un serpent de mer, Paris-Port-de-Mer, est encore un de ces sujets qui passent en première page, les jours creux, au mois d'août, quand les journaux n'ont rien à montrer en vedette (on ne peut pas avoir tous les ans une guéguerre, la der-des ders à annoncer comme vacances ! Remplir les pages des journaux en manque d'actualité au mois d'août951.» Les défenseurs des projets de Bouquet de la Grye fondaient leur argumentation sur les idées suivantes :  Assurer aux Parisiens l'approvisionnement direct de leur consommation en matières premières et l'écoulement direct de leur production industrielle ;  Ramener à travers la France le transit aujourd'hui perdu vers les régions de l'Est et du Centre et vers les pays étrangers placés dans le rayonnement possible de Paris, comme l'Alsace-Lorraine952, la Suisse, le Sud de l'Allemagne  Défense nationale : améliorer la protection de la capitale en faisant parvenir des navires de guerre ;  Un aspect moral : une revitalisation morale des Français Toutes ces idées partageaient la croyance d'un retard hexagonal par rapport à ses voisins B. Un port à Paris comme enjeu de défense nationale. 950 Sauf dans le cas où le sol est dur, granitique ou autre Et encore, la navigabilité demeure le problème essentiel. 951 Blaise Cendrars, « Paris port de mer » dans Bourlinguer, Denoël, 1948, in OEuvres complètes, Denoël, p.255, t.6., 1961. 952 Alors perdues par la France lors de la guerre de 1870 288 Ce point s'avère l'un des plus singuliers. Il faut souligner le caractère patriotique de cette question. Une partie des défenseurs du projet avançaient l'argument que grâce à Paris port de mer, la capitale, considérée comme un « camp retranché953» se trouvait plus apte à assurer son approvisionnement en cas de guerre. L'omniprésence de militaires dans les rangs des défenseurs de Paris port de mer n'était pas anodine, notamment celle des marins. Le vice-amiral Jauréguiberry fut choisi comme président honoraire de la Société d'études de Paris port de mer, tandis que le vice-amiral Thomasset en était le président 954 Un projet de résolution visant la mise à l'enquête du projet de la société d'études de Paris port de mer, daté du 23 mars 1890 avait été rédigé par l'amiral Peyrou, ancien élève de l'école navale, chef de l'état-major de l'amiral Jauréguiberry955. La question de Paris port de mer se trouvait indirectement liée à la conquête coloniale. En effet, la grande politique de travaux publics visait entre autres le redressement économique du pays, mais également son redressement politique. Les républicains cherchaient à montrer que la jeune république n'était pas un signe de déclin, mais qu'elle pouvait contribuer à la grandeur du pays. L'échec relatif de la politique de travaux publics engagée depuis 1879 avait détourné l'intérêt de l'opinion publique vers l'instruction et les conquêtes coloniales. En ce sens, Paris port de mer répondait doublement à ce dessein, en favorisant le libre-échange et l'arrivée des produits venus du reste du monde, mais aussi des territoires. La genèse du transport fluviomaritime jusqu'à Paris se trouvait étroitement lié à cette vision, notamment les voyages de navires effectuant l'aller-retour avec l'Extrême-Orient956. Les projets de Bouquet de la Grye constituaient donc une double alternative au plan Freycinet, une alternative maritime au lieu d'être exclusivement fluviale, une alternative mondiale au lieu de se limiter au strict cadre local. La Société des études coloniales qualifia le premier projet de Bouquet de la Grye de « patriotique projet957.» Elle argua que « Paris est le plus grand arsenal, le plus grand camp 953 ACCIP IV-4.61(9), Avantage de Paris port de Mer au point de vue de la défense du camp retranché de Paris en cas d'invasion (Dires exposés à l'enquête) par le Lieutenant-colonel en retraite Foury, p.1. 954 C'est ce dernier qui se révéla le plus actif, l'amiral Jauréguiberry ne jouant qu'un rôle symbolique 955 Il faut ajouter le contre-amiral Burez figurant parmi les membres de la Commission d'enquête du département de la Seine pour se prononcer sur le projet de la Société d'études en 1891. 956 Voir annexe II : réalités de Paris port de mer, le développement du transport fluviomaritime au XIX e siècle. 957 ACCIP IV-4.61 (9), À Messieurs les Présidents et Messieurs les Membres des Chambres de Commerce, rédigé par M. le baron Sicre de Fontbrune, secrétaire général et vice-président de la Société des études coloniales et maritimes, 27 septembre 1890. 289 retranché de France 958 .» Creuser un canal maritime était censé éviter la famine aux trois millions d'habitants de la ville. Le texte de la Société des études coloniales avança le calcul qu'une centaine de trains par jour, pendant trente jours, auraient été nécessaires pour approvisionner la capitale et ce, sur une période de six mois de guerre Or, la voie ferrée ne pouvait se vouer seule à la tâche, car il lui incombait de se consacrer au transport de troupes : « par le canal projeté, l'approvisionnement peut-être beaucoup plus rapide et ne causer aucun trouble au service des transports militaires par chemins de fer ; les Ministres de la guerre et de la marine ont donc énergiquement appuyé le projet de M. Bouquet de la Grye où ils ont reconnu comme utile à la défense de Paris959.» Le point de vue du lieutenant-colonel en retraite, M. Foury, dans son Dire déposé à l'enquête, en date du 6 novembre 1890, concordait : « De plus, il faut considérer cet énorme appoint de denrées, concentré sur un espace restreint, sans affectation à des consommations particulières déterminées, et qui seraient disponibles sous la main de l'autorité militaire, aussi facile à réquisitionner qu'à garder et à distribuer960.» Il observa que lors du conflit 1870-1871 : « personne ne saurait dire quelle conséquence aurait pu avoir sur l'issue de la guerre une prolongation de résistance de trois mois961.» Les militaires n'étaient pas les seuls à percevoir dans Paris port de mer un outil de défense nationale. La proposition de M. Charles Bos, incitant à faire déclarer d'utilité publique le projet de canal maritime de Paris à Rouen notait : Les marins marchands ne risqueraient plus rien. D'autant qu'outre la défense du fleuve qu'il serait facile d'assurer, il est probable qu'une flottille de navires de guerre tels que des canonnières, des petits bateaux armés, le sillonneraient et pratiqueraient efficacement la navigation contre toute entreprise de l'ennemi. Les Allemands ne se sont jamais faits d'illusion sur ce point. Un grand journal de Berlin disait en 1887 que non seulement la création d'un port en eau profonde à Paris modifierait considérablement l'état économique d'une grande partie de la France, mais encore rendrait la capitale imprenable puisqu'elle serait toujours approvisionnée962. Les ouvrages les plus symptomatiques à cet égard étaient ceux rédigés par un habitant d'Argenteuil dénommé Amédée Jouy. Il publia plusieurs brochures liant patriotisme et creusement d'un canal maritime joignant la mer à Paris en 1912, en 1914 et en 1917. Les titres en sont éloquents : « La création immédiate de Paris Port de mer peut seule sauver la 958 Ibid., p.2. Ibid. 960 ACCIP IV-4.61 (9), Dire déposé à l'enquête par M. Foury lieutenant-colonel en retraite, 6 novembre 1890. 961 Ibid., pp.3-4. 962 Op. cit., pp. 23-24. 959 290 France963 » ou bien : « Paris port de mer pour assurer la Défense Nationale. L'Allemagne vient de lever un Impôt de Guerre de Un Million de Marks ! Quelle Nation vise-t-elle ? Sinon la France ? Que les Chambres, le Gouvernement, pour barder Paris de vivres frais devant cette menace si directe ? Rien Si de la politique964» ou encore « Il faut prolonger la Seine Maritime jusqu'à Clichy-Paris. En liaison avec les voies de Grande Ceinture pour conjurer les crises actuelles et relever la France965.» La seconde brochure s'alarmait du péril allemand, la troisième évoquait les difficultés d'approvisionnement de la capitale durant la Première Guerre mondiale. Pour Amédée Jouy, le canal maritime offrait l'avantage de fournir la capitale en denrées coloniales, faisant cruellement défaut durant le conflit, comme en témoignait le huitième article de la brochure de 1917 : « -8ème article : Si le peuple a froid et faim, c'est le travail des adversaires de Clichy-Maritime qui créerait à Paris l'abondance des denrées exotiques966.» Ce constat était valable avant la guerre, puisque dans la brochure de 1914 : « Un ravitaillement emmagasiné s'avarie avec le temps ; les produits alimentaires ne sont plus comestibles et ils deviennent un empoisonnement pour les troupes et pour le peuple967.» Il considérait qu'un canal maritime sur la Seine aurait favorisé un ravitaillement frais et renouvelé. Depuis Paris, le reste du pays aurait été irrigué, et ce, à moindre coût. Un canal maritime permettait de lutter contre la vie chère. Il envisageait que Paris devînt un vaste entrepôt, parlant de « grand marché alimentaire de Paris Maritime968.» Le canal maritime devait rendre plus abordable le prix des produits exotiques. L'approvisionnement rendu plus efficace, la capitale - autrement dit, la France – serait devenue apte à pourvoir aux contraintes de la guerre : « Les denrées alimentaires exotiques qu'apporteraient chaque jour, à qui mieux, à Paris, les transatlantiques venant de tout l'Univers constitueront, pour nos intendances, un important stock roulant de premier choix, toujours frais, qui ne coûterait absolument rien au budget969.» 963 Amédée Jouy, La création immédiate de Paris Port de mer peut seule sauver la France, Argenteuil, imprimerie Coulouma, 1912, 16p. 964 Amédée Jouy, Paris port de mer pour assurer la Défense Nationale. L'Allemagne vient de lever un Impôt de Guerre de Un Million de Marks ! Quelle Nation vise-t-elle ? Sinon la France ? Que les Chambres, le Gouvernement, pour barder Paris de vivres frais devant cette menace si directe ? Rien Si de la politique, Argenteuil près Paris, Imp. Bardin, mars 1914, 19 p. La deuxième édition a été tirée à 4000 exemplaires et envoyée gratuitement dans les départements envahis en 1870, avec comme recommandation : « Prière de faire lire par vos Amis avant les élections » (Ibid., p. 19). 965 Amédée Jouy, Il faut prolonger la Seine Maritime jusqu'à Clichy-Paris. En liaison avec les voies de Grande Ceinture pour conjurer les crises actuelles et relever la France, Argenteuil près Paris, Imp. Bardin, mars-avrilmai 1917, 28p. 966 Ibid., p.18. 967 Ibid., p.16. 968 Ibid. 969 Ibid. 291 Former un stock dormant revenait à gaspiller l'argent des contribuables et par la même condamner dix millions de Français à l'usage pernicieux de vivre de conserves malsaines, immangeables au bout de quelques temps : Le grand marché alimentaire de Paris Maritime sera, lui, un stock immense renouvelé chaque jour, nous protégeant contre la disette, la famine et l'invasion. Il sera la meilleure arme pour défendre Paris et la France. Il n'y a que des hommes incapables, arriérés, pour persister, dans cette routine d'assurer avec des WAGONBROUETTES970, qu'un port qui peut être détruit à tout instant par des espions, arrêtent pour des semaines et avec des barques-chalands dont l'emploi ne peut servir réellement qu'à reprendre à Paris des marchandises destinées pour les régions de la Haute Seine971. Paris port de mer revêtait un caractère paradoxalement nationaliste, dans la mesure où cette idée supposait l'ouverture du pays sur le reste du monde, conduisant ses détracteurs à lui reprocher d'encourager les importations. Les partisans estimaient pouvoir détourner le trafic et réduire la dépendance de la France vis-à-vis des ports du nord de l'Europe, accusés de servir les intérêts allemands. Ce caractère nationaliste transparaissait dans l'argument de défense nationale : « D'autre part, l'oeuvre projetée intéresse aussi la défense nationale : Paris est le plus grand arsenal, le plus grand camp retranché de France 972 .» À cela, s'agglomérait, il est vrai, le douloureux souvenir de la guerre de 1870, du siège de la capitale 973 . L'argumentation des défenseurs de Paris port de mer se révélait donc contradictoire. En Effet, elle mêlait d'une part des aspirations cosmopolites, en rapprochant la capitale française du reste du monde et en lui permettant de rattraper le retard par rapport aux autres pays européens, plus particulièrement, les pays d'Europe du Nord (Grande-Bretagne, Allemagne, Pays-Bas, Belgique), voire même les États-Unis, et par conséquent, de mettre la capitale en contact avec d'autres peuples, d'autres cultures. D'autre part, l'argumentaire relevait de préoccupations nationalistes, le port maritime étant censé de mettre à l'abri la capitale de la disette et de la pénurie de charbon : Le charbon est introuvable () Les cas sont fréquents de navires charbonniers anglais se présentant en vain en vue de nos Ports de la Manche et ne peuvent accoster qu'en 3 ème ou 4ème pour y effectuer un déchargement de fortune, parfois sur la terre nue, sans voie de chemin de fer auprès, sans péniche. Les charbons anglais, pour venir à Paris, vont à supporter des frais excessifs de toutes sortes dont l'ensemble est beaucoup plus élevé que le prix d'achat de la marchandise974!!!! 970 En majuscule dans le texte. Ibid., pp.16-17. 972 Ibid. 973 François Caron, La France des Patriotes : de 1851 à 1914, tome V de la collection dirigée par Jean Favier, Histoire de France 1852-1918, Paris, Fayard, 1985, 640 p. Réimpr. Paris, Le Livre de Poche, 1993, 734 p. 974 A.M.G. 23/82, Amédée Jouy, Il faut prolonger la Seine maritime jusqu'à Clichy-Paris, Argenteuil, Impr. de D. Bardin, 1917, p.19. 971 292 Amédée Jouy alla jusqu'à affirmer que si Paris port de mer avait été réalisé vers 19101912, comme il l'avait préconisé, l'Allemagne aurait hésité à déclarer la guerre975 : « 4ème article. Si Paris-Maritime eut été en pleine exploitation vers 1910-1912, avec de puissants appareils de levage, sa force défensive eut inspiré des craintes à l'Allemagne qui n'aurait plus osé déclarer la guerre. Il nous eut évité l'invasion subie et les Allemands près de Paris976.» En cas de victoire, le Kaiser aurait lui creusé ce canal maritime, à la fois pour montrer sa suprématie, mais aussi pour disposer d'un débouché sur la Manche : Si Guillaume avait été vainqueur à la bataille de la Marne et qu'il eut pu entrer dans Paris, comme il le croyait si bien dans sa course effrénée depuis Charleroi, nul ne l'eût fait déguerpir ; et tout de suite, pour donner la mesure de sa supériorité sur les vaincus, il aurait ordonné la mise en chantier de la Seine Maritime prolongée, approfondie, de Rouen aux portes de Paris 977. Il envisagea même, qu'une fois les Américains engagés et prêts à combattre, ceux-ci auraient réalisé le canal afin de faire parvenir directement des bateaux de faibles tonnages des ÉtatsUnis à Paris978 : L'Amérique va mettre la France en demeure de l'autoriser à faire elle-même, sans délai, avec des procédés rapides et sa manière rapide d'opérer chez elle, l'approfondissement de la Seine et la modification des ponts fixes actuels pour que ses centaines de navires à faible tirant d'eau viennent directement et sans arrêt, de l'Amérique au Camp retranché de Paris, mettre sur les quais et sur les rails de Grande-Ceinture, adhérents, les innombrables éléments de guerre dont elle dispose, indispensable pour assurer le triomphe de l'Amérique engagée, de l'Angleterre, et la délivrance de la France héroïque, oui Mais détruite, anéantie, minée, là où l'Allemand a posé sa botte maudite979. Le publiciste s'en référait au fait que contrairement aux Français, les Américains étaient parvenus à achever le canal de Panama, tout juste au moment du déclenchement de la Première Guerre mondiale Il poussa son raisonnement très loin en arguant que les conséquences du conflit furent aggravées par la non réalisation du canal maritime, plongeant ainsi le pays au déclin : La France, perdue à genoux devant lui, l'Angleterre diminuée, humiliée, devenue puissance de deuxième rang, son triomphe était monté au septième degré.() Notre situation privilégiée sur la Manche, que nos Députés ne veulent pas savoir mettre à profit, dans l'intérêt et pour la défense Nationale a été l'un des principaux objectifs 975 AMG 23/79, Lettre d'Amédée Jouy à M. Roche, maire de Gennevilliers. Ouverture d'enquête du Préfet de la Seine, 16 janvier 1913. Le publiciste n'en était pas à son premier coup, dans la mesure où il avait réitéré les publications en faveur de Paris port de mer, en invoquant toujours des motivations de défense nationale. Voir aussi : A.M.G. 23/82, Amédée Jouy, Paris port de mer. Sauver la France, Argenteuil, Imprimerie Coulouma, septembre 1912 ; Amédée Jouy, Il faut Paris port de mer pour assurer la défense nationale, Argenteuil, 2e édition, Impr. de D. Bardin, 1914, 19 p. 976 Ibid., p.12. 977 Ibid. 978 L'année 1917 s'était révélée particulièrement difficile. 979 Ibid., p.14. 293 qui ont engagé l'Allemagne à nous déclarer la guerre. Elle voulut s'emparer de ce trésor que nous paraissons ignorer980. Il se montra même quelque peu visionnaire quant à l'émergence de la puissance américaine : « 7ème article. Presque tout le Monde, atteint dans sa liberté des Mers, suprême richesse, vient défendre l'ancien Monde contre la tyrannie allemande. C'est l'adulte défendant sa mère contre les Loups981, fait unique982.» Paris port de mer représentait ainsi l'instrument pour rattraper le retard national. Mais un retard par rapport à qui, et sur quels plans ? Les républicains étaient convaincus que la défaite du pays tenait en partie à l'organisation des chemins de fer de Prusse, qui avait autorisé une prompte mobilisation et un acheminement massif des corps d'armée prussiens sur le territoire français 983 . Le plan Freycinet et Paris port de mer s'inscrivaient dans la même logique de renforcer le pays. C. Concurrencer Anvers-Londres-Hambourg grâce à Paris port de mer. La question du déclin français amène à aborder le thème récurrent dans tous les projets de port de mer parisien 984 , à savoir celle de la concurrence des ports nord-européens : comment faire de Paris un nouveau Londres/Anvers/Hambourg ? Cette obsession n'était pas inédite, elle s'était manifestée déjà dans la question des entrepôts réels de Paris, dès les années 1830, mais également des magasins généraux sous le Second Empire 985 , avec ce même sentiment de perte d'un trafic depuis le blocus continental des guerres napoléoniennes: « Paris dont la défense en temps de guerre serait bien facilitée, et le ravitaillement assuré par la libre action sur le canal, retrouverait ainsi son ancienne importance de grand centre commercial par rapport aux régions de l'Est de la France et d'une partie de l'Europe986.» La nouvelle vocation devait permettre d'assurer l'essor colonial français : « Resteronsnous en dehors du mouvement d'expansion qui s'est emparé de tous les peuples de la vieille Europe ? Il ne suffit pas que nous ayons des protectorats et des colonies pour lesquels nous dépensons des sommes considérables ; [et] que nous participions au partage de l'Afrique. À 980 Ibid., p.12. En italique dans le texte. 982 Ibid., p.17. 983 Pierre Miquel, Histoire des canaux, fleuves et rivières de France, Paris, Édition n°1, p.202. 984 En fait, la concurrence des ports du nord de l'Europe était généralement admise. 985 Cf. Jeanne Gaillard, Paris, la ville (1852-1870), Paris, L'Harmattan, 528p.; voir également la fin du premier chapitre de cette thèse consacrée aux entrepôts de Paris. 986 ACCIP IV-4.61(9), N°464. Chambre des Députés. Cinquième législature. Session de 1890. Annexes au procès-verbal de la séance du 20 mars 1890. Rapport sommaire au nom de la 4 ème commission d'initiative parlementaire chargée d'examiner la proposition de résolution de M. Jacques et de plusieurs de ses collègues relative au projet d'un canal de Paris à la mer par M. Guiesse, p.3. 981 294 quoi servirait ce développement colonial s'il ne répondait pas à l'esprit de la nation987.» Et ce n'est pas par hasard si la Société des Études Coloniales et maritimes, adressa le 27 septembre 1890 aux membres de la chambre de commerce de Paris une lettre exhortant à émettre un avis favorable au projet de M. Bouquet de la Grye : « Paris devenu un grand entrepôt de distribution, un grand centre commercial, s'intéressera à toutes les questions fluviales, maritimes, coloniales, et apportera dans toutes ces questions, par solidarité nationale, le puissant appoint de son influence 988 .» Il s'agissait, pour elle, de favoriser le commerce, encourageant ainsi les affaires de ses membres. Stimuler le commerce maritime, c'était inciter le commerce colonial. Les défenseurs de Paris port de mer étaient hantés par le « détournement ». Cette obsession revêtait une tournure nationaliste, lorsque la Société d'études coloniales et maritimes accusait Anvers de servir les intérêts allemands, ce qui était d'ailleurs partiellement vrai, dans la mesure où le port d'Anvers était un port à embouchure et de par sa position géographique, disposait d'un hinterland dépassant de loin la simple Belgique. Néanmoins, de là à considérer le port d'Anvers comme un outil le renforçant la puissance allemande « Le port d'Anvers, notamment, qui est, au point de vue économique, déjà sous la main de l'Allemagne un trafic estimé à 3 millions de tonnes989.» Face à une Allemagne en plein essor industriel et suite à une défaite cuisante et humiliante, la période de crise économique de la France exacerbait son complexe d'infériorité à l'égard de son voisin allemand990, ainsi que le dépit de voir ainsi les trafics de ses ports « détournés » par Anvers, semblant servir les intérêts de son voisin et rival. Une solution grandiose, telle que celle envisagée par Bouquet de la Grye et ceux qui l'ont défendu ou d'autres projets de port maritime parisien -c'était ce qu'ils avaient tous en commun- était censée insuffler un nouvel élan à un commerce français, paraissant souffreteux. Des arguments du même type prévalurent pour la création des entrepôts réels de Paris vers 18331834 : rattraper le retard vis-à-vis des autres nations, bien qu'alors les références portaient plutôt vers la Grande-Bretagne. On rêva de faire de Paris un nouveau Londres À la fin du XIXe siècle, on espérait transformer Paris en un nouveau port d'Anvers ou de Hambourg 987 Avis de la commission d'enquête du Département de la Seine, op. cit., p.19. ACCIP IV-4.61 (9), A. M. le Président et MM. les Membres de la Chambre de Commerce, Société des Études Coloniales et maritimes, signé le secrétaire général de la Société, baron Michel et le vice-président de la société, M. Sicre de Fontbrune. 989 Ibid., p.2. 990 Arnaud-Dominique Houte, Le triomphe de la République 1871-1914, Paris, l'Univers Historique, Éditions du Seuil, 2014, pp.15-17. 988 295 Le port d'Anvers était également accusé d'avoir détourné le trafic colonial, transatlantique ou américain, aux dépens des ports français et du commerce de transit parisien, et plus encore de servir les intérêts allemands. Le contexte international avait certes, quelque peu évolué, du fait que l'Allemagne avait accédé au stade de grande puissance et de rival de la France, cette dernière ayant éprouvé bien des difficultés à s'extirper de son isolement. Dans le même temps, le port de Paris n'était guère comparable avec les différents ports cités précédemment, tant en ce qui concernait l'outillage que l'importance des affaires991 Le déclin français ne se résumait pas à la question militaire et commerciale, mais résultait aussi d'un délabrement moral : Paris port de mer représentait une régénération D. Aspect moral : régénérescence de la France. Les partisans de Paris port de mer ne visaient pas une simple amélioration de la desserte de la capitale. En faisant parvenir des navires de mer, ils envisageaient une régénérescence morale de la capitale. La polémique autour des projets de Bouquet de la Grye s'inscrivait dans un contexte de marasme économique. Sans la crise, ces projets n'auraient peut-être pas connu la même vivacité. Un fascicule de la Société d'études de Paris-Port-deMer dépeignait les maux de son époque, dont un des plus tragiques, la paupérisation de la population Il ne s'agit pas ici de déterminer la véracité992 de ce constat, mais de cerner la représentation qu'en construisaient les promoteurs de Paris port de mer. Selon eux, le canal maritime constituait le moyen d'absorber la masse populeuse arrivant à Paris, grâce à l'essor économique résultant de sa réalisation : Les déclassés, les malheureux, les détraqués de toute la France viennent se réfugier à Paris ; ils s'y engouffrent dans des proportions constamment croissantes. Paris est leur dernier espoir : ils ne voient rien au-delà, ils s'y installent, tombent en grand nombre, degré par degré, jusqu'aux métiers innombrables et n'en sortent plus. Cette agglomération toujours grandissante d'hommes sans profession, sans moyens réguliers d'existence et sans horizon est certainement une des causes du mal dont nous souffrons993 L'auteur concluait : Ne serait-il pas possible d'ouvrir une soupape, de créer un exécutoire () Combien de malheureux, de déshérités, de désillusionnés aux yeux desquels ce sera ouvrir à nouveau le monde et pour lesquels les pays lointains, mis à leur porte, seront le relèvement et le salut 994 ! 991 François Maury, p.248-249. Voir également le sixième chapitre de cette thèse. C'est-à-dire de déterminer si la population française a réellement connu ou non une situation de paupérisation. Question délicate et ne manquant pas d'intérêt, mais qui n'entre pas dans notre réflexion. 993 ACCIP IV-4.61 (9), N°25. Notes diverses. Canal maritime de Paris à Rouen (Paris port de mer). Utilité de cette oeuvre au double point de vue moral et social. 992 296 Ce constat s'inscrivait dans une réticence plus globale du XIX e siècle à l'égard de la révolution industrielle et du capitalisme. L'industrie moderne se trouvait aux prises des accusations d'avoir été à l'origine de la destruction des structures familiales et plus globalement, du tissu social. La IIIème République tentait de se ranger dans la perspective d'une France rurale peuplée d'artisans et de de propriétaires agricoles 995 . Le thème de l'agriculture revenait à l'honneur. Jules Méline apparut comme une des figures de proue de ce mouvement de rejet de la ville996. Comment obtenir cette régénérescence997 ? Par le développement commercial et les nouvelles activités qui en découlaient : « La population parisienne, passionnée, aventureuse, énergique, fournirait un élément marin très utile, qui reviendrait trempé par la vie à bord ou donnerait de l'expansion à nos colonies998.» Il ne s'agissait toutefois pas de limiter le rôle du port maritime parisien à un moyen de résorber la misère. De même, le canal maritime offrait l'avantage d'insuffler un sens des affaires dans la capitale : Elle deviendrait plus sérieuse si les habitants avaient le contact plus fréquent de commerçants sérieux euxmêmes, et si les Parisiens devenus voyageurs rentraient au bercail, après avoir beaucoup vu et beaucoup retenu ; ce sont des considérations d'un ordre élevé qui certainement doivent inspirer de la sympathie pour toute oeuvre qui apporte ce bien moral ; c'est toutefois aux philosophes du Conseil municipal qu'appartient plus qu'aux ingénieurs à chiffrer la quantité monnayable de cette agglomération 999. Ancien président de la chambre de commerce de Paris, puis devenu sénateur, M. Poirrier reprenait ces arguments : Avec Paris-Port de mer, certaines idées se modifieraient heureusement. La vue des navires de haut-bord arrivant à Paris donnerait certainement à sa population le goût du commerce, de l'industrie et des voyages. Ne serait-ce par un dérivatif heureux contre la marée montante des fonctionnaires () La population parisienne s'intéressant davantage à ce qui se passe au-dehors, prendrait l'habitude des déplacements des affaires et le pays tout entier suivrait ce mouvement ; car quoiqu'on dise, que l'on s'en réjouisse ou qu'on le regrette, la capitale exerce sur la nation un véritable despotisme moral1000. Le développement commercial engendré par Paris port de mer ne nuisait pas à la vocation culturelle de la ville : « On ne voit, en vérité, aucune raison à ce que ce voisinage puisse nuire ni aux lettres ni aux arts : nos boulevards n'en seraient pas moins fréquentés. On 994 Idem. Pierre Rosanvallon, L'État en France de 1789 à nos jours, Paris, Le Seuil, 1990, p.216. 996 Jules Méline, Le retour à la terre, et la surproduction industrielle, Paris, Librairie Hachette et Cie, 1905, 320p. 997 Cf. Bernard Marchand, Les ennemis de Paris. La haine de la grande ville des Lumières à nos jours, Rennes, Presses Universitaires de Rennes, 2009, pp.73-108. Certains géographes recourent au terme « d'urbaphobie ». 998 Ibid. 999 Ibid., p.13. 1000 Ibid. 995 297 y parlerait un peu plus des affaires, des voyages : serait-ce un grand mal 1001 ?» Paris port de mer suscitait alors les rêves les plus insensés. Ses défenseurs partageaient l'espoir d'une France plus extravertie. En puisant un nouveau souffle, le canal contribuait à sortir le pays de son déclin. Ils entretenaient ainsi la nostalgie d'une France puissante et rayonnante. Cet engouement doit être perçu sous le prisme de la conception du progrès technique de cette période : de Jules Verne à Albert Robida, en passant par Conan Doyle, etc., à savoir une époque adoptant une vision plutôt optimiste à l'égard des perspectives qu'offrait la science1002. Ainsi, Jules Verne décrivait comment la technique pouvait produire de véritables prodiges : parcourir le globe en 80 jours, la traversée de l'Afrique en ballon Certains de ses ouvrages relevaient certes, de la science-fiction ou tout au moins, de l'anticipation (De la terre à la lune, Vingt mille lieues sous les mers), mais tous s'attachaient aux limites des connaissances de l'époque. Il se lança d'ailleurs lui aussi dans la spéculation sur Paris port de mer dans Paris au XXème siècle1003. Paris port de mer s'inscrit donc dans la même démarche. Même lorsqu'il s'agit de simples élucubrations, les projets élaborent leurs réflexions à partir de ce que l'on connaissait. Tel semblait le parti des ingénieurs de la trempe de Bouquet de la Grye. La question ne saurait se borner à sa simple dimension technique. Les promoteurs de Paris port de mer concevaient sciences et techniques en tant qu'instruments régénérateurs d'un pays traumatisé par la défaite contre l'Allemagne1004. Cette observation s'avère au moins valable pour les projets des dernières décennies du XIXe siècle. Ce sentiment n'est rarement évoqué de façon explicite, mais l'insistance sur les questions militaires s'avère des plus symptomatiques. Le progrès technique apparaît comme le moyen de renforcer le pays, de le tirer de son déclin inexorable, d'une dégénérescence se déclinant sous tous ses aspects Paris port de mer cristallisait un mélange paradoxal entre positivisme et patriotisme. Cette alliance semblerait saugrenue dans la mesure où le second terme impliquait a priori un certain repli 1001 Ibid. Certaines oeuvres tardives de Jules Verne tempèrent néanmoins quelque peu cet optimisme. Citons notamment L'Éternel Adam. 1003 Jules Verne, Paris au XXème siècle, Paris, Hachette, 1994. L'écrivain consacre à la question un chapitre entier, à savoir le chapitre XI intitulé « Une promenade au port de Grenelle ». C'est donc à la lisière de Paris, que l'auteur localise le port maritime. Son analyse ne relève pas simplement de la fantasmagorie, dans la mesure où un important port industriel s'est développé au cours du XIX e siècle entre le quai de Grenelle et la rive correspondant à Ivry. On établit notamment un des premiers ports de raccordement (cf. le chapitre de cette thèse). Rédigé en 1863, l'ouvrage n'eut aucun écho à son époque, car il s'agissait d'un écrit de jeunesse, refusé par l'éditeur Hetzel. Il ne fut redécouvert que sur la fin du XX e siècle. En outre, il ne fait qu'évoquer l'idée d'un Paris maritime. Malgré tout, on ne peut s'empêcher de songer que le thème de Paris port de mer aurait constitué un formidable sujet d'anticipation pour l'écrivain ! 1004 François Caron, La France des patriotes, Paris, fayard, 1985, pp. 319-349. 1002 298 sur soi. Il s'agit pourtant aussi d'une période d'expansion coloniale et plus largement de découverte du globe par le monde occidental1005. Comme on l'a vu, c'est une société coloniale soutint les projets de Bouquet de la Grye. Une des lectures des arguments défendus par les promoteurs de Paris port de mer laisserait entrevoir dans leurs projets une tentative de remettre la France sur les « rails du progrès » Pour l'inscrire dans sa juste dimension, la question de Paris port de mer oblige à articuler constamment deux niveaux d'analyse, à savoir le temps long et le court terme. On ne saurait limiter la réflexion à des circonstances particulières, - liées entre autres à la démagogie politique des gouvernements alors en place, à l'esprit de cette fin du XIXe siècle-, car cela appauvrirait considérablement la compréhension autour de Paris port de mer qui excède largement le cadre chronologique des débuts de la IIIe République, tant ses antécédents que sa postérité. Sa permanence en constitue justement une des caractéristiques les plus remarquables. La prise en compte de ce contexte spécifique éclaire dans le même temps sur l'état d'esprit des débats sur Paris port de mer. La révolution industrielle avait, en quelque sorte, contaminé la ville à la faveur de l'afflux de masses paysannes. Le paradoxe consistait dans le fait que la bourgeoisie s'était effrayée de cet afflux de population, alors même qu'elle en avait été partiellement responsable : employés pour les grands magasins, domestiques, ouvriers pour les usines. Une véritable urbaphobie s'était ainsi développée. La seule France authentique était rurale, la France des villes et des industries était dangereuse, immorale, l'exode rural marquait la fin de la « véritable » France au profit d'une France plus moderne. La cible toute indiquée de ce déclin semblait être Paris1006. Comme Paris port de mer, cette urbaphobie réunissait de façon tout aussi saugrenue des courants antagonistes, mais tous d'accord pour dénoncer la « nouvelle Babylone » : Maurras, Méline, républicains opportunistes, clergé catholique Pour des motifs différents, parfois opposés, tous semblaient porter une haine farouche contre la croissance parisienne1007 Si tous les partisans de Paris port de mer ne niaient pas les maux que connaissaient les grandes villes, en particulier Paris – en ce sens, ils partageaient les conceptions des urbaphobes-, les remèdes préconisés allaient à rebours de cette analyse anti 1005 L'expansion coloniale n'est pas le propre de la France, ni même de l'Europe. Elle concernait le « nouveau monde », mais pourrait aussi s'appliquer à des pays d'Asie (Chine, Japon). 1006 Arnaud-Dominique Houte, Le triomphe de la République 1871-1914, Paris, l'Univers Historique, Éditions du Seuil, 2014, pp.84-85. 1007 Bernard Marchand, Les ennemis de Paris. La haine de la grande ville des Lumières à nos jours, Rennes, Presses Universitaires de Rennes, 2009, pp.107-108. La fin du XIXe siècle est extrêmement clivée, le plus étonnant est que finalement ces clivages rapprochent plus qu'ils n'éloignent sur le fond. 299 parisienne : la régénération de la capitale devait permettre une renaissance du pays tout entier. Avec Paris port de mer, la ville n'était plus un mal. 300 Conclusion sur Paris port de mer : entre rêve et réalité, pour une autre vision de la navigation en Seine et à Paris Bouquet de la Grye entreprit une dernière tentative en proposant un projet amélioré au Conseil National des Ponts et Chaussées en 19071008. La tâche d'évaluer cet ultime projet revint à l'ingénieur Résal. Le verdict fut sans surprise, c'est-à-dire un rejet, formulé au début de l'année 1909 1009 . Les arguments n'avaient guère varié : coût jugé exorbitant du projet, perspectives de trafic peu convaincantes, difficultés techniques pour le réaliser Le coup de grâce avait été porté non seulement aux projets de Bouquet de la Grye, mais également à l'idée même de Paris port de mer, le phénomène disparaissant comme par enchantement. La Grande Guerre ainsi que les progrès technologiques dans le domaine des transports notamment, enlevèrent une bonne part de l'intérêt que pouvait suscité la liaison entre Paris et la mer. La défaite contre les Allemands en 1871 avait sans doute exacerbé les esprits, et conduit des individus à envisager ce type de projets1010. Son intérêt dépassait le simple cadre portuaire. Paris port de mer était censé agir comme un régénérateur de la France, impliquant une dynamisation d'une économie française, et plus particulièrement son commerce, paraissant en perte de vitesse. Si l'on peut parler de fantasme, c'est néanmoins valable pour la plupart des projets avant leur réalisation, suscitant tous les espoirs, qu'ils soient réalistes ou non1011. Les résultats dépassent parfois les espérances Existent des cas intermédiaires, où les résultats ne sont certes, pas vraiment à la hauteur des prévisions, sans être pour autant catastrophiques. C'était sans doute ce à quoi il fallait s'attendre pour le projet de Bouquet de la Grye, qui, à défaut d'un trafic massif de navires de mer, aurait facilité la navigation fluviale, en évitant les boucles de la Seine prolongeant sensiblement le trajet, par voie d'eau, entre Paris et la Seine maritime1012. Deux conceptions d'ingénieurs se confrontèrent entre, d'un côté les « réalistes » et de l'autre les « utopistes ». La « réconciliation » ne fut envisagée que dans le trafic fluviomaritime. Encore faut-il constater que les exploits du pionnier dans le 1008 Peu avant sa mort. Archives de la Section des Canaux de Paris, Demande de concession d'un canal maritime à construire entre Rouen et Paris présentée par la société d'Études de Paris-Port-de-mer. Rapport de la Sous-Commission, 20 janvier 1909. 1010 D'où la présence de nombreux militaires. 1011 On pourrait en dire autant pour le tunnel sous la Manche. Les prévisions étaient très optimistes, le projet s'est bien réalisé et fonctionne assez bien Hormis évidemment les énormes problèmes financiers que connut l'entreprise ! Ces dernières difficultés ne remettent toutefois pas fondamentalement la validité de l'ouvrage, car il offre une réelle utilité et connaît une intense activité. 1012 Il s'agissait certainement d'un des points les plus singuliers de l'argumentation des Ponts et Chaussées. Les ingénieurs semblaient farouchement hostiles à toute modification du cours de la Seine, alors que de telles opérations ont été pratiquées plus tard sur la Marne ou encore en Haute-Seine 1009 301 domaine, le capitaine Barazer s'inscrivait plutôt dans le camp des utopistes 1013 Le développement d'un modeste cabotage remontant à Paris s'est accompli à moindre frais, pour ne pas dire sans frais pour les pouvoirs publics qui ne se sont guère empressés de le favoriser. Les solutions de Barazer n'ont pas été retenues, même si sur la philosophie de sa démarche s'est révélée en partie juste. À savoir, développer un petit cabotage de façon à réduire au maximum les coûts d'aménagement de la Seine, ce qui évitait l'écueil des réticences de l'Administration, déjà peu encline à trop disperser et ses investissements en matière fluviale, de toute façon guère extensibles, au risque d'une levée des boucliers des compagnies ferroviaires. Les documents relatifs à l'histoire des compagnies de cabotage sont trop insuffisants pour mesurer leurs motivations réelles. Étaient-elles animées du même souffle que celui qui brûlait les promoteurs de canaux maritimes ? Paris port de mer s'avère symptomatique de la politique fluviale française, qui après le plan Freycinet, se montra extrêmement frileuse s'agissant de grands projets fluviaux. L'Administration, à tort ou à raison, décida désormais de n'envisager aucun aménagement fluvial d'envergure, préférant optimiser le réseau existant. La solution apportée par Poirée dans l'aménagement des rivières et des fleuves français se révéla par conséquent à double tranchant en « sauvant » la batellerie de la concurrence immédiate des chemins de fer, par une solution technique certes, astucieuse, car ne mobilisant, du moins relativement, que peu d'investissement. Mais ce dernier avantage n'obligea pas les pouvoirs publics et les composantes du milieu batelier à trouver des solutions plus radicales, indispensables à la survie de la batellerie sur le long terme Si Paris port de mer constitue un des aspects les plus insolites du port de Paris, il a joué pourtant un rôle central dans la représentation de l'activité portuaire. La notion même de « port de Paris » découle en partie de celle de « Paris port de mer », ou bien l'inverse Mieux encore, les deux termes se sont imprégnés de leurs imaginaires respectifs. Certains adversaires de Paris port de mer soucieux d'améliorer le dispositif portuaire de Paris et sa banlieue ont eux-mêmes succombé à la contagion. Paris port de mer a ainsi largement nourri le débat autour de la question portuaire parisienne. Tous ces projets apparaissaient, en effet, comme des remèdes aux faiblesses du dispositif portuaire. En dépit du coup de grâce porté aux propositions de la Société d'études, telle une divinité indienne, Paris port de mer connaîtra de nombreux « avatars » et imprégnera1014, de près ou de loin, l'ensemble des politiques portuaires1015 de la région parisienne durant le XXe siècle : 1013 Pour plus de détails, consulter la partie des annexes consacrée au transport fluviomaritime. Le futur est employé ici, car il n'est pas certain que ce soit plus valable au XXI e siècle 1015 Plutôt des tentatives de politiques, si tant est qu'il y en a eu réellement 1014 302 Gennevilliers, Bonneuil, Pantin, Ivry Encore récemment, le port autonome a été l'héritier de cette vision du port et a accordé au transport fluviomaritime une place à part1016. Paris port de mer représente par conséquent la clef pour saisir l'histoire, ou du moins les politiques menées au cours du siècle qui suivit 1016 On peut aussi considérer que l'intérêt récent du port autonome de Paris pour les conteneurs relève des mêmes fondements que Paris port de mer et les entrepôts. Un entretien avec le directeur général du port autonome de Paris m'a confirmé cette opinion 303 TROISIÈME PARTIE : RETOUR AU « RÉALISME » OU LA REVANCHE DISCRÈTE DE LA BATELLERIE (1893-1914). 304 CHAPITRE V : L'IMPOSSIBLE MARIAGE ENTRE VOIE D'EAU ET CHEMINS DE FER (1890-1914). Introduction : possibilité du raccordement pour le port de Paris ? La question de la multimodalité est devenue aujourd'hui incontournable dans le domaine des transports et de la logistique. À l'instar de la notion de réseau, qui était employée dès les années 1830, et préexistait le siècle précédent, elle n'est pourtant pas aussi neuve qu'on tendrait à l'imaginer, puisque déjà vers la fin du XIX e siècle, elle se posa, sous la forme du « raccordement ». D'ailleurs, certains historiens modernistes discernent déjà le principe même de l'intermodalité1017. Plus tard, on préféra parler de « coordination », ce dernier terme renvoyant à une politique globale, censée introduire une relation plus harmonieuse entre les divers modes de transports 1018 . On parle aujourd'hui de « multimodalité » ou « d'intermodalité », ce dernier terme se rapprochant peut-être mieux du concept de « raccordement » 1019 . Dans leurs thèses respectives, MM. Lucien Morice 1020 et Marcel Jouanique1021 avaient déjà dressé un historique des rapports qu'ont entretenus les chemins de fer et la voie d'eau. Le second s'était particulièrement attaché à comparer les rentabilités des deux modes de transports. Cependant, il s'agissait avant tout d'approches techniques et administratives. Loin d'être inintéressantes, elles manquaient tout de même de perspectives historiques. Les géographes ne se sont penchés sur la question que tardivement, laissant souvent de côté la batellerie, l'estimant, à tort ou à raison, dépassée, tout en reconnaissant ses 1017 Voir introduction. Pour rappel, consulter : Éric Szulman, La Navigation intérieure sous l'Ancien Régime, Rennes, Presses Universitaires de Rennes, 2014, 376p. 1018 Les termes ne sont pas strictement identiques. Le raccordement renferme une connotation plus technique que celui de coordination, plus politique. Il souligne la liaison directe entre les modes de transports. La coordination ne signifie pas forcément le raccordement, celui-ci n'en constitue qu'un aspect. Le concept de multimodalité devient plus abstrait, tendant à effacer la relation entre les transports. Consulter Nicolas Neiertz, La coordination des transport en France de 1918 à nos jours, Paris, Comité pour l'histoire économique et financière de la France, 1999, 798p. 1019 Cette question a été évoquée en introduction. Pour rappel, voir notamment : Bruno Marnot, « La genèse du concept d'intermodalité en France dans le transport des marchandises du début du XIX e siècle à 1937 », Colloque COST de Lisbonne, 24-25 mai 2005 ; Bruno Marnot, « Interconnexion et reclassement : l'insertion des ports français dans la chaîne multimodale au XIXe siècle, in Flux, janvier 2005, n°59, pp.10-21. 1020 Lucien Morice, L'Office National de la Navigation et l'exploitation réglementée des voies navigables, thèse pour le doctorat en droit présentée et soutenue le 29 novembre 1945, ouvrage publié avec le concours de l'Office National de la Navigation, 1946, 327p. Ou encore : Lucien Morice, L'Office national de la Navigation et l'exploitation réglementée des voies navigables, publié avec le concours de l'Office national de la Navigation, 1946, 328p. 1021 Marcel Jouanique, Le problème des transports fluviaux, Toulouse, ouvrage publié avec le concours de l'Office National de la navigation, Imprimerie Cleder, 1947, 231p. Les deux auteurs ont collaboré pour la rédaction d'un Que-sais-je ?, déjà ancien, mais précieux sur le plan historique : Marcel Jouanique et Morice (Lucien), La navigation intérieure en France, Paris, P.U.F. (« Que sais-je ?), n°494, 1951, 128p. 305 avantages1022. On peut néanmoins citer les travaux de Marie-Madeleine Damien dénonçant avec virulence la « misère fluviale 1023 ». Ce qui est indéniable, c'est que la voie d'eau contemporaine n'a guère éveillé l'intérêt des historiens Il s'avère nécessaire de puiser parmi les historiens des chemins de fer pour déceler les premières réflexions portant sur la concurrence entre batellerie et chemins de fer, sans doute parce que l'émergence de ces derniers suscite fatalement la question du sort de la batellerie. On peut évoquer la thèse de François Caron sur la compagnie du Nord1024. Une historienne s'est intéressée à la navigation intérieure, Michèle Merger, traitant évidemment de manière plus approfondie la question de la concurrence dans sa thèse sur la politique de la IIIème République en matière de transports fluviaux, puis dans divers articles. Deux numéros de la revue Histoire économie et sociétés furent consacrés à la question, adoptant une approche comparative européenne et permettant une classification des pays européens1025. Toutefois, on se borne toujours à une approche de la concurrence entre les deux modes, surtout concernant les études sur la France 1026. Demeure la thèse de Nicolas Neiertz qui développe largement la question de la coordination, même si le propos se cantonne au champ des politiques menées. Il concentre d'abord son attention sur les rapports automobiles-chemins de fer, ainsi que l'aviation. Sans être négligée, la batellerie reste insuffisamment traitée, pour qui s'intéresse au transport fluvial contemporain 1027 . Surtout, toutes ces études manquent de cas concrets 1028. Pourtant, cette question se révèle fondamentale pour l'histoire du port de Paris, elle s'inscrit dans la lignée des entrepôts, de Paris port de mer Au fond, l'identité, la vocation de celui-ci se trouvaient mises en cause : 1022 Jean Bastié s'est beaucoup intéressé à l'histoire de Paris, et ne manque jamais d'évoquer le rôle de la voie d'eau dans l'économie parisienne. Il est d'ailleurs un des rares à le faire. Dans sa thèse sur le sud-est parisien, il figure parmi les premiers à parler du port d'Ivry. Toutefois, il ne s'agit que d'une évocation. 1023 Marie-Madeleine Damien, Les transports fluviaux, Paris, P.U.F. (« Que sais-je ? »), 1997, n°494, 128p. 1024 François Caron, Histoire de l'exploitation d'un grand réseau : la Compagnie des chemins de fer du Nord, 1846-1937, Paris, Mouton, 1973, 619p. 1025 Voir notamment, Michèle Merger, « La concurrence rail-navigation intérieure en France », Histoire, Économie et Société, 1, 1990, pp.65-94. 1026 Les modèles allemands et belges ont effectivement reposé sur une « relation » complémentaire ou concurrentielle de la voie d'eau et de la voie ferrée. La France se rapproche sous certains aspects du modèle allemand, dans la mesure où les rapports entre les deux modes se sont davantage fondés sur une concurrence effrénée, en vue de réduire les coûts des matières premières, avec toutefois un handicap pour la batellerie en termes d'investissements. 1027 La question de la coordination des chemins de fer et de la voie d'eau, qui a produit de nombreux rapports, n'est évoquée que trop brièvement. Il ne s'agit pas tant de critiquer l'auteur, car il brosse tout de même les évolutions générales de la batellerie, que de constater que l'histoire contemporaine du transport fluvial est le « parent pauvre » de la recherche universitaire 1028 Dans son article sur le port de Paris dans « Paris et ses réseaux », Michèle Merger relate certes, le cas d'Ivry, mais de manière relativement succincte : Michèle Merger, « La Seine dans la traversée de Paris et ses canaux annexes : une activité portuaire à l'image de la capitale », dans Paris et ses réseaux : naissance d'un mode de vie urbain XIXe-XXe siècles, Paris, Bibliothèque historique de la Ville de Paris, 1990, pp. 380-382. 306 Paris port de consommation ou Paris port de transit ? Le port d'Ivry 1029 constitue la première initiative de la chambre de commerce de Paris1030 dans le domaine et illustre les contradictions de celle-ci dans le développement de l'activité portuaire parisienne À ce titre, ce port servira de matériau principal pour ce chapitre consacré au raccordement dans la région parisienne1031 ? 1029 Jean Millard a évoqué l'histoire du port d'Ivry, mais s'est plus intéressé aux ports de Gennevilliers et Bonneuil. 1030 On peut citer la thèse de Philippe Lacombrade sur l'histoire de la chambre de commerce de Paris de la deuxième moitié du XIXe siècle à 1914. Son approche prosopographique éclaire sur les changements d'attitude de la chambre à l'égard de la voie d'eau 1031 Il faut envisager le terme « public » dans un sens plus général, c'est-à-dire un port d'intérêt public, mais pouvant être géré par un entrepreneur privé, un concessionnaire public, etc. 307 I. LES DÉBUTS DU RACCORDEMENT À PARIS 1897-1903. A. Une guerre intermodale totale : 1. Des relations intermodales complexes : quelles perspectives pour le raccordement ? L'idée de promouvoir les jonctions entre la voie d'eau et la voie ferrée avait déjà été évoquée par Jean-Baptiste Krantz dès 1872 1032 . Les ingénieurs français commencèrent à s'intéresser aux ports de transbordement sur le Rhin dans les années 1892. Les rapports des représentants allemands au 5e congrès international de la navigation intérieure les avait particulièrement impressionnés. A. Dufourny et Louis Laffitte ont été amenés à étudier plus précisément les voies navigables allemandes, ils en conclurent que la prospérité des voies navigables et des chemins de fer découlaient des ports de raccordement 1033. Les défenseurs de la navigation intérieure s'appuyèrent sur l'expérience allemande pour justifier la nécessité d'une politique plus favorable à ce mode de transport. Et le raccordement était devenu un élément incontournable de la modernisation des voies navigables. Sans doute, il y avait des excès dans cette conception qui laissait croire à une entente harmonieuse entre les deux modes de transport de l'autre côté du Rhin qui aurait tranché avec des relations intrinsèquement et inversement querelleuses en France. Or, les ferristes français ne se privèrent pas de dénoncer cette vision quelque peu idyllique1034, et même certains canalistes reconnaissaient eux-mêmes que la controverse intermodale était peut-être même encore plus vive en Allemagne1035. Il faut dire que le développement des voies navigables allemandes avait de quoi impressionner. Le tonnage des voies navigables allemandes avait ainsi progressé de 159 % entre 1875 et 1895, contre 88% pour la France, alors que celui des chemins de fer allemands avait respectivement progressé de 440% contre -40% pour son voisin. Le Rhin avait à lui seul un tonnage kilométrique supérieur à celui des voies navigables françaises, soit 5,471 milliards en 1909. Le tonnage moyen des voies navigables allemandes qui avait connu un développement sensiblement équivalent à celui du réseau français était tout de même trois fois supérieur1036. L'envolée des trafics fluvial et ferroviaire a participé à l'émergence de ports fluviaux 1032 Michèle Merger, La politique de la IIIe République, op. cit., p.187. A. Dufourny, « Principes qui en matière administrative et financière président à l'étranger », in Annales des Travaux publics de Belgique, 1, 1895 ; Louis Laffitte, Étude sur la navigation intérieure en Allemagne, Nantes, Imprimerie Schwob, 1899, 207p. Le dernier ouvrage cité constituait la référence sur la navigation intérieure Outre-Rhin à l'époque. Louis Laffitte a mené une enquête de huit mois en Allemagne pour le compte de la Société de propagande de la Loire Navigable fondée en 1896. Par la suite, il est devenu secrétaire général de la chambre de Commerce de Nancy. 1034 Alfred Mange, « Les Voies navigables de l'Allemagne », in Revue des Deux Mondes, 5e période, tome7, 1902, pp.564 Alfred Mange était directeur de la Compagnie Paris-Orléans. 1035 Paul Léon, Fleuves, canaux, chemins de fer, op. cit., p.198. 1036 Georges Cuënot, Fleuves et rivières, Paris, Dunod Éditeur, 1921, p.15. 1033 308 colossaux dont le plus emblématique était sans doute le port de Rurhort-Duisbourg. Ce port recevait les houilles en provenance de Westphalie qu'il distribuait ensuite les villes en bordure du fleuve1037. Le port de Rurhort-Duisbourg présentait la spécificité de constituer à la fois un important port pour les expéditions et les arrivages. D'un côté, il expédiait les houilles de la Ruhr vers la Belgique et les Pays-Bas (près de 2,2 millions de tonnes) et l'Allemagne (autour de 6,2 millions de tonnes), d'un autre côté, il approvisionnait la Westphalie grâce à ses arrivages. Les compositions des trafics des deux entités se distinguaient très nettement, le port de Rurhort servant avant tout à l'approvisionnement de la sidérurgie, tandis que le port de Duisbourg fournissait les marchandises nécessaires à la population westphalienne1038. La modernisation des infrastructures fluviales allemandes s'était accompagnée d'un puissant effort de construction. Le nombre de ports dotés d'embranchements ferroviaires est ainsi passé de 105, en 1893, à 145 en 1903. Le mouvement ne s'est pas essoufflé au cours de la décennie suivante dans la mesure où le nombre leur nombre s'est élevé à 174 en 1914. Plus significative était encore l'évolution des quais de déchargement dont l'effectif était passé de 158 à 330 à la veille du premier conflit mondial, ce qui signifiait un doublement. Par ailleurs, le nombre de sites industriels en bordure des cours d'eau confirmait cette évolution en passant de 597 à 729 en 19141039. Malgré une vive concurrence intermodale, il n'en restait pas moins que les progrès en matière de raccordement avaient été spectaculaires sur le Rhin. Les initiatives en faveur du raccordement sont demeurées rares en France. Le contraste était saisissant avec l'Allemagne. En 1907, sur les 138 millions de tonnes circulant sur les voies ferrées contre 34 millions sur les voies navigables, le volume des marchandises échangées entre les deux modes de transport n'excédait guère les 800 000 tonnes, soit environ 5 pour 1 000. Les ports de Roanne, Varangeville, Montargis et Montluçon absorbaient près de la moitié de ce tonnage, et la prospérité relative de ces ports dépendait de conditions très spécifiques. Les tonnages restants étaient répartis entre trente-cinq ports intérieurs publics raccordés aux chemins de fer d'intérêt général, dont une vingtaine seulement pouvaient être 1037 L'extraction de houille westphalienne représentait effectivement les deux tiers de la production de l'empire prussien, soit 59 millions de tonnes. 1038 Bericht über die Verwallung und den Stand der Gemeindeangelegenheiten der Stadt Duisburg für das Etatsjahr 1900, Duisburg, 1901. 1039 Andreas Kunz, « La modernisation d'un transport encore préindustriel pendant l'ère industrielle : le cas des voies navigables de l'Allemagne Impériale de 1871 à 1918 », in Histoire, économie et société, 1992, 11e année, n°1, « Les transports terrestres en Europe occidentale (XIXe-XXe siècles) », p.22. 309 considérés comme réellement opérationnels1040. Le plus étonnant était que ces raccordements concernaient des sites où les échanges se révélaient nécessairement limités à l'instar de ceux de Chagny, Sens ou Paray-le-Monial. À contrario, ils semblaient quasiment absents dans les pôles économiques de premier plan tels que Lyon, Lille ou Paris. Dans la région parisienne, le port d'Ivry apparaissait comme la première tentative réelle de raccorder la voie d'eau à la voie ferrée, ou du moins, le premier port public conceptualisé sous cette acception. Il représentait ainsi une certaine innovation. L'idée d'établir un port sur le territoire d'Ivry n'était toutefois pas inédite. Le site avait déjà été envisagé comme gare d'eau au début du XIXe siècle. Les projets portuaires prestigieux dans la région parisienne répondent souvent à une conception quasi mythologique. Celui du port d'Ivry ne faisait pas exception. Il n'est pas sans accointance avec l' « utopie» de Paris port de mer, consistant à modifier la vocation portuaire parisienne, voire celle de l'économie parisienne. L'engouement autour de Paris port de mer offrit au moins le mérite de susciter une réflexion autour de l'outillage portuaire francilienne. Elle permit de forger ou renforcer l'idée même d'un port de Paris, à une époque où l'identité portuaire traditionnelle s'était sensiblement étiolée La conception même de ce port évoluait au gré de la progression de l'urbanisation. Toute recherche autour d'un mythe nécessite de confronter celui-ci avec la réalité de la recherche de terrain. Il convient donc de retracer, en quelque sorte, « l'archéologie » du projet. L'idée d'une gare d'eau à Ivry n'était pas inédite, elle remontait dès les années 18201041. L'ingénieur des Ponts et Chaussées Cordier défendit ainsi un projet aussi grandiose que dispendieux, prévoyant l'aménagement d'un bassin et de canaux dans la plaine d'Ivry, en vue d'établir des dépôts de matières premières. Ces derniers devaient être assez spacieux pour contenir les approvisionnements d'une année, de manière à rendre les prix uniformes et réduire les dépenses des consommateurs en vue d'assurer « le succès des fabriques1042». Le projet permettait en outre de lutter contre les inondations en éliminant le stationnement des bateaux du 1er novembre au 20 mars Ce projet trouvait bien sûr ses pendants en aval de Paris, comme en témoignaient divers projets de ports plus ou moins maritimes situés sur la plaine de Gennevilliers, à Saint-Ouen ou encore à Clichy1043 1040 Projet de loi relatif au raccordement des voies de chemins de fer avec les voies d'eau, présenté devant la Chambre des Députés le 6 févier 1908, p.1. 1041 Isabelle Backouche, La trace du fleuve, La Seine et Paris, Paris, Éditions de l'École des Hautes Études en Sciences Sociales, 2000, pp. 354-355. 1042 J.L.E. Cordier, Mémoire sur les projets présentés pour la jonction de la Marne et de la Seine, et les docks aux bassins éclusés à établir dans les plaines de Choisy, d'Ivry et de Grenelle, Paris, Impr. Firmin Didot, 1877, p.21. 1043 Les trois sites allaient d'ailleurs abriter des ports d'une certaine importance. 310 Malgré ces considérations de fond sur l'imaginaire portuaire parisien, les projets effectivement réalisés furent le plus souvent le fruit des circonstances. L'origine même de la concession de la chambre de commerce de Paris remontait à un banquet tenu le 24 mars 1893, où M. Delaunay Belleville1044 renouvela un voeu, déjà émis par la chambre consulaire, pour ce qui était du rattachement des voies ferrées au réseau navigable 1045 . Celui-ci présenta un rapport au cinquième Congrès International de Navigation Intérieure, où il posa les premiers jalons de la gare d'eau d'Ivry. Il exhorta le ministre des Travaux publics à la prescription d'une étude complète des mesures pour la mise en relation directe de la nouvelle gare projetée à Ivry, ainsi que l'établissement sur la rive gauche de la Seine d'un quai proche. L'affaire du port d'Ivry intéressait au plus haut niveau de l'État. Le ministre des Travaux publics cherchait à satisfaire l'enthousiasme de l'opinion à l'égard du raccordement. Par la même occasion, il s'agissait aussi de répondre à l'engouement populaire autour de Paris port de mer. Le projet du port d'Ivry apparaissait comme une sorte de compensation, faute de mieux. Par une dépêche datée du 7 janvier 1894, le ministre des Travaux publics informa la chambre de commerce que son ministère avait procédé à la préparation d'un avant-projet. Ces trois parties consistaient en l'édification d'un port de transbordement et d'un bas port sur la rive gauche de la Seine à Ivry, l'établissement de voies de raccordement entre la Gare d'Ivry Chevaleret et le port de transbordement et voies de service de ce celui-ci et enfin la dotation d'un outillage. L'État et la commune d'Ivry devaient supporter à moitié la dépense pour la construction du port. Le ministre des Travaux publics demanda si la chambre de commerce de Paris se jugeait prête à concourir à établir les voies ferrées et l'outillage du port. La Compagnie devait compenser ses dépenses et charges directes de l'emprunt, moyennant la perception d'un péage à la tonne sur les marchandises transportées sur les voies dont l'exploitation était assurée par la Compagnie d'Orléans. Le 13 avril 1894, la chambre consulaire en conclut à la possibilité de participer à l'opération projetée dans les conditions énoncées, sous réserve d'une étude plus approfondie de la question financière. Les négociations se poursuivirent, la chambre consulaire fit connaître au ministre du Commerce les conditions, selon lesquelles elle consentait à concourir à l'établissement des voies ferrées, ainsi qu'à l'outillage du port et à son exploitation. La chambre se déclara disposée à signer le cahier des charges, lui concédant l'autorisation d'établir et d'administrer un outillage sur le quai du port d'Ivry avec quelques modifications 1044 Louis Delauney-Belleville, élu président de la chambre de commerce de Paris le 11 janvier 1893. ACCIP IV-4.62 (3), Exploitation de la Gare d'eau d'Ivry. Rapport présenté au nom de la Commission Temporaire de la Gare d'Eau d'Ivry par M. Lefebvre, déposé le 9 juin 1903. 1045 311 concernant les grues. Elle s'engageait à avancer à l'État une somme maximale de 140 000 francs, destinée à la pose de voies ferrées pour la desserte du quai d'Ivry et la liaison avec la gare d'Ivry Chevaleret, moyennant la perception d'une taxe de péage fixée à 15 centimes la tonne. Cette taxe1046 devait être perçue jusqu'au remboursement intégral de la somme versée à l'État, capital et intérêt compris. Le 10 avril 1896, le ministre des Travaux publics avisa la chambre qu'il venait d'inviter le préfet de la Seine à soumettre une enquête d'utilité publique du projet d'établissement de ces voies ferrées. La convention passée le 25 juin 1897 fut approuvée entre le ministre des Travaux publics et la Compagnie de chemin de fer de Paris à Orléans pour l'exploitation desdites voies, lesquelles devaient être établies par l'État grâce aux moyens fournis par la chambre de commerce de Paris. Un second décret, daté du 31 juillet 18971047, complétait le premier, en autorisant la chambre de commerce à emprunter à un taux d'intérêt, n'excédant pas 4,10%, une somme de 57 000 francs à l'effet de subvenir aux frais de premier établissement de l'outillage public concédé sur les quais du port d'Ivry par le décret du 28 juin 1897. L'amortissement de cet emprunt était censé se réaliser sous une période de cinquante ans, au moyen du produit des taxes d'usage, prévues au cahier des charges annexé au dit décret. En outre, la Compagnie était autorisée à recourir à l'emprunt pour une somme de 140 000 francs pour le montant versé à l'État à titre de subside pour construire les voies ferrées. L'amortissement de ce dernier emprunt s'effectuait sur cinquante ans encore, au moyen du produit du péage maximum de 0,15 centimes par tonne de marchandise circulant sur les voies ferrées prévu dans la convention passée entre le ministre des Travaux publics, agissant au nom de l'État et la Compagnie des chemins de fer d'Orléans, pour l'exploitation de ces voies, convention approuvée par le décret du 28 juin 1897. Toujours remboursables par anticipation, ces emprunts pouvaient être réalisés et conclus en totalité ou par fraction Ces deux décrets du président de la République parachevèrent la phase préparatoire de la création du port d'Ivry et du raccordement avec le réseau d'Orléans. En fait, le concours financier de la chambre de commerce de Paris pour la création de la gare d'eau d'Ivry se trouvait limité. Les décrets la fixèrent à 197 000 francs : 140 000 francs pour la participation de la Chambre, pour établir les voies de raccordement. La construction devait être entreprise par l'État, et une somme de 57 000 francs était destinée pour installer l'outillage du port dont 1046 Susceptible d'être réduite à 10 centimes. La Chambre de commerce et d'industrie de Paris 1803-2003. Histoire d'une institution, Genève, Droz, 2003, pp.161-167. 1047 312 la dépense avait été prévue initialement à 139 000 francs. La Compagnie avait effectivement décidé de n'établir provisoirement que deux grues au lieu des trois prévues et de reporter à une date ultérieure la construction des hangars. La somme de 57 000 francs fut néanmoins vite jugée insuffisante, le prix exigé par la Maison Caillard et Cie du Havre, ainsi que les voies de roulement et les bennes, avaient excédé de près de 3 000 francs le montant prévus aux plans primitifs. Pour assurer ces travaux le 28 juin 1899, la chambre de commerce vota un premier crédit supplémentaire de 42 000 francs1048. Si le port d'Ivry n'était pas une affaire nouvelle, il ne vit le jour que vers la fin du e XIX siècle, à la faveur de l'engouement pour le raccordement. Le financement était mixte, l'essentiel étant assumé par la chambre de commerce de Paris et une partie par l'État, qui s'occupa surtout des infrastructures de raccordement. Or, la lecture des dépenses permettait de douter du succès du projet : à son inauguration, il ne fut doté que de deux grues, de puissance plutôt moyenne. Plus grave encore, il ne disposait d'aucun hangar, ce qui limitait sensiblement les possibilités de stockage, et ôtait de ce fait une partie significative de son potentiel pour en faire un port de transit. Pourquoi un tel revirement ? On peut avancer quelques éléments de réponses. La chambre consulaire n'envisageait sans doute pas que le projet aboutisse aussi rapidement et surtout en assumer l'essentiel du financement 2. La vision consulaire de la modernisation parisienne. Pourquoi la chambre de commerce de Paris fut-elle amenée à s'occuper du port d'Ivry ? À l'aube du nouveau siècle, l'institution consulaire s'inquiétait de l'état de modernisation de l'économie française. Sa réflexion s'inscrivait dans un projet plus large d'adaptation des structures du capitalisme français à l'évolution du contexte économique mondial1049. Le processus de modernisation du pays devait passer par celle de la capitale. Les consuls estimaient que la défense de l'économie nationale correspondait à celle des intérêts 1048 ACCIP IV-4-62 (3), Exploitation de la Gare d'eau d'Ivry. Rapport présenté au nom de la Commission Temporaire de la Gare d'Eau d'Ivry par M. Lefebvre, déposé le 9 juin 1903, p.8. Trois emprunts couvraient les dépenses de la chambre de commerce : 140 000 francs « fonds de concours pour l'exécution des travaux des voies de raccordement du Port d'Ivry avec la gare du Chevaleret, par un emprunt de même somme au taux d'intérêt de 3,70% amortissable en 50 ans, 99 000 « dépenses d'outillage » couvertes par deux emprunts, dont un de 57 000 francs au taux de 3,70% amortissable en 50 ans et complété par un autre emprunt de 42 000 francs au taux de 3,80% amortissable en 47 ans. Les charges annuelles de la chambre de commerce s'élevaient donc à 6166,26 annuités de l'emprunt de 140 000 francs, 2 510,66 annuités de l'emprunt de 57 000 francs, 1 924,16 francs de l'emprunt de 42 000 francs ; soit 10 601,08 annuités des trois emprunts. 1049 La Chambre de commerce et d'industrie de Paris, 1803-2003. Histoire d'une institution, Genève, Droz, 2003, p.150. 313 parisiens1050. Ils attribuaient un rôle moteur à la capitale pour l'avenir économique du pays. Cette prise de position des consuls leur paraissait d'une importance majeure : « Paris n'est pas une région industrielle au sens propre du mot ; c'est le centre et le coeur de la France ; de Paris partent les exportations en très grande majorité ; c'est là où se concentrent toutes les commandes et expéditions. Nous ne pouvons pas répondre au nom de la fabrication parisienne seulement, car les intérêts parisiens comportent toute la fabrication française 1051 ». Cette concordance entre devenir du capitalisme français et dynamisme du capitalisme parisien se conjuguait avec l'idée d'une complémentarité entre les économies de la capitale et de la province. La chambre consulaire affichait la volonté de renforcer les relations entre la région parisienne et ses principaux hinterlands. Elle jugeait notamment prioritaire le développement des relations avec la région du Nord. Celle-ci constituait effectivement une des principales zones d'approvisionnement de la capitale en matières premières. Ses prises de position à l'égard du canal du Nord résultaient de ces préoccupations. Ce projet visait à améliorer la circulation entre Paris et les zones houillères que l'encombrement des canaux du Nord et la hausse des prix du fret gênaient considérablement 1052 . Le canal projeté était censé soulager le canal Saint-Quentin d'une portion de son trafic. Proposé en 1878, le projet avait été élaboré par l'ingénieur en chef Flamant et projetait de relier Douai à Paris par le biais d'une voie parallèle au canal SaintQuentin. Le coût était estimé autour de 105,1 millions de francs. Il avait été inscrit au plan Freycinet en 1879, mais le Sénat l'écarta pour des motifs budgétaires, et sans doute la pression des milieux ferroviaires. La chambre de commerce parisienne figura parmi les principaux défenseurs du projet. Le président de la chambre de commerce de Douai contacta son homologue parisien en novembre 1901. Si cette dernière ne s'engagea à aucune participation financière aux travaux, elle consentit à intervenir favorablement pour sa réalisation1053. En avril 1903, la chambre contacta le président de la commission des travaux publics du Sénat, Freycinet, et le ministre des Travaux publics du gouvernement Combes, M. Maruejouls1054. En juin de la même année, la Chambre intervint, par l'intermédiaire de Paul Mallet devant la commission des finances du Sénat. L'action combinée des chambres de commerce de Douai et de Paris aboutit à la déclaration d'intérêt public de la réalisation du 1050 La Chambre de commerce et d'industrie de Paris, 1803-2003. Histoire d'une institution, Genève, Droz, 2003, pp.161-167. 1051 P.V. du 29 novembre 1893. 1052 Rapport de Paul Mallet devant le comité central des chambres syndicales, mars 1901, Recueil des procèsverbaux des séances du Comité central des chambres syndicales, mars 1901, 32 ème volume, Paris, 1901. 1053 ACCIP IV-4-62 (3), Note de M. Sciama du 4 décembre 1901. 1054 Procès-verbal du 2 mars 1898. 314 canal du Nord le 22 décembre 1903. Sa volonté de promouvoir l'essor commercial de la capitale transparaissait également dans ses prises de positions concernant la suppression de l'octroi. Le port d'Ivry s'inscrivait dans une double logique de modernisation de la région parisienne : renforcer d'une part l'outillage parisien et étendre la fonction commerciale de Paris vis-à-vis de la province. De ce point de vue, la gare d'eau d'Ivry se rapprochait de Paris port de mer et des entrepôts des Marais1055. Elle se trouvait en totale adéquation à l'égard des réflexions développés au début du XXe siècle La réalisation de ce port préfigurait même les réflexions et recommandations des commissions tenues à la suite des inondations de 1910, à la différence que leurs propositions n'étaient qu'à l'état d'ébauche. Le port d'Ivry constitua un modèle type pour les grandes réalisations du XXe siècle : les ports de Gennevilliers, Bonneuil, Pantin, etc. Le port d'Ivry manifestait simultanément les contradictions au sein de la chambre consulaire : il s'agissait d'un côté de développer les infrastructures parisiennes de transports, dans une logique de favoriser les échanges, plutôt libre-échangiste, l'aménagement de ce port exprimait d'un autre côté un certain volontarisme économique. Cette contradiction se traduisait par une certaine montée du courant protectionniste1056 Lui-même contemporain de la volonté exprimée par la chambre consulaire de participer de façon accrue à la gestion commerciale de la capitale 1057 : écoles de commerce, bibliothèque, manutentions de la Douane, magasins d'AusterlitzLe raccordement apparaissait à l'époque comme la « solution miracle » pour moderniser le port de Paris. La création de la gare d'eau d'Ivry représentait un premier pas dans ce sens. Pourquoi le raccordement a-t-il été si peu développé ? Le port d'Ivry-sur-Seine ne constituait pas tout à fait une première dans le domaine, on avait ainsi déjà établi un tel raccordement aux Docks de Saint-Ouen, au port de Javel, ou encore ailleurs en France Sans que ces expériences ne se soient révélées vraiment concluantes Le succès de ces initiatives dépendait finalement de la bonne volonté des acteurs économiques. En aval de Paris, la dépense d'établissement du port de Javel s'était élevée à un million de francs pour un trafic annuel de 10 000 t, dû pour une large part au transbordement, de wagons à bateau, des orges de la Sarthe expédiés par voie mixte aux brasseries allemandes. 1055 Voir chapitres II et IV. Qui ne doit néanmoins pas être exagérée. 1057 La Chambre de commerce et d'industrie de Paris 1803-2003. Histoire d'une institution, Genève, Droz, 2003, p.172. 1056 315 La Compagnie de l'Ouest conservait le trafic sur ses rails, tandis que celle du Nord perdait le bénéfice du transport jusqu'à la frontière. La Compagnie du Nord s'était évertuée à convaincre, et y était parvenue, la Compagnie de l'Ouest, à conclure un tarif commun dont les prix offraient des taxes moins lourdes que celles obtenues par la voie mixte. Les orges de la Sarthe pouvaient ainsi s'y rendre sans rompre charge jusqu'en Allemagne par voie ferrée : « le port de Javel, à la suite de cette opération succomba. La dépense engagée à la création de ce port – à laquelle la Ville de Paris a participé par moitié – n'était donc plus d'aucune utilité1058.» En définitive, la navigation intérieure ne pouvait avoir d'autre clientèle que celle des riverains. La Compagnie parisienne du Gaz recevait ainsi l'ensemble de ses charbons par voie ferrées, à l'exception des usines de Clichy et de Passy. Les frais de camionnage s'avéraient trop élevés pour espérer procéder à des transferts entre la voie d'eau et les chemins de fer ou pour élargir la desserte de la voie d'eau vers d'autres clients 1059 . Il existait une autre alternative particulièrement intéressante dans la région parisienne, à savoir effectuer les échanges par le biais des entrepôts et magasins généraux, mais la Compagnie du Nord avait établi d'étroites relations avec la Compagnie Générale des Entrepôts et Magasins généraux de Paris qui était le principal protagoniste en la matière à Paris1060. La société de chemin de fer exploitait effectivement les établissements les plus significatifs parmi les 21 situés sur son réseau, notamment les docks de Saint-Ouen. La Compagnie du Nord avait convaincu la société cliente de ne procéder à aucune conversion de ses magasins en gare d'eau. B. Une illustration de la double stratégie des Compagnies de chemins de fer portant sur la tarification et l'exploitation. 1. Une politique tarifaire dissuasive. Les relations entre la Compagnie PO et le port d'Ivry s'exprimaient sur deux niveaux : la tarification et l'exploitation des wagons sur les embranchements du port. L'échec du raccordement à Ivry revêtait deux dimensions : la politique délibérée des compagnies ferroviaires d'empêcher son développement par des pratiques d'ententes tarifaires, et la tarification à proprement parler du port régissant sa bonne marche. Les rapports entre la Compagnie Paris-Orléans et la chambre de commerce de Paris se sont avérés des plus 1058 Ibid. Paul Léon, Fleuves, canaux, chemins de fer, Paris, Armand Colin, 1903, p. 133. 1060 François Caron, Histoire de l'exploitation d'un grand réseau : la Compagnie des chemins de fer du Nord, 1846-1937, Paris, Mouton, 1973, p.377. 1059 316 complexes. La gare d'eau ne constituait en tant que telle pas forcément un réel danger pour le trafic de la compagnie de chemin de fer, mais un complément intéressant, la voie d'eau apportant des marchandises à bas coût jusqu'au chemin de fer, pouvant les acheminer vers des destinations inaccessibles à la batellerie C'était sans compter sur la méfiance viscérale et réciproque entre les deux modes de transport. Les chemins de fer percevaient en la gare d'eau d'Ivry un véritable danger, péril d'ailleurs largement surestimé, compte tenu de la réalité du port, comme on a pu le constater La batellerie de son côté, se méfiait de cette installation créée somme toute artificiellement, elle ne croyait pas vraiment envisageable une coopération sur des bases équitables. La position des grandes compagnies de navigation fluviale n'était pas moins ambiguë. Elles semblaient avoir soigneusement évité de fréquenter le port, sous prétexte de tarifs trop onéreux, ce qui correspondait à leur attitude générale à l'égard des autres ports de transbordement1061. Tel fut le cas de la compagnie de navigation H.P.L.M., préférant les concurrents Les autres compagnies, spécialisées dans le transport de matériaux de construction, telles la société Morillon-Corvol ou les Sablières de la Seine, ne pouvaient envisager d'un oeil bienveillant la gare d'eau d'Ivry. Elles-mêmes disposaient de leur propre matériel de manutention, qu'elles louaient à l'occasion, sans avoir à payer les frais de location des terrains et de construction des infrastructures, vu la relative anarchie régnant à Paris1062. Plus grave encore, s'ajoutaient les accords passés entre les différentes compagnies. Dans le bulletin de la « Mutuelle Transport » d'avril 19071063, Jean Barême, oeuvrant pour un groupe de pression favorable à la modernisation des voies navigables, critiqua la pertinence du concept du raccordement et dénonça une politique de tarifs systématique des chemins de fer pour saborder les ports fluviaux raccordés à la voie ferrée, les principales mises en accusation étant la PLM et la Compagnie du Nord1064 : « dès qu'un port fluvial est relié à la voie de fer, les Compagnies de Chemins de fer cherchent, par des changements de tarification, à enlever le trafic à la navigation : le port a donc vécu1065. » Les faits semblaient confirmer ces accusations, puisque le concessionnaire du port d'Ivry expliquait une partie des difficultés 1061 A.N. F14 7074, rapport de Pierre Léon, « La suture du réseau ferré et du réseau navigable », pp.3-4. Le mot « anarchie » doit être entendu au sens propre du terme, à savoir d'absence de pouvoir, d'État, mais pas forcément d'ordre, dans la mesure où les compagnies en question assuraient elles-mêmes un ordre qui les arrangeait. 1063 Le propos s'appuie ici sur un article de la Loire navigable d'août 1907, signé Jean Barême, reprenant certaines idées, et apportant également de nouveaux développements à l'article (ACCIP IV-4.61 (32). 1064 L'auteur de l'article appuya sa thèse sur trois exemples, celui du port de Javel, celui du port d'Ivry-sur-Seine, et enfin celui du port de Roanne. 1065 Id. 1062 317 du port d'Ivry par les ententes visant à casser les prix et capter les trafics liés au raccordement : Ce résultat est dû essentiellement à l'entente qui existe entre les Cies de chemins de fer, pour détourner coûte que coûte les marchandises de la voie d'eau. Au moyen des tarifs communs elles font, toutes une concession pour obtenir un prix total plus avantageux que celui qui résulterait de l'emploi simultané des voies ferrées & navigables et réciproquement. Ces tarifs sont arbitraires, ils bouleversent les distances, les conditions géographiques et les rapports naturels entre les régions. Telle Cie qui avait de tout temps résisté à des abaissements de tarifs, parce qu'elle était la seule à disposer du commerce d'un pays se sert de mille stratagèmes pour ruiner sans délai le trafic des bateaux dès qu'ils voguent sur la voie rivale. C'est là de détestables méthodes1066. Il avait été question d'alimenter le trafic du port d'Ivry entre voies ferrée et d'eau par des céréales en provenance de la Beauce, du Berry, de la Sarthe, de la Mayenne et à destination du Nord et de l'Est. L'emploi des deux modes de transport paraissait économique, mais c'était sans compter l'entente entre les compagnies d'Orléans, de Ceinture et du Nord pour fixer un tarif commun afin de rendre non rentable l'utilisation de la gare d'eau : « mais la gare d'eau n'était pas encore terminée que déjà les Compagnies d'Orléans, de Ceinture & du Nord combinaient un tarif commun destiné à faire disparaître cette économie et à rendre impraticable l'utilisation de la gare d'eau 1067 . » Pourtant, la Compagnie d'Orléans ne semblait a priori n'avoir aucun intérêt réel à réduire son trafic puisque les grains parvenaient à l'extrémité de son réseau. Si elle y consentait, c'était par condescendance envers les autres compagnies afin d'obtenir des faveurs, notamment pour les charbons : « La Compagnie d'Orléans n'avait pas d'intérêt à réduire son tarif puisque des grains arrivaient jusqu'à l'extrémité de son réseau. Elle fait néanmoins pour condescendre aux autres compagnies et obtenir d'elles la réciproque en cas de besoin 1068 .» Le concessionnaire du port, Arthur Mourer, avait affirmé à la chambre consulaire avoir conversé avec un des principaux chefs de la Compagnie d'Orléans en vue de déterminer les mesures susceptibles de favoriser le trafic de la voie d'eau. Celui-ci lui révéla officieusement que sa compagnie ne pouvait favoriser les transports effectués partiellement par la voie d'eau du fait de ses engagements vis-à-vis des autres compagnies. Afin de ne pas faire venir par bateaux une partie des charbons nécessaires à sa consommation et qui transitaient par son raccordement à Charenton, le PLM payait 3 francs de plus par tonne que le prix proposé par une compagnie de navigation 1069 ! Cette attitude 1066 Ibid. Ibid. 1068 Ibid. 1069 La Compagnie Française de Navigation Fluviale et Maritime. 1067 318 paraissait compromettre les perspectives de trafic du port ou du moins toute évolution de quelque importance, la gare d'eau d'Ivry devant se contenter de trafics secondaires : Ces gracieusetés coûtent cher à tous. C'est donc un parti pris par les C ies de chemins de fer, dont la gare d'eau d'Ivry, comme toutes les autres d'ailleurs auront à souffrir tant que l'État permettra une concurrence aussi préjudiciable à tous les points de vue, et il est à craindre que les transports d'une certaine importance ne soient détournés pour cette raison ; néanmoins on peut espérer en retenir quelques-uns d'une importance secondaire, surtout lorsque le tarif de raccordement sera réduit1070 comme il est question de le faire1071. Les tentatives auprès des usines situées sur le réseau de la compagnie d'Orléans démontraient que ce tarif semblait trop haut dans certains cas. Un autre obstacle résidait dans la réticence d'acheminer des bateaux pour des quantités inférieures à 100 t. S'il était possible de les convaincre pour une quantité de 50 t, au-dessous, les compagnies de navigation réclamaient que les marchandises fussent amenées à leur port d'attache dans Paris, estimant que les frais de remonte de leurs bateaux jusqu'à Ivry leur retirait tout profit. De nouveaux problèmes se posaient du fait que les 100 t n'étaient pas amenés ou emportés par les wagons au moment même où les bateaux étaient là, problème fort épineux lorsqu'il s'agissait des vapeurs et où le temps était précieux. Et de nouvelles difficultés surgissaient du fait de la mise à quai ou sous hangar : on ne pouvait laisser, surtout la nuit, une marchandise de quelque valeur, la mise en hangar grevait la marchandise d'un droit minimum de stationnement de 0,50 francs par tonne prévu pour une durée de douze jours « alors que quelques journées suffiraient. J'ai proposé sans succès à la chambre de commerce de diviser les périodes de 3 en 3 jours, à raison de 0,15 par période1072. » Le tarif devenait prohibitif dans la mesure où il s'avérait impossible de faire coïncider l'arrivée des wagons des wagons avec les bateaux. Les tarifs spéciaux et communs leur laissaient une marge de manoeuvre très confortable. Pourvu que le transport de marchandises fût accompli dans le délai maximum fixé par la concession, les chemins de fer pouvaient attendre jusqu'au dernier moment pour fournir les wagons. En admettant qu'un transport fût réalisé dans un délai de quinze jours, si le chemin de fer n'avait besoin que de deux jours pour conduire la marchandise à destination, il restait un délai d'un à treize jours pour fournir les wagons, c'est-à-dire un délai d'attente relativement important pour le port. Malgré tout, M. Mourer admettait que le chef de gare d'Ivry-Chevaleret « apportait beaucoup de complaisance dans ses rapports avec la gare d'eau et que la fourniture des wagons demandés se fait ordinairement dans un délai 1070 Le tarif devait passer de 0,55 francs à 0,39 francs. Ibid. 1072 Ibid. 1071 319 raisonnable1073 », c'est-à-dire du jour au lendemain. Malheureusement, le chef de gare n'avait pas toujours à sa disposition les wagons nécessaires, si bien que la mise à quai ou sous hangar s'imposait. La nécessité de ne pas rendre celle-ci impossible par une perception obligeait à tenir les marchandises à la disposition des wagons. Quel que fût le moment où ils étaient fournis, ces derniers devaient être restitués le jour même, avant 18 h, s'ils avaient été réunis le matin avant 10 h. Tout le trafic sur wagon se destinait à la Compagnie d'Orléans, tenue d'opérer le déchargement des briquettes lui étant dévolues1074. La progression décevante de l'activité du port d'Ivry souleva certaines interrogations. Divers transporteurs fluviaux, la Compagnie Générale de Navigation H.P.L.M. et la Chambre Syndicale de la Marine, exprimèrent leur point de vue à la chambre de commerce de Paris expliquant cette situation. Ils incriminaient essentiellement la cherté des tarifs de manutention du port. M. Jossier, administrateur délégué de la Compagnie Générale de Navigation H.P.L.M., 1075 , adressa une lettre, le 4 décembre 1901, au président de la chambre de commerce de Paris où il exposa les raisons de l'échec du port d'Ivry, selon lui. Tout d'abord, il reconnaissait l'importance des ports de raccordement : « Le développement économique de nos voisins1076 qui ont su tirer en même temps de leur réseau ferré et de leur réseau navigable en multipliant les gares d'eau sur tout le parcours des fleuves, rivières ou canaux prouve surabondamment la nécessité absolue de doter la France de gares d'eau1077. » Par ailleurs, les intentions de la chambre consulaire n'étaient pas mises en cause de manière fondamentale : « Elle a voulu consacrer par cette création l'intérêt qu'elle porte au développement des voies fluviales et c'est assurément par des points de jonction fréquents que l'on arrivera à diminuer le coût des transports1078. » En dépit de cela, les conditions d'exploitation ne paraissaient pas répondre pas à ce que la batellerie, à savoir d'une part en raison du coût exagéré des manutentions et d'autre part, de la taxe élevée du raccordement de la gare d'Ivry Chevaleret au quai. Les tarifs semblaient ainsi prohibitifs pour les acteurs de la profession, et cela, dès le départ : 1073 Ibid. Le commentateur n'était là encore pas du même avis déclarant que la compagnie fournissait toujours plus de wagons qu'il n'en fallait. 1075 Compagnie Lyonnaise & Compagnie Havre-Paris-Lyon réunies, société anonyme au capital de 16,4 millions de francs, dont le siège social était fixé alors à Lyon. Il s'agit bien entendu d'une des plus importantes sociétés de transport fluvial. Consulter Bernard Le Sueur, La « Grande batellerie » : 150 ans d'histoire de la Compagnie générale de la navigation, XIXe-XXe siècles, coédition : La Mirandole-Pascale Dondey, éditeur, Ville de Conflans-Sainte-Honorine, Musée de la Batellerie, 1995, 163p. 1074 1076 L'Allemagne et la Belgique. ACCIP IV-4.61 (33), Lettre de M. Jossier, administrateur-délégué de la Compagnie générale de Navigation H.P.L.M., le 4 décembre 1901. 1078 Ibid. 1077 320 Dès que ces tarifs furent publiés, nous vîmes qu'il n'y avait pas lieu de modifier notre ancienne façon d'opérer, que nous devions continuer à faire camionner nos marchandises de la gare d'Orléans-Ivry à nos quais d'embarquement. Nos confrères ont dû faire de même, car les frais d'envoi d'un bateau à Ivry, l'attente, les frais d'embarquement et de raccordement coûtent plus cher que le camionnage1079. L'administrateur de la Compagnie Générale de Navigation H.P.L.M. citait le cas d'un transit effectué le 18 octobre 1901, de plombs en saumons par Paris, par expéditions de 50 à 100 t. Sa société demanda à M. Mourer, le concessionnaire, le prix qu'elle avait à payer par le port d'Ivry. Celui-ci lui communiqua ses tarifs 1080 : 1,75 franc par tonne pour la prise sur wagon et l'embarquement en bateau, plus 0,55 francs pour les frais d'embranchement de la gare d'Ivry Chevaleret à la gare d'eau, soit 2,30 francs au total. S'ajoutaient à ces 2,30 francs le remorquage et le pilotage d'un bateau du quai de la Compagnie de Paris-Louviers à Ivry ainsi que le stationnement à Ivry en attendant les wagons ou lors de chargements. Tous ces frais étaient évalués à un franc pour 50 t et à 0,60 francs pour 100 t. On aboutissait à un coût total de 3,30 francs par tonne pour 50 t et de 2,90 francs par tonne pour 100 t. M. Jossier estimait le prix du camionnage de la gare d'Orléans-Ivry au port Louviers 1081 et les frais d'embarquement comme « notablement inférieurs () Il est bien regrettable que, par suite de tarifs prohibitifs, la création de la Chambre de Commerce ne puisse pas être utilisée. La batellerie, si intéressée cependant à tout ce qui peut contribuer à augmenter ses moyens d'action, ne peut, malgré son désir, songer à l'utiliser1082.» Le président de la Chambre Syndicale de la Marine, M. Bovet, formula des critiques similaires, incriminant encore l'excès des prix Depuis le début de l'exploitation, ou à peu près, nous avons entendu nombre de plaintes sur l'excès de ces prix. Si nous avons entendu jusqu'à présent, c'est que nous voulions laisser s'écouler jusqu'à présent un temps assez long pour une expérience et voir venons dire les modifications nécessaires. Comme elles ne se produisent pas, nous croyons voir, sans plus attendre, nous faire l'écho de ces plaintes 1083. Les plaintes relevées par la Chambre Syndicale de la Marine portaient en premier lieu sur les tarifs abusifs de l'embranchement de la Compagnie d'Orléans, s'élevant à 0,40 franc par tonne, pour quelques centaines de mètres de parcours. M. Bovet reconnaissait le caractère particulier du régime de ces embranchements. Les prix de manutention ne compensaient ainsi pas les tarifs de ces derniers : 1079 Ibid. ACCIP IV-4.61 (33), Lettre du 14 octobre 1901. 1081 En amont de l'île Saint-Louis 1082 Id. 1083 ACCIP IV-4.61 (33), Lettre de M. Bovet, Président de la Chambre Syndicale de la Marine à M. le Président de la Chambre de Commerce de Paris, 16 décembre 1901. 1080 321 Mais précisément parce que la Compagnie restait maîtresse, en quelque sorte, de ce tarif, il eût été nécessaire que les manutentions du port dussent procurer quelques compensations. Or ce n'est pas ce qui a eu lieu. Au contraire, les prix de manutention du port d'Ivry sont plus chers que ceux des ports de Paris 1084. Par exemple, le prix du bois de bûches, transbordé du wagon sur bateau s'élevait à 1,25 francs à Ivry contre 0,80 francs à Paris. À Ivry, la manutention de vin en fûts de 600 litres s'accomplissait à 0,80 franc les 1 000 litres contre 0,50 franc au port Saint-Bernard1085, port réputé difficile selon M BovetLes tarifs paraissaient d'autant plus prohibitifs que le port était public et n'avait pas à proprement parler de vocation lucrative : Nous ne multiplierons pas ces exemples. Ils apparaissent suffisamment probants. L'écart existant entre les prix appliqués à Ivry & ceux pratiqués ailleurs paraît d'autant moins fondé que le port a été fait de deniers collectifs & ne constitue pas une affaire purement commerciale. Quoiqu'il en soit, en ces conditions, nombre de marchandises employant la voie d'eau vont se faire manutentionner ailleurs, au détriment du port d'Ivry 1086. Les remarques du milieu batelier dissimulaient mal l'anarchie relative régnant sur les ports parisiens, où les entrepreneurs avaient la possibilité de manutentionner, d'entreposer pour presque rien Cela causait des conflits entre les riverains, alors que les autorités désiraient remédier à cette situation, à savoir faire place nette sur les rives de la Seine dans la traversée de Paris Ces observations firent l'objet de discussions à la chambre de commerce. Le fait que ce port était public questionnait : devait-il concurrencer ses voisins au point de les ruiner ? La Chambre étant composée d'entrepreneurs, et financée par d'autres, la question semblait des plus délicates. Lors de la séance du 18 décembre 1901, les paroles de M. Sciama fournissaient un éclairage intéressant. La chambre de commerce n'avait pas pour but de produire des bénéfices, mais simplement favoriser le commerce. Or, favoriser le commerce, cela signifiait proposer un outillage performant et attractif pour les usagers La chambre de commerce ne paraissait pas avoir résolu ce dilemme ou l'avoir résolu en pratiquant des tarifs suffisamment élevés pour ne pas concurrencer les activités voisines ?1087 Un cas de conscience identique se posa lors de la prise en main de l'exploitation du port. Celui-ci rencontra des difficultés à s'imposer sur le marché, ce qui amena à des résultats plutôt limités, tout au moins au début. Le plus grave résidait dans la faiblesse des recettes qui compromettait le remboursement des emprunts contractés pour l'outillage et les infrastructures du port. L'idée d'une renonciation du traité passé avec Arthur Mourer avait germé dès la fin 1902, car elle constituait sans doute la seule riposte pour parer aux 1084 Ibid. Paris intramuros. 1086 Ibid. 1087 ACCIP IV-4.61 (33), « Gare d'eau d'Ivry. Tarif des manutentions. » Procès-verbal de la séance du 18 décembre 1901, pp.3-4. 1085 322 manoeuvres des compagnies de chemins de fer et de satisfaire aux besoins du commerce et de la batellerie. En effet, des entrepreneurs se plaignirent des tarifs abusifs pratiqués dans le port qui expliquaient, selon eux, la désaffectation des industriels. Plusieurs conférences sur ce thème avec eux se tinrent au mois de décembre 1902. La Compagnie d'Orléans était susceptible de perdre de l'argent au port d'Ivry, en n'y recourant qu'au strict minimum. Toutefois, elle avait passé des accords avec d'autres compagnies pour obtenir, de leur part, des tarifs préférentiels. On peut citer un trafic de briquettes dont le tonnage avait atteint un certain volume. L'opération semblait avantageuse pour la navigation, mais la Compagnie du Nord usa d'une stratégie à celle employée avec le port de Javel1088. Elle s'entendit avec la Compagnie d'Orléans pour participer à la création d'un tarif commun, qui du jour où il entra en vigueur, éradiqua aussitôt les transports par navigation : « La Compagnie du Nord –toujours elle- demanda à la Compagnie d'Orléans de participer à la création d'un tarif commun, et, du jour où ce tarif fur mis en vigueur, les transports de briquettes par la navigation avait vécu. Comme on peut s'en rendre compte, il est très facile de mettre un frein au trafic de la voie navigable1089. » La Compagnie du Nord ne fut pas la seule à adopter une telle stratégie. L'attitude du PLM à l'égard du port de Roanne était ainsi très révélatrice. En termes de trafic, le port de Roanne représentait le premier port de transbordement français avant la guerre 1090 . La chambre de commerce de Roanne avait lutté une trentaine d'années durant pour établir un port : « Les statistiques de la navigation font ressortir que le transbordement des marchandises de wagon à bateau et inversement ne fait qu'augmenter1091.» Face aux efforts de celle-ci, la compagnie PLM se trouva contrainte de consentir aux conditions d'exploitation et de tarification décidées par décision ministérielle en janvier 18971092. La majeure partie du trafic du port de Roanne provenait des transports des eaux minérales qui trouvaient avantage à venir se transborder au port de Roanne pour se rendre ensuite à leur centre majeur de distribution, c'est-à-dire Paris. Or, la tarification imposée par le réseau PLM paraissait excessive. Les bouteilles vides en retour étaient remises aux bateaux, à Paris, pour y être 1088 Trois ports de raccordement existaient seulement sur le réseau du Nord : Pont-à-Vendin, Don et PortVauban. 1089 Jean Barême, op. cit. 1090 Avec le rattachement de l'Alsace, ce seront les ports rhénans, notamment, bien entendu, le port de Strasbourg. Voir : M. Mazoyer, « Les gares de raccordement entre les chemins de fer et les voies navigables sur les canaux de Roanne à Digoin, latéral à la Loire et du Nivernais », in Annales des Ponts et Chaussées, 1903, pp.309 et suivantes. 1091 Jean Barême, op. cit. 1092 Michèle Merger, « La concurrence rail-navigation intérieure en France », in Histoire, Économie et Société, 1, 1990, p.80. 323 transbordées sur wagon au port de Roanne. Le trafic formé par les eaux minérales et les bouteilles vides en retour se montait de 250 à 300 000 francs : « La Compagnie PLM a pensé que le jeu en valait la chandelle, qu'il lui serait agréable d'enlever ce joli denier à la batellerie1093.» Le PLM proposa des prix fermes, en 1900, dont l'application fut autorisée à titre provisoire, par le ministre des Travaux publics. La voie ferrée accapara alors le marché, malgré les protestations des chambres de commerce de la région lyonnaise, tout particulièrement celle de Roanne : « Il s'agissait en l'espèce, de la mise en vigueur de véritables tarifs de guerre contre la navigation1094.» Le ministre des Travaux publics retira l'autorisation qu'il avait accordée malgré l'avis hostile du Comités consultatif des chemins de fer. Malgré les obstacles, le trafic du port de Roanne progressa fortement. En effet, après avoir connu une certaine stagnation au cours des années 1890 et 1895, autour de 50 000-62 000 t, son trafic s'est élevé à 250 000 t au seuil du XXe siècle, soit un tiers du total des tonnages réalisés entre les chemins de fer et la navigation intérieure1095. Après sept années d'accalmie, le PLM soumit au mois de juin 1907 à l'homologation ministérielle d'une « nouvelle proposition en la forme, mais tendant au fond, au même but que celle de 1900 : retirer à la batellerie le trafic des eaux minérales et des bouteilles vides en retour1096.» Contrairement à ce qui s'était passé en 1900, où les intéressés avaient invoqué l'inégalité de traitement résultant de la mise en vigueur des prises fermes, afin d'obtenir le retrait des prix exceptionnels proposés, le PLM ne recourut pas à des prix fermes, mais proposa la création d'un barème kilométrique à son tarif spécial 1097 . Jusqu'à 300 km, ce nouveau barème présentait une base kilométrique normale, la situation variait selon les distances supérieures, le prix kilométrique chutant alors à 0,01 francs 1098 . Si les eaux minérales bénéficiaient des gares desservant les sources de Paris de prix excessivement faibles, il n'en allait plus de même pour ceux désireux s'embarquer du port de Roanne : « La nouvelle proposition constitue donc (sous couvert d'un barème kilométrique) une série de prix 1093 Jean Barême, ibid. Ibid. 1095 Michèle Merger, « La concurrence rail-navigation intérieure en France », in Histoire, Économie et Société, 1, 1990, p.80. 1096 Jean Barême, op. cit. 1097 Le comportement du PLM suscita l'indignation d'intérêts industriels et des défenseurs du raccordement, dans la mesure où les ports de Givors, Lyon-Perrache et la gare d'eau de Lyon-Vaise ne disposaient pas suffisamment de grues et d'appareils de transbordement. Ces agissements s'inscrivaient dans une stratégie consistant à empêcher toute dotation de ces ports de raccordement de matériels susceptibles de satisfaire aux besoins du commerce et de l'industrie. 1098 Ibid. 1094 324 exceptionnels des gares desservant les sources de Paris 1099 .» En d'autres termes, cela signifiait la mort du port de Roanne. La politique des compagnies de chemins de fer à l'égard de la voie d'eau était ainsi qualifiée par un des promoteurs du raccordement : « Les Compagnies de chemins de fer montrent, en l'espèce, de quel esprit elles sont animées envers la batellerie, c'est l'ennemi et tous les moyens paraissent bons pour la combattre1100». 2. Entraves à l'exploitation. a) Ambiguïté du statut des ports de raccordement. Une des faiblesses des ports de raccordement résidait dans le flou caractérisant leur statut juridique. En effet, il fallait distinguer les gares d'eau et les ports de raccordement qui ne correspondaient pas à des réalités juridiques tout à fait identiques. Les gares d'eau relevaient de l'organisation du chemin de fer et dépendaient de ce fait du domaine public de ce dernier. Les ports de raccordement appartenaient, quant à eux, au domaine public fluvial, la voie ferrée y accédait comme à un quai maritime. Celui-ci pouvait donc être exploité par l'État, une municipalité, être concédé à une chambre de commerce comme ce fut le cas du port d'Ivry, ou encore à une société privée. Or, sur ce port, l'exploitation des embranchements n'avait pas été des plus satisfaisantes. De ce fait, la gare d'eau ne pouvait fonctionner sans le concours direct de la compagnie de chemin de fer1101. Ces difficultés n'étaient pas nouvelles, un précédent fâcheux illustrait les problématiques concernant la mise en place des raccordements entre les deux modes de transport. La gare d'eau de Perrache communiquant avec la Saône avait été organisée pour devenir une gare de transbordement entre la navigation et le chemin de fer. La concession fut rachetée par la Compagnie PLM1102 qui fit en sorte de la rendre totalement inutilisable en lui appliquant de manière arbitraire les règlements de la gare ferroviaire de Perrache qui fermaient cette gare aux marchandises en provenance ou à destination des lignes de Grenoble et de Genève. La chambre de commerce de Lyon avait émis une délibération le 24 mars 1898 pour remédier à cette solution. Devant la passivité des pouvoirs publics, la chambre consulaire lyonnaise jugea préférable de négocier avec le PLM, car elle ne souhaitait pas attaquer de manière frontale la compagnie de chemin de fer. C'est pourquoi elle envisagea le transfert de port de transbordement vers un autre site fluvial et de 1099 Ibid. Ibid. 1101 ACCIP IV-4.40 (3), Chambre de commerce de Paris, « Raccordement des voies de fer avec les voies d'eau », rapport présenté, au nom de la Commission des Voies et Moyens de communication, par M. Mallet, déposé le 23 novembre 1908 et dont les conclusions ont été adoptées par la Chambre de Commerce le 25 novembre 1908, p.1. 1102 Accordée aux frères Seguin en 1827. 1100 325 réemployer les terrains pour l'établissement de magasins généraux1103. L'idée consistait donc à transférer un port de transbordement relevant du domaine public de la compagnie de chemin de fer concernée vers un port fluvial dépendant du domaine public fluvial. En théorie, un port de raccordement pouvait fonctionner sans que le chemin de fer n'intervînt réellement, mais malheureusement, dans la pratique, son concours s'avérait indispensable pour la fourniture des wagons. Le concessionnaire d'un port de raccordement avait besoin du nombre de wagons nécessaire permettant de recevoir l'ensemble des marchandises vouées à circuler sur les voies de chemins de fer. Les compagnies de chemins de fer se montrant excessivement réticentes à favoriser les gares d'eau et les ports de raccordement, la chambre de commerce de Paris avait à deux reprises, en 1905 et 1907, avec le soutien de celle de Lyon, exhorté les pouvoirs publics à négocier avec celles-ci en vue de renforcer leur concours, notamment par le biais de la fourniture de wagons, question qui apparaissait stratégique1104. Sur le port d'Ivry, les manoeuvres des wagons s'accomplissaient en désordre, ce qui compromettait l'efficacité de son exploitation, voire son avenir. Dans un rapport faisant état des conditions des manoeuvres sur les voies du port des wagons en provenance ou destinés des/aux embranchements, M. Mourer dressa un tableau encore plus sévère sur les inconvénients qui en résultaient. D'après lui, la Compagnie d'Orléans ne respectait aucune des contraintes imposées par l'ordonnance de police concernant les voies ferrées du port d'Ivry. Les délais fixés pour les manoeuvres étaient le plus souvent dépassées, les heures indiquées n'étaient pas non plus observées de manière scrupuleuse De telle sorte que des wagons étaient laissés en permanence sur la voie publique. Si les problèmes ne concernaient pas la chambre de commerce de Paris, il n'en existait pas moins des dysfonctionnements flagrants. Les voies du port n'étaient pas exclusivement réservées aux wagons destinés ou provenant de la voie d'eau, mais se trouvaient quotidiennement envahies par la compagnie de chemin de fer qui opérait sur ces voies le triage des wagons en direction ou venant des usines, « apportant ainsi, deux fois par jour, le plus grand trouble dans les opérations d'embarquement et de débarquement effectuées à la Gare d'eau 1105 .» Les manutentions étaient rendues impraticables durant près de trois heures le soir de 1 h à 2h30, le matin de 7 à 1103 ACCIP IV-4.40 (3), Chambre de commerce de Lyon, « Raccordement entre les voies ferrées et les voies d'eau », rapport de M. J. Coignet, vice-président, séance du 25 Juillet 1901, pp.12-14. 1104 Bulletin de la Chambre de Commerce de Paris, 1905, p.66 ; 1907, p.96. 1105 ACCIP IV-4.61 (34), Gare d'eau d'Ivry. Manoeuvre sur les Voies du Port des Wagons en provenance ou à destination des Embranchements particuliers. Inconvénients qui en résultent par M. Mourer, Délégué de la Chambre de Commerce pour l'exploitation de l'outillage du port, 4 octobre 1902. 326 8h30. La voie ferrée expédiait en même temps depuis sa gare du Chevaleret, les wagons destinés à la gare d'eau et aux établissements industriels reliés au raccordement par des embranchements particuliers. Il en résultait que des manoeuvres longues et complexes immobilisaient les voies ferrées du port et interrompaient le travail en raison du refoulement des wagons situés sur les voies à l'extrémité du quai. Ceux-ci ne se trouvaient plus ni à portée des grues, ni en face des bateaux contenant les marchandises qu'ils devaient recevoir ou déposer : les ouvriers, les chevaux et les voitures, les grues etc. restaient inoccupées pendant trois heures environ chaque jour. Ces arrêts découragent les ouvriers qui vont chez les marchands de vins des environs, d'où ils sortent souvent dans un état d'ébriété, qui va en s'accentuant, ce qui est d'autant plus regrettable que les travaux d'embranchement et de débarquement sont toujours difficiles et dangereux1106. Il en découlait des pertes d'argent et de temps appréciables et une démotivation du personnel. Le délai fixé pour la restitution des wagons au chemin de fer se trouvait abaissé par les heures pendant lesquelles il n'avait pas été possible de travailler, alourdissant davantage les pénalités déjà très sévères prévues en cas de retard dans la restitution des wagons. Cette situation s'aggravait encore l'hiver : les journées étant déjà brèves durant cette saison, les heures de travail effectives se retrouvaient ainsi réduites à la portion congrue. Le port n'offrait une longueur utile de seulement 120 m, il ne pouvait de ce fait accueillir que trois bateaux à la fois. Dans ces conditions, le déchargement ou le chargement exigeait fréquemment la présence de wagons sur les trois voies. b) Désordres des opérations de triage. Ces agissements représentaient une réelle menace pour le développement du port, et ce d'autant plus que le mouvement des marchandises transitant de la voie d'eau à la voie ferrée, et réciproquement s'intensifiait. M. Mourer dénonça sévèrement les troubles provoqués par les opérations de la Compagnie PO. Le Service de la Navigation lui-même protestait contre cette manière d'agir : Il faut donc, non seulement supprimer les entraves qui existent actuellement, mais s'opposer énergiquement en laissant de nombreux intérêts. Le Service de la Navigation, témoin du trouble que la manière d'agir de la compagnie d'Orléans occasionne journellement et des retards qui en résultent pour les bateaux, lui a fait des représentations qui n'ont, jusqu'à ce jour, produit aucun effet. 1106 Ibid. 327 La Cie d'Orléans cherche au contraire, paraît-il, à obtenir du Gouvernement l'autorisation de pratiquer comme elle le fait, et même d'augmenter le nombre de ses convois. Le Service de la Navigation à ce sujet a protesté énergiquement. Quant à la Chambre de Commerce, je permettrai de lui dire, qu'à mon humble avis, elle doit protester plus énergiquement encore, sous peine de voir paralyser le développement des affaires qu'elle a voulu, au contraire, favoriser en créant la Gare d'Eau d'Ivry et en reliant les voies ferrées aux voies navigables. Que la Cie d'Orléans effectue le triage des wagons dans sa gare d'Ivry-Chevaleret ou dans les usines auxquelles ils sont destinés, mais qu'il lui soit interdit d'employer les voies du port pour faire des manoeuvres de wagons qui n'ont rien à faire dans la gare d'eau1107. Comme on a pu le voir auparavant, les voies du port se trouvaient continuellement ainsi envahies à des heures non réglementaires par la compagnie de chemin de fer opérant sur ces voies le triage des wagons à destination ou en provenance des usines environnantes, troublant ainsi les opérations d'embarquement et de débarquement dans la gare d'eau. Il en résultait des pertes significatives de temps et d'argent, bloquant chaque jour, ouvriers, chevaux, voitures et grues pendant plusieurs heures. La Compagnie d'Orléans semblait pourtant consciente de ne pas se conformer les prescriptions de l'ordonnance de police : mais elle affirme que le développement du trafic et l'augmentation du nombre d'embranchements particuliers l'empêchent d'une façon absolue de tenir ses engagements ; elle ajoute que ce développement ne peut qu'aggraver la situation, à cause de la grande irrégularité des arrivages et des expéditions, il faut en outre, reconnaître que [] on ne peut ni limiter le nombre des embranchements particuliers ni s'opposer à leur installation1108. Les dispositions adoptées dans l'exécution des projets, au moment de la construction de la ligne n'autorisaient qu'un triage limité des wagons et ne visaient pas à les transformer en terminus pour parer tout encombrement et ralentir la manutention des wagons destinés ou issus de la voie d'eau : Cette organisation est fort préjudiciable à nos commettants : elle paralyse le développement des affaires et nous empêche d'atteindre le but que nous nous sommes proposés en créant le « port d'Ivry » : relier la voie ferrée à la voie navigable1109. La question du financement de l'extension des embranchements du port d'Ivry constituait en quelque sorte la quadrature du cercle. En effet, elle manifestait les embarras inhérents aux aménagements portuaires de l'agglomération parisienne, car il semblait difficile de définir les tâches, à une époque où il n'existait aucune administration propre au « port de Paris » 1110 . Le traitement des dossiers mobilisait un temps considérable, ces pesanteurs pouvaient toutefois profiter à ceux qui n'avaient guère intérêt à ce qu'ils aboutissent, à l'instar 1107 Ibid. Ibid. 1109 Ibid. 1110 L'Office National de la Navigation ne fut créé qu'en 1912. Son rôle allait se révéler assez secondaire dans la région parisienne. 1108 328 des entrepreneurs sur les berges dans la traversée de Paris 1111 . La compagnie ferroviaire avançait l'argument de la nécessité de nouveaux agencements pour garantir le développement du trafic. Par là-même, elle justifiait le fait qu'il revenait à la chambre de commerce de prendre à sa charge les dépenses à effectuer dans la création de l'embranchement. La situation se complexifiait dans la mesure où la compagnie PO ne paraissait pas faire mine de modifier sa position. Dans un contexte libéral, et par désir de ménager les intérêts ferroviaires, l'État, quant à lui, n'aurait certainement fourni aucun concours et « de notre côté [la chambre de commerce], nous ne désirons pas apporter notre concours en « capital »1112.» La chambre consulaire conçut une combinaison susceptible de satisfaire les deux partis. Les chambres syndicales, dont les industries employaient journellement la gare d'eau d'Ivry, rejetèrent la proposition d'un nouvel horaire de la compagnie PO et réclamèrent une réduction du péage imposé : une modification des prix du transport, combinée à l'abaissement du prix des manutentions, consenti en mars 1902, était censée favoriser un emploi plus fréquent de la gare d'eau. Le montant de ce transport s'élevait à 55 centimes par tonne, divisé en deux parties, l'une de 40 centimes, due à la Compagnie d'Orléans pour ses frais de traction, l'autre de 15 centimes, dévolue à la chambre consulaire, en rémunération des frais de construction de l'embranchement. La chambre de commerce s'efforça d'imaginer comment aménager les voies nécessaires et satisfaire aux sollicitations formulées depuis longtemps par les chambres syndicales, dont certaines industries étaient des usagers quotidiens de la gare d'eau1113. Ces chambres syndicales avaient protesté avec énergie contre le nouvel horaire exigé par la Compagnie Paris-Orléans. En compensation, elles réclamèrent d'abaisser le péage : une modification du prix du transport, qui avec l'abaissement de celui des manutentions qui leur avait été consenti devait les inciter à un usage plus fréquent de la voie d'eau : « Or, ce prix de 55 centimes est beaucoup trop élevé puisqu'il s'agit d'un faible parcours, qu'il ne comprend pas les frais de gare et qu'en général il s'applique à des matières pondéreuses, comme celles qui empruntent la voie d'eau1114.» 1111 Cette question sera traitée plus en détail dans le chapitre suivant. Ibid. 1113 La Chambre Syndicale de la Marine, Chambre des Marchands de Charbons de terre, Chambre des bois à brûler, la Communauté générale des Marchands de bois à OEuvrer, enfin l'entrepreneur délégué de la Chambre de Commerce à l'Exploitation de la gare d'eau d'Ivry. Voir ACCIP IV-4.61 (34), Note pour le Président de la Commission N°2 sur les négociations engagées avec la Compagnie d'Ivry-Chevaleret à la Gare d'eau d'Ivry, par M. Sciama, le 20 janvier 1903. 1114 Rapport Pozzy op. cit. 1112 329 La Compagnie d'Orléans semblait ainsi ne s'aligner à aucune de ces prescriptions. Le cadre juridique aurait pu pourtant la contraindre depuis une loi promulguée en 1898. En effet, l'État pouvait les obliger à exécuter les raccordements. Cependant, l'établissement consulaire parisien préféra ne pas s'aliéner la compagnie ferroviaire, ne serait-ce que pour ne pas perdre les dernières chances de promouvoir la question du raccordement en général, et son propre raccordement en particulier. En outre, de plus de façon plus globale, la chambre de commerce de Paris n'était pas exclusivement focalisée sur les intérêts de la batellerie, mais se préoccupait de ceux du commerce et de l'industrie de la capitale. Cette double perspective expliquait sans doute en partie ses réserves quant aux projets de loi de modernisation des voies navigables qu'elle jugeait parfois trop « dirigistes », se montrant hostile notamment à la doctrine dite de « l'obligation »1115. Si les consuls s'étaient prononcés à plusieurs reprises en faveur de la création de gares mixtes notamment en 1901 et 1905 1116, ils s'étaient montrés bien plus prudents quant à la proposition de mesures législatives concrètes dans les différents rapports portant sur cette question dans les années 1907 et 1908, c'est-à-dire au moment où s'élaborait la loi Barthou1117. Le ministre des Travaux, Louis Barthou, avait souhaité relancer la politique fluviale initiée par Pierre Baudin, mais que ses prédécesseurs n'avaient pas été en mesure, ou n'avaient pas désiré, selon les cas, poursuivre. Une de ses préoccupations visait à encourager le raccordement. Pour ce faire, il présenta un avant-projet en février 19081118. Sa proposition consistait à étendre à l'ensemble des propriétaires ou concessionnaires de magasins généraux, d'outillages publics ou privés installés dans les ports maritimes ou intérieurs, le droit d'embranchement jusqu'alors réservé aux propriétaires de mines et d'usines conformément aux articles 61 et 62 du cahier des charges des chemins d'intérêts général. Toutefois, ce projet de loi comportait deux clauses additionnelles envisageant la participation des intéressés afin de faire face aux dépenses d'exploitation et l'intervention de l'État. Cette dernière devait consister à fixer les indemnités qui étaient susceptibles d'être réclamées par les compagnies au nom du préjudice causée par cette nouvelle situation. Autrement dit, ces clauses apparaissaient comme des garanties pour les milieux ferroviaires. La loi fut finalement 1115 ACCIP IV-4 .60 (3), Rapport des voies d'eau et des voies ferrées. Réponse à une question posée par M. le sénateur Audiffred. Note présentée au nom de la Commission des Voies et Moyens de communication par M. Mallet. Conclusions adoptées le 30 janvier 1907, pp.3-4. 1116 Il s'agissait d'un rapport adopté et converti en délibération le 22 mai 101 et d'un autre soumis le 25 janvier 1905. Voir Bulletin de la Chambre de Commerce de Paris du 25 mai 1901, p.560 et celui du 28 janvier 1905, p.66. 1117 Voir rapport cité précédemment et ACCIP IV-4.60 (3), Raccordement des voies de fer avec les voies d'eau. Rapport présenté, au nom de la Commission des Voies et Moyens de communication par M. Mallet et dont les conclusions ont été adoptées par la Chambre de Commerce le 25 novembre 1908. 1118 Journal Officiel, Documents parlementaires. Chambre des Députés : rapport de Louis Barthou sur le projet de loi de raccordement des voies ferrées aux voies d'eau, séance du 6 février 1908. 330 adoptée le 3 décembre 19081119, mais sa version finale apparaissait bien peu ambitieuse pour les partisans du raccordement. D'ailleurs, elle ne fut guère suivie d'effet, ce qui prouve l'efficacité des stratégies ferristes. Si la proposition avait présenté au moins le mérite de ménager les susceptibilités des compagnies ferroviaires, et pour cause et à la grande satisfaction de certaines chambres de commerce plutôt partisanes d'une solution par la négociation de l'États avec les compagnies que par la voie législative 1120 , force était de constater la minceur des résultats obtenus dans la mesure où seulement deux ports de raccordement ont été créés à la faveur de cette loi jusqu'à la veille du premier conflit mondial ! Il s'agissait des ports de Givet et de Pagny-sur-Meuse. Le bilan était donc bien maigre, et la stratégie d'« endiguement » était manifeste1121 Le port d'Ivry devait constituer une première initiative favorisant le soudage entre deux modes de transport, la voie d'eau et la voie ferrée ayant entretenu des relations jusque-là essentiellement hostiles. Cet antagonisme n'avait donc pas cessé de s'aggraver jusqu'au moment même où l'on songea à une possible réconciliation - le port d'Ivry en étant le symbole - qui, on peut le dire, ne s'est jamais vraiment produite. Là encore, le port d'Ivry était emblématique de cette évolution, ou oserait-on dire, de cette non évolution. II. UNE CONCESSION PRIVÉE DANS L'IMPASSE. A. Traité avec l'entrepreneur : un marché de dupe ? (1902-1903). 1. Une conjoncture moins favorable. L'embellie du trafic du port de Paris à la fin du XIX e siècle connut un infléchissement brutal surtout entre les années 1900 et 1903, avec un creux en 1901, soit un recul de 15% entre les années 1899 et 19011122. D'ailleurs, ce repli touchait l' Sur la 4e section de la Seine, qui correspondait au trafic amont de Paris, le recul avait été encore plus marqué, à savoir 18%. Ce recul conjoncturel s'expliquait par la fin des travaux liés à l'Exposition Universelle et plus particulièrement du métropolitain. En effet, outre les matériaux nécessaires aux constructions liées à cet événement, des volumes conséquents de déblais ont été évacués par la voie d'eau. Les expéditions furent d'ailleurs les principales affectées avec un recul de 36% 1119 Journal Officiel du 5 décembre 1908, Lois et décrets : Loi du 3 décembre 1908. ACCIP IV-4.60 (3), Raccordement des voies de fer avec les voies d'eau, op. cit., pp.5-6. 1121 M. Papelier, « Utilisation de la loi de 1908 ; raccordement des voies navigables et des voies ferrées », rapport présenté au 4e congrès des Travaux publics », Paris, 1912, p.3. 1122 Ministère des Travaux publics, Statistiques de la navigation intérieure, années 1899-1903. Pour une vue plus détaillée du trafic durant cette période, consulter le chapitre VI. 1120 331 pour le trafic du port de Paris. La conjoncture fluviale ne paraissait donc guère favorable au début du siècle et n'incitait guère à se lancer dans des investissements trop lourds en matière d'infrastructures. Dans ces conditions, l'intérêt de la chambre de commerce de Paris concernant le développement de l'outillage parisien doit donc être nuancé par les faits. En effet, les changements de personnalité au sein de la chambre consulaire semblent l'avoir orientée vers davantage de réserves à l'égard de la voie d'eau1123. Ses membres se montrèrent ainsi moins enthousiastes à l'idée de Paris port de mer, et cela dès 1902 1124, en ne soutenant pas le dernier projet présenté par Bouquet de la Grye. Leur raisonnement était qu'il valait mieux encourager le cabotage fluviomaritime qui n'exigeait pas de conditions de navigation foncièrement différentes de celles de la grande batellerie. Il s'agissait d'un aveu de désengagement sur ces questions, même si un trafic maritime s'était effectivement et spontanément développé, sans qu'aucune politique idoine n'ait encouragé ce type de trafic D'où l'interrogation sur l'inutilité ou non de toute intervention étatique ou au contraire, si une politique quelconque favorisant ce type de cabotage très spécifique n'aurait pas favorisé un essor plus considérable ? Le même constat pourrait être formulé pour ce qui était du raccordement. Ce « revirement » ne se révéla pas sans conséquence, l'équipe ayant mis sur pied le port d'Ivry fut renouvelée. Or, les nouveaux membres ne partageaient pas forcément le même enthousiasme que leurs prédécesseurs La voie d'eau paraissait être passée au second plan aux yeux des consuls, comme en témoignait indirectement une intervention de M. Bain : « il y a des Commissions pour nos Écoles qui sont des institutions qui intéressent le plus particulièrement la Chambre. La gare d'eau d'Ivry est tout aussi intéressante que les autres questions et le Bureau demande une étude spéciale1125.» Si M. Bain insistait sur l'intérêt de la question de la voie d'eau, elle ne revêtait plus une importance aussi forte, son intérêt se portait plus vers l'enseignement. L'attitude de la chambre de commerce, plus prudente à l'égard de la voie d'eau, se confirma avec les avis de M. Lavaud autour des projets du canal du Nord et du 1123 Les archives ne permettent pas d'expliquer ce revirement, mais de le constater. Le chapitre de l'ouvrage collectif sur l'histoire de la chambre de commerce de Paris, rédigé de concert par Christophe Bouneau et Philippe Lacombrade, n'éclaire guère à ce sujet. Les auteurs ne s'intéressent qu'à la création et la réalisation du projet, et non à l'exploitation du port ; riche pourtant d'enseignements. La thèse de Philippe Lacombrade ne fournit guère non plus d'éclaircissements sur ce point précis. On s'en trouve ainsi réduit à émettre des hypothèses. 1124 Voir chapitre précédent. 1125 ACCIP IV-4.61 (33), Procès-verbal de la séance du 24 décembre 1902. 332 canal de dérivation de la Marne, et plus tard encore à l'égard du dernier projet de Bouquet de la Grye1126. 2. Le choix du concessionnaire : un entrepreneur ancré dans le commerce local. La question du type d'exploitation se posa aussitôt, à une époque où les expériences en matière de port public sur les quais de la région parisienne demeuraient rares et jusque-là peu probantes, car non poussées jusqu'au bout. La chambre de commerce de Paris étudia les moyens nécessaires à l'exploitation de sa concession, de conserve avec les ingénieurs des Ponts et Chaussées1127. Il était ressorti qu'elle n'était pas capable de diriger par elle-même l'exploitation de son outillage et que par conséquent, elle devait trouver un entrepreneur. Les perspectives de trafic restaient incertaines et les premières dépenses à prévoir se révélaient particulièrement lourdes. L'idée pour les consuls consistait à limiter les frais d'exploitation dans les frais généraux, pour un certain délai du moins. C'est la raison pour laquelle la Chambre estima préférable de scinder les frais généraux de ceux de l'exploitation, en allouant au concessionnaire une somme fixe annuelle, plus une somme proportionnelle aux marchandises manutentionnées. Cette démarche était censée permettre d'estimer dans le contrat le personnel minimum à affecter pour le futur concessionnaire du port d'Ivry. Le contrat devait être résiliable chaque année, sous la condition d'un préavis de trois mois. La période de bail achevée, le contrat autorisait des modifications, voire de retourner au système de redevance par tonne. Pourquoi ne pas avoir opté pour le système de redevance par tonne immédiatement 1128 ? La difficulté à prévoir l'évolution du trafic expliquait ce choix. Une redevance par tonne appliquée à un faible tonnage pouvait souffrir de frais généraux suffisamment pesants pour risquer de l'alourdir de façon significative1129. Le président, le rapporteur1130 et M. Desprez, ingénieur des Ponts et Chaussées firent un appel restreint à la concurrence entre diverses personnes qu'ils croyaient susceptibles d'assurer le bon fonctionnement de l'outillage du port d'Ivry. Dans cette optique, ils convoquèrent M. Bichoffle, de la société « La Fluviale », M. Paul Lefèbvre, M. Alfred Mourer ainsi que M. Sicat. Seuls les deux derniers firent des offres fermes. M. Mourer sollicitait une somme fixe annuelle de 3 700 francs et l'abandon de 40% de la recette brute. 1126 Lire chapitre précédent. Il faut rappeler que ce M. Lavaud travaillait pour une société de touage, dont il prit par la suite la direction. Il n'avait aucun intérêt à développer un trafic maritime sur la Seine et des améliorations telles que l'approfondissement de la Seine ne pouvaient que l'émouvoir très modérément Pour la simple et bonne raison que les grands chalands réduisaient considérablement l'intérêt des toueurs ! 1127 ACCIP IV-4.61532), Chambre de commerce de Paris. Gare d'eau d'Ivry. Rapport présenté au nom de la Commission des voies et moyens de communication par M Lainey. Déposé le 11 juillet 1899, 5p. 1128 Ibid., p.2. 1129 Ibid. 1130 M. Lainey 333 Les 40% de la recette brute abandonnée à l'exploitant, c'est-à-dire 0,20 francs par tonne ou 28 francs par journée de location, représentait les frais proportionnels au trafic (charbon, huiles, entretien, assurances, etc.). La proposition de M. Sicat consistait au contraire en une annuité de 2 000 francs et un pourcentage des recettes brutes ressortant en moyenne à 56 % de ces taxes. Les propositions de M. Mourer reçurent les faveurs des consuls. Elles offraient de meilleures garanties de par la présence permanente d'un mécanicien et d'un commis. L'entrepreneur semblait expérimenté pour ces entreprises. Le concessionnaire exigeait une annuité plutôt faible, mais un pourcentage supérieur sur les recettes en contrepartie : 56% contre 40%, soit une différence de 16%, tandis que l'autre proposition réclamait une annuité plus forte avec en compensation un prélèvement moindre sur les recettes. L'offre de M. Sicat se révélait plus intéressante pour un faible trafic, alors que celle de M. Mourer devenait plus attractive au-delà d'un trafic que les experts consulaires avaient évalué à 50-60 000 t1131. Le pourcentage des recettes brutes permettait de financer les charges d'emprunt, lorsque le trafic approchait 30000 t par an. M. Sicat pouvait avoir sous-évalué certains frais, car M. Mourer prévoyait quant à lui un personnel permanent. Toutes ces considérations conduisirent la chambre de commerce à préférer la proposition de M. Mourer1132. Le choix des consuls n'était pas sans présenter de risques. S'il était vrai qu'a priori l'offre de M. Mourer paraissait plus alléchante pour un fort trafic, les premières dépenses s'en trouvaient alourdies. Et ce d'autant plus que le trafic ne devait pas forcément atteindre des niveaux exceptionnels dès les premières années, surtout si l'on considérait que le contrat ne revêtait pour la chambre consulaire qu'une vocation provisoire. Le principal défaut de la proposition de M. Mourer résidait dans sa moindre incitation du concessionnaire à un trafic élevé, de par la faiblesse même de l'allocation par tonne sur les marchandises, alors que M. Sicat avait tout intérêt à un trafic élevé. M. Mourer pouvait se contenter d'un trafic plus modeste, puisque disposant de la garantie d'une annuité, somme toute assez confortable, sans trop de risque. Et ce d'autant plus que l'exploitation de ce port ne risquait guère de gêner ses propres activités En somme, il bénéficiait d'une bonne rémunération, tout en contrôlant un concurrent Tel est le problème des concessions d'outillage public à un concessionnaire privé : tout dépend du degré d'intéressement. Loin d'être novice, l'entrepreneur Mourer avait une trentaine d'années auparavant établi un port avec raccordement à Charenton où il exploitait les grues en liaison entre la 1131 1132 Ibid., p.4. Ibid., p.5. 334 Seine et la compagnie des Chemins de fer de Lyon et de Ceinture. Il était secondé par son père Victor, anciennement chargé du service des réclamations du chemin de fer de l'Est 1133 et avait dirigé quinze ans durant, aux Magasins Généraux, le service de son frère des embarquements et débarquement sur les ports de Paris 1134 . Il recevait des marchandises provenant de toute la France, déposées dans le terrain de la zone qu'il louait au Génie à un bail de 19 000 francs1135. M. Mourer était ainsi parfaitement intégré dans le milieu des affaires du Paris amont. On le choisit donc pour son expérience et pour mieux insérer le port d'Ivry dans l'économie locale. L'obtention de cette concession signifiait que l'entrepreneur allait gérer deux parmi les trois raccordements existants dans la traversée de Paris Le choix de la chambre de commerce semblait plutôt logique : M. Mourer disposait d'une certaine expérience de ce type d'opération. Dans le même temps, l'établissement consulaire ne se mettait pas à dos le milieu industriel et commercial environnant. Cette stratégie avait son revers, avec le risque d'une neutralisation de la concurrence locale. S'il s'avère malaisé de déterminer le danger effectif que pouvait représenter le nouveau raccordement d'Ivry1136, le type de concession proposé par M. Mourer impliquait moins d'aléas. Il percevait une indemnité annuelle non négligeable, tout en neutralisant une concurrence éventuelle Le contrat entre l'entrepreneur et la chambre de commerce de Paris fut passé en août 1899. Il stipulait que l'exploitation de la gare d'eau d'Ivry s'effectuait aux frais et risques de M. Mourer, chargé de l'entretien et de toutes les réparations à effectuer aux grues, bascules et accessoires, ainsi que du remplacement des pièces. M. Mourer percevait une somme annuelle de 3 700 francs pour faire face aux frais qu'entraînait l'observance du contrat. Ce dernier l'autorisait à percevoir 0,50 francs par tonne sur les marchandises utilisant les engins de la chambre de commerce1137 . Un fort contraste 1133 Cela dit, d'autres sources le disaient seulement chauffeur dans cette même compagnie ! Auguste Pawlowski, Les ports de Paris, Paris, Berger-Levrault & Cie Éditeurs, 1910, pp. 143-144. 1135 Cet entrepôt à lui seul lui rapportait annuellement 5 000 francs. Son exploitation consistait en deux embranchements s'étirant sur une longueur de 4,454 km. L'embranchement n°1 fut concédé à la compagnie du parc de Bercy le 2 septembre 1864. Mourer en reprit l'exploitation. Il se raccorde à l'embranchement n°2 et lui assurait une liaison avec le fleuve. La vocation de cette ligne visait néanmoins plus particulièrement à la desserte de l'entrepôt des vins et des établissements qui servaient d'annexes. Autorisé par décision ministérielle du 8 décembre 1876, le raccordement n°2 partait de la station de Bercy-ceinture, et desservait la station de BercyCeinture. Il desservait à la fois le quai, où des grues autorisaient le transbordement direct des marchandises de bateau à wagon et inversement, et l'entrepôt découvert du parc de Bercy. En 1907, les deux embranchements représentaient un trafic de 114 214 t, transportées par 11 244 wagons 1135 . Sur le plan commercial, l'embranchement n°1 ne fournissait qu'un trafic de vins et spiritueux, tandis que l'embranchement n°2 véhiculait une plus grande diversité de marchandises1135 : vins, bois, charbons, grains, pommes, marbres 1136 Les embranchements de Charenton étaient principalement tournés vers le commerce du vin, même si comme on l'a vu, l'embranchement n°2 transportait une gamme assez variée de marchandises. 1137 L'entrepreneur avait droit de percevoir sur cette somme 0,20 francs et 0,30 francs revenant à la chambre de commerce. 1134 335 existait entre le contrat et son application. En réalité, la taxe uniforme fixée à 0,50 francs par tonne ne fut jamais appliquée, mais elle fut aussitôt relevée1138 : Tableau 4. Tarifs de location des grues sur le port d'Ivry en 1903. Location Montant total Pour l'entrepreneur Pour la chambre Demi-journée 35 francs 21 francs 14 francs Demi-nuit 45 francs 51 francs 14 francs Heure du jour 10 francs 6 francs 6 francs Heure de nuit 12 francs 8 francs 4 francs Source : ACCIP, Exploitation de la Gare d'eau d'Ivry. Rapport présenté au nom de la Commission Temporaire de la Gare d'Eau d'Ivry par M. Lefebvre, déposé le 9 juin 1903, p.10. M. Mourer semble avoir tiré profit de cet avenant dans la part destinée théoriquement à la chambre de commerce. Les redevances de celles-ci se voyaient ainsi quasiment réduites à celles prévues pour M. Mourer1139. Les proportions se trouvaient ainsi inversées : la chambre de commerce ne percevait plus que 40% des redevances, tandis que l'entrepreneur prenait 60%, sans oublier l'annuité de 3 700 francs : M. Mourer devenait dans les faits plus onéreux que M. Sicat! Le choix du concessionnaire ne résultait manifestement pas tant d'un choix économique rationnel, mais de la réputation, l'expérience et la proximité de celui-ci par rapport au nouveau port. Pour couronner le tout, le marasme conjoncturel n'offrit pas les meilleures propositions pour un développement du port B. Un décollage laborieux. La lecture du bilan de l'activité du port d'Ivry entre 1899 et 1903 était des plus éloquentes : le démarrage de son activité se révélait fort décevant. La vocation de ce port de raccordement demeurait en outre locale. Ces résultats médiocres puisaient toutefois leur cause dans des complications très spécifiques. La concurrence s'avérait fort rude, si bien que le port d'Ivry ne parvenait pas à faire la différence. Une amélioration de son matériel apparaissait indispensable pour proposer à la clientèle locale une offre justifiant de faire appel aux installations consulaires 1. Bilan de l'activité des premières années du port d'Ivry 1899-1903. 1138 Un avenant daté du 2 mai 1900 modifia effectivement le contrat primitif. Des modifications applicables à partir du 14 octobre 1899 furent apportées à la répartition du produit des taxes de manutention et de location. 1139 Op. cit., p. 336 L'activité du port d'Ivry connut un développement contrasté à ses débuts. La gare d'eau d'Ivry fut officiellement ouverte à l'exploitation le 14 octobre 1899. Le trafic des marchandises ayant eu recours aux engins de la chambre de commerce est passé de 27 510 t en 19001140 à 51 356 t en 1902, soit une croissance de 86,7%. Le montant des redevances versées par M. Mourer à la chambre pour manutentionner ce trafic s'est élevé lui-même de 6615,20 francs en 1900 à 9183,75 francs, en 1902. Les taxes de péage versées par la compagnie d'Orléans pour la part de 0,15 francs de la chambre de commerce sur les 0,55 francs perçus par elle pour les frais de traction sur les voies de raccordement ont progressé de 3 537,80 francs à 8 475,25 francs. Tableau 5. Bilan de l'activité du port d'Ivry 1899-1902. Années Trafic des marchandises ayant Redevances versées à M. Taxes de péage versées par la recours aux grues de la Mourer Compagnie d'Orléans à la chambre de commerce de chambre de commerce de Paris Paris (en francs) 1899 2 912 t 1 038,30 734,80 1900 27 510 t 6 615,20 3 537,80 1901 35 992 t 8 474,35 5 156,45 1902 51 356 t 9 183,75 8 475,25 Source : ACCIP IV-4.61 (33), Chambre de Commerce de Paris. Exploitation de la gare d'eau d'Ivry. Rapport présenté au nom de la Commission Temporaire de la Gare d'Eau d'Ivry par M. Lefebvre, déposé le 9 juin 1903, p.11. Les résultats de la première année d'exploitation parurent plutôt positifs, surtout le premier semestre durant lequel l'exploitation atteint 26,6 milliers de tonnes. Le second semestre se révéla moins favorable avec 11,5 milliers de tonnes, soit seulement 30% du mouvement total de l'année. Le trafic du premier semestre tenait surtout à la réception par wagons et la mise en bateaux des rails et traverses destinées au métropolitain. Malheureusement pour le port, ce trafic disparut à partir du mois de juillet 1900. Les embarquements de pyrites grillées atteignirent le chiffre de 2 708 t, et les transbordements de charbons, des bateaux sur wagons effectués pour le compte de la Compagnie d'Orléans1141 s'étaient montés à près de 4 000 tonnes et cessèrent presque à partir du second semestre aussi. L'entrepreneur 1142 expliquait ce déclin du trafic par l'achèvement des travaux du métro parisien. Concernant les pyrites grillées, les concurrents voisins se montraient plus 1140 L'année 1899 est peu représentative, car elle ne comprenait que trois mois d'exercice, soit 5181,73 t. La chambre de commerce de Paris ne disposait d'aucun contrôle sur les quantités passant sur les rails de raccordement. La Compagnie Paris-Orléans lui versait à la fin de chaque mois les redevances, sans ne lui fournir aucun état. 1142 ACCIP IV-4.61 32), Rapport sur l'Exercice 1900 présenté par M. A. Mourer. Entrepreneur de l'Exploitation de l'Outillage le 10 mars 1901. 1141 337 compétitifs. Pour les charbons de la Compagnie d'Orléans, celle-ci affirmait trouver plus d'avantages à faire opérer le transbordement à la gare d'eau de Juvisy, située pourtant à environ 15 km en amont de celle d'Ivry. Cette installation portuaire, dont la concurrence était jugée comme « très sérieuse 1143», plaçait la Seine en communication directe, soit avec le réseau d'Orléans, soit avec celui de Lyon. Non seulement les frais de transbordement et de raccordement étaient inférieurs à ceux d'Ivry, mais dans certains cas, touchant les charbons destinés au réseau PLM, il n'était pas tenu compte des frais pour le passage sur le raccordement. En préférant la gare d'eau de Juvisy, après avoir fait transiter ses charbons à celle d'Ivry, la Compagnie d'Orléans se refusait d'encourager le trafic sur le port d'Ivry La question des tarifs servait de prétexte. La diminution marquée du trafic pendant le second semestre pesa sur les recettes de la chambre de commerce, chutant de 4 561,06 francs pour le premier semestre à 2 054,15 francs du second semestre. Cela faisait ressortir la moyenne mensuelle du premier semestre à 760,17 francs, soit 69% et celle du second semestre à 342,36 francs, soit à 31%. Les recettes du port en 1900 enregistrèrent une moyenne mensuelle de 551,26 francs. Les résultats financiers de l'exploitation d'Ivry se révélèrent très inférieurs à ceux escomptés, et bien insuffisants, même en cas d'excédent des recettes pour constituer d'un fonds d'amortissement1144. La chambre de commerce y percevait une anomalie. Si les recettes affichaient de médiocres résultats, l'évolution du trafic semblait plutôt positive : malgré la perte des exercices 1898-1899, le tonnage avait crû de 86,7% de 1900 à 1902 1145 . Les dépenses des trois dernières années présentaient un excédent de 1 274,20 francs sur les recettes1146. 2. Des conditions défavorables. a) Insuffisance des redevances. La cause essentielle de ces médiocres résultats résidait dans les redevances trop insuffisantes, bien en deçà de ce que M. Mourer devait verser initialement1147. Les diverses modifications apportées au contrat, ainsi que les avantages multiples accordées avaient notablement réduit le bénéfice que la Chambre était censée tirer de son exploitation à mesure 1143 Ibid. Ibid., p.14. 1145 Le résultat paraissait flatteur, mais devait être nuancé dans la mesure où l'on partait d'un trafic nul ! 1146 Ibid., p. 15. 1147 ACCIP IV-4.61 (33), Chambre de Commerce de Paris. Exploitation de la gare d'eau d'Ivry. Rapport présenté au nom de la Commission Temporaire de la Gare d'Eau d'Ivry par M. Lefebvre, déposé le 9 juin 1903, pp. 1516. 1144 338 de la progression du trafic. Le tarif initial de 0,50 franc n'avait jamais été appliqué. Hormis celui de la pyrite qui s'élevait à 0,45 franc par tonne, tous excédaient le montant initial pour atteindre même 1,1 franc pour les briquettes. L'entrepreneur ne devait plus que 0,15 francs par tonne. Or, en 1902, sur un tonnage de 51 346 t, on comptait 38 037 t de charbon, briquettes et rails ayant eu recours à l'outillage de la gare d'eau. Proportionnellement à leur tonnage, ces 38 037 t procurèrent à l'entrepreneur une recette moyenne de 0,90 francs par tonne, soit 34 387 francs sur lesquels il n'avait versé à la chambre de commerce que 507,55 francs pour sa redevance de 0,15 francs par tonne. D'après le tarif primitif, M. Mourer n'aurait perçu que 19 018,5 francs, sur lesquels il aurait dû payer 7 607 francs, à raison de 0,50 francs par tonne. Et il en allait de même pour la location des grues et des autres manutentions, pour lesquels les avantages de M. Mourer semblaient avoir notablement été renforcés aux dépens de la chambre de commerce1148. b) Une concurrence locale virulente. La gare d'eau d'Ivry se situait dans une zone industrieuse et commerciale. L'outillage des rivaux potentiels représentait une sérieuse concurrence. En vérité, les deux grues installées sur le port d'Ivry n'offraient pas de réelle supériorité par rapport aux grues fixes voisines et à celles installées sur pontons mobiles. Une grue placée à quelques centaines de mètres en amont sur une estacade et appartenant à la Compagnie des Magasins Généraux du Levant se trouvait ainsi à la disposition du commerce, à raison de 50 francs par jour. Une autre, positionnée en aval, également sur une estacade, était la propriété de grands industriels, MM. Pagès et Cie. La puissance de l'engin affichait 4 000 kg pour un prix de location journalier de 50 francs. Selon les circonstances, les grues installées sur pontons se louaient de 50 à 60 francs. L'entrepreneur Mourer lui-même louait 60 francs par jour les grues qu'il avait positionnées sur la rive droite et déplorait : « depuis que j'ai relevé mon prix pour le mettre au niveau de celui des grues de la Chambre de Commerce plusieurs affaires m'ont échappé1149.» le fait était que les grues voisines étaient mises à la disposition du public sous des conditions plus favorables. Les travaux qu'elles dispensaient en dehors de ceux des établissements auxquelles elles appartenaient, étaient considérés comme un bonus, n'ayant pas à supporter de frais généraux. Les grues mobiles sur pontons offraient l'avantage de se placer près des usines 1148 Ibid. Op. cit. Le rapport préconisant la résiliation du contrat passé avec M. Mourer tendait à montrer que l'entrepreneur n'avait pas fait grand-chose pour que le trafic du port d'Ivry ne se développe afin d'éviter qu'il n'altérât la prospérité de ses propres activités Voir annexe III sur la gestion de l'entrepreneur. 1149 339 auxquelles les marchandises étaient destinées. La distance à parcourir par les voitures se trouvait aussi réduite que possible, procurant aux intéressés une économie sur les frais de camionnage. Les grues de la gare d'eau n'offraient d'avantages que pour des marchandises à transborder directement des bateaux vers les wagons et réciproquement1150. Le port d'Ivry paraissait donc loin de répondre aux exigences d'une infrastructure portuaire performante et capable de rivaliser avec les établissements qui l'environnaient. En outre, la relative défection des deux types d'usagers qui auraient dû constituer sa principale clientèle rendait d'autant moins adapté l'équipement de ce port à répondre à une clientèle plus large. La dotation du port d'un pont à bascule et la création d'un hangar pouvaient remédier à certaines de ses carences. Ces réalisations devaient apporter une amélioration notable en incitant à préférer les grues de la gare d'eau. L'utilité de ces mesures consistait à connaître exactement le poids des marchandises embarquées ou débarquées, la possibilité de préserver du vol et des intempéries pouvait encourager le commerce à payer plus cher afin de bénéficier des avantages que les concurrents ne pouvaient leur offrir. Pour attirer les bateaux, la gare d'eau devait se doter pourvue d'un matériel afin de prendre ou déposer à proximité les marchandises composant leur fret. Or, ce n'était envisageable que par une surface couverte pour les recevoir. Il convenait de prévoir le cas de plus en plus fréquent où des expéditeurs expédiaient des chargements complets par bateaux en vue de profiter d'un fret avantageux, pour ensuite être livrés ou réexpédiés en détail et vice versa. Ces diverses opérations ne semblaient possibles que si les marchandises étaient mises en sûreté. Néanmoins, l'entrepreneur déplorait le manque de sécurité sur le port : Si la population d'Ivry et des localités environnantes ne renfermait pas un aussi grand nombre de malfaiteurs, capables de tout, on pourrait déposer sur le quai à proximité des grues les marchandises qui ne craindraient pas la pluie ; cela constituerait en faveur des grues de la Chambre de commerce un avantage sérieux1151. La gare d'eau d'Ivry se voyait réduite à n'employer les grues que si les voitures se présentaient pour livrer ou recevoir directement les marchandises. D'où des lenteurs enchérissant considérablement le coût des manutentions, alors qu'une grue pouvait aisément transborder 200 t de charbon par jour, si elle n'était pas forcée d'attendre les voitures pour vider directement la marchandise prise dans le bateau. Cette nécessité limitait son travail utile à 50 ou 60 t, de sorte qu'elle mettait quatre fois plus de temps qu'il n'en fallait pour une 1150 1151 Ibid. Ibid. 340 opération. Une clause dans les tarifs stipulait qu'à défaut d'un rendement journalier minimum de 140 t, les usagers des grues devaient payer pour cette quantité. L'application de cette mesure signifiait perdre la quasi-totalité des clients et laisser les grues inoccupées1152. 3. Les difficultés rencontrées par un port de raccordement Les stratégies adoptées par les compagnies chemins de fer révélèrent toute leur efficacité afin de torpiller toute possibilité de raccordement, notamment dans la région parisienne. En outre, elles bénéficièrent d'un contexte économique moins favorable, marqué par un recul du trafic fluvial. Le marasme combiné avec la politique de rétorsion ne pouvait que plonger l'exploitation du port dans la difficulté et conduire la chambre de commerce de Paris à une alternative paradoxale pour elle, à savoir la mise en régie du port. a) Problématiques autour des capacités de stockage. Les difficultés du port d'Ivry tenaient, en partie du moins, à l'insuffisance de son équipement : il ne disposait même pas d'un hangar pour entreposer son matériel. Les consuls semblaient conscients de cette situation et avaient mis à l'étude la construction d'un hangar. La chambre consulaire avait ajourné l'édification d'un hangar, mais toutes les raisons exposées l'avaient conduite à compléter l'outillage par la dotation des magasins prévus dans les plans primitifs. En fait, l'ouvrage projeté ne correspondait guère à celui envisagé originellement. Il s'agissait d'élever un hangar de 20 m sur 20 m, servant de dépôt de marchandises et devant contenir par ailleurs les bureaux du port ainsi qu'un logement pour le surveillant. L'étude réalisée par les ingénieurs des Ponts et Chaussées aboutit à un devis estimant le montant des travaux à 30 000 francs. La charge résultant pour la chambre de commerce de Paris du fait de la construction de ce hangar1153 s'élevait à 1 395 francs, soit 120 francs par mois, somme devant être couverte par un excédent de recette dès la première année1154. De toute évidence, la chambre de commerce avait réduit ses ambitions au strict minimum, le bâtiment projeté était effectivement des plus modestes. La chambre de commerce de Paris adopta les conclusions du rapport de l'ingénieur en chef, lors de sa séance du 4 septembre 1900. Le coût total (hangar et bureau) était évalué à 35 000 francs. La construction tarda cependant à se réaliser. M. Mourer se plaignit des 1152 Projet de loi relatif au raccordement des voies de chemins de fer avec les voies d'eau, présenté devant la Chambre des Députés le 6 févier 1908. 1153 Voir en annexe le détail du devis. 1154 ACCIP IV-4.61 (32), Chambre de commerce de Paris. Gare d'eau d'Ivry. Rapport présenté au nom de la Commission des voies et moyens de communication par M. Lainey et dont les conclusions ont été adoptées par la Chambre de commerce dans sa séance du 4 juillet 1900. Déposé le 29 juin 1900. 341 inconvénients de ce retard: « Ce délai est bien long en raison de l'impossibilité qu'il y a de laisser des marchandises sur le port par suite des vols qui se commettent journellement. S'il vous était possible de hâter l'installation de ce hangar et de faire poser la bascule, dès à présent, vous favoriseriez dans une large mesure le développement des affaires à la gare d'eau1155.» Le trafic se composait de matériaux de construction, dont la majeure partie était alors destinée à l'Exposition universelle. Figuraient aussi des matières premières pour l'industrie locale qui était considérable. Ivry était une cité industrielle comptant 25 000 habitants, dont 20 000 dépendaient de l'industrie. Cette proportion s'avérait énorme en comparaison à certaines villes de 50 000 habitants, où 5 000 à peine travaillaient pour l'industrie ! Le fer représentait un élément majeur du trafic. Le hangar n'était cependant pas vraiment prévu pour ce type de marchandises très lourdes et encombrantes, et qui ne se plaçait que très rarement en magasin Une profusion de blé et d'orge provenant de la Beauce et en direction du Nord passaient sur le port. La manutention de ce type de produits exigeait des sacs vides à mettre à l'abri, de peur qu'ils ne fussent volés ou laissés sur le quai 1156. Il ne s'agissait donc que d'un simple hangar1157, servant à ranger le matériel, et non d'un véritable entrepôt. Bien qu'il pût présenter une certaine utilité, le port d'Ivry était dépourvu de réelle capacité de stockage, ce qui en atténuait d'autant l'intérêt et les perspectives de trafic. Si les possibilités de stockage ne suffisaient pas, qu'en était-il du raccordement ? La chambre de commerce parisienne avaitelle rempli son objectif initial, à savoir favoriser la relation entre le fer et l'eau ? b) La venue tardive de la croissance (1903-1914). Après des années de quasi-stagnation, le port connut enfin une période de croissance, et pour faire face à cette croissance, il devait recevoir quelques modernisations. Le problème était que les améliorations, pourtant nécessaires à son simple bon fonctionnement, furent lentes et pas toujours à la hauteur, en raison de la défectuosité de l'outillage, des infrastructures Après des débuts plutôt laborieux jusqu'en 1903-1904, le trafic du port d'Ivry paraissait enfin avoir décollé pour atteindre des niveaux plus satisfaisants, passant de 56 659 t, en 1906, à 102 496 t en 1907 : 1155 ACCIP IV-4.61 (32), Lettre de M. Mourer à M. Lainey, membre de la Chambre de Commerce du 25 août 1900. 1156 Il fallait encore loger dans le hangar le matériel mobile de l'entrepreneur : brouettes, douves pour charger les marchandises en sac Le hangar projeté avait 20 m de longueur sur 20 m de largeur pour une hauteur libre de 6,50 m comptée au-dessus du terre-plein du quai. La chambre de commerce adopta le projet lors de son assemblée générale du 4 juillet 1900. 1157 D'ailleurs, on peut s'interroger pourquoi il n'a pas été bâti plus tôt 342 Tableau 6. Évolution de l'activité du port d'Ivry 1900-1907. Années Trafic de l'outillage du port Trafic des voies de raccordement et des embranchements 1900 27 510 - 1902 51 346 - 1904 46 773 50 200 1905 49 150 54 911 1906 56 659 49 879 1907 102 496 40 249,3 Source : ACCIP IV-4.61 (36), Lettre du Président de la Chambre de Commerce de Paris à Monsieur le Ministre des Travaux Publics, des Postes et des Télégraphes du 22 octobre 1909. Ce regain d'activité tenait-il à la reprise en main de l'exploitation par la chambre de commerce de Paris ? Ce n'était pas certain, le trafic du port d'Ivry ne semble qu'avoir suivi l'évolution plus favorable du port de Paris. La gestion par la chambre consulaire n'a effectivement pas enrayé le déclin inexorable du trafic des voies de raccordements et des embarquements : en quelques années, de 1904 à 1907, ils reculèrent de près de 10 000 t. Cette évolution entérinait ainsi l'échec du port d'Ivry en tant que projet visant à favoriser le raccordement. Par ailleurs, le contexte général se révélait plus propice au développement de l'activité fluviale dans la région parisienne, puisque le trafic fluvial a retrouvé son niveau de 1899 pour s'y maintenir autour de 10 millions pour le port de Paris et 7,7-7,9 millions pour la 4e section de la Seine1158. Comme on l'a vu précédemment, les aménagements de la Seine avaient eu pour résultat une hyper concentration du trafic de la Seine en amont de Paris, toutefois, on constatait une progression du trafic d'autres marchandises qui montrait une tendance à une certaine diversification. 1158 La progression ne paraissait guère spectaculaire seulement en apparence, dans la mesure où l'année 1899 constituait un record, Clément Colson avait considéré ces résultats comme provisoires et tout à fait exceptionnels. 343 Graphique 33. Trafic des catégories de marchandises en dehors des matériaux de construction sur la 4e section de la Seine, 1883-1913. 3 000 000 2 500 000 Tonnages 2 000 000 Machines 1 500 000 Produits agricoles et denrées alimentaires Produits industriels 1 000 000 Produits métallurgiques 500 000 Engrais 1913 1910 1907 1904 1901 1898 1895 1892 1889 1886 1883 0 Houilles Source : Ministère des Travaux publics. Direction des routes, de la navigation et des mines. Statistiques de la navigation intérieure, Nomenclature et conditions de navigabilité des fleuves, rivières et canaux. Relevé général du tonnage des marchandises. Années 1883-1913. Si les matériaux de construction ont augmenté de façon remarquable, à savoir de 330%, et demeuraient bien sûr, en volume, prépondérants, les houilles ont tout de même connu une hausse encore plus spectaculaire, à savoir de 580%, et les produits industriels de 1246%. Même si une partie des produits liés à l'industrie pouvaient être imputés au secteur de la construction, comme par exemple le bois, la métallurgie, leur progression témoignait tout de même de l'industrialisation de la banlieue en amont de Paris. La hausse des combustibles minéraux était notamment significative, car elle montrait que le trafic de portion ne cantonnait plus au seul approvisionnement de sables et graviers de la capitale1159. Le cas de la commune d'Ivry confirmait cette tendance, car elle connut un essor industriel considérable. Cela laissait supposer des perspectives prometteuses pour le port de la chambre de commerce de Paris, d'où la nécessité de le promouvoirEn effet, à partir des années 1880, les communes les plus proches de Paris connurent un puissant développement industriel. L'essor industriel d'Ivry atteignit son maximum durant la décennie 1895-1904 : 25 créations d'établissements, notamment en 1897 (cinq), en 1900 (cinq) et 1904 (sept). Ivry n'offrait qu'un millier d'emplois en 1840 contre 12 300 en 1913, la population passa de 7 000 habitants en 1861 après l'annexion, à 25 000 en 1896, la croissance est plus marquée encore durant la période de 1159 Le trafic s'accomplissait effectivement principalement à la remonte. 344 forte croissance industrielle 33 000 habitants.1160 Le port d'Ivry se situait donc dans une zone favorable et son concessionnaire pouvait espérer une amélioration de son trafic. Il fallait aussi ajouter les produits agricoles dont l'augmentation tenait notamment à l'essor des activités de meunerie, ce qui semblait d'autant plus justifier l'existence d'un port de raccordement. Les infrastructures fluviales et a fortiori fluvio-portuaires ont pour caractéristique de nécessiter du temps pour démarrer. Cette observation s'avère d'autant plus juste pour les ports fluviaux1161. Les insuffisances de publicité expliquaient aussi cette lenteur. Il fallait prendre en compte tous les problèmes rencontrés par le port : la concurrence locale aiguë des exploitants voisins, mais également de façon détournée le plus souvent, des chemins de fer. Quoiqu'il en soit, le port d'Ivry connut enfin à partir de 1903-1904 un décollage prometteur de son activité1162. Seulement, il n'était pas apte à un développement considérable, en raison de ses dimensions, son outillage et ses magasins limités Les dimensions du port d'Ivry, on a l'a vu, étaient très modestes, soit 150 m contre 500 m pour le port Saint-Nicolas, situé au coeur même de Paris. Le projet initial semblait susceptible de suivre une évolution intéressante, mais dans des dimensions réduites, son développement devenait des plus incertains. Cela expliquait pourquoi ses exploitants, - chemins de fer, chambre de commerce, mairie d'Ivry, État-, durent se rendre à l'évidence de la nécessité de lui apporter des améliorations. Curieusement, certaines d'entre elles aboutissaient au projet initial On peut alors s'interroger sur la pertinence des limitations dont ce port fut victime, celles-ci paraissaient plutôt correspondre plus à des soucis d'ordre budgétaire que commerciaux Ou bien, chercha-t-on volontairement à limiter le potentiel de cet établissement portuaire ? Par conséquent, il ne faudrait pas considérer que la concurrence génère nécessairement des effets favorables au bon fonctionnement du marché grâce à une saine remise en cause. La concurrence peut présenter des résultats qui ne sont pas toujours pour le meilleur de l'économie générale. Elle peut même se révéler improductive dès lors qu'elle devient acharnée1163. Ainsi, les chemins de fer se sont efforcés d'avoir la maîtrise du marché des transports, mais ils se sont trouvés alors confrontés à des coûts excessifs dans leur tentative d'éradiquer totalement la concurrence des autres modes de transport et de prendre le contrôle 1160 Jean Bastié, op. cit., p.153. La plupart des usines se groupaient dans le quartier d'Ivry-Port de part et d'autre de la route nationale Paris-Bâle et entre celle-ci et la Seine. Les travaux d'aménagement entrepris à partir de la fin du XIXe siècle favorisèrent le développement de la zone. 1161 Il en sera de même pour les ports de Gennevilliers et de Bonneuil-sur-Marne. La comparaison mérite toutefois d'être nuancée : il s'agit d'installations portuaires bien plus considérables 1162 Le trafic allait dépasser ce niveau après 1910. 1163 Steve Keen, L'imposture économique, Ivry-sur-Seine, Les Éditions de l'atelier, 2014, pp.153-154. 345 du secteur des transports. À la nécessité de promouvoir les chemins de fer, s'additionnait celle de convaincre les investisseurs et les banques afin de financer leurs infrastructures. Le tonnage des échanges entre les deux modes de transports demeurèrent encore modestes au début du XIXe siècle, dans la mesure où ils n'atteignaient que 750 000 tonnes, 34% étant transbordés à Roanne, 6% à Varangéville, 9% à Montargis, et 8% à Montluçon. Le reste concernait 26 ports intérieurs se trouvant sur la plupart des réseaux, notamment celui de l'Est, du PLM, ou encore le PO1164. Et comme on l'a pu s'en rendre compte précédemment, les politiques menées en faveur des ports de transbordement avaient échoué devant l'intransigeance des compagnies de chemins de fer sur la question. Au final, il est difficile de déterminer si les ports de raccordement constituaient une panacée ou non dans la mesure où les expériences en la matière sont demeurées rares par manque de volonté politique sans doute. Malgré la rude concurrence intermodale en Allemagne, les initiatives en faveur du raccordement semblent avoir connu un meilleur sort, ce qui conduit à s'interroger sur l'existence ou non d'un modèle rhénan et les facteurs spécifiques qui l'ont permis. 1164 Michèle Merger, « La concurrence », op. cit., p.81. 346 Conclusion : potentiel et limites du raccordement en France. L'étude du port d'Ivry dresse un tableau exceptionnel du port de Paris au début du XXe siècle. Rares s'avèrent les documentations décrivant de façon aussi complète les conditions d'exploitation portuaires dans la région parisienne. Les archives du port d'Ivry présentent une diversité d'acteurs : État (ministre, ingénieurs des ponts et chaussées), municipalité, chambre de commerce de Paris, entrepreneurs, industriels, commerçants Le port d'Ivry constitue comme un laboratoire des différentes problématiques de la question portuaire parisienne avant la première guerre mondiale : raccordement, outillage, statut du concessionnaire Son histoire témoigne des tâtonnements dans la question du statut des ports de Paris et de sa banlieue. Relié à la ligne Paris à Orléans à la gare du Chevaleret, le port d'Ivry fut édifié grâce au concours de la commune d'Ivry, la chambre de commerce de Paris et l'État. Ses débuts s'avérèrent laborieux, le concessionnaire ne se montrant pas d'une efficacité exemplaire et la chambre consulaire ayant systématiquement revu à la baisse les travaux exécutés en comparaison avec le projet initial. Il se vit confronté à une concurrence locale acharnée : « Il eut des débuts très difficiles, en raison surtout, de la liberté d'action laissée par l'établissement du transbordement et de la concurrence faite, de ce chef, aux transbordements effectués à l'aide des appareils de levage officiels1165. » Une exploitation par un établissement tel que la chambre de commerce de Paris ne représentait pas une mince affaire, car confrontée à la double nécessité de satisfaire les besoins du commerce local, tout en ménageant les intérêts des commerçants et industriels environnants. La problématique libérale n'est pas simple : que faire en l'absence d'initiative ? Les aspirations des entrepreneurs manquaient elles-mêmes de cohérence. Si tous se félicitèrent du port d'Ivry, puis de la gestion de la chambre de commerce, cette installation ne devait pas pour autant menacer leurs propres intérêts Un tel établissement avait par ailleurs à lutter contre la concurrence environnante, ce qui semblait normal au fond, dans la mesure où il s'agissait d'une installation industrielle. Cette dernière pouvait nuire aux entrepreneurs, tandis que d'autres profitaient de l'installation de cette gare d'eau, sans à en assumer les frais de construction D'un autre côté, cela favorisait les intérêts des industriels et commerçants des usines et entrepôts avoisinant le port d'Ivry, en leur offrant, du moins théoriquement, des tarifs et des services de meilleure qualité. La chambre de commerce était censée soutenir les 1165 Jean Barême, op. cit. 347 intérêts de quels patentés ? Malgré ces considérations pessimistes, Jean Bastié paraît attribuer une fonction de catalyseur de l'essor industrielle de la ville, notamment le quartier d'IvryPort : « C'est à cette époque, surtout avec la mise en service du port, que la proximité de la Seine devient un facteur essentiel de localisation des industries1166 ». Il posait la question de la pertinence de la coordination ou pour reprendre le terme de l'époque, de la « suture », entre la voie ferrée et la voie d'eau, avec cette politique de tarification réduite et ciblée, les Compagnies de chemin de fer ne jouaient de toute façon pas le jeu. On pourrait nuancer cette thèse en soulignant que le raccordement ne posait pas les mêmes difficultés dans des pays comme l'Allemagne ou encore la Belgique, et que les initiatives françaises, dans ce sens, se révélaient des plus timides et fort rares. Un port tel que celui d'Ivry aurait dû constituer la norme et non un événement exceptionnel, défrayant la chronique Les moyens mobilisés pour ces ports s'avéraient d'ailleurs fort limités, notamment à Ivry. Bien que non négligeable, le raccordement ne représentait peut-être pas la préoccupation majeure de la batellerie Pour attirer les clients, il apparaissait urgent de doter les ports d'un matériel de manutention moderne et abondant. La politique d'aménagement des voies navigables françaises eut pour conséquences néfastes, d'avoir privilégié l'aménagement des grandes rivières navigables tout en négligeant celui des canaux. Pierre Léon 1167 souligna que ces canaux, sans être spectaculaires, rendaient des services appréciables à l'économie nationale, et si leurs trafics semblaient a priori relativement faibles, pris séparément, accumulés, ils n'en demeuraient pas moins intéressants. Leur disparition signifiait leur remplacement par les voies de chemins de fer, voire le camionnage (par la suite, l'automobile). L'échec, ou plutôt la difficulté d'instauration de la multimodalité, concept certes, anachronique, mais reflétant déjà une certaine réalité à l'époque, surtout concernant la voie d'eau, puisait ses origines dès les tentatives initiales. Force était de constater les mésaventures de la mise en place du raccordement en France. Est-ce culturel ? Cela tient-il au tissu industriel français dont les spécificités s'adaptaient mal à ce type de transport ? Pourrait-on invoquer un manque de concentration ? La structure de l'industrie française demeurait encore fort dispersée et se caractérisait par la multiplicité des petits ateliers. Les recensements de 1896 à 1906 tendent à confirmer cette hypothèse. Il en résultait un clivage entre les travailleurs à domicile et l'industrie « véritable », se manifestant à travers les mines, la 1166 1167 Jean Barême, id., p.153. Paul Léon, Fleuves , op. cit., p.220. 348 métallurgie et le textile Au tournant du XXe siècle, la tendance semblait marquée par un mouvement de concentration. Cette dernière disposition pourrait expliquer l'accroissement du trafic du port d'Ivry à partir de 1902. Cela pourrait aussi éclairer sur le succès du raccordement en Allemagne. Formant un axe sur une large partie du pays, celle-ci bénéficiait d'un fleuve naturellement doté d'un grand gabarit. Le Rhin sillonnait les régions les plus industrialisées, telles que l'Alsace, la Sarre, la Rhénanie-Westphalie Sans compter les débouchés (aux sens propre et figuré) que représentaient les Pays-Bas. Au contraire, la France possédait un réseau éclaté entre différents bassins aux potentiels hydraulique et industriel fort disparates et mal reliés entre eux1168. Cette interprétation mériterait toutefois d'être confirmée. L'acharnement des chemins de fer contre la voie d'eau était patent. Sans doute, certaines compagnies s'étaient trouvées sérieusement malmenées, à l'instar de celle de l'Ouest, voire en partie ruinée par la concurrence avec la batellerie qu'elle n'était pas parvenue à mettre à genou, grâce aux importants aménagements réalisés sur la Basse-Seine, preuve de sa compétitivité, lorsqu'on lui accorda les moyens adéquats. Même la compagnie du Nord, la plus puissante, peut-être technologiquement la plus moderne, ou tout au moins la plus rentable, fut sérieusement secouée par la concurrence de la batellerie, alors que le canal Saint-Quentin se révélait d'une vétusté notoire, et bien loin de répondre aux besoins d'une navigation moderne et que le projet canal du Nord, pourtant en vogue au début du XXe siècle, allait demeurer, à l'instar des projets de canaux maritimes, à l'état de serpent de mer, à la fois pour des raisons liées à l'histoire (le premier conflit mondial), mais également une indécision des pouvoirs publics et l'inorganisation des acteurs économiques qui auraient pu en bénéficier. Inversement, la Compagnie PLM avait éliminé la concurrence de la navigation intérieure, faute d'aménagements adéquat du Rhône. Les bassins houillers stéphanois restaient peu accessibles à la batellerie et les tentatives initiales de raccordement ne connurent pas de suite, une fois que les progrès des chemins de fer devinrent suffisants. Le modèle français contraste sur ce point de ce qui a pu se faire en Allemagne. Pourquoi alors les compagnies de chemins de fer n'ont-elles pas su tirer profit des opportunités du raccordement pour lutter contre leurs concurrents, ou capter des marchés avec les moindres coûts du transport proposés par la batellerie ? Cela demeure encore mystérieux pour les historiens aujourd'hui. Ce qui est indéniable, c'est que les compagnies de chemins de fer ne jouèrent pas le jeu, sabordant 1168 Marie-Madeleine Damien parle de « réseau en cul-de-sac », Marie-Madeleine Damien, Les transports fluviaux, Paris, PUF, 1997, pp. 13-15. Un tel constat ne s'avère pas propre à la France, il pourrait s'appliquer à un pays comme la Chine, mieux pourvu au sud sur le plan hydrologique, mais mieux pourvu en matières premières pondéreuses (notamment le charbon) dans le Nord. 349 systématiquement toute initiative susceptible de favoriser la coordination entre les deux modes de transport : Nous ne savons ce que penseront de cette manière de faire les partisans – et ils sont nombreux – de la suture de la voie de fer à la voie d'eau, mais on peut se demander quel avantage retirera la batellerie de cette suture si, lorsqu'elle sera réalisée et qu'un trafic sera acquis, les Compagnies de chemins de fer, par une tarification très réduite, cherchent à ramener sur leurs rails le trafic acquis par la voie d'eau. La question est assez importante pour qu'elle soit étudiée à fond. À quoi servirait, par exemple, la création à Lyon et dans d'autres localités, de port de raccordement ou de la mise en état de certaines gares d'eau, si, après que le trafic de transbordement sera mis en marche, la Compagnie PLM, seule, ou d'accord avec d'autres réseaux, réussit à prendre tout le trafic se servant de la voie mixte ? Le beau billet qu'aura la batellerie ! Les enseignements qui se dégagent des faits signalés dans l'article de la « Mutuelle Transports » tendent à montrer que la suture de la voie d'eau n'a pour but de faciliter le trafic de la batellerie que pendant une courte période. Dès que ce trafic a pris un essor important, les Compagnies de chemins de fer, par des tarifs réduits, la font revenir sur leurs rails et les gares d'eau ne servent plus à rien1169. 1169 ACCIP IV-4.61 (32). Article publié dans la Loire navigable d'août 1907, signé Jean Barême. 350 CHAPITRE VI LE PORT DE PARIS À LA BELLE ÉPOQUE : L'ÉMERGENCE PARADOXALE D'UN PORT MODERNE. 351 Prélude : des contradictions inhérentes à une époque. Le matin du XXe siècle est généralement associé à la seconde révolution industrielle, et donc à l'émergence de nouvelles technologies fascinantes: l'électricité, l'automobile, l'aéronautique, le cinéma, le téléphone1170 En outre, elle est souvent considérée comme la période où les chemins de fer français prennent définitivement le dessus sur la navigation intérieure, si ce n'était du point de vue technique, au moins sur le plan politique, dans la mesure où les tentatives de mener une politique en la matière se sont soldées par des échecs, confirmant ainsi la dépendance croissante entre les grandes compagnies de chemins de fer et l'appareil politico-administratif français. Pourtant, l'analyse de l'activité portuaire parisienne apporte un nouvel éclairage en montrant une plus grande complexité de l'évolution technicoéconomique, tant les imbrications entre anciennes et nouvelles technologies s'avèrent complexes, voire paradoxales. L'évolution technique emprunte des voies bien plus impénétrables que l'on pourrait l'imaginer, et le rôle aussi singulier que paradoxal celui de la batellerie en témoigne. L'expression « Belle époque » peut susciter de multiples réserves, car elle renvoie à une époque de multiples progrès. Pourtant, il s'agit aussi d'une période d'agitation sur le plan politique et social. La rupture était-elle si marquée par rapport à la période précédente ? Plus encore, la période que l'on découpe traditionnellement entre 1900 et 1914 est-elle nécessairement homogène ? La correspondance avec l'étude du port de Paris apparaît tout à fait édifiante. Les années de la fin du XIXe siècle jusqu'à 1914 ne marquent pas tant une rupture par rapport à la période antérieure, il aurait été tout aussi envisageable d'envisager une période s'étendant du plan Freycinet jusqu'à la veille de la Première Guerre mondiale. Sur le plan de l'activité, on observe moins une rupture qu'une accélération. La distinction consiste dans le fait que la fin du XIXe siècle correspond au moment où les travaux d'aménagement du plan Freycinet atteignirent leur maturité. Deux évènements marquèrent la Belle époque par : la loi Baudin1171 et les commissions qui suivirent l'inondation « historique » de 1910. La Belle Époque apparaît aussi comme une où le « port de Paris » commença à être envisagé comme tel, et à être projeté comme tel dans le futur. Cette perception s'appuie sur 1170 François Caron, Les deux révolutions industrielles du XXe siècle, Paris, Albin Michel, 1997, pp.39-157. Pour une biographie de Pierre Baudin, consulter Michel Moisan, « Pierre BAUDIN (1863-1917). Un radical-socialiste à la Belle Époque », thèse soutenue le 5 novembre 2009, sous la direction de Jean Garrigues, Université d'Orléans, pp. 235-263. Concernant le plan Baudin, voir aussi Michèle Merger, « La Politique de la IIIe République en matière de navigation intérieure de 1870 à 1914 », Thèse de 3e Cycle, dir. François Caron, Université de Paris-Sorbonne, 1980, pp.128-200. 1171 352 les remarquables performances de l'activité portuaire dans la région parisienne, qui le fait même classer au rang de premier port de France. Cet essor ne doit pourtant pas dissimuler l'état très contrasté du paysage portuaire. L'outillage accusait un retard particulièrement marqué, en particulier l'outillage public. L'essor économique ne signifiait pas non plus un climat social totalement apaisé, au contraire, il sembla attiser des tensions déjà latentes antérieurement. En outre, l'intensité de la réflexion sur la question portuaire ne s'est guère accompagnée de mesures concrètes En ce sens, le port de Paris était significatif de cette fin du XIXe siècle, partagé entre utopie et réalité. 353 I. UNE MODERNISATION CONTRASTÉE. A. L'ampleur du trafic ou la revanche de la batellerie. 1. Du repli au début du siècle au relèvement de la batellerie à la veille de la Première Guerre mondiale. Graphique 34. Trafic du port de Paris 1883-1913. 16 000 000 14 000 000 Tonnages 12 000 000 10 000 000 Arrivages 8 000 000 Expéditions 6 000 000 Transit Trafic local 4 000 000 2 000 000 1883 1885 1887 1889 1891 1893 1895 1897 1899 1901 1903 1905 1907 1909 1911 1913 0 Source : Ministère des Travaux publics. Direction des routes, de la navigation et des mines. Statistiques de la navigation intérieure, Nomenclature et conditions de navigabilité des fleuves, rivières et canaux. Relevé général du tonnage des marchandises. Années 1883-1913. La meilleure justification du succès des voies navigables dans les années juste avant la guerre consiste dans la prise en compte des chiffres, car ces derniers s'avèrent des plus éloquents et peuvent parer à toute démonstration rhétorique. En effet, le trafic dans le département de la Seine parvint à un total de 16 millions de tonnes en 1913. Ce chiffre représentait près du double de celui de 8,9 millions de tonnes que recevaient les gares parisiennes. L'éparpillement des gares d'eau sur les bords des rivières de l'agglomération parisienne, les dimensions chétives du matériel de navigation, des outillages et des entrepôts conféraient un aspect qui ne semblait guère rendre compte d'un tel trafic. Pour se représenter l'ampleur du trafic, cela revenait à additionner les mouvements cumulés des ports de Bordeaux, du Havre, de Saint-Nazaire et de Calais. De toute évidence, le trafic des gares 354 parisiennes de chemins de fer ne paraissaient guère capable d'absorber un volume de cette envergure, à savoir 8,3 millions de tonnes1172. Le plus remarquable était que le trafic de 1913 ne signifiait pas pour autant un mouvement extraordinaire, déterminé par une « conjoncture anormale », comme l'avait expliqué Clément Colson pour relativiser la forte poussée du trafic du port de Paris à la fin du XIXème siècle 1173 . Au contraire, il s'agissait d'un point dans la courbe ascendante qui ne semblait point dénoter d'anomalie. Il s'agissait là d'un débat central : l'essor du port de Paris était-il structurel ou ne relevait-il que de circonstances conjoncturelles aussi favorables qu'exceptionnelles ? En ce sens, comme on l'a esquissé juste avant, l'analyse et les pronostics de Clément Colson n'ont pas été vérifiés par les faits. L'intention n'est pas ici de s'acharner sur le célèbre ingénieur des Ponts et Chaussées, mais celui-ci représentait une figure centrale de l'argumentation anti-canaliste, et son argumentaire a dans une très large mesure servi à l'ensemble des ferristes et de la doctrine française en matière de transport et de service public. La confrontation de sa doctrine avec les réalités fluviales de la région parisienne apporte un nouvel éclairage et met en relief davantage certains aspects de ses analyses. Dans les années 1890, dans ses rapports sur la navigation intérieure, il n'attribua la forte poussée du trafic presque exclusivement à la préparation de l'Exposition universelle de 1900. Dans son rapport sur la navigation intérieure en 1897, dans un premier temps, il affirma « prudemment » que « Les arrivages et les expéditions du port de Paris ont aussi augmenté dans une mesure considérable, mais qui paraît se rattacher surtout à une cause transitoire, les travaux de l'Exposition et deux qui sont exécutés par les chemins de fer pour faciliter l'accès 1174 ». Au passage, il en profitait pour glisser une petite assertion rappelant le rôle des chemins de fer dans la préparation de cet événement, et de ce fait, il cherchait à relativiser de manière détournée la contribution de la batellerie. Cependant, plus les années passent, plus il se montre acerbe. Dans son rapport sur l'activité fluviale en 1898, il devient plus péremptoire en déclarant : « Le port de Paris présente une augmentation tout à fait anormale1175, due à une cause passagère, les travaux de l'Exposition1176 ». Le choix de l'adjectif « anormal » n'était pas anodin, mais procédait d'une intention forte. Sous couvert d'une analyse objective, il ne s'agissait donc pour lui que d'une anomalie et d'un phénomène éphémère. Et afin de 1172 Ministère des Travaux publics. Direction des routes, de la navigation et des mines. Statistiques de la navigation intérieure, Nomenclature et conditions de navigabilité des fleuves, rivières et canaux. Relevé général du tonnage des marchandises. Année 1913. 1173 On reviendra plus en détail sur son argumentation. 1174 « Revue des questions des transports », in Revue politique et parlementaire, novembre 1898, n°53, p.453. 1175 Nous avons mis en italique. 1176 « Revue des questions des transports », in Revue politique et parlementaire, n°65, novembre 1899, p.399. 355 minimiser encore la progression de l'activité portuaire parisienne, il souligna le fait que la majeure partie du trafic avait été réalisée en amont de Paris sur une distance restreinte : « La plus grande partie de ce trafic est en provenance ou à destination de la Seine, et n'a effectué que des parcours minimes 1177 ». En fait, il faisait allusion à l'activité extractive qui s'effectuait effectivement sur peu de kilomètres1178. Cela constituait un des arguments phares de l'économiste, celui-ci en déduisait que les rivières ne semblaient plus aptes qu'à transporter des matériaux de construction localement, et que leur hyper spécialisation reflétait le peu de perspectives qui s'offraient aux voies navigables. Toutefois, la Basse-Seine avait connu une évolution assez similaire, et présentait un trafic beaucoup plus varié, les matériaux de construction ne figurant qu'au troisième rang pour les 6 e et 7e sections de la Seine derrière les combustibles minéraux et les denrées alimentaires. L'évolution de l'activité portuaire à Paris pouvait mettre en cause son diagnostic global au sujet de la navigation intérieure, il avait donc tout à fait intérêt d'en minimiser les performances. Les années qui suivirent l'Exposition universelle de 1900, il est vrai, confirmèrent à brève échéance ses vues, de façon remarquablement opportune, dans le contexte le ministre des Travaux publics Pierre Baudin, encouragé par les « aquatiques1179 » envisageait un vaste programme favorisant les raccordements et de manière plus générale, les aménagements fluviaux. En effet, ce recul, pourtant provisoire, de l'activité fluviale alimenta l'arsenal des détracteurs du projet de loi Baudin, en montrant que les investissements en faveur de nouveaux canaux ne présentaient plus d'intérêt, en raison de l'incapacité de la batellerie à répondre de manière satisfaisante aux nécessités de l'économie 1180 . En résumé, les lourds investissements consentis pour les canaux s'étaient révélés bien coûteux pour des résultats finalement très discutables. Si les voies navigables avaient pu représenter une alternative à la longue dépression qui frappa le pays, réponse sans doute illusoire, elles ne pouvaient et ne devaient plus être développées à l'avenir1181 En un sens, les canalistes pouvaient donner raison à Clément Colson, lorsqu'il parlait d'anomalie Il y avait peut-être bien une anomalie. En effet, l'analyse du trafic du port de Paris sur la longue durée démontrait exactement le contraire de ce qu'il prédisait, malgré le 1177 Idem, p.399. La 4e section s'étirait sur 40 km, et le parcours entre les sablières et Paris était d'une vingtaine de kilomètres. 1179 Terme péjoratif élaboré par Yves Guyot pour désigner les canalistes. Voir Yves Guyot, 500 millions à l'eau : les voies navigables et le plan Baudin, Paris, Librairie Guillaumin et Cie, 1902, 60p. 1180 Clément Colson, « Revue des questions de transport », in Revue Politique et Parlementaire, novembre 1901, p.406. 1181 Clément Colson, Cours d'économie politique professé à l'École des Ponts et Chaussées, 1907, livre VI, pp.327-328. 1178 356 désintérêt grandissant des pouvoirs publics pour ce mode de transport et des facteurs objectifs de freins tels que la non-construction du canal du Nord, l'insuffisance des conditions de navigation en amont de Paris, etc. Force était de constater que sur le très long terme, la courbe du trafic a fait preuve d'une singulière régularité, avec seulement quelques inflexions. Des raisons conjoncturelles expliquaient ces irrégularités : guerre franco-prussienne, aléas climatiques1182, fléchissements après des événements exceptionnels tels que les expositions universelles, grèves des sablières, crue historique de 19101183 Il n'en restait pas moins que de 4,8 millions de tonnes en 1885, le trafic était passé à 6,3 millions t en 1890, 11,6 millions en 1899, 10,8 millions en 1904, 13,2 millions et 15,6 millions respectivement en 1909 et 1912. Il était vrai que la croissance s'était révélée particulièrement marquées dans les années précédant le premier conflit mondial. Leur seule prise en compte aurait pu donc être interprétée comme une embellie ponctuelle, mais l'énumération de chiffres sur différentes périodes, caractérisées par des conjonctures distinctes, montre bien la continuité de la progression de l'activité portuaire dans la région parisienne. De toute évidence, la voie ferrée n'aurait pu renforcer aisément la capacité de son matériel, la masse de son rendement devait d'ailleurs pourvoir simultanément à l'essor du trafic des voyageurs1184. Pourtant, là aussi, la navigation fluviale était mise à contribution avec un volume significatif de voyageurs. Pour preuve, les 87 bateaux de la Compagnie Générale des Bateaux Parisiens transportèrent près de 16 millions de voyageurs en 19131185, ce qui était loin d'être négligeable1186. La flottille de cette compagnie pouvait ainsi assurer le transport simultané de 29 500 personnes pour les emmener de l'amont à l'aval de Paris, de Bercy à Paris et jusque dans la banlieue Ouest (Saint-Cloud et Suresnes)1187. Les ports parisiens semblaient avoir rempli le rôle qui leur avait depuis toujours été assigné, celui de servir d'interfaces pour les arrivages, vouées à l'approvisionnement de la capitale. Ce rôle en tant que tel n'a cessé de se renforcer, et cela, en dépit de la division des transports provoquée au milieu du siècle dernier, par la création des chemins de fer, et malgré 1182 Par exemple, les gelées exceptionnelles de 1895 ont interrompu de un à deux mois la circulation sur les canaux. Cf. Clément Colson, « Revue des questions de transport », in Revue Politique et Parlementaire, novembre 1896, p.418. 1183 Pour ce qui était de ces deux derniers événements, la baisse s'est révélée sensible surtout pour les sections du fleuve concernées. Par exemple, la banlieue immédiatement en aval de Paris pour ce qui était de l'inondation de 1910. 1184 Elicio Colin, Le port de Paris, dans la série Les Grands ports français, VIII, Paris, Dunod, 1920, p.61. 1185 Cette compagnie résultait de la fusion de l'ancienne Société des « Bateaux omnibus » avec celle des « Express » et des « Hirondelles ». 1186 L'année précédente, le trafic s'était même élevé à 17,2 millions de voyageurs. 1187 Ministère des Travaux publics, Statistiques de la navigation intérieure, année 1913, p.135. 357 l'hyperspécialisation dans le trafic des marchandises pondéreuses 1188. Malgré ces réserves, l'essor en volume du trafic des ports parisiens avait réellement impressionné les contemporains. En tonnage absolu, le « port de Paris » apparaissait comme le premier port de France,1189, celui de Marseille ne représentait que la moitié du trafic du département de la Seine, soit 7,4 millions de tonnes en 1908, Bordeaux se rangeait loin derrière lui avec 3,9 millions, le Havre avec 3,6 millions et Dunkerque avec 3,2 millions. Cependant, l'attribution de cette première place restait controversée, certains observateurs soulignant la surreprésentation des marchandises pondéreuses de faible valeur, notamment les matériaux de construction et déblais : « Mais le chiffre du tonnage parisien est fallacieux, car il est enflé par l'énorme poids d'une masse de matériaux sans valeur, sable, cailloux, déblais, charbons même le, etc. 1190 » Les défenseurs du port de Paris ripostaient que si l'on retirait lesdites marchandises, il demeurait encore près de trois millions de tonnes, soit un volume analogue, en poids et en valeur, à celui des trafics de Dunkerque ou du Havre. Le port phocéen l'emportait seul en valeur de telle sorte que « l'on peut conclure que nos deux grands ports, intérieurs et maritimes, s'équivalent1191.» Le transit, quant à lui, n'offrait qu'un écart réduit en terme de chargements moyens, soit 187 t pour la descente et 196 t pour la remonte, pour un mouvement d'ensemble de 191 t. Ces derniers chiffres se rapprochaient de ceux des arrivages, ce qui signifiait que le trafic du transit était assuré par la grande batellerie. Le parcours moyen d'une tonne pour l'ensemble du trafic fluvial à Paris, en écartant le trafic local, s'est élevé à 213 km, chiffre dépassant de beaucoup la moyenne de l'ensemble du réseau qui se montait à 133 km. Cela signifiait que la puissance d'action du port de Paris atteignait 213 km, caractérisant l'importance de Paris comme port fluvial, tant pour ce qui était des marchandises qui arrivaient que de celles qui y partaient Le parcours moyen des expéditions atteignait 209 km tandis que celui des arrivages se montait à 200 km, la différence paraissait donc plutôt mince. Ceci s'expliquait par le fait que la majeure partie des bateaux venaient avec des chargements et regagnaient presque toujours les mêmes rivages où résidait la clientèle alimentant leur industrie. On pouvait néanmoins entrevoir de sensibles différences dans les longueurs de parcours moyen 1188 François Maury, Le port de Paris, Paris, Maison Félix Alcan et Guillaumin réunis, éd. 1911, p. 208. Clément Colson reconnaissait lui-même ce fait, voir Clément Colson, Transports et tarifs : régime administratif des voies de communications. Conditions techniques et commerciales des transports, Paris, Lucien Laveur, Éditeur, 3e éd. revue et augmentée, 1908, pp.164-165. 1190 François Maury, op. cit., pp.279-280. 1191 Ibid., p.280. 1189 358 sur chaque destination. Michèle Merger1192 observe toutefois que ce type de trafic a connu une progression notable à partir de 1887, doublant pour les périodes 1887-1894 et 1894-19131193. Ces progrès tenaient aux travaux de canalisation de la Seine. Les transports de longue distance se sont développés et Paris devait jouer un nouveau rôle qui devait s'accentuer à la faveur des ports de banlieue. Ce trafic se composait majoritairement de pondéreux, à savoir des combustibles minéraux et des matériaux de construction. Les performances du trafic fluvial parisien à la Belle Époque s'avéraient d'autant plus remarquables que l'avantage relatif du trafic général des voies navigables tendit à s'atténuer par rapport à la période antérieure1194. Le tonnage global des voies navigables rapporté à celui des chemins de fer avait effectivement progressé de 28,7% à 31,3% entre 1891 et 1896, il est passé de 26,6% et 24,8% pour la période 1908-1911 1195 . À la faveur de l'émergence de nouveaux modes de transport : automobile, tramways, aviation, la navigation intérieure pouvait paraître quelque peu désuète et n'offrir guère de perspectives La crise de 1908 semblait avoir renforcé la suprématie des chemins de fer qui progressèrent de 16% contre 8% pour leur rivale. La politique tarifaire mise en oeuvre par les compagnies de chemins de fer leur avait permis de proposer des prix inférieurs à ceux des années 1880. Malgré tout, l'activité portuaire dans la région parisienne ne faiblit pas, au contraire, notamment sur une voie devenue majeure, à savoir la Basse-Seine. En tonnage absolu, l'évolution semblait exactement inverse dans la région parisienne, si l'on en croit les statistiques du ministère des Travaux publics, la part des voies navigables est passée de 32% à 49% entre 1883 et 1912. 1192 Michèle Merger, « La Seine dans la traversée de Paris et ses canaux annexes : une activité portuaire à l'image d'une capitale (1800-1939) », in Paris et ses réseaux : naissance d'un mode de vie urbain XIX e-XXe siècles, sous la direction de François Caron, Jean Derens, Luc Passion et Philippe Cebron de Lisle, Paris, Bibliothèque historique de la Ville de Paris Hôtel d'Angoulême Lamoigon, p. 365. 1193 Néanmoins, cette évolution doit être considérée sur le long terme, notamment avec le développement des ports de banlieue durant l'entre-deux-guerres. 1194 Michèle Merger, op. cit., p.388. 1195 Michèle Merger, ibid., p.389. 359 Graphique 35. Denrées agricoles, combustibles minéraux et trafic total sur la Seine entre Conflans et Rouen 1883-1913. 4 500 000 4 000 000 3 500 000 Tonnages 3 000 000 Combustibles minéraux 2 500 000 Denrées agricoles 2 000 000 Trafic total entre Conflans et Rouen 1 500 000 1 000 000 500 000 1883 1885 1887 1889 1891 1893 1895 1897 1899 1901 1903 1905 1907 1909 1911 1913 0 Source : Ministère des Travaux publics. Direction des routes, de la navigation et des mines. Statistiques de la navigation intérieure, Nomenclature et conditions de navigabilité des fleuves, rivières et canaux. Relevé général du tonnage des marchandises. Années 1883-1913. Comme cela a été évoqué dans le troisième chapitre, le bassin inférieur de la Seine détenait désormais la prédominance commerciale. Grâce aux travaux entrepris par les divers gouvernements dans la seconde moitié du XIXe siècle, cette ligne de navigation occupa une place de plus en plus prépondérante. Elle jetait aux berges de la capitale et de sa banlieue une quantité de marchandises dont le tonnage était encore légèrement dépassé par les matériaux de construction fournis par la Haute-Seine, soit annuellement plus de deux millions et demi de tonnes dans les années 1905-1911 1196 , mais dont le prix était supérieur. Cette domination tenait à ses relations maritimes avec les ports de Rouen et du Havre qui fournissaient une variété de produits et denrées en provenance de l'étranger. Le second atout de cette ligne venait de l'excellence de la voie établie par les aménagements évoqués dans les chapitres précédents, c'est-à-dire dans une large mesure par le plan Freycinet. La Basse-Seine s'étirait sur 364 km entre Paris et le Havre, avec une profondeur sur les deux tiers du parcours, c'est-àdire entre Paris et Rouen de 243 km. Elle n'était traversée que par neuf grandes écluses, 1196 Il faut noter l'écart d'évaluation entre celle de la statistique de la navigation intérieure du ministre des Travaux publics et celle de l'Inspection de la navigation. Pour l'année 1909, la première portait les arrivages de la Basse-Seine à 2,7 millions de tonnes, la seconde les évaluait à 2,9 millions. 360 conçues pour recevoir des convois de bateaux. Le dernier tiers du parcours ne comportait aucun barrage, ni pont, l'action des marées s'exerçant librement et le chenal n'offrant pas moins de six mètres de mouillage. En outre, longeant l'estuaire sur une longueur de 25 km, le canal de Tancarville apportait aux chalands de bonnes conditions de sécurité, bien qu'il restait encore sous-employé jusqu'en 1914, sans doute parce que le port de Rouen constituait la véritable interface entre la mer et la terre en termes de pondéreux qui intéressaient plus particulièrement la batellerie. Comme le prouvait l'évolution du trafic, le commerce avait tout intérêt à renforcer la capacité des transports. Les améliorations apportées à la Seine permettaient effectivement une évolution dans ce sens. Le remorquage commençait à s'imposer. Un tiers de la navigation s'effectuait « seulement » par touage en Basse-Seine, et son recul semblait inéluctable à long terme. Un nouveau type de navire était apparu sur cette voie : les chalands. Si ceux de 4 à 600 tonnes étaient devenus la norme en Basse-Seine, mais de nouveaux modèles encore plus performants d'une capacité de 1 000 tonnes commençaient à circuler à la veille de la Première Guerre mondiale1197. En 1911, l'Édith, propriété de la société de transport fluvial Union normande était capable d'apporter en un seul voyage 1 250 tonnes de houille. Deux ans plus tard, le Jura, conçu en tôle d'acier, pouvait porter jusqu'à 1 500 t. L'avènement de ces nouveaux types de chalands n'était pas sans conséquence sur le réseau. En effet, le passage de pareils trains de bateaux remorqués à la vapeur présentait le risque de causer des dégradations sur les berges du fleuve dans les régions non pourvues de quais, par exemple les rives des îles entre Paris et La Briche. Pour y remédier, les ingénieurs envisagèrent de doter les zones sensibles de briques en béton reliées par des fils d'acier, ce procédé offrait un revêtement suffisamment solide 1198 . À Asnières, à la pointe l'île des ravageurs 1199 , l'expérience se révéla concluante et permit d'appliquer plus largement le procédé. En 1912, la Compagnie H.P.L.M. a établi un service entre Paris et Lyon (pour une durée de douze jours). Des services accélérés ont été établis sur l'Oise et la Basse-Seine. La durée moyenne du trajet Paris-Rouen variait de trois à cinq jours, et il fallait deux jours de plus pour atteindre le Havre. Ces progrès ont permis un abaissement du fret de 3 à 4 centimes avant le plan Freycinet à 1-1,8 centime à la remonte et 0,8-1,3 centime à la descente1200. 1197 Certains ont été construits à la suite des études sur la résistance à la traction de Barlatier de Mas et Charles Lavaud avaient des formes très particulières, les mariniers les surnommaient « Quo vadis ». Voir AMB C93-2, Georges Weil, « État de la navigation intérieure », in Journal de la Navigation Fluviale et Maritime, n° spécial du 13 avril 1939, p.28. 1198 Système Decauville. 1199 Au niveau de l'actuel pont de Clichy. 1200 Sachant que de nombreux bateaux revenaient à vide, voir Clément Colson, Transports et tarifs op. cit., pp.173-174. 361 Pourtant, ces résultats ne réjouissaient pas tout le monde. Plus que jamais, la batellerie de Basse-Seine se voyait accusée de favoriser les importations au détriment de la production nationale. Les différents projets de loi visant à améliorer les voies navigables avaient ravivé les débats sur l'efficacité réelle de la batellerie. Le plan Baudin avait suscité une véritable frénésie anti canaliste, dont l'un des principaux théoriciens était sans doute Clément Colson. L'argumentation de ce dernier pouvait être résumée assez simplement 1201 . À ses yeux, le transport fluvial n'avait pas produit les bienfaits qu'il était censé apporté à l'économie française. Pire encore, il constituait un instrument coûteux et la seule conséquence, pour lui, consistait à grever les finances des compagnies de chemins de fer. Dans le tome de son cours d'économie politique, il dresse un véritable procès contre les voies navigables. Il s'est évertué à montrer que leur coût de construction, surtout des canaux, n'était pas moins onéreux que celui des chemins de fer. Il n'admettait une certaine supériorité que sur les faibles distances et les rivières. Il souhaitait démontrer que sur tous les points, les voies ferrées constituaient un outil plus performant. La navigation intérieure s'était montrée incapable, selon lui, de faire face à la crise des transports qui éclata au moment de la reprise économique. En d'autres termes, au lieu de se lancer dans des dépenses importantes en faveur des voies navigables, il semblait préférable d'investir pour faire en sorte que les chemins de fer puissent transporter le « trop-plein » actuel1202. En effet, Yves Guyot, dans le chapitre III de son ouvrage La Crise des transports, intitulé « Prix comparés du transport par voie de fer et par voie d'eau », s'appuyant sur les thèses de Colson, défendait l'idée que les chemins de fer pouvaient proposer des tarifs aussi compétitifs que ceux de la batellerie. En outre, il démontrait que le même constat pouvait être formulé pour les voies fluviales allemandes et américaines dont les évolutions récentes servaient d'arguments pour les défenseurs de la voie d'eau 1203 . À y regarder de près, il n'est pas difficile de constater que Colson ne s'appuyait que sur des études hostiles à la navigation intérieure, élaborées et publiées essentiellement pour torpiller le plan Baudin en 1902 et plus tard la loi Barthou en 1908. Et plus encore, il s'agissait d'empêcher la construction du canal du Nord qui représentait un péril majeur pour la puissante compagnie du Nord. En un sens, le débat autour des modèles allemand et américain relevaient de part et d'autre de la rhétorique. Curieusement, avec d'autres, les ferristes préconisaient l'adoption du 1201 Clément Colson, Cours d'économie politique professé à l'École des Ponts et Chaussées, Paris, GauthierVillar, Félix Alcan, vol. 6 « Travaux publics et transports », 1910 (2e éd. 1924), pp.321-339. 1202 Yves Guyot, La crise des transports : illusions et réalités, Paris, Félix Alcan, Éditeur, Librairies Félix Alcan et Guillaumin réunies, 1908, 93p. 1203 Voir en particulier : Alfred Mange, « Les voies navigables de l'Allemagne », in Revue des Deux Mondes, 5e période, tome 7, 1902, pp. 552-591 ; André Charguéraud, « Canaux et chemins de fer dans l'État de New York », in Revue politique et parlementaire, juin 1902, pp.474-492. 362 modèle anglais, plus rationnel selon eux, car entérinant l'évolution des techniques 1204 . En réalité, cela signifiait l'abandon pur et simple de la batellerie. Les conséquences pouvaient être encore plus graves pour la France, dans la mesure où celle-ci ne disposait pas de ressources en charbon équivalentes qui auraient pu compenser au moins en volume le déclin de la batellerie en terme relatifs. D'ailleurs, si la navigation intérieure anglaise a connu un déclin certain, les conditions naturelles liées à l'insularité britannique mirent en mesure le cabotage de concurrencer les chemins de fer. En un sens, on peut se demander si le cabotage n'a pas joué un rôle comparable à celui de la batellerie en France et en Allemagne de modérateur des tarifs ferroviaires ? Plus largement, le discours développé par Colson et consorts faisait preuve d'une abstraction excessive1205. En effet, les effets de la concurrence entre les deux modes ne se mesuraient pas simplement en termes quantitatifs, mais qualitatifs. Les voies navigables ne transportaient pas forcément les mêmes qualités de charbon, et il n'était pas certain que les chemins de fer aient pu ou désiré les transporter en cas d'abandon de la navigation intérieure1206. Pour les obliger, il aurait fallu renforcer encore la réglementation, alors que les ferristes dénonçaient justement le fait que les contraintes réglementaires imposées aux voies ferrées empêchaient celles-ci de se battre à armes égales avec leurs rivales1207. L'abandon des voies navigables n'aurait pourtant procuré guère d'avantages à cet égard. Là résidait encore un des paradoxes de la pensée libérale de l'époque, que l'on a déjà souvent évoqué : le libéralisme nécessitait une intervention étatique à quel niveau que ce fût. L'âpreté de la concurrence a pu même contribuer à davantage de bureaucratie et d'État, ne serait-ce que pour en formuler les règles et garantir son application. L'intervention des pouvoirs publics à plusieurs reprises pour sauver les voies navigables ne visait pas moins à garantir des conditions de la concurrence face aux chemins de fer. De la même façon, ils sont intervenus en 1883 afin de sortir les compagnies de chemins de fer de leurs difficultés financières, car les voies ferrées avaient été considérées comme le moyen de remettre en cause les positions oligopolistiques des modes de transport traditionnels1208. La véritable faiblesse des arguments ferristes résidait dans leur tendance à envisager la batellerie comme formant un ensemble 1204 Albert Demangeon, « La navigation intérieure en Grande-Bretagne », in Annales de Géographie, 1912, volume 21, numéro 115, pp. 40-49. 1205 Ferdinand Arnodin, La lutte économique des transports, Paris, Librairie des sciences politiques et sociales Marcel Rivière, 1909, p.18. 1206 Émile Aimont, « L'outillage national », in Revue Politique & Parlementaire, juin 1902, p.241. 1207 Clément Colson, Transports et tarifs : régime administratif des voies de communications. Conditions techniques et commerciales des transports, 1908, 863p. 1208 Alfred De Foville, La Transformation des moyens de transport et ses conséquences économiques et sociales, Paris, Guillaumin, 1880, p.237. 363 homogène, alors qu'elle était composée d'une variété d'acteurs : mariniers, compagnies de touage, de remorqueurs La Compagnie était un des rares acteurs à pouvoir offrir des services comparables à ceux de ses homologues des chemins de fer, ce qui explique qu'elle cherchait à calquer les pratiques tarifaires de ces dernières, ce que ne manqua pas de souligner Colson1209. Pourtant, il existait d'autres acteurs aussi puissants, mais de natures distinctes, à savoir les entreprises d'extraction de sables et autres matériaux de construction, qui possédaient des flottes très puissantes. Nénamoins, il ne s'agissait pas par nature de compagnies de transport généralistes comme l'étaient les compagnies de chemins de fer ou les grandes compagnies de remorquage ou de touage. On pourrait encore citer les compagnies de transport de voyageurs qui proposaient des services très différents. La comparaison entre les deux modes perdait toute signification sans prise en compte de cette variété de natures entre les protagonistes. Au sein même des voies navigables, cohabitaient des acteurs ayant des visées très spécifiques, voire contradictoires. Par exemple, une compagnie de remorqueurs sur la Basse-Seine avait plus intérêt à promouvoir l'approfondissement de la Seine qu'une compagnie de touage. A contrario, le creusement du canal du Nord présentait moins d'attrait que pour les mariniers convoyant les houilles des régions du Nord vers la région parisienne. Graphique 36. Répartition modale à Paris 1883-1912. 100% 80% 60% Voies ferrées 40% Voies navigables 20% 1911 1909 1907 1905 1903 1901 1899 1897 1895 1893 1891 1889 1887 1885 1883 0% 1209 Clément Colson, Cours d'économie politique professé à l'École des Ponts et Chaussées, Paris, GauthierVillar, Félix Alcan, vol. 6 « Travaux publics et transports », 1910 (2e éd. 1924), pp.321-339. 364 Source : Ministère des Travaux publics. Direction des routes, de la navigation et des mines. Statistiques de la navigation intérieure, Nomenclature et conditions de navigabilité des fleuves, rivières et canaux. Relevé général du tonnage des marchandises. Années 1883-1912. Si les voies navigables montraient des limites par rapport aux voies ferrées, telles que le faible fret de retour, l'intensité de l'activité fluviale n'en demeurait pas moins étonnante à Paris. La population parisienne avait considérablement crû pour s'élever à 2,7 millions de personnes, alors que celle de la banlieue s'accroissait encore plus rapidement, atteignant le million d'habitants1210. Les besoins de la métropole se révélaient de ce fait considérables et les chemins de fer ne pouvaient assumer à eux seuls l'approvisionnement de la capitale : « Ce ne fut point, ce ne sera jamais trop, que deux systèmes de transport, pour procurer à une telle agglomération humaine la masse de choses dont elle a besoin, afin de vivre et de produire1211! » Les arrivages par voie fluviale ont ainsi doublé entre les années 1880 à la première décennie du siècle suivant, passant de 4,6 millions de tonnes en 1885 à 9,1 millions en 1909. Ils ont connu un gain de plus de 20% entre 1900 et 1909. Les marchandises arrivées, en 1908, aux gares et quais compris dans la seule enceinte de Paris représentèrent un tonnage total de 13,4 millions de tonnes. Près de 53% d'entre elles, c'est-à-dire 7 millions de tonnes, avaient été acheminées par chemins de fer, le reste, soit 6,3 millions ou 47%, l'avait été par le fleuve. Encore fallait-il noter un léger avantage pour la batellerie autour des années 19091911, ce qui permettait à un contemporain d'affirmer : Voici d'assez nombreuses années qu'elle est telle, en se modifiant légèrement à l'avantage de la batellerie. Ainsi navigation et chemins de fer se partagent de façon sensiblement égale la tâche d'approvisionner la capitale. Les voies ferrées n'y suffiraient point. Songez à l'étendue des lignes et des gares, au fantastique mouvement des trains, qu'exigerait le doublement de leur trafic en marchandises ! Quelle lenteur à redouter, quels risques d'accidents ! Et quelle surélévation des prix n'entraînerait point un tel monopole 1212. Les causes de l'énorme écart entre le tonnage des chargements et des déchargements étaient multiples. La principale consistait dans le fait que Paris était un centre de consommation de premier plan. Dans le même temps, la ville et sa banlieue étaient le siège de nombreuses industries qui recevaient d'importantes quantités de charbons1213, de matériaux de 1210 Dans le département de la Seine. François Maury, Le port de Paris, op. cit., p.208. 1212 François Maury, Le port de Paris, ibid. 1213 Le service des mines faisait ressortir que la quantité de combustibles minéraux déchargés dans le département de la Seine, autrement dit Paris et sa banlieue, avait atteint 4,2 millions de tonnes en 1897. Dans ce tonnage, 4,1 millions de tones étaient destinées à la consommation locale, et seulement 135 000 furent réexpédiées. Cette disproportion vraiment considérable confirmait donc le rôle de port de consommation des ports de la région parisienne. Si l'on ajoutait aux 1,16 million de déchargées à Paris, les houilles débarquées dans les ports de banlieue, à savoir 637000 t, il apparaissait que les voies fluviales avaient participé à l'approvisionnement de la zone parisienne pour 1,8 million t. La différence de 2,4 millions de tonnes représentait 1211 365 construction, des matières premières et des produits agricoles qui étaient soit employés ou consommés sur place, soit travaillés pour être réexpédiés sous forme d'articles industriels ou de produits alimentaires. Les chargements étaient constituées dans une large proportion de produits manufacturés d'une valeur supérieure, pour un même poids, à celle des déchargements, mais ne formant qu'un tonnage plutôt modeste. Dans les gares de chemins de fer, le mouvement des marchandises offrait un contraste comparable entre le tonnage des chargements et celui des déchargements. Les premiers ne représentaient que 26% du mouvement total, alors les seconds en constituaient 72%. L'écart se révélait toutefois moins marqué que pour la navigation. Les chemins de fer l'emportaient de beaucoup sur la voie d'eau pour ce qui touchait le transport des produits fabriqués. Ces derniers pouvaient effectivement supporter plus aisément un prix de fret supérieur à celui des transports que la batellerie accomplissait le plus souvent, et qui consistaient essentiellement en des marchandises pondéreuses de peu de valeur. Les acquéreurs étaient des commerçants susceptibles d'emmagasiner un chargement de 300 tonnes, voire jusqu'à 1 000 tonnes. Les grands marchands de charbon, bois, blé, sable et usiniers de banlieue étaient les seuls à prescrire des arrivages par eau1214. 2. Une activité hors conjoncture ? La redéfinition de la batellerie entreprise au milieu du XIX e siècle avait porté ses fruits. La navigation dans la région parisienne s'était profondément transformée. La récession ayant touché le pays durant la seconde moitié du XIXe siècle ne sembla guère avoir affecté son activité. Au contraire, le trafic connut un essor considérable et quasi constant. Les mesures et travaux entrepris depuis le Second Empire et surtout le plan Freycinet ne s'avérèrent pas vains. L'interrogation consisterait à déterminer dans quelle mesure l'action publique se révéla nécessaire ? L'évolution aurait-elle été similaire sans le plan Freycinet ? Certains libéraux tendraient à en souligner les limites1215. Or, la plupart des études critiques récentes envisagent de manière exclusive les chemins de fer et tendent à négliger la navigation fluviale1216. En effet, force est de constater que les investissements produisirent des le tonnage des combustibles minéraux convoyés par les chemins de fer, lequel tonnage comportait la consommation de ces derniers. ACCIP IV-4.61 (32), Outillages des ports, 1898. 1214 François Maury, Le port de Paris, op. cit., p.211. 1215 Voir notamment, Yves Guyot, 500 millions à l'eau : les voies navigables et le plan Baudin, Paris, Librairie Guillaumin et Cie, 1902, 60p ; pour une analyse critique contemporaine, consulter : David Le Bris, « Les grands travaux du plan Freycinet : de la subvention à la dépression ? » ; in Entreprise et histoire, avril 2012, n°69, pp.869. 1216 De même, ils tendent à omettre que celui-ci n'a pas été que partiellement appliqué. Pour ce qui est de la batellerie, les liaisons entre bassins n'ont guère été mises en oeuvres. 366 résultats, au moins pour la navigation séquanienne. Non seulement ces aménagements sauvèrent la batellerie du déclin provoqué notamment par l'émergence des chemins de fer, mais mieux encore, son activité progressa dans des proportions considérables. En un sens, l'avènement des chemins de fer s'était révélée salutaire en l'obligeant à se moderniser, et de façon plus profonde, à sortir des impasses qui s'étaient esquissées durant la première moitié du XIXe siècle. Cette évolution a priori singulière questionne sur l'ampleur et la nature de la crise économique. En apparence, cette progression impressionnante tendrait à en relativiser l'impact. La caractéristique des crises des sociétés industrielles réside sans doute dans le fait qu'elles ne se manifestent pas forcément de pures régressions. Leur nature s'avère 'plus complexe que pour les crises « traditionnelles » de subsistances ayant frappé les sociétés pré industrielles Or, dans les sociétés industrielles, si l'activité ralentit, elle ne s'écroule pas nécessairement. Plus encore, ces crises semblent préparer la prochaine reprise Quoiqu'il en soit, la batellerie paraît avoir profité de cette récession, au prix, il est vrai, d'efforts héroïques1217. La crise incita l'industrie et le commerce à exiger des prix de transport moins onéreux et privilégier des tarifs bas à la vitesse par rapport à la seule souplesse du transport Ce constat était d'autant plus vrai pour les activités nécessitant d'importantes quantités de matières premières. Les efforts consentis de modernisation du réseau fluvial, ainsi que la profession batelière, semblent avoir été récompensés, en tenant compte de l'accélération du trafic du port de Paris à la Belle Époque La nécessité de faibles tarifs pour les transports était devenue moins nécessaire à la faveur de la meilleure conjoncture de la Belle Époque, mais l'essor de nouvelles industries en région parisienne, issues de la seconde révolution industrielle ouvrait de nouvelles perspectives. La navigation trouva ainsi de nouveaux débouchés par l'implantation de nouvelles industries dans et en dehors de Paris, ce qui explique l'accélération de la progression du trafic 1218 .' La capacité productive et la productivité se sont considérablement accrues, le nombre des machines installées doublant, tandis que leur puissance quadruplait. Un nouveau cycle économique semblait s'enclencher : gaz, électricité, pétrole, automobile, et même aéronautique. 1219Le contexte économique était 1217 Le plus frappant est que des trafics subsistent dans les réseaux très secondaires, par exemple dans les canaux du Centre, au prix, il est vrai, à des renonciations de la part des bateliers : vie de famille dans le bateau, halage humain parfois Les mariniers se contentent parfois de transporter quelques tonneaux vides. Michèle Merger parle de « frets de misère ». La force de cette batellerie est qu'elle ne mobilise que peu de capital. 1218 Bernard Marchand, Paris, histoire d'une ville XIXe-XXe siècle, Paris, Éditions du Seuil, 1993, pp.193-205. 1219 Bernard Marchand évoque un renouveau de la navigation à partir de 1900 (Bernard Marchand, Paris, histoire d'une ville XIXe-XXe siècle, Paris, Éditions du Seuil, 1993, p.198). Celle-ci aurait été ainsi délaissée depuis le Second Empire. Si l'on peut le suivre sur le volume que prit la voie d'eau à la Belle époque, les statistiques montrent au contraire plutôt une continuité du trafic fluvial depuis au moins le tournant libéral du Second Empire. Comme on le verra, un tel constat interroge sur la signification de la crise économique de la seconde moitié du XIXe siècle, ou tout au moins, ses répercussions sur la capitale française. 367 devenu particulièrement favorable grâce l'Exposition universelle et la construction du métropolitain. En effet, l'Exposition universelle de 1900 1220 prenait le fleuve comme axe principal. L'axe des Invalides se trouvait prolongé sur la rive droite jusqu'aux ChampsÉlysées. Cela impliquait des travaux considérables : édifications du pont Alexandre III, des Grand et Petit Palais Trois passerelles assuraient la traversée du fleuve par les visiteurs. La tranchée du chemin de fer riverain des Moulineaux fut recouverte et transformée après l'exposition en jardin promenade Graphique 37. Trafic par matières premières dans la traversée de Paris 1883-1913. 9 000 000 8 000 000 7 000 000 Houilles Tonnages 6 000 000 Matériaux de construction Engrais 5 000 000 Produits métallurgiques 4 000 000 Produits industriels 3 000 000 Produits agricoles et denrées alimentaires Bois 2 000 000 1 000 000 1883 1885 1887 1889 1891 1893 1895 1897 1899 1901 1903 1905 1907 1909 1911 1913 0 Source : Ministère des Travaux publics. Direction des routes, de la navigation et des mines. Statistiques de la navigation intérieure, Nomenclature et conditions de navigabilité des fleuves, rivières et canaux. Relevé général du tonnage des marchandises. Années 1883-1912. 1220 Pierre Casselle, Paris républicain 1871-1914, Paris, BHVP-Hachette, pp.277-289. 368 Tous ces travaux de construction et de démolitions signifiaient un surcroît considérable d'activité pour la batellerie, tant pour acheminer les matériaux que pour évacuer déblais et gravats De façon identique, les travaux du métropolitain participèrent à l'essor des sablières, et donc de leurs transporteurs, même si la Compagnie du Métropolitain représentait un concurrent potentiel, dans la mesure où le creusement des galeries produisait du sable et tendait à faire pencher les prix à la baisse. Toutefois, les volumes de déblais à retirer étaient tels que leur enlèvement par la voie d'eau représenta une activité des plus rentables pour les acteurs de la profession, comme la société Piketty, Leneru, Garçin et Cie1221. Avec l'avènement notamment du béton armé 1222 , l'évolution des techniques du bâtiment signifia la prospérité de l'activité d'extraction de matériaux de construction, notamment du sable. Cela impliquait donc d'extraire et de transporter en masse ces matériaux, c'est-à-dire de passer d'une activité artisanale à une échelle industrielle. Cette mutation du marché supposait une restructuration profonde du secteur. Les cousins Charles et Paul Piketty décidèrent ainsi de modifier le statut juridique de leur entreprise en société anonyme. Le 12 mai 1906, l'ancienne société dissoute, faisant apport de ses actifs indivis à une nouvelle société baptisée « Compagnie des Sablières de la Seine ». Celle-ci se trouvait dotée d'un capital de 3,3 millions de francs, divisé en 6 600 actions de 500 francs. L'assemblée générale constitutive de la C.S.S. s'est tenue le 6 juin 1906 à Paris1223. 1221 Jacques Macé, « Le temps des sablières à Vigneux, Draveil et dans le Val-de-Seine », in Bulletin n°73 de la Société historique et archéologique de l'Essonne et du Hurepoix, Archives départementales de l'Essonne, p.2. 1222 Charles Piketty, ingénieur de l'école des Arts et Manufactures, s'était également lancé dans l'exploitation de la pierre meulière en fondant la société Bouton et Piketty, tout en demeurant actionnaire de la C.S.S. En 1910, l'entreprise prit le nom de Piketty et fils, elle était dirigée par Charles Piketty et ses trois fils : Maurice, André et René. L'activité de la société Piketty et fils s'est considérablement développée. Sur le plateau de Grigny, elle a établi d'importantes installations destinée à descendre la meulière jusqu'à la Seine. Elle recruta plusieurs centaines de carriers, émigrés d'origine majoritairement italienne. En effet, la meulière était devenue un matériau très en vogue. Plus « noble » que le sable, cette pierre présentait divers avantages : légèreté, isolation thermique, une rugosité offrant une excellente adhésion des liants. En outre, son inaltérabilité incitait à l'employer en soussol, c'est la raison pour laquelle elle servit abondamment pour les ouvrages d'art : voûtes des souterrains, égouts, écluses, etc. Par ailleurs, elle est devenue un des matériaux de choix pour la construction des pavillons de banlieue. 1223 Le siège social était situé au 2, quai Henri IV à Paris, emplacement symbolique pour la navigation fluviale. 369 Graphique 38. Trafic des cailloux et assimilés en provenance ou en direction de la Haute-Seine 1891-1913. 5 000 000 4 500 000 4 000 000 Tonnages 3 500 000 3 000 000 2 500 000 2 000 000 1 500 000 1 000 000 500 000 1891 1892 1893 1894 1895 1896 1897 1898 1899 1900 1901 1902 1903 1904 1905 1906 1907 1908 1909 1910 1911 1912 1913 0 Source : Annuaire statistique de la Ville de Paris, années 1891-1913. Les transformations structurelles de cette activité étaient impressionnantes. En à peine deux générations, l'entreprise était passée à une structure artisanale à une structure capitaliste et managériale. Dès son premier exercice, la C.S.S. afficha un profit de 300 000 francs et distribua un dividende de six pour cent. En 1907, le bénéfice a encore progressé pour atteindre 388 000 francs toutefois, l'année suivante, l'ensemble des sociétés sablières du bassin séquanien se trouvèrent confrontées à de graves mouvements sociaux, les événements de Draveil-Vigneux et Villeneuve-Saint-Georges figurèrent parmi les éléments fondateurs du syndicalisme français. La prospérité du trafic des matériaux de construction ne devait effectivement pas éclipser un climat social délétère. Les conditions de travail des ouvriers travaillant dans les sablières n'avaient rien à envier à celles des mines. Certaines tâches devaient être exécutées dans l'eau en toute saison. Les journées de travail excédaient souvent 12 heures, toute la semaine. Le salaire horaire de base d'un terrassier s'élevait tout juste à 50 centimes. À la faveur de l'essor du secteur du bâtiment et des travaux publics, les besoins en main-d'oeuvre ne cessèrent de progresser, la population ouvrière dans ce secteur s'élevant autour de 600-800 personnes, souvent originaires de provinces moins favorisées (Bretagne, Languedoc). La mécanisation de cette activité a ainsi paradoxalement contribué à la mobilisation d'un nombreux personnel, car certaines tâches manuelles demeuraient nécessaires, comme la « découverte », c'est-à-dire l'enlèvement de la couche superficielle de terre et d'herbe afin de 370 mettre à nu la couche de sable. La mécanisation tend même à aggraver la pénibilité des tâches manuelles, car les opérations mécaniques ne sont pas intégrées dans des processus continus. En outre, certains travaux étaient rémunérés à la tâche, ce qui rendait d'autant plus précaires les conditions de travail en cas de défaillance et contribuait à désolidariser les ouvriers. Les accidents du travail (membres happés par les machines, écrasements par rupture d'élingues, etc.) et les noyades étaient courants. L'alcoolisme n'aidant pas 1224, l'espérance de vie des terrassiers ne pouvait guère excéder la cinquantaine. Dans le même temps, le secteur s'était profondément restructuré afin de faire face à l'essor de l'activité. C'est la raison pour laquelle certaines entreprises fondèrent la structure nommée Compagnie des sablières de la Seine en 1906, celle-ci devait permettre la location de terrains au meilleur prix. En même temps, chacune des sociétés participantes gardaient le contrôle de son exploitation. Cette optimisation des profits fonciers avait pour corolaire une pression à la baisse des salaires horaires qui tombèrent de 50 à 44 centimes. Les conflits sociaux résultaient des bouleversements que connaissaient la profession, le passage de sociétés artisanales, entrepreneuriales atténua les liens qui unissaient les petits patrons avec leurs employés, ne serait-ce parce qu'ils travaillaient sur le terrain avec leurs ouvriers1225. L'arrivée de migrants contribua sans doute aussi à délier les liens traditionnels et l'expansion même du marché incitait à pressurer les coûts. Le mouvement social de 1908 avait eu un précédent. En effet, les carriers des sablières de Draveil avaient déclenché une grève dès juillet 1907. Ils avaient obtenu une hausse 50 centimes sur leur salaire horaire. En outre, ils avaient réclamé un contrat de garantie pour l'ensemble des chantiers 6. Le 18 novembre 1907, une nouvelle grève avait été lancée dans le secteur de Vigneux. À l'issue de cette grève de courte durée (quatre jours6), les grévistes créèrent le syndicat des carriers-puisatiers-mineurs de Chevreuse . Le syndicat des terrassiers est dirigé par Jacques Ribault, un modéré décrit par Le Temps comme « calme, réfléchi, intelligent »45. Le lendemain du 1er mai 1908, la grève reprit avec davantage d'intensité, car les débardeurs de sable accompagnèrent les carriers. Ils exigèrent une augmentation de salaire de 20 centimes de l'heure (pour un salaire total de 70 centimes de l'heure), l'abolition du travail à la tâche, la reconnaissance du syndicat, la suppression des débits de boisson tenus par les contremaîtres, et enfin la journée de 10 heures et le repos hebdomadaire, 1224 Les débits de vin étant tenus par les contremaîtres. Sur l'ensemble du secteur du BTP, voir Dominique Barjot, « La grande entreprise française de travaux publics (1883-1974) : contraintes et stratégies », Thèse d'État, sous la direction de François Caron, Université Paris IV-Sorbonne, 1989, pp.56-65. 1225 371 cette dernière mesure étant un droit acquis par la loi votée sous le cabinet Sarrien4. Le mouvement est suivi par le syndicat parisien des terrassiers. À partir du 18 mai 1908, le conflit s'est profondément radicalisé, les 26 compagnies concernées se sont elles-mêmes organisées en syndicat patronal à travers la création de la Société des Carrières de la Seine. Ces compagnies formulèrent ainsi leur désir de fermer les portes à la négociation, ce qui conduisit à un conflit d'une brutalité exceptionnelle. Les patrons s'efforcèrent par tous les moyens de forcer le redémarrage de l'activité. Pour ce faire, ils recoururent à des « renards » dans le but de mettre un terme à la grève6. À partir du 23 mai, les grévistes répliquèrent de manière tout aussi radicale en lançant la « chasse aux renards » afin d'empêcher la reprise du travail. L'enlisement du conflit contribua à lui conférer une dimension nationale. Le gouvernement Clemenceau s'est trouvé mis en accusation à la Chambre, mais sa majorité continua à le soutenir. Si Clemenceau reconnaissait également la légitimité de la grève, mais seulement jusqu'au 23 mai. En effet, il est profondément hostile à l'hostilité des grévistes contre les briseurs de grève, cela au nom de la « liberté de travail ». Devenu républicain et légaliste, les désordres devaient cesser le plus tôt possible. Par son attitude, le « tigre » a souvent été accusé de s'être rangé du côté des intérêts du patronat et de la bourgeoisie, mais son principal tort consista sans doute à s'être trouvé au moment et à occuper le poste le plus ingrat en de telles circonstances. Son caractère légaliste l'amena à préférer le retour à l'ordre, dusse-t-il aller à l'encontre de ses propres convictions1226. Aux tensions entre grévistes et nongrévistes s'ajoutèrent les heurts entre ouvriers et gendarmes qui causent la mort de deux ouvriers le 2 juin. La grève s'est poursuivie le 30 juillet, la marche des chômeurs organisée par la CGT à Draveil dégénéra, et la cavalerie chargea les barricades dressées par les manifestants à Villeneuve-Saint-Georges. Le bilan s'est révélé lourd avec plusieurs morts et des centaines de blessés. Le lendemain, les chefs de file de la CGT furent arrêtés. Le mouvement sembla s'essouffler ou épuisé, puisque l'annonce d'une nouvelle grève pour le 3 août ne connut pas de suite. Le 4 août, le comité de grève se vit dans l'obligation d'accepter les propositions de la compagnie. En définitive, les mouvements sociaux qui ont touché les sablières n'ont guère affecté le trafic des ports parisiens. Si le transport des matériaux de construction a reculé en 1908 de 20% par rapport à 1907, la baisse du trafic global s'est révélée de moindre ampleur, 1226 Michel Winock, Clemenceau, Paris, Perrin, collection tempus, 2011, pp.433-437. 372 soit 10%. En outre, le recul du trafic a été largement compensé l'année suivante (+12%)1227. Plus encore, les problèmes rencontrés par les sablières entre 1907 et 1911 étaient le résultat de la mobilisation d'un personnel pléthorique peu qualifié et mal rémunéré, nécessaire aux différentes étapes de manutention. Un moyen d'éviter le renouvellement de ces mouvements consistait à accroître la mécanisation des chantiers, notamment en lançant la fabrication d'un nouveau type de drague contribuant à simplifier un certain nombre d'opérations : lavage permettant de séparer la glaise du sable et criblage simultané des matériaux1228. De manière cynique, ces différentes crises sociales se sont révélées positives pour les sablières dans la mesure où elles ont constitué une opportunité pour moderniser la production. Un autre élément intéressant réside dans le fait que ces mouvements étaient la conséquence de la mise en place et le succès d'un système technique et économique. L'agitation des terrassiers des chantiers du Métro à Paris remontait dans les années précédentes. Ainsi on voit apparaître Ricordeau comme principal acteur des grèves de novembre et décembre 1905, puis celles de mai 1906. Ces grèves reprirent d'intensité au premier semestre 1907, puis à l'hiver 1907. La revendication principale consistait dans le paiement de la « plus-value », soit une prime journalière de 1 franc pour travaux en milieu insalubre. Les terrassiers de Draveil-Vigneux se situaient dans la boucle des travaux de construction du Métro, et il est frappant de constater que les revendications étaient assez proches. Cela paraît donc clairement comme un effet des liens entre l'activité d'extraction et les travaux parisiens. En effet, les conducteurs de péniches se trouvaient en contact permanent avec les deux milieux, les terrassiers qui travaillaient sur les travaux du métro et les terrassiers des sablières qui d'une part extrayaient les matériaux de construction, mais également procédait au recyclage des déblais évacués depuis Paris. Il ne faisait guère de doute que les mariniers, qu'ils soient indépendants ou qu'ils fassent partie de la flotte des sablières aient contribué à la circulation des idées. À un réseau technique s'était ainsi greffé un réseau social. La situation économique parisienne de la fin du XIXe siècle s'était caractérisée par un contexte de dépression économique. Près du quart des entreprises à Paris sous le Second Empire avaient déjà disparu en 1900. Les plus affectées travaillaient dans des activités traditionnelles, à l'instar du textile, de l'ameublement, des arts graphiques et de la métallurgie1229. La dépression économique expliquait en partie le départ des usines vers la banlieue, l'élévation des loyers et le manque de place constituaient des facteurs tout aussi 1227 Ministère des Travaux publics, Statistiques de la navigation intérieure, années 1907-1909. Cette drague s'inspirait de modèles conçus aux Pays-Bas. Elle été construite par l'entreprise Piat et Fougerol qui appartenaient à deux administrateurs de la C.S.S.), entre 1915 et 1916. 1229 Pierre Casselle, Paris républicain 1871-1914, Paris, BHVP-Hachette, pp.202-210. 1228 373 décisifs. Le nord-est de la ville se trouva plus spécialement affecté par ce départ des industries. Les zones à proximité des canaux et plutôt périphériques attirèrent les activités secondaires : la Villette et le canal Saint-Denis, Charonne et Picpus, Grenelle et Javel Les implantations industrielles se trouvaient facilitées par la possibilité de se fournir en combustibles. On comprend dès lors la localisation des premières centrales électriques et des usines à gaz sur les bords des canaux et de la Seine. Suivant cette logique, la Compagnie de chemin de fer Métropolitain de Paris implanta une usine de production électrique à Bercy à proximité du fleuve. Construite par l'architecte Paul Friesé, celle-ci fut mise en service en 19051230. La banlieue bénéficia ainsi de ce basculement des activités industrielles. Entre 1872 et 1896, l'effectif des entreprises parisiennes s'écroula de 76 000 à 60 000 (soit -21%), mais progressa dans la banlieue de 11 000 à 13 000 (+18%) 1231 . Toutefois, la main-d'oeuvre qualifiée demeura dans la capitale, et les usines considérées comme peu salubres migrèrent petit à petit en dehors de la capitale (par exemple, les usines de production d'énergie). La population de la périphérie progressa rapidement, ce qui poussa à la relier avec le centre. Lignes de tramways remplirent ainsi une fonction cruciale1232. Au cours des années 1890, le réseau de banlieue s'était ainsi étendu par la concession de petites compagnies indépendantes sur les parcours moyens et longs. La création d'une trentaine de lignes fut décidée à partir de 1896, la moitié étant affectée aux liaisons intra-banlieues et l'autre aux « liaisons de pénétration », autrement dit en direction de Paris1233. Il y eut comme un effet d'entraînement, dans la mesure où les industries avaient besoin de combustibles pour produire de l'énergie, tandis que leur raccordement aux réseaux routiers, ferroviaires et de transports publics exigeait de l'énergie, et par voie de fait faisaient appel à la production électrique de ces mêmes centrales Paris semblait devenir une ville tertiaire ou abritant la petite industrie1234. Toutefois, cette vision quelque peu systématique devait être nuancée. Les chiffres des recensements de 1896 et 1906, concernant le département de la Seine, laissaient entrevoir une image plus complexe que celle d'une capitale répandant sur sa banlieue exclusivement ses activités les plus polluantes. En un sens, le déclin industriel de la capitale s'avérait moins prononcé qu'il n'y paraissait. D'ailleurs, les statistiques de la navigation montraient moins un recul du trafic intra-muros qu'une accélération de celui de la banlieue. Mieux encore, le plus 1230 Gérard Jigaudon, « Industries et industriels » dans Gilles-Antoine Langlois, Le XIIe arrondissement, traditions et actualités, Paris, Action artistique de la Ville de Paris, pp.152-159. 1231 Alain Beltran, La Ville Lumière et la fée électrique. L'énergie électrique dans la région parisienne : service public et entreprises privées, Éditions Rive Droite-Institut d'Histoire de l'Industrie, 2002, p.25. 1232 Dominique Larroque, Michel Margairaz, Pierre Zembri, Paris et ses transports XIXe-XXe siècles. Deux siècles de décisions pour la ville et sa région, Paris, Focales, Éditions Recherches, pp.95-116. 1233 Idem., p.108. 1234 Alain Beltran, La Ville Lumière et la fée électrique,.idem, p.26. 374 remarquable réside moins dans la croissance de la banlieue que dans la robustesse du trafic intra-muros, et cela, en dépit des efforts obstinés pour limiter l'activité portuaire sur les quais de la Seine et des canaux. Cette suprématie ne sera vraiment entérinée que dans les années 1930. Toutefois, cela n'exclut pas pour autant des relocalisations des industries vers les périphéries de la capitale : le Paris dit « amont » dans les quartiers d'Austerlitz sur la rive gauche et de la Rapée et de Bercy, sur la rive droite et le Paris dit « aval » (Passy, Javel). Ces zones portuaires se trouvaient d'ailleurs en symbiose avec leurs banlieues immédiates, et constituaient avec elles la réalité du port de Paris : en amont, Ivry-sur-Seine, Charenton, Alfortville Il n'y avait d'ailleurs pas de rupture dans le paysage portuaire industrialocommercial entre Paris et sa proche banlieue. Le constat s'avère identique pour les canaux de Paris, autre zone portuaire parisienne majeure. Graphique 39. Trafics des différentes sections de la Seine dans la région parisienne 1882-1913. 14 000 000 12 000 000 3e section (de Montereau à Corbeil) Tonnages 10 000 000 4e section (de Corbeil à Paris) 8 000 000 5e section (traversée de Paris) 6 000 000 6e section (de Paris à la Briche 4 000 000 2 000 000 7e section (de la Briche à Conflans) 1882 1885 1888 1891 1894 1897 1900 1903 1906 1909 1912 0 Source : Ministère des Travaux publics. Direction des routes, de la navigation et des mines. Statistiques de la navigation intérieure, Nomenclature et conditions de navigabilité des fleuves, rivières et canaux. Relevé général du tonnage des marchandises. Années 1883-1913. Si cette même période est marquée par une foisonnante réflexion sur l'avenir du transport fluvial, elle ne se distingua pas par l'ampleur des investissements consentis. Pire encore, l'avenir du secteur batelier semblait plus ou moins compromis avec l'avortement du plan Baudin Les sénateurs privilégièrent l'approche consistant à améliorer les réseaux existants, mais excluant les nouveaux projets, dont certains comme le canal du Nord paraissaient pourtant vitaux La loi de 1902 était censée permettre au gouvernement d'exécuter par décret les entreprises votées. 375 Les transports ne suivent pas nécessairement l'évolution de la conjoncture économique globale, ou tout au moins, la simple mesure de cette dernière peut se révéler trompeuse. En effet, une dépression économique peut paradoxalement inciter à se déplacer davantage afin de chercher de nouveaux marchés Il en va de même pour le secteur de la construction, avec lequel la batellerie se trouve lié de façon étroite, l'adage « quand le bâtiment va, tout va », ne se vérifie pas toujours Le seul fait patent est que la région parisienne s'est étendue et industrialisée tout au long de la seconde moitié du XIXe siècle jusqu'en 1914, et cela en dépit des aléas de la conjoncture. Certes, la IIIe République s'est efforcée de compenser les effets du contexte de crise, dans la limite de ses possibilités, à une époque où l'intervention de l'État soulevait de vives réserves, notamment par la construction, d'établissements publics (établissements scolaires, mairies). Ce contexte semblait profitable au transport fluvial. Dans tous les cas, l'évolution du port de Paris oblige à nuancer les analyses que l'on peut établir globalement sur celle de l'économie, et sur la définition de la récession. B. La fin d'une époque : transformations dans la traversée de Paris. 1. La disparition inexorable des ports de tirage. Le XIXe siècle finissant, les marques traditionnelles du paysage fluvial parisien avaient quasiment disparu. Au cours des années 1890, la municipalité parisienne entreprit un remaniement complet de ses berges afin de parachever l'oeuvre d'enserrement du fleuve dans le tissu urbain. Le préfet de la Seine transmit au Conseil municipal un avant-projet établi à la suite d'une délibération par les ingénieurs de la navigation de la Seine1235. Cet avant-projet concernait la transformation en ports droits ou bas ports d'un certain nombre de ports de tirage existant alors dans Paris. Le préfet de la Seine proposait dans son mémoire, au Conseil municipal de souscrire à l'engagement de principe sollicitée par le ministre des Travaux publics. Il insistait plus particulièrement sur l'urgence de la transformation du port de tirage de la Rapée, projet impliquant une dépense globale de 700 000 francs. Le Préfet demanda au Conseil l'autorisation de prélever la somme de 350 000 francs, à savoir le montant de la part contributive de la Ville de Paris, sur le crédit à inscrire au budget supplémentaire de 1893. L'Administration se trouva sollicitée, sur l'initiative du Conseil municipal, à la rédaction d'un avant-projet en vue de la transformation en ports droits des ports de tirage1236. 1235 BHVP 111322, Conseil Municipal de Paris, Rapport présenté par M. Lazies au nom de la 3 e Commission (voirie de Paris-Travaux affectant la voie publique), composée de MM. Rousselle, président, Bassinet, viceprésident, Lazies, George Berry, Blachette, Caplain, Caron, Caumeau, Champoudry, chausse, Ferdinand Duval, Georges Girou, Alexis Muzet, Perrichont, Réties, Thuillier, 1894, n°16, 8p. 1236 Jean Millard, « Ports et paysage urbain », in Béatrice de Andia, La Seine et Paris, Action artistique de la Ville de Paris, p. 119. 376 De nombreux intéressés, commerçants et industriels, avait effectivement souligné l'intérêt quant à l'extension de la surface des ports de commerce soutenus par un mur droit du côté du fleuve. Le programme initial des travaux à effectuer pour assurer à la Seine un mouillage minimum de 3,20 m dans le bief de Paris comportait la construction ou la reconstruction d'un certain nombre de bas-ports dans la capitale : Passy, Grenelle, Orsay, Saint-Nicolas, La Tournelle et Henri IV. L'exécution de ces travaux semblait représenter une certaine amélioration par rapport à la situation antérieure, en étendant la longueur de murs des basports. Ceux-ci disposaient à leur pied d'un tirant d'eau de 3,20 m. L'effet réel de ces travaux sur l'accroissement du trafic s'avère difficilement mesurable, tout au moins, pouvait-on supposer qu'ils l'avaient tout simplement suivi1237. Quoiqu'il en soit, ils s'inscrivaient dans l'évolution de l'urbanisme dans la traversée de Paris. La transformation des quais ne visait pas prioritairement à renforcer l'activité portuaire, mais s'inscrivait dans une perspective d'embellissement urbain, d'enserrer le fleuve 1238 . Pire encore, il était à supposer que ces travaux constituaient un préalable au rejet des activités commerciales et industrielles du centre historique de la capitale. Le progrès accompli devait être donc nuancé L'achèvement en 1887 des bas-ports évoqués correspondit à un essor considérable du tonnage des marchandises ayant emprunté la voie d'eau. Les progrès de la batellerie dans Paris étaient à mettre en relation avec la double amélioration que représentaient l'augmentation du mouillage et l'extension de la longueur des bas-ports. Dans le même temps, ce résultat fut obtenu malgré un rétrécissement sensible de la superficie des quais. Si la longueur des murs droits avait été étendue, les surfaces disponibles pour l'embarquement, le débarquement et le stationnement des marchandises se réduisirent d'autant. L'accroissement du mouillage s'accomplit par une double opération : dragage des hautfonds de la rivière et la surélévation du barrage de Suresnes. Le relèvement du plan d'eau provoqua une perte de la surface initiale utilisée par le commerce, soit la partie noyée à la suite de la surélévation à un mètre de la retenue du barrage de Suresnes1239. Le recul des surfaces portuaires ne semble pourtant pas vraiment avoir affecté l'évolution du trafic, voire au contraire s'accompagna d'une extension considérable de l'activité batelière. Les contemporains en conclurent à la supériorité de ce nouveau type de quai, et ce, au détriment des ports de tirage qui passaient 1237 Le rapport Lazies n'hésite pas à trancher la question : « Cette amélioration peut être mise en évidence par l'extension même du trafic effectué par la voie du fleuve », p.2. 1238 Isabelle Backouche, La trace du fleuve, 1239 La largeur supplémentaire recouverte par les eaux variait suivant les pentes transversales, des différents ports entre 6 et 12 m de largeur. La réduction de la superficie destinée au commerce se montait au minimum 40000 m2. L'établissement des bas-ports ne limita guère cette réduction que dans des proportions fort négligeables selon les dires même du rapport Lazies. Ibid., p.4. 377 désormais pour des reliques d'un temps révolu. Ces derniers offraient certaines difficultés, non seulement pour l'accostage des bateaux, du fait de leur mode de construction, mais présentaient l'inconvénient de réduire la section navigable. Les plus souvent, un cordon d'enrochement protégeait la base de ces ports. Les bateaux se voyaient contraints de maintenir une certaine distance, au risque d'y être projetés brutalement sous l'action des vagues lors du passage des bateaux à voyageurs ou des remorqueurs progressant à haute vitesse Dans ces conditions, la manutention des marchandises à bras d'homme, se trouvait grevée de fais relativement élevés, conséquemment à l'établissement imposée d'un roulage sur les plats bords, d'une dizaine de mètres de longueur au minimum, destinés au franchissement compris entre le port de tirage et le bateau. Le relèvement du plan d'eau ne produisit pas de telles difficultés pour les opérations d'embarquement et de débarquement réalisés à l'aide de grues montées sur bateau. Si les frais de manutention supportaient mal une majoration aussi considérable, cette solution ne semblait guère satisfaire. Les engins mécaniques adaptés à ce type de port étaient d'un prix plutôt élevés. Ils devaient fonctionner avec les plus grandes précautions, de manière à être endommagés par les enrochements. Contraintes à se tenir au large, les grues ne pouvaient décharger les marchandises qu'à proximité de la ligne de baisse des eaux. Dans ces conditions, l'usage de ces engins, plutôt perfectionnés pour l'époque, dans les ports de tirage ne convenait que pour les matériaux ne craignant guère le contact l'eau Cette situation excluait des manutentions les marchandises plus fragiles et de valeur. Toutefois, concernant l'accostage des bateaux, une catégorie intermédiaire de ports offrait moins d'inconvénients que les ports de tirage, à savoir les « banquettes ». Ce type intermédiaire de port ne semblait pas malheureusement procurer des avantages identiques à ceux des bas-ports. En outre, les banquettes dans Paris présentaient une largeur trop limitée pour se substituer de façon économique aux bas-ports 1240 . Devant les grandes facilités et la sécurité accrue pour la tenue des bateaux, que procuraient les bas-ports, le commerce dans sa majorité, réclamait la transformation des ports de tirage. Les marchands de bois à oeuvrer constituaient néanmoins une exception notable. La canalisation de l'Yonne et de la Seine avaient déjà gravement affecté le commerce du bois 1241 ; le Syndicat des marchands de bois à oeuvrer émit plusieurs protestations en vue de faire pression auprès des ingénieurs de la navigation, davantage soucieux de la circulation et de l'embellissement parisien. Ces derniers consentirent à conserver dans leur état d'alors un certain nombre de 1240 Ibid., p.5. Les trains de bois étaient effectivement tombés en dessous de la centaine en 1894, soit 89 contre 149 l'année précédente. François Maury, 1911, p.289. 1241 378 ports de tirage : en amont, ceux de La Gare et de La Rapée, sur 200 m, en aval, celui de Javel1242. La dépense se répartissait entre l'État et la Ville de Paris. Au moment de la proposition de la transformation des ports de tirage, la situation des finances de l'État laissait entrevoir l'ajournement de l'opération suite au défaut possible de l'inscription au budget des crédits annuels nécessaires. Afin de parer cette difficulté, les promoteurs réfléchirent à plusieurs combinaisons en vue d'assurer l'exécution immédiate et pérenne des travaux. Dans la première de ces combinaisons, le département de la Seine et la Ville de Paris d'une part, et la chambre de commerce ou un syndicat des intéressés d'autre part, auraient avancé à l'État la somme nécessaire à l'exécution intégrale du projet. Ce dernier aurait remboursé le montant de sa part contributive par le biais d'annuités échelonnées sur un nombre important d'exercices, de telle sorte que les crédits annuels nécessaires s'avèrent modestes. Les fonds devaient s'effectuer par emprunt direct, via des obligations ou bien par un emprunt contracté auprès du Crédit foncier de France. Les intéressés devaient garantir la différence entre le taux de l'intérêt de l'emprunt et celui auquel auraient été calculé les annuités de l'État1243. Une autre combinaison reposait sur l'avance directe par la Ville de Paris à l'État qui demeurait chargé de l'exécution des travaux, du montant de la dépense nécessaire. L'établissement d'un droit sur les marchandises débarquées et embarquées sur les nouveaux ports à construire était censé assurer le remboursement de cette avance. Une dernière combinaison avait été imaginée, elle ne se distinguait de la seconde que pour ce qui touchait le mode de remboursement des avances à consentir à l'État, par le biais de la création d'une taxe d'occupation des ports, en conformité aux dispositions de l'ordonnance de 1840 prescrivant l'enlèvement des marchandises déposées sur les ports, soit journellement 50 tonnes. Cette prescription n'était toutefois guère observée et sur certains ports, les marchandises séjournaient pendant un temps considérable. Il en résultait une situation étonnante : les ports édifiés dans l'intérêt général avaient été transformés en entrepôts permanents au profit de quelques privilégiés. Cette situation s'avérait manifestement préjudiciable à certains usagers des ports qui se voyaient dans l'obligation de chercher loin un emplacement immédiatement disponible, ou de contenter d'un point d'accostage offrant une moindre sécurité ou plus onéreux pour leurs opérations. Ou bien encore, il leur fallait attendre 1242 Entre l'abreuvoir de l'époque et le port, dont l'activité était d'ailleurs d'une forte intensité. Selon le rapport, l'état du marché financier d'alors laissait à penser que cette garantie, même si elle s'était révélée nécessaire, aurait été modeste. Ibid., p.6. 1243 379 longtemps l'évacuation des marchandises occupant les emplacements les plus propices à leur activité. 2. Disparition des ports traditionnels dans la traversée de Paris. a) Disparition des derniers marchés. L'ordonnance de 1895 prévoyait encore le garage des bateaux de charbon de bois, à leur arrivée et pour la mise en vente de leur chargement, en fonction d'un roulement fort complexe, sur quatre ports : port des Ormes, quai Montebello, port d'Orsay et bassin du Temple. Deux navires au maximum pouvaient être exposés à ces places. En réalité, les Parisiens semblent s'être détournés progressivement de ce mode d'approvisionnement en Seine, tant et si bien que les bateaux de charbon en Seine tendaient à s'éterniser en Gare de l'Île Saint-Louis et aux aussi Les marchands finirent par supprimer ce mode de vente, rompant de ce fait avec la tradition et le lien organique unissant alors les Parisiens avec leur fleuve. Il ne demeurait au début du siècle qu'un seul marché fluvial, à savoir le marché du Mail, réservé aux fruits.1244 b) Un exemple de relocalisation vers la périphérie de Paris : le port d'Austerlitz. Les usagers du port Saint-Nicolas tergiversaient sur la nécessité ou non de quitter le centre historique de Paris. Ainsi, se posait la question du transfert du service des douanes alors situé au port Saint-Nicolas vers les magasins de la Société Concessionnaire des Entrepôts & magasins du quai d'Austerlitz, nouvellement établi en 1906. Situé face au Louvre, le port Saint-Nicolas ne disposait pas de magasins, ni d'installation spécifique pour le chargement et le déchargement des marchandises. Sa proximité au Louvre lui interdisait 1244 Situé le long de la Seine au bas du quai de l'Hôtel-de-Ville, entre l'actuel pont Louis-Philippe et celui d'Arcole, le port aux fruits, appelé également « le Mail » abritait un marché aux pommes, poires, etc. Les bateaux étaient disposés en boyards, c'est-à-dire perpendiculaires à la rive, disposition conservée jusqu'à la disparition du port. En 1884, 1885 et 1886, il avait été expédié au port aux fruits 208 bateaux de pommes pesant 10 196 t, 45 bateaux transportèrent les fruits ramassés en Auvergne, d'où la marchandise était expédiée par le chemin de fer aux docks de Montargis et réexpédiée par eau à Paris. Le séjour d'un bateau dans le port à près de 45 jours, soit 9 360 journées pour les 208 bateaux et pendant les trois années déjà considérées. La majorité des pommes étaient achetées par les commissionnaires des Halles et le reste par des titulaires des marchés de détail, les marchands des quatre-saisons et les messagers des environs parisiens. Hormis une faible redevance aux forts1244 pour le déchargement, soit 10,40 francs par 100 kg, les ventes étaient exemptes de tout droit. Fermé le reste de l'année, le marché ne s'ouvrait que l'automne, lorsque les fruits étaient mûrs. Vers 1900, les fruits étaient acheminés dans la plus grande partie du parcours par voie ferrée. Il ne faudrait pas complètement négliger cette fonction portuaire, les denrées étant tout de même stockées sur des péniches et une partie des denrées étant effectivement acheminées par voie d'eau jusqu'au niveau de l'Hôtel de Ville, ce qui n'était pas insignifiant pour la circulation intra-muros. Il s'agissait de la relique d'une fonction ancienne du commerce lié au fleuve, déclin largement entamé durant la première moitié du XIXe siècle. 380 d'installer des magasins adaptés. Les marchandises mises à quai devaient se contenter de bâches pour se préserver des intempéries Les opérations de douanes devaient s'accomplir à même le quai faute de place dans le petit magasin de la Compagnie. Elles s'avéraient impossibles par le mauvais temps qui interrompait dans le temps les manutentions. La nécessité de laisser les marchandises sur la voie publique obligeait à une surveillance jour et nuit, guère efficace, car les vols se révélaient fréquents. L'étroitesse et le peu de place restant pour déposer les marchandises, interdisait la dotation d'un matériel adapté, ce qui occasionnait des retards pour la clientèle et des surcoûts pour la Compagnie Maritime de la Seine : « En un mot, le port St Nicolas dépourvu d'installations & d'outillage, ne répond plus aux besoins du trafic et à l'extension prise par nos serves, et cela au détriment des intérêts du commerce franco-anglais1245 ». Les magasins d'Austerlitz proposaient un meilleur outillage et davantage de surfaces de magasinage. En outre, la proximité de la voie ferrée était susceptible d'étendre les services de la compagnie. En effet, les magasins d'Austerlitz devaient être prochainement raccordés au chemin de fer d'Orléans, autrement dit relié par la ligne de Ceinture aux autres réseaux1246. Le projet de port de douane d'Austerlitz comprenait deux parties contiguës et communicantes : l'une sur le quai, dont l'accès était public et l'autre dans les magasins d'Austerlitz. Le transfert du port Saint-Nicolas devait s'accomplir sans frais pour l'Administration des douanes qui aurait bénéficié de bien meilleures conditions de travail. Pourtant, la suite du projet se révéla plus délicate. La chambre de commerce procéda à une enquête qui conclut que certains industriels se trouvaient lésés dans l'affaire et préconisait d'attendre une résolution de la question de l'entrepôt réel des douanes. Le 25 octobre, la Préfecture de Police fit observer à la chambre de commerce l'intérêt de ce projet pour prémunir le musée du Louvre contre les incendies. Mais il semble que les clients de la Compagnie Maritime « La Seine » refusèrent finalement de signer une pétition en faveur du transfert, alors qu'ils étaient initialement demandeurs. Ils invoquaient le surcroît de distance, et les difficultés pour atteindre les magasins d'Austerlitz durant une partie de l'année concernant la traversée de certains ponts. Les inondations de 1910 résorbèrent de façon inattendue cette controverse, dans la mesure où toutes les installations de la Compagnie Maritime « la Seine » au port Saint-Nicolas furent emportées ou rendues totalement inexploitables. Cela impliquait une reconstruction complète du port, or les améliorations 1245 ACCIP IV-3,40 (30), Lettre de la Compagnie maritime de la Seine à Monsieur le Président de la Chambre de Commerce de PARIS, Paris, le 16 octobre 1908 (copie). 1246 ACCIP IV-3,40 (30), Lettre de la Chambre de Commerce à Monsieur de Directeur des Douanes de PARIS, Paris le 8 décembre 1908 (copie), p.3. 381 apportées sur la Seine, notamment au pont Notre-Dame améliorèrent considérablement la navigation pendant les mauvais mois1247. La « monumentalisation » des bords de Seine ne pouvaient que sonner la fin à plus ou moins long terme des activités portuaires intra-muros qui connurent d'ailleurs un recul constant tout au long du XIXe siècle. Cela explique le développement de ports aux pourtours de la ville (Austerlitz, port de Javel) et même au-delà en banlieue. La mise au mouillage de la Seine à 3,20 m offrait des conditions favorables à l'installation d'entrepôts bâtis en 19051906 sur le quai d'Austerlitz dans le cadre d'une concession. L'instruction de cette demande de concession avait été présentée en 1896, mais ne fut concrétisée qu'une décennie plus tard. Une première demande avait été formulée en 1888, mais sur le port de tirage de La Rapée. L'opposition des commerçants et industriels installés sur le quai empêcha l'aboutissement du projet. Périer de Féral conçut un nouveau projet, situé cette fois sur le port d'Austerlitz, où était installée la compagnie de chemins de fer d'Orléans et quelques commerçants. Le projet originel envisageait la construction d'un quai sur 370 m de longueur, bordé de magasins sur un unique étage, d'une surface de 13 000 m2. Le projet de Périer de Féral visait à remédier aux carences parisiennes sur le plan portuaire (outillage, capacités de magasinage). En effet, de simples bâches protégeaient les marchandises sur les ports, en dehors du port Saint-Nicolas qui disposait de quelques bâtiments modestes. La ville de Paris qui exportait avant tout des produits manufacturés avait permis la construction de hangars tout autour du bassin de la Villette et sur le terre-plein du bassin de l'Arsenal. Néanmoins, ces magasins ne pouvaient guère être étendus et s'avéraient insuffisants à certaines périodes. Ils étaient médiocrement aménagés, ce qui limitait considérablement leur usage, voire le rendait onéreux. Les marchandises en provenance de Rouen et du Nord à destination de la Haute-Seine devaient être transbordées à Paris. Quand les transbordements ne pouvaient s'effectuer rapidement, les marchandises devaient être amenées à la Villette afin de les placer en magasins. Cette dernière opération impliquait alors le versement de droits pour l'acheminement via les canaux de la Ville de Paris. Pour les ramener vers la Seine, il fallait soit recourir au camionnage ou bien encore les redescendre par les canaux, ce qui signifiait le paiement de nouveaux droits. Les installations de la Ville de Paris au port de la Villette n'étaient guère populaires auprès des usagers. Les neuf magasins des quais avaient été achetés d'occasion à l'occasion de la fin de l'Exposition universelle de 1878. Il s'agissait en réalité de simples abris dont la surface avait été déterminée par les matériaux que l'on avait désiré remployer. Les entrepôts appartenant à 1247 ACCIP IV-3,40 (30), Transfert des services de la Douane du port du Louvre aux quais et magasins d'Austerlitz, Paris, le 28 novembre 1911. 382 la société des Magasins généraux semblaient faire exception dans cet ensemble plutôt rudimentaire, l'un étant destiné à l'entrepôt des douanes1248, l'autre à l'entrepôt des sucres. Le projet initial connut toutefois de sensibles modifications entre la date de la première demande de concession, en 1896, et lorsque celle-ci fut finalement acceptée, en 19051249. La disposition des magasins envisageait initialement cinq étages d'une hauteur de 19 m audessus du niveau du quai d'Austerlitz. Cela provoqua des oppositions d'ordre esthétique. Le port d'Austerlitz témoignait de nouvelles préoccupations d'insertion des installations dans le paysage urbain environnant1250. Le commerce avait été effectivement jusque-là cantonné sur les bas-ports et les installations ne devaient pas dépasser les parapets des quais, en dehors des installations peu encombrantes, qui de ce fait ne pouvaient guère embarrasser la vue de la Seine et la perspective générale des quais1251. L'enquête publique qui suivit ne suscita plus aucune opposition, exception faite des entreprises de commerce de bois de construction et celles de transports par eau. En effet, ces dernières étaient finalement peu intéressées par les mouvements recherchés, concernant surtout des marchandises de valeur, et devaient de ce fait être convoyés par les chemins de fer. Périer de Féral sollicita la possibilité d'installer un étage supplémentaire à ses magasins. Cette demande ne rencontra plus les mêmes oppositions, en raison de l'édification d'un pont en hauteur devant la gare d'Orléans, qui devait servir au passage d'une ligne métropolitaine. Cet ouvrage masquait ainsi déjà considérablement la perspective offerte depuis le port d'Austerlitz. Malgré tout, le projet fut mené à bien de 1906 à 19101252. Une société fut constituée sous le nom de Société concessionnaire du port et des magasins d'Austerlitz, Périer de Féral en obtint la concession. Son activité se développa rapidement, captant les transports par eau de marchandises provenant du Centre et des canaux. Le port d'Austerlitz semblait offrir les conditions nécessaires à une installation portuaire. Les installations devaient en premier lieu correspondre à une nécessité dans la région parisienne, or le commerce parisien, surtout lié à la voie souffrait du manque de capacité d'entreposage. Les entrepôts permettant d'écouler 1248 Qui se trouvait initialement au port de l'ancien Entrepôt du Marais, puis fut transférée à la Rotonde de la Villette en 1865. 1249 AN F14 14706 (site de Pierrefitte-sur-Seine), Seine, Transformation du port d'Austerlitz, 1906-1913. 1250 Jean Millard, « Ports et paysage urbain », in Béatrice de Andia, La Seine et Paris, Paris, Action artistique de la Ville de Paris, p. 121. 1251 Suite à ce refus, le concessionnaire proposa un deuxième projet, faisant des magasins de simples hangars comprenant un rez-de-chaussée au niveau du bas-port, un étage au niveau du quai d'Austerlitz et une suite de grenier sous toiture, censés ne pas excéder la cote 41,14, à savoir 7 m au-dessus du bord du trottoir du quai. 1252 Il comprenait l'aménagement d'un port droit d'une longueur de 480 m, avec un mouillage de 3,20 m, de magasins en béton armé s'étendant sur une superficie de 22 000 m2, qui se répartissait sur un rez-de-chaussée, deux étages et une terrasse. Il pouvait abriter jusqu'à 60 000 t de marchandises avec l'outillage nécessaire. 383 plus rationnellement les marchandises au gré de la demande. Le second facteur devenait la situation géographique. Le site devait se révéler propice à la navigation : la Seine s'avérait à l'emplacement du port d'Austerlitz particulièrement large et profonde, autrement dit favorable à l'accostage des caboteurs ou des gros chalands. L'emplacement bénéficiait de la proximité de la capitale (1,5km de Notre-Dame), tout en ne gênant pas l'urbanisation de la ville. Le dernier facteur important consistait en l'outillage. Un port intérieur est forcément plus vulnérable qu'un port maritime, car il dépend de l'activité de celui-ci. Son outillage doit être par conséquent adapté, nombreux et performant tout en proposant un service attractif en termes de tarifs. Le port d'Austerlitz était doté de 21 treuils électriques, les manutentions manuelles étaient presque totalement supprimées. Telles sont les trois conditions réunies qui font la performance d'un port intérieur concentré. Les activités au centre de Paris n'offraient plus guère de perspectives, l'établissement des magasins d'Austerlitz devait compenser ce déclin. La création de cet établissement faisait écho à deux grandes préoccupations d'alors, à savoir l'amélioration des capacités d'entrepôts et de l'outillage. En un sens, il répondait aussi au dessein de faire de la capitale une grande plate-forme européenne. Son destin se révéla plus prosaïque, en satisfaisant d'abord les besoins d'entreposage locaux et en servant un cabotage fluviomaritime européen. L'un des principaux facteurs expliquant les limites de cet établissement réside dans le fait qu'en dépit de sa proximité avec la gare d'Austerlitz, aucun raccordement direct ne fut établi. Les magasins d'Austerlitz étaient principalement reliés au camionnage, ce qui orientait sa vocation vers le commerce local. On pouvait certes, effectuer des camionnages entre les magasins et la gare, mais cela générait un coût supplémentaire qui en réduisait l'attractivité. Pour des liaisons avec des destinations plus éloignées, il fallait compter surtout sur la batellerie ou même le cabotage. Or, la première n'était guère adaptée à des trafics des articles de valeurs et les magasins ne présentaient guère d'intérêt pour entreposer des matières pondéreuses. Cela explique le succès, relatif, du cabotage fluviomaritime qui pouvait répondre à ces critères très particuliers. II. LES LIMITES DU PORT DE PARIS : UN ARCHAÏSME AU SERVICE DE LA MODERNITÉ. A. Les défauts de l'outillage. Depuis le plan Freycinet, finalement, pas grand-chose n'avait été accompli en faveur des installations portuaires, et cela, malgré l'essor formidable du trafic. L'unification des 384 voies prescrites en 1879 qui paraissait sur le point d'achèvement, était une mesure touchant l'ensemble des ports intérieurs. Dans la capitale, elle ne s'était pas suivie d'une extension des installations du trafic de l'eau « Rien d'important n'y a été accompli » constatait François Maury1253. Comme on l'a vu, l'État s'était contenté de transformer quelques ports de tirage en ports droits en faisant appel au concours de la Ville pour le compte de l'Exposition de 1900. Hormis un approfondissement, la superficie du port municipal n'avait pas varié en un siècle depuis sa création. Au début du siècle, on avait lancé un plan d'agrandissement consistant en l'ouverture de deux nouveaux bassins Mais il demeurait encore à l'étude Les « performances » du port de Paris de 1900 à 1914 ne semblaient pas dues à la qualité de son outillage Que les contemporains percevaient comme un port mal outillé : « Le port, par suite, est dépourvu d'organes indispensables » 1254 . Celui-ci semblait fort handicapé. Cette question se révélait plus complexe qu'elle ne le paraissait de prime abord. Le matériel de manutention pouvait sembler insuffisant. Une dizaine de grues étaient posées sur une douzaine de kilomètres de quais de la Seine Sur une ligne similaire, sur les canaux, la Ville n'en disposait pas tellement plus. Or, ni l'État, ni la Ville ne les avaient établies. Elles étaient la propriété d'importantes sociétés de transport, et de ce fait, leur usage présentait une vocation privée. Leurs possesseurs mettaient toutefois une trentaine de grues à vapeur flottantes à disposition du trafic indépendant. Les commerçants devaient se résigner à se servir des bateaux comme magasins, les mariniers, aux jours de planches. Les conditions de manutentions n'étaient pas des plus idylliques. Les produits supportaient les heurts successifs inhérents aux déchargements par une main-d'oeuvre humaine éparse de qualité souvent aléatoire Cette lenteur était considérée comme source d'enchérissement des marchandises. Elle contribuait à décourager de nombreux importateurs, peu désireux d'immobiliser leurs capitaux, à faire appel à la voie d'eau. Cette même lenteur nuisait au transport des denrées de valeur et au factage1255 L'absence d'outillage « public1256 » ne signifiait donc pas l'absence totale d'outillage, mais cette situation rendait le commerce particulièrement dépendant, et de ce fait vulnérable au bon vouloir des détenteurs de grues qui les utilisaient prioritairement pour leurs propres besoins. Plus grave encore, les longueurs de quais tendaient à s'amenuiser sur les rives intra-muros gagnées par l'urbanisme. En conséquence, l'activité portuaire s'insérait dans une évolution contradictoire : d'une part, son trafic connaissait une expansion 1253 François Maury, Le port de Paris, 3ème édition entièrement refondue, Paris, Librairie Félix Lacan, 1911, p.283. 1254 Ibid., p.228. 1255 François Maury, p.229. 1256 C'est-à-dire de ports non destiné à un entrepreneur en particulier. 385 formidable, d'autre part, les possibilités qui lui étaient offertes pour développer son activité, reculaient de façon inexorable. Le secteur portuaire se trouvait ainsi pris en étau, l'équation semblait difficile à résoudre L'activité des petits commerçants et industriels s'en trouvaient menacées. Plus grave encore, celle-ci pouvait se reporter vers d'autres modes de transport De même, il fallait déplorer la quasi absence de hangars sur les berges de la Seine et du canal Saint-Denis, et cela, en dépit d'une activité industrielle intense. Les efforts étaient principalement consentis par des sociétés pour leur propre usage. Une société de meunerie avait ainsi établi quelques baraquements sur le port Saint-Bernard. De gros trafiquants avaient fait de même à l'Arsenal1257. B. Un port étriqué. 1. Encombrement des ports parisiens. L'encombrement des quais de la Seine constituait une des questions les plus brûlantes depuis la fin du XIXe siècle. Les ports maritimes les mieux outillés étaient jugés comme encombrés dès lors que leur manutention se montait à 200 000 t par an. En moyenne, les quais de Seine accueillaient un trafic kilométrique de 300 000 t. Celui des quais de la Villette excédait 600 000 t pour les deux bassins, dont 400 000 t uniquement concernant le grand bassin. Les 500 mètres de la gare de l'Arsenal reçurent un trafic kilométrique supérieur à 300 000 t 1258 Le défaut d'outillage public et la réduction des longueurs de quais exploitables aggravaient d'autant plus la situation du commerce portuaire parisien. Cette question dépassait largement le simple cadre des usagers, elle était révélatrice des évolutions à la fois contradictoires et complémentaires de l'urbanisme et de l'activité portuaire de la capitale. L'évolution du trafic fluvial ne pouvait pas ne pas avoir de répercussion, compte tenu de l'ampleur de son volume. Les quais parisiens se trouvaient ainsi encombrés par des dépôts permanents de marchandises, notamment certains industriels 1259 , et plus 1257 Le bassin de la Villette faisait toutefois exception. Auguste Pawlowski, Les ports de Paris, avec 27 vues photographiques, Paris, Berger-le-Vrault, 1910, p.91. 1259 Les industriels usaient de toutes les stratégies possibles pour disposer de surfaces de quais dans Paris. Morillon Corvol et Cie possédait trois centres de distribution portuaires à Paris : port de l'Hôpital, en face de la gare d'Orléans, port de Ormes, près de l'Hôtel de Ville et quai de Jemmapes, sur le canal Saint-Martin. Elle exploitait également une décharge. L'administration n'autorisait alors qu'une seule concession de décharge par entreprise. La décharge de Morillon Corvol et Cie se trouvait au port des Ormes. Les bateaux se débarrassaient de leur chargement de sable pour se charger en gravats qu'ils emmenaient à Villeneuve-le-Roi afin de remblayer les fouilles. Par une astuce juridique, la société bénéficia d'une décharge supplémentaire, près du Pont-Neuf à partir de 1907. L'exploitant désirait se retirer de la gestion de cette affaire tout en conservant une part de ses bénéfices. Albert Morillon lui proposa de créer une société anonyme ad hoc dont il posséderait 35% du capital, contre 65% 1258 386 spécifiquement les revendeurs de matériaux de construction (briques, poteries, et.), et cela au détriment de producteurs des mêmes produits (pierre de taille, sable, meulière) 1260 . De nombreux usagers s'en plaignaient et priaient l'Administration de prendre des mesures en vue d'assurer la libre disposition des quais. Ils réclamaient, entre autres choses, qu'aucun emplacement ne fût affecté de façon exclusive à un commerçant en particulier, mais au contraire, que tout bateau puisse accoster à l'ensemble des quais, et cela, quels que fussent la nature et le destinataire du chargement par simple ordre d'arrivée des bateaux aux ports. Les matériaux de construction composaient, en effet, un des éléments prépondérants du tonnage du port de Paris et du départ de la Seine, soit 54% du tonnage total des arrivages. Dans ces conditions, il ne paraissait guère surprenant de les voir occuper (compte tenu de l'encombrement de ces différentes marchandises) davantage de place que les bois qui formaient seulement 2,7% du tonnage total. La polémique ne portait pas tellement sur les usagers qui effectuaient un tonnage minimum. En effet, il semblait compréhensible que tel ou tel emplacement fût occupé dans les faits, mais non en droit, durant un délai plus ou moins long, simplement parce que cet industriel satisfaisait à la condition du tonnage minimum. La situation devenait plus problématique dès lors qu'un bateau ne pouvait plus accoster devant un emplacement vide, sous prétexte que la place était réservée en permanence par un entrepreneur qui se l'était auto octroyé La chambre de commerce de Paris distinguait les industriels ou même certains producteurs qui occupaient durant un certain délai parfois exagéré, mais participaient dans une large proportion au trafic global du port, et les commerçants et producteurs qui les encombraient de façon permanente en ne réalisant, par mètre carré de quai, qu'un tonnage réduit1261. Il semblait nécessaire de favoriser d'une part la manutention d'un tonnage aussi élevé que possible, et d'autre part de débarrasser les terre-pleins des dépôts permanents qui les encombraient sans participer significativement à l'essor du trafic global. Ce double objectif ne pouvait être atteint qu'en contraignant les uns à un tonnage journalier de débarquement, ainsi qu'à l'enlèvement suffisant, et à imposer aux autres une taxe et une limitation des superficies concédées. La première prescription se révélait inopérante dans la mesure où l'Inspection de pour Morillon Corvol et Cie. Voir Isabelle Backouche, Sophie Eustache, Morillon Corvol, une entreprise née de la Seine, Paris, Les Éditions textuel, 2003, p.38. 1260 ACCIP IV-4.61 (12), Encombrement du port de Paris. Rapport présenté au nom de la Commission des « Voies & Moyens de communication » par Monsieur Lavaud, déposé le 22 mars 1920. 1261 ACCIP IV-4.61 (11), Quais de la Seine. Mise à la disposition du commerce du port de la Conférence. Rapport présenté au nom de la Commission des Voies et Moyens de Communication par M. PINGAULT, et dont les conclusions ont été adoptées par la Chambre de Commerce, dans sa séance du 27 novembre 1907. 387 la Navigation n'était que peu armée pour la faire respecter ? Si l'usager outrepassait les délais fixés, l'Inspection ne pouvait guère que lui adresser un procès-verbal et l'emplacement n'en continuait pas moins d'être occupé Devant ces plaintes, l'Administration chercha à déterminer les responsabilités. L'inspecteur général de la navigation commerciale et des ports expliquait que l'une des principales causes d'encombrement tenait à l'occupation des quais par des marchands de matériaux en détail. Afin de remédier à cette situation, il proposa de n'autoriser sur chaque port qu'un seul dépôt de chacun des matériaux vendus au détail et d'accorder ces places exclusivement aux producteurs et non aux revendeurs. Les revendeurs existants devaient être supprimés par extinction en leur laissant un délai d'une ou deux années. Par ailleurs, il suggérait l'application rigoureuse de l'Ordonnance du 30 avril 1895, la révision des autorisations qui concernaient les grues à pierre de taille, ainsi que la limitation de la longueur de port occupée par chacune d'elles. Enfin, il préconisait de mettre fin à la tolérance dont bénéficiait le criblage du sable. Le décret du 8 octobre 1901 sur le règlement général de police pour les voies de navigation intérieure, spécifiait que l'enlèvement des marchandises déposées sur les ports devait être accompli dans les délais fixés par les règlements particuliers. En outre, après l'enlèvement des marchandises, les emplacements occupés sur les ports et les berges devaient être théoriquement nettoyés, les détritus enlevés par l'auteur du dépôt. Ils ressortait des différents textes que l'Inspection de la Navigation et des ports disposait normalement du droit de faire faire place nette en un point quelconque d'un port dès que les délais fixés pour l'enlèvement des marchandises déchargées du dernier bateau mis à quais en ce point avait expiré Malheureusement, il existait un fossé abyssal entre la théorie et la pratique. Dans les faits, certains usagers des ports qui avaient été autorisés une première fois à décharger un bateau en un point d'un port, amenaient dans ce même endroit une série de bateaux qu'ils déchargeaient successivement avant même que le délai minimum prescrit pour l'enlèvement des marchandises provenant du bateau précédent ait expiré Ce délai tendait de ce fait à s'allonger, ainsi que ceux des marchandises des bateaux ultérieurement déchargés et la place à quai correspondant aux opérations menées se trouvait alors immobilisée entre les mains d'un unique usager de la voie navigable. Le port de Paris avait été ainsi progressivement occupé par des usagers accomplissant le tonnage réglementaire, à savoir quotidiennement 40 tonnes. En théorie, cette situation était pourtant le résultat d'une « simple » tolérance. L'Inspection de la Navigation disposait de la possibilité de régler la mise à quai des bateaux en des points variables, selon les intérêts généraux du commerce. 388 Ces difficultés montraient les limites de l'action d'une administration éclatée. Ces « tolérances » expliquaient partiellement la faiblesse des capacités d'entreposage parisien. La construction d'entrepôts n'apparaissait dès lors pas indispensable dès lors que l'entreposage sur les quais était gratuit pour certains usagers En un sens, il s'agissait d'une subvention déguisée, mais en même d'une forme de favoritisme volontaire ou non, car les perdants étaient certains mariniers qui ne pouvaient plus accoster Cela revenait à favoriser les ports « privés », à vocation exclusive, aux dépens des ports « publics », à vocation plus globale, dans un espace où les longueurs de quais disponibles reculaient, et devenaient de ce fait d'autant plus précieuse 2. À la recherche d'une meilleure fluidité des mouvements sur les ports. Ces dysfonctionnements avaient pour corollaire une dégradation du rendement des ports. En effet, le tonnage linéaire annuel s'élevait à 300 tonnes au début du XXe siècle, chiffre plutôt modeste, mais qui tendait à tripler sur certains ports correctement outillés et exploités. Cette situation apparaissait d'autant plus fâcheuse qu'un nombre assez significatif d'entrepositaires permanents ne réalisaient même pas le tonnage réglementaire minimum. Malgré son développement considérable, le « port de Paris » dégageait une impression d'encombrement. La difficulté était que la nouvelle législation mise en place à la fin du XIX e siècle sur les dépôts ne limitait pas à un unique usager le droit de déposer des marchandises ou matériaux d'une nature identique sur un port. Or, la pratique semblait tellement répandue que toute réglementation risquait d'exclure les principaux usagers de la Seine : « Pareille réglementation reviendrait à exclure d'un port donné la grande majorité des usagers de la voie navigable et serait en contradiction avec le principe même de la liberté du commerce fluvial1262 ». L'Administration devait donc ménager les intérêts des uns et des autres : « Le devoir de l'Administration, au contraire, est de favoriser en appliquant, s'il y a lieu, strictement le décret du 8 Octobre 1901 qui permet de mettre à quai le long d'un port tous les bateaux qui se présentent, dans l'ordre où ils se présentent. Nul doute dès lors qu'une réglementation qui apparaît comme la négation de ce principe ne soulève des protestations justifiées 1263 » Les ingénieurs proposaient ainsi de restreindre, voire éliminer les dépôts permanents de marchandises ou matériaux restreignant la capacité d'exploitation du port de Paris, en immobilisant des longueurs de quais pour un trafic linéaire trop limité. 1262 ACCIP IV-4.61 (12), Encombrement des ports. Rapport de M. Drogue, Ingénieur en Chef de la Navigation, Navigation de la Seine, 2e section, Paris, le 1er mars 1913, p.4. 1263 Ibid. 389 En vue de remédier à l'encombrement des ports dans la traversée de Paris, l'ingénieur Drogue insista1264 sur la nécessité de prévoir une réglementation impersonnelle et l'unique objectif visait à renforcer la capacité d'exploitation des ports parisiens en n'autorisant les dépôts de longue durée uniquement au bénéfice des usagers réalisant un trafic minimum. Les ingénieurs préconisaient de réserver sur chacun des ports parisiens où des dépôts de longue durée était prévus une ou plusieurs places à quai à destination du commerce de passage. La procédure en usage se conformait, en réalité, à celle suivie pour la division en zones des ports fluviaux en dehors de Paris. C'est-à-dire que la détermination des places à quai ou zones libres à l'intérieur de Paris suivait donc la même procédure que pour les ports hors de Paris fixé par les préfets de la Seine et de Police. 3. Tensions résultant d recul des surfaces de quais disponibles. Ce climat de tension sur les quais s'inscrivait dans une tendance à la réduction des emplacements disponibles à la faveur de l'urbanisme intra-muros. La « monumentalisation » de la Seine avait à la fois nécessité le concours de la voie d'eau pour l'évacuation et le dépôt de matériaux de construction. Mais dans le même temps, les signes de la présence de cette activité étaient de moins en moins tolérés par les riverains, et les édiles, qui avaient largement encadré cette évolution. À cet égard, les relations entre la voie d'eau et le métropolitain étaient des plus ambivalentes. Si d'un côté, l'aménagement du métro représentait un marché important pour la navigation fluviale, les travaux constituaient dans le même temps une gêne considérable. La traversée de la Seine du métropolitain dans le cadre de la construction de la ligne 4 perturba ainsi la navigation fluviale 1265 d'octobre 1905 à la fin des travaux en décembre 19091266. Il était significatif que la construction de la ligne n°1 du métro ait signifié l'extension de la couverture du canal en 1898 sur la partie méridionale de la Bastille. Plus tard, en 1906-19071267, pour la ligne 3, le bassin du Temple fut à son tour couvert sur une longueur de 250 m par le biais d'une voûte en béton armé1268. Non seulement le trafic fut 1264 Exposé complémentaire de M. Drogue devant la Commission, séance du 7 mai 1914, Paris, le 14 mai 1914. Arnaud Berthonnet, Chagnaud, Histoire d'une fidélité, Caen, Éditions du Lys, pp.33-41. 1266 L'expérience fut d'ailleurs renouvelée de 1907 à 1913 pour la traversée au pont Mirabeau. 1267 Parmi les douze entrepreneurs ayant présenté des soumissions, M. Boussiron fut sélectionné, car proposant le prix le moins élevé, de 575 000 francs. Il apparaissait également comme un des plus satisfaisants sur le plan technique, on lui demanda seulement de doubler le poids des aciers constituant les articulations et d'ajouter des nervures à la voûte, ce qu'accepta l'entrepreneur. AP VO3 1842, Rapport de la sous-commission de la Direction Administrative des travaux de Paris, Préfecture de la Seine, Concours pour la couverture du Canal St Martin, Paris, le 16 novembre 1906. 1268 Il s'agissait d'ailleurs de la plus mince au monde. Les aménagements sur la voûte se révélaient problématiques. Voir A.P. VO3 1843 : Couverture du bassin du Temple (entre la rue du Faubourg du Temple et l'avenue de la République). Comptabilité : arrêtés préfectoraux, notes, factures, mémoires, certificats pour paiement, feuilles d'attachements (1905-1910). Travaux accessoires, notamment installation d'un kiosque à 1265 390 interrompu par la mise à sec du canal Saint-Martin pendant une cinquantaine de jours1269, mais les perspectives s'en trouvaient encore amoindries à plus ou moins long terme. Cela était d'autant plus vrai que la batellerie n'était pas encore massivement motorisée et donc rendait la traversée du canal recouvert d'autant plus délicate. Manifestement, l'urbanisme prenait le pas sur la navigation. La question même de la survie du canal Saint-Martin fit débat tout au long du XIXe siècle. Le canal constituait une entrave pour la circulation : « c'est pourquoi il s'est toujours établi une lutte naturelle entre les intérêts de la circulation urbaine et ceux de la navigation1270 ». De nombreuses pétitions avaient été adressées en vue de le recouvrir jusqu'à la Villette, ce qui lui ôtait en grande partie sa fonction de « port municipal ». Pourtant, le canal générait encore un trafic non négligeable, soit un million de tonnes en 19111271. Les tensions entre la navigation et la vie urbaine ne se limitèrent, bien sûr, pas seulement à la construction du métropolitain. Les quais de la Seine faisaient tout autant l'objet de convoitises que ceux du canal Saint-Martin. Ainsi, la Chambre syndicale des bois à brûler exprima son inquiétude auprès des pouvoirs publics au sujet de la réduction en peau de chagrin, dans la traversée de Paris, des emplacements réservés au débarquement des bateaux de bois et de houille. Pour y remédier, elle proposa de mettre à la disposition du commerce une partie des rives de la Seine située sur la rive droite, entre le pont des Invalides et le pont de l'Alma. Pour appuyer sa demande, elle sollicita le soutien de la chambre de commerce1272. Cette question touchait encore l'encombrement des ports et concernait de ce fait les négociants ainsi que les transporteurs. Les protestations contre l'accaparement des quais avaient ainsi suscité de vives protestations. La Chambre syndicale du bois reçut par ailleurs l'appui de la Chambre syndicale de la marine1273 et souligna le rôle crucial de la voie d'eau dans l'économie parisienne : « c'est intentionnellement que nous citons ici la batellerie dont musique et d'un monument à Charles Floquet : notes, correspondance, rapports et ordres de l'ingénieur, avantmétré des travaux, plans (1907-1910) (1905-1910) et AP VO3 1844 : Couverture du bassin du Temple (entre la rue du Faubourg du Temple et l'avenue de la République). Dossiers des entreprises et exécution des travaux : mémoires, états des ouvrages exécutés, plans, notes, rapports et ordres de services de l'ingénieur, certificats pour paiement [À signaler : des rapports journaliers (1907), des demandes d'occupation du domaine public (19071909), des plans des égouts existant sous les quais (1907-1909) et un dossier sur l'érection d'une statue « La Grisette » boulevard Jules-Ferry (1911).] (1907-1911). 1269 Voir Bertrand Lemoine, « La couverture du canal Saint-Martin » et Roger-Henri Guerrand, « Le métro sous le canal Saint-Martin », in Béatrice de Andia, Simon Texier (dir.), Les canaux de Paris, Paris, Délégation à l'action artistique de la Ville de Paris, p.149. 1270 AMB C 20-2, Lucien Duconseil, « Le canal Saint-Martin. Son histoire – Ses ouvrages –Son trafic – Son avenir », in Courrier économique, 1914. 1271 Annuaires statistiques de la Ville de Paris, année 1911. A.P. VO3 777, Statistiques du mouvement de la navigation (1909-1915). 1272 ACCIP IV-4.61 (11), Quais de la Seine. Mise à la disposition du commerce du port de la Conférence. Rapport présenté au nom de la Commission des Voies et Moyens de Communication par M. PINGAULT, et dont les conclusions ont été adoptées par la Chambre de Commerce, dans sa séance du 27 novembre 1907. 1273 Pour rappel, le principal syndicat de la batellerie dans la région parisienne. 391 l'existence nous est précieuse puisqu'elle intervient, sinon comme régulateur absolu, du moins comme modérateur des tarifs de transports1274. » Les causes de la constante réduction des emplacements destinés de manière générale au déchargement de toutes les marchandises à enlèvement rapide apparaissaient multiples aux yeux du rapporteur de la chambre consulaire. Il mettait en cause trois facteurs : le stockage des matériaux à destination des travaux pour le métropolitain, les décharges publiques et les dépôts de marchandises non renouvelées. Dans le premier cas, l'Administration s'était attachée à accorder toutes les facilités d'exécution possibles aux entrepreneurs chargés des travaux du métropolitain. Ces installations semblaient se propager, et cela au détriment des autres usagers de la voie d'eau. Plus encore, celles-ci tendaient à perdurer par rapport aux besoins provisoires, alors qu'elles étaient censées disparaître après l'achèvement des travaux. Les autres usagers dénonçaient un certain nombre d'inconvénients conséquemment aux aménagements spéciaux qu'elles impliquaient. Ces installations tendaient ainsi à immobiliser les quais en permanence, même en l'absence de bateaux. Dans la première décennie du XXe siècle, il existait sept décharges publiques, anciennement et régulièrement concédées. Certaines d'entre elles ont retiré au commerce des emplacements extrêmement favorables aux débarquements. Dans le même temps, elles paraissaient répondre à des besoins avérés, ainsi que la nécessité de les maintenir 1275 . Il précisait toutefois que leur nombre semblait suffisamment, tant et si bien qu'il préconisait de l'accorder plus aucune autorisation supplémentaire. Certains dépôts formaient de véritables chantiers. La nécessité des dépôts provisoires n'étaient pas contestée par les usagers, mais les abus auxquels ils donnaient lieu contribuaient à gêner le trafic considérable des ports parisiens. Le service de la police de la navigation se montrait, quant à lui, soucieux de ménager les divers intérêts en jeu. De leur côté, les négociants se disaient disposés à tenir compte des nécessités du moment. Mais il ne s'agissait que d'efforts limités, tant et si bien que le nombre d'emplacement s'était sensiblement réduit. Depuis le port Saint-Nicolas1276, plus spécifiquement destiné aux trafics internationaux, tous les quais de la rive droite de la Seine destinés au chargement des combustibles furent retirés au commerce jusqu'en aval du pont de la Concorde. Les emplacements du port Solferino se 1274 ACCIP IV-4.61 (11), Quais de la Seine. Mise à la disposition du commerce du port de la Conférence. Rapport présenté au nom de la Commission des Voies et Moyens de Communication par M. PINGAULT, et dont les conclusions ont été adoptées par la Chambre de Commerce, dans sa séance du 27 novembre 1907, p.1. 1275 ACCIP IV-4.61 (11), Quais de la Seine. Mise à la disposition du commerce du port de la Conférence. Rapport présenté au nom de la Commission des Voies et Moyens de Communication par M. PINGAULT, et dont les conclusions ont été adoptées par la Chambre de Commerce, dans sa séance du 27 novembre 1907, p.2. 1276 En face du Louvre. Jusqu'à la création des magasins d'Austerlitz, c'était le port maritime de la capitale. Des lignes de navigation entre la Grande-Bretagne et Paris avaient été ouvertes. Voir annexe. 392 trouvère extrêmement réduits sur la rive gauche. Entre le pont de la Concorde et le pont des Invalides, aux abords du pont Alexandre III, le commerce trouvait à sa disposition une longueur assez importante sur les deux rives de la Seine. Mais là encore, le rapport de la chambre de commerce dénonçait le fait que la majeure partie tendait à échapper au profit du Métropolitain. Alors que le déchargement des marchandises devenait de plus en plus malaisé, le service des ponts et chaussées tendait à en interdire le dépôt sur une trentaine de mètres en amont et en aval, sous prétexte de dégager la perspective du pont. Rigoureusement appliquée, les intéressés durent s'incliner devant ces nouvelles dispositions. Toutefois, un nouvel arrêté ministériel vint porter à 54 m les 30 m ainsi désaffectés. Les prix très élevés des terrains à Paris eurent pour conséquence d'éliminer un certain nombre de chantier de combustibles. Il en résulta de nouveaux obstacles pour l'approvisionnement de ces chantiers ne pouvait qu'en compromettre l'existence. Pourtant, la chambre de commerce1277 rappelait que c'était eux qui participaient, dans une large mesure, à assurer au cours de l'hiver l'approvisionnement des consommateurs parisiens, en cas d'interruption de la navigation et d'insuffisance des wagons. Concernant la situation particulière des emplacements revendiqués par la Chambre syndicale du bois à brûler, il ressortait que seule cette partie des quais avait été désaffectée dans toute la traversée de Paris, au moment de l'édification du port droit en 1899. Cette portion dépendait alors de la Préfecture de la Seine. Or, le Conseil municipal de Paris avait voté une délibération, selon laquelle le Préfet de la Seine était autorisé à accorder à bail, à partir du 1er janvier 1903, à la Société nationale d'horticulture de France, pour une vingtaine d'années1278, les deux serres du Cours-la-Reine et les terrains environnants. Or, dans cette délibération, il n'était question que des deux serres du Cours-la-Reine et des terrains qui les entouraient. Pourtant, le loyer de 1 000 francs consenti représentait le droit à la jouissance non seulement des serres, mais aussi d'une surface de ports qui correspondait à près de 5000 m2 dont se voyait privé le commerce. Les services de la navigation n'avaient pas été consultés à ce sujet, car ils n'auraient sans doute jamais donné leur assentiment à une telle emprise du domaine public. En outre, le directeur des services d'architecture faisait remarquer que les berges appartenaient appartenait à l'État 1279. Il en résultait des conflits entre les différents usagers des quais de la Seine, sur le fait que le Conseil municipal puisse en disposer au 1277 ACCIP IV-4.61 (11), Quais de la Seine. Mise à la disposition du commerce du port de la Conférence. Rapport présenté au nom de la Commission des Voies et Moyens de Communication par M. PINGAULT, et dont les conclusions ont été adoptées par la Chambre de Commerce, dans sa séance du 27 novembre 1907, p.3. 1278 Pour une location minimale de 1000 francs annuelle. 1279 Les conclusions de la Commission et le voeu de M. Arthur Rozier, 1904, 3660. Cité dans Pingault, op. cit., p.5. 393 bénéfice d'un particulier. De son côté, le ministre des Finances pouvait ne pas accepter le prix de location consenti par le Conseil municipal et son homologue des Travaux public pouvait quant à lui refuser de ratifier la désaffectation d'une part sur importante des berges de la Seine. Comme on peut le voir, la législation contribuait à un certain flou dans la gestion des quais séquaniens, et cet état de confusion se trouvait d'autant plus accentué que le rôle spécifique de chacune des administrations n'était pas clairement défini. Toutefois, cette confusion ne semblait pas totalement négative, puisque certains usagers semblaient en tirer profit. C. Un imbroglio administratif. 1. Une division administrative héritée du consulat. Un certain embrouillement administratif régnait dans le fonctionnement des installations portuaires parisiennes. L'absence de réel service d'exploitation commerciale sur les berges de la capitale frappait les contemporains1280. En réalité, ce que l'on désignait par « port de Paris » se composait essentiellement de quais accostables. Il s'éloignait de ce fait, de l'image habituelle d'un port moderne, à savoir celui d'un mécanisme complexe agissant sur une pluralité de transactions. Autrement dit, un appareillage susceptible de satisfaire aux manutentions les plus diverses. Or, les observateurs déploraient le caractère aussi pléthorique que disséminé des divers services qui encadraient l'activité portuaire dans la région parisienne. Plus encore, ces services semblaient parfaitement cloisonnés les uns par rapport aux autres . Cette conception paraissait à la fois logique et insolite. En effet, la nécessité d'une direction unique impliquait une « réalité » portuaire qui ne l'était peut-être pas tant que cela, le « port de Paris » ne formait pas une entité pleine et entière, clairement définissable, mais au contraire un concept abstrait, pour ne pas dire trouble. Force était de constater que les différents services administratifs ne s'accordaient pas sur ce à quoi pouvait correspondre ce 1280 François Maury, 1903, p.227-228. 394 « port de Paris », alors qu'elles en avaient été les initiatrices. Cette difficulté de formuler une définition tangible tenait sans doute partiellement à l'absence d'administration strictement dévolue à l'activité fluviale. Les acteurs de l'activité portuaire obtenaient eux-mêmes des informations partielles, dont l'exploitation devenait parfois problématique. Ces services apparaissaient ainsi strictement compartimentés à leurs attributions techniques ou policières. Dans la pratique, ils administraient deux, voire trois ports soumis à des régimes qui ne se caractérisaient guère par leur cohérence absolue. Enfin, on déplorait qu'aucun de ces services n'assumaient de responsabilité clairement définie. Les voies navigables de la capitale et son réseau étaient rattachées au ministère des Travaux publics, direction générale des routes, de la navigation et des mines 1281 , tandis que les constructions et les frais d'entretiens étaient impartis au budget général des fleuves et canaux Ce régime présentait comme conséquence que les fonds accordés, déjà de manière parcimonieuse, par le Parlement tendaient à être attribués de préférence aux voies proprement dites, plutôt qu'aux installations : « D'où, pour les ports parisiens, une infériorité considérables sur les ports maritimes1282 ». La gestion du port en rivière assurée par le Service de la navigation de la Seine, revêtait un caractère exclusivement technique : « Les inconvénients du régime actuel de nos port maritimes de commerce, qui ont été allégués au cours de la campagne dite de l'Autonomie des ports, peuvent tous être invoqués à l'encontre de l'administration de port en rivière de Paris : quelques autres s'y ajoutent 1283 ». Les ingénieurs de la navigation de la Seine se trouvaient davantage dépourvus que les Ingénieurs des Service du littoral, de contact avec les usages des installations qu'ils établissaient et entretenaient, et donc plus écartés des préoccupations d'exploitation. Ils étaient effectivement déchargés au profit du Service de l'Inspection de la navigation commerciale et des ports de toutes les questions de Police qui relevaient du Service des Ponts et Chaussées dans les ports maritimes en collaboration avec les Officiers et Maîtres de port. Un des points les plus délicats était sans doute la spécificité administrative et fiscale des canaux, qui ôtait dans de larges proportions la cohérence des installations portuaires parisiennes. Le canal Saint-Martin rattaché à la Ville en 1860, et ceux de Saint-Denis et de l'Ourcq en 1876, dépendaient également de la municipalité, qui y percevait des taxes 1284 . Deux administrations se trouvaient ainsi en présence pour gérer les ports parisiens. Même 1281 Auguste Pawlowski, Les ports de Paris, avec 27 vues photographiques, Paris, Berger-le-Vrault, 1910, pp. 101-107. 1282 Auguste Pawlowski, Les ports de Paris, avec 27 vues photographiques, Paris, Berger-le-Vrault, 1910, p.101. 1283 Ibid., p.3. 1284 Voir les deuxième et troisième chapitres de la présente thèse. 395 pour ce qui était de l'élaboration des statistiques, celles-ci ne s'accordaient guère. L'État et la Ville ne se rejoignaient pas non plus sur les travaux à exécuter, les capitaux à voter En outre, les canaux parisiens n'existaient qu'en tant que branche du service des eaux et de l'assainissement de Paris. Or, ce dernier montrait une fâcheuse tendance à se désintéresser de la navigation et aux besoins de la batellerie De la même façon que les compagnies privées avaient privilégié la vente d'eau et de prise d'eau pour des établissements industriels et commerciaux sur les bords des canaux. En effet, la vente d'eau constituait une rente aisée à percevoir, tandis que favoriser la navigation nécessitait des efforts financiers, humains bien plus considérables Ou plus précisément, la vente d'eau n'exigeait aucun réel effort. On retrouvait là les effets pervers des concessions accordées à long terme, et force était d'observer que la Ville n'avaient guère fait mieux sur le long terme, après avoir, il est vrai, effectué des travaux d'amélioration au moment du rachat des canaux1285. Il n'existait pas plus d'unité de police du ressort. La loi du 28 pluviôse an VII, rédigée en vue de mettre un terme à la confusion régissant sur les quais de la Seine, confia au préfet de police la surveillance de la rivière et des lieux d'arrivages des marchandises. Dans ses fonctions, le préfet était assisté d'un inspecteur général et de nombreux agents subalternes1286. Le ressort se divisait en six arrondissements. Un bureau particulier visait spécifiquement la navigation à vapeur1287. La mission de « l'inspection de la navigation commerciale et des ports » visait ainsi à « assurer la liberté de circulation, la sécurité des voies et ports, à réglementer la jouissance du domaine public fluvial, à régler la composition et la marche des convois, à désigner les places à quai, à enquêter sur la responsabilité des accidents, à diriger les sauvetages, à constater les contraventions aux dispositions légales, questions pouvant intéresser le commerce et l'industrie1288 ». La loi de l'an VIII, complétée par les arrêtés consulaires du 12 messidor et du 3 brumaire an IX étaient censés débarrasser de la « pègre qui les avait envahis » et des marchands qui s'étaient accaparés des berges. Il ressortit une méfiance durable quant aux installations portuaires et aux populations qui y travaillaient. Celles-ci n'étaient effectivement guère stables, ce qui avivait les craintes, voire les fantasmes. Le contexte de la Belle Époque, marquée par une aggravation du ressenti de la sécurité et des mouvements sociaux à 1285 Encore que ceux-ci s'inscrivaient dans une certaine mesure au plan Freycinet. Le principal bénéficiaire avait été le canal Saint-Denis. 1286 Un arrêté du préfet de police, M. Lépine, daté du 10 février 1907, fixa le personnel à neuf inspecteurs principaux ou adjoints, huit inspecteurs et un secrétaire. 1287 Ce personnel était recruté après un examen technique plutôt relevé. 1288 Cité dans Auguste Pawlowski, Les ports de Paris, avec 27 vues photographiques, Paris, Berger-le-Vrault, 1910, p.106. 396 répétitions, finissant parfois dans le sang, ne pouvait inciter à renoncer à ce rôle singulier dans la gestion commerciale des ports parisiens. Depuis sa création, la Préfecture de Police devait assumer la mission de réglementer et surveiller la batellerie à l'intérieur de Paris. Le Préfet de Police émettait des règlements que l'inspecteur de la navigation devait faire appliquer. Les anciennes dispositions paraissaient parfois contradictoires, dispersées dans un chaos d'ordonnances promulguées après celle de 1840 Cette confusion incita, vers la fin du siècle, le préfet Lépine à émettre l'Ordonnance du 30 avril 1895. Composée de 53 articles, celle-ci fixait les conditions de navigation sur les cours d'eau, canaux et ports dans le ressort de la préfecture. Les mariniers devaient se rendre désormais directement à quai et remettre leur lettre de voiture et leur déclaration à l'inspecteur de l'arrondissement, qui leur délivrait le permis nécessaire. En principe, ils étaient tenus de débarquer journellement 40 tonnes 1289 . Les délais étaient doublés pour les marchandises fragiles et les bateaux de moins de 100 tonnes. Les marchandises devaient alors être aussitôt emportées. Dans les faits, aux termes de ce document, les mariniers abordaient directement à quai et remettaient leur déclaration et leur lettre de voiture à l'inspecteur, qui leur délivrait un permis. Il faut souligner que tout façonnage se trouvait formellement prohibé sur les berges. Le criblage des sables était l'unique activité de façonnage autorisée. Les observateurs estimaient que l'ordonnance de 1895 et plus encore divers remaniements opérés en 1907, avaient permis au régime de la police des ports de s'adapter aux conditions nouvelles de la navigation du début du XXe siècle1290. Les relations de ce service avec la batellerie semblaient avoir été plutôt bonnes. Le Chef du Service de la Monarchie de Juillet, Latour du Moulin 1291 avait ainsi défendu l'adoption du touage, innovation qui constituait alors un progrès significatif dans la navigation. En outre, cela montrait que les inspecteurs de la navigation se préoccupaient réellement des difficultés de la navigation1292. Les représentants du commerce par eau avaient fait l'éloge de cette administration : « que nous avons toujours vue, dévouées aux intérêts de la batellerie1293 » 1289 À l'exclusion des dimanches et jours fériés. Auguste Pawlowski, Les ports de Paris, avec 27 vues photographiques, Paris, Berger-le-Vrault, 1910, p.106. 1291 François Maury, p.206. 1292 Les archives du musée de la batellerie sont significatives à cet égard. En effet, celles-ci se composent en majeure partie des documents et notes conservées par le dernier inspecteur de la navigation, M. Carivenc. Toutefois, la nature des relations entre cette administration et les ports demeure difficile à déterminer, dans la mesure où malheureusement pour la recherche historique, la plupart des informations qui auraient pu se révéler utiles ont été brûlées suite à l'incendie de la préfecture de police. 1293 Chambre Syndicale de la marine, op. cit., p.14. 1290 397 Les critiques formulées à l'encontre de l'inspection de la navigation commerciale et des ports portaient sur le fait de n'avoir pas pu mettre un terme aux abus manifestes troublant la circulation des bateaux dans la traversée de Paris et à l'encombrement des terre-pleins de certains quais transformés par leur occupants, sans autorisation, ni redevances, en magasins gratuits. 2. La dualité des tarifs Seine-canaux. Le Service des Canaux de la Ville de Paris n'existait que comme branche du Service des Eaux et de l'Assainissement ne pouvait, par conséquent jouer, qu'un rôle de second plan dans les préoccupations des chef de ce dernier qui parfois, devaient être tentés de sacrifier les intérêts de la navigation à ceux de l'arrosage de la voie publique effectué en partie avec l'eau de l'Ourcq, lors des périodes de pénurie. Les canaux de la Ville n'étaient plus alimentés, en dépit de l'aide apportée par les usines élévatoires de Tribadou et de l'Isle des Meldeuses à la dérivation de l'Ourcq et les sassements étaient interrompus ou sacrifiés à l'extrême. Les taxes perçues par la Ville de Paris pour l'usage des canaux et ports municipaux étaient jugées trop élevées par leur clientèle. La Ville avait maintenu sur son port, les droits fixés par les anciennes compagnies concessionnaires. Elle s'était contentée de les abaisser de 20% en 1880, et de les réduire à nouveau sur l'Ourcq en 1895. Or, il résultait de ces anciens tarifs des disparités surprenantes et à l'origine de vifs mécontentements de la part du commerce. En effet, les bateaux parvenant au bassin de la Villette via le canal Saint-Denis disposaient du droit d'y stationner en franchise, pour une durée de 10 à 20 jours, en fonction de la valeur de leur chargement. Or, ceux qui s'y rendaient depuis le canal Saint-Martin ne se trouvaient pas soumis au même régime, contraints, dès le premier jour, au versement des taxes. En outre, le retour s'avérait, en certains cas, gratuits sur le canal Saint-Denis, alors qu'il demeurait onéreux sur le canal Saint-Martin. Les apports en provenance de l'Ouest apparaissaient de ce fait extrêmement favorisés par rapport à ceux de l'Est Plus encore, un forfait était admis pour les marchandises provenant de la Basse-Seine, mais non pour celles de l'Oise, ni d'une quelconque origine de l'Est Cette situation revenait ainsi à favoriser les importations de charbons anglais aux dépens de certains charbons nationaux La batellerie se trouvait grandement défavorisées à une époque où elles devaient combattre la concurrence des chemins de fer. Cela constituait un élément de réponse au déclin des transports sur l'Yonne, 398 notamment les céréales, puisque leur transport vers la Villette se trouvait plus fortement taxé que l'importation de blés étrangers débarqués à Rouen En outre, divers droits se révélaient prohibitifs, à l'instar de ceux des bois de sciage parvenus à la Villette, via le canal SaintMartin1294. Les eaux minérales se voyaient grevées de droits à l'égal des liqueurs les plus coûteuses, sous prétexte qu'une taxe avait été édictée à l'encontre de tous les liquides au début du XXe siècle Ces disparités avaient tendance à exaspérer le commerce qui exigeait une révision complète de ces tarifs, ainsi qu'une réduction de 10%. Si le Service technique de la Seine, à savoir l'État, accueillait plutôt favorablement cette idée, le Conseil Municipal craignait de voir ses recettes se réduire en peau de chagrin La question semblait pourtant urgente dans la mesure où certains trafics, tels que celui des pierres de taille, tendaient à déserter les canaux au profit des bords de la Seine. Or, un régime moins rigoureux aurait pu rappeler ce type de trafic à la Villette. D'ailleurs, la Ville aurait pu sacrifier une partie de ses recettes sur le court terme, au profit d'un accroissement du commerce par eau sur le long terme1295 La dualité des services techniques produisait des effets inattendus. La Ville n'exigeait aucune rémunération pour les capitaux qu'elle dépensait sur le port de l'État, alors que simultanément, elle réclamait des droits élevés à destination des bateaux fréquentant son propre port. Comme on l'a vu, le négoce déplorait que certains trafics et certaines régions fussent favorisés par une taxation plus faible au canal Saint-Denis qu'au canal SaintMartin1296. Sur les berges de la Seine, l'immunité s'avérait, dans le même temps, totale À ce titre, c'était un signe montrant que le trafic de Basse-Seine avait largement bénéficié des travaux entrepris depuis le Second Empire, puis sous la IIIème République. Il ne s'agissait pas forcément d'une volonté délibérée des décideurs politiques, ni même d'une incitation des acteurs économiques, mais cette situation s'expliquait plutôt par le potentiel plus important sur le plan hydrologique de cette portion du fleuve, naturellement plus profonde. Sur le plan technique, et l'application du plan Freycinet ne modifia guère les choses, la politique menée consistait en une canalisation du fleuve très progressive grâce à l'établissement de barragesmobiles et à la réalisation de dragages. Il ne s'agissait ainsi de progrès incrémentaux. Une des conséquences « paradoxales » de ces aménagements étaient qu'ils ne favorisèrent pas totalement la production nationale, mais plutôt l'importation de produits importés depuis Rouen. La différenciation des tarifs pratiqués sur les canaux s'avère tout à fait 1294 Soit tous frais compris, 1,25 franc par tonne. François Maury, p.210. 1296 A.P. VO3 490, Canaux St-Martin, St-Denis et Ourcq, produits de la navigation et divers (1907-1909). 1295 399 symptomatique, puisque les trafics en provenance de la Haute-Seine, c'est-à-dire principalement originaires de France, se voyaient pénalisés. Cette observation contredit encore l'idée d'un protectionnisme strict pratiqué sous la Troisième république, à l'opposé d'un un Second Empire tout acquis au libre-échangiste à partir de 1860. Au contraire, on observe une certaine continuité dans les politiques fluviales menées par ces deux régimes, tout au moins en ce qui concerne le développement de la Basse-Seine. Si la Troisième république avait été complètement protectionniste, ses différents gouvernements et législateurs se seraient efforcés de favoriser les liaisons avec les bassins industriels du Nord et de l'Est. Même si le plan Freycinet préconisait de relier les bassins entre eux, c'était d'ailleurs une de ses principales préoccupations, pour des raisons budgétaires, le programme se trouva largement vidé de son contenu. Au final, la loi de 1878 servit essentiellement à fournir des crédits pour l'amélioration des conditions de navigation, sans véritablement remettre en cause la logique des travaux accomplis sous le régime précédent. Le plan Freycinet s'était plutôt distingué par la profusion et la simultanéité des aménagements ferroviaires, fluviaux, maritimes, routiers, autrement dit, son caractère multimodal. En ce sens, il innovait, le Second Empire ayant adopté une position de relative neutralité, sans pour autant rejeter la logique intermodale1297. L'instauration du libre-échange avait obligé à favoriser la concurrence entre les modes de transports, et de ce fait, favoriser les aménagements fluviaux, relativement négligés avant cette période. Le jeu des acteurs autour de Paris port de mer montraient la complexité des liens entre infrastructures, libre-échange et protectionnisme1298. D. Un frein à la modernisation du port de Paris : l'impossible amélioration de la liaison du bassin de la Seine avec celui du Nord. 1. Forces perdues pour un programme saboté : le plan Baudin. a) Un contexte propice à la modernisation des voies navigables dans les années 1890 : Le canal du Nord constituait un élément phares du programme d'aménagement prévu par le ministre des Travaux publics Pierre Baudin, il convient donc de retourner sur ce plan. Durant les années 1890, le contexte paraissait plus favorable aux idées canalistes. C'était ainsi que tous les deux ans, se réunirent à partir de 1886, des congrès internationaux de navigation intérieure. Les représentants français s'y montraient particulièrement actifs. À l'occasion du congrès de Paris en 1892, l'ingénieur Fleury réclama l'achèvement du programme de 1297 1298 C'est ce que montrait notamment l'expérience des docks de Saint-Ouen. Voir chapitre I. Voir chapitre III. 400 18791299. De son côté, en dépit de l'évolution quelque peu décevante du trafic sur le Rhône, la chambre de commerce de Lyon entreprit de relancer le débat sur la modernisation des voies navigables. Quelques années plus tard, en 1896, a été fondée la Société de la Loire navigable. Celle-ci bénéficiait du soutien de nombreux comités apparus dans les principales localités bordant le fleuve. Toutefois, les études des ingénieurs tendirent à refroidir les ardeurs en montrant que seul l'aménagement de la basse Loire était réellement envisageable. Les complications que connurent les compagnies de chemins de fer afin d'affronter la reprise du trafic dans les années 1898-1900 représentèrent une occasion propice à l'initiative lancée par Pierre Baudin de concevoir un programme de grands travaux en faveur de la navigation. Un questionnaire a donc été adressé aux chambres de commerce et aux organismes intéressés1300. Dans le but de concevoir un nouveau programme comportant par ordre d'urgence les travaux d'amélioration et de l'extension à réaliser tant sur les réseaux ferrés et fluviaux que dans les ports maritimes, le ministre du Commerce, Alexandre Millerand, de conserve avec son collègue des Travaux publics, Pierre Baudin ont convié le Conseil supérieur du Commerce et de l'Industrie à lancer une enquête auprès des chambres de commerce. Il était ressorti de ces enquêtes que l'éparpillement des efforts considérables consentis par l'État durant les décades précédentes semble avoir eu pour conséquence principale la faiblesse des résultats obtenus au final. Le Conseil Supérieur du Commerce et de l'Industrie en vint à la conclusion de la nécessité de concevoir un programme limité dont l'exécution devait être rapide et ne porter que sur des entreprises susceptibles de lutter avantageusement contre la concurrence étrangère tant à l'intérieur du pays qu'en dehors. Une de ses conclusions consistant dans l'idée que les projets devaient concerner essentiellement les voies navigables et les ports maritimes, car c'était dans ces domaines que le retards accumulés paraissaient les plus marqués. En outre, le réseau ferré d'intérêt général existant semblait amplement suffisant et ne nécessitait, selon ses conclusions, pas d'extension particulière. Par ailleurs, la nécessité lui était apparue de réglementer de façon plus étroite le remorquage et le halage auquel il y avait lieu d'appliquer la traction électrique et de procéder à brève échéance la liaison réclamée depuis longtemps entre les deux réseaux de fer et d'eau par des gares par l'intermédiaire de ports de raccordement. 1299 Jules Fleury, « Rôles respectifs des voies navigables et des chemins de fer dans l'industrie des transports en France », in Ve Congrès international de navigation, Paris, 1892, 2e question. 1300 Cuënot, op. cit., .15. 401 b) Particularités du plan Baudin: un plan visant à pallier aux écueils des projets de loi précédents. À la suite de cette consultation, le ministre des Travaux, Pierre Baudin a déposé au bureau de la Chambre des députés, un projet de loi incluant l'exécution de travaux. Au niveau financier, le plan Baudin cherchait à éviter les dérives du plan Freycinet 1301 en s'appuyant sur le concours des collectivités et organismes intéressés par le biais du système inauguré à SaintDizier. Il s'agissait de généraliser ce dernier. La participation des intérêts privés n'était pas fixée de faon rigide et le tau pouvait ainsi varier. Malgré tout, elle s'avérait obligatoire et ne pouvait se monter à moins de la moitié de la dépense. En contrepartie de ces participations, l'État concédait la faculté de prélever des péages et d'instaurer un monopole sur la traction sur les voies nouvelles. Ce système était censé proposer un avantage double en soulageant d'une part les finances de l'État 1302 et procédant à une sélection implicite parmi les travaux prioritaires, dans la mesure où il était prévu une prise en charge par les intéressés1303. En outre, une des préoccupations était d'accélérer le traitement des dossiers. Il avait donc été prévu que le gouvernement prenne lui-même les décrets de déclaration d'utilité publique, prérogative relevant jusque-là du pouvoir législatif. Malgré tout, il ne s'agissait pas non plus d'une révolution constitutionnelle dans la mesure où le Parlement conservait la maîtrise des crédits affectés ai ministère des Travaux publics. Le projet de loi cherchait, ou tout au moins le prétendait-il, une rationalisation en fixant un nouveau partage des rôles respectifs des deux pouvoirs législatifs et réglementaires. Le but visait à éviter de laborieux réexamens pour chaque dossier devant le Parlement, ce qui avait pour résultat de remettre en cause en permanence la participation des intéressés. En conséquence, il s'agissait de favoriser l'engagement des acteurs locaux ou privés. En effet, il ne fallait pas s'étonner du relatif échec plus tard de la souscription pour la construction du canal du Nord, dont la construction n'a commencé qu'avant le premier conflit mondial. Ce type d'atermoiements ne pouvait que décourager la levée de fonds privés. En définitive, le plan Baudin se voulait un peu comme l'antithèse du plan Freycinet1304. Il corrigeait également les défauts du projet de loi Guyot, dont il s'inspirait 1301 Journal Officiel. Documents parlementaires. Chambre des députés ; séance du 1er mars 1901, annexe n°2226, rapport Baudin, p.141. 1302 Journal Officiel. Documents parlementaires. Chambre des députés ; annexe n°2599, rapport de M. A. Aimont. 1303 G. Cuenot, Fleuves et rivières, Paris, 1921, p.66. 1304 Moisan, p.260. 402 pourtant directement et ouvertement1305, en impliquant davantage le gouvernement dans le cas où un projet jugé stratégique et ne recevant pas suffisamment de soutiens privés pouvait tout de même voir le jour. Son réel défaut résidait sans doute dans la quasi absence de fonds destinés aux chemins de fer, si l'on excepte les raccordements. Les ferristes allaient ainsi s'engouffrer dans cette faille en dénonçant un projet de loi qui promouvait un mode de transport passéiste, et qui de surcroît, allaient alourdir le poids de la garantie. Qu'en aurait-il état si le plan Baudin, à l'instar de son prédécesseur, aurait inclus également des projets concernant les grandes compagnies de chemins de fer ? Il aurait été instructif de lire les arguments des Clément Colson, Yves Guyot et consorts. Sans doute, le plan aurait laissé la plupart des projets concernant les voies navigables, et accessoirement les ports, pour privilégier ceux censés améliorer les voies ferrées, et les ferristes se seraient montrés moins prompts à dénoncer les dérives d'un vaste programme d'aménagements de transports. c) La contrattaque organisée des ferristes : La polémique entre les canalistes et les ferristes a connu une vive intensité. Les canalistes défendaient l'idée d'encourager la concurrence qui permettait de contrecarrer les monopoles des grandes compagnies, tandis que les partisans des chemins de fer fondaient leur argumentation sur la rationalité économique qui selon eux rendait la navigation obsolète. Dirigé par M. Haguet, le Journal des transports s'est particulièrement illustré dans la campagne anticanaliste. Il raillait notamment la « canomalie » du ministre et de ses ingénieurs. L'autre grand polémiste pro ferroviaire était M. V. de Lespinats. Il s'agissait d'un ancien administrateur de la Compagnie Châtillon-Commentry et Neuves-Maisons. Il considérait les canaux comme la « merveille du XVIIIe siècle et non du XXe siècle1306 ». À l'instar d'Yves Guyot, il critiqua la pratique du comité consultatif à conserver un écart d'au moins 20% entre le fret et les tarifs homologués sur les lignes concurrentes. Le résultat aurait été de « pétrifier » et « maintenir les vieilleries » de façon tout à fait artificielle. Lespinats en arrivait à la conclusion de « l'absurdité, du point de vue économique, des canaux à péages projetés »1307, dans la mesure où le niveau aurait été égal ou inférieur au prix de revient des chemins de fer. 1305 Le Ministre des Travaux publics Pierre Baudin, Rapport au Président de la République française, Paris le 15 février 1902. 1306 V. de Lespinats, En retard d'un siècle, le programme Baudin et les moyens de transports de l'avenir, Paris, Chaix, 1903, p.6. 1307 V. de Lespinats, En retard d'un siècle, le programme Baudin et les moyens de transports de l'avenir, Paris, Chaix, 1903, p.6. 403 Les partisans des chemins de fer mettaient notamment en cause les prévisions de recettes réalisées par Baudin, qu'ils jugeaient trop hasardeuses1308. De ce fait, ils jugeaient très insuffisants les droits de péages, qui servaient de gage pour les emprunts contractés par les intéressés afin de subvenir à une partie des dépenses 1309 . Cependant, le propriétaire des aciéries de Longwy s'opposa aux affirmations de Lespinats, en faisant observer qu'aucun canal ou chemin de fer n'aurait existé si l'on avait simplement supputé l'économie à réaliser sur le trafic ancien1310 ». L'argument des ferristes le plus fallacieux des ferristes, mais sans doute le plus efficace, consistait dans l'affirmation qu'une politique favorable aux canaux était susceptible d'alourdir davantage la garantie de l'intérêt versée aux compagnies, en raison de la diminution des recettes. La cause ferriste bénéficiait de soutiens directement dans le gouvernement qui était pourtant censé défendre le projet Baudin. Sous le ministère Combes, le ministre des Finances était Maurice Rouvier, qui était un banquier très impliqué dans la cause ferroviaire. Celui-ci avait ainsi obtenu que Camille Pelletan soit nommé à la Marine et non aux Travaux publics. En outre, la commission du Sénat était acquise aux thèses ferristes. La commission du Sénat était présidée par Charles de Freycinet lui-même qui avait tout intérêt à ne pas défendre le projet de loi Baudin, au risque de passer pour souhaiter réitérer la même erreur que pour son propre plan. Pour couronner le tout, la rédaction du rapport avait été confiée à un ingénieur du PO, M. Monestier, chef du contrôle de cette compagnie depuis 1894. Autrement dit, tous les ingrédients avaient été réunis pour torpiller le projet. Pour commencer, la commission n'avait retenu que les projets bénéficiant d'un financement d'au moins la moitié des dépenses prévues. De façon détournée, elle fonda ses travaux sur le principe selon lequel les intérêts des grandes compagnies ferroviaires ne devaient être en aucun cas mis en cause, dans la mesure où elle obligea l'État à verser une garantie d'intérêt onéreux. Les dépenses qui ont été retenues par la commission représentèrent ainsi seulement 34% de celles qui avaient été fixées par l'avant-projet du gouvernement, à savoir les deux-tiers avaient été rejetés. Concrètement, le canal de l'Est fut abandonné en raison de la mise en place d'un tarif défiant toute concurrence par la Compagnie du Nord. Pour appuyer leurs thèses, les Compagnies du Nord et de l'Est affirmèrent que les canaux allaient favoriser les importations de charbons belges, ce qui incita les houillères et les chambres de commerce du nord à se 1308 Anonyme, « Quelques réflexions sur le projet du nouveau canal du Nord », in Revue politique et parlementaire, janvier 1902, pp.99-106. 1309 Yves Guyot, Cinq cents millions à l'eau, Paris, p.44. 1310 Dreux, Les canaux de la Meuse à l'Escaut, Paris, 1901. 404 retirer du projet, préférant réserver leurs efforts pour financer le canal du Nord. En outre, les sidérurgistes du Nord se montraient désormais méfiants quant à un projet qui aurait favorisé leurs homologues lorrains. Les conditions de financement imposées par la commission sénatoriale n'étaient donc plus remplies, ce qui expliqua le retrait du projet. De même, le canal de la Loire au Rhône fut rejeté dans la mesure où les intérêts lyonnais et stéphanois refusaient de soutenir le projet à hauteur de 50%, car ils estimaient la vocation de cet ouvrage plus nationale que réellement régionale. Dès lors, on perçoit les difficultés dans l'exécution des projets d'infrastructures français. Le morcellement du territoire et de l'économie constituaient effectivement des freins à la « rentabilité » des ouvrages projetés, mais pas forcément à leur utilité intrinsèque. À la faveur de l'aménagement des rivières navigables, les canaux envisagés depuis le plan Freycinet correspondaient essentiellement à des canaux de jonction, destinés relier des bassins industriels enclavés les uns par rapport aux autres. En conséquence, la mise à contribution des organismes locaux et/ou privés présentaient certaines limites, car ils pouvaient difficilement concevoir de participer à l'exécution d'ouvrages dont l'intérêt immédiat n'était pas si évident, et dont la réalisation pouvait même être perçue comme favorisant les bassins concurrents. Et les lobbies ferristes surent parfaitement jouer sur ces rivalités comme le montrait le canal de l'Est. Seul l'État semblait à même de jouer l'arbitre dans la mêlée de la concurrence industrielle et commerciale. Pourtant, celui-ci ne paraissait pas désirer remplir ce rôle pour les voies navigables. d) Le vote du plan Baudin. Si la Chambre des Députés vota sans modifications notables le projet présenté par Pierre Baudin, les résistances s'étaient révélées bien plus vives du côté du Sénat forcément gagné par les intérêts des compagnies ferroviaires. La loi a été finalement votée le 22 décembre 19031311, mais elle prévoyait plus qu'une allocation de crédit de 170 070 000 francs pour les voies navigables et 86,880 millions pour les ports maritimes. En outre, elle élimina les travaux d'amélioration sur la Seine, le Rhône, la Garonne et les canaux du Midi, sur le canal d'Orléans et sur celui du Rhône au Rhin. Il n'était plus question non plus de la Loire navigable entre Nantes et Briare, pas plus que des trois canaux du Nord-Est, de Moulins à Sannois et de la Loire au Rhône. En principe, on avait tout de même retenu les canaux du Nord, de Combleux à Orléans, de Cette au Rhône et du Rhône à Marseille. Cependant, ils n'étaient pourvus que de crédits prévisionnels très insuffisants qui compromettaient, en réalité, leur exécution. 1311 Journal Officiel. Documents parlementaires, Chambre des Députés, 24 décembre 1903, 405 2. Le canal du Nord : un enjeu stratégique. Le canal du Nord figurait parmi les grandes questions de la fin du XIXe siècle jusqu'à 19141312 . En effet, il y avait déjà une vingtaine d'années que les travaux d'aménagement avaient été accomplis dans le sillage du programme Freycinet. L'heure était donc au bilan. Le constat global était que la batellerie industrielle avait pris un essor considérable, mais que les efforts d'aménagements demeuraient insuffisants. En résumé, les infrastructures et les superstructures n'avaient que médiocrement accompagné cet essor. 1312 Marcel Gillet, « Un siècle pour financer et creuser le canal du Nord : pourquoi ? », in La répartition du pouvoir et de la décision publique, région, nation, Europe, communications au colloque tenu au CIRSCH les 9 et 10 mai 1977, pp. 137-148. 406 Carte 6. Tracé du projet de canal du Nord . Source : ACCIP IV-4.61 (3), Canal du Nord. Avant-projet. Enquête d'utilité publique (Titre I er de la Loi du 3 mai 1841). Notice explicative, l'Ingénieur en Chef Rivière, Lille, 15 août 1901. La houille figurait parmi les produits dont le transport par batellerie paraissait indispensable au moins jusqu'à la veille de la Première Guerre mondiale. Les voies navigables du Nord et de l'Est jouaient ainsi un rôle décisif dans le transport des combustibles. Le coeur du réseau se trouvait dans la région des houillères du Nord. Chacune des extensions de ses voies avait élargi l'aire de répartition des charbons de Lens ou d'Anzin à l'intérieur de la France1313. Alors que les charbons du Nord ne représentaient que 14% de la consommation nationale de 1850 (soit un million de tonnes sur 7,2 millions), la proportion atteignait au début du siècle près de 46% (soit 19 millions de tonnes sur 42)1314. Malgré cette progression, deux régions industrielles majeures semblaient encore mal reliées, à savoir la 1313 Marcel Gillet, Les charbonnages du Nord de la France au XIXè siècle, Mouton, Paris-La Haye, 1973, 508p. Paul Léon, Fleuves, canaux, chemins de fer, avec une introduction de Pierre Baudin, Paris, Librairie Armand Colin, 1903, p.38. 1314 407 région parisienne et la région lorraine. Le réseau ne se révélait effectivement plus apte à suivre l'évolution de la demande et de la production charbonnière au début du XX e siècle. La situation de la capitale apparaissait particulièrement précaire. En effet, dépourvue de ressources en charbon, Paris faisait acheminer annuellement près de 3,7 millions de tonnes de charbons. La capitale constituait de surcroît le lieu de passage et de répartition des charbons à destination de la Loire. Pourtant, le canal Saint-Quentin s'avérait l'unique liaison fluviale entre la région parisienne et les bassins houillers. Or, les conditions de circulation sur ce canal demeuraient fort pénibles. Le halage y était pourtant assuré par l'État, les écluses fonctionnaient nuit et jour, les mariniers naviguaient même par nuit. Ces efforts permettaient tout de même le transport de 5 millions de tonnes. Le canal souffrait notamment d'un encombrement dramatique des voies, ce qui contribuait à maintenir le fret à des prix guère prohibitifs. Le coût du transport d'une tonne de houille de Lens s'élevait à 5,10 francs en 1885, 6,15 francs en 1899 et 7,25 francs en 1900. Le fret passait ainsi respectivement de 0,014 la tonne kilométrique à 0,018 et 0,0211315. De son côté, le prix du chemin de fer atteignait 6,70 francs. Le plus étonnant était que les mariniers conservaient encore une clientèle La situation apparaissait d'autant plus inquiétante que les progrès de la navigation sur la Seine enregistrés au début du siècle rendaient plus compétitifs les charbons anglais1316. La liaison entre les deux bassins industriels avait souffert des erreurs passées. Le projet de canal Saint-Quentin reliant le Nord de la France et son bassin houiller à la Seine était ancien. Le canal Crozat unissant l'Oise à la Somme avait été ouvert à la navigation en 1738 Deux tracés avaient été envisagés. Le premier s'était soldé par un échec et l'abandon du premier concessionnaire. À l'instar du canal de l'Ourcq, sous le Consulat, le canal SaintQuentin avait suscité une vive polémique au sein du corps des Ponts et Chaussées 1317. En effet, les uns étaient partisans de creuser un nouveau canal, tandis que les autres préconisaient de poursuivre les travaux déjà entrepris. Cette dernière solution pouvait paraître la plus raisonnable, mais en réalité, elle signifiait achever une infrastructure qui avait été mal pensée, et au final, n'allait pas forcément se révéler la moins onéreuse et la plus rationnelle pour 1315 Paul Léon, Fleuves, canaux, chemins de fer, avec une introduction de Pierre Baudin, Paris, Librairie Armand Colin, 1903, p.41. 1316 Pour rappel, la loi du 6 avril 1878 ayant libéré un crédit de 32 millions en vue de porter le mouillage entre Rouen et Paris à 3,20 m. 1317 Les polémiques au sujet du creusement du canal du Nord ont tendu à éclipser les études sur le canal SaintQuentin qui finalement a constitué le véritable canal ayant servi durant la révolution industrielle. Sur cet ouvrage, consulter : L. Durringer, « Le canal de Saint-Quentin. Son histoire, sa réfection, son développement », in Annales des Ponts-et-Chaussées, 1928, pp.138-158 ; pp.252-268 ; R. Macaigne, Le canal de Saint-Quentin, Paris, Giard, 1934, 439p. ; Michel Pugin, « L'histoire du Canal de Saint-Quentin » dans Fédération des Sociétés d'histoire et d'archéologie de l'Aisne, Mémoires, tome XXVII, Laon, Imprimerie Debrez, 1982, pp.43-60. 408 répondre aux besoins de l'industrie naissante. En effet, les grands projets d'infrastructure sous l'Ancien Régime ne reposaient pas forcément sur la simple logique économique. Il s'agissait également de montrer les prouesses techniques des ingénieurs et du régime en place. Et même lorsque le pouvoir monarchique ne participait pas au financement, il s'en emparait afin de montrer le talent des ingénieurs français. On n'hésitait pas à exhiber les travaux effectués sur le canal. La conséquence était une propension à multiplier les tunnels et autres ouvrages coûteux, à une époque où les techniques les rendaient difficiles à réaliser et où les gabarits des bateaux étaient plus réduits Afin de mettre un terme aux débats au sein du Conseil des Ponts et Chaussées, Napoléon Ier avait tranché en faveur de la poursuite des travaux sur ce qui allait devenir le canal Saint-Quentin. Cette décision lourde de conséquences présenta au moins le mérite de ne pas désavouer l'Administration, mais également l'achèvement des travaux, car rien ne garantissait qu'ils ne le fussent sans son intervention autoritaire Dans le même temps, cette réalisation participait à des besoins économiques, stratégiques et bien entendu politiques, pour ne pas parler de propagande1318 Malgré tout, il faut rappeler que l'on découvrit le prolongement du bassin d'Anzin vers l'Ouest seulement vers les années 1840. L'extraction s'y révélait la plus active, en passant de 3,7 millions de tonnes en 1879 à autour de 15,8 millions en 1904, soit 327%1319. La production dans la seconde moitié du XIXe siècle avait progressé bien plus rapidement que celle des mines du Nord qui ne représentaient plus que le tiers de celle de ses homologues du Pas-de-Calais. En outre, le département consommait presque autant, voire plus de combustibles minéraux que ses mines n'en produisaient, soit en 1904, 5,9 millions de tonnes contre 6,7 millions 1320. Ces bouleversements n'avaient en rien modifié l'atonie des politiques en matières fluviales. Les houillères du Pas-de-Calais ne disposaient que d'une unique voie d'eau, le fameux canal de Saint-Quentin, dont les travaux avaient débuté dès 1734. Le Pas-de-Calais ne bénéficiait d'aucune voie navigable directe en direction de la capitale. Les péniches étaient chargées à Courrières et à Pont-à-Vendin, et devaient attendre que celles de Valenciennes et de Mons soient passées Le canal Saint-Quentin fut entièrement canalisé avant le milieu du XIXe siècle1321. Son creusement devait permettre le transport des charbons du Nord de la France par bateau à canal à un prix inférieur à celui de la voie ferrée, mais également du coût du transport des combustibles minéraux anglais, qui 1318 Fréderic Graber, Paris a besoin d'eau. Projet, dispute et délibération dans la France napoléonienne, Paris, CNRS éditions, 2009, pp.30-59. 1319 Annuaire statistiques de la France, années 1879 et 1905. 1320 Annuaire statistiques de la France, année 1905. 1321 Avec l'achèvement du canal de Manicamp et du canal latéral à l'Oise. 409 nécessitait une rupture de charge à Rouen. En 1849, il fut étatisé. Malgré ses insuffisances, son trafic ne cessa quasiment de progresser jusqu'à la veille de la Première Guerre mondiale. Graphique 40. Trafic du canal de Saint-Quentin 1882-1913. 8 000 000 7 000 000 Tonnages 6 000 000 5 000 000 4 000 000 3 000 000 2 000 000 1 000 000 0 Source : Ministère des Travaux publics. Direction des routes, de la navigation et des mines. Statistiques de la navigation intérieure, Nomenclature et conditions de navigabilité des fleuves, rivières et canaux. Relevé général du tonnage des marchandises. Années 1883-1913. Il serait injuste d'incriminer la batellerie d'avoir servi avant tout à la pénétration des charbons étrangers. L'évolution du trafic du canal Saint-Quentin témoignait du contraire, soit une progression de 160% de 1840 à 1913, et 103% pour la seule période 1882-1913 1322 . Toutefois, si l'on observe une accélération en une soixantaine d'années, de 1840 à 1900, son évolution ralentit durant la période 1900-1911, avec une hausse de 20%, ce qui tendait à prouver l'ascendance des chemins de fer 1323 , le rapport s'établissant à un rapport troisquarts/un quart, en faveur de ces derniers. Plus profondément, ce tassement traduisait les limites de ce canal, incapable d'absorber davantage de marchandises. L'inquiétude des industriels et des commerçants prenaient tout son sens. Malgré tout, le canal connut diverses améliorations dans la seconde moitié du XIXe siècle, afin de suivre l'évolution du trafic. Le mouillage fut porté progressivement de 1,65 m à 2 m, puis à 2,20m en 1883 et 2,50 m par la 1322 Michel Pugin, « L'histoire du Canal de Saint-Quentin » dans Fédération des Sociétés d'histoire et d'archéologie de l'Aisne, Mémoires, tome XXVII, Laon, Imprimerie Debrez, 1982, p.49. 1323 François Caron, Histoire de l'exploitation d'un grand réseau. La Compagnie du chemin de fer du Nord 1846-1937, Paris, Mouton, 1973, p.270. 410 suite. On procéda à l'allongement des écluses et au doublement de certaines 1324. La traction dans le bief de partage constituait un obstacle majeur au développement du trafic du canal. La faible largeur du canal (5,20 m) sur les 20 km du bief de partage ne permettait le croisement de bateaux que sur six kilomètres On tenta de palier à ces inconvénients avec une gare d'eau progressivement élargie à l'entrée de Riqueval. En parallèle, des recherches furent menées pour ce qui était de la traction : abandon du halage à col d'homme, remorquage par bateau à vapeur (1854) Tous ces essais ne furent guère fructueux. Le touage constitua la solution la plus satisfaisante et fut instauré en 1864, puis amélioré en 1874 Cette innovation permit une fréquentation de 96 bateaux par 24 heures1325 En 1903, la création de deux gares d'eau était censée porter la fréquentation journalière à 200 bateaux, mais la section trop faible du souterrain n'autorisa jamais le passage de plus de 110 bateaux par 24 heures Ces chiffres semblaient dérisoires dès lors que l'on songeait au nombre de bateaux circulant dans les deux sens : 24 975 bateaux en 1900 et 36 226 en 1913 Cela signifiait ainsi des attentes interminables aux deux extrémités des souterrains Entre le bassin houiller et la capitale, la durée normale du trajet aurait dû s'élever à 25 jours, mais dans les faits, elle atteignait de 40 à 60 jours ! Le projet du canal du Nord s'inscrivait ainsi dans ce contexte1326. Il devait doubler le canal de Saint-Quentin, en unissant Arleux sur le canal de la Sensée, à Noyon sur l'Oise. Il était censé réduire de quarante-deux kilomètres la distance entre Lens et Paris et contribuer à une réduction à 3,50 francs ou 4 francs, soit près de la moitié du prix actuel1327. Une commission avait été constituée par Freycinet. Deux projets furent proposés, l'un passant par Beauvais, l'autre par Clermont 1328 . Finalement, le tracé passant par Arleux- 1324 AN F1414630 (site de Pierrefitte-sur-Seine), Ligne de navigation de Paris à Mons ; avant-projet et enquête d'utilité publique sur l'avant-projet des travaux à exécuter pour le développement des écluses et l'amélioration de la voie navigable d'Étrun à Joinville (canal de Saint-Quentin et latéral à l'Oise), 1887. À cela, s'ajoutent d'autres mesures : curage et élargissement de la cunette, création de garage d'eau, notamment aux orifices de souterrains, garages d'écluses avec estacades ou glissoirs. Les estacades mises au point en 1892 par l'ingénieur en chef Derôme offraient un gain d'éclusage d'un bateau à l'heure. 1325 AN F14 14629 (site de Pierrefitte-sur-Seine), Ligne de navigation de Paris à Mons ; loi du 24 juillet 1880 déclarant d'utilité publique des d'améliorations sur le canal de Mons à Condé, la rivière d'Escaut, le canal latéral à l'Oise (correspondance, rapports, voeux, documents législatifs,) 1861-1880. 1326 Marcel Gillet, « Un siècle pour financer et creuser le canal du Nord : pourquoi ? », in La répartition du pouvoir et de la décision publique, région, nation, Europe, communications au colloque tenu au CIRSCH les 9 et 10 mai 1977, pp. 137-148. 1327 ACCIP IV-4.61 (3), Canal du Nord. Avant-projet. Enquête d'utilité publique (Titre I er de la Loi du 3 mai 1841). Notice explicative, l'Ingénieur en Chef Rivière, Lille, 15 août 1901. 1328 Archives de la section des canaux de Paris, boîte Paris port de mer. Observation présentée par M. Holleaux, Ingénieur en Chef du service spécial de la Navigation entre la Belgique et Paris, devant la commission d'enquête du canal du Nord qui s'est réunie à Paris le 30 juin [n.d.a 1880], Compiègne le 4 juillet 1880. 411 Péronne-Ham-Noyon-Méry-sur-Oise-Paris fut préféré1329. Franchissant trois crêtes, il s'étirait sur une longueur de 225 m. Le coût était estimé à 105 millions de francs pour un trafic prévu de 4 millions de tonnes1330. Le tonnage avait été évalué à 1,6 millions de tonnes en 1878. Flamant prévoyait un abaissement du fret jusqu'à 10, voire 9 millimes par tonne-kilométrique. Dans ces conditions, le canal projeté représentait un véritable péril pour la Compagnie du Nord1331. Les ingénieurs avait évalué la capacité maximale la voie alors existante à 7,5 millions de tonnes. Leurs évaluations se fondaient sur la prise en compte des améliorations possibles. L'impasse était donc patente. En effet, les perspectives de trafic des expéditions de charbonnage semblaient prometteuses, évaluées à près d'une dizaine de millions de tonnes censées circuler sur la voie d'eau1332. Le seul passage existant allait logiquement s'encombrer empêchant la marche régulière des bateaux. Le risque pour la batellerie était de perdre au profit de la voie ferrée une portion significative de sa clientèle : « La question de pose donc de savoir si l'on doit creuser un nouveau canal, ou renoncer dans un avenir assez proche au transport par la voie d'eau entre le Nord et Paris1333 ». Dans ces conditions, les compagnies de chemins de fer ne pouvaient qu'accueillir avec la plus grande froideur le creusement d'un second canal reliant deux des régions industrielles les plus dynamiques. En un sens, la reprise économique exacerbait d'autant plus la concurrence entre les deux modes de transport rivaux. Il aurait paru logique que le retour de la croissance atténuent dans une certaine mesure la compétition intermodale, dans la mesure où chacun pouvait tirer profit de l'essor industriel, ne serait-ce que parce que les volumes en jeu étaient d'autant plus considérables, et aucun mode n'était en mesure à lui seul d'assurer le convoiement. Or, l'inverse se produisit. Sans doute, échaudée par ce qui était survenu dans les années 1860-1870, à savoir que l'impossibilité de transporter l'ensemble du trafic avait amené 1329 Archives de la section des canaux de Paris. Ministère des Travaux publics. Département de la Seine. Canal du Nord sur Paris. Avant-projet. Enquête d'utilité publique (Titre Ier de la loi du 3 mai 1841). Notice explicative. L'Ingénieur en Chef A. Flamant, Amiens, le 16 avril 1881, 8p. 1330 Le défaut majeur commun aux deux projets résidait sans doute dans le creusement d'un canal latéral à la Seine jusqu'au canal Saint-Denis. Celui-ci ne pouvait qu'alourdir inutilement le coût des travaux, et en outre, se heurtait tant aux intérêts de la navigation en basse Seine, qu'à la nécessité de trouver les terrains nécessaires. En outre, les deux ingénieurs ne semblaient pas avoir anticipé l'essor de la banlieue parisienne, elle-même demandeuse de combustibles Dans le même temps, la renonciation à ce canal latéral, que les progrès des aménagements sur le fleuve allaient confirmer la non pertinence sur le long terme, rendait moins coûteux leurs devis respectifs. 1331 François Caron, Histoire de l'exploitation d'un grand réseau. La Compagnie du chemin de fer du Nord 1846-1937, Paris, Mouton, 1973, p.270. 1332 Navigation Intérieure de la France. Notice sur les voies navigables du Nord et du Pas-de-Calais, Arras, 1900. 1333 Paul Léon, Fleuves, canaux, chemins de fer, avec une introduction de Pierre Baudin, Paris, Librairie Armand Colin, 1903, p.90. 412 les industriels à encourager le développement du transport fluvial, afin de palier d'une part aux carences des chemins de fer, et plus encore empêcher toute hégémonie de ces derniers. Cette expérience « douloureuse » servit sans doute de leçon, tant et si bien que les compagnies de chemins de fer combattirent ensuite tout ce qui pouvait ressembler de près ou de loin à une modernisation de la navigation fluviale, en dehors du strict cadre des aménagements de la Basse-Seine, qu'elles ne surent endiguer, avec le plan Freycinet. Il faut dire que l'intérêt de ces derniers dépasse la simple navigation commerciale. Et force est de constater que les investissements dévolus aux canaux connurent une contraction marquée : la moyenne des crédits d'équipement dépensés au bénéfice des canaux entre 1910 à 1913 excédait à peine la moitié de ce qu'elle représentait de 1840 à 18491334. Les arguments opposés par le clan des ferristes s'avéraient somme toute classiques. Leur argumentation se bâtissait sur la base de deux propositions. Il leur paraissait peu utile de creuser le canal du Nord, dans la mesure où la voie d'eau ne pouvait proposer des tarifs notablement en deçà de ceux des chemins de fer, et cela en raison de la tendance sur le long terme de l'abaissement régulier des prix de la voie ferrée, conséquence des évolutions techniques et organisationnelles. Par ailleurs, l'encombrement sur les canaux tenait moins, pour elle, aux carences des voies, qu'à un manque d'élasticité inhérente à ce mode de transport1335. Toutefois, les ferristes n'étaient pas les seuls hostiles à la réalisation de ce canal. En effet, les mines du nord de la France n'étaient pas unanimes. Les compagnies du Nord semblaient ainsi réticentes à financer un projet favorisant surtout leurs concurrentes du Pasde-Calais1336. Les défenseurs du canal du Nord avançaient que les diminutions des prix consenties, correspondaient à une amélioration parallèle de la navigation intérieure. Ils invoquaient les effets bénéfiques que la concurrence intermodale1337. Les mariniers accomplissaient chaque année de trois à quatre voyages entre le Nord et Paris, soit de 100 à 140 jours, tandis que la période de navigation s'élevait théoriquement à près de 340 jours. Les 200 journées restantes se traduisaient par la recherche du fret, à l'attente dans les rivages, au stationnement fréquent 1334 Michèle Merger, « La Politique de la IIIe république en matière de navigation intérieure de 1870 à 1914 », Thèse de 3e Cycle, dir. F. Caron, Université de Paris-Sorbonne, 1980, 468 p. 1335 Anonyme, « Quelques réflexions sur le projet du nouveau canal du Nord », in Revue Politique et Parlementaire, XXXI, 1902, pp.99-118. 1336 En tout cas, telle est l'interprétation de Marcel Gillet. Louis Girard penche plutôt pour la sempiternelle lutte entre les voies ferrées et les voies navigables. Voir Marcel Gillet, Histoire sociale du Nord et de l'Europe du Nord-Ouest : recherches sur les XIXe et XXe siècles, préface de Jean Bouvier, Lille, Presses universitaires de Lille, 1984, p.69. 1337 En outre, les réductions possibles sur les voies navigables paraissaient plus importantes encore que celles sur les chemins de fer, en raison du degré de maturité déjà atteint par ces derniers 413 sur la voie. Pour envisager une baisse des prix de la batellerie, il fallait effectuer au moins sept voyages par an, ce qui devait couvrir les frais des mariniers avec un prix de 3,50 à 4 francs la tonne, soit 1 centime la tonne kilométrique1338. Pour les canalistes, le problème de l'élasticité pouvait être remédié précisément avec le creusement du canal. En effet, celui-ci était censé réduire, voire supprimer, les périodes de chômage, grâce à la possibilité d'emprunter les deux canaux. À l'instar de Paul Léon, ils reconnaissaient toutefois que l'utilité du canal du Nord pouvait se trouver atténué sans amélioration de l'exploitation. L'abaissement du fret envisagé devait se révéler bien plus compétitifs que ce que pouvait proposer la voie ferrée « Nous avons vu qu'en fait le prix de transport s'est régulièrement abaissé après chaque amélioration de la voie navigable, qu'enfin son élévation actuelle tient, non pas à l'infériorité naturelle des canaux comme moyen de transport, mais à leur déplorable utilisation1339 ». Les déboires au sujet du projet du canal du Nord reflétaient ainsi les limites de la politique fluviale menée jusqu'alors. Malgré tout, le canal du Nord fut déclaré d'utilité publique par la loi du 23 décembre 1903. Pour sa réalisation, des crédits de 60 millions de francs avaient été prévus, dont 30 millions à fournir par un emprunt émis par la chambre de commerce de Douai1340 et avec la garantie de douze compagnies1341, à l'exception toutefois notable de celle d'Anzin. De son côté, l'État s'était engagé à assumer tout accroissement du devis initial. Les travaux de creusement du canal au gabarit Freycinet de 300 t, lancés en 1907, semblaient assez avancés à la veille de la Première Guerre mondiale : sur les 100 millions de francs prévus au coût rectifié, 72 avaient été déjà employés, notamment 27 millions apportés par les douze compagnies houillères concernées1342. Pourtant, les émissions d'obligations de 1909, 1910 et 1911 pour financer l'emprunt émis par la chambre de commerce de Douai et gagé uniquement sur les péages censés être perçus lorsque le canal aurait été mis en fonction, n'avaient rencontré qu'un succès limité, ce qui montre les limites d'un financement privé pour les canaux. Leur utilité est souvent réelle, mais leur mode d'exploitation n'incite guère les investisseurs Les compagnies houillères se trouvèrent dans l'obligation de procéder à l'acquisition de la presque totalité des titres. Les perspectives de ce canal n'étaient pourtant guère contestables, et sa non construction handicapait sérieusement les houillères des régions 1338 Les Voies navigables du Nord de la France vers Paris, Comité central des Houillères de France, 1897. Paul Léon, Fleuves, canaux, chemins de fer, avec une introduction de Pierre Baudin, Paris, Librairie Armand Colin, 1903, p.96. 1340 Sur le rôle des chambres de commerce, voir La Chambre de commerce et d'industrie de Paris. 1803-2003. Histoire d'une institution, Paris, Librairie Droz S.A., 2003, 348p. 1341 Aniche, Escarpelle, Ostricourt et les principales compagnies du Pas-de-Calais. 1342 Marcel Gillet, « Industrie et société à Douai au XIXe siècle », in Revue du Nord, n° 241, avril-juin 1979, p.162. 1339 414 du nord de la France. Malgré les nombreux travaux d'amélioration réalisés, le canal SaintQuentin avait montré ses limites. Les faits contredisaient le principe de la « tonne en plus » défendu par les ferristes, car eux-mêmes pouvaient éventuellement récupérer le trafic des canaux existants, encore qu'il ne fût pas certain que le transfert s'accomplisse de manière automatique, comme on a pu le voir à plusieurs reprises. De plus, cela signifiait davantage de contraintes administratives et matérielles aux compagnies de chemin de fer que dénonçaient les partisans de ce mode de transport. Pour les houillères, cela signifiait inévitablement limiter l'investissement, car leurs charbons ne pouvaient trouver de débouchés, pas simplement en termes de compétitivité, mais tout simplement, sur le plan strictement matériel, dans la mesure où les quantités extraites n'auraient pu être évacuées et donc écoulées. La montée en puissance des importations en provenance des ports de Normandie apparaissait inévitable, même si l'élément déclencheur s'avéra d'ordre conjoncturel, à savoir la catastrophe de Courrières. Comme le montre le tableau, même si l'on constate une évolution de fond, le trafic doublant sur la section entre Conflans et Rouen, passant de 300 000 à 600 000 tonnes, il connut la même augmentation, en une année, passant de 600 000 à 1,2 millions en 1906. Il n'allait plus descendre en-dessous de la barre du million de tonnes jusqu'à la veille de la Première Guerre mondiale1343. Cette évolution montrait une sérieuse déconnection croissance entre l'offre et la demande, à la fois entre la production et les transports. La dénonciation de la prospérité de la batellerie en Basse-Seine dissimulait cette distorsion, la région parisienne poursuivait son développement, mais l'offre de combustibles s'avérait inadéquate. Encore une fois, il apparaît que les ferristes ont aggravé cette tendance, sans l'avoir prévu, en faisant reculer l'échéance de la construction du canal du nord. En effet, il s'agissait peut-être du seul projet de canal viable, ou tout au moins utile. Graphique 41. Trafic des combustibles minéraux sur la Basse-Seine, l'Oise et la traversée de Paris. 1343 En fait, la guerre allait encore accentuer cette évolution, les houillères, et tous les moyens de transport confondus, furent soit passés sous le contrôle allemand, soit servirent de théâtre d'opération pour les combats. Les Allemands avaient effectivement détruit tous les ponts existants sur les canaux du Nord et de Saint-Quentin. Bien que non achevé, les terrassements du canal du Nord servirent de tranchée pour la ligne Hindenburg établie au cours de l'hiver 1916-1917. Autant dire que les travaux à peine entamés avant la guerre devaient être repris complètement. Les troupes canadiennes entreprirent de traverser le canal à la fin de septembre 1918. Le canal de Saint-Quentin connut un sort à peu près identique, il constituait aussi un élément de la ligne Hindenburg. La traversée du canal représenta une phase cruciale de l'offensive des Cents-Jours qui conduisit à l'armistice. Le canal de Saint-Quentin était lui-aussi à reconstruire complètement. 415 4 000 000 3 500 000 Combustibles minéraux dans la 8e section de la Seine Tonnages 3 000 000 2 500 000 Combustibles minéraux sur l'Oise de Janville à la Seine 2 000 000 1 500 000 1 000 000 Trafic des combustibles minéraux dans la traversé de Paris 500 000 1883 1886 1889 1892 1895 1898 1901 1904 1907 1910 1913 0 Source : Ministère des Travaux publics. Direction des routes, de la navigation et des mines. Statistiques de la navigation intérieure, Nomenclature et conditions de navigabilité des fleuves, rivières et canaux. Relevé général du tonnage des marchandises. Années 1883-1913. III. GESTATION AVORTÉE D'UN PORT DE PARIS FORMEL : ENTRE UTOPIE ET RÉALISME 1910-1914. A. Un événement exceptionnel servant de catalyseur à la réflexion portuaire. Malgré l'échec du plan Baudin, ses successeurs tentèrent de relancer le programme, ou tout au moins, de prendre des mesures susceptibles de répondre aux besoins du commerce et de l'industrie. Le 2 avril 1908, le ministre des Travaux publics, Louis Barthou, convia le Conseil général des Ponts-et-Chaussées à l'étude des améliorations qu'il convenait d'apporter au réseau navigable, en considérant l'avis des principaux organismes économiques concernés1344. Les réponses obtenues préconisèrent l'établissement d'un nouveau programme d'importance. En dépit de ces avis favorables, le Conseil général des Ponts et Chaussées rejeta tout en bloc les propositions 1345 , malgré les protestations, notamment de la part de 1344 Lettre de M. Louis Barthou, ministre des Travaux publics, au Conseil général des Pont-et-Chaussées, 2 avril 1908. 1345 Journal Officiel. Rapport de la Commission du Conseil général des Ponts et Chaussées, 30 avril 1909. 416 nombreuses chambres de commerce, à l'instar de celle du Rhône1346. Le rapport était paru au Journal Officiel du 29 juillet 1909, mais des inondations recouvrirent une partie du territoire et prirent, comme on le verra, une tournure catastrophique dans le bassin séquanien et allaient quelque peu remettre sur le devant de la scène la question de l'aménagement des voies navigables françaises. Devenu à son tour ministre des Travaux publics, Jean Dupuy s'est efforcé de faire concevoir, en 1912 un nouveau programme fondé sur des méthodes financières censées se distinguer de celles qui avaient prévalu jusque-là. Il affirmait notamment faire davantage appel à l'initiative privée, ce en quoi il reprenait en fait la philosophie des programmes précédents, à l'exception du plan Freycinet. Une commission extra-parlementaire des travaux de navigation a été instituée par le décret du 12 septembre 1912, envisagea la constitution d'un emprunt de 275 millions de francs à faire contracter par les collectivités départementales, villes chambres de commerce, etc. L'État devait se contenter de la garantie des annuités et l'affectation de ce nouvel emprunt devait être réservée à l'exécution de nouvelles entreprises. L'Administration fournit une liste des travaux jugés nécessaires : approfondissement et calibrage de la Basse-Seine afin d'améliorer la protection de la Ville de Paris et de sa banlieue contre les inondations, mise au gabarit Freycinet du canal de Berry, amélioration des voies du Nord, de l'Est et du Centre. Une somme de 100 millions restait disponible, les canaux de Montbéliard à la Saône, du Nord et de Marseille au Rhône devaient être réalisés à partir des ressources normales du budget. En outre, la loi de 1912 prévoyait la création de l'Office National de la Navigation. Le tournant du XXe siècle avait constitué comme un terreau à la réflexion portuaire parisienne, et plus largement à la navigation intérieure. Bien qu'ayant eu peu de répercussions concrètes, la loi Baudin reflétait ce bouillonnement. L'idée de conférer un statut aux installations portuaires de la région parisienne faisait ainsi son chemin. Certains proposèrent l'unification des services des ports, rivières et des canaux parisiens1347. En 1908, la Ligue maritime française critiqua le manque de vue d'ensemble avec un port composé d'une juxtaposition d'installations rudimentaires. Elle préconisa la centralisation de l'administration des voies navigables du département de la Seine entre les mains d'une direction unique et autonomes chargée de coordonner tous les services. Par une délibération du 22 décembre 1909, le Conseil général de la Seine sollicita au ministre des Travaux publics la création d'une 1346 D. Cusset, Réponse au Conseil Général des Pont-et-Chaussées, Office des Transports des Chambres de Commerce du Sud-Est, 1910. 1347 Pierre Jolibois, 417 commission ayant pour but de procéder à la centralisation réclamée par la Ligue maritime française et d'instituer un conseil ou un comité où auraient été représentés entre autres : l'État, la Ville de Paris, la Chambre de Commerce, le Département de la Seine, la Préfecture de la Seine, les Syndicats et Compagnies de Navigation Il était intéressant d'observer le rôle croissant du Conseil général de la Seine sur la question portuaire. En effet, il s'était déjà prononcé favorable aux projets Paris port de mer défendus par Bouquet de la Grye. Selon la même logique, il appuyait encore l'idée d'une direction unique qui en quelque sorte constituait le corolaire de Paris port de mer. En ce sens le conseil général de la Seine s'inscrivait dans la vision utopique de la question portuaire parisienne. Sans doute, ces prises de position reflétaient d'une perception de la capitale dépassant son strict périmètre. Ce glissement allait s'accélérer encore après la Première Guerre mondiale, notamment concernant les transports en commun1348. Toutefois, face à l'inertie décisionnelle en matière portuaire et plus largement concernant la navigation intérieure, un élément déclencheur paraissait nécessaire. La crue de 1910 se révéla tout à fait opportune et en complète adéquation avec les aspirations des promoteurs de l'activité portuaire de la capitale. Les crues historiques de 1910 jouèrent un rôle fondamental sur les politiques du port de Paris. Certes, comme on a pu s'en rendre compte, le contexte s'était révélé riche en réflexion depuis le début du XXe siècle. Économistes, juristes, publicistes, géographes s'étaient prononcés en faveur d'une réforme du statut des ports de la région parisienne. Le mot « réforme » semble peut-être impropre, dans la mesure où il s'agissait plutôt de la création d'un statut, que d'une réforme, étant donné le caractère très hétérogène des administrations en charge de la navigation parisienne. Les crues n'en constituèrent pas moins l'élément déclencheur. Les crues de la Seine se distinguent de celles d'autres cours d'eau, dans le sens où aucune cause unique ne peut leur être imputée. Il s'agit plutôt d'une combinaison de facteurs, qui isolés, ne sauraient causer une inondation de vaste ampleur, mais qui ensemble, produisent des catastrophes du type de celles de 1910. D'ailleurs, la crue de 1910 n'était pas la première du genre, le siècle précédent avait été marqué par une série d'inondations très comparables. Celle de 1876 s'était révélée d'une certaine gravité, mais elle toucha surtout les banlieues aval (secteur de la plaine de Saint-Ouen, Asnières, Gennevilliers) et amont (Joinville, Alfort, Charenton), ainsi que, il est vrai, les parties périphériques de la capitale : 1348 Dominique Larroque, Michel Margairaz, Pierre Zembri, Paris et ses transports XIXe-XXe siècles. Deux siècles de décisions pour la ville et sa région, Paris, Focales, Éditions Recherches, p.140. 418 Bercy, Javel et Grenelle Cependant, il s'agissait essentiellement de zones industrielles et il faut le reconnaître, de quartiers soit déshérités ou encore au marge par leur caractère rural1349. Le coeur de la capitale, avait quant à lui, été relativement épargné. L'armée se trouva tout de même dans l'obligation d'évacuer dans l'urgence la population d'Alfort le 4 mars. Finalement, à l'apogée de la crue, le 17 mars, des eaux nauséabondes surgirent des égouts du VI et VIIe arrondissements. Près de trois mille immeubles furent touchés. La presse locale lança des souscriptions en faveur des victimes, celles-ci rapportèrent près de 500 000 francs, somme remarquable si on la comparait au 70 000 francs débloqués par les pouvoirs publics Ces inondations eurent tout de même une large répercussion, les Parisiens s'entassèrent sur les quais pour assister à la décrue le 20 mars. Malgré tout, la croyance était alors que le progrès technique pouvait prévenir contre une nouvelle inondation. La particularité de l'inondation de 1910 ne consistait pas à son ampleur en tant que telle, mais aussi aux conditions mêmes de l'époque. En effet, de nouvelles technologies avaient émergé : cinéma, télégraphe, téléphone, photographie, électricité Ces crues s'avèrent à plusieurs titres historiques, il s'agit de la première crue parisienne à avoir été filmée Au fond, la grande nouveauté résidait dans le fait qu'elle bénéficia d'un retentissement tout à fait considérable1350. Les nouveaux modes de télécommunications permirent de suivre le cours des événements, non seulement en direct, mais aussi au niveau mondial. L'autre facteur décisif expliquant la portée de cette crue résidait sans doute dans l'essor urbanistique et industriel de la région parisienne. Par exemple, la commune de Gennevilliers qui n'avait été qu'une simple bourgade rurale jusqu'en 1876 devenait une cité industrielle1351 En réalité, malgré son caractère impressionnant, la crue de 1910 n'a finalement qu'assez peu affecté le trafic global de la navigation fluviale dans la région parisienne. Il n'a connu qu'un infléchissement relativement modeste de -5,6%, compte tenu de cet événement exceptionnel. De manière compréhensible, dans la mesure où la traversée de Paris était devenue impraticable durant plusieurs semaines, le transit fut le plus touché en reculant de 41,4%. En fait, les arrivages qui formaient la composante majeure du trafic ont même 1349 Comme on le verra, Gennevilliers était plus connu pour ses poireaux que pour ses industries. La partie de Colombes la plus affectée était précisément localisée dans la presqu'île de Gennevilliers qui n'était formée que d'une plaine alluviale, au contraire de la partie plus urbanisée, moins agraire aussi qui incluait aussi la ville actuelle de Bois-Colombes. Voir Georges Poisson, Évocation du vieux Paris, Paris, les Éditions de Minuit, 1960, pp.380-381 ; pp.394-396. 1350 Il faut rappeler que l'inondation catastrophique à Toulouse en 1875 avait aussi connu un écho considérable, elle fut, entre autres, immortalisée par la nouvelle d'Émile Zola publiée en 1883. Voir Émile Zola, « L'inondation », in Le Capitaine Burle, 1883, G. Charpentier, pp.289-340. 1351 Voir notamment A.P. D3S4/23 : Photographies de divers aspects de la commune de Gennevilliers pendant l'inondation. 419 progressé de 5,9%. En un sens, la hausse des arrivages a compensé en grande partie la chute du transit, en passant de 59% du trafic global à 64% entre 1909 et 1910 (contre respectivement 17% et 10% pour le transit). Cette évolution n'était pas anormale, dans la mesure où les conséquences des inondations exigeaient d'importer davantage de matériaux en tout genre. L'activité portuaire la plus affectée par cette inondation a été la sixième section de la Seine, c'est-à-dire la partie entre Issy-les-Moulineaux et Saint-Denis. Le trafic a effectivement chuté de 38 %. En revanche, la baisse a été nettement moins marquée en amont de Paris, avec un recul de 8 %1352. Ce constat n'était pas si étonnant. En effet, les équipements portuaires ne consistaient le plus souvent qu'en des grues sur berges, et encore fallait-il noter que beaucoup de ces engins étaient des grues-flottantes. Comme on l'a déjà souligné, les crues étaient un phénomène relativement courant, il n'était pas rare que les quais de la Seine soient immergé, comme ce fut le cas en 1905 par exemple, les professionnels liés à l'activité fluviale étaient donc rompus à ce type de situation, au contraire des zones inondées, peu habitués à ce type de catastrophe. En définitive, le relatif sous-équipement portuaire contribua à atténuer les effets de la catastrophe. Les quais, - quand il existait - une fois libérés des eaux pouvaient reprendre rapidement du service, ce qui explique pourquoi le trafic n'a pas été touché de manière durable1353. En réalité, la montée des eaux a surtout constitué un problème pour la navigation, le tirant d'air des ponts se trouvant considérablement réduit, la traversée des ponts se révéla à certain moment quasiment impossible. De façon cynique, l'inondation a représenté à plusieurs titre une aubaine, car elle a sensibilisé les pouvoirs publics et l'opinion à la modernisation du réseau fluvial qui étaient intimement liée la préservation des crues et sur celle de l'outillage portuaire, de manière à le protéger des crues. Nonobstant les victimes et les pertes matérielles des populations, une catastrophe naturelle peut donc paradoxalement servir de vecteur de croissance économique1354. Mieux encore, la crue de 1910 a constitué un élément stimulateur pour l'industrie du bâtiment, dans Paris et sa banlieue, et par voie de conséquence, a contribué à relancer le trafic fluvial qui allait connaître une progression remarquable. 1352 Ministère des Travaux publics. Direction des routes, de la navigation et des mines. Division de la navigation. Statistique de la navigation intérieure. Année 1910. 1353 Le cynisme présente néanmoins certaines limites, dans la mesure où les inondations peuvent endommager en profondeur les murs de quai, ce qui était dommage dans la mesure où un certain nombre avaient été reconstruits. 1354 Magali Reghezza-Zitt, Paris coule-t-il ?, Paris, Fayard, 2012, pp.82-84. 420 B. Les commissions « Paris-Port-de-Mer » : un port impossible ? 1. Création des commissions pour imaginer l'avenir du port de Paris. Une remise en cause de la gestion des rivières dans la région parisienne venait à l'ordre du jour. Les progrès incontestables accomplis au niveau de la canalisation de la Seine et de la navigation s'étaient révélés insuffisants. Amédée Jouy dans une brochure de 19121355 exhortant à constituer Paris comme port maritime, incrimina la mauvaise gestion des égouts comme une des causes aggravantes de cette crue 1356. En effet, des dépôts solides auraient formé des digues naturelles qui, sous la pression du gonflement du fleuve, auraient immanquablement cédé. Si la véracité de cette hypothèse mérite confirmation, elle ne montre pas moins que la gestion de la Seine méritait d'être repensée. Les questions d'aménagement des cours d'eau ne concernent pas exclusivement la navigation, mais de façon plus globale la sécurité générale. L'émotion à la suite de cette crue fut évidemment des plus vives. La Ville de Paris dut s'interroger sur les raisons de cette catastrophe et comment s'en prémunir1357. Dès le 9 février 1910, le ministre de l'Intérieur, M. Aristide Briand, soumit au président de la République qui l'accepta, un projet de décret instituant une grande commission composée de représentants du Conseil municipal de Paris, du Conseil général de la Seine, des savants et des praticiens « jouissant d'une autorité 1358 », des fonctionnaires des services techniques et administratifs en vue de rechercher toutes les mesures susceptibles de prévenir le retour de telles catastrophes ou d'en atténuer les effets. Il s'agissait de parer aux éventuelles critiques sur la gestion de la crise. Composées de quarante-deux membres, cette commission avait été chargée d'éclairer sur les causes des événements et de réfléchir à une meilleure prévention des risques 1359 . Cette commission comprenait notamment les fonctionnaires des Ponts-etChaussées, deux représentants du ministre de l'Agriculture, MM. Daubré et Dabat, le président de la Chambre de commerce de Paris et un membre de la Société des Ingénieurs 1355 Archives de Gennevilliers 23/82. Le préfet de l'époque, M. Lépine, n'avait effectivement rien trouvé de mieux que de décider de jeter les ordures parisiennes depuis les ponts de Tolbiac et d'Auteuil pour remédier à l'engorgement des égouts de la capitale Il n'avait fait que reprendre les « méthodes » de son lointain prédécesseur, le baron Haussmann, qui s'il avait certes renforcé considérablement le réseau d'égout de la capitale (Victor Hugo l'admettait lui-même dans les Misérables dans son fameux chapitre sur les égouts de Paris), n'avait en rien résolu, voire aggravé la question de l'évacuation des déchets, en la reportant sur la banlieue. Voir Pascal Popelin, Le jour où l'eau reviendra. 100 ans après la grande crue de 1910. La capitale inondée : une catastrophe à venir, Paris, Jean Claude Cawsewitch, 2009, pp.58-63. 1357 ACCIP IV-4.61 (12) : « Paris port de mer ». Rapport présenté, au nom de la Commission des Voies et Moyens de communication, par M. Mallet, adopté et converti en délibération par la Chambre de Commerce de Paris, dans sa séance du 8 novembre 1911, p.1. 1358 Expression tirée d'un passage lui-même cité dans le rapport de M. Mallet (Ibid. p.2). 1359 Pascal Popelin, Le jour où l'eau reviendra. 100 ans après la grande crue de 1910. La capitale inondée : une catastrophe à venir, Paris, Jean Claude Cawesewtich, 2009, p. 87. 1356 421 Civils. Le président de la Commission fut l'éminent inspecteur général des Ponts-etChaussées, également membre de l'Institut et du Conseil d'État 1360 , M. Alfred Picard. Le choix semblait assez naturel, dans la mesure où l'ingénieur était proche de la majorité du moment1361 et il avait été ministre de la Marine sous le gouvernement Clemenceau entre le 21 octobre 1908 et le 29 juillet 1909. Par ailleurs, il avait été nommé commissaire général de l'Exposition universelle de 1900. Tout cela semblait contribuer à en faire l'homme de l'emploi. La chambre de commerce e » Paris regretta, malgré tout, l'absence d'économistes, qui auraient été à même d'évaluer l'ampleur du coût des dégâts. 2. Un changement d'échelle : l'extension vers la banlieue. Dans le même temps, une commission administrative dite Paris-Port-de-Mer avait été instituée sur l'initiative du ministre des Travaux publics par arrêtés des 14 et 28 janvier et 1er avril 1911. Le 4 août, cette commission vota les premières conclusions que lui soumit la SousCommission de l'Outillage et du Régime administratif concernant les améliorations et compléments dont les infrastructures portuaires parisiennes paraissaient nécessiter. Comme le suggère la dénomination de la commission, la polémique de Paris port de mer avait présenté au moins le mérite de sensibiliser l'opinion sur la question portuaire parisienne. Certains en vinrent même à juger que les travaux proposés par Bouquet de La Grye auraient permis de préserver la capitale de la catastrophe. En conclusion de leur ouvrage sur les crues de Paris, le géographe Auguste Pawlowski et son collègue Albert Radoux écrivirent : « Et, peut-être, en fait, devra-t-on songer au projet de Bouquet de La Grye qui eût fait de Paris un port maritime, nous eût protégés contre les extravagances du fleuve1362 ». L'heure était donc à la surenchère des projets pharaoniques. Le député des Pyrénées orientales, M. Edmond Bartissol1363, a déposé au bureau de la Chambre un projet proposant le creusement d'un canal de dérivation qui se serait servi des fossés de fortifications de la rive gauche, de la porte d'Ivry à celle de Meudon. Ce canal était censé s'étirer sur une longueur de 9 kilomètres avec un tunnel de 4 350 m sous Montrouge, le reste étant à ciel ouvert. La dépense était évaluée à 10 millions de francs le kilomètre, soit un total de 90 millions, partiellement remboursé par les droits de péage imposé à la navigation transitant par Paris, et par les redevances versées par 1360 Il a été appelé à la vice-présidence du Conseil d'État le 27 février 1912. C'est-à-dire les gouvernements Aristide Briand, entre le 24 juillet 1909 et le 2 mars 1911, plutôt au centre à l'époque. 1362 Auguste Pawlowowki s'était pourtant montré plus mesuré sur la question dans son ouvrage sur les ports de Paris. Voir : Auguste Pawlowski, Albert Radoux, Les Crues de Paris (VIe-XXe siècle) Causes, mécanisme, histoire, dangers. La lutte contre le fléau, Paris, Berger-Levrault et Nancy, Cie Éditeurs, 1910, p.131. 1363 Député siégeant chez les Républicains progressistes. 1361 422 les commerçants locataires des quais1364. En somme, la navigation fluviale devait financer la protection des inondations. Cette dernière proposition ne pouvait guère aboutir dans le sens où la batellerie avait déjà fort à faire pour concurrencer les chemins de fer. De toute façon, parmi lesdits « commerçants sur les quais » figuraient de puissantes compagnies sablières qui auraient tout fait pour éviter une telle mesure. Plus ennuyeux encore, les inondations servirent de prétexte pour expulser, ou plus exactement, ne pas réinstaller certains ports et commerce dans la traversée de la capitale, les perspectives de financement semblaient ainsi des plus compromises De tout cela, il ressort que « Paris port de mer » joua un rôle déterminant dans la modernisation du port de Paris, ne serait-ce que parce qu'il obligea à envisager les installations portuaires de la région parisienne comme un ensemble cohérent. Le publiciste François Maury en profita pour faire rééditer son ouvrage sur le port de Paris, en le refondant très largement pour mieux le cadrer à l'actualité1365. Le « port de Paris » était ainsi devenu officiellement une réalité « grâce » aux inondations de 1910. Car si le Service de la navigation le dénommait ainsi dans ses statistiques, ce port n'avait pas d'existence palpable. D'ailleurs, celles-ci ne fournissaient même pas de données sur le trafic des ports dans la traversée de Paris. Cela témoignait à quel point les ingénieurs des Ponts et Chaussées raisonnaient avant tout en termes de flux, de circulation Ils étaient peut-être persuadés de la disparition à plus ou moins long terme de l'activité intra-muros1366. Les commissions Paris-Port-de-mer allaient ainsi donner la consistance à ces installations portuaires disparates, qui leur manquaient encore. La commission plénière adopta en 1911 huit résolutions. Celles-ci s'avéraient plus ou moins d'ordre général et il ne s'agissait que de suggestions. Faisait exception la première proposition qui concernait l'élargissement et l'approfondissement du bras de la Monnaie au coeur de Paris. En effet, l'écluse de la Monnaie montra non seulement son inutilité durant les inondations de 1910, mais plus encore, apparut comme un facteur aggravant. Cette mesure excédait donc le simple cadre de la navigation intérieure. Dans le même ordre d'idée, avait été imaginé un projet de dérivation de la Marne pour la protection de Paris contre les inondations. En outre, il était prévu d'ouvrir cette dérivation à la navigation des bateaux de 4 m de tirant d'eau et de la raccorder avec le canal de l'Ourcq, le long duquel devait être établis dans les 1364 Ibid. François Maury, Le port de Paris, Paris, Librairie Félix Alcan, troisième édition entièrement refondue, 1911, 307p. 1366 En l'occurrence, à très long terme. 1365 423 environs de Pantin et de Bobigny les bassins du nouveau port de Paris raccordés avec les voies ferrées de l'État et de la Grande Ceinture. Les nouvelles installations devaient être complétées par l'installation de deux ports en banlieue : l'un à Meaux, avec un quai de 1 000 mètres de longueur sur la rive droite de la Marne, relié aux chemins de fer de l'Est et à Gennevilliers, d'un quai de 2 500 m de longueur sur la rive gauche de la Seine, entre le pont du chemin de fer de Saint-Ouen à Ermont-Eaubonne et le pont du chemin de fer de Paris à Argenteuil, relié aux chemins de fer du Nord et de l'Ouest-État. À l'intérieur de Paris, on préconisa la construction et l'outillage des ports de Javel, Ivry-Austerlitz, de Bercy-Conflans qui devaient être raccordés avec les réseaux de l'Ouest-État, du PO, du PLM et de la GrandeCeinture. Un quai de 500 m de longueur au moins était prévu sur la rive droite de la Marne, à Saint-Maur pour assurer une liaison avec les chemins de fer de l'Est. Simultanément aux propositions de la commission, le député de la Seine Vaillant réclama au ministre des Travaux publics Jean Dupuy la déclaration publique des travaux de prolongement du canal de l'Ourcq lors de la séance du 10 juin 1912. Ce projet était censé raccourcir le parcours des péniches venant du Nord d'une cinquantaine de kilomètres et recevoir un trafic entre deux et trois millions de tonnes. Il se fondait sur un rapport publié par le Syndicat de la Marine, appuyé par son vice-président Albert Morillon1367. Cependant, le coût énorme, soit 128 millions selon les promoteurs de ce projet eux-mêmes, ne suscita pas vraiment l'enthousiasme du ministre. D'autres voix, même au sein du milieu de la batellerie, contestaient la faisabilité du projet, mettant en cause notamment la baisse du fret attendue1368. D'emblée, l'ampleur des mesures impressionne, et ce d'autant plus que hormis les canaux de Paris, il n'y avait eu guère de projets aussi ambitieux, mais plus encore, aussi globaux. Les mesures recommandées synthétisaient les problématiques de la fin du début du XXe siècle, à savoir le manque d'outillage public, de quais disponibles pour l'activité portuaire, le raccordement et la protection contre les inondations. Ce dernier point dévoilait toutefois une des limites de ce projet, les mesures anti crue primaient sur les aménagements liés à la navigation, ce qui en soi constituait une nouveauté par rapport à la période 1367 AMB C-20.1, « La question du canal de l'Ourcq », in Journal de la Navigation, 7 septembre 1912. AMB C-20.1, « En attendant le canal de l'Ourcq », in Journal de la Navigation, 23 novembre 1912. Il est fort possible que les compagnies de remorquages et de touage entre Conflans et la capitale ne voyaient pas d'un bon oeil un projet concurrençant potentiellement leur activité. Cela étant, les prévisions de trafic attendues n'étaient pas si farfelues, dans la mesure où le canal de l'Ourcq accueillait un trafic annuel de près de 600 000 tonnes, avec des conditions de navigation très limitées. Il pouvait vraisemblablement recevoir au moins un trafic entre 1 et 2 millions de tonnes. 1368 424 antérieure 1369 . On constate encore un changement d'échelle, les mesures préconisées pour l'équipement des banlieues dépassaient largement celles en faveur de Paris intra-muros. Encore fallait-il remarquer que les aménagements touchaient essentiellement la périphérie fluviale de Paris : Javel, Austerlitz Comme l'avait montré le port d'Ivry, une des préoccupations de ce début du XXe siècle consistait dans le raccordement. Et en effet, les projets de ports raccordés étaient aussi abondants qu'ambitieux. Il faut d'ailleurs remarquer que les compagnies de chemins de fer étaient particulièrement bien représentées dans ces commissions1370. Le changement d'échelle apparaissait donc fort remarquable, car il ne se bornait pas simplement la banlieue limitrophe à Paris, mais s'étendait à des zones plus lointaines (Meaux par exemple). Cela témoignait d'une vision plus globale, celle d'un « grand Paris » (même si le mot n'est pas employé explicitement). Cela en dit long sur la conscience des acteurs sur l'extension future de l'agglomération parisienne. Néanmoins, ces derniers se montraient parfaitement conscients que les aménagements proposés ne pouvaient s'accomplir que sur le long terme, réalisme souligné par la septième proposition : « Dans tous les cas, l'extension des ouvrages du port de Paris et la construction des ouvrages annexes devront être poursuivies par échelons suivant un programme assez souple pour qu'il soit possible d'en proportionner l'exécution aux besoins du trafic et d'y apporter, dans la mesure utile, les modifications suggérées par l'expérience1371 ». L'adoption des premières propositions de la Commission servirent de base de travail aux trois sous-commissions s'occupant de questions plus spécifiques, à savoir celle chargée de l'étude du régime administratif du port de Paris amélioré, la sous-commission du régime fiscal et la sous-commission des tarifs d'exportation. Les deux premières représentaient les deux volets essentiels de la question du port de Paris : quel statut adopter pour les organes gérant les installations portuaires ? La question fiscale s'avère également fondamentale, car il fallait réfléchir au financement de ce vaste programme. Par ailleurs, un des principaux obstacles à une coordination globale des ports résidait dans le fait que les canaux étaient les seules voies navigables payantes. Les revenus liés à l'exploitation et la vente de l'eau 1369 La Commission administrative Paris-port-de-mer fut instituée à la suite d'une commission dévolue à la protection contre les inondations. Il s'agissait sans doute aussi pour les commissionnaires de la commission Paris-port-de-mer de montrer l'intérêt de leur propre travail en injectant ici ou là des mesures contre les crues, ne serait-ce pour ne pas laisser croire à l'opinion publique, qu'elle ne servait que des intérêts privés 1370 Figuraient effectivement MM. Mauris, directeur de la Compagnie des chemins de fer de Paris-LyonMéditerranée, Nigond, directeur de la Compagnie des chemins de fer d'Orléans, Weiss, directeur de la Compagnie des chemins de fer de l'Est et Sartiaux, ingénieur en chef de l'exploitation du chemin de fer du Nord. On pouvait encore ajouter M. Fontaneilles, directeur des Chemins de Fer au Ministère des Travaux publics. 1371 AMB C 100-5, Commission administrative de Paris-Port-de-Mer, Rapport définitif adopté par la Commission plénière dans sa séance du 15 juillet 1914, pp.3-4. 425 constituaient un « trésor de guerre » auquel la Ville de Paris pouvait difficilement renoncer, dans un contexte de fiscalité directe encore limité, alors même que les canaux couvraient une aire géographique dépassant largement le périmètre intra-muros. Le débat autour du port de Paris se rapprochait de celui de la suppression des octrois parisiens1372 qui anima le débat public à la Belle Époque. Cette dernière question bénéficiait d'un certain soutien de l'opinion, des politiques et des milieux d'affaires Et de la même façon, elle n'allait se concrétiser que bien plus tard. Les octrois et la gestion des ports parisiens étaient des héritages du Consulat qui bien que dénoncés, pour leur caractère « archaïque », personne n'avait finalement pas trouvé de solution de rechange. Au point que l'on pouvait s'interroger s'ils ne satisfaisaient pas, au moins pour une part, certains protagonistes : certains marchands et industriels s'étaient accaparés les surfaces de quais disponibles à moindre coût, tout en se préservant d'une concurrence éventuelle, les services de la navigation et la préfecture de Police se montraient jalouses de leurs prérogatives, tandis que la Ville percevait la précieuse rente des eaux de l'Ourcq Dans ces conditions, ces « reliquats » d'une période pourtant révolue allaient être maintenues bien après la Première Guerre mondiale, et cela pour des raisons assez similaires En effet, vers la fin du XIXe siècle, les taxes issues des octrois représentaient près de la moitié des ressources ordinaires de la Ville de Paris et couvraient l'équivalent des intérêts de la dette, des dépenses d'instruction primaire et environ la moitié des frais d'assistance publique Autrement dit, comme les revenus liés aux eaux de ses canaux, la ville pouvait difficilement s'en passer. Si la population parisienne avait crû de près d'un quart entre 1876 et 1900, les dépenses de la ville avaient progressé bien plus rapidement, soit près de la moitié1373. Comme on l'a vu, les dépenses sociales avaient augmenté dans de fortes proportions, mais la dette laissée par Haussmann pesait dans des proportions considérables, soit annuellement entre le tiers et la moitié du budget1374. 3. Quel régime administratif pour le port de Paris ? a) Des services exclusivement techniques. Les trois Sous-Commissions se réunirent ainsi le 3 mai 1913 et le 21 février 1914. La Sous-Commission de l'Outillage et du Régime administratif déposa un second rapport 1372 Philippe Lacombrade, « Chronique d'une réforme avortée : l'échec de la suppression des octrois parisiens à la belle époque (1897-1914). », in recherches contemporaines, n° 5, 1998-1999, pp.77-107. 1373 G. Cadoux, Les finances de la ville de Paris de 1798 à 1900 suivies d'un essai de statistique comparative des charges communales des principales villes françaises de 1878 à 1898, Paris, Berger-Levrault, 1900, 821p. 1374 Bernard Marchand, Paris, histoire d'une ville XIXe-XXe siècle, Paris, Éditions du Seuil, 1993, pp.185-186. 426 préliminaire en date du 15 novembre 1911 1375 . Il fallait déjà s'entendre par ce que l'on nommait « port de Paris », car « Le port de Paris ne constitue pas aujourd'hui une entité définie d'une manière invariable1376». Le rapport notait qu'à la différence des ports maritimes où les chambres de commerce jouèrent un rôle essentiel dans leur modernisation en dotant leurs quais d'engin de déchargement et de magasinage, celle de Paris borna son action à établir le raccordement d'Ivry sans avoir envisagé établir et exploiter un outillage général du port en rivières. Le rôle de la chambre de commerce de Paris « dont les préoccupations sont complexes1377 » différait quelque peu de celui des villes portuaires, en raison de la taille de la capitale, mais aussi bien sûr, parce que sa relation avec la navigation n'était pas aussi évidentes Les établissements publics régionaux institués, chambres ou syndicats de navigation, dont deux ministres des Travaux publics, MM. Yves Guyotet Pierre Baudin songèrent à la création d'organes qui dans leur pensée devaient jouer pour les voies navigables un rôle analogue à celui des chambres de commerce dans les ports maritimes n'avaient pas reçu la consécration législative. Une des conséquences de ces abstentions et échecs consistait en l'absence d'outillage public sur les quais du port en rivière. L'initiative privée n'avait de son côté remédié que très imparfaitement à cette absence. L'exception la plus notable était l'outillage de la concession de la société Paris-Austerlitz, mais il n'intéressait qu'environ 500 m2 de quais Les installations spéciales de déchargement établies par de gros industriels au droit de leurs établissements riverains ne concernaient que des trafics bien spécifiques, or « les doléances que soulève la gestion du port municipal ne sont pas moindres que celles qu'on adresse au port en rivière. L'outillage qu'il comporte est, dit-on, aussi insuffisant, l'Administration aussi imprévoyante au point de vue commercial1378.» Les critiques qui s'élevèrent contre le régime administratif du port de Paris avaient pris corps depuis quelques années, soit dans les travaux de publicistes tels que François Maury sur le port de Paris, soit dans les délibérations de collectivités importantes et de corps d'élus. Il était à noter que la brochure de Maurice Bellecroix1379 avait été adressée à la Commission et donc constituait une de ses références. Parmi les corps élus et collectivités, la Ligue Maritime Française, avait émis un voeu, en novembre 1908, par lequel, après avoir déploré que le port 1375 ACCIP IV-4.61 (12), Commission Administrative de Paris port de Mer, G. de Joly, Sous-Commission de l'Outillage et du Régime administratif. 2ème rapport préliminaire, 15 novembre 1911. 1376 Ibid., p.1. 1377 Ibid., p.3. 1378 Ibid., p.4. 1379 Maurice Bellecroix, Le port de Paris, Paris, Éditions de la Ligue maritime, 1911, 45p. 427 de Paris n'était alors encore qu'une juxtaposition d'installations rudimentaires exploitées sans vues d'ensemble, après avoir imputé l'insuffisance du port en grande partie à la dualité des administrations qui s'en partageaient la gérance. Elle préconisa de centraliser l'administration des voies navigables du département de la Seine entre les mains d'une direction unique et autonome chargée de coordonner tous les services. Le voeu de la Ligue Maritime fut transmis par voie de pétition au Conseil général de la Seine et transformé par ce dernier en délibération le 22 décembre 1909 par laquelle l'Assemblée départementale sollicitait ministre des travaux publics pour mettre à l'étude la question de la réorganisation administrative du port de Paris. Cette étude devait être entreprise soit par une commission mixte composée de représentants du ministère des Travaux publics, de la Ville, de l'Inspection de la Navigation, des syndicats bateliers et de toute autres personnes que leurs compétences en matière d'exploitation de voie navigables retenues par le ministre. Cette commission avait pour objet de centraliser l'administration du port de Paris et ses annexes, c'est-à-dire des voies navigables du département de la Seine entre les mains d'un directeur unique et autonome chargé de coordonner tous les services. La délibération s'acheva par ce que devait être dans la pensée du conseil général de la Seine la direction du port de Paris. Dans son discours inaugural, le président Picard invita la commission à passer en revue les différentes modalités d'administration du port : action directe de l'État, intervention de la chambre de commerce de Paris, du département de la Seine, de la Ville de Paris, des communes, soit isolément, soit en participation, institution d'un organisme comparable à celui qui venait d'être proposé aux ports de mer, concession à l'industrie, etc. La question du régime administratif du port privé de Paris devait alors s'envisager dans toute son amplitude, en tenant compte de la réalisation éventuelle des améliorations et extensions déjà admises par la Commission. Dans sa séance du 3 mai 1913, la Commission de l'Outillage et du Régime administratif avait discuté le deuxième rapport préliminaire qui avait dressé le 15 novembre 1911 en vue de servir de base à la délibération. La commission rappela le régime administratif du « port de Paris » et exposa les différents régimes en vigueur dans les ports maritimes : port d'État, ports municipaux, ports gérés par l'industrie privée, ports gérés par des établissements ; la commission présenta les diverses combinaisons susceptibles d'être adoptées pour le port de Paris. Les premières de ces combinaisons envisageaient le groupement de tous les éléments devant former le port de Paris en un unique faisceau, relevant d'une seule et même autorité et une direction unique. Ces combinaisons supposaient l'application au port d'un régime unitaire ou bien de régimes distincts aux diverses parties du 428 port. Le régime unitaire que réclamaient la Ligue maritime Française et le Conseil général de la Seine impliquait la tutelle de l'État, ou de la Ville ou encore d'un établissement public. D'emblée, il semblait impossible d'instituer un régime unitaire au profit de l'industrie privée, car l'État et la Ville de Paris n'étaient pas disposés à remettre les ouvrages sous leur gestion à un concessionnaire privé. La ville de Paris avait en effet racheté en 1861 le canal Saint-Martin et en 1876 les canaux de l'Ourcq et de Saint-Denis, et elle n'entendait 'pas les remettre à une compagnie privée, ayant déjà eu des difficultés avec la compagnie précédente. Cette combinaison supposait un engagement effectif des entités précitées, or il n'était pas certain, pour ne pas dire absolument certain, qu'elles étaient réellement prêtes à s'engager dans cette voie. L'État français s'impliquait de façon grandissante dans la politique ferroviaire1380 et la Ville de Paris ne pouvait guère renoncer aux revenus qu'elle percevait des canaux. Dans ces conditions, une seconde combinaison fut avancée. Censée plus pragmatique, plus souple, elle s'inscrivait dans le cadre des régimes distincts aux diverses parties du port de Paris. D'ailleurs, elles s'avéraient finalement aussi multiples que floues. Elles pouvaient impliquer le recours à l'industrie privée pour les extensions projetées, l'institution d'un établissement public pour la gestion d'une partie du port, l'amélioration de l'outillage du port en rivière par une ou plusieurs concessions accordées à la chambre de commerce de Paris ou à des sociétés particulières. Cette combinaison n'excluait cependant pas totalement l'unification du port de Paris, celle-ci pouvait tout au moins se concrétiser via l'institution d'une commission permanente groupant les divers organes intéressés à son administration et son exploitation. Si cette possibilité avait été envisagée, elle n'avait pas pour autant été retenue par le rapport préliminaire, mais en avait, au contraire, montré les limites1381. Le ministère des Travaux publics s'était borné jusqu'alors à la construction des ouvrages essentiels des ports et voies navigables en laissant le soin aux usagers d'en améliorer l'utilisation par l'installation d'outillage en général confiés à des établissements publics. La situation semblait différente en Allemagne1382 où les petits États, les villes hanséatiques et le royaume de Prusse lui-même, intervenaient directement dans l'établissement de l'outillage des ports et dans leur exploitation sans craindre de « reproche d'étatisme qui ne manquerait pas d'être opposé en France à des inventions analogues. Il serait sans doute difficile 1380 Yasuo Gonjo, « Le "Plan Freycinet" (1872-1882) : un aspect de la grande dépression économique en France », Revue historique, n° 503, juillet-septembre 1972, p. 74. 1381 AMB C 100-5, Commission administrative de Paris-Port-de-Mer, Rapport définitif adopté par la Commission plénière dans sa séance du 15 juillet 1914, p.5. 1382 B. Auerbach, « La Moselle et la Sarre dans le programme intérieure de l'Allemagne », in Revue Politique et Parlementaire, 10 novembre 1907, pp.352-362. 429 d'obtenir qu'il soit fait pour le port de Paris une exception aux règles en vigueur, et les résultats d'une exception de ce genre seraient forcément douteux1383.» L'unification administrative du port de Paris au profit d'un service d'État soulevait en outre un problème avec la municipalité, propriétaire des canaux. Le canal de l'Ourcq remplissait une double fonction, la fonction navigable et l'alimentation des autres canaux pour leur navigation, ce qui en soi, ne posait pas de difficultés quant à la rétrocession à un organisme unifié gérant le port de Paris, mais il constituait par ailleurs une rigole d'alimentation dont les eaux servaient à l'arrosage des rues de Paris. L'affection des eaux de l'Ourcq aux besoins urbains avait été l'objet d'une discorde la Ville et la compagnie concessionnaire, surtout lors des périodes de sécheresse. Une réorganisation du port de Paris qui tendait à unifier son régime administratif, en plaçant directement sous l'action de l'État le port municipal existant, devait avoir au préalable un accord avec la Ville réglementant l'usage des eaux de l'Ourcq et fixant leur répartition de façon à mettre la navigation à l'abri de prélèvements abusifs. L'accord considéré devait alors stipuler, selon le rapport Joly, que le cube des eaux en provenance du canal de l'Ourcq et envoyé dans les conduites de distribution urbaine ne dépassât pas un maximum forfaitaire, de façon à réserver aux besoins de la navigation une alimentation convenable et à lui permettre de bénéficier des améliorations qui étaient apportées dans son intérêt à l'alimentation du canal. Ces améliorations qui apparaissaient alors nécessaires, s'imposaient encore davantage s'il était donné suite au projet de dérivation de la Marne et au développement du port de Paris qui en était solidaire. Celui-ci, comprenait effectivement l'établissement entre la dérivation et le canal de l'Ourcq d'un canal de raccordement qui devait emprunter son alimentation à la voie dominante, autrement dit le canal de l'Ourcq. Ce dernier devait suivre les besoins des trois canaux, dont un à grande section et l'autre à trafic probablement intensif. L'accord relatif à la répartition des eaux provenant du canal de l'Ourcq étant conclu, il demeurait à éviter les autres conditions de la cession par la Ville des canaux formant le port municipal. Les recettes à cette époque de ce dernier en provenance des péages un droit de navigation, des locations de terrain, des ventes d'arbres, des droits de navigation, des droits de chasse ou de pêche S'élevaient à 1 300 000 francs en chiffres ronds et constituaient la contrepartie des dépenses d'entretien et de personnel 1383 ACCIP IV-4.61 (12), Commission Administrative de Paris port de Mer, G. de Joly, Sous-Commission de l'Outillage et du Régime administratif. 2ème rapport préliminaire, 15 novembre 1911, p.14. 430 s'élevait à 820 000 francs, auxquelles il fallait ajouter jusqu'au 1er janvier 1922 les annuités de rachat1384. Un rapport de la 6e Commission de la Ville présenté en 1910 devant le conseil municipal montra que les dépenses qu'elle avait consacré à l'établissement et à l'amélioration des canaux étaient amorties par les économies résultant de la fourniture de l'eau amenée annuellement par le canal de l'Ourcq et employée pour le service public et industriel. Le prix de revient du mètre d'eau puisée en Seine et relevé à la hauteur du bassin de la Villette, c'està-dire de 24,56 m était alors évalué à 0,02 francs 1385 en tenant compte des dépenses de fonctionnement et l'amortissement des dépenses d'établissement. Il procurait une économie totale annuelle de 900 000 francs appliquée au cube de 45 000 000 m3 « et ce chiffre a été bien dépensé pendant la majeure partie du 19ème siècle, où es machines élévatoires étaient moins perfectionnées qu'aujourd'hui1386.» Or, la Ville de Paris était censée être entièrement libérée de la charge du rachat des canaux dans les dix années ultérieures si bien qu'elle se trouvait jouir du port et des canaux d'un revenu de 500 000 francs environ prélevé en majeure partie des droits perçus sur la navigation et qu'elle considérait elle-même comme un revenu net, et d'un volume de 130 000 m3 d'eau acheminé gratuitement dans des conduites de distribution. Ces chiffres devaient fournir les bases de la convention qu'il y avait lieu de négocier entre la Ville et l'État s'il fallait mettre sous l'action directe de ce dernier l'ensemble des installations du port de Paris. L'adoption de cette première forme de régime unitaire avait pour conséquence la mise à la charge de l'État de la dépense des travaux d'amélioration et d'extension reconnus pour le port de Paris : « Elle risquait de soulever des difficultés à peu près insolubles, alors même que la Ville de Paris verserait à l'État, à titre de fonds de concours, une part importante des frais de premier établissement1387.» b) Régime unitaire institué au profit de la Ville. Le régime unitaire envisagé pour le port de Paris pouvait être institué au profit de la Ville et cette combinaison avait été préconisée par François Maury qui dans son ouvrage sur 1384 ACCIP IV-4.61 (12), Commission Administrative de Paris port de Mer, G. de Joly, Sous-Commission de l'Outillage et du Régime administratif. 2ème rapport préliminaire, 15 novembre 1911, p.16. Pour le canal SaintMartin : 190 000 francs. Pour les canaux de l'Ourcq et de Saint-Denis : 540 000 francs. Total : 720 000 francs. 1385 En 1910. 1386 ACCIP IV-4.61 (12), Commission Administrative de Paris port de Mer, G. de Joly, Sous-Commission de l'Outillage et du Régime administratif. 2ème rapport préliminaire, 15 novembre 1911. 1387 ACCIP IV-4.61 (12), Commission Administrative de Paris port de Mer, G. de Joly, Sous-Commission de l'Outillage et du Régime administratif. 2ème rapport préliminaire, 15 novembre 1911, p.17. 431 le port de Paris préconisait l'application à la capitale 1388 d'un régime comparable à celui d'Anvers. Le régime de « l'autonomie » municipale présentait pour ses partisans l'avantage d'un retour à l'ancienne tradition remettant au prévôt des marchands et à ses échevins l'exploitation du port. Tout en conservant ses droits sur le cours même de la Seine. L'État, cédait à la municipalité l'entretien et l'exploitation des ouvrages en rivière et le soin de leurs extensions et améliorations. Tout cela était censé permettre instituer une direction unique et responsable. Or, l'établissement de ce régime exigeait lui aussi de modifier complètement les errements antérieurs. Si la remise à la Ville du port en rivière avait comme conséquence l'extension pure et simple à ce dernier des méthodes d'exploitation et la taxation qui était alors de vigueur sans être composée par une supériorité de l'outillage public même si : « les intéressés n'y trouveraient sans doute aucun avantage1389.» Les difficultés liées à la confusion de l'alimentation des canaux de la Ville et du Service de la distribution des eaux pour les usagers publics et industriels subsistaient quand même, au détriment des voies navigables et de ports dont l'exécution de la Marne et des travaux s'y rattachant, auraient accru l'importance 1390 . Les partisans du régime unitaire municipal ne méconnaissaient pas la valeur des objections des adversaires de la municipalisation et ils proposaient d'y obvier en formant la direction du port sous la forme d'un grand service autonome censé disposer, à l'instar de l'Assistance publique, d'une certaine liberté de mouvement sous le contrôle du conseil municipal1391. Cette conception se rapprochait en fait de celle d'un régime unitaire au profit de l'établissement public. Dans la pensée de ses promoteurs, le service municipal du port de la Ville devait être doté puissamment pour réaliser rapidement, avec le concours financier de l'État, toutes les améliorations et extensions estimées indispensables. c) Le rôle de la chambre de commerce de Paris. Les partisans de la chambre de commerce de Paris tant qu'organe administrateur du port unifié se référaient au rôle que les chambres consulaires des villes maritimes avaient joué dans l'outillage et plus généralement dans le développement des ports à la fin du XIX e siècle 1388 En plus de son histoire du port de Paris, François Maury avait rédigé une étude sur le port d'Anvers. ACCIP IV-4.61 (12), Commission Administrative de Paris port de Mer, G. de Joly, Sous-Commission de l'Outillage et du Régime administratif. 2ème rapport préliminaire, 15 novembre 1911. 1390 Ibid., p.18. 1391 Avant la guerre, il y eut des tentatives de redéfinir le statut des ports maritimes, consulter le rapport de Charles Chaumet à ce sujet, dans l'annexe au procès-verbal de la 2e séance du 18 février 1910. 1389 432 et du XXe siècle1392. Pourtant, cette solution n'avait pas été retenue, car on considérait que les chambres de commerce étaient avant tout des organes consultatifs et non exécutif et que leur cratère local ne pouvait comprendre les intérêts plus globaux que représentaient un port, en particulier pour les questions de transit qui intéressant l'hinterland. Le rôle de la Chambre de commerce de Paris semblait ambigu, dans le sens où elle avait une vocation qui excédait le cadre strictement local1393. Cette ambivalence tenait sans doute à la nature des ports de la région parisienne, et à la vocation d'une chambre consulaire non exclusivement dévouée à des activités maritimes. Les chambres de commerce françaises paraissaient avoir au contraire pris une part bien plus active pour l'amélioration de l'outillage et l'établissement de magasins dont elles s'étaient faites les gérantes1394. Cependant, de la fin du XIXe siècle jusqu'en 1914, le régime allait évoluer plus tard avec l'instauration des premiers statuts de ports autonomes. Quoiqu'il en soit, selon l'aveu même du président de la chambre consulaire parisienne, cette institution s'était relativement désintéressée à tout établissement d'outillage public généralisé, et même à vocation, en dehors du port de raccordement d'Ivry. En outre, la chambre consulaire reconnaissait qu'une part significatives de ses mandants, liés aux industrie et commerce du luxe, n'éprouvaient qu'un d'intérêt limité pour le mouvement du port, si bien qu'elle aurait dû faire appel à des administrateurs spéciaux pour gérer l'établissement d'un régime unitaire Néanmoins, M. David-Mennet fit part d'une évolution dans les idées de la Compagnie, contrastant avec celles prévalant au moment de l'établissement du port d'Ivry. La chambre se montrait apparemment plus concernée par rapport à la question de l'outillage portuaire parisien, elle se déclarait prête à occuper une part active à son développement. De façon plus prosaïque, elle revendiqua la gestion des Entrepôts de douane dont la concession expirait en 1914. Elle se proposait de coopérer en vue de l'établissement des outillages reconnus indispensables sur les quais du port en rivière, tant dans l'enceinte de Paris que sur les quais des communes suburbaines. En revanche, elle se montrait plus prudente concernant le port municipal1395. La Compagnie déclara son voeu de poursuivre avec la Ville des tractations pouvant aboutir à une participation de l'assemblée 1392 Bruno Marnot, Les grands ports de commerce français et la mondialisation du XIXe siècle, Paris, Presses universitaires Paris-Sorbonne, 2011, pp.173-192. 1393 ACCIP IV-4.61 (12), Commission Administrative de Paris port de Mer, G. de Joly, Sous-Commission de l'Outillage et du Régime administratif. 2ème rapport préliminaire, 15 novembre 1911, p.20. 1394 Édouard Détraux, Étude sur la coopération des établissements publics et principalement des chambres de commerce à l'aménagement et l'exploitation des ports de commerce, Paris, Henri-Jouve, 1903, pp.90-91. 1395 433 consulaire à l'amélioration de l'outillage, voire la gestion du bassin de la Villette et du canal Saint-Denis. La tâche initiale de la sous-commission consistait à se prononcer ou bien en faveur de l'institution d'un régime administratif unitaire pour l'ensemble du port de Paris, ou bien appliquer des régimes distincts à ses diverses composantes. Les voeux exprimés par la chambre consulaire l'incitèrent à ne pas retenir l'hypothèse d'un régime unitaire. La gestion exclusive par l'État ne paraissait guère envisageable. L'administration des Travaux publics ne montrait effectivement que peu d'enthousiasme à étendre son action au port municipal et que l'institution d'un régime lui conférant l'administration du port dans sa globalité incluant les installations intra-muros, les ports en rivières du département de la Seine et certains situés en Seine-et-Oise. À l'inverse, l'institution d'un régime unitaire au profit de la Ville de Paris recevait encore moins les suffrages. Certains craignaient une extension des méthodes d'exploitation et surtout de la taxation en usage dans le port municipal. Plus largement, l'application de la municipalisation aux ports maritimes ne paraissait n'avoir rassemblé que peu de partisans. Au fond, à la municipalisation, il n'y avait qu'un pas vers la nationalisation, ce qui n'était guère envisageable dans un contexte encore très libéral : « on a considéré comme peu opportun d'exposer les villes à la tentation d'appliquer aux services communaux des recettes prélevées sur la navigation, en les chargeant d'une tâche en partie commerciale à laquelle ne se prêtent ni leur organisation ni leur mode d'élection1396 ». Pourtant, la conception unitaire avait été proposée par M. Robaglia en renvoyée à l'étude par le Préfet de la Seine, par délibération du 26 décembre 1912. Cette conception consistait à inclure dans le port de Paris au sens large, la Seine depuis Port-à-l'Anglais jusqu'à la limite amont du port de Rouen. M. Robaglia suggérait également de concéder cet ensemble à la Ville. Celle-ci y aurait perçu des droits de navigation et d'occupation temporaire des abords du fleuve, ainsi que les diverses surtaxes sur les transports. Il demeurait la possibilité d'une gestion d'un port de Paris unifié à un Établissement public existant ou créé spécialement. L'idée de remettre l'administration et l'exploitation des ports aux chambres consulaires était en vogue. Pourtant, elle n'a été finalement que peu retenue pour les ports maritimes. Dans ces conditions, cette idée paraissait encore plus utopique pour le port de Paris. Au nom de la chambre de commerce de Paris, M. Mallet s'opposa avec fermeté à l'établissement de l'institution à Paris d'un consortium ou d'un conseil d'administration comparable à celle que le Conseil général de la Seine avait 1396 AMB C 100-5, Commission administrative de Paris-Port-de-Mer, Rapport définitif adopté par la Commission plénière dans sa séance du 15 juillet 1914, p.6. 434 réclamé dans une délibération du 22 décembre 1909. Cela signifiait accorder un rôle excessif à la chambre de commerce, mais mal défini par la législation. Il semblait ainsi manquer un cadre juridique adapté à un ensemble portuaire aussi singulier. L'organisation en mise en place sous le Consulat paraissait difficile à réformer1397 : « cette organisation, qui remonte au Consulat et qui porte la forte empreinte des créations administratives de cette époque, est, comme on l'a déjà fait remarquer, plus facile à critiquer qu'à remplacer, et l'institution d'un régime unitaire, qui soulèverait des difficultés sérieuses et diverses, ne saurait en tout cas aboutir avant l'expiration de longs délais 1398 ». Les administrations en cause -services municipaux, Ponts et Chaussées et Préfecture de police- ne semblaient guère enclines à céder leurs prérogatives, notamment la Ville de Paris qui percevait des taxes sur l'exploitation des canaux. Au bout du compte, les discussions de la Sous-Commission aboutirent en faveur du maintien du statu quo : « La Sous-Commission estime donc que, quels que soient les avantages, peut-être théoriques, revendiqués en faveur du système unitaire par ses partisans, il est préférable de conserver des régimes distincts pour les diverses parties du port de Paris1399 » Personne ne semblait vouloir se lancer dans une telle aventure, ce qui explique pourquoi les commissions n'aboutirent qu'à peu de choses concrètes. La proposition la plus ambitieuse de ces commissions fut sans doute la création d'un vaste ensemble portuaire dans la presqu'île de Gennevilliers. Le projet demeurait pourtant flou : port industriel, de raccordement, maritime Que désirait-on construire au juste ? Les partisans de Paris port de mer y voyaient l'opportunité de créer un avant-port intérieur ouvert à la navigation maritime. D'autres pouvaient y percevoir un avant-port dont la vocation consisterait à recevoir les marchandises transitant par les ports de Manche. D'autres encore rêvaient à un vaste port industriel Toutefois, la durée même des travaux pour créer un tel établissement renforçait la confusion quant à la vocation de celui-ci. En effet, il y avait fort à parier que les conditions économiques allaient sensiblement varier dans le temps. En résumé, tout le monde y voyait ce qui l'arrangeait. En même temps, cette confusion pouvait rassurer les compagnies de chemin de fer, étant donné leurs réticences à l'égard des ports de raccordements. Nonobstant, l'établissement de ce port apparaissait naturel au regard de l'évolution du trafic en Basse-Seine, car il pouvait constituer un terminal entre les arrivages des ports de Normandie et des charbons en provenance des régions du Nord et de la Belgique. 1397 ACCIP IV-4.61 (12), Commission Administrative de Paris port de Mer, G. de Joly, Sous-Commission de l'Outillage et du Régime administratif. 2ème rapport préliminaire, 15 novembre 1911. 1398 AMB C 100-5, Commission administrative de Paris-Port-de-Mer, Rapport définitif adopté par la Commission plénière dans sa séance du 15 juillet 1914, p.7. 1399 Ibid. 435 L'évolution du trafic entre la proche banlieue et Conflans-Sainte-Honorine était éloquente, comme le montre le graphique ci-dessous : Graphique 42. Tonnages effectifs sur la 7e section de la Seine (de la Briche jusqu'à Conflans) 1882-1913. 10 000 000 Tonnages 8 000 000 6 000 000 4 000 000 2 000 000 1882 1884 1886 1888 1890 1892 1894 1896 1898 1900 1902 1904 1906 1908 1910 1912 0 Source : Ministère des travaux publics, Statistiques de la navigation intérieure pour les années 18821913. Sur la 7e section de la Seine, le trafic était effectivement passé de 2,7 millions de tonnes, en 1886, à 8,7 millions, en 1913, et les perspectives se révélaient des plus prometteuses à la faveur de l'essor industriel et urbain de cette partie de l'agglomération parisienne. En outre, comme on l'a vu, le canal du Nord était enfin en construction, ce qui suggérait que le trafic en provenance du Nord ne pouvait que s'accroître. La création d'un vaste port en aval de Paris pouvait apparaître des plus pertinentes, et cela d'autant plus que le site présentait d'importantes surfaces disponibles. Cette commune de grande taille 1400 demeurait de type rural et peu urbanisée, notablement moins que ses voisines qui entraient déjà dans l'ère industrielle. Comment expliquer ce retard1401 ? La position géographique de Gennevilliers, située au bout d'une presqu'île semble avoir enclavé cette localité, et entravé son développement. Ainsi, la Seine a isolé Gennevilliers des principaux centres d'attraction économiques de cette partie de la région parisienne : Saint-Denis et Argenteuil, communes qui avaient quant à elles été reliées au chemin de fer. Le sol de Gennevilliers n'était, en outre, guère fertile, ce qui en a avait fait une commune assez pauvre. Le sol composé de sable se révélait particulièrement perméable, et nécessitait une bonne irrigation dont ne disposait pas le village. Cette relative pauvreté agricole a fait que Gennevilliers n'intéressa que tardivement les autorités publiques et les industriels, surtout lorsqu'il s'agissait de relier ce village aux 1400 Près de 1500 hectares en incluant le « hameau » de Villeneuve-la-Garenne qui fit partie de la commune jusqu'en 1929. 1401 Martine Dubesset, « L'émergence d'une population ouvrière dans la commune agricole de Gennevilliers 1875/80-1914, Les raisons d'une stagnation économique », mémoire de maîtrise d'histoire sociale contemporaine dirigée par Philippe Vigier, professeur à l'université de Paris X-Nanterre, octobre 1982, 180p. 436 voies de communication. Cet enclavement déjà ancien allait s'aggraver au XIX ème siècle. Colombes et Asnières étaient les seules communes avec qui Gennevilliers possédait un contact terrestre. Sinon, la Seine isolait celle-ci de Clichy, Saint-Ouen, Saint-Denis et Argenteuil L'unique moyen de communiquer avec ces communes était le pont ou le bac. Or, les ponts ont été dans cette localité bâtis assez tardivement. Jusque vers 1826, la commune n'avait été accessible que par bac sauf pour sa partie terrestre. Contournée par Saint-Denis, elle échappait aux flux traditionnels de marchandises. La Seine avait donc représenté un obstacle durable pour Gennevilliers. Le pont d'Asnières ne fut bâti qu'en 1821, celui d'Argenteuil en 1831. Or, ces ponts demeuraient peu nombreux. En 1844, ont été construits les ponts suspendus de l'Ile-Saint-Denis, en 1865, celui de Saint-Ouen, en 1869 celui de Clichy dans le prolongement du boulevard traversant ladite commune, en 1879 le pont d'Épinay, et enfin seulement en 1924 celui de Gennevilliers Toutefois, soumis encore aux péages, ces ponts ne résolvaient guère l'isolement gennevillois. La Ville de Paris ne commença à racheter ces droits qu'à partir de 1882, encore qu'elle y mît de la mauvaise volonté, ce qui ne contribua pas à accélérer le processus. L'isolement de Gennevilliers ne fut finalement résolu qu'en 1910, avec le rachat du pont d'Argenteuil. L'absence de gare de chemin de fer constituait un des facteurs de cet enclavement. Au fond, il n'est guère simple de déterminer s'il s'agissait du résultat ou de la cause de cet isolement. Seule la ligne de chemins de fer reliant Paris à Argenteuil traversait le territoire de la commune par le « Petit Gennevilliers » situé à l'extrême Nord-Ouest depuis 1863. La ligne joignant Paris aux docks de Saint-Ouen ne se rendait pas à Gennevilliers. En 1890, un projet resta sans suite jusqu'en 1897, où l'on envisagea de relancer la question. La ligne des docks de Saint-Ouen à Ermont-Eaubonnne fut déclarée d'utilité publique que le 9 janvier 1904, malgré les jugements d'expropriation en 1896. Était prévu l'arrêt d'une gare sur le lieu-dit « les Grésillons ». En 1908, fut ouverte la ligne de chemins de fer reliant la ville à la Gare du Nord et qui allait attirer un grand nombre d'industries. 1402. La commune de Gennevilliers s'était industrialisée dans un contexte très particulier. Elle accusait un retard remarquable par rapport au reste de cette partie de la banlieue parisienne. Ironie de l'histoire, Gennevilliers ne sembla pas non plus avoir tiré avantage du fleuve. En effet, cette situation aurait pu être 1402 Il n'y avait comme mode de transport reliant Gennevilliers à Paris qu'un tramway à vapeur, dont la ligne ne fut ouverte que le 21 juillet 1877. La Compagnie des tramways du Nord en assurait le service. La ligne se rendait jusqu'à la Madeleine, encore que la fréquence des départs - un par demi-heure - était jugée amplement insuffisante pour ses usagers. 437 considérée comme bénéfique à la suite des travaux considérables que les autorités publiques avaient effectués pour l'approfondissement de la Basse-Seine. L'unique certitude était l'établissement d'un vaste port en aval de Paris. Sur ce point, en dehors de quelques réserves, l'idée même du port suscitait l'unanimité, sans doute parce qu'il s'avérait suffisamment flou pour satisfaire tout le monde. Il constituait comme une synthèse entre ce qu'avait été réalisé et rêvé depuis l'avènement des chemins de fer et l'avenir que l'on supposait ou espérait de ce que désormais on appelait le « port de Paris ». Son emplacement même entérinait l'essor de la Basse-Seine favorisé par les importants travaux d'aménagement entrepris depuis le Second-Empire et surtout le plan Freycinet. De même, il entérinait d'autres enjeux majeurs de la batellerie à l'orée de ce nouveau siècle : le raccordement, l'outillage En quelque sorte, il représentait l'idéal de ce que devait être une batellerie moderne. À l'instar du flou de la fonction du port de Gennevilliers, plus globalement, la mise en oeuvre des travaux demeurait lointaine et incertaine. En l'absence de régime spécifique aux installations portuaires, qui allait superviser des travaux d'une telle ampleur ? À qui reviendrait l'exploitation ? L'attitude de la chambre de commerce de Paris laissait entrevoir un désir de sa part de s'impliquer davantage dans l'outillage de certains ports, mais ses représentants semblaient avoir tenu à rappeler que leur établissement entendait avant tout accompagner, plutôt que de diriger le développement du port. C'est d'ailleurs ce qu'elle fit à Austerlitz et à la Villette. Au fond, les commissionnaires proposèrent un projet grandiose, sans que l'on sache véritablement qui allait le mettre en pratique Mais le déclenchement de la guerre allait profondément modifier la donne et perturber les différents projets envisagés par les commissions. Malgré tout, en raison de son ampleur, de sa conception en avance sur son temps, l'histoire du port de Gennevilliers ouvrait une nouvelle période, celle des plates-formes multimodales. 438 Carte 7. Croquis du port de Paris et de l'agrandissement projeté. Source : François Maury, Le port de Paris, Paris, Librairie Félix Alcan, troisième édition entièrement refondue, 1911, 286p. 439 Conclusion : un port à contre-courant ? L'évolution du trafic semblait plus conforme à celle de l'économie générale, que ce que l'on a pu observer au cours des dernières décennies précédentes, puisqu'il adhérait à la prospérité ambiante Encore, faudrait-il rappeler que sa progression s'inscrivait plutôt dans une certaine continuité par rapport à la période de dépression économique antérieure. Tout au plus, observe-t-on une accélération des quantités transbordées. On peut s'interroger si cette correspondance entre conjoncture nationale et de l'activité du port de Paris ne manifeste pas le fait que celui-ci ait atteint une certaine maturité pour prendre sa configuration contemporaine, celle d'un port de consommation avec une place croissante de la basse Seine. En effet, on ne constatera plus pour les périodes postérieures un tel décalage entre l'état supposé de l'économie générale et celle du trafic fluvial. Quoiqu'il en soit, c'était moins dans l'évolution du trafic que l'histoire du port de Paris s'inscrivait dans celle de la Belle époque, mais plutôt dans les tensions que son activité générait. En outre, si cette prospérité profitait aux propriétaires des sablières, la situation des travailleurs sur ces mêmes sablières n'était pas des plus reluisantes, plus encore, la mécanisation avait apporté son lot de précarité, déqualification et finalement La prospérité du port de Paris ne signifiait pas celle de toutes les populations qui le servaient. Une tension naissait entre précarisation, « pénébilisation » des tâches à accomplir et les aspirations d'une société à plus de justice et de confort social. L'activité portuaire parisienne des années précédant immédiatement la Première Guerre mondiale contredirent les prévisions d'un déclin irrémédiable du transport fluvial. Ces dernières années sont relativement moins connues, dans la mesure où la guerre a annihilé en majeure partie les bénéfices de cette croissance. Après la fin des hostilités, plusieurs années se révéleront nécessaires pour rattraper le niveau de 1913. Les performances de la batellerie au cours de cette période semblent avoir été quelque peu occultées, elles s'avèrent d'autant plus étonnantes étant donné les échecs successifs du programme Baudin au début du siècle et de la timide loi Barthou en 1908. Plus encore, la batellerie se redressa alors même qu'on la croyait condamnée et que l'action des chemins de fer pour juguler son expansion semblait avoir porté ses fruits. En effet, à en lire les articles de la Revue politique et parlementaire, l'avènement de nouveaux modes de transports, à l'instar de l'automobile, le métro et les tramways semblent avoir pris l'ascendant sur « l'antique » concurrence entre les voies navigables et les chemins de fer. Le paradoxe résidait sans doute dans le fait que l'émergence de ces nouvelles activités contribua précisément au redressement des voies navigables au moins dans le Nord. Il fallait 440 ajouter une embellie dans l'activité du bâtiment et des travaux publics et une modernisation tardive, mais réelle de l'outillage portuaire et marinier. Le rôle de la navigation intérieure s'est donc révélé décisif à une époque où Paris et sa banlieue1403 connurent un essor colossal1404, car à différence de l'ensemble du pays, la capitale a profité d'une croissance démographique considérable, due il est vrai, en grande partie à l'exode rural. Comme Jean-Charles Asselain le fait remarquer « Paris, cependant, n'est pas (seulement) une métropole parasite hypertrophiée ; c'est aussi de plus en plus, le premier pôle industriel français1405. » Le département de la Seine abritait effectivement 1,1 million de travailleurs employés dans l'industrie, ce qui représentait près du sixième de la population industrielle du pays. Les activités étaient extrêmement diversifiées. D'un côté, les activités traditionnelles du luxe travaillaient aussi bien pour le marché intérieur (ébénisterie), mais la plupart exportant leurs produits (bijouterie, mode). D'un autre côté, la banlieue attirait de nombreuses industries mécaniques nouvelles : aéronautique, automobile À l'instar de la batellerie, l'économie parisienne n'avait donc pas entièrement suivi l'évolution générale du pays. Il fallait bien entendu prendre en compte les trafics « exceptionnels » qui dopèrent à la fois le développement urbain de Paris et de ce fait de la batellerie, à savoir les expositions universelles. Par ailleurs, Paris se dota d'un métro, et malgré les conflits pouvant exister entre les intérêts de la batellerie et la construction de cet ouvrage en ce qui concernait la circulation, il n'en demeurait pas moins que le métro constitua un débouché extraordinaire pour la voie d'eau, à la fois pour l'apport de matières premières que pour l'évacuation de déblais1406. 1403 Jean Bastié, La croissance de la banlieue parisienne, Paris, P.U.F., 1964. Sur l'aspect bâtiment, on peut lire utilement le livre de Michel Lescure, qui bien que relativement ancien, demeure encore utile : Michel Lescure, Histoire d'une filière : immobilier et bâtiment en France (1820-1980), Paris, Hatier, 1983, 80p. ; sinon, consulter : J.-P. Bardet, P. Chaunu, G. Désert, P. Gouthier, H. Neveux, Le bâtiment ; enquête d'histoire économique XIVe-XIXe siècles, Paris, Mouton, 1971. ; A. Daumard, Maisons de Paris et propriétaires parisiens au XIXe siècle, Paris, Ed. Cujas, 1965. ; R.H. Guerrand, Les origines du logement social en France, Paris, Les Éditions ouvrières, 1996. ; Michel Lescure, Les sociétés immobilières en France, au XIXe siècle, Paris, publications de la Sorbonne, 1980. ; Michel Lescure, Les banques, l'État et le marché immobilier en France à l'époque contemporaine (1820-1940), Paris, Éditions de l'École des Hautes Études en sciences sociales, 1982. 1405 Op. cit., p.196. 1406 Dominique Larroque, Les transports en commun dans la région parisienne : enjeux politiques et financiers, Thèse de 3ème cycle, Paris, E.H.E.S.S., 1980, 436p. ; « Le réseau et le contexte : le cas des transports collectifs urbains (1880-1939), Dominique Larroque in Paris et ses réseaux : naissance d'un mode de vie urbain XIXe-XXe siècles, publié sous la direction de François Caron, Jean Dérens, Luc Passion et Philippe Cebron de Lisle, Paris, Bibliothèque historique de la Ville de Paris, 1990, pp.299-341.; Dominique Larroque, Michel Margairaz, Pierre Zembri, Paris et ses transports XIXe-XXe siècles. Deux siècles de décisions pour la ville et sa région, Paris, Éditions Recherches/Association pour l'histoire des chemins de fer en France, 2002, 400p.sur la naissance du métropolitain, lire plus particulièrement pp.41-94. 1404 441 L'année 1914 correspond au dépôt et à l'adoption des rapports des différentes commissions qui se réunirent afin de réfléchir sur les remèdes à apporter au « port de Paris », mais dans le même temps, fixèrent les grands projets d'aménagements portuaires pour les décennies qui allaient suivre. À ce titre, la décision de créer un vaste port à Gennevilliers était forte en symbolique. Si la réunion de ces commissions faisait écho à l'essor remarquable de l'activité portuaire depuis le début du siècle, elles résultaient toutefois d'un contexte très particulier, à savoir les inondations de 1910. Ce dernier élément montre leur ambivalence. Si le début du siècle, dans le sillage notamment du programme Baudin, avait été marqué par un bouillonnement de réflexion, la reprise économique s'était dans une certaine mesure et paradoxalement accomplie aux dépens de la navigation intérieure. L'implication financière de l'État dans les affaires des compagnies de chemins de fer semblait se renforcer de façon inexorable, alors même que la suppression des droits sur la voie d'eau réduisait l'intérêt qu'elle pouvait revêtir aux yeux des autorités nationales ou locales. La croissance même ne rendait plus la batellerie aussi précieuse en tant qu'instrument modérateur du fret. Les politiques menées depuis le Second Empire avaient montré leurs limites, l'amélioration stricte de la Seine ne suffisait plus, des mesures plus conséquentes semblaient indispensables, à l'instar de l'impossible modernisation de la liaison entre les deux pôles industriels majeurs où la navigation intérieure pouvait intervenir, à savoir le Nord et la région parisienne. Or, la IIIème République s'acharna dans une logique de « modernisation parcimonieuse » 1407 . L'échec du plan Baudin entérinait ces évolutions lourdes. De plus, les spécificités administratives de la capitale et de sa région n'arrangeaient guère toute tentative d'organiser l'activité portuaire régionale. Sur ce plan, les réflexions de la commission administrative du port de Paris ne faisaient que constater cette impuissance, en rejetant toutes les possibilités offertes. Les commissionnaires savaient pertinemment l'impossibilité de toute solution à court terme, étant donné le contexte administratif parisien. Au fond, cette impasse reflétaient un bouleversement d'échelle. Aucune solution ne pouvait être formulée au simple niveau de la capitale, mais devait s'envisager à l'échelle au moins du département de la Seine. En ce sens, les propositions des différentes commissions étaient très révélatrices de cette transformation de la représentation de la région parisienne, en privilégiant les projets extra muros. Le port de Gennevilliers apparaissait comme la synthèse de toutes ces évolutions2 : l'édification d'un vaste port en aval de Paris, afin de suivre la montée de la part de la Basse-Seine dans le trafic global, largement raccordé. Mais dans l'immédiat, de la même façon que pour les transports 1407 442 publics, la division de administrative s'est imposée, au dépens d'une vision péri-urbaine des problèmes entre ville et banlieue, pourtant en gestation 1408 ». Les réserves avancées précédemment n'empêchèrent pas que cette « modernisation parcimonieuse » ait pu satisfaire à répondre aux besoins économiques objectifs, dans la mesure où l'essor industriel de la Belle Époque avait ouvert de vastes débouchés à la batellerie. En dehors des chemins de fer, la voie d'eau constituait encore l'unique alternative. Mais cette posture limitait son développement sur le long terme, surtout dans le cas de l'avènement de nouveaux modes de transport. Le « port de Paris » est né officiellement d'une conjonction de facteurs de longue durée et conjoncturels, à savoir l'essor remarquable du trafic, un bouillonnement de la réflexion sur la modernisation économique et donc portuaire. Les inondations servirent de de déclencheurs et obligèrent les édiles à passer à l'acte, tout au moins à u réfléchir de façon formelle, et non plus par le biais de publications. Le choix de Paris-port-de-mer » ne résultait pas du hasard, il montrait bien la filiation entre projet modernisateur des ports parisiens et cette vaste question sujette à polémique. Paris-port-de mer conféra une identité à cet ensemble disparate, même pour ceux qui ne défendaient pas l'idée d'un canal maritime. La création d'un tel ouvrage impliquait une réflexion sur l'outillage, le régime administratif, fiscal qui manquait tant à ceux qui avaient la responsabilité de la gestion des ports de la région parisienne. Paris-port-de-Mer structura ainsi le débat et fournit des pistes pour l'avenir du port. 1408 Dominique Larroque, Michel Margairaz, Pierre Zembri, Paris et ses transports , op. cit., p.115. 443 Conclusion générale : envisager autrement la contribution du transport fluvial sous le prisme du port de Paris. L'histoire du port de Paris semble avoir suivi une dynamique dialectique : la dualité entre les voies navigables et les voies ferrées, l'utopie et les réalités, la grande batellerie et la batellerie artisanale, Paris et sa banlieue, la région du Nord et la Seine maritime, milieux protectionnistes contre libre-échangistes, urbanisme et nécessités d'alimenter précisément celui-ci Tout cet ensemble dialectique paraît avoir à la fois représenté un facteur de dynamisme, mais également de frein, dans la mesure où il s'agit de conflits entre des intérêts aussi divergents, parfois inconciliables, et cela d'autant plus que les acteurs eux-mêmes pouvaient adopter des positions contradictoires en fonction de leurs intérêts spécifiques L'affaire de « Paris port de mer » montrait bien à quel point les cercles d'intérêts étaient mouvants. La redéfinition de la batellerie entreprise au milieu du XIXe siècle semble avoir porté ses fruits à la veille de la Première guerre mondiale. En effet, la navigation dans la région parisienne s'est profondément transformée. De façon étonnante, la dépression ayant affecté le pays durant la seconde moitié du XIXe siècle ne paraît guère avoir affecté l'activité portuaire, tout au moins à première vue. Au contraire, le trafic connut un essor considérable et quasi constant, augmentant près de 185% entre 1884 et 1913, ce qui correspond à une croissance annuelle de 6,1%1409 ! Pour la seule période 1883-1899, il progressa pour atteindre un peu moins de 5,7%, ce qui exclut d'interpréter cette tendance haussière par la simple reprise économique de la fin du siècle. En tonnages effectifs, il atteint le niveau improbable de 15 millions de tonnes, ce qui le rangeait, en termes de volume, plutôt parmi les ports maritimes, et encore, il pouvait se comparer qu'aux ports les plus importants d'Europe1410. De plus, il s'agissait autant de tonnes transportées dans les sections bordant les banlieues proches et plus éloignées Les mesures et travaux entrepris depuis le Second Empire et surtout le plan Freycinet, ne s'avérèrent donc pas aussi vains que certains ont pu le croire 1411 . Une telle évolution invite à déterminer dans quelle mesure l'action publique se révéla utile ? L'évolution aurait-elle été similaire sans le plan Freycinet ? Aujourd'hui, certains partisans 1409 Ministère des Travaux publics. Direction des routes, de la navigation et des mines. Statistiques de la navigation intérieure, Nomenclature et conditions de navigabilité des fleuves, rivières et canaux. Relevé général du tonnage des marchandises. Année 1913, premier volume, Paris, Imprimerie Nationale, 1914, p.134. 1410 En effet, la hausse s'élève à 317% entre 1872 et 1905 (Source : Annuaires statistiques de la Ville de Paris pour les années 1880-1905). Parmi les ports maritimes français, seuls les ports de Marseille et surtout de Dunkerque rivalisent avec respectivement 313% et 400% entre les années 1870 et 1905. (Source : De Cordemoy, Exploitation des ports maritimes, Paris, H. Dunod et E. Pinat, Éditeurs, 1909, p.24.) 1411 Yves Guyot, Le Repêchage des cinq cent millions à l'eau, le programme Baudin au Sénat, 1903, 64p. 444 d'une approche libérale, estimant la présence de l'État comme néfaste au bon fonctionnement de l'économie, tendraient à en souligner les limites Or, la plupart des études critiques entrevoient principalement les voies ferrées au point de négliger la navigation fluviale1412. Ce que pourtant les dénonciateurs du plan Freycinet ne s'étaient pas privés avant 1914 En fait, les recherches récentes évaluent essentiellement l'efficacité du plan Freycinet à l'aune de la politique des chemins de fer. Pourtant, force est de constater que les investissements sur les canaux produisirent des résultats probants, à tout le moins, au bénéfice des navigations séquaniennes, normandes et du nord. Leur utilité ne semble guère contestable, car comment aurait-on pu charrier ces millions de tonnes autrement ? L'acheminement de plusieurs millions de tonnes de sables et autres matériaux de construction ne serait-ce que depuis simplement les sablières de Vigneux, Draveil, Grigny, par roulage semblait hautement improbable. Pouvait-on également établir des voies ferrées afin de transporter ces matériaux en plein coeur de Paris, au gré de chantiers en perpétuel mouvement, sans avoir à détruire, reconstruire sans cesse la ville ? La route ne semblait guère plus appropriée, surtout en considération des quantités en jeu, dans une cité qui souffrait déjà d'embouteillage. Graphique 43. Mouvement de la navigation dans le département de la Seine 1872-1911 (en tonnes) 1412 De même, ils tendent à omettre que celui-ci n'a été que partiellement appliqué. Pour ce qui est de la batellerie, les liaisons entre bassins n'ont guère été mises en oeuvres. 445 18 000 000 16 000 000 14 000 000 Tonnages 12 000 000 10 000 000 Embarquements 8 000 000 Débarquements 6 000 000 Totaux 4 000 000 2 000 000 1911 1908 1905 1902 1899 1896 1893 1890 1887 1884 1881 1878 1875 1872 0 Source : Pour les années 1883-1889 : AMB, C143-4, Préfecture de Police, Inspection générale de la navigation et des ports, Paris, Imprimeries Municipales, 1891, p.2. ; pour les années 1890-1911, Annuaires statistiques de la Ville de Paris, 1893-1913. Non seulement, ces aménagements sauvèrent la batellerie du déclin provoqué par l'émergence des chemins de fer, mais mieux encore, son activité progressa dans des proportions considérables, pour atteindre 10,4 millions de tonnes, en 1899. Autrement dit, un quasi-décuplement par rapport au milieu du XIXe siècle ! En un sens, l'avènement des chemins de fer est apparue salutaire, en obligeant les voies navigables à se moderniser, et de façon plus profonde, à s'extirper des impasses qui s'étaient esquissées durant la première moitié du XIXe siècle. Il serait néanmoins injuste d'avancer que rien n'avait été accompli avant l'avènement des chemins de fer, bien au contraire 1413 . Les nouvelles techniques d'aménagement des rivières étaient déjà en gestation, mais leur mise au point nécessita du temps. Il est difficile de trancher si ces innovations étaient totalement autonomes de celles liées aux chemins de fer, ou étaient-elles concomitantes ? Dans une certaine mesure, la marche des événements a, sans doute, précipité les événements. Les efforts consentis sous la Restauration et la Monarchie de Juillet auraient été fructifiés grâce à l'apport de ces nouvelles techniques qui auraient permis de surmonter les limites techniques de la batellerie jusque-là. Toutefois, on demeure dans le domaine de l'hypothèse. Car l'avènement de l'ère ferroviaire a totalement bouleversé les politiques menées jusque-là en faveur de la navigation intérieure, et il est permis de penser qu'elle en a révélé les faiblesses. En réalité, le changement de donne a 1413 Nathalie Montel, « L'État aménageur dans la France de la Seconde Restauration, au prisme du Rapport au roi sur la navigation intérieure de 1820 », in Revue d'histoire moderne et contemporaine, janvier 2012, pp.34-61. 446 obligé à l'élaboration d'une nouvelle doctrine économique pour les voies navigables, et à mieux cerner les choix techniques à adopter. L'évolution a priori singulière du trafic du port de Paris interroge sur l'ampleur et la nature de la dépression économique. D'un côté, cette progression impressionnante tendrait à en relativiser l'impact, et cela, au point que l'on serait tenté de considérer cette « grande dépression » comme une simple fiction, elle ne transparaît guère, tout au moins dans les statistiques1414. Cela ne signifie pas forcément qu'il faille la nier, au contraire, dans la mesure où la nécessité d'abaisser les frets s'avérait vitale pour l'activité industrielle et commerciale, même si cet abaissement pouvait, dans le même temps, apparaître comme un élément aggravant cette dépression. La caractéristique des crises des sociétés industrielles réside sans doute dans le fait qu'elles ne manifestent pas forcément de pures régressions. Leur nature apparaît plus complexe, pour ne pas dire déroutante parfois, que pour les crises « traditionnelles » de subsistances frappant les sociétés pré industrielles Or, dans les sociétés industrielles, si l'activité ralentit, elle ne s'éteint pas forcément. Plus encore, ces crises semblent renfermer les germes de la prochaine reprise Tel se présente souvent le processus d'évolution économique1415. Le caractère évolutionniste du capitalisme ne résulte pas simplement d'une hausse de la population et du capital, ou des systèmes monétaires, facteurs qui constituent le plus souvent plus des conditions que des causes primordiales. L'impulsion fonctionnelle du mouvement de la machine capitaliste transparaît également dans les transformations que connaissent les méthodes de production, de transports et d'organisation industrielles1416. Sans doute, la navigation intérieure sembla-t-elle moins affectée parce que la crise avait d'abord touché la métallurgie et le secteur agricole, étant moins connectée, à tout le moins de façon directe, par la première, et pouvait compenser les déboires de la production agricole françaises (pour ce qui concernait la batellerie céréales et viticulture) par l'importation de produits étrangers via la basse Seine. Quoiqu'il en soit, la navigation intérieure paraît avoir profité de cette période de troubles économiques, au prix, il est vrai, de réels sacrifices 1417. La crise 1414 Pour nuancer le propos ici volontairement provocateur, cela ne signifie pas que les acteurs n'aient pas souffert de cette crise. Au contraire, les entreprises des sablières ont pu ressentir les effets de la grande dépression. On verra par la suite des éléments d'explication de cette impression, réelle ou non, d'activité portuaire qui se jouerait des conjonctures Voir notamment : Isabelle Backouche, Sophie Eustache, Morillon Corvol, une entreprise née de la Seine, Paris, Les Éditions textuel, 2003, pp.27-28. 1415 Joseph Schumpeter, Théorie de l'économie économique. Recherche sur le profit, le crédit, l'intérêt et le cycle de la conjoncture, traduit de l'allemand par Jean-Jacques Anstett, Dalloz, 1999, chapitre VI. 1416 Joseph Schumpeter, Capitalisme, socialisme et démocratie, traduction de l'anglais de Gaël Fain, Paris, Bibliothèque Payot, 1969, p.121. 1417 Comme on a pu le voir, certains trafics ont perduré dans des réseaux très secondaires : canaux du Centre, du Nivernais C'est moins le déclin de certaines voies que le fait que des activités aient pu persister malgré la 447 incita l'industrie et le commerce à exiger des prix de transport moins onéreux et privilégier des tarifs bas à la vitesse, par rapport à la seule souplesse du transport Ce constat apparaissait d'autant plus vrai pour les activités impliquant d'énormes volumes de matières premières à moindre frais. La dépression toucha gravement l'agriculture (production de blé phylloxéra), dans une France encore majoritairement rurale et en pleine stagnation démographique, ce qui signifiait une contraction notable du marché. Les industriels devaient alors s'efforcer de réduire leurs coûts au maximum, de manière à pouvoir encore générer des bénéfices. Pourtant, cette période n'offrait pas un contexte entièrement répulsif à l'économie française, puisque les progrès techniques enregistrés dans le domaine des transports, en premier lieu dans la navigation maritime, mais également dans les transports terrestres, qu'il s'agisse des chemins de fer et des voies navigables, ouvraient de nouvelles opportunités de rendre plus compétitives les industries. L'internationalisation des échanges est allée de pair avec la réduction des coûts du transport maritime, celle-ci s'est avérée constante depuis les années 1860, tout particulièrement sur l'Atlantique Nord1418. Il existait comme un télescopage entre l'abaissement des coûts des transports et celui des produits de l'industrie. En un sens, la réduction des frets compensait celle des prix industriels, ce qui tend à nuancer les effets supposés du protectionnisme, qu'ils soient négatifs ou positifs, et qui d'ailleurs demeuraient, dans une large mesure, raisonnables1419. Les efforts consentis pour la modernisation du réseau fluvial, ainsi que de la part de la profession batelière, ont de toute évidence été récompensés, en tenant compte de l'accélération du trafic du port de Paris, en fin de période, à la Belle Époque La nécessité de faibles tarifs pour les transports était devenue moins vitale à la faveur de la meilleure conjoncture de la Belle Époque, mais l'essor de nouvelles industries en région parisienne, issues de la seconde révolution industrielle ouvrait de nouvelles perspectives et se révéla un facteur compensatoire. La tragédie du plan Baudin est d'avoir été élaborée dans une période d'essor du trafic des voies navigables, et d'avoir été voté dans la brève période de rétractation du début du nouveau siècle. Ce qui avait conféré du poids à l'arsenal argumentaire des ferristes contre toute éventualité d'expansion de la batellerie. concurrence des autres moyens de transport et même malgré les progrès de la navigation sur des voies plus importantes. 1418 Bruno Marnot, Les grands ports de commerce français et la mondialisation du XIXe siècle, Paris, Presses universitaires Paris-Sorbonne, 2011, pp.44-48. 1419 Le sursaut protectionniste que l'on peut percevoir dans les années 1892-1913 s'avère effectivement moins marqué que durant la première moitié du XIXe siècle et les années 1930. Jean-Charles, « Faut-il défendre la croissance ouverte ? », in Paul Bairoch, Mythes et paradoxes de l'histoire économique, Paris, La Découverte, 1999, p.254. 448 Il serait toutefois injuste d'incriminer la batellerie d'avoir entièrement favorisé les importations au détriment de la production nationale. Pour ce qui était des combustibles minéraux, le plan Freycinet semble avoir, dans une large mesure, favorisé la production charbonnière française, ou tout au moins, fournir les conditions indispensables aux transports des combustibles minéraux, au moins pour la partie nord de la France. Le trafic des charbons sur la basse Seine ne s'est réellement accéléré que dans les années 1902-1914, c'est-à-dire que de manière paradoxale, les ferristes se sont révélés les promoteurs apparemment involontaires des importations de charbons britanniques, en refusant le creusement du canal du Nord et en niant le fait que le canal Saint-Quentin complètement saturé avait montré ses limites. La non construction du canal du Nord signifiait inévitablement favoriser la navigation entre Rouen et Conflans, et par voie de conséquence, les importations de charbons étrangers, et à plus forte raison, ce choix ou non choix réduisait d'autant les possibilités de débouchés pour les charbons des bassins du Nord et du Pas-de-Calais, et même de trouver des débouchés en fournissant les industries de la Seine maritime. En outre, le retard des travaux sur les canaux du Nord avait également pour corollaire de limiter les opportunités d'exportations des charbons français via le port de Dunkerque. Par ailleurs, l'essor du trafic de la basse Seine manifestait la contradiction d'une période, celle des années 1890-1914, marquée par un renforcement du protectionnisme, tout au moins aux yeux des contemporains, mais qui pourtant se caractérisait par un redressement du commerce international. La montée des trafics des céréales dans les années 1880-1890, puis celle des combustibles minéraux, surtout britanniques, dans les années 1906-1913 traduisaient ce paradoxe. Par ailleurs, cette période est marquée par un phénomène très singulier: l'exceptionnelle production britannique et la part croissante des exporations. En réalité, la France n'était pas l'unique destination de ces exporation, et l'on peut s'étonner même qu'un pays bien plus favorisé dans le domaine comme l'Allemagne dut compter sérieusement sur cette concurrence. La production britannique de charbon est effectivement passée de 63,5 millions de tonnes en 1850 à 292,1 millions de tonnes en 1913. Les exportations représentaient un peu plus de 4 millions de tonnes à la fin du siècle, elles s'élevèrent à 100 millions de tonnes. Alors que leur part relative en 1855 (7,5%) venait loin derrière celles des principaux consommateurs locaux à savoir l'industrie du fer, de l'acier (24,9%) et la consommation domestique (20,9%), en 1913, le rapport s'est inversé : les exportations se 449 rangeaient en tête avec 34,1% contre respectivement 11,6% et 12,2% pour les deux catégories susmentionnées1420. Les exportations de charbon britanniques semblaient avoir progressé de façon disproportionnée par rapport à la croissance du marché national. En 1850, elles participaient à hauteur de 1,8% de la valeur totale des exportations, leur part est passée à 10,2% en 1913. La croissance des exportations découlait en grande partie d'une baisse du fret maritime plus marquée que le fret ferroviaire. Les conditions s'avéraient idéales dans la mesure où plusieurs régions charbonnières étaient situées le long des côté britanniques ou à proximité des ports auxquels étaient reliées aux chemins de fer, voire aux canaux. De surcroît, en raison de la morphologie même du territoire, les voies de communication ne s'étiraient pas sur des longueurs exagérées 1421 . Toutes ces conditions rendaient particulièrement compétitifs les charbons insulaires à l'exportation. Graphique 44. Trafic de l'Oise de Janville à la Seine 1883-1913. 6 000 000 5 000 000 Tonnages 4 000 000 3 000 000 Houilles Trafic total 2 000 000 1 000 000 1883 1885 1887 1889 1891 1893 1895 1897 1899 1901 1903 1905 1907 1909 1911 1913 0 Source : Ministère des Travaux publics. Direction des routes, de la navigation et des mines. Statistiques de la navigation intérieure, Nomenclature et conditions de navigabilité des fleuves, rivières et canaux. Relevé général du tonnage des marchandises. Années 1883-1913. 1420 Fremdling, « Les frets et le transport du charbon dans l'Allemagne du Nord, 1850-1913 », in Histoire, économie et société, 1992, 11e année, n°1, « Les transports terrestres en Europe occidentale (XIX e-XXe siècles) », p.22.in Histoire, économie et société, 1992, 11e année, n°1, « Les transports terrestres en Europe occidentale (XIXe-XXe siècles) », pp.34-35. 1421 L'existence d'ouvrages remarquables tempère néanmoins ce raisonnement. On peut citer le canal LeedsLiverpool. Construit vers la fin du XVIIIe siècle, l'un ouvrage relie les villes de Leeds et de Liverpool. C'est un peu l'équivalent du canal de Bourgogne. S'étirant sur une longueur de 204 km, le canal franchit la chaîne montagneuse des Pennines, après le passage de 91 écluses. 450 L'évolution impressionnante du « port de Paris » invite à s'interroger s'il s'agit d'une tendance sur le long terme, ou bien d'une évolution correspondant à une conjoncture particulière, ou encore, s'il est possible d'avancer que l'activité portuaire est entrée dans une phase de structuration, qui caractériserait sa modernisation ? Ainsi, le niveau atteint vers la fin de la période était-il si exceptionnel ? Il allait parvenir à des niveaux assez proches vers la fin des années 1920, après un rattrapage lié à la reconstruction. En effet, hormis l'année 1927, de 1924 à 1937, il dépassera, en permanence, les 10 millions de tonnes, et l'agglomération parisienne la vingtaine de millions Pour confirmer cette intuition, il est utile de procéder à des comparaisons avec la banlieue parisienne. À rebours de ce que l'on aurait pu le croire, durant la période étudiée, Paris ne s'est pas vraiment désindustrialisé, et mieux encore, semble avoir résisté de façon tout à fait étonnante, tout au moins sur le plan de l'activité portuaire. Le trafic de la cinquième section, qui correspondait à celui de la traversée seule de Paris excédait effectivement celui des banlieues proches, notamment celle immédiatement située en aval (6e section) qui, si elle connut un développement au rythme soutenu dans les années 1890, paraissait presque stagner en comparaison avec la capitale au cours de la décennie suivante Graphique 45. Trafic de la 4e section de la Seine 1882-1913. 12 000 000 10 000 000 Tonnages 8 000 000 6 000 000 4 000 000 2 000 000 1882 1883 1884 1885 1886 1887 1888 1889 1890 1891 1892 1893 1894 1895 1896 1897 1898 1899 1900 1901 1902 1903 1904 1905 1906 1907 1908 1909 1910 1911 1912 1913 0 Source : Ministère des Travaux publics. Direction des routes, de la navigation et des mines. Statistiques de la navigation intérieure, Nomenclature et conditions de navigabilité des fleuves, rivières et canaux. Relevé général du tonnage des marchandises. Années 1886-1913. 451 Un des facteurs explicatifs était que l'activité portuaire parisienne avait bénéficié des performances de la production des bassins miniers du nord de la France qui progressèrent avec davantage de vélocité que leurs homologues belges et britanniques, qui n'en continuaient pourtant pas moins à approvisionner la capitale de manière simultanée, via la liaison de la Belgique à Paris pour les premiers, et via la basse Seine pour les seconds. De ce fait, l'analyse de son trafic, bien qu'essentiellement composé de pondéreux, s'avère plus complexe qu'il n'y paraît. Le déclin de tel bassin houiller (par exemple, en provenance du Centre, de la Loire) pouvait être compensé par l'émergence d'un nouveau. La position fluviale de la capitale procurait une souplesse suffisante pour s'adapter à ces évolutions structurelles ou/et conjoncturelles L'apparente continuité du trafic global tenait ainsi à une combinaison de plusieurs facteurs, la prépondérance des matériaux de construction masquait la dépendance à des conjonctures qui n'étaient pas nécessairement synchrones : les grands travaux haussmanniens, les nombreuses expositions universelles (1855, 1867, 1878, 1889, 1900), les travaux publics (construction du métropolitain dans les deux dernières décennies de notre étude), l'immobilier (boom immobilier dans les années 1909-1913, par exemple), les cycles industriels Dans le même temps, la capitale et sa banlieue ne se conformaient pas à des conjonctures parallèles, une période de prospérité à Paris pouvait inciter les industriels ou encore certains habitants à s'implanter en banlieue, alors que ce même essor requérait de transporter davantage de matériaux de construction 1422 . À l'inverse, on constatait une dynamique de l'immobilier au cours de certaines périodes de crise à Paris. Ce qui fait qu'un trafic en baisse pouvait être compensé par un autre en plein essor, à l'instar des expositions universelles en périodes dépressives. La question de l'intermodalité et mutations des activités portuaires parisiennes. Si le thème de l'intermodalité n'est pas si nouveau, il paraît n'avoir été traité, en tant que tel, que récemment par les historiens, qu'ils s'intéressent à l'époque contemporaine ou bien à l'époque moderne1423. Les recherches récentes font ressortir de plus en plus à quel 1422 Christian Topalov, Le logement en France. Histoire d'une marchandise impossible, Paris, Presses de la Fondation nationale des sciences politiques, 1987, p.144. Cet auteur explique parfaitement les mécanismes des dynamiques de l'immobilier entre la capitale et la banlieue. En résumé, les périodes de dépression de ce secteur semblaient plus favorables à la banlieue, et celles de prospérité, plus favorables à la capitale. Toutefois, ces mécanismes se révèlent bien plus complexes, car ils ne sont pas forcément automatiques et il peut y avoir des « anomalies ». 1423 En effet, Éric Szulman, La navigation intérieure sous l'Ancien Régime. Naissance d'une politique publique, Rennes, Presses Universitaires de Rennes, 2014, pp.17-19. Sinon, sur les origines de l'intermodalité, consulter 452 point les ports s'inscrivent dans la logique des réseaux, et dont ils constituent des composantes essentielles. Cette nouvelle approche contribue à une meilleure compréhension des dynamiques régionales et intra-régionales des activités portuaires. Les recherches menées dans le cadre de cette thèse ont fait ressortir que les mutations de l'activité portuaire dans l'agglomération parisienne résultaient pour une part significative de la concurrence avec les chemins de fer, du déclenchement de la crise au milieu du XIXe siècle à la période de maturation à la veille de la Première guerre mondiale. Le chapitre sur le raccordement dans la région parisienne pourrait laisser conclure à une absence totale d'intermodalité. Or, si les difficultés sont apparues évidentes, le risque est de se tromper de perspectives. En effet, Paul de Rousiers avait bien montré l'instauration d'une intermodalité à l'échelle du port de Rouen, avec un partage des transports entre la voie ferrée et la voie d'eau1424, qu'il s'exprime tant sur le plan qualitatif que quantitatif. Un constat identique peut être formulé concernant le port de Paris. Cette distribution intermodale s'est accomplie de manière précoce, à savoir dès la redéfinition du rôle des voies navigables dans les années 1850. À cet égard, les progrès enregistrés au cours de cette période se sont révélés décisifs. Les ingénieurs s'en montraient parfaitement conscients, si ce n'est qu'ils ont encouragé le processus. Cette compréhension, voire cette volonté, transparaît dans les statistiques qui font clairement apparaître ce partage des tâches entre les modes de transports pour le « port de Paris », à savoir l'activité portuaire intra-muros, mais également pour les sections de la basse Seine, directement exposées à la concurrence de la voie ferrée1425. L'intermodalité s'est, en fait, réalisée sur le plan global, par une répartition entre marchandises lourdes et encombrantes et les marchandises fabriquées, à plus forte valeur ajoutée, supportant davantage un surcoût, mais exigeant davantage de vitesse, de souplesse Les statistiques ne l'autorisent pas, mais il est fort à parier qu'une répartition relativement comparable s'était accomplie au sein même de ces pondéreux notamment Bruno Marnot, « La genèse du concept d'intermodalité en France dans le transport des marchandises du début du XIXe siècle à 1937 », Colloque COST de Lisbonne, 24-25 mai 2005. 1424 Paul de Rousiers, Les grands ports de France : leur rôle économique, Paris, Armand Colin, 1909, p.97. Voir aussi L. Sekutowicz, La Seine maritime, étude sur l'importance économique du port de Rouen, Paris, publications du journal "Le Génie civil", 1903,142p. 1425 Plus précisément, les sixième et septième sections. Les statistiques officielles montrent la répartition des transports pour les combustibles minéraux, sur ces portions de la Seine, par provenance, et la répartition globale. Toutefois, à la différence de la 5e section (Paris intra-muros), elles ne couvrent que la fin des années 1880 jusqu'en 1900. Ce qui tend à montrer que la question des rapports entre les modes de transports constituait une composante essentielle du plan Freycinet, ou tout au moins, des aménagements fluviaux au cours de cette période. 453 En conséquence, des nuances doivent donc être apportées sur la réalité de la concurrence1426, et sur ses conséquences supposées bénéfiques, car dans les faits, les voies navigables transportaient des marchandises que les chemins de fer se seraient montrées bien incapables de transporter, ou même, se seraient refusés d'assurer, étant donné le manque de rentabilité que ces transports présentaient Plus encore, l'absence même de concurrence les aurait incités à se montrer plus sélectifs et à ne pas améliorer l'offre tant en termes qualitatifs que quantitatifs. Dans ces conditions, on peut en déduire que la voie fluviale a contribué à accroître l'offre globale, voire, à ouvrir des marchés aux chemins de fer L'accroissement d'une de ces voies n'impliquait donc pas forcément qu'il s'accomplisse au détriment de l'autre, mais que dans des régions où une voie d'eau et une voie ferrée présentaient des éléments de trafic assez comparables, chaque mode pouvait disposer d'un trafic spécifique, et que dans le cas d'une disparition d'un de ces modes de transport, le trafic de celui-ci ne revenait pas de façon automatique vers l'autre mode. Les chemins de fer offraient la vitesse et la régularité des transports, tandis que les voies navigables procuraient la modicité des prix du transport1427. Les ferristes fondaient ainsi leur argumentation sur des prémisses inexactes, ou tout au moins tronquées. Ils ne semblaient pas avoir saisi que bien loin de leur retirer des trafics, la voie d'eau leur en a ouvert d'autres. Par conséquent, l'échec n'était pas tant celui de l'intermodalité, que celui du raccordement, selon la terminologie usitée au début du XXe siècle, c'est-à-dire de la fameuse suture entre les deux modes de transport1428. La comparaison avec le Rhin s'avère sans appel, et devient d'autant plus flagrante après le premier conflit mondial. Là où le raccordement atteignit près de la moitié du trafic total du port de Strasbourg, il tendit à stagner complètement dans la région parisienne 1429 . Cela s'avère d'autant plus paradoxal que le trafic du « port de Paris », parvint à des sommets durant cette période. Il ne saurait être question d'imputer un quelconque déclin de la batellerie parisienne comme facteur explicatif de ce contraste. Le problème se posait donc moins en termes quantitatifs que de répartition et de dynamique des flux. 1426 Paul de Rousiers, Les grands ports, id., p.100. Jules-Auguste, Fleury, L'influence réciproque des voies navigables et des chemins de fer en France, Paris, 1892, p.3. 1428 AN (Site Pierrefitte-sur-Seine), F14 7074, Paul Léon, « La suture du réseau ferré et du réseau navigable », 1903, pp.3-4. 1429 Les statistiques des années 1930 nous fournissent des chiffres très précis sur la question du raccordement. Il apparaît que le port de Strasbourg figurait au premier rang, celui de Roanne au second, celui d'Ivry, au troisième, celui de Lyon-Vaise (sur la Saône) au quatrième, tandis que ceux de Montereau et Javel ne se rangèrent qu'aux septième et onzième rangs. Toutefois, le contraste devient encore plus évident en termes de tonnage : en 1935, le trafic du raccordement s'est élevé à 3 995 404 tonnes pour le port rhénan, contre 166 925 tonnes pour le port d'Ivry 1427 454 Force est de constater que le raccordement est demeuré relativement modeste, pour une part au moins, par la volonté farouche des chemins de fer de ne pas favoriser des projets de ports de raccordement dans la région parisienne, qui auraient d'ailleurs pu se révéler fructueux pour leurs propres affaires1430. À cela, deux explications peuvent être avancées : d'une part, le rôle du port de Rouen en tant qu'avant-port de Paris, qui joue précisément cette suture entre les chemins de fer et les voies navigables1431. Pourtant, l'opposition entre un modèle rhénan fondé sur une volonté d'harmonie entre les voies navigables et les voies ferrées contre un modèle français qui aurait été systématiquement hostile ne semble pas si pertinente si l'on considère la réalité des faits, dans la mesure où la concurrence s'est révélée aussi vive entre les modes de transports 1432. La véritable force de la batellerie allemande résidait dans la présence de bassins houillers considérables 1433 , sur un outillage, semblait-il, très supérieur à ce qui pouvait exister en France, à la fois en sur les plans quantitatifs que qualitatifs, ce qui autorisait davantage de transbordements entre les différents modes de transports lorsque la nécessité s'en faisait ressentir, et de façon plus globale une exploitation plus efficace. Il y avait donc un effet de volume amplement favorable outre-Rhin 1434 , ce qui obligea sans doute les houillères françaises du nord, et par voie de conséquence, la batellerie française, à « réduire la voilure » et adopter une attitude plus « malthusienne ». En effet, au fur et à mesure, les débats sur la concurrence entre les modes de transport s'exprimaient de plus en plus, surtout en réalité de la part des ferristes, en termes de « partage » d'un volume de trafic aux contours supposés délimités. Si cela explique cette attitude, cela ne justifiait pas pour autant les insuffisances globales en matière de dotation d'outillage1435. En un sens, les faiblesses de la navigation intérieure reflétaient celles de l'industrie française1436. Cette volonté allait perdurer tout au long du XXe siècle, un des responsables de la SNCF reconnaissant que pour sa part, il estimait que les ports de raccordement développaient nécessairement l'activité fluviale au détriment de l'activité ferroviaire Pourtant, l'évolution du trafic dans les années 1950 contredit cette analyse, puisque le trafic des chemins de fer a progressé bien plus rapidement que celui du le transport fluvial (qui n'allait décoller de manière vraiment significative seulement dans les années 1960). Son analyse n'avait ainsi pas varié depuis celle de son prédécesseur du PLM, M. Gustave Noblemaire. 1431 Paul de Rousiers, Les grands ports de France , op. cit., pp.86-109. 1432 Paul Léon, Fleuves, canaux, chemins de fer, avec une introduction de Pierre Baudin, Paris, Librairie Armand Colin, 1903, p.197. 1433 En effet, la production du bassin de la Ruhr dépassait de 300% celui des bassins du Nord et du Pas-de-Calais. Voir Marcel Gillet, Les charbonnages du Nord de la France au XIX è siècle, Paris-La Haye, Mouton, 1973, pp.80-84 ; pp. 310-311. 1434 Fremdling Rainer, « Les frets et le transport du charbon dans l'Allemagne du Nord, 1850-1913 », in Histoire, économie et société, 1992, 11e année, n°1, « Les transports terrestres en Europe Continentale XIXe-XXe siècle), pp.33-60. 1435 Georges Hersent, « Mise au point de notre outillage maritime: ports et canaux », in L'Outillage économique de la France, conférences organisées par la Société des anciens élèves et élèves de l'École libre des sciences 1430 455 Graphique 46. Voies fluviales et chemins de fer dans le partage des marchandises à Paris 1883-1912 (en tonnes) Voies navigables Voies ferrées 25 000 000 20 000 000 15 000 000 10 000 000 5 000 000 1883 1884 1885 1886 1887 1888 1889 1890 1891 1892 1893 1894 1895 1896 1897 1898 1899 1900 1901 1902 1903 1904 1905 1906 1907 1908 1909 1910 1911 1912 0 Source : Ministère des Travaux publics. Direction des routes, de la navigation et des mines. Statistiques de la navigation intérieure, Nomenclature et conditions de navigabilité des fleuves, rivières et canaux. Relevé général du tonnage des marchandises. Années 1886-1913. L'importance du fleuve dans l'essor industriel parisien. La présence de la voie fluviale semble avoir représenté un atout en matière d'industrialisation pour la région parisienne. Le contraste s'avère saisissant avec les deux autres villes françaises les plus importantes, à savoir Lyon et Marseille. Le Rhône n'a pu remplir un rôle comparable à celui de la Seine pour la capitale. Certes, les investissements pour aménager le bassin rhodanien n'étaient pas comparables. Pourtant, Lyon aurait pu jouer le rôle d'une vaste plaque-tournante entre la façade méditerranéenne et l'Europe rhénane, sans parler de la proximité avec d'autres bassins industriels1437. Cependant, le développement de politiques. L'Outillage maritime. Les Chemins de fer. Les Forces hydrauliques. Le Tourisme. La Métallurgie / Louis Marlio, Paris, F. Alcan, 1921. 1436 Andréas Kunz, « Voies navigables et développement économique », in HES, n°1, 1992, pp.16. 1437 La comparaison avec Paris s'avère bien cruelle : pour la traversée de Lyon (2e section du Rhône), en 1900, le trafic s'élevait à 617 215 tonnes, contre 9 301 491 tonnes pour la 5e section de Paris (port de Paris) au cours de la même année (sachant que le trafic parisien marque un peu le pas à l'orée du XXe siècle). Ministère des Travaux publics. Direction des routes, de la navigation et des mines. Statistiques de la navigation intérieure, Nomenclature et conditions de navigabilité des fleuves, rivières et canaux. Relevé général du tonnage des marchandises. Année 1900, premier volume, Paris, Imprimerie Nationale, 1900, p.300 ; p.88. Le trafic rhodanien a suivi un rythme chaotique, il enregistra une très faible progression de 1886 à 1891, en passant de 426 740 456 l'activité portuaire de la ville butait contre de multiples obstacles apparemment insurmontables. En premier lieu, à la différence de Paris et de la Seine maritime, ou des cités industrielles rhénanes, la ville de Lyon se trouvait dépourvue d'un débouché portuaire complet. Le port d'Arles ne saurait effectivement être comparé à celui de Rouen 1438 Pire encore, le plus grand port maritime de France, celui de Marseille, n'était raccordé à aucune liaison fluviale directe, à la différence de Paris, relié grâce à la Seine à deux puissants ports maritimes et fluviaux en Normandie. Grâce aux lignes reliant le bassin de la Seine à celui du Nord, le port de Paris se trouve en relation avec le port de Dunkerque et même ceux de Belgique, notamment l'un des plus dynamiques dans le monde à cette époque, à savoir le port d'Anvers. La liaison de Lyon avec les mines stéphanoises nécessitait une meilleure coordination avec les chemins de fer, ce qui se révélait difficilement envisageable Pour ne pas dire impossible si l'on considère les propos de la compagnie intéressée1439. En outre, la ville souffrait de l'amputation de l'Alsace depuis 1871, ce qui interdisait toute liaison entre les bassins rhodaniens et rhénans Et pour finir, malgré le voeu de la CG, la liaison avec la région parisienne demeurait des plus limitées. Là résidait peut-être le handicap majeur de la batellerie en France : l'éclatement géographique entre les bassins économiques. Les enjeux de l'industrialisation rendaient, en outre, les travaux antérieurs sur le canal de Bourgogne insuffisants 1440 . Long de 639 kilomètres, sa fonction était censée consister avant tout à relier Lyon à la Manche, car, à la différence du canal du Bourbonnais 1441 , desservant de nombreuses usines, il servait tonnes à 518 999 tonnes, mais stagna au cours de la période 1892-1895, en tombant à 455 565 tonnes, pour se redresser quelque peu ensuite dans les années 1896-1900 1438 En effet, le trafic du port d'Arles ne se monte qu'à 328 733 tonnes en 1900 (Ministère des Travaux publics. Direction des routes, de la navigation et des mines. Statistiques de la navigation intérieure, Nomenclature et conditions de navigabilité des fleuves, rivières et canaux. Relevé général du tonnage des marchandises. Année 1900, premier volume, Paris, Imprimerie Nationale, 1901, p.309. 1439 En l'occurrence, le PLM Voir Gustave Noblemaire, Hommes et choses des chemins de fer, recueil d'articles, Paris, P. Dupont, 1905, 374p. Voir note précédente sur le même sujet. 1440 Le trafic effectif du canal de Bourgogne stagnait autour de 546 663 tonnes entre 1891 et 1895. En 1900, il n'a guère évolué avec 544 622 tonnes. Ministère des Travaux publics. Direction des routes, de la navigation et des mines. Statistiques de la navigation intérieure, Nomenclature et conditions de navigabilité des fleuves, rivières et canaux. Relevé général du tonnage des marchandises. Année 1900, premier volume, Paris, Imprimerie Nationale, 1900, p. 276. 1441 En réalité, il existait une voie alternative pour joindre le bassin séquanien et le bassin rhodanien (Saône incluse) : le canal du Bourbonnais. À peine plus long, soit 645 kilomètres, son parcours comprenait les canaux du Loing et Briare, le canal latéral à la Loire et le canal du Centre. Si les conditions de navigation du canal de Bourgogne étaient considérées comme meilleures, l'intensité de la circulation sur le canal du Bourbonnais semblait supérieure. En effet, le tonnage moyen s'élevait à 537 000 tonnes pour ce dernier, contre 258 000 tonnes pour le premier. En outre, il passait davantage par des villes de quelque importance industrielle : Montargis, Briare, Châtillon, Nevers, Digoin, Chalon-sur-Saône L'aménagement de cette voie fut envisagé 457 essentiellement à effectuer des longues distances, c'est-à-dire remplissait une fonction de transit. Pourtant, si la liaison avec le Nord industriel apparaissait stratégique, - bien que les travaux d'aménagement ne correspondait pas aux attentes -, celle entre deux bassins rhodaniens et séquaniens sembla moins préoccuper les différents acteurs à partir du Second Empire. Le cas de Lyon éclaire ainsi de façon utile sur les forces des bassins parisien (envisagé dans son sens le plus large) et rhénan, à savoir pourquoi la navigation intérieure a pu s'adapter aux contraintes liées à l'émergence des chemins de fer. On pourrait répondre qu'il aurait été préférable d'investir dans des secteurs plus porteurs, la batellerie étant un mode de transport désuet Pourtant, l'analyse du trafic du port de Paris ébranle cet argument. En effet, les voies navigables, en contribuant à diversifier l'offre de transport, et en modérant les prix des matières premières, ont contribué, à leur façon, à l'apparition de nouvelles industries telles que l'électricité, le métropolitain 1442 , l'automobile, la construction aéronautique Les secteurs émergents s'avèrent fragiles sur le plan financier, et le fait de pouvoir se fournir en matières premières à moindre coût représente une condition essentielle à leur essor, tout au moins dans leur phase initiale. La preuve en est l'essor de la 6e section de la Seine dans la dernière décennie du XIXe siècle, celle s'étendant entre Javel/Passy jusqu'à la Briche. Or, cette portion correspondait précisément à la localisation des nouvelles industries : Louis Renault à Billancourt, Dion Bouton à Puteaux Sans parler des usines à gaz de Saint-Ouen et Gennevilliers Par ailleurs, dans le cas du port d'Ivry, la question de l'éclairage électrique et de l'éventualité d'un outillage électrique, montre à quel point les ports pouvaient créer de réels débouchés pour l'industrie électrique naissante1443. Plus que de l'argent bloqué, gaspillé pour des activités jugées comme « ringardes »1444, les investissements liés à la batellerie pouvaient apparaître comme des auxiliaires indispensables à l'émergence de nouvelles activités industrielles. Il s'avère donc presque ironique de constater que parfois, à l'aide de moyens dérisoires, les voies navigables aient pu contribuer à surmonter la grande dépression des années 1880-1890 et à favoriser les secteurs les plus innovants. dans les discussions d'élaboration du plan Freycinet, et du plan Baudin, mais ne fut finalement pas retenu par ce dernier. 1442 L'ampleur des expéditions à partir de la fin des années 1890 se trouve fortement liée à la construction du métropolitain. La présence de la Seine a participé activement à l'évacuation des déblais. Le métropolitain auraitil donc été possible avant 1914 ? 1443 Bien évidemment, le raisonnement peut de la même façon s'appliquer aux chemins de fer. 1444 David Le Bris, « Les grands travaux du plan Freycinet : de la subvention à la dépression ? », in Entreprise et histoire, avril 2012, n°69, pp.19-26. 458 Il faut encore rappeler que si la France possédait un réseau relativement moderne sur les lignes principales, les autres lignes ne suivaient pas forcément. Et dès lors, l'accroissement des gabarits des bateaux allait peu à peu condamner les lignes secondaires n'ayant pas reçu les améliorations nécessaires. Cette évolution contradictoire allait contribuer à créer des « réseaux en cul-de-sac 1445 », et de profonds déséquilibres inter-réseaux et interrégionaux. Ainsi, la longueur du réseau navigable représentait environ la moitié de celle du réseau ferré, de 47 à 49%, en 1894, sans s'être réduite, elle n'atteignait plus que le tiers (34%). En revanche, le trafic par eau qui constituait 19%, en 1880 et 20% en 1881, du trafic des chemins de fer, parvenait à 31% en 1894. En termes de tonnages kilométriques, il s'élevait à 41% de celui des voies ferrées est devenu sensiblement égal en 1894 avec 92%. De 1880 à 1894, le trafic avait cru globalement de 4 037 millions de tonnes kilométriques, près de la moitié, soit 1 905 millions, étaient dues à la navigation intérieure, alors que la longueur du réseau n'avait quasiment pas changé depuis 1882. À l'inverse, l'augmentation du trafic des chemins de fer s'élevait à 2 132 millions de tonnes, tandis que la longueur du réseau s'était accrue de près du tiers 1446. Ces déséquilibres existaient également au sein même de la région parisienne, puisque l'activité fluviale de la Seine amont s'était spécialisée à l'extrême dans les matériaux de construction, tandis que le trafic de la Seine aval demeurait beaucoup plus diversifié et constituait le véritable axe de concurrence intermodal. En un sens, les chemins de fer avaient « gagné » contre la voie d'eau sur la haute Seine, mais gagné de manière paradoxale, dans le sens où cette « défaite » qualitative avait correspondu à une « victoire » quantitative. À l'inverse, les succès de la basse Seine montraient que la concentration dans les pondéreux ne constituait pas nécessairement le destin inexorable pour le redressement des voies navigables. Une des conséquences des améliorations apportées sur les voies navigables a consisté à participer à un phénomène de concentration industrielle en direction du Nord et de la région parisienne. En ce sens, là résidait sans doute le véritable échec du plan Freycinet, dont l'idée originelle visait justement à mettre en relation des voies d'eau puissantes sur l'ensemble du territoire français. Les obstacles se sont sans doute révélés trop importants, qu'ils soient géographiques ou encore l'opposition des chemins de fer. Les voies du nord de la France figurèrent effectivement parmi celles ayant bénéficié des plus importants efforts de modernisation. La région parisienne profita ainsi d'une remarquable desserte, lui mettant à sa 1445 Marie-Madeleine Damien, Les transports fluviaux, Paris, PUF, Que sais-je ?, n° 494, 1997, pp.13-15. Richard Von Kauffmann, La politique française en matière de chemins de fer, traduit, mis à jour et précédé d'une étude complémentaire par Frantz Hamon, Paris, Librairie polytechnique Ch. Béranger, Éditeur, 1900, p.853. 1446 459 disposition d'énormes quantités de matières premières ̶ charbon, matériaux de construction, denrées agricole, etc. ̶ dont le coût s'est révélé plus onéreux dans les régions uniquement desservies par le rail, ou par des voies ferrées et/ou navigables de qualité moindre 1447. Les industriels installés dans la région parisienne disposaient ainsi d'un triple avantage : une énergie moins chère, une desserte presqu'idéale, des débouchés importants dans un centre majeur de consommation situé au centre du réseau ferroviaire, c'est-à-dire susceptible de leur permettre de diffuser leur production. Les déséquilibres du réseau navigable reflétaient ainsi ceux de l'économie générale de la France. Graphique 47. Tonnage fluvial global en France et trafic du port de Paris 1883-1913. 45 000 000 40 000 000 Tonnages 35 000 000 30 000 000 Trafic global de la navigation intérieure française 25 000 000 20 000 000 Trafic du port de Paris 15 000 000 10 000 000 5 000 000 1883 1886 1889 1892 1895 1898 1901 1904 1907 1910 1913 0 Source : Ministère des Travaux publics. Direction des routes, de la navigation et des mines. Statistiques de la navigation intérieure, Nomenclature et conditions de navigabilité des fleuves, rivières et canaux. Relevé général du tonnage des marchandises. Années 1883-1913. 1447 Dominique Renouard, Les transports de marchandises par fer, route et eau depuis 1850, Paris, 1960, p.64. 460 Il est significatif que les résultats produits par les voies navigables, n'aient pas tant incité les édiles à moderniser les infrastructures portuaires, et tout au moins, l'organisation de ce secteur1448. En effet, ce n'est qu'en 1912, qu'un office chargé de la navigation intérieure est enfin créé1449. Curieusement, il semble que ce soit les utopistes qui aient associé la nécessité d'une modernisation des infrastructures et des superstructures de l'activité portuaires. Les promoteurs des entrepôts de Paris et de Paris port de mer ont mené une action au moins promotionnelle, si ce n'était pas des initiatives concrètes, et développé une réelle réflexion sur l'avenir de l'activité portuaire. Ils se sont penchés sur le type d'administration idoine, la fiscalité, l'outillage de l'activité portuaire parisienne. Ils ont fortement contribué à la tenue de commissions en vue de réfléchir à l'avenir des ports de la région parisienne, car ils n'ont pas cantonné leurs revendications à la traversée de Paris intra-muros. Leur ambition s'étendait à l'aménagement de ce que l'on considérerait comme l'Île-de-France. Dans la région parisienne, la question de l'approvisionnement en combustibles minéraux se posait moins sur le plan quantitatif, car les sites de production n'étaient guère éloignés. Il était possible de s'approvisionner dans les régions du nord, et même si nécessaire, depuis la Belgique Les aménagements en basse Seine laissaient entrevoir la possibilité de s'approvisionner de charbons anglais, et l'on pourrait encore évoquer les charbons du centre. En l'occurrence, de nouveaux gisements, encore plus prometteurs ont été découverts dans le Pas-de-Calais La question consistait plutôt dans le moyen de les faire parvenir et à quel prix. Les industriels et commerçants de la région parisienne et des régions du nord craignaient un monopole de facto des compagnies de chemins de fer pour le transport des charbons, sans disposer d'aucun moyen de pression pour modérer les prix, ou même diversifier l'offre, puisque celles-ci auraient pu très bien limiter leurs moyens, cibler les transports les plus rentables De nombreuses personnalités de sensibilité républicaine ou même socialiste ont penché en faveur de la batellerie artisanale pour ces raisons : Freycinet, Baudin, Jaurès, et même Proudhon 1450 Et cela, pour des raisons un peu différentes de celles qui allaient prévaloir après la Première Guerre mondiale. Cette crainte de pratiques monopolistiques, 1448 Brunot Marnot, Les grands ports de commerce français et la mondialisation du XIXe siècle, Paris, Presses universitaires Paris-Sorbonne, 2011, 589p. 1449 Michèle Merger, « La politique de la IIIe république en matière de navigation intérieure de 1870 à 1914 », thèse de l'université de Paris-IV sous la direction de François Caron, 1979, pp.310-312. 1450 Joseph Proudhon, De la concurrence entre les chemins de fer et les voies navigables, Paris, Au bureau du Journal des Économistes, Gillaumin, 1845, 48p. Proudhon avait mené une enquête minutieuse, il s'était penché en faveur d'une « étatisation » des voies navigables, solution qui a prévalue par la suite, sans l'avoir vraiment ouvertement admis 461 parfois confirmée par les faits, parfois fantasmée se traduisait par la défense de la batellerie artisanale, au prix, sans doute de la formation d'une industrie batelière à même de lutter contre les puissantes compagnies à armes égales, ne serait-ce qu'en termes d'équipement et de force de frappe commerciale. Le contexte de la France avant 1914 demeurait « libéral » sur le plan économique, la présence de l'État ne commença à vraiment se faire sentir que dans les années qui précédaient immédiatement le premier conflit mondial1451. L'action de l'État demeurait à un stade très restreint dans le domaine industriel, n'y consacrant qu'une infime part de son budget. En tête des obstacles à une intervention accrue, figuraient un ancrage dans des convictions libérales et surtout un anti-dirigisme latent. Le laisser-faire était préféré à une orientation vers un rôle plus marqué de l'État qui aurait pu aboutir à une forme de socialisme1452. Ce libéralisme a, sans doute, représenté un facteur déterminant pour la batellerie, et plus généralement l'industrie, en instaurant les conditions favorables à la modération des prix. Néanmoins, de manière paradoxale, le maintien de ce libéralisme a nécessité une action accrue de l'État, en raison d'une des obsessions depuis le XVIIIe siècle, à savoir la circulation. Les pouvoirs publics ont dû racheter les péages sur les ponts, abolir les droits sur la navigation, reprendre certaines concessions, pour permettre justement cette circulation, et donc encourager les conditions indispensables à la circulation : le rachat des canaux parisiens par la Ville de Paris, la reprise en main de la concession du port d'Ivry apparaissaient comme autant d'exemples révélateurs. Le dernier cas s'avère tout particulièrement exemplaire, pour ne pas dire qu'il constitue un comble, dans la mesure où l'une des figures de proue du libéralisme, héritière de JeanBaptiste Say1453, et de la non intervention des pouvoirs publics, s'investit de plus en plus dans la modernisation de l'outillage du port de Paris ! Et ses membres consentirent à ce revirement en pleine conscience, à regret même Protectionnistes et libre-échangistes se rejoignaient complètement dans cette analyse, ce qui les séparait réellement, c'était le choix des infrastructures à considérer en priorité. Et encore, les contours des cercles d'intérêts n'étaient pas aussi nets que l'on pourrait l'imaginer, comme le montraient les controverses autour de « Paris port de mer », où les adversaires et les alliés d'un jour pouvaient s'unir ou se 1451 Robert Delorme, Christine André, L'État et l'économie. Un essai d'explication de l'évolution des dépenses publiques en France, Paris, Seuil, 1983, 758p. 1452 Les contours du terme « socialisme » demeuraient encore assez flous, surtout au début de la période étudiée, le marxisme n'ayant pénétré en France qu'assez tard. 1453 Claire Lermercier, « Devenir une institution locale : la Chambre de commerce de Paris au XIXe siècle, in Revue d'histoire moderne et contemporaine, N°54-3, mars 2007, p.44. L'économiste s'était lui-même impliqué en faveur de la construction et plus spécifiquement, de l'achèvement des canaux de Paris dans les publications suivantes : Jean-Baptiste Say, De l'importance du port de la Villette, Paris, Deterville, 1818, 23p. ; Jean-Baptiste Say, Des canaux de navigation dans l'état actuel de la France, Paris, Deterville, 1818, 35p. 462 désolidariser Au fond, l'intervention de l'État apparaissait comme un des facteurs essentiels au maintien des règles prévalant à la libre-concurrence, tout au moins en théorie, puisque sa présence croissante dans l'élaboration, la construction et même l'exploitation des chemins de fer tendait à fausser le jeu de la concurrence. En effet, si l'État prenait à sa charge l'essentiel du coût relatif à l'aménagement et l'entretien des voies navigables, il n'en arbitra pas moins les possibilités d'extension, et cela, de plus en plus au profit des compagnies de chemins de fer, dès lors qu'elles ressentaient un péril éventuel à leur prospérité. On peut s'interroger sur la rationalité des politiques et des réflexions développées autour des voies navigables. La lecture des documents publiés à cette époque, qu'ils émanent du ministère des Travaux publics ou d'autres instances ou même de simples particuliers tend à montrer qu'aucun projet, ni discussion ne se basait sur des études économiques vraiment solides. Les devis étaient souvent assez fantaisistes, et plus ils entraient dans le détail, plus ils semblaient suspects. Les controverses autour des projets des années 1820 jusqu'au plan Freycinet et plus tard avec le canal du Nord se font entre partisans des voies navigables et des voies ferrées à partir de 1845. Elles se fondent sur des allégations le plus souvent délicates à confirmer1454, des prédilections plutôt d'ordre sentimental, de considérations de prestige que sur les besoins réels du trafic et de l'activité économique. Les débats autour des projets d'entrepôts et de Paris port de mer et du canal du Nord étaient significatifs, à cet égard, des fondements avant tout affectifs ou d'intérêts particuliers. La légitimité de certains projets d'infrastructures n'était pas forcément en cause, loin de là, mais que penser de la volonté farouche des ingénieurs Holleaux et Flamant de creuser un canal latéral à la Seine ? Les sommes dépensées pour l'amélioration du canal Saint-Quentin n'auraient-elles pas été employées de manière plus judicieuse au creusement d'un nouveau canal plus conforme aux besoins des industries de la Révolution industrielle ? Manifestement, les préoccupations quant à la rentabilité économique des voies de communications se trouvent fréquemment formulées selon des considérations de rendement fiscal ou de coût financier des emprunts 1455. De la seconde moitié du XIXe siècle jusqu'en 1914, les tonnages transportés sur les canaux et le débit kilométrique ont progressé de manière constante, ce qui tendait à confirmer leur utilité, tout au moins sur le plan global, car la progression du trafic se répartissait de manière très inégale, elle n'était pas aussi marquée, bien que globale, selon les régions, tout au moins en termes de rythme. 1454 David Le Bris, « Les grands travaux du plan : de la subvention à la dépression ? » ; in Entreprise et histoire, avril 2012, n°69, pp.15-16. 1455 Jean-Claude Toutain, « Les transports en France de 1830 à 1965 », in Économies et Sociétés, série AF, n°9, Paris, PUF, 1967, pp.77-78 . 463 La modernisation du port de Paris a donc résulté d'une double dialectique, celle de l'intermodalité et celle entre les réalités de cette nouvelle navigation « industrialisée » et d'une utopie d'un « port de Paris » susceptible de devenir une énorme plaque-tournante commerciale, ou même d'un Paris tout court, voué à un destin plus large, échappant de sa simple fonction de port de consommation, pourtant, au bout du compte, déjà considérable et composant la véritable force de ce dispositif portuaire atypique. Une croissance sans développement ? Le retard en termes d'infrastructures et de superstructures du port de Paris a été largement décrit dans le cadre de cette thèse, ainsi que le caractère encore rudimentaire de l'outillage. En fait, le raisonnement peut être élargi à l'ensemble de la batellerie, puisque les « porteurs », à savoir ce que l'on désignerait comme « automoteurs » demeuraient fort rares, la domination de la navigation dite « ordinaire et à vapeur1456 » reste évidente jusqu'au moins en 1914. D'après les statistiques de la navigation intérieure publiées par le ministère des Travaux publics, la navigation porteuse n'apparaît qu'en 1909, et ne représentait que 1,3 % du tonnage-kilométrique du trafic global. En 1913, le taux n'avait guère varié avec 1,6 %, et il fallut attendre la fin des années 1920 pour que le taux dépasse réellement et durablement la barre des 10%1457. Si l'on a montré le rôle de la concurrence entre les chemins de fer et la voie d'eau, ainsi que les innovations techniques qui en ont résulté, il ne faudrait tout de même pas surestimer l'innovation technique en tant que moteur de la croissance. À bien des égards, on l'a vu, la batellerie demeure dans de larges proportions assez frustre. La propulsion mécanique reste fort limitée. C'est souvent une batellerie de « bric et de broc » qui dominait, le halage humain, bien que fort restreint par les réglementations administratives, n'en persiste pas moins. S'il faut nuancer le supposé sous-équipement des ports de la région parisienne, dans la mesure où l'outillage privé n'est tout de même pas négligeable, le retard est réel 1458. L'activité fluviale, que ce soit sur le plan portuaire et sur celui de la navigation, accompagne plus l'industrialisation qu'elle ne la suscite. Les informations demeurent trop lacunaires, et relèvent souvent davantage du folklore, il est certain qu'une partie significative des manutentions demeuraient manuelles La batellerie ne constituait guère un facteur de 1456 C'est-à-dire le halage, les chalands remorqués par des toueurs, des remorqueurs. Ministère des Travaux publics, Statistiques de la navigation intérieure. Années 1900-1929. 1458 Le constat peut être étendu aux ports maritimes, voir : Bruno Marnot, « Interconnexion et reclassement : l'insertion de sports français dans la chaîne multimodale au XIX e siècle, in Flux, janvier 2005, n°59, pp.10-21 ; Bruno Marnot, Les grands ports de commerce français et la mondialisation du XIXe siècle, Paris, Presses universitaires Paris-Sorbonne, 2011, 589p. 1457 464 modernisation majeur, dans la mesure où majoritairement menée par une batellerie artisanale, qui manquait presque de tout, hormis son courage indéniable. Elle devait sa survie en partie à la suppression des droits de navigation, mais également à l'abandon de sa sédentarité, et à l'implication de la famille entière dans l'exploitation de leur navire 1459 . Malgré leurs efforts1460, les compagnies de navigation ne disposaient pas des moyens financiers suffisants afin de susciter une véritable dynamique ou un effet d'entraînement comparable à ce qu'ont pu provoquer les chemins de fer. Il nous est alors possible de reprendre à notre compte l'idée avancée par Marcel Gillet au sujet des mines du Nord et du Pas-de-Calais d'une « croissance sans développement ». À l'instar du transport fluvial, l'activité minière semble avoir été relativement épargnée par la dépression économique ayant frappé les dernières décennies du XIX e siècle, et cela, malgré une baisse continue des prix du charbon1461. Le même auteur souligne le manque d'effet de l'activité minière sur l'industrie locale, sans toutefois pouvoir avancer qu'elle n'y a pas complètement participé. Comme on a pu s'en rendre compte, un constat assez proche pourrait être formulé pour ce qui était de l'activité portuaire parisienne, bénéficiant pourtant du marché le plus dynamique, et sans doute, des aménagements fluviaux les plus avancés de l'époque (avec leurs limites toutefois). L'essor du trafic s'accomplit sans que l'on puisse affirmer que les infrastructures et superstructures portuaires aient été particulièrement impressionnantes 1462 . La batellerie demeurait pour l'essentiel aux mains des mariniers, la motorisation était loin d'être chose commune, les bateaux porteurs n'apparurent, et encore, fort timidement, que dans les dernières années de notre étude. Les bateaux métalliques restant rares, les débouchés pour la métallurgie et la sidérurgie le demeuraient tout autant dans ce domaine. Il semble que les ingénieurs se soient montrés incapables de sortir de la logique de traction au profit de celle de propulsion. La batellerie n'a donc pas constitué un débouché considérable pour l'industrie, ou tout au moins, aussi considérable qu'elle l'aurait pu, ce qui réduisit d'autant plus son poids dans le rapport de force qui l'oppose aux Compagnies de chemins de fer. 1459 Laurent Roblin, Cinq siècles de transport fluvial en France du XVII e au XXIe siècle, Rennes, Éditions OuestFrance, 2003, pp.92-94. 1460 Bernard Le Sueur, La « Grande Batellerie, 150 ans d'histoire de la Compagnie Générale de Navigation XIXème-XXème siècles, Conflans-Sainte-Honorine, La Mirandole-Pascale Dondey, éditeur-Ville de Conflans-SteHonorine, Musée de la Batellerie, 1995, 163p. 1461 Marcel Gillet, Les charbonnages du Nord de la France au XIX è siècle, Paris-La Haye, Mouton, 1973, pp.8084 ; pp. 310-311. 1462 Même s'il faudrait toutefois nuancer cette affirmation, compte tenu, comme l'on a pu s'en rendre compte, de l'outillage privé qui est difficile à mesurer. Le constat est surtout vrai en termes d'infrastructures. 465 La navigation intérieure faisait ce qu'elle pouvait avec les moyens mis à sa disposition. Et force est de constater que les résultats se sont révélés impressionnants dès lors qu'elle bénéficia d'un réseau moderne et d'un marché considérable. Et encore, dans une large mesure, tout avait été conçu pour limiter ses capacités. Ce que l'on lui avait accordé d'un côté, - la suppression des droits de navigation en 1880, l'amélioration de certaines voies navigables -, c'était pour mieux en limiter les opportunités d'extensions. Cette analyse vaut de manière plus spécifique, pour la décennie qui précéda le premier conflit mondial. Il fallait sans doute y percevoir un contrecoup générationnel. En effet, au début de la période, une partie significative des ingénieurs appartenant au corps des Ponts et Chaussées ont oeuvré ou oeuvraient encore dans les canaux, ce qui expliquait le nombre d'ingénieurs de premier plan ayant défendu si ardemment la survie de ce mode de transport : Collignon, Comoy, Franqueville, Legrand, Krantz Pour certains, il s'agissait de préserver l'oeuvre d'une vie Ensuite, la phase initiale d'expansion des chemins de fer achevée, vint une phase d'institutionnalisation1463, au point de faire des voies ferrées un quasi « État dans l'État », à mesure que les défis tant techniques que financiers, liés à l'exploitation deviennent de plus en plus évidents1464. L'enseignement des Ponts et Chaussées s'est de plus en plus imprégné des analyses de personnalités moins favorables aux voies navigables, à l'instar d'Alfred Picard, ou carrément hostiles, tels que Clément Colson1465 et Yves Guyot1466. Si la solidité des argumentations de ces deux derniers étaient très contestables sur le fond, il n'en demeurait pas moins que celles-ci firent des ravages tant était importante leur influence dans le débat public, et surtout la politique. À l'inverse, l'enseignement des Ponts et Chaussées ne portait pas spécifiquement sur la navigation intérieure, qui n'était prise que comme un cas particulier1467. Plus grave, le contenu économique se révélait plus faible, et ne 1463 Selon l'expression de Louis Girard. Alfred Picard, Les chemins de fer : aperçu historique, résultats généraux de l'ouverture des chemins de fer, concurrence des voies ferrées entre elles et avec la navigation, Paris, H. Dunod et E. Pinat, Éditeurs, 1918, 856p. 1465 Voir Clément Colson, Cours d'économie politique professé à l'École des Ponts et Chaussées, 6 vol., 19011907 (2e éd. 1924-1931) et Clément Colson, Transports et tarifs : régime administratif des voies de communications. Conditions techniques et commerciales des transports, Paris, 1908, pp.655-671. Il faudrait également citer ses nombreux articles dans de nombreuses revues, et plus spécialement, la Revue politique et parlementaire. 1466 Yves Guyot, La crise des transports : illusions et réalités, Paris, Félix Alcan, Éditeur, Librairies Félix Alcan et Guillaumin réunies, 93p. Comme on a eu l'occasion de le signaler à plusieurs reprises, mais il n'est pas inutile de le rappeler, le cas d'Yves Guyot est assez particulier, puisque en tant que ministre des Travaux publics, il avait proposé des mesures pour réformer la navigation intérieure. Son attitude apparaissait avant tout polémique et s'inscrivait dans son opposition au plan Baudin, et aux tentations « socialistes » que celui-ci semblait soustendre, à ses yeux. Il n'en demeure pas moins que son action a fortement nui aux voies navigables en contribuant à réduire les crédits qui auraient permis leur modernisation. 1467 Voir Fernand Barlatier de Mas, Cours de navigation intérieure de l'École des Ponts et Chaussées. Rivières à courant libre, Paris, Libraire polytechnique Daudry & Cie, Éditeur, 1899, 479p. Fernand Barlatier de Mas, Cours 1464 466 souffrait pas la comparaison avec la réflexion alternative défendue par des économistes, ingénieurs dont les thèses se sont notamment exprimées dans le cadre du plan Baudin. On compte notamment de nombreux ingénieurs civils qui se montrent soucieux de l'amélioration de l'outillage national. Néanmoins, malgré toute la pertinence de ces travaux, leurs auteurs n'appartiennent souvent pas à l'appareil de l'État, et plus spécifiquement au corps des Ponts et Chaussées, mais se comptent parmi les milieux industriels, commerçants, juristes, enseignants, universitaires Si leur influence s'avère réelle, celle-ci demeure plus modeste sur le plan décisionnel1468. Pour autant, il n'a jamais été question d'instaurer une concurrence équitable, qui aurait pu ébranler sérieusement les chemins de fer. Sans doute, la persistance d'une batellerie « rudimentaire » arrangeait-elle de nombreux acteurs de la scène économique de cette période. Les compagnies minières semblaient préférer la batellerie artisanale, car d'une part, elle était mieux adaptée aux conditions de navigation dans les canaux du nord de la France, mais également, elles disposaient d'un pouvoir de négociation bien plus important face à un milieu de mariniers atomisé1469, plutôt que de négocier à des compagnies fluviales bien plus puissantes. La municipalité de Paris agit de même en luttant contre toute forme de monopole au port de l'Arsenal1470. L'émergence d'un port industriel : de la crise de la batellerie traditionnelle à l'industrialisation du transport fluvial. L'évolution de la batellerie dans la seconde moitié du XIXe siècle jusqu'en 1914 se conforme au schéma décrit par François Caron dans le Résistible déclin des sociétés industrielles 1471 . L'innovation technique a effectivement permis à la batellerie de parer la menace des chemins de fer. La batellerie se trouve, en outre, essentiellement composée de petites entreprises. Les mariniers appartiennent plutôt aux artisans, tandis que les grandes entreprises de navigation demeurent, tout au moins jusqu'en 1914, des entreprises plutôt familiales et de dimensions en rien comparables à celles des compagnies de chemins de de navigation intérieure de l'École des Ponts et Chaussées. Canaux, Paris, Libraire polytechnique CH. Béranger, Éditeur, 1904, 579p. 1468 Bruno Marnot, Les ingénieurs au Parlement sous la IIIe République, Paris, CNRS Éditions, 2000, 322p. 1469 Michèle Merger, « La politique de la IIIe République », op. cit., pp.310-312. 1470 A.P. VO3 1899, Bassin de l'Arsenal, création d'un port : détail et avant-métré des travaux à exécuter, devis, cahier des charges, pétition de la chambre syndicale de la Marine pour l'élargissement des berges, rapports et ordres de service de l'ingénieur, plans (dont calques), correspondance, notes (1876-1902) ; A.P. VO3 1900: Port de l'Arsenal, construction d'une gare de marchandises : détail et avant-métré des travaux à exécuter, devis, cahier des charges, demande de concession, bordereau des prix, rapports et ordres de service de l'ingénieur, plans, correspondance, notes. (1888-1892). 1471 François Caron, Le Résistible déclin des sociétés industrielles, Paris Perrin, 1985, 380p. 467 fer1472. On se situe aux antipodes du modèle managérial décrit par Alfred Chandler à propos des chemins de fer américains 1473 . Toutefois, le rôle de l'État apparaît décisif, et les déficiences des politiques conduites peuvent se révéler préjudiciables, comme le prouve le relatif succès du plan Freycinet et l'échec du plan Baudin avorté1474. La singularité du port de Paris. La batellerie dans la région parisienne semble avoir connu une évolution qui ne se conforme pas strictement au mouvement global de l'économie nationale. En effet, la navigation connut un essor considérable après une période, il est vrai, de déboires, mais qui correspondit paradoxalement à une période de croissance de l'économie nationale (début des années 1850), mais récession économique ne signifie pas nécessairement crise des transports1475. L'intensification de la concurrence exige de réduire le coût des marchandises, et notamment du transport, à une époque où l'offre de transport n'était pas aussi variée qu'aujourd'hui, la main-d'oeuvre peu onéreuse étant relativement abondante tandis que la disponibilité d'un mode de transport susceptible de convoyer en masse des marchandises de faible valeur, et ce, à moindre coût, n'était pas si courante. Seuls trois modes de transports s'en trouvaient alors capables : le transport maritime, mais celui-ci ne concerne que marginalement le transport terrestre1476, le transport ferroviaire et enfin la voie fluviale. La voie ferrée était certes, rapide, mais le risque était, aux yeux des contemporains, de voir se créer un quasi-monopole des compagnies de chemins de fer, plaçant les industriels et les commerçants dans une situation d'otage. Par ailleurs, lors de la « crise ferroviaire » décrite par François Caron, les chemins de fer s'étaient montrés incapables d'assumer entièrement les transports de marchandises1477. Un mode alternatif apparaissait nécessaire et l'on voit le rôle qu'assigne François Maury1478 à la batellerie comme modérateur des prix dans la capitale, notamment par l'importation de charbons, blés et vins étrangers. 1472 Il s'agit notamment des familles Morillon et Corvol, pour la société éponyme, de la famille Picketty pour les Sablières de la Seine et enfin la famille Bonnardel pour la HPLM Sur cette dernière, lire Bernard Le Sueur, La « Grande batellerie », La Mirandole, 1995. Dans cet ouvrage, l'historien montre tout de même une tentative de cette compagnie de créer une compagnie moderne au rayonnement national. 1473 Alfred D. Chandler, La main visible des managers, traduction Frédéric Langer, Paris, Economica, 1988, 635p. En fait, ni même au sens de l'entrepreneur défini par Schumpeter dans Joseph Schumpeter, Théorie de l'évolution économique. Recherche sur le profit, le crédit, l'intérêt et le cycle de la conjoncture, traduit de l'allemand par Jean-Jacques Anstett, Dalloz, 1999, pp.106-138. 1474 Michèle Merger, « La politique de la IIIe république », id., pp.128-202. 1475 D'ailleurs, paradoxalement, un contexte de prospérité économique, du moins de croissance, peut provoquer une crise des transports par un essor non maîtrisé des flux. 1476 On peut évoquer le cabotage (méconnu), mais également le fluviomaritime. 1477 François Caron, Histoire des chemins de fer en France, op. cit. 1478 François Maury, Le port de Paris, op. cit. 468 Le port de Paris a affirmé sa fonction de port de consommation, permettant, entre autres, l'importation de charbons anglais ou belges, de blés des nouveaux mondes ou de Russie, ou encore de vins algériens ou espagnols En effet, beaucoup ont attribué la récession aux divers traités de libre-échange, et plus particulièrement, celui de 1860, passé avec la Grande-Bretagne, si bien que des mesures protectionnistes ont été prises, pour protéger, entre autres, l'agriculture française1479. Il s'agissait notamment des fameuses lois Méline (1892). Leurs effets étaient somme toute à relativiser dans la mesure où, l'analyse du trafic du port de Paris en témoigne, car elles n'ont pas empêché le développement de ces trafics. La batellerie a joué le rôle comparable à celui de la navigation intérieure allemande 1480 : jouer la concurrence entre les modes de transports afin de réduire simultanément le coût des charbons importés et des charbons produits dans le pays. La question est de déterminer, s'il y a eu l'émergence d'un « système technique » fluvial 1481 . Il faut entendre par ce terme un cycle liant la matière première, l'énergie, la production et le transport, correspondant aux fameuses « grappes d'innovations » de Schumpeter1482 : par exemple, fer-charbon-vapeur-chemins de fer. Pour le port de Paris, il s'agirait de lier le charbon1483, le fer, la navigation, les grues Les navires, construits en fer, demandant du charbon pour leur production et même chose pour les grues Le problème n'est pas aisé à résoudre dans la mesure où la motorisation a bien du mal à se développer, les coques en fer demeurent exceptionnelles. En outre, l'outillage public demeure rare et il s'agit souvent de matériel d'occasion En dépit de l'émergence de grandes compagnies de transport, telles que l'1484. On ne peut pas affirmer non plus que la construction de péniches ait contribué au développement économique dans des proportions comparables à celles des chemins de fer ou de l'automobile. D'une certaine manière, c'est une batellerie faite de « bric et de broc » qui a servi l'industrialisation ! Cela rend d'autant plus singulière l'histoire de la Voir Paul Bairoch, Commerce extérieur et développement économique de l'Europe au XIXe siècle, Paris, Mouton, 1976, p.298. 1480 Fremdling Rainer, « Les frets et le transport du charbon dans l'Allemagne du Nord, 1850-1913 », in Histoire Économie et Société n°1, 1992, pp.31-60. 1481 Bernard Lesueur, op. cit., pp. 173-181. 1482 Joseph-Aloïs Schumpeter, Business Cycles: A Theoretical, Historical and Statistical Analysis of the Capitalist Process. New York, Toronto, London: McGraw-Hill Book Company, Abridged, with an introduction, by Rendigs Fels, 1939, 461 pp. 1483 À propos de la question du charbon dans la région parisienne: « Nouvelle ville, nouvelle vie : croissance et rôle du réseau gazier parisien au XIXe siècle », Jean-Pierre Williot, Paris et ses réseaux : naissance d'un mode de vie urbain XIXe-XXe siècles, publié sous la direction de François Caron, Jean Dérens, Luc Passion et Philippe Cebron de Lisle, Paris, Bibliothèque historique de la Ville de Paris, 1990, pp.213-239. ; « Création et développement du réseau électrique parisien 1878-1939 », Alain Beltran, ibid., pp. 241-257. Voir encore dans le même ouvrage : « Se chauffer à Paris au XIXe siècle » par Afred Fierro, pp. 207-212. 1484 Au sujet de la grande batellerie, consulter Bernard Le Sueur, La grande batellerie, 150 ans d'histoire de la compagnie Générale de Navigation, Pont saint Esprit, La Mirandole, mai 1996, 165 p. 1479 469 batellerie dans la seconde moitié du XIXe siècle jusqu'en 1914. Cependant, certaines de ces conclusions doivent sans doute être nuancées. En effet, ces aspects ont été relativement peu traités dans l'historiographie fluviale. Le concept de système technique 1485 semble plus cohérent avec l'émergence de compagnies d'extraction, qui elles-mêmes générèrent une activité de travaux publics, comme ce fut le cas de Morillon-Corvol1486. La batellerie a joué simultanément le rôle de transporteur de matériaux (sable, pierres de taille), du site d'extraction à celui du chantier, mais de même, a contribué à l'évacuation des déblais. Son rôle s'est ainsi révélé décisif à une époque où Paris et sa banlieue1487 connurent un essor colossal1488. À la différence de l'ensemble du pays, la capitale a profité d'une croissance démographique considérable, provoquée il est vrai, en grande partie, par l'exode rural. Comme Jean-Charles Asselain le fait remarquer « Paris, cependant, n'est pas (seulement) une métropole parasite hypertrophiée ; c'est aussi de plus en plus, le premier pôle industriel français 1489 . » Le département de la Seine abritait effectivement 1,1 million de travailleurs employés dans l'industrie, ce qui représentait près du sixième de la population industrielle du pays. Les activités étaient extrêmement diversifiées. D'un côté, les activités traditionnelles du luxe travaillaient tout autant pour le marché intérieur (par exemple, l'ébénisterie), mais la plupart exportant leurs produits (bijouterie, mode). D'un autre côté, la banlieue attirait de nombreuses industries mécaniques nouvelles : aéronautique, automobile À l'instar de la batellerie, l'économie parisienne n'avait donc pas entièrement suivi l'évolution globale du pays. Il fallait bien entendu considérer les trafics « exceptionnels » qui dopèrent à la fois le développement urbain de Paris et de ce fait de la batellerie, à savoir les expositions universelles. Par ailleurs, Paris se dota d'un métro, et malgré les conflits François Caron, Les deux révolutions industrielles du XXe siècle, Paris, Perrin, 1997, p.17. La société Morillon-Corvol comportait deux activités distinctes : d'une part, l'extraction et le transport de sable et d'autre part les travaux publics (en particulier les dragages). Sur la première activité, voir Isabelle Backouche et Sophie Eustache, Morillon-Corvol, Paris, textuel, 2003, 192p. Sur l'activité travaux publics, consulter : Dominique Barjot, La trace des bâtisseurs. Histoire du groupe Vinci, Rueil-Malmaison, Vinci, 2003, pp.191-193. 1487 Jean Bastié, La croissance de la banlieue parisienne, Paris, Presses Universitaires de France, 1964, pp.143153. 1488 Sur l'aspect bâtiment, on peut lire utilement le livre de Michel Lescure, qui bien que relativement ancien, demeure encore utile : Michel Lescure, Histoire d'une filière : immobilier et bâtiment en France (1820-1980), Paris, Hatier, 1983, 80p., sinon : J.-P. Bardet, P. Chaunu, G. Désert, P. Gouthier, H. Neveux, Le bâtiment ; enquête d'histoire économique XIVe-XIXe siècles, Paris, Mouton, 1971. ; A. Daumard, Maisons de Paris et propriétaires parisiens au XIXe siècle, Paris, Ed. Cujas, 1965. ; R.H. Guerrand, Les origines du logement social en France, Paris, Les Éditions ouvrières, 1996. ; Michel Lescure, Les sociétés immobilières en France, au XIXe siècle, Paris, publications de la Sorbonne, 1980. ; Michel Lescure, Les banques, l'État et le marché immobilier en France à l'époque contemporaine (1820-1940), Paris, Éditions de l'École des Hautes Études en sciences sociales, 1982. 1489 Jean-Charles Asselain, op. cit., p.196. 1485 1486 470 potentiels entre les intérêts de la batellerie et la construction de cet ouvrage en ce qui concernait la circulation, il n'en demeurait pas moins que le métro représenta un débouché considérable pour la voie d'eau, à la fois pour l'apport de matières premières que pour l'évacuation de déblais1490. La singularité du port de Paris se manifeste encore par rapport au rôle de l'État1491. Si ce dernier a incontestablement contribué au développement, à la refonte du transport fluvial, son rôle, concernant les infrastructures fluviales est plus que modeste, hormis les canaux de Paris, seul acte volontaire de reprise en main d'une infrastructure portuaire fluviale, encore faut-il nuancer : il s'agit de la Ville de Paris et d'une appropriation d'une rente financière que représentait l'approvisionnement en eau, et accessoirement les droits de navigation. En effet, ce sont avant tout les ingénieurs des Ponts et Chaussées, qui ont repensé la batellerie et mis au point les innovations techniques. Il s'agit d'ailleurs d'une attitude originale, dans la mesure où l'on peut parler « dirigisme au service de l'initiative privée1492 » : il s'agissait d'offrir une infrastructure utile aux entreprises privées, sans qu'il ait été question de nationalisation, ou même d'aides, sous forme de prêt ou autres, aux compagnies de transport fluvial. De ce point de vue, le cas diffère sensiblement des chemins de fer. Carte 8. Cartes des voies navigables et des ports français en 1900 et contenant les améliorations prévues par le plan Baudin. Dominique Larroque, Michel Margairaz, Pierre Zembri, Paris et ses transports XIXe-XXe siècles. Deux siècles de décisions pour la ville et sa région, Paris, Éditions Recherches/Association pour l'histoire des chemins de fer en France, 2002, 400p. Sur la naissance du métropolitain, lire plus particulièrement, pp.41-94. 1491 Pierre Rosanvallon, L'État en France de 1789 à nos jours, Paris, Le Seuil, 1990, 378p. 1492 Galbraith souligne de son côté que la séparation des secteurs privés et publics est largement illusoire, pour montrer au contraire leur étroite imbrication. J. K. Galbraith, Les mensonges de l'économie, Paris, éditions Grasset, 2004, p.53. 1490 471 Source : Paul Léon, Fleuves, canaux, chemins de fer, avec une introduction de Pierre Baudin, Paris, Librairie Armand Colin, 1903, p.71. 472 TABLE DES MATIÈRES : Introduction générale : écrire et penser l'histoire d'un port improbable : le port de Paris. 4 PREMIÈRE PARTIE : CRISE ET REDRESSEMENT (début des années 1840-1871) 41 CHAPITRE I : UNE ACTIVITÉ PORTUAIRE À LA CHARNIÈRE DE DEUX MONDES milieu du XIXe siècle-1872. 42 Introduction : une batellerie à la croisée des chemins. 42 I. UNE CRISE D'IDENTITÉ (1843-1860). 46 A. L'intrusion ferroviaire. 46 1. Un réseau mal adapté aux enjeux de la révolution industrielle (milieu du XIXe siècle). 46 2. L'attrait de la nouveauté. 48 3. La crise de la batellerie et le « port de Paris ». 62 B. Survivance de la batellerie. 64 1. Une solidité inattendue. 64 a) La révolution du barrage mobile. 69 b) Une solution originale aux insuffisances de la navigation intérieure : le touage. . 72 2. Transformations dans Paris : lever le verrou parisien. 80 II. LE RÔLE DE PARIS DANS LE REDRESSEMENT DE LA BATELLERIE DURANT LA PHASE « LIBÉRALE » DU SECOND EMPIRE (1860-1870). 84 A. Montée d'un courant favorable à la batellerie 84 B. Activité fluviale à Paris sous le Second Empire 103 1. Un contexte économique propice au développement de la capitale. 103 2. Développement de l'activité fluviale. 107 Conclusion : une mutation inexorable ou improbable ? 114 CHAPITRE II. AMBIVALENCES DE LA QUESTION PORTUAIRE SOUS LE SECOND EMPIRE. 119 Introduction : un urbanisme contesté 120 I. LES CANAUX DE PARIS ET LES CONTRAINTES URBAINES : 122 A. Un canal dont l'histoire a débuté par une controverse pour finir par un compromis. 122 1. L'enjeu de l'eau pour la capitale. 122 2. Controverse autour du canal de l'Ourcq : alimentation en eau ou navigation ? 123 3. Fin de la controverse. 125 B. Couverture du canal Saint-Martin : entre visées sécuritaires et contraintes de l'urbanité. 128 473 II. BOULEVERSEMENTS DU COMMERCE PARISIEN : LES ENTREPÔTS DE PARIS. 141 A. Les raisons d'un échec. 141 B. Le rêve d'un « Paris de transit ». 144 1. Nécessité et possibilité d'une réforme du commerce parisien ? 144 2. Un vaste dessein commercial. 145 3. Relocalisation des activités d'entrepôt vers les périphéries. 147 C. Vers de nouveaux entrepôts en périphérie. 149 1.Transfert du bureau de la Douane au Bassin de la Villette (1865) 149 2. Les docks de Saint-Ouen. 150 Conclusion : l'impossible Pari(s). 159 DEUXIÈME PARTIE : ESPOIRS ET DÉSILLUSIONS AUTOUR DES GRANDS PROGRAMMES (1871-1893). 163 CHAPITRE III : NAISSANCE D'UN PORT INDUSTRIEL. 164 Introduction : controverse autour d'un plan. 164 I. UN PLAN POUR RIEN ? 165 A. De l'euphorie à la désillusion 165 1. Contexte de l'élaboration du plan Freycinet : un compromis républicain autour d'une politique de grands travaux. 166 a) Redéfinition de la batellerie et lutte contre l'hégémonie ferroviaire 166 b) Ébranlement de la prééminence technique et politique des grandes compagnies de chemins de fer. 170 2. Le plan Freycinet : entre espoirs et désillusions 172 a) Vote de la loi : la recherche d'un compromis national pour la cohésion républicaine. 172 b) Travaux d'aménagement des grandes lignes : tentative de standardisation du réseau des voies navigables : 174 B. Un plan inachevé. 177 1. Les limites du plan Freycinet. 177 2. Faible rendement de la batellerie et tentative libérale de relancer le plan Freycinet : le projet de loi Guyot (15 juillet 1890). 180 II. L'ÉVOLUTION DES TRAFICS FERROVIAIRE ET NAVIGABLE : ENTRE CONCURRENCE ET SPÉCIALISATION INTERMODALE. 183 A. Développement du réseau ferré et convention de 1883 : les fondements d'une domination paradoxale. 183 1. La convention de 1883 ou le renforcement des relations entre l'État et les compagnies de chemin de fer. 183 2. La lutte acharnée de la voie d'eau et des chemins de fer. 185 474 B. Le renouvellement de la question intermodalité sous l'influence du plan Freycinet. 188 1. La Basse-Seine : voie sous-employée ou voie royale pour la pénétration des marchandises importées ? 188 2. La Seine, une voie de pénétration pour les produits d'importation de produits agricoles. 196 III. MUTATIONS DU TRAFIC FLUVIAL PARISIEN. 202 A. Structuration du trafic global. 202 1. Effets des aménagements de la Seine depuis le plan Freycinet sur le port de Paris. 202 2. Le trafic en amont de Paris : un courant de trafic déséquilibré et pourtant majeur. 208 a) Une conséquence de la concurrence intermodale : la spécialisation dans les matériaux de construction. 208 b) Paris amont ou le temps des sablières. 212 B. Impact du plan Freycinet sur le plan des infrastructures portuaires parisiennes 218 1. Les canaux de Paris : un déclin relatif, mais inéluctable. 218 2. Travaux de modernisation des canaux parisiens. 221 3. Le bassin de la Villette au coeur du tissu industriel et commercial. 224 Conclusion : La singularité et le rôle méconnu du port de Paris. 231 CHAPITRE IV. PARIS PORT DE MER, UN CONTRE-PLAN FREYCINET : ENTRE MYTHES ET RÉALITÉ. 236 Introduction : entre imaginaires et réalités. 236 I. DES INTÉRÊTS CONTRADICTOIRES. 237 A. Les projets de Bouquet de la Grye : un contre-plan Freycinet. 238 1. Création de la Société d'études de Paris-Port-de-Mer. 238 2. Désaccords entre Bouquet de la Grye et vision des Ponts et Chaussées 240 3. Un retentissement national : mise à l'enquête du projet en 1890. 247 B. Des ennemis aussi farouches que variés : 250 1. Courants protectionnistes. 250 a) Paris port de mer, un facteur aggravant les importations. 250 b) Le cercle des charbonniers du Nord. 253 c) Le cercle des ports maritimes hostiles à l'entrée d'un nouveau concurrent. 255 2. Une « alliance » contrenature entre les compagnies de chemin de fer et la batellerie. 261 a) Le cercle des compagnies de chemins de fer 262 b) Le cercle de la batellerie 263 C. Les défenseurs de Paris port de mer. 270 475 1. Enthousiasme pour une idée. 270 2. Les chambres de commerce : un soutien non sans ambiguïtés. 272 Des soutiens politiques à l'appui d'un dessein grandiose. 278 3. a) Des appuis instables. 278 b) Soutien de la part de certains parlementaires. 280 c) Soutien local : le département de la Seine et la Ville de Paris. 283 II. PARIS PORT DE MER : ENTRE RÊVE ET RÉALITÉ. 286 A. Une fièvre européenne de canaux maritimes. 286 B. Un port à Paris comme enjeu de défense nationale. 288 C. Concurrencer Anvers-Londres-Hambourg grâce à Paris port de mer 294 D. Aspect moral : régénérescence de la France. 296 Conclusion sur Paris port de mer : entre rêve et réalité, pour une autre vision de la navigation en Seine et à Paris 301 TROISIÈME PARTIE : RETOUR AU « RÉALISME » OU LA REVANCHE DISCRÈTE DE LA BATELLERIE (1893-1914). 304 CHAPITRE V : L'IMPOSSIBLE MARIAGE ENTRE VOIE D'EAU ET CHEMINS DE FER (1890-1914). 305 Introduction : possibilité du raccordement pour le port de Paris ? 305 I. LES DÉBUTS DU RACCORDEMENT À PARIS 1897-1903. 308 A. Une guerre intermodale totale : 308 1. Des relations intermodales complexes : quelles perspectives pour le raccordement ? 308 2. La vision consulaire de la modernisation parisienne. 313 B. Une illustration de la double stratégie des Compagnies de chemins de fer portant sur la tarification et l'exploitation 316 1. Une politique tarifaire dissuasive. 316 2. Entraves à l'exploitation. 325 a) Ambiguïté du statut des ports de raccordement. 325 b) Désordres des opérations de triage. 327 II. UNE CONCESSION PRIVÉE DANS L'IMPASSE. 331 A. Traité avec l'entrepreneur : un marché de dupe ? (1902-1903). 331 1. Une conjoncture moins favorable. 331 2. Le choix du concessionnaire : un entrepreneur ancré dans le commerce local. 333 B. Un décollage laborieux 336 1. Bilan de l'activité des premières années du port d'Ivry 1899-1903 336 2. Des conditions défavorables 338 476 a) Insuffisance des redevances. 338 b) Une concurrence locale virulente. 339 3. Les difficultés rencontrées par un port de raccordement 341 a) Problématiques autour des capacités de stockage. 341 b) La venue tardive de la croissance (1903-1914). 342 Conclusion : potentiel et limites du raccordement en France. 347 CHAPITRE VI LE PORT DE PARIS À LA BELLE ÉPOQUE : L'ÉMERGENCE PARADOXALE D'UN PORT MODERNE. 351 Prélude : des contradictions inhérentes à une époque. 352 I. UNE MODERNISATION CONTRASTÉE. 354 A. L'ampleur du trafic ou la revanche de la batellerie 354 1. Du repli au début du siècle au relèvement de la batellerie à la veille de la Première Guerre mondiale. 354 2. Une activité hors conjoncture ? 366 B. La fin d'une époque : transformations dans la traversée de Paris. 376 1. La disparition inexorable des ports de tirage. 376 2. Disparition des ports traditionnels dans la traversée de Paris. 380 a) Disparition des derniers marchés. 380 b) Un exemple de relocalisation vers la périphérie de Paris : le port d'Austerlitz. . 380 II. LES LIMITES DU PORT DE PARIS : UN ARCHAÏSME AU SERVICE DE LA MODERNITÉ. 384 A. Les défauts de l'outillage. 384 B. Un port étriqué. 386 1. Encombrement des ports parisiens. 386 2. À la recherche d'une meilleure fluidité des mouvements sur les ports. 389 3. Tensions résultant d recul des surfaces de quais disponibles. 390 C. Un imbroglio administratif. 394 1. Une division administrative héritée du consulat. 394 2. La dualité des tarifs Seine-canaux. 398 D. Un frein à la modernisation du port de Paris : l'impossible amélioration de la liaison du bassin de la Seine avec celui du Nord. 400 1. Forces perdues pour un programme saboté : le plan Baudin. 400 a) Un contexte propice à la modernisation des voies navigables dans les années 1890 : 400 b) Particularités du plan Baudin: un plan visant à pallier aux écueils des projets de loi précédents. 402 c) La contrattaque organisée des ferristes : 403 477 d) Le vote du plan Baudin. 405 2. Le canal du Nord : un enjeu stratégique. 406 III. GESTATION AVORTÉE D'UN PORT DE PARIS FORMEL : ENTRE UTOPIE ET RÉALISME 1910-1914. 416 A. Un événement exceptionnel servant de catalyseur à la réflexion portuaire. 416 B. Les commissions « Paris-Port-de-Mer » : un port impossible ? 421 1. Création des commissions pour imaginer l'avenir du port de Paris. 421 2. Un changement d'échelle : l'extension vers la banlieue. 422 3. Quel régime administratif pour le port de Paris ? 426 a) Des services exclusivement techniques. 426 b) Régime unitaire institué au profit de la Ville. 431 c) Le rôle de la chambre de commerce de Paris. 432 Conclusion : un port à contre-courant ? 440 Conclusion générale : envisager autrement la contribution du transport fluvial sous le prisme du port de Paris. 444 TABLE DES MATIÈRES : 473 Index des noms de personnes. 479 Index des noms d'institutions, d'entreprises 483 TABLES DES DOCUMENTS : 485 Table des illustrations : 485 Table des cartes : 485 Index des tableaux : 485 Table des graphiques : 485 478 Index des noms de personnes. A Achard Antoine, 281 Alphand Adolphe, 132, 284 André Dominique, 20, 51, 199, 363, 370, 463 Ardoin, 153 Asselain Jean-Charles, 442, 471 B Backouche Isabelle, 6, 12, 19, 25, 29, 55, 64, 87, 150, 216, 237 Bain, 333 Bairoch Paul, 104, 246 Barazer, 303 Bartholony François, 61 Barthou Louis, 331, 363, 417, 441 Bartissol Edmond, 423 Baudin Pierre, 33, 36, 37, 48, 261, 280, 353, 363, 367, 376, 408, 409, 413, 418, 428, 441, 443, 445, 449, 456, 459, 462, 467, 468, 469, 472, 473 Bazin Henry, 87, 89, 169 Beaudoin François, 46, 71, 97, 98, 124, 178 Becquey Louis, 19, 47, 50, 51, 52, 116, 118 Bérigny Charles, 83, 84 Blachette, 286, 377 Bonnardel Jean, 169, 469 Bos Charles, 282, 291 Bouquet de la Grye Anatole, 238, 239, 240, 241, 242, 243, 244, 245, 246, 247, 248, 251, 253, 256, 260, 263, 264, 265, 270, 271, 272, 273, 274, 275, 276, 277, 280, 281, 282, 283, 284, 285, 286, 287, 289, 290, 291, 296, 297, 299, 300, 302, 333, 334, 419 Bourgeois, 261 Bovet, 74, 322, 323 Brisson Barnabé, 56 Burez contre-amiral, 290 Carivenc Paul, 26, 151, 398 Caron François, 16, 17, 21, 22, 23, 25, 49, 53, 55, 74, 92, 234, 237, 254, 299, 307, 411, 413, 414, 442, 468, 469 Cendrars Blaise, 237, 279, 289 Chandler Alfred, 21, 22, 469 Chanoine, 66, 97 Jacques Henri, 53, 71, 72, 93, 96, 97 Chassaing Eugène Antoine, 282 Chaudron de Courcel George, 217 Chaudun, 132 Nicolas, 131 Chevalier Michel, 28, 47 Clemenceau Georges, 373, 423 Collignon Charles-Étienne, 87, 88, 89, 467 Collin, 228 Colson Clément, 34, 102, 197, 201, 344, 356, 357, 363, 364, 365, 467 Combes Émile, 315 Comoy Guillaume, 87, 88, 89, 467 Corvol, 87, 216, 217, 218, 387, 469 Charles, 217 Cottier François, 51 Couvreur Jules, 265, 266, 267, 275, 276, 277 Cusin et Legendre, 145, 147 Cusin, Legendre et Cie, 144 D Darcy, 89 David-Mennet, 434 de Rousiers Paul, 267, 454 de Saint-Didier, 127 Decauville, 213, 362 Dehaynin Famille, 228 Delagneau et Cie, 74 Delaunay Belleville Louis, 312 Delauney-Belleville Louis, 312 Deligny, 183, 222 Deniel, 58 Deparcieux Antoine, 125 département de la Seine, 7, 10, 15, 29, 30, 45, 82, 105, 107, 121, 123, 139, 197, 247, 248, 249, 263, 271, 283, 284, 286, 290, 355, 366, 375, 380, 418, 429, 435, 442, 443, 471 Descombes, 276, 282 Descubes-Desgueraines Amédée, 282 Desprez, 334 Dietz-Monnin Charles, 167, 168, 171 Dollfus, 93 Doyle Conan, 299 Drogue, 390, 391 Du Boys 479 Maître, 140 Ducamp Maxime, 139 Duchemin, 229 Dufourny, 309 Dumont Aristide, 142, 286, 287 Dupin Philippe, 58, 140 Dupuit Jules, 56 Dupuy Jean, 418, 425 Dutens Joseph, 50 Duval meunier, 199 F Fair Marvin Luke, 23 Faure Félix, 150, 191, 192, 225 Fédération des industriels et Commerçants, 265 Fer de la Nouerre Nicolas de, 125, 126 Fishlow Albert, 22 Flamant Alfred-Aimé, 315, 413, 464 Fogel Robert William, 22, 69 Fournier Jules, 229 Foury lieutenant-colonel, 291 Franqueville Alfred Charles Ernest Franquet de, 59, 61, 89, 90, 467 Fresne usines, 213 Freycinet Louis Charles de Saulces de, 24, 35, 36, 50, 101, 104, 118, 155, 165, 166, 167, 169, 173, 174, 175, 178, 179, 181, 185, 187, 189, 191, 192, 201, 202, 203, 205, 210, 219, 221, 222, 223, 224, 227, 230, 232, 233, 239, 242, 243, 244, 246, 260, 264, 267, 270, 290, 295, 303, 315, 353, 361, 367, 385, 397, 400, 401, 407, 412, 414, 415, 430, 439, 445, 446, 450, 454, 459, 460, 462, 464, 469 Friesé Paul, 225, 375 G Frédéric, 19, 126, 244, 410 Grands Moulins, 213 Grangez Ernest, 28, 55, 64, 109 Guichard, 272, 285, 286 Guieysse Pierre-Paul, 282 Guissez & Cousin, 228 Guyot Yves, 91, 92, 103, 181, 182, 184, 232, 241, 280, 282, 363, 367, 428, 445, 467 H Hagerman Jonas-Philip, 51 Hainguerlot, 139 Alfred, 127 Haussmann Eugène, 107, 121, 130, 131, 132, 133, 134, 135, 138, 139, 154, 216, 222, 427 Hubard, 153 Hugo Victor, 422 Humblot Félix Eugène Edmond, 108, 127, 136, 222, 224, 226 J Jauréguiberry Jean Bernard, 240, 281, 290 Joffrin Jules, 183 Jolibois Pierre, 10, 286, 418 Jonnart Louis, 144 Jossier, 321, 322 Jouanique Marcel, 19, 306 Jouy Amédée, 291, 292, 294, 422 K Kaiser, 242, 276, 294 Kauffmann Richard de, 34 Kestner, 93 Krantz Jean-Baptiste, 73, 74, 75, 76, 167, 168, 169, 170, 174, 175, 178, 467 L ie Ganz et C , 199 Gauckler, 284 Gayda Marc, 25, 64, 130, 132 Gaz parisien, 94 Girard Pierre-Simon, 61, 64, 92, 126, 127, 128, 414, 467 Godeaux Eugène, 75 Gomot Hippolyte, 281 Graber La Gournerie Eugène de, 172, 173 Lacombrade Philippe, 147, 273, 308, 333, 427 Laffitte Jacques, 51 Louis, 309 Lainey, 275, 276, 334, 342, 343 Lantier Claude, 4 Latour du Moulin, 398 480 Lavaud Charles, 9, 265, 269, 270, 279, 333, 334, 388 Leblanc Abel Désiré, 199 Abel Stanislas, 199 Leboucq Charles, 266, 283 Lefèbvre Paul, 334 Legrand Baptiste Alexis Victor, 13, 89, 90, 467 Léon Paul, 33, 48, 49, 56, 94, 172, 318, 349, 408, 409, 413, 415, 473 Lépine Louis, 397, 398 Lermercier Claire, 91 Leroy-Baulieu Paul, 172, 190 Leroy-Beaulieu Paul, 172, 189 Lesieur, 276 Louiche Desfontaines, 93 ingénieur des Ponts et Chaussées, 100 M Mallet, 223 Paul, 223, 265, 278, 315, 326, 331, 422, 435 Mange Alfred, 309, 363 Marnot Bruno, 13, 16, 20 Maruejouls Émile, 315 Maury François, 8, 33, 48, 58, 66, 129, 215, 231, 297, 379, 386, 395, 398, 400, 424, 428, 432, 433, 469 Méline Jules, 234, 255, 262, 298, 300, 470 Mercuard Adolphe, 139 Merger Michèle, 16, 18, 19, 21, 23, 24, 25, 29, 31, 34, 52, 53, 88, 237, 251, 307, 325, 360, 368, 414 Michal, 28, 59 Zoroastre Alexis, 28, 55 Millard Jean, 6, 25, 75, 308, 384 Molinos Louis, 74, 78, 267, 268 Montel Nathalie, 19, 50 Morel Alphonse, 228 Morice Lucien, 17, 18, 80, 306 Morillon Albert, 217, 425 Mourer, 340 Arthur, 319, 320, 322, 323, 327, 328, 334, 335, 336, 337, 338, 339, 340, 342, 343 Muzet Alexis, 281, 377 N Napoléon Ier, 128, 410 Napoléon III, 45, 85, 86, 87, 89, 104, 106, 126, 132, 133 Navier Henri, 56 Neiertz Nicolas, 15, 17, 18, 20, 23, 307 Nivernaise, 217 Noblemaire Gustave, 191, 276, 456 O O.N.N., 18 Odier, 51 P Parmentier Antoine, 126 Pawlowski Augsute, 33, 34, 336, 396, 397, 398, 423 Auguste, 5, 7, 33, 387 Pereire Frères, 61, 62, 129, 145, 155, 156, 157, 158, 225 Perier Casimir, 51 Périer de Féral, 383, 384 Perronnet Jean-Rodolphe, 125 Pétiet Jules, 56 Peyron Alexandre, 282, 283 Peyrou amiral, 290 Piat et Fougerol, 374 Picard Alfred, 34, 51, 423, 429, 467 Piketty Charles, 216, 217, 218, 370 Paul, 370 Pillet-Will Michel Frédéric, 47, 51, 67 Pinon Pierre, 132 Poirée Charles, 71, 72, 73, 82, 93, 96, 97, 115, 116, 177, 303 Poirrier, 283, 284, 298 Pozzy, 245, 275, 276, 330 R Radoux Albert, 423 Ratcliffe Barrie, 12, 162 Résal Jean, 302 Ribault Jacques, 372 Richard Louis, 287 Ricordeau, 374 Robaglia, 435 Robida 481 Albert, 299 Rodiguet Lionel, 278 Rouher Eugène, 86, 154 Rozat de Mandres, 136 S Say Jean-Baptiste, 127, 463 Léon, 172, 174, 179 Pierre-Simon, 91 Schlumberger, 93 Schumpeter Joseph Alois, 15, 23, 69, 165, 166, 234, 469, 470 Sciama, 275, 315, 323, 330 Sénat, 86, 280, 281, 283, 315, 445 Sicat, 334, 335, 337 Siméon Henri, 132 Piketty, 370 Szulman Éric, 19, 115 T Thénard Antoine, 71, 72, 93 Thomasset René Edmond, 240, 274, 281, 285, 290 Tourasse ingénieur-mécanicien, 73 V Vaillant, 425 Vassal, 127 Vauban Sébastien Le Pestre de, 161, 324 Vavin Alexis, 139 Verne, 299 Jules, 299 Versigny Claude-Marie, 104, 191, 244 W Wallon, 257 Wechman Friedrich, 199 Williams Ernst Williams Jr, 23 Z Zola Émile, 4, 155 482 Index des noms d'institutions, d'entreprises : C C.S.S. Compagnie des Sablières de la Seine 381, 382 Caisse d'escompte 150 Ceinture Chemin de fer de Ceinture 151, 157, 161, 189, 274, 300, 302, 328, 346, 393, 436 CGT 384 Chambre de commerce d'Auxerre 279 Chambre de commerce de Dieppe 266, 267 Chambre de commerce de Dieppe 256, 266 Chambre de commerce de Douai 324 Chambre de commerce de Dunkerque 49 Chambre de commerce de Lille chambre de commerce lilloise 256, 259, 260, 261 Chambre de commerce de Lyon 173, 336 Chambre de commerce de Paris 145, 323, 358 Chambre consulaire 26, 27, 38, 93, 94, 128, 148, 151, 152, 250, 252, 254, 276, 280, 281, 282, 285, 291, 306, 316, 320, 321, 322, 326, 330, 336, 337, 342, 343, 344, 346, 348, 349, 352, 353, 355, 356, 358, 400, 440, 441, 442, 445, 447 Chambre de commerce de Roanne 334 Chambre de commerce de Rouen 251, 257, 258, 262, 263, 264, 265, 270, 273 Chambre de commerce rouennaise, chambre consulaire rouennaise 262, 263 Chambre de commerce française de Bruxelles 279 Chambre de Députés Parlement, Assemblée Nationale 281, 282 Chambre des Députés Parlement, Assemblée nationale 49, 171, 176, 288, 289, 290, 291, 303, 319, 352 Chambre Syndicale de la Marine 255, 275, 330, 331, 332, 340 Chemin de fer de l'Est 346 Chemin de fer de l'Est 59 Chemin de fer de l'Ouest Compagnie de Chemins de fer de l'Ouest 254, 279 Chemins de fer de l'Ouest Compagnie de l'Ouest, réseau de l'Ouest, Compagnie de chemins de fer 257, 268, 269 Compagnie Ardennaise 233 Compagnie d'Orléans 329 Compagnie d'Orléans 330 Compagnie PO, chemin de fer Paris-Orléans, réseau d'Orléans 321, 328, 332, 333, 337, 339, 340, 348, 349 Compagnie de chemin de fer de l'Ouest 244, 277 Compagnie de chemin de fer de Paris à Orléans Compagnie PO, réseau d'Orléans, Chemin de fer PO, Chemin de fer Paris-Orléans 321 Compagnie de l'Est 94 Compagnie de l'Ouest 249, 268, 269 Compagnie de l'Ouest 58, 78, 248, 257, 269, 270, 325 réseau de l'Ouest, chemin de fer de l'Ouest 292 Compagnie de la Basse-Seine et de l'Oise 75 Compagnie de touage de la Haute-Seine 75 Compagnie de touage et de remorquage de l'Oise 271 Compagnie de touage et de remorquage de transports 271 Compagnie des Canaux 130, 142 Compagnie des chemins de fer d'Orléans Compagnie PO, réseau d'Orléans, Compagnie PO, Compagnie Paris-Orléans 322, 438 Compagnie des Docks 132, 156, 157, 161 Compagnie des quatre canaux 52 Compagnie du canal du Midi 62 Compagnie du Métropolitain 380 CMP 220 Compagnie du Nord 17, 56, 58, 96, 104, 154, 157, 186, 325, 326, 327, 333, 334, 424 Compagnie du touage de Conflans à la mer 271 Compagnie du touage de la Basse-Seine à l'Oise 271 Compagnie Française de Navigation Fluviale et Maritime 328 Compagnie Française des Transports Fluviaux et Maritimes Havre-Paris-Lyon 234 Compagnie générale de transport Dommartin 234 Compagnie Générale des Bateaux Parisiens 368 Compagnie générale des eaux 141 Compagnie Havre-Paris 234 Compagnie HPL 234 Compagnie Maritime de la Seine 393 Compagnie parisienne du Gaz 325 compagnie Tarbé des Sablons 62 Congrès International de Navigation Intérieure 320 Conseil des ministres 293 Conseil des Ponts et Chaussées 56, 62, 253, 278, 421 Conseil général de la Seine . 116, 229, 254, 281, 289, 430, 434, 441, 448 Conseil général des Ponts et Chaussées 60, 61, 76, 83, 90, 91, 288 Conseil Général des Ponts et Chaussées 92, 281, 288 Conseil général des Ponts-et-Chaussées 178 conseil municipal 141, 143, 262, 294, 444, 445 Conseil municipal de Paris 186, 278, 281, 292, 294, 406, 434 Municipalité de Paris, Ville de Paris 293 Conseil Municipal de Paris 227, 388 Conseil National des Ponts et Chaussées 310 Corps législatif 61, 62 Cusin et Legendre 148, 150 Cusin, Legendre et Cie 147 D Département de la Seine 7, 10, 15, 30, 31, 46, 83, 107, 109, 123, 125, 142, 201, 251, 252, 253, 254, 269, 277, 290, 291, 292, 294, 298, 365, 376, 377, 386, 391, 430, 440, 441, 447, 454, 455, 483 Docks Napoléon 147, 148, 150, 156, 159 F Fédération des industriels et Commerçants 271 Alfred Charles Ernest Franquet de 60, 62, 91, 92, 479 Fresne usines 217 G ie Ganz et C 204 483 Gaz parisien 96 Grands Moulins 217 Guissez & Cousin 233 H H.P.L.M. Compagnie Générale de Navigation H.P.L.M., C.G.H.P.L.M. 330, 331, 372 Houillères 40, 69, 93, 94, 95, 96, 105, 112, 115, 119, 170, 186, 187, 256, 257, 261, 323, 420, 422, 427, 428, 468 Houillères du Pas-de-Calais 422 I Inspection de la Navigation 77, 231, 400, 401, 441 M Magasins d'Austerlitz 165, 325, 393, 394, 396, 405 Magasins généraux 132, 153, 217, 326, 395 Magasins Généraux 148, 157, 346, 351 Maison Caillard et Cie 322 Ministère des Travaux publics 246 Ministre de l'Agriculture, ministre, ministère de l'Agriculture 87, 150, 434 Ministre des Travaux publics 245, 279, 437 Ministre du Commerce, ministère du Commerce 321 MM. Pagès et Cie 351 Molinos Louis 76, 79, 273, 274 Morillon-Corvol 220, 221, 327, 483 Municipalité de Paris Ville de Paris, conseil municipal de Paris 252, 277, 278, 282, 292, 480 N Nivernaise 221 O O.N.N. 19 Odier 52 P Parlement 170, 245, 281, 289, 294, 407, 480 Piketty, Leneru, Garçin et Cie 220 PLM 54, 188, 194, 195, 269, 282, 327, 328, 334, 335, 336, 349, 357, 360, 361, 436, 468, 470 Préfecture de la Seine 292 Préfecture de Police 10, 26, 33, 35, 116, 393, 409 Préfet de la Seine 133, 134, 136, 137, 141, 321, 388 Préfet de police Préfecture de police 84, 116, 409 S Sablières de la Seine 327, 381, 481 Say Jean-Baptiste 129, 475 Léon 175, 176, 177, 182 Pierre-Simon 93 Schlumberger 95 Schumpeter Joseph Alois 15, 23, 70, 168, 169, 238, 481, 482 Sciama 282, 324, 332, 340 Sénat 87, 287, 289, 290, 324, 457 Service des Canaux de la Ville de Paris 411 Service des Eaux et de l'Assainissement 411 Sicat 344, 345, 347 Siméon Henri 134 société « La Fluviale » 344 Société Concessionnaire des Entrepôts & magasins du quai d'Austerlitz 393 Société Cusin, Legendre & Cie 148 Société d'Économie politique à Lyon 196 Société d'études coloniales 243, 279 Société d'études de Paris-Port-de-Mer 243, 244 Société des études coloniales 278, 298, 299 Société des études coloniales et maritimes 278 Société des Études Coloniales et maritimes 304 Société des Ingénieurs Civils de France 273 Société Générale de touage et de remorquage 286 Société Générale de Touage et de remorquage 273 Société Larget 233 Société Paris-Austerlitz 440 Société Pavot 234 Société Piketty, Leneru, Garçin et C ie Piketty 380 Syndicat de la Marine 195, 271, 275, 437 Syndicat de la Navigation de l'Ourcq 234 Syndicat du bassin de la Villette 234, 271, 272, 282 Syndicat du Bassin de la Villette 234, 271, 277, 285 Syndicat du bassin de la Villette et des canaux adjacents 271 Syndicat du bassin de la Villette et des Canaux Adjacents 234 Szulman Éric 20, 117 T Travaux publics ministre, ministère 6, 7, 24, 26, 29, 30, 31, 32, 33, 34, 35, 37, 40, 48, 56, 58, 59, 84, 87, 88, 91, 102, 103, 116, 185, 190, 192, 199, 200, 201, 204, 215, 220, 225, 228, 245, 252, 253, 259, 266, 281, 287, 289, 297, 320, 321, 322, 324, 334, 342, 370, 371, 373, 375, 380, 387, 388, 407, 422, 424, 428, 430, 432, 438, 440, 441, 442, 447, 476, 477, 479 U Union géographique du Nord de la France 255 484 TABLES DES DOCUMENTS : Table des illustrations : Figure 1 Le canal Saint-Denis au début du XXe siècle 9 Figure 2. Nouvelle gare d'Orléans (actuel musée d'Orsay) et port d'Orsay au début du XX e siècle. 24 Figure 3 Système Poirée. 72 Figure 4. Plan du toueur La Ville de Sens (1850) 79 Figure 5. Hausse Chanoine dotée d'une passerelle sur fermettes 96 Figure 6 Tirants d'eau avant et après la canalisation de la Seine. 97 Figure 7. Vue de la voûte souterraine de canal Saint-Martin en 1862. 141 Figure 8 Profil en long de la Seine canalisée après les aménagements effectués entre Paris et Rouen en 1886. 177 Table des cartes : Carte 1. Voies navigables dans la région parisienne en 1891. 37 Carte 2. Plan des ports de Paris au début du XXe siècle 39 Carte 3. Rayonnement du « port de Paris ». 40 Carte 4. Carte des voies fluviales dans le bassin parisien 45 Carte 5. Tracé du canal Saint-Martin dans les années 1830. 140 Carte 6. Tracé du projet de canal du Nord 407 Carte 7. Croquis du port de Paris et de l'agrandissement projeté 439 Carte 8. Cartes des voies navigables et des ports français en 1900 et contenant les améliorations prévues par le plan Baudin. 471 Index des tableaux : Tableau 1. Budgets définitifs alloués à la navigation intérieure au début des années 1850-1852 59 Tableau 2. Halage et remorquage sur la Basse-Seine, entre Paris et Rouen 1847-1853. 75 Tableau 4. Résultats de la consultation des chambres de commerce. 249 Tableau 5. Tarifs de location des grues sur le port d'Ivry en 1903. 336 Tableau 6. Bilan de l'activité du port d'Ivry 1899-1902. 337 Tableau 7. Évolution de l'activité du port d'Ivry 1900-1907. 343 Table des graphiques : Graphique 1. Activité portuaire dans la région parisienne estimée par les différentes administrations 1883-1913 32 Graphique 2. Concurrence entre les voies navigables et ferrées sur la ligne Paris-Rouen 1844-1852. 53 Graphique 3. Fréquentation des voies navigables françaises 1847-1871. 56 Graphique 4. Allocation budgétaires destinées aux travaux neufs des voies navigables dans la première moitié des années 1850 59 Graphique 5. Tonnages effectifs par provenance des arrivages sur les ports parisiens 1843-1853. 63 Graphique 6. Trafic du canal de Saint-Quentin 1849-1867 94 485 Graphique 7. Mouvement de la navigation de Paris à Rouen sur la période 1848-1866 98 Graphique 8. Arrivages par nature de marchandises sur les ports de Paris en 1853 (en tonnes) 107 Graphique 9. Arrivages sur les ports dans la traversée de Paris en 1853 (en tonnes) 108 Graphique 10. Répartition intermodale du trafic des combustibles minéraux consommés dans la région parisienne 1883-1900. 187 Graphique 11. Transports des combustibles minéraux acheminés vers la région parisienne par origine et par mode 1883-1900. 192 Graphique 12. Trafic dans la 8e section de la Seine 1882-1900. 193 Graphique 13. Remonte et descente dans la 8e section de la Seine 1883-1900. 194 Graphique 14. Trafic des combustibles minéraux sur la Basse-Seine, sur l'Oise et dans la traversée de Paris 1883-1900 194 Graphique 15. Répartition des houilles dans la 7e section de la Seine au cours de la période 1887-1899. 195 Graphique 16. Trafic circulant des alcools et des céréales circulant dans le département de la Seine en provenance de la Basse-Seine 1891-1900. 197 Graphique 17. Provenance des déchargements de produits liés à l'industrie sucrière dans le département de la Seine 1891-1911. 199 Graphique 18. Extraction et transport par voie fluviale des houilles du nord de la France 1882-1899. 200 Graphique 19. Mouvement de la navigation dans le département de la Seine 1872-1882. 202 Graphique 20. Trafic du port de Paris 1883-1900. 204 Graphique 21. Composition du trafic sur la Seine dans la traversée de Paris en 1898. 207 Graphique 22. Arrivages et expéditions sur les ports dans la traversée de Paris en 1889 (en tonnes). 207 Graphique 23. Trafic de la 2nde section de l'Yonne (Laroche-Montereau) 1883-1900. 210 Graphique 24. Trafic de la 3e section (Montereau Corbeil) de la Seine 1882-1900. 211 Graphique 25. Courants de trafic de la 4e section de la Seine en 1899. 212 Graphique 26. Trafic de la 4e section de la Seine 1883-1900 213 Graphique 27. Trafic des matériaux de construction dans la 4e section de la Seine 1883-1900 (en tonnes). 213 Graphique 28. Trafic des ports sabliers de la Haute-Seine (4e section Paris-amont) 1886-1900. 214 Graphique 29. Céréales en provenance de l'Yonne et de la Haute-Seine dans le transport fluvial du département de la Seine 1891-1900. 217 Graphique 30. Rapport des trafics canaux/traversée de Paris (5e section de la Seine) 1882-1900. 219 Graphique 31. Trafic des canaux de Paris et de la 5e section de la Seine (traversée de Paris) 1882-1900. 220 Graphique 32. Trafic du bassin de la Villette et des canaux de Paris 1885-1900. 225 Graphique 33. Trafic des catégories de marchandises en dehors des matériaux de construction sur la 4e section de la Seine, 1883-1913. 344 Graphique 34. Trafic du port de Paris 1883-1913. 354 Graphique 35. Denrées agricoles, combustibles minéraux et trafic total sur la Seine entre Conflans et Rouen 1883-1913. 360 Graphique 36. Répartition modale à Paris 1883-1912. 364 Graphique 37. Trafic par matières premières dans la traversée de Paris 1883-1913 368 Graphique 38. Trafic des cailloux et assimilés en provenance ou en direction de la Haute-Seine 18911913. 370 Graphique 39. Trafics des différentes sections de la Seine dans la région parisienne 1882-1913. 375 Graphique 40. Trafic du canal de Saint-Quentin 1882-1913 410 Graphique 41. Trafic des combustibles minéraux sur la Basse-Seine, l'Oise et la traversée de Paris. 415 486 Graphique 42. Tonnages effectifs sur la 7e section de la Seine (de la Briche jusqu'à Conflans) 18821913. 436 Graphique 43. Mouvement de la navigation dans le département de la Seine 1872-1911 (en tonnes) 445 Graphique 44. Trafic de l'Oise de Janville à la Seine 1883-1913. 450 Graphique 45. Trafic de la 4e section de la Seine 1882-1913 451 Graphique 46. Voies fluviales et chemins de fer dans le partage des marchandises à Paris 1883-1912 (en tonnes) 456 Graphique 47. Tonnage fluvial global en France et trafic du port de Paris 1883-1913. 460 487 Alexandre Lalandre Le port de Paris, naissance d'un port industriel (milieu XIXe siècle-1914) Le port de Paris ne correspond pas à la définition traditionnelle du terme. On doit observer tout d'abord qu'il s'agit d'un port fluvial. La difficulté de définir le port de Paris tient au fait qu'il consiste en plusieurs types d'installations : canaux, ports à darses, ports sur berges (quais droits et ports de tirage) et donc à des réalités protéiformes. Certains auteurs préfèrent l'expression « ports de Paris », pour en souligner le caractère hétéroclite. Au XIXe siècle, on parlait également des « ports de Paris », c'est-à-dire des installations sur la Seine, par opposition aux canaux. Le port de Paris correspond donc à un ensemble bordé par une soixantaine de kilomètres de rives, dont une partie destinée à la batellerie. La thèse débute à une époque durant laquelle le transport fluvial se trouve confronté aux effets de la concurrence des chemins de fer. Il lui faudra plusieurs décennies pour s'adapter et revêtir une nouvelle fonction, à savoir celle quasi exclusive de pourvoyeuse de pondéreux. Cette conversion s'est opérée essentiellement à travers l'amélioration des infrastructures fluviales. La modernisation portuaire revêtait deux volets, à savoir l'amélioration de l'outillage en vue d'optimiser le conditionnement des marchandises, et celle appartenant à une vision plus globale de la fonction du port de Paris, voire de Paris lui-même. Paris port de mer appartient à cette dernière. On peut avancer l'idée d'une opposition entre un « port réel » et un port « mythique », à savoir une voie alternative visant à transformer la vocation portuaire de la capitale. Des tentatives de réconciliation entre les deux visions se manifestent à travers la création du port d'Ivry, des commissions entre 1911 et 1914 sur la modernisation de l'outillage portuaire. Mots-clefs Basse-Seine, canal du Nord, canal de Saint-Quentin, canaliste, canaux, chemins de fer, ferriste, Haute-Seine, houillère, intermodal, marinier, Paris port de mer, plan Baudin, plan Freycinet, sablières, voies ferrées. The port of Paris, birth of an industrial port (mid-19th century-1914) The Port of Paris does not correspond to the traditional definition of the term. It should first be noted that this is a river port. The difficulty of defining the port of Paris stems from the fact that it consists of several types of installations: canals, ports at docks, ports on banks (straight wharves and pull ports) and therefore protean realities. Some authors prefer the term "ports of Paris" to emphasize its heterogeneous character. In the 19th century, we also talked about the "ports of Paris", that is to designate installations on the Seine, as opposed to canals. The port of Paris thus corresponds to an ensemble bordered by some sixty kilometers of shore, including a part intended for inland navigation. This thesis begins at a time when river transport is confronted with the effects of competition from the railways. It will take several decades to adapt and take on a new function, namely the almost exclusive role of provider of weighty. This conversion was mainly achieved through the improvement of river infrastructures. Port modernization had two aspects: improving tooling to optimize the packaging of goods, and integrating a more global vision of the function of the port of Paris, and even of Paris itself. "Paris sea port" belongs to the latter. One can put forward the idea of an opposition between a "real port" and a "mythical" port, an alternative way of transforming the port's vocation to the capital. Attempts at reconciliation between these two visions are manifested through the creation of the port of Ivry, commissions between 1911 and 1914 on the modernization of port equipment. Keywords Bargemen, Basse-Seine, canal du Nord, canal de Saint-Quentin, canalist, canals, coalmine, competition railnavigation, connecting port, ferrist, Haute-Seine, intermodal, ports, Paris seaport, railroads, river, sand quarry, Seine, weighty. École doctorale d'Histoire (ED 113) UFR d'Histoire (UFR 09) Institut d'histoire économique et sociale (IHES) IDHES-CNRS (UMR8533) 488
{'path': '43/tel.archives-ouvertes.fr-tel-01692458-document.txt'}
Mise en évidence des effets de la scintillation ionosphérique sur les stations GNSS du Brésil Mathias Paget To cite this version: Mathias Paget. Mise en évidence des effets de la scintillation ionosphérique sur les stations GNSS du Brésil. Sciences de l'ingénieur [physics]. 2013. dumas-00941978 HAL Id: dumas-00941978 https://dumas.ccsd.cnrs.fr/dumas-00941978 Submitted on 4 Feb 2014 CO SERVATOIRE ATIO AL DES ARTS ET METIERS ÉCOLE SUPÉRIEURE DES GÉOMÈTRES ET TOPOGRAPHES _________________ MÉMOIRE présenté en vue d'obtenir le DIPLÔME D'I GÉ IEUR C AM Spécialité : Géomètre et Topographe par Mathias PAGET ___________________ Mise en évidence des effets de la scintillation ionosphérique sur les stations G SS du Brésil Soutenu le 11 Juillet 2013 _________________ JURY PRÉSIDE T : Monsieur Laurent MOREL MEMBRES : Madame Joëlle DUROY ICOLAS, professeur référent Monsieur Fréderic MASSO _________________ Maître de stage : Madame Daniele BARROCA MARRA ALVES Remerciements Je tiens à remercier Madame Daniele BARROCA MARRA ALVES pour ses conseils avisés et les rapports cordiaux entretenus durant ce travail et Madame Joëlle DUROY-NICOLAS pour l'encadrement pédagogique et le suivi de mon travail. Je remercie la FCT-UNESP de m'avoir accueilli pendant une année, de m'avoir donnée la possibilité d'y réaliser mon TFE et d'avoir mis à ma disposition ses données et logiciels. Je remercie le projet BRAFITEC pour l'opportunité donnée : une année de mobilité au Brésil riche en enseignements. Je remercie toutes les personnes oeuvrant aux relations internationales à l'ESGT et à l'UNESP, Madame Monica DAVID, Messieurs João CHAVES et Mauro ISHIKAWA, pour le traitement des formalités administratives durant la durée de mon séjour et plus particulièrement Monsieur Amilton AMORIM pour son accueil chaleureux et sa bonne humeur. Je remercie les membres du GEGE pour la qualité de leurs présentations, l'appui technique donnée, leur convivialité lors de mes travaux à la station GPS de l'UNESP. Je remercie aussi, Carla, Mariana et Paulo pour leur soutien et leur amitié. Liste des symboles A – amplitude du signal reçu A0 – amplitude du signal nominal δA – scintillation d'amplitude du signal Az – Azimut du satellite c – vitesse de la lumière dans le vide – mesure du code C/A de la porteuse L1 CkL – height integrated irregularity strength – distance géométrique entre le satellite s et de récepteur r D – distance au zénith du point projeté - erreur d'horloge du satellite s – erreur d'horloge du récepteur r δa – erreur d'antenne δiono – erreur de propagation du signal dans la ionosphére δμ – erreur de multi trajet δorb – erreur d'orbite du satellite δtropo – erreur de propagation du signal dans la troposhére E – signal reçu E0 – signal nominal δE – scintillation du signal Elev – élévation du satellite F – facteur d'échelle de Fresnel – fréquence de fluctuation de la phase – fréquence de coupure 3 – outer scale size – fréquence de la porteuse L1 – fréquence de la porteuse L2 G – facteur de mise à l'échelle φ– phase du signal reçu φ0 – phase du signal nominal δφ – scintillation de phase du signal L1 – porteuse GPS L1 – mesure de la phase de la porteuse L1 L2 – porteuse GPS L2 – mesure de la phase de la porteuse L2 L5 – porteuse GPS L5 λ – longueur d'onde du signal λ1 – longueur d'onde de la porteuse L1 λ2 – longueur d'onde de la porteuse L2 M – point considéré M' – point projeté par invertion – ambiguïtés entières entre le satellite s et de récepteur r N1 – ambiguïtés entières de la porteuse L1 N2 – ambiguïtés entières de la porteuse L2 – résidu de la mesure entre le satellite s et de récepteur r p – pente spectral – mesure du code P2Y de la porteuse L2 phi01 – écart-type de la phase calculée sur 1s normalisé par la par la moyenne phi03 – écart-type de la phase calculée sur 3s normalisé par la par la moyenne phi10 – écart-type de la phase calculée sur 10s normalisé par la par la moyenne 4 phi30 – écart-type de la phase calculée sur 30s normalisé par la par la moyenne phi60 – écart-type de la phase calculée sur 60s normalisé par la par la moyenne – pseudo distance entre le satellite s et de récepteur r – densité spectral de puissance de la phase S4 – écart-type de l'amplitude calculée sur 60s normalisée par la moyenne S4(L1) – indice S4 du signal L1 S4(L2) – indice S4 du signal L2 S4n – Terme correctif de l'indice S4t (bruit thermique) S4t – indide S4 total S4w – indice S4 estimé σφ – RMS de la phase calculé sur 60s σCCD – écart-type du rapport signal sur bruit T – magnitude du spectre θ – angle d'indicence du signal dans la couche des irrégularités vd – vitesse de dérive des irrégularités ve – vitesse effective des irrégularités zf – rayon de l'ellipsoïde de Fresnel z1 – distance séparant la couche des irrégularités et le satellite z2 – distance séparant la couche des irrégularités et le récepteur 5 Liste des abréviations DGPS – Differential GPS IPP – Ionospheric Pierce Point NRTK – Network Real Time Kinematic RINEX - Receiver Independent EXchange Format RMS – Equart-moyenne quadratique (Root Mean Square) ROTI – Dérivée du TEC (rate of change of TEC) DROTI - dérivée du ROTI GMF – Global Mapping Function GIM – Global Ionospheric Maps GISM – Global Ionospheric Scintillation Model PLL - Phase Loop Lock PP – Positionnement par Point classique PPP – Positionnement par Point Précis PRN - PseudoRandom Noise RTK - Real Time Kinematic SVID - Satellite-Vehicle Identification Number TEC - Total Electron Content UTC – Temps universelle coordoné (Coordinated Universal Time) VMF1 – Vienna Mapping Function WAM – modèle de Wernik-Alfonsi-Materassi WBMOD - WideBand MODel Glossaire CIGALA – Concept for Ionospheric Scintillation Mitigation for Professional GNSS in Latin America CALIBRA – Countering GNSS high Accuracy applications Limitations due to Ionospheric disturbances in BRAzil GNSS – Global Navigation Satellite System CPTEC – Centro de Previsão de Tempo e Estudos Climáticos ECMWF – European Center for Medium range Weather Forecasting FCT-UNESP – Faculdade de Ciências e Tecnologia - Universidade Estadual Paulista Júlio de Mesquita Filho GDAL – Geospatial Data Abstraction Library GEGE – Grupo de Estudo em Geodésia Espacial GLONASS – Globalnaïa Navigatsionnaïa Spoutnikovaïa Sistéma GNSS – Global Navigation Satellite System GPS – Global Positioning System GSA – Agence GNSS Européene IBGE – Instituto Brasileiro de Geografia e Estatística IGS – International GNSS Service IGS-RNAAC-SIR – IGS Regional Network Associate Analysis Centre for SIRGAS IERS – International Earth Rotation and Reference Systems Service INCCE – Institut de Mécanique Céleste et de Calcul des Ephémérides ITRF – International Terrestrial Reference Frame LGE – Laboratório de Geodésia Espacial RBMC – Rede Brasileira de Monitoramento Contínuo dos Sistemas RIBAC – GNSS Rede Incra de Bases Comunitárias do GNSS SAD69 – South American Datum 7 SIRGAS – Système de Référence Géocentrique pour les Amériques UFPE – Universidade Federal de Pernambuco VEMOS – Vitesse du Modèle SIRGAS 8 Table des matières Remerciements 2 Liste des symboles 3 Liste des abréviations 6 Glossaire 7 Table des matières 9 Introduction 11 I. RAPPELS ET DEFI ITIO S 13 IONOSPHERE 13 I.1.1 Définition 13 I.1.2 Structure 14 I.2 SCINTILLATION 15 I.2.1 Définition 15 I.2.2 Indices de scintillation 17 I.3 OBSERVATIONS GNSS 21 I.3.1 Sources d'erreur GNSS 21 I.3.2 Effets de la ionosphère sur les observables 22 II POSITIO EME T G SS 24 II.1 CONTEXTE GEODESIQUE 24 II.1.1 Systèmes de référence 24 II.1.2 Réseau Permanent 24 II.2 METHODES DE POSITIONNEMENT 25 II.2.1 Positionnement absolu 25 II.2.2 Positionnement relatif 25 II.3 LOGICIELS DE POSITIONNEMENT 27 II.3.1 RT_PPP 27 II.3.2 Service en ligne de positionnement PPP de l'IBGE 28 III ETUDE DES I DICES DE SCI TILLATIO 30 III.1 DONNEES DISPONIBLES 30 III.1.1 Projets CIGALA et CALIBRA 30 III.1.2 Outils du projet CIGALA/CALIBRA 31 III.2 VARIATIONS TEMPORELLES 32 III.2.1 Cycles solaires 32 III.2.2 Variations saisonnières 32 III.2.3 Variations journalières 34 III.3 VARIATION DANS L'ESPACE 37 III.3.1 Influence de la position de la station 37 III.3.2 Influence de l'élévation et de l'azimut 38 III.3.3 Spatialisation de l'indice S4 39 III.4 ETUDES DES MODELES EXISTANTS 43 III.4.1 Modélisation des indices S4 et σφ 43 III.4.2 Modèles WBMOD, WAM et GISM 45 IV ETUDE DE L'EFFET DE LA SCI TILLATIO SUR LES OBSERVABLES 46 IV.1 PHENOMENES OBSERVES 46 I.1 9 IV.1.1 Diminution du nombre de satellite 46 IV.1.2 Perte du Lock Time 47 IV.1.3 Pertes de cycle 49 IV.2 DEGRADATION DE LA QUALITE DU SIGNAL 50 IV.2.1 Rejets de satellites 50 IV.2.2 Problèmes de convergences 52 IV.2.3 Tentatives d'atténuation 52 V RELATIO S E TRE SCI TILLATIO ET ERREUR DE POSITIO EME T 54 V.1 STATIQUE PP EN DIVERSES CONDITIONS 54 V.2 POSITIONNEMENT PP AU COURS DE NUIT 57 Conclusion 59 Bibliographie 61 Annexe 1 Cartes des stations du projet CIGALA 64 Annexe 2 Description de la table du projet CIGALA 65 Annexe 3 Pourcentage de valeurs S4 supérieures à 0.5 et 1 aux stations MANA/MAN2 (Manaus, AM) 66 Annexe 4 Pourcentage de valeurs S4 supérieures à 0.5 et 1 à la station PALM (Palmas, TO) 67 Annexe 5 Pourcentage de valeurs S4 supérieures à 0.5 et 1 à la station PRU1 (Présidente Prudente, SP) 68 Annexe 6 Pourcentage de valeurs S4 supérieures à 0.5 et 1 à la station PRU2 (Présidente Prudente, SP) 69 Annexe 7 Pourcentage de valeurs S4 supérieures à 0.5 et 1 aux stations SJCI/SJCE (São José dos Campos, SP) 70 Annexe 8 Pourcentage de valeurs S4 supérieures à 0.5 et 1 à la station SJCU (São José dos Campos, SP) 71 Annexe 9 Pourcentage de valeurs S4 supérieures à 0.5 et 1 aux stations MACA/MAC2 (Macaé, RJ) 72 Annexe 10 Pourcentage de valeurs S4 supérieures à 0.5 et 1 à la station PAOL (Porto Alegre, RS) 73 Liste des figures 74 Liste des tableaux 75 10 Introduction Le Brésil est un pays très demandeur en matière de positionnement précis, autant pour son développement écomonique que pour la maîtrise de son territoire. Les systèmes de positionnement par satellite (GNSS) permettent de répondre à cette demande. Les principales applications utilisées au Brésil, le RTK-résaux et PPP, exploitent la précision de la mesure de phase et sont particulièrement sensibles aux perturbations atmosphériques. Les effets ionosphériques sont significatifs même sous des conditions ionosphériques normales à des latitudes moyennes et en absence de taches solaires. Ils peuvent induire des erreurs sur les mesures allant de 0.5 m à une centaine de mètres. Des erreurs plus grandes surviennent en présence de perturbations ionosphériques, en région équatoriale et aux anomalies magnétiques des pôles, ainsi qu'en présence de taches solaires. Le soleil présente des cycles d'activité de 11 ans, et arrive à un maximum d'activité au cours de l'année 2013. Le Brésil est majoritairement situé dans la région équatoriale, de sorte que les études relatives à l'activité ionosphérique sont de première importance : au niveau de l'équateur, les effets ionosphériques sont forts et mettent en difficulté les systèmes de positionnement par satellite. Une de ces erreurs est la scintillation ionosphérique. La scintillation ionosphérique se traduit par des fluctuations rapides sur la phase et l'amplitude du signal radio reçu. Elle est causée par les irrégularités de densité d'électrons le long du trajet de l'onde lors de sa traversée de la ionosphère. Cela peut réduire le signal reçu par les récepteurs GNSS (Global Navigation Satelite System) et, dans de nombreux cas, occasionne la dégradation, voire la perte du signal. Il existe dans le pays des projets qui ont pour objet l'étude de ces phénomènes, la mesure et la réalisation de carte de scintillation ionosphérique et de TEC (Total Electron Content). Le projet CIGALA (Concept for Ionospheric Scintillation Mitigation for Professional GNSS in Latin America) (http://cigala.galileoic.org/), est une initiative d'étude et de modélisation des effets de la scintillation ionosphérique sur le positionnement GNSS financée par la commission européenne. Ce projet a vu l'installation de huit stations dans le but d'effectuer des mesures continues de la scintillation ionosphérique. Ces données sont mises à disposition par le LGE (Laboratório de Geodésia Espacial) de la FCT-UNESP. Ce travail de recherche se fera à partir de ces données. Ce projet a pris fin en 11 février 2013 et le projet CALIBRA lui a fait suite. Ce projet vera l'implantation de nouvelles stations sur le sol brésilien. L'objectif de ce travail est d'étudier les différents indices de scintillation et d'évaluer les effets de la scintillation ionosphérique sur les stations GNSS du Brésil. La première partie et la deuxième partie concernent des rappels et des définitions sur les effets ionosphériques et le positionnement GNSS. La troisième partie présente les indices de scintillation . La quatrième partie montre l'effet de la scintillation ionosphérique sur les observables GNSS. La cinquième partie met en relation la scintillation ionosphérique et l'erreur de positionnement. 12 I. Rappels et définitions I.1 Ionosphère I.1.1 Définition L'atmosphère terrestre peut être divisée en couches possédant des propriétés physiques spécifiques. En matière de géodésie spatiale, on distingue deux couches en fonction de leur activité électrique : la troposphère, l'atmosphère électriquement neutre et la ionosphère. La ionosphère peut se définir comme étant la région de l'atmosphère où l'effet de la quantité d'électron est significative sur la propagation des ondes radios. Les limites, tant supérieures qu'inférieures, ne sont pas clairement définies. On considère généralement dans la littérature, une troposphère de 0 à 50 km et une ionosphère de 50 km à 1000 km environ. Cette distinction est importante en géodésie spatiale car la troposphère et la ionosphère induisent des erreurs de nature différentes sur le signal GNSS. La ionosphère est une région de la haute atmosphère chargée en particules, électrons et ions, qui sont le résultat d'une ionisation de l'atmosphère neutre par les radiations électromagnétiques et corpusculaires venant du Soleil. La limite inférieure de la ionosphère coïncide avec la région de plus forte absorption et produit des paires d'ions et d'électrons libres suffisantes en quantité pour affecter le trajet de l'onde radio (région D). La limite supérieure est directement ou indirectement le résultat de l'interaction entre les vents solaires et la Terre. 13 I.1.2 Structure La ionosphère est composée de différentes couches définies en fonction de leur ionisation. On distingue la couche D, E et F. La localisation de ces couches varient en fonction du jour et de la nuit et sont présentés dans la Figure 1. Figure 1 – Densité en électron et altitude des couches de la ionosphère, source : Davies (1990) La région la plus basse, la couche D, entre 50 et 90 km absorbe les ondes radio (inférieur à 1 Hz). Au dessus se trouve la couche E entre 90 et 150 km et pour finir la couche F. La couche F se subdivise en F1 entre 150 et 180 km et F2 au dessus de 180 km. La densité d'électron est plus faible la nuit, la recombinaison des électron peut mener à la disparition de la couche D et de la division F1/ F2. Lors de forte activité solaire la division F1 et F2 peut se maintenir durant la nuit. La scintillation ionosphérique traitée dans ce travail se situe dans la couche F2. 14 I.2 Scintillation I.2.1 Définition La scintillation ionosphérique est la variation rapide d'amplitude et de phase des signaux radios. Ellent trouvent leur cause dans de forts gradients de concentration d'électron le long du parcours de l'onde dans la ionosphère qui présentent des variations rapides dans le temps. La scintillation dépend de la fréquence, de la position géographique, de l'heure locale, de la saison et du cycle solaire. Deux zones sont principalement concernées par ce phénomène : La région équatoriale (+/- 20° de latitude géomagnétique) et la région polaire (au dessus de 70°) (Aarons, 1982). Ces deux régions sont identifiables sur la Figure 2. La Figure 2 représente la fréquence d'apparition de la scintillation en nombre de jour par an. La région équatoriale correspond aux deux bandes rouge de part et d'autre de l'équateur magnétique. La région polaire correspond aux zones jaunes proches des pôles. Figure 2 – Fréquence d'apparition de la scintillation. Les deux bandes de scintillation équatoriale où la scintillation surviennent plus de 100 jours dans l'année et la scintillation polaire 10 jours dans l'année, source KINTNER (2009) Au niveau de l'équateur, le plasma est sous l'effet d'une force ascendante par combinaison de la rotation de la Terre vers l'est et du champ magnétique Nord-Sud. Lors du coucher du Soleil, les conditions de température et de pression se modifient et induisent une force descendante. Cette dernière augmente avec l'altitude de sorte que le plasma arrive à un point d'équilibre. Ce matériel en équilibre subit la pression du plasma plus bas en altitude encore en ascension. Ne pouvant plus monter, il se trouve diffusé latéralement vers le Nord et le Sud. Cet effet est appelé effet de fontaine ou de foisonnement : l'eau 15 monte, arrive à l'équilibre et redescend latéralement au jet d'eau. On assiste à la formation de deux irrégularités entre 15°-20° de part et d'autre de l'équateur magnétique après le coucher du Soleil. Cette zone atteint une taille d'un millier de kilomètre dans le sens EstOuest. Cette région est relativement instable et connaît de nombreuses recombinaisons, on observe la formation de « bulles » de plasma de concentration en électron très différente du milieu qui l'entoure. Le phénomène de scintillation ionosphérique survient sur les données, lorsque le signal GNSS rencontre une de ces bulles. Il subit une forte réfraction voir une diffraction. L'irrégularité se déplace entre 50 m.s-1 et 150 m.s-1 entraînant les bulles avec elle, de sorte que les conditions de propagation d'un même signal varient très rapidement à des echelles de temps très courtes (Davies 1990). La Figure 3 présente le mécanisme d'apparition de la scintillation sur le signal GNSS reçu. Figure 3 - Mécanisme de diffraction des ondes en provenance d'un satellite par des irrégularités d'ionisation de l'ionosphère. Vd représente la vitesse de dérive des irrégularités (et de la figure de diffraction des ondes) par rapport au récepteur, source : Lassurderie-Duchesne, 2010 On distingue la zone polaire de latitude géomagnétique supérieure à 75° et la zone aurorale allant jusqu'à 60°. Les particules solaires sont prises dans le champ magnétique terrestre et sont transportées vers les pôles magnétiques. L'effet de la saison est très important, l'été la zone polaire se trouve directement exposée au Soleil et durant la plus 16 grande partie de la journée. L'hiver les rayonnement solaires sont très faibles aux pôles et limitent les effets ionosphériques. Toutefois la scintillation peut survenir du fait des particules venant des moyennes latitudes. Cependant la ionosphère est moins épaisse au niveau des pôles qu'à l'équateur ce qui réduit la magnitude de la scintillation (Walter, 2010). La scintillation dans les zones de moyenne latitude est rare. Elle est liée à des extensions des zones équatoriales et polaires ou à des tempêtes ionosphériques sévères. Pour mesurer l'effet la scintillation ionosphérique sur les signaux GNSS, c'est à dire détecter et quantifier ce phénomène, divers indices de scintillation ont été mis en place. I.2.2 Indices de scintillation L'atmosphère terrerstre affecte les signaux GNSS. Lors de la traversée des irrégularités de la ionosphère et des « bulles » ionosphériques, le signal GNSS subit des variations temporelles rapides d'amplitude et de phase. On considère un signal GNSS, E de la forme (Skone, 2005) : Avec, = = = =( ) , le signal nominal et ( = ) (1) , la scintillation et la scintillation d'amplitude δA et de phase δφ. Différents indices ont été définis afin de quantifier la présence de scintillation. Deux indices sont couramment utilisés, le RMS de la phase σφ et l'écart-type de l'intensité normalisé par la moyenne S4 sur 60s (Knight 2000) : = ( ) = !" $ %$ '( − ' * 4= ! '* ( ). (2) (3) Avec, φ, la phase de la porteuse, Sφ densité de puissance spectrale de la phase, I = A2 l'amplitude du signal, ( l'opérateur « moyenne ». 17 Ces indices étant issus du traitement du signal, il est nécessaire d'atteindre une fréquence d'échantillonnage double de la fréquence du phénomène étudié afin de pouvoir le décrire correctement (Théorème de Shannon). Les stations de mesure de la scintillation (ISM) possèdent des fréquences d'échantillonnage élevées, 50 Hz pour le NovAtel MiLLennium (Du, 2003), 100 Hz pour le PolaRxPRO du projet CIGALA (Bougard, 2011). Les indices sont calculés sur un intervalle de 1 minute. Cela étant, certaines expérimentations à partir de données 1 Hz (station IGS classique) ont montré une corrélation acceptable avec les données issues de récepteurs à haute fréquence d'échantillonnage. L'indice S4 total, S4t est calculé à partir des fluctuations mesurés par l'appareil. Or, ces fluctuations peuvent être causées par d'autres sources : le bruit thermique de l'appareil et le multi-trajet. Pour corriger l'effet thermique de l'appareil, on utilise le terme correctif S4n (noise), cette correction est une fonction du signal C/N0 (DU, 2001) : 4 = + 4, − 4- (4) Pour détecter le multi-trajet, on utilise le rapport de l'écart type du rapport signal sur bruit, σCCD sur l'indice S4 avec un seuil de 5 (Datta-Barua, 2003). Le phénomène de multi-trajet est liée à la disposition du lieu et aux capacités techniques des appareils, le Tableau 1 donne une idée de l'ampleur du phénomène sur les stations du CIGALA (classée du Nord au Sud, carte des stations du projet CIGALA en Annexe 1) : Tableau 1 – Moyenne journalière du nombre de valeurs σCDD/ S4 > 5 pour la bande L1, un indice S4>0.25 et pour un masque d'élévation de 10° et pourcentage du total des valeurs mesurées, le mois d'octobre 2012 (les stations sont données du Nord au Sud) Moyenne MANA PALM PRU1 PRU2 SJCI SJCU MAC2 POAL 4 6 10 14 21 21 15 26 18 % du total 0.08% 0.04% 0.07% 0.08% 0.10% 0.10% 0.09% 0.14% La valeur de l'indice S4 augmente avec la longueur d'onde du signal : la scintillation sur le signal L2 est plus forte que sur le signal L1. De ce fait, le calcul de l'indice S4 du signal L2 à partir des séries temporelles est parfois mis en échec. A défaut de valeur de S4 calculée sur L2, on peut l'estimer à partir de l'indice S4 du signal L2 (Conker, 2002) : 4( 2) = 4( 1) 0 1 .2 = 1.454 × 4( 1) (5) Avec, 4( 1) l'indice S4 du signal L1, 4( 2) l'indice S4 du signal L1, et les fréquence des signaux L1 et L2. Du fait de ces échecs de mesure, c'est l'indice 4( 1) qui est le plus utilisé. La base de données du projet CIGALA n'utilise pas l'indice σφ le RMS de la phase pour la scintillation de phase, mais les indices phi03, phi10, phi30 et phi60 qui sont l'écarttype de la phase normalisé par la moyenne calculé sur 1s, 3s, 10s 30s et 60s. Le Tableau 2 montre le pourcentage d'information contenue dans les indices phi. Ces pourcentages ont été obtenus à l'aide du logiciel Scilab à partir des valeurs propres de la matrice de variance-covariance des indices phi01, phi03, phi10, phi30 et phi60 du 11 novembre 2012. Deux calculs ont été effectués : un (colonne « total ») prenant l'integralité des valeurs mesurées par minute, l'autre (colonne « phi60 > 1 » seulement les minutes où l'indice phi60 dépasse la valeur 1 (très forte scintillation). Tableau 2 – Pourcentage de l'information contenue dans les indices phi01, phi03, phi10, phi30, phi60 le 11 novembre 2012 indices phi60 phi30 phi10 phi03 phi01 total 98.25% 1.51% 0.21% 0.03% 0.00% phi60 > 1 88.17% 6.23% 4.94% 0.55% 0.12% Lorsque la quantité d'information est concentrée sur une série seulement, toutes les séries étudiées sont fortement corrélées. Le fait d'utiliser seulement l'indice phi60 permet de conserver plus de 98% de l'information. Toutefois, lorsque l'on s'intéresse aux données présentant de la scintillation (deuxième colonne), cette corrélation diminue. Cette décorrélation peut s'expliquer par l'apparition d'erreur aléatoire ou accidentelle. L'indice 19 phi60 est calulé sur un temps plus long, il est donc plus fiable. Des 5 indices, l'indice phi60 est le plus utilisé. L'intérêt des indices de scintillations est de quantifier le phénomène scintillation ionosphérique et d'évaluer à priori ses effets sur les observations GNSS. 20 I.3 Observations G SS I.3.1 Sources d'erreur G SS Il existe deux types d'observables GNSS utilisés pour positionnement, la pseudo- distance et la phase. La pseudo distance est une mesure de corrélation entre code pseudoaléatoire émis par le satellite et sa réplique générée par le récepteur afin de calculer le temps de parcours de l'onde. La phase est la mesure du déphasage de la porteuse entre le satellite et le récepteur. La plupart des satellites émettent en bi-fréquence, L1 et L2 pour le GPS, et certains en tri-fréquence, la fréquence L5 des satellites GPS du block II-F. Le Tableau 3 donne les caractéristiques et le bruit de mesure des différentes observables GPS. Tableau 3 – Fréquence des observables GPS et bruit de mesure, source : Seeber, 1993 Observation Fréquence (MHz) Longueur l'onde (m) Bruit de mesure 1575.42 1227.60 1176.45 10.23 1.023 0.19 0.24 0.26 29.3 293 1 à 2 mm 1 à 2 mm 1 à 2 mm 0.1 à 0.3 m 1à3m L1 L2 L5 code P code C/A En plus du bruit de mesure présenté dans le Tableau 3, les observation GNSS souffrent d'un grand nombre d'erreurs. Les équations d'observation sont données comme suivant (Wünneba, 2001) : + 6( 7 − 7 ) + = + 6( 7 − 7 ) + = Avec la pseudo distance, 8 9 8 9 + − :8-8 :8-8 + + , 8;8 + + < , 8;8 la mesure de phase, < + + = + = −> (6) + (7) la distance géométrique entre le satellite s et le récepteur r, 6 la vitesse de la lumière dans le vide, 7 et 7 le décalage d'horloge du satellite et du récepteur respectivement, , 8;8 l'erreur de propagation du signal dans la troposphère, de la ionosphère, deux observations), = l'erreur d'antenne et et < :8-8 8 9 l'erreur d'orbite, l'erreur de propagation l'erreur de multi-trajet (différente dans les l'ambiguïté entière et le résidu du signal pour le satellite s et le récepteur r. 21 Si la mesure de phase est plus précise que la mesure de pseudo distance, la détermination des ambiguïtés entières est relativement complexe et nécessite donc plus de traitements. Le Tableau 4 reprend l'ordre de grandeur des principales sources d'erreur GNSS. Ainsi la précision sur le positionnement final dépend des observables utilisées, des erreurs prises en compte, corrigées ou modélisées. Tableau 4 – Magnitude des principales sources d'erreur GPS, source : Wubenna (2008) Effet Orbites Horloge du satellite Ionosphère Troposphère Mutlitrajet du code Multitrajet de la phase Antenne I.3.2 Erreur absolue entre 2 et 50 m entre 2 et 100 m entre 50 cm et 100m entre 0.01 et 0.5 m de l'ordre du mètre jusqu'à quelques centimètres jusqu'à quelques centimètres Effets de la ionosphère sur les observables La scintillation, bien que venant de la ionosphère ne peut être comprise dans l'erreur ionosphérique. En effet, la complexité des effets de la scintillation la rapproche plus du multi-trajet que de l'erreur ionosphérique. Il convient donc de distinguer les deux phénomènes, scintillation ionosphérique et erreur ionosphérique, lors du traitement des erreurs. Du fait que la ionosphère est électriquement chargée, le signal est sujet à un phénomène de réfraction dont l'indice dépend de la quantité d'électrons libres. Le nombre d'électrons libres s'exprime généralement à travers du TEC (Total Electron Content) , qui est le nombre d'électrons libres dans un rectangle solide d'un mètre carré de section entre le récepteur et le satellite. Le produit de la vitesse de groupe et de la vitesse de phase GNSS est constant. Si le TEC augmente, la vitesse de groupe diminue et la vitesse de phase augmente. Les effets conjugués de la réfraction (l'allongement du trajet optique et la variation de la vitesse de propagation) forment le délai ionosphérique δiono dans les équations 6 et 7. Les effets de ce phénomène sont bien connus, et il existe diverses manières de gérer cette erreur (combinaison ion-free, modèle de Klobuchar, carte de TEC). La scintillation est provoquée par des variations rapides de concentration d'électron occasionnant réfraction et diffraction du signal. L'indice de réfraction varie très rapidement localement et dans le temps. Le signal est donc réfracté dans des directions aléatoires 22 proches de la direction de propagation du signal, il interfère avec lui-même ce qui provoque des oscillations d'amplitude. Les effets de la diffraction sont plus compliqués. Quand les irrégularités de la ionosphère atteignent une taille d'environ 400m, elles commencent à diffracter le signal GNSS et donnent lieu à du multi-trajet. Les différents signaux du multi-trajet peuvent se recombiner provoquant des fluctuations d'amplitude et de phase du signal. (Kintner, 2009). Figure 4 – Schéma des divers effets de la scintillation, source SIWG (2010) Si les oscillations d'amplitude et de phase sont suffisamment rapides (pertes de puissance de 20 à 30 dB), elles induisent des sauts de cycles, pertes de satellite ou seulement la dégradation du signal, d'autant plus que le signal est atténué par la dissolution du signal. (Van Dierendonck et al. 1993). La Figure 4 rend compte des différents cas de figure : le signal peut ne pas être affecté par la scintillation ou présenter des erreurs de distances voir même la pertes du signal en fonction de la taille des irrégularités rencontrées. Selon les bibliographies, (Romano 2011) (Walter, 2010) (Bougard, 2011), les seuils à partir desquels la scintillation peut potentiellement dégrader le signal comprennent 3 intervalles pour indice S4 varient on peut retenir : 0 à 0.25 sans scintillation, 0.25 à 0.5 niveau moyen et supérieur à 0.5 niveau fort. Le but de ce rapport sera d'évaluer, par l'analyse d'indices de scintillation, de RINEX d'observation, les effets de la scintillation sur les observables GNSS ainsi que les difficultés de mesure sur les satellites (tracking). Ces effets ont un impact négatif sur le positionnement GNSS qu'il conviendra d'évaluer. 23 II Positionnement G SS II.1 Contexte géodésique II.1.1 Systèmes de référence Historiquement, le dernier système géodésique par méthode terrestre du Brésil est le SAD69 (South America Datum). En 1993 est crée le SIRGAS (Système de Référence Géocentrique pour les Amériques). Ces trois réalisations sont le SIRGAS95, le SIRGAS2000 et le SIRGAS-CON. Le système SIRGAS2000 est recommandé comme système de référence pour les Amériques depuis 2001. Il correspond au système ITRF2000 à l'époque 2000,4. Ainsi, le système SIRGAS2000 n'est pas lié à la plaque sud-américaine, ce qui nécessite une actualisation des cordonnées pour toutes les applications de positionnement meilleur que quelques centimètres (donc aussi pour les activités de topographie classique). L'actualisation des données peut se faire de deux manières. Pour les stations du SIRGAS-CON possédant plus de deux années de mesures continues, on utilise les solutions les plus récente du IGS-RNAAC-SIR (IGS Regional Associate Analisis Center for SIRGAS). Pour les autres stations, on utilise le logiciel VEMOS (Vitesse du Modèle SIRGAS). Le logiciel VEMOS consiste en une grille d'interpolation des vitesses tectoniques avec un pas 1° en latitude et longitude (www.ibge.gov.br). II.1.2 Réseau Permanent Le Brésil possède un réseau de stations GNSS permanentes, le RBMC/RIBAC (Rede Brasileira de Monitoramento Contínuo dos Sistemas GNSS et Rede Incra de Bases Comunitárias do GNSS), comprenant environ 90 stations. (www.rbmc.br) Il contribue à la densification régionale du réseau IGS depuis 1997 et la précision final des points est de +5mm (www.ibge.gov.br). Les données sont disponibilisées sous forme de RINEX de 24 heures (UTC) par intervalle de 15s. (www.ibge.gov.br). 24 II.2 Méthodes de positionnement II.2.1 Positionnement absolu Cette méthode de positionnement vise à déterminer la position d'un point à partir des observations sur les satellites observés uniquement en ce point. On parle aussi de positionnement par point. On distingue le positionnement par point classique (PP), qui n'utilise que la mesure de code et le positionnement par point précis (PPP). Jusqu'en 2000, la SA (Selective Availability), une erreur de 100m sur l'erreur d'horloge des satellites limitait les capacités du positionnement absolu. Le positionnement PP utilise les mesures pseudo-distance en mono- voir bifréquence. La prise en compte ou non d'un facteur d'erreur se fait en fonction des observables utilisées (code C/A 1m et code P 0.1m) et la précision finale espérée. Cette technique permet une utilisation grand publique des systèmes GNSS pour des précisions métriques. Le positionnement par point précis vise à obtenir des coordonnées centimétriques par positionnement absolu. Il est l'aboutissement d'années de recherche en géodésie spatiale et de l'amélioration progressive des modèles d'erreurs GNSS. Pour cela il est nécessaire d'utiliser les observations plus précises ; on utilise donc la mesure de la phase de la porteuse des bandes L1 et L2, de longueur d'onde 19 cm et 24 cm environ. Le traitement PPP est plus exigeant, il nécessite la résolution des ambiguïtés, l'utilisation de modèle de précision (modèle régionaux d'atmosphère, éphémérides précises, corrections d'horloge) et la prise en compte de toutes les sources d'erreur pouvant atteindre quelques millimètres sur la position (charge océanique, marées océaniques et terrestre, le phase wind-up, rebond post-glaciaire etc). II.2.2 Positionnement relatif Le positionnement relatif est la première méthode de positionnement GNSS qui a permis le positionnement centimétrique. Le principe est d'utiliser la différence d'équation de phase comme équation d'observation afin de déterminer un vecteur position. Cette technique suppose donc deux récepteurs (les extrémités du vecteur) et la connaissance de la position du point de base. On utilise la simple, double et triple différences. La simple différence est la différence de mesure de phase d'un même satellite depuis deux récepteurs, 25 elle supprime ou atténue la plupart des erreurs liées au satellite. La double différence est la différence de simples différences sur deux satellites, elle retire ou diminue les erreurs liées au récepteur. La triple différence est le différence de deux doubles différences à deux instants différents, elle permet de supprimer la géométrie, elle s'utilise surtout pour détecter les sauts de cycle. L'avantage du positionnement différentiel est qu'il nécessite seulement de corriger la différence de l'erreur entre les deux récepteurs. La plupart des erreurs de positionnement sont corrélées spatialement, ainsi la différence de ces erreurs est d'autant plus faible que la distance est courte (jusqu'à une vingtaine de kilomètre). La scintillation comme le multitrajet étant des phénomènes aléatoires (spatialement décorrélés), ils affectent directement le positionnement relatif. ( Seeber, 1993) Certaines méthodes de positionnement sont difficiles à classifier car elles possèdent des caractéristiques des deux modèles : ce sont les mesures en réseau, DGPS et RTKréseau. L'utilisateur se positionne à l'aide d'un récepteur et les corrections lui sont communiquées. Ces corrections ont été redéterminées à partir d'un réseau d'observation (utilisant les méthodes différentielles). Dans ce travail je vais utiliser principalement le positionnement absolu car il permet d'utiliser seulement une station du CIGALA pour laquelle on possède toutes les informations de scintillation. 26 II.3 Logiciels de positionnement II.3.1 RT_PPP Le logiciel RT_PPP a été développé au sein de l'UNESP par Haroldo Antonio Marques de l'Université Fédérale du Pernambouc (UFPE). Il s'agit d'un logiciel de posttraitement, permettant de réaliser un positionnement PPP et PP classique à l'aide de filtres de Kalman. Dans sa thèse, il décrit le contenu de son logiciel : Tableau 5 - Stratégie de traitement des erreurs GPS, source : Marques, H (2012) Effet Charge océanique Stratégie combinaison ion-free estimation de la ionosphère par méthodes statistiques Modèle de Hopfield + GPT GMF + ZTD à partir des données CPTEC VMF1 + ZTD à partir des données ECMWF ZTH fixe + ZTW estimé (random walk) Modèle décrit par l'IERS 2003 PCV récepteur et satellites Ephémérides Variation absolue du centre de phase des antennes (PCO e PCV) IGS ou IGU prédites Correction de l'erreur d'horloge des satellites Differential Code Bias (DCB) Ambiguïtés Phase wind-up Effet relativiste Post-traitement ou temps réel à partir du logiciel RT_SAT_CLOCK ionosphère (1er ordre) Troposphère Valeurs mensuelles estimées par le CODE Solution float Appliqué Appliqué « La corrélation de l'effet ionosphérique peut être fait à travers la combinaison ionfree dans le cas de la double fréquence ou l'estimation de l'effet ionosphérique dans la direction récepteur satellite, le modèle de Klobuchar ou les cartes mondiales (GIM) dans le cas de la simple fréquence. Pour l'estimation de la ionosphère on adopte comme valeurs a priori celles du modèle de Klobuchar et l'estimation est réalisée en introduisant des pseudo-observations pour chaque satellite en utilisant les écarts-types indiqués par l'utilisateur. [] La correction de l'erreur troposphérique est calculée par le modèle de Hopfield, le modèle PNT (Prévision Numérique de Temps) du CPTEC (Centre de Prévision de Temps et d'Etude Climatique) et du modèle PNT européen (ECMWF). [] Pour l'application du modèle stochastique, il est possible d'utiliser des modèles en fonction 27 de l'angle d'élévation [] » (Marques, 2012). En outre il est possible d'utiliser des fichiers de prévision de scintillation pour l'application du modèle stochastique (en développement). L'utilisateur choisi la méthode de positionnement (statique, cinématique, par époque), les observables à utiliser (code, code et phase, simple ou double fréquence), l'intervalle à calculer, le masque d'élévation. (interface figure 5). A noter que dans sa version actuelle, le logiciel ne prend en charge que la constellation GPS et les bandes L1 et L2. Figure 5 – Paramètre de configuration du logiciel RT_PPP II.3.2 Service en ligne de positionnement PPP de l'IBGE Le logiciels propose plusieurs méthodes de positionnement (statique, cinématique). Son utilisation est simple pour un accès à un large public. Les données en entrée sont le RINEX d'observation, le nom de l'antenne si différent du RINEX et le nom de la station dans le cas d'une station du réseau SIRGAS2000. Le manuel d'utilisation donne quelques indications sur la prise en charge des erreurs : 28 Tableau 6 – Traitement des erreurs par le service PPP de l'IGBE, source www.ibge.gouv.fr source d'erreur actualisation des époques multi-trajet centre de phase satellite et récepteur charge océanique troposphère ionosphère stratégie Application de Helmert 3D tolérances sur la différence narrowlane et la variation widelane produits IGS modèle FES2004 modèle d'atmosphère standard ion-free ou modèle IGS par 2h au format IONEX L'avantage du service de positionnement de l'IBGE est qu'il nécessite peu de manipulation et il fournit des rapports de calculs complets. Afin de réaliser les positionnement PP, il est nécessaire d'éditer le RINEX au préalable, avec TEQC par exemple. Le logiciel ne prend en charge que le constellation GPS. 29 III Etude des indices de scintillation III.1 Données disponibles III.1.1 Projets CIGALA et CALIBRA Le projet CIGALA (Concept for Ionospheric Scintillation Mitigation of Professional GNSS in Latin America), financé par la Commission Commission Européenne dans le cadre du FP7-GALILEO GALILEO-2009-GSA a pour objectif d'analyser ser la scintillation ionosphérique,, de comprendre ses causes et d'élaborer de nouvelles techniques de correction pour améliorer iorer les performances des récepteurs ré GNSS Il a pris fin mi-fevrier mi 2013 et le projet CALIBRA (Countering GNSS high Accuracy applications Limitations due to Ionospheric disturbances in BRAzil) B lui a pris la suite, financé cé par le GSA (Agence GNSS Européene). Il a pour objectif d'améliorer les les algorithmes existants et en développer dé de nouveaux dans l'objectif jectif de réduire l'effet des irrégularités de la ionosphère sur le positionnement GNSS dee haute précision précisio (http://is-cigala-calibra.fct.unesp.br/ calibra.fct.unesp.br/). Figure 6 – Répartition des stations des projets CIGALA et CALIBRA (en bleu et rouge les stations actuellement dans le projet, en vert les futures stations implantées à l'issu du projet CALIBRA), source : http://is-cigalacalibra.fct.unesp.br/ 30 A l'issue du projet CALIBRA, huit stations dédiées à la mesure de la scintillation ont été mises en place sur le territoire brésilien, et cinq stations seront mises en place à l'issu du projet CALIBRA avec pour objectif d'améliorer la couverture du territoire brésilien et notamment les régions Nord et Nordeste (Figure 6). Le projet CIGALA met à disposition les données collectées par les stations du Brésil. Elles se présentent sous la forme d'une base de données à tableau unique. Les mesures de chaque paramètre sont données par minute. Une mesure peut être identifiée par une station, un satellite et une minute donnée. Les RINEX d'observation des stations sont mis à disposition à travers un serveur ftp. Les stations du projet CIGALA utilisées dans ce travail sont situées dans 6 régions : Porto Alegre (RS) au sud du pays avec la station POAL, la périphérie de Rio de Janeiro (RJ) avec MACA et MAC2, la périphérie de São Paulo (SP) avec SJCI, SJCU et SJCE, Presidente Prudente (SP) avec PRU1 et PRU2 dans le Sud-Est, Palmas (TO) avec PALM et Manaus (AM) avec MANA et MAN2 dans le Nord du pays. Les stations MAC2, SJCE et MAN2 correspondent à un changement de local du récepteur, seuls Presidente Prudente et São Paulo bénéficient de deux récepteurs collectant simultanément des données. III.1.2 Outils du projet CIGALA/CALIBRA La base de données du projet CIGALA/CALIBRA comprend notamment le TEC et ces variations, les indices de scintillation S4 et phi60, l'écart-type du rapport signal sur bruit (σCCD), les indices spectraux p et T calculés. Le contenu complet de cette table est donné en Annexe 2. Les traitements peuvent être directement réalisés sur la base de données (dans ce travail, c'est le logiciel Pgadmin qui a été utilisé) ou à travers les outils ISMR mis en place du site du projet CIGALA et CALIBRA. Ces outils permettent de réaliser entre autre, des graphiques simples et des cartes de scintillation. La partie suivante présente l'étude du comportement des indices de scintillation données par cette base de données, entre Juin 2011 et Mai 2013, principalement pour les stations PRU1 et PRU2 (Présidente Prudente, SP) qui présentent les plus fortes valeurs de scintillation ionosphérique. 31 III.2 Variations temporelles III.2.1 Cycles solaires L'intensité de la scintillation est fonction de l'activité solaire. Ainsi on assiste à une augmentation de l'activité de scintillation à l'approche du maximum d'activité solaire. Les cycles d'activités du soleil sont d'environ 11 ans et le prochain maximum devrait être atteint au cours de l'année 2013. Les données du CIGALA ne commençant commenç que début 2011, il n'est pas possible d'observer ces cycles, seulement la différence entre les années 2011-2012 et 2012-2013. Figure 7 – Prévision de l'activité solaire, source : www.sidc.be Le maximum solaire de 2013 est d'une magnitude relativement faible par rapport au pic de 2002. III.2.2 Variations saisonnières nières Au niveau du Brésil, on distingue une période calme calme de mai à septembre et une période de perturbationn d'octobre à avril qui se compose de deux épisodes. Le premier épisode est le plus intense, il atteint son maximum entre mi-octobre octobre et mi-novembre, mi puis un second épisode moins intense débute en e janvier. La Figure 8 illustre les saisons de scintillations, la première de la semaine GPS 1654 à 1684 et la deuxième de la semaine 1705 à 1736 (c'est à dire entre mi-septembre mi et mi-mai). La Figure 8 représente le l taux de mesure par jour supérieures à 0.5. 32 1622 1626 1630 1634 1638 1642 1646 1650 1654 1658 1662 1666 1670 1674 1678 1682 1686 1690 1694 1698 1702 1706 1710 1714 1718 1722 1726 1730 1734 1738 5% 4% 4% 3% 3% 2% 2% 1% 1% 0% Semaine GPS Figure 8 – Pourcentage de valeur S4 supérieur à 0.5, pour toutes les stations du CIGALA pour une élévation supérieure à 10°, GPS-GLONASS Le seuil de 0.5 pour l'indice S4 correspond à une activité forte de scintillation pouvant entraîner des pertes de données. Le nombre total d'observations journalières varie de 10% environ et souffre par moment de pertes sévères de données. Il est donc délicat de traiter un grand nombre de données. Pour les traitements réalisées sur de grandes périodes, un seuil de 90% du nombre médian de données a été appliqué. Ce critère a été adapté aux différentes situations, notamment lorsque de grands intervalles de données se trouvent endeçà du seuil. Néanmoins, ce seuil ne garantit pas que les résultats soient représentatifs de l'activité de scintillation. En effet, les données affectées par la scintillation sont concentrées dans une fenêtre temporelle de quelques heures et peut donc faire partie des 10% de pertes (les pertes de données sont souvent sur des intervalles continus). A noter que les récepteurs GNSS sont mis en difficulté par la scintillation, ainsi les pertes de données ont une plus forte probabilité lors des évènements des scintillations qu'en période calme. Cela augmente l'incertitude des résultats présentés, néanmoins, le traitement d'un grand volume de données permet de rendre compte de la tendance de l'indice S4. Sur la Figure 9, le rythme saisonnier est visible sur le moyenne mensuelle de l'indice S4 (les stations sont données du nord au sud dans la légende). La très grande quantité de données sans scintillation aurait tendance à limiter les variations observées, cela étant, on peut remarquer un quasi doublement de la valeur S4 mensuelle entre le mois le plus faible de POAL et le mois le plus fort de PRU1. 33 0.15 S4 moyen 0.14 MANA 0.13 PALM 0.12 PRU1 PRU2 0.11 MAC2 0.1 SJCI 0.09 SJCU 0.08 POAL 1 2 3 4 5 6 7 8 9 10 11 12 Mois de l'année Figure 9 – Evolution au cours de l'année 2012 du niveau moyen mensuel de l'indice S4 III.2.3 Variations journalières Dans la zone équatoriale, la scintillation ionosphérique est directement liée au cycle jour/nuit et plus particulièrement au coucher du Soleil de sorte que l'heure de la journée a une grande importance. Se pose alors la question du système de temps à adopter. Le temps UTC a l'avantage d'être universel et donc de faciliter la combinaison et la comparaison des données cependant il est indépendant de l'heure solaire. L'heure locale est aussi problématique dans le sens où la station de Manaus est sur un fuseau horaire différent et que les autres stations appliquent le changement d'heure. Il conviendra donc de convertir ponctuellement les heures UTC en heure locale. Pour une meilleure précision, l'idée est de synchroniser l'heure du coucher du soleil pour comparer les données. L'heure du coucher du Soleil est donnée sur le site du IMCCE (Institut de Mécanique Céleste et de Calcul d'Ephémérides). Le Brésil se situant majoritairement en zone subtropicale l'heure du coucher du soleil varie peu au cours de l'année, de 30 min à l'équateur à 2h00 à Porto Alegre. La Figure 10 montre l'indice S4 moyen par heure pour différent mois de l'année en PRU1 pour une saison de scintillation Août-Avril 2011-2012. L'heure au soleil a été déterminée de sorte que le coucher du soleil survient à 19h. 34 S4 moyen par heure 0.35 Août 0.3 Septembre 0.25 Octobre 0.2 Novembre 0.15 Decembre 0.1 Janvier 0.05 Février 0 18 19 20 21 22 23 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 Mars Heure au Soleil Avril Figure 10 – Evolution de l'indice S4 en fonction de l'heure et du mois en PRU1 L'augmentation de l'activité de l'indice S4 fait directement suite au coucher du soleil. Environ une heure après le coucher du Soleil la scintillation commence à apparaître, sauf pour les mois de Février et Mars où le phénomène est plus tardif. On retrouve le cycle saisonnier décrit dans la partie précédente (maximum autour de Novembre et retour de la scintillation à partir de Février). On remarque que la durée de la scintillation est liée à son intensité. Les mois hors-saison de scintillation ne présentent pas de tendance particulière. La scintillation présente donc une certaine périodicité avec des variations annuelles. Une approche par analyse de série temporelle peut s'avérer intéressante. Un intervalle de données a été sélectionné : il s'agit une séquence de journée pour laquelle il existe au moins une mesure d'indice S4 et phi60 par minute, et ce, durant une période d'activité : du 29 novembre au 8 décembre 2012. Le spectre d'amplitude du maximum des deux indices 0.035 0.07 0.03 0.06 0.025 0.05 0.02 0.04 0.015 0.03 0.01 0.02 0.005 0.01 0 0 0 2 4 6 8 10 12 14 16 Fréquence (1/jour) phi S4 Figure 11 – Spectre d'amplitude de l'indice S4 et phi60 35 18 20 Amplitude S4 Amplitude phi60 est donné Figure 11. Le spectre des deux indices, Figure 11, montre la périodicité de la scintillation (la fréquence de base est 1/jour). En considérant un modèle comprenant un nombre limité d' harmoniques, le RMS des résidus se stabilise à partir de 5 harmoniques. Ainsi les possibilités d'un tel modèle sont limitées car il ne permet pas de rendre compte des variations d'intensité de la scintillation entre chaque journée. Pour rendre compte de cette variabilité, les premiers jours de la saison de scintillation ont été identifiés pour les différentes stations du projet CIGALA (Tableau 7). Le tableau est rempli à partir des graphiques de l'indice S4 pour un jour et une station avec l'outil graphique du projet CIGALA. Les stations ont été classées du nord au sud pour rendre compte l'influence de la latitude. Tableau 7 – Premiers jours de scintillation des années 2011 et 2012, à partir de l'outil graphique du site du projet CIGALA, http://is-cigala-calibra.fct.unesp.br/ sept-11 MANA PALM PRU2 MACA SJCI POAL 18 sept-12 MANA PALM PRU2 MAC2 SJCU POAL 18 19 19 20 20 21 21 22 22 23 23 24 24 25 25 sans scintillation scintillation scintillation forte sans données La notion de présence ou absence est difficile à mesurer. Le tableau ci-dessus ne rend pas compte du niveau de scintillation, mais de la survenue ou non d'un événement de scintillation après le coucher du Soleil significatif (la scintillation a été considérée « forte » lorsque l'indice S4 atteint 1). Ainsi, une nuit classée « sans scintillation » peut présenter des valeurs hautes de scintillation. Le début de la scintillation ne survient pas le même jour en tous points du Brésil, toutefois les variations sont de l'ordre d'une journée seulement. De plus on remarque que la situation n'est pas binaire avec une saison sans scintillation et une saison avec : la nuit du 22/09/2012, le Sud du Brésil ne mesure pas de scintillation. 36 III.3 Variation dans l'espace III.3.1 Influence de la position de la station Dans la partie précédente nous avons vu les tendances globales de l'indice S4 sur le Brésil, en faisant état de différences locales liées à la latitude géomagnétique. Pour rendre compte de ce phénomène, un traitement analogue à celui de la Figure 8 a été réalisé pour chaque station, c'est à dire la détermination du pourcentage journalier de valeurs S4 supérieures à 0.5 et 1 (Annexes 3 à 10). Les stations sont données du Nord au Sud. La comparaison entre les différentes stations est rendu difficile par l'absence de données sur de nombreux intervalles : par exemple, seul PRU2 présente un volume de données significatif pour début 2011, les stations MANA et MAN2 (Annexe 3) présentent très peu de données (difficultés techniques liées à la région amazonienne). De façon générale on constate en regardant du Nord au Sud, que la magnitude de la scintillation augmente en allant vers le Sud, pour arriver à un maximum entre Presidente Prudente (Annexes 5 et 6) et São José dos Campos (Annexe 7 et 8) puis diminue. Cela correspond à la position de l'anomalie équatoriale, la latitude géomagnétique influe sur la magnitude de la scintillation car elle indique la distance entre la station et l'anomalie équatoriale. Sur la Figure 9 on peut voir que les valeurs d'indice S4 sont légèrement supérieures en PRU1 que en PRU2 alors que les stations sont distantes de moins d'un kilomètre. Cependant en comparant les Annexes 5 et 6 les valeurs S4 élevées seulement plus nombreuses en PRU2 que en PRU1. Cette répartition différente des valeurs S4 peut venir de la calibration des appareils (réponse non-linaire à la scintillation) ou la différence de l'effet du multi trajet entre les deux stations. De même la station PAOL qui est peu touchée par la scintillation présente une forte proportion de valeurs supérieures à 1 (en comparaison au nombre de valeurs supérieures à 0.5). Ces anomalies peuvent être liées au multi trajet. En effet, le Tableau 1 montre déjà des problèmes de multi trajet pour la station POAL, ainsi les valeurs de S4 seraient augmentées sous l'effet du multi-trajet sans être détecté à l'aide du critère σCCD/S4. Un autre facteur déternimant pour l'apparition de scintillation ionosphérique est la position relative des satellites par rapport à la station. 37 III.3.2 Influence de l'élévation et de l'azimut Du fait de la position du récepteur et du satellite, le signal va rencontrer un milieu déterminé. Il existe une relation entre l'erreur de propagation et l'élévation du satellite. En effet, les satellites proches de l'horizon parcourent un plus long chemin au travers de l'atmosphère, cela augmente l'amplitude des effets sur le signal. De même, certains modèles possèdent une limite de validité en-deçà d'une certaine valeur, par exemple le modèle de Hopfield (1969) de la troposphère (10°-15°). La majeur partie du territoire brésilien se situe à des latitudes géomagnétiques faibles, de ce fait, la scintillation intervient sur des satellites haut dans le ciel (allant quasiment au zénith à Presidente Prudente). Cette caractéristique permet d'identifier clairement la scintillation, comme par exemple entre le satellite GPS PRN 2 et la station PRU1 (Presidente Prudente, SP) le 11 novembre 2012. 70 60 Elevation 50 40 30 20 10 0 0 0.2 0.4 S4 0.6 0.8 1 Figure 12 – Corrélation entre l'indice S4 et l'élévation On discerne sur la Figure 12 deux groupes de mesures, celui suivant une loi liant l'élévation et la scintillation (ligne violette) et celui qui s'en démarque (carré rouge). Il s'agit de 45 points d'élévation supérieure à 30° et d'indice S4 supérieur à 0.25 qui correspondent à trois intervalles de données 0h00-0h10, 23h14-23h23 et 23h36-23h56 (heure UTC) c'est à dire 2 heures après le coucher du Soleil en pleine période de scintillation ionosphérique. On peut estimer que l'indice S4 suit une loi de type 1/élévation, sauf en cas de scintillation. 38 Sur ce même graphique, on remarque qu'un masque d'élévation de 10° retire une grande partie des valeurs de S4 élevées qui ne témoignent pas d'une activité de scintillation ionosphérique. Le masque de 20° (Romano et al., 2011) ou 30° est aussi utilisé dans les recherches sur la scintillation pour augmenter la fiabilité de l'indice S4. D'autres recherches du projet CIGALA-CALIBRA tendent à ne pas appliquer de masque d'élévation et de retirer les mesures d'après d'autres critères, comme l'écart-type du rapport signal sur bruit (σCCD). L'azimut est lui aussi déterminant, en effet le phénomène de scintillation survient dans une zone géographiquement limitée. En fonction de la latitude géomagnétique de la station, la scintillation est plus probable au Nord ou au Sud. Cette tendance est légèrement faussée par le déséquilibre dans la répartition Nord-Sud des satellites. Il convient donc de positionner des données S4 dans l'espace pour visualiser ces phénomènes. III.3.3 Spatialisation de l'indice S4 Pour une meilleure visualisation de la scintillation il est intéressant de représenter spatialement l'indice S4. Une solution est d'appliquer une projection afin d'adopter une représentation en deux dimensions. Un premier test a été réalisé à l'aide d'une projection basique, puis dans un second temps un outil d'édition de carte d'IPP (Ionospheric Pierce Point) a été mis en place sur le site du projet CALIBRA. Les premiers tests effectués sont réalisés à partir d'une inversion ayant pour axe la verticale de la station: Les mesures de S4 sont considérées comme étant sur une sphère de rayon 1 ayant pour coordonnées l'élévation et l'azimut. Les points sont projetés sur un plan parallèle à l'horizontal du lieu. ? = . @AB( C) et D = avec J = 2 ∗ tan( K − 39 . 6E@( C) LMNO ) (8) Figure 13 – Schéma de la projection appliquée pour la visualisation de l'indice S4 Où X et Y sont les coordonnées en projection en fonction du zénith, Az l'azimut et Elev l'élévation, D est la distance au zénith, M le point considéré et M' son projeté. Les coordonnées ont été associées à une valeur de gris en fonction de l'indice S4 (en utilisant une fonction de répartition de type tanh pour minimiser les valeurs de S4 faibles et rehausser les valeurs fortes). Des images ont été générées à l'aide de la bibliothèque GDAL incluse dans le logiciel FWTool. Figure 14 – Indice S4 projeté par intervalle de 1h entre 18h et 3h heure locale (en ligne) pour les stations PALM, PRU et POAL (en colonne), la nuit du 20 au 21 octobre 2012 Sur la Figure 14, chaque cadran représente un intervalle de données distinct, avec pour point central le zénith de la station. La représentation est sans échelle. Toutefois, on peut voir l'influence de l'heure de la journée (en ligne) et de la latitude de la station (en colonne) : La scintillation commence aux alentours de 19h (heure locale) et dure une bonne partie de la nuit, jusqu'à 2h. L'occurrence de la scintillation suit une répartition Nord-Sud 40 visible. Le station PALM au Nord observe la scintillation au Sud et la station PAOL inversement. Il est clair que la région de Présidente Prudente se trouve sous l'anomalie équatoriale. Le défilement des images une à une montre le déplacement de la zone de perturbation de l'Est vers l'Ouest. L'outil graphique ISMR du site du projet CIGALA permet la création de carte d'IPP. La scintillation ionosphérique est considérée comme un évènement ponctuel. Sa position correspond à l'intersection de l'onde avec une côte d'altitude. Dans notre cas, l'altitude 350 km a été retenue. Pour la production de carte, les IPP ont été associés à une couleur en fonction de la valeur de l'indice S4. Figure 15 – carte des IPP de valeur S4 avec l'outil ISMR, du 17 au 18 octobre 2012 de 22h à 5h UTC La Figure 15 représente un intervalle de données du 17 au 18 octobre à partir du coucher du Soleil. D'une part on remarque inhomogénéité de la répartition géographique des données. La région Nord est particulièrement dépourvue du fait de l'absence de données de la station MANA (Manaus, AM). On voit la présence de l'anomalie équatoriale avec des valeurs élevées de S4 entre la station PALM et les station PRU1 (Presidente Prudente, SP) et MAC2 (Macaé, RJ) à peu près parallèles à l'équateur magnétique. Toutefois, le grand volume de données rend la visualisation difficile et un intervalle de données long ne rend pas compte des variations temporelles. Afin d'affiner la visualisation trois cartes d'IPP ont été réalisées (Figure 16), représentant les intervalles 22-23h, 0h-1h et 2h-3h. Les valeurs de S4 à 0.25 (absence de scintillation) ont été retirées. 41 Figure 16 – Cartes des IPP par intervalle de 1h à différents stades de la nuit pour des valeur de S4 supérieure à 0.25 la nuit du 17 octobre 2012 Sur la figure, les couleurs verte et bleu ciel correspondent à des scintillations ionosphériques faibles et les couleurs jaune et rouge à des scintillations ionosphériques fortes. Les mesures correspondant a une absence de scintillation ont été retirées. On distingue en regardant les images une à une le déplacement de la zone où la scintillation est la plus forte : on aperçoit donc le changement de position de l'anomalie équatoriale dans le sens Est-Ouest. Les cartes de scintillation ne font apparaître que les stations présentant de la scintillation. On remarque que la station POAL (Porto Alegre) au Sud n'est présente que sur l'intervalle 0h-1h, sa contribution sur cette carte est relativement limitée. Ainsi la spatialisation des indices de scintillation montre que la scintillation se concentre au niveau de l'anomalie équatoriale après le coucher du Soleil. Ces régions géographiques présentent de manière sporadique des évènements de scintillation du signal GNSS. 42 III.4 Etudes des modèles existants III.4.1 Modélisation des indices S4 et σφ Nous avons vu dans la partie précédente que le comportement des indices de scintillation dépend de l'heure, de la saison, de la position de la station et de la position des satellites. Cette dépendance permet de mettre en place des modèles de scintillation ionosphérique à partir de l'étude de ces indices. Les indices de scintillation suivent des loi statistiques, l'indice S4 suit la loi de Nakagami et l'indice σφ la loi normale. La loi de Nakagami peut être approximée par la loi normale pour des valeurs faibles de S4 et par la loi de Rayleigh pour des valeurs proches de 1. L'utilisation directe de la loi de Nakagami est complexe et il n'existe pas de lien direct entre l'indice S4 et l'indice σφ. Ces deux indices sont obtenus par analyse de séries temporelles avec des fréquences d'échantillonnage élevées. Il est intéressant pour la modélisation d'être capable d'estimer ces indices en utilisant d'autres mesures. Les paramètres spectraux T et p sont fréquemment utilisés. Le paramètre T, la magnitude du spectre, est la valeur l'amplitude du spectre du signal pour f=1Hz, on peut l'estimer de la manière suivante (Knight, 2000) : P ∝ G. vN (T% ) . > . . sec (θ) U (9) Avec G le facteur qui dépend de la direction de propagation de l'onde et de la géométrie et de l'orientation des irrégularités, ve la vitesse effective de propagation des irrégularités, λ la longueur d'onde de la porteuse, CkL height integrated irregularity strength, θ l'angle d'indicence de l'onde dans la couche des irrégularités, p l'indice spectral p. Le paramètre p est le second paramètre utilisé. Il correspond à la pente du spectre dans une représentation log-log par application d'une droite des moindres carrés. L'intervalle considéré est 0.1 à 1 Hz. Ce paramètre est généralement compris entre 1 et 4 et la valeur standard en zone équatoriale est de 2.5 (Walter, 2010) L'indice S4 estimé, S4w s'écrit (Knight, 2000) : 4Z ∝ F. z] (T% ) . > . 43 U . sec (θ) (10) Avec F le facteur de filtrage de Fresnel, qui dépend de la géométrie et de l'orientation des irrégularités, zf le rayon de l'ellipsoïde de Fresnel. Le rayon zf est donné par : C^ = ! >C C C +C (11) Où z1 et z2 sont respectivement les distances qui séparent la couche contenant les irrégularités de ionosphère du satellite et du récepteur. Le rayon de l'ellipsoïde de Fresnel est utilisé pour calculer la fréquence de coupure de Fresnel, fc. Cette fréquence correspond au maximum du spectre d'amplitude de scintillation : _` = Ca √2 (12) Le terme ve est la vitesse effective des irrégularités. En prenant un rayon de Fresnel de 250 m et une vitesse effective de 100 m.s-1, qui sont des valeurs standards, on a une fréquence de Fresnel de 0.28 Hz. En reprenant l'équation 9 et l'équation de 10, il vient : 4Z F. z] (T% ) ∝ .P G. vN (T% ) (13) Sous conditions fortes de scintillation, l'indice S4 est donné par : 4≈ 1 − exp(− 4Z ) (14) De même, on peut définir Sφ la densité spectrale de la phase en fonction de T : f = ( 8 P + ) ; (15) Avec f la fréquence de fluctuation de la phase et f0 la fréquence correspondante à l' outer scale size, c'est à dire le rapport de la plus grade dimension d'une irrégularité sur sa vitesse effective. D'après Knight (2000), comme f0 < < f et f =1Hz, on a : ≈P (16) Il existe d'autres formulations de la densité spectrale de phase. L'intégration de la densité spectrale de phase donne l'indice σφ (équation 2). Ainsi les deux indices de scintillation sont liés par une relation au indice T et p. L'étude de ces paramètres permet donc de modéliser les indices de scintillation. 44 Une autre approche est l'utilisation de la corrélation entre l'indice S4 et le ROTI et DROTI (dérivée première et seconde du TEC) (Du, 2003) III.4.2 Modèles WBMOD, WAM et GISM Le modèle WBMOD (WideBand ionospheric scintillation MODel) se base sur des modèles empiriques de concentration d'électron. L'estimation des indices de scintillation se fait à l'aide des formules données dans la partie précédente. Les paramètres tel que le terme CkL sont déterminés en fonction de la saison, de la localisation géographique et de l'activité magnétique. www.nwra.com Le modèle WAM permet l'intégration des données mesurées in-situ. Ce modèle se base sur les valeurs de T et de p mesurées entre Août 1981 et Février 1983 pendant le maximum solaire. Initialement développé pour les hautes latitudes, il a été adapté à la zone équatoriale par remise à l'échelle des paramètres afin d'atteindre un niveau d'intensité équivalent. Les produits finaux sont des cartes d'indice S4, σφ et des indices spectraux T et p, en fonction de la saison et de l'activité magnétique. (Romano et al. 2011). Le modèle GISM est un modèle topographique (Multiple Phase Screen technique) qui utilise les équations paraboliques. Le modèle a trois paramètres en entrée : l'indice p, la distance de corrélation et la vitesse d'entrainement des « bulles » ionosphériques ; des valeurs par défaut peuvent être appliquées. Les valeurs en sortie sont les indices S4, σφ (Béniguel 2009). D'après l'équation 14, l'indice S4 estimé prend des valeurs jusqu'à 1. Le maximum théorique d'indice S4 est √2, et les valeurs mesurées par les appareils peuvent largement dépasser cette valeur. Il y a donc un problème de correspondance entre les modèles et les valeurs mesurées pour des valeurs élevées de S4 (Walter, 2010). Les indices de scintillation ont des comportements déterminés, mais quel est le lien entre les indices de scintillation et des effets sur les observables GNSS en terme de qualité du signal. 45 IV Etude de l'effet de la scintillation sur les observables IV.1 Phénomènes observés IV.1.1 Diminution du nombre de satellite On assiste à une diminution du nombre de satellite observable durant la nuit. La Figure 17 présente le nombre de satellite et le GDOP pour la constellation GPS obtenus à partir du logiciel de planification de Timble. Le nombre de satellite chute à 6 autour de 2h UTC alors qu'il monte à 12 à 19h UTC. Ainsi le GDOP (en rouge) atteint des valeurs critiques au cours de la nuit (GDOP > 6). La géométrie de la constellation GPS aura tendance à amplifier la dégradation de la position causée par la scintillation ionosphérique. Figure 17 –Nombre de satellites et DOP (GDOP en rouge) le 17 octobre 2012 en heure UTC 46 La figure 18 représente le nombre de satellite en sortie du calcul PPP de l'IBGE. Le coucher du soleil correspond à l'époque 5156. Le nombre de satellite utilisés dans le cacul chute pendant la nuit et ne dépasse pas 7 et descendant même jusqu'à 2. Cette baisse considérable du nombre de satellite traité durant la nuit est liée à deux phénomènes : la pertes de satellites et la perte de qualité des observables GNSS dues à la scintillation. En comparant les nombres de satellites observables et le nombre de satellites en sortie du calcul de positionnement PPP par l'IBGE, on observe des différences avec un nombre de satellite traité plus faible (rejet ou défaut de mesure du satellite) mais aussi un excès de satellites par rapport au nombre de satellite théoriquement observable. Cela peut être du à un problème de précision des éphémérides utilisées dans le logiciel de planification de Trimble. Ainsi il est difficile d'avoir une référence fiable du nombre de satellites observables. Sans cette référence il est difficile d'évaluer les pertes de mesure sur L1, elles suivent toujours les pertes de mesure L2 et le satélite ne sera tout simplement pas mesuré. Figure 18 – Nombre de satellites en sortie du calcul de positionnement PPP de l'IBGE en PRU1, le 17 octobre 2012, en gris la nuit IV.1.2 Perte du Lock Time Une autre technique est d'observer le comportement du « lock time » des satellites. Le lock time represente le temps de mesure continue sur un satellite, la remise à zéro du locktime vient de la perte du satellite (perte du « link »). Si cette pertes du « link » est courte, on ne verra pas d'absence de données dans le RINEX, mais la continuité des données est perdue. Par exemple, le compteur de cycle sera remis à zéro et une nouvelle inconnue d'ambiguïté entière devra être introduite. La Figure 19 représente le lock time des signaux L1 et L2 au cours de la nuit du 17 octobre entre 21h et 3h UTC. L'angle de coupure des élévations a été fixé à 20° pour 47 retirer la majorité de l'effet du multi-trajet des satellites bas dans le ciel. Sur le premier graphique certains satellites ne sont pas affectés au niveau du lock time de L1. Pour ces satellites (SVID 4, 9 et 29), l'indice S4 ne dépasse pas 0.75 qui représente déjà un niveau de scintillation fort. Les pertes de lock time L1 coïncident avec des pics d'indice S4 dépassant la valeur 1 (scintillation sévère). Le troisième graphique représente le lock time du signal L2. Cette valeur n'est pas disponible pour tous les satellites. En comparant le graphique 1 et le graphique 3, on observe certaines pertes de lock time simultanées ou seulement de L2 (par exemple, le satellite SVID 15 en bleu foncé autour de 23h UTC) ou seulement de L1 (satellite SVID 29 en violet ente 0-1h30 UTC). Figure 19 – Lock time des signaux L1 et L2 et scintillation, la nuit du 17 octobre 2012 en PRU1 avec un angle de coupure de 20° Les pertes du lock time indiquent une perte du « link » avec le satellite rendant plus difficiles la résolution des ambiguïtés entières. Toutefois un autre phénomène peut se surajouter : le perte du compteur de cycle (le « Phase Loop Lock ») 48 IV.1.3 Pertes de cycle En ne considérant que la distance géométrique, les ambiguïtés entières et l'erreur ionosphérique dans les équations 5 et 6, on obtient : Avec , > et , > et > − > = − − + (17) l'ambiguïté entière, la longueur d'onde et la phase du signal L1 et l'ambiguïté entière, la longueur d'onde et la phase du signal L2, C/A de L1, et le code P2Y de le code . 40 30 20 m 10 0 22:25 22:30 22:34 22:39 22:44 22:49 22:54 22:59 23:04 23:09 23:14 23:19 23:24 23:29 -10 -20 -30 -40 -50 Heure UTC Figure 20 – Différence Nλ entre les bandes L1 et L2 pour le satellite GPS PRN2 le 17 octobre 2012 en PRU1 La Figure 20 ne correspond qu'à la partie perturbée des mesures. Deux phénomènes qui provoquent des pertes de cycle : la perte du signal et le saut de cycles. Les pertes de signal correspondent sur la figure aux ruptures de lignes (perte de la bande L2) et les sauts de cycle à la variation de la valeur moyenne de l'indice. A partir de 22:31 (heure UTC), l'indice varie de façon chaotique. Les pertes de signal L2 vont de paire avec des variations rapides de l'indice puis à partir de 22:58 la situation se stabilise avec quels sauts de cycles ponctuels. 49 IV.2 Dégradation de la qualité du signal IV.2.1 Rejets de satellites Une des conséquences conséquence de la scintillation d'amplitude est la perte du signal L1 ou L2 voire la perte totale du satellite. Pour mesurer l'ampleur de ce phénomène, l'idée est de comparer le nombre de satellites satel en sortie du calcul du service PPP de l'IBGE avec le nombre de satellites mesurés mesuré par les stations du projet CIGALA (Figure Figure 21). Le calcul est effectué en PRU1 en positionnement positionn ent statique avec un intervalle de 60s pour faciliter la comparaison avec la base de donnée. La valeur d'élévation d' du satellite lite est es donnée dans la base à 1°. Pour plus de garantie sur le résultat, le masque d'élévation vation appliqué est de 11° pour les stations du projet CIGALA contre 10° pour le positionnement de l'IBGE. Ainsi le nombre de satellite perdu est légèrement sous évalué. évalué Dans un premier temps seul le code a été utilisé pour écarter les problèmes liées liée à la phase (saut de cycle,, perte du « link »). 2 1.5 2 1 1 0.5 0 0 0 3 6 9 12 15 18 21 0 Heure UTC Rejet de satellite S4 Figure 21 – Rejets de satellites le 17 octobre 2012 Dans la Tableau 8 on o peut voir une relation entre le rejet de satellite tellites et l'indice S4. Les indices S4 et phi60 moyens augmentent augmente avec le nombre de satellite rejeté. L'indice S4 atteint en moyenne une valeur de 0.85 (donc des valeurs de S4 particulières pouvant dépasser 1, c'est est à dire une scintillation sévère). sé La même tendance s'observe sur l'indice phi60. Tableau 8 - Valeurs des indices de scintillation lors des pertes de satellites satel Nombre d'époque GPS S4 moyen Phi60 moyen 50 Satellite rejeté 0 1 2 3 1284 120 33 3 0.29 0.64 0.85 0.88 0.12 0.41 0.74 0.70 S4 Pertes de satellite 3 1.6 Indice S4 (bleu) et phi60 (rouge) 1.4 1.2 1 0.8 0.6 0.4 0.2 0 0 1 2 3 Satellite rejeté Figure 22 – Répartition des valeurs de S4 et phi60 en fonction du nombre de satellites rejetés La relation entre indices de scintillation forts et pertes de satellites est plus significative lors d'une perte simultanée de satellites. Cependant, sur la Figure 22, on voit que les indices de scintillation empruntent des valeurs considérées comme très élevées (valeurs supérieures à 1) sans pour autant causer de pertes de satellites. Ainsi les indices de scintillation indiquent plutôt un risque de perte de données. Dans un second temps, les données ont été calculées avec le code et la phase. La Figure 23 montre la différence du nombre de satellite pris en compte pour le même calcul. Les satellites ainsi rejetés présentent soit une erreur sur les mesures de phase soit un résidu de pseudo-distance trop élevé du fait d'un contrôle de qualité plus rigoureux. 1.4 4 1.2 1 3 0.8 2 0.6 0.4 1 0.2 0 0 00:00:00 03:00:00 06:00:00 09:00:00 12:00:00 15:00:00 18:00:00 21:00:00 00:00:00 Heure UTC Diffirence de stallite S4 phi60 Figure 23 – Différence du nombre de satellites pris en compte entre le calcul PP et PPP du 17 octobre 2012 51 Indices S4 et phi60 nombre de satelite 5 On assiste durant la scintillation a un rejet de nombreux satellites durant le traitement, la différence du nombre de satellites rejetés atteignant 5 pendant les évènements de scintillation, ce qui amène à un nombre très limité de satellites (c.f Figure 18) IV.2.2 Problèmes de convergences A l'aide du logiciel RT_PPP, le positionnement statique a été réalisé de la station PRU1 pour les période du 1er au 10 Juin 2012 et du 15 au 25 Novembre 2012, en PP et PPP (intervalle du RINEX de 15s) et les résultats présentés dans le tableau suivant. Tableau 9 – Temps de convergence du calcul PPP ère 1 PP Époque où σX,σY et σZ sont < 0.1 m Nombre de cycle rejetés <0.01 m ère 1 Époque où σX,σY et σZ sont < 0.1 m Moyenne Écart-type Moyenne Écart-Type Moyenne Écart-type Moyenne Écart-type Juin 65 13 285 23 164 12 131 25 Novembre 299 57 780 234 460 110 289 16 On remarque des difficultés lors du calcul, avec d'une part une forte augmentation du temps de convergence et d'autre part une augmentation de rejets d'époque (contrôle de la différence wide-lane) pour le positionnement PPP. La variabilité des résultats est plus grande en Novembre qu'en Juin et laisse penser à l'apparition de phénomènes aléatoires. Le temps de convergence plus long peut s'expliquer par la présence de données entachées d'erreurs sur les premières époques GPS. Les contrôles de qualité sont plus rigoureux en positionnement PPP que PP pour arriver à la précision escomptée. Comme le positionnement PP est beaucoup moins affecté par la scintillation cela indique une dégradation de la qualité du signal GPS. IV.2.3 Tentatives d'atténuation A l'heure actuelle, les préconisations sont d'éviter les mesures en zone équatoriale quelques heures après la tombée de la nuit et d'enregistrer un grand volume de données. En effet, la proportion de données affectées par la scintillation ionosphérique est faible et 52 l'augmentation du degré de liberté par addition de données facilite l'identification de ces données ou permet l'atténuation de ses effets. Dans les calculs réalisés, plus de degré le liberté est faible, plus la probabilité d'une erreur sur le positionnement est élevée. L'intégration de la constellation GLONASS et du futur système GALILEO peut apporter une réponse à ce problème. Au cours du projet CIGALA, les efforts se sont concentrés sur l'amélioration des performances de « tracking » des satellites, c'est-à-dire d'éviter la perte du satellite ou des différentes compteurs (Lock Time, Phase Lock Loop). Le projet CALIBRA est centré sur l'atténuation en elle-même des effets de la scintillation ionosphérique. Les modèles de scintillation ionosphérique produisent déjà des cartes d'indice de scintillation. Il est donc possible d'appliquer des pondérations de mesures afin de limiter la contribution de mesures potentiellement affectées par la scintillation ionosphérique. L'intégration d'un module de gestion de la scintillation dans le logiciel RT_PP fait l'objet d'une thèse de doctorat en cours à la FCT-UNESP. Il propose déjà divers types de pondérations en fonction de l'élévation par l'intermédiaire de modèles stochastiques (Da Silva, 2009). Les fonctions proposées visent à atténuer les effets décroissants en fonction de l'élévation (délai ionosphérique et troposphérique). Or la scintillation à Presidente Prudente et plus largement au Brésil apparaît pour des satellites hauts de le ciel (supérieur à 30°). Les développements futurs du logiciels permettront d'entrer des données de scintillation ionosphérique sous forme de matrices de variance-covariance générées par le logiciel Tracker Jitter. Nous avons vu dans cette partie les effets de la scintillation sur la quantité et la qualité du signal. Comment les logiciels de calcul gèrent-ils la perte de précision des données ? 53 V Relations entre scintillation et erreur de positionnement V.1 Statique PP en diverses conditions Il existe une difficulté à utiliser le positionnement PPP pour valider l'effet de la scintillation. La scintillation concerne un intervalle de données limité en temps alors que le positionnement PPP nécessite un grand volume de données pour pouvoir fixer les ambiguïtés de la phase. Ainsi en utilisant des archives de 24h, on observe une certaine difficulté à converger lors des premières époques car elles correspondent à des évènements de scintillation. Toutefois les dernières époques qui sont elles-aussi entachées d'erreur sont plus facilement identifiées lors des contrôles de qualité et leur proportion faible sur le total de données traitées limite leur impact sur le résultat final. On observe donc difficilement l'effet de la scintillation sur un positionnement PPP de 24h. D'un autre coté, limiter l'intervalle de calcul rend plus difficile la détermination des ambiguïtés entières empêchant une comparaison de la qualité des résultats. A l'aide du logiciel RT_PPP, 2 groupes de positionnement ont été réalisés de 0 à 2h UTC en positionnement statique PP, le premier du 15 au 31 juin 2012 (sans scintillation) et le deuxième du 1 au 15 novembre 2012 (avec scintillation) (Figure 24) . 1.2 1 en m 0.8 0.6 Juin 0.4 Novembre 0.2 0 Plani. Alti. Plani. Alti. Plani. Alti. Plani. Alti. Ecart moyen Dispersion Précision (RT_PPP) RMS Figure 24 – Résultats de positionnement PP par le logiciel RT_PPP avec et sans scintillation Les résultats ne sont pas exactement ceux espérés. En effet les écarts moyens sont plus grands sans scintillation qu'avec. Ce résultat peut s'expliquer par le fait que le logiciel RT_PPP n'a pas été validé pour ce type de traitement (positionnement PP sur une durée courte). De plus on remarque que les précisions données par le logiciel (essentiellement basées sur la géométrie des satellites) annoncent une configuration défavorable. Cependant, la dispersion des résultats est bien plus faible en Juin. 54 Ces deux échantillons ont été traités par le service PPP de l'IBGE avec code C/A seulement et deux séries de données ont été ajoutées. Le premier échantillon (en rouge) représente 10 jours au mois de Novembre pris entre 0 et 2h UTC pour la station PPTE (Présidente Prudente). Les 3 autres séries correspondent aus mêmes conditions en modifiant un paramètre (Tableau 10) : 10 jours au mois Juin (en bleu), entre 22h et 0h UTC (en orange), pour la station TOPL (à Palmas proche de la station PALM du projet CIGALA au Nord de Présidente Prudente) 7.00 6.00 5.00 m 4.00 3.00 2.00 1.00 0.00 Plani. Alti. Ecart moyen Plani. Alti. Précision IBGE*10 Plani. Alti. Dispersion Plani. Alti. RMS Figure 25 – Résultat de positionnement PP statique par le service PPP de l'IBGE (heure UTC) Couleur Station PPTE PPTE PPTE TOPL Mois Juin Oct Oct Oct Heure UTC 0-2h 0-2h 22-0h 0-2h Tableau 10 – Paramètre des différents calculs En absence de scintillation (série bleu) le RMS de 10 positionnements PP de seulement 2 heure est inférieur à 1m en n'utilisant que le code C/A (précision 1 à 3m), ce qui correspond aux résultats de l'on peut espérer d'un positionnement PP. Les précisions données par l'IBGE varient peu, contrairement à la dispersion des résultats. Les séries PPTE de 22h-0h (orange) et TOPL de 0-2h (violet) présentent des résultats similaires et intermédiaires (dispersion de 2.5m) alors que la série PPTE 0-2h présente de sévères pertes de précision (dispersion de 7m). On en conclue que la scintillation est plus intense en PPTE entre 21h et 23h (heure locale) qu'entre 19h et 21h. Cela montre que la période choisi étant particulièrement perturbée car la scintillation ionsophérique se poursuit au cours de la nuit. 55 Pourcentage d'époque 60% 50% 40% PPTE en Juin 30% TOPL 0-2h 20% PPTE 22h-0h 10% PPTE 0-2h 0% 2 3 4 5 6 7 8 9 10 11 Nombre de satélite Figure 26 – Pourcentage moyen d'époque par nombre de satellites utilisés lors du calcul de l'IBGE La station TOPL se trouve au Nord-est de Prudente. Ainsi la différence de latitude géographique peut expliquer qu'il y a plus de similitudes entre le positionnement en TOPL et en PPTE deux heures plus tôt. De même la stations TOPL est plus éloignée de l'anomalie équatoriale, elle est donc moins touchée par la scintillation. Plus généralement, on remarque que l'altimétrie est dégradée par la scintillation, mais présente peu de différences entre un scintillation forte ou sévère. Du point de vue du calcul on constate une variabilité dans le nombre de satellites utilisés pour le calcul par époque (Figure 26). Les observations faites dans le paragraphe précédent sur la dispersion des résultats se retrouvent dans le nombre de satellite utilisés lors du calcul. La série de Juin sert de référence. Ainsi on constate les pertes et les rejets de de satellite sont en moyenne de 2 pour les séries TOPL et PPTE de 22-0h et des pertes/rejets sévères pour PPTR de 0 à 2h avec des époque avec seulement 3 satellites. Ainsi la perte de quantité et de qualité des données se répercutent directement sur la qualité des données. 56 V.2 Positionnement PP au cours de nuit La position de PRU1 a été calculée la nuit du 17 octobre 2012 en positionnement PP par le service PPP de l'IBGE par intervalle de 1h. Les résultats du positionnement sont résumés dans la figure ci-dessous : 7 Erreur (m) 6 5 4 3 planimetrie 2 altimetrie (abs) 1 0 21:0022:0023:0000:0001:0002:0003:0004:0005:0006:00 Heure UTC Figure 27 – Erreur de positionnement par heure la nuit du 17 octobre 2012 en PPTE On assiste à une dégradation des écarts de position dépassant largement 2m lors de la nuit aussi bien en planimétrie qu'en altimétrie. Ces résultats se retrouvent sur la précision indiquée par l'IBGE : écart-type de la positon (m) 9 8 7 6 5 4 planimetrie 3 altimetrie 2 1 0 21:00 22:00 23:00 00:00 01:00 02:00 03:00 04:00 05:00 06:00 Heure UTC Figure 28 – Evolution de l'écart-type de position au cours de la nuit du 17 octobre 2012 en PPTE La précision diminue au cours de la nuit pour revenir à la normale à 6h UTC. La précision dépasse 2m en planimétrie et plus d'1m en altimétrie. Là encore l'influence de la scintillation paraît plus forte sur le planimétrie que sur l'altimétrie. 57 La perte de précision du posicionnement est liée à la réduction du nombre de satellite. On assiste te au cours de la nuit au même même phénomène de rejet de satellites satelli lié à la dégradation des données par la scintillation ionosphérique (Figure 29). ). Les pertes les plus sévères surviennent viennent entre 22h et 4h UTC. Nombre d'époques 250 200 5 satellites 150 6 satellites 100 7 satellites 8 satellites 50 9 satellites 0 20:00 21:00 22:00 23:00 0:00 1:00 2:00 3:00 4:00 5:00 10 satellites Heure UTC Figure 29 – Nombre de satellites au cours de la nuit du 17 octobre en PPTE De plus la perte de données ne suffit pas à expliquer la perte de précision sur les positions, on observe parallèlement allèlement l'augmentation du résidu de la pseudo-distance pseudo (Figure Résidu de la pseudo distance (en m) 30). 2.5 2 1.5 1 0.5 0 20:00 21:00 22:00 23:00 00:00 01:00 02:00 03:00 04:00 05:00 Heure UTC Figure 30 – Résidu de la pseudo distance au cours de la nuit du 17 octobre 2012 en PPTE Le résidu de la pseudo distance augmente significativement entre ent 2h et 5h UTC (plus de 1m, soit la précision du code C/A). Cela est cohérent avec les résultats r de positions en PPTE E meilleurs entre de 22h-0h 22h qu'entre 0h-2h 2h de la partie précédente. précé La perte de données est donc accompagnée accompagné par la perte de précision écision des données entrainant des es erreurs sur la position jusqu'à 6 fois supérieures à celle en période période sans scintillation. 58 Conclusion La scintillation ionosphérique occasionne une diminution du nombre de satellites reçus par les stations. Ainsi en cas de très forte scintillation, le satellite n'est tout simplement pas reçu. Ce phénomène est amplifié par la mauvaise configuration de la constellation GPS durant la nuit. Néanmoins, les pertes totales de satellites sont limitées. On assiste plutôt à une perte partielle des informations, que ce soit la bande L2 plus touchée par la scintillation ou les compteurs (tracking) comme le PLL et le lock time. Si la quantité d'information reçues diminue en quantité, elle diminue aussi en qualité. Les processus de contrôle de qualité implantés dans les logiciels détectent un nombre bien plus élevé de données à retirer sous scintillation ionosphérique. La perte de données additionnée aux rejets de données et à la mauvaise configuration de la constellation GPS remet en cause la convergence du calcul et met à mal la continuité des données. C'est pourquoi les méthodes de positionnement utilisant la phase sont particulièrement touchées, d'une part parce que la résolution des ambiguïtés entières n'est plus assurée et d'autre part parce que la précision attendue sur le positionnent est encore plus grande. Dans ce travail, les données ont été traitées uniquement en positionnement absolu. Le positionnement relatif a priori ne donnerait pas de meilleurs résultats car il est basé sur la mesure de phase et que la scintillation ionosphérique n'est pas géographiquement corrélée. A l'instar du multi-trajet, la différenciation des équations ne permettra pas minimiser cette erreur. En ce qui concerne le volume de données, on remarque que lorsque la scintillation ne concerne qu'une faible part des données, elle influe peu sur les résultats finaux et les erreur accidentelles sont relativement bien détectées. Une solution est donc d'augmenter le volume de données. Au long terme le Brésil voit l'intégration de la constellation GLONASS et l'arrivée de la constellation GALILEO. A court terme, le projet CIGALA a déjà montré des améliorations des performances de « tracking » des satellites sous des conditions fortes de scintillation. En ce qui concerne la perte de précision des observations, les solutions en développement sont d'identifier des mesures susceptibles d'être entachées par la scintillation et de leur donner une pondération faible ou de les retirer du calcul. Cette 59 approche nécessite une modélisation fine de la scintillation. L'implantation de station de mesure de la scintillation sur le territoire brésilien amène à l'amélioration constante des modèles par intégration des données mesurées et par l'amélioration des connaissances sur la scintillation ionosphérique. En l'état actuel, les grandes tendances de la scintillation ionosphérique sont connues (activité solaire, activité magnétique, saison, position de la station, position relative du satellite), notamment à travers l'étude des indices de scintillation. Toutefois les variations locales et la mécanique des irrégularités ionosphériques demandent plus d'investigations. Le projet CALIBRA a pour objectif de mitiger la scintillation. Il s'agit d'une part d'effectuer des tests à l'échelle locale pour identifier la dynamique du phénomène et d'autre part la correction et la pondération des données. Aujourd'hui, le positionnement GNSS au Brésil semble compromis, durant une partie de la nuit pendant la moitié de l'année. Cela est d'autant plus vrai pour les applications en temps réel (NRTK et le futur PPP temps réel). Cette réalité est bien différente des régions de moyenne latitude où la scintillation est un événement occasionnel et d'amplitude moindre. Au Brésil, les besoins en terme de positionnement de précision, continu et fiable sont immenses On peut citer les applications en agriculture de précision, en prospection pétrolière ou en surveillance d'ouvrage. Cette demande, bien identifiée par les décideurs publiques, laisse présager les efforts soutenus dans l'étude de la scintillation ionosphérique et des bénéfices théoriques, techniques et technologiques pour la géodésie spatiale. 60 Bibliographie Aarons, J., 1982. Global morphology of ionospheric scintillations. Proc. IEEE, 70, 360378. Bougard, B., CIGALA: Challenging the Solar Maximum in Brazil with PolaRxS, Proc. ION GNSS 2011, en ligne, disponible: <http://cigala.galileoic.org/files/BOUGARD.pdf> consulté le 27/06/2013 Béniguel, Y., Ionospheric Equatorial Scintillation Charactericts, Galileo Workshop, Padova, 2009, en ligne, disponible : < http://www.ieea.fr/publications/ieea-2009-galileowkshp.pdf> consulté le 27/06/2013 Béniguel Y.,GISM: A Global Ionospheric Propagation Model for scintillations of transmitted signals, Radio Science, Vol 37 (3), 1032, doi:10.1029/2000RS002393, 2002 CIGALA, Concept for Ionospheric Scintillation Mitigation for Professional GNSS in Latin America, en ligne , disponible : <http://is-cigala-calibra.fct.unesp.br/is/> consulté le 27/06/2013 Concker, R., Modeling the effects of ionospheric scintillation on GPS/Satellite-Based Augmentation System availability, Radio Science, Volume 37, numéro 0, XXXX, doi: 10.1029/200/2000RS002604, 2002 Datta-Barua, S., Ionospheric scintillation effects on single and dual frequency GPS positioning, in Proceedings of the 16th International Technical Meeting of the Satellite Division of The Institute of Navigation (ION GPS/GNSS '03), pp. 336–346, Portland, OR, USA, September 2003. Davies, K., 1990 Ionospheric Radio, Peter Peregrinus Ltd : London, p57 Da Silva, H., Avaliação de modelos estocasticos no posicionamento GNSS, dissertation, Universidade estadual Paulista, 2009, p111 Du, J. et al., Determination of Equatorial Ionospheric Scintillation S4 by Dual Frequency GPS, Beacon Satellite Symposium 2001, en ligne, disponible : <http://www.ips.gov.au/IPSHosted/NCRS/wars/wars2000/commg/du.pdf > consulté le 27/06/2013 Hopfield, H., 1969, Two-quartic tropospheric refractivity profile for correcting satllite data, in Journal of Geophysical Research, 74(18).4487-4499 IBGE, Instituto Brasileiro de Geografia e Estatística, en ligne disponible sur : <http://www.ibge.gov.br/home/> consulté le 27/06/2013 IGS, IGS Analysis Center Coordinator (ACC) at NOAA/NGS, en ligne, disponible sur : < http://acc.igs.org/> consulté le 27/06/2013 61 IMCCE, Institut de Mécanique Céleste et Calcul des Ephémérides, en ligne, disponible sur : < http://www.imcce.fr/> consulté le 27/06/2013 Kintner, P., G4SS and Ionospheric Scintillation: How to Survive the 4ext Solar Maximum, Cover story of InsideG4SS, July/August 2009, en ligne, disponible <www.insidegnss.com/node/1579> consulté le 27/06/2013 Knight M., Ionospheric scintillation effects on global positioning system receivers, en ligne, these de doctorat, Université d'Adelaide 2000 p336, disponible <ssp.eleceng.adelaide.edu.au/public/theses/MKThesis.pdf> consulté le 27/06/2013 Lassurderie-Duchesne, P. et al., Les effets de la scintillation ionosphérique sur le GPS, Navigation, juillet 2010, vol. 58, n° 231, pp. 17-34 Marques, H., PPP em tempo real com estimativa das correções dos relogios dos satellites no contexto de rede G4SS, thèse de doctorat en ingénierie cartographique, Universidade estadual Paulista, 2012, p228 4WRA 4orthWest Research Associates, <http://www.nwra.com/> consulté le 27/06/2013 Inc., en ligne disponible : Van Dierendonck A. et al., 1993, Ionospheric Scintillation Monitoring Using Commercial Single Frequency C/A Code Receivers, in Proc. IO4 GPS-93, Arlington, VA, Sept. 1993, pp. 1333–1342. Romano, V. et al., Investigation of low latitude scintillations in Brazil within the cigala project, Proocedings of the 3rd International Colloquium on Scientific and Fundamental Aspects of the Galileo Programme, Copenaghen 2011, / WWP 326 (2011), en ligne, disponible : <http://www.earth-prints.org/bitstream/2122/7393/1/2241022romano.pdf> consulté le 27/06/2013 Secan, J. et al., High-latitude upgrade to Wideband ionospheric scintillation model, Radio Science, Volume 32, Numéro 4, p1567-1574, Jullet-Août 1997 Seeber, G., 1993, Satellite geodesy: foundations, methods, and applications, Berlin ; New York : de Gruyter, Berlin, p610 Skone, S., G. Lachapelle, D. Yao, W. Yu and R. Watson (2005) Investigating the Impact of Ionospheric Scintillation using a GPS Software Receiver. CD-ROM Proceedings of GNSS 2005 (Session C3, Long Beach, CA, 13-16 September), The Institute of Navigation, Fairfax, VA, p12. Walter, T. et al, 2010, Effect of ionospheric scintillations on G4SS-a white paper. SBAS Ionospheric Working Group, Novembre 2010 Wübenna, G. On the modeling of G4SS observations for high precision determination. Geo++ White Paper.2001, en ligne , disponible : <http://www.geopp.de/download/seeb60_wuebbena_e.pdf> consulté le 27/06/2013 62 Table des annexes Annexe 1 Cartes des stations du projet CIGALA 64 Annexe 2 Description de la table du projet CIGALA 65 Annexe 3 Pourcentage de valeurs S4 supérieures à 0.5 et 1 aux stations MANA/MAN2 (Manaus, AM) 66 Annexe 4 Pourcentage de valeurs S4 supérieures à 0.5 et 1 à la station PALM (Palmas, TO) 67 Annexe 5 Pourcentage de valeurs S4 supérieures à 0.5 et 1 à la station PRU1 (Présidente Prudente, SP) 68 Annexe 6 Pourcentage de valeurs S4 supérieures à 0.5 et 1 à la station PRU2 (Présidente Prudente, SP) 69 Annexe 7 Pourcentage de valeurs S4 supérieures à 0.5 et 1 aux stations SJCI/SJCE (São José dos Campos, SP) 70 Annexe 8 Pourcentage de valeurs S4 supérieures à 0.5 et 1 à la station SJCU (São José dos Campos, SP) 71 Annexe 9 Pourcentage de valeurs S4 supérieures à 0.5 et 1 aux stations MACA/MAC2 (Macaé, RJ) 72 Annexe 10 Pourcentage de valeurs S4 supérieures à 0.5 et 1 à la station PAOL (Porto Alegre, RS) 73 63 Annexe 1 Cartes des stations station du projet CIGALA 64 Annexe 2 Description de la table du projet CIGALA WN TOW SVID GPS Week Number GPS Time of Week (seconds) SVID Value of the RxState field of the ReceiverStatus SBF-block SBF block Azim Azimuth (degrees) Elev Elevation (degrees) tec_45 TEC at TOW - 45 seconds (TECU) dtec_6045 dTEC from TOW - 60s to TOW - 45s (TECU) tec_30 TEC at TOW - 30 seconds (TECU) dtec_4530 dTEC from TOW - 45s to TOW - 30s (TECU) tec_15 TEC at TOW - 15 seconds (TECU) dtec_3015 dTEC from TOW - 30s to TOW - 15s (TECU) tec TEC at TOW (TECU) dtec_15tow dTEC from TOW - 15s to TOW (TECU) reserved Reserved, currently set to 0 f2nd_tec_locktime: Lock time on the second f2nd_tec_locktime frequency used for the TEC computation (seconds) f2nd_tec_cn0: Averaged C/N0 of second f2nd_tec_cn0 frequency used for the TEC computation (dB-Hz) avg_cn0_l1 avg_cn0_l2 avg_cn0_l5_e5b Average C/N0 over the last minute (dB-Hz) avgccd_l1 avgccd_l2c_e5a avgccd_l5c_e5b average of code/carrier divergence (meters) sigma_ccd_l5_e5 standard deviation of code/carrier divergence sigmaccd_l1 sigmaccd_l2c_e5a b (meters) l1_locktime l2_e5a_locktime l5_e5b_locktime L lock time (seconds) s4 s4_l2 s4_l5 Total S4 (dimensionless) Correction to total S4 (thermal noise component corr_s4 corr_s4_l2 corr_s4_l5_e5b only) (dimensionless) phi01l1 phi01l2c_e5a phi01l5c_e5b Phi01, 1-second phase sigma (radians) phi03l1 phi03l2c_e5a phi03l5c_e5b Phi03, 3-second phase sigma (radians) phi10l1 phi10l2c_e5a phi10l5c_e5b Phi10, 10-second phase sigma (radians) phi30l1 phi30l2c_e5a phi30l5c_e5b Phi30, 30-second phase sigma (radians) phi60l1 phi60l2c_e5a phi60l5c_e5b Phi60, 60-second phase sigma (radians) si_l1 si_l2c_e5a si_l5_e5b numerator_ numerator_si_l2c_ numerator_si_l5 si_l1 e5a _e5b p_l1 p_l2c_e5a p_l5_e5b t_l1 t_l2c_e5a t_e5b SI Index : (10*log10(Pmax) - 10*log10(Pmin))/ (10*log10(Pmax) + 10*log10(Pmin)) (dimensionle ss) SI Index, numerator only: 10*log10(Pmax) 10*log10(Pmin) (dB) p, spectral slope of detrended phase in the 0.1 to 25Hz range (dimensionless) T on L, phase power spectral density at 1 Hz (rad^2/Hz) Source : http://is-cigala-calibra.fct.unesp.br/ 65 66 23/04/2013 23/03/2013 23/02/2013 23/01/2013 23/12/2012 23/11/2012 23/10/2012 23/09/2012 23/08/2012 23/07/2012 23/06/2012 23/05/2012 23/04/2012 23/03/2012 23/02/2012 23/01/2012 23/12/2011 23/11/2011 23/10/2011 23/09/2011 23/08/2011 23/07/2011 23/06/2011 23/05/2011 23/04/2011 23/03/2011 23/02/2011 23/01/2011 Annexe 3 Pourcentage de valeurs S4 supérieures à 0.5 et 1 aux stations MA A/MA 2 (Manaus, AM) 10.000% 2.000% 9.000% 8.000% 7.000% 1.500% 6.000% 5.000% 1.000% 4.000% 0.5 3.000% 1 2.000% 0.500% 1.000% 0.000% 0.000% 67 23/04/2013 23/03/2013 23/02/2013 23/01/2013 23/12/2012 23/11/2012 23/10/2012 23/09/2012 23/08/2012 23/07/2012 23/06/2012 23/05/2012 23/04/2012 23/03/2012 23/02/2012 23/01/2012 23/12/2011 23/11/2011 23/10/2011 23/09/2011 23/08/2011 23/07/2011 23/06/2011 23/05/2011 23/04/2011 23/03/2011 23/02/2011 23/01/2011 Annexe 4 Pourcentage de valeurs S4 supérieures à 0.5 et 1 à la station PALM (Palmas, TO) 10.000% 2.000% 9.000% 8.000% 7.000% 1.500% 6.000% 5.000% 1.000% 4.000% 0.5 3.000% 1 2.000% 0.500% 1.000% 0.000% 0.000% 23/04/2013 23/03/2013 23/02/2013 23/01/2013 23/12/2012 23/11/2012 23/10/2012 23/09/2012 23/08/2012 23/07/2012 23/06/2012 23/05/2012 23/04/2012 23/03/2012 23/02/2012 23/01/2012 23/12/2011 23/11/2011 23/10/2011 23/09/2011 23/08/2011 23/07/2011 23/06/2011 23/05/2011 23/04/2011 23/03/2011 23/02/2011 23/01/2011 Annexe 5 Pourcentage de valeurs S4 supérieures à 0.5 et 1 à la station PRU1 (Présidente Prudente, SP) 10.000% 2.000% 9.000% 8.000% 7.000% 1.500% 6.000% 5.000% 1.000% 4.000% 0.5 3.000% 1 2.000% 0.500% 1.000% 0.000% 0.000% 68 23/04/2013 23/03/2013 23/02/2013 23/01/2013 23/12/2012 23/11/2012 23/10/2012 23/09/2012 23/08/2012 23/07/2012 23/06/2012 23/05/2012 23/04/2012 23/03/2012 23/02/2012 23/01/2012 23/12/2011 23/11/2011 23/10/2011 23/09/2011 23/08/2011 23/07/2011 23/06/2011 23/05/2011 23/04/2011 23/03/2011 23/02/2011 23/01/2011 Annexe 6 Pourcentage de valeurs S4 supérieures à 0.5 et 1 à la station PRU2 (Présidente Prudente, SP) 10.000% 2.000% 9.000% 8.000% 7.000% 1.500% 6.000% 5.000% 1.000% 4.000% 0.5 3.000% 1 2.000% 0.500% 1.000% 0.000% 0.000% 69 70 23/04/2013 23/03/2013 23/02/2013 23/01/2013 23/12/2012 23/11/2012 23/10/2012 23/09/2012 23/08/2012 23/07/2012 23/06/2012 23/05/2012 23/04/2012 23/03/2012 23/02/2012 23/01/2012 23/12/2011 23/11/2011 23/10/2011 23/09/2011 23/08/2011 23/07/2011 23/06/2011 23/05/2011 23/04/2011 23/03/2011 23/02/2011 23/01/2011 Annexe 7 Pourcentage de valeurs S4 supérieures à 0.5 et 1 aux stations SJCI/SJCE (São José dos Campos, SP) 10.000% 2.000% 9.000% 8.000% 7.000% 1.500% 6.000% 5.000% 1.000% 4.000% 0.5 3.000% 1 2.000% 0.500% 1.000% 0.000% 0.000% 71 23/04/2013 23/03/2013 23/02/2013 23/01/2013 23/12/2012 23/11/2012 23/10/2012 23/09/2012 23/08/2012 23/07/2012 23/06/2012 23/05/2012 23/04/2012 23/03/2012 23/02/2012 23/01/2012 23/12/2011 23/11/2011 23/10/2011 23/09/2011 23/08/2011 23/07/2011 23/06/2011 23/05/2011 23/04/2011 23/03/2011 23/02/2011 23/01/2011 Annexe 8 Pourcentage de valeurs S4 supérieures à 0.5 et 1 à la station SJCU (São José dos Campos, SP) 10.000% 2.000% 9.000% 8.000% 7.000% 1.500% 6.000% 5.000% 1.000% 4.000% 0.5 3.000% 1 2.000% 0.500% 1.000% 0.000% 0.000% 23/04/2013 23/03/2013 23/02/2013 23/01/2013 23/12/2012 23/11/2012 23/10/2012 23/09/2012 23/08/2012 23/07/2012 23/06/2012 23/05/2012 23/04/2012 23/03/2012 23/02/2012 23/01/2012 23/12/2011 23/11/2011 23/10/2011 23/09/2011 23/08/2011 23/07/2011 23/06/2011 23/05/2011 23/04/2011 23/03/2011 23/02/2011 23/01/2011 Annexe 9 Pourcentage de valeurs S4 supérieures à 0.5 et 1 aux stations MACA/MAC2 (Macaé, RJ) 10.000% 2.000% 9.000% 8.000% 7.000% 1.500% 6.000% 5.000% 1.000% 4.000% 0.5 3.000% 1 2.000% 0.500% 1.000% 0.000% 0.000% 72 73 23/04/2013 23/03/2013 23/02/2013 23/01/2013 23/12/2012 23/11/2012 23/10/2012 23/09/2012 23/08/2012 23/07/2012 23/06/2012 23/05/2012 23/04/2012 23/03/2012 23/02/2012 23/01/2012 23/12/2011 23/11/2011 23/10/2011 23/09/2011 23/08/2011 23/07/2011 23/06/2011 23/05/2011 23/04/2011 23/03/2011 23/02/2011 23/01/2011 Annexe 10 Pourcentage de valeurs S4 supérieures à 0.5 et 1 à la station PAOL (Porto Alegre, RS) 10.000% 2.000% 9.000% 8.000% 7.000% 1.500% 6.000% 5.000% 1.000% 4.000% 0.5 3.000% 1 2.000% 0.500% 1.000% 0.000% 0.000% Liste des figures Figure 1 – Densité en électron et altitude des couches de la ionosphère, source : Davies (1990) 14 Figure 2 – Fréquence d'apparition de la scintillation. Les deux bandes de scintillation équatoriale où la scintillation surviennent plus de 100 jours dans l'année et la scintillation polaire 10 jours dans l'année, source KINTNER (2009) 15 Figure 3 - Mécanisme de diffraction des ondes en provenance d'un satellite par des irrégularités d'ionisation de l'ionosphère. Vd représente la vitesse de dérive des irrégularités (et de la figure de diffraction des ondes) par rapport au récepteur, source : Lassurderie-Duchesne, 2010 16 Figure 4 – Schéma des divers effets de la scintillation, source SIWG (2010) 23 Figure 5 – Paramètre de configuration du logiciel RT_PPP 28 Figure 6 – Répartition des stations des projets CIGALA et CALIBRA (en bleu et rouge les stations actuellement dans le projet, en vert les futures stations implantées à l'issu du projet CALIBRA), source : http://is-cigala-calibra.fct.unesp.br/ 30 Figure 7 – Prévision de l'activité solaire, source : www.sidc.be 32 Figure 8 – Pourcentage de valeur S4 supérieur à 0.5, pour toutes les stations du CIGALA pour une élévation supérieure à 10°, GPS-GLONASS 33 Figure 9 – Evolution au cours de l'année 2012 du niveau moyen mensuel de l'indice S4 34 Figure 10 – Evolution de l'indice S4 en fonction de l'heure et du mois en PRU1 35 Figure 11 – Spectre d'amplitude de l'indice S4 et phi60 35 Figure 12 – Corrélation entre l'indice S4 et l'élévation 38 Figure 13 – Schéma de la projection appliquée pour la visualisation de l'indice S4 40 Figure 14 – Indice S4 projeté par intervalle de 1h entre 18h et 3h heure locale (en ligne) pour les stations PALM, PRU et POAL (en colonne), la nuit du 20 au 21 octobre 2012 40 Figure 15 – carte des IPP de valeur S4 avec l'outil ISMR, du 17 au 18 octobre 2012 de 22h à 5h UTC 41 Figure 16 – Cartes des IPP par intervalle de 1h à différents stades de la nuit pour des valeur de S4 supérieure à 0.25 la nuit du 17 octobre 2012 42 Figure 17 –Nombre de satellites et DOP (GDOP en rouge) le 17 octobre 2012 en heure UTC 46 Figure 18 – Nombre de satellites en sortie du calcul de positionnement PPP de l'IBGE en PRU1, le 17 octobre 2012, en gris la nuit 47 Figure 19 – Lock time des signaux L1 et L2 et scintillation, la nuit du 17 octobre 2012 en PRU1 avec un angle de coupure de 20° 48 Figure 20 – Différence Nλ entre les bandes L1 et L2 pour le satellite GPS PRN2 le 17 octobre 2012 en PRU1 49 Figure 21 – Rejets de satellites le 17 octobre 2012 50 Figure 22 – Répartition des valeurs de S4 et phi60 en fonction du nombre de satellites rejetés 51 Figure 23 – Différence du nombre de satellites pris en compte entre le calcul PP et PPP du 17 octobre 2012 51 Figure 24 – Résultats de positionnement PP par le logiciel RT_PPP avec et sans scintillation 54 Figure 25 – Résultat de positionnement PP statique par le service PPP de l'IBGE (heure UTC) 55 Figure 26 – Pourcentage moyen d'époque par nombre de satellites utilisés lors du calcul de l'IBGE 56 Figure 27 – Erreur de positionnement par heure la nuit du 17 octobre 2012 en PPTE 57 Figure 28 – Evolution de l'écart-type de position au cours de la nuit du 17 octobre 2012 en PPTE57 Figure 29 – Nombre de satellites au cours de la nuit du 17 octobre en PPTE 58 Figure 30 – Résidu de la pseudo distance au cours de la nuit du 17 octobre 2012 en PPTE 58 74 Liste des tableaux Tableau 1 – Moyenne journalière du nombre de valeurs σCDD/ S4 > 5 pour la bande L1, un indice S4>0.25 et pour un masque d'élévation de 10° et pourcentage du total des valeurs mesurées, le mois d'octobre 2012 (les stations sont données du Nord au Sud) 18 Tableau 2 – Pourcentage de l'information contenue dans les indices phi01, phi03, phi10, phi30, phi60 le 11 novembre 2012 19 Tableau 3 – Fréquence des observables GPS et bruit de mesure, source : Seeber, 1993 21 Tableau 4 – Magnitude des principales sources d'erreur GPS, source : Wubenna (2008) 22 Tableau 5 - Stratégie de traitement des erreurs GPS, source : Marques, H (2012) 27 Tableau 6 – Traitement des erreurs par le service PPP de l'IGBE, source www.ibge.gouv.fr 29 Tableau 7 – Premiers jours de scintillation des années 2011 et 2012, à partir de l'outil graphique du site du projet CIGALA, http://is-cigala-calibra.fct.unesp.br/ 36 Tableau 8 - Valeurs des indices de scintillation lors des pertes de satellites 50 Tableau 9 – Temps de convergence du calcul 52 Tableau 10 – Paramètre des différents calculs 55 75 Mise en évidence des effets de la scintillation ionosphérique sur les stations G SS du Brésil Mémoire d'Ingénieur C. .A.M., Paris 2013 _______________________________________________________________ __ RESUME La scintillation ionosphérique peut perturber les systèmes de positionnement par satellites (GNSS). Cette perturbation se traduit par des variations rapides d'amplitude et de phase du signal GNSS, ce qui détériore la qualité du signal ou occasionne des pertes de signal. Ce phénomène est particulièrement fort au Brésil qui est situé dans la région équatoriale. L'étude des indices de scintillation S4 et phi60 confirme la dépendance de ce phénomène avec l'heure, la saison, la position des satellites et des récepteurs. Au cours des évènements de scintillation, on observe une dégradation de la précision du positionnement liée aux pertes de données et à la moindre qualité des données. La scintillation ionosphérique est plus dommageable au Positionnement par Point Précis (PPP) qu'au Positionnent par Point classique (PP). Mots clés : G SS, scintillation ionosphérique, région équatoriale, S4, phi60, positionnement, PPP. _______________________________________________________________ __ SUMMARY Ionospheric scintillation can jeopardize the global navigation satellite systems (GNSS). It means speed amplitude and phase variations on GNSS signal which alters GNSS signal quality or generate tracking issues. This phenomenon is very strong in Brazil which is located mainly in the equatorial region. The study of scintillation index S4 and phi60 confirms dependence between this phenomenon and the hour of the day, the season, satellites and receptors positions. During scintillation events we observe positioning quality is affected by data loss and worse data quality. Ionospheric scintillation is more damageable on Precise Point Positioning (PPP) than on classical Point Positioning (PP) Key words: G SS, ionospheric scintillation, equatorial region, S4, phi60, positioning, PPP 76
{'path': '06/dumas.ccsd.cnrs.fr-dumas-00941978-document.txt'}
École inclusive en maternelle : l'accueil d'élèves non-diagnostiqués Pauline Lemaitre To cite this version: Pauline Lemaitre. École inclusive en maternelle : l'accueil d'élèves non-diagnostiqués. Education. 2021. dumas-03405221 HAL Id: dumas-03405221 https://dumas.ccsd.cnrs.fr/dumas-03405221 Submitted on 27 Oct 2021 Distributed under a Creative Commons Attribution - NonCommercial - NoDerivatives| 4.0 International License MASTER MEEF mention 1er degré « Métiers de l'enseignement, de l'éducation et de la formation » Mémoire de 2ème année Année universitaire 2020 - 2021 ECOLE INCLUSIVE EN MATERNELLE : L'ACCUEIL D'ELEVES NONDIAGNOSTIQUES Pauline Lemaitre Directeur du mémoire : Laure ROS Assesseur : Geneviève Zoïa Soutenu le 2021 Résumé Depuis quelques années, rendre l'école pleinement inclusive est un des principaux objectifs de l'Education Nationale. Afin de permettre un meilleur accompagnement des élèves à besoins éducatifs particuliers, plusieurs dispositifs d'accompagnement adaptés à chaque situation allant de la difficulté passagère au trouble des apprentissages ou handicap, sont créés. Cependant, certains handicaps sont difficilement détectables dans les premières années de la vie d'un enfant. Il s'agit dans ce mémoire de questionner des enseignants sur leurs pratiques et sur les aménagements mis en place pour leurs élèves à besoins éducatifs particuliers, diagnostiqués ou non afin de montrer si le diagnostic permet une meilleure prise en charge des élèves en maternelle. Mots-clés : inclusion scolaire – besoins éducatifs particuliers – handicap – école maternelle – diagnostic Abstract In recent years, making schools fully inclusive has been one of the main objectives of National Education. In order to enable better support for pupils with special educational needs, several support devices adapted to each situation ranging from temporary difficulty to learning disability or disability, are created. However, some disabilities are difficult to detect in the early years of a child's life. The brief asks teachers about their practices and the accommodations put in place for their pupils with special educational needs, diagnosed or not, in order to show whether the diagnosis allows for better care of pupils in kindergarten. Keywords : inclusive education – special education needs – handicap – kindergarten – diagnosis 1 Sommaire Résumé 1 Sommaire 2 I. Introduction 4 II. Cadre théorique 5 1. L'école inclusive 5 1.1. Des définitions 5 1.2. Dans la législation et les textes officiels 6 1.2.1. 1.3. 2. La loi pour une Ecole de la confiance du 28 juillet 2019 6 Conséquences et contexte actuel 7 Les élèves à besoin éducatifs particuliers 8 2.1. Emergence de la notion 8 2.2. Des définitions 9 2.3. Une classification internationale 9 2.4. Une classification en France 10 2.5. Des handicaps difficilement détectables 10 2.5.1. L'exemple de la dyspraxie 11 2.6. La question du diagnostic 12 2.7. Les moyens 12 2.7.1. Les différents dispositifs pédagogiques 12 2.7.2. La formation des AESH 14 2.7.3. La formation des enseignants 14 2.7.3.1. La formation initiale 14 2.7.3.2. La formation continue 15 3. L'école maternelle 16 3.1. La refondation de l'école maternelle 16 3.2. Les enjeux de l'école maternelle 17 3.2.1. Les principales théories du développement de l'enfant du XXe siècle 17 3.2.1.1. La théorie du développement cognitif de Jean Piaget 17 3.2.1.2. La théorie socioculturelle du développement de Vigotsky 18 3.2.2. Des travaux plus récents 18 3.2.3. Le rôle du cycle 1 19 3.2.3.1. Permettre d'acquérir des premières compétences essentielles 19 3.2.3.2. Donner le plaisir d'apprendre 20 3.2.3.3. Repérer les premières difficultés 20 2 III. 1. Partie expérimentale 21 Problématique 21 1.1. Constat personnel et interrogations 21 1.2. Hypothèses 22 1.2.1. Le diagnostic permettra une meilleure prise en charge de l'élève car il pourra bénéficier d'un dispositif adapté à ses besoins. 22 1.2.2. Un élève de maternelle demande beaucoup d'attention et un élève à besoins éducatifs particulier en demande d'autant plus. S'il n'est pas diagnostiqué et ne bénéficie pas d'un dispositif (une aide humaine par exemple), il est difficile de lui consacrer l'attention dont il a besoin. 22 1.2.3. En classe, l'enseignant pourra mieux adapter sa pédagogie en connaissant la nature des difficultés de l'élève. 22 2. 3. 4. Contexte d'étude 23 2.1. Méthode de recueil de données 23 2.2. Public interrogé 23 Résultats et analyse 24 3.1. Résumé des entretiens 24 3.2. Tableau récapitulatif des réponses 27 3.3. Analyse 29 Bilan des hypothèses 32 4.1. Le diagnostic permettra une meilleure prise en charge de l'élève car il pourra bénéficier d'un dispositif adapté à ses besoins 33 4.2. Un élève de maternelle demande beaucoup d'attention et un élève à besoins éducatifs particulier en demande d'autant plus. S'il n'est pas diagnostiqué et ne bénéficie pas d'un dispositif (aide humaine par exemple), il est difficile de lui consacrer l'attention dont il a besoin. 34 4.3. En classe, l'enseignant pourra mieux adapter sa pédagogie en connaissant la nature des difficultés de l'élève. 34 IV. Conclusion 35 Sitographie 37 Bibliographie 39 Annexes 40 Annexe 1 : Entretien 1 avec un enseignant de petite et grande section, Mars 2021 41 Annexe 2 : Entretien 2 avec une enseignante titulaire de secteur de trois classes des trois niveaux, Mars 2021 42 Annexe 3 : Entretien 3 avec une enseignante de petite et moyenne section, Avril 2021 44 Annexe 4 : Entretien 4 avec une PES, Avril 2021 46 Annexe 5 : Entretien 5 avec une enseignante de petite et grande section, Avril 2021 48 3 I. Introduction La loi du 11 février 2005 pour l'égalité des droits et des chances, la citoyenneté et la participation des personnes handicapées vise à améliorer les conditions de scolarisation des enfants en situation de handicap. Tout parent a le droit d'inscrire son enfant porteur de handicap dans l'école la plus proche du domicile. C'est le principe de l'inclusion scolaire dont les termes sont entrés dans la prescription avec la loi d'orientation et de programmation pour la refondation de l'Ecole de la République du 8 juillet 2013. En effet, on ne demande plus à l'enfant de montrer qu'il est capable de rejoindre une classe ordinaire mais au système de devenir accessible à tous les enfants. Un ambition renforcée par le nouveau président de la République faisant de la scolarisation des élèves en situation de handicap une des priorités de son quinquennat. En tant que professeur des écoles stagiaire cette année, je suis en charge d'une classe de petite et moyenne section de maternelle dans laquelle nous accueillons plusieurs élèves à besoins éducatifs particuliers, environ cinq dans une classe de 27 élèves. En effet, dès les premières semaines, j'ai été confrontée à des difficultés principalement comportementales d'élèves peu autonomes, parfois violents envers leurs camarades, ne pouvant que très peu être laissés en autonomie et ayant des difficultés dans les apprentissages. Ces comportements ne m'ont pas semblés anodins et nécessitaient des aménagements pédagogiques pour le bien-être de ces élèves et du reste de la classe. Cependant, parmi eux, un seul élève de moyenne section, qui a été diagnostiqué avec des troubles du comportement et de la parole bénéficie d'une aide humaine grâce à un projet personnalisé de scolarisation (PPS) élaboré depuis l'année précédente. Les autres, pour diverses raisons ne bénéficient pas ou pas encore d'aménagements pédagogiques adaptés. Face à cela, sans aide immédiate et peu d'expérience, je me suis sentie assez démunie. J'ai toujours eu un soucis d'équité, de justice, c'est pourquoi le fait que chaque élève puisse vivre une scolarité épanouissante, se sentir à sa place à l'école puis dans la société fait que la question de l'inclusivité est un sujet qui me tient particulièrement à coeur et l'expérience que j'en fais cette année n'a fait que renforcer mon envie de traiter ce thème. De plus, ce sont nous, les professionnels de l'éducation, qui pouvons et devons contribuer à la mise en place d'une école pleinement inclusive favorisant la réussite et le bien-être de chacun. C'est pourquoi je pense qu'il est important d'approfondir nos recherches sur ce thème afin d'orienter nos pratiques professionnelles en faveur de cette nouvelle vision de l'enseignement. 4 II. Cadre théorique 1. L'école inclusive 1.1. Des définitions Depuis plusieurs années, les efforts du gouvernement pour améliorer la scolarisation des enfants en situation de handicap ne cessent de croître mais pas seulement au niveau national. En effet, plusieurs accords internationaux ont pour vocation de structurer la notion d'école inclusive et ainsi permettre l'accès à une « éducation inclusive et de qualité »1 (Alexandra Coudray, s. d.) étant l'un des principaux objectifs de développement durable de L'ONU. Aussi, l'ONU définit l'inclusion comme « un processus visant à tenir compte de la diversité des besoins de tous les apprenants et à y répondre par une participation croissante à l'apprentissage, aux cultures et aux collectivités, et à réduire l'exclusion qui se manifeste dans l'éducation. »2 (Alexandra Coudray, s. d.). Si l'on s'intéresse maintenant au point de vue de la France, l'Education Nationale spécifie que « L'école inclusive doit s'adapter aux besoins de tous les élèves et aux besoins de chacun d'entre eux, dans un environnement scolaire prenant en compte les spécificités de chaque parcours. »3. Sur le site Eduscol, nous retrouvons la définition suivante : « L'École inclusive vise à assurer une scolarisation de qualité pour tous les élèves, de la maternelle au lycée, par la prise en compte de leurs besoins éducatifs particuliers »4. Nous pouvons remarquer que le terme « besoins » est présent dans chacune des définitions. La prise en compte des besoins des élèves est donc au coeur du principe même de l'école inclusive. En effet, après ces différentes lectures, nous pouvons voir que l'école inclusive n'est pas seulement d'accueillir les élèves en situation de handicap dans des classes ordinaires, mais d'adapter le système scolaire à chaque élève, en situation de handicap ou non. Ce principe vise à effacer toute catégorisation et se place donc aujourd'hui en opposition au modèle de séparation des enfants dits ordinaires et des enfants dits atypiques. Chaque enfant est un Bulletin de veille n°1 « Comment définir l'école inclusive ? », consulté sur https://www.reseaucanope.fr/fileadmin/user_upload/Projets/agence_des_usages/6855_BulletinVeille_1_ecole_inclusive.pdf 2 Ibid. 3 Gouvernement.fr. Refonder l'école inclusive, [en ligne] https://www.gouvernement.fr/action/l-ecole-inclusive 4 Eduscol, consulté sur https://eduscol.education.fr/1137/ecole-inclusive 1 5 élève à part entière avec des besoins différents, le tout est donc d'adapter son enseignement à chaque profil d'élève. 1.2. Dans la législation et les textes officiels Afin de mieux comprendre son cheminement, il me paraît nécessaire de rappeler quelques textes et lois importants qui ont contribué jusqu'à présent à la mise en place d'une école inclusive : - La Loi n° 75-534 du 30 juin 1975 d'orientation en faveur des personnes handicapées « affirmait la volonté d'insertion chaque fois que possible des personnes en situation de handicap en milieu ordinaire »5 dans une logique donc d'intégration, c'est-à-dire que la personne handicapée est insérée dans la société à condition qu'elle puisse s'y adapter. - La loi du 11 février 2005 pour l'égalité des droits et des chances, la participation et la citoyenneté des personnes handicapées.6 en continuité de la loi de 1975, vise à améliorer les conditions d'insertion des personnes handicapées dans la société et au niveau scolaire de pouvoir inscrire son enfant porteur de handicap dans l'école la plus proche du domicile, comme n'importe quel autre élève. - La loi n°2013-595 du 8 juillet 2013 d'orientation et de programmation pour la refondation de l'école de la République7 dans laquelle la notion d'intégration est remplacé par celle d'inclusion, il apparaît donc le principe de l'école inclusive dans lequel le système éducatif doit s'adapter aux élèves et non l'inverse. - La circulaire de rentrée du 5 juin 2019 pour une école inclusive 8 a pour objectif de préciser les actions à mener afin de permettre pleinement sa mise en oeuvre. - La loi pour une Ecole de la confiance du 28 juillet 2019 9 : développée ci-après. 1.2.1. La loi pour une Ecole de la confiance du 28 juillet 2019 Il me paraît pertinent de porter un intérêt particulier à cette loi dans le cadre de mon étude en raison des changements qu'elle a suscités et des conséquences générées. 5 https://www.legifrance.gouv.fr/loda/id/JORFTEXT000000333976/ https://www.legifrance.gouv.fr/dossierlegislatif/JORFDOLE000017759074/ 7 https://www.legifrance.gouv.fr/dossierlegislatif/JORFDOLE000026973437/ 8 http://cache.media.education.gouv.fr/file/Actualites/03/3/Circulaire-de-rentree-2019-ecole-inlusive_1136033.pdf 9 https://www.education.gouv.fr/la-loi-pour-une-ecole-de-la-confiance-5474 6 6 Tout d'abord, l'abaissement de l'instruction obligatoire à 3 ans. En effet, l'école maternelle étant l'école de la socialisation et du langage, cette mesure vise à lutter contre les inégalités en donnant la chance à chaque élève, quel que soit son milieu social ou familial de réussir sa scolarité grâce à un cadre commun. En plus d'affirmer l'importance du rôle du cycle 1 dans la scolarité de l'élève, la loi prévoit d'accompagner cette mesure par la mise en place d'une visite médicale à l'école dès trois ans permettant « un repérage précoce des éventuels troubles de santé pouvant affecter les apprentissages »10. En abaissant l'âge obligatoire de l'instruction, le taux de scolarisation des élèves de moins de six ans est susceptible d'augmenter. Ainsi, un maximum d'enfants pourrait passer cette visite qui permettrait un éventuel diagnostic le plus tôt possible, afin d'accéder à un accompagnement et une prise en charge dans de meilleurs délais également. La loi prévoit aussi un meilleur accompagnement des élèves en situation de handicap en améliorant la formation et la reconnaissance des accompagnants des élèves en situation de handicap (AESH). Dans cette optique, est également créé un pôle inclusif d'accompagnement localisé (PIAL) « visant à améliorer la coordination des aides (humaines, éducatives et thérapeutiques) et à faciliter la gestion des accompagnants » 11. 1.3. Conséquences et contexte actuel Nous pouvons nous demander si l'abaissement de l'âge de l'instruction obligatoire a des conséquences sur les effectifs dans les classes de maternelle ainsi que sur l'augmentation du nombre d'élèves à besoins éducatifs particuliers. Selon les chiffres de l'éducation Nationale en 2020, 254 500 élèves en situation de handicap sont scolarisés dans le premier degré12. La majorité dans des établissements ordinaires (194 500 contre 60 000 dans des établissements spécialisées), soit 68 937 de plus qu'en 2018. Ce chiffre n'a cessé d'augmenter ces dernières années car il était de 111 083 en 2006 13. 10 education.gouv.fr, La loi pour une école de la confiance Ibid. 12 L'Education Nationale en chiffres 2020, consulté sur https://www.education.gouv.fr/l-education-nationale-enchiffres-2020-305457 13 Direction de l'évaluation de la prospective et de la performance. Elèves en situation de handicap, consulté sur https://www.education.gouv.fr/sites/default/files/2020-02/les-l-ves-en-situation-de-handicap-47819.pdf 11 7 Toujours, selon le site Education.gouv.fr, le nombre moyen d'élèves par classe est en baisse depuis 1990 (25,8 aujourd'hui contre 27,8 en 1990) mais en légère hausse depuis 2000 (25,5 en 2000)14. Le nombre d'élèves scolarisés dans le premier degré est en baisse également et l'Education Nationale prévoit que cette tendance se poursuive les années suivantes, cependant ici les raisons sont démographiques15. La principale conséquence de la mise en place de l'école inclusive est donc l'augmentation du nombre d'élèves en situation de handicap scolarisés et donc l'amplification de l'hétérogénéité des classes. Les autres mesures telles que l'abaissement de l'instruction obligatoire à partir de 3 ans ne semblent pas avoir d'impact sur le nombre d'élèves par classe puis que le taux de natalité est en baisse. 2. Les élèves à besoin éducatifs particuliers Afin de cerner l'enjeu de mon étude, il est important de regarder de plus près la notion d'élèves à besoins éducatifs particuliers pour comprendre la nature de cette dénomination et les élèves concernés. 2.1. Emergence de la notion La notion d'élèves à besoins éducatifs particuliers est apparue dans le Rapport Warnock (Royaume-Uni, 1978). La commission, qui avait pour objectif de faire état des conditions de scolarisation et des besoins des élèves en situation de handicap, n'a pas seulement pris en compte les aspects médicaux, comme initialement prévu, mais a élargie son travail en prenant en compte d'autres aspects tels que sociaux et relationnels et ne s'est donc pas arrêtée aux élèves en situation de handicap « sévère » mais « à tous les élèves qui ont besoin d'une éducation spécialisée de quelque forme que ce soit »16. Ce rapport propose alors de délaisser le terme de handicap, trop restrictif et catégorisant pour ne raisonner qu'en termes de besoins éducatifs particuliers. En effet, à l'issue de cette étude, il a pu être 14 L'Education Nationale en chiffres, 2020, education.gouv.fr Note d'information n°20.08 – Mars 2020, consulté sur https://www.education.gouv.fr/sites/default/files/2020-03/t-lcharger-la-version-imprimable-de-la-note-20-08-51933_1.pdf 16 Le rapport Warnock et la notion de besoins éducatifs particuliers, consulté sur https://www.besoins-educatifsparticuliers.fr/le-rapport-warnock-1978.html 15 8 constaté que les élèves en situation de handicap ne sont pas les seuls à avoir besoin d'une éducation spécialisée et peuvent avoir parfois les mêmes besoins qu'un autre élève et inversement. 2.2. Des définitions Les différentes recommandations établies par le rapport Warnock ont permis de forger la base de la loi anglaise sur l'éducation de 1981 (Education Act 1981) qui définit un élève à besoins éducatifs particuliers « s'il a des difficultés d'apprentissage qui nécessitent que des ressources éducatives spécialisées soient prévues pour lui »17. Une notion qui s'est étendue et fait émerger la définition internationale arrêtée d'un commun accord donnée par l'Organisation de Coopération et de Développement Économiques (OCDE) en 2008 : « les personnes ayant des besoins éducatifs particuliers se définissent par les ressources publiques ou privées supplémentaires engagées pour le financement de leur éducation » 18 . 2.3. Une classification internationale L'OCDE présente trois catégories internationales établies d'un commun accord afin de regrouper les besoins des élèves « selon les causes perçues des difficultés rencontrées » (OCDE 2008) : - « A/ Déficiences » : ce sont des besoins résultant d'une déficience d'un point de vue médical, comme les élèves en situation de handicap. - « B/ Difficultés » : ce sont des besoins dus à une difficulté d'apprentissage pouvant être durable ou passagère. - « C/ Désavantages » : ce sont des besoins dus à des difficultés socio-économiques ou culturelles comme les élèves allophones ou dans une situation familiale difficile. Nous pouvons donc constater que le terme d'élèves à besoins éducatifs particuliers concerne un grand nombre d'élèves et peut même concerner tous les élèves à un moment ou un autre de leur scolarité. Un handicap de naissance, un handicap dû à un accident, une difficulté liée à une situation familiale difficile 17 Education Act, 1981, cité par Thomazet, S. (2012). Du handicap aux besoins éducatifs particuliers. Le français aujourd'hui, n°77, p.14, consulté sur https://www.cairn.info/revue-le-francais-aujourd-hui-2012-2-page-11.htm#plan 18 Politique, statistiques et indicateur, OCDE, Élèves présentant des déficiences, des difficultés et des désavantages sociaux, chapitre 1, 2008, consulté sur https://www.oecd.org/fr/education/scolaire/41058722.pdf 9 2.4. Une classification en France En France, la DGESCO en 2003 établie une liste des élèves à besoins éducatifs particuliers 19: - Les élèves en situation de handicap - Les enfants en difficulté scolaire grave et durable - Les enfants en situation familiale ou sociale difficile - Les enfants intellectuellement précoces - Les enfants nouvellement arrivés en France (ENAF) - Les enfants malades - Les enfants du voyage - Les enfants mineurs en milieu carcéral Il me semble important de préciser la notion de handicap définie ici : « Altération des fonctions physiques, sensorielles, mentales, cognitives, psychiques, polyhandicap, trouble de santé invalidant. » qui reprend la définition du handicap de la Loi de 2005 pour l'égalité des droits et des chances, la participation et la citoyenneté des personnes handicapées : « Constitue un handicap, au sens de la présente loi, toute limitation d'activité ou restriction de participation à la vie en société subie dans son environnement par une personne en raison d'une altération substantielle, durable ou définitive d'une ou plusieurs fonctions physiques, sensorielles, mentales, cognitives ou psychiques, d'un polyhandicap ou d'un trouble de santé invalidant. » 20 (art.114). Bien qu'elle puisse parfois varier, cette catégorisation est beaucoup utilisée en France. Les classifications de la DGESCO et de l'OCDE ne sont pas organisées de la même façon mais ne se contredisent pas. Effectivement, l'OCDE propose une catégorisation plus synthétique et distingue les besoins liés à des causes médicales comme la catégorie des déficiences, les besoins liés à des causes internes à l'élève ou à l'environnement scolaire comme la catégorie des difficultés, ainsi que des causes liées à l'environnement familial de l'élève comme la catégorie des désavantages dans lesquelles nous pouvons ranger les différents profils d'élèves à besoins éducatifs particuliers donnés par la DGESCO. 2.5. Des handicaps difficilement détectables Si certaines difficultés sont passagères ou durables, liées à l'environnement de l'élève par exemple, d'autres comme nous l'avons vu ont des causes médicales : les handicaps. Le terme 19 20 besoins-educatifs-particulier.fr, Le rapport Warnock et la notion de besoins éducatifs particuliers legifrance.gouv.fr, Loi n° 2005-102 du 11 février 2005 10 handicap est souvent connoté au physique et donc visible dès les premiers mois de vie d'un enfant. Cependant, il existe des handicaps pas ou peu visibles et difficilement détectables surtout durant les premières années de l'enfant « il faut un à deux ans pour identifier formellement un trouble sensoriel ou moteur, trois à quatre ans pour repérer un trouble de la motricité fine et davantage encore pour reconnaître un trouble des fonctions cognitives ou du langage »21 et qui « peuvent facilement se confondre avec un simple retard de développement » (Guidetti et Tourrette, 2018, p37). En effet, certains handicaps ou troubles, sont difficilement détectables dans les premières années de la vie d'un enfant comme les troubles autistiques, dont le diagnostic est difficile avant trois ans et parfois même « des familles ne voient identifier la pathologie de leur enfant qu'autour de 5-6 ans, voire ultérieurement » (Guidetti et Tourrette, 2018, p.189). A l'inverse de ceux visibles, parfois de naissance comme les handicaps moteurs, les adaptations pourront être faites dès l'entrée à l'école maternelle, alors que dans ces cas-là, les démarches pour arriver à une prise en charge adaptée peuvent être longues. En effet, c'est aux parents d'entreprendre les démarches auprès de la Maison Départementale des Personnes Handicapées (MDPH) mais si ces derniers ne l'ont pas fait d'eux-mêmes, c'est à l'enseignant de le leur suggérer au regard des observations qu'il a menées en classe. L'élève doit être reconnu comme étant en situation de handicap par la MDPH, un dossier est monté et une équipe éducative se réunit par la suite pour discuter des aménagements pédagogiques à mettre en oeuvre au sein de la classe et de l'école 22 . 2.5.1. L'exemple de la dyspraxie Afin de montrer l'importance du repérage de certains troubles ou handicaps et de leur prise en charge en maternelle, dans l'ouvrage Préparer les petits à la maternelle (2019), Boris Cyrulnik entouré d'experts de la petite enfance nous présente l'exemple d'un élève dyspraxique. La dyspraxie est également appelée trouble développemental de la coordination et peut se manifester par « du désintérêt, voire du refus des jeux faisant appel à la construction, au dessin, mais aussi le refus de jeux moteurs comme le vélo, les courses, les jeux collectifs ou les difficultés pour tous les gestes de la vie quotidienne : habillage, toilette, repas, etc. » 23 seules les activités de langage ne sont pas impactées par le trouble. 21 Michèle Guidetti, et Catherine Tourrette, Handicaps et développement psychologique de l'enfant (4e édition entièrement revue et augmentée. ed.), Dunod, 2018, p.47 22 Développé dans 2.7.1. Les différents dispositifs pédagogiques 23 Boris Cyrulnik et France Présidence De La République, Préparer Les Petits à La Maternelle, Paris, Odile Jacob, 2019, p.168 11 La dyspraxie est quasiment invisible et difficilement détectable en maternelle. Dans cet exemple, nous nous rendons compte que quand elle n'est pas diagnostiquée, la dyspraxie peut être confondue avec un retard ou un manque d'investissement de la part de l'élève, on peut penser qu'il est dans l'opposition ou qu'il a un défaut d'éducation. L'enseignant ne met pas ou peu d'aménagements en place, la réponse n'est donc pas adaptée, ce qui entraîne de la frustration et un sentiment d'échec qui peut se poursuivre dans toute sa scolarité. Toujours dans ce même exemple, cet élève a finalement été diagnostiqué en fin de maternelle et a poursuivi une scolarité épanouissante grâce aux aménagements qui ont été mis en place par la suite. 2.6. La question du diagnostic Dans son article « Du handicap aux besoins éducatifs particuliers », Serge Thomazet remet en cause la catégorisation médicale. En effet, il soulève le risque de stigmatisation des élèves « amenant les enseignants à adopter des attitudes conformes, non à leurs limitations effectives, mais à celles supposées du fait de leur handicap »24. Parfois, les besoins de l'enfant sont indépendants de son trouble ou handicap et si l'on ne se base que sur l'origine de la difficulté, il peut arriver de ne pas avoir une réponse adaptée. Certains élèves peuvent également avoir les mêmes besoins mais ne pas appartenir à la même catégorie ou être par exemple en situation de handicap et suivre parfaitement bien certains enseignements, sans avoir besoin d'aménagements. Les catégories médicales sont encore trop présentes, non pertinentes selon Thomazet, et c'est pourquoi aujourd'hui il est préférable de ne raisonner qu'à travers le prisme des besoins. 2.7. Les moyens 2.7.1. Les différents dispositifs pédagogiques Afin de répondre au mieux à leurs besoins, des dispositifs adaptés à chaque profils d'élèves sont mis en place dès l'école maternelle. Un document ressource intitulé « Répondre aux besoins éducatifs particuliers des élèves : quel plan pour qui ? » proposé par l'Education Nationale permet de comprendre quel dispositif mettre en 24 Serge Thomazet, Du handicap aux besoins éducatifs particuliers. op. cit., p.13 12 place pour quel type de besoin éducatif particulier ainsi que les démarches à entreprendre afin de le mettre en place. Je ne développerai que les dispositifs pouvant être mis en place dès la maternelle. Tout d'abord, le projet d'accueil individualisé (PAI) concerne les élèves atteints de maladies chroniques comme l'asthme, le diabète ou encore ayant des allergies. Le PAI est un document écrit, rédigé par le médecin scolaire, sur lequel figure les aménagements, les traitements médicaux et les procédures à suivre en cas d'urgence pour l'élève concerné. Ensuite, Le projet personnalisé de scolarisation (PPS), concerne les élèves en situation de handicap reconnus par la MDPH selon la définition de la loi de 2005 25. C'est la famille qui saisit la MDPH pour faire part de souhaits concernant un éventuel aménagement pédagogique. L'élève doit donc être diagnostiqué et reconnu comme étant en situation de handicap. Une équipe pluridisciplinaire d'évaluation formée des professionnels de l'éducation et de santé se regroupe alors pour élaborer le PPS qui précisera les aménagements pédagogiques et les préconisations permettant sa mise en oeuvre. Cela peut être par exemple une aide humaine ou l'attribution de matériel pédagogique adapté. Le plan d'accompagnement personnalisé (PAP), concerne les élèves ayant des difficultés scolaires durables liées à un trouble des apprentissages comme la dyslexie, la dysphasie qui sont des troubles spécifiques du langage ou la dyspraxie 26. Le PAP est proposé par l'équipe pédagogique ou demandé par la famille. Le médecin scolaire, après l'analyse des bilans médicaux fournis par la famille, émet un avis sur la situation médicale de l'élève et fait état des besoins d'accompagnement pour l'élève. Suite aux préconisations, l'équipe pédagogie élabore le plan d'accompagnement pour l'élève. Il bénéficiera d'aménagements et d'adaptations pédagogiques au sein de la classe. Les élèves auxquels je m'intéresse dans le cadre de mon étude sont les élèves en situation de handicap ou ayant des troubles et non des maladies chroniques, ils sont alors concernés par le PPS et le PAP. 25 26 Détaillée dans 1.2. Dans la législation et les textes officiels Définie dans 2.5.1. l'exemple de la dyspraxie 13 2.7.2. La formation des AESH Afin d'accompagner au mieux les élèves, la loi pour une Ecole de la confiance (2019)27 prévoit également d'améliorer la condition des accompagnants des élèves en situation de handicap (AESH). Leur statut sera renforcé et leur appartenance à la communauté éducative réaffirmée. La loi prévoit également une formation initiale de 60 heures et une formation continue adaptée. Une plateforme « Cap Ecole inclusive » pour aider les enseignants dans la scolarisation de tous les élèves est mise en place et les AESH y ont également accès. 2.7.3. La formation des enseignants Il me semble pertinent, dans le cadre de mon étude de s'intéresser à la formation des enseignants. En effet, compte tenu des actions menées et des objectifs du gouvernement pour rendre l'école pleinement inclusive, il me semblait important de s'intéresser à la manière dont les enseignants, principaux acteurs de la prise en charge des élèves à besoins éducatifs particuliers, y sont formés. 2.7.3.1. La formation initiale Sur le site internet du Ministère, Devenirenseignant.gouv.fr 28, nous pouvons trouver toutes les informations nécessaires sur le parcours de formation initiale des futurs enseignants du premier degré : le master métiers de l'enseignement, de l'éducation et de la formation (MEEF), ce dernier réunissant tous les métiers de l'éducation nationale en quatre mentions : 1er degré (professeur des écoles), 2nd degré (professeur en collège et lycée), encadrement éducatif (CPE) et pratiques et ingénierie de la formation. En plus de cours liés aux différentes disciplines enseignées, à la pratique du métier, à l'utilisation des outils numériques, à la recherche, les futurs professeurs des écoles bénéficient également d'enseignements du tronc commun c'est-à-dire dispensés à tous les étudiants du master MEEF. Ces enseignements permettent d'acquérir un culture commune, de favoriser « la cohésion des équipes pédagogiques » 29. De nombreux domaines comme la laïcité, les valeurs de la République, la posture de l'enseignant ou encore la gestion des conflits sont abordés et l'école inclusive en fait partie. 27 education.gouv.fr, La loi pour une école de la confiance Devenirenseignant.gouv.fr, Les Inspé pour former les futurs enseignants, consulté sur https://www.devenirenseignant.gouv.fr/pid33962/les-inspe-pour-former-les-futurs-enseignants.html 29 Ibid. 28 14 Afin de comprendre ce que représente ces enseignements du tronc commun dans la répartition des différents enseignements dispensés dans le master MEEF 1 er degré, je suis allée consulter les maquettes du master première année et du master deuxième année de l'académie de Montpellier sur le site de l'Inspe de l'académie de Montpellier. Les différentes disciplines sont réparties en plusieurs unités d'enseignements (UE). Le tronc commun est l'intitulé de l'unité d'enseignement n°5 dans laquelle se trouve la pédagogie générale. C'est dans les cours de pédagogie générale qu'est abordé le thème de l'école inclusive. Les cours de pédagogie générale. Par exemple, dans la maquette de la première année de master, au premier semestre, le volume horaire du cours de pédagogie générale est de 18 heures sur 284 heures d'enseignement total. La maquette du deuxième semestre nous indique qu'il est de 21 heures sur 284 heures également. L'année suivante, que l'étudiant suive la deuxième année de master après obtention du concours ou sans obtention du concours, le volume horaire des cours de pédagogie générale reste à peu près le même. Cependant, selon mon expérience personnelle en master MEEF, la question de l'inclusion scolaire est présente dans tous les enseignements notamment quand il s'agit de concevoir et d'analyser des situations d'enseignement et d'apprentissage dans différentes disciplines à travers la différenciation à laquelle il faut toujours penser et les aménagements pédagogiques susceptibles d'être mis en place en fonction des élèves à besoins éducatifs particuliers que nous avons en charge ou que nous pouvons avoir en charge. 2.7.3.2. La formation continue Tout au long de sa carrière, le professeur des écoles a la possibilité de se former. En effet, « 18 heures d'animation et de formation sont comprises dans les obligations de service » 30 . Ceci représente un minimum car il existe également d'autres formations sur la base du volontariat des enseignants « fonction de leur disponibilité et des possibilités de remplacement »31. Dans le communiqué de presse du Ministre du 4 décembre 2017 « Permettre à l'école de la République d'être pleinement inclusive », le Gouvernement oriente ses actions autour de six axes, dont un est tourné vers la formation des enseignants : « Mieux informer, former et accompagner les enseignants »32. Cet axe prévoit notamment le renforcement de la formation continue « sur la 30 Devenirenseignant.gouv.fr, La formation continue, consulté sur https://www.devenirenseignant.gouv.fr/cid99034/laformation-continue.html 31 Ibid. 32 Education.gouv.fr, Permettre à l'Ecole de la République d'être pleinement inclusive, consulté sur https://www.education.gouv.fr/permettre-l-ecole-de-la-republique-d-etre-pleinement-inclusive-11501 15 compréhension du handicap et les adaptations scolaires »33, ainsi qu'un accès facilité à des ressources via une plateforme numérique nationale telle que MAGISTERE ou plus récemment « Cap école inclusive » ainsi que la possibilité d'être mis en relation et accompagné par des formateurs spécialisés. 3. L'école maternelle 3.1. La refondation de l'école maternelle Afin de respecter les différents rythmes d'apprentissage des élèves, La loi du 8 juillet 2013 d'orientation et de programmation pour la refondation de l'école de la République découpe la scolarité en quatre cycles pédagogiques de la maternelle au lycée. Un seul et unique cycle est créé pour l'école maternelle nommé « cycle des apprentissages premiers ». La place importante de la maternelle est soulignée la plaçant comme une première étape fondamentale dans la scolarité de l'élève qui lui permettra d'acquérir les premiers apprentissages essentiels à la suite de sa scolarité. Les mesures de refondation prévues par cette loi comptent notamment l'élaboration de nouveaux programmes. Le Bulletin Officiel spécial du 26 mars 2015 est consacré à celui de la maternelle, entré en vigueur à la rentrée 2015. Ce nouveau programme place la maternelle comme « l'école de l'épanouissement et du langage »34 et organise les enseignements en cinq domaines d'apprentissages : - Mobiliser le langage dans toutes ses dimensions - Agir, s'exprimer, comprendre à travers l'activité physique - Agir, s'exprimer, comprendre à travers les activités artistiques - Construire les premiers outils pour structurer sa pensée - Découvrir le monde Avec pour chaque domaine des objectifs visés en fin de cycle ainsi que des éléments donnant des repères sur l'organisation de la progressivité des apprentissages. En 2019, la loi pour une école de la confiance 35, abaisse l'âge de l'instruction obligatoire à trois ans. Un nouveau programme d'enseignement de l'école maternelle entre alors en vigueur pour Education.gouv.fr, Permettre à l'Ecole de la République d'être pleinement inclusive Education.gouv.fr, Programme d'enseignement de l'école maternelle, consulté sur https://www.education.gouv.fr/aubo-du-30-juillet-2020-programmes-d-enseignement-pour-le-primaire-et-le-secondaire-305398 35 Détaillée dans 1.2.1. La loi pour une école de la confiance 33 34 16 la rentrée 2020. Ce dernier ne modifie pas grandement l'ancien mais insiste sur les activités langagières et renforce les enseignements liés au développement durable et à l'environnement. 3.2. Les enjeux de l'école maternelle « Tous les chercheurs ont souligné unanimement l'importance des 2000 premiers jours de la vie d'un enfant dans sa structuration psychique et intellectuelle. » 36 tels sont les mots du Ministre de l'Education Nationale Jean-Michel Blanquer au sujet des Assises de la maternelle de Mars 2018. En effet, les 2000 premiers jours de la vie d'un enfant correspondent à ses cinq premières années, période de la fréquentation de l'école maternelle. Cette dernière intervient alors à un stade important du développement de l'enfant, elle a donc un rôle essentiel et ses enjeux sont considérables. Afin de mieux comprendre ces enjeux, il est important de s'intéresser aux différents aspect du développement de l'enfant grâce à quelques-uns des principaux travaux à ce sujet. 3.2.1. Les principales théories du développement de l'enfant du XXe siècle Virginie Laval dans son ouvrage La psychologie du développement. Modèles et méthodes (2019) présente les principales théories classiques du développement. Il s'agira d'en présenter deux des plus connues qui permettront de comprendre l'enjeu de l'école maternelle dans le développement de l'enfant. 3.2.1.1. La théorie du développement cognitif de Jean Piaget Jean Piaget a développé une théorie selon laquelle les enfants passent par différents stades de développement. Ces derniers sont déterminés en fonction de l'âge et se suivent les uns les autres. Ils n'apparaissent pas à un moment précis mais il y a des périodes durant lesquelles certaines capacités cognitives sont développées chez la plupart des enfants. Il y a quatre principaux stades de développement selon J. Piaget qui sont : 36 - Le stade sensori-moteur (naissance à environ 2 ans) - Le stade préopératoire (2 à 7 ans) - Le stade des opérations concrètes (7 à 12 ans) - Le stade formel (12 à 16 ans) Cité dans Boris Cyrulnik et France Présidence De La République, op. cit., p.230 17 Le stade auquel je m'intéresse est le stade préopératoire car c'est celui qui correspond à la période d'âge que j'étudie. Selon Piaget, d'environ deux ans à sept ans, les enfants sont dans un stade appelé préopératoire dont le concept prédominant est l'égocentrisme. En effet, les enfants de cet âge-là sont incapables de se mettre à la place de quelqu'un, ils croient que les autres pensent et voient comme eux. La première scolarisation qui intervient au coeur de cette période est un moment très important car c'est le début de la socialisation et l'acquisition du langage dans une période où l'enfant est encore très centré sur lui-même, ce qui l'aidera à surmonter ce stade et passer au suivant. 3.2.1.2. La théorie socioculturelle du développement de Vigotsky Les théories du développement de Vigotsky et Piaget se rejoignent sur certains points mais sont opposées sur d'autres. Pour Piaget, le développement s'effectue de l'individu vers le social, c'està-dire que le développement est un processus cognitif interne qui précède l'apprentissage alors que Vygotski pense au contraire que l'apprentissage social vient avant le développement. Ce dernier est donc influencé par les interactions sociales. Vigotsky expose également le concept de la zone proximale de développement selon lequel un tiers va permettre à l'enfant d'atteindre les compétences qu'il ne peut pas atteindre seul. La difficulté est donc de trouver le juste milieu entre ce que l'élève est en capacité de faire seul et ce qu'il est en capacité de faire avec une aide. Les interactions sont donc très importantes ainsi que l'attention portée à chaque enfant pour lui venir en aide et l'accompagner dans ses apprentissages est essentielle. L'adulte a un rôle de guide. 3.2.2. Des travaux plus récents Plus récemment, de nouveaux travaux sur le développement de l'enfant ont fait évoluer les théories existantes. En effet, ces recherches récentes ont permis de comprendre que le développement de l'enfant n'est pas linéaire et régulier et qu'il connaît parfois des régressions. L'enfant ne passe pas forcément d'un stade à l'autre et un stade dépassé n'est pas forcément acquis, il peut y avoir des retours en arrière. Connaître le développement de l'enfant et leur psychologie est important pour permettre aux enseignants de mieux les comprendre mieux les accompagner. Agnès Florin, psychologue, s'est également intéressée au développement psychologique de l'enfant. Dans son ouvrage Introduction à la psychologie du développement (enfance et adolescence) (2003), elle montre notamment l'impact de l'adulte sur le développement de l'enfant, qui permet de comprendre l'importance du guidage de l'enseignant dans l'évolution de l'élève et comment celui-ci 18 peut l'accompagner dans ses apprentissages. Dans ses travaux, le langage est également au coeur de ses travaux et représente un élément important dans le développement de l'enfant. Qu'ils soient le résultat du développement ou sa cause, le langage et les interactions sociales sont omniprésents et essentiels pour le développement de l'enfant, tous les travaux sur ce sujet le démontrent. C'est pour cela que le langage est un élément central des programmes d'enseignement de l'école maternelle, tant comme un objectif à atteindre qu'un moyen pour apprendre. Se sentir bien et en confiance à l'école, avec des adultes bienveillants, qui savent être attentifs et répondre aux besoins des élèves ainsi qu'avoir des relations avec les autres, être intégré dans un groupe-classe est alors essentiel pour le bon développement de l'enfant. 3.2.3. Le rôle du cycle 1 « L'école maternelle est une école bienveillante. [] Sa mission principale est de donner envie aux enfants d'aller à l'école pour apprendre, affirmer et épanouir leur personnalité. » 37 Telles sont les premières lignes du BO spécial n°2 du 26 mars 25 concernant le nouveau programme de l'école maternelle qui la caractérise selon trois grands axes : - « Une école qui s'adapte aux jeunes enfants » - « Une école qui organise des modalités spécifiques d'apprentissage » - « Une école où les enfants vont apprendre ensemble et vivre ensemble » Le cycle 1 tient un rôle majeur dans la scolarité de l'élève. 3.2.3.1. Permettre d'acquérir des premières compétences essentielles Comme son nom l'indique, le cycle 1 des apprentissages premiers, a pour objectif de fournir aux élèves les premières connaissances et compétences nécessaires à l'acquisition des savoirs fondamentaux du cycle suivant. Cette transmission est organisée autour de modalités spécifiques d'apprentissage comme y fait référence le deuxième axe du programme : le jeu, la résolution de problèmes, l'entraînement, la manipulation. Ces premiers apprentissages concernent notamment le développement du langage, élément essentiel à la structuration des apprentissages. Ce dernier est présent dans chaque situation de classe 37 Bulletin officiel spécial n°2 du 26 mars 2015, Programme d'enseignement de l'école Maternelle 19 sous forme d'échanges avec les élèves et d'évocation des activités, d'acquisition de vocabulaire nouveau, entre autres. La socialisation fait également partie des apprentissages essentiels et le troisième axe du programme y fait référence. Les élèves vont évoluer individuellement mais également collectivement au sein du groupe classe. Pour certains, la petite section sera synonyme de premier contact avec des enfants du même âge et l'école maternelle veille à ce que chacun acquière les principes du vivreensemble. 3.2.3.2. Donner le plaisir d'apprendre Dans l'ouvrage Préparer les petits à la maternelle, Boris Cyrulnik souligne le rôle important de l'affect dans l'apprentissage et explique qu'il faut « sécuriser l'enfant pour lui donner le plaisir de faire l'effort d'apprendre »38. C'est ce que se donne comme mission l'école à travers le premier axe du programme. S'adapter aux jeunes enfants vise à les sécuriser affectivement et leur permettre de développer leur confiance en eux, ce qui favorisera l'envie d'aller à l'école et d'apprendre. L'école maternelle est bienveillante, elle se veut de tenir compte du développement de chaque enfant, de les valoriser et les accompagner en répondant à leurs besoins. 3.2.3.3. Repérer les premières difficultés L'école maternelle est le premier lieu de scolarisation et les enfants sont confrontés à des situations parfois inédites. Ceci peut engendrer des difficultés qui peuvent amener au diagnostic d'un éventuel trouble ou handicap. La vigilance des enseignants est alors importante car ils vont pouvoir déceler ces difficultés et mettre en place des aménagements pédagogiques adaptés. Ce repérage précoce, renforcé par les mesures prises dans la loi pour une école de la confiance (abaissement de l'âge de l'instruction obligatoire et organisation de visites médicales) pourrait permettre, si cela se révèle être nécessaire, d'entamer des démarches afin que l'élève puisse bénéficier d'un dispositif d'accompagnement le plus tôt possible. Ces informations seront également fondamentales pour la suite de la scolarité et il est important que l'élève qui en a besoin puisse bénéficier d'aménagements dès son entrée au CP. 38 Boris Cyrulnik et France Présidence De La République, op. cit., p.41 20 III. Partie expérimentale 1. Problématique 1.1. Constat personnel et interrogations Mon mémoire a pour thème l'école inclusive. Le sujet porte spécifiquement sur le diagnostic d'élèves en maternelle. Comme évoqué en introduction, ce choix a été induit dans un premier temps par mon expérience personnelle et les problèmes auxquels je faisais fasse en classe, c'est-à-dire : être en difficulté face à plusieurs élèves qui présentent des troubles du comportement et/ou des apprentissages sans en connaître l'origine et donc sans savoir vraiment quoi mettre en place comme aménagements en classe et sans avoir la possibilité de mettre en place un dispositif d'accompagnement adapté. Je me suis alors posé la question de l'inclusion scolaire car dans toutes les recherches que j'ai menées, dans les documents ressources à destination des enseignants et les lectures que j'ai faites, que cela soit l'accueil d'élèves en situation de handicap ou présentant un trouble quelconque, on suppose dans la plupart des cas que la nature de la difficulté soit connue et c'est en fonction de cela que l'on donne les démarches à entreprendre et les moyens mis à disposition comme la mise en place d'un PPS pour un enfant en situation de handicap ou d'un PAP pour un élève avec un trouble d'apprentissage. Or, qu'en est-il des élèves en attente de diagnostic ? Qu'en est-il des élèves en maternelle dont le diagnostic n'est pas possible à cause de leur jeune âge ? C'est alors également toute la complexité de l'école maternelle qui accueille des jeune enfants, qui vivent leurs premières années de scolarisation et qui font face à des situations inédites. Ce sont ces mêmes situations qui font apparaître des difficultés pouvant révéler un handicap non détecté plus tôt. Ainsi, qu'en est-il d'un élève en maternelle que l'on suspecte porteur de trouble mais qui n'a pas de diagnostic car encore trop jeune ? Peut-on alors déjà mettre en place un dispositif d'accompagnement pleinement adapté à ses besoins ? Peut-on répondre de manière optimale à ses besoins si nous n'en connaissons pas l'origine ? Je me suis également posée la question de la formation des enseignants et de leur capacité à accueillir ces élèves. - De ce fait, l'inclusion est-elle plus difficile en maternelle ? - Comment prend-on en charge les élèves non diagnostiqués en maternelle ? - Le non-diagnostic des élèves en maternelle est-il un obstacle à leur prise en charge ? 21 Toutes ces interrogations m'ont menée à m'intéresser à ce sujet, dans le cas particulier de l'école maternelle, du point de vue des enseignants et à formuler la problématique suivante : En quoi le diagnostic d'un trouble/d'un handicap en maternelle permettrait à l'enseignant un meilleur accompagnement des apprentissages de l'élève et ainsi réussir l'inclusion ? 1.2. Hypothèses 1.2.1. Le diagnostic permettra une meilleure prise en charge de l'élève car il pourra bénéficier d'un dispositif adapté à ses besoins. Nous l'avons vu dans la partie théorique, la maternelle est une étape importante et déterminante dans la scolarité de l'élève alors il faut qu'il soit pris en charge correctement dès le début et cela passe par le fait de bénéficier d'un dispositif d'enseignement adapté à ses besoins. Ce dispositif, que ce soit un aménagement pédagogique ou une aide humaine, aidera également l'enseignant à accompagner l'élève dans ses apprentissages puisqu'il pourra aussi s'y appuyer. 1.2.2. Un élève de maternelle demande beaucoup d'attention et un élève à besoins éducatifs particuliers en demande d'autant plus. S'il n'est pas diagnostiqué et ne bénéficie pas d'un dispositif (une aide humaine par exemple), il est difficile de lui consacrer l'attention dont il a besoin. Comme nous l'avons vu, les premières acquisitions en maternelle sont fondamentales et préparent à la suite de la scolarité de l'élève, l'enseignant doit être attentif aux besoins de chacun, à leur développement et leur bien-être. C'est un comportement que l'on ne doit pas adopter qu'au premier cycle mais il est d'autant plus important que le cycle 1 sont les trois premières années de scolarisation de l'élève. Ces derniers sont jeunes, manquent encore d'autonomie, vivent les premières séparations avec leurs parents alors ils sont en demande de beaucoup d'attention. Il est évident qu'un élève de maternelle ayant des besoins éducatifs particuliers et plus précisément un handicap ou trouble a besoin d'encore plus d'attention. D'autant plus que certains handicaps se manifestent par des troubles du comportement parfois difficilement gérables par les enseignants en classe. Sans diagnostic et sans dispositif, notamment la présence d'une AESH, cela complique la gestion de cet/ces élève(s) ainsi que du reste de la classe. 1.2.3. En classe, l'enseignant pourra mieux adapter sa pédagogie en connaissant la nature des difficultés de l'élève. En m'appuyant sur l'exemple de la dyspraxie que j'ai abordé dans le cadre théorique, nous avons vu que certains handicaps étant difficilement détectables en maternelle, peuvent être parfois 22 confondus avec un manque de volonté de la part de l'élève, un manque d'éducation qui peuvent entraîner une mauvaise prise en charge de ce dernier et un suivi non adapté. Si l'enseignant connaît la cause des difficultés de l'élève, notamment une cause médicale, cela lui permettra d'adapter sa pédagogie à son handicap ou trouble. 2. Contexte d'étude 2.1. Méthode de recueil de données J'ai choisi de traiter cette problématique du point de vue des enseignants et il m'a semblé que la méthode la plus pertinente et appropriée pour mener ma recherche était de conduire des entretiens compréhensifs sur la base d'un questionnaire que j'ai élaboré en amont. L'objectif est de savoir si d'autres enseignants accueillent des élèves à besoins éducatifs particuliers, s'ils sont diagnostiqués ou s'ils ne le sont pas, les aménagements mis en place par l'enseignant si l'élève ne peut pas bénéficier d'un dispositif, ce qui marche selon eux ou est à améliorer dans leur inclusion afin de mettre en lumière si le non-diagnostic est un obstacle à la prise en charge de ces élèves. Je voulais également que cet entretien prenne la tournure d'un échange de savoirs et savoir-faire et un partage de réflexions sur notre métier. 2.2. Public interrogé Afin d'avoir des réponses au plus proche de la réalité du terrain, je me suis entretenue avec une population d'enseignants de maternelle hétérogènes avec des années d'expérience, des âges et des parcours variés. Le choix des personnes interrogées a été fait en fonction du profil de l'enseignant et non pas de la classe ou de la présence d'élèves à besoins éducatifs particuliers. Ce dernier paramètre m'était inconnu avant de mener mes entretiens car il permet de se rendre compte de la fréquence et du nombre d'élèves à besoins éducatifs particuliers présents dans les classes en général. J'ai mené cinq entretiens composés d'un seul homme, en première année de titularisation, sans spécialité, deux femmes ayant neuf et dix-neuf années d'années d'enseignement sans spécialités non plus, une jeune PES et une enseignante titulaire du Certificat d'aptitude aux fonctions d'instituteur ou de professeur des écoles maître formateur (CAFIPEMF) ayant suivi des formations sur les troubles du spectre autistique enseignant en REP+. 23 3. Résultats et analyse 3.1. Résumé des entretiens Tous les entretiens sont menés à partir du même questionnaire mais la plupart des questions sont ouvertes alors certaines sont adaptées aux réponses précédentes. Dans cette partie, il s'agit d'extraire les réponses clés de chaque entretien afin de pouvoir les comparer entre elles et les analyser au regard des connaissances théoriques et des hypothèses que j'ai formulées au départ. Parfois les enseignants ont répondu à certaines questions telles que l'intérêt du diagnostic ou des solutions qui permettraient une meilleure inclusion, non pas en fonction de leur situation actuelle mais par rapport à des expériences passées ou des observations de collègues, ce qui je pense est d'autant plus intéressant car les réponses récoltées vont au-delà d'une situation précise et reflètent bien le ressenti général des enseignants sur la question de l'inclusion. Cela m'a également permis de mettre en lumière d'autres problématiques qui ne font pas parties de mon sujet de départ mais peuvent aider dans la quête de la mise en place d'une école pleinement inclusive. Tout d'abord, j'ai mené mon premier entretien auprès d'un enseignant en première année de titularisation, sans spécialité en remplacement long (toute l'année scolaire) d'une classe de petite et grande section de 27 élèves. Il accueille trois élèves à besoins éducatifs particuliers en grande section : deux élèves ayant des problèmes d'élocution et un élève allophone. L'élève allophone ne fait pas partie du public d'élèves auquel je m'intéresse car c'est bien un élève à besoins éducatifs particuliers mais ses difficultés ne résultent pas d'un diagnostic médical. Les deux autres élèves ont des difficultés qui pourraient relever d'un éventuel trouble des apprentissages comme un trouble dys, c'est d'ailleurs ce que soupçonne l'enseignant, mais aucun diagnostic spécifique n'est posé. Un des élèves bénéficie d'un suivi orthophonique depuis l'année précédente et l'autre a été dirigé vers un bilan orthophonique. Afin d'inclure et d'accompagner ces élèves dans leurs apprentissages, cet enseignant met en place un système de tutorat et intègre l'élève allophone au groupe des petites section pour reprendre les bases de la langue française. Cet enseignant pense que l'obstacle à une meilleure prise en charge de ces élèves à besoins éducatifs particuliers est principalement le nombre d'élèves en classe qui est trop important et ne permet pas de pouvoir accorder un temps nécessaire à chacun. 24 Je me suis ensuite entretenue avec une enseignante titulaire de secteur ayant neuf ans d'expérience et travaillant avec trois classes : une classe de petite et grande section, une classe de moyenne section et une classe de petite section. Elle accueille plusieurs élèves à besoins éducatifs particuliers parmi les élèves de petite section et de grande section. Certains sont diagnostiqués de troubles du spectre autistique, troubles de l'attention et hyperactivité. Les autres sont en cours de diagnostic, certains présentent des retards de développement ou des troubles des apprentissages qui mèneront peut-être au diagnostic d'une dysphasie pour l'un d'entre eux. Toutes les démarches ont été entreprises pour ces élèves, c'est-à-dire que tous ont été vus par le médecin scolaire, ont bénéficié d'une équipe éducative et sont suivis à l'extérieur. Pour certains depuis l'année précédente et bénéficient d'une aide humaine et pour d'autres depuis cette année et sont en attente de notification qui ne pourra être mise en place peut-être que pour l'année prochaine. Les solutions apportées par l'enseignante pour ces élèves et notamment pour les élèves en attente de diagnostic et de notification (ce qui m'intéresse le plus dans le cadre de mon étude), sont de différencier, d'essayer d'adapter les activités au niveau du temps et des difficultés et parfois l'AESH d'un élève prend en charge également un des élèves qui attend de bénéficier d'une aide humaine pour qu'il puisse avoir l'attention dont il a besoin. Selon cette enseignante ces aménagements ne suffisent pas et ne permettent pas d'inclure correctement ces élèves. Tout d'abord car même si les démarches ont été entreprises, elles sont longues et les élèves ne pourront pas bénéficier de l'aménagement nécessaire de suite et bien souvent il faudra attendre l'année d'après (notamment pour une AESH). Elle pense également qu'il y a de plus en plus d'élèves à besoins éducatifs particuliers accueillis dans les classes et que cela devient difficile de les prendre en charge correctement ainsi que le reste de la classe car des enfants de cet âge-là demandent déjà beaucoup d'attention et un élève en situation de handicap encore plus. D'après elle le diagnostic d'un élève peut aider l'enseignant mais pour les raisons qu'elle a évoquées, cela ne suffira pas. Ensuite, je me suis entretenue avec une enseignante sans spécialité non plus, qui a 19 ans d'ancienneté et enseigne dans une classe de petite et moyenne section de 27 élèves. Elle accueille un seul élève à besoins éducatifs particuliers en moyenne section qui a un mutisme sélectif à la suite d'un choc pendant sa première année de scolarisation. Il refuse de parler à l'école avec les adultes et les enfants. Ce sont les parents qui ont entrepris des démarches depuis la fin de l'année précédente, 25 cet enfant bénéficie d'un suivi extérieur chez un pédopsychiatre et un orthophoniste. Il a également des difficultés dans d'autres domaines mais l'enseignante n'arrive pas à détecter un éventuel trouble des apprentissages. Il ne bénéficie pas d'aménagements au sein de l'école et n'en a pas besoin. L'enseignante ne met pas en place d'adaptation particulière. Dans ce cas de figure, le suivi extérieur suffit pour l'instant et il n'y a pas d'obstacle à l'inclusion de cet élève car il ne réfute pas l'idée d'aller à l'école. Il y a de l'amélioration dans les relations avec les autres élèves et progresse au niveau des apprentissages. Cependant, j'ai demandé à cette enseignante son avis sur sa formation et sur l'apport de celleci concernant l'accueil des élèves à besoins éducatifs particuliers car elle m'avait fait part en début d'entretien de ses manques et de son auto-formation face à certaines situations qu'elle a pu rencontrer. Elle m'a répondu qu'elle pensait qu'il n'y avait pas assez de formation notamment sur les élèves à besoins éducatifs particuliers et les handicaps, pour les comprendre, les reconnaître et savoir comment les accueillir. Selon elle, le diagnostic des élèves peut aider l'enseignant mais il reste l'obstacle du manque de formation car l'élève peut être diagnostiqué mais encore faut-il savoir comment agir, puis il y a un second obstacle selon elle c'est le nombre d'élèves dans les classes trop important pour pouvoir s'occuper pleinement de chacun. Mon quatrième entretien a été mené auprès d'une professeur des écoles stagiaire (PES) qui est en responsabilité d'une classe de petite section de 24 élèves. Elle accueille un élève en cours de diagnostic pour suspicion d'autisme et d'hyperactivité très difficile à gérer en classe puisqu'il ne reste pas assis, se met facilement en colère et peut parfois avoir des comportements dangereux. Une demande d'aide humaine a été faite mais celle-ci n'a pas encore aboutie car la maman est réticente au diagnostic de son enfant. Pour l'inclure dans la classe et l'accompagner dans ses apprentissages, cette enseignante tente de le prendre en activité mais il ne reste pas, elle essaie de le prendre à part individuellement pour travailler pendant des moments où elle le peut comme à l'accueil. Elle m'a fait part de ses difficultés à gérer cette situation et selon elle, cela ne suffit pas, cet élève a vraiment besoin d'une aide humaine car il doit être pris en charge individuellement par un adulte, il a besoin de beaucoup d'attention et de surveillance. Enfin, d'après elle, le diagnostic pourra l'aider dans le sens où cela permettra d'aboutir les démarches. Enfin, mon dernier entretien a été mené auprès d'une enseignante titulaire du CAFIPEMF. Elle enseigne dans une classe de petite et grande section de 15 élèves en réseau d'éducation prioritaire renforcé (REP+). Elle a suivi des formations sur les élèves en situations de handicap et plus précisément sur les troubles du spectre autistique (TSA). Elle accueille un élève ayant des TSA en 26 grande section qui bénéficie d'une AESH depuis les années précédentes et un élève de petite section ayant des difficultés de motricité et une suspicion de TSA bénéficiant également d'aide humaine. Grâce aux apports de ses formations, cette enseignante a pu mettre en place des aménagements adaptés à ses élèves tels qu'un système de pictogrammes pour communiquer qui permet à l'élève de se repérer dans l'école et dans le temps, un système de récompense pour le motiver à faire les activités et l'aider à progresser. Elle aménage également les temps en classe et les activités et les adapte aux problématiques de ses élèves. L'inclusion est une réussite dans ce cas de figure et les élèves progressent. Cependant, elle est consciente que ce n'est pas le cas et que les conditions pour une inclusion réussie ne sont pas toujours réunies. D'après elle les enseignants ne sont pas assez formés, ils manquent de temps pour cela et les moyens nécessaires ne sont pas toujours déployés. Le diagnostic peut aider les enseignants dans la mesure où si l'élève est déjà diagnostiqué cela signifie que des démarches ont été entreprises du côté des parents et que l'élève est suivi à l'extérieur, ce qui ne peut avoir d'un impact positif sur le travail en classe. 3.2. Tableau récapitulatif des réponses Entretien Entretien 2 Entretien Entretien 4 1 Années Entretien 5 3 1 9 19 PES 15 Non Non Non Non CAFIPEMF d'enseignement Spécialisation / formation Formations sur les handicaps et TSA Milieu dans lequel Ordinaire Ordinaire Ordinaire Ordinaire REP+ se trouve l'école Rural Rural Rural Urbain Urbain Classe(s) PS/GS 3 classes : PS/MS PS PS/GS 27 élèves 24 élèves 15 élèves Oui Oui Oui PS 27 élèves MS PS/GS Elève(s) à besoins Oui Oui éducatifs particuliers 27 Ayant un trouble / Oui Oui Diagnostiqués Non Nature du trouble Dysphasie Non Oui Oui Oui et en cours / En cours Oui et en cours TSA TSA TSA handicap ou suspicion / ou handicap Hyperactivité diagnostiqué ou Dysphasie Hyperactivité soupçonné Nature du/des Difficulté Retard de Mutisme besoin(s) d'élocution développement éducatif(s) Retard de particulier(s) autre langage que Allophone / Difficultés motrices handicap/trouble Aménagement(s) Non Certains oui Non, pas En attente Oui, aide pédagogique(s) aide humaine, de d'aide humaine dans le cadre d'un d'autres en nécessité humaine plan attente d'aide d'accompagnement humaine Solutions mis en Tutorat Différenciation Pas place par Groupes Aide des l'enseignant hétérogènes AESH d'autres Difficultés à Système de nécessaire mettre en pictogramme et place des de récompense élèves « solutions » Obstacle(s) à Nombre Lenteur des Manque Manque Inclusion l'inclusion selon important démarches de d'aide réussie l'enseignant (de d'élèves en Nombre formation humaine Manque de manière générale classe d'élèves à Nombre formation ou par rapport à besoins important Manque de leur situation) éducatifs d'élèves moyens (avis particuliers en en classe général) classe 28 Intérêt du Oui mais Oui mais Oui Oui pour les diagnostic pour minime car pas démarches et le l'enseignant d'autres seulement suivi problèmes 3.3. Analyse Tout d'abord, dans les entretiens que j'ai menés, nous pouvons constater que tous les enseignants accueillent un à plusieurs élèves à besoins éducatifs particuliers. Comme je l'ai évoqué précédemment, ce paramètre m'était inconnu avant de mener mes entretiens car je voulais refléter également la fréquence de la présence d'élèves à besoins éducatifs particuliers dans les classes et nous voyons que sur cinq entretiens, tous les enseignants en accueillent chacun au moins un. Comme nous l'avons vu dans la partie théorique, les besoins éducatifs particuliers sont multiples et beaucoup d'élèves peuvent être concernés, de manière durable ou passagère, allant d'un milieu familial/social difficile au trouble des apprentissages (par exemple la dyspraxie) ou handicap (par exemple TSA). Dans ma problématique, je pose la question de l'intérêt du diagnostic, je m'intéresse donc plus particulièrement aux élèves en situation de handicap ou ayant un trouble des apprentissages. Sur les cinq entretiens que j'ai menés, trois enseignants accueillent des élèves diagnostiqués ou en cours de diagnostic principalement pour des TSA ou des troubles dys. Un enseignant soupçonne une dysphasie chez un de ses élèves mais aucun diagnostic n'est en cours. Sur les cinq enseignants avec lesquels je me suis entretenue, il y en a donc quatre qui sont concernés par l'éventuel diagnostic d'un trouble ou d'un handicap. L'échantillon d'enseignants auprès desquels j'ai mené ma recherche n'est pas assez élargi pour prétendre refléter exactement la réalité mais les milieux et situations étant variés et ce paramètre étant aléatoire dans le choix des enseignants avec lesquels m'entretenir, cela nous renseigne quand même sur le fait qu'il y a certainement une grande partie des enseignants qui accueillent au moins un élève en situation de handicap ou ayant un trouble des apprentissages. De plus, dans trois entretiens sur cinq, un ou plusieurs élèves de la classe sont atteints ou sont en cours de diagnostic de TSA et/ou d'hyperactivité, des handicaps particulièrement difficiles à gérer au sein d'une classe par les enseignants. Une enseignante raconte sa difficulté pour gérer son élève de petite section en cours de diagnostic de TSA et d'hyperactivité, sans AESH qui essaie de sortir régulièrement de la classe, qui se met parfois en danger, qui ne reste pas assis à une place et qui n'a aucune autonomie. Environ la moitié des élèves ayant besoin d'une aide humaine en bénéficient et les autres sont en attente. Les élèves qui en bénéficient sont des élèves de grande section qui étaient diagnostiqués 29 précédemment et ont été notifiés depuis l'année d'avant pour la plupart. Les élèves de petite section sont en attente de pouvoir en bénéficier, sauf dans le cas du dernier entretien où l'élève de petite section en bénéficie depuis peu. Chaque enseignant dont les élèves sont dans ce cas (entretien 2 et 4) m'ont fait part de leur difficulté à prendre en charge ces élèves. Les principales raison de ces attentes sont certainement le fait que les difficultés ont été détectées à l'école lors de la première scolarisation, qu'aucune démarche n'avait été entreprise par les parents avant pour détecter un éventuel handicap. Ce qui est normal car nous avons vu dans la partie théorique que c'est en général lorsque l'élève est confronté à de nouvelles contraintes notamment lors de la première scolarisation que des difficultés se révélant être les premiers symptômes d'un handicap apparaissent. Le seul élève de petite section qui en bénéficie (entretien 5) est scolarisé depuis la toute petite section alors les difficultés avaient pu déjà être observées. Dans le quatrième entretien, l'enseignante explique que la maman de l'élève est réticente, ce qui ralenti les démarches. Dans le deuxième entretien, l'enseignante fait part de la lourdeur des démarches qui parfois « dépassent les parents »39, ce qui les retardent alors qu'elles sont déjà assez longues. Je vais à présent m'intéresser aux réponses obtenues à la question des obstacles à l'inclusion de ces élèves selon les enseignants. J'ai demandé à chaque enseignants si selon eux, les aménagements mis en place par eux-mêmes ou dans le cadre d'un dispositif étaient suffisants et sinon ce qui selon eux permettrait une meilleure prise en charge des élèves. Deux enseignantes ont répondu oui par rapport à leur situation actuelle (entretiens 3 et 5) mais ont fait part dans d'autres questions des difficultés, en rapport avec leurs expériences passées ou leurs observations, qui pouvaient, d'une manière générale, faire obstacle à l'inclusion des élèves à besoins éducatifs particuliers. En effet, même si le troisième entretien ne concerne pas un élève diagnostiqué ou susceptible d'être diagnostiqué, le témoignage de l'enseignante est intéressant car il nous renseigne tout d'abord sur le fait qu'il y a des classes qui n'en accueillent pas toujours puis que l'on peut faire face à des élèves ayant d'autres problématiques, ici un mutisme, auxquelles nous avons peut-être moins l'habitude de faire face. De plus, cette enseignante, par son expérience passée a pu répondre à la question de l'intérêt du diagnostic et a également donné son avis sur la formation. Selon elle, il n'y a pas assez de formation sur les troubles des apprentissages et les handicaps. En effet, elle explique que dans sa formation initiale il y a 19 ans, ce sujet n'avait jamais été abordé et il l'a très peu été durant sa formation continue. C'est seulement cette année qu'elle a assisté à une formation sur les différents handicaps et le repérage de ceux-ci. Cela l'a beaucoup aidée et l'aidera 39 Annexe 2 30 pour ses futurs élèves mais jusque-là elle a dû se former seule en faisant des recherches. L'enseignante du cinquième entretien pense également que les enseignants ne sont pas assez formés car elle-même a suivi des formations sur les TSA et d'autres handicaps mais sur la base du volontariat, ce qui selon elle n'est pas à la portée de tous les enseignants. Ce manque de formation fait donc partie des obstacles selon deux enseignantes et si nous regardons les autres réponses, le nombre d'élèves revient dans trois entretiens que cela soit le nombre d'élèves en classe (entretiens 1 et 3) ou le nombre d'élèves à besoins éducatifs particuliers présents en classe (entretien 2). En effet, ces enseignants estiment que ce qui rend également difficile la prise en charge des élèves à besoins éducatifs particuliers est qu'ils sont de plus en plus nombreux dans une même classe mais aussi que les effectifs des classes qui les accueillent sont trop importants. Nous relevons également dans le deuxième entretien la lenteur des démarches qui ralentissent la mise en place d'un aménagement en lien avec le manque d'AESH formulé dans le quatrième entretien. Le diagnostic des élèves n'ayant pas été formulé directement par les enseignants comme étant l'un des obstacles à l'inclusion, ou un paramètre la facilitant, nous y reviendront ultérieurement. Au regard des réponses obtenues, je retiendrai que le nombre d'élèves en classe, le manque de formation et le manque de moyens (mise en place des dispositifs, possibilité de participer à une formation) sont les principaux obstacles de l'inclusion des élèves à besoins éducatifs particuliers relevés par les enseignants interrogés. L'enseignante dans le cinquième entretien est consciente que sa situation favorise une prise en charge optimale de ses élèves mais que ce n'est pas un cas majoritaire. En effet, cette dernière est la seule enseignante à accueillir des élèves en situation de handicap ayant répondu que les dispositifs et aménagements mis en place suffisent. Nous avons donc un exemple d'inclusion réussie. Si nous la comparons aux autres situations, contrairement aux autres enseignants, cette dernière enseigne certes dans une école classée REP+ mais elle a seulement 15 élèves en charge, elle a une spécialisation (CAFIPEMF) mais elle a surtout suivi des formations sur les handicaps qui lui ont permis d'acquérir les connaissances et les outils nécessaires pour inclure un élève en situation de handicap. Enfin, l'élève de grande section bénéficiait déjà d'une AESH et l'élève de petite section a pu en bénéficier d'une également assez rapidement. D'après cette comparaison, nous pouvons observer que cette situation réunit tous les éléments qui manquent selon les autres enseignants pour réussir l'inclusion. 31 Concernant la question du diagnostic, les enseignants ont répondu que celui-ci pouvait les aider notamment dans la gestion des élèves, pour leur permettre de pouvoir faire des recherches afin mieux comprendre et adapter leur pédagogie. Selon l'enseignante du dernier entretien, si l'élève est diagnostiqué cela signifie également que les démarches auprès des parents sont faites et qu'un suivi extérieur est mis en place et c'est cela qui, selon elle, aide l'enseignant dans la prise en charge de ces élèves. C'est un paramètre que nous pouvons vérifier car comme nous l'avons vu, dans tous les entretiens que j'ai menés, parmi élèves à besoins éducatifs particuliers, certains sont diagnostiqués, certains sont en cours de diagnostic mais malgré le diagnostic, certains enseignants estiment qu'il reste des obstacles pour permettre de réussir l'inclusion et dans notre exemple où l'inclusion est réussie il y a pourtant un élève qui n'est pas encore diagnostiqué. En effet, dans notre exemple d'inclusion réussie, nous avons deux cas : un cas dans lequel l'élève est diagnostiqué et bénéficie d'une aide humaine et un cas dans lequel l'élève est en cours de diagnostic et bénéficie également d'une aide humaine. Ce qui diffère des situations des autres enseignants, qui font part des obstacles à une inclusion réussie, ce sont plutôt la capacité à accueillir ces élèves en lien avec leur formation et les conditions d'accueil des élèves en classe. Au regard des résultats que j'ai obtenus, je dirai qu'effectivement, d'après le ressenti des enseignants le diagnostic permet une meilleure prise en charge des élèves mais avec de la formation et un temps nécessaire à accorder à chacun, il est également possible de prendre en charge correctement un élève non-diagnostiqués. Je fais d'ailleurs référence à S. Thomazet40 qui suggère de ne raisonner qu'en termes de besoins et nous voyons que si nous sommes effectivement attentifs aux besoins des élèves et que nous sommes assez formés pour y répondre, le côté médical n'est que secondaire. 4. Bilan des hypothèses Je vais à présent dresser le bilan de mes hypothèses au regard de l'analyse des réponses obtenues dans mes entretiens. 40 Serge Thomazet, Du handicap aux besoins éducatifs particuliers, 2012 32 4.1. Le diagnostic permettra une meilleure prise en charge de l'élève car il pourra bénéficier d'un dispositif adapté à ses besoins. Si je m'appuie sur les situations rencontrées au cours de mes entretiens, je peux dire que cette hypothèse n'est pas fausse mais n'est pas fondamentalement juste non plus. En effet, le diagnostic peut permettre à l'élève de bénéficier d'un dispositif adapté à ses besoins. Cependant, nous avons vu l'exemple d'un élève de petite section (entretien 5) qui est en cours de diagnostic et bénéficie déjà d'une aide humaine. Il a donc été reconnu par la MDPH comme étant en situation de handicap sans qu'un diagnostic n'ai été encore définitivement posé mais au regard de l'observation de ses difficultés et de ses besoins. Cependant, il est à noter que le diagnostic est tout de même en cours, c'est-à-dire que des démarches ont été entreprises et sans cela, l'attribution d'aide humaine n'aurait pas été encore possible. Dans les autres entretiens, les élèves qui bénéficient d'un dispositif et notamment une aide humaine sont des élèves qui ont été diagnostiqués et les élèves en cours de diagnostic sont en attente de cette attribution. Cependant, certains enseignants nous ont fait part de certains obstacles qui expliqueraient cette attente, notamment la lourdeur des démarches pour les parents ou leur réticence parfois qui peuvent les ralentir (entretiens 2 et 4). Ces dernières étant qualifiées déjà de longues (entretien 2), l'attribution d'une AESH par exemple attend parfois l'année d'après avant d'être mise en place. Enfin, dans le cinquième entretien, nous voyons également que l'enseignante ne se repose pas que sur l'attribution d'aide humaine de ses élèves et n'a pas attendu que celle-ci soit mise en place pour adapter son enseignement. En effet, elle a mis elle-même en place des aménagements vus au cours de ses formations ce qui permet à ses élèves, indépendamment du dispositif mis en place, de bénéficier d'un accompagnement adapté à leurs besoins de la part de leur enseignante. Tous ces exemples nous montrent que parfois, le diagnostic est indépendant de la prise en charge optimale des élèves ; ils peuvent être diagnostiqués et ne pas encore bénéficier du dispositif dont ils ont besoin et on peut également les prendre en charge correctement grâce aux compétences de l'enseignant. Cependant, il est important de souligner que c'est la reconnaissance du handicap de qui permet l'attribution d'un dispositif ou d'un aménagement pédagogique. 33 4.2. Un élève de maternelle demande beaucoup d'attention et un élève à besoins éducatifs particuliers en demande d'autant plus. S'il n'est pas diagnostiqué et ne bénéficie pas d'un dispositif (aide humaine par exemple), il est difficile de lui consacrer l'attention dont il a besoin. En effet, l'attention à consacrer aux élèves et notamment aux élèves en situation de handicap est un sujet qui est revenu dans presque tous les entretiens (entretiens 1, 2, 3 et 4). Selon l'enseignante dans le quatrième entretien, l'attribution d'une aide humaine est le principal obstacle à l'inclusion de son élève en attente de diagnostic de TSA et d'hyperactivité. En effet, cet élève est difficile à gérer et sans aide humaine, l'enseignante a du mal à le prendre en charge correctement ainsi que le reste de la classe. Cependant, cet exemple et cette hypothèse suggèrent que si l'élève bénéficie d'un dispositif, il aura toute l'attention dont il a besoin. Or, même si une AESH est présente pour un élève, ce sont les enseignants qui l'accueillent en classe. C'est ce que soulève l'enseignante dans le troisième entretien, le manque de temps lié au nombre important d'élèves en classe et le manque de formation peut amener à déléguer à l'AESH, bien que sans le vouloir et c'est un écueil à éviter. Je reprends pour appuyer cet argument l'exemple du cinquième entretien dans lequel la présence de l'AESH est un soutien et une aide pour ses élèves mais l'enseignante, par sa formation, dit qu'elle peut les prendre en charge elle-même. Le dispositif mis en place et notamment l'attribution d'une aide humaine est une solution car cela permet effectivement d'apporter à l'élève l'individualisation dont il a besoin et à l'enseignant d'avoir un élève avec plus d'autonomie. Cependant, ce n'est qu'un soutien car la première personne à accueillir l'élève dans la classe est l'enseignant. Il doit donc être capable de lui consacrer du temps et doit être assez compétent pour lui procurer un enseignement adapté. Il faut donc être vigilant à ce que cela reste un soutien et ne remplace pas le rôle de l'enseignant par manque de temps (lié au nombre d'élèves en classe) et manque de formation. 4.3. En classe, l'enseignant pourra mieux adapter sa pédagogie en connaissant la nature des difficultés de l'élève. Selon deux enseignantes interrogées (entretiens 2 et 3), le diagnostic facilite la prise en charge des élèves dans le sens où cela leur permettra de comprendre leurs difficultés et de mieux répondre à leurs besoins. Cependant, pour ces mêmes enseignantes le diagnostic ne fait pas tout et comme nous l'avons vu précédemment, des obstacles persistent. Pour les enseignantes de l'entretien 4 et 5, le diagnostic facilite la prise en charge mais plutôt d'un point de vue organisationnel. En effet, selon la PES (entretien 4), le diagnostic permettra au démarches d'aboutir et de bénéficier d'une aide humaine pour son élève ce qui l'aidera dans la gestion de celui-ci et de la classe. Selon l'enseignante dont 34 l'inclusion est réussie (entretien 5), le diagnostic peut aider dans le sens où cela signifie que les démarches auprès des parents sont déjà faites et l'élève est suivi à l'extérieur ce qui peut avoir un impact positif sur le travail en classe et faciliter la prise en charge. L'intérêt du diagnostic est donc unanime du point de vue des enseignants, mais les raisons de cet intérêt divergent. IV. Conclusion Rappelons la problématique : En quoi le diagnostic d'un trouble/d'un handicap en maternelle permettrait à l'enseignant un meilleur accompagnement des apprentissages de l'élève et ainsi réussir l'inclusion ? Une problématique soulevée par les constats de mon expérience personnelle ainsi que les interrogations que m'ont suscité ma recherche théorique. J'ai émis alors trois hypothèses qui me semblaient répondre à cette problématique : - Le diagnostic permet une meilleure prise en charge de l'élève car il peut bénéficier d'un dispositif adapté à ses besoins. - Un élève de maternelle demande beaucoup d'attention et un élève à besoins éducatifs particuliers en demande d'autant plus. S'il n'est pas diagnostiqué et ne bénéficie pas d'un dispositif (une aide humaine par exemple), il est difficile de lui consacrer l'attention dont il a besoin. - En classe, l'enseignant pourra mieux adapter sa pédagogie en connaissant la nature des difficultés de l'élève. Afin de les vérifier et répondre à ma problématique, je me suis entretenue avec des enseignants d'expériences, de milieux et de parcours différents. J'avais dans l'idée de comparer la prise en charge par l'enseignant des élèves dans les situations où ils sont diagnostiqués et celles où ils ne le sont pas. Je voulais également connaître d'autres paramètres tels que la formation des enseignants, les conditions dans lesquelles ils enseignent afin de pouvoir faire un parallèle entre ces paramètres et la réussite ou non de l'inclusion. Grâce à ces différents entretiens, j'ai pu constater que le diagnostic n'est finalement pas la principale interrogation. En effet, si d'après Serge Thomazet la prise en charge par le diagnostic apporte un risque de stigmatisation et n'a pas vraiment d'intérêt si l'on raisonne en termes de besoins, pour les enseignants interrogés il est utile car il peut les aider à savoir comment adapter leur enseignement aux élèves. Cependant, des obstacles persistent à l'inclusion des élèves. Les principaux 35 points cités par les enseignants sont le nombre trop important d'élèves en classe et le manque de formation. Sur tous mes entretiens, un seul présente une inclusion réussie d'élèves en situation de handicap et les conditions citées par les autres enseignants y sont réunies : une enseignante ayant en charge 15 élèves et ayant suivi des formations sur les handicaps. Cette enseignante accueille des élèves qui bénéficient d'une aide humaine mais met en place également des adaptations pédagogiques apprises lors de ses formations. Un élève est diagnostiqué et un autre est en cours de diagnostic, pour le même handicap : un trouble du spectre autistique. Cependant, ces derniers n'ont pas les mêmes besoins car un a de grosses difficultés de communication et d'adaptation à la vie en classe et l'autre a des difficultés plutôt motrices et les aménagements pédagogiques que l'enseignante met en place en classe ne sont pas forcément les mêmes. Cette dernière met en place des aménagements qui ne sont pas directement en lien avec le handicap des élèves mais plutôt avec leurs besoins. Alors que dans les autres entretiens les enseignantes accueillant des élèves ayant le même handicap ou suspecté font part de leurs difficultés à adapter leur pédagogie et prendre en charge ces élèves, malgré parfois la présence d'une aide humaine, dans cet entretien, l'inclusion est réussie. Pour conclure, ma recherche m'a permis de constater qu'il est possible d'adapter sa pédagogie indépendamment du diagnostic si l'on raisonne en termes de besoins mais que des obstacles persistent. Les enseignants ne se sentent pas assez formés pour accueillir des élèves à besoins éducatifs particuliers, notamment en situation de handicap et qu'ils manquent de temps à accorder à chacun à cause du nombre d'élèves en classe et du nombre d'élèves à besoins éducatifs particuliers présents dans une même classe. Au regard des réponses formulées par certains sur l'intérêt du diagnostic notamment pour guider la prise en charge de l'élève, nous pouvons nous demander si le côté médical ne prime toujours pas sur les besoins dans les représentations des enseignants et qu'ils cherchent à être formés pour répondre à un type de profil d'élève et non à un type de besoin. 36 Sitographie ❖ Bulletin de veille n°1 « Comment définir l'école inclusive ? », [en ligne] https://www.reseaucanope.fr/fileadmin/user_upload/Projets/agence_des_usages/6855_BulletinVeille_1_ecole_i nclusive.pdf ❖ Eduscol, [en ligne] https://eduscol.education.fr/1137/ecole-inclusive ❖ Gouvernement.fr. Refonder l'école inclusive, [en ligne] https://www.gouvernement.fr/action/l-ecole-inclusive ❖ Légifrance.gouv : - Loi n° 75-534 du 30 juin 1975 d'orientation en faveur des personnes handicapées, [en ligne] https://www.legifrance.gouv.fr/loda/id/JORFTEXT000000333976/ - Loi n° 2005-102 du 11 février 2005 pour l'égalité des droits et des chances, la participation et la citoyenneté, [en ligne] https://www.legifrance.gouv.fr/dossierlegislatif/JORFDOLE000017759074/ - LOI n° 2013-595 du 8 juillet 2013 d'orientation et de programmation pour la refondation de l'école de la République, [en ligne] https://www.legifrance.gouv.fr/dossierlegislatif/JORFDOLE000026973437/ ❖ Education.gouv.fr : - Circulaire de rentrée 2019, [en ligne] http://cache.media.education.gouv.fr/file/Actualites/03/3/Circulaire-de-rentree-2019ecole-inlusive_1136033.pdf - La loi pour une école de la confiance, [en ligne] https://www.education.gouv.fr/la-loipour-une-ecole-de-la-confiance-5474 - L'éducation nationale en chiffres 2020, [en ligne] https://www.education.gouv.fr/leducation-nationale-en-chiffres-2020-305457 37 - Note d'information n°20.08 – Mars 2020, [en ligne] https://www.education.gouv.fr/sites/default/files/2020-03/t-l-charger-la-versionimprimable-de-la-note-20-08-51933_1.pdf ❖ Direction de l'évaluation de la prospective et de la performance. Elèves en situation de handicap, [en ligne] https://www.education.gouv.fr/sites/default/files/2020-02/les-l-ves-ensituation-de-handicap-47819.pdf ❖ Besoins-educatifs-particuliers.fr. Le rapport Warnock et la notion de besoins éducatifs particuliers, [en ligne] https://www.besoins-educatifs-particuliers.fr/le-rapport-warnock1978.html ❖ Politique, statistiques et indicateur, OCDE (2008) Élèves présentant des déficiences, des difficultés et des désavantages sociaux, chapitre 1, [en ligne] https://www.oecd.org/fr/education/scolaire/41058722.pdf ❖ Eduscol. Répondre aux besoins éducatifs particuliers des élèves : quel plan pour qui ? [en ligne] https://cache.media.eduscol.education.fr/file/Handicap/41/0/ecole_inclusive_dossier_extrait _QPPQ_376117_378410.pdf ❖ Devenirenseignant.gouv.fr. Les Inspé pour former les futurs enseignants [en ligne] https://www.devenirenseignant.gouv.fr/pid33962/les-inspe-pour-former-les-futursenseignants.html ❖ Devenirenseignant.gouv.fr. La formation continue [en ligne] https://www.devenirenseignant.gouv.fr/cid99034/la-formation-continue.html ❖ Académie de Montpellier. Maquette M1 1er degré, Maquette M2 Admis 1er degré, Maquette M2 Non Admis 1er degré [en ligne] https://inspe-academiedemontpellier.fr/formationinitiale/master-meef/master-1er-degre ❖ Education.gouv.fr : 38 - Permettre à l'Ecole de la République d'être pleinement inclusive [en ligne] https://www.education.gouv.fr/permettre-l-ecole-de-la-republique-d-etre-pleinementinclusive-11501 - Programme d'enseignement de l'école maternelle [en ligne] https://cache.media.education.gouv.fr/file/MEN_SPE_2/84/6/2015_BO_SPE_2_404846. pdf Bibliographie ❖ Thomazet, S. (2012). Du handicap aux besoins éducatifs particuliers. Le français aujourd'hui, n°77, p. 11 à 17, [en ligne] https://www.cairn.info/revue-le-francais-aujourdhui-2012-2-page-11.htm#plan ❖ Cyrulnik, B., et France Présidence De La République. (2019). Préparer Les Petits à La Maternelle. Paris : Odile Jacob ❖ Guidetti, M., & Tourrette, C. (2018). Handicaps et développement psychologique de l'enfant (4e édition entièrement revue et augmentée. ed.). Malakoff : Dunod. ❖ Laval, V., (2019). La psychologie du développement : Modèles et méthodes. Paris : Dunod. ❖ Florin, A., (2003). Introduction à la psychologie du développement (enfance et adolescence), Paris : Dunod. 39 Annexes Annexe 1 : Entretien 1 avec un enseignant de petite et grande section, Mars 2021 41-42 Annexe 2 : Entretien 2 avec une enseignante titulaire de secteur de trois classes des trois niveaux, Mars 2021 42-44 Annexe 3 : Entretien 3 avec une enseignante de petite et moyenne section, Avril 2021 44-46 Annexe 4 : Entretien 4 avec une PES, Avril 2021 46-48 Annexe 5 : Entretien 5 avec une enseignante de petite et grande section, Avril 2021 48-50 40 Annexe 1 : Entretien 1 avec un enseignant de petite et grande section, Mars 2021 Moi – « Combien d'années d'ancienneté avez-vous ? » Enseignant – « Je suis actuellement en première année de titularisation. » Moi – « A quel niveau enseignez-vous et combien d'élèves avez-vous dans votre classe ? » E – « J'ai une classe de petite et grande section de 27 élèves. » Moi – « Avez-vous suivi une/des formation(s) spécialisée(s) sur le handicap et /ou les élèves à besoins éducatifs particuliers ? » E – « Non, j'ai suivi la formation initiale en master MEEF et je n'ai pas de spécialité. » Moi – « Avez-vous dans votre classe, un/des élève(s) à besoins éducatifs particuliers ? si oui, combien ? » E – J'ai deux élèves ayant des problèmes d'élocution et un élève allophone qui a de grosses difficultés dans le langage et la mémorisation. » Moi – « Pour les élèves ayant des difficultés d'élocution, sont-ils diagnostiqués ? et bénéficient-ils d'un dispositif d'aide à la suite d'un diagnostic ? » E – « Un seul a eu un retard de langage diagnostiqué et bénéficie d'un suivi orthophonique extérieur. Je soupçonne une dysphasie mais pour le moment aucun diagnostic de ce trouble n'a été posé. » Moi – « Depuis combien de temps cet élève est-il diagnostiqué et bénéficie de ce suivi ? » E – « Depuis l'année dernière en moyenne section, à la suite d'un bilan orthophonique. » Moi – « Pour les autres élèves, quelles démarches avez-vous entreprises après avoir constaté la difficulté d'élocution et accueilli l'élève allophone ? » E – « J'ai orienté l'élève avec les difficultés d'élocutions vers un bilan orthophonique. Pour l'élève allophone, j'ai pris contact avec enseignants du RASED (réseau d'aide spécialisé pour les élèves en difficultés) pour mettre en place des aides pour la rentrée de cet élève en CP. » Moi – « Quels aménagements mettez-vous, vous-même, en place au sein de la classe pour inclure au maximum ces élèves et les accompagner au mieux dans leurs apprentissages ? » E – « J'intègre parfois l'élève allophone au groupe de petite section pour travailler la reconnaissance des lettres, nommer les nombres, reprendre toutes les bases de la langue. Ensuite, pour chacun des trois élèves j'ai mis en place un système de tutorat afin que les élèves tuteurs puissent aider ces élèves 41 en difficulté. Chacun a son tuteur « attitré », en fonction des affinités créées. Depuis le début de l'année ils ont appris à se connaître, travailler ensemble, cela leur donne une certaine stabilité et les rassure d'avoir toujours le même camarade vers qui se tourner. Je fais également des groupes hétérogènes pour certaines activités afin de favoriser l'entraide. Je prends également ces élèves en APC (activités pédagogiques complémentaires) pour travailler les notions importantes avec eux et revenir sur ce qui leur pose des difficultés. » Moi – « Ces aménagements, les démarches entreprises et le suivi suffisent-ils ? Si non, qu'est-ce qui, selon vous faciliterait l'inclusion de ces élèves ? E – « La plupart du temps, le système de tutorat marche bien mais l'élève allophone a quand même des difficultés pour suivre correctement. Je pense que moins d'élèves en classe faciliterait la prise en charge de ces élèves car ils ont besoin de beaucoup d'attention mais je ne peux pas leur consacrer le temps dont ils ont besoin. Moi – « Et au niveau de la formation, pensez-vous avoir été assez préparé et en mesure d'accueillir ses élèves ou y-a-t-il des manques ? » E – « Je ne pense pas qu'il y ait de manques au niveau de la formation. On ne peut pas tout voir et tout aborder pendant le master. C'est au fur et à mesure que les enseignants se forment, avec l'expérience et en faisant des recherches. » Annexe 2 : Entretien 2 avec une enseignante titulaire de secteur de trois classes des trois niveaux, Mars 2021 Moi – « Depuis combien d'années enseignez-vous ? » E – « Depuis neuf ans. » Moi – « A quel niveau enseignez-vous et combien d'élèves avez-vous dans votre classe ? » E – « Je suis titulaire de secteur et j'ai trois classes : une classe de petite section, une classe de moyenne section et une classe petite et grande section. » Moi – « Avez-vous suivi une/des formation(s) spécialisée(s) sur le handicap et /ou les élèves à besoins éducatifs particuliers ? » E – « Non. » Moi – « Avez-vous dans vos classes, un/des élève(s) à besoins éducatifs particuliers ? » 42 E – « Oui. Une petite section qui a un trouble du spectre autistique, un grande section qui a un retard de développement, une petite section qui a également un retard de développement et un grande section qui a des troubles de l'attention et une hyperactivité. » Moi – « Sont-ils tous diagnostiqués ? Et bénéficient-ils d'un dispositif ou d'un suivi à la suite de cela ? » E – « La petite section qui a un retard de développement est en cours de diagnostic d'un éventuel handicap et l'élève de grande section qui a un retard de développement est également en cours de diagnostic, on lui soupçonne une dysphasie. Ils ont tous été vus par le médecin scolaire et ont un suivi extérieur. Au niveau scolaire, l'élève de petite section ayant un trouble du spectre autistique est en attente de notification d'AESH et l'élève de grande section ayant une hyperactivité en bénéficie. » Moi – « Est-ce que ces troubles/difficultés avaient été constatées avant ? Sinon, quelles démarches avez-vous entrepris après ces constats ? » E – « Pour les élèves de petite section nous avons fait appel au médecin scolaire après avoir constaté le retard, pour l'élève de grande section qui est en cours de diagnostic nous avons également fait appel au médecin cet année, qui soupçonne une dysphasie, ce qui n'avait pas été remarqué les années précédentes. Ou du moins, on attendait de voir son évolution avant de parler d'un éventuel trouble des apprentissages. Concernant l'élève de grande section ayant une hyperactivité, il est diagnostiqué et suivi depuis l'année dernière déjà. » Moi – « Pour les élèves en cours de diagnostic ne bénéficiant pas d'un dispositif d'accompagnement, quels aménagements mettez-vous, vous-même, en place au sein de la classe pour les inclure au maximum et les accompagner au mieux dans leurs apprentissages ? » E – « Nous essayons de différencier au maximum, adapter les activités au niveau de la difficulté et du temps. Nous mettons en place des aménagements pédagogique mais il est difficile de donner à ces élèves toute l'attention dont ils ont besoin en s'occupant aussi du reste de la classe alors parfois, l'AESH d'un autre élève intervient auprès d'un de ces élèves s'il est en attente de notification et qu'il y a une demande d'aide humaine qui n'est toujours pas mise en place. Moi – « Ces aménagements, les démarches entreprises et le suivi suffisent-ils ? Si non, qu'est-ce qui, selon vous faciliterait l'inclusion de ces élèves ? E – « Le problème est que les démarches sont lourdes et dépassent parfois les parents et cela les rend longues. Parfois, les notifications arrivent tard et l'élève n'en bénéficiera que l'année d'après, comme pour les AESH, par exemple. Et puis il y a également de plus en plus d'élèves à besoins éducatifs particuliers dans les classes ce qui rend leur prise en charge de plus en plus difficile car il est difficile 43 de pouvoir s'occuper d'autant d'élèves qui ont parfois besoin de beaucoup plus d'attention que ce que l'on est en mesure de leur apporter. Il est déjà difficile d'enseigner à plus d'une vingtaine d'enfants en bas âge car ils demandent chacun beaucoup d'attention, alors avec un voire plusieurs élèves en situation de handicap, ça l'est encore plus. » Moi – « Selon vous, le fait que les élèves soient diagnostiqués facilite-t-il la prise en charge de ces élèves ? E – « Cela peut aider à comprendre les difficultés et le comportement de l'élève et le prendre en charge mais pour les raisons que je viens d'évoquer, cela ne suffit pas. » Annexe 3 : Entretien 3 avec une enseignante de petite et moyenne section, Avril 2021 Moi – « Depuis combien d'années enseignez-vous ? » E – « Depuis 19 ans. » Moi – « A quel niveau enseignez-vous et combien d'élèves avez-vous dans votre classe ? » E – « J'ai une classe de petite et moyenne section de 27 élèves. » Moi – « Avez-vous suivi une/des formation(s) spécialisée(s) sur le handicap et /ou les élèves à besoins éducatifs particuliers ? » E – « Non mais j'ai essayé de me former seule en faisant des recherches quand j'étais face à des difficultés, comme des élèves en situation de handicap ou présentant des troubles pour savoir comment réagir. » Moi – « Avez-vous dans votre classe, un/des élève(s) à besoins éducatifs particuliers ? si oui, combien ? » E – « J'ai un élève en moyenne section qui a un mutisme sélectif, il parle partout sauf à l'école. » Moi – « Bénéficie-il d'un dispositif d'aide à la suite d'un diagnostic ? E – « Non, il n'a pas de diagnostic particulier et ne bénéficie pas d'un dispositif d'aide au sein de l'école. » Moi – « Savez-vous à quoi est du ce mutisme et pouvez-vous me décrire les difficultés que rencontre cet élève ? » 44 E – « Il a développé un mutisme sélectif à la suite de la suite d'un choc ou une angoisse durant la première scolarisation. Il a également des difficultés au niveau du repérage spatial et au niveau du graphisme. Je me demande s'il n'y a pas autre chose mais je ne suis pas en mesure de le détecter. » Moi – « Quelle(s) démarche(s) avez-vous entrepris après ce constat ? » E – « Ce sont les parents qui ont entreprit des démarches. Il est suivi à l'extérieur par un pédopsychiatre et un orthophoniste. » Moi – « Quels dispositifs mettez-vous en place vous-même pour inclure au maximum cet élève ? » E – « Il n'y a pas forcément de dispositif mis en place car ce n'est pas vraiment nécessaire. Il arrive à suivre mais parfois son mutisme est un obstacle dans certaines activités. Il a subi un choc émotionnel et est renfermé sur lui-même, alors être derrière lui n'est pas forcément la bonne solution. On le laisse un peu faire les activités, on ne le sollicite pas trop pour qu'il ne se sente pas oppressé. Mais c'est quand même compliqué de savoir quel comportement adopter face à lui, si nous avons les bons gestes ou pas. » Moi – « Est-ce que cela est suffisant d'après-vous ? Sinon, qu'est-ce qui, selon vous faciliterait l'inclusion de cet élève ? » E – « Je pense que pour l'instant c'est tout ce que l'on peut faire, il y a de l'amélioration, il commence à jouer et communiquer parfois avec ses camarades. » Moi – « Et au niveau de la formation, pensez-vous avoir été assez préparé et en mesure d'accueillir des élèves à besoins éducatifs particuliers ou y-a-t-il des manques ? » E – « Cette année, nous avons pu avoir une formation très intéressante sur les besoins éducatifs particuliers. Nous avons pu avoir des critères médicaux pour nous aider à dépister certains troubles et mieux les comprendre. C'était la première fois que j'avais une formation sur cela, jusqu'à présent je n'y avais pas été formée et j'ai dû me former seule en faisant des recherches. Il y a 19 ans, au cours de ma formation initiale, il n'y avait rien sur ça et depuis je n'avais reçu aucune formation, ce qui m'a manqué. Plus ça va et plus nous accueillons des élèves qui présentent des troubles et cela devient difficile. » Moi – « Pensez-vous que le fait que l'élève soit diagnostiqué facilite sa prise en charge et son inclusion ? » 45 E – « Je pense que ça aide oui car on va pouvoir se renseigner sur son trouble ou son handicap, faire des recherches pour savoir comment le prendre en charge mais la question du diagnostic n'est pas le seul problème, cela peut faciliter sa prise en charge mais ce n'est pas suffisant. » Moi – « Que sont ces autres obstacles ? » E – « Je pense que le nombre d'élèves en classe est trop important. Il est difficile de s'occuper pleinement d'un élève à besoins éducatifs particuliers qui demande beaucoup d'attention, qui sont parfois plusieurs, et ce de plus en plus, dans une même classe en même que tout le reste des élèves avec qui il faut avancer et qui demandent également de l'attention. Je pense aussi qu'il faudrait avoir plus de formation sur les troubles et handicaps car même si parfois certains élèves bénéficient d'une AESH, ce sont nous les enseignants qui l'accueillons et nous devons savoir comment les prendre en charge mais parfois il peut arriver d'avoir tendance à déléguer à l'AESH face à des élèves devant qui nous ne savons pas comment réagir. Mais si nous déléguons, quel est l'intérêt ? Je ne me sens parfois pas assez formée face aux difficultés auxquelles font face les élèves et je me demande parfois ce que je peux leur apporter. C'est pour cela que je pense que nous devons avoir beaucoup plus de formation sur ça. » Annexe 4 : Entretien 4 avec une PES, Avril 2021 Moi – « Depuis combien d'années enseignez-vous ? » E – « Depuis cette année, je suis PES (professeur des écoles stagiaire). » Moi – « A quel niveau enseignez-vous et combien d'élèves avez-vous dans votre classe ? » E – « J'ai une classe de petite section de 24 élèves. » Moi – « Avez-vous suivi une/des formation(s) spécialisée(s) sur le handicap et /ou les élèves à besoins éducatifs particuliers ? » E – « Non. » Moi – « Avez-vous dans votre classe, un/des élève(s) à besoins éducatifs particuliers ? » E – « Oui, un élève. » Moi – « Est-il diagnostiqué ? » 46 E – « Il est en cours de diagnostic pour suspicion d'autisme et d'hyperactivité. » Moi – « Comment se manifeste ces troubles en classe ? » E – « Il ne reste pas assis, il enlève ses chaussures et ses chaussettes, il n'est pas propre, il ne supporte pas qu'on le touche sinon il fait une crise, il sort le matériel rangé dans la classe, il met le désordre, il essaie sans arrêt de sortir de la classe et a même renversé une étagère un jour » Moi – « Quelles démarches avez-vous donc entrepris face à ces comportements ? » E – « Nous avons d'abord eu une discussion avec la directrice pour faire part de nos difficultés face à cet élève. Une équipe pédagogique a été mise en place, il a été vu par le médecin et le psychologue scolaire. » Moi – « Est-ce qu'à la suite de l'équipe pédagogique un dispositif tel qu'une aide humaine a été mis en place ? » E – « Non, pas encore. Nous avons fait la demande d'une aide humaine, les démarches sont en cours mais la maman est réticente au diagnostic de son fils, ce qui ralentit les démarches. Il est donc aujourd'hui en attente de diagnostic et sans aide humaine. » Moi – « Quels dispositifs mettez-vous donc en place vous-même pour inclure cet élève et l'accompagner dans ses apprentissages ? » E – « J'essaie de l'impliquer dans les apprentissages mais il ne reste pas assis, en ateliers ou en regroupement et il « vaque à ses occupations ». Je le prends également à part à l'accueil pour essayer de le faire travailler et avoir un moment à lui consacrer individuellement. Il ne vient pas l'aprèsmidi. » Moi – « Cela suffit-il ? Sinon, selon vous, qu'est-ce qui permettrait à cet élève d'entrer dans les apprentissages ? » E – « Non, cela ne suffit pas, je pense qu'il faudrait que cet élève bénéficie d'une aide humaine car il a besoin de beaucoup d'attention et je ne peux pas toujours la lui donner. Il a besoin de quelqu'un quasiment en permanence pour le surveiller et lui faire faire certaines activités. Je pense qu'il devrait également aller de temps en temps dans une classe spécialisée pour s'adapter petit à petit à la vie en communauté. » Moi – « Pensez-vous que le fait qu'il soit diagnostiqué pourra vous aider ? Si oui, pourquoi ? » 47 E – « Oui, dans un premier temps parce que les démarches pourront aboutir puis cela me donnera aussi peut-être plus de pistes pour savoir comment mettre en place des adaptations en classe pour ce type de handicap. » Annexe 5 : Entretien 5 avec une enseignante de petite et grande section, Avril 2021 Moi – « Depuis combien d'années enseignez-vous ? » E – « Depuis 15 ans. » Moi – « A quel niveau enseignez-vous et combien d'élèves avez-vous dans votre classe ? » E – « J'enseigne à une classe de petite et grande section de 15 élèves en réseau d'éducation prioritaire renforcé (REP+). » Moi – « Avez-vous suivi une/des formation(s) spécialisée(s) sur le handicap et /ou les élèves à besoins éducatifs particuliers ? » E – « J'ai passé le CAFIPEMF et j'ai suivi des formations sur les troubles du spectre autistiques et les enfants en situation de handicap, sur la base du volontariat. » Moi – « Avez-vous dans votre classe, un/des élève(s) à besoins éducatifs particuliers ? sont-ils diagnostiqués ? » E – « Oui, deux. Un élève de grande section et un élève de petite section. L'élève de grande section est atteint de troubles du spectre autistique (TSA) et l'élève de petite section a une suspicion de TSA également et a des difficultés en motricité liées à la naissance. » Moi – « Bénéficient-ils d'un dispositif d'aide ? » E – « Oui, les deux. » Moi – « Depuis quand ? » E – « Pour l'élève de grande section, les démarches ont été faites depuis la petite section. Pour l'élève de petite section, depuis novembre/décembre. » Moi – « Quelle(s) démarche(s) avez-vous entrepris après avoir constaté les difficultés de l'élève de petite section ? E – « On savait déjà qu'il souffrait de difficultés motrices car il est scolarisé depuis la toute petite section mais il était encore petit pour entreprendre des démarches. Cette année, nous avons contacté 48 le médecin scolaire et mis en place une équipe éducative. Depuis le début de l'année, comme nous connaissions ses difficultés, j'ai renforcé les activités de motricité fine pour lui et en motricité il a toujours un adulte près de lui quand nous faisons des parcours par exemple, des activités sur lesquelles il peut manquer d'équilibre et risquerait de se blesser mais aussi pour l'aider dans des activités qui demandent de la coordination. » Moi – « Quels aménagements sont donc mis en place pour inclure au maximum ces élèves et les accompagner dans leurs apprentissages ? E – « Les deux élèves bénéficient d'une aide humaine. Pour l'élève de grande section, nous lui avons aménagé un espace dans la classe car qui ressemble à un petit bureau avec un tableau sur lequel sont aimantés des pictogrammes représentant les différents endroits de l'école, les différents moments de la journée et les photographies des adultes de la classe. Nous gardons une petite frise chronologique sur laquelle nous plaçons ces pictogrammes et grâce à cela nous lui expliquons ce que nous sommes en train de faire et ce que nous allons faire après. Cela lui permet de se repérer dans le temps et dans l'espace et se sécuriser car il ne parle que très peu, a du mal à s'exprimer et s'adapter à la vie en classe avec des troubles du comportement, il fait des crises parfois difficiles à gérer. Nous avons également mis en place un système de récompense avec des pastilles de couleur pour arriver à lui faire faire certaines des activités. Ces dernières sont aménagées et quand il a terminé son activité ou qu'il n'arrive plus à se concentrer il peut aller dans la classe ou dans son espace aménagé. L'élève de petite section a des troubles moins sévères, il poursuit les mêmes objectifs que les autres élèves de la classe mais il y a une adaptation des activités également au niveau de la quantité, du matériel et du temps et a une AESH à raison de 9h par semaine. » Moi – « Est-ce que ces systèmes de récompenses et de pictogramme sont des choses que vous avez pu voir au cours de vos formations ? » E – « Oui, complètement, ce sont des choses que j'ai apprises au cours de mes formations. Grâce aux formations que j'ai suivies et aux personnes avec qui j'ai travaillé, j'ai appris à comprendre comment fonctionnent les élèves atteints de troubles du spectre autistique et les adaptation à mettre en place. » Moi – « Cela suffit-il ? Si non, qu'est-ce qui, selon vous faciliterait l'inclusion de ces élèves ? » E – « Oui, l'inclusion se passe bien, les élèves progressent grâce à ces dispositifs et sont intégrés dans le groupe classe. Le système de pictogramme et de récompense ainsi que la présence de l'AESH permettent à l'élève de grande section de bien vivre sa scolarisation et de progresser. Pour l'élève de petite section également, il est bien intégré, il a des relations avec les autres et arriver à entrer dans les apprentissages. » 49 Moi – « Nous voyons que votre formation et les conditions dans lesquelles vous exercez permettent de réussir l'inclusion de ces élèves mais ce n'est pas toujours le cas alors que pensez-vous de l'inclusion dans d'autres conditions, avec des enseignants qui n'ont peut-être pas suivi les mêmes formations que vous ? » E – « Tout d'abord, je pense que l'inclusion est primordiale mais pour les enfants qui le peuvent. C'est-à-dire que certains ont des pathologies et des handicaps qui nécessitent d'être pris en charge dans des établissements spécialisés mais nous manquons d'établissements spécialisés. Je pense aussi que les enseignants ne sont pas assez formés. Ils manquent de temps pour se former, c'est un réel investissement que l'on ne peut pas tous fournir. Je pense aussi qu'il n'y a pas assez de moyens pour accueillir de manière optimale et adaptée tous les élèves. C'est pourquoi on voit parfois malheureusement des classes où les enseignants sont en souffrance et la classe elle aussi l'est. Parfois, on peut aussi avoir tendance à délaisser le reste de classe tellement l'élève demande de l'attention. Si toutes les conditions ne sont pas réunies, il est très difficile d'accueillir un élève, voire plusieurs en situation de handicap. » Moi – « Selon vous, est-ce que le diagnostic facilite la prise en charge des élèves ? » E – « Je pense que oui car c'est compliqué pour un enseignant de reconnaitre un handicap, donc quand il est diagnostiqué c'est déjà bien, cela veut dire que du côté des parents les démarches sont faites et l'enfant est suivi à l'extérieur. Même si le suivi est en dehors de l'Education Nationale cela a une répercussion car le travail qui est fait à l'extérieur (orthophonistes, psychomotriciens) est bénéfique pour l'élève et aura des répercussion positive sur le travail en classe avec l'enseignant. » 50
{'path': '62/dumas.ccsd.cnrs.fr-dumas-03405221-document.txt'}
Etude expérimentale de la polymérisation et du vieillissement d'un adhésif polyuréthane en milieu humide Marion Girard, Rahma Zaabar, Frédéric Jacquemin, Mohamed Kchaou, Riadh Elleuch To cite this version: Marion Girard, Rahma Zaabar, Frédéric Jacquemin, Mohamed Kchaou, Riadh Elleuch. Etude expérimentale de la polymérisation et du vieillissement d'un adhésif polyuréthane en milieu humide. Journées Nationales sur les Composites 2017, École des Ponts ParisTech (ENPC), Jun 2017, 77455 Champs-sur-Marne, France. hal-01621541 HAL Id: hal-01621541 https://hal.archives-ouvertes.fr/hal-01621541 Submitted on 23 Oct 2017 Comptes Rendus des JNC 20 – Ecole des Ponts ParisTech – 28-30 juin 2017 Etude expérimentale de la polymérisation et du vieillissement d'un adhésif polyuréthane en milieu humide Experimental study of the polymerization and aging of polyurethane adhesive in a humid environment Marion Girard1, Rahma Zaabar1, 2, Frédéric Jacquemin1, Mohamed Kchaou2, Riadh Elleuch2 1 : Institut de Recherche en Génie Civil et Mécanique (UMR CNRS 6183) Université de Nantes 58 Rue Michel Ange - BP 420, 44606 Saint-Nazaire Cedex, France e-mail :marion.girard@univ-nantes.fr, rahma.zaabar@univ-nantes.fr, frederic.jacquemin@univ-nantes.fr 2 : Laboratoire des Systèmes Electromécanique Ecole Nationale des Ingénieurs Sfax-Tunisie Route Sokra km3, 3038 Sfax-Tunisie e-mail : kchaou.mohamed@yahoo.fr, riadh.elleuch@gnet.tn Résumé Dans le but de prédire la durabilité des assemblages collés à base de colle polyuréthane bicomposante, il est nécessaire au préalable d'étudier le comportement de cet adhésif vis-à-vis des sollicitations environnementales lors de sa mise en oeuvre puis de sa vie en service. En effet, l'un des composants de base, le polyisocyanate, et l'adhésif formé sont sensibles à l'eau. La colle a été mise en oeuvre à partir des deux composants de base, un polyisocyanate et un polyol, puis conditionnée, à température ambiante, dans 3 environnements avec pour chacun, un taux d'humidité relative différent (5%HR, 50%HR et 77 %HR). De plus, afin de dissocier les différentes cinétiques de réaction entrant en jeu, différentes épaisseurs ont été testées (1, 2 et 4 mm). La variation de masse de la colle a été suivie et le comportement mécanique a été caractérisé pour les 3 conditions de stockage. L'analyse du suivi gravimétrique effectué a pu mettre en avant un comportement différent en fonction de l'épaisseur de l'échantillon et celle des essais de traction un comportement optimal en condition sèche. Abstract In order to predict the durability of the bicomponent polyurethane bonded assemblies, it is necessary to study the behavior of this adhesive with respect to environmental stresses during its implementation and then its life in service. Indeed, one of the basic components, the polyisocyanate, and the adhesive formed are sensitive to water. The adhesive was prepared from the two basic components, a polyisocyanate and a polyol, and then conditioned at room temperature in 3 environments, each with a different relative humidity (5% RH, 50% RH And 77% RH). In addition, in order to dissociate the various reaction kinetics involved, different thicknesses were tested (1, 2 and 4 mm). The mass variation of the adhesive was monitored and the mechanical behavior was characterized for the 3 storage conditions. The analysis of the gravimetric monitoring carried out was able to put forward a different behavior according to the sample thickness and that of the tensile tests an optimal behavior in dry condition. Mots Clés : polyuréthane, adhésif, polymérisation, vieillissement humide Keywords : polyurethane, adhesive, polymerization, humid ageing 1. Introduction Le collage est une technique d'assemblage multi-matériaux qui est présente dans de nombreux domaines (aéronautique, automobile, off-shore) [1–3]. Cependant, les assemblages collés, en particulier mettant en oeuvre des colles polyuréthanes, sont fortement influencés par les sollicitations environnementales (température, humidité), que ce soit lors de leur mise en oeuvre ainsi que lors de leur vie en service [4–6]. La formation du polyuréthane nécessite une réaction de polyaddition d'un groupement polyisocyanate et d'un groupement polyol (réaction illustrée fig. 1a). Cependant, en présence d'humidité, le polyisocyanate réagit également avec l'eau (réaction illustrée fig. 1b). Il s'ensuit alors 1 Comptes Rendus des JNC 20 – Ecole des Ponts ParisTech – 28-30 juin 2017 une compétition entre la réaction souhaitée polyisocyanate/polyol et la réaction polyisocyanate/eau. Par la suite, lors du vieillissement en milieu humide, les molécules d'eau peuvent également avoir un impact sur la colle : soit un effet de plastification [4] ou bien provoquer une hydrolyse du matériau [5]. Dans le but de prédire la durabilité des assemblages collés à base de polyuréthane, il est nécessaire au préalable d'étudier le comportement de cet adhésif vis-à-vis des sollicitations environnementales notamment lors de sa mise en oeuvre. (a) (b) Fig. 1. (a) Réaction polyisocyanate / polyol ; (b) Réaction polyisocyanate / H2O [7] L'objectif de cette étude et de déterminer le couplage entre l'évolution des propriétés mécaniques et les cinétiques de réaction et de diffusion au cours de la polymérisation et du vieillissement de la colle, afin de déterminer les conditions optimales de mise en oeuvre et d'utilisation de celle-ci. Une campagne d'essai a été réalisée afin de comprendre les mécanismes de polymérisation et de vieillissement sous humidité. Afin d'analyser le comportement de la colle polyuréthane, elle a été mise en oeuvre à partir des deux composants de base, un polyisocyanate et un polyol, puis conditionnée, à température ambiante, dans 3 environnements avec pour chacun, un taux d'humidité relative différent (5%HR, 50%HR et 77 %HR). De plus, afin de dissocier les différentes cinétiques de réaction entrant en jeu, à savoir la réaction polyisocyanate/polyol a priori homogène dans le matériau et la réaction polyisocyanate/H2O favorisée en surface, différentes épaisseurs seront testées (1, 2 et 4 mm). La variation de masse de la colle a été suivie pour les 3 conditions de stockage. Dans l'optique de maitriser les performances (mécanique et hygroscopique) de cette colle, le comportement mécanique de la colle a également été caractérisé, par des essais de traction uniaxiale, depuis son état initial, au cours de la polymérisation puis lors du vieillissement hygroscopique. 2. Procédure expérimentale 2.1 La colle étudiée Le matériau étudié ici est une colle polyuréthane commerciale. Elle est élaborée à partir du mélange, par mélangeur statique, de deux constituants de base à savoir un polyol formulé de type polyethers (polyoxyalkyleneamine) et un diisocyanate de base MDI (diphényl méthane diisocyanate). 2.2 Géométries et élaboration des éprouvettes Pour réaliser le suivi gravimétrique des colles et caractériser leur variation de masse, des éprouvettes « disques » de diamètre 70 mm et d'épaisseur 2 mm ont été réalisées conformément à la norme BS EN ISO 294-3 (Fig. 2a). Des éprouvettes de diamètres identiques ont également été réalisées avec des épaisseurs de 1 et 4 mm. Concernant les essais de traction, afin de caractériser mécaniquement les colles au cours du vieillissement humide, des éprouvettes de type « haltère » ont été réalisées suivant la norme NF EN ISO 527-2 93 (Fig. 2b). Pour tester les autres épaisseurs, la même géométrie d'éprouvettes a été conservée avec une épaisseur de 1 mm et 4 mm. 2 Comptes Rendus des JNC 20 – Ecole des Ponts ParisTech – 28-30 juin 2017 (b) (a) Fig. 2 – (a) Géométrie adoptée pour la réalisation des éprouvettes disques pour les suivis gravimétriques ; (b) Eprouvettes haltères pour les essais de traction. Toutes les éprouvettes, disques et haltères, ont été fabriquées par moulage dans un moule en PTFE en trois parties, composé de deux plaques extérieures pleines et d'une plaque intermédiaire d'épaisseur souhaitée (1, 2 ou 4 mm) usinées aux dimensions définies précédemment. 2.3 Conditionnement des éprouvettes Après moulage des éprouvettes, l'ensemble {moule fermé + éprouvettes} est stocké en conditions ambiantes pour une durée de 24h. Les éprouvettes sont ensuite démoulées, ébavurées, mesurées puis stockées dans trois environnements différents répertoriés dans le tableau suivant (Tab.1). Numéro condition 1 2 3 type Taux humidité relative (%HR) ~5 ±5 50 ±1 77 ±1 Dessiccateur (gel de silice) Enceinte climatique Enceinte climatique Température (°C) 22 ±2 23 ±0,5 20 ±0,5 Tab. 1. Environnements considérés. 2.4 Mesures gravimétriques La variation de masse des éprouvettes « disques » est suivie périodiquement au moyen d'une balance Radwag XA 82/220.3Y (précision 10-5g). La durée de chaque mesure est considérée négligeable visà-vis de la cinétique de diffusion (absorption/désorption) de l'humidité dans les colles. La variation de masse M(t) de chaque échantillon en fonction du temps t après démoulage est exprimée en pourcentage : M(t) = m(t) − m0 ×100 m0 (Eq. 1) où m(t) est la masse de l'échantillon au temps t et m0 la masse initiale au moment du démoulage. Pour les 9 conditions (3 environnements × 3 épaisseurs), 5 éprouvettes ont été suivies. Des problèmes expérimentaux concernant les séries de 2 et 4 mm en condition sèche (~5%HR) ont rendu inexploitable les résultats. Ils ne seront donc pas présentés dans la suite. 2.5 Essais de traction Les essais de traction ont été réalisés sur une machine de traction Zwick à une vitesse de traverse constante de 5 mm/min. Le suivi de la déformation de la zone utile des éprouvettes a été réalisé par extensomètrie optique (suivi de point). Le capteur d'effort utilisé possède une gamme de mesure allant jusqu'à 500 N avec une précision de 0,01 N. Pour les 9 conditions (3 environnements × 3 épaisseurs), 4 éprouvettes ont été testées à 7 instants différents. Pour l'analyse des courbes, les contraintes seront considérées homogènes dans la section. Compte tenu des déformations importantes enregistrées, de l'ordre de ~50 %, uniquement les courbes 3 Comptes Rendus des JNC 20 – Ecole des Ponts ParisTech – 28-30 juin 2017 rationnelles seront exploitées (contrainte vraie / déformation vraie). En considérant que le coefficient de poisson de la colle polyuréthane est proche de 0,5 [8], les déformations seront donc évaluées à volume constant. Dans ce cas, la déformation vraie et la contrainte vraie peuvent alors être exprimées en fonction de la force mesurée et de la variation de longueur de l'éprouvette (Eq. 2 et 3). L ΔL ε = ln ( ) = ln (1 + ) L0 L0 σ= 3. F F ΔL = (1 + ) S S0 L0 (Eq. 2) (Eq. 3) Résultats et discussions 3.1 Cinétique de variation de masse La figure suivante (Fig. 3) montre la variation de masse mesurée en fonction de la racine carré du temps normalisée par rapport à l'épaisseur de chaque éprouvette lorsque celles-ci sont placées dans les 3 conditions définies dans le (Tab. 1). (b) (a) (c) Fig. 3. Cinétique de prise de masse à : (a) 77%HR, (b) 50%HR et (c) 5%HR. Un comportement de type fickien est observé (Fig. 3) [9, 10] : au début du conditionnement, la variation de masse est proportionnelle à la racine carré du temps normalisée par l'épaisseur de l'échantillon, puis pour les longs temps, au premier ordre, un plateau semble être atteint. Une identification à partir du modèle de Fick est proposée en utilisant la solution analytique de Crank [9]. En faisant l'hypothèse que la diffusion intervient sans interaction particulière entre l'espèce diffusante et le polymère, Fick réalise l'analogie avec le transfert de chaleur par conduction dans un milieu isotrope et considère que le gradient de concentration C de l'espèce diffusante est proportionnel au flux de matière F⃗ qu'il induit (Eq. 4). L'(Eq. 5) représente la conservation de matière durant la diffusion : 4 Comptes Rendus des JNC 20 – Ecole des Ponts ParisTech – 28-30 juin 2017 F⃗ = −D. ⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗ gradC (Eq. 4) ∂C + div F⃗ = 0 ∂t (Eq. 5) avec F⃗ le flux de matière de l'espère diffusante (kg m−2 s −1 ), D le coefficient de diffusion (m2 s −1) et C la concentration de l'espèce diffusante ( kg m−3). En considérant une diffusion unidirectionnelle dans la direction x, et en considérant un coefficient de diffusion D constant et uniforme, ces deux équations se simplifient et se combinent de la façon suivante : ∂C ∂2C =D 2 ∂t ∂x (Eq. 6) Dans le cas d'une plaque mince d'épaisseur 2e, de longeur et largeur infinies devant l'épaisseur (diffusion uniquement dans l'épaisseur), placée dans un environnement extérieur de concentration d'espèces diffusantes C1 , avec une concentration initiale C0 uniforme, Crank propose une solution analytique de l'évolution spatiale et temporelle de la concentration C : ∞ (−1)n (2n + 1)2 π 2 t (2n + 1)πx C − C0 4 =1− ∑ exp [−D ] × cos [ ] 2 C1 − C0 π 2n + 1 4e 2e (Eq. 7) n=0 où x est la distance suivant la direction normale à la plaque et prenant son origine à mi épaisseur et t le temps d'immersion dans le milieu fluide diffusant. L'intégration de l'équation précédente sur l'épaisseur permet de déterminer la masse d'espèce diffusante absorbée par le film en fonction du temps, M(t), comparé à la masse à l'équilibre M∞ . ∞ (2n + 1)2 π 2 t M(t) 8 =1−∑ exp [−D ] (2n + 1)2 π 2 M∞ 4e 2 (Eq. 8) n=0 Dans le cadre de cette étude, afin d'identifier un coefficient de diffusion D et la teneur en eau absorbée à saturation M∞ pour chaque éprouvette à partir de l'(Eq. 8), différentes hypothèses fortes ont été réalisées en premier lieu : il n'y a pas d'interaction entre l'eau et la colle, le coefficient de diffusion D est uniforme dans l'épaisseur et constant en fonction du temps, et la partie décroissante du plateau sur les courbes expérimentales est négligée. Les coefficients de diffusion D et la teneur en eau absorbée à saturation M∞ calculés sont représentés (Fig. 4) en fonction de l'épaisseur effective de chaque éprouvette et de leur condition de stockage. (b) (a) Fig. 4. Paramètres de la loi de Fick identifiés pour chaque éprouvette : (a) M∞ et (b) D. 5 Comptes Rendus des JNC 20 – Ecole des Ponts ParisTech – 28-30 juin 2017 Les coefficients de diffusion D et les teneurs à saturation M∞ sont fortement dépendants du taux d'humidité relative de l'environnement dans lequel sont conditionnés les éprouvettes. La (Fig. 5) représente la teneur à saturation pour une épaisseur moyenne de 1 mm en fonction du taux d'humidité relative. Une fonction affine permet de bien représenter les données expérimentales avec un coefficient de corrélation de Pearson de 0,9886 (Tab. 2). Enfin, la (Fig. 4) montre également une dépendance des teneurs à saturation et du coefficient de diffusion dans une moindre mesure à l'épaisseur de l'éprouvette : plus celle-ci est épaisse, et plus la masse à saturation et le coefficient de diffusion sont élevés. Ces résultats différents pour une même condition en taux d'humidité relative montrent un comportement différent en fonction de l'épaisseur de l'éprouvette. Ces résultats laissent sousentendre un gradient de propriété hydrique dans l'épaisseur différent d'une série à l'autre indiquant probablement des cinétiques et processus de réaction différents. Fig. 5. Teneur en eau absorbée à saturation M∞ en fonction du taux d'humidité relative ambiant (éprouvettes d'épaisseur ~1mm). a b Coefficient de corrélation de Pearson 0,010 0,767 0,9886 Tab. 2. Identification des paramètres de la droite affine M∞ = a×%HR + b 3.2 Propriétés mécaniques La (Fig. 6) montre l'évolution du comportement mécanique en fonction du temps pour deux séries d'éprouvettes de sections proches (1×4 mm2). Par souci de lisibilité, il a été choisi une courbe parmi les quatre testées par lot. Pour des temps d'interrogation proches, une différence de comportement importante est à noter en fonction de l'environnement dans lequel les éprouvettes se trouvent. (a) (b) Fig. 6. Courbe de traction à différents instants (a) épaisseur 1 mm à 5%HR et (b) épaisseur 1 mm à 77%HR. 6 Comptes Rendus des JNC 20 – Ecole des Ponts ParisTech – 28-30 juin 2017 Une comparaison des données pour des épaisseurs différentes est difficile, puisque dans le cas des éprouvettes haltères, la diffusion est bidirectionnelle. En effet, leur section est comprise entre 1×4 et 4×4 mm2. Les deux dimensions définissant la section sont du même ordre de grandeur et ne permettent pas d'en négliger l'une par rapport à l'autre. En considérant que la diffusion est isotrope dans le matériau, les équations de la diffusion en deux dimensions sont définies à partir de l'équation différentielle suivante définissant la concentration en e e l l espèce diffusante dans l'espace, défini par [− 2 ; 2] sur x et par [− 2 ; 2] sur y, en fonction du temps : ∂C ∂2C ∂2C =D 2 +D 2 ∂t ∂x ∂y (Eq. 9) Dans cette configuration, Crank [9] propose une solution analytique de l'évolution spatiale et temporelle de la concentration C : ∞ ∞ (−1)n (−1)m (2n + 1)2 (2m + 1)2 C − C0 4 2 =1−( ) ∑ ∑ exp [−π 2 tD ( + )] C1 − C0 π (2n + 1)(2m + 1) 4e 2 4l 2 n=0 m=0 (2n + 1)πx (2m + 1)πy × cos [ ] × cos [ ] 2e 2l (Eq. 10) L'intégration de l'équation précédente sur la surface permet de déterminer la masse d'espèce diffusante absorbée par l'éprouvette en fonction du temps, M(t), comparé à la masse à l'équilibre M∞ . ∞ ∞ (2n + 1)2 (2m + 1)2 Mt 8 2 1 2 = 1 − ( 2) ∑ ∑ exp [−π tD ( + )] (Eq. 11) (2n + 1)2 (2m + 1)2 M∞ π 4e 2 4l 2 n=0 m=0 Il est proposé de définir une épaisseur équivalente heq telle que la variation de masse dans l'éprouvette de section rectangulaire 2e×2l soit équivalente à la variation de masse d'un film infini de demi-épaisseur heq en considérant le même coefficient de diffusion. L'équivalence entre le développement limité au premier ordre au voisinage de 0 de (Eq. 8), écrite pour un film de demi épaisseur heq , et le développement limité au premier ordre au voisinage de 0 de (Eq. 11), permet d'écrire la relation suivante : heq = 1 √ 12 + 12 e l (Eq. 12) La (Fig. 7) présente la variation de masse en fonction du temps d'une éprouvette parallélépipédique de section carré dont la longueur est très grande devant les côtés du carré. Cette variation de masse est calculée à partir de 3 modèles différents. Le premier est un modèle unidirectionnel (Eq. 8) avec pour dimension caractéristique e = 1 mm. Le deuxième modèle utilisé est le modèle bidirectionnel (Eq. 11) avec e = l = 1 mm. Enfin le dernier modèle utilisé est le modèle unidirectionnel équivalent (Eq. 8) en utilisant l'épaisseur équivalente définie (Eq.12). Il est montré que le modèle unidirectionnel équivalent est très proche du modèle bidirectionnel. Dans la suite, les résultats des essais de tractions seront alors exprimés en fonction de leur épaisseur équivalente heq . Afin d'affiner l'analyse des courbes, les caractéristiques suivantes sont extraites de celles-ci à savoir le module sécant à 2% de déformation, noté E, la contrainte maximale atteinte, notée Rm, et l'allongement au maximum de contrainte, noté A. Ces résultats sont présentés en fonction du taux d'humidité relative de l'environnement, du temps soumis à cet environnement t et de l'épaisseur équivalente de l'éprouvette testée heq (Fig. 8-10). 7 Comptes Rendus des JNC 20 – Ecole des Ponts ParisTech – 28-30 juin 2017 Fig. 7. Comparaison de 3 modèles de diffusion pour D=1,7e-6 mm2/s dans le cas d'une section carré de demi coté 1mm. (a) (b) (c) Fig. 8. Evolution de E pour différents environnements : (a) 5%HR, (b) 50 %HR et (c) 77%HR La (Fig. 8) montre une évolution rapide du module E dans les premières heures indépendamment de l'épaisseur et du taux d'humidité de l'environnement. Il s'ensuit une croissance importante et continue, homogène en épaisseur, pour l'environnement le plus sec, une croissance moyenne pour l'environnement intermédiaire, puis pour l'environnement le plus humide, une croissance faible dépendante de l'épaisseur de l'échantillon. Concernant les courbes présentées (Fig. 9, 10), une augmentation de la résistance à la traction Rm et une diminution de l'allongement au maximum de contrainte A sont observées de manière indépendante à l'épaisseur et au taux d'humidité de l'environnement pendant les premiers instants. Par la suite, les variations les plus importantes sont observées pour la condition la plus sèche, à savoir une hausse du Rm et une baisse du A toujours de manière indépendante à l'épaisseur. Ces évolutions sont beaucoup moins marquées pour la condition intermédiaire (50%HR). Enfin pour la condition la plus humide (77%HR), un pic du Rm est observé suivi d'une décroissance variant avec l'épaisseur ainsi qu'une baisse du A, plus faible que pour les autres conditions, et dépendantes de l'épaisseur. 8 Comptes Rendus des JNC 20 – Ecole des Ponts ParisTech – 28-30 juin 2017 (b) (a) (c) Fig. 9. Evolution de Rm pour différents environnements : (a) 5%HR, (b) 50 %HR et (c) 77%HR (b) (a) (c) Fig. 10. Evolution de A pour différents environnements : (a) 5%HR, (b) 50 %HR et (c) 77%HR 9 Comptes Rendus des JNC 20 – Ecole des Ponts ParisTech – 28-30 juin 2017 Les variations ayant lieu à faible humidité montrent toutes une indépendance à l'épaisseur indiquant un phénomène homogène dans l'épaisseur, que l'on pourrait attribuer a priori à la réaction poyol/poliisocyanate. En effet, la réaction de polyaddition formant le polyuréthane est cohérente avec une rigidification du mélange (augmentation de E), une résistance Rm plus importante et une diminution de l'allongement A. Les variations ayant lieu à forte humidité ambiante sont nettement dépendantes de l'épaisseur montrant une incidence directe de la diffusion de l'humidité depuis l'environnement sur le comportement global de l'échantillon. Comme énoncé précédemment, l'eau peut réagir avec le polyisocyanate mais également agir sur le vieillissement de la colle. La décroissance observée sur les figures (Fig. 8c) et (Fig. 9c) indique une prépondérance du phénomène qui dégrade les propriétés de la colle, à savoir la plastification. Par rapport aux conditions sèches aux mêmes temps, on observe en effet une baisse du module E, de la résistance Rm et une augmentation de l'allongement A. Finalement, ces essais mécaniques permettent de montrer la cinétique de polymérisation de la colle à partir de la condition la plus sèche, de montrer l'influence de l'eau sur le vieillissement de la colle grâce à la condition la plus humide mais ne permettent pas de conclure sur la cinétique de réaction eau/polyisocyanate. 4. Conclusion Afin d'étudier la durabilité des assemblages collés à base de polyuréthane lors de leur mise en oeuvre et de leur vieillissement, l'adhésif a été mise en oeuvre et soumis à trois environnements avec trois taux d'humidité relative différents. Un suivi gravimétrique a été réalisé et le comportement mécanique a été caractérisé pour les trois environnements ainsi que pour les 3 épaisseurs étudiées (1, 2 et 4 mm). L'analyse des résultats a permis de mettre en avant un comportement de prise en masse dépendant de l'épaisseur. Le comportement mécanique optimal a été observé pour la condition la plus sèche. Pour la condition la plus humide, il a été montré un effet de plastification de l'eau abaissant les propriétés mécaniques. Enfin, afin de conclure sur la différenciation des cinétiques de la réaction polyisocyanate/eau et de la réaction polyisocyanate/polyol, il est nécessaire de réaliser des essais supplémentaires de caractérisation chimique. Références [1] [2] [3] [4] [5] [6] [7] [8] [9] [10] M. Bordes, "Etude du vieillissement des liaisons adhésives en milieu marin pour application offshore", Thèse de doctorat, 2009. N. Arnaud, "Analyse de l ' effet du vieillissement en milieu humide sur le comportement mécanique d ' adhésifs en assemblages sous sollicitations multiaxiales", Thèse de doctorat, 2014. S. R. Hartshorn, Structural adhesives - Chemistry ans Technology. 1986. J. E. Huacuja-Sánchez, K. Müller, and W. Possart, "Water diffusion in a crosslinked polyether-based polyurethane adhesive", Int. J. Adhes. Adhes., vol. 66, pp. 167–175, 2016. P. Y. Le Gac, D. Choqueuse, and D. Melot, "Description and modeling of polyurethane hydrolysis used as thermal insulation in oil offshore conditions", Polym. Test., vol. 32, no. 8, pp. 1588–1593, 2013. K. Hakala, R. Vatanparast, E. Vuorimaa, and H. Lemmetyinen, "Monitoring water uptake of polyurethanes by in situ fluorescence technique", J. Appl. Polym. Sci., vol. 82, no. 7, pp. 1593–1599, 2001. J.-C. Berthier, "am3425 - Polyuréthanes PUR", Techniques de l'ingénieur. 2009. M. Leroy, J. Renard, and A. Thionnet, "Caractérisation d'une colle structurale polyuréthane", Materiaux 2010, 2010. J. Crank, The Mathematics of Diffusion. 1975. C.-H. Shen and G. S. Springer, "Moisture Absorption and Desorption of Composite Materials", J. Compos. Mater., vol. 10, pp. 2–20, 1976. 10
{'path': '18/hal.archives-ouvertes.fr-hal-01621541-document.txt'}
Mécanisme de biogenèse des centres Fe/S chez les mammifères : rôle de la frataxine dans le contrôle de la réactivité des persulfures Aubérie Parent To cite this version: Aubérie Parent. Mécanisme de biogenèse des centres Fe/S chez les mammifères : rôle de la frataxine dans le contrôle de la réactivité des persulfures. Biochimie, Biologie Moléculaire. Université Paris Sud - Paris XI, 2014. Français. NNT : 2014PA11T071. tel-01127125 HAL Id: tel-01127125 https://tel.archives-ouvertes.fr/tel-01127125 Submitted on 7 Mar 2015 UNIVERSITÉ PARIS-SUD ÉCOLE DOCTORALE 419 : BIOSIGNE Institut de Chimie des Substances Naturelles THÈSE DE DOCTORAT ASPECTS MOLÉCULAIRES ET CELLULAIRES DE LA BIOLOGIE Soutenue publiquement le 26 Novembre 2014 par Aubérie PARENT Mécanisme de Biogenèse des Centres Fe/S chez les mammifères : Rôle de la frataxine dans le contrôle de la réactivité des persulfures Composition du jury : Directeur de thèse : Benoît D'AUTREAUX CR (ICSN, Gif-sur-Yvette) Rapporteurs : Jean-Michel CAMADRO Stéphane LEMAIRE DR (IJM, Paris) DR (IBPC, Paris) Examinateurs : Victor DUARTE Béatrice PY CR (LCBM, Grenoble) CR (IMM, Marseille) Président du jury : Herman VAN TILBEURGH Professeur (IBBMC, Orsay) Remerciements Je tiens tout d'abord à remercier Benoît D'Autréaux, qui m'a encadrée tout au long de ces trois années de thèse. Je te remercie pour ta patience, nos nombreuses discussions scientifiques et l'encadrement que tu m'as apportée me permettant de grandir et d'évoluer. Je remercie également Jean-Claude Drapier pour son accueil au sein de son équipe à l'Institut de Chimie des Substances Naturelles, pour ses conseils, son enthousiasme et ses friandises que tu nous rapportais lors de chacun de tes déplacements. Je tiens aussi à remercier chaque membre de mon jury, JeanMichel Camadro, Victor Duarte, Stéphane Lemaire, Béatrice Py et Herman Van Tilbeurgh pour avoir accepté de juger mon travail. J'aimerai remercier l'ensemble des personnes que j'ai eu l'occasion de rencontrer au cours de ma thèse et avec lesquelles j'ai pu collaborer et apprendre d'avantage sur d'autres disciplines que la Biochimie. Tout d'abord, merci à Anne Durand, Soufian Ouchane, Anne Soisig Steunou et l'ensemble de l'équipe de Chantal Astier du Centre de Génétique Moléculaire (GCM), pour m'avoir autorisée à utiliser votre presse de French, qui m'a été indispensable pour obtenir ma matière première : mes protéines. Je remercie aussi Véronique Henriot et Julia Jouaret, de la plateforme IMAGIF, pour leur rapidité et leur efficacité dans la confection de nos différents plasmides. Merci également à David Cornu, Manuela Argentini et Laila Sago pour l'intérêt qu'ils ont montré pour notre projet, pour leurs disponibilités et leur patience lors de l'analyse d'échantillons par spectrométrie de masse. Egalement merci aux différentes équipes de l'ICSN avec lesquelles j'ai pu interagir ; je pense notamment à Odile Thoison, Franck Pelissier et Suzanne Ramos, du service HPLC, pour le temps qu'ils m'ont consacrée et les conseils qu'ils m'ont apportée. Un grand merci à l'équipe d'Alain Brunelle, et surtout à Jean-Pierre Le Caer, pour son implication dans notre sujet, pour l'ensemble des analyses de spectrométrie de masse, notamment sur le LTQ-Orbitrap, pour sa patience, ses conseils et ses explications. Je n'oublierai pas Anna Grandas et Xavier Elduque, de l'Université de Barcelone, pour leur précieux peptide-maléimide et cette belle collaboration entre chimistes et biochimistes. Enfin, je voudrai consacrer ses quelques lignes au CEI 2012, qui m'a permis de m'intégrer au sein de l'institut, de faire de belles rencontres et de passer d'agréables moments. J'aimerai aussi remercier chacun des membres de l'équipe « Signalisation redox et fonctions des protéines Fe/S » pour leurs encouragements, leur gentillesse et leur soutien. Je voudrai plus particulièrement remercier : Cendrine et Sergio, que je n'ai connu que quelques mois, mais durant lesquels ils m'ont apportée conseils et sympathie. Sylvie, toujours présente pour m'aider dans la recherche de produits, l'élaboration de protocoles, merci pour tes conseils et tes encouragements. Franck, merci pour ton soutien et tes conseils Cécile, merci pour tes conseils, tes encouragements et ton intérêt scientifique aussi débordant. Ioana et Marie-Pierre, pour l'ensemble de nos discussions, scientifiques ou privées, vos conseils et vos encouragements. J'ai passé au sein de cette équipe trois années au cours desquelles j'ai grandi professionnellement parlant, dans laquelle j'ai été soutenue, conseillée et où j'ai pu rapidement m'intégrer. Un grand merci à TOUS. Je terminerai par remercier mes parents, Denis et Dorothée Parent, pour leur soutien tout au long de mes études et pour m'avoir offert la possibilité de faire un métier qui me passionne. Merci Papa, merci Maman. Je n'oublie pas mon petit frère, Axel, merci mon loulou et j'espère que tu es fier de ta grande soeur ! Enfin, Merci à toi Loïc, pour ton soutien, lors de ces trois années, qui n'ont pas été de tout repos, surtout lors de ces derniers mois. Merci pour ton réconfort, chaque soir et simplement merci d'être là à mes côtés ; grâce à tes encouragements, tu m'as rendue plus forte. Table des matières Table des matières Liste des abréviations 21 Liste des figures 27 Liste des tableaux 31 Chapitre I. Introduction bibliographique 37 A . Les centres Fer-Soufre (Fe/S) 38 A . 1 . Qu'est-ce qu'un centre Fe/S ? 38 A . 1 . 1 . Les centres [2Fe-2S] 39 A . 1 . 2 . Les centres [4Fe-4S] 39 A . 1 . 3 . Les centres [3Fe-4S] 40 A . 1 . 4 . Les centres Fe/S complexes 41 A . 2 . Quels sont leurs rôles ? 41 A . 2 . 1 . Le transfert d'électrons 41 A . 2 . 2 . La catalyse enzymatique 42 A . 2 . 3 . La régulation des gènes 44 A . 2 . 3 . 1 . La protéine IRP1 44 A . 2 . 3 . 2 . Les protéines FNR, SoxR et IscR 45 A . 2 . 4 . La réparation de l'ADN 46 B . La biogenèse des centres Fe/S 48 B . 1 . Historique 48 B . 2 . Le système ISC mitochondrial 51 B . 2 . 1 . La cystéine désulfurase, NFS1 51 B . 2 . 2 . La protéine ISD11 55 B . 2 . 3 . La protéine d'échafaudage, ISCU 56 B . 2 . 3 . 1 . Structure de la protéine ISCU 56 B . 2 . 3 . 2 . Structure du complexe (IscS-IscU)2 58 B . 2 . 3 . 3 . Structure du centre Fe/S d'ISCU 59 B . 2 . 3 . 4 . Mobilisation du soufre : Transfert de soufre de NFS1 vers ISCU 62 B . 2 . 4 . La ferrédoxine mitochondriale : FDX2 63 B . 2 . 5 . Modèle biogenèse des centres Fe/S 63 B . 2 . 6 . Transfert du centre Fe/S d'ISCU vers les apo-protéines cibles 65 B . 2 . 6 . 1 . Le système de chaperonne/co-chaperonne 66 B . 2 . 6 . 2 . Les transporteurs intermédiaires 68 11 Table des matières B . 2 . 7 . Le cas particulier du système SUF 70 B . 3 . Biogenèse des centres Fe/S cytosoliques 71 B . 3 . 1 . La machinerie EXPORT, le composé X et CIA 71 B . 3 . 2 . Un domaine de controverse 72 C . La frataxine : de l'ataxie de Friedreich à la biogenèse des centres Fe/S 72 C . 1 . Les origines génétiques de l'ataxie de Friedreich 72 C . 2 . La frataxine 73 C . 2 . 1 . Localisation et maturation 73 C . 2 . 2 . Structure tridimensionnelle 74 C . 3 . Frataxine et métabolisme du fer : Quelle fonction ? 77 C . 3 . 1 . La frataxine comme protéine de stockage du fer ? 77 C . 3 . 2 . La frataxine et la biogenèse des centres Fe/S 79 C . 3 . 2 . 1 . La frataxine comme une chaperonne à fer ? 80 C . 3 . 2 . 2 . Spécificité de la frataxine pour la machinerie ISC 81 C . 3 . 2 . 2 . 1 . Deux fonctions différentes pour FXN et CyaY 82 C . 3 . 2 . 2 . 2 . La frataxine comme activateur de la formation d'ions sulfures ? 84 D . Mon projet de thèse 85 Chapitre II. Matériels et méthodes 91 A . Matériels biologiques 91 A . 1 . Système de surexpression bactérien : souche Escherichia Coli Rosetta2 (DE3) 91 A . 2 . Vecteurs de surexpression 91 A . 3 . Transformation des bactéries compétentes : Rosetta2 (DE3) 92 B . Production des protéines 93 B . 1 . Le milieu de culture 93 B . 2 . Surexpression des protéines 93 B . 3 . Extraction 94 B . 4 . Purification des protéines 94 B . 4 . 1 . Chromatographie d'affinité 94 B . 4 . 2 . Désalage des protéines 95 B . 4 . 3 . Clivage de l'étiquette poly-histidine par la thrombine 95 B . 4 . 4 . Chromatographie d'exclusion stérique 96 C . Dosage des protéines 97 C . 1 . Méthode de Bradford 97 C . 2 . Absorption à 280 nm 97 12 Table des matières D . Etude de la formation des complexes ternaires et quaternaires 99 D . 1 . Etude de la formation des complexes par gel natif 99 D . 1 . 1 . Principe du gel natif 99 D . 1 . 2 . Protocole 99 D . 2 . Etude de la formation des complexes par réaction de couplage 99 D . 2 . 1 . Préparation de la solution de DST (ou DSS) 100 D . 2 . 2 . Protocole 100 D . 3 . Etude de la formation des complexes par chromatographie d'affinité 100 D . 4 . Etude de la formation des complexes par chromatographie d'exclusion stérique 101 E . Test d'alkylation des protéines avec le MalP16 102 E . 1 . Cinétique de formation des persulfures 102 E . 2 . Cinétique de réduction des persulfures 103 F . Test d'activité cystéine désulfurase 103 F . 1 . Qu'est-ce qu'une cystéine désulfurase ? 103 F . 2 . Protocole du test d'activité cystéine désulfurase 104 F . 2 . 1 . Dosage du soufre 104 F . 2 . 2 . Dosage de l'alanine 105 G . Expériences de reconstitution des centres Fe/S 107 G . 1 . Suivi par UV-visible 107 G . 2 . Suivi par alkylation des protéines avec le MalP16 108 H . Spectrométrie de masse 108 H . 1 . Analyse des protéines entières par ESI-Q/TOF 108 H . 2 . Analyse des peptides par LTQ-Orbitrap XL 109 I . Chromatographie en phase liquide haute performance (HPLC) 110 I . 1 . AccQ-Fluo Reagent Kit 110 I . 2 . Protocole 111 J . Dosage du soufre dans la protéine NSP5 111 Chapitre III. Purification des protéines et étude de la formation des complexes de la machinerie ISC 117 A . Purification des protéines 117 A . 1 . Obtention des plasmides et surexpression des protéines 117 A . 2 . Purification des protéines 119 A . 2 . 1 . Purification de NFS1 et du complexe NFS1-ISD11 119 A . 2 . 1 . 1 . Analyse des extraits bruts 119 13 Table des matières A . 2 . 1 . 2 . Chromatographie d'affinité 121 A . 2 . 1 . 3 . Test de clivage par la thrombine 122 A . 2 . 1 . 4 . Chromatographie d'exclusion stérique 123 A . 2 . 1 . 5 . Identification de la modification de NFS1 par LTQ-Orbitrap XL 125 A . 2 . 1 . 5 . 1 . Principe du LTQ-Orbitrap XL 125 A . 2 . 1 . 5 . 2 . Exploitation des résultats 126 A . 2 . 2 . Purification de la protéine ISCU 129 A . 2 . 2 . 1 . Analyse des extraits bruts 129 A . 2 . 2 . 2 . Chromatographie d'affinité 129 A . 2 . 2 . 3 . Clivage de l'étiquette poly-histidine d'ISCU par la thrombine 130 A . 2 . 2 . 4 . Chromatographie d'exclusion stérique 132 A . 2 . 3 . Purification de la protéine FXN 133 A . 2 . 3 . 1 . Analyse des extraits bruts 133 A . 2 . 3 . 3 . Clivage de l'étiquette poly-histidine de FXN par la thrombine 135 A . 2 . 3 . 4 . Chromatographie d'exclusion stérique 136 A . 2 . 4 . Purification des protéines FDX2 et GLRX5 137 B . Etude de la formation des complexes entre les protéines NFS1, ISD11, ISCU et FXN 138 B . 1 . Etude de la formation des complexes par électrophorèse en conditions non dénaturantes 139 B . 2 . Etude de la formation des complexes par réaction de crosslink 142 B . 2 . 1 . Le choix du crosslinker 142 B . 2 . 2 . Réaction de couplage 143 B . 3 . Etude de la formation des complexes par chromatographie d'affinité 145 B . 3 . 1 . Influence de l'imidazole dans l'interaction entre FXN et NIU 147 B . 3 . 2 . Influence du fer et de la L-cystéine dans la formation du complexe NIUF 147 B . 4 . Etude de la formation des complexes par chromatographie d'exclusion stérique 148 B . 4 . 1 . Analyse du complexe NIU 149 B . 4 . 2 . Analyse du complexe NIUF 150 B . 4 . 3 . Analyse du complexe NIF 151 B . 5 . Détermination de la stoechiométrie des complexes par mesure de l'activité cystéine désulfurase 152 B . 6 . Formation des complexes ternaires et quaternaires avec les mutants d'ISCU et de FXN 154 C . Discussion - Conclusion 158 Chapitre IV. Etude des effets de la protéine ISCU sur le complexe NFS1ISD11 167 14 Table des matières A . Etude des effets de la protéine ISCU sur le complexe NFS1-ISD11 par mesure de l'activité cystéine désulfurase 167 B . Etude de la formation du persulfure de NFS1 dans les complexes NI et NIU 171 B . 1 . Etude de la formation du persulfure de NFS1 par alkylation des protéines avec le MalP16 . 171 B . 1 . 1 . Principe du test de détection des persulfures par l'alkylation des protéines avec le MalP16 171 B . 1 . 2 . Utilisation du test d'alkylation au MalP16 pour l'étude des cinétiques de formation du persulfure de NFS1 175 B . 1 . 3 . Effet de la protéine ISCU sur la cinétique de formation du persulfure de NFS1 175 B . 2 . Etude de la formation du persulfure de NFS1 par spectrométrie de masse en protéine entière 177 C . Etude du transfert de soufre de NFS1 vers ISCU 180 C . 1 . Etude du transfert de soufre par alkylation des protéines avec le MalP16 181 C . 1 . 1 . Analyse de la protéine ISCU par alkylation avec le MalP16 181 C . 1 . 2 . Etude du transfert de soufre entre NFS1 et ISCU par alkylation des protéines avec le MalP16 181 C . 1 . 3 . Mécanisme de transfert 184 C . 2 . Analyse du transfert de soufre par spectrométrie de masse en protéine entière 185 D . Identification de la cystéine persulfurée d'ISCU 186 D . 1 . Identification de la cystéine persulfurée d'ISCU par LTQ-Orbitrap XL 186 D . 2 . Identification de la cystéine persulfurée d'ISCU avec les mutants C35S, C61S et C104S d'ISCU 188 E . Etude de la réduction du persulfure de NFS1 dans les complexes NI et NIU 190 F . Etude de la réduction du persulfure d'ISCU par alkylation des protéines avec le MalP16 192 G . Analyse de l'activité cystéine désulfurase en cycle multiple 194 G . 1 . Identification de l'étape limitante 194 G . 2 . Mécanisme de réduction 195 G . 3 . Etude des mutants C104S et C104G d'ISCU 198 H . Discussion – Conclusion 199 Chapitre V. Etude des effets de la protéine FXN sur les complexes NFS1ISD11 et NFS1-ISD11-ISCU 209 15 Table des matières A . Effets de la protéine FXN sur la formation et la réduction des persulfures dans le complexe NFS1-ISD11-ISCU 209 A . 1 . Effets de la protéine FXN sur la formation du persulfure de NFS1 210 A . 1 . 1 . Effets de la protéine FXN sur la formation du persulfure de NFS1 étudiés par alkylation des protéine avec le MalP16 210 A . 1 . 2 . Effets de la protéine FXN sur la formation du persulfure de NFS1 étudiés par spectrométrie de masse en protéine entière 212 A . 1 . 3 . Effet de la concentration en complexe et en L-cystéine sur la formation du persulfure de NFS1 en présence de FXN 213 B . Effets de la protéine FXN sur le transfert de soufre de NFS1 vers ISCU 215 B . 1 . Effets de la protéine FXN sur le transfert de soufre étudiés par alkylation au MalP16 215 B . 2 . Effets de le protéine FXN sur le transfert de soufre étudiés par spectrométrie de masse en protéine entière 217 B . 3 . Effets de la protéine FXN sur le transfert de soufre entre NFS1 et les mutants C35S et C104S d'ISCU 219 C . Etude des effets de la protéine FXN sur les réactions de réduction des persulfures de NFS1 et d'ISCU 220 C . 1 . Effet de la protéine FXN sur la réduction du persulfure de NFS1 220 C . 2 . Effets de la protéine FXN sur la réduction du persulfure d'ISCU 222 D . Etude de la réduction du persulfure de NFS1 par mesure de l'activité cystéine désulfurase en cycle multiple 223 E . Etude du mécanisme d'activation par la frataxine 225 E . 1 . Spécificité de la réduction par les réducteurs externes 225 E . 2 . Etude des activités persulfure réductase de FDX2 et GLRX5 227 E . 3 . Etude du mutant R162A de FXN 228 F . Etude du mutant M106I d'ISCU : un homologue fonctionnel de FXN ? 230 F . 1 . Etude de la réduction du persulfure de NFS1 230 F . 2 . Etude du transfert de soufre entre NFS1 et ISCUM106I 231 F . 3 . Etude de la vitesse de réduction du persulfure d'ISCUM106I 232 G . Discussion - Conclusion 233 Chapitre VI. Etudes des mécanismes de formation d'un centre Fe/S sur la protéine ISCU 241 A . Reconstitution d'un centre Fe/S in vitro sur la protéine ISCU 241 16 Table des matières A . 1 . Reconstitution Fe/S en présence de DTT 241 A . 2 . Reconstitution Fe/S avec la L-cystéine comme réducteur 244 A . 3 . Etude du mutant M106I d'ISCU 246 B . Discussion - Conclusion 247 Chapitre VII. Conclusion Générale 253 Références Bibliographiques 261 Annexe 1. Comparaison des alignements des séquences codantes de NFS1 de souris (séquence 1) et du plasmide pCDFDuet NFS1-ISD11 (séquence 2) 281 Annexe 2. Séquence protéique de NFS1 286 Annexe 3. Séquence protéique d'ISD11 287 Annexe 4. Séquences protéiques d'ISCU WT et ses mutants C35S, C61S, C104S, C104G et M106I 288 Annexe 5. Séquences Protéiques de FXN WT et son mutant R162A 290 Annexe 6. Principe de la presse de French 292 Annexe 7. Principe de la chromatographie d'affinité sur colonne de nickel 293 Annexe 8. Principe de la colonne Superdex (75 ou 200) 294 Annexe 9. Structure du site de clivage reconnu par la thrombine 295 Annexe 10. Composition des gels et des tampons pour l'électrophorèse en conditions nondénaturantes (gel natif) 296 Annexe 11. Composition des gels et des tampons pour l'électrophorèse SDS-PAGE 297 Annexe 12. Composition des gels et des tampons pour le Western Blot 298 Annexe 13. Principe du spectromètre de masse ESI-Q/TOF 299 Annexe 14. Principe de fonctionnement du LTQ-Orbitrap 302 Annexe 15. Identification de la cystéine persulfurée de NFS1 dans le complexe NIUF 303 Annexe 16. Identification de la cystéine persulfurée d'ISCU dans le complexe NIU 305 Annexe 17. Identification de la cystéine persulfurée d'ISCU dans le complexe NIU 306 Annexe 18. Identification de la cystéine persulfurée d'ISCU dans le complexe NIUF 308 Annexe 19. Identification de la cystéine persulfurée d'ISCU dans le complexe NIUF 309 Annexe 20. Constante de vitesse, kR1, de réduction du persulfure de NFS1 par la L-cystéine 311 17 Liste des abréviations Liste des abréviations ABCB7 ADH ADN Ado• ADP A. fulgidus ALR APS ARN ATP A. thaliana A. vinelandii BAG BER BSA B. subtilis Cam CFD1 CIA CSD CyaY Da DMPD DO DSS DST DTT E. coli EDTA EndoIII ESI FDX2 Fe/S FNR FRDA FXN (F) GLRX5 Grx5 ATP-binding cassette B7 Alanine déshydrogénase Acide désoxyribonucléique Radical 5'-deoxyadenosyl Adenosine diphosphate Archeoglobus fulgidus Augmenter of liver regeneration Ammonium persulfate Acide ribonucléique Adénosine triphosphate Arabidopsis thaliana Azotobacter vinelandii Boîte à gant Base excision repair Bovine serum albumine Bacillus subtilis Carbamidométhylation Cytosolic Fe/S cluster deficient 1 Cytosolic iron-sulfur cluster Assembly Cysteine sulfinate desulfurase homologue bactérien de frataxine Dalton Diméthyl phénylène diamine Densité optique Disuccinimidyl sulerate (crosslinker) Disuccinimidyl tartrate (crosslinker) Dithiothreitol Escherichia coli Ethylenediamnietetraacic acid Endonucléase III Electron spray ionisation Ferrédoxine 2 (mammifères) Fer-soufre (centre) Fumarate and Nitrate reduction Friedreich ataxia Frataxine Glutarédoxine 5 (mammifères) Glutarédoxine 5 (levure) 21 Liste des abréviations GSH H. influenza HscA HscB HSPA9 Hsp20 Hsp70 IAA IPTG IRE IRP1 ISC ISCU (U) IscU ISD11 (I) Isd11 kDa LB LTQ-Orbitrap MalP16 MBS mL μL mM μM nM MOPS MTTase M. tuberculosis MSCC MW MWCO NAD(P)+/NAD(P)H NFS1 (N) Nfs1 NI NIF NIF Glutathion Haemophilus influenza Heat shock cognate A Heat shock cognate B Heat shock protein 70 kDa 9 Heat shock protein 20 kDa Heat shock protein 70 kDa Iodoacétamide Isopropyl β-D-thiogalactopyranoside Iron-responsive element Iron regulatory protein 1 Iron-sulfur cluster Iron-sulfur cluster U-type protein (mammifères) Iron-sulfur cluster U-type protein (procaryotes) Iron-sulfur protein biogenesis, desulfurase-interacting protein 11 (mammifères) Iron-sulfur protein biogenesis, desulfurase-interacting protein 11 (levure) Kilo Dalton Luria Bertani Linear ion trap quadripole-Orbitrap Maléimide peptide 16 M-maleimidobenzoyl-N-hydroxysuccinimide ester (crosslinker) Millilitre Microlitre Millimolaire (ou millimoles par litre (mmol.L-1) Micromolaire (ou micromoles par litre (μmol.L-1) Nanomolaire (ou nanomoles par litre (nmol.L-1) 3-N-morpholinopropane sulfonic acid Méthylthiotransférase Mycobacterium tuberculosis Succinimidyl-4-[N-maléimidométhyl]cyclohexane-1-carboxylate (crosslinker) Molecular weight Molecular weight cut-off Nicotinamide adénine dinucleotide (phosphate) oxydé/réduit Nitrogen fixation 1 homolog (mammifères) Nitrogen fixation 1 homolog (levures) Complexe NFS1-ISD11 Nitrogen fixation Complexe NFS1-ISD11-FXN 22 Liste des abréviations NIU NIUF PDB PLP P. viridiflava Q RMN rpm SAM S. cerevisiae SDB SDS SDS-PAGE S. flexneri SOD S. pyogenes SUF Tampon A Tampon B Tampon C Tampon D Tampon E Tampon F TEMED T. maritima TOF 5'-UTR UV XLSA/A Yfh1 °C Complexe NFS1-ISD11-ISCU Complexe NFS1-ISD11-ISCU-FXN Protein data bank Pyridoxal-5'-posphate Pseudomonas viridiflava Quadripôle (spectrométrie de masse) Résonnance magnétique nucléaire Rotation par minute S-adénosylméthionine Saccharomyces serevisiae Substrat binding domain Sodium dodécyl sulfate Sodium dodecyl sulfate polyacrylamide gel electrophoresis Shigella flexneri Superoxyde dismutase Streptococcus pyogenes Sulfur mobilization Composé de 50 mM de Na2HPO4, 150 mM NaCl, 5 mM Imidazole, pH 8 Composé de 50 mM de Na2HPO4, 150 mM NaCl, 500 mM Imidazole, pH 8 Composé de 50 mM de Na2HPO4, 150 mM NaCl, pH 8 Composé de 50 mM de Na2HPO4, 150 mM NaCl, 100 mM Imidazole, pH 8 Composé de 50 mM de Na2HPO4, 150 mM NaCl, 800 μM Imidazole, pH 8 Composé de 50 mM de Na2HPO4, 150 mM NaCl, 200 mM Imidazole, pH 8 Tétraméthyléthylènediamine Thermatoga maritime Time of fly (spectrométrie de masse) 5'-Untranslated region Ultra-violet X-linked sideroblastic anemia and ataxia Yeast frataxin homolog 1 Degré Celsius 23 Listes des figures et tableaux Liste des figures Figure I. 1. Structure du complexe I de la chaîne respiratoire mitochondriale 42 Figure I. 2. Schéma du cycle catalytique de l'aconitase mitochondriale 43 Figure I. 3. Les protéines à radical-SAM 43 Figure I. 4. Schéma du principe de fonctionnement de la protéine IRP1. 45 Figure I. 5. Schéma du principe de fonctionnement des BER glycosylases. 47 Figure I. 6. Alignement de séquences protéiques des cystéines désulfurases. 52 Figure I. 7. Structures cristallographiques des cystéines désulfurases NifS et IscS de différents organismes 53 Figure I. 8. Visualisation des domaines d'IscS (Figure I. 7) et du site de fixation du PLP 53 Figure I. 9. Schéma du cycle catalytique réalisé par les cystéines désulfurases. 55 Figure I. 10. Structures d'IscU de chez Haemophilus influenza et Escherichia coli obtenues par RMN. 57 Figure I. 11. Structures des complexes (IscS-IscU)2 d'Echérichia coli et Archaeoglobus fulgidus, obtenues par cristallogenèse 58 Figure I. 12. Structures des protéines IscU Haemophilus influenza et Streptococcus pyogenes ayant incorporé un atome de zinc. 59 Figure I. 13. Alignement des séquences protéiques correspondant aux protéines NifU, IscU et ISCU 60 Figure I. 14. Structure du complexe (IscS-IscU)2 d Archaeoglobus fulgidus obtenue par cristallogenèse. 61 Figure I. 15. Schéma d'organisation de la biogenèse des centres Fe/S 64 Figure I. 16. Schéma du mécanisme séquentiel de transfert du centre Fe/S avec le système HscA/HscB 67 Figure I. 17. Schéma représentatif de la biogenèse des centres Fe/S chez les mammifères . 69 Figure I. 18. Structures des protéines frataxines eucaryotes et procaryotes. 74 Figure I. 19. Distribution des charges sur la surface de la protéine FXN (Homo sapiens) 75 Figure I. 20. Localisation des mutants FRDA de la FXN 76 Figure I. 21. Les oligomères d'Yfh1 (S. cerevisiae) 78 Figure I. 22. Structure du complexe IscS-IscU-CyaY 82 Figure II. 1. Principe de fonctionnement des cystéines désulfurases 103 Figure II. 2. Principe du dosage des ions sulfures produit au cours du test d'activité cystéine désulfurase. 104 Figure II. 3. Principe de fonctionnement de l'alanine déshydrogénase (ADH). 105 Figure II. 4. Courbe expérimentale de l'analyse d'un échantillon grâce à l'ADH. 106 Figure II. 5. Principe de la dérivatisation des amines primaires et secondaires par l'AQC 110 27 Listes des figures et tableaux Figure III. 1. Alignement des séquences en N-terminal des cystéines désulfurases procaryotes et eucaryotes. 118 Figure III. 2. Extraction de la protéine NFS1 (33-459). 119 Figure III. 3. Surexpression et extraction des protéines NFS1 et ISD11. 120 Figure III. 4. Purification du complexe NFS1-ISD11 par chromatographie d'affinité. 121 Figure III. 5. Test de clivage de l'étiquette poly-histidine de NFS1. 122 Figure III. 6. Purification du complexe NFS1-ISD11 par chromatographie d'exclusion de taille 123 Figure III. 7. Etat de pureté du complexe NFS1-ISD11. 124 Figure III. 8. Spectre de masse ESI-Q/TOF du complexe NI. 125 Figure III. 9. Analyse ORBITRAP-MS/MS du peptide GHHHHHHSQLVPR. 127 Figure III. 10. Surexpression et extraction de la protéine ISCU. 129 Figure III. 11. Purification de la protéine ISCU par chromatographie d'affinité. 130 Figure III. 12. Test de Clivage de l'étiquette poly-histidine d'ISCU 131 Figure III. 13. Purification de la protéine ISCU par chromatographie d'exclusion de taille. 132 Figure III. 14. Surexpression et extraction de la protéine FXN. 134 Figure III. 15. Purification de la protéine FXN par chromatographie d'affinité. 135 Figure III. 16. Test de clivage de l'étiquette poly-histidine de la protéine FXN 136 Figure III. 17. Purification de la protéine FXN sur la colonne Superdex 75. 136 Figure III. 18. Purification de la protéine FDX2 par chromatographie d'exclusion de taille et caractérisation par UV-visible. 137 Figure III. 19. Purification de la protéine GLRX5 par chromatographie d'exclusion de taille. 138 Figure III. 20. Analyse de la formation des complexes par gel natif. 140 Figure III. 21. Structures des quatre crosslinkers utilisés pour l'étude de la formation des complexes. 142 Figure III. 22. Etude de la formation des complexes avec différents crosslinkers. 144 Figure III. 23. Etude de la formation des complexes par chromatographie d'affinité. 145 Figure III. 24. Identification des protéines ISCU et FXN par western blot après analyse sur la colonne de nickel. 146 Figure III. 25. Profil d'élution des chromatogrammes obtenus lors de l'analyse sur Superdex 200 Analytique du complexe NFS1-ISD11 (20 μM) et des protéines ISCU et FXN (20 μM). 149 Figure III. 26. Caractérisation du complexe NIU 149 Figure III. 27. Caractérisation du complexe NIUF. 150 Figure III. 28. Caractérisation du complexe NIF 151 Figure III. 29. Détermination de la stoechiométrie du complexe NIU. 152 Figure III. 30. Détermination de la stoechiométrie du complexe NIUF. 153 Figure III. 31. Détermination de la stoechiométrie du mélange NI + F 153 28 Listes des figures et tableaux Figure III. 32. Caractérisation du complexe NIUC35S. 154 Figure III. 33. Caractérisation du complexe NIUC104S. 154 Figure III. 34. Caractérisation du complexe NIUC61S. 155 Figure III. 35. Vitesses initiales mesurées par les activités cystéine désulfurase des complexes NIU, NIUC104S, NIUC104G et NIUM106I. 156 Figure III. 36. Caractérisation du complexe NIUF avec les mutants C35S et C104S d'ISCU. 157 Figure IV. 1. Schéma des réactions de formation et de réduction du persulfure de la protéine NFS1 168 Figure IV. 2. Activité cystéine désulfurase des complexes NI et NIU. 169 Figure IV. 3. Evolution de la quantité de soufre d'une solution de Na2S à pH 10 et à pH 8 170 Figure IV. 4. Principe du test de détection des persulfures par alkylation des protéines avec le MalP 172 Figure IV. 5. Structures des Maléimides-Peptides testés 173 Figure IV. 6. Principe du test d'alkylation avec le MalP16 174 Figure IV. 7. Formation du persulfure de NFS1 dans les complexes NI et NIU. 175 Figure IV. 8. Quantification des gels SDS-PAGE de la Figure IV. 7, B. 176 Figure IV. 9. Spectres de masse ESI-Q/TOF des complexes NI et NIU 178 Figure IV. 10. Principe d'alkylation de la protéine ISCU par le MalP16. 181 Figure IV. 11. Etude du transfert de soufre entre NFS1 et ISCU par alkylation des protéines avec le MalP16. 182 Figure IV. 12. Quantification des gels SDS-PAGE de la Figure IV. 11, B. 183 Figure IV. 13. Mise en évidence d'un transfert de soufre direct entre NFS1 et ISCU 184 Figure IV. 14. Analyse du transfert de soufre entre NFS1 et ISCU par spectrométrie de masse en protéine entière. 185 Figure IV. 15. Séquence de la protéine ISCU de souris 187 Figure IV. 16. Cinétique de formation du persulfure d'ISCUC35S 188 Figure IV. 17. Cinétique de formation du persulfure d'ISCUC104S 189 Figure IV. 18. Réduction du persulfure de NFS1 dans les complexes NI et NIU. 190 Figure IV. 19. Cinétique de réduction du persulfure d'ISCU, du complexe NIU, par le DTT. 192 Figure IV. 20. Formation de l'alanine par les complexes NI et NIU en fonction du temps. 194 Figure IV. 21. Mesure de l'alanine après 10 secondes de réaction pour différentes concentrations du complexe NFS1-ISD11 195 Figure IV. 22. Etude de la réduction des persulfures des complexes NI et NIU par la Lcystéine 196 Figure IV. 23. Diagramme des vitesses initiales obtenues pour chacun des complexes NI, NIU, NIUC104S et NIUC104G. 198 Figure IV. 24. Mécanisme séquentiel de formation et de réduction des persulfures du complexe NIU. 202 29 Listes des figures et tableaux Figure V. 1. Activité cystéine désulfurase du mélange NI+F et du complexe NIUF. 210 Figure V. 2. Etude de la formation du persulfure de NFS1 dans le mélange NI+F et le complexe NIUF. 211 Figure V. 3. Spectres de masse ESI-Q/TOF reconstitués des complexes NI (B), NIU (C) et NIUF (E) et du mélange NI+F (D) 212 Figure V. 4. Etude de la formation du persulfure de NFS1 à 50nM, en présence ou non de FXN. 214 Figure V. 5. Etude du transfert de soufre entre NFS1 et ISCU dans le complexe NIUF. 215 Figure V. 6. Etude de la réaction de transfert entre NFS1 et ISCU dans le complexe NIUF. 216 Figure V. 7. Spectres de masse ESI-Q/TOF reconstitués du complexe NIUF en absence (A) ou en présence (B) de L-cystéine 217 Figure V. 8. Cinétique de formation du persulfure d'ISCU dans les complexes quaternaires avec les mutants C35S et C104S d'ISCU. 219 Figure V. 9. Vitesses initiales mesurées par les activités cystéine désulfurase des complexes NIU, NIUC104S, NIUC104G en présence ou non de frataxine 220 Figure V. 10. Etude de la réduction du persulfure de NFS1 dans le mélange NI+F et le complexe NIUF 221 Figure V. 11. Etude de la réduction du persulfure d'ISCU dans le complexe NIUF. 222 Figure V. 12. Alanine produite au cours du temps pour le mélange NI+F et le complexe NIUF 223 Figure V. 13. Réduction du persulfure de NFS1 du complexe NIUF par le L-cystéine 225 Figure V. 14. Comparaison des constantes de vitesse kR1 déterminées pour les complexes NIU et NIUF, incubés avec différents réducteurs 226 Figure V. 15. Réduction des persulfures de NFS1 et d'ISCU par les protéines FDX2 et GLRX5. 228 Figure V. 16. Etude du transfert de soufre entre NFS1 et ISCU dans le complexe NIUFR162A 229 Figure V. 17. Etude de la réduction du persulfure de NFS1 dans le complexe NIUM106I. 230 Figure V. 18. Etude du transfert de soufre entre NFS1 et ISCU dans les complexes NIUM106I et NIUM106IF. 231 Figure V. 19. Etude de la réduction du persulfure d'ISCU dans le complexe NIUM106I. 232 Figure V. 20. Schéma proposé du mécanisme d'action de la frataxine sur le complexe NIU 234 Figure VI. 1. Reconstitution des centres Fe/S sur les complexes NIU et NIUF, en présence de DTT, suivi par UV-visible 242 Figure VI. 2. Reconstitution des centres Fe/S sur les complexes NIU et NIUF, en présence de DTT, suivi par alkylation au MalP16 243 Figure VI. 3. Reconstitution des centres Fe/S sur les complexes NIU et NIUF, en absence de DTT, suivi par UV-visible 244 30 Listes des figures et tableaux Figure VI. 4. Reconstitution des centres Fe/S sur les complexes NIU et NIUf, en absence de DTT, suivi par alkylation au MalP16 245 Figure VI. 5. Effet du mutant M106I d'ISCU au cours de la reconstitution des centres Fe/S. 247 Liste des tableaux Tableau I. 1. Structures et propriétés des centres [2Fe-2S], [4Fe-4S] et [3Fe-4S]. 40 Tableau I. 2. Récapitulatif des protéines eucaryotes impliquées dans la biogenèse des centres Fe/S et leurs homologues chez la levure et la bactérie. 50 Tableau II. 1. Résumé de l'ensemble des plasmides utilisés au cours de ma thèse. 92 Tableau II. 2. Coefficients d'extinction molaire de chacune des protéines étudiées au cours de ma thèse et leurs références. 98 Tableau II. 3. Récapitulatif du gradient suivi au cours des analyses d'échantillons par HPLC. 111 Tableau III. 1. Résumé des valeurs obtenues par l'analyse ORBITRAP-MS/MS pour le peptide GHHHHHHSQLVPR 128 Tableau IV. 1. Résumé des résultats obtenus après analyse de la digestion tryptique de NFS1 par le spectromètre de masse LTQ-Orbitrap XL 179 Tableau IV. 2. Résumé des résultats obtenus après analyse des peptides des protéines NFS1, ISD11 et ISCU sur le spectromètre de masse LTQ-Orbitrap XL 187 Tableau IV. 3. Récapitulatif des constantes de vitesse déterminées. 193 Tableau V. 1. Identification de la cystéine persulfurée d'ISCU dans le complexe NIUF 217 Tableau V. 2. Résumé des constantes de vitesse calculées. 223 Tableau V. 3. Résumé des constantes de vitesse kR1 déterminées pour le complexe NIUF, pour différents réducteurs 227 31 Chapitre I Introduction bibliographique Introduction bibliographique Chapitre I. Introduction bibliographique Les métalloprotéines appartiennent à un grand groupe de protéines ayant incorporées un métal au sein de leurs structures. Ce cofacteur permet à ces métalloprotéines d'acquérir soit une conformation particulière, soit une activité catalytique. Les métaux les plus fréquemment rencontrés en biologie sont le cuivre, le zinc, le manganèse et surtout le fer. Les atomes de fer peuvent être incorporés au sein d'une protéine soit sous forme hémique ou nonhémique, soit sous la forme d'un édifice appelé centre « Fer-Soufre » (Fe/S). Il a été proposé que la vie sur Terre soit apparue à la surface de pierres de pyrite (FeS2) (Wachtershauser 1988). Ces pierres, composées de fer et de soufre, sont considérées aujourd'hui comme de possibles précurseurs des centres Fe/S. Ces édifices sont d'ailleurs présents chez tous les organismes, de la bactérie jusqu'aux mammifères. Les centres Fe/S sont des constituants essentiels pour le bon fonctionnement d'une cellule, puisqu'un déficit de centres Fe/S entraine des maladies graves notamment neurodégénératives et cardiaques. Cependant, bien qu'il soit possible in vitro de reconstituer un centre Fe/S au sein d'une protéine à partir de solutions de fer et de soufre inorganique ; in vivo, la synthèse des centres Fe/S nécessite une ou plusieurs machineries multi-protéiques. Un certain nombre de composants des machineries d'assemblage des centres Fe/S découvertes chez les mammifères présentent de fortes homologies avec les systèmes bactériens, ce qui suggère un degré important de conservation des mécanismes de biogenèse des centres Fe/S au cours de l'évolution. Mon sujet de thèse a été essentiellement axé sur les mécanismes de biogenèse de ces centres Fe/S chez les mammifères. La première partie de cette introduction sera consacrée à la fonction de ces centres Fe/S. Dans la seconde partie, nous aborderons la description des mécanismes de biosynthèse des centres Fe/S chez les mammifères ; où les similitudes avec les systèmes bactériens seront mises en avant. Enfin, mon travail de recherche a été principalement consacré à une petite protéine mitochondriale, la frataxine, impliquée dans les premières étapes de la biogenèse des centres Fe/S. Un défaut de synthèse de la frataxine est à l'origine de l'ataxie de Friedreich, une maladie neurodégénérative. Depuis cette découverte dans les années 90, et malgré de nombreux travaux pour tenter de comprendre sa fonction, le rôle de la frataxine est encore mal connu et controversé, ce qui limite probablement le développement de traitement pour lutter contre cette maladie. L'ensemble des études réalisées sur cette protéine seront présentées dans la troisième et dernière partie de cette introduction. 37 Introduction bibliographique A . Les centres Fer-Soufre (Fe/S) A . 1 . Qu'est-ce qu'un centre Fe/S ? Les centres Fe/S ont été découverts dans les années 60 (Beinert et al. 1960; Sands et al. 1960; Shethna et al. 1964; Zeylemaker et al. 1965; DerVartanian et al. 1967; Shethna et al. 1968) et suscitent depuis un très grand intérêt. Ce sont de petits groupements prosthétiques, composés d'atomes de fer et de soufre inorganique (S2-). Au sein de la protéine, les atomes de fer du centre Fe/S sont coordonnés majoritairement par les groupements thiols des résidus cystéines. Toutefois, des ligands de natures différentes peuvent intervenir. Par exemple, on retrouve, les atomes d'azote des résidus arginines (Berkovitch et al. 2004) et histidines (Lin et al. 2007), comme pour la protéine de Rieske (Iwata et al. 1996) ou les protéines à motifs « CDGSH » (Lin et al. 2011), avec la protéine mitoNEET qui est étudiée au laboratoire (Ferecatu et al. 2014). Les atomes d'oxygène appartenant aux résidus sérines (Brereton et al. 1999), aspartates (Calzolai et al. 1995) et glutamines (Dobritzsch et al. 2001) peuvent également lier l'atome de fer du centre Fe/S. Il a été observé que les atomes de fer des centres Fe/S pouvaient aussi être reliés à des ligands exogènes. Ces ligands peuvent être le substrat de l'enzyme, un cofacteur ou encore une molécule d'eau (Lauble et al. 1992; Berkovitch et al. 2004). Les centres Fe/S incorporés au sein des protéines sont présents sous plusieurs états rédox caractérisés par un potentiel rédox qui dépend de la nature des ligands du centre Fe/S, de son environnement protéique et de sa géométrie. A l'heure actuelle, l'ensemble des protéines à centre Fe/S découvertes (notées protéines Fe/S par la suite) englobe la quasitotalité de l'échelle des potentiels rédox des réactions du vivant (-800 mV à 800mV) ; permettant aux protéines Fe/S d'être impliquées dans des mécanismes biologiques fondamentaux aussi divers et variés que la respiration mitochondriale, la régulation de l'expression des gènes et la catalyse de réactions chimiques. Malgré un grand nombre de protéines Fe/S connues, aucun motif de séquence universel à toutes ces protéines, n'a été identifié. C'est pourquoi, à partir d'une séquence d'acides aminés, il est difficile de prédire si une protéine peut contenir un centre Fe/S. Cependant, il existe des motifs de séquence conservés, comme le motif « CX4CX2CX30C » 38 Introduction bibliographique (où C correspond à une cystéine et X, un acide aminé quelconque), pour les centres [2Fe-2S] des ferrédoxines de mammifère et de plante ; ou encore le motif « CX2CX2CX20-40C », pour les centres [4Fe-4S] caractérisés notamment chez les ferrédoxines [4Fe-4S] (Xu et al. 2011). Les centres Fe/S existent sous plusieurs formes que nous allons décrire plus en détails ci-dessous. A . 1 . 1 . Les centres [2Fe-2S] Les centres [2Fe-2S] sont composés de deux atomes de fer, présents soit sous forme ferrique (Fe3+) ou ferreuse (Fe2+) et de deux atomes de soufre inorganique (S2-), organisés dans une géométrie tétraédrique rhombique (Tableau I. 1). Les atomes de fer sont reliés à la fois par les deux atomes de soufre et par deux autres ligands appartenant à la chaîne polypeptidique de la protéine. Les centres [2Fe-2S] existent sous deux états rédox : 1) un état oxydé, [2Fe-2S]2+, où les deux atomes de fer sont sous une forme ferrique et 2) un état réduit, [2Fe-2S]+, où un des atomes de fer est sous une forme ferrique, l'autre est ferreux. A . 1 . 2 . Les centres [4Fe-4S] Les centres [4Fe-4S] sont composés de quatre atomes de fer et de quatre atomes de soufre inorganique organisés dans une géométrie cubique (Tableau I. 1). Chaque sommet du cube est occupé alternativement par un atome de fer puis un atome de soufre. Les centres [4Fe-4S] existent sous trois états rédox différents qui déterminent deux couples rédox différents : [4Fe-4S]3+ / [4Fe-4S]2+ et [4Fe-4S]2+ / [4Fe-4S]+ ; correspondant à deux familles de protéines [4Fe-4S], les HiPiPs (high potential iron-sulfur proteins) et les autres protéines [4Fe-4S] aux potentiels plus bas. 39 Introduction bibliographique Nom Etats rédox Structure Potentiels rédox par rapport à l'ENH (pH7) 2+ Fe [1Fe] - 100 mV à + 20 mV 3+ Fe 2+ [2Fe-2S] [2Fe-2S] - 400mV à + 300 mV + [2Fe-2S] 3+ [4Fe-4S] [4Fe-4S] 2+ [4Fe-4S] + - 800 mV à - 100 mV HiPiP : + 50 mV à + 450 mV [4Fe-4S] Tableau I. 1. Structures et propriétés des centres [2Fe-2S], [4Fe-4S] et [3Fe-4S]. A . 1 . 3 . Les centres [3Fe-4S] Les centres [3Fe-4S] sont composés de trois atomes de fer et quatre atomes de soufre inorganique (Tableau I. 1). Ils existent sous deux états rédox : [3Fe-4S]+ et [3Fe-4S]0. Bien que les centres [3Fe-4S] puissent être des cofacteurs actifs, ils sont généralement la résultante de la dégradation oxydative d'un centre [4Fe-4S]. Dans ce cas, les centres [3Fe-4S] inactifs peuvent être régénérés en centres [4Fe-4S] en présence de Fe2+ (Bulteau et al. 2004). 40 Introduction bibliographique A . 1 . 4 . Les centres Fe/S complexes Des centres Fe/S encore plus complexes ont été caractérisés dans certaines protéines. Ils ont la particularité de contenir plus de 4 atomes de fer ou encore d'être reliés à d'autres métaux tels que le nickel ou le molybdène. C'est le cas, par exemple, de la nitrogénase. Cette protéine comporte, entre autre, un centre [Mo-7Fe-9S] et un centre [8Fe-7S], nommés respectivement centre MoFe et centre P (Georgiadis et al. 1992; Mayer et al. 1999; Johnson et al. 2005; Xu et al. 2011). Enfin, il est intéressant de souligner que la plupart des centres Fe/S identifiés sont des centres [4Fe-4S] et [2Fe-2S] ; et qu'il n'est pas rare de rencontrer des protéines ayant incorporées plus d'un centre Fe/S, comme par exemple, les hydrogénases avec 3 centres [4Fe4S]. A . 2 . Quels sont leurs rôles ? A . 2 . 1 . Le transfert d'électrons Le transfert d'électrons est le premier rôle attribué aux centres Fe/S. Ce transfert d'électrons est possible grâce à la capacité des atomes de fer des centres Fe/S à passer d'un état oxydé (Fe3+) à un état réduit (Fe2+) et vis-et-versa. Ainsi, les centres [2Fe-2S] et [4Fe-4S] sont capables d'accepter ou de recevoir un seul électron à la fois. Le centre [8Fe-7S] de la nitrogénase, dans une géométrie double-cubique, est le seul exemple de transfert à deux électrons, avec deux potentiels rédox très proches des couples [8Fe-7S]2+ / [8Fe-7S]+ et [8Fe7S]+ / [8Fe-7S]0 (Peters et al. 1997; Lanzilotta et al. 1998; Johnson et al. 2005). Enfin, ces transferts peuvent être intramoléculaires, c'est-à-dire au sein d'une même protéine, ou bien intermoléculaires, entre deux ou plusieurs composantes protéiques. 41 Introduction bibliographique Figure I. 1. Structure du complexe I de la chaîne respiratoire mitochondriale. Les 9 centres Fe/S, nécessaires au transfert d'électrons, sont encerclés en noir (image : David S. Goodsell and RCSB PDB). Par exemple, de nombreux centres Fe/S sont impliqués dans la respiration mitochondriale pour le transport d'électrons (Figure I. 1). Le complexe I, aussi appelé NADHubiquinone oxydoréductase, comporte pas moins de 9 centres Fe/S au total, soit 2 centres [2Fe-2S] et 7 centres [4Fe-4S]. A . 2 . 2 . La catalyse enzymatique Certaines protéines utilisent leurs centres Fe/S afin de catalyser des réactions chimiques. C'est le cas, par exemple, de l'aconitase mitochondriale. Cette enzyme, intervenant dans le cycle de Krebs, est capable de réaliser une isomérisation stéréospécifique du citrate en isocitrate (Figure I. 2). Cette réaction est catalysée par le centre [4Fe-4S] incorporé dans l'aconitase mitochondriale ; où l'un des atomes de fer joue un rôle d'acide de Lewis. Cet atome de fer possède un ligand labile, généralement une molécule d'eau, et lorsque le substrat (citrate) entre dans le site catalytique, la molécule d'eau est échangée au profit de la formation d'une liaison citrate-fer (Lauble et al. 1992; Lauble et al. 1994). 42 Introduction bibliographique Figure I. 2. Schéma du cycle catalytique de l'aconitase mitochondriale. Le mécanisme d'isomérisation du citrate en isocitrate par l'aconitase mitochondriale commence par l'entrée du citrate dans le site actif (1). Une déshydratation conduit à la formation d'une double liaison carbone-carbone (2), suivi d'un changement de coordination de l'atome de fer (3). Une hydratation permet de recouvrir une simple liaison carbone-carbone (4) conduisant à l'isocitrate (5). Image inspirée de (Lauble et al. 1994) et provenant de http://www.chem.qmul.ac.uk/iubmb/enzyme/reaction/misc/aconit2.html . Les protéines de la famille des « radical-SAM » (S-AdénosylMethionine) sont également des protéines utilisant leurs centres [4Fe-4S] comme catalyseur. On peut citer par exemple, les méthylthiotransférases (MTTase) MiaB et RimO (Atta et al. 2012). Figure I. 3. Les protéines à radical-SAM. A. Schéma des catalyses réalisées par les protéines à radical-SAM, avec (1) la réduction de SAM en méthionine (met) et Ado• par le centre [4Fe-4S]+. (2) l'espèce Ado• permet l'activation de la liaison CH du substrat, qui se retrouve sous forme radicalaire pour mener jusqu'au produit de la réaction. B. Structure de SAM et du radical Ado•. Images provenant de (Atta et al. 2010; Atta et al. 2012). 43 Introduction bibliographique Les protéines à radical-SAM possèdent deux cofacteurs, un centre [4Fe-4S] et le SAM, essentiels pour leurs activités. Les centres [4Fe-4S] de ces enzymes sont généralement coordonnés par 3 résidus cystéines et le SAM (Berkovitch et al. 2004). Lorsqu'il est coordonné par le SAM, le centre [4Fe-4S]2+ est activé sous une forme réduite, [4Fe-4S]+. Le SAM est ensuite réduit par le centre [4Fe-4S]+, conduisant à la formation de méthionine et d'une espèce radicalaire nommée Ado• (5'-déoxyadénosyl) (Figure I. 3, A, (1)). Cette espèce Ado•, formée dans la grande majorité des protéines à radical-SAM, permet généralement l'activation ciblée d'une liaison C-H du substrat à transformer (Figure I. 3, A, (2)). Le substrat se retrouve alors sous une forme radicalaire, pour réaliser, par exemple, l'insertion d'un atome de soufre (C-H C-SH), une méthylthiolation (C-H C-CH3) ou encore l'oxydation d'alcool (H2C-OH C-S-CH3), une méthylation (C-H HC=O) (Atta et al. 2012; Shisler et al. 2012). A . 2 . 3 . La régulation des gènes Certaines protéines Fe/S sont impliquées dans la régulation de l'expression des gènes. Dans ce cas, les centres Fe/S sont utilisés comme « senseurs » des conditions intracellulaires (stress oxydant et nitrosant) de par leurs propriétés oxydo-réductrices vis-à-vis d'agents oxydants tels que le peroxyde d'hydrogène (H2O2) ou l'anion superoxyde (O2•-) ou en raison de leurs affinités pour certaines molécules comme l'oxyde nitrique. Cette régulation peut se faire au niveau traductionnel (IRP1) ou bien au niveau transcriptionnel (FNR, SoxR et IscR). A . 2 . 3 . 1 . La protéine IRP1 IRP1 (Iron Regulatory Protein 1) est une protéine, contenant un centre [4Fe-4S], que l'on retrouve uniquement chez les eucaryotes supérieurs (Figure I. 4). 44 Introduction bibliographique Figure I. 4. Schéma du principe de fonctionnement de la protéine IRP1. Image provenant de (Rouault 2006). Dans sa conformation « holo-IRP1 », la protéine possède une activité aconitase, similaire à celle décrite pour l'aconitase mitochondriale (Cf. Figure I. 2). Lors d'un stress oxydatif ou nitrosant, le centre Fe/S va être dégradé et perdu par la protéine. La forme « apoIRP1 » obtenue possède une conformation optimale pour se lier sur les séquences IRE (ironresponsive element) placées dans la région 5'-UTR de certains ARN messagers (Rouault 2006). Ainsi, l'apo-IRP1 active l'expression de protéines impliquées dans le métabolisme du fer comme, par exemple, la ferritine. A . 2 . 3 . 2 . Les protéines FNR, SoxR et IscR Les protéines FNR (Fumarate and Nitrate Reduction), SoxR et IscR sont des facteurs de transcription que l'on retrouve chez les procaryotes. Ces trois protéines se présentent sous la forme d'homodimère avec un centre Fe/S par monomère. La protéine FNR possède un centre [4Fe-4S]2+ et active ou réprime l'expression de centaine de gènes en fonction des conditions d'oxygénation de la cellule. En conditions d'hypoxie, la forme active de la protéine FNR est liée à l'ADN. Lorsque la concentration en oxygène augmente, le dioxygène réagit avec le centre [4Fe-4S]2+ qui se convertit rapidement en un centre [2Fe-2S]2+ (Kiley et al. 2003). Cette forme de FNR, incapable de dimériser et de se lier à l'ADN, devient inactive (Khoroshilova et al. 1997). La protéine SoxR contient un centre [2Fe-2S]+. Cette forme de la protéine, liée à l'ADN, est inactive (Kiley et al. 2003). En présence de l'anion superoxyde (O2•-), le centre Fe/S de SoxR passe d'un état réduit à un état oxydé, [2Fe-2S]2+, activant ainsi la synthèse de SoxS. SoxS est également un facteur de transcription, qui à son tour active l'expression de 45 Introduction bibliographique gènes codant pour des protéines impliquées dans la lutte contre les espèces réactives de l'oxygène comme, par exemple, les SOD (Superoxyde dismutase). La protéine IscR possède un centre [2Fe-2S]. Sous cette forme, elle inhibe l'expression de l'opéron isc, que nous décrirons plus tard, en se fixant au niveau de son promoteur (Schwartz et al. 2001). En conditions de carence en centres Fe/S, IscR perd son centre Fe/S. La forme « apo-IscR », dissociée de l'ADN, permet la transcription des gènes de l'opéron isc dont les protéines sont impliquées dans la biogenèse des centres Fe/S. « ApoIscR » active également l'opéron suf codant aussi pour des protéines impliquées dans la biogenèse des centres Fe/S. A . 2 . 4 . La réparation de l'ADN L'ADN peut être endommagé par de nombreux facteurs endogènes ou exogènes. Lorsqu'une base de l'ADN est endommagée, une des voies de réparation passe par un mécanisme d'excision de cette base. La base endommagée est ensuite retirée et remplacée par une nouvelle base. Les BER (Base Excision Repair) glycosylases détectent et rompent la liaison N-glycosidique entre la base et l'ose. Une endonucléase reconnait ensuite le site abasique et clive le squelette « sucre-phosphate » du reste de la molécule d'ADN ; et enfin, une polymérase et une ADN ligase viennent remplacer le site vacant par une nouvelle base. Les BER glycosylases sont des protéines nucléaires qui possèdent un centre Fe/S. Dans cette famille de protéines, on retrouve, par exemple, les protéines mutY et EndoIII qui comportent un centre [4Fe-4S]2+ (Cunningham et al. 1989; Lukianova et al. 2005). Longtemps, la présence de ce centre Fe/S a été considérée comme purement structurale, permettant la liaison de ces protéines à l'ADN, de la même manière que les structures en doigts de zinc. L'équipe de Jacqueline Barton a réalisé des expériences d'électrochimie avec des électrodes modifiées, sur lesquelles ont été fixés de manière covalente les doubles brins d'ADN. Leurs résultats indiquent que le centre [4Fe-4S] des protéines mutY et EndoIII, liées à l'ADN, acquière une activité rédox, passant d'un état réduit [4Fe-4S]2+ à un état oxydé [4Fe-4S]3+ grâce aux transport des électrons de l'électrode vers la protéine au travers de la molécule d'ADN (Figure I. 5). Ils ont également constaté que cette activité rédox du centre Fe/S des protéines est considérablement diminuée lorsque l'ADN contient une lésion, suggérant que le transfert d'électrons au travers de l'ADN est moins efficace (Boal et al. 46 Introduction bibliographique 2005; Genereux et al. 2010; Grodick et al. 2014). Le centre Fe/S incorporé au sein des BER glycosylases n'aurait donc pas un rôle purement structural mais serait un moyen de détecter des lésions causées sur l'ADN ainsi qu'une méthode de communication entre les protéines fixées à l'ADN. Ces hypothèses sont basées sur la théorie de transfert de charges par l'ADN, selon laquelle l'ADN est une molécule capable de réaliser des transferts d'électrons sur de longues distances (> à 40 Å) (Murphy et al. 1993; Sontz et al. 2012). Figure I. 5. Schéma du principe de fonctionnement des BER glycosylases. Image provenant de (Boal et al. 2005). En plus des BER glycosylases, un certain nombre de protéines, localisées dans le noyau, ont été identifiées comme étant des protéines Fe/S. On peut citer pour exemple les enzymes de la famille des primases, des hélicases ou encore des polymérases. Ces enzymes contiennent majoritairement des centres [4Fe-4S] coordonnés par des résidus cystéines conservés. Ce centre Fe/S semble nécessaire pour l'activité enzymatique des protéines, suggérant que le centre Fe/S joue un rôle important à la fois dans la structure et la fonction de la protéine. Enfin, il est possible d'envisager que comme les BER glycosylases, les primases, les hélicases et les polymérases utilisent l'activité rédox de leur centre Fe/S pour effectuer leurs fonctions métaboliques sur l'ADN (Wu et al. 2012). 47 Introduction bibliographique B . La biogenèse des centres Fe/S B . 1 . Historique De nombreuses équipes sont parvenues à reconstituer, in vitro, un centre Fe/S au sein d'une apo-protéine avec du fer (ferreux/ferrique) et du sulfate de sodium (Na2S). Or, in vivo, la probabilité que ces deux constituants se rencontrent et s'assemblent de manière coordonnée pour former des centres Fe/S est quasi nulle. De plus, ces ions en solution sont potentiellement toxiques pour les cellules, avec, par exemple, la réaction de Fenton entre un ion ferreux et le peroxyde d'hydrogène (H2O2). Ce sont probablement les raisons pour lesquelles la synthèse des centres Fe/S est réalisée par différentes machineries multiprotéiques qui permettent un assemblage contrôlé et sécurisé des différents types de centres Fe/S. L'existence de machineries multi-protéiques de biogenèse des centres Fe/S a été initialement mise en évidence chez les procaryotes. Dans les années 90, Denis Dean a été l'un des pionniers du domaine avec la découverte de deux protéines nécessaires à l'assemblage des centres Fe/S de la nitrogénase, NifS et NifU (Jacobson et al. 1989; Zheng et al. 1993; Zheng et al. 1994). L'enzyme NifS est une cystéine désulfurase qui mobilise le soufre sous la forme d'un intermédiaire persulfure (NifS-SSH), par désulfurisation de la L-cystéine (Tableau I. 2). La protéine NifU est la protéine d'échafaudage de la biogenèse des centres Fe/S de la nitrogénase, sur laquelle les centres Fe/S sont assemblés (Tableau I. 2). Les gènes codant pour ces deux protéines ont été trouvés regroupés sous la forme d'un opéron, appelé nif (nitrogen fixation). L'association des gènes codant pour des protéines participant à un même processus sous la forme d'opéron a permis des avancées rapides dans le domaine. Sur la base d'homologies de séquence avec les gènes de l'opéron nif, d'autres machineries de biogenèse des centres Fe/S ont été identifiées chez les procaryotes. Le système ISC (Iron Sulfur Cluster, opéron isc), exprimé de manière constitutive, est la principale machinerie de biogenèse des centres Fe/S chez les procaryotes; et les systèmes SUF (SUlFur mobilization, opéron suf) et CSD (Cysteine Sulfinate Desulfurase, opéron csd), deux autres machineries spécialement adaptées pour synthétiser des centres Fe/S lorsque le métabolisme du fer ou du soufre est perturbé, ou en conditions de stress (Tableau I. 2) (Johnson et al. 2005; Xu et al. 2011). 48 Introduction bibliographique Chez les eucaryotes, l'identification des machineries dédiées à l'assemblage des centres Fe/S a été rendue possible grâce au premier séquençage complet d'un organisme eucaryote : le modèle unicellulaire Saccharomyces cerevisiae (Goffeau et al. 1996). Par homologies de séquences et criblages génétiques, les groupes d'Elisabeth Craig et de Roland Lill ont identifié des homologues eucaryotes des protéines NifU et NifS (Tableau I. 2) (Kispal et al. 1999; Schilke et al. 1999). Les homologies de séquences les plus fortes ont été trouvées avec le système ISC bactérien qui semble donc avoir été particulièrement bien conservé au cours de l'évolution. Ces protéines sont localisées dans la matrice mitochondriale et constituent le système ISC (Iron-Sulfur Cluster) de biogenèse des centres Fe/S. Une seconde machinerie, nommée CIA (Cytoslic Iron-sulfur cluster Assembly), dédiée à l'assemblage des centres Fe/S pour les protéines cytosoliques et nucléaires a ensuite été découverte initialement grâce à l'identification d'un gène, nommé CFD1 (Cytosolic Fe/S cluster Deficient 1), dont la mutation entraine une perte du cluster de la protéine IRP1 (Cf. Figure I. 4) ainsi qu'une déficience dans l'activité d'autres protéines Fe/S cytosoliques et nucléaires (Roy et al. 2003). L'activité de la machinerie CIA est dépendante de la machinerie ISC, puisqu'un disfonctionnement de la machinerie ISC entraine une carence en centres Fe/S dans toute la cellule. Une troisième machinerie a ensuite été identifiée, qui est appelée EXPORT. Cette machinerie exporte depuis la mitochondrie vers le cytosol, un composé de nature inconnue, synthétisé par la machinerie ISC et permettant le fonctionnement de la machinerie CIA. En parallèle, d'autres groupes ont travaillé chez les eucaryotes supérieurs dans des lignées humaines et avec des modèles souris ou de poisson-zèbre. Un certain nombre de protéines impliquées dans la biogenèse des centres Fe/S ont été identifiées par homologies de séquence mais également en raison de leur implication dans des maladies humaines, comme par exemple, le transporteur ABCB7 de la machinerie EXPORT, responsable d'une anémie sidéroblastique liée au chromosome X avec ataxie (XLSA/A) ; ou encore, la frataxine, sujet principal de ma thèse, responsable d'une maladie neurodégénérative, l'ataxie de Friedreich (FRDA) (Beilschmidt et al. 2014). Cette protéine a tout d'abord été découverte dans le système eucaryote, du fait de son implication dans cette maladie. Grâce à des approches génétiques, l'homologue bactérien de la frataxine a ensuite été identifié. Etonnement cette protéine ne fait pas partie de l'opéron isc du système ISC bactérien. 49 Introduction bibliographique Nom Homologue mammifères levure Homologue bactérien Nom entier Fonction biologique Système ISC NFS1 Nfs1 ISD11 Isd11 ISCU Isu1, Isu2 FXN Yfh1 FDX2 IscS, NifS, SufS/SufE, CsdA/CsdE - Cystéine désulfurase, source de soufre ISC biogenesis Augmente la stabilité de la protéine NFS1 (et stimule son desulfurase interacting activité) protein of 11 kDa Iron-sulfur cluster Utype protein Protéine d'échafaudage à la biogenèse d'un centre Fe/S CyaY Frataxine ? Yah1 Fdx Ferrédoxine 2 Transfert d'électron, possède un centre [2Fe-2S] FDXR Arh1 - Ferrédoxine réductase HSPA9 (GRP75) Ssq1 HscA Heat shosck protéine 70 kDa 9 Transfert de centres Fe/S, chaperonne Hsp70 HSC20 Jac1 HscB Chaperonne Hsp20 Transfert de centres Fe/S, chaperonne Hsp20 GRPE Mge1 - Glucose-regulated protein E Echange de nucléotide, transfert de centres Fe/S GLRX5 Grx5 - Glutarédoxine 5 Impliquée dans le transfert de centres Fe/S, peut lier un centre [2Fe-2S] avec le glutathion Isa1, Isa2 IscA Iron-sulfur cluster Atype protein Transporteur de centres [4Fe-4S] pour la maturation des protéines cibles ISCA1, ISCA2 IscU, NifU, SufBCD, CsdB Nitrogen fixation 1 homolog Réduit la ferrédoxine 2 lorsqu'elle est oxydée, elle-même + réduite par le NADPH, H Transporteur de centres [4Fe-4S] pour la maturation des protéines cibles IBA57 Iba57 NFU1 Nfu1 NifU-like protein 1 Transporteur de centres [4Fe-4S] pour la maturation des protéines cibles NUBPL Ind1 Nucleotide-binding protein-like Transporteur de centres [4Fe-4S] pour la maturation des protéines cibles BOLA Aim1 Transporteur de centres [4Fe-4S] pour la maturation des protéines cibles Système CIA ABCB7 Atm1 - ATP binding cassette B7 Machinerie d'export du composé X ALR Erv1 - Augmenter of liver regeneration Machinerie d'export du composé X NUBP1 Nbp35 - Nucleotide-binding protein 1 Composant de la CIA NUBP2 Cfd1 - Nucleotide-binding protein 2 Composant de la CIA Ciao1 Cia1 - Composant de la CIA IOP1 (NARFL) Nar1 - Iron-only hydrogenaseComposant de la CIA like protein 1 Dre2 - Composant de la CIA Tableau I. 2. Récapitulatif des protéines eucaryotes impliquées dans la biogenèse des centres Fe/S et leurs homologues chez la levure et la bactérie. 50 Introduction bibliographique Bien qu'un grand nombre de protéines impliquées dans la biogenèse des centres Fe/S aient été identifiées, les fonctions de ces protéines sont parfois très mal connues. Les principales étapes de biogenèse des centres Fe/S eucaryotes ont été très étudiées avec les systèmes procaryotes ISC, SUF et NIF, mais les données biochimiques pour les systèmes eucaryotes sont beaucoup plus rares et par conséquent la description du système mammifère repose largement sur le modèle procaryote. Nous allons voir plus en détails le fonctionnement de ces machineries chez les eucaryotes en nous appuyant sur les comparaisons avec les protéines procaryotes et en commençant par la machinerie ISC qui réalisent les étapes primaires de la biogenèse des centres Fe/S. B . 2 . Le système ISC mitochondrial La machinerie ISC est composée de quatre protéines formant un complexe, la cystéine désulfurase, NFS1, la protéine d'échafaudage, ISCU, où sont assemblés les centres Fe/S, la frataxine, FXN et la protéine ISD11. Il a également été montré que le système ISC requière une cinquième protéine, la ferrédoxine 2, FDX2, importante pour la synthèse d'un centre Fe/S (Sheftel et al. 2010; Shi et al. 2012). B . 2 . 1 . La cystéine désulfurase, NFS1 Les enzymes ayant incorporées un cofacteur PLP (pyridoxal-5'-phosphate) réalisent un nombre très varié de réactions telles que la transamination (l'échange d'une amine primaire entre un acide aminé et un cétoacide), la décarboxylation (perte d'un acide carboxylique sous la forme de CO2) ou encore la racémisation (changement de la conformation absolue d'un carbone asymétrique) (Eliot et al. 2004). Les cystéines désulfurases sont des transférases PLP-dépendantes qui réalisent la désulfurisation de la Lcystéine en L-alanine, ce qui conduit à la formation d'un persulfure, de formule générique RSSH, sur la cystéine catalytique de ces enzymes où le soufre terminal est également appelé sulfane. Les cystéines désulfurases peuvent être classées en deux groupes distincts, selon la séquence d'acides aminés où se trouve la cystéine catalytique de l'enzyme. Le groupe I possède la séquence consensus « SSGSACTS » et le groupe II, la séquence « RXGHHCA » ; où C est la cystéine catalytique de l'enzyme (Xu et al. 2011). La protéine NFS1 fait partie du 51 Introduction bibliographique groupe I. Il faut noter que la cystéine catalytique des cystéines désulfurases est la seule cystéine strictement conservée au cours de l'évolution (Figure I. 6). Les cystéines désulfurases délivrent du soufre à différentes protéines acceptrices telles qu'ISCU (biogenèse des centres Fe/S) mais aussi, ThiI qui est impliquée dans la synthèse de la thiamine, TusA qui intervient dans la thiolation des ARN de transfert et, MoaD-MoeB qui participent à la synthèse des protéines à molybdène (Shi et al. 2010). NFS1 est localisée dans la mitochondrie mais aussi dans le noyau (Land et al. 1998). Figure I. 6. Alignement de séquences protéiques des cystéines désulfurases. L'unique cystéine conservée au cours de l'évolution est en rouge et les séquences consensus correspondant aux groupes I et II des cystéines désulfurases sont en gras. Aujourd'hui, aucune structure de la cystéine désulfurase de mammifère NFS1 n'a été obtenue. Cependant, les structures des protéines IscS et NifS, deux homologues bactériens de NFS1, avec 60 % d'identité de séquence, ont été résolues dans les années 2000 (Fujii et al. 2000; Kaiser et al. 2000; Cupp-Vickery et al. 2003; Shi et al. 2010; Rybniker et al. 2014). L'ensemble de ces structures montrent une organisation en homodimère et un cofacteur PLP par monomère (Figure I. 7). Chaque monomère est composé de deux domaines (Figure I. 8, A) (Cupp-Vickery et al. 2003). Les acides aminés 1 à 15 puis 264 à 404 de la protéine IscS d'Escherichia coli, correspondent au petit domaine. Il renferme notamment la cystéine catalytique C328, placée au centre d'une structure flexible allant des résidus 323 à 336 (Figure I. 8, B). Cette boucle permet probablement un transfert de soufre facilité avec les différentes protéines réceptrices. Enfin, le grand domaine, correspondant aux acides aminés 16 à 263, comporte le site de fixation du PLP et du substrat ainsi que la majeure partie du domaine de dimérisation. 52 Introduction bibliographique Figure I. 7. Structures cristallographiques des cystéines désulfurases NifS et IscS de différents organismes. A. Structure de NifS de Thermatoga maritima (PDB : 1EG5), B. Structure d'IscS d'Escherichia coli (PDB : 1P3W), C. Structure d'IscS d'Escherichia coli (PDB : 3LVM) et D. Structure d'IscS de Mycobacterium tuberculosis (PDB : 4ISY). Chaque structure a été obtenue par cristallogenèse et représente un homodimère de NifS ou IscS, où chaque monomère a une couleur différente et le PLP est coloré en rose. Ces structures ont été obtenues grâce au logiciel PyMOL, de traitement des données récupérées sur le site PDB (Protein Data Bank). Figure I. 8. Visualisation des domaines d'IscS (Figure I. 7) et du site de fixation du PLP. A. Structure d'IscS d'Escherichia coli (PDB : 1P3W), le petit domaine de chaque monomère d'IscS correspond à la coloration rose alors que le grand domaine est représenté en bleu. Le PLP est en noir. B. Zoom sur la boucle flexible avec les acides aminés 323 à 336 contenant la cystéine catalytique C328. L'un des monomères d'IscS est en vert, l'autre en bleu et le PLP en jaune. Image de (Bridwell-Rabb et al. 2014) C. Site de fixation du PLP (en rose), rattaché à la lysine 206 (en vert) et stabilisé par des liaisons hydrogènes (pointillés noir) et une interaction « π-staking » avec l'histidine 104 (en bleu). Ces structures ont été obtenues grâce au logiciel PyMOL, de traitement des données récupérées sur le site PDB. 53 Introduction bibliographique Dans le site actif d'IscS d'E. coli, le PLP est fixé à la protéine par la lysine 206 (Figure I. 8, C) (Cupp-Vickery et al. 2003). Le PLP est stabilisé grâce à un réseau de liaisons hydrogènes avec la thréonine 76, l'aspartate 79 et 180, la glutamine 183, la sérine 203 et l'histidine 205 ; et également grâce à une interaction « π-stacking » avec l'histidine 104. Le site actif est essentiellement composé d'acides aminés polaires (histidines, lysines, arginines, aspartates, asparagines et tyrosines) et il est situé à la surface de la protéine, avec une solvatation importante, permettant un accès facilité pour le substrat et un échange rapide entre le substrat et le produit. L'amine primaire de la L-cystéine substrat réagit probablement avec l'imine, formé lors de la liaison entre le PLP et la lysine 206, pour former un adduit aldimine (ou base de Schiff) (1, Figure I. 9). La formation de cette aldimine diminue le pKa du proton en alpha du carbone (Cα) de la L-cystéine fixée au PLP, ce qui facilite la déprotonation par un acide aminé basique, du type aspartate ou glutamate présent à proximité, conduisant à la formation d'un quinonoïde (2, Figure I. 9). La forme quinonoïde vient ensuite déprotoner le thiol de la cystéine catalytique de NFS1 conduisant à la formation d'un adduit ketimine (3, Figure I. 9). Le thiolate obtenu sur la cystéine catalytique de NFS1 réalise ensuite une attaque nucléophile sur le soufre de la L-cystéine substrat, entrainant la formation d'un persulfure sur la cystéine catalytique de la cystéine désulfurase et d'une double liaison sur le carbone de la cystéine qui portait le soufre formant une énamine (4, Figure I. 9) (Zheng et al. 1994). Enfin, la tautomérisation de l'énamine en imine, suivie d'une prototropie entre les deux carbones en α de l'azote de l'imine, permet de libérer la L-alanine, sous-produit de la réaction (5, Figure I. 9). Le PLP se fixe de nouveau sur la lysine 206 et l'enzyme est prête pour un nouveau cycle catalytique. 54 Introduction bibliographique Lysine BH+ B Enz -cys-S-H Enz -cys-S-H L-cystéine 1 PLP 2 forme aldimine L-alanine Forme quinone 5 3 H2O, H+ Enz -cys-S- Enz -cys-S-SH forme persulfurée CO2 HS HN PO32- O O 4 N H forme ketimine Figure I. 9. Schéma du cycle catalytique réalisé par les cystéines désulfurases. Enz-cys-S-H représente la cystéine catalytique des cystéines désulfurases et B, un acide aminé basique. Image inspirée de (Fontecave et al. 2008). Pour terminer, il faut noter que la distance entre la cystéine catalytique d'IscS d'E. coli, placée dans une boucle flexible, et le PLP est de 17 Å, suggérant un changement de conformation important afin de réaliser la persulfuration de la cystéine catalytique. De plus, étant donné la distance qui sépare les deux PLP, qui est d'environ 30 Å, il a été proposé que les deux sous-unités du dimère d'IscS fonctionnent de manière indépendante et non pas d'une façon coopérative (Cupp-Vickery et al. 2003; Amela et al. 2013). B . 2 . 2 . La protéine ISD11 La protéine ISD11 fait partie de la famille des protéines « LYR » à laquelle appartient aussi les sous-unités B22 et B14 du complexe I de la chaine respiratoire mitochondriale et qui sont caractérisées par un motif de trois acides aminés L, Y et R (parfois K) conservés. C'est une protéine conservée chez tous les eucaryotes mais aucune protéine homologue n'a été 55 Introduction bibliographique découverte chez les procaryotes. Tout comme NFS1, ISD11 est une protéine localisée dans la matrice mitochondriale mais aussi dans le noyau (Shi et al. 2009). La protéine ISD11 interagit avec NFS1 mais son rôle est encore mal connu et controversé. Si la communauté scientifique s'accorde à dire qu'ISD11 augmente la stabilité de la protéine NFS1, certains démontrent qu'avec ou sans ISD11, l'activité cystéine désulfurase de NFS1 n'est pas modifiée (Adam et al. 2006; Wiedemann et al. 2006) ; alors que d'autres observent une stimulation de l'activité cystéine désulfurase de la protéine NFS1 en présence d'ISD11 (Pandey et al. 2012; Pandey et al. 2013). Enfin, le complexe NFS1-ISD11 semble se présenter dans une stoechiométrie 1:2 (NFS1:ISD11) (Colin et al. 2013). De nombreuses études, décrites ci-dessous, ont permis d'identifier une interaction entre les protéines NFS1 et ISCU, la protéine d'échafaudage de la biogenèse des centres Fe/S, formant un complexe hétérodimérqiue (α2β2). B . 2 . 3 . La protéine d'échafaudage, ISCU B . 2 . 3 . 1 . Structure de la protéine ISCU La protéine ISCU est la protéine d'échafaudage des centres Fe/S, c'est-à-dire, la protéine sur laquelle se construisent les centres Fe/S. Elle fait partie des protéines les mieux conservées au cours de l'évolution (Zheng et al. 1998). Cependant, aucune structure d'ISCU eucaryote n'a été résolue, bien qu'une structure de la protéine ISCU de souris soit référencée dans la PDB sans que les données n'aient encore été publiées. Les structures de la forme apoIscU d'E. coli et de Haemophilus influenza ont été résolues par RMN (Ramelot et al. 2004; Kim et al. 2009). Ces structures montrent une organisation « β3-α4», avec une configuration particulière, où l'un des côtés de la protéine est uniquement composé d'hélices α, alors que l'autre face ne contient que des feuillets β anti-parallèles (Figure I. 10). On remarque aussi que l'extrémité N-terminale de la protéine est déstructurée. 56 Introduction bibliographique Figure I. 10. Structures d'IscU de chez Haemophilus influenza et Escherichia coli obtenues par RMN. A. Structure d'IscU Haemophilus influenzal (PDB : 1Q48). B. Structure d'IscU D39A d'Escherichia coli, qui représente la forme structurée (S) d'IscU (B) ou partiellement déstructurée (D) d'IscU (C) (PDB : 2KQK et 2L4X). Chaque structure comporte une extrémité N-terminale déstructurée (en rose), un côté composé de feuillets β (en vert) et un autre côté composé d'hélices α (en violet). Ces structures ont été obtenues grâce au logiciel PyMOL, de traitement des données récupérées sur le site PDB. L'équipe de John Markley, de l'université du Wisconsin-Madison, a étudié la structure de la protéine IscU d'E. coli par différentes techniques de RMN. D'après des expériences EXSY (EXchange SpectroscopY, RMN 2D), qui permettent de mettre en évidence et de quantifier des échanges chimiques, ils ont démontré que la protéine IscU est en équilibre entre deux conformations (Kim et al. 2009; Kim et al. 2012; Markley et al. 2013) ; une hypothèse émise dix en plus tôt par l'équipe de James Cowan (Mansy et al. 2002; Mansy et al. 2004). Ainsi, en solution, la protéine IscU d'E. coli est présente à 70 % - 80 % sous une forme structurée (notée (S), Figure I. 10, B) et à 30 % - 20 % sous une forme partiellement déstructurée (notée (D), Figure I. 10, C), où le feuillet β1 est déstructuré par rapport à la forme (S) d'IscU. L'existence de ces deux espèces est corrélée à un changement de conformation de quatre prolines, P14, P35, P100 et P101; dont les prolines P14 et P101 sont strictement conservées (Dai et al. 2012). Les quatre prolines de la forme (D) d'IscU, sont en conformation cis alors que dans la forme (S), les prolines P14 et P101 sont en conformation trans. Une étude similaire, menée avec la protéine ISCU humaine, montre qu'en solution la protéine ISCU existe également sous ces deux conformations (S) et (D). Mais dans ce cas, la forme majoritaire d'ISCU serait la forme partiellement déstructurée (D), avec près de 72 %, alors que la forme structurée (S) est présente à 28 %. 57 Introduction bibliographique B . 2 . 3 . 2 . Structure du complexe (IscS-IscU)2 Deux structures de complexe (IscS-IscU)2 ont été résolues en 2010 et 2012. Dans ces structures, l'interaction entre les protéines IscS et IscU se fait principalement entre la partie Cterminale d'IscS et les tyrosines 3 et 11 (N-terminale), la glycine 38, la valine 40, la lysine 42 (feuillet β2), la lysine 59, la glycine 64 (feuillet β3) et la lysine 103 d'IscU (hélice α5) (Shi et al. 2010) (Figure I. 11). Il a été montré que les deux tyrosines d'IscU en position 3 et 11 sont indispensables à l'interaction entre les deux protéines (Shi et al. 2010) ; et que la délétion des 29 derniers acides aminés de la séquence d'IscS (376 à 404), entraine une inhibition de la formation du complexe entre IscS et IscU, sans altérer l'activité cystéine désulfurase de la protéine (Urbina et al. 2001). Il a également été montré que la forme IscS-∆376-404 diminue la vitesse de formation du centre Fe/S, ce qui suggère que la formation d'un complexe entre IscS et IscU est indispensable à la synthèse d'un centre Fe/S sur IscU. Enfin, la constante de dissociation du complexe (IscS-IscU)2 a été calculée et déterminée à 2 μM ; une valeur bien inférieure à la concentration cellulaire des protéines IscS et IscU estimée par Urbina et al., (10μM), ce qui suggère que l'interaction est physiologiquement pertinente (Urbina et al. 2001). Figure I. 11. Structures des complexes (IscS-IscU)2 d'Echérichia coli et Archaeoglobus fulgidus, obtenues par cristallogenèse. A. Structure du complexe (IscS-IscU)2 d'Escherichia coli. Chaque monomère d'IscS (en orange et en jaune) interagit avec une protéine IscU (en vert et en rouge) (PDB : 3LVL). B. Structure du complexe (IscS-IscU)2 d'Archaeoglobus fulgidus, avec les protéines « IscS-like » (en bleu) et IscU D35A (en orange) (PDB : 4EB5). Ces structures ont été obtenues grâce au logiciel PyMOL, de traitement des données récupérées sur le site PDB. Il a été montré par RMN que la formation du complexe entre IscS et IscU dépend de la conformation de la protéine IscU (Kim et al. 2011; Kim et al. 2012; Markley et al. 2013). L'affinité de la forme partiellement déstructurée d'IscU (D) (Figure I. 10, C) est plus grande pour IscS que la forme structurée (S) (Figure I. 10, B). Ces résultats ont permis de proposer une séquence d'évènements, dans laquelle, la forme (D) serait compétente pour l'assemblage d'un centre Fe/S, en raison de sa plus grande flexibilité qui faciliterait les changements de 58 Introduction bibliographique conformation successifs pour constituer alternativement ou de manière séquentielle des centres [2Fe-2S] et [4Fe-4S]. La formation des centres Fe/S stabiliserait la forme (S) d'IscU, conduisant à la dissociation du complexe IscS-IscU. Cette dynamique d'association et de dissociation des protéines IscS et IscU a également été proposée lors d'une étude in vivo chez A. vinelandii sur les protéines IscS et IscU, non-surexprimées dans les bactéries (Raulfs et al. 2008). Ces auteurs sont parvenus à purifier quatre espèces différentes : apo-IscU, holo-IscU, IscS-apo-IscU et IscS-holo-IscU ; et leur interprétation est que la présence de ces quatre formes différentes indique que la formation d'un centre Fe/S in vivo est un procédé dynamique impliquant une interaction réversible entre les protéines IscS et IscU. Cependant les données publiées par le groupe de John Markley sont aujourd'hui controversées par la publication récente des travaux de l'équipe d'A. Pastore, qui démontre que c'est au contraire la forme structurée (S) d'IscU qui se lie préférentiellement à IscS (Yan et al. 2014). Des résultats préliminaires obtenus au sein du laboratoire vont également dans ce sens. B . 2 . 3 . 3 . Structure du centre Fe/S d'ISCU Le zinc a été utilisé afin de mimer un centre Fe/S dans la protéine IscU bactérienne. Deux structures d'IscU, résolues par RMN et par cristallogenèse, ont été obtenues avec un atome de zinc incorporé dans leurs structures (Ramelot et al. 2004; Liu et al. 2005) (Figure I. 12). Figure I. 12. Structures des protéines IscU Haemophilus influenza et Streptococcus pyogenes ayant incorporé un atome de zinc. A. Structure d'IscU Haemophilus influenza (PDB : 1R9P) obtenue par RMN, avec un zoom sur l'atome de zinc et ses ligands, à comparer avec la forme apo-IscU dans la Figure I. 10, A. B. Structure d'IscU Streptococcus pyogenes (PDB : 1SU0) obtenue par cristallogenèse, avec un zoom sur l'atome de zinc et ses ligands. L'atome de zinc est représenté par une sphère grise et l'extrémité N-terminale des protéines IscU sont en rouge. Ces structures ont été obtenues grâce au logiciel PyMOL, de traitement des données récupérées sur le site PDB. 59 Introduction bibliographique Dans cette structure, le zinc est coordonné par les 3 cystéines conservées d'IscU et soit par une histidine (H105, IscU H. influenza, Figure I. 12, A), soit par un aspartate (D42, IscU Streptococcus pyogene, Figure I. 12, B). Ces deux acides aminés d'IscU sont strictement conservés chez les procaryotes et chez les eucaryotes (Figure I. 13). Il a été récemment démontré in vitro que l'atome de zinc incorporé dans la structure d'IscU permet de stabilisé le repliement de la protéine (Iannuzzi et al. 2014). Ces résultats ont conduit à l'hypothèse que le site d'assemblage du centre Fe/S d'ISCU est composé de ces trois cystéines et d'un ligand non cystéinylé. Cependant, le débat persiste sur la nature du quatrième ligand d'IscU coordinant le centre Fe/S ; car des analyses spectroscopiques par Mössbauer et Raman indiquent que le quatrième ligand est probablement un oxygène provenant, par exemple, d'un aspartate (Agar et al. 2000) ; d'autres avancent que la substitution de l'aspartate par une alanine, permettant d'obtenir une forme (S) d'IscU plus stable, ne semble pas altérer la fixation du centre Fe/S sur IscU (Kim et al. 2011) et enfin, de récents travaux de l'équipe d'Annalisa Pastore démontrent que l'histidine H105 et l'aspartate D39 d'IscU d'E. coli peuvent chacun être ligand de l'atome de zinc (Iannuzzi et al. 2014). Figure I. 13. Alignement des séquences protéiques correspondant aux protéines NifU, IscU et ISCU. Les acides aminés conservés sont représentés en couleur : le rouge pour les trois cystéines, ligands du centre Fe/S, l'aspartate (en bleu) et l'histidine (en orange) comme les quatrièmes ligands possible du centre Fe/S ; enfin, en vert, la séquence LPPVK de reconnaissance de la protéine chaperonne HscA. Enfin, on constate que le domaine N-terminal de la protéine IscU de S. pyogènes (Figure I. 12, B) est replié sous la forme d'une hélice α et que l'extrémité N-terminale d'IscU 60 Introduction bibliographique de H. influenza (Figure I. 12, A) montre une structure naissante d'hélice α, ce qui suggère que cette extrémité N-terminale est capable de se structurer et pourrait donc jouer un rôle dans le fonctionnement de la protéine. Cette conformation très structurée d'IscU est également observée dans les structures cristallographiques des complexes (IscS-IscU)2 d'E. coli et d'Archaeoglobus fulgidus (Shi et al. 2010; Marinoni et al. 2012) (Figure I. 11). Une structure cristallographique du complexe (IscS-IscU)2, avec le mutant D35A d'IscU d'Archaeoglobus fulgidus a été récemment résolue, par le groupe de Juan FontecillaCamps, avec un centre Fe/S incorporé au sein du complexe (Figure I. 14) (Marinoni et al. 2012). Figure I. 14. Structure du complexe (IscS-IscU)2 d Archaeoglobus fulgidus obtenue par cristallogenèse. B. Structure du complexe (IscS-IscU)2 d'Archaeoglobus fulgidus où les protéines « IscS-like » (en bleu) et IscU D35A (en orange) lient un centre [2Fe-2S] (PDB : 4EB5). Ces structures ont été obtenues grâce au logiciel PyMOL, de traitement des données récupérées sur le site PDB. Dans cette structure, le centre Fe/S est lié par les 3 cystéines conservées d'IscU (C33, C58 et C102) et de manière surprenante, le quatrième ligand est la cystéine catalytique (C321) d'IscS. À partir de la structure cristallographique présentée dans la Figure I. 14 et grâce à des calculs de mécanique quantique et moléculaire (QM/MM), une modélisation de la protéine IscU a été obtenue dans laquelle, la cystéine catalytique d'IscS est remplacée par l'aspartate D35 (correspondant à l'aspartate D42 d'IscU d'H. influenza), comme quatrième ligand du centre Fe/S. Le modèle proposé par les auteurs de ces travaux, est que la coordination du 61 Introduction bibliographique centre Fe/S par la cystéine catalytique d'IscS serait un état intermédiaire de la biogenèse des centres Fe/S. B . 2 . 3 . 4 . Mobilisation du soufre : Transfert de soufre de NFS1 vers ISCU Au début des années 2000, l'équipe de Michael Johnson a mis en évidence un transfert de soufre entre les protéines IscS et IscU d'Azotobacter vinelandii (Smith et al. 2001). Johnson et ses collaborateurs ont démontré par spectrométrie de masse en protéine entière, que la protéine IscU est poly-persulfurée (S-(S)n-H) sur toutes ses cystéines en présence d'IscS et de L-cystéine (Smith et al. 2001; Smith et al. 2005). Un transfert de soufre a également été observé entre les protéines IscS et IscU d'E. coli par l'équipe de Larry Vickery, qui a montré que ce transfert cible des résidus cystéines d'IscU (Urbina et al. 2001). Le transfert de soufre, ou transpersulfuration, est l'attaque nucléophile d'une des cystéines d'IscU sur le soufre terminal du persulfure d'IscS, conduisant à la formation d'un persulfure sur IscU. Au moment de la rédaction de ce manuscrit un transfert de soufre entre les protéines mammifères NFS1 et ISCU a été mis en évidence (Bridwell-Rabb et al. 2014). L'étude du transfert de soufre entre NFS1 et ISCU va constituer l'un de mes projets de recherche. L'étude du transfert de soufre entre IscS et IscU d'A. vinelandii par l'équipe de M. Johnson, a montré que la forme sauvage d'IscU avait de 1 à 6 soufres supplémentaires (Smith et al. 2001). Les trois cystéines d'IscU ont été substituées par des résidus alanines ; et chacun des mutants C37A, C63A et C106A d'IscU est capable d'incorporer du soufre sous forme de persulfure et de polysulfure (Smith et al. 2005). Ces résultats suggèrent que le transfert de soufre ne cible pas spécifiquement une des cystéines d'IscU. Sur la base de ces observations, il a été proposé que le transfert de soufre entre la cystéine désulfurase et la protéine d'échafaudage soit une étape clé, nécessaire à la biogenèse des centres Fe/S. Cependant, le rôle du persulfure sur IscU est controversé ; car l'équipe de J. Cowan a démontré que la forme persulfurée d'IscU (Thermatoga maritima) n'est pas capable d'assembler un centre Fe/S sur la protéine en présence de fer et de DTT, ce qui suggère que la forme persulfurée d'IscU est une forme « sans issue » dispensable à la biogenèse des centres Fe/S.Enfin, la structure du complexe IscS-IscU contenant un centre Fe/S (Figure I. 14) suggère qu'en plus du soufre transféré à IscU, le second soufre, nécessaire à la formation d'un centre [2Fe-2S], pourrait être 62 Introduction bibliographique directement incorporé au centre Fe/S sans l'intermédiaire du transfert à ISCU par réduction du persulfure de NFS1. B . 2 . 4 . La ferrédoxine mitochondriale : FDX2 Chez les procaryotes, l'opéron isc contient également le gène fdx codant pour une ferrédoxine (Fdx). De plus, il a été montré par deux équipes différentes qu'IscS et holo-Fdx d'E. coli forment un complexe (Kim et al. 2013; Yan et al. 2013). L'homologue humain de cette ferrédoxine, FDX2, est essentiel pour la biogenèse des centres Fe/S (Sheftel et al. 2010; Shi et al. 2012). Les travaux de Kim et al. montrent qu'en présence IscS et de L-cystéine, indépendamment de la protéine IscU, le centre Fe/S de Fdx passe d'un spectre UV-visible caractéristique d'un état réduit à un état oxydé, suggérant que les électrons provenant de la forme réduite du centre Fe/S de Fdx ont été transférés aux protéines de la machinerie de biogenèse des centres Fe/S ; et il a été proposé notamment que la ferrédoxine réduise le persulfure d'IscS en sulfure (Kim et al. 2013). Cependant, il est étonnant qu'une enzyme réalisant une chimie à un électron soit capable de catalyser une réduction de persulfure qui devrait nécessiter deux électrons simultanément. Une réduction à un électron conduirait à la formation d'un radical per-thyl qui est un intermédiaire très réactif. Dans une autre étude in vitro, avec les protéines bactériennes, il a été montré que Fdx est capable de fournir des électrons au centre [2Fe-2S] d'IscU et que cela stimule le couplage de deux centres [2Fe-2S] en un seul centre [4Fe-4S] (Chandramouli et al. 2007). Nous avons également étudié l'effet de FDX2 sur la réduction des persulfures. B . 2 . 5 . Modèle biogenèse des centres Fe/S De nombreuses études de reconstitution de centre Fe/S ont été réalisées in vitro. L'une d'entre elles montre que la formation des centres Fe/S sur un dimère d'IscU (A. vinelandii) est séquentielle (Agar et al. 2000), avec un premier centre [2Fe-2S]2+, puis un second synthétisés au sein du dimère d'IscU. Ces deux centres [2Fe-2S]2+ semblent pouvoir se combiner pour former un centre [4Fe-4S]2+. Il faut préciser que ces résultats ont été obtenus avec une protéine IscU purifiée sous la forme d'un dimère, où les deux centres [2Fe-2S] sont proches et peuvent se réarranger pour former un centre [4Fe-4S]. Cependant, ces résultats sont 63 Introduction bibliographique difficiles à interpréter lorsque l'on regarde les structures cristallographiques des complexes (IscS-IscU)2 (Figure I. 11) ; où les deux protéines d'IscU, sous la forme monomère, sont très éloignées l'une de l'autre, ce qui suggère que la formation d'un centre [4Fe-4S] requière la dimérisation de deux protéines IscU portant chacune un centre [2Fe-2S]. Il a été montré que le réarrangement de deux centres [2Fe-2S]2+ à un centre [4Fe-4S]2+ nécessite l'apport de deux électrons qui peuvent être fourni par la ferrédoxine (Chandramouli et al. 2007). En plus du soufre, la constitution d'un centre Fe/S requière un apport de fer. La source de fer nécessaire lors de la biogenèse des centres Fe/S est encore mal définie ; soit une métallo-chaperonne apporte le fer, soit le fer est libre. L'équipe de Cowan a démontré par des expériences d'ITC (Isothermal Calorimetry Titration) que la protéine IscU est capable de lier deux atomes de fer avec des constantes de dissociation de l'ordre de 2 à 3 μM (Nuth et al. 2002). Cependant, d'autres études affirment que la protéine IscU ne lie pas de fer (Smith et al. 2001; Urbina et al. 2001; Adinolfi et al. 2004). À l'heure actuelle, l'origine du fer, nécessaire à la biogenèse des centres Fe/S est toujours sujet à controverse ; et notamment, il a été proposé que la protéine frataxine soit une métallo-chaperonne apportant le fer à la machinerie de biogenèse des centres Fe/S. Cette fonction de la protéine sera plus amplement discutée dans la partie suivante de ce chapitre. Enfin, il existe également un débat sur la chronologie des évènements, pour savoir qui du fer ou du soufre arrive en premier lors de la synthèse d'un centre Fe/S. Ou encore, pour savoir si leur arrivée est simultanée. Certains pensent que le soufre arrive en premier car le transfert de soufre ne nécessite pas de fer (Smith et al. 2001; Urbina et al. 2001); alors que d'autres pensent que le fer est présent avant le soufre, car la forme persulfurée d'IscU ne lie pas le fer (Nuth et al. 2002). Figure I. 15. Schéma d'organisation de la biogenèse des centres Fe/S. La cystéine désulfurase est représentée en orange avec son cofacteur PLP, la protéine d'échafaudage est en vert et enfin la protéine réceptrice est en bleu. Bien qu'il soit difficile aujourd'hui de proposer un mécanisme clair pour l'assemblage des centres Fe/S, les données actuelles permettent de proposer une séquence en trois étapes 64 Introduction bibliographique principales pour la biogenèse des centres Fe/S et la maturation des protéines Fe/S (Figure I. 15): 1) La mobilisation du soufre par les cystéines désulfurases PLP-dépendantes 2) L'assemblage du centre Fe/S sur la protéine d'échafaudage, à partir du fer et du soufre mobilisés. 3) Le transfert du centre Fe/S néosynthétisé vers l'apo-protéine cible. B . 2 . 6 . Transfert du centre Fe/S d'ISCU vers les apo-protéines cibles Chez la plupart des procaryotes, l'opéron isc contient les gènes hscA et hscB, qui codent respectivement pour une Hsp70 (Heat shock protein 70 kDa) et une Hsp20 (Heat shock protein 20 kDa), indiquant qu'un système de chaperonnes intervient dans la biogenèse des centres Fe/S. L'étape de transfert du centre Fe/S néosynthétisé sur la protéine ISCU vers une apo-protéine cible est une étape importante de la biogenèse des centres Fe/S, qui nécessite l'intervention de protéines chaperonnes (Figure I. 15, 3) (Muhlenhoff et al. 2003). Les systèmes chaperonne/co-chaperonne tels que le tandem DnaK/DnaJ rencontré chez les procaryotes ou le système Ssc1/Mdj1 trouvé chez S. cerevisiae aident au repliement des protéines et préviennent l'agrégation des protéines dénaturées, mais sont inefficaces dans des expériences de biogenèse des centres Fe/S (Wu et al. 2005) ; probablement en raison de la faible spécificité de reconnaissance « enzyme-substrat » qui permet à ces systèmes d'interagir avec un grand nombre de protéines substrats. Il semble donc qu'un système de chaperonne/co-chaperonne soit spécialement dédié à la machinerie de biogenèse des centres Fe/S. Chez la levure, on retrouve le système Ssq1/Jac1 ; et le tandem HSPA9/HSC20, chez les mammifères. Les systèmes HscA/HscB bactériens et Ssq1/Jac1 de levure ont été très étudiés et un certain nombre de similitudes ont été observées entre les deux organismes. Les données biochimiques étant beaucoup plus rares pour le système mammifère, sa description repose largement sur les modèles procaryotes et de levure. 65 Introduction bibliographique B . 2 . 6 . 1 . Le système de chaperonne/co-chaperonne Le mécanisme de transfert du centre Fe/S fait intervenir un complexe ternaire entre IscU, HscA et HscB, dans lequel l'énergie provenant de l'hydrolyse de l'ATP est utilisé pour réaliser le transfert de centre Fe/S vers les protéines acceptrices (Bonomi et al. 2008). La protéine chaperonne HscA est composée de deux domaines ; un domaine de liaison à l'ATP dans sa partie N-terminale, qui possède une activité ATPase, et un domaine SBD (Substrat Binding Domain) en C-terminal, pour l'interaction avec la protéine IscU par un motif conservé « LPPVK » d'IscU (Silberg et al. 2001; Hoff et al. 2002; Hoff et al. 2003) (Figure I. 13). La co-chaperonne HscB contient également deux domaines ; un domaine « J », placé en N-terminal, dont trois acides aminés conservés constituent le motif « HPD », nécessaire à la stimulation de l'activité ATPase d'HscA ; et un domaine « C », en C-terminal, qui interagit avec les leucines L92 et L96 et la phénylalanine F153 de la protéine IscU (Hoff et al. 2000; Fuzery et al. 2008; Fuzery et al. 2011). Il a été montré que HscB interagit préférentiellement avec la protéine HscA-(ATP) alors que la protéine IscU possède une meilleure affinité pour HscA-(ADP). L'ensemble des études réalisées sur le système HscA/HscB suggère un mécanisme de transfert de centres Fe/S séquentiel, où la protéine holo-IscU est tout d'abord recrutée par la co-chaperonne HscB ((1), Figure I. 16) (Kim et al. 2009), permettant une interaction de meilleure affinité entre holo-IscU et HscA-(ATP) ((2), Figure I. 16) (Kim et al. 2013). L'activité ATPase de HscA est stimulée d'un facteur 5 en présence de la co-chaperonne HscB ou de la protéine substrat IscU et d'un facteur supérieur à 100 en présence des deux protéines (Hoff et al. 2000) ; et il a été démontré que cette stimulation de l'activité ATPase est corrélée avec une augmentation de la vitesse d'hydrolyse de l'ATP en ADP et non pas une augmentation de la vitesse d'échange entre l'ADP et l'ATP (Silberg et al. 2004). L'hydrolyse de l'ATP en ADP entraine de manière concomitante le transfert du centre Fe/S vers la protéine cible, un changement de conformation du domaine SBD, passant d'une forme ouverte à une forme fermée et le relargage de la protéine HscB ((3), Figure I. 16). Pour finir, l'échange de nucléotides entraine la dissociation du complexe HscA-IscU ((4) et (5), Figure I. 16). 66 Introduction bibliographique Figure I. 16. Schéma du mécanisme séquentiel de transfert du centre Fe/S avec le système HscA/HscB. (1) HscB recrute holo-IscU. (2) Le complexe HscB-holo-IscU lie HscA-(ATP). (3) L'hydrolyse de l'ATP entraine la dissociation de HscB, et le transfert du centre Fe/S vers une apo-protéine. (4) L'échange de nucléotide permet la (5) dissociation de la protéine apoIscU. Image inspirée de (Lill et al. 2012). Chez les eucaryotes, la protéine Mge1 est nécessaire pour l'échange ADP/ATP sur Ssq1 (Lutz et al. 2001; Dutkiewicz et al. 2003; Dutkiewicz et al. 2004; Andrew et al. 2006; Ciesielski et al. 2012; Uhrigshardt et al. 2013). Aucun homologue de Mge1 n'a été identifié chez les procaryotes, probablement car l'efficacité intrinsèque d'échange de nucléotide de HscA est plus élevée que celle de ses homologues eucaryotes (Ssq1 et HSPA9). Chez les mammifères, la co-chaperonne HSC20 a été caractérisée. Sa structure est très proche de son homologue bactérien HscB (Uhrigshardt et al. 2013) ; cependant, l'extrémité N-terminale des deux protéines est très différente, avec deux motifs « CXXC » sur HSC20, suggérant la fixation d'un atome de zinc. Il a été démontré que la protéine HSC20 est l'homologue fonctionnel de la protéine Jac1 ; car l'expression de la protéine HSC20 permet de restaurer un phénotype sauvage de croissance cellulaire dans une souche de levure ∆jac1. Cependant, la protéine HSC20 est non-fonctionnelle si les quatre cystéines placées en N- 67 Introduction bibliographique terminale sont mutées en sérine (Uhrigshardt et al. 2010). Ces motifs « CXXC » sont donc indispensables à la fonction de la protéine, mais le rôle de ce domaine n'a pas encore été déterminé. Enfin, une étude récente chez S. cerevisiae montre que le domaine d'interaction d'Isu1 (L63, V72 et F94), impliqué dans l'interaction avec Jac1, est également engagé dans l'interaction avec Nfs1 (Majewska et al. 2013). L'affinité des deux protéines, Nfs1 et Jac1, pour Isu1 est équivalente, suggérant un mécanisme d'association/dissociation ordonné d'Isu1 entre les deux protéines au cours de la biogenèse des centres Fe/S. B . 2 . 6 . 2 . Les transporteurs intermédiaires Comment la protéine ISCU est-elle capable de distribuer des centres Fe/S à des protéines mitochondriales très différentes les unes des autres ? Il semble que la distribution des centres Fe/S passe par un réseau de transporteurs intermédiaires, capables de délivrer ces centres Fe/S spécifiquement à certaines protéines cibles. L'utilisation de ces transporteurs permet probablement de restreindre le nombre de protéines qui interagissent avec la protéine d'échafaudage ISCU et de toucher un plus grand nombre de protéines cibles (Figure I. 17). Différents transporteurs intermédiaires ont été identifiés. Il a été montré dans différents organismes eucaryotes que la glutarédoxine 5 (GLRX5) et ses homologues participent à la biogenèse des centres Fe/S mitochondriaux et cytosoliques (RodriguezManzaneque et al. 2002; Wingert et al. 2005). Chez S. cerevisiae, la délétion du gène grx5 codant pour la protéine Grx5 entraîne une accumulation de fer dans la mitochondrie et sur la protéine Isu1 (Rodriguez-Manzaneque et al. 2002; Muhlenhoff et al. 2003; Ye et al. 2010). Ces résultats suggèrent que la protéine Grx5 mitochondriale est impliquée dans le transport de centres Fe/S. Les glutarédoxines font partie de la superfamille des thiorédoxines, qui comprend notamment deux sous-familles, les glutarédoxines dithiols et monothiols. Les glutarédoxines dithiols, dont la glutarédoxine 1 cytosolique et la glutarédoxine 2 mitochondriale, sont des oxydoréductases capables de réduire les protéines glutathionylées grâce à deux résidus cystéines conservés dans un motif « CP(Y/F)C ». Les glutarédoxines monothiols, comprenant la glutarédoxine 5 mitochondriale, GLRX5, et la glutarédoxine 3, GLRX3 ou PICOT, n'ont qu'un seul résidu cystéine conservé dans un motif « CGFS » et ne possèdent pas d'activité oxydoréductase. Ces glutarédoxines sont capables de lier un centre 68 Introduction bibliographique [2Fe-2S] à l'interface de deux sous-unités (Picciocchi et al. 2007; Johansson et al. 2011). Ce centre Fe/S est coordonné par la cystéine conservée de ces enzymes et par le groupement thiol d'une molécule de glutathion (GSH). De récentes études chez A. vinelandii et S. cerevisiae ont montré que la protéine Grx5 étaient capables de recevoir un centre Fe/S transféré depuis la protéine d'échafaudage Isu1 (Shakamuri et al. 2012; Uzarska et al. 2013). Figure I. 17. Schéma représentatif de la biogenèse des centres Fe/S chez les mammifères. Image provenant de (Beilschmidt et al. 2014). Les protéines ISCA1 et ISCA2 font partie de la famille des protéines d'échafaudage de type A. Ces protéines possèdent trois cystéines conservées, permettant la liaison d'un centre Fe/S (Jensen et al. 2000; Kaut et al. 2000). Le rôle de cette famille de protéines est encore sujet à controverse. Tout d'abord présentées comme des protéines d'échafaudage, au même titre qu'ISCU (Krebs et al. 2001), des études ont montré que ISCA1 et IscA, son homologue bactérien, étaient capables de lier un atome de fer par dimère de protéine (Ding et al. 2007; Lu et al. 2010), suggérant que la forme « holo-ISCA1 » est une source de fer pour la biogenèse des centres Fe/S. Une étude plus récente indique que les protéines d'échafaudage de type A seraient d'avantage impliquées dans le transport des centres Fe/S (Ollagnier-de-Choudens et al. 2001; Vinella et al. 2009). Avec l'aide de la protéine IBA57, les protéines ISCA1 et ISCA2, peuvent transporter des centres [4Fe-4S] jusqu'aux apo-protéines cibles comme l'aconitase mitochondriale ou les complexes I et II de la chaîne respiratoire mitochondriale (Sheftel et al. 2012; Beilschmidt et al. 2014). 69 Introduction bibliographique La protéine IND1 est capable de lier un centre Fe/S et semble indispensable à la maturation du complexe I de la chaine respiratoire mitochondriale (Bych et al. 2008; Sheftel et al. 2009). Il pourrait s'agir d'un transporteur dédié au complexe I. Enfin, La protéine NFU1 est probablement impliquée dans la maturation des complexes I, II et III de la chaine respiratoire mitochondriale ainsi que dans la maturation de la protéine LIAS (lipoic acid synthase) (Cameron et al. 2011; Navarro-Sastre et al. 2011). B . 2 . 7 . Le cas particulier du système SUF Chez les procaryotes, le système ISC est la principale machinerie de biogenèse des centres Fe/S. Lors d'un stress cellulaire (stress oxydant ou carence en fer), l'expression des protéines qui composent la machinerie SUF est activée. Il a été montré récemment que le système SufS-SufE est plus résistant au stress oxydant que le système IscS-IscU, ce qui pourrait expliquer son rôle essentiel en conditions de stress (Dai et al. 2012). Le système SUF est principalement composé d'une cystéine désulfurase, SufS et d'une protéine d'échafaudage sous la forme d'un complexe, SufBCD. Contrairement au système ISC, le système SUF possède une petite protéine supplémentaire, appelée SufE, qui interagit avec SufS et SufBCD (Loiseau et al. 2003; Layer et al. 2007). La protéine SufE se retrouve persulfurée sur son unique cystéine C51 après un transfert de soufre provenant de SufS. D'après la structure de SufE d'E. coli, la cystéine C51 est positionnée dans une cavité hydrophobe et n'est pas exposée au solvant, ce qui suggère que la forme persulfurée de la cystéine C51 de SufE est protégé du solvant, et donc d'oxydations ou de réductions non désirées (Goldsmith-Fischman et al. 2004). La stratégie de la démultiplication des intermédiaires persulfurés pourrait donc jouer un rôle essentiel pour permettre une biogenèse des centres Fe/S efficace en conditions de stress, potentiellement en protégeant les intermédiaires persulfures. 70 Introduction bibliographique B . 3 . Biogenèse des centres Fe/S cytosoliques B . 3 . 1 . La machinerie EXPORT, le composé X et CIA Le système CIA (Cytosolic iron-sulfur cluster assembly) est la machinerie cytosolique de biogenèse des centres Fe/S. Cependant cette machinerie ne fonctionne pas de manière autonome car elle est dépendante de la machinerie ISC. Dans le système levure, un transporteur ATP-dépendant, nommé Atm1, localisé dans la membrane interne de la mitochondrie et essentiel à la synthèse des centres Fe/S cytosoliques a été identifié. Il a été proposé que ce transporteur exporte un composé de nature inconnue, appelé composé X, requis par la machinerie CIA pour l'assemblage des centres Fe/S cytosoliques (Figure I. 17). Chez les eucaryotes supérieurs, l'homologue d'Atm1 est appelé ABCB7 (ATP binding cassette B7) (Ye et al. 2010). De même que pour Atm1, la déplétion du transporteur ABCB7 diminue l'activité des protéines Fe/S cytosoliques et nucléaires alors que les protéines Fe/S mitochondriales ne sont pas affectées (Kispal et al. 1999; Cavadini et al. 2007). La protéine NFS1 étant mitochondriale et aucune autre cystéine désulfurase n'ayant été identifiée dans le cytosol, il est fort probable que le composé X contienne du soufre sous une forme utilisable par la machinerie CIA, comme un dérivé de persulfure (Lill et al. 2012; Beilschmidt et al. 2014). En ce sens, des données récentes suggèrent qu'Atm3, un homologue d'Atm1 chez les plantes, est capable de transporter du glutathion oxydé (GSSG) et du glutathion trisulfure (GS-S-SG) (Schaedler et al. 2014). La structure cristallographique d'Atm1 a également révélé que ce transporteur est capable de fixer du GSH (Srinivasan et al. 2014). Enfin, la déplétion du GSH chez S. cerevisiae conduit à un déficit de centres Fe/S cytosoliques (Sipos et al. 2002; Kumar et al. 2011). Il est donc possible qu'Atm1 transporte un dérivé de glutathion persulfuré. La sulfhydryl oxydase nommée ALR (augmenter of liver regeneration), qui catalyse la formation de ponts disulfure dans l'espace inter-membranaire, semble également être critique pour l'export de ce composé X mais son rôle exacte reste à définir (Figure I. 17) (Lange et al. 2001; Sipos et al. 2002; Kumar et al. 2011). Le composé X exporté est ensuite pris en charge par la machinerie d'assemblage CIA. Les protéines NUBP1, NUBP2, Ciao1 et IOP1 (Balk et al. 2004; Balk et al. 2005; Netz et al. 2007; Srinivasan et al. 2007; Song et al. 2008; Stehling et al. 2008; Zhang et al. 2008) ont été identifiées comme appartenant au système CIA de biogenèse des centres Fe/S (Figure I. 17). 71 Introduction bibliographique Leurs fonctions exactes ne sont pas encore clairement déterminées et un grand nombre de protéines intervenant dans cette machinerie CIA sont probablement encore à découvrir (Zhang et al. 2008). B . 3 . 2 . Un domaine de controverse Les protéines NFS1, ISD11, ISCU et NFU1 semblent également être exprimées en très faible quantités dans le cytosol (Land et al. 1998; Tong et al. 2003; Tong et al. 2006; Shi et al. 2009). La présence de ces acteurs du système ISC mitochondrial de la biogenèse des centres Fe/S dans d'autres compartiments permet d'envisager d'autres fonctions pour ces protéines. Par exemple, il a été montré que la forme cytosolique de NFS1 n'est probablement pas impliquée dans la biogenèse des centres Fe/S (Biederbick et al. 2006) et que la protéine ISCU cystosolique est probablement impliquée dans la réparation et/ou la régénération des centres Fe/S après un stress oxydatif ou une période de carence en fer (Tong et al. 2006). Enfin, de récentes études proposent que la protéine NFS1 cytosolique soit impliquée dans la synthèse du cofacteur Moco (Molubdenum cofactor) ou encore que sa forme nucléaire soit impliquée dans la thiolation des ARN de transfert (Marelja et al. 2013; Shigi 2014). C . La frataxine : de l'ataxie de Friedreich à la biogenèse des centres Fe/S La frataxine (FXN) est une petite protéine mitochondriale impliquée dans la biogenèse des centres Fe/S. Une déficience en frataxine conduit à une pathologie nommée l'ataxie de Friedreich (Campuzano et al. 1997). C . 1 . Les origines génétiques de l'ataxie de Friedreich L'ataxie de Friedreich (FRDA) est une maladie génétique récessive autosomale (non portée par le chromosome sexuel X). C'est l'ataxie héréditaire la plus fréquente chez les Caucasiens avec 1 individu sur 50 000 atteint de la maladie (Puccio et al. 2000). Elle est 72 Introduction bibliographique caractérisée par une neurodégénérescence progressive associée à des lésions du cervelet et de la voie spino-cérébelleuse, couplées le plus souvent à une hypertrophie cardiaque. Dans des cas plus rares, les patients FRDA développent un diabète et des anomalies osseuses. L'ataxie de Friedreich est causée par une expression insuffisante de la frataxine (Campuzano et al. 1996). Le défaut de synthèse de la frataxine est la conséquence d'une expansion anormale d'un triplet de nucléotide « GAA » dans le premier intron du gène FRDA codant pour la frataxine. Ce gène est localisé sur le chromosome 9 chez l'Homme (Chamberlain et al. 1988). Chez un sujet sain, le nombre de répétition du trinucléotide « GAA » n'excède pas 40 ; alors que chez les patients FRDA, 60 à près de 2000 répétitions « GAA » peuvent être observées (Puccio et al. 2000). La grande majorité (96 %) des patients FRDA sont « homozygotes », c'est-à-dire qu'ils possèdent cette anomalie génétique sur chacun des deux allèles du gène FRDA. Cette répétition « GAA » entraine une inhibition de la transcription du gène FRDA. Dans certains cas (4% des patients FRDA), la maladie est dite « hétérozygote », chez ces patients, un seul des deux allèles présente la répétition anormale de « GAA » tandis que le second possède des mutations ponctuelles ou des délétions. Ces mutations entrainent l'inhibition de la traduction de la frataxine ou altèrent sa fonction. Quinze mutations ponctuelles ont été recensées. Elles touchent principalement des résidus conservés tels que l'aspartate 122 (D122Y), la glycine 130 (G130V), l'asparagine 146 (N146K), la glutamine 148 (Q148R), l'isoleucine 154 (I154F), le tryptophane 155 (W155R) ou encore l'arginine 165 (R165C) (Tsai et al. 2011; Pastore et al. 2013). A l'échelle de la cellule, l'ataxie de Friedreich se traduit par une déficience de l'activité des protéines Fe/S, suivi d'une accumulation de fer dans la mitochondrie, d'une diminution de la production d'ATP et d'une sensibilité au stress oxydant plus élevée (Puccio et al. 2000; Puccio et al. 2001). C . 2 . La frataxine C . 2 . 1 . Localisation et maturation Chez les eucaryotes, la frataxine est localisée dans la matrice mitochondriale (Koutnikova et al. 1997), et dans le cytosol pour les procaryotes. Chez les mammifères, la 73 Introduction bibliographique protéine est synthétisée sous la forme d'un précurseur de 210 acides aminés (23 kDa) (174 acides aminés pour la levure S. cerevisiae), contenant une séquence d'adressage à la mitochondrie en position N-terminale (Koutnikova et al. 1998). La maturation de la frataxine passe par un processus en deux étapes. Dans la matrice mitochondriale, le précurseur de la frataxine interagit tout d'abord avec la sous-unité β de la protéine MPP (mitochondrial processing peptidase). Chez les mammifères, la liaison peptidique entre la glycine G41 et la leucine L42 du précurseur de la frataxine est ensuite rompue pour obtenir une forme intermédiaire de 19 kDa (acides aminés 42 à 210 et 22 à 174 pour S. cerevisiae (Branda et al. 1999)). Enfin, cette forme intermédiaire est clivée entre la lysine K80 et la sérine S81 pour obtenir la forme mature de la frataxine (acides aminés 81à 210, 14 kDa et 52 à 174 pour S. cerevisiae) (Condo et al. 2006; Schmucker et al. 2008). Il a été proposé que ce processus en deux étapes, réalisé par la MPP, permette de réguler la fonction de la frataxine (Branda et al. 1999). C . 2 . 2 . Structure tridimensionnelle La frataxine est une protéine très conservée, présente dans la plupart des organismes de la bactérie jusqu'aux mammifères (Gibson et al. 1996; Adinolfi et al. 2002). Seule la partie N-terminale, correspondant à la séquence d'adressage à la mitochondrie, n'est présente que chez les eucaryotes. Plusieurs structures de frataxine ont été résolues par RMN et cristallogenèse, notamment des frataxines de mammifères (FXN, Homo Sapiens) (DhePaganon et al. 2000; Musco et al. 2000), de levures (Yfh1, S. cerevisiae) (He et al. 2004) et de la bactérie (CyaY, E. coli) (Cho et al. 2000; Nair et al. 2004) (Figure I. 18). Figure I. 18. Structures des protéines frataxines eucaryotes et procaryotes. A. Structures de la protéine FXN (Homo sapiens) obtenue par cristallogenèse (A) et par RMN en solution (B) (PDB : 1EKG et 1LY7, respectivement). C. Structure en solution de Yfh1 (S. cerevisiae) (PDB : 1XAQ). D. Structures de CyaY d'E. coli obtenue par RMN (D) et par cristallogenèse (E) (PDB : 1SOY et 1EW4, respectivement). Les deux hélices α sont colorées en bleu et les feuillets β sont en orange. Ces structures ont été obtenues grâce au logiciel PyMOL, de traitement des données récupérées sur le site PDB. 74 Introduction bibliographique Les structures de ces frataxines provenant de différents types d'organismes sont très similaires, ce qui indique un niveau de conservation important au cours de l'évolution. Toutes ces structures montrent que la frataxine est un monomère dans lequel les extrémités Nterminale et C-terminale sont repliées sous formes d'hélices α qui encadrent un assemblage continu de feuillets β anti-parallèles dans un motif en « sandwich α-β » (α-β5-7-α) (DhePaganon et al. 2000). On retrouve l'une des deux faces de la protéine composée uniquement de feuillet β placés dans un même plan ; et l'autre face exclusivement constituée d'hélice α, parallèles entre elles et au plan des feuillets β. La structure tertiaire de la frataxine est unique et ne concorde avec aucunes autres structures de protéine. Cependant, le motif en sandwich αβ est une structure secondaire que l'on retrouve dans un certain nombre de protéines, comme par exemple, les protéines HAH1 (Homo sapiens, PDB : 1TL5), ATX1 (levure, PDB : 1FES) et CopZ (Bacillus subtilis, PDB : 1P8G) (Bencze et al. 2006) ; ce motif est également retrouvé dans le domaine SUD-C (SARS-unique domain-C-terminal) de la protéine NSP3 du coronavirus SARS (Severe acute respiratory syndrome) (Johnson et al. 2010). Seule la protéine Nqo15, une sous-unité du complexe I de la chaîne respiratoire mitochondriale, possède une structure tertiaire proche de la frataxine, mais n'a aucune identité de séquence avec celle-ci (Pohl et al. 2007), et aucunes informations sur la fonction de la frataxine n'ont pu être obtenues par homologie de séquence. De manière remarquable, la répartition entre les feuillets β et les hélices α, placés de part et d'autre de la protéine, est similaire à celle observée dans les structures des protéines IscU. Figure I. 19. Distribution des charges sur la surface de la protéine FXN (Homo sapiens). Les acides aminés chargés négativement sont colorés en rouge et ceux chargés positivement, en bleu. A. Visualisation des feuillets β (vers le haut), composés d'acides aminés neutres (blanc) et l'hélice α1 (vers le bas), composée essentiellement d'acides aminés chargés négativement. B. Visualisation du domaine acide correspondant à l'hélice α1 et une partie du feuillet β1. Images de (DhePaganon et al. 2000; Musco et al. 2000). L'étude de la répartition des charges à la surface de la frataxine montre un arrangement asymétrique, avec une première face de la protéine contenant principalement des 75 Introduction bibliographique acides aminés chargés (Figure I. 19, A). Cette partie de la protéine possède un domaine acide, correspondant à l'hélice α1 et à une partie du feuillet β1, composé d'acides aminés acides (aspartate et glutamate) chargés négativement à un pH physiologique (Cho et al. 2000; Lee et al. 2000) (Figure I. 19, B). La seconde face de la protéine, correspondant aux autres feuillets β, est principalement composée d'acides aminés neutres. Cette répartition inégale des charges sur la protéine suggère la présence de sites d'interaction protéine-protéine. Enfin, la structure de la protéine FXN ne présente aucune cavité et aucun site de fixation pour un métal n'est prédictible. Figure I. 20. Localisation des mutants FRDA de la FXN. La structure de la frataxine humaine est représentée en gris et les acides aminés correspondant aux mutants I154F, L156P, W173G, L182H et H183R sont en vert et ceux correspondant aux mutants D122Y, G130V, R165P et W155F sont en rose. L'encadrement permet un zoom sur l'interaction « π-cation » entre le tryptophane W155 et l'arginine R165. Ces structures ont été obtenues grâce au logiciel PyMOL, de traitement des données récupérées sur le site PDB. Les structures de la protéine FXN permettent de formuler différentes hypothèses sur le disfonctionnement de certains mutants FRDA. Les mutants I154F, L156P, W173G, L182H et H183R, dont les acides aminés sont positionnés au coeur de la protéine, entrainent probablement une déstructuration de la protéine ; alors que pour les mutants D122Y, G130V, R165P et W155F c'est probablement la fonction de la protéine qui est altérée (Figure I. 20). Le mutant W155F est un cas particulier, qui correspond à une forme sévère de la maladie. Le tryptophane W155 est impliqué dans une interaction « π-cation » avec l'arginine R165 qui pointe vers l'extérieur de la protéine et qui pourrait constituer un motif important pour l'activité de la protéine (Figure I. 20). Il faut noter cependant que le mutant R165P entraine une forme moins sévère de la maladie que le mutant W155F. 76 Introduction bibliographique C . 3 . Frataxine et métabolisme du fer : Quelle fonction ? Depuis sa découverte en 1996, la frataxine est une protéine qui suscite un très grand intérêt, principalement en raison de son implication dans l'ataxie de Friedreich. Un très grand nombre d'études ont été entreprises pour comprendre la fonction de cette protéine, ce qui a donné lieu à un certain nombre de controverses en raison de résultats contradictoires ou non reproductibles ; notamment en ce qui concerne le rôle de la frataxine comme protéine de stockage du fer et comme chaperonne du fer. C . 3 . 1 . La frataxine comme protéine de stockage du fer ? Chez les patients FRDA, le défaut d'expression de la protéine FXN entraine une accumulation de fer dans la mitochondrie. Ces observations suggèrent que FXN intervient directement ou indirectement dans l'homéostasie du fer. L'équipe de Grazia Isaya (Clinique Mayo, Rochester, USA) a été la première à réaliser des expériences in vitro sur la protéine recombinante de levure, Yfh1. G. Isaya et ses collaborateurs ont montré que la protéine purifiée se présente sous la forme d'un monomère soluble qui s'oligomérise en présence d'ions ferreux (Fe2+, 20 à 50 équivalents de fer) pour former différents types d'édifices de stoechiométrie variable (Adamec et al. 2000). Ces oligomères sont composés de trimères de frataxine organisés en 6-, 12-, 24- et 48-mères. Le fer semble jouer un rôle spécifique dans ce processus puisqu'aucun assemblage de la protéine n'a été observé avec d'autres ions divalents tels que Ca2+, Co2+, Mg2+ ou Mn2+. De plus, il a été montré qu'Yfh1 possède une activité ferroxydase (catalyse de l'oxydation des ions Fe2+ en ions Fe3+ par le dioxygène), similaire à celle décrite pour la ferritine (Lawson et al. 1989). Cette activité semble nécessaire au mécanisme d'assemblage de la frataxine (Park et al. 2003), via la formation d'oxyde de fer qui induirait l'oligomérisation de la protéine. Au final, la forme oligomérisée de la frataxine est une sphère d'une taille d'environ 1 MDa, contenant près de 3 000 atomes de fer sous la forme de ferrihydrite, un biominéral composé d'oxyde ou d'hydroxyde de fer ferrique (Figure I. 21) (Adamec et al. 2000; Karlberg et al. 2006). Ce type de structure rappelle celle décrite pour la ferritine qui est organisée en oligomère de 24 sousunités, capable de fixer plus de 4 500 atomes de fer, également sous la forme de ferrihydrite (Nichol et al. 2003). Par ailleurs, l'expression de la ferritine mitochondriale dans des cellules 77 Introduction bibliographique Hela ou de levure, déficientes en frataxine, est capable de restaurer un phénotype sauvage, ce qui est en accord avec le rôle de la frataxine comme protéine de stockage du fer (Campanella et al. 2004; Zanella et al. 2008). Figure I. 21. Les oligomères d'Yfh1 (S. cerevisiae). A. Image AFM (Atomic Force Microscopy) des oligomères de 1 MDa de Yfh1 obtenus avec 40 équivalents de Fe2+ (image de (Adamec et al. 2000)). B. Structure supposée de l'assemblage des trimères de Yfh1 (vert et rose) sous la forme de 24-mères (image de (Karlberg et al. 2006)). C. Assemblage supposé du fer (losanges noires) au sein de la structure oligomérique d'Yfh1 (bleu). D'après l'équipe d'Isaya, le fer ferrique est conservé au coeur de la structure, alors que le fer ferreux est fixé à la surface de la structure (image de (Park et al. 2003)). Cependant, à la différence de la frataxine, l'oligomérisation de la ferritine ne nécessite pas de fer (Agar et al. 2000). L'équipe de G. Isaya a ensuite démontré que la forme holooligomérisée de Yfh1 (Yfh1-Fe) est capable de transférer du fer ferreux (Fe2+) à une apoprotéine comme la ferrochélatase qui est la protéine chaperonne permettant l'insertion du fer dans la protoporphyrine IX (Park et al. 2003). Ainsi, ces résultats suggèrent que la forme Yfh1-Fe est capable d'incorporer à la fois des ions ferriques (Fe3+), au sein de la structure oligomérique, et des ions ferreux (Fe2+), à proximité de la surface de la protéine (Park et al. 2003). Enfin, cette équipe a observé un processus réversible d'assemblage/désassemblage des structures oligomériques de la protéine Yfh1. Ils ont proposé que ce processus d'oligomérisation traduise un rôle de détoxification du fer in vivo, en plus de son rôle de protéine de stockage du fer (Gakh et al. 2006). L'équipe de Grazia Isaya a également montré qu'une forme intermédiaire immature de la frataxine humaine (FXN56-210) présente les mêmes caractéristiques que son homologue, Yfh1 (Cavadini, 2002). Cependant, l'équipe d'A. Pastore a montré que la forme mature de FXN (FXN81-210) est incapable de s'auto-assembler en présence de fer (Adinolfi et al. 2002). Chez les mammifères, le phénomène d'oligomérisation fer-dépendante serait donc potentiellement spécifique de la forme immature de la protéine. Parallèlement ils ont montré que la frataxine bactérienne s'auto-assemble en présence d'un excès de fer. Par conséquent, l'ensemble de ces études suggère que contrairement à la frataxine humaine, les frataxines 78 Introduction bibliographique bactériennes CyaY et de levure Yfh1, sont capables de s'auto-assembler en présence d'un excès de fer. Cependant, il est difficile d'envisager que des protéines aussi bien conservées, tant au niveau de leurs séquences d'acides aminés que de leurs structures, puissent avoir des fonctions aussi différentes. A la suite de ces études, le rôle de la frataxine comme protéine de stockage du fer a été remis en question par plusieurs équipes (Adinolfi et al. 2002; Aloria et al. 2004; Seguin et al. 2010). Tout d'abord, les oligomères Yfh1-Fe se désassemblent en présence d'autres ions tels Ca2+ ou Mg2+. Ces résultats suggèrent donc qu'in vivo, la forme monomérique de la protéine est favorisée (Adinolfi et al. 2002). Deuxièmement, l'expression d'un mutant de la frataxine incapable d'oligomériser en présence d'un excès de fer (D86A/E90A/E93A) permet de restaurer, dans les mêmes proportions, la croissance d'une souche délétée pour le gène codant Yfh1 (∆yfh1), ce qui indique que l'oligomérisation de la frataxine n'est pas une fonction essentielle, au moins chez S. cerevisiae (Aloria et al. 2004). Enfin, une troisième étude a démontré que l'expression de la protéine Yfh1 dans une souche ∆yfh1 ne permet pas de reverser l'accumulation de fer, ce qui va à l'encontre du rôle d'Yfh1 dans le stockage du fer, bien qu'il soit possible d'imaginer que l'accumulation de fer soit un processus irréversible (Seguin et al. 2010). Ainsi, l'ensemble de ces résultats semblent indiquer qu'Yfh1 n'est pas une protéine « ferritine-like ». Le processus d'oligomérisation de la frataxine a été décrit in vitro, mais probablement que cet assemblage est inexistant, ou mineur, in vivo. C . 3 . 2 . La frataxine et la biogenèse des centres Fe/S En 2001, parallèlement aux travaux de G. Isaya et de ses collaborateurs, une étude a montré qu'il existe un lien phylogénétique entre la frataxine et les protéines impliquées dans la biogenèse des centres Fe/S (Huynen et al. 2001), suggérant que la frataxine est un acteur de ce processus. Au début des années 2000, en mesurant l'activité de protéines Fe/S mitochondriales comme l'aconitase (Aco1) ou la succinate déshydrogénase (SDH), plusieurs groupes ont mis en évidence qu'un défaut d'expression de la frataxine dans les modèles eucaryotes induit un défaut dans le processus de biogenèse des centres Fe/S (Chen et al. 2002; Duby et al. 2002; Muhlenhoff et al. 2002). L'équipe d'Hélène Puccio a montré dans un modèle souris FRDA que le défaut de synthèse des centres Fe/S survient avant l'accumulation de fer. Ces résultats 79 Introduction bibliographique suggèrent que le déficit de biogenèse des centres Fe/S est un événement primaire et que l'accumulation de fer est une conséquence de ce défaut. Bien que le mécanisme conduisant à l'accumulation de fer ne soit pas connu, différentes observations soutiennent cette hypothèse. Notamment, l'accumulation de fer dans la mitochondrie semble être un phénomène général corrélé à un défaut d'expression des protéines mitochondriales impliquées dans la biogenèse des centres Fe/S telles que Nfs1, Isu1, Isa1 et 2, Grx5, Ssq1, Jac1, Atm1, Yah1 (Fdx), Arh1 (FdxR) ou encore Nfu1 (S. cerevisiae), ce qui suggère que l'accumulation de fer est une conséquence direct d'un défaut de biosynthèse des centres Fe/S (Tamarit et al. 2003). De plus, de nombreuses études réalisées par différentes équipes, ont montré une interaction spécifique de la frataxine avec les composants de la machinerie de biogenèse des centres Fe/S, ce qui soutient l'hypothèse d'un rôle direct de la frataxine dans la biogenèse des centres Fe/S. Une diminution de l'activité de la cytochrome c oxydase (complexe IV de la chaîne respiratoire mitochondriale), corrélée à un défaut d'incorporation du fer dans la protoporphyrine IX lors de la synthèse de l'hème, a également été observée chez les patients FRDA suggérant que la frataxine est impliquée dans l'incorporation du fer dans l'hème (Schoenfeld et al. 2005). Cependant, cette hypothèse est controversée car aucun défaut de synthèse de l'hème n'a été observé dans d'autres modèles, comme S. cerevisiae (Muhlenhoff et al. 2002). De plus, les patients FRDA ne souffrent pas d'anémie, qui est une conséquence attendue d'un défaut de synthèse de l'hème. L'ensemble de ces résultats suggèrent donc que FXN est impliquée dans la biosynthèse des centres Fe/S et que l'accumulation de fer est potentiellement une conséquence de ce défaut d'assemblage des centres Fe/S. L'une des hypothèses qui a été formulée à la suite de ces résultats et qui permettrait d'expliquer les observations faites sur la fixation du fer, avance un rôle de la frataxine comme chaperonne à fer pour la biogenèse des centres Fe/S. C . 3 . 2 . 1 . La frataxine comme une chaperonne à fer ? Il a été montré, par des expériences de RMN, que les protéines Yfh1 et CyaY sont capables de lier deux atomes de fer sans que cela n'entraine de processus d'oligomérisation. Les sites de fixation de ces atomes de fer ont été localisés dans une zone correspondant au domaine acide de la protéine, riche en aspartate et en glutamate (He et al. 2004; Nair et al. 2004; Cook et al. 2006) (Figure I. 19, B). Même si la nature des ligands et la localisation 80 Introduction bibliographique exacte des sites de fixation n'ont pas été déterminées, il semble que les atomes de fer soient hexacoordonnés par des ligands de type N/O dans une géométrie octaédrique (Cook et al. 2006). Les constantes de dissociation (KD) des deux sites de fixation du fer ont été calculées par des expériences d'ITC (Isothermal Titration Calorimetry) et des valeurs de 2,0 et 3,0 μM ont été rapportées (Cook et al. 2006). Sur la base de ces résultats, il a été proposé un rôle de chaperonne à fer pour la frataxine permettant l'apport de fer pour la biogenèse des centres Fe/S et la synthèse de l'hème dans la levure (Lesuisse et al. 2003; Park et al. 2003; Layer et al. 2006; Foury et al. 2007). Il semble que la frataxine intervienne également dans le processus de réparation du centre Fe/S de l'aconitase mitochondriale (Bulteau et al. 2004), et qu'elle soit la source de fer pour la réparation des centres Fe/S lors d'un stress oxydant (Ding et al. 2007). L'ensemble de ces résultats suggère donc que la frataxine est une chaperonne à fer intervenant dans l'assemblage des centres Fe/S, l'incorporation du fer dans la ferrochélatase et la réparation des centres Fe/S. Cependant, il faut noter que chez les mammifères, la ferrochélatase possède un centre [2Fe-2S]. Le défaut de biosynthèse de l'hème pourrait donc être relié à un défaut initial de biogenèse des centres Fe/S, ce qui laisse supposer un rôle de la frataxine dédié aux centres Fe/S (biogenèse et réparation). C . 3 . 2 . 2 . Spécificité de la frataxine pour la machinerie ISC Alors que des interactions protéine-protéine entre CyaY et deux composants de la machinerie ISC, IscS et IscU, ont été mises en évidence (Prischi et al. 2010); aucune interaction avec des composants de la machinerie SUF ou CSD n'a été observée à ce jour (Layer et al. 2006). Les constantes de dissociation des complexes IscS/IscU, IscS/CyaY et IscS-IscU/CyaY ont été calculées et les valeurs respectives de 1,3 μM, 18,5 μM et 35 nM ont été déterminées. Ces résultats indiquent que l'affinité de CyaY pour IscS augmente lorsqu'IscU est fixée à IscS. Les études RMN ont montré que CyaY interagit avec IscS par l'intermédiaire de son domaine acide tandis que l'interaction avec IscU est localisée au niveau des feuillets β, contenant notamment le tryptophane W61, correspondant au tryptophane W155 chez l'homme, muté chez certains patients FRDA (Prischi et al. 2010). Parallèlement, des analyses par spectroscopie d'absorption des rayons X (SAX) et par modélisation, indiquent que le complexe IscS-IscU-CyaY se structure sous forme d'un homotrimère de 81 Introduction bibliographique type α2β2γ2, où CyaY se positionne entre la cavité délimitée par l'interface du dimère d'IscS et le domaine de fixation d'IscU (Figure I. 22). Figure I. 22. Structure du complexe IscS-IscU-CyaY. Représentation en surface du complexe IscS-IscU-CyaY obtenu par Prischi et al. Les protéines IscS sont colorées en bleu et cyan, les protéines IscU en rouge et orange et les protéines CyaY en jaune et en or. Image de (Prischi et al. 2010). Plusieurs équipes ont montré des interactions protéine-protéine, entre les protéines eucaryotes FXN et le complexe NFS1-ISD11-ISCU, proches de celles décrites pour le système bactérien (Gerber et al. 2003; Tsai et al. 2010; Schmucker et al. 2011; Colin et al. 2013). De plus, des expériences de pull-down ont montré que le fer stimule l'assemblage du complexe NFS1-ISD11-ISCU-FXN (Gerber et al. 2003), mais ces résultats n'ont pas été confirmés par les études in vitro à l'aide des protéines purifiées (Tsai et al. 2010; Schmucker et al. 2011; Colin et al. 2013). Enfin, une analyse par spectrométrie de masse en condition douce a permis l'identification d'un complexe NFS1-ISD11-ISCU-FXN dont la stoechiométrie serait compatible avec une forme α2β2-4γ2δ2 (Colin et al. 2013). C . 3 . 2 . 2 . 1 . Deux fonctions différentes pour FXN et CyaY Chez les procaryotes, un défaut de synthèse de la protéine CyaY n'entraine ni accumulation de fer dans la bactérie ni sensibilité au stress oxydant (Li et al. 1999) ; un phénotype très différent de celui que nous avons décrit tout au long de cette partie chez les eucaryotes (levure et mammifères). 82 Introduction bibliographique Les premières études biochimiques de reconstitution de centres Fe/S avec un système purifié ont montré qu'en présence de CyaY, l'assemblage des centres Fe/S est ralenti et que le ratio de centres [2Fe-2S] par rapport aux centres [4Fe-4S] n'est pas altéré (Adinolfi et al. 2009; Iannuzzi et al. 2011). Ces résultats suggèrent que la protéine CyaY agit comme un inhibiteur de la biogenèse des centres Fe/S. Le groupe d'A. Pastore a proposé que CyaY régule la production des centres Fe/S lors d'un excès de fer afin d'éviter une surproduction par rapport aux capacités d'incorporation de ces centres Fe/S dans les protéines réceptrices, qui conduirait in fine à des réactions de Fenton, entrainant la précipitation de fer. Cependant, ces résultats ne semblent pas en accord avec l'absence de phénotype des souches ∆cyay d'E. coli, mais pourraient expliquer l'accumulation de fer, la sensibilité au stress oxydant et la diminution de l'activité des protéines Fe/S chez les patients FRDA. Chez E. coli, il est possible que le système SUF prenne le relais en absence de CyaY ce qui expliquerait l'absence de phénotype dans ces souches (Li et al. 1999). De manière surprenante, les cinétiques de reconstitution réalisées avec le système eucaryote purifié montrent clairement que FXN stimule l'assemblage des centres Fe/S sur la protéine ISCU (Tsai et al. 2010; Colin et al. 2013). L'analyse des centres Fe/S synthétisés sur ISCU montre également que la quasi-totalité des centres Fe/S formés avec FXN sont des centres [4Fe-4S], tandis qu'en absence de FXN il y a quasiment autant de centres [2Fe-2S] que de centres [4Fe-4S] (Colin et al. 2013). L'ensemble de ces résultats suggèrent donc que FXN est un activateur de la biogenèse des centres Fe/S et qu'elle favorise la formation des centres [4Fe-4S]. Ainsi, les résultats obtenus avec les systèmes eucaryotes et procaryotes sont diamétralement opposés. Afin de mieux comprendre l'origine de ces différences des études ont été réalisées en combinant les protéines eucaryotes et procaryotes (Bridwell-Rabb et al. 2012). Les résultats indiquent que CyaY stimule l'assemblage des centres Fe/S avec le système eucaryote NFS1-ISD11-ISCU et que FXN inhibe l'assemblage des centres Fe/S avec le système procaryote IscS-IscU. Seule la nature de la cystéine désulfurase (NFS1 ou IscS) semble avoir une influence sur la cinétique d'assemblage indépendamment de l'origine de la protéine d'échafaudage (IscU ou ISCU) ou de la frataxine (CyaY ou FXN). Enfin, il a été montré que CyaY peut complémenter une souche de levure ∆yfh1 (Bedekovics et al. 2007). L'ensemble de ces résultats suggère donc que CyaY et Yfh1 sont des homologues 83 Introduction bibliographique fonctionnels et que selon la nature de la cystéine désulfurase elles activent ou inhibent la synthèse des centres Fe/S. C . 3 . 2 . 2 . 2 . La frataxine comme activateur de la formation d'ions sulfures ? Les expériences les plus récentes, réalisées avec le système mammifère NFS1-ISD11ISCU-FXN purifié, montrent que la protéine ISCU diminue l'activité cystéine désulfurase du complexe NFS1-ISD11 et que FXN stimule l'activité cystéine désulfurase du complexe NFS1-ISD11-ISCU (Tsai et al. 2010). Par contre, FXN n'a aucun effet sur le complexe NFS1-ISD11 en absence d'ISCU. Ces résultats ont été confirmés par Colin et al. (Colin et al. 2013). Bien que l'existence d'un transfert de soufre entre NFS1 et ISCU n'ait pas été démontrée, les auteurs de ces études ont proposé que FXN positionne la cystéine catalytique de NFS1 à proximité d'une des cystéines d'ISCU afin de favoriser le transfert ou que FXN stimule la formation de persulfures sur NFS1. Les métaux semblent également avoir une influence sur l'activité cystéine désulfurase; mais des résultats contradictoires ont été obtenus, alors que l'équipe de David Barondeau observe une stimulation en présence des ions Fe2+ et Mn2+, l'équipe de Sandrine Ollagnier-de-Choudens observe également un effet activateur avec les ions Fe3+ et Mg2+. Ce dernier groupe a également montré que la fixation du fer, dans le complexe NFS1-ISD11-ISCU est stimulée en présence de FXN lorsque NFS1 produit des ions sulfures (Colin et al. 2013). Sur la base de ces observations, il a été proposé que FXN stimule l'entrée du fer dans le complexe NFS1-ISD11-ISCU, ce qui serait en accord avec un rôle de chaperonne à fer. Cependant ces résultats pourraient également être expliqués par le fait que le complexe NFS1-ISD11-ISCU-FXN en présence de L-cystéine, de fer et de DTT, forme des centres Fe/S. En résumé, l'ensemble de ces résultats suggère que FXN stimule la production d'ions sulfures, et par conséquent l'assemblage des centres Fe/S. Plus récemment, des investigations menées chez S. cerevisiae par les équipes d'Andrew Dancis et Debkumar Pain ont permis de suivre in cellulo la formation de persulfures sur Nfs1 par radio-marquage à l'aide de L-cystéine-[35S]. Les résultats de ces expériences montrent une quantité de protéine Nfs1 persulfurée plus importante en présence d'Yfh1 qu'en son absence. Ces résultats suggèrent donc qu'Yfh1 stimule la formation du persulfure sur Nfs1 (Pandey et al. 2013). Cependant, contrairement à ce qu'il avait été observé précédemment avec les protéines de mammifères, cette stimulation ne dépend pas de 84 Introduction bibliographique la présence d'Isu1 (Pandey et al. 2013). Sur la base d'expériences réalisées en conditions dénaturantes et non dénaturantes, afin de suivre la fixation de la L-cystéine au complexe, un mécanisme a été proposé dans lequel Yfh1 stimulerait l'activité cystéine désulfurase en augmentant l'affinité de la L-cystéine pour Nfs1 (Pandey et al. 2013). Enfin, cette même équipe a identifié un mutant ponctuel d'Isu1 portant sur la méthionine M107 (M107I) qui est capable de restaurer la croissance d'une souche ∆yfh1 (Yoon et al. 2012; Yoon et al. 2014). Ces résultats indiquent qu'il existe un lien fonctionnel entre Isu1 et Yfh1, puisqu'une mutation ponctuelle sur Isu1 permet de remplacer le rôle de la frataxine. Cet effet est potentiellement lié aux effets inverses d'ISCU et de FXN sur l'activité cystéine désulfurase de NFS1 mammifère. Il est intéressant de remarquer que la méthionine M107 d'Isu1 est conservée chez les eucaryotes, alors que chez les procaryotes, elle est majoritairement remplacée par une isoleucine, suggérant que la machinerie ISC bactérienne s'affranchit de la nécessité de CyaY grâce à cette différence. En conclusion, il semble établit que FXN stimule la biogenèse des centres Fe/S chez les eucaryotes en activant la production des ions sulfures (S2-). Cependant, les résultats exposés dans cette introduction ne permettent pas d'établir un mécanisme clair pour expliquer la stimulation de la production des ions S2-. Il est proposé aujourd'hui que FXN active la formation du persulfure de NFS1, ce qui favoriserait le transfert de soufre de NFS1 à ISCU. D . Mon projet de thèse Mon projet de recherche a pour principal objectif une meilleure compréhension des mécanismes de biosynthèse des centres Fe/S chez les eucaryotes ; et notamment de préciser le rôle de la frataxine dans ce processus. Nous avons cherché à comprendre par quel mécanisme la frataxine est capable de stimuler la production d'ions sulfures. Pour cela nous avons étudié les réactions élémentaires du cycle catalytique de l'enzyme, c'est-à-dire la formation et la réduction du persulfure de NFS1. Nous avons également cherché à caractériser un transfert de soufre entre NFS1 et ISCU, ce qui n'avait pas encore été montré au commencement de ce projet. Pour cela, nous avons reconstitué in vitro la machinerie ISC de biogenèse des centres Fe/S à partir des protéines NFS1, ISD11, ISCU et frataxine (FXN) purifiées. Nous avons ensuite développé un 85 Introduction bibliographique nouveau type de test de détection et de quantification des persulfures dans une protéine, basé sur l'alkylation des thiols par des composés peptides-maléimides, afin de déterminer les effets des protéines FXN et d'ISCU sur les cinétiques de formation et de réduction des persulfures dans ce complexe multi-protéiques. Nous avons cherché à identifier un réducteur physiologique des persulfures et nous avons cherché à établir des corrélations entre les effets de FXN et d'ISCU sur les réactions de formation et de réduction de ces persulfures au cours de la reconstitution de centres Fe/S. 86 Chapitre II Matériels et méthodes Matériels et méthodes Chapitre II. Matériels et méthodes A . Matériels biologiques A . 1 . Système de surexpression bactérien : souche Escherichia Coli Rosetta2 (DE3) Nous avons utilisé les bactéries Rosetta2 (DE3) qui sont dérivées des bactéries Escherichia coli BL21 (DE3). Ces bactéries possèdent le génotype suivant : F- ompT hsdSB (rB- mB-) gal dcm (DE3) pRARE2 (CamR). L'insert chromosomique DE3 est issu du phage λ et contient le gène codant pour l'ARN polymérase T7 sous le contrôle du promoteur lacUV5, inductible par l'isopropyl-1-thio-β-D-galactopyranoside (IPTG). Ce système est utilisé pour surproduire des protéines en plaçant le gène sous contrôle d'un promoteur T7. Les bactéries Rosetta2 ont la particularité d'augmenter l'expression des protéines eucaryotes qui comportent des codons rares. Les gènes codants pour les protéines eucaryotes contiennent un certain nombre de codons sous-représentés dans les génomes bactériens, appelés codons rares. Par conséquent les ARN de transfert correspondant sont également peu ou pas exprimés dans les souches bactériennes. La souche Rosetta2 possède les ARN de transfert correspondant à 7 codons rares (AGA, AGG, AUA, CUA, GGA, CCC et CGG) encodés dans un plasmide portant une résistance au chloramphénicol (pRARE2 (CamR)). A . 2 . Vecteurs de surexpression Les plasmides pCDFDuet-1:NFS159-459-ISD11, qui permet d'exprimer le complexe NFS1-ISD11, pETDuet-1:ISCU36-168 et pET-16b:FXN79-207, pour l'expression des formes matures d'ISCU et de FXN nous ont été fournis par l'équipe d'Hélène PUCCIO (IGBMC, Strasbourg). 91 Matériels et méthodes Vecteur pCDFDuet His-Thr-NFS1-ISD11 pCDFDuet-1 Résistance Spectinomycine pETDuet His-Thr-ISCU pETDuet His-Thr-ISCU pETDuet His-Thr-ISCU pETDuet His-Thr-ISCU pETDuet His-Thr-ISCU pETDuet His-Thr-ISCU 1) NFS1 (souris) 59-459 2) ISD11 (souris) 1-91 Clivage 6 His (N-ter) Thrombine ISCU (souris) ISCU C35S (souris) C35S C61S ISCU C61S (souris) C61S 6 His (N-ter) Thrombine ISCU C104S (souris) C104S 6 His (N-ter) Thrombine C104G ISCU C104G (souris) C104G 6 His (N-ter) Thrombine M106I ISCU M106I (souris) M106I 6 His (N-ter) Thrombine R162A 6 His (N-ter) Thrombine C104S R162A pETDuet-1 pET-16b Ampicilline Ampicilline FXN (souris) 36-168 pET-28b pET-28b His-Thr-NFS1 Kanamycine [NcoI-XhoI] 2 [Nde1- BgIII] 3 [NcoI-EcoRI] 4 [NcoI-XhoI] 5 6 His (N-ter) Thrombine 6 His (N-ter) Thrombine 79-207 FXN R162A (souris) pET-28b His-Thr-FDX2 pET-28b His-Thr-GLRX5 Site de Annexe restriction 6 His (N-ter) Thrombine C35S pET-16b His-Thr-FXN pET-16b His-Thr-FXN Séquence codante Séquence Mutation Etiquette protéique (Protéine) FDX2 (souris) 53-183 6 His (N-ter) Thrombine [NdeI-BamHI] GLRX5 (humain) 34-157 6 His (N-ter) Thrombine [NcoI-NotI] NFS1 (souris) 33-459 6 His (N-ter) Thrombine Tableau II. 1. Résumé de l'ensemble des plasmides utilisés au cours de ma thèse. Ces vecteurs ont été réalisés par Véronique Henriot et Julia Jouaret de la plateforme IMAGIF. Ces plasmides ont servi de matrice pour introduire, en 5' de la séquence codante, une étiquette poly-histidine et un site de clivage pour la thrombine « LVPRGS », qui va permettre, par la suite, d'éliminer l'étiquette poly-histidine (Tableau II. 1) (Cf. Annexe 1). Seule la protéine ISD11 ne possède ni étiquette poly-histidine, ni site de clivage pour la thrombine, car elle est purifiée sous forme d'un complexe avec NFS1, qui contient déjà l'étiquette polyhistidine et le site de clivage. Ces plasmides ont également été utilisés pour introduire différentes mutations ponctuelles dans les protéines ISCU (C35S, C61S, C104S, C104G et M106I) et FXN (R162A). Enfin, nous avons fait synthétiser et cloner (GenScript) une forme plus longue de NFS1 (NFS1 (33-459)) dans un vecteur pET-28, pour tenter d'exprimer une forme soluble de la protéine NFS1 en absence d'ISD11 (Cf. Chapitre III) ; ainsi que les formes matures des protéines FDX2 (souris) et GLRX5 (humain), dans ce même vecteur (Tableau II. 1). A . 3 . Transformation des bactéries compétentes : Rosetta2 (DE3) Dans un tube eppendorf stérile, 25 μL de bactéries compétentes Rosetta2 (DE3) (Novagen®) sont incubées dans la glace pendant 15 minutes en présence de 1 à 15 ng de vecteurs de surexpression. Un choc thermique de 45 secondes à 42°C, permet la transformation des bactéries. Ce traitement déstabilise la bicouche lipidique et stimule la pénétration de l'ADN plasmidique dans les bactéries. Après un temps d'incubation de 5 minutes dans la glace, 175 μL de milieu LB sont ajoutés. Les 200 μL de milieu sont incubés 1 heure sous agitation à 37°C. Les bactéries sont finalement étalées sur boîte de Pétri contenant 92 Matériels et méthodes du milieu LB-agar, additionné des antibiotiques appropriés. Les boîtes sont placées une nuit à 37°C. Les colonies présentent sont celles contenant à la fois le vecteur de surexpression et le plasmide pRARE2 (CamR). B . Production des protéines B . 1 . Le milieu de culture Le milieu de culture utilisé est un milieu de culture généralement utilisé pour la culture bactérienne : le milieu LB (Lysogeny Broth ou Luria Bertani) (Bertani 1951). Ce milieu LB est un milieu riche de culture qui contient 10 g/L de tryptone, 5 g/L d'extrait de levure et 10 g/L de chlorure de sodium (NaCl). B . 2 . Surexpression des protéines La souche E. Coli Rosetta2 (DE3) est transformée par les différents plasmides présentés dans le Tableau II. 1. Les transformants sont sélectionnés sur un milieu LB-agar, grâce aux antibiotiques adéquats. Une colonie isolée sur boîte de Pétri est mise en culture dans 100 mL de milieu LB additionné des antibiotiques appropriés. Cette préculture incube une nuit sous agitation (180 rpm) à 37°C, avant de servir à inoculer 2 L de milieu LB (Densité optique à 600nm ≈ 0.1). La culture se poursuit sous agitation (180 rpm) à 37°C jusqu'à obtenir une DO600nm égale à 0,6, où l'expression des protéines est induite par l'ajout d'une solution d'IPTG (500μM final). La culture bactérienne reste sous agitation (180 rpm) toute la nuit à 18°C, avant d'être centrifugée à 5 500 rpm pendant 10 minutes à 4°C. Enfin, les culots bactériens obtenus sont remis en suspension dans le tampon A (50 mM Na2HPO4, 150 mM NaCl, 5 mM Imidazole, pH 8), contenant un cocktail d'inhibiteurs de protéases (Sigma). 93 Matériels et méthodes B . 3 . Extraction Les culots bactériens, remis en suspension dans le tampon A (+ inhibiteurs de protéases), sont traités par 4 à 6 cycles de presse de French (Annexe 6). Cette méthode utilise des variations de pressions en forçant les cellules à passer à travers une buse très étroite. Au moment de l'expulsion, la dépression est telle que les cellules éclatent. Le lysat cellulaire est ensuite centrifugé à 45 000 rpm pendant 1 heure et à 4°C. Le surnageant, appelé l'extrait brut, contient les protéines solubles et le culot contient les protéines insolubles et les débris cellulaires. Afin de vérifier le bon déroulement de l'extraction des protéines, ces deux fractions sont analysées par SDS-PAGE. B . 4 . Purification des protéines L'ensemble des étapes de purification par chromatographie présentées ci-dessous ont été réalisées à l'aide d'un appareil AKTA (GE Healthcare). Cet appareil permet d'automatiser le chargement des échantillons sur les colonnes de chromatographie, leur élution et leur fractionnement en sortie de colonne. Nous avons suivi l'absorbance à 280 nm pour détecter les protéines et à 410 nm pour le cofacteur PLP de NFS1. Le complexe NFS1-ISD11 et les protéines ISCU, FXN, GLRX5 et FDX2 ont été purifiées en quatre étapes par des protocoles similaires. B . 4 . 1 . Chromatographie d'affinité Cette étape de chromatographie d'affinité sur colonne de nickel permet l'enrichissement des extraits bruts en protéines possédant une étiquette poly-histidine, qui s'accroche spécifiquement à la colonne (Annexe 7). Les protéines sont ensuite éluées avec de l'imidazole, qui est un compétiteur de l'histidine pour l'interaction avec le nickel. Afin de limiter, la fixation de ces protéines, le tampon de charge contient 5 mM d'imidazole et 150 mM de sel afin de dissocier les interactions polaires. 94 Matériels et méthodes L'extrait brut de protéines est chargé sur une colonne de nickel (HiTrap Chelating HP 5mL, GE Healthcare) équilibrée avec du tampon A (50 mM Na2HPO4, 150 mM NaCl, 5 mM Imidazole, pH 8). Après un lavage de la colonne avec le tampon A, jusqu'au retour de l'absorbance à sa valeur initiale, les protéines sont éluées grâce à un gradient linéaire d'imidazole réalisé à l'aide du tampon A et d'un tampon B (50 mM Na2HPO4, 150 mM NaCl, 500 mM Imidazole, pH 8). Les fractions, récoltées en sortie de colonne (1,5 mL) sont analysées sur un gel d'électrophorèse (noté par la suite SDS-PAGE pour Sodium DodécylSulfate PolyAcrylamide Gel Electrophoresis). Les fractions contenant les protéines d'intérêt sont récupérées et concentrées sur Amicon® Ultra (MILLIPORE) jusqu'à un volume final de 4 mL. Selon la porosité de leurs membranes, appelées « membrane molecular weight cut off (MWCO) », les Amicons laissent passer des molécules de différentes tailles. Nous avons utilisés des MWCO de 30 kDa pour le complexe NFS1-ISD11 et 3 kDa pour les autres protéines. B . 4 . 2 . Désalage des protéines L'imidazole, qui interfère avec l'étape suivante de clivage à la thrombine, est éliminé par désalage des protéines semi-purifiées sur une colonne HiPrepTM 26/10 Desalting (GE Healthcare, 2.6 cm*10 cm, 53 mL), équilibrée avec le tampon C (50 mM Na2HPO4, 150 mM NaCl, pH 8). Ce type de colonne permet de séparer les protéines et les petites molécules (sels, imidazole,). Le principe est le même que celui d'une chromatographie d'exclusion de taille mais dans une gamme de poids moléculaires très différente (Annexe 8). Les fractions, récoltées en sortie de colonne, sont regroupées et concentrées sur Amicon® Ultra, jusqu'à un volume final d'environ 1 à 1,5 mL. B . 4 . 3 . Clivage de l'étiquette poly-histidine par la thrombine Le clivage par la thrombine va permettre d'éliminer l'étiquette poly-histidine par coupure de la liaison peptidique entre l'arginine et la glycine de sa séquence spécifique « LVPRGS » ; laissant ainsi 2 acides aminés (glycine et sérine) en N-terminal des protéines (Annexe 9). Les 1 mL des extraits protéiques sont traités avec 3,5 NIH unit de thrombine par mg de protéines, 16 heures à 22°C et sous agitation (550 rpm). Le clivage de l'étiquette poly- 95 Matériels et méthodes histidine est confirmé par SDS-PAGE. Pour finir, les étiquettes poly-histidines et la trypsine, qui possède aussi une étiquette poly-histidine, sont éliminées par purification sur colonne de nickel. Les protéines d'intérêt qui n'ont plus d'étiquette poly-histidine ne sont pas retenues sur la colonne et sont directement éluées et récupérées au moment de la charge des échantillons. B . 4 . 4 . Chromatographie d'exclusion stérique Cette étape de purification consiste à réaliser un tamisage moléculaire, où les différents constituants de l'échantillon sont séparés en fonction de leurs volumes hydrodynamiques, qui dépend de la taille et du repliement des protéines (Annexe 8). Nous avons constaté que nos préparations du complexe NFS1-ISD11 et d'ISCU contenaient une certaine quantité de forme persulfurée des protéines, formée au cours de la culture bactérienne (Cf. chapitre III). Les extraits protéiques contenant le complexe NFS1ISD11 et la protéine ISCU (WT et mutants) ont donc été traités par du DTT (Diothiothréitol, 10mM final) pendant10 minutes et à 25°C, afin d'éliminer ces persulfures avant la dernière étape de purification, qui permettra d'éliminer le DTT en excès. Les extraits sont ensuite dilués dans du tampon A (50 mM Na2HPO4, 150 mM NaCl, 5 mM Imidazole, pH 8) jusqu'à un volume final de 4 mL et sont chargés sur une colonne HiLoadTM 16/60 SuperdexTM prepgrade (GE Healthcare, 200 pour NFS1-ISD11 et 75 pour les autres protéines) équilibrée avec le tampon C (50 mM Na2HPO4, 150 mM NaCl, pH 8). L'élution des protéines d'intérêt se fait avec ce même tampon C, à un débit de 1 mL/min. Des fractions de 1 mL sont récoltées et analysées par SDS-PAGE. Le complexe NFS1-ISD11 est élué à 66 mL et les protéines ISCU, ISCUC35S, ISCUC61S, ISCUC104S, ISCUC104G, ISCUM106I, FXN, FXNR162A, GLRX5 (apo) et FDX2 éluent vers 73-74 mL. Les fractions qui contiennent les protéines d'intérêt pures sont récupérées, concentrées sur Amicon® Ultra, aliquotées par 100 μL avec du glycérol (10 % v/v) et stockées à -80°C. 96 Matériels et méthodes C . Dosage des protéines Les protéines ont été dosées par deux méthodes différentes : par la méthode de Bradford et par UV-visible à l'aide de coefficients d'extinction molaire déterminés de manière empirique. Ces deux méthodes présentant des limitations, nous avons comparé les résultats obtenus par chaque méthode. C . 1 . Méthode de Bradford La méthode de Bradford (Bradford 1976) est un dosage colorimétrique basé sur le changement d'absorbance du bleu de Coomassie en se fixant aux protéines, qui présente un maximum d'absorbance à 595 nm (« Biorad Protein Assay » BioRad). Une gamme étalon est réalisée à l'aide d'une solution d'albumine de sérum bovin (BSA, bovin serum albumin) à 2 μg/μL. La principale limitation de ce test est qu'il est sensible à la structure globulaire ou non des protéines. Nous avons utilisé la BSA comme protéine de référence qui est une protéine globulaire, étant donné que ni le complexe NFS1-ISD11, ni ISCU ou FXN ne sont purement globulaires (Cf. Chapitre d'introduction), ce test introduit probablement une certaine incertitude. C . 2 . Absorption à 280 nm Les protéines sont également dosées par UV-visible à l'aide d'un coefficient d'extinction molaire (ε), qui dépend presque exclusivement du nombre de résidus aromatiques contenus dans une protéine. Ce coefficient est généralement calculé en considérant les coefficients d'extinction molaire connus de chaque acide aminé aromatique pris de manière isolé (Tableau II. 2). La principale limitation de cette méthode est qu'elle ne tient pas compte de l'environnement spécifique de chaque acide aminé au sein de la protéine qui peut modifier les propriétés d'absorption de chaque acide aminé. 97 Matériels et méthodes ε (mol .L.cm ) Références NFS1 38 850 Expasy ISD11 7 450 Expasy NFS1-(2) ISD11 53 750 Expasy NFS1-(3) ISD11 61 200 Expasy PLP 10 900 Marelja et al ., 2008 ISCU 8 250 Expasy FXN 26 030 Expasy -1 -1 Tableau II. 2. Coefficients d'extinction molaire de chacune des protéines étudiées au cours de ma thèse et leurs références. Le maximum d'absorbance à 280 nm est corrélé à la concentration de la protéine grâce à la formule de Beer-Lambert: A=ε .c.l Où, A est l'absorbance (sans unité de mesure), ε, le coefficient d'extinction molaire (en mol1 .L.cm-1), c, la concentration de la protéine (en mol.L-1) et l, la longueur de la cuve de mesure (en cm). Pour le complexe NFS1-ISD11, la détermination de la masse exacte du complexe NFS-ISD11-ISCU-FXN avait conduit à un rapport (NFS1:ISD11) de (1:2) (Colin et al. 2013). Nos quantifications des bandes sur les gels d'électrophorèse suggèrent un rapport (NFS1:ISD11) de (1:3). En utilisant cette stoechiométrie pour déterminer le coefficient d'extinction molaire du complexe NFS1-ISD11 (Tableau II. 2, 61200 M-1.cm-1), nous avons trouvé un meilleur accord entre la détermination par la technique Bradford et l'absorbance à 280 nm. Nous avons choisi d'utiliser le coefficient d'extinction molaire correspondant à une stoechiométrie (1:3) sachant que la différence avec le coefficient d'extinction molaire correspondant à une stoechiométrie (1:2) représente un écart de 10% sur la détermination de la concentration du complexe. 98 Matériels et méthodes D . Etude de la formation des complexes ternaires et quaternaires D . 1 . Etude de la formation des complexes par gel natif D . 1 . 1 . Principe du gel natif Afin de caractériser la présence de complexes multimériques, les échantillons ont été analysés par électrophorèse en conditions natives ; c'est-à-dire sans SDS. Les protéines vont donc migrer en fonction de leur charge, de leur poids moléculaire et de leur structure tridimensionnelle (Cf. Annexe 10 pour la composition des gels et tampons). D . 1 . 2 . Protocole Un mélange protéique contenant 25 μM de complexe NFS1-ISD11 et/ou un ou trois équivalents d'ISCU et/ou de FXN, en présence ou non de 10 mM de DTT, est réalisé dans le tampon C (50 mM Na2HPO4, 150 mM NaCl, pH 8), pour un volume final de 35 μL. Après 30 minutes d'incubation à température ambiante, le mélange est analysé en gel natif. La migration des protéines se fait à 5°C (cuve dans la glace et en chambre froide) pendant environ 1h30 à 50 V (gel de concentration) puis 3h30 à 90 V (gel de séparation). D . 2 . Etude de la formation des complexes par réaction de couplage Lors de cette étude, nous avons comparé quatre agents de couplage (ou crosslinkers) différents : le DST (disuccinimidyl tartrate), le DSS (disuccinimidyl sulerate), le sulfo-MBS (m-maleimidobenzoyl-N-hydroxysulfosuccinimide ester) et (sulfosuccinimidyl-4-[N-maléimidométhyl]cyclohexane-1-carboxylate). 99 le sulfo-MSCC Matériels et méthodes D . 2 . 1 . Préparation de la solution de DST (ou DSS) Le DST ou le DSS, contrairement au sulfo-MSCC et au sulfo-MBS, sont solubles dans le DMSO (diméthylsulfoxyde) ou le DMF (diméthylformamide). Le DMSO et le DMF, pouvant potentiellement avoir un effet dissociant sur les complexes, nous avons donc limité leurs concentrations finales à 1%. Pour cela, une solution mère de DST (ou de DSS) à 1 M dans le DMSO (ou DMF) est réalisée, suivi d'une solution intermédiaire dans le tampon C (50 mM Na2HPO4, 150 mM NaCl, pH 8) pour obtenir une concentration finale de 5 % en DMSO. Cette solution intermédiaire sera ensuite utilisée pour ajouter le DST au milieu réactionnel afin d'obtenir 1 % final en DMSO. D . 2 . 2 . Protocole Le complexe NFS1-ISD11 (20μM) avec un équivalent d'ISCU et/ou de FXN est incubé à 25°C dans du tampon C. La réaction de crosslink est initiée par l'ajout d'une concentration finale de 20 mM d'agents de crosslink (1% DMSO final pour le DST et DSS). Après 30 minutes à 25°C et 550 rpm, la réaction est stoppée par l'ajout d'une solution de tris (Trishydroxyméthylaminométhane à 60 mM et pH 7), qui possède une amine primaire capable de réagir avec les groupements NHS ester des crosslinkers et de désactiver la réaction. Le mélange réactionnel est laissé à incuber 15 minutes à 25°C sous agitation à 550 rpm. Chaque échantillon est analysé par SDS-PAGE 14 % (Cf. Annexe 11). D . 3 . Etude de la formation des complexes par chromatographie d'affinité Différents mélanges protéiques et différentes conditions ont été testés et analysés par chromatographie d'affinité. La formation des complexes a été analysée en utilisant une colonne de nickel. Nous avons tiré avantage de l'étiquette poly-histidine de NFS1 pour servir d'appât lors de la formation des complexes ternaires et quaternaires. Le complexe NFS1-ISD11 (45 μM), avec 2,5 équivalents d'ISCU et 5 équivalents de FXN a été incubé dans du tampon C (50 mM Na2HPO4, 150 mM NaCl, pH 8) à 25°C, puis 100 Matériels et méthodes injecté sur colonne de nickel (5 mL), préalablement équilibrée avec du tampon A (50 mM Na2HPO4, 150 mM NaCl, 5 mM Imidazole, pH 8). Après 1 heure d'incubation à température ambiante, la colonne est lavée avec 10 mL de tampon A et les protéines sont éluées avec 10 mL de tampon D (50 mM Na2HPO4, 150 mM NaCl, 100 mM imidazole, pH 8,0). Pour tester l'influence de la concentration d'imidazole, de fer et de L-cystéine, le complexe NFS1-ISD11 (10 μM) et 2 équivalents d'ISCU et de FXN, en présence ou non de 300 μM de L-cystéine ou de 20 μM d'une solution de Fe(NH4)2(SO4)2, a été incubé dans du tampon E (50 mM Na2HPO4, 150 mM NaCl, 800 μM imidazole, pH 8,0). Après 10 minutes d'incubation à température ambiante, 250 μL de mélange sont injectés sur la colonne de nickel (1mL), préalablement équilibrée avec le tampon E. Après un lavage de la colonne avec 6 mL de tampon E, les protéines sont éluées à l'aide du tampon F (50 mM Na2HPO4, 150 mM NaCl, 200 mM imidazole, pH 8,0). Enfin, les protéines sorties de la colonne lors des phases de lavage et d'élution, sont récoltées (Vfraction = 0,5 mL) et analysées par SDS-PAGE 14 % et western blot (Cf. Annexe 12 pour la composition des tampons). D . 4 . Etude de la formation des complexes par chromatographie d'exclusion stérique Pour l'étude de la formation des complexes ternaires, 20 μM du complexe NFS1ISD11 avec 20 μM d'ISCU (WT et mutants) sont incubés 5 minutes à 25°C dans du tampon C (50 mM Na2HPO4, 150 mM NaCl, pH 8). Pour l'étude des complexes quaternaires et du complexe NIF, 100 μM de NFS1-ISD11 avec 500 μM de FXN, en présence ou non de 200 μM d'ISCU (WT et mutants) sont incubés 5 minutes à 25°C dans du tampon C. Les 250 μL de ce mélange sont injectés sur une colonne Superdex 200 10/300 (dite analytique) et les protéines sont éluées avec du tampon C, à un débit de 0,8 mL/min. Les éluats récoltés (Vfraction = 0,5 mL) sont analysés par SDS-PAGE 14 %. 101 Matériels et méthodes E . Test d'alkylation des protéines avec le MalP16 E . 1 . Cinétique de formation des persulfures Le complexe NFS1-ISD11 (25 μM) est incubé à 25°C dans le tampon C (50 mM Na2HPO4, 150 mM NaCl, pH 8) en présence d'un équivalent d'ISCU (WT et mutants) et/ou de FXN (WT et mutants). La réaction commence lors de l'ajout de L-cystéine (20 équivalents). La cinétique est réalisée par prélèvement de 10 μL du mélange réactionnel et la réaction est stoppée par 1,5 équivalents de MalP16 par rapport à la quantité totale de thiols (comprenant les cystéines des protéines et la L-cystéine ajoutée). Afin de rendre accessibles au MalP16 toutes les cystéines des protéines, après 3 minutes à 30°C, 2 % de SDS sont ajoutés et le mélange est incubé pendant 20 minutes à 30°C et sous agitation (550 rpm). La moitié du volume réactionnel est ensuite incubée avec 1 μL de DTT à 100 mM pendant 20 minutes à 25°C. Ce traitement DTT sur les protéines alkylées va permettre de réduire les ponts disulfures des espèces « protéine-S-S-MalP16 » formées lors l'alkylation d'une cystéine persulfurée par le MalP16. L'autre moitié du volume réactionnel reste dans des conditions non réductrices. Chaque aliquot de réaction est déposé sur SDS-PAGE 8 % (analyse de NFS1) et 14 % (analyse d'ISCU). Lors de l'étude comparative avec les résultats de Dancis et ses collaborateurs (Cf. Chapitre V), nous avons suivi le protocole suivant. L'expérience est réalisée dans un volume final de 200 μL contenant 50 nM du complexe NFS1-ISD11, en présence ou non d'un équivalent de FXN, incubé dans le tampon C. La réaction est initiée avec l'ajout de 2 équivalents de L-cystéine et le mélange est incubé 15 minutes à 30°C. La réaction est stoppée par 50 équivalents de MalP16 par rapport à la quantité totale de thiols. Après 3 minutes à 30°C, le mélange est incubé avec 2 % de SDS pendant 20 minutes à 30°C. La moitié du volume réactionnel est incubée avec 1 μL de DTT à 100 mM, 20 minutes à 25°C. Tous les échantillons sont ensuite concentrés à l'aide d'un SpeedVac jusqu'à un volume compris entre 20 μL et 25 μL, et sont analysés (~ 100 ng) sur un gel SDS-PAGE 8 % en conditions réductrices et non réductrices. 102 Matériels et méthodes E . 2 . Cinétique de réduction des persulfures Dans un premier temps les formes totalement persulfurées de NFS1 et ISCU sont préparées en incubant le complexe NFS1-ISD11 (25 μM) en présence d'un équivalent d'ISCU (WT et mutants) et/ou de FXN avec de la L-cystéine (20 équivalents) à 25°C dans du tampon C (50 mM Na2HPO4, 150 mM NaCl, pH 8). Après 3 minutes de réaction en présence de FXN et 25 minutes en absence de FXN la L-cystéine en excès est enlevée par un échange de tampon sur une colonne MicroBio-spin6 (Biorad). La réaction de réduction est initiée par ajout de 50 équivalents de DTT. La cinétique est réalisée par prélèvement de 8μL du mélange réactionnel et la réaction est stoppée par 1,5 équivalents de MalP16 par rapport à la quantité totale de thiols. Le protocole est ensuite en tout point identique à celui décrit ci-dessus : avec l'ajout du SDS et l'obtention des échantillons dans des conditions réductrices et nonréductrices. Chaque aliquot de réaction est déposé sur SDS-PAGE 8% (analyse de NFS1) et 14% (analyse d'ISCU). F . Test d'activité cystéine désulfurase F . 1 . Qu'est-ce qu'une cystéine désulfurase ? La cystéine désulfurase NFS1 est une enzyme qui réalise la désulfurisation de la Lcystéine en L-alanine et mobilise le soufre sous la forme d'un intermédiaire persulfure sur sa cystéine catalytique (Figure II. 1). NH3+ NH3+ - OOC - H SH OOC Nfs1-cys383-SH H Nfs1-cys383-SSH H2S Réducteur oxydé Réducteur réduit Figure II. 1. Principe de fonctionnement des cystéines désulfurases. Exemple avec la protéine NFS1, qui réalise la désulfurisation de la L-cystéine pour donner la L-alanine, formant un persulfure sur la cystéine catalytique de NFS1. Ce persulfure peut être ensuite réduit libérant du soufre sous forme de H2S et permet ainsi de revenir à la forme initiale de la protéine. 103 Matériels et méthodes F . 2 . Protocole du test d'activité cystéine désulfurase Le mélange réactionnel est composé de 20 μM du complexe NFS1-ISD11 en présence d'un équivalent d'ISCU (WT et mutants) et/ou de FXN, avec ou sans DTT, comme indiqué dans les légendes des figures, incubé dans le tampon C (50 mM Na2HPO4, 150 mM NaCl, pH 8) à 25°C. La réaction est initiée par ajout de 20 équivalents de L-cystéine par rapport à NFS1 et l'activité cystéine désulfurase est mesurée par dosage de la L-alanine ou des ions sulfures produits au cours la réaction. F . 2 . 1 . Dosage du soufre Le protocole que nous avons utilisé est inspiré de la méthode décrite par Siegel (Siegel 1965). Il est basé sur la réaction des ions sulfure (S2-) avec le DMPD (diméthyl phénylène diamine) en milieu oxydant (FeCl3) pour produire du bleu de méthylène et permettre un dosage colorimétrique (Figure II. 2). Fe3+, HCl (excès) H2S (à doser) DMPD (excès) Bleu de méthylène Figure II. 2. Principe du dosage des ions sulfures produit au cours du test d'activité cystéine désulfurase. Les ions sulfures (S2- ou H2S en milieu acide) réagissent avec le DMPD et le fer afin de former une molécule de bleu de méthylène, dosée par absorbance à 670 nm. La cinétique de la réaction est suivie par prélèvement de 25 μL et la réaction est stoppée avec 125 μL de DMPD à 1% dans 5 N HCl et 50 μL de FeCl3 à 115 mM dans 1,2 N HCl, qui sont ajoutés simultanément au mélange réactionnel. Le tube est refermé pour éviter le dégagement de H2S et la solution est mélangée vigoureusement puis laissée incuber 20 minutes à température ambiante. La présence de soufre est révélée par l'apparition d'une couleur bleu correspondant à la formation du bleu de méthylène. Chaque échantillon est centrifugé 5 minutes à 14 500 rpm et le bleu de méthylène est dosé sur un spectrophotomètre 104 Matériels et méthodes UV-visible à 670nm en utilisant un coefficient d'extinction molaire de 30 400 M-1.cm-1, déterminé expérimentalement à partir d'une solution de Na2S standard. F . 2 . 2 . Dosage de l'alanine Le protocole que nous avons utilisé est inspiré de la méthode utilisé par Colin et al. (Colin et al. 2013). Il utilise l'alanine dehydrogenase (ADH) pour doser la quantité d'alanine produite au cours de la réaction. L'alanine déshydrogénase est une enzyme qui réalise l'amination du pyruvate à partir de la L-alanine (Figure II. 3). Cette réaction est réversible et nécessite du NAD+ (nicotinamide adénine dinucléotide) comme oxydant qui produit du NADH. La réaction peut donc être suivie par UV-visible à 340 nm qui correspond au maximum d'absorption du NADH. Figure II. 3. Principe de fonctionnement de l'alanine déshydrogénase (ADH). La cinétique de la réaction est suivie par prélèvement de 10 μL à 40 μL du mélange réactionnel, de manière à pouvoir se situer au-delà de la limite de détection de notre test (~ 5 μM en L-alanine). Deux protocoles différents ont été utilisés pour stopper la réaction et déprotéiniser les échantillons (afin de limiter l'absorbance à 340 nm). Soit par dénaturation thermique, soit par précipitation en milieu acide avec l'acide trichloroacétique (TCA). Pour la dénaturation thermique, les échantillons sont placés dans un bain sec à 99°C pendant 10 minutes et le surnageant, qui contiennent la L-alanine produite au cours de la réaction, est récupéré par centrifugation 4 minutes à 14 500 rpm. Pour la précipitation au TCA, du TCA est ajouté de façon à obtenir un pH final de 2 (0,8 % de TCA final) et les protéines sont incubées pendant 5 minutes dans la glace. Les échantillons sont centrifugés 4 minutes à 14 500 rpm et le TCA présent dans le surnageant est neutralisé avec de la soude (70 mM final) afin d'obtenir un pH final de 10, correspondant au pH optimum de fonctionnement de l'alanine 105 Matériels et méthodes déshydrogénase (ADH). Pour finir, les échantillons sont une seconde fois centrifugés 4 minutes à 14 500 rpm. La quantité d'alanine présente dans les échantillons est mesurée dans un tampon à pH 10 contenant 50 mM NaHCO3, 6 mM de NAD+ et 0,5 unité/μL d'ADH. L'acquisition de la mesure à 340nm débute avec le tampon seul ; et après 30 secondes d'acquisition, l'échantillon est ajouté afin d'obtenir un volume final de 100 μL (tampon + échantillon). La production de NADH est suivie pendant 15 minutes (Figure II. 4). Afin de calculer la concentration de NADH produit, les courbes obtenues sont simulées grâce au logiciel Prism4 (GraphPad Software) selon l'équation suivante : Abs340nm = A 1 - e (-k 1-30 ) + B t-30 + C Où A est la valeur de l'absorbance à la fin de la réaction (l'alanine a été entièrement consommée), k, la constante de vitesse de la réaction et t, le temps en secondes. Le terme « B(t-30) » correspond à la valeur de l'absorbance au début de la réaction (t = 30s) et C, est une constante qui tient compte d'une dérive linéaire de l'absorbance à 340nm qui ne correspond pas à la formation de NADH par l'ADH. Figure II. 4. Courbe expérimentale de l'analyse d'un échantillon grâce à l'ADH. 106 Matériels et méthodes La différence « A – B(t-30) » correspond à l'absorbance de la quantité totale de NADH généré et permet de calculer la concentration d'alanine consommée grâce au coefficient d'extinction molaire du NADH de 4427 M-1.s-1, calculé à partir d'une solution de L-alanine standard. G . Expériences de reconstitution des centres Fe/S L'ensemble des protocoles présentés ci-dessous ont été réalisés dans une boîte à gants (BAG) sous atmosphère contrôlée (O2 < 8 ppm). Pour cela tous les tampons, les solutions ou les protéines ont été préalablement dégazés ; c'est-à-dire que l'oxygène a été remplacé par de l'azote par un système de bullage. Le complexe NFS1-ISD11 (50 μM) est incubé en présence d'un équivalent d'ISCU (WT ou M106I), avec ou sans FXN, en présence ou non de 30 équivalents de DTT, dans le tampon C (50 mM Na2HPO4, 150 mM NaCl, pH 8) à 25°C. Dans un premier temps, une solution de sulfate d'ammonium ferreux (Fe (NH4)2 (SO4)2) est ajoutée au milieu réactionnel de manière à obtenir 4 équivalents de fer par rapport à la concentration en complexe. Après 2 minutes d'incubation à 25°C, la réaction de reconstitution de centres Fe/S est initiée par ajout de 30 équivalents de L-cystéine. Le volume réactionnel est alors divisé en deux parties : l'une va permettre de suivre la reconstitution de centres Fe/S par UV-visible, la seconde va permettre de suivre le comportement des persulfures lors de cette reconstitution par alkylation avec le MalP16. G . 1 . Suivi par UV-visible Le mélange réactionnel (100 μL) est placé dans une cuve en quartz dont l'étanchéité, vis-à-vis de l'oxygène, est assurée par un septum. La première acquisition des spectres UV-visible se fait environ 2 minutes et 30 secondes après le début de la réaction sur le spectromètre Cary 100 Scan (Varian). Des spectres sont enregistrés toutes les 1 ou 3 minutes entre 250 nm et 900 nm. 107 Matériels et méthodes G . 2 . Suivi par alkylation des protéines avec le MalP16 La cinétique est réalisée par prélèvement de 2 μL du mélange réactionnel et la réaction est stoppée par 2 équivalents de MalP16 par rapport à la quantité totale de thiols (comprenant les cystéines des protéines, la L-cystéine ajoutée et le DTT lorsqu'il est présent) en présence de 10 mM d'EDTA (ethylenediaminetetraacetic acid), permettant de complexer le fer présent dans le milieu. Après 3 minutes à 30°C, le mélange est incubé avec 2 % de SDS pendant 20 minutes à 30°C et sous agitation (550 rpm). La moitié du volume réactionnel est incubée avec 1 μL de DTT à 100 mM pendant 20 minutes à 25°C. L'autre moitié du volume réactionnel reste dans des conditions non réductrices. Chaque aliquot de réaction est déposé sur SDSPAGE 8 % (analyse de NFS1) et 14 % (analyse d'ISCU). H . Spectrométrie de masse H . 1 . Analyse des protéines entières par ESI-Q/TOF Pour l'analyse par spectrométrie de masse en protéine entière, le mélange réactionnel est composé de 40μM de complexe NFS1-ISD11 en présence d'un équivalent d'ISCU et/ou de FXN, incubé dans le tampon C (50 mM Na2HPO4, 150 mM NaCl, pH 8) à 25°C. La réaction commence lors de l'ajout de 10 équivalents de L-cystéine. Après 3 minutes à 25°C et 550 rpm, la réaction est stoppée par le passage du mélange réactionnel sur une colonne MicroBio-spin6 (Biorad) afin d'éliminer l'excès de L-cystéine. Après cet échange de tampon, les protéines sont dans un tampon dépourvu de sels : 50 mM d'acétate d'ammonium (NH4OAc). Les échantillons protéiques sont ensuite dénaturés pendant 5 minutes dans un mélange contenant 50 % d'acétonitrile et 1 % d'acide formique (expériences réalisées par David CORNU, de la plateforme IMAGIF). L'analyse des échantillons est réalisée avec un spectromètre de masse ESI-Q/TOF (Q/TOF Premier, Waters, Annexe 13) équipé d'un dispositif « Nanomate » (Advion). Les spectres obtenus sont enregistrés avec une précision de masse estimée à ± 2 Da. L'énergie de collision a été fixée à 6 eV. Le logiciel « Mass Lynx 4.1 » est utilisé pour l'acquisition et le traitement des données. La déconvolution des ions multi-chargés est effectuée avec le logarithme « MaxEnt1 ». Enfin, une calibration externe est 108 Matériels et méthodes réalisée avec des centres « NaI » (2 μg/μL, 50 % isopropanol, Waters) dans la gamme m/z utilisée lors de l'acquisition. H . 2 . Analyse des peptides par LTQ-Orbitrap XL Pour l'analyse des peptides par le LTQ-Ortitrap XL, les échantillons sont préparés dans le tampon C avec 20 μM de complexe NFS1-ISD11-ISCU avec ou sans FXN. La réaction est initiée avec 20 équivalents de L-cystéine. Le complexe NIU est incubé 1 heure à 37°C et sous agitation à 550 rpm et le complexe NIUF est incubé 1 minute à 25°C et 550 rpm, afin de permettre la formation de persulfures sur ces deux complexes. La réaction est stoppée avec 4 mM d'iodoacétamide (IAA). Après 15 minutes d'incubation dans le noir, 130μL de tampon C contenant 8 M d'urée et 50 mM IAA sont ajoutés au mélange, qui incube à nouveau 1 heure à 30°C dans le noir. L'excès d'iodoacétamide est éliminé par précipitation au TCA ; où une concentration finale de 10 % de TCA est ajoutée au mélange, entrainant la précipitation des protéines ; suivi d'une centrifugation de 15 000 rpm à 4°C. Le culot protéique est lavé trois fois avec 500 μL d'acétone par des cycles lavage/centrifugation à 15 000 rpm et 4°C. Le culot est remis en solution dans du tampon C avec 8 M d'urée. Les échantillons sont ensuite dilués d'un facteur 6 à 8 avant d'ajouter la trypsine au mélange (2 % de trypsine par mg de protéine à cliver). Le mélange incube 2 heures à 37°C. Les analyses sont réalisées par Jean-Pierre LE CAER (ICSN). Les peptides sont injectés sur une chaîne chromatographique constituée d'un injecteur automatique réfrigéré, d'une pompe conventionnelle permettant le chargement et d'une micro-colonne (5mm x 300μm) permettant le nettoyage de l'échantillon à un débit de 20 μL/min dans une solution de 0,1 % TFA. Les peptides sont ensuite injectés sur une nano-colonne C18 (75 μm x 50 cm, PepMap100 C18, 3 μm, 100 Å, Dionex), équilibrée avec une solution de 0,1 % d'acide formique, et élués en 1 heure, avec un gradient linéaire d'acétonitrile allant de 2 % à 60 %, avec un débit de 250 nL/min. La nano-chaine HPLC est couplée à un LTQ-Orbitrap XL (Thermo Fischer Scientific, Annexe 14). La masse et les spectres de fragmentation sont utilisés pour identifier les protéines dans les banques de séquences ainsi que leurs modifications éventuelles. La recherche dans les banques est effectuée à l'aide de Mascot, interfacé par le logiciel du constructeur Proteome Discoverer, PD1-3. A posteriori les 109 Matériels et méthodes intensités en fonction du temps des ions ayant permis une identification sont intégrées dans le chromatogramme. I . Chromatographie en phase liquide haute performance (HPLC) I . 1 . AccQ-Fluo Reagent Kit L'AccQ-Fluo reagent kit (Waters) a été utilisé afin de caractériser les acides aminés présents dans les mélanges réactionnels par HPLC. Généralement, les composés séparés par HPLC sont détectés avec un détecteur UV ; or, les acides aminés seuls en solution sont peu ou pas sensibles à l'ultra violet. C'est pourquoi ces acides aminés ont été dérivatisés avec un composé nommé AQC (6-aminoquinolyl-N-hydroxysuccinimidyl carbamate) (Figure II. 5). Figure II. 5. Principe de la dérivatisation des amines primaires et secondaires par l'AQC. La réaction (1) représente le mécanisme d'action des amines primaires et secondaires sur l'AQC. La réaction (2) correspond à la réaction parasite de l'AQC avec l'eau. L'AQC réagit très rapidement avec les amines primaires et les amines secondaires, pour former des composés stables et détectables par fluorescence (λexcitation : 250 nm et λémission : 395 nm). Il existe une réaction parasite, beaucoup plus lente, entre l'AQC et l'eau, qui ne gêne en rien la dérivatisation des acides aminés, car l'AQC est ajouté en très large excès. 110 Matériels et méthodes I . 2 . Protocole Le mélange réactionnel contient 2 μM de complexe NFS1-ISD11 dans du tampon C (50 mM Na2HPO4, 150 mM NaCl, pH 8) à 25°C, pour un volume final de 300 μL. La réaction est initiée avec 1,5 mM de L-cystéine. Après 1 heure d'incubation à 37°C, les petites molécules sont séparées des protéines en utilisant une colonne d'Amicon Ultra ayant un « cut off » de 10 kDa. Ensuite, 20 μL d'éluat sont incubés avec 20 μL d'une solution d'AQC à 10 mM dans l'acétonitrile et 60 μL de tampon borate fournis par le kit « AccQ-Fluo reagent ». Après quelques secondes de vortex, le mélange est incubé 10 minutes à 55°C. Les analyses d'échantillons ont été réalisées sur un appareil HPLC Alliance 2695 avec le détecteur de fluorescence W2475, sur une colonne AccQ-Tag (3,9 mm x 150 mm, taille des particules : 4 μm, C18, Waters), à un débit de 1 mL/min à 35 °C. Enfin, pour chaque analyse, les différents composants ont été séparés par un gradient effectué par le mélange entre 140 mM NH4OAc à pH 5 (acétate d'ammonium, tampon 1), de l'acétonitrile (tampon 2) et de l'eau ultra pure (tampon 3) comme décrit dans le Tableau II. 3 suivant : Temps (minutes) 0 0,5 18 19 29,5 33 36 % Tp 1 % Tp 2 % Tp 3 curve 100 99 95 91 83 0 100 0 1 5 9 17 60 0 0 0 0 0 0 40 0 1 11 6 6 6 11 11 Tableau II. 3. Récapitulatif du gradient suivi au cours des analyses d'échantillons par HPLC. Le gradient se compose d'un mélange entre 140 mM d'acétate d'ammonium (Tp 1), d'acétonitrile (Tp 2) et d'eau ultra pure (Tp 3). J . Dosage du soufre dans la protéine NSP5 Nous avons eu l'occasion de collaborer avec l'équipe de Didier Poncet, du laboratoire de virologie moléculaire et structurale, sur une protéine virale nommée NSP5 (nonstructural protein 5). L'équipe a démontré que la protéine NSP5 possède un centre [2Fe-2S] nécessaire à sa fonction (Martin et al. 2013) (Cf. Article 1). Nous avons réalisé le dosage du soufre 111 Matériels et méthodes contenu dans ce centre Fe/S selon le principe décrit dans la partie F. 2. 1. et selon le protocole suivant. La protéine NSP5 à 20 μM, 30 μM ou 50μM, est incubée dans un tampon MOPS (3(N-morpholino) propanesulfonic acid, 20 mM, pH 7,1) pour un volume final de 115 μL. La protéine est tout d'abord dénaturée en milieux basique, pour conserver les ions sulfures du centre Fe/S sous la forme S2-, avec 10 μL de NaOH à 30 % ajouté au mélange réactionnel. Après 15 minutes, 125 μL de DMPD à 0,1% dans 5 N HCl et 50 μL de FeCl3 à 11,5 mM dans 1,2 N HCl sont additionnés ; et une coloration bleue apparait. Après 2 heures d'incubation à 25°C, les échantillons sont centrifugés 10 minutes à 13 400 rpm. Enfin, 500 μL d'eau ultra pure sont ajoutés pour obtenir un volume final de 800 μL, permettant la mesure de l'absorbance à 670 nm, avec un coefficient d'extinction molaire de 34 500 mol-1.L.cm-1 (Tsai et al. 2010). 112 Chapitre III Purification des protéines et étude de la formation des complexes de la machinerie ISC Purification des protéines et étude de la formation des complexes de la machinerie ISC Chapitre III. Purification des protéines et étude de la formation des complexes de la machinerie ISC Afin d'étudier les étapes primaires de la biogenèse des centres Fe/S, nous avons produit et purifié les protéines recombinantes de souris NFS1, ISD11, ISCU et FXN qui composent la machinerie ISC. Nous verrons dans une première partie que la protéine NFS1 a été obtenue de manière soluble uniquement sous la forme d'un complexe avec la protéine ISD11 ; et que les deux autres protéines, ISCU et FXN, ont été obtenues individuellement sous une forme soluble. Dans une seconde partie, nous présenterons l'étude de la formation des complexes entre ces quatre protéines. A . Purification des protéines A . 1 . Obtention des plasmides et surexpression des protéines Les protéines NFS1, ISCU et FXN sont adressées à la mitochondrie grâce à une séquence d'adressage spécifique située en N-terminal. Une fois la protéine importée, cette séquence est clivée, conduisant à la forme dite « mature » de la protéine. La protéine ISD11 ne possède pas de séquence d'adressage clivable ; elle est potentiellement importée dans la mitochondrie via une séquence d'adressage interne. Il a été prédit par Nakai et al., que la séquence d'adressage à la mitochondrie de la protéine NFS1 de souris pourrait correspondre aux acides aminés 1 à 41 (Figure III. 1) (Nakai et al. 1998). Avant mon arrivée au laboratoire, Frédéric Canal a produit la protéine NFS1 de souris avec la séquence codante 42-459. Malheureusement, après l'extraction des protéines, la très grande majorité de la protéine NFS1 (42-459) formait des corps d'inclusion (Canal 2007), suggérant que la séquence d'adressage (1 – 41) n'était pas correcte. Cependant, l'équipe de D. Pain est parvenue à exprimer une forme soluble de la protéine Nfs1 de S. cerevisiae (Nfs1 ∆136), l'homologue de NFS1 (Naamati et al. 2009; Pandey et al. 2012) en s'inspirant des prédictions réalisées par Nakai et al., qui suggère que la séquence d'adressage pour Nfs1 levure correspond aux acides aminés 1 à 33 (Figure III. 1) (Nakai et al. 1998). 117 Purification des protéines et étude de la formation des complexes de la machinerie ISC Figure III. 1. Alignement des séquences en N-terminal des cystéines désulfurases procaryotes et eucaryotes. Alignement des extrémités N-terminale des protéines NFS1 humaine et de souris, Nfs1 de S. cerevisiae, IscS d'E. coli et NifS d'A. vinelandii. Les séquences d'adressage à la mitochondrie de NFS1 souris et Nfs1 S. cerevisiae prédites par (Nakai et al. 1998) sont soulignées et les extrémités N-terminale des protéines Nfs1 S. cerevisiae (Pandey et al. 2012), NFS1 humaine (Tsai et al. 2010) et NFS1 (59-459) de souris utilisées sont en bleu. La forme NFS1 (33-459) correspondant à la forme soluble de Nfs1 ∆1-36 est repérée grâce à la numérotation. Nous avons donc réalisé des alignements de séquences entre les extrémités Nterminale de NFS1 souris et Nfs1 levure (Figure III. 1). Bien qu'il existe très peu d'homologie de séquence, ces alignements suggèrent que la séquence d'adressage de NFS1 souris pourrait être plus courte et correspondre aux acides aminés 1 à 32 (Figure III. 1). Nous avons donc construit une forme ∆1-32 de NFS1 souris que nous avons clôné dans un vecteur pET-28, précédé d'une étiquette poly-histidine et d'un site de clivage de la thrombine (pET-28bNFS133-459). En 2006, il a été montré, par deux équipes différentes, que la protéine eucaryote de levure Isd11 permet une meilleure stabilité de la protéine Nfs1 (Adam et al. 2006; Wiedemann et al. 2006). Ainsi, la co-expression de la protéine NFS1 avec la protéine ISD11 permet d'obtenir une forme soluble de NFS1 en complexe avec ISD11 (Schmucker et al. 2011). Nous avons donc également construit un vecteur permettant la co-expression de ces deux protéines en utilisant les séquences codantes des formes matures des protéines de souris NFS1 (59-459) et ISD11, fournis par le Dr. H. Puccio (IGBMC, Strasbourg) ; qui ont été clonées et insérées dans un vecteur de co-expression pCDFDuet-1, avec une étiquette polyhistidine et un site clivage thrombine dans la partie N-terminale de NFS1. Les séquences codantes des protéines matures d'ISCU (36-168) et de FXN (79-207) murines ont été clonées et insérées, respectivement dans les vecteurs pETDuet-1 et pET-16b, avec chacune une étiquette poly-histidine et un site de clivage thrombine en N-terminal. A partir de ces plasmides, nous avons réalisés des mutants ponctuels des protéines ISCU (C35S, C61S, C104S, C104G et M107I) et FXN (R162A). 118 Purification des protéines et étude de la formation des complexes de la machinerie ISC Les plasmides ont été transformés dans des bactéries compétentes Rosetta 2 (DE3), qui expriment les ARN de transfert correspondant à des codons sous représentés dans le génome d'E. coli et permettant une expression optimale des protéines eucaryotes qui possèdent ces codons rares. Les cellules ont ensuite été lysées avec une presse de French, méthode douce pour limiter la dénaturation des protéines. A . 2 . Purification des protéines Les protéines ont été purifiées en quatre étapes. Elles ont tout d'abord été séparées par chromatographie d'affinité sur une colonne de nickel. Après un échange de tampon avec une colonne de désalage pour retirer l'imidazole, l'étiquette poly-histidine des protéines a été clivée par la thrombine. Un second passage sur la colonne de nickel est réalisée afin d'éliminer les étiquettes poly-histidine clivées et la thrombine, qui possède aussi une étiquette poly-histidine. Enfin, les protéines sont séparées des contaminants restant par chromatographie d'exclusion stérique sur une colonne Superdex 75 ou 200. A . 2 . 1 . Purification de NFS1 et du complexe NFS1-ISD11 A . 2 . 1 . 1 . Analyse des extraits bruts Figure III. 2. Extraction de la protéine NFS1 (33-459). SDS-PAGE 14 % des extraits solubles et insolubles correspondant au surnageant (S) et au culot (C) obtenus après l'extraction des protéines. Le marqueur de poids moléculaires est en kDa. 119 Purification des protéines et étude de la formation des complexes de la machinerie ISC Nous avons tenté d'exprimer la forme ∆1-32 de NFS1 construite par homologie avec la forme ∆1-36 de Nfs1 levure. Cependant, nous avons constaté que la quasi-totalité de la protéine est présente dans les corps d'inclusions (Figure III. 2). Figure III. 3. Surexpression et Extraction des protéines NFS1 et ISD11. A. Gel SDS-PAGE 14 % des extraits totaux avant (NI) et une nuit après l'induction à l'IPTG (I). B. SDS-PAGE 14 % des fractions solubles et insolubles correspondant au surnageant (S) et au culot (C) obtenus après l'extraction des protéines. Le marqueur de poids moléculaires est en kDa. Nous nous sommes donc orientés vers le système de co-expression des protéines NFS1 (59-459) et ISD11. L'analyse des extraits cellulaires, induits ou non par l'IPTG, montre la présence d'une protéine majoritaire, ayant un poids moléculaire situé entre 37 kDa et 50 kDa (Figure III. 3, A). Cette protéine est compatible avec la forme 6His-Thr-NFS159-459, d'une masse moléculaire d'environ 46 kDa. Il semble que l'expression d'une protéine d'environ 11 12 kDa soit également induite, pouvant correspondre à la protéine ISD11, de poids moléculaire d'environ 11 kDa (Figure III. 3, A). L'analyse des fractions solubles et insolubles montre que la majorité de NFS1 et de ce qui semble correspondre à ISD11 sont exprimées sous forme soluble. Environ 20 % de NFS1 est présent dans la fraction insoluble tandis que la protéine ISD11 est totalement absente de cette fraction. Ces résultats suggèrent que la coexpression d'ISD11 avec NFS1 permet d'obtenir une forme soluble de NFS1 (59-549). La solubilité de NFS1 (80%) est potentiellement limitée par la quantité d'ISD11 exprimée. Il faut noter qu'un niveau d'expression aussi faible est étonnant pour une protéine de la taille d'ISD11. 120 Purification des protéines et étude de la formation des complexes de la machinerie ISC A . 2 . 1 . 2 . Chromatographie d'affinité La chromatographie d'affinité a été réalisée sur une colonne de nickel. Les fractions solubles des extraits bruts ont été injectées en présence de 5 mM d'imidazole pour limiter la fixation des contaminants et les protéines retenues ont été éluées par un gradient linéaire d'imidazole (Figure III. 4, A). Figure III. 4. Purification du complexe NFS1-ISD11 par chromatographie d'affinité. A. Chromatogramme acquit pendant la phase d'élution. Le « % B » correspond au gradient d'imidazole linéaire obtenu par le mélange du tampon A (50 mM Na2HPO4, 150 mM NaCl, 5 mM Imidazole, pH 8) et du tampon B (50 mM Na2HPO4, 150 mM NaCl, 500 mM Imidazole, pH 8). L'arrière-plan rose représente les fractions récupérées contenant les protéines NFS1 et ISD11. B. SDSPAGE 14 % des différentes fractions récoltées. Les chromatogrammes montrent un pic très large pour 10 % de tampon B et plusieurs pics entre 20 et 30 % de tampon B. Le rapport entre les absorbances à 410 nm et à 280 nm est plus important dans le second pic et ses épaulements. De plus, les fractions du second pic sont jaunes, ce qui indique clairement la présence du PLP et suggère que la protéine NFS1 est 121 Purification des protéines et étude de la formation des complexes de la machinerie ISC éluée dans le second pic. La présence de la protéine NFS1 est confirmée par SDS-PAGE (Figure III. 4, B). L'analyse des gels montre que les protéines NFS1 et ISD11 co-éluent, ce qui confirme la formation d'un complexe entre NFS1 et ISD11, car seule NFS1 possède une étiquette poly-histidine. Plusieurs contaminants sont encore présents avec le complexe NFS1ISD11, nécessitant une seconde étape de purification. A . 2 . 1 . 3 . Test de clivage par la thrombine Nous avons ensuite réalisé des tests de clivage de l'étiquette poly-histidine de NFS1 en utilisant des concentrations croissantes en thrombine. Figure III. 5. Test de clivage de l'étiquette poly-histidine de NFS1. SDS-PAGE 8 % montrant les résultats du test de clivage de l'étiquette poly-histidine de NFS1 (10 μg) en absence (1) ou en présence de quantité croissante de thrombine : (2) 0,05 ; (3) 0,10 et (4) 0,20 unités NIH et après 18 heures d'incubation. Le symbole * indique le forme tronquée de la protéine NFS1. Le marqueur de poids moléculaire est en kDa. Les résultats montrent que NFS1 est complètement clivée avec 0,05 unités de thrombine ; cependant, une forme tronquée de la protéine d'un poids moléculaire d'environ 37 kDa est également générée (Figure III. 5). Cette forme tronquée de NFS1 correspond probablement à un clivage aspécifique de la protéine par la thrombine. Malheureusement, en essayant de faire varier à la fois la quantité de thrombine et le temps d'incubation, la protéine NFS1 se retrouve simultanément sous trois formes différentes, non-clivée, clivée et tronquée. La protéine NFS1 étant un dimère, ces trois formes de la protéine ne peuvent pas être séparées au cours de chromatographie d'exclusion de taille. Afin d'obtenir une forme homogène de NFS1, nous avons décidé de ne pas cliver l'étiquette poly-histidine de NFS1. 122 Purification des protéines et étude de la formation des complexes de la machinerie ISC A . 2 . 1 . 4 . Chromatographie d'exclusion stérique Le complexe NFS1-ISD11 a ensuite été purifié par chromatographie d'exclusion stérique sur une colonne Superdex 200 afin d'éliminer les protéines contaminantes. Figure III. 6. Purification du complexe NFS1-ISD11 par chromatographie d'exclusion de taille. A. Chromatogramme acquit pendant l'élution des protéines sur la colonne Superdex 200. L'arrière-plan rose représente les fractions récupérées contenant les protéines NFS1 et ISD11. B. SDS-PAGE 14 % des différentes fractions récoltées. Le marqueur de poids moléculaires est en kDa. Le chromatogramme montre quatre pics avec des volumes d'élution de 47 mL, 53 mL, 66 mL et 82 mL (Figure III. 6, A). Seul le troisième pic montre une absorbance significative à 410 nm. L'analyse par électrophorèse nous confirme la présence de la protéine NFS1 uniquement dans ce pic, qui co-élue de nouveau avec la protéine ISD11, ce qui confirme clairement que NFS1 et ISD11 forment un complexe (Figure III. 6, B). D'après la courbe d'étalonnage de la colonne Superdex 200, le volume d'élution du complexe NFS1-ISD11 123 Purification des protéines et étude de la formation des complexes de la machinerie ISC correspond à poids moléculaire d'environ 100 kDa, ce qui est compatible avec un dimère de NFS1 et une ou plusieurs protéines ISD11. L'assemblage sous forme dimère avait été caractérisé préalablement par d'autres équipes (Cupp-Vickery et al. 2003; Prischi et al. 2010; Shi et al. 2010; Marinoni et al. 2012; Colin et al. 2013). Figure III. 7. Etat de pureté du complexe NFS1-ISD11. A. Gel SDS-PAGE 14 % montrant le complexe NFS1-ISD11 purifié. Le symbole * indique une impureté toujours présente dans la solution finale du complexe. Le marqueur de poids moléculaire est en kDa. B. Spectre UV-visible du complexe NFS1-ISD11 purifié. Les rendements de protéines obtenus à l'issue de la purification sont de l'ordre de 3 mg de complexe par litre de culture, avec un complexe pure à 90 - 95 %, en raison d'un certain nombre de contaminants qui n'ont pas pu être supprimés (Figure III. 7, A). Nous avons également cherché à déterminer la stoechiométrie du complexe NFS1-ISD11 en mesurant les intensités des bandes sur les gels. Nos résultats suggèrent un rapport (NFS1:ISD11) de (1:3). Etonnamment, la détermination de la masse exacte du complexe NFS-ISD11-ISCU-FXN avait conduit à un rapport (1:2) (Colin et al. 2013). En utilisant cette stoechiométrie pour déterminer le coefficient d'extinction molaire du complexe NFS1-ISD11, nous avons trouvé un meilleur accord avec la détermination par la technique Bradford (Cf. Chapitre II), suggérant effectivement une stoechiométrie (1:3) pour le complexe NFS1-ISD11. A l'aide des coefficients d'extinction molaire de 10 900 M-1. cm-1 à 420 nm pour le PLP et de 61 200 M-1. cm-1 à 280 nm pour la chaîne polypeptidique du complexe NFS1-ISD11 et avec une stoechiométrie (1:3) ; nous avons estimé que plus de 95 % des complexes possèdent leur cofacteur PLP (Figure III. 7, B). 124 Purification des protéines et étude de la formation des complexes de la machinerie ISC Pour finir, nous avons caractérisé le complexe NFS1-ISD11 par spectrométrie de masse en protéine entière (Figure III. 8). Le spectre obtenu présente trois pics majoritaires avec des masses de 10 723,0 ± 2 uma (unité de masse atomique, 1 uma ≈ 1 Da), 46 322 ± 2 uma et de 46 500 ± 2 uma. Les deux premiers pics correspondent aux masses attendues pour les protéines ISD11 (10 723,3 Da) et 6His-Thr-NFS159-459 (46 322 Da), et le troisième pic possède un gain de masse de 178 Da par rapport à NFS1. Figure III. 8. Spectre de masse ESI-Q/TOF du complexe NI. Spectre de masse reconstitué du complexe NI (40 μM) en absence de L-cystéine. Le spectre présenté correspond à un zoom réalisé sur la zone 46 à 47 kDa. En recherchant sur le site « the Association of Biomolecular Resource Facilities » (ABRF) les modifications pouvant correspondre à cette différence de masse, nous avons trouvé la α-N-gluconoylation, qui est une modification que l'on peut retrouver dans les protéines ayant une étiquette poly-histidine (Geoghegan et al. 1999). Dans le but de vérifier cette hypothèse, nous avons analysé la carte peptidique de NFS1 après une digestion tryptique. A . 2 . 1 . 5 . Identification de la modification de NFS1 par LTQ-Orbitrap XL A . 2 . 1 . 5 . 1 . Principe du LTQ-Orbitrap XL Le mélange de peptides a été analysé à l'aide d'un spectromètre de masse LTQOrbitrap XL (Cf. Annexe 13). Le spectromètre de masse LTQ-Orbitrap est constitué d'une trappe linéaire et d'un analyseur à haute résolution, l'Orbitrap. L'appareil est également 125 Purification des protéines et étude de la formation des complexes de la machinerie ISC couplé à une nano chaîne HPLC qui permet la séparation des peptides en fonction de leurs caractères hydrophobes. Les deux analyseurs, la trappe linéaire et l'Orbitrap, fonctionnent simultanément. Les peptides élués sont analysés par l'Orbitrap, pour déterminer leurs masses avec une précision inférieure à 5 ppm. Pendant ce temps, les six peptides les plus intenses sont fragmentés (MS/MS) par la trappe linéaire, qui mesure également la masse des fragments des peptides. Lors de l'analyse, nous avons utilisé le mode « data dependant analysis » du LTQ-Orbitrap, qui permet de contrôler l'acquisition des MS/MS de manière à obtenir un inventaire complet des peptides présents. Ce mode d'acquisition dit « intelligent » autorise qu'un ion donné soit sélectionné et fragmenté deux fois. Si cet ion élue en une vingtaine de secondes, il est alors exclu de la liste des peptides à fragmenter pendant une minute, c'est-àdire le temps d'un pic chromatographique, afin d'éviter de fragmenter systématiquement les espèces les plus abondantes. Le spectromètre de masse LTQ-Orbitrap permet de collecter simultanément les masses précises des peptides, leurs fragments, leurs temps de rétention et leurs intensités. A . 2 . 1 . 5 . 2 . Exploitation des résultats L'analyse de la digestion tryptique du complexe NFS1-ISD11 sur le spectromètre de masse LTQ-Orbitrap XL a permis de localiser la modification de 178 Da sur le peptide correspondant à l'étiquette poly-histidine : GHHHHHHSQLVPR. 126 Purification des protéines et étude de la formation des complexes de la machinerie ISC Figure III. 9. Analyse ORBITRAP-MS/MS du peptide GHHHHHHSQLVPR. 127 Purification des protéines et étude de la formation des complexes de la machinerie ISC La Figure III. 9 présente les résultats obtenus pour la fragmentation du peptide « GHHHHHHSQLVPR », contenant l'étiquette poly-histidine de la protéine. Les fragments générés sont résumés dans le Tableau III. 1. Les colonnes « H non modifiée » et « H-α-Ngluco » représentent le peptide sans modification ou portant une α-N-gluconoylation. La fragmentation d'un peptide passe généralement par la rupture de la liaison peptidique entre deux acides aminés. Elle peut s'effectuée du N- vers le C-terminal (b+) et inversement (y+). Lorsque nous comparons les masses des fragments « b+ » et « b2+ » (N- vers-C-ter) entre « H non modifiée » et « H-α-N-gluco », nous constatons que dès la troisième histidine, les masses sont incrémentées de 178,05 Da, correspondant à une α-N-gluconoylation. Si nous comparons maintenant les masses des fragments « y+ » et « y2+ » (C- vers N-ter), nous remarquons que les masses sont identiques jusqu'à la seconde histidine du peptide. L'ensemble de ces résultats confirme que le peptide « GHHHHHHSQLVPR » possède une α-N-gluconoylation sur le premier résidu histidine ou alors sur l'extrémité N-terminale de la glycine. Tableau III. 1. Résumé des valeurs obtenues par l'analyse ORBITRAP-MS/MS pour le peptide GHHHHHHSQLVPR. Le tableau liste les masses attendues par l'analyse MS/MS des fragments du peptide GHHHHHHSQLVPR contenant ou non la modification α-N-gluconoylation "H non modifiée" et "H-α-N-gluco". Les annotations b+ (b2+) et y+ (y2+) représentes les masses mono-chargées (ou bi-chargées) obtenues pour la fragmentation successive de la liaison peptidique de N vers C-terminal et de C vers N-terminal, respectivement. Les nombres bleus et rouges correspondent aux masses des fragments peptidiques détectées par l'analyse MS/MS présentée dans la Figure III. 9. Les nombres soulignés sont spécifiques du peptide modifié. 128 Purification des protéines et étude de la formation des complexes de la machinerie ISC A . 2 . 2 . Purification de la protéine ISCU A . 2 . 2 . 1 . Analyse des extraits bruts Les extraits bruts des cellules dans lesquelles l'expression d'ISCU a été induite par l'IPTG, montrent la présence d'une protéine majoritaire vers 15 kDa (Figure III. 10, A). La taille de cette protéine concorde avec la forme 6His-Thr-ISCU36-168, d'une masse moléculaire d'environ 15 kDa. L'analyse des fractions solubles et insolubles montrent que la totalité de la protéine ISCU est présente dans la fraction soluble (Figure III. 10, B). Figure III. 10. Surexpression et extraction de la protéine ISCU. A. Gel SDS-PAGE 14 % des extraits totaux avant (NI) et une nuit après l'induction à l'IPTG (I). B. SDS-PAGE 14 % des fractions solubles et insolubles correspondant au surnageant (S) et au culot (C) obtenus après l'extraction des protéines. Le marqueur de poids moléculaires est en kDa. A . 2 . 2 . 2 . Chromatographie d'affinité Le chromatogramme d'élution nous présente deux pics majoritaires pour 10 % et 35 % de tampon B (Figure III. 11, A). Aucune absorbance significative à 410 nm n'est détectée et toutes les fractions récoltées sont incolores. L'analyse SDS-PAGE, révèle que la protéine ISCU est présente dans le second pic (Figure III. 11, B). 129 Purification des protéines et étude de la formation des complexes de la machinerie ISC Figure III. 11. Purification de la protéine ISCU par chromatographie d'affinité. A. Chromatogramme acquit pendant la phase d'élution. Le « % B » correspond au gradient d'imidazole linéaire obtenu par le mélange du tampon A (50 mM Na2HPO4, 150 mM NaCl, 5 mM Imidazole, pH 8) et du tampon B (50 mM Na2HPO4, 150 mM NaCl, 500 mM Imidazole, pH 8). L'arrière-plan rose représente les fractions récupérées contenant la protéine ISCU. B. SDS-PAGE 14 % des différentes fractions récoltées. Le symbole * marque la présence de deux bandes correspondant à la protéine ISCU. A . 2 . 2 . 3 . Clivage de l'étiquette poly-histidine d'ISCU par la thrombine Une analyse SDS-PAGE plus fine des fractions obtenues à l'issu de la première étape de purification, montre la présence d'une double bande vers 15 kDa dans laquelle la forme de plus faible poids moléculaire est majoritaire. (Figure III. 11, B*). 130 Purification des protéines et étude de la formation des complexes de la machinerie ISC Figure III. 12. Test de Clivage de l'étiquette poly-histidine d'ISCU. SDS-PAGE 14 % montrant les résultats du test de clivage de l'étiquette poly-histidine d'ISCU (153 μg) en présence de quantité croissante de thrombine : (1) 0,05 ; (2) 0,10 ; (3) 0,15 ; (4) 0,30 et (5) 0,75 unités NIH et après 18 heures d'incubation. Le marqueur de poids moléculaire est en kDa. L'analyse par western blot nous a permis de confirmer que ces deux espèces correspondent à deux formes différentes de la protéine ISCU (non montré). Ces deux espèces pourraient correspondre à une forme entière de la protéine ISCU et à une forme protéolysée majoritaire. Etant donné que les deux protéines se sont fixées à la colonne de nickel, via leurs étiquettes poly-histidine en N-terminal, la forme tronquée d'ISCU serait sûrement clivée par son extrémité C-terminale. Cependant, après l'étape de clivage par la thrombine, l'analyse SDS-PAGE révèle la présence d'une bande unique, indiquant que les deux formes d'ISCU ont été converties en une forme unique (Figure III. 12). Ces résultats indiquent clairement que la forme protéolysée de la protéine n'est pas tronquée en C-terminal ; car sinon, nous l'aurions de nouveau observée après le clivage de l'étiquette poly-histidine par la thrombine. L'hypothèse la plus probable est que la protéine ISCU était modifiée sur son extrémité Nterminale. Nous avons constaté par spectrométrie de masse que la protéine NFS1 était Ngluconoylée (+ 178 Da) (Cf. Partie A. 2. 1. 5.) et l'analyse d'autres protéines N-gluconoylées a montré que cette modification pouvait induire une différence de migration observable sur gel SDS-PAGE (Geoghegan et al. 1999). Nous avons donc formulé l'hypothèse que la protéine ISCU surexprimée dans la souche Rosetta 2 (DE3) d'E. coli est partiellement Ngluconoylée. Le clivage de l'étiquette poly-histidine par la thrombine permet de s'affranchir de cette modification. 131 Purification des protéines et étude de la formation des complexes de la machinerie ISC A . 2 . 2 . 4 . Chromatographie d'exclusion stérique Après l'élimination du fragment correspondant à l'étiquette poly-histidine et de la thrombine par chromatographie d'affinité, l'échantillon a été injecté sur une colonne Superdex 75. Figure III. 13. Purification de la protéine ISCU par chromatographie d'exclusion de taille. A. Chromatogramme acquit pendant l'élution des protéines sur la colonne Superdex 75. L'arrière-plan rose représente les fractions récupérées contenant la protéine ISCU. B. SDS-PAGE 14 % des différentes fractions récoltées. C. SDS-PAGE 14 % montrant la protéine ISCU purifiée. Le marqueur de poids moléculaire est en kDa. Le chromatogramme montre un pic majoritaire, avec un volume d'élution de 73 mL et deux pics minoritaires vers 44 mL et 62 mL (Figure III. 13, A). L'analyse SDS-PAGE montre qu'ISCU est présente dans les deux pics à 62 mL et à 73 mL correspondant respectivement à des formes dimère et monomère (Figure III. 13, B). Nous avons uniquement travaillé avec la forme monomère de la protéine. L'analyse SDS-PAGE montre que la protéine ISCU est pure 132 Purification des protéines et étude de la formation des complexes de la machinerie ISC à 99% avec un rendement de 9 mg de protéine pour un litre de culture (Figure III. 13, C). Enfin, une analyse par spectrométrie de masse montre un pic unique à 14 619 Da qui est cohérent avec la masse attendue de la protéine ISCU (36-168) à 14 617,8 Da (Cf. Chapitre IV). Nous avons obtenu des résultats similaires pour l'expression des mutants C35S, C104S, C104G et M106I d'ISCU ; à l'exception du mutant C61S d'ISCU, qui dès l'étape de surexpression de la protéine dans les bactéries compétentes Rosetta 2 (DE3) présente un poids moléculaire apparent proche de 10 kDa après une migration SDS-PAGE (Cf. Partie B. 6.). Une analyse par spectrométrie de masse du mutant C61S d'ISCU montre un recouvrement de 87 % de la carte peptidique d'ISCU, dans laquelle les peptides N-terminaux et C-terminaux ont été identifiés. Cette analyse indique que la protéine correspond bien au mutant C61S d'ISCU et que celle-ci n'est probablement pas tronquée. De manière étonnante, l'analyse en protéine entière montre que la protéine a un poids moléculaire de 16 739 kDa, soit environ 2,137 kDa supplémentaires par rapport à la masse attendue de la protéine. Ainsi, l'ensemble de ces données indique que le mutant C61S d'ISCU a été produit et purifié avec une modification (indéterminé à ce jour) entrainant d'importants changements de migration de la protéine sur gel d'électrophorèse. A . 2 . 3 . Purification de la protéine FXN A . 2 . 3 . 1 . Analyse des extraits bruts L'expression de la protéine FXN dans les cellules induites à l'IPTG montre une protéine majoritaire ayant un poids moléculaire proche de 15 kDa (Figure III. 14, A). Le poids moléculaire apparent de cette protéine est en accord avec la forme 6His-Thr-FXN79-207, d'une masse moléculaire d'environ 15 kDa. L'analyse des fractions solubles et insolubles indique que la très grande majorité de la protéine FXN est présente dans la partie soluble (Figure III. 14, B). 133 Purification des protéines et étude de la formation des complexes de la machinerie ISC Figure III. 14. Surexpression et extraction de la protéine FXN. A. SDS-PAGE 14 % des extraits totaux avant (NI) et une nuit après l'induction à l'IPTG (I). B. Gel SDS-PAGE 14 % des fractions soluble et insoluble correspondant au surnageant (S) et au culot (C) obtenus après l'extraction des protéines. Le marqueur de poids moléculaires est en kDa. A . 2 . 3 . 2 . Chromatographie d'affinité La fraction soluble a ensuite été purifiée par chromatographie d'affinité. Le chromatogramme d'élution montre un seul pic élué sur plusieurs dizaines de millilitre, avec une saturation de l'absorbance à 280 nm (Figure III. 15, A). L'analyse SDS-PAGE indique que ce pic correspond uniquement à la protéine FXN qui est quasiment pure après cette première étape de purification (Figure III. 15, B). 134 Purification des protéines et étude de la formation des complexes de la machinerie ISC Figure III. 15. Purification de la protéine FXN par chromatographie d'affinité. A. Chromatogramme acquit pendant la phase d'élution. Le « % B » correspond au gradient d'imidazole linéaire obtenu par le mélange du tampon A (50 mM Na2HPO4, 150 mM NaCl, 5 mM Imidazole, pH 8) et du tampon B (50 mM Na2HPO4, 150 mM NaCl, 500 mM Imidazole, pH 8). L'arrière-plan rose représente les fractions récupérées contenant la protéine FXN. B. SDS-PAGE 14 % des différentes fractions récoltées. Le symbole * marque la présence de deux bande correspondant à la protéine FXN. Le marqueur de poids moléculaires est en kDa. A . 2 . 3 . 3 . Clivage de l'étiquette poly-histidine de FXN par la thrombine L'étiquette poly-histidine a ensuite été clivée par la thrombine. Avant le clivage, le gel SDS-PAGE de la Figure III. 15 montre deux espèces correspondant à la protéine FXN dont la forme minoritaire est la forme de plus haut poids moléculaire qui pourrait correspondre à une N-gluconoylation (Figure III. 15, B*). De la même façon que pour la protéine ISCU, ces deux formes de la protéine FXN se combinent en une seule et unique forme après l'étape de clivage (Figure III. 16). 135 Purification des protéines et étude de la formation des complexes de la machinerie ISC Figure III. 16. Test de clivage de l'étiquette poly-histidine de la protéine FXN. SDS-PAGE 14 % montrant les résultats du test de clivage de l'étiquette poly-histidine de FXN (5 μg) en absence (1) ou en présence de quantité croissante de thrombine : (2) 0,05 ; (3) 0,10 ; (4) 0,20 et (5) 0,50 unités NIH et après 3 heures d'incubation. Le marqueur de poids moléculaire est en kDa. A . 2 . 3 . 4 . Chromatographie d'exclusion stérique Pour finir, la protéine est purifiée par chromatographie d'exclusion de taille sur une colonne Superdex 75. Le chromatogramme obtenu présente un seul pic correspondant à une forme monomère de FXN (Cf. Partie B. 4.) (Figure III. 17). Figure III. 17. Purification de la protéine FXN sur la colonne Superdex 75. A. Chromatogramme acquit pendant l'élution des protéines sur la colonne de Superdex 75. L'arrière-plan rose représente les fractions récupérées contenant la protéine FXN. B. SDS-PAGE 14 % montrant la protéine FXN purifiée. Le marqueur de poids moléculaire est en kDa. 136 Purification des protéines et étude de la formation des complexes de la machinerie ISC Le gel SDS-PAGE montre que la protéine FXN est pure à 99 %, avec un rendement moyen de 100 mg de protéine par litre de culture (Figure III. 17, B). L'analyse de la protéine FXN par spectrométrie de masse en protéine entière montre un pic unique à 14 411 Da qui est cohérent avec la masse attendue de FXN (79-207) à 14 410,8 Da (Cf. Chapitre V). Enfin, des résultats similaires ont été obtenus pour le mutant R162A de FXN. A . 2 . 4 . Purification des protéines FDX2 et GLRX5 Nous avons également étudié les propriétés de deux protéines impliquées dans la biogenèse des centres Fe/S comme réductases de persulfures (Cf. Chapitre V). La ferrédoxine, FDX2, qui contient un centre [2Fe-2S] capable de transférer des électrons à ses partenaires et la glutarédoxines 5, GLRX5, qui est impliquée dans le transfert de centres Fe/S et pourrait jouer un rôle de réductase dans sa forme apo-protéine. Les protéines FDX2 et GLRX5 ont également été surexprimées dans des bactéries compétentes Rosetta2 (DE3) ; et le protocole de purification de ces protéines est similaire à celui décrit pour ISCU et FXN. Figure III. 18. Purification de la protéine FDX2 par chromatographie d'exclusion de taille et caractérisation par UVvisible. A. Chromatogramme acquit pendant l'élution des protéines sur la colonne Superdex 75. B. Spectre UV-visible de la protéine FDX2 purifiée. Très brièvement, il faut noter que la protéine FDX2 est produite et purifiée avec un centre [2Fe-2S] (Figure III. 18), ce qui se caractérise par une absorbance à 410 nm qui concorde avec l'absorbance à 280 nm lors de l'élution de la protéine sur Superdex 75. 137 Purification des protéines et étude de la formation des complexes de la machinerie ISC Figure III. 19. Purification de la protéine GLRX5 par chromatographie d'exclusion de taille. Chromatogramme acquit pendant l'élution des protéines sur la colonne Superdex 75. La protéine GLRX5 est purifiée sous une forme « apo-GLRX5 » majoritaire, avec un volume de rétention vers 73 mL correspondant à un monomère ; et sous des formes minoritaires « holo-GLRX5 », dimérique et tétramérique (volume d'élution de 63 mL et 55 mL), qui contiennent probablement un centre [2Fe-2S] (Figure III. 19). Nous avons uniquement étudié l'activité réductase de la forme « apo-GLRX5 ». B . Etude de la formation des complexes entre les protéines NFS1, ISD11, ISCU et FXN Les équipes de David Barondeau, d'Hélène Puccio/Sandrine Ollagnier-de-Choudens et de John Markley ont démontré par différentes méthodes la formation de deux types de complexes homodimériques entre NFS1, ISD11, ISCU et FXN ; un complexe ternaire dans un rapport NI:U de 1:1 et de formule globale (NIU)2, que nous noterons NIU par la suite, et un complexe quaternaire dans un rapport NI:U:F de 1:1:1 et de formule globale (NIUF)2, que nous noterons ensuite NIUF (Tsai et al. 2010; Schmucker et al. 2011; Cai et al. 2013; Colin et al. 2013). Deux types de complexes quaternaires semblent avoir été détectés par ultracentrifugation analytique ; un complexe (NIUF)2, comme décrit plus haut, et un complexe NIUF asymétrique, dans lequel une seule protéine FXN est liée, noté (NIU)2F. Les constantes de dissociation de FXN pour ces complexes seraient de l'ordre de 2,6 μM pour le complexe (NIU)2F et de 10,3 μM pour le complexe (NIUF)2, suggérant un effet contreassociatif (Colin et al. 2013). Les complexes NIU et NIUF ont également été observés dans 138 Purification des protéines et étude de la formation des complexes de la machinerie ISC les cellules de levure par co-immunoprécipitation et GST pull-down sans que la stoechiométrie n'ait été déterminée (Gerber et al. 2003). Des complexes entre les protéines procaryotes homologues IscS, IscU et CyaY ont également été caractérisés in vivo et in vitro (Layer et al. 2007; Prischi et al. 2010). Des constantes de dissociation de 1,3 μM pour l'interaction IscS/IscU, 18,5 μM pour l'interaction IscS/CyaY et de 35 nM pour l'interaction de CyaY avec le complexe IscS/IscU, ont été déterminées (Prischi et al. 2010). Alors que l'interaction de FXN avec NFS1 semble dépendante de la présence d'ISCU chez les eucaryotes, l'interaction entre CyaY et IscS semble indépendante d'IscU chez les procaryotes (Layer et al. 2007; Prischi et al. 2010). Nous avons recherché une méthode pour caractériser la formation des complexes NIU et NIUF, afin de confirmer que nos protéines recombinantes étaient fonctionnelles et pour étudier l'impact des mutations ponctuelles C35S, C61S, C104S, C104G et M106I d'ISCU et R162A de FXN, sur la formation de ces complexes. Nous nous sommes également intéressés à la formation du complexe NIF, caractérisé chez les procaryotes (Layer et al. 2006; Prischi et al. 2010) ; mais qui n'a encore jamais été observé chez les eucaryotes. Nous avons tout d'abord utilisé l'électrophorèse sur gel en conditions natives (non dénaturantes), le couplage chimique ou crosslink et la chromatographie d'affinité ; mais ces méthodes n'ont pas permis de caractériser la formation des complexes NIU et NIUF sans ambiguïté et seront donc décrites brièvement. Nous avons finalement utilisé la chromatographie d'exclusion stérique afin de caractériser ces complexes, bien qu'en raison de la dilution des échantillons au cours de l'élution, cette méthode ne nous était pas apparue comme la plus adaptée pour étudier des complexes en équilibre association/dissociation dynamique. Et pour terminer, des études cinétiques nous ont permis de déterminer la stoechiométrie en NFS-ISD11, ISCU et FXN dans ces complexes. B . 1 . Etude de la formation des complexes par électrophorèse en conditions non dénaturantes L'électrophorèse sur gel en conditions non dénaturantes, ou gel natif, a été utilisée par l'équipe de D. Barondeau (Tsai et al. 2010). Par cette méthode, ils ont observé la formation d'un complexe quaternaire NIUF et déterminé que le DTT favorise la formation de ce 139 Purification des protéines et étude de la formation des complexes de la machinerie ISC complexe, contrairement au fer, et qu'un équivalent de la protéine FXN permet de former une quantité maximum de complexe. L'électrophorèse en conditions non dénaturantes permet de préserver les structures quaternaires des protéines et donc potentiellement les interactions entre protéines. Ainsi, on conserve la structure native des protéines et la migration se fait en fonction de la charge, de la masse moléculaire et de la structure tridimensionnelle des protéines et/ou des complexes. Il faut noter que l'analyse de certaines protéines par gel natif s'avère difficile, car malgré toutes les précautions prises pour conserver la structure native des protéines, certaines sont plus sensibles que d'autres, et se dénaturent lors de la migration, ce qui se caractérise par des bandes diffuses sur le gel. Figure III. 20. Analyse de la formation des complexes par gel natif. Gel 6,5% en conditions non-dénaturantes. Les protéines NFS1-ISD11 (NI, 20μg), ISCU (U, 5 μg et 3U, 15 μg) et FXN (F, 5 μg et 3F, 15 μg), ainsi que différents mélanges de ces protéines ont été incubés en présence de DTT, à l'exception du mélange NI + 3U + 3F (en noir). Le symbole * représente le complexe formé. Afin de reproduire au mieux les conditions physiologiques de biogenèse des centres Fe/S avec notre système reconstitué in vitro, nous avons choisi de réaliser nos études à un pH de 8,0, qui correspond à celui de la matrice mitochondriale, dans laquelle se produisent les étapes primaires de l'assemblage des centres Fe/S par le complexe NFS1-ISD11-ISCU-FXN. Ces conditions seront également utilisées pour les autres méthodes d'analyse. L'analyse du gel natif nous montre que le complexe NFS1-ISD11 est représenté par deux bandes nettes et une bande plus diffuse, et qu'une grande partie de la protéine ne pénètre pas dans le gel (Figure III. 20, puits NI). La protéine ISCU se distingue par une unique bande très diffuse dans le haut du gel (Figure III. 20, puits U et 3U) ; et la protéine FXN, avec un pH 140 Purification des protéines et étude de la formation des complexes de la machinerie ISC isoélectrique acide (pHi ~ 5), migre majoritairement sous la forme d'une bande nette en bas du gel (Figure III. 20, puits F et 3F). L'analyse du mélange entre le complexe NFS1-ISD11 (25 μM) et 1 à 3 équivalents d'ISCU et de FXN montre l'apparition d'une bande en haut du gel (désignée par un astérisque (*) sur la Figure III. 20). De plus, l'intensité de la bande correspondant à FXN dans les puits NI+U+F et NI+3U+F de la Figure III. 20 diminue d'environ 30 % par rapport au puits F, ce qui indique qu'une certaine proportion de FXN est engagée dans un complexe. La bande caractérisant ce complexe (*) est absente lorsque le mélange des protéines est réalisé sans DTT (Figure III. 20, puits NI + 3U + 3F), ce qui confirme les résultats obtenus par l'équipe de D. Barondeau et suggère que la structure du complexe est sensible à l'oxydation. Etonnamment, les mélanges réalisés avec NFS1-ISD11 et ISCU ne semblent pas indiquer la formation d'un complexe NIU (Figure III. 20, puits NI+U, NI+3U). De même, l'analyse des mélanges contenant NFS1-ISD11 et FXN et ISCU et FXN ne montre pas de formation des complexes NIF et UF (Figure III. 20, puits NI+F, NI+3F et 3U+3F). Ces résultats suggèrent donc que l'analyse en conditions natives permet de caractériser le complexe quaternaire NIUF, mais pas le complexe NIU décrit dans d'autres études. Cependant, ces expériences montrent qu'ISCU et FXN sont majoritairement sous une forme non complexée, ce qui indique que le complexe NIUF est formé en petite quantité à 25 μM. Mais cette interprétation n'est pas compatible avec la valeur de kD de 10 μM déterminée par Colin et al., pour laquelle plus de 50% de NFS1-ISD11, ISCU et FXN auraient dû être présent sous forme complexée à cette concentration (Colin et al. 2013). Il est donc probable que le complexe se dissocie au cours de l'électrophorèse. De plus, en augmentant les quantités d'ISCU et de FXN par rapport au complexe NFS-ISD11 jusqu'à trois équivalents, l'intensité de la bande correspondant au complexe (*) n'augmente pas ; ce qui remet en cause l'existence d'un équilibre d'association/dissociation entre l'espèce observée et les protéines ISCU et FXN. Au final, il est possible que l'espèce observée ne corresponde pas à un complexe NIUF. Nous nous sommes donc orientés vers une caractérisation par couplage chimique qui permet d'immobiliser les interactions protéine-protéine. 141 Purification des protéines et étude de la formation des complexes de la machinerie ISC B . 2 . Etude de la formation des complexes par réaction de crosslink L'utilisation d'un agent de couplage (ou crosslinker) permet de figer les interactions existantes entre deux ou plusieurs protéines. Le crosslinker réalise un lien covalent entre deux acides aminés, idéalement de deux protéines différentes, suffisamment proches. Il est composé à chaque extrémité, d'un groupement réactif, pouvant réagir avec les fonctions amines, thiols, carboxyles et alcools des acides aminés ; et d'un bras espaceur, placé entre ces deux groupements fonctionnels, d'une taille allant de 0 à ~ 100 Ǻ. La spécificité d'une réaction de crosslink va dépendre du temps de réaction et de la taille du bras espaceur. Plus le bras est long, plus on augmente les chances d'obtenir un lien entre deux protéines ; mais également les risques de former un lien non spécifique entre ces deux protéines. C'est pourquoi il est intéressant de tester plusieurs agents de couplage pour évaluer leurs spécificités. B . 2 . 1 . Le choix du crosslinker Nous avons choisi des crosslinkers dont la réaction de couplage est optimale à pH 8,0 afin de caractériser la formation des complexes dans les mêmes conditions que celles utilisées pour les réactions d'assemblage des centres Fe/S. Nous avons sélectionné deux familles d'agent de couplage qui remplissent cette condition ; les crosslinkers de type NHS ester (Nhydroxysuccinimide ester) qui réagissent avec les lysines et ceux de type maleimide qui réagissent avec les thiols. Parmi ceux-là nous avons testé des crosslinkers homo- et hétéro-bifonctionnels avec différentes tailles d'espaceur (entre 6 Å et 11 Å environ), solubles ou non dans l'eau. Figure III. 21. Structures des quatre crosslinkers utilisés pour l'étude de la formation des complexes. Les fonctions NHS ester du DSS et du DST sont colorées en orange, les fonctions maléimides et sulfo-NHS ester du sulfo-MBS et du sulfoMSCC sont respectivement en bleu et en vert. 142 Purification des protéines et étude de la formation des complexes de la machinerie ISC Nous avons testé deux crosslinkers homo-bi-fonctionnels de type NHS-ester ; le DSS (disuccinimidyl sulerate) et le DST (disuccinimidyl tartrate) qui possèdent des bras espaceurs de 11,4 Å et 6,4 Å respectivement (Figure III. 21). Cependant, ces agents de couplage ne sont pas solubles dans l'eau, mais uniquement dans le DMSO (diméthyl sulfoxyde) ou le DMF (diméthyl furane), qui pourraient interférer avec l'assemblage des complexes. Nous avons donc testé des crosslinkers rendus hydrosolubles grâce à un groupement « sulfo ». Nous avons sélectionné deux crosslinkers hétéro-bi-fonctionnels hydrosolubles ; le sulfo-MBS (mmaleimidobenzoyl-N-hydroxysulfosuccinimide ester) et le sulfo-MSCC (sulfosuccinimidyl-4[N-maléimidométhyl]cyclohexane-1-carboxylate) composés d'un groupement NHS ester à une extrémité et d'un groupement maléimide à l'autre extrémité (Figure III. 21). Le sulfo-MBS et le sulfo-MSCC possèdent des bras espaceurs respectivement de 7,3 Å et de 8,3 Å. Enfin, les protéines ISD11 et FXN étant dépourvues de résidus cystéines, l'utilisation de ces crosslinkers hétéro-bi-fonctionnels ne régissant avec les thiols que par une seule de leur extrémité devrait permettre de limiter les possibilités de couplage entre les quatre protéines et donc augmenter la spécificité. B . 2 . 2 . Réaction de couplage Ces quatre crosslinkers ont été testés sur des mélanges contenant le complexe NFS1ISD11 (20 μM) en présence d'un équivalent d'ISCU, avec ou sans un équivalent de la protéine FXN. Les gels SDS-PAGE, révélés au bleu de Coomassie, de la réaction de couplage par le DSS, le DST et le Sulfo-MBS dans un mélange contenant le complexe NFS1-ISD11 et la protéine ISCU en absence de FXN montrent chacun une disparition quasi-totale de la bande correspondant à la protéine ISCU et la présence de plusieurs bandes de hauts poids moléculaires (Figure III. 22, puits T, pour ternaire). En présence de FXN, les gels SDS-PAGE montrent une disparition importante mais partielle de la bande correspondant à la protéine FXN et/ou ISCU, plus marquée avec le DSS (Figure III. 22, puits Q, pour quaternaire). L'analyse par western blot montre qu'ISCU et FXN sont majoritairement présentes dans des espèces de poids moléculaires supérieurs à 70 kDa, compatible avec un complexe quaternaire (> 85 Da). Cependant, la présence de plusieurs bandes, et donc de plusieurs espèces, ne nous a pas permis de mettre en évidence la formation de complexes NIU et NIUF ; car un très grand 143 Purification des protéines et étude de la formation des complexes de la machinerie ISC nombre d'autres combinaisons sont possibles, comme par exemple, les interactions entre plusieurs protéines identiques, NFS1, ISCU ou FXN. Afin de caractériser ces différentes espèces complexes, nous aurions dû les séparer et les analyser séparément par spectrométrie de masse, par exemple, et réaliser un grand nombre de contrôles avec les protéines seules. Face à la complexité de cette méthode, nous avons préféré renoncer au couplage chimique et nous nous sommes orientés vers l'analyse par chromatographie d'affinité. Figure III. 22. Etude de la formation des complexes avec différents crosslinkers. Gels SDS-PAGE 14 % et analyses western blot de l'étude de la formation des complexes ternaires (T) et quaternaires (Q) avec trois crosslinkers, le DSS, le DST et le Sulfo-MSB. Les protéines ISCU (U), FXN (F) ou un mélange des protéines NFS1-ISD11 et ISCU (NI/U) ont également été déposés sur le gel. Le symbole * correspond à deux impuretés présentes dans la solution protéique du complexe NFS1ISD11. Le marqueur de poids moléculaire est en kDa. 144 Purification des protéines et étude de la formation des complexes de la machinerie ISC B . 3 . Etude de la formation des complexes par chromatographie d'affinité Nous avons choisi la chromatographie d'affinité en utilisant NFS1 comme cible pour capturer les complexes, car cette protéine possède toujours son étiquette poly-histidine. Si une interaction existe entre le complexe NFS1-ISD11 et les protéines ISCU et FXN, elles seront co-éluées avec NFS1-ISD11 lors de la phase d'élution avec l'imidazole ; sinon, elles sortiront directement de la colonne pendant de la phase de lavage. Figure III. 23. Etude de la formation des complexes par chromatographie d'affinité. SDS-PAGE 14 % correspondant aux fractions récoltées (0,5 mL) lors des phases de lavage et d'élution. Les symboles * correspondent aux impuretés du complexe NFS1-ISD11 purifié. Le marqueur de poids moléculaire est en kDa. Le complexe NFS1-ISD11 (45μM), est incubé une heure à température ambiante en présence de 2,5 équivalents d'ISCU et 5 équivalents de FXN avant d'être injecté sur la colonne de nickel. Le tampon de charge (tampon A) contient 5 mM d'imidazole, pour éviter les interactions non-spécifiques entre les protéines et la colonne. Après l'injection, la colonne est lavée avec 10 mL de tampon de charge (tampon A) puis les protéines retenues sur la colonne sont éluées avec 10 mL de tampon d'élution (tampon D), contenant 100 mM d'imidazole. L'analyse SDS-PAGE des fractions récoltées montre qu'une certaine quantité de protéines, correspondant à ISCU et/ou FXN, n'est pas retenue sur la colonne lors du lavage ; tandis que le complexe NFS1-ISD11 reste entièrement fixé (Figure III. 23, Lavage). A noté que les impuretés, initialement présentes dans les préparations du complexe NFS1-ISD11 (repérées par *) ne sont plus retenues sur la colonne, alors que celles-ci étaient co-éluées au cours de la purification du complexe NFS1-ISD11 sur colonne de nickel. Cette observation 145 Purification des protéines et étude de la formation des complexes de la machinerie ISC suggère que ces impuretés étaient associées à NFS1-ISD11 et qu'elles s'en dissocient en présence de FXN et/ou ISCU, potentiellement en raison de la formation de complexes. L'élution des protéines FXN et/ou ISCU lors de la phase de lavage était attendue car elles ont été ajoutées en excès par rapport à NFS1. L'analyse des fractions récoltées lors de l'élution par l'imidazole montre la présence à la fois du complexe NFS1-ISD11 et d'ISCU et/ou de FXN, ce qui suggère qu'un ou plusieurs complexes se sont formés (Figure III. 23, Elution). Figure III. 24. Identification des protéines ISCU et FXN par western blot après analyse sur la colonne de nickel. SDSPage 14 %, coloré au bleu de Coomassie après l'étape de transfert, et analyses western blot correspondant aux fractions récoltées au cours de la phase de lavage (L) et d'élution (E) de la Figure III. 23. Les protéines purifiées ISCU (U) et FXN (F) ont également été déposées sur le gel. Le marqueur de poids moléculaire est en kDa. Nous avons ensuite réuni les fractions correspondant aux phases de lavage et d'élution et nous les avons analysées par western blot. Les résultats indiquent que les fractions obtenues lors du lavage comportent exclusivement FXN (Figure III. 24, L, pour lavage) ; alors que les fractions correspondant aux protéines éluées par l'imidazole contiennent très majoritairement ISCU et une très faible proportion de FXN (Figure III. 24, E, pour élution). Ces résultats semblent donc indiquer la formation d'un complexe NIU et, en très faible quantité, la formation d'un complexe NIUF. Cependant, l'absence d'ISCU dans les fractions de lavage, qui pourtant a été ajoutée en excès, et l'intensité de la bande d'ISCU dans les fractions d'élution qui est plus forte que celle de NFS1 indiquent que plus d'une protéine ISCU, par rapport au complexe NFS1- 146 Purification des protéines et étude de la formation des complexes de la machinerie ISC ISD11, est retenue sur la colonne. L'analyse des fractions d'élution indiquent que la proportion d'ISCU par rapport à NFS1 n'est pas la même dans les différentes fractions passant d'un rapport NFS1:ISCU de 1:10 pour le puits B3 ; 1:5 pour le B4 ; 1:2 pour le B5 à 1:1 pour le reste des fractions (Figure III. 23). Ces résultats suggèrent soit que plus d'une protéine ISCU est capable de se complexer à NFS1, soit que la protéine ISCU s'accroche directement à la colonne, même en présence de 5 mM d'imidazole. D'après les profils d'élution obtenus après le clivage de l'étiquette poly-histidine d'ISCU, nous avons constaté que l'élution de la protéine ISCU nécessitait le passage de cinq volumes de colonne (25 mL) de tampon contenant 5 mM d'imidazole (Tampon A), ce qui suggère qu'ISCU est capable de s'accrocher sur la colonne de nickel. Il semble donc que ces conditions ne permettent de caractériser ni le complexe NIU, ni le complexe NIUF sans ambigüité. Nous avons donc cherché à optimiser ces conditions. B . 3 . 1 . Influence de l'imidazole dans l'interaction entre FXN et NIU L'imidazole pourrait interférer dans l'interaction entre la protéine FXN et le complexe NIU. Malheureusement, en absence d'imidazole, nous avons remarqué que la protéine FXN est retenue sur la colonne (non montré). Nous avons donc cherché la concentration minimale d'imidazole requise pour éviter la fixation aspécifique de la protéine FXN sur la colonne de nickel et nous avons déterminé qu'une concentration de 800 μM d'imidazole était suffisante. Cependant à cette concentration en imidazole, nos expériences montrent que la protéine FXN est toujours majoritairement éluée lors de la phase de lavage (non montré). B . 3 . 2 . Influence du fer et de la L-cystéine dans la formation du complexe NIUF Nous avons également étudié la formation du complexe quaternaire en présence de Lcystéine, car il été proposé que Yfh1 stimule la fixation de L-cystéine à Nfs1 (Pandey et al. 2013), et d'ions Fe2+ ; car il a été montré chez la levure, que la formation du complexe NIUF est favorisée en présence de fer (Gerber et al. 2003). Le complexe NFS1-ISD11 (10 μM) et 2 équivalents d'ISCU et de FXN a été incubé avec du fer ou de la L-cystéine. Nous avons 147 Purification des protéines et étude de la formation des complexes de la machinerie ISC constaté qu'en présence de fer et de L-cystéine, FXN est systématiquement retrouvée dans les fractions correspondant au lavage de la colonne de nickel, indiquant que ni le fer ni la Lcystéine n'ont d'effet sur l'interaction entre FXN et le complexe NIU à cette concentration. Ainsi, cette méthode semble indiquer qu'un complexe NIU se forme ; mais la fixation directe d'ISCU sur la colonne de nickel, même en présence de 5 mM d'imidazole, ne nous permet pas de conclure sans ambigüité sur la formation de ce complexe. Par cette méthode, nous ne sommes parvenus à détecter qu'une quantité infime de complexe NIUF. La première hypothèse serait que celui-ci est formé en quantité très faible à 45 μM, mais à nouveau ce résultat n'est pas compatible avec la constante de dissociation de 10 μM déterminée par Colin et al La seconde hypothèse est que l'imidazole interfère avec la formation du complexe NIUF. Il semble donc que la chromatographie d'affinité dans ces conditions ne soit pas adaptée pour la caractérisation des complexes NIU ou NIUF. Nous nous sommes alors tournés vers la chromatographie d'exclusion stérique pour nous affranchir de l'imidazole. B . 4 . Etude de la formation des complexes par chromatographie d'exclusion stérique Nous nous sommes intéressés à l'analyse par chromatographie d'exclusion stérique, qui permet de séparer les protéines en fonction de leur taille, car les complexes NIU, NIF et NIUF ont des poids moléculaires attendus différents des protéines isolées. De plus, cette technique a été précédemment utilisée par d'autres équipes pour caractériser ces complexes (Tsai et al. 2010; Colin et al. 2013). Pour cela, nous avons utilisé une colonne Superdex 200 10/300 dite analytique qui permet de diminuer la quantité d'échantillon à injecter et le temps d'élution par rapport à une colonne préparative (16/600), et donc de limiter aussi la dissociation des complexes. 148 Purification des protéines et étude de la formation des complexes de la machinerie ISC Figure III. 25. Profil d'élution des chromatogrammes obtenus lors de l'analyse sur Superdex 200 Analytique du complexe NFS1-ISD11 (20 μM) et des protéines ISCU et FXN (20 μM). L'analyse du complexe NFS1-ISD11 et des protéines ISCU et FXN montre que les volumes d'élution du complexe par rapport aux protéines ISCU et FXN isolées sont très différents, avec respectivement 13,3 mL et 17,0 mL (Figure III. 25). B . 4 . 1 . Analyse du complexe NIU Nous avons analysé un mélange du complexe NFS1-ISD11 (20 μM) avec un équivalent de la protéine ISCU. Le chromatogramme obtenu présente deux pics majoritaires avec des volumes de rétention de 12,8 mL et 16,9 mL (Figure III. 26 (A)). Figure III. 26. Caractérisation du complexe NIU. A. Profil d'élution du chromatogramme obtenu lors de l'analyse sur Superdex 200 Analytique d'un mélange contenant le complexe NFS1-ISD11 (20 μM) et ISCU (20 μM). B. SDS-PAGE, après coloration au bleu de Coomassie correspondant au profil d'élution en A. Le marqueur de poids moléculaire est en kDa. 149 Purification des protéines et étude de la formation des complexes de la machinerie ISC Le décalage du volume de rétention du premier pic vers de plus petits volumes, avec 12,8 mL, indique que des espèces de plus haut poids moléculaire que le complexe NFS1ISD11 (13,3 mL) sont éluées. L'analyse SDS-PAGE indique que la protéine ISCU co-élue avec le complexe NFS1-ISD11 dans le premier pic et que le second pic, à 16,9 mL, contient de la protéine ISCU non complexée (Figure III. 26 (B)). Ces résultats confirment l'existence d'une interaction entre le complexe NFS1-ISD11 et la protéine ISCU précédemment observée lors de l'analyse par chromatographie d'affinité. Cependant, la quantification des bandes correspondant à ISCU, NFS1 et ISD11, montre des proportions NFS1:ISCU d'environ (2:1), suggérant donc que le complexe NIU se dissocie partiellement au cours de l'élution, probablement à cause de la dilution de l'échantillon, passant de 300 μL à plus de 3 mL. De plus, la séparation des protéines complexées et non-complexées favorise probablement la dissociation du complexe. En sortie de colonne, les concentrations protéiques sont de l'ordre de 2 μM, ce qui est potentiellement proche de la valeur de KD pour l'interaction entre NFS1ISD11 et ISCU. B . 4 . 2 . Analyse du complexe NIUF Nous avons analysé la formation du complexe NIUF à partir d'un mélange contenant NFS1-ISD11 (20 μM) avec 2 équivalents d'ISCU et 5 équivalents de FXN. Cependant, nous n'avons pas observé de complexe dans ces conditions (non montré). Nous avons donc utilisé des concentrations plus importantes. Figure III. 27. Caractérisation du complexe NIUF. A. Profil d'élution du chromatogramme obtenu lors de l'analyse sur Superdex 200 Analytique d'un mélange contenant le complexe NFS1-ISD11 (100 μM) et les protéines ISCU (230 μM) et FXN (500 μM). B. SDS-PAGE, après coloration au bleu de Coomassie, correspondant au profil d'élution en A. Le marqueur de poids moléculaire est en kDa. 150 Purification des protéines et étude de la formation des complexes de la machinerie ISC Nous avons analysé un mélange contenant NFS1-ISD11 (100 μM) avec 2 équivalents d'ISCU et 5 équivalents de FXN. Le chromatogramme obtenu présente deux pics majoritaires avec des volumes de rétention de 12,7 mL et 16,9 mL (Figure III. 27 (A)). Le volume d'élution de 12,7 mL indique qu'une espèce de poids moléculaire supérieur à NFS1-ISD11 s'est formée. L'analyse SDS-PAGE montre que FXN co-élue avec NFS1-ISD11 et ISCU dans le premier pic à 12,7 mL (Figure III. 27 (B)). A noter, que nous avons utilisé la forme 6HisThr-FXN de FXN pour pouvoir la distinguer d'ISCU sur gel SDS-PAGE. Cette forme de FXN apparait comme une double bande probablement en raison d'une α-N-gluconoylation (Cf. Partie A. 2. 3.). Ces résultats montrent clairement une interaction entre les protéines FXN et ISCU et le complexe NFS1-ISD11. Cependant, la quantité de complexe NIUF reste extrêmement faible. B . 4 . 3 . Analyse du complexe NIF L'interaction entre le complexe NFS1-ISD11 et la protéine FXN n'a encore jamais été démontré dans la littérature. L'équipe de D. Barondeau n'ayant observé aucun complexe avec trois équivalents de FXN par rapport au complexe NFS1-ISD11 (Tsai et al. 2010) ; nous avons décidé d'analyser un mélange entre NFS1-ISD11 (20 μM) et 10 équivalents de FXN par Superdex 200 analytique ; mais aucun complexe NIF n'a pu être détecté dans ces conditions (non montré). Cependant, tout comme pour le complexe NIU, il est possible que le complexe NIF se dissocie au cours de l'analyse. Figure III. 28. Caractérisation du complexe NIF. A. Profil d'élution du chromatogramme obtenu lors de l'analyse sur Superdex 200 Analytique d'un mélange contenant le complexe NFS1-ISD11 (100 μM) et FXN (500 μM). B. SDS-PAGE, après coloration au bleu de Coomassie, correspondant au profil d'élution en A. Le marqueur de poids moléculaire est en kDa. 151 Purification des protéines et étude de la formation des complexes de la machinerie ISC Pour favoriser la formation d'un complexe NIF, nous avons augmenté la concentration de complexe NFS1-ISD11 à 100 μM, en présence de 5 équivalents de FXN. Le chromatogramme obtenu présente deux pics majoritaires avec des volumes de rétention de 13,3 mL et 16,85 mL (Figure III. 28 (A)). Le volume de rétention du pic de plus haut poids moléculaire n'est pas modifié par rapport au complexe NI seul indiquant qu'aucun complexe ne s'est formé. L'analyse SDS-PAGE confirme que FXN ne co-élue pas avec le complexe NFS1-ISD11, indiquant que ce complexe n'interagit pas avec FXN (Figure III. 28 (B)). B . 5 . Détermination de la stoechiométrie des complexes par mesure de l'activité cystéine désulfurase La chromatographie d'exclusion de taille nous a permis d'obtenir une caractérisation qualitative des complexes NIU et NIUF. Cependant, cette méthode ne nous a pas permis de déterminer les stoechiométries de ces complexes, en raison de la dissociation des complexes NIU et NIUF au cours de l'élution. Sachant qu'ISCU et FXN agissent sur l'activité cystéine désulfurase de NFS1, où ISCU induit une diminution et FXN une augmentation de cette activité (Tsai et al. 2010; Colin et al. 2013) ; nous avons utilisé la mesure d'activité cystéine désulfurase, qui est une méthode plus sensible que les autres méthodes que nous avons utilisé, pour déterminer la quantité minimale d'ISCU et FXN requise pour obtenir un effet maximal sur NFS1. Figure III. 29. Détermination de la stoechiométrie du complexe NIU. Courbe dose-réponse de l'activité cystéine désulfurase du complexe NFS1-ISD11 (20 μM) avec une quantité croissante d'ISCU. L'activité cystéine désulfurase a été réalisée en présence de 1 mM de L-cystéine et de 2mM de DTT. Tout d'abord, les activités cystéine désulfurase de NFS1 ont été mesurées avec des quantités croissantes d'ISCU (Figure III. 29). L'ajout de la protéine ISCU en quantité sous- 152 Purification des protéines et étude de la formation des complexes de la machinerie ISC stoechiométrique montre une diminution progressive de la vitesse initiale de l'activité cystéine désulfurase du complexe NFS1-ISD11. On constate qu'à partir d'un équivalent d'ISCU ajouté, l'influence de la protéine sur l'activité cystéine désulfurase est maximale. Ces résultats indiquent donc une stoechiométrie NI:U de 1:1 dans le complexe NIU. Figure III. 30. Détermination de la stoechiométrie du complexe NIUF. Courbe dose-réponse de l'activité cystéine désulfurase du complexe NFS1-ISD11-ISCU (20 μM) avec une quantité croissante en FXN. L'activité cystéine désulfurase a été réalisée en présence de 1 mM de L-cystéine et de 2mM de DTT. La stoechiométrie du complexe quaternaire a ensuite été déterminée en mesurant l'activité cystéine désulfurase du complexe NIU (préparé avec un équivalent de NFS1-ISD11 et un équivalent d'ISCU) en présence de quantité croissante de FXN (Figure III. 30). La Figure III. 30 montre que l'activité cystéine désulfurase du complexe NIU est maximale dès l'ajout d'un équivalent de la protéine FXN, ce qui indique que le complexe quaternaire a une stoechiométrie de 1:1:1 pour NI:U:F. Figure III. 31. Détermination de la stoechiométrie du mélange NI + F. Courbe dose-réponse de l'activité cystéine désulfurase du complexe NFS1-ISD11 (20 μM) avec une quantité croissante en FXN. L'activité cystéine désulfurase a été réalisée en présence de 1 mM de L-cystéine et de 2mM de DTT. Même s'il ne semble pas y avoir d'interaction entre le complexe NFS1-ISD11 et la protéine FXN, nous avons étudié l'influence de FXN sur l'activité cystéine désulfurase du 153 Purification des protéines et étude de la formation des complexes de la machinerie ISC complexe NFS1-ISD11 (20 μM). La Figure III. 31 montre que l'ajout de FXN jusqu'à 10 équivalents par rapport au complexe NFS1-ISD11 ne modifie pas l'activité cystéine désulfurase. Ces résultats suggèrent fortement que le complexe NIF ne se forme pas. B . 6 . Formation des complexes ternaires et quaternaires avec les mutants d'ISCU et de FXN La chromatographie d'exclusion de taille étant la meilleure méthode à notre disposition, nous avons utilisé cette technique pour étudier l'influence des mutations d'ISCU (C35S, C61S, C104S) sur la formation des complexes ternaires et quaternaires. Figure III. 32. Caractérisation du complexe NIUC35S. A. Profil d'élution du chromatogramme obtenu lors de l'analyse sur Superdex 200 Analytique d'un mélange contenant le complexe NFS1-ISD11 (20 μM) et le mutant C35S d'ISCU (20 μM). B. SDS-PAGE, après coloration au bleu de Coomassie, correspondant au profil d'élution en A. Le marqueur de poids moléculaire est en kDa. Figure III. 33. Caractérisation du complexe NIUC104S. A. Profil d'élution du chromatogramme obtenu lors de l'analyse sur Superdex 200 Analytique d'un mélange contenant le complexe NFS1-ISD11 (20 μM) et le mutant C104S d'ISCU (20 μM). B. SDS-PAGE, après coloration au bleu de Coomassie, correspondant au profil d'élution en A. Le marqueur de poids moléculaire est en kDa. 154 Purification des protéines et étude de la formation des complexes de la machinerie ISC Dans un premier temps, nous avons étudié la formation des complexes ternaires, en analysant différents mélanges entre le complexe NFS1-ISD11 et les mutants d'ISCU. Les chromatogrammes et les analyses SDS-PAGE obtenus montrent des résultats très similaires à ceux obtenus avec les protéines sauvages (Figure III. 32 et Figure III. 33) ; à l'exception du mutant C61S d'ISCU, qui ne montre aucune interaction avec le complexe NFS1-ISD11 (Figure III. 34). Figure III. 34. Caractérisation du complexe NIUC61S. A. Profil d'élution du chromatogramme obtenu lors de l'analyse sur Superdex 200 Analytique d'un mélange contenant le complexe NFS1-ISD11 (20 μM) et le mutant C61S d'ISCU (20 μM). B. SDS-PAGE, après coloration au bleu de Coomassie, correspondant au profil d'élution en A. Le marqueur de poids moléculaire est en kDa. Faute de temps, nous n'avons pas eu l'occasion d'étudier la formation des complexes ternaires avec les mutants C104G et M106I d'ISCU par chromatographie d'exclusion de taille. Cependant, en mesurant les activités cystéine désulfurase avec ces mutants, nous avons constaté que les mutants C104G et M106I d'ISCU induisent le même effet d'atténuation sur l'activité cystéine désulfurase de NFS1 que la protéine sauvage et le mutant C104S, indiquant que ces mutants interagissent avec le complexe NI (Figure III. 35). 155 Purification des protéines et étude de la formation des complexes de la machinerie ISC Figure III. 35. Vitesses initiales mesurées par les activités cystéine désulfurase des complexes NIU, NIUC104S, NIUC104G et NIUM106I. A. Le complexe NI (20 μM) est incubé avec ISCU WT ou les mutants C104S et C104G d'ISCU, en présence de 500 μM de L-cystéine et 1 mM de DTT. B. Le complexe NI (20 μM) est incubé avec ISCU WT ou le mutant M106I d'ISCU, en présence de 20 mM de L-cystéine. Ainsi, les mutations C35S et C104S d'ISCU n'altèrent pas la formation du complexe ternaire ; et il semble que ce soit également le cas pour les mutations C104G et M106I. L'absence d'interaction avec le mutant C61S est probablement due à la modification (de nature inconnue) de cette protéine. Dans un second temps, nous avons étudié la formation des complexes quaternaires, en analysant différents mélanges contenant le complexe NFS1-ISD11, les mutants C35S et C104S d'ISCU et FXN. Nous avons décidé de ne pas caractériser la formation du complexe quaternaire avec le mutant C61S d'ISCU, du fait qu'il n'interagit pas avec le complexe NI. Les chromatogrammes et les analyses SDS-PAGE obtenus avec les mutants C35S et C104S d'ISCU ne montrent aucune interaction du complexe ternaire (NIUC35S ou NIUC104S) avec FXN (Figure III. 36). 156 Purification des protéines et étude de la formation des complexes de la machinerie ISC Figure III. 36. Caractérisation du complexe NIUF avec les mutants C35S et C104S d'ISCU. Profil d'élution du chromatogramme obtenu lors de l'analyse sur Superdex 200 Analytique d'un mélange contenant le complexe NFS1-ISD11 (100 μM), le mutant C35S (A) ou C104S (C) d'ISCU (200 μM) et la protéine FXN (500 μM). SDS-PAGE, après coloration au bleu de Coomassie, correspondant au profil d'élution en A (B) et C (D). Le marqueur de poids moléculaire est en kDa. De nouveau, faute de temps, l'étude de la formation des complexes quaternaires, avec les mutants C104G, M106I d'ISCU et le mutant R162A de FXN, n'a pas été réalisée par chromatographie d'exclusion de taille. Cependant, en mesurant les activités cystéine désulfurase avec les mutants C104S et C104G nous avons constaté que l'effet de FXN était totalement aboli (Cf. Chapitre V) probablement en raison de l'absence d'interaction entre FXN et les complexes NIU formés avec ces deux mutants ; par contre, nous avons constaté par d'autres expériences que les mutations M106I d'ISCU et R612A de FXN n'altèrent pas la formation des complexes quaternaires NIUM106IF et NIUFR162A (Cf. Chapitre V). 157 Purification des protéines et étude de la formation des complexes de la machinerie ISC C . Discussion - Conclusion Dans la première partie de ce chapitre, nous avons exposé les résultats de purifications du complexe NFS1-ISD11 et des protéines seules ISCU, FXN, FDX2 et GLRX5. Nous avons exprimé la protéine NFS1 de souris 59-459 sous la forme d'un complexe avec la protéine ISD11, et nous avons cherché à exprimer une forme soluble de NFS1 en absence d'ISD11. Il a été montré que la forme (42-459) de NFS1 est retrouvée presque exclusivement dans les corps d'inclusion (Canal 2007). Nous avons tenté d'exprimer une forme mature plus longue de la protéine NFS1 (33-459), qui présente une homologie de séquence plus importante avec la forme mature de levure, Nfs1 (37-497), mais sans succès. Il semble donc que la protéine ISD11 soit essentielle pour éviter l'agrégation de la protéine NFS1 surexprimée. Les résultats de chromatographie d'exclusion de taille suggèrent que le complexe NFS1-ISD11 est un dimère. Une stoechiométrie de 2 ISD11 pour 1 NFS1 a été proposée sur la base d'analyses en spectrométrie de masse ESI-TOF des complexes NIU et NIUF (Colin et al. 2013). Cependant nos résultats de chromatographie d'exclusion de taille suggèrent une stoechiométrie de 3 ISD11 pour 1 NFS1. De plus, les dosages réalisés par deux méthodes différentes (Bradford et UV-visible, Cf. Chapitre II) sont en meilleur accord avec une stoechiométrie 3:1 que 2:1. Il est possible qu'ISD11 se dissocie du complexe dans les conditions d'analyse par spectrométrie de masses ou bien que nos mesures surestiment la quantité d'ISD11 par rapport à NFS1. En utilisant le coefficient d'extinction molaire correspondant à une stoechiométrie 1:3, nous avons déterminé que plus de 95 % de la protéine NFS1 possède son cofacteur PLP. En ce qui concerne la production et la purification des protéines ISCU et FXN et de leurs mutants, nous avons constaté que l'étiquette poly-histidine avait été probablement modifiée par une α-N-gluconoylation, également détecté sur la protéine NFS1, lors de l'expression de ces protéines dans les bactéries Rosetta 2 (DE3). Cette modification a entrainé l'apparition de deux bandes distinctes sur nos gels SDS-PAGE. Après le clivage de l'étiquette poly-histidine par la thrombine, ces protéines sont caractérisées par une unique bande sur gel, correspondant à une forme unique et homogène. Les analyses par chromatographie d'exclusion de taille montrent que les protéines ISCU (WT et mutants) et FXN (WT et mutant) sont obtenues sous forme de monomères. Le cas du mutant C61S d'ISCU est énigmatique, alors que la protéine migre avec un poids moléculaire apparent d'environ 10 158 Purification des protéines et étude de la formation des complexes de la machinerie ISC kDa, les analyses par spectrométrie de masse indiquent que la protéine est entière et comporte un adduit de masse supérieur à 2 kDa, qui de manière étonnante entraine une migration plus rapide de la protéine, potentiellement en raison d'un repliement plus compact, avec la formation de liaisons covalentes intramoléculaires. Dans la seconde partie, nous avons présenté différentes méthodes d'analyse des complexes NIU et NIUF. L'électrophorèse en conditions non dénaturantes indique la formation d'une espèce qui pourrait être un complexe quaternaire, NIUF. Cependant, ce complexe ne semble pas en équilibre avec les protéines ISCU et FXN libres, ce qui met en doute l'identité de cette espèce. Les réactions de couplage quant à elles, semblent montrer la formation des complexes NIU et NIUF. Cependant, un grand nombre d'espèces couplées se forment et il n'a pas été possible de démontrer la formation de ces complexes sans ambiguïté. Nous avons ensuite étudié la formation des complexes par chromatographie d'affinité où le complexe NFS1-ISD11 a été utilisé comme appât. Mais en raison d'une possible interférence de l'imidazole dans l'interaction entre FXN et NFS1 et des interactions directes entre la colonne de nickel et ISCU ou FXN, malgré la présence d'imidazole, il n'a pas été possible de conclure quant à la formation de ces complexes. Nous avons finalement analysé la formation des complexes par chromatographie d'exclusion stérique. Par cette méthode, nous avons mis en évidence un complexe ternaire entre NFS1-ISD11 et ISCU, et un complexe quaternaire, NIUF, mais en faible quantité, probablement en raison de la dissociation du complexe NIUF sur la colonne ; car la détection de celui-ci est sensible à la concentration initiale des protéines injectées sur la colonne. Enfin, nous avons constaté que FXN ne semble pas interagir avec le complexe NFS1-ISD11 en absence d'ISCU. Finalement, nous sommes parvenus à montrer la formation de ces complexes, à une concentration de 20 μM, en mesurant l'activité cystéine désulfurase des complexes NIU et NIUF. Par cette méthode, nous avons déterminés des stoechiométries NI:U et NI:U:F de 1:1 et 1:1:1 dans les complexes ternaires et quaternaires. Ces stoechiométries sont identiques à celles déterminées précédemment par spectrométrie de masse (Colin et al. 2013). L'ensemble de ces résultats nous permet d'estimer des valeurs de constante de dissociation (KD) d'ISCU pour le complexe NI et de FXN pour le complexe NIU. Nous avons considéré des valeurs de 99 % à 80 % de complexe NIU et NIUF formés à 20 μM, afin de 159 Purification des protéines et étude de la formation des complexes de la machinerie ISC tenir compte de l'incertitude potentielle de nos mesures. Avec ces valeurs, nous parvenons à des KD compris entre 2 nM et 1 μM, respectivement. Ces résultats suggèrent donc que les KD d'ISCU et de FXN, dans les complexes NIU et NIUF, sont inférieurs à 1 μM. Cette gamme de valeur est compatible avec les KD déterminés pour le système bactérien, pour lequel un KD de 35 nM a été mesuré pour l'interaction entre CyaY et le complexe IscS/IscU et de 1,3 μM pour l'interaction entre IscU et IscS, ce qui est cohérent avec une bonne conservation des rôles et des structures de ces deux protéines (Prischi et al. 2010). De plus, bien que la chromatographie d'exclusion de taille ne permette pas de mesurer des KD avec précision, les résultats de ces expériences semblent indiquer qu'ISCU a une affinité plus importante pour le complexe NI, que FXN pour le complexe NIU étant donné les quantités respectives de complexes NIU et NIUF détectés par cette technique. Ces résultats suggèrent donc des différences importantes entre les systèmes bactériens et eucaryotes, et donc des modes d'interaction différents. Par contre, la valeur maximale de 1 μM, que nous avons estimé pour l'interaction entre FXN et NIU grâce aux mesures d'activité cystéine désulfurase, est significativement inférieure à celle de 10,3 μM mesurée par ultracentrifugation analytique pour l'interaction de FXN murin dans le complexe symétrique (NIUF)2. Une telle valeur aurait conduit à la formation de seulement 50% du complexe NIUF à 20 μM. Une valeur de KD < 1 μM est cependant cohérente avec celle de 2,6 μM mesurée pour le complexe asymétrique (NIU)2F ; alors que les stoechiométries que nous avons déterminé sont compatibles avec la formation d'un complexe symétrique (NIUF)2. De plus, les effets atténuateur d'ISCU et stimulateur de FXN ont été observés à des concentrations de 1 μM avec des ampleurs comparables à celles que nous avons observées à 20 μM, par les groupes de D. Barondeau et H. Puccio (Tsai et al. 2010; Colin et al. 2013). Ces résultats indiquent clairement que les KD d'ISCU et FXN pour les complexes NI et NIU sont probablement inférieurs à 1 μM. Ces résultats soulèvent donc la question de l'identité des complexes caractérisés par ultracentrifugation analytique. Le principe de cette méthode est similaire à celui de la chromatographie d'exclusion stérique. Il est basé sur la séparation des protéines et des complexes en fonction de leurs tailles, ce qui pourrait également provoquer une dissociation des complexes NIUF et NIU au cours de l'analyse. Nos résultats montrent également que FXN n'interagit pas avec le complexe NFS1-IS11 en absence d'ISCU, ce qui constitue une autre différence majeure par rapport au système bactérien (Prischi et al. 2010). Au final grâce à ces résultats, nous avons déterminé qu'une concentration de 20 μM était suffisante pour observer des effets maximaux de FXN et d'ISCU. Nous avons donc travaillé, 160 Purification des protéines et étude de la formation des complexes de la machinerie ISC par la suite, à des concentrations protéiques égales ou supérieures à 20 μM dans toutes nos expériences. Enfin, nous avons étudié l'impact des mutations C35S, C61S, C104S, C104G et M106I d'ISCU et R162A de FXN sur la formation des complexes ternaires et quaternaires. Les résultats montrent que les mutations C35S, C104S, C104G et M106I dans ISCU ne modifient pas l'interaction entre ISCU et le complexe NFS1-ISD11. Seule la mutation C61S semble altérer l'interaction, mais probablement en raison de la modification de nature inconnue portée par ce mutant. Nous avons ensuite observé que l'interaction entre la protéine FXN et les complexes NIUC35S, NIUC104S et NIUC104G est abolit ; alors que le complexe NIUM106I interagit avec FXN et le complexe NIUWT avec le mutant R162A de FXN. 161 Chapitre IV Etude des effets de la protéine ISCU sur le complexe NFS1-ISD11 Etude des effets de la protéine ISCU sur le complexe NFS1-ISD11 Chapitre IV. Etude des effets de la protéine ISCU sur le complexe NFS1-ISD11 Avant de s'intéresser, dans le chapitre suivant, aux effets de la frataxine, nous avons analysé les effets de la protéine ISCU sur le complexe NFS1-ISD11 ; car il a été montré qu'ISCU induit une diminution de l'activité cystéine désulfurase du complexe NFS1ISD11 (Tsai et al. 2010; Bridwell-Rabb et al. 2011; Bridwell-Rabb et al. 2012; Colin et al. 2013). Nous avons cherché à déterminer le mécanisme par lequel ISCU agit sur le complexe NI. Pour cela, nous avons développé un test de détection des persulfures afin d'étudier indépendamment les réactions de formation et de réduction du persulfure de NFS1. Nous avons également cherché à caractériser un transfert de soufre entre NFS1 et ISCU ; car chez les procaryotes, un transfert de soufre entre IscS et IscU a été mis en évidence par des expériences de spectrométrie de masse et par l'utilisation de L-cystéine-[35S] (Smith et al. 2001; Urbina et al. 2001). A . Etude des effets de la protéine ISCU sur le complexe NFS1ISD11 par mesure de l'activité cystéine désulfurase Comme nous l'avons exposé dans le chapitre d'introduction, NFS1 est une cystéine désulfurase qui réalise la désulfurisation de la L-cystéine en L-alanine grâce à son cofacteur PLP (Figure IV. 1, réaction 1 et Cf. Figure I. 9 du chapitre « Introduction bibliographique »). 167 Etude des effets de la protéine ISCU sur le complexe NFS1-ISD11 Figure IV. 1. Schéma des réactions de formation et de réduction du persulfure de la protéine NFS1. A. 1. Réaction de formation du persulfure de NSF1 sur la cystéine catalytique C383 et 2. Réaction de réduction du persulfure de NFS1 par un réducteur qui génère du sulfure d'hydrogène. B. La réduction du persulfure de NFS1 se déroule en deux étapes : 2a. La réduction de NFS1-SSH entraine la formation d'un persulfure sur le réducteur ; qui est à son tour réduit (2b) par une seconde molécule de réducteur pour libérer H2S. A l'issue de la réaction de NFS1 avec son substrat, la L-cystéine, un persulfure est formé sur la cystéine catalytique de NFS1 (C383 pour NFS1 de souris), que l'on note NFS1SSH (Figure IV. 1, réaction 1). Ce persulfure est ensuite réduit afin de générer les ions sulfures (S2-), nécessaires à la constitution des centres Fe/S (Figure IV. 1, réaction 2). De retour à son état initial, l'enzyme est prête pour un nouveau cycle catalytique (Figure IV. 1). Expérimentalement, des réducteurs à thiols, tel que le DTT, sont utilisés pour réduire le persulfure de NFS1. Le mécanisme de cette réaction en deux étapes est présenté Figure IV. 1 (B). Le réducteur à thiol réagit avec le persulfure pour former un thiol persulfuré qui est ensuite réduit par une seconde molécule de réducteur (ou de manière intramoléculaire pour le DTT), conduisant à la formation de réducteur oxydé sous forme d'un pont disulfure et de H2S. L'activité cystéine désulfurase de NFS1 peut être mesurée en dosant soit le soufre généré lors de la réduction du persulfure de NFS1, soit la L-alanine, sous-produit de la réaction de formation de NFS1-SSH. Nous avons comparé ces deux méthodes ; en mesurant le soufre produit par un dosage colorimétrique, et l'alanine générée par réaction enzymatique. 168 Etude des effets de la protéine ISCU sur le complexe NFS1-ISD11 Pour le dosage du soufre, nous avons suivi le protocole décrit par l'équipe de D. Barondeau, où la présence de soufre est révélée par la formation du bleu de méthylène à partir de la réaction des ions sulfures avec le DMPD (diméthyl phénylène diamine) en milieu oxydant (FeCl3) (Tsai et al. 2010). Pour le dosage de la L-alanine, nous nous sommes inspirés du protocole décrit par Colin et al (Colin et al. 2013). Cependant, nous avons constaté que lorsque la réaction est arrêtée par dénaturation thermique des échantillons à 99°C, comme utilisée par Colin et al, les quantités de L-alanine dosées sont supérieures de 20% à celles mesurées lorsque la réaction est arrêtée par choc acide dans l'acide trichloroacétique (TCA). Les raisons de cette surestimation (d'après nos constatations) sont probablement liées à 1) la réaction qui n'est pas stoppée immédiatement lorsque les tubes sont placés dans le bain sec à 99°C, car la précipitation des protéines survient quelques dizaines de secondes après ; alors que par choc acide la précipitation est immédiate ; et 2) l'augmentation de la température qui stimule l'enzyme pendant encore plusieurs secondes avant que les protéines ne soient dénaturées. Nous avons donc utilisé la dénaturation par choc acide dans l'acide trichloroacétique (TCA). La L-alanine est ensuite dosée par réaction enzymatique avec la L-alanine déshydrogénase (Cf. Chapitre II « Matériels et méthodes »). Le complexe NFS1-ISD11 (20 μM), en présence ou en absence d'un équivalent d'ISCU, a été incubé avec de la L-cystéine et du DTT. Dans les deux cas, les résultats de dosage montrent qu'en présence d'ISCU la réaction est ralentie d'un facteur 2,5 environ. (Figure IV. 2). Figure IV. 2. Activité cystéine désulfurase des complexes NI et NIU. L'activité cystéine désulfurase de NFS1 dans les complexes NI et NIU (20 μM) , avec 500 μM de L-cystéine et 1 mM de DTT, a été mesurée en dosant le soufre (A) ou l'alanine (B) générés lors du test. 169 Etude des effets de la protéine ISCU sur le complexe NFS1-ISD11 Cependant, les quantités de soufre et d'alanine mesurées sont très différentes, avec environ neuf fois moins de soufre que d'alanine. D'après le mécanisme décrit dans la Figure IV. 1. B, le soufre pourrait être généré en quantité plus faible que la L-alanine, si la réduction intra-moléculaire du DTT persulfuré n'est pas efficace. Il est également possible que les solutions de sulfure d'hydrogène ne soient pas stables ; car H2S est un gaz. En milieux aqueux, le soufre existe sous trois espèces différentes, S2-, HS- et H2S, selon le pH de la solution. La constante d'acidité (pKa) du couple H2S/HS- est d'environ 7 et celle du couple HS-/S2- est de 10. Sachant que l'activité cystéine désulfurase de NFS1 est mesurée à un pH de 8, le soufre accumulé au cours du test est majoritairement sous une forme HS-, mais une certaine quantité du soufre est également sous la forme H2S, qui pourrait donc être perdue par échange avec la phase gaz. Il est également possible que des oxydes de soufre se forment de type sulfites (SO32-) et sulfates (SO42-). Nous avons analysé l'évolution de solution de sulfure de sodium (Na2S, 50μM) en mesurant la quantité de soufre, après 5 et 60 minutes d'incubation à 25°C d'une solution fraichement préparée à partir de Na2S solide. Nous avons dissous le Na2S dans un tampon à pH 8,0, qui est le pH de nos réactions, et également dans une solution de soude à pH 10,0, qui devrait stabiliser ces ions HS- et S2-. Dans la soude (pH 10,0), la totalité du soufre initialement présent est retrouvé après 5 minutes d'incubation, et environ 30 % de soufre est perdu après 1 heure (Figure IV. 3). A pH 8,0, 50 % du soufre est perdu après seulement 5 minutes d'incubation et la solution continue à évoluer, avec 70 % de perte du soufre après 60 minutes. Bien que nous retrouvions l'effet inhibiteur d'ISCU attendu, ces résultats indiquent que malgré les précautions prises pour limiter les pertes de soufre en fermant nos tubes (Cf. Chapitre II), le soufre accumulé en solution ne peut pas être mesuré de manière fiable par cette méthode. Nous avons donc utilisé la méthode de dosage de la L-alanine. Figure IV. 3. Evolution de la quantité de soufre d'une solution de Na2S à pH 10 et à pH 8. Le sulfure de sodium est dissous soit dans une solution de soude à 50 mM, soit dans le tampon C (50 mM Na2HPO4, 150 mM NaCl) à pH 8. Le soufre est dosé après 5 minutes et 1 heure d'incubation du Na2S dans la soude ou le tampon C et la valeur obtenue est comparée avec la concentration théorique de soufre (50 μM). 170 Etude des effets de la protéine ISCU sur le complexe NFS1-ISD11 Ces résultats confirment donc qu'en présence de la protéine ISCU l'activité cystéine désulfurase du complexe NI diminue. Pour savoir si lors de ces expériences en cycle multiple, ISCU agit sur la formation ou la réduction du persulfure de NFS1, ou bien sur les deux réactions simultanément, nous avons cherché un moyen d'étudier chaque réaction de manière indépendante. B . Etude de la formation du persulfure de NFS1 dans les complexes NI et NIU B . 1 . Etude de la formation du persulfure de NFS1 par alkylation des protéines avec le MalP16 B . 1 . 1 . Principe du test de détection des persulfures par l'alkylation des protéines avec le MalP16 Nous avons développé une nouvelle méthode de détection et de quantification des persulfures, permettant de réaliser des cinétiques, avec un nombre d'étape réduit. La principale difficulté pour la détection des cystéines persulfurées (cys-SSH) est de pouvoir discriminer les cystéines persulfurées des cystéines non modifiées, dites réduites (cys-SH) ; car les persulfures possèdent des propriétés très proches des cystéines réduites. Il est également nécessaire de distinguer les cystéines persulfurées des autres modifications des cystéines ; comme les cystéines oxydées sous la forme de ponts disulfures (-SS-), de sulfénamides (-SN-), d'acides sulféniques (-SOH), sulfiniques (-SO2H) ou sulfoniques (SO3H). Notre test repose donc sur les propriétés spécifiques des persulfures qui possèdent à la fois un soufre terminal nucléophile, pouvant être alkylé par des agents spécifiques des cystéines tels que les maléimides ; et une liaison « -SS- », pouvant être clivée par un agent réducteur. 171 Etude des effets de la protéine ISCU sur le complexe NFS1-ISD11 Figure IV. 4. Principe du test de détection des persulfures par alkylation des protéines avec le MalP. Schéma réactionnel du principe d'alkylation des cystéines par un Maléimide-Peptide (MalP), utilisé pour l'identification des persulfures. Les réactions de formation et de réduction des persulfures sont stoppées par l'ajout du MalP en conditions dénaturantes (SDS), pour permettre l'alkylation des groupements thiols dont les cystéines persulfurées et non persulfurées. La présence d'une cystéine persulfurée est révélée par la perte d'une unité Succinimide-Peptide, après la réduction du pont disulfure du persulfure par le DTT. Le test se déroule en deux étapes (Figure IV. 4). Au cours de la première étape, les cystéines réduites et les cystéines persulfurées sont alkylées, ce qui permet de distinguer les persulfures des autres modifications des cystéines qui sont non alkylables. Au cours de la deuxième étape, la liaison « -SS- » des persulfures est réduite par le DTT et leur présence est révélée par la perte d'une unité Succinimide (Suc, produit de la réaction entre un maléimide et un thiol), ce qui permet in fine de différencier les persulfures et les cystéines réduites. Nous avons utilisé des maléimides modifiés d'une taille suffisamment grande pour détecter la perte d'une unité succinimide sur un gel d'électrophorèse. Nous avons tout d'abord utilisé un produit commercial, le maléimide-polyéthylène-glycol (Mal-PEG), mais celui-ci n'est pas un produit pur, mais un mélange de polymères d'une taille proche d'une taille définie ; par conséquent les bandes détectées par SDS-PAGE sont très diffuses. Nous avons alors établi une collaboration avec l'équipe d'Anna GRANDAS de l'université de Barcelone qui synthétise des maléimides greffés à des peptides (MalP). Nous avons testé des maléimides de différentes tailles (Figure IV. 5). Les meilleurs résultats ont été obtenus avec un maléimide attaché à une chaîne peptidique contenant 16 acides aminés (MalP16), d'un poids moléculaire d'environ 2,0 kDa. (Figure IV. 5). 172 Etude des effets de la protéine ISCU sur le complexe NFS1-ISD11 MalP4 (~ 640 Da) MalP8 (~ 1,2 kDa) MalP16 (~ 2,0 kDa) Figure IV. 5. Structures des Maléimides-Peptides testés. La fonction maléimide (en rouge) est rattachée à un peptide contenant 4 (MalP4), 8 (MalP8) ou 16 (MalP16) acides aminés. Nous avons utilisé la protéine NFS1 pour valider le test d'alkylation par le MalP16. Nous avons tout d'abord contrôlé que les 7 cystéines de NFS1 sont alkylables, en arrêtant la réaction d'alkylation avant qu'elle ne soit terminée. Le gel SDS-PAGE montre 8 bandes correspondant à la forme non alkylée de la protéine et à l'alkylation progressive des différentes cystéines de NFS1 (Figure IV. 6, A). 173 Etude des effets de la protéine ISCU sur le complexe NFS1-ISD11 Figure IV. 6. Principe du test d'alkylation avec le MalP16. A. L'alkylation de NFS1, qui contient 7 cystéines, présente 8 bandes différentes correspondant aux formes non-alkylée (0), partiellement alkylées (1 à 6) et complètement alkylée (7) de NFS1, après 5 minutes d'incubation avec le MalP16 en conditions natives. B. Test d'alkylation sur le complexe NFS1-ISD11. En absence de son substrat (L-cystéine), NFS1 est complètement alkylée par le MalP16 et aucune perte de SucP16 n'est observée après réduction par le DTT. Après réaction avec la L-cystéine, la forme totalement alkylée de NFS1 (NFS1 +7) est convertit en une forme 6 fois alkylée de NFS1 (NFS1 +6) après réduction par le DTT. La perte de ce SucP16 indique la présence d'une cystéine persulfurée sur NFS1. En absence de son substrat (L-cystéine), les sept cystéines de la protéine NFS1 sont alkylées par le MalP16 (NFS1 +7) et aucune perte d'un SucP16 n'est observée lors de la réduction par le DTT, ce qui montre que les cystéines de NFS1 ne sont ni oxydées ni persulfurées dans la protéine purifiée (Figure IV. 6, B). Après avoir réagi avec la L-cystéine, les sept cystéines de NFS1 sont toujours alkylées par le MalP16 en conditions non réductrices, ce qui indique qu'aucune oxydation des cystéines ne s'est produite ; après la réduction par le DTT, une unité SucP16 est perdue dans l'espèce « NFS1 +7 », pour former une espèce « NFS1 +6 », indiquant la présence d'un persulfure sur une des cystéines de NFS1. Nous avons également constaté que la dénaturation des échantillons par un chauffage à 95°C, avant le dépôt sur un gel SDS-PAGE, provoque des sur-alkylations. Ces bandes correspondent probablement à la réaction entre la fonction maléimide du MalP16, présent en léger excès (1,5 équivalents), et une amine primaire (Mather et al. 2006), favorisée par le chauffage de l'échantillon. Nous avons donc contrôlé la température au cours des réactions d'alkylation, celle-ci a été fixée à 30°C, et par la suite les échantillons ne seront pas dénaturés par chauffage avant leur dépôt sur gel. 174 Etude des effets de la protéine ISCU sur le complexe NFS1-ISD11 B . 1 . 2 . Utilisation du test d'alkylation au MalP16 pour l'étude des cinétiques de formation du persulfure de NFS1 Nous avons utilisé le test d'alkylation par le MalP16 pour réaliser des cinétiques de formation de persulfures. La réaction est arrêtée par l'ajout de MalP16 (1,5 équivalents par rapport à la quantité totale de thiols), qui va réagir en moins d'une seconde avec la L-cystéine en excès (k ~ 107 M-1.min-1, (Bednar 1990)) ; suivi par l'ajout de SDS (~ 2%), pour dénaturer l'échantillon et bloquer toutes les cystéines des protéines en les rendant accessible au MalP16. Afin de valider cette méthode nous l'avons comparée avec la technique d'arrêt des réactions par choc acide avec le TCA (non montré). Les cinétiques obtenues dans les deux cas sont très similaires, ce qui confirme que le test d'alkylation des protéines par le MalP16 peut être utilisé pour le suivi de cinétiques. B . 1 . 3 . Effet de la protéine ISCU sur la cinétique de formation du persulfure de NFS1 Nous avons évalué l'effet d'ISCU sur la formation du persulfure de NFS1 en incubant le complexe NFS1-ISD11 (25 μM) avec un excès de L-cystéine, en présence ou non d'un équivalent de la protéine ISCU. La réaction a été stoppée après 10, 20, 30 et 60 secondes d'incubation (Figure IV. 7). Figure IV. 7. Formation du persulfure de NFS1 dans les complexes NI et NIU. La cinétique de formation du persulfure sur NFS1 pour les complexes NI et NIU (25 μM) a été réalisée avec 20 équivalents de L-cystéine. A. SDS-PAGE 8 % en conditions non réductrices. B. SDS-PAGE 8 % en condition réductrices. Le marqueur de poids moléculaire est en kDa. Les gels non réduits indiquent que la protéine NFS1 est entièrement alkylée et donc qu'aucune oxydation ne s'est produite au cours de la réaction (Figure IV. 7, A). L'analyse des gels obtenus en conditions réductrices montre qu'en absence de L-cystéine (t = 0 de la Figure 175 Etude des effets de la protéine ISCU sur le complexe NFS1-ISD11 IV. 7, B), la protéine NFS1 est entièrement alkylée (NFS1 +7), et qu'une petite quantité de NFS1 est alkylée sur seulement 6 cystéines (NFS1 +6), correspondant à une très faible quantité de forme persulfurée (< 2%). Cette forme persulfurée, présente initialement dans la solution purifiée du complexe NFS1-ISD11, est une quantité résiduelle de NFS1-SSH, non réduit lors du traitement DTT effectué pendant la purification du complexe (Cf. chapitre II). Cette étape a été nécessaire car la protéine NFS1 extraite des bactéries est retrouvée persulfurée à environ 40 %. En présence de L-cystéine, on remarque qu'après seulement 10 secondes de réaction, la protéine NFS1 est quasiment entièrement persulfurée. Les profils des gels SDS-PAGE obtenus en absence ou en présence de la protéine ISCU sont très similaires, avec une seule cystéine persulfurée et une réaction quasiment terminée après 10 secondes de réaction. Notre système expérimental, où l'arrêt des réactions est réalisé manuellement, ne nous permet pas de descendre en dessous de 10 secondes. Nous ne pouvons donc pas conclure sur l'effet de la protéine ISCU sur la cinétique de cette réaction. Cependant, ces résultats indiquent qu'ISCU n'est pas nécessaire pour la formation du persulfure de NFS1. Figure IV. 8. Quantification des gels SDS-PAGE de la Figure IV. 7, B. Les lignes noires représentent les courbes simulées avec l'équation (1). Les gels SDS-PAGE obtenus pour les complexes NI et NIU ont été quantifiés avec le scanner Odyssey (Li-cor). Le graphique de la Figure IV. 8 représente la variation de la quantité de NFS1-SSH en fonction du temps. Chaque point a été obtenu en calculant le 176 Etude des effets de la protéine ISCU sur le complexe NFS1-ISD11 rapport entre NFS1-SSH (NFS1 +6) et la quantité totale de protéines NFS1 (somme de NFS1 +6 et NFS1 +7). La protéine NFS1 étant une enzyme, nous avons utilisé le modèle développé par Michaelis-Menten pour analyser les cinétiques de nos réactions (Michaelis et al. 1913). Nous avons supposé que la formation du complexe « enzyme-substrat » (« NFS1-(L-Cys) ») est très rapide devant la réaction de conversion de ce complexe en produit, qui correspond à la forme persulfurée de NFS1. Ainsi, la formation du persulfure sur NFS1 peut être considérer comme une réaction intramoléculaire qui peut être décrite par l'équation (1) : NFS1-SSH = A . 1 - exp ( -kF . t ) Où A représente la quantité totale de NFS1-SSH formés au cours de la réaction, kF est la constante de formation du persulfure sur NFS1 et t, le temps. Etant donné que la cinétique ne peut pas être résolue en dessous de 10 secondes, nous avons déterminé les valeurs minimales des constantes de formation du persulfure de NFS1, kF. Nous avons obtenu des valeurs de l'ordre de 0,25 s-1 pour les complexes NI et NIU (Cf. Tableau IV. 3). Ainsi, nous avons démontré d'une part, qu'en présence de L-cystéine, NFS1 est majoritairement sous une forme persulfurée en quelques secondes ; et que la formation de ce persulfure ne semble pas dépendre de la présence de la protéine ISCU. D'autre part, le test d'alkylation par le MalP16 nous montre qu'une seule cystéine de la protéine NFS1 est persulfurée au cours du cycle catalytique, correspondant probablement à la cystéine catalytique de NSF1. Cependant, ce test ne nous permet pas de savoir si la cystéine persulfurée est mono-persulfurée (-SSH) ou poly-persulfurée (-S(S)nH). Pour répondre à cette question, nous avons analysé les protéines entières par spectrométrie de masse. B . 2 . Etude de la formation du persulfure de NFS1 par spectrométrie de masse en protéine entière Le complexe NFS1-ISD11 (40μM), en présence ou en absence d'un équivalent d'ISCU, a été incubé avec un excès de L-cystéine. Le mélange a ensuite été analysé par spectrométrie de masse ESI-Q/TOF (David Cornu, Plateforme IMAGIF). La Figure IV. 9 (A) présente le spectre correspondant au complexe NI en absence de L-cystéine. Nous constatons 177 Etude des effets de la protéine ISCU sur le complexe NFS1-ISD11 la présence de deux pics, avec des masses de 46 322 ± 2 uma et de 46 500 ± 2 uma, correspondant à NFS1 et à sa forme gluconoylée notée NFS1* (Cf. Chapitre III). Figure IV. 9. Spectres de masse ESI-Q/TOF des complexes NI et NIU. A. Spectre de masse reconstitué du complexe NI en absence de L-cystéine. B. Spectres de masse reconstitués du complexe NI (40 μM) et C. du complexe NIU (40 μM) après 3 minutes de réaction en présence de 10 équivalents de L-cystéine. Sans L-cystéine, aucune forme persulfurée de NFS1 n'est détectée par spectrométrie de masse en protéine entière. En présence de L-cystéine, nous remarquons que les spectres des complexes NI et NIU comportent quatre espèces (Figure IV. 9, B et C). Nous retrouvons les protéines NFS1 et NFS1*, à 46 323 ± 2 uma et 46 501 ± 2 uma, respectivement ; et deux autres espèces à 46 354 ± 2 uma et 46 532 ± 2 uma, correspondant à NFS1 et NFS1* avec un gain de masse de 32 Da. Cette masse est compatible avec un atome de soufre ou deux atomes d'oxygène supplémentaires, sous la forme d'un acide sulfinique (-SO2H) ou bien de deux acides sulféniques (-SOH). Pour distinguer ses deux possibilités, nous avons analysé, sur le spectromètre de masse LTQ-Orbitrap XL, une digestion tryptique de la protéine NFS1. Les résultats indiquent qu'un unique peptide « DVALSSGSACTSASLEPSYVLR », contenant la cystéine catalytique de NFS1, est modifié par un gain de masse de 32 Da par rapport à la masse attendue du peptide (Tableau IV. 1, Cam vs S-Cam, Cf. Annexe 15). La différence de masse entre les deux peptides détectés est de 31,971 Da. Cette masse est en accord avec la présence d'un soufre supplémentaire sur le peptide (31,97211 Da) ; et réfute donc la présence de deux oxygènes (31,9898 Da). L'ensemble de ces résultats confirme que le gain de masse de 32 Da observé correspond à la présence d'un persulfure sur NFS1 et NFS1*. 178 Etude des effets de la protéine ISCU sur le complexe NFS1-ISD11 Masses attendues NIUF avec L-cystéine Position Cystéine 74-95 C383 Cam S-Cam (O2)-Cam Cam S-Cam 2270,09686 2302,06897 2302,08666 2270,09917 2302,07012 Tableau IV. 1. Résumé des résultats obtenus après analyse de la digestion tryptique de NFS1 par le spectromètre de masse LTQ-Orbitrap XL. Le peptide « DVALSSGSACTSASLEPSYVLR », contenant la cystéine C383 catalytique de NFS1 (numérotation du précurseur de NFS1) est retrouvé persulfuré à près de 50 %. Ainsi, grâce à la spectrométrie de masse, nous avons déterminé que la cystéine persulfurée de NFS1, observée lors de l'alkylation au MalP16 (Figure IV. 7), est monopersulfurée. Cependant, cette analyse révèle également la présence d'une certaine quantité de forme non persulfurée de NFS1, contrairement à ce que nous avions observé avec le test d'alkylation au maléimide-peptide (quantité de persulfure > 99 %). Etant donné que la modification apportée par un persulfure n'induit pas d'important changement de masse (seulement 0,07 % de la masse de NFS1), il est généralement accepté que de telles modifications ne modifient pas les propriétés d'ionisation de la protéine. Dans ce cas, on peut réaliser une analyse quantitative, en comparant les intensités des pics. En faisant cette approximation, nous avons obtenu 20 % à 30 % de forme non persulfurée de NFS1. Ces différences suggèrent soit que le test d'alkylation surestime la quantité de protéine persulfurée, soit que le persulfure de NFS1 est perdu en raison des conditions d'analyse par spectrométrie de masse. Plusieurs raisons pourraient expliquer la perte du persulfure de NFS1 dans les échantillons analysés par spectrométrie de masse. Tout d'abord, il est possible que la Lcystéine ne soit pas totalement éliminée au cours du désalage. Hors, comme nous le verrons plus loin dans ce chapitre, la L-cystéine est capable de réduire le persulfure de NFS1. Cependant, en conditions non-dénaturantes et après désalage sur micro-Biospin, nous avons constaté avec le test d'alkylation des protéines avec le MalP16, que le persulfure de NFS1 est stable pendant près d'une heure à un de pH 8 (non montré). L'hypothèse la plus probable est que le persulfure de NFS1 est instable dans les conditions d'analyse de spectrométrie de masse. Cette hypothèse a également été mise en avant dans une étude sur de petites molécules persulfurées telles que le GSSH (glutathion persulfurée) (Pan et al. 2013). Etant donné que le persulfure de NFS1 est stable pendant près d'une heure à un de pH 8 (non montré), la perte du persulfure ne se produirait donc pas dans les conditions non-dénaturantes de préparation de l'échantillon (désalage et échange avec un tampon NH4OAc 50 mM, pH 7) ; mais au cours 179 Etude des effets de la protéine ISCU sur le complexe NFS1-ISD11 des étapes suivantes, où les échantillons sont dénaturés dans un mélange acétonitrile:eau 50:50, contenant 1% d'acide formique. Les fonctions thiols des cystéines et des persulfures n'étant pas protégées, contrairement au test d'alkylation ; des réactions intramoléculaires de réduction par l'un des thiols libres de la protéine NFS1 sont possibles, conduisant à la formation d'un pont disulfure intramoléculaire. Ce type de modification (- 2 uma) ne serait pas détectable dans nos spectres de masse en protéine entière étant donné la résolution de ± 2 uma. Cependant, les conditions acides ne favorisent pas les échanges thiol/disulfure. Une hypothèse alternative serait une perte de persulfure au moment de l'ionisation ou de l'accélération des ions qui sont deux étapes apportant une grande quantité d'énergie susceptible de favoriser la rupture de certaines liaisons ; mais, dans nos conditions, cet évènement est peu probable. Enfin, comme nous allons le voir dans la section suivante, nous n'avons pas observé de telles différences entre le test d'alkylation et la spectrométrie de masse concernant le persulfure d'ISCU, ce qui nous indiquerait que le phénomène est protéine-dépendant. L'ensemble des résultats obtenus sur l'analyse de la formation du persulfure de NFS1 dans les complexes NI et NIU indique que NFS1 est mono-persulfurée sur une unique cystéine ; et que la protéine ISCU n'est pas requise pour la formation de ce persulfure. Nous avons ensuite étudié le transfert de soufre entre NFS1 et ISCU qui a été décrit avec les protéines procaryotes IscS et IscU. C . Etude du transfert de soufre de NFS1 vers ISCU Un transfert de soufre a été observé entre les protéines IscS et IscU du système ISC bactérien (Urbina et al. 2001; Smith et al. 2005) ainsi qu'entre les protéines SufS, SufE et SufB du système SUF (Layer et al. 2007). Chez les eucaryotes, aucun transfert de ce genre n'a encore été mis en évidence entre NFS1 et ISCU ; et le rôle de ce transfert de soufre dans la biogenèse des centres Fe/S bactérien est mal connu. Il a été proposé qu'après réduction, le persulfure d'IscU soit incorporé dans le centre Fe/S synthétisé (Smith et al. 2001). Nous avons donc essayé de visualiser un transfert de soufre entre NFS1 et ISCU par spectrométrie de masse et par alkylation des protéines avec le MalP16. Un complexe covalent par pont disulfure intermoléculaire entre IscS et IscU a également été observé (Kato et al. 2002). Il a 180 Etude des effets de la protéine ISCU sur le complexe NFS1-ISD11 été proposé que ce complexe provienne de la formation d'ions sulfures par réduction du persulfure d'IscS par IscU. Bien que ces données soient controversées, nous avons cherché à déterminer si un tel complexe pouvait également se former entre ISCU et NFS1. C . 1 . Etude du transfert de soufre par alkylation des protéines avec le MalP16 C . 1 . 1 . Analyse de la protéine ISCU par alkylation avec le MalP16 Dans un premier temps, nous avons contrôlé que les 4 cystéines d'ISCU étaient alkylables par le MalP16 et qu'aucune autre espèce ne pouvait se former. En incubant la protéine ISCU avec une quantité sous-stoechiométrique de MalP16, nous avons obtenu cinq bandes sur gel SDS-PAGE correspondants aux formes non alkylée (0), partiellement alkylées (1 à 3) et complètement alkylée (4) de la protéine ISCU (Figure IV. 10). Ainsi, les 4 cystéines d'ISCU sont alkylables par le MalP16. Figure IV. 10. Principe d'alkylation de la protéine ISCU par le MalP16. L'alkylation d'ISCU, qui contient 4 cystéines, présente 5 bandes différentes correspondant aux formes non-alkylée (0), partiellement alkylées (1 à 3) et complètement alkylée (4) d'ISCU. Le marqueur de poids moléculaire est en kDa. C . 1 . 2 . Etude du transfert de soufre entre NFS1 et ISCU par alkylation des protéines avec le MalP16 Nous avons ensuite utilisé le test d'alkylation pour détecter la formation d'un persulfure sur la protéine ISCU. Le complexe NFS1-ISD11 (25 μM) a été incubé avec un excès de L-cystéine, en présence d'un équivalent d'ISCU et la réaction a été stoppée aux temps indiqués dans la Figure IV. 11. 181 Etude des effets de la protéine ISCU sur le complexe NFS1-ISD11 Figure IV. 11. Etude du transfert de soufre entre NFS1 et ISCU par alkylation des protéines avec le MalP16. La cinétique de formation du persulfure sur la protéine ISCU du complexe NIU (25 μM) a été réalisée avec 20 équivalents de Lcystéine. A. SDS-PAGE 14 % (entier) en conditions non réductrices. B. Gel SDS-PAGE 14 % en conditions réductrices. Le marqueur de poids moléculaire est en kDa. Le gel non réduit montre trois bandes majoritaires, correspondants aux protéines NFS1 et ISCU entièrement alkylées (NFS1 +7 et ISCU +4) et à ISD11; ainsi que plusieurs bandes de faibles intensités (Figure IV. 11, A). La bande α, en bas du gel, correspond probablement à une petite quantité de la protéine ISD11 alkylée par un MalP16 sur un résidu autre qu'une cystéine ; car ISD11 ne possède aucune cystéine dans sa séquence. La bande β représente une faible proportion de la protéine ISCU sur-alkylée (ISCU +5) ; même si les sur-alkylations sont limitées par un chauffage modéré lors de la réaction d'alkylation, il est impossible d'exclure entièrement cette réaction parasite. Pour finir, le symbole * représente l'impureté présente dans la solution du complexe NFS1-ISD11 purifié ; et les bandes γ et δ semblent correspondre à d'autres impuretés du complexe NFS1-ISD11 plutôt qu'à un complexe covalent entre NFS1 et ISCU alkylées (~ 80 kDa), car ces bandes ont un poids moléculaire supérieur à 100 kDa et sont toujours présentes après la réduction des échantillons par le DTT. Ainsi, l'analyse du gel 182 Etude des effets de la protéine ISCU sur le complexe NFS1-ISD11 non réduit indique qu'aucun complexe covalent par pont disulfure intermoléculaire ne se forme entre ISCU et NFS1 et qu'aucune cystéine d'ISCU n'est oxydée. L'analyse du gel SDS-PAGE en conditions réductrices montre qu'en absence de Lcystéine (t = 0, Figure IV. 11, B), la protéine ISCU est entièrement alkylée (ISCU +4). Nous distinguons également une petite quantité de protéine ISCU alkylée sur seulement 3 cystéines (ISCU +3), correspondant à une forme persulfurée d'ISCU. Nous avons observé qu'entre 30 % et 50 % de la protéine ISCU est obtenue sous une forme persulfurée à la fin de la purification. C'est la raison pour laquelle nous avons ajouté une étape de réduction de la protéine par le DTT avant la chromatographie d'exclusion stérique finale (Cf. Chapitre II). Cette quantité résiduelle de forme persulfurée d'ISCU, observée par alkylation avec le MalP16, pourrait donc être due à une réduction incomplète de la protéine par le DTT ; mais il est également possible que la quantité résiduelle de persulfure sur NFS1, discutée plus haut, soit transférée à ISCU (Cf. Figure IV. 7). Après quelques minutes de réaction avec la Lcystéine, le gel révèle l'apparition d'une forme d'ISCU alkylée sur seulement 3 cystéines (ISCU +3), correspondant à la formation d'un persulfure sur l'une des 4 cystéines d'ISCU (Figure IV. 11, B). La réaction est quasi-complète après 20 minutes. Le gel SDS-PAGE a ensuite été quantifié, et la cinétique obtenue est présentée dans la Figure IV. 12. Figure IV. 12. Quantification des gels SDS-PAGE de la Figure IV. 11, B. Les lignes noires représentent les courbes simulées avec l'équation (2). 183 Etude des effets de la protéine ISCU sur le complexe NFS1-ISD11 Pour analyser la cinétique de la réaction nous avons considéré le transfert comme une réaction unimoléculaire au sein du complexe NIU. Sur la base de ce mécanisme, la formation du persulfure d'ISCU peut être décrite par l'équation (2) : ISCU-SSH = A . 1 – exp ( - kT .t) Où A représente la quantité totale de ISCU-SSH formé au cours de la réaction, kT est la constante de transfert de soufre entre NFS1 et ISCU et t, le temps. Nous avons déterminé une valeur de 0,0018 ± 0,0004 s-1 pour la constante de transfert, kT, du complexe NIU (Figure IV. 12). C . 1 . 3 . Mécanisme de transfert Ces résultats soulèvent la question du mécanisme par lequel le soufre est transféré entre NFS1 et ISCU. Trois hypothèses sont possibles ; soit un transfert direct entre la cystéine persulfurée de NFS1 et l'une des cystéines d'ISCU, soit l'une des cystéines d'ISCU est capable de réaliser une attaque nucléophile sur l'intermédiaire PLP ayant fixé et « activé » la L-cystéine ; soit le transfert est indirect via une molécule intermédiaire, comme la L-cystéine, qui est persulfuré au cours de la réaction de réduction du persulfure de NFS1, comme nous le verrons plus loin (Cf. Figure IV. 1). Figure IV. 13. Mise en évidence d'un transfert de soufre direct entre NFS1 et ISCU. Cinétique de formation du persulfure sur ISCU (A) corrélée à la cinétique de réduction du persulfure de NFS1 (B). L'expérience de transfert de soufre a été réalisée sans cystéine, après l'ajout d'un équivalent de NFS1-SSH. Le marqueur de poids moléculaire est en kDa. Nous avons donc réalisé une expérience de transfert de soufre entre NFS1 et ISCU, en absence de L-cystéine. Pour cela, le complexe NFS1-ISD11 a tout d'abord été incubé avec de la L-cystéine. L'excès de L-cystéine est éliminé et la réaction de transfert est initiée avec l'ajout d'ISCU. Les résultats nous montrent que la formation du persulfure sur ISCU est directement corrélée avec la réduction du persulfure de NFS1 (Figure IV. 13). Cette 184 Etude des effets de la protéine ISCU sur le complexe NFS1-ISD11 expérience confirme que le transfert de soufre est direct, car il ne nécessite pas d'intermédiaire et qu'il est réalisé entre la cystéine persulfurée de NFS1 et l'une des cystéines d'ISCU. Ainsi, nous avons mis en évidence l'existence d'un transfert de soufre entre NFS1 et une cystéine d'ISCU. Nous avons également démontré que ce transfert est direct entre les deux protéines avec l'attaque nucléophile d'une des cystéines d'ISCU sur le soufre terminal du persulfure de NFS1, pour former un persulfure sur la protéine ISCU. Afin de déterminer, comme pour NFS1, si la cystéine d'ISCU est mono- ou poly-persulfurée, nous avons étudié la structure de ces persulfures par spectrométrie de masse. C . 2 . Analyse du transfert de soufre par spectrométrie de masse en protéine entière Le complexe NFS1-ISD11 (40 μM) a été incubé avec un excès de L-cystéine et après 3 minutes de réaction, l'échantillon a été désalé, pour éliminer la L-cystéine en excès avant l'analyse par spectrométrie de masse en protéine entière (ESI-Q/TOF). Figure IV. 14. Analyse du transfert de soufre entre NFS1 et ISCU par spectrométrie de masse en protéine entière. Spectres de masse ESI-Q/TOF reconstitués du complexe NIU en absence (A) et en présence (B) de 10 équivalents de Lcystéine (zoom sur la zone 14 000 à 15 000 uma). En absence de L-cystéine, le spectre du complexe NIU de la Figure IV. 14 (A) présente quatre pics à 10 723 ± 2 uma, 14 618 ± 2 uma, 46 324 ± 2 uma et 46 502 ± 2 uma correspondant respectivement aux protéines ISD11 (masse attendue, 10 723,3 Da), ISCU 185 Etude des effets de la protéine ISCU sur le complexe NFS1-ISD11 (masse attendue, 14 617,8 Da pour ISCU36-168), NFS1 et sa forme gluconoylée, NFS1* (Figure IV. 14, A). Aucune forme persulfurée de la protéine ISCU n'est détectée dans ces conditions. Après réaction avec la L-cystéine, le spectre montre la présence d'un pic majoritaire à 14 618 ± 2 uma correspondant à ISCU et d'un pic minoritaire à 14 649 ± 2 uma, avec un gain de masse de 32 Da par rapport à la masse initiale de la protéine ISCU, attribué à une forme persulfurée d'ISCU (Figure IV. 14, B). Ces résultats démontrent que le transfert de soufre conduit à une forme monopersulfurée d'ISCU. Ces résultats posent la question de l'identité de la cystéine d'ISCU portant le persulfure transféré depuis NFS1. Pour répondre à cette question, nous avons analysé une carte peptidique des protéines NFS1, ISD11 et ISCU par LTQ-Orbitrap XL. D . Identification de la cystéine persulfurée d'ISCU Pour identifier la cystéine d'ISCU portant le persulfure, le mélange protéique contenant NFS1-ISD11 (20 μM) et un équivalent d'ISCU a été analysé avant et après réaction avec de la L-cystéine, et les groupements thiols et les persulfures ont été alkylés avec de l'iodoacétamide pour les protéger. Les protéines ont ensuite été digérées par la trypsine ; et les peptides obtenus ont été analysés sur le spectromètre de masse LTQ-Orbitrap XL par JeanPierre Le Caer de l'Institut de Chimie des Substances Naturelles (ICSN, Gif-sur-Yvette). D . 1 . Identification de la cystéine persulfurée d'ISCU par LTQOrbitrap XL La protéine ISCU contient quatre résidus cystéines, dont trois cystéines conservées, C35, C61 et C104 et une cystéine non-conservée, C96 (numérotation de la forme mature d'ISCU murin, Figure IV. 15). Nous avons choisi la trypsine pour générer des peptides, car la carte peptidique d'ISCU montre que ces quatre cystéines sont attendues dans quatre peptides différents après une digestion tryptique. 186 Etude des effets de la protéine ISCU sur le complexe NFS1-ISD11 Figure IV. 15. Séquence de la protéine ISCU de souris. La séquence est numérotée à partir de la forme mature de la protéine ISCU, avec la séquence d'adressage à la mitochondrie en gris. Les quatre cystéines d'ISCU sont en gras et les séquences des peptides détectés par le spectromètre de masse LTQ-Orbitrap, contenant ces cystéines, sont encadrées par différentes couleurs. Le Tableau IV. 2 résume les masses attendues pour les peptides d'ISCU contenant soit une cystéine soit un persulfure alkylées par l'iodoacétamide (Cam et S-Cam). Masses attendues NIU sans L-cystéine NIU avec L-cystéine Cystéine Cam S-Cam (O2)-Cam Cam S-Cam Cam S-Cam C35 1645,80356 1677,77567 1677,79336 1645,80217 ND 1645,80351 1677,77593 C61 1971,94796 2003,92007 2003,93776 1971,95195 ND 1971,95195 ND C96 955,52806 987,50017 987,51786 955,52837 ND 955,52867 ND C104 1387,67076 1419,64287 1419,66056 1387,67021 1419,64263 1387,67143 1419,64287 Tableau IV. 2. Résumé des résultats obtenus après analyse des peptides des protéines NFS1, ISD11 et ISCU sur le spectromètre de masse LTQ-Orbitrap XL. En absence de L-cystéine, la cystéine C104 est persulfurée à 1 % ; alors qu'en présence de L-cystéine, les cystéines C35 et C104 sont persulfurées à 5 % et 65 %. En absence de L-cystéine, les quatre peptides sont détectés avec leurs cystéines carbamidométhylées (Cam). Le peptide « LHCSMLAEDAIK », contenant la cystéine C104, est également détecté avec une cystéine persulfurée et carbamidométhylée. Il semble donc qu'environ 1 % de la protéine ISCU soit initialement persulfurée sur la cystéine C104. Cette cystéine pourrait donc être la cystéine persulfurée correspondant à la quantité résiduelle d'ISCU persulfurée, observée lors des expériences d'alkylation des protéines par le MalP16 (Figure IV. 11, B). En présence de L-cystéine, les quatre peptides d'ISCU carbamidométhylés sont toujours détectés. Nous remarquons également que deux masses correspondant à des peptides persulfurés et carbamidométhylés sont détectés. Nous retrouvons la cystéine C104 d'ISCU 187 Etude des effets de la protéine ISCU sur le complexe NFS1-ISD11 ainsi que la cystéine C35, dont les identités ont été vérifiées par MS-MS (Cf. Annexes 16 à 17). Nous nous sommes alors intéressés aux intensités des quatre peptides, persulfurés ou non, obtenus pour le complexe NIU en présence de L-cystéine. La quantification de ces peptides indique que la cystéine C104 est persulfurée à 65 % et seulement à 5 % pour la cystéine C35. L'ensemble de ces informations suggère que la cystéine C104 est la cystéine majoritairement persulfurée. Notre hypothèse est renforcée par le fait que cette cystéine C104 persulfurée est initialement présente dans le complexe NIU. Pour le vérifier, nous avons produit les mutants C35S, C61S et C104S d'ISCU, où les trois cystéines conservées ont été remplacées par un résidu sérine. Nous avons choisi de ne pas étudier la mutant de la cystéine C96 d'ISCU, car elle ne fait pas partie des cystéines conservées de la protéine. D . 2 . Identification de la cystéine persulfurée d'ISCU avec les mutants C35S, C61S et C104S d'ISCU Nous avons utilisé le test d'alkylation par le MalP16 pour déterminer si les mutants C35S, C61S et C104S d'ISCU se persulfurent. Sachant que le mutant C61S d'ISCU ne forme aucun complexe avec NFS1-ISD11, seuls les mutants C35S et C104S ont pu être étudiés (Cf. Chapitre III). Le complexe NFS1-ISD11 a été incubé en présence d'un équivalent du mutant C35S ou C104S d'ISCU. La réaction a été initiée avec un excès de L-cystéine et stoppée au temps indiqués dans la Figure IV. 16 et la Figure IV. 17. Figure IV. 16. Cinétique de formation du persulfure d'ISCUC35S. SDS-PAGE 14 % de la cinétique de formation du persulfure sur le mutant C35S d'ISCU du complexe NIUC35S (25 μM), avec 20 équivalents de L-cystéine. Le marqueur de poids moléculaire est en kDa. 188 Etude des effets de la protéine ISCU sur le complexe NFS1-ISD11 Figure IV. 17. Cinétique de formation du persulfure d'ISCUC104S. SDS-PAGE 14 % de la cinétique de formation du persulfure sur le mutant C104S d'ISCU du complexe NIUC104S (25 μM), avec 20 équivalents de L-cystéine. Le marqueur de poids moléculaire est en kDa. En absence de L-cystéine (t = 0, Figure IV. 16 et Figure IV. 17), les résultats montrent qu'une petite quantité de persulfure est présente sur les protéines ISCUC35S et ISCUC104S, indiquant la présence d'un persulfure en petite quantité sur une des trois cystéines restantes de ces mutants. En présence de L-cystéine, nous remarquons que le rapport entre la forme réduite et la forme persulfurée des mutants C35S et C104S d'ISCU ne varie pas, ou très peu, après 10 minutes d'incubation avec un excès de L-cystéine. Ce résultat indique que la mutation des cystéines d'ISCU en position 35 et 104 par une sérine bloque le transfert de soufre entre NFS1 et ISCU, suggérant que les cystéines C35 et C104 d'ISCU sont indispensables au bon fonctionnement du complexe ternaire. L'ensemble des résultats montre que le transfert de soufre entre NFS1 et ISCU est direct et qu'il cible plusieurs cystéines différentes dans ISCU. Ce résultat est surprenant, car une seule cystéine persulfurée est détectée avec le test d'alkylation et par spectrométrie de masse, suggérant que la forme mono-persulfurée d'ISCU correspond à un mélange de protéines ISCU persulfurées sur une seule cystéine, mais avec une cystéine différente dans chaque espèce. Cependant, la quantification des peptides indique que la cysteine C104 est la cystéine majoritairement persulfurée, sur laquelle s'accumule un persulfure, ce qui laisse supposer que l'espèce observée avec le test d'alkylation et par spectrométrie de masse correspond à une forme où la cystéine C104 d'ISCU est persulfurée. L'analyse des mutants C35S et C104S d'ISCU, pour déterminer la cible primaire de la réaction de transfert, c'est-àdire, la cystéine d'ISCU qui réalise une attaque nucléophile sur le persulfure de NFS1, montre que les cystéines C35 et C104 sont toutes les deux importantes pour le transfert. Nous ne pouvons donc pas conclure qu'en a l'identité de la cible primaire du transfert de soufre. Il serait possible, par exemple que la cible primaire soit la cystéine C35 et que le persulfure de la cystéine C35 soit ensuite transféré sur la cystéine C104. 189 Etude des effets de la protéine ISCU sur le complexe NFS1-ISD11 La présence d'un persulfure sur la protéine ISCU soulève maintenant la question supplémentaire de sa contribution dans l'activité cystéine désulfurase du complexe NIU en cycle multiple. L'étude des vitesses de réduction des persulfures d'ISCU et de NFS1 devrait nous permettre de déterminer lequel des deux persulfures contribue à l'activité cystéine désulfurase globale ou si les deux persulfures contribuent simultanément. E . Etude de la réduction du persulfure de NFS1 dans les complexes NI et NIU Nous avons de nouveau utilisé le test d'alkylation des cystéines par le MalP16, pour étudier la réaction de réduction du persulfure de NFS1 séparément de la réaction de formation de NFS1-SSH. Pour ce faire, le complexe NFS1-IDS11, avec ou sans un équivalent d'ISCU, a été incubé en présence de L-cystéine, afin de former le persulfure sur la protéine NFS1. La Lcystéine en excès est ensuite éliminée par à un échange de tampon. Cette étape est nécessaire avant l'ajout du DTT pour éviter que le persulfure de NFS1, réduit par le DTT, soit de nouveau formé. La réaction de réduction est initiée par l'addition du DTT au mélange réactionnel et est stoppée aux temps indiqués dans la Figure IV. 18. Figure IV. 18. Réduction du persulfure de NFS1 dans les complexes NI et NIU. A. SDS-PAGE 8 % de la cinétique de réduction du persulfure de NFS1 par 50 équivalents de DTT pour les complexes NI et NIU (25 μM). La réaction est stoppée avec le MalP16 au temps indiqués. Le marqueur de poids moléculaire est en kDa. B. Quantification des gels SDS-PAGE en A. Les lignes noires représentent les courbes simulées avec l'équation (3). Les résultats montrent qu'en absence de DTT (t =0, Figure IV. 18, A), la forme majoritaire observée est la forme NFS1-SSH (NFS1 +6), indiquant que le persulfure de NFS1 est stable dans ces conditions. Nous remarquons ensuite qu'après 2 minutes de réaction en 190 Etude des effets de la protéine ISCU sur le complexe NFS1-ISD11 présence de DTT (t = 120 sec), la forme non persulfurée de NFS1 apparait (bande du haut, notée NFS1+7), ce qui caractérise la réduction de NFS1-SSH par le DTT. Les flèches rouges de la Figure IV. 18 (A) indiquent approximativement le temps pour lequel environ 50 % de la forme NFS1-SSH a été réduite. Nous constatons ainsi que la cinétique de réduction du persulfure de NFS1 du complexe NI est plus rapide que celle du complexe NIU, ce qui montre que la protéine ISCU a un effet ralentisseur sur la vitesse de réduction du persulfure de NFS1. Nous avons ensuite quantifié les gels SDS-PAGE obtenus pour les complexes NI et NIU. La réduction du persulfure de NFS1 peut être considérer comme une réaction bimoléculaire (Cf. Partie G. 2). De plus, nous avons ajouté le DTT en excès (50 équivalents) par rapport à la concentration de protéines, ce qui implique que la concentration initiale en DTT varie très peu. Il y a alors dégénérescence de l'ordre de la réaction, et la vitesse de réduction du persulfure de NFS1 peut être décrite par l'équation (3): NFS1-SSH = A . exp ( - kR1 . DTT 0 . t ) Où A correspond à la quantité totale de NFS1-SSH formés au cours de la réaction, kR1 est la constante de vitesse de réduction du persulfure de NFS1 par le DTT, [DTT]0, la concentration initiale en DTT et t, le temps. Nous avons obtenu le graphique présenté en Figure IV. 18 (B) et avons déterminé des constantes de vitesse de réduction de NFS1-SSH par le DTT, kR1, de 2,0 ± 0,1 M-1.s-1 pour le complexe NI et 0,55 ± 0,05 M-1.s-1 pour NIU. Les expériences d'alkylation par le MalP16 nous ont permis d'analyser la réaction de réduction du persulfure de NFS1 indépendamment de la réaction de formation de NFS1-SSH. Nous avons constaté que la vitesse de réduction du persulfure de NFS1 dans le complexe NI est environ 4 fois plus lente en présence de la protéine ISCU. Ce facteur 4 est proche du facteur 3 que nous avions observé en cycle multiple, lors du dosage de l'alanine générée par les complexes NI et NIU (Cf. Figure IV. 2). En cycle multiple, les réactions de formation et de réduction du persulfure de NFS1 se produisent toutes les deux (l'une après l'autre) ; mais la vitesse globale du système est déterminée par la réaction la plus lente des deux, appelée réaction cinétiquement limitante ou déterminante. Les résultats en cycle unique, obtenus ici par le test d'alkylation, montrent que la vitesse de réduction du persulfure de NFS1 est plus lente que sa formation, ce qui suggère que la réduction est l'étape limitante du cycle catalytique de l'enzyme. Ce résultat permet donc d'expliquer l'effet d'atténuation d'ISCU sur l'activité cystéine désulfurase de NFS1 ; car la réaction cinétiquement limitante est la réduction et qu'ISCU ralentit la vitesse de réduction du persulfure de NFS1. Cependant, le 191 Etude des effets de la protéine ISCU sur le complexe NFS1-ISD11 transfert de soufre vers ISCU et la réduction du persulfure formé sur cette protéine pourraient également participer au cycle catalytique de l'enzyme quand ISCU est présente. Nous avons donc étudié la vitesse de réduction du persulfure d'ISCU dans les mêmes conditions que pour NFS1. F . Etude de la réduction du persulfure d'ISCU par alkylation des protéines avec le MalP16 Afin d'étudier la réduction du persulfure d'ISCU, le complexe NFS1-ISD11 a été incubé pendant 25 minutes en présence d'un équivalent d'ISCU et de L-cystéine, afin d'obtenir la totalité de la protéine ISCU sous une forme persulfurée. Après avoir éliminé la Lcystéine en excès, la réaction de réduction du persulfure d'ISCU est initiée avec l'ajout du DTT et stoppée aux temps indiqués dans la Figure IV. 19. Figure IV. 19. Cinétique de réduction du persulfure d'ISCU, du complexe NIU, par le DTT. A. SDS-PAGE 14 % de la cinétique de réduction du persulfure d'ISCU du complexe NIU (25 μM) avec 50 équivalents de DTT. Le marqueur de poids moléculaire est en kDa. B. Quantification des gels SDS-PAGE en A. Les lignes noires représentent les courbes simulées avec l'équation (4). Les résultats montrent qu'en absence de DTT (t = 0 de la Figure IV. 19, A), la protéine ISCU est majoritairement sous sa forme persulfurée (ISCU +3), avec une très faible quantité de protéine totalement réduite (ISCU +4, < 5 %). Après 60 minutes en présence de DTT, on distingue une augmentation de la bande correspondant à ISCU +4, indiquant la réduction du persulfure d'ISCU. Nous avons ensuite quantifié le gel SDS-PAGE et nous avons supposé que la réduction du persulfure d'ISCU par le DTT est une réaction bimoléculaire avec une dégénérescence de l'ordre de la réaction menant à l'équation (4) : 192 Etude des effets de la protéine ISCU sur le complexe NFS1-ISD11 ISCU-SSH = A . exp ( - kR2 . [DTT]0 . t ) Où A correspond à la quantité totale d'ISCU-SSH formés au cours de la réaction, kR2 est la constante de vitesse de la réaction de réduction du persulfure d'ISCU, [DTT]0, la concentration initiale en DTT et t, le temps. Le graphique obtenu indique qu'après une heure de réaction, près de 60 % d'ISCU-SSH est réduit. Nous avons déterminé une constante de vitesse de la réduction d'ISCU-SSH par le DTT, kR2, de 0,21 ± 0,02 M-1.s-1 (Figure IV. 19, B). La protéine NFS1 est également sous une forme totalement persulfurée et donc la réduction du persulfure de NFS1 se produit simultanément à celle d'ISCU-SSH. Nous nous sommes alors interrogés sur l'effet de la persulfuration d'ISCU sur la vitesse de réduction du persulfure de NFS1, car ces deux phénomènes pourraient être interdépendants. Nous avons donc comparé les vitesses de ces réactions avec un complexe NIU ayant réagi pendant quelques minutes avec de L-cystéine, afin de ne générer que très peu de persulfure sur ISCU et un complexe dans lequel ISCU est totalement persulfurée (non montré). Nous n'avons pas observé de différence de vitesses de réduction, ce qui indique que la vitesse de réduction du persulfure de NFS1 ne dépend pas du niveau de persulfuration d'ISCU. NI NIU kF (s-1) > 0,23 ± 0,04 > 0,261 ± 0,004 kT (s-1) - 0,0018 ± 0,0004 kR1 (M -1.s-1) 2,0 ± 0,1 0,55 ± 0,05 kR2 (M -1.s-1) - 0,21 ± 0,02 Tableau IV. 3. Récapitulatif des constantes de vitesse déterminées. Le Tableau IV. 3 résume toutes les constantes de vitesse des réactions de formation et de réduction des persulfures sur NFS1 et sur ISCU déterminées grâce au test d'alkylation par le MalP16. Nous constatons que la constante de vitesse de réduction du persulfure de NFS1, kR1, est environ 3 fois plus élevée que la constante de vitesse de réduction du persulfure d'ISCU, kR2. Cette observation soulève une nouvelle question concernant la contribution du persulfure d'ISCU dans la mesure de l'activité cystéine désulfurase du complexe NIU. Pour répondre à cette question, nous avons réalisé des mesures en cycle multiple. 193 Etude des effets de la protéine ISCU sur le complexe NFS1-ISD11 G . Analyse de l'activité cystéine désulfurase en cycle multiple G . 1 . Identification de l'étape limitante Nous avons évoqué plus haut que la mesure de l'activité cystéine désulfurase représente le comportement de la réaction la plus lente ; et les cinétiques en cycle unique (test d'alkylation) indique que c'est la réduction des persulfures qui est l'étape limitante. Nous avons donc cherché à confirmer que la réaction cinétiquement déterminante est toujours la réduction des persulfures en cycle multiple. Pour cela, nous avons mesuré les activités cystéine désulfurase des complexes NI et NIU (20 μM), incubés avec de la L-cystéine et des concentrations croissantes de DTT. Le DTT n'intervenant que dans la réaction de réduction, ces expériences devraient nous permettre de déterminer si la réduction est la réaction limitante. Figure IV. 20. Formation de l'alanine par les complexes NI et NIU en fonction du temps. A. Formation de l'alanine en fonction du temps du complexe NI (20 μM) avec 2 mM de L-cystéine et 500 μM ou 2 mM de DTT. B. Formation de l'alanine en fonction du temps du complexe NIU (20 μM) avec 2 mM de L-cystéine et 2 mM ou 4 mM de DTT. C. Comparaison de la formation d'alanine en fonction du temps des complexes NI et NIU (20 μM) pour 2 mM de L-cystéine et 2 mM de DTT. La Figure IV. 20 nous montre que l'activité cystéine désulfurase des complexes NI et NIU augmente avec la concentration en DTT (Figure IV. 20, A et B). Ces résultats indiquent donc que la réaction limitante est la réduction des persulfures de NFS1 et d'ISCU. De plus, nous remarquons que les droites, simulées à partir des données expérimentales, ne coupent pas l'axe des ordonnées par 0 mais plutôt vers 20 μM (flèches rouges de la Figure IV. 20). Cette concentration correspond à la quantité de complexe utilisée au cours de l'expérience. 194 Etude des effets de la protéine ISCU sur le complexe NFS1-ISD11 Ainsi, les résultats indiquent que dès les premières secondes de réaction, 20μM d'alanine sont produites, correspondant à la formation du persulfure de NFS1, ce qui indique que la formation de ce persulfure est très rapide devant sa réduction par le DTT. Nous avons confirmé que la concentration d'alanine générée dans les premières secondes de la réaction correspond à la concentration initiale de complexe ; et donc que ce « burst » initial représente le premier demi-cycle de réaction générant un équivalent d'alanine par complexe (Figure IV. 21) (Cf. Figure IV. 1, réaction 1). Figure IV. 21. Mesure de l'alanine après 10 secondes de réaction pour différentes concentrations du complexe NFS1ISD11. Différentes concentrations de complexe NI ont été incubées avec 20 équivalents de L-cystéine. L'alanine a été dosée 10 secondes après le début de la réaction. G . 2 . Mécanisme de réduction Nous avons poursuivi les analyses cinétiques du système, en déterminant les paramètres cinétiques de réduction des persulfures de NFS1 et d'ISCU. Nous avons donc réalisé des expériences où les complexes NI et NIU ont été incubés en présence de concentrations croissantes en substrat. Lors de cette étude, nous avons constaté qu'en absence de DTT, l'activité cystéine désulfurase des deux complexes n'était pas nulle et qu'elle augmente avec la concentration en L-cystéine (Figure IV. 22, A). De plus, les quantités de L-alanine générées sont supérieures à la concentration du complexe NFS1-ISD11, ce qui indique que plusieurs cycles catalytiques ont été réalisés en présence de L-cystéine. Ces résultats montrent donc la L-cystéine, substrat de NFS1 pour la formation de son persulfure, est également capable de réduire les persulfures de NFS1 et/ou d'ISCU. Nous avons également constaté que de même qu'avec le DTT, les droites ne coupent pas l'axe des ordonnées en zéro et que l'effet « inhibiteur » de la protéine 195 Etude des effets de la protéine ISCU sur le complexe NFS1-ISD11 ISCU sur l'activité cystéine désulfurase de NFS1-ISD11 est toujours observé (Figure IV. 22, B et C). Ces résultats indiquent clairement que la réduction des persulfures est toujours l'étape limitante du cycle catalytique de l'enzyme quand la L-cystéine est le réducteur (Cf. Annexe 20). Figure IV. 22. Etude de la réduction des persulfures des complexes NI et NIU par la L-cystéine. A. La quantité d'alanine formée par le complexe NIU (20μM) a été mesurée avec des concentrations initiales en L-cystéine croissantes. B. Les cinétiques de production d'alanine du complexe NIU (20 μM), avec des concentrations croissantes en L-cystéine ont été réalisées par l'intermédiaire de 4 points de cinétique. Les lignes noires représentent les régressions linéaires tracées à partir de ces points. La pente de ces droites nous permet de calculer les vitesses initiales de réaction. C et D. Les vitesses initiales des activités cystéine désulfurase ont été mesurées et calculées pour les complexes NI et NIU (20μM), avec des concentrations croissantes de L-cystéine. C. Les lignes noires représentent les régressions linéaires obtenues à partir de ces points. D. Les lignes continues correspondent à la reliure des points expérimentaux et les lignes en pointillé représentent les simulations des données expérimentales avec une équation du type Michaelis et Menten (Vitesse initiale = Vitesse max * [L-cys] / (KM + [Lcys])). Pour étudier la réduction des persulfures de NFS1 et d'ISCU en cycle multiple, nous avons réalisé des expériences en conditions d'état stationnaire, c'est-à-dire, une situation dans laquelle la vitesse de la réaction ne varie pas, car la concentration en substrat est supposée constante (i.e. le substrat est présent en large excès) (Figure IV. 22, B). Nous nous sommes 196 Etude des effets de la protéine ISCU sur le complexe NFS1-ISD11 également placés à des temps suffisamment long pour nos mesures, afin de nous affranchir du régime pré-stationnaire de début de réaction, au cours duquel se produisent les réactions de formation du persulfure de NFS1 et de transpersulfuration. Les cinétiques de formation de Lalanine ont donc été mesurées 20 minutes après le début de la réaction pour le complexe NIU, ce qui correspond au temps nécessaire pour réaliser la transpersulfuration dans le complexe NIU ; et l'alanine générée par le complexe NI a été dosée après 1 minute de réaction. Nous avons ensuite vérifié que la consommation en substrat ne dépasse pas 30 % de sa concentration initiale, sachant que nous avons considéré que 3 cystéines étaient nécessaires au total ; une pour la formation du persulfure sur NFS1 et 2 pour la réduction. Nous avons également contrôlé que notre système était bien dans un état stationnaire en vérifiant que la production d'alanine était linéaire en fonction du temps à quatre temps différents (Figure IV. 22, B). Les vitesses initiales ont été déterminées à partir de la régression linéaire obtenues avec les quatre points de cinétique (Figure IV. 22, B). L'étude montre que jusqu'à 2 mM de Lcystéine, la vitesse initiale de la réduction des persulfures augmente de manière linéaire (Figure IV. 22, C). Au-delà d'environ 5 mM nous avons observé que les vitesses initiales n'évoluent plus de manière linéaire et décrivent ce qui ressemble à une courbe de saturation, indiquant la formation d'un complexe enzyme-substrat (Figure IV. 22, D). L'analyse à l'aide de l'équation de Michaelis-Menten de ces courbes conduit à des constantes de Michaelis (KM), de l'ordre de 50 à 150 mM Cependant, des valeurs 1000 fois plus petites, de l'ordre de 10 μM à 40 μM, ont été obtenues par les groupes de D. Barondeau et H. Puccio avec 1 μM d'enzyme. Ces valeurs de KM semblent donc dépendre de la concentration en enzyme, ce qui n'est pas compatible avec un modèle enzyme-substrat de type Michaelis-Menten. Au contraire, une variation linéaire indique que la L-cystéine ne possède pas de site de fixation à l'enzyme ; et donc que le mécanisme de la réaction est de type bimoléculaire. Nous avons ensuite cherché à identifier le persulfure réduit par le DTT ou la Lcystéine ; est-ce celui de NFS1 ou celui d'ISCU, ou bien les persulfures des deux protéines sont-ils réduits simultanément ? Pour répondre à ces questions, nous avons utilisé le mutant C104S ainsi que le mutant C104G d'ISCU. 197 Etude des effets de la protéine ISCU sur le complexe NFS1-ISD11 G . 3 . Etude des mutants C104S et C104G d'ISCU Nous avons démontré un peu plus haut dans ce chapitre que la mutation de la cystéine C104 en sérine empêche la formation de persulfure sur la protéine ISCU. L'interaction entre NFS1 et ISCUC104S ou ISCUC104G n'étant pas altérée par la mutation de la cystéine C104 (Cf. Chapitre III), nous avons cherché à déterminer la contribution de la réaction de réduction du persulfure d'ISCU. Pour cela, le complexe NFS1-ISD11 (20 μM) a été incubé avec de la Lcystéine et du DTT en présence ou non d'un équivalent de la protéine ISCU sauvage ou des mutants C104S et C104G d'ISCU. Figure IV. 23. Diagramme des vitesses initiales obtenues pour chacun des complexes NI, NIU, NIUC104S et NIUC104G. Le complexe NI (20 μM) avec ou sans ISCU WT ou les mutants C104S et C104G d'ISCU, en présence de 500 μM de Lcystéine et 1 mM de DTT. La Figure IV. 23 représente les vitesses initiales des activités cystéine désulfurase des quatre complexes NI, NIU, NIUC104S et NIUC104G. Les résultats indiquent que les complexes NIUC104S et NIUC104G ont des vitesses initiales identiques à celle de la protéine sauvage ; ce qui signifie qu'à un temps donné, la quantité d'alanine générée par ces trois complexes est similaire. Etant donné que les mutants C104S et C104G d'ISCU sont incapables de se persulfurer, ces résultats montrent que la réduction du persulfure d'ISCU, dans le complexe NIU, ne contribue pas, ou très peu, à l'activité cystéine désulfurase mesurée. Ces résultats sont cohérents avec ceux obtenus en cycle simple avec le test d'alkylation montrant que la vitesse de réduction du persulfure de NFS1 est trois fois plus rapide que celle du persulfure d'ISCU. Cette différence de vitesse semble donc suffisante pour qu'en cycle multiple, le persulfure d'ISCU ne contribue pas ou peu à l'activité cystéine désulfurase dosée. 198 Etude des effets de la protéine ISCU sur le complexe NFS1-ISD11 H . Discussion – Conclusion Dans ce chapitre, nous avons cherché à comprendre l'effet « inhibiteur » de la protéine ISCU sur l'activité cystéine désulfurase du complexe NFS1-ISD11. Pour cela, nous avons mis au point un protocole permettant d'identifier et de quantifier les persulfures présents dans une protéine, à l'aide d'un maléimide modifié, le MalP16, qui permet de générer des espèces de différentes tailles séparées par SDS-PAGE. D'autres techniques de visualisation des persulfures existent. La plus sensible utilise la L-cystéine[35S], mais cette méthode ne permet pas de quantifier simplement le niveau absolu de persulfuration d'une protéine, seules des valeurs relatives peuvent être obtenues (Pandey et al. 2012). De même, des maléimides greffés à des fluorophores, tel que le N-éthylmaléimide fluorescent, ont été utilisés, mais la sensibilité de ce test est limitée, car elle repose sur des différences d'intensité de fluorescence entre les conditions non réductrices et réductrices qui permettent de révéler le persulfure (par une réaction similaire à celle que nous avons utilisé pour le test avec les peptides maléimides) (Sen et al. 2012). Une troisième technique, nommée « tag-switch », a été élaborée par Zhang et al. (Zhang et al. 2014). Leur méthode permet une identification spécifique des protéines persulfurées, mais la protéine non persulfurée étant perdue avec cette méthode, aucune quantification du niveau de persulfuration n'est possible. Le test d'alkylation par le MalP16, que nous avons développé, présente plusieurs avantages par rapport à ces méthodes. Il permet notamment de déterminer le nombre de cystéines persulfurées et de les quantifier. La rapidité de mise en oeuvre, lié au nombre d'étape limitée de ce test, est un autre avantage par rapport aux autres techniques décrites ci-dessus. Notre protocole nous a permis d'étudier individuellement les réactions de formation et de réduction du persulfure de NFS1. Tout d'abord, nous avons constaté que la protéine NFS1 catalyse la formation d'un persulfure sur une seule de ses cystéines, la cystéine catalytique C383. La réaction est quasiment terminée en 10 secondes et nous n'avons pas observé d'effet de la protéine ISCU au-delà de ces 10 secondes. De plus, nous avons montré par la suite que la L-cystéine est aussi un réducteur du persulfure de NFS1 ; et donc, que dans nos conditions où la cystéine était présente en excès, la quantité de persulfure observée est le résultat des deux réactions, la formation de NFS1-SSH et sa réduction par la L-cystéine, ce qui conduit à sous-estimer la constante de vitesse de formation du persulfure de NFS1, kF. Il est donc probable que la réaction soit terminée bien avant 10 secondes. Etant donné la vitesse de cette 199 Etude des effets de la protéine ISCU sur le complexe NFS1-ISD11 réaction, nous ne sommes pas parvenus à résoudre les cinétiques en dessous de 10 secondes et donc à déterminer si ISCU a un effet ou non sur la vitesse de cette réaction. Cependant, l'une des conclusions importantes de cette partie est qu'ISCU n'est pas nécessaire pour la formation du persulfure de NFS1. Grâce à une analyse par spectrométrie de masse de la protéine entière, nous avons démontré que NFS1 est mono-persulfurée. Cependant, à la différence du test d'alkylation qui montre que NFS1 est totalement persulfurée, la spectrométrie de masse indique que 20% à 30% de NFS1 n'est pas persulfurée. L'hypothèse la plus probable est qu'une certaine quantité de persulfure est perdue au cours de l'analyse par spectrométrie de masse. En ce sens, il serait intéressant de protéger les persulfures par alkylation afin de déterminer si ce sont bien les conditions d'analyse qui sont responsables de cette perte. Cependant nos efforts n'ont pas porté leurs fruits, car en cherchant à alkyler la protéine par l'IAM et le NEM en absence de SDS, gênant pour les analyses par spectrométrie de masse, nous ne sommes pas parvenus à alkyler toutes les cystéines de NFS1. Nous avons ensuite cherché à caractériser un transfert de soufre entre les protéines NFS1 et ISCU. Un transfert de soufre, entre la cystéine désulfurase et la protéine d'échafaudage, avait déjà été mis en évidence chez les procaryotes. Nous avons profité du test d'alkylation pour étudier le comportement de la protéine ISCU en présence du complexe NFS1-ISD11 et de L-cystéine. Nous avons constaté qu'un persulfure se forme sur une seule cystéine d'ISCU. La spectrométrie de masse montre que cette cystéine est mono-persulfurée. De plus, nous avons pu démontrer que ce transfert est direct entre la cystéine persulfurée de NFS1 et l'une des cystéines d'ISCU, probablement par une attaque nucléophile du thiol d'une des cystéines d'ISCU sur le soufre terminal du persulfure de NFS1. C'était la première fois, qu'un transfert de soufre entre NFS1 et ISCU eucaryotes était observé. Lors de l'écriture de ce manuscrit, l'équipe de David Barondeau a publié un article montrant également un transfert de soufre entre NFS1 et ISCU, en utilisant de la L-cystéine-[35S] (Bridwell-Rabb et al. 2014). Etonnamment, les résultats que nous avons observés sont très différents du système ISC bactérien, où la protéine IscU est caractérisée par un mélange de formes polypersulfurées sur ses trois cystéines, suggérant que le transfert de soufre n'est pas spécifique d'une cystéine en particulier. Nous nous sommes alors interrogés sur l'identité de la cystéine d'ISCU persulfurée. Nous avons analysé un mélange réactionnel des protéines NFS1-ISD11 et ISCU, après une 200 Etude des effets de la protéine ISCU sur le complexe NFS1-ISD11 digestion tryptique, sur un spectromètre de masse haute résolution, le LTQ-Orbitrap XL. Etonnamment, nous avons constaté que deux cystéines sur les quatre que contient ISCU sont persulfurées, les cystéines C35 et C104. Cependant les analyses quantitatives indiquent que la cystéine C104 est la cystéine majoritairement persulfurée (65 %). De plus, en absence de Lcystéine un persulfure est également détecté sur la cystéine C104, qui correspond probablement au persulfure généré de manière endogène au cours de l'expression de la protéine dans les bactéries. Ce résultat conforte l'idée que la persulfuration de cette cystéine se produit également en conditions physiologiques dans un organisme hétérologue. Une faible quantité de persulfure est détectée sur la cystéine C35 (5 %), suggérant que cette cystéine pourrait intervenir dans le processus de transpersulfuration. L'étude des mutants ponctuels C35S et C104S d'ISCU nous a permis de montrer que ces deux cystéines interviennent dans le processus de transfert de soufre, car la persulfuration d'ISCU est bloquée avec ces deux mutants. Ces résultats suggèrent que la cystéine C35 est impliquée dans le transfert de soufre sur la cystéine C104. D'après la structure du complexe holo-(IscS-IscU)2 publié par Marinoni et al. (Cf. Figure I. 14), la cystéine catalytique d'IscS et les trois cystéines conservées d'IscU sont proches les unes des autres ; avec les cystéines C35 et C61 (numérotation de NFS1 souris) placées respectivement dans les boucles 2 et 3 d'ISCU , et seule la cystéine C104 est positionnée à l'extrémité d'une hélice α (α6). D'après cette structure, il semble que la cystéine C35 soit la cystéine d'ISCU la plus proche de la cystéine catalytique de NFS1. Ces observations suggèrent que la cystéine C35 pourrait être la cible primaire de la transpersulfuration et que le persulfure de la cystéine C35 serait ensuite transféré sur la cystéine C104. Cependant, aucun persulfure n'est détecté sur ISCU avec le mutant C104S ; alors qu'une accumulation de persulfure sur la cystéine C35 est attendue dans le cadre de cette hypothèse de transit de persulfure des cystéines C35 vers C104. Il est possible que les mutations des cystéines C35 et C104 d'ISCU en sérine entrainent des distorsions du futur site de fixation du centre Fe/S, rendant le transfert de soufre impossible entre la cystéine catalytique de NFS1 et ISCU, par exemple, par éloignement des cystéines C35 et C104 vis-àvis de la cystéine catalytique de NFS1. A l'aide du test d'alkylation avec le MalP16, nous avons ensuite étudié les vitesses de réduction des persulfures de NFS1 et d'ISCU. Nous avons constaté que les vitesses de formation des persulfures de NFS1 et d'ISCU étaient plus rapides que les vitesses de réduction de ces persulfures, indiquant que la réduction des persulfures est l'étape limitante du système. Ces observations ont été confirmées par des expériences de cinétiques en cycles 201 Etude des effets de la protéine ISCU sur le complexe NFS1-ISD11 multiples réalisées à partir de mesures d'activités cystéine désulfurase. Des résultats similaires ont été obtenus avec d'autres cystéines désulfurases montrant que la réduction du persulfure est également l'étape limitante du cycle catalytique de ces enzymes (Flint 1996; Mihara et al. 2000; Behshad et al. 2004). En parallèle, nous avons montré, à l'aide des mutants C104S et C104G d'ISCU, que le persulfure d'ISCU ne contribue pas à la formation de L-alanine, ce qui indique que seul le persulfure de NFS1 participe à la formation des ions sulfures nécessaires à la synthèse d'un centre Fe/S. De plus, nous avons établi que le ralentissement de la vitesse de réduction du persulfure de NFS1 par le DTT n'est pas corrélé avec la présence d'un persulfure sur la protéine ISCU. L'ensemble de ces résultats montre que l'effet « inhibiteur » de la protéine ISCU sur l'activité cystéine désulfurase du complexe NFS1-ISD11 provient d'un ralentissement de la vitesse de réduction du persulfure de NFS1. Cet effet pourrait potentiellement s'expliquer par une diminution de l'accessibilité de la cystéine catalytique de NFS1 au solvant, probablement en raison de la formation du complexe ternaire. Figure IV. 24. Mécanisme séquentiel de formation et de réduction des persulfures du complexe NIU. Les protéines NFS1 et ISCU sont représentées de manière schématique, avec la cystéine catalytique de NFS1 et les quatre cystéines d'ISCU. (1) Formation du persulfure sur la cystéine catalytique de NFS1. Nous avons démontré que cette réaction ne nécessite pas la présence de la protéine ISCU. (2) Transfert de soufre entre NFS1 et ISCU. La flèche en pointillé représente l'attaque nucléophile d'une des cystéines d'ISCU sur le soufre terminal du persulfure de NFS1. (3) Formation d'un second persulfure sur la cystéine catalytique de NFS1. Le complexe est maintenant doublement persulfuré. (4) Réduction des persulfures. Nous avons montré que seul le persulfure de NFS1 contribue à la formation des ions sulfures. Enfin, nous avons observé, en régime stationnaire, que les vitesses initiales de réduction du persulfure de NFS1 par la L-cystéine suivent des variations linéaires pour les 202 Etude des effets de la protéine ISCU sur le complexe NFS1-ISD11 concentrations en L-cystéine inférieures à 5 mM puis décrivent ce qui ressemble à un plateau pour des concentrations plus élevées (c'est-à-dire au-delà de 250 équivalents). Les analyses avec un modèle de type Michaelis-Menten conduisent à des valeurs de l'ordre de 50 à 150 mM, incompatibles avec les valeurs déterminées par les groupes de D. Barondeau et H. Puccio, qui se situent entre 10 μM et 40 μM. De plus, des valeurs > 50 mM n'ont aucun sens physiologique étant donné que les concentrations physiologiques en L-cystéine (100 μM, (Ross-Inta et al. 2008)) sont bien inférieures. Ces résultats indiquent clairement que le modèle enzyme-substrat n'est pas valable dans ce cas. L'hypothèse la plus probable est qu'à des concentrations > 100 équivalents (de 10 à 1000 équivalents de L-cystéine ont été utilisés par Colin et al. et Tsai et al.), la L-cystéine exerce un effet inhibiteur, comme cela a été observé avec les cystéines désulfurase Slr0387 de Synechocystis sp. PCC 6803 et NifS d'E. coli (Mihara et al. 2000; Behshad et al. 2004). Notre conclusion est donc que la réduction du persulfure de NFS1 est un processus bimoléculaire, c'est-à-dire qu'il ne se forme pas de complexe enzyme-substrat entre le réducteur (DTT ou L-cystéine) et les complexes NI ou NIU. Cette conclusion est compatible avec les études réalisées par le groupe de Bollinger montrant que la réduction du persulfure de la cystéine désulfurase Slr0387 de Synechocystis sp. PCC 6803 par les thiols est un processus bimoléculaire (Behshad et al. 2004). 203 Chapitre V Etude des effets de la protéine FXN sur les complexes NFS1-ISD11 et NFS1-ISD11-ISCU Etude des effets de la protéine FXN sur les complexes NFS1-ISD11 et NFS1-ISD11-ISCU Chapitre V. Etude des effets de la protéine FXN sur les complexes NFS1-ISD11 et NFS1-ISD11-ISCU Nous venons d'étudier les effets de la protéine ISCU sur le complexe NI ; où nous avons notamment mis en évidence un transfert de soufre entre NFS1 et ISCU et démontré que la vitesse de réduction du persulfure de NFS1 est ralentie en présence d'ISCU. Nous allons maintenant nous intéresser à l'effet de la protéine FXN sur les complexes NI et NIU. Il a été montré que la protéine FXN induit une activation de l'activité cystéine désulfurase du complexe NIU mais n'a aucun effet sur le complexe NI (Tsai et al. 2010; Colin et al. 2013). Pour déterminer le mécanisme par lequel FXN active l'activité cystéine désulfurase du complexe NIU, nous allons étudier l'effet de la protéine FXN sur les réactions individuelles de formation du persulfure de NFS1, de transpersulfuration et de réduction des persulfures de NFS1 et d'ISCU grâce au test de détection des persulfures par alkylation au MalP16. Nous allons également nous intéresser à différents mutants de la protéine ISCU, avec le mutant M106I, décrit comme pouvant reproduire l'effet de la frataxine sur la biogenèse des centres Fe/S in vivo, et les mutants portant sur la cystéine cible de la persulfuration (C104S, C104G). Nous étudierons également le mutant R162A de FXN qui cible une arginine pointant vers l'extérieur de la protéine qui nous est apparue comme un acide aminé pouvant participer au mécanisme d'activation de la frataxine. Comme pour le chapitre IV, nous allons tout d'abord tenter de reproduire les résultats de l'effet de FXN avant de nous intéresser au mécanisme. A . Effets de la protéine FXN sur la formation et la réduction des persulfures dans le complexe NFS1-ISD11-ISCU Nous avons mesuré l'effet de FXN sur l'activité cystéine désulfurase des complexes NI et NIU, en dosant l'alanine générée au cours de la réaction. La Figure V. 1 montre que la protéine FXN n'a aucun effet sur l'activité cystéine désulfurase du complexe NI alors qu'elle stimule environ d'un facteur 6 l'activité cystéine désulfurase du complexe NIU. Ces résultats 209 Etude des effets de la protéine FXN sur les complexes NFS1-ISD11 et NFS1-ISD11-ISCU confirment que la protéine FXN stimule l'activité cystéine désulfurase du complexe NFS1ISD11 uniquement en présence d'ISCU. Figure V. 1. Activité cystéine désulfurase du mélange NI+F et du complexe NIUF. L'activité cystéine désulfurase de NFS1 dans les complexes NI (20μM) et NIU (20μM), avec ou sans FXN, en présence de 500 μM de L-cystéine et 1mM de DTT, a été mesurée en dosant l'alanine produit au cours du test. Pour savoir si lors de ces expériences en cycle multiple, FXN agit sur les réactions de formation et/ou de réduction des persulfures d'ISCU et de NFS1, nous avons utilisé le test d'alkylation des protéines par le MalP16 pour étudier séparément ces différentes réactions en cycle simple. A . 1 . Effets de la protéine FXN sur la formation du persulfure de NFS1 L'étude de la formation du persulfure sur NFS1 a été suivie par alkylation des protéines avec le MalP16 et analysée par spectrométrie de masse en protéine entière. A . 1 . 1 . Effets de la protéine FXN sur la formation du persulfure de NFS1 étudiés par alkylation des protéine avec le MalP16 Les complexes NI (25 μM) et NIU (25 μM) ont été incubés en présence d'un équivalent de FXN avec un excès de L-cystéine et la formation du persulfure sur NFS1 a été stoppée après 10, 20, 30 et 60 secondes de réaction. La Figure V. 2 présente les cinétiques de formation du persulfure sur la protéine NFS1 obtenues pour les complexes NI et NIU en 210 Etude des effets de la protéine FXN sur les complexes NFS1-ISD11 et NFS1-ISD11-ISCU présence de FXN, que nous avons comparé avec celles obtenues pour les complexes NI et NIU seuls. Figure V. 2. Etude de la formation du persulfure de NFS1 dans le mélange NI+F et le complexe NIUF. A. SDS-PAGE 8 % de la cinétique de formation du persulfure sur NFS1 des complexes NI, NIU et NIUF et le mélange NI+F (25 μM) en présence de 20 équivalents de L-cystéine. B. Quantification des gels SDS-PAGE en A. Les lignes noires représentent les courbes simulées avec l'équation (1) (Cf. page n° 177). Les résultats montrent des comportements similaires en absence et en présence de FXN pour les deux complexes, NI et NIU, avec une persulfuration quasi-totale de NFS1 après 10 secondes de réaction avec la L-cystéine (NFS1 +6) (Figure V. 2, A). De plus, la perte d'une seule unité SucP16 indique qu'une unique cystéine de NFS1 est persulfurée dans tous les cas, probablement la cystéine catalytique (Cf. Chapitre IV). Les gels SDS-PAGE des complexes NI et NIU incubés en présence de FXN ont été quantifiés et la réaction de formation du persulfure sur NFS1 est décrite par l'équation (1) (Cf. Chapitre IV) (Figure V. 2, B). Etant donné que les cinétiques ne sont pas résolues en dessous de 10 secondes et que la réaction est quasiment terminée à 10 secondes, nous avons déterminé des constantes de vitesse minimales de formation de NFS1-SSH (kF). Nous avons obtenu des valeurs de l'ordre de 0,2 s-1 pour les quatre conditions. De plus, ces résultats indiquent que de même que pour ISCU, FXN n'est pas requise pour la formation du persulfure de NFS1. Cependant, il n'est pas possible de déterminer si la protéine FXN a un effet ou non sur la vitesse de ces réactions. Nous avons ensuite analysé ces échantillons par spectrométrie de masse afin de déterminer la nature du persulfure formé sur la cystéine catalytique de NFS1 en présence de FXN. 211 Etude des effets de la protéine FXN sur les complexes NFS1-ISD11 et NFS1-ISD11-ISCU A . 1 . 2 . Effets de la protéine FXN sur la formation du persulfure de NFS1 étudiés par spectrométrie de masse en protéine entière Nous avons analysé les complexes NI et NIU (40 μM) incubés en présence de FXN après 3 minutes de réaction en présence de L-cystéine. Les deux échantillons ont ensuite été analysés comme décrit dans le chapitre II. Figure V. 3. Spectres de masse ESI-Q/TOF reconstitués des complexes NI (B), NIU (C) et NIUF (E) et du mélange NI+F (D). Les complexes NI et NIU (40 μM), avec ou sans FXN, sont en présence de 10 équivalents de L-cystéine. Le spectre A correspond au complexe NI en absence de L-cystéine. Les spectres de masse (Figure V. 3, D et E) montrent des profils semblables à ceux obtenus pour les complexes NI et NIU seuls (Figure V. 3, B et C). On retrouve quatre pics avec des masses de 46 321 ± 2 uma, 46 353 ± 2 uma, 46 500 ± 2 uma et 46 531 ± 2 uma pour le mélange NI+F et de 46 323 ± 2 uma, 46 354 ± 2 uma, 46 501 ± 2 uma et 46 532 ± 2 uma pour le complexe NIUF ; correspondant à NFS1 et sa forme N-gluconoylée, NFS1*, sous formes non persulfurées et mono-persulfurées. La protéine NFS1 est donc également mono- 212 Etude des effets de la protéine FXN sur les complexes NFS1-ISD11 et NFS1-ISD11-ISCU persulfurée dans le mélange NI+F et le complexe NIUF. De plus, on remarque que la quantité de formes non persulfurées est variable d'un échantillon à l'autre, entre 20 % et 40 %, et que ces quantités ne sont pas corrélées avec les résultats du test d'alkylation. L'ensemble de ces observations renforce l'idée que la présence des formes non-persulfurées ne sont pas dues à une réaction partielle mais plutôt aux conditions de préparation des échantillons et/ou aux conditions d'analyse par spectrométrie de masse. Ainsi, l'ensemble de ces résultats indique que pour chacun des complexes, NFS1 est mono-persulfurée en quelques secondes et que FXN n'est pas requise pour la formation de ce persulfure. Cependant, une étude publiée en 2013 a montré que Yfh1, l'homologue levure de FXN, stimule la fixation de la L-cystéine à Nfs1 et donc la formation du persulfure sur NFS1 (Pandey et al. 2013). Nous nous sommes donc intéressés à leur protocole pour comprendre l'origine de telles différences. Les auteurs ont réalisés des réactions avec 50 nM de complexe Nfs1-Isd11, en présence ou non d'Yfh1, et seulement 2 équivalents de L-cystéine. Nous avons donc étudié l'effet de la protéine FXN dans des conditions similaires. A . 1 . 3 . Effet de la concentration en complexe et en L-cystéine sur la formation du persulfure de NFS1 en présence de FXN Debkumar Pain et ses collaborateurs ont détecté les persulfures de Nfs1 en utilisant de la L-cystéine-[35S] comme substrat. Malheureusement, par cette méthode, on ne peut pas connaître la quantité de protéine persulfurée ; et aucune analyse supplémentaire ne permet de savoir sous quelle forme Nfs1 est persulfurée (mono- ou poly-persulfurée). Malgré cela, ils ont montré que la quantité de persulfure sur Nfs1 est plus importante en présence d'Yfh1, indépendamment de la présence d'Isu1, l'homologue levure d'ISCU. Ces résultats sont contradictoires avec ce qui a été observé chez les mammifères, où la stimulation de l'activité du complexe NFS1-ISD11 par FXN n'est observée qu'en présence de la protéine ISCU. D'ailleurs les auteurs de cette étude n'expliquent pas non plus l'effet stimulateur de la protéine Yfh1 en absence d'Isu1 et ont proposé que le système levure soit différent du système mammifère (Pandey et al. 2013). En analysant leur protocole nous avons remarqué qu'ils ont travaillé à de très faibles concentrations en protéines (50 nM environ), avec seulement 2 équivalents de L-cystéine, à 30°C pendant 15 minutes ; ce qui est très éloigné de nos conditions de travail. Nous nous 213 Etude des effets de la protéine FXN sur les complexes NFS1-ISD11 et NFS1-ISD11-ISCU sommes donc placés dans les mêmes conditions pour vérifier si les effets observés sur la vitesse de formation du persulfure de NFS1 dépendent de la concentration en complexe et de la quantité de cystéine. Figure V. 4.Etude de la formation du persulfure de NFS1 à 50nM, en présence ou non de FXN. SDS-PAGE 8 % en conditions dénaturantes (réductrices et non-réductrices) du complexe NI à 50 nM, en présence ou non de FXN, avec 2 équivalents de L-cystéine et 15 minutes d'incubation, où 100ng de NFS1 ont été déposés dans chaque puits. Les 100 ng de protéine NFS1 déposés sur le gel ont été révélés par coloration au bleu de Coomassie. La technique du western blot aurait été un choix plus judicieux ; mais la détection par l'anticorps primaire anti-NFS1 de la protéine NFS1 entièrement alkylée étant mauvaise, nous avons rapidement écarté cette option. Malgré une qualité médiocre, l'analyse SDS-PAGE montre que la très grande majorité de la protéine NFS1 est convertit sous sa forme persulfurée (NFS1 +6) après réaction avec deux équivalents de L-cystéine indépendamment de la présence de FXN (Figure V. 4). Ainsi, dans leurs conditions, nous avons obtenu des résultats différents des leurs, mais similaires aux nôtres. Plusieurs raisons pourraient expliquer ces différences, soit le système levure fonctionne de manière complètement différente, ce qui nous semble peu probable ; ou bien la méthode de marquage au 35 [S] présente des artéfacts, comme nous avons pu l'observer avec l'analyse par spectrométrie de masse, où les persulfures non protégés (non alkylés) sont potentiellement échangeables. Globalement nos résultats indiquent donc que FXN n'est pas requise pour la formation du persulfure de NFS1, mais ne nous permettent pas de dire si FXN stimule la vitesse de formation de ce persulfure. Nous nous sommes ensuite intéressés à l'impact de la protéine FXN sur la formation du deuxième persulfure du système, le persulfure d'ISCU. 214 Etude des effets de la protéine FXN sur les complexes NFS1-ISD11 et NFS1-ISD11-ISCU B . Effets de la protéine FXN sur le transfert de soufre de NFS1 vers ISCU B . 1 . Effets de la protéine FXN sur le transfert de soufre étudiés par alkylation au MalP16 Nous avons comparés les cinétiques de transfert de soufre dans les complexes NIU et NIUF (Figure V. 5). Figure V. 5. Etude du transfert de soufre entre NFS1 et ISCU dans le complexe NIUF. A. SDS-PAGE 14 % de la cinétique de formation du persulfure sur ISCU des complexes NIU et NIUF (25 μM) en présence de 20 équivalents de Lcystéine. B. Quantification des gels SDS-PAGE en A. Les lignes noires représentent les courbes simulées avec l'équation (2) (Cf. page n° 184). L'analyse SDS-PAGE révèle qu'en présence de FXN, la protéine ISCU est quasiment totalement persulfurée en seulement 10 secondes de réaction, alors qu'il faut attendre 20 minutes pour persulfurer entièrement ISCU en absence de FXN (Figure V. 5, A). Ces résultats montrent que FXN accélère la réaction de transfert de soufre entre NFS1 et ISCU. La perte d'une seule unité SucP16 indique également qu'ISCU est persulfurée sur une seule de ses cystéines. Les gels ont été quantifiés et la réaction de transfert de soufre a été modélisée par un processus unimoléculaire décrit par l'équation (2) (Figure V. 5, B, Cf. Chapitre IV). De même que pour la formation du persulfure de NFS1, la réaction de transfert n'étant pas résolue en deçà de 10 secondes, nous avons déterminé une constante minimale de 0,10 ± 0,02 s-1 pour le complexe NIUF ; à comparer à la constante de 0,0018 ± 0,0004 s-1, déterminée précédemment 215 Etude des effets de la protéine FXN sur les complexes NFS1-ISD11 et NFS1-ISD11-ISCU en absence de FXN, dans le complexe NIU. Ces valeurs indiquent que la protéine FXN stimule le transfert de soufre par un facteur d'environ 50. L'étude du transfert de soufre entre NFS1 et ISCU montre que ce transfert est également direct en présence de FXN (Figure V. 6). Figure V. 6. Etude de la réaction de transfert entre NFS1 et ISCU dans le complexe NIUF. Cinétique de formation du persulfure sur ISCU (A) corrélée à la cinétique de réduction du persulfure de NFS1 (B) des complexes NIU et NIUF (25 μM). L'expérience de transfert de soufre a été réalisée sans cystéine, après l'ajout de NFS1-SSH. Enfin, nous avons cherché à identifier la cystéine cible d'ISCU lors de ce transfert de soufre entre NFS1 et ISCU en présence de FXN. Pour cela, nous avons analysé une digestion tryptique du complexe NIUF, avant et après réaction avec la L-cystéine, sur le spectromètre de masse LTQ-Orbitrap XL (Tableau V. 1). En absence de L-cystéine, aucune cystéine d'ISCU n'est modifiée par un persulfure. Après 1 minute de réaction avec la L-cystéine, de même que pour le complexe NIU, on retrouve les cystéines C35 et C104 d'ISCU persulfurées ; à hauteur de 60 % pour la cystéine C104 et 2 % pour la C35 (Cf. Annexe 18 et 19). Ces valeurs sont très proches de ce que nous avions observé avec le complexe NIU (Cf. Chapitre IV), ce qui indique qu'en présence de FXN, le mécanisme de transfert de soufre entre NFS1 et ISCU est conservé ; avec la cystéine C104 d'ISCU majoritairement persulfurée. 216 Etude des effets de la protéine FXN sur les complexes NFS1-ISD11 et NFS1-ISD11-ISCU Cystéine Masses attendues NIUF sans L-cystéine NIUF avec L-cystéine Cam S-Cam (O2 )-Cam Cam S-Cam Cam S-Cam C35 1645,80356 1677,77567 1677,79336 1645,80766 ND 1645,80437 1677,7758 C61 1971,94796 2003,92007 2003,93776 1971,95049 ND 1971,95293 ND C96 955,52806 987,50017 987,51786 955,52904 ND 955,52898 ND C104 1387,67076 1419,64287 1419,66056 1387,67082 ND 1387,66973 1419,64275 Tableau V. 1. Identification de la cystéine persulfurée d'ISCU dans le complexe NIUF. Résumé des résultats obtenus après analyse des peptides des protéines NFS1, ISD11, ISCU et FXN par le spectromètre de masse LTQ-Orbitrap XL. En absence de L-cystéine, aucun persulfure n'est détecté ; alors qu'en présence de L-cystéine, les cystéines C35 et C104 d'ISCU sont persulfurées respectivement à 60 % et 2 %. Pour connaître la nature du persulfure (mono- ou poly-persulfure) d'ISCU, nous avons analysé ces échantillons par spectrométrie de masse en protéine entière. B . 2 . Effets de le protéine FXN sur le transfert de soufre étudiés par spectrométrie de masse en protéine entière Nous avons analysé les protéines après 3 minutes de réaction du complexe NIU avec la L-cystéine et en présence de la protéine FXN. Figure V. 7. Spectres de masse ESI-Q/TOF reconstitués du complexe NIUF en absence (A) ou en présence (B) de Lcystéine. Le complexe NIUF (40 μM) est en absence (A) ou en présence de 10 équivalents de L-cystéine (B). Le spectre A de la Figure V. 7 montre 5 pics avec des masses de 10 723 ± 2 uma, 14 411 ± 2 uma, 14 618 ± 2 uma, 46 324 ± 2 uma et 46 502 ± 2 uma, correspondant respectivement aux protéines ISD11, FXN79-207 (masse attendue, 14 411 Da), ISCU, NFS1 et 217 Etude des effets de la protéine FXN sur les complexes NFS1-ISD11 et NFS1-ISD11-ISCU NFS1*. En absence de L-cystéine, la protéine ISCU est présente sous une forme totalement réduite (aucun persulfure n'est détecté). En présence de L-cystéine, le spectre B de la Figure V. 7 montre que la protéine ISCU est caractérisée par 3 pics de masses différentes, à 14 617 ± 2 uma, 14 649 ± 2 uma et 14 680 ± 2 uma. Le pic majoritaire (14 649 ± 2 uma) correspond à un gain de masse de 32 Da par rapport à la masse initiale de la protéine ISCU, qui est compatible avec la forme persulfurée d'ISCU. Un pic minoritaire est également observé (14680 ± 2 uma), avec un gain de masse de 64 Da, qui concorde avec une forme doublement persulfurée. Ces résultats sont proches de ceux obtenus par alkylation des protéines avec le MalP16. Cependant, un second persulfure est également détecté sur la protéine par spectrométrie de masse en protéine entière ; alors qu'aucune bande correspondant à « ISCU +2 », soit deux persulfures présents sur deux cystéines différentes d'ISCU, n'est visible sur les gels d'alkylation. Cette différence peut s'expliquer par le fait que la spectrométrie de masse est une technique d'analyse beaucoup plus sensible que l'électrophorèse après coloration au bleu de Coomassie ; ou bien par la différence de temps de réaction du complexe NIUF avec de la L-cystéine, étant de 1 minute pour l'alkylation et de 3 minutes pour l'analyse en masse. La première hypothèse est renforcée par les analyses LTQ-Orbitrap XL de la digestion tryptique du complexe NIUF, qui a également été incubé 1 minute en présence de Lcystéine et qui montre que deux cystéines différentes d'ISCU sont persulfurées, avec une plus grande quantité de cystéine C104 persulfurée par rapport à la cystéine C35. Ainsi, le test d'alkylation nous permet d'observer une situation dominante, dans laquelle une seule cystéine d'ISCU est persulfurée ; et la spectrométrie de masse nous informe qu'une très faible quantité de la protéine ISCU existe avec une seconde cystéine persulfurée. Ces résultats montrent que de même qu'en absence de FXN, en présence de FXN la protéine ISCU est toujours majoritairement mono-persulfurée sur une seule de ses cystéines. Nous avons démontré que la vitesse de transfert de soufre entre NFS1 et ISCU est stimulée en présence de FXN. Nous avons également montré qu'en présence de FXN, aussi bien qu'en son absence, ISCU est majoritairement persulfurée sur la cystéine C104 et qu'une très faible quantité est détectée sur la cystéine C35. Nous nous sommes alors intéressés à l'effet de la frataxine sur les mutants C35S et C104S d'ISCU. 218 Etude des effets de la protéine FXN sur les complexes NFS1-ISD11 et NFS1-ISD11-ISCU B . 3 . Effets de la protéine FXN sur le transfert de soufre entre NFS1 et les mutants C35S et C104S d'ISCU Le complexe NFS1-ISD11 (25 μM) a été incubé avec un équivalent du mutant C35S ou C104S d'ISCU et en présence de FXN. La réaction a été initiée avec un excès de Lcystéine et stoppée au temps indiqués dans la Figure V. 8. Figure V. 8. Cinétique de formation du persulfure d'ISCU dans les complexes quaternaires avec les mutants C35S et C104S d'ISCU. SDS-PAGE 14 % de la cinétique de transfert de soufre des complexes NIUC35S et NIUC35SF (A) et NIUC104S et NIUC104SF (B) (25 μM) avec 20 équivalents de L-cystéine. En présence de FXN, le test d'alkylation montre que la quantité de persulfure sur les protéines ISCUC35S et ISCUC104S ne varie pas par rapport à l'état initial (Figure V. 8), ce qui suggère que FXN n'a aucun effet sur ces deux complexes ternaires. Ce résultat était attendu, car les analyses de formation des complexes par chromatographie d'exclusion de taille indiquaient que ces mutations empêchent l'interaction de FXN avec le complexe NIU (Cf. Chapitre III). De plus, lorsque que l'on mesure les activités cystéine désulfurase des complexes NIUC35S et NIUC104S, en présence ou en absence de FXN, on constate que les valeurs des vitesses initiales sont identiques à celle du complexe NIU sauvage ; et que la stimulation de l'activité cystéine désulfurase observée en présence de FXN est totalement abolit (Figure V. 9). 219 Etude des effets de la protéine FXN sur les complexes NFS1-ISD11 et NFS1-ISD11-ISCU Figure V. 9. Vitesses initiales mesurées par les activités cystéine désulfurase des complexes NIU, NIUC104S, NIUC104G en présence ou non de frataxine. Le complexe NI (20 μM) avec ISCU WT ou les mutants C104S et C104G d'ISCU, en présence ou non de FXN, a été incubé avec 500 μM de L-cystéine et 1 mM de DTT. L'ensemble de nos résultats indique donc que la protéine FXN stimule la réaction de transfert de soufre entre NFS1 et ISCU, conduisant à la formation d'un persulfure majoritairement sur la cystéine C104 d'ISCU. Nous avions montré dans le chapitre précédent que le persulfure d'ISCU n'intervenait pas dans la production globale d'ions sulfures. Nous avons donc cherché à déterminer si cette activation du transfert de soufre permet d'expliquer la stimulation de l'activité cystéine désulfurase du complexe NIU en présence de FXN. Pour répondre à cette question, nous avons décidé d'étudier l'effet de la frataxine sur les vitesses de réduction des persulfures de NFS1 et d'ISCU. C . Etude des effets de la protéine FXN sur les réactions de réduction des persulfures de NFS1 et d'ISCU C . 1 . Effet de la protéine FXN sur la réduction du persulfure de NFS1 Les complexes NI et NIU ont tout d'abord été incubés en présence de FXN avec un excès de L-cystéine afin de générer à la fois un persulfure sur NFS1 et sur ISCU. Après élimination de la L-cystéine, la réduction du persulfure de NFS1 a été initiée par l'ajout de DTT (Figure V. 10). 220 Etude des effets de la protéine FXN sur les complexes NFS1-ISD11 et NFS1-ISD11-ISCU Figure V. 10. Etude de la réduction du persulfure de NFS1 dans le mélange NI+F et le complexe NIUF. A. SDS-PAGE 8 % des cinétiques de réduction des complexes NI et NIU (25μM), en présence ou non de FXN, avec 50 équivalents de DTT. B. Quantification des gels SDS-PAGE en A. Les lignes noires représentent les courbes simulées avec l'équation (3) (Cf. page n° 191). L'analyse SDS-PAGE montre que FXN accélère la réduction du persulfure de NFS1 en présence d'ISCU (complexe NIU), mais n'a aucun effet sur le complexe NI seul (Figure V. 10, A). Les gels ont été quantifiés et la réaction de réduction du persulfure de NFS1 est décrite par l'équation (3) (Figure V. 10, B, Cf. Chapitre IV). Nous avons déterminé des constantes de réduction du persulfure de NFS1, kR1, pour les complexes NI et NIU, en présence de la protéine FXN, de 2,1 ± 0,1 M-1.s-1 et 13,0 ± 1,9 M-1.s-1, respectivement. La comparaison de ces valeurs avec celles obtenues pour les complexes NI et NIU seuls (respectivement de 2,0 ± 0,1 M-1.s-1 et 0,55 ± 0,05 M-1.s-1), montre que la protéine FXN active la vitesse de réduction du persulfure de NFS1 d'un facteur 25 environ et uniquement en présence d'ISCU, mais n'a aucun effet sur le complexe NI. Nous avions montré dans le chapitre précédent que la vitesse de réduction du persulfure de NFS1, dans le complexe NIU, ne dépendait pas du niveau de persulfuration d'ISCU. Malheureusement, en présence de FXN la transpersulfuration étant très rapide, nous ne pouvons pas, avec notre protocole, étudié l'influence du niveau de persulfuration d'ISCU sur la vitesse de réduction du persulfure de NFS1. Nous nous sommes ensuite intéressés à l'effet de la protéine FXN sur la vitesse de réduction du persulfure d'ISCU. 221 Etude des effets de la protéine FXN sur les complexes NFS1-ISD11 et NFS1-ISD11-ISCU C . 2 . Effets de la protéine FXN sur la réduction du persulfure d'ISCU La réduction du persulfure d'ISCU par le DTT a été suivie en parallèle de la réduction du persulfure de NFS1 (Figure V. 11). L'analyse SDS-PAGE montre que les vitesses de réduction des persulfures d'ISCU des complexes NIU et NIUF sont très similaires (Figure V. 11, A). Après la quantification des gels, nous avons modélisé les cinétiques en utilisant l'équation (4), correspondant à une réaction bimoléculaire (Figure V. 11, B, Cf. Chapitre IV). Nous avons obtenu une valeur de 0,29 ± 0,04 M-1.s-1 pour la constante de réduction du persulfure d'ISCU (kR2) en présence de FXN ; ce qui n'est pas significativement différent de la valeur de 0,21 ± 0,04 M-1.s-1, obtenue précédemment en absence de FXN. Ces résultats indiquent que FXN n'a pas d'effet sur la vitesse de réduction du persulfure d'ISCU. Figure V. 11. Etude de la réduction du persulfure d'ISCU dans le complexe NIUF. A. SDS-PAGE 14 % de la cinétique de réduction du persulfure d'ISCU des complexes NIU et NIUF (25 μM) avec 50 équivalents de DTT. B. Quantification des gels SDS-PAGE en A. Les lignes noires représentent les courbes simulées avec l'équation (4) (Cf. page n° 193). Ainsi, nos résultats montrent que FXN stimule à la fois la réduction du persulfure de NFS1 et le transfert de soufre entre NFS1 et ISCU, mais n'a aucun effet sur la réduction du persulfure d'ISCU (Tableau V. 2). 222 Etude des effets de la protéine FXN sur les complexes NFS1-ISD11 et NFS1-ISD11-ISCU NI NI + F NIU NIUF kF (s-1) > 0,23 ± 0,04 > 0,23 ± 0,02 > 0,26 ± 0,04 > 0,21 ± 0,01 kT (s-1) - - 0,0018 ± 0,0004 > 0,10 ± 0,02 kR1 (M-1.s-1) 2,0 ± 0,1 2,1 ± 0,1 0,55 ± 0,05 13,0 ± 1,9 kR2 (M-1.s-1) - - 0,21 ± 0,04 0,29 ± 0,04 Tableau V. 2. Résumé des constantes de vitesse calculées. Le test d'alkylation nous a permis d'étudier les cinétiques des réactions en cycle unique ; nous avons utilisé ces résultats pour analyser les réactions en cycles multiples afin de déterminer les réactions contrôlées par FXN dans ces conditions. D . Etude de la réduction du persulfure de NFS1 par mesure de l'activité cystéine désulfurase en cycle multiple Nous avons démontré, dans le chapitre précédent, que la réaction de réduction des persulfures, des complexes NI et NIU, est la réaction limitante dans des expériences en cycle multiple. Nous avons donc cherché à savoir si la réaction de réduction est toujours l'étape limitante lors de la mesure de l'activité cystéine désulfurase des complexes NI et NIU en présence de FXN. Pour cela, nous avons mesuré l'alanine générée par le mélange NI+F et le complexe NIUF (20 μM) pour des concentrations croissantes en DTT. Figure V. 12. Alanine produite au cours du temps du mélange NI + F et du complexe NIUF. Les complexes NI (A) et NIU (B), avec FXN, sont en présence de 2 mM de L-cystéine et 500 μM ou 2 mM de DTT. C. Résumé des résultats obtenus pour NI, NI+F, NIU et NIUF. Les lignes noires représentent la simulation des régressions linéaires. 223 Etude des effets de la protéine FXN sur les complexes NFS1-ISD11 et NFS1-ISD11-ISCU L'analyse des graphiques obtenus montre que l'activité cystéine désulfurase du mélange NI+F et du complexe NIUF augmente avec la concentration en DTT, ce qui indique effectivement que la réduction des persulfures (ISCU et/ou NFS1) est la réaction cinétiquement déterminante. De plus, comme nous l'avions déjà observé en absence de FXN, les simulations par régression linéaire des données expérimentales ne coupent pas l'axe des ordonnés par 0, ce qui est une indication supplémentaire que la réduction est l'étape limitante (Cf. Chapitre IV) (Figure V. 12, A et B). Ces résultats indiquent qu'en présence de FXN, la réduction des persulfures des complexes NI et NIU est également la réaction limitante par rapport à la vitesse de formation de ces persulfures. Dans le chapitre IV, nous avons également démontré que l'activité cystéine désulfurase mesurée pour les complexe NI et NIU, ne reflète que la réduction du persulfure de NFS1. En présence de FXN, les constantes de vitesse de réduction des persulfures de NFS1 et d'ISCU sont très différentes, avec une constante kR1 25 fois plus grande que kR2 (Tableau V. 2) ; ce qui signifie que l'activité cystéine désulfurase du complexe NIUF mesurée reflète aussi uniquement la réaction de réduction du persulfure de NFS1. Ainsi, en démontrant que la réduction du persulfure de NFS1 est l'étape limitante du cycle catalytique de l'enzyme, nos résultats montrent que la stimulation de l'activité cystéine désulfurase du complexe NIU en présence de la protéine FXN est due à l'activation de la vitesse de réduction du persulfure de NFS1 par FXN. Enfin, tout comme pour les complexes NI et NIU, les vitesses initiales du complexe NIUF sont linéaires jusqu'à 2 mM de L-cystéine ajoutés, ce qui indique que la réduction du persulfure de NFS1 est également un processus bimoléculaire (absence de site de fixation pour le réducteur) en présence de FXN (Figure V. 13, A) (Cf. Annexe 20). On retrouve également le phénomène d'inhibition de l'activité cystéine désulfurase de NFS1 pour de grand excès de L-cystéine (Figure V. 13, B). 224 Etude des effets de la protéine FXN sur les complexes NFS1-ISD11 et NFS1-ISD11-ISCU Figure V. 13. Réduction du persulfure de NFS1 du complexe NIUF par le L-cystéine. A et B. Les vitesses initiales des activités cystéine désulfurase ont été mesurées et calculées pour le complexe NIUF (20μM), avec des concentrations croissantes de L-cystéine. A. Les lignes noires représentent les régressions linéaires obtenues à partir de ces points. B. Les lignes continues correspondent à la reliure des points expérimentaux et les lignes en pointillé représentent les simulations des données expérimentales avec une équation du type Michaelis et Menten (Vitesse initiale = Vitesse max * [L-cys] / (KM + [Lcys])). Nous avons ensuite cherché à déterminer le mécanisme par lequel la frataxine est capable de stimuler à la fois le transfert de soufre vers ISCU et la réduction du persulfure de NFS1 par des réducteurs externes tels que le DTT. E . Etude du mécanisme d'activation par la frataxine E . 1 . Spécificité de la réduction par les réducteurs externes Dans les paragraphes précédents, nous avons montré que FXN était capable d'activer la réduction du persulfure de NFS1 de manière similaire avec le DTT et la L-cystéine. Ces résultats suggèrent que l'activation par FXN n'est pas spécifique du réducteur. Nous avons donc testé différents réducteurs afin d'évaluer cette hypothèse. Outre, le DTT et la L-cystéine, nous avons testé deux autres réducteurs à thiol, le glutathion (GSH) et le β-mercaptoéthanol (β-ME), et un réducteur non-thiol, le tris-(2-carboxyethyl)-phosphine (TCEP). Les constantes de vitesse kR1 de réduction du persulfure de NFS1 ont été mesurées pour les complexes NIU et NIUF (25 μM) à l'aide du test d'alkylation (sauf pour la L-cystéine) (Figure V. 14). 225 Etude des effets de la protéine FXN sur les complexes NFS1-ISD11 et NFS1-ISD11-ISCU Figure V. 14. Comparaison des constantes de vitesse kR1 déterminées pour les complexes NIU et NIUF, incubés avec différents réducteurs. Les cinétiques de réduction du persulfure de NFS1 des complexes NIU et NIUF (25μM) ont été réalisées avec 50 équivalents de L-cystéine, β-ME, DTT, GSH ou de TCEP. L'analyse des résultats montre que tous les réducteurs à thiols ainsi que le TCEP sont capable de réduire le persulfure de NFS1. Cependant, FXN ne semble pas capable d'activer cette réaction avec le TCEP, alors que la réduction du persulfure de NFS1 est stimulée avec tous les réducteurs à thiols (L-cystéine, β-ME, GSH et DTT). Cet effet différentiel entre réducteur à thiol et non-thiol pourrait être dû à l'encombrement stérique de ces molécules pour accéder au persulfure de NFS1. Cependant, la masse moléculaire du TCEP se situe entre celle du DTT et du GSH (Tableau V. 3). L'absence d'activation par la protéine FXN avec le TCEP ne semble donc pas liée à des différences d'encombrement stérique. De même, il ne semble pas existé de corrélation entre la taille des réducteurs à thiol et leur efficacité respective. 226 Etude des effets de la protéine FXN sur les complexes NFS1-ISD11 et NFS1-ISD11-ISCU Masse moléculaire -1 kR1 -1 -1 (g.mol ) (M .s ) β-ME 78,73 0,16 L-cystéine 121,16 7,1 DTT 154,25 12 TCEP 286,65 1,86 GSH 307,32 0,1 Tableau V. 3. Résumé des constantes de vitesse kR1 déterminées pour le complexe NIUF, pour différents réducteurs. E . 2 . Etude des activités persulfure réductase de FDX2 et GLRX5 Nous avons également testé deux protéines, FDX2 et GLRX5, deux candidats réductases impliqués dans la biogenèse des centres Fe/S. La ferrédoxine (ou FDX2) a été proposée comme réductase du persulfure de NFS1, grâce à son centre [2Fe-2S], capable de transférer des électrons (Kim et al. 2013; Yan et al. 2013). Nous avons donc étudié la réduction des persulfures de NFS1 et d'ISCU du complexe NIUF en présence de FDX2, avec ou sans ions Fe2+ (Figure V. 15). L'analyse SDS-PAGE, obtenue après l'alkylation des protéines avec le MalP16, ne montre aucune variation de la quantité d'ISCU et de NFS1 persulfurée après 15 minutes d'incubation. Nous avons également étudié la réaction de réduction avec la forme apo de la glutarédoxine 5 (ou GLRX5), qui fait partie de la famille des glutarédoxine monothiol. A la différence des glutarédoxines dithiols, les monothiols ne semblent pas posséder d'activité oxydoréductase pour la réduction des ponts disulfures, mais à notre connaissance la réduction de persulfure n'avait jamais été testée. De même, les gels obtenus ne montrent aucune évolution des bandes « ISCU +3 » et « NFS1 +6 », ce qui indique que ni le persulfure d'ISCU ni celui de NFS1 ne sont réduits par GLRX5 dans nos conditions (Figure V. 15). 227 Etude des effets de la protéine FXN sur les complexes NFS1-ISD11 et NFS1-ISD11-ISCU Figure V. 15. Réduction des persulfures de NFS1 et d'ISCU par les protéines FDX2 et GLRX5. Le complexe NIUF (20 μM) a été préalablement incubé avec 10 équivalents de L-cystéine pendant 3 minutes. Après désalage de l'échantillon, la réduction est initiée avec 1,2 équivalent de FDX2, préalablement réduite avec du dithionite, en présence ou non de 5 équivalents de Fe2+ ; ou bien avec 1,5 équivalents de GLRX5, en présence ou non de 5 équivalents de Fe2+ et 60 équivalents de GSH. L'indication « ISCU +4 (*) » correspond à FDX2 avec 4 cystéines alkylées par le MalP16, qui co-migre avec « ISCU +4 ». Ainsi, la quantification des formes persulfurées d'ISCU se fait grâce à la bande « ISCU +3 ». L'annotation « GLRX5 +2 » représente la protéine GLRX5 avec ses deux cystéines alkylées par le MalP16. L'ensemble des résultats obtenus suggère que l'activation par la protéine FXN est spécifique des réducteurs à thiol. Cette hypothèse est renforcée par le fait que la frataxine stimule également la transpersulfuration, qui peut formellement s'écrire comme une réduction du persulfure de NFS1 par l'une des cystéines d'ISCU. De plus, l'absence de corrélation entre la taille des réducteurs indique que la réduction n'est pas limitée par la diffusion des réducteurs externes vers le persulfure de NFS1 ; et donc que FXN n'influence pas cette étape. Si FXN ne favorise pas l'accès au persulfure de NFS1, il est possible qu'elle active directement la réaction de réduction en jouant sur l'état de transition, notamment par déprotonation du thiol nucléophile ; car il est connu que dans la famille des oxydoréductases à thiols, la déprotonation active significativement la réaction, la forme protonée étant beaucoup plus lente que la forme thiolate. E . 3 . Etude du mutant R162A de FXN Nous avons donc cherché un acide aminé basique dans la structure de FXN susceptible de réaliser cette réaction. Nous avons identifié l'arginine R162, car c'est un acide aminé 228 Etude des effets de la protéine FXN sur les complexes NFS1-ISD11 et NFS1-ISD11-ISCU basique orientée vers l'extérieur de la protéine et stabilisé dans cette position via une interaction « π-cation » avec le tryptophane W152 (Cf. la Figure I. 19 du Chapitre I). Sachant que le mutation du tryptophane W152 entraine une perte de l'interaction entre FXN et le complexe NIU, nous avons testé le mutant R162A de FXN. Nous avons également étudié le mutant M106I d'ISCU, dont l'homologue levure (M107I d'Isu1) semble reproduire partiellement l'effet activateur de la frataxine sur l'assemblage des centres Fe/S. Ce mutant pourrait également nous permettre d'identifier la ou les réaction(s) essentielle(s) pour l'assemblage des centres Fe/S entre la réduction par les thiols externes et la transpersulfuration. Nous avons étudié le comportement du mutant R162A de FXN lors du transfert de soufre entre NFS1 et ISCU. Figure V. 16. Etude du transfert de soufre entre NFS1 et ISCU dans le complexe NIUFR162A. A. SDS-PAGE 14 % de la cinétique de formation du persulfure sur ISCU des complexes NIUFR162A et NIUF (25 μM) en présence de 20 équivalents de L-cystéine. B. Quantification des gels SDS-PAGE en A. Les lignes noires représentent les courbes simulées avec l'équation (2) (Cf. page n° 184). Nous avons constaté que le mutant R162A de FXN active le transfert de soufre vers ISCU mais moins rapidement que la protéine sauvage, ce qui suggère que la mutation R162A altère l'activation du transfert par FXN (Figure V. 16, A). La quantification du gel et la simulation des données expérimentales avec l'équation (2) indiquent que la constante de vitesse, kT, calculée est de 0,032 ± 0,003 s-1 ; soit une valeur trois fois plus petite que la constante kT obtenue avec la protéine sauvage (0,10 ± 0,02 s-1) (Figure V. 16, B). Bien que l'effet de la mutation soit modéré, ces résultats suggèrent que l'arginine R162 participe à l'activation du transfert. 229 Etude des effets de la protéine FXN sur les complexes NFS1-ISD11 et NFS1-ISD11-ISCU F . Etude du mutant M106I d'ISCU : un homologue fonctionnel de FXN ? Comme nous l'avons évoqué plus haut, l'équipe de A. Dancis et D. Pain a montré que le mutant M107I d'Isu1 est capable de complémenter une souche de levure délétée pour le gène yfh1 en restaurant partiellement la synthèse de novo de centres Fe/S (Yoon et al. 2012; Pandey et al. 2013; Yoon et al. 2014). Nous nous sommes alors demandé si le transfert et/ou la réduction du persulfure de NFS1 sont stimulés par le mutant M106I d'ISCU de souris correspondant au mutant M107I d'Isu1 de levure. F . 1 . Etude de la réduction du persulfure de NFS1 Nous avons étudié la cinétique de réduction du persulfure de NFS1 par le DTT par des expériences d'alkylation par le MalP16 du complexe NIUM106I, préalablement persulfuré en présence de L-cystéine. Figure V. 17. Etude de la réduction du persulfure de NFS1 dans le complexe NIUM106I. A. SDS-PAGE 8 % des cinétiques de réduction du persulfure de NFS1 des complexes NIU, NIUM106I et NIUF (25 μM) avec 50 équivalents de DTT. B. Quantification des gels SDS-PAGE en A. Les lignes noires représentent les courbes simulées avec l'équation (3) (Cf.page n° 191). L'analyse SDS-PAGE montre que la cinétique de réduction du persulfure de NFS1 n'est pas stimulée avec le mutant M106I d'ISCU par rapport à la protéine sauvage (Figure V. 17, A). La quantification des gels et la simulation des données expérimentales nous indiquent que la constante de vitesse, kR1, calculée pour le complexe NIUM106I est de 0,38 ± 0,04 M-1.s-1 230 Etude des effets de la protéine FXN sur les complexes NFS1-ISD11 et NFS1-ISD11-ISCU (Figure V. 17, B). Cette valeur est légèrement plus faible que celle obtenue pour le complexe NIU d'un facteur 1,5 environ (0,55 ± 0,05 M-1.s-1, Tableau V. 2). Ces résultats indiquent donc que la mutation M106I n'active pas intrinsèquement la vitesse de réduction du persulfure de NFS1 ; il semble même qu'elle ralentisse cette réaction. F . 2 . Etude du transfert de soufre entre NFS1 et ISCUM106I Nous avons ensuite étudié l'effet de la mutation M106I d'ISCU sur le transfert de soufre entre NFS1 et ISCUM106I à l'aide du test d'alkylation. Figure V. 18. Etude du transfert de soufre entre NFS1 et ISCU dans les complexes NIUM106I et NIUM106IF. A. SDSPAGE 14 % des cinétiques de formation du persulfure d'ISCU des complexes NIU, NIUM106I, NIUF, NIUM106F (25μM) en présence de 20 équivalents de L-cystéine. B. Quantification des gels SDS-PAGE en A. Les lignes noires représentent les courbes simulées avec l'équation (2) (Cf. page n°184). L'analyse SDS-PAGE montre que les cinétiques de transfert de soufre sont en apparence très similaires entre le mutant M106I d'ISCU et la protéine sauvage, que ce soit en absence ou présence de FXN (Figure V. 18, A). Cependant, après la quantification des gels, nous avons observé que la quantité de persulfures formés sur ISCU dans les 5 premières minutes de la réaction est plus importante avec le mutant M106I et en absence de FXN uniquement. Etonnement, après 5 minutes, les cinétiques de transfert de soufre des complexes NIU et NIUM106I sont très similaires. Nous avons alors tenté d'estimer des constantes de vitesse de transfert de soufre du complexe NIUM106I pour les parties de cinétique avant et après 5 min. Nous avons obtenu des constantes de vitesses, kT, de 0,027 ± 0,007 s-1 entre 0 et 5 min et 0,0025 ± 0,0003 s-1, entre 5 min et 20 minutes de réaction (Figure V. 18, B). La 231 Etude des effets de la protéine FXN sur les complexes NFS1-ISD11 et NFS1-ISD11-ISCU valeur déterminée pour les 5 premières minutes correspond à une valeur intermédiaire à celles déterminées pour les protéines sauvages, avec et sans FXN (0,0018 ± 0,0004 s-1 et 0,10 ± 0,02 s-1). En présence de FXN, nous avons déterminé des constantes de vitesses quasiment identiques pour le mutant M106I en comparaison de la protéine sauvage (0,076 ± 0,007 s-1 et 0,10 ± 0,02 s-1 respectivement ; Figure V. 18, B). Nous venons de voir que, contrairement à la frataxine, le mutant M106I d'ISCU n'a pas effet activateur sur les vitesses de réduction du persulfure de NFS1 mais présente un effet stimulateur sur le transfert de soufre sur ISCU. Nous avons également cherché à déterminer si la mutation M106I d'ISCU influence la vitesse de réduction du persulfure d'ISCU. F . 3 . Etude de la vitesse de réduction du persulfure d'ISCUM106I Par des expériences d'alkylation, nous avons cherché à déterminer si le mutant M106I d'ISCU pouvait avoir un effet stimulateur sur la vitesse de réduction du persulfure d'ISCU. Figure V. 19. Etude de la réduction du persulfure d'ISCU dans le complexe NIUM106I. A. SDS-PAGE 14 % des cinétiques de réduction du persulfure d'ISCU des complexes NIU, NIUM106I et NIUF (25 μM) avec 50 équivalents de DTT. B. Quantification des gels SDS-PAGE en A. Les lignes noires représentent les courbes simulées avec l'équation (4) (Cf. page n° 193). L'analyse SDS-PAGE montre que le mutant M106I n'a pas d'influence sur les vitesses de réduction du persulfure d'ISCU. Ces résultats sont confirmés par l'analyse quantitative montrant que les constantes de réduction ne sont pas significativement différentes, avec un constante kR2 de 0,161 ± 0,004 M-1.s-1 pour le complexe NIUM106I. L'ensemble de ces résultats 232 Etude des effets de la protéine FXN sur les complexes NFS1-ISD11 et NFS1-ISD11-ISCU montre que le mutant M106I d'ISCU n'active pas la vitesse de réduction du persulfure d'ISCU. Ainsi, les résultats obtenus sur l'étude du mutant M106I d'ISCU sont contraires à ce qu'il a été publié par l'équipe de Dancis (Pandey et al. 2013), qui affirme démontrer que la frataxine et le mutant M107I d'Isu1 agissent sur la vitesse de formation du persulfure de NFS1. Une de leurs expériences montre que la protéine Nfs1 lie difficilement son substrat, ce qui signifie que l'enzyme aurait une faible affinité pour son substrat ; or nos résultats sur la vitesse de formation du persulfure sur NFS1 nous indiquent que l'affinité de la L-cystéine pour NFS1 doit être élevée pour former un persulfure sur la cystéine catalytique de NFS1 en quelques secondes. Cette différence d'activité entre ces cystéines désulfurases de mammifère et de levure pourrait expliquer la différence de résultats ; c'est-à-dire, que si les protéines Nfs1 et NFS1 n'ont pas la même affinité pour leur substrat, les réactions et les observations seront forcément différentes. G . Discussion - Conclusion Dans la première partie de ce chapitre, nous avons confirmé que la frataxine stimule l'activité cystéine désulfurase du complexe NFS1-ISD11 et ceci uniquement en présence de la protéine ISCU. A l'aide du test d'alkylation par le MalP16 et des analyses par spectrométrie de masse en protéine entière, nous sommes parvenus à montrer que la frataxine stimule la vitesse de réduction du persulfure de NFS1 par le DTT ainsi que la vitesse de transfert de soufre entre NFS1 et ISCU. Etant donné que les vitesses de formation du persulfure de NFS1 sont trop rapides pour être résolues avec notre test d'alkylation (réaction complète en une dizaine de secondes), nous n'avons pas pu déterminer si FXN stimule ou non cette réaction comme proposé par les équipes de D. Barondeau et A. Dancis/D. Pain. Nous avons ensuite analysé les cinétiques en cycle multiple et nous avons observé un mécanisme similaire à celui décrit dans le Chapitre IV ; i) la réduction du persulfure de NFS1 est la réaction limitante du cycle catalytique en absence et en présence de FXN et ii) le persulfure d'ISCU ne contribue pas à la production globale d'ions sulfures. Bien que nous ne puissions pas déterminer si FXN stimule également la formation du persulfure sur NFS1 avec le test d'alkylation, si tel était le cas cela n'aurait aucune influence sur les vitesses globales de production d'ions sulfures puisque que 233 Etude des effets de la protéine FXN sur les complexes NFS1-ISD11 et NFS1-ISD11-ISCU la formation du persulfure sur NFS1 n'est pas la réaction limitante du cycle catalytique de l'enzyme. Figure V. 20. Schéma proposé du mécanisme d'action de la frataxine sur le complexe NIU. Les protéines NFS1, ISCU et FXN sont représentées de manière schématique, avec la cystéine catalytique de NFS1 et les quatre cystéines d'ISCU. (1) Formation du complexe quaternaire. (2) Formation du persulfure sur la cystéine catalytique de NFS1. Nous avons démontré que cette réaction ne nécessite ni la présence d'ISCU ni celle de FXN. (3) Transfert de soufre entre NFS1 et ISCU. La flèche en pointillé représente l'attaque nucléophile d'une des cystéines d'ISCU sur le soufre terminal du persulfure de NFS1. Selon nos résultats et nos hypothèses, la cystéine d'ISCU est probablement sous la forme d'un thiolate, ce qui a pour effet d'accélérer la réaction. Un positionnement optimal des cystéines d'ISCU et de NFS1 pourrait également expliquer cette activation du transfert de soufre. (4) Formation d'un second persulfure sur la cystéine catalytique de NFS1. Le complexe est maintenant doublement persulfuré. (5) Réduction du persulfure de NFS1, qui contribue seul à la formation des ions sulfures. (5a) Transfert de soufre de NFS1 vers un réducteur à thiol (RSH), entrainant la formation d'un persulfure sur ce réducteur à thiol (RSSH). (5b) Libération des ions sulfures par réduction de l'espèce RSSH par une seconde molécule de réducteur à thiol. Cette réaction est intra-moléculaire lorsque le DTT est utilisé comme réducteur. Etonnamment, l'étude du mutant M106I, qui dans la levure est capable de contourner le rôle de la frataxine in vivo en restaurant partiellement la biogenèse des centres Fe/S, semble indiquer, que c'est le transfert, et non pas la réduction de NFS1 qui est stimulée par cette mutation. Ces résultats suggèrent donc que la persulfuration d'ISCU est une étape clé pour l'assemblage de centres Fe/S en conditions physiologiques. Nous avons également montré que la réaction de transpersulfuration est une réaction directe entre la cystéine C383 persulfurée de NFS1 et l'une des cystéines d'ISCU. De même qu'en absence de FXN, nous avons constaté que la cystéine C104 est la cystéine majoritairement persulfurée et qu'une quantité beaucoup plus faible de persulfure est trouvée 234 Etude des effets de la protéine FXN sur les complexes NFS1-ISD11 et NFS1-ISD11-ISCU sur la cystéine C35. Ces résultats montrent donc que l'activation par FXN ne modifie pas le mécanisme global du processus de transfert mais accélère cette réaction. Deuxièmement, ces résultats confirment que C35 est une cible de la transpersulfuration et pourrait donc jouer un rôle dans l'assemblage des centres Fe/S. Ces résultats posent la question du mécanisme par lequel la frataxine active ces deux réactions. Formellement le transfert peut être décrit comme une attaque nucléophile d'une des cystéines d'ISCU sur le soufre terminal du persulfure (soufre en β du carbone) ; et non pas sur le soufre en α du persulfure car cela aurait conduit à la formation d'un pont disulfure intermoléculaire entre NFS1 et ISCU ; or nous n'avons pas détecté la formation d'une telle espèce en conditions non réductrices, et surtout ISCU n'aurait pas été persulfurée par ce mécanisme. De même, pour la réduction du persulfure de NFS1 par les composés à thiol, les tests d'alkylation au MalP16 ne montrent pas de présence d'adduit DTT sur NFS1 par pont disulfure mixte entre sa cystéine catalytique et le DTT. Le transfert et la réaction de réduction correspondent donc à même type de réaction biochimique consistant en une attaque nucléophile du soufre d'une des cystéines d'ISCU, dans un cas, et d'une des fonctions thiols du DTT, dans l'autre cas, sur le soufre terminal du persulfure de NFS1 ; conduisant à la persulfuration d'ISCU et à du DTT persulfuré (Figure V. 20, réaction 5a). Notre hypothèse est donc que l'activation du transfert et de la réduction du persulfure de NFS1 par la frataxine passe par un même mécanisme. Cette hypothèse est de plus confortée par notre étude comparative de différents réducteurs, certes limitée à moins d'une dizaine de composés et d'enzymes, qui suggère tout de même que l'activation par FXN de la réduction du persulfure de NFS1 est spécifique des composés à thiol de petite taille. Les expériences réalisées avec les protéines FDX2 et GLRX5 n'ont pas permis de mettre en évidence une activité persulfure réductase de ces enzymes ; cependant, nous pouvons tout à fait imaginer que nos conditions ne sont pas optimales pour observer ce phénomène. Enfin, l'analyse cinétique en régime stationnaire, montre que la réduction est un processus bimoléculaire. Au moins deux paramètres peuvent contrôler ce type de réaction : la diffusion des réactifs les uns vers les autres et l'état de transition de la réaction. L'étude avec les différents réducteurs semble indiquer que la réaction n'est pas contrôlée par la diffusion, car il n'y a pas de corrélation entre la taille des réducteurs et leur efficacité. De plus, l'étude du mutant R162A suggère que FXN active la réaction par déprotonnation du thiol nucléophile (Cystéine d'ISCU ou réducteur externe). Un autre mécanisme pourrait également être avancé. 235 Etude des effets de la protéine FXN sur les complexes NFS1-ISD11 et NFS1-ISD11-ISCU La frataxine pourrait directement agir sur le persulfure de NFS1 en positionnant celui-ci afin de favoriser la réaction de transfert de soufre, car l'efficacité de ce type de réaction qui s'apparente aux réactions d'échange thiol/disulfure dépend de l'orientation de la liaison S-S par rapport au thiol nucléophile. Cependant cela aurait potentiellement pour effet de diminuer la mobilité de la boucle portant la cystéine catalytique C383. De plus, nous aurions dû observer une activation avec le TCEP dans ce cas. Bien que d'autres études soient nécessaires pour définitivement établir le mécanisme d'activation par la frataxine, notre modèle actuel sur la base de nos résultats, est que la frataxine active à la fois le transfert de soufre majoritairement vers la cystéine C104 d'ISCU et le transfert de soufre vers de petites molécules à thiol, en favorisant la forme thiolate du réducteur. 236 Chapitre VI Etude des mécanismes de formation d'un centre Fe/S sur la protéine ISCU Etudes des mécanismes de formation d'un centre Fe/S sur la protéine ISCU Chapitre VI. Etudes des mécanismes de formation d'un centre Fe/S sur la protéine ISCU Lors des chapitres précédents, nous avons observé la formation de deux persulfures, l'un sur NFS1 et l'autre sur ISCU, mais seul le persulfure de NFS1 semble contribuer à la production d'ions sulfures lorsqu'un thiol est utilisé comme réducteur. Nous avons donc cherché à déterminer le comportement des persulfures de NFS1 et d'ISCU en conditions de reconstitution de centres Fe/S. A . Reconstitution d'un centre Fe/S in vitro sur la protéine ISCU A . 1 . Reconstitution Fe/S en présence de DTT Bien que nous ayons montré précédemment (Cf. Chapitre IV et V) que la L-cystéine substrat de NFS1 pouvait également réduire le persulfure de NFS1, nous avons tout d'abord étudié la reconstitution de centres Fe/S dans des conditions proches de celles utilisées par les équipes de D. Barondeau et de H. Puccio, c'est-à-dire en présence de DTT (Tsai et al. 2010; Colin et al. 2013). Les expériences de reconstitution Fe/S sont réalisées sous atmosphère contrôlée en boite à gant (BAG), et la cinétique de formation des centres Fe/S est suivi parallèlement par spectroscopie UV-visible et par alkylation au MalP16. Les complexes NIU et NIUF ont été préalablement incubés avec le fer et le DTT et la réaction a été initiée par l'ajout de Lcystéine. Les résultats obtenus par spectroscopie UV-visible sont présentés dans la Figure VI. 1 et ceux obtenus par alkylation au MalP16 sont dans la Figure VI. 2. 241 Etudes des mécanismes de formation d'un centre Fe/S sur la protéine ISCU Figure VI. 1. Reconstitution des centres Fe/S sur les complexes NIU et NIUF, en présence de DTT, suivi par UVvisible. A. Exemple d'une série de spectres brutes obtenus lors du suivi par UV-visible de la reconstitution Fe/S sur ISCU dans le complexe NIUF (50 μM), en présence de 4 équivalents d'ions Fe2+ et 30 équivalents de DTT et de L-cystéine. Les flèches rouges indiquent le sens de progression observé d'un spectre à l'autre. B et C. Spectres de différences entre les formes « apo » des protéines et les spectres UV-visible obtenus au cours de la reconstitution Fe/S des complexes NIU (B) et NIUF (C) D. Cinétiques de reconstitution Fe/S obtenues grâce au suivi de l'absorbance à 456 nm. Les spectres UV-visible du mélange contenant NFS1, ISCU avec ou sans FXN (spectre rouge de la Figure VI. 1 (A)) montre deux pics majoritaires, l'un vers 280 nm correspondant à l'absorbance des protéines ; et l'autre pic, vers 420 nm correspondant à l'absorption du PLP, cofacteur de NFS1. Lors de l'ajout du fer, du DTT et de la L-cystéine, on distingue que le premier spectre, enregistré environ deux minutes et trente secondes après le début de la réaction, est déjà très différent du spectre initial. Les spectres de différences montrent tout d'abord une augmentation de l'absorbance vers 320 - 350 nm, qui correspond probablement à l'absorption du fer, qui sous une forme oxydée (Fe3+), donne une bande d'absorption large vers 320 nm (Tucker et al. 2008) et potentiellement aussi due à la formation du persulfure sur NFS1 (Behshad et al. 2009). 242 Etudes des mécanismes de formation d'un centre Fe/S sur la protéine ISCU L'absorption augmente ensuite sur quasiment l'ensemble des longueurs d'onde de manière régulière. En absence de FXN, les spectres de différence montrent une absorption très large centrée sur 400 nm qui est caractéristique des centres [4Fe-4S] ; les centres [2Fe-2S] étant généralement caractérisés par des maximums d'absorption vers 320 nm, 400 nm, 450 nm et 500 nm (Figure VI. 1 (B)) (Iannuzzi et al. 2011). En présence de FXN, les spectres sont très similaires avec une absorption très large centrée sur 400 nm, et des maximas d'absorption sont également visibles vers 420 nm, indiquant la présence de centres [4Fe-4S] (Figure VI. 1 (C)). Cependant, l'étude réalisée par spectroscopie Mössbauer par l'équipe de S. Ollagnier a permis de démontrer qu'une certaine quantité de centres [2Fe-2S] est également formé, et que la proportion de centres [4Fe-4S] augmente en présence de FXN (Colin et al. 2013). L'absorption des centres [2Fe-2S] étant moins intense que celle des centres [4Fe-4S], c'est probablement la raison pour laquelle nous n'avons pas observé de signature caractéristique des centres [2Fe-2S] dans nos spectres UV-visible. Afin de suivre la cinétique de reconstitution des centres Fe/S, nous nous sommes placés vers 460 nm (Figure VI. 1 (D)). On constate que FXN stimule la biogenèse des centres Fe/S comme ce qui avait été observé par les équipes de D. Barondeau et H. Puccio. Figure VI. 2. Reconstitution des centres Fe/S sur les complexes NIU et NIUF, en présence de DTT, suivi par alkylation au MalP16. Gels SDS-PAGE 14% en conditions non réductrices (haut) et réductrices (bas) des complexes NIU (A) et NIUF (B) (50 μM), incubés avec 4 équivalents de fer et 30 équivalents de DTT et de L-cystéine. Le suivi de la persulfuration d'ISCU montre que ce persulfure se forme très rapidement au cours de la réaction et que sa formation n'est pas corrélée à la formation des centres Fe/S ; et ceci aussi bien en présence qu'en absence de FXN. De plus, ce persulfure n'empêche pas l'assemblage de centres Fe/S contrairement à ce qui avait été avancé par le groupe de J. Cowan avec la protéine IscU bactérienne (Nuth et al. 2002). Enfin, au terme de la reconstitution, le persulfure d'ISCU est toujours présent, ce qui suggère fortement qu'il n'est pas réduit au cours de cette réaction. Ces résultats préliminaires indiquent que le persulfure 243 Etudes des mécanismes de formation d'un centre Fe/S sur la protéine ISCU d'ISCU ne semble pas être incorporé aux centres Fe/S formés sur ISCU et que les ions sulfures provient donc uniquement de la protéine NFS1. Nous avons ensuite étudié la reconstitution des centres Fe/S en absence de DTT avec uniquement du fer et de la L-cystéine. A . 2 . Reconstitution Fe/S avec la L-cystéine comme réducteur La reconstitution des centres Fe/S a été réalisée dans les mêmes conditions que précédemment mais en absence de DTT. Figure VI. 3. Reconstitution des centres Fe/S sur les complexes NIU et NIUF, en absence de DTT, suivi par UV-visible. A. Exemple d'une série de spectres brutes obtenus lors du suivi par UV-visible de la reconstitution Fe/S sur ISCU dans le complexe NIUF (50 μM), en présence de 4 équivalents d'ions Fe2+ et 30 équivalents de L-cystéine. Les flèches rouges indiquent le sens de progression observé d'un spectre à l'autre. B et C. Spectres de différences entre les formes « apo » des protéines et les spectres UV-visible obtenus au cours de la reconstitution Fe/S des complexes NIU (B) et NIUF (C) D. Cinétiques de reconstitution Fe/S obtenues grâce au suivi de l'absorbance à 456 nm. 244 Etudes des mécanismes de formation d'un centre Fe/S sur la protéine ISCU De même qu'en présence de DTT, une espèce absorbant vers 320 nm est présente dans les tous premiers temps de la réaction et pourrait correspondre soit à du Fe3+, soit au persulfure sur NFS1 (Figure VI. 3 (A)). Les spectres de différences montrent également la présence de centres [4Fe-4S] aussi bien en absence qu'en présence de FXN (Figure VI. 3 (B)). Le suivi de l'absorbance à 456 nm montre que FXN stimule la biogenèse des centres Fe/S dans ces conditions. Figure VI. 4. Reconstitution des centres Fe/S sur les complexes NIU et NIUF, en absence de DTT, suivi par alkylation au MalP16. A. Gels SDS-PAGE en conditions réductrices (haut) ou non (bas) du complexe NIUF (50 μM), incubé avec 4 équivalents de fer et 30 équivalents de L-cystéine. B. Cinétiques de reconstitution Fe/S obtenues par le suivi par spectroscopie UV-visible et par alkylation au MalP16, sur le complexe NIUF. C. Gels SDS-PAGE en conditions réductrices (haut) ou non (bas) du complexe NIU (50 μM), incubé avec 4 équivalents de fer et 30 équivalents de L-cystéine. B. Cinétiques de reconstitution Fe/S obtenues par le suivi par spectroscopie UV-visible et par alkylation au MalP16, sur le complexe NIU. Le test d'alkylation au MalP16 des complexes NIUF et NIU présenté Figure VI. 4 (A) et (C), montre l'apparition de plusieurs formes partiellement alkylées d'ISCU. La forme « ISCU + 3 » est formée très rapidement, après quelques secondes de réaction. Puis une forme « ISCU + 2 » est observée en absence et également en présence de FXN (Courbes violette et bleu claire, Figure VI. 4 (B) et (D)), avec une cinétique de formation accélérée en présence de FXN. Ces résultats suggèrent qu'en absence de DTT, plusieurs cystéines d'ISCU sont 245 Etudes des mécanismes de formation d'un centre Fe/S sur la protéine ISCU persulfurées au cours de l'assemblage des centres Fe/S. Cependant, l'analyse des réactions en conditions non-réductrices, montre la formation d'une espèce d'ISCU contenant une cystéine non alkylable et dont la cinétique de formation suit celle de l'apparition de la forme « ISCU + 2 ». Cette analyse montre donc qu'une cystéine d'ISCU est rapidement persulfurée et qu'une autre cystéine d'ISCU est oxydée avec une cinétique potentiellement corrélée à l'assemblage des centres Fe/S. Plusieurs modifications pourraient conduire à une oxydation sur une seule cystéine : un acide sulfénique (R-SOH), sulfinique (R-SO2H) ou sulfonique (R-SO3H), un sulfénamide (R-SN-) ou une S-thiolation (R-SSR'), comme par exemple, une S-cystéinylation (R-SS-Cys) car les réactions ont été réalisées en présence de L-cystéine. La formation d'acides sulfénique, sulfinique ou sulfonique est peu probable, car les réactions de reconstitution se sont déroulées sous atmosphère contrôlée où la présence d'oxygène a été minimisée au maximum. La réaction de formation de sulfénamide nécessite que la cystéine soit préalablement oxydée sous forme d'un acide sulfénique ou d'un persulfure. La formation de sulfénamide impliquerait donc que deux cystéines d'ISCU soient persulfurées au cours de la reconstitution de centres Fe/S, ce qui semble exclu d'après les expériences que nous avons réalisé précédemment (Cf. Chapitre V). Enfin, la S-thiolation pourrait être le résultat d'une réaction entre de la L-cystéine persulfurée (L-Cys-SSH), générée par réduction du persulfure de NFS1, et une des cystéines non-persulfurée d'ISCU. A . 3 . Etude du mutant M106I d'ISCU Nous avons également étudié le comportement du mutant M106I d'ISCU pour lequel nous avons montré que le transfert de soufre de NFS1 à ISCU est stimulé dans les 5 premières minutes de la réaction tandis que la vitesse de réduction du persulfure de NFS1 est identique au sauvage. La cinétique de reconstitution des centres Fe/S ne présente pas de différence avec ce mutant M106I en comparaison de la protéine sauvage. Ces résultats suggèrent que la cinétique d'assemblage est corrélée à la réduction du persulfure de NFS1 et pas à la formation du persulfure sur ISCU. 246 Etudes des mécanismes de formation d'un centre Fe/S sur la protéine ISCU Figure VI. 5. Effet du mutant M106I d'ISCU au cours de la reconstitution des centres Fe/S. Cinétiques de reconstitution Fe/S obtenues lors du suivi par spectroscopie UV-visible du complexe NIUM106I (50 μM), incubé avec 4 équivalents de fer et 30 équivalents de L-cystéine. Ainsi, ces résultats préliminaires indiquent que le persulfure d'ISCU n'est pas réduit par la L-cystéine et donc qu'il n'est pas incorporé aux centres Fe/S. En absence de DTT, une seconde cystéine est oxydée probablement par S-cystéinylation et cette oxydation semble être corrélée à la formation de centres Fe/S sur ISCU. B . Discussion - Conclusion Ces résultats préliminaires de reconstitution d'un centre Fe/S sur la protéine ISCU avec le complexe NFS1-ISD11-ISCU en présence ou non de la protéine FXN, montrent que dans nos conditions expérimentales, l'atome de soufre du persulfure d'ISCU n'est pas incorporé au sein du centre Fe/S synthétisé. Ces résultats sont cohérents avec nos résultats sur la différence de vitesse de réduction des persulfures de NFS1 et d'ISCU (Cf. Chapitre IV et V). Cependant, d'après les vitesses de réduction du persulfure d'ISCU (plus de 60 min pour une réduction totale d'ISCU) et les cinétiques de formation du centre Fe/S (entre 80 et 250 minutes pour une réaction totale selon que FXN est présente ou non), ce persulfure aurait dû être réduit. Il est donc probable que le fer présent dans le milieu réactionnel empêche cette réduction. De plus, ces résultats suggèrent que le persulfure d'ISCU est capable de lier les centres Fe/S. La réduction de ce persulfure par une réductase encore inconnue pourrait faciliter le transfert du centre Fe/S vers les protéines cibles. Une autre hypothèse serait que ce 247 Etudes des mécanismes de formation d'un centre Fe/S sur la protéine ISCU persulfure sert de relais pour le transfert de soufre vers le cytosol via le composé X exporté par la machinerie EXPORT (Cf. Chapitre d'introduction). Ces résultats sont surprenants et les hypothèses que nous formulons à ce stade ne sont étayées par aucune donnée de la littérature. En ce sens, il faut noter que dans nos conditions, les vitesses de reconstitution des centres Fe/S sur ISCU (de l'ordre d'une heure avec ou sans DTT) sont très lentes par rapport à d'autres processus biologiques tels que la synthèse protéique. De plus, en calculant la quantité de soufre généré au cours de la réaction de reconstitution en présence de la frataxine, à l'aide de la constante de réduction du persulfure de NFS1 (7 M-1.s-1) et en prenant les concentration utilisées (50 μM de protéines et 1,5 mM de L-cystéine), nous obtenons des concentrations de l'ordre de 2 mM de soufre généré en 1 heure, ce qui représente environ 40 équivalents de soufre par ISCU et donc 10 fois plus de soufre que ce qui est nécessaire pour former un centre [4Fe-4S]. Ces calculs montrent que la réaction de reconstitution n'est pas efficace dans ces conditions et nécessite probablement l'intervention d'une autre protéine, potentiellement une réductase des persulfures plus efficace que la L-cystéine qui viendrait réduire le persulfure d'ISCU ce qui aurait l'avantage de générer du soufre à proximité du site d'assemblage du centre Fe/S. Enfin, l'étude de reconstitution de centres Fe/S avec le mutant M106I d'ISCU ne montre aucune différence par rapport à la protéine sauvage. D'après Pandey et al. (Pandey et al. 2013), ce mutant d'ISCU est capable de contourner le rôle de la frataxine. Cependant, il ne semble pas y avoir d'effet sur la cinétique de reconstitution des centres Fe/S in vitro. Ces résultats sont cohérents avec l'absence d'effet de cette mutation sur la vitesse de réduction du persulfure de NFS1 et indiquent à nouveau que le persulfure d'ISCU n'intervient pas dans la reconstitution de centre Fe/S dans ces conditions. Cependant, in vivo, la biogenèse des centres Fe/S est partiellement restaurée dans des souches de levure ∆yfh1 exprimant le mutant M107I d'Isu1 (homologue du mutant M106I d'ISCU) (Pandey et al. 2013; Yoon et al. 2014). Il est donc probable qu'en conditions physiologiques, l'activation de la transpersulfuration, que nous avons observé in vitro, joue un rôle essentiel pour l'assemblage des centres Fe/S. Ces résultats confirment l'hypothèse selon laquelle un autre réducteur (enzyme ou molécule) est nécessaire pour une synthèse efficace de centres Fe/S. 248 Chapitre VII Conclusion générale Conclusion générale Chapitre VII. Conclusion Générale Depuis sa découverte dans les années 90, la frataxine (FXN) est une protéine qui suscite un très grand intérêt. Chez l'homme, cette petite protéine mitochondriale est responsable de l'ataxie de Friedreich, une maladie neurodégénérative sévère. Malgré d'intenses recherches, la fonction cellulaire de la frataxine n'est pas encore clairement déterminée. Depuis quelques années, il est établit que la frataxine est impliquée dans les premières étapes de la biogenèse des centres Fe/S, notamment par l'interaction de la protéine avec le complexe NFS1-ISD11-ISCU (NIU) et par la stimulation de l'activité cystéine désulfurase du complexe NIU (production d'ions sulfures). Pour comprendre le mécanisme par lequel la frataxine stimule l'activité cystéine désulfurase du complexe NIU, nous avons étudié séparément les réactions de formation et de réduction du persulfure de NFS1, grâce à un test de détection des persulfures basé sur des différences de migration sur gel d'électrophorèse et utilisant des composés maléimides rattachés à une chaîne peptidique de 16 acides aminés, qui induisent des changements visibles sur gel. Ainsi, nous avons démontré qu'un persulfure se forme sur la cystéine catalytique de NFS1 et que ni ISCU, ni la frataxine ne sont requises pour cette réaction. Nous avons mis en évidence un transfert de soufre direct entre NFS1 et ISCU, qui conduit à l'accumulation d'un persulfure sur la cystéine C104 d'ISCU et à une plus petite quantité sur la cystéine C35. L'étude du mutant C35S montrant que le transfert de soufre sur la cystéine C104 est bloqué, nous a conduits à formuler l'hypothèse que la cystéine C35 d'ISCU pourrait être un relais pour la persulfuration de la cystéine C104. Cependant, nous n'avons pas pu valider ce modèle avec l'étude du mutant C104S, qui ne montre pas d'accumulation de persulfure sur la cystéine C35 ; potentiellement car cette mutation altère localement la structure d'ISCU et empêche le transfert sur la cystéine C35. Il serait intéressant par la suite de réaliser des études par cinétiques rapides afin de déterminer si la cystéine C35 d'ISCU est la cible primaire du transfert de soufre ou si les deux cystéines C104 et C35 sont capables de recevoir directement le soufre provenant du persulfure de NFS1. Les deux découvertes importantes de ces travaux ont été de montrer que la frataxine accélère directement deux réactions : le transfert de soufre entre NFS1 et ISCU et la réduction du persulfure de NFS1 par des réducteurs externes à thiol. Nous avons également pu corréler 253 Conclusion générale la stimulation de la réduction du persulfure de NFS1 avec une stimulation de l'assemblage des centres Fe/S. Etonnamment, nous avons constaté que le persulfure d'ISCU ne contribue pas à l'activité cystéine désulfurase et qu'il n'est pas non plus incorporé au sein du centre Fe/S, que ce soit en présence ou en absence de FXN ; ce qui soulève la question du rôle du persulfure d'ISCU dans la biogenèse des centres Fe/S. L'étude du mutant M106I d'ISCU, qui est capable de restaurer partiellement la biogenèse des centres Fe/S in vivo et en absence de frataxine, montre une activation de la transpersulfuration dans les premières minutes de la réaction ; ce qui laisse penser que le persulfure d'ISCU est indispensable pour la synthèse d'un centre Fe/S. De plus, les expériences de reconstitution que nous avons menées montrent que l'assemblage des centres Fe/S via la réduction du persulfure de NFS1 par la L-cystéine ou le DTT est très lent, ce qui suggère que ces réducteurs ne seraient pas suffisamment efficaces pour permettre l'assemblage des centres Fe/S dans un contexte physiologique. Ces observations amènent une nouvelle question, existe-il une réductase efficace du persulfure d'ISCU ou de NFS1 qui pourrait permettre l'assemblage des centres Fe/S ? Nous avons abordé cette question en étudiant les activités persulfure réductase de deux protéines candidats, GLRX5 et FDX2. Malheureusement, nous n'avons pas détecté d'activité avec ces enzymes. Cependant, il a été montré avec le système bactérien, que CyaY en se liant à IscS était capable de déplacer la ferrédoxine fixée à IscS (Kim et al. 2013), il est donc possible que la présence d'une quantité stoechiométrique de frataxine dans notre système soit de nature à bloquer l'accès de NFS1 à FDX2. Il serait donc intéressant par la suite d'étudier des mélanges contenant NFS1-ISD11, ISCU, FXN et FDX2 dans différentes proportions. En l'absence de données sur le rôle du persulfure d'ISCU, nos résultats ne permettent donc pas d'exclure un mécanisme de biosynthèse passant par la réduction du persulfure d'ISCU. Dans ce contexte, quel serait alors le rôle de l'activation de la réduction du persulfure de NFS1 par les thiols externes ? Une hypothèse qu'il serait intéressant d'évaluer est celle de la production de L-cystéine et de GSH (deux réducteurs physiologiques potentiels) persulfurés (L-CysSSH et GSSH) qui pourraient être des transporteurs de persulfure afin notamment d'alimenter la machinerie cytosolique CIA. En d'autres termes ces molécules pourraient correspondre au composé X exporté par le transporteur transmembranaire ABCB7 vers le cytosol (Schaedler et al. 2014). Enfin, il faut noter que le rôle de la frataxine dans l'activation du transfert de soufre entre NFS1 et ISCU pourrait s'apparenter à celui de SufE dans le système d'assemblage SUF, qui permet le transfert de soufre de SufS vers le complexe 254 Conclusion générale d'assemblage SufBCD. Dans ce système, SufE stimule à la fois la formation du persulfure sur la cystéine désulfurase SufS (qui est l'étape limitante du cycle catalytique des cystéines désulfurases de type II à la différence de celles de types I telles que NFS1) et, via son unique résidu cystéine, le transfert de soufre vers le complexe d'échafaudage SufBCD (Loiseau et al. 2003; Goldsmith-Fischman et al. 2004; Layer et al. 2007). Malgré des fonctionnements très différents, l'un stimulant la formation du persulfure (SufE) et l'autre sa réduction (FXN), les rôles physiologiques de ces deux protéines semblent être assez proches en permettant un transfert de soufre vers le site d'assemblage des centres Fe/S. D'un point de vue mécanistique, les réactions de transfert et de réduction stimulées par la frataxine sont très similaires, avec l'attaque nucléophile d'un thiol (cystéine d'ISCU ou réducteurs externes) sur un persulfure conduisant à la persulfuration du thiol nucléophile. L'ensemble des résultats indiquent donc que la frataxine agit comme un « stimulateur » des réactions de réduction de persulfure par un thiol. Ce type de réaction s'apparente aux réactions d'échange (ou réduction) de pont disulfures par les thiols qui sont catalysées par des oxydoréductases telles que les thiorédoxines (Trx) et les glutarédoxines (Grx). Mais à la différence des Trx et des Grx, la frataxine ne possède pas de cystéine catalytique pour catalyser cette réaction. En nous inspirant du mécanisme de ces enzymes et de celui des péroxydases, nous avons avancé un modèle dans lequel la frataxine augmente le caractère nucléophile du thiol du réducteur par déprotonation de ce thiol en thiolate. L'étude du mutant R162A de FXN, qui pointe vers l'extérieur de FXN et montre une diminution de l'activation du transfert de soufre d'un facteur 4, suggère que l'activation par déprotonation par l'intermédiaire de l'arginine R162 de FXN est un mécanisme à envisager pour de futures études. Mais une réponse définitive à cette question pourrait être apportée par la résolution d'une structure cristallographique par diffraction des rayons X ou par RMN. Au final, même si nos résultats apportent un éclairage nouveau sur le rôle de la frataxine mammifère dans l'assemblage des centres Fe/S, ils ne permettent pas de résoudre le paradoxe entre CyaY qui semble inhiber cet assemblage et FXN qui le stimule. Les effets opposés de ces deux frataxines sont étonnant étant donné le niveau de conservation de leurs séquences et de leurs structures. Cependant, à la différence d'ISCU mammifère que nous trouvons mono-persulfurée, la protéine IscU procaryote a été trouvée poly-persulfurée en présence de la cystéine désulfurase IscS (Smith et al. 2001; Smith et al. 2005). De plus, l'activité cystéine désulfurase d'IscS est environ 5 fois supérieure à celle de NFS1. Le rôle de CyaY pourrait donc être d'atténuer l'activité cystéine désulfurase d'IscS pour éviter ces poly- 255 Conclusion générale persulfurations. Cependant, ces deux fonctions, stimulateur et atténuateur de transfert et de réduction, sont difficilement compatibles avec le mécanisme que nous décrivons pour FXN mammifère. Il serait intéressant par la suite, d'évaluer l'effet de CyaY sur les réactions de transfert et de réduction de persulfure d'IscS ; car cela n'a jamais été clairement étudié. 256 Références bibliographiques Références Bibliographiques Références Bibliographiques Adam, A. C., C. Bornhovd, H. Prokisch, W. Neupert and K. Hell (2006). "The Nfs1 interacting protein Isd11 has an essential role in Fe/S cluster biogenesis in mitochondria." EMBO J 25(1): 174-83. Adamec, J., F. Rusnak, W. G. Owen, S. Naylor, L. M. Benson, A. M. Gacy and G. Isaya (2000). "Iron-dependent self-assembly of recombinant yeast frataxin: implications for Friedreich ataxia." Am J Hum Genet 67(3): 549-62. Adinolfi, S., C. Iannuzzi, F. Prischi, C. Pastore, S. Iametti, S. R. Martin, F. Bonomi and A. Pastore (2009). "Bacterial frataxin CyaY is the gatekeeper of iron-sulfur cluster formation catalyzed by IscS." Nat Struct Mol Biol 16(4): 390-6. Adinolfi, S., F. Rizzo, L. Masino, M. Nair, S. R. Martin, A. Pastore and P. A. Temussi (2004). "Bacterial IscU is a well folded and functional single domain protein." Eur J Biochem 271(11): 2093-100. Adinolfi, S., M. Trifuoggi, A. S. Politou, S. Martin and A. Pastore (2002). "A structural approach to understanding the iron-binding properties of phylogenetically different frataxins." Hum Mol Genet 11(16): 1865-77. Agar, J. N., C. Krebs, J. Frazzon, B. H. Huynh, D. R. Dean and M. K. Johnson (2000). "IscU as a scaffold for iron-sulfur cluster biosynthesis: sequential assembly of [2Fe-2S] and [4Fe-4S] clusters in IscU." Biochemistry 39(27): 7856-62. Aloria, K., B. Schilke, A. Andrew and E. A. Craig (2004). "Iron-induced oligomerization of yeast frataxin homologue Yfh1 is dispensable in vivo." EMBO Rep 5(11): 1096-101. Amela, I., P. Delicado, A. Gomez, E. Querol and J. Cedano (2013). "A dynamic model of the proteins that form the initial iron-sulfur cluster biogenesis machinery in yeast mitochondria." Protein J 32(3): 183-96. Andrew, A. J., R. Dutkiewicz, H. Knieszner, E. A. Craig and J. Marszalek (2006). "Characterization of the interaction between the J-protein Jac1p and the scaffold for Fe-S cluster biogenesis, Isu1p." J Biol Chem 281(21): 14580-7. Atta, M., S. Arragain, M. Fontecave, E. Mulliez, J. F. Hunt, J. D. Luff and F. Forouhar (2012). "The methylthiolation reaction mediated by the Radical-SAM enzymes." Biochim Biophys Acta 1824(11): 1223-30. Atta, M., E. Mulliez, S. Arragain, F. Forouhar, J. F. Hunt and M. Fontecave (2010). "SAdenosylmethionine-dependent radical-based modification of biological macromolecules." Curr Opin Struct Biol 20(6): 684-92. Balk, J., D. J. Aguilar Netz, K. Tepper, A. J. Pierik and R. Lill (2005). "The essential WD40 protein Cia1 is involved in a late step of cytosolic and nuclear iron-sulfur protein assembly." Mol Cell Biol 25(24): 10833-41. Balk, J., A. J. Pierik, D. J. Netz, U. Muhlenhoff and R. Lill (2004). "The hydrogenase-like Nar1p is essential for maturation of cytosolic and nuclear iron-sulphur proteins." EMBO J 23(10): 2105-15. Bedekovics, T., G. B. Gajdos, G. Kispal and G. Isaya (2007). "Partial conservation of functions between eukaryotic frataxin and the Escherichia coli frataxin homolog CyaY." FEMS Yeast Res 7(8): 1276-84. Bednar, R. A. (1990). "Reactivity and pH dependence of thiol conjugation to Nethylmaleimide: detection of a conformational change in chalcone isomerase." Biochemistry 29(15): 3684-90. 261 Références Bibliographiques Behshad, E. and J. M. Bollinger, Jr. (2009). "Kinetic analysis of cysteine desulfurase CD0387 from Synechocystis sp. PCC 6803: formation of the persulfide intermediate." Biochemistry 48(50): 12014-23. Behshad, E., S. E. Parkin and J. M. Bollinger, Jr. (2004). "Mechanism of cysteine desulfurase Slr0387 from Synechocystis sp. PCC 6803: kinetic analysis of cleavage of the persulfide intermediate by chemical reductants." Biochemistry 43(38): 12220-6. Beilschmidt, L. K. and H. M. Puccio (2014). "Mammalian Fe-S cluster biogenesis and its implication in disease." Biochimie 100: 48-60. Beinert, H. and R. H. Sands (1960). "Studies on succinic and DPNH dehydrogenase preparation by paramagnetic resonance (EPR) spectroscopy." Biochem Biophys Res Commun. Bencze, K. Z., K. C. Kondapalli, J. D. Cook, S. McMahon, C. Millan-Pacheco, N. Pastor and T. L. Stemmler (2006). "The structure and function of frataxin." Crit Rev Biochem Mol Biol 41(5): 269-91. Berkovitch, F., Y. Nicolet, J. T. Wan, J. T. Jarrett and C. L. Drennan (2004). "Crystal structure of biotin synthase, an S-adenosylmethionine-dependent radical enzyme." Science 303(5654): 76-9. Bertani, G. (1951). "Studies on lysogenesis. I. The mode of phage liberation by lysogenic Escherichia coli." J Bacteriol 62(3): 293-300. Biederbick, A., O. Stehling, R. Rosser, B. Niggemeyer, Y. Nakai, H. P. Elsasser and R. Lill (2006). "Role of human mitochondrial Nfs1 in cytosolic iron-sulfur protein biogenesis and iron regulation." Mol Cell Biol 26(15): 5675-87. Boal, A. K., E. Yavin, O. A. Lukianova, V. L. O'Shea, S. S. David and J. K. Barton (2005). "DNA-bound redox activity of DNA repair glycosylases containing [4Fe-4S] clusters." Biochemistry 44(23): 8397-407. Bonomi, F., S. Iametti, A. Morleo, D. Ta and L. E. Vickery (2008). "Studies on the mechanism of catalysis of iron-sulfur cluster transfer from IscU[2Fe2S] by HscA/HscB chaperones." Biochemistry 47(48): 12795-801. Bradford, M. M. (1976). "A rapid and sensitive method for the quantitation of microgram quantities of protein utilizing the principle of protein-dye binding." Anal Biochem 72: 248-54. Branda, S. S., P. Cavadini, J. Adamec, F. Kalousek, F. Taroni and G. Isaya (1999). "Yeast and human frataxin are processed to mature form in two sequential steps by the mitochondrial processing peptidase." J Biol Chem 274(32): 22763-9. Brereton, P. S., R. E. Duderstadt, C. R. Staples, M. K. Johnson and M. W. Adams (1999). "Effect of serinate ligation at each of the iron sites of the [Fe4S4] cluster of Pyrococcus furiosus ferredoxin on the redox, spectroscopic, and biological properties." Biochemistry 38(32): 10594-605. Bridwell-Rabb, J., N. G. Fox, C. L. Tsai, A. M. Winn and D. P. Barondeau (2014). "Human Frataxin Activates Fe-S Cluster Biosynthesis by Facilitating Sulfur Transfer Chemistry." Biochemistry. Bridwell-Rabb, J., C. Iannuzzi, A. Pastore and D. P. Barondeau (2012). "Effector role reversal during evolution: the case of frataxin in Fe-S cluster biosynthesis." Biochemistry 51(12): 2506-14. Bridwell-Rabb, J., A. M. Winn and D. P. Barondeau (2011). "Structure-function analysis of Friedreich's ataxia mutants reveals determinants of frataxin binding and activation of the Fe-S assembly complex." Biochemistry 50(33): 7265-74. Bulteau, A. L., H. A. O'Neill, M. C. Kennedy, M. Ikeda-Saito, G. Isaya and L. I. Szweda (2004). "Frataxin acts as an iron chaperone protein to modulate mitochondrial aconitase activity." Science 305(5681): 242-5. 262 Références Bibliographiques Bych, K., S. Kerscher, D. J. Netz, A. J. Pierik, K. Zwicker, M. A. Huynen, R. Lill, U. Brandt and J. Balk (2008). "The iron-sulphur protein Ind1 is required for effective complex I assembly." EMBO J 27(12): 1736-46. Cai, K., R. O. Frederick, J. H. Kim, N. M. Reinen, M. Tonelli and J. L. Markley (2013). "Human mitochondrial chaperone (mtHSP70) and cysteine desulfurase (NFS1) bind preferentially to the disordered conformation, whereas co-chaperone (HSC20) binds to the structured conformation of the iron-sulfur cluster scaffold protein (ISCU)." J Biol Chem 288(40): 28755-70. Calzolai, L., C. M. Gorst, Z. H. Zhao, Q. Teng, M. W. Adams and G. N. La Mar (1995). "1H NMR investigation of the electronic and molecular structure of the four-iron cluster ferredoxin from the hyperthermophile Pyrococcus furiosus. Identification of Asp 14 as a cluster ligand in each of the four redox states." Biochemistry 34(36): 11373-84. Cameron, J. M., A. Janer, V. Levandovskiy, N. Mackay, T. A. Rouault, W. H. Tong, I. Ogilvie, E. A. Shoubridge and B. H. Robinson (2011). "Mutations in iron-sulfur cluster scaffold genes NFU1 and BOLA3 cause a fatal deficiency of multiple respiratory chain and 2-oxoacid dehydrogenase enzymes." Am J Hum Genet 89(4): 486-95. Campanella, A., G. Isaya, H. A. O'Neill, P. Santambrogio, A. Cozzi, P. Arosio and S. Levi (2004). "The expression of human mitochondrial ferritin rescues respiratory function in frataxin-deficient yeast." Hum Mol Genet 13(19): 2279-88. Campuzano, V., L. Montermini, Y. Lutz, L. Cova, C. Hindelang, S. Jiralerspong, Y. Trottier, S. J. Kish, B. Faucheux, P. Trouillas, F. J. Authier, A. Durr, J. L. Mandel, A. Vescovi, M. Pandolfo and M. Koenig (1997). "Frataxin is reduced in Friedreich ataxia patients and is associated with mitochondrial membranes." Hum Mol Genet 6(11): 1771-80. Campuzano, V., L. Montermini, M. D. Molto, L. Pianese, M. Cossee, F. Cavalcanti, E. Monros, F. Rodius, F. Duclos, A. Monticelli, F. Zara, J. Canizares, H. Koutnikova, S. I. Bidichandani, C. Gellera, A. Brice, P. Trouillas, G. De Michele, A. Filla, R. De Frutos, F. Palau, P. I. Patel, S. Di Donato, J. L. Mandel, S. Cocozza, M. Koenig and M. Pandolfo (1996). "Friedreich's ataxia: autosomal recessive disease caused by an intronic GAA triplet repeat expansion." Science 271(5254): 1423-7. Canal, F. (2007). "Rôle de la protéine Nfs1 dans la biosynthèse des centres fer-soufre dans les cellules de mammifères." Thèse de Doctorat. Cavadini, P., G. Biasiotto, M. Poli, S. Levi, R. Verardi, I. Zanella, M. Derosas, R. Ingrassia, M. Corrado and P. Arosio (2007). "RNA silencing of the mitochondrial ABCB7 transporter in HeLa cells causes an iron-deficient phenotype with mitochondrial iron overload." Blood 109(8): 3552-9. Chamberlain, S., J. Shaw, A. Rowland, J. Wallis, S. South, Y. Nakamura, A. von Gabain, M. Farrall and R. Williamson (1988). "Mapping of mutation causing Friedreich's ataxia to human chromosome 9." Nature 334(6179): 248-50. Chandramouli, K., M. C. Unciuleac, S. Naik, D. R. Dean, B. H. Huynh and M. K. Johnson (2007). "Formation and properties of [4Fe-4S] clusters on the IscU scaffold protein." Biochemistry 46(23): 6804-11. Chen, O. S., S. Hemenway and J. Kaplan (2002). "Inhibition of Fe-S cluster biosynthesis decreases mitochondrial iron export: evidence that Yfh1p affects Fe-S cluster synthesis." Proc Natl Acad Sci U S A 99(19): 12321-6. Cho, S. J., M. G. Lee, J. K. Yang, J. Y. Lee, H. K. Song and S. W. Suh (2000). "Crystal structure of Escherichia coli CyaY protein reveals a previously unidentified fold for the evolutionarily conserved frataxin family." Proc Natl Acad Sci U S A 97(16): 89327. 263 Références Bibliographiques Ciesielski, S. J., B. A. Schilke, J. Osipiuk, L. Bigelow, R. Mulligan, J. Majewska, A. Joachimiak, J. Marszalek, E. A. Craig and R. Dutkiewicz (2012). "Interaction of Jprotein co-chaperone Jac1 with Fe-S scaffold Isu is indispensable in vivo and conserved in evolution." J Mol Biol 417(1-2): 1-12. Colin, F., A. Martelli, M. Clemancey, J. M. Latour, S. Gambarelli, L. Zeppieri, C. Birck, A. Page, H. Puccio and S. Ollagnier de Choudens (2013). "Mammalian frataxin controls sulfur production and iron entry during de novo Fe4S4 cluster assembly." J Am Chem Soc 135(2): 733-40. Condo, I., N. Ventura, F. Malisan, B. Tomassini and R. Testi (2006). "A pool of extramitochondrial frataxin that promotes cell survival." J Biol Chem 281(24): 167506. Cook, J. D., K. Z. Bencze, A. D. Jankovic, A. K. Crater, C. N. Busch, P. B. Bradley, A. J. Stemmler, M. R. Spaller and T. L. Stemmler (2006). "Monomeric yeast frataxin is an iron-binding protein." Biochemistry 45(25): 7767-77. Cunningham, R. P., H. Asahara, J. F. Bank, C. P. Scholes, J. C. Salerno, K. Surerus, E. Munck, J. McCracken, J. Peisach and M. H. Emptage (1989). "Endonuclease III is an iron-sulfur protein." Biochemistry 28(10): 4450-5. Cupp-Vickery, J. R., H. Urbina and L. E. Vickery (2003). "Crystal structure of IscS, a cysteine desulfurase from Escherichia coli." J Mol Biol 330(5): 1049-59. Dai, Y. and F. W. Outten (2012). "The E. coli SufS-SufE sulfur transfer system is more resistant to oxidative stress than IscS-IscU." FEBS Lett 586(22): 4016-22. Dai, Z., M. Tonelli and J. L. Markley (2012). "Metamorphic protein IscU changes conformation by cis-trans isomerizations of two peptidyl-prolyl peptide bonds." Biochemistry 51(48): 9595-602. DerVartanian, D. V., W. H. Orme-Johnson, R. E. Hansen and H. Beinert (1967). "Identification of sulfur as component of the EPR signal at g equals 1.94 by isotopic substitution." Biochem Biophys Res Commun 26(5): 569-76. Dhe-Paganon, S., R. Shigeta, Y. I. Chi, M. Ristow and S. E. Shoelson (2000). "Crystal structure of human frataxin." J Biol Chem 275(40): 30753-6. Ding, H., J. Yang, L. C. Coleman and S. Yeung (2007). "Distinct iron binding property of two putative iron donors for the iron-sulfur cluster assembly: IscA and the bacterial frataxin ortholog CyaY under physiological and oxidative stress conditions." J Biol Chem 282(11): 7997-8004. Dobritzsch, D., G. Schneider, K. D. Schnackerz and Y. Lindqvist (2001). "Crystal structure of dihydropyrimidine dehydrogenase, a major determinant of the pharmacokinetics of the anti-cancer drug 5-fluorouracil." EMBO J 20(4): 650-60. Duby, G., F. Foury, A. Ramazzotti, J. Herrmann and T. Lutz (2002). "A non-essential function for yeast frataxin in iron-sulfur cluster assembly." Hum Mol Genet 11(21): 2635-43. Dutkiewicz, R., B. Schilke, S. Cheng, H. Knieszner, E. A. Craig and J. Marszalek (2004). "Sequence-specific interaction between mitochondrial Fe-S scaffold protein Isu and Hsp70 Ssq1 is essential for their in vivo function." J Biol Chem 279(28): 29167-74. Dutkiewicz, R., B. Schilke, H. Knieszner, W. Walter, E. A. Craig and J. Marszalek (2003). "Ssq1, a mitochondrial Hsp70 involved in iron-sulfur (Fe/S) center biogenesis. Similarities to and differences from its bacterial counterpart." J Biol Chem 278(32): 29719-27. Eliot, A. C. and J. F. Kirsch (2004). "Pyridoxal phosphate enzymes: mechanistic, structural, and evolutionary considerations." Annu Rev Biochem 73: 383-415. 264 Références Bibliographiques Ferecatu, I., S. Goncalves, M. P. Golinelli-Cohen, M. Clemancey, A. Martelli, S. Riquier, E. Guittet, J. M. Latour, H. Puccio, J. C. Drapier, E. Lescop and C. Bouton (2014). "The Diabetes Drug Target MitoNEET Governs a Novel Trafficking Pathway to Rebuild an Fe-S Cluster into Cytosolic Aconitase/Iron Regulatory Protein 1." J Biol Chem. Flint, D. H. (1996). "Escherichia coli contains a protein that is homologous in function and Nterminal sequence to the protein encoded by the nifS gene of Azotobacter vinelandii and that can participate in the synthesis of the Fe-S cluster of dihydroxy-acid dehydratase." J Biol Chem 271(27): 16068-74. Fontecave, M. and S. Ollagnier-de-Choudens (2008). "Iron-sulfur cluster biosynthesis in bacteria: Mechanisms of cluster assembly and transfer." Arch Biochem Biophys 474(2): 226-37. Foury, F., A. Pastore and M. Trincal (2007). "Acidic residues of yeast frataxin have an essential role in Fe-S cluster assembly." EMBO Rep 8(2): 194-9. Fujii, T., M. Maeda, H. Mihara, T. Kurihara, N. Esaki and Y. Hata (2000). "Structure of a NifS homologue: X-ray structure analysis of CsdB, an Escherichia coli counterpart of mammalian selenocysteine lyase." Biochemistry 39(6): 1263-73. Fuzery, A. K., J. J. Oh, D. T. Ta, L. E. Vickery and J. L. Markley (2011). "Three hydrophobic amino acids in Escherichia coli HscB make the greatest contribution to the stability of the HscB-IscU complex." BMC Biochem 12: 3. Fuzery, A. K., M. Tonelli, D. T. Ta, G. Cornilescu, L. E. Vickery and J. L. Markley (2008). "Solution structure of the iron-sulfur cluster cochaperone HscB and its binding surface for the iron-sulfur assembly scaffold protein IscU." Biochemistry 47(36): 9394-404. Gakh, O., S. Park, G. Liu, L. Macomber, J. A. Imlay, G. C. Ferreira and G. Isaya (2006). "Mitochondrial iron detoxification is a primary function of frataxin that limits oxidative damage and preserves cell longevity." Hum Mol Genet 15(3): 467-79. Genereux, J. C. and J. K. Barton (2010). "Mechanisms for DNA charge transport." Chem Rev 110(3): 1642-62. Geoghegan, K. F., H. B. Dixon, P. J. Rosner, L. R. Hoth, A. J. Lanzetti, K. A. Borzilleri, E. S. Marr, L. H. Pezzullo, L. B. Martin, P. K. LeMotte, A. S. McColl, A. V. Kamath and J. G. Stroh (1999). "Spontaneous alpha-N-6-phosphogluconoylation of a "His tag" in Escherichia coli: the cause of extra mass of 258 or 178 Da in fusion proteins." Anal Biochem 267(1): 169-84. Georgiadis, M. M., H. Komiya, P. Chakrabarti, D. Woo, J. J. Kornuc and D. C. Rees (1992). "Crystallographic structure of the nitrogenase iron protein from Azotobacter vinelandii." Science 257(5077): 1653-9. Gerber, J., U. Muhlenhoff and R. Lill (2003). "An interaction between frataxin and Isu1/Nfs1 that is crucial for Fe/S cluster synthesis on Isu1." EMBO Rep 4(9): 906-11. Gibson, T. J., E. V. Koonin, G. Musco, A. Pastore and P. Bork (1996). "Friedreich's ataxia protein: phylogenetic evidence for mitochondrial dysfunction." Trends Neurosci 19(11): 465-8. Goffeau, A., B. G. Barrell, H. Bussey, R. W. Davis, B. Dujon, H. Feldmann, F. Galibert, J. D. Hoheisel, C. Jacq, M. Johnston, E. J. Louis, H. W. Mewes, Y. Murakami, P. Philippsen, H. Tettelin and S. G. Oliver (1996). "Life with 6000 genes." Science 274(5287): 546, 563-7. Goldsmith-Fischman, S., A. Kuzin, W. C. Edstrom, J. Benach, R. Shastry, R. Xiao, T. B. Acton, B. Honig, G. T. Montelione and J. F. Hunt (2004). "The SufE sulfur-acceptor protein contains a conserved core structure that mediates interdomain interactions in a variety of redox protein complexes." J Mol Biol 344(2): 549-65. 265 Références Bibliographiques Grodick, M. A., H. M. Segal, T. J. Zwang and J. K. Barton (2014). "DNA-mediated signaling by proteins with 4Fe-4S clusters is necessary for genomic integrity." J Am Chem Soc 136(17): 6470-8. He, Y., S. L. Alam, S. V. Proteasa, Y. Zhang, E. Lesuisse, A. Dancis and T. L. Stemmler (2004). "Yeast frataxin solution structure, iron binding, and ferrochelatase interaction." Biochemistry 43(51): 16254-62. Hoff, K. G., J. R. Cupp-Vickery and L. E. Vickery (2003). "Contributions of the LPPVK motif of the iron-sulfur template protein IscU to interactions with the Hsc66-Hsc20 chaperone system." J Biol Chem 278(39): 37582-9. Hoff, K. G., J. J. Silberg and L. E. Vickery (2000). "Interaction of the iron-sulfur cluster assembly protein IscU with the Hsc66/Hsc20 molecular chaperone system of Escherichia coli." Proc Natl Acad Sci U S A 97(14): 7790-5. Hoff, K. G., D. T. Ta, T. L. Tapley, J. J. Silberg and L. E. Vickery (2002). "Hsc66 substrate specificity is directed toward a discrete region of the iron-sulfur cluster template protein IscU." J Biol Chem 277(30): 27353-9. Huynen, M. A., B. Snel, P. Bork and T. J. Gibson (2001). "The phylogenetic distribution of frataxin indicates a role in iron-sulfur cluster protein assembly." Hum Mol Genet 10(21): 2463-8. Iannuzzi, C., S. Adinolfi, B. D. Howes, R. Garcia-Serres, M. Clemancey, J. M. Latour, G. Smulevich and A. Pastore (2011). "The role of CyaY in iron sulfur cluster assembly on the E. coli IscU scaffold protein." PLoS One 6(7): e21992. Iannuzzi, C., M. Adrover, R. Puglisi, R. Yan, P. A. Temussi and A. Pastore (2014). "The role of zinc in the stability of the marginally stable IscU scaffold protein." Protein Sci 23(9): 1208-19. Iwata, S., M. Saynovits, T. A. Link and H. Michel (1996). "Structure of a water soluble fragment of the 'Rieske' iron-sulfur protein of the bovine heart mitochondrial cytochrome bc1 complex determined by MAD phasing at 1.5 A resolution." Structure 4(5): 567-79. Jacobson, M. R., K. E. Brigle, L. T. Bennett, R. A. Setterquist, M. S. Wilson, V. L. Cash, J. Beynon, W. E. Newton and D. R. Dean (1989). "Physical and genetic map of the major nif gene cluster from Azotobacter vinelandii." J Bacteriol 171(2): 1017-27. Jensen, L. T. and V. C. Culotta (2000). "Role of Saccharomyces cerevisiae ISA1 and ISA2 in iron homeostasis." Mol Cell Biol 20(11): 3918-27. Johansson, C., A. K. Roos, S. J. Montano, R. Sengupta, P. Filippakopoulos, K. Guo, F. von Delft, A. Holmgren, U. Oppermann and K. L. Kavanagh (2011). "The crystal structure of human GLRX5: iron-sulfur cluster co-ordination, tetrameric assembly and monomer activity." Biochem J 433(2): 303-11. Johnson, D. C., D. R. Dean, A. D. Smith and M. K. Johnson (2005). "Structure, function, and formation of biological iron-sulfur clusters." Annu Rev Biochem 74: 247-81. Johnson, M. A., A. Chatterjee, B. W. Neuman and K. Wuthrich (2010). "SARS coronavirus unique domain: three-domain molecular architecture in solution and RNA binding." J Mol Biol 400(4): 724-42. Kaiser, J. T., T. Clausen, G. P. Bourenkow, H. D. Bartunik, S. Steinbacher and R. Huber (2000). "Crystal structure of a NifS-like protein from Thermotoga maritima: implications for iron sulphur cluster assembly." J Mol Biol 297(2): 451-64. Karlberg, T., U. Schagerlof, O. Gakh, S. Park, U. Ryde, M. Lindahl, K. Leath, E. Garman, G. Isaya and S. Al-Karadaghi (2006). "The structures of frataxin oligomers reveal the mechanism for the delivery and detoxification of iron." Structure 14(10): 1535-46. 266 Références Bibliographiques Kato, S., H. Mihara, T. Kurihara, Y. Takahashi, U. Tokumoto, T. Yoshimura and N. Esaki (2002). "Cys-328 of IscS and Cys-63 of IscU are the sites of disulfide bridge formation in a covalently bound IscS/IscU complex: implications for the mechanism of iron-sulfur cluster assembly." Proc Natl Acad Sci U S A 99(9): 5948-52. Kaut, A., H. Lange, K. Diekert, G. Kispal and R. Lill (2000). "Isa1p is a component of the mitochondrial machinery for maturation of cellular iron-sulfur proteins and requires conserved cysteine residues for function." J Biol Chem 275(21): 15955-61. Khoroshilova, N., C. Popescu, E. Munck, H. Beinert and P. J. Kiley (1997). "Iron-sulfur cluster disassembly in the FNR protein of Escherichia coli by O2: [4Fe-4S] to [2Fe2S] conversion with loss of biological activity." Proc Natl Acad Sci U S A 94(12): 6087-92. Kiley, P. J. and H. Beinert (2003). "The role of Fe-S proteins in sensing and regulation in bacteria." Curr Opin Microbiol 6(2): 181-5. Kim, J. H., R. O. Frederick, N. M. Reinen, A. T. Troupis and J. L. Markley (2013). "[2Fe-2S]ferredoxin binds directly to cysteine desulfurase and supplies an electron for ironsulfur cluster assembly but is displaced by the scaffold protein or bacterial frataxin." J Am Chem Soc 135(22): 8117-20. Kim, J. H., A. K. Fuzery, M. Tonelli, D. T. Ta, W. M. Westler, L. E. Vickery and J. L. Markley (2009). "Structure and dynamics of the iron-sulfur cluster assembly scaffold protein IscU and its interaction with the cochaperone HscB." Biochemistry 48(26): 6062-71. Kim, J. H., M. Tonelli, T. Kim and J. L. Markley (2012). "Three-dimensional structure and determinants of stability of the iron-sulfur cluster scaffold protein IscU from Escherichia coli." Biochemistry 51(28): 5557-63. Kim, J. H., M. Tonelli and J. L. Markley (2011). "Disordered form of the scaffold protein IscU is the substrate for iron-sulfur cluster assembly on cysteine desulfurase." Proc Natl Acad Sci U S A 109(2): 454-9. Kispal, G., P. Csere, C. Prohl and R. Lill (1999). "The mitochondrial proteins Atm1p and Nfs1p are essential for biogenesis of cytosolic Fe/S proteins." EMBO J 18(14): 39819. Koutnikova, H., V. Campuzano, F. Foury, P. Dolle, O. Cazzalini and M. Koenig (1997). "Studies of human, mouse and yeast homologues indicate a mitochondrial function for frataxin." Nat Genet 16(4): 345-51. Koutnikova, H., V. Campuzano and M. Koenig (1998). "Maturation of wild-type and mutated frataxin by the mitochondrial processing peptidase." Hum Mol Genet 7(9): 1485-9. Krebs, C., J. N. Agar, A. D. Smith, J. Frazzon, D. R. Dean, B. H. Huynh and M. K. Johnson (2001). "IscA, an alternate scaffold for Fe-S cluster biosynthesis." Biochemistry 40(46): 14069-80. Kumar, C., A. Igbaria, B. D'Autreaux, A. G. Planson, C. Junot, E. Godat, A. K. Bachhawat, A. Delaunay-Moisan and M. B. Toledano (2011). "Glutathione revisited: a vital function in iron metabolism and ancillary role in thiol-redox control." EMBO J 30(10): 2044-56. Land, T. and T. A. Rouault (1998). "Targeting of a human iron-sulfur cluster assembly enzyme, nifs, to different subcellular compartments is regulated through alternative AUG utilization." Mol Cell 2(6): 807-15. Lange, H., T. Lisowsky, J. Gerber, U. Muhlenhoff, G. Kispal and R. Lill (2001). "An essential function of the mitochondrial sulfhydryl oxidase Erv1p/ALR in the maturation of cytosolic Fe/S proteins." EMBO Rep 2(8): 715-20. 267 Références Bibliographiques Lanzilotta, W. N., J. Christiansen, D. R. Dean and L. C. Seefeldt (1998). "Evidence for coupled electron and proton transfer in the [8Fe-7S] cluster of nitrogenase." Biochemistry 37(32): 11376-84. Lauble, H., M. C. Kennedy, H. Beinert and C. D. Stout (1992). "Crystal structures of aconitase with isocitrate and nitroisocitrate bound." Biochemistry 31(10): 2735-48. Lauble, H., M. C. Kennedy, H. Beinert and C. D. Stout (1994). "Crystal structures of aconitase with trans-aconitate and nitrocitrate bound." J Mol Biol 237(4): 437-51. Lawson, D. M., A. Treffry, P. J. Artymiuk, P. M. Harrison, S. J. Yewdall, A. Luzzago, G. Cesareni, S. Levi and P. Arosio (1989). "Identification of the ferroxidase centre in ferritin." FEBS Lett 254(1-2): 207-10. Layer, G., S. A. Gaddam, C. N. Ayala-Castro, S. Ollagnier-de Choudens, D. Lascoux, M. Fontecave and F. W. Outten (2007). "SufE transfers sulfur from SufS to SufB for ironsulfur cluster assembly." J Biol Chem 282(18): 13342-50. Layer, G., S. Ollagnier-de Choudens, Y. Sanakis and M. Fontecave (2006). "Iron-sulfur cluster biosynthesis: characterization of Escherichia coli CYaY as an iron donor for the assembly of [2Fe-2S] clusters in the scaffold IscU." J Biol Chem 281(24): 1625663. Lee, M. G., S. J. Cho, J. K. Yang, H. K. Song and S. W. Suh (2000). "Crystallization and preliminary X-ray crystallographic analysis of Escherichia coli CyaY, a structural homologue of human frataxin." Acta Crystallogr D Biol Crystallogr 56(Pt 7): 920-1. Lesuisse, E., R. Santos, B. F. Matzanke, S. A. Knight, J. M. Camadro and A. Dancis (2003). "Iron use for haeme synthesis is under control of the yeast frataxin homologue (Yfh1)." Hum Mol Genet 12(8): 879-89. Li, D. S., K. Ohshima, S. Jiralerspong, M. W. Bojanowski and M. Pandolfo (1999). "Knockout of the cyaY gene in Escherichia coli does not affect cellular iron content and sensitivity to oxidants." FEBS Lett 456(1): 13-6. Lill, R., B. Hoffmann, S. Molik, A. J. Pierik, N. Rietzschel, O. Stehling, M. A. Uzarska, H. Webert, C. Wilbrecht and U. Muhlenhoff (2012). "The role of mitochondria in cellular iron-sulfur protein biogenesis and iron metabolism." Biochim Biophys Acta 1823(9): 1491-508. Lin, J., L. Zhang, S. Lai and K. Ye (2011). "Structure and molecular evolution of CDGSH iron-sulfur domains." PLoS One 6(9): e24790. Lin, J., T. Zhou, K. Ye and J. Wang (2007). "Crystal structure of human mitoNEET reveals distinct groups of iron sulfur proteins." Proc Natl Acad Sci U S A 104(37): 14640-5. Liu, J., N. Oganesyan, D. H. Shin, J. Jancarik, H. Yokota, R. Kim and S. H. Kim (2005). "Structural characterization of an iron-sulfur cluster assembly protein IscU in a zincbound form." Proteins 59(4): 875-81. Loiseau, L., S. Ollagnier-de-Choudens, L. Nachin, M. Fontecave and F. Barras (2003). "Biogenesis of Fe-S cluster by the bacterial Suf system: SufS and SufE form a new type of cysteine desulfurase." J Biol Chem 278(40): 38352-9. Lu, J., J. P. Bitoun, G. Tan, W. Wang, W. Min and H. Ding (2010). "Iron-binding activity of human iron-sulfur cluster assembly protein hIscA1." Biochem J 428(1): 125-31. Lukianova, O. A. and S. S. David (2005). "A role for iron-sulfur clusters in DNA repair." Curr Opin Chem Biol 9(2): 145-51. Lutz, T., B. Westermann, W. Neupert and J. M. Herrmann (2001). "The mitochondrial proteins Ssq1 and Jac1 are required for the assembly of iron sulfur clusters in mitochondria." J Mol Biol 307(3): 815-25. Majewska, J., S. J. Ciesielski, B. Schilke, J. Kominek, A. Blenska, W. Delewski, J. Y. Song, J. Marszalek, E. A. Craig and R. Dutkiewicz (2013). "Binding of the chaperone Jac1 268 Références Bibliographiques protein and cysteine desulfurase Nfs1 to the iron-sulfur cluster scaffold Isu protein is mutually exclusive." J Biol Chem 288(40): 29134-42. Mansy, S. S., G. Wu, K. K. Surerus and J. A. Cowan (2002). "Iron-sulfur cluster biosynthesis. Thermatoga maritima IscU is a structured iron-sulfur cluster assembly protein." J Biol Chem 277(24): 21397-404. Mansy, S. S., S. P. Wu and J. A. Cowan (2004). "Iron-sulfur cluster biosynthesis: biochemical characterization of the conformational dynamics of Thermotoga maritima IscU and the relevance for cellular cluster assembly." J Biol Chem 279(11): 10469-75. Marelja, Z., M. Mullick Chowdhury, C. Dosche, C. Hille, O. Baumann, H. G. Lohmannsroben and S. Leimkuhler (2013). "The L-cysteine desulfurase NFS1 is localized in the cytosol where it provides the sulfur for molybdenum cofactor biosynthesis in humans." PLoS One 8(4): e60869. Marinoni, E. N., J. S. de Oliveira, Y. Nicolet, E. C. Raulfs, P. Amara, D. R. Dean and J. C. Fontecilla-Camps (2012). "(IscS-IscU)2 complex structures provide insights into Fe2S2 biogenesis and transfer." Angew Chem Int Ed Engl 51(22): 5439-42. Markley, J. L., J. H. Kim, Z. Dai, J. R. Bothe, K. Cai, R. O. Frederick and M. Tonelli (2013). "Metamorphic protein IscU alternates conformations in the course of its role as the scaffold protein for iron-sulfur cluster biosynthesis and delivery." FEBS Lett 587(8): 1172-9. Martin, D., A. Charpilienne, A. Parent, A. Boussac, B. D'Autreaux, J. Poupon and D. Poncet (2013). "The rotavirus nonstructural protein NSP5 coordinates a [2Fe-2S] iron-sulfur cluster that modulates interaction to RNA." FASEB J 27(3): 1074-83. Mather, B. D., K. Viswanathan, K. M. Miller and T. E. Long (2006). "Michael addition reactions in macromolecular design for emerging tehcnologies." Prog. Polym. Sci 31(5): 487-531. Mayer, S. M., D. M. Lawson, C. A. Gormal, S. M. Roe and B. E. Smith (1999). "New insights into structure-function relationships in nitrogenase: A 1.6 A resolution X-ray crystallographic study of Klebsiella pneumoniae MoFe-protein." J Mol Biol 292(4): 871-91. Michaelis, L. and M. L. Menten (1913). "Die kinetik der invertinwirkung." Biochem Z 49: 333-369. Mihara, H., T. Kurihara, T. Yoshimura and N. Esaki (2000). "Kinetic and mutational studies of three NifS homologs from Escherichia coli: mechanistic difference between Lcysteine desulfurase and L-selenocysteine lyase reactions." J Biochem 127(4): 559-67. Muhlenhoff, U., J. Gerber, N. Richhardt and R. Lill (2003). "Components involved in assembly and dislocation of iron-sulfur clusters on the scaffold protein Isu1p." EMBO J 22(18): 4815-25. Muhlenhoff, U., N. Richhardt, M. Ristow, G. Kispal and R. Lill (2002). "The yeast frataxin homolog Yfh1p plays a specific role in the maturation of cellular Fe/S proteins." Hum Mol Genet 11(17): 2025-36. Murphy, C. J., M. R. Arkin, Y. Jenkins, N. D. Ghatlia, S. H. Bossmann, N. J. Turro and J. K. Barton (1993). "Long-range photoinduced electron transfer through a DNA helix." Science 262(5136): 1025-9. Musco, G., G. Stier, B. Kolmerer, S. Adinolfi, S. Martin, T. Frenkiel, T. Gibson and A. Pastore (2000). "Towards a structural understanding of Friedreich's ataxia: the solution structure of frataxin." Structure 8(7): 695-707. Naamati, A., N. Regev-Rudzki, S. Galperin, R. Lill and O. Pines (2009). "Dual targeting of Nfs1 and discovery of its novel processing enzyme, Icp55." J Biol Chem 284(44): 30200-8. 269 Références Bibliographiques Nair, M., S. Adinolfi, C. Pastore, G. Kelly, P. Temussi and A. Pastore (2004). "Solution structure of the bacterial frataxin ortholog, CyaY: mapping the iron binding sites." Structure 12(11): 2037-48. Nakai, Y., Y. Yoshihara, H. Hayashi and H. Kagamiyama (1998). "cDNA cloning and characterization of mouse nifS-like protein, m-Nfs1: mitochondrial localization of eukaryotic NifS-like proteins." FEBS Lett 433(1-2): 143-8. Navarro-Sastre, A., F. Tort, O. Stehling, M. A. Uzarska, J. A. Arranz, M. Del Toro, M. T. Labayru, J. Landa, A. Font, J. Garcia-Villoria, B. Merinero, M. Ugarte, L. G. Gutierrez-Solana, J. Campistol, A. Garcia-Cazorla, J. Vaquerizo, E. Riudor, P. Briones, O. Elpeleg, A. Ribes and R. Lill (2011). "A fatal mitochondrial disease is associated with defective NFU1 function in the maturation of a subset of mitochondrial Fe-S proteins." Am J Hum Genet 89(5): 656-67. Netz, D. J., A. J. Pierik, M. Stumpfig, U. Muhlenhoff and R. Lill (2007). "The Cfd1-Nbp35 complex acts as a scaffold for iron-sulfur protein assembly in the yeast cytosol." Nat Chem Biol 3(5): 278-86. Nichol, H., O. Gakh, H. A. O'Neill, I. J. Pickering, G. Isaya and G. N. George (2003). "Structure of frataxin iron cores: an X-ray absorption spectroscopic study." Biochemistry 42(20): 5971-6. Nuth, M., T. Yoon and J. A. Cowan (2002). "Iron-sulfur cluster biosynthesis: characterization of iron nucleation sites for assembly of the [2Fe-2S]2+ cluster core in IscU proteins." J Am Chem Soc 124(30): 8774-5. Ollagnier-de-Choudens, S., T. Mattioli, Y. Takahashi and M. Fontecave (2001). "Iron-sulfur cluster assembly: characterization of IscA and evidence for a specific and functional complex with ferredoxin." J Biol Chem 276(25): 22604-7. Pan, J. and K. S. Carroll (2013). "Persulfide reactivity in the detection of protein ssulfhydration." ACS Chem Biol 8(6): 1110-6. Pandey, A., R. Golla, H. Yoon, A. Dancis and D. Pain (2012). "Persulfide formation on mitochondrial cysteine desulfurase: enzyme activation by a eukaryote-specific interacting protein and Fe-S cluster synthesis." Biochem J 448(2): 171-87. Pandey, A., D. M. Gordon, J. Pain, T. L. Stemmler, A. Dancis and D. Pain (2013). "Frataxin directly stimulates mitochondrial cysteine desulfurase by exposing substrate-binding sites, and a mutant Fe-S cluster scaffold protein with frataxin-bypassing ability acts similarly." J Biol Chem 288(52): 36773-86. Park, S., O. Gakh, H. A. O'Neill, A. Mangravita, H. Nichol, G. C. Ferreira and G. Isaya (2003). "Yeast frataxin sequentially chaperones and stores iron by coupling protein assembly with iron oxidation." J Biol Chem 278(33): 31340-51. Pastore, A. and H. Puccio (2013). "Frataxin: a protein in search for a function." J Neurochem 126 Suppl 1: 43-52. Peters, J. W., M. H. Stowell, S. M. Soltis, M. G. Finnegan, M. K. Johnson and D. C. Rees (1997). "Redox-dependent structural changes in the nitrogenase P-cluster." Biochemistry 36(6): 1181-7. Picciocchi, A., C. Saguez, A. Boussac, C. Cassier-Chauvat and F. Chauvat (2007). "CGFStype monothiol glutaredoxins from the cyanobacterium Synechocystis PCC6803 and other evolutionary distant model organisms possess a glutathione-ligated [2Fe-2S] cluster." Biochemistry 46(51): 15018-26. Pohl, T., J. Walter, S. Stolpe, J. H. Soufo, P. L. Grauman and T. Friedrich (2007). "Effects of the deletion of the Escherichia coli frataxin homologue CyaY on the respiratory NADH:ubiquinone oxidoreductase." BMC Biochem 8: 13. 270 Références Bibliographiques Prischi, F., P. V. Konarev, C. Iannuzzi, C. Pastore, S. Adinolfi, S. R. Martin, D. I. Svergun and A. Pastore (2010). "Structural bases for the interaction of frataxin with the central components of iron-sulphur cluster assembly." Nat Commun 1: 95. Puccio, H. and M. Koenig (2000). "Recent advances in the molecular pathogenesis of Friedreich ataxia." Hum Mol Genet 9(6): 887-92. Puccio, H., D. Simon, M. Cossee, P. Criqui-Filipe, F. Tiziano, J. Melki, C. Hindelang, R. Matyas, P. Rustin and M. Koenig (2001). "Mouse models for Friedreich ataxia exhibit cardiomyopathy, sensory nerve defect and Fe-S enzyme deficiency followed by intramitochondrial iron deposits." Nat Genet 27(2): 181-6. Ramelot, T. A., J. R. Cort, S. Goldsmith-Fischman, G. J. Kornhaber, R. Xiao, R. Shastry, T. B. Acton, B. Honig, G. T. Montelione and M. A. Kennedy (2004). "Solution NMR structure of the iron-sulfur cluster assembly protein U (IscU) with zinc bound at the active site." J Mol Biol 344(2): 567-83. Raulfs, E. C., I. P. O'Carroll, P. C. Dos Santos, M. C. Unciuleac and D. R. Dean (2008). "In vivo iron-sulfur cluster formation." Proc Natl Acad Sci U S A 105(25): 8591-6. Rodriguez-Manzaneque, M. T., J. Tamarit, G. Belli, J. Ros and E. Herrero (2002). "Grx5 is a mitochondrial glutaredoxin required for the activity of iron/sulfur enzymes." Mol Biol Cell 13(4): 1109-21. Ross-Inta, C., C. Y. Tsai and C. Giulivi (2008). "The mitochondrial pool of free amino acids reflects the composition of mitochondrial DNA-encoded proteins: indication of a posttranslational quality control for protein synthesis." Biosci Rep 28(5): 239-49. Rouault, T. A. (2006). "The role of iron regulatory proteins in mammalian iron homeostasis and disease." Nat Chem Biol 2(8): 406-14. Roy, A., N. Solodovnikova, T. Nicholson, W. Antholine and W. E. Walden (2003). "A novel eukaryotic factor for cytosolic Fe-S cluster assembly." EMBO J 22(18): 4826-35. Rybniker, J., F. Pojer, J. Marienhagen, G. S. Kolly, J. M. Chen, E. van Gumpel, P. Hartmann and S. T. Cole (2014). "The cysteine desulfurase IscS of Mycobacterium tuberculosis is involved in iron-sulfur cluster biogenesis and oxidative stress defence." Biochem J 459(3): 467-78. Sands, R. H. and H. Beinert (1960). "Studies on mitochondria and submitochondrial particles by paramagnetic resonance (EPR) spectroscopy." Biochem Biophys Res Commun. Schaedler, T. A., J. D. Thornton, I. Kruse, M. Schwarzlander, A. J. Meyer, H. W. van Veen and J. Balk (2014). "A Conserved Mitochondrial ATP-binding Cassette Transporter Exports Glutathione Polysulfide for Cytosolic Metal Cofactor Assembly." J Biol Chem 289(34): 23264-74. Schilke, B., C. Voisine, H. Beinert and E. Craig (1999). "Evidence for a conserved system for iron metabolism in the mitochondria of Saccharomyces cerevisiae." Proc Natl Acad Sci U S A 96(18): 10206-11. Schmucker, S., M. Argentini, N. Carelle-Calmels, A. Martelli and H. Puccio (2008). "The in vivo mitochondrial two-step maturation of human frataxin." Hum Mol Genet 17(22): 3521-31. Schmucker, S., A. Martelli, F. Colin, A. Page, M. Wattenhofer-Donze, L. Reutenauer and H. Puccio (2011). "Mammalian frataxin: an essential function for cellular viability through an interaction with a preformed ISCU/NFS1/ISD11 iron-sulfur assembly complex." PLoS One 6(1): e16199. Schoenfeld, R. A., E. Napoli, A. Wong, S. Zhan, L. Reutenauer, D. Morin, A. R. Buckpitt, F. Taroni, B. Lonnerdal, M. Ristow, H. Puccio and G. A. Cortopassi (2005). "Frataxin deficiency alters heme pathway transcripts and decreases mitochondrial heme metabolites in mammalian cells." Hum Mol Genet 14(24): 3787-99. 271 Références Bibliographiques Schwartz, C. J., J. L. Giel, T. Patschkowski, C. Luther, F. J. Ruzicka, H. Beinert and P. J. Kiley (2001). "IscR, an Fe-S cluster-containing transcription factor, represses expression of Escherichia coli genes encoding Fe-S cluster assembly proteins." Proc Natl Acad Sci U S A 98(26): 14895-900. Seguin, A., R. Sutak, A. L. Bulteau, R. Garcia-Serres, J. L. Oddou, S. Lefevre, R. Santos, A. Dancis, J. M. Camadro, J. M. Latour and E. Lesuisse (2010). "Evidence that yeast frataxin is not an iron storage protein in vivo." Biochim Biophys Acta 1802(6): 531-8. Sen, N., B. D. Paul, M. M. Gadalla, A. K. Mustafa, T. Sen, R. Xu, S. Kim and S. H. Snyder (2012). "Hydrogen sulfide-linked sulfhydration of NF-kappaB mediates its antiapoptotic actions." Mol Cell 45(1): 13-24. Shakamuri, P., B. Zhang and M. K. Johnson (2012). "Monothiol glutaredoxins function in storing and transporting [Fe2S2] clusters assembled on IscU scaffold proteins." J Am Chem Soc 134(37): 15213-6. Sheftel, A. D., O. Stehling, A. J. Pierik, H. P. Elsasser, U. Muhlenhoff, H. Webert, A. Hobler, F. Hannemann, R. Bernhardt and R. Lill (2010). "Humans possess two mitochondrial ferredoxins, Fdx1 and Fdx2, with distinct roles in steroidogenesis, heme, and Fe/S cluster biosynthesis." Proc Natl Acad Sci U S A 107(26): 11775-80. Sheftel, A. D., O. Stehling, A. J. Pierik, D. J. Netz, S. Kerscher, H. P. Elsasser, I. Wittig, J. Balk, U. Brandt and R. Lill (2009). "Human ind1, an iron-sulfur cluster assembly factor for respiratory complex I." Mol Cell Biol 29(22): 6059-73. Sheftel, A. D., C. Wilbrecht, O. Stehling, B. Niggemeyer, H. P. Elsasser, U. Muhlenhoff and R. Lill (2012). "The human mitochondrial ISCA1, ISCA2, and IBA57 proteins are required for [4Fe-4S] protein maturation." Mol Biol Cell 23(7): 1157-66. Shethna, Y. I., D. V. DerVartanian and H. Beinert (1968). "Non heme (iron-sulfur) proteins of Azotobacter vinelandii." Biochem Biophys Res Commun 31(6): 862-8. Shethna, Y. I., P. W. Wilson, R. E. Hansen and H. Beinert (1964). "Identification by Isotopic Substitution of the Epr Signal at G = 1.94 in a Non-Heme Iron Protein from Azotobacter." Proc Natl Acad Sci U S A 52: 1263-71. Shi, R., A. Proteau, M. Villarroya, I. Moukadiri, L. Zhang, J. F. Trempe, A. Matte, M. E. Armengod and M. Cygler (2010). "Structural basis for Fe-S cluster assembly and tRNA thiolation mediated by IscS protein-protein interactions." PLoS Biol 8(4): e1000354. Shi, Y., M. Ghosh, G. Kovtunovych, D. R. Crooks and T. A. Rouault (2012). "Both human ferredoxins 1 and 2 and ferredoxin reductase are important for iron-sulfur cluster biogenesis." Biochim Biophys Acta 1823(2): 484-92. Shi, Y., M. C. Ghosh, W. H. Tong and T. A. Rouault (2009). "Human ISD11 is essential for both iron-sulfur cluster assembly and maintenance of normal cellular iron homeostasis." Hum Mol Genet 18(16): 3014-25. Shigi, N. (2014). "Biosynthesis and functions of sulfur modifications in tRNA." Front Genet 5: 67. Shisler, K. A. and J. B. Broderick (2012). "Emerging themes in radical SAM chemistry." Curr Opin Struct Biol 22(6): 701-10. Siegel, L. M. (1965). "A Direct Microdetermination for Sulfide." Anal Biochem 11: 126-32. Silberg, J. J., K. G. Hoff, T. L. Tapley and L. E. Vickery (2001). "The Fe/S assembly protein IscU behaves as a substrate for the molecular chaperone Hsc66 from Escherichia coli." J Biol Chem 276(3): 1696-700. Silberg, J. J., T. L. Tapley, K. G. Hoff and L. E. Vickery (2004). "Regulation of the HscA ATPase reaction cycle by the co-chaperone HscB and the iron-sulfur cluster assembly protein IscU." J Biol Chem 279(52): 53924-31. 272 Références Bibliographiques Sipos, K., H. Lange, Z. Fekete, P. Ullmann, R. Lill and G. Kispal (2002). "Maturation of cytosolic iron-sulfur proteins requires glutathione." J Biol Chem 277(30): 26944-9. Smith, A. D., J. N. Agar, K. A. Johnson, J. Frazzon, I. J. Amster, D. R. Dean and M. K. Johnson (2001). "Sulfur transfer from IscS to IscU: the first step in iron-sulfur cluster biosynthesis." J Am Chem Soc 123(44): 11103-4. Smith, A. D., J. Frazzon, D. R. Dean and M. K. Johnson (2005). "Role of conserved cysteines in mediating sulfur transfer from IscS to IscU." FEBS Lett 579(23): 5236-40. Song, D. and F. S. Lee (2008). "A role for IOP1 in mammalian cytosolic iron-sulfur protein biogenesis." J Biol Chem 283(14): 9231-8. Sontz, P. A., N. B. Muren and J. K. Barton (2012). "DNA charge transport for sensing and signaling." Acc Chem Res 45(10): 1792-800. Srinivasan, V., D. J. Netz, H. Webert, J. Mascarenhas, A. J. Pierik, H. Michel and R. Lill (2007). "Structure of the yeast WD40 domain protein Cia1, a component acting late in iron-sulfur protein biogenesis." Structure 15(10): 1246-57. Srinivasan, V., A. J. Pierik and R. Lill (2014). "Crystal structures of nucleotide-free and glutathione-bound mitochondrial ABC transporter Atm1." Science 343(6175): 113740. Stehling, O., D. J. Netz, B. Niggemeyer, R. Rosser, R. S. Eisenstein, H. Puccio, A. J. Pierik and R. Lill (2008). "Human Nbp35 is essential for both cytosolic iron-sulfur protein assembly and iron homeostasis." Mol Cell Biol 28(17): 5517-28. Tamarit, J., G. Belli, E. Cabiscol, E. Herrero and J. Ros (2003). "Biochemical characterization of yeast mitochondrial Grx5 monothiol glutaredoxin." J Biol Chem 278(28): 25745-51. Tong, W. H., G. N. Jameson, B. H. Huynh and T. A. Rouault (2003). "Subcellular compartmentalization of human Nfu, an iron-sulfur cluster scaffold protein, and its ability to assemble a [4Fe-4S] cluster." Proc Natl Acad Sci U S A 100(17): 9762-7. Tong, W. H. and T. A. Rouault (2006). "Functions of mitochondrial ISCU and cytosolic ISCU in mammalian iron-sulfur cluster biogenesis and iron homeostasis." Cell Metab 3(3): 199-210. Tsai, C. L. and D. P. Barondeau (2010). "Human frataxin is an allosteric switch that activates the Fe-S cluster biosynthetic complex." Biochemistry 49(43): 9132-9. Tsai, C. L., J. Bridwell-Rabb and D. P. Barondeau (2011). "Friedreich's ataxia variants I154F and W155R diminish frataxin-based activation of the iron-sulfur cluster assembly complex." Biochemistry 50(29): 6478-87. Tucker, N. P., B. D'Autreaux, F. K. Yousafzai, S. A. Fairhurst, S. Spiro and R. Dixon (2008). "Analysis of the nitric oxide-sensing non-heme iron center in the NorR regulatory protein." J Biol Chem 283(2): 908-18. Uhrigshardt, H., T. A. Rouault and F. Missirlis (2013). "Insertion mutants in Drosophila melanogaster Hsc20 halt larval growth and lead to reduced iron-sulfur cluster enzyme activities and impaired iron homeostasis." J Biol Inorg Chem 18(4): 441-9. Uhrigshardt, H., A. Singh, G. Kovtunovych, M. Ghosh and T. A. Rouault (2010). "Characterization of the human HSC20, an unusual DnaJ type III protein, involved in iron-sulfur cluster biogenesis." Hum Mol Genet 19(19): 3816-34. Urbina, H. D., J. J. Silberg, K. G. Hoff and L. E. Vickery (2001). "Transfer of sulfur from IscS to IscU during Fe/S cluster assembly." J Biol Chem 276(48): 44521-6. Uzarska, M. A., R. Dutkiewicz, S. A. Freibert, R. Lill and U. Muhlenhoff (2013). "The mitochondrial Hsp70 chaperone Ssq1 facilitates Fe/S cluster transfer from Isu1 to Grx5 by complex formation." Mol Biol Cell 24(12): 1830-41. 273 Références Bibliographiques Vinella, D., C. Brochier-Armanet, L. Loiseau, E. Talla and F. Barras (2009). "Iron-sulfur (Fe/S) protein biogenesis: phylogenomic and genetic studies of A-type carriers." PLoS Genet 5(5): e1000497. Wachtershauser, G. (1988). "Before enzymes and templates: theory of surface metabolism." Microbiol Rev 52(4): 452-84. Wiedemann, N., E. Urzica, B. Guiard, H. Muller, C. Lohaus, H. E. Meyer, M. T. Ryan, C. Meisinger, U. Muhlenhoff, R. Lill and N. Pfanner (2006). "Essential role of Isd11 in mitochondrial iron-sulfur cluster synthesis on Isu scaffold proteins." EMBO J 25(1): 184-95. Wingert, R. A., J. L. Galloway, B. Barut, H. Foott, P. Fraenkel, J. L. Axe, G. J. Weber, K. Dooley, A. J. Davidson, B. Schmid, B. H. Paw, G. C. Shaw, P. Kingsley, J. Palis, H. Schubert, O. Chen, J. Kaplan and L. I. Zon (2005). "Deficiency of glutaredoxin 5 reveals Fe-S clusters are required for vertebrate haem synthesis." Nature 436(7053): 1035-39. Wu, S. P., S. S. Mansy and J. A. Cowan (2005). "Iron-sulfur cluster biosynthesis. Molecular chaperone DnaK promotes IscU-bound [2Fe-2S] cluster stability and inhibits cluster transfer activity." Biochemistry 44(11): 4284-93. Wu, Y. and R. M. Brosh, Jr. (2012). "DNA helicase and helicase-nuclease enzymes with a conserved iron-sulfur cluster." Nucleic Acids Res 40(10): 4247-60. Xu, X. M. and S. G. Moller (2011). "Iron-sulfur clusters: biogenesis, molecular mechanisms, and their functional significance." Antioxid Redox Signal 15(1): 271-307. Yan, R., G. Kelly and A. Pastore (2014). "The Scaffold protein IscU Retains a structured conformation in the Fe-S cluster assembly complex." Chembiochem 15(11): 1682-6. Yan, R., P. V. Konarev, C. Iannuzzi, S. Adinolfi, B. Roche, G. Kelly, L. Simon, S. R. Martin, B. Py, F. Barras, D. I. Svergun and A. Pastore (2013). "Ferredoxin competes with bacterial frataxin in binding to the desulfurase IscS." J Biol Chem 288(34): 24777-87. Ye, H., S. Y. Jeong, M. C. Ghosh, G. Kovtunovych, L. Silvestri, D. Ortillo, N. Uchida, J. Tisdale, C. Camaschella and T. A. Rouault (2010). "Glutaredoxin 5 deficiency causes sideroblastic anemia by specifically impairing heme biosynthesis and depleting cytosolic iron in human erythroblasts." J Clin Invest 120(5): 1749-61. Ye, H. and T. A. Rouault (2010). "Human iron-sulfur cluster assembly, cellular iron homeostasis, and disease." Biochemistry 49(24): 4945-56. Yoon, H., R. Golla, E. Lesuisse, J. Pain, J. E. Donald, E. R. Lyver, D. Pain and A. Dancis (2012). "Mutation in the Fe-S scaffold protein Isu bypasses frataxin deletion." Biochem J 441(1): 473-80. Yoon, H., S. A. Knight, A. Pandey, J. Pain, Y. Zhang, D. Pain and A. Dancis (2014). "Frataxin-bypassing Isu1: characterization of the bypass activity in cells and mitochondria." Biochem J 459(1): 71-81. Zanella, I., M. Derosas, M. Corrado, E. Cocco, P. Cavadini, G. Biasiotto, M. Poli, R. Verardi and P. Arosio (2008). "The effects of frataxin silencing in HeLa cells are rescued by the expression of human mitochondrial ferritin." Biochim Biophys Acta 1782(2): 90-8. Zeylemaker, W. P., D. V. Dervartanian and C. Veeger (1965). "The Amount of Non-Haem Iron and Acid-Labile Sulphur in Purified Pig-Heart Succinate Dehydrogenase." Biochim Biophys Acta 99: 183-4. Zhang, D., I. Macinkovic, N. O. Devarie-Baez, J. Pan, C. M. Park, K. S. Carroll, M. R. Filipovic and M. Xian (2014). "Detection of protein S-sulfhydration by a tag-switch technique." Angew Chem Int Ed Engl 53(2): 575-81. 274 Références Bibliographiques Zhang, Y., E. R. Lyver, E. Nakamaru-Ogiso, H. Yoon, B. Amutha, D. W. Lee, E. Bi, T. Ohnishi, F. Daldal, D. Pain and A. Dancis (2008). "Dre2, a conserved eukaryotic Fe/S cluster protein, functions in cytosolic Fe/S protein biogenesis." Mol Cell Biol 28(18): 5569-82. Zheng, L., V. L. Cash, D. H. Flint and D. R. Dean (1998). "Assembly of iron-sulfur clusters. Identification of an iscSUA-hscBA-fdx gene cluster from Azotobacter vinelandii." J Biol Chem 273(21): 13264-72. Zheng, L., R. H. White, V. L. Cash and D. R. Dean (1994). "Mechanism for the desulfurization of L-cysteine catalyzed by the nifS gene product." Biochemistry 33(15): 4714-20. Zheng, L., R. H. White, V. L. Cash, R. F. Jack and D. R. Dean (1993). "Cysteine desulfurase activity indicates a role for NIFS in metallocluster biosynthesis." Proc Natl Acad Sci U S A 90(7): 2754-8. 275 Annexes Annexes Annexe 1. Comparaison des alignements des séquences codantes de NFS1 de souris (séquence 1) et du plasmide pCDFDuet NFS1-ISD11 (séquence 2) Ces alignements de séquences nous permettent de mettre en évidence l'étiquette polyhistidine (bleu), le site de clivage de la thrombine (violet) ainsi que la mutation silencieuse (rouge), introduite pour enlever un site de clivage d'une enzyme de restriction. Seq_1 ------------------------------------------------------------ 0 Seq_2 -------------CCATGGGACACCACCACCACCACCATAGCCAGGATCTGGTGCCGCGC 47 X X X X X M G H H H H H H S Q D L V P R X X R P L Y M D V Q A T T P L D P R V L Seq_1 ------AGACCTCTCTACATGGACGTACAGGCCACCACTCCTCTGGATCCCAGAGTGCTT 54 |||||||||||||||||||||||||||||||||||||||||||||||||||||| Seq_2 GGCTCTAGACCTCTCTACATGGACGTACAGGCCACCACTCCTCTGGATCCCAGAGTGCTT G S R P L Y M D V Q A T T P L D P R V L D A M L P Y L V N Y Y G N P H S R T H A Seq_1 GATGCCATGCTCCCATACCTTGTCAACTACTATGGGAACCCTCATTCTCGGACTCATGCA 107 114 |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| Seq_2 GATGCCATGCTCCCATACCTTGTCAACTACTATGGGAACCCTCATTCTCGGACTCATGCA D A M L P Y L V N Y Y G N P H S R T H A Y G W E S E A A M E R A R Q Q V A S L I Seq_1 TATGGCTGGGAGAGCGAGGCAGCAATGGAACGTGCTCGCCAGCAAGTAGCATCTCTGATT 167 174 |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| Seq_2 TATGGCTGGGAGAGCGAGGCAGCAATGGAACGTGCTCGCCAGCAAGTAGCATCTCTGATT Y G W E S E A A M E R A R 281 Q Q V A S L I 227 Annexes G A D P R E I I F T S G A T E S N N I A Seq_1 GGAGCTGATCCTCGGGAGATCATTTTCACTAGTGGAGCTACTGAGTCCAACAACATAGCA 234 |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| Seq_2 GGAGCTGATCCTCGGGAGATCATTTTCACTAGTGGAGCTACTGAGTCCAACAACATAGCA G A D P R E I I F T S G A T E S N N I A I K G V A R F Y R S R K K H L V T T Q T Seq_1 ATTAAGGGAGTGGCCAGGTTCTACAGGTCAAGGAAAAAACACTTGGTCACAACCCAGACA 287 294 |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| Seq_2 ATTAAGGGAGTGGCCAGGTTCTACAGGTCAAGGAAAAAACACTTGGTCACAACCCAGACA I K G V A R F Y R S R K K H L V T T Q T E H K C V L D S C R S L E A E G F R V T Seq_1 GAACACAAATGTGTGCTGGATTCCTGCCGCTCCCTGGAAGCTGAGGGCTTTCGGGTCACT 347 354 |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| Seq_2 GAACACAAATGTGTGCTGGATTCCTGCCGCTCCCTGGAAGCTGAGGGCTTTCGGGTCACT E H K C V L D S C R S L E A E G F R V T Y L P V Q K S G I I D L K E L E A A I Q Seq_1 TACCTCCCTGTGCAGAAGAGCGGGATCATTGACTTAAAGGAACTAGAGGCTGCCATCCAG 407 414 |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| Seq_2 TACCTCCCTGTGCAGAAGAGCGGGATCATTGACTTAAAGGAACTAGAGGCTGCCATCCAG Y L P V Q K S G I I D L K E L E A A I Q P D T S L V S V M T V N N E I G V K Q P Seq_1 CCAGACACCAGCCTGGTCTCCGTTATGACTGTGAACAATGAAATTGGAGTAAAGCAACCG 467 474 ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| Seq_2 CCAGACACCAGCCTGGTCTCCGTTATGACTGTGAACAATGAAATTGGAGTAAAGCAACCA P D T S L V S V M T V N N 282 E I G V K Q P 527 Annexes I A E I G Q I C S S R K V Y F H T D A A Seq_1 ATTGCAGAAATAGGGCAGATTTGTAGTTCCAGAAAGGTGTACTTCCACACTGATGCCGCC 534 |||||||||||| ||||||||||||||||||||||||||||||||||||||||||||||| Seq_2 ATTGCAGAAATAGGGCAGATTTGTAGTTCCAGAAAGGTGTACTTCCACACTGATGCCGCC I A E I G Q I C S S R K V Y F H T D A A Q A V G K I P L D V N D M K I D L M S I Seq_1 CAAGCGGTTGGGAAAATCCCACTTGACGTCAATGACATGAAGATTGATCTCATGAGCATC 587 594 |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| Seq_2 CAAGCGGTTGGGAAAATCCCACTTGACGTCAATGACATGAAGATTGATCTCATGAGCATC Q A V G K I P L D V N D M K I D L M S I S G H K L Y G P K G V G A I Y I R R R P Seq_1 AGCGGTCACAAACTCTATGGCCCTAAAGGGGTTGGTGCTATCTATATCCGCCGTAGGCCC 647 654 |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| Seq_2 AGCGGTCACAAACTCTATGGCCCTAAAGGGGTTGGTGCTATCTATATCCGCCGTAGGCCC S G H K L Y G P K G V G A I Y I R R R P R V R V E A L Q S G G G Q E R G M R S G Seq_1 CGGGTACGTGTGGAGGCCCTACAGAGTGGAGGCGGGCAGGAGCGGGGTATGCGGTCTGGG 707 714 |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| Seq_2 CGGGTACGTGTGGAGGCCCTACAGAGTGGAGGCGGGCAGGAGCGGGGTATGCGGTCTGGG R V R V E A L Q S G G G Q E R G M R S G T V P T P L V V G L G A A C E L A Q Q E Seq_1 ACAGTGCCCACACCCTTGGTGGTGGGCCTGGGAGCTGCATGTGAGTTGGCACAACAAGAG 767 774 |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| Seq_2 ACAGTGCCCACACCCTTGGTGGTGGGCCTGGGAGCTGCATGTGAGTTGGCACAACAAGAG T V P T P L V V G L G A A 283 C E L A Q Q E 827 Annexes M E Y D H K R I S K L A E R L V Q N I M Seq_1 ATGGAATACGACCATAAGCGGATCTCAAAGTTAGCAGAGCGACTGGTACAGAACATAATG 834 |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| Seq_2 ATGGAATACGACCATAAGCGGATCTCAAAGTTAGCAGAGCGACTGGTACAGAACATAATG M E Y D H K R I S K L A E R L V Q N I M K N L P D V V M N G D P K Q H Y P G C I Seq_1 AAGAATCTTCCAGATGTGGTAATGAACGGGGACCCGAAGCAGCACTACCCTGGCTGTATC 887 894 |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| Seq_2 AAGAATCTTCCAGATGTGGTAATGAACGGGGACCCGAAGCAGCACTACCCTGGCTGTATC K N L P D V V M N G D P K Q H Y P G C I N L S F A Y V E G E S L L M A L K D V A Seq_1 AACCTCTCCTTCGCGTATGTGGAAGGAGAGAGCCTGCTGATGGCCCTCAAGGATGTGGCC 947 954 |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| Seq_2 AACCTCTCCTTCGCGTATGTGGAAGGAGAGAGCCTGCTGATGGCCCTCAAGGATGTGGCC N L S F A Y V E G E S L L M A L K D V A L S S G S A C T S A S L E P S Y V L R A Seq_1 TTGTCCTCAGGGAGTGCCTGCACTTCTGCATCATTGGAGCCCTCTTATGTCCTCAGAGCA 1007 1014 |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| Seq_2 TTGTCCTCAGGGAGTGCCTGCACTTCTGCATCATTGGAGCCCTCTTATGTCCTCAGAGCA L S S G S A C T S A S L E P S Y V L R A I G T D E D L A H S S I R F G I G R F T Seq_1 ATTGGTACCGATGAGGATTTAGCACACTCCTCTATCAGGTTTGGCATCGGCCGCTTCACT 1067 1074 |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| Seq_2 ATTGGTACCGATGAGGATTTAGCACACTCCTCTATCAGGTTTGGCATCGGCCGCTTCACT I G T D E D L A H S S I R 284 F G I G R F T 1127 Annexes T E E E V D Y T A E K C I H H V K R L R Seq_1 ACAGAAGAGGAGGTGGACTACACGGCGGAGAAGTGCATCCACCACGTGAAGCGCCTTCGA 1134 |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| Seq_2 ACAGAAGAGGAGGTGGACTACACGGCGGAGAAGTGCATCCACCACGTGAAGCGCCTTCGA T E E E V D Y T A E K C I H H V K R L R E M S P L W E M V Q D G I D L K S I K W Seq_1 GAAATGAGTCCTCTCTGGGAGATGGTCCAGGATGGCATTGACCTCAAGAGCATCAAGTGG 1187 1194 |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| Seq_2 GAAATGAGTCCTCTCTGGGAGATGGTCCAGGATGGCATTGACCTCAAGAGCATCAAGTGG E M S P T Q H * L W E M V Q D G I D L K S I K 1247 W Seq_1 ACCCAGCATTAG------------------------------------------------ 1206 |||||||||||| Seq_2 ACCCAGCATTAGCTCGAG-----------------------------------------T Q H * L E 285 1265 Annexes Annexe 2. Séquence protéique de NFS1 A. Séquence de la protéine NFS1 de souris in vivo avec sa séquence d'adressage à la mitochondrie (vert). B. Séquence de la protéine recombinante NFS1 de souris avec l'étiquette polyhistidine (bleu) et le site de clivage de la thrombine (violet), MM = 46 328,1 Da. La cystéine catalytique de NFS1 est en rouge. A 10 20 30 40 50 60 MVGSVAGNML LRAAWRRASL AATSLALGRS SVPTRGLRLR VVDHGPHSPV HSEAEAVLRP 70 80 90 100 110 120 LYMDVQATTP LDPRVLDAML PYLVNYYGNP HSRTHAYGWE SEAAMERARQ QVASLIGADP 130 140 150 160 170 180 REIIFTSGAT ESNNIAIKGV ARFYRSRKKH LVTTQTEHKC VLDSCRSLEA EGFRVTYLPV 190 200 210 220 230 240 QKSGIIDLKE LEAAIQPDTS LVSVMTVNNE IGVKQPIAEI GQICSSRKVY FHTDAAQAVG 250 260 270 280 290 300 KIPLDVNDMK IDLMSISGHK LYGPKGVGAI YIRRRPRVRV EALQSGGGQE RGMRSGTVPT 310 320 330 340 350 360 PLVVGLGAAC ELAQQEMEYD HKRISKLAER LVQNIMKNLP DVVMNGDPKQ HYPGCINLSF 370 380 390 400 410 420 AYVEGESLLM ALKDVALSSG SACTSASLEP SYVLRAIGTD EDLAHSSIRF GIGRFTTEEE 430 440 450 VDYTAEKCIH HVKRLREMSP LWEMVQDGID LKSIKWTQH B 10 GHHHHHHSQD 20 LVPRGSRPLY 30 MDVQATTPLD 40 PRVLDAMLPY 50 LVNYYGNPHS 60 RTHAYGWESE 70 AAMERARQQV 80 ASLIGADPRE 90 IIFTSGATES 100 NNIAIKGVAR 110 FYRSRKKHLV 120 TTQTEHKCVL 130 DSCRSLEAEG 140 FRVTYLPVQK 150 SGIIDLKELE 160 AAIQPDTSLV 170 SVMTVNNEIG 180 VKQPIAEIGQ 190 ICSSRKVYFH 200 TDAAQAVGKI 210 PLDVNDMKID 220 LMSISGHKLY 230 GPKGVGAIYI 240 RRRPRVRVEA 250 LQSGGGQERG 260 MRSGTVPTPL 270 VVGLGAACEL 280 AQQEMEYDHK 290 RISKLAERLV 300 QNIMKNLPDV 310 VMNGDPKQHY 320 PGCINLSFAY 330 VEGESLLMAL 340 KDVALSSGSA 350 CTSASLEPSY 360 VLRAIGTDED 370 380 390 400 LAHSSIRFGI GRFTTEEEVD YTAEKCIHHV KRLREMSPLW EMVQDGIDLK SIKWTQH 410 286 Annexes Annexe 3. Séquence protéique d'ISD11 A. Séquence de la protéine ISD11 de souris in vivo. B. Séquence de la protéine recombinante ISD11 de souris, MM = 10 723,3 Da. A 10 20 30 40 50 60 MAASSRAQVL DLYRAMMRES KHFSAYNYRM YAVRRIRDAF RENKNVKDPV EIQALVNKAK 70 80 90 RDLEIIRRQV HIGQLYSTDK LIIENQEKPR T B 10 AASSRAQVLD 20 LYRAMMRESK 30 HFSAYNYRMY 40 AVRRIRDAFR 70 80 90 DLEIIRRQVH IGQLYSTDKL IIENQEKPRT 287 50 ENKNVKDPVE 60 IQALVNKAKR Annexes Annexe 4. Séquences protéiques d'ISCU WT et ses mutants C35S, C61S, C104S, C104G et M106I A. Séquence de la protéine de souris ISCU WT in vivo avec sa séquence d'adressage à la mitochondrie (vert). B. Séquence de la protéine recombinante ISCU WT de souris avant le clivage par la thrombine (avec l'étiquette polyhistidine (bleu) et le site de clivage de la thrombine (violet), MM = 16 424,7 Da) et (C) après le clivage par la thrombine, MM = 14 617,8 Da. Séquences des protéines recombinantes de souris ISCUC35S (D), ISCUC61S (E), ISCUC104S (F) (mutation en rouge, MM= 14 601,7 Da), ISCUC104G (G) (mutation en rouge, MM = 14 571,7 Da) et ISCUM106I (H) (mutation en rouge, MM = 14 599,7 Da) après le clivage par la thrombine. A 10 MAAATGAGRL 20 RRAASALLLR 30 SPRLPARELS 40 APARLYHKKV 50 VDHYENPRNV 60 GSLDKTSKNV 70 GTGLVGAPAC 80 GDVMKLQIQV 90 DEKGKIVDAR 100 FKTFGCGSAI 110 ASSSLATEWV 120 KGKTVEEALT 130 140 150 IKNTDIAKEL CLPPVKLHCS MLAEDAIKAA LADYKLKQES KKEEPEKQ 160 B 10 MGHHHHHHSQ 20 DLVPRGSYHK 30 KVVDHYENPR 40 NVGSLDKTSK 50 NVGTGLVGAP 60 ACGDVMKLQI 70 QVDEKGKIVD 80 ARFKTFGCGS 90 AIASSSLATE 100 WVKGKTVEEA 110 LTIKNTDIAK 120 ELCLPPVKLH 130 CSMLAEDAIK AALADYKLKQ ESKKEEPEKQ 140 150 C 10 GSYHKKVVDH 20 YENPRNVGSL 30 DKTSKNVGTG 40 LVGAPACGDV 50 MKLQIQVDEK 60 GKIVDARFKT 70 FGCGSAIASS 80 SLATEWVKGK 90 TVEEALTIKN 100 TDIAKELCLP 110 PVKLHCSMLA 120 EDAIKAALAD 30 DKTSKNVGTG 40 LVGAPASGDV 50 MKLQIQVDEK 60 GKIVDARFKT 130 YKLKQESKKE EPEKQ D 10 GSYHKKVVDH 20 YENPRNVGSL 288 Annexes 70 FGCGSAIASS 80 SLATEWVKGK 90 TVEEALTIKN 100 TDIAKELCLP 110 PVKLHCSMLA 120 EDAIKAALAD 130 YKLKQESKKE EPEKQ E 10 GSYHKKVVDH 20 YENPRNVGSL 30 DKTSKNVGTG 40 LVGAPACGDV 50 MKLQIQVDEK 60 GKIVDARFKT 70 FGSGSAIASS 80 SLATEWVKGK 90 TVEEALTIKN 100 TDIAKELCLP 110 PVKLHCSMLA 120 EDAIKAALAD 130 YKLKQESKKE EPEKQ F 10 GSYHKKVVDH 20 YENPRNVGSL 30 DKTSKNVGTG 40 LVGAPACGDV 50 MKLQIQVDEK 60 GKIVDARFKT 70 FGCGSAIASS 80 SLATEWVKGK 90 TVEEALTIKN 100 TDIAKELCLP 110 PVKLHSSMLA 120 EDAIKAALAD 130 YKLKQESKKE EPEKQ G 10 GSYHKKVVDH 20 YENPRNVGSL 30 DKTSKNVGTG 40 LVGAPACGDV 50 MKLQIQVDEK 60 GKIVDARFKT 70 FGCGSAIASS 80 SLATEWVKGK 90 TVEEALTIKN 100 TDIAKELCLP 110 PVKLHGSMLA 120 EDAIKAALAD 130 YKLKQESKKE EPEKQ H 10 GSYHKKVVDH 20 YENPRNVGSL 30 DKTSKNVGTG 40 LVGAPACGDV 50 MKLQIQVDEK 60 GKIVDARFKT 70 FGCGSAIASS 80 SLATEWVKGK 90 TVEEALTIKN 100 TDIAKELCLP 110 PVKLHCSILA 120 EDAIKAALAD 130 YKLKQESKKE EPEKQ 289 Annexes Annexe 5. Séquences Protéiques de FXN WT et son mutant R162A A. Séquence de la protéine FXN de souris in vivo avec sa séquence d'adressage à la mitochondrie (vert). B. Séquence de la protéine recombinante de souris FXN WT (avec l'étiquette polyhistidine (bleu) et le site de clivage par la thrombine (violet)), avant le clivage par la thrombine (MM= 16 217,8 Da) et après le clivage par la thrombine (C), MM = 14 410,8 Da. D. Séquence de la protéine recombinante de souris de FXNR162A après le clivage par la thrombine (mutation en rouge, MM = 14 325,7 Da). A 10 20 30 40 50 60 MWAFGGRAAV GLLPRTASRA SAWVGNPRWR EPIVTCGRRG LHVTVNAGAT RHAHLNLHYL 70 80 90 100 110 120 QILNIKKQSV CVVHLRNLGT LDNPSSLDET AYERLAEETL DSLAEFFEDL ADKPYTLEDY 130 140 150 160 170 180 DVSFGDGVLT IKLGGDLGTY VINKQTPNKQ IWLSSPSSGP KRYDWTGKNW VYSHDGVSLH 190 200 ELLARELTKA LNTKLDLSSL AYSGKGT B 10 20 30 40 50 60 MGHHHHHHSQ DLVPRGSGTL DNPSSLDETA YERLAEETLD SLAEFFEDLA DKPYTLEDYD 70 80 90 100 110 120 VSFGDGVLTI KLGGDLGTYV INKQTPNKQI WLSSPSSGPK RYDWTGKNWV YSHDGVSLHE 130 140 LLARELTKAL NTKLDLSSLA YSGKGT C 10 GSGTLDNPSS 20 LDETAYERLA 30 EETLDSLAEF 40 FEDLADKPYT 50 LEDYDVSFGD 60 GVLTIKLGGD 70 LGTYVINKQT 80 PNKQIWLSSP 90 SSGPKRYDWT 100 GKNWVYSHDG 110 VSLHELLARE 120 LTKALNTKLD 290 Annexes 130 LSSLAYSGKG T D 10 GSGTLDNPSS 20 LDETAYERLA 30 EETLDSLAEF 40 FEDLADKPYT 50 LEDYDVSFGD 60 GVLTIKLGGD 70 LGTYVINKQT 80 PNKQIWLSSP 90 SSGPKAYDWT 100 GKNWVYSHDG 110 VSLHELLARE 120 LTKALNTKLD 130 LSSLAYSGKG T 291 Annexes Annexe 6. Principe de la presse de French Les bactéries en suspension sont versées dans la cellule. La descente progressive du piston va créer une chambre pressurisée. Sous cette pression, les membranes bactériennes cèdent. 292 Annexes Annexe 7. Principe de la chromatographie d'affinité sur colonne de nickel Le principe de cette étape de purification repose sur l'affinité entre les résidus histidines des protéines (en rouge) et l'ion Ni2+ (en vert) fixé à la matrice de la colonne via un groupement NTA (Nitrilotriacetic acid, en rouge). L'interaction entre l'ion Ni2+ et le NTA se fait par l'intermédiaire de quatre atomes (3 oxygènes et 1 azote) laissant ainsi deux sites de coordination libres. Les protéines possédant une étiquettes poly-histidine se fixent à la colonne tandis que la très grande majorité des protéines de l'extrait brut ne sont pas retenues sur la colonne. Certaines protéines riches en histidine peuvent être retenues au cours de cette étape, et d'autres peuvent être retenues par interactions polaires avec le nickel. 293 Annexes Annexe 8. Principe de la colonne Superdex (75 ou 200) 1. L'échantillon est injecté sur la colonne. 2. Les protéines les plus volumineuses traversent rapidement la colonne et sont éluées en premier alors que les protéines les plus petites (3) sont éluées plus tardivement. 294 Annexes Annexe 9. Structure du site de clivage reconnu par la thrombine Ce schéma représente la séquence d'acides aminés reconnu par la thrombine : LVPRGS. La liaison peptidique, dessinée en rouge, indique le site de coupure de la thrombine. Cette coupure permet d'éliminer l'étiquette poly-histidine. 295 Annexes Annexe 10. Composition des gels et des tampons pour l'électrophorèse en conditions non-dénaturantes (gel natif) Les gels polyacrylamides utilisés en conditions natives ont été préparés d'après le tableau suivant (pour 2 gels) : Les échantillons de protéines sont placés dans un tampon de charge composé de 312,5 mM de Tris-base, 0,05 % de bleu de bromophénol et 50 % de glycérol. La migration des protéines se fait dans un tampon tris-glycine (25 mM Tris-base, 192 mM glycine). Les protéines sont révélées par la coloration du gel au bleu de Coomassie (bleu de Coomassie R-250 0,1 % w/v, éthanol 45 % et acide acétique 10 %) puis décoloration dans une solution éthanol 10 %, acide acétique 10 %. 296 Annexes Annexe 11. Composition des gels et des tampons pour l'électrophorèse SDS-PAGE La composition des gels de polyacrylamide s'est faite d'après le tableau suivant (pour 2 gels) : Les échantillons de protéines sont placés dans un tampon de charge composé de 60 mM de Tris, 2 % de SDS, ± 700 mM de β-mercaptoéthanol, 0,1 % de bleu de bromophénol et 25 % de glycérol. La migration des protéines se fait dans un tampon tris-Glycine (25 mM Tris-base, 192 mM glycine, 0,5 % SDS, cuve extérieure) et tris-Tricine (50 mM Tris-base, 50 mM tricine, 0,5 % SDS, cuve intérieure). Les protéines sont révélées par la coloration du gel au bleu de Coomassie (bleu de Coomassie R-250 0,1 % w/v, éthanol 45 % et acide acétique 10 %) puis décoloration dans une solution éthanol 10 % et acide acétique 10 %. 297 Annexes Annexe 12. Composition des gels et des tampons pour le Western Blot La composition des tampons de transfert utilisés est décrite dans le tableau suivant (pour 1 L) : Le tampon de transfert à 20 % d'éthanol est utilisé pour transférer les protéines séparées sur un gel de polyacrylamide 14 %, alors que le tampon de transfert à 10 % d'éthanol est utilisé pour transférer les protéines séparées sur un gel polyacrylamide 8 % ou 10 %. Les anticorps primaires utilisés sont pour ISCU : anticorps de lapin de chez ProteinTech (14812-1-AP) et pour FXN : anticorps de souris de chez ABCAM (ab113691) Les anticorps secondaires utilisés sont : IRDye® 800CW et IRDye® 680 (Eurobio). Les protéines d'intérêt sont révélées grâce à l'utilisation du système d'imagerie infrarouge Odyssey® (Li-Cor). 298 Annexes Annexe 13. Principe du spectromètre de masse ESI-Q/TOF La source d'ionisation utilisée est l'ionisation par électrospray (ESI, electrospray ionisation). Ce principe d'ionisation se réalise à pression atmosphérique ; c'est également une méthode d'ionisation douce. En effet, elle évite la fragmentation de la protéine et permet ainsi une analyse de la protéine entière. Cette technique d'ionisation peut être utilisée en mode positif (ion moléculaire détecté [M+nH]n+) ou en mode négatif (ion moléculaire détecté [MnH]n-). La technique d'électrospray permet d'obtenir des ions protéiques en phase gazeuse à partir d'ions protéiques en solution. L'échantillon protéique est introduit dans un capillaire (75 à 150 μmètre) en présence d'un solvant volatil (acide formique et acétonitrile). Ce mélange protéique est nébulisé en présence d'un potentiel élevé (3 à 4 kV) sous un flux d'azote. La solution protéique va alors se décomposer en gouttelettes hautement chargées. A l'aide du flux d'azote, le solvant va peu à peu s'évaporer. Cette évaporation progressive conduit alors à une cascade d'explosions coulombiennes, c'est-à-dire, une division spontanée des gouttelettes chargées en gouttelettes plus petites, provoquée par une charge surfacique très élevée. Les ions désolvatés se dirigent ensuite vers l'analyseur. Dans un premier temps, les ions désolvatés vont passer au travers d'un analyseur quadripolaire. Ce quadripôle (Q ou quadrupôle) est composé de quatre électrodes, généralement cylindriques, parfaitement parallèles. Les électrodes sont soumises deux à deux 299 Annexes à un potentiel ±Φ composé d'une tension continue, U et d'une tension alternative, V. En appliquant cette différence de potentiel entre chaque paire d'électrodes, un champ électrique quadripolaire se crée. Ce champ électrique permet de séparer les ions selon leur masse et leur charge (rapport m/z). Selon les valeurs des tensions U et V, certains ions vont avoir une trajectoire stable, traverser le quadripôle et être détectés ; d'autres auront une trajectoire instable et vont se décharger sur les électrodes. Ainsi, un ion positif sera attiré vers une électrode négative (et inversement) ; si le potentiel de cette électrode change avant que l'ion ne se soit déchargé sur elle, il changera alors de direction et entrera en résonnance : il va ainsi traverser l'analyseur. Dans un second temps, les ions, passés au travers du quadripôle, vont circuler dans un nouvel analyseur : l'analyseur à « temps de vol » (TOF, time of flight). Le principe de cette méthode repose sur la mesure du temps que mettent les ions pour parcourir une distance donnée. Les ions sont accélérés par un champ électrique et « volent » d'autant plus vite qu'ils sont légers. Le temps initial correspond à l'entrée des ions dans l'analyseur TOF et le temps final correspond à l'arrivé sur le détecteur. L'appareil se divise en deux zones (A). La première est soumise à une tension d'accélération entrainant l'apparition d'un champ électrique. Ce champ électrique va permettre l'accélération des ions vers la seconde zone. Au sein de la première zone, les ions acquièrent une énergie cinétique qui sera la même pour les ions de même charge. La seconde zone est nommée « zone de vol » ou « zone de champ libre ». Ces termes signifient que cette 300 Annexes partie de l'appareil est sans tension. Les ions traversent cette zone pour arriver jusqu'au détecteur. Leur vitesse va dépendre de leur rapport m/z. Les analyseurs TOF en mode linéaire ont un inconvénient principal : deux ions dotés du même rapport m/z, mais d'énergie cinétique différente, peuvent avoir des temps de vol différents et donc arriver à deux instants différents sur le détecteur. Pour pallier à ce problème, la plupart des analyseurs TOF sont équipés d'un mode « réflectron ». Ce mode réflectron (B) permet la correction de la dispersion des temps d'arrivée au détecteur. Un champ électrique décélérateur et réflecteur règne au sein du réflectron. Il agit comme un miroir électrostatique pour réfléchir les ions vers le second tube de vol en direction du détecteur. Les ions avec des énergies cinétiques élevées iront plus loin dans le réflecteur, ce qui augmente la longueur effective de l'analyseur par rapport à ceux d'énergie cinétique plus faible. A m/z égal, les ions arriveront au même moment au détecteur. 301 Annexes Annexe 14. Principe de fonctionnement du LTQ-Orbitrap A. Schéma complet de l'appareil avec, tracé en rouge, le parcours effectués par les ions. B. Schéma du système de l'Orbitrap. 302 Annexes Annexe 15. Identification de la cystéine persulfurée de NFS1 dans le complexe NIUF A. Résumé des valeurs obtenues par l'analyse ORBITRAP-MS/MS pour le peptide DVALSSGSACTSASLEPSYVLR. Le tableau liste les masses attendues par l'analyse MS/MS des fragments des peptides DVALSSGSACTSASLEPSYVLR contenant les modifications "C-Scam" et "C-S-Scam". Les annotations b+ et y+ représentes les masses obtenues pour la fragmentation successive des liaisons peptidiques de N vers C-terminal et de C vers N-terminal, respectivement. Les nombres bleus et rouges correspondent aux masses des fragments peptidiques détectées par l'analyse MS/MS. Les nombres soulignés sont spécifiques du peptide C-S-Scam. Deux peptides ont été sélectionnés avec des masses égales à 2269,09135 uma et 2301,0623 uma correspondant au DVALSSGSACTSASLEPSYVLR (contenant la cystéine C383 de NFS1) peptide avec une carbamidométhylation sur la cystéine C383 (C-Scam) et une carbamidométhylation sur la cystéine C383 persulfurée (C-S-Scam). La différence de masse entre ces deux peptides (31,97095) est cohérente avec l'ajout d'un atome de soufre (31,97211) et non pas avec l'ajout de deux atomes d'oxygène (31,9898). 303 Annexes 304 Annexes Annexe 16. Identification de la cystéine persulfurée d'ISCU dans le complexe NIU A. Résumé des valeurs obtenues par l'analyse ORBITRAP-MS/MS pour le peptide NVGTGLVGAPACGDVMK. Le tableau liste les masses attendues par l'analyse MS/MS des fragments des peptides NVGTGLVGAPACGDVMK contenant les modifications "C-Scam" et "C-S-Scam". Les annotations b+ et y+ représentes les masses obtenues pour la fragmentation successive des liaisons peptidiques de N vers C-terminal et de C vers Nterminal, respectivement. Les nombres bleus et rouges correspondent aux masses des fragments peptidiques détectées par l'analyse MS/MS. Les nombres soulignés sont spécifiques du peptide C-S-Scam. Deux peptides ont été sélectionnés avec des masses égales à 1644,79569 uma NVGTGLVGAPACGDVMK et 1676,76811 (contenant la uma cystéine correspondant C35 d'ISCU) au peptide avec une carbamidométhylation sur la cystéine C35 (C-Scam) et une carbamidométhylation sur la cystéine C35 persulfurée (C-S-Scam). La différence de masse entre ces deux peptides (31,97242) est cohérente avec l'ajout d'un atome de soufre (31,97211) et non pas avec l'ajout de deux atomes d'oxygène (31,9898). 305 Annexes Annexe 17. Identification de la cystéine persulfurée d'ISCU dans le complexe NIU A. Résumé des valeurs obtenues par l'analyse ORBITRAP-MS/MS pour le peptide LHCSMLAEDAIK. Le tableau liste les masses attendues par l'analyse MS/MS des fragments des peptides LHCSMLAEDAIK contenant les modifications "C-Scam" et "C-S-Scam". Les annotations b+ et y+ représentes les masses obtenues pour la fragmentation successive des liaisons peptidiques de N vers C-terminal et de C vers N-terminal, respectivement. Les nombres bleus et rouges correspondent aux masses des fragments peptidiques détectées par l'analyse MS/MS. Les nombres soulignés sont spécifiques du peptide C-S-Scam. Deux peptides ont été sélectionnés avec des masses égales à 1386,66313 uma et 1418,63627 uma correspondant au peptide LHCSMLAEDAIK (contenant la cystéine C104 d'ISCU) avec une carbamidométhylation sur la cystéine C104 (C-Scam) et une carbamidométhylation sur la cystéine C104 persulfurée (C-S-Scam). La différence de masse entre ces deux peptides (31,97314) est cohérente avec l'ajout d'un atome de soufre (31,97211) et non pas avec l'ajout de deux atomes d'oxygène (31,9898). 306 Annexes 307 Annexes Annexe 18. Identification de la cystéine persulfurée d'ISCU dans le complexe NIUF A. Résumé des valeurs obtenues par l'analyse ORBITRAP-MS/MS pour le peptide NVGTGLVGAPACGDVMK. Le tableau liste les masses attendues par l'analyse MS/MS des fragments des peptides NVGTGLVGAPACGDVMK contenant les modifications "C-Scam" et "C-S-Scam". Les annotations b+ et y+ représentes les masses obtenues pour la fragmentation successive des liaisons peptidiques de N vers C-terminal et de C vers Nterminal, respectivement. Les nombres bleus et rouges correspondent aux masses des fragments peptidiques détectées par l'analyse MS/MS. Les nombres soulignés sont spécifiques du peptide C-S-Scam. Deux peptides ont été sélectionnés avec des masses égales à 1644,7966 uma et 1676,768 uma correspondant au peptide NVGTGLVGAPACGDVMK (contenant la cystéine C35 d'ISCU) avec une carbamidométhylation sur la cystéine C35 (CScam) et une carbamidométhylation sur la cystéine C35 persulfurée (C-S-Scam). La différence de masse entre ces deux peptides (31,9714) est cohérente avec l'ajout d'un atome de soufre (31,97211) et non pas avec l'ajout de deux atomes d'oxygène (31,9898). 308 Annexes Annexe 19. Identification de la cystéine persulfurée d'ISCU dans le complexe NIUF A. Résumé des valeurs obtenues par l'analyse ORBITRAP-MS/MS pour le peptide LHCSMLAEDAIK. Le tableau liste les masses attendues par l'analyse MS/MS des fragments des peptides LHCSMLAEDAIK contenant les modifications "C-Scam" et "C-S-Scam". Les annotations b+ et y+ représentes les masses obtenues pour la fragmentation successive des liaisons peptidiques de N vers C-terminal et de C vers N-terminal, respectivement. Les nombres bleus et rouges correspondent aux masses des fragments peptidiques détectées par l'analyse MS/MS présentée en B et C. Les nombres soulignés sont spécifiques du peptide CS-Scam. Analyse ORBITRAP-MS/MS du peptide LHCSMLAEDAIK dans le complexe NIUF avant (B) et après (C) réaction avec la L-cystéine. 309 Annexes 310 Annexes Annexe 20. Constante de vitesse, kR1, de réduction du persulfure de NFS1 par la Lcystéine Résumé des valeurs obtenues pour les constantes de vitesse, kR1, de réduction du persulfure de NFS1 par la L-cystéine dans les complexes NI, NIU et NIUF, et dans le mélange NI + F. Chaque valeur a été calculée à partir des activités cystéine désulfurase (Cf. Figure IV. 22, C et Figure V. 13, A) Réducteurs kR1 (M-1.s-1) NI L-cystéine 6,1 ± 0,5 NI + F L-cystéine 6,2 ± 0,5 NIU L-cystéine 1,2 ± 0,2 NIUF L-cystéine 7,1 ± 0,5 311 ARTICLE Received 14 Jun 2014 | Accepted 28 Oct 2014 | Published xx xxx 2015 DOI: 10.1038/ncomms6686 Mammalian frataxin directly enhances sulfur transfer of NFS1 persulfide to both ISCU and free thiols Aubérie Parent1, Xavier Elduque2, David Cornu3, Laura Belot1, Jean-Pierre Le Caer1, Anna Grandas2, Michel B. Toledano4 & Benoit D'Autréaux1 Friedreich's ataxia is a severe neurodegenerative disease caused by the decreased expression of frataxin, a mitochondrial protein that stimulates iron–sulfur (Fe-S) cluster biogenesis. In mammals, the primary steps of Fe-S cluster assembly are performed by the NFS1–ISD11–ISCU complex via the formation of a persulfide intermediate on NFS1. Here we show that frataxin modulates the reactivity of NFS1 persulfide with thiols. We use maleimide-peptide compounds along with mass spectrometry to probe cysteine-persulfide in NFS1 and ISCU. Our data reveal that in the presence of ISCU, frataxin enhances the rate of two similar reactions on NFS1 persulfide: sulfur transfer to ISCU leading to the accumulation of a persulfide on the cysteine C104 of ISCU, and sulfur transfer to small thiols such as DTT, L-cysteine and GSH leading to persulfuration of these thiols and ultimately sulfide release. These data raise important questions on the physiological mechanism of Fe-S cluster assembly and point to a unique function of frataxin as an enhancer of sulfur transfer within the NFS1–ISD11–ISCU complex. 1 Institut de Chimie des Substances Naturelles, UPR2301, Centre de Recherche de Gif, Centre National de la Recherche Scientifique, 1 avenue de la terrasse, 91191 Gif Sur Yvette, France. 2 Departament de Quı́mica Orgànica i IBUB, Facultat de Quı́mica, Universitat de Barcelona, Marti i Franques 1-11, E-08028 Barcelona, Spain. 3 Plateforme IMAGIF, Centre de Recherche de Gif, Centre National de la Recherche Scientifique, 1 avenue de le terrasse, 91191 Gif Sur Yvette, France. 4 Laboratoire Stress Oxydant et Cancer, Service de Biologie Intégrative et de Génétique Moléculaire, Institut de Biologie et de Technologie de Saclay, Commissariat à l'Energie Atomique et aux Energies Alternatives, F-91191 Gif Sur Yvette, France. Correspondence and requests for materials should be addressed to B.D'.A. (email: benoit.dautreaux@cnrs.fr). N  N N | 6:5686 | DOI: 10.1038/ncomms6686 | www.nature.com/naturecommunications & 2015 Macmillan Publishers Limited. All rights reserved. 1 ARTICLE   riedreich's ataxia is a severe neurodegenerative disease caused by the reduced expression of the small globular mitochondrial protein, frataxin (FXN)1. In patients and various models of Friedreich's ataxia, Fe-S cluster biogenesis and iron metabolism are impaired2,3. Initial studies on eukaryotic and prokaryotic FXNs suggested roles in iron storage4, delivery5 and detoxification6, but the physiological relevance of these functions has been questioned7–10. Recent studies instead point to a direct role of FXN in Fe-S cluster assembly11–14. Fe-S clusters are essential prosthetic groups of proteins operating a wide range of functions from enzymatic catalysis, electron transfer to oxidative and nitrosative stress sensing15,16. In eukaryotes, Fe-S clustercontaining proteins are distributed in almost every cellular compartment, especially in mitochondria, the cytosol and the nucleus16. The biogenesis of Fe-S clusters is performed by two main multi-protein machineries, the ISC (Iron–Sulfur Cluster) machinery localized in mitochondria and the CIA (Cytosolic Iron–sulfur cluster Assembly) machinery localized in the cytosol16. The ISC machinery provides Fe-S clusters for mitochondrial proteins and also synthesizes an unknown compound that is exported to the cytosol and required for assembly of Fe-S clusters by the CIA machinery17–19. The ISC machinery comprises ISCU, a scaffold protein on which Fe-S clusters are assembled, NFS1, a pyridoxal phosphatedependent cysteine desulfurase, ISD11 and FXN20–23. The eukaryotic ISC machinery has evolved from bacteria and thus some of the primary steps of Fe-S cluster assembly have been conserved16,24,25. As a common strategy, nascent Fe-S clusters are assembled on ISCU from iron and sulfide and transferred to recipient apo-proteins with the assistance of other specialized proteins. The sulfide ions are provided to ISCU in the form of a persulfide intermediate on the catalytic cysteine C383 of NFS1 (NFS1-SSH, where the terminal sulfur is also called sulfane sulfur) by desulfurization of L-cysteine. ISD11 is proposed to stabilize NFS1 and also to promote formation of persulfide on NFS1 (refs 12,26,27). In the bacterial system, the sulfane sulfur of the persulfide carried by IscS, the homologue of NFS1, is transferred to IscU by a trans-persulfuration process leading to poly-persulfurated IscU28–30. A similar trans-persulfuration process has been recently decribed with the mammalian system31. Unfortunately, mechanistic details of the subsequent steps leading to Fe-S cluster assembly are still lacking. Mammalian FXN was proposed to stimulate the rate of Fe-S cluster assembly by enhancing sulfide production via binding to the NFS1–ISD11–ISCU complex11,14,32. This stimulatory effect was dependent on the presence of ISCU and ultimately favoured the assembly of [4Fe4S] clusters at the expense of [2Fe2S] clusters11. In yeast, the homologue of FXN, Yfh1, was proposed to stimulate the formation of persulfide on Nfs1 by increasing the affinity of L-cysteine for Nfs1 (ref. 12). Intriguingly, and in stark contrast to the mammalian system, this effect of Yfh1 was independent of the presence of ISCU. In bacteria, CyaY, the homologue of eukaryotic FXN, was shown to slow down rather than stimulate Fe-S assembly on the IscS–IscU complex33 and did not alter the [2Fe2S]:[4Fe4S] cluster ratio34. These contrasting data raise important questions concerning the molecular function of FXN, (both in bacteria and mammals), and the mechanism by which FXN stimulates sulfide production and the rates of Fe-S cluster assembly. To determine the mechanism by which mammalian FXN stimulates Fe-S cluster assembly, we here develop a novel assay to probe protein persulfide that makes use of sulfur-reactive maleimide-peptide compounds. Along with mass spectrometry analysis, the maleimide-peptide assays reveal that the sulfane sulfur of NFS1 is directly and spontaneously transferred to ISCU leading to the accumulation of a persulfide on its cysteine C104. 2       !!"### The single-turnover kinetics of formation, reduction and transfer of persulfide, monitored using the maleimide-peptide assay, provide evidence that FXN is not required for persulfide formation on NFS1, but enhances the rate of sulfur transfer to ISCU and cleavage of NFS1 persulfide by external thiols such as Lcysteine and glutathione (GSH), which leads to sulfur transfer on these thiols and ultimately sulfide release. In contrast, FXN does not impact ISCU persulfide reduction. We also show that NFS1 persulfide reduction by thiols is the rate-limiting step in multipleturnover kinetics and that ISCU persulfide is not reduced under these conditions and thus does not contribute to sulfide release. Thereby, FXN stimulates sulfide release exclusively by enhancing the rate of NFS1 persulfide reduction by thiols. However, this pathway is not efficient for Fe-S cluster assembly on ISCU. These data shed new light on the molecular function of mammalian FXN within the ISC machinery and raise questions on the physiological mechanism of Fe-S cluster assembly. Results FXN is not required for NFS1 persulfide formation. In mammals, the global rate of sulfide production is enhanced by FXN and decreased by ISCU when thiols are used as reductants11,14, but a step-by-step characterization of the effects of FXN and ISCU on the catalytic cycle of NFS1 is still lacking (Fig. 1a). To monitor the formation and reduction of NFS1 persulfide independently, we developed a new assay enabling the detection and quantification of persulfide. This assay is based on the chemical properties of the persulfide group, which contains both a terminal sulfur amenable to alkylation by maleimide compounds and a disulfide bond that can be cleaved by reduction (Fig. 1b). In brief, a persulfide is revealed by the loss of the succinimide-peptide moiety (the product of maleimide reaction with a sulfhydryl) upon cleavage of the sulfur–sulfur bond by dithiothreitol (DTT). To visualize the loss of the succinimide moiety, we engineered maleimide compounds with a peptide arm (maleimide-peptide, MalP) of a size sufficiently large to be detected by SDS–polyacrylamide gel electrophoresis (PAGE). The best results were obtained with a 16-mer MalP (MalP16: 1.95 kDa) (Fig. 1c). In the absence of L-cysteine (the substrate of NFS1), the seven cysteines of NFS1 were alkylated by MalP16 (denoted NFS1 þ 7 species) and no loss of the succinimide-peptide moiety was observed upon reduction by DTT, indicating that none of NFS1 cysteines was initially persulfurated (Fig. 1d and Supplementary Fig. 1a). Following reaction with L-cysteine, the seven cysteines of NFS1 were still alkylated by MalP16 but reduction by DTT led to the loss of one succinimide-peptide moiety from the NFS1 þ 7 species leading to formation of an NFS1 þ 6 species, thereby indicating the presence of a persulfide group on a single cysteine of NFS1 (Fig. 1d). In a first set of experiments, we monitored the influences of ISCU (U) and FXN (F) on the rates of persulfide formation (reaction 1, Fig. 1a) by the NFS1–ISD11 complex (NI). The NFS1–ISD11 complex (NI), ISCU (U) and FXN (F) have been shown to form homodimeric ternary and quaternary complexes with NI:U and NI:U:F stoichiometries of 1:1 and 1:1:1 for each subunit, respectively11,14,23, which will be denoted NIU and NIUF thereafter. We confirmed here by size exclusion chromatography that when incubated together, these proteins form the NIU and NIUF complex and that FXN does no interact with the NI complex in the absence of ISCU (Supplementary Fig. 2a–e). However, by using 100 mM of the NI complex and five equivalents of FXN, only a small proportion of FXN was detected as an NIUF complex, which questioned the efficiency of complex formation at these concentrations. To determine the optimal protein concentration for NIU and NIUF complexes formation, we titrated the N  N N | 6:5686 | DOI: 10.1038/ncomms6686 | www.nature.com/naturecommunications & 2015 Macmillan Publishers Limited. All rights reserved.   a  RSSR ARTICLE      !!"### RSH H2S b RSH NFS1-SSR (2a) (2b) S-thiolation pathway L-Cys(-SH) NFS1-SH SSH SH L-Ala S- S- S- : N : S Peptide S N S- Peptide O RSH O d O O SH O N RSSH RSH c + O (3a) (3b) S- DTT HS- Sulfur transfer pathway H2S + RSSR SS- + SH SH NFS1-SSH (1) S- / SDS + O HN HN O NH2 NH2 NH NH O O N N H H N O NFS1-ISD11 NH2 O O N H OH H N O O N H H N O O N H OH H N O O N H OH H N O O N H O NH2 O H N N H OH NH2 O OH L-cys – – + + MalP16 + + + + DTT – + – + NFS1 +7 NFS1 +6 MW (kDa) 50 Figure 1 | Maleimide-peptide assay principle. (a) Catalytic cycle of the cysteine desulfurase NFS1. (1) formation of persulfide on NFS1 (NFS1-SSH) through PLP-catalyzed desulfurization of L-cysteine that generates L-alanine as a by-product. NFS1 persulfide can be reduced by thiols (RSH) by two different mechanisms: S-thiolation (2) or sulfur transfer (3). The S-thiolation pathway leads first to sulfide release and S-thiolation of NFS1 (NFS1-SSR) (2a) and then reduction of NFS1-SSR by a second thiol (2b). The sulfur transfer pathway leads first to sulfur transfer on the thiol that generates a persulfurated thiol (RSSH) (3a) and then hydrogen sulfide after reduction by a second thiol (3b). (b) Reaction scheme of alkylation assay principle by maleimide-peptide (MalP) for identification of persulfide. The reactions of formation and reduction of persulfide are quenched by adding MalP (dark blue) under denaturing conditions (SDS) that alkylates all the thiol groups including persulfurated and non-persulfurated cysteines. The presence of a persulfurated cysteine is revealed by the loss of the succinimide-peptide moiety (light blue) on reduction of the disulfide bond of the persulfide by DTT. The different species are then separated by SDS–PAGE. (c) Structure of the MalP16 maleimide-peptide. (d) Maleimide-peptide assay of NFS1 persulfide before and after reaction with L-cysteine. The alkylated forms of NFS1 are indicated as NFS1 þ 7 and NFS1 þ 6 corresponding to seven and six cysteine residues alkylated by MalP16, respectively. amount of FXN and ISCU that would generate the maximal effect on NFS1 cysteine desulfurase activity (Supplementary Fig. 2f–h). Maximal attenuation was obtained with 1 molar equivalent of ISCU for 20 mM of the NI complex. In the absence of ISCU, FXN did not alter NFS1 cysteine desulfurase activity, in agreement with the lack of interaction between FXN and the NI complex. In the presence of one equivalent of ISCU, one equivalent of FXN gave the maximal stimulatory effect with 20 mM of the NI complex. At these concentrations, these proteins are thus predominantly in the form of the NIU and NIUF complexes. Moreover, these results are consistent with the reported stoichiometries in the NIU and NIUF complexes11. We concluded that the low amount of the NIUF complex detected by size exclusion chromatography at 100 mM was probably due to dissociation of FXN from the NIU complex during elution on the gel filtration column. Under these conditions, NFS1 was almost entirely converted to its persulfurated form (B95%) 10 s after reaction with L-cysteine, and this irrespective of the presence of FXN and/or ISCU (Fig. 2a). Mammalian FXN is thus not required for persulfide formation on NFS1, in contrast to what was shown for the yeast homologue of FXN, Yfh1, even when using the concentrations of enzyme and L-cysteine reported in this study (Supplementary Fig. 1b)12. We next characterized the persulfide formed on NFS1 by mass spectrometry. The mass spectrum of NFS1 displayed two peaks, one at 46,322±1 Da, identified as NFS1 (expected mass of 46,322 Da) and the other one at 46,500±1 Da (Fig. 2b), attributed to an N-gluconoylated form of NFS1 ( þ 178 Da) either on the N  N N first histidine of the His-tag or on the NH2 N-terminus of NFS1 (ref. 35), as shown by LC-ESI-ORBITRAP-MS/MS characterization of the peptide mass fingerprint (Supplementary Fig. 3a,b and Supplementary Table 1). Upon reaction of the NI complex with L-cysteine, two major species were detected, corresponding to NFS1 and its N-gluconoylated form each carrying a mass increment of 32±1 Da, consistent with the incorporation of a single sulfur atom (Fig. 2c). About 30% of nonpersulfurated NFS1 was also detected that probably originates from the loss of the sulfane sulfur under the conditions of mass spectrometry36, as this species was not detected by the alkylation assay. Similar species were detected when the NI complex was reacted with L-cysteine in the presence of FXN and/or ISCU (Supplementary Fig. 3c–e). These results establish that the main species characterized by the maleimide-peptide assay are monopersulfurated forms of NFS1. Importantly, these data confirm the results of the maleimide-peptide assay indicating that FXN is not required for persulfide formation on NFS1. FXN enhances sulfur transfer from NFS1 persulfide to ISCU. We next investigated persulfide transfer from NFS1 to ISCU using the maleimide-peptide assay (Fig. 2d). Before reaction of the NIU complex with L-cysteine and upon reaction with MalP16, the majority of ISCU carried four succinimide-peptide moieties (denoted ISCU þ 4, see Supplementary Fig. 1c). A small amount of ISCU (o5%) was mono-persulfurated (ISCU þ 3) as a result of persulfuration of the overexpressed protein within bacteria. | 6:5686 | DOI: 10.1038/ncomms6686 | www.nature.com/naturecommunications & 2015 Macmillan Publishers Limited. All rights reserved. 3 ARTICLE   b L-cys +F NFS1 +7 NFS1 +6 50 –F NFS1 +7 NFS1 +6 50 +F NFS1 +7 NFS1 +6 50 L-cys d NFS1-SSH 46,353 NFS1 46,322 50 NIU % 0 46,000 46,500 Mass e 300 120 60 30 20 10 t (s) ISCU +4 +F ISCU +3 0 NIU 47,000 f 25 100 0 46,000 46,500 Mass 47,000 g ISCU 14,618 100 FXN 14,410 80 ISCU-SSH 14,649 60 % 25 % ISCU-SSH 1,200 600 900 300 60 0 30 ISCU +4 –F ISCU +3 MW (kDa) NFS1* 46,500 NFS1 46,322 100 t (s) NFS1*-SSH 46,531 100 40 ISCU-SSH 14,649 NIUF NIU 20 0 0 300 600 900 Time (s) 1,200 0 14,000 14,500 Mass 15,000 ISCU 14,617 NFS1 +7 NFS1 +6 NI 100 MW (kDa) –F c NFS1* 46,500 % t (s) 0 10 20 30 60      !!"### % a  0 14,000 14,500 Mass ISCU-S(S)2H 14,681 15,000 Figure 2 | Influence of FXN on NFS1 and ISCU persulfide formation. (a) Kinetics of persulfide formation on NFS1 in mixtures containing the NI complex alone (25 mM) or the NI complex (25 mM) and equimolar amounts of ISCU and/or FXN, monitored by alkylation assay. The reaction was initiated by adding L-cysteine and analysed under reducing conditions by SDS–PAGE. The þ 7 and þ 6 species represent NFS1 with seven and six cysteines alkylated by MalP16, respectively. (b,c) ESI-Q/TOF spectra of the NI complex before (b) and after (c) reaction with L-cysteine. The asterisk represents N-gluconoylated NFS1. (d) Kinetics of ISCU persulfide formation in the NIU and NIUF complexes (25 mM) monitored by alkylation assay. The reaction is initiated by Lcysteine (500 mM) and analysed under reducing conditions. The different alkylated forms of ISCU are indicated as ISCU þ 4 and ISCU þ 3 corresponding to four and three cysteines alkylated by MalP16, respectively. (e) Graphical representation of ISCU persulfide (ISCU-SSH) formation kinetics in the NIU and NIUF complexes determined by quantification of the gels in c. The percentage of ISCU-SSH is defined by the amount of the þ 3 species relative to the sum ( þ 4 þ þ 3). The solid line represents the best fit using a first-order rate equation. (f,g) ESI-Q/TOF mass spectra of the NIU complex on reaction with Lcysteine in the absence (f) and presence (g) of FXN. The spectra represent a zoom on the 14,000–15,000 range. Residual amounts of this persulfurated form were still present after reduction by DTT (see Methods). On reaction of the NIU complex with L-cysteine, the ISCU þ 4 species was gradually converted to the ISCU þ 3 species (Fig. 2d,e). Remarkably, when the reaction was performed in the presence of FXN, the conversion occurred about 50-fold faster (Table 1). These results indicate that FXN enhances the rate of persulfide formation on ISCU. Mass spectrometry analysis showed that after 3 min of reaction of the NIU complex with L-cysteine, ISCU was detected as a main peak at 14,618±1 Da that closely matched the theoretical mass of reduced ISCU (expected mass 14,618 Da) and as a minor peak at 14,649±1 Da that corresponds to a mono-persulfurated form of ISCU (expected mass of 14,650 Da) (Fig. 2f and Supplementary Fig. 3f). When the reaction was performed in the presence of FXN, ISCU was almost entirely converted into the monopersulfurated form with a minor fraction present as a bispersulfurated form (expected mass of 14,682 Da; Fig. 2g and Supplementary Fig. 3g). These data confirm that, as observed with the maleimide-peptide assay, FXN enhances sulfur transfer to ISCU, and also establish that the species persulfurated on a single cysteine are mainly mono-persulfurated forms of ISCU. To establish which of the four cysteine residues of ISCU is(are) modified, tryptic digests of the NIU and NIUF complexes were analysed by LC-ESI-ORBITRAP-MS/MS followed by MS/MS (Table 2, Supplementary Fig. 4a–d and Supplementary Table 2). All four ISCU cysteine-containing peptides were detected, and only those containing C35 and C104 were detected with a persulfide, both in the NIU and NIUF complexes. Semiquantitative analysis indicated that C104 was persulfurated by 65% in the NIU complex and by 60% in the NIUF complex, whereas C35 was persulfurated by 2–5% in either complex 4 Table 1 | Effects of FXN and ISCU on the single turnover kinetic parameters. Proteins and Reductant k NFS1 kT k ISCU R R complexes (M ÿ 1 s ÿ 1) (s ÿ 1) (M ÿ 1 s ÿ 1) NI DTT 2.9±0.5 NA NA NI þ F DTT 2.9±0.5 NA NA NIU DTT 0.6±0.2 0.0017±0.0002 0.23±0.1 NIUF DTT 14±4 40.09* 0.30±0.1 NIUF GSH 0.1±0.05 40.09* E0 DTT, dithiothreitol; FXN, frataxin; GSH, glutathione; NA, not applicable. kRNFS1 , kT and kRISCU represent the rate constants of NFS1 persulfide reduction, NFS1 persulfide transfer to ISCU and ISCU persulfide reduction, respectively, determined using maleimidepeptide assays. Each data set was fitted using second-order and first-order rate equations for reduction and transfer, respectively (see Methods). The values represent the mean of three independent experiments with associated s.e. *Indicate the minimum value that can be determined in that case using the maleimide-peptide assay. (Table 2). To assess which ISCU cysteine is the primary persulfide receptor, we prepared cysteine-to-serine substitution mutants of the three conserved ISCU cysteines C35, C61 and C104 (C35S, C61S and C104S mutants) and used them in the reaction system. The C61S mutant was only expressed as a truncated polypeptide that did not inteact with the NI complex and was therefore discarded (Supplementary Fig. 5). The C35S and C104S ISCU mutants were expressed as full-length polypeptides that could form a ternary complex with the NI complex. Using the maleimide-peptide assay, we observed that the persulfuration of ISCU was abolished with both the C104S and C35S mutants, and was not influenced by FXN (Fig. 3). These data indicate that C35 N  N N | 6:5686 | DOI: 10.1038/ncomms6686 | www.nature.com/naturecommunications & 2015 Macmillan Publishers Limited. All rights reserved.    ARTICLE      !!"### Table 2 | Identification of ISCU persulfurated peptides in the NIU and NIUF complex. Peptide NVGTGLVGAPACGDVMK TFGCGSAIASSSLATEWVK ELCLPPVK LHCSMLAEDAIK Cysteine C35 C61 C96 C104 CAM 1,645.8036 1,971.948 955.5281 1,387.6708 Expected masses S-CAM (O)2-CAM 1,677.7757 1,677.7934 2,003.9201 2,003.9378 987.5002 987.5179 1,419.6429 1,419.6606 CAM 1,645.8035 1,971.9519 955.5287 1,387.6714 NIU CAM þ 32 1,677.7759 (31.9724) ND ND 1,419.6429 (31.9715) % 5 NA NA 65 CAM 1,645.8044 1,971.9529 955.5289 1,387.6697 NIUF CAM þ 32 1,677.7758 (31.9714) ND ND 1,419.6427 (31.9730) % 2 NA NA 60 CAM, carbamidomethyl; NA, not applicable; ND, not detected; (O)2-CAM, CAM with two oxygen; S-CAM, CAM with persulfide. LC-ESI-MS/MS-ORBITRAP analysis of the tryptic digests of the NIU and NIU complexes after reaction with L-cysteine. The table displays the expected masses of ISCU cysteine-containing petides carrying the following modifications on the cysteine residue: CAM, S-CAM and (O)2-CAM. The experimental masses were determined with a 5-p.p.m. tolerance and those matching the CAM and CAM þ 32 Da modifications are listed with the corresponding quantifications (%; see Methods). The mass differences between the CAM þ 32 and CAM peptides are displayed under coma and are consistent with a sulfur atom (exact mass 31.9721) but not with two oxygen atoms (exact mass 31.9898). and C104 are both important for trans-persulfuration and/or that each of these mutations alter the trans-persulfuration process potentially by modifying the structure of the putative Fe-S cluster-binding site. Although these data cannot tell which of C35 or C104 is the primary ISCU receptor of NFS1 persulfide, they clearly establish that C104 is the major sink of persulfide on ISCU. We then enquired how the persulfide is transferred from NFS1 to ISCU, whether directly from the PLP cofactor of NFS1, from NFS1 persulfide or via small thiol-containing carriers, specifically L-cysteine. Persulfurated NFS1 (NFS1-SSH) was first generated, excess L-cysteine was then removed and ISCU alone or together with FXN were added. We observed that concomitant to the disappearance of NFS1 persulfide, ISCU became persulfurated. Moreover, the rate of ISCU persulfuration measured in the absence of L-cysteine was similar to the one measured in its presence (Supplementary Fig. 6a,b). These data indicate that the transfer of sulfur proceeds by a direct attack of one of ISCU cysteine on NFS1 persulfide in both the NIU and NIUF complexes. So far we have shown that FXN is not required for persulfide formation on NFS1 but stimulates sulfur transfer from NFS1 persulfide to ISCU which could explain the stimulatory effect of FXN on the global rate of sulfide production, if ISCU persulfide is reduced faster than NFS1 persulfide and is thus the main source of sulfide. To assess this hypothesis, we sought to determine the individual rates of persulfide reduction for NFS1 and ISCU and to investigate the influence of FXN on the rates of these reactions. FXN enhances sulfur transfer from NFS1 persulfide to DTT. We first investigated the reaction of NFS1 persulfide reduction with DTT. The persulfides were generated on NFS1 and ISCU by incubating mixtures of equimolar amounts of NFS1–ISD11, ISCU and FXN with L-cysteine. Then, L-cysteine was removed, as it would regenerate the persulfide on NFS1 following its reduction, and DTT was added. We first noticed that NFS1 persulfide reduction was much slower than its formation (Fig. 4a, and see Fig. 2a), which indicated that reduction of NFS1 persulfide is the rate-limiting step of the cysteine desulfurase cycle under these conditions (reaction 2 or 3, Fig. 1a). Remarkably, ISCU and FXN both altered the rate of NFS1 persulfide reduction, but in opposite ways (Fig. 4a,b). While the binding of ISCU to the NI complex slowed down the reaction, the binding of FXN to the NIU complex enhanced it, but had no effect on the NI complex. The data were fitted assuming that reduction of NFS1 persulfide by DTT is a bimolecular reaction (see below, see also Methods; Table 1). The values of the rate constants indicated that ISCU slows down the reaction by fivefold and FXN stimulates the reduction of NFS1 persulfide by approximately 25-fold as compared with NIU. Two different mechanisms of reduction by thiols are feasible, through S-thiolation of NFS1 or sulfur transfer to the thiol L-cys NIU t (s) 0 30 60 120 300 480 600 MW (kDa) –F ISCU +3 ISCU +2 20 +F ISCU +3 ISCU +2 20 –F ISCU +3 ISCU +2 20 +F ISCU +3 ISCU +2 20 C35S C104S Figure 3 | Identification of the persulfurated cysteines of ISCU. Alkylation assays with C35S and C104S ISCU mutants. The kinetics of ISCU persulfide formation in the NIU and NIUF complexes (25 mM) prepared with the C35S and C104S ISCU mutants were initiated with L-cysteine (500 mM) and analysed under reducing conditions. The þ 3 and þ 2 species represent non-persulfurated and persulfurated ISCU mutants, respectively. (Fig. 1a). In the case of the S-thiolation pathway, a DTT adduct is expected that will appear as an NFS1 þ 6 species under nonreducing conditions in the alkylation assays. Under these conditions, no NFS1 þ 6 species was detected (Supplementary Fig. 6c), indicating that NFS1 persulfide is reduced through sulfur transfer on DTT. We thus conclude that FXN stimulates and ISCU slows down sulfur transfer to DTT and that the effect of FXN relies on the presence of ISCU. FXN does not enhance ISCU persulfide reduction. We next examined the influence of FXN on the rate of ISCU persulfide reduction by DTT starting from fully persulfurated forms of both NFS1 and ISCU. The rates of ISCU persulfide reduction were similar in the absence or presence of FXN (Fig. 4c,d), indicating that FXN does not affect this step. The comparison of the respective rate constants of ISCU and NFS1 persulfide reduction by DTT indicated that reduction of NFS1 persulfide is faster than reduction of ISCU persulfide, by threefold in the absence of FXN and 45-fold in its presence (Table 1), suggesting that ISCU may not contribute to the global sulfide production when DTT is used as a reductant. Taken together, the results of the single-turnover kinetics indicate that FXN enhances the rate of two reactions: sulfur transfer to ISCU and sulfur transfer to DTT. However, since DTT is not a physiological reductant, we wondered whether the effect of FXN and the differences in the rates of persulfide reduction between NFS1 and ISCU could be observed with physiologically relevant reductants. $%&'() *+,,'$-*%&-+$. | 6:5686 | DOI: 10.1038/ncomms6686 | www.nature.com/naturecommunications & 2015 Macmillan Publishers Limited. All rights reserved. 5 ARTICLE /01234 56772/850186/9 : ;68< =>?=>@ABCDEFFGHHAH b +F NFS1 +7 NFS1 +6 NI +F NFS1 +7 3,600 2,400 600 240 120 1,200 50 v 50 v +7 –F NFS1 NFS1 +6 NIU v ISCU +4 ISCU +3 +F ISCU +4 ISCU +3 0 d MW (kDa) 25 NIU 25 40 0 50 0 60 120 240 600 1,200 2,400 3,600 t (s) –F 60 20 50 DTT NI NI + F NIU NIUF 80 v NFS1 +6 c 100 MW (kDa) % NFS1-SSH –F NFS1 +7 NFS1 +6 60 t (s) 0 DTT % ISCU-SSH a 1,000 2,000 Time (s) 100 3,000 NIUF NIU 80 60 40 20 0 1,000 2,000 3,000 Time (s) Figure 4 | Influence of FXN on the reduction of NFS1 and ISCU persulfides. (a) Kinetics of NFS1 persulfide reduction in mixtures containing the NI complex alone (25 mM) or the NI complex (25 mM) and equimolar amounts of ISCU and/or FXN, monitored by alkylation assay. The reaction was initiated by DTT (1 mM) and analysed under reducing conditions. The reduction of NFS1 persulfide was characterized by appearance of the NFS1 þ 7 species. The 'v' symbol indicates the time to reach 50% reduced NFS1. (b) Graphical representation of NFS1 persulfide reduction kinetics determined from quantification of the gels in a. The percentage of NFS1-SSH is defined by the amount of the þ 6 species relative to the sum ( þ 7 þ þ 6). The solid line represents the best fit using a second-order rate equation. (c) Kinetics of ISCU persulfide reduction in the NIU and NIUF complexes (25 mM) monitored by alkylation assay. The reaction is initiated with DTT (1 mM) and analysed under reducing conditions. The reduction of ISCU-SSH is characterized by the appearance of the þ 4 species corresponding to non-persulfurated ISCU. (d) Graphical representation of ISCU persulfide (ISCU-SSH) reduction kinetics in the NIU and NIUF complexes, determined by quantification of the gels in c. The solid line represents the best fit using a second-order rate equation. and GSH reduce NFS1 persulfide. Using the maleimide-peptide assay, we assayed persulfide reductase activities of two electron donors postulated to enable persulfide reduction37–39, ferrous iron (Fe2 þ ) and mammalian mitochondrial ferredoxin 2, FDX2, in its reduced state. Neither iron alone or together with FDX2 had an impact on NFS1 or ISCU persulfides (Supplementary Fig. 7a). We thus tested the thiol-containing molecules, GSH, which contributes to cytosolic Fe-S cluster assembly in yeast by a still undefined mechanism40,41 and L-cysteine. GSH did not affect ISCU persulfide even after 60 min, but could reduce NFS1 persulfide (Supplementary Fig. 7b) albeit at a rate approximately 140-times lower than DTT (Table 1). To test L-cysteine, the maleimide-peptide assay could not be used since L-cysteine would regenerate NFS1 persulfide following its reduction. We instead monitored L-alanine production (Fig. 5a). For each concentration of L-cysteine, the amount of L-alanine generated exceeded the concentration of the NI complex, which indicated that several turnovers were achieved and thus that L-cysteine was able to reduce NFS1 persulfide. Cystine (oxidized cysteine), which is the expected by-product of persulfide reduction by L-cysteine, was concomitantly generated in the reaction mixture, further supporting this conclusion (Supplementary Fig. 7c–e). To determine whether L-cysteine reduces NFS1 through sulfur transfer or S-thiolation (Fig. 1a), we analysed the kinetics of persulfide formation under non-reducing conditions since an NFS1 þ 6 species is expected to appear in the case of the S-thiolation pathway. No L-cysteine adduct was detected under these conditions, which is consistent with the sulfur transfer mechanism of reduction (Fig. 1d and Supplementary Fig. 1b). Moreover, the kinetics of Fe-S cluster reconstitution performed with L-cysteine as a reductant (without DTT), displayed a lag L-cysteine 6 phase indicative of a delay in sulfide release (Supplementary Fig. 8a–c). Such a lag phase is not expected in the case of the S-thiolation mechanism for which sulfide release should initiate immediately upon adding L-cysteine, whereas it is consistent with the sulfur transfer mechanism for which sulfide release is not directly correlated with NFS1 persulfide reduction but with the subsequent step of reduction of the persulfurated thiol (Fig. 1a, reaction (3b)). These data thus further support the sulfur transfer mechanism. Altogether, the single-turnover kinetics indicate that thiols such as DTT, L-cysteine and GSH are able to reduce NFS1 and ISCU persulfides but these reactions are not synchronized. The reduction of NFS1 persulfide by thiols is apparently more efficient than the reduction of ISCU persulfide. We have thus asked whether the reduction of ISCU contributes to sulfide release in multiple-turnover kinetics. Thiol-dependent sulfide release is mediated by NFS1 persulfide. We investigated the influence of FXN on the rate of L-alanine production. Analysis of multiple-turnover kinetics under steadystate conditions is also a powerful tool to determine the mechanism by which L-cysteine reduces protein persulfide. Two mechanisms were considered: (i) formation of an enzyme–substrate complex as described by the Michaelis–Menten model for which the initial velocity reaches a plateau when the concentration of substrate increases as the enzyme becomes saturated42 and (ii) a bimolecular process for which non-saturation behaviour is expected. We thus measured initial velocities of L-alanine production under steadystate conditions (see Methods) for various concentrations of Lcysteine. The variations of the initial velocities of L-alanine formation by the NI complex alone or in the presence of $%&'() *+,,'$-*%&-+$. | 6:5686 | DOI: 10.1038/ncomms6686 | www.nature.com/naturecommunications & 2015 Macmillan Publishers Limited. All rights reserved. ARTICLE b Initial velocity (μM s–1) 150 100 50 20 0 50 0 1, 00 0 2, 00 0 0 60 0 c 0.3 Initial velocity (μM s–1) a [L-alanine] (μM) /01234 56772/850186/9 : ;68< =>?=>@ABCDEFFGHHAH NI NI + F 0.2 0.1 0.0 0.0 0.5 [Cys] (μM) 1.0 1.5 2.0 0.3 NIUF NIU 0.2 0.1 0.0 0.0 [Cys] (mM) 0.5 1.0 1.5 2.0 [Cys] (mM) Figure 5 | Effects of FXN on the NFS1–ISD11–ISCU complex in multiple-turnover kinetics. (a) Effects of L-cysteine concentration on the amount of Lalanine produced by the NIUF complex. The reactions were performed with the NIUF complex (20 mM) and increasing amounts of L-cysteine in the absence of DTT. L-alanine production was monitored by ADH assays after 10 min of reaction. (b,c) Effect of FXN and ISCU on the initial velocities of L-alanine formation under steady-state conditions. The NI complex (20 mM) alone and with equimolar amounts of FXN (b) and the NIU and NIUF complexes (20 mM) (c) were incubated with various amounts of L-cysteine and the initial velocities were plotted as a function of L-cysteine concentrations. The bars represent the s.e. from three independent experiments. The lines represent the linear regression. equimolar amounts of FXN and/or ISCU displayed a linear relationship with the concentration of L-cysteine up to 2 mM (Fig. 5b,c). Such behaviour is a feature of bimolecular reactions. A similar mechanism was reported for the IscS-like cysteine desulfurase Slr0387 from Synechocystis sp. PCC 6803 that exhibited second-order kinetic with thiols as reducers of the persulfide43. However, saturation behaviours that were interpreted using the Michaelis–Menten model, were obtained by other groups with mammalian NFS1 using higher L-cysteine to NFS1 ratios (1,000 equivalents of L-cysteine for the highest concentration versus 100 equivalents of L-cysteine here)11,14,32. By increasing Lcysteine concentration above 2 mM, we indeed observed that the variation of the initial velocity deviated from linearity and even decreased at very high L-cysteine concentrations for the NIU complex (Supplementary Fig. 9a). Analysis using the Michaelis– Menten equation yielded KM values in the range of 50–150 mM. These KM values are unlikely physiological. Moreover, they are much higher than those reported earlier, that is, in the 10–40 mM range11,14,32, indicating that the KM values are concentration dependent, which is not consistent with an enzyme–substrate model. L-cysteine and DTT were reported to inhibit the cysteine desulfurase Slr0387 from Synechocystis sp. PCC 6803 and NifS from E. coli43,44. Therefore, we hypothesized that the saturation behaviours observed by other groups with NFS1 could be due to inhibition caused by L-cysteine itself at ratios above 100 equivalents. The bimolecular rate constants determined by linear regression of the data indicated that FXN did not alter the rate of L-alanine production by the NI complex but significantly enhanced it in the presence of ISCU (Fig. 5b,c and Table 3). Conversely, the binding of ISCU to the NI complex decreased the rate of L-alanine production by the NI complex. These effects are reminiscent of the effects of FXN and ISCU on NFS1 persulfide reduction by DTT observed by single-turnover kinetics (see Fig. 4a,b). However, in these multiple-turnover kinetics, the reduction of ISCU persulfide may also contribute to the global rate of L-alanine production, we thus sought to determine the rate-limiting step of the catalytic cycle. To selectively disturb persulfide reduction without affecting its formation, we examined the influence of DTT on the global rate of L-alanine production, since DTT is only involved in the reduction step. We observed that the initial velocity of L-alanine production increased with the concentration of DTT, which is a first indication that reduction is rate-limiting (Supplementary Fig. 9b). This conclusion was supported by a second observation. The plot of L-alanine formation by the NI complex alone or in the Table 3 | Effects of FXN and ISCU on the multiple turnover kinetic parameters. Proteins and complexes NI NI þ F NIU NIUF NI NI þ F NIU NIUF Reductant L-cys L-cys L-cys L-cys DTT DTT DTT DTT ÿ 1 s ÿ 1) k NFS1 R;MT (M 6.1±0.5 6.2±0.5 1.2±0.2 7.1±0.5 5.3±0.5 5.0±0.5 0.6±0.2 12±1 DTT, dithiothreitol; FXN, frataxin; L-cys, L-cysteine. NFS1 The bimolecular rate constants of NFS1 persulfide reduction, kR;MT , were determined from multiple-turnover kinetics by linear regression of the initial velocities of L-alanine formation plotted as a function of initial reductant concentrations. presence of FXN and/or ISCU, when extrapolated to t 1⁄4 0 did not intersect the y axis at y 1⁄4 0 and the amount of L-alanine generated was correlated to the amount of complex (Supplementary Fig. 9c–g). This initial burst represents the amount of L-alanine generated during the first half-turnover of NFS1 persulfide formation (reaction 1, Fig. 1a) and the following part of the reaction (t40) reflects subsequent turnovers for which reduction is now required. The respective rates of these two different phases:420 mM s ÿ 1 for persulfide formation and in the range of 0.1 to 1 mM s ÿ 1 for the second part indicate that reduction is slowing down the reaction and thus that it is the rate-limiting step. A similar initial burst was observed in the absence of DTT with L-cysteine as the reductant, indicating that reduction is still rate limiting under this condition (Supplementary Fig. 9h). The single-turnover kinetics indicated that the reduction of ISCU persulfide by thiols is slower than the reduction of NFS1 persulfide and we confirmed that ISCU persulfide does not contribute to the global rate of L-alanine production by measuring the rates of L-alanine production by the NIU complexes assembled from the C104S and C104G ISCU mutants that are non-persulfurable (Supplementary Fig. 9i). Moreover, the bimolecular rate constants for reduction by DTT determined from the multiple turnover experiments were in very good agreement with those determined in single turnover for reduction of NFS1 persulfide by DTT (compare Tables 1 and 3 for DTT). We thus identify persulfide reduction as the rate-limiting step of the catalytic cycle, while ISCU persulfide reduction does not $%&'() *+,,'$-*%&-+$. | 6:5686 | DOI: 10.1038/ncomms6686 | www.nature.com/naturecommunications & 2015 Macmillan Publishers Limited. All rights reserved. 7 ARTICLE /01234 56772/850186/9 : ;68< =>?=>@ABCDEFFGHHAH contribute. These results establish that FXN stimulates and ISCU slows down the reduction of NFS1 persulfide by thiols. Discussion The functional role of the small mitochondrial protein FXN has been the focus of much interest since its discovery8. Only recently it was demonstrated that FXN associates with the early components of the mitochondrial Fe-S cluster biogenesis pathway, NFS1 and ISCU2,23. It was then reported that in the presence of ISCU, mammalian FXN stimulates sulfide production by NFS1 and this was correlated with stimulation of Fe-S cluster assembly11,14. Here we confirm that FXN interacts with the ternary NFS1–ISD11–ISCU (NIU) complex to form a quaternary NFS1–ISD11–ISCU–FXN (NIUF) complex. Our titration assays indicate that FXN is mainly associated with the NIU complex at 20 mM and similar results were obtained by other groups with protein concentrations down to 1 mM11,14, which means that the dissociation constant of the NIUF complex is much lower than 1 mM. However, the size exclusion chromatography profiles show that FXN dissociates from the NIU complex during elution at 100 mM, whereas ISCU remained associated with NFS1 in the same conditions. These observations suggest that the inteaction of FXN with the NIU complex may be more dynamic than the interaction of ISCU with NFS1 (rapid versus slow dissociation) as also proposed in another study45 and possibly to facilitate exchange with other accessory proteins on the NIU complex. We have then studied the mechanism by which FXN may stimulate Fe-S cluster assembly. Here we show that FXN modulates the rate of sulfur transfer to ISCU and reduction of NFS1 persulfide by free thiols. To reach this conclusion, we have developed a novel method to probe and quantify protein persulfides. This assay is based on detection of protein gel mobility shifts upon reduction of persulfurated cysteine labelled with synthetic maleimide-peptide and was validated by direct identification of persulfide through mass spectrometry analysis. Compared with the other techniques described for identification of persulfide46–48, the peptidemaleimide assay provides additional advantages, including the small number of steps required before analysis, its selectivity and owing to its ratiometric nature it provides an accurate quantification of the ratio of persulfurated versus non-persulfurated species. Moreover, it is the first assay enabling determination of the number of persulfurated cysteine residues. This assay was a powerful tool to disentangle formation, reduction and transfer of NFS1 persulfide and thereby to study single-turnover kinetics of these reactions. We have characterized the different events triggered by the reaction of NFS1 with Lcysteine and we have estimated the rates of the these reactions. The reaction is initiated by the formation of a persulfide on NFS1, which is the fastest reaction of the catalytic cycle. The sulfane sulfur of NFS1 persulfide is then rapidly transferred to ISCU in a trans-persulfuration process leading to persulfuration of ISCU on one of its cysteine residues. Upon regeneration of NFS1 persulfide by L-cysteine, this persulfide is reduced by external thiols such as DTT, GSH and L-cysteine. The reduction of NFS1 persulfide likely proceeds by sulfur transfer rather than S-thiolation (Fig. 1a). ISCU persulfide is also reduced by external thiols but at a markedly slower rate than NFS1 persulfide. The analysis by mass spectrometry indicates that the persulfides generated on NFS1 and ISCU are mainly mono-persulfides. Although we cannot firmly establish which of the three conserved cysteine of ISCU (C35, C61 or C104) is the primary receptor of NFS1 persulfide, we have identified C104 as the main persulfurated cysteine of ISCU. We have also demonstrated that this reaction is direct and proceeds by a direct nucleophilic attack of one ISCU cysteine on the persulfide of NFS1. 8 We have then investigated the influence of FXN on these reactions. The single-turnover kinetics first provide evidence that formation of NFS1 persulfide reaches E95% completion in 10 s, irrespective of the presence of ISCU and/or FXN. We thus conclude that FXN is not required for persulfide formation of NFS1 as confirmed by mass spectrometry analysis. These results challenge two recent studies reporting a stimulatory effect of FXN and its yeast homologue, Yfh1, on NFS1 persulfide formation12,31. In these studies, the formation of persulfide was monitored using 35S labelling of L-cysteine. Unfortunately, as the persulfide were not protected by alkylation before running electrophoresis under denaturating conditions, it is not excluded that they were reduced or exchanged with other cysteines, which may explain the discrepancy between our respective studies. However, since the formation of NFS1 persulfide was almost complete in 10 s for all the complexes, we cannot exclude the possibility that FXN stimulates persulfide formation on a timescale below 10 s. The single-turnover kinetics reveal that FXN enhances the rate of sulfur transfer from NFS1 persulfide to ISCU and sulfur transfer of NFS1 persulfide to the small thiol-containing molecule DTT, L-cysteine and GSH. Conversely, ISCU slows down sulfur transfer to these thiols. In contrast, FXN does not alter the rate of ISCU persulfide reduction. The multiple-turnover kinetics indicate that the reduction of NFS1 persulfide is the rate-limting step of the catalytic cycle, hence that the effects of FXN and ISCU on the global rate of the reaction are only related to a modulation of the rate of NFS1 persulfide transfer to these thiols, regardless of a possible additional effect of FXN on NFS1 persulfide formation. These data confirm the results of the single-turnover kinetics. The reduction step is also the rate-limiting reaction of the catalytic cycle of other group I cysteine desulfurases, which suggests that this might be a common feature of this class of enzymes43,44,49. Taken together, our results thus point to a unique molecular function of FXN as an enhancer of sulfur transfer to ISCU and small free thiols (Fig. 6). Sulfide release does occur subsequently, upon condensation of the persulfurated thiol with a second thiol (Fig. 1a, reaction (3b)), but is not directly catalysed by FXN. These results rule out the hypothesis that FXN stimulates sulfide release by enhancing persulfide formation on NFS1, as proposed by others11,12,14,31. FXN has also been proposed to stimulate iron entry within the NIU complex in Fe-S cluster reconstitution assays with DTT11. However, since the stimulation of sulfide release, in turn increases the amount of iron bound in the form of Fe-S clusters, the higher proportion of iron bound to the NIUF complex versus the NIU complex, might be a consequence of the enhancement of sulfide production by FXN. These data raise several questions on the physiological mechanism of Fe-S cluster biogenesis: what is the respective role of the two reactions of transfer? Are these reactions correlated with physiologically relevant Fe-S cluster assembly on ISCU? We first determined that ISCU persulfide does not contribute to sulfide release and is not even reduced in Fe-S cluster reconstitution assays when thiols are used as reductants (Supplementary Fig. 10a–d). Thus, under these conditions, sulfide production arises exclusively from reduction of NFS1 persulfide and FXN drives Fe-S cluster assembly by enhancing this reaction. However, the rate of Fe-S cluster assembly is slow when DTT and/or L-cysteine are used as reductants (1 h to complete reconstitution on ISCU with L-cysteine) and the reconstitution is inefficient as at least 30 equivalents of sulfide ions are produced in 1 h with L-cysteine (according to the rate constants, Table 3) while only two equivalents would be required for building up a [2Fe2S] cluster (Supplementary Figs 8 and 10). These observations suggest that L-cysteine (and also GSH which is an even less efficient reducer of NFS1 persulfide) are not the physiological $%&'() *+,,'$-*%&-+$. | 6:5686 | DOI: 10.1038/ncomms6686 | www.nature.com/naturecommunications & 2015 Macmillan Publishers Limited. All rights reserved. ARTICLE /01234 56772/850186/9 : ;68< =>?=>@ABCDEFFGHHAH Without FXN (b) SH (a) SSH (a) SH SH RSH SSH SH L-Cys(SH) ISD11 NFS1 ISCU ISD11 NFS1 k =1,7.10–3 s–1 ISD11 C104 (C35) NFS1 ISCU SH ISCU SH (b) k =1.10–4 s–1 ISD11 NFS1 ISCU + RSSH Lower rates of transfer to ISCU and RSH With FXN (b) FXN (a) SH SH FXN ISD11 NFS1 RSH SH FXN L-Cys(SH) ISCU SSH ISD11 NFS1 SSH SH (a) k=9.10–2 s–1 (×50) ISCU ISD11 NFS1 C104 (C35) ISCU SH (b) SH FXN NFS1 ISCU + RSSH ISD11 k =7.10–4 s–1 (≈×10) Higher rates of transfer to ISCU and RSH Figure 6 | Molecular model for the function of FXN in the ISC machinery. In the presence of FXN, the rates of two reactions are enhanced (a) sulfur transfer to ISCU and (b) sulfur transfer to free thiol-containing molecules (RSH) such as L-cysteine and GSH. The rate constants are indicated. For comparison of the rates of transfer to ISCU and RSH, a first-order rate constant for sulfur transfer to RSH has been computed assuming a concentration of 100 mM of L-cysteine that is close to the physiological concentration50. reductants or that other accessory proteins might be required to secure Fe-S cluster assembly. More likely, since FXN specifically activates sulfur transfer to ISCU, the persulfuration of ISCU might have a functional role in Fe-S cluster assembly but a dedicated reductase is lacking in the Fe-S cluster reconstitution assays. The human ferredoxin FDX2, which provides electrons for Fe-S cluster biogenesis38,39, is a potential candidate for the reduction of ISCU. However, under our conditions, we were not able to measure any persulfide reductase activity with FDX2. Nervertheless, we cannot exclude that under physiological conditions, FDX2 could be involved in the reduction of ISCU and NFS1 persulfides by a mechanism that still needs to be defined. Following this hypothesis, the stimulation of sulfur transfer to small thiol molecules by FXN may serve another function, possibly sulfur trafficking within the cell. Collectively, our data point to a specific role of FXN in the control of NFS1 persulfide reduction by thiols, enhancing sulfur transfer to both ISCU and free thiols such as L-cysteine and GSH. These data shed new light on the molecular function of FXN and on the early steps of Fe-S cluster assembly by raising important physiological questions on the mechanism of Fe-S cluster biogenesis. Methods Chemicals and biochemical products. Luria Bertani medium, protease inhibitor cocktail, N,N'-diisopropylcarbodiimide, DTT, dithionite, trichloroacetic acid (TCA), L-cysteine, L-alanine, L-cystine, L-alanine dehydrogenase (ADH), b-nicotinamide adenine dinucleotide hydrate (NAD þ ), ferrous ammonium sulfate (Fe(NH4)2(SO4)2), His6-thrombin, iodoacetamide (IAA) were from Sigma-Aldrich; isopropyl-b-D-1-thiogalactopyranoside was from AppliChem; disuccinimidyl tartrate from Pierce; trypsin (sequence grade) from Promega; Fmoc-amino acids and the Rink amide p-methylbenzlhydrylamine support were from Novabiochem; 3-maleimidopropanoic acid was from Bachem; 1-hydroxybenzotriazole (HOBt  H2O) from Acros Organics and ACCQ-fluo reagent kit from Waters. HiTrap chelating HP column (5 ml), HiPrep Desalting 26/10, HiLoad 26/600 prep grade Superdex 200 and Superdex 75 columns were from GE Healthcare; Amicon Ultra centrifugal filter ultracel 10 and 30 kDa from MILLIPORE, MicroBio-Spin6 columns from Bio-Rad; Rosetta2-(DE3) and pET28b from Novagen. Plasmid and cell culture purification. The vectors expressing NFS1-(amino acid (aa) 59 to 459), ISD11, ISCU-(aa 36–168) and FXN-(aa 79–207) were kindly provided by Dr Hélène Puccio (IGBMC, Strasbourg) and their construction was reported earlier11. His-tags followed by thrombin (Thr) cleavage sites were introduced by mutagenesis leading to the expression plasmids pCDFDuet(site1):His6-Thr-NFS1-(site2):ISD11, pETDuet-(site1):His6-Thr-ISCU and pET16His6-Thr-FXN. The C35S, C61S, C104S and C104G mutations were introduced in ISCU by site-directed mutagenesis (IMAGIF platform, Gif Sur Yvette, France). The vectors expressing human His6-Thr-FDX2 (aa 53–183) from pET28b were generated by GenScript (Piscataway, USA). The Rosetta2-(DE3) cells were transformed with the plasmids and the cells were grown from a single colony at 180 r.p.m. at 37 °C in Luria Bertani medium with appropriate antibiotics. Protein expression was induced when the cells reached OD600 1⁄4 0.6 using 500 mM isopropyl-b-D-1-thiogalactopyranoside and the cells incubated for an additional 16 h at 18 °C at 180 rpm. The cell cultures were harvested by centrifugation at 5,500 r.p.m. for 10 min at 4 °C. Cell pellets were resuspended in buffer A (50 mM Na2HPO4, 150 mM NaCl, 5 mM imidazole, pH 8) containing a protease inhibitor cocktail. The cell suspensions were lysed by three cycles of French Press. Cell debris were removed by centrifugation at 45,000 r.p.m. for 45 min at 4 °C. The His-tagged proteins NFS1–ISD11, ISCU (WT and mutants), FXN and FDX2 were purified on a HiTrap chelating HP loaded with nickel ions. The resin was washed with buffer A and bound proteins were eluted by a linear gradient between buffer A and buffer B (50 mM Na2HPO4, 150 mM NaCl, 500 mM imidazole, pH 8). Protein fractions were mixed and concentrated on Amicon 10 or 30 kDa to 4 ml. The partially purified His6-NFS1–ISD11 complex was incubated for 10 min with 10 mM DTT at room temperature to remove persulfide and then loaded on a HiLoad 26/600 Superdex 200 prep grade column pre-equilibrated with buffer C (50 mM Na2HPO4, 150 mM NaCl, pH 8). The His-tag could not be removed from the NFS1–ISD11 complex as cleavage by thrombin yields non-specific cleavages. The ISCU (WT and mutants), FXN and FDX2 proteins were buffer exchanged on HiPrep Desalting 26/ 10 and the His-tags were successfully removed by treatment with thrombin (3.5 NIH unit of His6-thrombin per mg of proteins) for 16 h at 22 °C. Before thrombin cleavage, ISCU and FXN both migrate as a double band on SDS–PAGE, indicating that significant amounts of these proteins were partially modified. We have attributed this modification to an N-gluconoylation of the His-tag as described for NFS1 (Fig. 2b,c, Supplementary Fig. 3a,b and Supplementary Table 1), since FXN and ISCU are no longer modified after cleavage of the His-tag according to mass spectrometry (Fig. 2f,g). The His-tag fragments and His6-thrombin were removed by purification on a HiTrap chelating HP loaded with nickel ions and equilibrated with buffer A. The ISCU proteins (WT and mutants) were incubated with 10 mM DTT for 10 min to remove persulfide. The ISCU (WT and mutants) and FDX2 proteins were loaded on a HiLoad 26/600 Superdex 75 prep grade column preequilibrated with buffer C. All the proteins were aliquoted and stored in glycerol (10% final) at ÿ 80 °C. Protein concentrations were determined from absorbance at 280 nm. The purified C61S ISCU mutant migrated on SDS–PAGE with an apparent molecular weight of 10 kDa suggesting that the protein is truncated. Formation of complexes by size exclusion chromatography. The formation of complexes was analysed by size exclusion chromatography using a Superdex S200 10/300 column (GE Healthcare). The proteins were mixed together in buffer C and eluted at a flow rate of 0.8 ml min ÿ 1 and 0.5 ml fractions were collected for SDS–PAGE analysis. The column was calibrated using a calibration kit (Sigma). $%&'() *+,,'$-*%&-+$. | 6:5686 | DOI: 10.1038/ncomms6686 | www.nature.com/naturecommunications & 2015 Macmillan Publishers Limited. All rights reserved. 9 ARTICLE /01234 56772/850186/9 : ;68< =>?=>@ABCDEFFGHHAH For the detection of the NIU complexes, 250 ml of a mixture containing 20 mM of the NI complex with equimolar amounts of ISCU (WT and cysteine mutants) was injected; for detection of the NIUF complexes, 200 ml of a mixture containing 100 mM of the NI complex with three equivalents of ISCU and five equivalents of the His-tagged version of FXN was injected. Synthesis of MalP16. The maleimide-peptide compound MalP16 comprises a maleimide moity linked to the 16-mer Leu-Val-Pro-Arg-Gly-Ser-Tyr-Lys-Gly-ThrSer-Lys-Leu-Asn-Tyr-Leu-NH2 peptide. The peptide was elongated manually in a polyethylene syringe fitted with a polypropylene disc. Washing (3  ) of the Rink amide resin with dichloromethane (DCM) and N,N-dimethylformamide (DMF) was followed by treatment with 20% piperidine/DMF (2  15 min) and washing (DCM, DMF, MeOH). Coupling conditions: 3 equivalents (eq.) of Fmoc-amino acid, 1-hydroxybenzotriazole and N,N 0 -diisopropylcarbodiimide (minimum amount of DCM and a few drops of DMF, 90 min), followed by washing (DCM, DMF and MeOH). Incomplete couplings (Kaiser test) were repeated with 2 eq. of reagents. Removal of Fmoc groups: 20% piperidine/DMF (1  3 min þ 1  10 min), followed by washing (DMF, DCM). Activation of 3-maleimidopropanoic acid was carried out with the carbodiimide. Final deprotection conditions: 90:5:5 TFA:H2O:triisopropylsilane (2  1 h). Collected filtrate and DCM washings were concentrated under an N2 stream and cold diethyl ether (10 volumes) was added to the resulting oil. The mixture was centrifuged (10 min, 5 °C, 4,800 r.p.m.) and decanted. This procedure was repeated three times. High-performance liquid chromatography (HPLC) purification: Phenomenex semipreparative Jupiter Proteo column (10 mm, 90 Å, 250  10 mm), A: 0.1% TFA in water, B: 0.1% TFA in acetonitrile, 3 ml min ÿ 1, 280 nm, linear gradient from 25 to 50% of B. Fractions containing the pure peptide were pooled and lyophilized. Overall yield (from ultraviolet quantification, Tyr: ÿ 1 cm ÿ 1): 22%. Analytical HPLC: Jupiter Proteo column (4 mm, 280 1⁄4 1,480 M 90 Å, 250  4.6 mm), A: 0.045% TFA in water, B: 0.036% TFA in acetonitrile, 1 ml min ÿ 1, 280 nm, linear gradient from 20 to 40% of B in 30 min, tR 1⁄4 13.3 min. Matrix-assisted laser desorption/ionization-time-of-flight mass spectrometry (reflector, 2,5-dihydroxybenzoic acid þ 0.1% TFA, positive mode): m/z 1,946.4 [M þ H] þ , 1,968.4 [M þ Na] þ , 1,984.4 [M þ K] þ ; M calc. for C89H140N24O25 1,945.0. Maleimide-peptide alkylation assay. The MalP16 was dissolved in purified water. All maleimide-peptide alkylation assays, unless indicated, were performed in buffer C using 25 mM NFS1–ISD11 and equimolar amounts of ISCU (WT and mutants) and/or FXN. For studies of persulfide formation, the reactions were initiated with L-cysteine (500 mM) and incubated at 25 °C. For studies of persulfide reduction, fully persulfurated NFS1 and ISCU were generated by incubating the NI complex in the presence of equimolar amounts of FXN or FXN and ISCU (NIUF complex) for 3 min and the NIU complex for 25 min at 25 °C with 500 mM L-cysteine to reach completion of the trans-persulfuration reaction. Excess L-cysteine was removed by desalting on micro-BioSpin6. Next the reduction reactions were initiated by adding the reductant and the complexes were incubated at 25 °C. Most experiments were performed with DTT (1 mM) as a reductant. Other reductants were also tested: GSH (1 mM), reduced FDX2 and Fe2 þ (see Supplementary Fig. 7). Reaction kinetics (formation and reduction) were monitored by sampling 10 ml of the reaction mixture at different time points, as indicated in the figures, and the reaction was stopped using either a 1.5-fold molar excess of MalP16 relative to free thiols (protein cysteines, L-cysteine and possibly DTT) and SDS (2%) or TCA to a final concentration of 10%. For the TCA precipitation procedure, the reaction mixture was mixed with an equal volume of ice-cold TCA (20%) and the pellets were washed three times with ice-cold acetone. The protein pellets were resuspended in 10 ml buffer C containing 8 M urea and 10 mM MalP16. The reactions quenched by MalP16/SDS and TCA were incubated for 20 min at 30 °C, with constant shaking at 550 r.p.m. Half-reaction volumes were incubated with 1 ml of DTT at 100 mM for 20 min at 25 °C. Each reaction aliquot (7–8 ml) was analysed (500 ng of proteins) on 8 and 14% SDS–PAGE gels in non-reducing (without DTT) and reducing conditions (with DTT). TCA precipitation yielded essentially the same results as the MalP16/SDS quenching procedure, thus MalP16/SDS quenching was used on a day-to-day basis. Controls were used to determine the total number of cysteines available for alkylation by MalP16 in NFS1, which contains seven cysteine residues, and ISCU, which contains four cysteine residues (Supplementary Fig. 1a,c). MalP16 (2 eq.) relative to total sulfhydryl content were added to NFS1 (20 mM) or to a mixture of NFS1 (20 mM) and ISCU (20 mM) in buffer C, and the alkylation reaction was stopped after 30 s using the TCA procedure. Several other modifications engaging one or two cysteines could give rise to a false positive (non-alkylable cysteine residue), such as sulfenic, sulfinic or sulfonic acid, sulfenamide and disulfide bond, but this can be readily circumvented by analysing the proteins under non-reducing conditions where non-alkylable cysteines can be detected. Finally, the protein bands on SDS–PAGE were quantified using an Odyssey scanner (Li-Cor). The uncropped images of the gels used for the various figures are displayed in Supplementary Figs 11 and 12. The data obtained for persulfide reduction by DTT and GSH were fitted assuming a bimolecular mechanism as demonstrated in multiple-turnover kinetics for NFS1 persulfide reduction (see 10 Fig. 5c,d) using equation (1) for second-order kinetic42, v1⁄4E0 ðexpð ÿ kR S0 tÞÞ ð1Þ where S0 is the initial concentration of reductant (DTT or GSH) and kR the bimolecular rate constant. The data of transfer were fitted assuming a monomolecular mechanism using equation (2) for first-order kinetic42. v1⁄4E0 ð1 ÿ expð ÿ kT tÞÞ ð2Þ al.12, maleimide-peptide alkylation assays For studies as performed by Pandey et were performed in a final volume of 200 ml in buffer C using 50 nM of the NFS1– ISD11 complex with or without an equimolar amount of FXN. The reactions were initiated with 2 eq. of L-cysteine (100 nM) and were incubated for 15 min at 30 °C. The reactions were stopped using 50 eq. of MalP16 relative to free thiols (cysteine from proteins and L-cysteine) and 2% SDS. The reaction mixtures were incubated for 20 min at 30 °C. Half-reaction volumes were incubated with 1 ml of 100 mM DTT for 20 min at 25 °C. The samples (85 ml) were concentrated using a SpeedVac apparatus to 20–25 ml. The samples were analysed on 8% SDS–PAGE gels in nonreducing (without DTT) and reducing conditions (with DTT). Cysteine desulfurase assays. The amount of L-alanine generated during the reaction was determined using L-ADH, which generates 1 equivalent of NADH per L-alanine consumed (denoted ADH assay in the text). The reactions were performed in buffer C and initiated using L-cysteine at various concentrations as indicated in the figure legends and incubated at 25 °C. Samples (10, 20 or 30 ml) were withdrawn from the solution at various time points and the reaction was stopped using TCA precipitation (0.8% final). After 5 min of incubation on ice, the samples were centrifuged at 14,500 r.p.m. for 4 min at room temperature and NaOH at a final concentration of 70 mM was added to neutralize TCA. The reaction mixtures were then centrifuged again at 14,500 r.p.m. for 4 min at room temperature. Each sample was analysed in a final volume of 100 ml containing NAD þ (6 mM) and L-alanine dehydrogenase (1 U) in 50 mM NaHCO3, pH 10. The kinetics of NADH formation was monitored at 340 nm during 20 min to reach completion. The curves were fitted assuming first-order kinetic42 and the concentration of NADH corresponding to the total absorbance deviation at 340 nm was calculated using an extinction coefficient of 4,427 M ÿ 1 cm ÿ 1 (determined using L-alanine standard solutions). For determination of the stoichiometry of the complexes by dose–response experiments (Supplementary Fig. 2f–h), the reaction was performed with 20 mM of the NFS1–ISD11 complex and increasing amounts of FXN and/or ISCU in the presence of 0.5 mM L-cysteine and 1 mM DTT. Unless indicated, the other ADH assays were performed with 20 mM of the NFS1–ISD11 complex and equimolar amounts of ISCU (WT and mutants) and/or FXN. For determination of the kinetic parameters, steady-state conditions were cautiously controlled. Accordingly, the rate of alanine production reaches a steady-state (linear variation) after B1 min for the NIUF complexes and 20 min for the NIU complex (corresponding to the time required for persulfuration of ISCU). Steady-state conditions were achieved in all cases by (1) monitoring L-alanine production at four different time points to ensure that the rates are actually linear and (2) selecting reaction times to ensure that no more than 30% of L-cysteine or DTT were consumed. For L-cysteine, we considered that three L-cysteine molecules are consumed for each L-alanine generated, as cysteine is also consumed by the reduction process. The initial velocities were determined from the linear regression using these four different time points. Fe-S cluster assembly. Fe-S cluster assembly reactions were performed under anaerobic conditions in a glove box. Before introduction into the glove box, all the proteins were deoxygenated by flushing the head space with argon and the buffer by bubbling argon inside. The NSF1–ISD11 complex (50 mM) was mixed with equimolar amounts of ISCU with or without FXN in buffer C at 25 °C. Then, 4 eq. of Fe(NH4)2(SO4)2 were added and the solutions were incubated for 2 min. The reactions were initiated using 30 eq. of L-cysteine (1.5 mM) with or without DTT (1.5 mM) and transferred to a septum-sealed cuvette. Ultraviolet–visible spectra between 200 and 800 nm were recorded every minute on a Cary 100 (Varian) spectrometer at 25 °C. Mass spectroscopy. The samples analysed by ESI-Q/TOF were prepared using 40 mM of the NFS1–ISD11 complex with or without equimolar amounts of ISCU and/or FXN in buffer C at 25 °C. The reactions were initiated with 10 eq. of L-cysteine (400 mM) and incubated for 3 min at 25 °C. The samples were buffer exchanged in 50 mM NH4OAc, pH 7 buffer using micro-biospin6. Proteins were denatured for 5 min in 50% acetonitrile and 1% formic acid. Mass spectrometry measurements were performed with an electrospray Q/TOF mass spectrometer (Q/TOF Premier, Waters) equipped with the Nanomate device (Advion). Spectra were recorded with an estimated mass accuracy of ±1 Da. The HD_A_384 chip (5 mm i.d. nozzle chip, flow rate range 100 ÿ 500 nl min ÿ 1) was calibrated before use. For ESI ÿ MS measurements, the Q/TOF instrument was operated in RF quadrupole mode with the TOF data being collected between m/z 300 and 2,990 for whole proteins. Collision energy was set to 6 eV and argon was used as the collision gas. The Mass Lynx 4.1 software was used for acquisition and data processing. Deconvolution of multiply charged ions was performed by applying the IJKLMO PQRRLISPJKSQIT | 6:5686 | DOI: 10.1038/ncomms6686 | www.nature.com/naturecommunications & 2015 Macmillan Publishers Limited. All rights reserved. ARTICLE /01234 56772/850186/9 : ;68< =>?=>@ABCDEFFGHHAH MaxEnt1 algorithm. External calibration was performed with NaI clusters (2 mg ml ÿ 1, isopropanol/H2O 50/50) in the acquisition m/z mass range. The samples analysed by Orbitrap-MS/MS were prepared in buffer C using 20 mM of the NIU and NIUF complexes. The reactions were performed with Lcysteine (400 mM) in a final volume of 20 ml for 1 min with the NIUF complex and 1 h with the NIU complex. Controls without L-cysteine were also analysed. The reactions were stopped by adding 5 ml of buffer C containing 20 mM of IAA and were incubated for 15 min at 30 °C in the dark. The alkylation reaction continues by adding 100 ml of buffer C containing 8 M urea and 50 mM IAA and incubate 1 h at 30 °C in the dark. Excess IAA was removed by TCA precipitation as described for the alkylation assay. The protein pellets were resuspended in 20 ml of buffer C containing 8 M urea. The samples were diluted 8  in buffer C and incubated with trypsin (2% of total protein mass) for 2 h at 37 °C. Protein digests were analysed by nano-liquid chromatography (nano-LC) ESI tandem mass spectrometry (MS/MS). These were carried out on a U3000 Dionex nanoflow system connected to an LTQ Orbitrap XL mass spectrometer (Thermo Fisher Scientific) equipped with a nanoelectrospray source. The samples were run through a C18 nanocolumn (75 mm i.d.  50 cm, PepMap100 C18, 3 mm, 100 Å; Dionex) after being injected onto a pre-concentration column with a flow rate of 20 ml min ÿ 1 of 0.1% TFA in water. Peptides were then loaded on the analytical column equilibrated with 0.1% of formic acid in water, and elution was carried out using a linear gradient from 2 to 60% of acetonitrile at a flow rate of 250 nl min ÿ 1 for 60 min. The mass spectrometer was operated in data-dependent mode to automatically switch between Orbitrap MS and MS/MS in the linear trap. Survey full scan MS spectra from 450 to 2,000 Da were acquired in the Orbitrap set to a resolution R 1⁄4 60,000 at m/z 400, after accumulation of 500,000 charges on the linear ion trap. The ions with the most intense signals (up to six, depending on signal intensity) were sequentially isolated for fragmentation and analysis of fragments in the linear ion trap using CID. Target ions already selected for MS/MS were dynamically excluded for 30 s. MS/MS raw files were individually processed through a Proteome Discoverer v1.3 (PD1.3) (Thermo Fisher Scientific, Les Ulis, France) workflow. Identification of proteins and the search for post-translational modifications were done using the MASCOT search engine v2.4. For identification, a tolerance of 5 p.p.m. was used for the mass of the precursors and 0.8 Da for the mass of the fragments. The estimation of the percentages of persulfuration of the peptides was performed by determination of the ratio of areas under the peaks of the chromatograms. The areas were obtained by extracting and integrating the mass intensity of each precursor identified. The percentages are reported as the ratio of persulfurated versus total amount of the corresponding peptide (persulfurated þ unmodified) assuming that persulfuration does not modify the ionization properties of the peptide. HPLC analysis. The products of the cysteine desulfurase reaction were analysed using HPLC. The reactions were performed in buffer C at 25 °C using 2 mM NFS1– ISD11 complex in a final volume of 300 ml. The reaction was initiated with a 750fold excess of L-cysteine and was incubated for 1 h at 37 °C. The small molecules were separated from proteins using Amicon ultra (0.5 ml) with a cutoff of 10 kDa. The filtrate, containing the small molecules, was derivatized using the ACCQ-fluo reagent kit. The samples (5 ml) were injected at a flow rate of 1 ml min ÿ 1, at 35 °C, on an AccQ-Tag column connected to an Alliance 2695 HPLC apparatus equipped with a fluo detector W2475. The separations were performed using a gradient as described by the manufacturer. Statistical analysis and software. All the graphics from the figures, unless indicated, display one representative experiment. The kinetic parameters and s.e. reported in the tables were determined from at least three independent experiments. Prism 4.2 (GraphPad software) was used to fit the curves and generate the figures. ChemDraw Ultra 12.0 (CambridgeSoft) was used to draw the molecules. References 1. Campuzano, V. et al. Friedreich's ataxia: autosomal recessive disease caused by an intronic GAA triplet repeat expansion. Science 271, 1423–1427 (1996). 2. Muhlenhoff, U., Richhardt, N., Ristow, M., Kispal, G. & Lill, R. The yeast frataxin homolog Yfh1p plays a specific role in the maturation of cellular Fe/S proteins. Hum. Mol. Genet. 11, 2025–2036 (2002). 3. Puccio, H. et al. Mouse models for Friedreich ataxia exhibit cardiomyopathy, sensory nerve defect and Fe-S enzyme deficiency followed by intramitochondrial iron deposits. Nat. Genet. 27, 181–186 (2001). 4. Adamec, J. et al. Iron-dependent self-assembly of recombinant yeast frataxin: implications for Friedreich ataxia. Am. J. Hum. Genet. 67, 549–562 (2000). 5. Layer, G., Ollagnier-de Choudens, S., Sanakis, Y. & Fontecave, M. Iron-sulfur cluster biosynthesis: characterization of Escherichia coli CYaY as an iron donor for the assembly of [2Fe-2S] clusters in the scaffold IscU. J. Biol. Chem. 281, 16256–16263 (2006). 6. Gakh, O. et al. Mitochondrial iron detoxification is a primary function of frataxin that limits oxidative damage and preserves cell longevity. Hum. Mol. Genet. 15, 467–479 (2006). 7. Aloria, K., Schilke, B., Andrew, A. & Craig, E. A. Iron-induced oligomerization of yeast frataxin homologue Yfh1 is dispensable in vivo. EMBO Rep. 5, 1096–1101 (2004). 8. Pastore, A. & Puccio, H. Frataxin: a protein in search for a function. J. Neurochem. 126(Suppl 1): 43–52 (2013). 9. Seguin, A. et al. Evidence that yeast frataxin is not an iron storage protein in vivo. Biochim. Biophys. Acta 1802, 531–538 (2010). 10. Seznec, H. et al. Friedreich ataxia: the oxidative stress paradox. Hum. Mol. Genet. 14, 463–474 (2005). 11. Colin, F. et al. Mammalian frataxin controls sulfur production and iron entry during de novo Fe4S4 cluster assembly. J. Am. Chem. Soc. 135, 733–740 (2012). 12. Pandey, A. et al. Frataxin directly stimulates mitochondrial cysteine desulfurase by exposing substrate-binding sites, and a mutant Fe-S cluster scaffold protein with frataxin-bypassing ability acts similarly. J. Biol. Chem. 288, 36773–36786 (2013). 13. Stehling, O., Elsasser, H. P., Bruckel, B., Muhlenhoff, U. & Lill, R. Iron-sulfur protein maturation in human cells: evidence for a function of frataxin. Hum. Mol. Genet. 13, 3007–3015 (2004). 14. Tsai, C. L. & Barondeau, D. P. Human frataxin is an allosteric switch that activates the Fe-S cluster biosynthetic complex. Biochemistry 49, 9132–9139 (2010). 15. Fontecave, M. & Ollagnier-de-Choudens, S. Iron-sulfur cluster biosynthesis in bacteria: mechanisms of cluster assembly and transfer. Arch. Biochem. Biophys. 474, 226–237 (2008). 16. Lill, R. Function and biogenesis of iron-sulphur proteins. Nature 460, 831–838 (2009). 17. Biederbick, A. et al. Role of human mitochondrial Nfs1 in cytosolic iron-sulfur protein biogenesis and iron regulation. Mol. Cell. Biol. 26, 5675–5687 (2006). 18. Fosset, C. et al. RNA silencing of mitochondrial m-Nfs1 reduces Fe-S enzyme activity both in mitochondria and cytosol of mammalian cells. J. Biol. Chem. 281, 25398–25406 (2006). 19. Kispal, G., Csere, P., Prohl, C. & Lill, R. The mitochondrial proteins Atm1p and Nfs1p are essential for biogenesis of cytosolic Fe/S proteins. EMBO J. 18, 3981–3989 (1999). 20. Cai, K. et al. Human mitochondrial chaperone (mtHSP70) and cysteine desulfurase (NFS1) bind preferentially to the disordered conformation, whereas co-chaperone (HSC20) binds to the structured conformation of the iron-sulfur cluster scaffold protein (ISCU). J. Biol. Chem. 288, 28755–28770 (2013). 21. Gerber, J., Muhlenhoff, U. & Lill, R. An interaction between frataxin and Isu1/ Nfs1 that is crucial for Fe/S cluster synthesis on Isu1. EMBO Rep. 4, 906–911 (2003). 22. Muhlenhoff, U., Gerber, J., Richhardt, N. & Lill, R. Components involved in assembly and dislocation of iron-sulfur clusters on the scaffold protein Isu1p. EMBO J. 22, 4815–4825 (2003). 23. Schmucker, S. et al. Mammalian frataxin: an essential function for cellular viability through an interaction with a preformed ISCU/NFS1/ISD11 ironsulfur assembly complex. PLoS ONE 6, e16199 (2011). 24. Johnson, D. C., Dean, D. R., Smith, A. D. & Johnson, M. K. Structure, function, and formation of biological iron-sulfur clusters. Annu. Rev. Biochem. 74, 247–281 (2005). 25. Py, B. & Barras, F. Building Fe-S proteins: bacterial strategies. Nat. Rev. Microbiol. 8, 436–446 (2010). 26. Adam, A. C., Bornhovd, C., Prokisch, H., Neupert, W. & Hell, K. The Nfs1 interacting protein Isd11 has an essential role in Fe/S cluster biogenesis in mitochondria. EMBO J. 25, 174–183 (2006). 27. Shi, Y., Ghosh, M. C., Tong, W. H. & Rouault, T. A. Human ISD11 is essential for both iron-sulfur cluster assembly and maintenance of normal cellular iron homeostasis. Hum. Mol. Genet. 18, 3014–3025 (2009). 28. Smith, A. D. et al. Sulfur transfer from IscS to IscU: the first step in iron-sulfur cluster biosynthesis. J. Am. Chem. Soc. 123, 11103–11104 (2001). 29. Smith, A. D., Frazzon, J., Dean, D. R. & Johnson, M. K. Role of conserved cysteines in mediating sulfur transfer from IscS to IscU. FEBS Lett. 579, 5236–5240 (2005). 30. Urbina, H. D., Silberg, J. J., Hoff, K. G. & Vickery, L. E. Transfer of sulfur from IscS to IscU during Fe/S cluster assembly. J. Biol. Chem. 276, 44521–44526 (2001). 31. Bridwell-Rabb, J., Fox, N. G., Tsai, C. L., Winn, A. M. & Barondeau, D. P. Human frataxin activates Fe-S cluster biosynthesis by facilitating sulfur transfer chemistry. Biochemistry 53, 4904–4913 (2014). 32. Bridwell-Rabb, J., Iannuzzi, C., Pastore, A. & Barondeau, D. P. Effector role reversal during evolution: the case of frataxin in Fe-S cluster biosynthesis. Biochemistry 51, 2506–2514 (2012). 33. Adinolfi, S. et al. Bacterial frataxin CyaY is the gatekeeper of iron-sulfur cluster formation catalyzed by IscS. Nat. Struct. Mol. Biol. 16, 390–396 (2009). IJKLMO PQRRLISPJKSQIT | 6:5686 | DOI: 10.1038/ncomms6686 | www.nature.com/naturecommunications & 2015 Macmillan Publishers Limited. All rights reserved. 11 ARTICLE /01234 56772/850186/9 : ;68< =>?=>@ABCDEFFGHHAH 34. Iannuzzi, C. et al. The role of CyaY in iron sulfur cluster assembly on the E. coli IscU scaffold protein. PLoS ONE 6, e21992 (2011). 35. Geoghegan, K. F. et al. Spontaneous alpha-N-6-phosphogluconoylation of a 'His tag' in Escherichia coli: the cause of extra mass of 258 or 178 Da in fusion proteins. Anal. Biochem. 267, 169–184 (1999). 36. Pan, J. & Carroll, K. S. Persulfide reactivity in the detection of protein s-sulfhydration. ACS Chem. Biol. 8, 1110–1116 (2013). 37. Chandramouli, K. et al. Formation and properties of [4Fe-4S] clusters on the IscU scaffold protein. Biochemistry 46, 6804–6811 (2007). 38. Kim, J. H., Frederick, R. O., Reinen, N. M., Troupis, A. T. & Markley, J. L. [2Fe2S]-ferredoxin binds directly to cysteine desulfurase and supplies an electron for iron-sulfur cluster assembly but is displaced by the scaffold protein or bacterial frataxin. J. Am. Chem. Soc. 135, 8117–8120 (2013). 39. Sheftel, A. D. et al. Humans possess two mitochondrial ferredoxins, Fdx1 and Fdx2, with distinct roles in steroidogenesis, heme, and Fe/S cluster biosynthesis. Proc. Natl Acad. Sci. USA 107, 11775–11780 (2010). 40. Kumar, C. et al. Glutathione revisited: a vital function in iron metabolism and ancillary role in thiol-redox control. EMBO J. 30, 2044–2056 (2011). 41. Sipos, K. et al. Maturation of cytosolic iron-sulfur proteins requires glutathione. J. Biol. Chem. 277, 26944–26949 (2002). 42. Cornish-Bowden, A. Fundamentals of Enzyme Kinetics 3rd edn (Portland Press Ltd, 2004). 43. Behshad, E., Parkin, S. E. & Bollinger, Jr. J. M. Mechanism of cysteine desulfurase Slr0387 from Synechocystis sp. PCC 6803: kinetic analysis of cleavage of the persulfide intermediate by chemical reductants. Biochemistry 43, 12220–12226 (2004). 44. Mihara, H., Kurihara, T., Yoshimura, T. & Esaki, N. Kinetic and mutational studies of three NifS homologs from Escherichia coli: mechanistic difference between L-cysteine desulfurase and L-selenocysteine lyase reactions. J. Biochem. 127, 559–567 (2000). 45. Gakh, O. et al. Normal and Friedreich ataxia cells express different isoforms of frataxin with complementary roles in iron-sulfur cluster assembly. J. Biol. Chem. 285, 38486–38501 (2010). 46. Pandey, A., Yoon, H., Lyver, E. R., Dancis, A. & Pain, D. Identification of a Nfs1p-bound persulfide intermediate in Fe-S cluster synthesis by intact mitochondria. Mitochondrion 12, 539–549 (2012). 47. Sen, N. et al. Hydrogen sulfide-linked sulfhydration of NF-kappaB mediates its antiapoptotic actions. Mol. Cell 45, 13–24 (2012). 48. Zhang, D. et al. Detection of protein S-sulfhydration by a tag-switch technique. Angew. Chem. Int. Ed. Engl. 53, 575–581 (2013). 49. Flint, D. H. Escherichia coli contains a protein that is homologous in function and N-terminal sequence to the protein encoded by the nifS gene of 12 Azotobacter vinelandii and that can participate in the synthesis of the Fe-S cluster of dihydroxy-acid dehydratase. J. Biol. Chem. 271, 16068–16074 (1996). 50. Ross-Inta, C., Tsai, C. Y. & Giulivi, C. The mitochondrial pool of free amino acids reflects the composition of mitochondrial DNA-encoded proteins: indication of a post-translational quality control for protein synthesis. Biosci. Rep. 28, 239–249 (2008). Acknowledgements This work was supported by CNRS/ICSN and by funds from the Ministerio de Economı́a y Competitividad (grant CTQ2010-21567-C02-01 and the project RNAREG, grant CSD2009-00080, funded under the programme CONSOLIDER INGENIO 2010), the Generalitat de Catalunya (2009SGR-208) awarded to A.G. and the ANR ERRed awarded to M.B.T. A.P. was a recipient fellow of PhD grant from ICSN/CNRS and X.E. was a recipient fellow of the MINECO. We are especially grateful to all the members of J.C. Drapier's team at ICSN for their help and assistance, to Dr H. Puccio for kindly providing the plasmids, Manuela Argentini, Véronique Henriot and Julia Jouaret from the SICaPS platform at IMAGIF (Gif Sur Yvette), Odile Thoison, Franck Pelissier and Suzanna Ramos at the HPLC facility, Alain Brunelle from the mass spectrometry laboratory of ICSN and Chantal Astier's team at CGM. Author contributions A.P. and B.D'.A. designed the experiments and A.P. performed most of the experiment. X.E. and A.G. planned the synthesis of the maleimide-peptide compounds and X.E. performed the synthesis. L.B. performed some enzymatic assays. D.C. and J.-P.L.C. performed mass spectrometry analyses, B.D'.A. and A.P. analysed the results. B.D'.A., M.B.T. and A.P. wrote the manuscript. Additional information Supplementary Information accompanies this paper at http://www.nature.com/ naturecommunications Competing financial interests: The authors declare no competing financial interests. Reprints and permission information is available online at http://npg.nature.com/ reprintsandpermissions/ How to cite this article: Parent, A. et al. Mammalian frataxin directly enhances sulfur transfer of NFS1 persulfide to both ISCU and free thiols. Nat. Commun. 6:5686 doi: 10.1038/ncomms6686 (2015). IJKLMO PQRRLISPJKSQIT | 6:5686 | DOI: 10.1038/ncomms6686 | www.nature.com/naturecommunications & 2015 Macmillan Publishers Limited. All rights reserved. Résumé /¶DWD[LH GH )ULHGUHLFK HVW XQH PDODGLH QHXURGpJpQpUDWLYH VpYqUH FDXVpH SDU XQ GpIDXW G¶H[SUHVVLRQ GH OD IUDWD[LQH );1  XQH SHWLWH SURWpLQH PLWRFKRQGULDOH LPSOLTXpH GDQV OD ELRJHQqVH GHV FHQWUHV IHUVRXIUH )H6  GHV JURXSHPHQWVSURVWKpWLTXHVDX[IRQFWLRQVFHOOXODLUHVHVVHQWLHOOHV&KH]OHVPDPPLIqUHVLODpWpPRQWUpTXHODIUDWD[LQH VWLPXOH OD V\QWKqVH LQ YLWUR GH FHQWUHV )H6 VXU OD SURWpLQH G¶pFKDIDXGDJH ,6&8 JUkFH j O¶DXJPHQWDWLRQ GH OD SURGXFWLRQG¶LRQVVXOIXUHVSDUOHFRPSOH[H1)6,6',6&8&HSHQGDQWOHPpFDQLVPHSDUOHTXHOODIUDWD[LQHDFWLYH ODELRJHQqVHGHVFHQWUHV)H6Q¶DSDVHQFRUHpWpGpILQL1RXVDYRQVpWXGLpOHVHIIHWVGH);1VXUOHVFLQpWLTXHVGH IRUPDWLRQ HW GH UpGXFWLRQ GHV SHUVXOIXUHV GHV LQWHUPpGLDLUHV FOpV GH OD SURGXFWLRQ G¶LRQV VXOIXUHV JpQpUpV SDU OD F\VWpLQH GpVXOIXUDVH 1)6 j O¶DLGH G¶XQ WHVW GH GpWHFWLRQ GHV SHUVXOIXUHV EDVp VXU O¶XWLOLVDWLRQ GH FRPSRVpV V\QWKpWLTXHVSHSWLGHPDOpLPLGHHWGHODVSHFWURPpWULHGHPDVVH1RXVDYRQVPRQWUpTXH);1DFWLYHGHX[UpDFWLRQV WUqVVLPLODLUHVOHWUDQVIHUWGHVRXIUHGH1)6YHUV,6&8FRQGXLVDQWjO¶DFFXPXODWLRQG¶XQSHUVXOIXUHVXUODF\VWpLQH &G¶,6&8HWXQWUDQVIHUWGHVRXIUHGH1)6YHUVGHVUpGXFWHXUVjWKLROFRPPHOH'77OD/F\VWpLQHHWOHJOXWDWKLRQ FRQGXLVDQWjODIRUPHSHUVXOIXUpHGHFHVUpGXFWHXUV1RXVDYRQVFRQVWDWpTXHODYLWHVVHGHUpGXFWLRQGXSHUVXOIXUH G¶,6&8SDUOHVWKLROVQ¶HVWSDVDIIHFWpHHQSUpVHQFHGH);1HWTXHFHSHUVXOIXUHHVWUpGXLWSOXVOHQWHPHQWTXHFHOXLGH 1)61RXVDYRQVFRUUpOpO¶DFWLYDWLRQSDU);1GHODUpGXFWLRQGXSHUVXOIXUHGH1)6SDUOHVWKLROVjXQHVWLPXODWLRQGH O¶DVVHPEODJHG¶XQFHQWUH)H6VXU,6&8'DQVQRVFRQGLWLRQVH[SpULPHQWDOHVO¶DWRPHGHVRXIUHGXSHUVXOIXUHG¶,6&8 Q¶HVWSDVLQFRUSRUpGDQVOHFHQWUH)H6V\QWKpWLVpPDLVQRVUpVXOWDWVQHSHUPHWWHQWSDVG¶H[FOXUHTXHFHSHUVXOIXUH SXLVVHrWUHUpGXLWSDUXQHUpGXFWDVHGpGLpHHQFRUHQRQLGHQWLILpH/¶HQVHPEOHGHQRVGRQQpHVLQGLTXHQWTXHOHU{OHGH ODIUDWD[LQHHVWGHFRQWU{OHUODUpGXFWLRQGXSHUVXOIXUHGH1)6HQDXJPHQWDQWOHVYLWHVVHVGHWUDQVIHUWGHVRXIUHYHUV ,6&8HWYHUVGHSHWLWHVPROpFXOHVjWKLRO  Abstract )ULHGUHLFKDWD[LDLVDVHYHUHQHXURGHJHQHUDWLYHGLVHDVHFDXVHGE\UHGXFHGH[SUHVVLRQRIIUDWD[LQ );1 D VPDOO PLWRFKRQGULDO SURWHLQ LQYROYHG LQ LURQVXOIXU )H6  FOXVWHU ELRJHQHVLV ZKLFK DUH SURVWHWLF JURXSV ZLWK HVVHQWLDO FHOOXODU IXQFWLRQV ,W KDV EHHQ VKRZQ LQ YLWUR WKDW PDPPDOLDQ );1 DFWLYDWHV )H6 FOXVWHU V\QWKHVLV RQ WKH VFDIIROG SURWHLQ ,6&8 E\ ULVLQJ XS VXIOLGH LRQ SURGXFWLRQ E\ 1)6,6',6&8 FRPSOH[ +RZHYHU WKH PHFKDQLVP E\ ZKLFK IUDWD[LQVWLPXODWHV)H6FOXVWHUELRJHQHVLVKDVQRWEHHQ\HWGHILQHG:HKDYHVWXGLHGWKHHIIHFWRI);1RQWKHNLQHWLFV RIIRUPDWLRQDQGUHGXFWLRQRISHUVXOILGHVWKDWDUHNH\LQWHUPHGLDWHVRIVXOILGHLRQSURGXFWLRQJHQHUDWHGE\1)6XVLQJ PDVV VSHFWURPHWU\ DQG D QHZ GHWHFWLRQ DVVD\ IRU SHUVXOILGH EDVHG RQ JHOPRELOLW\ VKLIW IROORZLQJ DON\ODWLRQ E\ PDOHLPLGHSHSWLGH FRPSRXQGV :H GHPRQVWUDWH WKDW IUDWD[LQ DFWLYDWHV WZR VLPLODU UHDFWLRQV  VXOIXU WUDQVIHU IURP F\VWHLQH GHVXOIXUDVH 1)6 WR ,6&8 OHDGLQJ WR DFFXPXODWLRQ RI D SHUVXOILGH RQ ,6&8F\VWHLQH & DQG UHGXFWLRQ RI 1)6 SHUVXOILGH E\ WKLRO UHGXFHUV VXFK DV '77 /F\VWHLQH DQG JOXWDWKLRQ :H KDYH REVHUYHG WKDW );1 GRHV QRW VWLPXODWHWKHUDWHRI,6&8SHUVXOILGHUHGXFWLRQE\WKLROVDQGWKDWWKLVSHUVXOILGHLVUHGXFHGPXFKPRUHVORZO\WKDQ1)6 SHUVXOILGH :H KDYH WKHQ FRUUHODWHG WKH UHGXFWLRQ RI 1)6 SHUVXOILGH ZLWK )H6 FOXVWHU DVVHPEO\ 8QGHU RXU H[SHULPHQWDOFRQGLWLRQVWKHVXOIXUIURP,6&8SHUVXOILGHLVQRWLQFRUSRUDWHGLQWRWKH)H6FOXVWHU+RZHYHUZHFDQQRW H[FOXGH WKDW DQ DV \HW QRW LGHQWILLHG UHGXFWDVH FRXOG UHGXFHV ,6&8 SHUVXOILGH DQG WULJJHU )H6 FOXVWHU DVVHPEO\ 2YHUDOORXUGDWDSRLQWWRDUHJXODWRU\IXQFWLRQRI);1DVDQHQKDQFHURISHUVXOILGHUHGXFWLRQVWLPXODWLQJWKHUDWHVRI VXOIXUWUDQVIHUWR,6&8DQG1)6SHUVXOILGH UVWX YZ[X \ ]^V_`abX` c`X Y`aWd`X e`fgh idjWjk^a`h Ataxie de Friedreich, persulfures, mécanisme, mammifères, mitochondrie,
{'path': '11/tel.archives-ouvertes.fr-tel-01127125-document.txt'}
Des technologiques innovantes pour optimiser le désherbage de précision Thibault Maillot, Gawain Jones, Jean-Baptiste Vioix, Nathalie Colbach To cite this version: Thibault Maillot, Gawain Jones, Jean-Baptiste Vioix, Nathalie Colbach. Des technologiques innovantes pour optimiser le désherbage de précision. Innovations Agronomiques, INRAE, 2020, 81, pp.101-116. 10.15454/3t27-5f37. hal-03256904 HAL Id: hal-03256904 https://hal.inrae.fr/hal-03256904 Submitted on 10 Jun 2021 Distributed under a Creative Commons Attribution - NonCommercial - NoDerivatives| 4.0 International License Innovations Agronomiques 81 (2020), 101-116 Des technologies innovantes pour optimiser le désherbage de précision Maillot T.1, Jones G.1, Vioix J.-B.1, Colbach N.1 UMR Agroécologie, AgroSup Dijon, INRAE, Univ. Bourgogne, Univ. Bourgogne Franche-Comté, F21000 Dijon 1 Correspondance : thibault.maillot@agrosupdijon.fr Résumé Dans un objectif de réduction de l'intensité d'usage des herbicides, la variabilité intra-parcellaire des adventices peut être prise en compte pour effectuer un désherbage de précision : la pulvérisation n'est effectuée qu'aux endroits où les adventices sont présentes. Avant d'effectuer cette pulvérisation localisée, il faut être en mesure de détecter, voire cartographier, les adventices. L'information de présence d'adventices est utilisée pour commander un système de pulvérisation afin d'apporter l'herbicide seulement aux endroits où cela est nécessaire. Dans cet article, après une présentation de méthodes de détection des adventices utilisées dans le projet ANR CoSAC, deux stratégies permettant la gestion d'un désherbage de précision sont présentées : 1) un système de pulvérisation localisée, basé sur une solution commerciale, qui permet de détecter et d'appliquer le produit herbicide, en un seul passage ; 2) un système de pulvérisation basé sur la construction d'une carte de présence d'adventice, utilisable a posteriori pour contrôler l'ouverture et la fermeture des tronçons de rampe d'un pulvérisateur. Enfin, la durabilité et l'efficacité de ce type de désherbage sont évaluées à l'aide du modèle de « parcelle virtuelle » FLORSYS qui simule le développement des adventices et cultures en fonction du système de culture et de la météo. Mots-clés : Pulvérisation localisée, Gestion des adventices, Traitement d'images, Simulation numérique Abstract : Innovative technologies to optimize precision spraying The reduction of herbicide use intensity can benefit from the patchy distribution of weeds in fields by shifting from whole-field to precision spraying. Herbicides are then only applied where weeds are present. To do this, we need to detect and map weeds in fields. The resulting weed presence information is then used to direct a spraying system in order to apply herbicides only where needed. This paper first presents the weed-detection methods used in the ANR CoSAC project (aiming to design sustainable weed management strategies in a changing context) and then two precision-spraying systems: 1) an autonomous system based on a commercial solution (the WeedSeeker system by Trimble) which detects weeds and sprays the herbicide in a single passage, 2) a system based on establishing a weed-presence map which is used a posteriori to control the opening and closure of nozzles on the sprayer booms. For this second method, only the weed mapping part will be presented. Finally, the long-term sustainability and efficiency of precision spraying was evaluated with simulations with the virtual-field models which predicts multiannual weed dynamics and crop production at a daily time step from cropping-system inputs and weather data. Keywords : Patch spraying, Weed management, Image processing, Numerical simulations. Maillot T. et al. Introduction Le concept d'agriculture de précision a vu le jour à la fin des années 1980 avec l'idée que, en grande culture, la parcelle n'était pas nécessairement l'unité adaptée pour construire un itinéraire technique du fait d'une variabilité non négligeable au sein de celle-ci. Bien que déjà connue, la caractérisation et l'exploitation de cette variabilité a été rendue possible par le développement de technologies permettant l'acquisition de connaissances sur les systèmes de production agricole (Tisseyre, 2012). Ces technologies peuvent être regroupées en trois catégories : - Des systèmes de mesure, fixes ou embarqués, permettant de collecter de l'information sur la culture et son environnement, - Un système de positionnement absolu par satellite permettant la géolocalisation des données (GPS), - Un ensemble de systèmes permettant de stocker, traiter, visualiser et d'échanger les données obtenues. L'objectif principal de cette obtention de connaissances est de permettre la spatialisation des opérations culturales en modulant et/ou en localisant les apports. Une nouvelle définition de cette agriculture de précision a été proposée par l'ISPA (International Society for Precision Agriculture) : "Precision Agriculture is a management strategy that gathers, processes and analyzes temporal, spatial and individual data and combines it with other information to support management decisions according to estimated variability for improved resource use efficiency, productivity, quality, profitability and sustainability of agricultural production."1 Plusieurs étapes de l'itinéraire technique peuvent être spatialisées si la variabilité intra-parcellaire le justifie. La fertilisation azotée est, aujourd'hui, l'opération culturale la plus modulée (Lowenberg-DeBoer et Erickson, 2019), elle permet d'optimiser l'usage des intrants en réduisant l'impact de ces apports sur l'environnement. La gestion des adventices, majoritairement chimique dans les agricultures industrialisées, est également une opération pour laquelle l'agriculture de précision peut permettre la diminution de l'usage de produit. En effet, les adventices sont majoritairement réparties en taches à l'intérieur de chaque champ (Rew et Cousens, 2001). Cette diminution a un impact direct sur les charges attenantes à la production agricole ainsi que sur l'impact environnemental de celle-ci, les herbicides étant aujourd'hui un polluant majeur des eaux souterraines et superficielles (Dubois et Lacouture, 2011). La diminution de l'usage de produits phytosanitaires a donc des conséquences économiques, environnementales, sanitaires et devrait également limiter l'apparition de résistances à ces produits pour les adventices ciblées (Aubertot et al., 2007 ; Baldi et al., 2013 ; Butault et al., 2011). L'agriculture de précision appliquée à la gestion des adventices consiste à localiser les apports de produits phytosanitaires sur les adventices préalablement détectées. Différentes étapes sont nécessaires pour arriver à ce résultat : - L'acquisition de données provenant du champ à traiter, souvent sous forme d'images ou de signal optique, - Le traitement de données, permettant de faire la distinction entre végétation et sol puis entre cultures et adventices, - La création d'une carte d'application tenant compte de la précision des données et du matériel, - L'application localisée, nécessitant l'usage d'un pulvérisateur adapté. L'agriculture de précision est une stratégie de gestion qui rassemble, traite et analyse, les données spatiales, temporelles et individuelles et les combine avec d'autres informations pour orienter les décisions de gestion en fonction de la variabilité en vue d'améliorer l'efficacité des ressources, la productivité, la qualité, la rentabilité, et la durabilité de la production agricole. 1 102 Innovations Agronomiques 81 (2020), 101-116 Des technologies innovantes pour optimiser le désherbage de précision Deux grandes stratégies existent pour mener à bien ces différentes étapes. La première consiste à les effectuer « en ligne », ou « en temps-réel », et mobilise les technologies les plus simples pour permettre un traitement instantané. La seconde stratégie dite « différée » sépare les trois premières étapes de l'étape d'application et permet de mobiliser des données et des méthodes nécessitant un temps de traitement plus important. Dans la suite, ces deux stratégies seront présentées et leurs impacts sur la population adventices évalués par simulation. L'architecture de cet article suit les différentes étapes présentées ci-dessus : après avoir présenté l'acquisition et le traitement des données pour la création d'une carte d'application, l'application localisée sera évaluée, par simulation numérique. 1. Systèmes optiques pour la détection des adventices L'apparition des drones (véhicules aériens sans pilote embarqué, plus ou moins autonome) dans les années 2000 a permis d'obtenir rapidement des images aériennes avec une résolution satisfaisante. Cette solution évitait le passage d'un engin à roues (quad, ) dans les parcelles. Des premiers travaux ont été faits avec des appareils photographiques argentiques et une numérisation (par un scanner) des pellicules (Everitt et al., 1992). Les appareils photographiques numériques les ont très vite remplacés. Ces capteurs fournissent des images proches de la perception humaine, donc dans le spectre de la lumière visible (Everitt et al., 1995, 1992). Des capteurs dédiés aux problématiques agronomiques ont rapidement été étudiés pour profiter des particularités des plantes (Backes et Jacobi, 2006 ; Lamb et al., 1999). La réflectance des plantes étant beaucoup plus importante dans le proche infra-rouge (Bousquet, 2007). Sur les images acquises, afin de détecter les adventices présentes, trois classes d'objets doivent être identifiées : le sol nu, les cultures et les adventices. Dans la majorité des travaux, un traitement en deux étapes est effectué : 1) séparation des pixels de sol et de végétation puis 2) identification des cultures et des adventices dans la végétation. 1.1 Discrimination sol/végétation La séparation du sol et de la végétation doit être suffisamment robuste pour pouvoir traiter de nombreux types de sol et de végétation. Les nuances de sols peuvent être très variées : craies très claires, argiles (jaunes, vertes), foncés (matières organiques) A cela s'ajoute la présence éventuelle de pierres ou de résidus végétaux Le sol présente donc de grandes variations chromatiques qui seront difficiles à exploiter. Dans les premiers travaux, seules des images acquises dans le visible étaient disponibles. Plusieurs auteurs ont développé des indices de végétation, calculés à partir des informations chromatiques, pour reconnaître la végétation (Bannari et al., 1995). La prédominance de la couleur verte par rapport à la couleur rouge était utilisée (Woebbecke et al., 1995). L'utilisation de système d'acquisition adapté aux problématiques agronomiques a permis de prendre en compte d'autres informations comme la réflectance dans le proche infrarouge et un indice de végétation qui la mobilise : le NDVI - Normalized Difference Vegetation Index (Rouse et al., 1973 ; Tucker, 1979). La scène observée, i.e. le champ, est éclairée par le soleil qui émet sur un spectre bien plus large que celui du domaine visible. La perception d'un objet éclairé (ici, la plante ou le sol) dépend du spectre de la lumière reçue par celui-ci. Ainsi, de nombreux indices sont basés sur le calcul de réflectance qui est défini comme le rapport entre le flux lumineux réfléchi par l'objet et le flux lumineux qu'il a reçu. Les végétaux absorbent une grande partie de la lumière visible mais reflètent majoritairement la lumière infra-rouge. Des dispositifs d'acquisition utilisant cette caractéristique ont été développés au début des années 2000 (Vioix, 2004). Les images comportent alors une « couleur » supplémentaire : le proche infra-rouge (longueur d'onde comprise entre 650 et 900 nm). Cette information était déjà exploitée dans les satellites Innovations Agronomiques 81 (2020), 101-116 103 Maillot T. et al. d'observation comme SPOT (Chevrel et al., 1981). En utilisant ces nouvelles informations chromatiques, de nouveaux indices de végétation ont été développés (Meyer et Neto, 2008). L'indice le plus utilisé dans des applications agronomiques est le NDVI, calculé en utilisant la formule suivante : PIR − R PIR + R avec PIR, la réflectance (sans unité) mesurée dans le proche infra-rouge, et R, la réflectance mesurée dans le rouge. Les végétaux ayant une réflectance élevée dans le proche infra-rouge (alors qu'ils absorbent les radiations rouges), le NDVI est élevé et positif pour ces derniers. La Figure 1 montre ainsi ces étapes sur une parcelle de maïs. Pour chaque pixel de cette image, le NDVI a été calculé. Une opération de seuillage a ensuite été effectué pour n'afficher, à droite, que les pixels représentant de la végétation, en blanc. On y distingue bien les rangs de maïs et des adventices de différentes tailles et formes dans l'inter rang. NDVI = Figure 1 : Image d'une parcelle de maïs (juin 2003), en niveau de gris (a) et résultat d'une détection de la végétation, par seuillage, sur l'indice NDVI calculé (b). Sur l'image de résultat (b), les pixels représentant de la végétation sont en blanc. 1.2 Discrimination culture/adventice Chaque pixel détecté comme étant un élément de la végétation peut, en réalité, représenter un individu de types d'espèces ou classes différentes : culture et adventice. Les réponses spectrales des différentes espèces de plantes étant très proches, la séparation de ces deux classes est plus difficile que la séparation du sol et de la végétation. Cependant, il est possible, dans certains cas, de séparer les cultures des adventices en utilisant les informations spectrales. Par exemple, dans le proche infra-rouge, il existe des différences entre les plantes monocotylédones et dicotylédones (Bousquet, 2007 ; Gausman, 1985 ; Rabatel et al., 2011). Ces différences sont toutefois plus difficiles à exploiter sur des images acquises en conditions non contrôlées et demandent la misent en place d'algorithmes plus complexes. De plus, la discrimination n'est possible que si les adventices n'appartiennent pas au même clade (i.e. monocotylédones vs dicotylédones) que les cultures. Dans la suite, deux situations de discrimination cultures/adventices sont présentées : dans l'inter-rang et sur le rang. 1.2.1 Inter-rang Les cultures sont généralement semées en lignes avec un espacement régulier entre les rangs. Deux approches algorithmiques ont été proposées à partir de ces informations : détecter les éléments régulièrement espacés (les cultures sont semées à intervalles réguliers) ou détecter des lignes (les cultures sont semées en rangs). Sur l'image de végétation construite en Figure 1, les éléments répartis 104 Innovations Agronomiques 81 (2020), 101-116 Des technologies innovantes pour optimiser le désherbage de précision périodiquement dans l'image peuvent être distingués en utilisant la transformée de Fourier : un outil mathématique permettant d'extraire l'information fréquentiel d'un signal ou d'une image (Gasquet et Witomski, 2000). Il est ensuite possible de réaliser une opération de filtrage pour ne conserver que les points appartenant à des structures répétitives. La Figure 2 présente le résultat de cette opération de filtrage appliqué sur l'image de végétation de la Figure 1. Les couleurs chaudes (rouge, orange, ) représentent les points appartenant à une structure répétitive, ce sont principalement des cultures (et les adventices présentes dans le rang). Les couleurs plus froides (bleue, ) sont les points de végétation qui ne sont pas dans des structures répétitives (les rangs) et sont donc considérés comme des adventices. Figure 2 : Détection des lignes de semis par filtrage appliqué à l'image de la végétation de la Figure 1. Les couleurs chaudes (rouge, orange, ) représentent les points appartenant à une structure répétitive (les rangs). Les couleurs plus froides (bleue, ) sont les points de végétation qui ne sont pas dans des structures répétitives. La détection de lignes dans les images peut aussi être réalisée avec la transformée de Hough (Duda et Hart, 1972 ; Hough, 1962), un outil mathématique permettant de détecter, dans des images, des structures géométriques (lignes, cercles, éclipses). Sur une image de végétation, les structures linéaires sont recherchées et identifiées comme étant les lignes de semis. Les éléments de végétation n'appartenant pas à ces structures sont considérés comme étant des adventices. Les deux approches présentées ci-dessus ne peuvent détecter que les adventices présentes hors du rang de cultures. De même, si la culture est trop développée, les rangs n'apparaissent plus et ces deux approches sont alors inefficaces. Ces approches ne sont donc adaptées que pour des détections précoces d'adventices, dans des cultures à inter-rang large. Des méthodes plus complexes doivent alors être utilisées plus tard dans le cycle de la culture, comme celles faisant la distinction, dans le rang, entre les plants de cultures et les adventices. 1.2.2 Intra-rang Afin de permettre la détection des adventices sur le rang nous avons besoin de caractéristiques discriminantes supplémentaires et la signature spectrale des plantes peut remplir ce rôle (Boochs et al., 1990 ; Gausman, 1985 ; Smith et al., 2004). Pour réaliser cette classification deux grandes familles d'algorithmes existent : les méthodes supervisées et celles qui ne le sont pas. Les méthodes supervisées permettent une classification plus fine d'objets ayant des caractéristiques proches mais nécessitent une base de données exhaustive, générée manuellement, de ces caractéristiques pour fonctionner. Il est complexe de créer une base de données adaptée à un grand nombre de situations agronomiques tenant compte de la diversité des cultures et adventices associées, des stades de végétation, des stress hydrique/azoté Innovations Agronomiques 81 (2020), 101-116 105 Maillot T. et al. Dans le cadre du projet CoSAC, nous avons proposé une approche permettant d'utiliser la puissance des méthodes supervisées sans avoir la contrainte de la création manuelle de la base de données normalement nécessaire (Louargant et al., 2018). Une première étape consiste à utiliser l'information spatiale (les cultures sont semées en rangs) pour définir trois premières classes (Culture, Adventices et Non déterminé) et construire automatiquement une base de données à l'aide des deux premières classes. Cette base de données est ensuite utilisée lors de la deuxième étape pour affiner la séparation culture/adventices sur le rang (Figure 3). Figure 3 : Démarche générale pour la détection non-supervisée des adventices à l'aide d'une combinaison de l'information spatiale et spectrale. Utilisation d'une image multispectrale (1) puis première séparation culture/adventices à l'aide de l'information spatiale (2) permettant la création automatisée d'une base de données utilisée pour discriminer culture et adventice à l'aide d'informations spectrales (3). La combinaison des résultats obtenus en (2) et (3) permet la classification finale obtenue en (4). Cette méthode a été évaluée en comparant les résultats de la discrimination automatisée à ceux obtenus par une discrimination manuelle par un humain ("vérité terrain") sur 14 images prises en cultures de betteraves et de maïs. Les images ont été prises à l'aide d'un capteur multispectral installé sur une perche représentant des informations chromatiques dans le visible et le proche infra-rouge (550 [40] nm, 660 [40] nm, 735 [10] nm et 790 [40] nm) avec une haute résolution spatiale (6 mm/pixel pour une hauteur de 3 m). La vérité terrain manuelle a été réalisée en délimitant et étiquetant manuellement sur les photos chaque ensemble de pixels de végétation comme Culture ou Adventice (Tableau 1). La combinaison de l'information spatiale et spectrale offre des résultats intéressants avec une augmentation de +10% du taux de pixels d'adventices correctement détectés par rapport à la méthode spatiale utilisée seule. Cette meilleure détection réduit donc le risque d'oublier de pulvériser des adventices. Cela se fait au détriment de la qualité de classification des cultures (-18%) détectées comme adventices, avec une surconsommation d'herbicides en pulvérisant des zones indemnes d'adventice. Dans l'objectif d'une pulvérisation localisée, cette sur-détection associée à une meilleure détection des adventices est préférable afin de ne pas prendre de risque de contrôle insuffisant des adventices. 106 Innovations Agronomiques 81 (2020), 101-116 Des technologies innovantes pour optimiser le désherbage de précision Tableau 1 : Résultats de classification sur 14 images de maïs et de betteraves avec μTVC le taux moyen de détection des cultures et μTVA le taux moyen de détection des adventices. Méthodes pour images avec une résolution de 6 μTVC mm/pixel μTVA Moyenne Spatiale 96% 83% 89% Combinaison spatiale et spectrale 78% 93% 86% 2. Systèmes pour une pulvérisation localisée Dans la suite, nous considérerons qu'un système de pulvérisation localisée désigne un couple formé d'un système de détection d'adventices et d'un système de pulvérisation. Dans cette partie, deux systèmes de pulvérisation localisée sont présentés. 2.1 Construction et utilisation d'une carte de présence d'adventice Les méthodes de classification vues dans les parties précédentes ne permettent pas une pulvérisation localisée en parcelles et une carte de préconisation doit être construite pour cela. Cette carte doit être adaptée aux spécificités du pulvérisateur utilisé (largeur de rampe/tronçons, temps de latence d'ouverture de buses) et doit également prendre en compte les erreurs de positionnement dues à la précision du système de positionnement utilisé lors de l'acquisition des images. Un travail conduit avec la société Airinov (Louargant, 2016) a permis de définir une zone tampon de 5 m de rayon autour des adventices (2 m de marge d'erreur associée au processus de création de l'orthophotographie 2, 0.50 m issu de l'incertitude du positionnement de la machine et 2.50 m provenant de la dynamique d'ouverture des buses). La Figure 4 montre le passage d'une orthophotographie représentant les variations d'un indice NDVI, dans une parcelle, à une carte de préconisation intégrant ces zones tampon. Figure 4 : Orthophotographie de maïs (printemps 2016) en NDVI (à gauche) et carte de préconisation de pulvérisation (à droite). 2 Assemblage d'images aériennes rectifiées géométriquement et égalisées radiométriquement. Innovations Agronomiques 81 (2020), 101-116 107 Maillot T. et al. Cette zone tampon est peu problématique pour des parcelles essentiellement infestées par des adventices regroupées mais elle engendre une augmentation importante de la surface traitée pour des adventices réparties sur l'ensemble de la parcelle. Plusieurs pistes sont envisagées pour diminuer ce phénomène, comme l'utilisation d'un système de positionnement avec une précision accrue (GPS RTK) et la modification des zones tampon en ovale avec une marge de 2.5 m en largeur et de 5 m dans le sens de l'avancement (Figure 5). Figure 5 : Zones tampons pour une image de maïs (a) avec un cercle de 5 m de rayon autour des adventices détectées (b) et un ovale de 2.5 m de sécurité en largeur et 5 m dans le sens de l'avancement (c). Un essai conduit par Terres Inovia dans le cadre du projet H2020 IWMPRAISE (Lucas et al., 2019) a permis de mobiliser l'ensemble de la chaine, de l'acquisition d'images par drone à la pulvérisation localisée. Ce travail, réalisé sur une parcelle de colza de 2 ha, très fortement infestée (jusqu'à 467 géraniums par m2 et jusqu'à 128 repousses d'orge par m2), a permis de montrer l'aspect fonctionnel de la solution : le traitement a été efficace avec la destruction de 97% des graminées et 81% des géraniums. La forte infestation de cette parcelle a conduit à une réduction de seulement 18% des produits phytosanitaires utilisés par rapport à un traitement du champ en entier. L'étude met donc en avant le besoin de critères simples pour estimer l'intérêt d'une pulvérisation localisée sur une parcelle (surface infestée, répartition des adventices). 2.2 Système de pulvérisation localisée, basé sur une solution commerciale Dans l'objectif d'analyser les performances d'un système temps-réel de pulvérisation localisée commercial, une plateforme mobile autonome de détection et traitement a été conçue. Celle-ci a la capacité de se mouvoir dans les champs, entre les rangs de semis de cultures sarclées avec un écartement d'au moins 0.75 m, et d'effectuer de manière autonome une tâche de désherbage chimique localisé, dans l'inter-rang. Sur le rang, une pulvérisation en plein est effectuée. Pour la pulvérisation dans l'inter-rang, la plateforme est équipée d'un système WeedSeeker (Trimble) incluant un capteur optique et une buse de pulvérisation. Ce système commercial permet de détecter et d'appliquer le produit herbicide, en un seul passage. Il est capable de distinguer les plantes vertes du sol en utilisant leurs propriétés 108 Innovations Agronomiques 81 (2020), 101-116 Des technologies innovantes pour optimiser le désherbage de précision spectrales. Pour cela, il utilise sa propre émission lumineuse et mesure la réflexion spectrale dans le rouge et le proche infrarouge pour calculer un indice de végétation (Rees et al., 2013). Ce système de pulvérisation localisée a été testé au début de l'été 2016 sur une culture de maïs (Maillot et al., 2016). Ces expériences ont été menées sur une parcelle de 120 m 2 au sein des parcelles pédagogiques d'AgroSup Dijon. Le maïs a été semé mi-juin avec un écartement entre les rangs de 0.75 m. Un désherbage mécanique a été effectué après levée, au stade 3-4 feuilles. Les tests de pulvérisation localisée ont été faits au stade 4-6 feuilles. Les résultats présentés ci-après sont issus de 24 passages de la plateforme mobile autonome dans 3 inter-rangs différents de 12 m de longueur. La calibration et la configuration du capteur optique sont effectuées grâce au panneau de contrôle du WeedSeeker, sur sol nu. Ce panneau de contrôle permet de choisir parmi 10 valeurs de réglage de la sensibilité de détection des adventices (de 1=très sensible à 10=peu sensible) : plus la valeur choisie est basse, et plus une petite variation de couleur déclenche la pulvérisation. Au cours des essais, plusieurs valeurs de réglage de la sensibilité du capteur ont été testées. Pour ces expérimentations, seules les sensibilités 5 à 10 ont été prises en compte : les valeurs plus faibles entraînent un nombre trop important de « fausse détection » de plantes (i.e., des faux positifs) et donc de pulvérisation inutile. Afin d'analyser la qualité de la détection du WeedSeeker dans l'inter-rang, une carte des adventices détectées a été construite, en utilisant les signaux de détection fournis par le système. Ce résultat a été comparé à celui déduit d'images de la parcelle, obtenues à l'aide d'un capteur multispectral installé sur une perche, via un indice agronomique (Meyer et Neto, 2008). Cette comparaison est effectuée en analysant la sensibilité, la spécificité et la précision globale de la détection du WeedSeeker. La précision globale correspond au pourcentage de pixels bien classés (Adventices ou Culture/Sol). La sensibilité (resp. spécificité) de la détection correspond au pourcentage de pixels signalés comme appartenant à une adventice (resp. à de la culture ou du sol), quand c'est le cas (resp. ce n'est pas le cas). Lors de notre évaluation de la détection d'adventices par le WeedSeeker, nous constatons que le réglage de sensibilité Sens. 7 du WeedSeeker offre un bon compromis entre la sensibilité et spécificité moyennes (Tableau 2). La sensibilité correspond au nombre d'adventices correctement détectées et donc traitées. Elle est stable jusqu'à la configuration Sens. 7, puis diminue fortement au-delà. La spécificité, quant à elle, indique la capacité du système à éviter les faux positifs (sol ou résidus considérés comme une plante). Dans le cas d'une pulvérisation localisée, une valeur de spécificité élevée indique une pulvérisation idéale, uniquement ciblée sur les plantes adventices ; c'est donc une économie de produits phytopharmaceutiques mais aussi une réduction de l'impact environnemental. Cette configuration 7 du WeedSeeker avait déjà été remarquée pour sa capacité à détecter les plantes en champ (Rees et al., 2013 ; Sui et al., 2008). Les résultats du Tableau 2 ont permis de mettre en avant que les erreurs du système de guidage de la plateforme mobile autonome ont peu d'impact sur les performances du système. Tableau 2 : Résultats de sensibilité, spécificité et précision globale du système de pulvérisation basé sur un WeedSeeker. Chaque ligne du tableau correspond à un réglage différent de la sensibilité du WeedSeeker. Configuration Sensibilité moyenne (%) Spécificité moyenne (%) Précision globale (%) Sens. 5 79 81 81 Sens. 6 77 82 82 Sens. 7 78 83 82 Sens. 8 66 88 87 Sens. 9 65 89 84 Sens. 10 44 92 84 Innovations Agronomiques 81 (2020), 101-116 109 Maillot T. et al. Cependant, ces tests indiquent aussi que, quelle que soit la configuration du WeedSeeker utilisée, le système va ignorer des adventices (22% dans le cas de la configuration Sens.7) qui ne seront donc pas traitées. Elles seront en compétition avec la culture en place pour les ressources et donc probablement à l'origine d'une perte de rendement. Pire encore, elles se reproduiront et alimenteront le stock semencier du sol, augmentant ainsi le risque de perdre le contrôle de la flore adventice dans les cultures à venir. C'est pour apprécier ce risque á moyen et long terme que nous avons réalisé les simulations présentées dans la section suivante. 3. Impact à long terme d'un système de pulvérisation localisée Suite aux analyses de performances des systèmes de pulvérisation localisée, qui peuvent ignorer des adventices, la question de l'impact à long terme sur la population adventice de l'utilisation de ces systèmes est abordée dans cette partie. Pour cela, des simulations numériques sont utilisées. 3.1 La parcelle virtuelle FLORSYS FLORSYS (Colbach et al., 2019, 2014) est une parcelle virtuelle où des systèmes de culture peuvent être testés et évalués en termes de production et de services et dys-services dus aux adventices. L'utilisateur entre une liste d'opérations sur une rotation similaire à l'enregistrement des opérations d'une parcelle d'une station expérimentale ou d'une exploitation agricole, le tout accompagné de la météo journalière et de caractéristiques du sol. Cette liste comprend toutes les opérations (travail du sol, semis, désherbage mécanique, fertilisation, pesticides, fauche, récolte) décrites en détail en termes de dates et d'options. Ces données d'entrées affectent le cycle de vie des cultures et adventices en fonction de différents processus (survie, dormance, germination des semences, levée, développement, croissance et plasticité morphologique des plantes). Ces processus sont modulés en fonction des techniques culturales, des caractéristiques biologiques de chaque semence ou plante, de leur environnement qui dépend lui-même du pédoclimat, des techniques culturales et de la présence de plantes voisines. Les sorties détaillées journalières et en 3D sont traduites en indicateurs de services et dys-services des adventices (ex. perte de rendement de la culture, offre trophique pour abeilles). Le modèle est actuellement paramétré pour 26 espèces adventices fréquentes et contrastées ainsi que 33 espèces cultivées (de rente et de service) de grandes cultures. La version utilisée ici néglige la résistance aux herbicides. 3.2 La pulvérisation localisée dans FLORSYS Une opération de pulvérisation est décrite par la date, le produit appliqué et sa dose, et la zone traitée : le champ en entier, uniquement le rang ou l'inter-rang (en indiquant la largeur de la bande traitée), ou bien encore uniquement les taches d'adventices. Pour cette dernière option (Figure 6), l'utilisateur indique : - Le taux de détection des adventices sur le rang et dans l'inter-rang, en fonction du diamètre des plantes adventices, - Le taux de fausse détection (la probabilité de considérer une plante cultivée comme adventice), - La largeur de la bande traitée, - La distance à laquelle la pulvérisation commence en amont de la plante, et s'arrête après la plante. L'efficacité d'une pulvérisation sur une plante d'une espèce adventice donnée dépend (outre qu'elle doit être détectée et/ou être dans une zone traitée pour les pulvérisations localisées) : - De l'efficacité du produit appliqué à pleine dose sur l'espèce en conditions optimales, - De la dose effectivement appliquée, 110 Innovations Agronomiques 81 (2020), 101-116 Des technologies innovantes pour optimiser le désherbage de précision - Des conditions au moment de l'application, avec notamment une réduction de l'efficacité en fonction de la densité du couvert, de la taille de l'adventice (pour les herbicides foliaires) ou de la profondeur des semences adventices (pour les herbicides racinaires). Bande de pulvérisation Plante adventice non détectée Plante cultivée Distance de pulvérisation après plante Direction du tracteur Plante adventice détectée Distance de pulvérisation avant plante Interrang Rang Figure 6 : Représentation schématique de la pulvérisation localisée sur taches d'adventices dans le modèle de simulation FLORSYS. 3.3 Plan de simulation et résultats Afin d'évaluer l'intérêt sur le long terme d'une pulvérisation localisée d'herbicides, les résultats présentés dans le Tableau 2 sont utilisés, via la parcelle virtuelle FLORSYS, pour simuler l'action combinée d'un système de pulvérisation localisée, dans l'inter-rang, et d'une pulvérisation en plein sur le rang, et ce dans une monoculture de maïs en Aquitaine. La bande de pulvérisation du système de pulvérisation localisée a été fixée à 35 cm (Trimble, 2010). La largeur de la bande traitée, sur le rang est de 20 cm. Cette pratique de pulvérisation localisée est simulée sur 30 ans et son intérêt est analysé au regard d'indicateurs de (dys)services des adventices : la richesse spécifique de la flore adventice, le salissement de la parcelle par les adventices, le rendement en grain, le ratio de biomasse entre culture et adventices au stade floraison qui est un bon proxy de la perte de rendement due aux adventices (Colbach et Cordeau, 2018), le pourcentage de la surface traitée et l'indicateur de fréquence de traitement herbicide (IFT). Afin de tester les différentes configurations du WeedSeeker présentées dans le Tableau 2, six parcelles virtuelles FLORSYS en monoculture de maïs ont été utilisées. Une septième parcelle virtuelle a été configurée pour simuler l'effet d'une pulvérisation en plein. Afin de prendre en compte différentes conditions climatiques, les simulations des parcelles virtuelles ont été répétées 10 fois avec des conditions météorologiques différentes provenant d'Aquitaine. Les simulations ont été initialisées avec un stock semencier comprenant les espèces adventices typiques du maïs en Aquitaine. Les différentes analyses statistiques (analyses de variances, comparaison de moyennes) ont montré que le type de pulvérisation (pulvérisation en plein vs les différentes configurations du système de pulvérisation localisée) utilisé est le facteur qui a le plus d'influence sur presque tous les indicateurs de (dys)services des adventices (l'eta-carré partiel le plus important de cette variable est obtenu pour l'indicateur associé à la surface pulvérisé et vaut η2 ≈ 0.20). Seule la richesse spécifique de la flore adventice dépend majoritairement de l'année de la simulation (η2 ≈ 0.29) et non pas du type de pulvérisation (η2 ≈ 0.003). Pour trois indicateurs (le salissement de la parcelle par les adventices, le Innovations Agronomiques 81 (2020), 101-116 111 Maillot T. et al. rendement en grain, le ratio de biomasse entre culture et adventices au stade floraison), bien que le type de pulvérisation soit la variable ayant le plus d'influence, celle-ci reste faible (par exemple, pour l'indicateur de salissement de la parcelle par les adventices, η2 ≈ 0.01 pour la variable du type de pulvérisation utilisée). Seuls l'indicateur de pourcentage de la surface traitée et l'indicateur de fréquence de traitement herbicide sont fortement liés au type de pulvérisation simulée (par exemple, pour l'IFT, η2 ≈ 0.20 pour la variable du type de pulvérisation utilisée). En moyenne, sur les 30 ans simulés, par rapport à une pulvérisation en plein, une réduction d'environ 40 à 45% de la surface pulvérisée est observée, en fonction de la configuration du système de pulvérisation localisée. Cette réduction d'utilisation de produit herbicide n'a pas d'influence sur les moyennes, sur 30 ans, des rendements de la culture et des ratios de biomasse entre culture et adventices au stade floraison (Figure 7). Cependant, les valeurs des indicateurs varient plus fortement entre années dans le cas d'une pulvérisation localisée, donc aussi le rendement et donc le revenu de l'agriculteur. Les pics d'infestation adventice sont néanmoins maîtrisés et l'infestation globale reste stable sur le long terme (Figure 8). De plus, des pics d'infestation sont également possibles pour un traitement en plein (années 5 et 21) et il faut alors plusieurs années (ex. années 6 à 9) pour que l'infestation se stabilise de nouveau (années 10 à 20). Figure 7 : Variation annuelle de rendement, pour chaque stratégie de pulvérisation simulée, par rapport au rendement moyen obtenu avec une pulvérisation en plein. Résultats de 30 années de simulation en monoculture de maïs x 10 répétitions météo. Les sensibilités de 5 à 10 correspondent aux réglages du système WeedSeeker : plus la valeur de sensibilité est faible, plus le système de pulvérisation est sensible aux variations de couleurs. Les points violets représentent les moyennes des variations de rendement obtenues, pour chaque simulation. 112 Innovations Agronomiques 81 (2020), 101-116 Des technologies innovantes pour optimiser le désherbage de précision Figure 8 : Evolution annuelle du ratio de biomasse entre culture et adventices, au stade floraison, dans une monoculture de maïs en Aquitaine en fonction du type de pulvérisation (bleu = en plein, orange = pulvérisation localisée basée sur le système WeedSeeker avec configuration de sensibilité Sens.9). Les segments verticaux représentent l'intervalle de confiance à 68%, résultant des 10 répétitions météorologiques. 4. Discussion et conclusions Les travaux présentés concernent l'application de l'agriculture de précision à la gestion des adventices et plus particulièrement à la gestion d'une pulvérisation localisée de produits phytosanitaires. La fusion de l'information spatiale et spectrale, contenues dans des images, montrent l'intérêt d'une telle solution pour détecter les adventices au sein du rang de culture. La méthode développée permet la mise en oeuvre de méthodes supervisées sans intervention humaine, avec une base de données de référence adaptée au contexte agronomique. Plusieurs facteurs impactent fortement la séparabilité culture/adventices lors de l'utilisation de cette méthode : la résolution spatiale qui doit être adaptée à la taille des adventices et la famille des plantes considérées (Louargant et al., 2017). L'utilisation de la signature spectrale des plantes offre un potentiel de séparabilité satisfaisant lorsque deux clades (mono et dicotylédones) sont présents mais ne permet pas de séparer deux plantes issues du même clade. Un travail a donc été initié dans le cadre du projet H2020 IWMPRAISE (https://iwmpraise.eu/) afin d'évaluer les critères permettant d'améliorer la séparabilité culture/adventices dans diverses situations. Nous nous intéressons ainsi à la résolution des images, aux bandes spectrales utilisées et au stade de développement des plantes. Des images ainsi obtenues seront extraites des critères spatiaux, spectraux, texturaux et de forme pour chaque plante. L'impact de ces différentes variables sur la qualité de classification sera évalué afin de permettre un choix optimal des paramètres d'acquisition et des méthodes de traitement d'image pour une situation donnée. Les résultats de ces travaux seront mobilisés dans le cadre de l'ANR Challenge Rose (https://challengerose.fr/) qui a pour objectif le développement d'une solution complète permettant la gestion des adventices sur le rang. Cette étude a aussi mis en en avant le besoin de critères simples pour estimer l'intérêt d'une pulvérisation localisée sur une parcelle (surface infestée, répartition des adventices). Dans le cadre de récents travaux, des résultats préliminaires ont été obtenus dans ce sens (Villette et al., 2019). Des premiers résultats prometteurs sur l'impact d'une pulvérisation localisée ont été obtenus, montrant un contrôle à long terme de la flore adventice et la préservation du rendement, tout en réduisant Innovations Agronomiques 81 (2020), 101-116 113 Maillot T. et al. considérablement la quantité d'herbicides pulvérisée (jusqu'à 45%, dans notre étude de simulations, pour une monoculture de maïs, en Aquitaine). Ce succès était indépendant de la sensibilité du système de détection des adventices et valable pour une diversité de scénarios météos. Cependant, les simulations ont détecté une variabilité interannuelle plus importante de la performance des systèmes de culture alors que les agriculteurs ont besoin d'un revenu stable et prévisible. De plus, il s'agissait ici d'un cas d'étude unique, dans une seule région, avec un système simple (une monoculture) ayant généralement une bonne maîtrise des adventices. Il est donc indispensable d'élargir notre étude de simulation pour évaluer les bénéfices et risques de la pulvérisation dans d'autres régions et systèmes et identifier les déterminants de sa réussite. Remerciements Ces travaux ont été financé par INRAE, AgroSup Dijon, l'ANR CoSAC (ANR-15-CE18-0007) et le projet H2020 IWMPRAISE (N 727321). Références bibliographiques Aubertot J.-N., Barbier J.M., Carpentier A., Gril J.-N., Guichard L., Lucas P., Savary S., Voltz M., 2007. Pesticides, agriculture et environnement. Réduire l'utilisation des pesticides et en limiter les impacts environnementaux. Expertise scientifique collective Inra-Cemagref (décembre 2005). Backes M., Jacobi J., 2006. Classification of weed patches in Quickbird images: verification by ground truth data. EARSeL eProceedings 5, 173–179. Baldi I., Cordier S., Coumoul X., Elbaz A., Gamet-Payrastre L., Le Bailly P., Multigner L., Rahmani R., Spinosi J., Van Maele-Fabry G., 2013. Pesticides: effets sur la santé. INSERM, Institut national de la santé et de la recherche médicale, Paris. Bannari A., Morin D., Bonn F., Huete A., 1995. A review of vegetation indices. Remote sensing reviews 13, 95-120. Boochs F., Kupfer G., Dockter K., Kühbauch W., 1990. Shape of the red edge as vitality indicator for plants. International Journal of Remote Sensing 11, 1741-1753. https://doi.org/10.1080/01431169008955127 Bousquet L.A., 2007. Mesure et modélisation des propriétés optiques spectrales et directionnelles des feuilles (PhD Thesis). Paris 7. Butault J., Delame N., Jacquet F., Zardet G., 2011. L'utilisation des pesticides en France: état des lieux et perspectives de réduction. Notes et études socio-économiques 35, 1-24. Chevrel M., Courtois M., Weill G., 1981. The SPOT satellite remote sensing mission. PgERS 47, 11631171. Colbach N., Biju-Duval L., Gardarin A., Granger S., Guyot S.H.M., Meziere D., Munier-Jolain N., Petit Michaut S., 2014. The role of models for multicriteria evaluation and multiobjective design of cropping systems for managing weeds. Weed Research 54, 541–555. https://doi.org/10.1111/wre.12112 Colbach N., Cordeau S., 2018. Reduced herbicide use does not increase crop yield loss if it is compensated by alternative preventive and curative measures. European Journal of Agronomy 94, 6778. Colbach N., Cordeau S., Queyrel W., Maillot T., Villerd J., Moreau D., 2019. Du champ virtuel au champ réel-ou comment utiliser un modèle de simulation pour diagnostiquer des stratégies durables de gestion des adventices et reconcevoir des systèmes de culture? Agronomie, Environnement & Sociétés 9. Dubois A., Lacouture L., 2011. Bilan de présence des micropolluants dans les milieux aquatiques continentaux. Études et documents. Duda R.O., Hart P.E., 1972. Use of the Hough transformation to detect lines and curves in pictures. Communications of the ACM 15, 11-15. 114 Innovations Agronomiques 81 (2020), 101-116 Des technologies innovantes pour optimiser le désherbage de précision Everitt J.H., Alaniz M.A., Escobar D.E., Davis M.R., 1992. Using remote sensing to distinguish common (Isocoma coronopifolia) and Drummond goldenweed (Isocoma drummondii). Weed Science 621-628. Everitt J.H., Anderson G.L., Escobar D.E., Davis M.R., Spencer N.R., Andrascik R.J., 1995. Use of remote sensing for detecting and mapping leafy spurge (Euphorbia esula). Weed Technology 599-609. Gasquet C., Witomski P., 2000. Analyse de Fourier et applications: filtrage, calcul numérique, ondelettes, Sciences sup. Dunod. Gausman H.W., 1985. Plant leaf optical properties in visible and near-infrared light. Graduate studies / Texas Tech University (USA). Hough P.V., 1962. Method and means for recognizing complex patterns. Google Patents. Lamb D., Weedon M., Rew L., 1999. Evaluating the accuracy of mapping weeds in seedling crops using airborne digital imaging: Avena spp. in seedling triticale. Weed research (Print) 39, 481-492. Louargant M., 2016. Proxidétection des adventices par imagerie aérienne : Vers un service de gestion par drone. (Thesis). Université de Bourgogne. Louargant M., Jones G., Faroux R., Paoli J.-N., Maillot T., Gée C., Villette S., 2018. Unsupervised Classification Algorithm for Early Weed Detection in Row-Crops by Combining Spatial and Spectral Information. Remote Sensing 10, 761. https://doi.org/10.3390/rs10050761 Louargant M., Villette S., Jones G., Vigneau N., Paoli J.-N., Gée C., 2017. Weed detection by UAV: simulation of the impact of spectral mixing in multispectral images. Precision Agriculture 18, 932-951. https://doi.org/10.1007/s11119-017-9528-3 Lowenberg-DeBoer J., Erickson B., 2019. Setting the Record Straight on Precision Agriculture Adoption. Agronomy Journal 111, 1552-1569. https://doi.org/10.2134/agronj2018.12.0779 Lucas J.L., Vuillemin F., Sergent-Bouty C., Jolly G., Thiery L., Geloen M., Kazemipour-Ricci F., Jones G., 2019. Targeted spraying on weed spots detected by drone in rapeseed. 24e Conférence du COLUMA : Journées internationales sur la lutte contre les mauvaises herbes, Orléans, France, 3, 4 et 5 décembre 2019. Maillot T., Gee C., Gobin B., Villette S., Vioix J.-B., Jones G., Paoli J.-N., 2016. I-Weed Robot : un outil pour l'étude de population de plantes adventices. 23e Conférence du COLUMA, Journées internationales sur la lutte contre les mauvaises herbes. Meyer G.E., Neto J.C., 2008. Verification of color vegetation indices for automated crop imaging applications. Computers and Electronics in Agriculture 63, 282-293. https://doi.org/10.1016/j.compag.2008.03.009 Rabatel G., Ougache F., Gorretta N., Ecarnot M., 2011. Hyperspectral imagery to discriminate weeds in wheat. In: Robotics and Associated High Technologies and Equipment for Agriculture (RHEA-2011). Pablo Gonzalez de Santos & Gilles Rabatel, p. p35. Rees S., McCarthy C., Fillols E., Baille C., Staier T., 2013. Evaluating commercially available precision weed spraying technology for detecting weeds in sugarcane farming systems. Sugar research, Pest, Disease and Weed Management. Rew L.J., Cousens R.D., 2001. Spatial distribution of weeds in arable crops: are current sampling and analytical methods appropriate? Weed Research 41, 1-18. Rouse J.W., Haas R.H., Schell J.A., Deering D.W., 1973. Monitoring Vegetation Systems in the Great Plains with ERTS. Smith K.L., Steven M.D., Colls J.J., 2004. Use of hyperspectral derivative ratios in the red-edge region to identify plant stress responses to gas leaks. Remote Sensing of Environment 92, 207-217. https://doi.org/10.1016/j.rse.2004.06.002 Sui R., Thomasson J.A., Hanks J., Wooten J., 2008. Ground-based sensing system for weed mapping in cotton. Computers and Electronics in Agriculture 60, 31-38. https://doi.org/10.1016/j.compag.2007.06.002 Tisseyre B., 2012. Is it possible to apply the concept of precision farming to vine growing ? (Thesis). HDR. Trimble, 2010. INSTALLATION AND OPERATION GUIDE WeedSeeker Automatic Spot Spray System. Innovations Agronomiques 81 (2020), 101-116 115 Maillot T. et al. Tucker C., 1979. Red and photographic infrared linear combinations monitoring vegetation. J Remote Sens Environ 8 (2): 127-150. Villette S., Maillot T., Douzals J.-P., Guillemin J.-P., 2019. Simulateur de pulvérisation localisée d'herbicide. Presented at the 24e Conférence du COLUMA : Journées Internationales sur la Lutte contre les Mauvaises Herbes. Vioix J.-B., 2004. Conception et réalisation d'un dispositif d'imagerie multispectrale embarqué: du capteur aux traitements pour la détection d'adventices (Thèse). Dijon. Woebbecke D.M., Meyer G.E., Von Bargen K., Mortensen D.A., 1995. Color Indices for Weed Identification Under Various Soil, Residue, and Lighting Conditions. Transactions of the ASAE 38, 259269. https://doi.org/10.13031/2013.27838 Cet article est publié sous la licence Creative Commons (CC BY-NC-ND 3.0). https://creativecommons.org/licenses/by-nc-nd/3.0/fr/ Pour la citation et la reproduction de cet article, mentionner obligatoirement le titre de l'article, le nom de tous les auteurs, la mention de sa publication dans la revue « Innovations Agronomiques », la date de sa publication, et son URL ou DOI). 116 Innovations Agronomiques 81 (2020), 101-116
{'path': '41/hal.inrae.fr-hal-03256904-document.txt'}
LES USAGES TRADITIONNELS DE L'EAU EN VANOISE Brien Meilleur, Fabrice Mouthon, Julia Villette, Anne-Marie Bimet To cite this version: Brien Meilleur, Fabrice Mouthon, Julia Villette, Anne-Marie Bimet. LES USAGES TRADITIONNELS DE L'EAU EN VANOISE. [Rapport de recherche] Parc National de la Vanoise, Muséum national d'Histoire naturelle. 2012. hal-02518926 HAL Id: hal-02518926 https://hal.archives-ouvertes.fr/hal-02518926 Submitted on 25 Mar 2020 LES USAGES TRADITIONNELS DE L'EAU EN VANOISE Brien A. Meilleur1 avec les contributions de Fabrice Mouthon2 Julia Villette3 et Anne-Marie Bimet4 Canal de Prélatoute, Aussois 11 septembre 2012 (clichés B. Meilleur) Canal de l'Arc à Montrigon, Bourg-Saint-Maurice 27 juin 2012 Novembre 2012 Résumé Malgré la présence d'une imposante infrastructure d'irrigation dans la haute-montagne savoyarde pendant plus d'un millénaire et en dépit d'une recherche active de longue date sur le même phénomène dans les régions voisines intra-alpines du Valais en Suisse et de la Vallée d'Aoste en Italie, la Tarentaise et la Maurienne n'ont jamais fait l'objet d'une recherche approfondie sur cet aspect exceptionnel de leur patrimoine historique et culturel. Ce rapport est le résultat de la première étude concertée sur l'irrigation traditionnelle en Savoie, aboutissant à un inventaire et une description du fonctionnement et du rôle des canaux d'irrigation dans l'économie agro-pastorale traditionnelle du Massif de la Vanoise. L'arrosage par gravité des prairies de fauche, des pâturages, des vergers, des jardins et parfois des vignobles par les canaux creusés à même la terre et parfois la roche et souvent employant des acqueducs en bois, combiné à un emploi de l'eau dans l'économie domestique et la fourniture de force motrice aux artifices coutumiers (moulins, scieries, forges, etc.), constituent dans leur ensemble « les usages traditionnels de l'eau en Vanoise ». Combinant les efforts de deux ethnologues, d'un historien médiéviste et d'une patoisante locale, il résulte d'une année d'enquêtes dans les archives départementales, communales et familiales et des centaines d'heures d'interviews sur le terrain auprès de plus de 130 personnes âgées ayant pratiqué l'arrosage dans leur jeunesse. Il présente notamment un inventaire totalisant presque 300 canaux principaux répertoriés et cartographiés dans le massif- environ 120+ en Haute Maurienne et 170+ en Haute et Moyenne Tarentaise. L'ensemble rivalise avec l'infrastructure des canaux disposés traditionnellement dans la Vallée d'Aoste et dans le Valais, ces derniers étant actuellement sous considération pour une candidature au Patrimoine Mondial de l'Humanité de l'UNESCO. Dans ce rapport, nous décrivons les trois principaux « emplois traditionnels de l'eau » en Vanoise, discutons plusieurs hypothèses sur l'origine des systèmes d'irrigation dans la haute montagne savoyarde et présentons un inventaire détaillé des canaux dans les 29 communes appartenant au Parc national de la Vanoise, ainsi qu'un lexique des termes locaux appliqués aux différents aspects des usages de l'eau dans le massif. 1 Table des Matières Introduction : Les usages traditionnels de l'eau en Vanoise 6 I. L'usage traditionnel de l'eau dans l'économie domestique 8 1. Les bourneaux 8 2. L'eau et la vie domestique aux chalets d'alpage 8 II. Les canaux d'amenée : l'eau et les artifices traditionnels 10 1. Quelles sortes d'artifices 10 2. Les salines de l'Arbonne 12 3. La mine de plomb argentifère de Peisey-Nancroix 12 4. La fabrique Arpin à Séez 12 5. L'Installation des usines hydro-électriques à la fin du 19e siècle 12 6. L'emplacement des artifices 13 7. Technologie et fonctionnement des canaux d'amenée 13 8. La propriété et les canaux d'amenée 13 9. Partager l'eau entre « usiniers » et « arrosants » (et autres) 14 10. L'entretien des canaux d'amenée 14 III. L'emploi de l'eau à des fins agricoles : canaux d'alpage et les canaux d'arrosage 1. Les canaux d'alpage 15 15 L'usage agro-pastoral des canaux d'alpage 15 Gestion et entretien des canaux d'alpage 15 Canaux d'alpage : technologie 16 2. Les canaux d'arrosage 17 Définitions 17 L'usage de l'eau des canaux d'arrosage 17 2 La technologie des canaux d'arrosage 18 La prise du canal et son parcours 18 Le canal 19 Les bifurcations, les intersections 20 « Déchargeurs » ou dévriers 21 Les canaux secondaires et tertiaires 21 Détourner l'eau pour l'arrosage 22 La gestion et l'entretien des canaux d'arrosage 24 La répartition de l'eau et d'autres décisions : les rôles 25 Conflits 26 3. Origines 27 L'irrigation en Maurienne et Tarentaise (XIIIe – XVIe siècles), Fabrice Mouton 27 Les sources 27 Les premiers résultats 28 Origines préhistoriques ? 29 Pourquoi les canaux d'arrosage en Vanoise ? 30 Données physiques de la Vanoise, Julia Villette 30 Le relief en tant qu'obstacle 30 Le relief en tant que grandeur 31 La température 31 L'exposition 32 La géologie 32 Hydrologie naturelle 33 Manque de précipitations ou autres raisons ? 3 33 IV. L'Inventaire des canaux en Vanoise 36 1. Méthodologie du recensement 37 2. Comment déterminer la présence, le tracé et le nom d'un canal, et pourquoi le faire? 41 3. Les documents historiques 41 4. Pourquoi c'est important 42 L'Etablissement des tracés des canaux en Vanoise 42 Méthodologie de digitalisation, Julia Villette 42 5. Les canaux en Vanoise et leurs noms 45 L'Inventaire des canaux de la Haute Maurienne : Introduction 47 Aussois 48 Avrieux 51 Bessans 54 Bonneval-sur-Arc 59 Bramans 62 Lanslebourg-Mont-Cenis 67 Lanslevillard 69 Modane 72 Saint-André 74 Sollières-Sardières 77 Termignon 83 Villarodin-Bourget 87 L'Inventaire des canaux de la Tarentaise : Introduction 90 Les Allues 91 Bellentre 93 4 Bourg-Saint-Maurice 96 Bozel 109 Champagny-en-Vanoise 111 Hauteville-Gondon 114 Landry 123 Montvalezan 126 Peisey-Nancroix 133 Planay 135 Pralognan-la-Vanoise 137 Saint-Bon-Tarentaise 139 Saint-Martin-de-Belleville 142 Sainte-Foy-Tarentaise 144 Séez 151 Tignes 156 Val d'Isère 159 Villaroger 161 Annexe : Les termes dialectaux, Anne-Marie Bimet 164 Notes 170 Bibliographie 172 5 INTRODUCTION : LES USAGES TRADITIONNELS DE L'EAU EN VANOISE L'eau se trouve en abondance en Vanoise, mais elle n'est pas toujours là où on en a besoin et dans les quantités désirées. Dès leur arrivée dans la haute montagne savoyarde, les premiers occupants permanents du massif ont été confrontés à ces réalités. Les preuves dont nous disposons indiquent que ces premiers chasseurs-cueilleurs-cultivateurs-pasteurs ont initié un processus de modification de l'environnement afin d'assurer leur survie. Ils ont mis en oeuvre un processus d'identification et de séparation des aires habitables et des zones productives, de construction des habitations temporaires et permanentes, et un déploiement d'une économie agro-pastorale focalisée sur certaines plantes et animaux domestiqués liés à une diversification des zones altitudinales et de leur profils végétaux. Les données archéologiques et paléo-environnementales témoignent d'une modification importante progressive de l'environnement préhistorique attribuée à l'homme dès la fin du néolithique à l'âge du fer (Carcaillet 1998 ; Carcaillet et Brun 2000 ; David 2010 ; Genries et al. 2009 ; Gimmi et al. 2008 ; Rey et al. 2008). La plupart des changements se distinguent dans la structure de la couverture végétale. Mais il est difficile d'imaginer que les premières activités agro-pastorales, et celles inclues dans l'aménagement des aires d'habitation, n'ont pas aussi pesé sur l'environnement hydraulique naturel. Quoique moins bien documentées, les données de l'environnement préhistorique des Alpes du Nord établissent depuis peu qu'une transformation de l'espace hydraulique a également eu lieu. Notre projet a comme objectifs l'étude, la documentation et l'analyse des usages de l'eau dans les 29 communes du Parc national de la Vanoise (situées dans la Haute et Moyenne Tarentaise, les cantons de Bozel et de Moûtiers et la Haute Maurienne) pendant la période « traditionnelle », que nous définirons comme s'étendant depuis la préhistoire jusqu'aux années 1950 environ. Ces usages étaient nombreux et divers, et nous organiserons nos résultats en trois catégories correspondant à nos observations : l'économie domestique, les besoins industriels et la vie agricole. Les usages de l'eau dans l'économie domestique, relativement simples, correspondaient à une technologie élémentaire, répandue dans toute la Vanoise : ce sont principalement les activités et les procédés mis en place pour amener de l'eau potable aux villages et aux habitations temporaires. Nous résumerons rapidement ces aspects de la vie coutumière dans la première partie de ce rapport. Dans la seconde partie, nous développerons les usages de l'eau liés au fonctionnement des artifices implantés en Vanoise, incluant bâtiments et technologies plus raffinées, en raison de leur intérêt patrimonial. Cependant, puisqu'un inventaire des « moulins » de la Savoie-comprenant les aires qui nous intéressent-a déjà été réalisé par ailleurs (Gotteland et Crabières s.d.), nous développerons peu ce sujet, notre objectif étant de complémenter ce premier travail, malheureusement peu connu. La mise en place des premières usines hydro-électriques ayant eu lieu en Vanoise à la fin 19e et au début 20e siècle, nous ne ferons que mentionner ces implantations, sans rentrer dans les détails. En dépit des moyens importants employés pour amener l'eau nécessaire aux activités domestiques et industrielles, celles-ci seront peu abordées dans ce rapport. Comme évoqué dans notre proposition de recherche, un autre usage coutumier de l'eau en Vanoise mérite une attention particulière : l'arrosage des propriétés agricoles et pastorales. Aussi bien par leur contribution vitale à l'économie agropastorale, que par leur intérêt patrimonial-les systèmes d'arrosage en Vanoise rivalisaient dans leur étendue et leur complexité avec les plus importants d'Europe-l'irrigation coutumière formera donc le sujet principal de ce travail. 6 La plupart des canaux d'arrosage étant aujourd'hui oubliés, abandonnés ou même détruits, leur étude et leur sauvegarde représentent un enjeu important dans la politique de conservation du patrimoine du département, de la région et du parc national de la Vanoise qui abrite la majorité des canaux. Un inventaire avait été commencé par le parc de la Vanoise en 2005 (Morel), la dimension ethno-historique de ces canaux a été ébauchée, mais leur fonctionnement et leur organisation socio-économique restent inconnus, ainsi que leur rôle dans le succès économique agro-pastoral. Ainsi, les actions d'acquisition de connaissance sur ce patrimoine remarquable représentent une priorité avant la rapide disparition des traces et des témoignages actuels. Dans cette période de changement climatique et de tensions sur la ressource en eau, l'intérêt pour la question des usages de l'eau et de la manière dont elle était gérée autrefois dépasse le cadre strictement patrimonial et rejoint les questionnements actuels autour des enjeux du partage de la ressource en eau. Ce rapport s'orientera majoritairement vers la documentation, l'inventaire et la cartographie des canaux d'arrosage. Grâce au travail d'Anne-Marie Bimet, nous avons pu ajouter en annexe un lexique des mots en dialecte franco-provençal (ou patois savoyard) employés pour désigner les différents éléments des canaux, la technologie employée dans l'arrosage et les activités d'arrosage elles-mêmes. Malgré le nombre d'informateurs rencontrés et l'aide apportée par de nombreuses personnes et institutions5, l'ampleur du travail entrepris ne nous permet pas de faire plus que ce rapport présentant nos premiers résultats. Les trois chercheurs engagés dans ce projet (Meilleur, Mouthon, Villette) se sont mis d'accord pour préparer un manuscrit pendant l'année 2013 afin de le soumettre pour publication en 2013 ou 2014 afin de sensibiliser les décideurs, les acteurs du territoire et le public à ce patrimoine savoyard exceptionnel. Le Parc de la Vanoise et le Conseil Régional Rhône-Alpes, en manifestant leur intérêt et leur soutien à ce sujet, souhaitent continuer à attirer l'attention nécessaire sur cette richesse « presque » perdue à jamais. 7 I. L'USAGE TRADITIONNEL DE L'EAU DANS L'ECONOMIE DOMESTIQUE 1. Les bourneaux A part quelques cas rares ou ponctuels, tous les villages, toutes les montagnettes et tous les alpages en Vanoise étaient desservis en eau potable, bien que les technologies pour amener l'eau varient. Vers la fin du 19e et le début du 20e siècle-et sans doute depuis des siècles-on conduisait l'eau vers la plupart des villages par les « bourneaux » ou tuyaux souterrains en bois qui, ensuite, alimentaient par gravité les bassins placés stratégiquement dans des villages. Les troncs d'arbres (surtout Larix decidua, Picea abies), étaient évidés avec une tarière ou coupés dans le sens de la longueur, évidés et fermés par un fil de fer ou une bande métallique ; ils servaient à transporter l'eau en dehors des villages vers les bassins en bois ou en pierre des lieux habités. Plusieurs experts locaux se souviennent de ces systèmes d'alimentation en eau et estiment que la durée d'utilisation de certains d'entre eux pouvait dépasser une centaine d'années avant d'être remplacés. Idéalement, selon l'importance du village, l'eau était captée sur une ou plusieurs sources en amont et à l'écart de l'agglomération, bien que certains villages puissent se situer même sur des sources. Si la source, les bourneaux ou les bassins présentaient un risque d'inondation ou de marécages pouvant être gênant à cause de leur proximité du village, la pose de drains contribuait à résoudre le problème. En l'absence de sources à proximité, l'eau était parfois dirigée vers le village par une ou plusieurs rigoles dérivées d'un canal d'arrosage à ciel ouvert situé à proximité. A l'approche du village, la rigole était transformée en bourneau ou couverte par des dalles en pierre. Il n'était pas rare pour un bourneau alimenté par une source d'être branché par ailleurs à une rigole d'un canal d'arrosage afin que les utilisateurs puissent augmenter ou réduire le débit du réseau domestique en cas de besoin. Certains villages dépourvus de sources, par exemple, plusieurs villages de Montvalezan, Séez chef-lieu et plusieurs autres villages de cette commune, le quartier de Montrigon sur Bourg-Saint-Maurice, et ceux localisés au « Versant du Soleil » en dehors du territoire du parc de la Vanoise, ont été contraints de tirer leur eau potable des canaux d'arrosage (voir « Manque de précipitation ou d'autres raisons ? » p. 33). Certains canaux de ces communes ou quartiers restaient partiellement ouverts en hiver pour cette raison alors qu'ils étaient le plus souvent fermés ailleurs. Les systèmes modernes d'adduction en eau potable se sont mis en place majoritairement entre 1895 et 1930 (Archives Départementales de la Savoie [ADS ] 53SPC7, 53SPC25). Les deux gares de la Tarentaise ont été alimentées en eau potable entre 1892 (Moûtiers, l'eau venant de la commune de Saint-BonTarentaise) et 1911-1915 (Bourg-Saint-Maurice). 2. L'eau et la vie domestique aux chalets d'alpage Les chalets d'alpage étaient rarement équipés en bourneaux et l'approvisionnement des bassins et abreuvoirs en bois ou en pierre était encore plus simple. On les alimentait, comme pour les montagnettes, par les canaux d'alpage ou d'arrosage ou par des ruisseaux ou ruisselets passant à proximité, ou aussi par des sources, en conduisant l'eau à l'endroit désiré par une ou plusieurs rigoles à ciel ouvert (voir Les usages des canaux d'alpage, ci-dessous). En Haute Maurienne, on confectionnait une sorte de petite chute en pierre permettant de placer facilement un seau sous le courant (lo peshai à Bonneval-sur-Arc). Pour les alpages très étendus, les abreuvoirs étaient installés ici et là loin des chalets. En consultant le Premier Cadastre Français (PCF, 1868-1927), on découvre des bassins ou des abreuvoirs à proximité des chalets d'alpage et des montagnettes dans toutes les communes de la Vanoise. Les 8 chalets éloignés des canaux ou des ruisseaux étaient alimentés par l'eau captée des sources situées à des distances variables, puis conduite vers un bassin ou un abreuvoir par une rigole à ciel ouvert. L'eau desservant les lieux habités étaient aussi employée pour refroidir ou rafraîchir des pièces assignées au stockage du lait ou des vivres et à la fabrication des fromages. La rigole traversait alors une pièce du bâtiment pour ressortir de l'autre côté. Bon nombre de chalets et de montagnettes étaient également équipés de canalisations qui traversaient les étables, souvent situées sous la maison, où l'on rentrait le bétail en cas de mauvais temps ou pendant la nuit (vaches laitières surtout). Ces canalisations qui facilitaient le nettoyage seront détaillées dans la partie « Canaux d'alpage » ci-dessous. L'eau potable ainsi amenée aux maisons et aux abris servait à l'économie domestique, pour boire, cuisiner, faire la lessive, le nettoyage, assurer l'hygiène personnelle, etc. Elle était également indispensable pour combattre les incendies dans les villages ; les documents historiques témoignent amplement de l'intérêt de cet argument dans les demandes d'aide par des communes souhaitant réparer leurs canalisations. La proximité de l'eau s'avérait aussi indispensable pour la construction des bâtiments. En Haute Maurienne, nous avons trouvé des indices d'emploi de la force motrice hydraulique à proximité des chalets d'alpage, servant par exemple à battre le beurre pendant la belle saison (Villette 2012). Ce sont les villages eux-mêmes ou les quartiers des gros villages qui ont, sous leur autorité civique coutumière, assumé la responsabilité de la mise en place et de l'entretien des bourneaux ou des rigoles pour les besoins domestiques, en général par le biais des corvées. Les réseaux de bourneaux ont été remplacés en Vanoise par les systèmes d'adduction d'eau « modernes » installés majoritairement dans les premières décennies du 20e siècle. 9 II. LES CANAUX D'AMENEE : L'EAU ET LES ARTIFICES TRADITIONNELS Au milieu du 19e siècle, le royaume de Sardaigne ordonnait le recensement « des artifices divers mis en mouvement par les fleuves, rivières, torrents et cours d'eau » pour l'ensemble de ses territoires. Un inventaire daté de 1837-1846 et mis en place par l'Intendant de la Tarentaise existe pour 13 des 18 communes (17 actuelles + Hauteville-Gondon) de la zone parc en Tarentaise (ADS 5FS844). Malgré une hésitation de la part de plusieurs communes à fournir ces informations, sans doute par crainte d'une nouvelle taxe, presque 200 artifices ont été inventoriés. Bourg-Saint-Maurice à elle seule a signalé 24 artifices, Les Allues 23, et Montvalezan et Bozel 22 chacune. En extrapolant ces chiffres, plutôt impressionnants mais incomplets et sans doute imprécis, nous pouvons facilement imaginer un total de plus de 250 artifices à l'époque pour les 17 communes du parc côté Tarentaise. Combien en existait-il dans les 12 communes haute-mauriennaises à la même période ? Nous ne sommes pas en mesure de le dire précisément, mais nous pensons qu'il est raisonnable de suggérer l'existence d'au moins 50 à 100 artifices de plus à la même époque, puis d'estimer un total allant jusqu'à 300 à 350 artifices mis en mouvement par l'eau pour les 29 communes du parc au milieu du 19e siècle. D'après nos résultats préliminaires, plus de 70 canaux d'amenée sont reconnaissables sur les cartes anciennes. Ce ne sont sans doute que les canaux d'une certaine ampleur qui ont été cartographiés, la plupart des autres, proches des cours d'eau, étaient probablement trop courts pour attirer l'attention des géomètres. En consultant les cartes anciennes datées de la fin du 19e et du début du 20e siècle, on retrouve encore bon nombre de ces artifices malgré un déclin agricole déjà amorcé ; nos déplacements sur le terrain nous ont permis de retrouver plusieurs moulins, forges et scieries bien que la plupart soient en ruines (voir Figure 1). Grâce à l'effort de quelques communes, nous avons pu observer quatre artifices en état de marche : moulin à blé de St. Germain à Séez, scierie du Raffort aux Allues, moulin à blé de Burdin à Saint-Martin-deBelleville, moulin à blé de Pralognan à Saint-André en Haute Maurienne. « L'inventaire des Moulins » de la Savoie réalisé par Gotteland et Crabières (ibid.) est disponible aux Archives Départementales de la Savoie (ADS 5FS844). Sans doute incomplet, ce travail servira néanmoins de point de départ pour une recherche approfondie sur les artifices de la Vanoise. Dans cette partie du rapport, nous mentionnerons les différentes sortes d'artifices existant en Vanoise, leur localisation, leur alimentation en eau et leurs propriétaires. Figure 1 : Scierie Arnaud (abandonnée), Canal de Bonneville, Villaroger, 21/6/12 (cliché B. Meilleur) 1. Quelles sortes d'artifices ? Pendant la période traditionnelle, au moins une dizaine de types d'artifices ont été mis en mouvement par la force de l'eau : 1. Les moulins à grains, 2. Les scieries, 3. Les forges ou martinets, 10 4. Les pressoirs à noix ou à fruits, 5. Les battoirs de chanvre, 6. Les foulons à drap, 7. Les tanneries, 8. Les moulins à chaux, 9. Les clouteries 10. Les « casseries » de roche (associées aux « laveries » des mines de plomb argentifère à PeiseyNancroix, Macôt, etc. voir ci-dessous). La terminologie retrouvée dans les cartes et documents anciens varie. Par exemple, on rencontre les « scies » et les « reises » pour les scieries et le terme habituellement employé dans les documents anciens pour les artifices en général est « usine ». Ce sont toujours des bâtiments en dur avec toitures. Plus de détails sur les formes et la fonction des artifices sont disponibles dans l'inventaire de Gotteland et Crabières (ibidvoir Figure 2). Figure 2: Moulin de Saint-Germain (moulin à blé, restauré), Séez, 21/6/12 (cliché B. Meilleur) On ne peut évoquer les artifices et leurs canaux d'amenée sans citer trois des plus importantes « usines » anciennes du massif : les Salines de l'Arbonne sur Bourg-Saint-Maurice, la mine de plomb argentifère sur Peisey-Nancroix, et la fabrique Arpin sur Séez. Bien que des quantités importantes d'eau aient été utilisées par les trois entreprises, on ne peut les considérer comme des usagers « traditionnels » de l'eau dans le massif, étant donné que leur mise en place et leur fonctionnement résidaient dans un monde principalement non-paysan et non-agro-pastoral. 11 2. Les salines de l'Arbonne La roche du « marbre salé » de l'Arbonne a fait l'objet d'une exploitation concertée à partir du 17e siècle, avec bâtiments spécialisés, ouvriers, chaudières, canaux d'amenée, etc. Située sur la rive gauche de l'Arbonne en amont de sa confluence avec le Nant Blanc, l'entreprise extrayait des blocs de roche salée (H. Béguin, communication personnelle ; Hudry 1982 : 186). Après leur dissolution, « l'eau concentrée en sel est envoyée par des canaux aux chaudières », assujettie à une cuisson, les chaudières décrottées, et le sel « de moindre qualité [était] descendu au magasin de la gabelle à Bourg-SaintMaurice ». L'exploitation qui n'a jamais connu un très grand succès, a fermé à la fin du 18e siècle. 3. La mine de plomb argentifère de Peisey-Nancroix Découverte en 1644 selon Hudry (1982 : 138-39), une exploitation de plomb argentifère s'est mise en place au début du 18e siècle sur la rive gauche du Nant Fesson en amont de sa confluence avec le Torrent du Ponturin. Entre 1750 et 1758 la mine délivrait 776 tonnes de plomb et plus de 2 tonnes d'argent au royaume de Sardaigne et, en 1832, elle employait 274 ouvriers. L'implantation de plusieurs bâtiments et d'autres infrastructures, y compris une « Laverie » et plusieurs canaux d'amenée et de fuite, est bien visible sur le Premier Cadastre Français (PCF) de Peisey-Nancroix daté de 1868. La mine a définitivement fermé en 1866. 4. La fabrique Arpin à Séez La fabrique Arpin, qui confectionnait draps et autres produits en laine, a démarré son activité au début du 19e à proximité du Pont des Teppes à Séez (Hudry 1982 : 207-08). Une scierie et une forge fonctionnaient à proximité. L'eau canalisée pour alimenter la machinerie (maintenant électrifiée) de la fabrique, était tirée du Torrent du Versoyen sur la limite communale avec Bourg-Saint-Maurice (voir « L'Inventaire, Séez, p. 151). 5. L'installation des usines hydro-électriques à la fin du 19e siècle Vers la fin du 19e siècle les deux côtés du massif ont connu un mouvement industriel caractérisé par l'installation de plusieurs microcentrales hydro-électriques. Nous n'avons eu ni le temps ni les moyens de documenter cette activité, mais il est intéressant de constater que la plupart des installations semblaient avoir été mises en place d'abord par les entrepreneurs locaux, avant l'arrivée des grosses compagnies électriques et la nationalisation de l'électricité en 1946. L'installation la plus ancienne retrouvée est celle d'Antoine Fardel en 1885 à Modane, où il a converti « l'usine Bernard Joseph » en microcentrale électrique sur le Torrent de Rieu-Roux, afin de fournir l'électricité pour 6 lampes dans la ville de Modane et une lampe gratuite pour la chambre de réunion du conseil municipal (ADS 42SPC7, Modane). L'implantation des usines hydro-électriques, sujet important en Vanoise, mériterait une étude complète. Par ailleurs, une équipe de chercheurs locaux, en relation avec la FACIM, prépare actuellement un rapport sur le sujet (R. Excoffier, communication personnelle). 12 6. L'emplacement des artifices La plupart des artifices coutumiers se situait près des ruisseaux et des canaux d'arrosage. Peu d'artifices ont été installés tout près des deux grandes rivières-l'Arc et l'Isère-probablement par crainte des inondations. Ceci est vrai aussi pour les grands torrents et ruisseaux en raison des crues fréquentes. Les artifices étaient installés à une certaine distance des cours d'eau naturels et desservis par les canaux d'amenée de longueur variable, souvent appelés localement « les biallières ». Ces canaux alimentaient également les nombreux artifices placés à proximité des canaux d'arrosage. A une exception près, ces canaux se trouvaient à l'intérieur des limites communales. Nous n'avons repéré qu'un seul canal d'amenée partant d'une commune pour entrer sur une autre : le « Canal du Moulin » sur SollièresSardières (voir l'Inventaire des canaux, le N°10 Sollières-Sardières) aussi appelé le « Canal du Verney », sur Bramans (voir l'Inventaire des canaux, le N°9 Bramans). 7. Technologie et fonctionnement des canaux d'amenée Un canal d'amenée prenait son eau du ruisseau ou du canal principal par le biais d'une « prise » orientée en diagonale vers l'aval sur le cours d'eau en question. Les éléments techniques de cette prise pouvaient être une grosse ardoise, une butée cimentée ou une écluse en bois ou en métal, ces dernières par endroits remontant à la fin du 19e. Quelle que soit la technologie choisie, chaque prise permettait l'ouverture et la fermeture d'un canal d'amenée. Pour les canaux d'amenée sortant de l'eau des canaux d'arrosage, les artifices ainsi alimentés devaient obligatoirement partager l'eau avec les propriétés irriguées en aval et/ou en amont ; de ce fait, ils devaient pouvoir fermer leurs prises. Les documents d'archives font référence aux « usiniers » pour les propriétaires ou gérants des artifices et aux « arrosants » pour les propriétaires des parcelles irriguées se servant de l'eau d'un même canal. Alors que l'on fermait la majorité des canaux d'arrosage en hiver (voir ci-dessous), on laissait ouverts ceux qui alimentaient également des moulins à blé et d'autres artifices afin de leur permettre de fonctionner toute l'année (ADS, L2215, Séez). Tous les canaux d'amenée étaient munis d'au moins un « déchargeur » ou canal de fuite, ce dernier terme ayant une application plus récente (voir La technologie des canaux d'arrosage, p. 18). L'eau une fois utilisée par l'artifice sortait du bâtiment et le plus souvent était redirigée vers le cours d'eau original. Dans les sites importants où plusieurs artifices longeaient un canal, les déchargeurs pouvaient être nombreux, mais ils constituaient toujours des segments des « biallières ». 8. La propriété et les canaux d'amenée Faute de temps et de moyens, nous n'avons pas systématiquement recensé les propriétaires, trop nombreux, des canaux d'amenée ou des artifices en Vanoise. Dans la plupart des cas, le propriétaire d'un artifice était également propriétaire du canal d'amenée qui le desservait. Certains canaux étaient en indivision s'ils alimentaient plusieurs artifices. Plusieurs indices établissent qu'au moins quatre régimes de propriété existaient pendant la période traditionnelle. Durant la période médiévale, sauf quelques exceptions, tous les cours d'eau appartenaient à la seigneurie locale, laïque ou ecclésiastique. Aux 18e et 19e siècles, suite à des franchises accordées, la propriété des artifices et des canaux d'amenée passait soit aux collectivités locales, soit aux particuliers. D'après les documents du 19e et 20e, un artifice et un canal d'amenée pouvaient être : la propriété de la commune dans laquelle ils se situaient, la propriété d'un quartier de cette même commune, la propriété d'une commune ou d'un quartier voisin, ou encore la propriété d'un particulier. L'inventaire des artifices de la Tarentaise du 19e siècle déjà cité 13 (ADS 5FS844) donne une idée de la distribution de ces propriétés pendant la période coutumière nonmoyenâgeuse. 9. Partager l'eau entre « usiniers » et « arrosants » (et autres) L'eau divergée directement d'un cours d'eau naturel pour alimenter un artifice provoquait peu d'incidents sauf quand le cours d'eau n'avait pas un débit suffisant pour fournir plusieurs utilisateurs à la fois. Les documents historiques évoquent la question du partage des eaux des canaux entre « arrosants » et « usiniers » et des désaccords sérieux ou des litiges. C'est le cas surtout en Tarentaise où les griefs étaient semble-t-il réguliers entre les deux groupes d'utilisateurs. Souvent insuffisants pour satisfaire arrosants et usiniers simultanément à la fin de l'été, les canaux d'arrosage surtout faisaient l'objet d'accords écrits en Tarentaise. C'était le cas, non seulement entre les arrosants eux-mêmes (jours, heures et durées pour l'usage de l'eau étaient spécifiés) (voir Les canaux d'arrosage, p. 17), mais aussi entre arrosants et usiniers se servant du même canal. L'usage de l'eau était ainsi règlementé presque partout en Tarentaise pendant la période traditionnelle par les « rôles de répartition des eaux » ou par des « règlements sur le partage des eaux ». Ces documents précisent quand et pendant combien de temps l'eau pouvait servir aux arrosants et spécifiaient aussi l'attribution de l'eau entre ce groupe et les autres utilisateurs. A la fin du 19e et au début du 20e siècle, l'arrangement typique pour un canal « multifonctionnel » était que les arrosants prenaient l'eau la journée et les usiniers la nuit, et si les « alpagistes » s'en servaient aussi, ce dernier groupe était « facturé » selon les quantités prélevées (voir Gestion et l'entretien des canaux d'alpage, p. 15). 10. L'entretien des canaux d'amenée L'entretien des canaux d'amenée incombait à leurs propriétaires, c'est-à-dire à ceux qui détenaient les artifices alimentés. Si le canal d'amenée servait aussi à arroser quelques parcelles avoisinantes-des vergers ou des jardins par exemple-ces propriétaires étaient aussi impliqués. Si l'artifice et son canal d'amenée étaient communaux, ils étaient entretenus par la collectivité en question par corvée, sauf dans le cas où une réparation majeure nécessitait l'intervention d'un spécialiste rémunéré. Les particuliers étaient responsables des travaux nécessaires pour maintenir en bon état leurs artifices et canaux. Dans les cas où des artifices communaux et privés se trouvaient sur le même canal d'amenée, les tâches et les coûts des réparations étaient répartis équitablement. 14 III. L'EMPLOI DE L'EAU A DES FINS AGRICOLES : LES CANAUX D'ALPAGE ET LES CANAUX D'ARROSAGE 1. Les canaux d'alpage Les « canaux d'alpage » correspondent à des canaux ou rigoles situés dans la zone des alpages en Vanoise. Ce sont en général les canaux que l'on retrouve au-dessus de 2000m d'altitude (bien que des prises pour plusieurs canaux d'arrosage, situés en haute altitude, n'aient aucune fonction évidente au niveau des alpages). On en reconnait deux sortes. Les plus larges et longs correspondant à une double (ou triple) fonction-canal d'alpage en haut, puis canal d'arrosage en bas, avec la possibilité d'alimenter un ou plusieurs canaux d'amenée pour desservir des artifices. Les plus petits servaient uniquement les chalets d'alpages, leurs pâturages et parfois des prairies d'altitude à proximité, ces dernières surtout en Haute Maurienne (voir l'Inventaire ci-après : surtout Termignon, Bessans, Bonneval-sur-Arc). Les prises d'eau pour les canaux à plusieurs fonctions-d'arrosage et d'alpage surtout-se situaient en général très haut en altitude, avec les canaux eux-mêmes traversant d'abord les zones d'alpage avant de descendre vers les zones inférieures. Les prises pour les canaux d'alpage plus modestes se trouvaient en général sur un ruisseau, un ruisselet ou une source permanente à proximité pour parcourir une distance relativement courte ; ils restaient majoritairement dans les zones d'alpage. L'usage agro-pastoral des canaux d'alpage L'eau des canaux d'alpage servait à plusieurs fins dans la vie domestique des alpagistes (voir L'Usage de l'eau dans l'économie domestique, ci-dessus), mais sa fonction agro-pastorale principale était d'amender et d'irriguer simultanément les pâturages entourant les chalets d'alpage. Des canaux secondaires ou rigoles issus d'un canal d'arrosage ou d'alpage principal, ou d'un ruisseau ou d'une source à proximité, se voyaient dirigés soit vers les chalets afin de traverser l'intérieur des étables, soit vers des tas de fumier ou fosses à l'extérieur. L'objectif était de faciliter, par le mouvement de l'eau, l'épandage des fertilisants sur les alpages à proximité des chalets et de rendre le travail de nettoyage des étables plus aisé. On appelait cette activité « laquer » ou « nayer » (noyer) les pâturages. Pour les pâturages plus éloignés, après leur broutage par les vaches laitières surtout, on amenait de l'eau par des petits canaux ou des rigoles situés à leur sommet et on irriguait le lieu par gravité afin de distribuer le fumier et ainsi mieux fertiliser ces pâturages. Gestion et entretien des canaux d'alpage La gestion et de l'entretien des canaux d'alpage revenaient aux utilisateurs de l'eau. Pour les canaux ou rigoles d'alpage modestes, alimentant une zone délimitée d'alpages et quelques chalets, les accords se faisaient oralement entre les personnes morales impliquées (de toute évidence celles-ci étaient majoritairement les particuliers, mais elles pouvaient être aussi bien les communes ou les quartiers des communes). Pour un canal important, qui servait plusieurs groupes d'utilisateurs-alpagistes en haut et arrosants en bas par exemple-la situation était plus compliquée. Dans de tels cas, et prenant le secteur du Versoyen sur Bourg-Saint-Maurice comme exemple, on partageait l'eau selon un calcul basé sur les surfaces arrosées en bas et sur les volumes de l'eau utilisés en haut. Par un accord commun, on rédigeait des rôles ou règlements, prescriptions publiques établissant pour chaque arrosant non seulement les jours, les heures, les durées et les localités de son emploi de l'eau, mais également sa charge en heures de corvée pour l'entretien du canal concerné. Pour les arrosants, le coût était déterminé par rapport aux surfaces irriguées, pour les alpagistes, par rapport aux quantités d'eau 15 consommées, tant pour la vie domestique que pour l'amendement des pâturages. On calculait le coût pour un alpagiste du Versoyen, par exemple, selon la dimension du trou creusé dans une ardoise placée dans un canal principal et qui bifurquait de l'eau dans sa propriété. Pour les canaux importants, l'adhésion à ces dispositions était surveillée par les syndics ou les « gardes canaux », nommés ou élus par la collectivité des utilisateurs (voir La gestion et l'entretien des canaux d'arrosage, p. 24). Canaux d'alpage : technologie La technologie associée aux canaux d'alpage n'était guère différente de celle employée pour les canaux d'arrosage (voir ci-dessous). Si un canal faisait double usage entre alpagistes et arrosants, normalement il partait plus haut en altitude, à la différence des canaux d'arrosage qui n'irriguaient plus bas que les prairies de fauche, vergers, jardins, etc. Dans ce cas, l'eau était employée plus intensivement que dans les alpages, et les canaux étaient en général plus ramifiés, fournis d'écluses, de tournes, etc. Les canauxrigoles d'alpages plus modestes, limités aux zones d'alpage-plus courts, moins larges, moins profonds-étaient plus sommaires et ceci explique probablement pourquoi les géomètres n'ont pas inscrit la majorité de ces canaux-rigoles dans les cartes anciennes. Se trouvant en Vanoise par milliers et en grande partie abandonnés aujourd'hui, nous n'avons eu ni le temps ni les moyens de les inventorier systématiquement. 16 2. Les canaux d'arrosage La Vanoise comptait parmi les zones les plus irriguées des Alpes du Nord et, avec le Valais en Suisse et la Vallée d'Aoste en Italie, forment ce que les géographes appellent « la zone intra-alpine des Alpes du Nord ». Les canaux d'arrosage constituaient un élément majeur du paysage agricole du massif. Sur 30 communes du parc (29 actuelles + Hauteville-Gondon traitée séparément), ces canaux ont été retrouvés dans 27 d'entre elles, avec un total d'environ 200 identifiés dans la zone parc. En comptant les canaux d'arrosage du massif en dehors de cette zone, ceux qui ont été abandonnés depuis longtemps et/ou dénommés mais introuvables lors de notre enquête, et ceux composant des portions ou des branches des canaux principaux, nous estimons qu'un total d'au moins 300 canaux d'arrosage distincts existaient dans le massif de la Vanoise pendant la période agro-pastorale. Cette estimation n'inclut pas les milliers de canaux secondaires et tertiaires dérivés des canaux d'arrosage principaux, servant à distribuer de l'eau directement aux propriétés irriguées, ni la plupart des centaines ou des milliers de canaux ou rigoles des alpages-plus difficilement discernables-qui servaient à amender et à irriguer les pâturages et les prairies de fauche d'altitude (voir ci-dessus). Définitions L'irrigation empruntait des canaux principaux, secondaires et tertiaires d'arrosage. Le terme « canaux d'arrosage » sera employé génériquement pour englober les trois éléments ou segments d'un réseau d'irrigation. Les canaux principaux prenaient leur eau dans les torrents et les ruisseaux naturels permanents, parfois dans les autres canaux principaux et plus rarement dans les deux rivières du massif ou des sources. Ces canaux parcouraient parfois des distances considérables-jusqu'à 10 km-pour acheminer l'eau là où elle était attendue (voir l'Inventaire ci-après). Ce sont les artères des réseaux d'irrigation qui, par la suite, se ramifiaient en canalisations secondaires et tertiaires. Les écoulements en général moins longs, moins larges et moins profonds caractérisaient les canaux secondaires, issus des canaux principaux. Par endroit en Vanoise, on les appelait les « canaux coursiers ». Ces canalisations amenaient l'eau à proximité des lieux où l'on s'en servait ; plusieurs centaines ont été dénombrées. Les canaux tertiaires ou rigoles, qui se comptaient par milliers, prenaient l'eau des canaux secondaires pour la faire aboutir aux sommets des propriétés irriguées. Creusés à la main dans la terre et parfois dans la roche, empruntant par endroits des aqueducs en bois, les canaux d'arrosage étaient majoritairement à ciel ouvert et opéraient uniquement par gravité. Les dimensions des trois types des canaux d'un réseau d'irrigation sont parfois détaillées dans les documents d'archives (voir Technologie, ci-après). L'usage de l'eau des canaux d'arrosage L'usage principal de l'eau des canaux d'arrosage était l'irrigation des prés ou prairies de fauche. Secondairement, on arrosait les vergers (et noyeraies), les jardins et dans quelques communes, la vigne (surtout Bellentre dans la zone parc), sans compter les rouissoirs. La plupart des communes fermaient leurs canaux en hiver pour les rouvrir à nouveau au printemps, le plus souvent au mois de mai, mais plus tôt dans certaines communes de basse altitude. On refermait les canaux au mois de septembre quand l'irrigation prenait fin (voir Technologie ci-après). Certaines communes de la Haute Maurienne et de la Haute Tarentaise n'ouvraient pas leurs canaux avant le mois de juillet, après la première coupe des foins, pour favoriser la croissance du regain ou de l'herbe à pâturer en automne. Mais la plupart des communes arrosaient leurs prés avant la première coupe, selon les conditions météorologiques et 17 surtout en cas de manque de précipitations. De toute évidence, avant l'introduction de la pomme de terre, les champs ou terres labourées n'étaient jamais irrigués. Cependant, et en dépit de ce modèle dominant, l'eau de nombreux canaux d'arrosage servait souvent à d'autres fins. Les réseaux des canaux de toutes sortes étaient souvent combinés ou entrelacés ; se reliant ou s'entrecroisant assez souvent, parfois par le biais de ce que nous appellerons les « canaux connecteurs ». La fonction du canal pouvait changer au fil de sa progression. Par exemple, pour certains canaux multifonctionnels, partant en haute altitude et transitant sur plusieurs zones économiques, la séparation entre sa portion « canal d'alpage » et sa portion « canal d'arrosage » n'était pas clairement située, puisque les deux usages étaient souvent simultanés. Même quand une fonction d'arrosage des prés en aval semblait dominante, le même canal pouvait aussi bien servir à « noyer » des pâturages en amont, pourvoir de l'eau à des fins domestiques, ou abreuver le bétail. Si son débit était suffisant, il pouvait même alimenter un ou plusieurs artifices avant la fin de son parcours. Loin de se cantonner à une classification unique-faite ici pour les raisons heuristiques-nous insisterons plutôt sur la complexité et la sophistication des réseaux et sur leur flexibilité et leur multifonctionnalité. La technologie des canaux d'arrosage La prise du canal et son parcours Tous les canaux d'arrosage principaux débutaient par une prise partant soit d'un cours d'eau naturel important, soit d'un autre canal principal, rarement d'une source. La prise pouvait être simple ou complexe selon le débit du canal et/ou la difficulté rencontrée pour faire sortir l'eau du lit du ruisseau. Pour les canaux plus modestes, on confectionnait les prises en pierre et/ou en ardoise. Pour les canaux importants, on rencontrait des constructions plus conséquentes, soit des écluses en bois soit, plus récemment, des écluses en métal placées dans une fondation maçonnée ou bétonnée (voir Figure 3). Le mélèze (Larix decidua), plus résistant, fut le bois préféré pour la fabrication des écluses. La prise était généralement composée d'une petite murette en pierre ou d'un autre moyen pour dévier l'eau vers le canal. FigurFigure 3: Prise pour "Canal de l'Envers", Avrieux, 24/5/12 (cliché J. Villette) A son point de départ, le canal partait sur un faible pendage estimé à moins de 5% ; en général le trajet suivait une courbe de niveau pendant une certaine distance. Selon les objectifs de ses constructeurs, s'il n'avait pas une grande distance à parcourir, le canal se maintenait sur la courbe de niveau et alimentait ses canaux secondaires et/ou tertiaires sans changement de pendage par rapport à la ligne la plus directe de la pente. Pour un canal important traversant plusieurs zones altitudinales afin d'irriguer diverses zones de prés, l'eau descendait par des sections plus abruptes et il n'était pas rare dans ces cas de voir un canal suivant une ligne directe de la pente (ou à peu près) pour franchir ces endroits. Lorsque la pente s'adoucissait, le canal reprenait une courbe de niveau pour traverser la nouvelle zone d'irrigation, et ainsi de suite. 18 Le canal Tous les canaux en Vanoise étaient creusés directement dans la terre ou, par endroits, dans la roche. Les trajets choisis présentaient bien d'autres challenges. Par exemple, les concepteurs et constructeurs des canaux empierraient habituellement les sections rapides, surtout dans les secteurs de terres tendres, afin d'éviter l'érosion du parcours. Les pierres des ruisseaux, entre 10 et 20 cm de long et quelques centimètres de large, étaient le plus souvent enfoncées la tête en avant ou dans le sens de la longueur dans le fond du canal afin de créer une base solide. Là où un canal virait, et surtout aux endroits d'affaissement potentiel, des pierres plus conséquentes étaient placées sur la bordure inférieure pour éviter les ruptures. Pour les canaux creusés dans les falaises, même de faible pente, on plaçait des murs de soutènement en pierres sèches sur leur bord supérieur. Le Canal de Séez (voir l'Inventaire, Séez, p. 151) est bordé d'énormes blocs de pierres taillées et placées sur sa bordure inférieure, et des murs de soutien ont été construits et placés sur son bord supérieur pendant plusieurs centaines de mètres, là où il passe sur le flanc gauche escarpé du talweg du Torrent du Recluz. Pour traverser les endroits marécageux, des troncs d'arbre évidés étaient parfois placés directement dans le lit d'un canal. Pour pouvoir franchir un talus pierreux escarpé, une zone constamment en mouvement, un creux ou un ravin, ou le lit d'un ruisseau ou ruisselet, on mettait en place des aqueducs en bois pour garder le niveau du pendage afin d'éviter des ravinements. On rencontre également des constructions en trois planches sciées et clouées en forme de « U », et, en cas de besoin, placées sur des supports triangulaires ou quadrangulaires également en bois. En Tarentaise, on les appelait « les pòssans » (voir lexique p. 168) ; ils pouvaient être permanents ou portables selon la situation. Par exemple, avant l'hiver, on déposait les aqueducs se trouvant dans les endroits à risques. De longues sections d'aqueducs en bois sont encore visibles sur le Canal de Prélatoute et le Canal des Moulins sur la commune d'Aussois (voir Figure 4). Figure 4: Canal de Prélatoute, Aussois, 11/9/12 (cliché B. Meilleur) 19 Les bifurcations, les intersections Les canaux principaux se croisaient ou bifurquaient assez souvent, et ces « carrefours » ou changements de direction de l'eau se faisaient avec des écluses en bois ou en pierre. Pour les bifurcations à angle relativement doux, en employait des structures simples en ardoise ou même en motte de terre ; aux endroits où deux canaux se croisaient en angle droit-ou là où un canal partait vers le bas en « T », on employait une construction plus solide. La commune de SaintAndré est toujours équipée d'une très belle « pierre de partage » sur le Canal Béa Nua (N°1, voir Saint-André) qui effectue une bifurcation de 90° vers le bas, alors qu'une partie de l'eau peut continuer à couler dans le canal d'origine (voir Figure 5). La pierre fixe, par des manipulations d'autres pierres mobiles ou en employant des bouchons en bois, permet à l'eau de continuer sur son parcours ou d'être partiellement ou complètement redirigée vers le bas. Un exemple similaire peut être observé sur un Figu Figure 5 : "Pierre de partage", Béa Nua, St. André, 18/7/12 canal à Hauteville-Gondon (voir Figure 6) ; (cliché J. Villette) l'ouvrage se compose d'une plaque d'ardoise percée d'un gros trou rond en son centre. Nous n'avons pas vu ce deuxième type d'intersection en service, mais de toute évidence il permettait à une partie ou à la totalité de l'eau non-détournée de poursuivre son parcours alors qu'une partie pouvait être dirigée vers le bas en passant par l'ardoise à trou. Figure 6 : "Ardoise à trou", Hauteville-Gondon, 5/11/12 (cliché A.-M. Bimet) 20 « Déchargeurs » ou « dévriers » La majorité des canaux d'arrosage principaux étaient équipés de « canaux de rupture ou canaux de sécurité », d'après les termes employés sur un plan dressé pour le « Bied de Bovet » en 1875 dans la commune d'Aime (ADS 1Fi219). Les experts locaux les appellent les « déchargeurs » ou « dévriers » (termes francisés des noms en dialecte) selon les localités. Ces canaux permettaient le déchargement de l'eau d'un canal en cas de besoin, par exemple, lors d'une rupture ou une fuite dans le lit du canal. Afin d'éviter les dégâts potentiels dans les zones agricoles ou d'habitation, on déviait ainsi l'eau du canal afin de faire la réparation. Les canaux d'arrosage les plus importants et surtout les plus longs étaient équipés de plusieurs déchargeurs à intervalles réguliers. Courts ou longs, la plupart des déchargeurs renvoyaient l'eau dans leur ruisseau d'origine. En cas de besoin, les ruisseaux, ruisselets, ou ravins taris en été, et même parfois d'autres canaux, faisaient office de déchargeurs. En l'absence d'une « sortie de secours » plus commode, certains déchargeurs déversaient de l'eau dans les forêts à proximité, plus à même d'absorber momentanément l'eau en surplus. Les déchargeurs et les autres cours d'eau croisés par un canal agissaient aussi de toute évidence comme des « soupapes », permettant aux utilisateurs de régler le volume de l'eau selon les conditions du débit en vigueur. Le placement des déchargeurs résultait de calculs stratégiques. Les objectifs étaient non seulement de protéger les zones économiques et les habitations des inondations, d'éviter de longues marches vers la prise pour fermer le canal, mais aussi de compartimenter le réseau, permettant toujours une irrigation des prés en amont de la rupture, alors que les travaux de réparation s'effectuaient sur un segment endommagé en aval. Les canaux secondaires et tertiaires Les canaux secondaires transportaient l'eau venant d'un canal d'arrosage principal jusqu'aux abords de la zone arrosable, qui correspondait partiellement ou entièrement à ce que l'on appelait localement un « mas » ou lieu-dit. Par la suite, l'eau était partagée à tour de rôle entre plusieurs canaux tertiaires ou rigoles selon « les rôles de répartition des eaux » ou, dans certaines communes en Haute Maurienne, semble-t-il, selon des accords oraux entre les arrosants impliqués (voir Rôles, ci-après). Les réseaux d'irrigation n'étaient pas tous caractérisés par la présence de canaux secondaires. Certains canaux principaux plus modestes-plus courts, de faible débit-alimentaient les rigoles directement. Idéalement, une rigole individuelle coulait le long du sommet d'un groupement de parcelles irrigables en pente. Une fois « mise en eau », la rigole suivait un tracé d'un ou deux pour cent, permettant ainsi à l'eau de servir à tour de rôle les prés en aval de son parcours selon les accords en vigueur (voir Fonctionnement, ci-après). Sur un grand versant de prairies de fauche à peu près uniforme et à faible pente, on échelonnait idéalement les rigoles perpendiculairement à la pente, à une distance calculée pour assurer la progression et l'infiltration de l'eau jusqu'au bas de chaque parcelle irriguée. D'après les experts locaux, leurs aïeux calculaient l'emplacement de la rigole inférieure pour éviter la récupération de l'eau de la rigole supérieure, l'eau étant ainsi perdue pour le propriétaire de la parcelle du haut. Si l'eau dépassait les limites de la parcelle irriguée, elle était récupérée par la rigole inférieure, évitant ainsi des dégâts éventuels sur une propriété voisine en aval (voir Fonctionnement, ci-après). 21 Détourner l'eau pour l'arrosage L'objectif d'un arrosant était de faire venir de l'eau d'un endroit parfois distant où elle était abondante, jusqu'à un endroit où elle était attendue. Une fois un canal principal « en eau », elle descendait jusqu'aux points où elle pouvait être redirigée par différents moyens dans les canaux secondaires ou tertiaires. La prise elle-même, installée dans un cours d'eau parfois en association avec une murette, représentait la première bifurcation (voir ci-dessus). Les bifurcations secondaires importantes comportaient des écluses permanentes, mais la plupart des déviations de l'eau pour les canaux secondaires ou tertiaires se faisaient à l'aide d'une pièce mobile en fer ou en ardoise et, pour les petites déviations, d'une pierre ou d'une motte de terre disposées à l'endroit d'un embranchement. En Tarentaise et dans les communes en aval de la vallée de la Haute Maurienne, on appelait la grosse ardoise ou l'instrument métallique « tourne » ; dans les communes en amont de la Haute Maurienne on l'appelait « farwir ». Sur les deux côtés du massif, ces pièces étaient soit en forme de demi-lune, soit rectangulaire avec les coins du bas taillés en biais. Munies de manches en métal ou en bois de tailles diverses, elles s'adaptaient aux dimensions des canaux et rigoles (voir Figures 7 et 8). Figure 7 : "Tourne" métallique, Canal de la Vigne, Hauteville-Gondon, 19/7/12 (cliché A.-M. Bimet) 22 Figure 8 : 'Farwir", Termignon, 14/6/12 (cliché B. Meilleur) Dans plusieurs communes de la Moyenne Tarentaise, et spécialement à Landry et certaines communes du « Versant du Soleil », on employait une planche en bois, longue, mince et peu large appelée « pô » ou parfois « abérolette ». Plantée dans la terre avec deux gros clous en fer, elle dirigeait les toutes petites rigoles sur les prairies de fauche ou les vergers. 23 La gestion et l'entretien des canaux d'arrosage Fermés pour la plupart en hiver, les canaux d'arrosage principaux étaient ouverts au printemps par une procédure appelé localement « mise en eau ». Pour la corvée de nettoyage, on envoyait une ou deux personnes à la prise, le plus souvent au mois de mai, pour ouvrir l'écluse, alors que d'autres surveillaient le parcours du canal afin de dégager les obstructions et de constater les problèmes éventuels, etc. L'outil de nettoyage couramment utilisé s'appelait « sape » : c'était une pioche à deux lames disposée en angle droit ; l'une affutée servait à couper les bords des canaux, l'autre, plus large et légèrement arrondie, à enlever la vase et les débris accumulés au fond du canal (voir Figure 9). Lorsque l'eau circulait correctement, l'irrigation des prairies de fauche pouvait commencer à peu près une semaine plus tard. L'attribution de l'eau se faisait selon des « rôles de répartition de l'eau » ou les « règlements pour l'usage des eaux », documents trouvés dans les archives des 18e et 19e siècles (voir Figure 10). En Tarentaise, ces documents spécifient pour chaque réseau ou canal qui avait droit à l'eau, sur quelles parcelles elle circulait, quand elle pouvait être prise (quel jour, quelle semaine) et pendant combien de temps chacun avait le droit de la retenir. Certains spécifiaient aussi le « coût » que chaque arrosant devait payer en nature à l'entretien du réseau, en heures ou en journées de travail d'après le système des corvées en vigueur. Ce calcul se trouvait parfois consigné dans un document séparé. Les rôles ou règlements en Tarentaise étaient rédigés principalement par les groupements d'arrosants, et souvent indépendamment des administrations communales, ceci surtout dans les grandes communes dotées de plusieurs réseaux d'arrosage comme BourgFigurFigure 9 : "sape' (avec R. Peracio), Landry, 11/6/12 Saint-Maurice. Ce sont les propriétaires des prairies de (cliché B. Meilleur) fauche des différents secteurs irrigués qui assumaient ainsi la responsabilité de la gestion et de l'entretien de leurs propres canaux. On appelait ces groupes d'arrosants les « consortages » dans les documents anciens, puis « syndicats d'arrosage » à partir de 1860, date de l'annexion de la Savoie par la France. Nous prendrons l'exemple de la commune de Bourg-Saint-Maurice, pourvue d'au moins six réseaux d'irrigation (voir l'Inventaire ci-après), chacun composé de nombreux propriétaires. Afin de défendre leurs propres intérêts, les propriétaires des parcelles dans chaque réseau ont depuis longtemps choisi de se réserver pour eux-mêmes l'utilisation de l'eau de leurs réseaux et sa gérance. Ce sont eux qui possédaient le savoir local et l'intérêt économique direct et ils protégeaient jalousement ce droit. Cette disposition se réitère souvent dans les documents anciens ; elle fut surtout mentionnée dans les cas où une administration communale essayait d'assumer l'autorité décisionnelle pour un réseau ou pour un canal. 24 La répartition de l'eau et d'autres décisions : les rôles Plusieurs documents du 18e siècle nous donnent une bonne idée du fonctionnement des « consortages » ou groupes d'arrosants en Tarentaise. Nous n'avons pas trouvé de semblables documents pour la Haute Maurienne. Les consortages se réunissaient en assemblées générales plusieurs fois dans l'année afin de prendre les décisions nécessaires pour le bon fonctionnement du réseau. Une « commission » de cinq à sept personnes-parfois plus, parfois moins-était élue et fonctionnait selon un roulement régulier où un ou deux membres de la commission était remplacés chaque année après un mandat de cinq ou six ans. Chaque année une nouvelle élection avait lieu pour remplacer la ou les personnes sortantes. Si le consortage se composait d'arrosants de plusieurs villages, les sortants étaient remplacés par les personnes du même village. Un président, un vice-président, un secrétaire et d'autres officiers étaient élus. Ces personnes s'occupaient de la gestion quotidienne du réseau, de la comptabilité, des petites réparations, etc. Tous les six ans environ, la commission avait en charge le renouvellement du rôle de répartition des eaux pour le réseau dont elle avait la charge. Au 18e siècle, la commission donnait ce travail à un géomètre régional rémunéré, habitué à ce genre d'étude, mais avec l'accord du consortage, puisque tous les frais étaient partagés par ses membres. Ensuite, le géomètre sollicitait de tous les arrosants une liste de leurs parcelles arrosables, précisant lieux dits, superficies et « qualités », presque toujours les prés, mais quelquefois les vergers, les jardins, etc. Chaque parcelle était identifiée par son numéro porté sur le Cadastre Sarde de 1728, ce qui permettait au géomètre de vérifier les données fournies. Ce travail se déroulait rarement sans controverses, et le document produit (« le Rôle » voir Figure 10) faisait régulièrement apparaître contestations et contre-contestations avant d'être FigurFigure 10 : "Rôle de répartition d'eau", La Thuile, Bourg-Saint-Maurice, finalement validé. Le rôle ainsi adopté 1859 (ADS, cliché B. Meilleur) spécifiait les droits à l'eau du réseau ou du canal, la semaine et le jour où chaque parcelle pouvait être arrosée, où cette parcelle se situait, ainsi que la durée de l'irrigation pour chaque parcelle. Les documents précisant les devoirs de chaque arrosant, en journées ou heures de travail, étaient également mis en place par les commissions. Les corvées s'effectuaient plusieurs fois dans l'année. Ces calculs se basaient sur les superficies des prés, surtout à partir de 1860. Avant les affranchissements des droits seigneuriaux, on sollicitait l'accord du seigneur, possesseur de la ressource naturelle ; sous le régime sarde, les rôles étaient soumis à l'Intendant de la Tarentaise pour approbation. 25 Les assemblées générales avaient aussi la responsabilité d'élire ou de nommer les syndics ou « gardes canaux » chargés de surveiller l'application du rôle et l'état général du réseau ou du canal. Selon l'importance (longueur, ramifications) de ceux-ci, plusieurs personnes pouvaient être retenues. Pour les réseaux ou les canaux plus modestes-un ou plusieurs canaux seulement-les règlements semblent avoir été moins formels, leur rédaction étant le plus souvent assignée aux administrations communales. Au 19e siècle, suite à l'annexion de la Savoie par la France, suivie par un engagement graduel des agents de l'état dans les affaires hydrauliques des communes, les consortages se transformèrent en « syndicats d'arrosage ». Deux catégories de syndicats, « libre » et « autorisé », étaient reconnues par le gouvernement. Tous les groupes coutumiers d'arrosants ne se convertirent pas immédiatement au nouveau statut-sans doute par crainte de perdre de l'autonomie-mais les subsides progressivement offerts par l'état pour aider aux réparations et/ou aux améliorations des canaux finirent par avoir leurs effets. Conflits Les contestations émises par certains arrosants lors de la réfection des rôles ont été évoquées ci-dessus, mais d'autres conflits se déclaraient dans d'autres activités liés à l'irrigation. Nous reviendrons d'abord sur le travail des géomètres dans le renouvellement des rôles. Même après plusieurs épisodes de différends et de tentatives d'arrangements, il restait souvent des mécontents et des désaccords persistants entre groupes. Si ces querelles ne trouvaient pas d'issue, le consortage ou la commission refusaient de rémunérer le géomètre, relançant ainsi un nouvel épisode de récriminations, etc. Ainsi, un paiement a été refusé au géomètre Mestrallet pendant plusieurs années dans la commune de Landry en 1863 (ADS, 83S19, Landry). Plus sérieux, entraînant même parfois la violence, le vol d'eau était relativement courant. Les archives livrent de nombreux témoignages d'activités frauduleuses où un arrosant-y compris appartenant au même consortage ou syndicat-retenait l'eau après son horaire terminé, ou la prenait quand ce n'était pas son tour. D'autres documents décrivent des dégradations sur un canal ou sur un aqueduc perpétrées sur une commune voisine en raison d'une dispute ou une querelle intercommunale sans forcément avoir un rapport avec l'eau. 26 Origines La question du moment de la création des réseaux d'irrigation en Vanoise et dans les Alpes du Nord en général a retenu l'attention de nombreux auteurs. Pour certains d'entre eux, les canaux d'arrosage ont été mis en place au Moyen Age (Brissaud 2004 ; Chavoutier 1977 : 15 ; Leguay 1985), leur raisonnement se basant sur l'analyse des demandes (des 11e-16e siècles) des paroisses auprès des seigneurs locaux pour prendre l'eau (en albergement), afin d'irriguer leurs propriétés. D'autres auteurs, argumentant une origine plus ancienne, font remonter la mise en place des canaux à l'époque romaine (Leveau 2006 ; Ronc 1992 ; Roulier 1995). D'autres encore attribuent la création des canaux d'arrosage aux premiers peuplements (Reggio 1965 : 5). Nous avons demandé à notre collaborateur Fabrice Mouthon, historien médiéviste de l'Université de Savoie, de fournir un sommaire de l'état actuel des découvertes sur l'irrigation en Vanoise pendant la période moyenâgeuse. L'irrigation en Maurienne et Tarentaise (XIIIe – XVIe siècles) Fabrice Mouthon Les sources L'irrigation en Maurienne et Tarentaise est documentée depuis la fin du XIIIe siècle. La première mention probable concerne l'investiture par le châtelain du comte de Savoie pour la Tarentaise d'une « conduite d'eau » (conductum aque), sans que l'on puisse préciser sa destination. Elle remonte à 1299. Les premières références explicites à l'arrosage des prés datent de 1336 et de 1340 et concernent les paroisses tarines de Saint-Marcel et de Hauteville. Comme pour les autres régions alpines, ces premières mentions écrites semblent décrire un système d'irrigation en place depuis fort longtemps sans que l'on puisse fournir plus de précision. Les sources écrites des XIIIe-XVIe siècles qui évoquent l'irrigation sont de plusieurs types : 1. Les sources seigneuriales sont les plus anciennes (à partir de la fin du XIIIe siècle) : concessions (albergements) de cours d'eau et de canaux à des communautés ou des consortages, paiement de droits d'arrosage par ces mêmes communautés ou consortages, aveux ou reconnaissance par les membres de ces communautés ou consortages des cours d'eau et canaux qu'il tiennent de leur seigneur, terriers mentionnant les canaux en limites de parcelles. 2. Les sources judiciaires concernant le règlement de conflit touchant au partage de l'eau à des fins d'arrosage apparaissent à la fin du XIVe siècle. 3. Les sources communautaires n'apparaissent qu'à la fin du XVe siècle : constitution de consortages pour la construction ou la rénovation d'un canal, ratement (partage des tours d'arrosage entre les ayants droits), règlement sur l'entretien et la gestion des canaux. Le recensement de ces sources n'est pas exhaustif. Aucune pièce n'a à ce jour été intégralement publiée. Certaines sont citées et sommairement analysées dans cinq publications déjà anciennes (Hudry 1985 ; Hudry 1991 ; Million et Median-Gros 1866 ; Onde 1940 ; Truchet 1912). La plus grande partie des documents est encore inédite et se trouve dispersée dans plusieurs dépôts d'archives. 27 Les archives départementales de la Savoie (ADS73). Citons notamment : 1. Les comptes de châtellenies de Maurienne et de Briançon et Salins (Tarentaise) pour les XIIIe, XIVe, XVe et début du XVIe siècle. Pour le moment seule une partie de ce corpus a été dépouillée. On accordera une mention spéciale au compte particulier de Maurienne pour 1429-1430 (côté SA 16084 aux DA73). Dépouillé et analysé par une étudiante de l'université de Savoie, Mlle Anouchka Cousin-Woyseck en 2005-2006, il contient huit références aux canaux et à l'arrosage des prés. 2. La série G Maurienne des AD73 a révélé deux documents intéressants : un règlement de police rurale de la communauté de Termignon (1376) et un accord entre les communautés de Sollières et de Termignon pour le partage des eaux du torrent de Bonnenuit (1402) avec rappel d'actes plus anciens (1394 et 1401). 3. La série des archives communales déposées aux ADS 73. Après consultation des inventaires, celles de Termignon et de Valezan se sont révélées les plus riches. Les archives communales encore conservées dans les mairies. Leur inventaire est en cours. Celles de Bourg-Saint-Maurice, pour les anciennes communes de BourgSaint-Maurice et d'Hauteville-Gondron ont donné des résultats prometteurs. Les premiers résultats Le corpus de sources a permis d'établir la présence de canaux servant à l'arrosage des prés dans treize paroisses de Tarentaise et dix paroisses de Maurienne. En réalité, il est probable que l'absence de mentions concernant des communes (ou anciennes paroisses) où l'irrigation était pratiquée aux époques plus récentes n'est due qu'à l'absence de sources. En Maurienne : Beaune, Lanslebourg-Mont-Cenis, Le Bourget, Le Thyl, Modane, Pralognan ( ?), Orelle, Sollières, Termignon, Montdenis. En Tarentaise : Aime (Villette), Bourg-Saint-Maurice (Le Bourg et Vulmix), Bellentre (Valézan), Bozel, Hautecour, Hauteville-Gondron, Les Chapelles, Montgirod, Mâcot (1299, 1462), Montvalezan, Planay, Sainte-Foy, Saint-Jean-de-Belleville, Saint-Marcel (Montrichard). La chronologie et le type de sources est tout à fait conforme à ce qui a été mis en évidence dans le canton du Valais à propos des bisses : premières mentions écrites à la fin du XIIIe ou au début du XIVe siècle décrivant un système bien en place, campagne de construction de nouveaux canaux s'étendant de la fin du XIVe au tout début du XVIe siècle en parallèle avec le développement de conflits opposant plusieurs communautés à propos du partage des eaux. Le vocabulaire utilisé est assez diversifié et semble gagner en précision à la fin du XVe et au XVIe siècle : En latin (XIIIe-XVe s.) : Aqueductum, conductum aque, bialagium, bialerium pour les canaux. Aque ducere (conduire l'eau), rigadere (irriguer), aquare (inonder) pour le processus d'irrigation. En Français écrit (XVIe siècle) : eyriels, heyriels, heyrieuls, cheneaulx, bieds, conduitte d'eau (sic), bial 28 commun, bialliere, esgaige pour les canaux. Eyguer, ayguer, esguer pour le processus d'irrigation. Les pratiques de gestion des canaux connues grâces aux textes de la fin du XVe et du XVe siècle, spécialement pour Termignon et Hauteville-Gondron, semblent tout à fait similaires à ce que l'on connaît pour les XIXe et XXe siècles. Certains accords de partage des eaux du Moyen Âge, tel celui de 1402 entre Sollières et Termignon sont encore en vigueur cinq siècles plus tard. Origines préhistoriques ? Les conclusions de Fabrice Mouthon sur l'ancienneté des canaux d'arrosage qui, d'après lui, « semblent décrire un système en place depuis fort longtemps », donc bien avant le Moyen Age, combinées à notre lecture de documents d'archives sur l'économie agro-pastorale coutumière (Meilleur 1985, 2008), nous ont encouragé d'entreprendre une lecture des données archéologiques récentes concernant l'implantation humaine dans les Alpes du Nord. Trois résultats récents de fouilles-une en Valais (Suisse) et deux en Tarentaise-confortent nos conclusions. La première fouille (site de « Pfyngut » en Valais à 580m d'altitude sur une plaine de la vallée de l'Ill, affluent du Rhône ; Paccolat et al. 2011) a révélé une douzaine de tracés de canaux d'irrigation (appelés « bisses » en Valais). Les deux plus anciens niveaux explorés datent de l'époque romaine (1e – 4e siècles après J.C.). La deuxième fouille concerne un site en Tarentaise au lieu-dit « les Chaudannes » à 750m d'altitude sur la commune d'Aime (Chemin 2010). Ici, les vestiges d'une occupation humaine et d'activités agricoles ont été répertoriés, et parmi eux deux canaux d'irrigation « probablement distincts » (p. 37). Les auteurs de ce travail font remonter cette découverte (p. 31) à l'époque « protohistorique », potentiellement au Bronze Final (8e siècle avant J.C.). La troisième découverte de canaux anciens, en 2004, se trouve à proximité du lieu-dit « Créternas » dans le vallon du Versoyen sur la commune de Bourg-Saint-Maurice à 1590m d'altitude (Rey 2011). Une présence humaine y a été constatée et datée du second âge du fer. D'après les résultats de la fouille, ce canal, appelé « un canal d'amenée » par l'auteur, avait peut-être été construit pour alimenter un bassinabreuvoir pour le bétail en haute montagne, ou pour d'autre raisons. Il est frappant de constater que ce canal « antique » se situait à quelques dizaines de mètres d'un canal d'alpage et d'arrosage toujours en opération (p. 362 ; probablement le Canal des Veis d'en Hautvoir l'Inventaire ci-après, Bourg-SaintMaurice, secteur du Versoyen). Néanmoins, d'après l'auteur, « le lien avec la pratique de l'irrigation reste une hypothèse » (p. 370). Ces trois exemples, ainsi que les conclusions préliminaires de Fabrice Mouthon à partir d'une lecture des plus anciennes mentions écrites de l'irrigation en Vanoise, sont suffisamment convaincants pour que nous proposions l'hypothèse suivante : le captage et la canalisation de l'eau étaient probablement parmi les plus anciennes activités économiques des premiers habitants permanents du massif. Si notre supposition s'avérait correcte suite à de nouveaux résultats archéologiques ou paléoenvironnementaux, d'autres questions émergeront, la plus importante d'entre elles étant : pourquoi ces constructions ? 29 Pourquoi les canaux d'arrosage en Vanoise ? En se rendant compte de l'effort engagé, « pourquoi les canaux d'arrosage en Vanoise ? » devient une question fondamentale dans l'histoire du phénomène dans le massif. Si nous ne serons guère en mesure de répondre par ce travail, notre enquête nous permet d'entamer une réflexion préliminaire sur la question. Partout dans la zone intra-alpine où les réseaux d'irrigation ont été installés, y compris dans la Vanoise, la réponse donnée par des chercheurs des différentes disciplines s'appuient majoritairement sur la pénurie des précipitations (Blanchard 1943 : 485 ; Guichonnet 1980 : 39 ; Hudry 1985 : 114 ; Jail 1977 : 125 ; Niederer 1980 : 32 ; Onde 1940). En Vanoise, cette hypothèse a pris forme dans les études de géographie physique et humaine des chercheurs de l'Institut de Géographie Alpine à Grenoble, notamment par Raoul Blanchard, Henri Onde, Marcel Jail, etc. ; elle continue d'être évoquée jusqu'à nos jours (Tracq 2000). Afin de participer à ce débat, Julia Villette a passé en revue les connaissances actuelles sur l'environnement physique en Vanoise, présenté sommairement ci-dessous. Données physiques de la Vanoise Julia Villette Par l'étude des données physiques nous tenterons ici de montrer l'influence du milieu écologique dans le développement de l'irrigation en Vanoise. Nous présenterons donc les facteurs influents sur l'hydrologie en se basant sur des études climatiques, géologiques et hydrauliques de cette région. Il est cependant important de noter que si les facteurs physiques peuvent expliquer l'implantation de canaux d'irrigation dans cette partie des Alpes, il ne faut pas pour autant négliger l'importance des aspects sociaux et économiques dans leur développement ainsi que dans leur installation. C'est l'ensemble de ces critères, dans un contexte social particulier, qui a participé à leur émergence. Le relief en tant qu'obstacle La Vanoise se trouve protégée par la grande barrière des massifs centraux formée du Mont-Blanc et du Beaufortin ainsi que du massif de Belledonne et des Sept-Laux. Cette topographie induit que la zoneintra alpine est protégée des systèmes nuageux atlantiques qui s'usent sur les Préalpes et les massifs montagneux environnants. Ainsi, même si la vallée de l'Isère est une voie de passage pour les vents de pluies atlantiques (Balseinte 1955), ils arrivent déjà bien affaiblis. En ce qui concerne la Maurienne, elle subit les influences méditerranéennes se caractérisant par la sècheresse des Alpes du Sud accentuée par la Lombarde et ses évolutions en effet de Foehn. La Lombarde est un vent de sud-est (tiède et sec) à nord-est (froid et sec), soufflant le long de la frontière italienne et subissant l'effet de Foehn lors de son passage du versant occidental des Alpes. L'effet de Foehn est défini comme un courant aérien qui au contact d'un relief, subit une ascendance orographique, à ce moment l'air se refroidit et se condense entrainant des précipitations, et une fois le sommet franchi, l'air subit cette fois une compression le réchauffant. Le vent soufflant est alors pauvre en humidité qui s'est déversée sur le versant amont et réchauffé (http://comprendre.meteofrance.com). Ces systèmes nuageux et ces vents vont avoir leur importance dans les paramètres climatiques qui seront décrits plus bas. 30 Le relief en tant que grandeur L'altitude moyenne de ce massif dans l'enceinte du parc national de la Vanoise est de 2500m et le point culminant à 3855m6. L'étage alpin (2100-2400m) représente 20% du territoire du parc et la tranche nivale (supérieure à 2400m) 49% (Tournier et al. 2000). Le relief de ce massif présente un paysage imposant, tant en altitude qu'en dénivelé induisant de fortes pentes qui se répercutent sur les cours d'eau par un débit important. Onde (1938) associe la Maurienne à un obstacle et la Tarentaise à « un prolongement des bas pays d'aval » (Onde 1938 : 85). On peut donc dire que la Maurienne est généralement plus haute et plus massive et également plus ample et plus profonde que la Tarentaise, favorisant alors l'installation de glaciers dans les hauts massifs (supérieur à 2500mVivian 1964). Le berceau tarin, au contraire, s'affirme par de fortes dénivellations s'exprimant par une région basse et un bloc central très élevé (Onde 1938). Les glaciers ne représentent alors qu'1% de la surface totale du parc, de même que les forêts et les lacs réunis, cependant ils conservent une importance capitale dans la compréhension hydraulique de cet ensemble (Tournier et al. 2000). La température L'altitude, induite par le relief, provoque une régression régulière de la pression atmosphérique d'où découle une baisse linéaire de la température à partir de la mer jusqu'aux cimes (Delorme et al. 2009). Tournier et al. (2000) montrent une diminution des températures annuelles de près de 15°C entre 600m et 3300m. Le paramètre thermique va donc influer sur la forme de la pluviométrie, qui va parvenir sous forme solide en période hivernale. Blanchard (1920) expose que ce critère entraine une pénurie d'eau en hiver (rétention nivale), période où la pluviométrie est la plus importante en Vanoise. La saison chaude correspond à la fonte des neiges et à la fusion des glaciers qui provoquent des cours d'eau assez importants avec un débit régulier. On observe alors un débit maximum des rivières en été, dû à la fonte tardive (Blanchard 1920). Les études de géographie alpine du début des années 1900 dressent un panorama assez complet du climat de Vanoise où la topographie influence le plus de paramètres dont dépend la pluviosité. En effet, la quantité de pluie augmente jusqu'à un seuil altitudinal nommé optimum pluviométrique, au-delà de ce seuil, la quantité diminue. Cet optimum dépend des systèmes nuageux et de la topographie, c'est-àdire qu'il augmente avec l'usure de ces systèmes, d'où sa très haute altitude en zone intra-alpine de 2700m (Bénévent 1926). De ce fait, même si la Maurienne et la Tarentaise subissent les mêmes passages de systèmes nuageux, il est avéré qu'il y a plus de précipitations en Tarentaise (supérieur à 1000mm de précipitations moyennes annuelles) qu'en Maurienne (autour de 800mm de précipitations moyennes annuelles7 (Balseinte 1955 ; Tournier et al. 2000). Bénévent (1926) associe donc cette différence de pluviométrie à des surfaces plus importantes au niveau de l'optimum pluviométrique, entre 2500 et 3000m, qui représentent 55% en Haute Isère, contre 34.7% en Maurienne. En notant également que ce qui précède induit que l'orientation des versants, selon qu'ils soient plus ou moins exposés aux systèmes nuageux, joue un rôle sur la quantité de pluie reçue localement. Tournier et al. (2000) nous apportent des précisions quant à la répartition saisonnière des précipitations en Vanoise. Ils observent un maximum pluviométrique hivernal pour presque toutes les stations et un minimum au printemps et en été. Ceci signifie que le printemps et l'été sont les périodes les plus sèches 31 mais qu'elles profitent, par le biais des cours d'eaux, des fortes précipitations hivernales accumulées sous forme de neige qui s'écoulent au printemps. Ces données ont permis de nuancer la loi climatique de l'augmentation de la pluviométrie avec l'altitude, en montrant une certaine irrégularité qui s'explique par l'orientation des vallées, ceci permet de démontrer que dans cette zone montagneuse les spécificités locales ont une grande importance. L'exposition On dénombre dans l'espace Vanoise 55 communes avec 34,5% d'adrets (versants exposés au Sud utilisés majoritairement en tant que prés, cultures ou même bocages) et 39% d'ubacs, (versants exposés au Nord représentant un milieu beaucoup plus fermé, généralement forestierTournier et al. 2000). L'exposition joue un rôle non négligeable pour quantifier la quantité d'eau disponible sur les parcelles qui nous intéressent. En effet, la majorité des parcelles irriguées sont sur les versants Sud et à des altitudes où la température est assez élevée pour une zone de montagne (moyenne de 14.7°C en juillet à 1500m). Trévisan et al. (1994) font remarquer sur une étude du Val d'Aoste que l'évapotranspiration est un critère non négligeable entrainant des déficits hydriques dans les prairies alpestres. Ils en font, avec la faible quantité de précipitations, une des raisons principales de l'instauration de systèmes d'irrigation, ce critère doit être pris en considération dans l'étude actuelle comme accentuant la sècheresse relative en Vanoise en période estivale. Les facteurs physiques, jouant un rôle principal sur l'eau disponible en Vanoise, ont été exposés précédemment et nous expliquent la faible quantité d'eau disponible sur le milieu en période estivale. Cependant, si l'on veut connaitre la quantité d'eau réellement présente dans le ruissellement, il nous reste à étudier la géologie et à détailler l'influence des précipitations neigeuses sur les débits des cours d'eau. La géologie L'Ouest de la Vanoise, constitué des massifs centraux, est composé d'Ouest en Est de granit et de micaschistes puis d'une zone8 houillère (zone briançonnaise externe). L'Est est représenté par la zone des schistes lustrés où l'on retrouve également des serpentines (roches provenant de l'ancien fond océanique Liguro-Piémontais) puis par la zone interne du Grand Paradis composé d'un socle cristallin de gneiss et de feldspath. Ces deux ensembles représentent les roches dures et imperméables du massif, favorisant alors l'écoulement des eaux. Cependant, la zone centrale est composée de roches tendres et perméables : les gypses du Trias, présents en Haute Maurienne comme en Haute Tarentaise. Ce gypse poreux induit de nombreuses infiltrations diminuant significativement les débits, on trouve même vers Super-Tignes la formation de véritables entonnoirs où l'eau vient s'engouffrer (Vivian 1964). Notons tout de même qu'en période hivernale, le gel imperméabilise ces roches, les infiltrations ne sont donc effectives qu'en saison chaude. Cette analyse simplifiée de la géologie nous permet de conclure qu'en partie centrale du massif de la Vanoise, une certaine quantité d'eau s'infiltre, l'eau disponible (précipitations effectives et fonte des neiges) est donc diminuée en surface même si elle est présente dans les sols et sous-sols. En partie externe la majorité de l'eau présente sur le milieu se retrouve dans les cours d'eau, les réserves souterraines sont donc moindres. Ceci nous permet d'avancer l'hypothèse que les terrains en partie 32 centrale sont moins déficitaires naturellement en eau même si la quantité d'eau de ruissellement est diminuée et inversement pour la partie externe. L'eau à apporter au milieu en partie externe devra donc être plus importante qu'en partie centrale pour obtenir une quantité hydrique du sol similaire. Hydrologie naturelle L'alimentation des cours d'eau alpin est donc soumise aux précipitations annuelles mais également à leur régime nival, c'est ce que Blanchard (1920) définit comme le « régime alpin de haute montagne ». Ce régime est caractérisé par l'influence exclusive du relief qui induit des précipitations sous forme solide en hiver constituant alors des réserves d'eau qui ne seront disponibles qu'au printemps et en été. Les torrents qui nous intéressent sont donc soumis aux crues de printemps dès le mois d'avril, résultat de la fonte du manteau neigeux des régions basses et moyennes qui subissent le réchauffement printanier. Ces débits importants vont être ensuite alimentés par la fonte des neiges d'altitude vers maijuin puis par la fusion des glaciers en période estivale. Ce régime est associé au sous-régime glaciaire en Haute Maurienne imposant un étiage hivernal de six mois pleins et un maximum des rivières en été correspondant à la fusion des glaciers. La Maurienne, malgré des précipitations plus faibles qu'en Tarentaise, va présenter une abondance hydrique dans ses cours d'eau analogue à ceux de la Tarentaise s'expliquant par une quantité plus importante de glaciers (Vivian 1964). Ceci est vérifié par des débits plus importants en Maurienne en période estivale alors que la Tarentaise présente des débits constants sur toute la saison chaude, étant alimentée au printemps par la fonte des neiges et en été par les précipitations. Les cours d'eau de Tarentaise obtiendront leur maximum en juin et resteront généralement réguliers, alors que ceux de la Maurienne seront plus tardifs en juillet et août, voir jusqu'en septembre avec des extrêmes de débits très prononcés9. Les premiers froids correspondent cependant pour les deux vallées à l'étiage des cours d'eau, typicité des régions de haute montagne (Vivian 1964). On soutient donc l'hypothèse que l'irrigation a été encouragée dans cette région, en partie, à cause des faibles précipitations et de la grande quantité d'eau disponible dans les cours d'eau. Cette quantité d'eau importante, associée à de grosses pentes, fournit des débits importants facilement exploitables. Ces paramètres physiques ont dû influencer l'installation de systèmes d'irrigation en Vanoise, mais il est important de mentionner que l'irrigation se pratiquait dans toute l'Europe et pas seulement en milieu de montagne et plus particulièrement en zone intra-alpine, tel que le rappelle Cabouret (1999). Il est donc important de nuancer ces propos et de ne pas voir dans cette démonstration un déterminisme lié au milieu écologique car c'est un ensemble de situations et de contextes sociaux qui a permis l'émergence et le développement à grande échelle de ces systèmes ainsi que leur subsistance dans le temps. Manques de précipitations ou autres raisons ? Comme indiqué par Julia Villette, certaines parties de la Vanoise sont très sèches, recevant moins de 700 mm de précipitations annuelles. Elle montre également que la zone centrale française des Alpes du Nord, dominée par la Tarentaise et la Maurienne, possède une roche mère plus perméable que d'autres régions alpines, entraînant potentiellement un manque d'eau en surface pendant la période estivale. Plusieurs auteurs ont affirmé que la mise en place et le développement de l'irrigation s'expliquaient par cette sècheresse. Ce discours déterministe est toutefois remis en cause, au moins partiellement, lorsque 33 nous observons que les plus importants réseaux en Vanoise-par leur nombre et par leur densité-ne se situent pas dans les secteurs les plus secs du massif. Il fallait donc découvrir où se trouvaient les plus denses concentrations de canaux en Vanoise (voir l'Inventaire ci-après, Introduction à la Tarentaise ; Introduction à la Haute Maurienne). Parmi les communes du parc en Tarentaise, c'est le secteur central du territoire qui abritait la concentration des canaux d'arrosage : Hauteville-Gondon avec une quarantaine, Bourg-Saint-Maurice avec une trentaine, Montvalezan avec une vingtaine. Si l'on recherchait une correspondance entre de faibles précipitations et la densité des réseaux d'irrigation, aucune station météorologique du massif ne permettrait d'établir cette relation. La situation est plus complexe en Haute Maurienne, en raison de la difficulté à faire la distinction entre canaux d'arrosage et canaux d'alpage non-impliqués dans l'irrigation. On peut toutefois admettre que les communes les plus densément irriguées se situaient majoritairement plus haut dans la vallée que les endroits les plus secs, par exemple Bessans et Bramans avec 16 canaux chacune environ, suivies par Sollières-Sardières avec 12 et Termignon avec 10. Ce qui nécessite des explications complémentaires. Pierre Dubuis (1995) a lancé une réflexion sur ce sujet pour la zone intra-alpine des Alpes du Nord. En affirmant que la création et le développement des bisses en Valais résultaient d'une conjonction entre phénomènes physiques, démographiques et économiques, plutôt que le résultat d'un manque de précipitations, il abandonnait la « doctrine » du seul déterminisme climatique. Concluant que la disponibilité de l'eau en Valais n'avait vraisemblablement pas changé de façon significative depuis deux millénaires, il suggérait que des critères socio-économiques et démographiques jouaient probablement un rôle aussi déterminant dans la mise en place et le développement des canaux. Il évoquait, entre autres, changements économiques, des mutations de cheptels-plus de vaches laitières, moins d'ovins-entraînant une exigence accrue en herbages secs pour l'hivernage. Pour les éléments démographiques, entre autres, il évoquait un accroissement graduel de la population humaine, entraînant une demande croissante en eau pour toutes sortes d'activités domestiques et agricoles. Ces conditions bien répertoriées dans l'historiographie du Valais, ont sans doute entrainé une intensification de la demande en eau pour les villages et les prairies de fauche. Dans l'histoire médiévale du Valais, le déploiement accru des canaux s'est trouvé lié à ces paramètres. La synthèse de Dubuis a le mérite cependant de ne pas exclure entièrement les critères physiques d'une explication éventuelle de la création des canaux d'arrosage en Valais. Toutes choses étant égales par ailleurs, la sècheresse de certaines vallées des Alpes du Nord-peut-être couplée à une perméabilité importante des sols par endroits-a sans doute contribué à la motivation et à la mobilisation des constructeurs des canaux. Malgré cela, il nous semble qu'un autre aspect de l'environnement naturel de la Vanoise doit également attirer notre attention : la localisation initiale des cours d'eau et sources par rapport aux zones habitées traditionnellement. Certains endroits, densément humanisés et manifestement occupés depuis au moins le Moyen Age, ont probablement manqué d'eau au moment de l'occupation permanente du massif. Selon toute probabilité, ces zones n'ont pas été parmi les premières colonisées : elles n'ont été vraisemblablement peuplées qu'une fois l'eau amenée, probablement par les canaux servant à la fois pour les besoins domestiques et agricoles. Alors que nous n'avons pas pu poursuivre cette voie de recherche de manière plus approfondie, nos observations sur le terrain nous permettent d'établir une corrélation entre la configuration géomorphologique de certaines communes et l'emplacement des canaux anciens. Les communes en forme de bouclier (comme La-Côte-d'Aime), celles où les cours d'eau naturels se situent en bordure des territoires communaux (La-Côte-d'Aime et Montvalezan), et celles où l'emplacement de certains villages 34 se trouve au milieu des zones manquant de ruisseaux ou de sources importantes (La-Côte-d'Aime, Montvalezan, le secteur de Montrigon sur Bourg-Saint-Maurice) sont les meilleurs exemples. Ce constat nous permet de proposer une seconde hypothèse : l'absence de cours d'eau naturels et de sources importantes par endroit en Vanoise a constitué un facteur stratégique dans la création et le développement des canaux dans le massif, et probablement dans les Alpes du Nord en général. 35 IV. L'INVENTAIRE DES CANAUX EN VANOISE Nous présentons dans cette partie un inventaire des canaux de la Vanoise. Nous distinguerons pour des raisons analytiques quatre catégories majeures de canaux : 1. Canaux d'arrosage, presque toujours subdivisés en canaux secondaires et parfois tertiaires, desservant principalement les prairies de fauche et à un moindre degré les vergers (présvergers), jardins et vignobles (voir Canaux d'arrosage ci-dessus) ; 2. Canaux (ou rigoles) d'alpage et, à un moindre degré des montagnettes10, fournissant l'eau potable aux chalets et montagnettes et aux animaux pâturant auprès de ces bâtiments, et facilitant la distribution du fumier et du purin sur les pâturages avoisinants et, dans certaines communes, arrosant aussi des prairies de fauche d'altitude (voir Canaux d'alpage ci-dessus) ; 3. Canaux d'amenée livrant l'eau motrice à divers artifices traditionnels-moulins à blé, forges, scieries, etc. ; et 4. Canaux de drainage, au moins dans quelques communes, ayant la fonction de drainer certains secteurs de la montagne. La dangerosité liée aux glissements des terrains et l'amélioration de la végétation à des fins économiques furent sans doute la motivation principale pour la construction de ces canaux. Par endroits, on visait probablement aussi l'assainissement des zones trop humides afin de permettre l'implantation d'enceintes habitées. Un canal, qui est en fait un cours d'eau « humanisé », peut être associé à un ou à l'ensemble de ces usages. Mais en général, on arrivait à classer un canal donné sans trop de difficulté dans l'une ou l'autre de ces catégories, en notant l'usage auquel il était principalement consacré et en utilisant d'autres critères parmi ceux qui sont décrits ci-dessous. En plus de son aspect fonctionnel, le classement d'un canal peut être facilité par : l'examen de sa localisation sur le territoire communal, ses qualités physiques (largeur, profondeur, ramification, empierrement), le type juridique de sa propriété, le groupe de personnes qui l'entretien et le nom qu'il porte. Par exemple, en Vanoise les canaux d'arrosage sont en général situés dans les zones géographiques intermédiaires ou basses d'une commune donnée-là où se trouvaient les concentrations des prairies de fauche (bien que la prise d'eau elle-même ait pu être située beaucoup plus haut, et en Haute Maurienne les zones de fenaison étaient en moyenne plus hautes qu'en Tarentaise). Les canaux d'arrosage-propriétés toujours collectives en Tarentaise pour les canaux principaux, propriétés collectives ou privées en Maurienne-constituaient des réseaux plus conséquents et complexes par leur taille, par leur débit, par leurs ramifications et par leurs caractéristiques réglementaires. Ils étaient gérés et entretenus par des collectivités, parfois communales parfois syndicales (voir Gestion, canaux d'arrosage, ci-dessus). Les personnes les plus âgées en Vanoise les reconnaissent comme ayant été les éléments essentiels de la réussite agro-pastorale, surtout pour la production des foins, mais aussi pour les jardins et, dans certaines communes de plus basse altitude, pour les vergers et les vignobles. Les canaux d'arrosage portaient dans la majorité des cas des noms propres et une désignation générique de bié, airel ou airiel en Tarentaise et bié ou bial en Haute Maurienne (avec nombreuses variantes dialectologiques en franco-provençal localvoir Annexe, p. 164). 36 Par contraste, les canaux (ou rigoles) desservant les chalets d'alpage (et les montagnettes, là où elles existaient) étaient presque toujours des propriétés privées, et souvent plus courts que les canaux d'arrosage principaux. Ils sont normalement moins larges et moins ramifiés que les canaux d'arrosage et caractérisés par un débit plus faible. On leurs attribuait moins souvent des noms propres, surtout en Tarentaise, bien que dans plusieurs communes de la Haute Maurienne où la distinction entre canal d'arrosage et canal d'alpage était moins nette, on ait trouvé des canaux d'alpage nommés. Faute de temps et de moyens, nous n'avons pas systématiquement inventorié les canaux d'alpage, probablement au nombre de plus d'un millier en Vanoise. Les canaux d'amenée sont en général bien plus courts que les canaux d'arrosage ou d'alpage, mais ils se caractérisent par un débit d'eau suffisant pour faire fonctionner les artifices traditionnellement implantés en montagne. L'eau de ces canaux était issue le plus souvent des rivières (l'Isère ou l'Arc) et des ruisseaux importants et des torrents, mais aussi des canaux d'arrosage, surtout en Tarentaise. On les appelait génériquement « biallière » des deux côtés du massif (avec variance dialectologique), cette dénomination étant souvent complétée par l'addition d'un élément descriptif comme « du moulin », « de la forge » ou « de la scierie » et, parfois, si les artifices étaient nombreux dans une commune ou un lieu donné, par l'addition du nom propre au moulin en question, par exemple « la biallière de la scierie de Marcel ». Les canaux d'amenée pour les artifices privés étaient toujours des propriétés privées, alors que les canaux amenant l'eau aux artifices communaux ou ceux des autres collectivités appartenaient à ces collectivités. Comme pour les canaux d'alpage, nous n'avons pas entrepris un inventaire global des canaux d'amenée liés aux artifices, faute de moyens, mais aussi parce qu'un inventaire des « moulins » existe déjà pour la Savoie (Gotteland et Crabières n.d.). Nous apprenons ainsi qu'un nombre significatif d'artifices du massif était alimenté par des canaux d'amenée très courts-souvent d'à peine quelques mètres de long pour ceux installés aux bords des ruisseaux ou rivières. Nous décrirons néanmoins bon nombre des canaux d'amenée aux parcours plus longs, et surtout ceux qui délivrent d'autres services comme l'arrosage des prairies de fauche ou des vergers. En employant ces six critères de base (fonction, localisation, qualités physiques, type de propriété, régime d'entretien et dénomination), nous avons pu identifier approximativement 200 canaux d'arrosage dans les 29 communes du Parc national de la Vanoise, les deux tiers environ portant des noms propres. Nous estimons le nombre de canaux ou rigoles d'alpage à plusieurs centaines, la plupart sans dénomination. Nous n'avons pu inventorier qu'un petit nombre de ces canaux, surtout ceux qui apparaissent sur les cartes anciennes. Entre 80-100 canaux d'amenée « conséquents » desservaient les divers artifices traditionnels. 1. Méthodologie du recensement Notre inventaire des canaux en Vanoise a été réalisé en rassemblant des données issues de quatre sources principales : 1. une consultation des publications dans les livres ou journaux spécialisés ; 2. un examen des documents historiques découverts dans les Archives Départementales de la Savoie (ADS) et secondairement dans des archives communales, diocésaines et familiales ; 3. une interrogation des cartes et plans anciens principalement réunis dans les ADS et la Bibliothèque Municipale de Chambéry ; et 37 4. des interviews avec des personnes âgées possédant une connaissance directe des canaux ou avec des spécialistes ayant un intérêt professionnel ou académique pour ces systèmes. En combinant les données souvent partielles ou incomplètes de chacune de ces sources, et en évaluant leur authenticité et leur exactitude, nous avons pu établir un inventaire des canaux les plus importants. Cette méthodologie est loin d'être parfaiteelle n'est surtout pas entièrement objective. Nous étions souvent obligés de faire appel à notre jugement personnel pour fixer l'emplacement d'un canal sur notre carte ou de retenir un nom propre. Il faut aussi souligner que les informations rassemblées sur les canaux varient parfois considérablement d'une commune ou d'un quartier à l'autre à cause des différences dans la rapidité de l'abandon des activités traditionnelles, de la variabilité qualitative des documents historiques et des cartes consultées, et de la disponibilité des personnes expertes. 1. Les publications. La littérature traitant des canaux d'arrosage de toutes sortes en Vanoise est sommaire. Les publications les plus importantes peuvent se compter sur les doigts d'une main : un premier article de quelques pages d'Henri Onde « L'arrosage dans la zone intra-alpine en Savoie » paru en 1940 dans la Revue de Géographie Alpine est suivi d'un article de deux pages de R. Godefroy « L'irrigation en Savoie intraalpine » paru en 1941 dans La Revue de Savoie. Ces deux articles ne fournissent guère d'informations sur les systèmes hydrauliques humanisés, sauf établir la présence des canaux et de l'irrigation dans le massif. Quatre décennies plus tard, Marius Hudry écrit un article plus détaillé : « Documents pour une histoire de l'irrigation en Tarentaise », paru en 1985 dans Le Monde Alpin et Rhodanien. Cet article a le mérite d'attribuer pour la première fois des noms propres à quelques canaux et de décrire brièvement le fonctionnement et l'histoire de plusieurs d'entre eux construits anciennement sur le « Versant du Soleil » en Moyenne Tarentaise. Ces trois articles, combinés à notre observation de nombreux canaux d'arrosage, toujours en eau pendant les années 70 et 80, nous ont incité à en apprendre davantage sur ces cours d'eau « énigmatiques » et peu connus dans le massif et en Savoie. Une recherche dans les publications spécialisées des grands géographes des Alpes du Nord (surtout Blanchard) n'ont fourni que quelques bribes d'information. Des monographies locales-souvent communales-traitant indirectement ou en partie de l'économie coutumière (Bessat et Germi 1993 ; Chazal 2002, 2008-2009 ; Combet et Bouchage 1998 ; Emprin 1933 ; Gaide-Chevronnay 1931 ; Jail 1969, 1977 ; Meilleur 1985 ; Silvin 2009) ont rajouté quelques détails. Une chronique récente de la mutation historique de la commune de Montvalezan par Roger et Giselle Gaide (2000), citant plus de 20 noms propres pour des canaux d'arrosage dans cette seule commune, et une monographie par Arthur Couvert (2003) sur la vie traditionnelle à Aussois, ont commencé à donner une idée de l'importance de l'irrigation dans le massif. Le parc national de la Vanoise a commissionné une étude sur les canaux d'arrosage en 2005 confiée à Delphine Morel, qui a été un début d'inventaire des canaux d'arrosage dans le parc11. 2. Les documents historiques. L'exploitation des documents historiques dans les diverses archives concernant les usages de l'eau a été plus ou moins fructueuse et a montré que les communes de la Haute et la Moyenne Tarentaise sont nettement mieux dotées d'archives anciennes que la Haute Maurienne12. Les Archives Départementales de la Savoie-bien fournies en documents concernant l'emploi de l'eau dans la Savoie traditionnelle, et pourvues de grandes quantités d'archives communales-présentaient l'avantage d'un classement moderne par sujet et par commune avec des inventaires consultables sur internet par mot clé. Son personnel professionnel ainsi que son ouverture six jours sur sept ont rendu la consultation des documents plus aisée. 38 L'organisation des archives et leur accès dans les communes furent plus variés, allant d'une bonne organisation et d'un accès aisé (comme Hauteville-Gondon, Bourg-Saint-Maurice, Bramans, VillarodinBourget), jusqu'à une organisation et un accès bien plus compliqués, rendant leur consultation plus difficile. Les archives archidiocésaines de Moûtiers étaient fermées à la consultation pendant notre période de recherche à cause des travaux et celles de l'Evêché de St. Jean de Maurienne, malgré un bon accueil, ne nous ont pas livré beaucoup d'informations, confirmant la pauvreté des archives communales hautemauriennaises en général. En Tarentaise, plusieurs personnes ont généreusement mis leurs archives familiales à notre disposition ; certaines d'entre elles ont été d'une grande valeur pour le projet. Dans bien des cas, surtout en Tarentaise, la mise en place, l'utilisation et l'éventuelle réglementation des canaux concernaient soit des particuliers (pour rigoles ou canaux d'alpage, et souvent pour canaux d'amenée) soit des groupes d'utilisateurs (les arrosants ou personnes utilisant des canaux d'arrosage), et la commune n'était pas ou guère impliquée. Bien que cette situation varie d'une commune à l'autre, et qu'elle ait évolué rapidement à partir de 1860 avec un rôle grandissant de l'état dans les affaires hydrauliques, il n'était pas rare de rencontrer dans les archives familiales des documents anciens touchant à l'irrigation. Ceci était surtout vrai en Tarentaise dans les familles engagées par le passé dans la gestion des canaux. 3. Les cartes et plans. Au commencement du projet, nous comptions faire une étude approfondie des Mappes Sardes (17281738), commune par commune, pour mieux localiser les canaux. Dans la période préparatoire du projet, nous avons trouvé sur les mappes la preuve de l'existence de ces canaux dans quelques communes étudiées. Une fois le projet démarré, néanmoins, une interrogation rigoureuse des mappes nous a montré que nos attentes initiales étaient irréalistes, principalement parce que les mappes étaient dans leur ensemble difficilement consultables en ligne (site ADS). L'absence de marquages sur ces cartes qui auraient pu idéalement nous permettre de différencier canaux, chemins, sentiers et cours d'eau naturels, reléguait leur consultation à un rôle secondaire. Elles ont néanmoins servi parfois à clarifier la présence ou l'absence d'un canal, au début du 18e siècle, une fois son emplacement signalé par d'autres sources. En conséquence, nous avons transféré nos efforts de repérage iconographique des canaux du massif au Premier Cadastre Français (PCF), cartes établies commune par commune à partir des années 1867 en Vanoise. Bien que moins anciennes, mais toujours datées aux alentours de la période coutumière et également consultables en ligne sur le site ADS, les cartes du PCF ont été très utiles à notre projet. Colorées comme les Mappes Sardes et aussi détaillées, ces cartes possèdent le grand avantage de représenter les cours d'eau, les routes et les chemins inscrits sur les plans, dressés majoritairement à l'échelle de 1 : 1000. A la recherche d'autres sources iconographiques susceptibles d'apporter des précisions sur la localisation et la dénomination des canaux, nous avons consulté d'autres cartes et plans disponibles aux ADS et à la Bibliothèque Municipale de Chambéry. Malgré le grand nombre de cartes anciennes consultées par le biais de ces deux services, seule la série 1927-1928 du Service Géographique de l'Armée (cartes de 1 : 5000, dites d'Etat-major), et levées fin 19e, a livré quelques repérages de plus sur les canaux en Tarentaise et Haute Maurienne. L'Atlas de Marchetti (1781-82), également consultable en ligne sur le site ADS, a permis la visualisation d'un petit nombre de canaux en Haute Maurienne à proximité de la Route Royale et de la Rivière Arc entre Chambéry et le Col du Mont Cenis. Quelques plans communaux ou des portions de communes ont été retrouvés ici et là aux ADS. 39 Le Premier Cadastre Français (PCF) s'est révélé comme la plus importante source iconographique du projet, permettant la localisation de nombreux canaux et la reconnaissance d'un bon nombre de noms propres. Nous avons néanmoins constaté une variabilité dans le niveau de détail et de rigueur de la part des géomètres qui les dressaient. Certains semblent avoir été minutieux dans les informations qu'ils ont portées sur leurs cartes, d'autres ont été moins précis. Nous l'avons remarqué en consultant d'autres cartes et après avoir commencé notre étude sur le terrain. Même lorsqu'une commune était bien représentée en canaux sur les cartes du PCF, dans beaucoup de cas, certains canaux-même parfois tous-n'étaient pas nommés. Par ailleurs, il est rare de trouver sur une carte du PCF des canaux secondaires ou tertiaires (rigoles), ceux qui délivraient réellement de l'eau aux parcelles. Il faut aussi noter que les cartes du PCF et d'Etat-major comportent des erreurs. Par exemple, l'emplacement et la dénomination du « Canal des Villards » sur le PCF pour la commune de Séez sont certainement faux. Ces erreurs ont pu être mises en évidence par comparaison avec d'autres sources. Malgré les imperfections du PCF et des sources iconographiques secondaires, nous avons rassemblé nos données iconographiques avec les informations publiées et celles venant des documents archivistiques pour créer une première série de cartes des canaux. Nous avons ensuite apporté ces documents sur le terrain pour les utiliser comme points de référence lors de nos consultations avec les experts locaux. 4. Les experts locaux. Confrontés à des canaux et à des réseaux majoritairement non-fonctionnels depuis parfois au moins un demi-siècle, nous avons eu l'opportunité de compléter nos données historiques et iconographiques (sources 1-3 ci-dessus) par une collaboration « ethnographique » avec plus d'une centaine de personnes âgées et d'autres experts du massif qui ont vécu les activités économiques traditionnelles dans leur jeunesse ou qui possédaient une expertise particulière. Ces experts locaux ont fourni des informations parfois détaillées sur l'emploi de l'eau alors que l'économie agro-pastorale fonctionnait encore. Les cartes et les données historiques, établies avant d'engager ces personnes sur le terrain, se sont avérées fort utiles pendant nos centaines d'heures d'interviews avec des experts, servant de points d'appuis pour stimuler et pour orienter nos conversations. La plupart de ces témoignages se sont avérés très localisés : aucun expert ne possédait une vue d'ensemble des activités économiques coutumières de sa commune. Le savoir paysan est toujours local, et pour une grande commune comme Bourg-SaintMaurice, possédant au moins six réseaux d'irrigation distincts, et plus d'une vingtaine d'artifices, il fallait idéalement rencontrer autant d'experts originaires des différents secteurs ou « quartiers » de la commune, et ceci n'était pas toujours réalisable. Faut-il aussi rappeler que les souvenirs de beaucoup des personnes rencontrées se situaient aux limites de leurs mémoires. En conclusion, notre inventaire des canaux en Vanoise correspond à une méthodologie de « sauvetage ». Nous ne considérons pas ce répertoire comme une fin mais plutôt comme un début. Nous espérons que notre recensement, le premier effort d'équipe de documenter et préciser l'emplacement, le fonctionnement et l'histoire des canaux en Vanoise, stimulera d'autres chercheurs pour l'étude des systèmes hydrauliques humanisés du massif, et encouragera les Savoyards eux-mêmes à explorer cet aspect de leur patrimoine culturel. 40 2. Comment déterminer la présence, le tracé et le nom d'un canal, et pourquoi le faire ? Déterminer la présence d'un canal peut se faire par le biais de plusieurs sources : le visualiser avec ses propres yeux, le visualiser sur une carte ou un plan, en admettre l'existence par une description écrite ou par les dires d'un expert. En regardant une carte ancienne ou en se déplaçant sur le terrain, il était naguère relativement facile de reconnaitre la présence des canaux dans une commune ou région donnée en Vanoise. Les premières publications sur l'arrosage dans le massif se situaient à ce niveau de description-affirmant la présence des canaux d'arrosage en Tarentaise et en Haute Maurienne, parfois indiquant les communes où ils se situaient (Onde 1940 ; Godefroy 1941). Les écrits d'Onde, par exemple, citant la présence de l'irrigation dans quelques communes de la Haute Maurienne et la Moyenne Tarentaise, étaient probablement basés sur ses propres observations et une rapide consultation du peu de littérature disponible sur le sujet à l'époque. Hudry (1985), quant à lui, passait à une étape plus détaillée, combinant ses propres observations sur le terrain avec une étude des documents historiques, révélant ainsi les tracés des canaux spécifiquement nommés dans des communes bien déterminées. Mais il allait plus loin encore, parce qu'en reproduisant des tracés des canaux sur une carte, liés à des noms propres, sa méthodologie permettait l'enregistrement et la reproduction des faits historiques et ethnographiques sur des territoires spécifiques. Le travail d'Hudry avait le mérite aussi d'analyser plusieurs documents d'archives non-publiés, nous donnant un aperçu de la manière dont certains canaux en Vanoise ont été gérés. Nos connaissances sur les canaux en Vanoise en étaient à peu près à ce point lorsque nous avons commencé cette étude. Cependant, nous savions déjà que des réseaux importants de canaux existaient depuis longtemps dans le Valais en Suisse et dans la Vallée d'Aoste en Italie. Le fait que la Vanoise se situait également dans la zone intra-alpine des Alpes du Nord, et ses nombreuses affinités historiques, socio-économiques et climatiques avec les deux régions voisines, nous a laissé supposer que la Vanoise était probablement bien pourvue en canaux aussi. Puisque notre projet débutait au mois de décembre alors que les visites sur le terrain n'étaient pas propices, nous avons commencé notre inventaire par une consultation de documents publiés, de documents d'archives, et de sources iconographiques anciennes. En raison du temps limité et d'un travail qui portait sur 35 communes environ (les 29 communes du parc et une demi-douzaine d'autres ayant des liens hydrauliques avec elles), nous avons opté pour l'exploration de ces trois sources simultanément. 3. Les documents historiques Les documents traitant des canaux sont de deux sortes : ceux que nous appelons les rôles et les règlements, datant principalement de la deuxième moitié du 19e siècle et ceux, beaucoup plus anciens, sous forme d'accords ou de déclarations spécifiant certaines relations entre la paysannerie et la seigneurie sur le sujet de l'eau. Deux d'entre nous-Meilleur et Villette-recherchaient et examinaient des documents plus récents (en français), alors que Mouthon se spécialisait dans des documents très anciens (normalement en latin). Les deux types de documents, ainsi que d'autres plus hétéroclites, fournissaient de nombreuses mentions sur la présence et parfois sur la localisation des canaux dans un bon nombre de communes. Ces documents donnaient aussi beaucoup d'indications sur les noms des canaux, et les plus récents livraient aussi des informations sur leur gestion. Quant aux cartes et plans anciens-surtout ceux du PCF-ils ont livré très rapidement beaucoup d'indices sur la présence et les tracés des canaux dans le massif, nous permettant de confirmer rapidement que beaucoup d'entre eux portaient des noms propres. 41 Ainsi, nous avons rapidement dépassé la première étape de recherche sur les canaux, c'est-à-dire, une documentation de leur présence dans le massif. Nous avons découvert que les canaux étaient largement répandus, ce qui pourrait sembler banal, mais c'était déjà une avancée importante par rapport aux connaissances actuelles. Ce résultat nous a permis de passer à une documentation précise de nombreux canaux, commune par commune, et de commencer à établir sur les cartes modernes leurs tracés exacts (prises, longueurs) ainsi que leurs dénominations. 4. Pourquoi c'est important L'Etablissement des tracés des canaux en Vanoise Cette étape du projet a été plus complexe que la précédente car elle nécessitait une triple activité analytique et technique : d'abord nous avons dû identifier et définir les cours d'eau à cartographier-ce qui nécessitait une analyse de nos premières données et la création d'une classification-puis une fois que nous avons établi ce que nous voulions cartographier, nous avons procédé au transfert des tracés des canaux répertoriés aux cartes modernes. Finalement, nous avons transféré ces premiers tracés-au début souvent faits à la main-sur les cartes modernes par digitalisation. Une fois les canaux vus sur le PCF (ou sur des autres cartes ou plans) et transférés à nos cartes de travail, nous disposions alors des premières données de base à partir desquelles nous pouvions entamer des discussions avec les experts locaux. Alors que nos informations de terrain se précisaient, avec de nouveaux indices et corrections fournis par les experts, nous étions en mesure de modifier nos premières cartes. Cette méthodologie a servi à créer une sorte de « boucle de feedback », permettant une nouvelle phase d'interviews, puis une nouvelle mise à jour de la base de données et des cartes, de nouvelles interviews, etc. Notre objectif n'était pas seulement d'être capable de produire des cartes définitives, mais de créer une base de données cartographique modifiable par l'actualisation de nouvelles données. Nous avons donc procédé à une digitalisation de nos données cartographiques que nous avons transférées à la base de données cartographiques du parc national de la Vanoise. Notre travail préliminaire de cartographie nous a permis d'identifier un minimum d'environ 290 canaux de toutes sortes dans les 29 communes du parc, et de déterminer une longueur globale dépassant 350 kilomètres. Méthodologie de digitalisation Julia Villette Suite à notre travail cartographique préliminaire, qui localisait les canaux pour les 29 communes du parc (+ Hauteville-Gondon, traitée séparément) à la main ou avec un appareil GPS, nous avons procédé à une digitalisation des canaux répertoriés sur un logiciel de SIG dans le but de mieux les repérer sur le terrain et de produire une base de données, avec une carte récente à l'appui. Pour se faire, le parc a mis à notre disposition le logiciel de SIG QGIS avec les données associées au PNV (Cartes IGN, données du cadastre actuel, hydrographie, etc.). L'utilisation de ce logiciel a permis d'associer à chaque canal digitalisé les informations récoltées sur le terrain. Une méthodologie a dû être mise en place afin de digitaliser les canaux du Premier Cadastre Français (PCF) avec la plus grande précision possible. Une superposition du 42 PCF avec la carte IGN était impossible car les cartes du PCF ne sont pas géo référencées, c'est-à-dire qu'elles n'ont pas été dressées avec les même repères cartographiques. Il a donc fallu travailler manuellement à partir du repère visuel des parcelles cadastrales. Ainsi les canaux ont été digitalisés sur un Scan 25, c'est-à-dire sur la carte IGN au 1 : 25000 en projection RGF 93- Lambert 93. La superposition du cadastre actuel de chaque commune sur cette carte IGN a permis de tracer, avec la précision recherchée, les canaux répertoriés sur le premier cadastre français. En effet, une première localisation est effectuée à partir des parcelles : leurs formes étant spécifiques, leur repérage est plus aisé. Le canal est alors tracé sans difficultés le long des parcelles repérées, grâce au double trait indiquant la position de la plupart des canaux. Cette représentation, également utilisée pour les cours d'eau, laisse apparaitre lors de la superposition la carte IGN qui nous permet de repérer le passage de l'eau. Cette première base de données a été complétée par la suite avec les informations récoltées sur le terrain. La digitalisation des canaux répertoriés dans cette phase de travail a été réalisée avec beaucoup moins de précision car le cadastre ne pouvait plus servir de repère pour le tracé. Dans la fiche technique des canaux par commune, nous attribuons un tracé fiable pour les canaux répertoriés sur le PCF, et un tracé approximatif pour ceux issus d'une autre source d'information (archives, entretiens, ). Ainsi, la totalité des canaux ont été digitalisés avec une précision variable, le champ d'information source dans le logiciel permet de renseigner ce critère de tracé. Les canaux digitalisés sont par la suite associés à une couche « vecteur », c'est-à-dire un fichier d'informations où les données suivantes ont pu être associées à chaque canal : Id : identifiant numérique entier qui correspond à l'ordre d'entrée des canaux. A chaque commune le compteur retourne à 1, c'est-à-dire que l'on dispose d'identifiants de 1 à 70 pour chacune d'entre elles, ce nombre correspondant au nombre de canaux répertoriés. Nom : dans ce champ est indiqué le nom associé au canal sur les cartes consultées : PCF, cartes d'Etatmajor, ou cartes annexées aux documents d'archives. Nom Morel : nom attribué à ce canal dans le mémoire de D. Morel ou indiqué par les informateurs lors de l'enquête de terrain. Photo : ce champ est destiné au nom du dossier qui contient les photos prises sur le terrain. Ainsi le PNV, grâce à un autre logiciel pourra associer les informations relatives à ce canal. PDF : de même que le précédent mais contiendra la référence d'un dossier contenant les mises en page du SIG ou des dossiers Word d'informations. Etat 2012 : ce champ n'a été rempli que pour les canaux qui ont été visités sur le terrain. Est alors renseigné l'état du canal : s'il est encore utilisé, s'il est encore en eau, s'il reste des traces ou s'il a totalement disparu. Usage : fonction du canal : arrosage, desservant d'artifices, alimentation de chalets d'alpage, drainage, etc. Source : ce champ sert à renseigner la source des informations associées : PCF, archives, informateur, 43 etc. Lg : correspond à la longueur du canal, champ calculé automatiquement par le logiciel. Alt deb. : correspond à l'altitude de départ du canal, renseigné par le logiciel. Alt fin : altitude de la fin du canal. Date const. : date de construction du canal, rentrée manuellement si l'information est trouvée dans les archives communales ou départementales, ce n'est cependant le cas que pour très peu de canaux. Date saisie : date de la saisie des informations afin de pouvoir identifier, dans le long terme, la pertinence des informations entrées. Auteur : auteur de la fiche d'attribut. Cette information sera utile aux études futures, l'auteur pouvant être identifié facilement pour tout complément d'informations. 44 4. Les canaux en Vanoise et leurs noms Une majorité des canaux inventoriés portaient une dénomination propre. Comme pour le patrimoine bâti ou pour d'autres aspects du repérage culturel, la dénomination des canaux souligne le poids de l'investissement affectif, symbolique et socio-économique dans ces structures. Les canaux étaient des points d'ancrage dans la vie quotidienne au même titre que les mas (lieux dits), les oratoires, les sommets, les villages, les chemins, les chapelles ou les cours d'eau naturels. Certains canaux parmi les plus longs de la Moyenne et Haute Tarentaise ont une renommée régionale, constituant aujourd'hui des icônes d'un passé agro-pastoral et des emblèmes de l'immensité de l'oeuvre des ancêtres tarins. Le déchiffrage de la dénomination des canaux-surtout d'arrosage-représente un véritable challenge. Les canaux ou les rigoles situés exclusivement dans les zones d'alpage étaient moins souvent nommés. Les canaux d'amenée desservant les artifices portaient parfois des noms, mais quand ils étaient désignés, ces noms étaient souvent prévisibles (par exemple, « le canal du moulin de Marcel »). Ne voulant pas déformer le mode de dénomination coutumière des canaux-comme il s'était fait à la fin du 19e et au début du 20e siècle (Debarbieux et Gumuchian 1987) pour la topographie de la haute montagne savoyarde-nous avons adopté une approche conservatrice pour accorder un nom à un canal donné. Nous n'avons préféré attribuer un nom qu'après son identification dans au moins deux sources différentes. Cependant, en cause de la nature fragmentée de nos données, cette façon de procéder n'était pas toujours possible, et nous avons parfois attribué le nom d'une seule source là où nous étions convaincus de l'authenticité du nom enregistré. Les noms des canaux d'arrosage ont été signalés dans toutes les sources explorées : articles publiés, documents historiques, cartes et plans anciens, mais le PCF et les experts locaux ont représenté pour nous les sources principales. Néanmoins, même le PCF variait d'une commune à l'autre dans les termes portés sur les cartes : certaines mentionnaient la quasi-totalité des canaux, d'autres n'attribuaient aucun nom à des cours d'eau qui, incontestablement, étaient des canaux d'arrosage (voir Termignon cidessous). Les cartes d'Etat-major, dressées à la fin du 19e et au début du 20e siècle, possédaient la particularité de montrer de multiples canaux, mais avec un minimum de noms. En dépit de leur existence lors de l'établissement des cartes, certains noms ont été découverts par d'autres moyens. Cela dit, et au-delà de la rigueur plus ou moins grande des géomètres, nous avons accepté les désignations affichées sur les cartes du PCF en tant que noms donnés par les habitants de l'époque. Le nombre et la qualité des documents historiques retrouvés en Vanoise varient amplement entre la Tarentaise et la Maurienne. Pour des raisons qui ne sont pas encore claires-probablement liées en partie aux dégâts plus importants occasionnés en Haute Maurienne pendant la Deuxième Guerre Mondiale-nous avons découvert beaucoup plus de documents pertinents en Tarentaise. Mais dans la plupart des cas, les commentaires accompagnent rarement une carte ou un plan. En conséquence, au début du projet, nous devions compter sur de nouvelles données pour localiser précisément un canal cité dans un autre document. La construction des listes de noms des canaux par commune s'est donc initialement appuyée sur des sources historiques. A l'instar des cartes que nous avons dressées, ces listes nous ont permis de guider nos enquêtes auprès des experts locaux. Par la suite, nous avons enregistré de multiples noms de canaux grâce aux personnes âgées. Certains étaient très connus, d'autres moins, et une partie d'entre eux quasiment oubliée. Les perturbations provoquées par les guerres, les opportunités économiques, la déprise agricole, la difficulté d'identifier 45 des informateurs pour toutes les communes et quartiers, tous ces éléments ont influencé la mémoire d'une commune, d'un village et même des individus. Nos propres résultats ont subi cette influence. Concernant les noms locaux des canaux, la communication entre leurs utilisateurs se faisait oralement en patois savoyards majoritairement, dans l'aire des dialectes franco-provençaux. Bon nombre de noms en parler local existent encore dans les lexiques des patoisants les plus âgés. Néanmoins, nous avons opté pour une présentation de ces noms en français, et ceci pour trois raisons principales. D'abord, une partie significative des noms ont été recueillie en français sur des cartes et dans les documents historiques. Ces dénominations étaient sans doute basées sur les termes dialectaux, mais francisés. Et il n'était pas rare de rencontrer le même nom orthographié de plusieurs façons dans le même document ou sur la même carte. Par ailleurs, dans certaines familles, même les personnes les plus âgées aujourd'hui n'ont pas appris le patois, leurs parents ne souhaitant pas transmettre cette langue à leurs enfants. Enfin, les parlers en vigueur en Vanoise il y a cent ans variaient d'une commune à l'autre, voire même à l'intérieur d'une commune, rendant leur transcription problématique. La transcription réalisée pour une personne n'est pas toujours acceptable pour une autre. Il n'existait évidemment aucun standard à l'époque pour écrire une langue majoritairement orale, et seul le système de la Graphie de Conflans (Groupe de Conflans 1983) est assez largement utilisé aujourd'hui. Notre inventaire propose une solution qui nous semble convenir aux noms recueillis de multiples sources très diversifiées. Les canaux les mieux documentés et portant des dénominations les plus proches de celles d'origine sont présentés dans l'inventaire en caractères gras. Nous commencerons notre inventaire des canaux par les communes de la Haute Maurienne. 46 L'INVENTAIRE DES CANAUX DE LA HAUTE MAURIENNE : INTRODUCTION En remontant le lit de la rivière Arc entre Modane et Bonneval-sur-Arc, 12 communes forment l'actuelle zone de la Haute Maurienne du parc. Cinq font partie du canton de Modane (Aussois, Avrieux, Modane, Saint-André, Villarodin-Bourget) ; sept font partie du canton de Lanslebourg-Mont-Cenis (Bramans, Sollières-Sardières, Termignon, Lanslebourg-Mont-Cenis, Lanslevillard, Bessans et Bonneval-sur-Arc). Cet ensemble forme une unité géographique de 874,22 km2, approximativement 25% de moins que l'aire couverte par les 17 communes du parc en Tarentaise. Environ 120 canaux de toutes sortes ont pu être inventoriés en Haute Maurienne, la moitié environ portant des noms propres. Nous avons pu rassembler beaucoup plus de noms venant de sources différentes, mais leur correspondance avec des canaux reste incertaine. A toutes fins utiles, nous les ajoutons à nos traitements. Dans leur ensemble, les quelques 120 canaux de la Haute Maurienne totalisaient 150 kilomètres environ, soit 43% de la longueur des canaux pour l'ensemble de la Vanoise, alors que la vallée représente 42% de la superficie globale du massif. Les canaux se concentrent majoritairement dans le secteur central, comprenant principalement les communes de Bramans (18 canaux et 28,1 km) et de Termignon (12 canaux et 21,65 km), avec Bessans (22 canaux et 20,05 km), plus en amont, formant un noyau peu distinct. Saint-André, Bonneval-sur-Arc, Aussois, et Sollières-Sardières étaient parcourus de réseaux de 10 à 15 kilomètres chacun, Villarodin-Bourget et Avrieux possédaient l'un et l'autre entre 5 et 10 kilomètres de canaux, quant à Modane, Lanslevillard et Lanslebourg-Mont-Cenis, ils étaient dotés de moins de 5km de canaux. La distribution des canaux en Haute Maurienne est beaucoup plus homogène sur l'ensemble de son territoire que la Tarentaise, où le secteur nord concentre le plus grand nombre de canaux de toutes sortes. 47 Aussois Onze canaux ont été répertoriés sur la commune d'Aussois ; nous les regroupons en neuf canaux faisant un total de 14,3 km de longueur. Cinq de ces canaux, dénommés, étaient consacrés à l'arrosage des prairies de fauche dans la partie centrale de la commune. Deux autres, plus haut en altitude dans la partie centrale de la commune, desservaient les chalets d'alpage. Quatre canaux d'amenée ont été répertoriés, trois aux alentours du lieu-dit « les Moulins » dans le secteur sudouest de la commune et un quatrième à la limite entre Bramans et Aussois dans le secteur sud-est. Canaux d'arrosage N°1. Le « Canal des Moulins » est signalé comme « Canal d'arrosage » sur le Premier Cadastre Français (PCF, 1927). C'est un canal avec déchargeur qui partait de la rive droite du Ruisseau St. Benoît en amont de l'actuel Barrage du Plan d'Aval. Sur le PCF, il coulait en parallèle avec le Ruisseau St. Benoît pour se terminer en aval du lieu-dit « le Drozé ». Un informateur le voyait bifurquer, avec sa branche est descendant en aval du lieu-dit « les Moulins » pour de se jeter dans le Ruisseau St. Benoît. Il l'appelait « Canal des Moulins Dessous » et il faisait environ 1760m. Sa branche ouest était désignée « le Canal des Moulins Dessus » et faisait 1050m environ. [id50] N°2. Le « Canal du Bagnolet », désigné « Canal d'arrosage » sur le PCF, partait de la rive gauche du Ruisseau St. Benoît environ 50 m en amont du Pont du Drozé. Il descendait vers le sud-est dans la direction du village d'Aussois et d'après le PCF il semblait se terminer au lieu-dit « Saint Sébastien » à la marge nord du village. Selon plusieurs informateurs, il était beaucoup plus long que ce qui est indiqué sur le PCF, pourvoyant d'après eux des canaux secondaires sur ses deux rives pour arroser les prairies de fauche en amont et en aval du village d'Aussois. Il faisait environ 1560m. [id4] N°3. Le « Canal de l'Ortet » était un canal d'arrosage, nommé par plusieurs informateurs, qui partait de la rive gauche du Ruisseau St. Benoît en aval de l'actuel Barrage du Plan d'Aval. Il n'est pas visible sur le PCF. D'après des témoignages locaux, sa prise a été creusée à même la roche. Sa fonction était d'alimenter les montagnettes situées sur son trajet et les prairies de fauche attenantes. Il se partageait en deux en amont du lieu-dit « l'Ortet », avec son bras gauche coulant jusqu'au Ruisseau St. Pierre. Il mesurait environ 1700m. [id52] N°4. Le « Canal du Prélatoute », dans la partie haute appelé aussi « Canal des Balmes » et dans sa partie basse appelé également « Canal des Rossanches Dessus », est visible mais non-nommé sur le PCF. Il part de la rive gauche du Ruisseau St. Pierre au lieu-dit les Balmes. Sa prise est aujourd'hui modifiée par des travaux de l'EDF, qui l'alimente en eau par une galerie venant d'Entre-Deux-Eaux sur la commune de Termignon. Il passe à côté du lieu-dit « les Arponts ». Selon un informateur, il porte le nom « Canal de Prélatoute » ou « Canal des Balmes » dans sa partie supérieure et « Canal des Rossanches Dessus » dans sa partie inférieure, là où il est joint par le « Canal des Rossanches Dessous » (voir N°5). Il part ensuite sur la commune de Bramans et se jette dans la Rivière Arc. Il mesure environ 2900m. [id53] N°5. Le « Canal des Rossanches Dessous » est aussi appelé « Canal de St. Pierre ». Jusqu'aux années 1970, sa prise partait des gorges du Ruisseau St. Pierre en amont et à l'est du village d'Aussois. Il passait ensuite en aqueducs en bois par la falaise au-dessus du Pont de St Pierre et on en voit encore des traces. Ce canal n'est pas visible sur le PCF. Il irriguait la partie inférieure du lieu-dit « les 48 Rossanches » et se joignait au « Canal des Rossanches Dessus » (voir N°4 ci-dessus). Il faisait 620m environ. [id54] Canaux d'alpage N°6 était un canal privé sans nom mais répertorié sur le PCF. Sa source semblait partir d'un petit lac situé entre « le Grand Chatelard » et « le Petit Chatelard ». Il semblait alimenter les chalets d'alpage aux lieux dits « la Fournache », « la Randolière », « le Combet » et « le Djoin », et faisait environ 800m de long. [id6] N°7. Un canal privé non-répertorié sur le PCF était connu de trois informateurs d'Aussois. De toute évidence, c'est le canal photographié par J. Pottier en 1938 (voir Figure 11) traversant la face du Petit Chatelard au-dessus du lieu-dit « la Fournache ». La location précise de sa prise n'a pas été établie. Il desservait principalement les chalets au lieu-dit « Plan Sec » et certains experts l'appelaient le « Canal du Plan Sec ». Il faisait environ 1320m. [id55] Canaux d'amenée N° 8. Trois canaux d'amenée se trouvent sur le PCF dans les environs du lieu-dit « les Moulins », desservant au moins quatre artifices. Deux partaient de la rive droite et un partait de la rive gauche du Ruisseau St. Benoit. [id1,2,3] N°9. Un canal d'amenée est visible sur l'Atlas de Marchetti à la limite communale entre Bramans et Aussois. Il semblait partir de la rive gauche de l'Arc sur Bramans, pour finir quelques centaines de mètres plus loin au lieu-dit « Scie du Poie » sur Aussois. Il desservait probablement une scierie. Il n'a pas été cartographié. Fi Figure 11 : Canal traversant le Petit Chatelard (de toute évidence), Aussois, 28/7/38 (cliché J. Pottier, RTM) Ce traitement a bénéficié de la coopération d'Eliane Bermond, Marie-Rose Corréard, Jean-Marie Gros, Philippe et Nicole Cottereau et surtout d'Arthur Couvert. 49 50 Avrieux Nous avons répertorié huit canaux sur la commune d'Avrieux, qui donnent une longueur totale d'environ 7,1 km : quatre canaux d'arrosage, trois canaux d'amenée et le canal EDF de la Centrale d'Avrieux. Canaux d'arrosage N°1. Le « Grand Canal St. Benoît » partait de la rive droite du Ruisseau St. Benoît au lieu-dit « les Gorges », au même endroit que le « Canal de Piguet » (voir ci-dessous). Il coulait vers l'ouest et traversait la ligne de la pente pour se terminer, d'après le Premier Cadastre Français (PCF, 1927), à proximité du lieu-dit « Rivette ». D'après un expert local, il continuait jusqu'au Ruisseau des Côtes, un cours d'eau souvent à sec en été ; ce dernier semblait avoir été ainsi utilisé en tant que déchargeur par le « Grand Canal St. Benoît » en cas de besoin. Il mesurait environ 1100m. [id52] N°2. Le « Canal de Piguet », d'après des témoignages locaux, partait de la rive droite du Ruisseau St. Benoît au lieu-dit « les Gorges », à peu près au même endroit que le « Grand Canal St. Benoit ». Il partait vers le sud et vers l'aval en suivant le Chemin Rural de Piguet, avant de se jeter dans l'Arc. Ce canal a été pris par un lotissement. Il faisait environ 885m de long. [id51] N°3. Le « Canal de l'Envers » part légèrement en amont des prises du « Grand Canal St. Benoît » et du « Canal de Piguet », sur la rive gauche du Ruisseau St. Benoît et toujours au lieu-dit « les Gorges ». Il coule sous la Chapelle St. Benoît et alimente plusieurs canaux secondaires munis d'écluses (voir Figure12). Il irrigue une grande prairie avant de se jeter dans l'Arc. Il mesure 1135m environ. [id50] Figure 12 : Canal de l'Envers, Avrieux, 24/5/12 (cliché J. Villette) 51 N°4. Le « Canal de Ste. Anne » a été décrit par plusieurs personnes originaires d'Avrieux et de Villarodin-Bourget, mais son nom n'a été évoqué que par une seule personne de Villarodin-Bourget. Abandonné depuis longtemps, il partait du Ruisseau du Nant (ou Ruisseau Ste. Anne) sur la commune d'Avrieux, se dirigeait vers l'ouest et la commune de Villarodin-Bourget en empruntant un aqueduc en bois, pour se terminer à proximité du lieu-dit « les Combes ». Il irriguait des prairies de fauche et des « triffouillières » (champs de pommes de terre). Il se peut qu'il soit visible sur l'Atlas de Marchetti sur lequel il part du Ruisseau du Nant au Pont du Nant, sur Avrieux, pour se diriger vers Villarodin-Bourget où il se jette dans le Ruisseau des Combes. Il mesurait environ 2100m. [id53] Canaux d'amenée N°5. Un premier canal d'amenée, se situant en amont de la confluence entre l'Arc et le Ruisseau St. Benoît, quittait la rive droite du Ruisseau St. Benoît pour desservir au moins trois artifices. Il se jetait dans l'Arc à proximité du village d'Avrieux. Il a été appelé « Canal de Nanti » par une personne. Comme les canaux d'amenée N°s 6 et 7, il semble qu'il alimentait aussi des jardins et des vergers avoisinants. Il faisait environ 290m de long. [id3] N°6. Un second canal d'amenée, faisant 140m environ, partait également de la rive droite du Ruisseau St. Benoît en amont du premier. Il desservait au moins deux artifices avant de se rejeter dans le Ruisseau St. Benoît. Il a été appelé « Canal du Milieu » par un expert local. [id2] N°7. Un troisième canal, encore plus court que les canaux précédents, partait de la rive droite du Ruisseau St. Benoît encore en amont du canal d'amenée N°6. Bien que pourvu d'un déchargeur, il ne faisait que 100m environ et semble-t-il ne desservait qu'un artifice. Il a été appelé « Canal du Haut » par la même personne. [id4] Canaux récents N°8. Deux canalisations d'environ 400m, partant à proximité du lieu-dit « la Charrière » se rejoignent dans une seule canalisation pour se diriger à l'ouest et vers l'Arc. Appelé « Canal des Fuites » par plusieurs personnes, il est lié à la Centrale EDF d'Avrieux. [id1] Discussion De toute évidence, deux canaux partant de la rive droite du Ruisseau de la Feuillade (qui n'existe plus ?) alimentaient la Redoute Marie-Thérèse. Ils sont visibles sur un plan daté de 1869 (ADS 84S7). Notre traitement d'Avrieux a profité des informations fournies par Gérard Paraz. 52 53 Bessans En dépit de plusieurs visites, de nombreuses entrevues avec des personnes âgées et d'un examen détaillé des cartes et documents historiques, nous n'avons pu attribuer que peu de noms à la vingtaine de canaux qui ont existé jusqu'il y a peu de temps à Bessans. Au départ du projet, nous avons observé davantage de canaux, nommés et non-nommés, dans les communes de basse altitude, là où se trouvaient la majorité des prés, que dans les communes de haute altitude, dominées par des alpages. C'est le schéma rencontré ailleurs en Vanoise et nos premiers résultats pour Bessans semblaient se conformer à ce constat. Aucun nom propre pour un canal ne se trouvait à Bessans sur le Premier Cadastre Français (PCF, 1894) et peu de noms ont été trouvés dans des documents historiques et parmi les experts locaux rencontrés. Ce bilan initial changea après des prises de contact avec deux experts de la vie traditionnelle bessanaise : Annie Chazal et Francis Tracq. Les canaux d'alpage représentaient plus de la moitié des canaux de toute sorte inventoriés sur Bessans ; c'était un résultat prévisible étant donné que l'altitude moyenne de la commune est de plus de 2700m. D'après nos observations ailleurs en Vanoise, les canaux d'alpage auraient dû être moins souvent désignés que les canaux d'arrosage, se situant typiquement plus en aval. Malgré cette présomption, nous avons attribué quatre noms propres aux canaux d'alpage et un nom seulement à un canal d'arrosage et d'amenée. Nous pensons que d'autres facteurs, spécifiques à Bessans et aux autres communes de la Haute Maurienne (voir Termignon), sont potentiellement en jeu pour éclairer cette observation faite à Bessans. Depuis au moins la fin du 19e siècle, un pourcentage significatif des hommes quittait la commune en hiver pour conduire les fiacres puis les taxis dans la région parisienne. Ce mouvement, couplé au départ pour d'autres grandes villes et l'accroissement d'opportunités de travail ouvrier à proximité (à Modane surtout), a probablement contribué à un certain abandon, par de nombreux Bessanais des activités économiques traditionnelles (Villette 2012) ou à réduire celles-ci à moins de secteurs économiques coutumiers : les alpages en particulier. La première guerre mondiale (même avant selon F. Tracq, communication personnelle)-avec une disparition importante de Bessanais, entraîna un changement dans la gestion des prairies de fauche dans les zones basses de la commune. Avec l'abandon grandissant de la culture des champs/terres, le fumier qui était naguère alloué aux céréales fut désormais employé pour les prés, et l'irrigation utilisée autrefois pour l'amendement déclina en conséquence (communication personnelle d'A. Chazal). La deuxième guerre mondiale, avec ses déplacements de population et la destruction d'une partie importante du chef-lieu, a probablement aussi marqué Bessans de ses effets néfastes, influençant encore négativement la vie traditionnelle. Les crues destructrices de 1957 ont probablement aussi concouru à une modification significative du paysage agro-pastoral et à la destruction ou la diminution de nombreux canaux et surtout de leurs prises (communication personnelle d'A. Chazal ; voir aussi Jail 1977 : 126). Canaux d'arrosage Aucun canal répertorié sur le PCF ne porte de nom propre, bien que plusieurs d'entre eux soient désignés par des noms génériques : « canal d'arrosage » ou « canal ». Un canal identifié par nous 54 comme canal d'arrosage est désigné « canal d'amenée ». Les quatre canaux visibles sur les deux cartes d'Etat-major (1902-03, SGA 1929), dans les secteurs de la Buffaz, du Grand Fond et le Ruisseau du Re Bruyant, ne portent pas de noms. N°10. Un « canal d'arrosage », ainsi appelé sur le PCF et faisant environ 450m, quittait la rive gauche du Ruisseau de la Frètaz et coulait vers le sud-ouest. [id11] N°11. Un canal d'arrosage, visible sur le PCF mais non-nommé, partait de l'ouest de l'Oratoire Ste. Catherine de la rive droite du Torrent d'Avérole. Il se dirigeait vers le nord-ouest légèrement en amont du village de la Goulaz. Il se séparait en plusieurs petites branches avant de se terminer à proximité des lieux dits « le Grand Biolay », « le Coset », « Travérole d'Aval », et la « Carianaz ». Il faisait environ 1 km. [id19] N°18. Un « canal d'arrosage », ainsi désigné sur le PCF, partait de la rive droite du Ruisseau du Ribon au sud-ouest du lieu-dit « Saint Laurent ». Il se dirigeait vers le nord puis se séparait en deux, le bras du nord-ouest se perdant rapidement à proximité du lieu-dit « au Pissechien ». Le bras d'amont, allant au nord-est, traversait le lieu-dit « Chaffrey » et continuait jusqu'au lieu-dit « aux Chansalets » où, selon le PCF, il se perdait dans les prairies de fauche. D'après des témoignages locaux, comme pour le canal N°19, il continuait jusqu'à la Cure de Bessans. Il faisait 680m environ. [id23] N°19. Désigné « canal d'amenée » sur le PCF, il quittait la rive gauche du Ruisseau de l'Avérole à proximité du Pont de l'Avérole près de la Goulaz, se dirigeant vers l'ouest à côté du « Chemin de Bessans à l'Avérole ». Il bifurquait avec un bras partant au nord-ouest jusqu'au lieu-dit « L'Echeillon ». Selon le PCF, l'autre branche continuait vers l'ouest pour se terminer près du lieu-dit « les Conchettes ». D'après plusieurs experts locaux, il continuait jusqu'à la Cure au centre du village de Bessans. Malgré son nom, nous le considérons plutôt comme un canal d'arrosage. Il mesurait environ 1450m. [id17] N°21. Sans désignation sur le PCF, ce canal de 1000m environ quittait la rive gauche du Torrent de l'Avérole en amont du canal N°20 (voir ci-dessous) et en aval du canal N°19 (voir ci-dessus). Il se dirigeait vers le lieu-dit « Herbarias » où, de toute évidence, il se terminait. Il semblait être un canal d'arrosage. D'après F. Tracq (communication personnelle), « le cadastre de 1694 [donne pour] Herbariaz la billère des Carreleys". [id51] Canaux d'amenée N°14. Un canal partant de la rive droite du Ruisseau de Janin (sur le PCF appelé Ruisseau d'Entre Deux Ris) se dirigeait vers l'ouest, traversant le secteur nord du village d'Avérole. Il faisait environ 1100m. Il alimentait ou passait tout près d'environ 14 bâtiments ou artifices et semblait se terminer vers le lieu-dit « l'Avérole d'en Bas » où, de toute évidence, il desservait huit bâtiments ou artifices et plusieurs jardins. Il semblait être majoritairement un canal d'amenée, mesurant environ 840m. [id10] N°15. Dans le secteur du Ruisseau du Ribon un canal d'amenée ( ?) est visible sur le PCF partant de la rive droite du Ruisseau de Saulcier. Il traversait le lieu-dit « Jaffa » puis une zone comportant quatre bâtiments (maisons d'alpage ?), pour finir dans le Ruisseau du Ribon environ 660m au nordouest. [id8] 55 N°16. Un canal d'amenée, désigné « canal » sur le PCF, quittait la rive gauche du Ruisseau du Ribon en amont du Pont de Traribon. Il alimentait un artifice et se jetait dans le même ruisseau après un court trajet d'environ 200 mètres. [id7] N°17. Deux canaux d'amenée, se ramifiant, et désignés chacun comme « Canal du Moulin » sur le PCF, partaient de la rive droite du Ruisseau du Ribon au nord du lieu-dit « la Croix d'Aval » et à l'ouest du lieu-dit « la Combe de Ribon ». Ils alimentaient plusieurs artifices. L'un d'entre eux était pourvu d'un déchargeur, puis les deux canaux se jetaient dans le ruisseau. L'ensemble mesurait environ 600m. [id20, id21, id22] N°20. Un « Canal des Moulins », ainsi désigné sur le PCF, quittait la rive gauche du Ruisseau d'Avérole au nord-est du lieu-dit « Herbarias » où il est numéroté « 201bis bief ». Il se partageait en deux, le bras ouest continuant vers l'Arc et desservant plusieurs artifices avant de se séparer en trois branches. Les deux bras d'amont se jetaient dans l'Arc alors que le bras d'aval continuait à l'ouest pour se terminer près du lieu-dit « Glaires du Vallon ». Le bras est de l'embranchement original atteignait rapidement le Ruisseau d'Avérole. Il mesurait environ 880m. [id24] N°22. Appelé « Ruisseau de la Chaudanne » sur le PCF, mais il s'agit de toute évidence d'un canal d'amenée et d'arrosage. Ce cours d'eau semble partir d'une source du secteur sud-est de Bessans chef-lieu. Il se dirigeait vers le sud-ouest, traversant le lieu-dit « la Chaudanne » et ses prairies de fauche, desservait un artifice, puis se divisait en trois branches au lieu-dit « Derrière les Vernaies ». La branche centrale se jetait dans l'Arc en amont de sa confluence avec le Ruisseau de Ribon. D'après des experts locaux, il s'appelait le « Canal du Queneuil ». Il faisait environ 715m de longueur. [id50] Canaux d'alpage N°1 à 4. Quatre canaux partaient des hauteurs des bras séparés de la rive gauche du Ruisseau du Re Bruyant, tous les quatre coulant approximativement vers le sud-sud-est. Ces canaux N°2 [id53, d'environ 2050m] et N°4 [id56, d'environ 1350m], se dirigeaient respectivement vers les lieux dits « la Mottuaz » et « la Mottuaz d'Amont ». Probablement canaux d'alpage, d'après A. Chazal et d'autres experts locaux, le N° 3 [id55, faisant environ 830m de long] est désigné le « Canal du Plan des Bennes » et le N°4, mesurant environ 1120m, est nommé le « Canal des Favres ». [N°1 = id54,] N°5. Un cinquième canal, relativement court et sans nom sur le PCF, mais appelé « Canal du Plan des Moulins » selon A. Chazal, quittait le Ruisseau de l'Ouillarse à l'est du Re Bruyant et se dirigeait vers le sud-ouest. Il était probablement un canal d'alpage. [id52] N°6 à 9. Deux canaux (N°s 6 et 7) partaient de différents bras de la rive droite du Ruisseau du Re Bruyant pour se diriger vers le sud-sud-ouest. Ils sont tous les deux désignés « canal d'arrosage » sur le PCF. La relation entre ces deux canaux et les cours d'eau proches, paraissant naturels, est complexe, avec des liens entre les deux. Peut-être sont-ce là des déchargeurs ? Un petit canal (N°8) ou bras de N°7, se séparait de ce dernier pour arriver vers le lieu-dit « le Grand Plan ». Plusieurs experts locaux dénommaient le N°7 « le Grand Canal » ou « le Grand Bialleï ». Le cours d'eau N°9, interprété comme un canal, est nommé à la fois Ruisseau de St. Antoine et « canal d'arrosage » sur le PCF. Il quittait le Ruisseau du Grand Fond (potentiellement aménagé par l'homme aussi), se dirigeant vers l'ouest-sud-ouest et le lieu-dit « Au Lau ». Il se peut que ce secteur de la commune ait comporté aussi bien des canaux d'alpage que des canaux d'arrosage. [N°6 = id5, faisait environ 56 800m; N°7 = id3 faisait 1360m environ ; N°8 = id4 faisait environ 460m ; N°9 = id2 faisait 720m environ] N°12 et 13. Le Ruisseau du Vallon, situé dans le secteur nord de la commune, semble alimenter au moins deux canaux : le N°13 partant de la rive droite près du lieu-dit « l'Envers » pour se terminer environ 520m à l'est vers le lieu-dit « l'Ondelière » ; le N°12, partant de la rive gauche du même ruisseau peu en aval du premier et mesurant environ 350m. C'étaient probablement des canaux d'alpage. Discussion Il n'a pas été facile de distinguer les différents types de canaux à Bessans, surtout dans les zones plus élevées. Nous avons été confrontés à cette difficulté, là où des canaux étaient alloués à plusieurs fonctions. D'après une consultation du cadastre de Bessans de 1694 par F. Tracq (communication personnelle), les canaux passant « Au clouz du Paradis » à la Goulaz, « Au Grand Mollard soit à les Bennes (Mottuaz) », « Aux Parts (Parses) montagne de la Buffaz », et à l' « Outraverole d'aval » étaient des canaux « communs ». Nous n'en connaissons pas plus sur cette citation énigmatique ; par exemple, à quelle communauté appartenaient-ils ? La paroisse ou la commune de Bessans ou la communauté des utilisateurs ? Il est probable que d'autres noms propres aient existé (et existent encore) à Bessans pour des canaux que nous avons désignés « sans nom ». Ci-dessous se trouve la liste des noms que nous avons inventoriés à travers la lecture de plusieurs textes et à la suite d'une correspondance avec A. Chazal et F. Tracq : Canal du Vallon Le Petit Bialleill Le Canal du Ré Djanègn La Bialère communale du Carreley (voir N°21 ci-dessus) Le Canal ou Bialère du Lac La Biallei de la Gran Coha Le Canal des Sables Bailleï de la Gran Coha à Andagne Ce traitement a profité des indications fournies par Francis Tracq et Annie Chazal (et indirectement par F. Personnaz, Jean-Louis Pautas et Alain Filliol), Fabrice Personnaz et Lucien Vincendet, que nous remercions vivement pour leur collaboration. 57 58 Bonneval-sur-Arc Nous avons identifié cinq canaux, ce qui donne une longueur totale d'environ 14,1 km sur la commune de Bonneval-sur-Arc ; quatre portaient des noms propres. Les experts locaux nous en ont décrit une dizaine d'autres, mais nous n'avons pas été suffisamment confiants dans leur localisation pour les reporter sur notre carte. La partie « Discussion » ci-dessous résumera les informations partielles actuellement en notre possession. Canaux d'arrosage N°1. Le « Canal de l'Ecot », désigné comme « canal » sur le Premier Cadastre Français (PCF, 1895), part du Ruisseau de la Mandettaz et se dirige vers le sud. Il traverse pâturages et prairies de fauche avant de parcourir le secteur est du village de l'Ecot où il alimente des maisons en eau potable ainsi que plusieurs abreuvoirs. Il se jette dans l'Arc. Il est toujours en eau et entretenu. Il mesure environ 1240m. [id5] Canaux d'amenée N°2. Un canal d'amenée quittait la rive droite du Ruisseau de la Lenta à 200m environ en amont de sa confluence avec l'Arc, et à quelques centaines de mètres du chef-lieu de Bonneval. Il est appelé « Canal des Moulins » sur le PCF (1895). Il alimentait au moins six artifices avant de se jeter dans l'Arc. [id1] N°3. Marqué « canal » sur le PCF, ce canal d'amenée quittait l'Arc au sud de la Chapelle Ste. Claire, parcourant environ 230m avant de se jeter dans l'Arc. Il desservait aux moins deux moulins. [id2] Canaux d'alpage N°4. Le « Canal des Roches », ainsi désigné sur le PCF, prenait sa source sur le bras sud du Ruisseau des Roches. Il coulait sur environ 460m avant de se terminer au lieu-dit « les Roches », à proximité des chalets d'alpage. Après avoir desservi l'alpage, selon des témoignages locaux, il retournait au Ruisseau des Roches plus en aval, parcourant environ 900m. [id4] N°5. Le « Canal des Druges », appelé ainsi sur le PCF, sortait de la rive droite d'un affluent ramifié du Ruisseau du Grand Fond, pour se terminer au lieu-dit « les Druges » où se trouvent des bâtiments. Plus long que le canal précédent (N°4), il mesurait environ 1100m. [id3] Discussion Nous avons recueilli des informations indiquant l'existence d'autres canaux à Bonneval-surtout des canaux d'alpage ayant probablement aussi une fonction d'arrosage des prairies de fauche situées autour des chalets d'alpage. A cause de son altitude moyenne dépassant les 2700m, les prairies de fauche de cette commune (comme à Bessans et à Termignon) se trouvaient majoritairement dans cette zone d'alpage, en contraste avec la plupart des autres communes du massif, plus amplement fournies en zones de prés et de montagnettes à plus basse altitude. La présence de canaux ou de rigoles d'alpage à haute altitude était typique de la Vanoise ; nous avons estimé leur nombre à plus de mille (nous avons dénombré largement plus de 50 groupes de 59 maisons d'alpage sur Bonneval). Cette double fonction typique des canaux de haute altitude- alpage et arrosage- en Haute Maurienne complique leur classification. Les canaux d'altitude les mieux répertoriés, variant entre 250m et 1400m de long, se trouvaient sur la rive droite du Ruisseau du Plan Sec (N°6 ; id51 et id 52), sur la rive droite du Ruisseau du Montet (N°7 ; id53), dans les hauteurs de la rive gauche du Ruisseau de la Mandettaz (N°8 ; ids54, 55, 56, 57, 58, 59) et dans les hauteurs de la rive gauche du Ruisseau de la Lenta (N°9 ; ids60, 61). Nous avons également relevé un petit canal d'alpage partant de la rive droite du Ruisseau du Plan des Tufs, allant aux Chalets du Plan des Tufs (N°10). Nos moyens ne nous ont pas permis d'inventorier tous ces canaux, ni sur Bonneval ni ailleurs en Vanoise ; la plupart d'entre eux sont maintenant abandonnés. Gardelle dans son livre sur les alpages de Savoie (1999 : 341) parle d'une « montagne de haute altitude où les habitants fauchent et inalpent : la Mandaz à 2483m. Remarquer les rigoles d'irrigation ». En discutant avec les experts locaux, nous avons recueilli les noms ci-dessous ; nous ne sommes pas parvenus à les attribuer aux canaux répertoriés : Canal de la Mandettaz Canal du Pied Montet Canal de la Duis (Amont et Aval) Canal du Montet Canal des Léchans Canal de Plan Sec Canal de la Lenta (sur la Pisse) Les experts nous ont parlé également de la présence des plusieurs canaux ou rigoles dans les secteurs des Ruisseaux des Carro, des Fonds, et du Plan de la Montagne. Les délibérations du Conseil Municipal de 1996 (AC, 31 mai 1996) parlent d'un projet de réfection et de curage « des Canaux de la Tronna, de la Mandettaz, de Fontaine Chaude et du Ruisseau du Pré du Lac ». Notre traitement de Bonneval-sur-Arc a profité de l'aide de Jean-Auguste Blanc et surtout de Raoul Balmot, que nous remercions vivement pour leur collaboration. 60 61 Bramans Nous avons inventorié 18 canaux pour la commune de Bramans, la plupart d'entre eux nommés. Au total, ils parcouraient environ 28 km. D'importants réseaux ramifiés de canaux d'arrosage ont été répertoriés, surtout dans les grandes zones relativement peu pentues de la partie inférieure de la commune. Plusieurs sections des canaux principaux portaient des noms propres à Bramans et ce phénomène, trouvé également en Tarentaise (surtout à Séez), a compliqué l'interprétation de la dénomination des canaux à Bramans. C'est surtout près des lieux dits « St. Pierre d'Extravache » et « le Cerney », autour et en amont du chef-lieu sur la rive gauche de l'Ambin, et sur la rive droite à proximité des lieux dits « les Glières », « le Plan de l'Eglise », et « les Sablonniers » que cette complexité est la plus flagrante. Plusieurs canaux d'amenée existaient sur Bramans : l'un d'entre eux, longeant la rive gauche de l'Arc sur plus d'un kilomètre, venait de la commune de SollièresSardières. Nombre de canaux d'alpage et d'arrosage se retrouvaient dans le secteur du village du Planay et des Ruisseaux d'Ambin, de la Savine et d'Etache. Puisque dans ce secteur se chevauchent les zones d'habitation permanente, de montagnette et d'alpage, on employait l'eau pour irriguer les prairies de fauche et pour fournir l'eau potable aux habitants et aux abreuvoirs. La commune a monté une exposition sur ses canaux en 1986 ; elle nous a aidé à différencier ces multiples usages de l'eau dans une zone géographique relativement restreinte. Canaux d'arrosage N°1. Bien qu'il ne soit pas nommé sur le Premier Cadastre Français (PCF, 1894), le « Canal de la Scie » possédait plusieurs bras et ramifications et comptait parmi les plus importants canaux de la commune. Avec ses deux prises sur la rive droite des gorges du Ruisseau d'Ambin et pourvu de plusieurs déchargeurs, il irriguait une zone triangulaire relativement plate entre l'Ambin et l'Arc au nord-est du chef-lieu de Bramans. Il fournissait un gros débit pour mouvoir aussi une scierie et plusieurs moulins à blé. Son bras oriental se ramifiait sur des prés et des pâturages aux lieux dits « les Sablonniers » et « le Verney » (voir Figure 13 d'un aqueduc en bois), (ce qui explique sans doute le nom « Canal des Sablonniers » trouvé dans plusieurs documents d'archives), avant de se jeter dans l'Arc. [id16 = 1000m environ ; id17 = environ 270m ; id52 = 1300m environ] N°2 et 3. Le « Canal d'Irrigation du Plan des Colombières » (N°2 = id1), ainsi désigné dans le PCF, partait de la rive droite du Ruisseau des Bramanettes (partie supérieure du Ruisseau St. Bernard ? à proximité du lieu-dit « la Bramanette ») vers 2270m d'altitude. Il parcourait environ 3500m. Il était équipé à sa prise de chenaux en bois pour sortir de la ravine du ruisseau, puis il était séparé presque immédiatement en deux canaux coulant en parallèle. Le bras aval est dénommé « Canal d'Irrigation du Plan » (N°3 = id2), faisant environ 3230m. Les deux canaux principaux et leurs canaux secondaires, appelés respectivement « Canal des Bramanettes », « Canal du Plan » (ou « des Plans ») et « Canal du Fond des Plans » par des experts locaux, continuaient vers le nord avant de virer vers l'ouest-nord-ouest. Ensuite ils se dirigeaient vers le lieu-dit « le Plan des Colombières avant de faire un grand « S » vers le nord, là où le canal occidental est désigné « Canal des Combes » sur le PCF (id19). Les deux bras se rejoignaient et passaient par le lieu-dit « St. Pierre d'Extravache ». Il se séparait de nouveau en deux, le bras occidental se dirigeant au Ruisseau de l'Ambin et le bras oriental se terminant à proximité du lieu-dit « le Cerney ». Ce dernier, faisant environ 1230m, a été nommé « Canal de Cerney » par deux experts locaux. [id51] 62 N°4. Désignés « Canal d'Irrigation du Clote » sur le PCF, deux canaux partaient en parallèle de la rive droite du Ruisseau de St. Bernard en aval des prises des canaux N° 2 et 3. Ils étaient connectés par endroits et le canal occidental était pourvu d'un déchargeur. Ils se dirigeaient au nord, côte à côte, pendant plus de 2 km avant que le canal oriental (id7) partait au sud-est pour se terminer près des lieux dits « la Clote » et « Plan Clote ». Il faisait environ 2400m. Le canal occidental (id6), mesurant environ 2900m, continuait sur plusieurs centaines de mètres avant d'approcher de nouveau du Ruisseau de St. Bernard. N°5. Le « Canal d'Irrigation St. Bernard » quittait la rive gauche du Ruisseau de St. Bernard en aval du Pont St. Bernard, se dirigeant vers le nord-ouest. Il arrosait les prés en amont du chef-lieu de Bramans (appelé « Village de la Comba » sur l'Atlas de Marchetti ?) où il semblait arroser des jardins du village et alimenter plusieurs bassins et abreuvoirs. Il faisait environ 725m. [id9] N°6. Le « Canal d'Irrigation de Plan Pommier » était un canal secondaire qui quittait la rive gauche du Canal d'Irrigation St. Bernard (N°5), permettant l'irrigation des prés encore plus en amont de Bramans chef-lieu et probablement aussi les « triffouillières ». De toute évidence, il se terminait à proximité du lieu-dit Plan Pommier, faisant environ 620m de long. [id10] N°7. Trois canaux (ou rigoles) courts partaient de la rive gauche du Ruisseau St. Bernard en aval de la prise du Canal St. Bernard. Ils irriguaient des prés et jardins entre ce ruisseau et le chef-lieu. Ils sont visibles mais pas nommés sur le PCF. L'un d'entre eux était désigné « Canal d'Irrigation d'Outre le Rieu » sur un plan daté de janvier 1925 (ADS 84S8). Il faisait environ 250m. [id20] N°8. Le « Canal d'Irrigation des Avanières ». Le PCF attribue ce nom à deux canaux relativement courts qui partaient de la rive gauche du Ruisseau de l'Ambin en amont de sa confluence avec l'Arc. Au moins l'un de ces deux canaux est visible sur l'Atlas de Marchetti (1781-1782). Il mesurait environ 350m. [id8] Canaux d'amenée N°9. Le « Canal du Moulin », débutait dans la commune de Sollières-Sardières sur la rive gauche de l'Arc, près de la limite avec Bramans dans le secteur nord de la commune. Il longeait plus ou moins l'Arc pour arriver près du village de Verney où il desservait au moins deux moulins avant de se jeter de nouveau dans l'Arc. Entre la limite communale et le Verney, le canal était alimenté en amont par plusieurs sources, et en aval il était connecté à l'Arc à plusieurs endroits par de petits canaux ou rigoles qui pouvaient tenir lieu de déchargeurs ou pour arroser des « triffouillières ». La partie alimentant les moulins s'appelait la biallèra. Le « Canal du Moulin » est bien visible sur l'Atlas de Marchetti (1781-82). Les noms « Canal du Grand Creut », « Bialière du Grand Creut », le « Canal du Verney » (voir Figure 13), la « Biallière dite du Verney » et « le Canal des Moulins du Verney » sont associés aussi à ce canal qui faisait environ 1000m de long. [id18] 63 Figure 13 : Canal du Verney, aqueduc en bois, Bramans, 5/5/80 (cliché B. Meilleur) Canaux d'alpage N°10. Le « Canal d'Irrigation de la Montagnette » partait de la rive gauche du Ruisseau des Bramanettes peu en aval des prises du « Canal d'Irrigation du Clote » (N°4 ci-dessus). Il traversait le Ruisseau des Archeurs pour se terminer au nord-ouest près du chalet et lieu-dit « la Montagnette » à environ 2000m d'altitude. Il faisait environ 1700m. [id4] N°11. Désigné comme « Canal d'irrigation » sur le PCF, ce cours d'eau semblait émerger d'une source près du lieu-dit « le Bahut » dans un secteur d'alpages sur la rive droite du Ruisseau d'Etache. Il coulait vers l'ouest où il croisait le Ruisseau du Bahut puis vers le nord sur environ 1 km avant de se terminer à proximité du lieu-dit « Pré Clément ». Les experts locaux se souviennent de ce canal mais insistent sur le fait qu'il était déjà abandonné avant leur naissance. Il faisait environ 960m. [id50] N°12et13. Deux canaux, désignés chacun comme « canal » sur le PCF, partaient de la rive gauche du Ruisseau de l'Etache en amont du village du Planay. On appelait celui d'amont et à l'ouest « Canal de la Thuile » (id12) alors que celui à l'est et en aval était nommé « Canal de la Tourna » (id11) par rapport aux lieux dits qu'ils desservaient respectivement. Le « Canal de la Thuile » faisait environ 560 m alors que le « Canal de la Tourna » en faisait à peu près 360 m. Selon un expert local, le « Canal de la Thuile » nécessitait l'emploi de « chenaux » en bois pour sa prise sur le ruisseau qui était enfoncé à cet endroit. Ces canaux avaient plusieurs usages, allant de l'irrigation des prés, à la fourniture de l'eau pour le bétail et de l'eau potable des montagnettes et chalets d'alpage. 64 N°14. Le « Canal de l'Etache » quittait la rive droite du Ruisseau de l'Etache en aval des départs des « canaux de la Thuile et de la Tourna » (N°s12 et 13). Il se dirigeait vers le village du Planay, arrosant les prés aux lieux dits « Planay Dessus » et « Dessous ». Il alimentait aussi un gros réservoirabreuvoir pour le bétail et partait ensuite par des canaux secondaires irriguant les prés du secteur. Il faisait environ 800m. [id21] N°15. Non nommé sur le PCF, ce canal partait d'un affluent à l'est du Ruisseau de Savine vers 2300m d'altitude. Il passait à proximité de plusieurs chalets d'alpage sur la rive droite du ruisseau pour parcourir environ 660m avant de se jeter dans un autre affluent à l'ouest et en aval du même ruisseau. Deux experts locaux l'appelaient « Canal de la Savine ». [id14] N°16. Un canal privé avec prise sur la rive droite du Ruisseau de la Combe d'Ambin (aujourd'hui Ruisseau de l'Ambin) longeait ce dernier avant de se terminer à proximité du lieu-dit « la Fesse du Bas », après avoir traversé le Ruisseau de la Fesse du Haut. Il desservait plusieurs bâtiments. Une experte locale l'appelait le « Canal de la Fesse d'en Haut ». Il mesurait environ 1200m. [id15] N°17. Le « Canal de Casse Blanche » ou « Canal d'Ambin (ou de l'Ambin) » quittait la rive gauche du Ruisseau de l'Ambin à peu près au niveau du « Canal de la Fesse d'en Haut » (N°16 ci-dessus). Il passait à proximité du lieu-dit « le Suffet », possédait un déchargeur et se terminait près du Planay où il arrosait les prairies de fauche à l'est du village. Il faisait 1700m environ. [id5] N°18. Un canal sans nom a été répertorié partant à proximité de lieu-dit « les Cugnettes » sur la rive gauche du Ruisseau des Archettes, un affluent du Ruisseau de Laméranche, ce dernier étant un affluent du Torrent de la Combe d'Ambin. Pourvu d'un déchargeur visible sur la carte cadastrale, il se terminait à proximité et en amont du lieu-dit « le Champ », mesurant 860m environ. [id53] Ce traitement a bénéficié des témoignages de Raymond Blanc, Marcel Favre, Raymond et Camille Favre (Etache) et de Simone et Henri Valloire. 65 66 Lanslebourg-Mont-Cenis En dépit de l'existence de documents d'archives autorisant le détournement et l'utilisation des eaux naturelles par les habitants de Lanslebourg (Cousin-Woysek 2005 :128, Truchet 1894 :83), et de l'observation de l'irrigation par Philippe Arbos au début du 20e siècle (1922 :192), nous n'avons pas répertorié beaucoup de canaux d'arrosage à Lanslebourg. Un expert local attribuait cette apparente rareté à trois causes : la Lombarde, vent du sud qui conféré à la commune une humidité atmosphérique satisfaisante, la difficulté de sortir de l'eau des cours d'eau souvent ravinés et la présence d'une immense zone de prairies de fauche au Col de Mont Cenis qui rendait inutile l'équipement des zones inférieures avec un important réseau de canaux d'arrosage. Il semble y avoir eu cependant une distribution d'eau par des rigoles issues des ruisseaux pour des besoins périodiques. Cinq canaux sont inventoriés sur Lanslebourg, ce qui donne une longueur totale de 2550m. Quatre sont visibles sur le Premier Cadastre Français (PCF, 1888) ; le cinquième apparaît sur l'Atlas de Marchetti (1781-82). Aucun ne porte de nom propre. Nous n'avons pas trouvé trace du canal signalé par Morel (2005) à proximité du Ruisseau du Court sur les hauteurs de la commune. Canaux d'arrosage N°1. Un « canal d'arrosage » visible sur le PCF partait de la rive droite du Ruisseau de la Madelaine. Il se dirigeait vers le nord-est sur environ 400m avant de se jeter dans le Ruisseau de la Ramasse. [id4] Canaux d'amenée N°2. Avec sa prise sur la rive droite de l'Arc à proximité du lieu-dit « les Champs », un canal d'amenée d'environ 30m semblait alimenter deux bâtiments ou artifices à la limite communale avec Lanslevillard. [id3] N°3. Partant de la rive droite de l'Arc près du Pont de la Ramasse, un canal d'amenée se dirigeait vers l'ouest en longeant l'Arc à proximité et à l'ouest de Lanslebourg chef-lieu, alimentant au moins cinq artifices sur le secteur « Plan de la France ». Il faisait environ 600m et était pourvu d'un déchargeur. [id2] N°4 Visible sur l'Atlas de Marchetti mais non sur le PCF, ce canal quittait la rive gauche de l'Arc et longeait la rivière sur une courte distance, se divisait et desservait le Moulin de la Chenevre (probablement un battoir à chanvre) avant de se jeter dans l'Arc. Il faisait environ 160m. [id50] Canaux d'alpage N°5. Avec sa prise sur la rive gauche du Ruisseau de Cléry (partie amont du Ruisseau de la Madelaine au niveau de la Combe de Cléry ?), ce canal faisant environ 1100m desservait le Chalet de Montfroid. [id1] Nous remercions Monsieur le Maire Jean-Pierre Jorcin et Justin Damé pour leur collaboration. 67 68 Lanslevillard Comme pour Lanslebourg, les propos des experts locaux et quelques documents d'archives semblent indiquer une présence plus importante de canaux sur cette commune que ce que nous avons découvert. Il n'y a qu'un seul canal d'arrosage désigné sur le Premier Cadastre Français (PCF, 1895). Toutefois, il est difficile d'imaginer que cette commune ne soit pas équipée d'au moins quelques artifices. Un document daté de novembre 1883 parle en effet d'un moulin, d'une scierie et d'un lavoir (ADS 84S19) situés à proximité de l'Arc. Nous n'avons pas pu localiser la prise du canal. Le PCF ne signale aucun canal d'alpage et les experts locaux ne les ont pas évoqués. Nous avons retrouvé environ 2750m de canaux sur Lanslevillard. Canaux d'arrosage N°1. Le « Canal de la Côte Plaine », désigné comme tel sur le PCF, partait du Ruisseau de Burel à proximité du lieu-dit « Plan Fouirant ». Il bifurque en deux bras au lieu-dit « la Côte Plaine », le bras ouest [id1] passant à proximité du lieu-dit « le Mas » là où il approche (ou rejoint ?) le Ruisseau de Burel. Toujours en partie en fonction, il fait environ 1160m (voir Figure 14). Le bras est [id2], mesurant 620m environ, se dirige vers le lieu-dit « Prés Clos ». Figure 14 : Canal de la Côte Plaine, Lanslevillard, 16/5/12 (cliché B. Meilleur) N°2. Le « Canal à Pré du Bois » sortait de la rive droite du Ruisseau de l'Arcelle Neuve à proximité du lieu-dit « Mollard Bergin ». Il parcourait environ 560m avant de se jeter dans le même ruisseau. Il n'est pas signalé sur le PCF. [id50] N°3. La prise du « Canal à Pré d'Obère » se trouvait en aval du « Canal à Pré du Bois » (N°2 cidessus) sur la rive droite du Ruisseau de l'Arcelle Neuve. Il n'est pas visible sur le PCF. Il faisait 420m. [id51] 69 Discussion D'autres canaux sans noms ont été signalés sur cette commune, mais nous n'avons pas pu les localiser. Ce traitement a profité de la collaboration de Madame le Maire Josette Filliol et d'André Bernard. 70 71 Modane Cinq canaux ont été identifiés sur la commune de Modane, principalement par le biais du Premier Cadastre Français (PCF, 1925). Aucun ne porte de nom propre et un seul est désigné génériquement sur le PCF comme « ancien canal d'arrosage ». Des canaux d'amenée desservant plusieurs artifices se trouvaient sur la commune, mais déjà dans les années 1880 certaines de ces « usines » commençaient à être modifiées pour produire de l'électricité pour la ville de Modane et pour la fabrication des produits demandés par l'industrie naissante dans le secteur (ADS 42SPC27). Les canaux inventoriés sur Modane donnaient une longueur totale d'environ 3865m. Canaux d'arrosage N°1. La prise de ce canal (non-nommé sur le PCF) se situait vers 1800m à proximité du lieu-dit « le Polset », sur la rive gauche du Ruisseau de Polset (appelé Ruisseau de Saint-Bernard sur les cartes modernes). Il descendait au sud puis il était croisé par un affluent du Ruisseau de Polset venant de l'est et qui servait probablement à augmenter ou à réduire le débit du canal en cas de besoin. Il passait ensuite au milieu des prairies de fauche et de plusieurs bâtiments. Il continuait vers le sud en parallèle avec le Ruisseau de Polset pour atteindre le lieu-dit « les Charmettes » où il se jetait dans un canal court venant du Ruisseau de Polset à l'ouest. Ainsi augmenté par deux prises, ce canal disparaissait au sud du lieu-dit « les Charmettes », après avoir parcouru environ 1900m. [id2] N°2. Un second canal d'arrosage, plus court que le N°1, de 350m environ, quittait la rive droite du Ruisseau de Saint-Bernard à proximité du lieu-dit « Seytte » pour se perdre dans les prés à proximité du lieu-dit « Damont la Ville ». [id3] N°3. Un « ancien canal d'arrosage », ainsi dénommé sur le PCF, partait de la rive gauche du Ruisseau St. Antoine en aval du Pont St. Antoine et se dirigeait vers l'ouest et la ligne du chemin de fer et l'Arc. Il faisait environ 340m de long. C'est peut-être le même canal qui, visible sur l'Atlas de Marchetti, se terminait près de l'Eglise Ste. Barbe. [id8] Canaux d'amenée N°4. Deux canaux d'amenée, l'un ne faisant que 60m de long [id6] et alimentant un réservoir, partaient de la rive gauche du Ruisseau Saint-André (Ruisseau St. Bernard sur les cartes modernes ?) à l'est du village de l'Ourtraz. Le plus long [id5], mesurant 250m, alimentait plusieurs bâtiments ou artifices dans ce village ainsi probablement que la Caserne de Loutraz avant de se jeter dans l'Arc. N°5. Selon le PCF, un canal d'amenée partait de la rive droite du Ruisseau Rieu Roux à proximité du lieu-dit « le Crozet ». Il traversait le lieu-dit « les Moulins », parcourant environ 400m, avant de se jeter dans l'Arc. Pourvu d'un déchargeur, il desservait au moins cinq artifices. Deux canaux sont visibles à cet endroit sur l'Atlas de Marchetti partant du Ruisseau de la Crosa et Riourou. Celui de l'est ne semblait pas alimenter d'artifice, alors que celui de l'ouest fournissait de l'eau à neuf d'entre eux, dont une « scie » et « le Moulin à la Crosa », avant de se jeter dans l'Arc. [id4] Nous remercions Monsieur le Maire Jean-Claude Raffin, Marc Bernard, Hélène Chiapusso, Augusta Eard, et Georges Nuer pour leur collaboration au projet. 72 73 Saint-André La commune de Saint-André possédait trois longs canaux. Dans la section « Discussion » nous présenterons quelques informations sur trois autres canaux potentiels pour lesquels nos renseignements sont incomplets. Nous avons inventorié un total de 15,720 km de canaux pour Saint-André. Canaux d'arrosage N°1. Le « Béa nua ou Bé nua » (Bief Nua sur le Premier Cadastre Français, PCF, 1926) est principalement un canal d'arrosage, d'environ 6 km de long, qui transite, pour une partie substantielle, dans la zone centrale de la commune. Il part de la rive droite du Ruisseau de Polset (aujourd'hui le Ruisseau St. Bernard) vers 1830m en amont du lieu-dit « Planay », à la limite communale avec Modane. Il se dirige vers le sud, traversant des prairies de fauche à proximité de plusieurs montagnettes, puis il vire à l'ouest et au sud avant de devenir ou de se jeter dans le Ruisseau St. Claude, affluent de l'Arc. D'après Morel (2005) il était en eau en 2005 et au moins une partie l'était en 2012 (voir Figures 15 et 16). Il est équipé aujourd'hui dans sa partie centrale d'une « pierre de partage » (voir Figure 5, p. 20) qui fait bifurquer l'eau vers le lieu-dit « Montruard ». Il est signalé sur la Carte de Randonnée IGN 3534 OT mais sur cette carte se perd au nord-est de Montruard. [id2] Figures 15 et 16 : Béa nua, traversant la forêt à gauche, bifurcation à droite, St. André, 8/6/12 (clichés J. Villette) N°2. Un « canal », ainsi désigné sur le PCF, partait en aval du « Béa Nua » (N°1 ci-dessus) de la rive droite du Ruisseau de Polset en amont du « Ruisseau (ou Canal) de la Scie » (N°3 ci-dessous). Son tracé énigmatique semble se terminer à proximité du lieu-dit « Planay ». Faisant environ 1 km de long, il était appelé le « Bief Corniel » par deux experts locaux. [id51] 74 N°3. Un troisième canal, faisant environ 4500m de long et nommé« Ruisseau de la Scie » sur le PCF et sur la Carte d'Etat-major (1902-03), quittait le Ruisseau de Polset peu en aval du « Bief Corniel » (N°2) vers 1760m d'altitude. Il coulait vers le sud-ouest (où il est appelé Ruisseau St. Bernard sur la Carte d'Etat-majorune erreur ?) pendant 3 ou 4 km avant de se jeter dans l'Arc. Dans sa partie centrale, on le trouvait passant à proximité de plusieurs bâtiments (montagnettes ?) et prairies de fauche. Son tracé inférieur est complexe. Le PCF montre une bifurcation en amont du chef-lieu de Saint-André, le bras est étant désigné Ruisseau de la Gorge et le bras ouest Ruisseau de Traversée. Ce dernier devient Ruisseau des Léchères puis Ruisseau des Moulins ; sur le PCF [id5] c'est le cours d'eau qui traversait le chef-lieu et se jetait dans l'Arc. Sur l'Atlas de Marchetti, le bras occidental est désigné « Bial de la Scie » (voir aussi ADS J1706 Saint-André, 1865) et en traversant Saint-André il alimentait au moins quatre artifices avant de rejoindre l'Arc. Le bras oriental semblait se jeter directement dans l'Arc (la bifurcation n'est pas visible sur cette carte). Il a été appelé « Canal (ou Ruisseau) de la Scie » par plusieurs experts locaux. Il faisait double office : canal d'arrosage et canal d'amenée. [id4] Discussion Il est probable qu'au moins trois autres canaux aient existé sur la commune de Saint-André. N°4. Notre tracé indique un cours d'eau désigné « Ruisseau des Moulins » sur le PCF. Son origine semble être une source près du lieu-dit « le Reclotet » dans le secteur sud-ouest de la commune. Il descendait vers le sud et de toute évidence il alimentait plusieurs artifices avant de passer à l'ouest du village « la Praz » puis de se jeter dans l'Arc. Plusieurs experts locaux ont indiqué qu'il était au moins en partie aménagé par l'homme et ils l'ont appelé « Canal des Moulins » ou Ruisseau des Moulins. Des documents d'archives font référence au « Ruisseau (ou Canal) des Moulins » ou au « Canal d'Arrosage de la Praz » (ADS 84S33, mars 1929). Il faisait 2100m environ. [id6] L'emplacement potentiel d'un cinquième canal, appelé peut-être « Canal de Mont Genièvre » (ou Mont Gièvreid50), a été signalé par plusieurs experts locaux, mais son tracé n'a pas pu être discerné clairement. Il est possible qu'il soit parti de la rive droite d'un affluent du Ruisseau de Polset en amont et à l'ouest du lieu-dit « Mont Genièvre », puis qu'il soit descendu jusqu'au lieu-dit « Plan de l'Ours ». Le cadastre actuel semble montrer le tracé de ce canal énigmatique. Il faisait peut-être 1 km de long. N°6. Un canal potentiel nous a été signalé par un expert local. D'après lui, c'était un petit canal issu d'une source appelée « la Fontaine Bénite » à proximité du lieu-dit « Fontaine Bénite » et il descendait au sud jusqu'au lieu-dit « le Col » ou potentiellement jusqu'au « Canal de la Scie ». Il l'appelait le « Canal de la Fontaine Bénite ». Un cours d'eau correspondant plus au moins à cette description se trouve sur le PCF. Nous remercions Jean Borrel, René Clappier, Anne Collaudin, Gaston Mollard, Maurice Mollard, André Romanaz, Jean Romanaz et le Père Paul Romanaz pour leurs témoignages. 75 76 Sollières-Sardières Nous avons répertorié neuf canaux pour Sollières-Sardières sur le Premier Cadastre Français (PCF, 1893) et nous en avons ajouté six autres à la suite de nos entretiens avec les experts de la commune, pour une longueur totale d'environ 10,6 km. Au moins un canal porte un nom propre sur le PCF et nous en avons ajouté quatre, suite à nos entretiens sur le terrain. Le PCF désigne deux canaux comme « canal d'irrigation », un comme « canal d'arrosage » et deux autres sont étiquetés « canal du moulin », ces derniers devenant des noms propres après addition d'un ou plusieurs des noms des moulins desservis. Ces derniers canaux sont « numérotés » sur le cadastre, indiquant probablement qu'ils sont propriété privée. Sollières-Sardières a subi beaucoup de changements dans ses ruisseaux et canaux suite aux dévastations des crues, des éboulements et aux aménagements apportés par EDF, ce qui a engendré plusieurs divergences entre les cartes anciennes et les cartes modernes, rendant leur traitement particulièrement ardu. Canaux d'arrosage N°1. Le « Canal de Muret » ou « Canal de la Croix de Muret » (voir Figure 17) selon plusieurs experts locaux, désigné sur le PCF comme « Canal d'irrigation », partait à proximité du lieu-dit « la Turraz », du Ruisseau de Villeneuve (appelé localement et sur le PCF « le Grand Ruisseau »). Il descendait vers le sud-est où il bifurquait, le bras est se ramifiant en plusieurs canaux secondaires en amont du village de Sardières, le bras sud descendant à proximité de la Croix de Muret où il se séparait de nouveau en deux. Une partie se dirigeait vers Sardières au nord-est pour se terminer près du lieu-dit « les Granges » et l'autre se dirigeait vers le sud-ouest où il s'arrêtait à proximité des lieux dits « le Plan » et « la Grande Teppe ». Il faisait environ 1860m de long entre sa prise et ses quatre branches [id50)], qui sont également digitalisées [id1, id2, id3, id4]. Figure 17 : Canal de Muret, Sollières-Sardières, 14/5/12 (cliché B. Meilleur) 77 N°2. Un canal ambigu partant de la rive droite de l'Arc à proximité des lieux dits « Plateau de Villeneuve » et « les Golailles » coulait d'abord en parallèle et à proximité de l'Arc. Il traversait ensuite le Ruisseau de Villeneuve en amont de sa confluence avec l'Arc. Il retournait à l'Arc à proximité du Pont du Châtel. Il ne semblait être ni canal d'arrosage ni canal d'amenée, bien qu'il soit équipé d'un déchargeur. En outre, un petit bâtiment existait à l'endroit où il se jetait dans l'Arc. D'après les experts locaux, il irriguait les « trifouillières » sur la rive droite de l'Arc. Il est visible sur le cadastre de 1936, où il est désigné « canal d'irrigation », et sur l'Atlas de Marchetti de 1782-83, qui laisse supposer qu'il arrosait des prairies de fauche à la fin de son parcours. Il faisait 455m environ. [id5] N°3. Cinq canaux de longueurs variables sur le PCF partaient de la rive droite du Ruisseau de Bonne Nuit. Seul l'avant dernier canal en aval et parmi les plus courts est désigné comme « canal d'irrigation », alors qu'ils sont tous désignés « canaux d'irrigation » sur le cadastre rénové de 19331975. Les experts locaux partagent l'opinion selon laquelle plusieurs canaux arrosaient les prés du secteur et que le canal le plus en amont desservait le lieu-dit et l'alpage du Mont, mais aucun nom propre n'a été retrouvé sur les cartes anciennes. L'Atlas de Marchetti montre peut-être la fin de l'un de ces canaux au nord-est du village de Sollières (village de l'Endroit). Il se peut que ces canaux aient fait partie de ceux mentionnés globalement pour Sollières-Sardières dans l'accord du partage des eaux du Ruisseau de Bonne Nuit avec la commune de Termignon en 1282 et encore en 1402 (Pérouse 1915 : 42 ; Leguay 1985 : 69). Ils mesuraient entre 60m et 300m de long. [id12, id13, id14] N°4. Bien qu'il ne soit visible ni sur le PCF ni sur la carte d'Etat-major, plusieurs experts de la commune ont parlé d'un canal appelé « Canal des Balmes » (voir Figure 18), partant de la rive gauche du Ruisseau de Merderel à proximité du lieu-dit « les Balmes ». Il arrosait des prairies de fauche. D'après leurs témoignages, il allait jusqu'au plateau de Chenantier, avec un embranchement qui descendait au lieu-dit « le Mulaney », mesurant environ 760m. [id40] Figure 18 : Canal des Balmes, "pòssan", tronc d'arbre évidé et fil de fer pour le suspendre, Sollières-Sardières, 7/6/12 (cliché J. Villette) N°5. Un petit canal est visible sur le PCF quittant la rive gauche du Torrent de Sollières Envers (Torrent de l'Envers sur le PCF, Ruisseau de Montfroid sur la carte d'Etat-major). Il bifurque à proximité de l'Oratoire de St. Marc pour irriguer les prairies de fauche à proximité du lieu-dit « le Genevrey ». Des experts locaux l'appelaient le « Canal de St. Marc ». [id51 = 215m environ ; id52 = 360m environ] N°6. Partant de la rive droite du Ruisseau de Sardières au lieu-dit « Au Moulin de Sardières », un canal désigné « Canal de Sardières » sur le PCF et « Canal de Champabert » par un expert local, 78 coulait en parallèle à son ruisseau d'origine avant de disparaître plusieurs centaines de mètres plus loin. D'après des experts locaux, il continuait vers le sud pour arroser les prairies de fauche et des « trifouillières » aux alentours du lieu-dit « Champabert », faisant 870m environ. [id53] N°11. Le « Canal de Genevray », d'après les experts locaux, partait de la rive gauche du Ruisseau de l'Envers en aval de la « Forêt du Saut ». Il n'est pas dénommé sur le PCF mais il est signalé sur le cadastre de 1936 comme « canal d'irrigation ». Il bifurque à proximité de l'embranchement du Chemin de Sollières-Envers à Bellecome sur le PCF, le bras nord longeant le chemin et arrosant le lieu-dit « le Genevray », la branche sud arrosant le lieu-dit « Villard-Moger ». Il faisait environ 610m. [id54] N°12. Le « Canal de la Geasse », nommé « Canal dite des Grandes Jasses » dans le rôle de 1895 (voir « Discussion » ci-dessous), est visible mais sans nom sur le PCF sur lequel il quittait la rive gauche du Ruisseau de Villeneuve en aval de « Canal du Moulin » (N°7 ci-dessous). Il partait vers le nord-est et les prés du lieu-dit « la Grande Geasse » où il se terminait en coude dans les broussailles à côté d'un petit cours d'eau désigné « canal » sur le cadastre de 1936. Il faisait environ 520m. [id10] N°13. Le « Canal dit des Mollies », cité dans le rôle de 1895 (voir « Discussion » ci-dessous), apparemment situé à proximité du « Canal dit des Grandes Jasses » d'après des témoignages locaux, a été confondu par au moins un expert local avec ce dernier. Nous ne sommes pas certains de l'emplacement ni même de la distinction entre ces deux canaux potentiels. Il semble avoir mesuré environ 460m. [id55] N°14. Trois canaux courts, appelés peut-être « Canal dit du Chemin », « Canal dit du Plateau de Villeneuve », et « Canal à gauche du chemin » (cités ainsi dans un rôle de 1895, voir ci-dessous), semblaient avoir été situés dans le secteur aval du Ruisseau de Villeneuve ; trois d'entre eux partaient de la rive droite et le dernier partait de la rive gauche. D'après des témoignages locaux, il se peut que le « Canal dit du Plateau de Villeneuve » ait été ramifié en trois canaux secondaires (« Canal dit Plateau au-dessous de Villeneuve », « 2e prise à droite » et « 3e prise à droite ») ; il a été signalé ainsi dans le rôle de 1895 cité ci-dessous. [canaux non-digitalisés] N°15. De toute évidence un canal d'une centaine de mètres partait de la rive droite du Ruisseau de Villeneuve en amont du « Canal du Moulin » (voir N°7 ci-dessus). C'était peut-être le canal appelé sur le rôle de 1895 (voir ci-dessous) le « 1e Canal dit du Pont ». Canaux d'amenée N°7. Désigné « Canal du Moulin » sur le PCF, un canal d'amenée quittait la rive gauche du Grand Ruisseau (Ruisseau de Villeneuve sur les cartes modernes) à proximité et en amont du lieu-dit « Au Moulin de Sardières ». Il alimentait un artifice et probablement arrosait les prés avoisinants avant de retourner au Grand Ruisseau. Il faisait environ 140m de long. [id9] N°8. Un second « Canal du Moulin », ainsi désigné sur le PCF, se branchait sur le même ruisseau en deux prises à l'ouest du Pont de l'Envers à proximité de Sollières-Endroit. Il est visible sur l'Atlas de Marchetti. Il alimentait plusieurs artifices en longeant l'Arc avant de se jeter dans l'Arc environ 1000m plus loin. Il est cité dans un terrier de Sollières-Sardières daté du 1570, où il est appelé « biallière » (AC Sollières-Sardières, Terrier de 1570, Archives Diocésaines de St. Jean de 79 Maurienne), et dans un deuxième document probablement daté des années 1670 (AC SollièresSardières, AD de St. Jean de Maurienne). [id6] N°9. Un troisième canal d'amenée, visible sur le PCF mais aujourd'hui disparu d'après les experts locaux, partait de la rive gauche du Ruisseau Blanc dans la partie centrale de la commune. Il avait la particularité de traverser le ruisseau et de passer sur sa rive droite avant d'arriver au village du Châtel puis de se jeter dans l'Arc sous le Pont du Châtel. Il faisait environ 300m. [id7] N°10. Un quatrième canal d'amenée, étiqueté « canal d'arrosage » sur le PCF, partait de la rive gauche de l'Arc à proximité du lieu-dit « Sous le Châtel ». Il longeait l'Arc sur plusieurs centaines de mètres avant d'entrer dans la commune de Bramans où il est désigné « Canal du Moulin » sur le PCF ou, selon des experts de Bramans, le « Canal du Verney » et le « Canal dit de Verney » (voir Bramans, canal N°9). Bien que sa vocation principale semble avoir été d'alimenter les artifices à proximité du Verney à Bramans, il est possible que l'eau ait été utilisée tout le long de son trajet pour arroser les prairies de fauche et peut-être des « triffouillières ». Il faisait au total environ 1500m de long. [sur Sollières-Sardières = id8, environ 350m ; sur Bramans voir id18, environ 1 km] Discussion Il est possible que deux cours d'eau aménagés soient partis du « Couloir de Rochers Blancs » et du « Couloir des Blanchis », pour être réunis en un seul canal dans la zone du « Bois communal » à l'est du Châtel. D'après le PCF, ce canal se dirigeait vers l'ouest et à proximité du lieu-dit « Champ Bouchard » il se partageait en deux branches, celle du nord semblait s'arrêter près du lieu-dit « les Blanches », celle du sud se jetant dans le Ruisseau du Repelein. Un document intitulé « Rôle d'arrosage des ruisseaux de Villeneuve et de Bonnenuit », daté de 18 juin 1895 (AC Sollières-Sardières), cite plusieurs canaux pour les secteurs de Villeneuve et de Bonnenuit. Avec l'aide d'experts locaux, nous avons tenté de lier ces noms aux tracés des canaux déjà identifiés. Nous avons réussi à établir plusieurs liens, mais il nous semble possible néanmoins que plusieurs des noms cités dans le document aient été inventés pour les besoins du rôle (ils sont géographiquement descriptifs). Est-ce que l'établissement d'un rôle écrit et une dénomination des canaux constituaient une nouvelle procédure à Sollières-Sardières, après l'annexion de la Savoie par la France en 1860 ? Nous reproduisons un sommaire de cette liste ci-dessous. Ruisseau de Villeneuve 1e Canal dit du Pont 2e Canal dit du Moulin 3e Canal dit des Grandes Jasses  1ère prise e 4 Canal dit des Mollies 5e Canal dit du Chemin 6e Canal dit du Plateau de Villeneuve 7e Canal à gauche du chemin 8e Canal dit Plateau au-dessous de Villeneuve  Canal (suite) 2e prise à droite  Canal (suite) 3e prise à droite  Canal (suite) prise à gauche 80 9e Canal prise de Champabert Canaux du Ruisseau de Bonnenuit 1ère Prise du Beaussac 2ème Prise Canal 3ème Prise ou Canal (Jacquemot et la Murraz)  Prise (suite) Prés Bernaz 4ème Prise (Pré Berger et Prés la Croix) 5ème Prise dite de Prés Bergers (sous le chemin) Le Fonder d'en bas (sous la route) Ce traitement a bénéficié d'une aide importante de Jean-François Dalix et de Bernard Pinaud ainsi que du soutien logistique de Monsieur le Maire Apollon Mestrallet. Les autres experts locaux consultés étaient Paul Dalix, Julien et Juliette Montaz et indirectement Janik Deléglise. 81 82 Termignon Notre traitement des canaux de Termignon, l'une des communes des plus étendues de France, a été rendu compliqué en raison d'une hétérogénéité de données et de sources. Le Premier Cadastre Français (PCF, 1895) semblait indiquer neuf canaux sur la commune, tous sans nom, les cartes d'Etat-major en montraient deux sans nom et l'Atlas de Marchetti indiquait un canal déjà apparent sur les deux premières cartes mais toujours sans nom. Les témoignages des experts locaux, de backgrounds différents, en évoquaient une demi-douzaine d'autres, sans qu'il existe une unanimité d'opinion sur leurs tracés et sur leurs noms. Les mentions de canaux dans les documents d'archives, peu nombreuses, livrent d'autres noms. Comme dans d'autres communes du fond de la vallée de l'Arc, la société traditionnelle termignonaise se partageait entre « gens de la montagne » et « gens de la plaine » (Meilleur 1985 : 16). L'une des conséquences de cette opposition faisait que c'étaient les « montagnards » qui connaissaient majoritairement le paysage agro-pastoral traditionnel dans le détail. Néanmoins, comme partout ailleurs en Vanoise, ce savoir était limité au secteur où chaque personne se trouvait en été, secteur d'alpage néanmoins très vaste. Ainsi, personne ne possédait et de loin, une vue d'ensemble du réseau d'irrigation coutumier. De plus, d'après Jail (1977 : 125), Termignon faisait partie des communes de la Haute Maurienne où « l'irrigation des alpages a été abandonnée la première », et cette évolution a sans doute eu elle aussi son effet sur le caractère des témoignages locaux. Par ailleurs, plusieurs anciens gardes du parc national de la Vanoise ont partagé avec nous leurs appréciations sur la localisation et les noms des canaux qu'ils apercevaient, lors de leurs déplacements sur le terrain. Il semble qu'ils aient pris l'habitude de baptiser certains canaux abandonnés avec des noms en rapport avec ceux des lieux dits situés à proximité ou avec d'autres points géographiques. Certains de ces noms ne sont pas reconnaissables par des personnes qui ont vécu toute leur vie à Termignon. De plus, au moment de la création de quelques « Syndicats d'arrosage » au début du 20e siècle, plusieurs noms de lieux dits semblent avoir été utilisés pour désigner les canaux. Pour cette raison, nous ne sommes pas en mesure d'établir l'authenticité des noms adoptés à cette époque. La disparité des sources et les difficultés rencontrées pour établir un inventaire commun des canaux ont rendu notre traitement moins satisfaisant que ce que nous aurions souhaité. Néanmoins, en combinant les données des différentes sources nous avons retenu 12 canaux parvenant au total d'environ 21,65 km de long. Canaux d'arrosage La différenciation entre canaux d'arrosage et canaux d'alpage-relativement facile ailleurs en Vanoise-a été difficile à Termignon où la fenaison se faisait en masse au-dessus de 2000m, à proximité des chalets d'alpage. L'eau canalisée pour les prairies de fauche d'altitude desservait aussi les chalets d'alpage en eau potable et les abreuvoirs. Ces canaux sont-ils alors des canaux d'arrosage ou des canaux d'alpage ? A Termignon et dans d'autres communes de la Haute Maurienne, cette distinction apparaît bien ténue. 83 N°1. Une prise d'eau sur la rive droite du Ruisseau de Fontabert vers 2400m, à l'ouest du lieu-dit « le Petit Vallon », est visible sur le PCF (1895). Elle est rejointe par un bras du même canal, venant de l'est, pour amener l'eau à proximité du lieu-dit « la Lingolaz », avant de se jeter dans le Ruisseau du Doron. Ce canal faisait environ 1900m. [id1] N°2-3. Un second et un troisième canal sont visibles dans le même secteur sur le PCF, partant de la rive gauche du Ruisseau de Fontabert. Le second partait à proximité du lieu-dit « le Grand Vallon » et le troisième partait plusieurs centaines de mètres plus haut, vers 2500 m. Après leur convergence, ils se séparaient et descendaient en parallèle vers les lieux dits « Plume Froide » et « Balme Froide ». Le deuxième canal faisait environ 1800m [id5] et le troisième à peu près 2800m. [id4] N°6. Deux prises se situaient sur la rive gauche du Ruisseau du Pisset sur le PCF, donnant naissance à des canaux mesurant environ 300m de long. Celui du haut [id19, faisant environ 300m] semblait se terminer dans les prairies de fauche à proximité, alors que celui du bas [id50, faisant environ 320m] rejoignait le Ruisseau du Pisset. N°9. Des experts locaux ont décrit un canal qui partait soit du Glacier de Roche Noire soit des hauteurs de la rive gauche du Ruisseau de Fontabert. Il passait par le Trou du Chaudron en amont du Plan du Lac et descendait à la Chavière à proximité de la Chapelle Ste. Marguerite. De toute évidence il arrosait les prairies de fauche et alimentait des abreuvoirs et des chalets d'alpage en eau potable. Il n'est visible ni sur le PCF, ni sur la carte d'Etat-major. Nous estimons sa longueur à 3900m. [id51] N°10. D'après plusieurs experts locaux, un canal d'irrigation partait du Ruisseau du Doron à proximité du lieu-dit « la Gorge Dessous » pour se diriger vers les lieux dits « la Fontanelle » et « la Traversaz », irriguant les prés et desservant plusieurs montagnettes. Il a été appelé « Canal de la Gorge » ou « Prise de la Gorge » par des experts locaux. Il n'est pas visible sur les vieilles cartes. Il faisait environ 800m. [id52] N°11. Un canal d'arrosage partait de la rive gauche du Ruisseau des Sallanches en aval du lieu-dit « le Villard » et son groupe de montagnettes. Il se dirigeait plus au moins en parallèle du Ruisseau du Doron vers l'aval et le sud, pour se terminer à proximité du lieu-dit « Les Quatre Granges ». Aucun nom n'a été cité par les experts pour ce canal et il n'est pas désigné sur les vieilles cartes. Un document créant un syndicat d'arrosage daté du 4 mars 1928 (ADS S914 Termignon) parle du « Canal d'arrosage des prairies Plan-Verney, Pré Carré et 4-Granges ». Il est possible qu'il fasse référence à ce canal. C'est peut-être une rigole issue de ce canal que Meilleur a prise en photo en août 1981 (voir Figure 19). Il faisait 1800m environ. [id53] N°12. D'après le PCF et un expert local, au lieu-dit « le Grand Pyx », plusieurs canaux d'arrosage partaient des deux rives du Ruisseau du Grand Pyx. Ils semblaient irriguer des prairies de fauche et alimenter des montagnettes. Ils mesuraient entre 120m et 400m environ. [id14, id15, id16, id17] 84 FigurFigure 19 : Canal des prairies Plan-Verney (?), Termignon, 4/8/81 (cliché B. Meilleur) Canaux d'amenée N° 4 et 5. Deux canaux d'amenée, l'un (N°4 = id9) de 900m environ et alimentant des jardins de Termignon, et l'autre (N°5 = id10) d'environ 500m alimentant au moins une scierie, se trouvaient sur les deux rives du Ruisseau du Doron à proximité et à l'amont du chef-lieu. Ils sont tous les deux visibles sur les trois cartes anciennes. Celui de la rive gauche-partagé en plusieurs branches-est encore en service mais dégradé, irrigant quelques jardins de Termignon. [id8 et id7] Canaux d'alpage N° 7 et 8. D'après le PCF, deux canaux se trouvaient sur les hauteurs de la rive gauche du Ruisseau de l'Ile à proximité du lieu-dit « l'Arpont ». Le N°7 [id12], mesurant environ 1600m, partait de la rive gauche du bras amont de ce ruisseau, tandis que le N°8 [id13], d'environ 1400m, avait pour origine deux sources situées en amont et à l'est du premier canal. Les deux canaux se rejoignaient après être passés à proximité de plusieurs bâtiments d'alpage. Après la jonction, le canal se jetait dans le Ruisseau de la Gorge, à moins qu'il ne devienne ce ruisseau. Discussion Deux sources indépendantes-des documents d'archives et d'anciens gardes du PNV-ont indiqué l'existence possible d'autres canaux partant de la rive gauche du Ruisseau de Bonnenuit à la limite communale avec Sollières-Sardières. Il n'existe qu'un canal (ou rigole) très court, visible sur le PCF, au lieu-dit « Chantelouve », sans destination apparente. Nous avons digitalisé d'autres petits canaux à partir du PCF. Ne portant pas de nom sur le PCF et n'ayant pas été cités par les informateurs, nous ne les avons pas inclus dans ce traitement. Comme pour Sollières-Sardières, un document daté de 1394 établissait à Termignon un partage dans « le droit d'utiliser l'eau du torrent de Bonnenuit pour l'arrosage de leur prairies » (Mouthon 2010 :144). Nous remercions Monsieur le Maire Rémi Zanatta, Louis Bantin, Joseph Mestrallet, Roger Richard et Germain Rosaz pour leur participation à notre recherche, ainsi que Jean-Louis Etiévant pour son aide logistique. 85 86 Villarodin-Bourget Nous avons identifié huit canaux sur Villarodin-Bourget pour une longueur totale d'environ 9 km. Le Premier Cadastre Français (PCF, 1927) montre six canaux-un est désigné par un nom propre, quatre ne portent aucun nom, et un autre est nommé « Bief du Moulin ». Un septième canal a été identifié avec l'aide des experts locaux qui l'ont indépendamment décrit en détail. Un huitième canal, localisé sur l'Atlas de Marchetti, a été abandonné fort probablement depuis longtemps. Aucun expert n'a évoqué sa présence. Nous présentons dans la section « Discussion » un sommaire de quatre canaux potentiels. N°1. Bien visible sur le PCF, le « Canal de la Boëra à l'Orgère » partait de la rive gauche du bras oriental (au lieu-dit « La Masse ») du Ruisseau de Provarel (Provaret sur les cartes modernes). « La Boëra » indique le lieu-dit de sa prise. Il coulait parallèlement au Ruisseau du Provarel jusqu'au lieudit « l'Orgère » où il arrosait les prairies de fauche puis de toute évidence s'arrêtait. Plusieurs experts du secteur ont confirmé ce nom ou, en raccourci, ont employé le nom « le Canal d'Orgère ». Il faisait environ 1450m de long. [id4] N°2. Ce canal d'arrosage quittait la rive droite du Ruisseau de Provarel vers 1800m et traversait le lieu-dit « Pierre Brune ». Il disparait sur le PCF après avoir parcouru 600m environ. Plusieurs experts, l'appelant « Canal de Pierre Brune », indiquent qu'il continuait jusqu'au lieu-dit « le Villaret » (= « le Vet ?), où il irriguait les prairies de fauche près de plusieurs montagnettes. Il faisait 460m environ. [id6] N°3. Ce canal partait de la rive gauche du Ruisseau de Provarel au nord-ouest du lieu-dit « l'Orgère ». Son tracé vers le sud puis vers l'est est ambigu sur le PCF et plusieurs experts du quartier indiquent qu'il passait au lieu-dit « Rimolard », irriguant les prés et alimentant les abreuvoirs. Il continuait ensuite jusqu'au Ruisseau du Rival, à l'est, où il servait à augmenter le débit du ruisseau en cas de besoin. On l'appelait le « Canal ou lo bial de Rimollard ». D'après le PCF il ne faisait que 860m [id5], mais selon les témoignages locaux il faisait environ 2400m. [id50] N°4. Un canal bien moins important que le précèdent partait de la rive gauche du Ruisseau du Rival à proximité de ce dernier, suivant les courbes de niveau en direction du lieu-dit « Chatalamia », une petite zone de montagnettes. Il irriguait les prairies de fauche et alimentait des abreuvoirs. Bien qu'il ne soit visible ni sur le PCF ni sur la Carte d'Etat-major, il a été dénommé « Canal de Chatalamia » par plusieurs experts, sans qu'il n'y ait eu d'unanimité ni sur la dénomination ni sur le tracé. Il faisait environ 300m. [id51] N°5. Un cours d'eau, désigné sur le PCF « Ruisseau du Villaret » dans sa partie supérieure et « Couloir des Combes » ou « Ruisseau des Combes » dans son secteur central par des experts, a été repéré comme naturel à première vue. Deux experts locaux signalaient ce ruisseau comme étant aménagé par l'homme, surtout dans ses parties centrale et inférieure. On appelait la section centrale le « Canal du Villaret aux Combes » ou le « Canal du Villaret » et la section en aval le « Canal du Verney », après ce lieu-dit d'Avrieux où il arrosait les prés avant de se jeter dans l'Arc (sur l'Atlas de Marchetti il s'arrêtait au Verney). Alors que la partie supérieure était souvent à sec, son débit augmentait en descendant et on canalisait cette partie de son parcours. D'après un document daté du 2 septembre 1809 (AC Villarodin-Bourget), qui parle du « canal qui conduit les eaux du Villaret aux jets (des) Combes », sa fonction n'était pas principalement l'arrosage mais plutôt le drainage de la pente afin d'éviter les glissements de terrain (voir Sainte-Foy-Tarentaise qui 87 a un système de drains similaire et encore plus important). Il était croisé par le « Canal du Nant » (N°6 ci-dessous), venant du Ruisseau du Nant sur la commune d'Avrieux. Il faisait environ 900m de long. [id7] N°6. Deux experts locaux ont décrit un canal partant d'Avieux du Ruisseau du Nant (Ruisseau Ste. Anne sur le PCF et la carte d'Etat-major) qui se dirigeait vers le lieu-dit « les Combes » où il arrosait les prés de fauche et des « triffouillières ». Abandonné depuis longtemps d'après eux, ce « Canal du Nant » était équipé à plusieurs endroits d'aqueducs en bois. Il est visible sur l'Atlas de Marchetti partant du Ruisseau du Nant vers le Pont du Nant. Il croisait le « Canal du Villaret » à l'est du village de Villarodin et faisait 2100m environ. Il est tracé sur l'inventaire d'Avrieux sous le nom « Canal de Ste. Anne », id 53. Canaux d'amenée N°7. Désigné sur le PCF et la carte d'Etat-major, le « Bief du Moulin » quittait la rive droite de l'Arc à proximité du lieu-dit « la Tourna ». Il ne s'éloignait guère de l'Arc et mesurait environ 1300m. De toute évidence, il alimentait plusieurs artifices avant de se jeter dans l'Arc au lieu-dit « le Moulin ». [id3] N°8. L'Atlas de Marchetti montre un canal d'amenée court partant de la rive droite du Ruisseau de St. Joseph à l'ouest de Villarodin-village. Il alimentait une « scie » avant de retourner au ruisseau. Nous n'avons pas pu établir précisément son tracé. Discussion N°9. Selon un témoignage local, un canal hypothétique (non-digitalisé) partait de la rive droite du « Canal de Rimollard » (N°3) et descendait sur le lieu-dit « Amodon ». Plusieurs autres experts démentaient la présence d'un canal à cet endroit, disant qu'Amodon a été alimenté par un canal venant du Ruisseau du Provarel. Ceci est possible : plusieurs experts décrivaient un point réglable à la bifurcation des eaux entre le Ruisseau de Provarel et le Ruisseau de Claret (désigné ainsi sur le PCF), ce dernier descendant sur Modane, avec le Provarel se dirigeant au sud-est vers Amodon. Le PCF illustre une complexité des cours d'eau dans ce secteur. C'est surtout la partie orientale (N°10, non-digitalisé) où l'on trouve deux bras désignés « Ruisseau de Provarel » sur le PCF. Un bras passait à proximité d'Amodon (appelé par un expert « Canal de Povarel ») et l'autre se dirigeait à l'ouest vers Saint-Gobain (appelé « Canal de Saint-Gobain »). Il est possible que ces deux branches du Ruisseau du Provarel soient des cours d'eau « hybrides » entre ruisseaux naturels et canaux. N°11. D'après un témoin, un canal (d'alpage) hypothétique lui aussi (non-digitalisé), partait de la rive droite du Ruisseau de Provarel et desservait le lieu-dit « les Sétives » (ou l'Estivaz) à proximité de l'actuel Refuge de l'Orgère du parc national de la Vanoise. Ce traitement a bénéficié des expertises de Jacky Bellisard, Alexis Bermond, Yvette et Pierre Bermond, Gérard Buisson, et Georges Lozat. 88 89 L'INVENTAIRE DES CANAUX DE LA TARENTAISE : INTRODUCTION Les 17 communes du parc situées en Tarentaise sont réparties entre quatre cantons. Sept communes se trouvent administrativement dans le canton de Bourg-Saint-Maurice (Bourg-SaintMaurice, Séez, Montvalezan, Sainte-Foy-Tarentaise, Villaroger, Val-d'Isère, Tignes), trois se trouvent dans le canton d'Aime (Bellentre, Landry, Peisey-Nancroix), six dans le canton de Bozel (Les Allues, Bozel, Champagny-en-Vanoise, Planay, Pralognan-la-Vanoise, Saint-Bon-Tarentaise) et une commune, Saint-Martin-de-Belleville, se trouve dans le canton de Moûtiers. La superficie globale de ces 17 communes atteint 1198 km2. Par rapport à la Haute Maurienne, les canaux de différentes natures sont mieux répertoriés sur les anciennes cartes des communes de la Tarentaise. Un nombre beaucoup plus grand de documents d'archives traitant de l'irrigation a été retrouvé en Tarentaise par rapport à la Haute Maurienne. En raison de ce facteur, notre reconstruction ethnohistorique des usages traditionnels de l'eau en Vanoise est ainsi considérablement plus riche pour la Tarentaise que pour la Haute Maurienne. Cependant, trois secteurs du parc en Tarentaise-Tignes et Val-d'Isère dans le canton de BourgSaint-Maurice ; Peisey-Nancroix du canton d'Aime et les six communes du canton de Bozel (Les Allues, Saint-Bon-Tarentaise, Bozel, Champagny-en-Vanoise, Planay et Pralognan-la-Vanoise) ; et Saint-Martin-de-Belleville dans le canton de Moûtiers-étaient caractérisés par une irrigation et un nombre de canaux nettement moins importants que partout ailleurs dans le massif. Une trentaine de canaux ont été inventoriés dans ces dix communes, la plupart étant des canaux d'amenée. En contraste, les sept communes restant du parc dans les cantons d'Aime et de Bourg-Saint-Maurice (Bellentre, Bourg-Saint-Maurice/Hauteville-Gondon, Landry, Montvalezan, Séez, Sainte-FoyTarentaise et Villaroger), à elles seules, concentrent environ 140 canaux de toutes sortes, soit 82% des environ 170 canaux retrouvés sur le côté Tarentaise du parc et 48% des 290 canaux localisés dans le massif. Ces sept communes ont été parcourues par 183 km de canaux, soit 88% des 210 km inventoriés pour la Tarentaise et 52% pour l'ensemble du massif. 90 Les Allues Peu de canaux d'arrosage ou d'alpage sont visibles sur le Premier Cadastre Français (PCF, 1914) pour cette commune. Toutefois, bon nombre de canaux d'amenée sont visibles, bien qu'ils soient très courts. En effet, les nombreux artifices (une vingtaine au milieu du 19e siècle) visualisés étaient implantés à proximité immédiate du Doron des Allues et de ses affluents principaux. Seulement deux canaux d'arrosage semblaient avoir été présents dans la commune, l'un d'entre eux ayant été partagé avec la commune voisine de la Perrière. Nous n'avons remarqué qu'un canal d'alpage. Les canaux des Allues mesuraient au total 2,280 km. Canaux d'arrosage N°1. Le « Canal du Biolley », visible sur le PCF (1914), quittait la rive droite du Doron des Allues en aval du Moulin Damien à proximité du lieu-dit « la Côte du Pont ». Il se dirigeait sur un talus abrupt vers le nord en aval du village du Grand Biolley, en direction du village des Chavonnes sur la commune de la Perrière. Sa fonction principale semblait avoir été d'arroser des prés (Morel 2005 : 27) et des prés-vergers. Des documents d'archives attribuent l'eau et la responsabilité de l'entretien de ce canal aux villages de Biolley et des Chavonnes, avec un partage de 2/3 -- 1/3 en 1876 et de 1⁄2 -1⁄2 en 1912 (Archives Familiales, François Fraissard, PCF Les Allues). Les deux communes formaient une seule paroisse au haut moyen-âge, avant leur séparation après 1359 (Hudry 1982 : 252) et il est possible que ce canal de 1400m environ ait été construit à l'époque où elles étaient encore unies. [id1] N°2. Un petit canal visible sur le PCF jaillissait de la rive gauche du Ruisseau du Grand Nant à proximité du lieu-dit « Clos Bernard », faisant environ 880m. Deux experts locaux avaient entendu parler de ce canal mais pensaient qu'il avait été abandonné depuis longtemps. Sa fonction semblait avoir été d'irriguer des prairies de fauche. [id2] Canaux d'amenée Plusieurs petits canaux d'amenée sont visibles sur le PCF en association avec leurs artifices qui sont, pour la plupart, situés sur le Doron des Allues ou sur ses confluences majeures. Nous ne les avons pas inventoriés à cause de leurs longueurs minimales. Canaux d'alpage N°3. Un seul canal d'alpage, visible sur le PCF, partait de la rive droite du Ruisseau du Mottaret au lieu-dit « le Mottaret », desservant les chalets d'alpage situés aujourd'hui aux abords de la station de Méribel-Mottaret. Par ce fait, le Ruisseau du Mottaret n'apparait pas sur la carte IGN, rendant impossible la localisation précise de ce canal. Ce traitement a bénéficié des témoignages de François Fraissard et de Christian Raffort, et de l'aide logistique de Michel Blanche. 91 92 Bellentre Bellentre est caractérisé par une implantation de canaux de toutes sortes relativement importante. Un très long canal d'arrosage, doté de plusieurs embranchements et bras, se déployait sur la zone centrale de la commune. Il se trouvait sur « l'ubac », rive gauche de l'Isère, alors que la rive droite de la rivière, constituant « l'adret », était arrosée par un réseau de « ruisseaux aménagés » et leurs canaux secondaires et tertiaires. De toute évidence, leurs débits ont été augmentés par l'eau bifurquée des deux canaux majeurs traversant l'amont de Bellentre : le Canal de Valezan et le Canal des Chapelles. On inventoriait 12 « moulins » au milieu du 19e siècle (ADS, 5FS844) ; plusieurs canaux d'amenée se situaient sur les plus importants canaux et ruisseaux. Canaux d'arrosage N°1. Le « Canal [ou Biez] du Revers de Bellentre » [id1, mesurant environ 3800m], ainsi nommé par un expert local et par le Premier Cadastre Français (PCF, 1870), était long et complexe, composait des parties humanisées et naturelles parfois difficilement discernables. Il partait de la rive gauche du Nant Benin à proximité de « la Borne au Bétachot » pour descendre vers le nord au ras de la limite communale avec Peisey-Nancroix. Le PCF montre trois déchargeurs en aval de sa prise. Selon un expert local, dans ses hauteurs il desservait déjà les montagnettes « aux Esserts » sur la commune de Peisey-Nancroix. Plus en aval, après un virage vers l'ouest et à proximité du lieu-dit « la Touerne » (= la tourne : l'outil pour détourner l'eau d'un canal, en dialecte), un premier bras [id2, mesurant environ 1830m] quittait sa rive droite pour descendre vers l'aval et le nord. Ce cours d'eau était désormais appelé « Ruisseau de Montcharvin ». Il traversait une grande zone de prés, alimentant le « Moulin de la Linière », puis il traversait le village de Montcharvin avant de se perdre à proximité du lieu-dit « Sous ville ». Retournant en amont, à l'ouest de l'endroit de la première bifurcation, un deuxième bras du « Canal du Revers de Bellentre » quittait sa rive droite à proximité du lieu-dit « Lecher » pour dévaler vers le nord. Ce cours d'eau, nommé « Ruisseau de la Buffette », continuait sa descente vers l'Isère en se partageant en deux à proximité du lieu-dit « Dessus le Biolley ». Son bras oriental, le « Ruisseau de Montorlin » [id5, mesurant environ 1100m], partait vers le nord et l'aval en traversant le village du même nom avant de se perdre en aval du village, à proximité du lieu-dit « Pierre Chèvre ». Encore en amont, selon le PCF, le « Ruisseau de la Buffette » changeait de nom pour devenir le « Ruisseau des Bâches » [id3, faisant environ 2475m de long]. Il se partageait lui aussi à proximité du lieu-dit « le Clou », sa branche orientale étant nommée le « Ruisseau des Granges » sur le PCF [id4, faisant environ 900m de long]. Les deux ruisseaux descendaient et se jetaient de toute évidence dans l'Isère à l'ouest du village des Granges. Le « Canal du Revers de Bellentre » était un excellent exemple en Vanoise d'un cours d'eau « hybride », constitué par des éléments humanisés et naturels modifiés, difficiles à différencier. Dans ses deux formes, il répondait quotidiennement aux besoins humains et animaliers pour une grande portion de la zone « ubac » de Bellentre. Il constituait ainsi un énorme réseau hydraulique complexe délivrant de l'eau à la fois aux montagnettes, aux villages et aux prairies de fauche et actionnant de plus des artifices sur un trajet bien élaboré. En ajoutant ses multiples bras et parcours semi-naturels, on obtient une longueur de plus de 10 km. N°2 et 3. Comme pour « l'ubac », l'eau servant à arroser une grande partie de « l'adret » résultait d'une hybridation entre des canaux entièrement humanisés et des cours d'eau naturels ou modifiés. Selon un expert local, les Ruisseaux du Nant des Combes et du Villard donnaient typiquement des débits insuffisants en fin d'été. Il affirmait que cette caractéristique primitive des deux ruisseaux 93 aurait motivé les Bellentrais à les raccorder aux canaux de Valezan et des Chapelles, longeant les courbes de niveau en amont de Bellentre. Ainsi, de toute évidence, les débits des deux ruisseaux ont été augmentés en cas de besoin par l'apport de l'eau des deux canaux passant à proximité. Ils ont été ensuite plusieurs fois ramifiés pour desservir les prairies de fauche en amont du chef-lieu de Bellentre et avant de descendre sur l'Isère. Canaux d'amenée Plusieurs canaux d'amenée, relativement courts, sont visibles sur le PCF en association avec quelques artifices. Des « moulins » étaient situés sur la rive gauche du Ruisseau du Villard à proximité du Crey, en amont de Bellentre chef-lieu. Le « Moulin de Molliez » se situait sur le Ruisseau des Molliez à proximité du village de Bon-Conseil. Le « Moulin de la Linière » a été mentionné ci-dessus (voir N°1). Discussion Les canaux du Biolley et de la Perraz sont mentionnés dans les documents anciens (ADS. Xxx). D'après un expert local, il se peut qu'ils aient été situés dans les hauteurs de la rive gauche du Ruisseau de Combe Noire, mais nous ne possédons pas plus d'indications. Ce traitement a bénéficié du concours d'Albert Tresallet. 94 95 Bourg-Saint-Maurice Très grande commune (15383 ha) située à la porte de la Haute Tarentaise, Bourg-Saint-Maurice a fusionné en 1964 avec l'ancienne commune d'Hauteville-Gondon à l'est, agrandissant encore son territoire de 2380 ha. Puisque les deux anciennes communes possèdent des histoires et des configurations géographiques distinctes, et que les dispositions hydrauliques des deux communes sont exceptionnellement complexes, nous les traiterons ici indépendamment, comme a fait Hudry dans son Histoire des Communes Savoyardes (1982 : 179). A cause de son étendue et de sa configuration comportant plusieurs des confluences de grands torrents et ruisseaux avec l'Isère, notre traitement des canaux de Bourg-Saint-Maurice sera encore subdivisé en six secteurs correspondant à peu près aux bassins fluviaux de ces cours d'eau. Cette subdivision coïncide dans une large mesure avec le partage effectué par les Borains eux-mêmes pour l'organisation traditionnelle de leur usage des eaux-selon une structure socio-économique de « consortages » anciennement et en « syndicats d'arrosage » à partir de la deuxième moitié du 19e siècle. Notre inventaire suivra ainsi physiquement une sorte de demi-lune encerclant le chef-lieu de Bourg-Saint-Maurice, partant de l'adret du côté ouest de la commune, continuant au nord, pour descendre au sud-est sur l'ubac, dans l'ordre suivant : 1. Le secteur de Vulmix, la Thuile, le Polset et le Canal de Vaugelaz, 2. Le secteur du Ruisseau de l'Arbonne, 3. Le secteur du Villaret-sur-la-Rosière et le Ruisseau du Nantet, 4. Le secteur du Torrent du Charbonnet, 5. La vallée et le Torrent du Versoyen, englobant aussi la rive gauche du Torrent des Glaciers à l'ouest, et 6. Le secteur de Montrigon. Nous avons inventorié presque 40 canaux significatifs dans la commune, pour une longueur totale d'environ 57,1 km, donc à peu près la moitié désignée par des noms propres. La majorité était allouée à l'irrigation des prairies de fauche. Au moins trois d'entre eux approchaient les 8 km de long. Nous avons pu rassembler une liste de plus de 40 noms en interrogeant des cartes anciennes, des experts locaux et surtout des documents d'archives-aussi bien ceux des ADS que ceux des Archives Communales. En dépit d'une véritable abondance d'informations et de mentions, bon nombre de noms n'ont pas pu être attribués spécifiquement aux canaux. Nous esquisserons les problèmes rencontrés dans nos efforts d'associer noms et canaux, et nous indiquerons les bases de nos décisions de « non-attribution » des noms dans les traitements des canaux individuels ci-après. Beaucoup de canaux, comme ceux situés dans le bassin fluvial du Versoyen, faisaient double usage ou plus : canal d'alpage d'abord, puis canal d'arrosage ensuite, ou canal d'arrosage au début et canal d'amenée pour finir. Les deux canaux les plus longs (le Canal de Vaugelaz et le Canal de l'Arc à Montrigon) traversaient les territoires des communes voisines. Un canal figurant dans notre traitement pour Séez démarrait à la limite communale des deux communes mais, de toute évidence, 96 sa prise se situait sur le territoire de Bourg-Saint-Maurice, pour passer immédiatement sur le territoire de Séez (voir Séez et «Discussion » ci-après). Vingt-quatre artifices ont été déclarés pour la commune au milieu du 19e siècle (ADS 5FD844), la plupart situés en bordure des torrents, des ruisseaux et des canaux. Peu d'artifices bénéficiaient de canaux d'amenée distincts (mais voir N°8 et 20 ci-dessous). Situés sur de nombreuses zones pastorales très étendues, les canaux d'alpage constituaient un pourcentage important du nombre des canaux dans la commune, qui dépasse probablement la centaine. Pour la plupart, ces canaux n'étaient ni nommés ni spécialement longs (à l'exception du secteur du Versoyen, voir cidessous) et, majoritairement, ils ne seront traités ici que FigFFFigure 20 : Canal de Vaugelaz et Serge sommairement. Anxionnaz, Bourg-Saint-Maurice, 26/6/12 (cliché B. Meilleur) 1. Secteur de Vulmix, la Thuile, le Poiset et le Canal de Vaugelaz Canaux d'arrosage N°10. L'irrigation des prairies de fauche dans ce quartier de Bourg-Saint-Maurice était effectuée par le « Canal de Vaugelaz » (voir Figure 20) et ses diverses branches. C'était un impressionnant réseau de canaux et de ruisseaux aménagés, mesurant entre 8 et 10 km pour le canal principal. De toute évidence, le débit de sa prise, sur les hauteurs de la rive droite du Ruisseau du Nant Blanc à proximité du lieu-dit « la Vardaz », dans le secteur du Rognaix, était augmenté par les nombreux ruisselets qu'il croisait en descendant, là où il est désigné « Canal d'irrigation » sur le Premier Cadastre Français (PCF, 1900). Il est probable qu'au moins un de ces ruisseaux servait aussi comme déchargeur pour ce canal important. Il fait environ 9200m de long. [id10] En aval de la Vardaz il se partageait en deux, un bras d'amont appelé Ruisseau ou « Canal de Lancevard » se dirigeait vers les lieux dits et les alpages de « Lancevard » et « les Rottes » où, peu après, il se jetait dans un autre bras du Nant Blanc. Une connectivité semblait avoir existé entre cette branche du Canal de Vaugelaz et le Ruisseau du Sécheron plus en aval, près de la limite communale avec Les Chapelles. L'une ou l'autre (ou les deux) de ses connections aux ruisseaux probablement pour la plupart naturels, servait de toute évidence aussi comme déchargeur en cas de besoin. Il faisait environ 1230m. [id11] Les eaux du Canal de Vaugelaz et de ses branches servaient probablement au moins autant pour desservir les alpages en eau potable que pour amender et arroser les pâturages et les prairies de fauche plus bas. Le bras principal du Canal de Vaugelaz, continuant vers l'aval et le sud après cette première bifurcation, pénétrait dans la commune des Chapelles où il est appelé « Canal de Vaugelaz » sur le PCF, et où il croise plusieurs bras amont du Ruisseau de l'Arbonne. Il continuait sa descente au sud-est pour arriver au lieu-dit « Vaugelaz », où il se redirigeait vers l'est et le lieu-dit « Changelina », et où il se séparait en trois bras. Le premier bras, de toute évidence court, partait vers le nord-est, rentrait sur Bourg-Saint-Maurice et disparaissait. Celui du milieu continuait vers l'est sur Bourg-Saint-Maurice, et celui de l'aval tournait subitement au sud, toujours sur les Chapelles, où il est nommé « Canal de Changelina », puis Ruisseau de Changelina. Le bras du milieu, 97 poursuivant son tracé sur Bourg-Saint-Maurice, et maintenant désigné sur le PCF « Canal d'irrigation », traversait des zones denses de prairies de fauche, passant en aval des villages de la Thuile, le Poiset et Vulmix. En aval de Vulmix, sur le PCF, il devenait ou se jetait dans le Ruisseau des Pichors. Ce dernier se jetait immédiatement dans le Ruisseau de l'Avalanche, ainsi poursuivant un trajet vers l'Isère, mais avant de se jeter dans cette rivière, il semblait se perdre au lieu-dit « les Rives » en aval du village d'Orbassy. En consultant des documents d'archives, nous rencontrons des noms locaux assignés à plusieurs sections ou portions du Canal de Vaugelaz, comme « Canal d'irrigation de Vulmix Poiset, la Thuile », « le Canal de Vaugellaz, Lancevard et la Riondaz », le « Canal dit du Poiset », le « Canal d'Orbassy », etc. (ADS 83S10). D'après les experts locaux, plusieurs sources en amont et à l'ouest des trois villages du quartier étaient soit captées pour irriguer à proximité et en amont du Canal de Vaugelaz, soit dirigées vers ce canal afin d'augmenter son débit au cas de besoin. Ces experts ont parlé également d'un troisième déchargeur, à proximité du lieu-dit « Changelina », qui se raccordait avec le « Canal des Chapelles » sur la commune limitrophe des Chapelles au sud-ouest. 2. Secteur de l'Arbonne Le secteur du Ruisseau de l'Arbonne possédait deux canaux principaux désignés sur le PCF et probablement au moins deux canaux secondaires, étant donné que les zones irriguées par ceux-ci sont mentionnées par leurs noms propres dans des documents d'archives. Au moins un des canaux principaux alimentait aussi un artifice. Canaux d'arrosage N°11. Le « Canal de l'Enverset », de toute évidence appelé aussi « Canal de l'Arbonne », mais désigné génériquement comme « Canal d'arrosage » sur le PCF, quittait la rive droite du Ruisseau de l'Arbonne dans la forêt à proximité du lieu-dit « l'Inverche », en amont du Pont (actuel) de Vulmix. Il se dirigeait vers l'aval, traversant le lieu-dit « le Reverset » où il alimentait au moins un artifice. Son parcours vers le sud traversait une zone de prés, et après celle-ci, il se jetait dans l'Isère à proximité du lieu-dit « Vers le Pont des Raves ». Un plan de périmètre pour les travaux d'endiguement de l'Arbonne, daté de 1874 (ADS S737), l'appelle le « Canal de l'Enverset ». Il faisait environ 1800m de long. [id12] Plusieurs documents des années 1890 (ADS S737) font référence aux canaux de l'Arbonne « dits d'en-haut, d'en-bas, des Epines et des Glières Neuves ». Le PCF montre le lieu-dit « Glières Neuves » localisé à l'est et en amont du lieu-dit « Vers le Pont des Raves », toujours sur la rive droite de l'Arbonne. Ceci suggère que le « Canal de l'Enverset ou de l'Arbonne » arrosait également cette concentration de prés, peut-être par un canal secondaire. Un expert local indiquait que ce canal continuait jusqu'au village d'Orbassy (mais voir « Canal de Vaugelaz » ci-dessus), appelant cette portion du canal « le Canal d'Orbassy ». Par contre, le lieu-dit « les Epines » se trouve sur la rive gauche de l'Arbonne-à proximité et en dessous de l'actuelle caserne militaire-et le PCF ne montre pas comment ce lieu-dit, maintenant pris entièrement par des lotissements, a pu être desservi par les eaux de l'Arbonne, mais il est possible qu'il ait été irrigué par une branche du « Canal d'en Bas de l'Arbonne » (voir ci-dessous et la Carte d'Etat-major N°8SGA 1929). 98 N°12. Désigné « Canal d'arrosage » sur le PCF, mais probablement le « Canal d'en Bas (de l'Arbonne) » dans les documents des années 1890 (voir ci-dessus), ce cours d'eau partait de la rive gauche du Ruisseau de l'Arbonne en aval du « Canal de l'Arbonne » (voir ci-dessus) et le Pont de Vulmix. Il se dirigeait vers l'est et en direction de Bourg-Saint-Maurice chef-lieu, passant en dessous du chemin de Vulmix, traversant une zone de prés, pour se jeter au cas de besoin dans le Ruisseau du Nantet. Il se peut qu'une branche en aval de ce canal irrigue le lieu-dit « les Epines » (voir N°11 cidessus). Il faisait environ 610m de long. [id13] 3. Secteur le Villaret-sur-la-Rosière et le Ruisseau du Nantet N°9. Le « Ruisseau du Villaret », ainsi désigné sur le PCF, était un canal d'arrosage partant de la rive droite du Ruisseau du Nantet en amont du village du Villaret-sur-la-Rosière. Il s'arrêtait à proximité du village sur le PCF, mais d'après les experts locaux, il continuait vers l'aval afin d'arroser les prés et les vergers en dessous du village du Villaret. En cas de besoin, il se jetait dans l'Arbonne à l'ouest, au bas de la monté au village. En dépit de sa taille modeste, les utilisateurs du « Ruisseau du Villaret » se sont constitués en syndicat d'arrosage au moins pendant les années 1940 (ADS 83S10). Selon les témoignages locaux, à la suite de plusieurs inondations du chef-lieu de Bourg-SaintMaurice par le Ruisseau du Nantet pendant les années 1960 ou 1970 (et bien avant), son débit a été redirigé plusieurs kilomètres en amont du village vers le Ruisseau de l'Arbonne, et le canal d'arrosage du Villaret-sur-la-Rosière a alors cessé d'exister. Il faisait environ 400m de long. [id50] 4. Secteur du Torrent du Charbonnet Canaux d'arrosage Situé sur la rive droite de l'Isère, le bassin fluvial du Torrent du Charbonnet donnait naissance à au moins une demi-douzaine de canaux d'arrosage et canaux d'alpage caractérisés dans leur ensemble par une complexité importante et de nombreuses interconnexions. Dans leurs parties hautes, ils desservaient des montagnettes. Un canal seulement possède un nom propre sur le PCF, alors qu'un autre y est désigné « canal ». Des documents d'archives ont livré quatre noms de plus et la désignation « ancien canal ». Malgré ces données historiques considérables, plusieurs visites sur le terrain avec des experts locaux ne nous ont permis d'attribuer qu'un seul nom propre pour l'ensemble des canaux de ce secteur. Nous avons quelques notions sur l'attribution d'au moins quatre autres noms, mais faute d'une unanimité d'opinion des experts, nous avons préféré rester prudent à cet égard. Plusieurs noms étaient à la frange des mémoires pour les canaux du secteur et nous n'avons pas voulu les donner dans ce contexte d'incertitude. N°6. La majorité des experts locaux appelaient ce cours d'eau le « Canal du Grand Renard », mais il n'y avait pas d'unanimité (une personne l'appelait le « Canal des Lanches »), et il était désigné « Canal de Charmaux » sur le PCF. Sur le PCF deux canaux partaient à l'est du Fort de la Platte, à proximité du lieu-dit « le Planey » sur la rive droite du Torrent du Charbonnet, l'un partant semble-til d'une source [id6, faisant environ 2700m de long] et l'autre du torrent [id8, faisant environ 1300m]. Ils descendaient en parallèle du Charbonnet pour se rejoindre à proximité du lieu-dit « la Maisonnat ». Ces deux canaux se rejoignaient à l'est du lieu-dit « le Grand Replat » et le canal restant était immédiatement rejoint par un troisième [id7, faisant environ 860m de long] au lieu-dit « les Praises », ce dernier venant aussi du Torrent du Charbonnet en aval des deux premiers. Le canal issu maintenant de ces trois canaux originaux descendait à l'est du lieu-dit « le Cotaret » et, d'après le PCF, il se terminait à proximité du lieu-dit « la Chaudanne ». Selon les experts locaux, une 99 branche de ce canal arrosait des prés en amont du village de la Rosière (voir Villaret-sur-la-Rosière ci-dessus), et il se peut que cette irrigation ait été accomplie par le « Canal de la Rosière », désigné ainsi par plusieurs experts. N°23. Un canal sans nom, difficilement visible sur le PCF sur tout son tracé, mais très apparent sur la Carte d'Etat-major (Bourg-Saint-Maurice N°3 et 4, 1927-28), partait de toute évidence de la rive droite du Ruisseau des Vieilles à l'est du lieu-dit « les Deux Antoines ». Il descendait vers le sud et desservait les alpages de la Vacherie, Coleur, les Rochettes, le Chapelet, Riondet, etc. A proximité de ce dernier lieu, il virait à l'est et de toute évidence se jetait dans le canal N°6 à proximité du Fort du Truc. On doit noter que le PCF semble indiquer un lien possible entre ce canal et le Ruisseau du Nantet, ce qui a été insinué par un expert local de Villaret-sur-la-Rosière. Hudry (1985 :116), quant à lui, parle aussi d'un canal partant du Ruisseau des Vieilles. Mais nous n'avons pas pu obtenir des témoignages suffisamment précis sur ce cours d'eau, et il reste un canal hypothétique. Nous estimons néanmoins qu'il mesurait environ 3600m. [id51] N°1. Un « Canal des Chamos ou des Charmaux », ainsi dénommé par plusieurs experts, partait de toute évidence de la rive gauche du Charbonnet, bien que le nom « Canal des Charmaux » soit attribué sur le PCF au canal N°23 (voir ci-dessus) partant de la rive droite du ruisseau. Plusieurs experts locaux ont proposé ce nom, sans grande précision, à « un canal » qui partait de la rive gauche du Charbonnet. Il est possible que ce nom corresponde au canal N°1 qui quittait le Charbonnet à proximité du lieu-dit « le Chordely ». On doit noter également qu'à faible distance en aval de sa prise, ce canal traversait le lieu-dit « les Chamos », ce qui, semble-t-il, conforte cette possibilité, mais nous n'avons pas adopté cette potentialité comme une certitude. Le canal N°1 descendait vers le sud-est pour se joindre au canal N°2 (voir ci-dessous) à proximité du lieu-dit « le Chapitre » à l'est des Echines Dessus. La carte d'Etat-major montre la configuration de ces deux canaux comme étant une sorte de circuit fermé. Il mesurait 2210m environ. [id21] N°2. Le nom « Canal du Rys » apparait dans plusieurs documents d'archives en association avec le secteur d'arrosage du Ruisseau du Charbonnet et il est cité par les experts locaux comme un canal du quartier. D'après les témoignages reçus, comme pour le canal N°1, c'était un canal quittant la rive gauche du Charbonnet pour descendre vers les villages des Echines. Les deux canaux coulaient ensuite plus au moins en parallèle, se séparaient, puis se rejoignaient pour se terminer à l'est du village des Echines Dessus et en amont des Echines Dessous (voir canal N°1 ci-dessus). Comme pour le canal N°1, nous n'avons pas pu déterminer lequel de ces deux canaux portait ce nom, à moins que ce n'en soit un autre partant du même ruisseau plus en aval. Néanmoins, nous en estimons le tracé à environ 2225m. [id2] N°3, 4 et 5. Continuant la descente sur la rive gauche du Ruisseau du Charbonnet, le PCF indique encore deux canaux partant à proximité du lieu-dit « La Côte du Moulin ». Ils coulaient plus au moins en parallèle entre les Echines Dessous et le Ruisseau du Charbonnet, et là où un troisième canal quitte encore le ruisseau, tous les trois coulaient à peu près côte à côte. Le premier se réunissait au deuxième à proximité du lieu-dit « En Combe », puis les deux canaux restant se rejoignaient eux aussi. L'un des bras se dirigeait immédiatement vers le Charbonnet (un déchargeur ?), alors que le canal restant bifurquait à nouveau, le bras occidental desservant les lieux dits « la Grange », « la Roche » (voir « Discussion ci-dessous), « les Maisonnettes » et « la Côte », pour s'arrêter dans les vergers à l'ouest du lieu-dit « Crousaz ». La branche orientale se dirigeait vers le lieu-dit « les Granges » où il bifurquait à nouveau-un bras allant au lieu-dit « les Granges d'en Bas » et l'autre vers le Villard-sur-la-Côte et le Châtelard, pour finir au lieu-dit « Crousaz ». D'après plusieurs 100 témoignages, l'un ou l'autre de ces canaux, à moins que ce ne soient les trois, ont été appelés « Canal du Pont du Moulin ». [N°3 = id3, faisant environ 2 km de long; N°4 = id4, mesurant environ 520m ; N°5 = id5, faisant 1580m de long environ] N°13. Appelé le « Canal de Rochefort » par les experts locaux, ce cours d'eau partait de la rive gauche du Ruisseau du Charbonnet en amont et à l'ouest du lieu-dit « Rochefort », à proximité du Pont (actuel) de la Bourgeat. Il semblait desservir un ou plusieurs artifices à Rochefort, irriguait probablement les prairies de fauche à proximité, puis se jetait dans le Torrent du Versoyen à sa confluence avec le Torrent du Charbonnet. La zone de Rochefort est actuellement transformée en lotissement mais de toute évidence la prise est toujours visible sous le pont. Il mesurait environ 640m. [id14] Canaux d'amenée Un canal d'amenée court, partant de la rive droite du Ruisseau du Charbonnet, en amont de la Bourgeat, est visible sur le PCF. Il desservait une « Usine électrique » et un « Moulin à chaux ». Discussion Nous avons préféré être judicieux dans notre attribution des noms propres aux canaux du secteur du Charbonnet. Les noms repérés sur les vieilles cartes et dans les documents d'archives, ou cités par les témoins locaux-Canal du Grand Renard, Canal des Vieilles, Canal du Chamos ou Charmaux, Canal du Rys, Canal du Pont du Moulin, Canal de la Rosière, Ancien Canal, Canal des Rottes, Canal de Collomb, Canal de Crousaz, Canal du Châtellard-ont été difficilement assignés aux canaux tracés sur les cartes anciennes, ce pour plusieurs raisons : 1. A cause de la complexité du réseau d'irrigation dans le secteur et de l'entrecroisement des canaux, 2. A cause de l'abandon du réseau depuis une cinquantaine d'années et ceci combiné à des modifications désormais apportées au paysage, 3. A cause du manque d'unanimité dans l'attribution des noms parmi les experts locaux, et 4. A cause des différences entre les données cadastrales et celles issues des témoignages locaux. Nous espérons qu'une recherche ultérieure pourra obtenir un meilleur résultat pour l'arrosage de ce quartier important. 5. La vallée et le Torrent du Versoyen (et la rive gauche du Torrent des Glaciers) La vallée du Versoyen constituait une paroisse ancienne (Hudry 1982 :184) caractérisée par plusieurs villages (Bonneval, Préfumet, les Granges, Versoie, le Cret, etc.) placés dans le bas de la vallée, anciennement habités toute l'année, mais aujourd'hui majoritairement inoccupés en hiver. Immédiatement en amont de cette zone se trouvent les montagnettes puis une zone étendue d'alpages s'ouvre en altitude. Le quartier était pourvu de trois canaux : un grand canal d'alpage et deux autres principalement des canaux d'alpage et d'irrigation. Ils ne sont maintenant plus que deux, desservant avant tout les chalets d'alpage et les pâturages à proximité. Un quatrième canal, pourvoyant exclusivement la commune voisine de Séez, partait de la commune de Bourg-Saint101 Maurice en face et en amont des alpages du Versoyen, de la rive gauche du Ruisseau de Beaupré à la limite communale avec Séez en amont du lieu-dit « Plan de Beaupré ». N° 21. Le « Canal des Veis d'en Haut », caractérisé par un gros débit, est toujours en eau et entretenu (voir Figures 21 et 22). Il part vers 2350m de la rive droite du bras central du Torrent du Versoyen en amont du lieu-dit « Le Fornet ». Il descend sur le flanc de la rive droite de la vallée, desservant plusieurs chalets d'alpage et leurs pâturages, pour se jeter dans le Ruisseau du Quézet en amont du lieu-dit « le Quézet » et des anciens baraquements militaires aux Grands Plans. Il est à peine visible sur le PCF de 1900, mais il apparaît clairement sur la Carte d'Etat-major de Bourg-SaintMaurice N°4 (SGA 1929). Il faisait environ 4400m de long. [id56] Figure 21 : Canal des Veis d'en Haut (ardoise à trou pour facturation), Bourg-Saint-Maurice, 23/8 /12 (cliché B. Meilleur) 102 Figure 22 : Canal des Veis d'en Haut, Bourg-Saint-Maurice, 23/8/12 (cliché B. Meilleur) N°21a. Le « Canal des Veis du Milieu » partait du Ruisseau du Versoyen au lieu-dit « les Erandes ». Il desservait les alpages « Plan des Veis », « Beau Crèt », « l'Albergement », etc., traversait le Ruisseau du Quézet (qui servait de toute évidence à augmenter ou réduire son débit en cas de besoin), et se jetait dans le Ruisseau du Bourgeail, celui-ci se jetant dans le Torrent des Glaciers à l'entrée de la vallée. Il faisait environ 5540m de long. [id55] N°21b. Le « Canal des Veis d'en Bas », ou « Canal Neuf », quittait le Ruisseau du Versoyen à proximité et en amont du lieu-dit « le Passeur ». De toute évidence il desservait plusieurs montagnettes, passait en aval des Grands Plans (et des baraquements militaires), pour se rapprocher du Canal du Milieu, puis il pénétrait dans l'ancienne zone habitée à l'ouest de Préfumet, le Chantel et les Maisonnettes pour se jeter dans le Torrent des Glaciers en amont de Bonneval. La Carte d'Etat-major (citée ci-dessus) ne nous montre pas cette portion du canal, mais elle a été confirmée par plusieurs experts locaux. D'après de nombreux documents d'archives, ce canal a été creusé en 1829 (ADS S738), subissant ensuite des dommages continuels provoqués par les éboulements au lieu-dit « le Passeur », là où l'on mettait des « pòssans » (voir lexique, p. 168), et il a été abandonné dans les années 1960-70. Le PCF de 1900 montre un déchargeur important pour ce canal, sans doute souvent en usage pendant les nombreuses réparations apportées à ce canal à proximité du lieu-dit « le Passeur ». Il faisait environ 4320m de long. [id54] Discussion Plusieurs autres noms ont été retrouvés dans les documents d'archives pour désigner l'un ou l'autre des trois canaux de la haute vallée du Versoyen ou des portions de ces canaux. Par exemple, on retrouve des références aux « canaux anciens » et au « canal neuf ». Sans doute la dénomination d'« ancien » était–elle appliquée aux Canaux des Veis d'en Haut et du Milieu et celle de « neuf » au Canal des Veis d'en Bas. Un document de 1882 (ADS S738) mentionne « le canal de dessous, soit le 103 neuf », « le grand, soit le dessus » et « le petit soit celui du milieu ». Un document de 1886 (ADS S738) fait référence au « Canal Neuf, le Canal de Préfumet et des Granges, et le Canal de Léchée, la Ray, Queissey, Frasses et Vey ». Le Canal Neuf est certainement le Canal des Veis d'en Bas, et d'après les experts locaux les autres désignations étaient attribuées aux différentes sections de ce canal passant à travers les prés de la zone des montagnettes et des habitations permanentes, où de toute évidence, il se partageait en plusieurs canaux secondaires ou rigoles pour desservir les parcelles des différents propriétaires. Canaux d'amenée N°20. Bien qu'il ne soit pas associé à la haute vallée du Versoyen, un quatrième canal partait du Torrent du Versoyen à proximité du village de l'Illaz, en amont de sa confluence avec l'Isère. Sa prise se situait à la limite communale avec Séez, partant de la rive droite du torrent en face de la prise pour « la Fabrique » Arpin (voir Séez). Alors qu'il traversait une zone de prés et avait peut-être un rôle dans leur arrosage, sa fonction principale était probablement de faire fonctionner plusieurs artifices à l'Illaz et surtout une scierie, ainsi notée sur le PCF. Il faisait 580m environ. [id22] La Rive Gauche du Torrent des Glaciers Canaux d'alpage Les deux séries de cartes anciennes (PCF, d'Etat-major) ont dévoilé plusieurs canaux ou rigoles (5 ou 6) dans un secteur d'alpages et de montagnettes sur la rive gauche du Torrent des Glaciers. Ce sont surtout des canaux ou rigoles dérivés du Ruisseau de la Vacherie et de ses affluents, servant principalement les lieux dits « le Plan des Teppes », « la Perrière », « le Charvet », « les Bochères », « la Vacherie » et « l'Orgère ». 6. Le Secteur de Montrigon Le sixième secteur inventorié de Bourg-Saint-Maurice, celui de Montrigon, se trouve sur la rive gauche de l'Isère à l'ubac de la vallée, et délimité par la commune de Séez au nord et l'ancienne commune d'Hauteville-Gondon au sud. On y note un grand manque de ruisseaux et de sources. La solution adoptée pour remédier à ce problème apparaît tout à fait remarquable : l'eau était amenée par un canal d'environ 7 km de long partant de l'ancienne commune voisine d'Hauteville-Gondon au sud-est, et passant dans ses hauteurs par une troisième commune, celle de Villaroger. Une fois arrivé dans les zones de prairies de fauche, de vergers et d'habitations, il était considérablement ramifié afin de servir la douzaine de chalets, hameaux et villages du secteur et les prés et vergers environnants. N°14. Le « Canal de l'Arc de Montrigon» (voir Figures 23 et 24) quittait le Ruisseau de l'Arc (qui, en aval du Pré du Saint F Figure 23: Canal de l'Arc à Montrigon, ancienne section empierrée, Bourg-SaintMaurice, 27/6/12 (cliché B. Meilleur) 104 Esprit, à partir de la cascade du Pys, est appelé Ruisseau de Pissevieille) à proximité du lieu-dit « Pré St. Esprit » sur la commune d'Hauteville-Gondon. Il arrivait ensuite sur une portion de la commune de Villaroger pour entrer sur Bourg-Saint-Maurice à proximité du lieu-dit « les Têtes d'en Haut ». Il poursuivait son parcours vers l'ouest traversant la Forêt de Malgovert et, à proximité du lieu-dit « Courbaton », il se partageait en deux, le « Canal de l'Arc » coulant vers Montrigon à l'ouest et le « Canal d'Hauteville-Gondon » (voir N°15 cidessous) se dirigeant au sud vers cette ancienne commune. D'après les accords anciens, le secteur de Montrigon prenait le deux-tiers du débit du « Canal de l'Arc » et Hauteville-Gondon prélevait le tiers. Uniquement sur sa section Bourg-SaintMaurice il faisait environ 5100m. Avant d'entrer sur Villaroger, sur la section haute d'Hauteville- FigurFigure 24 : Canal de l'Arc à Montrigon, section Gondon, il faisait environ 420m de long. Sur sa nouvellement empierrée, Bourg-Saint-Maurice, partie Villaroger il parcourait environ 1200m. En 27/6/12 (cliché B. Meilleur) tout, avant la bifurcation du « Canal d'HautevilleGondon », il s'étire donc environ sur 6720m. id15] La partie du « Canal de l'Arc » sur la commune de Bourg-Saint-Maurice continuait ainsi à l'ouest afin d'arroser des prairies de fauche et des vergers dans le quartier de Montrigon. Il passait près des montagnettes aux lieux dits « Champ Martin d'en Bas », à « l'Orgère » et au village des Granges pour se diviser de nouveau à proximité du lieu-dit « Teppe Riondette ». La branche amont, appelée sur le PCF « Ruisseau du Tronc » (voir N°17 ci-dessous), se dirigeait vers le nord alors que le « Canal de Montrigon », toujours ainsi désigné sur le PCF, passait entre Montrigon et La Chenal pour traverser le bois des « Cossettes » situé en amont du lieu-dit « la Moratte », avant de rejoindre l'Isère. En ajoutant à sa longueur la branche qui partait au sud, appelée « Canal d'Hauteville-Gondon » sur le PCF (voir N°15 ci-dessous) et faisant environ 1260m de long, il parcourait entre 9 et 10 km. N°22 et 23. D'après Henri Béguin, Président du Syndicat d'Arrosage du Canal de l'Arc à Montrigon, un canal secondaire appelé le « Canal des Cabottes » [N°23 = id52, faisant 1280m de long environ] quittait la rive droite du « Canal de l'Arc » au niveau du lieu-dit « Champ Martin d'en Bas », coulant vers le nord-ouest et le lieu-dit « Combagé ». A la hauteur des « Cabottes », un branchement appelé localement le « Canal des Grangettes » [N°22 = id53, mesurant environ 330m] bifurquait vers le nord-est en direction du lieu-dit « les Grangettes » où il s'arrêtait. Ni l'un ni l'autre de ces cours d'eau ne sont visibles sur le PCF, mais le tracé d'un canal (probablement le « Canal des Cabottes ») se retrouve sur la carte d'Etat-major de Bourg-Saint-Maurice N°8 (SGA 1928 ; levée en 1892-93). Le tracé en est encore visible sur le terrain. D'après cette dernière carte, le « Canal des Cabottes » continuait son parcours vers la Ville où, de toute évidence, il rejoignait ou devenait le « Canal de la Ville » (voir N°18 ci-dessous). Il ne reste pas de traces de cette portion du canal (des Cabottes à La Ville). N°17. Le « Ruisseau du Tronc » est une branche du « Canal de l'Arc » (voir ci-dessus), relativement courte, qui se séparait de ce dernier à proximité du lieu-dit « Teppe Riondette ». Il passait vers le 105 nord par le lieu-dit « le Tronc », et à proximité du lieu-dit « les Côtes », il rejoignait le « Canal de la Ville » (voir ci-dessous) venant de l'est. Il mesurait environ 420m. [id18] N°18. Le « Canal de la Ville » recueille l'eau, selon le PCF, des sources au sud-est du hameau de la Ville (mais voir N°23 « Canal des Cabottes », ci-dessus). Il prend de l'ampleur d'après le PCF à proximité et au sud de la Ville, traversant les prés et vergers avoisinants, puis, après avoir fait sa jonction avec le « Ruisseau du Tronc », il coulait vers le nord où il se partageait. Une branche allant vers le nord-est, appelée « Canal des Eulets » (voir N°19 ci-dessous) sur le PCF, desservait les lieux dits « les Chenets » et « les Eulets », avant de se jeter dans l'Isère en aval de ce dernier lieu-dit. Le « Canal de la Ville » continuait son parcours vers le nord où il semblait disparaître avant d'arriver à l'Isère à proximité du lieu-dit « les Petits Eulets ». La partie allant de la Ville aux Petits Eulets est appelé localement "Ruisseau de La Ville" car il empruntait un talweg naturel, mais il est néanmoins empierré, sans doute pour éviter les ravinements. Il fait environ 480m de long. [id19] N°19. Le « Canal des Eulets » (voir N°18, Canal de la Ville, ci-dessus). Il mesurait environ 650m. [id20] N°15. Le « Canal d'Hauteville-Gondon », ainsi nommé sur le PCF, ou le « Canal du Pailleret » selon Henri Béguin, était un embranchement du « Canal de l'Arc » (voir N°14 ci-dessous) qui quittait la rive gauche de ce dernier à proximité du lieu-dit « Courbaton » pour se diriger vers la commune d'Hauteville-Gondon, où il rejoignait le « Ruisseau des Moulins » constituant la limite communale. Uniquement sur la partie Bourg-Saint-Maurice il parcourait environ 1260m. [id16] N°16. D'après le PCF, le « Canal du Plan du Nant » partait de la rive droite du « Canal d'HautevilleGondon » (voir N°15 ci-dessus) 500 mètres environ en aval du lieu-dit « le Pailleret » pour rejoindre le Ruisseau des Moulins au nord-ouest à proximité des lieux dits « Plan du Nant » et « le Planet ». D'après les témoignages locaux, il rejoignait plutôt le « Canal de l'Arc » à la hauteur du lieu-dit « Cudron ». Il n'est plus en service. Parallèle à ce dernier, environ 100 mètres en aval, la « Rigole des Planettes » remplit le même rôle, qui consiste à renforcer le « Canal de l'Arc », encore utilisé à ce jour. Elle part du Ruisseau des Moulins au niveau du lieu-dit « l'Echorbé » pour rejoindre le « Canal de l'Arc » en amont du lieu-dit « Le Closet ». Ces deux rigoles se détachent à peine de la courbe de niveau. Calculé selon son tracé sur le PCF, le « Canal du Plan du Nant » faisait environ 1km de long. [id17] Discussion Un document de 1904 (ADS S739) parle de l'entretien de trois cours d'eau appelés « rigoles de communication » : « la rigole dite 'du coin d'en bas' aboutissant au Closet », 2. « celle dite du 'coin du milieu' allant aux Planettes », et 3. « la rigole dite 'des Croinge' aboutissant à Combageai en passant par le Cudron ». Ils sont associés au « Canal de l'Arc » dans le secteur de Montrigon et de toute évidence ce sont des canaux secondaires ou rigoles. Nous n'avons pas pu les localiser. Un document de 1566 (reproduit en 1851Archives Familiales, H. Béguin) mentionne « l'airiel des Tremblay » ; nous n'avons pas réussi à localiser ce canal. Les parties supérieures du « Canal de l'Arc », depuis le Pré du Saint Esprit jusqu'à Courbaton, sont aujourd'hui abandonnées mais encore visibles sur plusieurs tronçons. La portion comprise entre le Pré du Saint Esprit et le Chalet des Têtes a été transformée en 1981-82 pour les égouts de la station d'Arc 2000. 106 A partir de Courbaton, le canal est encore en service. Il est alimenté au niveau du virage du Bouclet par des sources venant du sud-ouest, canalisées depuis le Ruisseau des Villards en 1983. Au niveau de « La Fontaine » une conduite venant de la galerie EDF (Fenêtre 16) restitue un débit de 15 l/s à ce même canal de mai à octobre à la suite d'une convention signée entre EDF et L'Association Syndicale du Canal de l'Arc de Montrigon en 1959. Ce traitement a bénéficié des témoignages de Serge Anxionnaz, René Gerard Arpin, Henri Béguin, Elisabeth et Gabriel Chevronnet, Louise et Paul Gaimard, Georges et Joseph Quey, Gerard Sansoz, Roger Usannaz, et René Utile-Grand, et du support logistique de Pascale Vidonne, Jean-Yves et Rosette Vallat et particulièrement d'Henri Béguin. La partie traitant le secteur de Montrigon a bénéficié d'une relecture attentive d'Henri Béguin. 107 108 Bozel En dépit de plusieurs mentions moyenâgeuses des albergements accordés pour les « eyriels » situés sur la commune de Bozel (Chavoutier 1977 : 17 ; Million et Median-Gros Vital 1866 : 615+ ; Fabrice Mouthon, communication personnelle), aucun canal d'arrosage n'est visible sur les cartes anciennes pour cette commune. Cependant, des experts locaux possédaient des connaissances d'un passé caractérisé par l'arrosage des propriétés. Nous avons par la suite inventorié 2 canaux d'une longueur totale d'environ 2,7 km. Canaux d'arrosage et canaux d'amenée N°2. Plusieurs documents d'archives évoquent un petit réseau d'arrosage couvrant les deux côtés du chef-lieu de Bozel, irriguant les vergers et prairies de fauches à l'ouest et à l'est du village. Le secteur immédiatement en aval des prises sur le Ruisseau de Bonrieux, en amont du village, était consacré à plusieurs artifices. Un document daté du 27 novembre 1886 (ADS J1706) fournit un plan qui montre trois prises, les artifices mentionnés et un réseau d'arrosage qui s'étendait sur environ 1 km sur les deux flancs du village de Bozel à l'est et à l'ouest. D'après des experts locaux, ni le réseau ni ses canaux ne portaient des noms propres [id2, le réseau de la rive gauche faisait environ 790m de long ; id21, celui de la rive droite en amont faisait environ 1030m ; id22, celui de la rive droit en aval mesurait 160m environ] Un document daté de 22 septembre 1952, le « Rapportdes Travaux Ruraux », décrit un « nouveau » projet d'irrigation à proximité du chef-lieu de Bozel, mais il n'évoque pas le réseau qui existait au même endroit peu du temps auparavant. Puisque les experts que nous avons consultés n'étaient pas au courant de ce projet, il est probable que le financement demandé n'ait pas été accordé. Un inventaire daté du milieu du 19e totalise huit moulins (à blé), une scierie et une forge sur le Ruisseau de Bonrieux, et cinq moulins (à blé), deux scieries et une forge sur le Ruisseau de la Rosière (ADS 5FS844). Le Premier Cadastre Français (PCF, 1910) montre une petite complexité de canaux d'amenée pour ce dernier groupe d'artifices au lieu-dit « Les Moulins », comprenant « l'Usine (électrique) de la Rosière », de toute évidence en service et alimenté par les eaux venant de la commune de Saint-Bon-Tarentaise. Un canal d'amenée se trouvait également sur la rive droite du Ruisseau de la Roche à proximité du lieu-dit « Vers les Moulins » dans le quartier occidental de la commune. Il faisait environ 210m de long. [id1] Canaux d'alpage N°3. Le PCF désigne un canal ou rigole, mesurant 500m environ, pourvu d'un réservoir à mi-parcours qui desservait les chalets d'alpage à proximité et en amont du lieu-dit « Bozelet ». [id3] Ce traitement a bénéficié des témoignages de Claude, Hubert, Marcelle et Raphael Excoffier, Bernard Fraissard et Joël Roche, et de l'aide logistique de Marie-Noëlle et Alain Chevassu ainsi que de Raphaël Excoffier. 109 110 Champagny-en-Vanoise Le Premier Cadastre Français (PCF, 1910) ne laisse apparaître que deux canaux sur la commune de Champagny, ce qui correspond au schéma trouvé ailleurs dans les communes du parc dans le canton de Bozel. L'un d'entre eux, un petit réseau de canaux associé au village du Laisonnay d'en Bas, est peut-être unique en Vanoise. En effet, le fait de drainer le site (présumé marécageux) d'un village par les canaux qui ont à la fois capté l'eau en dessous des bâtiments (l'eau servant aussi à rafraîchir les produits laitiers, etc.), l'eau sortante passant par la suite en canaux à travers le village, est très rare, voire unique en Vanoise. Ce système est au moins en partie toujours en fonctionnement. Nous avons totalisé environ 2100m de canaux sur Champagny. Canaux d'arrosage Aucun canal d'arrosage n'a été découvert sur la commune. Le tracé d'un canal à proximité du lieudit « Lécheron », rapporté par Morel (2005 : 32), n'a pas été retrouvé. Canaux d'amenée Les artifices ont été implantés principalement dans trois zones : deux sur le Ruisseau de Reclaz, l'un à proximité du lieu-dit « La Traverse », l'autre près du lieu-dit « la Roue » en aval du village du Crey, et la troisième à proximité du lieu-dit « Vers le Moulin » sur le Ruisseau de la Gurra du Bois, en amont du village du Bois d'en Bas. Canaux d'alpage Un canal (ou rigole) d'alpage (N°1) est visible sur le PCF, partant de la rive gauche du Ruisseau de la Vélière dans les hauteurs centrales de la commune. Il descendait vers le lieu-dit « la Vélière », une zone de chalets d'alpage située à environ 2200m. Il faisait environ 520m de long. [id1] Un deuxième canal d'alpage (N°3) a été signalé par des experts locaux partant d'une source en amont de l'alpage et lieu-dit « le Tovet » qu'il desservait avant de rejoindre le Ruisseau de l'Avetta. Ce dernier descend vers le village de la Chiserette. Il faisait 1200m de long environ. [id3] Un canal (ou rigole) d'environ 250m quittait la rive droite du Ruisseau du Py en amont et à l'est du village du Laisonnay d'en Bas, amenant de l'eau vers une clôture d'élevage de chèvres à l'ouest et en amont du village. Le propriétaire de l'élevage indiquait qu'il avait confectionné le canal lui-même il y a une dizaine d'années mais que l'importance de l'effort pour le garder en service l'avait amené à l'abandonner. Canaux de drainage Le village du Laisonnay d'en Bas est équipé d'un réseau de canaux de drainage (N°2 ; voir Figure 25), toujours en service, servant à dessécher le site de l'emplacement du village, probablement marécageux à l'origine. Les maisons et leurs écuries sont équipées de petits canaux de drainage dirigés vers un canal collecteur passant entre les bâtiments du village qui emmène l'eau vers le Doron de Champagny, plusieurs centaines de mètres en aval. Il est probable que l'eau passant à l'intérieur des maisons et des écuries les pourvoyait en eau potable et servait à garder au frais les produits laitiers et autres vivres. Le canal collecteur mesure environ 360m. [id2] 111 Ce traitement a bénéficié d'une aide sur le terrain de Raphaël Excoffier. Des témoignages ont été fournis par Yves Dunand pour Le Laisonnay d'en Bas, par Claude Dunand pour le canal récent audessus de ce village et par Léon Placent et Raphaël Excoffier pour le Canal du Tovet. Figure 25: Canal de drainage, Laisonnay d'en Bas, Champagny, 6/10/12, (cliché B. Meilleur) 112 113 Hauteville-Gondon Bien que l'ancienne commune d'Hauteville-Gondon ait fusionné avec Bourg-Saint-Maurice en 1964 (Hudry 1982 :179), nous la traiterons ici séparément pour des raisons historiques, pratiques et identitaires. Les archives communales d'Hauteville-Gondon, aujourd'hui gérées par la commune de Bourg-Saint-Maurice, ont révélé une richesse considérable de documents traitant des canaux, des affaires d'irrigation et d'autres emplois coutumiers de l'eau. Des mentions dans les documents historiques, combinées aux désignations des canaux apportées aux cartes du Premier Cadastre Français (PCF, 1903), ont dévoilé une bonne vingtaine de noms propres pour les canaux sis sur son territoire, avant même que nous ayons visité la commune. Depuis, notre étude sur le terrain est parvenue à inventorier environ deux fois plus de canaux pour une longueur totale de 25,775 km environ, la plupart portant des noms propres, et ceci en grande partie grâce à la collaboration d'Anne-Marie Bimet du village de la Ravoire. Mobilisant une curiosité et une énergie inépuisables, associées à un désir de mieux connaître et sauvegarder ce patrimoine phénoménal, elle a mené une enquête personnelle en parallèle à notre étude, poursuivant une recherche entreprise d'abord avec son père lors de son vivant. Ses efforts joints aux nôtres nous ont permis de déceler ensemble entre 40 et 50 canaux sur le territoire de cette seule ancienne commune. A l'exception du Canal de l'Arc qui prenait sa source sur Hauteville-Gondon, et qui voit son parcours principal traverser le quartier de Montrigon sur la commune de Bourg-Saint-Maurice, la plupart des canaux d'Hauteville-Gondon sont relativement courts. Les nombreux ruisseaux coulant de l'est à l'ouest, les principaux se jetant dans l'Isère à l'ouest, ont sans doute favorisé l'implantation de plusieurs canaux. Cependant, il n'est guère possible de toujours distinguer les cours d'eau humanisés (« canaux ») des non-humanisés (« ruisseaux »), et il est probable que certains des cours d'eau qui semblent « naturels » sur le PCF au moins, aient été eux aussi aménagés partiellement par l'homme. Il est commun dans cette commune pour les deux types de cours d'eau de changer de nom, parfois plusieurs fois le long de leur parcours. Le territoire d'Hauteville-Gondon est ainsi sillonné de canaux et de ruisseaux souvent fortement imbriqués et parfois indiscernables, desservant des prairies de fauche, des zones bâties, et des vergers. Treize artifices ont été rapportés sur l'inventaire des « moulins » des communes tarines en 18371846 (ADS 5FS844), mais la plupart d'entre eux étaient implantés directement sur ou à proximité des ruisseaux et canaux d'arrosage. Les canaux d'amenée sont donc peu nombreux. Deux canaux d'alpage ont été comptés dans les hauteurs orientales de la commune. Canaux d'arrosage N°1. Le « Canal de l'Arc » ou plus précisément son segment le « Canal d'Hauteville-Gondon », quittait la rive gauche du « Canal de l'Arc » à proximité du lieu-dit « Courbaton » sur Bourg-SaintMaurice, pour se diriger vers Hauteville-Gondon. Il passait sur le territoire de cette dernière commune au lieu-dit « Le Preyt ». D'après les documents d'archives, le quartier de Montrigon avait droit aux deux tiers du débit et Hauteville-Gondon avait droit à un tiers. Aujourd'hui encore, on nomme « le Tiers », la zone communale irriguée par ce canal : le quartier de la Chenal, la Grange, le Crêt, le Fayet. Au lieu-dit « Preyt » le canal rejoignait le « Ruisseau ou Canal de Plan Devin » (voir N°20 ci-dessous), prolongement du Ruisseau de la Cachette (source au lieu-dit le Magasin) avant de descendre dans la forêt dans une petite combe parallèle au Ruisseau des Moulins qu'il rejoignait, derrière la Chenal, au-dessus du Crêt. Sous le Preyt, le « Canal d'Hauteville » possédait un petit canal de décharge vers le Ruisseau des Moulins tout proche. 114 Au printemps, dès la fonte des neiges, le « Canal d'Hauteville » était chargé à partir du « Canal de la Cachette », prolongé par le « Canal du Plan Devin ». Ce n'est que plus tard en saison qu'on l'alimentait à partir de Pré St. Esprit (la prise du « Canal de l'Arc »). Le « Canal d'Hauteville » alimentait un premier canal qui démarrait au-dessus de la Chenal dans la forêt (et rejoignait le « Canal de l'Auget » [N°18 ci-dessous] en provenance du Ruisseau de la Ravoire) puis le « Canal des Euchenets » (N°21 ci-dessous). Il se jetait ensuite dans le Ruisseau des Moulins afin d'augmenter les débits de ce dernier cours d'eau qui était sollicité par de plus courts canaux d'arrosage dans le secteur nord-ouest de la commune (« Canaux du Crêt » et « du Trembley », voir ci-dessous) et par des moulins. Il faisait environ 420m de long (la partie donnant sur le secteur de Montrigon est digitalisée id1 sur le traitement de Bourg-Saint-Maurice). [id1] 4. Le « Canal de Fontari », ainsi désigné sur le PCF, partait de la rive droite du Ruisseau de Saint Pantaléon à proximité du lieu-dit « la Petite Chal ». Il se dirigeait au nord-ouest vers le lieu-dit « Larconcel » où il bifurque, le petit bras du nord disparaissant, la branche principale traversant les prés au lieu-dit « la Combette » là où, d'après le PCF, il changeait de nom, devenant le « Ruisseau de la Combettaz » sur lequel se branchaient quatre canaux secondaires. Celui-ci coulait vers l'ouest, traversant Montvenix où il alimentait plusieurs bassins. A partir de Montvenix il changeait encore de nom, devenant « Ruisseau du Binglet ». Ce cours d'eau continuait à l'ouest sur une courte distance pour se perdre, selon le PCF, dans les pâturages et prés avoisinants. D'après les témoignages locaux, il rejoignait Gondon au lieu-dit « le Bachal du Roi » et se poursuivait en direction de l'Isère. D'après une carte dressée par Anne-Maire Bimet et son père, ils appelaient ce canal « l'éryè de Varmé» ou le « Canal de Varmé », le « Canal de Fontari » n'étant qu'une branche de celui-ci. Le canal principal servait à irriguer les propriétés de Montvenix pendant la journée ; la nuit on laissait l'eau à Gondon. Son premier segment, digitalisé id4, fait environ 1275m ; son deuxième segment, digitalisé id59, faisait environ 1530m. N°5. Le « Canal du Mont », appelé ainsi sur le PCF, mais appelé à Hauteville le « Canal du Nant du Four », partait de la rive gauche du Ruisseau de l'Eglise à proximité du lieu-dit « les Esserts », immédiatement en amont du Pont des Esserts. Il était renforcé par une source venant du sud et se dirigeait à l'ouest à proximité du lieu-dit « le Mont » où, selon le PCF, il devient le « Ruisseau du Mont ». Ce cours d'eau faisait partie ensuite d'une complexité de sources et de branches aux alentours des lieux dits « Milliachet » (Molliachet) et « Jarjotte » (dans le secteur de Montvenix, on l'appelle le Nant de l'Ortie), puis il continuait au nord desservant une concentration de prés et vergers. A proximité du lieu-dit « la Chenalettaz », il prenait de l'ampleur selon le PCF, changeait de nom encore, et maintenant appelé le Ruisseau du Nantet, il passait au nord de la Chal pour disparaitre de toute évidence au lieu-dit « le Nantet ». Outre sa fonction d'irrigation, ce canal avait comme rôle essentiel de renforcer le Nantet, ruisseau de faible débit. Pour augmenter sa capacité d'irrigation, on retenait l'eau pendant la nuit dans un étang au-dessus du lieu-dit « la Chenalette ». Au total, il faisait environ 2600m de long. [id5 + id50] Dans sa partie haute, il est encore utilisé. N°6. Le « Canal des Ormes, appelé comme tel sur le PCF, quittait la rive droite du Ruisseau de l'Eglise au niveau du pont inférieur des Esserts (il existait 2 ponts des Esserts) partant en direction du nord vers le lieu-dit « les Ormes ». A cet endroit, il était pourvu d'un déchargeur retournant au Ruisseau de l'Eglise et dans un petit canal ou cours d'eau sans nom connu coulant en parallèle au ruisseau. Le « Canal des Ormes » continuait vers le nord pour s'arrêter à l'extrémité des prés du lieudit « Planchamp ». Il faisait 810m de long environ, et le déchargeur environ 230m. [id6] 115 N°7. Le « Canal de Courtelet » sur le PCF quittait la rive droite du Ruisseau de l'Eglise à proximité du lieu-dit « Au Reposeur », au pied de la colline de Rèposeur. Il parcourait une courte distance vers le nord, traversant le haut du lieu-dit « les Tavanières » pour se terminer au lieu-dit « Courtelet » au couloir à bois nommé le Grand Couloir. Il mesurait environ 200m. [id7] N°7bis. Le « Canal des Tavanières », très court, démarrait au-dessus du Tolliet, en contrebas du « Canal de Champ-Rond » (N°10 ci-dessous) qui était sur l'autre rive. Il coulait parallèle au « Canal du Courtèlèt » (N°7 ci-dessus), traversait le chemin du chef-lieu au Bérard et venait arroser le bas des prés des Tavanières et le haut du Biollaton, jusqu'au lieu-dit « Prèhèl ». Il faisait environ 170m de long. [id51] N°8. Un canal court, désigné le « Canal de Biollaton » sur le PCF, partait encore de la rive droite du Ruisseau de l'Eglise en aval du Pont du Triollet (Trolliet = pressoir) pour desservir le village du Biollaton, les prés et vergers l'entourant et une partie des lieux dits Prèhèl et Sainte Catherine. Il se perdait au nord-est du village. Il mesurait 190m environ. [id8] N°9. Le « Canal du Champet » ou « Canal du Clou » d'après les experts locaux, relativement court, quittait la rive gauche du Ruisseau de l'Eglise plusieurs centaines de mètres en amont du Pont du Champet. Il progressait d'abord parallèlement au ruisseau puis se dirigeait vers le sud-ouest pour se perdre à proximité du lieu-dit « le Clou d'en Haut ». Il faisait environ 320m. [id52] N°10. Le « Canal du Champ-Rond », appelé comme tel sur le PCF mais localement aussi le « Canal de la Cure » (voir Figure 26), partait de la rive gauche du Ruisseau de l'Eglise, passait au sud du lieu-dit « Le Trolliet », pour se perdre selon le PCF dans les prés du lieu-dit « Champs Ronds ». D'après des experts locaux, il allait plus loin jusqu'à la Grangette, en arrosant le chef-lieu d'Hauteville et notamment les biens de la cure. Il faisait 360m de long. [id10] N°11. Le « Canal de la Finnaz » avait sa prise sur la rive gauche du Ruisseau de St. Pantaléon à proximité du lieu-dit « Le Pontet ». Il coulait sur une courte distance à l'ouest à travers la « Forêt Communale » pour finir à proximité du lieu-dit « la Finnaz ». Il arrosait la grande clairière de la Finnaz (en patois = La Féò). Il faisait 460m de long environ. [id11] N°12. Partant en amont du Canal de la Finnaz, également de la rive gauche du Ruisseau de FigurFigure 26 : Canal de Champ-Rond (ou Bied de la Cure), mur de soutainement, Hauteville-Gondon, 5/7/12 (cliché B. St. Pantaléon, le « Canal de la Berraz » se Meilleur) dirigeait vers le lieu-dit « la Berraz » où il se terminait. Il mesurait environ 440m. [id12] N°13. Le « Canal de Champs Vieux », partant comme les deux canaux précédents et encore comme eux partant de la rive gauche du Ruisseau de Saint Pantaléon, prenait la même direction et se terminait dans les prés et vergers au lieu-dit « Champs Vieux » au sud-ouest. Il faisait 200m de long environ. [id13] 116 N°14. Immédiatement en aval du « Canal de Champs Vieux » et partant comme lui de la rive gauche du Ruisseau de St. Pantaléon, le « Canal du Clou », ainsi nommé sur le PCF, se dirigeait sur une courte distance vers le lieu-dit « le Clou » où il se terminait. Il faisait environ 120m de long. [id14] N°15. Le « Canal d'arrosage du Grand Rié », ainsi appelé sur le PCF (mais « le Grand éryè » en patois), quittait la rive droite du Ruisseau de St. Pantaléon à proximité du lieu-dit « Chalamin ». Faisant environ 510m de long, il se dirigeait vers le nord et se partageait en plusieurs branches dans les prés et vergers autour du Petit Gondon. Il passait au-dessus du village et continuait vers le nord, presque jusqu'au Ruisseau du Nantet. [id15] N°16. Le « Canal du Bouc », nommé ainsi sur le PCF, était un court cours d'eau atypique par son départ et sa fin relativement indéterminés (sur le PCF) à proximité du lieu-dit « le Bouc » au nord-est du Petit Gondon. Des experts locaux le considéraient comme une branche du « Canal du Grand Rié » (N°15 ci-dessus) qui recueillait l'eau d'une petite source se trouvant à l'amont de celui-ci. Il faisait environ 130m de long. [id16] N°17. Le « Canal des Journaux », ainsi appelé sur le PCF, mais nommé localement aussi « le Bied des Iles », partait d'un bras de l'Isère à proximité du lieu-dit « Prés Necou ». Il coulait au sud, longeant l'Isère jusqu'aux lieux dits « les Iles » et « les Journaux » où il bifurquait, continuant en deux branches parallèles jusqu'au lieu-dit « les Glières. On le renforçait avec l'eau de l'Isère. Il mesurait 900m environ. [id17] N°18. Appelé le « Canal de l'Auget » (aussi « Lauget » et « l'Oget ») dans les documents d'archives, sa fonction est signalée comme étant pour « l'abreuvage des villages du Rembert, la Chenal, et les Airiels ». D'après les témoignages locaux, il arrosait aussi une partie des propriétés de la Chenal, une bonne partie du secteur de la Grange et le haut des propriétés du Crêt. Il était branché au Ruisseau de la Ravoire, juste à l'amont de la route des Arcs. Il n'en reste qu'une partie, la construction de la route des Arcs ayant emporté le premier morceau. Au-dessus de la Chenal, il rejoignait le premier canal branché sur la partie hautevilloise du « Canal de l'Arc ». Il faisait 1300m de long environ. [id60] N°19. Le « Canal de la Chal », ainsi nommé localement, n'est pas désigné sur le PCF. Il prenait sa source sous la route et le gros réservoir d'eau actuels, à l'amont du Villaret et se dirigeait vers le sud-ouest à l'amont du village de la Chal. Il faisait environ 660m de long. [id19] N°20. Un ruisseau partant en amont du lieu-dit de « la Cachette » se dirigeait vers l'ouest. Il était grossi par une branche venant de Chalet Biolley désigné Ruisseau des Combettes sur le PCF, puis il prenait le nom de « Canal ou Ruisseau du Plan Devin », avant de devenir une des branches du Ruisseau des Moulins, à partir du lieu-dit « Le Preyt ». En tout il parcourait 2500m environ. [id61] N°21. Le « Canal des Euchenets » démarrait entre le Preyt et la Chenal, sur la branche hautevilloise du « Canal de l'Arc » (= la continuation du « Canal du Plan Devin » ?), après que celui-ci ait récupéré l'eau du « Canal de Plan Devin » mais avant qu'il ne se jette dans le Ruisseau des Moulins. Il dessert les propriétés du bas de la Chenal, le nord-est de la Grange et le haut du Crêt. Il faisait environ 450m de long. [id62] N°22. Un canal partant de la rive gauche du Ruisseau de l'Eglise, en aval du chef-lieu d'Hauteville et appelé le « Canal du Petit Plan » par des experts locaux, n'est pas visible sur le PCF. Il démarrait en 117 contrebas du Pont du Biollaton, près de l'église et se dirigeait dans les vergers sous l'église puis en amont du village du Petit Plan. Il mesurait 220m environ. [id63] N°23. Un canal quittant la rive droite du Ruisseau de l'Eglise, pour se diriger vers le Bérard, est visible sur le PCF sous forme d'une ligne bleue faible. Désigné le « Canal de Bandonyar » par les témoignages locaux, il démarrait un peu au-dessus du moulin du Bérard (celui du haut), au-dessous de celui du Clou, sur la rive opposée. Après avoir traversé le chemin qui va du Bérard au lieu-dit « Planchamp », il desservait les prés et les vergers au-dessus du village du Bérard. Il faisait environ 260m de long. [id64] N°24. Deux canaux partaient de la rive droite du Ruisseau de l'Eglise en aval d'Hauteville, appelés les « Canaux du Plan » par les experts tavelains. Ils ne sont pas visibles sur le PCF. L'un (id65), mesurant environ 350m, partait au-dessus du moulin/pressoir du Plan Deça, passait près du village de Plan Deçà, traversait la route, la longeant à l'aval et arrosait les prés et vergers des lieux dits « Bèche » et du « Prélèt ». Un autre canal (id66), faisant environ 465m de long et provenant du bassin du village, le rejoignait sous la route. L'eau franchissait la voie ferrée dans un aqueduc. L'autre se branchait sur le Ruisseau de l'Eglise, sous la route, au niveau du village du Plan Deça, et très vite bifurquait à 90° pour se diriger vers l'Isère. Un peu plus bas, il semblait qu'il reste des vestiges d'un second branchement sur le ruisseau, parallèle au premier. N°25. Le « Canal de la Viplanaz », mesurant environ 470m, partait de la rive droite du Ruisseau de la Ravoire pour se diriger vers la Viplane. Il n'est pas visible sur le PCF mais il est cité dans les documents d'archives. Il a été démoli dans les années 1980 par la construction d'un seuil sur le ruisseau, suite aux laves torrentielles du 31 mars 1981. Il suivait à peu près la piste actuelle et venait jusqu'aux maisons de Viplane. [id53] N°26. Localement désigné « le Canal de la Vigne » et toujours en service (voir Figure 27), il part de la rive droite du Ruisseau de la Ravoire en aval du « Canal de la Viplane » et en amont du village de la Ravoire. Il se situe au sommet du lieu-dit « Les Vergers du haut » et se prolonge dans « les Vergers du bas ». Faisant environ 500m de long, il était renforcé par le trop-plein de la source qui desservait les maisons du haut du village de la Ravoire. [id67] N°27. Le « Canal de la Ravoire » partait encore de la rive droite du Ruisseau de la Ravoire, passant au sud et en aval du village de la Ravoire. Il n'est pas nommé sur le PCF. Il passait au-dessus des jardins du lieu-dit « Dessous St. Bernard » et poursuivait sa course dans les prés et vergers des lieux dits « Parchet » et « Planotet ». Il n'en reste presque rien. Il mesurait environ 280m. [id68] FigurFigure 27 : Canal de la Vigne, mur de soutainement et tourne, Hauteville-Gondon 5/7/12 (cliché B. Meilleur) 118 N°28. Apparemment relativement récent (fin 19e) d'après les témoignages locaux qui le désignaient le « Canal de Teppe Brulée », il partait de la rive gauche du Ruisseau de la Ravoire à l'est de la Ravoire. Au passage, il arrosait les lieux dits « Teppe Brûlée » et « le Davanier », faisant 225m de long environ. [id69] N°29 Deux canaux partant de la rive gauche du Ruisseau de la Ravoire à proximité du lieu-dit les Dôdes sont faiblement visibles mais non-nommés sur le PCF. Appelés localement les « Canaux des Dôdes », celui du haut [id70] partait du bas du village de la Ravoire, arrosait la partie haute des prairies des Dôdes et faisait environ 350m. Celui du bas [id71], mesurant environ 280m, partait à hauteur du Parchet et arrosait le secteur des prés et vergers des Dôdes, du Tron et du Chazard. N°30. Deux canaux ont été signalés partant de la rive gauche du Ruisseau des Moulins à proximité du lieu-dit « le Crêt ». Ni l'un ni l'autre n'est visible sur le PCF et nous n'avons pas trouvé de noms locaux pour ces canaux. Celui du haut [id72] faisait environ 270m de long ; celui du bas [id73] à peu près 165m. N°32. Semblable aux canaux partant de la rive droite du Ruisseau de St. Pantaléon plus en amont, le « Canal du Crot », ainsi dénommé sur le PCF, partait sous le pont de Chalamin et se dirigeait vers l'ouest et l'Isère pour se perdre dans les prés et vergers aux lieux dits « Au Crot » et « les Ilettes ». Il mesurait environ 290m. [id74] N°33. Dans le secteur du lieu-dit « la Gurraz », sur les hauteurs du Ruisseau de l'Eglise, sont tracés et nommés sur le PCF le Ruisseau de la Gurraz et le Ruisseau du Chantel (voir N°34 ci-dessous). Ce sont des cours d'eau qui ressemblent à des canaux. Le Ruisseau de la Gurraz quitte la rive gauche du Ruisseau du Chantel (voir N°34 ci-dessous), lui-même semble-t-il un « canal connecteur » entre le Ruisseau de l'Eglise et le Ruisseau de St. Pantaléon. Il coule vers le nord-ouest, passe à l'ouest du lieu-dit « la Gurraz », à partir duquel il devient le Petit Ruisseau de la Gurraz sur le PCF, avant de se perdre au nord à proximité du Ruisseau de l'Eglise. Le Ruisseau de la Gurraz, probablement aussi aménagé en partie par les tavelains, mesure environ 1165m. [id75] N°34. Le Ruisseau du Chantel, appelé ainsi sur le PCF, semble se brancher sur la rive droite du Ruisseau de l'Eglise où il a l'air de capter deux ruisselets avant de croiser ou d'intersecter le Ruisseau de l'Eglise. Il poursuivait son trajet vers le sud-ouest, laissant sur sa rive droite le Ruisseau de la Gurraz (ci-dessus), pour se jeter dans le Ruisseau de St. Pantaléon. Etait-ce un « canal connecteur », un moyen technique ancien par lequel les tavelains arrivaient à mieux contrôler les débits des deux ruisseaux plus importants ? D'après des experts locaux, il avait une fonction d'irrigation de l'alpage, mais servait aussi à renforcer le débit de son voisin en cas de besoin. Il faisait environ 640m de long. [id76] N°38. D'après les témoignages locaux, un canal sans nom connu existait pour arroser les lieux dits « le Crozet » et « les Fayet ». Mesurant environ 600m, il partait de la rive gauche du Ruisseau des Moulins en aval du Crêt. Il croisait un petit cours d'eau provenant d'une source située à l'est, pour aller jusqu'au Trembley avant de descendre au Pont des Raves. Il se peut que son nom soit « l'Eriel des Tremblays », nom retrouvé dans les documents d'archives. [id54] N°39. Le « Canal de la Planchette » semblait démarrer sous le moulin du Bérard (celui du bas) pour se diriger vers le nord. D'après les témoignages locaux, il longeait tout le bas du village, traversait le chemin du chef-lieu au Bérard et venait jusqu'à lieux dits « Rèpòzeur » et « la Sachère ». Il faisait 660m de long environ. [id55] 119 N°40 Le « Petit Canal de la Planchette du bas », ainsi dénommé par les experts locaux et faisant environ 200m de long, démarrait sur la rive droite du Ruisseau de l'Eglise au fond du lieu-dit la Planchette, en aval du Canal de la Planchette (voir N°39 ci-dessus), prenant la même direction. [id56] Canaux d'amenée N°31. Désigné « Canal des Moulins » sur le PCF et faisant 130m de long environ, il partait de la rive droite du Ruisseau de l'Eglise et alimentait les « Moulins de Bérard ». [id57] Encore deux canaux d'amenée se trouvaient sur le Ruisseau de l'Eglise, toujours sur sa rive gauche : un très court à proximité du lieu-dit « le Champet du Bérard » et le Pont du Champet, et un second en aval au lieu-dit « le Trolliet », desservant deux artifices et probablement des vergers et jardins. Canaux d'alpage N°2. Le « Canal de l'Adret des Tuffes », signalé ainsi sur le PCF, forme un réseau complexe partant de la rive gauche du Ruisseau de l'Arc dans ses hauteurs de la commune à proximité du lieu-dit « L'Adret des Tuffes », sous le Col de la Chal et le Lac Marlou. Il comporte trois branches. Celle la plus élevée suit le bas de l'Adret des Tufs jusqu'à un creux situé sous le Lac de la Montée. Là, d'après les témoignages locaux, « l'eau se buvait », c'est-à-dire qu'elle disparaissait dans le sol. Les ancêtres Tavelains avaient remarqué qu'elle réapparaissait, quelques jours plus tard, sur l'autre versant de la montagne, au lieu-dit « Lèz Èvè », là où le Ruisseau de l'Eglise et celui de St. Pantaléon prennent leur source. On utilisait ce canal pour irriguer les pâturages de la vallée « de l'Arc » mais également pour renforcer les deux ruisseaux de l'autre versant en cas de besoin. Les deux autres branches, par contre, sont toujours mises en eau alternativement par les alpagistes. L'une d'entre elles passe sous la retenue collinaire pour ressortir en contrebas, suite à un accord entre l'exploitant de l'alpage et la société qui a réalisé les travaux, pour pouvoir ainsi continuer à arroser la prairie en contrebas. La branche centrale fait environ 1210m de long. [id2] N°3. Le « Canal du Charnet », ainsi appelé sur le PCF, partait de la rive droite du Ruisseau du Villard à proximité du lieu-dit « le Charnet ». Il se dirige vers le nord, traversant les prairies de fauche, pour se jeter dans le lit haut du Ruisseau de Saint Pantaléon à proximité du lieu-dit « la Vagère ». Faisant environ 410m de long, il existe toujours. [id3] N°35. Le « Canal des Chalets de l'Arc », mesurant environ 930m et toujours en service, part de la rive droite du Ruisseau de l'Arc, permettant d'alimenter la zone des chalets de cet alpage. [id58] Discussion Plusieurs noms ont été retrouvés dans les documents d'archives, mais pas encore identifiés :  Cours d'eau Boilet = « plein de moulins »  « les acqueducs des Ormes, Champet, Villaz, Savouit » (AC H-G 3O13)  « l'heyriel de Montbard » (1563, AC HH12), traduit par Fabrice Mouthon Autres canaux potentiels (d'après des témoignages locaux, mais pas encore cartographiés) 120 Ruisseau du Nantet : rive droite  « Canal (èryé) de la Chenalette », canal court, démarrait un peu au-dessus du pont de la route au lieu- dit « la Chenalette », passait au-dessus de la maison et se dirigeait vers le lieudit le Savout.  « Canal (èryé) de la Grangette », également très court, quittait le ruisseau légèrement en amont du village et venait pratiquement à plat jusqu'au-dessus des maisons. Ruisseau du Nantet : rive gauche  Un canal sans nom connu partait du Nantet à peu près au même niveau que celui de la Chenalette, sous la Croix du Dou. Il suivait le tracé de la route jusqu'au virage au lieu-dit « le Binglet » à l'endroit où descendait le Ruisseau du Binglet ou Ruisseau de Montvenix, luimême alimenté par le « Canal (éryé) de Fontari ».  « La source de Bozon », au-dessus de Petit-Gondon, était captée pour ce village mais il semble que le trop-plein ait été récupéré par le village de la Chal, puisqu'il subsiste un canal qui vient presque jusqu'à Plan Molliet.  Une autre source, au sud-est du village du Petit-Gondon, captée elle aussi, donne lieu à un petit canal qui irrigue les vergers.  Le « Bied St. Michel », situé sur la commune de Landry, a potentiellement poursuivi son parcours depuis le Ruisseau du Villard, au-delà de la commune de Landry, pour arroser les prés dans le secteur du Grand Gondon. Ce traitement a bénéficié des informations fournies par Anne-Marie Bimet, Antoine Bimet†, Roger Bimet, Yvon Blanc, Henri Béguin, Roger et Monique Arnaud, Fernand Chamiot, Charlotte et MarieThérèse Chapuis, Jean-Yves Vallat, Liliane Sabateir et Suzanne Chenal. Il a été amélioré grâce à l'aide de Pascale Vidonne, archiviste de la commune de Bourg-Saint-Maurice. 121 122 Landry H. Onde (1940 : 488), aussi bien que R. Blanchard (1943 : 482), décrit Landry comme une commune fortement arrosée. Six canaux distincts sont visibles sur le Premier Cadastre Français (PCF, 1869) ; trois portent des noms propres et un quatrième est désigné « canal d'irrigation ». Cinq canaux sont tracés sur la carte d'Etat-major (SGA 1929, Bourg-Saint-Maurice N°7), mais ils ne sont pas tous localisés comme sur le PCF. De toute évidence, la partie basse de la commune a subi des transformations depuis la fin du 19e et le début du 20e siècle, modifiant la configuration hydraulique de la commune telle qu'elle existait il y a cent ans. Nous présenterons six canaux pour une longueur totale d'environ 5,1 km ; quatre sont essentiellement des canaux d'arrosage et deux sont des canaux d'amenée surtout. Canaux d'arrosage N°2. Le « Canal ou Bied de St. Michel » (voir Figure 28) était le plus long et le plus important de la commune, faisant environ 1800m de long. Sa prise était localisée pendant l'été 2012 sur la rive droite du Ruisseau des Michailles en amont de sa confluence avec le Ruisseau du Ponturin (le PCF indique sa prise sur la rive droite du Ruisseau du Ponturin encore plus en amont ; un expert local attribue ce changement à la construction de la route de Peisey-Nancroix). Il se dirigeait vers le nord en contournant le flanc de la montée derrière le village de Landry. Une partie du canal toujours en eau se jette dans le Ruisseau du Villard à proximité du village du même nom. Sa fonction principale était d'arroser les prairies de fauche et les prés-vergers. [id2] N°4. Le « Canal ou Bied de la Vignette », d'environ 300m de long, est désigné « Canal d'irrigation » sur le PCF. Il partait de la rive droite du Ruisseau du Charbonnet pour se terminer plusieurs centaines de mètres au nord-ouest au lieu-dit « la Vignette ». Sa fonction semble avoir été aussi l'arrosage des prés et prés-vergers. [id4] N°10. Le « Canal ou Bied de Perrey » ainsi appelé localement, part actuellement sous le Pont d'Aval, sur la rive gauche du Ponturin au chef-lieu de Landry, pour desservir les prés etFigurFigure 28 : Bied de St. Michel, Landry 7/7/12 (cliché B. les prés-vergers en aval du village en direction Meilleur) de l'Isère. D'après les experts locaux, les segments en aval sont nommés le « Ruisseau ou le Canal du Mont » puis, vers la fin de son trajet, le « Bied Abondance ». Cette description du tracé ne correspond pas entièrement à celle exposée sur le PCF où une prise complexe est signalée pour le « Ruisseau du Mont » en amont du Pont d'Aval (voir ci-dessous N°10). D'après le PCF toujours, le « Canal ou Ruisseau du Mont » traversait la rive gauche du chef-lieu de Landry, desservait plusieurs artifices, pour se terminer à proximité du lieu-dit « au Mont ». Il y avait un changement dans sa configuration entre 1869 et aujourd'hui, aboutissant à la création d'une nouvelle prise (nommée maintenant « Canal de Perrey ») et d'un nouveau raccordement entre le canal actuel et le « Ruisseau du Mont » du passé. Il mesurait 680m environ. [id3] 123 N°7. Le « Canal ou Bied des Guilles », nommé « Ruisseau des Guilles » sur le PCF et faisant environ 600m de long, quittait la rive gauche du Ponturin en amont du Pont d'Amont et se dirigeait à l'ouest où, de toute évidence, il se terminait au lieu-dit « aux Guilles » dans une zone de prés. [id50] Canaux d'amenée N°6. Le « Canal de Batchieu », ainsi dénommé par les experts locaux, quitte aujourd'hui la rive droite du Ponturin en aval du Pont d'Aval et alimente une zone de jardins en aval du village de Landry. D'après le PCF, à la fin du 19e il quittait le Ponturin plus en amont, entre le Pont d'Amont et le Pont d'Aval et desservait d'abord plusieurs artifices avant de se terminer au lieu-dit « Bathieut ». Le PCF (1869) montre aussi une complexité de prises et de retours sur la rive droite du Ponturin qui n'existent plus aujourd'hui. Il faisait 850m environ. [id51] D'après le PCF, deux autres canaux d'amenée existaient sur le Ponturin, l'un desservant un artifice sur la rive droite du Ponturin immédiatement en amont du village de Landry, à proximité du lieu-dit « Grière du Favre », et l'autre, mentionné ci-dessus (N° 10), desservait d'abord le « Moulin Arnaud » puis d'autres artifices en traversant la rive gauche du village avant sa descente vers l'Isère. Landry possédait 19 ou 20 artifices au milieu du 19e siècle selon l'inventaire des « moulins » fait entre 1837 et 1846 (ADS 5FS844). Discussion D'après les experts locaux, d'autres canaux ou rigoles irriguaient les prairies de fauche et les présvergers dans les secteurs «le Culet », « le Chêne », et « le Martorey ». Des documents d'archives de 1865 (ADS 39SPC1) et de 1921 (ADS 83S19) évoquent une demande de création d'un syndicat d'arrosage pour ces villages, utilisant l'eau du Ruisseau du Charbonnet. Nous ne possédons pas assez d'informations pour caractériser ces canaux anciens. Plusieurs cours d'eau sont visibles sur le PCF dans ce secteur. Au moins un descend des lieux dits « la Para du Chêne » et « Meur » au sud du village du « Chêne » pour aboutir dans le « Canal ou Bied St. Michel ». Un expert local l'appelait le « Bied du Chêne ». Un petit canal ou rigole d'arrosage, visible sur le PCF, partait de la rive droite du Ruisseau de Preissaz, desservant le lieu-dit « Plan Champ ». D'autres noms de canaux ont été cités, mais leur tracé précis n'a pas été identifié : « Bied de Martorey » « Bied de Culet » Ce traitement a bénéficié des témoignages de Monsieur le Maire Daniel Miedan-Peisey, Charles Buthod, Auguste Côte, Julia Payn et Roger Peracio. Nous les remercions pour leur collaboration. 124 125 Montvalezan Montvalezan représente l'une des communes les mieux documentées sur les canaux en Vanoise. Grâce à une iconographie remarquable apportée aux cartes du Premier Cadastre Français (PCF, 1905) par les géomètres Giffard et Amblard et un effort personnel singulier de deux Montvalezanais de souche Roger Gaide et de son père François† (1910-1994) qui ont, lors du vivant de ce dernier, inventorié les canaux d'arrosage de la commune, nous avons probablement reconstruit le tracé de la majorité des canaux principaux de Montvalezan, dont la longueur totale s'élevait à environ 28,8 km. La moitié à peu près d'entre eux sont toujours « en eau ». Montvalezan est une grande commune pentue, orientée nord-sud, sur la rive droite de l'Isère à l'est et en amont de Séez en Haute Tarentaise. Elle a la particularité de ne posséder qu'un seul gros cours d'eau, le Torrent des Moulins d'environ 9 km de long, et c'est ce cours d'eau et ses affluents d'altitude qui fournissaient l'eau pour l'irrigation et la desserte des zones agricoles et habitées. Dans la partie aval de Montvalezan, le réseau de canaux devient dense et complexe par ses nombreuses interconnexions. Bien que la plupart des canaux ait leur origine et leur fin sur Montvalezan, trois canaux quittaient la commune pour traverser les communes voisines, et la prise d'eau d'au moins un canal se situait probablement dans les hauteurs d'une commune limitrophe. Entre les canaux désignés sur le PCF (19) et les informations fournies par Roger et François Gaide-en partie publiées dans un livre de Roger et Giselle Gaide (2000)-nous avons pu inventorier 20 canaux majeurs sur Montvalezan et au moins une demi-douzaine de canaux secondaires. Ils étaient tous principalement destinés à l'arrosage, certains néanmoins faisant double ou triple usage en tant que fournisseurs d'eau pour de nombreux artifices et pour les bassins des villages et les abreuvoirs. Un petit nombre de canaux d'amenée existait pour faire fonctionner les artifices qui n'étaient pas installés directement sur les canaux ou les ruisseaux. Canaux d'arrosage N°1. « L'Airel des Chavonnes » (voir Figure 29), présent sur le PCF, partait de la rive droite du Nant de Glienne. Alimenté par plusieurs sources lors de sa descente vers le lieu-dit des montagnettes « les Chavonnes », il mesurait environ 4830m. [id1] N°2. « L'Airel des Fruitières », ainsi dénommé sur le PCF et faisant environ 3225m de long, prenait sa source sur le Nant de Glienne en aval de « l'Airel des Chavonnes ». Il croisait le Ruisseau de Putétruit puis descendait presque parallèlement à « l'Airel des Chavonnes » jusqu'au lieu-dit « Malatret » où il irriguait les prés avoisinants. [id2] FigurFigure 29 : L'Airel des Chavonnes, Montvalezan, 7/8/12 (cliché B. Meilleur) N°3. « L'Airel ou Canal Neuf d'en Haut » partait de la rive droite du Torrent des Moulins pour croiser le « Nant ou l'Airel du Devanchaz » et descendre au sud sur le coeur de la commune. Il virait à l'ouest puis encore au sud, sur le PCF, il croisait et en partie rentrait dans « l'Airel Neuf d'en Bas » à proximité du lieu-dit « Chantellard ». Le segment du canal original qui continue vers le sud fut nommé par la 126 suite « le Nant du Châtelard » (voir ci-dessous). Il faisait environ 2640m de long. [id3] N°4. « L'Airel ou Canal Neuf d'en Bas », ainsi dénommé sur le PCF (aujourd'hui appelé « Canal Neuf ou Airel Nua »), part légèrement en aval de « l'Airel Neuf d'en Haut » (voir ci-dessus) de la rive droite du Torrent des Moulins. Il descend parallèlement à ce dernier, croisant aussi le « Nant ou l'Airel du Devanchaz » (voir ci-dessous) puis, sur le PCF il vire vers l'ouest, croise « l'Airel Neuf d'en Haut » et son prolongement le « Nant du Châtelard », et poursuit son tracé vers l'ouest. D'après les experts locaux, ce canal qui traverse d'est en ouest la majeure partie de la commune, est aujourd'hui simplement appelé « l'Airel Neuf ». Il vire finalement vers le sud, puis traverse le lieu-dit « Provenchère » avant de rejoindre (ou devenir ?) le Ruisseau de la Provenchère, à la limite communale avec Séez. Il quitte alors Montvalezan, traverse une partie étroite de la commune de Séez et se jette dans l'Isère à proximité du lieu-dit « les Bras ». Dans son ancien tracé le « Canal Neuf d'en Bas » faisait environ 6280m de long. [id4] D'après Roger Gaide, un canal ou rigole qu'il appelle l'« Airel de la Taussuire ou Tossire » quittait la rive gauche du « Canal Neuf » (anciennement le « Canal Neuf d'en Bas ») entre les lieux dits « le Miale » et « Pierre Ronde ». En regardant attentivement, il est possible de l'apercevoir sur le PCF, bien qu'il ne soit ni indiqué ni nommé. Il semblait se diviser en étoile au-dessus du lieu-dit « Les Laix ». Un « Airel de l'Echertet », signalé aussi par François et Roger Gaide, est visible sur le PCF partant de la rive gauche du « Canal Neuf » près du virage de « la Becca ». Il descendait sur le lieudit « l'Echertet » où il arrosait les prés environnants. Il n'est pas désigné sur le PCF. Nous considérerons ces deux cours d'eau comme des canaux secondaires. N°5. « L'Airel des Meunières » part semble-t-il d'une source à l'ouest du Torrent des Moulins et des deux airels neufs. D'après Roger Gaide, il est alimenté par l'Airel des Fruitières (voir ci-dessus) et des sources des Kreudzereuy. Il descend au sud, donnant naissance de toute évidence en partie au « Nant ou Airel de la Devanchaz » (voir ci-dessus), puis il continue vers le sud et semble se terminer à proximité et en aval des lieux dits « les Eucherts » et « Malatret » où il arrosait les prairies de fauche. Il fait environ 1435m de long. [id5] N°6. « L'Airel ou Nant de Devanchaz », mesurant 755m environ, quitte la rive gauche de « l'Airel des Meunières » (voir ci-dessus) pour descendre au sud-est, au lieu-dit et bâti « la Devanchaz ». Sur le PCF il croise les deux airels neufs et se jette dans le Torrent des Moulins à proximité du lieu-dit « Côte Brulée ». Il semble être au moins partiellement naturel. [id6] N°7. Le « Nant du Châtelard » semble être la continuation de « l'Airel Neuf d'en Haut » (voir cidessus) après l'intersection de ce dernier avec « l'Airel Neuf d'en Bas » (voir ci-dessus). Il descendait vers le sud, en arrosant les prés à proximité, puis il passait à l'est du village du Châtelard et se jetait dans un bras court d'un canal d'amenée, le « Canal des Moulins » (voir ci-dessous), qui lui-même se jetait soit directement dans le Torrent des Moulins soit continuait vers le sud en traversant le village des Moulins. Le « Canal des Moulins » n'existe plus. Le « Nant du Châtelard » existe encore et se jette directement dans le Torrent des Moulins. Il fait environ 930m de long. [id7] N°8. « L'Airel ou Canal des Moulins » partait de la rive droite du Torrent des Moulins dans le secteur amont du village des Moulins. La présence à proximité d'au moins deux retours au torrent semble indiquer qu'il desservait des artifices à cet endroit. Il traversait ensuite le village, commençant à virer à l'ouest pour passer en amont du village du Villaret. Sur le PCF il change alors de nom pour prendre celui de « Canal d'Irrigation du Pommeret » sans que nous ne connaissions exactement le 127 lieu de ce changement, à l'ouest du Villaret (voir ci-dessous). Sa partie haute n'existe plus. Il faisait environ 1100m de long. [id8] N°9. Appelé « Airel ou Nant du Piche au Vaz » par François et Roger Gaide, mais sans nom sur le PCF, ce canal d'environ 450m quittait la rive gauche du Nant du Piche en amont du village (montagnette ?) « Petit Bois ». Il traversait un groupe de bâtiments puis se terminait à proximité du lieu-dit « le Vaz ». [id9] N°10. Visible mais sans nom sur le PCF et appelé « l'Airel des Teppes » par les Gaide, ce canal faisant 400m de long environ quittait la rive gauche du Torrent des Moulins entre les lieux dits « Clavettaz » et « Teppes », passant à l'est du lieu-dit « les Rives », se terminant dans les prés au lieu-dit « sous le Devin » en face du village des Moulins. Selon les Gaide, il continuait jusque derrière le village du « Mousselard ». [id10] N°11. Le « Canal du Jacquet », mesurant 370m environ, partait de la rive gauche du Torrent des Moulins à l'ouest de Mousselard, coulant parallèlement au torrent pour virer à l'est et se terminer au lieu-dit « le Jacquet ». [id11] N°13. Le « Canal de la Rochette » quittait la rive droite du Torrent des Moulins et se branchait sur le « Canal de Griotteray » (voir ci-dessous) en amont du lieu-dit « les Granges d'Emprim ». Il continuait vers l'ouest en passant par une zone de prés, puis desservait un bassin à « la Rochette » pour prendre fin dans les prés à l'ouest du village de la Rochette. Il faisait 775m environ. [id13] N°14. Sur le PCF, le « Canal du Griotteray » (voir Figure 30) quittait la rive droite du Torrent des Moulins immédiatement à l'est du village du Griotteray. Il filait à l'ouest sous le village, établissait une connexion avec le « Canal de la Rochette » (voir ci-dessus) au sud du lieu-dit « Plan du Noyer », puis continuait vers l'ouest où, à proximité du lieu-dit « au Chantellet », il changeait de nom devenant le « Canal de Manessier » (voir ci-dessous). Ce dernier continuait à couler vers l'ouest avant de virer au sud à proximité du lieu-dit « Manessier ». Il quittait la commune, entrant sur Sainte-Foy-Tarentaise (voir Sainte-Foy-Tarentaise « Discussion »), où il se jetait dans l'Isère. Aujourd'hui le « Canal du Griotteray » se perd dans les prés avant le lieu-dit « le Chantellet » et le « Canal de Manessier » prend sa source au même lieu-dit. Aujourd'hui il mesure environ 380m. [id14] N°15. Le « Canal de Manessier ». Voir N°14, le « Canal du Griotteray », ci-dessus. Il fait environ 1190m de long. [id15] FigurFigure 30 : Canal du Griotteray, Montvalezan, 7/8/12 (cliché B. Meilleur) 128 N°16. « L'Airel ou Canal de Charrotan » semble avant tout être un prolongement du « Canal du Pommeret » (voir ci-dessous). Il part de la rive gauche de ce dernier à la lisière est du chef-lieu de Montvalezan et se dirige vers le sud, passant à l'est du lieu-dit « Charrotan » au milieu des prairies de fauche. Il quitte la commune à proximité du lieu-dit « Champeillaix » et devient sur Sainte-Foy-Tarentaise le Ruisseau de Champelliet, ce dernier se jetant dans l'Isère à proximité du lieu-dit « les Raies d'en Haut » (voir Sainte-Foy-Tarentaise « Discussion »). Il fait 725m de long environ. [id16] N°17. « L'Airel des Champaix » est un cours d'eau caractérisé par une double origine : une source naturelle et un canal connecteur obliquant à l'est de l'Airel du Moulin, passant par le lieu-dit « Plan Zaput ». De toute évidence, ces deux entrées se complétaient pour donner un débit adéquat à ce canal. Il descend en suivant la ligne de pente, passant à l'est du lieu-dit « Les Champaix » et traversant les prés. Il finit par se joindre au « Canal du Pommeret » (voir ci-dessous) à proximité du lieu-dit « aux Pelles », immédiatement à l'est du chef-lieu de Montvalezan. Il mesure 690m environ. [id17] Selon les Gaide, un « Airel de Joux » quittait la rive droite de « l'Airel des Champaix », passant sous le lieu-dit « la Côte », pour arroser les prés à l'ouest du chef-lieu de Montvalezan. Le PCF montre une rigole sans nom qui alimentait des jardins à la Côte partant de la rive droite du « Canal des Champaix ». C'était probablement un canal secondaire. N°18. Le « Canal d'Irrigation du Pommeret ou Canal du Pommeret » constituait sans conteste le prolongement du « Canal des Moulins » (voir ci-dessus), traversant la commune d'est en ouest. Ce changement de nom avait lieu à mi-parcours, nous semble-t-il, à partir du village du Villaret. Poursuivant son cours en coupant la ligne de pente, il reçoit d'abord au lieu-dit « les Perrières » l'eau de « l'Airel du Moulin » (voir ci-dessous) puis de « l'Airel de Champaix » (voir ci-dessus), tous les deux arrivant de l'amont et du nord. Ce renforcement probable du débit du « Canal du Pommeret » paraît logique parce qu'il perdait tout ou partie en alimentant vers l'aval « l'Airel de Charrotan » (voir ci-dessous). Selon le PCF, le « Canal du Pommeret » poursuit alors sa voie en infléchissant sa pente, il traverse ensuite le chef-lieu de Montvalezan avant de se terminer au lieudit « les Tachonnières » au sud-ouest. D'après Roger Gaide, ce canal continue vers le sud pour se jeter dans l'Isère sur la commune de Sainte-Foy-Tarentaise. Il fait environ 850m de long. [id18] A proximité du lieu-dit « les Granges, on remarque sur le PCF un court embranchement sur le « Canal du Pommeret » (voir ci-dessus) qui se dirige vers le lieu-dit « le Bourgeail », mais s'arrêtant subitement à l'entrée d'une parcelle étiquetée « Broussaille » non loin de sa bifurcation. Selon les Gaide, cette branche courte (sur le PCF) du « Canal du Pommeret » continuait jusqu'au lieu-dit le Bourgeail, arrosant les prés environnants. Ils l'appellent l'« Airel du Biolay ». N°19. « L'airel du Moulin ». Comme « l'Airel de Champaix », « l'Airel de Charraton » et « l'Airel de Manessier », il est issu d'un canal et non pas d'un cours d'eau tel que le Torrent des Moulins. Comme ces canaux précités, il descend dans la ligne de pente au lieu de suivre une courbe de niveau. Quittant la rive gauche de « l'Airel Neuf d'en Bas » (voir ci-dessus) à proximité du lieu-dit « Le Verney » sur le PCF, « l'Airel du Moulin » descend au centre de la commune, desservant plusieurs zones denses de prés, et passe à l'est du village d'Hauteville. Il poursuit son chemin vers le sud-ouest, fait fonctionner deux artifices au lieu-dit « le Moulin », donne naissance à « l'Airel de Champaix », et se jette dans « le Canal du Pommeret » à proximité du lieu-dit « les Perrières ». Il mesure environ 1170m. [id19] N°20. Un canal sans nom sur le PCF, appelé « l'Airel du Foulon » par Roger Gaide et faisant environ 615m de long, quittait la rive gauche du Torrent des Moulins à proximité du lieu-dit « les Teppes ». A l'évidence il desservait d'abord un ou plusieurs artifices (peut-être un foulon ?), avant de se diriger 129 vers le village du Mousselard. De là, il virait à l'ouest pour se jeter dans le « Canal de Jacquet » (voir) au lieu-dit « les Ecoulées ». [id12] Discussion Selon François et Roger Gaide, un canal d'arrosage, le « Canal du Pain Perdu », quittait les hauteurs soit du Torrent de la Marquise soit du Ruisseau du Chardonnet (Ruisseau de Bellecombe ?) sur la commune de Séez. D'après eux, ce canal entrait sur la commune de Montvalezan et arrosait les prés en amont du village de la Rosière. Nous avons visité le site et le tracé d'un canal y est encore visible, suivant les courbes de niveau dans la direction de Montvalezan. Nous n'avons pas pu poursuivre son tracé, de toute évidence abandonné depuis longtemps. D'après Roger Gaide, le « Canal de Barbère », partant des sources du même nom, arrosait les prairies en amont de la Rosière. D'après lui, le « Canal de Pain Perdu » devait se joindre à ce canal. Selon les Gaide, un « Airel des Fuigères ou Fuissières », alimenté par la source du Milliaix, arrosait les prés des Fuissières, de la Borne et de la Forge. Une rigole ou canal sans désignation est visible sur le PCF dans le secteur, mais il part en aval du lieu-dit « Roche Raymond » en amont de la source « les Molliaix ». Il descend sur le lieu-dit « les Fieusières » où il se termine. Il était commun en Vanoise que les sources soient captées pour les besoins domestiques ou agricoles (voir, par exemple, le « Bied de Vaugelas », secteur de la Thuile, Bourg-Saint-Maurice). Appelé « l'Airel des Honchères » par les Gaide, ce canal ou rigole partait de la rive gauche du « Canal du Pommeret » (voir ci-dessus) immédiatement en amont du Villaret, traversait le village, continuait vers le sud-ouest et arrosait les prés en amont du lieu-dit « l'Arbosey ». Il n'est pas visible sur le PCF ; c'était probablement un canal secondaire. Canaux d'amenée L'inventaire des « moulins » de la Tarentaise au milieu du 19e siècle (ADS 5FS844) signale la présence de 22 artifices sur Montvalezan. En dehors de ceux indiqués ci-dessus, situés sur « l'Airel du Moulin », « le Canal des Moulins » et « l'Airel du Foulon », nous signalerons de courts canaux d'amenée sur la rive droite du Torrent des Moulins en aval de la prise du « Canal des Moulins », sur la rive gauche du même torrent au lieu-dit « les Rives », et sur sa rive droite à l'est du village du Griotteray. Canaux d'alpage Plusieurs zones d'alpages et de montagnettes ont été desservies par les canaux ou rigoles d'alpage qui avaient de multiples fonctions. Selon François et Roger Gaide, l'alpage de Putétruit, sur la rive droite du Torrent des Moulins, était desservi par le Ruisseau de Putétruit. L'alpage (ou montagnette) de l'Oeuillettaz, sur la rive gauche du Torrent des Moulins, était alimenté par les sources en amont, et à Plan Pigeux, également sur la rive gauche du torrent, plusieurs ruisselets ou rigoles sont visibles sur le PCF. Il est clair que ces alpages ont été desservis par des canaux ou rigoles secondaires. 130 Discussion Plusieurs noms, issus d'une publication de J. Gaide-Chevronnay, Histoire de Montvalezan-sur-Séez (1931), n'ont pas pu être mis en correspondance avec des canaux inventoriés. Il se peut qu'ils soient des synonymes ou des dénominations descriptives et non des noms propres. Ils sont présentés cidessous. L'airel nouveau de Plambois Nant de Plambois Nant Supérieur de Plambois L'eau du nant L'ayrel neuf de Plambois L'airel le plus haut du milieu L'eau des dits deux nants ou l'airiel de derrière L'eau du Nant supérieur L'eau des Fontanils L'eau du Nant de moittié L'airiel du milieu L'eau du nant dessus L'airiel des Moulins à la Tassionière L'airiel des Combes. Nous remercions vivement Roger Gaide pour sa pleine participation à notre projet et pour avoir mis à notre disposition plusieurs cartes et documents. Son accompagnement sur le terrain a été d'une grande importance, nous permettant de nous rendre compte de la complexité d'un des réseaux d'arrosage les plus sophistiqués de Vanoise. Esther Gaidet et Léon Gaidet ont également fourni des témoignages. 131 132 Peisey-Nancroix Aucun canal d'arrosage n'est visible sur le Premier Cadastre Français (PCF, 1868) et les experts locaux s'accordent pour dire que l'irrigation ne se pratiquait guère dans cette commune. Plusieurs canaux d'amenée ont été répertoriés en association avec des artifices et une mine de plomb argentifère installée lors des premières décennies du 18e siècle (Hudry 1982 :138-39). Notre inventaire totalisait environ 1100m de canaux d'amenée. Quelques publications spécialisées parlent de plusieurs canaux d'alpage (Morel 2005 :21 ; Silvin 2009 :107), mais comme partout ailleurs en Vanoise, la plupart de ces canaux-rigoles étaient relativement courts. Ils étaient sans doute creusés et entretenus par les propriétaires des chalets eux-mêmes. Nous n'avons pas tenté de les inventorier. Le canal identifié par Morel (2005 : 33) n'a pas été retrouvé sur les cartes anciennes. Canaux d'amenée On déclarait sept « moulins » pour la commune au milieu du 19e s (ADS 5FS844). Sur le PCF ils sont groupés : a) sur un canal ou cours d'eau aux lieux dits « Forge Chezal » et « la Forge » dans le secteur sud du village de Peisey, b) sur un canal d'amenée à proximité du village de Moulin sur la rive droite du Ruisseau du Ponturin, c) à proximité du village de Nancroix au lieu-dit « Moulins de Nancroix », d) sur la rive droite du Ruisseau du Ponturin en amont de sa confluence avec le Ruisseau de Poncette et e) sur la rive gauche du Ruisseau du Ponturin au lieu-dit « Moulins de Moulin » à proximité du village de Moulin. N°1et2. La mine de plomb argentifère et ses dépendances (laverie, forge, etc.) se situaient sur la rive gauche du Ruisseau de l'Arc à proximité de sa confluence avec le Nant Fesson, tous deux s'écoulant sur la rive gauche et en amont du Torrent du Ponturin. Un petit canal (N°1), à l'ouest sur le PCF, alimente « la Laverie ». Il vient de la « Mine » au sud-est. Il est appelé « Ruisseau de l'Ecoulement » après avoir quitté la laverie pour se diriger vers le Ponturin. Un canal situé à l'est sur le PCF (N°2) alimentait la « Mine » et la « Forge » au sud-est, puis d'autres bâtiments, avant de se diriger vers le Torrent du Ponturin au nord-ouest. Les canaux liés à la mine semblent provenir de la rive gauche du Ruisseau de la Mine ou du Nant Fesson. Ils comprenaient des sections souterraines. Nous ne les avons pas digitalisés systématiquement. La mine a fonctionné jusqu'en 1866. Ce traitement a bénéficié des informations fournies par Irma Buthod et Madeleine Tresallet. 133 134 Le Planay Peu de canaux ont été retrouvés sur le Planay, comme pour les autres communes du parc du canton de Bozel. Néanmoins, un canal important, mesurant environ 1235m de long et alimentant une zone d'alpage, existe toujours sur la commune, et il est probable que d'autres canaux d'alpage aient existé naguère. Plusieurs moulins et artifices étaient desservis par des canaux d'amenée courts. Cette commune témoigne d'une industrialisation plus précoce que d'autres communes de Tarentaise, avec une usine d'électrochimie (maintenant abandonnée) et une centrale EDF, ainsi que deux petits barrages qui dérivaient l'eau vers des conduites métalliques. Canaux d'amenée Le Planay était équipé de plusieurs artifices placés à proximité des deux villages principaux de la commune. A proximité du village du Planay, on trouvait des artifices aux lieux dits « Plan de Moulin » au sud du village et à proximité du Pont du Planay au nord, tous deux sur le Doron de Pralognan. Un second secteur d'implantation d'artifices était localisé à proximité de la confluence des Torrents de Champagny et de Pralognan au village du Villard, aux lieux dits « Vers la Scie » et « l'Amont de la Forge ». Canaux d'alpage N°1. Le « Canal des Galinettes » (voir Figure 31), identifié dans le rapport de Morel (2005 : 32), d'environ 1235m de long, est affiché sur le Premier Cadastre Français (PCF 1910). Il provient de sources dans les hauteurs orientales de la commune à proximité du lieu-dit « la Table Ronde ». Il traverse les pâturages pour arriver au chalet d'alpage « les Galinettes ». Il est toujours partiellement en eau. [id1] FigurFigure 31: Canal des Galinettes, Le Planay, 14/8/12 (cliché B. Meilleur) D'après un expert local, le secteur d'alpages « la Vuzelle », du côté sud du Col du Grand Bec, était doté de canaux d'alpage ; des restes sont toujours visibles. Notre traitement a profité d'une aide importante du Monsieur le Maire Jean-René Benoit. 135 136 Pralognan-la-Vanoise Aucun canal d'arrosage n'a été repéré sur le Premier Cadastre Français (PCF, 1912) et les témoignages locaux ont confirmé notre conclusion selon laquelle Pralognan n'en était probablement pas pourvu. Néanmoins, trois canaux d'amenée sont identifiables, accompagnés de deux autres de longueur minimale, pour un total d'environ 3100m pour la commune. Le « canal » signalé par Morel (2005 :32) à proximité du lieu-dit « la Rubatière », n'est pas désigné sur le PCF et n'a pas été évoqué dans les témoignages locaux. Neuf « moulins » sont dénombrés pour Pralognan dans l'inventaire du milieu du 19e (ADS 5FS844), avant la séparation du Planay en 1893 (Hudry 1982 : 253). Canaux d'amenée N°1. Le « Canal de Barioz », ainsi dénommé sur le PCF, appelé localement « l'érui de bario », quittait la rive droite du Ruisseau (Torrent) de la Glière en amont du village de Barioz. Il livrait de l'eau potable et desservait les abreuvoirs au village de Barioz. Il est maintenant détruit. Il faisait environ 410m de long. [id1] N°2. Un canal d'amenée mesurant environ de 490m quittait la rive droite du Doron de Pralognan à proximité du lieu-dit « Champ Curtet » pour mouvoir deux artifices à proximité du village des Granges. [id2] N°3. Non-signalé sur le PCF, mais retrouvé sur le terrain, un canal d'amenée d'environ 2200m quittant soit la rive droite du Ruisseau de la Glière soit une source, a été retrouvé en amont du village des Fontainettes, là où la commune a aménagé un petit site touristique avec des panneaux explicatifs. Les restes visibles du canal sont empierrés. Il était probablement en partie recouvert de dalles et à l'évidence servait à amener de l'eau potable aux villages des Darbelays et des Granges, situés sur la rive droite du Doron de Pralognan. [id3] Deux artifices, le premier probablement une scierie située à l'embranchement du Ruisseau de la Glière et du Doron de Pralognan, l'autre, situé sur la rive gauche du Doron à proximité du village du Plan, étaient alimentés par des canaux d'amenée de longueur minimale. Ce traitement a bénéficié du concours d'Evelyne Dupont et des témoignages de Paul Vion, que nous remercions vivement. 137 138 Saint-Bon-Tarentaise Quatre canaux sont visibles sur le Premier Cadastre Français (PCF, 1911). Des noms propres sont attribués à trois d'entre eux et le quatrième est désigné « canal ». D'importantes modifications apportées à Saint-Bon-Tarentaise par la mise en place de la station de ski de Courchevel compliquent l'interprétation des canaux de cette commune. L'un d'entre eux fournissait l'eau à la Centrale EDF de la Rosière à Bozel, mais nous ignorons son histoire avant la construction de la centrale en 1910 (PNV, s.d.). Deux canaux d'arrosage traversant les zones de prés et d'habitation plus un canal d'alpage sont visibles sur le PCF. Un second canal d'alpage a été localisé approximativement. Les cinq canaux reconnus faisaient une longueur totale de 5,1 km environ. Canaux d'arrosage N°2. Il est probable que le « Canal du Praz », faisant environ 2440m de long, soit principalement un canal d'arrosage, bien qu'il remplisse aussi le rôle de canal d'amenée. Sur le PCF, il part de la rive gauche du Ruisseau des Verduns (Ruisseau de Montgellaz sur les cartes modernes), puis se dirige vers le Praz de Saint-Bon où, semble-t-il, il alimentait une scierie. Il était équipé de deux déchargeurs. Arrivé au Praz, il était rejoint par un cours d'eau venant de sources à l'ouest et formait alors le Ruisseau du Praz, descendant sur le Doron de Bozel. Le PCF montre au moins quatre artifices à proximité du canal. Un cours d'eau désigné Ruisseau du Plantret sur le PCF, naturel ou peut-être en partie aménagé, quittait sa rive droite en amont du Praz pour se diriger au lieu-dit « la Choulière », où il se terminait. [id2] N°4. Plus en aval, mais toujours quittant la rive gauche du Ruisseau de Montgellaz, un « canal », ainsi nommé sur le PCF, faisant 1 km de long environ, se dirigeait vers le chef-lieu de Saint-Bon avant de rejoindre son ruisseau d'origine. Comme le « Canal du Praz », son débit a probablement été augmenté par l'apport de sources venant du sud-ouest. [id4] Canaux d'amenée Voir le « Canal du Praz », N°2, ci-dessus. N°3. Le « Canal de la Rosière », d'après le PCF, quittait la rive gauche du Ruisseau du Praz Méruel, faisant environ 510m de long. Il alimentait un réservoir puis descendait à la centrale de la Rosière sur la commune de Bozel, à l'évidence par une canalisation métallique. D'après un expert local et des publications spécialisées, sa provenance se situait plus haut, sur la rive gauche du Ruisseau de la Rosière à l'est, l'eau passant apparemment par un tuyau souterrain. [id3] Canaux d'alpage N°1. Le « Canal des Verdons », désigné ainsi sur le PCF et faisant environ 1120m de long, quittait un des bras orientaux du Ruisseau des Verdons à proximité du lieu-dit « les Verdons ». Coulant en parallèle au ruisseau, puis s'en éloignant progressivement, il se terminait un peu en aval du lieu-dit « le Biolley », un alpage aujourd'hui abandonné. [id1] N°5. Un deuxième canal d'alpage nous a été signalé comme partant de la rive gauche d'un des bras occidentaux du Ruisseau du Praz Méruel. Il desservait l'alpage (la montagne) de Pralong. Son tracé n'a pu être précisé. 139 Notre traitement de Saint-Bon-Tarentaise a bénéficié des témoignages d'Eugène Mugnier. 140 141 Saint-Martin-de-Belleville Après consultation des cartes et des documents d'archives, aucun canal d'arrosage ou d'alpage n'a été nettement trouvé sur Saint-Martin-de-Belleville (néanmoins voir « Discussion » ci-dessous), une des plus grandes communes de France. On ne peut que conclure que les conditions physiques, météorologiques, historiques et socio-économiques de base n'étaient pas de nature à motiver les Bellevillois à entreprendre la construction de tels ouvrages. Cependant, l'inventaire des « moulins », fait au milieu du 19e (ADS, 5FS844), révèle qu'au moins 16 artifices existaient dans la commune à cette époque (avant l'addition de l'ancienne commune de St. Laurent de la Côte en 1971, Hudry 1982 : 379). Le Premier Cadastre Français (PCF, 1888) nous donne une idée de leur localisation générale. Mais étant donné que la majorité d'entre-eux était alimentée par des canaux d'amenée de courtes longueurs et non-représentée sur les anciennes cartes, nous n'avons pas tenté de les digitaliser. Canaux d'amenée N°1. Le « Canal ou Biez du Moulin » quittait la rive droite du Ruisseau de Belleville ou de Merderel à proximité du lieu-dit « aux Lèches » pour desservir un artifice désigné « Moulin » sur le PCF. N°2. Un canal d'amenée partait de la rive droite du Ruisseau du Merderel à proximité du lieu-dit « Au Tovet ». Il était traversé (et son débit augmenté ?) par le Ruisseau du Bouchet et alimentait un artifice désigné « Moulin » sur le PCF. N°3. Situé sur la rive gauche du Ruisseau de Merderel à proximité du lieu-dit « la Brenetta », ce canal d'amenée alimentait un artifice. N°4. Un canal d'amenée se trouvait sur la rive gauche du Ruisseau de Merderel à proximité du lieudit « les Vernes », desservant deux artifices. N°5. Un canal d'amenée partant du Ruisseau de Merderel au lieu-dit « le Foulon » alimentait un artifice. N°6. Partant de la rive droite du Ruisseau de Cacabeure à sa confluence avec le Ruisseau de Belleville ou de Merderel, ce canal d'amenée alimentait deux ou trois artifices avant de se rejeter dans le Ruisseau de Merderel. N°7. Un artifice se trouvait sur un canal d'amenée situé sur la rive droite du Ruisseau de Cacabeure au lieu-dit « la Planche » à proximité du village de Béranger. Il était traversé (et son débit augmenté ?) par le Ruisseau des Dogettes. N°8. On a localisé un artifice sur un canal d'amenée situé sur la rive droite du Ruisseau de Merderel à proximité du lieu-dit « A Malachéola » à l'ouest du chef-lieu de St. Laurent de la Côte. Discussion Un cours d'eau potentiellement humanisé quittait la rive gauche du Ruisseau du Chaffat à proximité du lieu-dit « la Benoite ». Désigné Ruisseau de Chien-Loup sur le PCF, il traversait des broussailles et des prés avant de se jeter dans le Ruisseau de Merderel. 142 Un petit cours d'eau, désigné Ruisseau du Girand sur le PCF, semble provenir d'une source et alimenter les bâtiments au lieu-dit « Sur la Roche ». C'était peut-être un canal d'alpage. 143 Sainte-Foy-Tarentaise Sainte-Foy-Tarentaise est une très grande commune pourvue d'un nombre important de canaux d'arrosage et d'alpage. Bozonnet et Bravard (1984 :122) affirment qu' « au total plus de 15 km » de canaux principaux et secondaires existaient à Sainte-Foy ; pour notre part, nous avons totalisé 28,735 km environ de canaux principaux. Mais en dépit de leur nombre et de leur importance, nous n'avons réussi à attribuer qu'un seul nom propre à un canal. Notre consultation du Premier Cadastre Français (PCF, 1905) nous a permis de découvrir une vingtaine de canaux sur Sainte-Foy. Sauf pour les deux étiquetés « canal d'arrosage », tous les autres sont sans désignation. En contraste, notre examen des documents d'archives et de la littérature publiée nous a révélé une demi-douzaine de noms, mais même après plusieurs visites sur le terrain, accompagnés d'experts locaux, nous n'avons pu établir qu'un seul lien entre un nom propre et un canal, bien que des autres noms soient vraisemblablement authentiques. Il se peut que les travaux entamés pendant la deuxième moitié du 19e et le début du 20e siècle (Coanus 1995) pour installer un système de drains et de barrages sur les parties centrale et nord de la commune aient contribué à effacer la mémoire des noms chez les utilisateurs des canaux anciens et leurs noms. Pour l'instant ce n'est qu'une hypothèse parmi d'autres. La plupart des canaux que nous inventorions sont des canaux d'arrosage. Toutefois, plusieurs canaux d'alpage existaient dans les hauteurs de la commune, ainsi qu'un petit nombre de canaux d'amenée, car la plupart des artifices se situaient sur ou à côté des ruisseaux ou canaux principaux qui les alimentaient directement. La commune est aujourd'hui équipée d'un grand nombre de drains modernes à pierre sèche afin d'assainir des zones de terrain mouvant, naguère imbibées d'humidité. Il est probable, comme nous l'avons remarqué dans quelques autres communes de la Vanoise (voir par exemple, VillarodinBourget), que ce problème sans doute ancien ait représenté depuis longtemps une préoccupation pour les habitants de Sainte-Foy. Plusieurs documents administratifs, rédigés pendant la période des gros travaux de drainage, font allusion au système ancien de drainage, en expliquant l'aggravation du problème au moins en partie par la diminution de l'usage et de l'entretien des canaux (voir la Zone Centrale ci-après). Le PCF révèle au moins un cours d'eau désigné « drains » en 1905, nous permettant de soupçonner que les travaux entamés fin 19e et début 20e n'ont été que la poursuite d'un effort de drainage plus ancien. A cause de l'étendue considérable de la commune, nous organiserons notre traitement des canaux de Sainte-Foy autour des secteurs de la commune reconnus encore aujourd'hui par les Saintaférains : le secteur sud dominé par le bassin fluvial du Ruisseau du Clou, le secteur central-la principale zone des gisements-dominé par des petits Ruisseaux du Cudray, des Moulins, du Laveu, des Charmettes, et le secteur nord dominé par le grand bassin fluvial du Torrent de Saint-Claude et de ses affluents, les Ruisseaux de la Sassière et du Mercuel. La zone sud Canaux d'arrosage N°5. Un canal quittait la rive gauche du Ruisseau du Laveur à l'est du lieu-dit « l'Arpettaz ». Selon le PCF, il coulait vers l'ouest passant par les Foyères d'en Haut pour finir aux Foyères d'en Bas. D'après 144 la carte d'Etat-major pour Sainte-Foy N°5 (SGA 1929), il continue jusqu'au lieu-dit « Plan Bois ». Ce dernier tracé a été confirmé par un expert local. Il faisait environ 1200m de long. [id50] N°9. Deux canaux, à l'évidence assignés à l'arrosage des prés, sont visibles sur le PCF partant de la rive droite du Ruisseau du Clou (= Ruisseau de la Raie sur des vieilles cartes ?) en amont du village de la Raie. Ils étaient encore connus des experts locaux. Celui de l'aval [id40, mesurant environ 1200m] traversait la ligne de pente pour arroser les prairies autour du lieu-dit « Bel-Air », une zone de montagnettes. Un deuxième canal [id9, faisant environ 300m de long] part en amont de ce dernier, encore de la rive droite du Ruisseau du Clou, pour se disperser autour des lieux dits « Bon Conseil Dessus » et « Bon Conseil Dessous ». Il est probable que ce dernier canal soit (ou les deux ensemble?) le « Canal dit du Pisch » (« du Pisch » ou « du Pix »), selon sa désignation dans des documents d'archives (ADS 9O86) et par Emprin 1933 :57). C'est un canal dérivé du Ruisseau de la Raix qui servait « à l'arrosage des prairies de Bon Conseil, des Maisonnettes et de Bel-Air » [id21, la partie qui arrosait les Maisonnettes mesurait environ 300m]. Le canal du haut est visible sur la carte d'Etat-major de Sainte-Foy N°5, levée en 1892-1902 (SGA 1929). N°10. Le « Canal de Monal » est visible sur le PCF où il n'est pas nommé, mais il a été ainsi appelé par Morel (2005). Nous ne sommes pas certains que ce soit un nom ancien. Il part d'un groupe de quatre petits lacs et d'une zone humide pour se diriger vers le nord-est, passant par Le Monal, une zone de montagnettes, avant de se jeter dans le Ruisseau du Clou. Il servait probablement à arroser des prairies de fauche avoisinantes et à rafraîchir le lait et les fromages pendant les périodes d'occupation des maisons au printemps et à l'automne. Il correspond tantôt à un canal d'arrosage tantôt à un canal d'alpage, bien qu'il soit associé à un groupe de montagnettes (voir Figure 32). Il faisait 220m de long environ. [id10] Figure 32: Abreuvoir en bois, Ste.-Foy (près du Monal), 8/8/12 (cliché B. Meilleur) 145 N°12. En amont de Bon Conseil, un canal d'arrosage semblait arriver de l'est pour se joindre au canal N°9 du bas (voir ci-dessus). Traversant une zone dense de prairies de fauche, il est à peine visible sur le PCF où il semble partir des sources situées environ un kilomètre à l'amont. Il est bien plus visible sur la carte d'Etat-major de Sainte-Foy N°5 (SGA 1929). Il faisait environ 160m de long. [id22] N°16. Désigné « Canal d'arrosage » sur le PCF, ce cours d'eau quittait la rive gauche du Ruisseau du Clou en aval de la « Retenue du Clou », à proximité du lieu-dit « la Vignette », pour aboutir après un parcours d'environ 2 km au Fenil, où il alimentait plusieurs bassins et semblait se terminer. Au moins un expert local indiqua qu'il continuait jusqu'au lieu-dit « Chenal » ; un document daté de 1686 (cité par Emprin 1933 : 57) semble signaler la même chose. Une partie de ce canal est visible sur la carte d'Etat-major de Sainte-Foy N°5, levée en 1892-1902 (SGA 1929). Il faisait environ 1930m de long. [id16] Canaux d'amenée Nous n'avons pas découvert de canaux d'amenée proprement dit dans la zone sud de la commune. Néanmoins, un « Moulin », ainsi dénommé sur le PCF, se situait sur la rive droite du Torrent de la Balme (l'actuel Nant Cruet ?), en aval et au sud-ouest du village de Nantcruet. Canaux d'alpage N°11 désigne un groupement de canaux ou rigoles, visibles sur le PCF, qui partaient de la rive droite du Ruisseau du Lac Verdet à proximité des lieux dits « le Bollieu » et « le Plan ». Un réseau complexe les faisait passer d'abord par les pâturages, puis par les prairies de fauche, avant qu'au moins deux d'entre eux ne se jettent dans le Ruisseau du Clou à proximité du lieu-dit « le Clou ». [id11 232m + 1755m environ ; id13 = 800m environ] N°13. Un petit canal d'alpage d'environ 530 m de long quittait la rive droite du Ruisseau du Clou à l'alpage et lieu-dit « le Plan ». Il semblait desservir des pâturages avoisinants avant de retourner dans le même ruisseau. Le PCF désigne comme « pâturages » un nombre important de petites parcelles longeant ce canal. Enigmatiques par leur taille, elles méritent d'être étudiées davantage. [id37] N°15 désigne un canal d'alpage de 700m environ partant de la rive gauche du Ruisseau du Lac Noir. Bien qu'appelé « canal d'arrosage » sur le PCF, il desservait l'alpage « Les Balmes », puis retournait au même ruisseau plusieurs centaines de mètres en aval à environ 2400m-2300m d'altitude. [id15] N°18 désigne un petit groupe de canaux ou rigoles partant soit des sources soit du Ruisseau du Nant soit du Ruisseau du Mayencet qui passaient dans un secteur de prés et de pâturages à proximité des lieux dits « le Châtelard » et « l'Arbèche ». Une branche se jetait dans le Ruisseau du Nant, alors qu'une autre rejoignait l'Isère à proximité du lieu-dit « la Planche ». [id18, faisant 800m et 1000m environ] N°19 désigne un canal, visible sur le PCF, qui partait de la rive droite de la branche sud du Ruisseau du Grand Plan à proximité du lieu-dit « les Balmettes ». Il desservait l'alpage des « Achets ». Il faisait environ 2150m de long. [id19] 146 La zone centrale La zone centrale ou « le tiers du milieu » de Sainte-Foy est un versant humide spacieux situé en amont du chef-lieu sur la rive droite de l'Isère. Il est caractérisé par des couches géologiques en mouvement. La zone est marbrée de sources et de nombreux ruisseaux relativement courts, et à l'évidence, elle était traditionnellement dotée d'une abondance de canaux et de rigoles d'irrigation et de drainage qui, entre autres fonctions, desservaient les bassins et les abreuvoirs des villages. A la fin du 19e et au début du 20e siècle le tiers du milieu a été l'objet des premiers travaux de drainage financés par le gouvernement en vue de mettre fin aux glissements de terrain qui provoquaient périodiquement des dégâts aux propriétés agricoles (Coanus 1995 : 60). N°7 et 8 indiquent les zones où se situaient les plus grandes concentrations de canaux d'arrosage, souvent caractérisées par l'enchevêtrement impressionnant de sources, ruisseaux, canaux et rigoles. Sans informations suffisantes, il a été impossible de déterminer ni le niveau d'intervention humaine ancienne dans la mise en place de ce réseau, ni le rôle précis que ces canaux et rigoles ont joué dans l'assainissement du versant. Aucun des canaux n'est désigné par un nom propre, ni par une dénomination fonctionnelle, ce qui est le cas, au contraire, pour les cours d'eau désignés sur la carte du réseau de drainage en place aujourd'hui. [id25 = 410m environ ; id24 = environ 215m ; id23 = 470m environ ; id27 = environ 530m ; id 26 = 280m environ ; id8 = environ 210m ; id 28 = 145m environ ; id30 = environ 305m ; id29 = 620m environ ; id32 = environ 355m ; id7 = environ 700m + 325m + 150m] N°20 représente un cours d'eau étiqueté « Drains » sur le PCF (voir Figure 33), mesurant environ 450m, qui se jetait dans le Ruisseau du Cudray à proximité du lieu-dit « aux Granges », immédiatement en amont du chef-lieu de Sainte-Foy. Est-ce que cette dénomination de 1905 est le reflet des travaux récemment effectués sur le versant à l'époque, ou bien représente-elle la fonction ancienne du canal ? D'après Coanus (ibid., p. 90) un premier projet d'ensemble pour drainer le versant ne s'est pas présenté avant 1930 mais quelques travaux ont déjà été effectués à partir de 1897. L'abandon progressif des canaux d'arrosage à partir de la première guerre mondiale est cité à plusieurs reprises dans les documents administratifs de l'époque comme une des raisons de l'aggravation des mouvements de terrain dans ce secteur de la commune (Coanus 1995). [id20] Plusieurs des ruisseaux de cette zone étaient dotés d'artifices en 1905, comme par exemple la « scierie » et d'autres artifices installés le long du Ruisseau du Cudray dans le secteur sud du cheflieu. Plus en amont, on trouve encore plusieurs artifices le long du Ruisseau des Moulins et de ses affluents à proximité du Planay-Dessus. La zone nord La zone nord de la commune est principalement composée du bassin fluvial du Torrent de Saint-Claude et de ses grands affluents, les Torrents de la Sassière et de Mercuel. Le PCF ne nous a pas révélé de canaux dans le secteur inférieur de ce bassin, mais d'après un témoignage local, le lieu-dit « le Champet », sur la rive gauche FigurFigure 33: Drain typique, Ste.-Foy (aux Charmettes), du torrent, était irrigué par un canal 8/8/12 (cliché B. Meilleur) 147 d'arrosage. Cette zone, et celle du village du Miroir en amont sur la rive droite, ont été sinistrées à plusieurs reprises, au Miroir d'abord avec le célèbre éboulement de la Moluire (le Bec Rouge), en 1877 puis au Champet enseveli par les laves boueuses à la fin du 19e siècle, déclenchées par le premier sinistre. Plusieurs petits barrages en seuils ont été installés sur le torrent à la fin du 19e et au début du 20e siècle afin de dompter sa violence (Coanus 1995). Plus en amont, deux canaux d'alpage sont signalés sur le PCF, l'un sur le Ruisseau de la Sassière et l'autre sur le Ruisseau de Mercuel. D'autres canaux d'alpage ont été décrits par les experts locaux dans le secteur. En effet, beaucoup de petits cours d'eau issus principalement de sources sont visibles sur le PCF dans cette zone, mais nous n'avons pas pu recueillir davantage de données sur ces canaux hypothétiques. Canaux d'arrosage N°4. Deux canaux d'arrosage (ou canaux d'alpage dans leur partie haute) sont visibles sur le PCF, partant de la rive droite du Ruisseau de la Louie Blanche à proximité de la Savonne et du Pont de la Savonne. Celui du bas [id3, faisant environ 455m de long] descendait à l'est de l'alpage de Pierre Girait pour se jeter dans le Torrent de la Sassière au lieu-dit « aux Laies ». Celui du haut [id4 faisant environ 1730m de long] passait à l'ouest des lieux dits « Pierre Girait » et « le Mayen » pour se jeter en trois bras dans le Torrent de la Sassière 1 ou 2 kilomètres plus bas, au lieu-dit « aux Airais ». Ce dernier semblait recueillir plusieurs sources lors de son parcours. Les deux canaux traversaient des concentrations denses de prairies de fauche ; dans leur partie haute, ils traversaient également quelques pâturages. N°6. D'après le PCF, un autre canal d'altitude (d'arrosage et d'alpage) partait du Ruisseau de Trainant au lieu-dit « les Pierres Rouges », juste en aval duquel il semblait avoir été équipé d'un déchargeur. Lors de sa descente, il gagnait en débit par l'adjonction de plusieurs sources. Il suivait la courbe de niveau plus au moins en parallèle du Torrent de Mercuel (en aval de sa confluence avec le Ruisseau de Trainand), puis il continuait à l'ouest en passant à proximité des groupes de maisons au Bioley Dessous, au Bochet, aux Maisonettes et à Sallesoz puis, de toute évidence, il rejoignait le Mercuel en aval du lieu-dit « les Côtes ». Il traversait une concentration dense de pâturages et de prairies de fauche. [id6 = mesurant 1680m environ ; id34 = faisant environ 425m ; id33 mesurant environ 425m] Canaux d'amenée N°3. Un expert local, le PCF et la carte d'Etat-major (SGA 1929) confirment l'existence d'un petit canal d'amenée, faisant environ 425m de long et provenant d'une source en amont du Miroir à proximité du lieu-dit « l'Abergement ». Il traversait le village en deux branches, desservait un moulin, une scierie et plusieurs bassins, avant de rejoindre la rive droite du Torrent Saint-Claude. [id51] N°16. Un canal quittait un « canal connecteur » entre les deux branches du Ruisseau des Moulins en amont du village de la Petite Viclaire. Selon le PCF, il traversait des prairies de fauche, puis le village, avant de se jeter dans l'Isère. La branche orientale de ce ruisseau semble avoir servi deux artifices. Il faisait environ 315m de long. [id52] 148 Discussion N°1 et 2. Deux canaux d'arrosage importants, débutant sur la commune de Montvalezan, traversaient un petit morceau occidental de la commune de Sainte-Foy dans le secteur de la Petite Viclaire. Le Ruisseau de Champelliet, ainsi dénommé sur le PCF, qui se jetait dans l'Isère à proximité du lieu-dit « les Raies d'en Haut », était le prolongement du « Canal ou l'Airél de Charrotan », ainsi nommé à Montvalezan. Un cours d'eau sans nom sur le PCF, qui se jetait aussi dans l'Isère à l'est du Ruisseau de Champelliet, et branché à celui-ci par un petit connecteur, était le prolongement du canal ou l'Airél de Manessieré, désigné ainsi à Montvalezan. Ils faisaient environ 200m de long. [id5] Un expert local indiquait l'existence d'un canal d'arrosage dans le secteur des lieux dits « le Replat » et « le Champet ». Aucune trace n'a été relevée sur le PCF. Néanmoins, un document daté de 1736, cité par Emprin (1933 : 57), parle d'un « canal ou airel de Pratachon » dans ce secteur, nécessitant des réparations, et pour lesquelles les communiers des deux villages ont fait appel aux artisans d'Aoste (voir la liste des noms non-attribués, ci-dessous). Nous avons découverts d'autres noms pour des canaux à Ste.-Foy, soit dans les documents d'archives soit dans la littérature publiée, sans pouvoir les raccorder aux canaux inventoriés sur le terrain : « Leyriel du Barg » (Emprin 1933 :56) ; associé au secteur de Nantcruet en 1660 « l'Airel de Pratachon » (Emprin 1933 :57) ; voir « Discussion » ci-dessus « Canal de pan perdu » (Emprin 1933 :58) ; « vu au-dessus du Pont des Arbès » « le vieux eyriel du milieu » (Emprin 1933 :57) « le Canal dit (de la Masure) des Granges » (ADS 6 sept 1908) ou « Canal des Granges (la Masure) » (ADS 2 juin 1912) ; aucun canal, rigole ou cours d'eau n'est visible dans le secteur de la Masure sur les vieilles cartes. Ce traitement a bénéficié des témoignages de Chantal Empereur et de Roland Emprin, ainsi que du soutien de Monsieur le Maire Raymond Bimet et du service technique de la commune. 149 150 Séez Une douzaine de canaux ont été identifiés pour la commune de Séez, pour une longueur totale de 18,7 km environ. Le Premier Cadastre Français (PCF, 1905) en désigne deux par leurs noms propres ; un autre y est appelé « canal d'irrigation ». Arrivant de la commune voisine de Montvalezan, un canal poursuit son trajet sur Séez sous forme de ruisseau avant de se jeter dans l'Isère. Un canal court mais de fort débit émerge d'une source et alimente un moulin. Les autres artifices de la commune sont nombreux mais sans canaux d'amenée visibles. La façon de dénommer les canaux principaux ou les canaux secondaires, section par section, semble être manifeste à Séez plus qu'ailleurs en Vanoise. C'est du moins le modèle qui se dégage après une lecture des documents d'archives (peut-être à cause d'un « effet des sources » ?). Séez possède le seul « Canal du Pain Perdu » bien identifié du massif (néanmoins voir Montvalezan, ci-dessus). C'était une manière de désigner des canaux autrefois importants mais abandonnés à cause de problèmes d'entretien, d'accès difficile, etc. Cette dénomination saisissante se rencontre aussi dans la Vallée d'Aoste en Italie. Canaux d'arrosage N°8. Le « Canal des Ecudets » est désigné « Canal d'irrigation » sur le PCF. Plusieurs mentions dans des documents du 19e siècle et un plan dressé à l'époque confirment ce nom. Il partait de la rive gauche du Ruisseau des Ecudets pour descendre sur un versant doux vers l'Isère au sud, avant de disparaitre dans les prés à proximité du lieu-dit « la Tête du Mont » après avoir parcouru environ 1300m. Sur la carte d'Etat-major (Bourg-Saint-Maurice N°4, SGA 1929), il rejoint le « Canal des Villards » (N°10 ci-dessous) en aval de la Chapelle de Notre Dame de Liesse. [id8] N°9. Le « Canal de Séez » (voir Figure 34) partait de la rive gauche du ruisseau du Reclus au nordouest de la Chapelle de Notre Dame de Liesse. Nommé aussi le « Canal du Chef-lieu », le « Nant de Séez » et le « Ruisseau de Séez » dans des documents d'archives, il longeait d'abord le flanc d'un talus boisé avant d'entrer dans les prairies de fauche au lieu-dit « les Ecudets », puis de bifurquer, avec sa branche occidentale (et principale) alimentant un artifice au lieu-dit « Vers le Moulin » en amont du village de Séez. Cette branche traversait ensuite le coeur du village en alimentant plusieurs bassins, jardins et artifices, puis elle délivrait de l'eau à « La Tannerie » en aval du village avant de se jeter dans l'Isère à proximité du lieu-dit « Pré Plan ». Considérablement ramifié et équipé de plusieurs écluseaux sur son parcours d'environ 2520m de long, le « Canal de Séez » était de première importance et remplissait plusieurs fonctions. D'après Onde (1940 :487), sept artifices étaient placés sur son tracé. [id9] Des documents d'archives révèlent que plusieurs de ses segments et branches sont distinctement désignés par des noms propres. Le « Canal de Berleret » désigne une portion du canal traversant le village de Séez, alimentant plusieurs artifices et arrosant des prés sous le village jusqu'au lieu-dit « Pré Plan ». Le « Canal dit de la Tannerie » semble d'abord pourvoir une tannerie en aval du village, puis il arrosait les prés aux alentours et en aval de l'artifice jusqu'au lieu-dit « la Tine » en amont de l'Isère. « L'airiel (ou canal) des Etrals » arrosait des prés entre le chef-lieu et le Pont du Reclus en direction de la Fabrique et il se peut qu'il ait continué jusqu'au lieu-dit « Trêves » sur la rive droite 151 du Ruisseau du Reclus, là où un canal ou une rigole est visible sur le PCF. Il semble que d'autres segments encore de ce canal aient été nommés (voir Discussion ci-après). N°10. Le « Canal des Villards », ainsi nommé sur le PCF (également « Canal des Villards et du Breuil », « Ruisseau ou Nant des Villards » dans les documents d'archives), était ramifié comme le « Canal de Séez », avec plusieurs segments ou branches portant chacun un nom. Partant aussi de la rive gauche du Ruisseau du Reclus mais en amont du « Canal de Séez », il croisait d'abord le Ruisseau des Ecudets (ou viceversa), passait à l'est de la Chapelle de Notre Dame de Liesse où il arrosait les prairies de fauche, puis il descendait vers l'Isère en fournissant de l'eau à une série de villages à l'est du chef-lieu de Séez : les deux Villards, Molliebon, le Noyerai, le Breuil, etc. Ses segments ou bras portaient des noms tels que le « Canal du Breuil », « l'Airiel de la Legettaz », « Canal du Noyeray » et probablement d'autres encore (voirFigurFigure 34: Canal de Séez, Séez, 27/6/12 (cliché B. Meilleur) Discussion ci-après). Sur sa partie aval, le réseau semblait arroser aussi bien les jardins et vergers que les prairies de fauche. Le « Canal des Villards » se jetait dans l'Isère à proximité du Pont des Chèvres en aval du village du Breuil, après avoir traversé le lieu-dit « les Moulins » en faisant fonctionner plusieurs artifices. Il faisait environ 2640m de long. [id10] N°11. Le « Canal de Beaupré » (ou le « Canal du Pain Perdu », ainsi appelé par plusieurs experts locaux ; présent sous ce nom sur la carte IGN) c'était un long canal (5-6 km) aussi bien iconique qu'énigmatique dans la région à cause d'incertitudes sur son tracé et sur son histoire. Son parcours supérieur est connu grâce à la carte d'Etat-major (Bourg-Saint-Maurice N°4, SGA 1929). Il n'est pas visible sur le PCF. Il partait de la rive gauche du Ruisseau de Beaupré à la limite communale avec Bourg-Saint-Maurice pour se diriger au sud sur la commune de Séez et, à première vue, jusqu'au lieu-dit « les Combettes d'en Bas ». Sur sa portion supérieure, il passait par la façade ouest, très pentue, du Détroit de Bellefrée en amont du lieu-dit « Plan de Beaupré ». Des documents d'archives indiquent un parcours plus long que la carte d'Etat-major et indiquent qu'il délivrait l'eau jusqu'aux villages du « Mont-Villaret » et du « Cottier » (« Cocher », « Cotter », « Cossier »). Des citations telles que celles-ci : « acqueducs ou airiésde Cossier et du Villaret » ou « l'aiqueduc ou airié dit du Villaret », de 1801 et de 1869 (ADS 187E-dépôt 218), correspondent aux branches du bas du canal. Une mention donne les années de sa construction : 1832-33 (ADS S741 Séez). Plusieurs témoignages locaux indiquent qu'il était couvert de dalles de pierre sur une grande partie de son tracé. Il faisait environ 3630m de long jusqu'à la Combette d'en Haut. [id50] Dégradé constamment par des problèmes de glissements de terrain, il semble avoir été définitivement abandonné à la fin du 19e siècle (1880s-1890s), d'où probablement l'invention du sobriquet le « Canal du Pain Perdu ». De toute évidence, il a été remplacé par une canalisation en béton au début du 20e siècle, au moins pour sa section livrant l'eau potable aux villages du Mont et du Cottier (voir « Canal de la Duit » dans « Discussion » ci-dessous). 152 Canaux d'amenée N°1. Un cours d'eau, appelé Ruisseau de St. Germain sur le PCF, mais de toute évidence un canal, prend sa source au lieu-dit « la Grande Fontaine » entre les villages des Chavonnes et St. Germain. Son tracé principal, toujours en eau, est augmenté par d'autres sources avant son arrivée au Moulin de St. Germain, puis il descend vers le Ruisseau du Reclus au lieu-dit « le Pont ». [id : 565m +160m +70m environ] Un canal d'amenée court, construit de toute évidence pendant les premières décennies du 19e siècle, partait de la rive gauche du Ruisseau de Versoyen à proximité du lieu-dit « Sur la Fabrique ». Il fournissait de l'eau pour la machinerie puis ensuite pour la turbine de « la Fabrique » (la Filature Arpin : tissus de draps et d'autres produits en laine) ainsi que pour une scierie et une forge à proximité. Il était pourvu d'une « rigole d'arrosage » pour irriguer quelques prés entre son tracé principal et le Torrent du Versoyen (ADS J1706, 1911). Canaux d'alpage Au moins quatre canaux d'alpage sont visibles sur le PCF dans le secteur d'alpage des Ruisseaux du Teppié et de la Commune où, majoritairement, ils traversaient la ligne de pente. Ils formaient un ensemble qui, combiné avec les ruisseaux naturels, constituait un labyrinthe hydraulique d'entrelacements et d'entrecroisements. Leur fonction principale semble avoir été d'alimenter les chalets d'alpage et d'irriguer les pâturages. N°3. Le plus long et le plus sinueux de ces canaux partait de la rive droite du Ruisseau du Teppié à proximité du Lac Sans Fond. Il semble desservir plusieurs alpages et descendre jusqu'aux lieux dits « le Clapet » et « la Combette d'en Haut ». Il est également visible sur la carte d'Etat-major. Il faisait environ 3530m de long. [id3] N°5. Un canal, mesurant environ 2290m de long, partait à l'aval du premier, toujours sur la rive droite du Ruisseau du Teppié à proximité du lieu-dit « Teppié » pour arriver au lieu-dit « les Laies ». [id5] N°4. Un canal court quittait la rive gauche du Ruisseau de la Commune pour se diriger vers l'alpage de « la Commune » puis retourner vers le Ruisseau de Ste. Barbe. Il faisait 590m de long environ. [id4] N°2. Un autre canal d'alpage, court lui aussi mais se trouvant bien plus en aval que le précédent, partait de la rive droite du Ruisseau de Peisey pour desservir l'alpage de « la Colonne ». Il mesurait 620m environ. [id2] Discussion N°12. Employés apparemment pour arroser les prés avoisinants, deux canaux mineurs ou rigoles partaient de la rive gauche du Ruisseau de Pissevieille à proximité du lieu-dit « les Gorreys », en amont de la confluence du ruisseau avec l'Isère (rive gauche). Ils faisaient environ 200m de long. [id11] 153 N°13. Le Ruisseau de la Provenchère : la majorité de son tracé se trouvant sur la commune de Montvalezan, il passe ensuite sur la commune de Séez avant de se jeter dans l'Isère. Il est la continuation de « l'Airel Neuf d'en Bas » (aujourd'hui appelé « l'Airel Nua » ou « le Canal Neuf »), un canal important situé sur la commune de Montvalezan. Il parcourait environ 590m sur la commune de Séez. [id51] Un document de la période Empire (ADS Séez 187-E dépôt 218) parle du « Canal dit de la Duit ». En 1882, on reparle du « Canal de Laduy » (ADS S750), en mauvais état, « uniquement formé des eaux de diverses petites sources privées portant le même nom » (ADS S741). Au début du 20e, on mentionne une source canalisée en béton appelée « l'Adduis » (ADS 53SPC35). Un expert local a décrit le captage de cinq sources vers 1905 en ce lieu-dit et leur adduction en canalisation cimentée et enterrée. Il semble que la conduite partant à proximité du lieu-dit « la Duit » dans l'ouest de la commune, ait été mise en place pour augmenter ou remplacer le canal qui amenait l'eau potable autrefois au quartier du Mont par le « Canal de Beaupré » (voir ci-dessus), abandonné depuis la fin du 19e. Nous n'avons pas pu déterminer le tracé précis de ce canal/conduite. N°6. Le « Canal dit l'Airiel du Colleuw » (ou « Coleur », « Colriu d'en bas ») est cité dans les documents de la période Empire (ADS Séez E-dépôt 218), puis encore dans la « Section des Réservoirs » et la « Section des Mattiotes » dans un document du « Syndicat d'Arrosage du Quartier du Noyerai » (ADS S740 Séez, 1927). De toute évidence, ces canaux ou leurs segments faisaient partie du réseau du « Canal des Villards ». Sans pouvoir tracer le « Canal de Colriu » précisément, un expert local pensait qu'il était peut-être le canal partant d'une grosse source dans le secteur du lieudit « les Grands Cantons » qui irriguait les lieux dits « Montperron » et « Molliébon ». Un cours d'eau mineur est présent sur le PCF à proximité de cet endroit. Nous avons recensé plusieurs autres noms de canaux dans les documents d'archives. Ils sont cités ci-dessous avec les bribes d'information actuellement en notre possession :     « L'Airiel Dailler » et « Canal dit des Méreîlles » : peut-être des segments ou des branches du « Canal de Séez » ? « l'Airiel dit du Mollais » (du « Molliax » ?) : associé au « Canal des Villards » et le « Quartier du Noyerai » de ce réseau ; peut-être à proximité du lieu-dit actuel « Le Molliex » ? « l'Airiel Ducloz en Bas » « l'Airiel du Pomarey » : peut-être associé à « l'Airel de Pommaret » sur Montvalezan ? Lors de nos déplacements sur le terrain pendant l'été 2012, nous avons remarqué des rigoles d'irrigation dans les prés en amont du village de Longefoy, partant du Ruisseau de Nant Cruet. D'après un expert local, originaire de Montvalezan, on tirait de l'eau de ce ruisseau pour irriguer tout le secteur autour de Longefoy. Ce traitement a bénéficié du témoignage et du soutien sur le terrain de Jean-Luc Penna, qui a généreusement fourni des documents anciens et une iconographie bien appréciée. Gabriel Chevronnet et Lucien Merendet ont apporté des témoignages importants. 154 155 Tignes Comme pour Val d'Isère et les autres communes de Vanoise caractérisées par une haute altitude moyenne, les canaux spécifiquement destinés à l'irrigation des prés à Tignes sont peu nombreux voire absents. Notre inventaire des canaux de Tignes se limite donc à un seul canal d'arrosage (mais voir N°2 et 4 ci-dessous) et à un petit nombre de canaux d'amenée et d'alpage qui sont moins longs et moins nombreux en comparaison des autres communes de la Haute et la Moyenne Tarentaise, plus basses en altitude. La longueur totale des canaux de Tignes dépassait 4,9 km. Quatre canaux sont discernables sur le Premier Cadastre Français (PCF, 1905). Deux portaient des noms propres, un est désigné « canal » et le quatrième est sans étiquette. On a établi l'emplacement de plusieurs petits canaux d'amenée et de rigoles alimentant les bassins et les abreuvoirs, à l'origine probablement naturels tout autant que domestiqués. Nous n'avons retrouvé ni sur le PCF, ni dans nos entretiens avec les experts locaux, le tracé précis du canal signalé par Morel (2005 : 36) partant du Ruisseau du Plan du Cheval pour aboutir au lieu-dit « le Saut ». Cependant, d'après les experts locaux, il semble probable que ce lieu-dit ait été alimenté en eau par un canal ou une rigole. Canaux d'arrosage N°3. De toute évidence le « Canal de la Chaudanne » était majoritairement un canal d'arrosage. Il avait son origine dans les prés à proximité du lieu-dit « La Leissière » au sud du village de la Chaudanne. Il traversait de nombreux prés et passait à l'est du village, là où il était rejoint par un cours d'eau parcourant le village, avant de se jeter dans l'Isère. Ce canal est aujourd'hui situé sous le Lac du Chevril, donc il n'a pas été digitalisé. Canaux d'amenée N°2. Le village de Tignes était traversé par un cours d'eau désigné « canal » sur le PCF et qui alimentait au moins trois artifices. Il avait sa prise sur la rive gauche du Ruisseau du Lac de Tignes au lieu-dit « la Revettaz » à proximité du village du Villard-Strassiaz. Avant d'arriver à Tignes et de rejoindre l'Isère, il traversait plusieurs zones de prés. Il est probable qu'une partie de ce canal se trouve aujourd'hui sous le Lac du Chevril. Il faisait environ 465m en long. [id2] Canaux d'alpage N°1. Le « Canal du Chargeur », signalé par Morel (2005 :36) comme un canal d'alpage, part sur le PCF du Ruisseau de la Grande Combaz (affluent dans les hauteurs du Ruisseau du Chevril) pour desservir les chalets au lieu-dit « la Clettaz » et probablement ceux du lieu-dit « Chargeur », situé à proximité. Morel (ibid.) indique son point d'arrivée au lieu-dit « le Villaret ». Il mesurait environ 1830m. [id1] N°4. Un deuxième canal d'alpage, non-étiqueté sur le PCF, partait de la rive gauche du bras amont du Ruisseau de Grande Combaz à proximité du lieu-dit « Plan Clappey ». Il descendait vers le sud en traversant le bras inférieur du même ruisseau et arrivait à une sorte de réservoir avant d'alimenter les bâtiments du lieu-dit « la Ravarette ». En descendant vers l'Isère, il passait par des zones de prés « la Maisonette » et « Champ du Poulet » avant de se jeter dans la rivière à proximité du lieu-dit « la Grangette ». Il faisait environ 1235m de long. [id4] 156 N°5. De toute évidence un canal d'alpage relativement court quittait le Ruisseau de la Louie Blanche pour alimenter les chalets d'alpage « les Arsets ou Chez le Prince ». Un canal sans nom, affiché « Ruisseau à irriguer », est indistinctement repérable sur le PCF dans le secteur. Il faisait environ 1425m. [id5] Discussion Le PCF nous a permis de localiser, d'une part un canal d'amenée très court alimentant plusieurs artifices sur le Ruisseau du Lac au village de Ronnaz, d'autres part deux canaux d'amenée avec artifices sur le bas du Ruisseau de la Sachette et enfin un « moulin » sur le Nant Cruet à proximité du Pont de la Balme à la limite communale avec Sainte-Foy-Tarentaise. La plupart des zones d'alpages semblent avoir été desservies par des cours d'eau naturels de proximité. Néanmoins, on peut supposer que la plupart de ces cours d'eau ont subi une modification humaine d'une manière ou d'une autre afin d'augmenter leur débit et de permettre un apport plus efficace d'eau aux endroits désirés. Ce traitement a bénéficié des témoignages de Pierre Milloz et de l'aide logistique de S. Massonat. 157 158 Val-d'Isère Peu d'informations sont disponibles sur les vieilles cartes et dans les documents d'archives sur l'emploi traditionnel de l'eau à Val-d'Isère. Néanmoins, la littérature publiée et le Premier Cadastre Français (PCF, 1906) décrivent ou montrent un canal d'amenée et plusieurs canaux ou rigoles d'alpage, pour une longueur totale d'environ 2,96 km. Canaux d'amenée N°1. Un canal significatif, visible sur le PCF mais non-nommé, quittait la rive gauche de l'Isère à proximité du lieu-dit « Vers la Mourra ». Il traversait le lieu-dit « les Biallères » (« les canaux d'amenée » en français), traversait le village de Val-d'Isère, où il desservait plusieurs artifices, avant de se jeter dans la rivière. Il était équipé d'un déchargeur. Canaux d'alpage N°2. De toute évidence, un canal (ou rigole) d'alpage d'environ 2200m de long amenait de l'eau à un abreuvoir en amont des chalets d'alpage au lieu-dit « le Gorray ». Son origine était complexe, émergeant semble-t-il d'une réunion d'au moins deux petits cours d'eau et d'un court « canal connecteur » au Ruisseau du Grand Pré. Il semble être équipé d'un déchargeur. [id2] N°3. Deux canaux d'alpage, discernables sur le PCF mais sans nom, se trouvaient sur les hauteurs du Ruisseau du Calabordan. Le premier partait de la rive droite d'un petit affluent du Calabordan et desservait les bâtiments et l'abreuvoir au lieu-dit « l'Arsellaz ». Le deuxième, en aval, et partant de la rive droite du Calabordan, semblait alimenter au moins un bâtiment au lieu-dit « le Manchet », à proximité de la confluence du Ruisseau de Calabordan et du Ruisseau de Charvet, puis il se jetait de nouveau dans le Calabordan. Ils font entre 300m et 400m environ de longueur. [id3] Discussion Dans son ouvrage « Histoires de Val-d'Isère », Marcel Charvin parle plusieurs fois des usages traditionnels de l'eau à Val-d'Isère. Il dit par exemple : « de temps immémorial, chaque maison de Val-d'Isère, le Crey mis à part, avait sa source ou son puitset l'eau en était amenée sur l'abreuvoir au moyen d'une pompeà le Crey, il n'y avait pas de puitsdonc les gens envoyaient quelqu'un d'aller quérir l'eau aux biaillères qui coulaient abondamment en amont et en aval » (1979 :131). Nous n'avons rien trouvé d'évident pour les « biallères » de Charvin, mais le PCF montre un « Ruisseau du Cret » à proximité du village du Crêt. Ailleurs (p. 136), Charvin parle de l'alpage de la Thouvière où les gens ont creusé « une vaste citerne qui emmagasinait l'eau de la fonte de neiges, en vue des périodes sèches car l'alpage a besoin de beaucoup d'eau aussi que de grands abreuvoirs pour désaltérer le bétail ». Le PCF montre un objet à côté d'un cours d'eau à proximité du lieu-dit « la Tovière » qui pourrait être ce réservoir. Le PCF montre aussi un petit canal d'amenée partant de la rive gauche du Ruisseau du Callabordan au village du Joseray. Il est numéroté sur la carte, indiquant qu'il est peut-être propriété privée mais il ne semble pas aboutir à un artifice ou un bassin avant de rejoindre le ruisseau. Nous remercions Annie Ferbayre pour son aide logistique. 159 160 Villaroger Notre examen du Premier Cadastre Français (PCF, 1905) nous a permis de répertorier neuf canaux, six portant des noms propres, un désigné « canal » et deux ne portant pas d'étiquette. Il est possible qu'un dixième et un onzième canal existent sur la commune, l'un partant de la rive droite du Torrent de Pissevieille sur la commune d'Hauteville-Gondon à proximité de la Cascade de Pissevieille, l'autre partant de la rive droite du Ruisseau de Fornayen dans les hauteurs de la commune (voir Discussion ci-après). Ni l'un ni l'autre des deux ne sont visibles sur le PCF. Plusieurs canaux semblent avoir eu une double fonction, faire fonctionner des artifices et arroser les prés (voir N°1, N°7 ci-dessous). Nous estimons la longueur des canaux de Villaroger à environ 8,7 km. Canaux d'arrosage N°1. Le « Canal de la Bonneville » (voir Figure 35) quittait la rive droite du Torrent de Pissevieille à proximité du lieu-dit « le Tésert », partant vers l'est pour desservir des prairies de fauche et trois artifices au lieu-dit « Pré des Moulins ». Une fois arrivé au village de La Bonneville il bifurquait, le bras gauche desservant au moins un bassin du village avant de se jeter dans l'Isère. D'après le PCF, le « Canal de la Bonneville » et le « Canal de la Coulaz » (voir ci-dessous) semblaient être connectés par un cours d'eau ou un canal, de même que le « Canal de la Bonneville » était connecté à l'Isère. Nous ne sommes pas en mesure d'expliquer ces points d'attache énigmatiques (des déchargeurs ?, des drains ?). Il faisait environ 1700m de long. [id1] N°2. Le « Canal de Montrigon », ainsi affiché sur le PCF de Villaroger, est désigné dans cette commune limitrophe de Bourg-Saint-Maurice comme le « Canal de l'Arc à Montrigon ». Il quittait la rive gauche du Ruisseau de l'Arc sur la commune d'Hauteville-Gondon, puis il traversait une petite partie de la commune de Villaroger, mais il ne semble pas que les habitants aient eu des droits sur ce canal. Les 2/3 de son débit étaient destinés aux villages et propriétés de Bourg-Saint-Maurice dans le secteur de Montrigon, avec le tiers restant attribué à Hauteville-Gondon. Ce canal d'environ 10 km traversait Villaroger sur une longueur approximative de 1200m. FigurFigure 35 : Canal de la Bonneville (ancien lit), Villaroger, 21/6/12, (cliché B. Meilleur) N°3. Le « Canal de la Coulaz », faisant environ 1520m de long, quittait la rive droite du Torrent de Pissevieille en amont du « Canal de Bonneville » au lieu-dit « La Coulaz ». Il était équipé d'un déchargeur. Il se dirigeait vers l'est et se perdait dans les prés à l'ouest du village de Planchamp. Il était relié au « Canal de Bonneville » par un cours d'eau énigmatique. [id3] 161 N°4. En amont du « Canal de la Coulaz » sur la rive droite du Ruisseau de Pissevielle, le « Canal de la Zarzettaz ou de la Lovatière » partait vers le nord-est à travers la Forêt de Ronaz. Il traversait les prés du lieu-dit « La Lovatière » avant de se perdre au lieu-dit « le Molliet » à l'ouest de Ronaz. Il faisait 1730m environ de long. [id4] Canaux d'amenée N°5. Un canal d'amenée à deux prises d'environ 180m partait de la rive gauche du Ruisseau du Planay pour desservir un artifice. Situé au sud du village de Villaron, immédiatement à l'ouest de l'Isère, il est désigné le « Canal du Villaron » sur le PCF. [id5] N°6. Equipé de deux artifices, un canal d'amenée d'environ 100m et appelé « Canal du Moulin » sur le PCF, se trouvait au lieu-dit « Champs du Moulin » en amont du « Canal du Villaron » sur la rive gauche du Ruisseau du Planay, et à proximité du village du Planay. [id6] N°7. En remontant le lit de l'Isère vers le sud, nous avons trouvé deux ou peut-être trois artifices de plus sur un canal sans nom d'environ 460m, partant de la rive droite du Ruisseau du Mont Pourri. Il était entouré de prés, on peut donc supposer qu'il irriguait également ces parcelles. Il était pourvu d'un déchargeur à proximité du lieu-dit « les Moulinets ». Il se jetait dans le même ruisseau à proximité du lieu-dit « les Planchettes ». [id7] N°8. Un canal d'amenée de 120m environ quittait la rive droite du Ruisseau de la Savine. A l'évidence il fournissait de l'eau à deux artifices proches du lieu-dit « les Esserts ». [id8] Canaux d'alpage N°9. Un canal d'alpage quittait la rive gauche du Ruisseau Noir au sud et en altitude sur le versant gauche de l'Isère. Il semble avoir amené l'eau à l'alpage « la Martin ». Il est étiqueté « Canal » sur le PCF. Il faisait 920m de long environ. [id10] Dans le même secteur de la commune, on trouve un canal énigmatique ou un bras naturel partant de la rive gauche du Ruisseau du Nant Blanc. Il faisait environ 535m de long. [id9] Discussion Notre consultation du PCF nous a permis d'inventorier au moins sept artifices de plus sur le Ruisseau des Moulins au sud du chef-lieu de Villaroger, la majorité sans canaux d'amenée visibles. Des experts locaux nous ont indiqué deux canaux qui n'apparaissent pas sur le PCF. Nous avons évoqué ci-dessus la possibilité d'un canal quittant la rive droite du Ruisseau de Pissevieille sur Hauteville-Gondon, au bout du petit lac de Pré Saint Esprit pour se diriger vers l'est. D'après des témoignages locaux, un autre canal partait des hauteurs de la rive droite du Ruisseau de Forneyan afin d'amener de l'eau à l'alpage du Carollet. Nous n'avons pas pu en découvrir davantage sur ces canaux, restants donc hypothétiques. Ce traitement a bénéficié du soutien logistique de Monsieur le Maire Gaston Pascal-Mousselard et des témoignages de Jean Arnaud, Alain Bonnevie, Hervé Catenne et Albert Revial. 162 163 ANNEXE : LEXIQUE DES TERMES DIALECTAUX ASSOCIES A l'EAU ET A l'IRRIGATION EN VANOISE Anne-Marie Bimet L'irrigation, de même que tous les autres usages coutumiers de l'eau, était appréhendée par les populations montagnardes de Vanoise à travers le prisme du patois qui se décline en de nombreuses facettes, chaque commune ayant le sien. Mais tous émanent à ce tronc commun qu'est le francoprovençal, dont font partie les patois savoyards. Ce lexique est composé de termes employés pour désigner les composants, les activités et la technologie associés aux usages traditionnels de l'eau en Vanoise, avec un accent sur l'irrigation pratiquée naguère à Hauteville-Gondon. Les entrées principales sont alors issues du patois d'HautevilleGondon, écrites en employant la Graphie de Conflans. Les entrées en [crochets] m'ont été fournies par Brien Meilleur et je les ai transcries en employant la même graphie afin d'assurer une uniformité de présentation. Puisque je ne connais pas ces derniers mots personnellement, leurs transcriptions préliminaires auront besoin d'être vérifiées par les patoisants locaux des communes dont ils proviennent. abéòlèt ou abiòlèt (n.m.) : (du verbe abèò, abreuver), subdivision finale du canal d'arrosage que l'on fait déborder dans le pré. Les abéòlèt sont presque toujours perpendiculaires à la pente à HautevilleGondon et, s'ils se trouvent sur une limite de propriété, sont implantés sur celle du bas et donc entretenus par le propriétaire du bas [abiolet, Bellentre, Landry ; abérolète, Bourg-Saint-Maurice (La Thuile) : petites ouvertures, encoches faites vers l'aval dans une rigole coulant perpendiculairement à la pente]. agòt (adj.) : tari s'agòtò (v.) : se tarir [airel, airiel, airié, airél, heyriel : canal d'arrosage, en général moins important qu'un bié (voir cidessous) variantes des témoignages en Tarentaise et des documents écrits, voir aussi éryé ci-dessous] [aivâr, Sainte-Foy-Tarentaise (Constantin et Désormaux 1902 :12) : irriguer] [alôyeur (n.m.) : vanne, écluse ; Avrieux] améò l'èva : amener l'eau [amïn-à l'éva, Peisey-NancroixSilvin 2009] [bialleï (n.f.) : un canal, Bessans (Chazal 2002) ; bialé, biallier, (n.m.) : un canal de dérivation, Bessans (Chazal 2002) ; byaléi, Bessans (Duraffour 1969) ; byal (n.m.), Aussois (Duraffour 1969) ; byai, Aussois, Saint-André ; biyai, Aussois, Bramans ; bial, Avrieux, Bramans ; lo bialei = canal plus petit, la bialeij = canal plus grand, Bonneval-sur-Arc] [biallères : canaux générique (?), Val d'Isère (Charvin 1979) ; bialèr : canal d'amenée, Villarodin-Bourget ; bialièr, Bramans] [blayiré (n.f.) : canal d'amenée pour moulin, Villaroger] 164 [bléyar (n.m.), bléyeur (m.pl.), Termignon : canal] [bléyera (n.f.), Termignon : zone irriguée entre deux bléyeur ; bijelèra, Aussois ; bialeré, Bramans] bòrnèl (n.m.) : tuyau d'arrivée d'eau dans un bassin, un bachal. Celui-ci est protégé ou habillé de façon artistique [bòrnèlira (n.f.) : trou creusé par l'eau d'irrigation quand on ne la surveille pas, Bourg-Saint-Maurice] [borneaux, bourneaux, Sainte-Foy-Tarentaise (Emprin 1933)] [bouida : petite structure en montagne pour stocker le laitune rigole la traverse afin de garder le lait au frais, Villaroger] bouta (n.f.) ; petite cave à lait, voûtée, en montagne, dans laquelle on faisait couler l'eau pour la rafraichir. Le mot a aussi le sens plus général de petit abri muré et voûté, Hauteville-Gondon et BourgSaint-Maurice bourna (n.f.) : trousens général. bròtsèt (n.m.) : couloir de planches permettant de conduire l'eau dans des terrains instables ou perméables ou de la faire passer au-dessus du vide, en surplomb ou d'un rocher à l'autre. C'est aussi le canal d'amenée d'eau à un artifice. byé (n.m.) : gros canal, branché directement sur un ruisseau, en eau pendant toute la saison d'arrosage et entretenu par corvée par tous ses utilisateurs. Terme commun en Tarentaise. [biez, biedz, bied, bief : variantes de l'orthographe trouvée dans les anciens documents en Tarentaise] dèbòrdò (v.) : déborder. dèrontrè (v) : arroser une première fois au printemps. [détsardzu : déchargeur, canal de rupture, Bourg-Saint-Maurice] dèvriya ou dèvérya (n.f.) : prise d'eau sur le ruisseau ou éventuellement sur un gros canal. dèvriyé ou dèvéryé l'èva (v.) : détourner l'eau. [dévèria : écluse, Bourg-Saint-Maurice] [èga (n.f.) : eau, Saint-André] èhantsi (n.f.) : étang artificiel qui permet de stocker l'eau pour augmenter la capacité d'arrosage. (s')én'bòrnèlò (v) : en parlant de l'eau, creuser la terre, y occasionner des trous. én'ganhi (n.f.) : document officiel établi par un géomètre, qui réglait la division de l'eau entre les propriétaires, au prorata des surfaces de chacun. Les jours et heures auxquels chacun avait droit à l'eau y étaient déterminés avec précision et notifiés à toute personne concernée. 165 én'kluza (n.f.) : écluse, aménagement permettant de détourner une partie de l'eau du ruisseau dans le byé ; [èn'kluza, ékluza, Bourg-Saint-Maurice] èyveûa (n.f.) : irrigation. èyvò (v.) : irriguer, arroser par gravité [évò : arroser, Bourg-Saint-Maurice, Peisey-Nancroix, Silvan 2009] èryé (n.m.) : canal, nom générique ; [èryèl ; eyriel, Sainte-Foy-Tarentaise (Emprin 1933); airiel, Montvalezan (Gaide-Chevronnay 1931) ; airél (Constantin et Désormaux 1902 ; airiel ou airel, Villaroger (Duraffour 1969) ; èryèl, Peisey-Nancroix (Silvin 2009) ; érèl, Montvalezan ; airiel, Landry ; éryé, BourgSaint-Maurice ; érui, Pralognan-la-Vanoise] èryé kòrché (n.m.) : gros canal branché sur le ruisseau (voir ci-dessus) ou canal secondaire descendant droit dans la pente. Celui-ci est toujours empierré et placé en limite de propriété. Son entretien revient donc aux deux propriétaires mitoyens. A Hauteville-Gondon, èryé kòrché est un canal au débit rapide, soit du fait de la quantité d'eau transportée, soit du fait de la pente [érièls ou éryè kòrchés : « canaux secondaires », SéezADS DD187E dépôt 21, 218 ; éryé kòvhé : canal secondaire de taille intermédiaire, Bourg-Saint-Maurice] eûlò (n.f.) : pièce de pré allongée, délimitée à l'amont et à l'aval par un abéòlèt ou un èryé. Une grande surface de pré est constituée de plusieurs eûlè (pluriel de eûlò) parallèles, de largeur sensiblement identique, chacune correspondant à la capacité d'irrigation du canal qui la longe à l'amont. èva (n.f.) : eau [farouihè (n.f.) : tourne métallique, Termignon ; farouir, Aussois, Bramans] fontòa (n.f.) : fontaine, source [fontana, Bessans (Chazal 2002) ; funtona, Termignon] [frèguié (n.m.) : « petites cabanesoù on mettait les chaudrons à tremper pour les maintenir au frais avec les fromages », Bessans (Chazal 2002)] gòrda èryé (n.f.) : homme désigné pour assurer la surveillance d'un canal. gardò son èva (v.) : surveiller son eau pour qu'elle ne fasse pas de dégâts. sè gardò (v.) : surveiller sa prise d'eau pour qu'on ne vienne pas vous la détourner. kala (n.f.) : éboulement kalò ou mòdò an kala (v.) : s'ébouler [kiv (n.f.) : mélange de purin et fumier versé dans un canal d'alpage, Villaroger] ; kiva : liquide répandu en abondance là où l'on s'attend à trouver le sec, Hauteville-Gondon] [kopò l'éva : coupe l'eau, Peisey-Nancroix, Silvin 2009 ; idem à Hauteville-Gondon] 166 [korva (n.f.) : corvée, Bourg-Saint-Maurice ; kòrvò, Hauteville-Gondon] kouéò (v.) : curer, nettoyer l'èryé. kòvò l'èva (v.) : laisser l'eau longtemps au même endroit sans surveillance. I fò pò kòvò son èva, i fò la gardò : Il ne faut pas laisser son eau sans surveillance, il faut la surveiller. Kin on kòvòvè l'èva, i fachèy prindrè dè rvéè : Quand on laissait « couver » l'eau, ça faisait partir des ravines, des éboulements. krata (n.f.) : ouvrage de captage d'une source, Hauteville-Gondon, Bourg-Saint-Maurice. Le mot est employé parfois pour désigner une cave à lait en montagne rafraîchie par un courant d'eau. kratén (n.m.) : diminutif de krata. [krozò oün èryèl : creuser un canal, Peisey-Nancroix, Silvin 2009] ; kròzò on èryé, Hauteville-Gondon [lako pè èryè, Peisey-Nancroix, Silvin 2009] ; lakò : faire passer l'eau dans l'étable pour la nettoyer et envoyer cette eau dans le pré ou pâturage par une petite rigole. On dit aussi nèyé ou nèyé la drudzi (noyer le fumier). Cela se pratiquait en montagne. [liak (n.f.) : eau imbibée de purin et fumieron va liakor, Sainte-Foy-Tarentaise] [morèna (n.f.) : endroit surélevé sur lequel on fait couler un canal ou une rigole afin d'irriguer les deux côtés, Sollières-Sardières] moulén' (n.m.) : moulin mouléèt (n.m.) : petit moulin nan (n.m.) : ruisseau, torrent nè (n.m.) : rouissoir à chanvre [néyé (v.) : amender les prés ou les pâturages avec un mélange de purin, fumier et de l'eau, Bourg-SaintMauriceconsidéré à la Thuile comme un synonyme pour lakò (voir ci-dessus), peut-être un mot français ? ; néyi, Bonneval-sur-Arc] òdzò (n.m.) : bassin, bachal ou auge. l'òdzò du vladzò : le bassin du village l'òdzò du pouér : l'auge du cochon [pala (n.f.) : plaque pour tourner l'eau, Sollières-Sardières (farouir ailleurs en Haute Maurienne)] [peshai (n.m) : petite cascade au bout d'une rigole sous laquelle on place des seaux, Bonneval-sur-Arc] 167 [pô (n.m.) : planche et, dans un sens spécialisé, une planche utilisée pour détourner l'eau (voir aussi tourna), Landry ; Hauteville-Gondon] [pòssan (n.m.) : tronc évidé ou couloir de planches pour canaliser l'eau, Bourg-Saint-Maurice] [préza d'éva (n.f.) : prise d'eau, Landry, Villaroger ; prèyza d'éva, Termignon] ; prèyssa d'èva, HautevilleGondon [ré (n.m) : ruisseau, Bessans] [rigola (n.f.) : rigoleterme répandu en Tarentaise et Maurienne], rigôla, Hauteville-Gondon [riu (n.m.) : ruisseau, Saint-André, Termignon ; rieu, Aussois] sapa (n.f.) : sape, outil servant à curer les canaux et à diriger l'eau dans tel ou tel canal ; [sapète, Avrieux] [salèy (n.m.) : pièce fraiche pour garder le lait fraissouvent traversée par une rigole, Bonneval-sur-Arc] [tariyirè (n.f.) : tarière pour évider les bourneaux en bois, Villaroger] ; taòò (n.m.), Hauteville-Gondon [tchèvra (n.f.) : (littéralement « chèvre »), tuyau d'arrivée d'eau du bassin, Bourg-Saint-Maurice] tòa (n.f.) : cuvette où l'eau stagne, flaque. tourna (n.f.) : « tourne », plaque de fer, semi-circulaire permettant d'arrêter l'eau d'un canal pour la faire déborder ou pour la renvoyer dans un autre canal. Il en existe de dimensions variables. Anciennement, on utilisait une planche an pô (voir pô, ci-dessus), munie de deux longues pointes en fer que l'on fichait en terre pour la maintenir en position verticale. On utilise aussi des lauzes ou des pierres plates. [touarna, Peisey-Nancroix, Silvin 2009 ; touérna, Landry] [transhe (n.f.) : outil-plaque pour détourner l'eau (farouir ailleurs en Haute Maurienne), LanslebourgMont-Cenis] tsardjé l'èryé, lò byé (v) : charger le canal, le mettre en eau [tsardzé lo bié, Bourg-Saint-Maurice] tsaròtò (v. intr) : se dit des ruisseaux qui gonflent et charrient des matériaux, ce qui pouvait endommager ou boucher les canaux et créer des désordres. tséò (n.f.) : chéneau du toit en bois ou en métal. Demi-tronc creusé pour servir de chenal, de canal à eau. turbilye (n.m.) : roue à aubes (en bois) actionnant un artifice [u (n.m.) : rigole, Bellentre, Les Chapelles, Valezan] 168 Dictons : Pè plouvrè pè radò, i fò pò lòché lu prò a èyvò : « Qu'il pleuve ou qu'il « rade » (qu'il tombe des cordes), il ne faut pas laisser les prés à arroser » (sans arrosage). Dicton d'Hauteville-Gondon. [Ni pè plôze ni pè rudâ, lâché toûn rècôr a êva : « Par n'importe quel temps, même s'il pleut à torrent, n'hésite pas à irriguer tes prairies si tu veux obtenir une deuxième récolte de fourrage ». Dicton de Séez (Freppaz 1987 : 69)]. 169 NOTES 1. Docteur en ethnologie, Correspondant au Muséum. Membre, UMR7206 du CNRS, Laboratoire d'Ethnobiologie et d'Eco-anthropologie, Muséum national d'Histoire Naturelle, 75 rue Buffon, 75005 Paris. 2. Maître de conférences en Histoire Médiévale, Université de Savoie, 27 rue Marcoz, 73000 Chambéry. 3. M2, Laboratoire d'Ethnobiologie et d'Eco-anthropologie, Muséum national d'Histoire Naturelle, rue Buffon, 75005 Paris. 4. Institutrice à la retraite, Hauteville-Gondon, 73700 Bourg-Saint-Maurice. 5. Outre les personnes remerciées dans les traitements des communes, nous voulons remercier également des personnes et les institutions suivantes pour l'assistance rendue au projet : Christian Abry, Habiba Atamaa (PNV), Françoise Ballet (CG73), Bruno Barral (la Côte d'Aime), Marie-Pierre Bazan (PNV), Alexis Bétemps (Aoste), Christian Chaludet (Valezan), Gilles Charvet (RTM), Emile Chenu (Valezan), Sylvie Claus (ADS), Emmanuelle Combet (ADS), Emilie Dreyfus (Biblothèque Municipale de Chambéry), Jean-Pierre DuBourgeat (Musée de Conflans), Elise Etiévant (Aime-Longefoy), Yvette Fraissard (Musée de Conflans), Alice Joisten, Claire Lagaye (PNV), Louis Modelon, Jean-Marc Mollet (Musée de Conflans), Danièle Munari (ADS), Christian Neumüller (PNV), Véronique Plaige (PNV), Guy Plassiard (La-Côted'Aime), Raphaëlle Poirier (Bibliothèque Municipale de Chambéry), Bernard Rémy, Julie Usannaz (Les Chapelles), Valentina Zingari. Je remercie plus particulièrement Philippe Marchenay et Anne-Marie Bimet pour avoir fourni une lecture détaillée du texte en apportant des corrections importantes. 6. Sommet de la Grande Casse. 7. Une série de statistiques sur neuf ans (1991-1999) de « Météo France, Centre Départemental de la Savoie » a été trouvée dans les archives du Parc national de la Vanoise à Chambéry. Ne fournissant pas des données pour toutes les communes de Vanoise, la série a néanmoins révélé deux communes de Haute Maurienne avec des précipitations annuelles moyennes de moins de 700mm : Avrieux (607mm), Termignon (693mm). Quatre communes de Tarentaise ont enregistré des moyennes annuelles de plus de 1000mm : Bourg-SaintMaurice (1016mm), Ste.-Foy (1116mm), Pralognan (1151mm), Tignes (1171mm). 8. « Zone : toute portion d'un édifice géologique dans laquelle les roches ont une histoire stratigraphique et tectonique identique » (Debelmas et Rampnoux 1994). 9. L'Avérole à Bessans présente un rapport entre les extrêmes de 246, le Ribon 243 alors que l'Isère à Tignes a un rapport de seulement 14 (Blanchard 1920). 10. En Vanoise, la zone des « montagnettes » désigne un groupement dispersé de bâtiments temporaires et un ensemble de prairies de fauche situés entre l'habitation permanente (le village) et la zone des alpages. Lors des remues typiques pendant la belle saison en Vanoise, cette zone était habitée pendant quelques semaines au printemps et à l'automne. Les 170 familles y faisaient pâturer leur bétail en confectionnant en général du beurre et des petits fromages. Plus tard, en été, on faisait des foins dans cette zone alors que les bêtes se trouvaient aux alpages. Les dernières communes de la vallée de la Haute Maurienne et de la Haute Tarentaise n'étaient peu ou pas caractérisées par cette zone à cause de leur altitude élevée, les remues passant directement des villages aux chalets d'alpage. 11. Delphine Morel a réalisé en 2005 un mémoire d'ingénieur agronome sur l'irrigation dans le PNV. Elle a, au cours de ce travail, répertorié et dénommé de nombreux canaux. C'est la première à avoir réalisé un inventaire utilisé dans cette étude. 12. L' « effet des sources », concept important en histoire, se base sur l'idée que la disponibilité des sources peut influencer les résultats d'une étude. Le fait que des documents d'archives sont beaucoup moins nombreux pour la Haute Maurienne a sans doute eu comme conséquence un biais pour la Tarentaise dans nos descriptions de l'emploi de l'eau en Vanoise. 171 BIBLIOGRAPHIE Balseinte, R. 1955 « La pluviosité en Savoie », Revue de Géographie Alpine, 43(2) : 299-355. Bénévent, E. 1926 « Documents sur le climat des Alpes françaises. Etude critique », Revue de Géographie Alpine 14(4) : 681-764. Bessat, H. et Cl. Germi 1993 Lieux en Mémoire de l'Alpe : toponymie des Alpages en Savoie et en Vallée d'Aoste, Grenoble, ELLUG, Univ. Stendhal. Blanchard, R. 1920 « Régimes hydrauliques et climatiques. Alpes du Sud et ensemble des Alpes françaises », Revue de Géographie Alpine » 8(2) : 177-223. ---- 1943 Les Alpes Occidentales, T. 3 Vol. 2 Les Grandes Alpes Françaises du Nord, Grenoble, Arthaud. Bozonnet, R. et Y. Bravard 1984 Sainte-Foy-Tarentaise-Tarentaise : une montagne pour des hommes. Montmélian, Imp. Arc-Isère, 192 pages. Brissaud, I. 2004 (modifié 2007) « Fractualité de certaines réseaux d'irrigation de l'Arc Alpin, » Cybergeo : European Journal of Geography, art. 277, URL : http://cybergeo.revues.org/index2508.html Cabouret, M. 1999 L'Irrigation des prés de fauche en Europe occidentale, central et septentrionale, Paris, eds. Karthala, 320 pages. Carcaillet, Ch. 1998 « A spatially precise study of Holocene fire history, climate and human impact within the Maurienne valley, North French Alps », Journal of Ecology 86 : 384-396. ---- et J.-J. Brun 2000 "Changes in landscape structure in the northwestern Alps over the last 7000 years : lessons from soil charcoal", Journal of Vegetation Science 11 : 705-714. Charvin, M. 1979 Histoiresde Val-d'Isère, eds. CNRS, 323 pages. Chavoutier, L. 1977 « Des moines cisterciens aux paysans savoyards: la création des alpages, » L'Histoire en Savoie 46 : 1-24. Chazal, A. 2002 Toponymie de Bessans, eds. de Belledonne, 242 pages. 172 ---- 2008-2009 « Les sites du Chatelard et de la Loza ou les pierres-témoins », Bessans Jadis et Aujourd'hui 60 : 5-24. Chemin, R. (avec la collaboration de J.-M. Treffort et O. Franc) 2010 Aime, Les Chaudannes-Route de Villaroland, rapport INRAP, 174 pages. Coanus, T. 1995 Risque naturel et paysages : Analyses à partir du cas de Sainte-Foy-Tarentaise (Savoie), rapport, Ecole Nationale des Travaux Publics de l'Etat, Laboratoire Rives, 2 tomes. Combet, Ch. et C. Bouchage 1998 « Le bief Bovet, » Société d'Histoire et d'Archéologie d'Aime 18 : 3-30. Constantin, A . et J. Désormaux 1902 Dictionnaire Savoyard, Paris et Annecy, Bouillon et Abry, 443 pages. Cousin-Woyseck, A. 2005-06 « Le compte particulaire de Maurienne pour 1429-1430 (SA 16084) », Mém. de fin d'études, dépt. de l'Histoire, Univ. De Savoie. Couvert, A. 2003 Les Derniers Bérets Noir, la Motte Servolex, Imp. Lippmann, 152 pages. David, F. 2010 « An example of the consequences of human activities on the evolution of subalpine species », Comptes Rendus Palevol 9 : 229-235. Debarbieux, R. et H. Gumuchian 1987 « Des lieux et des noms : pratiques, représentations et dénominations en haute montagne nord- alpine », Documents d'Ethnologie Régionale 9 : 149-160. Debelmas, J. et J.-P. Rampnoux 1994 Guide Géologique du Parc national de la Vanoise : itinéraires de découverte, Paris, BRGM, 91 pages. Delorme, M., Ph. Lebreton, L. Reynaud et D. Allaine 2009 « Analyse et réflexions préliminaires sur l'évolution climatique en Vanoise », Travaux Scientifiques du Parc national de la Vanoise » 23 : 69-104. Dubuis, P. 1995 « Bisse et conjoncture économique : le cas du Valais aux XIVe et XVe siècles » in Les Bisses, Actes du Colloque International sur les Bisses, Sion, 15-18 sept. 1994. Annales Valaisannes 2e série, 70e année, pp. 39-46. Duraffour, A. 1969 Glossaire des patois franco-provençaux, Paris, eds. CNRS, 718 pages. Emprin, J.-M. 1933 173 Histoire de Sainte-Foy-Tarentaise, Montpellier, Pierre-Rouge. Freppaz, C. 1987 La Vie Traditionnelle en Haute Tarentaise, Challes-les-Eaux, Curandera. Gaide, R. et G. 2000 100 ans là-haut, de 1900 à 2000, Montvalezan-la Rosière, Bourg-Saint-Maurice, Imp. L'Edelweiss. Gaide-Chevronnay, J.-D. 1931 Histoire de Montvalezan-sur-Séez, Bourg-Saint-Maurice, Lib. Edouard Beroud. (Chpt. IX-Partage des Eaux). Gardelle, Ch. 1999 Alpages, les terres d'été, Montmélian, La Fontaine de Siloé, 389 pages. Genries, A., S. Muller, L. Mercier, L. Bircker et Ch. Carcaillet 2009 « Fires control spatial variability of subalpine vegetation dynamics during the Holocene in the Maurienne valley (French Alps), Ecoscience 16(1) : 13-22. Gimmi, U., M. Bürgi, et M. Stuber 2008 « Reconstructing anthropogenic disturbance regimes in forest ecosystems : a case study from the Swiss Rhone Valley », Ecosystems 11 : 113-124. Godefroy, R. 1941 « L'irrigation en Savoie intra-alpine, » Revue de Savoie 1 :74-76. Gotteland, N. et L. Crabières n.d. Inventaire des Moulins de Savoie, vol. 1 : Haute Tarentaise, vol, 4 : Haute Maurienne, Association des amis des Moulins Savoyards, 1999 ; ADS J1706 (en 4 volumes). Guichonnet, P. 1980 « L'irrigation artificielle, » in Economie et Formes de Vie Traditionnelles, Tome 2. Destin Humain, Histoire et Civilisations des Alpes. Hudry, M. 1976 « Les salines de l'Arbonne », pp. 129-138 in Métiers et Industrie en Savoie, Actes du Congrès des Sociétés Savantes de la Savoie, Annecy 1974, Mém. et Docs. Acad. Salésienne 1976, tome 86. ---- 1982 Histoire des communes savoyardes : Tome IV Albertville et son arrondissement, Roanne le Coteau, Eds. Horvath. 444 pages. ---- 1985 « Documents pour une histoire de l'irrigation en Tarentaise, » Le Monde Alpin et Rhodanien 4 : 113-120. ---- 1991 « L'évolution des structures socio-économiques depuis les origines, » pp. XX, in Le Versant du Soleil, Mémoires et documents de l'Académie de la Val d'Isère (ns) 21, L. Chabert (éd.), Moûtiers. 174 Jail, M. 1969 « La Haute-Maurienne : recherches sur l'évolution et les problèmes d'une cellule montagnarde intraalpine, » Revue de Géographie Alpine 58(1) : 85-146. ---- 1977 Haute-Maurienne : pays du diable ? Grenoble, eds. Allier, 244 pages. Leguay, J.-P. 1985 « L'agriculture en Savoie médiévale : bilan des connaissances actuelles, » in E. Kanceff, J.-P. Leguay, L. Quagliotti et L. Terreaux (eds.), Travailler la Terre en Savoie et en Piedmont, Cahiers de Civilisation Alpine 5. Leveau, Ph. 2006 « Rome et la gestion de l'eau dans les Alpes », in Boetsch, G., H. Cortot (eds.), L'Homme et l'Eau en Milieu Montagnard, Gap, eds. des Hautes-Alpes, pp. 29-41. Meilleur, B. 1985 « Gens de montagne, plantes et saisons : savoirs écologiques de tradition à Termignon (Savoie), » Le Monde Alpin et Rhodanien 1, 1985. ---- 2001 « Arroser la montagne : un projet de recherche sur les systèmes d'irrigation traditionnelle en pays de Vanoise, » in Histoires d'Eau : actes de la conférence annuelle sur l'activité scientifique du Centre d'Etudes Franco-Provençales, Saint-Nicolas, Aoste. ---- 2008 Terres de Vanoise : agriculture en montagne savoyarde. Collection Le Monde Alpin et Rhodanien. Grenoble, Musée Dauphinois, 151 pages. Million, M. et V. Median-Gros 1866 « Inventaire des titres de l'archevêché de Tarentaise, » Mémoires et documents de l'Académie de la Val d'Isère, t. 1, Moûtiers. Morel, D. 2005 « Etude des équipements d'approvisionnement et de distribution de l'eau à valeur patrimoniale dans l'espace Vanoise-les canaux d'irrigation dans le Parc National de la Vanoise, » Mémoire ENSAIA : Sciences et Technologies de l'Environnement. Mouthon, F. 2001 « Moines et paysans sur les alpages de Savoie (XIe – XIIIe siècles) : mythe et réalité, » Cahiers d'Histoire 46-1 (consulté en ligne). ---- 2010 « Savoie médiévale, naissance d'un espace rural (XIe-XVe siècles), » L'Histoire en Savoie 19 : 175 pages. Niederer, A. 1980 175 « Economie et forme de vie traditionnelles dans les Alpes, » pp. 5-90 in Histoire et civilisations des Alpes II Destin Humain, sous la direction de Paul Guichonnet, Privat /Payot, Toulouse et Lausanne. Onde, H. 1937 "Jachère climatique et servitudes agricoles en Haute-Maurienne, "Annales de Géographie XLVI : 369373. ---- 1938 La Maurienne et la Tarentaise : étude de géographie physique. Grenoble, Arthaud, 623 pages. ---- 1940 "L'arrosage dans la zone intra-alpine en Savoie," Revue de Géographie Alpine 28(4) : 481-489. Paccolat, O. etal. 2011 Pfyn/Finges. Evolution d'un Terroir de la Plaine du Rhône. Cahiers d'Archéologie Romande 21, Archaeologia Vallesiana 4, Lausanne, 444 pages. Parc National des Ecrins 2011 « Le maintien des canauxavec l'aide de Natura 2000, » in site PNE 20/1/2011 (traitant le Valgaudemar). Parc National de la Vanoise 2007 Patrimoine naturel de Saint-Bon Courchevel, Chambéry, Parc national de la Vanoise, 167 pages. Pérouse, G. 1915 Archives départementales de la Savoie : archives ecclésiastiques-Série G. Diocèses de Tarentaise, de Grenoble et de Maurienne. Reggio, L. 1965 « La pratique de l'irrigation en Vallée d'Aoste, » Le Flambeau 12(3). Rey, P.-J. 2011 Réservoirs et systèmes d'irrigation dans les alpages du col du Petit-Saint-Bernard : vers l'identification de structures antiques ? pp. 353-375 in L'Eau dans les Alpes Occidentales à l'Epoque Romaine, N. Mathieu, B. Rémy et Ph. Leveau (eds.), Grenoble, Les Cahiers du CRHIPA N° 19. ----, I. André et J.-M. Treffort 2008 « Les versants du Petit Saint-Bernard de la préhistoire à l'antiquité : nouvelles données sur les premières occupations de la montagne autour d'un passage transalpin », pp. 149-175 in Le Peuplement de l'arc alpin, Paris, ed. du CTHS. Ronc, C. 1992 « Le contrôle des eaux, » pp. 294-295 in L'Homme et les Alpes, Grenoble, Glénât. Roulier, E. 1995 « Un regard ethnoarchéologique sur la genèse de l'irrigation en Valais », in Les Bisses, Actes du Colloque international sur les bisses, Sion, 15-18 sept. , 1994. Annales Valaisannes, 2e série, 70e année, pp. 65-74. 176 Silvin, D. 2009 « Le trésor de la langue peiserote : un patois de Haute-Tarentaise, » Société d'Histoire et d'Archéologie d'Aime 25, 344 pages. Tourner, H., Ph. Lebreton et J.-P. Martinot 2000 « Avifaune de Vanoise », Travaux Scientifiques du Parc national de la Vanoise 21 : 19-68. Tracq, F. 2000 La Mémoire du Vieux Village : La vie quotidienne à Bessans au début du XXe siècle, Montmélian, La Fontaine de Siloé, 559 pages. Trévisan, D., J.-M. Dorioz et Y. Pauthenet 1994 « Apport d'un modèle simplifié de simulation du bilan hydrique pour l'analyse de la satisfaction du besoin en eau des prairies irriguées des Alpes internes », Agronomie 14 : 683-696. Truchet, S. 1894 « Lanslebourg et Montcenis », Société d'Histoire et d'Archéologie de Maurienne 2e série, t 1, première partie, pp. 78-94. ----1912 « Termignon », Mémoires et Documents de la Société Historique et Archéologique de Maurienne 5(2) : 1-43. Villette, J. 2012 « De l'eau, des canaux et des hommes : l'irrigation en Haute Maurienne », Mémoire de M2 Spécialité Environnement, Développement, Territoires, Sociétés, MNHN Paris, 107 pages. Vivian, H. 1964 « Données nouvelles sur l'hydrologie de l'Isère et de l'Arc supérieurs », Revue de Géographie Alpine 52(2) : 265-303. 177
{'path': '04/hal.archives-ouvertes.fr-hal-02518926-document.txt'}
La conception d'hypermédias pour l'apprentissage :structurer des connaissances rationnellement ou fonctionnellement ? André Tricot, Claude Bastien To cite this version: André Tricot, Claude Bastien. La conception d'hypermédias pour l'apprentissage :structurer des connaissances rationnellement ou fonctionnellement ?. Troisième colloque Hypermédias et Apprentissages, May 1996, Châtenay-Malabry, France. pp.57-72. edutice-00000509 HAL Id: edutice-00000509 https://edutice.archives-ouvertes.fr/edutice-00000509 Submitted on 5 Jul 2004 Troisièmes journées hypermédias et apprentissages 57 LA CONCEPTION D'HYPERMÉDIAS POUR L'APPRENTISSAGE : STRUCTURER DES CONNAISSANCES 1 RATIONNELLEMENT OU FONCTIONNELLEMENT ? André Tricot et Claude Bastien Centre de Recherche en Psychologie Cognitive (CREPCO - URA CNRS 182) Université de Provence, 29, av. Robert Schuman 13 621 Aix en Provence Cedex Résumé : L'enthousiasme de ces dix dernières années pour les hypermédias dans le domaine des technologies éducatives était largement dû à la croyance selon laquelle on allait pouvoir structurer des connaissances fonctionnellement, « comme dans la tête des sujets ». Nous prétendons au contraire qu'un corpus de connaissances à transmettre doit avoir une organisation rationnelle, pour une large part indépendante du contenu. Notre argumentation se présente en deux points : - la connaissance qu'un sujet traite et mémorise lors d'un enseignement, y compris sur hypermédia, n'est pas la connaissance qu'il acquiert et qu'il pourra utiliser dans une situation future ; ainsi, même s'il pouvait le faire, un concepteur de tutoriel n'a pas à imiter les connaissances du sujet ; - lors d'un apprentissage sur un hypermédia, le sujet doit d'abord trouver les informations qu'il cherche, les comprendre, évaluer leur pertinence, résoudre des problèmes ; le rôle du concepteur est d'abord d'aider le sujet dans ces activités qui « entourent » l'apprentissage. Partant de là, ce papier a pour objectif de décrire un cadre problématique général pour la conception de systèmes hypermédia pour l'apprentissage. Le principe que nous défendons est que plutôt que d'imiter les connaissances du sujet, le concepteur doit, par une structure claire, rationnelle, relativement indépendante du contenu, permettre au sujet de localiser des informations, et de comprendre les liens qu'il y a entre elles dans le système. 1 Ce papier est une synthèse de travaux s'étalant sur 4 ans, au cours desquels nous avons collaboré avec Jean-François Rouet, Jocelyne Nanard et Jean-Paul Coste. Ces travaux ont abouti a une thèse (Tricot, 1995a) et à quelques publications. Les idées développées ici reprennent principalement : Bastien (1992, 1993), Rouet et Tricot (1995, in press) et Tricot (1994, 1995b), ainsi que les résultats de Pellegrin (1995) et ceux de Salazar-Ferrer (1995). h&a3p057.doc 1/16 14/06/2004 58 Troisièmes journées hypermédias et apprentissages 1. INTRODUCTION Au cours de la seconde moitié des années 80, les hypermédias ont apporté un courant d'air frais à la recherche et au développement d'outils EAO. À différents niveaux, cette nouvelle technologie permettait d'éluder (et non de répondre à) quelques problèmes du domaine : élaboration d'un modèle de l'apprenant, gestion du dialogue, adaptation du niveau de connaissance, etc. Elle véhiculait une idée force, qui se résume caricaturalement ainsi : grâce aux hypermédias, on devait pouvoir structurer des connaissances fonctionnellement, « comme dans la tête des sujets », l'application EAO s'adaptant ainsi « automatiquement » à eux. Cette idée était, il est vrai, fortement appuyée par les modèles de réseaux et de mémoires sémantiques, en IA et en psychologie cognitive. L'objectif de ce papier est de montrer que l'intérêt des hypermédias pour l'apprentissage est à l'opposé de cette idée force. Dans la partie 2 nous rapportons succinctement les travaux d'un des auteurs qui représentent le mieux le courant de pensée dominant de ces dernières années, concernant les hypermédias pour l'apprentissage, David Jonassen. Pour lui, la conception de ces systèmes consiste à représenter des connaissances fonctionnelles dans une base de donnée hypertextuelle, et à les transmettre telles quelles. Puis, nous essayons de répondre aux questions suivantes : - qu'est-ce qu'un sujet apprend dans un hypermédia pour l'apprentissage ? (partie 3). Nous examinons la nature des connaissances acquises et les processus d'acquisition de connaissances ; - qu'est-ce qu'un sujet fait vraiment dans un hypermédia pour l'apprentissage ? (partie 4). Nous présentons le modèle de Rouet et Tricot (1995, sous presse) qui décrit cette activité comme un cycle « évaluation - sélection - traitement » ; - qu'est-ce que nous pouvons faire pour aider un apprenant dans un environnement hypermédia ? (partie 5). Nous répondons que le concepteur doit aider l'utilisateur à chercher, à comprendre, et à contextualiser les connaissances qui sont présentées. Dans la conclusion, nous ébauchons un cadre pour la recherche sur les hypermédias pour l'apprentissage où pourraient être articulées l'étude du raisonnement en situation, celle des apprentissages des connaissances nécessaires à ce raisonnement et celle de l'ergonomie des supports pouvant permettre ces apprentissages. 2. LA FONCTIONNALISATION DES CONNAISSANCES SUR HYPERTEXTE COMME OUTIL D'ENSEIGNEMENT Les travaux de Jonassen, dont la démarche est strictement opposée à la nôtre, sont sans doute représentatifs des idées et des ambitions de ces dix premières années de recherche sur les hypermédias pour l'apprentissage. Cet auteur est un des chercheurs importants du domaine (voir notamment Jonassen, 1989, 1992, 1993 ; Jonassen et Mandl, 1990). Pour Jonassen, l'intérêt des hypermédias réside précisément dans le fait que l'on peut y stocker « telle quelle » l'organisation en mémoire h&a3p057.doc 2/16 14/06/2004 Conception et expérimentations 59 des connaissances d'un expert, dans un domaine donné. Il se base sur une analogie de forme entre les modèles de mémoire sémantique et l'hypertexte (il s'agit dans les deux cas d'unités de connaissances reliées entre elles par des liens que l'on peut typer). Selon lui, l'acquisition de ces connaissances, et plus précisément la procéduralisation, consisterait en une sorte d'appariement des structures de relations entre concepts, du mode procédural vers le mode déclaratif. Ainsi, Jonassen propose l'organisation sémantique - fonctionnelle du corpus de connaissances à transmettre. Il a conduit trois expérimentations (Jonassen, 1993 ; Jonassen et Wang, 1993) sur l'acquisition, par des novices, de connaissances expertes stockées dans un hypertexte selon cette logique. Elles sont représentées selon le formalisme des schémas ; les schémas sont intégrés dans un réseau sémantique composé de noeuds (les schémas) et de relations étiquetées et ordonnées. Dans la première expérimentation, les sujets disposent d'un « navigateur graphique » (graphical browser), soit une représentation graphique de la « mémoire sémantique de l'expert ». Pour évaluer la connaissance structurale, on dispose de dix questions, chacune ayant trois « sous-échelles » : jugements de proximité des relations, relations sémantiques, analogies. Trois groupes de sujets passent l'expérience : groupe « navigateur graphique », groupe « information sur les relations » (non graphique : l'information est donnée chaque fois que le sujet « clique »), groupe contrôle (pas d'information sur les relations ou la structure). L'auteur n'observe pas de différence significative dans une tâche de rappel, où il évalue la proximité du rappel et du document source, notamment au niveau des relations entre concepts ; le « navigateur graphique » semble entraîner les scores les moins bons. Le rappel est le meilleur dans la condition contrôle. Dans la deuxième expérimentation les sujets classent les liens d'après leur « nature ». Les résultats sont équivalents : il n'y pas de différence significative, le rappel est le meilleur dans la condition contrôle. Une troisième expérimentation porte sur deux groupes de sujets : les sujets du premier groupe doivent juste « apprendre », les autres doivent apprendre dans le but de créer plus tard un réseau sémantique de type hypertexte. Les résultats montrent que le 2ème groupe a de meilleurs scores à l'échelle « jugements de proximités ». Il est à noter que Jonassen éprouve des difficultés à identifier ce qu'il est pertinent de chercher quand on veut mesurer « l'apprenabilité » d'un hypertexte. Il n'évalue absolument pas ce qu'il cherche (l'acquisition de procédures). Comme il l'écrit, ces résultats sur le rappel semblent contredire sa théorie. 3. QU'EST-CE QU'UN SUJET APPREND DANS UN HYPERMÉDIA POUR L'APPRENTISSAGE ? COMMENT ? 3.1. Sur la nature des connaissances acquises 3.1.1. L'importance du contexte Aujourd'hui, les chercheurs sont généralement d'accord sur le fait que l'utilisation d'une connaissance abstraite et parfaitement décontextualisée, pouvant s'appliquer à de nombreuses situations, est plutôt l'exception que la règle chez un h&a3p057.doc 3/16 14/06/2004 60 Troisièmes journées hypermédias et apprentissages sujet humain : voir par exemple Amy et Tiberghien (1993) et Bonnet (1986) pour la perception, Baddeley (1990) pour la mémoire, et Suchman (1987) pour le raisonnement. Nous commençons par rappeler la discussion que Le Ny (1989) a consacré au contexte parce qu'elle lui sert à proposer un modèle des représentations mentales et de leur fonctionnement ouvertement « contextualiste ». Nous reprenons cette discussion, pour remettre en cause le modèle de Le Ny, qui ne serait « pas assez contextualiste » en ce qui concerne les connaissances fonctionnelles2. Le Ny part de la proposition suivante : Un contexte linguistique joue, lors de la compréhension d'une unité (par exemple un mot) à l'intérieur d'un énoncé, exactement le même rôle qu'une situation par rapport à une représentation d'objet (). Il est équivalent de dire « le contexte linguistique est un cas particulier du contexte de situation » () que « le contexte de situation est conceptualisable de la même façon que le contexte linguistique. » (Le Ny, 1989, p.83) Puis il rappelle l'expérience de Barclay et al. (1974), qui ont montré que la signification de « piano » est instanciée de façon différente dans : « Lydia jouait délicieusement une sonate sur son piano » et dans : « Les déménageurs ont eu de la peine à apporter le piano » Il écrit : « En bref, ce sont les attributs relatifs à la sonorité et à la musicalité de l'instrument qui sont activés dans le premier cas, ceux relatifs à son poids et à son encombrement dans le second. » (Le Ny, 1989, p. 84) Il propose alors comme une des caractéristiques principales du système cognitif humain la manipulation de représentations « flexibles » (dont le relief des attributs varie selon le contexte) : « La possibilité de moduler la hiérarchie des variables-attributs, de changer leur relief, est, au même titre que la possibilité d'instancier par des valeurs ces mêmes variables-attributs, une condition constitutive de tout concept. » (Le Ny, 1989, p.85) Le Ny pense qu'un concept ne peut pas se concevoir en dehors d'un contexte, et que ce contexte fait varier l'activation des attributs du concept. Plus loin (p.133), il étend et formalise sa conception des représentations mentales : « La structure abstraite d'un schéma cognitif () doit contenir des superconstantes cognitives telles que, s'il s'agit d'un schéma d'objet : a-pour-traitattribut (o, a) où o représente l'objet et a l'attribut, a-pour-valeurs-d'attribut (o, a, d) avec o pour l'objet, a pour un attribut, et d une description de la distribution. » 2 Même s'il ne l'écrit pas en ces termes, Le Ny restreint son modèle aux connaissances déclaratives. La description qu'il fait (p. 129-132) des scripts de Schank et Abelson (1977) (donc de « connaissances pour l'action »), ne lui sert qu'à introduire la notion de schéma d'objet. h&a3p057.doc 4/16 14/06/2004 Conception et expérimentations 61 Une « propriété attribuable par défaut » est attribuée « en l'absence d'information pertinente au cas considéré ». D'une façon générale, il y aurait une « marge de décision concernant les traits-valeurs d'attributs des concepts ». La complexité et l'efficience d'un schéma dépendraient du degré d'expertise du sujet sur la situation. Nous proposons d'aller plus loin que Le Ny dans l'importance attribuée au contexte dans la mobilisation de connaissances chez un sujet humain, en nous appuyant sur les propositions d'Inhelder et Cellérier (1992) et sur les résultats expérimentaux de Pellegrin (1995) et Salazar-Ferrer (1995). Notre proposition concerne les « connaissances fonctionnelles » : des connaissances « pour agir » organisées en fonction d'un but. À un même concept pourraient correspondre différentes « connaissances fonctionnelles », selon le contexte. Car, contrairement à ce que propose Le Ny dans son modèle, la mobilisation de connaissances fonctionnelles dans deux contextes différents n'entraîne pas simplement une variation dans la hiérarchisation des attributs, mais bien la mobilisation de fonctionnalités différentes, de liens différents, et de réseaux différents : un même concept peut être localisé à deux endroits différents. Simplement, d'un point de vue fonctionnel, le piano de Lydia n'est pas le piano des déménageurs. Il ne s'agit pas d'une mobilisation d'attributs différents selon le contexte d'activation mais bien de la localisation et de l'organisation différentes en mémoire d'un même concept correspondant à plusieurs connaissances fonctionnelles. Quelle que soit la conception « raisonnablement actuelle » que l'on ait du contexte et de son rôle sur l'activation de connaissances en situation, cette conception remet en cause, pour ceux qui s'intéressent aux apprentissages humains, à la fois Piaget, Vygotski et les premiers modèles issus du General Problem Solver : les apprentissages ne consisteraient pas en la décontextualisation des connaissances3. Cette remise en cause n'a pas forcément entraîné une rupture paradigmatique, mais plutôt une intégration des paradigmes (Inhelder et Cellérier, 1992). 3.1.2. Le passage de l'approche structurale à l'approche fonctionnelle Inhelder et Cellérier (1992) proposent un cadre qui englobe non seulement l'approche piagétienne classique et les dernières orientations « fonctionnalistes » de l'école genevoise, mais aussi différentes problématiques cognitives issues de la psychologie cognitive et de l'intelligence artificielle. Une telle ambition est beaucoup trop difficile à résumer. Aussi, allons-nous seulement souligner les spécificités des connaissances fonctionnelles. Inhelder et de Caprona (1992) établissent la ligne de partage entre les connaissances générales (l'interprétation que le sujet fait de la réalité) et les connaissances spécifiques, particulières, mises en oeuvre lors d'une résolution de problème. L'objet du constructivisme épistémologique est l'étude des premières connaissances et de leur structure. L'objet du constructivisme psychologique est l'étude des secondes connaissances et de leur fonctionnement. 3 On admettra de façon très générale qu'un apprentissage consiste en l'acquisition ou en la modification de connaissances ou de représentations. h&a3p057.doc 5/16 14/06/2004 62 Troisièmes journées hypermédias et apprentissages « Le sujet épistémique apparaît surtout comme le sujet d'une connaissance normative. Son étude relève d'une psychologie qui se met en quelque sorte au service des normes et utilise à cette fin des modèles choisis de la pensée scientifique. () Par contraste le sujet psychologique individuel est étudié par un observateur qui s'attache à déceler la dynamique des conduites du sujet, leurs buts, le choix des moyens et les contrôles, les heuristiques propres au sujet et pouvant aboutir à un même résultat par des chemins différents. » (Inhelder et de Caprona, 1992, p.21) Ce qui nous paraît fondamental dans la proposition de ces auteurs c'est que les connaissances fonctionnelles sont particulières à un sujet. Les connaissances procédurales telles que les conçoivent les cognitivistes (voir par exemple Anderson, 1983) qui peuvent être transférées d'une résolution de problème à une autre résolution de problème, et qui peuvent se retrouver d'un sujet à un autre sujet, ne seraient qu'un cas particulier des connaissances fonctionnelles. Plus précisément : les connaissances fonctionnelles, les procédures, les savoir-faire, les connaissances pour agir ou pour l'action, ne sont qu'une seule et même chose. La psychologie cognitive « cognitiviste » principalement anglo-saxonne, même radicalement débarrassée de son « logicisme » (comme chez Johnson-Laird, 1983), avait pour but, dans l'étude des procédures, l'identification de régularités, de canons de raisonnement, valables d'un problème à l'autre, d'un sujet à l'autre. À l'inverse, les propositions des genevois sont centrées sur l'individu particulier, sur la description de ses actions dans une situation de résolution de problème. Le fait qu'il puisse utiliser une procédure « logique » ou « stable » dans une résolution de problème est un fait parmi d'autres. Et selon Cellérier (1992), l'étude de l'utilisation de ces connaissances particulières en situation de résolution de problème « constitue () le creuset constitutif non seulement de la construction de connaissances particulières, mais également des catégories universelles des adaptations cognitives du sujet à son milieu et des transformations qu'il lui imprime » (p.219). 3.2. Sur les processus d'acquisition de connaissances « Les connaissances peuvent se construire à partir d'informations symboliques véhiculées par des textes ou se construire par l'action à partir de la résolution de problèmes. Le premier mode construit principalement (mais non exclusivement) des connaissances relationnelles4, le second plutôt des connaissances procédurales. » (Richard, 1990, p.15) La distinction que souligne Richard est généralement admise par les psychologues (voir la discussion d'Inhelder et de Caprona, 1992), le « mais non exclusivement » fait l'objet de travaux depuis quelques années : l'acquisition de connaissances, définie traditionnellement selon ce qui est acquis par le sujet (réflexes, schèmes, « habiletés », schémas, connaissances déclaratives, connaissances procédurales, connaissances fonctionnelles) s'enrichit de la définition de contextes 4 Que Jean-François Richard emploie pour connaissances déclaratives : « description d'objets en précisant leurs composantes élémentaires et la nature des relations existant entre ces composantes » (Richard, 1990, p. 14). h&a3p057.doc 6/16 14/06/2004 Conception et expérimentations 63 d'apprentissages selon ce qui est traité par le sujet (environnement physique, stimuli, exemples, exercices, problèmes, faits déclarés, règles). 3.2.1. Apprentissage par l'action et acquisition de connaissances fonctionnelles L'apprentissage par l'action désigne le processus de construction de connaissances « pour l'action » ou « procédurales » à partir de la résolution de problèmes. Dans la théorie ACT* (Anderson, 1983) par exemple, on décrit les processus de compilation et de composition. Dans la compilation, une nouvelle procédure peut être créée à partir de la trace de l'application d'une procédure, tandis que la composition est l'enchaînement de deux procédures qui n'en font plus qu'une. Par exemple, Anderson et Thompson (1989) affinent ACT* en montrant qu'une représentation procédurale peut prendre diverses formes, y compris transitoires, et que l'idée d'un pré-requis d'une mémoire à long terme (MLT) déclarative aux connaissances procédurales ne tient pas. Un autre mécanisme correspond à la « prise de conscience » (passage d'une procédure à une déclaration). Dans d'autres modèles psychologiques comme celui des schémas, l'apprentissage correspond simplement à la construction de schémas, ou, plus précisément, à l'enrichissement des schémas par adjonction de nouveaux éléments, modification de schémas existants par réajustement ou raffinements, ou restructuration de schémas et création de nouveaux schémas (Rumelhart et Norman, 1978). L'exemple d'Escarabajal (1986) sur la résolution de problèmes est particulièrement intéressant : elle y décrit l'adjonction d'une relation nouvelle à un schéma existant, et l'appariement de deux schémas par l'intermédiaire d'une relation qui leur est commune. 3.2.2. Apprentissage par instruction et acquisition de connaissances déclaratives Dans ACT*, l'acquisition de connaissances déclaratives se fait par création de nouveaux arcs ou de nouveaux noeuds à l'intérieur du réseau sémantique (MLT déclarative). Ainsi, dans cette théorie on est devant l'impossibilité d'acquérir « en l'état » une connaissance purement déclarative5. Succinctement, dans l'apprentissage par instruction (ici par le texte), les connaissances acquises sont majoritairement déclaratives, les connaissances antérieures jouent un rôle très important (voir par exemple Denhière et Mandl, 1988 ; Thorndyke et Hayes-Roth, 1979). L'évaluation de ces apprentissages est très difficile, l'analyse classique des protocoles de rappel et reconnaissance étant peu pertinente pour évaluer un apprentissage par le texte (Mannes, 1988). L'apprentissage par le texte peut être considéré comme une activité de compréhension (notamment construction de structures conceptuelles), de mémorisation, et de production d'inférences. Ici on conçoit la modification de la mémoire à long terme comme la modification de structures (réseaux sémantiques et schémas). En clair, si l'on travaille sur l'apprentissage par le texte, l'évaluation de l'apprentissage doit se faire sur trois niveaux. Le lecteur a-t-il compris ce qu'il y a dans le texte (concepts, relations entre eux) ? Le lecteur a-t-il mémorisé ce qu'il y a dans le texte ? Le lecteur a-t-il compris ce qu'il n'y a pas dans le texte mais que l'on peut inférer ? L'évaluation ne peut pas se faire seulement au niveau du questionnement immédiat du lecteur, mais doit prendre en compte ce que le sujet peut traiter de nouveau et ce qu'il peut faire de nouveau. 5 Anderson ne parle-t-il pas, sur une échelle différente, de l'accommodation de Piaget ? h&a3p057.doc 7/16 14/06/2004 64 Troisièmes journées hypermédias et apprentissages La notion même d'organisation du corpus enseigné, qui nous occupe ici, est difficile à manipuler : il ne faut pas confondre l'organisation « sémantique » du corpus (relations sémantiques entre les arguments) avec son organisation « physique » (disposition et accessibilité des sous-parties du texte dans le document). Foltz (1993), dans une étude consacrée à la comparaison d'apprentissages par le texte de formats linéaires et non-linéaires, montre que la cohérence du texte (et non son format) joue un rôle prépondérant dans l'apprentissage. Les sujets suivraient globalement une démarche d'exploration des textes selon la hiérarchie présentée dans le plan, plutôt que selon les liens locaux ; ainsi, dans cette étude, le format du texte n'a pas d'effet sur la compréhension. Enfin, il faut signaler que les tâches d'apprentissage par instruction rapportées dans la littérature sur les hypertextes sont d'une très grande diversité, et surtout, sont définies à des niveaux encore trop hétérogènes. On distingue par exemple : - les tâches de lecture pour écrire, pour comparer ou pour chercher des références (Wright, 1990) ; - les tâches « répondre à des questions », « créer un carte conceptuelle qui représente les concepts et leurs relations », « enregistrer les informations utiles que l'on rencontre » (Reader et Hammond, 1994) ; - « prendre des notes en vue de la rédaction d'une dissertation », « répondre à un QCM » ou « juste regarder » (Hutchings, Hall et Thorogood, 1994) ; - « chercher une occurrence ou plusieurs dans un ensemble de noeuds », « cocher puis rappeler tous les noeuds contenant telle occurrence » et « suivre les liens structuraux » (Smeaton, 1991). 3.2.3. Apprentissages par instruction et utilisation des connaissances en situation Si l'on admet les propositions d'Inhelder et Cellérier (1992) concernant la nature des connaissances mobilisées par un sujet humain en situation et si, d'autre part, on admet avec Anderson (1987) que l'apprentissage par instruction est une des formes d'apprentissage les plus importantes, alors on peut reposer le problème évoqué un peu plus haut : puisque les connaissances utilisées par un sujet en situation sont complètement contextualisées et personnelles, alors quelles caractéristiques doit avoir un corpus de connaissances à transmettre étant donné qu'une fois acquis, ce corpus aura une organisation fonctionnelle et propre au sujet qui l'aura acquis ? Myles-Worsley, Johnston et Simons (1988) et Norman et al. (1992) ont conduit des expérimentations sur l'activité de diagnostic en radiologie. Leurs travaux consistent à comparer cette activité selon le niveau d'expertise des médecins (étudiants débutants, internes, médecins hospitalo-universitaires). L'intérêt de ces études pour nous réside dans le fait que cette activité est très rapide (quelques secondes), qu'elle requiert un long apprentissage (plusieurs années) et qu'elle est enseignée par ceux-là même qui la pratiquent. Ces études montrent que les experts utilisent en situation des connaissances complètement différentes de celles qu'ils enseignent. En particulier, leur regard n'explore pas la radiographie mais se focalise sur les lésions (en moins d'une demi seconde). Si bien que les experts ont des performances bien moindre que les autres sujets dans une tâche de reconnaissance h&a3p057.doc 8/16 14/06/2004 Conception et expérimentations 65 de radiographies de poumons sains. Les auteurs ont contrôlé la capacité de ces différentes populations de sujets dans une tâche de reconnaissance de visage : dans ce cas, les performances des différents groupes sont équivalentes. Bien évidemment, ce sont ces « experts » qui ont enseigné la radiologie à ces internes. Mais la façon dont ils ont organisé les connaissances pour les transmettre (organisation rationnelle visant à planifier l'exploration d'une radiographie) n'a aucun rapport avec l'organisation des connaissances lors de leur utilisation (organisation fonctionnelle visant à ne détecter que les lésions). L'acception du mot « rationnel » est ici très large : cela désigne simplement un principe d'organisation relativement externe aux contenus, que l'on peut opposer à une organisation sémantique qui dépend des contenus. Pourquoi ces experts n'enseignent-ils pas leur connaissances selon l'organisation fonctionnelle qui leur est propre ? Selon nous, parce que, comme le disent Inhelder et Cellérier (1992), une connaissance fonctionnelle n'est pas stable dans le temps (alors qu'une connaissance procédurale l'est généralement), qu'elle est largement implicite et qu'elle est individuelle. L'organisation rationnelle des connaissances est relativement indépendante du contenu, normative (admise par une population) et permettrait de retrouver des connaissances à un autre moment que celui de la prise d'information, y compris des connaissances que l'on était incapable d'assimiler lors de la prise d'information. L'organisation rationnelle des connaissances est fondée sur des liens entre les connaissances qui ne posent pas de problème d'interprétation au sujet. Byrnes (1992), par exemple, montre l'effet facilitateur très important de l'enseignement préalable d'un corpus « conceptuel » organisé (connaissances déclaratives rationnellement organisées) sur l'utilisation efficace de procédures dans le domaine de la programmation (donc sur l'acquisition de connaissances fonctionnelles), aussi bien chez des enfants que chez des adultes. Ainsi, on pourrait expliquer l'échec de nombreux hypermédias d'enseignement, où le concepteur étant tout d'un coup capable de briser la logique d'une discipline proposait un corpus aux multiples entrées et aux multiples cheminements, parfaitement hermétique. En résumé, les connaissances qu'un sujet utilise en situation sont largement particulières à ce sujet et à cette situation ; elles sont peu abstraites et peu logiques. Ces connaissances sont organisées fonctionnellement. Nous prétendons que l'enseignement de ces connaissances, bien loin de pouvoir imiter cette organisation, doit être fondé sur une organisation rationnelle du corpus de connaissances à transmettre. Nous allons appuyer ce point de vue à partir d'une brève description de l'activité des sujets dans les systèmes hypermédia. 4. QU'EST-CE QU'UN SUJET FAIT VRAIMENT DANS UN HYPERMÉDIA POUR L'APPRENTISSAGE ? Rouet et Tricot (1995, sous presse) ont proposé de considérer la consultation d'un hypertexte ou d'un hypermédia comme un cycle de traitement constitué de trois phases principales : la sélection de l'information, le traitement de cette information h&a3p057.doc 9/16 14/06/2004 66 Troisièmes journées hypermédias et apprentissages et l'évaluation de la pertinence du noeud sélectionné en fonction du but visé par le sujet. Cette conception est compatible avec d'autres modèles de la recherche d'information (Guthrie, 1988) ou de l'interaction sujet-ordinateur (Norman, 1984). Figure 1. Le cycle Evaluation-Sélection-Traitement 4.1. Il sélectionne des informations et évalue leur pertinence Dans le modèle de Rouet et Tricot, l'activité de sélection et d'évaluation recouvre : - un processus de gestion de l'activité (planification de la recherche et évaluation de l'écart entre la situation actuelle et le but visé) ; - un processus de traitement des informations « relationnelles » (liens, menus, boutons). Ce double processus est conduit en relation avec un modèle cognitif de la tâche (que se fait le sujet), incluant une représentation du but qui peut être modifiée dynamiquement (au cours de l'activité). 4.2. Il traite ces informations trouvées Selon Rouet et Tricot (1995) « toute sélection ou chaîne de sélections dans l'hypertexte aboutit in fine à la présentation d'un passage de texte dont le sujet doit lire et comprendre le contenu. Durant la phase de traitement du contenu le sujet acquiert une représentation de la signification du passage de texte sélectionné () Au niveau local, le sujet doit comprendre la signification du texte, c'est-à-dire en extraire la macrostructure et l'intégrer à ses connaissances antérieures du domaine. Au niveau global, le lecteur doit évaluer si le passage lu contribue au but poursuivi, et le cas échéant intégrer l'information ainsi acquise à celles rencontrées précédemment (c.-à-d. au résultat des cycles précédents). » 4.3. Il intègre ces nouvelles connaissances Enfin, la phase d'acquisition des connaissances elle-même est difficile à décrire du seul point de vue de l'interaction sujet-ordinateur. Pour deux raisons : elle est décalée dans le temps et les connaissances évaluées lors de cette phase ne sont que rarement celles qui concernent vraiment l'apprentissage. - L'évaluation immédiate ne renseigne que sur un temps de l'acquisition des connaissances : sa phase initiale. h&a3p057.doc 10/16 14/06/2004 Conception et expérimentations 67 - L'évaluation de la mémorisation des informations ne renseigne pas ou peu sur l'utilisation de ses connaissances en situation. 5. QU'EST-CE QUE NOUS POUVONS FAIRE POUR AIDER UN APPRENANT DANS UN ENVIRONNEMENT HYPERMÉDIA ? 5.1. L'aider à chercher L'aide à la recherche d'information dans les systèmes informatiques est en soi un problème majeur depuis 40 ans. Nous avons comme seule prétention de souligner que c'est aussi un problème majeur dans l'utilisation d'hypermédias pour l'apprentissage. Nous voulons aussi souligner que les aspects humains dans le domaine de la recherche d'information ont été négligés jusqu'au début des années 90. Quels sont les différents buts des sujets quand ils recherchent de l'information ? Comment ces buts se formulent-ils ? Comment évoluent-ils au cours d'une recherche d'information ? Quels sont les liens entre recherche d'information et mémoire ? Aider un utilisateur à rechercher de l'information dans un système c'est : l'aider à élaborer une représentation du contenu global du système ; l'aider à comprendre localement chaque relation entre deux informations (« si j'active ce lien, quel noeud sera ouvert ? ») ; l'aider à formuler et à préciser ses objectifs de recherche d'information de façon opérationnelle (par rapport au système donné) ; l'aider à évaluer le résultat de sa recherche, pas à pas, en relation avec ses objectifs de départ. Mais nos expériences (Tricot, 1995a) ont aussi montré le double rôle, partiellement contradictoire, que pouvaient avoir certains outils d'accès à l'information pour la navigation dans un hypermédia : une barre de menu, qui facilite l'accès à l'information et indique en permanence les grands thèmes ou les grandes catégories d'informations contenues dans le document, permet aussi d'ouvrir consécutivement deux noeuds sans aucun lien (avec les problèmes de compréhension que l'on imagine aisément). 5.2. L'aider à comprendre Aider un sujet à comprendre quelque chose dans un environnement hypermédia est, bien entendu, l'objectif « normal » de tout concepteur. Admettons qu'un concepteur veuille faire comprendre les noeuds A et B ainsi que le lien α qu'il y a entre eux. Il y a, dans cette situation, trois contenus sémantiques à faire comprendre : A, B, α. Nous voulons simplement attirer l'attention sur le fait que pour atteindre cet objectif, un objectif intermédiaire tout à fait raisonnable est d'aider le sujet à mémoriser que A et B sont liés, quitte à ce qu'il comprenne plus tard le contenu de α. Autrement dit, l'organisation rationnelle, relativement indépendante du contenu, d'un corpus de connaissance à transmettre, permettrait d'alléger la tâche des sujets, en différant le traitement d'un certain nombre de contenus sémantiques. Car l'établissement d'un lien fonctionnel entre deux connaissances est un objectif d'apprentissage à beaucoup plus long terme que la simple consultation d'un hypermédia. h&a3p057.doc 11/16 14/06/2004 68 Troisièmes journées hypermédias et apprentissages 5.3. L'aider à contextualiser Si le concepteur à pour objectif d'aider l'apprenant à fonctionnaliser ses connaissances, à en faire des connaissances utilisables dans des situations futures, alors un point majeur devient la conception d'une base de problèmes. Ponctuellement, en liaison avec les connaissances stockées dans le système, des problèmes doivent pouvoir aider le sujet à : - faire changer les contextes : montrer au sujet les différents contextes fonctionnels d'utilisation d'une même connaissance ; - faciliter l'analogie : montrer au sujet que deux contextes sont fonctionnellement identiques (quand à l'utilisation de telle ou telle connaissance) ; - faciliter la généralisation : montrer au sujet que tel ensemble de contextes constitue une catégorie de problèmes. 6. CONCLUSION L'évolution spectaculaire de la psychologie cognitive au cours des deux dernières décennies a conduit à distinguer, ou plus exactement à ne plus confondre, les connaissances générales et les connaissances individuelles. Les connaissances générales sont sociales en ce sens qu'elles sont collectivement élaborées. De ce point de vue elles sont comparables à une langue naturelle dont on peut affirmer qu'elle existe - et dont on peut, comme le font les linguistes, décrire les caractéristiques - mais dont on sait aussi que personne, individuellement, ne la possède intégralement. La transmission de ces connaissances d'une génération à l'autre est, comme le souligne Anderson (1987), la condition même de leur transformation et donc du progrès collectif. Mais la conservation de ces connaissances et leur diffusion exigent, pour qu'elles soient par ailleurs accessibles à tous, qu'elles soient organisées selon des principes logiques généraux, indépendants de leurs contenus, et consensuellement admis. L'idée défendue ici est que l'acquisition de ces connaissances générales par un individu particulier présente deux caractéristiques. D'une part cette acquisition passe par une restructuration dans la mesure où elle est toujours orientée par un but : les situations qu'elles permettent de résoudre. Prenons l'exemple de la réalisation d'un programme à l'aide d'un logiciel : la solution élaborée, quelle qu'elle soit, utilise des connaissances le plus souvent très éloignées les unes des autres dans la documentation correspondante (entrées-sorties, gestion du graphisme, fonctions logiques, par exemple, situées dans des chapitres différents). Dans la connaissance mémorisée qui en résulte (et qui devient activable face à tout problème de même type) ces connaissances sont directement connectées : elles sont regroupées en fonction du but qu'elles permettent d'atteindre et non selon leur nature comme elles le sont dans la documentation. D'autre part une connaissance n'est jamais complètement nouvelle : elle se lie aux connaissances déjà acquises dans le domaine concerné. Cette double structuration, par le but et en fonction des connaissances antérieures, constitue un réseau et résoudre un problème revient à trouver un cheminement dans ce réseau (Inhelder et Cellérier, 1992). h&a3p057.doc 12/16 14/06/2004 Conception et expérimentations 69 De ces considérations on peut tirer deux conclusions. La première est l'importance que revêtent, dans l'apprentissage, les situations-problèmes : les connaissances enseignées à l'université ne se structurent pas de la même façon chez les étudiants selon que le contrôle qu'on leur impose est un Q.C.M. ou un exercice dit d'application. Mais d'un autre côté pour élaborer leurs connaissances permettant d'atteindre le même but, dont on peut raisonnablement penser qu'il est de réussir un contrôle de type déterminé, ces mêmes étudiants ne structureront pas de la même façon leurs notes de cours et leurs lectures : cette structuration dépend de leurs connaissances antérieures. Un des intérêts majeurs des hypermedias dans le cadre de l'apprentissage6 est évidemment de permettre cette diversité des cheminements dans un champ de connaissances et d'offrir différentes possibilités de liens (dépendance, analogie) pertinents. La contrepartie, on le sait, est le risque de voir le sujet se perdre dans l'hyper-espace et donc dans la nécessité de le guider sans le contraindre. Il nous semble que la réponse ne consiste pas à reproduire les principaux types d'organisation de la base de connaissances dans les EIAO (correspondant en fait aux différents types de structuration d'une base de connaissances dans un système expert) : les réseaux sémantiques, les système de production, les schémas Ces modes d'organisation de connaissances classiques des systèmes experts, mais aussi des modèles de la psychologie cognitive des années 70-80, sont, comme le remarquent Mendelsohn et Dillenbourg (1993), interchangeables. L'idée serait de couvrir les différentes structurations de l'information correspondant aux différents buts que des utilisateurs distincts sont susceptibles de poursuivre à l'aide d'une même base. Le guidage de la navigation consiste alors, étant donné un but (une tâche), à n'activer que la configuration utile. Par exemple, étant donnée une base de problème, seuls les liens permettant d'accéder à toutes les connaissances utiles à la résolution du problème courant et seulement ceux-là, sont actifs dans la base de connaissances. Cette démarche repose sur deux présupposés essentiels. Le premier est que les paramètres de description d'une tâche utilisateur sont les mêmes quelle que soit cette tâche : il s'agit de la représentation du but à atteindre, de la représentation de l'environnement dans lequel va s'effectuer la tâche et des compétences disponibles. Le second est que pour décrire une tâche de recherche / intégration de connaissances, il suffit de croiser la description machine de la tâche et la description utilisateur de la tâche. Les observables sont le cheminement effectif du sujet vers le but et l'utilisation effective de la connaissance trouvée en situation. C'est à la transformation de ces présupposés d'abord en formalisations puis en outils que nous consacrons nos travaux actuels. 6 L'intérêt des hypermédias en tant que support d'aide à la conception et à l'écriture (voir en particulier Conklin et Begeman, 1988 ; Marshall et Rogers, 1992 ; Nanard et Nanard, 1991, 1993 ; Streitz, Hanneman et Thüring, 1989) a été souligné par de nombreux auteurs mais il n'est pas abordé ici. h&a3p057.doc 13/16 14/06/2004 70 Troisièmes journées hypermédias et apprentissages Bibliographie Amy Bernard et Tiberghien Guy (1993). « Contexte, cognition et machines contextuelles », in Denis Michel et Sabah Gérard, eds. Modèles et concepts pour la science cognitive. Hommage à Jean-François Le Ny, PUG, Grenoble, p. 179-206. Anderson John R. (1983). The architecture of cognition, Harvard University Press, Cambridge, 345 p. Anderson John R. (1987). « Methodologies for studying human knowledge », Behavioral and Brain Sciences, Vol. 10, p. 467-505. Anderson John R. et Thompson Ross (1989). « Use of analogy in a production system architecture », in Vosniadou Stella et Ortony Andrew, eds. Similarity and analogical reasonning, Cambridge University Press, Cambridge, p. 267-297. Baddeley Alan (1990). Human memory. Theory and practice. (trad. fr. « La mémoire humaine. Théorie et pratique », PUG, Grenoble, 1993, 547 p.). Barclay John R. et al. (1974). « Comprehension and semantic flexibility », Journal of Verbal Learning and Verbal Behavior, Vol. 13, p. 471-481. Bastien Claude (1992). « Ergonomics for hypermedia courseware », in Oliveira Armando, ed. Hypermedia courseware : structures of communication and intelligent help, Springer Verlag, Proceedings of the NATO Advanced Research Workshop at Espinho, Portugal, 19-24 avr 90, Berlin, p. 183-187. Bastien Claude (1993). « Organisation des connaissances et dialogue homme-machine dans les situations d'apprentissage », in Colloque « Le dialogue homme-machine », Université de Caen. Bonnet Claude (1986). « Visual perception in context », Cahiers de Psychologie Cognitive, Vol. 6, n° 2, p. 137-155. Byrnes James P. (1992). « The conceptual basis of procedural learning », Cognitive Development, Vol. 7, p. 235-257. Cellérier Guy (1992). « Le constructivisme génétique aujourd'hui », in Inhelder Bärbel et Cellérier Guy, éds. Le cheminement des découvertes de l'enfant, Delachaux et Niestlé, Neuchâtel, p. 217-253. Conklin Jeff et Begeman Michael (1988). « gIBIS : a hypertext tool for exploratory policy discussion », MCC Technical Report Number STP-082-88, Austin, Texas. Denhière Guy et Mandl Heinz, éds. (1988). « Knowledge acquisition from text and picture », European Journal of Psychology of Education, Special issue, vol. III n° 2. Escarbajal Marie-Claude (1986). « Utilisation de la notion de schéma dans un modèle de résolution de problèmes additifs », in Bonnet Claude, Hoc Jean-Michel et Tiberghien Guy, eds. Psychologie, Intelligence Artificielle et Automatique, Mardaga, Bruxelles, p. 47-59. Foltz Peter W. (1993). « Readers' comprehension and strategies in linear text and hypertext », Institute of Cognitive Science,Technical Report #93-01, Boulder, Colorado. Guthrie John T. (1988). « Locating information in documents : examination of a cognitive model », Reading Research Quarterly, Vol. 23, n° 2, p. 178-199. Hutchings G.A., Hall W. et Thorogood P. (1994). « Experiences with hypermedia in undergraduate education », Computers Education, Vol. 22, n° 1/2, p. 39-44. Inhelder Bärbel et Cellérier Guy, éds. (1992). Le cheminement des découvertes de l'enfant, Delachaux et Niestlé, Neuchâtel, 319 p. h&a3p057.doc 14/16 14/06/2004 Conception et expérimentations 71 Inhelder Bärbel et de Caprona Denys (1992). « Vers le constructivisme psychologique : Structures ? Procédures ? Les deux indissociables », in Inhelder Bärbel et Cellérier Guy, éds. op. cit. p. 19-50. Johnson-Laird Phil N. (1983). Mental Models, Cambrige University Press, Cambridge. Jonassen David H. (1989). Hypertext / Hypermedia, Educational Technology Publications, Engelwood Cliffs. Jonassen David H. (1992). « Adding intelligence to hypertext with expert systems and adding usability to expert systems with hypertext », in Oliveira Armando, ed., op.cit., p. 188204. Jonassen David H. (1993). « Effects of semantically structured hypertext knowledge bases on users' knowledge structures », in McKnight Cliff, Dillon Andrew et Richardson John, eds. Hypertext. A psychological perspective, Ellis Horwood, Chichester, p. 153-168. Jonassen David et Mandl Heinz, éds. (1990). Designing hypermedia for learning, Proceedings of the NATO Advanced Research Workshop at Rottenburg, 3-9 juil 89, Springer Verlag, Heidelberg, 457 p. Jonassen David H. et Wang S. (1993). « Acquiring structural knowledge from semantically structured hypertext », Journal of Computer-Based Interaction, Vol. 20, n° 1, p. 1-8. Le Ny Jean-François (1989). Science cognitive et compréhension du langage, PUF, Paris, 249 p. Mannes Suzanne (1988). « A theoretical interpretation of learning vs. memorizing text », in Denhière Guy et Mandl Heinz, eds. (1988). op.cit. p. 157-162. Marshall Catherine C. et Rogers Russell A. (1992). « Two years before the mist : experience with Aquanet », in Lucarella Dario et al., eds. ECHT'92, ACM Press, Proceedings of the 4th ACM Conference on Hypertext at Milano, 30 nov - 4 dec, New York, p. 53-62. Mendelshon Patrick et Dillenbourg Pierre (1993). « Le développement de l'enseignement intelligemment assisté par ordinateur », in Le Ny Jean-François, éd. Intelligence naturelle et intelligence artificielle, PUF, Symposium de l'APSLF à Rome, Sept 91, Paris. Myles-Worsley Marina, Johnston William A. et Simons Margaret A. (1988). « The influence of expertise on X-Ray image processing », Journal of Experimental Psychology : Learning, Memory and Cognition, Vol. 14, n° 3, p. 553-557. Nanard Jocelyne et Nanard Marc (1991). « Using structured types to incorporate knowledge in hypertext », Hypertext'91 Proceedings, ACM Press, San Antonio, 15-18 Dec, New York, p. 329-344. Nanard Jocelyne et Nanard Marc (1993). « Should anchors be typed too ? An experiment with MacWeb », Hypertext'93 Proceedings, ACM Press, Seattle, 14-18 Nov, New York, p. 51-62. Norman Don A. (1984). « Stages and levels in man-machine interaction », International Journal of Man-Machine Studies, Vol. 21, n° 4, p. 365-375. Norman Geoffrey R. et al. (1992). « The correlation of feature identification and category jugments in diagnostoc radiology », Memory et Cognition, Vol. 20 , n° 4, p. 344-355. Pellegrin Lilianne (1995). Représentation de connaissances expertes à l'aide d'un réseau sémantique activé, Thèse de Doctorat de l'Université de Provence, spécialité Psychologie Cognitive, Aix-en-Provence. Reader Will et Hammond Nick (1994). « Computer-based tools to support learning from hypertext : concept mapping tools and beyond », Computers Education, Vol. 22, n° 1/2, p. 99-106. h&a3p057.doc 15/16 14/06/2004 72 Troisièmes journées hypermédias et apprentissages Richard Jean-François (1990). Les activités mentales, Armand Colin, Paris, 435 p. Rouet Jean-François et Tricot André (1995). « Recherche d'informations dans les systèmes hypertextes : des représentations de la tâche à un modèle de l'activité cognitive », Sciences et Techniques Educatives, Vol. 2, n° 3, p. 307-331. Rouet Jean-François et Tricot André (sous presse). « Task and activity models in hypertext usage », in van Oostendorp Herre, ed. Cognitive aspects of electronic text processing, Ablex Publishing, Norwood. Rumelhart David E. et Norman Don A. (1978). « Accretion, tuning and restructuring : three models of learning », in Anderson R.C., Cotton, J.W., et Klatzky R., eds. Semantic factors in cognition, Lawrence Erlbaum, Hillsdale. Salazar-Ferrer Pascal (1995). Le raisonnement causal dans la modélisation de l'activité cognitive d'opérateurs de chaufferie nucléaire navale, Thèse de Doctorat de l'Université de Provence, spécialité Psychologie Cognitive, Aix-en-Provence. Schank Roger C. et Abelson R.P. (1977). Scripts, plans, goals and understanding, Lawrence Erlbaum, Hillsdale. Smeaton Alan F. (1991). « Using hypertext for computer based learning », Computers Education, Vol. 17, n° 3, p. 173-179. Streitz Norbert A., Hannemann Jürgen et Thüring Manfred (1989). « From ideas and arguments to hyperdocuments : travelling through activity spaces », Hypertext'89 Proceedings, ACM Press, Pittsburgh, 5-8 Nov, New York, p. 343-364. Suchman Lucy (1987). Plans and situated action : The problem of human-machine communication, Cambridge University Press, New York. Thorndyke P.W. et Hayes-Roth Barbara (1979). « The use of schemata in the acquisition of transfert of knowledge », Cognitive Psychology, Vol. 11, p. 82-106. Tricot André (1993). « Stratégies de navigation et stratégies d'apprentissage : pour l'approche expérimentale d'un problème cognitif », in Baron Georges-Louis, Baudé Jacques et de La Passardière Brigitte, éds. Hypermédias et Apprentissages 2, INRP, Actes des 2° journées scientifiques, Lille, Mars 93, Paris, p. 21-38. Tricot André (1994). « A quels types d'apprentissages les logiciels hypermédia peuvent-ils être utiles ? Un point sur la question en 1994 », La Revue de l'EPI, n° 76, p. 97-112. Tricot André (1995a). Modélisation des processus cognitifs impliqués par la navigation dans les hypermédias, Thèse de Doctorat de l'Université de Provence, spécialité Psychologie Cognitive, Aix-en-Provence. Tricot André (1995b). « Un point sur l'ergonomie des interfaces hypermédia ». Le Travail Humain, Vol. 58, n° 1, p. 17-45. Wright Patricia (1990). « Hypertext as an interface for learners : some human factors issues », in Jonassen David et Mandl Heinz, eds. (1990). op. cit. p. 169-184. h&a3p057.doc 16/16 14/06/2004
{'path': '38/edutice.archives-ouvertes.fr-edutice-00000509-document.txt'}
Cahiers d'Extrême-Asie Le littoral, espace de médiations - Cultes des monts Sengen, Asama, Aomine et systèmes de représentations chez les gens de mer de la côte orientale de la péninsule de Kii Anne Bouchy Citer ce document / Cite this document : Bouchy Anne. Le littoral, espace de médiations - Cultes des monts Sengen, Asama, Aomine et systèmes de représentations chez les gens de mer de la côte orientale de la péninsule de Kii. In: Cahiers d'Extrême-Asie, vol. 9, 1996. Mémorial Anna Seidel. Religions traditionnelles d'Asie orientale. Tome II. pp. 255-298; doi : https://doi.org/10.3406/asie.1996.1120 https://www.persee.fr/doc/asie_0766-1177_1996_num_9_1_1120 Fichier pdf généré le 06/02/2019 Abstract The first part of the survey deals with the festival in honor of the sea- and mountain-god Sengen in three small harbors of Mie prefecture. Hōza and Isozaki are fishing harbors but Azena is a place where women-divers collect shells and sea-weeds. Even today, in this region, the eastern coastal range of Kii peninsula, these festivals share much in common: purification rites, formulation, the communities' banquets and festivities open to all, and the worship of Sengen. The main worship takes place on heights devoted to Sengen where ornate bonden poles are planted. At the same time, these sacred heights play the role of sea-marks helping the sailors and of a kind of relay or replica of the Japanese sacred mountains. The worship practiced there goes back to archaic marine religious traditions but has been very conspicuously influenced by the kō pilgrims' sodalities which have been controlled by the mountain-ascetics of Shugendō for a long period. Taboos of Shugendō as women prohibiting could have been found somewhat compatible with sea-societies haunted by the fear of defilements. These special features of the cult of Sengen, unified by the Shugendō of Mount Fuji, of which Sengen is the God, and confined to a clearly defined coastal area, pose the wider problem of the convergence of maritime and mountain religious spheres. In order to better appreciate the influence exerted by the assimilation of sea-related worship by a unifying mountain-worship and of the following partial occlusion of what constitutes the specificity of the sea-faring peoples, the second part of the survey is extended to cover two famous mountain-temples of the hinterland of the eastern Kii seaside. The first is the oku no in of the Kongōshōji on Mount Asama in the Ise country. Its takemairi is a local cult for the dead which can be seen as a duplicate of funerary practices related to a marine netherworld still ongoing during the New Year period on the not so distant beaches of the Kii seaside. The second is the Shōfukuji of Mount Aomine in the Shima country. Two tales about its foundation are extant. Both can be understood as referring to the relocation of a seadeity (Ōsatsu Kannon) who was transformed into a mountain-deity. Her brilliance shines far away on the sea and she is still venerated by the sea-faring people spanning the whole of Japan's Pacific coast. This attempt to relocate the worship of Sengen inside the history of the systems of representation of the sea-faring people is only an element of a survey which should cover all the coastal regions and which could also focus on a complex of symbols as suggestive as Mount Fuji itself We can observe a paradigm shift in a seaside which is first seen as a departure point toward a netherworld beyond the sea or as a refuge for gods or men from the outside world, and then is considered to be a line of reefs and heights being the forefront of the land (riku) used for mountain worship. This shift shows a process of "sedentarisation" with ideological intent. The coastal populations, heirs of the "nomads of the sea", when redefining their vision of the world, visible and invisible, see the occlusion of their genuine world, the sea. Deciphering the process of occluding the world of the sea gives a new approach to the vision that the Japanese society has of itself and transmits to others, its statements both of identity and of otherness. LE LITTORAL, ESPACE DE MÉDIATIONS CULTES DES MONTS SENGEN, ASAMA, AOMINE ET SYSTÈMES DE REPRÉSENTATIONS CHEZ LES GENS DE MER DE LA CÔTE ORIENTALE DE LA PÉNINSULE DE KII - Anne BOUCHY The first part of the survey deals with the festival in honor of the sea- and mountain-god Sengen in three small harbors of Mie prefecture. Hdza and Isozaki are fishing harbors but Azena is a place where women-divers collect shells and sea-weeds. Even today, in this region, the eastern coastal range of Kii peninsula, these festivals share much in common : purification rites, formulation, the communities ' banquets and festivities open to all, and the worship of Sengen. The main worship takes place on heights devoted to Sengen where ornate bonden poles are planted. At the same time, these sacred heights play the role of sea-marks helping the sailors and of a kind of relay or replica of the Japanese sacred mountains. The worship practiced there goes back to archaic marine religious traditions but has been very conspicuously influenced by the ko pilgrims ' sodalities which have been controlled by the mountain-ascetics of Shugendô for a long period. Taboos of Shugendô as women prohibiting could have been found somewhat compatible with sea-societies haunted by the fear of defilements. These special features of the cult of Sengen, unified by the Shugendô of Mount Fuji, of which Sengen is the God, and confined to a clearly defined coastal area, pose the wider problem of the convergence of maritime and mountain religious spheres. In order to better appreciate the influence exerted by the assimilation of sea-related worship by a unifying mountain-worship and of the following partial occlusion of what constitutes the specificity of the sea-faring peoples, the second part of the survey is extended to cover two famous mountain-temples of the hinterland of the eastern Kii seaside. The first is the oku no in of the Kongôshôji on Mount Asama in the Ise country. Its takemairi is a local cult for the dead which can be seen as a duplicate of funerary practices related to a marine netherworld still ongoing during the New Year period on the not so distant beaches of the Kii seaside. The second is the Shôfukuji of Mount Aomine in the Shima country. Two tales about its foundation are extant. Both can be understood as referring to the relocation of a sea-deity (Osatsu Kannon) who was transformed into a mountain-deity. Her brilliance shines far away on the sea and she is still venerated by the sea-faring people Cahiers d'Extrême- Asie 9 (1996-1997) : 255-298. 256 Anne Bouchy spanning the whole of Japan s Pacific coast. This attempt to relocate the worship ofSengen inside the history of the systems of representation of the sea-faring people is only an element of a survey which should cover all the coastal regions and which could also focus on a complex of symbols as suggestive as Mount Fuji itself We can observe a paradigm shift in a seaside which is first seen as a departure point toward a netherworld beyond the sea or as a refuge for gods or men from the outside world, and then is considered to be a line of reefs and heights being the forefront of the land (riku) used for mountain worship. This shift shows a process of "sédentarisation " with ideological intent. The coastal populations, heirs of the "nomads of the sea", when redefining their vision of the world, visible and invisible, see the occlusion of their genuine world, the sea. Deciphering the process of occluding the world of the sea gives a new approach to the vision that the Japanese society has of itself and transmits to others, its statements both of identity and of otherness. Ise, pays du vent des dieux, ce pays où viennent déferler sans fin les vagues du monde immuable - tokoyo - Nihon shoki, Suinin, 25. 3. 10 montée sur une grosse tortue, et accompagnée de Tamayori hime, sa soeur cadette, Toyotama hime, illuminant la mer, arriva (sur la grève). Nihon shoki, Age des dieux 2, 10 Ensuite le dieu Sukunabikona se rendit au cap de Kumano, et de là il partit pour le monde immuable - tokoyo Nihon shoki, Age des dieux 1 , 7 Bambous en fête et ablutions en mer En haut de la longue côte orientale de la péninsule de Kii lEf^^JÉI (140 km), qui s'étend du cap Shio \%W et Kushimoto ^>^f au sud à la presqu'île de Shima JÉ\$#H, au nord-est, une anse allongée s'ouvre sur la mer de Kumano {Kumano nada M Sffit), seuil de l'océan Pacifique; au fond : le petit port de pêche de Hôza JjlÊ. (dépt. de Mie H je, Nantôchô j%l§WT). Dans la chaleur de juillet les rues étroites résonnent des chants de la fête de Sengen ^Fh! : Le littoral, espace de médiations 257 Montagne de notre amour, mont Fuji, montagne aimée des hommes. Le mont Sengen, avec quels mots le vénérerons-nous? Namu ya Sengen daibosatsu ! (Hommage au grand bodhisattva Sengen) Pour le mont Sengen, il faut danser nous dit-on ! Eh bien ! dansons et montrons nos pas de danse ! En pleine mer, dans la baie, au large, recevoir l'"aspersion", n'est-ce pas le signe de la pêche au thon ! Entre les lanternes, les guirlandes multicolores et les lacis aériens de fïls électriques et téléphoniques, circulent deux grosses perches de bambou - bonden *A7i -, l'une de vingt et l'autre de quinze mètres de haut, dont les cimes feuillues sont décorées respectivement de cent vingt et de quatre-vingt-dix éventails blancs à rond rouge,, et les hampes, de touffes de papier blanc. Chacune d'elles est véhiculée par un groupe de dix jeunes gens, torses et jambes nus, portant serre-tête et larges ceintures de coton blanc, qui s'époumonent à chanter, vont de maison en maison en dansant, tout en s'efforçant de maintenir parfaitement droites les perches de bambou qu'ils tirent ou retiennent par quatre cordes de chanvre fixées en leur milieu. Le tour de la localité terminé, les deux groupes de porteurs, toujours en chantant, prennent d'assaut la montagne de Sengen, qui surplombe de son cône boisé l'anse allongée de Hôza. Ils rivalisent de vitesse et d'adresse pour gravir le plus vite possible la pente sans faire perdre aux bambous leur verticalité. Cette compétition s'achève au sommet, devant l'oratoire de Sengen, dieu de la montagne et de la bonne pêche, où, après la récitation d'invocations, les deux perches de bambou sont fixées au grand pin qui domine la baie (Photo 1). Durant toute l'année à venir, deux des porteurs auront la charge de surveiller que les bambous de Sengen restent droits et bien visibles des bateaux rentrant au poit. Tous redescendent pour partager un banquet qui clôt la retraite et la fête de Sengen. A Hôza, la fête de Sengen est célébrée le 28e jour du 5e mois lunaire. Cette année-là (1982) la fête tombait le 18 juillet. Depuis le 14, deux des porteurs et cinq des membres réguliers de la confrérie de Sengen (maîtres de maison) avaient pratiqué chaque jour vers dix-sept heures, au nom de toute la communauté, la purification (kori #p$t) qui consiste à s'immerger soixantequatre fois dans la mer au pied de la montagne de Sengen. Cette purification s'achève par la récitation des invocations rituelles dans la "demeure de Sengen" (Sengen yado fésF^îtf) où tous avaient passé la nuit du 17. Le 20 juillet (30e jour du 5e mois lunaire), à quelque soixante-dix kilomètres plus au sud sur cette même côte, comme tous les ans, les habitants du port d'Isozaki W$h (dépt. de Mie, Kumano) célèbrent eux aussi la fête de Sengen. Ici pas de danses ni de manifestations bruyantes. Depuis six jours les membres volontaires de la confrérie de Sengen, tous des pêcheurs maîtres de maison, se sont relayés pour accomplir les ablutions rituelles et réciter les invocations devant l'image de Sengen ôkami v^Fh^H suspendue pour l'occasion, comme chaque année, dans le tokonoma 258 Anne Bouchy de la maison Kawaguchi il IP, ancien shôya JEtH et "demeure de Sengen", située sur le port, à deux pas de la coopérative et du sanctuaire de la localité (Photos 2, 4). Chaque jour, matin, midi et soir, vêtus du seul fundos hi W, ils se sont immergés dans le port, face à la montagne de Sengen, quatre fois pour la communauté, huit fois pour chaque demande personnelle, en criant "Yuhi !". Dans la matinée de ce 20 juillet, quatre de ces gyônin tfÀ - pratiquants de l'ascèse - ont fait cinquante ablutions, précédées et closes par la récitation de huit "nenbutsu &A1* invocations - de Sengen" et treize nenbutsu d' Amida : Gokinen gokitô gokimyô chôrai W/f±iP#T*#fP§f^TItL Sengen Sengen dokkoi Prière, invocation, vénération et prosternation devant Vous Sangi sangi rokkon sangi Repentance, repentance, des six racines repentance Oyama ni hatsu dai Kongo dôji A la montagne les huit grands Kongô dôji Sengen, Sengen, dokkoi - ohé - ! (Oshime ni hatsu dai Kongo dôji ) (A notre étole les huit grands Kongô dôji : variante) &L&KA±&W\m^ Namu Sengen dai bosatsu Hommage au grand bodhisattva Sengen (transcription reproduisant le texte local avec ses particularités et quelques altérations de prononciation) Plantés sur le port à l'endroit où les hommes font les ablutions, se dressent les bambous de Sengen aux cimes feuillues et parées de touffes blanches de gohei fP$? qui ont été confectionnés la veille par les soins de tous : deux "grands bambous" (9m), deux "bonden" (8m), six "bambous de purification" (3m) et cinquante "petits bambous" (Photo 3). Après un repas maigre, composé de riz aux fèves et de légumes (fournis par l'ensemble des familles et apportés par les femmes), préparé et partagé, comme tous ceux des jours précédents, par les membres de la confrérie dans la "demeure de Sengen", a lieu le tour des maisons avec les "bambous de purification". Chaque demeure est "balayée" par le bambou introduit par la porte ou la fenêtre par son porteur qui reste à l'extérieur et récite les formules de purification. Pendant ce temps les enfants reçoivent un petit bambou qu'ils vont tremper dans l'eau pour le purifier, comme cela a été fait pour tous les autres, et attendent le retour des gyônin, cette année particulièrement peu nombreux. Toutes les maisons ayant été visitées, le petit groupe se reforme sur le port. Les membres de la confrérie, vêtus de l'habit blanc portant au dos l'inscription de Sengen ôkami, le grand chapelet en travers de la poitrine, s'emparent alors des deux bonden et des deux "grands bambous". Puis, suivis des enfants et d'hommes de la localité portant le reste des bambous, ils prennent le chemin de la montagne de Sengen qui surplombe le port d'une centaine de mètres. Au bout d'une demi-heure de marche rythmée par les conques, le cortège s'arrête au sommet devant l'oratoire de Sengen, qui abrite une statue de pierre de Dainichi nyorai ~fc H iïlM considéré comme "dieu Le littoral, espace de médiations 259 de la montagne" et protecteur des pêcheurs. Tous les gohei sont enlevés des petits bambous, fixés aux deux "grands bambous" en un ensemble nommé "montagne", et le tout est hissé le plus haut possible avec les deux bonden sur le plus grand arbre du lieu qui a remplacé le pin séculaire de Sengen disparu : cet emblème de Sengen est l'amer sur lequel les bateaux ajustent leur direction pour le retour au port. Après un bref service accompli par le moine du temple d'Isozaki, tous redescendent. En cours de route, pour marquer la fin de 1 '"ascèse", les hommes boivent quelques gouttes de sake versé dans des feuilles d'araliacée, passent s'incliner devant le sanctuaire de la localité et terminent la journée par un banquet de fête et de "fin d'abstinence" (shôjin otoshi ff jÊ^I L-). Un mois plus tôt, le 28 juin - pour le 28e jour du 5e mois lunaire - à l'extrémité nord de cette même côte, dans la presqu'île de Shima, terroir des plongeuses qui collectent algues et ormeaux, la plage d'Azena H£% (dépt. de Mie, Daiôchô ^ïfflT) est elle aussi sous le signe de Sengen. Visage protégé par un vaste chapeau de paille sous le soleil de ce début d'après-midi, toutes les femmes de la localité, des plongeuses, sont assises sur la plage, face au large, des deux côtés d'une haute bannière aux caractères de "Fuji Sengen ôkami sha" ë'iï^fa^^tt et d'une forêt de petits bambous plantés par elles dans le sable clair. Avant de s'asseoir, chacune d'elles est allée lancer dans la mer une offrande de quelques poignées de grains de riz apportés dans une mesure carrée. L'arrivée des hommes, portant le grand bonden à cime feuillue qu'ils viennent dresser au coeur de la touffe de bambous, est accueillie par le son d'une conque et les frappements d'un tambour que deux d'entre elles font résonner. Les hommes, ceux des membres de la confrérie de Fuji Sengen qui ont déjà fait plus de deux fois l'ascension du mont Fuji, se dirigent ensuite vers le rivage pour le sôgori $&#q8t - la "purification en commun" - : sept séries d'immersions dans la mer (Photo 5). Après chaque série d'immersions, ils viennent déposer une poignée de cailloux pris au fond de l'eau devant l'autel de Sengen placé au centre des bambous. Conque et tambour rythment leurs allées et venues. Une fois les ablutions des hommes achevées, chaque femme repart avec un petit bambou qui restera fixé à l'entrée de la maison jusqu'à l'année suivante pour la protéger. Pendant ce temps les hommes vont dresser le bonden à la cime du grand pin qui jouxte l'oratoire de Sengen, au bout de la plage, dans le prolongement de la ligne rocheuse qui délimite celle-ci (Photo 6). Dans l'oratoire, sont vénérés Dainichi et En no gyôja tx/ffU". Dans la soirée, après une dernière série d'ablutions, les hommes parcourent la localité en chantant les nombreux couplets du pèlerinage au Fuji : Est-ce le vent d'est ou celui du sud qui souffle soyo - si doux - ? vers le port de Yoshida, soyo, soyo - tout doux, tout doux - ! Sur le mont Fuji pleut le crachin, chez nous, il pleut du riz blanc ! Et la fête de Sengen s'achève par un banquet qui se tient chez l'un des membres de la confrérie. 260 Anne Bouchy Une ligne côtière sous le signe de Sengen C'est entre 1979 et 1982 au cours d'une série d'enquêtes sur le territoire de la ville de Kumano que mon attention fut attirée par le problème du culte de Sengen sur cette partie du littoral de la péninsule de Kii : dans tous les petits ports de pêche de la ville de Kumano existent une montagne, un oratoire, une fête de Sengen et une confrérie (Sengen ko WfâM ou Fuji ko ildrli) qui en a la charge. Poussant mes investigations plus loin vers le sud et vers le nord de cette côte, je m'aperçus qu'il en était de même partout : dans quasiment toutes les localités côtières dont la majorité de la population vit de la pêche, se retrouve cette même "montagne de Sengen"; existe ou a existé un groupe d'hommes pratiquant la purification de Sengen. Mais, alors que ce culte continue à l'intérieur de la baie d'Ise, il disparaît brusquement du paysage religieux de la côte de Wakayama à partir de Kushimoto et du cap Shio. En outre, dans les localités où la pêche a été l'activité principale mais ne l'est plus, le culte de Sengen a disparu à peu près en même temps que la pêche, à partir des années Taishô jôE (1912-25). Seule la montagne de Sengen et la mémoire des anciens en témoignent encore. C'est le cas en particulier entre Kushimoto et Kumano. Pour en savoir davantage, je commençai alors une exploration systématique des localités situées en bordure de tout ce littoral. Dans beaucoup de cas les documents écrits étaient minces : incendies et raz de marée étaient passés dans toutes les criques. Mais ce qui subsiste de registres plus ou moins anciens, de notes manuscrites sur l'histoire de l'oratoire, de feuillets de chants et d'invocations, d'itinéraires du pèlerinage, associé aux informations recelées par les statues des oratoires, les peintures sur rouleaux, les estampes des confréries et surtout les pratiques et les récits de tous ceux qui entretiennent encore aujourd'hui le culte de Sengen ou sont les héritiers des souvenirs des générations précédentes me permit de reconstituer progressivement le tableau général des réalités et des problèmes que pose l'existence du culte de Sengen le long de cette ligne côtière. Au-delà des variations locales actuelles de cette tradition, souvent caractérisées par la disparition, et corrélativement par le développement, d'un ou de plusieurs éléments de l'ensemble "culte de Sengen", ce qui frappe dès l'abord, c'est l'unité fondamentale du phénomène, tant dans ses aspects matériels, topographiques, que dans ses dimensions religieuse, sociale et historique. Sengen est vénéré au sommet d'une eminence (terre interdite aux femmes, autrefois du moins), d'une centaine de mètres environ, surplombant le port (ou, dans certains cas où le relief est relativement plat, sur un point marquant de l'anse) qui est toujours dans une position topographique remarquable par rapport à l'embarcadère et la localité, et sert d'amer pour les bateaux au large ou rentrant au port (Photo 7). : Ville de Kumano ensemble de sept communes de montagnards-agriculteurs et de pêcheurs ayant acquis le statut de ville par regroupement administratif en 1954. Voir A. Bouchy 1983 a, b. Le. littoral, espace de médiations 261 L'oratoire de Sengen, parfois une simple pierre, abrite dans la plupart des cas une statue de pierre du buddha Dainichi datant de l'époque d'Edo, beaucoup plus rarement celle de Konohana no sakuya hime 7K^fb^.^I[5$Ë, figure féminine shinto de la divinité du mont Fuji; souvent lui est associée celle d'En no gyôja, fondateur du shugendô, parfois celle du buddha Yakushi. Cet oratoire est le plus souvent appelé "Sengen san", mais aussi, et cela conjointement ou non, "Dainichi sama", "yama no kami" - dieu de la montagne -, "Ofuji san", "Takagami sama" - dieu "élevé" (puissant) -. Parfois "Konohana sakuya hime san" est utilisé pour désigner le buddha Dainichi (Photo 10). Sengen est considéré d'une façon unanime comme le dieu de la montagne et de la mer, protecteur des bateaux et des équipages en mer, mais aussi de toute la communauté qui vit à son pied (généralement, il existe cependant dans ces mêmes localités un dieu de la montagne au sens propre et distinct de Sengen, ainsi que de nombreuses autres divinités de la mer); dispensateur de bonne pêche, protecteur des enfants lorsqu'ils jouent dans l'eau et sont à la merci des puissances dangereuses de celle-ci; divinité de la longévité, du feu; divinité féminine qui "doit être vénérée sur une hauteur" où ne vont pas les femmes. On l'appelle aussi "ryôgami sama" W) W$. - le "dieu double" -, car dans son culte sont mêlés des éléments bouddhiques et shinto, l'encens et le sake, les services des moines et ceux des prêtres. Son culte est entretenu par une confrérie (ou plusieurs dans une même localité si celle-ci est importante; dans ce cas les différentes fonctions sont assumées par roulement entre les confréries) nommée Sengen ko, ou Fuji ko, Dainichi ko, kori #5 $t (ou shôjin $'fiË) nakama WTb\ - les compagnons de purification -, qui anciennement regroupait tous les hommes de la localité, et actuellement, selon les lieux, uniquement ceux qui souhaitent en faire partie ou uniquement les maîtres de maison. Cette confrérie a un responsable ikômoto Sf 7Ê), généralement le maître de maison d'une famille influente et aisée, qui peut être le descendant de l'introducteur du culte dans la communauté; un "guide" (sendatsu 9cM) pour les pèlerinages au mont Fuji et au mont Ômine ^Mllll, qui peut être ce même responsable ou non; elle associe parfois à ses activités le groupe des jeunes hommes (Photo 9). L'activité de la confrérie était à l'origine double : une semaine de purifications, centrée sur le vingt-huitième jour du cinquième mois lunaire, s'achevant généralement par la fête de Sengen; et l'expédition (autrefois en bateau jusqu'à Toyohashi H^, ancien Yoshida ïÈf EB) pour l'ascension du mont Fuji au sixième (ou septième) mois lunaire. Les purifications préparaient cette ascension et en étaient la condition. Aujourd'hui, à part quelques exceptions, la plupart des confréries de Sengen de cette côte ont réduit la durée des purifications (d'un à trois jours) et renoncé complètement à ce pèlerinage (depuis une cinquantaine ou une soixantaine d'années, semble-t-il); certaines le perpétuent une fois tous les cinq, dix ans, ou encore les années dites "années du mont Fuji", c'est-à-dire, selon le calendrier chinois, celles du singe, tous les douze ans, et celles de kôshin !f $, tous les soixante ans. Quelques-unes, très rares, le continuent tous les ans, comme celle de 262 Anne Bouchy Tasô EHH" (dépt. de Mie, Nanseichô T%f£BT). Durant toute la durée de l'expédition, les membres restant de la confrérie et un représentant de la famille de chaque pèlerin pratiquaient autrefois une retraite dans la "demeure de Sengen", puis accueillaient ceux-ci à leur retour par des chants et des danses. A partir de l'époque Meiji, certaines confréries ont aussi rempli le rôle d'association pour les prêts. Les particularités des pratiques et du culte de Sengen communes à toutes les confréries et spécifiques de cette région côtière sont : - l'importance de la "montagne de Sengen" pour les gens de mer. la double nature de Sengen divinité de la montagne et de la mer. des invocations au bodhisattva Sengen héritées du shugendô. la rigueur et l'importance donnée aux purifications dans la mer. une référence ambiguë au mont Fuji, souvent associé au mont Ômine, dont la montagne de Sengen est le yôhaisho jUt^Rf - "lieu de vénération à distance". - la présence d'au moins une grande perche de bambou (généralement de deux ou quatre) dite "bonden", remplissant le rôle de "reposoir" (yorishiro fSft) de la divinité Sengen, hissée lors de la fête sur un pin au sommet de la montagne ou de la pointe rocheuse, où celle-ci est vénérée, pour servir d'amer aux bateaux. - une fête bruyante, parfois disparue, qui à l'origine comportait toujours danses et chants, compétition de force et d'adresse entre les jeunes, parfois des mascarades. Indépendamment des variations locales formelles de cet ensemble, on constate une différence dérivée de celle des structures de deux types de sociétés distinctes et coexistantes sur ce littoral. Dans les communautés dont l'économie est uniquement ou majoritairement centrée sur la pêche de cabotage aux mains des hommes - soit sur toute la côte de Kushimoto à Hamajimachô ^UTO", tout ce qui concerne Sengen est exclusivement une affaire masculine; tandis que dans la presqu'île de Shima, terre ancienne de collecte sous-marine des coquillages et des algues par plongée en apnée dans laquelle les femmes tiennent une place très particulière,2 celles-ci sont venues s'immiscer dans le canevas des pratiques rituelles de Sengen - comme le montre l'exemple d'Azena cité plus haut - d'une façon tout à fait unique dans le contexte de ce culte. Cette participation féminine ne change ni la forme ni le sens de celui-ci, mais elle est l'affirmation de l'importance du rôle de la femme au coeur même d'un culte spécifiquement masculin sur ce littoral, et cela en concordance avec d'autres pratiques rituelles des communautés où est pratiquée la plongée. Aucune de ces variations ou de ces différences ne porte cependant atteinte au trait fondamental qui caractérise le culte de Sengen dans toutes ces localités de gens de mer : celui-ci n'est pas à l'intérieur d'une communauté locale l'expression d'un groupe limité dont les membres seraient réunis par un culte qui ne concerne qu'eux seuls - alors que cela peut être le cas des Fuji ko des villes et 2 Voir A. Bouchy, 1986, 1995 Le littoral, espace de médiations 263 du Kantô, par exemple. Que la confrérie de Sengen rassemble une partie ou la totalité des hommes du lieu, c'est l'ensemble de la communauté locale qui est reliée à Sengen par l'intermédiaire de ces derniers : les purifications sont faites au nom de toute la communauté en général et de ceux qui ont des demande plus particulières; chaque maison est purifiée par le passage du bonden, protégée par le petit bambou fiché à l'entrée; les anciens bonden sont mis sur le bord des bateaux pour leur assurer protection et bonne pêche; la fête de Sengen met à contribution d'une façon ou d'une autre tous les membres de la communauté. Par là le culte de Sengen manifeste son appartenance au registre général de l'univers religieux des pêcheurs et son ancrage dans ce milieu où la solidarité est valeur première face au danger côtoyé en permanence. Loin de résoudre le problème, le parcours de ce littoral sur les traces du culte de Sengen débouche en fait sur une double interrogation : celle des particularités des cultes de gens de mer et de l'identité socio-culturelle qui s'affirme à travers eux; et celle des processus de diffusion et d'implantation des cultes des montagnes, et, plus particulièrement dans un tel milieu, de celui du mont Fuji. Culte de Sengen et shugen du mont Fuji La vitalité et l'unité des manifestations comme du contenu du culte de Sengen peuvent être expliquées, dans un premier temps, par la date apparemment récente de l'implantation de ce culte sur cette ligne côtière. En effet, les plus anciennes inscriptions des statues des oratoires de Sengen, de même que les munafuda WfV plaquettes commémoratives de l'édification de l'oratoire placées dans celui-ci - ne remontent pas au-delà de l'ère Genroku tc^ [1688-1703] (1700 : oratoire de Nagashima Jlllt; 1708 : Dainichi nyorai de Kinomoto Jf-^f; 1731 : Dainichi nyorai d'Azena; 1741 : lanterne de pierre de l'oratoire à Nigishima Z^if%; 1753 : registre le plus ancien des Kori nakama - Compagnons de purifications - de Tasô; 1757 : Dainichi nyorai de Mikiura E^ffl - Owase JUS; etc.). Lorsque cela a été retenu par la tradition locale ou par quelques rares écrits, le culte de Sengen est présenté comme ayant été rapporté d'un pèlerinage au mont Fuji par un homme de la localité, ou par un pratiquant de l'ascèse dans les montagnes (yamabushi llltfc, shugenja ft?|&#, gyôja fî^f"), ou parfois instauré lors d'une épidémie pour éloigner celle-ci (Owase, Nagashima, 1700). Or ces dates coïncident avec le renouveau du culte du mont Fuji déclenché par les activités des deux premiers organisateurs des confréries du Fuji, Fuji ko : Murakami Kôsei *tJhft?t (1682-1759), Itô Jikigyô Miroku ifBMiêtè (16711733) et leurs disciples, qui suivirent l'impulsion donnée par le fondateur des premiers Fuji ko, Fujiwara Kakugyô MfàMft (1541-1646). C'est à partir de cette IwashinaK., 1983:33, 139. 264 Anne Bouchy époque que le mont Fuji, connu dès l'antiquité comme une terre des adeptes du shugendô - voie de l'acquisition des pouvoirs par l'ascèse effectuée dans les montagnes -, s'ouvrit plus largement aux pèlerinages des non-spécialistes de l'ascèse et que son culte se répandit dans les milieux populaires. Les Fuji ko s'organisèrent d'abord dans les milieux urbains d'Edo et dans les campagnes du Kantô, où leur activité prit parfois l'aspect d'un mouvement populaire à revendications sociales, ce qui leur valut d'être l'objet d'interdictions répétées dans la première moitié du XVIIIe siècle. Mais alors qu'au début des années 1700 les Fuji ko du Kantô n'en étaient qu'à leurs premiers balbutiements, dans le Kansai l'implantation des Fuji gyônin 1t±ff À - pratiquants de l'ascèse du Fuji - datait déjà de deux siècles. C'est en effet à l'époque de Muromachi, que remonte la plus ancienne diffusion du culte du mont Fuji dans l'ouest du Japon. Elle s'y est faite sous l'égide et la direction des trois principaux ermitages du shugen du Fuji : Chiseibô ffeffiiTj, Daikyôbô i^Wfi, Tsuji no bô £t;£.#7, bettô SU^ - administrateurs - du sanctuaire de Sengen et détenteurs de droits absolus sur le parcours d'ascèse du sommet du Fuji. Ces ermitages étaient établis à Murayama, base de la plus ancienne voie d'accès pour l'ascension du mont Fuji, au sud-ouest de celui-ci. De Murayama était parti Matsudai shônin ^ftHÀ (XIIe s.), dit aussi "Fuji shônin", le saint homme du Fuji, le fondateur historique de l'ascèse sur cette montagne. C'est le premier dont les chroniques aient conservé le nom et dont la renommée se soit répandue jusqu'à la capitale pour avoir escaladé le Fuji "plusieurs centaines de fois" (c'est-à-dire, vraisemblablement, "de très nombreuses fois") et établi un "temple" (sans doute un petit oratoire) dédié à Dainichi nyorai à son sommet.5 A Murayama il était luimême vénéré comme la divinité protectrice du Fuji sous le nom de Daitôryô gongen i^M^ktfÊM "Apparition circonstancielle6 du Grand maître charpentier" (c'est-à-dire du Grand maître ou Fondateur). Matsudai était l'héritier de la tradition du shugendô, relatée dès l'époque de Heian, selon laquelle En no gyôja aurait été le premier à "voler" jusqu'au sommet, expression légendarisée de la reconnaissance du Fuji comme terre sacrée et lieu d'ascèse par ces adeptes des pratiques ascétiques dans les montagnes. Matsudai avait jeté les bases de la pensée et du panthéon syncrétiques propres au groupe shugen qui s'établit à sa suite à Murayama : le mont Fuji était célébré depuis l'antiquité comme la terre de prédilection des ermites pratiquant les techniques de longévité, comme le mythique mont Hôrai 3Ë3fclll où vivaient les immortels, et aussi comme le siège de la grande divinité Sengen (Sengen ôkami ^Fei^cW)8; avec Matsudai, qui s'appuyait sur les révélations qu'il 4 Voir Endô H.; Gorai S., 1980 : 121-131; Inobe S., 1928 a, b; Iwashina K., 1978 et 1983; Ômori Y. 5 Honchôseiki ^M, Kyûan X& 5.4.16 (1149). A propos de la traduction du terme gongen, voir B. Frank : 284-291 . 7 Nihon (koku genpô zen.aku) ryôiki B^(mW^MM^i I, 28 (822). * Voir Fujisan no ki g =tr ULj SB (vers 875) de Miyako no Yoshika H5â# (838-879). Le littoral, espace de médiations 265 avait eu lui-même après cent jours d'ascèse totale dans la montagne, le mont Fuji devenait le lieu de vénération de Dainichi, essence originelle de Sengen, qui sera nommé aussi "grand bodhisattva Sengen" ïS^^;#0. C'est cette tradition qui se répandit la première et gagna les provinces occidentales. Dès le début du XIVe siècle, les disciples de Matsudai avaient organisé Murayama comme un centre shugen, qui instaura les règles d'entrée dans la montagne dites Fujigyô ildrtT ou Fuji zenjô H^^te. Ces règles étaient associées à de sévères pratiques de purification préalables, comme c'était l'usage dans toutes les montagnes du shugendô, et furent perpétuées sous le strict contrôle des yamabushi de Murayama durant quatre cent cinquante ans. Murayama était alors le point de passage entre "ce bas monde" de la vie ordinaire et le territoire sacré du Fuji. Les registres des ermitages nous permettent de savoir que le shugen de Murayama, loin de rester localement circonscrit, avait étendu son influence non seulement dans le Kantô mais surtout vers le Kansai. Ceci s'était fait en particulier par l'intermédiaire des yamabushi de ces provinces qui étaient affiliés au Shogo.in Hfffêc, centre shugen de Kyoto de la branche Tendai, et qui venaient pratiquer l'ascèse du Fuji. En effet, les ermitages de Murayama étaient eux-mêmes rattachés au Shogo.in et par ce biais s'étaient établis des liens de réciprocité entre eux et les yamabushi de tous les grands centres du Kansai de même affiliation, en particulier ceux du mont Ômine (Yoshino lÊfU et Kumano), au moins depuis le XVIe siècle. Les chroniques des fêtes et rites annuels comme le Hinamikiji S ^cS^ Chroniques des jours (fin XVIIe) - (ou plus tard le Shokoku zue nenjûgyôji taisei fi @® ^^^ffï-^tëJc - Compilation illustrée des rites annuels des diverses provinces, début XIXe) - relatent que les Fuji gyônin du Yamashiro - la région de Kyoto - s'adonnaient aux purifications du Fuji {Fuji kori HT±#p8t) dans la rivière, du 25e jour du 5e mois au 2e jour du 6e, avant leur ascension du Fuji qui avait lieu au 6e mois (et durait vingt-six jours pour les spécialistes, une journée pour les pèlerins ordinaires); qu'à ces gyônin spécialistes se joignaient aussi hommes ou femmes qui avaient une demande particulière, car cette purification "était l'équivalent d'une montée au Fuji". Les trois ermitages délivraient les "certificats" de guides au gyônin spécialistes qui dirigeaient les purifications du Fuji dans les provinces et amenaient avec eux des pèlerins jusqu'à la montagne. Ils leur transmettaient les invocations et les enseignements secrets de Murayama, leur distribuaient des gravures des divinités du Fuji représentées sous leur triple aspect : la triade d'Amida, le bodhisattva Sengen et Dainichi nyorai. Ils les guidaient dans la montagne et tous ces pèlerins avaient le devoir de se faire toujours héberger par le même ermitage. Tout ceci était la base des revenus du shugen de Murayama et de l'étendue de son influence. Azuma kagami ^#§i, Kennin El- 3.6 (1203). 1 VoirlnobeS., 1928 a: 31-39; 1928 b: 193. 266 Anne Bouchy Mais d'une part la distance matérielle et l'assimilation de la purification du Fuji à une ascension furent une cause de rupture à plus ou moins long terme entre Murayama et les confréries locales, qui eurent tendance à ne plus pratiquer le pèlerinage. D'autre part, dès le XVIe siècle, copiant Murayama, des yamabushi indépendants avaient ouvert d'autres voies d'accès au nord, à l'est et au sud-est du mont Fuji, tournées vers les provinces du Kantô. Ils ne parvinrent pas à ravir à Murayama sa suprématie dans la montagne, mais c'est de ces bases qu'à l'époque d'Edo partit le mouvement de renouveau du culte du mont Fuji qui donna à celui-ci un aspect shinto très marqué et l'orienta davantage vers une éthique laïque. Entre ces deux tendances s'établit alors une compétition, qui avec le temps devint de plus en plus sévère pour Murayama. Ceci d'autant plus qu'à la fin du XVIIe siècle, l'exclusivité des droits sur l'entrée dans la montagne dont les ermitages de Murayama avaient joui jusque-là commença à être contestée par le sanctuaire Sengen d'Ômiya, situé au pied même de Murayama. Celui-ci était administré par les prêtres shinto, et, protégé par le pouvoir central, il finit par l'emporter. C'est dans ce contexte que Murayama tenta de reconquérir les pèlerins du Kansai, qu'Ômiya cherchait à attirer. Tout au long des XVIIIe et XIXe siècles, les ermitages firent oeuvre de propagande avec les moyens qui leur étaient propres : l'organisation shugen de l'ensemble du Kansai. Les yamabushi locaux furent chargés de cette campagne. Et l'on peut penser qu'à cette occasion furent implantés, ou réactivés, les cultes de Sengen tout au long du littoral de la péninsule de Kii, territoire sous l'influence des shugen d'Ômine et des nombreux petits centres locaux. De fait, les registres du Daikyôbô datés des XVIIe, XVIIIe, XIXe siècles mentionnent le nom de sendatsu responsables du Fujigyô des provinces d'Iga, d'Ise, de Shima, d'Ôsaka et autres lieux du Kansai; fin Edo, on y trouve le nom des confréries d'Ômine et du Fuji de ces régions qui s'associaient pour les pèlerinages au mont Fuji. Et les documents conservés par les confréries de Sengen dans les ports de la côte orientale de Kii témoignent eux aussi d'une part de ces liens à Murayama, mais également de la contribution du shugen d'Ômine dans cette diffusion du culte de Sengen. Parmi ces documents on trouve en effet : des gravures du mont Fuji, vu du sud par la mer, mentionnant l'itinéraire à suivre pour se rendre à Murayama; et, sous forme de gravures sur papier ou d'estampages sur les vêtements des membres des confréries, des représentations de la triade d'Amida, de Dainichi nyorai et du bodhisattva Sengen portant le paraphe "Accès principal Murayama" (Photos 11, 12). D'autre part, les chants de la fête de Sengen, qui sont aussi ceux du pèlerinage au mont Fuji, retracent tout le périple depuis le port d'origine jusqu'à l'arrivée "au lieu d'hébergement de Murayama" où l'on se purifie "sous la cascade de Fudô". Murayama continua, tant bien que mal, à recevoir et à guider des pèlerins sur le Fuji Inobe S., 1928 b : 194; Iwashina K., 1983 : 38. Le littoral, espace de médiations 267 jusque dans les années 1935. Et l'on peut sans doute considérer que la concordance des dates de l'arrêt des pèlerinages pour beaucoup de confréries et de celles de la disparition des derniers yamabushi de Murayama dans ces années 193035 est aussi une marque des liens réciproques qui s'étaient établis entre eux. Les invocations à Sengen récitées encore aujourd'hui par ceux qui font les purifications dans la mer reproduisent celles du shugen de Murayama - parfois jusque dans leurs altérations - telles qu'elles avaient été imprimées en hiragana par les ermitages dans les années 1818-1830, en guise de "tracts" de propagande pour les pèlerins du Kansai : Sange no mon Formule de repentance Sangi sangi Repentance, repentance, rokkon shôjô purification des six racines oshimeni hatsu dai Kongôdôji à notre étole les huit grands Kongô dôji Fuji wa Sengen, Dainichi nyorai le Fuji, c'est Sengen, Dainichi nyorai ichini raihai tout d'abord, prosternations namu Sengen Daibosatsu hommage au grand bodhisattva Sengen Korewa hachido tonoubeshi A réciter huit fois Fujisan Murayama Mont Fuji Murayama Bettô Bettô Sôyakunin Ensemble des préposés Cette "formule de repentance", appelée "nenbutsu de Sengen" par les confréries de Kumano et de Shima, qui est propre à Murayama dans sa seconde partie, est largement utilisée dans le shugendô pour les entrées dans la montagne, de même que les mantras de Fudô myôô et de Dainichi nyorai, qui son récités à sa suite lors des purifications de Sengen. L'utilisation du bonden lors de la fête de Sengen et en haut de la montagne de Sengen dans tous les ports de ce littoral comme signe de la présence de la divinité est elle aussi un héritage du shugendô, que l'on retrouve dans l'entrée de la : 13 EndôH. Inobe S., 41-44. 1928 b : 194. Le texte original est écrit en katakana, à l'exception des trois dernières lignes et des caractères \i\t\ J, f- 'J, T^J et 268 Anne Bouchy montagne au mont Haguro 33HUJ (dépt. de Yamagata), ou au mont Iwaki (dépt. d'Aomori), par exemple. Il semble qu'il soit l'un de ces éléments anciens du shugen du Fuji, qui disparaîtra dans le Kantô pour ne subsister que dans le Kansai, où il est encore partout associé au culte de Sengen de nos jours. "Ils portent le kesa W& - étole - shugen, secouent le bâton à anneaux (shakujô fjyfotl), laïcs, ils s'habillent comme des yamabushi et confectionnent des bonden de grande taille qu'ils portent en déambulant en grand nombre dans toute la ville" : c'est ainsi qu'étaient décrits les pratiquants du culte du Fuji à Edo par les deux premières interdictions qui frappèrent ceux-ci en 1775 et 1795, parce qu'ils n'étaient classables ni dans le bouddhisme, ni dans le shinto - ce qui est précisément la caractéristique du shugendô et lui valut d'être la première victime de la séparation du bouddhisme et du shinto sous Meiji. Mais ces bonden n'apparaissent plus dans les interdictions ultérieures et durent disparaître sous l'influence des organisateurs des confréries du Kantô, qui cherchaient à évacuer toute influence du shugendô .'4 Le choix de Dainichi nyorai comme figure principale du culte, et celui du 28 jour de célébration de Dainichi dans le bouddhisme - comme date de la fête de Sengen; de même que l'appellation de Sengen ko et non de Fuji ko ainsi que la graphie de Sengen £§IhÎ (les Fuji ko du Kantô utilisent celle de Sengen {lljTC révélée par Kakugyô) sont également des preuves indéniables de l'influence de Murayama. Tandis que la participation du shugen d'Ômine se révèle à travers des éléments comme : la présence de la statue d'En no gyôja dans les oratoires aux côtés de Dainichi; ou la coexistence des confréries d'Ômine (Sanjô ko, Ômine ko) et de Sengen, regroupant les mêmes membres dans la plupart des localités de la côte et jumelant leurs activités. Tous ces faits sont autant d'éléments qui permettent de considérer le phénomène du culte de Sengen sur ce littoral de la péninsule de Kii comme étant bien dérivé pour tout ce qui concerne les éléments précédemment cités - du culte du mont Fuji, non pas selon la ligne plus récente et située hors du contexte shugen des confréries du Fuji du Kantô, mais selon sa tradition la plus ancienne : celle de Murayama et des Fuji gyônin. La quasi-disparition de cette tradition confère aux pratiques des gens de mer une valeur de témoignage d'autant plus grande sur ce culte lui-même. Connaître le processus d'implantation de celui-ci dans cette région permet aussi d'avoir un aperçu sur le fonctionnement des réseaux du shugendô à l'époque où celui-ci perdait de plus en plus de terrain dans l'univers religieux. On peut penser que le travail de propagation des yamabushi fut ici facilité par les particularités de l'univers religieux des gens de mer, qui tiennent toute souillure pour la cause des naufrages et de la mauvaise pêche. Il existe une tradition ancienne de purifications individuelles et collectives pratiquées dans toutes ces localités au moment des grandes coupures du cycle annuel - nuit de l'An et dernière nuit du 6e mois -, mais aussi après une mort - la "souillure noire" kuro fujô H^sf1 -, une Inobe S., 1928 b : 139, 236; 1928 a : 166, 171. Le littoral, espace de médiations 269 naissance - la "souillure rouge" akafujô jfc^ffi, ou "souillure blanche" shiro fujô EÉj^sff- -, ou lors de malheurs répétés, de mauvaise pêche, pour que toutes les causes funestes soient effacées, "lavées". Les purifications de Sengen, investies du pouvoir que leur conféraient les mantras du shugendô et le cadre rituel du culte de Sengen, ont été adoptées comme particulièrement efficaces. C'est aussi ce qui explique qu'avec le temps, s'il ne subsiste qu'un seul élément des pratiques du culte de Sengen, ce soit précisément les purifications dans la mer. Le culte de Sengen sur cette côte ne serait-il donc que le résultat de cette "implantation" venue de l'extérieur du monde des gens de mer? C'est la question qui surgit à ce point des investigations du côté de l'apport bien réel du shugendô. Cependant celui-ci ne peut expliquer deux des particularités les plus marquantes du culte de Sengen sur ce littoral : l'identification de Sengen à un dieu de la mer; la situation remarquable, et identique dans tous les ports, des petites eminences où est placé l'oratoire de Sengen. L'au-delà et son double Lorqu'on est à la recherche des bases locales anciennes du culte de Sengen le long de cette ligne côtière, il est séduisant de penser que le groupe shugen du mont Asama I^Islil, situé à la frontière d'Ise et de Shima, et le culte particulier dont cette montagne est le centre ont été des éléments clefs dans l'implantation du culte de Sengen. Le mont Asama (553m) est, pour toute la population de la presqu'île de Shima qu'il domine, le lieu où vont les âmes des morts et où réside le dieu dragon dispensateur d'eau. Le chemin qui mène à Yoku no in HL^I^: - le temple du fond est bordé d'une véritable forêt de tôba ^# - hautes planchettes commémorant les services accomplis en ce lieu pour les morts - qui peuvent atteindre ici la dimension de piliers de cinq à dix mètres de haut. Sur ces tôba ont été accrochés par les familles des défunts des objets ayant appartenu à ceux-ci ; lunettes de plongées, filets, burins à ormeaux pour les plongeuses; pantalons, cravates pour les hommes; poupées, jouets pour les enfants; mais aussi, bâtons de voyage, raquettes de badminton, chapelets (Photo 13). La montagne est administrée par le Kongôshôji ^PJIE^f, monastère qui fut fondé par un pratiquant de l'ascèse inconnu, mais nommé "Kôbô daishi âUi^frft" dans les récits de fondation. Ceux-ci font du mont Asama l'antique demeure des ermites du tokoyo #"ffir, le monde immuable de l'au-delà des mers, où se serait manifesté devant le fondateur un prodige du feu céleste. Ce feu, prenant tour à tour l'apparence d'une lumière du ciel et d'un ours d'or, y est présenté comme étant la manifestation d'Amaterasu, assimilée elle-même à l'étoile Myôjô H^JË, à Uhôdôji ^- et au bodhisattva Kokùzô iÈ^M.16 Dès l'antiquité, le mont Asama fut en Voir Miyata N., 1965. Voir Ise Asama dake ryaku engi f^f^l^R-u&B&lf & et Asama dake giki 270 Anne Bouchy effet un centre très prospère du shugendô d'affiliation Shingon, créateur de ce panthéon syncrétique, et célèbre pour sa pratique du gumonjihô Mlffîffifè - "rituel pour chercher à garder en mémoire (la formule suprême par laquelle le bodhisattva Kokûzô peut combler tous ses voeux").18 Mais, comme cela fut le cas pour beaucoup d'autres temples de cette région, après un déclin au Moyen Age, il fut restauré à l'époque de Muromachi par un moine (Tôgaku Monryù J^-feiH) de la branche Rinzai du Zen, à laquelle il est affilié depuis. Onze temples de Shima lui sont rattachés et par ce biais, tout au long de l'histoire ont été entretenus dans la presqu'île les pratiques et le culte populaire dont Asama est le centre et dont les textes syncrétiques évoqués plus haut sont l'expression savante. Ce qui a pu être retenu pour rapprocher le mont Asama des montagnes de Sengen, c'est tout d'abord la possibilité du passage à'"Asamà" à "Sengen" par glissement homophonique; ce qui aurait pu être le signe de la substitution d'un culte à l'autre : en effet, les caractères %RM d'Ise comme ceux de \%t*a\ du Fuji peuvent se lire les uns et les autres asa.ma., et v!§Fh! du Fuji également sen.gen. Asama est un nom qui semble avoir été donné aux montagnes - notamment aux volcans en activité - auxquelles fut reconnu un caractère sacré, comme en témoigne le nombre de celles qui portent ce nom. Asama fut sans doute le terme le plus anciennement utilisé pour désigner ces deux montagnes et leurs divinités, tandis que les lectures d'Asakuma et de Sengen furent secondes et s'appuient sur des interprétations liées aux révélations concernant les divinités vénérées en chacune de ces montagnes. Pour le nom du sanctuaire du mont Fuji en tout cas, ces deux lectures sont bien attestées dans l'Engishiki Mïl^; où à celle de sen.gen est jointe la mention "interprétation secrète". Ce texte cependant présente comme transcription phonétique du nom de l'actuel Asama d'Ise : asa.kuma.jin.ja (doublée de celle de ku.ma.no.jinja) lecture fidèle au contenu de Y Histoire des origines de cette montagne.1 Aujourd'hui Asama. ga.dake, Asama yama est le nom couramment donné à cette dernière, tandis qu' Asakuma yama est d'un usage plus savant et rare. Mais s'il est vrai qu'à Shima on appelle parfois "Fuji san" les petites eminences de Sengen sises dans chaque port, jamais je ne les ai entendu désigner du nom d'"Asama san". Et l'on ne rencontre pas davantage la confusion des termes ou une utilisation indifférente de "Sengen" pour "Asama", et vice versa, dans l'un ou l'autre de ces deux registres cultuels. Comme on l'a vu plus haut la divinité des petits oratoires peut recevoir plusieurs appellations, mais en fait, à Shima, quand on dit "Sengen san" on parle des petites eminences surplombant les ports où sont hissés les bonden. Bien plus, il est rare qu'un habitant de Shima dise "le mont Asama" pour désigner cette montagne. Le terme couramment utilisé est "Take san" 9 Y £ A-, -Ê £ À, : "la Montagne". Aller en pèlerinage au mont Asama se dit faire le "Take Voir Asama dake giki. Traduction de B. Frank, 1991 : 132. Engishiki 9, Shinmei 1 . Le littoral, espace de médiations 271 main" élit ^ - "le pèlerinage à la Montagne" -, ou même simplement "faire Take san" - "faire la Montagne" -. Or, il y a là un autre élément de rapprochement possible entre Asama et Sengen : le plus grand pèlerinage de l'année au mont Asama a lieu les 28 et 29 juin actuels (autrefois les 28e et 29e jours du 5e mois lunaire), officiellement jours de la célébration de l'anniversaire de la mort de Tôgaku Monryû, qui restaura le monastère. Mais en fait pour toute la population de Shima, ce pèlerinage n'est autre que la célébration annuelle des âmes de tous les morts, pour lesquelles ont été faits en ces lieux des services réguliers et individuels : tout de suite après le décès (avec port de cendres ou de mèches de cheveux), pour la fête des morts de l'été (actuellement entre les 7 et 15 août), pour les grandes dates anniversaires du décès. Les 27 et 28 au soir, le bâtiment dédié à la mémoire de Tôgaku, situé dans l'enceinte du monastère tout en haut du mont Asama, est envahi par une foule de plongeuses des villages de la côte, qui y passent la nuit à chanter et danser les danses de la fête des morts, au rythme d'un grand tambour frappé par l'une d'elles. Quelques rares hommes se joignent à elles : des parents des "nouveaux morts", les défunts de l'année. Car la coutume veut que si leur parenté danse, "les jambes des morts sont légères" (pour le voyage de l'au-delà). Le rire aussi a son rôle : pantomimes et sketchs assez lestes joués par les unes et les autres sont au nombre des morceaux les plus prisés de la soirée. Durant les journées des 28 et 29 juin, l'enceinte de Yoku no in est submergée à son tour par la foule des familles qui viennent déposer devant tôba et stèles mortuaires encens, boulettes de riz, fruits, thé, bouquets de branches à feuillage persistant : "shikibi" - shikimi fê- ou $$, anisatum religiosum -, "ashibi" asebi MBi^, pieris japonica - et buis, regardées dans la région comme les "fleurs" des morts. Des offrandes de riz sont jetées vers la vallée, au-delà du cours d'eau considéré comme la berge de la "rivière de l'au-delà". De ce pèlerinage est rapporté une branche de shikibi, où sont "descendues" les âmes des morts devenues protectrices, qui sera plantée à l'entrée de la maison, dans un champ. Cette branche est le pendant du bouquet de feuillage persistant (asebi, shii f|) placé à ces mêmes portes pour accueillir les dieux de la nouvelle année. Cette concordance de la date du Take mairi et de la fête de Sengen, ainsi que l'existence du shugen d' Asama ont pu donner à penser que le culte de Sengen était une extension locale de celui du mont Asama, sur lequel se serait greffé, à l'époque d'Edo, par l'entremise des yamabushi, le culte du Fuji. Cependant, outre les restrictions faites précédemment, cette hypothèse se heurte à un obstacle majeur, celui de l'homogénéité et de l'étendue des cultes locaux de Sengen bien au-delà de la sphère d'influence de la structure religieuse du mont Asama, limitée, quant à elle, à la presqu'île de Shima et à Ise. Plus au sud sur cette même côte, et en particulier à partir de Nagashima, ce n'est pas au mont Asama mais au mont Myôhô ^ftlll et au temple Amidaji N"jjft|$'E#, oku no in de Nachi S|5|?, situés à l'autre bout de ce littoral que l'on va porter les cendres et demander les services pour les âmes. Et si les activités du shugen d'Asama ont bien laissé des traces dans les villages de la 272 Anne Bouchy presqu'île, il n'en va pas de même pour le reste de la côte, généralement placée sous l'obédience de Kumano et Nachi. Cependant le rapprochement de Sengen et d'Asama met en lumière une double réalité qui n'apparaît en aucune manière comme contradictoire aux gens de mer détenteurs de ces traditions : parallèlement à cet au-delà du haut des monts Asama et Myôhô où sont censées aller les âmes des morts, il en existe un autre, situé de "l'autre côté de la mer" (umi no kanata ni %<D'$L~}j \z) où vont et d'où viennent les âmes des morts et les dieux. Si les pêcheurs et les plongeuses de cette côte veillent à accomplir scrupuleusement encore aujourd'hui les pèlerinages aux monts Asama et Myôhô pour les âmes, ils n'en accordent pas moins une extrême importance aux rites d'accueil des dieux sur les plages durant les trois premiers jours de l'an. Parcourir ce littoral à cette période de l'année permet d'être le témoin d'offrandes de branches d'arbustes à feuillage persistant et de pin, de riz et d'oranges posées à même le sable sur la grève, sur les rochers, jetées dans la mer; d'offrandes de danses, de jeux de marionnettes face au large; d'invocations aux dieux de la mer, aux dieux dragons et aux ancêtres lancées vers l'horizon marin (Photos 17, 18). Il en est de même pour la fête des morts de l'été, dont le Take mairi est un modeste double. Accueil des âmes des morts par le lancer à la mer de petits bateaux de bambous nains, relayés par la lumière de hautes lanternes placées au seuil des maisons; nenbutsu d'accueil et de renvoi chantés face à la mer; danses de toute la communauté sur la grève pour "raccompagner" les âmes, reconduites dans l'audelà par des bateaux de paille chargés d'offrandes et de poupées de papier. Tous ces rites annuellement accomplis sont autant d'expressions de la croyance vivace en un au-delà outremarin, qui serait la résidence des dieux et de toutes les âmes; âmes du passé mais aussi de l'avenir, comme en témoigne la réponse de la plongeuse à l'enfant s'enquérant de "l'endroit d'où il vient" : "Je t'ai ramassé sur la plage Blanche (Shirahama É^) et si tu n'es pas sage j'irai t'y reporter!" (tradition d'Ijika 5"§Jl). Le problème se pose alors de savoir comment les populations de gens de mer, qui se trouvent ainsi comme prises entre deux au-delà, ont élaboré le rapport de ces deux univers de conceptions apparemment incompatibles et par quelles médiations ce rapport s'est organisé. Une investigation attentive des traditions locales révèle qu'il existe entre ces deux mondes un chemin conduisant de l'un à l'autre et une histoire qui les pose dans un certain rapport. En effet, il n'est presque aucune anse de cette côte où l'on ne puisse entendre raconter l'histoire d'un dieu de la mer "venu s'échouer" sur un récif près du rivage sous la forme d'un tronc d'arbre, d'une pierre, d'un miroir, d'une épée, d'une statue bouddhique, ou même d'un cadavre (Isozaki), et à qui a dû être consacré le petit oratoire, le temple ou le sanctuaire de la localité placé sur la hauteur, face à la mer. Cette installation sur la rive apparaît en effet comme le rite par lequel on propitie une présence qui serait dangereuse si elle restait abandonnée à son errance sur les flots. Ce point de jonction, que constituent les grèves rocheuses et les petites eminences côtières comme lieu de rencontre premier Le littoral, espace de médiations 273 des deux univers marin et terrestre, se révèle être une articulation essentielle du complexe religieux qui réunit les cultes de la mer et le monde des montagnes. L'examen de l'élaboration et du fonctionnement de ce rapport ouvre aussi la voie pour une autre approche du problème de Sengen. Quand les dieux de la mer gravissent les montagnes Dans cette région, le meilleur exemple de la dynamique d'un tel rapport, tant pour le développement remarquable qu'il connut, que pour la somme des éléments qu'il offre à l'analyse, est celui de la "montée" de la statue de Kannon d'Ôsatsu tS H (Toba M$\) jusqu'au sommet du mont Aomine W^lll (336m) situé au coeur de la presqu'île de Shima. Comme le mont Asama, le mont Aomine, terre ancienne du shugendô administrée par le temple Shôfukuji IEII^f d'affiliation Shingon, est le centre d'un culte particulièrement vivant chez les plongeuses de tout Shima. Mais à la différence de ce dernier et parallèlement au prestige dont jouissent auprès des gens de mer le sanctuaire de Nachi et son temple, le Seigantoji W^ïlt^F, Aomine connut durant toute l'époque d'Edo une véritable vogue de "dieu de la mer" qui s'étendit à tout le pays et égala celle du Kinkasan ^M\h (dépt. de Miyagi) ou de Kompira ^MSlil (dépt. de Kagawa). Cette vogue, débordant le cadre du monde des pêcheurs, fut soutenue par la ferveur des équipages des transporteurs (kaisen M Ip) d'Ôsaka, de Nagoya, de Mikawa lïi'ffî, ferveur dont témoignent les offrandes encore visibles aujourd'hui dans l'enceinte du temple : lanternes de pierre, plaques commémoratives, ex-voto peints. Actuellement des confréries d' Aomine existent encore chez les pêcheurs et caboteurs de toute la côte du Pacifique depuis Hokkaidô jusqu'à Kyûshû. Or cette renommée d'Aomine repose à la fois sur la situation particulière de cette montagne visible de très loin en mer et sur l'habile exploitation d'un culte local ancien. L'histoire de Kannon du mont Aomine est rapportée par deux sources : l'histoire des origines du temple conservée au Shôfukuji et une légende transmise à Ôsatsu, village vivant à la fois de la plongée et de la pêche. Cette légende d'Ôsatsu s'articule autour des principaux éléments suivants : - Hama no Taira Harumit.su ï^O^Bf t"è : "Taira-de-la-Plage Claire-Lumière", rescapé de l'armée vaincue des Heike W-M, échoue sur le rivage d'Osatsu et est adopté comme gendre par l'une des huit familles du lieu : un étranger "lumineux", revêtu du prestige des guerriers et arrivé par la mer, devient membre de la communauté locale - Un jour une lumière apparaît sur la mer, la tempête se déchaîne, les habitants effrayés n 'osent plus sortir la nuit : la lumière sur la mer, signe de la manifestation des dieux et des âmes depuis l'époque des mythes, est une puissance dangereuse qui terrorise les populations locales si elle est laissée telle quelle 274 Anne Bouchy - Hama no Taira va jusqu'à la source lumineuse qui se révèle être une statue de Kannon de trois centimètres (1 sun "\J* 8 bu 55*) montée sur le dos d'une baleine échouée à la pointe rocheuse entre les deux plages d'Osatsu (actuel cap de la Baleine) : l'homme hors du commun remplit le rôle de médiateur entre les hommes et la divinité de la mer; celle-ci est représentée sous le double aspect de la baleine (variante des tortues, wani tf - requins (?) -, et dragons des mythes, ou des sept requins - same ,t£ - considérés à Shima comme les messagers des dieux de la mer) et de Kannon (apport bouddhique, d'autant plus assimilable au concept de l'au-delà des mers que Fudaraku ffiP'Ëfê - Potalaka - le paradis de Kannon est présenté comme une montagne lumineuse située dans les mers du sud; et que Kumano était le lieu d'où certains partirent en bateau pour "s'y rendre" dans un acte rituel d'abandon du corps) - // prend la statue et la baleine se transforme en rocher, appelé aujourd 'hui "Roche de la baleine", à quelques mètres du cap (Photo 16) : le premier lieu d'"arrivée" - de vénération - des dieux de la mer est un rocher ou un îlot proche du rivage - // garde la statue sur lui (ou chez lui), mais par un rêve Kannon demande à être vénéré sur une hauteur. Il la place dans un oratoire au sommet de la montagne de Guet - Mihari yama JlizëLLl -d'Osatsu : dans un premier temps le médiateur, laïc s'occupant du sacré (type même des gyôja des villages), entretient un culte privé, puis il développe celui-ci en un culte local en portant l'objet de vénération sur la hauteur la plus remarquable (170m) du territoire du village (c'est-à-dire à l'endroit que l'on voit le mieux des habitations, d'où l'on voit le mieux la mer et qui est le plus visible du large) - Un autre rêve lui ayant signifié que ce devait être un lieu encore plus élevé, Hama no Taira porte la statue en haut du mont Aomine, où existait déjà un petit ermitage dont elle devient l 'objet de vénération principal. En signe de ses liens avec le mont Aomine, Hama no Taira prend le nom d'Aoyama Will, qui reste celui de sa descendance aujourd 'hui : le culte est transféré sur la montagne la plus remarquable et la plus proche (qui se trouve exactement dans l'alignement du cap de la Baleine quand on veut rentrer au port d'Osatsu) et par là sort du domaine local pour devenir le centre autour duquel s'organisent le temple et le culte du mont Aomine. Le fondateur du culte originel conserve un rapport privilégié avec le Shôfukuji, temple édifié sur le mont Aomine, - en particulier lors des ouvertures de la châsse de Kannon - et avec Kannon, (aujourd'hui encore, une statue de Kannon est vénérée dans la maison Aoyama d'Osatsu). Mais Hama no Taira, originellement étranger au village, peut apparaître aussi comme le ravisseur de ce culte de la mer, dont il se sert pour établir la prospérité d'un temple en haut de la montagne. VoirGoraiS., 1975, 1989, 1995. Le littoral, espace de médiations 275 Cette légende locale contient des informations essentielles. Elle dépeint le processus d'émergence d'un culte de la mer dans sa relation avec la topographie : récifs et pointes rocheuses sont le lieu de vénération originel des dieux de la mer, et les petites hauteurs dominant les villages de pêcheurs sont le relais de ceux-ci vers la communauté humaine. Les dieux de la mer doivent monter sur la terre, mais rester aussi le plus près des eaux. Et de fait, à Ôsatsu, aujourd'hui encore sur le cap de la Baleine, face au "rocher-baleine", lieu sacré à demi immergé, se dresse un petit oratoire dédié aux dieux de la mer, vénérés aujourd'hui sous le nom de Benzaiten #^^ (appelée "Berai san" dans le dialecte local). Le lieu de culte édifié sur la montagne de Guet, le relief le plus remarquable de la localité, était le premier relais, visible depuis le large et le village, de l'oratoire du rivage. De tels lieux sont tous dans un rapport remarquable entre eux ainsi qu'avec l'entrée du port, et servent d'amers (c'est uniquement par la mise en relation de deux ou plusieurs amers que les pêcheurs peuvent déterminer leur position au large). Ils sont aussi considérés comme le "siège" (dit kura et aussi shima le long de ce littoral de Kii) des divinités de la mer. De fait, tout le long de cette ligne côtière, comme sur toutes les autres, les rochers, les récifs, les îlots, les caps et les petites hauteurs remarquables en bordure de littoral qui servent de points de repère aux pêcheurs et aux plongeuses sont appelés "Dieux de la mer :MW\ "Ebisu MifcïM", "Roi Dragon MIE" ou "Palais du Dragon MHp". Ces points rocheux sont salués au départ et à l'arrivée des bateaux, et reçoivent des offrandes d'eau de mer, de sake; vers eux sont dirigées les prières lors des sorties en mer et des entrées au port. Dans l'univers marin toujours mobile, ce sont les points fixes vers lesquels peuvent se poser les regards et aller les demandes de bonne pêche et de sauvegarde. C'est sur ces lieux, considérés comme la margelle de leur première "arrivée", que l'on va "chercher" ces dieux, "les plus anciens" du panthéon local, pour les installer dans le sanctuaire de la côte durant le temps de la grande fête annuelle, puis c'est là qu'on les "reconduit". C'est sur ces récifs, où souvent la pêche est interdite en temps ordinaire, que l'on va chercher les poissons, algues ou coquillages offerts à la divinité du sanctuaire local où les dieux de la mer sont vénérés sous de multiples noms. Se pencher vers le champ religieux des usagers de la mer, c'est être amené à reconnaître, comme une généralité sur les côtes, cette utilisation de repères, reliés entre eux par le regard et topographiquement remarquables, investis d'une double fonction et d'une histoire. Ce que je voudrais souligner ici c'est l'univers auquel font référence ces points de repère : si ces récifs et ces petites hauteurs dans les ports sont bien des amers qui permettent donc de retrouver le monde des hommes, ils sont aussi un rappel de l'au-delà de la mer et un relais vers lui, l'axe à partir duquel le regard s'oriente vers l'horizon marin. Bien plus, on peut penser que la fonction d'amer n'est pas separable, et dépend en fait du rapport qui a été établi entre ce repère lui-même et l'au-delà : par là, ces rochers et ces petites eminences terrestres sont orientés vers le domaine de la mer et tournent le dos à l' arrière-pays. Tous les rites les relient à la mer. Ils matérialisent la croyance pérenne en des 276 Anne Bouchy entités surnaturelles faisant des allées et venues incessantes entre cet au-delà et la terre. Ils parlent d'un monde défini par le champ d'activité des gens de mer, dont ils sont comme la limite côté terre, et servent de renvoi vers cette autre frontière ouverte qu'est l'au-delà outremarin. ' Mais la statue de Kannon est montée jusqu'au sommet du mont Aomine. Le texte considéré aujourd'hui comme la version la plus ancienne de Y Histoire des origines du Shôfukuji, et qui fut probablement compilé au début de l'époque d'Edo à partir d'un texte antérieur," présente cette "ascension" d'un tout autre point de vue. La légende d'Ôsatsu, légèrement transformée, y est intégrée à l'histoire, ellemême légendaire, de la fondation du temple exposée en trois parties : - La fondation du temple est ordonnée à Gyôki fri? par l'empereur Shômu MS;, après un rêve-oracle que celui-ci eut sur le mont Asama, lors d'un pèlerinage à Ise, lui signifiant que la construction d'un temple dédié à Kannon sur le mont Aomine était la condition de l'édification du Tôdaiji J^^^f de Nara. - Une statue de Kannon de trois centimètres (1 sun 8 bu) venant du Fudaraku, est portée sur la montagne jusqu'à la roche de Kannon par une baleine qui se transforme en pierre en arrivant dans l'étang du Palais du Dragon devant le temple. En 749 le moine Bodai #H aurait sculpté une "triple" statue - celle du temple actuel - pour y enchâsser la petite statue merveilleuse. Cette grande statue a pour particularité unique de porter sur les reins le koshimino M H (jupe de paille qui était autrefois le seul vêtement porté en mer par les pêcheurs) (Photo 14). - Suit la description des divers lieux remarquables de l'enceinte du temple dont la "pierre de zazen de Gyôki" (ff H^^^ïf), la "roche des lampes" (tômyô iwa 'JSB/fë) dite aussi "pierre des lampes du Dragon" (Ryùtô ishi tËiffi) car les lampes des dragons y apparaissent. - Une référence à un "ancien texte" relatant la descente d'Amaterasu sur le mont Aomine sous la forme du disque solaire à l'époque d'Itoku tennô i&fë^JË (quatrième empereur). Comme on a déjà pu le voir dans l'histoire du mont Asama - et ce qui est généralement la règle pour les centres anciens du shugendô "ouverts" par des pratiquants de l'ascèse dont la mémoire locale n'a pas conservé le nom -, ce texte donne pour fondateurs au Shôfukuji deux moines célèbres de l'époque de Nara, souvent associés dans les textes anciens. En cela, il ne diffère de la légende d'Ôsatsu qu'au niveau des termes. La signification de ces deux traditions n'étant autre que de poser un être exceptionnel - historiquement connu ou pas - à l'origine du culte autour duquel est bâtie toute l'histoire. A cette différence près que l'un est présenté comme religieux et l'autre laïc. Dans un cas il s'agit en effet de faire reconnaître un temple, et dans l'autre de valoriser une lignée familiale. Cette histoire établit en outre une relation entre le mont Asama et le mont Aomine, qui fut Aominesan Shôfukuji engi ^^j^lilïE^g^ifëî [Histoire des origines du temple Shôfukuji du mont Aomine]. Texte manuscrit inédit communiqué par le Shôfukuji. Le littoral, espace de médiations 277 effectivement l'un des temples de Shima rattaché au groupe shugen d'Asama. L'existence dans l'enceinte du Shôfukuji de la pierre tombale d'un maître shugen le grand ajari hôin Enchô ^P^IM^ViÉflRïS - datée de 1559 permet de faire remonter au moins à la fin du Moyen Age l'existence en ces lieux d'un groupe structuré du shugendô. Le Shiyô ryakushi ^IwH&EÈ {Abrégé des chroniques du pays de Shima) écrit en 1713, mentionne lui aussi, comme Y Histoire des origines du Shôfukuji, la fondation par Gyôki à l'ère Tempyô "^IP, se référant à une histoire des origines écrite de la main du moine Sonkai M-'M (sans doute celui du mont Kôya M if 111, 1625-1695), aujourd'hui disparue. Il nous donne également une idée de l'envergure de ce centre à une époque plus ancienne, puisqu'il mentionne qu'"anciennement il y avait une trentaine d'ermitages" dans l'enceinte du monastère, et que celui-ci, après un déclin au Moyen Age, fut restauré dans les années Jôkyô M^- (1684-1688). En outre les documents de l'époque d'Edo conservés dans la presqu'île de Shima sont les témoins de l'importance de l'activité de ces hôin yamabushi ïèÉPlllftc du Shôfukuji qui allaient accomplir les divers rites annuels dans tous les villages, et en particulier à Ôsatsu.23 Mais l'histoire des origines du Shôfukuji présente aussi des éléments qui replacent le début des pratiques d'ascèse sur le mont Aomine dans un contexte encore plus ancien et rattachent cette montagne au monde des gens de mer. En effet, l'entretien d'un feu sacré sur la montagne par les pratiquants de l'ascèse qui y résident est un fait attesté dans de très nombreuses montagnes du shugendô, comme première manifestation de la sacralité du lieu et très ancienne technique ascétique. Ascèse et offrande, ce feu perpétuel est le signe de la présence des dieux et de ceux qui les vénèrent. 11 y est présenté comme le "feu des lampes des autels" (tômyô £T^), le "feu rituel" (goma 11$) de la tradition bouddhique, ou le "disque solaire", la "luminosité" des apparitions divines des traditions shinto et syncrétiques, ou comme celui des "lampes des dragons" (ryûtô ë^T), que, selon la tradition populaire, les dragons "montent" en offrande aux buddhas jusqu'aux sommets, pour la nuit de l'An ou la fête des morts en été. Tous ces feux apparaissent dans V Histoire des origines du mont Aomine, et les lieux où ils sont dits avoir été entretenus sont tous des points d'où l'on aperçoit tout l'horizon au large d'Ise, de Shima et de Kumano. De fait, jusque dans les années 1910-1920 un feu fut entretenu par les moines du temple sur la roche des lampes comme repère pour les bateaux. Il en était de même au mont Kinkasan, sur le mont Misen 5^ 111 de Miyajima "s II (dépt. de Hiroshima), sur le mont Takuhi *Â'X\h - "Montagne où Von fait du feu " - (Oki P,ill|£, dépt. de Shimane). C'est ce feu qui fut le véhicule, et ceux qui l'entretenaient les agents, de la montée de la lumineuse statue de Kannon d'Ôsatsu jusqu'en haut du mont Aomine. C'est ce feu, sous sa forme surnaturelle, Texte en trois volumes d'Ashida Shoho ^BB^W, dont il n'existe que des exemplaires manuscrits. 23 MiyataN., 1965. 278 Anne Bouchy qui est devenu le signe de la protection de Kannon : les dizaines d'ex-voto peints du Shofukuji représentent les apparitions merveilleuses de la lumière rayonnante de Kannon que les fidèles d'Aomine voient apparaître dans les tempête, en quelqu'endroit de l'archipel qu'ils soient, pour les guider vers le port. Aussi terrible que soit la tempête et noire la nuit sur la mer, pour celui qui aura invoqué ne serait-ce qu'une seule fois le bodhisattva (Kannon du mont Aomine), celui-ci fera jaillir la lumière de son toupet frontal (byakugô Éï) et apparaître une lampe sacrée (tômyô) pour le sauver du péril (Photo 1 5). mentionne une version moderne de l'histoire des origines du Shofukuji. Les modalités réelles de ce transfert restent dans l'ombre. Un responsable du culte d'Ôsatsu s'installa-t-il sur la montagne? Un ermite d'Aomine s'empara-t-il de la tradition locale? Y eut-il "vol" de la statue merveilleuse par les gens d'Aomine, comme cela se passe souvent dans le cas de cultes qui acquièrent un certain renom (il existe sur cette côte de nombreuses traditions de vol de statues miraculeuses par les habitants de villages voisins). En tout cas, il y eut en quelque sorte "vol de l'histoire" - dans les deux sens du terme - de Kannon d'Ôsatsu. Dans toutes les versions de l'histoire des origines du temple, la statue de Kannon est dite "avoir volé" directement depuis la mer jusqu'au sommet du mont Aomine. Les premières étapes du culte de Kannon à Ôsatsu, son origine de dieu de la mer, et parfois même jusqu'à la présence de la "baleine porteuse" y sont totalement occultées. Au mieux il est mentionné que cette statue venait de la mer au large d'Ôsatsu. Pour les gens du Shofukuji, c'est en haut du mont Aomine que Kannon réside et de là qu'il dispense sa lumière. Il y eut ainsi tout un travail de recomposition de la légende originelle pour créer cette Kannon-divinité de la montagne, protectrice des gens de mer. De cela les groupes shugen sont coutumiers, et la très riche littérature des engi, histoires des origines, de tous leurs centres en est le meilleur témoignage. Le groupe du shugen d'Aomine sut habilement s'approprier une tradition orale des plus spécifiques du monde de la mer et l'implanter sur un site exceptionnel - la plus haute montagne de toute la presqu'île de Shima et la plus visible du large - pour asseoir au long des âges la puissance et la prospérité de sa structure religieuse. Aujourd'hui encore toutes les plongeuses de Shima portent au cou la médaille de Kannon d'Aomine; s'inclinent en joignant les mains vers la montagne avant de commencer leur travail de plongée; rendent grâce au retour; ne manquent jamais le pèlerinage au mont Aomine les 18 (jour de célébration de Kannon) janvier et 18 juillet; en rapportent des ofuda fÉP^L - charmes de protection - qui sont mis sur les bateaux; les pêcheurs eux aussi viennent en groupe, non seulement de la région mais aussi de lointains départements, pour des mairi annuels. Mais l'intégration du culte local d'Ôsatsu à l'univers de cette montagne shugen, signifia sa fossilisation en tant que culte d'une divinité de la mer, comme le symbolise cette pétrification de la baleine dans l'étang du Dragon en haut de la montagne. Et c'est ce sur quoi je voulais plus précisément attirer l'attention. Le littoral, espace de médiations 279 Kannon du mont Aomine est bien resté dans le panthéon des gens de mer, mais son implantation sur la montagne y a suscité un bouleversement. Tandis que les anciens cultes aux divinités des mers "venant se poser" sur les récifs et les petites eminences côtières sont un rappel de l'au-delà outremarin, le culte du mont Aomine focalise le regard vers la montagne, en tant qu'univers sacré en soi. C'est sur le sommet que réside le pouvoir salvateur. Se reposer sur la protection de Kannon du mont Aomine, c'est oublier son appartenance à la cosmologie de la mer voulant que les divinités "vont et viennent", c'est tourner le dos à l'au-delà outremarin. Et tout le travail du shugen d'Aomine a dû être de convaincre les populations environnantes de cette réalité par tous les artifices de l'élaboration des croyances, dont il était le premier bénéficiaire. Il fallait en effet que cette polarisation sur la montagne soit suffisamment forte pour que les gens de mer éprouvent la nécessité de monter y demander la sécurité en mer, alors que de multiples divinités "viennent" depuis toujours apporter leurs bienfaits et leur protection à ceux qui les vénèrent directement sur le littoral L'ensemble formé par la légende d'Ôsatsu et l'histoire des origines du Shôfukuji est exemplaire car d'une part il est le témoignage de l'émergence et du développement, dans le monde des représentations des gens de mer, d'une conception d'un au-delà fixé sur les montagnes; il permet d'autre part de reconstituer les différentes étapes d'un processus dont souvent les traditions locales ne conservent qu'une partie. Il permet en outre de relier ces jalons les uns aux autres : les cultes des dieux de la mer sont progressivement transférés du littoral vers des sites de plus en plus élevés, qui ont entre eux des rapports topographiques précieux pour les gens de mer. Il fallait qu'existe d'abord ce culte de Kannondivinité de la mer, pour que puisse naître celui de Kannon-divinité de la mer-en-lamontagne. L'instauration d'un culte sur la montagne de Guet du littoral d'Ôsatsu a été le point tournant de ce devenir. Mais cette étape médiane est celle qui s'est éteinte avec le temps. Ont subsisté le culte du récif-baleine, divinité de l'au-delà de la mer, entretenu par la communauté locale d'Ôsatsu; le culte familial de Kannon dans la maison Aoyama; et celui de Kannon du mont Aomine, développé par le shugen de cette montagne - dont la présence était aussi une condition indispensable au processus - en un culte intégré à un registre religieux complexe, et qui par là s'est répandu tout le long du littoral du Pacifique. Sengen : un axe pour deux visions du monde Cette excursion du côté du mont Aomine, quoi qu'il puisse paraître, nous mène au coeur du problème de Sengen. Au cours de mes pérégrinations de port en port sur les traces de Sengen, une chose me frappait : les petites hauteurs sur lesquelles se trouve l'oratoire de Sengen sont aussi le relief le plus remarquable, celui qui surplombe le plus immédiatement chaque anse, et par là le plus susceptible d'être choisi comme 280 Anne Bouchy amer lors du retour dans le port. Etant donné les caractéristiques de l'univers religieux des gens de mer évoquées précédemment, il pouvait sembler bien improbable qu'un culte n'ait été instauré en ces lieux qu'à partir de l'époque d'Edo. Et en effet, sous la couverture du culte de Sengen se laisse découvrir en ces mêmes lieux un support beaucoup plus ancien. Dans de nombreux cas, l'oratoire de Sengen n'est autre que l'entassement naturel et spectaculaire d'énormes blocs de roches rondes, laissant en son centre un espace où est simplement déposée la statue de Dainichi nyorai. Pins, camphriers énormes et plusieur fois centenaires poussent à proximité. Ces caractéristiques sont exactement similaires à celles de l'oratoire du dieu de la montagne iyama no kami), situé ailleurs, et sont toujours la marque de l'extrême ancienneté de l'investissement religieux de l'endroit, repéré pour sa configuration étonnante (Photo 8). On trouve aussi parfois sur le même site des divinités qui, selon la tradition locale, y sont vénérées depuis une date bien antérieure à celle de l'introduction du culte de Sengen. Ainsi à Kinomoto ?fc^ (Kumano), l'oratoire de Sengen, situé sur la montagne du Gongen, dite aussi de Gonbee, qui surplombe la mer, fut précédé par celui d'Ôji gongen ïï^fliïi,, auquel il fut associé avant que celui-ci ne soit réuni au grand sanctuaire local. Or, sur tout ce littoral, les pêcheurs vénèrent des divinités de la mer nommées Ôji - Prince -, qui ont toujours pour siège soit des récifs à demi immergés en bordure de grève, soit des pointes rocheuses sur la côte, dites "Ôji de terre" (riku no Ôji ië<7)ïEiF-), mises en rapport avec un récif qu'elle surplombent, appelé "Ôji du large" (oki no Ôji r^^SEï1). Le long de la côte bordant la seule ville de KLumano on en relève quatorze, mais d'autres existent également plus au nord et plus au sud, et, semble-t-il, sur toutes les côtes du Japon.24 Ces Ôji sont à la fois des amers et des divinités de la mer dont le culte est identique à celui des Ebisu, Dragons, Palais du Dragon que l'on retrouve partout en des endroits similaires. (Ces données maritimes permettent de considérer sous un autre angle la nature des quatre-vingt-dix-neuf Ôji qui jalonnent la route ancienne du pèlerinage aux trois montagnes de Kumano. Mais ceci nous éloigne de Sengen). Ce que cette association de Sengen avec l'un de ces "Princes de la mer" révèle c'est la nature première de la divinité Sengen telle qu'elle est vénérée chez les gens de mer. C'est aussi ce que vient corroborer l'assimilation de Sengen au dieu Dragon ("Ryûjin" Mfà) rencontrée à Shima (Kuzaki HJiIIht); ou la croyance plus généralement répandue voulant que le pin de la montagne de Sengen soit celui auquel les Dragons portent leurs lampes en offrande, dans la nuit du 28e jour des premier et cinquième mois lunaires, jours de célébration de Sengen. Et les bonden, qui sont d'abord dressés sur le rivage pendant la durée des purifications, puis montés en grande pompe jusqu'à l'oratoire sur la petite hauteur lors de la fête de Sengen, sont à la fois offrande à Sengen divinité résidant sur la montagne et "reposoir" VoirGoraiS., 1989. Le littoral, espace de médiations 281 (yorishiro) de Sengen divinité venant de la mer. Quant aux divers rites du culte de Sengen, ils s'intègrent aussi dans la tradition vivace des purifications et des fêtes de la mer qui ont lieu généralement deux fois l'an chez les gens de mer. Ainsi l'offrande de cailloux ramassés au fond de l'eau lors des purifications et déposés sur l'autel de Sengen est-elle à rapprocher du rite d'offrande du galet ou de la pierre pris au rocher d'Ebisu dans la mer, et portés dans l'oratoire sur la grève pour la célébration d'Ebisu au 11e mois lunaire. Lampes des Dragons, bonden, offrandes de cailloux, purifications en mer sont autant de rappels d'une même relation première existant entre la cosmologie de la mer et la divinité appelée Sengen. Quand les gens de mer qui entretiennent son culte parlent unanimement de Sengen comme étant un "dieu de la mer", ils évoquent ce substrat ancien qui n'appartient pas au registre originel du bodhisattva Sengen-Dainichi nyorai importé en ces milieux par les soins du shugen de Murayama. Le phénomène de l'adoption de Sengen par les populations de ce littoral peut être considéré comme un cas d'assimilation d'un culte "étranger" à un ancien culte local des dieux de la mer, qui en intégrant la nature du culte nouveau se trouve caché et agrandi d'une dimension qu'il n'avait pas à l'origine : la relation avec le culte du mont Fuji. En cela ce phénomène est semblable à celui de l'instauration de cultes à des divinités appartenant à une tradition complexe shinto : Sukunabikona ^/^^, Kompira, Inari Hachiman Aipt, ou bouddhique : Benten #5^, Yakushi %%, Namikiri Fudô l, sur ces caps, récifs et montagnes du littoral - topographiquement parlant exactement identiques aux montagnes de Sengen - qui autrement seraient restés dédiés à Ebisu, au dieu Dragon ou à une anonyme "divinité de la mer" (kaijin, umi no kami %W)- C'est ce qu'apprend un périple le long de n'importe quelle côte ou même simplement l'examen d'une carte au cinquante millième. Les petites montagnes de Sengen correspondent au second jalon du schéma des étapes de la "montée" des cultes des dieux de la mer vers les montagnes, tel qu'il est présenté dans l'histoire du mont Aomine. Toutes ces petites hauteurs des localités du littoral durent à l'origine être indifféremment le "reposoir" et des âmes des morts et des dieux invités à venir de l'au-delà de la mer lors des fêtes annuelles, avant de subir des évolutions diverses selon les hasards de l'histoire locale et des influences extérieures. La superposition d'une figure cultuelle plus élaborée est la garantie de survie des anciennes divinités locales transformées. Inversement l'appropriation de cultes locaux par les centres shugen contribue souvent à la disparition de ce jalon intermédiaire. Ainsi, si l'on veut rechercher un lien entre le mont Asama et Sengen, on peut supposer qu'il existe bien, mais sans doute plutôt dans le sens d'une focalisation sur Asama d'un ensemble de petits cultes locaux préexistants de la presqu'île de Shima, eux aussi utilisés habilement par le shugen d'Asama pour devenir un centre religieux prospère. Mais un culte des gens de mer transporté dans un registre religieux complexe et institutionnalisé subit une "spécialisation" : généralement les âmes des morts ne sont pas célébrées à l'endroit où les pêcheurs vont demander la protection en mer. Asama et Aomine ont en cela Myôhô et Nachi 282 Anne Bouchy pour pendant à l'autre bout de ce littoral de Kii. Inversement, les rites pour les dieux de l'An et les âmes des morts, que perpétuent les communautés locales au Nouvel An et lors de la fête des morts, sont accomplis sur les mêmes plages et sur les mêmes récifs. La particularité locale du culte de Sengen est donc, plus encore que cette assimilation et cette spécialisation elles-mêmes, l'ensemble avec lequel l'ont adopté les gens de mer de tout ce littoral. Là encore c'est l'univers de la mer qui semble être la clef du phénomène : en effet tous les pêcheurs de cette région disent que par beau temps le mont Fuji est visible du large des côtes de la mer de Kumano. Ainsi le si prestigieux Fuji est-il lui-même tout à la fois un amer et la terre originelle de la vénération de Sengen. Et les montagnes locales de Sengen sont ce pivot médian, simultanément rappel du monde outremarin par la nature fondamentale de sa divinité et relais de l'au-delà fixé sur le mont Fuji; elles sont l'axe matériel et symbolique d'une superposition de deux visions du monde. Mais le cas de Sengen se révèle vraiment exemplaire, puisque l'au-delà, tel que le shugen le plus ancien du mont Fuji l'avait élaboré dès l'époque de Nara, est précisément le monde outremarin transporté sur terre : le mont Hôrai Ile "de la mer orientale", séjour des immortels où l'on va chercher h remède d'immortalité, le mont Hôrai jl3fc[ll (Peng Lai) de la tradition chinoise, entré dans le monde des représentations japonaises dès l'époque ancienne, fut localisé sur le mont Fuji à la suite, semble-t-il, d'un jeu de va-et-vient de cette tradition entre la Chine et le Japon. L'instrument en fut l'histoire de Jofuku l^-fê (Xu Fu), cet émissaire de l'empereur des Qin (fin IIIe s. av. J.-C.) parti pour chercher le remède d'immortalité et qui aurait en fait atteint le mont Fuji où il se serait fixé. Par là, le mont Fuji est devenu en quelque sorte l'au-delà des mers sur terre. Mais, je mentionnerai en passant que la terre de Kumano, qui fut également regardée comme l'autre monde, fut aussi assimilée au mont Hôrai. On trouve et à Shingû ffK et à Hatasu 7&EBM (Kumano) la "tombe" de Jofuku. A Hatasu, Jofuku est clairement associé à un ancien culte d'Ebisu. Et les multiples traditions de l'implantation de Jofuku que l'on peut rencontrer tout au long des côtes de l'archipel sont à relier à des cultes plus anciens de divinités de la mer, ancêtres fondateurs, venant de l'audelà outremarin. L'identification du mont Fuji au paradis de l'au-delà des mers élaborée par le shugen de cette montagne est un phénomène parallèle à l'appropriation de la légende de Kannon d'Ôsatsu par le shugen du mont Aomine, ou à l'instauration par celui du mont Asama d'un espace rituel pour les âmes des morts au sommet de celui-ci. Considérées du point de vue de la cosmologie de la mer, ces recompositions procèdent du développement d'un panthéon et d'une vision de l'au-delà qui s'appuyent bien sur des représentations et impératifs propres à l'univers des gens de mer (croyance en la venue des âmes et des dieux depuis l'audelà outremarin; nécessité de montagnes-amers devenues sacrées), mais qui ont été Gorai S., 1983, J. Pigeot 1993 : 127-169. Le littoral, espace de médiations 283 "sédentarisés" en haut des montagnes. Le fait, qu'avec le temps, les aspects liés à la dynamique propre au monde de la mer disparaissent du discours véhiculé par les groupes shugen administrant ces montagnes vient confirmer l'insertion de ces panthéons dans un univers de représentations différent. Ainsi Kannon ne "redescend" pas du mont Aomine. Et dans les villages du littoral, ce n'est pas du mont Asama, mais toujours de la mer que l'on accueille les âmes des morts. Seule la montée est valorisée et sert de justification aux pèlerinages. De même, l'évocation du mont Hôrai semble avoir disparu assez tôt du contenu du culte du mont Fuji. Pour ceux qui pratiquent le culte de Sengen, le Fuji est plutôt un au-delà chtonien avec le parcours initiatique de la "grotte de la matrice", ou le mystère de la grotte Hitoana h'fc - Trou d'homme (mentionné dès l'époque de Kamakura dans YAzuma kagami j§-#§Jl), lieu d'ascèse secret au pied du Fuji que visitent les pèlerins et où, dès le Moyen Age, la croyance veut que commencent les enfers et le paradis. C'est aussi un au-delà miaérien, mi-terrestre, celui du sommet de la montagne, où résident Sengen, Dainichi nyorai, mais également les dieux et les buddha attachés à chacun des sites sacrés, dont les guides expliquaient les origines secrètes lors du pèlerinage sur le Fuji, et dont on récitait les noms inscrits sur les gravures rapportées de Murayama. C'est aussi le monde de Konohana no sakuya hime, fille du dieu de la montagne, du panthéon shinto. En cela le mont Fuji est semblable à toutes les autres montagnes du shugendô. Que ce soient les plus grands centres shugen comme ceux des monts Haguro, Hikosan ^/frlll, Ômine (Yoshino, Kumano), Ishizuchi H Mill, Hakusan È 111, Tateyama al [11, Hôki Daisen fâilr^LLl, ou les petits centres à rayonnement local semblables à ceux d' Asama ou Aomine, tous sont considérés depuis l'antiquité comme le lieu où l'on peut rencontrer les morts, avec leurs "vallées des Enfers" où l'on accomplit les rites pour les âmes, et les dieux-buddha descendus sur les sommets. Le monde originel de Sengen auquel font référence les représentations héritées du shugendô est en tout cas, symbolisé par la silhouette en cône du Fuji peint sur les ex-voto qui rappellent chaque pèlerinage de la confrérie, un univers de lave et de roches totalement différent du monde de la mer. Les représentations qu'ont les gens de mer de l'univers marin et outremarin sont pour la plupart lettre morte pour ce qui constitue la majorité de la population terrienne de l'archipel. Les conceptions du palais des dragons ou du mont Hôrai véhiculées par la littérature populaire et savante, ou celle des divers paradis bouddhiques situés à l'ouest ou au sud de la mer, ont été la source principale des seules images vagues et lumineuses de l'au-delà des mers généralement répandues. De telles représentations font partie du patrimoine des peuples de la mer au Japon, comme l'a montré Origuchi Shinobu dans ses nombreuses études sur les rites Azuma kagami, Kennin 2.6.3 (1202). 27 Voir Fuji no hitoana zôshi s±^À/\^f (époque de Muromachi), le premier texte mentionnant le périple d'un homme dans l'au-delà dont cette grotte est l'entrée. 284 Anne Bouchy d'Okinawa et les visiteurs de l'au-delà {marebito ^tllf t),2& et aussi Yanagida Kunio, qui cherchait par là à vérifier son intuition d'une peuplade venue du Pacifique sud. Selon cette cosmologie, l'au-delà des mers - nommé "nirai kanai" dans les Ryûkyû, ne no kuni, haha no kuni, "pays des racines" ou "de la mère" dans les mythes des Chroniques du Japon -, est le lieu d'où viennent périodiquement ces visiteurs, dieux, ancêtres, pour apporter abondance et prospérité à leurs descendants. A Shima, outre les rites évoqués plus haut qui témoignent de la pérennité de cette même croyance, des contes parlent encore d'un au-delà sous-marin. Ainsi cette variante de la visite d'une plongeuse au palais sous-marin du dieu de la mer, exact pendant féminin de l'histoire d'Urashima Tarô ilîll^ÊB, mais qui se distingue de celle-ci par nombre d'éléments qui appartiennent à l'univers des représentations des plongeuses : Une plongeuse se rend au palais du Dragon (ou au sanctuaire du dieu "Isoko", c'est à dire Izawa no miya ff"$tK d'Isobe fôtnlS) situé au-delà d'un portique de pierre par quarante ken FhJ - quelque soixante-dix mètres - de fond. Elle y est régalée de banquets durant trois jours (ou trois mois, ou un an) et en revient avec une boîte qui lui assurera bonheur et prospérité, si elle la porte sans l'ouvrir au sanctuaire d'Isobe. Mais la curiosité des gens du village la conduit à violer l'interdit. Il sort de la boîte une immense moustiquaire qu'il est impossible de renfermer à l'intérieur. La boîte et la moustiquaire sont déposées telles quelles au sanctuaire. La plongeuse devient aveugle (ou bizarre, ou pauvre) comme le sera une personne de sa famille à chaque génération (tradition d'Anori $^). Mais les pêcheurs et les plongeuses du littoral de Kii ont perpétué, parallèlement à ces images d'un au-delà outremarin et sous-marin source de bienfaits si les règles et les rites sont respectés, une vision différente beaucoup plus glauque et dramatique. Autre monde, monde de l'autre, la mer est en effet aussi le monde du quotidien et de l'identité. Pour eux, il n'y a pas de solution de continuité entre l'espace où s'exerce l'activité source de leur subsistance et cet au-delà outremarin ou sous-marin : Itago ichimai shitawa, jigoku ISï1- IfcTfiiÈH - " Sous la planche de la coque, les Enfers" -, dit le proverbe. Fantômes hideux vêtus de blanc, umibôzu :MPjJL - le "moine de la mer" - ou Dandaraboshi V s V y ^ i/ - le géant à un oeil et à grande bouche, qui cherchent à couler les bateaux en les remplissant d'eau; tomokazuki "compagne de plongée" - ce double maléfique de la plongeuse qui l'attire au-delà de sa réserve de souffle pour lui ravir la vie; poissons qui parlent et jettent des sorts; pieuvres et serpents maîtres des grottes sous-marines; requins, baleines, dragons gardant des récifs interdits, où toute violation du tabou entraîne la mort; . Voir le développement de sa pensée depuis "Hahaga kunihe, tokoyohe " (1920), "Ryûkyû no shûkyô 1M$L<D%%C' (1923), "Kodai seikatsu no kenkyû u" (1925), jusqu'à "Kokubungaku no hassei, marebito no igi (1927). Voir bibliographie ci-dessous. Kaijo no micni Le littoral, espace de médiations 285 corps des noyés qu'en aucun cas on ne doit laisser dériver sous peine d'être victime d'une fatalité tenace de mauvaise pêche, mais qu'il faut remonter à bord et enterrer sur la berge : pour les gens de mer, les flots, sur lesquels se déroule une existence consacrée à la poursuite de prises toujours fuyantes, jamais assurées, sont aussi peuplés de tous ces êtres sombres et errants, allant et venant entre horizon et rivage. Monde des dieux, des ancêtres et pouvoir générateur de prises nourricières, mais aussi monde des morts et de la mort, la mer est pour eux l'espace ouvert où convergent l'ici et l'au-delà. Elle est le domaine premier des prises et des dons mutuels, des échanges de la vie et de la mort. Ces données de base de l'univers des gens de mer permettent d'évaluer la force de l'impact que durent avoir dans l'univers des représentations des gens de mer l'implantation et le développement de la symbolique de l'autre monde des montagnes, réplique de son homologue outremarin, mais démultiplié, localisé et matérialisé par sa fixation sur les sommets. L'examen du culte de Sengen, axe médiateur sur lequel viennent s'assembler les deux strates de l'univers religieux qui le composent, permet de mettre en lumière la dynamique de l'élaboration de cette double vision du monde. A travers le processus de superposition du culte "extérieur" de Sengen sur des cultes plus anciens aux dieux de la mer se laissent en effet apercevoir et le phénomène d'une focalisation du regard sur les montagnes; et le rôle fondamental du shugendô comme agent de l'implantation de données nouvelles. Culte de la mer subsistant à travers une recomposition montagnarde de son contenu marin, le "phénomène Sengen" sur cette côte de Kumano peut être considéré comme le témoignage de l'un de ces développements, dont on sait peu de chose, qui se sont produits à l'intérieur du système des représentations des gens de mer. Alors que les récifs, les îlots et les petites hauteurs-amers-sièges sacrés n'étaient à l'origine qu'un support de la relation des populations du littoral avec l'univers de la mer et son audelà ouvert - par leur fonction de "reposoir" momentané des dieux de la mer et des âmes venant y "aborder" - ces mêmes lieux sont devenus aussi - par le biais de cet impératif du monde de la mer qu'est la nécessité des amers - les relais d'un au-delà fixe et limité au domaine d'une montagne précise, localisée dans l'arrière pays. Le littoral, qui fut le lieu premier, et de l'activité de pêche et de collecte en mer avant l'usage de la pêche au filet au large, et du rapport avec la terre, a été ce territoire médian à partir duquel le monde des gens de mer s'est développé dans toutes ses dimensions.30 Il est resté tout au long de l'histoire l'espace privilégié des rencontres, des conflits et des médiations entre les univers maritime et terrien. Pêcheurs et plongeuses ont conservé le rapport ancien avec les grèves rocheuses, qui restent le lieu privilégié de leurs activités et de la cosmologie ouverte vers l'audelà outremarin. Mais, l'ancrage sur le littoral fit que s'instaura une dynamique d'ouverture vers les terres; il permit la rencontre avec un système religieux Voir Sakurada K. 286 Anne Bouchy complexe, par l'intermédiaire duquel fut intégrée une autre conception : celle de dieux et d'âmes "sédentaires". L'adoption de cette vision de l'au-delà par les gens de mer a été l'un des facteurs générateurs de l'illusion qu'ils appartenaient à la même "culture" et partageaient fondamentalement le même monde de représentations que les sédentaires de l'intérieur des terres. Se pencher aujourd'hui sur le monde de la mer conduit souvent à se faire le rapporteur de l'histoire des glissements de sens progressifs, voire des inversions ou des "oublis", qui se produisirent à l'intérieur des systèmes de représentations des gens de mer sous l'impact répété de ses multiples rencontres avec les autres groupes sociaux; mais cela permet aussi de montrer, à travers ces transformations, l'histoire de la recherche d'un équilibre et d'une cohérence, facteurs d'identité, toujours remis en question. En tentant de retrouver le processus par lequel le culte de Sengen s'est implanté chez les gens de mer du littoral oriental de la péninsule de Kii, mon objectif n'était pas de faire une ethnographie, ou un historique du phénomène. J'ai tout d'abord essayé ici de démêler l'enchevêtrement des multiples données du problème, telles qu'on peut les appréhender aujourd'hui, afin de mieux faire apparaître les divers registres référentiels. Mais ce n'était là qu'une manière d'aborder, par l'un de ses nombreux aspects, une question beaucoup plus vaste qui demande d'autres développements : la mise en relation des réalités et transformations du monde de la mer à travers l'histoire et du problème de l'occultation de celui-ci à l'intérieur du système de représentations régissant l'idée que le Japon se fait de lui-même. L'investigation des systèmes de représentations des gens de mer est un moyen d'approche de ce problème. Et l'étude du culte de Sengen, complétée par l'éclairage qu'apportent ceux des monts Asama et Aomine, constituait pour cela un exemple privilégié tant par la qualité des données accessibles que par l'existence de documents qui en permettent l'approche (ce qui est loin d'être le cas pour tous les cultes des gens de mer). Dans l'univers des gens de mer, le passage d'une vision orientée vers la mer, à la fois lieu de vie ancestral et autre monde un et indifférencié, à une vision intégrant celle du monde des autres, jalonné d'une multitude d'au-delà matérialisés et arpentables, peut sans doute être rapprochée des transformations que suscitèrent, dans l'ordre économique et technique, l'implantation sur les terres et l'établissement d'échanges avec les montagnards et les agriculteurs sédentaires de l 'arrière-pays. Or on sait, par la résistance qu'opposèrent à la sédentarisation les derniers héritiers des "nomades de la mer", les ebune ^$p - "bateaux-maisons" - et les shaa ~> t7 de Kyûshû, ou les nôji it-ife de Hiroshima, ou même les groupes de plongeuses de Kii, pratiquant les migrations temporaires sur les côtes du Japon (jusque dans les années 1950) et de Corée (jusque vers la fin du siècle dernier), combien l'attachement à la terre, l'enracinement dans les criques étaient opposés à la conception du monde et de la vie qu'avaient les peuples de la mer. Par là est posé le problème des diverses composantes de la société japonaise et des rapports " Voir Ito A., Kawaoka T., Miyamoto T., Noguchi T. Le littoral, espace de médiations 287 que celles-ci entretiennent entre elles. Une grande partie des gens de mer, ceux qui ne sont pas des agriculteurs venus à la pêche à cause de conditions géographiques favorables - et plus particulièrement les plongeuses de toutes les lignes de côtes, les plongeurs des îles du sud et les derniers ebune de la mer intérieure - sont les héritiers de ces nomades de la mer. Mais leur histoire reste à écrire car leur identité socio-culturelle - celle de leurs divers groupes - n'a jamais été prise en compte en tant que telle. Quelques pionniers de l'ethnologie japonaise se sont penchés sur le problème dès le début du siècle, mais firent peu d'émulés. Depuis une décennie des historiens, notamment des médiévistes, et aussi des archéologues, des anthropologues se penchent avec un intérêt accru sur le monde de la mer et se sont mis à reconsidérer leur conception même de la société japonaise à la lumière de documents nouveaux (ou d'un nouvel examen des documents connus) révélant l'importance de tous les gens de mer dans l'histoire et l'économie nippones. Mais le travail à faire est considérable et la situation critique. C'est en effet non seulement la conception de l'histoire et de la société, mais la société japonaise elle-même, dans sa structure et son fonctionnement, qui a toujours été dominée par l'idée - à valeur de sens commun et de conscience identitaire - qu'elle était une société agricole centrée sur la riziculture. Une telle conception repose sur la non-reconnaissance de l'identité et de la place réelles des peuples de la mer dans un archipel comptant quelque vingt-huit mille kilomètres de côtes et plus de trois mille îles et îlots. Or cette vision de la société a été véhiculée au long des siècles par les pouvoirs, l'idéologie et l'éducation. Elle a été à l'origine de l'occultation du monde la mer, alors même que celui-ci par sa participation effective a toujours contribué à l'édification de ce qu'est le Japon. Sur ce sujet peu de documents officiels sont disponibles, car c'est précisément à ce niveau que le monde de la mer a été occulté. Restent la masse inexplorée des documents locaux, le foisonnement des traditions orales, les fêtes grandes et petites, les rites de la vie et de la mort, du travail et des circonstances exceptionnelles, le domaine des comportements et des représentations. Les pêcheurs, les plongeuses du littoral oriental de la péninsule de Kii sont détenteurs de telles traditions. Ceux des autres lignes côtières aussi. Tous se montrent empressés à les transmettre et partout leur accueil est chaleureux. Mais les recueillir implique d'arpenter les ports et les grèves, de monter sur les bateaux, de fouiller les archives des coopératives maritimes, des sanctuaires, des temples, des particuliers. Ce monde de la mer est en outre en danger : la pêche de cabotage est de moins en moins pratiquée, la plus jeune génération de plongeuses a dépassé la quarantaine et il n'y a pas de relève. En ce sens, plus que jamais l'univers des gens de mer se révèle un "monde flottant". Rechercher une vision différente et plus exacte de la société japonaise Voir en particulier les onze volumes de la collection Umi to retto bunka dirigée par Amino Yoshihiko et al. 33 Amino Y. 1994, 1995. 288 Anne Bouchy demanderait cependant de faire apparaître, non seulement tout ce qui, de cet univers propre aux pêcheurs, plongeuses et à tous ceux qui vivent de la mer et des eaux en général, est resté dans l'ombre; mais aussi la part de celui-ci dans l'ensemble des données socio-culturelles du Japon; cela impliquerait de décrypter les processus de transformation que traversèrent les divers éléments du monde de la mer sous l'impact répété des multiples rencontres avec les milieux de montagnards, d'agriculteurs, de citadins; de reconnaître les points de convergence et d'affrontement, les agents de médiation entre ces univers; enfin, de démêler les raisons complexes de cette occultation. Ainsi une compréhension plus exacte des peuples de la mer offre la possibilité d'un rééxamen de ce qui est tenu pour acquis sur la société japonaise : la connaissance de ses réalités, mais aussi la vision qu'elle a d'elle-même et l'image - "consensuelle et homogène" - qu'elle a cherché à en donner (ceci permettant de s'interroger sur les raisons et le type d'efficacité de cette attitude), ou encore les rapports avec d'autres sociétés (ceux qu'elle a pu entretenir, par le truchement des gens de mer, avec les pays d'Asie Orientale et d'Asie du SudEst, par exemple). C'est la possibilité d'une approche renouvelée des représentations de l'identité et de l'altérité au Japon. ,,'iïfllJ Yoshino mm Cap Shio Péninsule de Kii Muraya Omiya OCÉAN PACIFIQUE 0 100 200 300 Km 1/12000000 ISE, SHIMA ET LA COTE ORIENTALE DE LA PÉNINSULE DE KII 1 - Montée des deux bonden par le groupe des jeunes sur la montagne de Sengen dominant le port de Hôza (Nantôchô) lors de la fete de Sengen (le 28e jour du 5' mois lunaire). 2 - Purifications des gyonin face à la montagne de Sengen (le sommet sur la droite) dans le port d'Isozaki (Kumano). A gauche, la forêt du sanctuaire de la localité. 3 - Les deux "grands bambous" et les deux bonden plantés sur le port d'Isozaki pour la fête de Sengen avant qu'on ne les hisse au sommet de la montagne de Sengen (le 30" jour du 5' mois lunaire) 4 - Le moine du temple de la localité accomplit un service bouddhique devant l'image de Sengen ôkami dans la "demeure de Sengen" lors de la fête (Isozaki). 5 - La "purification en commun" des hommes (des pêcheurs) d'Azena (Daiôchô) dans la mer, le jour de la fête de Sengen (le 28 juin), sous le regard de toutes les femmes (des plongeuses) qui entourent le bonden et l'oratoire de Sengen placé au milieu des petits bambous, face au large. 6 - Après les purifications dans la mer, les hommes hissent le bonden en haut du pin de Sengen, le jour de la fête (Azena). 7 - Le port de Nigishima (Kumano) et la montagne de Sengen (qui le domine immédiatement sur la gauche) au sommet de laquelle on peut apercevoir le grand camphrier de Sengen et, sur la gauche de celui-ci, le bonden qui sert d'amer. 8 - En haut de la montagne de Sengen à Yugi (Kumano) l'oratoire de Sengen, fait d'un amas naturel de grosses roches, où est vénéré Dainichi nyorai. Sur la droite on aperçoit les petits bambous avec des gohei, déposés lors de la fête qui vient d'avoir lieu. Sur la gauche, est fixée sur un bambou une plaque de bois, offerte "en demande de protection en mer et de bonne pêche", portant le nom des pêcheurs membres de la confrérie de Sengen et celui de leurs bateaux. 9 - Bannière au nom de "Fuji Sengen Dainichi nyorai" pour la fête de Sengen, offerte par le propriétaire d'un bateau de pêche de Nigishima (Kumano). 1 0 - "Sengen san", statue de Dainichi nyorai, dit aussi "Konohana sakuya hime san", vénéré dans l'oratoire de Sengen en haut de la montagne du même nom à Atashika (Kumano). Sur le socle est visible un bas relief représentant le mont Fuji et les deux singes qui lui sont associés. Les trois manifestations de la divinité du mont Fuji telles qu'elles étaient représentées à Murayama ISEIHHESI Jôren.in (Nanseichô). placé trois inscriptions de Murayama. grands Sur 1 au-dessus 1 - celui - Deux Entrée ermitages "Fuji Celui deofuda des droite, san" principale de-de(en caractères gauche charmes c'est Murayama). caractères Jôren.in Konohana "Fu.ji.san, représente de protection verticaux) jf-ÀERr" sakuya mont la triade - (nom Fuji" hime, etde ceux Murayama d'Amida -de entre surdel'un le"Bettô lelotus dominant des soleil conservés Daikyôbô", nombreux et etau-dessus lalelune, par sommet petits lal'un qui deconfrérie l'inscription domine des ermitages du trois mont delegrands Sengen mont Fuji, dépendant "Omote.guchi lui-même Fuji ermitages de etTaso des les : : 1 2 - Estampages sur la veste blanche des membres de la confrérie de Sengen de Taso (Nanseichô). A gauche Dainichi nyorai assis sur le lotus au-dessus du mont Fuji et entouré de l'inscription "Sengen (gû ?) (sanctuaire de) Sengen -, Sankoku dai issan - première montagne des trois pays -, Omote.guchi dainichi nyorai - Dainichi nyorai de l'entrée principale"; il domine les caractères verticaux de Fuji san sur le lotus entre les deux singes. A droite la triade d'Amida est au-dessus de ces mêmes motifs et de l'inscription "Konpon omote.guchi Murayama - Entrée principale Murayama-", "Dai bettô hômushô - Bureau des affaires religieuses du grand bettô-". 13 - Take mairi, le pèlerinage au mont Asama pour les âmes des morts, le 28 juin. Devant les grands tôba dressés en commémoration des services accomplis pour le repos des âmes, les femmes déposent des offrandes d'encens, de nourriture et de feuillages. Au premier plan sur la gauche on aperçoit les vêtements d'un défunt accrochés à l'un des tôba. 15 - Kannon du mont Aomine guidant de sa lumière surnaturelle un bateau dans la tempête (fragment d'une gravure représentant Kannon du mont Aomine et les diverses manifestations de ses pouvoirs protecteurs. Shôfukuji). 14 - Reproduction graphique de la statue de Kannon du Shôfukuji, temple du mont Aomine, debout sur un lotus sortant des flots de la mer et portant autour des reins le koshi mino (jupe de paille, vêtement porté autrefois en mer par les pêcheurs). 16 - Le "Rocher de la baleine" (Osatsu) considéré comme la métamorphose minérale de la baleine porteuse de la statue de Kannon. 17 - Mitana shinji :£fflfl¥ - rite des trois tablettes -, Anori (Agochô), le 1er janvier. Célébration des dieux de l'audelà de la mer à qui sont offerts une branche de mandarinier et des céréales en demande de protection et de bonne pêche pour l'année à venir. 18 - Offrandes (branches de pin, riz dans un cône de paille) au "Palais du Dragon" déposées sur la plage pour le Nouvel An par les plongeuses et les pêcheurs (Kôga, Agochô). 296 Anne Bouchy BIBLIOGRAPHIE DES OUVRAGES CITÉS Amino Yoshihiko fflif #/f 1 994 Nihon shakai saikô - Kaimin to rettô bunka 0 t V\\%Xit. Tôkyô : Shôgakkan /J^ff . 1995 "Les Japonais et la mer" in L'histoire du Japon sous le regard japonais, Annales 50e année, n° 2: 235-258. Paris : Armand Colin. Amino Yoshihiko et al., éd. ISff 1990-93 Umi to rettô bunka Shôgakkan. Asamadake giki 1979 Bouchy, Anne 1983a 1983b 1986 1995 in Shinto taikei, jinjahen Shima koku #îl hensankai . 11 volumes. Tokyo : , vol. 14. Iga, Ise, 30-52. Tôkyô : Shinto taikei "Minzokuhen J^fôl" in Kumano shishi Wft~fc$i, vol. III : 4511198. Kumano : Kumanoshi kyôiku iinkai £it!if rffffcW#Miï. "Minkan shùkyô no shosô i^F^^fSt^ffffl" in Kumano shishi, vol. III : 414-448. Kumano : Kumanoshi kyôiku iinkai. "Shima, Ise no Yakushi shinkô SîJt • &&?>Mti$fÊW in Yakushi shinkô - Minshû shûkyôshi sôsho % H#, vol. 12 : 123-185. Tôkyô : Yùzankaku "Ama no nomi to umi no ryôshu no yumi - Ama shakai no rôdô keitai to sonraku soshiki no nijû kôzô - Mieken, Tobashi, Ijikachô wo rei ni shite 'MitCOiÊ t : in Jendâ no Nihonshi vx > ?-<D 0 $£ • T, vol. 2 : 389-430. Tôkyô : Tôkyô daigaku shuppan ^^^^ttjUS. Endô Hideo mM^^ 1978 "Fuji shinkô no seiritsu to Murayama shugen 's±/fHW^5St5l<^ +tlijfiïi£" in Fuji, Ontake to Chûbu reizan - Sangaku shûkyôshi kenkyû sôsho ildr ■ $$$lkb ^cfô' ^Ult, vol. 9 : 26-57. Tôkyô : Meicho shuppan Frank, Bernard 1 99 1 Le panthéon bouddhique au Japon - Collections d 'Emile Guimet. Paris : Réunion des Musées nationaux. Fuji no hitoana soshi 1938 in Muromachi jidai monogatari shû jUBT^Fft^fo'll, vol. II: 338355, sous la dir. de Yokoyama Shigeru HI III S. Tôkyô: Ôokayama shoten Le littoral, espace de médiations Gorai Shigeru 1975 1980 1983 1989 1995 Honchô seiki Inobe Shigeo 1928a 1928b in Gunsho ruijû ï£#^fê, vol. 9:318-319. 1977 (rééd.). Tôkyô : Zoku gunsho ruijû kanseikai Ilf^ "Kumano sanzan no rekishi to shinkô WM^-\\\(D?i£^b\tW in Yoshino, Kumano shinkô no kenkyû - Sangaku shûkyôshi kenkyû sosho tm ■ mfimwm/iu&^M&mmtt, vol. 4 : 155178. Tôkyô : Meicho shuppan. Shugendô nyûmon fl^f&jlÀFl Tôkyô : Kadokawa shoten ^jJIIIr Jfi. "Jofuku densetsu fêfefëlft" in Kumano shishi, vol. 1 : 350-364. Kumano : Kumanoshi kyôiku iinkai. Yugyô to junrei Wi7 h Mîl. Kadokawa sensho PliHMW 192. Tôkyô : Kadokawa shoten. Shugendô no rekishi to tabi - Shùkyô minzoku shùsei J&, vol. 1. Tôkyô : Kadokawa shoten. in Shintei zôho kokushi taikei i Tôkyô : Yoshikawa kôbunkan ïÉf Fuji no rekishi Fuji no shinkô M, 1966 (rééd.). Tôkyô : Kokin shoin . Tôkyô : Kokin shoin. . Fujisan no ki 's 297 Ise Asamadake ryaku engi {##f 1984 in Shugendô shiryôshû fl£!i:iË'Jîf4ll, vol. 2 - Sangaku shûkyôshi kenkyû sôsho ti?%%Û\ / ÛX&m&'&M ^H#, vol. 18 : 108-110, 745-746. Tôkyô : Meicho shuppan. Itô Abito 1983 "Gyomin shudan to sono katsudô îÈ in Sanmin to ama - Nihon minzoku bunka taikei Ujl^ t #J:fc/ 0 , vol. 5 : 319-362. Tôkyô : Shôgakkan. Iwashina Koichirô 1978 "Sôseiki no Fujikô - Kakugyô to Miroku flMî$O||±fi - M ft t $ft&" in Fuji, Ontake to Chûbu reizan - Sangaku shûkyôshi kenkyû sôsho H± ■ Mlmt ^U1ÊW\ / \\\:&' 'ÏÏMM, vol. 9 : 58-75. Tôkyô : Meicho shuppan. Fujikô no rekishi, Edo shomin no sangaku shinkô "g±lf 1983 -È'ff #. Tôkyô : Meicho shuppan. Kawaoka Takeharu ?6 1983 "Kuroshio no ama M:M^:MJ^" in Sanmin to ama - Nihon minzoku bunka taikei \liRh fôk/B ^Kfè^fk^^, vol. 5 : 363-393. Tôkyô : Shôgakkan. 298 Anne Bouchy Miyamoto Tsuneichi 1 976 "Minzoku no chiikisei KfërCOifeiâtt" in Minzokugaku taikei ¥-k£, vol. 2 : 67-80. (rééd. de 1958) Tôkyô : Heibonsha ¥J 1995 Umi ni ikiru hitobito IlIÈ^À^. Nihon minshùshi B £, vol. 3. (rééd. de 1964) Tôkyô : Miraisha **tt. Miyata Noboru g" BEI 11 1965 "Asama shinkô 7t"7^{fp" in Shima no minzoku l£ 308-321. Tôkyô : Yoshikawa Kôbunkan ^)\\$L1CM. Noguchi Takenori 1983 "Funadama to Ebisu l&li xtf^" in Sanmin to ama - Nihon minzoku bunka taikei \h£:t\%h/ U^f^QXitXrh, vol. 5 : 394-420. Tôkyô : Shôgakkan. Ômori Yoshinori 1978 "Fuji no oshi l^cOfW in Fuji, Ontake to Chûbu reizan Sangaku shûkyôshi kenkyù sôsho |§± • fPifc<h 't'pRSli , vol. 9 : 76-96. Tôkyô : Meicho shuppan. Origuchi Shinobu 1975 "Kokubungaku no hassei (dai san ko) marebito no igi §è^. (%^.%M)t M' t (Dm~M" in Kodai kenkyù, Kokubungaku hen Éft#f2u * IHi^l, Origuchi Shinobu zenshû ffinfÊJiû: M, vol. 1. Tôkyô : Chûkô bunko ^PÊ^CW 1975 "Hahaga kunihe, tokoyohe flt^H'X tW^" : 3-15, "Kodai seikatsu no kenkyù ^{t^^^W^S" : 42-79, "Ryûkyû no shùkyô ffîM.<D^$k." : 16-41, in Kodai kenkyù, Minzokugaku hen, Origuchi Shinobu zenshù, vol. 2. Tôkyô : Chûkô bunko. Pigeot, Jacqueline. 1 993 Voyages en d'autres mondes, Récits japonais du XVf siècle. Paris : Editions Philippe Picquier / Bibliothèque Nationale. Sakurada Katsunori 1976 "Gyogyô fàM" in Minzokugaku taikei i^fg^;*;^, vol. 5 : 75119. (rééd. de 1959) Tôkyô : Heibonsha. Shokoku zue nenjùgyôji taisei sf 1978 Tôkyô : Girei bunka kenkyùsho Yanagida Kunio 1978 "Kaijô no michi :MJi<OM" in Teihon Yanagida Kunio zenshù te *mmm%£%, vol. l : 1-216. (rééd. de 1968) Tôkyô : Chikuma shobô ïfl^#J^-.
{'path': '23/halshs.archives-ouvertes.fr-halshs-03134239-document.txt'}
Diffusion et évolution des mouvements sociaux dans les longues années soixante au Royaume-Uni : 1956-1979 Claire Mansour To cite this version: Claire Mansour. Diffusion et évolution des mouvements sociaux dans les longues années soixante au Royaume-Uni : 1956-1979. Science politique. Université Toulouse le Mirail - Toulouse II, 2018. Français. NNT : 2018TOU20053. tel-02317668 HAL Id: tel-02317668 https://tel.archives-ouvertes.fr/tel-02317668 Submitted on 16 Oct 2019 Délivré par Université Toulouse Jean Jaurès Claire Mansour Le 14 septembre 2018 Diffusion et évolution des mouvements sociaux dans les longues années soixante au Royaume-Uni : 1956-1979 École doctorale et discipline ou spécialité ED ALLPH@ : Langues, Littératures, Arts et Civilisations du Monde Anglophone Unité de recherche EA 801 – Laboratoire Cultures Anglo-Saxonnes Sous la direction de Monsieur Vincent Latour, Professeur des Universités, Université Toulouse Jean Jaurès Jury Madame Florence Binard, Professeure des Universités, Université Paris Diderot Madame Nathalie Duclos, Professeure des Universités, Université Toulouse Jean Jaurès Monsieur Romain Garbaye, Professeur des Universités, Université Sorbonne Nouvelle Monsieur Jean-Paul Révauger, Professeur Émérite, Université Bordeaux Montaigne Université Toulouse Jean Jaurès Laboratoire Cultures Anglo-Saxonnes THÈSE Pour obtenir le grade de DOCTEUR DE L'UNIVERSITÉ Civilisation britannique Diffusion et évolution des mouvements sociaux dans les longues années soixante au Royaume-Uni : 1956-1979 Claire Mansour Présentée et soutenue publiquement Le 14 septembre 2018 Sous la direction de Monsieur Vincent Latour, Professeur des Universités, Université Toulouse Jean Jaurès JURY Madame Florence Binard, Professeure des Universités, Université Denis Diderot Paris 7 Madame Nathalie Duclos, Professeure des Universités, Université Toulouse Jean Jaurès Monsieur Romain Garbaye, Professeur des Universités, Université Sorbonne Nouvelle Paris 3 Monsieur Jean-Paul Révauger, Professeur Émérite, Université Bordeaux Montaigne Remerciements Je tiens tout d'abord à remercier sincèrement mon directeur de recherche, Monsieur Vincent Latour, pour son soutien tout au long de mon doctorat. Il m'a accordé une grande liberté dans l'élaboration de ce projet, tout en m'offrant ses conseils lorsque j'en avais besoin. Sa disponibilité, ses remarques, et ses relectures de chacune de mes productions m'ont été d'une aide précieuse. Je souhaite également adresser mes remerciements aux membres du jury, qui ont accepté que je leur soumette mon travail, et plus particulièrement Madame Nathalie Duclos, qui avait dirigé mes recherches de master et m'avait conseillée pour mon inscription en thèse. Je voudrais aussi exprimer ma gratitude au personnel de l'Institute of Race Relations à Londres pour leur gentillesse et leur dévouement malgré leur situation de sous-effectif, allant jusqu'à raccourcir leur pause-déjeuner pour me laisser davantage de temps pour consulter les collections d'archives. Je remercie le Département des Études du Monde Anglophone de l'Université Toulouse Jean Jaurès et l'école doctorale Allph@ de m'avoir permis de réaliser mon doctorat dans d'excellentes conditions, grâce à un contrat doctoral et deux contrats d'ATER. Un grand merci à ma famille et à mes amis, qui m'ont épaulée et m'ont permis de me changer les idées pendant ces cinq années de thèse. Je suis infiniment reconnaissante à Fabienne, Najib et Charles Mansour pour leur soutien indéfectible, leur aide et leurs encouragements sans cesse renouvelés. Une pensée particulière, enfin, pour Mark, que je remercie de tout coeur pour sa patience, sa compréhension, et son réconfort. 5 Sommaire INTRODUCTION 17 Objet d'étude et cadre temporel 20 Axes d'études et cadres théoriques 24 Méthodologie et sources 29 Choix de traduction 34 Présentation du plan 35 1. LES MOUVEMENTS DE PREMIERE GENERATION 37 1.1. LE MOUVEMENT POUR LE DESARMEMENT NUCLEAIRE 40 1.1.1. Émergence : facteurs environnementaux internationaux et locaux 41 1.1.1.1. Contexte de la guerre froide et menace nucléaire 41 1.1.1.2. Rôle déclencheur de la mobilisation anti-Suez 43 1.1.1.3. La Nouvelle Gauche 46 1.1.1.4. Ère d'opulence et culture de rébellion 48 1.1.2. Prise de conscience et prémices du mouvement 1952-1957 51 1.1.2.1. Un pacifisme s'inscrivant dans la tradition de la non-violence gandhienne 51 1.1.2.2. Phase constitutionnelle 53 1.1.3. Apogée du mouvement : 1958-62 54 1.1.3.1. Formation des organisations clés 54 1.1.3.2. Les grandes marches de Pâques 56 1.1.3.3. Cadrage moral de la situation 59 1.1.3.4. Perspectives internationalistes 62 1.1.3.5. Diffusion outre-Atlantique et à travers le monde 64 1.1.4. Déclin 72 1.1.4.1. Divisions internes 72 1.1.4.2. Signal d'ouverture de la structure des opportunités politiques 74 1.1.4.3. Conclusion et impact du mouvement 76 1.2. LE MOUVEMENT CONTRE LA GUERRE DU VIETNAM 79 1.2.1. Emergence : facteurs environnementaux internationaux et locaux 80 1.2.1.1. Escalade du conflit 80 6 Claire Mansour, Diffusion et évolution des mouvements sociaux 1.2.1.2. La politique d'équilibriste de Wilson 81 1.2.1.3. Une ligne impopulaire 82 1.2.2. Continuité avec le mouvement pour le désarmement nucléaire, diffusion et phase modérée : 1965-66 84 1.2.2.1. Structure organisationnelle 84 1.2.2.2. Extension du cadrage moral 87 1.2.2.3. Internationalisme 89 1.2.2.4. États-Unis et Royaume-Uni : deux mouvements parallèles 91 1.2.2.5. Naissance de la contre-culture 93 1.2.2.6. La technique du teach-in 96 1.2.3. Apogée du mouvement : 1967-68 98 1.2.3.1. Création des organisations spécifiques 98 1.2.3.2. Adoption du cadre anti-impérialiste des insurgés vietnamiens 99 1.2.3.3. Le tournant de 1967 103 1.2.3.4. Les grandes manifestations de 1968 105 1.2.4. Déclin de la mobilisation 107 1.2.4.1. Baisse de la participation107 1.2.4.2. De nouveaux chevaux de bataille108 1.2.4.3. Potentiel fédérateur de la mobilisation contre le Vietnam 110 1.2.4.4. Conclusion et impact du mouvement112 1.3. LE MOUVEMENT ETUDIANT 115 1.3.1. Émergence : facteurs environnementaux internationaux et locaux 116 1.3.1.1. Réformes de l'enseignement supérieur : discours et réalité 116 1.3.1.2. Influence de l'insurrection hongroise de 1956 119 1.3.2. Influence des mouvements précédents et phase modérée : 1956-1967 120 1.3.2.1. Le mouvement pour le désarmement nucléaire120 1.3.2.2. Campagnes contre les discriminations raciales 122 1.3.2.3. Campagne contre les discriminations envers les étudiants étrangers 126 1.3.2.4. Élément déclencheur : les « troubles » à la LSE, 1966-67 128 1.3.2.5. Le mouvement contre la guerre du Vietnam 132 1.3.3. Apogée du mouvement : 1967-75 133 1.3.3.1. Formation des organisations clés 133 1.3.3.2. Les « droits des étudiants » 136 1.3.3.3. Le retour de flamme conservateur et les dossiers confidentiels140 7 1.3.3.4. Adoption d'un cadre d'action collective marxisant influencé par mai 1968 141 1.3.3.5. Alliance avec les travailleurs 143 1.3.3.6. Adoption des cadres et des tactiques du mouvement ouvrier 149 1.3.3.7. Retour vers les valeurs de la gauche traditionnelle 151 1.3.4. Déclin 153 1.3.4.1. Divisions et querelles intestines 153 1.3.4.2. Fermeture de la structure des opportunités politiques 154 1.3.4.3. Conclusion et impact du mouvement 157 1.4. LE MOUVEMENT OUVRIER 161 1.4.1. Émergence : facteurs environnementaux internationaux et locaux 163 1.4.1.1. Montée en puissance des syndicats 163 1.4.1.2. Rôle majeur des délégués d'atelier 165 1.4.1.3. Anti-communisme et Nouvelle Gauche 167 1.4.2. Influence des mouvements précédents et phase modérée : 1956-1968 173 1.4.2.1. Le mouvement pour le désarmement nucléaire 173 1.4.2.2. La grève des marins de 1966 177 1.4.2.3. Le mouvement contre la guerre du Vietnam 179 1.4.2.4. Le mouvement étudiant et mai 1968 182 1.4.3. Apogée du mouvement : 1968-79 184 1.4.3.1. Opposition aux réformes des syndicats 184 1.4.3.2. La grève des mineurs de 1972 188 1.4.3.3. Campagne pour le droit à l'emploi 191 1.4.3.4. Campagne pour le droit au logement 195 1.4.3.5. Le cas des travailleurs des services publics 199 1.4.4. Déclin 204 1.4.4.1. Fermeture de la structure des opportunités politiques 204 1.4.4.2. Conclusion et impact du mouvement 207 1.5. LE MOUVEMENT POUR L'EGALITE RACIALE 209 1.5.1. Émergence : facteurs environnementaux internationaux et locaux 210 1.5.1.1. Vague d'immigration d'après-guerre 210 1.5.1.2. La colour bar : un racisme systémique 212 1.5.1.3. Hostilité des autochtones et sentiment de désillusion 214 1.5.1.4. « L'Atlantique noir » 216 8 Claire Mansour, Diffusion et évolution des mouvements sociaux 1.5.2. Influence des mouvements précédents et phase modérée : 1956-67 219 1.5.2.1. Le mouvement pour le désarmement nucléaire219 1.5.2.2. Le mouvement pour les droits civiques des noirs américains 222 1.5.2.3. Les mouvements de libération nationale dans les colonies et dominions britanniques en Afrique 227 1.5.2.4. La campagne contre la colour bar 229 1.5.2.5. Revirement du Parti travailliste et montée du racisme232 1.5.3. Apogée du mouvement : 1967-79 233 1.5.3.1. Le tournant du Black Power 233 1.5.3.2. Le combat contre le racisme étatique240 1.5.3.3. La lutte contre le racisme de l'extrême droite 243 1.5.3.4. L'égalité raciale au travail247 1.5.4. Déclin 250 1.5.4.1. Division du mouvement et montée du communautarisme 250 1.5.4.2. Fermeture de la structure des opportunités politiques 252 1.5.4.3. Conclusion et impact du mouvement254 2. LES MOUVEMENTS DE DEUXIEME GENERATION 258 2.1. LE MOUVEMENT FEMINISTE 259 2.1.1. Émergence : facteurs environnementaux internationaux et locaux 261 2.1.1.1. L'impact de la Seconde Guerre mondiale : un nombre croissant de femmes sur le marché du travail 261 2.1.1.2. Libéralisation des moeurs 265 2.1.1.3. Influence des travaux de psychologie sur la condition des femmes 268 2.1.2. Influence des mouvements précédents et phase modérée : 1962-69 270 2.1.2.1. Le mouvement pour le désarmement nucléaire270 2.1.2.2. Le mouvement contre la guerre du Vietnam 275 2.1.2.3. Le mouvement étudiant 278 2.1.2.4. Le mouvement pour l'égalité raciale 279 2.1.2.5. Le mouvement ouvrier281 2.1.2.6. Le mouvement de libération des femmes aux États-Unis 283 2.1.3. Apogée du mouvement : 1970-79 288 2.1.3.1. Première conférence nationale au Ruskin College, à Oxford en 1970288 2.1.3.2. Couverture médiatique et création de publications spécifiques289 2.1.3.3. Campagne de syndicalisation des agents de nettoyage de nuit292 9 2.1.3.4. Campagne contre le retrait de la loi sur l'avortement 294 2.1.3.5. Création des women's centres 296 2.1.3.6. Campagne contre les violences faites aux femmes 297 2.1.4. Déclin 300 2.1.4.1. Division du mouvement 300 2.1.4.2. Fermeture de la structure des opportunités politiques 301 2.1.4.3. Conclusion et impact du mouvement 304 2.2. LE MOUVEMENT GAY ET LESBIEN 307 2.2.1. Émergence : facteurs environnementaux internationaux et locaux 309 2.2.1.1. Impact de la Seconde Guerre mondiale et de la guerre froide 309 2.2.1.2. Influence des travaux de psychologie 310 2.2.1.3. Publication des rapports de l'Eglise Anglicane et de la commission parlementaire Wolfenden 312 2.2.1.4. Libération des moeurs et campagne réformiste 313 2.2.2. Influence des mouvements précédents 315 2.2.2.1. Le mouvement pour le désarmement nucléaire 315 2.2.2.2. Le mouvement contre la guerre du Vietnam 316 2.2.2.3. Le mouvement étudiant 318 2.2.2.4. Le mouvement de libération gay aux États-Unis 321 2.2.2.5. Le mouvement pour l'égalité raciale 324 2.2.2.6. Le mouvement féministe 326 2.2.3. Apogée du mouvement : 1970-79 330 2.2.3.1. Structure organisationnelle 330 2.2.3.2. Campagne de sensibilisation du grand public 332 2.2.3.3. Campagne contre les discriminations homophobes dans les bars 334 2.2.3.4. Création d'institutions collectives alternatives 336 2.2.3.5. Campagne contre les discriminations à l'embauche et au travail 337 2.2.4. Déclin 339 2.2.4.1. Montée du conservatisme moral 339 2.2.4.2. Fermeture de la structure des opportunités politiques 341 2.2.4.3. Conclusion et impact du mouvement 342 2.3. LES MOUVEMENTS POUR LES DROITS CIVIQUES, L'AUTO-DETERMINATION ET LA PAIX EN IRLANDE DU NORD 345 2.3.1. Émergence : facteurs environnementaux internationaux et locaux 346 10 Claire Mansour, Diffusion et évolution des mouvements sociaux 2.3.1.1. Le courant oecuménique 346 2.3.1.2. L'arrivée au pouvoir de nouveaux dirigeants réformistes 349 2.3.1.3. Montée du fondamentalisme protestant et de l'extrémisme unioniste 351 2.3.1.4. L'impact du Welfare State sur la population catholique 353 2.3.2. Influence des mouvements précédents sur le mouvement pour les droits civiques : 1958-69 356 2.3.2.1. Le mouvement pour le désarmement nucléaire356 2.3.2.2. Le mouvement pour l'égalité raciale 359 2.3.2.3. Le mouvement ouvrier364 2.3.2.4. Le mouvement étudiant 368 2.3.2.5. Le mouvement contre la guerre du Vietnam 374 2.3.3. Basculement vers des mouvements d'auto-détermination : 1969-75 377 2.3.3.1. Le mouvement pour l'auto-détermination des catholiques 377 2.3.3.2. Le mouvement pour l'auto-détermination des protestants 382 2.3.4. Le mouvement pour la paix : 1976-79 385 2.3.5. Déclin 387 2.3.5.1. Fermeture de la structure des opportunités politiques 387 2.3.5.2. Impact et conclusion 390 2.4. LES MOUVEMENTS NATIONALISTES GALLOIS ET ECOSSAIS 393 2.4.1. Émergence : facteurs environnementaux internationaux et locaux 395 2.4.1.1. Création des partis nationalistes dans l'entre-deux-guerres 395 2.4.1.2. Londres : un centre du pouvoir perçu comme trop lointain 397 2.4.1.3. Déclin de l'Empire britannique 399 2.4.2. Influence des autres mouvements et phase modérée : 1956-1966 401 2.4.2.1. Le mouvement pour le désarmement nucléaire401 2.4.2.2. Le mouvement étudiant 405 2.4.2.3. Le mouvement ouvrier407 2.4.2.4. Le mouvement pour l'égalité raciale 410 2.4.2.5. Le mouvement contre la guerre du Vietnam 414 2.4.2.6. Le mouvement nationaliste irlandais 416 2.4.3. Mouvement de masse : 1967-79 420 2.4.3.1. Défense du gallois et du gaélique écossais420 2.4.3.2. Campagnes pour sauver les emplois locaux 425 2.4.3.3. Demandes d'autonomie politique 430 11 2.4.4. Déclin 434 2.4.4.1. Fermeture de la structure des opportunités politiques 434 2.4.4.2. Conclusion et impact du mouvement 439 2.5. LE MOUVEMENT ECOLOGISTE 441 2.5.1. Émergence : facteurs environnementaux internationaux et locaux 442 2.5.1.1. Impact de la Seconde Guerre mondiale et prise de conscience écologique 442 2.5.1.2. Prospérité : l'envers du décor 444 2.5.1.3. Une nouvelle vision biocentrée 448 2.5.2. Influence des mouvements précédents 450 2.5.2.1. Le mouvement pour le désarmement nucléaire 450 2.5.2.2. Le mouvement contre la guerre du Vietnam 455 2.5.2.3. Le mouvement étudiant 458 2.5.2.4. Le mouvement ouvrier 461 2.5.2.5. Le mouvement pour l'égalité raciale 465 2.5.2.6. Le mouvement féministe 468 2.5.2.7. Les mouvements nationalistes gallois et écossais 470 2.5.3. Mouvement de masse : 1970-79 472 2.5.3.1. Campagnes pour la protection des animaux 472 2.5.3.2. Campagne pour le recyclage des déchets 475 2.5.3.3. Campagne contre le trafic automobile 477 2.5.3.4. La mobilisation contre le nucléaire civil 479 2.5.4. Déclin 482 2.5.4.1. Fermeture de la structure des opportunités politiques 482 2.5.4.2. Résurgence du mouvement pour le désarmement nucléaire 483 2.5.4.3. Conclusion et impact du mouvement 485 3. CONCLUSION 489 4. BIBLIOGRAPHIE 503 4.1. SOURCES PRIMAIRES 505 4.1.1. Articles de presse classés par ordre chronologique 505 4.1.2. Archives en ligne 539 4.1.3. Documents officiels 540 4.1.4. Manifestes de partis politiques 541 4.1.5. Documents émanant du monde associatif 541 12 Claire Mansour, Diffusion et évolution des mouvements sociaux 4.1.6. Discours 543 4.1.7. Mémoires, autobiographies et témoignages 544 4.1.8. Autres supports 544 4.2. SOURCES SECONDAIRES 544 4.2.1. Ouvrages 544 4.2.2. Contributions à des ouvrages collectifs 548 4.2.3. Thèses universitaires 550 4.2.4. Articles scientifiques 551 4.2.5. Communications dans une manifestation scientifique 554 4.2.6. Autres articles 554 5. ANNEXES 557 6. INDEX 591 13 Liste des acronymes AAM Anti-Apartheid Movement AEU Amalgamated Engineering Union AIL Anti-Internment League ALF Animal Liberation Front ANC African National Congress ANL Anti-Nazi League AUEW Amalgamated Union of Engineering Workers AEF Amalgamated Union Engineering and Foundry Workers BBC British Broadcasting Corporation BCPV British Campaign for Peace in Vietnam BLF Black Liberation Front BNP British National Party BPA Black Peoples' Alliance BPM Black Panther Movement BPP Black Panther Party C100 Committee of 100 CAO Committee of African Organisations CARD Campaign Against Racial Discrimination CHE Campaign for Homosexual Equality CIG Cymdeithas yr Iaith Gymraeg (Welsh Language Society) CND Campaign for Nuclear Disarmament CNVA Committee for Non-Violent Action CORE Congress for Racial Equality CPGB Communist Party of Great Britain CSJ Campaign for Social Justice DAC Direct Action Committee (Against Nuclear War) DDT Dichloro-Diphényl-Trichloroéthane DHAC Derry Housing Action Committee DUAC Derry Unemployed Action Committee • 13 • 14 Claire Mansour, Diffusion et évolution des mouvements sociaux DUP Democratic Party of Ulster FBU Fire Brigades Union FCPU Free Presbyterian Church of Ulster FoE Friends of the Earth GLF Gay Liberation Front GUSNA Glasgow University Student Nationalist Association HLRS Homosexual Law Reform Society HSA Hunt Saboteurs Association ICTU Irish Congress of Trade Unions IMG International Marxist Group IRA Irish Republican Army IS International Socialists ISC Irish Solidarity Campaign IWA Indian Workers' Association IWC Institute for Workers Control LCDTU Liaison Committee for the Defence of Trade Unions LEL League of Empire Loyalists LPYS Labour Party Young Socialists LSE London School of Economics MAC Mudiad Amddiffyn Cymru (Movement for the Defence of Wales) MCF Movement for Colonial Freedom NAACP National Association for the Advancement of Coloured People NAC National Abortion Campaign NALGO National Association of Local Government Officers NF National Front NICRA Northern Civil Rights Association NICICTU Northern Ireland Committee of the Irish Congress of Trade Unions NILP Northern Ireland Labour Party NJACWER National Joint Action Committee for Women's Equal Rights NLB National League of the Blind 15 NLF National Liberation Front (for South Vietnam) NOW National Organization of Women NUM National Union of Mineworkers NUPE National Union of Public Employees NUS National Union of Students NUT National Union of Teachers OWAAD Organisation of Women of Asian and African Descent PD People's Democracy PN Peace News PPU Peace Pledge Union PWA Pakistani Workers' Association RAR Rock Against Racism RPS Racial Preservation Society RSA Radical Student Alliance RSSF Revolutionary Socialist Student Federation RUC Royal Ulster Constabulary SCND Scottish Council for Nuclear Disarmament SCRAM Scottish Campaign to Resist the Atomic Menace SDS Student for a Democratic Society SLL Socialist Labour League SLP Scottish Labour Party SNCC Student Non-Violent Co-ordinating Committee SNP Scottish National Party SPG Special Patrol Group STUC Scottish Trades Untion Congress SWP Socialist Workers Party TGWU Transport and General Workers' Union TOM Troops Out Movement TUC Trades Union Congress VSC Vietnam Solidarity Campaign • 15 • 16 Claire Mansour, Diffusion et évolution des mouvements sociaux UCPA Universal Coloured People's Association UCS Upper Clyde Shipbuilders UDA Ulster Defence Association ULR University and Left Review UPV Ulster Protestant Volunteers URSS Union des républiques socialistes soviétiques UVF Ulster Volunteer Force UUP Ulster Unionist Party WIG West Indian Gazette WLW Women's Liberation Workshop WRP Workers Revolutionary Party WSP Women's Strike for Peace WWF World Wildlife Fund YAM Youth Asian Movement YS Young Socialists INTRODUCTION • 17 • 19 Introduction « When someone demonstrates that people are not powerless, they may begin to act again. » Cette citation de l'historien britannique Eric Hobsbawm souligne l'importance des phénomènes de diffusion dans l'évolution de la dynamique contestataire. Dans un article du journal de la gauche radicale The Black Dwarf daté du 1er juin 1968, Hobsbawm analysait les évènements de mai 1968 en France, louant l'exemple des étudiants qui avaient ouvert la voie à une insurrection ouvrière à travers le pays, et peut-être même au-delà 1 . Suite à la répression des occupations des universités de Nanterre et de la Sorbonne, des barricades furent érigées spontanément dans le Quartier latin pour repousser l'assaut des forces de l'ordre dans la nuit du 10 mai. La brutalité de la confrontation poussa les ouvriers à rejoindre la lutte contre le gouvernement et leurs employeurs, à travers une série d'occupations d'usines et une grève générale atteignant un pic de près de 10 millions de travailleurs, selon les chiffres des militants 2 . Hobsbawm espérait donc que cette rébellion devienne une source d'inspiration pour d'autres peuples, notamment les Britanniques. Selon lui, il suffisait que les efforts collectifs d'un groupe d'individus parviennent à infléchir le cours des évènements pour que d'autres groupes se décident à agir à leur tour. Il voyait dans la révolte populaire un éternel recommencement : un groupe précurseur insufflait une dynamique de protestation en poussant d'autres groupes à se mobiliser, jusqu'à ce que la contestation s'étiole, pour faire bientôt place à un nouveau cycle. Cette vision révèle le rôle-clé des interactions entre les différents acteurs, mais aussi entre les mouvements sociaux de la même période, à la fois à « Theory turned sideways », The Black Dwarf, 1er juin 1968, pp. 4-5. « La semaine enragée », Action, 13 mai 1968, pp. 1-2. « Le théâtre des opérations », Action, 5 juin 1968, p. 3. 1 2 20 Claire Mansour, Diffusion et évolution des mouvements sociaux l'échelle nationale et internationale, préoccupations centrales à la présente étude. Avant d'aller plus avant, il convient de définir précisément les différents éléments qui serviront de socle à l'analyse. Objet d'étude et cadre temporel Les différents mouvements sociaux de la période des longues années soixante au Royaume-Uni seront l'objet d'étude de cette thèse. Il s'agira tout d'abord d'essayer de définir ce qui constitue un mouvement social. Les sociologues américains Jeffrey Goodwin et James Jasper proposent la définition suivante : « Social movements are conscious, concerted, and sustained efforts by ordinary people to change some aspects of their society by using extra-institutional means »3. Ils identifient six caractéristiques essentielles. Tout d'abord, les mouvements sociaux sont le fruit d'une décision consciente et réfléchie des protagonistes d'unir leurs forces, ce qui les distingue des phénomènes spontanés, comme les émeutes. Ces protagonistes sont généralement des gens ordinaires, issus de la société civile, par opposition à la classe dirigeante ou aux membres des forces armées. Ils ont recours à des formes d'actions se situant à l'extérieur du cadre institutionnel, qu'ils peuvent maintenir sur des périodes prolongées, afin d'obtenir un certain nombre de changements au sein de la société. En cela, ils diffèrent des campagnes, qui se composent d'une série d'action collectives effectuées dans un seul but spécifique, et s'inscrivent donc sur une durée plus courte. Le mouvement féministe avait par exemple vocation à transformer la société en vue obtenir l'égalité entre les hommes et les femmes. Dans cette optique, il abritait en son sein plusieurs campagnes ciblant des domaines plus limités, comme l'égalité salariale ou l'arrêt des violences faites aux femmes. La période étudiée vit l'émergence d'une dizaine de mouvements correspondant à la définition précédemment évoquée et qui 3 Jeff GOODWIN et James JASPER (éds), The Social Movements Reader: Cases and Concepts, Chichester : Wiley Blackwell, 2015, p. 3. Introduction seront analysés dans le cadre de cette thèse : le mouvement pour le désarmement nucléaire ; le mouvement contre la guerre du Vietnam ; le mouvement étudiant ; le mouvement ouvrier ; le mouvement pour l'égalité raciale ; le mouvement féministe ; le mouvement gay et lesbien ; les mouvement pour les droits civiques, l'auto-détermination et la paix en Irlande du Nord ; les mouvements nationalistes gallois et écossais et, enfin, le mouvement écologiste. Selon certains spécialistes, les mouvements sociaux apparus dans les années 1960-70 dans de nombreux pays occidentaux auraient développé des particularités inédites, les différenciant de ceux qui les ont précédés. Les singularités de ces « nouveaux mouvements sociaux » – du nom de la théorie et de son objet d'étude – résidaient principalement dans leurs modes d'action innovants, leur structure organisationnelle décentralisée, et leurs revendications à forte dimension morale. Ils auraient émergé suite à l'évolution des sociétés industrielles occidentales en sociétés « post-industrielles ». Ce concept fut forgé par les sociologues Alain Touraine en France, et Daniel Bell aux États-Unis, pour renvoyer aux changements profonds induits par les progrès technologiques, la prospérité économique et la prépondérance du secteur tertiaire dans l'emploi et l'économie au détriment du secteur secondaire 4. Ils soulignaient le rôle-clé joué par la connaissance et l'information dans ces nouvelles sociétés, bouleversant la structure des rapports sociaux. D'autres s'appuyèrent sur leurs travaux pour analyser les conséquences de ces transformations sur les mouvements sociaux, à l'instar du politologue américain Ronald Inglehart, qui voyait dans les demandes novatrices des militants l'avènement d'une nouvelle culture aux valeurs post-matérialistes (« Post-Materialist values »)5. L'amélioration des conditions de vie des habitants de ces sociétés « post-industrielles » ayant permis la satisfaction des besoins matériels de base – les militants s'étaient alors tournés vers des 4 Alain TOURAINE, La société post-industrielle : naissance d'une société, Paris : Denoël, 1969. Daniel BELL, The Coming of Post-Industrial Society, New York : Basic Books, 1973. 5 Ronald INGLEHART, The Silent Revolution: Changing Values and Political Styles Among Western Publics, Princeton : Princeton University Press, 1977. 21 22 Claire Mansour, Diffusion et évolution des mouvements sociaux revendications plus qualitatives et expressives, comme celles de la protection de la nature portée par le mouvement écologiste ou encore les affirmations identitaires du mouvement gay et lesbien. Les « nouveaux mouvements sociaux » dépassaient ainsi les anciens clivages de classes sociales et les préoccupations strictement économiques de leurs prédécesseurs. Cependant, les limites de cette théorie ont depuis été pointées, notamment en ce qui concerne le caractère inédit et post-matérialiste des mouvements sociaux des années 1960-70. L'écologie, le féminisme et la défense des homosexuels étaient déjà sources de mobilisation au XIXe siècle, au coeur de l'ère industrielle, ces domaines ne sont donc pas devenus des sujets de préoccupation dans la deuxième moitié du vingtième siècle. Quant aux demandes « matérialistes », comme les hausses de salaires, la préservation des emplois ou plus généralement la redistribution des richesses, elles dominaient toujours le paysage contestataire, et continuent encore à le faire à l'heure actuelle 6. De plus, ce statut de « nouveau mouvement social » dénote un certain jugement de valeur, présentant les mobilisations des couches les moins privilégiées de la population comme les dernières scories de l'ancien monde, se souciant de considérations bassement pécuniaires, alors que les campagnes des classes moyennes sont au contraire valorisées pour leur logique désintéressée et leur vocation altruiste. C'est pourquoi le concept de « nouveaux mouvements sociaux » ne sera pas retenu comme outil d'analyse dans cette thèse, mais il ne s'agira pas pour autant de renier les dimensions innovantes des mouvements des années 1960-70. Pour étudier cette période, les spécialistes ont souvent jugé utile de dépasser les cadres trop rigides des décennies. Dans un article sur la périodisation des années soixante dans les pays occidentaux, Fredric Jameson formula en 1984 la notion de « longues années soixante » (« the Long Sixties ») 7. Il identifiait comme 6 Lilian MATHIEU, Comment lutter ? : sociologie et mouvements sociaux, Paris : Textuel, 2004, p. 17. Frederic JAMESON, « Periodizing the 60s », dans Sohnia SAYRES, Anders STEPHANSON, Stanley ARONOWITZ et Frederic JAMESON, The 60s without Apology, Minneapolis : University of Minnesota Press, 1984, pp. 178-209. 7 Introduction point de départ la fin des années 1950, du fait de l'émergence des mouvements de libération nationale dans les pays colonisés qui influencèrent de manière décisive les militants dans les pays colonisateurs, puis comme fin les années 1973-4, en raison de la crise économique mondiale qui suivit le choc pétrolier. Des historiens reprirent ensuite ce concept, à l'instar de Caroline Hoefferle, dans son ouvrage sur le mouvement étudiant britannique, intitulé British Student Activism in the Long Sixties, choisissant un bornage similaire 8. Arthur Marwick eut également recours à cette périodisation dans son étude comparative The Sixties, dans laquelle il soutient que les États-Unis, le Royaume-Uni, la France et l'Italie connurent une révolution culturelle lors « les longues années soixante », s'étendant, selon lui, de 1958 à 1974 9. Dans son histoire orale de la contre-culture britannique, Jonathon Green évoquait encore les longues années soixante, dépeintes comme une fête ayant débuté à la fin des années 1950 et à laquelle l'arrivée au pouvoir de Maragaret Thatcher aurait brutalement mis un terme en mai 1979 : « The 'long Sixties', as it is best called, embraces a period from the chronological mid-Fifties to the early Seventies, if not even 1979, when on 3 May the party came so abruptly to an end » 10. Les longues années soixante sont donc devenues un concept historique, aux bornes variables selon l'objet d'étude choisi, afin de souligner la continuité des phénomènes et de privilégier une unité de sens, plutôt qu'un découpage arithmétique déconnecté de la réalité historique. Le choix est fait dans cette thèse de recourir à la notion des longues années soixante, démarrant avec la crise du canal de Suez en octobre 1956 et s'achevant en mai 1979 avec l'arrivée du gouvernement conservateur de Margaret Thatcher. Cette période forme une unité cohérente pour étudier les mouvements sociaux au Royaume-Uni, dans la mesure où on peut considérer qu'elle constitue 8 Caroline HOEFFERLE, British Student Activism in the Long Sixties, New York : Routledge, 2013, p. 6. Arthur MARWICK, The Sixties: cultural revolution in Britain, France, Italy, and the United States, 1958-1974, Oxford : Oxford University Press, 1998, pp. 7, 801-2. 10 Jonathon GREEN, All Dressed up: The Sixties and the Counter-Culture, Londres : Jonathan Cape, 1998, p. xiii. 9 23 24 Claire Mansour, Diffusion et évolution des mouvements sociaux un cycle de contestation (« cycle of protest »), selon l'expression du sociologue américain Sidney Tarrow 11 . Ce terme désigne une période d'agitation sociale intense, marquée par une première phase ascendante où la contestation gagne en puissance, suivie d'une phase d'apogée où elle bat son plein, et se terminant par une phase descendante. La crise du canal de Suez déclencha la dynamique protestataire, en donnant lieu aux premières mobilisations de masse contre le gouvernement depuis la fin de la guerre, entraînant dans son sillage l'émergence du mouvement précurseur du cycle : le mouvement pour le désarmement nucléaire. D'autres mouvements sociaux se développèrent alors, lors de la phase ascendante du cycle, allant de 1956 au tournant de 1967, lors duquel la plupart des mouvements se massifièrent et se radicalisèrent. La phase d'apogée s'étendit ensuite à peu près de 1967 à la fin de la décennie, selon les mouvements. Certains amorcèrent un lent déclin au milieu des années 1970, tandis que d'autres continuèrent à gagner en puissance, avant de s'effondrer brutalement en 1979, du fait des nouvelles lignes politiques conservatrices. Un tel résumé reste bien sûr schématique. Il permet d'identifier les grandes tendances à l'oeuvre dans les interactions entre les mouvements sociaux, mais aussi avec leurs opposants, qu'il s'agisse des pouvoirs publics ou d'acteurs non-étatiques. C'est dans cet esprit que seront utilisés les différents outils de la sociologie, afin de les mettre au service d'une analyse qui se voudra avant tout historique. Axes d'études et cadres théoriques Pour comprendre les interactions entre les différents mouvements sociaux des longues années soixante, il sera nécessaire d'examiner les processus de diffusion permettant à la contestation de se propager. La diffusion joue un rôle moteur dans l'évolution de la dynamique protestataire, et donc au sein des cycles 11 Sidney TARROW, « Cycles of Collective Action: Between Moments of Madness and the Repertoire of Contention », Social Science History, 17, no. 2, été 1993, pp. 281-307. Introduction de contestation. Les sociologues Doug McAdam et Dieter Rucht ont appliqué les modèles sociologiques de diffusion de l'information à l'étude des mouvements sociaux 12. Ils expliquent que les militants n'ont pas besoin de réinventer la roue à chaque conflit social, mais tirent généralement leur inspiration des actions collectives expérimentées par d'autres groupes. La diffusion intervient lorsqu'un groupe de militants décide d'adopter certains éléments, comme les tactiques, l'idéologie, ou les symboles d'un autre groupe de protestataires. Ce transfert est permis par des canaux de communication qui peuvent être relationnels, lorsque des liens personnels entre les deux groupes existent, ou non-relationnels, lorsque l'information circule par le biais des médias. Ce phénomène peut avoir lieu entre différents mouvements au sein du même pays, mais aussi traverser les frontières. Mais selon McAdam et Rucht, l'étape cruciale du processus de diffusion réside dans la perception de similarités entre les deux groupes, entraînant une identification des militants décidant d'adopter les éléments du groupe de référence. Ce sentiment de partager certaines caractéristiques avec leurs inspirateurs pousse les militants à leur emprunter certains éléments. Plus l'identification est forte, plus ces éléments seront nombreux. La diffusion est donc le résultat d'une décision rationnelle de la part des militants, qui font le choix de mettre en avant les points communs avec leurs modèles, afin de s'inspirer de leurs pratiques. Il ne s'agit pas d'un simple phénomène de mimétisme, puisque les militants vont ensuite adapter les éléments empruntés à leur propre contexte, leur conférant ainsi une dimension novatrice. Dans certains cas, ces éléments transplantés dans un nouvel environnement évoluent ensuite de manière autonome, devenant des innovations à part entière pouvant ensuite être reprises par un autre groupe de militants. Ces réactions en chaîne nourrissent la dynamique protestataire, permettant ainsi à un ensemble de tactiques et d'éléments idéologiques de se propager à l'intérieur d'un même cycle de 12 Doug MCADAM et Dieter RUCHT, « The Cross-National Diffusion of Movement Ideas », Annals of the American Academy of Political Science, 528, juillet 1993, pp. 56-74. 25 26 Claire Mansour, Diffusion et évolution des mouvements sociaux contestation. Chaque cycle est donc généralement caractérisé par un répertoire et des cadres d'action collective spécifiques. Le concept de répertoire d'action collective provient des travaux du sociologue américain Charles Tilly 13. Cette métaphore empruntant aux univers du théâtre et de la musique présente les différentes formes d'action offertes aux militants comme un inventaire méthodique dans lequel ils seraient libres de piocher en fonction de leurs objectifs. La liste s'accroit avec l'expérience accumulée, puisque chaque innovation tactique ajoute au répertoire des militants. La gamme des pratiques contestataires varie donc à la fois selon les pays et les époques du fait des phénomènes de diffusion. Quant aux cadres d'action collective (collective action frames), ils renvoient aux produits des activités de construction du sens effectuées par les militants. Les sociologues américains Robert Benford et David Snow ont développé cet outil d'analyse à partir du concept de « cadre » (« frame »), dont la paternité revient à Erving Goffman 14 . Ils les définissent de la manière suivante : « collective action frames are action-oriented sets of beliefs and meanings that inspire and legitimate the activities and campaigns of a social movement organization » 15 . Il s'agit d'une sorte de prisme présentant une vision orientée de la réalité afin de mobiliser pour une cause. Ils distinguent trois types d'activités de cadrage auxquels se livrent les militants : les cadres de diagnostic (diagnostic framing) servant à identifier les aspects problématiques d'une situation qu'ils souhaitent dénoncer, les cadres de pronostic (prognostic framing) permettant de proposer une solution au problème et de justifier les méthodes qui vont être employées, et enfin les cadres motivationnels (motivational framing) destinés à convaincre les recrues potentielles de rejoindre le mouvement, par exemple en soulignant la gravité du problème, la nécessité d'agir 13 Charles TILLY, « Les origines du répertoire d'action collective contemporaine en France et en Grande-Bretagne » Vingtième Siècle, revue d'histoire 4, no. 1,1984, pp. 89, 99. 14 Erving GOFFMAN, Frame Analysis: An Essay on the Organization of the Experience, New York : Harper Colophon,1974. 15 Robert D. BENFORD et David A. SNOW, « Framing Processes and Social Movements: An Overview and Assessment », Annual Review of Sociology, 26, 2000, p. 614. Introduction ou le bien-fondé de la solution envisagée 16 . La manière dont les militants perçoivent et interprètent la réalité joue ensuite un rôle déterminant dans le choix des tactiques, l'élaboration des slogans et de la littérature idéologique. Les cadres d'action collective font de surcroit partie des éléments pouvant être adoptés par d'autres groupes de protestataires. Dans ce cas, ils font l'objet d'adaptations à mesure que leurs nouveaux adeptes se les approprient, contribuant ainsi à la dynamique créative émanant des processus de diffusion. Afin de prendre en compte l'influence du contexte politique sur les mouvements sociaux, le concept de structure des opportunités politiques (political opportunity structure) sera également utilisé. Il met l'accent sur le rôle des facteurs conjoncturels dans l'émergence et le déclin des mobilisations. Selon les périodes, le contexte politique peut fournir plus ou moins de chances à saisir aux militants, en fonction du degré d'ouverture des institutions politiques, de leur réceptivité aux demandes des mouvements sociaux, ou au contraire de la répression étatique à l'encontre des militants 17 . Des changements environnementaux peuvent également influer sur la structure des opportunités politiques. Dans son étude sur l'émergence du mouvement noir aux États-Unis, Doug McAdam analyse l'impact des multiples facteurs ayant favorisé son développement. Il identifie des bouleversements d'ordre économique comme le déclin de l'industrie cotonnière dans le Sud du pays, sa conséquence démographique avec la migration des noirs vers les états du Nord – où ils purent alors exercer leur droit de vote, forçant les démocrates et les républicains à revoir leurs lignes politiques afin de courtiser leurs suffrages, ou encore le contexte international de la guerre froide dans lequel la ségrégation devenait de plus en plus gênante pour un pays tentant d'incarner le « monde libre » 18 . McAdam montre ainsi comment ces différents facteurs ont contribué à l'ouverture de la structure des opportunités politiques pour le 16 Ibid. pp. 616-17. Erik NEVEU, La sociologie des mouvements sociaux, Paris : La Découverte, 2005, p. 86. 18 Doug MCADAM, Political Process and the Development of Black Insurgency, 1930-1970, Chicago : University of Chicago Press, 1999, p. xxii. 17 27 28 Claire Mansour, Diffusion et évolution des mouvements sociaux mouvement des droits civiques, insistant sur la nécessité de prendre en compte les dimensions locales, nationales et internationales du contexte politique. Il insiste sur l'importance de l'interprétation de ces changements environnementaux par les militants, qui les perçoivent soit comme des conditions opportunes, soit au contraire comme des menaces pour leurs propres intérêts, et décident alors de se mobiliser 19 . En raison des similarités entre son objet d'étude et les mouvements des longues années soixante examinés dans ce travail de thèse, cette approche sera privilégiée à la fois pour expliquer l'émergence mais aussi le déclin des différents mouvements. Sidney Tarrow s'est intéressé aux rapports entre les cycles de contestation et les changements dans la structure des opportunités politiques. Il en a conclu que le mouvement précurseur d'un cycle jouait un rôle fondamental en signalant aux autres groupes de militants que le contexte politique était favorable, du fait de la réceptivité ou de la vulnérabilité des autorités 20 . Le mouvement précurseur ouvre ainsi une brèche dans la structure des opportunités politiques, dans laquelle vont ensuite s'engouffrer d'autres mouvements émergeant dans son sillage. De même, la fermeture du contexte politique entraînera le déclin des mouvements et la fin du cycle de contestation. Un gouvernement décidant de prendre des mesures répressives à l'encontre du militantisme, ou d'effectuer des restrictions budgétaires de grande ampleur, ôtant ainsi tout espoir aux militants de voir leurs revendications aboutir, peuvent, par exemple, mettre un terme à la dynamique protestataire. Si l'on part du constat des similarités apparentes entre les mouvements du cycle des longues années soixante au Royaume-Uni, on observe qu'ils partagent bien souvent un certain nombre de pratiques, à l'instar du sit-in ou des occupations, de symboles tels que l'emblème de la paix ☮ou le poing levé, et de 19 Ibid, p. xi. Sidney TARROW, Power in Movement: Social Movements and Contentious Politics, Cambridge : Cambridge University Press, 2011, pp. 201-2. 20 Introduction cadres d'action collective comme la libération de l'oppression, qu'il s'agisse du joug impérialiste, patriarcal, ou même de la libération des animaux de la domination humaine. Ces similitudes suscitent logiquement quelques questions : comment expliquer ces phénomènes ? Quels sont les liens qui ont rendu possible la diffusion de ces éléments ? Dans quelle mesure la diffusion a-t-elle contribué à l'évolution de la contestation dans les longues années soixante au Royaume-Uni ? Pour y répondre, il s'agira d'analyser séparément les différents mouvements sociaux de cette période, en accordant une importance particulière à leurs interactions et à leurs rôles au sein du cycle de contestation. Cela conduira donc à essayer de démêler l'entrelacs de réseaux et le va-et-vient incessant des processus de diffusion nourrissant la dynamique protestataire. Cette tâche sera d'autant plus complexe que la diffusion opère à la fois de manière diachronique au sein du répertoire national du Royaume-Uni, lorsque les militants font appel à des tactiques déjà utilisée par leurs prédécesseurs sur le territoire, mais aussi de manière synchronique lorsqu'un mouvement influence un autre groupe de militants portant des revendications différentes, ou encore lorsque la source d'inspiration provient d'un autre pays. Il sera donc nécessaire, ponctuellement, d'adopter une approche comparatiste, afin d'expliquer les différents cas de diffusion principalement avec les États-Unis et la France, mais aussi parfois avec d'autres pays comme l'Allemagne ou l'Australie. Méthodologie et sources Une des spécificités de ce travail de thèse réside dans le choix d'appuyer l'analyse sur un grand nombre de sources primaires, provenant d'une cinquantaine de publications différentes, tirées dans leur très grande majorité de la presse alternative, étudiante et militante. Les longues années soixante virent le nombre de journaux et de magazines élaborés par les militants se multiplier. Grâce aux nombreuses collections d'archives numérisées, nombre de ces documents ont été consultés en ligne, comme ce fut le cas par exemple pour la multitude de périodiques de la gauche radicale, pour les magazines 29 30 Claire Mansour, Diffusion et évolution des mouvements sociaux contre-culturels, ou encore pour certains journaux étudiants, féministes, gay ou écologistes. Un séjour de terrain a permis de compléter le corpus, grâce aux collections d'archives de la British Library ou de l'Institute of Race Relations, qui permirent d'accéder notamment à l'intégralité des articles publiés dans le magazine pacifiste Peace News sur toute de la période étudiée, mais aussi d'autres titres de presse disponibles uniquement sur microfilm, comme le journal de la communauté antillaise de Brixton The West Indian Gazette. Certaines de ces sources ont d'ailleurs été reproduites en annexes de cette thèse. L'étude de ce type de source permet à la fois d'analyser les cadres de l'action collective développés par les militants, ce qui inclut leurs revendications et la manière dont ils interprétaient leurs situations, mais aussi d'avoir accès aux comptes rendus de leurs actions, parfois ignorées par les médias traditionnels. Une des raisons d'être de ces publications était justement de créer leurs propres canaux de communication, afin de pallier la couverture médiatique insuffisante (ou, dans certains cas, biaisée) des grands quotidiens britanniques. Comme cela sera démontré, les militants s'insurgeaient contre la manière dont leurs actions étaient décrites par la presse mainstream, soulignant souvent les divisions entre les organisations ou les incidents violents en marge des cortèges, attirant l'attention sur le style vestimentaire, les convictions politiques ou encore les moeurs des participants. En écrivant leurs propres articles, les militants pouvaient présenter leur version des faits, tenir leurs soutiens informés de l'avancée de leur mouvement, et susciter l'engagement pour la cause. En cela, leur vision était également orientée, et sera donc traitée comme telle. Ces publications servirent aussi de canaux de diffusion privilégiés entre les groupes de militants, en relatant pas à pas le déroulement des actions ou en servant de vitrine à leurs idées. Afin d'analyser la dimension transnationale des processus de diffusion, le corpus s'étendra aux organes de certaines organisations américaines très influentes, comme le Black Panther Party ou le Gay Liberation Front de New York, mais aussi à certains journaux étudiants américains et français. Introduction Le magazine pacifiste Peace News est sans aucun doute la source la plus fréquemment citée dans cette thèse. De par sa parution régulière et continue au cours de la période étudiée, mais aussi grâce à la grande variété de sujets abordés, il reflète à lui seul l'évolution de la contestation. Sa ligne éditoriale éclectique en fit l'écho de toutes les causes de mobilisation de l'époque. De plus, grâce aux réseaux pacifistes transnationaux, il avait adopté une perspective internationaliste. Vers la fin des années 1950, ses articles traitaient principalement de l'opposition aux armes nucléaires, des mouvements de libération nationale dans les colonies, et du mouvement pour les droits civiques aux États-Unis. Dans les années 1960, il se diversifia largement pour couvrir les actions des populations issues de l'immigration, les conflits industriels, les luttes étudiantes, le mouvement pour les droits civiques en Irlande du Nord, l'envolée des nationalismes gallois et écossais, et la mobilisation féministe naissante. Au début de la décennie suivante, vinrent s'ajouter les revendications gay et lesbiennes ainsi que les préoccupations écologistes. Au cours de la période, la publication adopta des positions de plus en plus radicales, prônant au départ des pratiques contestataires non-violentes pour défendre des revendications pacifistes et égalitaires relativement modérées, avant d'opter pour une remise en question plus fondamentale de la société, comme en témoigne le slogan utilisé à partir de janvier 1972 : « For non-violent revolution ». Si l'analyse se fonde en priorité sur des sources primaires, un grand nombre de sources secondaires a également nourri la réflexion, aidé à la contextualisation et permis d'apporter de précieux compléments d'information. Il ne s'agira pas de toutes les énumérer ici, puisque ces sources sont listées en bibliographie, mais simplement de mentionner les principaux types d'ouvrages sur lequel ce travail de thèse s'appuie. Les quatre volumes de l'historien Dominic Sandbrook fournissent une analyse historique très détaillée du Royaume-Uni 31 32 Claire Mansour, Diffusion et évolution des mouvements sociaux couvrant précisément la période de étudiée de 1956 à 1979 21. Le travail d'Andy Beckett présente également un éclairage approfondi sur les années 1970 22. Ces oeuvres se sont avérées d'une grande aide à la compréhension du contexte politique et historique. En raison de l'influence des milieux contre-culturels sur les différents mouvements sociaux de l'époque, il était nécessaire de se pencher sur les différents courants culturels et les institutions alternatives apparus durant les longues années soixante. L'histoire orale de la contre-culture britannique de Jonathon Green, lui-même ancien journaliste de la presse underground, se fonde sur des témoignages pour retracer son évolution, et montre son impact sur les cercles militants et le reste de la société 23 . Les récits autobiographiques des évènements, souvent écrits a postériori par les militants, constituent des « cas tangents », entre sources primaires et secondaires. L'historienne et militante féministe, Sheila Rowbotham, narre ainsi en détails les prémices de la deuxième vague du féminisme à travers son expérience personnelle 24. Il en va de même pour le porte-drapeau du mouvement contre la guerre du Vietnam, Tariq Ali, qui propose sa propre lecture de la contestation des longues années soixante 25 . Souvent en contrepoint de la vision des militants, les mémoires des dirigeants politiques permettent de comprendre comment ces derniers analysaient la situation et justifiaient leurs décisions. Les récits des années à Downing Street des Premiers ministres Harold Wilson, Edward Heath et Margaret Thatcher ont ainsi 21 Dominic SANDBROOK, Never Had It So Good: A History of Britain from Suez to the Beatles, Londres : Abacus, 2005. Dominic SANDBROOK, White Heat: A History of Britain in the Swinging Sixties, Londres : Abacus, 2007. Dominic SANDBROOK, State of Emergency: The Way We Were: Britain 1970-1974, Londres : Penguin, 2011. Dominic SANDBROOK, Seasons in the Sun: The Battle for Britain, 1974-1979, Londres : Penguin Books, 2013. 22 Andy BECKETT, When the Lights Went Out : What Really Happened to Britain in the Seventies, Londres : Faber and Faber, 2009. 23 Jonathon GREEN, op. cit 24 Sheila ROWBOTHAM, Promise of a Dream: Remembering the Sixties, New York : Verso, 2001. 25 Tariq ALI, Street Fighting Years : an Autobiography of the Sixties, Londres : Verso, 2005. 33 Introduction permis de mieux cerner leurs perceptions des évènements 26. En ce qui concerne les travaux sur les mouvements sociaux, il n'existe, à ma connaissance, aucun ouvrage traitant spécifiquement des mouvements des longues années soixante au Royaume-Uni. L'ouvrage d'Adam Lent analyse les nouveaux mouvements sociaux britanniques de la deuxième moitié du vingtième siècle, c'est-à-dire ceux dont les revendications étaient avant tout qualitatives, en adoptant une vision d'ensemble, pour se concentrer sur les changements sociétaux qu'ils ont engendrés 27 . Il exclut donc les mouvements ouvriers et nationalistes de ses recherches. D'autres études portent sur le militantisme en faveur d'une cause en particulier, comme le travail de Caroline Hoefferle sur les luttes étudiantes, focalisé sur les longues années soixante, ou celui de Barbara Caine sur féminisme, retraçant son évolution sur deux siècles, de 1780 à 1980 28 . Les études comparatives ont également été source d'inspiration, notamment les travaux d'Arthur Marwick sur la « révolution culturelle » en France, en Italie, au Royaume-Uni et aux États-Unis, mais aussi ceux mettant en balance deux mouvements sociaux portant les mêmes revendications dans deux pays différents, comme la comparaison transatlantique du mouvement féministe de David Bouchier, ou celle du mouvement gay et lesbien de Stephen Engel 29. Ainsi, en étudiant l'ensemble des mouvements sociaux des longues années soixante au Royaume-Uni pour en comprendre les interactions, à l'échelle nationale et transnationale, cette thèse tente une approche novatrice sur la question. 26 Edward HEATH, The Autobiography of Edward Heath: The Course of My Life, Londres : Hodder and Stoughton, 1988. Margaret THATCHER, The Downing Street Years, New York : Harper Collins, 1993. Harold WILSON, The Labour government, 1964-70: a personal record, Harmondsworth : Penguin Books, 1974. 27 Adam LENT, British Social Movements since 1945: Sex, Colour, Peace, and Power, New York : Palgrave, 2001. 28 Caroline HOEFFERLE, British Student Activism, op. cit. Barbara CAINE, English Feminism: 17801980, Oxford: Oxford University Press, 1997. 29 David BOUCHIER, The Feminist Challenge: The Movement for Women's Liberation in Britain and in the United States, Londres : Macmillan, 1983. Stephen M. ENGEL, The Unfinished Revolution: Social Movement Theory and the Gay and Lesbian Movement, Cambridge : Cambridge University Press, 2001. 34 Claire Mansour, Diffusion et évolution des mouvements sociaux Choix de traduction Le choix a été fait de conserver les citations dans leur langue originale afin d'éviter toute déperdition de sens. Des précautions particulières ont en revanche été prises pour ne pas mélanger le français et l'anglais dans la syntaxe d'une même phrase. Dans le cas des acronymes en anglais commençant par une voyelle, l'apocope du déterminant est systématiquement employée lorsque ces termes sont entrés dans l'usage en français, comme pour l'IRA (Irish Republican Army). Pour des raisons d'harmonie sonore, la même logique sera appliquée à l'ensemble des acronymes utilisés. Du fait des difficultés posées par la traduction de certains référents culturels et historiques n'ayant pas d'équivalent en français, il semble préférable de laisser ces vocables en anglais afin de se prémunir de tout calque. Si l'on considère l'exemple de la locution « women's centre », sa traduction la plus proche serait « centre de femmes ». Cette solution évoquerait bien le même référent à l'esprit d'un lectorat québécois, puisque ces institutions ont été créées au Canada comme dans de nombreux pays anglophones, mais elle laisserait probablement perplexe un lecteur français 30. Il faudra donc expliquer en quoi consistent ces établissements, ainsi que le contexte dans lequel ils ont vu le jour, ce qui sera fait dans le chapitre sur le mouvement féministe. L'ouvrage collectif d'Andrée Shepherd, Cécile et Jean-Paul Révauger met ainsi en garde contre les traductions trop vagues, et préconise de conserver les termes dans leur langue originale en les accompagnant d'une explication : [] la traduction approximative est pire que tout. Si un équivalent exact existe, pourvu de la même charge politique et affective que le terme de la langue de départ, il peut être employé. Mais si le moindre doute subsiste, il est immensément préférable de garder le mot dans la langue d'origine, d'assortir son utilisation d'une note détaillée la première fois qu'il est employé, et de résister à la tentation de la traduction. L'anglais 30 « Ensemble! Pan-Canadian Women's Centres Conference: From isolation to solidarity », Herizons, hiver 1995, 8, no. 4, pp. 8-9. 35 Introduction n'est pas une simple lingua franca minimale, pauvre de sens et transparente.31 Cette stratégie sera donc mise en oeuvre dans le cadre de cette étude, en prenant soin d'éclaircir les termes qui renvoient à des contextes culturels et historiques propres à la langue de départ, dans le corps de l'analyse ou bien en note de bas de page. La terminologie spécifique à chaque mouvement sera également abordée lors des introductions de chapitre. Présentation du plan Cette étude sera organisée en deux grandes parties, correspondant aux rôles et à la filiation des différents mouvements au sein du cycle de contestation des longues années soixante. La première partie se concentrera sur le mouvement précurseur du cycle et ceux qui ont émergé directement dans son sillage, tandis que la deuxième portera sur une seconde génération de mouvements dérivés des premiers. Elles seront chacune divisées en cinq chapitres, correspondant aux mouvements analysés individuellement, sauf pour les cas des mouvements nordirlandais, abordés dans le même chapitre afin de mettre en évidence les liens les unissant et de prendre en compte la spécificité de leur contexte, ainsi que pour les mouvements nationalistes gallois et écossais, traités conjointement en raison des similitudes partagées et de leur influence réciproque. Cette organisation se voudra donc à la fois chronologique, structurelle et thématique. Il convient néanmoins de préciser qu'une telle schématisation simplifie nécessairement une réalité complexe pour les besoins de l'analyse. La catégorisation en mouvements distincts ne doit pas faire oublier la porosité entre les différentes mobilisations, puisque les militants étaient souvent actifs au sein de plusieurs mouvements. De même que la filiation entre les mouvements pourrait laisser penser que la 31 Cécile REVAUGER, Jean-Paul REVAUGER et Andrée SHEPHERD, Le mémoire de civilisation britannique en maîtrise et en DEA, Bordeaux, PUB Collection « Parcours universitaire », 2000, pp. 37-38. 36 Claire Mansour, Diffusion et évolution des mouvements sociaux diffusion était toujours à sens unique, alors que pour les mouvements synchrones, l'influence pouvait être réciproque. Cependant, la classification adoptée permet aussi d'isoler la contribution de chaque mouvement au sein du cycle et de mettre en évidence leurs interactions. Les dix chapitres de la démonstration obéiront à la même logique générale, même si le détail de leur structuration variera légèrement en fonction des particularités du mouvement étudié, mais aussi dans un souci de clarté et de concision, afin d'éviter les redites. Une première sous-partie analysera les facteurs environnementaux ayant contribué à l'émergence du mouvement lors du cycle des longues années soixante, à la fois à l'échelle locale, nationale et internationale – lorsque cela est pertinent. Dans un deuxième temps, l'influence des mouvements précédents sur le mouvement étudié sera examinée. Afin de synthétiser le propos et de minimiser les répétitions, seuls les mouvements déjà évoqués sont traités dans cette section. Ainsi dans le chapitre sur le mouvement ouvrier, il n'est fait aucune mention du cas des femmes, des homosexuels ou des populations issues de l'immigration, puisque ces aspects seront développés dans des chapitres spécifiques, avec la contextualisation adéquate. Pour ces trois mouvements, les interactions avec le mouvement ouvrier ne sont d'ailleurs pas uniquement traitées comme une source d'inspiration mais comme des objectifs à atteindre, dans la mesure où ces groupes se fixaient comme but d'obtenir l'égalité sur leur lieu de travail et devaient pour cela sensibiliser les syndicats, le patronat, et leurs collègues à leur cause. En conséquence, ces développements ont donc été examinés dans la sous-partie suivante. Puis, lors de l'analyse de la transformation en mouvement de masse et de la radicalisation du mouvement considéré, on s'attachera à souligner ses spécificités et ses principaux enjeux. Enfin, il s'agira d'expliquer le déclin de la mobilisation en tenant compte de la structure des opportunités politiques, et d'évaluer son impact. 1. LES MOUVEMENTS DE PREMIERE GENERATION 1ère Partie - 1 : Mouvement pour le désarmement nucléaire Introduction Dans le cadre de cette première partie, les mouvements de la première génération du cycle de contestation des longues années soixante seront analysés. Il s'agit des mouvements qui amorçent la dynamique protestataire, et se développent durant la phase ascendante du cycle. Cette phase s'ouvre grâce à l'intervention d'un mouvement précurseur, signalant l'ouverture de la structure des opportunités politiques et introduisant des cadres et un répertoire d'action collective qui seront ensuite adaptés par les autres mouvements émergeant dans son sillage. Doug McAdam parle ainsi de « mouvement intiateur » (« initiator movement ») pour insister sur son rôle pionnier et déclencheur au sein du cycle 32. Selon lui, le mouvement pour les droits civiques des noirs américains remplit par exemple cette fonction à l'intérieur du cycle des longues années soixante aux États-Unis. Le premier chapitre de cette première partie s'efforcera de montrer que le mouvement pour le désarmement nucléaire joua un tel rôle au Royaume-Uni. Un deuxième chapitre analysera ensuite comment le mouvement contre la guerre du Vietnam descendit en ligne directe de ce mouvement précurseur, et servit de catalyseur aux autres mouvements, entraînant un tournant militant ainsi qu'une massification de la contestation. Les chapitres sur les mouvements étudiant, ouvrier et pour l'égalité raciale expliqueront chacun à leur tour comment ces mouvements, qui s'étendirent sur la quasi-totalité de la période étudiée, furent immédiatement influencés par les deux précédents. Ces cinq mouvements formèrent ainsi une première génération au sein du cycle, et jetèrent les bases sur lesquelles se développeront ensuite les mouvements de la deuxième génération. 32 Doug MCADAM, « 'Initiator' and 'Spin off' Movements: Diffusion Processes in Protest Cycles », dans Mark TRAUGOTT (éd.), Repertoires and Cycles of Collective Action, Durham : Duke University Press, 1995, pp. 217-239. 39 40 Claire Mansour, Diffusion et évolution des mouvements sociaux 1.1. LE MOUVEMENT POUR LE DESARMEMENT NUCLEAIRE Dans ce chapitre, le choix est fait de ne pas parler de mouvement pacifiste mais de mouvement pour le désarmement nucléaire. Certains spécialistes du sujet utilisent au contraire le terme de « peace movement » afin d'insister sur le degré de continuité avec les différentes traditions pacifistes britanniques : religieuses, socialistes, radicales, etc 33. Or, il s'agissait précisément d'un mouvement à part entière, émettant des revendications spécifiques portées par de nouvelles organisations formées exclusivement dans ce but. Le rôle des associations pacifistes préexistantes doit également être pris en compte, dans la mesure où elles facilitèrent l'émergence du mouvement pour le désarmement nucléaire grâce à leurs réseaux, mais aussi car elles possédaient déjà un répertoire et des cadres d'action collective qui influencèrent fortement les militants. De plus, le terme de mouvement pacifiste estompe les limites entre la mobilisation contre les armes nucléaires et celle d'opposition à la guerre du Vietnam, qui lui succéda directement. Afin d'analyser les contributions de chacun de ces mouvements, ils seront analysés dans des chapitres séparés. Les sources primaires sur lesquelles se fondera l'étude de ce mouvement sont, dans leur grande majorité, issues du magazine pacifiste Peace News, qui fut un des organes principaux du mouvement. Cet hebdomadaire contribua à l'émergence du mouvement, permettant la diffusion des tactiques et des cadres d'action collective en garantissant aux militants une couverture médiatique favorable, contrairement à la plupart des grands journaux britanniques, à l'instar du Times, qui fera également partie du corpus. D'autres articles tirés de la presse étudiante et des journaux de la gauche radicale permettront de montrer les liens du mouvement avec ces milieux. 33 Nigel YOUNG, « Tradition and innovation in the British Peace Movement: towards an analytical framework » dans Richard TAYLOR et Nigel YOUNG (éds), Campaigns for Peace: British Peace Movements in the Twentieth Century, Manchester : Manchester University Press, 1987, pp. 5-9. 1ère Partie - 1 : Mouvement pour le désarmement nucléaire 1.1.1. Émergence : facteurs environnementaux internationaux et locaux 1.1.1.1. Contexte de la guerre froide et menace nucléaire Le mouvement pour le désarmement nucléaire émergea en réaction au climat de peur instauré par la guerre froide. À l'issue de la Seconde Guerre mondiale, si les frappes nucléaires d'août 1945 sur Hiroshima et Nagasaki avaient forcé le Japon à capituler, elles n'en avaient pas moins révélé leur terrible force destructrice, et ce, malgré les estimations minorées des dégâts humains et matériels par les médias de l'époque. La course aux armements nucléaires opposant les blocs de l'Est et l'Ouest continua de plonger les populations dans un état d'angoisse latente. Les premiers tests américains de la bombe à hydrogène – censée être 500 fois plus puissante que les bombes atomiques déversées sur le Japon – avaient encore sous-estimé son potentiel dévastateur. Les retombées radioactives des essais américains du 1er mars 1954 aux îles Marshall irradièrent un bateau de pêche japonais qui se trouvait pourtant à l'extérieur de la zone proscrite. Tout l'équipage fut contaminé par les retombées radioactives et l'opérateur radio mourut sept mois plus tard des suites de cette exposition. Les récits de cet incident contribuèrent à faire prendre conscience à l'opinion publique de la dangerosité et du caractère incontrôlable de ce type d'armement 34. Certains scientifiques tentèrent également d'alerter la population en évoquant les dangers sans précédent pour l'humanité qu'ils représentaient, et la menace immédiate des retombées radioactives liées aux essais nucléaires 35. En 1956, les États-Unis poursuivirent la surenchère avec une bombe au pouvoir équivalent à 50 000 000 tonnes de TNT, dont le potentiel était 2 500 fois plus destructeur que celle larguée sur Hiroshima 34 36 . L'année suivante, l'Union des républiques Adam LENT, op. cit., p. 40. « Hiroshima: August 6 1945 – 1956 », Peace News, 3 août 1956, p. 1. « The effects of nuclear explosions », Peace News, 23 novembre 1956, p. 5. 36 « Opposition to British H-test grows », Peace News, 20 janvier 1956, p. 1. 35 41 42 Claire Mansour, Diffusion et évolution des mouvements sociaux socialistes soviétiques (URSS) répliqua au mois d'avril avec quatre explosions atmosphériques enregistrées par les stations météorologiques japonaises 37. À cette crainte de la menace nucléaire, s'ajoutait un sentiment de déclin national lié au démantèlement progressif de l'Empire britannique et au délabrement économique d'après-guerre. La crise du canal de Suez d'octobre 1956 eut un effet particulièrement néfaste sur l'influence diplomatique du pays en mettant au jour sa fragilité et sa position de relative dépendance vis-à-vis des États-Unis. Alors que l'année s'achevait, un éditorial de la revue pacifiste Peace News arguait que cet épisode avait révélé que le Royaume-Uni ne pouvait plus prétendre être une grande puissance : The result has been a further weakening of the British economy beyond that already achieved by its colossal armaments expenditure, a humiliating diminution of the moral influence of its voice in the world's councils, and a high degree of dependence on the charity and forbearance of the USA to help it out of its difficulties. 38 Les partisans du développement d'un programme nucléaire britannique indépendant, comme le Premier ministre conservateur Harold Macmillan, élu en janvier 1957, affirmaient qu'il permettrait au Royaume-Uni de recouvrer son prestige perdu et de s'affranchir de la tutelle américaine 39 . Or, les armes nucléaires furent justement au centre de la « relation spéciale » (special relationship) entre les deux pays durant la période de la guerre froide. Cette relation privilégiée reposait principalement sur une étroite coopération diplomatique et militaire par le biais des réseaux institutionnels 40. En 1952 le Royaume-Uni devint le troisième pays après les États-Unis et l'URSS à obtenir la bombe atomique, et décida de poursuivre avec le développement de la bombe à hydrogène en 1954, testée en 37 « Six questions to Russia », Peace News, 18 avril 1957, p. 1. « Great questions for 1957 », Peace News, 28 décembre 1956, p. 2. 39 « Britain 'Great' again! », Peace News, 24 mai 1957, p. 4. 40 John DUMBRELL, A Special Relationship: Anglo-American Relations from the Cold War to Iraq, 2ème éd., Basingstoke : Palgrave Macmillan, 2006, p. 4. 38 1ère Partie - 1 : Mouvement pour le désarmement nucléaire mai 1957 41. Pourtant cette année marqua également le début d'un partenariat de plus en plus étroit avec les États-Unis en matière de politique nucléaire, avec l'arrivée au pouvoir de Macmillan et le lancement du satellite soviétique Spoutnik. Cependant, loin de permettre le développement d'une force de dissuasion britannique indépendante, les différents accords accentuèrent l'ascendant des États-Unis, en leur permettant d'utiliser les bases militaires britanniques, tout en s'assurant que les décisions importantes continueraient à être prises de Washington42. 1.1.1.2. Rôle déclencheur de la mobilisation anti-Suez La campagne contre l'intervention des forces britanniques en Égypte lors de la crise du canal de Suez ouvrit la voie à la contestation populaire. Suite à l'invasion des troupes franco-britanniques et aux premières attaques contre les bases Égyptiennes le 31 octobre 1956, la réaction d'indignation d'une grande partie de la population ne se fit pas attendre. Dans les facultés, la nouvelle de l'offensive du gouvernement d'Anthony Eden donna lieu à des rassemblements et des débats enflammés dès le lendemain. À l'université de Glasgow, les discussions s'étirèrent sur plus de quatre heures dans une ambiance électrique avant de dégénérer en actes de violence 43. À Londres, une foule de manifestants réunis devant le parlement afin d'interpeller leurs députés furent brutalement dispersés par les forces de l'ordre 44 . Le 4 novembre, une manifestation à Trafalgar Square rassembla 30 000 personnes, venues d'horizons divers : étudiants, travailleurs, syndicalistes, militants de gauche, membres d'associations anticolonialistes ou religieuses, etc. L'évènement s'acheva à nouveau par des 41 « Record of nuclear explosions », Peace News, 5 juillet 1957, p. 7. Dominic SANDBROOK, Never Had It So Good, op. cit., pp. 242-6. 43 « Violent scenes over Suez », The Glasgow University Guardian, 9 novembre 1956, p. 4. 44 « What is this thing called law », The Beaver, 8 novembre 1956, p. 1. 42 43 44 Claire Mansour, Diffusion et évolution des mouvements sociaux heurts avec la police et 27 personnes furent arrêtées 45 . Plus encore que la pression exercée sur le gouvernement, ces actions contestataires entraînèrent une prise de conscience politique chez leurs participants, ainsi que la volonté de se mobiliser à nouveau. Un an plus tard, un étudiant de la London School of Economics (LSE) se remémorait ses impressions dans les termes suivants : [] the fundamental division of our world was dropped, like an unwanted baby, on our doorsteps and we found ourselves paying the affiliation order of For and Against. All too long we have sat and watched the drama from the outside looking in; last year we were on the inside ourselves, and I for one found it an unforgettable experience. 46 La manifestation du 4 novembre était la première de cette ampleur au Royaume-Uni depuis la fin de la Seconde Guerre mondiale. Selon Arthur Stanley Newens, membre de l'organisation anticolonialiste qui co-organisa l'évènement, cette action tira des milliers de Britanniques de la torpeur de l'après-guerre : « It was clear that the rally had awakened many thousands from their apathy [] The impetus did not fade as we returned to our homes and it was contagious-inspiring many who were not present, throughout the country, to oppose Eden's war » 47 . Une grande partie des manifestants présents n'avait jamais participé à une action collective auparavant 48. Les sentiments qui les animaient relevaient d'un mélange d'indignation, de colère et de honte face à l'immoralité de l'intervention franco-britannique en Égypte. Il s'agissait avant tout de montrer que ces agissements, bien que commis au nom de la nation tout entière, étaient condamnés par de nombreux Britanniques – il en allait de leur « responsabilité morale » (« moral responsibility ») 49. Cette perception des enjeux politiques en termes moraux s'avèrerait déterminante par la suite pour 45 « Britain commits aggression », Peace News, 9 novembre 1956, p. 8. « Students say no », The Beaver, 31 octobre 1957, p. 3. 47 Arthur Stanley NEWENS, « Memories of a Seminal Year », International Socialism, 112, 12 octobre 2006 [en ligne], [consulté le 26 avril 2017], disponible à l'adresse : <http://isj.org.uk/memories-of-aseminal-year/>. 48 « Sunday night », Peace News, 9 novembre 1956, p. 8. 49 « Repudiate this madness now », Peace News, 2 novembre 1956, p. 1. « LSE condemns government », The Beaver, 8 novembre 1956, p.1. « Storming the Suez », The Beaver, 8 novembre 1956, p. 2. 46 1ère Partie - 1 : Mouvement pour le désarmement nucléaire les cadres motivationnels des mouvements pour le désarmement nucléaire et l'opposition à la guerre du Vietnam. La mobilisation anti-Suez fut principalement coordonnée par les militants de l'organisation pacifiste Peace Pledge Union (PPU) et de l'association antiimpérialiste Movement for Colonial Freedom (MCF). Ces deux structures contribuèrent par la suite à l'émergence du mouvement pour le désarmement nucléaire en lui procurant une première base organisationnelle. De même, certains instigateurs des actions contre l'intervention armée en Égypte devinrent par la suite les membres fondateurs des organisations principales militant pour le désarmement nucléaire. On citera par exemple le député travailliste Fenner Brockway, président du MCF, le chanoine John Collins de la Cathédrale Saint Paul à Londres, ou encore le rédacteur adjoint de l'hebdomadaire pacifiste Peace News, Hugh Brock 50. Le révérend Donald Soper, qui deviendrait également une des figures de proue du mouvement pour le désarmement nucléaire, lançait déjà à l'époque des appels à la désobéissance civile afin de mettre un terme à l'intervention en Égypte 51. Mais le facteur qui joua probablement le rôle le plus déterminant dans l'émergence de ce mouvement fut la perception du succès de la mobilisation anti-Suez par les militants. La une d'avril 1957 de Peace News intitulée « Public opinion effective in stopping the Suez War can halt the H-test » en fut un exemple éloquent 52. Puisque la contestation populaire avait réussi à infléchir la politique du gouvernement en empêchant une nouvelle guerre, elle pouvait bien le convaincre de renoncer aux essais et aux armements nucléaires. Les meneurs du mouvement naissant en étaient également convaincus et le martelaient lors de leurs allocutions 53. 50 « Suez: A big 'no' to armed force », Peace News, 14 septembre 1956, p. 1. « End gunboat diplomacy », Peace News, 21 septembre 1956, p. 1. 51 « From Aldermaston to Christmas Island », Peace News, 12 mai 1961, p. 6. 52 « Public opinion effective in stopping the Suez War can halt the H-tests », Peace News, 18 avril 1957, p. 1. 53 « H-tests: 'The public can stop this immorality'», Peace News, 17 mai 1957, p. 1. 45 46 Claire Mansour, Diffusion et évolution des mouvements sociaux 1.1.1.3. La Nouvelle Gauche Ces évènements internationaux eurent également pour conséquence l'émergence d'un courant idéologique destiné à trouver un compromis entre le communisme soviétique et la social-démocratie, rejetée pour son acceptation tacite du système capitaliste. Tant l'invasion par les forces franco-britanniques de la zone du canal de Suez que la répression brutale de la révolution hongroise par les troupes soviétiques au début du mois de novembre 1956 furent interprétées par les fondateurs de ce courant comme des preuves de l'échec des blocs de l'Ouest et de l'Est. Stuart Hall, une des figures emblématiques de la Nouvelle Gauche 54 (New Left), insistait à la fin des années 1980, sur la portée symbolique de ces évènements et leur rôle-clé dans la formation du mouvement : « 'Hungary' and 'Suez' were thus 'liminal', boundary-marking experiences. They symbolized the break-up of the political Ice Age. The New Left came into existence in the aftermath of these two events. It attempted to define a 'third' political space somewhere between these two metaphors » 55. Les révélations de Nikita Khrouchtchev lors du XXe Congrès du Parti communiste de l'Union Soviétique dénonçant les atrocités commises sous le régime stalinien contribuèrent également au déclin du Parti communiste britannique (Communist Party of Great Britain, CPGB). C'est ainsi que dans le Yorkshire, un premier noyau d'intellectuels rassemblés autour de la publication The New Reasoner dirigée par les historiens E. P. Thompson et John Saville, se détournèrent du communisme en faveur du socialisme humaniste. En parallèle, un deuxième groupe plus jeune, composé principalement d'étudiants radicaux d'Oxford et de Londres se réunit autour de la revue University and Left Review 54 Dans le cadre de cette thèse, le terme de Nouvelle Gauche sera utilisé pour renvoyer au courant intellectuel, tandis que celui de gauche radicale fera référence aux organisations gravitant à la gauche du Parti travailliste, regroupant ainsi les organisations historiques comme le Parti communiste et les groupes marxistes créés sous l'influence de la Nouvelle Gauche. 55 Stuart HALL, « The 'First' New Left: Life and Times » dans Robin ARCHER et le OXFORD UNIVERSITY SOCIALIST DISCUSSION GROUP (éds), Out of Apathy: Voices of the New Left Thirty Years on: Papers Based on a Conference Organized by the Oxford University Socialist Discussion Group, Londres : Verso, 1989, p. 13. 47 1ère Partie - 1 : Mouvement pour le désarmement nucléaire (ULR) et de l'ULR Club en 1957. Les deux factions oeuvrèrent de concert et formèrent une Nouvelle Gauche, se démarquant par son rejet de la bureaucratie, des structures hiérarchiques verticales et rigides ainsi que de la centralisation du pouvoir qui caractérisaient selon eux la gauche traditionnelle 56. Leur collaboration prit la forme d'échanges, de rencontres et de publications communes avant d'aboutir à la fusion des deux revues en 1960 sous l'appellation New Left Review, dont le premier rédacteur en chef fut Stuart Hall. La Nouvelle Gauche était très hétérogène, comme en témoignaient ses origines, issues à la fois de la tradition ouvrière du nord industriel du pays, de la classe moyenne radicale (Fabiens, travaillistes, sociaux-démocrates, etc.) et même internationales. Le nom de Nouvelle Gauche fut emprunté aux intellectuels français gravitant autour de France Observateur et de son rédacteur en chef Claude Bourdet, à la suite d'une rencontre lors d'un congrès socialiste international à Paris 57. La diversité de la scène britannique était également due à la participation d'intellectuels provenant de différents horizons géographiques, comme Stuart Hall, d'origine jamaïcaine, ou de nombreux américains tels que C. Wright Mills ou Norman Birnbaum. La Nouvelle Gauche se distinguait aussi de la gauche traditionnelle par l'importance accordée à la culture en tant que dimension constitutive de la société. Ainsi les discussions politiques avaient lieu au café The Partisan dans le quartier bohème de Soho, mais aussi parfois lors d'évènements culturels comme des concerts de jazz, des expositions de photographies, des représentations théâtrales, etc 58 . L'organisation de ce type d'évènements, les réseaux des clubs de la Nouvelle Gauche, ses publications, ses connections internationales, ainsi que les discours de ses figures emblématiques, facilitèrent l'émergence du mouvement antinucléaire avec lequel elle ne tarda pas à être étroitement associée 59. 56 « The New Left », Peace News, 29 janvier 1960, p. 2. Ibid., p. 15. 58 Ibid., p. 29. 59 « The New Left », Peace News, 29 janvier 1960, p. 2. 57 48 Claire Mansour, Diffusion et évolution des mouvements sociaux 1.1.1.4. Ère d'opulence et culture de rébellion Les années 1950 sont généralement considérées comme une période de croissance économique dont les bénéfices commençaient à se faire sentir par la population. L'arrêt du rationnement alimentaire 1954 marqua le tournant entre la fin de l'austérité d'après-guerre et l'entrée dans l'ère du consumérisme effréné associé à la décennie suivante. Cette phase, caractérisée par un faible chômage, des salaires relativement hauts et de vastes progrès technologiques contribua à la hausse du niveau de vie moyen des Britanniques. Les réformes sociales d'aprèsguerre du gouvernement Attlee, préconisées par le rapport Beveridge (1942), avaient déjà sensiblement amélioré les conditions de vie au Royaume-Uni. En matière d'éducation, la loi du ministre conservateur Richard Austen Butler de 1944 (Education Act of 1944) fut mise en oeuvre par la travailliste Ellen Wilkinson, rendant ainsi l'enseignement gratuit et obligatoire pour tous jusqu'à l'âge de quinze ans. D'autres réformes destinées à garantir l'accès à l'enseignement supérieur aux baby-boomers furent mises en place, comme des bourses d'aide aux étudiants ou l'aménagement et la construction de nouvelles universités. Ainsi, entre 1946 et 1962, le nombre d'étudiants inscrits à l'université doubla presque (passant de 69 000 à 119 000) 60 . L'expression consacrée du Premier ministre conservateur Harold Macmillan, prononcée lors d'un discours à Bedford en 1957 – « Let's be frank about it: most of our people have never had it so good. » – résumait ce nouveau sentiment d'opulence, qui bien que loin d'être universellement partagé, était néanmoins de plus en plus répandu 61. S'inscrivant dans la continuité d'une tendance enclenchée dans les années 1930, l'essor du consumérisme ne se limitait pas à l'acquisition d'appareils électroménagers mais voyait aussi l'avènement d'un marché ciblant une nouvelle clientèle : les jeunes 62. 60 Caroline HOEFFERLE, British Student Activism, op. cit, p. 14. Dominic SANDBROOK, Never Had it So Good, op. cit., p. 80. 62 Ibid., p. 107. 61 1ère Partie - 1 : Mouvement pour le désarmement nucléaire Les jeunes se posaient désormais en groupe social distinct de leurs aînés. Pour refléter leurs préoccupations différentes, de nouveaux produits qui leur étaient spécialement destinés apparurent sur le marché : disques, films, émissions radiophoniques ou télévisées, vêtements, etc. De manière concomitante, une nouvelle culture « jeune » prit forme, se démarquant de la culture dominante associée aux générations précédentes et au système en place 63 . Des stars du rock'n'roll aux étoiles montantes du cinéma, un vent de rébellion soufflait sur la jeunesse des années 1950. Ces nouvelles idoles remettaient en question l'ordre établi et l'autorité, laissaient cours à leur frustration et exprimaient plus librement leur désir sexuel. Ce faisant, elles contribuèrent au développement d'une sorte de toile de fond, « d'arrière-plan culturel rebelle » selon l'expression de Claude Chastagner 64 , qui allait favoriser l'émergence des différents mouvements de contestation. Cependant, la jeunesse elle-même n'était pas un groupe homogène, et restait, à l'image de la société britannique, divisée selon des critères de classes sociales. Les différentes subcultures qui virent le jour au cours des années 1950 partageaient une volonté similaire de se démarquer de la culture dominante, du monde des adultes, de rejeter le consumérisme de la société d'abondance et de se rebeller contre l'autorité. Stuart Hall définissait les subcultures comme des phénomènes culturels distincts de la culture dominante, propres aux individus appartenant à un même groupe social 65. Les Teddy Boys, issus principalement des jeunes générations de la classe ouvrière, se distinguaient surtout par leur style vestimentaire particulier, inspiré de la période Edwardienne et bientôt dépeints par les médias comme des délinquants en raison de leur propension à se regrouper en bandes et à se bagarrer. Dans le cadre de l'étude du mouvement 63 Arthur MARWICK, op. cit., p. 4. Claude CHASTAGNER, Révoltes et utopies: militantisme et contre-culture dans l'Amérique des années soixante, Paris, France : Presses universitaires de France, 2012, p. 50. 65 John CLARKE, Stuart HALL, Tony JEFFERSON et Brian ROBERT, « Subcultures, cultures and class », dans Stuart HALL et Tony JEFFERSON (éds), Resistance through Rituals: Youth subcultures in postwar Britain, Abington : Routledge, Taylor & Francis Group, 2006, p. 6. 64 49 50 Claire Mansour, Diffusion et évolution des mouvements sociaux pour le désarmement nucléaire, c'est surtout la subculture de la Beat Generation américaine qui servit de substrat et devint son pendant culturel indissociable. Amateurs de jazz et de poésie, les beats rejetaient le matérialisme ambiant pour restaurer un degré de spontanéité, d'authenticité et de liberté dans leur mode de vie, à l'image de leurs idoles, les jazzmen noirs des années 1940 dont ils adoptèrent l'argot, les drogues et le style de vie bohème 66. Cette subculture fut adoptée par de nombreux jeunes de la classe moyenne britannique, grâce aux liens transatlantiques entre les artistes et les poètes beat 67 . Elle représentait les prémices de la contre-culture qui allait voir le jour dans la deuxième moitié des années soixante, influençant considérablement les mouvements sociaux de l'époque. Dans son ouvrage Bomb Culture, Jeff Nuttall raconte les premières marches pour le désarmement nucléaire et insiste sur l'atmosphère festive qui y régnait. Les cortèges défilaient fréquemment au son des cuivres des jeunes beats, dont l'entrain aurait été selon lui responsable de l'essor du mouvement 68 . L'importance de cette facette du mouvement pour le désarmement nucléaire fut à la fois passée sous silence par ses organisateurs et décriée par les médias traditionnels afin d'en accentuer ou d'en ôter la dimension politique. Ainsi, les tabloïdes enfermèrent les manifestants dans le cliché du beatnik 69 barbu portant d'épais manteaux en laine (duffle-coat) alors que les colonnes du Times leur prêtaient des moeurs déviantes comme le manque d'hygiène, l'alcoolisme ou encore un penchant pour l'exhibitionnisme 70 . Les organisateurs préféraient au contraire louer le sérieux des manifestants et de leurs motifs : « The passionate moral denunciation of the Christian, the fierce political condemnation of the socialist, the simple 'the 66 « The Beat Generation - I », Peace News, 12 août 1960, p. 5. « The roots of Beatness: The Beat Generation - II », Peace News, 9 septembre 1960, p. 5. 67 Jonathon GREEN, op. cit., pp. 26, 34-5. 68 Jeff NUTTALL, Bomb culture, Londres : Paladin, 1972, pp. 47-8. 69 En 1958, un journaliste d'un grand quotidien de San Francisco affubla les beats de ce surnom péjoratif en ajoutant le suffixe yiddish –nik. Rapidement repris par le reste de la presse mainstream, son succès venait de l'amalgame qu'il créait entre les beats et le communisme, du fait de l'analogie avec le satellite soviétique Spoutnik. Jonathon GREEN, op. cit., p. 32. 70 « On from Aldermaston », Peace News, 22 avril 1960, p. 1. « CND undercurrents », The Times, 16 avril 1963, p. 11. 1ère Partie - 1 : Mouvement pour le désarmement nucléaire bomb is wrong' of the child, the virulent industrial attack of the trade unionist, the economic argument of the student [] » 71 . Pourtant une caractéristique innovante du mouvement suscitant l'enthousiasme de ses jeunes recrues était justement les nombreux concerts de jazz rythmant défilés et rassemblements72. Au contraire, les manifestations organisées par la gauche traditionnelle paraissaient beaucoup plus sobres et suscitaient plutôt la lassitude et l'abattement des jeunes marcheurs 73. Le mouvement pour le désarmement nucléaire vit le jour grâce à la convergence de nouveaux courants politiques et culturels alternatifs apparus suite à un ensemble de bouleversements environnementaux sur la scène internationale. Ces milieux politiques et culturels permirent de sensibiliser les recrues potentielles et de les réunir pour la création d'associations spécifiquement dédiées à la cause. Leurs réseaux organisationnels participèrent ensuite à la diffusion du mouvement, tandis que leurs valeurs influencèrent son idéologie. 1.1.2. Prise de conscience et prémices du mouvement 1952-1957 1.1.2.1. Un pacifisme s'inscrivant dans la tradition de la nonviolence gandhienne Les premiers signes d'opposition aux armes nucléaires provinrent des organisations pacifistes déjà existantes. La Peace Pledge Union, créée en 1934, prônait le renoncement à la guerre et avait aidé les objecteurs de conscience durant la Seconde Guerre mondiale. Dans les années 1950, l'organisation prit le parti du désarmement nucléaire unilatéral. Déjà à cette époque, la division entre les partisans des tactiques conventionnelles et les adeptes de la désobéissance 71 « The marchers », Peace News, 27 avril 1962, p. 5. « This was Easter 1961 », Peace News, 7 avril 1961, pp. 5-6. 73 « May Day », Peace News, 8 mai 1959, p. 4. 72 51 52 Claire Mansour, Diffusion et évolution des mouvements sociaux civile qui allait continuer à diviser le mouvement anti-nucléaire était clairement observable. Une commission défendant les mérites du principe de satyagraha 74 et chargée de réfléchir à son adaptation au contexte britannique lança en décembre 1951 « l'opération Gandhi » (Operation Gandhi) sous la houlette de Hugh Brock. Ce dernier était également rédacteur adjoint du magazine Peace News (organe officiel de la PPU jusqu'en 1961), dont les nombreux articles de l'époque présentaient très régulièrement des réflexions autour de la non-violence gandhienne 75 . Comme la ligne éditoriale du magazine soutenait également les mouvements de décolonisation et d'égalité raciale, cela permit aux pacifistes britanniques de tisser des liens internationaux avec des indépendantistes africains, à l'instar de Julius Nyerere au Tanganyika (devenu l'actuelle Tanzanie après fusion avec le Zanzibar), Kwame Nkrumah en Côte d'Or (actuel Ghana), ou Kenneth Kaunda en Rhodésie du Nord (actuelle Zambie) et des militants pour les droits civiques des Afro-Américains comme Bayard Rustin. Ces canaux relationnels entre les mouvements allaient par la suite faciliter la diffusion des tactiques, cadres, symboles et slogans. Le groupe passa à l'expérimentation pratique en janvier 1952 avec l'une des techniques phare de la non-violence gandhienne : le sit-in. Onze participants s'assirent sur les marches devant le ministère de la Guerre (War Office) à Londres, tandis qu'une poignée de volontaires distribuait des prospectus destinés à sensibiliser le public. L'action ne dura pas plus d'un quart d'heure, interrompue par les forces de l'ordre 76. D'autres initiatives du même type suivirent afin de bloquer des lieux symboliques : base aérienne américaine de Mildenhall, centre de 74 Ce terme sanskrit pourrait être traduit par « force de la vérité ». Il fait référence au pouvoir de la non-violence que Gandhi considérait comme une force spirituelle capable de triompher de la force physique. 75 Sean SCALMER, « Reinventing Social Movement Repertoires: The 'Operation Gandhi'Experiment », Australian National University Research Publication, 2002, p. 3, [en ligne], [consulté le 27 mai 2016], disponible à l'adresse suivante : <https://digitalcollections.anu.edu.au/handle/1885/41812>. 76 « News in brief », The Times, 12 janvier 1952, p. 3. « Evolution of the Aldermaston resistance », Peace News, supplément de février 1959, p. III. « From the War Office to Aldermaston », Peace News, 5 mai 1961, p. 6. 1ère Partie - 1 : Mouvement pour le désarmement nucléaire recherche en microbiologie de Porton Down, établissement de recherche atomique d'Harwell ou bien, encore, à l'usine d'armement nucléaire d'Aldermaston, d'où partiraient quelques années plus tard les grandes marches anti-nucléaires 77. Les militants insistaient sur l'aspect moral de leur combat et en appelaient à la conscience de leurs compatriotes 78. En 1954, les dirigeants de la PPU demandèrent à centraliser l'organisation des manifestations, ce qui marqua le retour à des tactiques plus conventionnelles. Néanmoins, à travers leurs réflexions théoriques et leurs expérimentations pratiques, les membres de l'opération Gandhi avaient préparé le terrain pour les futures organisations antinucléaires adeptes de l'action directe. En créant un précédent sur le sol britannique, ces militants inscrivirent les techniques de non-violence gandhienne dans le répertoire national d'action collective. 1.1.2.2. Phase constitutionnelle Différentes initiatives furent prises à travers le pays par les partisans du désarmement nucléaire unilatéral lors de la première phase très modérée et restreinte du mouvement. Les dignitaires religieux abordèrent le sujet lors de leurs sermons et organisèrent des veillées afin de sensibiliser leurs fidèles. Certains, comme le révérend Donald Soper, organisèrent des marches allant de leurs églises à Trafalgar Square, réunissant souvent quelques centaines de personnes79. Même dans des villes de taille plus modeste des processions eurent lieu dans les rues 80 . Soucieux de respecter la loi et d'utiliser les moyens constitutionnels à leur disposition, d'autres entreprirent d'envoyer des pétitions à 77 « From Aldermaston to Christmas Island », Peace News, 12 mai 1961, p. 6. Sean SCALMER, « Reinventing Social Movement Repertoires », op. cit., pp. 15-16. 78 Sean SCALMER, Gandhi in the West: the Mahatma and the rise of radical protest. Cambridge : Cambridge University Press, 2011, p. 143. 79 « 'Scrap Arms' March: Now is the time to do it – Dr. Soper », Peace News, 1er février 1957, p. 1. « Vigil of women at Westminster », Peace News, 10 mai 1957, p. 1. « Don't wait for America or Russia – Canon Collins », Peace News, 24 mai 1957, p. 1. 80 « H-Bomb test brings renewed protests », Peace News, 24 mai 1957, p. 5. « Mounting H-protests », Peace News, 14 juin 1957, p. 2. 53 54 Claire Mansour, Diffusion et évolution des mouvements sociaux la reine, ou bien d'inonder leurs élus de lettres clamant leur réprobation envers les armes nucléaires 81 . Afin d'informer au mieux la population, l'hebdomadaire Peace News fut également vendu de porte à porte dans un grand nombre de villes à travers le pays. Aux yeux des tenants de l'unilatéralisme, la presse traditionnelle minorait les dangers de la poussière radioactive, et passait même sous silence les rapports officiels les dénonçant 82 . Mais ce ne fut qu'avec la formation d'organisations spécifiquement vouées à sa cause que le mouvement pour le désarmement nucléaire prit réellement son essor. 1.1.3. Apogée du mouvement : 1958-62 1.1.3.1. Formation des organisations clés En avril 1957, le livre blanc du ministre de la Défense, Duncan Sandys, marqua un tournant historique en établissant le primat de la dissuasion nucléaire sur les forces armées conventionnelles. Il annonçait entres autres la réduction des effectifs militaires, la suppression de la conscription, et réaffirmait le développement d'un programme d'armements thermonucléaires qui serait le fondement de la politique de défense nationale 83 . Les premiers essais atmosphériques de bombes à hydrogène britanniques débutèrent peu après dans le Pacifique. À l'initiative de Hugh Brock, un noyau d'anciens membres de l'opération Gandhi décida de former le Direct Action Committee Against Nuclear War (bientôt abrégé en DAC) afin de lever des fonds pour organiser l'incursion en bateau d'Harold et Sheila Steele dans la zone interdite au large de l'île Christmas. Cette expédition visait à empêcher les essais nucléaires prévus pour le mois de 81 « Rising protests on H-bomb tests », Peace News, 26 octobre 1956, p. 8. « New moves to halt tests », Peace News, 1er mars 1957, p. 1. 82 « H-dust peril: popular press plays down warning », Peace News, 15 juin 1956, p. 1. « Taking Peace News to the homes of Britain », Peace News, 10 août 1956, p. 1. 83 « A Cruel piece of deception », Peace News, 12 avril 1957, p. 1. « Disarmament : Make this our defense policy », Peace News, 12 avril 1957, p. 1. 1ère Partie - 1 : Mouvement pour le désarmement nucléaire mai 1957. Même si l'action ne put se dérouler comme prévu, le fait que des militants fussent prêts à risquer leur vie pour protester contre les armes nucléaires attira l'attention des médias internationaux 84. Ainsi, quelques mois plus tard, le Parti travailliste débattit d'une proposition visant à mettre un terme au programme nucléaire lors de sa conférence annuelle. Jusqu'alors, Aneurin Bevan – figure notoire de la gauche du parti – avait défendu le désarmement nucléaire unilatéral, affirmant qu'une arme de suicide ne pouvait être une arme de diplomatie 85. Cependant, récemment nommé ministre des Affaires étrangères du cabinet fantôme, il se rangea du côté du dirigeant du parti, Hugh Gaitskell, et condamna la motion, qui fut massivement rejetée 86 . Ce revirement surprit et mécontenta les partisans de l'unilatéralisme, avant d'accélérer la croissance du mouvement anti-nucléaire balbutiant. Un mois plus tard, le 2 novembre 1957, le romancier J. B. Priestley publia un article fort commenté pressant les Britanniques de s'embarquer dans « une croisade morale » contre les armes nucléaires dans The New Statesman87. Face à la réponse enthousiaste des lecteurs, le rédacteur en chef du journal, Kingsley Martin, rassembla un certain nombre d'intellectuels et de militants partisans du désarmement unilatéral qui s'accordèrent pour former la Campaign for Nuclear Disarmament (CND). Lancée officiellement en janvier 1958, la CND devint rapidement l'organisation majoritaire du mouvement. Contrairement au petit groupe de militants du DAC, elle prônait plutôt des tactiques conventionnelles et tenait à collaborer avec le Parti travailliste 88 . Mais cette ligne modérée strictement appliquée par ses dirigeants conduisit à la scission d'un groupe de militants plus radicaux, préférant 84 « Direct Action Committee Against Nuclear War », Peace News, 12 avril 1957, p. 1. « Harold Steele: Why I am going to the Pacific », Peace News, 17 mai 1957, p. 7. « Bomb test opponent's mission failed », The Times, 5 août 1957, p. 4. 85 « Weapon of suicide not diplomacy », Peace News, 24 mai 1957, p. 5. 86 Richard TAYLOR, « Labour Party and CND: 1957-1984 », dans TAYLOR et YOUNG (éds), op. cit., pp. 103-5. 87 « Britain and the nuclear bombs », The New Statesman, 2 novembre 1957 [en ligne], [consulté le 28 mai 2016], disponible à l'adresse suivante : <https://www.newstatesman.com/society/2007/02/nuclear-world-britain-power>. 88 Ibid., p. 107. « Campaign for nuclear disarmament launched in London », Peace News, 31 janvier 1958, p. 1. 55 56 Claire Mansour, Diffusion et évolution des mouvements sociaux les actions directes non-violentes. En octobre 1960, sous l'impulsion de l'ancien président d'honneur Bertrand Russell, le Committee of 100 (C100) fut créé afin d'impulser une nouvelle dynamique au mouvement, remplaçant bientôt le DAC 89 . La structure organisationnelle du C100 était plus horizontale et participationniste que celle de la CND, inspirée des idéaux de la Nouvelle Gauche. En lieu et place d'exécutif, le C100 était doté d'un groupe de travail auquel tous les membres pouvaient prendre part afin de décider des nouvelles actions. Le C100 de Londres ne dictait pas la ligne à suivre à ses branches régionales, mais proposait des initiatives pouvant être reprises 90. Même si la CND et le C100 réussirent à coopérer dans un premier temps, ces différences n'auraient de cesse de diviser le mouvement. 1.1.3.2. Les grandes marches de Pâques Le premier coup d'éclat du mouvement pour le désarmement nucléaire survint en avril 1958 avec l'organisation de la marche de Pâques, de Londres jusqu'au centre de recherche sur les armes nucléaires d'Aldermaston. Longue de plus de 80 kilomètres, elle débuta par un rassemblement à Trafalgar Square réunissant environ 10 000 personnes (4000 marcheurs et 6000 spectateurs) et s'acheva quatre jours plus tard par une série de discours devant une assemblée de 5000 à 8000 personnes, selon les estimations de la police ou des organisateurs respectivement 91. Cette tactique des longues marches traversant de nombreuses villes et villages allait devenir la marque de fabrique du mouvement pour le désarment nucléaire. S'il est difficile de retracer avec certitude les origines de ce type de technique de contestation, il est en revanche possible de penser que les membres du DAC, adeptes de la non-violence gandhienne, tirèrent leur 89 « Facts behind the call for civil disobedience », Peace News, 7 octobre 1960, p. 1. « Working out direct democracy », Peace News, 6 octobre 1961, p. 5. 91 « "A wide alliance" on the march to Aldermaston », The Times, 5 avril 1958, p. 6. « Scuffles as marchers reach Aldermaston », The Times, 8 avril 1958, p. 8. « Aldermaston: It's only the beginning », Peace News, 11 avril 1958, p. 1, 8. « Aldermaston rallies », Peace News, 18 avril 1958, p. 7. 90 1ère Partie - 1 : Mouvement pour le désarmement nucléaire inspiration de la marche du sel conduite par Gandhi en 1930. Longue de plus d'environ 400 kilomètres, elle avait pour but de protester contre l'impôt prélevé par l'administration coloniale sur le sel. Cependant, cette stratégie faisait déjà partie du répertoire de contestation national. En 1920, le syndicat des travailleurs non-voyants National League of the Blind (NLB) coordonna des marches partant de villes de province aux alentours de Pâques et convergeant vers Londres afin de demander davantage de prise en charge par l'État pour les personnes souffrant de cécité. Sur le chemin de la capitale, des rassemblements de quelques centaines, voire parfois quelques milliers de personnes eurent lieu. Des défilés similaires, mais de moindre succès, furent également organisés par la NLB en 1909 et 1936. De même, une série de marches de la faim (Hunger marches) réunit fréquemment jusqu'à plusieurs milliers de participants dans la période de l'entre-deux-guerres 92. Même si l'idée de la marche de Londres à Aldermaston émanait du DAC, la CND lui avait néanmoins accordé son soutien. Ainsi dans les mois suivant sa création, cette dernière connut une croissance si rapide qu'elle surprit tant ses organisateurs que les journalistes du magazine pacifiste Peace News qui rapportaient en juin : « The Campaign for Nuclear Disarmament is gaining ground all over Britain. Reports pouring into PN office tell the same story time and time again: crowded meetings, unanimous resolutions, real anxiety and moral indignation » 93. À la fin de l'année, on dénombrait 270 groupes locaux dispersés à travers le pays 94 . Mais ce qui surprit le plus les organisateurs du mouvement, fut l'engouement qu'il suscita chez les jeunes, alors supposés apolitiques et apathiques. Ils vinrent pourtant par milliers gonfler les rangs du cortège de la première grande marche de Pâques, et quelques semaines plus tard, une vingtaine d'universités avaient formé leurs propres groupes rattachés à la CND 95. Tandis que cette dernière était en passe de 92 Matthias REISS, « Forgotten Pioneers of the National Protest March: The National League of the Blind's Marches to London, 1920 & 1936 », Labour History Review, 70, no. 2, août 2005, pp. 133–65. 93 « The rising tide of protest », Peace News, 6 juin 1958 p. 2. 94 Adam LENT, op. cit., p. 42. 95 « Students and the bomb », Peace News, 2 mai 1958, p. 6. « The new vitality », Peace News, 27 mars 1959, p. 8. 57 58 Claire Mansour, Diffusion et évolution des mouvements sociaux devenir une organisation de masse, les militants du DAC se concentrèrent sur les actions directes non-violentes telles que des sit-ins, veillées, piquets de protestation, occupations et même des obstructions de sites liés au programme nucléaire. Les dirigeants de la CND jugeaient ces tactiques non-conventionnelles contre-productives et insistaient pour que leurs actions restent dans la limite de la légalité. Cette division n'empêcha pas les participants à la marche de Pâques de venir toujours plus nombreux. Le sens de la manifestation avait été inversé dès 1959 afin de garantir la présence du plus grand nombre pour le rassemblement final à Trafalgar Square. La stratégie s'avéra payante puisque celui-ci réunit 20 000 personnes en 1959, 40 000 en 1960, 100 000 en 1961 et 150 000 en 1962, lorsque les autorités interdirent l'accès à la place, forçant les militants à se réunir à Hyde Park. Au cours des années, la proportion de jeunes ne cessa de croître, de même que la présence des syndicats. Tandis que l'on en dénombrait cinq dans le cortège en 1959, 27 bannières de dénominations différentes flottaient en 1961 et encore davantage l'année suivante 96. Cette ascension s'est accompagnée d'une transformation du profil-type des marcheurs. Un article du Times décrit la première marche de Pâques comme très diverse, rassemblant des personnes de tous les âges et de milieux très différents (religieux, politiques, universitaires, etc.) 97 . Même si l'atmosphère festive était déjà présente dès 1958 à travers les groupes de jazz, les chansons folks ou les jeunes dansant le rock'n'roll, la dimension contre-culturelle s'accentua au fil des années 98. En 1962, 90% des manifestants avaient moins de 21 ans, les beats étaient de plus en plus nombreux et visibles, et le défilé prenait des airs de révolte contre l'autorité – ce qui n'échappa pas à l'attention des 96 « Aldermaston 1959 », Peace News, 3 avril 1959, p. 5. « In the square after all », Peace News, 20 mars 1959, p. 1. « On from Aldermaston », Peace News, 22 avril 1960, p. 1. « This was Easter 1961 », Peace News, 7 avril 1961, pp. 5-6. « Brotherhood not bombs », Peace News, supplément d'avril 1961, pp. 1-4. « The marchers », Peace News, 27 avril 1962, p. 5. « From Hyde Park to Grosvenor Square », Peace News, 27 avril 1962, pp. 6-7. 97 « "A wide alliance" on the march to Aldermaston », The Times, 5 avril 1958, p. 6. 98 « H-bomb protest march begins », The Times, 5 avril 1958, p 14. 1ère Partie - 1 : Mouvement pour le désarmement nucléaire médias dont le regard se fit bien plus critique 99 . De même, les récits des marcheurs rendent compte du changement de ton et d'humeur au sein du cortège. La retenue et la sobriété qui le caractérisaient jusqu'alors fut mise de côté, tandis que le décalage entre l'impatience, la fougue de la nouvelle génération et la modération des dirigeants devint plus apparent 100. 1.1.3.3. Cadrage moral de la situation Une autre particularité du mouvement pour le désarmement nucléaire fut la manière dont ses adeptes interprétèrent la situation à travers un prisme moral – caractéristique qui influencerait à son tour les autres mouvements émergeant dans son sillage. Des discours des intellectuels célèbres aux lettres dans les journaux de sympathisants lambda, la course effrénée aux armements nucléaires dans le contexte de la guerre froide était dépeinte comme une hérésie, sur le point de précipiter l'extinction du genre humain. Le gouvernement conservateur d'Harold Macmillan était considéré comme « irresponsable », notamment en raison du programme nucléaire britannique et de son alliance asymétrique conférant l'avantage aux États-Unis, comme en témoigne cette lettre d'un militant de la CND à l'éditeur du Times : « [] the government of this country is preparing, both alone and with its allies, to commit genocide on a scale hitherto uncontemplated by the great ogre figures of the past » 101 . Cet exemple met en évidence le cadre de diagnostic des militants, identifiant les armes nucléaires comme une menace pour la survie de l'humanité dont la responsabilité retombait sur les dirigeants des pays alliés du bloc de l'Ouest. Le soutien de l'opposition travailliste à la politique nucléaire du gouvernement lui valait un jugement similaire. Un slogan populaire lors des 99 Jonathon GREEN, op. cit., p. 22. « CND undercurrents », The Times, 16 avril 1963, p. 11. « From Hyde Park to Grosvenor Square », , Peace News, 27 avril 1962, pp. 6-7. 101 « Undercurrents to CND : The one essential truth », The Times, 18 avril 1963, p. 11. 100 59 60 Claire Mansour, Diffusion et évolution des mouvements sociaux rassemblements contre les essais atmosphériques de 1958 affirmait : « a vote for Bevan is a vote for the H-Bomb » 102. Afin d'encourager l'action collective, le cadre motivationnel fut construit autour de la notion de « devoir moral » (« moral duty »), selon les termes de l'avocat de militants non-violents arrêtés pour entrave aux représentants des forces de l'ordre (« obstructing the police »)103. Dès la première marche de Pâques, le président de la CND, le chanoine John Collins de la Cathédrale Saint Paul, insistait sur le choix symbolique du Vendredi Saint comme point culminant de l'évènement : « Good Friday stood supremely for moral principles, and hydrogen bombs and nuclear weapons were a supreme moral issue » 104 . Cette dimension religieuse conférait aux armes nucléaires un caractère maléfique, comme le déclarait les premiers mots de la chartre remise au Premier ministre et à l'archevêque de Cantorbéry à l'issue de la grande marche de 1959 : « In faith and in reason, we affirm our conviction that nuclear arms are wholly evil »105. Si la plupart des militants du mouvement partageait cette vision d'eux-mêmes comme des défenseurs de la morale, elle ne s'exprimait pas de la même manière. Pour les dirigeants de la CND, et notamment Collins, il convenait de donner une image respectable et solennelle du mouvement (reflétée par exemple dans l'interdiction de porter des chapeaux incongrus ou par la sobriété des banderoles caractéristiques à fond noir et lettrage blanc) et de respecter la loi 106. Les grandes marches de Pâques prenaient des allures de chemin de croix, parfois réalisés dans des conditions climatiques difficiles et de confort sommaire, afin d'attester de la force des convictions des marcheurs. En plus d'être influencée par ces valeurs chrétiennes, la démarche des militants du DAC s'inscrivait également dans la tradition gandhienne. À leurs yeux, la gravité de la menace nucléaire justifiait la non-coopération avec « les forces du mal », et donc 102 « Rocket marchers plead the 'Gandhi tradition' », The Times, 30 décembre 1958, p. 3. « Undercurrents to CND : The one essential truth », The Times, 18 avril 1963, p. 11. 104 « "A wide alliance" on the march to Aldermaston », The Times, 5 avril 1958, p. 6. 105 « The Aldermaston Charter: End the risk of total war », Peace News, 3 avril 1959, p. 1. 106 « H-bomb protest march begins », The Times, 5 avril 1958, p 14. Jeff NUTTALL, op. cit., p. 49. 103 61 1ère Partie - 1 : Mouvement pour le désarmement nucléaire l'emploi de la désobéissance civile. Plus l'action de protestation mettait en lumière la souffrance que les militants étaient prêts à endurer, plus elle prouvait leur résolution : « These marchers were willing to act in a way that cost themselves something. Here was the heart of their power. It is what Gandhi called self-suffering » 107 . Ainsi, lorsqu'ils étaient emprisonnés par les autorités, la plupart choisissaient de demeurer dans leurs geôles plutôt que de payer les cautions, comme ce fut le cas après qu'ils aient bloqué la construction de la base de missiles Thor de Swaffham, dans le Norfolk, en organisant un sit-in en décembre 1958. La police dut les déloger en les soulevant un par un, tandis qu'ils se laissaient faire. Vingt-deux d'entre eux furent arrêtés et passèrent les fêtes de fin d'années en prison 108. En ce qui concerne le cadre de pronostic, les militants étaient favorables au désarmement unilatéral afin de se poser en exemple et de contrebalancer le déclin de l'influence diplomatique du pays. Lors du rassemblement de départ de la marche de Londres à Aldermaston en 1958, le député travailliste et membre de la CND Michael Foot prédisait que le mouvement s'amplifierait jusqu'à ce que le Royaume-Uni démantèle ses installations nucléaires et montre le chemin aux autres nations 109 . Le slogan « Let Britain Lead », déjà utilisé pour lancer une semaine d'actions nationales en septembre 1959, fit la une de Peace News en avril 1960 et s'imposa comme la devise du mouvement. Lors de la marche de Pâques de 1962 certaines pancartes portaient encore l'inscription : « Britain's UNILATERAL Action Ended the Slave Trade: Let Britain Lead » 110 . Cette notion que la grandeur du pays pouvait être restaurée en devenant une puissance au rayonnement moral plutôt que militaire marqua également les mouvements de contestation suivants, notamment celui contre la guerre du Vietnam. 107 « Aldermaston: It's only the beginning », Peace News, 11 avril 1958, p. 1, 8. « What really happened at the rocket site », Peace News, 12 décembre 1958, p. 1. « Swaffham: 37 face jail », Peace News, 2 janvier 1959, p. 1. 109 « "A wide alliance" on the march to Aldermaston », The Times, 5 avril 1958, p. 6. 110 « The week opens », Peace News, 18 septembre 1959, pp. 7-8. « Let Britain lead », Peace News, 15 avril 1960, p. 1. Jodi BURKETT, « Re-Defining British Morality: 'Britishness' and the Campaign for Nuclear Disarmament 1958-68 », Twentieth Century British History, 21, n°2, 1er juin 2010, p. 188. 108 62 Claire Mansour, Diffusion et évolution des mouvements sociaux 1.1.3.4. Perspectives internationalistes Depuis ses débuts, le mouvement pour le désarmement nucléaire était ouvert sur le monde. Même si ses revendications avaient pour cible principale le gouvernement britannique, le problème de l'escalade nucléaire et les conséquences d'un éventuel conflit dépassaient les frontières nationales. Ainsi lors des marches de Pâques, des délégations représentant de nombreux pays étaient présentes. En 1960, des sympathisants venus du Pakistan, d'Inde, de Suède, de Chypre, de Malte, d'Irak, du Japon, d'Australie, de Ceylan, d'Afrique du Sud, du Nigéria, du Ghana et de France défilaient sous les bannières de leurs couleurs nationales 111 . En 1961, le nombre de militants étrangers venus spécialement pour rejoindre le cortège de la grande marche de Pâques s'élevait à 1500, selon les organisateurs 112. Lors des rassemblements, il était également très fréquent que des intellectuels de renommée internationale viennent prendre la parole. Bayard Rustin – célèbre militant pour la cause pacifiste et pour les droits civiques des noirs américains, également membre de l'équivalent outre-Atlantique du DAC – s'adressa à la foule réunie à Aldermaston lors du meeting clôturant la marche de 1958. Le pasteur Martin Niemoller, figure prestigieuse du mouvement allemand contre les armes nucléaires, en fut un autre exemple 113. Les militants britanniques réagirent également aux évènements se déroulant dans d'autres pays, notamment aux États-Unis, en planifiant par exemple des actions de soutien envers les partisans de mouvements similaires. Ainsi, suite à l'arrestation et à la détention de leurs homologues américains pour s'être introduits dans une zone d'essais nucléaires, les militants britanniques veillèrent devant l'ambassade américaine pendant 24 heures 114. 111 « 60,000 in bomb protest demonstration », The Times, 19 avril 1960, p. 10. « Aldermaston '61: 1,500 overseas marchers coming », Peace News, 10 mars 1961, p. 1. 113 « The Good Friday meeting in Trafalgar Sq. », Peace News, 18 avril 1958, p. 6. 114 « Golden Rule seized and crew arrested », Peace News, 9 mai 1958, p. 1. 112 1ère Partie - 1 : Mouvement pour le désarmement nucléaire Des liens du même type avec les mouvements d'émancipation anticoloniale permirent également l'organisation d'actions internationales et transnationales. En septembre 1959, suite à l'annonce du gouvernement français des premiers essais nucléaires aériens en Algérie, le DAC entreprit de mettre sur pied une expédition internationale (Sahara Protest Team) visant à s'introduire dans la zone de test. Grâce aux liens personnels avec le président du Ghana Kwame Nkrumah et avec les militants de la CND locale, ils choisirent d'établir leur base à Accra. Les militants britanniques, français, américains et africains furent finalement arrêtés peu après avoir franchi la frontière avec la Haute Volta (actuel Burkina Fasso)115. Ils réussirent quand même à s'attirer un fort soutien auprès de la population Ghanéenne, comme en témoignaient les dizaines de milliers de personnes présentes lors de leurs rassemblements, ainsi qu'à obtenir l'appui du gouvernement comme de l'opposition. Michael Randle, un des organisateurs britanniques de l'opération, expliquait cette ferveur par un mélange de prise de conscience du danger que représentaient les armes nucléaires et par la rancoeur des Ghanéens envers cette nouvelle forme d'impérialisme 116. Une autre forme d'action permettant une couverture médiatique internationale fut celle des marches transnationales. En plus d'arpenter leur propre pays d'un bout à l'autre en organisant des marches de la côte Est à la côte Ouest et du Sud au Nord (de Londres jusqu'à Holy Loch en Écosse), les militants appliquèrent la même stratégie en traversant les frontières 117. Même s'ils furent peu nombreux à prendre part à de telles entreprises, certains participants n'hésitèrent pas à marcher plusieurs centaines, voire milliers de kilomètres. En 1959, un militant marcha par exemple de Londres jusqu'à la base militaire 115 « French tests: protest team meets in Ghana », Peace News, 23 octobre 1959, p. 1. « Ghanaians volunteer for A-protest team », Peace News, 13 novembre 1959, p. 1. « Sahara team held at border », Peace News, 18 novembre 1959, p. 1. 116 « United Ghana backs Sahara protest », Peace News, 27 novembre 1959, p. 1. « Sahara protest: meeting the people », Peace News, 27 novembre 1959, p. 1, 8. 117 « 140-mile marchers », Peace News, 4 juillet 1958, p. 8. « March to Holy Loch starts on Monday », Peace News, 31 mars 1961, p. 10. 63 64 Claire Mansour, Diffusion et évolution des mouvements sociaux britannique de Dortmund, en Allemagne de l'Ouest, tandis qu'un groupe rallia Paris, où se tenait un sommet international, à l'issue de la grande marche de Pâques de 1960 118 . Mais certaines de ces manifestations furent également organisées conjointement par les sympathisants de plusieurs pays. Le DAC et son équivalent américain orchestrèrent ainsi une marche pour la paix de San Francisco à Moscou qui dura dix mois. Une dizaine de personnes quittèrent San Francisco le 1er décembre 1960, avant d'être rejoints à Londres par des Britanniques et des Scandinaves. Au cours de ce périple de presque 10 000 kilomètres, les participants prirent part à de nombreuses manifestations et rassemblements anti-nucléaires. Au Royaume-Uni, après s'être réunis à Trafalgar Square, les quelque milliers de militants présents les escortèrent jusqu'à la base militaire d'Aldermaston, retraçant ainsi l'itinéraire des cortèges des grandes marches de Pâques, dont la notoriété avait contribué à l'essor du mouvement à travers le monde 119. La délégation parvint contre toute attente à franchir le rideau de fer et atteignit la place Rouge le 3 octobre 1961 120 . Cette vision internationaliste du mouvement pour le désarmement nucléaire allait devenir une autre des caractéristiques marquantes des mouvements des longues années soixante. 1.1.3.5. Diffusion outre-Atlantique et à travers le monde Les similitudes entre les actions menées par les mouvements pour le désarmement nucléaire aux États-Unis et au Royaume-Uni, ainsi que leur déroulement chronologique, indiquent la présence d'un phénomène de diffusion à double sens de part et d'autre de l'Atlantique. Le mouvement britannique étant 118 « Rocket base action in Dortmund », Peace News, 3 juillet 1959, p. 8. « On from Aldermaston », Peace News, 22 avril 1960, p. 1. 119 « U.S.-Moscow walkers at Aldermaston », Peace News, 9 juin 1961, p. 1. 120 « Unilateralists in the Red Square », Peace News, 6 octobre 1961, p. 10. Gunter WERNICKE et Lawrence S. WITTNER, « Lifting the Iron Curtain: The Peace March to Moscow of 1960–1961 », The International History Review 21, no. 4, 1999, p. 913. 1ère Partie - 1 : Mouvement pour le désarmement nucléaire historiquement le premier, mais également le plus rayonnant, la diffusion eut d'abord lieu de la Grande-Bretagne vers son ancienne colonie. Au niveau des canaux non-relationnels ayant permis la diffusion, le sentiment des militants de partager un certain nombre de similarités culturelles avec leurs équivalents d'outre-Atlantique joua un rôle prépondérant. Les deux pays traversaient une période de relative prospérité, de consumérisme grandissant, d'accroissement démographique et d'accès élargi à l'éducation et à l'enseignement supérieur. Les liens entre les milieux de la subculture beat et de la Nouvelle Gauche facilitèrent également sa diffusion. La défense des valeurs communes au bloc de l'Ouest dans le contexte global de la guerre froide, la course aux armements nucléaires et la « relation spéciale » entre Londres et Washington suscitaient une réaction semblable de rejet parmi une certaine frange de la population. L'impression des militants des deux pays d'être dans une situation analogue créa l'identification permettant ensuite l'adoption d'éléments du mouvement concurrent. Les médias traditionnels et alternatifs servirent également de canaux non-relationnels contribuant à informer les militants des deux côtés de l'Atlantique des innovations de leurs homologues. L'hebdomadaire britannique Peace News était par exemple disponible aux États-Unis, comme l'indiquait le prix en dollar sur ses couvertures. Même des petits quotidiens régionaux à l'étranger couvrirent les actions des pacifistes, comme le prouve le cas d'un membre de la CND voyageant en Suisse et découvrant la photo de ses camarades dans les pages d'une gazette locale 121. Des canaux relationnels facilitèrent le transfert par le biais de correspondances, de conversations téléphoniques entre les militants ou même de déplacements personnels et ce, dès le début. L'exemple le plus significatif fut probablement celui du militant noir américain Bayard Rustin. À la fois membre de groupes défendant le désarmement nucléaire et les droits civiques, il participa à la première grande marche de Pâques en 1958 et s'adressa à la foule des participants. Son discours mit en lumière les parallèles entre les deux 121 « People and places: 'what next?'», Peace News, 13 février 1959, p. 3. 65 66 Claire Mansour, Diffusion et évolution des mouvements sociaux mouvements et leur crédo de désobéissance civile non-violente héritée de Gandhi : We cannot find political expression in Washington. This means there must be a new responsibility amongst people, and nothing short of a social organisation of personal responsibility will do it. We must use our bodies in direct action, non-cooperation, whatever is required to bring our Government to its senses.[] we must take the motto used by the Negroes in Montgomery. Although they are lynched, beaten, discriminated against, they accept the slogan: 'We shall not co-operate with Government or authority where it is wrong, but, on the other hand, when we protest we do it on the understanding that not one hair of one white person is to be harmed in our struggle. We are non-violent because injury to one is injury to all.' 122 Bien que les conditions de vie des partisans du désarmement nucléaire au Royaume-Uni et des noirs aux États-Unis fussent très différentes, ils partageaient une impression semblable de ne pas être entendus par leurs gouvernants. Cette perception engendra la même conviction que l'action directe et de la désobéissance civile étaient les seuls moyens d'infléchir les politiques de leurs gouvernements respectifs. Favorablement impressionné par la marche de Londres à Aldermaston, Rustin reconnut s'en être inspiré pour organiser la marche de San Francisco à Moscou en 1961, mais aussi la célèbre marche sur Washington pour l'emploi et la liberté (March on Washington for jobs and freedom) de 1963, à l'issue de laquelle Martin Luther King prononça son fameux discours « I have a dream » 123 . Ce dernier était également en contact avec des militants britanniques avec qui il correspondait régulièrement et envoyait ses écrits relatant son combat contre la ségrégation dans le Sud des États-Unis. Ils contenaient notamment des conseils concrets décrivant étape par étape l'organisation d'actions directes non-violentes 124. Certains Américains résidant au Royaume-Uni renforcèrent ces liens entre les deux pays, comme par exemple Theodore Roszak 122 « The Good Friday meeting in Trafalgar Sq. », Peace News, 18 avril 1958, p. 6. « The organisation that launched the march to Moscow », Peace News, 2 juin 1961, p. 2. Lawrence WITTNER, Resisting the Bomb, op. cit., p. 49. 124 « People and places: desegregation means hard work », Peace News, 13 février 1959, p. 3. 123 1ère Partie - 1 : Mouvement pour le désarmement nucléaire ou Gene Sharp qui furent tous deux respectivement rédacteur en chef et rédacteur adjoint de Peace News. Lors d'un discours adressé à la foule des manifestants réunis à la base aérienne de Brize Norton dans le comté d'Oxford, Gene Sharp exhorta par exemple les Britanniques à s'inspirer des techniques de désobéissance civile utilisées par leurs homologues américains, quitte à remplir les prisons afin de sauver des vies à travers le monde 125. De même, la structure des deux mouvements était très semblable. Les deux organisations majoritaires, CND et SANE (National Committee for a Sane Nuclear Policy) étaient relativement modérées et partisanes de tactiques constitutionnelles. SANE prit son essor suite à la publication le 15 novembre 1957 dans The New York Times d'une déclaration alertant la population contre la menace nucléaire par le biais d'un cadrage moral de la situation, qui produisit un effet similaire à l'article de Priestley, parut quelques jours plus tôt dans The New Statesman126. L'évolution des revendications passant de l'arrêt des tests nucléaires au désarmement nucléaire en général se produisit en décembre 1957 pour le mouvement britannique, qui fut bientôt suivi par son équivalent américain 127 . Toutefois, SANE demeura en faveur d'un accord multilatéral plutôt que du désarmement unilatéral, contrairement à la CND. Une association nommée Committee for Non-Violent Action 128 (CNVA) fut formée trois mois après son équivalent britannique – le DAC – en août 1957, par des militants également désireux d'appliquer les techniques de désobéissance civile de Gandhi 129 . La tentative d'Harold Steele de pénétrer dans la zone d'essais nucléaires de l'île Christmas en mai 1957, bien que soldée par un échec, fut reprise par des membres du CNVA. Dans un entretien avec un journaliste de Peace News, Bayard Rustin expliquait que ce fut par l'entremise de ce même journal que les militants 125 « "No victory without action": PN staffman at Brize Norton », Peace News, 6 juin 1958, p. 3. Lawrence WITTNER, Resisting the Bomb, op. cit., p. 52. 127 Ibid., p. 54. 128 Il fut initialement créé sous l'appellation Non-Violent Action Against Nuclear Weapons mais changea en 1959 pour CNVA, nom sous lequel il est généralement plus connu. 129 « Eleven against the bomb defy law – arrested in Nevada test area », Peace News, 9 août 1957, p. 1. 126 67 68 Claire Mansour, Diffusion et évolution des mouvements sociaux américains eurent vent de ses exploits et décidèrent de les reproduire : « CNVA really got going when it organised the voyage of the 'Golden Rule' in an attempt to halt US Hbomb tests in the pacific – a project inspired by the Peace News reports of Harold Steele's attempts to reach Christmas Island »130. En juin 1958, Albert Bigelow entreprit de se rendre dans la zone de test des îles Marshall à bord du Golden Rule mais fut arrêté à Hawaï 131. Earle Reynolds y parvint finalement, le 1er juillet, avant d'être à son tour appréhendé le lendemain par les garde-côtes 132. En 1961, ce dernier repartit vers Vladivostok afin de tenter de bloquer les essais nucléaires soviétiques 133 . Cette technique, permettant aux militants à la fois de s'opposer directement aux essais nucléaires mais aussi d'attirer l'attention des médias internationaux, allait continuer à être utilisée au cours des longues années soixante, notamment par l'organisation Greenpeace (voir chapitre sur le mouvement écologiste). Suite à la grande marche de Pâques de Londres à Aldermaston en 1958, certains militants continuèrent à camper devant les portes de l'usine d'armements pendant une semaine, une technique qu'ils baptisèrent « veillée atomique » (« atomic vigil »). À cette occasion, ils en profitèrent pour ouvrir le dialogue avec les ouvriers et les habitants des environs afin d'éveiller les consciences 134 . Cette tactique fut ensuite adoptée par les Américains, qui organisèrent des campements tout à fait similaires à Cape Canaveral, en Floride, devant une zone d'essais balistiques à Cheyenne, dans le Wyoming, où une base de missiles nucléaires était en cours de construction. Son utilisation se répandit également au Royaume-Uni où un nouveau camp fut dressé pour une durée de neuf semaines devant l'usine d'Aldermaston afin de sensibiliser les employés et les habitants des environs. D'autres sites firent ensuite l'objet d'un traitement analogue, à l'instar de la base 130 « The organisation that launched the march to Moscow », Peace News, 2 juin 1961, p. 2. « "Golden Rule" to sail again », Peace News, 6 juin 1958, p. 1. 132 Lawrence WITTNER, Resisting the Bomb, op. cit., pp. 55-56. 133 « The Phoenix sails again to Vladivostok », Peace News, 22 septembre 1961, p. 12. 134 « Aldermaston vigillers asked to see Penney », Peace News, 18 avril 1958, p. 1. 131 1ère Partie - 1 : Mouvement pour le désarmement nucléaire américaine de Brize Norton, près d'Oxford 135. Le pas suivant fut franchi par les militants de Cheyenne, au mois d'août, qui finirent par pénétrer illégalement à l'intérieur du chantier afin de bloquer la construction de la base de missiles. Deux d'entre eux furent emprisonnés 136 . Si les Britanniques de l'opération Gandhi avaient déjà eu recours à cette même technique en 1952, elle ne fut réemployée qu'après la publication des récits des évènements de Cheyenne. En décembre, les membres du DAC se rendirent à Swaffham dans le Norfolk, afin de bloquer la construction d'une base de missiles Thor. Au cours du mois, il y eut une série de manifestations et d'obstructions non-violentes. Les protestataires s'allongeaient ou s'asseyaient devant les camions afin de leur barrer le passage, et se laissaient ensuite aller sans résister lorsque les policiers les délogeaient 137. Un autre exemple de diffusion des États-Unis vers le Royaume-Uni eut lieu dans le cadre de la résistance contre le projet Polaris, objet de colère des deux côtés de l'Atlantique. À l'automne 1960, des militants du CNVA abordèrent deux sous-marins nucléaires américains lanceurs de missiles Polaris. Leur succès retentissant fut narré en détails dans les colonnes de Peace News et même rapporté dans les journaux traditionnels 138 . Lorsque ces mêmes sous-marins traversèrent l'océan pour jeter l'ancre à la base d'Holy Loch en Écosse, les militants britanniques entreprirent à leur tour d'aborder les sous-marins et le navire ravitailleur Proteus qui les accompagnait. Si les canoës des pacifistes ne firent pas le poids face à l'arsenal militaire déployé par les autorités et furent rapidement immobilisés lors de leur première tentative au début du mois de mars 1961, d'autres s'avérèrent plus fructueuses. À la fin du mois, trois militants parvinrent à monter sur le pont de l'un des sous-marins. En avril, ils tentèrent d'empêcher le Proteus de quitter le quai pour effectuer des exercices navals en lui barrant la route avec leurs canoës. 135 « March on H-base », Peace News, 9 mai 1958, p. 8. « Return to Aldermaston: nine week camp at atom plant – in the USA too », Peace News, 4 juillet 1958, p. 1. 136 « Missile base protesters jailed: Cheyenne resistance continues », Peace News, 29 août 1958, p. 1. 137 « Second rocket base struggle », The Times, 8 décembre 1958, p. 10. 138 « How we boarded Polaris submarines », Peace News, 18 novembre 1960, pp. 1, 12. « News in brief », The Times, 23 novembre 1960, p. 9. 69 70 Claire Mansour, Diffusion et évolution des mouvements sociaux Au mois de mai, ils furent des dizaines à lancer un assaut coordonné et à être repoussés avec force par les policiers et l'équipage américain 139 . Une dizaine d'années plus tard, les membres de Greenpeace adapteraient encore cette tactique en interposant leurs esquifs devant les baleiniers pour les empêcher de tirer au harpon sur les cétacés (voir le chapitre sur le mouvement écologiste). Le mouvement pour le désarmement nucléaire britannique ne fit pas seulement l'objet d'un processus de diffusion à double sens avec son équivalent américain, mais constitua également un modèle adapté en Europe et dans le Commonwealth. Des organisations semblables à la CND furent formées en Scandinavie, tandis que les pays du « vieux Commonwealth » suivirent la voie de l'association britannique, allant même jusqu'à emprunter son nom au Canada et en Nouvelle-Zélande. La tactique de la marche de Pâques partant d'une usine d'armements nucléaires, ou autre lieu symbolique, jusqu'à la capitale fut reproduite en Italie, au Danemark, aux Pays-Bas, en Allemagne de l'Ouest et en Grèce, où les manifestants marchaient de Marathon à Athènes 140. En 1964, des dizaines de milliers de personnes parcoururent les 42 kilomètres séparant Marathon d'Athènes et environ 300 000 assistèrent au rassemblement final. L'influence britannique fut largement revendiquée, le groupe organisateur créé en 1962 ayant choisi l'appellation Bertrand Russel Youth Society for Nuclear Disarmament en hommage au philosophe militant du même nom 141 . Le contexte de cette marche était particulièrement tendu, du fait du meurtre du député et militant antinucléaire Grigoris Lambrakis l'année précédente. Après avoir porté la bannière grecque lors de la grande marche de Pâques de 1963 en Angleterre, il avait été, 139 « Holy Loch action », Peace News, 17 mars 1961, p. 7. « Three board sub in the Holy Loch », Peace News, 31 mars 1961, p. 9. « How we boarded the Proteus », Peace News, 21 avril 1961, p. 12. « Principles, strategy and tactics at the Holy Loch », Peace News, 26 mai 1961, p. 4. 140 « Ban-the-bomb campaigners meet RAF at base », Peace News, 21 octobre 1960, p. 12. « Brotherhood, not bombs », Peace News, 7 avril 1961, p. 1. « Easter abroad », Peace News, 14 avril 1961, pp. 5, 6. « The international movement », Peace News, 20 avril 1962, p. 3. Michael FREY, « The International Peace Movement », dans Martin KLIMKE et Joachim SCHARLOTH (éds), 1968 in Europe – A History of Protest and Activism 1956-1977, New York : Palgrave Macmillan, 2008, p. 39. 141 « March of victory from Marathon to Athens », Peace News, 5 juin 1964, p. 3. 1ère Partie - 1 : Mouvement pour le désarmement nucléaire une dizaine de jours plus tard, le seul participant à pouvoir terminer la première marche de Marathon à Athènes, interdite par le gouvernement. Grâce à son immunité parlementaire, il n'avait pas fait partie des 2000 personnes arrêtées par les forces de l'ordre. Il fut assassiné deux mois plus tard par des militants d'extrême droite, vraissemblablement en raison de ses activités militantes 142. Sa mort galvanisa l'opposition au gouvernement, notamment par l'entremise des mobilisations pacifistes et antinucléaires. Dans certains pays, comme en Allemagne de l'Ouest, une forme de tuilage entre les militants facilita la diffusion. En août 1959, des vétérans de l'action de Swaffham se rendirent à la base de missiles britanniques de Dortmund et organisèrent son obstruction non-violente avec quelques 350 protestataires allemands 143. Mais l'élément le plus repris fut incontestablement l'emblème du DAC et de la CND. Peu avant la première marche vers Aldermaston en 1958, l'artiste britannique Gerald Holtom dessina une croix chrétienne brisée et inversée au milieu d'un cercle représentant à la fois le désespoir de l'humanité face à la menace nucléaire et les signaux sémaphores « N » et « D » pour « Nuclear Disarmament » 144. Ce signe avait l'avantage d'être réversible et donc bien visible des deux côtés lors des manifestations. Les militants le dessinèrent ensuite sur des pancartes caractéristiques en forme de sucettes (« lollipops ») brandies lors du défilé. Au vu du succès de l'évènement, les deux organisations l'adoptèrent officiellement. Son utilisation se propagea à l'étranger, en même temps que les techniques de contestation, pour finalement devenir un symbole universel de paix, comme allait en témoigné son emploi lors de des mobilisations contre la guerre du Vietnam (voir annexe 1, 2 et 3). 142 Ibid. « Direct action in Denmark and Germany: dockside campaign against missiles », Peace News, 14 août 1959, p. 1. 144 « The ND symbol », Peace News, 2 juin 1961, p. 6. 143 71 72 Claire Mansour, Diffusion et évolution des mouvements sociaux 1.1.4. Déclin 1.1.4.1. Divisions internes Une des causes permettant d'expliquer le déclin du mouvement pour le désarmement nucléaire fut les divisions entre, d'une part, les modérés, représentés par les dirigeants de la CND, prônant la collaboration avec le Parti travailliste pour changer la politique nucléaire du pays et souhaitant faire usage de tactiques constitutionnelles ; d'autre part, les militants plus radicaux, incarnés par le C100, souhaitant transformer la société et ses institutions en profondeur par le biais de la désobéissance civile 145. Cette ligne de fracture s'était aggravée suite au rejet de la résolution unilatéraliste lors de la conférence du Parti travailliste de 1961. L'année précédente, la proposition avait pourtant été votée grâce à l'appui des syndicats 146. Mais le dirigeant du parti, Hugh Gaitskell, y était ardemment opposé, et reformula le débat autour de l'unité du parti afin d'éviter une quatrième défaite lors des élections générales. Comme les espoirs de la CND reposaient sur le Parti travailliste, ce revirement exacerba les tensions au sein du mouvement. Ce changement de cap rendait de fait la stratégie de la CND caduque : The Brighton conference, then, represents something of a crisis for CND, for its policies have always been based round the hope of capturing the Labour Party. In many ways CND's policies had more relevance in 1958 than they have in 1962. In 1958 it was easier than it is now to suppose that the Labour Party was fundamentally a party of peace. 147 L'arrivée d'Harold Wilson à la tête du parti et bientôt du gouvernement, n'inversa pas la tendance. Bien qu'ayant remis en question l'accord sur les missiles Polaris signé par Macmillan dans le manifeste précédant son élection, Wilson poursuivit 145 « Is it revolution we're after? », Peace News, 10 mars 1961, p. 9. « Plans to consolidate the victory », Peace News, 14 octobre 1960, p. 1. 147 « The party's over », Peace News, 5 octobre 1962, p. 1. 146 1ère Partie - 1 : Mouvement pour le désarmement nucléaire dans la même veine que son prédécesseur, contribuant ainsi à l'éloignement entre la CND et le parti, et donc au déclin de l'organisation 148. Les divergences sur les tactiques avaient aussi contribué à scinder le mouvement. Les militants radicaux reprochaient aux dirigeants de la CND leur immobilisme, tandis que ces derniers les considéraient comme des hors-la-loi en raison de leurs pratiques parfois illégales, vues comme une déroute éthique 149. La grande marche de Pâques de 1963 révéla ces fractures au grand jour. Frustrés par le sentiment que la direction de la CND était déconnectée de la base du mouvement, une partie des manifestants refusa d'obéir aux consignes et fit preuve d'incivilité, ce qui contrastait fortement avec la discipline habituelle du cortège 150. Alors qu'entre 1958 et 1962 le nombre de marcheurs d'Aldermaston à Londres n'avait cessé d'augmenter, en 1963 il chuta à 70 000 lors du rassemblement final, selon les chiffres des organisateurs 151 . Des échauffourées entre manifestants et policiers éclatèrent, tandis que le C100 lança une action séparée, en marge du cortège, ce qui aggrava les querelles entre les deux factions du mouvement. L'année suivante, l'évènement fut limité à une seule journée d'action qui ne réunit que 20 000 participants 152. Ces turbulences étaient à la fois la cause et le reflet des tensions au sein de la mobilisation, et s'expliquaient également par l'approche de plus en plus répressive du gouvernement, mettant le crédo de non-violence des militants à dure épreuve. 148 Richard TAYLOR dans Richard TAYLOR et Nigel YOUNG (éds), op. cit., p. 120. « There's room for all », Peace News, 10 mars 1961, p. 7. 150 « A question of leadership », Peace News, 19 avril 1963, p. 4. 151 « Aldermaston – London 1963 », Peace News, 19 avril 1963, p. 9. 152 April CARTER, Peace Movements: International Protest and World Politics Since 1945, New York : Routledge, 2014, pp. 52-3. 149 73 74 Claire Mansour, Diffusion et évolution des mouvements sociaux 1.1.4.2. Signal d'ouverture de la structure des opportunités politiques Face à la montée de la contestation, les autorités durcirent le ton – un changement d'attitude qui révélait à la fois l'efficacité des stratégies employées par les militants et leur propre vulnérabilité. Elles entreprirent d'empêcher l'organisation d'actions collectives en les interdisant directement ou en barrant l'accès aux points de rendez-vous, et de dissuader les militants d'y prendre part, par le biais d'arrestations de masse et l'alourdissement des sanctions pénales. Le rassemblement du 17 septembre 1961 à Trafalgar Square fut par exemple interdit, ce qui n'empêcha pas une foule d'environ 12 000 manifestants de s'y réunir, mais se termina avec l'arrestation de 1314 personnes par les forces de l'ordre. La moitié d'entre elles refusa de payer les cautions et passa la nuit en prison, avant de comparaître devant les tribunaux le lendemain. Lors de cette même fin de semaine, 350 militants furent également arrêtés en Écosse, aux abords du Holy Loch, où ils participaient à un sit-in 153. En mars 1962, 1172 personnes furent à nouveau appréhendées à l'issue d'un rassemblement à Parliament Square 154. Les peines de prison encourues se faisaient de plus en plus longues – passant de quelques jours à plusieurs mois – avec la condamnation de six des membres du C100 à des sentences allant de 12 à 18 mois d'emprisonnement en février 1962 155. Ce phénomène s'accompagna d'un traitement médiatique du mouvement beaucoup moins favorable, légitimant le durcissement de la répression policière. Les militants unilatéralistes étaient fréquemment dépeints comme des délinquants au comportement violent, contrastant avec la retenue des policiers. Un article du Times relatant le sit-in interdit du 17 septembre 1961 insistait sur le comportement agressif des manifestants décrits comme une foule en furie : « Earlier there was 153 « 1,314 arrests in Trafalgar Square disorders », The Times, 18 septembre 1961, p. 10. « London and Holy Loch postscript », Peace News, 22 septembre 1961, p. 11. 154 « The twenty megaton bomb », Peace News, 30 mars 1962, p. 1. 155 « Prison for six members of Committee of 100 », The Times, 21 février 1962, p. 6. « The verdict is guilty, but has Regina won? », Peace News, 23 février 1962, p. 1. 1ère Partie - 1 : Mouvement pour le désarmement nucléaire isolated fighting and constant jostlings as swaying, jeering crowds shouted insults at the police as they placed demonstrators in the waiting vehicles ». Le seul sous-entendu concernant la brutalité des policiers provenait d'un député travailliste qui la contrebalançait en louant aussi leur civilité : « the police acted with very great restraint, but there were a few ugly incidents »156. Le magazine Peace News prit le parti inverse et publia des extraits de lettres de manifestants ou de passants témoins de la violence de certains agents de police, comme par exemple le cas de deux femmes et d'un homme d'une cinquantaine d'année, jetés par six policiers dans une fontaine, ou bien celui d'un agent encourageant son collègue à frapper plus fort un manifestant 157 . Quelques mois plus tard, un éditorial du Times alla même jusqu'à avancer que le mouvement était tombé aux mains de fauteurs de troubles anarchistes. D'autres journaux n'hésitèrent pas à prêter des propos inventés à des membres de la CND, accusant l'organisation d'être infiltrée et manipulée par des communistes – ce qui dans le contexte de la guerre froide était une atteinte grave à sa réputation 158. En juin 1963, les locaux du C100 ainsi que les domiciles de cinq de ses membres, furent perquisitionnés par les forces de l'ordre. Les policiers emportèrent des documents concernant les préparatifs d'une action non-violente au centre de recherche en microbiologie de Porton Down et confisquèrent des pamphlets, mais il n'y eut aucune suite judiciaire 159 . Loin de les dissuader de continuer leurs activités, le comportement des autorités galvanisa les membres du C100, voyant dans cette hausse de la répression le signe que leur mobilisation portait ses fruits : « We're delighted that the government is recognising the seriousness of our challenge to its war preparations. Far from deterring us, this has stimulated our activity »160. Le signal de l'ouverture de la structure des opportunités politiques était également dû à la perception du succès du mouvement pour le désarmement 156 « 1,314 arrests in Trafalgar Square disorders », The Times, 18 septembre 1961, p. 10. « Police violence », Peace News, 29 septembre 1961, p. 12. 158 « Alan Clayton: why I resigned from CND », Peace News, 1er juin 1962, p. 8. « CND undercurrents », The Times, 16 avril 1963, p. 11. 159 « Undeterred », Peace News, 28 juin 1963, p. 1. 160 Ibid. 157 75 76 Claire Mansour, Diffusion et évolution des mouvements sociaux nucléaire au Royaume-Uni, mais aussi aux États-Unis. En août 1963, la signature du Traité d'interdiction partielle des essais nucléaires engageant les gouvernements soviétique, américain et britannique à mettre un terme aux tests atmosphériques et sous-marins fut considérée comme une victoire par les militants 161. Le début de la détente, amorcée suite à la crise des missiles de Cuba d'octobre 1962, semblait également faire reculer la menace d'une guerre atomique. Après avoir conduit le monde au bord d'un conflit nucléaire, la résolution pacifique de cet évènement prouvait, selon les termes d'un journaliste de Peace News, que les deux grandes puissances étaient finalement « plutôt saines d'esprit » (« acting with some degree of sanity »)162. L'installation de la ligne directe du téléphone rouge entre le Kremlin et la Maison Blanche, visant à éviter un nouvel incident, marquait également l'apaisement des relations entre les deux blocs. Ainsi, l'obtention d'un certain nombre de leurs demandes contribua à pousser les militants à se tourner vers d'autres causes, notamment l'opposition à la guerre du Vietnam, tandis que d'autres groupes prenaient note que le moment était opportun pour faire valoir leurs propres revendications. 1.1.4.3. Conclusion et impact du mouvement L'impact du mouvement pour le désarmement nucléaire reste très controversé. Si l'on juge son succès à l'aune de sa revendication principale, le désarmement unilatéral, on peut affirmer sans risque que le mouvement a échoué. Certains commentateurs soutiennent d'ailleurs sans détour qu'il n'eut qu'une influence très limitée sur les lignes politiques du gouvernement et de l'opposition 163. Néanmoins, la réaction de l'exécutif de lancer dans un premier temps une campagne défendant sa position face à la montée en puissance du 161 « Is CND finished? », Peace News, 20 septembre 1963, p. 1. « The party's over », Peace News, 5 octobre 1962, p. 1. 163 Dominic SANDBROOK, Never Had It So Good, op. cit., p. 274. Richard TAYLOR dans Richard TAYLOR and Nigel YOUNG (éds), op. cit., p. 127. Jonathon GREEN, op. cit., p. 13. 162 1ère Partie - 1 : Mouvement pour le désarmement nucléaire mouvement, et dans un deuxième temps de réprimer ses manifestations, semble indiquer que ce dernier était perçu comme une menace sérieuse par la sphère politique. De plus, l'accès bloqué à certains dossiers d'archives gouvernementales pour les cent prochaines années laisse l'historien Lawrence Wittner supposer que le gouvernement aurait pu avoir recours à des techniques illégales destinées à saboter la mobilisation 164. Wittner souligne également que le mouvement réussit à sensibiliser la population au danger des armes nucléaires et à ouvrir le débat public. Il voit dans la baisse de la mobilisation faisant suite au Traité d'interdiction partielle des essais nucléaires de 1963 le signe que les participants avaient interprété ce dernier comme une victoire, comme une preuve que leur contestation avait réussi à infléchir la politique des conservateurs au pouvoir 165. C'était justement cette perception du succès du mouvement et de l'efficacité de sa stratégie, forçant les autorités à se mettre sur la défensive, qui signalait l'ouverture de la structure des opportunités politiques aux autres groupes de militants. Le mouvement pour le désarmement nucléaire joua véritablement un rôle précurseur au sein du cycle de contestation des longues années soixante, ouvrant la voie aux mouvements suivants. En fournissant un exemple local de l'emploi des techniques de non-violence gandhienne, il permit de les inscrire dans le répertoire national d'action collective, ce qui les allait faciliter leur réutilisation par les militants des mouvements suivants. Il contribua également à l'éveil de leur conscience politique et à l'acquisition d'une première expérience de participation à des actions collectives, favorisant par la suite l'émergence de nouvelles mobilisations. L'analyse des sources primaires tirées des journaux alternatifs a permis de mettre en évidence les processus de diffusion à l'oeuvre au sein des longues années soixante. Le mouvement pour le désarmement nucléaire britannique inspira un mouvement analogue aux États-Unis, et dans d'autres pays 164 Lawrence WITTNER, « The Misuse of the High-Minded: The British Government's First Campaign Against CND » New Blackfriars, 1991, p. 59. 165 Lawrence WITTNER, Confronting the bomb: a short history of the world nuclear disarmament movement,Stanford : Stanford University Press, 2009, p. 112. 77 78 Claire Mansour, Diffusion et évolution des mouvements sociaux à travers le monde, mais aussi des luttes aux revendications différentes, comme le combat pour les droits civiques des noirs américains ainsi que les mouvements qui lui succédèrent dans le cycle de contestation au Royaume-Uni. Son successeur immédiat, le mouvement contre la guerre du Vietnam commença par se développer au sein de sa structure organisationnelle déjà existante avant que de nouveaux groupes spécifiques ne soient créés. Les militants chevronnés se tournèrent aussi vers le problème plus général des inégalités sociales, et entreprirent de lancer des programmes d'action directe pour tenter d'y remédier à l'échelle locale. Les mouvements étudiant, féministe, gay et lesbien, écologiste, pour l'égalité raciale, pour les droits civiques en Irlande du Nord, et même dans une certaine mesure, l'essor du nationalisme au pays de Galles et en Écosse, bénéficièrent tous des acquis de cette expérience contestataire. En ce sens, le mouvement pour le désarmement initia le cycle de contestation des longues années soixante. 1ère Partie - 2 : Mouvement contre la guerre du Vietnam 1.2. LE MOUVEMENT CONTRE LA GUERRE DU VIETNAM Le mouvement britannique en opposition au conflit vietnamien fut bien souvent négligé ou sous-estimé par les spécialistes de la période. Ainsi Jonathon Green résume le mouvement à son pic de contestation, d'octobre 1967 à 1968, tandis qu'Adam Lent, dont l'ouvrage étudie spécifiquement les mouvements sociaux de la deuxième moitié du vingtième siècle, a choisi de ne pas le considérer comme un mouvement à part entière mais comme une facette du mouvement étudiant 166. Il est vrai que la composition du mouvement était très majoritairement jeune et en grande partie étudiante 167. Cependant les étudiants n'ont pas été les seuls acteurs responsables de son émergence, puisque la mobilisation s'est développée dans la continuité du mouvement pour le désarmement nucléaire et a bénéficié de sa structure organisationnelle, déjà existante. Cependant, elle mérite d'être étudiée comme un mouvement à part entière, puisque les organisations principales qui l'ont composée étaient exclusivement dédiées à cette cause, et qu'elle fut caractérisée par l'apparition de nouvelles pratiques contestataires et de cadres d'action collective innovants. De nombreux commentateurs n'ont vu en lui qu'une piètre tentative d'imiter le mouvement américain contre la guerre du Vietnam, un simple effet de mode 168. Pourtant, l'analyse des articles de journaux étudiants et alternatifs de l'époque mène à des conclusions différentes. Le mouvement britannique organisa sa première manifestation au niveau national quelques mois avant qu'un évènement similaire ne se produise à Washington et était doté de caractéristiques propres héritées de son prédécesseur direct, le mouvement pour le désarmement 166 Jonathon GREEN, op. cit., p. 242. Adam Lent, op. cit., p. 46. Tariq ALI, op. cit., p. 233. 168 David BOUCHIER, Idealism and revolution: new ideologies of liberation in Britain and the United States, New York : St. Martin's Press, 1978, p. 3. Nigel YOUNG, An Infantile Disorder: the Crisis and Decline of the New Left, Londres : Routledge and Kegan Paul, 1977, p. 52. Dominic SANDBROOK, White Heat, op. cit., p. 533. Jonathon GREEN, op. cit., p. 260. 167 79 80 Claire Mansour, Diffusion et évolution des mouvements sociaux nucléaire. Toutefois, des liens étroits avec la mobilisation aux États-Unis existaient indéniablement, à la fois grâce à des processus de diffusion, mais aussi du fait de la volonté de former un mouvement d'opposition transnational en synchronisant les actions dans différents pays. Pour étudier ces phénomènes, l'analyse de ce chapitre se fondera essentiellement sur des articles tirés de diverses publications. L'hebdomadaire Peace News suivit de très près l'évolution du conflit en Asie du Sud-Est, ainsi que les mobilisations pacifistes qui s'y opposèrent, au Royaume-Uni, aux États-Unis, mais aussi en Europe, ce qui permettra d'appréhender le déroulement chronologique de ces mouvements et d'examiner leurs intéractions. Le bulletin de la principale organisation du mouvement britannique, la Vietnam Solidarity Campaign (VSC), permettra d'avoir accès aux récits détaillés des actions des militants et de se pencher sur les processus de cadrage à l'oeuvre. Au vu de leur forte participation dans la mobilisation, les publications des étudiants, des groupes de la gauche radicale et des adeptes de la contre-culture feront également partie du corpus, afin de mettre en évidence l'influence de ces différents milieux. 1.2.1. Emergence : facteurs environnementaux internationaux et locaux 1.2.1.1. Escalade du conflit En 1954, les accords de Genève aboutirent à la division de l'ancienne Indochine française en quatre États : Laos, Cambodge, et Vietnam, provisoirement scindé en deux le long du 17e parallèle – République démocratique du Vietnam au Nord, sous influence soviétique, et République du Vietnam au Sud, dont le régime anticommuniste était soutenu par les Américains. En août 1964, le président Lyndon B. Johnson profita de l'incident du Golfe du Tonkin au cours duquel des torpilleurs nord-vietnamiens auraient ouvert le feu sur des destroyers américains qui s'étaient aventurés dans leurs eaux. Il parvint à obtenir une résolution du Congrès lui donnant les pleins pouvoirs en matière 1ère Partie - 2 : Mouvement contre la guerre du Vietnam militaire pour la gestion de la situation au Vietnam 169 . Cette attitude fut immédiatement condamnée par les grandes figures des mouvements pacifistes des deux côtés de l'Atlantique. A. J. Muste, président de CNVA, et Bertrand Russell firent tous deux des déclarations publiques condamnant l'agression américaine. Aux yeux du Britannique, la guerre au Sud-Vietnam était un soulèvement populaire et le bilan de sa répression meurtrière était déjà lourd : 160 000 morts, 700 000 blessés, 350 000 prisonniers 170 . Dans les mois qui suivirent, le conflit s'aggrava à la suite d'une campagne de bombardements aériens intensifs sur le Nord-Vietnam, de l'envoi croissant de troupes au sol et de l'utilisation d'armes chimiques. 1.2.1.2. La politique d'équilibriste de Wilson Avant son élection à la tête du pays en 1964, Harold Wilson était considéré comme appartenant à l'aile gauche du Parti travailliste, associée à une ligne anti-impérialiste. Lors de la campagne de 1964, les travaillistes avaient choisi comme thème-clé la modernisation du pays tandis que les conservateurs avaient préféré mettre l'accent sur la prospérité ambiante 171 . Ainsi, malgré sa faible majorité (seulement quatre sièges), l'accession aux plus hautes responsabilités d'Harold Wilson engendra l'espoir d'une certaine forme de renouveau politique 172 . Mais face à l'escalade du conflit au Vietnam, Wilson fut pris en tenaille entre la nécessité de préserver la « relation spéciale » et ses propres déclarations pré-électorales dénonçant la « croisade anti-communiste » menée par les Américains en Asie du Sud-Est : « we must not join with nor in any way encourage the 169 David FARBER, The Age of Great Dreams: America in the 1960s, New York : Hill and Wang, 1994, p. 102. 170 « 'Suicidal belligerence' in Vietnam, says Russell », Peace News, 14 août 1964, p. 12. 171 Dominic SANDBROOK, White Heat, op. cit., p. 12. 172 Kenneth O. MORGAN, The People's Peace: British History, 1945-1989, Oxford : Oxford University Press, 1990, p. 239. 81 82 Claire Mansour, Diffusion et évolution des mouvements sociaux anti-Communist crusade in Asia » 173. Dans le but de continuer à s'assurer du soutien financier des États-Unis, Wilson opta pour un soutien nominal et matériel à la stratégie américaine au Vietnam. Tandis qu'il refusait d'envoyer des troupes en renfort des soldats américains, il consentit à fournir une aide plus discrète en leur permettant d'utiliser les bases militaires d'Hong Kong, en aidant à la construction de bases aériennes américaines, à la formation des troupes au combat dans la jungle, au renseignement militaire, ainsi qu'en leur procurant secrètement des armes 174. La situation devint plus difficilement tenable suite aux bombardements intensifs du printemps 1966 visant les villes principales du Nord-Vietnam. Le gouvernement Wilson prit le parti de continuer à soutenir publiquement les États-Unis, tout en désavouant ce type d'offensive 175. Cette position d'équilibriste ne manqua pas de susciter des critiques, au sein de la population comme du Parti travailliste. Du fait de la « relation spéciale » et des concessions faîtes aux Américains, le Royaume-Uni fut même surnommé « le cinquante-et-unième État » par les détracteurs de cette politique 176. 1.2.1.3. Une ligne impopulaire Contrairement aux idées reçues, la guerre du Vietnam n'était pas seulement impopulaire auprès des étudiants et de la gauche radicale. Dès 1965, seulement un Britannique sur trois était favorable à l'intervention américaine tandis que presque la moitié de la population y était opposée 177. Les premiers raids aériens de mars 1965 conduisirent 60 députés travaillistes d'arrière banc à signer une motion exhortant le gouvernement à se désolidariser de l'intervention 173 Rhiannon VICKERS, « Harold Wilson, the British Labour Party, and the War in Vietnam », Journal of Cold War Studies, 10, no. 2, 2008, p. 45. 174 « Who says Britain isn't involved in Vietnam? », Peace News, 1er mars 1968, p. 1. « How Britain helps America's war », Peace News, 12 avril 1968, pp. 5-6. Rhiannon VICKERS, op. cit., pp. 47-8. 175 Ibid., p. 57. 176 « Britain – the 51st State », Peace News, 5 avril 1968, pp. 5-7, 10. 177 John DUMBRELL, op. cit., p. 43. 1ère Partie - 2 : Mouvement contre la guerre du Vietnam américaine au Vietnam en invoquant la nécessité de faire respecter les accords de Genève. Certains d'entre eux exprimèrent ouvertement leur antagonisme dans les journaux 178. Mais le besoin de cohésion et d'unité face une très faible majorité parlementaire, se réduisant comme peau de chagrin au gré des élections partielles, (elle ne tenait plus qu'à un seul siège en novembre 1965) primait jusque-là sur les désaccords idéologiques 179 . Cela changea après les élections générales de mars 1966, à l'issue desquelles le gouvernement Wilson se vit renforcé d'une majorité confortable de 96 sièges. Désormais libres de s'abstenir ou de voter contre le gouvernement sans risquer de nuire au parti, les critiques venant de l'aile gauche se firent plus véhémentes et les divisions s'accentuèrent. Suite aux bombardements du Nord-Vietnam au printemps 1966, 54 dissidents travaillistes signèrent le « Manifeste du Vietnam » (« Vietnam Manifesto ») qui exhortait le gouvernement à se dissocier de la politique américaine, demandait l'arrêt immédiat des bombardements, la mise en place d'un gouvernement provisoire au Sud-Vietnam ainsi que la tenue d'élections sous l'égide des autorités internationales 180 . Lors d'une manifestation au mois de juillet, un député travailliste affirmait au nom des frondeurs qu'ils étaient désormais prêts à voter contre le gouvernement – ce qu'ils n'allaient pas tarder à faire dès le mois suivant 181 . De même, lors des conférences annuelles du parti, des résolutions rejetant expressément la ligne du gouvernement sur le conflit Vietnamien furent votées chaque année de 1966 à 1968 sans que cette dernière ne s'en trouvât infléchie 182. Ainsi, peu après la réélection de Wilson, un sentiment de déception et de trahison s'installa parmi la gauche du parti, ce qui vint conforter la montée des groupes de la gauche radicale. Le nombre d'adhérents travaillistes chuta de 178 Rhiannon VICKERS, op. cit., p. 52. Mlcaëla SZEKELY, « La gauche travailliste et le gouvernement Wilson (octobre 1964 – juin 1970) », Revue française de science politique, 21, no. 3,1971, p. 587. 180 « 54 Labour MPs sign 'Manifesto' », Peace News, 17 juin 1966, p. 10. 181 « Demonstration at Alconbury », Peace News, 8 juillet 1966, p. 7. 182 Rhiannon VICKERS, op. cit., pp. 58-59. 179 83 84 Claire Mansour, Diffusion et évolution des mouvements sociaux 830 000 à 680 000 dans la deuxième moitié des années soixante183. Une tendance similaire pouvait être observée auprès des sociétés étudiantes travaillistes que leurs membres délaissaient en raison de leur association avec le gouvernement au profit de groupes pacifistes ou marxistes 184. Ces divisions du parti au pouvoir représentaient une autre forme d'ouverture dans la structure des opportunités politiques, constituant une occasion propice au lancement d'un nouveau mouvement de contestation. 1.2.2. Continuité avec le mouvement pour le désarmement nucléaire, diffusion et phase modérée : 1965-66 1.2.2.1. Structure organisationnelle Le déclin des organisations affiliées au Parti travailliste se fit au profit de la gauche radicale et de groupes dédiés à des causes spécifiques, comme l'opposition au conflit vietnamien. Mais la création de ces nouveaux organes, qui allaient devenir le fer de lance du mouvement contre la guerre du Vietnam, fut facilitée par le travail de fond des associations pour le désarmement nucléaire déjà existantes. La structure organisationnelle du mouvement précédent servit de substrat sur lequel se développa ensuite la nouvelle mobilisation. Le glissement d'une cause à l'autre se fit naturellement, à mesure que les militants envisageaient la possibilité que l'affrontement en Asie du Sud-Est ne dégénère en conflit nucléaire. Ainsi, au printemps 1965, la une de Peace News était consacrée à la propagation des armes nucléaires en Asie, après que la Chine eut testé sa deuxième bombe atomique. L'éditorial redoutait que les États-Unis ne frappent les premiers avant que la Chine parachève son programme nucléaire : « Despite the pause in bombing raids on North Vietnam [] there is still a danger of nuclear war over 183 184 Ibid., pp. 60-62. « 'Freeze' hits Labour Soc. », Union News, 14 octobre 1966, p. 5. 1ère Partie - 2 : Mouvement contre la guerre du Vietnam south-east Asia, and it is still a legitimate question whether the decisions have been taken, or are about to be taken which could lead to a nuclear war » 185 . Les grandes marches de Pâques continuèrent mais le Vietnam remplaça petit à petit le désarmement nucléaire au rang des préoccupations principales des participants. En 1965 les deux revendications étaient décrites comme étant « côte à côte » sur les pancartes des militants, mais selon un sondage réalisé auprès des marcheurs sur les raisons qui les poussaient à défiler, la grande majorité invoquait un sentiment de fidélité ou de devoir envers la CND, tandis que seulement une faible minorité mentionnait le Vietnam 186. En revanche, l'année suivante le thème central de la marche fut incontestablement le conflit vietnamien 187 . Elle s'acheva par un rassemblement à Trafalgar Square, où un spectacle de marionnettes géantes dénonçant le soutien du gouvernement Wilson à l'intervention américaine eut lieu devant le bâtiment de la National Gallery (voir annexe 4). En 1967, au lieu de partir d'Aldermaston, la majorité des marcheurs entamèrent leur périple depuis le quartier-général des forces aériennes américaines à Ruislip dans le Middlesex, où fut organisé un rassemblement réunissant 3000 personnes. Toujours aussi nombreux le lendemain à Londres, ils empruntèrent un trajet calculé pour relier tour à tour le ministère des Affaires étrangères à Whitehall, puis les ambassades américaines et sud-vietnamiennes 188. La CND ne se limita pas à l'organisation des marches de Pâques, et commença à protester contre l'intervention américaine au Vietnam dès février 1965, soit quelques jours avant le début des bombardements intensifs sur le Nord-Vietnam dans le cadre de l'opération Rolling Thunder. Une manifestation suivie du piquetage de l'ambassade américaine eut lieu le 14 février. Environ un millier de sympathisants vinrent y porter leurs lettres de protestation contre le 185 « Nuclear arms race threatens Asia », Peace News, 21 mai 1965, p. 1. « The Easter survey by the Lancaster Peace Research Centre », Peace News, 7 mai 1965, p. 3. 187 « C.N.D. – Is it still relevant? », Union News, 30 avril 1965, p. 3. « Letter to the Editor », The Glasgow Univeristy Guardian, 2 mars 1966, p. 7. 188 « Marchers demonstrate outside U.S.A.F. headquarters », The Times, 27 mars 1967. « An Easter meditation », Peace News, 31 mars 1967, p. 4. 186 85 86 Claire Mansour, Diffusion et évolution des mouvements sociaux gouvernement américain 189 . La CND et le C100 réussirent à mettre leurs différends de côté afin de collaborer sur d'autres actions comme des veilles, des jeûnes, plusieurs lobbying de masse du parlement, des marches diurnes, nocturnes et des rassemblements tenus à travers le pays 190. La tactique de sensibilisation employée par les militants en 1962, consistant à sillonner les routes du pays dans une caravane-bus, fut également reprise. Entre juillet et septembre 1962, ils avaient distribué des tracts dans les rues des villes de province et devant les usines, interpellant les habitants et conversant avec eux. Ils réussirent à obtenir l'ouverture de nouvelles branches locales et à augmenter leurs effectifs 191. Leur succès les convainquit de continuer leurs efforts en se concentrant sur l'amélioration de la documentation des groupes régionaux, ce qui fit l'objet d'une nouvelle campagne baptisée « Caravan Workshops »192. Ces mêmes propagandistes recommencèrent afin de mobiliser l'opinion publique contre la guerre du Vietnam dans divers secteurs, comme par exemple dans le quartier d'Edgeware, au nord de Londres. À grand renfort de tracts et de discussion, ils se postèrent devant des écoles, des centres de loisirs, des usines et autres lieux de passage 193. Le fondateur du projet, George Clark, se lança dans un jeûne politique de treize jours, sur la place de Parliament Square faisant face au parlement, espérant ainsi convaincre la population que la nation devait cesser de soutenir l'intervention américaine 194. 189 « Vietnam: CND to picket US embassy », Peace News, 12 février 1965, p. 2. « Vietnam protest in London », Peace News, 19 février 1965, p. 9. 190 « Police break up May Day fast », Peace News, 7 mai 1965, p. 2. « Joan Baez and Donovan at Vietnam rally », Peace News, 4 juin 1965, p. 2. « Vietnam protests in Britain and in America », Peace News, 22 octobre 1965, p. 12. « New Vietnam demonstrations », Peace News, 29 octobre 1965, p. 12. « Many thousands march in US and Britain », Peace News, 3 décembre 1965, p. 9. 191 « Campaign Caravan moves off », Peace News, 6 juillet 1962, p. 12. « The Campaign Caravan », Peace News, 27 juillet 1962, p. 12. « The Caravan comes South », Peace News, 31 août 1962, p. 12. « The Caravan on Tees-side », Peace News, 7 septembre 1962, p. 12. 192 « The Caravan Workshops », Peace News, 3 mai 1963, p. 9. 193 « Edgeware project », Peace News, 11 février 1966, p. 10. 194 « George Clark starts fast in Parliament Sq », Peace News, 8 juillet 1966, p. 7. 87 1ère Partie - 2 : Mouvement contre la guerre du Vietnam Les anciens membres du C100 persistèrent aussi dans les techniques d'action directe et de désobéissance civile, comme par exemple l'obstruction lors de l'allocution du Premier ministre en ouverture de la conférence annuelle du Parti travailliste, interrompue par les cris des militants provenant en grande partie de ce groupe 195. Les figures emblématiques du mouvement pour le désarmement nucléaire refirent également surface, à l'instar de Bertrand Russell, dont la fondation allait apporter son soutien à un grand nombre d'actions en opposition à la guerre. 1.2.2.2. Extension du cadrage moral Les partisans du mouvement pour le désarmement nucléaire avaient conféré une forte dimension morale à leurs cadres d'action collective, qui furent bientôt remaniés afin d'inclure le conflit Vietnamien. Une des spécificités du mouvement contre la guerre du Vietnam au Royaume-Uni résidait dans le fait que, contrairement à leurs équivalents américains, les jeunes Britanniques ne redoutaient pas d'être appelés sous les drapeaux pour aller combattre sur le terrain, puisque leur pays avait aboli la conscription en 1957 et achevé le processus de professionnalisation de l'armée en 1963. De plus, leur gouvernement avait refusé d'engager une intervention militaire directe sur le terrain. Les raisons qui les poussaient à se mobiliser contre ce conflit relevaient donc d'un sentiment d'indignation morale, de manière analogue au mouvement pour le désarmement nucléaire. Ils affirmer que protester contre cette guerre relevait de la nécessité morale (« moral necessity »), et que leur combat était une cause noble et juste (« a worthy cause », « our just struggle ») 196. Par conséquent, ils considéraient 195 les gouvernements américains et britanniques comme « No mastermind behind Vietnam demonstrations », The Beaver, 20 octobre 1966, p. 3. « Peace in Viet-Nam starts quorum row », Union News, 22 octobre 1965, p. 2. «Vietnam War simulation », Union News, 21 janvier 1966, p. 9. « Your blood for Vietnam », The Beaver, 3 novembre 1969, p. 7. 196 88 Claire Mansour, Diffusion et évolution des mouvements sociaux fondamentalement immoraux et corrompus (« back at the White House, the Americans are busy displaying to the rest of the world that they are without a doubt a bigoted and morally bankrupt nation », « Our government lacks moral fibre ») 197. Leur cadre de diagnostic était avant tout focalisé sur les pertes humaines engendrées par le conflit (« the hundreds and thousands of charred corpses hastily burried under Vietnamese clay ») allant même jusqu'à accuser les États-Unis de « crime contre l'humanité et la civilisation » (« a crime [] against humanity and against civilisation ») 198 . Ils reprochaient également à leur propre gouvernement son soutien nominal et matériel à l'effort de guerre américain (« Britain's commercial complicity ») ainsi que sa vénalité, dans la mesure où des raisons financières motivaient la participation du Royaume-Uni, ce qui valut au ministère des Affaires étrangères d'être surnommé le « Whore Office »199. À leurs yeux, aucun motif ne pouvait justifier la souffrance et le massacre du peuple Vietnamien : In Britain, we have given silent support for this war and our government shows a lack of concern for the human suffering and killing which is inflicted by the arms of our ally, America. We know that our government is faced with cruel political choices, but we would urge that a human choice stands above all others. 200 Quant au cadre de pronostic, il requérait d'une part que le gouvernement se désolidarise de l'intervention américaine, et d'autre part une cessation immédiate des hostilités suivie de négociations incluant à la fois le Nord et le SudVietnam 201. L'aile jeunesse de la CND demandait ainsi que le Royaume-Uni se pose en exemple pour aboutir à une solution diplomatique, reprenant le slogan 197 « They drop them in Vietnam and lose them in Spain », The Beaver, 17 février 1966, p. 3. « Letters to the Editors », Union News, 2 février 1968, p. 2. 198 « Broomielaw and Vietnam », The Glasgow University Guardian, 2 novembre 1967, p. 3. « 'Vietnam a crime' – say debates », Union News, 21 novembre 1969, p. 3. 199 « The constant flux », The International Times, 18 octobre 1968, p. 2. « Politicat », The International Times, 21 avril 1967, p. 2. 200 « Neither victim nor executioner: An appeal to the Prime Minister to intervene on behalf of the people of Vietnam », Peace News, 26 novembre 1965, p. 9. 201 « Labour's Future », The Glasgow University Guardian, 5 mars 1965, p. 7. 1ère Partie - 2 : Mouvement contre la guerre du Vietnam « Let Britain Lead »202. Ainsi l'idée que, faute de ne plus être une grande puissance militaire, le Royaume-Uni pourrait toujours compter sur la scène internationale grâce à son rayonnement « moral », fut transmise du mouvement pour le désarmement nucléaire à celui contre la guerre du Vietnam. 1.2.2.3. Internationalisme Le mouvement contre la guerre du Vietnam était également doté d'une perspective internationaliste, à la fois parce que la cause était perçue comme un problème mondial, mais aussi parce que cette caractéristique était héritée du mouvement pour le désarmement nucléaire. Bertrand Russell avait par exemple noué des liens étroits avec le chef de la révolution vietnamienne Ho Chi Minh à travers une correspondance régulière 203 . De nombreux orateurs de renommée internationale furent également invités à prendre la parole lors de rassemblements ou de conférences dans les universités de Londres et de province. Ce fut le cas de Carl Oglesby, porte-drapeau du mouvement étudiant américain et ancien président du Student for a Democratic Society (SDS), ou encore de Walt W. Rostow, un des principaux conseillers des Affaires étrangères de Johnson, qui vinrent s'adresser aux étudiants de Leeds, respectivement en novembre 1966 et en mars 1967 204. Les militants se mirent à percevoir leur propre mouvement comme un phénomène international, ce dont témoignaient les nombreux reportages dans les journaux étudiants et alternatifs relatant les actions de protestation contre la guerre du Vietnam à travers le monde. On pouvait notamment y apprendre que le conflit monopolisait les débats étudiants au Chili, comment la résistance contre la conscription s'organisait aux États-Unis, à Porto Rico ou même en Australie, 202 « Youth CND demonstration », Vietnam Solidarity Bulletin, mai 1965, p. 5. Harish C. MEHTA, « North Vietnam's Informal Diplomacy with Bertrand Russell: Peace Activism and the International War Crimes Tribunal », Peace & Change, 37, no. 1, 2012, pp. 69-70. 204 « American fresh air », Union News, 18 novembre 1966, p. 9. « Johnson's Hawk has a stormy reception », Union News, 3 mars 1967, p. 5. 203 89 90 Claire Mansour, Diffusion et évolution des mouvements sociaux ou encore qu'une manifestation étudiante contre la visite du Premier ministre japonais au Sud-Vietnam avait dégénéré en émeute et coûté la vie à une étudiante de 19 ans 205 . L'organisation d'évènements internationaux relevait de la même démarche, à l'instar du Tribunal international des crimes de guerre (International War Crimes Tribunal) réunissant des célébrités venues de divers horizons, de Jean-Paul Sartre à Stokely Carmichael 206, qui se tint en trois sessions au cours de l'année 1967 en Suède, au Japon puis au Danemark. L'analogie avec le Tribunal de Nuremberg traduisait le sentiment d'obligation morale qui animait les militants, souhaitant révéler les abominations commises au Vietnam aux yeux de la planète entière 207. Bertrand Russell, dont la fondation finançait l'évènement, déclara quelques mois avant l'ouverture du procès : « World opinion and world action must halt these vast atrocities, or 'Eichman' will come to stand for Everyman. 'We,' said Eichman, 'only provided the lorries'» 208 . Enfin, dès le début du mouvement, les militants tentèrent d'organiser des actions synchronisées à travers le globe. Déjà à l'automne 1965, plus de 100 000 personnes se réunirent dans 80 villes du monde à l'appel d'une association américaine, lors des premières journées des International Days of Protest les 16 et 17 octobre 209 . Suite au succès de cette action, les différentes organisations s'arrangèrent pour coordonner leurs défilés avec les manifestations américaines dès le mois suivant. Le 27 novembre, des cortèges paradèrent dans les rues de 205 « Chile-2 », Union News, 21 octobre 1966, p. 7. « Student world: U.S.A.», Union News, 13 octobre 1967, p. 4. « Student world: Puerto Rico», Union News, 3 novembre 1967, p. 4. « Student world: Australia », Union News, 4 novembre 1966, p. 4. « Tokyo riot », Union News, 13 octobre 1967, p. 4. 206 Figure emblématique de l'organisation pour les droits civiques des noirs américains Student Nonviolent Coordinating Committee (SNCC) , dont il fut président de mai 1966 à juin 1967, Stokely Carmichael était à l'origine du courant Black Power, comme cela sera expliqué au chapitre sur le mouvement pour l'égalité raciale. David FARBER, op. cit., p. 100. 207 «The conscience of mankind », Vietnam Solidarity Bulletin, septembre 1966, pp. 1, 6. « War Crimes Tribunal », Vietnam Solidarity Bulletin, juillet 1966, pp. 12-3. 208 « Bertrand Russell », The International Times, 14 novembre 1966, p. 4. 209 « Vietnam protests in Britain and America », Peace News, 22 octobre 1965, p. 12. Caroline HOEFFERLE, « A Web of Interconnections: Student Peace Movements in Britain and the United States, 1960-1975 » dans Benjamin ZIEMANN (éd.), Peace Movements in Western Europe, Japan and the USA during the Cold War, Essen : Klartext, 2008, p. 141. 1ère Partie - 2 : Mouvement contre la guerre du Vietnam Londres, de Manchester, Sheffield, Hull, Oxford, Liverpool et Édimbourg, ainsi que dans d'autres grandes villes européennes. Des délégations de militants pacifistes furent envoyées pour représenter leurs organisations. Les étudiants de la LSE dépêchèrent par exemple un groupe de cinq délégués pour porter les bannières de leur établissement à la manifestation londonienne, tandis qu'un étudiant de l'université d'Howard, à Washington, prit part au défilé au nom du SDS 210. Le 15 octobre 1966, une manifestation européenne en soutien avec la révolution vietnamienne fut organisée à Liège, à l'initiative des Jeunes gardes socialistes de Belgique. L'évènement rassembla environ 5000 jeunes de la gauche radicale d'une dizaine de pays différents, parmi lesquels 500 Britanniques et 400 Français. La plupart des groupes marxistes présents avaient été expulsés des principaux partis de gauche en Belgique, en France, et au Royaume-Uni, à l'instar des Young Socialists, qui étaient au départ l'aile jeunesse du Parti travailliste, mais n'y étaient plus rattachés depuis 1965 211. Une participante exaltée, ayant fait le déplacement d'Édimbourg, faisait ainsi part de ses espoirs dans la révolte internationale de la jeunesse : « The experience of participating in a demonstration of this scale on an international level was tremendous and one which will be invaluable in the building of an international revolutionary youth movement » 212 . Le sentiment d'appartenir à un même mouvement révolutionnaire s'étendant du Vietnam au pays occidentaux allait galvaniser les militants. Cette démarche transnationale allait se poursuivre tout au long du mouvement, culminant avec le pic de contestation de 1968. 1.2.2.4. États-Unis et Royaume-Uni : deux mouvements parallèles Le mouvement britannique contre la guerre du Vietnam a souvent été considéré comme une pâle copie de son équivalent américain. Il est vrai que ce 210 « Vietnam March », The Beaver, 25 novembre 1965, p. 1. « Vietnam demonstration details », Peace News, 26 novembre 1965, p. 12. 211 « International links forged », The Newsletter, 22 octobre 1966, p. 1. « Trotskyism triumphant », The Newsletter, 22 octobre 1966, p. 1. 212 « Liege – invaluable demonstration », Keep Left, décembre 1966, p. 3. 91 92 Claire Mansour, Diffusion et évolution des mouvements sociaux dernier était de plus grande ampleur et intensité, ce qui n'est guère étonnant si l'on considère que le Royaume-Uni ne participait que de manière indirecte au conflit vietnamien et que les jeunes Britanniques n'étaient pas concernés par la conscription. Or, si l'on examine le déroulement chronologique des évènements de part et d'autre de l'Atlantique, il apparait que le mouvement au Royaume-Uni s'est d'abord développé de façon indépendante. La première manifestation au niveau national contre cette guerre fut organisée sur le sol britannique, en février 1965. Les étudiants de l'université d'Oxford, qui venaient de former le Oxford Vietnam Committee, l'organisèrent avec l'aide de l'aile jeunesse de la CND, du C100 et de la Youth Communist League. Durant quatre heures, entre 800 et 1000 participants protestèrent devant l'ambassade américaine à Londres 213. Bien que dans les deux pays des actions locales eussent déjà eu lieu, la première manifestation nationale aux États-Unis ne serait organisée que deux mois plus tard à Washington, en avril 1965, à l'initiative du SDS 214. Si le mouvement pour le désarmement nucléaire avait engendré la mobilisation contre la guerre du Vietnam au Royaume-Uni, de l'autre côté de l'Atlantique, le même type de filiation existait entre les mouvements pour les droits civiques des noirs américains et l'opposition au conflit vietnamien. Le mouvement pour le désarmement nucléaire avait également eu un équivalent aux États-Unis, inspiré par le mouvement britannique, qui contribua aussi, dans une moindre mesure, à l'émergence de la mobilisation contre la guerre du Vietnam. L'emblème de la CND fut témoin de ce va et vient incessant entre les deux rives de l'Atlantique, puisqu'il fut par la suite adopté en tant que symbole de paix par les militants américains protestant contre l'intervention au Vietnam (voir annexe 3). Néanmoins, il ne s'agit pas d'affirmer qu'il n'y a pas eu de processus de diffusion du mouvement américain vers son pendant britannique, mais 213 « It happened elsewhere: Oxford », Union News, 26 février 1965, p. 5. « Vietnam: CND to picket US embassy », Peace News, 12 février 1965, p. 2. « Vietnam protest in London », Peace News, 19 février 1965, p. 9. 214 David R. FARBER, op. cit., p. 138. 1ère Partie - 2 : Mouvement contre la guerre du Vietnam simplement que les deux mouvements se sont d'abord développés de manière parallèle et que les similarités culturelles partagées par les militants ont ensuite servi de canal facilitant l'adoption des techniques, des cadres et des slogans dans un deuxième temps. En effet, comme cela a déjà était évoqué précédemment au sujet de leurs prédécesseurs prônant le désarmement nucléaire, les pacifistes américains et britanniques avaient en commun un certain nombre de caractéristiques qui les amenèrent à s'inspirer mutuellement. L'essor de la « culture jeune » et la facilitation des voyages transatlantiques au cours de la décennie ne faisaient que renforcer ce phénomène. Des liens interpersonnels hérités des mobilisations antérieures, mais aussi créés afin de concerter les efforts des opposants à la guerre du Vietnam, servirent également de relais, comme par exemple la rencontre entre Tariq Ali – membre fondateur du Vietnam Committee d'Oxford et bientôt porte-drapeau du mouvement britannique – avec le président du SDS américain Carl Oglesby en 1965 à Croydon 215. Ce fut aussi le cas de certains artistes comme la chanteuse et militante Joan Baez, dont les refrains folk avaient accompagné le mouvement pour les droits civiques et le Free Speech Movement de l'université de Berkeley en Californie. En mai 1965, elle participa à la manifestation londonienne avant de chanter lors du rassemblement de clôture 216. En ce sens, les artistes contribuaient à la fois à l'impression que les jeunes militants des deux côtés de l'Atlantique partageaient la même culture, mais aussi à la diffusion des chants contestataires comme l'hymne du mouvement des droits civiques : « We Shall Overcome ». 1.2.2.5. Naissance de la contre-culture Cette impression de partager la même culture ainsi que la facilitation des transports d'un pays à l'autre permit à la culture beat de diffuser des États-Unis au 215 216 Tariq ALI, op. cit., pp. 125-6. « Joan Baez and Donovan at Vietnam rally », Peace News, 4 juin 1965, p. 2. 93 94 Claire Mansour, Diffusion et évolution des mouvements sociaux Royaume-Uni où elle atteingnit son point culminant en 1965. Après avoir imprégné le mouvement pour le désarmement nucléaire, elle continua à accompagner les prémices de l'opposition à la guerre du Vietnam. Le 11 juin 1965, se tint un congrès international de poésie au Royal Albert Hall à Londres. Les chantres de la Beat Generation, comme les poètes américains Allen Ginsberg, Lawrence Ferlinghetti, l'écrivain William Burrough mais aussi les Britanniques Alexander Trocchi et Adrian Mitchell, y convergèrent afin d'y lire leurs textes 217. Les organisateurs promettaient des lectures, des improvisations et des happenings, et environ 7000 auditeurs se pressèrent pour écouter ces déclamations. Cette soirée fut considérée par les spécialistes de la scène underground britannique à la fois comme l'apogée du courant Beat et l'évènement fondateur de la contre-culture au Royaume-Uni 218 . Certains des textes étaient politiquement engagés, comme le poème de Mitchell « To Whom It May Concern » dont le refrain scandait « Tell me lies about Vietnam » 219. Les liens étroits entre les milieux contreculturels de part et d'autre de l'Atlantique amplifièrent les processus de diffusion. Au cours des mois suivants, les actions contestataires allaient prendre un tour plus contre-culturel. Elles furent souvent accompagnées de concerts, de lectures de poèmes, de théâtre engagé et de happenings 220 . Ce dernier mode d'action représentait une forme de synthèse entre l'activisme politique et la manifestation culturelle en interaction avec le public, qui devenait à son tour acteur. La paternité de cette technique est attribuée à deux dramaturges américains, Allan Kaprow et Kenneth Dewey, inspirés par le dadaïsme et le surréalisme, qui avaient dénoncé l'absurdité des conflits majeurs du vingtième siècle. En 1963, lors d'une conférence internationale sur le théâtre à Londres, ils avaient rencontré le britannique J. B. Priestley dont les écrits avaient contribué à 217 « Ginsberg for Albert Hall », Peace News, 11 juin 1965, p. 12. Jonathon GREEN, op. cit., pp. 129, 139. Howard L. MALCHOW, Special Relations: The Americanization of Britain?, Stanford : Stanford University Press, 2001, pp. 101-03. 219 Jonathon GREEN, op. cit., pp. 141-45. 220 « Vietnam protests take shape », Peace News, 1er octobre 1965, p. 12. « Poets for Peace », Peace News, 15 octobre 1965, p. 12. « Vietnam protest weekend », Peace News, 22 octobre 1965, p. 3. 218 1ère Partie - 2 : Mouvement contre la guerre du Vietnam lancer le mouvement pour le désarmement nucléaire 221 . Ainsi, grâce à ses rencontres artistiques internationales et aux récits des médias, la technique du happening traversa l'Atlantique pour devenir l'une des caractéristiques marquantes de la contestation contre la guerre du Vietnam. En juin 1966, les militants paradèrent dans les rues de Londres en arborant des costumes de soldats croisés, des masques de moutons et en brandissant des pancartes aux slogans évocateurs « Crusade for War » et « Without Thought » (voir annexe 5) 222 . D'autres actions consistèrent à mettre en scène des participants hurlant, couverts de bandages badigeonnés de ketchup, afin de suggérer l'horreur de la guerre, ou encore des enterrements factices, comme celui du Parti travailliste, inhumé dans un cercueil drapé d'un drapeau américain sur la plage de Scarborough, où se tient fréquemment sa conférence annuelle 223. Certains happenings prirent un tour plus mystique, comme par exemple celui organisé par le C100 en juillet 1966 à la base aérienne américaine d'Alconbury, près de Cambridge. Un symbole floral géant de paix (emblème de la CND) fut apporté par des militants de blanc vêtus, bouquets de fleurs à la main, et entonnant des mantras. L'idée des organisateurs était de construire un piège afin de capturer « le démon de la guerre » : « a 'ghost trap' – a giant decorated floral CND symbol, which will catch the 'demon of war' » 224 . Cette action comportait des similarités frappantes avec celle qui allait devenir l'un des coups d'éclats de la contre-culture américaine : la lévitation du Pentagone en octobre 1967, organisée lors d'une manifestation à Washington. À l'initiative des chefs de file des courants Beat et hippie tels qu'Allen Ginsberg, Abbie Hoffman et Jerry Rubin, les opposants à la guerre fredonnèrent des mantras afin d'exorciser le siège du 221 Jonathon GREEN, op. cit., pp. 132-33. « Soldier sheep in London », Peace News, 3 juin 1966, p. 1. 223 « 'Happening' at Alconbury », Peace News, 10 juin 1966, p. 12. « Burial party », Peace News, 29 septembre 1967, p. 12. « Funeral in Scarborough », Peace News, 6 octobre 1967, p. 1. 224 « Alconbury 'happening' », Peace News, 24 juin 1966, p. 10. « Demonstration at Alconbury », Peace News, 8 juillet 1966, p. 7. 222 95 96 Claire Mansour, Diffusion et évolution des mouvements sociaux ministère de la Défense et d'en chasser « le mal » 225 . Du côté britannique, le happening le plus retentissant fut sans doute la parade dans les rues de Londres intitulée « March of Shame », mise sur pied par le C100 en mars 1967. Des milliers de manifestants cheminèrent aux côtés de chars représentants diverses saynètes : scientifiques entourés de tonneaux de napalm, villages vietnamiens détruits, Britanniques indifférents sirotant une tasse de thé Lors du rassemblement à Trafalgar Square, des acteurs jouant entre autres les rôles de la reine Elizabeth et d'Harold Wilson confessèrent leur complicité dans l'intervention américaine en Asie du Sud-Est 226 . Cette volonté d'intégrer la dimension contre-culturelle au militantisme politique fut caractéristique du mouvement contre la guerre du Vietnam des deux côtés de l'Atlantique. 1.2.2.6. La technique du teach-in L'exemple le plus porteur de technique ayant diffusé des États-Unis vers le Royaume-Uni dans le cadre de l'opposition à la guerre du Vietnam fut probablement le teach-in 227 . Il s'agissait d'une sorte de séminaire rassemblant étudiants et enseignants autour de conférences et de discussions sur un sujet précis, généralement politique. L'expression fut créée par le professeur Arnold Kaufman de l'université du Michigan peu avant le premier évènement en question, organisé en mars 1965. Il réunit environ 3000 participants et se poursuivit tard dans la nuit 228 . Le mois de mai suivant, un petit groupe de militants de l'université de Berkeley décida de consacrer une journée intitulée « Vietnam Day » à la cause vietnamienne. Pendant trente-six heures, des célébrités internationales de tout horizon débâtirent du conflit vietnamien devant un public 225 « Mass peace-in to shut down and exorcise Pentagon », Peace News, 8 septembre 1967, p. 9. Norman MAILER, The Armies of the Night: History as a novel, the novel as history, New York : Plume,1994, pp. 120-25. 226 « Yard clamps down on shame march », Peace News, 21 avril 1967, p. 12. « March of Shame: exhibitionists spoil the drama », Peace News, 5 mai 1967, p. 12. 227 David FARBER, op. cit., p. 156. 228 Ibid Caroline HOEFFERLE, « A Web of Interconnections », op. cit., p. 134. 97 1ère Partie - 2 : Mouvement contre la guerre du Vietnam estimé à 30 000 personnes sur toute la durée de la manifestation 229. Au vu de son succès, le teach-in se répandit rapidement à travers le territoire, et avant la fin de l'année 1965, pas moins de 120 universités furent les sièges de tels forums de discussion sur la guerre du Vietnam 230. Le premier du genre sur le sol britannique eut lieu le 11 juin et fut organisé conjointement par les professeurs et les étudiants de la LSE et de l'université fédérale de Londres. Leur but n'était pas la tenue d'un débat sur les démérites de l'intervention américaine au Vietnam entre orateurs de renom, mais plutôt d'informer en présentant une vision compréhensive et nuancée de tous les aspects du conflit : « a full and exhaustive seminar-style analysis of the situation in Vietnam, covering its historical, political and strategic aspects and its relevance to world politics and to British foreign policy » 231 . Bien sûr, il s'agissait d'une action indirectement contestaire, puisqu'en présentant les faits de manière objective, le pari des militants étaient que ces derniers parleraient d'euxmêmes 232. Quelques jours plus tard, l'université d'Oxford répliqua en mettant sur pied son propre teach-in. Il fut gratifié d'une certaine légitimité grâce à la venue du ministre des Affaires étrangères Michael Stewart et de l'ambassadeur américain à Saigon au Sud-Vietnam Henry Cabot Lodge, ainsi qu'à sa retransmission en direct et en différé sur la BBC, à la radio et à la télévision. Environ 1000 personnes assistèrent aux interventions des différents interlocuteurs : universitaires, experts et hommes politiques 233. Par la suite, ce mode d'action se propagea à travers le pays et fut décliné en une variété de thèmes, à la fois dans les universités et les lycées, mais aussi par des municipalités désireuses d'informer leurs administrés. Il fut même encore adapté en format d'émission télévisée 234. 229 Gerard J. DEGROOT, « Left, Left, Left!': The Vietnam Day Committee, 1965-66 », dans Gerard DEGROOT (éd.), Student Protest: The Sixties and After, Harlow: Longman, 1998, pp. 87-88. 230 David FARBER, op. cit., p. 156. 231 « First British Vietnam teach-in », Peace News, 11 juin 1965, p. 12. 232 « Lessons of a teach-in », Peace News, 25 juin 1965, p. 1, 4. 233 Ibid. Tariq ALI, op. cit., pp. 113-115. 234 « Sixth form teach-in », Peace News, 9 juillet 1965, p. 12. « TV teach-in », Peace News, 23 juillet 1965, p. 12. « News in Brief », Peace News, 22 octobre 1965, p. 12. « The comprehensives teach-in », Peace News, 29 octobre 1965, p. 7. « Lewisham Council teach-in », Peace News, 19 novembre 1965, p. 12. 98 Claire Mansour, Diffusion et évolution des mouvements sociaux 1.2.3. Apogée du mouvement : 1967-68 1.2.3.1. Création des organisations spécifiques Rapidement, des comités spécifiques furent créés dans les universités au cours de l'année 1965 pour organiser des actions locales : manifestations, lettres et pétitions aux dirigeants, collectes de fond pour l'aide humanitaire au Vietnam, veillées 235 , etc. Au niveau national, l'association British Campaign for Peace in Vietnam (BCPV) fut créée en mai 1965, et représentait la gauche traditionnelle issue des milieux travaillistes et communistes. Elle prônait le retrait des troupes américaines, le respect des accords de Genève et la mise en place d'élections libres au Sud et Nord-Vietnam 236 . Son but était avant tout de mettre fin à la guerre, tout en refusant de prendre parti pour l'un des deux camps : « The central aim of the Council is to achieve peace in Vietnam, not in any way to take sides over the issue »237. Elle avait le soutien de la CND et était présidée par Fenner Brockway, député issu de l'aile gauche du Parti travailliste et président de l'association antiimpérialiste Movement for Colonial Freedom. Mais le BCPV fut bientôt perçu par la nouvelle génération de militants comme trop modéré, et inféodé aux institutions. Ainsi, en juin 1966, la Vietnam Solidarity Campaign fut formée par de jeunes radicaux avec le soutien personnel et financier de Bertrand Russell tandis que Tariq Ali en devint le porte-drapeau. Ses membres affirmaient ouvertement leur soutien au Nord-Vietnam et aux insurgés du National Liberation Front for South Vietnam (NLF), dont la victoire, était selon eux le seul moyen de garantir la libre autodétermination du peuple vietnamien. Dans cette optique, certains allaient même parfois jusqu'à prôner l'intervention militaire de la Russie, ce qui leur valut 235 « Day and night vigil for peace campaign », Union News, 7 mai 1965, p. 2. « Vietnam story », The Glasgow University Guardian, 19 mars 1965, p. 5. « In brief », Union News, 10 décembre 1965, p. 1. Caroline HOEFFERLE, British Student Activism, op. cit., pp. 64-5. 236 Nick THOMAS, « Protests Against the Vietnam War in 1960s Britain: The Relationship between Protesters and the Press », Contemporary British History, 22, no. 3, septembre 2008, p. 340. 237 « Growing support for Vietnam Peace Council », Peace News, 28 mai 1965, p. 12. 1ère Partie - 2 : Mouvement contre la guerre du Vietnam de s'attirer les foudres des modérés de la BCPV. Choqués de voir des militants s'époumoner en scandant « Victory for the Viet Cong » en brandissant des drapeaux du NLF, ils critiquaient leur vision caricaturale et rétorquaient que l'entrée de la Russie ne ferait qu'aggraver la situation, ravivant la menace de conflit nucléaire 238. La VSC se démarquait également de la BCPV par sa structure organisationnelle, obéissant aux principes de la Nouvelle Gauche. Ses branches locales étaient relativement autonomes et leur mode de fonctionnement se voulait participatif 239. Son langage, son idéologie et ses méthodes radicales rallièrent de plus en plus d'adeptes. À partir de 1967, elle s'imposa comme la principale organisation du mouvement 240. 1.2.3.2. Adoption du cadre anti-impérialiste des insurgés vietnamiens Dans cette nouvelle phase de contestation, le cadre hérité de la CND fut transformé en cadre anti-impérialiste, reflétant la vision des combattants du NLF, avec qui les militants déclaraient leur solidarité. D'abord utilisé par les Young Socialists puis repris par la VSC, ce cadre présentait l'intervention américaine comme une agression de la part d'une puissance étrangère, empêchant le peuple vietnamien d'exercer son droit à la libre autodétermination 241 . Le pronostic envisagé était donc le soutien à la lutte armée des rebelles du NLF, considérés comme les seuls représentants légitimes du peuple vietnamien. Leur guerre de libération de l'impérialisme américain était perçue comme « héroïque et juste » (« heroic and just »)242. Le cadre motivationnel gardait une forte dimension morale, 238 « Statement of aims of the Vietnam Solidarity Campaign », Vietnam Solidarity Bulletin, juillet 1966, p. 6. « Vietnam: beyond the slogans », Peace News, 24 mars 1967, p. 1. Tariq ALI, op. cit., pp. 199-200. 239 « Draft of the proposed structure », Vietnam Solidarity Bulletin, juin 1966, p. 2. 240 Nick THOMAS, « Protests Against the Vietnam War in 1960s Britain », op. cit., p. 341. 241 « Wilson: ally number one of American imperialism », Keep Left, juin 1965, p. 2. « Draft statement of aims of the Vietnam Solidarity Campaign », Vietnam Solidarity Bulletin, juin 1966, p. 2. 242 « Aims of solidarity with Vietnam Campaign », Vietnam Solidarity Bulletin, juin 1966, p. 6. « Statement of aims of the Vietnam Solidarity Campaign », Vietnam Solidarity Bulletin, juillet 1966, p. 6. 99 100 Claire Mansour, Diffusion et évolution des mouvements sociaux arguant que le soutien aux révolutionnaires vietnamiens relevait de l'obligation morale pour tous les opposants à la guerre : [] all those who oppose the war in Vietnam are morally bound to take a solidarity position. We are convinced, moreover, that this is the most effective way to oppose the war in Vietnam, that the existence of a powerful solidarity movement will stiffen all resistance to the American war of aggression. 243 Les militants essayaient de former un mouvement anti-impérialiste mondial pour prêter main forte au NLF dans sa guerre de libération contre la superpuissance américaine, espérant ainsi inverser le rapport de force. À leurs yeux, la guerre du Vietnam prit une dimension métaphorique, divisant le monde de manière manichéenne, avec d'une part les opprimés, de l'autre leurs oppresseurs. Le mot d'ordre du cadre motivationnel devint « solidarité », solidarité avec les insurgés vietnamiens mais aussi avec toutes les victimes du système capitaliste visant à protéger les intérêts des grandes puissances impérialistes. Un étudiant de la LSE affirmait ainsi : [] such demonstrations give a unique opportunity for progressive forces to come together and demonstrate not only their solidarity with the Vietnamese but their solidarity with each other, a solidarity which is ultimately going to form the basis of the only real challenge to the kind of society we live in. 244 Le cadre de diagnostic basculait ainsi de la demande de dissociation du gouvernement britannique de l'intervention américaine au Vietnam au renversement du système capitaliste permettant de tels abus. À cela s'ajoutait une vision idéalisée des révolutionnaires, comme le dirigeant du Nord-Vietnam, Ho Chi Minh qui devint une figure romantique révérée par les militants. De nombreux slogans pour scander son nom et ses louanges furent adoptés, comme 243 VIETNAM SOLIDARITY CAMPAIGN, « Why Vietnam Solidarity? Policy Statement by the Nation Council of the Vietnam Solidarity Campaign », Londres : Hatfield Press, 1966, p. 1 [en ligne], [consulté le 23 juin 2018], disponible à l'adresse : <https://www.marxists.org/history/etol/newspape/vsc/why-vietnam-solidarity.pdf>. 244 « Come demonstrate for Vietnamese freedom ! », The Beaver, 29 février 1968, p. 3. 101 1ère Partie - 2 : Mouvement contre la guerre du Vietnam « Ho-Ho-Ho-Chi-Minh », ou « Long live Ho Chi Minh ». Sa mort fit également l'objet de nombreux éloges funèbres dans la presse alternative 245. Les militants s'inspirèrent également des techniques de rébellion des insurgés livrant des guerres de libération nationale à travers le monde. Des jungles vietnamiennes aux rues des grandes villes occidentales, les tactiques de guérilla furent adaptées à ces nouveaux environnements urbains. Elles influencèrent par exemple les pratiques du théâtre engagé et le happening, donnant naissance au guerrilla theatre. Ces techniques de théâtre de rue étaient généralement déployées par de petits groupes de comédiens, se confrontant aux passants afin de les interpeller et de les impliquer dans leur action. Une troupe de Berkeley vint par exemple à Londres en 1970, arpentant les rues déguisée en généraux américains. Leur personnage phare, le général « Waste-More-Land » était inspiré du commandant en chef des troupes américaines, William Westmoreland. Ils distribuaient de faux journaux, au contenu satirique et décalé, dont les unes brocardaient les dirigeants américains, comme « Nixon guilty, says Manson » ou « LSD is a drug, Nixon is a DOPE »246. Plus généralement, la guérilla devint un modèle transposable sur différents plans car elle incarnait des valeurs chères aux militants : un idéal révolutionnaire rejetant les hiérarchies trop rigides, leur préférant une configuration plus horizontale composée de petites cellules autonomes aux forts liens communautaires. Dans un article intitulé « Guerilla University », un étudiant faisait l'éloge du fonctionnement de la faculté de médecine d'Hanoi qu'il décrivait comme une sorte de « communauté » (« commune ») aux unités dispersées dans la jungle pour se protéger des raids aériens, complètement autonome car cultivant leur propre nourriture, assurant eux-mêmes leur sécurité grâce à un entraînement 245 « Broomielaw and Vietnam », The Glasgow University Guardian, 2 novembre 1967, p. 3. « Violence in the Square », Peace News, 22 mars 1968, p. 12. « Goodbye Ho », The International Times, 26 septembre 1969, p. 5. 246 « Waste-More-Land », The International Times, 8 octobre 1970, p. 4. 102 Claire Mansour, Diffusion et évolution des mouvements sociaux militaire, et où étudiants et personnel étaient sur un pied d'égalité 247. En somme, cette vision idéalisée de la guérilla constituait un modèle réunissant les valeurs de la Nouvelle Gauche et l'aspect contre-culturel des communautés hippies à des fins politiques. Les étudiants de la LSE tentèrent de mettre en place une structure de ce type lors de la manifestation du 27 octobre 1968. Ils votèrent en faveur d'une occupation de leur école durant l'intégralité du weekend afin d'accueillir les militants, de dispenser des soins médicaux de base, et de servir de forum de discussion politique 248. L'évènement fut considéré un succès puisqu'entre 1500 et 2000 étudiants prirent part aux échanges, tandis que plusieurs dizaines de personnes bénéficièrent des soins de premiers secours 249. De même, au niveau de l'organisation pratique de la manifestation, cet idéal autogestionnaire fut mis à exécution. Au lieu de faire appel à un service d'ordre pour encadrer le cortège, les manifestants agirent de manière autonome en se serrant littéralement les coudes : On this march there were no stewards and the march was self-organised. People linked arms and kept their own groups together. The streets were filled with compact groups of people which achieved the maximum of density and manoeuverability. There was a large sense of solidarity among the participants. In this it was a small rehearsal for the selforganisation which is necessary in a revolution and necessary for socialism. 250 Ce récit de la manifestation décrite comme un ensemble de petites unités autonomes et solidaires reflète parfaitement la manière dont le cadre antiimpérialiste imprégnait la vision des militants de leur propre situation. Ainsi ce cadre et le répertoire des techniques de guérilla eurent une influence durable sur les mouvements contestataires de l'époque, d'autant plus que les manifestations londoniennes contre le conflit Vietnamien en 1968 furent perçues comme de véritables réussites. 247 « Guerilla University in Viet-Nam », Union News, 13 décembre 1968, p. 3. « Turn on, tune in, TAKE OVER », The Beaver, 24 octobre 1968, p. 10. 249 « 'The day the police were wonderful' – Daily Mirror », The Beaver, 7 novembre 1968, pp. 5-6. 250 « The violence that really never was », Union News, 1er novembre 1968, p. 5. 248 1ère Partie - 2 : Mouvement contre la guerre du Vietnam 1.2.3.3. Le tournant de 1967 Au cours de l'année 1967, le mouvement se radicalisa. Lors de la grande marche de Pâques, la VSC réussit à vendre plus de 700 drapeaux du NLF tandis que les slogans du défilé étaient visiblement plus radicaux, à l'instar de « Yankee murderers » ou « Say, say, L.B.J. – how many kids have you killed today? »251. Les actions se faisaient de plus en plus belliqueuses et provocantes. Plusieurs officiels furent la cible de huées et de projectiles variés, comme des oeufs, des tomates ou de la farine, lors de leurs visites ou de conférences dans les universités. Walt W. Rostow – conseiller en Affaires étrangères de Johnson venu s'adresser aux étudiants de Leeds en mars – en fit par exemple les frais, ou même Michael Stewart et Harold Wilson, malmenés par des cortèges d'opposants à la guerre du Vietnam à leur arrivée à Cambridge, respectivement en mai et en octobre 252. Les manifestations se terminaient de plus en plus fréquemment par des accrochages avec la police et des arrestations. Le point d'orgue de l'année fut atteint le 22 octobre, lorsqu'une foule d'environ 10 000 personnes défila à l'appel de la VSC dans les rues de Londres, avant de tenter d'occuper l'ambassade américaine et de se heurter à la charge de la police montée. Les récits des participants faisaient état d'une violence disproportionnée de la part des forces de l'ordre, distribuant les coups de manière indiscriminée afin de repousser les manifestants hors de Grosvenor Square. Une trentaine de personnes furent arrêtées 253. L'évènement fut considéré comme un succès, et de nombreuses nouvelles recrues vinrent gonfler les rangs de la VSC, dont le nombre de branches locales doubla 254. 251 « Marchers demonstrate outside U.S.A.F. headquarters », The Times, 27 mars 1967. « Johnson's Hawk has a stormy reception », Union News, 3 mars 1967, p. 5. « Students shake Stewart and Vietnam dollars », Peace News, 19 mai 1967, p. 9. « Eggs for Wilson », Union News, 3 novembre 1967, p. 4. 253 « Victory for Vietcong », The Beaver, 26 octobre 1967, p. 1. « The violence in Grosvenor Square », Peace News, 27 octobre 1967, p. 12. Tariq ALI, op. cit., p. 233. Holger NEHRING, « Great Britain » dans KLIMKE et SCHARLOTH (éds), op. cit., p. 130. 254 Tariq ALI, op. cit., p. 234. 252 103 104 Claire Mansour, Diffusion et évolution des mouvements sociaux Parmi les facteurs récents permettant d'expliquer ce basculement, la rencontre entre les sphères de la contre-culture et de la Nouvelle Gauche lors de la conférence intitulée « The Dialectics of Liberation » eut pour effet d'allier le culturel au politique. Durant deux semaines en juillet 1967, des intellectuels et des artistes français, américains et britanniques se réunirent à la Roundhouse du quartier de Camden à Londres. D'Allen Ginsberg à Herbert Marcuse 255, ils abordèrent des thèmes liés à la libération individuelle, la répression étatique ou encore à la contestation politique 256 . Ce mélange détonant galvanisa les adeptes des deux courants, contribuant ainsi à la radicalisation de la contestation, comme l'explique Jonathon Green : « The flower children would gradually shed their petals and start toughening up; many would make a definite move away from 'peace' and into the world of confrontation » 257. Un militant pacifiste déplorait également ce basculement de la résistance à l'insurrection dans les colonnes de Peace News, et en rejetait la responsabilité sur la violence émanant des États. Jusqu'alors, les militants utilisaient des techniques non-violentes pour protester contre la menace nucléaire, mais la réalité des atrocités commises au Vietnam donnait lieu à des déchaînements de colère, non plus à une simple indignation morale 258. Sur le plan international, suite à la mort mystérieuse de Che Guevara en octobre 1967 – abondamment regrettée par la presse étudiante et alternative – le révolutionnaire devint une véritable icône de la rébellion et une source d'inspiration pour les jeunes militants 259 . Quelques mois plus tard, un autre évènement à forte portée symbolique se produisit. En janvier 1968, les forces armées du Nord-Vietnam se joignirent au NLF pour lancer l'offensive du Têt. 255 Philosophe et sociologue américain d'origine allemande, Herbert Marcuse était un des penseurs phare de la Nouvelle Gauche aux États-Unis. Jean-Marc LACHAUD, « Du 'Grand Refus' selon Herbert Marcuse », Actuel Marx, 1, no. 45, 2009, pp. 137-148. 256 « Dialectuals' masturbation », The International Times, 28 juillet 1967, p. 11. « Dialectics of Liberation: Disappointment, enlightment », Peace News, 4 août 1967, p. 12. Caroline HOEFFERLE, British Student Activism, op. cit., p. 102. 257 Jonathon GREEN, op. cit., pp.210-11. 258 « From resistance to insurrection », Peace News, 27 octobre 1967, p. 4. 259 « Bobbin' campus », Campus, 18 octobre 1967, p. 2. « Che Guevara and Debray », Peace News, 20 octobre 1967, p. 4. Kenneth MORGAN, op. cit., p 293. 1ère Partie - 2 : Mouvement contre la guerre du Vietnam Les rebelles attaquèrent simultanément plus d'une centaine de villes du SudVietnam, osant même assaillir l'ambassade américaine de Saigon. Bien qu'aboutissant à une défaite sur le plan militaire, cet épisode révéla le déficit de crédibilité du gouvernement Johnson qui affirmait être en passe de gagner la guerre. Au cours des semaines suivantes, le soutien populaire pour sa politique vietnamienne subit une forte baisse tandis que le mouvement contre la guerre s'en trouva électrisé 260 . En ce sens, ce fut une victoire politique pour les révolutionnaires vietnamiens. Pour les militants, l'épisode était digne de l'allégorie de David et Goliath. La victoire d'une armée rebelle d'un pays du tiers-monde contre celle d'une superpuissance prouvait que le système capitaliste n'était pas invulnérable : « Vietnam continues to offer a ray of hope that if the extension of Western capitalism can be defeated in South East Asia, then it can be defeated elsewhere »261. D'un point de vue plus concret, ces développements internationaux allaient également contribuer à une nouvelle transformation des cadres d'action collective. 1.2.3.4. Les grandes manifestations de 1968 L'année 1968 marqua sans aucun doute le pic de la contestation contre la guerre du Vietnam, culminant avec deux grandes manifestations nationales à Londres. Le 17 mars, un cortège d'environ 25 000 personnes défila de Trafalgar Square à Grosvenor Square, où se situait l'ambassade américaine. Lorsque la police tenta d'empêcher les manifestants d'approcher de leur destination, de violentes échauffourées éclatèrent et se poursuivirent pendant deux heures. Les récits des participants à cet évènement faisaient état de déchaînements d'agressivité émanant des deux partis : policier monté passant à tabac un pacifiste qui lui donnait un bouquet de fleurs, manifestants en furie ruant de coups un policier au sol, etc 262. Au total, 117 policiers furent blessés contre seulement 45 260 « The war is over – When will it end? », Peace News, 9 février 1968, p. 1. David FARBER, op. cit., p. 213. « Come demonstrate for Vietnamese freedom ! », The Beaver, 29 février 1968, p. 3. 262 Tariq ALI, op. cit., p. 255. Dominic SANDBROOK, White Heat, op. cit. p. 535. 261 105 106 Claire Mansour, Diffusion et évolution des mouvements sociaux manifestants, et 246 personnes furent arrêtées 263 . Les médias traditionnels se rangèrent de manière quasi-unanime du côté des forces de l'ordre, et jetèrent l'opprobre sur les militants, plus particulièrement sur la VSC et sa figure de proue : Tariq Ali, dont le ton était particulièrement vindicatif 264 . Suite à un entretien avec un journaliste du tabloïde The Sun, ses propos furent rapportés ainsi : « We were not there for a peaceful demonstration. Peace has no part in this crisis. The Americans are criminals and this must be shown to the world » 265. Les nouvelles des révoltes étudiantes à travers le monde continuèrent d'alimenter les discours alarmistes des médias. Ces derniers firent monter les tensions avant la prochaine grande manifestation nationale prévue pour le 27 octobre en propageant des rumeurs inquiétantes, résumées de la sorte par un étudiant exaspéré : « The pop press also forgot all about their previous Simple Lie which they had been peddling furiously before the demonstration : irresponsible students being manipulated by sinister 'foreigners' who want to blow up London with Molotov cocktails » 266. Pourtant les organisateurs de la VSC avaient pris soin de réaffirmer à de nombreuses reprises la nécessité de préserver le caractère non-violent de l'évènement 267 . Plus de 100 000 personnes défilèrent dans les rues de Londres, dont la très grande majorité convergea calmement jusqu'à Hyde Park pour y écouter des discours, tandis qu'une petite portion se détacha pour tenter de se rendre à l'ambassade américaine, où ils furent interrompus par les forces de l'ordre 268 . La presse attribua la tournure pacifique des évènements à la retenue et au comportement exemplaire des policiers, comme en témoignaient les articles parus le lendemain dans The Times et The Evening News proclamant respectivement : « The police has won the day » et « Victory of the Velvet Glove » 269 . Le ministre de l'Intérieur, James 263 Jonathon GREEN, op. cit., p. 264. Tariq ALI, op. cit., p. 256. Caroline HOEFFERLE, British Student Activism, op. cit., p. 112. 265 « Back to square one », Peace News, 22 mars 1968, p. 4. 266 « Our wonderful British press », The Beaver, 7 novembre 1968, p. 2. 267 Tariq ALI, op. cit., p. 300. 268 « 27 October », The Glasgow University Guardian, 5 novembre 1968, p. 3. 269 « What went wrong: Three views », The International Times, 15 novembre 1968, p. 3. 264 1ère Partie - 2 : Mouvement contre la guerre du Vietnam Callaghan, qualifia même la manifestation de « démonstration du bon sens britannique » (« a demonstration of British good sense ») 270 . Cette expression sousentendait plusieurs choses. C'était d'abord une manière de féliciter les forces de l'ordre pour leur décence, de louer implicitement sa propre décision de ne pas avoir interdit le défilé, et enfin de féliciter les organisateurs de la VSC d'avoir su garder le contrôle de leurs partisans et maintenir le calme. Il insinuait également que les débordements et les violences des précédentes marches ne s'inscrivaient pas dans le caractère national britannique. Les divers aspects de cette stratégie dépeignant les autorités comme tolérantes et le cortège des manifestants britanniques comme un parangon de modération furent repris par la presse, puis par les historiens. Ainsi cet épisode obéit au principe de « jugement mesuré » (« measured judgement ») décrit par Arthur Marwick, expliquant que lorsque les autorités font preuve de tolérance à l'égard des militants, la contestation s'étiole, tandis que la répression entraîne au contraire une surenchère 271. Effectivement, la manifestation du 27 octobre constitua à la fois l'apogée du mouvement mais aussi l'amorce de son déclin. 1.2.4. Déclin de la mobilisation 1.2.4.1. Baisse de la participation Des manifestations locales continuèrent d'être organisées dans les universités, mais dans l'ensemble, le nombre de participants était à la baisse. Environ 4000 sympathisants manifestèrent à l'appel de la VSC en mars 1969 tandis qu'ils ne furent que 1600 lors d'un rassemblement en novembre de la même année 272. À titre de comparaison, le mouvement américain battait alors son plein avec le Vietnam Moratorium, rassemblant 10 millions de personnes à travers « Callaghan, the demo, and the press », Peace News, 1er novembre 1968, p. 1. 271 Arthur MARWICK, op. cit., pp. 12-13. 272 Caroline HOEFFERLE, British Student Activism, op. cit., p. 115. 270 107 108 Claire Mansour, Diffusion et évolution des mouvements sociaux la nation le 15 octobre, et 500 000 manifestants à Washington le 15 novembre 273. Durant ces deux semaines, la plupart des universités britanniques lancèrent des actions locales de soutien comme des veillées, des processions nocturnes ou même des jeûnes, mais qui demeurèrent de faible ampleur 274. Parallèlement, la politique de « vietnamisation » de Nixon débuta en 1969. Le désengagement progressif des troupes américaines était accompagné d'une volonté d'impliquer davantage le gouvernement du Sud-Vietnam dans la gestion du conflit en lui fournissant davantage d'armes et d'équipements 275 . Les négociations de Paris commencèrent la même année, et n'aboutirent à un accord qu'en 1973. Le gouvernement du Sud-Vietnam se fit de plus en plus répressif, forçant les étudiants à appeler à la solidarité leurs homologues à travers le monde afin d'influer sur le processus de paix 276. Pourtant, si la guerre se poursuivit avec l'invasion du Cambodge en avril 1970, les jeunes militants britanniques se tournaient désormais vers d'autres problèmes. 1.2.4.2. De nouveaux chevaux de bataille Suite à l'adoption du cadre de résonance révolutionnaire, les militants se mirent à percevoir leur contestation comme une lutte globale, connectant les différentes causes comme autant de symptômes justifiant une transformation en profondeur du système. Un étudiant de Glasgow exprimait cette nouvelle vision ainsi : That is that all political protest is becoming evolved into one protest, one rejection – a total rejection of the social and political structures of the advanced countries of the world which seem to perpetuate injustice and strife both internally and internationally, and in which technology and 273 David FARBER, op. cit., p. 230. Manuela SEMIDEI, « L'opinion américaine et les pourparlers de paix », Revue française de science politique, 20, no. 2, 1970, p. 355. 274 « Student world: Demonstrations », Union News, 28 novembre 1969, p. 2. 275 David FARBER, op. cit., p. 231. 276 « Saigon: more repression », Peace News, 14 mars 1969, p. 1. « Urgent appeal from the Saigon Student Union to students of the world », Peace News, 4 avril 1969, p. 5. 1ère Partie - 2 : Mouvement contre la guerre du Vietnam technical specification seem to be confining the human potential more and more. 277 Ainsi, la grande majorité des participants à la manifestation du 27 octobre 1968 protestaient également contre la structure de la société britannique et le système capitaliste en général 278. De ce fait, ils ne tardèrent pas à appliquer ce même cadre à leur propre situation, ce qui eut pour effet de créer d'autres causes de mobilisation. Le glissement vers les revendications du mouvement étudiant s'opéra de manière fluide. Lorsqu'un officiel de l'ambassade américaine fut aspergé de peinture rouge sang lors du teach-in de l'université de Sussex en février 1968, deux étudiants furent exclus temporairement, déclenchant au passage une nouvelle campagne demandant que les étudiants soient impliqués dans les procédures disciplinaires 279 . De même, suite au vote des étudiants de la LSE d'occuper les locaux en vue de la manifestation du 27 octobre 1968, le directeur Walter Adams prit la décision de fermer l'établissement, ce qui s'avéra dans les faits impossible, au vu du grand nombre d'étudiants présents. Le choix d'Adams fut perçu comme une décision arbitraire et autocratique, ce qui acheva de faire changer d'avis une importante proportion des étudiants modérés qui étaient initialement contre l'occupation 280 . Peu après, Adams fit installer un portail sécurisé pour éviter que l'expérience ne se reproduise, ce qui allait occasionner de nouveaux incidents et donner du grain à moudre au mouvement étudiant. De plus, après les évènements internationaux de 1968, ce dernier prit une nouvelle direction et entreprit d'établir des liens avec le mouvement ouvrier, en s'opposant aux réformes du gouvernement travailliste (voir chapitre suivant). 277 « 27 October », The Glasgow University Guardian, 5 novembre 1968, p. 3. Sylvia ELLIS, « 'A Demonstration of British Good Sense?' British Student Protest during the Vietnam War » dans Gerard DEGROOT (éd.), op. cit., p. 64. 279 « Sussex students seek support », The Beaver, 29 février 1968, p. 12. « Red scare at Sussex », Peace News, 1er mars 1968, p. 12. « Communists behind unrest? Trouble at Sussex University », The Glasgow University Guardian, 14 mars 1968, p. 2. 280 « Where Adams failed », The Beaver, 7 novembre 1968, p. 4. 278 109 110 Claire Mansour, Diffusion et évolution des mouvements sociaux 1.2.4.3. Potentiel fédérateur de la mobilisation contre le Vietnam L'opposition à la guerre du Vietnam possédait une dimension unificatrice particulière, rassemblant les milieux de la contre-culture et de la Nouvelle Gauche ainsi que des militants issus d'autres mouvements. Suite aux grandes manifestations de 1968, la confédération des syndicats britanniques Trades Union Congress (TUC) prit officiellement position contre la guerre du Vietnam 281 . En 1969, les syndicats se mirent à organiser des actions locales sous la bannière de la « solidarité » mais aussi à participer à celles des étudiants. Il pouvait s'agir de manifestations, comme à Sheffield en mars 1969, à l'appel des délégués syndicaux, ou de démarches plus symboliques, comme lorsque les membres d'une vingtaine de syndicats vinrent donner environ 40 litres de sang à la requête des étudiants de la LSE 282. Ces actions conjointes permirent de commencer à tisser des liens entre le mouvement syndical et le mouvement étudiant, en partie grâce à la dimension fédératrice de l'opposition au conflit vietnamien. Ces liens seraient ensuite exploités par les étudiants désireux de forger une réelle alliance avec les syndicats en opposition aux réformes gouvernementales dans les années 1970. Un phénomène similaire se déroula avec le mouvement contre les discriminations raciales des émigrés caribéens, africains et indo-pakistanais. Lors de son discours le 18 juillet 1967 à la Roundhouse de Londres dans le cadre de la conférence « The Dialectics of Liberation », Stokely Carmichael lia la cause noire aux guerres de libération nationale des pays du tiers-monde – au premier rang desquels le Vietnam – qu'il fusionna en un combat révolutionnaire global contre la suprématie blanche des pays occidentaux maintenue par le système capitaliste 283. Cette diatribe eut énormément d'influence sur les militants présents, 281 Caroline HOEFFERLE, British Student Activism, op. cit., p. 115. « Anarchists arrested at Sheffield », Union News, 7 mars 1969, p. 1. « Your blood for Vietnam », The Beaver, 3 novembre 1969, p. 7. 283 « Dialectuals' masturbation », The International Times, 28 juillet 1967, p. 11. « Dialectics of Liberation: Disappointment, enlightment », Peace News, 4 août 1967, p. 12. Peniel E. JOSEPH, Stokely: A Life, New York : Perseus Books Group, 2014, p. 126. 282 1ère Partie - 2 : Mouvement contre la guerre du Vietnam comme Tony Soares, un des chefs de file des Black Panthers britanniques, qui affirmait que son engagement politique pour les droits des noirs au Royaume-Uni était inextricablement lié à sa participation au mouvement contre la guerre du Vietnam. Il fut emprisonné suite à sa participation à la manifestation du 27 octobre 1968 et fut condamné à un an de prison pour incitation à l'émeute et possession d'armes. À sa sortie, il contribua à fonder le Black Liberation Front en 1971 afin de lutter contre le racisme et l'impérialisme 284. Ainsi certaines actions furent organisées pour protester contre le sort des peuples opprimés à travers le monde, comme cette manifestation anti-impérialiste à l'appel des Black Panthers britanniques et de la VSC en mai 1970 en solidarité avec les partisans de la révolution culturelle du Black Power à Trinité-et-Tobago et les indépendantistes au Vietnam : « [] the demonstration was a united action in solidarity with the Indo-Chinese and Trinidadian peoples and was supported by a number of groups including VSC and the Black Panthers » 285 . De plus, le cadre utilisé par le mouvement contre la guerre du Vietnam fut lui aussi transposé aux autres conflits de libération nationale, ce qui permettait de les expliquer de façon simpliste afin de mobiliser le soutien des militants. Par exemple, dans un article paru dans The International Times, le Chad était directement comparé au Vietnam (« Chad: An African Vietnam? »), ce qui tendait à assimiler implicitement la France aux États-Unis soutenant un régime non-démocratique afin de protéger ses intérêts impérialistes 286. Le prisme de la guerre du Vietnam fut également appliqué à un conflit pourtant beaucoup plus proche de la Grande-Bretagne : l'Irlande du Nord. Le parallèle entre l'intervention américaine en Asie du Sud-Est et l'envoi des troupes britanniques sur le sol nord-irlandais se retrouvait dans de nombreux articles de 284 Anne-Marie ANGELO, « 'We All Became Black': Tony Soares, African-American Internationalists, and Anti-Imperialism » dans Robin D. G. KELLEY et Stephen G. N. TUCK (éds.), The Other Special Relationship: Race, Rights, and Riots in Britain and the United States, New York : Palgrave Macmillan, 2015, p. 97. 285 « Black brothers battle pigs », The International Times, 8 mai 1970, p. 2. 286 « The battle outside raging will soon shake yer windows and rattle your walls », The International Times, 5 novembre 1970, pp. 6-7. 111 112 Claire Mansour, Diffusion et évolution des mouvements sociaux l'époque. Les analogies entre les deux conflits portaient notamment sur la dimension labyrinthique de la jungle asiatique et des ruelles de Belfast ; le faible moral des troupes ; leurs forts taux de consommation de drogues et de désertion ; leur impopularité auprès des populations locales ; les tactiques de guérilla utilisées par le NFL et l'IRA ; la surestimation du nombre de rebelles arrêtés ; l'enlisement des deux conflits ; sans oublier la dénonciation de l'impérialisme américain et britannique 287. Le cadre anti-impérialiste fut transposé à cause de la décision du gouvernement britannique de lancer une intervention militaire pour ramener le calme dans la région en 1969. Ce parallèle simplifiait le contexte social, politique et religieux si particulier de l'Irlande du Nord afin de pousser le plus grand nombre à se mobiliser. La guerre du Vietnam était devenue une sorte d'allégorie universelle du combat entre les opprimés et leurs oppresseurs. 1.2.4.4. Conclusion et impact du mouvement Le mouvement britannique d'opposition au conflit vietnamien ne parvint pas à obtenir du gouvernement Wilson qu'il cesse de soutenir l'intervention américaine. Il contribua néanmoins à faire évoluer l'opinion publique majoritairement contre la guerre en amenant le sujet au coeur du débat public. En 1965, un Britannique sur trois était favorable à l'intervention américaine, tandis qu'en 1973, ils ne représentaient plus que 14% de la population 288 . La mobilisation au Royaume-Uni constitua également un front dynamique et visible de l'opposition transnationale à la guerre, stimulant à la fois la contestation aux 287 « An American solution to the problems of Northern Ireland », Leeds Student, 15 octobre 1971, p. 4. « By-line: A diary for Belfast – October », The Glasgow University Guardian, 29 octobre 1971, p. 6. « Bring the boys home », The Beaver, février 1973, p. 12. « A Vietnam vet looks at Belfast », The International Times, 28 juin 1973, pp. 6-7. 288 Dominic SANDBROOK, White Heat, op. cit., p. 381. John DUMBRELL, op. cit., p. 43. 113 1ère Partie - 2 : Mouvement contre la guerre du Vietnam États-Unis mais aussi la rébellion au Vietnam, et donc participant indirectement à la désescalade du conflit 289. De plus, ce mouvement joua un rôle crucial dans le cycle de contestation des longues années soixante. Il servit de catalyseur aux autres mouvements, amorçant un tournant radical dans la dynamique protestataire. Les militants n'étaient désormais plus aussi conciliants et respectueux des autorités qu'auparavant. Le recours à des modes d'action inspirés des tactiques de guérilla s'étendit à de nombreux groupes. La transposition du cadre anti-impérialiste des opposants à la guerre du Vietnam à d'autres causes, telles que les luttes étudiantes, l'égalité raciale, féminisme, les droits des homosexuels ou encore l'autodétermination de l'Irlande du Nord ainsi que les nationalismes gallois et écossais, allait galvaniser ces mouvements. À un tout autre niveau, l'opposition au conflit vietnamien contribua également à l'émergence du mouvement environnementaliste grâce aux différents reportages sur la déforestation et la destruction de l'écosystème d'Asie du Sud-Est liées à l'utilisation massive des pesticides, utilisés comme armes chimiques (voir annexe 6). 289 Lien-Hang NGUYEN, « Revolutionary Circuits: Toward Internationalizing America in the World », Diplomatic History, 39, no. 3, 1er juin 2015, p. 415. Tom WELLS, The War Within: America's Battle Over Vietnam, Berkeley : University of California Press, 2005, p. 397. Joel LEFKOWITZ, « Movement Outcomes and Movement Decline: The Vietnam War and the Antiwar Movement », New Political Science, 27, no. 1, mars 2005, p. 18. 1ère Partie - 3 : Mouvement étudiant 1.3. LE MOUVEMENT ETUDIANT Tout comme le mouvement contre la guerre du Vietnam, le mouvement étudiant en Grande-Bretagne souffre d'une image qui ne lui rend pas justice. Les accusations de ses détracteurs ont contribué à forger la vision reprise ensuite par les historiens présentant souvent leur mobilisation comme une pâle copie des mouvements américains, français ou allemands. Cette critique, émise à l'époque par les autorités afin de discréditer les étudiants, visait à réduire leurs actions à un jeu d'imitation puéril, afin d'en ôter la dimension politique. David Bouchier ne voit ainsi dans le mouvement britannique qu'une preuve de l'influence du modèle américain, tandis que Nigel Young le rabaisse au rang « d'écho » et de « postscriptum » 290 . Pour Dominic Sandbrook, il s'agissait principalement d'un phénomène de mode, à l'instar d'Arthur Marwick, qui explique l'absence de réelle contestation étudiante par une plus grande tolérance de la part des autorités et de meilleures conditions d'études dans les universités 291. Ces deux arguments étaient déjà répandus dans les médias au moment des faits. Dans un éditorial du quotidien The Guardian du 27 mai 1968 commentant les évènements se déroulant en France, on pouvait lire « it could happen here – but it needn't ». Quelque jour plus tard, ce même journal accusait les étudiants britanniques de « copier » leurs homologues d'outre-Manche et d'outre-Atlantique (« me-tooism ») 292 . De telles affirmations suggéraient ainsi que leurs revendications étaient sans fondement. Pourtant, il apparaît que les jeunes Britanniques ne percevaient pas leurs conditions d'études comme étant à la hauteur de leurs espérances, et c'est bien cette perception qui fut le moteur de leur contestation. De plus, dans les cas où ils se sont effectivement inspiré d'autres mouvements, il s'agissait d'une stratégie 290 David BOUCHIER, Idealism and Revolution, op. cit., p. 3. Nigel YOUNG, An Infantile Disorder, op. cit., p. 52. Dominic SANDBROOK, White Heat, op. cit., p. 532, 541. Arthur MARWICK, op. cit., p. 561. 292 The Guardian, 27 mai 1968, p. 8. Ibid, 10 juin 1968, p. 8. 291 115 116 Claire Mansour, Diffusion et évolution des mouvements sociaux délibérée et rationnelle, et non d'un mimétisme aveugle, intervenant dans un deuxième temps. L'étude du mouvement étudiant s'appuiera majoritairement sur des articles tirés de leurs propres publications. Le journal de la LSE, The Beaver, rendra compte des évènements dans cet établissement – épicentre de la contestation étudiante. Les journaux de l'université de Leeds, Union News/Leeds Students 293 , ainsi que de l'université de Warwick (située à Coventry), Giblet/Campus/The Warwick Boar 294, permettront d'analyser l'évolution du mouvement en province, dans deux types d'université, la première datant de la révolution industrielle, la seconde des années 1960. Enfin, pour ne pas se focaliser exclusivement sur l'Angleterre, la publication des étudiants de l'université de Glasgow, The Glasgow University Guardian, fournira un aperçu de la situation dans cet établissement écossais. En raison des liens entre les milieux contre-culturel et étudiant, des articles du magazine de la scène underground londonienne The International Times seront également examinés. L'hebdomadaire Peace News et certaines publications de la gauche radicale, particulièrement prisés par les étudiants, couvrirent également leur mobilisation. 1.3.1. Émergence : facteurs environnementaux internationaux et locaux 1.3.1.1. Réformes de l'enseignement supérieur : discours et réalité Dans la lignée de la loi Butler sur l'enseignement (1944), le rapport Robbins (1963) rédigé à la demande du gouvernement conservateur d'Harold 293 Union News fusionna en 1970 avec la publication du Leeds Polytechnic pour devenir Leeds Student. Ce journal reçut le titre de meilleur journal étudiant, décerné par la National Union of Students, pour les années 1970-71 et 1972-73. 294 Le journal de l'université de Warwick fut créé en 1965 sous le nom de Giblet, puis changea de nom à deux reprises, pour devenir Campus en 1967, et The Warwick Boar en 1973. 117 1ère Partie - 3 : Mouvement étudiant Macmillan, visait à rendre l'accès à l'enseignement supérieur plus égalitaire. Selon le principe au coeur de ses recommandations, l'accès à l'université ne devait plus être un privilège réservé aux plus aisés, mais un droit à la portée de tous les aspirants méritants : « [] courses of higher education should be available for all those who are qualified by ability and attainment to pursue them and who wish to do so » 295. C'est dans cet esprit que de nouvelles universités furent construites (Sussex, York, Kent, Warwick, Lancaster, East Anglia, Essex et Stirling), et que les Colleges of Advanced Technology, rebaptisés Polytechnics, se virent attribuer un statut équivalent à celui des universités. Ainsi, le nombre d'étudiants à temps complet dans une université de Grande-Bretagne avait rapidement augmenté, passant de 50 000 en 1938-39, à 82 000 en 1954-55, puis à 118 000 en 1962-63, avant de doubler en presque une décennie pour d'atteindre les 236 000 en 1970-71 296 . La politique du gouvernement Wilson en matière d'enseignement supérieur ne se limitait pas à l'augmentation des capacités d'accueil. Le Premier ministre travailliste prônait également une modernisation du système dans le cadre de sa « révolution scientifique » (« Scientific Revolution ») décrite dans son célèbre discours au congrès du parti en octobre 1963 297. Si cette nouvelle vision suscita l'enthousiasme de nombreux étudiants, le décalage entre discours et réalité laissa rapidement place à un sentiment de frustration. Les conditions d'enseignement de certains établissements n'étaient pas à la hauteur des promesses. Ainsi en novembre 1964, les étudiants de la LSE dénonçaient la surpopulation nuisant gravement aux conditions d'apprentissage 295 COMMITTEE ON HIGHER EDUCATION, Higher Education: report of the committee appointed by the Prime Minister under the Chairmanship of Lord Robbins 1961-63, Londres : HSMO, 1963, p. 8, [en ligne], [consulté le 2 février 2017], disponible à l'adresse suivante : <http://www.educationengland.org.uk/documents/robbins/robbins1963.html #02>. 296 Ibid. p. 14. « Participation rate: now we are 50 », Times Higher Education, 25 juillet 2013 [en ligne], [Consulté le 20 octobre 2017], disponible à l'adresse suivante : <https://www.timeshighereducation.com/features/participation-rates-now-we-are50/2005873.article>. 297 Harold WILSON, « Labour's Plan for Science », discours prononcé au congrès annuel du Parti travailliste à Scarborough, 1er octobre 1963, School of Politics and International Relations, University of Nottingham [en ligne], [consulté le 2 février 2017], disponible à l'adresse : <http://nottspolitics.org/wp-content/uploads/2013/06/Labours-Plan-for-science.pdf>. 118 Claire Mansour, Diffusion et évolution des mouvements sociaux dans l'éditorial de leur journal : « L.S.E. is bursting at its seams. The increased input of students seems to have resulted in an even greater output of overcrowding and confusion » 298. Ce type de doléance ne se bornait visiblement pas à la capitale puisque les étudiants de Leeds se plaignaient également du piteux état de leurs locaux et de leurs capacités d'accueil insuffisantes face à l'augmentation des effectifs. Dans un article exigeant l'extension et la rénovation du campus, le président du syndicat étudiant local qualifiait le département d'anglais de « rangée de taudis » (« a batch of slum terrace houses ») et les conditions du gymnase de « miteuses, pourries et complètement inadaptées » (« dingy, rotten and completely inadequate ») 299 . Quelques mois plus tard, un autre article dénonçait encore l'ajournement de la construction de logements et locaux universitaires destinés à faire face aux nombres toujours croissants d'inscrits 300 . Enfin, une autre critique fréquente des conditions d'enseignement pointait la dégradation du taux d'encadrement et le manque de communication entre étudiants et personnel 301. Selon l'historien Arthur Marwick, les spécificités avantageuses de l'enseignement supérieur britannique résidaient justement dans le taux d'encadrement, le système des bourses de subsistance (maintenance grants) et la prise en charge des frais d'inscription par les autorités locales depuis la loi sur l'enseignement de 1962 302. Or, là encore, les étudiants manifestaient régulièrement leur mécontentement quant à l'insuffisance du montant des bourses de subsistance face à la hausse du coût de la vie, mais également du fait que leur montant dépendait du revenu de leurs parents303. Ainsi, les jeunes Britanniques ne considéraient pas leur situation comme idéale ou même particulièrement privilégiée, contrairement à ce qui a pu être 298 « L.S.E. Secession », The Beaver, 12 novembre 1964, p. 2. « Give us extensions demands President », Union News, 13 novembre 1964, p.1. 300 « New accomodation problem looms », Union News, 7 mai 1965, p. 5. 301 « How to study », The Glasgow University Guardian, 10 mai 1963, p. 2. 302 Arthur MARWICK, op. cit., p. 287. 303 « Grants: Award or charity? », The Beaver, 12 novembre 1964, pp. 4-5. « Freedom to study », Union News, 27 novembre 1964, p. 4. « Grants likely to go up soon », Union News, 7 mai 1965, p. 5. « Education and the Plan », The Beaver, 14 octobre 1965, p. 2. « Grants petition launched », Union News, 15 octobre 1965, p. 1. 299 119 1ère Partie - 3 : Mouvement étudiant avancé par la suite par les différents commentateurs. Cependant, avant de se recentrer sur des problématiques internes, ils firent leurs premières armes sur des questions de politique étrangère et d'égalité raciale. 1.3.1.2. Influence de l'insurrection hongroise de 1956 Tandis que les troupes franco-britanniques envahissaient l'Égypte, un autre évènement international accapara l'attention des étudiants britanniques. Le 4 novembre 1956, les chars soviétiques pénétrèrent dans Budapest, réprimant dans un bain de sang l'insurrection hongroise. Quelques jours plus tôt, le soulèvement populaire amorcé à la suite d'une manifestation étudiante avait tenté d'instaurer un régime démocratique. Choqués par la violence de la répression et galvanisés par le rôle-clé de leurs homologues hongrois, les étudiants britanniques lancèrent différents types d'actions. Des marches silencieuses où les participants portaient des brassards ou des écharpes noires, des fonds de solidarité et même des programmes d'accueil permettant aux jeunes Hongrois de poursuivre leur cursus en Grande-Bretagne, furent organisés à travers le pays au cours des semaines suivantes 304. Un groupe de jeunes Londoniens en vint même jusqu'à créer une force d'intervention, la British Volunteer Force, censée venir en aide aux rebelles hongrois. S'il est peu probable que ce projet ait eu des répercussions concrètes, il est en revanche intéressant de constater que ses partisans voyaient dans le rôle moteur des étudiants hongrois un exemple à suivre. Dans un appel lancé à toutes les universités, ils interpellaient leurs pairs de la sorte : « But are you considering taking action to raise a volunteer force to aid the freedom fighters, who were in the first place inspired by the courage and determination of students, students who still fight alongside them in their ravaged country? » 305 . Cette vision des étudiants en tant que fer de lance de la contestation sociale devint par la suite un thème phare de la 304 « Hungarian students to study in Scotland », The Gilmorehill Guardian, 23 novembre 1956, p.1. « We mourn Hungary », Union News, 23 novembre, 1956, p. 1. 305 « Students form army », The Beaver, 22 novembre 1956, p.1. 120 Claire Mansour, Diffusion et évolution des mouvements sociaux Nouvelle Gauche. Dans la conclusion de sa lettre ouverte publiée en 1960 dans la revue New Left Review, le sociologue américain C. Wright Mills insistait sur la nécessité de considérer les jeunes intellectuels comme les véritables agents du changement social : « That's why we've got to study these new generations of intellectuals around the world as real live agencies of historic change »306. Dans un autre article tiré du même numéro, le poète et essayiste américain Kenneth Rexroth soulignait également le rôle déterminant des étudiants dans la lutte contre l'immoralité galopante de l'époque. Bercés par une éducation libérale exaltant les principes moraux humanistes, ces derniers se retrouvaient par la suite confrontés à l'amère réalité de la marche du monde. Ce décalage suscitait une réaction de colère et d'indignation : « Nobody sees it better than the young student, his head filled with "the heritage of the ages," taught in school all the noblest aspirations of mankind, and brought face to face with the chaos of the world beyond the college gates. [] He is entering it already fed up » 307. Ce sentiment d'indignation morale se retrouvait d'abord dans les articles relatant la crise du canal de Suez et la répression de l'insurrection hongroise, puis dans ceux traitant de l'apartheid, de la course aux armements nucléaires, de l'impérialisme ou encore des discriminations raciales qui allaient bientôt dominer les colonnes des journaux étudiants. 1.3.2. Influence des mouvements précédents et phase modérée : 1956-1967 1.3.2.1. Le mouvement pour le désarmement nucléaire Le mouvement pour le désarmement nucléaire rencontra un fort succès parmi les étudiants. Dès son émergence, il conquit rapidement les campus et se 306 C. Wright MILLS, « Letter to the New Left », New Left Review, 5, septembre – octobre 1960 [en ligne], [consulté le 26 avril 2017], disponible à l'adresse suivante : <https://www.marxists.org/subject/humanism/mills-c-wright/letter-new-left.htm>. 307 Kenneth REXROTH, « Student Take Over », New Left Review, 5, septembre – octobre 1960 [en ligne], [consulté le 26 avril 2017], disponible à l'adresse suivante : <https://newleftreview.org/I/5/kenneth-rexroth-students-take-over>. 1ère Partie - 3 : Mouvement étudiant fit de plus en plus présent dans les journaux, à l'instar d'Isis, la publication des étudiants d'Oxford, qui consacra six numéros exclusivement à la menace nucléaire lors du deuxième semestre de l'année universitaire 1957-58 308 . Une vingtaine de branches de la CND avaient été formées dans les universités dans les premiers mois de l'année 1958, tandis que les grandes figures du mouvement venaient s'adresser directement aux étudiants dans les amphithéâtres. Le révérend Donald Soper fut ainsi acclamé lors de son intervention à la LSE. J. B. Priestley attira une foule de plus d'un millier de personnes lorsqu'il prit la parole à l'université d'Oxford. Leurs discours mettaient en garde contre les dangers des armes de destruction massive, tout en cherchant à convaincre leur auditoire de la nécessité de recourir aux techniques de la non-violence gandhienne pour s'opposer au gouvernement 309. Les étudiants eurent tôt fait de passer aux travaux pratiques, participant en nombre aux actions organisées par la CND et le DAC, telles que la première grande marche de Pâques en avril 1958 ou le sit-in organisé en décembre pour bloquer la construction de la base de missiles de Swaffham, lors duquel plusieurs d'entre eux furent arrêtés 310 . Le mouvement pour le désarmement nuclaire permit ainsi de former ses recrues étudiantes à ces pratiques protestataires, qui allaient s'avérer déterminantes pour leur propre mouvement. Afin de coordonner les actions sur les différents campus, l'organisation fédératrice Combined Universities Campaign for Nuclear Disarmament fut formée, ce qui permit d'établir des liens entre les protestataires des différentes universités mais aussi avec leurs homologues américains et européens 311. Ces réseaux permirent aux étudiants d'organiser leurs propres actions, gagnant ainsi en expérience. 308 « Undergraduates campaign on H-bomb », Peace News, 7 mars 1958, p. 11. « LSE H-bomb campaign », The Beaver, 13 mars 1958, p. 1. 309 « Campaign news in brief », Peace News, 21 mars 1958, p. 3. « Oxford's Stop H-Bomb Campaign », Peace News, 21 mars 1958, p. 3. « Students and the bomb », Peace News, 9 mai 1958, pp. 1, 8. 310 « Aldermaston: It's only the beginning », Peace News, 11 avril 1958, p. 1, 8. « Some lessons from Swaffham », Peace News, 19 décembre 1958, p. 1. « Swaffham hit the headlines », Peace News, 9 janvier 1959, p. 3. 311 « Students and the bomb », Peace News, 2 mai 1958, p. 4. 121 122 Claire Mansour, Diffusion et évolution des mouvements sociaux Lorsque les autorités universitaires tentèrent de les forcer à renoncer à certains projets d'actions collectives, les limites inhérentes à leur statut d'étudiant commencèrent à leur apparaître. Les membres de la branche de la CND de l'université d'Oxford avaient ainsi entrepris d'organiser une marche allant de la base militaire américaine de Brize Norton jusqu'au centre de la ville. L'université refusa qu'une de ses associations soit associée à ce type d'activité contestataire, et les étudiants furent contraints de demander à la branche de la CND de la région d'Oxford de reprendre le flambeau. L'évènement fut finalement couronné de succès, rassemblant près de 700 participants, majoritairement venus des autres campus de la région pour soutenir les étudiants de l'université d'Oxford et dénoncer les restrictions imposées à leur liberté d'expression 312. Les différentes campagnes contre les disciminations raciales allaient également contribuer à faire prendre conscience aux étudiants du peu de liberté dont ils disposaient du fait de leur statut. 1.3.2.2. Campagnes contre les discriminations raciales Après les évènements de Suez et de Hongrie, les étudiants britanniques s'étaient tournés vers un autre grand sujet de préoccupation : l'apartheid en Afrique du Sud. Ils s'insurgeaient d'une part contre le procès pour haute trahison de 156 opposants au régime (South African Treason Trial) mais aussi contre la réforme universitaire visant à exclure les « non-blancs » (« non-whites ») des deux seules facultés où ils pouvaient encore étudier (Separate University Education Bill of 1957). Comme lors des évènements de l'automne 1956, les jeunes militants soulignaient caractère immoral de ces mesures : « If you believe it is immoral for the Africaaner minority to impose a programme which will condemn all non-whites to a position of permanent political, economic and social inferiority, you will suscribe to the Treason Trial 312 « Oxford march », Peace News, 27 novembre 1959, p. 12. « Oxford march », Peace News, 4 décembre 1959, p. 1. 1ère Partie - 3 : Mouvement étudiant Defence Fund »313. Ils employèrent dans un premier temps les mêmes tactiques que pour les campagnes de 1956 : marches silencieuses avec brassards et écharpes noires et fonds de solidarité pour aider les accusés 314. Ils insistaient d'ailleurs sur la continuité de leur démarche en se félicitant du succès du fond d'aide aux victimes en Hongrie afin de justifier une participation similaire en soutien aux prévenus sud-africains 315. En outre, dès 1957, les étudiants de la London School of Economics s'indignaient contre le règlement intérieur interdisant les rassemblements dans l'enceinte de leur établissement. En mai, l'organisation d'un tel évènement contre l'apartheid dans un parc proche des locaux de la LSE n'aboutit qu'à la dispersion de la foule par la police, à la demande de la direction de l'établissement, avant même que ses orateurs aient pu prendre la parole. Cet acte fut perçu comme une atteinte à leur liberté d'expression de la part de la direction ainsi que comme un reflet du manque de considération dont ils faisaient l'objet 316. Si la formulation de ces griefs témoignait d'une prise de conscience de la part des étudiants, celle-ci ne donna pas lieu à un recentrage sur leurs droits et à des actions contestataires comme cela serait le cas par la suite avec l'occupation de l'université en 1967. En mars 1960, la nouvelle du massacre de Sharpeville 317 révélait la volonté du régime du Premier ministre Hendrik Verwoerd de réprimer dans le sang le « vent du changement » (« wind of change ») évoqué par Harold Macmillan lors de sa venue sur le territoire sud-africain le mois précédent 318. Cet évènement catalysa 313 « Universities reject Apartheid », The Gilmorehill Guardian, 22 février 1957, p. 3. « March on South Africa House », The Beaver, 14 mars 1957, p. 1. 315 « African matters », The Gilmorehill Guardian, 15 février 1957, p. 3. 316 « Further accusations on College authorities », The Beaver, 23 mai 1957, p. 1. « Frustrated orators », The Beaver, 23 mai 1957, p. 2. 317 Le 21 mars 1960 la police sud-africaine ouvrit le feu sur une foule de manifestants tuant 69 personnes et en blessant 180. « Scores die in Sharpeville shoot-out », BBC News [en ligne], [consulté le 28 avril 2017], disponible à l'adresse suivante : <http://news.bbc.co.uk/onthisday/hi/dates/stories/march/21/newsid_2653000/2653405.stm>. 318 Harold MACMILLAN, « The Wind of Change », Parlement d'Afrique du Sud, Le Cap, 3 février 1960, South African History Online [en ligne], [consulté le 20 octobre 2017], disponible à l'adresse suivante : <http://www.sahistory.org.za/archive/wind-change-speech-made-south-africa-parliament-3february-1960-harold-macmillan>. 314 123 124 Claire Mansour, Diffusion et évolution des mouvements sociaux la campagne contre l'apartheid au Royaume-Uni et contribua à l'essor de l'AntiApartheid Movement (AAM), formé l'année précédente. Dans les facultés, des groupes spécifiques furent à leur tour créés, lançant divers types d'actions directes et de semaines ou de mois dédiés à la cause. Les étudiants de Leeds, par exemple, organisèrent un boycott des produits sud-africains dans leur restaurant universitaire ainsi que nombre de manifestations. En novembre 1963, ils protestèrent à l'usine de construction aéronautique de Brough dans le Yorkshire où étaient fabriqués les bombardiers Blackburn Buccaneers vendus au gouvernement sud-africain, rappelant ainsi les actions organisées par le C100 ou la CND dans des usines d'armement nucléaire ou des bases militaires 319 . Quant aux jeunes Glaswégiens, ils décidèrent symboliquement d'élire Albert Lutuli, président du principal parti anti-apartheid (African National Congress, ANC), en tant que Rector (recteur honoraire) de leur université en octobre 1962, et ce avec le soutien d'une vaste majorité 320. À la même époque, un parallèle fut fait entre la ségrégation raciale liée au régime d'apartheid et la colour bar souvent pratiquée officieusement au RoyaumeUni. La comparaison est explicite dans un article du Glasgow University Guardian de février 1960 dénonçant les pratiques discriminatoires au logement et à l'embauche dont souffraient les étudiants noirs : « Apartheid, the ugly word associated with South Africa, raised its head in the daily Press last week. But this time [] it was about the colour bar facing overseas students in GLASGOW » 321. Dès 1958, les étudiants de la LSE constataient que certains de leurs pairs d'origine africaine ou asiatique s'étaient vus refuser l'entrée dans une discothèque étudiante très fréquentée du quartier de Soho. Pourtant ce cas ne ferait l'objet d'une investigation détaillée qu'en 1960 et d'une campagne d'action directe qu'en 1963. Au cours de cette dernière, les étudiants installèrent des piquets de protestation pendant près de « Help to fight Apartheid », Union News, 11 octobre 1963, p. 2. « Not for laughs », 1er novembre 1963, Union News, p. 4. « 'Help liberation' marchers told », Union News, 22 novembre 1963, p. 9. 320 « The black and the white of it », The Glasgow University Guardian, 8 mars 1963, p.1. 321 « No colour bar », The Glasgow University Guardian, 12 février 1960, p. 2. 319 1ère Partie - 3 : Mouvement étudiant deux semaines devant l'établissement en question, le Whisky-A-Go-Go, afin d'encourager au boycott 322 . Tout comme pour la campagne anti-apartheid, ce temps de latence séparant la prise de conscience du problème et le recours aux procédés d'action directe peut s'expliquer par l'influence du mouvement pour le désarmement nucléaire mais sans doute aussi celle du mouvement pour les droits civiques des noirs américains. Le mouvement pour les droits civiques des noirs américains avait débuté en décembre 1955 par le boycott des bus de Montgomery, en Alabama, afin de protester contre la ségrégation raciale. En février 1960, ce fut le tour des étudiants de Greensboro, en Caroline du Nord, de s'élever contre les pratiques ségrégationnistes de commerces et de restaurants locaux en y organisant des sit-ins. La tactique fut ensuite reprise par les jeunes militants de nombreux États du Sud du pays. Ces évènements furent abondamment relayés par les médias de masse britanniques ainsi que par les journaux étudiants. En juin 1960, on pouvait voir côte à côte à la une de The Beaver deux articles traitant de la colour bar du WhiskyA-Go-Go et des sit-ins des étudiants du Sud des États-Unis (voir annexe 7). Cette mise en parallèle, le choix de la tactique du boycott, ainsi que le déroulement chronologique des évènements, permet de penser que le mouvement pour les droits civiques avait influençé la campagne des étudiants de la LSE. Ce dernier avait atteint son apogée avec la marche sur Washington pour l'emploi et la liberté au mois d'août. Aux canaux non-relationnels médiatiques, s'ajoutèrent également un certain nombre de liens personnels ayant facilité l'adoption des techniques contestataires comme, par exemple, la présence d'étudiants américains ou d'étudiants ayant eu la possibilité de voyager aux États-Unis. Dans le premier numéro de The Beaver de la rentrée 1963, un étudiant parti travailler à Washington l'été précédent racontait sa participation à la célèbre marche sur Washington 323. Dans un deuxième temps, les visites des figures emblématiques du mouvement 322 « Whisky A'Gogo ? », The Beaver, 13 mars 1958, p. 1. « Race bar », The Beaver, 16 juin 1960, p. 1. « LSE boycott snowball », The Beaver, 24 octobre 1963, p.1 . 323 « Letter from America », The Beaver, 10 octobre 1963, p. 3. 125 126 Claire Mansour, Diffusion et évolution des mouvements sociaux américain sur le sol britannique contribuèrent de surcroît à galvaniser les étudiants, à amplifier la lutte contre les discriminations raciales et à participer à la diffusion des tactiques. On notera, entre autres, le séjour de Martin Luther King à Londres en décembre 1964, mais aussi celui de Julian Bond de l'organisation Student Non-Violent Co-ordinating Committee (SNCC) 324 qui fut en tournée dans les universités britanniques pendant six semaines 325 . Si le sit-in n'était pas une innovation du mouvement américain, ce dernier contribua indéniablement à le populariser. La tactique fut adaptée pour lutter contre la colour bar dans les pubs au Royaume-Uni, donnant ainsi naissance au drink-in, évoqué plus en détail au chapitre sur le mouvement pour l'égalité raciale. Son utilisation se répandit à travers le pays, dans les cercles des militants étudiants et antiracistes 326. 1.3.2.3. Campagne contre les discriminations envers les étudiants étrangers La campagne contre les discriminations envers les étudiants étrangers fut à la croisée des luttes antiracistes et des revendications propres aux étudiants. En ce sens, elle sembla jouer un rôle de transition entre les deux causes. C'est en protestant contre les discriminations raciales au Royaume-Uni et à l'étranger que les étudiants prirent véritablement conscience des problèmes liés à leur statut, permettant ensuite un recentrage du mouvement sur des questions les concernant spécifiquement. Bien que la colour bar affectant les étudiants étrangers ait été remarquée quelques années auparavant, les étudiants ne se lancèrent dans une campagne visant à y remédier qu'à partir du milieu de la décennie. En février 324 L'organisation SNCC fut fondée par les jeunes militants ayant lancé le sit-in de Greensboro en février 1960 avec l'aide de la secrétaire de direction de la Southern Christian Leadership Conference (SCLC) de Martin Luther King nommée Ella Josephine Baker. 325 « News in brief », Union News, 11 décembre 1964, p. 5. « Negro hits out on civil rights », Union News, 26 novembre 1965, p. 2. 326 « Racialism », Union News, 25 janvier 1965, p. 4. Stephen TUCK, « Malcolm X's Visit to Oxford University: U.S. Civil Rights, Black Britain, and the Special Relationship on Race », The American Historical Review, 118, 1, février 2013, pp. 92-3. 1ère Partie - 3 : Mouvement étudiant 1965, une étude de The Beaver menée sur 300 étudiants non-blancs de la LSE révéla que 99% d'entre eux avait souffert de discriminations au logement. Dans la plupart des cas, les bailleurs privés déclaraient tout simplement qu'ils ne louaient pas « aux personnes de couleur » (« No Coloureds ») 327 . À Oxford, les étudiants parvinrent à obtenir l'ajout d'une clause anti-discriminatoire dans les contrats de logements universitaires, tandis qu'à Leeds, la même initiative se heurta à la résistance de la direction de l'établissement 328 . La campagne s'intensifia à l'annonce de la décision du gouvernement d'augmenter les frais d'inscription universitaire de 70 à 250 livres pour les étudiants étrangers, en décembre 1966, pour faire face aux coûts croissants de la massification de l'enseignement supérieur 329. Cette mesure suscita une vive réaction d'indignation morale. Pour les jeunes militants, il s'agissait d'une disposition discriminatoire, comme l'indique cette périphrase la qualifiant « d'apartheid intellectuel » (« intellectual apartheid »)330. La campagne prit une ampleur nationale, et les tactiques employées devinrent plus militantes : boycotts des cours donnant lieu à des journées d'action, piquets de grève, manifestations coordonnées à travers le pays, lobbying de masse des parlementaires, fonds de solidarité pour les étudiants étrangers, teach-ins, etc. La journée d'action nationale du 22 février 1967 réussit à réunir plus de 100 000 étudiants d'un bout à l'autre du territoire, comme par exemple à Leeds où ils furent environ 2000 à prendre part au cortège 331 . La mobilisation parvint à obtenir de quatre universités (Oxford, Cambridge, Hull et Bradford) qu'elles neutralisent l'effet de la décision gouvernementale en absorbant les coûts pour les étudiants étrangers grâce à des dispositions internes. À l'échelle nationale, le gouvernement introduisit une mesure compensatoire visant à décerner des 327 « Survey on accomodation – Results 'disturbing' », The Beaver, 4 février 1965, p. 2. « Colour-bar plea over lodgings », Union News, 6 mai 1966, p. 8. 329 « Govt Squeeze Threatens Overseas Students », The Beaver, 19 janvier 1967, p. 12. « Mass protest denounces fees increase », The Beaver, 9 février 1967, p. 5. 330 « Unpleasant », Union News, 20 janvier 1967, p. 2. 331 « Protests are national », Union News, 21 février 1967, p. 1. « All set for march and boycott », Union News, 21 février 1967, p.1. « Director-student entente over fees increase protest », The Beaver, 23 février 1967, p. 12. « 'Half a mile' of students march », Union News, 24 février 1967, p. 1. 328 127 128 Claire Mansour, Diffusion et évolution des mouvements sociaux bourses réservées aux étudiants étrangers, réduisant presque à néant les économies prévues par la disposition originale. Ce revirement fut perçu comme une victoire des étudiants ayant réussi à forcer le gouvernement à faire marche arrière 332 . Cette impression de réussite ainsi que la forte participation à la campagne contribuèrent à transformer le mouvement étudiant en mouvement de masse. 1.3.2.4. Élément déclencheur : les « troubles » à la LSE, 1966-67 Au même moment, un épisode se déroulant à la LSE joua un rôle de catalyseur et enflamma les esprits des étudiants à travers le pays. L'annonce de la déclaration unilatérale d'indépendance de la Rhodésie par le gouvernement d'Ian Smith, le 11 novembre 1965, déclencha une vague de protestation chez les jeunes Britanniques. Les étudiants de la LSE furent parmi les plus véhéments du fait de la présence d'une forte proportion d'étudiants étrangers, de l'emplacement de l'établissement en plein coeur de la capitale et de sa spécialisation disciplinaire en sciences sociales, qui en avaient fait un bastion militant 333 . La société des étudiants socialistes, surnommée la « Soc-Soc » (Socialist Society), avait été créée le mois précédent, reflétant la désillusion grandissante des étudiants pour le Parti travailliste 334 . Elle allait être à la pointe de la contestation contre le régime racialiste de Rhodésie, et plus généralement au sein du mouvement étudiant national. Après un teach-in et plusieurs manifestations, la campagne prit une tournure différente suite à la nomination de Walter Adams en tant que futur directeur de la LSE 335 . Ce dernier occupait alors le poste de président de 332 « Overseas fees », Union News, 3 novembre 1967, p. 2. « Govt. climbs down on overseas fees », Union News, 17 novembre 1967, p. 1. 333 Caroline HOEFFERLE, British Student Activism, op. cit., p. 57. 334 « LSE Left », The Beaver, 14 octobre 1965, p. 2. 335 « Rhodesia : Runge walks out », The Beaver, 28 octobre 1965, p. 4. « LSE against UDI », The Beaver, 25 novembre 1965, p. 5. 1ère Partie - 3 : Mouvement étudiant l'université de Rhodésie et Nyasaland à Salisbury 336, ce qui le rendait coupable, aux yeux des étudiants, de collaboration avec le régime suprématiste blanc de Smith et donc, impropre à présider aux destinées de leur établissement. Après la publication d'un rapport produit par les étudiants sur les liens entre Adams et le gouvernement Smith, la direction leur répondit au moyen d'une lettre publiée dans The Times. Le président du syndicat des étudiants de la faculté, David Aldenstein, riposta de la même manière à la demande de ses adhérents, sans avoir au préalable obtenu l'approbation du directeur de la faculté 337 . Ayant ainsi enfreint le règlement intérieur, Aldenstein fut traduit en conseil disciplinaire, ce qui eut pour effet d'intensifier la contestation. Les étudiants se soulevèrent tant pour exprimer leur soutien à leur représentant que pour dénoncer le manque de considération dont ils faisaient l'objet. Cet épisode mit en lumière non seulement les limites imposées à leur liberté d'expression mais également l'absence de représentation des étudiants dans les conseils disciplinaires, ou plus généralement, dans la gouvernance de leurs universités. Dans un article intitulé « Student Power », voici comment ils envisageaient le futur de leur mouvement : « Escalation is the keyword now, to protest against Adams's appointment, to ensure that David Aldenstein is not punished, and in the long-run to secure more freedom of expression for students and more control of School decisions »338. Cette « escalade » se traduisit par l'adoption de tactiques de plus en plus militantes, de manière similaire à ce qui était en train d'être mis en oeuvre à l'échelle nationale pour la campagne contre la hausse des frais d'inscription des étudiants étrangers : teach-ins sur le thème du « Student Power », boycott des cours, manifestations 339, etc. À son tour, la direction de l'établissement durcit le ton, fit enlever les tracts vindicatifs affichés sur les murs et interdire le rassemblement du 31 janvier 1967 contre la nomination de Walter Adams. Les étudiants s'y 336 Actuelle université de Harare, capitale du Zimbabwe. Colin CROUCH, The Student Revolt, Londres : Bodley Head, 1970, pp. 40-41. 338 « Student Power », The Beaver, 17 novembre 1966, p. 9. 339 Ibid. 337 129 130 Claire Mansour, Diffusion et évolution des mouvements sociaux rendirent en nombre, et tentèrent de forcer l'entrée de l'amphithéâtre après une altercation avec le directeur. Dans le chaos qui s'ensuivit, un des membres du personnel non-enseignant de l'université succomba à un infarctus. Le 13 mars, la direction annonça l'exclusion des organisateurs étudiants perçus comme responsable de l'incident ce qui déclencha un sit-in de quelques centaines d'étudiants dans les locaux de l'établissement et une occupation de ses services administratifs qui dura neuf jours. La police fut appelée afin d'en expulser les participants, dont une grande partie fut arrêtée et menacée d'exclusion pour trois mois, suscitant une nouvelle vague de protestation 340 . Les « troubles » s'achevèrent avec l'année universitaire. À l'échelle de la LSE, les étudiants obtinrent la réadmission de leurs représentants menacés d'exclusion ainsi que des négociations avec l'administration afin d'obtenir plus de participation dans le processus de gouvernance et des modifications du règlement intérieur leur assurant plus de liberté d'expression 341. Walter Adams s'exprima finalement dans les colonnes du journal de la faculté, condamnant sans aucune ambivalence le système d'oppression raciale en place en Rhodésie et affirmant sa volonté de garantir davantage de représentation des étudiants dans les institutions universitaires 342. Même si cet épisode paraît ne concerner spécifiquement que la LSE, on peut cependant affirmer qu'il eut un impact national. Les étudiants des autres universités passèrent des motions de soutien envers leurs pairs de la capitale. Plus de 100 établissements d'enseignement supérieur exprimèrent leur solidarité avec David Aldenstein lors de son premier passage en conseil de discipline, tandis que des délégations d'étudiants de tout le pays affluèrent à Londres pour prendre part 340 « Student Power and the Free University », The Beaver, 9 mars 1967, p. 14. « LSE Delegation is to Negotiate », Union News, 17 mars 1967, p. 1. Colin CROUCH, op. cit., pp. 52-53. Jonathon GREEN, op. cit., p. 250. 341 « Reinstatement of Aldenstein and Bloom 'act of clemency' », Union News, 8 avril 1967, p. 1. « Greater step forward? », The Beaver, 25 mai 1967, p. 2. 342 « A challenge », The Beaver, 25 mai 1967, p. 8. 1ère Partie - 3 : Mouvement étudiant à la marche dite « des jonquilles » lors de l'occupation de la LSE 343 . Dans le même temps, des révoltes étudiantes éclatèrent à travers le monde, ce qui contribua à donner aux étudiants l'impression qu'ils faisaient partie intégrante d'un mouvement transnational. Le slogan « Student Power » avait été importé des États-Unis, où Stokely Carmichael, alors président du SNCC, avait fait de l'expression « Black Power » le cri de ralliement de la faction radicale du mouvement pour les droits civiques des noirs américains 344. Des parallèles furent également faits avec le Free Speech Movement de l'université de Berkeley en Californie. Le 1er octobre 1964, les étudiants y avaient spontanément organisé un sit-in de 32 heures autour d'une voiture de police afin d'empêcher l'arrestation de l'un des leurs, dont le seul délit avait été la distribution de tracts pour le mouvement des droits civiques interdite sur le campus par le règlement intérieur. La mobilisation dura plusieurs mois, au cours desquels de nouveaux sit-ins eurent lieu, avant que les étudiants ne fussent finalement autorisés à exprimer leurs opinions politiques au sein de l'établissement 345. Ainsi on peut voir dans le choix de la tactique du sit-in et de certains slogans comme « Berkeley 1964: LSE1966: We'll bring this school to a halt too » une volonté de tisser des liens entre les deux contextes et de mettre l'accent sur leurs similarités 346. De même la citation dans les colonnes du journal de la LSE de Clark Kerr, alors président de l'université de Berkeley, indique que les jeunes Britanniques se sentaient accablés par les mêmes problèmes que leurs homologues californiens : To quote Clark Kerr, 'The university is being called upon to respond to the expanding claims of the national service; to merge its activity with industry as never before; to adapt and rechannel intellectual currents.' In other words the university is becoming a 'knowledge factory' to serve the needs of industry. Thus the student becomes an investment. 347 343 « LSE delegation is to negotiate », Union News, 17 mars 1967, p. 1. David FARBER, op. cit., p. 100. 345 Ibid. pp. 195-7. 346 « New-style protests may spread to other universities », The Times, 15 mars 1967, p. 12. 347 « Student radicalism: Is it meaningless? », The Beaver, 23 février 1967, p. 3. 344 131 132 Claire Mansour, Diffusion et évolution des mouvements sociaux La deuxième citation, « knowledge factory », fut empruntée à un discours célèbre de Mario Savio, un des meneurs du Free Speech Movement, montrant ainsi l'adoption du cadre de diagnostic 348. Le responsable du manque de droits des étudiants, de leur statut subalterne, devenait ainsi le système capitaliste tandis que toute forme de mobilisation politique de leur part devenait une menace potentielle se devant d'être enrayée. Cet épisode semble avoir constitué un point de référence pour les étudiants, qui s'en servirent pour comparer les campagnes étudiantes subséquentes. Ce fut le cas par exemple pour les révoltes des étudiants de Berlin Ouest, d'Italie ou du Canada 349. À cette époque, les journaux étudiants se tournèrent de plus en plus vers l'international. La rubrique « External News Briefs » du journal de l'université de Leeds, Union News, alors restreinte aux évènements nationaux, devint « Student World » à partir de la rentrée de 1967, et entreprit de relater les mobilisations étudiantes ayant lieu dans le monde entier. 1.3.2.5. Le mouvement contre la guerre du Vietnam Si les protestations contre le régime suprématiste blanc de Smith en Rhodésie firent prendre conscience aux étudiants de la LSE des limites de leur statut, dans de nombreux autres établissements ce fut la mobilisation contre la guerre du Vietnam qui joua ce rôle. À Leeds, les étudiants se révoltèrent en juin 1966 contre l'attribution d'un diplôme honorifique à Michael Stewart, le ministre des Affaires étrangères, pour exprimer leur rejet de la politique de soutien nominal et matériel du gouvernement Wilson à l'intervention américaine au Vietnam. Ils se rendirent alors compte de l'absence de représentation étudiante au sein du comité conférant les diplômes honorifiques et plus généralement des 348 « Savio blasts Kerr's 'knowledge factory'», The Harvard Crimson, 12 décembre 1964, [en ligne], [consulté le 12 mai 2017], disponible à l'adresse suivante : <http://www.thecrimson.com/article/1964/12/12/savio-blasts-kerrs-knowledge-factory-pmario/>. 349 « Student Power », The Beaver, 17 novembre 1966, p. 9. « Berlin student crisis », Giblet, 11 mai 1967, p. 2. « Canadian students strike », The Beaver, 11 mai 1967, p. 5. 1ère Partie - 3 : Mouvement étudiant différentes instances décisionnelles de leur université 350. Un épisode tout à fait similaire se déroula à l'université de Bradford suite à l'installation d'Harold Wilson en tant que premier Chancellor (chancelier honoraire) de la nouvelle université 351. À nouveau, ce choix avait été fait sans aucune consultation avec les étudiants, qui s'offusquèrent que cette décision leur soit imposée, quand le nom du Premier ministre était pour eux irrémédiablement associé avec le conflit en Asie du Sud-Est. L'adoption du cadre et des tactiques du mouvement contre la guerre du Vietnam allait également galvaniser les étudiants, contribuant ainsi à son tournant militant en 1967 et à sa transformation en mouvement de masse. Alors encore dispersé en petits pôles épars dans les différentes universités du pays, l'essor du mouvement étudiant britannique allait aussi être facilité par la création d'organisations nationales chargées de fédérer et de coordonner les divers groupuscules. 1.3.3. Apogée du mouvement : 1967-75 1.3.3.1. Formation des organisations clés Le syndicat national étudiant britannique National Union of Students (NUS) existait déjà depuis des décennies lorsque le mouvement étudiant prit une ampleur nationale. Mais au milieu des années 1960, l'organisation fut vivement critiquée par les étudiants les plus militants. Au centre de leurs reproches se trouvaient la « Clause 3 » de la constitution, proscrivant toute prise de position sur des questions politiques, et le système électoral du comité exécutif, dominé par des étudiants conservateurs 352. Ainsi, le constat fait au début de l'année 1967 par le journal Giblet de l'université de Warwick était que la structure hiérarchique trop 350 « Honorary degree award », Union News, 24 juin 1966, p. 1. « Students demonstrate while Wilson installed as Bradford Chancellor », Union News, 11 novembre 1966, p. 5. 352 « NUS Conference delegates 'scared'», The Beaver, 12 mai 1966, p. 5. 351 133 134 Claire Mansour, Diffusion et évolution des mouvements sociaux rigide et insuffisamment démocratique de la NUS l'avait déconnectée de l'opinion de la majorité des étudiants, ce qui avait entraîné la naissance d'un groupe de pression militant chargé de la faire évoluer 353. La Radical Student Alliance (RSA) fut créée en octobre 1966 dans l'esprit caractéristique de la Nouvelle Gauche. Dans son manifeste, on retrouvait les idéaux de la démocratie participative, d'égalité des chances, le rejet de la bureaucratie et des structures organisationnelles verticales. La nécessité d'avoir des cellules locales autonomes et dynamiques afin de refléter plus fidèlement les préoccupations des étudiants était affirmée clairement. Contrairement à la NUS, la RSA prônait ouvertement le recours à l'action collective à des fins politiques sur des sujets concernant l'ensemble de la société et pas seulement les étudiants : Students as an organised body must be able to take collective action on matters of general social concern where there is a substantial consensus of student opinion, for example action in opposition to racialism wherever it occurs and for the eradication of its causes in society. 354 La RSA prit la tête des campagnes nationales contre la hausse des frais d'inscription universitaire des étudiants étrangers et pour les « droits des étudiants » (« student rights ») qui lancèrent le mouvement 355. Suite aux révoltes de 1968 à travers le monde, les militants étudiants trouvèrent bientôt la RSA trop modérée à leur goût, du fait de son ambition première de politiser la NUS. Juste après les évènements du mois de mai en France, la conférence inaugurale de l'organisation Revolutionary Socialist Student Federation (RSSF) eut lieu à la LSE. Son but était explicitement révolutionnaire : il s'agissait d'établir des « bases rouges » (« Red Bases ») dans toutes les universités, afin de radicaliser l'ensemble des étudiants et du personnel, d'y créer un système de démocratie participative au moyen d'assemblées générales pour qu'elles deviennent le fer de lance d'une révolution prolétarienne. Cette stratégie 353 « RSA emerges », Giblet, 2 février 1967, p. 6. « The Radical Alliance », Giblet, 16 février 1967, p. 7. 355 Ibid. 354 1ère Partie - 3 : Mouvement étudiant s'inspirait du travail de Régis Debray, un théoricien radical français ayant combattu aux côtés de Che Guevara. Dans son ouvrage Révolution dans la Révolution ? paru en 1967, il développe le concept de « foyers de guérilla » qui serviraient de bases aux guérilleros pour rallier la population et la pousser à se soulever 356 . Le cadre de diagnostic de la RSSF était également l'héritage des mobilisations de 1968, avec la convergence des causes étudiantes, ouvrières et anti-impérialistes en un même combat contre un ennemi commun : celui des opprimés contre les tenants du système capitaliste 357 . Pendant plus d'un an, l'organisation parvint à coordonner des actions militantes à travers le territoire. Leur plus grand succès fut la campagne de soutien aux étudiants de la LSE aux prises avec la direction de leur établissement suite à « l'incident des portails » (« gates incident ») 358. Des étudiants de plus de trente universités convergèrent vers Londres pour une manifestation nationale, des sit-ins furent organisés dans de nombreux campus tandis que certains groupes de la RSSF démolirent à leur tour les portails sécurisés de leurs facultés 359 . On notera également que le groupe contribua à la mise en place d'actions militantes dans des universités plutôt modérées, restées jusque-là à l'écart du mouvement. Ce fut le cas à Aberdeen, avec une occupation des locaux administratifs que les étudiants imputèrent directement à la montée en puissance de la RSSF : « The credit must go to the RSSF »360. Pourtant, dès sa création l'organisation fut tiraillée par des querelles intestines entre différentes factions de la gauche radicale. Rapidement fragilisée 356 Régis DEBRAY, Revolution in the Revolution, New York : Grove Press Inc., 1967, 126 p. « Where is RSSF going and when ? », The Black Dwarf, 3 décembre 1968, p. 2. 358 Peu après l'occupation des locaux de la LSE d'octobre 1968 dans le cadre de la mobilisation contre la guerre du Vietnam, la direction fit installer de nouveaux portails métalliques sécurisés afin d'empêcher les actions de ce type. En janvier 1969, lors d'un sit-in dénonçant les liens financiers entre leur établissement et des companies rhodésiennes et sud-africaines, les étudiants détruisirent ces portails. La direction demanda à la police d'intervenir et prit la décision de fermer temporairement la faculté. Pour de plus amples détails, voir Colin CROUCH, op. cit., pp. 81-93. « It's closed », The Beaver, 29 janvier 1969, p. 10. 359 « A single spark can start a prairie fire. », The Black Dwarf, 14 février 1969, p. 2. 360 « Aberdeen RSSF takes the lead », The Glasgow University Guardian, 22 novembre 1968, p. 4. 357 135 136 Claire Mansour, Diffusion et évolution des mouvements sociaux par ces divisions et reléguée en marge du mouvement, la RSSF finit par se dissoudre en 1970. Ce déclin peut également être expliqué par le changement de cap de la NUS sous la présidence de Jack Straw élu en mars 1969. Bien avant qu'il ne devienne ministre des gouvernements travaillistes Blair et Brown, cet étudiant de Leeds était déjà président du syndicat de son université, et prônait l'abolition de la « Clause 3 » de la constitution qui empêchait toute prise de position politique. Grâce au travail effectué en amont par la RSA et au pic de contestation de l'année précédente, elle fut modifiée afin de permettre une redéfinition du rôle du syndicat, afin qu'il puisse prendre la tête du mouvement étudiant. Néanmoins le recours à l'action directe ne devait être adopté qu'en cas d'échec des négociations par les voies conventionnelles et seulement avec le soutien de la majorité des étudiants de l'établissement concerné 361. Dès lors, la NUS joua un rôle-clé dans mobilisation, défendant avant tout les intérêts des étudiants mais aussi leurs opinions sur les sujets sociétaux. 1.3.3.2. Les « droits des étudiants » Les différentes campagnes sur des sujets externes à l'université permirent aux étudiants de prendre conscience des limites de leur statut et des droits y afférents. Lorsque le président du syndicat des étudiants de la LSE, David Aldenstein, avait été traduit en conseil de discipline pour avoir écrit une lettre publiée dans le quotidien The Times sans l'accord préalable du directeur de l'établissement à l'automne 1966, les étudiants avaient alors protesté contre ces restrictions de leur liberté d'expression et plus généralement leur statut subalterne. Selon eux, leurs libertés civiles étaient bafouées par le règlement intérieur et le fonctionnement de leur faculté 362 . Martelées au moyen de 361 « 'Most students are happy to stay in NUS says Jack Straw new NUS President », Union News, 21 novembre 1969, p. 6. 362 « Strike emergency meeting », The Beaver, 29 février 1968, p.12. 1ère Partie - 3 : Mouvement étudiant l'anaphore « Students should have the right to » dans le manifeste de la RSA, leurs revendications concernaient notamment la participation au processus décisionnel universitaire sur toute question les touchant, l'autonomie complète de leurs syndicats et l'accès à l'enseignement supérieur pour tous sans condition de revenu 363. Ils s'offusquaient également de l'attitude paternaliste (« the 'big daddy' attitude ») des autorités universitaires et du traitement infantilisant qui leur était réservé à cause du principe de in loco parentis (substitut parental) régissant la vie estudiantine 364. Par exemple, en mars 1966 les étudiants de Reading lancèrent une offensive contre les sanctions prévues par le règlement de leurs résidences universitaires qui pouvait leur interdire de sortir du campus ou leur imposer une amende s'ils dépassaient de quelques minutes l'heure du couvre-feu 365. Avant la fin de la décennie, les jeunes contestataires parvinrent à faire assouplir ces règles, de même que le principe de stricte non-mixité 366. En ce qui concerne la représentation des étudiants dans les instances universitaires, la campagne menée par les étudiants de Leicester fut particulièrement significative. Contrairement à la LSE, l'université de Leicester n'était pas particulièrement militante ou cosmopolite. Elle se trouvait dans une ville de province de taille moyenne, et appartenait à la catégorie des « universités de briques rouges » (redbrick universities) nommées en référence à leur principal matériau de construction. Ces structures furent construites après la révolution industrielle et gagnèrent le statut d'université au cours du XXe siècle 367. Ainsi, il s'agissait d'un établissement assez représentatif du territoire national. Après plusieurs mois de vaines négociations avec l'administration, les étudiants décidèrent d'occuper le principal bâtiment administratif en février 1968. Pendant trois jours, environ 500 d'entre eux se relayèrent pour participer à ce qu'ils 363 « The Radical Alliance », Giblet, 16 février 1967, p. 7. « Academic democracy », Union News, 23 février 1968, p. 2. 365 « Round the Universities – Reading », Giblet, 9 mars 1966, p. 6. 366 Caroline HOEFFERLE, British Student Activism, op. cit., p. 162. 367 COMMITTEE ON HIGHER EDUCATION, op. cit., p. 22. 364 137 138 Claire Mansour, Diffusion et évolution des mouvements sociaux appelèrent un « sleep-in », au bout duquel ils finirent par obtenir gain de cause 368. La portée de cette action ne se mesura pas seulement à l'aune de son succès local, mais aussi de l'influence qu'elle eut sur les étudiants des autres campus, comme ici à Leeds : « The settlement at Leicester has set a precedent, and University authorities everywhere will now realise that student power is a solid, direct and militant force which they can not overcome » 369 . En effet, un très grand nombre de mobilisations n'ayant pas nécessairement pour demande initiale la représentation des étudiants dans les institutions universitaires finirent par faire figurer cette doléance parmi leurs revendications principales à force d'essuyer les refus catégoriques de leur direction. Les étudiants s'érigèrent également contre les procédures disciplinaires de leurs facultés, souvent perçues comme injustes, car n'obéissant pas au principe de « justice naturelle » (« natural justice »), c'est-à-dire le droit de tout individu à un traitement juste, équitable et impartial devant la loi. Ces arguments récurrents furent utilisés lors des actions de protestation contre les sanctions encourues par les participants. Ainsi lors du boycott des cours de novembre 1966 à la LSE en soutien à David Aldenstein, les étudiants dénoncèrent le fonctionnement du conseil de discipline : « This procedure denies Aldenstein many of the rights to which he is entitled under natural justice 370 ». De même, au cours d'un teach-in sur la guerre du Vietnam à l'université du Sussex en février 1968, un officier de liaison de l'ambassade américaine fut aspergé de peinture rouge sang lors de son intervention. Les deux militants présumés fautifs furent suspendus jusqu'à la fin du semestre. Ils s'insurgèrent à leur tour contre le caractère inique du passage en commission de discipline : « I was given no chance to say anything for my defence, but was merely told the sentence. Nor was I allowed to hear the evidence against me, or even witnesses names » 371. Dans les mois qui suivirent, la réforme des procédures disciplinaires et « 3-Day Sleep-in Victory », Union News, 1er mars 1968, p. 1. « Student Power », Union News, 1er mars 1968, p. 2. 370 « Strike emergency meeting », The Beaver, 29 février 1968, p.12. 371 « Sussex students seek support », The Beaver, 29 février 1968, p. 12. 368 369 139 1ère Partie - 3 : Mouvement étudiant la non-sanction des militants (« no victimisation ») s'inscrivirent parmi les demandes principales des étudiants à travers le pays 372. Le droit à l'éducation, et plus particulièrement l'équité de l'accès à l'enseignement supérieur, fut également une des revendications centrales durant toute la durée du mouvement étudiant. Cette vaste question recouvrait bien des domaines, allant du coût des repas dans les restaurants universitaires, aux loyers dans les résidences étudiantes jusqu'au montant des bourses de subsistance. Ainsi, des boycotts des cantines universitaires furent organisés dans tout le Royaume-Uni afin de dénoncer la hausse des prix, mettant parfois même en place des systèmes alternatifs pour plus d'efficacité 373 . Quant aux bourses de subsistance, en 1968 il s'agissait de dénoncer la coupe budgétaire effectuée par le gouvernement Wilson empêchant l'augmentation de leur montant au moyen de grandes manifestations et d'un lobbying de masse de la Chambre des Communes 374. Pour les dirigeants de la NUS, il s'agissait avant tout de garantir le principe d'égalité des chances et d'empêcher que l'accès à l'enseignement supérieur ne redevienne un privilège réservé aux plus riches : « The plight of the student is getting worse. In places he is living under slum conditions and it might soon be the case that only the well-off are able to live in Halls of Residence » 375 . Cette campagne évoluerait cependant suite au tournant marxisant pris par le mouvement pour atteindre son pic lors de l'année universitaire 1972-73. « Polemicos », Union News, 1er mars 1968, p.3. « Food boycott », Giblet, 10 novembre 1966, p. 1. « Food boycott », Giblet, 3 novembre 1966, p. 1. « Action boycott », The Glasgow University Guardian, 4 février 1974, p. 1. 374 « PM slices grant increase », Union News, 19 janvier 1968, p. 1. « Kelly leads march to No. 10, NUS dissassociates », Union News, 8 mars 1968, p. 3. 375 Ibid. 372 373 140 Claire Mansour, Diffusion et évolution des mouvements sociaux 1.3.3.3. Le retour de flamme conservateur et les dossiers confidentiels L'incident des dossiers confidentiels de l'université de Warwick, située à Coventry, donna du grain à moudre aux étudiants contestataires à travers le pays. Tout d'abord, il est nécessaire de préciser qu'il s'inscrivit dans le contexte plus large du retour de flamme conservateur de la fin des années 1960 et du début des années 1970, marqué notamment par l'élection d'Edward Heath, qui avait promis de restaurer l'ordre public durant sa campagne 376. Afin de faire entendre leurs demandes sur l'autonomie de leur syndicat et les relations étudiants-professeurs, les étudiants de l'université de Warwick organisèrent une série de sit-ins et de « break-ins » dans le bâtiment administratif de l'université. Au cours de ces actions, l'existence de dossiers administratifs confidentiels concernant les activités politiques des étudiants et du personnel, mais aussi les liens financiers entre l'université et le secteur industriel ou le milieu des affaires fut révélée. Une partie de ces fichiers fut même publiée dans des journaux de la presse mainstream et étudiante 377 . Aussitôt, les administrations de la plupart des universités furent assaillies de questions sur l'existence de fichiers similaires. Étudiants et personnel exigèrent de pouvoir consulter ces dossiers. Lorsque les directions se montrèrent réticentes, comme à Coventry, Oxford ou à Manchester, des campagnes de protestation incluant sit-ins et occupations furent organisées. Les protestataires mancuniens, par exemple, réclamèrent la tenue d'une enquête publique indépendante sur les informations contenues dans ces dossiers ainsi que 50% de représentation dans toutes les instances décisionnelles, l'autonomie complète de leur syndicat et qu'aucune sanction ne soit prise contre les employés et étudiants militants 378 . Dans les universités où la direction se montra plus coopérante, comme à Leeds, autorisant les étudiants à venir consulter leurs dossiers, ces 376 Andy BECKETT, op. cit., p. 31. « The Warwick affair – Is it just a personal issue? », Union News, 28 février 1970, pp. 6-7. 378 « Oxford sits in », Union News, 27 février 1970, p. 1. 377 1ère Partie - 3 : Mouvement étudiant derniers se contentèrent de voter des motions de soutien à leurs camarades mobilisés 379. Pour les jeunes protestataires, l'existence de ces fichiers était une preuve de l'influence des grandes entreprises et du secteur industriel sur leurs universités : « [] the way in which outside industries seem to influence and control policy within a University is an insult to the purpose of these institutions » 380 . Ils y virent également un signe de la répression étatique à l'encontre du militantisme politique puisque la police utilisait des tactiques identiques 381. Ainsi cet épisode renforça la conviction anticapitaliste des militants et leur motivation à s'allier avec les autres laissés-pour-compte du système : les travailleurs. 1.3.3.4. Adoption d'un cadre d'action collective marxisant influencé par mai 1968 La politisation croissante du mouvement étudiant aiguisa leur intérêt pour les questions de justice sociale et les luttes ouvrières. Le teach-in sur les grèves des travailleurs organisé à l'université de Leeds en novembre 1966, avec comme tête d'affiche Jack Dash – un des meneurs des dockers de Londres – témoignait de ces tendances, tout comme la fréquence grandissante des articles de fond portant sur des sujets tels que la pauvreté, les quartiers défavorisés, les emplois précaires ou l'immigration dans les colonnes du journal de la faculté au cours de l'année 1966-67 382. À partir de 1967-68, on observe clairement le passage vers un cadre d'action collective aux accents marxisants, fédérant toutes les causes de protestation sous la bannière de l'anticapitalisme, même dans les universités de province. Les écrits dénonçant l'exploitation des étudiants au profit des élites 379 « University Council decides on files issue », Union News, 20 mars 1970, p. 12. « Confidential files », Union News, 27 février 1970, p. 1. 381 « "Police files on political activists" claims », Leeds Student, 12 mars 1971, p. 1. 382 « 'Right to strike' says Jack Dash », Union News, 11 novembre 1966, p. 3. « 1866 or 1966 », Union News, 21 juin 1966, p. 5. « Other people's lives », Union News, 4 novembre 1966, pp. 6-7. « It's a living », Union News, 9 décembre 1966, p. 7. « The forgotten ones », Union News, 3 novembre 1967, pp. 6-8. « The immigrant », Union News, 10 mars 1967, pp. 6-7. 380 141 142 Claire Mansour, Diffusion et évolution des mouvements sociaux capitalistes se multiplièrent. Un article du journal de l'université de Warwick déplorait ainsi le rôle auquel étaient réduits les étudiants : They must be moulded to the needs of the system, made to conform to curricula, designed not in the interests of learning or culture, but in the interests of profit-mongers in the City of London. This is why this university is run not by students (for whom it theoretically exists), not by the academic staff (whose livelihood it represents) but by a professional bureaucracy, responsible only to the capitalist state and the local industrialists who hold the purse strings and totally out of sympathy with any demands students or staff may make in their own material or cultural interests.383 L'université était métaphoriquement dépeinte comme une « usine à savoir » et dont les étudiants ne seraient que des « produits manufacturés » à la chaîne afin d'en tirer un maximum de bénéfices, et ce, sans aucune considération pour leur développement intellectuel et culturel. Ce thème est traité exactement de la même manière dans un article intitulé « We are the nation's investment but are we being educated or exploited? » dans le journal de l'université de Leeds, citation de Karl Marx à l'appui 384. Ce cadre de diagnostic divisait le monde de manière binaire, opposant les exploités et leurs exploiteurs. On comprend ainsi que les étudiants se soient tournés vers les travailleurs, premières victimes de l'oppression du système capitaliste. L'influence des évènements de mai 1968 en France contribua à ce revirement. De nombreux articles rapportèrent en détails leur déroulement, les meneurs étudiants français furent invités à prendre la parole dans les rassemblements tandis que leurs slogans et tactiques furent adoptés. Le numéro de lancement de The Black Dwarf, journal de la gauche radicale au ton très militant dirigé par Tariq Ali, consacra plusieurs pages au sujet, dont une chronologie heure par heure de la nuit du 10 mai ainsi qu'une double page rétrospective sur le 383 « The role of the student in society », Campus, 11 octobre 1968, p. 7. « We are the nation's investment but are we being educated or exploited? », Union News, 7 février 1969, p. 17. 384 1ère Partie - 3 : Mouvement étudiant mouvement 385. Un des meneurs de la contestation étudiante en France, Daniel Cohn Bendit, dont le surnom « Danny le Rouge » devint « Danny the Red », fut propulsé sur le devant de la scène (voir annexe 8). Il participa notamment au teach-in organisé à la LSE, retransmis par la BBC, sur les révoltes étudiantes en juin 1968 386. Mais plus encore que les barricades et les slogans créatifs, aux yeux des jeunes Britanniques, l'aspect le plus enviable de mai 1968 était de loin l'alliance des étudiants avec le mouvement ouvrier. Bien que l'existence même de cette union soit le sujet de longs débats historiographiques, il ne sera ici question que de la manière dont celle-ci était perçue par les étudiants outre-Manche. Selon eux, la révolte de leurs homologues français se distinguait des autres rébellions du même type à travers le monde, justement parce qu'elle avait réussi à rallier le soutien des salariés : In March of this year, student unrest broke out in France. In this it was only following a familiar pattern. But in France something else happened; the student militants suddenly found themselves with a mass proletarian backing, overtly revolutionary. Nine million workers came out on strike, many against Union orders. 387 Le déroulement des évènements semblait réaliser la prophétie de la Nouvelle Gauche : un soulèvement populaire national à l'instigation de la jeune intelligentsia. C'est précisément dans ce but que les militants britanniques adoptèrent une nouvelle stratégie : celle d'établir des liens avec le mouvement ouvrier. 1.3.3.5. Alliance avec les travailleurs On observe un phénomène de diffusion entre les deux mouvements. Tout d'abord, les étudiants modifièrent le cadre d'action collective de leur mouvement « The night of May 10 », The Black Dwarf, 1er juin 1968, p. 3. « Paris : City of hope », The Black Dwarf, 1er juin 1968, pp. 4-5. 386 « The Sorbonne slogan : L'imagination prend le pouvoir », Union News, 21 juin 1968, pp. 6-7. 387 « Revolution in modern Britain – Is it possible? », Campus, 6 décembre 1968, p. 7. 385 143 144 Claire Mansour, Diffusion et évolution des mouvements sociaux afin qu'il entre en résonnance avec celui des travailleurs. Pour ce faire, ils entreprirent de mettre en avant les similarités entre les deux groupes. Ils commencèrent par invoquer la perception d'un ennemi commun, en partie imputable au durcissement du ton du gouvernement Wilson face à la montée de du militantisme. Grèves sauvages et occupations d'université étaient réprimées de plus en plus sévèrement par les autorités : « [] the obvious similarity of tactics employed against protesting students and 'unofficial' strikers » 388 . Ainsi, cette répression étatique fut considérée comme une tentative de protéger les intérêts des élites capitalistes du pays, et contribua à convaincre les étudiants que, tout comme les ouvriers, ils luttaient contre l'hégémonie du grand capital : « Even a so-called Labour government is prepared to denounce those of us eager to free ourselves of our primary oppressor – CAPITALISM » 389 . De même, les portraits cinglants des militants dans les médias traditionnels, relayant les points de vue des autorités universitaires et des employeurs afin de décrédibiliser les protestataires, renforcèrent ce sentiment. Dans un article dénonçant le manque d'objectivité de la presse mainstream du fait de la mainmise des magnats de la finance et de l'industrie sur ce secteur, un étudiant conclut que le rôle des journaux traditionnels n'était autre que de défendre le système contre toute tentative de remise en question : « [] but what the Press is afraid of – because it survives as a prop of the system – is that any action against the system, be it by students or workers, will strike at the very root of their profits »390. Certaines mesures proposées par les gouvernements travaillistes et conservateurs de la période attirèrent les foudres des syndicats mais aussi des étudiants qui n'étaient pourtant pas directement concernés. Le livre blanc In Place of Strife rédigé par Barbara Castle, ministre de l'Emploi et de la productivité sous Harold Wilson, visait principalement à réduire le nombre de grèves sauvages. Publié en janvier 1969, ses points les plus litigieux prévoyaient de permettre au 388 « May Day strike in LSE », The Beaver, 24 avril 1969, p. 6. « Today is a national day of action », The Beaver, 29 janvier 1969, p. 9. 390 « The daily distortion », The Beaver, 3 février 1972, p. 2. 389 1ère Partie - 3 : Mouvement étudiant gouvernement d'intervenir dans les conflits sociaux en imposant un vote aux grévistes potentiels ou en forçant les employés à reprendre le travail en invoquant « une période de réflexion » (« cooling off period ») d'une durée de 28 jours avant de déclencher une grève 391. Les jeunes protestataires ne tardèrent pas à réagir. Dès les jours suivants, ils fustigèrent les propositions gouvernementales, entreprirent de renforcer les liens et d'organiser des actions communes avec les ouvriers 392. Cette tentative de réforme du fonctionnement des syndicats demeura cependant lettre morte, Wilson et Castle ayant été forcés de reculer. À son arrivée au pouvoir, le gouvernement conservateur d'Edward Heath s'attela à la même tâche, mais en essayant d'encadrer les pratiques syndicales par un dispositif législatif et juridique encore plus contraignant que celui prévu par le livre blanc travailliste. La proposition de loi Industrial Relations Bill de décembre 1970 rencontra à nouveau une opposition virulente, non seulement de la part des syndicats mais aussi de leurs nouveaux alliés étudiants. Cette réforme représentait à leurs yeux une atteinte au droit de grève ainsi qu'aux droits les plus élémentaires des salariés 393 . À Londres comme en province, les étudiants furent nombreux à participer aux journées nationales d'action organisées par les syndicats, culminant avec un cortège rassemblant entre 100 000 et 150 000 personnes le 21 février 1971 394. Afin de tisser des liens de plus en plus étroits avec le mouvement syndical, les étudiants leur apportèrent également leur soutien lors des conflits sociaux locaux. Bien qu'elles fussent loin d'être anecdotiques, ces pratiques ne furent que très peu rapportées dans les médias traditionnels de l'époque, ce qui pourrait expliquer leur trop rare mention dans les ouvrages scientifiques sur le sujet. Tous les journaux étudiants analysés dans le cadre de cette thèse firent état d'un très 391 Dominic SANDBROOK, White Heat, op. cit., p. 710. « Capitalism trembles at ideals », The Beaver, 29 janvier 1969, p. 9. 393 « Ediotrial: Responsibilities and abhorrence », Leeds Student, 27 novembre 1970, p. 3. 394 « 'Kill the Bill'demonstration », Leeds Student, 26 février 1971, p. 5. « 100,000 march in peaceful protest », The Times, 22 février 1971, p. 1. « 125,000 march against Bill », The Guardian, 22 février 1971, pp. 1, 18. 392 145 146 Claire Mansour, Diffusion et évolution des mouvements sociaux grand nombre d'actions de solidarité entre étudiants et salariés, allant des simples déclarations de soutien, aux collectes de fonds pour le personnel gréviste, jusqu'à l'envoi de troupes pour venir grossir les rangs des piquets de grève. Cette évolution du mouvement rendit les étudiants plus réceptifs aux revendications du personnel non-enseignant de leurs universités, à qui ils vinrent également prêter main forte. Au printemps 1969, les jeunes militants du campus de Leeds apportèrent ainsi une aide concrète aux techniciens de leur établissement qui demandaient une hausse de salaire. Leur concours consista principalement à distribuer des tracts ainsi qu'à renforcer les lignes de piquetage et fut grandement apprécié 395. À Coventry, les premiers liens entre étudiants et ouvriers s'établirent dans le cadre de la lutte contre les discriminations raciales à l'automne 1968. Dans deux entreprises différentes, l'usine métallurgique Montgomery Plating et une boulangerie de la chaîne Mother's Pride, des travailleurs d'origine indo-pakistanaise, lassés de voir leurs demandes ignorées par leurs supérieurs et leurs représentants syndicaux, finirent par se mettre en grève. Dans les deux cas, ils furent immédiatement licenciés. Le soutien des étudiants et de certains syndicalistes permit de faire réintégrer les grévistes et d'entamer les négociations 396 . À Glasgow, les étudiants de plusieurs établissements furent très impliqués dans la campagne menée par les ouvriers de l'usine British Sound Recorder d'East Kilbride 397. Quant aux étudiants de la LSE, ils s'investirent avec ardeur auprès des mineurs lors de la grève nationale de 1972 en aidant au blocage de la centrale électrique de Battersea à Londres, en « adoptant » une branche locale de la National Union of Mineworkers (NUM) afin de leur fournir une aide matérielle ou encore en organisant des sorties pour les enfants des grévistes 398. Deux ans plus tard, les liens entre les deux groupes s'étaient encore accrus. Les mineurs 395 « Technicians strike – All out », Union News, 2 mai 1969, p. 4. « Socialist Society column », Campus, 16 mai 1968, p. 8. « Soc. Soc. view », Campus, 4 octobre 1968, p. 8. « Students threatened with arrest in Bakery Strike », Campus, 29 novembre 1968, p. 10. 397 « Soc. Soc. show solidarity with B.S.R. strikers », The Glasgow University Guardian, 23 octobre 1969, p. 3. 398 « Student Power strikes again », The Beaver, 17 février 1972, p. 1. 396 1ère Partie - 3 : Mouvement étudiant d'Aylesham, un petit village du Kent, bénéficiaient toujours du soutien des étudiants qui distribuaient leurs tracts, collaient leurs affiches, collectaient des fonds afin d'aider les familles ne recevant pas ou pas suffisamment d'aides sociales. Ils participaient encore à leurs actions collectives et fournissaient un logement aux grévistes lors de leurs venues à Londres. Une lettre de remerciements publiée dans le journal de la LSE, résume la profonde gratitude que les mineurs d'Aylesham éprouvaient à l'égard de leurs alliés : You will always be remembered for the assistance you have given us in the never-ending struggle to achieve a decent living wage for miners and the working class of Great Britain. We hope that in the coming struggles that you enter into, we will be able to give you the same support that you have given us.399 À l'inverse, les travailleurs leur rendirent la pareille en prenant part aux actions organisées par les étudiants. Lors de la collecte de sang pour les blessés des armées du Nord-Vietnam et du NLF organisée par les étudiants de la LSE, les membres de plus de vingt syndicats répondirent à leur appel 400. De même, au moment de la campagne de protestation contre les propositions de réforme du financement des syndicats étudiants de Margaret Thatcher, alors ministre de l'Éducation et des sciences sous Heath, de nombreux syndicats et ouvriers vinrent apporter leur aide aux étudiants. Les suggestions du ministère prévoyaient que les autorités universitaires prendraient en charge le financement des syndicats étudiants, empêchant ainsi ces derniers de financer les différentes sociétés et groupes leur étant affiliés. L'idée sous-jacente était de couper les vivres des organisations étudiantes ayant des activités politiques, afin que celles-ci ne puissent plus compter que sur la participation pécuniaire de leurs membres. Ce projet de réforme souleva un tollé général auprès des étudiants, qui furent plus de 350 000 à manifester à travers le pays lors de la journée nationale d'action 399 « 'No industrial dispute can be won without the solidarity of people like students and the working class'», The Beaver, 5 mars 1974, pp. 12-13. 400 « Your blood for vietnam », The Beaver, 3 novembre 1969, p. 7. 147 148 Claire Mansour, Diffusion et évolution des mouvements sociaux organisée par la NUS le 8 décembre 1971 401 . À Glasgow, où les étudiants se jugeaient eux-mêmes comme relativement modérés, entre 3000 et 4000 protestataires prirent part au défilé et au rassemblement – un nombre inhabituellement élevé et significatif de la force de la mobilisation 402. Les ouvriers des chantiers navals de l'Upper Clyde et de l'usine d'armements Plessey à Alexandria rejoignirent le cortège, comme le montre la photographie de leurs banderoles publiée dans le Glasgow University Guardian avec la légende « Worker – Student Solidarity at last? » (voir annexe 9). James Reid (dit « Jimmy »), figure notoire de la contestation à l'Upper Clyde Shipbuilders (UCS), accepta sa nomination en tant que Rector (recteur honoraire) de l'université de Glasgow. Celle-ci témoignait du respect que lui portaient les étudiants pour sa lutte acharnée contre les licenciements économiques collectifs prévus par la direction de son entreprise. Au cours de son discours d'investiture, il fit un plaidoyer en faveur de la démocratie participative et de la représentation des étudiants au sein des instances décisionnelles de l'université 403. S'il n'était pas rare que les porte-parole du mouvement syndical viennent s'exprimer devant les étudiants, l'inverse se produisit aussi. Les meneurs de l'occupation de l'université de Manchester s'adressèrent ainsi aux membres du syndicat Amalgamated Union Engineering and Foundry Workers (AEF) d'une usine de textile de Stockport afin d'échanger sur leurs tactiques et de les encourager dans leur lutte contre la direction 404. De même, un des représentants du syndicat des étudiants de l'université de Warwick prit la parole lors d'un rassemblement des ouvriers grévistes devant l'usine Triumph de Meriden pour leur affirmer le soutien de ses camarades (voir annexe 10). Des actions furent aussi co-organisées par les membres des deux mouvements, à l'instar de la grève et de l'occupation d'un bâtiment de l'université de Warwick en janvier 1973, orchestrées par un comité 401 Caroline HOEFFERLE, British Student Activism, op. cit., p. 183. « No surrender! », The Glasgow University Guardian, 15 décembre 1971, p. 1. 403 « Rectorial installation demands: Participation now! », The Glasgow University Guardian, 4 mai 1972, p. 1. 404 « University Council decides on files issue », Union News, 20 mars 1970, p. 12. 402 1ère Partie - 3 : Mouvement étudiant composé des représentants des travailleurs manuels et des étudiants de l'établissement. Les militants obtinrent la hausse du salaire des employés demandée, et l'évènement fut considéré comme une coopération réussie 405. 1.3.3.6. Adoption des cadres et des tactiques du mouvement ouvrier L'établissement de ces liens entre les deux groupes permit de créer les conditions nécessaires à la diffusion d'un certain nombre d'éléments. Les étudiants commencèrent de plus en plus à se considérer eux-mêmes comme la prochaine génération de travailleurs (« workers of the future » 406), leurs bourses de subsistance comme une sorte de salaire qui leur était naturellement dû et la NUS comme un syndicat de salariés traditionnel chargé de défendre leurs intérêts. En 1973, lors de la campagne nationale organisée par la NUS pour demander une hausse des bourses de subsistance, la formulation de leur revendication rappelait étrangement celle d'un syndicat d'ouvriers sollicitant une augmentation des salaires : « The value of student grants is less than what it was in 1968. The standard of living of students has been systematically eroded by inflation. The National Union of Students cannot allow its members' standard of living to decline any further 407 ». Lors de son élection à la présidence de la NUS en 1969, Jack Straw avait promis de faire de celle-ci un « véritable syndicat » (« a real Union »), qui soutiendrait les étudiants en cas de conflit avec la direction de leur établissement et qui pourrait s'engager sur les sujets politiques chers à ses membres 408 . Lors de la conférence annuelle de l'organisation à Margate en 1970, il fut même question de son adhésion à au TUC et du concept d'un « salaire étudiant » (« student wage ») 409 . Même les syndicats 405 « All out ! », Campus, 26 janvier 1973, pp. 1, 5. « It's everybody out ! », Leeds Students, 4 décembre 1970, p. 1. 407 « Grants fight », The Beaver, février 1973, p. 7. 408 « 'Most students are happy to stay in NUS says Jack Straw new NUS President », Union News, 21 novembre 1969, p. 6. 409 « Students may join TUC », Leeds Students, 27 novembre 1970, p. 3. 406 149 150 Claire Mansour, Diffusion et évolution des mouvements sociaux étudiants locaux s'inspiraient des organisations ouvrières, évoquant par exemple la nécessité d'adopter le principe du monopole d'embauche (« closed shop ») afin de renforcer leur assise 410. La revendication pour plus de représentation étudiante au sein des instances décisionnelles des universités fut bientôt reformulée à travers le prisme du mouvement ouvrier et l'adoption de son slogan phare « le contrôle ouvrier » (« workers' control »). Il ne s'agissait plus seulement d'inclure les étudiants mais tous les membres de l'université, ce qui impliquait un élargissement de la revendication afin d'impliquer également les personnels non-enseignants jusquelà exclus, comme les gardiens ou les agents d'entretien : « The institution should be controlled by its members. These are all the people who work there – the library and administration staff, the porters and cleaners, the undergraduates and graduates and the academic staff »411. Les étudiants adoptèrent également les tactiques associées au mouvement ouvrier : piquets de grève, boycotts des restaurants universitaires, occupations, et grèves des loyers. Ce dernier mode d'action était entré dans le répertoire national de l'action collective dès 1915. Pour protester contre la hausse brutale du coût des logements autour des usines de munitions, devenus très prisés depuis le début de la guerre, 20 000 locataires glaswégiens avaient refusé de payer leurs propriétaires perçus comme des profiteurs de guerre 412 . Le succès de cette campagne popularisa la technique, reprise plus tard par les résidents de Londres et Birmingham. À l'automne 1968, ceux-ci lancèrent une nouvelle offensive contre le prix des loyers, jugé « exorbitant » (« exorbitant »), suscitant l'admiration et le soutien actif des étudiants sous forme de collectes de fonds 413. Quelques années plus tard, cette stratégie était adoptée et mise en pratique par les étudiants eux-mêmes dans le cadre de la campagne nationale menée par la NUS en faveur 410 « Students say they'll strike », Leeds Students, 27 novembre 1970, p. 1. « Control of the university », The Beaver, 20 mai 1971, p. 3. « Strategy for workers' control », The Beaver, 17 février 1972, p. 3. 412 Choukri HMED, « Grève des loyers », dans Olivier FILLEULE, Lilian MATHIEU et Cécile PECHU (éds), Dictionnaire des mouvements sociaux, Paris : Presses de Sciences Po, 2009, p. 276. 413 « Birmingham active », The Beaver, 3 novembre 1969, p. 3. 411 1ère Partie - 3 : Mouvement étudiant de la hausse des bourses de subsistance. En janvier 1973, les étudiants de 29 établissements d'enseignement supérieur participaient en refusant de payer le loyer de leur logement universitaire et en le reversant à des caisses de grève mis en place par leurs syndicats 414 . À l'université de Surrey, le montant collecté s'élevait déjà à 45 000 livres à la fin du mois 415. En mars, la campagne s'était étendue à 44 établissements et environ 400 000 étudiants y avaient pris part416. Ils obtinrent finalement gain de cause, tout d'abord en mai avec les maigres concessions de Margaret Thatcher, augmentant le montant des bourses de 40 livres, puis de manière plus conséquente avec le retour au pouvoir d'Harold Wilson en 1974 qui leur accorda leurs demandes principales 417. 1.3.3.7. Retour vers les valeurs de la gauche traditionnelle En se rapprochant du mouvement syndical, les étudiants semblèrent s'être simultanément détournés de l'idéologie de la Nouvelle Gauche, qui faisait d'eux le fer de lance d'une révolution prolétarienne, pour revenir vers une vision plus caractéristique de la gauche traditionnelle. Un étudiant de la LSE résumait ce revirement de la sorte : Students, owing to their lack of direct involvement in production, as well as their transitional nature, should never be regarded as some kind of Vanguard. Rather the formation of a revolutionary party uniting workers, students, and other progressive oppressed sections of society, having as its basis the necessity of proletarian revolution to achieve a socialist society, must be the outlook of all serious Left-wing militants. 418 414 « Rent strike spirals », Campus, 12 janvier 1973, p. 1. « LSE students support rent strike and ask for help », The Beaver, 26 janvier 1973, p. 12. 416 « Next session – a £550 grant ? », The Glasgow University Guardian, 1er mars 1973, p. 8. Caroline HOEFFERLE, British Student Activism, op. cit., p. 186. 417 « Maggie Thatcher Handout £40 – You must be joking !! », Campus, 18 mai 1973, p. 1. « Grants action call », The Glasgow University Guardian, 14 février 1975, p. 1. 418 « Thames Poly », The Beaver, 14 mars 1973, p.6. 415 151 152 Claire Mansour, Diffusion et évolution des mouvements sociaux Les étudiants ne se considéraient donc plus comme des éclaireurs censés montrer la voie au reste du peuple mais simplement comme une autre frange opprimée de la société, au même titre que les ouvriers, les noirs, ou les femmes. De même, si dans les années 1960 les tentatives de création d'institutions d'enseignement alternatif étaient avant tout contre-culturelles, comme par exemple l'Anti-university de Londres créée en 1968 dont les cours étaient assurés principalement par des psychiatres, sociologues, poètes, réalisateurs et artistes 419, en 1973, des initiatives en apparence similaires étaient de nature beaucoup plus politique. En juillet, une autre université alternative ouverte aux étudiants et aux ouvriers, devait contribuer à la diffusion du Marxisme-léninisme afin de s'opposer à la domination de « l'idéologie bourgeoise » (« bourgeois ideology ») 420. En réaction aux nouvelles coupes budgétaires successives imposées aux services publics par les différents gouvernements à travers la décennie, étudiants et syndicalistes se lancèrent dans une campagne commune au début de l'année 1976 : « [] students and trade unionists are working in a joint, concerted effort in a common campaign. The only way forward for this campaign against education cuts, and public sector cuts in general, is through the efforts of the whole labour movement » 421 . Les étudiants se posaient en défenseurs de leur système universitaire, plus particulièrement de l'enseignement en tant que « droit » accessible à tous et non comme privilège réservé aux plus riches, et prenaient pour référence le rapport Robbins (1963) et ses idéaux égalitaires 422. Plus largement, ils souhaitaient intégrer leurs efforts dans le cadre du combat contre les mesures d'austérité gouvernementales. Ils organisèrent et participèrent à des actions locales et nationales, aux côtés des syndicats 423 . L'annonce de l'augmentation des frais d'inscriptions pour les étudiants britanniques et étrangers fut perçue comme une conséquence des restrictions 419 « Anti-university announces courses », The International Times, 19 janvier 1968, p. 3. « Communist university in London », Campus, 18 mai 1973, p. 12. 421 « Grants, cuts and you », The Beaver, 17 février 1976, p. 8. 422 Ibid. « Rents : Why we're being conned », Red Weekly, 16 janvier 1975, p. 7. 423 « Brum rally », Warwick Boar, 26 février 1976, p.1 . « Cuts fight hots up », Red Weekly, 4 mars 1976, p.1 . 420 1ère Partie - 3 : Mouvement étudiant budgétaires et donna lieu à une série d'occupations, et de manifestations 424. À nouveau, les étudiants reçurent le soutien de leurs alliés du mouvement ouvrier, venus grossir les rangs des cortèges ou distribuer leurs prospectus 425. Alors que les mouvements étudiants dans la plupart des autres pays occidentaux avaient périclité à la fin des années soixante, le mouvement britannique avait continué à monter en puissance. L'influence du mouvement ouvrier contribua à le pousser à se recentrer sur des questions nationales et à harmoniser ses cadres afin de consolider les liens entre les deux groupes. Le retour vers les valeurs de la gauche traditionnelle s'expliquait aussi par les luttes fratricides entre les organisations les plus militantes de la gauche radicale, entraînant un regain d'influence des groupes plus modérés. 1.3.4. Déclin 1.3.4.1. Divisions et querelles intestines En observant simplement les chiffres, il est difficile de conclure que le mouvement étudiant ait souffert d'un essoufflement et d'une baisse de participation après 1975. Les manifestations nationales parvenaient encore à rassembler ponctuellement au moins 20 000 personnes, comme par exemple en mars 1976, où un cortège d'environ 20 à 25 000 étudiants et quelques délégations de syndicalistes défilèrent dans les rues de Londres pour dénoncer la hausse des frais d'inscription 426. Pourtant le mouvement souffrait bien de divisions internes entre les différentes factions de gauche. Deux groupes rivaux d'obédience trotskyste, les organisations International Socialists (IS) et International Marxist Group (IMG) luttèrent pour incarner la gauche radicale et militante après 1968 et se 424 « The occupation: Prospect and retrospect », Warwick Boar, 23 février 1977, p. 1. « 'What is to be done?' », The Beaver, 1er mars 1977, p. 1. 425 « Students fight on despite broad left », Red Weekly, 17 mars 1977, p. 3. 426 « Fees demonstration report », Warwick Boar, 16 mars 1976, p. 1. « Cuts fight hots up », Red Weekly, 4 mars 1976, p.1 . 153 154 Claire Mansour, Diffusion et évolution des mouvements sociaux firent mutuellement ombrage. Un des journaux de l'IMG, Red Weekly, ne ratait pas une occasion pour dénoncer ardemment les tendances sectaires du groupe concurrent. Il l'accusait de refuser d'inviter des orateurs issus d'une autre faction de gauche dans leurs rassemblements, si ce n'était pour les huer et les interrompre lors de leurs interventions. Il affirmait encore que certains membres de l'IS seraient même allés jusqu'à brutaliser des militants distribuant des publications de l'IMG 427. Un troisième groupe, baptisé Broad Left, fut formé dans l'espoir de représenter une gauche plus modérée, composé de membres du Parti communiste mais s'élargissant aussi vers une coalition de représentants des principaux partis politiques de la gauche jusqu'au centre (travaillistes, nationalistes gallois et libéraux). Ces luttes d'influence eurent tôt fait de lasser un grand nombre d'étudiants. Ainsi, l'un deux déplorait d'un ton cynique les querelles intestines entre les meneurs des différentes factions : « Our self-styled Marxist leadership is caught-up in its high-flown ideology, its personal ego-trips and its power struggle that it tends to forget about the people it's supposed to be fighting for » 428. Ainsi, malgré son approche souvent jugée un peu trop conciliatoire et l'étendue du spectre des opinions qu'elle représentait, la Broad Left prit le contrôle de la NUS à partir de 1975 du fait de la lutte fratricide entre l'IMG et IS. 1.3.4.2. Fermeture de la structure des opportunités politiques Mais ce qui semble avoir le plus nui au mouvement étudiant, c'est le changement progressif du climat politique ambiant au cours de la décennie, avant les bouleversements liés à l'arrivée au pouvoir du premier gouvernement conservateur de Margaret Thatcher en 1979. Même s'il fut contraint de céder devant la pression des syndicats et des mobilisations contestataires, Edward Heath avait été élu entre autres pour restaurer l'ordre public, réformer les 427 428 « IS sectarianism », Red Weekly, 13 juillet 1973, p. 2. « Occupation », The Beaver, 14 mars 1973, p. 9. 1ère Partie - 3 : Mouvement étudiant relations avec les syndicats et faire reculer l'interventionnisme étatique. Ces thèmes hérités de la conférence de l'hôtel de Selsdon Park de janvier 1970, traduisaient déjà une volonté de rupture avec le consensus d'après-guerre et les supposés excès du laxisme associé à la décennie précédente 429. Cette répression prit plusieurs formes. Les locaux des journaux alternatifs et de certaines organisations militantes firent l'objet de nombreux raids de la part des forces spéciales (Special Branch) de la police britannique, et leurs membres, de poursuites judiciaires. Le magazine contre-culturel Oz, par exemple, se vit intenter un procès pour obscénité en juin 1971, après perquisitions de son siège et des domiciles de trois membres de son comité de rédaction. Les peines de prison initialement requises à leur encontre suscitèrent un tollé et des actions de protestation, avant d'être annulées en appel 430. Ce procès fut loin d'être le seul du genre, mais fut probablement l'un des plus médiatisés. Pour la jeunesse britannique, il devint le symbole de l'étouffement systématique par les autorités de toute forme de remise en question du statu quo : Clearly it was not just a question of bringing to trial editors of an underground magazine for conspiring to corrupt and deprave the youth of the country; it was a political move, by the Establishment to re-assert its supremacy over the impudent claims and challenge to its authority by that very youth. 431 Les autorités employèrent des tactiques similaires à l'encontre de la plupart des organisations militantes, afin de faire reculer la contestation. Ainsi, même les branches locales de l'IMG firent l'objet de fouilles à répétition, tandis que ses adhérents furent fréquemment interpelés et détenus parfois pendant plus d'une vingtaine d'heures 432. 429 Dominic SANDBROOK, State of Emergency, op. cit., p. 58. « Oz bust continued », The International Times, 31 décembre 1970, p.2. « Censorshit and you », The Beaver, 28 janvier 1971, p. 3. Jonathon GREEN, op. cit., pp. 374-5. 431 « Artsetera Oz et Al. », Campus, 26 novembre 1971, p. 6. 432 « IMG arrests », Warwick Boar, 11 octobre 1973, p. 3. 430 155 156 Claire Mansour, Diffusion et évolution des mouvements sociaux Les sanctions disciplinaires prises par les universités se firent également de plus en plus sévères. Lors de la grève des loyers organisée par la NUS dans le cadre de la campagne nationale pour la hausse des bourses de subsistance, les directions universitaires menacèrent les étudiants de leur retirer leurs aides financières, de leur interdire l'accès aux résidences universitaires l'année suivante, voire même de les traduire devant la justice 433. Mais de toutes les mesures prises par les différentes universités, l'annulation des examens fut celle qui eut le plus grand effet dissuasif. Au cours de l'année 1974-1975, les étudiants de l'université de Warwick réussirent à organiser une grève des loyers suivie par 1200 d'entre eux afin de protester contre l'augmentation de 33% des loyers de leurs résidences universitaires. Mais en avril, l'administration brandit la menace de refuser aux étudiants grévistes de troisième année leurs diplômes et d'interdire aux autres l'accès aux logements universitaires à la rentrée suivante. Les jeunes militants votèrent alors l'occupation de deux bâtiments administratifs de leur campus. L'action dura un peu plus de trois semaines, avant qu'ils ne fussent délogés par plusieurs centaines de policiers. Si la présence massive des forces de l'ordre réussit à intimider les étudiants, ils ne s'avouèrent pas vaincus et entreprirent d'occuper derechef un autre bâtiment. Ce fut finalement la perspective de l'annulation des examens qui les convainquit de mettre un terme à leur action sans même avoir obtenu leurs revendications 434. En plus de la répression étatique, le mouvement étudiant dut également faire face à l'hostilité des médias traditionnels. Ces derniers se firent les relais d'un certain nombre de stéréotypes visant à les discréditer, à présenter leurs revendications comme illégitimes, et dans le même temps à justifier la répression policière. Lors de la campagne de 1973 pour la hausse des bourses de subsistance, un étudiant s'indignait dans les colonnes du Glasgow University Guardian des 433 « Newcastle : No hall places for strikers? », Campus, 9 mars 1973, p. 10. « Student rent strikers face legal threats », Red Weekly, 12 mai 1973, p. 2. 434 « Senate House sit-in: United action by Exec. », Warwick Boar, 29 avril 1975, p. 1. « Police on the move. Thrown out! », Warwick Boar, 22 mai 1975, p. 1. « The costs of confrontation », Warwick Boar, 22 mai 1975, p. 2. 1ère Partie - 3 : Mouvement étudiant allégations de la presse insinuant qu'une grande partie du montant de ces bourses servait à acheter de l'alcool 435 . Plus généralement, la plupart des journaux mainstream dressait un portrait très négatif des étudiants militants, les accusant de gaspiller l'argent public, d'agir de manière irrationnelle, parfois même d'être violents, de se laisser manipuler par une poignée d'extrémistes ou de fauteurs de troubles étrangers 436. Leurs actions contestataires étaient ainsi traitées de manière sensationnaliste, leur ôtant toute cohérence et dimension politique. Quant aux nombreuses actions de soutien entre étudiants et travailleurs, elles ne furent que très rarement rapportées. 1.3.4.3. Conclusion et impact du mouvement Lévolution du mouvement étudiant fut façonnée par la dynamique protestataire interne au cycle de contestation des longues années soixante. L'insurrection des étudiants hongrois donna une inspiration novatrice à la Nouvelle Gauche, qui choisit de placer la jeune intelligentsia au centre de sa théorie révolutionnaire. Grâce à l'influence de ce courant idéologique et au rôle de précurseur du mouvement pour le désarmement nucléaire, le mouvement étudiant prit forme et se mobilisa d'abord autour d'enjeux externes : principalement contre les régimes suprématistes blancs d'Afrique du Sud et de Rhodésie, plus largement contre les discriminations raciales sur le territoire national ainsi qu'en opposition à la guerre du Vietnam. Le recentrage du mouvement sur des questions concernant directement les étudiants s'opéra lors de la campagne contre les discriminations envers les étudiants étrangers qui servit de transition. Simultanément, l'escalade suite aux protestations contre la nomination du nouveau directeur de la LSE à cause de ses liens supposés avec le régime raciste de Rhodésie joua un rôle déclencheur. À l'issue de cet épisode, le 435 436 « Edinburgh grants survey sheds light », The Glasgow University Guardian, 15 novembre 1973, p. 1. « The daily distortion », The Beaver, 3 février 1972, p. 2. 157 158 Claire Mansour, Diffusion et évolution des mouvements sociaux mouvement prit un tour plus militant, et sa base de soutien s'élargit considérablement. Les étudiants entreprirent de transformer leurs établissements en demandant un assouplissement des règlements régissant la vie sur les campus, perçus comme trop stricts et infantilisants, ainsi qu'une démocratisation des institutions universitaires garantissant leur représentation au sein des instances décisionnelles. Ils se bâtirent pour préserver l'équité de l'accès à l'enseignement supérieur, en demandant entre autres la hausse des bourses de subsistance ou en dénonçant l'augmentation des frais d'inscription. Sous l'influence de mai 1968, incarnant aux yeux des étudiants britanniques un idéal d'alliance avec la classe ouvrière, le mouvement entra dans une nouvelle phase marquée par l'adoption d'un cadre d'action collective aux tonalités marxisantes. Ils entreprirent de tisser des liens avec le mouvement syndical en organisant des actions de soutien et en fournissant une aide concrète aux salariés en grève. Ces derniers ne tardèrent pas à leur rendre la pareille et les liens entre les deux mouvements se renforcèrent, facilitant ainsi la diffusion de tactiques, de slogans et de certains pans idéologiques comme le retour aux valeurs de la gauche traditionnelle. Fragilisée par des querelles intestines entre les différentes factions de la gauche radicale, la contestation étudiante souffrit du changement du climat politique ambiant qui lui était de moins en moins propice. Les autorités durcirent le ton face à la montée du militantisme, avec une répression policière accrue, le fichage des protestataires, des condamnations pénales à l'encontre de personnes jugées comme dissidentes ou encore des mesures visant à limiter le droit de grève. Les directions d'universités suivirent des lignes de conduite similaires en appliquant des sanctions disciplinaires de plus en plus sévères et en agitant la menace très dissuasive de l'annulation des examens. L'image défavorable des étudiants relayée par les médias contribua à dresser l'opinion publique contre eux et à légitimer la posture des autorités. Ces tendances s'accentueraient ensuite avec l'arrivée au pouvoir de Margaret Thatcher en mai 1979. En ce qui concerne l'impact du mouvement étudiant, il se mesure à plusieurs niveaux. Les jeunes militants réussirent à faire évoluer leurs 1ère Partie - 3 : Mouvement étudiant établissements, en obtenant par exemple l'assouplissement des règlements universitaires, davantage de participation dans le processus décisionnel de leur établissement, ou encore même la création de syndicats locaux représentant leurs intérêts. Ils parvinrent également à tenir tête aux tentatives de réforme de la ministre de l'Éducation et des sciences, Margaret Thatcher. En 1971, elle essaya de brider l'autonomie financière des syndicats étudiants afin de les empêcher de subventionner des organisations politiques. Par l'entremise d'un livre blanc oublié en décembre 1972, elle plaida également pour que les étudiants soient logés par leur famille afin qu'ils se passent des bourses de subsistances 437 . Encore peu enclins à déroger aux principes du consensus d'après-guerre et à l'économie keynésienne, les gouvernements d'Edward Heath et d'Harold Wilson augmentèrent finalement le montant de ces bourses et rendirent leurs conditions d'obtention plus égalitaires, conformément aux demandes des jeunes militants. Dans le cadre des réformes néolibérales de l'ère Thatcher visant à faire reculer l'interventionnisme étatique, le financement de l'enseignement supérieur subit ses premières modifications significatives, notamment avec l'introduction des prêts complémentaires (top-up loans) en 1989, censés pallier le gel des bourses de subsistance. Au niveau sociétal, certains historiens virent dans l'abaissement de la majorité électorale de 21 à 18 ans en 1969 la preuve que la contestation étudiante avait convaincu les gouvernants de leur volonté de participer à la vie politique du pays, comme le réclamait la NUS 438. En ce qui concerne la dynamique à l'oeuvre dans le cycle de contestation des longues années soixante, le mouvement étudiant se développa sur le substrat du mouvement pour le désarmement nucléaire, puis prit un tour plus militant sous l'influence de la contestation contre la guerre du Vietnam. Il contribua à l'essor des mouvements pour l'égalité raciale et ouvrier en participant à leurs campagnes respectives ainsi qu'en organisant de nombreuses actions de soutien, 437 Edward HEATH, op. cit., p. 448. « Education on the cheap », The Red Mole, 17 février 1973, p. 2. Kenneth MORGAN, The People's Peace, op. cit., p. 297. Caroline HOEFFERLE, British Student Activism, op. cit., p. 151. 438 159 160 Claire Mansour, Diffusion et évolution des mouvements sociaux avant de finalement s'inspirer de leurs techniques et de leurs cadres d'action collective. Enfin, en favorisant l'éveil d'une conscience politique parmi ses participants, le mouvement étudiant servit de vivier à tous les autres mouvements de l'époque. Ses réseaux organisationnels servirent à leur tour de berceaux aux mouvements de libération des femmes et des homosexuels, mais aussi aux mouvements nationalistes et écologistes. 1ère Partie - 4 : Mouvement ouvrier 1.4. LE MOUVEMENT OUVRIER La contestation dans les longues années soixante au Royaume-Uni ne fut pas seulement l'apanage des étudiants et des minorités. Cette époque vit également l'émergence d'une nouvelle phase d'agitation intense autour de la défense des intérêts de la classe ouvrière. On définira donc le mouvement ouvrier comme la mobilisation visant à améliorer les conditions de vie de la classe ouvrière, à la fois par les ouvriers eux-mêmes, mais aussi par des acteurs extérieurs, notamment des étudiants ou des intellectuels de gauche, partageant cet objectif. Malgré les allégations des commentateurs de l'époque et des politiques de gauche comme de droite, la classe ouvrière n'avait pas disparu avec la nouvelle ère d'opulence et la hausse du niveau de vie moyen des Britanniques dans les années 1950. « [] we are indeed becoming classless – that is, the great majority of us are being merged into one class » concluait par exemple Richard Hoggart dans son ouvrage The Uses of Literacy en 1957, dans lequel il dénonçait l'émergence de la culture de masse et la société de consommation 439 . Pourtant, aux yeux de la majorité de la population, la société était toujours divisée en trois classes : supérieure, moyenne et ouvrière (« upper, middle, working ») 440 . Ces clivages relevaient bien sûr de critères socio-économiques et socio-professionnels, mais aussi avant tout d'un sentiment d'appartenance. Ainsi l'historien de la Nouvelle Gauche E. P. Thompson définit les classes sociales comme des relations historiques, découlant des interactions entre les différents groupes, poussant les individus à se rassembler en communauté d'intérêts : « And class happens when some men, as a result of common experiences (inherited or shared), feel and articulate the identity of their interests as between themselves, and as against other men whose interests are different from 439 Richard HOGGART, The Uses of Literacy: Aspects of Working-Class Life with Special Reference to Publications and Entertainments, Harmondsworth : Penguin Books, 1957, p. 284. 440 Joanna BOURKE, Working-Class Cultures in Britain 1890–1960: Gender, class and ethnicity, Londres : Routledge, 2009, p. 1. 161 162 Claire Mansour, Diffusion et évolution des mouvements sociaux (and usually opposed to) theirs »441. Ce type de définition non figée, mettant l'accent sur les procédés de construction identitaire, permet de comprendre comment la conscience de classe peut servir d'identité collective afin de pousser les individus à se mobiliser par le biais de processus de cadrage. Les définitions de la classe ouvrière peuvent donc être plus ou moins inclusives, en se limitant par exemple aux cols bleus, c'est-à-dire les travailleurs manuels, ou bien au contraire en englobant les cols blancs. Là où certains voyaient l'embourgeoisement de la classe ouvrière avec l'intégration des ouvriers qualifiés dans la classe moyenne, du fait de leurs revenus et de leurs habitudes de consommation, d'autres dénonçaient la tendance inverse. Une étude réalisée à partir d'entretiens sociologiques auprès des salariés de trois entreprises de Luton au début des années 1960 montrait au contraire que les employés de bureau se tournaient de plus en plus vers les institutions censées représenter les intérêts de la classe ouvrière, c'est-à-dire les syndicats et le Parti travailliste 442 . En ce sens, le mouvement ouvrier dans les longues années soixante fut donc la somme des actions de ces groupes et de leurs alliés, s'opposant à ce qu'ils percevaient être la mainmise de la classe dirigeante contrôlant moyens de production et institutions politiques. L'analyse de ce mouvement se fondera principalement sur des articles tirés des diverses publications de la gauche radicale, dont les nuances et les rivalités seront expliquées un peu plus loin. Le magazine Peace News prit également le parti des travailleurs, suivant avec attention les différents conflits industriels au cours de la période, et fera donc à ce titre partie du corpus. 441 Edward Palmer THOMPSON, The Making of the English Working Class, New York : Vintage, 1966, p. 1. Frank BECHHOFER, John H. GOLDTHORPE, David LOCKWOOD et Jennifer PLATT, « The Affluent Worker and the Thesis of Embourgeoisement: Some Preliminary Research Findings », Sociology, janvier 1967, 1, no. 1, pp. 19-20. 442 1ère Partie - 4 : Mouvement ouvrier 1.4.1. Émergence : facteurs environnementaux internationaux et locaux 1.4.1.1. Montée en puissance des syndicats Au lendemain de la Seconde Guerre mondiale, les syndicats se trouvaient en position de force au Royaume-Uni. Leurs effectifs n'avaient cessé d'augmenter depuis le début du conflit, passant d'un peu moins de cinq millions en 1935 à neuf millions en 1950, pour culminer à presque 13 millions en 1979, date à partir de laquelle la tendance commença à s'inverser. Cette deuxième période fut marquée par une forte hausse du nombre de cols blancs, qui augmenta d'environ 30% entre 1951 et 1968, accompagnant l'expansion du secteur public. La proportion de femmes s'accrut aussi fortement, puisqu'elles représentaient environ 25% des adhérents en 1960, contre 40% en 1980 443. Les liens historiques et structurels entre le mouvement syndical et le Parti travailliste 444 garantissaient à ce dernier un poids important à son congrès annuel, grâce au principe du vote bloqué (block vote) permettant aux principaux syndicats du pays de déterminer la ligne du parti 445. Pendant la guerre, la coopération étroite entre les syndicats et le gouvernement d'union nationale dirigé par Winston Churchill renforça leur influence. Ernest Bevin, secrétaire général du syndicat des transporteurs Transport and General Workers' Union (TGWU), fut nommé ministre du Travail, assurant la mobilisation de la main d'oeuvre afin d'augmenter la production essentielle à l'effort de guerre, tout en maintenant la paix sociale. Rendant hommage au rôleclé joué par les syndicats pendant ces heures sombres, Churchill déclara en août 1945 devant la Chambre des Communes : « We owe an immense debt to the trade 443 Chris WRIGLEY, British Trade Unions since 1933, Cambridge : Cambridge University Press, 2002, pp. 19, 22. L'ancêtre du Parti travailliste, le Labour Representation Committee fut créé en 1900 sur une décision du TUC afin de réprésenter les intérêts des syndicats et des ouvriers au parlement. De nombreux syndicats étaient affiliés au Parti travailliste, et leurs cotisations assuraient la majeure partie de son financement. 445 Thomas QUINN, « Block Voting in the Labour Party : A Political Exchange Model », Party Politics, 8, mars 2002, p. 207. 444 163 164 Claire Mansour, Diffusion et évolution des mouvements sociaux unions and never can this country forget how they stood by and helped » 446 . Le triomphe électoral de Clement Attlee, à la tête du premier gouvernement travailliste à disposer d'une majorité absolue au parlement, consolida encore davantage leur assise. Aux côtés de Bevin, d'autres syndicalistes de renom prirent place au gouvernement, comme George Isaacs, président du TUC en 1945 447. Ainsi, la politique menée par le gouvernement répondait aux attentes du mouvement syndical. Les réformes sociales du Welfare State visaient à rendre la société britannique plus égalitaire et favorisaient la hausse du niveau de vie des moins privilégiés. Un vaste programme de nationalisations des principaux services et activités économiques du pays, comme l'industrie minière en 1947, correspondait à des revendications de longue date des syndicats 448. Cependant, ce système de monopôle d'État serait caractérisé par une gestion très centralisée, bien différente des idéaux autogestionnaires chers aux militants. Enfin, l'abrogation en 1946 du Trades Disputes and Trade Unions Act (1927), vestige de la défaite amère par laquelle s'était soldée la grève générale de 1926, levait l'interdiction pesant sur les grèves générales et de solidarité. Les gouvernements conservateurs suivants poursuivirent une ligne politique similaire : mesures de planification économique et protection sociale. Le consensus d'après-guerre domina également les relations industrielles avec le primat de la négociation collective libre 449 (free collective bargaining). Macmillan résista même à la pression de ses députés d'arrière-ban de réinstaurer la loi de 1927 contre les grèves 450. Cependant, vers la fin des années 1950, la croissance de l'économie britannique commençait à montrer des signes 446 Winston CHURCHILL, débat à la Chambre des Communes, 16 août 1945, Hansard 1803-2005, 413, paragraphe 94 [en ligne], [consulté le 28 février 2018], disponible à l'adresse suivante : <http://hansard.millbanksystems.com/commons/1945/aug/16/debate-on-the-address>. 447 Chris WRIGLEY, « Trade Unionists and the Labour Party in Britain: The Bedrock of Success », Revue Française de Civilisation Britannique, 15, no. 2, 2009, p. 69. 448 Keith DIXON, « Ed Miliband et la question syndicale », Savoir/Agir, 3, no. 25, 2013, p. 118. 449 En 1906, la loi Trades Dispute Act avait accordé une forme d'immunité judiciaire aux syndicats, ne pouvant désormais plus être tenus responsables des pertes financières liées aux grèves, ils étaient donc en mesure de négocier librement les salaires et les conditions de travail de leurs adhérents. 450 Anne-Marie MOTARD, « Introduction : les syndicats britanniques, déclin ou renouveau ? », Revue Française de Civilisation Britannique, 15, no. 2, 2009, p. 8. 1ère Partie - 4 : Mouvement ouvrier d'essoufflement, et la hausse de l'inflation préoccupait de plus en plus le gouvernement. Les syndicats coopérèrent en vue de limiter cette dernière, en acceptant la modération salariale. Mais cette stratégie contribua également à creuser un fossé entre leurs dirigeants nationaux, plutôt modérés et centristes, chargés d'imposer ces pratiques et leurs bases, de plus en plus militantes avec la baisse de leur pouvoir d'achat. 1.4.1.2. Rôle majeur des délégués d'atelier Tandis que les syndicats jouissaient d'une influence sans précédent, le patronat adopta une nouvelle stratégie visant à contourner leurs directions nationales. La plupart des négociations salariales se faisaient alors à l'échelle nationale, à travers des accords de branche. Mais du fait de certaines transformations macroéconomiques, comme le déclin de la plupart des industries traditionnelles ou encore une concurrence internationale accrue, les employeurs tentèrent de ramener les discussions à l'échelle locale. Afin de maximiser la productivité de leurs compagnies, ils privilégièrent les accords d'entreprises, permettant par exemple le passage à la rémunération à la pièce. En agissant de la sorte, le patronat renforça le poids des délégués syndicaux conduisant ces négociations au niveau des ateliers (shop stewards) 451. Ces derniers avaient émergé de la base du mouvement syndical dans les années 1910. Sous l'influence du courant du syndicalisme révolutionnaire, les idées de contrôle ouvrier (workers' control) et de démocratie industrielle avaient eu le vent en poupe. Aux yeux de ses partisans, le seul moyen de libérer la classe ouvrière de l'exploitation capitaliste était la prise en main directe de la production par les travailleurs. Les délégués d'atelier furent élus pour défendre les intérêts des ouvriers, au moment où les directions des syndicats semblaient les avoir perdus de vue en coopérant avec le gouvernement. 451 Jean-Paul REVAUGER, Le Pouvoir Aboli : L'idée d'autogestion en Grande-Bretagne 1900-1983, thèse de doctorat d'État, sous la direction de Pierre MORERE, Grenoble III, 1986, p. 231. 165 166 Claire Mansour, Diffusion et évolution des mouvements sociaux Ainsi, leur forte augmentation entre 1960 et 1980, passant de 90 000 en 1961 à 317 000, reflétait le schisme entre la base du mouvement syndical et sa hiérarchie 452. En juin 1958, les ouvriers écrivant pour le supplément sur les grèves du journal marxiste The Newsletter fustigeaient les dirigeants des syndicats nationaux, accusés de lâcheté, voire même de trahison par intérêt : « And if leaders who grovel in the muck and filth of knighthoods and honours lists are too scared to lead – let them get out and make room for men » 453 . Ce conflit impliquant une centaine de milliers d'ouvriers manutentionnaires, d'employés de bus et de dockers à Londres illustrait les changements à l'oeuvre 454. Dans ces trois cas, les grévistes n'avaient pas le soutien officiel de leurs organisations syndicales, il s'agissait de grèves sauvages (wildcat strikes). Depuis la fin des années 1950, le recours à ce type d'action était devenu beaucoup plus fréquent. Non seulement le nombre de grèves avait bondi entre les décennies 1945-55 et 1955-65, mais la quantité de travailleurs impliqués et de journées de travail perdues avait doublé 455. Selon le chiffre cité par les autorités, 95% de ces grèves étaient non-officielles 456 . Les causes de ces conflits avaient également évolué, dépassant bien souvent les simples revendications pécuniaires pour s'étendre aux conditions de travail, à son organisation, aux droits des travailleurs, etc. Le rôle des délégués d'atelier s'en trouvait élargi, recouvrant désormais tous les aspects susceptibles d'affecter leurs membres, comme le résumait Hugh Scanlon, dirigeant du syndicat de la métallurgie Amalgamated Union of Engineering Workers (AUEW) : « Shop Stewards tend to believe that any subject which affect their members is a fit and proper matter for negotiations and agreements »457. La capacité à se mobiliser pour des considérations dépassant le 452 Chris HOWELL, Trade Unions and the State: The Construction of Industrial Relations Institutions in Britain, 1890-2000, Princeton : Princeton University Press, 2005, p. 122. 453 « Greatest fight since '26 strike and we can win it! », Strike Bulletin: Supplement to the Newsletter, 14 juin 1958, pp. 1-2. 454 Ibid. 455 Dominic SANDBROOK, White Heat, op. cit., p. 356. 456 Chris HOWELL, op. cit., p. 99. 457 Hugh SCANLON, The Way Forward for Workers'Control, Nottingham : Insitute for Workers' Control, 1968, p. 3. 167 1ère Partie - 4 : Mouvement ouvrier simple bien-être matériel allait justement être un des aspects les plus significatifs de la contestation dans les longues années soixante. 1.4.1.3. Anti-communisme et Nouvelle Gauche Parmi les défenseurs de la classe ouvrière à la gauche des travaillistes, le Parti communiste de Grande-Bretagne avait bénéficié de la popularité de l'Armée rouge pendant la guerre, du fait de sa résistance héroïque face aux envahisseurs nazis. En 1942, le parti était à son apogée, comptant 56 000 membres. En 1945, les communistes reçurent plus d'une centaine de milliers de suffrages, et réussirent à faire élire deux députés au parlement 458 . Mais le climat d'anticommunisme latent accompagnant la guerre froide renversa rapidement la vapeur. En 1948, le Parti travailliste proscrit la coopération avec les communistes, et exclut quatre députés considérés trop proches des Soviétiques. Certains syndicats firent de même, comme le TGWU, qui bannit neuf responsables de ses rangs, et interdit l'élection et la nomination de communistes aux postes à responsabilités 459. En 1956, la révélation des crimes de Staline et la répression sanglante de l'insurrection hongroise ébranlèrent le CPGB, perdant 10 000 adhérents et nombre de ses intellectuels, comme par exemple le journaliste Peter Fryer ou l'historien E. P. Thompson 460. Certains quittèrent le parti de leur plein gré, d'autres en furent renvoyés pour avoir condamné sans détour ces atrocités. Ils se réunirent ensuite au sein de différents groupes marxistes constituant la Nouvelle Gauche, et tentèrent, dans un premier temps, d'influencer le Parti travailliste de l'intérieur selon une tactique d'entrisme. Leur importance ne se mesura pas tant en termes numériques qu'en termes d'influence, à travers une pléthore de publications, mais aussi de stratégies visant à politiser la jeunesse et la 458 Jeremy TRANMER, « A force to be reckoned with? The Radical Left in the 1970s », Revue Française de Civilisation Britannique, 21, no. 3, 2016, pp. 175-195. 459 Dominic SANDBROOK, White Heat, op. cit., pp. 231-2. 460 « Disillusioned Communist », Peace News, 11 janvier 1957, p. 3. 168 Claire Mansour, Diffusion et évolution des mouvements sociaux classe ouvrière. Par souci de clarté, seuls les principaux seront mentionnés dans le cadre de cette thèse. Un premier noyau pouvait être identifié autour de la Socialist Labour League (SLL), formée en 1959 par Gerry Healy avec le soutien du comité de rédaction de l'hebdomadaire The Newsletter. Ce journal, lancé en mai 1957 par Peter Fryer, entendait représenter une troisième voix, distincte de celles des communistes « staliniens » et de la presse « capitaliste » 461. La SLL et sa publication Newsletter462, s'attirèrent rapidement les foudres des dirigeants travaillistes, qui les bannirent 463. Ses membres affirmaient se différencier des autres marxistes en prônant explicitement le renversement du système capitaliste, plutôt que sa transformation progressive, par le recours à l'action directe ouvrière de masse. Pour y parvenir, ils comptaient oeuvrer par l'entremise de la base du mouvement syndical et du Parti travailliste 464. Ils se concentrèrent sur l'aile jeunesse de ce dernier, baptisée Young Socialists (YS), notamment à travers leur publication Keep Left, capitalisant sur l'intérêt des jeunes pour le désarmement nucléaire. La SLL réussit rapidement à dominer cette branche, contrôlant complètement sa direction en 1964, forçant ainsi les dirigeants travaillistes à créer un nouvel organe, les Labour Party Young Socialists (LPYS) en 1965 465 . Ils réorientèrent ensuite leurs efforts vers la base du mouvement syndical, avec la création de l'organisation All Trade Unions Alliance, afin de lui insuffler une direction alternative d'orientation clairement marxiste. Cette dernière parvint à rassembler 630 délégués d'atelier venus d'horizons divers lors de son premier congrès 461 Peter FRYER, « Announcing a service to socialists : The Newsletter », Tract annonçant la publication de The Newsletter, avril 1957, Marxist Internet Archive [en ligne], [consulté le 1er mars 2018], disponible à l'adresse suivante : <https://www.marxists.org/history/etol/newspape/newsletter/newsletter-flyer-april-1957.pdf>. 462 Le journal The Newsletter changea de nom en 1969, pour devenir Workers Press. 463 « Labour's cuckoo in the nest », The Times, 15 août 1959, p. 7. Norman HARDING, Staying Red: Why I Remain a Socialist, Londres : Index Books, 2005, p. 84. 464 « The Socialist Labour League looks to the future », The Newsletter, 11 avril 1959, p. 108. 465 Norman HARDING, op. cit., p. 92. 1ère Partie - 4 : Mouvement ouvrier national à Birmingham en octobre 1968 466 . En 1973, la SLL devint un parti politique, baptisé Workers Revolutionary Party (WRP), et commença à présenter des candidats aux élections dès l'année suivante. Une autre organisation marxiste relativement influente fut fondée en 1950, par Tony Cliff et ses partisans, sous l'appelation Socialist Review Group, mais fut rebaptisée International Socialists en 1962, adoptant le slogan d'une de leurs publications, International Socialism, « Neither Washington nor Moscow, but international socialism » pour manifester leur refus de choisir un camp dans le contexte de la guerre froide 467. Les membres d'IS s'efforcèrent tout d'abord d'infléchir la ligne du Parti travailliste, notamment en infiltrant son aile jeunesse. Ils se trouvaient donc en concurrence directe avec la SLL, qu'ils tentèrent de contrecarrer à travers leur publication Young Guard, rivalisant ouvertement avec Keep Left. En 1965, l'organisation se désaffilia du Parti travailliste, mais maintint ses liens avec la LPYS, nouvellement créée pour s'affranchir de la SLL, et prospéra à travers l'opposition à la guerre du Vietnam 468. Mais le principe directeur de leurs activités était de pousser la classe ouvrière vers l'émancipation. Ils apportèrent ainsi leur soutien aux travailleurs engagés dans des grèves sauvages, et établirent leur première branche d'usine en 1966 469 . Pour mobiliser la base du mouvement syndical, ils lancèrent de nombreuses publications destinées à différents secteurs industriels, comme The Dockworker, The Collier, The Carworker, ou encore GEC Worker. En mars et en décembre 1974, ils rassemblèrent des délégués d'atelier provenant de tout le territoire lors de deux conférences nationales, réunissant respectivement environ 500 et 600 représentants ouvriers 470. Ils furent également très actifs dans les campagnes pour le droit à l'emploi (Right to Work 466 « Militant British unionists meet », The Bulletin, 11 novembre 1968, p. 8. « Class struggle in Britain », The Bulletin, 10 février 1969, pp. 5-8. 467 Jeremy TRANMER, op. cit., p. 178. 468 Robert J. ALEXANDER, International Trotskyism 1929-1985: A Documented Analysis of the Movement, Durham et Londres : Duke University Press, 1991, p. 484. 469 Ibid. 470 « Rank and filers build struggle », Workers' Power, 12 décembre 1974, p. 3. 169 170 Claire Mansour, Diffusion et évolution des mouvements sociaux Campaigns) tout au long des années 1970. En janvier 1977, l'organisation évolua en parti politique, sous le nom de Socialist Workers Party (SWP), mais la transition fut accompagnée de dérives centralistes peu démocratiques qui ternirent sa réputation 471. Quant à l'International Marxist Group, l'organisation vit le jour en 1966 grâce aux efforts d'un cercle d'anciens communistes de Nottingham, notamment Pat Jordan et Ken Coates. Elle n'était pas autant focalisée que les autres groupes de la gauche radicale sur le mouvement syndical, mais y exerça néanmoins une certaine influence par l'entremise de l'Institute for Workers Control. Ce dernier avait émergé d'un séminaire sur le contrôle ouvrier rassemblant une soixantaine de personnes, en 1964, à l'initiative du même noyau de militants de Nottingham, déjà impliqués dans la rédaction d'un bulletin socialiste intitulé The Week 472 . En juin 1966, résonnant avec la grève des marins, leur conférence sur l'autogestion rencontra davantage d'écho, réunissant plus de 150 délégués provenant de tout le pays, représentant une vingtaine de syndicats et six universités 473. L'institut publia de nombreux pamphlets à destination du mouvement ouvrier, souvent rédigés par des intellectuels comme par des dirigeants syndicaux, afin de suggérer aux grévistes de différents secteurs l'adoption de tactiques et de revendications particulières 474. Mais si l'IMG était partisan d'une révolution prolétarienne, celleci ne pouvait advenir que grâce à l'avant-garde étudiante. La spécificité de la vision du groupe résidait dans le rôle qu'il accordait aux universités, considérées comme les véritables bastions de la contestation. Le thème « des bases rouges » était un motif récurrent dans ses nombreuses publications : The Red Mole, Red 471 « As International Socialists launch SWP », Red Weekly, 27 janvier 1977, p. 9. CENTRE FOR SOCIALIST EDUCATION, Report of the Workers Control Conference: Nottingham, 1966, Nottingham : The Week, 1966, p. 2. 473 Ibid. 474 Hugh SCANLON, op. cit., p. 3. 472 1ère Partie - 4 : Mouvement ouvrier Weekly, Socialist Challenge qui se succédèrent, mais aussi The Black Dwarf 475 , qui comptait bon nombre de sympathisants dans son comité de rédaction, parmi lesquels Tariq Ali. L'organisation avait gagné en popularité lors du mouvement contre la guerre du Vietnam, et contribué à la création de la VSC, qui allait devenir le centre de gravité de la mobilisation. Elle fut surtout plébiscitée par les étudiants et les cols blancs 476. À la fin des années 1970, l'IMG tenta d'établir une coalition de la gauche radicale en vue de l'élection de 1979. Devant l'échec de l'initiative, ses membres décidèrent finalement de retourner à leur stratégie initiale d'entrisme au sein du Parti travailliste 477. Enfin, malgré l'ostracisme que lui valurent les évènements de 1956 et la chute continue de ses effectifs, le Parti communiste demeura plus important, en termes numériques, que tous les autres groupes de la gauche radicale réunis, comptant 30 000 membres en 1969, puis 20 000 en 1979 478. Le parti adopta une stratégie d'alliance avec la gauche non-communiste, connue sous le nom de Broad Left, sacrifiant les divergences d'opinion sur l'autel de l'unité. De ce fait, ses membres adoptèrent généralement des positions plutôt modérées lors des différents conflits industriels, ce qui leur valut d'être taxés de « réactionnaires » et de « traîtres » par les marxistes 479. Ainsi lors de la grève des marins de 1966, les membres de la SLL étrillèrent Jack Dash – meneur communiste des dockers de Londres et membre du TGWU – qu'ils surnommèrent « the Pearly docker » 480 . Dash, et à travers lui les communistes en général, étaient accusés de jouer un 475 Le journal The Black Dwarf fut publié de juin 1968 à 1972. En mars 1970, suite à des querelles au sein du comité de rédaction, les membres de l'IMG, à l'instar de Tariq Ali, démissionnèrent pour fonder leur propre publication The Red Mole. En 1973, cette dernière fut rebaptisée Red Weekly, puis Socialist Challenge à compter de 1977. 476 Robert J. ALEXANDER, op. cit., p. 494. 477 Jeremy TRANMER, op. cit., p. 179. 478 Ibid., p. 177. 479 « Who are the real splitters? », The Newsletter, 28 mai 1966, p. 1. 480 Cette expression difficilement traduisible renvoyait à une vieille tradition de la classe ouvrière londonienne, selon laquelle les vendeurs ambulants collectant des dons pour de bonnes oeuvres ornaient leurs costumes d'une multitude de boutons de nacre. De ce fait, ils furent baptisés les « rois et reines de nacre » (« Pearly kings and queens »). 171 172 Claire Mansour, Diffusion et évolution des mouvements sociaux double jeu, adoptant des postures faussement militantes pour ensuite céder aux demandes du gouvernement et refuser de soutenir la grève : [] there has emerged on the scene in a number of industries the fake militant. This man is, generally speaking, a member of the Communist Party who enjoys being interviewed by the press and television [] He likes using left words in his speeches, but when it comes to a struggle, he invariably retreats. Mr. Jack Dash, a member of the Communist Party, and the Transport and General Workers' Union, is just such a man, a sort of pearly king on the docks.481 Cet exemple témoignait également de la rivalité acharnée entre les différentes organisations de la gauche radicale, engendrant parfois de violentes attaques personnelles. Vers la fin des années 1960, le rapprochement vers le centre induit par la Broad Left avait convaincu la plupart des syndicats de cesser d'exclure les communistes des postes à responsabilités 482. Ainsi, au début des années 1970, la grande majorité des syndicats comptaient de nombreux membres du CPGB parmi leurs représentants, jusqu'aux plus hauts niveaux de leurs organes délibérants 483 . Mais le CPGB orienta également ses efforts vers la base du mouvement syndical, créant le Liaison Committee for the Defence of Trade Unions (LCDTU) en septembre 1966, afin de protester contre la politique de gel des salaires du gouvernement et défendre les intérêts des syndicats. L'organisation rencontra un certain succès lors des protestations contre différentes législations antisyndicales 484. L'impact combiné de ces groupes de la gauche radicale contribua à l'essor du mouvement ouvrier, et joua un rôle crucial dans l'élargissement du champ de ses revendications, allant jusqu'à y intégrer des considérations dépassant de loin le bien-être matériel. 481 « The pearly docker », The Newsletter, 2 juin 1966, p. 1. Dominic SANDBROOK, White Heat, op. cit., p. 708. 483 Geoff ANDREWS, Endgames and New Times: The Final Years of British Communism, 1964-1991, Londres : Laurence & Wishart, 2004, p. 116. 484 Jeremy TRANMER, op. cit., p. 181. 482 1ère Partie - 4 : Mouvement ouvrier 1.4.2. Influence des mouvements précédents et phase modérée : 1956-1968 1.4.2.1. Le mouvement pour le désarmement nucléaire La cause du désarmement nucléaire possédait une portée universelle, puisqu'aux yeux de ses partisans, il s'agissait de garantir la survie de l'humanité en évitant un conflit nucléaire. Cependant, la majorité des participants au mouvement était plutôt issue de la classe moyenne – ils étaient d'ailleurs conscients de leur difficulté à impliquer la classe ouvrière 485. Cet obstacle fut plus facilement surmonté chez les jeunes, se révélant plus réceptifs au discours de rébellion contre les autorités tenus par les franges les plus radicales. Ainsi, l'aile jeunesse du Parti travailliste connut une croissance très rapide grâce à son engagement dans le mouvement pour le désarmement nucléaire. Fondée en 1960, elle disposait de 756 branches à travers le pays au terme de sa première année d'existence, et de 25 000 membres au bout de la quatrième 486 . Son cri de ralliement était alors à l'époque « No bombs, no bosses », reliant l'opposition aux armes nucléaires à la révolte contre la classe dirigeante. La bombe à hydrogène incarnait la domination des élites : « [] many of us consider the H-bomb to perhaps be the biggest impertinence we have had from the ruling classes so far » 487. Les Young Socialists profitèrent de la dynamique créée par la CND pour recruter des jeunes, notamment parmi la classe ouvrière, puisque de nombreuses branches furent ouvertes dans les quartiers défavorisés, comme celui de Cranhill à Glasgow, constitué principalement de logements sociaux construits après la guerre. Les membres de ce groupe étaient ouvriers, dockers, vendeurs, apprentis ou bien encore chômeurs 488. Déclarant la conférence de février 1965 à Morecambe « l'un des évènements les plus importants dans l'histoire du mouvement ouvrier » (« one 485 « The campaign on Tyneside », Peace News, 2 février 1964, p. 1. « Labour to power – with a strong YS », Young Guard, 20 septembre 1962, p. 2. 487 « Editorial », Young Guard, 7 mars 1962, p. 2. « YCND conference », Young Guard, 10 août 1962, p. 7. 488 « Cranhill youth joined up for Morecambe », Keep Left, mars 1965, p. 2. 486 173 174 Claire Mansour, Diffusion et évolution des mouvements sociaux of the most important events in the history of the working-class movement »), ses militants se tournèrent vers la défense des intérêts de la classe ouvrière après le déclin du mouvement pour le désarmement nucléaire 489. Les unilatéralistes s'efforcèrent de rallier la masse ouvrière à leur cause, espérant ainsi utiliser leur poids pour faire pression sur le gouvernement. Le cadrage moral légitimant l'action collective élaboré par les pacifistes fut adapté au cas des ouvriers. Selon leur diagnostic, puisque les dirigeants avaient embarqué le pays dans la course aux armements nucléaires sans l'accord du peuple, la grève devenait un recours démocratique permettant à ce dernier de faire entendre sa voix. Si la grève pouvait être justifiée pour demander des augmentations de salaires, elle relevait de l'obligation morale lorsque la survie de l'humanité était en jeu : « So we're driven to our last democratic means. Industrial action can stop this crime, just as individuals can refuse to do what they know is wrong. It's our duty to refuse to provide the manpower. Refuse to sell our skills. Reject genocide. Withdraw our labour and save mankind » 490. De nombreuses campagnes de sensibilisation furent organisées dans le milieu industriel, dès les débuts du mouvement, par les partisans des méthodes d'action directe du DAC, puis du C100. La première fut menée pendant neuf semaines lors de l'été 1958 auprès des ouvriers de l'usine d'armement nucléaire d'Aldermaston, destination des célèbres grandes marches de Pâques. Les militants établirent leur campement devant les portes de l'établissement, et tentèrent d'interpeller les salariés en distribuant des tracts, en organisant des rassemblements durant leur pause déjeuner, ainsi qu'en lançant une pétition pour la reconversion pacifiste de la production de l'usine. Ils étendirent le champ de leurs actions aux villages voisins, par le biais de porte à porte, de projection de films et d'expositions491. Les années suivantes les sites de construction de bases 489 « Let's go for socialism », Keep Left, mars 1965, p. 1. « Strike against mass murder », Peace News, 16 mai 1958, p. 10. 491 « Return to Aldermaston », Peace News, 4 juillet 1958, p. 1. « Aldermaston: appeal to workers », Peace News, 18 juillet 1958, p. 1. « In camp at Aldermaston », Peace News, 25 juillet 1958, p. 1. « Aldermaston: workers risk jobs to sign petition », Peace News, 22 août 1958, p. 1. « Aldermaston: Unique experiment comes to a close », Peace News, 2 octobre 1958, p. 3. 490 1ère Partie - 4 : Mouvement ouvrier de missiles nucléaires et les usines de production firent l'objet de campagnes similaires, notamment à Manchester, Glasgow, Bristol, dans les Midlands ou la banlieue de Londres 492 . Lorsque les pacifistes encourageaient les ouvriers à quitter leur emploi, ils proposaient de les accompagner dans leur transition, au moyen de fonds de soutien et de les aider à retrouver du travail avec l'aide des syndicats locaux. Ils furent pourtant peu nombreux à sauter le pas, les articles de l'hebdomadaire Peace News ne recensant qu'une poignée de cas isolés sur tout le territoire 493. Les grèves en opposition aux armes nucléaires rencontrèrent davantage de succès. La première eut lieu dans la nouvelle commune de Stevenage, au nord de Londres, en avril 1959. Avec l'appui des syndicalistes de la région, 500 ouvriers construisant une usine de missiles cessèrent le travail pendant une heure, et rejoignirent le reste des manifestants opposés au projet pour défiler dans les rues de la ville 494. Des grèves d'une journée furent également organisées, comme à Manchester en mai 1962 où 700 employés d'une usine pétrochimique protestèrent contre les essais nucléaires. Il s'agissait donc d'une grève relevant de considérations purement morales 495. Certains syndicats formèrent également des groupes spécialisés affiliés à la CND, comme celui de la région de Liverpool, organisant des manifestations de leur propre initiative 496. Ils participèrent aussi aux grandes marches de Pâques, notamment en 1961, où 27 bannières différentes, dont celles des principaux syndicats nationaux, flottaient au-dessus du cortège 497. Le soutien des syndicats nationaux avait culminé avec l'adoption de résolutions prônant le désarmement unilatéral par les plus puissants d'entre eux, 492 « Industrial campaigns made direct challenge », Peace News, 28 octobre 1960, p. 2. « Towards a more serious movement », Peace News, 2 juin 1961, pp. 4-5. 493 « Workers quit at rocket base site », Peace News, 17 août 1959, p. 10. 494 « Britain's first strike against H-bomb », The Newsletter, 11 avril 1959, pp. 107, 114. « New town strike against bomb », Peace News, 17 avril 1959, p. 10. 495 « 700 strike against tests », Peace News, 18 mai 1962, p. 12. 496 « Merseyside action », Peace News, 19 octobre 1962, p. 12. 497 « This was Easter 1961 », Peace News, 7 avril 1961, pp. 5-6. 175 176 Claire Mansour, Diffusion et évolution des mouvements sociaux dont le TGWU et l'Amalgamated Engineering Union (AEU) 498, commandant ainsi la majorité des votes lors de la conférence annuelle du Parti travailliste en septembre 1960 et aboutissant à l'adoption de l'unilatéralisme comme ligne officielle du parti 499 . Cependant, son dirigeant, Hugh Gaitskell, y restait farouchement opposé et refusa d'en tenir compte. Cet épisode augmenta la défiance à l'égard des institutions politiques et apporta de l'eau au moulin des groupes de la gauche radicale 500. Les efforts des militants du mouvement pour le désarmement nucléaire témoignaient du lien entre pacifisme et revendications sociales. La valeur des vies humaines se trouvait au centre de leurs préoccupations, et par extension les conditions de vie des individus 501 . Ainsi, les demandes pour réorienter la production des usines à des fins pacifistes étaient accompagnées d'aspirations autogestionnaires. Un ingénieur du nom de Tom MacAlpine, membre du C100 écossais, décida de mettre en pratique ces idéaux en créant les « Factories for Peace ». Il s'agissait d'un réseau de coopératives produisant des appareils de chauffage, appliquant le principe du contrôle ouvrier, et dont les bénéfices étaient reversés à des associations caritatives. Les usines furent implantées dans des zones souffrant d'un fort taux de chômage, la première ouvrit ses portes à Glasgow en 1963, et la deuxième en 1965 dans une communauté minière du sud du pays de Galles 502 . Ces projets inspirèrent des initiatives similaires dans les années 1970, comme la reconversion d'une fabrique d'armement à des fins 498 Le principal syndicat du secteur de la métallurgie changea plusieurs fois de nom au cours de la période étudiée en raison d'une série de fusions. D'abord connu sous le nom d'AEU jusqu'en janvier 1968, puis d'AEF (Amalgamated Union of Engineering and Foundry Workers), il devint l'AUEW (Amalgamated Union of Engineering Workers) en 1971. 499 « Unions vote for unilateralism », Peace News, 13 mai1960, p. 12. « Plans to consolidate the victory », Peace News, 14 octobre 1960, p. 1. 500 « Who is the minority, Mr. Gaitskell? », Peace News, 10 mars 1961, p. 1. « Labour's Lord Salisburys », Peace News, 17 mars 1961, p. 1. « New bombs for Labour », International Socialism, 5, été 1961, p. 1. 501 « May Day », Peace News, 8 mai 1959, p. 4. 502 « The factory for peace: from slogan to action », Peace News, 1 février 1963, p. 7. « The Factory for Peace is growing », Peace News, 8 mai 1964, p. 11. « Welsh Peace Factory launches appeal », Peace News, 7 mai 1965, p. 12. 1ère Partie - 4 : Mouvement ouvrier d'utilité sociale organisée par les travailleurs de Lucas Aerospace pour sauver leurs emplois en 1976 (évoquée dans le chapitre sur le mouvement écologiste) 503 . Enfin, une des figures tutélaires du mouvement pour le désarmement nucléaire, Bertrand Russell, se servit de sa fondation pour financer l'Institute for Workers' Control, afin d'encourager le développement de modèles alternatifs répondant à des idéaux humanistes 504. 1.4.2.2. La grève des marins de 1966 Depuis le milieu des années 1950, les grèves sauvages n'avaient cessé d'augmenter, témoignant du militantisme croissant de la base du mouvement syndical. Refusant d'accorder leur soutien aux grévistes, les dirigeants des syndicats donnaient de plus en plus l'impression à leurs membres qu'ils se rangeaient du côté du patronat et des gouvernements conservateurs. Après avoir essuyé une longue série de grèves sauvages, la National Union of Seamen choisit pourtant d'appuyer les marins lors de la grève de 1966, contrairement au TUC. Mais si l'évènement marqua un tournant dans l'évolution de la contestation, ce fut en raison de sa portée politique. Le gouvernement travailliste dut intervenir directement dans le conflit, car les revendications des grévistes allaient à l'encontre de sa politique des revenus. Les marins demandaient une réduction de leur temps de travail, de 56 heures par semaine à 40, ce qui revenait à compter les 16 heures des fins de semaines en heures supplémentaires et donc à augmenter leur rémunération de 17% 505. La hausse requise dépassait de loin la norme de 3,5% fixée par le gouvernement. Wilson présenta immédiatement la grève comme une atteinte aux intérêts de la nation tout entière dans un discours « Alternatives to unemployment », Peace News, 1er décembre 1978, p. 4. 504 Ken COATES et al., Bertrand Russel and Industrial Democracy, Nottingham : Institute for Workers' Control, 1970, p. 9. 505 « Seamen in the dock », Peace News, 20 mai 1966, p. 1. 503 177 178 Claire Mansour, Diffusion et évolution des mouvements sociaux télévisé, au soir du premier jour du conflit, le 16 mai 1966 506 . Pendant six semaines, le nombre de grévistes ne cessa de croître, passant de 12 000 à 26 000, et avec le soutien des dockers, de centaines de navires se retrouvèrent bientôt immobilisés 507. Les militants des Young Socialists organisèrent également plusieurs manifestations en solidarité 508 . Le Premier ministre déclara l'état d'urgence le 23 mai, menaçant d'utiliser la marine et la force aérienne pour décongestionner les ports509. Pour les marins et leurs alliés, la lutte engagée à l'origine contre leurs employeurs avait pris une tout autre tournure. Ils se retrouvaient désormais face à un gouvernement prêt à utiliser sa puissance militaire pour briser la grève, afin de limiter au maximum l'augmentation des salaires, conformément aux exigences des institutions financières américaines ayant renfloué les caisses de l'État l'année précédente pour éviter la dévaluation de la livre 510 . Ainsi, l'image du Parti travailliste défendant les intérêts de la classe ouvrière s'en trouvait sérieusement écornée : « The labour government, elected by a majority of votes coming from the working class, has turned its back completely upon those who elected it, and instead takes its orders from the bankers of Wall Street » 511. Wilson s'aliéna encore davantage la gauche de son parti et la gauche radicale lorsqu'il s'en prit aux délégués d'atelier : « this tightly knit group of politically motivated men, [] who are now determined to exercise back-stage pressures, forcing great hardship on the members of the union, and their families, and endangering the security of the industry and the economic welfare of the nation » 512 . Le Premier ministre insinuait clairement que tout le mouvement était l'oeuvre de manipulation communiste, même s'il ne prononça pas le mot, profitant de l'anticommunisme ambiant pour monter la population contre les grévistes. En 506 Harold WILSON, The Labour Government, op. cit., p. 300. « We are determined says Bill Hogarth », The Seaman, 20 mai 1966, p. 1. « The fight goes on », The Seaman, 1er juillet 1966, p. 1. 508 « Seamen and dockers must win, says SLL conference », The Newsletter, 4 juin 1966, p. 1. « Dockers, Seamen and Young Socialists unite against the government's policy », Keep Left, juin 1966, p. 5. 509 Harold WILSON, The Labour Government, op cit., pp. 300-301. 510 Dominic SANDBROOK, White Heat, op. cit., p. 280. 511 « Labour backs bankers against seamen », The Newsletter, 18 juin 1966, p. 1. 512 Harold WILSON, The Labour Government, op cit., pp. 307, 311. 507 1ère Partie - 4 : Mouvement ouvrier faisant peser la responsabilité sur eux, il participa à la création du stéréotype du délégué d'atelier fauteur de trouble, égoïste, incarnant l'ennemi intérieur. Wilson alla jusqu'à citer des noms de communistes proches des meneurs de la grève, ce qui eut un effet immédiat sur la direction de la NUS. L'organisation syndicale accepta dès le lendemain les propositions des employeurs, mettant ainsi un terme au conflit. Les témoignages frustrés des marins dans les journaux faisaient état d'un sentiment de trahison, à la fois à l'encontre des dirigeants syndicaux, accusés d'avoir vendu les grévistes, mais aussi du Premier ministre, pour avoir brisé la mobilisation 513. Les critiques s'élevaient aussi publiquement du camp travailliste, avec la parution à la une du magazine Tribune d'un article rédigé par le meneur des députés de la gauche du parti, Michael Foot, intitulé « What's wrong with our govenrment? » 514. Et avec l'annonce des bombardements américains sur les deux plus grandes villes du Nord-Vietnam, Hanoï et Haïphong, le 29 juin 1966, l'opposition au gouvernement était sur le point de prendre un tour encore plus militant. 1.4.2.3. Le mouvement contre la guerre du Vietnam Le mouvement contre la guerre du Vietnam focalisa l'opposition au gouvernement travailliste, et contribua à radicaliser les militants. En plus de la CND et du C100, des organisations de la gauche radicale appelèrent à se mobiliser dès le début de l'escalade du conflit au Vietnam, en 1965. La British Campaign for Peace in Vietnam avait été fondée par la coalition de la Broad Left au mois de mai, et demandait la tenue de négociations internationales pour mettre fin au conflit. Les Young Socialists, en revanche, se positionnaient clairement en faveur d'une victoire du Nord-Vietnam, et de leurs alliés rebelles dans le sud, le National Liberation Front – également surnommés Vietcongs. Ainsi, lors des 513 « 'The P.M. has become a strike breaker' », The Newsletter, 2 juillet 1966, p. 1. «What the seamen have to say », Peace News, 24 juin 1966, p. 1. 514 « What's wrong with our governement », Tribune, 24 juin 1966, p. 1. 179 180 Claire Mansour, Diffusion et évolution des mouvements sociaux manifestations du 1er mai 1965, on pouvait entendre résonner dans les rues de Londres et des autres grandes villes du pays des slogans tels que « All power to the Vietcong! » ou « Arm the Vietcong » 515. Cette posture catégorique émanait de leur perception du conflit, non pas à travers un cadrage moral comme les pacifistes, mais par le biais d'un prisme de lutte des classes. Selon les militants de l'organisation, le conflit opposait les ouvriers et les paysans Vietnamiens à la puissance impérialiste américaine : « Warfare in Vietnam is class warfare. On one side are the Vietnamese workers and peasants fighting for socialism in their country. On the other side is United States imperialism fighting to retain a foothold in Asia »516. Ils établissaient ainsi un parallèle entre leur propre situation et celle des insurgés vietnamiens, et justifiaient l'action collective au nom de la solidarité de classe. Mais il s'agissait également de se démarquer de la bien-pensance associée à la gauche modérée, et surtout à la classe moyenne, en se montrant plus radicaux. Aux yeux des sympathisants YS, soutenir un processus de paix sans prendre parti, revenait à cautionner indirectement l'impérialisme américain. Ils assimilaient cette attitude à celles de salariés restant neutres lors d'une grève, faisant ainsi pencher la balance en faveur du patronat517. Ils se posaient donc comme les seuls véritables alliés des révolutionnaires vietnamiens, et parvenaient ainsi à trouver un écho auprès de certains jeunes ouvriers britanniques. L'un d'entre eux déclarait ainsi : « The Vietcong are fighting for the same thing as us », faisant référence au combat au nom des intérêts de leur classe et du socialisme 518. Les membres des YS recrutèrent aux portes des usines et organisèrent des manifestations dans les grandes villes industrielles, comme Newcastle, Glasgow ou Leeds, afin de mobiliser en priorité les jeunes de la classe ouvrière 519. 515 « May Day message from the Socialist Labour League: Arm the Viet-Cong », The Newsletter, 8 mai 1965, pp. 1, 4. « Class warfare », Keep Left, août 1967, p. 10. 517 « Wilson: ally number one of American imperialism », Keep Left, juin 1965, p. 2. « July 18 YS Vietnam demo », Keep Left, juillet-août 1965, pp. 1, 8. « Class warfare », Keep Left, août 1967, p. 10. 518 « Vietnam », Keep Left, juillet-août 1965, p. 7. 519 « Young Socialists call for the defeat of U.S. imperialism », Keep Left, septembre 1965, p. 2. « Glasgow YS beat ban – March against Vietnam war », Keep Left, octobre 1965, p. 8. 516 1ère Partie - 4 : Mouvement ouvrier Mais les partisans des YS furent rapidement détrônés par d'autres marxistes, ceux de la Vietnam Solidarity Campaign, qui réussit à s'imposer comme l'organisation principale du mouvement contre la guerre du Vietnam. Celle-ci s'était également prononcée en faveur d'une victoire du NLF, et parvint à rassembler une centaine de milliers de manifestants à Londres en octobre 1968 sur ce mot d'ordre explicitement révolutionnaire. Cet évènement avait impliqué une proportion non-négligeable de jeunes de la classe ouvrière, estimée entre 30 et 40% selon les organisateurs 520. Ils expliquaient cet engouement par le fait que la contestation avait dépassé le simple cadre de l'opposition au conflit vietnamien, pour devenir le point de convergence de la lutte contre le gouvernement et le capitalisme. Une multitude de slogans exprimait la frustration des protestataires à l'encontre du Premier ministre, comme « Wilson is a traitor », ou bien appelaient à la révolution socialiste, à l'instar de « Smash the Bourgeoisie » ou « Internationalism Capitalism OUT, International Socialism IN » 521 . Certaines pancartes ajoutaient encore aux encouragements pour les insurgés vietnamiens des revendications de la classe ouvrière, telles que « Victory to the NLF, workers' control in the shipyards » ou « Victory to the NLF, we want higher pensions », témoignant de la montée de l'agitation sociale 522 . Tout comme leurs prédécesseurs du mouvement pour le désarmement nucléaire, les militants de la VSC tentèrent de sensibiliser les ouvriers travaillant pour l'industrie de l'armement. Les salariés de Rolls Royce étaient, entre autres, dans leur ligne de mire, en raison de la fabrication d'un moteur utilisé par les avions d'attaque américains en Asie du Sud-Est 523. Même si ces démarches se révélèrent peu fructueuses, elles contribuèrent à la promotion des idées de contrôle ouvrier et d'utilité sociale de la production. Avec le retentissement des évènements de mai 1968, ouvriers et étudiants s'allièrent pour 520 « Lesson of October 27 », International, décembre 1968, pp. 11-12. « The demonstration », Campus, 1er novembre 1968, p. 1. « Callaghan, the demo, and the press », Peace News, 1er novembre 1968, p. 1. 522 « Vietnam solidarity : the determination to resist and the confidence to win », Socialist Outlook, 7, mai-juin 1988, pp. 26-29. 523 « Rolls Royce and Viet-Nam: A case study in complicity », VSC Bulletin, janvier 1969, pp. 1-9. 521 181 182 Claire Mansour, Diffusion et évolution des mouvements sociaux faire valoir leurs droits, et demander à participer aux décisions les concernant directement. 1.4.2.4. Le mouvement étudiant et mai 1968 Selon la vision de nombreux marxistes de la Nouvelle Gauche, les étudiants devaient être le fer de lance d'un soulèvement populaire. Leur militantisme accru à partir de 1967 fut donc abondamment commenté. Après l'occupation de la LSE en mars, de nombreuses autres universités suivirent son sillage dès le mois de janvier de l'année suivante. Mais ce fut grâce aux récits des évènements de mai 1968 que les étudiants commencèrent à être considérés par les ouvriers comme de potentiels alliés ou sources d'inspiration. Les articles de l'époque, tant dans les journaux de la gauche radicale française que britannique, mettaient en parallèle les occupations d'usines et d'universités. « Nous occupons les facultés, vous occupez les usines » déclaraient les étudiants parisiens, tandis que la une de The Black Dwarf d'octobre 1968 exhortait en lettres majuscules les deux groupes à se réapproprier leurs lieux de travail : « Workers and students / Don't demand / Occupy / Your schools, your factories » 524. Et cette stratégie se répandit avec les comptes rendus de la contestation printanière outre-Manche. Le mensuel Workers' Fight, alors relié au groupe International Socialists, présentait les occupations d'usines et d'universités comme les deux facettes d'un même mouvement révolutionnaire : « On May the 16th the takeovers began. Workers seized Sud-Aviation; the students seized the universities. [] A great wave was rising, one which placed in question the very foundations of the capitalist system: its property » 525. Mais pour que l'alliance soit effective, les étudiants ne devaient plus être perçus comme des privilégiés, ou même pire, comme des briseurs de grève, un stéréotype datant de la grève générale de 1926, lors de laquelle de jeunes volontaires avaient pris la 524 « Votre lutte est la nôtre », Action, no. 3, 21 mai 1968, p. 5. « Workers and Students don't demand occupy your schools your factories », The Black Dwarf, 15 octobre 1968, p. 1. 525 « The power next time! », Workers' Fight, juin 1968, p. 2. 1ère Partie - 4 : Mouvement ouvrier place des conducteurs de bus et de train 526. Afin d'accentuer les similarités entre les deux groupes, les étudiants furent dépeints par la gauche radicale comme de la main d'oeuvre qualifiée, rendant ainsi possible leur inclusion dans la classe ouvrière : « a skilled section of the working class »527. Ce rapprochement permit ensuite à l'idéologie et aux tactiques du mouvement estudiantin de faire l'objet d'un processus de diffusion vers le mouvement ouvrier. Le sit-in faisait partie des techniques dont l'utilisation se répandit chez les travailleurs à partir du deuxième semestre de l'année 1968, même si les ouvriers avaient déjà eu recours à des actions similaires par le passé. Les salariés des usines Ford de Dagenham avaient par exemple organisé des « sit-down strikes » en 1945 et 1946. Mais dans ces circonstances, les ouvriers restaient assis à leur poste de travail, pour éviter d'être remplacés par du personnel non-gréviste. En novembre 1968, les employés de ces mêmes usines eurent recours à la version étudiante de la tactique. Pour protester contre un plan de licenciements, entre 300 et 400 d'entre eux s'assirent devant les bureaux de la direction, et refusèrent de bouger. Les dirigeants capitulèrent au bout d'une heure. Dans ce cas précis, la diffusion émana sans doute de l'interaction directe avec les étudiants venus apporter leur aide aux piquets de grèves 528. Les occupations d'usine furent également remises au goût du jour au Royaume-Uni suite aux évènements de mai 1968. Les militants de la gauche radicale ne tarissaient pas d'éloges à ce sujet, et le modèle français devint un cas d'école 529. Après une première tentative avortée en 1969 dans les locaux de la General Electric and English Electric Company dans la région de Liverpool, la technique se propagea rapidement au début des années 1970 530 . Dans la plupart des cas, il s'agissait pour les salariés de lutter contre des plans de 526 « The politics of the student upsurge », The Week, juin 1968, p. 7. « Worker-student unity – how real are the prospects? », The Black Dwarf, 16 septembre 1969, p. 5. 528 « Industrial tactics », The Black Dwarf, 28 février 1969, p. 2. « Ford Convenors put their case », The Black Dwarf, 30 janvier 1970, pp. 6-7. 529 « Factory occupations: a short history », The Red Mole, août 1971, p. 4. 530 « Workers take over », Peace News, 26 septembre 1969, p. 4. « The Manchester Engineers Occupations », The Red Mole, 27 novembre 1975, p. 6. 527 183 184 Claire Mansour, Diffusion et évolution des mouvements sociaux licenciements. Prendre possession des locaux devenait un moyen de s'opposer physiquement à la fermeture de l'usine. Ces démarches témoignaient également d'aspirations autogestionnaires, que le mouvement étudiant avait galvanisées. Depuis 1966, les conférences organisées par l'IWC attiraient un nombre croissant de représentants étudiants et ouvriers. En 1969, le rendez-vous annuel eut lieu à l'université de Sheffield, où des ateliers spécifiquement dédiés au « Student Power » remportèrent un franc succès auprès des délégués syndicaux 531. La revendication pour le contrôle ouvrier avait désormais pour corolaire le pouvoir ouvrier : « Workers' control MUST = workers' power » 532 . Comme les étudiants, les ouvriers souhaitaient accroître leur pouvoir de décision et leur rôle dans le fonctionnement de leur entreprise, afin d'améliorer concrètement leurs conditions de travail. Pour les plus militants, ces vocations pouvaient aller jusqu'à la prise en main totale de la production et l'instauration du socialisme 533 . Les années suivantes virent ainsi de nombreuses applications concrètes de ces idéaux. 1.4.3. Apogée du mouvement : 1968-79 1.4.3.1. Opposition aux réformes des syndicats Le retour au pouvoir des conservateurs, emmenés par Edward Heath, en 1970 devait marquer le début d'une nouvelle approche économique aux accents clairement néolibéraux. Faisant de la modernisation de l'économie un des principaux thèmes de leur campagne, ils promettaient de réduire à la fois l'intervention étatique et les dépenses publiques. Ils affirmaient la nécessité d'imposer un cadre légal à l'activité syndicale afin de réduire le nombre de grèves sauvages, imputant leur hausse continue à l'échec de la proposition de réforme 531 « Workers control: the unions under siege », The Black Dwarf, 18 avril 1969, p. 8. « Organise, educate, agitate! », Peace News, 25 avril 1969, p. 3. 532 « Workers' control MUST = workers' power », The Week, mai 1968, p. 2. 533 « Wilson's workers' control », Workers' Fight, août 1968, p. 4. 185 1ère Partie - 4 : Mouvement ouvrier des travaillistes 534. Ces derniers avaient effectivement été forcés de reculer devant le tollé suscité par le livre blanc In Place of Strife de la ministre de l'Emploi et de la productivité, Barbara Castle. Publié en janvier 1969, le document avait été pensé comme une charte des droits des syndicats, renforçant d'une part leurs rôles, mais tâchant de l'autre de limiter le nombre de grèves sauvages 535 . Les deux propositions les plus controversées permettaient au gouvernement d'intervenir directement dans les conflits industriels en imposant une période de réflexion de 28 jours avant le début d'une grève ou bien en exigeant la tenue d'un scrutin (voir annexe 11). La démarche de Castle faisait ainsi endosser la responsabilité de la baisse de productivité du pays aux délégués syndicaux, agissant sans l'aval des directions syndicales. Les militants de la gauche radicale eurent tôt fait de rétorquer qu'incomparablement plus de journées de travail étaient perdues chaque année du fait des maladies et des accidents de travail plutôt que par la faute des actions collectives 536 . À leurs yeux, les mesures proposées contrevenaient au principe même du droit de grève 537 . Les organisations des travailleurs et de la gauche radicale appelèrent à cesser le travail le 27 février et le 1er mai 538 en signe de protestation, et respectivement 100 000 et 200 000 salariés y répondirent, selon les estimations de la presse conservatrice 539. Le livre blanc était également impopulaire auprès de nombreux travaillistes, divisant le parti jusqu'au plus haut niveau. À la tête des frondeurs, le ministre de l'Intérieur James Callaghan, qui possédait des liens étroits avec le milieu syndical, s'opposa avec force au projet, manquant de peu d'entraîner la chute du Premier ministre 540. Le 534 CONSERVATIVE PARTY, « 1970 Conservative Party General Election Manifesto: A Better Tomorrow », 1970, Political Sciences Resources [en ligne], [consulté le 7 mars 2018], disponible à l'adresse suivante : <http://www.politicsresources.net/area/uk/man/con70.htm>. 535 Barbara CASTLE, The Castle Diaries: 1964-1976, London: Macmillan, 1990, p. 281. 536 « Tell us, who's mad », The Black Dwarf, 28 février 1969, p. 1. 537 « Bloody Nonsense », Peace News, 27 juin 1969, p. 1. 538 Le 1er mai n'était pas un jour férié à l'époque au Royaume-Uni, sauf en Écosse, ou le premier lundi de mai était chômé. Cette pratique ne fut étendue au reste du pays qu'à compter de 1978. 539 « For workers' power », International, juin 1969, p. 3. 540 Dominic SANDBROOK, White Heat, op. cit., pp. 712-726. 186 Claire Mansour, Diffusion et évolution des mouvements sociaux texte fut finalement abandonné à la fin du mois de juin, tandis qu'Edward Heath s'emparait du sujet, affirmant que les conservateurs sauraient se montrer intransigeants face aux syndicats 541 . L'avant-propos de leur manifeste de campagne de 1970 déclarait ainsi : « [] once a decision is made, once a policy is established, the Prime Minister and his colleagues should have the courage to stick to it »542. La loi Industrial Relations Act de 1971 fut ironiquement un des seuls points sur lequel le gouvernement refusa de céder. Si le texte garantissait une reconnaissance accrue aux syndicats, il cherchait avant tout à règlementer de manière beaucoup plus stricte leurs activités. Les mesures prévues étaient formulées en termes de droits, assortis de devoirs, afin de garantir les libertés des travailleurs et de leurs employeurs. L'interdiction de la pratique du monopole d'embauche (closed shop) était par exemple présentée sous la forme du droit d'adhérer ou non à une organisation syndicale 543. Le texte allait plus loin que la précédente ébauche de réforme travailliste. La période de conciliation pouvait ainsi être étendue à 60 jours, et envisageait la création de tribunaux du travail chargés de sanctionner les pratiques déloyales. Cette fois, même le secrétaire général du TUC, Victor Feather, d'ordinaire plutôt accommodant et modéré, rejeta d'emblée la proposition de loi. Cependant, plutôt que d'appeler à la grève générale comme le souhaitait la plupart des groupes de la gauche radicale, le TUC préféra des actions de contestation plus symboliques, dont l'impact sur l'économie nationale resterait minime. Le 12 janvier, un million d'employés participèrent aux rassemblements et aux ateliers organisés à travers le pays pendant la pause déjeuner. Le dimanche 21 février, sur le mot d'ordre « Kill the Bill », près de 140 000 personnes défilèrent dans les rues de Londres, selon les estimations des militants 544 . Lassés de cette approche trop conciliante à leurs 541 « Strike and be damned! », Peace News, 27 juin 1969, p. 9. Edward HEATH, op. cit., p. 299. CONSERVATIVE PARTY, « 1970 Conservative Party General Election Manifesto », op. cit. 543 Edward HEATH, op. cit., pp. 334-35. 544 « Workers ready to fight against Tory law », Workers Press, 8 décembre 1970, p. 2. « The scabs charter », The Red Mole, décembre 1970, p. 2. « How do we fight the Tories », The Red Mole, décembre 1970, p. 3. « After February 21 », The Red Mole, 22 mars 1971, p. 2. 542 1ère Partie - 4 : Mouvement ouvrier yeux, le syndicat de la métallurgie AEUW donna une impulsion plus radicale à la contestation en appelant à la grève les 1er et 18 mars, parvenant ainsi à faire cesser le travail à environ un million et demi de salariés, lors de chacune de ces journées 545 . S'ils ne réussirent pas à empêcher l'adoption du projet de loi, les militants étaient déterminés à continuer à lui résister en enrayant son application. Lors de son congrès annuel de mars 1971, le TUC conseilla à ses organisations membres de refuser toute coopération avec les institutions prévues par la nouvelle loi 546. L'année suivant son entrée en vigueur, l'emprisonnement le 21 juillet de cinq délégués syndicaux des dockers du port de Londres pour des pratiques de piquetage jugées déloyales, enflamma la base du mouvement syndical. Une grève sauvage d'ampleur nationale commença dès le lendemain dans les ports du pays, et donna bientôt lieu à des actions de solidarité des mineurs, d'ouvriers du bâtiment et de travailleurs des transports. Le TUC menaça d'appeler à la grève générale à la fin du mois. Devant l'escalade de la contestation, le jugement fut révisé et les dockers furent finalement libérés 547. Redoutant de nouveaux conflits industriels, le patronat adopta la même stratégie de contournement que la plupart des syndicats, et la loi devint bientôt lettre morte548. Elle fut rapidement abrogée après le retour à Downing Street de Wilson en 1974, scellant ainsi le début d'une nouvelle phase de collaboration entre syndicats et Parti travailliste. Cette politique de contrat social (Social Contract) requérait en contrepartie du TUC qu'il fasse accepter le principe de modération salariale à ses membres. L'opposition aux tentatives d'encadrement légal de l'activité syndicale des différents gouvernements avait permis au mouvement 545 « After February 21 », The Red Mole, 22 mars 1971, p. 2. « British General Strike Answers Ford, Heath », The Bulletin, 29 mars 1971, p. 4. 546 Jacques LERUEZ, « Syndicalisme et politique : les syndicats britanniques face au gouvernement conservateur, 1970-1974 », Revue française de science politique, 25, no. 5, 1975, p. 923. 547 « End the act: nothing less », The Red Mole, 29 juillet 1972, p. 5. « Strikes free the five », The Red Mole, 29 juillet 1972, pp. 1, 8. 548 Chris HOWELL, op. cit., p. 113. 187 188 Claire Mansour, Diffusion et évolution des mouvements sociaux ouvrier de gagner en confiance, mettant leur combativité à profit pour demander de meilleures conditions de travail et des revalorisations de salaire. 1.4.3.2. La grève des mineurs de 1972 La grève des mineurs de l'hiver 1972 intervint justement après le tollé de la loi Industrial Relations Act. Cette fois-ci le gouvernement Heath allait se retrouver contraint de céder aux demandes des grévistes, amorçant ainsi la célèbre « volte-face » (« U-turn ») amplement dénoncée par Margaret Thatcher quelques années plus tard 549. L'épisode eut des répercussions concrètes tant sur l'économie du pays que sur la vie de tous les jours de ses habitants, du fait des coupures de courant prolongées. Il fut également une véritable démonstration de la solidarité de classe ouvrière et de ses alliés avec les mineurs. La situation de ces derniers s'était récemment dégradée, malgré la nationalisation de l'industrie minière par le gouvernement Attlee en 1947. Effectuant un travail particulièrement pénible et dangereux, les mineurs étaient rémunérés environ 10% de plus que les ouvriers d'usine au début des années 1960, mais la tendance s'était inversée au cours de la décennie. Le secteur avait également subi la fermeture de 400 mines et le licenciement de 420 000 salariés, soit environ 60% de ses effectifs totaux 550 . Après une première grève sauvage en 1969 pour défendre les intérêts des travailleurs de surface, la National Union of Mineworkers vota finalement la grève générale à compter du 8 janvier 1972, ce qui n'était pas arrivé depuis 1926, afin d'obtenir la revalorisation des salaires. Fidèles à leur tradition de militantisme et de solidarité, les communautés minières à travers le 549 Le 10 octobre 1980, Maragret Thatcher déclara lors de la conférence annuelle du Parti conservateur « You turn if you want to. The lady's not for turning », affirmant qu'elle ne capitulerait pas devant l'opposition des syndicats, contrairement à ses prédécesseurs. Le blocage du dépôt de charbon de Saltley en février 1972 l'avait d'ailleurs fortement influencée. Dans ses mémoires, elle fustigeait l'épisode à plusieurs reprises comme le symbole des maux du pays, de l'impuissance des pouvoirs publics face à l'intimidation et à la violence. Margaret THATCHER, The Downing Street Years, op. cit., pp. 112, 122, 340, 345. 550 Dominic SANDBROOK, State of Emergency, op. cit., p. 113. 189 1ère Partie - 4 : Mouvement ouvrier pays répondirent à l'appel et firent bloc derrière les grévistes. L'épouse d'un mineur du Kent décrivait l'atmosphère fraternelle régnant dans son village : « There has been more togetherness than since the war. I wouldn't live anywhere else for the neighbourliness and comradeship. Everyone is behind the strike » 551 . L'innovation tactique des piquets de grèves volants (flying pickets), déjà mise en pratique lors de la mobilisation de 1969, permit de bloquer les points stratégiques, tels que les dépôts de charbon et les centrales thermiques, afin d'avoir un maximum d'impact sur la production d'électricité. Le 3 février, lors du blocage d'une centrale à charbon dans le Lincolnshire, un mineur fut renversé par un chauffeur routier qui avait franchi les piquets, et mourut sur le coup. Ses funérailles rassemblèrent 6000 personnes provenant des communautés minières de tout le pays. Elles contribuèrent à l'escalade et la polarisation du conflit, tout en vilipendant encore davantage les briseurs de grèves aux yeux des ouvriers 552. D'autres groupes témoignèrent de leur solidarité avec les mineurs. Militants de gauche, syndicalistes et étudiants furent nombreux à venir leur prêter main forte sur les piquets de grève. Un des exemples de collaboration les plus aboutis fut sans doute l'alliance avec les étudiants de l'université d'Essex, donnant lieu à une occupation des locaux de l'établissement gérée par un comité mixte paritaire entre mineurs et étudiants. Cet épisode devint une application concrète du principe des « bases rouges » établies dans les universités, afin de fomenter un soulèvement prolétarien. L'occupation de l'université servit ainsi de point de ralliement à toute une coalition d'organisations locales réunie sous la bannière du Colchester United Front for the Defence of the Miners' Strike, parmi lesquelles on trouvait des chômeurs, des féministes, des militants de gauche et des étudiants de l'université. Diverses activités de soutien aux grévistes furent organisées, comme des collectes de fonds, des manifestations, des rassemblements – avec entre autres la venue d'Arthur Scargill, étoile montante de la NUM – et surtout leur 551 552 « Strike Interviews », The Red Mole, 7 février 1972, p. 3. « Death of a miner », Workers Press, 12 février 1972, pp. 6-7. 190 Claire Mansour, Diffusion et évolution des mouvements sociaux participation au piquetage des centrales thermiques 553. De nombreux syndicalistes aidèrent également les mineurs en refusant de manipuler les stocks de charbon, de franchir les piquets ainsi qu'en prenant part à des grèves de solidarité. L'évènement resté dans les mémoires sous le nom de « bataille de Saltley » (« Battle of Saltley ») en fut l'incarnation. Depuis le début de la mobilisation, les mineurs avaient tenté de barrer l'entrée du dépôt de charbon de Saltley, dans la banlieue de Birmingham, mais n'étaient pas assez nombreux pour y parvenir. Un nombre croissant de policiers se rendait tous les jours sur les lieux afin de garantir l'accès au stock, ménageant un couloir dans lequel s'infiltraient ensuite les véhicules. Appelés à la rescousse, plusieurs centaines de piquets volants en provenance du Yorkshire vinrent renforcer les rangs des grévistes, sous la houlette d'Arthur Scargill. Le 7 février, environ un millier d'entre eux réussit à empêcher l'approvisionnement d'une cinquantaine de camions, mais ce chiffre restait dérisoire au vu de des centaines de véhicules ayant pu repartir chargés du précieux combustible. Les deux jours suivants, Scargill fit le tour des usines de Birmingham, exhortant leurs ouvriers à faire acte de solidarité de classe et à venir se battre aux côtés des mineurs : « Will you go down in history as the working class in Birmingham who stood by while the miners were battered or will you become immortal? » 554. Le 10 février, ils furent plusieurs dizaines de milliers à cesser le travail et à rejoindre les grévistes. Les estimations variaient de 10 000, selon la police, à 50 000, pour les syndicalistes. Leur afflux massif permit néanmoins la fermeture totale du dépôt 555. L'évènement acquit rapidement une dimension romantique, symbolisant la force et l'unité de la classe ouvrière face aux pouvoirs publics, comme en témoignaient les propos tenus par Scargill le soir même : « I believe that the events of today will go down in the history of the British working class movement [] the workers of this 553 « Miners and students versus the State », The Red Mole, 7 février 1972, p. 12. « Essex shows the way », The Red Mole, « Miners' Strike Special », no. 2, 1972, n. p. 554 Dominic SANDBROOK, State of Emergency, op. cit., p. 124. 555 « The gates close », The Birmingham Evening Mail, 11 février 1972, p. 1. « Tories fear general strike », Workers Press, 12 février 1972, p. 1. 1ère Partie - 4 : Mouvement ouvrier land decided that the nation would be defied, that the state system would be defied and the gates of the Saltley depot would be closed »556. Après avoir déclaré l'état d'urgence quelques jours auparavant, le gouvernement fut contraint de programmer des coupures d'électricité le 13 février, d'abord pour l'industrie, imposant la mise en place d'une semaine de trois jours 557, puis pour les particuliers à compter du 16 février. Alors que l'économie du pays était sur le point d'être paralysée, le gouvernement Heath finit par s'incliner. Sur les conseils de la commission d'enquête présidée par Lord Wilberforce, le Premier ministre accorda aux mineurs une augmentation de salaire atteignant quasiment le montant de leur demande initiale, accompagnée par de nombreuses autres concessions, contrevenant à sa politique de lutte contre l'inflation 558. Ce dénouement fut interprété comme une victoire par les grévistes, et par le mouvement ouvrier dans son ensemble, renforçant encore davantage son assurance. À l'inverse, le gouvernement avait subi une défaite, amorçant visiblement le début de son revirement 559 . Avec les hausses continues de l'inflation et surtout du chômage, le gouvernement allait finalement revenir vers une approche keynésienne pour relancer l'économie. 1.4.3.3. Campagne pour le droit à l'emploi La barre symbolique tant redoutée du million de chômeurs fut franchie le 20 janvier 1972. Pour s'opposer aux suppressions d'emplois, les ouvriers se mirent à occuper leurs lieux de travail, au nom de ce qu'ils appelaient leur « droit à l'emploi » (« right to work »), et la tactique connut un net pic cette année-là. Dans la seule région de Manchester, on recensait par exemple 34 occupations d'usines, 556 « Interview with Arthur Scargill », The Red Mole, 28 février 1972, p. 4. Heath fit d'ailleurs à nouveau appel à cette stratégie lors de l'hiver 1973-74. Désireux d'éviter que le scénario de 1972 ne se répète, le gouvernement se préparait à économiser l'énergie pour tenir sur toute la durée de l'hiver. Du fait du choc pétrolier de 1973 et des faibles stocks de charbon, Heath décida de mettre en place la semaine de trois jours dès le 1er janvier 1974, avant même que les mineurs n'aient officiellement entamé leur grève. Le dispositif fut maintenu pendant un peu plus de deux mois, et prit fin avec la chute du gouvernement. Andy BECKETT, op. cit., pp. 125-133. 558 « Miner victory », Private Eye, 25 février 1972, p. 1. 559 « The bourgeoisie after the miners' strike », The Red Mole, 13 mars 1972, p. 2. 557 191 192 Claire Mansour, Diffusion et évolution des mouvements sociaux impliquant près de 30 000 employés 560. Si la technique avait gagné en popularité suite aux évènements de mai 1968, le succès des ouvriers des chantiers navals de l'Upper Clyde avait ouvert la voie à son application massive au Royaume-Uni. En juin 1971, quatre des cinq chantiers de la compagnie Upper Clyde Shipbuilders des docks de Glasgow étaient sur le point de fermer, menaçant directement plus de 8000 postes, mais aussi collatéralement ceux de milliers de sous-traitants, dans une zone souffrant déjà d'un taux de chômage de 10% 561. Les ouvriers décidèrent alors de recourir à l'action directe afin de sauvegarder leurs emplois. Sur les conseils du député travailliste Anthony Wedgwood Benn (dit « Tony »), ils optèrent pour la mise en place d'une innovation baptisée « work-in », sorte de grève inversée où la production continuait sous la supervision des ouvriers euxmêmes, contrairement à une occupation classique 562. L'avantage principal de ce choix était qu'il témoignait de la volonté des ouvriers de travailler, contrant ainsi l'idée que leur négligence puisse être responsable des difficultés économiques de l'entreprise, afin de gagner le soutien de l'opinion publique, voire d'un éventuel repreneur. De plus, le work-in constituait une application concrète du principe de contrôle ouvrier. La construction des navires se prolongea pendant huit mois, organisée par un comité de délégués syndicaux. Les deux principaux meneurs, les communistes Jimmy Reid et Jimmy Airlie, insistaient sur l'importance de maintenir une discipline stricte et une image respectable. Ils furent d'ailleurs critiqués pour cette raison par les marxistes, reprochant au work-in de faire le jeu des employeurs 563. Les ouvriers de la Clyde devinrent rapidement un symbole de la lutte contre le chômage, et plus généralement du mouvement ouvrier. Le 18 août, plus de 70 000 personnes défilèrent dans les rues de Glasgow, tandis que 200 000 travailleurs écossais avaient répondu à l'appel à la grève de solidarité 564. 560 « The Manchester Engineers Occupations », Red Weekly, 27 novembre 1975, p. 6. « UCS: the origins of the crisis », The Red Mole, 15 juillet 1971, pp. 7-8. 562 « UCS: the struggle must extended », The Red Mole, août 1971, p. 2. 563 « UCS: transform the work-in into a sit-in », The Red Mole, 1er septembre 1971, p. 14. 564 Ibid. 561 193 1ère Partie - 4 : Mouvement ouvrier Une dizaine de jours après la victoire des mineurs, le gouvernement plia de nouveau, octroyant 35 millions de livres à un plan de sauvetage des chantiers navals 565. Cette fois la volte-face était claire. Les conservateurs s'étaient engagés à laisser agir la loi du marché et à ne pas renflouer les entreprises en difficulté, affublées du surnom peu flatteur de « canards boiteux » (« lame ducks ») par le ministre de l'Industrie et du commerce, John Davies 566 . Tandis que les commentateurs de droite accusaient le gouvernement de récompenser les grévistes, de nombreux ouvriers confrontés à des plans de licenciements ou à la fermeture de leur entreprise décidèrent à leur tour d'occuper leurs lieux de travail 567 . Reprenant la revendication du droit à l'emploi, certains, comme les employés de l'imprimerie Briant Colour Printing, à Londres, adoptèrent également le work-in, et profitèrent de leur nouvelle autonomie pour produire des bulletins de grève et des tracts, demandant par exemple la libération des cinq dockers incarcérés, sous le coup de la loi Industrial Relations Act568. D'autres préférèrent les occupations traditionnelles, portant directement atteinte aux finances de l'entreprise, à l'instar des ouvriers de Fisher-Bendix 569 . Après avoir trouvé un repreneur en 1972, les salariés de cette société de Liverpool furent à nouveau confrontés à la menace de liquidation en 1974. À l'issue d'une deuxième occupation, ils reçurent le soutien de Tony Benn – alors ministre de l'Industrie – afin de transformer leur firme en coopérative 570. Cette stratégie autogestionnaire était envisagée avant tout comme un moyen de lutter contre les suppressions d'emplois. En prenant le contrôle de leur entreprise, les ouvriers pouvaient veiller à ce que sa gestion serve leurs propres intérêts. D'autres occupations aboutirent 565 « Tory retreat UCS », The Red Mole, 13 mars 1972, p. 3. Dominic SANDBROOK, State of Emergency, op. cit., p. 81. 567 « The bourgeoisie after the miners' strike », The Red Mole, 13 mars 1972, p. 2. 568 « The Work-ins spread to printing », Peace News, 7 juillet 1972, p. 7. « Organising the fight for jobs », Red Weekly, 27 novembre 1975, p. 7. 569 « Plessey five-month occupation ends », Workers Press, 5 janvier 1972, p. 3. « The Fisher-Bendix Occupation », Solidarity, 25 janvier 1972, pp. 4-6. 570 « IPD workers can lead jobs fight », Red Weekly, 5 septembre 1974, p. 3. « Smash unemployment », Red Weekly, 13 février 1975, p. 8. 566 194 Claire Mansour, Diffusion et évolution des mouvements sociaux au développement d'une coopérative, souvent encouragés par Benn, à l'instar des travailleurs d'une usine de motos de Meriden 571. Peu après que le seuil critique du million de chômeurs eût été franchi, une grande marche pour le droit à l'emploi (Right to work march) fut organisée par les Young Socialists en février. Inspirée des marches contre la faim de l'entre-deuxguerres, les marcheurs s'élancèrent de Glasgow, Liverpool, Swansea, Southampton et Deal au mois de février, convergeant vers Londres où ils arrivèrent le 11 mars 572. Leur mobilisation avait à la fois pour but de dénoncer la politique économique du gouvernement, directement responsable à leurs yeux de la hausse du chômage, mais aussi de lutter contre l'isolement des sans-emploi du reste du mouvement ouvrier. Ils rencontrèrent de nombreux représentants syndicaux qu'ils sensibilisèrent à leur cause lors de rassemblements de soutien tout au long de leur périple 573. Le droit à l'emploi fit par la suite l'objet d'une campagne nationale organisée par plusieurs groupes de la gauche radicale, et de nouvelles marches eurent lieu, notamment en 1976 à l'initiative des International Socialists, de Manchester à Londres au printemps puis de Londres à Brighton en septembre 574. En s'exposant volontairement à des conditions difficiles pendant des dizaines de jours, les participants démontraient concrètement que leur inactivité n'était pas due à leur propre paresse. Avec la popularité croissante du slogan du « droit à l'emploi », les militants de la gauche radicale demandèrent bientôt de surcroit « le droit de ne pas travailler » (« the right not to work »). Destinés à faciliter l'accès aux prestations sociales pour les chômeurs, les personnes âgées ou handicapées et autres bénéficiaires potentiels, les Claimants Unions prirent leur essor au début des années 1970. La première association de ce type avait vu le 571 « The co-operative solution? The NVT experience », International Socialism, décembre 1974, pp. 16-19. « Right-to-work marchers enter London: a credit to the working class », Workers Press, 11 mars 1972, p. 1. 573 « Political life on the march », Workers Press, 12 février 1972, p. 3. « Right-to-work diary », Workers Press, 11 mars 1972, p. 10. 574 « The Right to Work March », The Red Mole, 18 mars 1976, p. 3. « One Year of the Right to Work Campaign », International Socialism, mars 1976, pp. 10-15. « Change the line of march », International Socialism, 22 juillet 1976, p. 4. 572 1ère Partie - 4 : Mouvement ouvrier jour à Birmingham, en janvier 1969, à l'initiative d'étudiants eux-mêmes issus de la classe ouvrière. En un an d'existence, les procédures instaurées avaient réussi à obtenir qu'une somme totale de 3000 livres soit reversée à ses membres. En 1973, on dénombrait environ 80 Claimants Unions sur tout le territoire 575 . Encouragés par l'IWC, leurs pratiques autogestionnaires étaient à la croisée du community organising 576 et du contrôle ouvrier, aidant les utilisateurs des services sociaux à se réapproprier leurs institutions 577 . Des principes similaires furent également formulés autour d'un autre problème essentiel de la classe ouvrière, le logement. 1.4.3.4. Campagne pour le droit au logement À l'instar du slogan workers' control demandant une plus grande participation dans les décisions affectant directement les ouvriers, les locataires des logements sociaux réclamèrent aussi plus de contrôle sur leurs domiciles (« tenants' control ») 578 . Pendant les années soixante, leur militantisme s'accrut progressivement. Ils commencèrent par former des associations de locataires, et se tournèrent vers des campagnes de désobéissance civile, principalement afin de s'opposer à la hausse de leurs loyers 579. Comme de nombreux groupes inspirés par le courant de la Nouvelle Gauche, ils créèrent aussi leurs propres publications, à l'instar de Tenants Voice ou The News580. En 1968, les résidents des logements sociaux de l'agglomération de Londres lancèrent une grève des loyers pour protester contre l'augmentation brutale des sommes dues. Cette stratégie « The fight against unemployment », The Red Mole, 1er septembre 1971, p. 5. « Up against the welfare state: the claimant unions », Socialist Register, 10, 1973, pp. 183-194. 576 Le community organising pourrait être défini comme l'ensemble des pratiques destinées à inciter les membres d'une communauté à agir afin d'améliorer leurs propres conditions de vie. 577 Ibid. p. 184. 578 « Tenants Control », The Black Dwarf, 22 septembre 1968, p. 2. 579 « Tenants fight rent increases in Islington », Peace News, 20 août 1965, p. 3. 580 « Tenants organise to fight soaring council house rents », Peace News, 13 octobre 1967, p. 3. « After twenty months of struggle the tenants prepare to build barricades », The Black Dwarf, 30 août 1969, p. 3. 575 195 196 Claire Mansour, Diffusion et évolution des mouvements sociaux s'était déjà avérée payante pour les Glaswégiens en 1915, avant d'être à nouveau utilisée en 1938 lorsqu'elle se propagea de l'East End de Londres au reste du pays, culminant avec 49 000 foyers refusant de payer à Birmingham en 1939 581. En 1960, elle refit son apparition dans le quartier de Saint Pancras à Londres, mais aussi à New York, où les militants du mouvement des droits civiques y eurent recours lors de l'hiver 1963-64 pour protester contre les conditions insalubres de leurs logements 582 . Ainsi à l'automne 1968, les Londoniens plaçaient leur combat dans la continuité des grèves des loyers précédentes, demandant le droit à un logement décent, dont le loyer devait rester abordable pour une famille modeste, et non pas obéir à une logique de profit. En septembre, un grand rassemblement à Trafalgar Square réunit une foule de 15 000 personnes, composée majoritairement de femmes d'une cinquantaine d'années – fait relativement inhabituel, tendant à prouver que les locataires des logements sociaux se mobilisaient pour leurs propres droits, mais aussi l'influence du mouvement féministe résurgent 583. En décembre, environ 33 000 foyers, selon les chiffres officiels, refusaient d'appliquer la hausse des tarifs 584. En juillet 1969, 6100 familles récalcitrantes furent menacés d'expulsion, poussant les militants à mettre au point une parade radicale : la brigade volante (flying squad), tirant son inspiration des piquets volants de la grève des mineurs de 1969. Cette unité mobile de 1200 volontaires se tenait prête à intervenir pour empêcher les expulsions 585. Si la mobilisation finit par s'essouffler à Londres, les locataires des logements sociaux de Liverpool obtinrent que leurs loyers soient ramenés à un niveau acceptable 586. Les demandes des associations évoluèrent par la suite vers plus de participation dans les instances décisionnelles, et prirent fréquemment la 581 « Housing – The Struggle for Tenants' Control », International Socialism, été 1968, pp. 7-8. « East Side tenants join rent strike », Young Socialist, mars 1964, p. 4. « The struggle for control », Community, février 1969, p. 1. 583 « London tenants: 15,000 march », The Black Dwarf, 16 octobre 1968, p. 2. 584 « London tenants enter new phase of struggle », The Black Dwarf, 3 décembre 1968, p. 7. 585 « GLC tenants: politics not in command », The Black Dwarf, 3 décembre 1968, p. 7. 586 « How Liverpool tenants fought the council – and won », Peace News, 16 décembre 1968, p. 4. 582 197 1ère Partie - 4 : Mouvement ouvrier forme de chartes garantissant aux locataires un minimum de droits, comme celle publiée en 1970 par l'Association of London Housing Estates qui rejetait explicitement l'approche paternaliste des pouvoirs publics 587. Les principes autogestionnaires furent également appliqués au domaine du logement, avec la création de coopératives d'habitants 588 . Ces initiatives furent encouragées par le gouvernement après le retour au pouvoir des travaillistes en 1974 589. Dans le sillage des occupations de mai 1968, la tactique du squat connut également un regain de popularité. Au lendemain de la Seconde Guerre mondiale, des milliers de familles de soldats en avaient déjà fait usage afin de pallier le manque cruel de logements. Environ 45 000 personnes avaient pris possession des camps militaires, tandis que d'autres se réfugiaient dans des bâtiments inoccupés 590. Le 1er décembre 1968, les membres de la London Squatters Campaign s'emparèrent symboliquement d'un immeuble d'appartements de luxe entièrement vide de l'est de Londres, cultivant le parallèle avec les squatters de l'après-guerre qui s'étaient installés dans un bâtiment du même type, connu sous le nom de « Duchess of Bedford House », le 8 septembre 1946 591. Le but de cette opération de communication était d'attirer l'attention des autorités et de l'opinion publique sur le problème du mal-logement. Les militants dénonçaient le décalage entre le nombre considérable de logements vacants et celui toujours croissant des sans-abris. La technique fut rapidement reprise dans plusieurs quartiers de Londres, et de nombreuses villes, de Harlow à Édimbourg, où militants et squatters entreprirent de reloger des familles et des personnes sans domicile dans 587 Quintin BRADLEY, The Tenants' Movement : Resident Involvement, Community Action and the Contentious Politics of Housing, New York : Routledge, 2014, p. 43. 588 « Housing Cooperatives », Peace News, 2 octobre 1970, p. 6. 589 Cliff HAGUE, « The development and politics of tenant participation in British council housing », Housing Studies, 5, no. 4, 1990, p. 248. 590 James HINTON, « Self-help and Socialism: The Squatters' Movement of 1946 », History Workshop, 25, printemps 1988, p. 100. 591 Ibid. pp. 110-11. « The squatters move in! », Peace News, 5 décembre 1968, pp. 1, 4. 198 Claire Mansour, Diffusion et évolution des mouvements sociaux des habitations inutilisées 592 . Si dans certains quartiers les occupants illégaux furent expulsés de force, la stratégie réussit néanmoins à forcer les autorités à agir. Les Conseils de quartier de Lambeth et de Lewisham, dans le sud de Londres, conclurent des accords avec des associations de squatters, les autorisant à installer des familles dans des bâtiments devant être détruits, à condition qu'ils ne s'opposent pas aux démolitions et quittent d'eux-mêmes les lieux 593. D'autres revendications fleurirent autour du droit au logement, concernant plus généralement la participation citoyenne dans l'aménagement du territoire. Ainsi, pour attirer l'attention sur le manque d'infrastructure dans son quartier, un conseiller municipal travailliste du quartier populaire des docks de la Isle of Dogs, Edward Johns, proclama unilatéralement l'indépendance du territoire en mars 1970, se trouvant immédiatement propulsé à la une de l'actualité. Filant la métaphore au point de se faire appeler président et de distribuer des permis de séjour, Johns voulait, par le biais de ce coup d'éclat médiatique, illustrer concrètement l'isolement dans lequel se trouvait la zone, coupée du reste de la ville par de nombreuses voies d'eau et mal desservie par les transports. Les quelque 11 000 habitants se plaignaient du manque d'investissements publics, n'ayant, entre autres, pas d'école dans leur secteur 594. Cette initiative originale réussit à faire réagir les autorités, qui entreprirent rapidement d'améliorer les services de bus et de développer des projets de construction d'un établissement scolaire ainsi que de nouveaux logements 595. 592 « More squatters occupy house in Notting Hill », Peace News, 24 janvier 1969, p. 5. « The squats go on », Peace News, 23 mai 1969, pp. 1, 4. 593 « Lewisham squatters act on pact with Council », Peace News, 31 octobre 1969, p. 4. « Squatters integrated », Peace News, 5 août 1975, p. 5. 594 « Isle of Dogs goes free », Peace News, 13 mars 1970, p. 7. « Where the river bends », The Black Dwarf, 23 mars 1970, p. 2. 595 « Ted Johns », The Guardian, 12 mai 2004 [en ligne], [consulté le 10 mars 2018], disponible à l'adresse : <https://www.theguardian.com/news/2004/may/12/guardianobituaries.politics>. 1ère Partie - 4 : Mouvement ouvrier 1.4.3.5. Le cas des travailleurs des services publics Les conflits sociaux des années 1970 impliquèrent un nombre croissant de salariés des services publics, pourtant jusqu'alors peu enclins à se mobiliser. Leurs syndicats avaient connu une forte progression, comme par exemple la National Association of Local Government Officers (NALGO) et le National Union of Public Employees (NUPE), dont les effectifs furent multipliés respectivement par deux et par trois, entre 1964 et 1979, atteignant 750 000 et 690 000 adhérents 596. Même si les négociations salariales du secteur public s'effectuaient principalement à l'échelle nationale par corps de métier, les intérêts des travailleurs à l'échelle locale étaient défendus par des délégués d'atelier, à l'instar des syndicats des grandes industries 597. Les employés des services publics s'identifiaient de plus en plus aux ouvriers, comme en témoignaient leur militantisme accru ou la décision des membres la National Union of Teachers (NUT) de s'affilier au TUC en 1970 598. Leur participation aux défilés contre la proposition de loi Industrial Relations Bill avait encore renforcé ce sentiment, notamment chez les professeurs venus manifester leur solidarité avec les autres groupes de travailleurs et s'opposer au musellement des syndicats 599 . La forte diminution du pouvoir d'achat des employés des services publics joua également un rôle-clé dans leur processus d'identification aux ouvriers. En 1975, le contrat social des travaillistes céda la place à une politique de contrôle des revenus afin de juguler l'inflation. Ces restrictions salariales étaient scrupuleusement appliquées dans le secteur public, car l'État cherchait à en faire un exemple à suivre pour les employeurs du privé 600 . La situation des salariés des services publics devenait d'autant plus difficile qu'ils subissaient également de plein fouet les coupes budgétaires drastiques introduites en 1976 à la suite du prêt du Fond Monétaire 596 Dominic SANDBROOK, Seasons in the Sun, op. cit., p. 746. Chris HOWELL, op. cit., p. 153. 598 « Teachers strike: militancy pays », The Black Dwarf, 30 janvier 1970, p. 3. 599 « Teachers: the anti-tory struggle », Red Mole, 16 janvier 1971, p. 3. 600 Chris HOWELL, op. cit., p. 153. 597 199 200 Claire Mansour, Diffusion et évolution des mouvements sociaux International 601. La gestion rationnalisée accompagnant la réduction des dépenses publiques suscitait, entre autres, la peur de voir leurs conditions de travail se dégrader, de perdre leur emploi ou encore de passer aux mains d'un repreneur privé 602. Ces perceptions permirent d'établir suffisamment de similarités avec les ouvriers pour que leurs formes d'actions collectives soient adoptées. Confrontés à la fermeture de leurs établissements, les personnels hospitaliers eurent ainsi recours aux occupations et aux work-in. La stratégie développée par les travailleurs des chantiers navals de l'Upper Clyde pour sauvegarder leurs emplois devint la tactique de prédilection des militants pour lutter contre les restrictions budgétaires dans le secteur de la santé. L'hôpital d'Hounslow, situé dans la banlieue ouest de Londres, devait par exemple fermer ses portes en août 1977. Son personnel décida cependant de continuer à travailler pour empêcher la fermeture, entendant ainsi réfuter les allégations des autorités selon lesquelles il n'y avait pas suffisamment de demande de soins médicaux dans le secteur. Ils reçurent non seulement le soutien des médecins du quartier qui continuèrent à leur adresser des patients, mais aussi celui des habitants qui manifestèrent à leurs côtés. Les autorités répliquèrent en faisant évacuer les patients de force par une intervention de policiers et d'ambulanciers d'une compagnie privée au mois d'octobre 603 . Le personnel continua à occuper les locaux désormais vides, qu'ils transformèrent en base, afin d'organiser la campagne contre les fermetures d'autres centres hospitaliers. Pour parer aux prochaines incursions, ils mirent sur pied une équipe de piquets volants, à l'instar des mineurs, chargés d'intervenir rapidement pour repousser les assauts des pouvoirs publics dans les autres établissements continuant à fonctionner 601 « Labour cuts its own throat », Red Weekly, 22 juillet 1976, p. 1. « Cuts = sackings », Red Weekly, 29 juillet 1976, p. 2. « Blood on Labour's hands », Red Weekly, 29 juillet 1976, p. 4. 602 « Save our health », Red Weekly, 4 décembre 1975, p. 1. « Public Squalor, private profit », Red Weekly, 4 décembre 1975, p. 2. « Teachers – stop the rot! », Red Weekly, 4 décembre 1975, p. 2. 603 « Work-in: the lessons of Hounslow », Socialist Challenge, 13 octobre 1977, p. 4. « Re-open Hounslow Hospital », Socialist Challenge, 20 octobre 1977, p. 3. 1ère Partie - 4 : Mouvement ouvrier illégalement 604 . Comme lors des occupations dans le secteur industriel, l'utilisation de ces tactiques engendra des réflexions autogestionnaires, ouvrant ainsi la voie aux demandes de participation accrue du personnel soignant dans la gestion des services hospitaliers, voire même de socialisation des moyens de production 605. Cependant les mobilisations des salariés des services publics se heurtaient à un obstacle de taille, puisqu'en se confrontant avec leurs employeurs ils se retrouvaient aux prises avec l'État. Ainsi, lorsque le syndicat des pompiers, la Fire Brigades Union (FBU) appela à la grève nationale pour la première fois de son histoire en novembre 1977, le Premier ministre travailliste James Callaghan fit intervenir l'armée pour briser la grève. Il se montra inflexible face aux demandes des grévistes de revalorisation de leur rémunération de 30% car elles dépassaient la norme de 10% fixée par la politique de contrôle des revenus. La situation des pompiers s'était précarisée au cours de la décennie, et leurs salaires étaient devenus nettement inférieurs à la moyenne nationale, en dépit des compétences requises et des risques inhérents à leur profession 606. Ils avaient ainsi le soutien de l'opinion publique, de la gauche du Parti travailliste, et même le conseil général du TUC, censé épauler le gouvernement et prôner la modération salariale, avait failli appuyer la FBU, la motion ayant été rejetée à 20 votes contre 17 607. Dans un souci d'exemplarité par rapport aux autres salariés des services publics, mais aussi du privé, le gouvernement refusa de faire des pompiers une exception, arguant du fait que toute rupture avec la limitation des 10% aurait représenté un danger bien 604 « Hounslow conference: How can we halt hospital closures », Socialist Challenge, 3 novembre 1977, p. 3. « Towards a workers' plan for the NHS », Socialist Challenge, 22 février 1979, p. 9. 606 « Block the scabs in uniform: support the firefighters », Socialist Challenge, 10 novembre 1977, p. 5. « Firefighters ask for your support », Socialist Challenge, 17 novembre 1977, pp. 8-9. 607 « The Labour left: fine words and sympathy not enough », Socialist Challenge, 8 décembre 1977, p. 4. « They're crucifying us », Socialist Challenge, 5 janvier 1978, p. 5. 605 201 202 Claire Mansour, Diffusion et évolution des mouvements sociaux plus grave pour la nation que les risques éventuels liés à leur mobilisation, et les obligeant ainsi à s'en contenter 608. Au cours de l'année 1978, le gouvernement durcit encore sa politique de contrôle des revenus, abaissant la barre des concessions salariales à 5%, et perdit du même coup le soutien du TUC 609. Le rejet croissant de cette limite culmina lors de l'hiver suivant, dans une série de conflits sociaux connue sous le nom d' « hiver du mécontentement » (« winter of discontent »). En novembre 1978, les ouvriers des usines Ford parvinrent, à l'issue d'une grève de grande ampleur, à obtenir une augmentation de 17% de leurs rémunérations 610. D'autres travailleurs du secteur privé se mobilisèrent dans leur sillage, à l'instar des boulangers, des salariés de British Oxygen, des chauffeurs routiers ou encore des conducteurs de camions-citernes, et réussirent tous à obtenir des concessions similaires, allant de 14 jusqu'à 30% dans les mois suivants 611 . Les employés des services publics décidèrent alors de s'infiltrer dans la brèche, en demandant pour les moins bien rémunérés d'entre eux, un salaire minimum de 60 £ pour 35 heures par semaine, ce qui correspondait à une revalorisation de 25% en moyenne. Du fait du plafonnement des salaires, de la hausse des prix et de la baisse des prestations sociales, ces catégories avaient vu leurs conditions de vie se dégrader au cours de la deuxième moitié de la décennie. Le 22 janvier, à l'appel des principaux syndicats des services publics, 1,6 million de personnes cessèrent le travail, tandis que 80 000 d'entre elles défilaient dans les rues de Londres. Il s'agissait là de la plus grande journée d'action depuis la grève générale de 1926 612 . Dans les secteurs de l'éducation, de la santé et des collectivités locales, les grèves 608 « Firefighters ask for your support », Socialist Challenge, 17 novembre 1977, pp. 8-9. « Lessons of FBU strike: troops and bureaucrats ensure defeat », Socialist Challenge, 19 janvier 1978, p. 6. 609 « Labour Party, TUC and pay agreements into the eighties », Socialist Challenge, 3 août 1978, p. 4. 610 « Ford deal – 'a militant advance to the rear' », Socialist Challenge, 23 novembre 1978, p. 5. « After the Ford strike: The socialist alternative to Labourism », Socialist Challenge, 30 novembre 1978, p. 4. 611 « Labour and the public sector », Socialist Challenge, 11 novembre 1978, pp. 8-9. 612 « End low pay now », Socialist Organiser, janvier 1979, p. 12. « Follow haulage drivers: finish off Callaghan », Socialist Press, 24 janvier 1979, p. 1. « The day the low-paid rose up », Socialist Challenge, 25 janvier 1979, p. 3. 1ère Partie - 4 : Mouvement ouvrier continuèrent à l'échelle locale. Afin de minimiser les désagréments et les risques pour la population, des formes d'action ciblées et limitées furent préférées à l'arrêt total des activités, avec notamment l'organisation de nombreux work-torule 613. Ce type de mobilisation, emprunté aux ouvriers des centrales électriques, consistait à appliquer le règlement à la lettre et à s'acquitter exclusivement des tâches spécifiées dans les contrats, ralentissant ainsi le fonctionnement de l'entreprise, tout en évitant de mettre la population en danger 614. Les pompiers y avaient également eu recours en 1977 pour les mêmes raisons 615 . Pour les infirmières, la tactique consistait par exemple à ne plus remplir les formulaires administratifs ou répondre au téléphone616. La réponse du gouvernement prit la forme d'un accord négocié avec le TUC, connu sous le nom de « concordat » (« concordat »), concédant provisoirement des augmentations de salaires de 9% tout en fixant comme objectif d'abaisser l'inflation à 5% dans les trois prochaines années. Le document prévoyait aussi la mise en place de mesures destinées à règlementer l'activité syndicale et limiter les grèves, comme par exemple l'interdiction volontaire du recours à la pratique des piquets secondaires (« secondary picketing »)617. Les directions syndicales eurent du mal à faire accepter ce compromis à leur base, mais recommandèrent finalement la reprise du travail suite à l'obtention de modestes concessions supplémentaires, à l'exception de la NUPE, dont le conseil exécutif rejeta la proposition de son secrétaire général Alan Fisher, et qui continua donc à appeler à la mobilisation 618 . Les conflits perdurèrent localement jusqu'au mois de mars. En vue de l'élection imminente, 613 « Home news », Socialist Challenge, 15 février 1979, p. 7. « Home news », Socialist Challenge, 22 février 1979, p. 7. 614 « Power men's claim in danger! Unions begin climb down », Workers Press, 11 décembre 1970, p. 1. 615 « Liverpool firefighters hit back », Socialist Challenge, 8 décembre 1977, p. 3. 616 « After Jan. 22: all out for the full claim », Socialist Press, 24 janvier 1979, p. 12. « Liverpool firefighters hit back », Socialist Challenge, 8 décembre 1977, p. 3. 617 « First victims of the concordat : the low paid? », Socialist Challenge, 22 février 1979, p. 1. « The Con-cordat », Socialist Challenge, 1er mars 1979, p. 2. « For a general strike! », Spartacist Britain, février 1979, p. 1. 618 « Camden : all-out strike wins £60 for 35 hours », Socialist Press, 28 février 1979, p. 1. 203 204 Claire Mansour, Diffusion et évolution des mouvements sociaux les travaillistes mirent en avant dans leur manifeste les principes de concertation entre gouvernement et syndicats au coeur du « concordat », tandis que pour les conservateurs, l'épisode avait au contraire démontré l'échec de cette approche conciliante. La gauche radicale, en revanche, était surtout préoccupée par le consensus antisyndical qui semblait avoir émergé au sein des deux partis : « [] in the 1979 election workers will face a 'choice' between open Tories threatening antiunion legislation, or this gang of crypto-Tories planning to impose similar measures 'voluntarily' through their bureaucratic control of the unions » 619. Si les discours hostiles aux militants syndicaux n'étaient pas nouveaux, ils avaient atteint leur paroxysme lors de « l'hiver du mécontentement », accréditant ainsi la thèse du pouvoir excessif des organisations des travailleurs et légitimant leur musellement. 1.4.4. Déclin 1.4.4.1. Fermeture de la structure des opportunités politiques Au tournant de la décennie, l'humeur de l'opinion publique face aux conflits sociaux était en train de basculer. Entre la gêne réelle engendrée par les différentes mobilisations et les exagérations des médias, une atmosphère de crise avait dominé l'hiver 1978-79. Des manifestations contre les grèves furent organisées par des associations de femmes au foyer, comme United Housewives, clamant dans les rues des slogans tels que « Down with strikes » ou « Death to the secondary pickets » 620 . Les piquets secondaires mis en place par les chauffeurs routiers afin de bloquer le transport des marchandises avaient suscité des pénuries sur les étals de certains supermarchés ; les récits montés en épingle dans les médias avaient ensuite engendrés des scènes de panique et d'achats 619 « 'Concordat' means phase 5 », Socialist Press, 21 février 1979, p. 12. « Anti-strikers », Socialist Challenge, 25 janvier 1979, p. 5. « 'Housewives can be an important part of the left' », Socialist Challenge, 8 mars 1979, p. 3. 620 1ère Partie - 4 : Mouvement ouvrier frénétiques 621 . Quant aux grèves des salariés des services publics, leurs représentations dans les médias avaient suscité beaucoup de rancoeur, du fait de la nature même de leurs professions, dont la vocation était de rendre service à la communauté. Alors que les pompiers avaient été stigmatisés comme des « brûleurs de bébés » (« baby burners ») deux ans auparavant, le personnel hospitalier fut décrit comme étant sans coeur, à grand renfort de récits larmoyants centrés sur des enfants ou des anciens combattants 622. Le Daily Mirror avait ainsi mit en couverture la supplique d'une mère dont le jeune fils souffrait d'un cancer requérant une greffe de moelle « Have mercy on my son » 623. L'indignation atteignit son comble avec la une outrée du Daily Mail sur la mobilisation des fossoyeurs de Liverpool « They won't even let us bury our dead » 624. Si l'épisode était un cas isolé, il fut pourtant largement relayé par les médias, s'offusquant de l'indécence et du manque de compassion des grévistes à l'égard des familles endeuillées. Les discours de la classe politique abondèrent dans le même sens, fustigeant l'irresponsabilité et l'égoïsme des militants. Callaghan qualifia ainsi le personnel hospitalier de « vandales » (« vandals ») tandis que le ministre de la Santé, David Ennals les accusait d'avoir causé la mort de patients : « I appeal to the people taking industrial action, for God's sake suspend it [] They can no longer take it out on patients. There is no doubt some people have already died » 625 . Margaret Thatcher reprit ces mêmes thèmes dans ses discours de campagne : « We've seen industrial action directed straight at the public to make you suffer-directed even at the sick and disabled »626. Elle s'en servit pour légitimer ses propositions de réformes antisyndicales, qu'elle ne tarda 621 Dominic SANDBROOK, Seasons in the Sun, op. cit., pp. 727-28. « Firefighters ask for your support », Socialist Challenge, 17 novembre 1977, pp. 8-9. « Press gang », Socialist Press, 7 février 1979, p. 5. 623 « Have mercy on my son », The Daily Mirror, 1er février 1979, p. 1. 624 « They won't let us bury our dead », The Daily Mail, 1er février 1979, p. 1. 625 « The real killers, the real vandals », Socialist Challenge, 8 février 1979, p. 3. « Crisis in the NHS », Socialist Action, mars 1979, p. 7. 626 Margaret THATCHER, « Conservative Party Political Broadcast (Winter of Discontent) », 17 janvier 1979, Margaret Thatcher Foundation [en ligne], [consulté le 15 mars 2018], disponible à l'adresse suivante : <https://www.margaretthatcher.org/document/103926>. 622 205 206 Claire Mansour, Diffusion et évolution des mouvements sociaux pas à mettre en application une fois élue. L'Employment Act de 1980 fut le premier de l'arsenal législatif déployé par les conservateurs afin de limiter les grèves et leur efficacité, mais aussi, plus généralement, le pouvoir des syndicats. Mais ces mesures s'inséraient dans un contexte plus large de changement idéologique marqué par l'adoption d'un programme néolibéral : privatisations de nombreuses entreprises publiques, diminution des prestations sociales, baisse du taux d'imposition pour les plus hauts revenus, etc. Le rôle de l'État était complètement redéfini. Alors que le Welfare State devait assurer une redistribution des richesses garantissant davantage de justice sociale et la protection des catégories les plus vulnérables de la population, cet interventionnisme se retrouvait désormais pointé du doigt, jugé responsable des difficultés économiques du pays, les bénéficiaires des aides de l'État dépeints comme des « profiteurs fainéants » (« work-shy scroungers »). Là où le slogan « right to work » renvoyait aux droits des travailleurs de voir leurs emplois sauvegardés grâce aux subventions ou aux nationalisations, Thatcher lui substituait le droit de travailler sans être entravé par les actions de minorités militantes malveillantes : « Never forget how near this nation came to government by picket and strike committee. [] Never forget how workers had to beg for the right to work and often didn't get it [] » 627. Ainsi, au lendemain de son élection, les militants de la gauche radicale avaient l'impression de devoir se mettre sur la défensive, afin de protéger les acquis du mouvement ouvrier : « The Thatcher government is out to turn back the clock on the gains notched up by the working class in the postwar period »628. Ils se retrouvaient maintenant plongés dans un climat politique de plus en plus hostile à leurs revendications et où l'opposition militante était de plus en plus réprimée. Margaret THATCHER, « Speech to Conservative Rally in Bolton », 1er mai 1979, Margaret Thatcher Foundation [en ligne], [consulté le 15 mars 2018], disponible à l'adresse suivante : <https://www.margaretthatcher.org/document/104065>. 628 « Tory victory: a battle lost but not the war », Socialist Challenge, 10 mai 1979, p. 2. 627 1ère Partie - 4 : Mouvement ouvrier 1.4.4.2. Conclusion et impact du mouvement Comparé aux autres mouvements des longues années 1960, le mouvement ouvrier fut sans aucun doute le plus important en termes numériques, parvenant à impliquer des millions de personnes. Sa force industrielle lui permit également d'infléchir directement les politiques des différents gouvernements, et même parfois de provoquer leur chute, comme ce fut le cas en 1974 avec la décision d'Edward Heath d'organiser une élection sur le thème de la gouvernance du pays (« Who governs Britain? ») suite à une nouvelle grève des mineurs, aboutissant finalement à la formation d'un gouvernement minoritaire par les travaillistes 629. Au sein de sa propre histoire, le mouvement ouvrier connut une phase d'activité intense lors des longues années soixante, caractérisée par l'engagement d'un certain nombre d'alliés extérieurs à la classe ouvrière mais souhaitant défendre ses intérêts, mais aussi par des revendications et des modalités d'action influencées dans une certaine mesure par son interaction avec les autres mouvements de l'époque. Ces processus de diffusion furent d'ailleurs à double sens, puisque certaines tactiques traditionnelles du mouvement ouvrier furent adoptées par d'autres groupes de militants, notamment étudiants. Ainsi, lors de la mobilisation pour le désarmement nucléaire, les tentatives des membres du DAC et du C100 de sensibiliser les ouvriers à leur cause contribuèrent à élargir l'horizon du mouvement, en participant au décentrage des préoccupations matérielles et à l'inclusion de considérations morales. En 1968, tandis que l'opposition à la guerre du Vietnam ralliait une partie de la jeunesse contre le gouvernement Wilson, les évènements du « Mai français » (« the French May ») ouvrirent la voie à une alliance entre étudiants et ouvriers, ainsi qu'à un enthousiasme renouvelé pour les demandes de contrôle ouvrier et d'utilité sociale de la production. Le mouvement contribua concrètement à l'amélioration des conditions de vie de la classe ouvrière en présentant un certain nombre de ses demandes comme des droits : 629 « Tories down – on to workers victory », Red Weekly, 1 mars 1974, p. 1. 207 208 Claire Mansour, Diffusion et évolution des mouvements sociaux emploi garanti par l'État en cas de défaillance d'un employeur privé ; accès facilité aux prestations sociales pour les personnes dans l'incapacité de travailler ; logement décent à un prix abordable ou, encore, accès aux équipements collectifs. Du fait de leur précarisation, les salariés des services publics s'identifièrent suffisamment aux ouvriers des grands secteurs manufacturiers pour adopter leurs revendications et leurs tactiques. Si les assauts combinés des travailleurs des secteurs privé et public eurent raison de la politique de contrôle des revenus du gouvernement travailliste, ils permirent de justifier la mise en place d'un dispositif juridique limitant les pouvoirs des syndicats, et contribuèrent plus généralement au durcissement de la répression étatique à l'égard du militantisme. Enfin, les travailleurs des services publics ne furent pas les seuls à s'intégrer progressivement au mouvement ouvrier : les femmes, les populations issues de l'immigration et les homosexuels rejoignirent également ses rangs. Ils luttèrent à la fois contre les discriminations dont ils faisaient l'objet au sein des syndicats, mais aussi pour que ses derniers défendent leurs propres demandes dans le monde du travail. 209 1ère Partie - 5 : Mouvement pour l'égalité raciale 1.5. LE MOUVEMENT POUR L'EGALITE RACIALE Dans le cadre de cette thèse, le choix de parler de mouvement pour l'égalité raciale se justifie par la nécessité d'adopter une terminologie incluant les diverses revendications des communautés issues de l'immigration du nouveau Commonwealth630 durant la période des longues années soixante. Il ne reflète en aucun cas une quelconque adhésion de l'auteur aux théories racialistes visant à défendre l'existence de « races » humaines. Les communautés issues de l'immigration dont il sera question dans ce chapitre étaient perçues comme « non-blanches », les exposant ainsi aux comportements racistes et discriminatoires de la population blanche locale. Par mouvement pour l'égalité raciale, on entendra donc les efforts collectifs de ces différents groupes ethniques, et de leurs alliés, pour obtenir un traitement égalitaire dans tous les aspects de leur vie quotidienne. En outre, cela permet aussi de prendre en compte les relations dynamiques avec les mouvements de libération nationale dans les colonies et anciennes colonies britanniques, dont les partisans protestaient également contre le racisme systémique garantissant la domination des colons blancs. Ainsi, l'on tâchera de démontrer que le mouvement pour l'égalité raciale au Royaume-Uni s'est nourri de différentes influences, liées au passé impérial de la nation ainsi qu'à des phénomènes locaux spécifiques. Son évolution fut aussi la résultante de ses interactions avec d'autres mouvements à l'échelle nationale et internationale. Pour ce faire, l'analyse s'appuiera sur des articles tirés de différents types de publications. Le magazine Peace News relatait en détail dans ses colonnes les différentes luttes d'émancipation des peuples colonisés, et se posait également en 630 Le nouveau Commonwealth (New Commonwealth) est un terme définit en négatif par opposition au vieux Commonwealth (Old Commonwealth) regroupant l'Australie, la Nouvelle Zélande, le Canada et parfois l'Afrique du Sud. L'expression est principalement utilisée dans le cadre des flux migratoires de la deuxième moitié du XXe siècle pour renvoyer aux pays du Commonwealth à forte population non-blanche. • 209 • 210 Claire Mansour, Diffusion et évolution des mouvements sociaux défenseur de la cause émigrée au Royaume-Uni. Le journal de la communauté antillaise du quartier Brixton à Londres, The West Indian Gazette, fut un des pionniers en la matière. Fondé en 1958, il couvrait à la fois l'actualité aux Antilles, à Brixton et dans le reste du Royaume-Uni par le biais d'un point de vue militant, traitant par exemple des évènements ignorés par les médias traditionnels qui pouvaient cependant intéresser les communautés immigrés. Les organes des partisans du courant du Black Power au Royaume-Uni et aux États-Unis, représentés respectivement par Grass Roots et The Black Panther Newspaper, seront également examinés afin d'observer la diffusion de ce phénomène. Enfin, les publications des étudiants et de la gauche radicale seront incluses pour rendre compte des intéractions entre ces différents groupes qui se mobilisèrent également contre le racisme. 1.5.1. Émergence : facteurs environnementaux internationaux et locaux 1.5.1.1. Vague d'immigration d'après-guerre L'arrivée des 492 passagers du SS Empire Windrush en provenance des Antilles britanniques le 21 juin 1948 à Tilbury, l'avant-port de Londres, marqua le début des flux migratoires de l'après-guerre. Au lendemain de la Seconde Guerre mondiale, le gouvernement travailliste de Clement Attlee avait lancé plusieurs campagnes de recrutement afin de combler le déficit de main d'oeuvre et reconstruire le pays. Grâce au British Nationality Act (1948), ils furent bientôt rejoints par d'autres immigrants venus du sous-continent indien qui profitèrent de leur nouveau statut de citoyens du Commonwealth après l'indépendance de l'Inde et du Pakistan en 1947. Cette loi leur garantissait les mêmes droits que les sujets de la Couronne sur le sol britannique. Ainsi, en 1961 les recensements officiels dénombraient 172 379 Antillais et 188 172 Indo-Pakistanais – soit un peu moins de 0,8% de la population totale de l'Angleterre et du pays de Galles. Cinq ans plus tard, ces chiffres s'élevaient respectivement à 321 240 et à 305 340 211 1ère Partie - 5 : Mouvement pour l'égalité raciale – soit 1,3%, ce qui représentait toujours une infime proportion de la population totale de l'Angleterre et du pays de Galles où ils s'établissaient principalement 631. Ces deux groupes n'avaient qu'un contact restreint avec les autochtones. Les immigrants du sous-continent indien étaient, dès leur arrivée, intégrés à une communauté étroitement soudée grâce à laquelle ils trouvaient généralement un logement et un emploi. Ils évoluaient la plupart du temps entre leur pension, leur lieu de culte, et leur association – souvent une branche locale de l'Indian Workers' Association (IWA) ou de la Pakistani Workers' Association (PWA). Ces dernières jouaient un rôle très important dans la vie sociale et culturelle des nouveaux arrivants. Leurs fonctions étaient multiples : elles s'assuraient du bien-être de leurs membres, représentaient leurs intérêts face à leurs employeurs ou à l'administration britannique, servaient de relais avec leurs pays d'origine et renforçaient la cohésion de la communauté 632 . L'intellectuel Sri Lankais Ambalavaner Sivanandan arriva au Royaume-Uni à la fin des années 1950, et selon lui, les immigrants du sous-continent indien créèrent une société parallèle. Ils importèrent leur culture, leurs coutumes, leurs religions et parlaient des langues différentes 633. Quant aux Antillais, ils partageaient avec les Britanniques leur langue maternelle, leurs patronymes, leur religion, et dans une certaine mesure leur culture, puisqu'ils avaient été éduqués à travers le système colonial, avaient appris à révérer la famille royale et à considérer le Royaume-Uni comme la mère patrie. Nombreux avaient d'ailleurs été ceux qui s'étaient portés volontaires pour le défendre durant la Seconde Guerre mondiale. Ainsi, ils quittaient leurs îles natales avec en tête une vision idéalisée de leur terre d'accueil, pensant être reçus à bras ouverts, et se retrouvaient confrontés à l'indifférence, voire à l'hostilité de la population locale 634. Tout comme les immigrants indo- 631 John DEWITT, Indian Workers' Association in Britain, Londres : Oxford Univeristy Press, 1969, p. 5. Ibid., pp. 46, 89. 633 Ambalavaner SIVANANDAN, A Different Hunger : Writings on Black Resistance, Londres : Pluto Press, 1982, p. 115. 634 Peter FRYER, Staying Power: The History of Black People in Britain, Londres : Pluto Press, 1984, p. 374. 632 • 211 • 212 Claire Mansour, Diffusion et évolution des mouvements sociaux pakistanais, ils développèrent leurs propres associations régissant la vie sociale et culturelle de leur communauté, avaient leurs propres églises, cafés, bars, coiffeurs et salles de danse 635. 1.5.1.2. La colour bar : un racisme systémique Loin de la rhétorique officielle du Royaume-Uni traitant ses sujets coloniaux avec un paternalisme bienveillant, la réalité de la colour bar eut tôt fait de désillusionner les nouveaux arrivants. Il s'agissait d'un racisme systémique reposant sur un ensemble de pratiques discriminatoires non-sanctionnées par la loi. Même si jusqu'au milieu des années 1960, les autorités britanniques niaient son existence, elle imprégnait tous les domaines de la société. De nombreux pubs, discothèques, salles de danse et autres lieu de socialisation à travers le pays refusaient l'entrée ou le service aux personnes à la peau noire 636 . Comme le remarquait le député travailliste Fenner Brockway, président du MCF, cet usage était très répandu mais ne semblait pas susciter l'indignation des autochtones, qui, pourtant, ne se privaient pas de dénoncer la ségrégation dans le Sud des États-Unis ou l'apartheid en Afrique du Sud : There's a good deal of hypocrisy about us Britishers. We get all het up about apartheid in South Africa and racial segregation in Alabama, but the truth is that there is a hell of a lot of apartheid and racial segregation in Britain. It's not established law, but it's widely practised. Every West Indian, Asian and African in our midst knows that.637 L'un des secteurs où la discrimination était la plus courante était le logement. On parlait d'ailleurs à l'époque de « Rachmanism », du nom de Peter Rachman, logeur dont les pratiques d'exploitation et d'intimidation des locataires étaient notoires, 635 Ambalavaner SIVANANDAN, op. cit., p. 4. « Ladbroke Grove pub colour bar », The West Indian Gazette, avril 1961, p. 1. « Bradford march », The West Indian Gazette, décembre 1961, p. 1. « The fight against racialism in Leicester », Peace News, 20 novembre 1964, p. 10. 637 « Outlaw racial discrimination! », The West Indian Gazette, décembre 1963, p. 3. 636 1ère Partie - 5 : Mouvement pour l'égalité raciale ou encore de « colour tax », pour expliquer les coûts très élevés des loyers pour des logements de petite taille, bien souvent insalubres. De nombreux propriétaires refusaient même explicitement de louer leurs biens à des personnes « de couleur », comme en témoignaient les nombreuses annonces à caractère raciste publiées dans les journaux : « So sorry, no coloured, no children », « Europeans only », « NO COLOURED » (majuscules et soulignement dans le texte original) 638. Ainsi, la ville de Nottingham avait en 1961 une population totale de 311 899 habitants selon les chiffres officiels, et une communauté antillaise estimée à 7000 personnes, soit environ 2,24% 639 . Jugés indésirables par les autochtones, les Antillais se retrouvaient contraints à partager quelques 500 maisons dans un état de délabrement plus ou moins avancé, du fait des refus catégoriques des propriétaires et des agents immobiliers de leur louer ou de leur vendre un bien à l'extérieur des enclaves où on les cantonnait 640. Cet entassement forcé alimenta ensuite le préjugé raciste consistant à blâmer les immigrés pour la ghéttoïsation des quartiers où ils résidaient. Un processus similaire était à l'oeuvre dans le domaine de l'emploi. De nombreuses entreprises refusaient d'engager des immigrés noirs, ou bien les reléguaient à des tâches et à des statuts subalternes – parfois sans tenir compte de leurs qualifications. Un employé du labour exchange – sorte de Bourse du travail britannique – déclara sans ambages sa réticence à envoyer des jeunes noirs fraîchement sortis de l'école présenter leur candidature devant des employeurs souvent racistes : I must admit that I have hesitated to send a young coloured boy or girl fresh from the protective atmosphere of school to an employer without ensuring beforehand that they will not be subjected to the humiliation and discouragement of being turned down because of the colour of their 638 « So sorry, no coloured, no children », The West Indian Gazette, août 1960, p. 5. GB HISTORICAL GIS / UNIVERSITY OF PORTSMOUTH, « Nottingham MB/CB through time », A vision of Britain through time, [en ligne], [consulté le 23 août 2017], disponible à l'adresse suivante : <http://www.visionofbritain.org.uk/unit/10001389/cube/TOT_POP>. 640 « Nottingham 1961 », The West Indian Gazette, septembre 1961, p. 8. 639 • 213 • 213 214 Claire Mansour, Diffusion et évolution des mouvements sociaux skin. [] there are a large number of employers who discriminate against coloured people especially in the white-collared occupations. 641 Cet exemple illustrait la politique de laissez-faire du ministère du Travail, considérant que choisir les critères de recrutement de ses salariés relevait du choix de l'employeur. De plus, dans les cas où travailleurs noirs et blancs exerçaient dans la même entreprise, cela suscitait fréquemment des tensions liées aux peurs de ces derniers de se voir remplacer par une main d'oeuvre moins onéreuse et plus facilement exploitable. Certains allèrent jusqu'à faire grève avec le soutien de leurs délégués syndicaux pour protester contre le recrutement d'employés noirs, exiger que leur nombre soit limité par des quotas ou encore qu'ils ne puissent être promus à un échelon supérieur à celui d'un blanc 642. Leurs récriminations aboutirent également à ce que la règle tacite du « dernier embauché, premier licencié » ne s'applique pas aux « Britanniques de souche » lorsque des employés noirs pouvaient être remerciés à leur place 643 . Cette animosité à l'égard des arrivants du nouveau Commonwealth prit également des formes plus violentes. 1.5.1.3. Hostilité des autochtones et sentiment de désillusion Indo-Pakistanais, Africains et Antillais furent bien souvent les cibles d'agression en tout genre : actes de vandalisme et dégradations visant leurs lieux de résidence ou leurs propriétés, agressions physiques par des gangs de Teddy Boys, des individus isolés, ou même des membres des forces de l'ordre 644. 641 « The colour bar at the labour exchange », Peace News, 12 juin 1964, p. 1. « Unity can defeat rising racial tensions », The West Indian Gazette, novembre 1959, p. 2. « Anglo-Indian barred », The West Indian Gazette, décembre 1960, p. 1. « Probe "top people's" railway colour bar », The West Indian Gazette, juillet 1961, p. 1. « Colour bar strike in Glasgow », Peace News, 14 août 1964, p. 12. 643 Peter FRYER, op. cit., p. 376. 644 « Unity can defeat rising racial tensions », The West Indian Gazette, novembre 1959, p. 2. « West Indian house owner attacked », The West Indian Gazette, septembre 1960, p. 1. « Police accused of violence », The West Indian Gazette, janvier 1962, p. 5. « Fascists attack African hostel », The West Indian Gazette, novembre 1962, p. 3. 642 1ère Partie - 5 : Mouvement pour l'égalité raciale Ces violences atteignirent un premier paroxysme avec les émeutes de Nottingham et Notting Hill à la fin de l'été 1958, qui furent qualifiées par les commentateurs de l'époque « d'émeutes raciales » (« race riots ») 645. Bien que les témoignages de l'époque soient assez confus et parfois contradictoires, il semblerait que dans les deux cas, l'apparition de couples interraciaux soit à l'origine des déferlements d'agressivité. À chaque fois, l'homme était noir et la femme blanche – réveillant ainsi la peur de la miscégénation, ou mélange des « races ». Les incidents provoquèrent des troubles qui durèrent plusieurs jours, d'abord à Nottingham, puis s'étendant à Londres, où des rassemblements de groupes d'extrême droite eurent lieu. Ces groupuscules racistes, comme le Union Movement d'Oswald Mosley 646 ou la White Defence League inspirés respectivement par le fascisme de Mussolini et le national-socialisme d'Hitler, attisèrent la rancoeur et la haine de leurs jeunes auditeurs avant de les laisser saccager les rues de Notting Hill et violenter de nombreux immigrés noirs 647. Ces évènements contribuèrent à faire naître un sentiment de désillusion et d'attentes trompées au sein des communautés antillaises et indo-pakistanaises. De plus, la perception que la police ne leur rendait pas justice, voire se rangeait du côté des agresseurs, ajoutait à leur frustration. En mai 1959, un charpentier antiguais du nom de Kelso Cochrane fut poignardé par un groupe de Teddy Boys dans une rue de Notting Hill. La police n'arrêta jamais les coupables, entretenant ainsi l'impression que les crimes racistes pouvaient rester impunis 648. Peu de temps après, les représentants 645 « Race Riots », The Daily Mirror, 16 septembre 1958, p. 1. Oswald Ernald Mosley (1896-1980), célèbre populiste et dirigeant d'un mouvement fasciste, fut tour à tour député conservateur, puis travailliste, avant de créer sa propre organisation, la British Union of Fascists, en puisant son inspiration dans le mouvement de Benito Mussolini, puis dans le national-socialisme de Hitler. Après la guerre, il lança le Union Movement, qui prônait toujours une idéologie fasciste et explicitement raciste. 647 « Notting Hill as I saw it », Peace News, 5 septembre 1958, p. 1. « On the street where you live », Peace News, 12 septembre 1958, p. 2. « Notting Hill and the infection of violence », Peace News, 12 septembre 1958, p. 5. « White riot: the week Notting Hill exploded », The Independent, 28 août 2008 [en ligne], [consulté le 23 août 2017], disponible à l'adresse suivante : <http://www.independent.co.uk/news/uk/home-news/white-riot-the-week-notting-hill-exploded912105.html>. 648 « Unity can defeat rising racial tensions », The West Indian Gazette, novembre 1959, p. 2. 646 • 215 • 215 216 Claire Mansour, Diffusion et évolution des mouvements sociaux d'associations d'immigrés africains et antillais écrivirent une lettre au Premier ministre Harold Macmillan, assimilant le meurtre de Kelso Cochrane au lynchage de Mack Charles Parker perpétré un mois auparavant dans le Mississippi 649 . Comme la pratique avait été monnaie courante au Sud des États-Unis, l'analogie dénonçait la nature présumée intrinsèquement raciste de la société britannique. Ce rapprochement témoigne aussi de la tendance de la communauté noire au Royaume-Uni à regarder de l'autre côté de l'Atlantique. 1.5.1.4. « L'Atlantique noir » En tant que métropole impériale, Londres était un haut lieu de militantisme noir. En 1900, elle accueillit le premier congrès panafricain de l'histoire. La ville jouait depuis longtemps un rôle de carrefour entre les États-Unis, les Antilles, l'Afrique et l'Europe. D'abord unies par des siècles d'esclavage et de commerce triangulaire, les populations noires de ces différentes contrées partageaient des liens particuliers, voire même, selon le sociologue britannique Paul Gilroy, une identité transnationale commune qu'il nomme « l'Atlantique noir » (« Black Atlantic »)650. Cette notion ne renvoie pas seulement à la relation ancestrale entre les populations africaines et la diaspora noire essaimée à travers le monde, mais au va-et-vient incessant des personnes et des idées, créant ainsi une culture et une identité spécifique, venant supplémenter l'identité nationale. Dans le cadre de cette thèse, la référence à ce concept permet de rendre compte les liens privilégiés entre ces différentes populations qui ont servi de canaux de diffusion, à la fois relationnels et non-relationnels, rendant possible les échanges à sens multiples des mouvements de libération nationale et d'égalité raciale. 649 Clive WEBB, « Brotherhood, Betrayal, and Rivers of Blood: Southern Segregationists and British Race Relations » dans Robin D. G. KELLEY et Stephen TUCK (éds), op. cit., p. 233. 650 Paul GILROY, The Black Atlantic: Modernity and Double Consciousness, Cambridge : Harvard University Press, 1993. 1ère Partie - 5 : Mouvement pour l'égalité raciale Ainsi, la fondatrice et rédactrice en chef du mensuel The West Indian Gazette (WIG) – Claudia Jones – fut une illustration parfaite de ce phénomène. Née à Port-d'Espagne dans les Antilles britanniques, elle émigra aux États-Unis alors qu'elle était encore enfant et s'installa avec sa famille à New York. Elle fut extradée au Royaume-Uni une vingtaine d'années plus tard en raison de son adhésion au Parti communiste et de son activisme contre la guerre de Corée, dans le cadre de la chasse aux sorcières organisée par le sénateur Joseph McCarthy 651. Il est important de noter que WIG ne s'adressait pas exclusivement à la communauté caribéenne, même si une grande partie de ses articles relatait le combat pour l'indépendance mené dans les Antilles britanniques. En effet, son nom complet – The West Indian Gazette and Afro-Asian Caribbean News – dénotait sa volonté de s'adresser aux immigrés non-blancs résidant au Royaume-Uni, incluant ainsi la communauté indo-pakistanaise. Cette volonté d'englober les immigrés provenant du sous-continent indien dans une identité commune plus politique que culturelle serait par la suite au coeur du courant du Black Power au Royaume-Uni. Loin de vouloir effacer les différences culturelles entre ces différents groupes, il s'agissait de mettre l'accent sur leurs points communs, notamment leur expérience en tant qu'ancien sujets coloniaux et en tant qu'immigrants confrontés au racisme des autochtones. De plus, le concept de « l'Atlantique noir » n'est pas sans lien avec le souscontinent indien, puisque la philosophie et les techniques de non-violence gandhienne ont diffusé grâce à lui. En effet, Mohandas Gandhi vécut en Afrique du Sud pendant 21 ans, où il lança ses premières campagnes de désobéissance civile et contribua à fonder le Natal Indian Congress (bientôt South African Indian Congress) en 1894 à l'image du parti nationaliste de sa nation d'origine, l'Indian National Congress, créé en 1885. L'indépendance de l'Inde en 1947 consacra ensuite le triomphe de son parti et de ses méthodes. Ainsi, Fenner Brockway 651 « Dear Claudia! We shall hold high your banner of anti-imperialism », The West Indian Gazette, janvier-février 1965, p. 3. • 217 • 217 218 Claire Mansour, Diffusion et évolution des mouvements sociaux expliquait qu'ils constituaient un modèle universel pour les peuples désireux de s'émanciper : [] the story of the struggle for national liberty in India, led by the National Congress, has become a classic among all peoples claiming freedom. Gandhi and Nehru are not only great Indian figures. They belong to all Asia and Africa. The Indian National Congress became the model of nationalist organisation in every dependent country. 652 Les pratiques gandhiennes diffusèrent d'abord des Indiens aux Africains en Afrique du Sud, où ils contestaient la ségrégation raciale rigide bientôt connue sous le nom d'apartheid. De nombreux nationalistes africains, militants noirs américains et britanniques se penchèrent également vers les écrits du Mahatma, se rendant même parfois en Inde afin de se former aux principes de la satyagraha. Martin Luther King revendiquait d'ailleurs son admiration pour Gandhi, ainsi que l'origine de son engagement non-violent, qu'il décrivait en ces termes : In our struggle against racial segregation in Montgomery, Alabama, I came to see at a very early stage that a synthesis of Gandhi's method of non-violence and the Christian ethic of love is the best weapon available to Negroes in this struggle for freedom and human dignity. 653 King se rendit également en Inde, en 1959, où il rencontra le Premier ministre Jawarhalal Nehru ainsi que de nombreux adeptes de la satyagraha 654. Les leaders du nationalisme africain de l'époque incarnaient également ce mélange. Kenneth Kaunda, par exemple, luttait pour l'indépendance de la Rhodésie du Nord et devint le premier président de la Zambie en 1964. Ce fut à la suite de ses visites au Royaume-Uni et en Inde en 1957 qu'il forma son propre parti, le Zambia National Congress, et prit véritablement la tête du mouvement de libération en 652 « Indian independence: the message of non-violence spreads », Peace News, 16 juillet 1957, p. 5. « Mahatma Gandhi lives on in America: "More than any person in history" – Martin Luther King », Peace News, 31 janvier 1958, p. 2. 654 « Taking Gandhi to India », Peace News, 3 avril 1959, p. 3. 653 219 1ère Partie - 5 : Mouvement pour l'égalité raciale amorçant une campagne de résistance non-violente 655 . Quant à Kwame Nkrumah, premier président du Ghana libre en 1957, il avait également émigré aux États-Unis pour ses études, puis s'était rendu en Grande-Bretagne afin d'assister au congrès panafricain de Manchester en 1945. Dans son combat pour l'indépendance du Ghana, il s'inspira de Gandhi en appelant au boycott des produits britanniques et à la désobéissance civile. Une fois à la tête du pays, il organisa à Accra le premier congrès panafricain à se tenir sur le sol du continent 656. En décembre 1958, 300 délégués représentant 28 pays d'Afrique y prirent part. L'évènement permit aux meneurs nationalistes de se rencontrer en personne, afin de dénoncer le colonialisme et le néocolonialisme de l'Occident, mais aussi d'échanger sur les techniques de non-violence gandhiennes qui firent l'objet de discours des délégués sud-africains, kényans, nigérians et ghanéens, ainsi que de Nkrumah lui-même 657 . Grâce à ces expériences partagées par les peuples opprimés en raison de leur couleur de peau de part et d'autres de l'Atlantique, les mouvements anticolonialistes et pour l'égalité raciale furent bientôt perçus comme les deux facettes d'une même pièce. 1.5.2. Influence des mouvements précédents et phase modérée : 1956-67 1.5.2.1. Le mouvement pour le désarmement nucléaire Tout d'abord, sur le sol britannique, le mouvement pour l'égalité raciale bénéficia du succès du mouvement pour le désarmement nucléaire. La nature même de la course aux armes nucléaires se déroulant à l'échelle planétaire impliquait malgré eux les territoires coloniaux. Les essais nucléaires français dans 655 « African leaders in profile – I: Kenneth Kaunda », Peace News, 7 juillet 1961, p. 7. « Kaunda launches non-violent campaign for self-government », Peace News, 14 juillet 1961, p. 1. 656 « Ghana », Peace News, 1er mars 1957, p. 2, 6. « Freedom through non-violence », Peace News, 8 mars 1957, p. 1. « Colonial Africa's mood today », Peace News, 5 avril 1957, p. 2. 657 « Victory at Accra: a step towards a free Africa », Peace News, 26 décembre 1958, p. 7. • 219 • 220 Claire Mansour, Diffusion et évolution des mouvements sociaux le Sahara en Algérie mettaient en péril la population africaine. Ainsi les meneurs des combats de libération nationale se saisirent de la problématique et en dénoncèrent la nature impérialiste et néocolonialiste à l'oeuvre. Ainsi en 1959, Kwame Nkrumah dénonçait le « mépris cynique » des puissances coloniales pour la vie des Africains : This cynical disregard for the wellbeing of Africans generally, and especially those living in West Africa, must provoke the strongest feelings of resentment and the Government of Ghana will not cease to protest against the contamination of the African continent.658 Il invita d'ailleurs les partisans de la CND à se rendre à Accra pour organiser leur intrusion dans la zone de test. L'équipe internationale de militants reçut un fort soutien auprès de la population locale et des pays environnants. À Londres, le Committee of African Organisations (CAO) 659 lança un appel à tout le continent africain et à sa diaspora afin de soutenir l'action des militants anti-nucléaires 660. Ainsi de nombreux meneurs de la communauté noire au Royaume-Uni affirmèrent leur opposition aux armes nucléaires, ce que l'on retrouve par exemple dans la définition de la ligne éditoriale de la West Indian Gazette formulée ainsi en 1961 : We oppose colonialism: we stand for peace and disarmament and oppose nuclear weapons; we want to build friendship and understanding of all Commonwealth peoples and other world peoples, based on the recognition of equality and dignity of all peoples and nations. 661 658 « Nkrumah opposes tests in 'the homeland of innocent Africans' », Peace News, 23 octobre 1959, p. 1. Le Committee of African Organisations (CAO) était un groupe de coordination représentant diverses organisations liées aux pays d'Afrique anglophones. Il incluait de nombreux partis nationalistes, des syndicats et sociétés d'étudiants ainsi que des associations d'immigrés africains vivant au Royaume-Uni. 660 « Thousands of Africans at A-protest team send-off », Peace News, 11 décembre 1959, p. 8. « A call to Africans », Peace News, 23 octobre 1959, p. 1. 661 « For a weekly WIG », The West Indian Gazette, octobre1961, p. 4. 659 1ère Partie - 5 : Mouvement pour l'égalité raciale Un phénomène similaire était à l'oeuvre aux États-Unis par le biais de Bayard Rustin, dirigeant phare du mouvement pour les droits civiques, qui avait fait parti du projet au Sahara 662. De plus, la première génération des meneurs du mouvement pour l'égalité raciale avait participé, voire pour certains dirigé, la mobilisation pour le désarmement nucléaire. Fenner Brockway, par exemple, était à la fois un membre fondateur de la CND et le président du MCF qui soutenait les courants indépendantistes en Afrique et en Asie, et le combat contre les discriminations raciales au Royaume-Uni. De même, le sociologue et militant jamaïcain Stuart Hall fut également vice-président de la CND avant de se consacrer à l'égalité raciale 663. Michael Randle, figure notoire du C100 contribua à la création de la Campaign Against Racial Discrimination (CARD) en 1965. L'organisation vit d'ailleurs le jour grâce à l'impulsion de la militante trinidadienne Marion Glean, également membre de la CND. Selon le rédacteur en chef de Peace News, Théodore Roszak, Glean réussit à rassembler les dirigeants et les figures emblématiques de ces courants, ainsi que Martin Luther King et Bayard Rustin du mouvement américain pour les droits civiques en janvier 1965 afin de lancer un nouveau mouvement sur le sol britannique 664. Ainsi, même si l'opposition aux armes nucléaires n'attira qu'un nombre très faible d'Antillais et d'IndoPakistanais, elle mobilisa en revanche l'élite de leurs communautés et les libéraux blancs, au sens anglo-saxon du terme, qui allaient ensuite se charger de recruter. Enfin, la marche sur Washington pour l'emploi et la liberté d'août 1963 fut organisée par Bayard Rustin sur le modèle des grandes marches de Pâques entre Aldermaston et Londres. Claudia Jones, militante antillaise rédactrice en chef de WIG, s'en inspira également pour organiser la marche pour la liberté (freedom march) de Londres, d'abord en soutien avec la manifestation de « Sahara protest team 'virtually under arrest' », Peace News, 1er janvier 1960, p. 8. 663 « Race: the unmentionable issue », Peace News, 25 septembre 1964, p. 1. 664 « New campaign to attack colour bar », Peace News, 19 février 1965, p. 1. 662 • 221 • 221 222 Claire Mansour, Diffusion et évolution des mouvements sociaux Washington ayant lieu le même jour mais aussi afin de dénoncer les discriminations raciales et la colour bar au Royaume-Uni. C'est après avoir participé à la grand marche de Pâques de 1962 que l'idée lui vint d'organiser ce défilé partant de Ladbroke Grove jusqu'à l'ambassade américaine, en passant par les quartiers de Notting Hill et Paddington, où logeaient de nombreux immigrés noirs 665. En ce sens, la mobilisation des noirs américains aux États-Unis servit de « chaînon manquant » permettant de retracer la filiation entre le mouvement pour l'égalité raciale et le mouvement pour le désarmement nucléaire au Royaume-Uni. 1.5.2.2. Le mouvement pour les droits civiques des noirs américains Même si les conditions de vie des immigrés noirs sur le sol britannique étaient sensiblement meilleures que celles des descendants d'esclaves dans le Deep South, ils étaient également considérés comme des citoyens de seconde zone. En effet, un ensemble de similarités perçues entre les deux groupes furent responsables de la diffusion du mouvement pour les droits civiques des noirs américains au Royaume-Uni. Si ces derniers étaient privés du droit de vote, discriminés et exclus d'une grande partie des lieux et services publics du fait de la doctrine « separate but equal » appliquée par les lois Jim Crow, ce n'était pas le cas des arrivants du nouveau Commonwealth qui disposaient des mêmes droits civiques que les autochtones grâce au British Nationality Act (1948). Pourtant, la pratique répandue de la colour bar aboutissait insidieusement à un résultat semblable. Ainsi un journal londonien destiné à la communauté antillaise intitulait son éditorial en mars 1963 : « Mr James Crow, Esq. », soulignant les parallèles entre les 665 « 750 in London 'freedom march' », Peace News, 6 septembre 1963, p. 9. « London solidarity march », The West Indian Gazette, septembre 1963, p. 1. 1ère Partie - 5 : Mouvement pour l'égalité raciale discriminations raciales de jure aux États-Unis et de facto au Royaume-Uni par le biais d'une paronomase 666. De multiples canaux non-relationnels et relationnels permirent d'établir les liens nécessaires à la diffusion des cadres et des tactiques du mouvement américain. Les médias traditionnels et alternatifs relayèrent amplement la lutte pour les droits civiques. Des branches d'associations américaines furent établies au Royaume-Uni, comme la NAACP (National Association for the Advancement of Coloured People), quelques mois seulement après l'émergence de la mobilisation aux États-Unis avec le boycott des bus de Montgomery, dans l'Alabama, afin d'offrir leur savoir-faire pour combattre la colour bar 667. De nombreux liens personnels existaient également entre les militants des deux côtés de l'Atlantique, comme par exemple les contacts fréquents de Bayard Rustin avec les militants de la CND, et la correspondance régulière de Martin Luther King avec le journaliste de Peace News écrivant sous le pseudonyme de « Phyz ». Il lui envoya par exemple en 1959 un livret décrivant pas à pas la mise en place des techniques de non-violence utilisée dans la campagne de déségrégation des établissements scolaires du Deep South668. Mais ce furent les visites de Luther King qui eurent probablement le plus d'impact sur les militants britanniques. Lors d'une première visite à Londres en octobre 1961, il donna une conférence sur les préjugés raciaux et participa à un entretien télévisé pour le programme « Face to face » de la BBC 669. Il revint à nouveau à Londres en décembre 1964 avant de se rendre à Oslo pour recevoir le prix Nobel de la paix. Lors du rassemblement organisé par Marion Glean, il s'adressa à des militants et dirigeants d'associations antillaises, africaines et indo-pakistanaises ainsi que du mouvement pour le désarmement nucléaire. Il dénonça l'apartheid en Afrique du Sud avant d'établir un parallèle entre les 666 « Editorially speaking: Mr James Crow Esq. », The West Indies Observer, 23 mars 1963, p. 4, cité dans Stephen TUCK, « Malcolm X's Visit to Oxford University », op. cit. , p. 88. 667 « To help Britain beat the colour bar », Peace News, 17 février 1956, p. 1. 668 « Desegregation », Peace News, 13 février 1959, p. 3. 669 « Total integration », The West Indian Gazette, novembre 1961, p. 1. • 223 • 223 224 Claire Mansour, Diffusion et évolution des mouvements sociaux conditions des noirs aux États-Unis et au Royaume-Uni du fait des pratiques de discrimination raciale. Il acheva son discours en incitant ses auditeurs à utiliser les méthodes gandhiennes afin de combattre la colour bar. Ces propos témoignaient d'une volonté nouvelle d'internationaliser le mouvement pour l'égalité raciale, et de cesser de mettre l'accent sur l'exceptionnalisme du Deep South. Ils déclenchèrent un élan d'unification entre les différentes communautés afin de créer un groupe de coordination spécifiquement dédié à la lutte contre les discriminations raciales 670. CARD vit le jour le mois suivant et devint, pour un temps, l'organisation majoritaire du mouvement. De nombreux autres champions de la cause noire traversèrent l'Atlantique pour s'adresser aux Britanniques. Mais aucun ne déchaîna autant les passions que Malcolm Little, alias Malcolm X. Ses discours radicaux trouvèrent un fort écho au sein de la communauté antillaise, peut être aussi du fait de ses propres origines grenadiennes, du côté maternel. Il se rendit deux fois au Royaume-Uni, en décembre 1964 et en février 1965. Lors de ses visites, il s'exprima devant le CAO à Londres, donna des conférences devant des parterres d'étudiants dans les universités de Manchester, de Sheffield, de la LSE et participa à un débat à l'université d'Oxford aux côtés de Tariq Ali 671. Il décida de venir s'adresser directement aux habitants de Smethwick, petite ville des Midlands près de Birmingham, où les tensions entre les différentes communautés avaient été exacerbées par les pratiques discriminatoires de la municipalité en matière de logement et la campagne aux relents racistes du député conservateur Peter Griffiths. Lors des précédentes élections, le slogan « If you want a nigger for a neighbour, vote Labour » avait été associé au candidat Griffiths. Si ce dernier ne l'avait jamais officiellement adopté, il avait refusé de s'en distancer et avait 670 « Martin Luther King's warning to Britain: 'Don't let inequality continue' », Peace News, 11 décembre 1964, p. 1. « Dr Luther King's warning», The West Indian Gazette, décembre-janvier 1965, pp. 1-2. 671 Stephen TUCK, « Malcolm X's Visit to Oxford University », op. cit., p. 84. « Malcolm X in London », Peace News, 12 février 1965, p. 12. « 'Washington DC centre of world imperialism – Malcolm X », The West Indian Gazette, février 1965, p. 4. 1ère Partie - 5 : Mouvement pour l'égalité raciale capitalisé sur l'animosité raciale qu'il inspirait 672 . Ainsi, lorsque Malcolm X se promena dans les rues de Smethwick, il fut accueilli par un flot de commentaires hostiles de la part de résidants blancs. Il déclara alors devant les journalistes : « I have heard that the blacks [] are being treated in the same way as the Negroes were treated in Alabama – like Hitler treated the jews » avant de conclure « I would not wait for the fascist elements in Smethwick to erect gas ovens » 673 . Un militant trinidadien vivant à Londres se pressa d'appliquer ce conseil. Michael de Freitas se faisait appeler Michael X en hommage à son modèle, avec lequel il pensait partager certaines caractéristiques : origines antillaises, conversion à l'islam, et bien sûr des opinions politiques radicales comme le rejet des techniques non-violentes prônées par Luther King en faveur de l'autodéfense face à la violence des autorités. En entretenant volontairement les parallèles, il gagna rapidement en visibilité médiatique et fut bientôt considéré à tort par les médias traditionnels comme un des principaux porte-parole de la communauté antillaise. Il fonda l'organisation Racial Adjustment Action Society afin de mettre en pratique ses idéaux. Pourtant, à l'image du nom de l'association dont l'acronyme formait en fait un juron en créole jamaïquain, De Freitas devait sa réputation à ses frasques médiatiques plutôt qu'à l'articulation d'une pensée politique cohérente. D'autres célèbres militants afro-américains comme Stokely Carmichael et Angela Davis firent le déplacement et leurs interventions contribuèrent, quelques années plus tard, à la radicalisation du mouvement pour l'égalité raciale au Royaume-Uni. Grâce à cette multitude de canaux relationnels et non-relationnels, le mouvement pour les droits civiques des noirs américains diffusa largement outreAtlantique. Des slogans et des chants furent adoptés, comme l'hymne emblématique « We Shall Overcome », entonnée par exemple lors de la marche de la 672 Joe STREET, « Malcolm X's, Smethwick, and the Influence of the African American Freedom Struggle on British Race Relations in the 1960s », Journal of Black Studies, 38, no. 6, juillet 2008, pp. 936-7. 673 Ibid. p. 939. « Malcolm X's visit to Smethwick to fight racism remembered 50 years on », The Birmingham Mail, 16 février 2015, [en ligne], [consulté le 30 août 2017], disponible à l'adresse suivante : <http://www.birminghammail.co.uk/news/midlands-news/malcolm-xs-visit-smethwickremembered-8653592>. • 225 • 225 226 Claire Mansour, Diffusion et évolution des mouvements sociaux liberté à Londres en solidarité avec la marche sur Washington en août 1963 674. Si l'emploi des techniques de non-violence gandhienne était également dû au mouvement pour le désarmement nucléaire, les exploits de Martin Luther King contribuèrent grandement à les populariser. L'exemple le plus éloquent fut sans doute la mise en place du boycott des bus de Bristol d'avril à août 1963, inspiré par celui des bus de Montgomery qui avait duré un an, de décembre 1955 à 1956 675 . L'action fut provoquée par un cas de discrimination à l'embauche touchant un jeune Antillais qui souhaitait postuler pour devenir conducteur de bus. Le jeune homme se vit refuser un entretien par le directeur de la Bristol Omnibus Company malgré ses qualifications. Les membres de l'association antiraciste West Indian Development Council, sous la houlette du militant d'origine ouest-africaine Paul Stephenson, décidèrent alors d'appeler au boycott de l'entreprise. Ce dernier insistait d'ailleurs sur la source d'inspiration de la tactique et s'en servit pour mettre en scène des parallèles entre les deux contextes. Un des protestaires noirs monta volontairement à l'arrière d'un bus devant les flashs des journalistes, rappelant ainsi les noirs américains forcés de s'asseoir à l'arrière des bus ou de céder leurs places aux blancs. Comme le souhaitaient les militants, les médias couvrirent l'évènement avec sensationnalisme. Ainsi un journal local comparait Bristol à Little Rock, dans l'Arkansas : « We want no Little Rock in Bristol » 676. En 1957, les troupes fédérales avaient dû y intervenir pour protéger neuf élèves noirs d'une foule de suprématistes blancs en furie, tentant d'empêcher la déségrégation des établissements scolaires. Cette propagande se révéla rapidement efficace, et la campagne reçut le soutien de députés travaillistes de premier plan, comme Tony Benn, Fenner Brockway et même Harold Wilson, 674 « 750 in London 'freedom march' », Peace News, 6 septembre 1963, p. 9. « London solidarity march », The West Indian Gazette, septembre 1963, p. 1. 675 Pour plus de précisions sur les liens entre ces deux évènements voir Claire MANSOUR, « The Cross-National Diffusion of the American Civil Rights Movement: The Example of the Bristol Bus Boycott of 1963 », Miranda, 10, 2014 [en ligne], [consulté le 30 août 2017], disponible à l'adresse suivante : <http://miranda.revues.org/6360>. 676 Madge DRESSER, Black and White on the Buses: The 1963 Colour Bar Dispute in Bristol, Bristol : Bristol Broadside, 1986, p. 27. 1ère Partie - 5 : Mouvement pour l'égalité raciale alors à la tête de l'opposition, ainsi que du célèbre joueur de cricket trinidadien Learie Constantine 677 . Le 28 août 1963, le directeur de la compagnie de bus annonça que sa société emploierait désormais des conducteurs noirs, le jour même où Martin Luther King prononçait son illustre discours « I have a dream »678. La notoriété du mouvement des droits civiques et le soutien qu'il suscitait à travers le monde eurent une influence très significative pour les militants antiracistes au Royaume-Uni. Ce mouvement inspira et galvanisa leurs efforts, tout en créant un contexte favorable, au sein duquel classe politique et opinion publique devenaient plus réceptives à leurs revendications. 1.5.2.3. Les mouvements de libération nationale dans les colonies et dominions britanniques en Afrique À la fin des années 1950 et au début des années 1960, les colonies et dominions britanniques en Afrique furent traversés par des mouvements de libération nationale à forte dimension antiraciste. La Rhodésie, Nord et Sud, ainsi que l'Afrique du Sud, furent le théâtre de mobilisations particulièrement soutenues, visant à abolir la ségrégation raciale institutionnalisée qui classait les individus en différentes catégories selon les nuances de leur couleur de peau. En Afrique du Sud, des campagnes de désobéissance civile semblables à celles organisées par Gandhi au début du siècle continuaient à être mises en place régulièrement. Il s'agissait de traverser les différentes zones urbaines sans être munis des permis de circulation nécessaires aux personnes non-blanches, d'occuper les sièges et les compartiments réservés aux blancs dans les bus ou les trains, voire même de boycotter les réseaux de transports en marchant plusieurs dizaines de kilomètres 679 . Le mouvement diffusa progressivement vers les 677 « Wilson joins colour bar fray », The Bristol Evening Post, 2 mai 1963, p. 1. « Sir Learie makes it plain on that Bristol colour bar », The West Indian Gazette, juin 1963, p. 1. 678 « 'Complete integration' on buses – YES to coloured men », The Bristol Evening Post, 28 août 1963, p. 1. « Bus firm drops colour bar », The Bristol Evening Post, 29 août 1963, p. 1. 679 « Indian Independence: the message of non-violence spreads », Peace News, 16 juillet 1957, p. 5. • 227 • 227 228 Claire Mansour, Diffusion et évolution des mouvements sociaux colonies du nord. En décembre 1956 en Rhodésie du Sud, et en janvier 1957 en Rhodésie du Nord, de nouvelles campagnes furent lancées par les deux branches respectives de l'African National Congress sur le modèle de celle menée par Gandhi et l'Indian National Congress qui avait conduit à l'indépendance de l'Inde. Des groupes de dizaines de protestataires pénétrèrent dans les restaurants, bars et cinémas d'ordinaires réservés aux blancs et demandaient à être servis 680 . Au Royaume-Uni, les actions collectives contre la colour bar commencèrent à porter leurs fruits à la fin des années 1950. Les efforts de cinq Jamaïcains et leur syndicat réussirent à menacer de fermeture le pub Milkwood Tavern, dans le quartier de Hern Hill au sud de Londres, en raison des pratiques de son propriétaire, qui refusait de servir des clients noirs 681. S'il est très difficile de retracer la généalogie exacte de cette stratégie, ce déroulement chronologique laisse penser que ce furent les exemples des colonies et anciennes colonies britanniques africaines qui inspirèrent les militants en Grande-Bretagne. Dans un deuxième temps, la campagne menée par le Congress for Racial Equality (CORE) aux États-Unis contribua à la renomée de la technique du sit-in. CORE avait été fondée en 1942 à Chicago, et militait contre les discriminations raciales au nord du pays dans les théâtres, cinémas et restaurants par le biais de techniques non-violentes 682. En février 1960, le succès de la campagne menée par les étudiants noirs dans les restaurants de Greensboro, avait permit à la technique de se propager rapidement dans le Sud afin de lutter contre la ségrégation, tout en étant abondamment relatée à l'étranger 683. Le mois suivant, la nouvelle du massacre de 70 manifestants pacifiques par les autorités Sud-Africaine à Sharpeville agit comme un électrochoc sur l'opinion 680 « A break in the colour bar », Peace News, 28 décembre 1956, p. 8. « Non-violent action in Northern Rhodesia », Peace News, 18 janvier 1957, p. 6. « Africans begin first phase of non-violent campaign », Peace News, 25 janvier 1957, p. 6. 681 John DAVIS, « Containing Racism? The London Experience, 1957-1968 » dans Robin D. G. KELLEY et Stephen TUCK (éds), op. cit., p. 138. 682 « From Chicago to Notting Hill », Peace News, 12 septembre 1958, p. 8. 683 « Lunch-counter protests are snowballing », Peace News, 4 mars 1960, p. 5. « Negroes: mass direct action », Peace News, 25 mars 1960, p. 1. 1ère Partie - 5 : Mouvement pour l'égalité raciale internationale et catalysa la campagne contre l'apartheid en Afrique du Sud. Jusqu'alors, les actions sur le sol britannique restaient anecdotiques, et le boycott lancé par les partisans du South African National Congress en juin 1959 était peu suivi, malgré les efforts du Committee of African Organisations 684. Le 27 mars, une dizaine de milliers de personnes se réunirent à Trafalgar Square pour protester contre la tuerie de Sharpeville. Le rassemblement fut suivi d'un sit-in devant la South Africa House – bâtiment abritant l'ambassade sud-africaine. Suite à ces évènements le Boycott Movement évolua en organisation pérenne et devint l'Anti-Aparteid Movement (AAM) 685. Les militants britanniques gravitant dans les cercles anti-impérialistes, nationalistes africains et antillais, ou dans les associations défendant les intérêts des immigrés noirs développèrent une vision globale du problème des discriminations raciales : « Racialism exists not only in South Africa. It exists everywhere, and wherever it exists it must be fought, whether in Notting Hill or in Dixie, in Johanesburg or Salisbury » 686 . Cette prise de conscience permit leur ralliement sous la même bannière de l'égalité raciale et l'essor du mouvement. 1.5.2.4. La campagne contre la colour bar Le combat contre la colour bar fut aussi divers que les militants qu'il rassemblait. Si les « libéraux » blancs, au sens anglo-saxon du terme, préféraient souvent les techniques constitutionnelles telles que les lettres et les pétitions en soutien à une réforme parlementaire contre les discriminations raciales, les premiers concernés eurent en revanche recours à des actions plus concrètes. Ainsi, les habitants des quartiers défavorisés majoritairement noirs ou asiatiques unirent fréquemment leurs forces pour contrer les effets des diverses injustices 684 « African boycott wins support », Peace News, 17 juillet 1959, p. 8. « Africa prepares to support boycott », Peace News, 31 juillet 1959, p. 3. « Sunday protest against South African shootings », Peace News, 25 mars 1960, p. 8. 685 « The campaign against apartheid », Peace News, 1er avril 1960, p. 1. « Boycott will continue », Peace News, 1er avril 1960, p. 8. 686 « Freedom Africa's Right », The West Indian Gazette, juin 1960, p. 4. • 229 • 229 230 Claire Mansour, Diffusion et évolution des mouvements sociaux dont ils faisaient l'objet. Des associations destinées à aider les immigrés du nouveau Commonwealth à accéder à la propriété, ou tout simplement à se loger, virent le jour dans les quartiers du sud de Londres et dans les Midlands 687. Les dirigeants des gurdwaras, temples Sikhs, défendirent leurs fidèles contre les pratiques discriminatoires des employeurs les refusant en raison du port de leur turban. L'exemple d'un aspirant contrôleur de bus à Manchester dont la candidature avait été rejetée en 1959 donna lieu à la première « campagne des turbans » (turban campaign), qui se poursuivit jusqu'en 1966, et inspira des entreprises similaires dans les villes de Leeds, Bradford et Wolverhampton 688 . L'adoption de la technique du sit-in dans les lieux refusant l'accès ou le service aux personnes « de couleur » prit un tour spécifiquement britannique dans les pubs, où elle fut baptisée drink-in. Après les cas évoqués précédemment de la Milkwood Tavern et le succès de la campagne de Greensboro, la cadence s'accéléra. Des militants noirs entreprirent de défier les colour bars instaurées par certains pubs, bars et discothèques et attendaient d'être servis sur place jusqu'à ce que la police ne les contraigne à quitter les lieux. Lorsque les propriétaires des établissements se montraient particulièrement réfractaires, les actions pouvaient devenir de véritables campagnes, s'appuyant sur des manifestations ou des piquets à l'entrée dénonçant les pratiques discriminatoires des lieux. Ce fut par exemple le cas du Dartmouth Arms, à Lewisham dans le sud de Londres, où les militants réussirent à attirer l'attention des médias en surnommant leur mobilisation « Operation Guiness » en 1964 689 . À Leicester, une série d'actions analogues se produisit, et une alliance effective unissant sympathisants pakistanais, socialistes et étudiants eut raison de la colour bar dans plusieurs 687 « New mortgage company open for deposits », The West Indian Gazette, novembre 1961, p. 13. Vincent LATOUR, Le Royaume-Uni et la France au test de l'immigration et à l'épreuve de l'intégration : 1930-2012, Pessac, Presses Universitaires de Bordeaux, 2014, p. 107. Brett BEBBER, « Model migrants ?: Sikh activism and race relations organisations in Britain », Contemporary British History, publié le 24 janvier 2017 [en ligne], [consulté le 29 août 2017], disponible à l'adresse suivante : <http://www.tandfonline.com/doi/full/10.1080/13619462.2017.1280400>. 689 « Colour bar at london pub: four stage sit-in », Peace News, 18 septembre 1964, p. 12. Stephen TUCK, Malcolm X's Visit to Oxford University, op. cit., p. 92. 688 1ère Partie - 5 : Mouvement pour l'égalité raciale établissements de la ville 690. À Bradford, l'exclusion systématique des clients noirs non-accompagnés d'une salle de danse conduisit Antillais, Pakistanais et Anglais à défiler de concert sous les bannières « One race – the human race » et « Bar the colourbar » en décembre 1961 691. En 1962, l'entrée en vigueur du Commonwealth Immigrants Act contribua également à renforcer les liens entre les différentes communautés issues de l'immigration, et fut interprétée comme un signe de racisme institutionnel. Surnommée « Colour Bar Act » par ses opposants, la loi introduisait pour la première fois des restrictions migratoires aux citoyens des pays du Commonwealth en autorisant seulement les titulaires d'un permis de travail (voucher) à entrer au Royaume-Uni. Officiellement destinée à filtrer la main d'oeuvre qualifiée, la loi affectait inégalement les pays du nouveau et du vieux Commonwealth. Comme les personnes nées sur le sol du Royaume-Uni ou bien possédant un passeport émis par les autorités britanniques n'avaient pas besoin de permis de travail, elle ne changeait pas la situation des quelques ressortissants canadiens, australiens et néo-zélandais désireux de s'y installer. En revanche, elle visait à réduire le nombre d'immigrés en provenance du nouveau Commonwealth. Ainsi, alors que la proposition de loi était débattue à la Chambre des Communes, ses opposants se pressèrent en nombre devant les portes de Westminster, dressèrent des piquets de protestation devant le ministère de l'Intérieur et organisèrent conférences et manifestations. Lors d'un défilé au mois de janvier, quelques milliers de personnes issues des différentes communautés se rassemblèrent à l'appel du MCF à Trafalgar Square pour demander que les contrôles migratoires soient abandonnés en faveur d'une loi contre les discriminations raciales. On pouvait lire sur leurs pancartes « No colour bar on immigration », « Bill of discrimination » ou encore « Legalised apartheid » 692 . Cette loi 690 « The fight against racialism in Leicester », Peace News, 20 novembre 1964, p. 10. « Bradford march », The West Indian Gazette, décembre 1961, p. 1. 692 « Anti-colour Bill Lobby – February 13 », The West Indian Gazette, février 1962, p. 1. « No colour bar on immigration march », The West Indian Gazette, février 1962, p. 16. 691 • 231 • 231 232 Claire Mansour, Diffusion et évolution des mouvements sociaux reflétait l'opinion du Parti conservateur qui identifiait la cause des problèmes d'assimilation des immigrés noirs, non comme étant dû au racisme ambiant et aux discriminations raciales, mais à leur nombre croissant. Ces derniers perçurent à leur tour cette mesure comme un signe que le gouvernement se rangeait du côté de ceux qui les jugeaient comme indésirables, encourageant ainsi les discours et les actes de haine des groupuscules d'extrême droite : It is instructive that on the very day that the Colour Bar Immigration Act came into force, the most disgraceful racialist meeting ever allowed to be held took place in Britain. We refer to the meeting of the so-called 'National Socialist Movement' in Trafalgar Square on July the 1st. There, in full view of the police and the authorities who pleaded that racialism was not at the heart of the colour bar restriction measure, Nazi slogans were shouted, Nazi salutes given and insulting antiSemitic words were used. 693 Si les travaillistes avaient été prompts à condamner la proposition de loi lors des débats au parlement, leur opposition se tarit au moment où la mesure fut renouvelée pour une année supplémentaire en 1963. En dehors du soutien d'Harold Wilson à une législation interdisant la discrimination raciale, ils se prononcèrent peu sur le sujet durant la campagne, ce qui laissait déjà présager aux intellectuels noirs qu'il y aurait un consensus entre les partis principaux 694. 1.5.2.5. Revirement du Parti travailliste et montée du racisme Dès son arrivée au pouvoir en octobre 1964, le gouvernement Wilson fit voter un nouveau renforcement du Commonwealth Immigrants Act. Deux ans auparavant, Hugh Gaitskell – alors à la tête de l'opposition travailliste – en avait dénoncé la logique pernicieuse, en la taxant de « mesure raciste en pratique » : « a plain anti-Commonwealth measure in theory and a plain anti-colour measure in practice » 695. 693 « Colour bar act emboldens fascists », The West Indian Gazette, juillet 1962, p. 11. « Outlaw racial discrimination! », The West Indian Gazette, décembre 1963, p. 3. « Race: the unmentionable issue », Peace News, 25 septembre 1964, p. 1. 695 « Immigration: why no open door? », Peace News, 13 novembre 1964, p. 1. 694 1ère Partie - 5 : Mouvement pour l'égalité raciale En plus du renouvellement des restrictions migratoires déjà existantes, le gouvernement publia un livre blanc promettant des contrôles encore plus stricts qui seraient contrebalancés par des mesures destinées à faciliter l'assimilation 696. Lors de la campagne de 1964, Peter Griffiths n'avait pas été le seul conservateur à jouer sur les tensions entre les communautés. Le Premier ministre, Alec DouglasHome, avait également évoqué la menace d'un déluge d'immigrants noyant le Royaume-Uni lors d'un discours dans le Yorkshire 697 . Le revirement des travaillistes en faveur de sévères restrictions des flux migratoires provenant des pays du nouveau Commonwealth provoqua un sentiment de désillusion au sein des communautés immigrées. Le Race Relations Act de 1965 fut rapidement dénoncé par les militants comme étant une réforme cosmétique : « [] an ineffectual sop to liberal opinion, which fails to tackle the most important areas of discrimination » 698. Les organisations comme le MCF et CARD, misant justement sur la coopération avec le Parti travailliste pour oeuvrer pour l'égalité raciale au moyen de réformes, perdirent de leur pertinence aux yeux de leurs membres, et se virent rapidement délaissées au profit d'organisations plus radicales, prônant des stratégies extra-parlementaires. 1.5.3. Apogée du mouvement : 1967-79 1.5.3.1. Le tournant du Black Power Le slogan « Black Power » fut rendu célèbre par Stokely Carmichael, alors fraîchement élu président du SNCC, lors de la marche contre la peur (March against fear) de juin 1966 dans le Mississippi. Dès lors, il déchaîna les foudres des médias qui lurent dans ses discours des menaces et des promesses de vengeance. Les propos de Carmichael furent d'ailleurs immédiatement déformés par la 696 John SOLOMOs, Race and Racism in Britain, Londres, Macmillan, 1993, p. 66. « Before and after Smethwick », The West Indian Gazette, novembre 1964, p. 1. 698 « New drive against race discrimination », Peace News, 30 juillet 1965, p. 1. 697 • 233 • 233 234 Claire Mansour, Diffusion et évolution des mouvements sociaux presse, puisqu'après s'être écrié « Black Power », il poursuivit en affirmant que ce mot d'ordre allait « séparer les hommes des souris », ce qui fut retranscrit en « séparer les hommes des blancs » (« This will separate the men from the mice », « This will separate the men from the whites »)699. Ce cri de ralliement de la conscience noire prit un sens différent lorsqu'il diffusa outre-Atlantique, où il fut adapté au contexte local. Aux États-Unis, le terme accentuait l'homogénéité de la communauté noire et faisait allusion à ses origines africaines. Les autres populations non-blanches revendiquèrent à leur tour leur couleur de peau comme une couleur politique avec le « Yellow Power » pour la communauté asiatique, le « Red Power » pour les Indiens d'Amérique, et « la Raza de Bronze » ou plus rarement « Brown Power » pour la communauté latino-américaine. Au RoyaumeUni en revanche, le mot « black » devint un terme défini en négatif incluant toute personne non-blanche : « The term 'Black People' is a universal one. It represents all the non-white peoples of the world – the oppressed peoples of the world. [] Africans, Indians, Asians, West Indians, Afro-Americans etc. and BLACK PEOPLE is the suitable title that represents us ALL » 700. Les différences culturelles entre les Antillais et les IndoPakistanais rendaient cependant leurs conditions de vie différentes. Si l'expérience partagée du racisme systémique au sein de la société britannique fut un dénominateur commun suffisant pour forger une alliance politique parmi les militants, elle ne permit pas d'obtenir le soutien de la majeure partie de ces communautés. La plupart des Indo-Pakistanais ne se reconnaissaient pas dans la définition de « black » et ne s'identifiaient pas non plus au modèle de la lutte pour les droits civiques des noirs américains. Ils continuèrent donc dans l'ensemble à se mobiliser au sein de leurs propres associations communautaires pour promouvoir leurs intérêts spécifiques, ne collaborant qu'occasionnellement avec les autres populations issues de l'immigration. 699 700 « Rebirth of a movement », Peace News, 29 juillet 1966, p. 5. « What is Black Power », Grass Roots, 1, no. 4, septembre 1971, pp. 6-7. 1ère Partie - 5 : Mouvement pour l'égalité raciale L'évolution du débat national sur les restrictions des flux migratoires parvint à convaincre certaines associations indiennes et pakistanaises de faire cause commune avec les Antillais et les Africains. En mars 1968, un nouveau Commonwealth Immigrants Act fut promulgué afin d'empêcher l'arrivée d'un grand nombre de familles originaires du sous-continent indien fuyant la politique d'africanisation du Kenya. Comme ces dernières étaient titulaires de passeports britanniques, la législation s'appuyait désormais sur leur absence de filiation avec le Royaume-Uni pour les soumettre aux restrictions migratoires, sans toutefois modifier le statut des citoyens du vieux Commonwealth. Quelques semaines plus tard, les remous des « eaux écumant de sang » (« foaming with much blood ») invoquées par le député conservateur Enoch Powell lors de son discours à Birmingham le 20 avril 1968, déferlèrent sur le pays. À grand renfort de stéréotypes racistes, Powell arguait que les contrôles migratoires étaient insuffisants, et prônait le rapatriement des immigrés noirs et indo-pakistanais, menaçant, selon lui, de noyer dans leurs flots les Britanniques de souche 701. Ce discours trouva un certain écho chez les dockers londoniens qui manifestèrent pour protester contre sa démission forcée du cabinet fantôme. Face à ces attaques, une cinquantaine d'associations représentant les communautés antillaises, pakistanaises et indiennes se rassemblèrent pour former l'organisation Black Peoples' Alliance (BPA) 702 . L'idée sous-jacente était de forger une identité politique commune aux immigrés non-blancs, selon les principes du courant du Black Power outre-Atlantique. Cependant son succès auprès des Indo-Pakistanais reste à nuancer. Les dirigeants de la communauté indienne de Birmingham, par 701 « Enoch Powell's stink bomb », Peace News, 26 avril 1968, p. 4. « Enoch Powell's 'Rivers of Blood' speech », The Telegraph, 6 novembre 2007, [en ligne], [consulté le 28 août 2017], disponnible à l'adresse suivante : <http://www.telegraph.co.uk/comment/3643823/Enoch-Powells-Rivers-ofBlood-speech.html>. 702 « Immigrant general strike! », Peace News, 3 mai 1968, p. 1. « Race reactions: immigrants unite », Peace News, 3 mai 1968, p. 12. • 235 • 235 236 Claire Mansour, Diffusion et évolution des mouvements sociaux exemple, refusèrent de rejoindre la BPA, et préférèrent créer un comité de coordination fédérant exclusivement les organisations d'immigrés indiens 703. Ainsi, les groupes revendiquant l'influence du Black Power furent principalement composés d'Antillais et seulement d'une minorité d'IndoPakistanais et d'Africains, comme celui du militant nigérien Obi Egbuna, Universal Coloured People's Association (UCPA), formé à son retour des États-Unis en juin 1967. Un document interne à l'organisation recensait dix-sept membres dont les noms étaient clairement identifiables comme originaires du sous-continent indien, sur un total de 76, ce qui représentait environ 22% 704 . La volonté d'Egbuna d'adopter l'idéologie et le langage des militants noirs américains était flagrante. Les locaux de l'association étaient constellés de photos de Stokely Carmichael, tandis que son manifeste, intitulé « Black Power in Britain », était empreint de la même rhétorique facilement identifiable. Ses partisans se désignaient entre eux par les termes « brothers » and « sisters », tandis que les forces de l'ordre se voyaient invectivées par des formules désobligeantes telles que « fascist pigs ». Le cadre de diagnostic identifiait un système capitaliste de domination blanche opprimant les noirs à travers le monde, dans les colonies aussi bien qu'aux États-Unis ou au Royaume-Uni. Ainsi le Premier ministre travailliste était comparé au défenseur de la suprématie blanche à la tête de la Rhodésie du Sud : « We know that the only differences between the Ian Smiths and Harold Wilsons of the white world is not a difference in principle but only a difference in tactics »705. Les « libéraux blancs » (« white liberals ») et l'élite des communautés immigrées étaient également critiqués pour leur attentisme et leur modération. Le racisme institutionnalisé ne pouvait être aboli que par une mobilisation de masse. Le cadre de pronostic prônait donc l'émancipation (empowerment) à tous les niveaux 703 « Race reactions: immigrants unite », Peace News, 3 mai 1968, p. 12. UNIVERSAL COLOURED PEOPLE'S ASSOCIATION, « UCPA Black Power », 1967, document tiré de la collection d'archives « Black History Collection », « Universal Coloured People's Association (UCPA) », 01/04/04/01/04/01/17, Londres : Institute of Race Relations. 705 « Black Power in Britain », Peace News, 15 septembre 1967, p. 12. 704 1ère Partie - 5 : Mouvement pour l'égalité raciale de la population noire. Il s'agissait de prendre le contrôle de leur situation et non plus de dépendre de la bonne volonté de la classe politique. Mais pour y parvenir, les noirs devaient au préalable s'affranchir de la vision stéréotypée et dévalorisante d'eux-mêmes propagée par la culture dominante blanche. Un dessin publié dans un journal militant reflète parfaitement la métamorphose souhaitée par les partisans du Black Power (voir annexe 12). Il représente un homme noir divisé en deux selon un axe de symétrie vertical : à gauche, la vision conforme aux attentes de la culture dominante blanche (cheveux courts, costume, esprit obnubilé par l'appât du gain et autres valeurs individualistes liées au système capitaliste) ; et à droite, la nouvelle image redonnant un sentiment de fierté noire (coiffure afro, vêtements aux motifs d'inspiration africaine, esprit tourné vers l'entraide à la communauté noire et l'émancipation à travers l'éducation) 706. Egbuna continua à s'approprier des éléments du mouvement noir américain et fut un des membres fondateurs en 1968 des British Black Panthers ou Black Panther Movement (BPM), qui deviendrait à partir de 1971 le Black Liberation Front (BLF). Les militants britanniques empruntèrent notamment le symbole de la panthère noire et du poing noir fermé et levé ainsi que les bérets noirs caractéristiques du Black Panther Party (BPP) créé par Huey Newton et Bobby Seale à Oakland en Californie en 1966 (voir annexe 13). Le programme du BPM paru en 1971 rappelait également celui du BPP publié en 1967 (voir annexes 14 et 15) 707 . Au lieu d'être structurée en dix points, la version britannique était condensée en cinq, commençant aussi par l'anaphore « We want ». Dans les listes des revendications, l'emploi, le logement et l'éducation occupaient des places similaires. Cependant si les cadres marxistes et anti-impérialistes semblaient proches, on remarquait toutefois des différences qui témoignaient des processus d'ajustement des éléments empruntés. Le ton du texte était beaucoup moins 706 Sans titre, Grass Roots, 1, no. 4, septembre 1971, p. 12. British Library, General Reference Collection, RH.9.x.1789, Londres [consulté en juin 2017]. 707 « The ten point program and platform: What we want, what we believe », The Black Panther Newspaper, 23 novembre 1967, p. 3. • 237 • 237 238 Claire Mansour, Diffusion et évolution des mouvements sociaux vindicatif, et ses demandes plus pragmatiques. Par exemple, il n'y était pas question de plein emploi pour toute la population noire, mais de suppression des discriminations raciales à l'embauche, et des inégalités entre les travailleurs noirs et blancs. Tandis que les militants américains menaçaient de prendre les armes pour défendre leur communauté contre la brutalité policière, leurs équivalents britanniques voyaient dans le militantisme la solution adéquate au racisme gangrénant la société. Enfin, le manifeste rédigé par Newton et Seale s'appuyait sur les textes fondateurs des États-Unis pour affirmer leur légitimité en tant que citoyens, comme la Déclaration d'indépendance et la Constitution. Les panthers britanniques étant principalement issus de la vague d'immigration d'après-guerre, ils justifiaient leur droit à la citoyenneté britannique en renvoyant au passé impérial du pays et au rôle-clé qu'avait joué le système colonial dans son développement : « Black people in our different homelands, and in this country have built up Britain, therefore we have every right to be here »708. En mettant l'accent sur l'expérience coloniale commune aux différentes communautés non-blanches installées au Royaume-Uni, les militants espéraient les rassembler sous la même bannière, mais aussi contester les lois de restrictions migratoires les privant des droits afférents à leur statut de citoyen du Commonwealth. En diffusant au Royaume-Uni, l'idéologie du Black Power fut transformée par les militants qui l'adoptèrent. Ils choisirent d'en atténuer certains aspects, comme l'autodéfense, qui était le pilier principal de l'organisation américaine dont le nom complet était Black Panther Party for Self-Defense. Si les brutalités policières et les agressions racistes étaient aussi fréquentes au Royaume-Uni, la législation stricte et la culture réfractaire au port d'armes expliquaient en partie cette différence. Quelques groupes d'autodéfense furent néanmoins créés dans certains quartiers du sud de Londres ou des Midlands afin de protéger les résidents des attaques des groupuscules d'extrême droite, et parfois même des forces de police, 708 BLACK PANTHER MOVEMENT, « What we want », 1971, tract tiré de la collection d'archives « Black History Collection », « Black Panther Movement », 01/04/04/01/04/01/05, Londres : Institute of Race Relations. 1ère Partie - 5 : Mouvement pour l'égalité raciale dont le comportement était également souvent perçu comme raciste 709. D'autres facettes du mouvement furent au contraire mises en avant, comme le community organising et l'éducation – plus particulièrement l'histoire des différentes communautés et de leurs pays d'origine. Si on prend l'exemple du magazine mensuel Grass Roots, publié par le Black Liberation Front à partir de 1971, il comportait à la fois les actualités locales et nationales, mais aussi des nouvelles de la scène internationale, une colonne dédiée au mouvement des féministes noires, ainsi que des articles traitant de l'histoire et de la culture des peuples noirs. Les tenants du Black Power prirent part à de nombreux projets de community organising dans leurs quartiers. Le « Grass Roots Self-Help Community Project », lancé au printemps 1971 à Harringay, au nord de Londres, visait à instaurer des programmes d'entraide et d'autosuffisance permettant aux habitants de mettre en commun leurs ressources et compétences afin d'en faire profiter toute leur communauté. Ainsi, des étudiants en droit mirent en place un service de conseil juridique avec l'aide d'un avocat, tandis que d'autres dispensaient des cours du soir en langues. Une école complémentaire accueillant les enfants le samedi et le dimanche ouvrit ses portes quelques mois plus tard, afin de pallier les inégalités ethno-raciales constatées au sein du système éducatif britannique 710. Déjà inspirés par les actions du SNCC au sein des quartiers défavorisés et à forte proportion de populations issues de l'immigration, d'autres plans d'aide avaient vu le jour. Le Notting Hill Summer Project de l'été 1967, par exemple, avait enrôlé environ 350 militants, majoritairement étudiants, dans le but d'améliorer concrètement les conditions de vie de ses résidents. À l'origine de cette idée, les partisans de la caravane politique de la CND et son fondateur, George Clark, étaient convaincus 709 « West Indian vigilante patrols », Peace News, 20 août 1965, p. 12. BLACK PANTHER MOVEMENT, « Black People Don't Vote: Organise against exploitation and British Institutional Racism », 1970, tract tiré de la collection d'archives « Black History Collection », « Black Panther Movement », 01/04/04/01/04/01/05, Londres : Institute of Race Relations. 710 BLACK LIBERATION FRONT, « Grass Roots Self-Help Community Project », 1972, document tiré de la collection d'archives « Black History Collection », « Grass Roots », 01/04/04/01/04/01/04, Londres : Institute of Race Relations. « Headstart: Education and leisure programme », Grass Roots, 1, no. 4., septembre 1971, p. 10. • 239 • 239 240 Claire Mansour, Diffusion et évolution des mouvements sociaux qu'une profonde transformation sociale était indispensable 711. Du désarmement nucléaire unilatéral, ils orientèrent leurs efforts vers la lutte contre les inégalités. Avec l'appui du Notting Hill Social Council, créé au lendemain des émeutes de 1958, ils entreprirent de mettre sur pied un registre des logements et de leur état, afin de lutter contre le surpeuplement, l'insalubrité et les loyers exorbitants, ou encore de faire des travaux de rénovation ainsi que d'aménager une aire de jeu pour les enfants sur un terrain vague 712. Ce dernier point donna lieu l'année suivante à une série d'occupations et de manifestations dans un parc du quartier, Powis Square, pour protester contre la décision de la municipalité d'en interdire l'accès au public. Étudiants, militants de la Vietnam Solidarity Campaign et du Notting Hill Summer Project unirent leurs forces, et la municipalité fut forcée de coopérer, rachetant le terrain pour en faire un jardin public. Certains des futurs adeptes du Black Power et meneurs de la communauté antillaise, comme Michael X, participèrent à ces actions, et continuèrent à développer les pratiques de community organising dans le quartier de Notting Hill 713 . Ainsi le Black Power contribua à insuffler au mouvement pour l'égalité raciale une nouvelle direction, porté par un sens d'émancipation au moment où ses participants avaient perdu confiance dans le rôle de l'État pour améliorer leur situation. 1.5.3.2. Le combat contre le racisme étatique Après le tournant radical du Black Power de 1967 qui toucha même les associations les plus modérées, les militants se tournèrent vers le problème plus général du racisme (mais aussi du racialisme – terme renvoyant à l'idéologie servant à légitimer les croyances dans l'existence de différentes « races » 711 « Notting Hill summer », Peace News, 2 juin 1967, p. 12. « Summer project in Notting Hill », Peace News, 9 juin 1967, pp. 1, 4. 712 « Local response at Notting Hill conference », Peace News, 9 juin 1967, p. 12. « Notting Hill: help for the over-researched and under-assisted », Peace News, 11 août 1967, p. 12. « Take-over in Notting Hill », Peace News, 18 août 1967, p. 12. 713 « Kids and protestors cavort in Powis Square », Peace News, 21 juin 1968, p. 4. « Notting Hill crumbles to People's Power », Peace News, 12 juillet 1968, p. 5. 1ère Partie - 5 : Mouvement pour l'égalité raciale humaines). À leurs yeux, le racisme systémique au sein de la société britannique était considéré comme un fait établi, perceptible jusque dans les comportements parfois violents des représentants de l'autorité. De plus en plus de témoignages faisaient état de la brutalité policière et de leur harcèlement injustifié à l'encontre des communautés noires. Les forces de l'ordre pouvaient pénétrer dans les domiciles et les perquisitionner sans mandat, effectuer des descentes répétées dans les bars, restaurants, boîtes de nuits et autres lieux de socialisation fréquentés par les membres de ces communautés, mais aussi des arrestations fondées sur de fausses accusations ou des preuves fabriquées. Une fois incarcérés, les détenus étaient soumis à des traitements affligeants relevant bien souvent de la persécution physique et mentale 714. La plupart des associations de l'époque prirent part aux manifestations contre les violences policières, qu'il s'agisse de CARD, de la BPA ou du BPM. Ces actions étaient en général organisées d'abord pour protester contre un incident précis, comme l'incarcération de militants britanniques ou américains, ou les raids à répétition d'un établissement 715 . Le cas d'un restaurant très prisé par la communauté antillaise, le Mangrove dans le quartier de Notting Hill, devint une cause célèbre – symbole de la lutte contre le racisme des forces de l'ordre. Le 9 août 1970, quelques centaines de manifestants se rassemblèrent pour protester contre les incursions incessantes et injustifiées des policiers au Mangrove et plus généralement contre les mauvais traitements infligés par la police aux Antillais perçus comme l'expression d'un racisme institutionnalisé : « a demonstration which was called to protest against the white racist system's use of their police to brutalize black people 714 « Police harassment of immigrants », Peace News, 27 octobre 1967, p. 4. « CARD meets black power », Peace News, 17 novembre 1967, p. 3. 715 BLACK PANTHER MOVEMENT, « All black people and white progressives rally and demonstrate », mars 1970, tract tiré de la collection d'archives « Black History Collection », « Black Panther Movement », 01/04/04/01/04/01/05, Londres : Institute of Race Relations. BLACK PANTHER MOVEMENT, « Black people don't vote: organise against exploitation and british institutional racism », juin 1970, tract tiré de la collection d'archives « Black History Collection », « Black Panther Movement », 01/04/04/01/04/01/05, Londres : Institute of Race Relations. « Mangrove nine », Grass Roots, 1, no. 4., septembre 1971, p. 2. • 241 • 241 242 Claire Mansour, Diffusion et évolution des mouvements sociaux and to invade black people's homes, and places where black people frequent without a warrant » 716 . Une vingtaine de personnes furent arrêtées, et neuf d'entre elles furent traduites en justice pour voie de fait et incitation à la révolte. Les prévenus invoquèrent le droit à un procès équitable remontant à la loi d'Habeas Corpus (1679) en demandant un jury composé de citoyens noirs. Si cette requête leur fut refusée, le procès des Mangrove Nine aboutit néanmoins à leur relaxe en décembre 1971 717. Un autre aspect du combat contre le racisme institutionnalisé fut l'opposition aux réformes de l'immigration. Après avoir prôné pendant leur campagne la fin de l'immigration à grande échelle, les conservateurs présentèrent un projet de loi entérinant de façon permanente la distinction entre les « patrials », les citoyens du Royaume-Uni et du Commonwealth ayant une relation ancestrale avec le pays et donc le droit de s'y installer, et les « non-patrials » qui n'en n'avaient pas et se retrouvaient soumis aux restrictions migratoires. Leurs permis de travail devaient désormais être renouvelés au bout d'un an sous réserve de leur bonne conduite, décourageant ainsi tout penchant contestataire 718 . Cette politique privilégiant ouvertement les immigrés du vieux Commonwealth, connue sous le nom de « White Britain Policy », était perçue par les communautés noires comme une mise en pratique des slogans des militants d'extrêmes droite, tels que « Keep Britain White ». D'autant plus que la loi censée condamner l'incitation à la haine raciale (Race Relations Act, 1965) avait fréquemment été retournée contre les tenants du Black Power, tandis que les allusions à peine voilées des discours d'Enoch Powell étaient retranscrites dans la plupart des journaux. En 1967, Michael X et quatre membres de l'UCPA furent ainsi condamnés et 716 BLACK PANTHER MOVEMENT, « Organised action in self-defence », 27 août 1970, tract tiré de la collection d'archives « Black History Collection », « Black Panther Movement », 01/04/04/01/04/01/05, Londres : Institute of Race Relations. 717 Ambalavaner SIVANANDAN, op. cit., p. 33. Anne-Marie ANGELO, « The Black Panthers in London: 19671972: A diasporic struggles navigates the Black Atlantic », Radical History Review, 103, hiver 2009, p. 24. 718 « No second-class citizens! », Peace News, 5 mars 1971, p. 1. 243 1ère Partie - 5 : Mouvement pour l'égalité raciale emprisonnés 719. Les défenseurs noirs et blancs de l'égalité raciale entreprirent de combattre la montée du racisme et de l'extrême droite, en commençant par organiser des marches et des contre-manifestations. Les cortèges de dockers exprimant leur soutien à Enoch Powell se retrouvèrent ainsi contrebalancés par des défilés antiracistes en mai 1968 720. Ce schéma était en passe de devenir un motif récurrent du mouvement dans les années 1970. 1.5.3.3. La lutte contre le racisme de l'extrême droite Le principal parti d'extrême droite britannique, le National Front (NF), fut formé en 1967, suite à la fusion la League of Empire Loyalists (LEL), du British National Party (BNP) et de diverses branches locales de la Racial Preservation Society (RPS). Il bénéficia, quelques mois à peine après sa création, du climat d'animosité raciale attisé par le discours d'avril 1968 d'Enoch Powell 721 . L'opposition aux rassemblements du National Front prit deux formes principales. Si les organisations des communautés noires appelaient aux sit-ins et aux marches contre le racisme, les groupes de la gauche marxiste comme l'IS et l'IMG préféraient s'attaquer au fascisme en lançant des offensives bientôt connue sous le nom de « fascist bashing » 722 . À travers le pays, les militants ravivaient les traditions des luttes antifascistes des années 1930 contre les Blackshirts d'Oswald Mosley : « [] as with Mosley's meetings in the 30s, fascist meetings must be 'smashed' in the bud, their marches obstructed and routed » 723 . Le soutien pour le parti d'extrême droite continua de croître durant la décennie. En juin 1974, la mort d'un étudiant, 719 BLACK PANTHER MOVEMENT, « Solidarity meeting with Black Panthers », 1969, tract tiré de collection d'archives « Black History Collection », « Black Panther Movement 01/04/04/01/04/01/05, Londres : Institute of Race Relations. 720 « May Day Walk, May Day Talk », Peace News, 10 mai 1968, p. 12. 721 Michael HIGGS, « From the street to the state: making anti-fascism anti-racist in 1970s Britain Race & Class, 58, no. 1, 1er juillet 2016, p. 68. 722 « March against racialism », Peace News, 19 mars 1971, p. 4. « Against racism in Yorkshire Peace News, 9 septembre 1972, p. 10. 723 Ibid. • 243 • la », », », 244 Claire Mansour, Diffusion et évolution des mouvements sociaux Kevin Gately, lors d'une contre-manifestation antifasciste à Londres attisa la colère des militants de la gauche radicale. L'hémorragie cérébrale à l'origine de son décès fut, selon les témoignages, probablement causée par les coups d'un agent de la police montée, bien que l'enquête publique présidée par le juge Scarman en rejetât « la lourde responsabilité morale » (« heavy moral responsibility ») sur l'IMG 724. La mort de Gately catalysa le mouvement, plus particulièrement les groupes marxistes et étudiants, dont les nombres augmentèrent dans les mois qui suivirent. Leurs rangs ainsi gonflés, les militants obtinrent plusieurs victoires significatives. Leurs occupations des points de rassemblement du NF parvinrent à forcer la police à dévier les cortèges frontistes, voire même à annuler leurs manifestations 725. Deux ans plus tard, en juin 1976 à Southall, le meurtre d'un jeune Sikh de 18 ans, Gurdip Singh Chaggar, motivé par la haine raciale, eut un effet similaire sur la communauté indo-pakistanaise. La jeune génération née sur le sol britannique refusait de suivre l'exemple de ses parents et lança sa propre organisation, le Youth Asian Movement (YAM). Cette initiative fut rapidement reprise par les jeunes Indo-Pakistanais dans le reste du pays. Une déclaration de l'un des fondateurs de la branche de Southall soulignait le décalage entre les générations : It was the first time young people – mainly Asians with a sprinkling of African-Caribbean people from Southall – took to the streets and organised themselves as a youth movement against racial violence and police harassment [] The older generation were totally bewildered and fearful of what we were capable of. They were really frightful of what the police could do to us. [] I think the first generation were generally not very reactive. They were inclined to be unresponsive to acts of violence and discrimination or take it in their stride. They felt they were visitors in this country. 726 724 « Red Lion Square: Carrying the fight forward », Red Weekly, 27 juin 1974, p. 3. « Scarman Tribunal return verdict on Gately's death », The Glasgow University Guardian, 13 mars 1975, p. 5. 725 « National Front suffers crushing defeat », Red Weekly, 12 septembre 1974, p. 3. « Fascists thwarted in East London », Red Weekly, 12 septembre 1974, p. 3. 726 « The pool of blood that changed my life », BBC News, 5 août 2015, [en ligne], [consulté le 30 août 2017], disponible à l'adresse suivante : <http://www.bbc.com/news/magazine-33725217>. 245 1ère Partie - 5 : Mouvement pour l'égalité raciale Les membres du YAM se considéraient comme des citoyens britanniques de plein droit, et ne comptaient pas se laisser faire. De nouveaux slogans témoignant de ce changement de ton firent leur apparition : « Come what may, we are here to stay », ou encore « Racist murders must be avenged – we'll get you, racist scums »727. À partir de 1976, les militants des milieux de la gauche radicale développèrent une nouvelle stratégie qu'ils baptisèrent « désobéissance civile festive » (« festive civil disobedience »)728. Élaborée en contrepoint de l'austérité et de la sévérité caractéristiques des rassemblements du National Front, il s'agissait de donner un air de fête aux actions collectives tout en célébrant le multiculturalisme de la société britannique. Des sit-ins carnavalesques envahirent les rues, comme à Bradford le 19 juin, où quelques centaines de participants en costumes bariolés chantèrent et dansèrent dans le centre en ville 729 . L'inspiration venait principalement du carnaval de Notting Hill, créé en 1959 à l'initiative de Claudia Jones afin de célébrer la culture antillaise, de la faire découvrir aux Britanniques pour encourager les rapports cordiaux entre les deux communautés 730. D'autres carnavals antifascistes furent organisés à travers le pays les années suivantes dans le même esprit, à la fois festif et militant, que les participants de Bradford résumaient ainsi : « It's also spread the idea that you can have fun while also being serious, that one doesn't exclude the other »731. Cette dichotomie fut également placée au coeur de la campagne Rock Against Racism (RAR), qui vit le jour à l'automne 1976, suite aux propos racistes tenus par Eric Clapton lors d'un concert à Birmingham 732. Une série de festivals et de concerts de punk rock et de reggae rassemblèrent des parterres de jeunes venus écouter des groupes comme Stiff Little Fingers, les Clash « How do we fight racism », Red Weekly, 1er juillet 1976, p. 3. 728 « Mass arrests at sit-down », Peace News, 25 juin 1976, p. 3. 729 Ibid. 730 « Caribbean Carnival Bal », The West Indian Gazette, janvier 1960, p. 1. 731 « Countering fascism in Bradford », Peace News, 20 août 1976, pp. 10-11. « Carnival time », Peace News, 28 juillet 1978, p. 3. Michael HIGGS, op. cit., p. 75. 732 Le 5 août 1976, visiblement en état d'hébriété, Eric Clapton tint des propos injurieux à l'égard des noirs. Il déclara également que le Royaume-Uni devait rester un pays blanc et qu'il soutenait Enoch Powell. Dominic SANDBROOK, Seasons in the Sun, op. cit., pp. 586-7. 727 • 245 • 246 Claire Mansour, Diffusion et évolution des mouvements sociaux ou les Sex Pistols. Les plus grands évènements réunirent 80 000 personnes à Victoria Park le 30 avril 1978 et 100 000 à Brockwell Park près de Brixton en septembre de la même année 733. Trois ans plus tard, la stratégie d'organiser un festival antiraciste avait traversé l'Atlantique. RAR-USA organisa des concerts destinés à contrer la montée de l'extrême droite à Central Park 734. Quant aux contre-manifestations, elles se faisaient de plus en plus violentes et se terminaient régulièrement en échauffourées entre les frontistes, leurs opposants et les forces de l'ordre. La « bataille de Lewisham » (« the Battle of Lewisham »), nommée ainsi en référence à la « bataille de Cable Street » (« the Battle of Cable Street ») durant laquelle des contre-manifestants antifascistes avaient affronté et repoussé les troupes de la British Union of Fascists d'Oswald Mosley en 1936, entra dans les annales de l'activisme antifasciste comme une victoire contre les militants frontistes. Le 13 août 1977, un défilé du NF intitulé « anti-muggers march » était prévu dans ce quartier multiculturel du sud de Londres. À l'issue d'un rassemblement non-violent, les trois quarts des 4000 contre-manifestants convergèrent vers le point de départ du cortège des quelques centaines de partisans du NF. Après avoir réussi à les forcer à se disperser, les antifascistes subirent la charge des policiers armés de boucliers antiémeutes et de matraques. Au total, 214 personnes furent arrêtées, et plusieurs douzaines blessées. Le Socialist Workers Party, anciennement IS, fut vivement critiqué pour avoir cherché la confrontation. Selon ses membres, la nature violente du National Front justifiait en retour l'usage de la force pour le combattre 735. En novembre 1977, le SWP lança l'Anti-Nazi League (ANL) afin de faire barrage au NF en vue de l'élection de 1979. L'association reçut le soutien de nombreux députés travaillistes et de célébrités, ce qui contribua à accroître davantage encore la popularité de la 733 « Campaign against racism and fascism », Peace News, 5 mai 1978, p. 4. « The carnival is over », Peace News, 19 mai 1978, pp. 7-8. 734 « Rock Against Racism in park today », The New York Times, 5 mai 1979, p. 14. 735 « Lewisham march », Peace News, 26 août 1977, p. 3. « Lewisham », Peace News, 27 janvier 1978, p. 8. 1ère Partie - 5 : Mouvement pour l'égalité raciale campagne contre le racisme 736 . Bien que le nombre de votes pour le National Front augmentât légèrement en 1979 par rapport aux élections précédentes, aucun de ses 303 candidats ne fut élu au parlement. Cette déconfiture attestait du déclin du parti, qui à son tour engendra celui de l'ANL, privé de sa principale raison d'être. 1.5.3.4. L'égalité raciale au travail Un autre aspect-clé du mouvement pour l'égalité raciale dans les années 1970 concernait le racisme dans les lieux de travail. Le conseil général du Trades Union Congress avait, dès le début de la vague d'immigration d'après-guerre, vu d'un mauvais oeil l'arrivée des immigrants antillais et indo-pakistanais qu'il considérait comme une source de main d'oeuvre docile et à bas coût menaçant les emplois de la classe ouvrière locale 737. Les discriminations raciales à l'embauche et sur les lieux de travail étaient très répandues, et il n'était pas rare que les ouvriers blancs, les délégués syndicaux et la direction des entreprises se liguent contre les travailleurs immigrés 738. Cette connivence fut d'ailleurs à l'origine des échecs des premières actions contestataires organisées par les salariés noirs ou indo-pakistanais dans les années 1960. Le cas de la grève des ouvriers de Courtaulds à Preston, au printemps 1965, illustrait cette tendance. Environ 70% des employés de cette usine de textile étaient d'origine indo-pakistanaise, et avaient été relégués, dans leur très grande majorité, aux postes du bas de l'échelle. Ils représentaient par exemple 90% des fileurs 739. Lorsque la direction tenta de les forcer à faire fonctionner davantage de machines par ouvrier sans augmenter leurs salaires, ils se révoltèrent et interrompirent leurs activités, mais ne reçurent 736 « The Anti-Nazi League », Peace News, 14 juillet 1978, pp. 7-8. Robert MILES et Annie PHIZACKLEA, « The British Trade Union Movement and Racism » dans Peter BRAHAM, Ali RATTANSI et Richard SKELLINGTON, Racism and Antiracism: Inequalities, opportunities and policies, Londres : Sage, 1992, pp. 34-5. 738 John WRENCH, Unequal Comrades: Trade Unions, Equal Opportunity and Racism, Coventry : University of Warwick, 1986, pp. 3-4. 739 « The strike and its background », Peace News, 11 juin 1965, p. 1. 737 • 247 • 247 248 Claire Mansour, Diffusion et évolution des mouvements sociaux aucun soutien de leur syndicat, le Transport and General Workers' Union. Même s'ils représentaient presque les trois quarts de la main d'oeuvre, seul trois délégués syndicaux sur dix-neuf étaient issus des rangs de leurs communautés 740 . Un phénomène similaire se déroula quelques mois plus tard à l'usine de caoutchouc Woolf de Southall où la quasi-totalité des salariés étaient indiens. Du fait de la réticence du TGWU à reconnaître officiellement la mobilisation, les grévistes durent compter sur le soutien de leur communauté. La branche locale de l'Indian Workers Association leur procura des indemnités de grève 741 . Encore une fois, l'alliance entre syndicat et patronat eut raison de l'action des employés immigrés. La situation évolua lors de la décennie suivante. Les nombreux cas de discrimination raciale rapportés dans les médias contribuèrent à la prise de conscience de la spécificité des problèmes des travailleurs « de couleur ». Dans le même temps, les effets du courant du Black Power incitèrent également ces derniers à s'unir et à se montrer solidaires. En octobre 1972, environ 250 ouvriers et une cinquantaine d'ouvrières de l'usine de bonnèterie de Trinity Street de la Mansfield Hosiery Mills à Loughborough se mirent en grève pour demander une hausse des salaires, et l'égalité professionnelle. Quelques jours plus tard, les ouvrières de l'usine voisine de Clarence Street appartenant à la même compagnie cessèrent le travail par solidarité. L'une d'entre elles déclara alors : « The colour bar applies to us all. If our brothers are on strike, we have to give them support. They need to feel self-respect, when they are treated like dogs how can we go in, if our brothers are out » 742. Leurs propres conditions de travail firent ensuite à leur tour l'objet de nouvelles revendications. Le syndicat local se montra hostile à leurs demandes, refusant de verser des indemnités aux grévistes, qui durent s'en remettre au soutien des associations de leur communauté. Ce ne fut que par le biais d'une occupation des locaux qu'ils parvinrent à forcer le syndicat à déclarer la grève officielle, sans pour 740 Ibid. « Race issue hits Preston strike », Peace News, 11 juin 1965, p. 1. « Southall strike », Peace News, 17 décembre 1965, p. 4. « Indians in Southall strike », Peace News, 14 janvier 1966, p. 1. 742 « Women in struggle: the strike at Mansfield Hosiery », Spare Rib, 21, mars 1973, pp. 18-9. 741 1ère Partie - 5 : Mouvement pour l'égalité raciale autant qu'il n'appelle les employés blancs à rejoindre la mobilisation. Après avoir obtenu gain de cause, le comité des grévistes indiens entreprit de porter secours à leurs pairs engagés dans des conflits similaires à Mansfield et à Nottingham. Ils réussirent également à obtenir qu'une conférence sur le racisme dans le milieu syndical soit organisée à Birmingham au mois de juin 743. La même année, le TUC se prononça pour la première fois contre les restrictions migratoires à caractère raciste des lois de 1968 et 1971. Le coup d'éclat des ouvriers indo-pakistanais de la branche d'Imperial Typewriter à Leiceister en 1974 apporta de nouvelles preuves de la réticence du plus grand syndicat du Royaume-Uni, le TGWU, à soutenir leurs membres non-blancs. L'intervention du National Front qui exhorta les ouvriers à ne pas « trahir leur race », et plus généralement sa montée en puissance, poussa le TUC à agir 744. Une campagne nationale contre le racisme fut organisée en collaboration avec le Parti travailliste en 1976, afin de pousser les branches locales des syndicats à négocier avec les employeurs des accords favorisant l'égalité professionnelle. Entre 1976 et 1978, les ouvrières du laboratoire photographique de Grunwick luttèrent en faveur de l'amélioration de leurs conditions de travail sous la houlette de Jayaben Desai. Les grévistes étaient majoritairement des immigrées d'origine indienne, ayant fui l'Afrique de l'Est suite aux politiques d'africanisation. Même si la mobilisation se solda finalement par un échec, elle parvint à rallier le soutien d'une grande coalition de syndicats, de collectifs féministes et antiracistes. Des piquets rassemblant plusieurs milliers de personnes furent organisés, les postiers arrêtèrent de distribuer le courrier de l'entreprise, tandis que de nombreux fournisseurs en produits chimiques refusèrent de l'approvisionner 745. Cet épisode désormais célèbre participa à la fois au changement des mentalités dans le milieu syndical et à établir des liens entre les militants des différents mouvements. 743 Ibid. pp. 35-6. Annie PHIZACKLEA et Robert MILES, op. cit., p. 37. 745 « Grunwick », Peace News, 1er juillet 1977, p. 3. « Grunwick women », Spare Rib, août 1977, pp. 6-8, 46. 744 • 249 • 249 250 Claire Mansour, Diffusion et évolution des mouvements sociaux Antifascistes et syndicalistes organisèrent également des actions conjointes pour lutter contre le NF. Les « dimanches contre les Nazis » (« Sunday against the Nazis ») de l'été 1978 à Brick Lane, dans le quartier de Tower Hamlets à Londres, furent un exemple de collaboration réussie entre les associations des différentes communautés immigrées, les groupes antifascistes de la gauche radicale et le mouvement syndical. Afin de lutter contre les agressions racistes et la propagande des membres du National Front, les militants se rendaient tôt le dimanche matin dans ce quartier pour occuper le terrain, distribuant des tracts et empêchant les frontistes de se rassembler. Le lundi 17 juillet, environ 8000 travailleurs se mirent en grève à l'appel d'un comité du quartier de Tower Hamlet lors du Black Solidarity Day 746 . Si l'essor manifeste du NF permit d'unir temporairement ces divers courants, son déclin provoqua une diminution nette des activités antifascistes et antiracistes, participant ainsi au déclin du mouvement pour l'égalité raciale. 1.5.4. Déclin 1.5.4.1. Division du mouvement et montée du communautarisme Au sein du mouvement, les divisions entre les organisations antifascistes de la jeunesse blanche et les associations représentant les communautés issues de l'immigration du nouveau Commonwealth devenaient de plus en plus visibles. Ces derniers reprochaient à l'ANL d'être déconnectée de leurs préoccupations, de réduire le combat contre le racisme à la lutte contre le National Front au lieu de s'attaquer à ses nombreuses manifestations sociétales et institutionnelles. Le slogan phare de l'organisation, « The National Front is a Nazi Front », résumait à lui seul cette stratégie 747. Aux yeux des jeunes Britanniques noirs ou indo-pakistanais, 746 « Sunday against the Nazis », Socialist Challenge, 20 juillet 1978, p. 2. « Looking forward in Anger », Socialist Challenge, 20 juillet 1978, pp. 4-5. 747 « The Anti-Nazi League », Peace News, 14 juillet 1978, pp. 7-8. 1ère Partie - 5 : Mouvement pour l'égalité raciale la brutalité et le harcèlement des forces de police représentaient une menace bien plus constante et sérieuse que les agressions des militants d'extrême droite. La branche de Bradford du Youth Asian Movement préféra par exemple lancer sa propre campagne contre les déportations et les lois de contrôles migratoires (Campaign Against Deportations and Racist Immigration Laws). Selon ses partisans, ces réformes avaient doté les autorités de pouvoirs oppressifs empiétant sur leurs droits et libertés : The police have been given widespread arbitrary powers over the black community. They can search for so-called 'illegal immigrants', a black person can be arrested and imprisoned without trial, and can be held indefinitely without appeal and without bail. 748 La montée de la violence contribua également à pousser les différentes communautés à se replier sur elles-mêmes. En se recentrant sur leur propre protection, elles mirent à mal l'unité déjà fragile du mouvement. Cette tendance fut exacerbée par les politiques de promotion de l'égalité raciale. Le Race Relations Act (1976) continuait de consolider les mécanismes antidiscriminatoires existants et introduisait le concept de « discrimination indirecte » (« indirect discrimination ») pour lutter contre les conséquences parfois inéquitables des mesures égalitaires. S'inspirant de la notion de « discrimination positive » (« affirmative action ») utilisée pour lutter contre le racisme institutionnel aux États-Unis, il s'agissait de contraindre les autorités locales à prendre des résolutions actives pour tendre vers l'égalité raciale 749 . Avec les prémices de ces politiques multiculturelles, les différentes communautés immigrées allaient être encouragées à ne plus faire cause commune, mais à promouvoir leurs propres intérêts. L'intellectuel Ambavalander Sivanandan analysait les effets de ces réformes ainsi : [] Black unity broke down as Black ceased to be a political colour. It had been the colour of our politics not the colour of our skin, the colour of the fight, if you like, because of the common experience of racism and 748 749 « CADRIL », Peace News, 22 septembre 1978, p. 3. John SOLOMOs, op. cit., p. 88. • 251 • 251 252 Claire Mansour, Diffusion et évolution des mouvements sociaux colonialism that bound us – something unique to Britain. With the coming of multiculturalism, Black British political identity ceded to African-Caribbean and African and Asian cultural identities and separatism. Groups began to fight one another for funds on an ethnic basis; they were no longer fired by the needs of the whole community. 750 Si les politiques du gouvernement étaient sur le point d'intensifier la fragmentation du mouvement, un changement plus global du climat politique allait également contribuer à l'étouffement du militantisme. 1.5.4.2. Fermeture de la structure des opportunités politiques À l'instar des ouvriers et des étudiants, les militants défendant l'égalité raciale se heurtèrent à la répression étatique. Lors du dernier rassemblement frontiste avant l'élection de 1979, symboliquement choisi le jour de la fête de la Saint George (23 avril), toutes les factions du mouvement antifasciste et antiraciste avaient appelé à la contre-mobilisation. Dans ce quartier déjà endeuillé par le meurtre raciste du jeune Singh Chaggar, l'atmosphère était particulièrement tendue. Un sit-in fut organisé près du point de ralliement frontiste, malgré les charges répétées des policiers tentant de disperser les manifestants par la force. Lors d'une de ces offensives, un membre des forces spéciales (Special Patrol Group, SPG) asséna plusieurs coups de matraque sur le crâne d'un manifestant, Blair Peach, qui succomba dans la nuit à ses blessures. Au total, 700 personnes furent arrêtées et 342 inculpées 751 . La présence des forces spéciales se faisait plus pressante depuis le milieu de la décennie, à la fois pour réprimer les actions protestataires mais également dans les quartiers à forte population immigrée 752. Cela n'empêchait pas pour autant les crimes racistes puisque 36 personnes 750 Kwesi OWUSU, « The Struggle for a radical Black political culture: an interview with A. Sivanandan », Race & Class, 58, no. 1, 1er juillet 2016, p. 12. 751 « Southall 23 April: Blair Peach was murdered by police », Socialist Challenge, 26 avril 1979, p. 1. « The day they turned Southall into a colony », Socialist Challenge, 26 avril 1979, pp. 2-3. Michael HIGGS, op. cit., p. 77. 752 « Law and order: the truncheon under Labour », Socialist Challenge, 1er mai 1979, p. 5. 1ère Partie - 5 : Mouvement pour l'égalité raciale trouvèrent la mort en raison de leur couleur de peau entre 1976 et 1981 753. Pour comprendre le déclin du mouvement, il est nécessaire de se projeter quelques temps après l'arrivée au pouvoir de Margaret Thatcher afin d'examiner les nouvelles approches mises en place par son gouvernement. Son élection en mai 1979 à l'issue d'une campagne prônant le retour à l'ordre public et l'augmentation du budget et des pouvoirs des forces de police continua d'aggraver les tensions communautaires. En avril 1981, l'opération de police Swamp 81 dans le quartier de Brixton visant à réduire la criminalité entraîna interpellations, fouilles et arrestations de nombreux résidents. Le 10 du même mois, le quartier explosa lorsqu'un policier embarqua un jeune noir blessé. Pensant qu'il allait être interrogé plutôt que secouru, d'autres jeunes s'insurgèrent et la situation dégénéra en émeute à mesure que la rumeur se propageait. En juillet, des violences similaires se déroulèrent à Southall avant de s'étendre à une trentaine de villes 754. Bien que les autorités aient tenté de présenter ces émeutes comme une éruption de violence irrationnelle causée par de jeunes délinquants noirs, elles témoignaient pourtant de la misère sociale et du racisme institutionnel dont étaient victimes les habitants de ces quartiers. La perception que la classe politique était plus hostile que jamais à leurs revendications avait favorisé ce déchaînement de colère. En effet, peu avant son élection, Thatcher avait récupéré des éléments de l'idéologie du National Front, et plus généralement adopté une ligne nationaliste clairement opposée à l'immigration non-blanche. En janvier 1978, elle déclara dans un discours rappelant celui d'Enoch Powell dix ans plutôt : If we went on as we are then by the end of the century there would be four million people of the new Commonwealth of Pakistan here. Now, that is an awful lot and I think it means that people are really rather afraid that this country might be rather swamped by people with a different 753 Vincent LATOUR, « Between Consensus, Consolidation and Crisis: Immigration and integration in 1970s Britain », Revue Française de Civilisation Britannique, 21, no.3, 2016, p. 149. 754 « Brixton's outside agitators », Socialist Challenge, 16 avril 1981, p. 1. « An army of occupation », Socialist Challenge, 16 avril 1981, pp. 2-3. Ambalavaner SIVANANDAN, op. cit., pp. 48-9. • 253 • 253 254 Claire Mansour, Diffusion et évolution des mouvements sociaux culture and, you know, the British character has done so much for democracy, for law and done so much throughout the world that if there is any fear that it might be swamped people are going to react and be hostile to those coming in. 755 Présentant les immigrés du nouveau Commonwealth comme culturellement trop différents pour être assimilés, et pire encore, comme une menace pour l'identité britannique, ces paroles laissaient présager aux différentes communautés noires qu'elles n'auraient rien à attendre du gouvernement conservateur. Ce changement de posture fut également responsable de la débâcle électorale du NF aux élections de 1979. 1.5.4.3. Conclusion et impact du mouvement Même s'il fut fortement influencé par des processus de diffusion, le mouvement pour l'égalité raciale au Royaume-Uni n'en fut pas moins unique. Il traversa toute la période des longues années soixante, de ses débuts modérés pour dénoncer la colour bar jusqu'aux concerts de Rock Against Racism réunissant une centaine de milliers de personnes contre le racisme du National Front. Grâce aux liens privilégiés entre les différentes populations de « l'Atlantique noir », l'idéologie et les techniques de contestation promouvant l'égalité raciale diffusèrent entre l'Afrique, les Antilles, les États-Unis et le Royaume-Uni. Plus que tout autre, l'influence du mouvement des noirs américains se révéla capitale et permit de faire évoluer la mobilisation en mouvement de masse. En empruntant aux autres mouvements pour l'égalité des noirs, les militants comparaient le racisme imprégnant la société britannique à l'apartheid en Rhodésie, en Afrique du Sud ou encore à la ségrégation raciale dans le Deep South. Cette propagande se révéla très efficace pour briser l'image du Royaume-Uni traitant ses sujets du nouveau Commonwealth avec un paternalisme bienveillant. 755 Stéphane PORION, « La question de l'immigration au Royaume-Uni dans les années 1970 : le Parti conservateur, l'extrême droite et l''effet Powell' », Revue Française de Civilisation Britannique, 21, no. 3, 2016, p. 170. 255 1ère Partie - 5 : Mouvement pour l'égalité raciale L'alliance politique forgée par les membres issus de ces différentes communautés donna une nouvelle dimension inclusive à l'idéologie du Black Power. La réaction d'une certaine frange de la population face à l'arrivée des immigrants « de couleur » et à la leurs revendications égalitaires engendra la montée du racisme et de l'extrême droite, qui permirent à leur tour la fusion du mouvement antifasciste de la gauche radicale avec la mobilisation des militants immigrés. Quant au mouvement syndical, il fut d'abord un opposant farouche de l'égalité raciale, avant d'évoluer grâce aux efforts des communautés d'immigrés et de consentir à participer à la promotion de leurs intérêts. Enfin, la violence et la répression croissantes à l'encontre des populations non-blanches et de l'action collective en général étouffèrent la mobilisation, favorisant ainsi la montée du communautarisme. Dans le même temps, la perception de l'antagonisme de la classe politique, et plus particulièrement du gouvernement Thatcher, qui allait demeurer au pouvoir pendant toute la décennie suivante, contribua à l'effondrement du mouvement. Les actions collectives à l'échelle locale perdurèrent néanmoins, mais en adoptant une stratégie communautariste. Le mouvement pour l'égalité raciale compta parmi ses rangs de nombreuses femmes, qui furent sensibilisées au militantisme en se mobilisant pour leurs communautés, notamment en faveur de l'égalité au travail. Victimes du sexisme endémique des organisations de leur mouvement dominées par des hommes, elles ne purent pas non plus se tourner vers le mouvement féministe, dont il sera question au chapitre suivant. Du fait de sa composition très majoritairement blanche, le mouvement féministe fut bien souvent amené à négliger les problématiques particulières rencontrées par les Antillaises, les Africaines et les Indo-Pakistanaises. Celles-ci éprouvèrent alors le besoin de créer leurs propres associations afin de porter leurs revendications. Leur mobilisation se trouva donc à la croisée des mouvements pour l'égalité raciale et pour l'égalité des sexes. La première conférence nationale des femmes noires (National Black • 255 • 256 Claire Mansour, Diffusion et évolution des mouvements sociaux Women's Conference) fut lancée à l'initiative de l'Organisation of Women of Asian and African Descent (OWAAD) en mars 1979 à Brixton 756 . Le choix de l'adjectif « Black » renvoyant à l'alliance politique des membres des différentes communautés issues de l'immigration coloniale, témoignait de la filiation avec l'idéologie du Black Power. Cependant elles n'en nièrent pas pour autant la différence culturelle entre les problématiques qui les rassemblaient, d'autant plus qu'elles se définissaient d'abord selon leur identité ethnique plutôt que selon celle de leur genre. Au sein du cycle de contestation des longues années soixante, le mouvement pour l'égalité raciale influença fortement les mouvements de la deuxième génération. Son répertoire et ses cadres allaient contribuer à former le socle des mouvements féministe et gay, mais aussi inspirer les mouvements nationalistes et écologistes. 756 ORGANISATION OF WOMEN OF ASIAN AND AFRICAN DESCENT, « First National Black Women's Conference », 1979, tract tiré de la collection d'archives « Black History Collection », « OWAAD, Organisation of Women of Asian and African Descent », 01/04/04/01/04/02/27, Londres : Institute of Race Relations. 1ère Partie - 5 : Mouvement pour l'égalité raciale Conclusion Les mouvements de la première génération du cycle de contestation des longues années soixante s'engouffrèrent dans la brèche ouverte par le mouvement précurseur dans la structure des opportunités politiques. En donnant l'impression qu'il avait obtenu gain de cause, le mouvement pour le désarmement nucléaire déclencha la dynamique protestataire, avant de céder la place au mouvement contre la guerre du Vietnam, franchissant un cran supplémentaire dans l'escalade de la contestation. Ce conflit acquit une dimension symbolique universelle en incarnant, aux yeux des protestataires, le combat de libération des opprimés du joug de leurs oppresseurs. La résistance des insurgés vietnamiens prouvait qu'il était possible d'inverser un rapport de force pourtant déséquilibré entre la superpuissance américaine et l'armée rebelle d'un pays du tiers-monde. Les autres groupes de militants étudiants, ouvriers et antiracistes s'étaient mis à leur tour à faire valoir leurs propres revendications, de manière de plus en plus radicale, à mesure que la dynamique protestataire s'amplifiait grâce aux processus de diffusion. Les cadres et les techniques employés par cette première génération de mouvement allaient consécutivement permettre à de nouveaux groupes de rejoindre la lutte en se mobilisant désormais pour leur propre compte. • 257 • 257 258 Claire Mansour, Diffusion et évolution des mouvements sociaux 2. LES MOUVEMENTS DE DEUXIEME GENERATION 2ème Partie - 1 : Mouvement féministe Introduction Cette deuxième partie sera consacrée à l'analyse des mouvements de deuxième génération. Il s'agit des mouvements qui ont bénéficié de la dynamique protestataire créée par les mouvements de la génération précédente au sein du cycle ainsi que de leurs acquis. Le sociologue Doug McAdam utilise le terme de « spin-off movements », généralement traduit en français par « mouvements suivistes » 757 . Si cette terminologie a le mérite de souligner le fait que ces mobilisations tirent leur impulsion, leurs cadres et leurs répertoires des mouvements initiateurs, ses connotations suggèrent une certaine passivité, un mimétisme aveugle et même un certain opportunisme. Pour cette raison, le terme de « mouvements de deuxième génération » lui sera préféré, afin d'insister sur la filiation entre les différents mouvements sans pour autant sous-estimer les activités de construction de sens inhérentes à la diffusion. Les acteurs de ces mobilisations étaient en quelque sorte les « oubliés » de la première génération de mouvements. Leur participation aux actions collectives de cette première vague leur fit souvent prendre conscience des limites de leur condition, les poussant ainsi à s'engager en leur nom propre, pour améliorer leur sort. Les mouvements féministes, gay et lesbien ont incubé au sein des mouvements contre la guerre du Vietnam, étudiant, ouvrier et pour l'égalité raciale. Dans une moindre mesure, cela est également vrai du mouvement pour les droits civiques en Irlande du Nord, des mouvements nationalistes gallois et écossais ainsi que du mouvement écologiste. Mêmes si leurs revendications n'étaient pas nouvelles, elles prirent un tour différent lors des longues années soixante, sous l'influence des mouvements de la première génération du cycle. 757 Doug MCADAM, « 'Initiator' and 'Spin off' Movements », op. cit., pp. 217-239. Lilian MATHIEU, « La constitution du mouvement altermondialiste français », Critique Internationale, 2, no. 27, 2005, p. 148. 259 260 Claire Mansour, Diffusion et évolution des mouvements sociaux 2.1. LE MOUVEMENT FEMINISTE Le féminisme, que l'on pourrait définir de manière générale comme renvoyant à la fois à l'idéologie et au mouvement social prônant l'égalité entre les hommes et les femmes, fut d'abord employé en français au XIXe siècle pour désigner l'émancipation féminine 758. Une version anglicisée, « feminism », traversa ensuite la Manche et l'Atlantique dans les années 1890, au moment des campagnes pour le droit de vote des femmes. Cette période de militantisme, s'étalant sur plus d'un siècle et s'achevant dans les années 1920, est généralement considérée comme la première vague de féminisme, même si cette expression ne doit pas occulter l'existence de telles revendications bien avant le XIXe siècle 759. L'objet de ce chapitre est donc la deuxième vague de féminisme, c'est-à-dire la période d'agitation intense autour d'un certain nombre de demandes diverses visant à obtenir l'égalité entre les sexes, lors des longues années soixante. Quant au terme de « libération des femmes » (« Women's Liberation »), il s'agit d'une expression créée par les militantes, qui délaissèrent temporairement l'appellation « feminism » dont elles souhaitaient se démarquer, afin de mettre l'accent sur l'aspect révolutionnaire de leur mobilisation. Elles rejetaient l'association avec la génération précédente de féministes, à qui elles reprochaient de ne pas avoir remis en question les conceptions traditionnelles de la féminité et du rôle des femmes au sein de la société 760 . Cette appellation sera donc utilisée ici pour renvoyer à la phase plus militante du mouvement entre 1969 et 1979. Le lien traditionnel entre pacifisme et féminisme joua le rôle de chaînon manquant entre la première et la deuxième vague de féminisme, mobilisant de 758 Karen OFFEN, « Feminism », dans Peter N. STEARNS (éd), Encyclopedia of Social History, New York : Garland, 1994, pp. 356-57. 759 Ibid. 760 Barbara CAINE, English Feminism: 1780-1980, Oxford: Oxford University Press, 1997, pp. 235-6, 264. 2ème Partie - 1 : Mouvement féministe nombreuses femmes en opposition aux deux conflits mondiaux, puis en faveur du désarmement nucléaire. La résurgence du mouvement féministe lors des longues années soixante résulta ensuite principalement d'une conjonction de facteurs environnementaux, de processus de diffusion des mouvements le précédant et de son équivalent américain. L'analyse de ce mouvement se fondera principalement sur les productions de ses participantes. Comme cela sera démontré au cours de ce chapitre, des groupes de féministes décidèrent de créer leurs propres organes en réaction au sexisme prévalent dans les comités de rédaction et les colonnes des publications de la presse traditionnelle mais aussi de la gauche radicale comme du milieu contre-culturel. Spare Rib fut ainsi fondé en 1972, se voulant un nouveau genre de magazine féminin alternatif plutôt grand public. Le bulletin des féministes londoniennes du Women's Liberation Workshop, baptisé Shrew, représentera un point de vue beaucoup plus militant. Élaboré à tour de rôle par les différents collectifs de l'organisation, il reflétait la diversité des préoccupations et des opinions au sein du mouvement. Le bi-mensuel Socialist Woman, rédigé par les groupes du même nom affiliés à l'IMG, incarnera le courant du féminisme socialiste. Le magazine Peace News publia également des articles défendant la cause des femmes avant que la deuxième vague de féminisme ne prenne réellement son essor, il permettra donc de se pencher sur ses prémices. 2.1.1. Émergence : facteurs environnementaux internationaux et locaux 2.1.1.1. L'impact de la Seconde Guerre mondiale : un nombre croissant de femmes sur le marché du travail Lors de la Première et de la Seconde Guerres mondiales, la participation des femmes à l'effort de guerre contribua à remettre en question leur place au sein de la société. Ces conflits leur permirent de prouver qu'elles étaient capables de remplacer les hommes partis combattre, voire même, pour certaines d'entre 261 262 Claire Mansour, Diffusion et évolution des mouvements sociaux elles, de les soutenir sur le front en s'engageant volontairement dans les forces armées lors de la guerre de 1939-45 761. Cette expérience leur ouvrit les portes des syndicats, pourtant majoritairement réfractaires au travail des femmes. Entre 1938 et 1946, le nombre de femmes membres d'un syndicat affilié au TUC fut plus que doublé, passant de 553 000 à 1 215 000 762. Le Royaume-Uni avait été le seul pays à instituer la conscription des femmes célibataires ou sans enfant à charge. Toutes les femmes de 18 à 60 ans furent répertoriées, avant d'être réquisitionnées, en commençant d'abord par les plus jeunes. Les femmes mariées, ou avec de jeunes enfants, étaient théoriquement exemptées, mais choisirent dans leur très grande majorité de participer à l'effort de guerre. Cependant, une fois la victoire obtenue, elles furent incitées à retourner à leurs rôles de mères et d'épouses, et à reprendre leurs fonctions domestiques. L'historienne Barbara Caine insiste sur le fait que le travail des femmes en temps de guerre était considéré comme une situation exceptionnelle, et que leur statut était toujours perçu comme inférieur à celui des hommes occupant les mêmes postes, puisqu'elles étaient, entre autres, moins bien rémunérées et davantage supervisées 763. De plus, le conflit mondial ayant engendré une baisse de la natalité et une très forte hausse de la mortalité, les autorités se mirent à célébrer les valeurs de la famille traditionnelle afin d'inverser les tendances. Certains spécialistes ont même démontré que cette vision familialiste marquait un retour en arrière par rapport à la situation des femmes avant la guerre, et les cantonnait 761 Le nombre de femmes ayant rejoint volontairement les rangs des forces armées est estimé à plus de 640 000. Elles intégrèrent principalement le Women's Royal Naval Service, la Women's Auxiliary Air Force et le Auxiliary Territorial Service. La future reine Elizabeth servit d'ailleurs au sein de cette branche en tant que conductrice et mécanicienne. MINISTRY OF DEFENCE AND PRIME MINISTER'S OFFICE, « The Women of the Second World War », GOV.UK, 16 avril 2015 [en ligne], [consulté le 1er novembre 2017], disponible à l'adresse suivante : <https://www.gov.uk/government/news/thewomen-of-the-second-world-war>. 762 Leonora LLOYD, Women Workers in Britain: A Handbook, Londres : Socialist Women Publications, 1971. 763 Barbara CAINE, op. cit., pp. 227-9. 263 2ème Partie - 1 : Mouvement féministe encore davantage à leur foyer 764 . En effet, si l'on compare la proportion de femmes dans la population active avant et après la Seconde Guerre mondiale, on ne constate qu'une augmentation infime : de 34,2% en 1931 à 34,7% en 1951 selon les chiffres officiels 765. Un changement notable était néanmoins à l'oeuvre : l'abandon progressif de l'interdiction tacite du travail des femmes mariées (marriage bar). Ces dernières étaient de plus en plus nombreuses à travailler en plus de leurs obligations domestiques, et la tendance allait s'accentuer dans les décennies suivantes. En 1951, une femme mariée sur cinq était employée à temps plein ou partiel. En 1961, c'était le cas d'une femme sur trois, et d'une sur deux en 1971 766. Cette évolution eut des répercussions importantes sur la perception du rôle des femmes au sein de leurs familles et plus généralement de la société. Avoir un emploi leur permettait d'obtenir un certain degré d'indépendance économique vis-à-vis de leurs maris, et leur donnait de nouvelles responsabilités hors de la sphère familiale. Une fois sur le marché du travail, leur place restait toujours inférieure à celles des hommes. L'écart de salaire horaire était en moyenne de 40% pour des employés occupant le même poste en 1970 767 , sauf dans l'éducation et l'administration, où l'égalité salariale avait été instaurée respectivement en 1944 et 1954. Leurs perspectives de carrière étaient également bien plus limitées que celles de leurs équivalents masculins, se voyant fréquemment refuser la promotion à des postes plus qualifiés. Par exemple, jusqu'en 1973, les contrôleuses des bus de Londres ne pouvaient pas postuler pour devenir 764 Ibid. David BOUCHIER, The Feminist Challenge, op. cit., pp. 3, 29. Marilyn LAKE, « Female Desires: The Meaning of World War Two », Australian Historical Studies, 24, 1990, pp. 267-84. Denise RILEY, « Some Peculiarities of Social Policies Concerning Women in Wartime and Postwar Britain », dans Margaret RANDOLPH HIGGONET et al. (éds), Behind the Lines: Gender and the Two World Wars, New Haven: Yale University Press, 1987, p. 261. 765 OFFICE FOR NATIONAL STATISTICS, « Annual Percentage of Employed Women in the UK », GOV.UK, 31 mai 2017 [en ligne], [consulté le 1er novembre 2017], disponible à l'adresse suivante : <https://cy.ons.gov.uk/aboutus/transparencyandgovernance/freedomofinformationfoi/annualpercentag eofemployedwomenintheuk>. 766 Dominic SANDBROOK, White Heat, op. cit., p. 693. 767 Leonora LLOYD, op. cit., p. 17. 264 Claire Mansour, Diffusion et évolution des mouvements sociaux conductrices. Ce décalage engendra une frustration croissante chez les employées s'offusquant de se voir ainsi contraintes, sous prétexte que conduire un bus était un « métier d'homme ». L'une d'entre elles expliquait que les femmes avaient fait leurs preuves pendant la guerre, et que ce genre de discours n'était plus acceptable : [] the country absolutely relied on the women in the war – the jobs they were doing, the heavy work they were doing. This is why I smile, now, when they say women couldn't do this job and couldn't do that job. I've seen the jobs women have done, lagging sandbags around and all sorts of things, driving heavy trucks. Some of the younger men don't even realise they did it.768 La division du travail selon les sexes était ainsi remise en question, à la fois dans le domaine de l'emploi, mais aussi dans la sphère familiale. De plus en plus de femmes au foyer ne se satisfaisaient plus de leur vie domestique, qu'elles trouvaient ennuyeuse et peu gratifiante. La journaliste Betty Jerman du quotidien The Guardian exprima leur malaise dans les colonnes du journal en 1960 en ces termes : Surburbia is an incredibly dull place to live in and I blame the women. They stay here all day. They set the tone. Many of them look back with regret to the days when they worked in an office. Their work kept them alert. Home and childminding can have a blunting effect on a woman's mind. But only she can sharpen it.769 Ces mots trouvèrent un écho chez les lectrices, qui y répondirent par de nombreuses lettres témoignant d'un sentiment de désespoir. Pour y remédier, elles formèrent de petits groupes dans leurs régions et commencèrent à se réunir régulièrement. Ces réseaux furent ensuite répertoriés dans le National Housewives' Register en 1962 afin d'aider ces femmes à rompre leur isolement. Cette condition fut également au centre de l'ouvrage The Feminine Mystique (1963), de l'Américaine 768 « Upstairs and downstairs 100 times a day », Spare Rib, 22, avril 1974, pp. 9-11. « Whatever happened to the housewife? », The Guardian, 28 février 2000 [en ligne], [consulté le novembre 2017], disponible à l'adresse suivante : 1er <https://www.theguardian.com/world/2000/feb/28/gender.uk>. 769 2ème Partie - 1 : Mouvement féministe Betty Friedan, qui se vendit à plus de deux millions d'exemplaires aux États-Unis et au Royaume-Uni au cours de la décennie. Sa publication eut pour effet de porter à l'attention du grand public ce qu'elle baptisa « le problème qui n'a pas de nom » (« the problem that has no name ») 770. Si les corvées domestiques étaient un lourd fardeau pour celles qui n'avaient pas d'activité professionnelle, celles qui devaient s'en acquitter en dehors de leurs horaires de travail avaient la tâche encore plus dure, et ce malgré les nouveaux appareils électroménagers censés les libérer de ces obligations. Elles ne tardèrent pas à faire part à leur tour de leur désarroi, qui serait formulé au tournant de la décennie suivante comme une « double oppression » : « in jobs we we do full work for half pay, in the home we do unpaid work full time » 771 . Cette idée deviendrait un thème récurrent du mouvement féministe, poussant même une faction radicale regroupée sous l'égide du Wages for Housework Committee à faire campagne pour l'obtention d'un salaire pour les tâches domestiques 772. L'accès au marché du travail permit donc à un grand nombre de femmes de gagner en indépendance et en confiance, une tendance également renforcée par une plus grande maîtrise de leurs corps. 2.1.1.2. Libéralisation des moeurs À la fois célébrées et critiquées pour cette même raison, les longues années soixante furent caractérisées par un vent de liberté ou de permissivité, selon les points de vue. Les tabous entourant jusque-là la sexualité et ses représentations se dissipèrent peu à peu. En 1960, le roman de D.H. Lawrence Lady Chatterley's Lover fut publié pour la première fois au Royaume-Uni, trente ans après la mort de son auteur. Du fait de ses descriptions d'actes sexuels au langage explicite, sa parution y était jusqu'alors interdite. La « révolution sexuelle » 770 Betty FRIEDAN, The Feminine Mystique, New York : Dell, 1973, p. 11. « Manifesto of the London Women's Liberation Workshop », The Black Dwarf, 5 septembre 1970, p. 14. 772 « Wages for Housework », Peace News, 25 juin 1976, p. 16. 771 265 266 Claire Mansour, Diffusion et évolution des mouvements sociaux (« Sexual Revolution ») 773 était en marche, et allait s'étendre à tous les domaines artistiques et culturels, avec par exemple, l'abolition de la censure théâtrale en 1968. L'évolution des paroles des chansons des Beatles reflétaient également cette tendance. Tandis qu'ils chantaient pudiquement en 1963 « I want to hold your hand », cinq ans plus tard, la voix rauque de Paul McCartney répétait lascivement « Why don't we do it in the road »774. La mode de la minijupe, dessinée par la styliste Mary Quant et largement commercialisée à partir de 1965, devint un emblème de la libération des corps et de l'attitude provocante et rebelle de la nouvelle génération. Mais elle reflétait aussi le paradoxe au coeur de cette émancipation des femmes, tiraillées entre le désir de s'affranchir des hommes et celui de leur plaire. Cinq ans plus tard, le lancement de la maxijupe suscita au contraire un tollé chez la gent masculine, conduisant une étudiante de la LSE rédigeant la rubrique mode de Beaver à conseiller à ses consoeurs de continuer à découvrir leurs jambes en dépit de la nouvelle tendance vestimentaire : Minis are going to stay in fashion if they can help it say the men. I am sure we will receive grave protest from the men if the Midis and Maxis continue to battle amidst such objection and criticisms. So if we wish to please our men-folk we might be wise to abide by their wishes. 775 Plus encore que l'impératif de correspondre à la définition de la féminité émanant des fantasmes masculins, cette « libération » des corps féminins eut pour corolaire leur réification en tant qu'objets sexuels. Leur exploitation dans de nombreux domaines reflétait également ce phénomène, plus particulièrement dans les médias et les publicités, au grand dam des féministes. 773 L'expression provient des travaux du psychiatre et psychanalyste autrichien Wilhelm Reich. Son ouvrage The Sexual Revolution publié en 1936, prône l'abolition des restrictions de la sexualité participant à la préservation du système capitaliste à travers la monogamie et la famille nucléaire selon un prisme d'analyse marxiste. Il est souvent décrit comme l'un des maîtres à penser de la contreculture britannique. Howard L. MALCHOW, op. cit., p. 213. 774 THE BEATLES, « I want to hold your hand », Meet the Beatles!, Londres : EMI Studio, 1963. THE BEATLES, « Why don't we do it in the road », The Beatles, Londres : Apple Records, 1968. 775 « Maxi or Midi for her », The Beaver, 29 octobre 1970, p. 5. 2ème Partie - 1 : Mouvement féministe La libération des moeurs se traduisit aussi par une transformation de la vision du mariage, rendant peu à peu la législation existante sur le divorce obsolète. En 1969, le Divorce Reform Act facilita les procédures de séparation. Jusqu'alors, il était nécessaire de prouver la culpabilité de l'un des époux, endossant ainsi la responsabilité de l'échec de l'union. La nouvelle loi ne requérait plus de trouver un fautif, et acceptait l'altération définitive du lien conjugal comme un motif suffisant 776 . L'année suivante, une nouvelle mesure reconnaissait la contribution immatérielle des femmes au sein du ménage et modifiait le principe du partage des biens de manière plus équitable. Une autre réforme emblématique de l'époque fut l'introduction de la contraception orale. En 1961, le ministre de la Santé Enoch Powell autorisa la prescription de la pilule contraceptive aux femmes mariées, et en 1967 une mesure d'initiative parlementaire permit aux autorités locales de santé (Local Health Authorities) de la délivrer à toutes les femmes sans restriction et de les informer sur les différentes méthodes contraceptives. La même année, une nouvelle loi d'initiative parlementaire (Abortion Act) légalisa l'avortement pour les femmes dont la santé physique ou mentale était menacée par leur grossesse, ainsi qu'en cas de malformation du foetus. Ces réformes donnèrent aux femmes plus de contrôle sur leurs propres corps, en leur permettant de prendre en charge leur contraception, mais aussi d'éviter l'opprobre jeté sur les mères d'enfants considérés comme illégitimes. Selon les témoignages de l'époque, elles induisirent un sentiment de confiance et d'indépendance accru chez la nouvelle génération de femmes. Dans un article où elles dénonçaient le sexisme dans les médias traditionnels, les membres du comité de rédaction de la publication féministe Spare Rib se décrivaient en ces termes : « The ladies who produce Spare Rib are young and self-assured. They have the confidence of the pill generation. They know what they want and they're out to get it »777. 776 777 Dominic SANDBROOK, White Heat, op. cit., p.697. « Spare Rib takes on the media », Spare Rib, novembre 1974, p. 28. 267 268 Claire Mansour, Diffusion et évolution des mouvements sociaux Ces changements firent aussi évoluer le rapport à la sexualité. Si les Britanniques ne devinrent pas tous pour autant adeptes de « l'amour libre » (« free love »), comme le prônaient les disciples de la contre-culture, les rapports sexuels hors mariage se banalisaient, et devenaient de moins en moins moralement et socialement répréhensibles. La perspective d'une grossesse non désirée se faisant plus lointaine, une plus grande disponibilité sexuelle fut requise des femmes. Comme le dénoncèrent les féministes pendant la décennie suivante, la « révolution sexuelle » profita avant tout aux hommes. Ainsi, un article du journal contre-culturel The International Times interpellait directement les femmes et leur enjoignait de ne pas refuser les avances des hommes : « WOMEN : learn to give yourselves a bit more (with adequate contraception). Even if you don't enjoy it at first, why not give pleasure to others? » 778. Ce phénomène n'était pas limité aux milieux alternatifs londoniens, et se propageait de plus en plus au reste de la société 779. 2.1.1.3. Influence des travaux de psychologie sur la condition des femmes Les travaux de recherches en psychologie au cours du XXe siècle influencèrent fortement la conception de la féminité dans la culture dominante et du rôle des femmes au sein du couple, de la famille et de la société. Tout d'abord, l'exaltation des valeurs de la famille traditionnelle après la Seconde Guerre mondiale s'appuyait sur les conclusions de spécialistes du domaine en pleine expansion de la psychologie de l'enfant. Les recherches du psychiatre et psychanalyste britannique John Bowlby sur des enfants séparés de leurs parents pendant la guerre le conduisirent à développer sa théorie de la « privation maternelle » (« maternal deprivation »). Dans son ouvrage Childcare and the Growth of Love (1953), il affirmait que l'amour, l'attention et les soins maternels constants 778 « Sexual Revolution », The International Times, 14 février 1969, pp. 12-13. Dominic SANDBROOK, White Heat, op. cit., p. 702. David BOUCHIER, The Feminist Challenge, op. cit., p. 27. 779 269 2ème Partie - 1 : Mouvement féministe étaient nécessaires à leur développement mental et émotionnel. Leur absence laissaient au contraire des séquelles irréversibles pouvant favoriser l'arriération mentale ou affective, la délinquance ou encore les troubles névrotiques. D'autres spécialistes, comme le Britannique Donald Woods Winnicott, également psychiatre et psychanalyste, abondaient dans le même sens 780 . Les recommandations tirées de leurs travaux furent largement relayées par les médias de l'époque, préconisant, pour le bien de la société, que les femmes se consacrent pleinement à leur fonction maternelle. Ainsi, les mères travaillant à l'extérieur du domicile familial étaient fréquemment culpabilisées de délaisser leurs enfants, voire même jugées responsables de la montée de la délinquance juvénile 781. Les conceptions héritées des travaux de Sigmund Freud sur la féminité et la sexualité féminine, reprises par ses nombreux disciples, influencèrent également la condition des femmes dans la société. Les féministes leur reprochèrent d'entretenir les clichés réducteurs tels que celui de la passivité des femmes, et de participer à l'idéologie dominante les maintenant dans un statut subalterne. La psychanalyste britannique Juliet Mitchell les résumait en quelques termes cinglant dans un article pour la publication féministe Shrew en 1971 : We are rightly scoffing at the stereotypes that Freud instigated and that have pursued us ever since: the penis-envying career woman, the frigid frustrated wife; women, the castrated ones. Incomplete, ever-envious, excluded from the mainstream of cultural development hence emotional, irrational, structurally unable to sublimate our needs, we demand constant gratification, by tears and pleas, by sulks and winning ways. 782 Si Mitchell fustigeait les stéréotypes véhiculés par le freudisme, elle reconnaissait cependant sans détour l'intérêt des recherches du psychanalyste autrichien et son rôle en tant que fondateur d'une nouvelle discipline scientifique. D'autres universitaires avaient pris conscience de ce problème. La psychologue américaine 780 Barbara CAINE, op. cit., p. 242. Dominic SANDBROOK, White Heat, op. cit., p. 694. 782 « Why Freud », Shrew, 22 décembre 1970, p. 22. 781 270 Claire Mansour, Diffusion et évolution des mouvements sociaux Eleanor Maccoby se tourna vers l'étude des différences entre les sexes après avoir constaté le parti pris des publications académiques sur le sujet. Les études dont les résultats n'étayaient pas l'existence de différences fondamentales entre les sexes n'étaient pas, ou trop rarement, publiées. Elle entreprit alors d'y remédier en rédigeant un état de la recherche intitulé The Development of Sex Differences (1966) prenant en compte ces nombreux écrits non publiés. L'ouvrage fut accueilli avec enthousiasme par les membres du mouvement féministe naissant aux États-Unis, comme le montre cet article reproduit dans les colonnes de Peace News : Until psychologists realise that it is they who are limiting the discovery of human potential, by their refusal to accept evidence, if they are clinical psychologists, or if they are rigorous, by the assumption that people move in a context-free ether, with only their innate dispositions and their individual traits determining what they will do, then psychology will have nothing of substance to offer in this task.783 Cette prise de conscience convainquit les futures féministes de la nécessité d'une part, de se pencher sur ces questions pour corriger les préjugés, créant ainsi le champ des études de genre dans la décennie suivante, et d'autre part, de créer leur propres cercles de développement personnel afin d'éviter d'être confrontée à un thérapeute pouvant perpétuer ces visions biaisées. 2.1.2. Influence des mouvements précédents et phase modérée : 1962-69 2.1.2.1. Le mouvement pour le désarmement nucléaire Le mouvement pour le désarmement nucléaire suscita un fort engouement auprès des femmes et joua un rôle-clé dans la genèse de la deuxième vague de féminisme. Le lien entre pacifisme et féminisme en Grande-Bretagne n'était pas un phénomène récent. La Seconde guerre des Boers et la Première Guerre 783 « Psychology constructs woman », Peace News, 9 janvier 1970, p. 4. 2ème Partie - 1 : Mouvement féministe mondiale avaient aggravé les divisions au sein de la mobilisation pour le droit de vote des femmes, déjà scindée en deux. Les suffragistes étaient partisanes de techniques constitutionnelles et d'un militantisme modéré, tandis que les suffragettes prônaient un activisme parfois violent. Bien que minoritaires au sein des deux groupes, de nombreuses suffragistes et suffragettes refusèrent de participer à l'effort de guerre, comme le leur demandaient les dirigeantes de leurs organisations respectives, et se tournèrent vers le pacifisme 784. Lors de la Seconde Guerre mondiale, un grand nombre de femmes se mobilisèrent à nouveau pour protester contre le conflit. L'organisation Peace Pledge Union, dont la structure organisationnelle allait faciliter l'émergence du mouvement pour le désarmement nucléaire, évaluait la proportion féminine au sein de ses rangs à 43 000 en 1939, soit environ un tiers de ses membres 785. Elles organisèrent des défilés pacifistes au sein de la Women's Peace Campaign à travers le pays. Sur leurs banderoles, on pouvait lire des slogans tels que : « For the sake of children everywhere, I appeal to men to stop this war » 786 . Le militarisme et la guerre en général, étaient généralement perçus comme des lubies d'hommes. Quelques années plus tard, les militantes pacifistes de la CND dénonçaient toujours la « tradition guerrière fermement ancrée » (« a deep-seated tradition of war ») chez la gent masculine 787. Au contraire, de par leur rôle de mère, les femmes étaient supposées être plus enclines à la compassion et à l'empathie : « Men feel, or should feel, as much concern as women over the food their children eat or the possibility of crippling future generation » 788. Les revendications portées par les femmes au sein du mouvement avaient les mêmes objectifs, c'està-dire obtenir l'arrêt immédiat des essais nucléaires puis le désarmement, tout en étant fondées sur des arguments différents. Depuis les premiers jours du mouvement, elles fustigeaient les effets des retombées radioactives sur la santé 784 « 67 years as a feminist », Spare Rib, mai 1974, pp. 6-9. Yvonne BENNETT, « Vera Brittain and the Peace Pledge Union » dans Ruth PIERSON (éd), Women and Peace – Theoretical, Historical and Practical Perspectives, Londres : Croom Helm, p. 193. 786 Ibid. 787 « This women's meeting was different », Peace News, 19 janvier 1962, p. 8. 788 Ibid. 785 271 272 Claire Mansour, Diffusion et évolution des mouvements sociaux des enfants, en accroissant les risques de malformations congénitales, d'ingestion d'aliments contaminés ou même d'irradiation 789. Les militantes pacifistes organisèrent quelques actions destinées aux femmes, telles que des marches, des veillées et des rassemblements, tout en prenant soin de mettre en avant leurs statuts de mères et d'épouses 790 . Elles créèrent leur propre groupe au sein de la CND, sobrement nommé Women's Group 791 . À la fin du mois d'octobre 1961, les tensions entre les forces américaines et soviétiques au Checkpoint Charlie, permettant le passage de BerlinOuest à Berlin-Est, ravivèrent les peurs de dégénération en conflit nucléaire. Quelques jours plus tard, l'explosion par l'Union Soviétique d'une bombe à hydrogène de 50 mégatonnes, la plus puissante jamais testée, entraîna un sursaut de la mobilisation, et conduisit la branche féminine à créer une campagne en appelant spécifiquement aux femmes 792. Le slogan « Let Britain Lead » devint « Let Britain's Women Lead », et un logo incorporant l'emblème de la CND et le symbole de vénus (généralement associé aux femmes) fut élaboré afin de figurer sur les brassards de ses membres (voir annexe 16). D'autres groupes exclusivement féminins virent le jour à l'automne 1961, comme Mothers Against War, Voice of Women ou bien encore le Women Against the Bomb des partisanes des techniques d'action directe du C100 793 . Leur raisonnement était fondé sur le fait que les femmes semblaient particulièrement réceptives à la cause, comme en témoignaient le nombre de lettres à la presse et les initiatives indépendantes prises à travers le pays, mais qu'elles ne pouvaient généralement pas participer aux actions collectives en raison de leurs obligations familiales. Elles avaient également pris note de leur statut subalterne, du manque de considération et de 789 « 'Women against the bomb' », Peace News, 4 juillet 1958, pp. 1, 8. « To see women MPs about H-test danger », Peace News, 12 décembre 1958, p. 8. 790 « Vigil of women at Westminster », Peace News, 10 mai 1957, p. 1. « H-bomb test: women's protest march », Peace News, 17 mai 1957, p. 6. 791 « 'Women against the bomb' », Peace News, 4 juillet 1958, pp. 1, 8. 792 « Wanted a movement for women against the bomb », Peace News, 2 mars 1962, pp. 6-7. 793 « Women's peace groups merge », Peace News, 1er mai 1964, p. 3. 2ème Partie - 1 : Mouvement féministe l'isolement dont elles souffraient en tant que mères ou femmes au foyer, ou encore de leur manque d'intérêt pour la politique, comme autant d'obstacles à leur mobilisation effective. Une des fondatrices de Women Against the Bomb expliquait ainsi dans les colonnes de Peace News : In our approach to so far inactive mothers we would find it helpful to remember that both we and the women concerned are subject to the constant, insidious pressure of an ideology which, in effect, makes the lifework of the majority of women, i.e., the care and nurture of human beings, a matter of minor importance compared with the care of machines and the things produced by them [men]. Unconsciously we are affected by this climate of opinion which diminishes the human worth of women as mothers and makes them less able to take responsible social action. 794 Pour y remédier, les militantes pacifistes décidèrent de proposer des types d'actions compatibles avec leur vie de famille, comme la distribution de tracts dans les lieux publics, facilités par l'organisation de crèches. De plus, l'engagement dans une structure gérée par des femmes, était également l'occasion de gagner en confiance et en indépendance, sans pour autant négliger leurs époux ou leurs enfants 795. Ce mode de fonctionnement à l'échelle locale, sans hiérarchie stricte, permettant leur émancipation par l'autogestion en groupes non-mixtes afin d'éviter de reproduire le schéma de « domination masculine », préfigurait la structure organisationnelle du mouvement de libération des femmes. De plus, ces groupes réussirent également à tisser des liens avec l'organisation américaine Women's Strike for Peace (WSP), fondée à l'automne 1961, afin de protester contre les essais nucléaires. Ses fondatrices affirmaient d'ailleurs aussi s'être inspirées des tactiques d'actions directes du C100 796. Les deux organisations s'envoyaient des témoignages de soutien et organisaient des actions de solidarité 797 . Cette collaboration allait ensuite aboutir à la formation de l'organisation internationale 794 « Wanted a movement for women against the bomb », Peace News, 2 mars 1962, pp. 6-7. Ibid. 796 « A mobilisation of spirit », Peace News, 2 mars 1962, p. 2. « Women fly to Geneva », Peace News, 6 avril 1962, p. 3. 797 « This women's meeting was different », Peace News, 19 janvier 1962, p. 8. 795 273 274 Claire Mansour, Diffusion et évolution des mouvements sociaux Women's Peace Force en 1964, fédérant des groupes américains, britanniques, français, belges ou provenant d'autres pays membres de l'Organisation du traité de l'Atlantique Nord 798. Cette collaboration avec les militantes aux États-Unis se poursuivit pendant la guerre du Vietnam. Par ailleurs, l'activité des femmes au sein du mouvement ne fut pas limitée aux groupes non-mixtes. Certaines remplirent des fonctions-clés au sein des organisations principales, et prirent fréquemment la parole lors des rassemblements. On citera par exemple les membres fondatrices Peggy Duff et Pat Arrowsmith, les militantes pacifistes chevronnées Vera Brittain et Sybil Morrison, les députés travaillistes Edith Summerskill et Judith Hart, les romancières Iris Murdoch et Doris Lessing, l'actrice Vanessa Redgrave, ainsi que de nombreuses scientifiques. Leur visibilité contribua aussi à changer l'image du rôle des femmes. Ainsi, le mouvement pour le désarmement nucléaire britannique permit à de nombreuses femmes de faire l'expérience pour la première fois de la participation à des actions collectives et favorisa leur politisation, comme ce fut le cas par exemple pour Sheila Rowbotham, qui devint par la suite l'une des théoriciennes et militantes emblématiques de la deuxième vague de féminisme 799. Même si quelques rares voix commençaient à remettre en question les stéréotypes de genre et la place des femmes au sein de la société, les militantes choisirent majoritairement de se présenter avant tout en tant que mères et épouses afin de rallier le plus grand nombre à leur cause. Cependant les figures féminines jouant un rôle de premier plan au sein du mouvement et l'organisation de structures spécifiques facilitant l'engagement des mères et des femmes au foyer contribuèrent à proposer de nouveaux modèles. Étant donné le rôle précurseur du mouvement au sein du cycle de contestation des longues années soixante, la mobilisation des femmes pour cette cause donnait un exemple récent prouvant que le militantisme n'était pas simplement l'apanage des hommes. 798 799 « Women's peace groups merge », Peace News, 1er mai 1964, p. 3. Sheila ROWBOTHAM, op. cit., p. 69. 2ème Partie - 1 : Mouvement féministe 2.1.2.2. Le mouvement contre la guerre du Vietnam Dans le prolongement du mouvement pour le désarmement nucléaire, l'opposition à la guerre du Vietnam continua de mobiliser les militantes pacifistes des deux côtés de l'Atlantique. L'organisation américaine Women's Strike for Peace coordonnait déjà des actions collectives dès 1964, et ses membres incitèrent bientôt leurs alliées britanniques à faire de même. Ainsi, le 9 février 1966 un rassemblement se tint devant l'ambassade américaine à Londres en soutien avec une manifestation du WSP à Washington le même jour 800. Néanmoins, la très grande majorité des opposantes à la guerre du Vietnam choisirent de se mobiliser au sein de groupes mixtes. Elles se heurtèrent alors au sexisme ambiant à l'intérieur de ces organisations, reproduisant les inégalités sociétales et cantonnant les femmes à des fonctions subalternes. Ainsi, l'Américaine vivant à Londres Betty Roszak, épouse du théoricien de la contre-culture Théodore Roszak, écrivait dans une tribune de Peace News en 1966 : At meetings, conferences rallies, or wherever men and women work together, most women easily slip into their traditional roles as silent partners willing to do the cooking, cleaning and washing up, even some secretarial work. But when it comes to ideas, policy-making, brainstorming, etc, we find the males doing the real work. 801 Lasses d'être sans cesse dévalorisées, quelques membres de la VSC commencèrent à se réunir entre elles pour évoquer ces problèmes. Ces militantes étaient pour la plupart américaines, et leur démarche aboutit à la création du Tufnell Park Group en 1968, qui allait devenir l'un des précurseurs du collectif Women's Liberation Workshop 802. Ce type de lien était loin d'être un phénomène 800 « Women's march », Peace News, 11 février 1966, p. 10. « Human rights for women », Peace News, 30 décembre 1966, p. 4. 802 David BOUCHIER, The Feminist Challenge, op. cit., p.56. 801 275 276 Claire Mansour, Diffusion et évolution des mouvements sociaux isolé puisque les quatre autres groupes fondateurs possédaient aussi des liens plus ou moins étroits avec la VSC 803. Leur participation au mouvement contre la guerre du Vietnam conduisit également les militantes à en adopter certaines caractéristiques, notamment ses cadres. En 1966, l'universitaire Juliet Mitchell publiait un essai intitulé « Women : the Longest Revolution » dans lequel elle affirmait que la place des femmes au sein de la société était comparable à celle d'une minorité opprimée en utilisant une grille de lecture marxiste 804. Le choix de parler de « libération des femmes » (« Women's Liberation »), plutôt que de féminisme, était une référence aux mouvements de libération nationale. Dans un numéro de Shrew intitulé « Women's Liberation and National Liberation », les militantes montraient l'analogie entre l'oppression des peuples colonisés et celle dont elles étaient victimes en tant que femmes : In Great Britain, a social system dominated by white, male capitalists, this ideology ["the dominant ideology"] reinforces two complementary perversions: national chauvinism (i.e. racism), meaning the inherent superiority of the Imperial mother country and the inferiority of the race, religion, and culture of the subjugated nation, and male chauvinism (i.e. sexism), meaning the inherent superiority of men and the inferiority of women, the weaker, that is the subjugated sex. 805 Ainsi, le cadre anti-impérialiste fut adapté à la cause féministe. En rapprochant leur cadre de diagnostic de ceux des mouvements d'émancipation coloniale, elles légitimaient le choix de se tourner vers des solutions également similaires, c'est-àdire leur « libération » au sens révolutionnaire. Dans la même publication, un autre article louait le rôle des vietnamiennes au sein du NLF. De même que l'offensive du Têt avait galvanisé les jeunes contestataires en démontrant que la guérilla vietnamienne pouvait mettre en difficulté la superpuissance américaine, la participation des femmes au combat pour l'indépendance fut érigée en modèle 803 Nathalie THOMLINSON, Race, Ethnicity and the Women's Movement in England, 1968–1993, Londres : Palgrave Macmillan, 2016, p. 34. 804 Juliet MITCHELL, « Women: the longest revolution », New Left Review, novembre-décembre 1966, pp. 11-37. 805 « National Liberation Movements and Women's Liberation », Shrew, décembre 1970, p. 2. 2ème Partie - 1 : Mouvement féministe aux yeux des militantes. Suite à un entretien avec l'une des dirigeantes du NLF, l'une d'entre elles expliquait : Women take part in all the activities of the Front. They are to be found in all sections and at all levels of the armed forces: there are mixed units even in the heavy artillery section, and a woman, Ngnyen-Thi-Dinh [sic] (who is also President of the Women's Union), is Deputy Commanderin-Chief. They are among the guerrillas, engaged not only in liaison and reconnaissance but also in sabotage and ambush. They are predominant in the political struggle, demonstrating and making constant propaganda against the Americans especially by talking with government soldiers. 806 Cette admiration pour les résistantes vietnamiennes se reflétait également dans le choix de mettre à la une du premier numéro de la revue féministe du groupe marxiste IMG Socialist Woman une interview avec Madame Thi Binh Nguyen, négociatrice à la conférence de paix de Paris 807 . Quelques mois plus tard un nouvel article de la même publication, intitulé « Vietnamese Women Make History », démontrait encore le rôle primordial des femmes dans le conflit 808. En janvier 1968, Juliet Mitchell donna une série de conférences sur le thème « Women in Revolution » dans le cadre de l'université alternative Anti-University 809 de Londres. Ce fut à cette occasion que les futures membres du groupe de Peckham Rye, un des groupes fondateurs du Women's Liberation Workshop, se rencontrèrent et commencèrent à s'organiser. Grâce à la prise de conscience du rôle actif des femmes dans les différentes luttes d'émancipation coloniale, et à la transposition du cadre de résonnance anti-impérialiste, les militantes décidèrent de former leurs propres groupes, afin d'améliorer leur condition. 806 « Women in Vietnam », Shrew, décembre 1970, p. 7. « Interview with Madame Binh of the National Liberation Front of Vietnam », Socialist Woman, février 1969, n.p. 808 « Vietnamese Women Make History », Socialist Woman, novembre 1969, n.p. 809 Cette institution, à la croisée de la contreculture et des idées radicales de la Nouvelle Gauche, fut fondée en 1968 afin de poursuivre les réflexions sur les thèmes débattus lors de la conférence « The Dialectics of Liberation » de juin 1967. Il s'agissait d'un forum de discussion permanent abolissant la hiérarchie traditionnelle dans les rapports entre les enseignants et les étudiants. Le vaste évantail des sujets abordés allait de la sociologie des guérillas à la musique expérimentale. 807 277 278 Claire Mansour, Diffusion et évolution des mouvements sociaux 2.1.2.3. Le mouvement étudiant L'accès accru à l'enseignement supérieur fut un des facteurs responsables de l'émergence du mouvement étudiant, et par extension, il contribua aussi à celle du mouvement féministe. Durant les années 1960, la proportion d'étudiantes dans les universités britanniques oscillait entre 20 et 40% des effectifs selon les établissements 810 . Les principales théoriciennes de la deuxième vague du féminisme étaient pour la plupart fraîchement diplômées, comme l'historienne Sheila Rowbotham ou la sociologue Anne Oakley. Les militantes issues de cette nouvelle génération s'impliquèrent d'abord dans le mouvement étudiant, à travers leurs organisations, où elles affrontèrent le sexisme des membres masculins. Un des premiers groupes féministes étudiants fut créé à l'automne 1969, à l'université de Warwick, par des sympathisantes du club socialiste exaspérées de ne pas être prises au sérieux. Il fut rapidement ouvert aux femmes extérieures à l'université et baptisé Coventry Women's Liberation 811. Certaines de ses adeptes, les étudiantes en histoire Anna Davin et Barbara Winslow, jouèrent par la suite un rôle déterminant dans l'organisation de la première conférence nationale du Mouvement de libération des femmes (Women's Liberation Movement) au Ruskin College en 1970, souvent considérée comme le coup d'envoi du mouvement 812. De plus, le mouvement étudiant contribua également à la diffusion du mouvement féministe américain, grâce à ses liens relationnels. Pour garder l'exemple de l'université de Warwick, Winslow, qui était américaine, écrivit un article dans le journal du campus où elle exposait la genèse et les revendications de la deuxième vague de féminisme aux États-Unis 813. Un film sur l'action des militantes américaines lors de l'élection de Miss America en 1968 fut également projeté quelques semaines seulement avant que les Britanniques reprennent la 810 Caroline HOEFFERLE, British Student Activism, op. cit., p. 162. « Warwick Women's Liberation », Campus, 7 novembre 1969, p. 9. 812 Florence BINARD, « The British Women's Liberation Movement in the 1970s: Redefining the Personal and the Political », Revue Française de Civilisation Britannique, 21, no.3, 2016, p. 61. 813 « Path to freedom », Campus, 28 novembre 1969, pp. 5-6. 811 2ème Partie - 1 : Mouvement féministe technique lors de l'élection de Miss Monde à Londres, à la fin du mois de novembre 1969, comme cela sera expliqué en détail par la suite 814. 2.1.2.4. Le mouvement pour l'égalité raciale Le mouvement des noirs américains contribua de manière déterminante à l'émergence du mouvement de libération des femmes, d'abord aux États-Unis puis au Royaume-Uni. Du refus de Rosa Parks de céder sa place de bus à un homme blanc, au discours de Fannie Lou Hamer à la convention nationale du Parti démocrate 815 , les femmes furent très actives en son sein et y jouèrent fréquemment des rôles de premier plan. Les revendications égalitaires de la mobilisation sensibilisèrent nombre d'entre elles à l'infériorité de leur condition en tant que femmes, comme l'exprimèrent quatre militantes du SNCC en 1964 dans un document, resté alors anonyme, anticipant les principales demandes de la deuxième vague de féminisme. Dans une note de service de l'organisation, elles adaptèrent la cadre de diagnostic antiraciste à leur propre situation au sein de leur association : Assumptions of male superiority are as widespread and deep rooted and every much as crippling to the woman as the assumptions of white supremacy are to the Negro. Consider why it is in SNCC that women who are competent, qualified and experienced, are automatically assigned to the "female" kinds of jobs such as: typing, desk work, telephone work, filing, library work, cooking and the assistant kind of administrative work but rarely the "executive" kind. 816 Les militantes assimilaient la suprématie blanche à la domination masculine, et fustigeaient le rôle subalterne attribué aux femmes au sein du SNCC. Leur écrit 814 « Warwick Women's Liberation », Campus, 7 novembre 1969, p. 9. Fannie Lou Hamer avait été élue vice-présidente du Mississippi Freedom Democratic Party en 1964, un parti créé afin de représenter la diversité de la population de cet état et érigé en alternative à la délégation officielle exclusivement blanche du Parti démocrate. 816 SNCC, « SNCC Position Paper », Waveland, Mississippi, novembre 1964, Women and Social Movement in the United States, 1600-2000 [en ligne], [consulté le 1er décembre 2017], disponible à l'adresse suivante : <http://womhist.alexanderstreet.com/SNCC/doc43.htm>. 815 279 280 Claire Mansour, Diffusion et évolution des mouvements sociaux déclencha ensuite un débat interne à l'organisation, occasionnant, comme elles l'avaient pressenti, des plaisanteries grivoises, à l'image de la remarque sexiste de Stokely Carmichael qui déclara : « the position of women in the movement is prone »817. Une version remaniée de la note fut ensuite publiée dans un journal de la Nouvelle Gauche américaine, Liberation, sous le titre « Sex and Caste » en 1966, suscitant plusieurs réponses dans le magazine britannique Peace News 818 . L'analogie fut également établie au Royaume-Uni avec les populations issues de l'immigration du nouveau Commonwealth, comme l'expliquait un article de la presse étudiante en 1969 en parlant la subordination des femmes : « It is a situation perfectly comparable with the fomenting of racialism which makes possible the maintenance of a pool of cheap immigrant labour »819. Après la montée en puissance du Black Power, les féministes continuèrent à s'inspirer du nouveau caractère revendicatif et libératoire du mouvement. Cette tendance ne se refléta pas seulement dans l'adoption d'un ton plus affirmé, mais aussi dans l'élaboration du logo de la mobilisation émergente, composé du signe de vénus ainsi que du poing fermé et levé utilisé par les partisans du Black Power (voir annexe 17). Elles leur empruntèrent également leurs éléments de langage, se désignant entre membres du mouvement sous le terme de « sisters », afin de créer une forme de solidarité féminine par le biais du concept de « sisterhood ». Cette notion était définie par les militantes comme une prise de conscience du statut inférieur des femmes et une identification avec le groupe opprimé : « Sisterhood becomes possible when, at last, we become aware of ourselves as women in common plight with other women. [] We identify with other women in terms of our common oppression and servitude and we have a solidarity between us born from this » 820 . De même, les manifestes du Women's Liberation Workshop n'étaient pas sans rappeler ceux des Black Panthers américains et britanniques. 817 SNCC, « Women, SNCC and Stokely : An email dialog, 2013-2014 », Women and Social Movement in the United States, 1600-2000 [en ligne], [consulté le 1er décembre 2017], disponible à l'adresse suivante : < http://womhist.alexanderstreet.com/SNCC/doc90.htm>. 818 « Human rights for women », Peace News, 30 décembre 1966, p. 4. 819 « Warwick women's liberation? », Campus, 7 novembre 1969, p. 9. 820 « Sisterhood is », Shrew, juillet 1971, p. 1. 2ème Partie - 1 : Mouvement féministe Empruntant à leurs compatriotes la formulation en cinq points, elles choisirent de se concentrer sur cinq demandes principales : le contrôle de leurs propres corps, de leurs vies, ne pas être cantonnées aux rôles de mère et d'épouse, l'égalité au travail et un accès universel aux crèches. Chacune de ces revendications était introduite par l'anaphore « We demand », puis justifiée en un paragraphe débutant par « We believe », rappelant alors plutôt le texte fondateur des militants californiens (voir annexe 18) 821. Ainsi les cadres, les éléments de langage et de style du mouvement pour les droits civiques ainsi que du courant Black Power ont été adaptés par les féministes américaines et britanniques, afin de porter leurs propres revendications. 2.1.2.5. Le mouvement ouvrier Les mobilisations des femmes des milieux modestes participèrent également à la massification du mouvement féministe au Royaume-Uni. En 1968, cinquante ans après l'obtention du suffrage féminin pour les plus de trente ans, plusieurs groupes en particulier réussirent à attirer l'attention de la nation sur leurs revendications : les épouses des marins pêcheurs de Hull, les ouvrières de l'usine Ford de Dagenham et les contrôleuses de bus de Londres. Au début de l'année, trois chalutiers du port de Hull coulèrent, endeuillant cette localité. Sous la houlette de la veuve de l'un des pêcheurs, Lilian Bilocca, une campagne fut lancée afin de demander l'amélioration de la sécurité et des conditions de travail sur les navires. Les militantes ne reçurent aucun soutien de la part des syndicats et durent même faire face à l'hostilité d'une grande partie de la population et des médias. Elles se rendirent à Westminster armées d'une pétition de 10 000 signatures et obtinrent, par la suite, la plupart de leurs demandes 822. Au mois de 821 « The ten point program and platform: What we want, what we believe », The Black Panther Newspaper, 2, no. 1, 23 novembre 1967, p. 3. BLACK PANTHER MOVEMENT, « What we want », op. cit. « We demand! », Shrew, février 1971, p. 16. 822 « Lil Bilocca and Hull trawlers », The Black Dwarf, 10 janvier 1969, p. 8. 281 282 Claire Mansour, Diffusion et évolution des mouvements sociaux juin, ce fut au tour des machinistes couturières de Ford de protester contre leur catégorisation en tant que main d'oeuvre non qualifiée, en dépit de leurs compétences. Leur situation était d'autant plus révoltante à leurs yeux que leurs collègues masculins occupant des fonctions identiques étaient reconnus comme ouvriers spécialisés, et donc davantage rémunérés. À l'issue de trois semaines de grève ayant paralysé toute la chaîne de production, les ouvrières acceptèrent de reprendre le travail. Au lieu de la revalorisation de leur statut, elles durent se contenter d'une augmentation, passant de 85% à 92% du salaire des hommes s'acquittant des mêmes tâches 823 . Néanmoins, au cours d'un entretien avec la ministre de l'Emploi et de la productivité Barbara Castle, Rose Boland, la porteparole des grévistes, réussit à aborder le problème plus général des inégalités salariales. S'en suivit une campagne nationale, incluant d'autres actions du même type, et la création du National Joint Action Committee for Women's Equal Rights (NJACWER) 824. Le 18 mai 1969, le comité organisa une grande manifestation nationale pour l'égalité des salaires, avec le soutien des principaux syndicats 825. En 1970, le projet de loi porté par Barbara Castle sur l'égalité de rémunération entre les hommes et les femmes fut voté par le parlement mais son application dut attendre 1975. Cette suite d'évènements contribua au sentiment de confiance grandissante chez les militantes, inspirant d'autres actions, comme celles des contrôleuses de bus de Londres demandant le droit de devenir conductrices 826. Les partisanes des différents groupes de la gauche radicale, issues principalement de la classe moyenne, revendiquèrent également l'influence des luttes des épouses des marins de Hull et des couturières de Ford, qui furent érigées en icones. Les récits élogieux narrant leurs exploits devinrent un thème récurrent dans les articles des féministes socialistes : « Millions of people all over the country, and nearly 823 Florence BINARD, op.cit., p. 63. « Action for equal rights – New campaign launched », Socialist Woman, février 1969, n. p. « The equal pay fight at Ford's », Socialist Woman, mars-avril 1969, n. p. 825 « Woman's rights », The Black Dwarf, 1er juin 1969, p. 4. 826 « Upstairs and downstairs 100 times a day », Spare Rib, 22, avril 1974, pp. 9-11. 824 2ème Partie - 1 : Mouvement féministe everyone in Hull will remember the splendid fight that Mrs Lilian Bilocca put up », « the magnificent struggle of the Ford seamstresses »827. Ainsi le mouvement de libération des femmes au Royaume-Uni prit une orientation beaucoup plus marquée à gauche que son équivalent américain, même si cette spécificité n'empêcherait pas la diffusion d'un grand nombre d'éléments de part et d'autre de l'Atlantique. 2.1.2.6. Le mouvement de libération des femmes aux États-Unis La deuxième vague de féminisme prit son essor aux États-Unis un peu plus tôt qu'au Royaume-Uni. Les liens entre les deux courants étaient très étroits, du fait des contacts établis lors des mouvements précédents, puis renforcés par les déplacements fréquents de certaines militantes entre les deux pays, ou encore par la publication mutuelle de leurs écrits dans leurs revues respectives. Ainsi, les Britanniques reprirent certains aspects de l'idéologie et des tactiques de leurs consoeurs américaines, qu'elles ajustèrent ensuite à leur propre mouvement. En septembre 1968, les féministes radicales 828 du collectif des New York Radical Women organisèrent une action de protestation contre le concours de beauté Miss America à Atlantic City. Afin de dénoncer l'exploitation des femmes en tant qu'objets sexuels, elles jetèrent tous les artefacts représentant à leurs yeux le culte d'une féminité artificielle dans une grande poubelle baptisée « Freedom Trash Can » : soutiens-gorge, gaines, faux-cils, perruques, magazines féminins, etc. Une poignée de militantes fit également irruption dans l'auditorium afin d'y déclamer leurs slogans, « No More Miss America » et « Freedom for women », et d'y déployer leur 827 « Lil Bilocca and Hull trawlers », The Black Dwarf, 10 janvier 1969, p. 8. « Equal pay – The first step », Socialist Woman, mars-avril 1969, n. p. 828 On distingue trois principaux courants au sein de la seconde vague de féminisme. Les féministes libérales réformistes (liberal or reformist feminists), voulaient obtenir l'égalité grâce à des réformes progressistes et oeuvraient donc à travers les institutions politiques existantes. Les féministes socialistes (socialist feminists), généralement d'obédience marxiste, prônaient comme but ultime un renversement du système capitaliste qu'elles considéraient comme responsable de l'oppression des femmes. Quant aux féministes radicales (radical feminists), elles préconisaient l'abolition du patriarcat, c'est-à-dire du système de domination masculine, à travers des changements d'ordre culturel visant à libérer les femmes. 283 284 Claire Mansour, Diffusion et évolution des mouvements sociaux bannière proclamant « Women's Liberation » 829 . Cet épisode donna naissance au mythe des féministes « brûleuses de soutien-gorge » (« bra-burners ») perpétué par les médias, bien que rien de tel n'eût lieu. Ce type d'action lors des concours de beauté fut ensuite réutilisé par les Britanniques à plusieurs reprises. Après un premier galop d'essai en 1969, l'opération fut reconduite avec plus de succès en novembre 1970 au concours de Miss Monde au Royal Albert Hall à Londres. Comme à Atlantic City, un premier rassemblement devant l'édifice fut organisé, durant lequel les participantes paradèrent avec des pancartes déclarant « We're not beautiful, we're not ugly, we're angry », et mirent en scène le parallèle avec les concours agricoles exposant des animaux d'élevage, non pas en couronnant une brebis vivante à l'instar des féministes américaines, mais en déguisant deux militantes en vache (voir annexe 19). Une trentaine de protestataires s'étaient infiltrées parmi les rangs des spectateurs, et au signal, elles convergèrent vers la scène en jetant pêle-mêle tracts, fumigènes, bombes puantes, farine et peinture, avant d'être expulsées. Ce coup d'éclat médiatique propulsa littéralement le mouvement britannique de libération des femmes sous le feu des projecteurs 830. Les militantes continuèrent à manifester lors des cérémonies de Miss Monde les années suivantes, ainsi que contre d'autres concours du même type tels que Miss Angleterre, à Leeds en 1974, ou contre l'élection de reines de beauté étudiantes 831. Un autre exemple des processus d'adaptation du mouvement américain fut l'emprunt des concepts du tract « No More Miss America » rédigé en 1968 pour cette même occasion par la féministe radicale Robin Morgan. Même s'ils furent repris mot pour mot par les militantes du Women's Liberation Workshop d'Ealing, les explications les accompagnant différaient de leur contexte originel, témoignant d'une volonté de 829 David FARBER, op. cit., p. 252-53. « Miss World », Shrew, décembre 1970, pp. 16-18. « The great flesh-show protest », Peace News, 27 novembre 1970, p. 5. 831 « Against Miss England », Spare Rib, mai 1974, p. 20. « Why bother about beauty contests », Spare Rib, janvier 1977, p. 21. 830 2ème Partie - 1 : Mouvement féministe les faire résonner avec leurs sensibilités politiques et de les appliquer à la condition féminine en général, dans un article rédigé pour Shrew. Ainsi l'expression « The Consumer Con-Game » renvoyait initialement à la fonction publicitaire de Miss America, vantant les mérites des articles des marques sponsorisant le concours, mais fut redéfinie afin de dénoncer la double exploitation dont étaient victimes les femmes en tant que consommatrices de produits mais aussi en tant qu'objets sexuels utilisés pour les vendre. De même, « The Unbeatable Madonna-Whore Combination » fustigeait l'impossibilité de correspondre aux rôles contradictoires définis par les idéaux masculins, identifiant Miss America comme l'incarnation de la facette de la « Madonne ». Dans la version britannique, l'argument prit un tour complètement différent, relié à la fragmentation de la personnalité requise par la division du travail selon les sexes, engendrant un sentiment d'aliénation et aboutissant à une critique du système capitaliste permettant un tel phénomène832. Ces exemples tendent à montrer que les processus de diffusion d'un bord à l'autre de l'Atlantique n'estompèrent pas les différences d'orientation entre les deux mouvements. Aux États-Unis, les tendances dominantes étaient plutôt libérale réformiste et radicale, tandis qu'au Royaume-Uni, l'influence de la gauche radicale donna un tour plus socialiste à la mobilisation, influant aussi sur sa structure organisationnelle. Contrairement au mouvement américain, dominé par une organisation réformiste à la structure pyramidale traditionnelle, la National Organization of Women (NOW), le mouvement britannique était composé d'une nébuleuse de petites cellules autonomes dispersées à travers le pays, à l'image des idéaux participatifs et égalitaires de la Nouvelle Gauche. Aux États-Unis ce type de petits groupes s'étaient également développés, mais ils étaient plutôt le fait de la tendance minoritaire du féminisme radical, qui inspira les militantes outre-Atlantique 833 . À Londres et dans ses alentours, une poignée de petits collectifs avait commencé à se réunir régulièrement 832 RED STOCKINGS, « No More Miss America », 22 août 1968, dans Alexander BLOOM et Wini BREINES (éds), Takin' It to the Streets : A Sixties Reader, Oxford : Oxford University Press, 2011, pp. 409-411. 833 David BOUCHIER, The Feminist Challenge, op. cit., pp. 47-8, 55. 285 286 Claire Mansour, Diffusion et évolution des mouvements sociaux en 1968 et 1969, et fondèrent le Women's Liberation Workshop (WLW). Dans leur manifeste, ses membres affirmaient plusieurs règles de fonctionnement pour leurs réunions hebdomadaires : non-mixité, localité, restriction du nombre de participantes, hétérogénéité des points de vue et des thèmes abordés, refus de nommer des modérateurs, etc 834 . Elles pensaient ainsi faciliter la participation, l'émancipation et la responsabilisation de leurs recrues : « We want eventually to be, and to help other women to be, in charge of our own lives. Therefore, we must be in charge of our own movement – directly, not by remote control » 835. Cette organisation était également adaptée à la stratégie phare du mouvement de libération des femmes : la sensibilisation (consciousness-raising). La généalogie de cette technique remontait aux séances de « récits d'amertume » (« Speak Bitterness ») de la période de la réforme agraire en Chine, amorcée en 1950. Lors de ces rassemblements, les paysans pouvaient confronter leurs anciens oppresseurs, les propriétaires fonciers, en laissant libre cours à leurs émotions. Ils étaient incités à raconter leurs expériences passées afin de surmonter leur traumatisme et de faire naître une conscience de classe sociale. C'est par l'entremise de l'ouvrage Fanshen (1966), du journaliste américain William Hinton relatant son séjour dans un petit village chinois pendant la révolution, que les féministes américaines prirent connaissance de cette pratique, qu'elles adaptèrent ensuite à leur propre mouvement. Ainsi, une affiche réalisée par Kathie Sarachild pour promouvoir les groupes de sensibilisation proclamait en 1968 : Speak Pains to Recall Pains – the Chinese Revolution Tell it Like It Is – the Black Revolution Bitch, Sister, Bitch 834 835 « Organizing ourselves », Shrew, mars 1971, pp. 2-5. « Manifesto of the London Women's Liberation Workshop », The Black Dwarf, 5 septembre 1970, p. 14. 2ème Partie - 1 : Mouvement féministe – the Final Revolution 836 Retraçant l'histoire de la pratique en partant du communisme chinois, puis en passant par le Black Power, pour aboutir au féminisme américain, ces slogans louaient implicitement les vertus libératrices et fédératrices de la prise de parole. Étant donné la fascination des féministes britanniques socialistes pour la révolution chinoise et les écrits de Mao Zedong, ainsi que leurs liens étroits avec leurs équivalentes américaines, elles ne tardèrent pas à employer à leur tour la même stratégie. À Londres, tandis que l'on dénombrait huit groupes affiliés au WLW en avril 1970, leur nombre s'élevait à 58 en décembre 1971 837. D'autres collectifs furent créés dans le reste du pays, Peace News en recensait 25 en juillet 1970 838 . Ces cercles d'une douzaine de membres réguliers entreprirent de rechercher la cause de l'oppression des femmes, en partageant leurs expériences personnelles, afin d'élaborer des solutions pour améliorer concrètement leur quotidien et leur condition en général 839. Cette logique traduisait leur volonté de mettre en application le mot d'ordre des féministes américaines : « The personal is political »840. Lors de leurs séances, elles abordèrent de nombreux sujets liés à la place des femmes dans la société, mais aussi des thèmes plus intimes comme leurs relations avec leur famille, leur enfance ou leur sexualité 841. La diversité des points de vue des militantes et leur méfiance à l'égard des organisations pyramidales les poussèrent à préserver l'autonomie des différentes petites cellules. Aucune structure de coordination à l'échelle nationale ne fonctionna 836 Carol HANISCH, « A Women's Liberation Tribute to William Hinton and the Women of Long Bow », communication présentée le 3 avril 1999 dans le cadre d'une conférence intitulée « Understanding China's Revolution: A Celebration of the Lifework of William Hinton » à l'université de Colombia, New York [en ligne], [consultée le 22 décembre 2017], disponible à l'adresse suivante : <http://www.carolhanisch.org/Speeches/HintonSpeech/HintonTribSpeech.html>. 837 838 839 840 Dernière de couverture, Shrew, avril 1970, p. 8. « Women's Liberation groups in Britain », Peace News, 3 juillet 1970, p. 6. « Organizing ourselves », Shrew, mars 1971, pp. 2-5. NEW YORK RADICAL WOMEN, « The Personal Is Political », février 1969 [en ligne], [consulté le 27 décembre 2017], disponible à l'adresse suivante : <http://www.carolhanisch.org/CHwritings/PIP.html>. 841 « Birmingham Womens Liberation Group », Peace News, 3 juillet 1970, p. 3. 287 288 Claire Mansour, Diffusion et évolution des mouvements sociaux durablement 842 . Néanmoins, des conférences nationales biannuelles furent organisées et servirent à fixer le cap pour l'ensemble du mouvement. La première d'entre elles, en février 1970, marqua officiellement le début d'une nouvelle phase, plus militante et revendicatrice. 2.1.3. Apogée du mouvement : 1970-79 2.1.3.1. Première conférence nationale au Ruskin College, à Oxford en 1970 Généralement considérée comme un des évènements fondateurs du mouvement britannique de libération des femmes, la première conférence nationale eut lieu au Ruskin College, à Oxford, du 27 février au 1er mars 1970 843. L'année précédente, Sheila Rowbotham et Sally Alexander avaient essuyé les rires moqueurs des participants masculins lors d'une journée d'études sur l'histoire, après avoir évoqué la possibilité de former un atelier sur l'histoire des femmes. Elles prirent alors la décision de mettre sur pied une conférence qui leur serait spécifiquement dédiée 844. L'afflux de près de 600 personnes dépassa de loin les attentes des organisatrices 845. Lors de ces quelques jours de discussion, les quatre demandes principales du mouvement furent formulées : égalité salariale (« equal pay »), égalité des chances dans l'éducation et l'accès au marché du travail (« equal educational and job opportunities »), contraception et avortement libres et gratuits (« free abortion and contraception on demand ») et des crèches gratuites ouvertes 24 842 Le comité Women's National Coordinating Committee (WNCC), formé à l'issue de la première conférence nationale en 1970, devait assurer la communication entre les groupes mais fut rapidement abandonné. « Announcements/ Calendar », Shrew, avril 1970, p. 7. 843 Florence BINARD, op.cit., p. 61. 844 « Forty years of women's liberation », The Guardian, 26 février 2010 [en ligne], [consulté le 27 décembre 2017], disponible à l'adresse suivante : <https://www.theguardian.com/lifeandstyle/2010/feb/26/forty-years-womens-liberation>. 845 « Women's Liberation Conference », Peace News, 6 mars 1970, p. 7. 289 2ème Partie - 1 : Mouvement féministe heures sur 24 (« free 24-hour nurseries ») 846. Elles furent par la suite reprises sous formes de slogans lors des manifestations. Trois revendications supplémentaires seraient ajoutées au cours de la décennie, portant sur le droit à l'indépendance financière et légale (« legal and financial independence for all women »), la fin des discriminations contre les lesbiennes (« an end to the discriminations against lesbians »), puis enfin sur la suppression des violences envers les femmes et du système les perpétuant (« freedom for all women from intimidation by the threat or use of violence or sexual coercion regardless of marital status; and an end to the laws, assumptions and institutions which perpetuate male dominance and aggression to women ») 847 . Cette conférence inaugurale fut dépeinte de manière très négative par les médias, ce qui contribua à convaincre les féministes de la nécessité de créer leurs propres publications. 2.1.3.2. Couverture médiatique et création de publications spécifiques Les journaux traditionnels de tous bords donnèrent une image très défavorable de la conférence au Ruskin College. Les articles se concentraient souvent sur les liens avec d'autres groupes révolutionnaires ou communistes, comme les Black Panthers, avaient parfois des titres dégradant, comme ceux des quotidiens The Times et The Guardian (respectivement « Militancy in the kitchens » et « Women told to 'cool it' »), insistaient sur l'accoutrement des participantes à grand renfort de clichés sur leurs cheveux longs, pantalons évasés et maxi-manteaux, ou encore se focalisaient sur les divisions et les altercations entre les membres de l'assistance, utilisant fréquemment la même anecdote d'une jeune femme ayant 846 « Women Unite! », Shrew, février 1971, p. 7. Les cinquième et sixième demandes furent inscrites dans les objectifs du mouvement en 1974, lors de la conférence d'Édimbourg, tandis que la septième, pomme de la discorde entre les différentes factions, fut le résultat de la conférence de 1978 à Birmingham. Entrefilet sans titre, Spare Rib, juin 1978, p. 5. 847 290 Claire Mansour, Diffusion et évolution des mouvements sociaux quitté la salle en maugréant « counter-revolutionary scum »848. Ces échos ne pouvaient que nuire au mouvement émergent, en le décrédibilisant et en montant l'opinion publique contre lui. Mais il ne s'agissait pas seulement de la presse mainstream. Cette tendance pouvait également être observée dans un grand nombre de journaux alternatifs et étudiants. Un billet intitulé « A conference of women in drag », paru dans les colonnes de The International Times, minimisait la participation en arrondissant les 560 inscrits à 500, critiquait les capacités oratoires des intervenantes, et décrivait l'évènement comme « une expérience vraiment terrible » et « des plus frustrantes » (« a really terrible experience », « one of the most frustrating experiences »)849. Les auteurs dénonçaient également le milieu social des participantes, appartenant majoritairement à la classe moyenne, pour montrer le décalage avec les préoccupations des femmes des classes populaires. Cette accusation récurrente se retrouvait aussi dans la presse étudiante. Dans une diatribe antiféministe, un étudiant de la LSE alléguait ainsi : « 'Women's Liberation' should be seen for what it is ; a load of middle-class girls trying to sort themselves out and leeching on the suffering of working-class women in an attempt to stave off » 850 . Visiblement oublieux de la provenance sociale de la majorité des étudiants et des partisans de la Nouvelle Gauche, il se méprenait également sur les implications des objectifs du mouvement. Dans un amalgame entre égalité et renversement des rôles, il vaticinait : « Okay, let's have (i) equal pay, (ii) nurseries, (iii) equality of representation on decision-making bodies, e.g. : Trade Unions, Parliament, etc. and also men having babies, looking after them, doing the housework while she goes out to work » 851. Ainsi, non seulement le mouvement féministe était globalement décrit de manière défavorable, mais il souffrait également d'un manque de couverture médiatique. Les journaux étudiants et alternatifs lui accordèrent relativement peu d'espace, surtout par rapport au mouvement pour l'égalité raciale, qui fit l'objet 848 Éditorial sans titre, Shrew, avril 1970, pp. 1-4. « A conference of women in drag », The International Times, 13 mars 1970, p. 4. 850 « Son of Armaddon [sic] – tit for tat », The Beaver, 14 mars 1973, p. 11. 851 Ibid. 849 291 2ème Partie - 1 : Mouvement féministe d'innombrables unes et articles durant la période. Le seul magazine qui semblait trouver grâce aux yeux des féministes dans leur état des lieux de la presse britannique, était Peace News, dont elles louèrent les efforts d'objectivité 852. Les militantes se tournèrent également vers le problème plus général de la représentation des femmes dans les médias. Titres sexistes et désobligeants, stéréotypes, objectification du corps des femmes, rubriques féminines consacrées exclusivement à la mode, à la décoration intérieure ou à la cuisine, tout cela était monnaie courante dans la presse traditionnelle comme dans les journaux étudiants ou contre-culturels. Les étudiantes membres du groupe de libération des femmes de l'université de Leeds écrivirent ainsi au rédacteur en chef d'Union News et dénoncèrent la rubrique « Women's World » s'addressant à un lectorat féminin en ces termes : « The present patronising policy of Union News upholds those very myths of a 'Women's World' that we are trying to expose. For instance, almost a full page is used in telling us what we should wear to be trendy girls » 853. Un exemple paru l'année précédente montrait effectivement que, même lorsqu'une page entière était dédiée à cette rubrique, les sujets évoqués visaient toujours à conseiller les femmes afin qu'elles s'acquittent au mieux des tâches domestiques ou s'apprêtent selon les dernières tendances. Sur trois articles, le premier était dédié à la cuisine, le deuxième à la mode, et le troisième au shopping (voir annexe 20). De plus, les femmes travaillant dans les médias étaient généralement cantonnées aux tâches administratives. Lorsqu'elles participaient à la rédaction, elles étaient fréquemment reléguées aux sujets supposément plus « féminins », comme les oeuvres caritatives ou les salons pour bébés, pour reprendre l'exemple d'une militante journaliste excédée dans un article de Spare Rib 854 . Cela poussa les militantes à demander l'adoption d'un « Code de pratiques non-sexistes » (« Nonsexist Code of Practice ») lors d'une conférence rassemblant les principaux syndicats 852 Éditorial sans titre, Shrew, avril 1970, pp. 1-4. « Women's World », Union News, 20 mars 1970, p. 10. 854 « Women workers in the media: 'No more charities and baby shows' », Spare Rib, mars 1975, p. 18. 853 292 Claire Mansour, Diffusion et évolution des mouvements sociaux du milieu. Ce document faisait le lien entre les représentations biaisées et dégradantes des femmes dans les médias et leur statut subalterne en tant qu'employées dans cette industrie. En essayant d'instaurer l'égalité professionnelle, les partisans de cette charte pensaient que l'image des femmes véhiculée par les médias deviendrait plus nuancée et plus proche de la réalité 855. Les féministes furent rapidement convaincues de la nécessité de développer leurs propres publications, à la fois afin d'améliorer la couverture médiatique de leur mouvement, de combattre les stéréotypes de genre, mais aussi dans le but de poursuivre leur travail de sensibilisation à l'oppression des femmes et de réflexion émanant des séances en petits groupes. Ainsi, le bulletin du WLW, Shrew, était produit tour à tour par les différentes cellules membres du collectif, reflétant ainsi la diversité des préoccupations et des points de vue 856. Son but était expressément militant. À l'inverse, le magazine Spare Rib se voulait beaucoup plus modéré afin d'être lu par le plus grand nombre, et se différenciait de Shrew par son professionnalisme. Il devint néanmoins de plus en plus revendicatif, abandonnant d'abord les rubriques du type « cuisine », pour finalement s'autoproclamer « a women's liberation magazine » en 1976 857 . C'est grâce à ces publications que les actions du mouvement, généralement passées sous silence par le reste de la presse, furent relayées, comme par exemple la campagne de syndicalisation des agents de nettoyage de nuit. 2.1.3.3. Campagne de syndicalisation des agents de nettoyage de nuit Les féministes socialistes britanniques s'attachèrent à essayer d'impliquer toutes les femmes, y compris celles issues des classes les plus vulnérables. L'exemple le plus concret et le plus porteur fut sans doute celui de la campagne 855 Ibid. « Women's Liberation Workshop », Shrew, février 1971, p. 29. 857 « Spare Rib : 7 years on », Spare Rib, juillet 1979, pp. 6-8, 18. 856 2ème Partie - 1 : Mouvement féministe de syndicalisation des agents de nettoyage de nuit qui s'étala sur plusieurs années consécutives. La quasi-totalité de ces employés étaient des femmes, bien souvent issues de l'immigration, et fréquemment embauchées par des entreprises de soustraitance, avec des contrats les maintenant dans une grande précarité. De plus, comme elles travaillaient seules de nuit dans des bâtiments vides, elles étaient particulièrement isolées, et donc difficiles à mobiliser 858 . En octobre 1970, la meneuse des agents de nettoyage, May Hobbs, ainsi que des féministes affiliées à l'organisation International Socialists, entreprirent de distribuer des tracts afin de les convaincre de rejoindre les rangs du syndicat TGWU. D'autres collectifs de féministes vinrent leur prêter main forte, notamment des membres du WLW et de Socialist Woman 859. La campagne prit rapidement son essor, grâce au contexte particulièrement propice de l'opposition à la proposition de loi Industrial Relations Bill, qui suscitait également l'ire des syndicats et des étudiants. Des délégations d'agents de nettoyage de nuit, emmenées par May Hobbs et les différents collectifs féministes, défilèrent aux côtés des syndicats lors des grandes journées de manifestation. Elles parvinrent à obtenir de ces derniers, jusqu'alors restés insensibles à leurs sollicitations, qu'ils appuient leurs modestes demandes (hausses de salaires, de meilleures conditions de travail et davantage de protection) 860. À travers le réseau des groupes féministes et les déplacements de May Hobbs, la campagne s'étendit à d'autres villes et de nouvelles revendications : Oxford, Norwich, Bristol, Manchester, Birmingham et Lancaster 861 . Ce dernier cas fut un exemple particulièrement réussi de collaboration avec les étudiants et les syndicats. Les demandes répétées des agents d'entretien de l'université de Lancaster pour obtenir la prise en charge de leurs frais de transport vers leur lieu de travail avaient attiré l'attention de la 858 « May Hobbs: women cleaners campaign », Red Mole, 16 janvier 1971, p. 3. « Women's work », Shrew, décembre 1971, p. 4. « Cleaning contractors », Shrew, décembre 1971, p. 3. 859 Les groupes de Socialist Woman produisaient la revue du même nom, et étaient affiliés à l'IMG. 860 « Night cleaners and women's liberation », Shrew, décembre 1971, p. 2. 861 « Womens liberation should », Shrew, décembre 1971, pp. 8-9. « Whose bloody battle? », Spare Rib, février 1973, pp. 17-18. « VIVA cleaner strike », Peace News, 4 octobre 1974, p. 5. 293 294 Claire Mansour, Diffusion et évolution des mouvements sociaux cellule locale du Socialist Woman Group. Ces dépenses représentaient environ 10% de leur salaire et pouvaient monter jusqu'à 20% hors période scolaire. Employées, féministes, syndicalistes et étudiants furent bientôt vent debout contre l'administration de l'université. Après plusieurs grèves d'avertissement de 24 heures, une pétition réunissant un millier de signatures, vint le tour d'une occupation du bâtiment administratif par les étudiants, forçant la direction à céder. Grâce à ce succès, le syndicat TGWU put négocier d'autres avancées pour le reste du personnel non-enseignant de l'université 862. Ainsi, cette campagne fut un exemple réussi de convergence des luttes, montrant la volonté des militantes de tisser des liens avec les autres mouvements. Mais les avancées gagnées par la mobilisation et les réformes, furent bientôt menacées par la montée d'un retour de flamme conservateur. 2.1.3.4. Campagne contre le retrait de la loi sur l'avortement En février 1975, un projet de loi d'initiative parlementaire approuvé en deuxième lecture remit en question les acquis sur l'avortement. Portée par le député travailliste James White, la proposition prônait des restrictions strictes limitant l'interruption volontaire de grossesse aux mères dont la santé se trouvait directement menacée, et représentait un retour à la situation antérieure à la loi de 1967 863. L'organisation Society for the Protection of Unborn Children, formée en janvier 1967, avait graduellement gagné en puissance, ralliant plusieurs dizaines de milliers de personnes lors de ses rassemblements, comme à Liverpool en mai 1972 864 . Les groupes féministes lancèrent des contre-manifestations, durant lesquelles elles distribuaient des tracts, faisaient entendre leurs slogans et utilisaient des techniques de guerrilla theatre inspirée de celles des opposants à la guerre du Vietnam. Le mouvement de libération des femmes avait adopté ces 862 « Lancaster cleaner's campaign », Socialist Woman, juillet-août 1971, pp.1-21. « Abortion Act threat: 3», Spare Rib, avril 1975, pp. 17-18. 864 « Abortion on demand now! », The International Times, 18 mai 1972, p. 9. 863 2ème Partie - 1 : Mouvement féministe pratiques depuis ses premières actions. Le groupe Women's Street Theatre Group s'était par exemple fait connaître avec Sugar and Spice, pièce dénonçant l'objectification des femmes jouée à Trafalgar Square lors de la grande manifestation pour la journée internationale des femmes en mars 1971 (voir annexe 21) 865 . Une campagne nationale fut mise sur pied en mars 1973, la National Abortion Campaign (NAC), fédérant autour de la défense de l'avortement des groupes féministes, étudiants, des syndicats, des organisations travaillistes et de la Nouvelle Gauche 866 . Son cri de ralliement, « A woman's right to choose », témoignait de la volonté de ses partisans d'obtenir que l'avortement devienne entièrement libre et gratuit pour toutes les femmes 867. En soutien à la campagne, des groupes de théâtre engagé écrivirent des pièces satiriques, tournant en dérision les lobbies anti-avortement lors des différentes manifestations et contremanifestations, mais aussi à l'occasion de représentations officielles 868 . Les syndicats, jusque-là réticents à soutenir des revendications ne concernant pas directement la sphère professionnelle, changèrent leur fusil d'épaule en 1975. La demande pour l'avortement libre et gratuit fut votée à la conférence des femmes du TUC à Hastings au mois de mars, et en septembre à la conférence annuelle 869. Ainsi, non seulement la NAC réussit à contrer la série de tentatives de réforme restreignant les conditions d'accès à l'IVG mais elle contribua à faire évoluer la position des syndicats sur les sujets touchant à la sphère privée, dans la mesure où ils avaient également une incidence sur la vie professionnelle des femmes. 865 « The Death of Buzz Goodbody », Spare Rib, juin 1975, p. 5. « Abortion news », Spare Rib, juin 1976, p. 20. 867 « Abortion conference: structure and feminism », Spare Rib, janvier 1976, pp. 20-21. 868 « Guide to Women's Theatre Groups », Spare Rib, mars 1979, pp. 18-21. 869 « Abortion Act threat: 3», Spare Rib, avril 1975, pp. 17-18. « Trade unions criticise TUC article », Spare Rib, january 1976, p. 25. 866 295 296 Claire Mansour, Diffusion et évolution des mouvements sociaux 2.1.3.5. Création des women's centres Un des grands succès du mouvement britannique de libération des femmes fut sans doute la création, à travers le pays, de centres spécialisés appelés « women's centres ». Ces lieux communautaires, à mi-chemin entre les institutions alternatives et les projets sociaux, étaient des applications concrètes des idéaux égalitaires de la Nouvelle Gauche. Ils furent la plupart du temps ouverts par des groupes de féministes désirant créer un espace où elles pouvaient tenir leur séances de sensibilisation, et mettre en pratique leurs idées. Ainsi, leurs rôles variaient localement et évoluaient en fonction des besoins. Certains organisaient des cours d'autodéfense, de bricolage ou d'histoire, tandis que d'autres servaient de halte-garderie, de centres d'information sur la contraception, de centres d'aide aux victimes de viol ou même de refuge pour femmes et enfants battus 870. À Londres, l'un deux devint même une agence d'intérim féministe à but nonlucratif, nommée « She Can Do It », et permettant à ses membres d'exercer tout type de métier, y compris ceux habituellement réservés aux hommes, comme monitrice de conduite ou déménageuse 871. Les locaux étaient parfois prêtés ou loués pour des sommes modestes par les municipalités, ou encore occupés illégalement 872. Cette dernière tendance fut assez fréquente, et tirait son origine du succès des campagnes de squatters bourgeonnant sur tout le territoire. Dans de nombreux cas, les féministes à l'origine de la décision d'établir un women's centre dans un bâtiment inoccupé avaient pris part à ces actions, ou avaient elles-mêmes vécues dans des logements occupés de manière illégale. Celui de Brixton, par exemple, fut établi dans une maison vacante, et servit également de quartier général au groupe de squatters militants du quartier 873. Son collectif proposait aussi un service de conseil juridique, de garderie, et d'aide à l'obtention des prestations 870 « Women's Centres », Spare Rib, février 1974, p. 19. Ibid. « She can do it », Spare Rib, juillet 1973, p. 14. 872 « Beaten up women and their children », Spare Rib, juin 1973, pp. 4-5, 12. « Women's Centres », Spare Rib, février 1974, p. 19. 873 « How to start a women's centre », Peace News, 24 mai 1974, pp. 10-11. 871 2ème Partie - 1 : Mouvement féministe sociales pour toute la communauté locale. Ces initiatives rappelaient également les stratégies de community organising chères aux partisans du Black Power, dont le mode d'action était principalement basé sur l'entraide et l'autonomie à l'échelle locale. Le premier groupe de féministes noires fut d'ailleurs formé à Brixton, point de convergence entre les deux mouvements. Le Brixton Black Women's Group vit le jour en 1973, sous l'impulsion d'Olive Morris et de Gerlin Bean. La première était une ancienne membre du Black Panther Movement, tandis que la seconde avait assisté à la conférence inaugurale du mouvement de libération des femmes à Oxford, et en était ressortie convaincue de la nécessité de former un mouvement distinct, afin de répondre aux problèmes spécifiques des femmes des communautés issues de l'immigration 874 . Quelques années plus tard, le même noyau de militantes fut également à l'origine du Black Women's Centre, à Brixton, premier du genre. Les activités du centre témoignaient de la dualité de ses influences : services d'aide à la communauté, aux femmes en particulier, haltesgarderies et ateliers-boutiques vendant des objets d'artisanat africain 875. 2.1.3.6. Campagne contre les violences faites aux femmes Avec l'essor du féminisme radical au cours des années 1970, le mouvement de libération des femmes prit une nouvelle orientation. Ce courant identifiait le patriarcat, c'est-à-dire le système de domination masculine, comme cause première de l'oppression des femmes. Pour les partisanes de cette doctrine, les solutions possibles pouvaient aller jusqu'au séparatisme et au lesbianisme politique 876. Ainsi, dans un article de Peace News en 1975, la féministe américaine Andrea Dworkin clamait : « [] our oppressors are not only male heads of state, male capitalists, male militarists – but also our fathers, sons, husbands, brothers, and lovers ». À ses 874 « Gerlin », Shrew, septembre 1971, pp. 10-12. Nathalie THOMLINSON, op. cit., p. 71. 876 Rejet de la norme de l'hétérosexualité pour des raisons politiques, dans la mesure où celle-ci est perçue comme le fondement même du patriarcat. 875 297 298 Claire Mansour, Diffusion et évolution des mouvements sociaux yeux, les responsables de l'assujettissement des femmes étaient donc les hommes dans leur ensemble, et le système garantissant leur hégémonie. De là découlait la nécessité de s'en affranchir : « We will repudiate the whole patriarchal system, with its sadomasochistic institutions, with its social scenarios of dominance and submission all based on the male-over-female model » 877 . Même si l'idéologie du féminisme radical fut seulement mise en pratique par une petite minorité de militantes vivant dans des communautés séparatistes, elle eut néanmoins des répercussions concrètes sur le mouvement, notamment en le recentrant sur le problème des violences faites aux femmes. Les articles et les publications sur le sujet se multiplièrent, et différents types d'action furent organisés : conférences, manifestations, diffusion de témoignages à la radio, piquets de protestation devant les tribunaux pour demander des peines plus sévères contre les agresseurs, etc. Afin de souligner la brutalité des actes de violences qu'elles dénonçaient, les militantes choisirent d'accentuer l'aspect festif et gai de leurs mobilisations en se déguisant, en jouant de la musique et en faisant du bruit à l'aide de différents ustensiles comme des batteries de cuisine 878. La tactique la plus emblématique de la campagne fut la série des marches nocturnes aux flambeaux « Reclaim the Night ». Résultat d'un processus de diffusion du mouvement féministe d'Allemagne de l'Ouest, ces manifestations dénonçaient les violences sexistes et revendiquaient le droit des femmes de se promener la nuit en sécurité et sans culpabilisation. Après avoir lu un article dans la publication féministe Spare Rib sur ces marches allemandes 879, les féministes radicales du Leeds Revolutionary Feminist Group décidèrent d'adopter la stratégie. Le 12 novembre 1977, dans une douzaine de ville de Grande-Bretagne, des centaines de femmes défilèrent dans un joyeux tintamarre, dansant et chantant à la lueur des flambeaux 880 . L'évènement fut considéré comme un grand succès et fut 877 « Up from under », Peace News, 21 novembre 1975, pp. 10-11. « Women against violence », Peace News, 23 mars 1979, p. 4. 879 « Germany: Reclaiming the night », Spare Rib, août 1977, p. 21. 880 « We will walk without fear », Spare Rib, janvier 1978, pp. 22-23. 878 2ème Partie - 1 : Mouvement féministe reconduit à plusieurs reprises au cours des années suivantes 881 . La septième demande du mouvement de libération des femmes destinées à lutter contre les violences sexistes fut ajoutée peu de temps après, lors de la dernière conférence nationale à Birmingham, en avril 1978 882. Les féministes engagées dans cette campagne s'impliquèrent souvent aussi dans le combat antifasciste qui battait son plein à l'époque. Leur prise de position particulière les conduisit à militer au sein d'organisations distinctes. Elles rejetaient le National Front et autres groupes d'extrême droite, avant tout en raison de leur vision conservatrice rigide des genres et du rôle de la femme, qui selon elles, motivait les agressions sexistes et homophobes 883 . Ainsi, lorsqu'elles prenaient part aux actions antifascistes, elles le faisaient souvent sous leurs propres bannières, comme lors de la contre-manifestation restée dans les mémoires sous le nom de « bataille de Lewisham », où 300 participantes défilèrent au sein du Women Against Racism and Fascism 884. Cette séparation était également justifiée par leur aversion pour les tactiques « musclées » des collectifs antifascistes, qui cherchaient la confrontation avec leurs opposants. Se targuant de vouloir « écraser » le NF jusque dans leurs slogans (« smash the National Front »), ils échangeaient régulièrement insultes et coups lors de leurs face-à-face. Les féministes dénoncèrent leur brutalité, et l'effet négatif que leur stratégie pouvait avoir sur la crédibilité du mouvement ainsi que sur sa participation 885 . Elles fustigèrent aussi le sexisme régnant dans le milieu antifasciste, reprenant le concept de leurs concerts phare Rock Against Racism pour les transformer en Rock Against Sexism. Lancés en 1978, ces évènements visaient également à lutter contre les paroles et l'image machiste de la musique rock, et à promouvoir des groupes 881 « News Shorts », Spare Rib, mai 1978, p. 11. « Women unite, reclaim the night », Peace News, 17 novembre 1978, p. 3. « News Shorts », Spare Rib, mai 1978, p. 11. « Male violence, female dilemma », Spare Rib, janvier 1979, p. 9. 882 Entrefilet sans titre, Spare Rib, juin 1978, p. 5. 883 « Fascist threat », Spare Rib, février 1978, p. 13. 884 « Lewisham march », Peace News, 26 août 1977, p. 3. 885 « No to the politics of hate », Peace News, 21 octobre 1977, pp. 8-9. « Feminists facing fascism », Shrew, été 1978, pp. 22-23. 299 300 Claire Mansour, Diffusion et évolution des mouvements sociaux de femmes ou d'homosexuels ayant plus de mal à percer 886. Mais si la tendance à créer des groupes distincts devait avant tout favoriser l'émancipation de leurs membres, sa dérive consistant à faire sécession à la moindre divergence idéologique ou pratique allait aboutir à la fragmentation du mouvement. 2.1.4. Déclin 2.1.4.1. Division du mouvement Depuis ses débuts, le mouvement de libération des femmes était caractérisé par son hétérogénéité. Les divisions entre les différents collectifs de la gauche radicale se retrouvaient au sein du mouvement, avec des groupes féministes affiliés à l'IMG, à la RSSF ou à l'IS. L'expérience de la condition féminine pouvant varier grandement selon l'âge, les classes sociales, la couleur de peau et la sexualité, d'autres scissions apparurent avec la montée des politiques identitaires au cours de la décennie. Lors de la conférence nationale d'avril 1977 à Londres, ces disparités transparaissaient clairement dans la manière dont les militantes se répartissaient par ateliers, en fonction de leurs sentiments identitaires. Les féministes des classes populaires s'estimaient négligées par celles de la classe moyenne qui dominaient le mouvement, les plus âgées se sentaient exclues, tandis que les quelques militantes noires présentes s'offusquaient des préjugés racistes sur les violeurs noirs. Mais le thème suscitant le plus de friction fut sans doute les relations hommes-femmes, particulièrement dans le contexte des violences sexistes et du séparatisme 887 . Les mêmes phénomènes étaient observables au sein des groupes féministes à l'échelle locale. La campagne demandant une compensation salariale pour les corvées domestiques (« Wages for Housework ») accentua les fractures au sein du mouvement, d'autant plus que ce 886 887 « Love music, hate sexism », Spare Rib, avril 1979, pp. 6-7. « Women's Liberation 1977 », Spare Rib, mai 1977, pp. 6-16. 2ème Partie - 1 : Mouvement féministe courant déjà marginal était lui-même clivé selon des lignes ethno-raciales, comme cela était par exemple le cas à Bristol où le collectif Black Bristol Wages for Housework rassemblait les féministes noires soutenant cette revendication 888. Les tensions atteignirent leur paroxysme à la conférence de Birmingham en avril 1978, qui fut aussi la dernière. Les nombreux témoignages publiés par la suite dans Spare Rib faisaient état non plus de divergences d'opinion, mais de fractures irrémédiables, et questionnaient l'avenir du mouvement 889. Sans ces rendez-vous annuels et le dénominateur commun des demandes qui étaient votées à ces occasions, la mobilisation perdit sa cohérence en tant que mouvement national. 2.1.4.2. Fermeture de la structure des opportunités politiques Comme pour les autres mouvements des longues années soixante, la deuxième vague de féminisme souffrit d'une couverture médiatique dévalorisante et de la répression étatique. Les représentations stéréotypées des militantes dans la presse traditionnelle devinrent monnaie courante, comme les clichés des « brûleuses de soutien-gorge » (« bra-burners »), des androphobes (« man-haters »), des femmes poilues aux allures masculines, des lesbiennes, etc. La très influente Jean Rook, journaliste au Daily Express surnommée la Première dame de Fleet Street, donna un exemple de ce type de caricature dénigrante dans une description des féministes qu'elle qualifiait de « hairy legged braless dykey women storming into bars »890. À cela s'ajoutait l'intervention des pouvoirs publics contre ceux qu'elles désignaient comme des fauteurs de troubles. Avec l'approche de plus en plus répressive des autorités, les différents groupes féministes devinrent la cible de raids de la part des forces spéciales, de harcèlement et de brutalités 888 « Wages for Housework », Peace News, 25 juin 1976, p. 16. « Bristol women's centre statement », Spare Rib, janvier 1978, p. 5. 889 « Conference », Spare Rib, juin 1978, pp. 6-7. « Another view of the plenary », Spare Rib, août 1978, pp. 20-21. 890 « The ones that got away», Spare Rib, février 1974, pp. 22-23. 301 302 Claire Mansour, Diffusion et évolution des mouvements sociaux policières lors des actions collectives 891. L'arrivée au pouvoir des conservateurs en 1979 renforça la conviction des militantes que des mesures encore plus sévères et drastiques seraient prises à leur encontre, étant donné leur promesse de campagne de restaurer l'ordre public et de mettre un terme aux grèves incessantes 892. De plus, l'élection d'une femme à la tête du pays pour la première fois dans l'histoire britannique fut loin de marquer le début d'une période plus propice à leur émancipation. Tout d'abord, la composition de son premier gouvernement fut exclusivement masculine. Cela n'échappa d'ailleurs pas à l'attention des féministes, qui, visiblement exaspérées d'entendre que l'arrivée au pouvoir de Thatcher était une victoire pour leur cause, répliquèrent avec le slogan « One Prime Minister doesn't make a matriarchy », arguant que les vrais bénéficiaires seraient les classes sociales supérieures (voir annexe 22) 893 . Plus encore, le symbole d'une Première ministre desservit la cause de l'égalité des sexes dans la mesure où cela laissait penser qu'il n'y avait plus d'obstacles structurels à l'accession des femmes aux postes à responsabilités. C'est d'ailleurs ce qu'affirma Margaret Thatcher quelques jours avant sa victoire, lors d'une conférence de presse : I mean really my generation really had quite a lot of opportunities you know. I wouldn't be sitting here if I hadn't. I didn't get them by being some strident female. I don't like strident females. I like people who have ability, who don't run the feminist ticket too hard, after all I reckon if you get anywhere it's because of your ability as a person. It's not because of your sex.894 Rejetant clairement ici tout association avec le mouvement féministe, Thatcher insinuait ne devoir son succès qu'à ses propres qualités. Selon cette vision 891 « Is Margaret Thatcher for women? », Spare Rib, mai 1979, pp. 3-4. Ibid. 893 « One Prime Minister doesn't make a matriarchy », Spare Rib, juin 1979, p. 10. 894 Margaret THATCHER, « General Election Press Conference ('Scottish Press Conference') », 26 avril 1979, Margaret Thatcher Foundation [en ligne], [consulté le 2 janvier 2018], disponible à l'adresse suivante : <https://www.margaretthatcher.org/document/104045>. 892 2ème Partie - 1 : Mouvement féministe typiquement méritocratique, la clé de la réussite résidait dans le talent et les efforts personnels. Par conséquent, les échecs ne pouvaient être imputés à un dysfonctionnement systémique et relevait donc de l'ordre de la responsabilité individuelle. Cet argument légitimait également le désengagement de l'État en matière de politiques sociales. Ainsi, les demandes du mouvement de libération des femmes telles que les crèches ouvertes en permanence, se heurtaient à un climat politique de moins en moins réceptif à de telles revendications. Dans le contexte des coupes budgétaires drastiques imposées par le nouveau gouvernement, elles durent même au contraire lutter pour défendre leurs acquis. La loi sur l'Éducation de 1980 affranchissait par exemple les autorités locales de leur obligation, datant de 1944, de prendre en charge le transport et les repas de midi des écoliers. Cette réforme ajouta donc une charge de travail supplémentaire pour les mères, qui dans la très grande majorité des cas, devaient dorénavant s'occuper des repas du midi des enfants et les accompagner à l'école 895. Quant aux demandes portant sur la contraception et l'avortement libres et gratuits, elles pâtirent également du retour de flamme conservateur, au sein duquel la « permissivité » des longues années soixante était de plus en plus pointée du doigt. De plus, Thatcher avait dans ses discours une vision souvent réactionnaire des femmes, dont les rôles essentiels à ses yeux étaient ceux d'épouses et de mères, veillant à la cohésion et au bon fonctionnement du logis. Ainsi, elle déclara à propos des jeunes mères au foyer « I will not have them criticized in any way for doing perhaps one of the most important jobs in the world, which is keeping family life together » 896. Le paradoxe apparent du déclin du mouvement de libération des femmes au moment où l'une d'entre elles prenait les rênes de la nation n'était donc pas une coïncidence ironique. 895 « No more school meals, books, buses», Spare Rib, mai 1979, pp. 3-4. Margaret THATCHER, « General Election Press Conference ('Scottish Press Conference') », 26 avril 1979, Margaret Thatcher Foundation [en ligne], [consulté le 2 janvier 2018], disponible à l'adresse suivante : <https://www.margaretthatcher.org/document/104045>. 896 303 304 Claire Mansour, Diffusion et évolution des mouvements sociaux 2.1.4.3. Conclusion et impact du mouvement La deuxième vague de féminisme au Royaume-Uni émergea grâce aux mouvements qui le précédèrent, en entraînant une prise de conscience de la condition féminine. Le mouvement pour le désarmement nucléaire permit à la fois à certaines femmes d'occuper des fonctions à responsabilités au sein de ses organisations principales et de prendre la parole lors des rassemblements, mais également à d'autres de s'engager dans des groupes locaux non-mixtes, autonomes et sans hiérarchie stricte, qui allaient devenir la clé de voute du mouvement de libération des femmes. Un cadre de résonnance spécifique fut ensuite élaboré en adaptant ceux des mouvements pour la guerre du Vietnam et pour l'égalité raciale, identifiant dorénavant les femmes comme un groupe opprimé. Le décalage entre les revendications égalitaires des militants des différentes organisations et le sexisme ambiant, poussèrent leurs membres féminins à créer leurs propres associations. En 1968, une série de mobilisations des femmes des classes populaires aboutirent à une campagne nationale pour l'égalité salariale, tandis que leurs meneuses étaient érigées au rang d'héroïnes de la cause féminine. Ainsi, malgré les nombreux emprunts tactiques et idéologiques au mouvement américain de libération des femmes, la version britannique fut caractérisée par un ancrage beaucoup plus marqué à gauche. Cela s'en ressentit jusque dans sa structure organisationnelle, qui mettait en pratique les idéaux de participation, d'horizontalité et d'autonomie chers à la Nouvelle Gauche. À travers une nébuleuse de petits collectifs éparpillés sur le territoire national, le mouvement s'épanouit. Des groupes de sensibilisation à la création de « women's centres », il eut des répercussions concrètes sur la vie de nombreuses femmes, pas simplement des militantes, et permit une transformation lente mais profonde de la société britannique. Il induisit d'importantes avancées législatives, notamment en matière d'égalité salariale, de protection sociale, de lutte contre les discriminations et contre les violences faites aux femmes. Mais ces mesures n'aboutirent pas pour autant à une égalité réelle entre les sexes, comme en faisait état la lettre ouverte déchantée de la nouvelle génération de militantes aux 2ème Partie - 1 : Mouvement féministe suffragettes, lors de la commémoration des cinquante ans du suffrage universel féminin en 1978 897 . Tout comme l'obtention du droit de vote, les réformes obtenues étaient jugées insuffisantes : Eight years after men gave us the Equal Pay Act (do not be misled, there are still only 27 women MPs), the average male wage is £78.60, the average female wage is £51.00. Three years after the Sex Discrimination Act became law, it is still impossible for young women to get equal education in school or to have equal access to trade apprenticeships, or for older women to get equal consideration for jobs – and these are things that are supposedly within the power of the law – the vote – to give us.898 Les féministes ne se laissaient pas pour autant décourager et concluaient leur lettre en promettant de poursuivre le combat, par le biais d'actions directes à l'échelle locale. Ainsi, l'impact le plus significatif du mouvement fut sans doute d'ouvrir la voie à un changement progressif des mentalités sur les différences de traitement entre les sexes et le rôle des femmes. La deuxième vague de féminisme se développa à la fois à l'intérieur et en réaction aux mouvements précédents. En rejetant les travers qu'elles percevaient dans les organisations où elles avaient fait leurs armes (manque de participation, direction déconnectée de la base, etc.), les militantes poussèrent encore plus loin les idéaux de la Nouvelle Gauche et tissèrent un réseau de collectifs décentralisé. Ce mode de fonctionnement résidant entièrement sur l'auto-organisation allait également devenir une caractéristique du mouvement qui émergea directement dans son sillage : le mouvement de libération gay. Ce dernier allait aussi s'appuyer sur ces cadres et ses tactiques pour les réinventer en les adaptant à ses revendications. De plus, une autre conséquence importante de la politisation croissante des femmes à travers le mouvement fut la création de différentes 897 En 1918, la loi sur le suffrage Representation of the People's Act avait donné le droit de vote à tous les hommes majeurs, sans condition de revenus, et aux femmes de plus de trente ans, payant l'impôt sur la propriété ou mariées à des hommes remplissant cette condition. Ce ne fut que dix ans plus tard, en 1928, que ces restrictions furent abolies et que le suffrage universel fut adopté. 898 « Editorial », Spare Rib, août 1978, pp. 3-4. 305 306 Claire Mansour, Diffusion et évolution des mouvements sociaux associations féminines oeuvrant pour d'autres causes au sein de groupes nonmixtes, comme par exemple ceux des Écossaises luttant pour la dévolution, ou des Nord-Irlandaises réclamant la cessation des hostilités dans leur région. 2ème Partie - 2 : Mouvement gay et lesbien 2.2. LE MOUVEMENT GAY ET LESBIEN Le choix est fait ici de parler en priorité de mouvement gay et lesbien en accord avec les termes en vogue à l'époque au Royaume-Uni. L'expression LGBT (Lesbien, gay, bisexuel et transsexuel/transgenre) serait anachronique pour renvoyer au mouvement des longues années soixante, puisqu'elle est apparue dans les années 1980. Quant au terme « homosexuel », il commença à être utilisé à la fin du XIXe siècle dans le milieu médical. Dans l'esprit des militants, il était associé à une vision pathologique de l'homosexualité, considérée comme une maladie psychologique par de nombreux membres du corps médical jusqu'aux années 1970, et fut donc délaissé 899. Ils lui reprochaient également son cloisonnement hermétique de la sexualité, véhiculé par la dichotomie hétérosexuel/homosexuel. Ils lui préférèrent celui de « gay », dont l'étymologie française renvoyait aux plaisirs frivoles, et que les médias traditionnels finirent par reprendre à leur tour 900. À l'instar du féminisme, la phase dite de « libération gay » du mouvement reflétait ainsi son nouveau ton affirmé et audacieux, faisant suite au tournant militant en 1969 pour les États-Unis, et 1970 pour le Royaume-Uni. Même si le terme « gay » n'était pas spécifiquement masculin, certaines militantes se définissaient plutôt comme « lesbiennes » afin de gagner en visibilité, évitant ainsi d'être éclipsées au sein d'un mouvement dominé par les hommes. Leur situation particulière, à la croisée des mouvements homosexuels et féministes, fut d'ailleurs l'objet de tensions et d'allégeances fluctuantes. De plus, le lesbianisme ne tombait pas sous le coup de la loi, contrairement aux pratiques homosexuelles masculines. Si ces dernières n'étaient plus passibles de la peine de mort depuis 1861, elles étaient néanmoins toujours considérées comme criminelles du fait de l'amendement Labouchere. En 1885, son instigateur, le député Henry 899 Jeffrey WEEKS, Sex, Politics and Society : The Regulation of Sexuality since 1800, Oxon : Routldege, 2012, p. 147. 900 « Editorial », Gay News, 1er septembre 1972, p. 2. 307 308 Claire Mansour, Diffusion et évolution des mouvements sociaux Labouchere, avait ajouté une clause à une proposition de loi qui concernait à l'origine la prostitution, rendant passible d'une peine de prison, assortie ou non de travaux forcés, tout acte contraire aux bonnes moeurs (« gross indecency ») commis par des hommes, dans un cadre public ou privé. Cette mesure responsable de la condamnation d'Oscar Wilde en 1895, plaça l'homosexualité au premier plan du débat national. Les premières associations pour la défense des intérêts des homosexuels apparurent à cette époque au Royaume-Uni 901. Mais il fallut attendre la deuxième moitié du vingtième siècle, pour qu'émerge un mouvement portant ouvertement leurs revendications. L'analyse de ce mouvement s'appuiera sur diverses publications. Les journaux gay furent fondés, comme leurs équivalents féministes, en réaction à l'hostilité manifestée à l'encontre des homosexuels dans la presse traditionnelle mais aussi dans les organes étudiants, contre-culturels et de la gauche radicale. Le magazine Gay News représentera le point de vue des militants modérés, tandis que la revue Gay Left reflètera celui des membres homosexuels des organisations de la gauche radicale. Le bulletin du Gay Liberation Front de New York, Come Out!, permettra d'étudier les liens étroits avec le mouvement américain. L'hebdomadaire Peace News se posa également en défenseur de la cause homosexuelle et rendra compte de l'état du mouvement avant que ses organes spécifiques ne soient créés. Enfin les publications étudiantes, contre-culturelles et de la gauche radicale permettront d'examiner le rôle de ces différents milieux dans l'évolution du mouvement. 901 Jeffrey WEEKS, Coming Out: Homosexual Politics in Britain from the Nineteenth Century to the Present, Londres : Quartet Books, 1979, pp. 118-127. 2ème Partie - 2 : Mouvement gay et lesbien 2.2.1. Émergence : facteurs environnementaux internationaux et locaux 2.2.1.1. Impact de la Seconde Guerre mondiale et de la guerre froide Ces deux conflits eurent des effets opposés sur la vision des rôles attribués aux deux sexes et les moeurs sexuelles des Britanniques. Le premier constitua une période plutôt permissive, ou le sentiment de crise permanente plaçait les individus dans des circonstances exceptionnelles, favorisant ainsi des comportements plus risqués, comme les liaisons extra-conjugales. La guerre entraîna une ségrégation des sexes, à la fois dans les forces armées mais aussi à l'arrière, avec la participation des femmes à l'effort de guerre. De nombreux homosexuels furent ainsi mis en contact, alors que des individus se considérant comme hétérosexuels expérimentèrent ces pratiques pour la première fois 902. Le conflit bouscula plus généralement les codes traditionnels des genres, tandis que des alternatives au modèle de la famille nucléaire étaient fugacement mises en pratique. Dès la fin de la guerre, l'opprobre jeté sur ce type d'actes sexuels fut rapidement réinstauré avec le retour aux valeurs familialistes. Ce phénomène fut encore exacerbé par le climat de paranoïa anticommuniste de la guerre froide. Sous l'ère McCarthy, les services secrets américains redoutaient que l'administration britannique ne soit infiltrée par les communistes. Ils exercèrent des pressions sur les autorités pour que les fonctionnaires jugés susceptibles de se livrer à des activités clandestines soient écartés 903. Du fait de leurs moeurs illicites, les homosexuels étaient perçus comme des cibles particulièrement vulnérables au chantage des Soviétiques, et donc comme de potentiels espions. Cet amalgame fut accrédité par une série de scandales ayant révélé les activités d'agents doubles britanniques, comme Guy Burgess et Donald MacLean, qui avaient fui en URSS 902 Alkarim JIVANI, It's Not Unusual: A History of Lesbian and Gay Britain in the Twentieth Century, Londres : Michael O'Mara, 1997, p. 65-66. Stephen M. ENGEL, op. cit., p. 68. 903 Adam LENT, op. cit., p. 11. 309 310 Claire Mansour, Diffusion et évolution des mouvements sociaux en 1951, et dont le traitement sensationnaliste dans la presse n'avait rien caché de leur orientation sexuelle. L'atmosphère de chasse aux sorcière fut alimentée par les médias par le biais d'articles destinés à démasquer les traitres à la nation en listant les prétendus signes extérieurs d'homosexualité, avec des titres tapageurs tels que « How to spot a possible homo », ou « Ten ways to spot a homosexual »904. À la même époque, des voix s'élevèrent contre ce lynchage médiatique, arguant justement du fait que de nombreux homosexuels avaient combattus bravement pendant la dernière guerre. Leur but était de déconstruire les clichés des homosexuels pleutres et déloyaux en vantant leur courage et leur virilité, dans l'optique d'obtenir la dépénalisation des pratiques homosexuelles masculines 905. 2.2.1.2. Influence des travaux de psychologie Tout comme ils avaient influencé la conception de la féminité et de la place des femmes au sein de la société, les travaux de recherche en psychologie pesèrent sur la vision des homosexuels dans la culture dominante. Si pour Sigmund Freud l'homosexualité ne relevait ni de la pathologie ni de la perversion, il n'en fut pas de même pour ses disciples, au premier rang desquels sa fille Anna, qui adoptèrent une position plus régressive. Les postulats freudiens de l'arrêt du développement sexuel dans l'enfance ou de la peur de la castration comme possibles causes de l'homosexualité les conduisirent à réaffirmer son caractère pathologique et donc à soutenir que les homosexuels pouvaient être soignés 906. Ce revirement des spécialistes engendra par la suite la croyance populaire selon laquelle l'homosexualité était une maladie, et donc du ressort de la médecine 904 Lisa POWER, No Bath But Plenty of Bubbles: An Oral History of the Gay Liberation Front 1970-73, Londres : Cassell, 1995, p. 10. « The era when gay spies were feared », BBC News, 20 janvier 2016 [en ligne], [consulté le 29 janvier 2018], disponible à l'adresse suivante : <http://www.bbc.com/news/magazine-35360172>. 905 « Homosexuality and violence », Peace News, 22 mars 1963, p. 10. 906 Maragaret CRUIKSHANK, The Gay and Lesbian Liberation Movement, New York : Routledge, 1992, p. 7. Ruth MENAHEM, « Désorientations sexuelles. Freud et l'homosexualité », Revue française de psychanalyse, 67, no. 1, 2003, pp. 15-16. 311 2ème Partie - 2 : Mouvement gay et lesbien plutôt que de la religion ou de la loi. Le destin tragique du mathématicien Alan Turing, célèbre pour son rôle essentiel dans le décryptage des codes secrets nazis, encouragea également une plus grande tolérance à l'égard des homosexuels. Après avoir été condamné pour ses pratiques sexuelles, Turing évita la peine d'emprisonnement en acceptant un traitement hormonal, c'est-à-dire une forme de castration chimique. Deux ans plus tard, en 1954, Turing était retrouvé mort à son domicile, et les autorités conclurent au suicide. La publication en 1948 et 1953 des rapports d'un chercheur américain, Alfred Kinsey, résultant d'enquêtes menées sur une douzaine de milliers d'individus, suscita de vives réactions dans l'opinion publique. Ces études affirmaient que 37% des hommes et 13% des femmes interrogés avaient déjà eu au moins une expérience homosexuelle dans leur vie 907. En classant les sujets sur une échelle allant d'un pôle exclusivement hétérosexuel à un autre exclusivement homosexuel, Kinsey remettait en question la vision dominante de l'hétérosexualité comme la seule norme de la sexualité humaine. Si la méthodologie et les mérites scientifiques de ces études furent contestés, cela ne les empêcha pas d'influencer grandement les militants homosexuels des décennies suivantes, ce qui aboutit d'ailleurs à de grossières exagérations de leurs conclusions. Les tentatives d'estimation du nombre d'homosexuels furent très souvent majorées, du fait de simplifications excessives des données de ces rapports. Les étudiants gay militants invoquèrent à tout-va le nom de Kinsey pour justifier le chiffre de un sur vingt, voire même parfois un sur dix 908 , démontrant ainsi que les homosexuels étaient des personnes ordinaires, bien loin des clichés extravagants : How many homosexuals do you think there are in this University? Ten? A hundred? Two hundred? In fact there are at least 500 according to 907 Florence TAMAGNE, « Genre et homosexualité. De l'influence des stéréotypes homophobes sur les représentations de l'homosexualité », Vingtième Siècle. Revue d'histoire, no. 75, 2002/3, pp. 61-73. 908 « Gay Liberation », The Beaver, 29 octobre 1970, p. 4. « 'Homosexuals' – It's not a 'gay' thing to be at all », Leeds Student, 19 mars 1971, pp. 6-7. « Gay Liberation Front », Campus, 11 mars 1972, p. 10. « How dare you presume I'm straight », The Glasgow University Guardian, 17 avril 1975, p. 4. 312 Claire Mansour, Diffusion et évolution des mouvements sociaux Kinsey's statistic of 1 in 20. And don't you think you don't know any – we don't all float around in clouds of pink chiffon and cheap scent, camping our way down University Avenue.909 Les travaux d'Alfred Kinsey contribuèrent à changer les perceptions de l'homosexualité, en amenant dans le débat public l'idée qu'elle puisse être une orientation sexuelle naturelle et répandue, et non plus un vice auquel s'adonnait une poignée de déviants. Les pratiques homosexuelles étaient de plus en plus fréquemment considérées comme relevant de choix moraux individuels. Dans le sillage des scientifiques, des opinions plus progressistes émergèrent également au sein des institutions religieuses et législatives. 2.2.1.3. Publication des rapports de l'Eglise Anglicane et de la commission parlementaire Wolfenden À contre-courant de l'hostilité ambiante, l'Église anglicane publia un rapport intitulé « The Problem of Homosexuality » en 1954, concluant à la nécessité de réformer la loi pour dépénaliser les pratiques homosexuelles. Il prônait plus particulièrement la révision de l'amendement Labouchere, considérant que l'homosexualité masculine était une question morale, au même titre que le lesbianisme ou l'adultère, et ne devait donc pas faire l'objet d'une interdiction légale. L'âge de consentement devait également être abaissé à 16 ans, à l'instar des couples hétérosexuels 910 . À la même époque, un nombre croissant de personnalités, parmi lesquelles des hommes politiques, furent condamnées dans le contexte de la répression contre les homosexuels. Le gouvernement accepta, à la demande d'un groupe de députés, qu'une commission parlementaire enquête à son tour sur le sujet. En 1957, le fruit de leur travail fut rendu public sous la forme du rapport Wolfenden, qui conclut également à la nécessité d'abroger l'amendement Labouchere, mais de maintenir l'âge du consentement à 21 ans. 909 910 « Gays in G.U. », The Glasgow University Guardian, 19 avril 1973, p. 4. Stephen M. ENGEL, op. cit., p. 70. 2ème Partie - 2 : Mouvement gay et lesbien L'idée sous-jacente réaffirmait que la loi n'avait pas à se prononcer sur l'immoralité des comportements sexuels entre adultes consentants. Pourtant, ni le gouvernement, ni la majorité de l'opinion publique ne furent suffisamment convaincus par ces arguments 911. Dans le but d'obtenir une réforme législative selon les recommandations de ces rapports, une campagne de lobbying et de sensibilisation vit le jour. 2.2.1.4. Libération des moeurs et campagne réformiste Afin de profiter de l'ouverture dans la structure des opportunités politiques que représentaient les conclusions de ces rapports, un universitaire du nom d'Anthony E. Dyson lança une campagne appelant à la réforme du statut de l'homosexualité. Elle débuta par une lettre au journal The Times en mars 1958 demandant l'application immédiate des recommandations du rapport Wolfenden. Cette lettre fut cosignée par une trentaine d'intellectuels et de personnalités politiques et religieuses, parmi lesquels l'ancien Premier ministre travailliste Clement Attlee, mais aussi de nombreux membres éminents de la CND qui venait d'être fondée, tels que Bertrand Russell, le révérend Donald Soper ou J. B. Priestley. Ils constituèrent également le noyau fondateur de l'organisation Homosexual Law Reform Society (HLRS) en mai 1958 912. Cette association modérée cultivait une image respectable et discrète, en mettant en avant le soutien de membres hétérosexuels ainsi qu'en restreignant principalement ses activités aux tactiques modérées et constitutionnelles de lobbying des parlementaires, de sensibilisation de l'opinion publique à travers la publication de lettres dans les journaux et l'organisation de conférences 913. Leur première réunion publique en mai 1960 rassembla environ un millier de personnes à Londres, témoignant d'un changement progressif des mentalités. Un article paru dans le magazine 911 Jonathon GREEN, op. cit., p. 382-4. Ibid., p. 385. 913 Adam LENT, op. cit., p. 13. 912 313 314 Claire Mansour, Diffusion et évolution des mouvements sociaux conservateur The Spectator le mois suivant fustigeait la réticence du gouvernement à prendre l'initiative, et affirmait que l'opinion de la population était favorable à la dépénalisation de l'homosexualité masculine 914. Au cours de la décennie, les effets de la « révolution sexuelle » avaient entraîné la levée de certains tabous sur la sexualité. Cette attitude plus franche ouvrit la voie aux réformes progressistes du ministre de l'Intérieur Roy Jenkins visant à rendre la société britannique plus « civilisée » (« civilised society »), comme il le rétorqua par la suite à ses détracteurs l'accusant de l'avoir rendue trop « permissive » 915 . Mais il fallut attendre la réélection des travaillistes en 1966, avec une majorité plus confortable, pour que Jenkins réussisse à convaincre Harold Wilson d'appuyer la proposition de réforme du député Leopold Abse (dit « Leo »). En juillet 1967, le Sexual Offences Act autorisait les pratiques sexuelles entre deux hommes de plus de 21 ans en Angleterre et au pays de Galles, sauf dans l'armée et la marine marchande. La loi ne fut pas étendue à l'Écosse du fait d'une forte opposition au sein de la population916. Pour les réformistes de la première heure, cette mesure marquait l'aboutissement d'une décennie de mobilisation. Ainsi, la HLRS tomba en désuétude, sauf sa fondation, l'Albany Trust, qui continua ses activités de recherche et de conseil 917 . Avec l'essor des différentes mobilisations luttant contre les discriminations, et plus généralement pour la libération des groupes opprimés, les limites de la loi de 1967 allaient apparaître à la nouvelle génération de militants déjà impliqués dans ces mouvements. 914 « Stand up and be counted », The Spectator, 24 juin 1960, pp. 3-4. Arthur MARWICK, op. cit., p. 261. 916 Dominic SANDBROOK, White Heat, op. cit., p. 498. 917 Adam LENT, op cit., p. 14. 915 2ème Partie - 2 : Mouvement gay et lesbien 2.2.2. Influence des mouvements précédents 2.2.2.1. Le mouvement pour le désarmement nucléaire Comme pour la plupart des autres mobilisations de l'époque, de nombreux futurs dirigeants et militants du mouvement gay et lesbien firent leurs armes au sein de la CND et du C100. Étant donné que l'engagement de la plupart des partisans du désarmement nucléaire émanait de considérations morales, il n'est guère surprenant de voir que bon nombre d'entre eux prirent également position en faveur de la dépénalisation de l'homosexualité. Les situations dans lesquelles la loi plaçait les homosexuels masculins, en les forçant à cacher leurs pratiques, les exposant ainsi au chantage, à l'intimidation, au vol et aux agressions physiques, puisqu'ils ne risquaient pas d'aller se plaindre aux autorités. Ainsi, l'argument moraliste était facilement renversé en faveur des victimes de ces exactions. La barbarie était du côté de la loi, (« our barbaric law ») car elle était la cause de ces infractions (« so potent a source of crime »)918. Si les intellectuels à la tête de la CND appuyèrent les demandes de réforme, ils créèrent également un climat de tolérance au sein de leur mouvement, encourageant de la sorte des homosexuels à s'y investir et à occuper des postes à responsabilités. Ce fut le cas par exemple de Nigel Young ou Pat Arrowsmith, dont les collaborateurs connaissaient l'orientation sexuelle, mais qui firent le choix de la tenir secrète afin de ne pas risquer de compromettre le mouvement. Cette dernière insistait sur le fait qu'elle se sentait parfaitement intégrée à l'intérieur de l'organisation, mais qu'elle redoutait la réaction de l'opinion publique : « At that time, because of my very public involvement with CND, I felt that if I came out as a lesbian it might be used against CND, and looking back at the public attitudes of the time, I think that was right » 919 . D'autres ne faisaient pas mystère de leur homosexualité, comme Allan Horsfall, 918 « Homosexuality and violence », Peace News, 22 mars 1963, p. 10. « Homosexuality: a discredited law which won't collapse », Peace News, 1er novembre 1963, p. 8. 919 « Pat Arrowsmith – Pacifist », Gay Left, 8, été 1979, pp. 11-12. 315 316 Claire Mansour, Diffusion et évolution des mouvements sociaux que cela n'empêcha pas d'être à la fois président de la branche de la CND de la région de Manchester et l'un des fondateurs de la section locale de la HLRS – le North Western Homosexual Law Reform Committee 920. En 1964, l'association fut créée dans le but de promouvoir la dépénalisation de l'homosexualité masculine dans le nord industriel du pays, où la population y était plus hostile. Plus radicale que la HLRS quant à ses méthodes et sa visibilité, son quartier général fut d'abord établi au domicile personnel d'Horsfall, décision dont la hardiesse fut à la fois louée et condamnée 921 . Une fois que la réforme demandée fut obtenue, l'organisation connut une phase d'introspection, changeant de nom plusieurs fois, pour finalement devenir la Campaign for Homosexual Equality (CHE) en 1971 et prendre une envergure nationale. 2.2.2.2. Le mouvement contre la guerre du Vietnam Comme pour le mouvement féministe, de nombreux militants gay avaient participé aux actions organisées par la VSC contre la guerre du Vietnam. Les deux fondateurs du premier Gay Liberation Front (GLF) sur le sol britannique, Aubrey Walter et Bob Mellors, étaient des membres actifs de l'association et avaient participé aux grandes manifestations devant l'ambassade américaine en 1968. Pour Walter, l'opposition à la guerre du Vietnam avait joué un rôle déterminant dans sa politisation, et celle de son conjoint de l'époque David Fernbach, qui devint également une des têtes pensantes du mouvement gay : « My and David's political background was in the anti-Vietnam movement, we had been in the Vietnam Solidarity Campaign and I was at Grosvenor Square. The spirit to fight back came from the Vietnam struggle » 922. Il insistait également sur son influence en tant que 920 « Allan Horsfall: Influential gay rights campaigner », The Independent, 10 septembre 2012 [en ligne], [consulté le 29 janvier 2018], disponnible à l'adresse suivante : <http://www.independent.co.uk/news/obituaries/allan-horsfall-influential-gay-rights-campaigner8125122.html>. 921 Adam LENT, op. cit., p. 15. 922 Lisa POWER, op. cit., p. 16. 2ème Partie - 2 : Mouvement gay et lesbien symbole, dont la portée métaphorique galvanisa les militants. Si les rebelles vietnamiens du National Liberation Front réussissaient à tenir tête à l'armée de la superpuissance américaine, cela laissait également entrevoir une issue positive pour les combats d'autres groupes opprimés. Ainsi, le tout premier GLF, formé à New York, fut nommé en référence aux révolutionnaires vietnamiens, avant que le concept ne soit finalement repris par Walter et Mellors à leur retour des États-Unis 923 . Les liens établis pour coordonner les actions d'opposition à la guerre du Vietnam entre les pacifistes des deux pays facilitèrent ensuite la diffusion des mouvements subséquents. La date de la première Gay Pride de Londres en juin 1972, fut synchronisée avec celle organisée outre-Atlantique, où l'évènement avait lieu chaque année depuis 1970. Dans le cadre de ces festivités, les militants gay londoniens se rassemblèrent devant l'ambassade américaine pour protester contre la poursuite du conflit vietnamien 924 . La tactique du teach-in, popularisée par les étudiants américains pour informer leurs pairs de la situation en Asie du Sud-Est, fut adoptée d'abord dans le même but par les étudiants britanniques, puis par la CHE pour combattre les préjugés sur les homosexuels 925. À l'instar des féministes, les militants gay adaptèrent le cadre antiimpérialiste du mouvement contre la guerre du Vietnam à leur cause. La création du GLF en octobre 1970 à Londres amorça un tournant radical pour le mouvement gay. Les partisans de la libération gay commencèrent à se considérer comme un groupe opprimé, devant lutter pour son émancipation. Ainsi, le premier communiqué du GLF publié dans le journal de la LSE proclamait : « We are fighting to end the oppression of gay people. We are struggling to liberate ourselves »926. Les militants y étaient décrits comme des rebelles menant une insurrection à l'aide de méthodes de guérilla (« guerrilla group »). La déclaration se terminait dans un élan 923 « GLF and the movement », Come Out!, 2, 10 janvier 1970, pp. 4-5. « Gay Pride Week », Gay News, 1, 1er mai 1972, p. 6. 925 « CHE talks to liverpool », Gay News, 10, 1er novembre 1972, p. 5. 926 « Gay Liberation », The Beaver, 29 octobre 1970, p. 4. 924 317 318 Claire Mansour, Diffusion et évolution des mouvements sociaux solidaire avec le slogan « All power to the oppressed people! », témoignant de la volonté de forger des liens avec les autres mouvements dans un même combat universel. 2.2.2.3. Le mouvement étudiant Le mouvement étudiant joua un rôle vital dans l'évolution du mouvement gay et lesbien, dont la phase de libération commença à se développer à l'intérieur des cercles universitaires. Le premier GLF britannique fut créé dans une salle de classe au sous-sol de la LSE, à l'issue d'une réunion ne rassemblant pas plus de vingt personnes, presque toutes inscrites dans cet établissement 927. Les étudiants à l'origine de l'initiative avaient activement participé aux récentes occupations de la LSE. Aubrey Walter s'y était illustré en détruisant les portails de sécurité fraîchement installées à coups de marteau en janvier 1969 928. David Fernbach, également membre de la Soc-Soc, rejoignit le GLF dès sa formation, porté par la dynamique du mouvement étudiant : « I came into Gay Liberation in 1970 as a Marxist, very much under the spell of the student movement of the late 1960s » 929. Le groupe dépassa rapidement les confins de la LSE, attirant jusqu'à plusieurs centaines de participants dans un amphithéâtre surchargé. L'administration de l'école voyant d'un très mauvais oeil l'afflux de personnes extérieures à l'établissement dans ses locaux, les membres du GLF furent forcés de trouver un nouveau lieu de réunion dès le début de l'année 1971. Les militants gay de la LSE continuèrent à se réunir en plus petit comité pour défendre leur cause au sein de leur université 930 . Comme les féministes, ces derniers se heurtaient au sexisme et à l'homophobie de leur milieu. Ainsi, la première action du GLF fut de faire irruption dans les locaux du journal du syndicat des étudiants de l'université fédérale de Londres (University of London Union), Sennet, en raison de la récente publication d'un article 927 Ibid. Lisa POWER, op. cit., p. 4. 929 « Two letters on Freud », Gay Left, 7, hiver 1978-79, p. 23. 930 « Gay Liberation – Statement of aims », The Beaver, 28 octobre 1971, p. 5. « White sexism in the ivory tower », The Beaver, 25 novembre 1971, p. 5. 928 2ème Partie - 2 : Mouvement gay et lesbien à caractère fortement machiste, portant offense aux femmes et aux homosexuels. L'action était d'ailleurs menée de concert avec le groupe féministe de la LSE 931. Le courant de libération gay se propagea au reste du pays, notamment à travers la création de sociétés étudiantes, qui évoluèrent souvent à leur tour en organisations indépendantes. Le GLF de la ville de Brighton, par exemple, vit le jour à l'initiative des étudiants de l'université du Sussex en février 1971, et conserva par la suite le nom de Sussex Gay Liberation Front 932 . Celui de la ville Leeds fut également formé à l'université locale en mars 1971, et déménagea dans des locaux à l'extérieur du campus durant l'été 1972 933. Mais la création de ces groupes gay ouvertement militants au sein des universités ne fut pas toujours aisée, puisqu'elle impliquait que les étudiants fassent leur « coming out » et déclarent publiquement leur homosexualité. Ainsi, à l'université de Warwick un étudiant lança un appel en octobre 1971 pour établir une branche locale d'un GLF à travers le journal du campus. Il fut rapidement obligé de conclure devant le manque d'enthousiasme de ses pairs, qu'un groupe de soutien anonyme était plus adapté, afin de minimiser les risques de représailles : « a group which can guarantee the maximum of security and the minimum of risk » 934. Le groupe devint par la suite de plus en plus militant et fut finalement renommé Warwick Gay Liberation Front en 1974 935 . Quant à l'université de Glasgow, elle n'avait toujours pas de groupe dédié à cette cause en juin 1975. Les témoignages de l'époque soulignaient l'atmosphère particulièrement intolérante envers les homosexuels de cette ville ouvrière, où les lieux de socialisation gay étaient rares 936 . L'hostilité régnant à 931 « Gay Liberation », The Beaver, 29 octobre 1970, p. 4. « Getting together », Gay News, 10, 1er novembre 1972, p. 6. 933 « Homosexuals », Leeds Student, 12 mars 1971, p. 10. « National Gay Liberation Front Groups », Gay News, 3, 1er juillet 1972, p. 12. « Gay Liberation Groups », Gay News, 4, 1er août 1972, p. 12. 934 « Gay Liberation Front », Campus, 30 octobre 1971, p. 3. « Gay Liberation », Campus, 5 novembre 1971, p. 3. « Gay Liberation Front », Campus, 30 octobre 1971, p. 3. « One in Twenty », Campus, 26 novembre 1971, p. 8. 935 « 'No pity' », The Warwick Boar, 7 novembre 1974, p. 3. 936 « Gay life in Scotland, or Och, Yerra Naffie Big Jessie, Jimmah! », Gay News, 1, 1er mai 1972, p. 5. « Trouble shared », Gay News, 1, 1er mai 1972, p. 6. 932 319 320 Claire Mansour, Diffusion et évolution des mouvements sociaux l'université se reflétait dans les termes injurieux utilisés dans les colonnes de son journal : « poofs », « pansies », « queers », « tawdry-minded people », ainsi que dans les lettres haineuses régulièrement publiées 937. La principale entrave à la formation d'un collectif gay était la nécessité imposée par le règlement que les fondateurs du groupe révèlent leurs noms. Afin de préserver l'anonymat de ses membres, le groupe fut finalement établi par les représentants étudiants lors de l'été 1975. Son but premier fut d'oeuvrer à la sensibilisation des étudiants et du reste de la population, en essayant de dissiper les idées reçues à travers la rédaction d'articles, et l'organisation de séminaires 938. Cette fonction fut commune à la plupart des sociétés étudiantes gay, à la fois par leur simple existence, donnant une visibilité nouvelle aux homosexuels, mais aussi en servant de forum aux discussions et aux débats intellectuels sur le sujet. Les think-ins, empruntés aux GLF californiens, étaient un mode de délibération par petits groupes, utilisé comme processus décisionnel par les GLF londoniens, qui se muèrent en conférences nationales organisées à tour de rôle dans différentes universités 939 . Caractérisés par leur absence volontaire d'organisation, il s'agissait de variantes des teach-ins, dont le but n'était pas de délivrer un contenu informationnel particulier, mais de réfléchir de manière collective sur les thèmes proposés. Le premier think-in national eut lieu à l'université de Leeds en juin 1971 940. Ces occasions permettaient aux militants de se pencher sur les formes multiples que pouvait prendre leur oppression en tant qu'homosexuels, sur l'articulation de liens possibles avec d'autres mouvements, et 937 « 'Poofs' Charter' – sodomy meets bestiality », The Glasgow University Guardian, 29 janvier 1968, p. 6. « T'queer replies », The Glasgow University Guardian, 15 décembre 1971, p. 2. « As we see it », The Glasgow University Guardian, 27 février 1975, p. 12. « How dare you presume I'm straight », The Glasgow University Guardian, 17 avril 1975, p. 4. « Application of the Sex Act », The Glasgow University Guardian, 15 janvier 1975, p. 2. « Anti-homosexual from both sides », The Glasgow University Guardian, 13 octobre 1979, p. 2. 938 « Gaysoc », The Glasgow University Guardian, 26 février 1976, p. 3. « Alternative seminars », The Glasgow University Guardian, 12 mai 1977, p. 12. « Fact, myth, reason or prejudice? », The Glasgow University Guardian, 14 octobre 1977, p. 10. 939 « Is Gay Lib still liberated? », Gay News, 7, 14 septembre 1972, p. 4. Lisa POWER, op. cit., p. 7. 940 Ibid. p. 299. « Come togethers », Gay News, 15, 24 janvier 1973, p. 5. 321 2ème Partie - 2 : Mouvement gay et lesbien plus généralement, sur la direction qu'ils souhaitaient donner au leur. Les think-ins étaient l'un des nombreux éléments importés des États-Unis par l'intermédiaire d'Aubrey Walter, qui fréquenta les GLFs des côtes Est et Ouest, au cours de son voyage durant l'été 1970. 2.2.2.4. Le mouvement de libération gay aux États-Unis La création du premier GLF britannique à la LSE en octobre 1970 fut la conséquence directe du séjour outre-Atlantique de ses deux principaux fondateurs, Walter et Mellors. Ils servirent donc de canal relationnel entre les deux mouvements, et permirent la diffusion du cadre d'action collective ainsi que des tactiques des GLF américains. S'ils furent les premiers à passer à l'acte, d'autres avaient eu la même idée en lisant les récits des émeutes du Stonewall Inn. Ce bar gay du quartier de Greenwich Village, haut lieu de la contre-culture américaine, fut la cible d'une série de descentes policières, qui dégénérèrent en affrontements lorsque les clients décidèrent de riposter, à la fin du mois de juin 1969. Cet incident conduisit ensuite les militants gay les plus radicaux à former le tout premier GLF, dans un pays où les pratiques homosexuelles masculines étaient considérées comme un crime, dans la plupart des États 941 . Au Royaume-Uni, les actes sexuels entre deux hommes adultes n'étaient certes plus punis par la loi, mais toujours couverts d'opprobres, l'évènement allait inspirer une nouvelle génération de militants. En mai 1970, le magazine alternatif International Times publia un article exhortant les homosexuels à abandonner leur sentiment de culpabilité, à affirmer leur sexualité au grand jour : « It's time to be proud of making it with other guys, time to get out of the guilt-ridden ghettos of the gay world » 942 . Son auteur dénonçait le paradoxe du milieu underground londonien, prêchant la libération sexuelle tout en imposant un tabou sur l'homosexualité par 941 942 Lisa POWER, op. cit., p. 1-2. « So long fag hags », The International Times, 7 avril 1970, p. 24. 322 Claire Mansour, Diffusion et évolution des mouvements sociaux une périphrase aux termes crus : « There are no homosexuals in the the Underground but there are a lot of guys who suck cock ». Il concluait en lançant un appel à rejoindre le GLF, qui n'existait pourtant à ce moment-là qu'aux États-Unis. Une quarantaine de personnes répondirent avec ferveur dans les mois qui suivirent 943. Ainsi, les liens entre les contre-cultures des deux pays servirent également de canaux nonrelationnels à la diffusion de la libération gay, ce qui expliqua sans doute la rapidité et l'ampleur du phénomène. Les GLF britanniques adoptèrent de nombreux symboles venant du mouvement américain, comme celui du GLF de Philadelphie, composé du poing serré des révolutionnaires orné d'un entrelacs de signes de mars et vénus formant une fleur (voir annexe 23). Des formes d'actions novatrices furent également reprises, comme le think-in et les défilés de la Gay Pride, évoqués précédemment, ou encore le gay-in. Il s'agissait d'une sorte de dérivé du sit-in, visant à se réapproprier l'espace public tout en manifestant ostensiblement son homosexualité. Le GLF de New York organisa le premier rassemblement de ce type à Central Park, en mai 1970 944. Les Londoniens firent de même un soir de novembre 1970, se réunissant pour la première fois à l'extérieur, dans un modeste parc du quartier d'Islington où un jeune homme avait récemment été arrêté pour outrage aux bonnes moeurs (« gross indecency »). En se tenant la main ou en s'embrassant au vu de tous, les militants joignaient le geste à la parole, et protestaient contre la loi interdisant aux hommes gay les démonstrations d'affection en public. L'évènement avait à la fois un caractère festif, comme en témoignaient les serpentins, ballons, et feux d'artifices, mais aussi fortement politique. Les militants lurent une liste de revendications, concernant principalement le harcèlement policier et les discriminations dont ils faisaient l'objet, et ponctuaient chaque annonce par des choeurs de « Right on », à l'image de 943 944 « Gay lib », The International Times, 19 novembre 1970, p. 23. « News », Come Out!, 4, juin-juillet 1970, p. 5. 2ème Partie - 2 : Mouvement gay et lesbien leurs modèles américains 945 . Ces rassemblements évoluèrent par la suite pour devenir les « Gay Days », lors desquels les participants passaient la journée dans les grands parcs de Londres, et essayaient d'attirer l'attention des promeneurs au moyen de costumes et d'activités ludiques 946. En province, ils prenaient la forme de journées de mobilisation impliquant des démonstrations d'affection en public, par exemple en marchant main dans la main 947. Les actions contre les pratiques du corps médical, et plus particulièrement les cures de déconditionnement (aversion therapy) 948, s'inspiraient de celles menées contre l'American Psychiatric Association. Les militants gay faisaient irruption dans les congrès, et tentaient d'instaurer un dialogue visant à faire évoluer le traitement des homosexuels par les professionnels de santé, en leur recommandant par exemple d'orienter les patients vers leurs associations 949 . La publication de nombreux articles permit également à l'idéologie des GLF américains de traverser l'Atlantique. Le journal Come Together du GLF de Londres, dont le premier numéro parut en novembre 1970, était inspiré de celui du GLF de New York, nommé Come Out!, créé un an auparavant. Les deux revues s'échangèrent leurs productions, informant ainsi les militants des deux pays de l'avancée de leurs combats respectifs 950. Mais de nombreux aspects du cadre du mouvement gay américain étaient en fait déjà des emprunts au courant du Black Power. 945 « Gay-in protest », The International Times, 3 décembre 1970, p. 3. « Gay Libs defiant on Highbury Fields », Peace News, 11 décembre 1970, p. 5. « Gay liberation front does it », The Beaver, 10 décembre 1970, p. 7. 946 Lisa POWER, op. cit., pp. 106-8. 947 « Kent Gay Day », Gay News, 7, 14 septembre 1972, p. 12. 948 Les cures de déconditionnement des homosexuels visaient à les rendre hétérosexuels en associant des stimulus liés à leur orientation sexuelle, comme une image d'un homme nu, avec des sensations déplaisantes, voire douloureuses (chocs électriques, vomitifs, etc.). 949 « On the Gay Lib. Front », Peace News, 18 juin 1971, p. 4. « BMA Gay Day », Peace News, 20 septembre 1974, p. 4. 950 « Letter from the London Gay Liberation Front », Come Out!, 7b, printemps-été 1971, p. 2. « What's happening », Come Out!, 7b, printemps-été 1971, p. 3. 323 324 Claire Mansour, Diffusion et évolution des mouvements sociaux 2.2.2.5. Le mouvement pour l'égalité raciale Le processus de diffusion entre le mouvement pour l'égalité raciale et le mouvement gay britannique s'effectua d'abord de manière indirecte, par l'entremise du mouvement gay américain, qui fut lui-même la résultante de phénomènes similaires. Un de ses aspects les plus marquants, fut l'adaptation de l'idéologie du Black Power en « Gay Power ». Les partisans du Black Power souhaitaient forger une identité politique pour les noirs américains, en leur faisant prendre conscience qu'ils partageaient les mêmes racines africaines, la même histoire, la même culture. Il s'agissait également d'exalter leur identité noire, en la redéfinissant de manière positive et en déconstruisant la vision imposée par la société blanche, afin d'inspirer un sentiment de fierté retrouvée. Les militants gay transposèrent cette idéologie à leur propre cause, espérant ainsi façonner une identité politique à partir de leurs préférences sexuelles. En prenant conscience du sexisme et de l'homophobie régnant dans la culture dominante, gays et lesbiennes devaient se débarrasser de leur sentiment de culpabilité et d'infériorité. Un article de la publication du GLF de New York mettait en lumière le parallèle entre les deux groupes : [] racism permeates the thoughts and actions of American society; it permeates the very minds of blacks themselves. Blacks began to see that much of their actions were motivated by the self-hatred imposed on them by racist America. They went through centuries of indoctrination that white was good and that black was inferior. To achieve black liberation, blacks had to first develop a black consciousness; they had to establish their own identity as blacks free from white influence. Only then would they be able to truly recognize their oppression. Gay people must travel the same route. To fight gay oppression they must cope with that oppression within themselves. Sexism with its perverted concept of maleness is the norm in American society. It is accepted by to some degree by everyone even women and gay people, the chief victims of 2ème Partie - 2 : Mouvement gay et lesbien sexism. Those who do not play this perverted game are made to feel inferior, inadequate, mentally ill.951 Ainsi le cadrage utilisé par les partisans de la libération gay reprenait point par point tous les éléments de celui des tenants du Black Power. Substituant le racisme au sexisme de la société américaine, le constat de l'internalisation de la vision dénigrante était le même, il en découlait donc une solution identique : la nécessaire redéfinition de l'identité des groupes opprimés selon leurs propres termes. Les slogans « Black is beautiful » ou « Say it loud, I'm Black and I'm proud » inspirèrent toutes sortes de déclinaisons : « Gay is good », « Glad to be gay », « Sing it loud, sing it clear, Gay is proud, Gay is here », etc 952. L'alliance entre les militants gay et les Black Panthers contribua à la diffusion de ces éléments. En août 1970, une des figures du BPP, Huey Newton, déclara que les homosexuels étaient une minorité opprimée, peut-être même la plus opprimée, faisant d'eux des alliés naturels dans leur combat révolutionnaire 953. Les militants noirs convièrent donc le GLF de New York à leur congrès intitulé « Revolutionary People's Constitutional Convention » en septembre 1970. En voyage aux États-Unis, les deux fondateurs du premier GLF britannique, Mellors et Walter, suivirent les militants gay new yorkais à cette manifestation, créant ainsi un lien personnel direct entre les Black Panthers et les Londoniens. Les étudiants de la LSE importèrent directement le cadrage des GLF américains, sans chercher à en atténuer les aspects hérités du Black Power. Les militants britanniques se comparèrent eux aussi aux populations issues de l'immigration, mesurant leur propre oppression à l'aune de la leur. Dans la deuxième moitié des années 1970, le phénomène s'accentua avec la montée de l'antifascisme. Prenant comme point de départ l'analogie entre le racisme et l'homophobie, les militants gay 951 « Consciousness raising exposes the Orwellian lies of sexist Amerika », Come Out!, 7b, printemps-été 1971, p. 19. 952 « We did it! », Come Out!, 5, septembre-octobre 1970, p. 11. « Out into the open », Spare Rib, juillet 1979, pp. 42-6. 953 « A letter from Huey P. Newton », Come Out!, 5, septembre-octobre 1970, p. 12. 325 326 Claire Mansour, Diffusion et évolution des mouvements sociaux rapprochèrent les discours réactionnaires d'Enoch Powell et de Mary Whitehouse 954, les attaques des militants d'extrême droite, le harcèlement et les violences policières dont les deux groupes étaient victimes 955 . Ils prêtèrent également leur soutien aux militants antifascistes et antiracistes lors de nombreuses actions, comme par exemple la violente contre-manifestation de Lewisham, et collaborèrent régulièrement avec leurs associations, entre autres à Londres, Birmingham et Bradford956. Cette volonté de forger des liens avec les autres groupes opprimés était partagée avec le mouvement féministe, qui eut un impact déterminant sur le mouvement gay et lesbien. 2.2.2.6. Le mouvement féministe La diffusion du mouvement féministe exerça une influence formatrice sur le mouvement gay et lesbien, par le biais d'un ensemble de canaux relationnels et non-relationnels. Les lesbiennes actives au sein des deux mouvements constituaient un lien direct, et facilitaient la collaboration. Même si le GLF de Londres était une organisation majoritairement masculine, cela n'empêcha pas certaines d'entre elles d'y jouer un rôle-clé. Mary McIntosh et Elizabeth Wilson, par exemple, participèrent à la rédaction du manifeste du GLF de Londres en 1971, facilitant ainsi l'adaptation de l'idéologie féministe 957. Le cadre employé au début du de la phase de libération gay souscrivait au même diagnostic, identifiant comme source de l'oppression des femmes et des homosexuels la domination institutionnalisée des hommes hétérosexuels : 954 Marie Whitehouse, institutrice de profession, devint célèbre pour sa campagne d'opposition à la dépravation des moeurs et à la permissivité régnant dans la société britannique. Elle dénonçait particulièrement les représentations de la sexualité à la télévision. 955 « Gay Centre attacked », Peace News, 20 août 1976, p. 3. « Gays and fascism », Gay Left, 5, hiver 1977, pp. 26-29. « Fighting fascism », Gay Left, 6, été 1978, pp. 30-31. « Homosexuals fight back », Gay Left, 7, hiver 1978-79, pp. 15-16. 956 « Crossroads – which way now? », Gay Left, 5, hiver 1977, pp. 15-17. « Gay times », Gay Left, 6, été 1978, p. 4. 957 Lisa POWER, op. cit., p. 100. 2ème Partie - 2 : Mouvement gay et lesbien Our entire society is built around the patriarchal family and its enshrinement of these masculine and feminine roles. Religion, popular morality art, literature and sport all reinforce these stereotypes. In other words, this society is a sexist society, in which one's biological sex determines almost all of what one does and how one does it; a situation in which men are privileged, and women are mere adjuncts of men and objects for their use, both sexually and otherwise. 958 La domination masculine reposait sur une culture sexiste assignant des rôles rigides aux deux sexes par l'entremise de la famille nucléaire, cellule de base de la société, consacrant la norme hétérosexuelle et le rapport asymétrique entre les hommes et les femmes. Pour mettre fin à ces inégalités, il fallait d'abord prendre conscience de cette oppression, grâce aux groupes de sensibilisation, technique phare du mouvement féministe, afin d'adopter de nouveaux idéaux et comportements. Le coming out, pierre angulaire de ce nouveau style de vie libéré, devenait une autre mise en pratique du slogan féministe « the personal is political ». L'articulation avec l'analyse marxiste, chère aux féministes socialistes, était également présente, dans la mesure où le système capitaliste reposait sur la famille nucléaire, nécessaire à la fois à la fabrication mais aussi à la consommation des biens. La répartition des tâches selon les sexes découlait du mode de production industriel : les hommes travaillant à l'usine, les femmes assurant les fonctions domestiques et servant de main d'oeuvre à bas coût en temps de crise. Ces dernières étaient également les cibles des publicités sexistes les poussant à désirer des artefacts dernier cri pour pouvoir remplir leurs rôles d'épouses et de mères. A man would not work at the assembly line if he had no wife and family to support; he would not give himself fully to his work without the supportive and reassuring little group ready to follow him about and gear itself to his needs, to put up with his ill temper when he is frustrated or put down by the boss at work. 958 GAY LIBERATION FRONT, « Gay Liberation Front Manifesto, London 1971 », Londres, 1971, Internet History Sourcebooks Project, Fordham University, New York [en ligne], [consulté le 3 février 2018], disponible à l'adresse suivante : <https://sourcebooks.fordham.edu/pwh/glflondon.asp>. 327 328 Claire Mansour, Diffusion et évolution des mouvements sociaux Were it not also for the captive wife, educated by advertising and everything she reads into believing that she needs ever more new goodies for the home, for her own beautification and for the children's well-being, our economic system could not function properly, depending as it does on people buying far more manufactured goods than they need. 959 Cependant, les auteurs du manifeste n'appelaient ni à renverser le capitalisme, ni à la révolution socialiste. Ces termes étaient sciemment évités, probablement pour éviter d'aliéner les recrues ne partageant pas cette opinion politique. Ainsi, leur cadrage était plus proche de celui des féministes radicales, aux yeux desquelles la suprématie masculine restait le problème essentiel, le système capitaliste n'étant que la forme économique de cette oppression. Comme elles, ils prônaient l'abolition de la famille traditionnelle et son remplacement par des formes alternatives, comme la vie en communauté gay. Voyant dans les féministes des alliées naturelles et stratégiques partageant le même dessein, ils déclaraient : « The end of the sexist culture and of the family will benefit all women, and gay people. We must work together with women, since their oppression is our oppression, and by working together we can advance the day of our common liberation » 960. Cette alliance avait d'ailleurs pris forme dès la création du GLF de la LSE, puisque la première action des militants gay de la LSE avait été de protester, avec les féministes, contre le machisme inhérent au milieu étudiant, dénonçant ainsi les limites d'une « révolution sexuelle » bénéficiant principalement aux hommes hétérosexuels 961. De nombreuses autres actions contre le sexisme furent menées conjointement, bien souvent à grand renfort de techniques théâtrales, très prisées par les deux groupes, mêlant mise en scène et travestissement pour brouiller les codes du masculin et du féminin, afin de mieux les dénoncer. Les concours de beauté devinrent une de leurs cibles de prédilection. Lors de l'irruption des féministes à la cérémonie de Miss Monde en décembre 1970, les militants du 959 Ibid. Ibid. 961 « Gay Liberation », The Beaver, 29 octobre 1970, p. 4. 960 2ème Partie - 2 : Mouvement gay et lesbien GLF organisèrent une compétition satirique sur le trottoir, à l'entrée du bâtiment. Le présentateur était une femme déguisée en homme et vendait aux enchères des prétendantes également travesties, portant des banderoles étiquetées « Miss Used », « Miss Conceived », « Miss Understood » ou encore une sanguinolente « Miss Ulster »962. Le recours au transformisme à des fins contestataires fut également employé lors des drink-ins. Il s'agissait de sit-ins organisés dans les pubs aux pratiques discriminatoires, où militants du GLF et féministes se rebellaient contre le refus de certains établissements de servir les femmes non-accompagnées. En juillet 1971, les membres des deux groupes se travestirent et occupèrent les locaux des bars de la chaîne Wimpy Houses à Londres pour dénoncer l'absurdité de cette interdiction tacite 963. Mais l'influence entre le mouvement gay et lesbien et le mouvement féministe fut réciproque. En octobre 1971, lors de la deuxième conférence nationale du mouvement de libération des femmes, les militantes du GLF incitèrent les participantes à se réunir en petits groupes, court-circuitant ainsi les consignes des organisateurs masculins. Ces derniers étaient coupables à leurs yeux d'avoir imposé leur mode de fonctionnement et leurs dogmes maoistes à l'assistance. Ce fut lors de la tenue de ces ateliers improvisés que le lesbianisme fut discuté pour la première fois de manière publique, au sein du mouvement 964. À partir de ce moment-là, les liens se resserrèrent entre lesbiennes et féministes. Avec l'essor du féminisme radical, prônant le séparatisme, de plus en plus de groupes devinrent non-mixtes, à la fois dans le mouvement féministe et dans le mouvement gay. Les deux mouvements se fracturèrent selon les mêmes lignes, avec d'un côté les militants radicaux priorisant le changement de style de vie et la création d'institutions alternatives, et de l'autres les socialistes de la gauche 962 Lisa POWER, op. cit., pp. 47-48. « Celebrating 40 years of Gay Liberation », Polari Magazine, 15 août 2009 [en ligne], [consulté le 3 février 2018], disponible à l'adresse suivante : <http://www.polarimagazine.com/opinion/celebrating-40-years-of-gay-liberation/>. 963 Lisa POWER, op. cit., pp. 77-78. 964 « Out into the open », Spare Rib, juillet 1979, pp. 42-44. 329 330 Claire Mansour, Diffusion et évolution des mouvements sociaux radicale préférant se tourner vers les ouvriers et les syndicats 965 . Comme les féministes socialistes avant eux, ces derniers redéfinissaient le rôle des syndicats comme allant au-delà de la simple défense des intérêts matériels de leurs membres, et englobant des aspects de leur vie privée : « the union should protect the workers in all aspects of their lives » 966 . Ils organisèrent aussi des conférences spécifiquement consacrées aux cas des travailleurs homosexuels, dont la première eut lieu à Leeds, en 1975, à l'initiative du GLF local, où les intervenants ne manquèrent d'ailleurs pas de saluer l'héritage du mouvement féministe 967. L'idée émergea à cette occasion de rédiger une charte encadrant les droits des travailleurs gay sur le modèle de la Working Women's Charter, datant de l'année précédente, et adoptée par de nombreux syndicats 968. Mais la Gay Workers' Charter fut finalement abandonnée 969. La collaboration entre militants gay des deux sexes et féministes fut source de tensions, et les alliances fluctuantes entre ces différents groupes contribuèrent à fragmenter un mouvement déjà très disparate. 2.2.3. Apogée du mouvement : 1970-79 2.2.3.1. Structure organisationnelle Le mouvement gay et lesbien ne fut jamais fédéré sous une seule et unique bannière. Il était composé de diverses organisations, elles-mêmes subdivisées en une multitude de petits groupes locaux, dont les priorités variaient en fonction des contextes. De plus, la différence de statut juridique entre les pratiques homosexuelles masculines et féminines avait également eu des répercussions sur les modes d'organisation de ces groupes. Les lesbiennes avaient formé leurs « Ideas of Gay Liberation », Gay News, 6, 1er septembre 1972, p. 6. 966 « Gay times », Gay Left, 1, automne 1975, pp. 6-7. 967 « Gay workers acknowledge debt to women's movement », Spare Rib, juillet 1975, p. 22. 968 « Working », Spare Rib, septembre 1974, pp. 9-11. 969 « All worked up », Gay Left, 3, automne 1976, pp. 12-14. 965 2ème Partie - 2 : Mouvement gay et lesbien premières associations au cours des années 1960. Elles remplissaient des fonctions à la fois sociales et politiques, oeuvrant discrètement pour leur intégration au sein de la société. Quelques années plus tard, sous l'influence du féminisme radical, les lesbiennes membres des associations mixtes développèrent leurs propres groupes. En février 1972, un groupe de femmes du GLF de Londres se sépara pour former un collectif autonome, le Gay Women's Liberation Front, en raison des difficultés qu'elles rencontraient pour faire entendre leurs points de vue au sein d'assemblées dominées par les hommes 970. Cette tendance séparatiste se reflétait également à l'échelle locale. Les lesbiennes du GLF de Bradford, par exemple, se mirent à se réunir dans des locaux différents à partir de l'automne 1974 971. Le GLF de Londres s'était scindé en divers petits groupes, répartis selon les aires géographiques et les centres d'intérêts, qui évoluèrent de manière indépendante et se consacrèrent à des projets variés à partir de 1973. Ce morcèlement bénéficia à la CHE, qui devint progressivement l'organisation prépondérante. Depuis son changement de nom suite à la réforme de 1967, l'association avait poursuivi une ligne modérée et réformiste. Elle luttait contre les discriminations et soutenait l'égalité devant la loi, c'est-à-dire l'abaissement de l'âge du consentement à 16 ans, la dépénalisation des pratiques homosexuelles masculines dans l'armée et la marine marchande, ainsi qu'en Écosse et en Irlande du Nord. Cette ligne nationale n'empêchait pas les groupes londoniens et régionaux de bénéficier d'un certain degré d'autonomie 972 . Les lesbiennes lui reprochèrent cependant sa focalisation excessive sur la réforme législative, concernant exclusivement les hommes, et plus généralement le sexisme sévissant dans ses rangs973. Si la CHE et le GLF s'étaient fait ombrage à Londres, elles 970 « Gay women split from GLF », The International Times, 10 février 1972, p. 3. « Groups », Spare Rib, novembre 1974, p. 33. 972 « Campaign for sexual equality », The Beaver, 6 mars 1972, p. 3. « Where is CHE », Gay News, 4, 1er août 1972, p. 8. 973 « Homosexuals confer », Peace News, 11 juin 1976, p. 4. 971 331 332 Claire Mansour, Diffusion et évolution des mouvements sociaux coopérèrent aisément dans le reste du pays 974 . Les nombreux petits collectifs essaimés eurent recours à des initiatives et à des techniques variées, des plus modestes aux plus extravagantes. 2.2.3.2. Campagne de sensibilisation du grand public La plupart des groupes du mouvement gay et lesbien entreprirent de sensibiliser l'opinion publique à leur cause, afin de lutter contre les préjugés et l'homophobie – terme qu'ils feraient d'ailleurs entrer dans le langage courant au cours des années 1970 975 . Une des fonctions du coming out, était justement de donner plus de visibilité aux homosexuels, afin de faire évoluer les mentalités. De nombreux militants portaient des badges avec le logo de leur organisation ou des slogans proclamant leur orientation sexuelle, tels que « How dare you presume I'm heterosexual? » ou « Out of the closet and into the street »976. Les tactiques employées par le GLF cherchaient la confrontation avec le reste de la population pour instaurer une discussion. Ses membres avaient recours aux techniques théâtrales et au travestissement afin de provoquer une réaction de surprise, et amorcer le dialogue. Les kiss-ins dans le métro londonien nécessitaient par exemple une mise en scène élaborée. Tandis que des couples gay s'embrassaient dans la rame, d'autres participants déguisés en femmes faisaient semblant d'être outrés, et engageaient la conversation avec les autres passagers 977. Leur coup d'éclat le plus retentissant fut sans doute le sabotage du Festival of Light en septembre 1971. Cet évènement était une campagne à l'initiative de Mary Whitehouse et de dirigeants religieux visant à dénoncer la « pollution « Getting together », Gay News, 10, 1er novembre 1972, p. 6. « BMA Gay Day », Peace News, 20 septembre 1974, p. 4. 975 « Gay Conference », The Warwick Boar, 27 octobre 1975, p. 3. « The Gay News trial », Gay Left, 5, hiver 1977, pp. 32-35. 976 « Alan Wakeman », Unfinished Histories : Archive of the Alternative Theatre Movement [en ligne], [consulté le 5 février 2018], disponible à l'adresse suivante : <http://www.unfinishedhistories.com/interviews/interviewees-r-z-3/alan-wakeman/>. 977 Lisa POWER, op. cit., p. 54. 974 2ème Partie - 2 : Mouvement gay et lesbien morale et le déclin spirituel » (« moral pollution and spiritual decline »), les attaques contre les valeurs de la famille traditionnelle et plus généralement la permissivité de la société britannique 978. Cette initiative fut perçue comme une menace par les militants du GLF, redoutant une hausse de la répression homophobe. Ils entreprirent d'organiser une contre-offensive, avec le soutien des féministes, des membres de la contre-culture et des journalistes de la presse alternative, déjà irrités par le procès pour obscénité du magazine contre-culturel Oz. En référence à ce dernier, ils lancèrent « l'opération Rupert » (« Operation Rupert »), du nom du personnage « Rupert Bear » de livres pour enfants, dont la parodie obscène avait entraîné la mise au ban de la publication. Lors du rassemblement inaugural du festival, environ 3000 personnes se réunirent à Westminster Hall pour écouter discours et sermons. Entrés au moyen de billets falsifiés, les contre-manifestants infiltrèrent l'assistance avec un plan précis. Ils étaient répartis en petits groupes et perturbèrent chacun à leur tour la cérémonie d'une manière différente. Des militants interpellèrent les orateurs, lâchèrent des souris, lancèrent des tomates et des boules puantes. L'un d'eux parvint même à couper l'électricité. D'autres étaient costumés et jouaient des rôles hauts en couleurs, tels qu'un prêtre bénissant à tour de bras, un couple d'évangélistes américains prêchant la fornication au nom de Jésus, ou encore un homme travesti en Belle du Deep South criant à l'épiphanie. Le clou du spectacle fut un groupe de militants des deux sexes déguisés en religieuses, qui s'invitèrent devant la scène pour danser le cancan 979 . Cette action subversive fit la une de nombreux journaux, volant la vedette aux organisateurs moralistes, dont la pudibonderie fut tournée en dérision 980 . En utilisant la satire, les militants réussirent à tirer parti du sensationnalisme de la presse, et à s'attirer la sympathie d'une partie de l'opinion 978 « The National Festival of Light », The International Times, 23 septembre 1971, p. 11. « Darkness in our light », The Guardian, 11 septembre 1971, p. 11. « A Gay Liberation Front Collective rap on the Festival of Light, pornography and sexism », The International Times, 23 septembre 1971, p. 12-13. 980 « Protests disrupt Festival of Light », The Guardian, 10 septembre 1971, p. 1. Dominic SANDBROOK, The Way We Were, op. cit., pp. 45-8. 979 333 334 Claire Mansour, Diffusion et évolution des mouvements sociaux publique. Le déroulement des autres évènements du Festival of Light furent également contrecarrés, notamment par l'organisation d'un festival alternatif baptisé « Festival of Life » à Hyde Park à la fin du mois de septembre 1971. Le combat contre l'homophobie ne les opposa pas seulement aux courants réactionnaires, mais à la culture gay existante incitant les homosexuels à rester « au placard ». 2.2.3.3. Campagne contre les discriminations homophobes dans les bars Un des objectifs principaux des militants gay était de rompre l'isolement ressenti par de nombreux homosexuels, forcés de fréquenter des lieux de socialisation distincts. Certaines villes comme Londres, Manchester ou Brighton comptaient déjà plusieurs bars et de boîtes de nuit gay, bien que peu d'entre eux fussent destinés aux lesbiennes. Cette forme de ségrégation entraînait une certaine clandestinité, qui ne faisait que renforcer leur sentiment d'exclusion. Ainsi les militants du GLF surnommaient la scène gay existante « the 'straight' gay ghetto », pour dénoncer le fait que cet ostracisme était la conséquence de l'homophobie régnant au sein de la société britannique, et de son intériorisation par les homosexuels 981 . Ils fustigeaient également les tarifs plus élevés que pratiquaient ces établissements, profitant du statut de citoyens de seconde zone de leurs clients. De nombreuses actions furent organisées afin d'inciter les homosexuels à se détourner de ces lieux, et à « sortir de leur coquille » (« Come out of your shell »), selon un des slogans utilisés, c'est-à-dire à ne plus chercher à cacher leur orientation sexuelle 982. Même si ces endroits étaient en théorie réservés à une clientèle gay, les gestes explicites d'affection ou les tenues extravagantes y restaient malvenus. Les travestis, les couples se tenant la main ou s'embrassant ouvertement, s'en retrouvaient fréquemment exclus, afin de maintenir une image 981 982 « Come all you gay women, come all you gay men », Gay Left, 4, été 1977, pp. 7-9. « We know you're in there », Gay News, 2, 1er juin 1972, p. 5. 2ème Partie - 2 : Mouvement gay et lesbien respectable et d'éviter d'éveiller l'attention des autorités. Des piquets, des boycotts et des sit-ins furent mis en place pour protester contre ces agissements 983. Les militants gay réclamaient le droit de pouvoir se rendre dans n'importe quel établissement, à égalité avec les hétérosexuels. Comme les noirs avant eux, ils eurent recours à la technique du drink-in, pour lutter contre les pratiques discriminatoires de certains débits de boissons leur refusant le service. Mary McIntosh, entre autres, avait participé à une action de ce type aux côtés des Antillais à Leicester en 1964, et avait partagé son expérience avec les autres contestataires 984. Le même mode d'action fut employé. À l'automne 1971, une campagne au rythme soutenu fut organisée à Notting Hill, où le GLF de Londres avait son quartier général. Les militants ciblaient les établissements un par un. Si le personnel du pub déclinait de les servir, ils s'asseyaient tout de même, et refusaient de quitter les lieux. La direction était alors forcée d'appeler la police pour faire évacuer les manifestants, qui se laissaient transporter à l'extérieur sans opposer de résistance. La stratégie porta rapidement ses fruits grâce à l'intervention de la presse, qui couvrit l'une de ses actions, conduisant ensuite les compagnies propriétaires à déclarer publiquement leur opposition aux discriminations homophobes985. L'organisation de soirées dansantes par la plupart des collectifs gay à travers le territoire était également une forme d'action directe. Ces évènements avaient pour but de créer une alternative non-commerciale aux bars et aux boîtes de nuit, où les homosexuels pouvaient se réunir librement, sans avoir à masquer leur orientation sexuelle. En y conviant également les hétérosexuels, ils espéraient faciliter leur intégration au reste de la société. La première « People's Dance » eut lieu le 22 décembre 1970 à Kensington, et favorisa l'afflux de personnes 983 « Fracas at gay pub », Gay News, 7, 14 septembre 1972, p. 10. « Customer wore drag », Gay News, 8, 1er octobre 1972, p. 3. « Gay bar », Peace News, 13 janvier 1978, p. 4. 984 Lisa POWER, op. cit., pp. 179-80. 985 Ibid. 335 336 Claire Mansour, Diffusion et évolution des mouvements sociaux extérieures à l'établissement dans les rangs du GLF de la LSE 986. Ces festivités devinrent rapidement un rituel très prisé à l'effet désinhibant, et furent organisés à intervalles réguliers par le GLF de Londres mais aussi par la plupart des groupes gay dans les universités et les villes de province 987. Elles contribuèrent à renforcer les liens entre les militants et à forger un sentiment d'appartenance à une « communauté » gay. 2.2.3.4. Création d'institutions collectives alternatives Tout comme le mouvement féministe, le mouvement gay et lesbien entreprit de créer ses propres publications, à la fois pour remédier au manque de visibilité médiatique dont il souffrait, mais aussi pour contribuer à développer une identité collective. Le premier magazine homosexuel au Royaume-Uni fut le mensuel lesbien Arena 3, fondé en 1964, qui fut ensuite relayé par Sappho en 1972 988 . Cette année-là vit également la formation de Gay News, dont la circulation allait rapidement tirer à 20 000 exemplaires par numéro 989. Ce journal bi-mensuel n'était affilié à aucune organisation politique, même si sa ligne éditoriale était plus proche de la CHE que du GLF. Son comité de rédaction fonctionnait selon les principes de la Nouvelle Gauche, de manière horizontale et collective, sans aucun rôle attitré. Comme il le proclamait dans son premier éditorial, le journal était destiné à l'ensemble de la « communauté » gay (« the whole of the gay community ») 990 . À cela s'ajoutaient les différents bulletins des organisations, mais aussi des publications plus commerciales. Mais la presse spécialisée ne fut pas le seul moyen envisagé par les militants pour susciter un 986 « Gay Liberation front does it », The Beaver, 10 décembre 1970, p. 7. « All quiet on the fulham front », Gay News, 8, 1er octobre 1972, p. 4. « Discos », Gay News, 14, 10 janvier 1973, p. 16. « Manchester Gay Alliance Centre », Peace News, 6 septembre 1974, p. 7. « Gay conference », Warwick Boar, 27 octobre 1975, p. 3. 988 « A guide to lesbian groups », Spare Rib, septembre 1978, p. 26. 989 Dominic SANDBROOK, State of Emergency, op. cit., p. 404. 990 « Editorial », Gay News, 1, 1er mai 1972, p. 2. 987 2ème Partie - 2 : Mouvement gay et lesbien sentiment d'appartenance. À l'instar des women's centres, le mouvement gay développa des « gay centres », qui devinrent des points de ralliement pour la communauté gay à travers le territoire. Certains, comme celui de Brixton, furent installés dans des bâtiments occupés illégalement. Ils proposaient généralement des services d'aide à la communauté, comme des garderies réservées aux enfants de mères lesbiennes, des services de conseil juridique, de soutien, d'information, etc. Mais leurs locaux abritaient aussi souvent des activités culturelles, sociales et politiques 991. D'autres initiatives virent le jour pour tenter d'atténuer l'isolement des homosexuels. Des centres téléphoniques d'écoute, de soutien et d'information furent créés, comme celui de la CHE nommé Friend, ou ceux du GLF – le London Icebreakers et le Lesbian and Gay Switchboard. Des lignes destinées spécifiquement aux lesbiennes furent également ouvertes 992. Si certains militants préféraient former leurs propres institutions alternatives pour améliorer la situation des homosexuels, d'autres en revanche tentèrent d'influencer celles qui existaient déjà, comme les syndicats, afin de lutter contre les discriminations dans le monde professionnel. 2.2.3.5. Campagne contre les discriminations à l'embauche et au travail Dès les premiers temps du mouvement, les militants gay socialistes affirmèrent leur soutien au combat des ouvriers et des syndicats. Le 21 février 1971, ils participèrent à la grande manifestation réunissant entre 100 000 et 150 000 personnes contre la proposition de loi sur Industrial Relations Bill 993. Leurs slogans allaient des sobres « Homosexuals Oppose the Bill », aux plus effrontés « Poof 991 « Gay Centre attacked », Peace News, 20 août 1976, p. 3. « Manchester Gay Alliance Centre », Peace News, 6 septembre 1974, p. 7. 992 « First National Friend Conference », Gay News, 14, 10 janvier 1973, p. 5. « A guide to lesbian groups », Spare Rib, septembre 1978, p. 26. 993 « 100,000 march in peaceful protest », The Times, 22 février 1971, p. 1. « 125,000 march against Bill », The Guardian, 22 février 1971, pp. 1, 18. « GLF against the IRB », Come Together, 5, mai 1971, p. 1. 337 338 Claire Mansour, Diffusion et évolution des mouvements sociaux to the Bill » ou « Heath we're right behind you » 994. Mais leur présence dépassait le rejet de la réforme et la déclaration de solidarité. Leur but était de sensibiliser les milieux ouvriers et syndicaux à leur cause, en affrontant leur machisme, comme le déclarait un des meneurs du GLF dans les colonnes de leur bulletin : « We were there to CONFRONT the male chauvinism of the working people » 995 . En effet, les dirigeants du TUC les avaient relégués en fin de cortège, espérant ainsi qu'ils attireraient moins l'attention. Les militants gay furent pourtant loin de passer inaperçus et furent mentionnés dans la plupart des journaux, comme en témoignait un dessin humoristique d'un tabloïde conservateur estimant le nombre total de manifestants entre 80 000 et 150 000, selon que l'on comptait ou non les membres du GLF (voir annexe 24) 996. Cet épisode résumait la relation problématique entre les militants gay socialistes et le milieu syndical. Pour beaucoup, la lutte pour les droits des homosexuels était une distraction détournant l'attention des problèmes vitaux des coupes budgétaires et du chômage. Ce motif était également invoqué par les travailleurs homosexuels refusant de dévoiler leur orientation sexuelle, de peur de perdre leur emploi, ou de porter ombrage aux principales revendications syndicales de l'époque 997. La défense des cas d'employés licenciés en raison de leur homosexualité se heurta à la réticence à la fois des syndicats de s'emparer du sujet, mais aussi des membres gay craignant les représailles. Quelques cas médiatisés d'enseignants, de personnel médical et de fonctionnaires territoriaux ayant perdu leur emploi favorisèrent la formation de groupes défendant leurs intérêts spécifiques. Des campagnes locales furent mises en place, et aboutirent au vote de résolutions syndicales condamnant les discriminations basées sur l'orientation sexuelle 998. Les efforts pour établir des groupes gay à l'intérieur des syndicats rencontraient nettement plus de succès 994 « Out into the open », Spare Rib, juillet 1979, pp. 42-46. « GLF against the IRB », Come Together, 5, mai 1971, p. 1. 996 Lisa POWER, op. cit., p. 118. 997 « Crossroads – which way now? », Gay Left, 5, hiver 1977, pp. 15-17. 998 « In the balance », Gay Left, 6, été 1978, pp. 2-4. 995 2ème Partie - 2 : Mouvement gay et lesbien dans le secteur des services que dans le milieu industriel 999 . Néanmoins, la présence répétée des manifestants gay lors des différentes mobilisations aux côtés des employés et des syndicats, comme lors de la grève des ouvrières de l'usine de Grunwick, ou des marches sur Londres contre le chômage Right to work, contribua progressivement à faire évoluer les mentalités. Ces initiatives ouvrirent la voie aux collaborations de la décennie suivante entre militants gay et mineurs, avec la campagne « Lesbians and Gays Support the Miners » lors de la grève de 1984-5, dont le soutien s'avéra par la suite déterminant pour faire basculer la position du Parti travailliste en faveur de la défense des droits des homosexuels 1000. 2.2.4. Déclin 2.2.4.1. Montée du conservatisme moral Depuis le Festival of Light, les activités des gardiens de la morale et de la famille traditionnelle n'avaient pas cessé. Mary Whitehouse lança une autre offensive en 1976, à l'encontre du journal Gay News, symbole de la nouvelle visibilité de la communauté gay, qu'elle accusait de blasphème. La poursuite émanait de la publication d'un poème burlesque sur la passion du Christ, prêtant à ce dernier des désirs homosexuels 1001. Lors du procès, les attaques contre la perversion de ce texte en particulier, glissèrent vers la dépravation des homosexuels en général. Pour dépeindre ce portrait avilissant, l'avocat de Mary Whitehouse s'appuyait sur des articles parus dans les colonnes du journal, 999 « In Britain they're more subtle », Peace News, 11 juillet 1975, p. 5. « Gays and the Trade Union Movement », Gay Left, 1, automne 1975, pp. 6-7. « Strikes over sacked gay », Peace News, 20 août 1976, p. 3. 1000 Diarmaid KELLIHER, « Solidarity and Sexuality: Lesbians and Gays Support the Miners 1984–5 », History Workshop Journal, 77, no. 1, 1er avril 2014, pp. 240-262. 1001 « The Gay News trial », Gay Left, 5, hiver 1977, pp. 32-35. 339 340 Claire Mansour, Diffusion et évolution des mouvements sociaux provenant de militants pour la légalisation de la pédophilie 1002. Les militants gay dénoncèrent cet amalgame récurrent entre homosexuels et pédophiles : « This hatred and fear was rationalised along the only too familiar lines that all gays are dangerous pederasts, and that Gay News is no more than a fortnightly clarion call to mass child molestation »1003. Malgré l'état de fragmentation du mouvement gay et lesbien en différents groupes dispersés à travers le territoire, la riposte permit de rassembler les troupes dans un élan d'unité. En février 1978, une grande manifestation de soutien envers Gay News eut lieu à travers les rues de Londres. Réunissant plus de 5000 personnes, il s'agissait jusqu'alors du plus grand rassemblement de la communauté gay au Royaume-Uni 1004 . L'organisation Gay Activists Alliance fut créée peu après, afin de coordonner le mouvement à l'échelle nationale, essayant de trouver un compromis entre le réformisme de la CHE et le militantisme des groupes descendant du GLF. Mais ce nouveau souffle fut de courte durée. Le procès en appel du rédacteur en chef de Gay News se solda par une défaite, alimentant la perception des militants gay que les moralistes étaient en train d'émerger victorieux de leur croisade 1005 . À peu près au même moment, une campagne réactionnaire menée par le révérend Ian Paisley 1006 , intitulée « Save Ulster from Sodomy », jouait également sur la représentation manichéenne de l'homosexualité afin d'empêcher sa possible dépénalisation en Irlande du Nord. Il parvint à trouver un écho auprès de la population, recueillant près de 70 000 signatures dans le cadre d'une pétition. Ces évènements reflétaient le revirement idéologique à l'oeuvre dans la société, avec un retour vers des valeurs plus conservatrices, changeant peu à peu le discours public en matière de sexualité, et instaurant un climat de moins en moins propice au militantisme gay. 1002 Dans le contexte de la « révolution sexuelle », des associations de pédophiles tentèrent d'utiliser les mêmes cadres que ceux du mouvement gay afin de prôner la libération sexuelle des enfants, vus comme une nouvelle minorité opprimée. 1003 « The Gay News trial », Gay Left, 5, hiver 1977, pp. 32-35. 1004 « The Gay Activists Alliance », Gay Left, 6, été 1978, p. 8. 1005 « In the balance», Gay Left, 6, été 1978, pp. 2-4. 1006 Le révérend Ian Paisley était le dirigeant des unionistes radicaux du Democratic Unionist Party (DUP) en Irlande du Nord (voir chapitre suivant). 2ème Partie - 2 : Mouvement gay et lesbien 2.2.4.2. Fermeture de la structure des opportunités politiques L'essor du conservatisme moral s'accompagnait d'une répression étatique accrue. Le nombre croissant d'arrestations d'homosexuels convainquit les militants qu'ils étaient à nouveau victimes d'une chasse aux sorcières. Dans les Cornouailles, 28 hommes gay furent appréhendés et condamnés au mois de février 1977, tandis qu'à Bradford, ils furent plus de 3000 à être interrogés suite au viol et au meurtre d'un enfant de onze ans, entretenant ainsi le cliché de l'homosexuel pédéraste 1007. À Brighton et à Manchester, les associations gay se plaignaient des raids à répétition des forces spéciales. Ces phénomènes, répandus à travers le territoire, donnaient l'impression aux militants d'une véritable attaque institutionnalisée à l'encontre de leur communauté 1008 . L'élection de Margaret Thatcher, ne fit que renforcer cette conviction. Une de ses premières décisions fut d'augmenter sensiblement la rémunération des forces de l'ordre, laissant ainsi présager que la répression allait encore s'amplifier. Les valeurs familialistes défendues par les conservateurs étaient en tous points contraires à la vision du mouvement gay. Pire encore, le nouveau gouvernement était perçu comme réactionnaire, et certains de ses ministres comme homophobes : « Of direct relevance to gay people is the appointment to the highest legal positions in the Government of three men with long histories of moral bigotry, especially regarding homosexuality » 1009 . Quant aux initiatives collectives alternatives, elles allaient directement pâtir des coupes budgétaires drastiques annoncées. Ainsi, dans ce climat hostile à leurs revendications, les militants ne s'attendaient plus à la moindre concession de la part de leurs gouvernants. Si la dépénalisation des pratiques homosexuelles masculines fut bien étendue à l'Écosse en 1980, puis à l'Irlande du Nord en 1982, cela s'expliquait par l'intervention de la Cour européenne des droits de l'homme, 1007 « Gayhunt in Cornwall », Peace News, 11 mars 1977, p. 4. « Stop the witchunt », Peace News, 25 mars 1977, p. 4. 1008 « Editorial », Gay Left, 8, été 1979, pp. 2-3. 1009 Ibid. 341 342 Claire Mansour, Diffusion et évolution des mouvements sociaux qui avait forcé la main aux gouvernements de Londres et de Belfast. Mais au même moment, la prise de conscience de l'épidémie du SIDA, surnommé le « cancer gay » (« gay plague »), survint avec le décès de la première victime au Royaume-Uni, en juillet 1982, attisant encore davantage l'animosité à l'égard des homosexuels. 2.2.4.3. Conclusion et impact du mouvement Le mouvement gay et lesbien au Royaume-Uni commença à se développer ouvertement en réaction aux bouleversements sociétaux de la deuxième moitié du vingtième siècle. Les militants homosexuels trouvèrent au sein du mouvement pour le désarmement nucléaire des alliés hétérosexuels prêts à soutenir leur cause, mais aussi un environnement plus tolérant que le reste de la société, où ils pouvaient faire part de leur orientation sexuelle sans être rejetés, et occuper des postes à responsabilités. En ce sens, le mouvement pour le désarmement nucléaire facilita l'émergence de la première phase modérée du mouvement gay des longues années soixante, qui aboutit à la dépénalisation de l'homosexualité masculine en 1967. Dans le sillage des mouvements suivants, il prit une tout autre tournure. Résultant de processus de diffusion complexes, la deuxième phase de libération du mouvement gay fut caractérisée par une approche beaucoup plus frontale, inspirée des luttes armées de libération nationale. Les liens étroits des milieux étudiant et contre-culturel britanniques avec les États-Unis assurèrent une diffusion de grande ampleur du mouvement gay américain outre-Atlantique. Son idéologie et ses tactiques avaient été adaptées du Black Power et de la libération des femmes. Ainsi, les militants gay cherchaient à se forger une identité politique à travers l'affirmation de leur orientation sexuelle, au moyen d'une prise de conscience de leur oppression au sein d'une société et d'une culture préservant la domination masculine hétérosexuelle. Ce constat les plaçait logiquement aux côtés des féministes, qui continuèrent à être une source d'inspiration et des alliées stratégiques. À travers des techniques souvent théâtrales et humoristiques, ils tâchèrent de sensibiliser la population, de lutter contre les discriminations, mais 343 2ème Partie - 2 : Mouvement gay et lesbien aussi de créer leurs propres institutions parallèles. Sous l'influence du féminisme radical, certains préférèrent changer en priorité leur mode de vie, choisissant de vivre dans des communautés homosexuelles et de lancer des initiatives d'entraide. D'autres, en accord avec leurs convictions marxistes, se tournèrent vers les milieux ouvriers et syndicaux, afin d'oeuvrer à l'intégration des travailleurs gay dans le monde professionnel, tout en gardant en point de mire l'instauration d'un système socialiste. Le mouvement ne réussit pas seulement à obtenir la dépénalisation de l'homosexualité sur tout le territoire britannique, mais aussi à faire progressivement évoluer les mentalités. Les homosexuels avaient incontestablement gagné en visibilité et en acceptation, ce qui leur avait permis de se frayer une place dans la culture dominante. Ainsi, le style provocateur et festif du GLF déteignit sur les autres mouvements des années 1970 qui en intégrèrent rapidement le potentiel médiatique. 2ème Partie - 3 : Mouvements en Irlande du Nord 2.3. LES MOUVEMENTS POUR LES DROITS CIVIQUES, L'AUTO-DETERMINATION ET LA PAIX EN IRLANDE DU NORD Ce chapitre tâchera d'intégrer les mouvements sociaux en Irlande du Nord à ceux du reste du Royaume-Uni. Malgré la spécificité de son contexte historique, l'Irlande du Nord fut influencée par les mouvements sociaux se développant en Grande-Bretagne et à l'étranger, même si ces phénomènes trouvèrent parfois des formes d'expression différentes. En examinant les tournures particulières que prirent en Irlande du Nord certains mouvements sociaux, il s'agira de montrer qu'ils jouèrent un rôle crucial dans l'émergence de nouvelles mobilisations adaptées aux demandes spécifiques des habitants de la région, avant que ces dernières ne trouvent à leur tour des soutiens en Grande-Bretagne avec l'émergence de campagnes de solidarité. Dans une société profondément divisée, le rassemblement autour de demandes communes ne fut que de courte durée, ce qui justifie le choix de traiter séparément ces mobilisations, à mesure que leurs revendications évoluèrent. Afin d'étudier les liens entre les différents mouvements dans l'ensemble du Royaume-Uni et de replacer la région dans le contexte national, les sources primaires analysées dans ce chapitre seront principalement tirées de publications britanniques. L'hebdomadaire pacifiste Peace News offrit une couverture très régulière des évènements en Irlande du Nord, ainsi que des points de vue variés et nuancés. Ses correspondants locaux étaient souvent des militants pacifistes impliqués dans des projets de community organising, partageant le quotidien des habitants des quartiers populaires protestants ou catholiques. Les journaux de la gauche radicale prirent au contraire des positions très militantes, critiques à l'égard des autorités et sympathisant avec les éléments les plus radicaux de la minorité catholique. Le périodique The Irish Democrat de la Connolly Association, organisation socialiste nationaliste de la diaspora irlandaise en Grande-Bretagne, apportera un éclairage différent à l'analyse car il cherchait à tenir ses lecteurs 345 346 Claire Mansour, Diffusion et évolution des mouvements sociaux informés de l'actualité de toute l'île d'Irlande, mais aussi à obtenir l'adhésion de la classe ouvrière et du mouvement syndical à la cause de la réunification. Enfin, le jounal étudiant français Action fera également partie du corpus afin d'examiner les parallèles entre les évènements de mai 1968 et ceux de 1969 en Irlande du Nord. Depuis sa création en 1921 suite à la partition de l'île, l'Irlande du Nord n'avait d'autre raison d'être que d'éviter que les protestants ne se retrouvent en minorité au sein d'un État très majoritairement catholique. La région fut constituée de six des neuf comtés de la province d'Ulster, dont quatre avaient une nette majorité protestante et deux une faible majorité catholique, mais où les découpages électoraux garantissaient que le pouvoir reste aux mains des protestants. Selon les chiffres officiels du recensement de 1961, 35% de la population nord-irlandaise était catholique 1010 . Ces divisions religieuses avaient une incidence en termes politiques, puisque la plupart des protestants étaient favorables au maintien de l'Union avec la Grande-Bretagne, tandis que les catholiques souhaitaient généralement être réintégrés à la république d'Irlande. Mais avec les changements environnementaux de l'après-guerre, une nouvelle volonté d'intégration et de participation à la vie politique de la région commença à poindre au sein de la minorité catholique. 2.3.1. Émergence : facteurs environnementaux internationaux et locaux 2.3.1.1. Le courant oecuménique Le courant oecuménique témoignait d'une volonté d'unifier les églises chrétiennes. En ce sens, il contribua à améliorer les relations entre les communautés religieuses en Irlande du Nord durant les longues années soixante. Un tournant notable eut lieu avec l'élection en 1958 du pape Jean XXIII, 1010 « Catholics are increasing », The Irish Democrat, septembre 1965, p. 6. 2ème Partie - 3 : Mouvements en Irlande du Nord généralement considéré comme un pape libéral, défenseur des droits civiques, qui entreprit de moderniser l'Église catholique. Pour ce faire, il convoqua le concile Vatican II, lancé en octobre 1962. En Irlande du Nord, le mouvement se traduisit par une plus grande tolérance entre catholiques et protestants, ainsi qu'à l'apaisement de leurs discours. Il prit également des formes plus concrètes, notamment avec des célébrations de messes communes et des interactions accrues entre les deux communautés. Cette tendance contribua également à encourager les catholiques nord-irlandais à participer à des activités charitables organisées par des acteurs extérieurs à leur religion, ce qui allait jouer un rôle déterminant dans l'émergence des différents mouvements locaux. Cependant, ce sentiment de fraternité fut loin d'être partagé par les factions fondamentalistes protestantes qui envisageaient le rapprochement entre les deux communautés comme une trahison des principes de la Réforme 1011 . Comme la doctrine protestante fut développée en opposition à la religion catholique, ses principes furent bâtis pour la plupart en contrepoint, les divergences résultantes entre les deux religions étant considérées comme irréconciliables 1012. De ce fait, les fondamentalistes protestants remontèrent aux racines anticatholiques de la Réforme afin de prôner la séparation entre les deux communautés. La volonté unificatrice du mouvement oecuménique fut interprétée comme une conspiration fomentée par Rome et les protestants oeuvrant dans ce sens furent qualifiés de traîtres 1013 . Ainsi, l'archevêque de Cantorbéry Michael Ramsey 1014 , qui cherchait à améliorer les relations avec l'Église catholique, fut accusé d'être en réalité un évêque secrètement ordonné par le pape 1015. Les deux groupes les plus réfractaires étaient la Free Presbyterian 1011 David HEMPTON, « Ecumenism », dans S.J. CONNOLLY (éd.), The Oxford companion to Irish history, Oxford : Oxford University Press, 1998, pp. 167-68. 1012 Steve BRUCE, Paisley: religion and politics in Northern Ireland, Oxford : Oxford University Press, 2009, p. 5. 1013 Ibid. pp. 44-46. 1014 Michael Ramsey occupa la position d'archevêque de Cantorbéry de 1961 à 1974. 1015 Ibid. p. 44. 347 348 Claire Mansour, Diffusion et évolution des mouvements sociaux Church of Ulster (FPCU) dirigée par le révérend Ian Paisley et l'ordre d'Orange (Orange Order). Paisley émergea comme le porte-parole des protestants et unionistes radicaux, notamment à travers ses diatribes virulentes contre les catholiques mais aussi leurs alliés à ses yeux, c'est-à-dire les protestants partisans de l'oecuménisme et les unionistes modérés. Quant à l'ordre d'Orange 1016, il est peut-être l'organisation qui symbolise le mieux la fusion entre le protestantisme et l'unionisme depuis sa fondation à la fin du XVIIIe siècle en tant que société destinée à protéger les intérêts de l'élite protestante de tout gain d'influence politique de la communauté catholique 1017. L'étendue de son pouvoir se mesure dans le simple fait qu'entre 1926 et 1972 tous les Premiers ministres nordirlandais étaient des orangistes, de même que plus de 90% des parlementaires du principal parti unioniste de l'époque, l'Ulster Unionist Party (UUP) 1018. À l'instar de la FPCU de Paisley, l'ordre d'Orange adopta des positions très dures vis-à-vis de ses membres perçus comme ayant des liens étroits avec des catholiques ou assistant à des cérémonies catholiques, telles que mariages, funérailles ou messes. En 1959, lorsqu'un membre de l'UUP proposa que les catholiques soient autorisés à rejoindre les rangs du parti, il se heurta à l'opposition catégorique du grand maître de la Grande Loge d'Orange en Irlande (Grand Master of the Grand Orange Lodge of Ireland) qui déclara que les catholiques ne seraient admis en aucune circonstance 1019 . Le mouvement oecuménique était donc perçu comme une menace par les protestants et unionistes radicaux qui considéraient que l'intégration des catholiques – et donc leur influence politique accrue – se faisait forcément à leurs dépens. 1016 L'ordre d'Orange fut nommé en référence à William d'Orange, vainqueur de la bataille de la Boyne du 1er juillet 1690 qui vit le triomphe des forces protestantes sur les troupes catholiques de James II d'Angleterre. Elle est célébrée depuis sous forme de parades commémoratives, ayant lieu chaque année le 12 juillet. Le décalage fut engendré par la conversion au calendrier grégorien en 1752. Lee A. SMITHEY, Unionists, loyalists, and conflict transformation in Northern Ireland, Oxford ; New York : Oxford University Press, 2011, p. 23. 1017 Sabine WICHERT, Northern Ireland since 1945, Londres : Longman, 1999, p. 31. 1018 Steve BRUCE, op. cit., p. 194. 1019 « More bigotry in Belfast », The Irish Democrat, décembre 1959, pp. 1, 3. 2ème Partie - 3 : Mouvements en Irlande du Nord 2.3.1.2. L'arrivée au pouvoir de nouveaux dirigeants réformistes Reflétant la volonté de réconciliation entre protestants et catholiques, une nouvelle génération de dirigeants allait tenter d'accroître la collaboration triangulaire entre Dublin, Belfast et Londres. En république d'Irlande, l'élection du Taoiseach 1020 Sean Lemass en 1959 marqua une rupture avec la politique isolationniste et le protectionnisme économique caractéristiques du nationalisme traditionnel. Il fut à l'origine de l'ouverture de l'économie aux investisseurs étrangers et poursuivit une politique de rapprochement avec l'Europe, le Royaume-Uni et plus particulièrement l'Irlande du Nord 1021. Tout comme celle de Lemass, l'accession au pouvoir de Terence O'Neill en 1963 fut synonyme de changement et d'espoir pour la population. Issu du côté paternel de l'aristocratie anglo-irlandaise et descendant du côté maternel des rois celtiques de la période précoloniale, O'Neill se voyait à même de réconcilier les deux communautés nord-irlandaises. En tant que Premier ministre, il entreprit de se démarquer des salves anticatholiques généralement associées à ses prédécesseurs, visant à « jouer la carte orange » selon l'expression (« playing the orange card »), c'est-à-dire à renforcer l'unité protestante en exacerbant les divisions religieuses afin d'éviter toute alliance de classe. Il adopta une rhétorique d'intégration à l'encontre de la minorité catholique, affirmant son souhait de construire des ponts entre les deux confessions pour former une seule et même communauté (« building bridges between the two traditions within our community »)1022. Il joignit le geste symbolique à la parole en s'affichant à plusieurs reprises avec des membres du clergé catholique, et créa une première dans l'histoire des relations entre les deux Irlandes en invitant publiquement Lemass à Belfast en janvier 1965. La visite du Taoiseach au palais de Stormont, siège du gouvernement et du 1020 Le Taoiseach est le chef du gouvernement irlandais. Il occupe une fonction similaire au poste de Premier ministre. 1021 S. J. CONNOLLY, « Lemass, Sean », dans S.J. CONNOLLY (éd), The Oxford Companion to Irish History, op. cit., p. 313. 1022 « Tolerance and extremism in Ulster », Peace News, 15 juillet 1966, p. 3. 349 350 Claire Mansour, Diffusion et évolution des mouvements sociaux parlement nord-irlandais, suscita l'ire des unionistes radicaux et contribua à accroître les divisions au sein du parti. Ian Paisley saisit l'occasion pour accuser O'Neill d'avoir trahi les valeurs de l'unionisme en accueillant un « assassin papiste fénien » (« Fenian Papist murderer »), en référence au passé de Sean Lemass, qui avait combattu dans les rangs républicains durant l'insurrection de Pâques en 1916 1023. La victoire d'Harold Wilson en 1964 contribua également à l'ouverture de la structure des opportunités politiques et à l'instauration d'un climat plus propice aux transformations sociales en Irlande du Nord. Wilson considérait les discriminations dont étaient victimes les catholiques sous le régime unioniste nord-irlandais comme une source d'embarras, nuisant à l'image de pays défenseur des droits de l'Homme que le Royaume-Uni tenait à projeter dans le contexte de la guerre froide et de la décolonisation : « It seemed inconsistent to assert human rights in Africa or the darkest areas of Europe when they were patently denied in Ulster, part of the United Kingdom » 1024. L'introduction d'une loi contre les discriminations raciales et religieuses, avait fait partie de ses promesses de campagne 1025. Mais pire encore aux yeux des unionistes, le rapprochement entre la république d'Irlande et le Royaume-Uni, fut cimenté par un accord de libre-échange en décembre 1965 (Anglo-Irish Free Trade Agreement). Sur une période de dix ans, Wilson et Lemass s'engageaient à démanteler la totalité des barrières douanières tarifaires et non tarifaires entre les deux pays 1026. De plus, les remarques occasionnelles de Wilson à propos de son soutien à une éventuelle réunification de l'Irlande entretinrent la peur des unionistes de se voir rattachés à la république contre leur gré 1027. 1023 « Lemass talks trade with O'Neill », The Irish Democrat, février 1965, p. 1. « The Lemass – O'Neill talks », The Irish Democrat, mars 1965, p. 2. SUNDAY TIMES INSIGHT TEAM, Ulster, Londres : Penguin Books, 1972, p. 42. 1024 Harold WILSON, The Labour Government, op. cit., p. 49. 1025 « 1965 and the Irish in Britain », The Irish Democrat, janvier 1965, pp. 3-4. 1026 Harold WILSON, The Labour Government, op. cit., p. 241. 1027 Sabine WICHERT, op. cit., p. 89. 351 2ème Partie - 3 : Mouvements en Irlande du Nord 2.3.1.3. Montée du fondamentalisme protestant et de l'extrémisme unioniste Le fondamentalisme protestant et l'extrémisme unioniste étaient deux courants distincts, même s'ils possédaient des zones d'intersection, les mêmes individus appartenant souvent aux deux tendances. Ils furent perçus comme une menace par la population catholique, contribuant ainsi à la pousser à se mobiliser pour faire valoir ses droits. Le fondamentalisme protestant regroupait des dissidents presbytériens comme la FPCU d'Ian Paisley, ainsi que d'autres mouvances évangélistes. Ces groupes avaient en commun un certain conservatisme religieux, une volonté de séparation des principales dénominations protestantes et, surtout, un anticatholicisme virulent 1028. Ce courant joua un rôle prépondérant dans l'exacerbation des tensions entre communautés, à une époque où les relations étaient justement en train de s'améliorer. À travers des sermons enflammés et de violentes diatribes anticatholiques, les dirigeants fondamentalistes retranscrivaient en termes très manichéens une vision simpliste de la société. Quant aux unionistes radicaux, il s'agissait d'une idéologie semblable se fondant sur une vision politique binaire de la société, particulièrement populaire au sein de la classe ouvrière protestante. Ces partisans privilégiaient la défense du statut constitutionnel de l'Irlande du Nord dans la mesure où celui-ci garantissait l'hégémonie protestante, à la différence des unionistes modérés qui soutenaient l'union avec la Grande-Bretagne afin de préserver leur statut de citoyens du Royaume-Uni. Les premiers s'identifiaient donc comme protestants nordirlandais en premier lieu, tandis que les seconds se considéraient comme britanniques avant tout 1029 . La vision politique des unionistes radicaux était souvent perçue à travers le prisme stéréotypé des valeurs du fondamentalisme protestant, comme le Democratic Party of Ulster (DUP) créé par Ian Paisley en 1971 1028 1029 Steve BRUCE, op. cit., p. 42. Lee A. SMITHEY, op. cit., p. 56. 352 Claire Mansour, Diffusion et évolution des mouvements sociaux en ferait la démonstration. L'année 1966 marqua un tournant dans la carrière du révérend. Elle s'annonçait riche en commémorations pour les deux communautés, avec le cinquantième anniversaire de l'insurrection de Pâques et de la bataille de la Somme, dans laquelle la trente-sixième division de l'Ulster 1030 s'était brillamment illustrée. Paisley organisa une série de rassemblements, dégénérant à plusieurs reprises en confrontations avec les forces de l'ordre ou en émeutes sectaires. Un séjour en prison lui permit de se présenter en victime du système, et le soutien de ses fidèles, de plus en plus nombreux, n'en fut que plus fervent 1031 . Dès sa libération, il lança une campagne exigeant la démission du Premier ministre : « O'Neill must go, O'Neill will go! » 1032 . Ce dernier devait désormais compter sur la présence des partisans de Paisley lors de la plupart de ses apparitions publiques. 1966, année charnière, vit aussi la création de deux organisations paramilitaires loyalistes 1033. L'Ulster Volunteer Force (UVF), nommée en référence à la milice unioniste du début du siècle, fut créée afin d'empêcher les concessions à la minorité catholique et de renverser O'Neill 1034 . De nombreux membres de l'UVF faisaient également partie des Ulster Protestant Volunteers (UPV) dont les liens – selon de nombreux spécialistes du sujet – remontaient indirectement jusqu'à Paisley 1035 . Au cours de l'année, les deux organisations lancèrent une campagne de terreur à la fois dirigée contre les unionistes libéraux et la 1030 Les soldats de cette division provenaient exclusivement de la milice unioniste de l'Ulster Volunteer Force (UVF) ce qui expliquait l'importance de cette bataille dans la culture unioniste. L'UVF fut fondée en 1912 afin de résister à au projet d'autonomie politique de l'Irlande (Home Rule Bill) débattu au parlement britannique. 1031 « Paisley goes to jail », The Irish Democrat, août 1966, p. 1. « Anarchy spreads in Six Counties », The Irish Democrat, août 1966, p. 1. « Paisley in Mufti », The Irish Democrat, septembre 1966, p. 5. 1032 Sabine WICHERT, op. cit., p. 98. 1033 Dans le cadre de cette thèse le terme « loyaliste » sera réservé aux unionistes radicaux qui sont prêts à utiliser la violence pour arriver à leurs fins de manière analogue à l'usage du terme « républicain » utilisé pour désigner les nationalistes prônant le recours à la force. 1034 Jonathan BARDON, A history of Ulster, Belfast : Blackstaff Press, 1992, p. 635. 1035 Voir entre autres Michael FARRELL, Northern Ireland: the Orange State, Londres : Pluto Press, 1980, p. 237. Bob PURDIE, Politics in the streets: the origins of the civil rights movement in Northern Ireland, Belfast : Blackstaff press, 1990, p. 25. Dominic SANDBROOK, White Heat, op. cit., pp. 361-2. SUNDAY TIMES INSIGHT TEAM, op. cit., p. 60. Sabine WICHERT, op. cit., p. 96. 2ème Partie - 3 : Mouvements en Irlande du Nord population catholique. En février, un cocktail Molotov fut lancé à l'intérieur du quartier général de l'UUP et la police nord-irlandaise (Royal Ulster Constabulary, RUC) découvrit une conspiration destinée à assassiner le Premier ministre 1036 . Les commerces, écoles et autres institutions catholiques de Belfast furent également la cible d'attaques incendiaires de février à avril tandis qu'une campagne meurtrière à l'encontre des républicains aboutit par erreur à la mort de trois civils sans aucun lien avec des groupes paramilitaires 1037 . En réponse, O'Neill proscrit l'UVF en vertu du Civil Authorities [Special Powers] Act (1922) 1038. Dans son autobiographie, il explique que cette mesure fut mal perçue par les protestants radicaux, qui pensaient la loi destinée uniquement à lutter contre l'Irish Republican Army (IRA), tandis qu'elle reçut un accueil favorable de la part des modérés de tous bords 1039. 2.3.1.4. L'impact du Welfare State sur la population catholique Les réformes sociales d'après-guerre mises en oeuvre par le gouvernement Attlee furent en grande partie appliquées à l'Irlande du Nord, ce qui induisit une très forte hausse du niveau de vie, analogue à celles observées en GrandeBretagne, contribuant ainsi à l'acceptation tacite du statut constitutionnel de la région auprès de la minorité catholique 1040 . Les réformes du système éducatif facilitèrent l'accès du plus grand nombre à l'enseignement, et les universités s'ouvrirent aux étudiants catholiques grâce à la création de bourses au mérite 1036 Sabine WICHERT, op. cit., p. 99. « Tolerance and extremism in Ulster », Peace News, 15 juillet 1966, p. 3. « Reaction and religion », The Newsletter, 16 juillet 1966, p. 2. « Five on Belfast murder charge », The Irish Democrat, août 1966, p. 5. « Murder charges hearing at Belfast », The Irish Democrat, septembre 1966, p. 5. 1038 La loi sur les pouvoirs spéciaux fut votée pour la première fois en 1922, renouvelée chaque année jusqu'en 1933 où elle fut rendue permanente. Elle visait à doter les forces de l'ordre de pouvoirs d'urgence très étendus, leur permettant notamment de fouiller, d'arrêter et d'emprisoner un suspect sans mandat ni procès. Elle permettait également au gouvernement d'interdire tout rassemblement ou organisation afin de préserver l'ordre public. Graham ELLISON et Jim SMYTH, The Crowned Harp: Policing Northern Ireland, Londres : Pluto Press, 2000, pp. 23-24. 1039 Terence O'NEILL, The autobiography of Terence O'Neill, Londres : Hart-Davis, 1972, p. 82. 1040 Jonathan BARDON, op. cit., p. 587. 1037 353 354 Claire Mansour, Diffusion et évolution des mouvements sociaux permettant aux individus venant des milieux les moins favorisés de poursuivre leurs études. Côte à côte sur les bancs de la faculté, étudiants protestants et catholiques furent aussi amenés à se côtoyer dans les groupes et associations universitaires, ce qui allait les amener à faire preuve de plus de tolérance à l'égard de la communauté adverse et les prédisposer à coopérer 1041. L'accès aux études supérieures permit également aux catholiques d'occuper des emplois plus qualifiés, principalement dans le secteur privé – du fait des pratiques discriminatoires du public – en devenant médecins, avocats, professeurs ou cadres. Une meilleure formation et un statut socio-économique plus élevé rendirent cette nouvelle génération de catholiques plus sensibles aux discriminations dont ils faisaient l'objet et les dotèrent d'une conscience politique accrue. Le militant pour les droits civiques John Hume, lui-même bénéficiaire de ces réformes, décrivit leur impact crucial sur sa génération : When the history of Ireland in the twentieth century is written, a major element will be the emergence of a new educated generation from a section of the community that never before had such an education. This event cannot be over-emphasised. Education has brought more active thinking into the whole political arena as well, tackling not only the constitutional question, but also questions of injustice, civil rights, employment and housing – what politics is really about. 1042 Cette évolution dans les mentalités se traduisit également par un sentiment croissant d'allégeance à la Grande-Bretagne, dans la mesure où ces réformes sociales étaient en grande partie financées par Londres. La perception d'être mieux lotis que leurs homologues en république d'Irlande créa une sorte d'identification aux valeurs inhérentes à la citoyenneté britannique chez de nombreux catholiques, permettant à la quête pour plus de justice sociale de 1041 « Towards reconciliation », Peace News, 17 octobre 1958, pp. 2-3. John HUME, A new Ireland: politics, peace and reconciliation, Cork : Roberts Rinehart Publishers, 1996, p. 15. 1042 2ème Partie - 3 : Mouvements en Irlande du Nord détrôner celle de la réunification au rang de leurs priorités 1043. Ce phénomène s'accompagna également d'un rejet de la violence comme moyen de parvenir à des fins politiques. L'IRA, dont la plupart des membres étaient déjà retournés à la vie civile depuis les années 1920, reçut le coup de grâce avec l'échec de sa campagne de 1956-62 en raison d'un manque de soutien de la population de part et d'autre de la frontière 1044. Le cessez-le-feu fut suivi d'une scission de son aile politique, le Sinn Féin. L'ancienne génération de républicains se retira du parti pour laisser place à une nouvelle vague marxiste 1045. Ces derniers organisèrent des campagnes militantes, notamment en faveur de la nationalisation des eaux des lacs et des rivières irlandaises, jusque-là aux mains de grands propriétaires terriens qui en louaient les droits de pêche. Leur technique phare, le fish-in, nommé ainsi par analogie avec le sit-in, relevait de l'action directe et consistait à pêcher en groupe sans autorisation 1046. La majorité de la population catholique approuvait cet abandon de la violence grâce aux espoirs soulevés par le gouvernement O'Neill 1047. La réaction du Parti nationaliste (Nationalist Party), qui décida en 1965 de mettre un terme à sa stratégie d'abstention, témoignait de la même volonté de prendre part à la vie politique. En cessant de boycotter les institutions d'Irlande du Nord, les nationalistes acceptaient de fait le statut de la région. Pour la première fois depuis la partition, de nombreux catholiques étaient prêts à oeuvrer de manière constitutionnelle afin d'obtenir tous les avantages liés à leur statut de citoyens britanniques. 1043 Sabine WICHERT, op. cit., pp. 79-80. Dominic SANDBROOK, White Heat, op. cit., p. 349. 1045 Bob PURDIE, op. cit., p. 42. 1046 «'Fish-in' by the men of Drogheda », The Irish Democrat, novembre 1968, p. 2. « Fish-ins carry on », The Irish Democrat, mai 1970, p. 5. 1047 Dominic SANDBROOK, White Heat, op. cit., p. 351. 1044 355 356 Claire Mansour, Diffusion et évolution des mouvements sociaux 2.3.2. Influence des mouvements précédents sur le mouvement pour les droits civiques : 1958-69 2.3.2.1. Le mouvement pour le désarmement nucléaire Dès son émergence, le mouvement pour le désarmement nucléaire posa le problème des armes de destruction massive en termes moraux, ce qui lui valut le soutien d'un grand nombre d'organisations pacifistes chrétiennes, comme la Fellowship of Reconciliation ou des associations de quakers. En Irlande du Nord, ces mêmes organisations se réunirent en mai 1958 pour former une branche locale de la CND à Belfast, dont le révérend presbytérien Alex Watson fut le premier président 1048 . Le mouvement nord-irlandais fut le résultat du nouvel esprit de tolérance et de coopération entre les différentes confessions – caractéristique qui allait être mise en avant afin de gagner le soutien des protestants comme des catholiques, et qui serait déterminante pour le mouvement pour les droits civiques. Quelques mois plus tard, les mêmes organisations pacifistes chrétiennes lancèrent le premier d'une série de rassemblements annuels à la frontière avec la république d'Irlande afin d'oeuvrer à la réconciliation entre Nord et Sud, et dépasser les clivages politiques et religieux 1049. La CND nord-irlandaise s'efforça d'adopter une ligne non-partisane, ainsi que des tactiques beaucoup plus modérées que celles déployées en Grande-Bretagne, toujours dans un souci de cohésion. Lors des manifestations, étudiants, familles, syndicalistes et représentants des différents cultes défilaient dans le calme, de manière très disciplinée 1050. La CND nord-irlandaise faisait partie intégrante du mouvement britannique, envoyant chaque année une délégation à la marche d'Aldermaston à Londres, à laquelle participa d'ailleurs le jeune étudiant catholique Eamonn McCann, futur meneur du mouvement pour les droits civiques de la ville de 1048 « The Campaign in Northern Ireland », Peace News, 22 mai 1958, p. 2. « Towards reconciliation », Peace News, 17 octobre 1958, pp. 2-3. « Ireland conference on reconciliation », Peace News, 24 mars 1961, p. 3. 1050 « Belfast CND demonstration », The Irish Democrat, juin 1961, p. 1. 1049 2ème Partie - 3 : Mouvements en Irlande du Nord Derry-Londonderry 1051 . Des militants anglais et écossais firent également le déplacement pour assister aux évènements organisés en Irlande du Nord, et informer de l'avancée du mouvement en Grande-Bretagne 1052 . Le mouvement pour le désarmement nucléaire se développa aussi de l'autre côté de la frontière irlandaise, et choisit de s'intégrer au mouvement britannique. Des représentants furent dépêchés pour prendre part aux marches de Pâques à Belfast et à Londres, délaissant ainsi les célébrations nationalistes de l'insurrection de 1916 1053. Mais l'élément qui refléta sans doute le plus la dimension unificatrice du mouvement en Irlande, fut la décision des étudiants du Nord et du Sud de fusionner leurs associations, donnant ainsi naissance à la Irish Students' CND en 1962, au sein de laquelle jeunes catholiques et protestants oeuvraient de concert 1054. L'opposition aux armes nucléaires amena les militants nord-irlandais à protester plus directement contre le gouvernement unioniste, notamment lorsque le Premier ministre Lord Brookeborough déclara en novembre 1960 que la création d'une base de missiles Polaris dans la région permettrait de créer des emplois 1055. Mais au sein du mouvement, des critiques s'élevaient aussi au sujet des discriminations anticatholiques. Le chanoine de la Cathédrale Saint Paul de Londres et président de la CND, John Collins, ainsi que douze autres représentants de différentes églises protestantes, envoyèrent un télégramme à Lord Brookeborough l'exhortant à condamner les pratiques discriminatoires de 1051 Le nom de cette ville est un point de controverse entre les deux communautés. Le préfixe London- fut ajouté en 1613, lorsque la ville fit l'objet d'une charte accordée par le roi James I. Son nom officiel est donc théoriquement Londonderry, mais la majorité de ses habitants étant catholique, elle lui préfère son nom originel de Derry. Dans un souci de neutralité le nom Derry-Londonderry sera utilisé ici. 1052 « Irish at Aldermaston », The Irish Democrat, mai 1960, p. 7. « And in Northern Ireland », Peace News, 24 février 1961, p. 5. « Letter about the Irish CND », The Irish Democrat, novembre 1961, p. 2. « Worth fighting for », Socialist Review, mai 1994, [en ligne], [consulté le 25 mars 2018], disponible à l'adresse suivante : <https://www.marxists.org/history/etol/writers/mccann/1994/05/interview.htm>. 1053 « Dublin's first 'Aldermaston'», Peace News, 10 mars 1961, p. 5. « Dublin in Belfast CND procession », The Irish Democrat, mai 1962, p. 5. 1054 « Ireland: North and South agree », Peace News, 26 janvier 1962, p. 12. 1055 « Brookeborough wants Polaris », The Irish Democrat, décembre 1960, p. 1. 357 358 Claire Mansour, Diffusion et évolution des mouvements sociaux certains employeurs de Belfast 1056. Si l'interdiction des discriminations religieuses était une revendication de longue date des nationalistes, les récriminations officielles des ecclésiastiques protestants étaient un phénomène inédit. Une autre conséquence du mouvement pour le désarmement nucléaire en Irlande du Nord fut d'intégrer au répertoire d'action collective local les tactiques de désobéissance civile gandhienne. Le C100 essaima dans la région par l'entremise de la militante Pat Arrowsmith. En visite dans le cadre de sa campagne de sensibilisation chez les dockers à Belfast, elle prit part à une manifestation de la CND locale, entraînant ainsi la création d'une branche du C100 à l'université de Belfast Queen's University1057. Les modes d'action de la CND et du C100, comme les sit-ins ou les longues marches reliant deux points symboliques, deviendraient les tactiques de prédilection du mouvement pour les droits civiques en Irlande du Nord. Elles influencèrent également les nationalistes irlandais en Angleterre, qui organisèrent deux grandes marches lors de l'été 1961 reliant Londres à Birmingham, puis Liverpool à Nottingham, afin de sensibiliser la diaspora à la réunification de l'Irlande par des moyens pacifistes. Les militants firent étape dans les villes à forte population d'origine irlandaise, et reçurent le soutien ainsi que l'aide matérielle des membres de la CND 1058. À l'origine de cette initiative novatrice dans le mouvement nationaliste, la Connolly Association allait également contribuer à attirer l'attention des Britanniques sur les discriminations religieuses dont étaient victimes les catholiques en Irlande du Nord. Leur lutte pour l'égalité des droits les rapprocha des opposants à l'impérialisme britannique et aux discriminations raciales. 1056 « Storm over a Belfast handbill », The Irish Democrat, juillet 1961, p. 1. « Protest spreads throughout Britain », Peace News, 9 mars 1962, p. 12. 1058 « Ireland one country banner has crossed England », The Irish Democrat, juillet 1961, p. 1. « Now the North will hear too », The Irish Democrat, août 1961, pp. 4-5, 8. 1057 2ème Partie - 3 : Mouvements en Irlande du Nord 2.3.2.2. Le mouvement pour l'égalité raciale En Grande-Bretagne, la campagne menée contre la colour bar avait pris son essor au début des années 1960. Le député travailliste Fenner Brockway, président du Movement for Colonial Freedom, avait introduit plusieurs propositions de loi visant à interdire les discriminations raciales et religieuses 1059. Né en Inde et fervent partisan de la décolonisation, il soutenait également les efforts des nationalistes irlandais en Angleterre pour sensibiliser la population à la situation des catholiques sous le régime unioniste de Stormont. Lors de la conférence annuelle du MCF en 1962, une résolution condamnant le traitement inégalitaire des citoyens nord-irlandais fut votée 1060. Du fait de l'intérêt croissant pour les discriminations, des membres de la Connolly Association se rendirent en Irlande du Nord pour mener l'enquête dans une dizaine de villes. Les conclusions de leur rapport furent publiées dans les colonnes du journal de l'organisation. Les militants décidèrent d'aller informer directement la population en se lançant dans une nouvelle grande marche de plus de quatre cent kilomètres en avril 1962 1061. À travers le journal de leur organisation, ils essayèrent de tisser des liens avec la communauté antillaise, citant par exemple les mentions « No Irish or coloured » traitées dans les offres d'emploi, ou les slogans incitant à la haine utilisés dans des tracts électoraux pour les élections de 1964 à Belfast par des candidats unionistes du type « Do you want Roman Catholics in your street? We should not mince words on this matter » semblables au « If you want a nigger for a neighbour, vote Labour » associé au conservateur Peter Griffiths de Smethwick 1062. 1059 « 'Member for the colonies' to speak », The Irish Democrat, juin 1962, p. 1. « MCF condemns Stormont », The Irish Democrat, mai 1962, p. 1. 1061 « We probe occupied Ireland », The Irish Democrat, avril 1962, p. 1. « The Irish Freedom march », The Irish Democrat, mai 1962, pp. 2, 8. « Discrimination – law of Six-County life », The Irish Democrat, avril 1962, pp. 6-7. 1062 « Discrimination in Britain », The Irish Democrat, juillet 1961, p. 8. « Enquiry urged in House of Commons », The Irish Democrat, mars 1965, p. 1. « We want equal rights », The Irish Democrat, avril 1965, p. 4. 1060 359 360 Claire Mansour, Diffusion et évolution des mouvements sociaux En Irlande du Nord, la Campaign for Social Justice (CSJ) lancée par les époux Patricia et Conn McCluskey en janvier 1964, entreprit également de rassembler des preuves de discrimination à l'encontre des catholiques, à la fois pour sensibiliser la population britannique mais aussi pour pousser Westminster à user de son autorité suprême sur Stormont, comme le prévoyait le Government of Ireland Act (1920). Les données obtenues furent publiées sous formes de pamphlets et envoyées aux députés travaillistes, suscitant même plusieurs réponses d'Harold Wilson qui s'engageait à réparer ces torts 1063. Malgré ces efforts, le gouvernement et le parlement britannique demeuraient réticents à intervenir, alléguant que les discriminations relevaient du ressort des institutions nord-irlandaises. Ainsi, non seulement le champ d'application du Race Relations Act (1965) fut restreint à la Grande-Bretagne, mais il exclut aussi le critère de la religion 1064. En Irlande du Nord, de plus en plus d'élus protestants dénonçaient les injustices faites à la minorité catholique. Une députée de l'Ulster Liberal Party tenta de légiférer sur le sujet en 1966, mais sa proposition fut rejetée par le bloc unioniste 1065. Ces échecs répétés achevèrent de convaincre une coalition de militants de tous bords de la nécessité d'employer des stratégies extra-parlementaires. La Northern Civil Rights Association (NICRA) fut fondée officiellement à Belfast en janvier 1967, rassemblant des militants des milieux associatifs, syndicaux, et d'un large éventail politique, allant des socialistes républicains aux unionistes modérés 1066 . Le choix de formuler leurs revendications en termes de « droits civiques », délaissant ainsi l'étiquette de « justice sociale » précédemment utilisée par la CSJ, était une référence directe au mouvement des noirs américains. La grande médiatisation et l'image très positive dont bénéficiait ce dernier avait 1063 CAMPAIGN FOR SOCIAL JUSTICE IN NORTHERN IRELAND, Northern Ireland: The Plain Truth, Dungannon : 15 juin 1969 (2ème éd.), p. 2. « Six-Counties debate at Westminster », The Irish Democrat, septembre 1965, p. 8. 1064 « Brockway bill to be watered? », The Irish Democrat, février 1965, p. 8. « Six-Counties debate at Westminster », The Irish Democrat, septembre 1965, p. 8. 1065 « Unionists under fire », The Irish Democrat, mars 1966, p. 8. 1066 « United organisation for civil rights », The Irish Democrat, mars 1967, p. 8. 361 2ème Partie - 3 : Mouvements en Irlande du Nord conduit de nombreux sympathisants à établir des parallèles entre la situation des catholiques en Irlande du Nord et celle des noirs dans le Sud des États-Unis. Les inégalités systémiques sous le régime unioniste les cantonnaient à un statut de « citoyen de seconde zone » (« second-class citizen »), comme le clamaient les membres de la NICRA, reprenant ainsi une expression déjà fréquemment utilisée pour décrire la condition des noirs sous les lois Jim Crow 1067. Dès 1963, une lettre écrite au quotidien The Dungannon Observer s'indignait de leur situation d'infériorité et les qualifiait de « white negroes » 1068 . Un éditorial de l'Irish Democrat de février 1964 décrivait les discriminations dans les domaines de l'emploi, du logement ainsi que de la participation et de la représentation politique avant de conclure que la condition de la minorité nord-irlandaise était identique à celles des Afro-Américains : « The position is the exact parallel of the Negro Question in the United States »1069. L'analogie fut entretenue par les porte-paroles de la NICRA, à l'instar du député nationaliste Austin Currie, qui déclara en juin 1968 : « The situation in Northern Ireland is the same as that in the southern states of the USA [], the sole difference being that discrimination in Northern Ireland is based on religion rather than colour » 1070 . La violence des loyalistes fut également rapprochée de celle des suprématistes blancs, qualifiant par exemple l'UVF de « sorte de Ku Klux Klan nord-irlandais » préservant l'hégémonie protestante : « a secret society, devoted to preserving Protestant ascendancy, a kind of Six-County Ku Klux Klan » 1071 . Ces comparaisons simplistes rapprochaient deux situations complexes et différentes à des fins de propagande. Elles s'accompagnaient d'un degré de mise en scène volontaire de la part des militants lors de leurs actions, comme lorsqu'une pancarte fut placée dans les mains d'un enfant au visage maquillé de noir avec l'inscription suivante : 1067 « United organisation for civil rights », The Irish Democrat, mars 1967, p. 8. The Dungannon Observer, 7 septembre 1963. Cité dans Bob PURDIE, op. cit., pp. 92-93. 1069 « Discrimination enquiry », The Irish Democrat, février 1964, p. 3. 1070 « Nationalist Party Considering Non-Violent Civil Disobedience », The Irish News, 24 juin 1968. 1071 « Belfast barman shot dead », The Irish Democrat, juillet 1966, p. 1. 1068 362 Claire Mansour, Diffusion et évolution des mouvements sociaux We are pals from Alabama, Where they say we can't agree. Is there really much difference, When you look at him and me?1072 L'objectif était clairement d'attirer l'attention des médias, afin de gagner la sympathie de l'opinion publique et de forcer le gouvernement britannique à agir. La réticence des autorités unionistes à mettre un terme à ces inégalités fut jugée semblable à celle des gouvernements des États du Sud. Pour cette raison, les militants pour les droits civiques américains puis nord-irlandais tentèrent de faire appel à l'autorité suprême de leur gouvernement central, Washington pour les uns, Londres pour les autres, afin d'améliorer leur situation. Le choix d'adopter les techniques du mouvement de Martin Luther King émanait également du désir de s'inscrire dans une nouvelle tradition contestataire, non-violente et inclusive, se démarquant ainsi de celles associées historiquement aux communautés protestantes et catholiques. Dans une région où les défilés étaient la plupart du temps destinés à célébrer des commémorations nationalistes ou orangistes à l'intérieur de leurs territoires respectifs, les militants entendaient créer un espace neutre. Ainsi, les organisateurs des manifestations mettaient un point d'honneur à entonner « We Shall Overcome », hymne du mouvement noir américain, au lieu des chants républicains 1073. La première marche pour les droits civiques sur le modèle américain eut lieu entre Coalisland et Dungannon, le 24 août 1968, à l'appel de la NICRA. Le cortège d'environ deux mille manifestants reflétait la grande hétérogénéité du mouvement. Anciens républicains, nationalistes, travaillistes, socialistes, et unionistes modérés défilaient sous la même bannière1074. Bien que dans l'ensemble l'évènement se déroulât de manière pacifique, il y eut quand même des incidents mineurs dus à la présence 1072 Brian DOOLEY, Black and Green: The Fight for Civil Rights in Northern Ireland and Black America, Londres : Pluto Press, 1998, p. 30. 1073 Bernadette MCALISKEY, The price of my Soul, Londres : Pan Books, 1972, p. 93. 1074 « Northern Ireland – Not another fifty years! », The Irish Democrat, septembre 1968, pp. 4-5. 2ème Partie - 3 : Mouvements en Irlande du Nord d'opposants unionistes radicaux. L'itinéraire proposé par la NICRA avait été initialement validé par les autorités, mais ces dernières décidèrent finalement de le modifier à l'annonce d'une contre-manifestation des partisans d'Ian Paisley, prévue à la même heure et au même endroit. Les organisateurs de la NICRA refusèrent le nouvel itinéraire car il se cantonnait au quartier catholique, ce qui aurait inscrit le défilé dans la lignée des parades républicaines, alors que l'évènement se voulait précisément non-confessionnel. À leur arrivée à Dungannon, les militants se retrouvèrent bloqués par une rangée de policiers derrière lesquels se trouvait une foule d'environ 1500 contre-manifestants 1075 . Quelques jeunes catholiques tentèrent de forcer le passage mais furent éconduits à coups de matraques. Les appels au calme répétés des organisateurs de la NICRA parvinrent à maintenir l'ordre, et les discours se succédèrent sans autres anicroches. La manière dont les évènements furent relatés dans la presse nordirlandaise était révélatrice des perceptions des protagonistes. Dans un article intitulé « Batons used on civil rights marchers in Dungannon » du quotidien nationaliste The Irish News, les catholiques étaient dépeints comme des victimes de la répression unioniste, les coups de matraques des policiers devenant le symbole de la domination unioniste 1076. L'accent était également mis sur la responsabilité du gouvernement britannique, dont le devoir était d'intervenir afin de remédier à la situation de la minorité et de garantir son droit à manifester pacifiquement. Le reportage « Ban proves civil rights need » du Belfast Telegraph – journal du soir prisé par les unionistes modérés – lut dans la réticence des autorités à contrôler les unionistes radicaux la nécessité d'établir les droits civiques afin d'obtenir un 1075 Bob PURDIE, op. cit., p. 136. « Batons Used on Civil Rights Marchers in Dungannon », The Irish News, 26 août 1968 [en ligne], [consulté le 18 septembre 2015], disponible à l'adresse : <http://cain.ulst.ac.uk/events/crights/newspapers/scott3.htm#26>. 1076 363 364 Claire Mansour, Diffusion et évolution des mouvements sociaux gouvernement plus démocratique 1077 . Enfin, le quotidien unioniste radical, The News Letter, affirmait dans l'éditorial « Not so civil » que les policiers avaient été attaqués alors qu'ils tentaient de séparer deux factions extrémistes rivales 1078. Les liens entre la NICRA et le mouvement républicains y étaient largement exagérés. S'il était effectivement avéré que le député socialiste républicain Gerard Fitt (dit « Gerry ») avait conclu son discours en définissant comme objectifs les droits civiques et la réunification de l'Irlande, il paraissait beaucoup plus improbable qu'un orateur ait incité la foule à rejoindre l'IRA pour continuer le combat comme le martelait l'article. Ainsi, malgré les précautions des organisateurs de la NICRA et leur insistance sur le caractère non-violent et inclusif de leur mouvement, les unionistes radicaux les accusèrent de n'être qu'une organisation de façade pour l'IRA. Pourtant de nombreux protestants avaient bien rejoint les rangs du mouvement, au plus haut niveau, comme Ivan Cooper et Elizabeth Sinclair (dite « Betty »), mais aussi jusque dans sa base, grâce aux liens avec le mouvement ouvrier. 2.3.2.3. Le mouvement ouvrier Au début des années soixante, le mouvement ouvrier tentait de rassembler catholiques et protestants pour former une alliance de classe et transcender les divisions historiques, ce qui fut sans doute sa contribution la plus significative au mouvement pour les droits civiques. Un premier signe du changement progressif des mentalités fut la montée du Northern Ireland Labour Party (NILP) à la fin des années 1950. L'économie nord-irlandaise souffrait alors de la concurrence internationale dans ses deux secteurs principaux, le textile et la construction navale, dont les taux d'emplois avaient chuté de 28% et de 16% respectivement 1077 «'Ban Proves Civil Rights Need'», The Belfast Telegraph, 26 août 1968 [en ligne], [consulté le 18 septembre 2015], disponible à l'adresse : <http://cain.ulst.ac.uk/events/crights/newspapers/scott3.htm#26>. 1078 « Not so Civil » The News Letter, 26 août 1968 [en ligne], [consulté le 18 septembre 2015], disponible à l'adresse suivante : <http://cain.ulst.ac.uk/events/crights/newspapers/scott3.htm#26>. 365 2ème Partie - 3 : Mouvements en Irlande du Nord entre 1950 et 1961, entrainant de nombreuses grèves et manifestations 1079 . L'immobilisme du gouvernement et l'agitation syndicale favorisèrent le NILP, plus à même de capitaliser sur les préoccupations socio-économiques de la population, notamment celles de la classe ouvrière, alors que les unionistes de l'UUP étaient perçus comme un parti élitiste et conservateur. En 1958, le NILP remporta quatre nouveaux sièges à Belfast, qu'il retint en 1962, récoltant jusqu'à 26% des suffrages 1080. Deux de ces sièges se trouvaient dans des circonscriptions ouvrières à forte majorité protestante, votant traditionnellement pour l'UUP, tandis que dans les deux autres circonscriptions gagnées, les candidats du NILP avaient reçu un soutien provenant en parts égales des catholiques et des protestants, témoignant de l'érosion progressive du traditionnel esprit de clocher. Tout comme en Grande-Bretagne, les syndicats connaissaient une croissance importante. Leurs effectifs avaient augmenté de 15% entre 1960 et 1966, atteignant un total de 246 000 adhérents 1081. Le gouvernement unioniste refusa jusqu'en 1964 de reconnaître l'organisation représentant la plupart des syndicats nord-irlandais, le Northern Ireland Committee of the Irish Congress of Trade Unions (NICICTU) en raison de son affiliation à la fédération des syndicats irlandais ICTU, redoutant l'interférence du mouvement républicain 1082 . Le NICICTU essayait d'unir la classe ouvrière au travers de ses mobilisations, notamment les célébrations du début du mois de mai. Depuis le début des années 1960, la dimension inclusive du défilé dans le centre de Belfast était mise en avant par les organisateurs, évoquant dans leurs discours la nécessité de s'opposer à la classe dirigeante qui exploitait les divisions religieuses afin d'asseoir sa 1079 Sabine WICHERT, op. cit., p. 58. « 'We want work' strike shakes Belfast », The Irish Democrat, avril 1961, p. 8. « Labour gains in North », The Irish Democrat, avril 1958, p. 8. « Six-County elections », The Irish Democrat, juin 1962, p. 2. 1081 « Trade Unions are growing », The Irish Democrat, septembre 1966, p. 5. 1082 « Irish Trade Union Unity », The Irish Democrat, mai 1959, pp. 2, 7. « T.U. recognition is now likely », The Irish Democrat, août 1964, p. 2. 1080 366 Claire Mansour, Diffusion et évolution des mouvements sociaux domination1083. Le retrait du Special Powers Act (1922) trouvait un écho particulier chez les syndicalistes de toutes confessions, car il pouvait être utilisé à leur encontre. Le cortège du May Day de 1965 réunit environ 6000 manifestants défilant au son de deux fanfares ouvrières représentant les deux communautés, et fut considéré comme une démonstration d'unité sans précédent dans la région 1084. Le mouvement syndical manifestait un intérêt croissant pour la cause des droits civiques, et le Belfast Trades Council organisa une grande conférence sur le sujet le 8 mai 1965. Lors de cet évènement, des délégués des principaux syndicats nord-irlandais et britanniques ainsi que des milieux associatifs et politiques se réunirent afin de débattre du manque de démocratie inhérent au système nord-irlandais. Ils adoptèrent à l'unanimité une résolution condamnant les pratiques électorales injustes, liées notamment au découpage des circonscriptions et au vote plural accordé aux chefs d'entreprise ou aux universitaires 1085. Les différents orateurs insistèrent sur le fait que ces irrégularités ne nuisaient pas seulement aux catholiques, mais à l'ensemble de la classe ouvrière, s'assurant ainsi le soutien des nombreux représentants protestants. Cet argument fut par la suite continuellement mis en avant par les dirigeants du mouvement pour les droits civiques. Lors de son discours à la séance inaugurale de la NICRA, la secrétaire générale du Belfast Trades Council, Betty Sinclair, formula le problème en termes d'égalité des chances par le biais d'une comparaison de deux quartiers protestants, l'un plutôt aisé et l'autre défavorisé, soulignant ainsi les inégalités sociales plutôt que religieuses 1086. Dans le domaine de la lutte contre le mal-logement et le chômage, citoyens catholiques et protestants joignirent également leurs forces. À Belfast, les locataires des logements sociaux s'étaient réunis en 1961 au sein de l'Amalgamated 1083 « Unemployed demonstrate in Belfast », The Irish Democrat, mai 1961, p. 8. « New moves to free last prisoners », The Irish Democrat, mai 1962, p. 2. 1084 « Belfast talks civil rights », The Irish Democrat, mai 1965, p. 2. « May Day 1965 », The Newsletter, mai 1965, p. 4. 1085 « Amazing conference in Belfast », The Irish Democrat, juin 1965, p. 8. 1086 « United organisation for civil rights », The Irish Democrat, mars 1967, p. 8. 2ème Partie - 3 : Mouvements en Irlande du Nord Tenants Committee afin de faire valoir leurs intérêts commun, et de s'opposer à la hausse des loyers 1087 . Des comités d'action furent également créés par des coalitions de militants de gauche déterminés à utiliser des tactiques de désobéissance civile, comme le Derry Housing Action Committee (DHAC), formé en février 1968. Ses membres aidèrent des familles sans domicile à se loger, allant jusqu'à les installer dans des maisons inoccupées 1088. En juin, ils bloquèrent la circulation à l'aide de la caravane dans laquelle vivait une famille avec deux enfants afin d'attirer l'attention de la population sur les conditions de vie difficiles des personnes sans logement. Le véhicule dut ensuite être déplacé par les forces de l'ordre et une dizaine de membres du DHAC fut assignée en justice 1089. Un groupe similaire avait déjà été créé dans la ville pour s'attaquer au problème du chômage en janvier 1965. Le Derry Unemployed Action Committee (DUAC) interrompait régulièrement les réunions des élus locaux, occupait les bâtiments publics et organisait des manifestations lors de la venue de membres du gouvernement 1090. Il joua un rôle crucial dans la campagne de protestation contre le choix de la ville de Coleraine pour accueillir la deuxième université de l'Irlande du Nord en 1965. Cette mobilisation reçut un fort soutien des communautés protestantes et catholiques de Derry-Londonderry, s'indignant que la deuxième ville de la région soit ainsi délaissée, alors même qu'elle avait été recommandée par le rapport d'un expert anglais 1091. Ils dénonçaient la stratégie du gouvernement de négliger les zones où la proportion de catholiques était plus importante, mais aussi la volonté de préserver les arrangements électoraux 1087 John NAGLE, Mary-Alice C. CLANCY, Shared Society or Benign Apartheid? Understanding Peace Building in Divided Societies, Basingstoke : Palgrave Macmillan, 2010, p. 85. 1088 « House commandeered for Derry family », The Irish Democrat, avril 1968, p. 5. 1089 « Notes and news », The Irish Democrat, août 1968, p. 3. « Housing protest in Derry street », The News Letter, 24 juin 1968, [en ligne], [consulté le 29 mars 2018], disponnible à l'adresse suivante : <http://cain.ulst.ac.uk/events/crights/newspapers/scott1.htm>. 1090 « A city fights for life », The Irish Democrat, février 1966, p. 2. 1091 « Derry – study in industrial apartheid », The Irish Democrat, décembre 1967, p. 4. 367 368 Claire Mansour, Diffusion et évolution des mouvements sociaux existants dans leur ville 1092 . Les étudiants du Magee College prirent également part aux manifestations, accueillant notamment le Premier ministre lors de sa visite à la base navale locale avec un cercueil noir portant l'inscription « Democracy? » 1093. Les étudiants devenaient également de plus en plus militants, et allaient former le fer de lance du mouvement pour les droits civiques. 2.3.2.4. Le mouvement étudiant Comme en Grande-Bretagne, de nombreux étudiants rejoignirent les rangs de la CND et des Young Socialists. Ces derniers étaient particulièrement radicaux, et se montrèrent très critiques à l'égard de la politique du gouvernement travailliste britannique, allant même jusqu'à se désaffilier du NILP en 1965 1094. En mars 1967, le ministre de l'Intérieur nord-irlandais William Craig fit proscrire les associations républicaines en vertu du Special Powers Act de 1922. Ces groupes avaient été formés en raison de l'interdiction qui frappait le Sinn Féin, le parti républicain irlandais, depuis 1956, suite à la campagne de l'IRA. Mais depuis l'échec de cette dernière, les associations républicaines ne prônaient plus l'insurrection armée mais la participation politique, selon des modes d'action similaires à ceux de la gauche radicale. Désireux de s'opposer à ce qu'ils considéraient comme une violation de la liberté d'expression, les étudiants de l'université de Belfast créèrent leur propre association républicaine dès le lendemain de l'annonce de l'interdiction. Plusieurs actions furent organisées, culminant au mois de novembre avec une manifestation d'environ 2000 1092 Près des deux tiers de la population de Derry-Londonderry étaient catholiques, mais le découpage des circonscriptions électorales leur était très défavorable. Ils étaient en grande majorité regroupés dans la circonscription du sud de la ville, qui comptait 11 185 votants (10 047 cathooliques, 1138 protestants) pour élire un total de huit représentants. Les deux autres circonscriptions comptaient respectivement 6476 et 5549 votants, au deux tiers protestants, mais été représentées par un total de douze élus, selon les chiffres officiels de 1969. CAMERON COMMISSION, Cameron Report: Disturbances in Northern Ireland, 1969, HSMO, § 134, [en ligne], [consulté le 23 septembre 2015], disponible à l'adresse : <http://cain.ulst.ac.uk/hmso/cameron.htm>. 1093 « Unionists want to kill Derry », The Irish Democrat, avril 1965, p. 1. « They are trying to kill Derry City », The Irish Democrat, octobre 1965, p. 8. 1094 « Northern Ireland YS breaks from Labour Party », Keep Left, novembre 1965, p. 8. 2ème Partie - 3 : Mouvements en Irlande du Nord étudiants, dont certains venus de Dublin et de Leeds en soutien. Ils protestaient contre l'autoritarisme de l'État, étouffant l'opposition démocratique, comme en témoignaient leurs pancartes proclamant entre autres « Democracy is dead »1095. En avril, le syndicat national des étudiants britanniques adopta une résolution de soutien aux militants de Belfast, dénonçant le « fascisme » des autorités nordirlandaises, « digne du régime de Franco » (« worthy of the fascist Franco regime »)1096. Cette rébellion contre la répression étatique allait caractériser l'approche radicale des militants étudiants au sein du mouvement pour les droits civiques par l'entremise de leur organisation : People's Democracy (PD). Cette dernière fut fondée à l'université de Belfast, en réaction à la répression policière brutale d'un cortège de manifestants de la NICRA à DerryLondonderry, le 5 octobre 1968 1097 . De nombreux étudiants protestèrent à travers les îles britanniques contre ces violences policières 1098. À Belfast, le comité qui avait organisé la campagne contre l'interdiction des sociétés républicaines appela à manifester le 9 octobre. Un cortège d'environ 3000 étudiants se dirigeant vers la mairie fut stoppé par les forces de l'ordre, en raison d'une contremanifestation organisée par les partisans d'Ian Paisley. Ils improvisèrent alors un sit-in au milieu de la rue pendant près de trois heures, avant de retourner à leur université tenir un grand rassemblement pour débattre de l'avenir de leur mouvement, aboutissant à la formation de la People's Democracy1099. Le noyau dur du groupe était constitué de militants catholiques et protestants des Young Socialists, à l'instar de Michael Farrell ou Eamonn McCann, qui en deviendraient des figures emblématiques. Leur organisation fut conçue selon les idéaux de la Nouvelle Gauche, privilégiant l'horizontalité et la participation. Les militants élurent un comité de dix membres surnommé le « Faceless Committee », 1095 « Students defy Stormont », The Irish Democrat, décembre 1967, p. 8. « British students protest at 'fascism' », The Irish Democrat, mai 1968, p. 5. 1097 « The battle of Derry and its lessons for us », The Irish Democrat, novembre 1968, pp. 4-5, 7. 1098 « London students protest », The Irish Democrat, novembre 1968, p. 8. « British democrats join Derry brutality protest », The Irish Democrat, novembre 1968, p. 8. 1099 « The civil righters », Peace News, 17 janvier 1969, pp. 4-7. 1096 369 370 Claire Mansour, Diffusion et évolution des mouvements sociaux car aucun d'eux ne devait avoir de lien avec à un parti politique, comme ce fut le cas pour Bernadette Devlin. Cette étudiante de psychologie allait devenir l'un des principaux porte-parole du mouvement, et être propulsée sur la scène nationale en devenant la plus jeune députée de sexe féminin élue à Westminster. Le « Faceless Committee » était de surcroit dénué de tout pouvoir exécutif, ayant simplement pour but de coordonner les rassemblements et d'organiser les débats. La clé de voute de l'organisation était la démocratie participative, les décisions étant toujours prises par vote majoritaire de l'ensemble des personnes présentes, sans qu'elles ne soient tenues d'être membres 1100 . Cette jeune génération était également plus militante que ses aînés, ce qui les conduisit à refuser la trêve demandée par O'Neill en décembre pour mettre en place un programme de réformes, alors qu'elle avait été acceptée par la NICRA. Les partisans de la PD décidèrent de maintenir leur marche entre Belfast et Derry-Londonderry afin de rompre la trêve, dénonçant l'insuffisance des concessions du gouvernement qui ne garantissaient pas la demande phare de l'égalité devant le suffrage : « One man, one vote » 1101. Emmenés par Farrell, McCann et Devlin, quatre-vingt marcheurs quittèrent Belfast le 1er janvier 1969 1102. Leur périple fut marqué par de violentes altercations avec les partisans d'Ian Paisley, atteignant leur paroxysme au matin du 4 janvier, lors de l'incident connu sous le nom de « l'embuscade de Burntollet » (« the Burntollet Ambush »). La police les guida jusqu'au niveau du pont de Burntollet, situé quelques kilomètres avant Derry-Londonderry, où ils furent attaqués par une foule d'environ 300 contre-manifestants. Parmi eux, la présence 1100 Ibid. « People's Democracy Plans Derry March », Peace News, 27 décembre 1968, p. 4. 1102 CAMERON COMMISSION, Cameron Report: Disturbances in Northern Ireland, 1969, HSMO, §93, [en ligne], [consulté le 23 septembre 2015], disponible à l'adresse : <http://cain.ulst.ac.uk/hmso/cameron.htm>. 1101 2ème Partie - 3 : Mouvements en Irlande du Nord de membres en civil des B-Specials 1103 acheva de convaincre les militants de la partialité des forces de l'ordre, d'autant plus que selon leurs témoignages, la collusion était manifeste entre les policiers en service présents sur les lieux et les assaillants 1104. Le soir même, après l'arrivée du cortège à Derry-Londonderry, des policiers pénétrèrent dans le quartier catholique du Bogside, où ils terrorisèrent les résidents en jetant pierres et briques à travers les fenêtres les habitations, brutalisant les passants, et chantant des hymnes loyalistes jusqu'au lendemain matin. Les jeunes militants radicaux présents parmi les habitants décidèrent d'ériger des barricades pour repousser les forces de l'ordre, comme l'avaient fait les étudiants parisiens lors de la « nuit des barricades » du 10 mai 1968. Ils bloquèrent tous les accès au Bogside, et marquèrent l'entrée du quartier par l'inscription désormais célèbre « You are now entering Free Derry » peinte sur un pan de mur. Ils établirent les prémices d'un système autogestionnaire, organisant la défense du périmètre grâce à une brigade baptisée la « People's Force », et lançant leur propre radio : Radio Free Derry. L'enclave demeura coupée du reste de la ville pendant six jours. Il transparait clairement des témoignages des participants que leur source d'inspiration était les évènements du Quartier latin, et non pas la tradition républicaine locale. Dans leurs récits, les militants évoquaient la « Commune de Derry » (« Derry Commune ») et ses « Derry Communards », comme les étudiants du Quartier latin qui avaient eux-mêmes fait référence à la Commune de Paris de 1871 1105. Après trois jours passés derrière les barricades, le militant de la PD Paul Campbell, décrivait son expérience en ces termes : Behind the barricades the embryo of a new society developed – a society distinguished from the rest of the world by the camaraderie and 1103 Les B-Specials faisaient partie de la police spéciale d'Ulster (Ulster Special Constabulary) qui était une force de police auxiliaire exclusivement protestante. Le régime unioniste y avait recours afin de réprimer les soulèvements nationalistes, ils étaient donc particulièrement mal vus par la communauté catholique. Graham ELLISON et Jim SMYTH, op. cit., p. 30. 1104 « The Derry march is over: now civil war – or revolution? », Peace News, 10 janvier 1969, pp. 1-2. « Ambush at Burntollet: 'Ulster police helped' », Peace News, 15 août 1969, pp. 1, 5. 1105 « Notre Commune du 10 mai », Le Nouvel Observateur, 15 mai 1968, p. 32. « La Commune – c'est moi! », Peace News, 24 mai 1968, p. 1. « Derry squat-in goes on », The Black Dwarf, 27 janvier 1969, p. 12. 371 372 Claire Mansour, Diffusion et évolution des mouvements sociaux interdependence that was necessary for the co-ordinated running of Free Derry. Such features were manifest in the willingness of each man to take his time on the barricades, by the co-operation of the people in feeding the people, by the communal cigarette packets, and by the setting up of a Free Derry Radio as an expression of the community's unity of action. 1106 Le caractère utopique de cette description était emblématique de la vision de la gauche radicale, et l'atmosphère dépeinte reflétait une insouciance sans doute plus proche des jeunes Enragés 1107 de Paris que de la tradition insurrectionnelle de l'IRA. Si les barricades furent démantelées au bout de six jours, elles seraient remontées plusieurs fois au cours des prochains mois, afin de repousser les raids policiers et les assauts loyalistes à coup de pierres et de cocktails Molotov 1108 . Les habitants des quartiers catholiques de Belfast, également sous l'influence de militants de la PD, érigèrent à leur tour des barricades, donnant naissance à l'enclave surnommée « Free Belfast », avec sa propre radio du même nom et des comités d'autodéfense 1109. Les militants de la PD adaptèrent également d'autres tactiques contestataires popularisées par les évènements de mai 1968, notamment celles des occupations. Mais étant donné que leurs demandes s'adressaient aux gouvernements nord-irlandais et britanniques, ils choisirent d'occuper des bâtiments publics symboliques, comme le palais de Stormont, le château de Belfast, ainsi que de plusieurs mairies 1110. 1106 « Derry squat-in goes on », Peace News, 17 janvier 1969, p. 2. Les étudiants les plus radicaux de la faculté de Nanterre se surnommaient entre eux les « Enragés ». Après avoir occupé leur université en mars 1968, ils participèrent à celle de la Sorbonne en mai, et à la construction des barricades dans la nuit du 10 mai dans le Quartier latin. Le nom fut alors utilisé plus largement pour renvoyer aux militants étudiants parisiens radicaux. « La semaine enragée », Action, 13 mai 1968, pp. 1-2. 1108 « Derry », The Black Dwarf, 30 août 1969, p. 8. 1109 « Belfast », The Black Dwarf, 30 août 1969, p. 8. 1110 « One Northern Ireland community », Peace News, 17 janvier 1969, p. 1. « The civil righters », Peace News, 17 janvier 1969, pp. 4-7. « Northern Ireland: 'guerilla' actions go on during truce », Peace News, 6 juin 1969, p. 4. 1107 373 2ème Partie - 3 : Mouvements en Irlande du Nord Dans les mois suivants, de nombreuses branches de la PD furent formées dans plusieurs villes d'Irlande du Nord, comme à Newry 1111 . Le succès de l'organisation fut également reflété dans le score de ses membres aux élections nord-irlandaises de février 1969. Les candidats du mouvement pour les droits civiques souhaitaient dénoncer la logique partisane stérile des unionistes et des nationalistes, s'entendant de manière tacite pour ne pas empiéter sur leurs territoires respectifs. Ainsi, ils se présentèrent donc à la fois contre des unionistes et des nationalistes. À Derry-Londonderry, John Hume et Ivan Cooper de la NICRA remportèrent des circonscriptions traditionnellement nationalistes. Quant aux candidats de la PD, ils obtinrent un total de 23 000 votes, et certains d'entre eux ne perdirent que de peu 1112 . Le manifeste de la PD reprenait les demandes principales du mouvement pour les droits civiques, mais en y ajoutant celles de la gauche radicale, comme le contrôle ouvrier étendu à toutes les entreprises. Pour se démarquer des clivages historiques, la PD soutenait la libre détermination du peuple nord-irlandais, et non irlandais comme les nationalistes, ainsi que l'extension des droits civiques aux habitants de la république d'Irlande 1113. Cette position critique à l'égard de la situation au sud de la frontière était destinée à obtenir le soutien des protestants. Pour faire valoir ce point, ses militants organisèrent une nouvelle marche entre Belfast et Dublin pour la Pâques, en référence à la CND, au mois d'avril 1969. Dans le cortège d'environ 350 marcheurs, 40 étudiants anglais étaient venus en solidarité 1114 . Les organisateurs, Farrell et McCann, évoquèrent dans leurs discours à Dublin les problèmes de logements et de chômage communs aux Irlandais de toutes confessions, mais aussi ceux qui concernaient spécifiquement les protestants en république d'Irlande, comme l'interdiction du divorce, de l'avortement, de la 1111 « One Northern Ireland community », Peace News, 17 janvier 1969, p. 1. « The civil righters », Peace News, 17 janvier 1969, pp. 4-7. 1112 « Ulster: 23,000 support People's Democracy », Peace News, 28 février 1969, p. 1. 1113 « People's Democracy plan », Peace News, 14 février 1969, p. 4. 1114 « People's Democracy Easter march », The Black Dwarf, 18 avril 1969, p. 2. 374 Claire Mansour, Diffusion et évolution des mouvements sociaux contraception orale, ou encore les lois de censure 1115. La PD se tourna ensuite vers la Grande-Bretagne, essayant de forger des liens avec la gauche radicale, et ouvrit une branche à Londres en mai 1969. Du fait de l'élection à Westminster le mois précédent de Bernadette Devlin, devenue la nouvelle coqueluche des médias, le mouvement avait encore gagné en visibilité, comme le démontrait la présence d'une foule de journalistes espérant l'apercevoir lors du rassemblement inaugural de l'organisation dans la capitale 1116. Devlin et les membres de la PD allaient aussi tirer parti de la popularité de la mobilisation contre le Vietnam afin de promouvoir leur cause auprès des partisans de la gauche radicale. 2.3.2.5. Le mouvement contre la guerre du Vietnam À partir de 1965, la CND nord-irlandaise organisa des mobilisations en opposition à l'intervention américaine au Vietnam, et, comme en GrandeBretagne, le mouvement devint de plus en plus militant, mais tout en s'efforçant de maintenir son approche inclusive. Manifestations dans le centre de Belfast, veillées et piquets de protestation devant le consulat américain poussèrent bientôt le gouvernement à utiliser le Special Powers Act (1922) à l'encontre de la CND, lui interdisant d'appeler au rassemblement à Belfast et dans ses alentours pendant une période de trois mois. Etant donné que les orangistes étaient toujours autorisés à défiler dans le centre, la mesure sembla particulièrement injuste aux yeux de ses membres1117. Le mouvement contre la guerre du Vietnam ajouta la tactique du teach-in au répertoire de l'action collective nord-irlandais, qui fut bientôt reprise par les militants pour les droits civiques. Le but était d'alerter les autorités locales et la population sur les discriminations et les problèmes sociaux. Les militants du DHAC exposèrent par exemple les cas précis de plusieurs 1115 « PD goes south of the border », Peace News, 11 avril 1969, p. 5. « London PD is set up », Peace News, 2 mai 1969, p. 9. 1117 « C.N.D. banned », The Irish Democrat, novembre 1966, p. 4. 1116 2ème Partie - 3 : Mouvements en Irlande du Nord familles sans domicile lors des réunions des élus de Derry-Londonderry, afin d'inciter ces derniers à agir 1118. Mais le conflit au Vietnam contribua également à la diffusion du cadre anti-impérialiste, et à sa transposition à l'Irlande du Nord. Le mouvement nationaliste irlandais reposait déjà sur une analyse de ce type, et ses partisans dénoncèrent immédiatement l'ingérence américaine au Vietnam en la rapprochant de l'histoire de leur propre pays. Après l'incident du golfe de Tonkin en 1964, un article de l'Irish Democrat présentait la situation en ces termes : « In many ways the fight for national sovereignty in Ireland and in far-away Vietnam are very much alike-and on the basic question of Partition they are almost identical »1119. La mobilisation contre la guerre du Vietnam prit également son essor en Irlande, dénonçant le silence du gouvernement sur le sujet 1120 . Actions étudiantes et piquets devant l'ambassade américaine à Dublin ressemblaient au mouvement en GrandeBretagne, à la différence près que les slogans et les déclarations des militants entretenaient systématiquement le parallèle entre l'Irlande et le Vietnam. « Yankee Black and Tans 1121 get out of Vietnam » ou « Ireland for the Irish, Vietnam for the Vietnamese. No partition » pouvait-on lire sur les pancartes de certains habitants de Cork, lors de la venue d'un navire de guerre américain en 1967 1122. Différentes lettres remises à l'ambassadeur des États-Unis comparaient le NLF à l'IRA, et l'impérialisme américain et britannique 1123 . En Grande-Bretagne, certains militants de la gauche radicale virent suffisamment de similitudes entre les deux 1118 « There are two revolts in occupied Ireland », The Irish Democrat, décembre 1968, p. 5. « The civil righters », Peace News, 17 janvier 1969, pp. 4-7. 1119 « Aggression unchallenged », The Irish Democrat, septembre 1964, p. 2. 1120 « O'Brien accuses Aiken», The Irish Democrat, septembre 1966, p. 2. 1121 Les Black and Tans étaient une force de police réserviste enrolée pour venir gonfler les rangs de la police irlandaise durant la guerre d'indépendance de l'Irlande. Ses membres étaient d'anciens soldats originaires de Grande-Bretagne. Ils devaient leur surnom à leurs uniformes composés pour moitié des pantalons treillis de l'armée et des vestes sombres des policiers. Ils devinrent tristement célèbres pour leurs exactions. 1122 « Cork men picket U.S. ship », The Irish Democrat, août 1967, pp. 1, 8. 1123 « David Breen heads Vietnam protest movement », The Irish Democrat, mars 1967, p. 4. « Dublin's great anti-war parade: U.S. Embassy besieged», The Irish Democrat, novembre 1967, p. 1. 375 376 Claire Mansour, Diffusion et évolution des mouvements sociaux territoires pour former une nouvelle association en soutien au mouvement pour les droits civiques sur le modèle de la Vietnam Solidarity Campaign. En juin 1969, des membres de l'organisation International Socialists et de la nouvelle branche londonienne de la PD créèrent l'Irish Civil Rights Solidarity Campaign. Leur but était de sensibiliser les travailleurs irlandais en Grande-Bretagne, dont ils estimaient le nombre à un million, afin de forger un mouvement de masse à l'échelle nationale 1124. La décision du gouvernement britannique d'envoyer les troupes en Irlande du Nord en août 1969 renforça l'analogie. Le mois suivant, le journal The International Times publia un article intitulé « Hands Off Viet Ulster! », et bien d'autres publications de la presse étudiante et de la gauche radicale lui emboitèrent le pas, à mesure que la situation en Irlande du Nord dégénérait en conflit 1125 . La campagne de solidarité prit de l'ampleur, et la mention « Civil Rights » fut bientôt abandonnée du nom de l'organisation, pour devenir l'Irish Solidarity Campaign (ISC). Elle se mit à revendiquer clairement son soutien à l'IRA en tant que principal adversaire de l'impérialisme britannique, comme la VSC l'avait fait pour le NLF : As we call for victory to the NLF rather than for peace in Vietnam, because we are for the actual defeat of imperialism in Vietnam, so it is necessary at the present conjuncture, when the military struggle between the IRA and the British Army is of decisive importance in the North of Ireland, that we come out openly for victory to the IRA. 1126 De nombreux articles des militants de la gauche radicale décrivirent en termes élogieux les combattants de l'organisation paramilitaire républicaine, tout comme ils avaient loué l'héroïsme et les tactiques de guérilla du NLF, incarnant à leurs yeux la volonté d'un peuple opprimé de se libérer du carcan impérialiste. Tantôt 1124 « Ireland: base for revolution », The Black Dwarf, 15 août 1969, p. 2. « Hands off Viet Ulster! », The International Times, 26 septembre 1969, p. 5. « CS = Child Slaughter », The Black Dwarf, 10 mai 1970, p. 3. « An American solution to the problems of Northern Ireland », Leeds Student, 15 octobre 1971, p. 4. « By-line: A diary for Belfast - October », The Glasgow University Guardian, 29 octobre 1971, p. 6. « Bring the boys home », The Beaver, février 1973, p. 12. 1126 « Victory to the IRA! – For a mass solidarity campaign », The Red Mole, novembre 1971, p. 2. 1125 2ème Partie - 3 : Mouvements en Irlande du Nord qualifiés d' « avant-garde armée des ghettos la classe ouvrière catholique » (« armed vanguard of the Catholic working class ghettoes ») ou encore d' « avant-garde armée de la minorité opprimée » (« armed vanguard of the oppressed minority »), les membres de l'IRA faisaient usage d'une force perçue comme juste et légitime par les militants, tenant ainsi un discours en contre-point de celui des autorités 1127. Même à la suite des attentats perpétrés en Grande-Bretagne, ils continuèrent à affirmer que la violence des oppresseurs et celle des opprimés ne pouvaient être mises sur le même plan 1128. La présence des troupes et la répression brutale d'un mouvement initialement modéré, non-violent et non-confessionnel allait radicaliser la population catholique, et contribuer à raviver les demandes d'auto-détermination, remettant ainsi en cause le statut constitutionnel de l'Irlande du Nord. Quant aux protestants, ils étaient de plus en plus nombreux à se ranger derrière les dirigeants unionistes radicaux, qui invoquaient également le droit à l'auto-détermination pour s'opposer à une éventuelle réunification de l'Irlande. 2.3.3. Basculement vers des mouvements d'autodétermination : 1969-75 2.3.3.1. Le mouvement pour l'auto-détermination des catholiques Contrairement à ce que pouvaient laisser penser les partisans de l'ISC, l'intervention des autorités britanniques avait été une demande des dirigeants du mouvement pour les droits civiques. Ayant perdu toute confiance dans les institutions nord-irlandaises, ils en avaient appelé directement à Westminster pour suspendre Stormont et créer un nouveau système plus démocratique. Suite à l'escalade de la violence, ils avaient même exigé l'envoi de l'armée 1129. Depuis le 1127 « Ireland: aftermath of internment », The Red Mole, août 1970, pp. 8-9. « The war in Ireland », The Red Mole, 14 août 1972, pp. 6-7. 1128 « We stand firm », The Red Mole, 17 mars 1973, p. 1. 1129 « Catholic insurrection », Peace News, 28 août 1969, pp. 1, 4. 377 378 Claire Mansour, Diffusion et évolution des mouvements sociaux début de l'année 1969, de nombreuses manifestations avaient dégénéré en émeutes du fait de la présence d'opposants unionistes radicaux, et les parades orangistes de la saison estivale furent marquées par des débordements, débouchant sur des affrontements entre les deux communautés. Les raids des forces de police et des loyalistes dans les enclaves catholiques de DerryLondonderry et de Belfast donnèrent lieu à des déchaînements de violence, forçant le gouvernement à envoyer les troupes le 14 août 1969 pour ramener le calme et assurer une médiation neutre 1130 . À leur arrivée, les soldats furent accueillis à bras ouverts par la minorité catholique qui voyait en eux la garantie d'une protection contre les assauts loyalistes, que l'IRA n'avait pu empêcher 1131. Mais si cette dernière avait été jusqu'alors relativement inactive sur le plan militaire, les offensives loyalistes de l'été 1969 l'avaient sortie de sa torpeur. Elle commença dans un premier temps à se réarmer pour défendre les quartiers catholiques. En décembre 1969, elle se scinda en deux factions rivales : l'IRA officielle (Official IRA) et l'IRA provisoire (Provisional IRA) représentant deux visions différentes de la lutte contre l'impérialisme britannique. La première, dite l'IRA « rouge » (« Red IRA »), était d'obédience marxiste et entendait renverser les deux gouvernements du nord et du sud pour créer une république socialiste. La seconde, l'IRA « verte » (« Green IRA »), défendait la tradition républicaine conservatrice et aspirait à repousser les Britanniques de force hors des six comtés de l'Ulster 1132. Cette dernière, plus encline à mener des attaques de représailles, prendrait rapidement l'ascendant avec l'escalade du conflit. Avec la reprise des activités paramilitaires dans les quartiers catholiques, l'armée conduisit des opérations de perquisition afin de saisir leurs armes. Les violences et les dégâts matériels occasionnés par ces raids contribuèrent à aliéner les habitants, qui se 1130 « Riots in Derry's Bogside », Peace News, 15 août 1969, p. 1. « Can civil war be averted in Northern Ireland? », Peace News, 3 octobre 1969, p. 4. 1131 « Catholic insurrection », Peace News, 28 août 1969, pp. 1, 4. « Historic barricades », The Irish Democrat, septembre 1969, p. 4. 1132 « Now the Catholic Backlash », Peace News, 17 juillet 1970, p. 2. « If you hate the Britsh Army, clap your hands », The Red Mole, août 1970, p. 12. 2ème Partie - 3 : Mouvements en Irlande du Nord mirent à considérer les soldats comme une force d'occupation chargée de maintenir le régime unioniste en place 1133 . Cette perception fut renforcée par l'application de mesures de plus en plus répressives, et utilisées en priorité contre la minorité catholique, notamment l'internement administratif (internment without trial) des personnes supposées appartenir à une organisation terroriste. La première rafle eut lieu le 9 août 1971. Sur les 342 hommes arrêtés, seulement deux étaient protestants, ciblés en raison de leur participation au mouvement pour les droits civiques 1134. Non seulement la plupart des détenus n'avaient aucun lien avec l'IRA, mais ils furent de surcroit victimes de mauvais traitements aux mains des autorités. Certains subirent même des pratiques de torture lors de leurs interrogatoires, connues sous le nom des « cinq techniques » (« five techniques ») : maintien dans des positions douloureuses, port forcé de cagoules, exposition à des bruits stridents, privation de nourriture, d'eau ou de sommeil, et plus généralement toutes sortes d'agressions physiques. Selon les témoignages, les soldats auraient fait croire à des détenus aveuglés par des cagoules de toile qu'ils étaient sur le point de mourir en les jetant hors d'un hélicoptère volant au ras du sol 1135. L'effet immédiat de l'internement administratif fut d'unir et de galvaniser l'opposition au régime unioniste. Les récits des sévices infligés par les forces de l'ordre alimentèrent la propagande de l'IRA provisoire et élargirent sa base au sein de la population catholique 1136. De nombreux groupes de la gauche radicale en Grande-Bretagne s'emparèrent aussi du sujet pour justifier leur soutien inconditionnel aux organisations paramilitaires républicaines, comme le montrait la une « Solidarity with the IRA! » du quotidien The Red Mole d'octobre 1971, 1133 « Provocation in Ulster », Peace News, 12 février 1971, p. 1. « If you hate the Britsh Army, clap your hands », The Red Mole, août 1970, p. 12. 1134 Jonathan BARDON, op. cit., p. 684. 1135 « Ireland: aftermath of internment », The Red Mole, août 1970, pp. 8-9. « Torture: in England's Vietnam », The Irish Democrat, novembre 1971, pp. 1, 5. « British civilians and soldiers », Peace News, 7 février 1972, p. 5. 1136 « Internment is a disaster », Peace News, 20 août 1971, p. 5. « Ireland: aftermath of internment », The Red Mole, août 1970, pp. 8-9. 379 380 Claire Mansour, Diffusion et évolution des mouvements sociaux représentant un détenu ligoté, la tête couverte d'un sac de toile, sur le point de recevoir des coups de matraque (voir annexe 25). Les membres de la PD abandonnèrent leur ligne inclusive, se préoccupant désormais seulement de la situation de la minorité catholique et adoptant l'objectif de la réunification de l'Irlande. Ce revirement les conduisit à appuyer ouvertement l'IRA provisoire, comme ils le déclaraient dans un article de leur journal The Unfree Citizen daté de décembre 1971 : The Provos have moved involuntarily from defending Catholics to fighting one half of an anti-imperialist war. The other half is the mass civil resistance movement which is equally important. Socialists must of course support the struggle against British imperialism and for rights for Catholics, and co-operate with the Provisionals who are doing most of the fighting. 1137 Cette vision reflétait la polarisation croissante au sein de la population. L'autre facette du combat impérialiste à laquelle faisait référence la PD, consistait en une campagne de désobéissance civile de masse, lancée par les dirigeants du mouvement pour les droits civiques. Ces derniers avaient appelé la population à ne plus s'acquitter des loyers des logements sociaux et de la taxe d'habitation jusqu'à l'abandon de l'internement administratif. L'initiative fut très suivie, avec des taux oscillant entre 75 et 100% des ménages des quartiers populaires catholiques des principales villes de la région 1138 . En Grande-Bretagne, l'internement rapprocha également les militants opposés au régime unioniste, permettant la formation d'une nouvelle organisation : l'Anti-Internment League (AIL). Plus consensuelle que les campagnes de la gauche radicale, l'AIL tenta de fédérer le plus grand nombre autour des demandes d'arrêt de l'internement administratif et de retrait des troupes. Le 31 octobre 1971, elle parvint à rassembler 20 000 sympathisants à Londres 1139. 1137 « With the IRAs by the tail », Peace News, 4 août 1972, p. 3. « All Out for the 31st! », The Red Mole, 20 Octobre 1971, p. 2. « Thousands on rent strike », The Irish Democrat, décembre 1971, p. 5. 1139 « Victory to the IRA! – For a mass solidarity campaign », The Red Mole, novembre 1971, p. 2. 1138 2ème Partie - 3 : Mouvements en Irlande du Nord Trois mois plus tard, les évènements du 30 janvier 1972, connus sous le nom de « Blood Sunday », radicalisèrent encore davantage les militants à travers les îles britanniques. Lors d'une grande manifestation contre l'internement administratif, les soldats d'un régiment parachutiste ouvrirent le feu sur la foule, tuant sur le coup treize personnes et en blessant autant 1140 . À nouveau, cela provoqua une vague d'indignation, de nouvelles manifestations dans un contexte de plus en plus tendu, un sursaut du recrutement de l'IRA provisoire et une surenchère de violence. Les deux factions de l'IRA ripostèrent, avec une attaque en février sur le sol anglais contre le mess des officiers parachutistes d'Aldershot, à l'ouest de Londres, et une série de bombes dissimulées dans le centre de Belfast en juillet 1141. Dans la capitale britannique, le 5 février un cortège d'environ 5000 partisans de l'AIL entreprit de déposer treize cercueils devant la résidence du Premier ministre, avant d'être repoussés avec force par les policiers 1142. Suite à ces échauffourées et en prévision de l'annonce de l'imposition du système de « direct rule », le gouvernement interdit toutes les manifestations en lien avec la situation en Irlande du Nord de se tenir à Trafalgar Square 1143. Quelques jours plus tard, les institutions nord-irlandaises furent effectivement suspendues et la région fut placée sous la tutelle de Londres. L'année suivante, une nouvelle campagne baptisée « Troops Out Movement » (TOM), fut formée à Londres en septembre 1973 par une coalition de militants de la gauche radicale, de syndicalistes et d'étudiants, afin de promouvoir non seulement le retrait des troupes, mais plus généralement le droit à l'auto-détermination du peuple irlandais (« self-determination for the Irish people ») 1144 . Ses partisans replaçaient le conflit nord-irlandais dans le cadre historique du mouvement national de 1140 « Bloody Sunday », Peace News, 4 février 1972, pp. 1, 4. « The Aldershot explosion », The Red Mole, 28 février 1972, p. 12. « Ireland », The Red Mole, 7 août 1972, pp. 4-5. 1142 « Those two demos », Peace News, 11 février 1971, p. 7. 1143 « Protests against square ban », The Irish Democrat, avril 1972, p. 4. « Ban on Troops Out demo », Red Weekly, 24 octobre 1974, p. 1. 1144 « Ireland: Troops out now! », Red Weekly, 19 octobre 1973, p. 3. 1141 381 382 Claire Mansour, Diffusion et évolution des mouvements sociaux libération de l'Irlande, et demandaient donc que l'avenir de la région puisse être décidé par l'ensemble des Irlandais. Ils allaient également devoir faire campagne auprès du mouvement ouvrier britannique, pour éviter que celui-ci ne soutienne les grèves des unionistes radicaux, qu'ils considéraient comme réactionnaires. Ils n'eurent alors de cesse de contraster les actions des travailleurs britanniques dirigées contre l'élite capitaliste, et celles des ouvriers protestants défendant un système inégalitaire fondé sur des discriminations religieuses 1145 . Le bouillonnement des unionistes radicaux avait émergé en réaction à la perspective de se retrouver contre leur gré en minorité au sein d'une Irlande réunifiée. 2.3.3.2. Le mouvement pour l'auto-détermination des protestants La pression du gouvernement britannique sur le gouvernement nordirlandais pour mettre en place des réformes aboutissant à la création d'un système égalitaire avait été interprétée comme une trahison par les unionistes radicaux, qualifiée par Ian Paisley de « capitulation face à la hiérarchie catholique » (« capitulation to the Catholic hierarchy ») 1146. Jusqu'alors, leur loyauté à la Couronne avait été assortie de privilèges, et leur remise en question éveillait l'animosité d'un nombre croissant de protestants. Ainsi, l'arrivée de l'armée britannique avait suscité le ressentiment des habitants des quartiers populaires protestants, car les soldats venaient remplacer leurs forces de police, comme en témoignaient les slogans peints sur les murs du type « Army out, RUC in »1147. Mais ces perceptions changèrent à mesure que l'image de neutralité des troupes s'effritait. Le nouveau corps censé remplacer les B-Specials sous la supervision des troupes fut recruté principalement dans les quartiers ouvriers protestants, et nombre d'entre eux étaient membres d'associations paramilitaires loyalistes, comme l'Ulster Defence 1145 TROOPS OUT MOVEMENT, Alternative White Paper on Ireland, Londres : Literature Committee of the Troops Out Movement, 1974, p. 16, [Box 10, 2a St Paul's Rd, N.1], Londres : British Library. 1146 « The strange world of the Ulster Protestant », Peace News, 12 septembre 1969, p. 2. 1147 « Can civil war be averted in Northern Ireland? », Peace News, 3 octobre 1969, p. 4. « Orange Green and Khaki », The Black Dwarf, 20 février 1970, p. 2. 2ème Partie - 3 : Mouvements en Irlande du Nord Association (UDA)1148. Ainsi, de nombreux témoignages rapportèrent avoir vu des hommes de l'UDA patrouillant aux côtés des soldats (voir annexe 26) 1149. L'UDA devint rapidement la première organisation paramilitaire loyaliste, mais ne fut pourtant pas proscrite, et put même organiser de grandes parades au centre de Belfast, comme ce fut le cas en mai 1972, où 10 000 de ses membres défilèrent en uniforme, le visage masqué, pour protester contre la suspension de Stormont 1150. L'imposition du système de « direct rule » en mars 1972 radicalisa encore davantage les protestants. Pour résister au contrôle de Westminster, un groupe d'unionistes radicaux formèrent l'Ulster Vanguard, dirigée par William Craig. L'organisation bénéficiait d'un fort soutien dans le milieu syndical, et appela à la grève générale à la fin du mois de mars, paralysant temporairement les docks et les centrales électriques de la région 1151. Le succès de la mobilisation venait du fort sentiment d'injustice des unionistes radicaux de se voir ainsi privés de leurs institutions politiques. Lors d'un rassemblement réunissant 25 000 personnes devant la mairie de Belfast, Craig déclara : « There is no law or authority anywhere in the world that can govern a people against the will of the majority » 1152. Il présentait ainsi le régime unioniste comme légitime et démocratique, tandis que Westminster devenait au contraire autoritaire (« jackboot government »)1153. Les loyalistes avaient donc la morale de leur côté et Craig les décrivait comme les seuls vrais défenseurs des idéaux britanniques. L'opposition au système de « direct rule », qu'il qualifiait de « un-democratic and un-British regime », ne relevait pas de la déloyauté mais au contraire de l'application des principes de la démocratie, tels que le consentement 1148 Graham ELLISON et Jim SMYTH, op. cit., pp. 138-9. « Troops collaborate with U.D.A. », The Irish Democrat, août 1972, p. 1. « Ireland », The Red Mole, 7 août 1972, pp. 4-5. 1150 « For a people's peace », Peace News, 2 juin 1972, p. 1. 1151 « Loyalists against the Crown », Peace News, 17 mars 1972, p. 1. « The Loyalist veto», Peace News, 31 mars 1972, p. 1. 1152 Ibid. 1153 ULSTER VANGUARD, Ulster – A Nation, Ulster Vanguard Publication, avril 1972 [en ligne], [consulté le 5 avril 2018], disponible à l'adresse suivante : <http://cain.ulst.ac.uk/othelem/organ/docs/vanguard72.htm>. 1149 383 384 Claire Mansour, Diffusion et évolution des mouvements sociaux de la majorité (« majority consent »). Craig affirmait que l'intention de Londres était à terme de forcer l'Irlande du Nord à rejoindre la république, bafouant ainsi le droit à l'auto-détermination de la majorité protestante, et menaçait donc de déclarer unilatéralement l'indépendance de la région 1154. L'accord de Sunningdale, signé en décembre 1973, fut également rejeté catégoriquement par les dirigeants des unionistes radicaux. Il prévoyait un système de partage équitable du pouvoir entre les unionistes et les nationalistes par le biais d'une assemblée élue à la proportionnelle et d'un exécutif mixte. Mais l'aspect le plus controversé était la création du Conseil de l'Irlande (Council of Ireland), destiné à faciliter la coopération entre le Nord et le Sud, mais qui était présenté par les nationalistes et les unionistes radicaux comme un pas vers la réunification 1155 . Ces derniers menèrent l'opposition à cet accord sur tous les fronts. Sur le plan politique, un pacte électoral entre Paisley, Craig et les dirigeants de la droite de l'UUP leur permit de remporter onze des douze sièges de la région lors de l'élection anticipée de 1974 à Westminster 1156. Une grève générale fut ensuite déclarée entre le 15 et le 28 mai, avec le soutien des organisations paramilitaires, intimidant les travailleurs non-grévistes, forçant certains commerces à fermer, bloquant les routes, contrôlant les accès aux centrales électriques ainsi qu'à d'autres industries clés, et déclenchant une série d'attentats à travers toute l'Irlande 1157 . La mobilisation eut finalement raison de l'accord de Sunningdale et la région fut remise sous la tutelle de Londres. L'IRA répliqua aux attaques des loyalistes avec une autre vague d'attaques terroristes en Grande-Bretagne, et le conflit s'intensifia à nouveau. Lassés de voir sans cesse le bilan humain s'alourdir, des citoyens de Belfast allaient tenter une approche différente pour mettre fin à la violence. 1154 Ibid. « Short life and early death of the Council of Ireland », The Irish Democrat, juin 1974, pp. 3, 5, 8. 1156 « Unionists hold balance at Westminster », The Irish Democrat, mars 1974, p. 1. 1157 « Counter-revolution in Belfast », The Irish Democrat, juin 1974, p. 4. « Why the Loyalists won », Red Weekly, 6 juin 1974, p. 2. « N. Ireland: the British dimension », Peace News, 7 juin 1974, p. 3. 1155 2ème Partie - 3 : Mouvements en Irlande du Nord 2.3.4. Le mouvement pour la paix : 1976-79 Depuis l'arrivée des troupes en Irlande du Nord, des pacifistes s'étaient rendus dans les quartiers populaires catholiques et protestants afin d'essayer d'améliorer le quotidien des populations 1158. Différentes initiatives de community organising avaient vu le jour, certaines s'inscrivant dans la continuité du mouvement des droits civiques, d'autres tentant de pallier l'isolement et les dégâts matériels engendrés par le conflit : entreprises coopératives, associations de quartiers, garderies, refuges pour personnes en difficultés, mais également des systèmes d'entraide visant à remplacer les services publics dans les enclaves loyalistes et républicaines où les fonctionnaires ne s'aventuraient plus 1159. Dans plusieurs cas, les pacifistes avaient essayé de se servir de ces projets pour relancer le dialogue et la coopération entre catholiques et protestants, et leur tâche s'était avérée de plus en plus difficile avec la montée des tensions communautaires 1160. En 1976, en réaction à la violence des organisations paramilitaires, deux habitantes de Belfast décidèrent de créer un nouveau mouvement pour la paix. Au mois d'août, un membre de l'IRA provisoire fut abattu par l'armée britannique au volant de sa voiture dans le quartier catholique d'Andersonstown. Poursuivant sa trajectoire, le véhicule renversa trois enfants qui moururent sur le coup 1161. Témoin du drame, Elizabeth Williams (dite Betty) fonda avec la tante des enfants, Mairead Corrigan, l'association Peace People. Elles furent bientôt rejointes par le journaliste et ancien leader étudiant Ciaran McKeown. Le but de leur organisation était d'établir la paix en obtenant l'arrêt des violences républicaines et loyalistes, identifiant les organisations paramilitaires comme la 1158 « Report from Northern Ireland », Peace News, 21 mai 1971, pp. 3, 6. « British civilians and soldiers », Peace News, 7 février 1972, p. 5. 1159 « The Derry work camp », Peace News, 10 septembre 1971, p. 7. « Belfast: co-operation and selfhelp », Peace News, 23 février 1973, p. 3. « Bogside: 'Community with power within' », Peace News, 23 février 1973, p. 5. « Community work in NI », Peace News, 10 janvier 1975, p. 2. 1160 « British civilians and soldiers », Peace News, 7 février 1972, p. 5. « Belfast: co-operation and self-help », Peace News, 23 février 1973, p. 3. 1161 « The demands of peace », Peace News, 14 janvier 1977, pp. 9-13. 385 386 Claire Mansour, Diffusion et évolution des mouvements sociaux seule cause du conflit nord-irlandais et affirmant leur soutien aux forces de l'ordre 1162. Cette position leur valut le soutien du gouvernement britannique, des médias, des principales institutions religieuses ainsi que d'une grande partie de la population 1163 . Le mouvement prit rapidement de l'ampleur, rassemblant des dizaines de milliers de personnes en moins de deux mois à travers les îles britanniques, notamment à Belfast, Derry-Londonderry, Dublin, Newry, Liverpool et Glasgow. Le gouvernement les autorisa même à se réunir à Trafalgar Square alors que toutes les manifestations liées à la situation en Irlande du Nord y étaient interdites, et le 27 novembre 1976, environ 15 000 personnes répondirent à l'appel des Peace People. Ce chiffre fut une déception pour les organisateurs, dont les défilés en Irlande dépassaient régulièrement les 20 000 manifestants 1164. De plus, un groupe important de partisans du TOM était venu clamer leur opposition à la ligne de paix sans condition prônée par l'organisation. Comme le Sinn Féin et de nombreux nationalistes, les militants de la gauche radicale affirmaient que la paix ne pourrait être durable sans réelle transformation des institutions politiques. Dans un registre différent, Ian Paisley voyait quant à lui dans le mouvement les manigances de l'Église catholique 1165. L'approche des Peace People s'inspirait de celle adoptée par le mouvement pour le désarmement nucléaire dans la région, insistant sur son caractère nonconfessionnel et apolitique, afin de rassembler le plus largement possible 1166. Sur ce point, ils parvinrent à briser, le temps de quelques marches, la ségrégation religieuse, emmenant des cortèges mixtes au coeur des enclaves catholiques et protestantes1167. En 1977, l'organisation se tourna vers le community organising afin de construire une nouvelle culture propice à la réconciliation, basée sur la non1162 « Troops Out », Peace News, 8 octobre 1976, pp. 6-7. « The demands of peace », Peace News, 11 février 1977, pp. 8-10. 1164 « Peace People rally: Trafalgar Square », Peace News, 5 novembre 1976, p. 3. « The demands of peace », Peace News, 14 janvier 1977, pp. 9-13. 1165 Ibid. 1166 « Peace People rally », Peace News, 3 décembre 1976, p. 3. 1167 « N Ireland: a sort of unilateralism », Peace News, 19 novembre 1976, p. 7. 1163 2ème Partie - 3 : Mouvements en Irlande du Nord violence et la coopération. Des projets d'entreprises coopératives, d'aide à la réinstallation de personnes menacées par les groupes paramilitaires et de centres communautaires furent entre autres financés 1168. Désirant sortir l'Irlande du Nord de l'impasse politique, McKeown mit au point un système de gouvernement alternatif, basé sur le principe de « community politics », c'est-à-dire d'engagement à l'échelle locale. La structure des Peace People devait servir de modèle, avec un exécutif de vingt membres, une assemblée de délégués issus des branches locales, et un sénat représentant les acteurs extérieurs, comme les organisations syndicales, les services sociaux ou les institutions religieuses 1169. L'objectif était de se détourner des partis politiques traditionnels et de redonner le contrôle au peuple par le biais d'une approche ascendante. Des divergences parmi les membres, notamment les plus conservateurs, peu réceptifs à ces méthodes radicales, aboutirent à l'abandon de l'expérience. Ces divisions s'aggravèrent avec les querelles sur la gestion financière des Peace People, plus particulièrement du fait des sommes importantes accompagnant l'attribution du prix Nobel de la paix 1976 à Williams et Corrigan, aboutissant au déclin du mouvement 1170. 2.3.5. Déclin 2.3.5.1. Fermeture de la structure des opportunités politiques Le mouvement pour l'auto-détermination de la minorité catholique en Irlande du Nord souffrit de la répression contre les organisations républicaines. Suite aux attentats à la bombe des pubs de Birmingham perpétrés par l'IRA provisoire en novembre 1974, le gouvernement britannique fit voter une nouvelle loi, intitulée Prevention of Terrorism Act (1974), destinée à lutter contre le terrorisme en renforçant les pouvoirs de la police pour arrêter, détenir et interroger toute 1168 « A dialogue of hope: Jim Forest and Betty Williams », Peace News, 6 mai 1977, p. 6. « Community government », Peace News, 4 novembre 1977, pp. 8-9. 1170 « A dialogue of hope: Jim Forest and Betty Williams », Peace News, 6 mai 1977, p. 6. 1169 387 388 Claire Mansour, Diffusion et évolution des mouvements sociaux personne suspecte pendant une période initiale de 48 heures, mais pouvant être rallongée jusqu'à sept jours sur autorisation spéciale du ministère de l'Intérieur 1171. Cette mesure fut utilisée à de nombreuses reprises à l'encontre de journalistes de la presse alternative et de sympathisants de la gauche radicale impliqués dans le mouvement pour l'autodétermination des catholiques, allant parfois jusqu'au harcèlement dans les cas d'arrêts répétés ou de détention pendant des dizaines d'heures 1172. L'interdiction de manifester à Trafalgar Square à propos de la situation en Irlande du Nord continua après la brève exception accordée aux Peace People, donnant lieu à de nouvelles protestations en faveur de la liberté d'expression, également mis à mal par un contrôle gouvernemental de plus en plus draconien des informations distillées par les médias sur le sujet 1173. Suite à la série d'échecs des tentatives pour trouver une solution politique au problème, le gouvernement britannique changea d'approche. Une nouvelle stratégie de normalisation de la gestion de la région fut mise en place, consistant à ne plus aborder la situation nord-irlandaise comme un conflit, mais comme un problème de sécurité intérieure. Cette manoeuvre consistait à faire passer progressivement l'armée au deuxième plan, tout en redonnant le contrôle aux forces de police locale. Quant aux organisations paramilitaires, leurs membres étaient désormais traités comme des criminels de droit commun, afin de leur ôter toute légitimité politique. Le 1er mars 1976, le gouvernement annonça la fin du statut de prisonnier politique accordé aux détenus républicains et loyalistes en 1972, qui les autorisait entre autres à ne pas porter l'uniforme, à ne pas travailler et à se réunir librement 1174 . Le rétablissement de ce statut devint une des 1171 « Fight police state laws », Red Weekly, 5 décembre 1974, p. 1. « 7 days in the 6 Counties », Red Weekly, 15 avril 1976, p. 4. « Northern Ireland: mountain of harassment for mouse size visit », Peace News, 25 février 1977, p. 4. « Why Ireland won't go away », Red Weekly, 3 février 1977, p. 11. « Terror act claims new victims », Red Weekly, 22 mai 1977, p. 11. 1173 « No news is good news », Red Weekly, 13 janvier 1977, p. 11. « 700 hundred years is too much, troops out now », Red Weekly, 27 janvier 1977, p. 12. 1174 « 7 days in the 6 counties », Red Weekly, 10 mars 1977, p. 11. 1172 2ème Partie - 3 : Mouvements en Irlande du Nord demandes principales du mouvement républicain, culminant avec les grèves de la faim de 1980 et 1981, qui allaient favoriser la montée du Sinn Féin 1175. Quant au mouvement pour l'auto-détermination des protestants, avec la pérennisation du système de « direct rule », la menace de la réunification de l'Irlande semblait reculer. En mai 1977, Ian Paisley tenta d'organiser une grande grève générale afin de demander le retour des institutions politiques telles quelles étaient avant le conflit, mais la demande ne trouva qu'un faible écho auprès de la majorité protestante 1176 . Ne parvenant pas à mobiliser suffisamment, la grève s'essouffla rapidement. Cependant, les unionistes radicaux obtinrent tout de même des concessions importantes sur leurs revendications sécuritaires de la part du Secretary of State for Northern Ireland, Roy Mason. Lors de son déplacement à Belfast dès les premiers jours de la grève, ce dernier accepta d'allouer plus de moyens et d'augmenter les effectifs des forces de police locales 1177. L'arrivée de Mason aux affaires nord-irlandaises s'était traduite par une ligne plus sévère et répressive, notamment au niveau des techniques d'interrogatoire utilisées dans le cadre de la lutte contre le terrorisme, avec de nouvelles allégations de torture et de violences physiques 1178. L'arrivée au pouvoir de Margaret Thatcher allait également s'accompagner d'une nouvelle escalade dans la répression, du fait de sa campagne de retour à l'ordre public mais aussi à cause de la série d'attentats qui avait entaché le début de son mandat. En mars, le Northern Irish Secretary au sein du cabinet fantôme, Airey Neave, fut assassiné. Au mois d'août, des attaques coordonnées entraînèrent la mort d'un cousin de la reine Elizabeth, Lord Mountbatten, et de trois de ses proches, tandis que dix-huit soldats britanniques perdirent la vie dans une embuscade fomentée par l'IRA provisoire. Ces évènements furent suivis 1175 « Save them! », Socialist Challenge, 30 octobre 1980, p. 1. « The lark », Socialist Challenge, 12 mars 1981, p. 4. 1176 « No to Orange rule, no to British rule », Red Weekly, 5 mai 1977, p. 1. 1177 « The Orange strike for privilege », Red Weekly, 12 mai 1977, p. 6. 1178 « 7 days in the 6 counties », Red Weekly, 10 mars 1977, p. 11. « Elizabeth II – Labour's Queen of Orange », Socialist Challenge, 11 août 1977, p. 10. 389 390 Claire Mansour, Diffusion et évolution des mouvements sociaux d'une vague d'arrestations sans précédent parmi les sympathisants du mouvement nationaliste irlandais, et par la nomination aux affaires nord-irlandaises d'une équipe favorable à un durcissement de la politique sécuritaire 1179. 2.3.5.2. Impact et conclusion Le mouvement pour les droits civiques en Irlande du Nord témoignait d'une volonté de transformation sociale et démocratique d'une partie importante de la population. Au sein de la minorité catholique, le statut constitutionnel de l'Irlande du Nord n'était plus la principale préoccupation, et leurs demandes de réformes étaient soutenues par les modérés de la majorité protestante. Le mouvement pour le désarmement nucléaire avait concrétisé la collaboration prônée par le courant oecuménique, avec la participation des membres du clergé des différentes confessions et le maintien d'une ligne non-partisane afin d'inclure le plus grand nombre. La coopération entre les militants à travers les îles britanniques avait également participé à l'amélioration des relations entre les habitants des deux Irlandes et de la Grande-Bretagne. L'essor du mouvement pour l'égalité raciale avait contribué à attirer l'attention des autorités et de la population sur le problème des discriminations, et la notoriété du mouvement pour les droits civiques pour les noirs américains permit aux militants nordirlandais d'en adapter l'idéologie et les tactiques à leur propre contexte par le biais d'un processus de diffusion. Les mouvements ouvriers et étudiants entreprirent de forger une alliance en termes de classe en soulignant les intérêts communs des deux communautés. Ainsi, le mouvement pour les droits civiques en Irlande du Nord s'inscrivit dans le sillage des mobilisations précédentes, dont il combinait les principaux aspects, proposant des actions non-violentes et rassemblant autour de revendications égalitaires, relativement modérées, que le gouvernement 1179 « They say law and order we say troops out now », Socialist Challenge, 5 avril 1979, p. 1. « Thatcher's Irish ministers: the military men », Socialist Challenge, 17 mai 1979, p. 10. « IRSP are targets in terror swoop », Socialist Challenge, 31 mai 1979, p. 12. « End the war », Socialist Challenge, 30 août 1979, p. 1. 2ème Partie - 3 : Mouvements en Irlande du Nord nord-irlandais s'apprêtait à concéder en partie par le biais d'un programme de réformes. Mais la perspective de ces concessions à la minorité catholique déclencha une réaction de rejet catégorique chez les unionistes radicaux. Les confrontations de plus en plus violentes entre les deux groupes polarisèrent la population et favorisèrent la montée des organisations paramilitaires, se posant des deux côtés en défenseurs de leur communauté respective. L'impasse politique et l'escalade de la violence forcèrent le gouvernement britannique à intervenir, d'abord en envoyant les troupes, puis en assumant directement l'administration de la région. Les demandes pour les droits civiques cédèrent bientôt la place à celles pour l'auto-détermination : une part croissante de la minorité catholique se tournait à nouveau vers le nationalisme et l'objectif de la réunification de l'Irlande, tandis que de plus en plus de protestants se soulevaient pour éviter d'être intégrés à la république contre leur gré. En réaction au lourd bilan humain du conflit, un mouvement pour la paix émergea spontanément, tentant de réconcilier les deux communautés et de sortir la région de la crise, rassemblant à nouveau de manière non-confessionnelle et non-partisane. La très grande diversité des points de vue dans ses rangs engendra finalement des divergences sur les méthodes, entraînant le déclin des Peace People. Ces mouvements avaient néanmoins réussi à attirer l'attention de la communauté internationale sur la situation de la minorité catholique, et retour au statu quo ante bellum n'était plus envisageable. Quant à l'impact des mobilisations relatives à la question nordirlandaise dans la dynamique de contestation des longues années soixante, le recours à la lutte armée entraîna un durcissement de la répression du militantisme sur tout le territoire du Royaume-Uni, et rendit acceptable l'utilisation de méthodes brutales par les autorités, sous couvert de lutte contre le terrorisme. Par ailleurs, les demandes d'auto-détermination des Nord-Irlandais trouvèrent un écho au sein des autres nations celtiques, et galvanisèrent les demandes d'autonomie accrue au pays de Galles et en Écosse. 391 2ème Partie - 4 : Mouvements nationalistes gallois et écossais 2.4. LES MOUVEMENTS NATIONALISTES GALLOIS ET ECOSSAIS Les mouvements nationalistes gallois et écossais connurent une forte résurgence dans la période des longues années soixante. Malgré certaines différences, ces deux mouvements prirent leur essor à peu près au même moment, sous l'influence de facteurs similaires. Ils portaient sur un ensemble de revendications très large, à la fois culturelles, linguistiques ainsi que politiques et s'influencèrent mutuellement. Ils seront donc analysés conjointement dans ce chapitre, tout en essayant de rendre justice à leurs spécificités, émanant de leurs contextes historiques propres. On remarque par exemple que le mouvement nationaliste écossais était davantage tourné vers des considérations politiques, tandis que son équivalent gallois donnait la priorité à la défense du patrimoine linguistique et culturel. Les sources primaires qui serviront de base à l'analyse proviennent de différentes publications. Le magazine Peace News consacra un grand nombre d'articles aux avancées de ces mouvements dès les années 1950, en raison des liens existants entre les nationalistes gallois et écossais et le pacifisme, qui seront d'ailleurs étudiés un peu plus loin. Il suivit notamment de très près les actions des militants gallois utilisant des tactiques de désobéissance civile. Le mensuel nationaliste The Irish Democrat, destiné à la communauté irlandaise en GrandeBretagne, accueillit régulièrement dans ses colonnes les écrits des nationalistes gallois et écossais. Il encourageait également ses lecteurs résidant au pays de Galles et en Écosse à soutenir les organisations nationalistes locales. Le journal régional bilingue Sruth (mot désignant le courant d'une rivière) publié par l'association de défense du gaélique écossais An Comunn Gàidhealach (Gaelic Association, fréquemment abrégé en An Comunn) s'adressait aux habitants des Highlands et des Hébrides, rapportant les informations à la fois locales et nationales. Le journal de l'université de Glasgow, The Glasgow University Guardian, 393 394 Claire Mansour, Diffusion et évolution des mouvements sociaux fera également partie du corpus afin de prendre en compte le rôle joué par les étudiants. Enfin, les diverses publications de la gauche radicale britannique seront aussi examinées pour essayer de replacer les mouvements nationalistes gallois et écossais dans le contexte plus large du cycle de contestation des longues années soixante, au sein duquel ils trouvèrent une résonnance particulière, à la croisée des revendications émancipatrices et identitaires, mais aussi des demandes de décentralisation du pouvoir. Après avoir été conquis au Moyen-Âge par l'Angleterre, le pays de Galles fut complètement assimilé au sein de l'État anglais par le biais des lois Laws in Wales Acts de 1536 et 1543. Un sentiment national gallois persista néanmoins, grâce, entre autres, à l'essor des pratiques religieuses d'abord catholiques, puis non-conformistes à partir du XVIIIe siècle, et à la langue galloise, principalement dans les régions rurales du nord et de l'ouest du territoire, tandis que le sud et l'est du pays s'étaient rapidement anglicisés avec l'industrialisation 1180. En Écosse, la classe dirigeante avait choisi de mettre un terme à l'indépendance politique du pays en votant l'Acte d'Union de 1707, ce qui lui avait permis de conserver certaines institutions, comme les systèmes juridique et éducatif ou la religion presbytérienne. Ces parcelles de l'État-nation écossais contribuèrent à préserver un sentiment d'appartenance à une entité nationale distincte 1181 . Cependant, l'Écosse n'en était pas pour autant un territoire homogène, et l'identité écossaise différait dans son expression entre un sud industriel, les Lowlands, et les terres agricoles des Highlands au nord. Historiquement, cette division se reflétait également en termes culturels et linguistiques, remontant à l'expansion de l'écossais vernaculaire (Scots) au XIIe siècle dans le sud et l'est du pays, tandis que le gaélique écossais (Scottish Gaelic, Gàidhlig) avait perduré dans le nord-ouest, 1180 D. Gareth EVANS, A History of Wales: 1906-2000, Cardiff : University of Wales Press, 2000, p. 6. Colin H. WILLIAMS, « Restoring the language », dans Geraint H. JENKINS et Mari A. WILLIAMS (éds), 'Let's Do Our Best for the Ancient Tongue': The Welsh Language in the Twentieth Century, Cardiff : University of Wales Press, 2000, p. 658. 1181 Lindsay PATERSON, The Autonomy of Modern Scotland, Édimbourg : Edinburgh University Press, 1994, pp. 85-99. 2ème Partie - 4 : Mouvements nationalistes gallois et écossais notamment dans certaines vallées des Highlands et dans les Hébrides. À partir de 1707, l'anglais devint la langue du gouvernement et détrôna progressivement l'écossais en tant que langue dominante 1182. 2.4.1. Émergence : facteurs environnementaux internationaux et locaux 2.4.1.1. Création des partis nationalistes dans l'entre-deuxguerres Avant la résurgence des nationalismes gallois et écossais dans les longues années soixante, ces deux mouvements avaient déjà connu des phases d'effervescence, tant sur les plans culturel que politique, notamment à la fin du XIXe siècle et pendant l'entre-deux guerres. La réorganisation du festival national des arts Eisteddfod au pays de Galles en 1880 lui permit de gagner en visibilité et en popularité, entraînant un fort regain d'intérêt pour la culture traditionnelle galloise 1183 . En Écosse, l'association An Comunn Gàidhealach, créée en 1891, s'inspira du festival national gallois pour lancer le Royal National Mòd célébrant la culture gaélique écossaise 1184 . À la même période, la question de l'autonomie irlandaise dominait les débats parlementaires : elle fit des émules auprès des nationalistes gallois et écossais. Afin de militer pour la création de parlements autonomes, ils fondèrent à leur tour deux organisations favorables au système du Home Rule en 1886, Cymru Fydd (Young Wales) et la Scottish Home Rule Association. Face à l'échec de ces campagnes, un nouveau sursaut eu lieu pendant l'entre-deux guerres. L'agitation politique fut également accompagnée d'un véritable bouillonnement culturel. Au pays de Galles, la formation en 1922 de Urdd Gobaith Cymru (Welsh League of Hope), fédérant la jeunesse galloise, avait pour mission de 1182 Atina L. K. NIHTINEN, « Gaelic and Scots in Devolved Scotland », Studia Celtica Fennica, 5, 2008, pp. 69-70. Kenneth O. MORGAN, Rebirth of a Nation: Wales 1880-1980, Oxford : Oxford University Press, 1981, p. 97. 1184 « Militancy galvanises the moderate Mòd! », The Irish Democrat, décembre 1972, p. 3. 1183 395 396 Claire Mansour, Diffusion et évolution des mouvements sociaux transmettre la culture et la langue galloises à la nouvelle génération. Elle réussit à susciter l'enthousiasme des jeunes Gallois, passant de 5000 adhérents en 1927 à plus de 50 000 en 1934 1185 . En Écosse, l'époque fut qualifiée de « renaissance écossaise » (« Scottish Renaissance ») et le poète Hugh MacDiarmid en fut le chantre. Ce dernier écrivit de nombreux textes en écossais, langue à laquelle il fallait selon lui redonner ses lettres de noblesse, et s'attacha à conjuguer critique sociale et nationalisme 1186. Il fut également un membre fondateur en 1928 du National Party of Scotland, parti de gauche prônant l'autodétermination en vue de l'indépendance. Celui-ci devint ensuite le Scottish National Party (SNP) après avoir fusionné en 1934 avec le Scottish Party, qui était plus à droite et plutôt partisan de l'autonomie au sein du Royaume-Uni 1187 . Depuis sa création, le parti était tiraillé entre les tendances autonomistes et indépendantistes. Ces tensions causèrent une scission en 1942, à la suite de laquelle John MacCormick prit la tête d'une faction partisane du Home Rule, tandis que le reste du parti se prononçait en faveur de l'indépendance. La majorité des Écossais semblait pourtant bien plus favorable à la création d'un parlement écossais autonome, comme le démontra en 1949 une pétition nationale recueillant près de deux millions de signatures, soit environ deux tiers de l'électorat 1188. Quant au parti nationaliste gallois Plaid Cymru (Party of Wales), créé à l'origine sous l'appellation Plaid Genedlaethol Cymru (National Party of Wales) en 1925 afin de défendre le patrimoine linguistique et culturel gallois, il commença à formuler explicitement des demandes d'autonomie politique tantôt à l'intérieur de l'Union britannique, tantôt du Commonwealth, à partir de 1932 1189. 1185 Claire CHARLOT, « Plaid Cymru (1925-1979) : nationalisme gallois et dévolution », Revue française de civilisation britannique, XIV, no. 1, automne 2006, p. 88. 1186 Christopher HARVIE, Scotland and Nationalism: Scottish Society and Politics 1707 to the Present, Abington : Routledge, 2004, pp. 19-20. « Greatest poet approaches eighty », The Irish Democrat, août 1972, p. 3. 1187 Murray PITTOCK, The Road to Independence: Scotland since the Sixties, Londres : Reaktion Books, 2002, p. 55. 1188 Nathalie DUCLOS, La dévolution des pouvoirs à l'Écosse et au pays de Galles : 1966-1999, Nantes : Éditions du Temps, 2007, p. 39. 1189 D. Gareth EVANS, op. cit., p. 105. 2ème Partie - 4 : Mouvements nationalistes gallois et écossais Comme le SNP, Plaid Cymru était favorable à la création d'institutions autonomes au pays de Galles, mais hésitait quant à la nature de leur relation avec Londres. 2.4.1.2. Londres : un centre du pouvoir perçu comme trop lointain Parmi les facteurs ayant favorisé la montée des nationalismes, le sentiment d'injustice ressenti par certains Gallois et Écossais ayant l'impression d'être négligés, voire même lésés par les politiques du gouvernement central, contribua à les détourner des partis traditionnels. Si au sortir de la Seconde Guerre mondiale les modes de gestion keynésiens de l'économie ayant permis la mise en place du Welfare State et du plein emploi suscitaient l'enthousiasme au pays de Galles comme en Écosse, malgré leurs fortes tendances centralisatrices, les restrictions budgétaires et les plans de restructuration des années suivantes provoquèrent des frustrations. Dans les régions rurales, les promesses d'accès équitable aux services publics qui avaient, entre autres, accompagné la nationalisation des chemins de fer en 1948, cédèrent la place aux annonces de fermeture de gares et de lignes. En 1963, le rapport Beeching préconisa des coupes drastiques, surnommées « Beeching Axe », prévoyant de supprimer des milliers de gares et de kilomètres de voies ferrées pour réduire les coûts d'exploitation. Les habitants de l'arrière-pays gallois et des Highlands furent durement frappés par ces mesures, en raison de l'isolement de leurs territoires. Des protestations s'élevèrent aussitôt, habitants et élus locaux organisèrent des campagnes, à l'instar de « MacPuff » portée par les Highlands Vigilantes 1190 . Un éditorial du journal local Sruth, publié par l'association de défense du gaélique écossais An Comunn, s'insurgeait contre ces mesures « génocidaires » qui allaient vider les Highlands de leurs habitants : « Genocide can thus be effected by ensuring that a political environment is set up by remote Government so as to promote what is thought best for a 1190 « Over to you », Sruth, 26 novembre 1970, pp. 4, 8. 397 398 Claire Mansour, Diffusion et évolution des mouvements sociaux region in pure political terms » 1191 . Le problème était donc perçu en termes de décalage entre les intérêts du gouvernement central à Londres et ceux de la population locale. La gestion économique prenait le pas sur les conditions de vie des habitants, qui se sentaient sacrifiés au nom d'une logique comptable. Au bout du compte, les militants ne réussirent qu'à gagner un sursis temporaire ou à sauver quelques lignes, comme celle traversant le centre du pays de Galles pour relier Craven Arms à Llannelly 1192. Le gouvernement britannique avait pourtant créé des ministères dédiés spécifiquement à la gestion des affaires galloises et écossaises. Le Scottish Office avait vu le jour en 1885 avant d'être délocalisé à Édimbourg en 1939, tandis que le Welsh Office n'avait été formé que bien plus tard, en 1964. Il avait été établi directement à Cardiff, sur le modèle écossais, bien qu'ayant initialement des pouvoirs et des champs d'action plus restreints. Ces deux institutions avaient respectivement à leur tête le Secretary of State for Scotland et le Secretary of State for Wales, tous deux membres du cabinet, ayant la double mission d'appliquer les politiques du gouvernement central en Écosse et au pays de Galles, mais aussi de faire valoir les intérêts de ces populations à Londres 1193 . Mais lorsque que les mesures étaient ressenties comme injustes, comme avec les fermetures de gares et de lignes ferroviaires, la faute était rejetée sur les responsables londoniens. Le Scottish Secretary était considéré comme un envoyé de Londres approuvant automatiquement les décisions de Whitehall (« acting as a rubberstamp ») 1194 . Les candidats nationalistes exploitèrent par la suite ce mécontentement à l'égard d'un gouvernement distant. En 1967, un candidat de Plaid Cymru à l'élection partielle de Rhondda West se posait ainsi en porte-parole de la population galloise négligée et manipulée par les partis politiques traditionnels, tous regroupés de manière péjorative sous l'étiquette de « partis londoniens » : « People have lost 1191 « Genocide by legislation », Sruth, 26 novembre 1970, p. 2. « A campaign that succeeded », Peace News, 20 mars 1964, p. 4. 1193 Nathalie DUCLOS, La dévolution des pouvoirs à l'Écosse et au pays de Galles, op. cit., pp. 14-27. 1194 « Over to you », Sruth, 26 novembre 1970, pp. 4, 8. 1192 2ème Partie - 4 : Mouvements nationalistes gallois et écossais confidence completely in the London parties ; they have lost their vision and principles [] and electors are fed up with their failures here in Wales » 1195 . Selon ce type de vision nationaliste, les principaux partis de gouvernement ne se souciaient des intérêts des Gallois et des Écossais qu'à des fins électoralistes, tandis que les partis nationalistes étaient logiquement les mieux placés pour les représenter. Cette perception en termes d'intérêts divergents avait été favorisée par le déclin de l'Empire et l'affaiblissement de l'identité fédératrice britannique. 2.4.1.3. Déclin de l'Empire britannique La transformation des relations impériales par le biais de la création du Commonwealth en 1931, puis des processus de décolonisation, eut des conséquences profondes sur l'identité nationale britannique. Selon l'historienne Linda Colley, elle avait été forgée après l'Union avec l'Écosse en 1707, sous l'influence de trois facteurs principaux : les guerres incessantes avec les puissances catholiques du continent européen – et plus particulièrement avec la France, le dénominateur commun religieux du protestantisme, et enfin, le sentiment impérial émanant des débouchés commerciaux offerts par l'Empire 1196. Dans la deuxième moitié du vingtième siècle, ces trois aspects avaient, pour le moins, perdu de leur pertinence, fragilisant ainsi l'identité britannique au profit des identités galloise, écossaise et, dans une moindre mesure, anglaise 1197 . Le principe du droit à l'autodétermination des peuples avait été réaffirmé suite aux deux guerres mondiales, d'abord en 1918 avec le discours des « Quatorze points » 1195 « Plaid Cymru's achievement », Peace News, 17 mars 1967, p. 10. Linda COLLEY, Britons: Forging the Nation 1707-1837, Londres : Pimlico, 2003, p. 8. 1197 Étant donné la position dominante de l'Angleterre au sein de l'Union britannique, la frontière entre les identités anglaise et britannique était plus floue. Le nationalisme anglais était d'ailleurs très différent des nationalismes gallois ou écossais. Plus marqué à droite, il défendait la souveraineté du parlement britannique et s'opposait fortement à toutes les tentatives de transfert des pouvoirs, vécues commme un affaiblissement, qu'il s'agisse de la dévolution ou de l'entrée dans la Communauté économique européenne, inféodant aux yeux de ses partisans Westminster aux institutions européennes. Ben WELLINGS, « Losing the Peace, Euroscepticism and the foundations of contemporary English nationalism », Nations and Nationalism, 16, no. 3, Juillet 2010, pp. 488-505. 1196 399 400 Claire Mansour, Diffusion et évolution des mouvements sociaux (« Fourteen Points ») du président américain Woodrow Wilson, puis à nouveau en 1941 avec la Charte de l'Atlantique signée par Franklin D. Roosevelt et Winston Churchill, dont les grands principes furent repris dans la Charte des Nations Unies en 1945. Pour faire face aux demandes d'émancipation, l'Empire britannique avait amorcé sa transition vers le Commonwealth. En 1931, le Statut de Westminster (1931) reconnaissait explicitement la souveraineté de chaque État membre de la fédération, et instaurait entre eux une égalité de principe. La condition d'allégeance à la Couronne fut supprimée en 1949, afin de permettre aux nouvelles républiques de rester membres ou de rejoindre l'alliance, à l'instar de l'Inde qui ouvrit la voie en 1950 1198. Les partis nationalistes gallois et écossais virent dans cette fédération de nations égales et souveraines une chance à saisir. Ainsi, le dirigeant de Plaid Cymru, Gwynfor Evans, invoquait le droit à la libre détermination du peuple gallois et déclarait lors d'une conférence de presse à Londres en février 1956 : Our object is to withdraw from Whitehall altogether. There would be no government for Wales in London at all. We would remain within the Commonwealth. We feel a sense of identity with the peoples of the Commonwealth. [] There is only one status in the Commonwealth for free nations [] and the Party's aim is to attain that status for Wales.1199 Evans souhaitait donc que le pays de Galles se défasse de la tutelle de Londres, et devienne un État indépendant au sein du Commonwealth. L'évolution de la constitution du SNP témoignait d'une ambition similaire, avec une importance primordiale accordée à la restauration de la souveraineté de l'Écosse dès 1943, puis une demande claire d'indépendance et d'intégration du Commonwealth dans le texte rédigé en 1967 1200 . La décolonisation signifiait 1198 Mélanie TORRENT, « A Commonwealth Approach to Decolonisation », Études anglaises, 65, no. 3, 2012, p. 352. 1199 « Report on the Welsh Nationalists V: Plaid Cymru looks to the future », Peace News, 24 février 1956, p. 4. 1200 Nathalie DUCLOS, « The Idiosyncrasies of Scottish National Identity », dans A. MILNE et R. R. VERDUGO (dirs), National Identity: Theory and Research, Charlotte (Caroline du Nord) : Information Age Publishing, 2016, p. 100. 2ème Partie - 4 : Mouvements nationalistes gallois et écossais également que le rôle de grande puissance du Royaume-Uni était en train de perdre de son influence sur la scène internationale, un processus qui devint manifeste avec la crise du canal de Suez en 1956. L'incident acquit une dimension symbolique, et de nombreuses voix s'élevèrent à travers le pays pour dénoncer les velléités impérialistes du gouvernement. Le cadre anti-impérialiste des mouvements de libération nationale trouva d'ailleurs un écho auprès de certains nationalistes gallois et écossais, qui l'appliquèrent à leur propre situation, comme cela sera démontré plus loin. 2.4.2. Influence des autres mouvements et phase modérée : 1956-1966 2.4.2.1. Le mouvement pour le désarmement nucléaire Le mouvement pour le désarmement nucléaire vint renforcer le lien déjà existant entre les nationalismes gallois et écossais, et le mouvement pacifiste. Lors de la Seconde Guerre mondiale, de nombreux nationalistes gallois et écossais s'étaient déclarés objecteurs de conscience. Ils arguaient du fait que l'entrée en guerre et la conscription avaient été imposées à leur peuple sans consultation 1201. Plaid Cymru proclama ainsi la neutralité du pays de Galles pendant le conflit, afin de raviver le sentiment d'identité nationale galloise que ses dirigeants jugeaient menacé par le militarisme ambiant. Certains d'entre eux furent même emprisonnés pour s'être opposés à la conscription, à l'instar de Gwynfor Evans, avant qu'il ne devienne le dirigeant de Plaid Cymru en 1945 1202 . À l'instar de nombreux autres nationalistes gallois, il rejoignit les rangs du mouvement pour le désarmement nucléaire, prenant clairement position à travers son parti. Dès le début de l'année 1958, Plaid Cymru lança sa propre campagne contre la fabrication 1201 « Report on the Welsh Nationalist I: Welsh Nationalism and peace », Peace News, 20 janvier 1956, pp. 2, 6. Murray PITTOCK, op. cit., p. 56. 1202 « The Plight of England's first colony », Peace News, 4 février 1956, p. 4. 401 402 Claire Mansour, Diffusion et évolution des mouvements sociaux et l'utilisation des armes de destruction massive sur toute l'étendue du territoire gallois 1203. Même les figures du nationalisme culturel prirent part au mouvement, comme l'archidruide 1204 William Morris dont la signature figurait en tête d'une pétition contre la bombe à hydrogène lancée lors de l'Eisteddfod de Llangefni en 1957 1205. En Écosse, les militants pour le désarmement nucléaire décidèrent de former leur propre organisation, le Scottish Council for Nuclear Disarmament (SCND) en avril 1958 plutôt que d'intégrer la CND, perçue comme un organisme « anglais », mais avec lequel ils étaient tout de même disposés à coopérer 1206. Le mouvement comptait également des nationalistes notoires tels que Roland Muirhead et Oliver Brown du Scottish National Congress – groupe d'autonomistes partisans de l'action directe – ou encore la jeune Isobel Lindsay, future candidate pour le SNP à l'élection de 1970 1207. Dès 1959, la branche de Glasgow de la SCND commença à organiser une marche annuelle, bientôt qualifiée d' « Aldermaston écossais » (« Scotland's Aldermaston »), au mois de mai pour ne pas faire ombrage à la grande marche de Pâques en Angleterre. Le mouvement s'amplifia après que le Premier ministre Macmillan eût annoncé, en novembre 1960, qu'une base militaire américaine serait établie au Holy Loch pour accueillir des sous-marins lanceurs de missiles nucléaires Polaris. La nouvelle suscita immédiatement une forte opposition au sein de la population écossaise 1208. Militants pour le désarmement nucléaire et nationalistes joignirent leurs forces pour protester contre le projet, réunissant 1203 « All-Wales campaign against nuclear weapons », Peace News, 7 mars 1958, p. 2. L'archidruide préside les cérémonies de l'Eisteddfod. Il est élu pour une durée de trois ans et devient le représentant le plus éminent de la culture traditionnelle galloise. 1205 « Arch Druid heads H-bomb petition », Peace News, 16 août 1957, p. 8. 1206 « Scottish campaign against the bomb », Peace News, 15 avril 1958, p. 3. 1207 « Few students on the march », The Glasgow University Guardian, 13 mai 1960, p. 1. « 3,000 on Scots' Aldermaston », Peace News, 20 mai 1960, p. 3. « Clear road for Glasgow sit-down », Peace News, 19 janvier 1962, p. 12. 1208 « Polaris base: 'Scotland seething with opposition' – Emrys Hughes, MP », Peace News, 11 novembre 1960, p. 1. « Polaris danger », The Irish Democrat, décembre 1960, p. 2. 1204 2ème Partie - 4 : Mouvements nationalistes gallois et écossais plusieurs milliers de personnes lors des manifestations à Glasgow 1209. À la suite du rassemblement clôturant la marche d'Aldermaston à Londres au début du mois d'avril 1961, un cortège de manifestants entama un long périple jusqu'au Holy Loch, où ils arrivèrent à la fin du mois de mai 1961. À leur arrivée à la frontière écossaise, ils furent accueillis par un groupe de joueurs de cornemuses (pipe band) – tradition musicale tirant ses origines de la culture gaélique écossaise (voir annexe 27) 1210. La présence régulière des pipe bands en tête des défilés antiPolaris témoignait du lien entre l'opposition à la base américaine et le sentiment national. Aux yeux des nationalistes, l'origine du problème était l'absence d'institutions représentant le peuple écossais, argument résumé dans le slogan « Home Rule for Scotland – Polaris Must Go »1211. Malgré le caractère non-violent des actions des manifestants, les sit-ins répétés et les tentatives d'abordage des sousmarins et autres navires militaires furent parfois brutalement réprimés par les autorités 1212. De leur côté, les militants gallois organisèrent également leur propre version de la marche d'Aldermaston à Londres, longue d'une trentaine de kilomètres, partant de Criccieth pour rejoindre Blaenau Ffestiniog, au nord-ouest du pays de Galles. Leur opposition aux armes nucléaires était éthique, mais attestait également de leur conviction que ces choix politiques étaient imposés aux Gallois contre leur gré. Un communiqué de Plaid Cymru déclarait ainsi en 1958 : There is no conceivable argument by which the use of nuclear weapons can be justified. [] We believe it to be the duty of Wales to voice unmistakably her convictions in this matter, emphasising the critical 1209 « Polaris base on Holy Loch: 'We work unceasingly for its withdrawal' – Glasgow marchers », Peace News, 25 novembre 1960, p. 12. « Glasgow's big day », Peace News, 24 février 1961, p. 12. 1210 « March on Holy Loch starts on Monday », Peace News, 31 mars 1961, p. 12. « Whitsun at the Holy Loch », Peace News, 12 mai 1961, p. 1. 1211 « Scots rally at the Holy Loch », Peace News, 10 mars 1961, p. 12. « Action at the Holy Loch », Peace News, 8 septembre 1961, pp. 5-8. 1212 « Principles, strategy and tactics at the Holy Loch », Peace News, 26 mai 1961, p. 4. « Action at the Holy Loch », Peace News, 8 septembre 1961, pp. 5-8. « 142 arrested at Holy Loch », Peace News, 15 juin 1961, p. 12. 403 404 Claire Mansour, Diffusion et évolution des mouvements sociaux necessity for a Welsh government to give true expression to what our people really feel. We believe that international relations should be based not on insane threats but on co-operation. That is why we uphold the principle of self-government for every nation and that is why we oppose nuclear armaments.1213 Cette idéologie nationaliste reposait donc sur des convictions morales intimement liées aux principes pacifistes : la création d'institutions représentant le peuple gallois permettrait à ce dernier d'exprimer son rejet des bombes nucléaires, et la reconnaissance de la souveraineté des nations permettrait de garantir la paix à l'échelle internationale en instaurant des rapports basés sur la coopération, plutôt que sur la dissuasion et l'impérialisme militaire des superpuissances. La même logique justifiait encore le choix de tactiques nonviolentes, voire même de désobéissance civile, que l'on retrouverait ensuite chez de nombreux militants nationalistes. Si la loi est considérée comme injuste, alors s'y opposer devient une obligation morale : c'est pour cette raison que Gwynfor Evans, également élu au Camarthenshire County Council, voulait refuser de verser la contribution de la région au budget de la défense civile 1214. Cependant, l'ambition de respectabilité de Plaid Cymru poussa le parti à rejeter officiellement toute tactique illégale lors de sa conférence annuelle en 1961. D'autres groupes nationalistes, très populaires auprès des étudiants, poursuivirent directement dans le sillage du C100, organisant des sit-ins bloquant le trafic sur la voie publique ou commettant encore nombres d'infractions susceptibles de promouvoir leur cause 1215. 1213 « All-Wales campaign against nuclear weapons », Peace News, 7 mars 1958, p. 2. « County Council lead agaisnt Civil Defence contribution », Peace News, 5 août 1960, p. 9. 1215 « Further actions », Peace News, 15 décembre 1961, pp. 10-11. « Sit-down in Wales », Peace News, 8 décembre 1963, p. 12. 1214 2ème Partie - 4 : Mouvements nationalistes gallois et écossais 2.4.2.2. Le mouvement étudiant Les étudiants furent très actifs au sein des mouvements nationalistes gallois et écossais, à la fois dans les associations défendant le patrimoine linguistique et culturel, mais aussi au niveau politique. Ils furent à l'origine de la formation de certaines organisations nationalistes déterminantes. La Glasgow University Student Nationalist Association (GUSNA) fut fondée en 1927 par, entre autres, John MacCormick – alors étudiant à l'université, et ses membres participèrent ensuite à la création du National Party of Scotland, ancêtre du SNP, l'année suivante 1216 . La GUSNA était davantage préoccupée par la dimension politique du nationalisme écossais, la culture traditionnelle gaélique étant déjà le domaine de la Ossianic Society, qui l'avait précédée de près d'un siècle 1217 . Elle militait en faveur d'un parlement écossais autonome et contribua à promouvoir cette cause à travers les débats organisés à l'université, mais aussi par le biais de la nomination de candidats nationalistes à la fonction de recteur, à l'instar de John MacCormick qui occupa ce poste entre 1950 et 1953 1218 . Quatre étudiants glaswégiens réussirent à cette époque un coup d'éclat qui raviva le sentiment national écossais : ils réussirent à subtiliser la pierre de la Destinée (Stone of Destiny) de l'abbaye de Westminster, le soir de Noël 1950. Cette pierre était un symbole historique de la souveraineté de l'Écosse, sur laquelle ses monarques avaient été couronnés, jusqu'à ce qu'elle ne soit dérobée en 1296 par les Anglais. Après avoir caché la pierre pendant quelque temps, les étudiants, avec le soutien de John MacCormick, l'apportèrent aux ruines de l'abbaye d'Arbroath en avril 1951, où avait été rédigée la déclaration d'indépendance de 1320. L'euphorie du peuple écossais fut de courte durée. Les autorités ramenèrent la pierre à Londres, 1216 « Letters to the editor », The Glasgow University Guardian, 20 novembre 1959, p. 2. « Forward the Ossianic », The Glasgow University Guardian, 23 janvier 1959, p. 1. 1218 « Dr. John », The Glasgow University Guardian, 27 octobre 1961, p. 6. 1217 405 406 Claire Mansour, Diffusion et évolution des mouvements sociaux ce qui ne manqua pas de soulever l'indignation 1219. Par la suite la GUSNA gagna en popularité dans les années soixante et vit le nombre de ses adhérents tripler entre 1959 et 1966 1220 . Les étudiants nationalistes des différentes universités écossaises formèrent la Federation of Nationalist Students en 1961, afin de coordonner leurs activités. L'organisation fut rapidement reconnue par le SNP comme son aile étudiante, bien qu'elle restât autonome1221. Quant aux étudiants gallois, ils répondirent à l'appel de l'un des principaux fondateurs de Plaid Cymru, l'écrivain et spécialiste de langue galloise Saunders Lewis, lors de son discours radiophonique « Tynged yr Iaith » (« The Fate of the Language »), le 13 février 1962. Lewis considérait qu'empêcher le déclin du gallois devait être la priorité absolue des nationalistes. Le sujet était loin d'être dénué de considérations politiques puisque l'utilisation du gallois dans les documents officiels avait été proscrite suite aux Laws in Wales Acts de 1536 et 1542. Lewis exhortait ses compatriotes à former un mouvement de désobéissance civile qui forcerait le gouvernement à conférer au gallois le statut de langue officielle, à égalité avec l'anglais 1222. Les étudiants de l'antenne d'Aberystwyth de l'université fédérale du pays de Galles le prirent au mot. Au mois d'août 1962, ils fondèrent Cymdeithas yr Iaith Gymraeg (CIG, Welsh Language Society), dont le but était d'obtenir la reconnaissance du gallois comme langue officielle du pays de Galles, et ce, dans tous les aspects de la vie courante. La CIG n'était pas une organisation exclusivement étudiante : elle comptait aussi dans ses rangs quelques universitaires et des militants extérieurs au milieu. Cependant la très grande 1219 « Ten years ago: 'The tale of the wee magic stane' », The Glasgow University Guardian, 9 décembre 1960, pp. 4-5. 1220 « Letters to the editor », The Glasgow University Guardian, 20 novembre 1959, p. 2. « Scottish Nationalist Association », The Glasgow University Guardian, 18 octobre 1966, p. 3. 1221 « Scottish Nationalists in conference », The Glasgow University Guardian, 23 février 1962, p. 1. « Scottish Nationalist Club rejoins FSN », The Glasgow University Guardian, 7 février 1966, p. 5. 1222 Saunders LEWIS, « The Fate of the Language », discours radiophonique, 13 février 1962 [en ligne], [consulté le 28 avril 2018], disponible à l'adresse suivante : <https://morris.cymru/testun/saunders-lewis-fate-of-the-language.html>. 2ème Partie - 4 : Mouvements nationalistes gallois et écossais majorité de ses membres avait moins de trente ans 1223. Leur première action, en février 1963, fut d'organiser un sit-in bloquant le trafic d'un pont d'Aberystwyth dans le but de se faire arrêter par les forces de l'ordre. L'initiative fut finalement interrompue au bout d'une heure lorsqu'un groupe hostile s'en prit aux manifestants 1224. Le principe était de commettre une infraction mineure afin de recevoir une assignation à comparaître en justice, puis de demander à ce que le document soit rédigé en gallois, faute de quoi le prévenu ne se présenterait pas devant les magistrats. La même logique fut appliquée aux factures d'électricité, de téléphone ainsi qu'à un très large éventail de documents officiels. La CIG lança également une campagne contre les bureaux de poste, qui se retrouvèrent régulièrement tapissés d'autocollants et d'affiches en gallois appelant à utiliser la langue traditionnelle 1225. Si les techniques employées par les militants de la CIG étaient alors relativement modérées, elles seraient en revanche beaucoup plus radicales lors de la décennie suivante. En 1966, les mouvements nationalistes gallois et écossais étaient sur le point de devenir des mouvements de masse, grâce à une impulsion donnée par le mouvement ouvrier. 2.4.2.3. Le mouvement ouvrier Un des arguments phare des mouvements nationalistes gallois et écossais était que ces deux territoires souffraient de problèmes spécifiques, qui devaient donc faire l'objet d'un traitement différencié. Des taux de chômage plus élevés étayaient ces analyses : 2,9% pour l'Écosse et le pays de Galles contre seulement 1,3% pour l'Angleterre en 1966 1226 . Ces chiffres étaient perçus comme le symptôme de l'échec de politiques gouvernementales accusées de favoriser les travailleurs anglais. Un étudiant de la GUSNA résumait la situation ainsi : 1223 « The Welsh Language Society », Sruth, 2 novembre 1967, p. 6. « Sit-down in Wales », Peace News, 8 décembre 1963, p. 12. « The Welsh Language Society », Sruth, 18 septembre 1969, p. 11. 1225 « The Welsh Language Society », Sruth, 2 novembre 1967, p. 6. 1226 Ian MCALLISTER et Richard ROSE, United Kingdom Facts, Londres : Palgrave Macmillan, 1982, p. 158. 1224 407 408 Claire Mansour, Diffusion et évolution des mouvements sociaux There are many grievances which Scotland could air over her treatment by the overlords from the south. The question of unemployment is one which comes to mind as something deserving not only consideration but immediate attention: the rate of unemployment in Scotland is more than twice the rate of England, and in some districts it is very much higher. 1227 Les nationalistes gallois partageaient ce diagnostic. Un des organisateurs de Plaid Cymru pour la campagne de l'élection partielle de Rhondda West, en mars 1967, expliquait par exemple que les intérêts des Gallois étaient sacrifiés par la classe dirigeante basée à Londres, et s'appuyait sur une comparaison des taux de chômages pour le prouver 1228. Les demandes pour la décentralisation du pouvoir de Londres vers le pays de Galles et l'Écosse devaient redresser ces torts en permettant à des institutions autonomes de prendre les décisions adaptées aux besoins spécifiques des Gallois et des Écossais. Elles trouvèrent un écho avec les revendications pour le contrôle ouvrier, qui demandaient également que le processus de décision soit rapproché au plus près des personnes concernées. Les initiatives du nationaliste écossais Tom McAlpine, à l'origine de la création des coopératives de production Factories for Peace1229, avaient été guidées par ce principe. Elles représentaient de surcroit des tentatives de solution locale au chômage dans des régions industrielles fortement touchées : la périphérie de Glasgow et la vallée d'Onllwyn au sud du pays de Galles. McAlpine avait été inspiré par le projet philanthropique de New Lanark de l'industriel gallois Robert Owen, remontant au début du XIXe siècle, en hommage à qui il avait nommé son entreprise Rowen Engineering Company. William Wolfe (dit « Billy »), d'abord vice-président du SNP de 1966 à 1969, puis président jusqu'en 1979, avait d'ailleurs sponsorisé la branche de Glasgow 1230 . 1227 « Nationalism in Scotland today: 'Where do we go from here?'», The Glasgow University Guardian, 27 octobre 1961, p. 4. 1228 « Plaid Cymru's achievement », Peace News, 17 mars 1967, p. 10. 1229 Voir le chapitre sur le mouvement ouvrier. 1230 « Welsh peace factory launches appeal », Peace News, 7 mai 1965, p. 12. « Scotland: 'Selfgovernment by the 70's », Peace News, 17 juin 1966, p. 10. 2ème Partie - 4 : Mouvements nationalistes gallois et écossais Lors de sa conférence annuelle en juin 1966, la première résolution votée par le SNP fut dédiée au contrôle ouvrier : « for state support of industrial initiative and the promotion experimentally of schemes of employee ownership and control of enterprises »1231. Au même moment, l'Institute for Workers Control tenait son premier grand rassemblement, témoignant de l'essor des idées autogestionnaires au sein du mouvement ouvrier 1232. Plaid Cymru revendiquait également l'influence de Robert Owen, plaçant le modèle autogestionnaire parmi les objectifs de son programme économique dès les années 1950 1233. Une déclaration de principe en 1967 vint réaffirmer l'engagement du parti en faveur des idéaux de la démocratie industrielle : « Workers should be given the opportunity to participate as far as possible in the control of industries in which they are employed » 1234. Avec ce type de discours, les partis nationalistes se plaçaient alors à la gauche du Parti travailliste. Ce dernier s'était imposé comme le parti dominant au pays de Galles depuis 1922, et en Écosse depuis 1959 1235 . Mais à partir de la deuxième moitié de l'année 1966, les partis nationalistes gallois et écossais, jusque-là relativement marginaux sur la scène politique, connurent une forte croissance. Après la réélection des travaillistes en mars 1966, le gouvernement Wilson était intervenu directement dans le conflit opposant les marins à leurs employeurs, afin d'éviter que ces derniers ne cèdent, et n'enfreignent le plafond de hausse des salaires établi pour lutter contre l'inflation. La gestion intransigeante de cette crise rendit le gouvernement très impopulaire dans les milieux de gauche, et engendra un sentiment de désillusion. Juste après la fin de la grève, en juillet 1966, Gwynfor Evans remporta l'élection partielle de Carmarthen, obtenant le premier siège parlementaire de l'histoire de Plaid Cymru. 1231 « Scotland: 'Self-government by the 70's», Peace News, 17 juin 1966, p. 10. Centre for Socialist Education, op. cit., p. 2. 1233 « Report on the Welsh Nationalists IV: Toward a co-operative democracy », Peace News, 17 février 1956, p. 4. 1234 « Plaid Cymru's achievement », Peace News, 17 mars 1967, p. 10. 1235 On notera toutefois qu'en 1959 les conservateurs obtinrent plus de votes que les travaillistes en Écosse (47,2% des suffrages contre 46,7%), même si ces derniers remportèrent plus de sièges (38 députés travaillistes élus contre 31 conservateurs). Ian MCALLISTER et Richard ROSE, op. cit., pp. 86-88. 1232 409 410 Claire Mansour, Diffusion et évolution des mouvements sociaux Encore trois mois auparavant, le candidat nationaliste était donné largement perdant par les sondages, qui annonçaient une victoire travailliste avec plus de 9000 voix d'avance. Evans recueillit pourtant 16 179 suffrages, devançant son principal adversaire de près de 2500 voix 1236 . La période de la campagne électorale avait coïncidé exactement avec la grève des marins, entamée le 16 mai, soit deux jours après la mort de Megan Lloyd George, la députée travailliste fille du Premier ministre libéral David Lloyd George, occupant précédemment ce poste1237. Un des conseillers d'Evans attribuait sa victoire à la conduite autoritaire de Wilson, qui avait fortement déplu aux mineurs de la circonscription, les détournant ainsi de leur parti de prédilection 1238 . Ce succès ne profita pas seulement à Plaid Cymru, mais aussi au SNP, dont le nombre d'adhérents doubla entre juin 1966 et 1967, passant de près de 30 000 à 60 000 1239. Il était désormais le premier parti d'Écosse en termes d'effectifs, comme son président, Arthur Donaldson, ne manqua pas de le souligner dans son discours à la conférence annuelle du parti en juin 1967 : « I welcome you not just as the representatives of one of Scotland's major parties, but as Scotland's largest party » 1240. Lors d'une nouvelle élection partielle en novembre 1967, la candidate nationaliste Winnifred Ewing (dite « Winnie ») conquit le fief travailliste de Hamilton, forçant l'ensemble de la classe politique à aborder le sujet de la dévolution 1241. 2.4.2.4. Le mouvement pour l'égalité raciale Suite aux vagues de décolonisation, le cadre anti-impérialiste associé aux mouvements de libération nationale ne tarda pas à être appliqué à l'Écosse et au 1236 « Plaid Cymru's victory in Camarthen », Peace News, 12 août 1966, p. 3. « We are determined says Bill Hogarth », The Seaman, 20 mai 1966, p. 1. « Plaid Cymru's victory in Camarthen », Peace News, 12 août 1966, p. 3. 1238 « Plaid Cymru's victory in Camarthen », Peace News, 12 août 1966, p. 3. 1239 « SNP strides ahead », Peace News, 12 août 1966, p. 3 1240 « SNP now biggest in Scotland », Peace News, 23 juin 1967, p. 12. 1241 « Zeitgeist », Sruth, 14 décembre 1967, p. 4. 1237 2ème Partie - 4 : Mouvements nationalistes gallois et écossais pays de Galles par les militants nationalistes. Lors d'une conférence de presse à Londres en 1956, Gwynfor Evans affirmait la solidarité de son parti avec les peuples luttant pour leur émancipation du joug colonial. Il établissait un parallèle entre la situation de ces derniers, et le mouvement nationaliste gallois, arguant que le pays de Galles avait été traité comme une colonie par l'Angleterre. Selon lui, la conquête militaire avait été suivie par des processus de subjugation politique, d'exploitation économique et d'assimilation culturelle 1242. Ce discours faisait suite à l'annonce du projet de lac artificiel de la Liverpool Corporation qui devait inonder toute la vallée de Tryweryn, au nord-ouest du pays de Galles, rayant de la carte le petit village de Capel Celyn. Le but était d'alimenter en eau la ville de Liverpool, mais ces desseins furent perçus comme une violation du territoire national par de nombreux Gallois, suscitant une forte opposition au sein de la population locale. Le village de Capel Celyn était présenté par les militants comme un des rares écrins d'une culture traditionnelle galloise de plus en plus menacée 1243 . Evans analysait le problème en termes de domination politique, permettant l'exploitation des ressources naturelles du pays de Galles par l'Angleterre : « As long as English law permits it, and as long as English government sanctions it, any violation of Wales by an alien body is fully legal and constitutional. For Wales is part of England, and English law prevails here » 1244. Lors de la conférence annuelle de Plaid Cymru en 1957, les délégués votèrent à l'unanimité une résolution déclarant que les ressources naturelles du territoire appartenaient au pays de Galles, et non à l'Angleterre, réaffirmant au passage la nécessité d'obtenir un parlement autonome pour les préserver 1245. Malgré la résistance de la population, le barrage fut terminé en 1965, et d'autres projets similaires virent le jour pour 1242 « The Plight of England's first colony », Peace News, 4 février 1956, p. 4. « Seizure of Welsh valley protest », Peace News, 30 mars 1956, p. 3. « Disastrous to Welsh way of life », Peace News, 7 juin 1957, p. 3. 1244 « 4,000 pledge defence of Welsh valley », Peace News, 12 octobre 1956, pp. 1, 7. 1245 « Fight for Tryweryn must go on », Peace News, 16 août 1957, p. 5. 1243 411 412 Claire Mansour, Diffusion et évolution des mouvements sociaux approvisionner la ville de Birmingham 1246 . Les nationalistes écossais eurent recours au même cadre de diagnostic dénonçant l'impérialisme anglais, à la fois sur les plans culturel, économique et politique 1247. En octobre 1964, un tract de campagne du SNP élaboré par Billy Wolfe comparait les situations de l'Écosse et du Nyassaland (nom colonial du Malawi), qui venait d'obtenir son indépendance : « Nyassaland now has independence – what about Scotland – but of course Scotland is a profitable colony. So long as we are a nation of labourers in our own land we will remain England's last satellite »1248. D'autres rapprochements furent établis avec les populations noires et amérindiennes. Certains nationalistes écossais comparaient ainsi le sort des Premières nations du Canada, où de nombreux Écossais avaient d'ailleurs émigré, et celui des autochtones en Écosse : [] many of the problems confronting the Indian peoples are shared by Scots at home; though sometimes differing in degree the problems in kind are very similar – the wilful suppression of political and economic freedom, destruction of culture and language, demoralisation and disease induced through the consumption of alcohol, tobacco and other drugs, high hospitalisation and suicide rates, poor housing (though conditions in the Scottish Council ghettoes are a general improvement on those of Canadian Government Reservations).1249 Si cette description caricaturale pouvait paraître fallacieuse, sa force de propagande avait pour but d'éveiller un sentiment d'injustice chez la population afin de la convaincre de la nécessité de s'affranchir des institutions politiques britanniques. L'utilisation de l'expression « colons blancs » (« white settlers ») pour renvoyer aux Anglais résidant au pays de Galles et en Écosse reprenait la même analogie. En 1969, un des fondateurs de la CIG, Gareth Miles, décrivit les contremanifestants anglais de la campagne « The Real Voice of Wales », s'opposant à 1246 « Defending Welsh valleys », Peace News, 29 novembre 1963, p. 3. « Scotland: 'Self-government by the 70's », Peace News, 17 juin 1966, p. 10. « Shackles on Scottish culture », The Irish Democrat, juin 1973, p. 3. 1248 Billy WOLFE, Scotland Lives: The Quest for Independence, Édimbourg : Reprographia, 1973, p. 53. 1249 « Ballyhoo of Royal publicity », The Irish Democrat, août 1973, p. 3. 1247 2ème Partie - 4 : Mouvements nationalistes gallois et écossais l'éducation bilingue gallois-anglais dans les écoles, par le biais de ce prisme d'analyse. Aux yeux de ces derniers, la « vraie voix du pays de Galles » s'exprimait en anglais, accusant le mouvement nationaliste gallois d'être rétrograde. Afin d'inverser cette rhétorique, Gareth Miles les qualifia à son tour de « white settlers », faisant ainsi basculer le nationalisme gallois du côté des forces progressistes 1250. L'usage de cette métaphore se répandit également en Écosse, notamment en référence au nombre croissant d'Anglais propriétaires d'une maison secondaire : « In the last few years, however, a new layer of English occupation has been generated – thanks to the treacherous holiday homes schemes of the Highlands and Islands Development Board – and referred to as 'the white settlers' » 1251. L'influence anglaise était vue comme une menace pour les cultures traditionnelles, à la fois du fait de la présence d'habitants anglais mais aussi du fait de la domination culturelle, reposant entre autres sur la langue, les médias, les systèmes éducatifs ainsi que sur l'aspect plus pernicieux de la perception identitaire. S'inspirant des théories du courant du Black Power, un des dirigeants de la CIG, Ffred Ffransis, condamnait l'intériorisation par le peuple gallois de la vision négative des Anglais à leur égard. Celle-ci induisait selon lui un manque de confiance dans la capacité du pays de Galles à prendre en main son destin, ainsi qu'un sentiment de honte envers leur culture, leur langue et plus généralement leur identité : « our people lack self-confidence [] and feel dependent upon England. A similar feeling could be seen among the American negroes until recently – ashamed of their own people and anxious to imitate the whites » 1252. Ces similarités justifiaient donc l'adoption du même cadre de pronostic, appelant à la révolution culturelle pour restaurer un sentiment de fierté nationale. Si l'on trouvait des arguments semblables chez certains nationalistes écossais, pour de nombreux nationalistes gallois, la sauvegarde de la culture traditionnelle galloise était la condition sine qua non de l'autonomie politique 1253. 1250 « Minorities must not succeed », Sruth, 20 février 1969, p. 4. « White settlers oppose developments in Scotland », The Irish Democrat, octobre 1973, p. 3. 1252 « The steps of the revolution in Wales », Peace News, 20 avril 1973, p. 3. 1253 Ibid. « Shackles on Scottish culture », The Irish Democrat, juin 1973, p. 3. 1251 413 414 Claire Mansour, Diffusion et évolution des mouvements sociaux 2.4.2.5. Le mouvement contre la guerre du Vietnam Le mouvement contre la guerre du Vietnam contribua à la large diffusion du cadre anti-impérialiste, grâce, notamment à sa grande popularité auprès de la nouvelle génération de militants. Les Young Socialists, partisans de la première heure d'une victoire des insurgés vietnamiens contre la puissance américaine, débattirent longuement sur la pertinence d'une analyse anti-impérialiste appliquée à la situation écossaise. Dans les colonnes d'une de leurs publications, Keep Left, de nombreuses lettres furent échangées entre militants écossais et anglais, en désaccord sur le sujet. Les membres des branches d'Édimbourg et de Glasgow avaient tendance à considérer les symptômes de l'exploitation capitaliste comme une manifestation de l'impérialisme anglais, tandis que les adhérents des branches anglaises affirmaient que l'Écosse avait été intégrée économiquement au reste du Royaume-Uni, réfutant la thèse du traitement préférentiel accordé à l'Angleterre. Ces derniers voyaient le nationalisme écossais comme une force réactionnaire, résultant des tentatives des classes moyennes supérieures de manipuler la classe ouvrière 1254 . En mai 1967, les Young Socialists organisèrent à Édimbourg une grande conférence sur le marxisme, réunissant des militants venus de tout le territoire écossais. Lorsque la question du nationalisme écossais fut abordée, les militants décidèrent de soutenir le point de vue marxiste et d'accorder la priorité à l'unité de la classe ouvrière, que le nationalisme risquait de diviser 1255. Cette vision fut une des principales raisons expliquant le manque de soutien de la plupart des organisations de la gauche radicale pour les mouvements nationalistes gallois et écossais. Quant aux partis nationalistes, leurs dirigeants participèrent à une conférence intitulée « The Breakdown of Nations », en référence au titre de l'ouvrage phare du conférencier à l'honneur, Léopold Khor, organisée à Londres en 1968. 1254 « Scottish Nationalism », Keep Left, mai 1967, p. 10. « Roderick McVeigh replies on Nationalism », Keep Left, mai 1967, p. 11. « Reply to R. McVeigh from John Spencer », Keep Left, mai 1967, p. 11. « Nationalism and the Arab Revolution », Keep Left, juillet-août 1967, p. 11. 1255 « Scottish YS Discuss Marxism », Keep Left, juin 1967, p. 12. 2ème Partie - 4 : Mouvements nationalistes gallois et écossais Selon la thèse de Khor, la taille excessive des États favorisait les guerres et la misère sociale. Son discours s'appuyait sur la guerre du Vietnam pour dénoncer les desseins impérialistes de la superpuissance américaine. Il prônait donc le morcellement des grands États en petites nations autonomes. Dans leurs interventions, Gwynfor Evans et le représentant du SNP appliquèrent la théorie de Khor au pays de Galles et à l'Écosse, concluant sur la nécessité d'accorder l'autonomie à leurs nations respectives 1256. L'opposition à la guerre du Vietnam fut également utilisée comme un argument de campagne électorale par Plaid Cymru et le SNP, capitalisant sur la colère suscitée par le soutien nominal et matériel du gouvernement travailliste aux États-Unis. Les partis nationalistes gallois et écossais bénéficiaient d'ailleurs d'un fort soutien chez les jeunes, particulièrement réceptifs à ce sujet 1257. En 1967, Gwynfor Evans, venu apporter son soutien au candidat de Plaid Cymru lors de la campagne de l'élection partielle de Rhondda West, mis son adversaire travailliste au défi de se prononcer contre l'aide matérielle fournie par le gouvernement aux forces américaines 1258 . La même année, Winnie Ewing du SNP, élue dans la circonscription d'Hamilton, avait officiellement pris position contre l'intervention américaine et les armes nucléaires 1259. Si ces sujets n'étaient probablement pas en tête de liste des préoccupations de tous les électeurs nationalistes, leur présence régulière dans les discours politiques tendait à montrer qu'il s'agissait également d'une manière pour le SNP et Plaid Cymru d'essayer de récupérer les électeurs travaillistes désillusionnés. 1256 « The Breakdown of Nations », Sruth, 5 septembre 1968, p. 6. « Plaid Cymru and Scots explain », The Irish Democrat, février 1968, p. 2. 1258 « Plaid Cymru's achievement », Peace News, 17 mars 1967, p. 10. 1259 « Sans titre », The Black Dwarf, 19 juillet 1967, p. 3. 1257 415 416 Claire Mansour, Diffusion et évolution des mouvements sociaux 2.4.2.6. Le mouvement nationaliste irlandais Les mouvements nationalistes irlandais, gallois et écossais étaient historiquement liés. À l'époque où la question irlandaise dominait les débats à Westminster dans les années 1880, elle avait déjà inspiré des velléités autonomistes en Écosse et au pays de Galles. Les déclarations de solidarité et l'entraide entre les mouvements nationalistes étaient courantes. Dans l'entredeux-guerres, le nationaliste John MacLean, était par exemple surnommé le « Connolly de l'Écosse » (« the Connolly of Scotland ») car il prônait la création une république écossaise socialiste sur le modèle de celle envisagée par James Connolly pour l'Irlande. En 1920, MacLean avait essayé de dissuader les soldats écossais envoyés pour réprimer l'insurrection en Irlande, au nom de la solidarité entre peuples celtes : « My desire is to prevent Scotsman being used to smash our sister race, the Celts of Ireland, for English Capitalists who are descended from the Germans. []The Welsh, the Scots and the Irish are all of Celtic origin, so that from a racial point of view the Welsh and Scots ought to line up with the Irish! » 1260 . Cette vision de l'identité celte comme dénominateur commun entre Irlandais, Gallois et Écossais, relevait en partie du fantasme pour l'Écosse, où la population autochtone avant l'Union de 1707 n'était pas uniquement d'origine celte, mais aussi germanique 1261. Cependant de nombreux nationalistes, à l'instar de Maclean, préféraient mettre en avant la culture et la langue gaéliques, plutôt que celles des Lowlands, du fait de la plus grande proximité de ces dernières avec la culture et la langue anglaises 1262. De nombreuses organisations avaient été formées dans le but de défendre le patrimoine culturel et linguistique celte, mais aussi de favoriser la coopération entre ces peuples afin d'encourager les revendications autonomistes. Ainsi la Celtic League, fondée en 1961, choisit d'organiser sa conférence annuelle à Bangor en 1260 « Celtica – today », Sruth, 16 octobre 1969, p. 3. Murray PITTOCK, op. cit., p. 153. 1262 Maureen M. MARTIN, The Mighty Scot: Nation, Gender, and the Nineteenth-Century Mystique of Scottish Masculinity, Albany : SUNY Press, p. 10. 1261 2ème Partie - 4 : Mouvements nationalistes gallois et écossais mai 1968 sur le thème « Inter-Celtic Cooperation for National Freedom – Political and Economic ». Les participants venaient d'Irlande, du pays de Galles, d'Écosse, de Bretagne, de Cornouailles et de l'île de Man pour écouter les meneurs des mouvements nationalistes, tels que Gwynfor Evans ou le Breton Yann Fouéré 1263. L'association Celtic Youth Congress vit le jour en 1964, dans le but de forger des liens entre les jeunes ressortissants des différentes régions celtes, et de servir de forum de discussion sur les sujets politiques et culturels les concernant. Lors de leur rassemblement annuel en mai 1968, les discours des jeunes nationalistes présentèrent leurs mouvements comme des formes d'expression celtes de la frustration de la jeunesse et le reflet de leurs aspirations pour un monde meilleur 1264. Le développement de cette conscience celte était également encouragé par des publications spécialisées et des rubriques dédiées à l'actualité de ces régions dans les revues nationalistes, comme ce fut le cas de « Celtica Today », rédigée par l'écrivain Peter Berresford Ellis dans le magazine écossais Sruth, ou de « Celtic World » dans le journal britannique The Irish Democrat. Ce dernier incitait de surcroit ses lecteurs résidant en Écosse et au pays de Galles à voter et à financer Plaid Cymru et le SNP, qui s'étaient tous deux prononcés en faveur de la réunification de l'Irlande 1265. La coopération entre les mouvements nationalistes irlandais, gallois et écossais était régulièrement démontrée. Lorsque les Gallois s'opposèrent au projet de lac artificiel de la Liverpool Corporation, par exemple, ils reçurent des déclarations de soutien du SNP et de la figure emblématique du combat pour l'indépendance irlandaise, Eamon De Valera 1266. Ces liens entre les mouvements favorisèrent la diffusion des pratiques contestataires. Les fish-ins organisés entre 1968 et 1970 sur l'ensemble du territoire irlandais par les républicains afin de demander la nationalisation des lacs et des 1263 « The Celtic League Conference », Sruth, 27 juin 1968, p. 2. « Youth carries torch of the future: The Celtic Youth Congress », Sruth, 18 mai 1968, p. 8. « Celtic Youth Congress », The Irish Democrat, mai 1968, p. 8. 1265 « Letters », The Irish Democrat, janvier 1964, p. 6. « Letter », The Irish Democrat, novembre 1967, p. 2. « Plaid Cymru », The Irish Democrat, avril 1970, p. 2. 1266 « 4,000 pledge defence of Welsh valley », Peace News, 12 octobre 1956, pp. 1, 7. 1264 417 418 Claire Mansour, Diffusion et évolution des mouvements sociaux rivières, en grande partie situés sur les terres de grands propriétaires qui en louaient les droits de pêche, firent des émules en Écosse et au pays de Galles. Les militants de la CIG, adeptes de la désobéissance civile, reprirent l'idée de ces rassemblements de pêche illégale et réclamèrent l'accès libre aux lacs et aux rivières pour tous les Gallois. En Écosse, la demande fut adoptée par le SNP et par la branche écossaise du Parti travailliste 1267 . Quelques groupuscules de militants gallois et écossais furent également influencés par la tradition républicaine irlandaise et s'inspirèrent de l'IRA. En 1963, alors que la construction du barrage transformant la vallée de Tryweryn en lac artificiel était en cours, deux organisations paramilitaires furent formées. Frustrés par l'échec des tactiques constitutionnelles et non-violentes des opposants au projet, de jeunes nationalistes décidèrent de recourir au sabotage, tout en veillant à ne pas mettre de vies humaines en danger. Les meneurs de la Free Wales Army déclaraient ouvertement vouloir suivre le modèle de l'IRA et instiguer une révolution armée 1268. En réalité, leur stratégie reposait surtout sur la communication et leurs frasques médiatiques. Ils portaient des uniformes militaires et des bérets ornés de badges représentant l'aigle blanc de Snowdonia, et faisaient des déclarations menaçantes dans les médias. Ils affirmèrent par exemple avoir identifié cent cibles potentielles au pays de Galles, quelques mois avant la cérémonie d'investiture du prince Charles au château de Caernarfon en juillet 1969, propulsant le groupe jusque dans les colonnes presse australienne 1269 . Ils revendiquèrent plusieurs attaques, qui avaient en réalité été commises par un autre groupe, beaucoup plus organisé : Mudiad Amddiffyn Cymru (MAC, Movement for the Defence of Wales). En février 1963, ils dynamitèrent un transformateur électrique servant à la construction du barrage de la vallée de Tryweryn. L'un 1267 «'Fish-in' by the men of Drogheda », The Irish Democrat, novembre 1968, p. 2. « Fish-ins carry on », The Irish Democrat, mai 1970, p. 5. « Britain's largest civil disobedience campaign », Peace News, 28 juillet 1972, p. 8. 1268 « The trial of Owain Williams: Welsh Patriot », The Black Dwarf, 3 décembre 1968, p. 6. 1269 «'Charley Windsor shall not pass' cry rebels », The Sydney Morning Herald, 9 décembre 1968, p. 2. 2ème Partie - 4 : Mouvements nationalistes gallois et écossais d'eux fut arrêté et traduit en justice. Lors de son procès, son avocat insista sur la dimension symbolique de cette action, guidée par un sentiment d'injustice face à la destruction d'un village et de la culture traditionnelle galloise 1270. D'autres actes du même type furent perpétrés pendant les années soixante, notamment des destructions de conduites d'eau approvisionnant des villes anglaises, mais aussi des explosions au moment de l'investiture du prince Charles, dont l'une d'elles coûta la vie à deux des membres de MAC 1271. En Écosse, les techniques violentes restèrent également le fait de petits groupes à la marge du mouvement nationaliste. Après le couronnement d'Elizabeth II en 1953, certains nationalistes firent remarquer que la reine était la première à porter ce nom en Écosse, puisque l'Union des couronnes de 1603 avait été instaurée juste après le règne d'Elizabeth I d'Angleterre, qui s'était éteinte sans laisser d'héritier. Un groupe se faisant appeler la Scottish Republican Army commit une série d'actes de vandalisme, ciblant les boîtes aux lettres portant le monogramme royal « EIIR », ainsi que les boutiques vendant des bibelots avec la même mention 1272. Au milieu des années 1970, un autre noyau de militants radicaux s'en prit aux symboles incarnant à leurs yeux la domination anglaise, afin d'obtenir l'indépendance de l'Écosse. La Tartan Army fit exploser plusieurs pylônes électriques stratégiques transportant l'électricité produite en Écosse vers l'Angleterre, ainsi que des oléoducs important le pétrole des eaux écossaises. Ils avancèrent des arguments similaires à ceux de MAC sur l'exploitation des ressources naturelles galloises au profit de l'Angleterre 1273. Si ces petits groupes demeurèrent très marginaux, l'impact de leurs actions fut amplifié du fait des parallèles avec l'IRA, entretenus par le conflit en Irlande du Nord. Le mouvement de masse qui émergea à la suite des victoires aux élections partielles 1270 « Welsh nationalists take to direct action », Peace News, 24 mai 1963, p. 5. « Violence and the Welsh cause », The Irish Democrat, juillet 1970, p. 5. 1272 « Scottish Republican Army Threats continue », The Glasgow Herald, 25 mars 1953, p. 7. 1273 Iain MACLEAY et Andrew Murray SCOTT, Britain's Secret War: Tartan terrorism and the AngloAmerican State, Édimbourg : Mainstream Publishing, 1990, p. 63-66. 1271 419 420 Claire Mansour, Diffusion et évolution des mouvements sociaux de 1966 et 1967 de Plaid Cymru et du SNP demeura dans l'ensemble non-violent, même si les militants les plus radicaux eurent parfois recours au sabotage. 2.4.3. Mouvement de masse : 1967-79 2.4.3.1. Défense du gallois et du gaélique écossais Au pays de Galles, la langue galloise était considérée comme le vecteur principal de la culture traditionnelle et de l'identité nationale. Selon Saunders Lewis, le gallois était la seule preuve restante de l'existence antérieure d'une nation galloise souveraine : « the only remaining symbol of the historical unity of the Welsh nation » 1274 . La langue jouait donc un rôle prépondérant dans le sentiment d'identité nationale. Selon les chiffres officiels tirés des recensements, la moitié de la population était galloisante en 1901. En 1961, cette proportion avait chuté à 26%, soit 656 002 locuteurs monoglottes ou bilingues 1275 . En Écosse en revanche, la place des langues traditionnelles était différente. Si le gaélique écossais avait bien été parlé sur la plupart du territoire, il avait reculé à cause de l'expansion de l'écossais vernaculaire, devenu la langue dominante à partir du XIVe siècle, avant que ce dernier ne cède à son tour la place à l'anglais à partir du XVIIIe siècle 1276. En 1961, le gaélique n'était plus pratiqué que par 1,6% des Écossais, soit 80 987 locuteurs 1277 . Même si les revendications linguistiques étaient loin d'arriver en tête des préoccupations des nationalistes écossais, la montée du sentiment national, l'engouement pour l'histoire et les cultures traditionnelles ainsi que l'influence du mouvement de revitalisation du gallois, les poussèrent à formuler des demandes similaires pour le gaélique écossais. 1274 Saunders LEWIS, « The Fate of the Language », op. cit. « The Welsh Language Society », Sruth, 2 novembre 1967, p. 6. 1276 Atina L. K. NIHTINEN, op. cit., pp. 69-70. 1277 « Call for A Scottish Language Society », Sruth, 10 juillet 1969, p. 5. « Celtica – today », Sruth, 16 octobre 1969, p. 3. 1275 2ème Partie - 4 : Mouvements nationalistes gallois et écossais Les premières campagnes de désobéissance civile organisées par la CIG avaient abouti au vote du Welsh Language Act (1967), conférant une forme de reconnaissance officielle au gallois. La loi permettait notamment son utilisation dans les documents officiels, mais ne garantissait pas pour autant sa parité avec l'anglais. Les autorités locales restaient libres de déterminer la place accordée à la langue galloise 1278 . Les comtés de Gwynedd et de Dyfed appliquèrent ainsi la mesure avec enthousiasme, notamment en en développant les projets d'enseignement bilingue 1279 . La campagne pour l'utilisation du gallois dans les bureaux de poste, débutée en 1964, se fit plus militante après 1968, entraînant le passage devant la justice de plus de 500 membres de la CIG et l'emprisonnement de vingtaines d'entre eux. Les sit-ins se transformèrent en occupations, lors desquelles les protestataires détruisaient tous les documents rédigés uniquement en anglais et les remplaçaient par des équivalents bilingues. Les rétroviseurs de nombreux véhicules postaux furent également brisés afin rendre ces derniers inutilisables. En octobre 1975, la campagne se solda par une victoire, avec l'acceptation de la direction des services de poste gallois du principe du bilinguisme dans ses bureaux 1280. En 1967, la CIG lança des opérations de sabotage qui devinrent rapidement célèbres, prenant pour cible le symbole le plus flagrant de la domination de la langue anglaise sur le territoire gallois aux yeux des militants : les panneaux de signalisation. Quelques étudiants membres de la CIG avaient spontanément entrepris de peindre des traductions en gallois pour recouvrir les inscriptions en anglais des panneaux des environs d'Aberystwyth. La technique fut ensuite sanctionnée par le Senedd, l'instance dirigeante de la CIG, et des 1278 « Celtica – today », Sruth, 16 octobre 1969, p. 3. « Cymdeithas », Peace News, 10 mars 1978, p. 5. 1280 « The Welsh Language Society », Sruth, 2 novembre 1967, p. 6. « Cymdeithas re-starts campaign for bi-lingual post office », Peace News, 10 mai 1974, p. 4. « Pipped at the post », Peace News, 24 mai 1974, p. 5. « Statws i'r iaith », Peace News, 10 janvier 1975, p. 4. « Army presents at Eisteddfod », Peace News, 7 février 1975, p. 7. « Cymdeithas action pays off », Peace News, 7 novembre 1975, p. 6. 1279 421 422 Claire Mansour, Diffusion et évolution des mouvements sociaux centaines de militants à travers le pays se rassemblèrent pour peindre, voire même enlever les panneaux routiers. Lorsque certains d'entre eux furent traduits en justice, les membres de la CIG se rassemblèrent devant les tribunaux pour y déposer des piles de panneaux, revendiquant leur responsabilité au même titre que les prévenus, comme ce fut le cas par exemple en mars 1971 à Aberystwyth (voir annexe 28) 1281. En 1974, les autorités acceptèrent le principe du bilinguisme pour la signalisation routière, mais à condition que l'anglais précède le gallois, ce qui fut considéré comme « une insulte faite à la langue nationale » (« an insult to the national language of Wales ») par les meneurs de la CIG 1282. Cependant, les militants étaient alors plus préoccupés par la campagne visant à obtenir une radio et une chaîne de télévision exclusivement en gallois. La prédominance de la langue anglaise dans les médias était, selon eux, responsable du déclin de leur langue, et même d'une forme d'endoctrinement : « a means of indoctrinating our people to think as Englishmen, and forget the language » 1283. En 1968, ils avaient commencé par refuser de payer la redevance télévisuelle. Cette phase avait culminé par une grande marche au nord du pays de Galles, de Saint Asaph à Bangor, au cours de laquelle ils avaient récupéré des centaines d'avis de paiement de redevance audiovisuelle (tv licences), brûlés par la suite devant les locaux de la BBC à Bangor 1284. Les partisans de la CIG passèrent par la suite aux occupations des studios de radio et de télévision au pays de Galles et en Angleterre, où ils dégradaient du matériel, sélectionnant des éléments perturbant le plus possible le fonctionnement des entreprises, sans toutefois occasionner de trop grosses pertes financières. Dans un premier temps, ils s'en prirent aux câbles téléphoniques, ou aux rétroviseurs des camionnettes, puis, frustrés par la réticence de la BBC à accéder à leur requête, ils sabotèrent les stations de diffusion, privant notamment 1281 « Welsh pull up road signs », The Irish Democrat, mars 1971, p. 2. « Rooting up road signs », The Irish Democrat, avril 1971, p. 2. 1282 « Arecsam signs », Peace News, 5 juillet 1974, p. 5. 1283 « Cymdeithas comes to the English capital », Peace News, 22 mars 1974, p. 7. 1284 « Rooting up road signs », The Irish Democrat, avril 1971, p. 2. 2ème Partie - 4 : Mouvements nationalistes gallois et écossais plusieurs dizaines de milliers de foyers d'accès à la télévision dans l'ouest du pays de Galles en 1978 1285 . La BBC avait déjà accepté de créer une radio exclusivement galloisante, Radio Cymru, qui commença à émettre en 1977, mais la demande de chaîne télévisée s'avérait plus problématique. Elle fut finalement reprise dans les manifestes de campagne des principaux partis politiques lors des élections de 1979, mais il fallut la menace d'une grève de la faim de Gwynfor Evans en 1980, pour que le projet voie le jour en 1982 1286. En Écosse, les associations de défense du gaélique écossais avaient suivi avec attention l'évolution du mouvement gallois. Lors d'un rassemblement de la Celtic League à Londres en juillet 1969, l'écrivain et militant Seumas Mac a'Ghobhainn se désolait du déclin de la langue gaélique, et du fait que son sort ne semblait pas émouvoir la plupart de ses compatriotes. Il appela à la création d'une organisation radicale, sur le modèle de la CIG : I would like to see an equivalent of the Welsh Language Society in Scotland, its members fighting and willing to suffer for the right of their national language, their nationality and their country's freedom. But it does not yet seem possible to even gather 100 fior Ghaidheil together who would be willing to join such an organisation. 1287 Quelques mois plus tard, l'association Comunn Na Canain Albannaich (Scottish Language Society) fut formée par trois jeunes militants. Comme le nom de l'organisation l'indiquait, ses partisans adoptèrent le cadre de la CIG, partant du postulat que le gaélique écossais était la seule vraie langue nationale 1288 . Ils cherchaient à déconstruire l'image négative associée à la langue et à la culture gaéliques, alors souvent considérées comme « étrangères » (« alien »), et à restaurer 1285 « Welsh Language Society: more charges, more actions », Peace News, 9 février 1973, p. 7. « Welsh disrupt TV studios », Peace News, 9 mars 1973, p. 7. « Carving up Cymdeithas », Peace News, 13 juillet 1973, p. 1. « Cymdeithas », Peace News, 1er décembre 1978, p. 4. 1286 « New papers reveal hunger strike secret of S4C's birth », BBC News, 30 décembre 2010 [en ligne], [consulté le 3 mai 2018], disponible à l'adresse suivante : <http://www.bbc.com/news/ukwales-12062288>. 1287 « Call for A Scottish Language Society », Sruth, 10 juillet 1969, p. 5. 1288 « Celtica – today », Sruth, 16 octobre 1969, p. 3. 423 424 Claire Mansour, Diffusion et évolution des mouvements sociaux leur place historique dans l'identité nationale écossaise : « the Scots will come to realise that it is this aspect of their culture that distinguishes them from the other nations of the world » 1289 . Rejetant la dichotomie Highlands/Lowlands, ils affirmaient que l'héritage celte était commun à tous les Écossais, et entendaient restaurer une culture authentique, libérée des distorsions romantiques des précédents courants de nationalisme culturel : « we are not a group of dewy-eyed, romantic bodaich [old men] and only seek to emphasize the point that there is more to Scottish nationality than rolling an occasional 'r'; that without Gaelic our claim to nationhood is minimal and at all costs the language must thrive »1290. Selon leur manifeste « Tir Gun Chanain, Tir Gun Anam » (« A land without a language, a land without a soul »), l'organisation avait trois buts principaux : convaincre leurs compatriotes que le gaélique était la langue historique de la nation, obtenir sa reconnaissance officielle par les autorités locales, et développer sa pratique dans tous les aspects de la vie courante 1291. Ces deux derniers objectifs étaient très similaires à ceux de la CIG, et si les militants écossais s'inspiraient des Gallois, ils adaptèrent néanmoins leurs tactiques et leurs revendications à leur contexte spécifique. La campagne visant à donner plus de place dans les médias au gaélique, ne réclamait pas la création de chaînes ou de stations exclusivement en gaélique, mais simplement davantage de temps d'antenne à la radio et à la télévision. Les militants de l'université de Glasgow firent ainsi irruption dans les locaux de la BBC de leur ville, en janvier 1975, et transformèrent leur sit-in en ceilidh, sorte de bal traditionnel écossais, lorsque près de deux cent étudiants se mirent à danser devant l'entrée du bâtiment 1292 . D'autres initiatives visant les panneaux de signalisation, les assignations à comparaître devant la justice ou le droit de s'exprimer en gaélique lors d'un procès rappelaient également les stratégies de la CIG. Mais la mobilisation ne parvint pas à susciter le même enthousiasme qu'au 1289 « Comunn na canain albannaich », Sruth, 3 septembre 1970, p. 10. « Comunn na canain albannaich: 'Tir gun chanain, tir gun anam' », Sruth, 5 mars 1970, p. 10. 1291 Ibid. 1292 « Suas leis a ghaidhlig », The Glasgow University Guardian, 30 janvier 1975, p. 12. 1290 2ème Partie - 4 : Mouvements nationalistes gallois et écossais pays de Galles, et ses principales avancées dans les années 1970 résidèrent surtout dans les projets d'éducation bilingue mis sur pied dans les Highlands et les Hébrides, et dans l'adoption par le SNP d'un programme destiné à revitaliser la langue, qui porterait ses fruits lors de la décennie suivante 1293 . Aux yeux des nationalistes, le problème de l'étiolement de leurs langues traditionnelles était indissociable des difficultés économiques accablant leurs territoires, comme en témoignait par exemple le slogan « Houses and jobs to save the language » utilisé par les militants gallois luttant contre le dépeuplement de certaines régions galloisantes 1294. 2.4.3.2. Campagnes pour sauver les emplois locaux Le déclin des industries traditionnelles, sur lesquelles reposaient en grande partie les économies galloise et écossaise, s'accéléra dans les années 1970, entraînant des plans de licenciement massif. Pour les nationalistes, le rôle primordial de leur mouvement était de préserver leur nation et donc les emplois permettant à la population de vivre décemment. Des conflits industriels majeurs participèrent à la politisation de la classe ouvrière, en premier lieu desquels les chantiers navals de l'Upper Clyde en Écosse et la grève des mineurs de 1972 au pays de Galles. En juin 1971, l'expérience du work-in des employés de l'UCS réveilla la tradition ouvrière de la Red Clydeside, remettant au goût du jour les écrits du marxiste et nationaliste John MacLean, partisan d'une république écossaise socialiste. Dès les premiers jours de l'expérimentation autogestionnaire, le journal de l'IMG The Red Mole titrait « The Occupation of Clydeside : First step towards the Scottish Workers' Republic? » (voir annexe 29) 1295. Les articles rédigés par la branche de Glasgow exhortaient la classe ouvrière écossaise à reprendre en main son 1293 « Gaelic culture », Peace News, 4 mai 1979, p. 7. Murray PITTOCK, op. cit., p. 125-6. « A language for freedom », Peace News, 28 septembre 1979, pp. 12-14. 1295 « The Occupation of Clydeside: First step towards the Scottish Workers' Republic? », The Red Mole, 15 juillet 1971, p. 1. 1294 425 426 Claire Mansour, Diffusion et évolution des mouvements sociaux destin en se libérant de l'oppression de l'élite capitaliste britannique, posant au passage la question de l'indépendance : « this battle over the future of the lynchpin in the economy of Scotland raises the national question. The British bourgeoisie have no future for Scotland [] Its future must lie in the hands of the working class » 1296. La mobilisation rallia le soutien massif de la classe ouvrière de la région, avec une manifestation de plus de 70 000 personnes à Glasgow le 18 août 1971. La dimension politique du conflit devenait de plus en plus manifeste, ce qu'attestait la présence dans le cortège des figures majeures du Parti travailliste et du SNP, comme Tony Benn et Billy Wolfe 1297 . Plus qu'un profond mécontentement à l'encontre du gouvernement conservateur, la crise de l'UCS révélait les frustrations d'une partie de la population engendrées par le système politique. La technique du work-in fut rapidement reprise à travers le pays pour s'opposer aux fermetures d'usines, mais ses versions galloises et écossaises avaient des tonalités fortement nationalistes. Dans la petite ville de Mold, au nord-est du pays de Galles, les ouvriers de l'entreprise américaine Allis-Chalmers, produisant des machines agricoles, se lancèrent à leur tour dans un work-in. Suite à la décision de la direction de fermer définitivement l'usine, en décembre 1971, ils prirent le contrôle de la production et hissèrent le Dragon rouge sur un mât 1298. L'adoption de la tactique avait été influencée par les militants de la CIG et de Plaid Cymru, voyant en elle un moyen de sauver ces emplois, mais aussi de préserver une communauté galloisante. La région offrant peu d'opportunités professionnelles, les ouvriers auraient été forcés d'émigrer pour retrouver un travail. Afin de soutenir financièrement les familles des employés d'Allis-Chalmers, un concert fut organisé, lors duquel le chanteur de folk et meneur de la CIG Dafydd Iwan – souvent qualifié de Bob Dylan gallois – s'adressa au public en ces termes : « Our two fights, for our language and for our livelihood, are just part of one single 1296 « Special Clydeside supplement: Introduction », The Red Mole, 15 juillet 1971, p. 1. « UCS: Transform the work-in into a sit-in », The Red Mole, 1er septembre 1971, p. 14. 1298 « Mold », Solidarity, 9 avril 1972, pp. 12-13. 1297 2ème Partie - 4 : Mouvements nationalistes gallois et écossais struggle, the struggle for freedom and human rights » 1299 . Recoupant la sauvegarde des emplois et la protection de la langue, Iwan présentait le mouvement nationaliste comme une lutte pour l'amélioration de tous les aspects de la vie des Gallois. Les délégués syndicaux trouvèrent finalement un repreneur quelques semaines plus tard, et les deux-tiers des postes purent être conservés 1300. En Écosse, parmi les nombreuses répliques engendrées par le work-in de l'UCS, celui des employés de la filiale de Glasgow du quotidien The Scottish Daily Express prit une tournure particulière. En mars 1974, la direction annonçait que la production du journal basculait à Manchester pour des raisons budgétaires, entraînant la suppression de 1850 emplois 1301. Un peu moins d'un tiers du personnel décida d'organiser un work-in, qui se transforma en véritable coopérative ouvrière, grâce à l'appui du ministre de l'Industrie Tony Benn, mais aussi du président du SNP Billy Wolfe, siégeant au conseil de direction 1302. Le Scottish Daily Express était le journal le plus lu d'Écosse, avec un tirage de 570 000 exemplaires par jour, et une ligne éditoriale bien marquée à droite. Ses employés avaient déjà protesté contre la publication d'un dessin de Cumming, qui sous-entendait que les nationalistes irlandais étaient contrôlés par l'Union Soviétique, en cessant le travail en 1971. Lors de la publication du dernier numéro imprimé à Glasgow, le comité d'action du personnel tenta de faire paraître un communiqué expliquant leur situation et demandant aux lecteurs de soutenir leur nouveau projet, mais ils se heurtèrent au refus catégorique de la direction. Leur déclaration dénonçait la déconnexion du Scottish Daily Express, qualifié de quotidien « anglais », de son lectorat écossais, et affirmait que leur nouveau projet s'efforcerait de refléter plus fidèlement l'opinion de ses lecteurs, définissant une nouvelle ligne éditoriale de centre 1299 « Wales – the struggle will go on », The Irish Democrat, février 1972, p. 3. « Mold », Solidarity, 9 avril 1972, pp. 12-13. 1301 « Axe falls on Scottish newspapers », Red Weekly, 22 mars 1974, p. 1. 1302 « Scottish Daily News: Good news is coming », The Glasgow University Guardian, 16 janvier 1975, p. 6. « Daily News poised for take-off », The Glasgow University Guardian, 1er mai 1975, p. 4. 1300 427 428 Claire Mansour, Diffusion et évolution des mouvements sociaux gauche 1303. Le nouveau Scottish Daily News se fixait pour mission de « prendre le pouls de la nation » (« have a finger on the pulse of the nation »), ce qu'il pensait être le plus à même d'accomplir, étant à la fois détenu et élaboré par des Écossais ordinaires : ses propres salariés. Lors de la parution de son premier numéro en mai 1975, l'éditorial proclamait : « the new and authentic voice of Scotland rings out today across the country »1304. Une fois l'enthousiasme initial dissipé, les ventes du journal s'effondrèrent rapidement. En novembre 1975, la manifestation organisée dans un dernier élan pour sauver le journal fut dominée par les nationalistes, marchant au son de l'hymne « Flower of Scotland », mais l'entreprise fut forcée de déposer le bilan 1305. La perception que le chômage n'était pas seulement la conséquence de difficultés économiques, mais émanait d'un problème avant tout politique, conduisit syndicalistes et ouvriers à prôner la création d'institutions autonomes. En février 1972, la confédération des syndicats écossais, le Scottish Trades Untion Congress (STUC), convoqua une grande assemblée intitulée « Scottish Assembly on Unemployment », représentant les principaux partis politiques, les élus locaux, les syndicats et les chefs d'entreprises. L'assemblée faisait écho aux demandes des salariés de l'UCS, appelant à la mise en place de la dévolution législative afin de défendre les emplois sur le territoire. Le secrétaire général du STUC, James Jack, envisageait cette chambre comme un « parlement ouvrier » (« a Workers' Parliament »), pour répondre à leurs besoins spécifiques 1306. L'idée que les intérêts des travailleurs gallois devaient être défendus par des institutions adaptées avait également fait son chemin au pays de Galles. Lors de la conférence annuelle de Plaid Cymru, en juin 1971, les 1500 délégués présents s'étaient prononcés en faveur de la création d'une confédération des syndicats gallois, sur le modèle du 1303 « Seize the Daily Express – for a workers' paper! », Red Weekly, 5 avril 1974, p. 2. « Press hope in 'Scottish workers' paper », The Irish Democrat, juin 1975, p. 3. 1305 « SDN – Co-operation with bosses leads to mass redundancies », Red Weekly, 13 novembre 1975, p. 5. 1306 « London and Brussels versus Scottish Steel », The Irish Democrat, février 1973, p. 3. 1304 2ème Partie - 4 : Mouvements nationalistes gallois et écossais STUC 1307. Le projet se concrétisa en février 1973, suite à une conférence spéciale réunissant trois cent délégués syndicaux à Llandrinod Wells. La première résolution de la nouvelle organisation visait à obtenir l'engagement du Parti travailliste en faveur de la dévolution 1308. L'influence des mineurs avait joué un rôle-clé dans la création du TUC gallois. Ces derniers avaient vigoureusement soutenu la grève dès le mois de janvier 1972, et à l'instar des employés de l'UCS, en avaient émergés convaincus de la nécessité d'introduire la dévolution législative au pays de Galles, appelant à la création d'un « parlement ouvrier » 1309. En 1974 et 1975, l'agitation sociale ne se démentait pas, attisée par de nouveaux plans de licenciements massifs et la mise en place de la politique de contrat social du gouvernement travailliste. Dans le secteur de l'acier, une industrie nationalisée depuis 1949, les fermetures d'usine se multipliaient, comme dans la ville d'Ebbw Vale, au sud-est du pays de Galles, où tout l'équilibre économique de la vallée se trouvait menacé. Les représentants syndicaux accusaient la stratégie du gouvernement travailliste de nationaliser les industries de n'avoir servi qu'à produire de l'acier à bas coût pour répondre aux besoins des intérêts capitalistes 1310 . Lorsque Michael Foot, député travailliste de la circonscription et ministre de l'Emploi, vint s'adresser aux ouvriers, il fut hué pendant une dizaine de minutes. En Écosse, la ville de Glasgow fut à deux reprises quasiment paralysée par les grèves. En octobre 1974, dix corps de métier avaient cessé le travail indépendamment, partageant un sentiment d'indignation face à la politique d'austérité du gouvernement. En mars 1975, le gouvernement fit appel à l'armée pour briser la grève, notamment du fait des monceaux d'ordures s'accumulant dans les rues de la ville 1311. La virulence de la contestation était en partie due aux conditions économiques particulièrement difficiles pour 1307 « For a Welsh TUC? », The Irish Democrat, juillet 1971, p. 2. « Weslh Trade Unionists start their own TUC », The Irish Democrat, mars 1973, p. 3. 1309 « Miners take first step to independence », The Irish Democrat, juillet 1972, p. 3. 1310 « Ghosts of the 30s Haunt the valleys », Red Weekly, 20 février 1975, pp. 6-7. 1311 « Strike wave rocks social con-trick », Red Weekly, 24 octobre 1974, p. 1. « Iron heel of the social contract », Red Weekly, 27 mars 1975, pp. 6-7. 1308 429 430 Claire Mansour, Diffusion et évolution des mouvements sociaux les Écossais, comme l'avait démontré un rapport affirmant que près d'un quart d'entre eux vivait sous le seuil de pauvreté, mais aussi du fait de la découverte des gisements de pétrole en 1970 dans les eaux de la mer du Nord, au large d'Aberdeen 1312. Le gisement des Forties, exploité par la société British Petroleum, représentait à lui seul une manne estimée à six milliards de livres 1313. Le SNP se saisit de cette chance pour affirmer que les bénéfices du pétrole pouvaient assurer un avenir florissant à une Écosse indépendante, comme le proclamait son slogan « Rich Scots, Poor Britons », mettant en balance prospérité et pauvreté, en fonction du maintien de l'Union. Ainsi, il y avait un décalage entre la réalité quotidienne des Écossais, dont les salaires étaient limités par le contrat social imposé par le gouvernement travailliste, et les possibilités de réformes sociales et de redistribution des richesses que les revenus pétroliers semblaient pouvoir garantir. Ces arguments trouvèrent un écho au sein de la population, qui se traduisit en termes de gains électoraux pour le SNP. Le parti enregistra une forte hausse dans la première moitié de la décennie, passant de 11,4% des suffrages en 1970, à 22% et 30,4% en février et en octobre 1974 respectivement. Cette dernière avancée lui permit de remporter un total de 11 sièges, et de forcer la main à un gouvernement travailliste réticent à s'engager sur le chemin de la dévolution 1314. 2.4.3.3. Demandes d'autonomie politique Les succès électoraux des nationalistes écossais et gallois avaient poussé les principaux partis de gouvernement à formuler des projets concédant une certaine mesure d'autonomie politique à l'Écosse et au pays de Galles. En 1968, suite aux victoires des élections partielles de Gwynfor Evans et Winnie Ewing en « The prospects of independence », The Glasgow University Guardian, 1er mai 1975, p. 8. 1313 « The oil pirates of the North Sea », Red Weekly, 22 mars 1974, p. 6. 1314 « The election, the SNP and independence », The Irish Democrat, avril 1974, p. 3. « Scotland and the elections », Red Weekly, 24 octobre 1974, p. 9. 1312 2ème Partie - 4 : Mouvements nationalistes gallois et écossais 1966 et 1967, le chef de l'opposition, Edward Heath, réagit en proclamant son soutien à la création d'une assemblée législative en Écosse, lors de la conférence du Parti conservateur à Perth, ainsi qu'en instaurant un comité constitutionnel présidé par Sir Alec Douglas-Home pour étudier le sujet 1315. Le gouvernement Wilson fut à son tour contraint de se mettre à l'oeuvre, et mandata la commission Crowther pour étudier une réforme constitutionnelle envisageant la dévolution. Au grand agacement des nationalistes, cette dernière tardait à rendre ses conclusions. Ce retard fut en partie dû au décès de Lord Crowther en 1972, alors remplacé par Lord Kilbrandon 1316 . En novembre 1972, une des figures emblématiques du nationalisme écossais, Wendy Wood, alors âgée de 80 ans, entama une grève de la faim qu'elle se disait prête à poursuivre jusqu'au bout, afin de pousser le Premier ministre Heath à tenir ses engagements. Elle faisait référence à la déclaration de Perth et aux conclusions du rapport de DouglasHome en faveur d'une assemblée écossaise, qui avaient été reprises dans le manifeste de campagne de 1970. Le gouvernement s'abrita derrière les délais de délibération de la commission Crowther-Kilbrandon, mais assura que les conclusions de l'enquête seraient prises en compte dans un livre vert, convainquant ainsi Wood de cesser son jeûne 1317 . Lorsque le rapport de la commission fut enfin publié en octobre 1973, il dut paraître en deux volumes, du fait de désaccords majeurs entre ses membres. Leurs conclusions prenaient néanmoins position contre l'indépendance de l'Écosse et du pays de Galles, tout en réaffirmant les grands principes de l'unionisme. Différentes possibilités de dévolution étaient envisagées, accordant pour la plupart davantage d'autonomie à d'éventuelles institutions écossaises qu'aux galloises. Si les dirigeants des partis nationalistes se félicitaient pour la plupart de ces avancées, leurs bases étaient souvent plus critiques, dénonçant les pouvoirs trop limités prévus pour ces 1315 « Wendy Wood thinks promises should be kept », The Irish Democrat, janvier 1973, p. 3. « Now a Stormont for Scotland? », The Irish Democrat, avril 1972, p. 3. 1317 « Wendy Wood thinks promises should be kept », The Irish Democrat, janvier 1973, p. 3. Edward HEATH, op. cit., pp. 563-4. 1316 431 432 Claire Mansour, Diffusion et évolution des mouvements sociaux assemblées. Lors de la discussion publique accompagnant la parution du rapport, des militants demandèrent à Lord Kilbrandon pourquoi la gestion du commerce, de l'industrie et de l'emploi ne faisaient pas partie des domaines de compétences dévolus à l'Écosse, celui-ci répondit que leur transfert constituerait une indépendance de fait : « If you want a Scottish Parliament with powers on trade and industry you are effectively asking for separation. This is what this power really means » 1318. Cette déclaration accréditait la thèse unioniste redoutant que ces transferts de pouvoirs ne cause l'éclatement de l'Union, mais aussi celle des militants nationalistes, qui voyaient dans les projets de dévolution proposés des mesures cosmétiques, destinés à préserver l'hégémonie anglaise : « a salving formula to ensure continuance of England's imperialist rule in Scotland ».1319 En 1974, après la chute du gouvernement Heath, les travaillistes formèrent un gouvernement minoritaire, se trouvant alors dépendants du soutien des libéraux et des nationalistes écossais et gallois. Ce fut dans cette situation, entre les élections de février et d'octobre, que le Parti travailliste décida de se prononcer en faveur de la dévolution, plus par nécessité que par conviction. Sa branche écossaise vota une résolution appelant à la création d'une assemblée législative, que le gouvernement accompagna bientôt de la publication d'un livre blanc prônant la mise en place d'une assemblée dotée de pouvoirs législatifs à Édimbourg, et d'une autre aux fonctions uniquement exécutives à Cardiff – une asymétrie qui figurerait également dans les propositions de loi. Les militants ne tardèrent pas à critiquer les motivations électoralistes du gouvernement ainsi que les limites du projet 1320. L'un d'entre eux comparait ainsi le Parti travailliste à un dinosaure, forcé de s'adapter contre son gré aux changements extérieurs : « Like a dinosaur being levered from the swamp, the Labour Party in Scotland has been forced to accede to the assembly idea – minimal in its content though it may be » 1321. Après la réélection 1318 « Kilbrandon and Govan », The Irish Democrat, janvier 1974, p. 3. Ibid. 1320 « Parliament useless – in London or Edinburgh », Red Weekly, 3 octobre 1974, p. 8. 1321 « The price of Scottish oil », The Irish Democrat, septembre 1974, p. 3. 1319 2ème Partie - 4 : Mouvements nationalistes gallois et écossais d'Harold Wilson à la tête d'un gouvernement majoritaire, un deuxième livre blanc plus détaillé fut publié en novembre 1975, repris dans la proposition de loi Scotland and Wales Bill un an plus tard. La plupart des partisans de la dévolution – étudiants, syndicalistes, militants et hommes politiques – estimaient que le gouvernement avait trahi ses engagements 1322. Ils jugeaient l'autonomie accordée aux assemblées insuffisante, car les domaines économiques clés ne relevaient pas de leur champ de compétences : There was to be no power for the Assembly over trade and industry, finance and taxation, the universities, oil revenues, the newly established Scottish Development Agency, the nationalised industries in Scotland, agriculture and fisheries. In short, the Assembly envisaged by Westminster would be a mere plaything. 1323 Le député travailliste écossais James Sillars (dit « Jim ») rejeta catégoriquement le livre blanc, qu'il qualifia d' « insulte à l'intelligence des Écossais » (« an insult to the intelligence of every Scotsman »), allant jusqu'à former son propre parti, le Scottish Labour Party (SLP), afin de militer pour étendre les pouvoirs dévolus aux domaines économiques 1324. Il fut bientôt rejoint par un autre député travailliste, John Robertson, également lassé des concessions aux unionistes du parti qui avaient considérablement réduit le champ d'action des institutions proposées. Après un rassemblement inaugural ayant réuni plus de 400 personnes, le parti gagna l'enthousiasme de jeunes militants travaillistes ainsi que de syndicalistes 1325. Le projet de dévolution avait divisé les rangs des travaillistes, suscitant de vives tensions, entre d'une part, les partisans d'un réel transfert de pouvoir de Londres vers Cardiff et Édimbourg, et ceux au contraire qui s'y opposaient de façon virulente, à l'instar des six députés du Sud du pays de Galles menés par Leo Abse et Neil Kinnock, surnommés le « Gang of Six », ou de Thomas Dalyell (dit 1322 « Devolution », The Glasgow University Guardian, 4 décembre 1975, p. 4. « White paper shock waves », The Irish Democrat, janvier 1976, p. 3. 1323 « White paper shock waves », The Irish Democrat, janvier 1976, p. 3. 1324 Ibid. 1325 « New Scottish Labour Party launched », The Irish Democrat, février 1976, p. 3. 433 434 Claire Mansour, Diffusion et évolution des mouvements sociaux « Tam ») en Écosse. Les débats sur la Scotland and Wales Bill furent longs. Les unionistes travaillistes et conservateurs ajoutèrent de nombreux amendements réduisant les pouvoirs des assemblées ou compliquant leur mise en place, comme la tenue de référendums auprès des peuples gallois et écossais pour valider la réforme, ralentissant ainsi sa progression. En trente heures de discussion réparties sur trois jours au mois de janvier 1977, les députés n'avaient débattu qu'une seule des 115 clauses de la proposition de loi. Afin d'accélérer la procédure, Michael Foot déposa une « motion de guillotine » (« guillotine motion »), c'est-à-dire une motion d'allocation de temps restreignant la durée des débats, finalement rejetée en février 1977 1326. Une nouvelle salve de victoires du SNP aux élections locales en mai 1977 et le pacte électoral signé avec les libéraux poussèrent le gouvernement à réintroduire un projet de dévolution, mais sous la forme de deux propositions de loi séparées pour l'Écosse et le pays de Galles, qui furent enfin votés en février 1978, après une dernière concession de taille aux unionistes – la dévolution ne serait appliquée que si elle était plébiscitée par au moins 40% de l'électorat gallois ou écossais, et non pas par une simple majorité des votants. La dévolution se révélait particulièrement clivante car elle menaçait, aux yeux des unionistes, l'intégrité de l'Union. Ces peurs suscitèrent une réaction de rejet des mouvements nationalistes, et de leurs avancées. 2.4.4. Déclin 2.4.4.1. Fermeture de la structure des opportunités politiques Comme les autres mouvements contestataires de l'époque, la remise en question du statu quo par les mouvements nationalistes gallois et écossais engendra une sorte de retour de flamme, dans un contexte où les débats 1326 « Devolution – step to power », The Irish Democrat, novembre 1976, p. 7. « Petrified assembly », The Irish Democrat, january 1977, p. 3. « A glimpse into the Scottish establishment », The Irish Democrat, février 1977, p. 3. 2ème Partie - 4 : Mouvements nationalistes gallois et écossais parlementaires sur la dévolution polarisaient les opinions. Au pays de Galles, le militantisme radical de la CIG avait aliéné une frange non-galloisante de la population, s'opposant entre autres à l'enseignement bilingue dans les écoles. De grands médias britanniques accordèrent à ce contre-mouvement une couverture disproportionnée et souvent orientée. Le quotidien The Guardian rapportait par exemple des rassemblements d'une vingtaine de personnes contre l'utilisation du gallois dans les classes, tandis qu'il passait régulièrement sous silence ceux des partisans du bilinguisme réunissant pourtant des centaines de personnes 1327. La BBC, censée encourager la revitalisation de la langue galloise, se fit quant à elle le relai d'anecdotes douteuses jetant le discrédit sur les politiques bilingues. Des brèves radiophoniques racontaient ainsi l'oppression quotidienne d'enfants et de parents confrontés à des défenseurs fanatiques de la langue galloise. Ce phénomène fut d'ailleurs pointé du doigt par le Times, qui concluait son article par une mise en garde : The BBC is in the cockpit of the language issue and certainly knows the impact of such doubtful and emotive stories. Because of its divisive potential, the Welsh language question needs special and responsible reporting. [] There is a particular hypocrisy in journalists' and broadcasters' talking on one hand of undoubted tensions while, on the other, they exacerbate them. 1328 Les tensions suscitées par la place de la langue galloise au sein de la société furent également attisées par la campagne contre la dévolution menée par le « Gang of Six » auprès des élus travaillistes locaux. Les administrations étaient encouragées à ne plus traiter les demandes rédigées en gallois et à ne plus fournir de formulaires bilingues. Les panneaux de signalisation de certaines communes furent à nouveau érigés exclusivement en anglais, malgré la directive officielle prônant le bilinguisme 1329. Les opposants à la dévolution jouèrent sur les peurs de 1327 « The gin and tonic set », Peace News, 28 septembre 1979, p. 8. « Impartial BBC war on Welsh », The Irish Democrat, août 1977, p. 2. 1329 « Welsh Assembly is not good enough », The Irish Democrat, avril 1976, p. 3. 1328 435 436 Claire Mansour, Diffusion et évolution des mouvements sociaux la population non-galloisante, s'adressant en particulier aux régions très majoritairement anglophones du sud-est du pays de Galles. Ils affirmaient qu'une assemblée à Cardiff serait dominée par une élite galloisante, qui imposerait sa langue à l'ensemble du territoire, et opprimerait les non-galloisants. La métaphore fut filée à l'extrême par Leo Abse, allant jusqu'à prétendre que les non-galloisants deviendraient des « citoyens de seconde zone » : « Are the English speaking Welshmen and Welshwomen of Newport, Pontypool and Gwent to become second-class citizens in their own land? Is Newport to be governed from Cardiff by a huge Welsh speaking civil service? » 1330. Ce dernier alléguait encore que la ségrégation linguistique exposerait l'assemblée de Cardiff à la corruption 1331. En Écosse, la campagne précédant le referendum sur la dévolution connut également son lot de désinformation et de manipulation, notamment à travers la presse. Certains partisans de la dévolution se posaient comme les seuls vrais défenseurs de la nation écossaise, reléguant leurs opposants dans le camp « anglais », engendrant ainsi une surenchère dans la presse populaire. Le Daily Record surnomma ainsi le Daily Express « The Voice of England », puisqu'il était produit depuis 1974 exclusivement en Angleterre. Celui-ci rétorqua que son rédacteur en chef était écossais, ce qui n'était pas le cas du Daily Record, qui était de surcroit détenu par un groupe anglais 1332 . Les opposants à la dévolution tournaient à leur tour le nationalisme de leurs adversaires en ridicule en le présentant comme une obsession marginale touchant au fanatisme : « Here we have the basic reason for devolution : two major parties scared of a few kilted lunatics. This seems to be a very strange reason to have a major constitutional change in the United Kingdom » 1333. Le fonctionnement des institutions proposées était souvent expliqué de manière délibérément trompeuse. L'argument du député travailliste Tam Dalyell, baptisé 1330 Stéphanie BORY, « 'A dream turned to ashes'? Les évolutions contradictoires du nationalisme gallois dans les années 1970, Revue Française de Civilisation Britannique, 21, no. 3, 2016, p. 137. 1331 « Referendum in Wales », The Irish Democrat, avril 1979, p. 5. 1332 « Press has a field day », The Glasgow University Guardian, 24 février 1979, p. 4. 1333 « The great devo debate », The Glasgow University Guardian, 27 janvier 1979, p. 3. 2ème Partie - 4 : Mouvements nationalistes gallois et écossais « West Lothian Question » du nom de la circonscription de ce dernier, dénonçait le déséquilibre des prérogatives accordées aux députés gallois et écossais, qui pourraient continuer à voter sur les sujets concernant exclusivement l'Angleterre en siégeant à Westminster, tandis que les élus anglais ne pourraient plus se prononcer sur les affaires galloises et écossaises relevant du ressort des nouvelles assemblées. Certains opposants à la dévolution se servirent de ce point pour jeter le trouble sur la distribution des domaines de compétence : « Devolution would mean that your MP in Westminster would have some control over housing in Bristol but none over housing in Hillhead. Confusing, isn't it? » 1334 . Or, dans ce cas précis, si le député écossais siégeant à Londres pouvait effectivement participer aux décisions concernant le logement de la ville de Bristol mais pas de Glasgow, le fait que cette question relèverait de la compétence des élus de l'assemblée d'Édimbourg était opportunément omis. D'autres arguments misaient sur une forte charge émotionnelle, assimilant la dévolution à l'éclatement de l'Union. Le Daily Express proposait dans ces colonnes des variations sur le thème de la déchirure « Don't Tear Britain Apart », tandis que d'autres affirmaient que les nationalistes voulaient démanteler le Royaume-Uni : « The break-up of the United Kingdom is the aim of the Scottish Nationalist Party »1335. Cette campagne intervenait du surcroit dans le contexte tendu de « l'hiver du mécontentement », baignant le pays dans une atmosphère de crise peu propice aux discussions apaisées. Non seulement les grèves massives accaparaient la une des journaux et dominaient les préoccupations de la population, mais elles influencèrent aussi les arguments des opposants à la dévolution. Ces derniers, notamment les travaillistes gallois et les marxistes écossais du Scottish Workers Party, appelèrent à l'unité de classe ouvrière et à la solidarité avec leurs camarades 1334 Ibid. « The great devo debate », The Glasgow University Guardian, 27 janvier 1979, p. 3. « Press has a field day », The Glasgow University Guardian, 24 février 1979, p. 4. 1335 437 438 Claire Mansour, Diffusion et évolution des mouvements sociaux en lutte dans les villes industrielles anglaises 1336. Ce cadrage les plaçait ainsi dans le camp du socialisme, tandis qu'il créait un amalgame entre les partisans de la dévolution et le soutien au gouvernement Callaghan. La popularité de celui-ci étant au plus bas, les conflits sociaux contribuèrent à transformer les référendums en plébiscite sur la politique gouvernementale. La formulation très abstraite de la question posée, « Do you want the Provisions of the Scotland/Wales Act 1978 to be put into effect? » ajoutait à la confusion ambiante. Le 1er mars 1979, les Gallois se déclarèrent à 80% contre le projet de dévolution, tandis que les Écossais se prononcèrent à 52% pour, ce qui représentait une majorité de près de 80 000 votes. Mais étant donné le taux de participation de 64%, cela ne suffisait pas pour répondre aux exigences de la règle des 40% de soutien de l'électorat 1337 . Ces résultats furent pourtant interprétés comme un rejet du principe même de la dévolution par la majorité des médias et de la classe politique. Des unes telles que « Scottish Assembly, RIP », « No – United We Stand », ou « Scotland has spoken, Government must abandon Assembly » ne laissaient pas de place à la nuance 1338. Le SNP tenta de faire valoir que le référendum n'avait échoué qu'en raison de la règle des 40%, mais le gouvernement Callaghan refusa de faire appliquer le Scotland Act, ce qui poussa les nationalistes écossais à voter une motion de censure responsable de la chute des travaillistes. Contrairement à Edward Heath, Margaret Thatcher n'était pas favorable à la création d'assemblées en Écosse et au pays de Galles, arguant qu'elles alourdiraient encore davantage la bureaucratie étatique 1339 . Elle s'était félicitée dans un communiqué de la victoire de la campagne unioniste, minimisant le soutien des Écossais à la réforme en tenant compte du taux de participation : « Only one-in-three Scots favour the Government's proposals for an Assembly, surely this is no 1336 « Devolution in Scotland: one small step towards working class control », Socialist Challenge, 22 février 1979, p. 10. « Yes in Wales », Socialist Challenge, 22 février 1979, p. 2. 1337 « Referendum in Wales », The Irish Democrat, avril 1979, p. 5. « Scottish democracy said 'YES'», The Irish Democrat, avril 1979, p. 5. « Scottish workers», The Irish Democrat, avril 1979, p. 5. 1338 « Scottish democracy said 'YES'», The Irish Democrat, avril 1979, p. 5. 1339 Dominic SANDBROOK, Seasons in the Sun, op. cit., p. 523. 2ème Partie - 4 : Mouvements nationalistes gallois et écossais basis for implementing the Scotland Act. [] This has been a good day for the United Kingdom » 1340. Le manifeste de campagne des conservateurs pour l'élection de mai 1979 réaffirmait la suprématie de Westminster et ne mentionnait plus la dévolution 1341. Dans son discours de campagne à Édimbourg le 25 avril, elle avait redéfini le concept de la manière suivante : « The devolution in which we believe, above all, is the devolution of power away from politicians and the state to the people themselves »1342. Il n'était donc plus question de transfert de pouvoir par le biais d'institutions politiques décentralisées, mais de donner aux individus les moyens de prendre en main leur destin en réduisant le rôle de l'État et en laissant libre cours aux forces du marché. Ainsi, l'échec des référendums sur la dévolution, la rhétorique unioniste et la nouvelle conception du gouvernement Thatcher du rôle de l'État contribuèrent à refermer pour une dizaine d'année, la structure des opportunités politiques pour les nationalistes gallois et écossais. 2.4.4.2. Conclusion et impact du mouvement La résurgence des mouvements nationalistes gallois et écossais dans les longues années soixante s'insérait dans le contexte plus large des mouvements de contestation destinés à améliorer concrètement les conditions de vie des habitants de ces nations. Le rejet des politiques de défense du gouvernement britannique réveillèrent les sentiments nationaux au pays de Galles en Écosse, donnant une résonnance particulière aux manifestations contre les armes nucléaires, à plus forte raison lorsque ces dernières furent placées directement sur le territoire écossais. Quant aux étudiants, ils rejoignirent en nombre les 1340 Margaret THATCHER, « Written Statement on devolution (referendum results) », 2 mars 1979, Margaret Thatcher Foundation [en ligne], [consulté le 8 mai 2018], disponible à l'adresse suivante : <https://www.margaretthatcher.org/document/103960>. 1341 CONSERVATIVE PARTY, « Conservative Manifesto, 1979 », 1979, Political Sciences Resources [en ligne], [consulté le 8 mai 2018], disponible à l'adresse suivante : <http://www.politicsresources.net/area/uk/man/con79.htm>. 1342 Margaret THATCHER, « Speech to Conservative Rally in Edinburgh », 25 avril 1979, Margaret Thatcher Foundation [en ligne], [consulté le 8 mai 2018], disponible à l'adresse suivante : <https://www.margaretthatcher.org/document/104043>. 439 440 Claire Mansour, Diffusion et évolution des mouvements sociaux mouvements nationalistes, adaptant les cadres des mouvements anti-impérialistes et pour les droits civiques des noirs américains à la situation de leur nation, mais aussi en redynamisant leurs cultures et leurs langues traditionnelles. Le mouvement ouvrier contribua de manière décisive à l'essor des partis nationalistes, articulant les problèmes économiques spécifiques au pays de Galles et à l'Écosse avec la gestion du gouvernement central à Londres. Les liens historiques avec le mouvement nationaliste irlandais permirent la diffusion de ses tactiques et de certains aspects de son idéologie, renforçant les identités nationales en soulignant les similarités entre les nations celtes et se démarquant du même coup de l'Angleterre. De plus, les mouvements écossais et gallois s'influencèrent également entre eux, instaurant une dynamique dans laquelle les avancées de l'un émulaient les demandes de l'autre. Le succès de la CIG pour la défense de la langue galloise persuada les militants écossais d'adapter ses méthodes et ses cadres d'action collective. S'ils ne suscitèrent pas le même engouement massif qu'au pays de Galles, ils réussirent tout de même à obtenir une plus grande visibilité pour le gaélique écossais dans les médias et des moyens supplémentaires pour faciliter son enseignement. Les Écossais étaient revanche à la pointe de la contestation de la campagne pour sauvegarder les emplois, inspirant les Gallois à suivre la voie des ouvriers de l'UCS. Dans le domaine politique, les poussées de Plaid Cymru et du SNP contraignirent les principaux partis britanniques à formuler des projets de réforme constitutionnelle afin d'accorder plus d'autonomie au pays de Galles et à l'Écosse. Le principe de la dévolution, rapprochant le processus décisionnel au plus près des citoyens, avait trouvé un écho au sein de la population, à une époque où ces derniers demandaient de plus en plus à être consultés sur les décisions qui les concernaient directement. De par leur vision romantique de leurs territoires nationaux et leur idéalisation des modes de vie traditionnels ruraux, les mouvements nationalistes gallois et écossais contribuèrent aussi à l'essor du mouvement écologiste, notamment en s'opposant à certains projets miniers ou industriels menaçant l'écosystème de certaines régions. 2ème Partie - 5 : Mouvement écologiste 2.5. LE MOUVEMENT ECOLOGISTE À l'instar des autres mouvements contestataires des longues années soixante, le mouvement écologiste ne fut pas une invention de l'époque. La naissance de l'écologie en tant que discipline scientifique remontait au XIXe siècle. Comme en témoigne l'étymologie du terme forgé par le biologiste allemand Ernst Haeckel – signifiant littéralement « science de l'habitat » – l'écologie visait à étudier les relations entre les êtres vivants et leur milieu naturel 1343. L'influence néfaste des activités humaines sur les écosystèmes relevait à cette époque seulement des préoccupations des spécialistes, et, ponctuellement de petits groupes désireux de protéger le milieu naturel en s'opposant à des phénomènes particuliers, tels que la construction de voies ferrées ou l'abattage massif d'oiseaux lié à la fabrication de chapeaux à plumes 1344. Cependant, plus l'impact négatif des actions de l'homme sur la nature devenait manifeste, plus l'écologie prit une dimension politique et évolua en mouvement de masse afin de convaincre les pouvoirs publics, les entreprises, mais aussi la population en général de minimiser leur empreinte environnementale. Ainsi, les revendications écologistes recouvraient des domaines très divers, comme la sauvegarde de la faune et de la flore, mais aussi plus généralement du patrimoine naturel, avec par exemple l'inclusion de sites d'intérêt géologique dans les parcs nationaux, ou encore des demandes liées à l'environnement en tant que cadre de vie, telles que l'opposition à certains projets d'urbanisation. Pour étudier les différentes facettes de ce mouvement, l'analyse s'appuiera sur des articles provenant d'un large éventail de publications. Le magazine Resurgence, lancé en 1966, fut la première publication spécifiquement dédiée à l'écologie au Royaume-Uni. Il fut bientôt accompagné par le mensuel The 1343 Simon A. LEVIN (éd), The Princeton Guide to Ecology, Princeton : Princeton University Press, 2009, p. vii. Ian G. SIMMONS, An Environmental History of Great Britain: From 10,000 Years Ago to the Present, Édimbourg : Edinburgh University Press, 2001, pp. 179-80. 1344 441 442 Claire Mansour, Diffusion et évolution des mouvements sociaux Ecologist, dont le premier numéro en 1970 signalait la transformation de la mobilisation en mouvement de masse. Ces deux publications représentaient néanmoins deux approches différentes, celle de Resurgence étant plutôt culturelle et philosophique, avec la publication de nombreux essais, de poèmes et de dessins artistiques, tandis que The Ecologist se voulait plus politique, par le biais d'articles scientifiques se penchant sur l'impact des activités humaines sur l'environnement, mais aussi sur leurs conséquences sociologiques. Afin d'examiner les liens entre les différents mouvements, les publications de la gauche radicale, des féministes et des étudiants seront incluses dans le corpus. De même pour l'hebdomadaire pacifiste Peace News, dont l'évolution refléta la prise de conscience environnementale au cours des années 1960, et qui consacra ensuite de nombreux articles à la protection de l'écosystème après le tournant de 1970. Enfin, les organes de la contre-culture seront également inclus, dans la mesure où ce milieu influença fortement les nouveaux modes de vie alternatifs prônés par le mouvement écologiste. Le bimensuel The International Times était l'une des principales voix de la scène underground londonienne, mais afin de ne pas se cantonner à la capitale, le journal Muther Grumble, basé à Durham, permettra d'avoir un aperçu de la vision des cercles contre-culturels du Nord-Est de l'Angleterre. 2.5.1. Émergence : facteurs environnementaux internationaux et locaux 2.5.1.1. Impact de la Seconde Guerre mondiale et prise de conscience écologique La Seconde Guerre mondiale amorça une prise de conscience généralisée de l'impact désastreux des activités humaines sur l'environnement. Le conflit avait entraîné la destruction à grande échelle du paysage mais aussi la militarisation du territoire, avec la réquisition d'espaces ruraux par le gouvernement afin de créer des bases militaires, des camps d'entraînement ou des 443 2ème Partie - 5 : Mouvement écologiste usines d'armements 1345. D'éminents biologistes s'indignèrent de la menace que pouvaient représenter ces phénomènes pour le patrimoine naturel, et formèrent le Nature Reserves Investigation Committee, afin d'oeuvrer pour la création de réserves naturelles visant à sauvegarder la faune et la flore locales. L'organisation comptait notamment parmi ses membres le botaniste Arthur Tansley, qui avait développé le concept d' « écosystème » en 1935, ou encore Julian Huxley, frère de l'écrivain Aldous Huxley et célèbre pour ses travaux de zoologie évolutionniste. En 1943, ils proposèrent au gouvernement une liste de sites à préserver en priorité afin de conserver le patrimoine naturel national. Ces efforts aboutirent au National Parks and Access to the Countryside Act de 1949, créant dix parcs naturels en Angleterre et au pays de Galles 1346, mais aussi d'autres espaces protégés pour leur beauté ou leur intérêt scientifique particulier, gérés par l'organisme gouvernemental Nature Conservancy 1347. Cette loi s'insérait dans le contexte des politiques de planification économique du gouvernement Attlee et reflétait la nouvelle vision conservationniste de l'environnement, envisageant la défense de la nature en termes de gestion des ressources. Il s'agissait de donner la possibilité à la population d'accéder à ces espaces naturels, dans un contexte où le gouvernement se préoccupait de plus en plus du bien-être des citoyens et tentait d'améliorer concrètement leurs conditions de vie grâce aux réformes du Welfare State. Dans les années 1950 et 1960, la hausse généralisée du niveau de vie allait permettre aux travailleurs de profiter de leur temps libre pour s'échapper des villes et s'adonner à des activités de plein air1348. Le texte de loi de 1949 soulignait ainsi l'importance de l'aspect récréatif des parcs nationaux, justifiant qu'ils soient 1345 Peter COATES, Tim COLE, Marianna DUDLEY, et Chris PEARSON, « Defending Nation, Defending Nature? Militarized Landscapes and Military Environmentalism in Britain, France, and the United States », Environmental History, 16 , juillet 2011, p. 458. 1346 Bien que la création de cinq parcs nationaux en Écosse ait été préconisée par les rapports rédigés pendant la guerre, de telles institutions ne furent créées que bien plus tard, grâce au National Parks (Scotland) Act voté par le parlement d'Édimbourg en 2000. 1347 John SHEAIL, « Nature Reserves, National Parks, and Post-war Reconstruction, in Britain », Environmental Conservtaion, 11, printemps 1984, pp. 30-32. 1348 Rodney LOWE, The Welfare State in Britain Since 1945, Basingstoke : Palgrave Macmillan, 2005, pp. 245-6. 444 Claire Mansour, Diffusion et évolution des mouvements sociaux mis à la portée du plus grand nombre : « their natural beauty and the opportunities they afford for open air recreation, having regard both to their character and to their position in relation to centres of population »1349. Une logique similaire présida à l'adoption du Rivers (Prevention of Pollution) Act de 1951, afin de lutter contre la pollution des cours d'eau, en instaurant des sanctions pénales pour les rejets délibérés de substances délétères, qui furent renforcées en 1961 1350 . De plus en plus de voix s'élevaient pour dénoncer le déversement des égouts et des déchets industriels dans les cours d'eau 1351. Leur préservation était donc perçue comme nécessaire pour s'assurer que la population puisse profiter de leur cadre comme source de détente ou de divertissement. L'utilisation raisonnée et contrôlée des ressources naturelles devait garantir un accès équitable au patrimoine naturel national. 2.5.1.2. Prospérité : l'envers du décor La période de l'après-guerre fut marquée par une forte croissance économique ainsi que d'importants progrès scientifiques et innovations technologiques. À mesure que l'austérité laissait place à l'opulence, vers la fin des années 1950, le consumérisme effréné caractéristique de la nouvelle société d'abondance (affluent society) prit son essor1352. Dans le même temps, les limites de ces nouveaux modes de vie commençaient à poindre. Des catastrophes écologiques à l'origine clairement humaine témoignaient de l'impact désastreux des activités économiques non seulement sur la santé publique, mais aussi sur l'environnement. Pendant cinq jours au mois de décembre 1952, Londres fut plongée dans l'obscurité par un épais brouillard. Le smog, issu de la contraction de « smoke » et de « fog », était un phénomène courant dans les grandes villes 1349 « Friends of the Earth Newsletter », The Ecologist, février 1972, p. 27. Susan WOLF et Neil STANLEY, Wolf and Stanley on Environment Law, Oxford: Routledge, 2011, p. 129. 1351 « Dirty Rivers », The Times, 17 novembre 1950, p. 5. 1352 Dominic SANDBROOK, Never Had It So Good, op. cit., pp. 106-17. 1350 445 2ème Partie - 5 : Mouvement écologiste britanniques depuis la révolution industrielle, mais l'intensité et la durée prolongée de cet épisode en firent un évènement historique, bientôt baptisé « Great Smog of London ». Les fumées produites par les centrales électriques à charbon et les poêles des habitations se retrouvèrent prises au piège dans la ville, du fait d'un temps humide et froid, sans qu'aucun souffle de vent ne vienne les dissiper. Cette brume toxique causa un grand nombre d'infections des voies respiratoires, entraînant la mort de 4000 personnes selon les autorités de l'époque 1353. Ce bilan fut revu à la hausse a postériori par les spécialistes, estimant à 12 000 le nombre de décès directement liés au smog entre décembre 1952 et février 1953 1354. Mais la classe politique ne s'alarma pas pour autant. Il fallut les pressions de l'organisation réformiste National Smoke Abatement Society pour pousser le gouvernement à prendre des mesures réduisant concrètement la pollution de l'air. En 1956, l'entrée en vigueur du Clean Air Act, chargé de contrôler les émissions de fumées domestiques et industrielles, permit de réduire leur niveau de 75% en vingt ans 1355. Une autre conséquence tragique de la pollution industrielle fut le glissement de l'un des terrils de la mine de charbon d'Aberfan, au sud du pays de Galles, en octobre 1966. L'accumulation pendant des décennies de centaines de milliers de tonnes de déchets issus de l'exploitation minière, au sommet de la colline surplombant le village, entraîna la mort de 144 personnes, dont 116 enfants, lorsqu'une gigantesque coulée ensevelit une partie du village L'évènement fut immédiatement perçu comme une 1356 . catastrophe environnementale, causée par la négligence des industriels de la National Coal Board qui avaient refusé d'écouter les mises en garde des autorités locales. Un article du Times fustigeait la cupidité de la société d'abondance, au sein de laquelle 1353 « The ailing air », The Ecologist, septembre 1970, pp. 6-11. « Counting the cost of London's killer smog (air pollution) », Science, 13 décembre 2002, pp. 2106-7. 1355 David EVANS, A History of Nature Conservation in Britain, Londres : Routledge, 1997, p. 97. 1356 Patrick LAGADEC, « La catastrophe d'Aberfan : construire une catastrophe à force d'ignorer les signes avant-coureurs », Mémoire des accidents, Préventique, 134, mars-avril 2014, pp. 40-43. 1354 446 Claire Mansour, Diffusion et évolution des mouvements sociaux les considérations matérielles prenaient le pas sur la sécurité de la population et la protection de la nature : « These huge heaps of the detritus of industry, towering over villages and farmsteads, dehumanising the environment and even threatening human life, are grim symbols of the false values of an acquisitive culture » 1357. L'année suivante, le naufrage du pétrolier Torrey Canyon, se brisant sur des récifs entre la pointe des Cornouailles et les îles Scilly en mars 1967, provoqua une marée noire d'une ampleur sans précédent. Le navire contenait 120 000 tonnes de pétrole, qui se déversaient progressivement dans la mer. Afin de limiter l'impact sur le tourisme du littoral, le gouvernement Wilson prit la décision de bombarder l'épave afin d'enflammer le carburant restant, et de déverser de grandes quantités d'agents dispersants sur les nappes brunâtres flottant à la surface 1358. Les effets de ces produits chimiques furent encore plus néfastes pour la faune et la flore marines que la couche d'hydrocarbures 1359 . Cette nouvelle catastrophe écologique représentait un véritable traumatisme pour la population locale, à même de constater directement l'étendue des dégâts, mais aussi dans une certaine mesure pour le reste du pays, du fait des images choquantes diffusées par les médias, notamment d'oiseaux agonisant les ailes engluées par le pétrole. De nombreux bénévoles affluèrent de tout le territoire national pour venir prêter main forte aux Cornouaillais, nettoyant les plages et portant secours à la faune, notamment par le biais de la Royal Society for the Prevention of Cruelty to Animals. De nombreux enfants participèrent aux opérations de nettoyage, patrouillant le long de la côte et apportant les oiseaux mazoutés dans des centres de soins 1357 « The black tragedy of Aberfan », The Times, 4 août 1967, p. 9. « Race to keep tanker's oil clear of Cornish beaches », The Guardian, 20 mars 1967, p. 1. « Biggest sea spectacular since the war », The Guardian, 29 mars 1967, p. 1. 1359 « Can the seas survive? Long-term effects of pollution on marine life », The Ecologist, mars 1971, pp. 4-9. 1358 2ème Partie - 5 : Mouvement écologiste spécialisés 1360. Les beats et les hippies qui se réunissaient à Saint Ives, haut lieu de la contre-culture, joignirent également leurs forces à celles des volontaires 1361. Les intellectuels de la Nouvelle Gauche et les adeptes de la contre-culture n'avaient pas attendu les catastrophes écologiques pour critiquer les valeurs de la société de consommation. Déjà au tournant des années 1960, ils condamnaient les excès du système capitaliste, de l'obsession matérialiste, exprimant une profonde frustration à l'égard d'une société de plus en plus marchandisée 1362. En 1966, Ernst Friedrich Schumacher, économiste allemand conseiller à la National Coal Board, dénonçait la logique destructrice de la quête frénétique d'accroissement de la productivité : "Scientific progress," we are told, the proudest offspring of Industrial Society, must on no account be impeded or even controlled in any way whatsoever. It is assumed to be the indispensable means of raising productivity, the highest aim of a generation too greedy to be concerned with the ultimate ends of human existence or even with the preservation of this existence itself.1363 D'autres lanceurs d'alerte étrillaient la dilapidation des ressources naturelles inhérente au productivisme : « Growth, growth and more growth is all our leaders cry: produce, process, use and destroy », concluant que la civilisation des pays occidentaux était devenue une « culture de gaspillage égoïste » (« a culture of selfish waste »)1364. Selon eux, la seule solution envisageable était de transformer en profondeur les principes régissant les modes de production et de consommation pour les rendre respectueux de l'environnement, dépassant la vision anthropocentrée des relations entre l'homme et la nature. 1360 Mark WILSON, The British Environmental Movement: The Development of an Environmental Consciousness and Environmental Activism, 1945-1975, thèse de doctorat, Université de Northumbria, 2014, pp. 204-7. 1361 « St Ives: the new fuzz », The International Times, 15 août 1969, p. 4. 1362 « The New Left », Peace News, 29 janvier 1960, p. 2. « The Beat Generation – I », Peace News, 12 août 1960, p. 5. 1363 « Industrial Society », Resurgence, septembre-octobre 1966, pp. 12-16. 1364 « The ecological gap », Peace News, 20 juin 1969, pp. 2-3, 7. 447 448 Claire Mansour, Diffusion et évolution des mouvements sociaux 2.5.1.3. Une nouvelle vision biocentrée Les travaux de 1935 du botaniste Arthur Tansley avaient contribué à démontrer que les interactions entre les êtres vivants et leur milieu naturel formaient un ensemble dynamique. Le constat de ces relations d'interdépendance entre ces organismes et leur environnement conduisirent les scientifiques à développer une vision plus globale des problèmes écologiques, montrant que la moindre atteinte à un élément du milieu biologique pouvait déséquilibrer l'écosystème tout entier et donc avoir des répercussions sur les espèces vivantes qu'il abritait. La biologiste américaine Rachel Carson développa ce concept dans son ouvrage Silent Spring, dont le titre évoquait des campagnes privées du chant des oiseaux, paru en 1962 aux États-Unis et publié un an plus tard en Europe. Elle étudia notamment l'impact des herbicides et des insecticides comme le DDT (Dichloro-Diphényl-Trichloroéthane) épandus sur les terres agricoles pour en optimiser le rendement, mais aussi dans les forêts et les jardins pour se débarrasser des nuisibles. Elle mit en évidence la relation de cause à effet de ces produits chimiques sur tous les maillons de la chaîne alimentaire : des végétaux, aux insectes, aux oiseaux, jusqu'aux effets cancérigènes sur les humains 1365. Ces conclusions furent corroborées en 1963 par le zoologiste Julian Huxley, démontrant à son tour l'effet nocif des pesticides non pas seulement sur les oiseaux insectivores mais sur l'ensemble du vivant 1366. Ces travaux favorisèrent l'émergence d'une nouvelle vision des relations entre l'homme et la nature, selon laquelle cette dernière n'était plus seulement considérée comme une ressource nécessaire au bien-être humain, mais comme ayant au contraire une valeur intrinsèque, en tant que milieu indispensable à un ensemble d'espèces animales et végétales. Cette approche fut qualifiée de « biocentrée » (biocentric), par opposition 1365 1366 Rachel CARSON, Silent Spring, Greenwich (Connecticut) : Fawcett, 1962. Mark WILSON, op. cit., p. 154. 449 2ème Partie - 5 : Mouvement écologiste à une approche « anthropocentrée » (anthropocentric), puisqu'elle plaçait l'homme sur un pied d'égalité avec les autres êtres vivants 1367. Les photographies de la Terre vue depuis la Lune prises au cours des différentes missions américaines Appollo entraînèrent également un changement des perceptions de la place de l'homme au sein de son environnement terrestre et plus généralement de l'univers. Si la prouesse technique d'envoyer deux hommes marcher sur le sol lunaire le 20 juillet 1969 dans le cadre du programme Appollo 11 témoignait de la puissance de l'espèce humaine, elle révélait aussi paradoxalement sa vulnérabilité. Pris six mois plus tôt, le cliché « Earthrise », montrant un lever de Terre vue depuis l'orbite de la Lune, présentait un contraste saisissant entre le sol gris et stérile de la surface lunaire et les couleurs vives de la Terre, paraissant isolée et fragile dans l'immensité noire de l'espace (voir annexe 30). Lors de la mission Appollo 8 qui parvint à expédier pour la première fois des hommes en orbite autour de la Lune, les images capturées par le module spatial furent retransmises en direct à la télévision le 24 décembre 1968, sous les yeux de près d'un quart de la population mondiale. Il s'agissait alors de la plus forte audience jamais enregistrée dans l'histoire de la télévision 1368 . L'un des astronautes déclara : « The vast loneliness is awe-inspiring and it makes you realize just what you have back there on Earth » 1369. La vue de la planète depuis l'espace entraîna chez certains une prise de conscience du caractère unique et précieux de l'écosystème terrestre, considéré comme un tout dont l'homme devait absolument prendre soin. L'éditorial du numéro de lancement de la revue The Ecologist, paru en juillet 1970 – soit un an après la mission Appollo 11 – était accompagné d'une photographie de la Terre vue depuis la Lune, et insistait sur 1367 Ned HETTINGER, « Environmental ethics », dans Mark BEKOFF et Carron MEANEY (éds), Encyclopedia of Animal Rights and Welfare, Westport : Greenwood Press, 1998, p. 159. 1368 « Appollo 8 », Witness, 2016, BBC World Service [en ligne], [consulté le 23 mai 2018], disponible à l'adresse suivante : <https://www.bbc.co.uk/programmes/p04knm80>. 1369 « Earthrise », NASA, 24 décembre 1968, www.nasa.gov [en ligne], [consulté le 23 mai 2018], disponible à l'adresse suivante : <https://www.nasa.gov/multimedia/imagegallery/image_feature_1249.html>. 450 Claire Mansour, Diffusion et évolution des mouvements sociaux les conditions exceptionnelles ayant conduit à l'émergence de formes de vie complexes sur la planète (voir annexe 31) 1370. Les militants contre la pollution de l'air mirent à leur tour en avant l'impossibilité pour l'homme de survivre à l'extérieur de l'atmosphère respirable de la Terre : « A year ago a man walked on the moon. [] here man first stood outside his world and knew his oneness with a precious, living lump of rock set in a bleak infinity »1371. La protection de l'environnement devenait donc une question de survie, du fait de la dépendance de l'homme, à l'instar des autres espèces vivantes, vis-à-vis de son milieu naturel. 2.5.2. Influence des mouvements précédents 2.5.2.1. Le mouvement pour le désarmement nucléaire Le mouvement pour le désarmement nucléaire joua un rôle fondamental dans l'émergence du mouvement écologiste, contribuant à la prise de conscience de l'impact des activités humaines sur l'environnement, mais aussi de par sa dimension internationaliste qui permit la création d'un réseau transnational de militants et d'un répertoire de l'action collective traversant littéralement les frontières. Si les pacifistes protestaient initialement contre le principe des armes de destruction massive, ils en vinrent rapidement à dénoncer les effets délétères des essais nucléaires atmosphériques sur l'environnement. Certains scientifiques tentèrent d'alerter le public sur les conséquences graves des retombées radioactives après les tests américains de la bombe à hydrogène dans les îles Marshall de 1954. Dès 1956, des rapports destinés à la communauté internationale furent publiés, mettant en évidence la pollution radioactive atmosphérique 1372 . Les précipitations rabattaient ensuite ces substances à la surface de globe, s'infiltrant dans les sols, contaminant l'eau, les espèces animales 1370 « Editorial », The Ecologist, juillet 1970, p. 2. « The ailing air », The Ecologist, septembre 1970, pp. 6-11. 1372 « The effects of nuclear explosions », Peace News, 23 novembre 1956, p. 5. 1371 2ème Partie - 5 : Mouvement écologiste et végétales. L'homme était doublement exposé, à la fois directement par la présence des poussières radioactives, mais aussi indirectement par l'absorption d'eau ou de nourriture. L'isotope le plus dangereux, le strontium 90, possédait de fortes similarités chimiques avec le calcium. Il était assimilé par les plantes, puis par les vaches, et enfin par l'homme en bout de chaîne, notamment à travers la consommation de lait. Cette exposition augmentait fortement les risques de cancer, notamment de leucémie. L'irradiation pouvait causer des dommages génétiques irrémédiables et entraîner des malformations chez la descendance 1373. Les militants appelant à l'arrêt des essais nucléaires affirmaient que les autorités minoraient délibérément l'impact des retombées radioactives sur l'environnement et la santé publique, s'appuyant sur des travaux de scientifiques du monde entier. Ils insistaient également sur les effets à long terme des explosions dans la stratosphère, puisque la poussière radioactive pouvait mettre plus d'une dizaine d'années avant de toucher la surface du globe mais aussi car ces substances restaient nocives pendant plusieurs décennies 1374. L'annonce de la mort d'un sapeur et d'un officier de la marine de leucémies foudroyantes, moins d'un an après avoir assisté aux essais britanniques de l'île Christmas en novembre 1957, augmenta la défiance à l'égard des autorités qui niaient tout lien de causalité entre les deux évènements 1375. Les militants ne faisaient plus confiance à leurs dirigeants pour agir dans l'intérêt de la population. En plus de l'impératif moral qui les poussait à se mobiliser, un sentiment de catastrophe imminente transparaissait des slogans : « Bury the bomb not mankind » ou « Four-minute warning : just time to say cheerio! » en référence au temps très court dont les citoyens disposaient pour se mettre à l'abri en cas d'attaque nucléaire une fois l'alerte 1373 « Stop the H-Tests », Peace News, 22 février 1957, pp. 1, 6. « Leukaemia and Radiation », Peace News, 16 août 1957, p. 3. « Atomic Dust in Wales », Peace News, 19 septembre 1958, p. 8. « To see women MPs about H-test danger », Peace News, 12 décembre 1958, p. 8. 1374 « 'Something every town and village should do' », Peace News, 5 juillet 1957, p. 7. « Fallout », Peace News, 8 mai 1959, p. 4. 1375 « Did H-tests kill this sailor? », Peace News, 5 septembre 1958, p. 1. 451 452 Claire Mansour, Diffusion et évolution des mouvements sociaux donnée par les autorités 1376. Ce type de discours alarmiste serait repris par la suite par les écologistes soucieux d'attirer l'attention des pouvoirs publics et de la population sur l'urgence des problèmes environnementaux. La conviction des pacifistes que la culture dominante, et, plus généralement la société, devaient être transformées en profondeur afin de parvenir au désarmement nucléaire, mais aussi à un état de paix durable, fut aussi transposée au cadre de pronostic du mouvement écologiste. Lors de sa création en 1966, le magazine écologiste Resurgence revendiquait dans son premier éditorial l'influence directe de la CND et du C100, et entendait changer radicalement la culture et la structure de la société : Men will not come to reject our war societies until they have some coherent alternative to which they can turn. We think this alternative, based on love, non-violence, personal dedication and the power of the individual to make his own decisions, is today the only alternative to the monstrous biological anticlimax towards which human society is clearly moving. 1377 De nombreux groupes écologistes reconnurent l'influence fondamentale du mouvement pour le désarmement nucléaire sur leurs pratiques contestataires, à l'instar de Commitment, qui s'inspirait directement du C100 pour organiser des sit-ins bloquant le trafic afin de protester contre la pollution, ou encore du Save Stansted Group, pour lequel la filiation était en ligne directe, et qui s'opposait au projet de construction d'un troisième aéroport londonien par le biais de tactiques d'action directe 1378 . L'organisation Greenpeace incarnait parfaitement la fusion entre pacifisme et écologie, comme en témoignait à la fois son nom et son logo originel composé pour moitié d'un symbole représentant la planète Terre, et de l'emblème pacifiste hérité de la CND (voir annexe 32). L'évènement fondateur de 1376 « This was Easter 1961», Peace News, 7 avril 1961, p. 5. « The marchers », Peace News, 27 avril 1962, p. 5. « Statement of intent », Resurgence, mai-juin1966, pp. 2-3. 1378 « New group to fight the Stansted bulldozer », Peace News, 22 septembre 1967, p. 1. « Come Together », Muther Grumble, décembre 1973, p. 9. 1377 2ème Partie - 5 : Mouvement écologiste l'association canadienne 1379 fut le voyage d'un ancien chalutier, rebaptisé le Greenpeace, après son rachat par des militants afin de se rendre dans les eaux de l'île d'Amchitka, en Alaska, pour protester contre des essais nucléaires souterrains américains en novembre 1971 1380 . Ses membres précurseurs se réclamaient de l'héritage du DAC, dont les actions avaient donné naissance au mouvement pour le désarmement nucléaire britannique. La tactique de naviguer jusque dans les zones d'essais nucléaires avait été utilisée pour la première fois en 1957, par Harold et Sheila Steele, dans l'espoir d'empêcher les tests britanniques de l'île Christmas. Les militants canadiens mettaient en avant l'adoption de cette technique et se plaçaient dans la même mouvance pacifiste transnationale 1381 . Cette action eut pour effet immédiat de revigorer la CND, alors au plus bas de sa popularité, si l'on se fiait au nombre d'adhérents, tombé à 2047 en 1971 1382. Elle organisa immédiatement un rassemblement en opposition aux essais nucléaires d'Amchitka, devant l'ambassade américaine à Londres, à la fin du mois d'octobre 1971. Les slogans de ses membres reflétaient la nouvelle conscience écologique : « Is Alaska expendable? » ou encore « Nuclear pollution lasts 1,000 years ». Dans la foulée, la CND prit la décision de renouer avec les grandes marches de Pâques lors de sa conférence annuelle, mais en partant de Londres vers Aldermaston, comme à ses débuts en 1958 1383 . Le collectif Greenpeace de Londres adopta également les tactiques de la CND, lançant une grande marche de Londres à Paris, au printemps 1973, en opposition aux tests des bombes françaises à l'atoll 1379 Greenpeace était à l'origine une organisation basée à Vancouver, fondée en 1971, et qui devint par la suite un organisme international. Un groupe d'écologistes radicaux de Londres utilisa également le nom et le logo, sans pour autant être affilié à l'organisation canadienne. En 1977, une branche officielle de cette dernière fut créée au Royaume-Uni, ce qui n'empêcha pas les militants londoniens qui ne souhaitaient pas rejoindre cette grande structure de continuer à utiliser cette appellation. Brian DOHERTY, Matthew PATERSON, et Benjamin SEEL, « Direct Action in British Environmentalism », dans Brian DOHERTY, Matthew PATERSON, et Benjamin SEEL (éds), Direct Action in British Environmentalism, Londres : Routledge, 2000, p. 5. 1380 « The good ship "Greenpeace" and the Amchitka test », Peace News, 13 août 1971, p. 5. 1381 « Greenpeace message: 'This world is our place' », Peace News, 8 octobre 1971, p. 1. 1382 Adam LENT, op. cit., p. 124. 1383 « The Amchitka test », Peace News, 5 novembre 1971, p. 7. « CND returning to Aldermaston », Peace News, 5 novembre 1971, p. 7. 453 454 Claire Mansour, Diffusion et évolution des mouvements sociaux de Mururoa, en Polynésie, comme l'avaient fait un groupe de participants à la grande marche de Pâques en 1960. L'évènement se voulait international, les militants arrivèrent sur le continent européen par la Belgique, où ils furent rejoints par d'autres protestataires d'une dizaine de nationalités différentes 1384 . L'organisation canadienne Greenpeace envoya à nouveau son navire dans la zone d'essais nucléaires, mais il fut cette fois accompagné par une véritable flottille pacifiste, composée d'embarcations ayant pour la plupart des équipages de nationalités diverses. Cette innovation renforçait la dimension transnationale de l'action, soulignant l'étendue de l'impact des retombées radioactives et des risques liés aux expérimentations avec les armes de destruction massive, qui dépassaient de loin le simple cadre national 1385. Dans les années 1970, les militants se tournèrent vers le nucléaire civil. Jusqu'alors, la mobilisation anti-nucléaire avait adopté une posture pacifiste, et s'était concentrée sur l'utilisation militaire du nucléaire, sans aborder le sujet des centrales électriques alimentées par cette source d'énergie. La première installation de ce type datait pourtant de 1956. Elle se trouvait à Windscale, au nord-ouest de l'Angleterre. Un an seulement après sa mise en service, un incendie avait endommagé gravement un réacteur, contaminant la zone environnante. Le bâtiment fut scellé puis condamné. L'incident fut étouffé par les autorités, et le lait produit dans un rayon de 300 kilomètres carrés autour du site fut jeté dans la mer d'Irlande 1386. La mobilisation contre le nucléaire civil apparut au début des années 1970, en opposition à la pollution à très long terme engendrée par les déchets radioactifs produits par ce type de centrales. « If we continue to use nuclear power, we can expect the landscape to be littered with highly dangerous cathedral-sized hulks » déclaraient ainsi les militants des premiers groupes écologistes anti-nucléaires 1387. 1384 « On from Aldermaston», Peace News, 22 avril 1960, p. 1. « Greenpeace expects! », Peace News, 1 juin 1973, p. 8. « Greenpeace in Paris: Turn up, chain-in, sit down! », Peace News, 8 juin 1973, p. 10. 1385 « Peace armada », Peace News, 8 juin 1973, p. 10. « C'est la mort! », Peace News, 13 juillet 1973, p. 1. 1386 Ian G. SIMMONS, op. cit., p. 312. 1387 « Fessenheim – Easter Monday », The Ecologist, juin 1971, p. 26-28. 2ème Partie - 5 : Mouvement écologiste L'articulation du lien entre le nucléaire militaire et civil n'interviendrait qu'un peu plus tard dans la décennie, comme cela sera démontré un peu plus loin. 2.5.2.2. Le mouvement contre la guerre du Vietnam La guerre du Vietnam contribua à la prise de conscience de l'impact écologique des activités humaines sur l'environnement naturel, représentant une illustration concrète des ravages provoqués par les produits chimiques défoliants. Depuis 1961, les Américains menaient une opération de contre-insurrection connue sous le nom d'opération Hadès (Operation Hades). Celle-ci avait pour but de gagner une guerre d'usure contre les insurgés vietnamiens, en détruisant délibérément leur environnement : l'épaisse végétation leur servant de couverture, mais aussi les rizières et autres cultures, comme le caoutchouc, leur procurant de la nourriture ou des revenus 1388. L'étendue des ravages fut bientôt dévoilée dans les médias. Des millions de litres d'herbicides furent épandus massivement sur les régions du Sud-Vietnam abritant les rebelles, touchant une superficie équivalente à celle du Massachusetts, soit près de 30 000 kilomètres carrés 1389. L'agent orange (Agent Orange) se révéla être terriblement nocif pour l'ensemble de l'écosystème, détruisant les plantes, empoisonnant les espèces animales vivant en milieu forestier, et provoquant de nombreuses pathologies chez les humains, telles que le cancer ou de graves malformations congénitales. Les opposants à la guerre protestèrent également contre cet aspect du conflit, dénonçant les herbicides comme des armes chimiques, interdites par le Protocole de Genève de 1925 1390. En février 1970, lors d'une conférence à Washington intitulée « War Crimes and the American Conscience », le botaniste américain Arthur Galston qualifia d' « écocide » 1388 « Defoliation, Dow and Vietnam », Peace News, 15 août 1969, p. 1, 5. David ZIERLER, The Invention of Ecocide: Agent Orange, Vietnam, and the Scientists Who Changed the Way We Think about the Environment, Athens (Géorgie) : Georgia University Press, 2011, p. 16. 1390 « War is pollution », Peace News, 21 novembre 1969, p. 4. « Down to Earth », The Ecologist, août 1970, p. 36. 1389 455 456 Claire Mansour, Diffusion et évolution des mouvements sociaux (« ecocide ») les actions du gouvernement américain au Sud-Vietnam – un concept qu'il définissait comme la destruction intentionnelle d'un écosystème 1391. Cette notion de crime contre la nature fut bientôt adoptée par les écologistes britanniques, qui l'appliquèrent aux dégâts environnementaux causés par l'utilisation courante de ces mêmes pesticides, par les jardiniers amateurs comme par le secteur agricole : « The threats posed by food adulteration, poisonous chemicals of agriculture and commerce, [] may in fact guarantee ecocide » 1392 . En ce sens, les dévastations engendrées par le conflit vietnamien permirent à la population de se rendre compte des méfaits des produits phytosanitaires, même à des doses beaucoup plus faibles. Le cadre anti-impérialiste popularisé par le mouvement contre la guerre du Vietnam fut également adapté aux revendications de différents groupes écologistes radicaux. Les militants contre la pollution de l'air, prônant l'utilisation de vélos, dénonçaient par exemple la mainmise des voitures sur les villes en termes d' « impérialisme automobile » (« automobile imperialism ») 1393 . Ils s'offusquaient du peu de considération accordé aux types de transports nonpolluants, quand toute l'organisation urbaine était pensée pour favoriser les déplacements en véhicules motorisés individuels. En tant que cyclistes forcés à rouler au milieu des voitures, ils se sentaient « opprimés », qualifiant leur condition de « festering oppression » 1394. La transposition des tactiques de guérilla, utilisées entre autres par les rebelles vietnamiens, donna naissance à l' « écoguérilla » (« eco-guerrilla »). Ses partisans considéraient qu'ils étaient en guerre contre les ennemis de l'environnement, qu'il s'agisse de grandes entreprises ou des pouvoirs publics, et que cela légitimait l'utilisation de tactiques illégales. Le courant fut lancé par des groupuscules américains, au tournant des années 1970. Les actions coups-de-poing du justicier masqué connu sous le pseudonyme de 1391 David ZIERLER, op. cit., p. 15. « Ecocide », Peace News, 26 novembre 1971, p. 3. 1393 « High Wycombe bike-in », Peace News, 14 juillet 1972, p. 7. 1394 « Transport Action », Peace News, 30 juin 1972, p. 7. 1392 2ème Partie - 5 : Mouvement écologiste « The Fox », dans la région de Kane County (Illinois), défrayèrent notamment la chronique. Il n'hésitait pas à prendre des risques pour empêcher le secteur industriel de polluer la nature, grimpant au sommet des cheminées d'usines ou s'introduisant dans les canalisations rejetant des eaux usées pour les sceller 1395. Ses exploits firent des émules, inspirant par exemple le groupe « Eco-Commando Force 70 » en Floride, préoccupé par la dégradation de la qualité des eaux des canaux et des plages de Miami, dans lesquelles les égouts de la ville étaient déversés 1396 . Au Royaume-Uni, les membres du groupe londonien Greenpeace employèrent des techniques similaires, comme par exemple le « guerrilla treeplanting », qui consistait à planter des arbres sans permission sur des terrains publics ou privés, luttant ainsi contre leur disparition du milieu urbain 1397. Les défenseurs des droits des animaux firent également appel à ces pratiques contestataires. La Hunt Saboteurs Association (HSA) fut créée en 1962. Ses membres eurent très tôt recours à l'action directe non-violente pour sauver des vies animales, notamment dans le contexte des parties de chasse. Leur but était de semer la confusion en perturbant le travail des chiens, afin de permettre à leurs proies de s'échapper 1398. Le transfert du cadre anti-impérialiste à la cause animale justifia par la suite l'emploi de techniques de guérilla, puisqu'il s'agissait désormais de libérer les animaux de leurs oppresseurs humains. Le groupe Band of Mercy fut formé en 1972 par des dissidents de la HSA désirant passer à des méthodes plus radicales : « to use non-violent guerrilla methods to liberate animals from all forms of cruelty »1399. Le caractère non-violent était toutefois à nuancer, car si les militants évitaient de porter directement atteinte à l'intégrité physique des chasseurs, ils se livraient néanmoins au sabotage de leurs véhicules, ce qui représentait une dégradation du bien d'autrui. En 1976, le Band of Mercy fut 1395 « The Fox and the pollution war », Peace News, 28 mai 1971, p. 4. Ibid. 1397 « Greenpeace », Resurgence, juillet-août 1972, p. 33. 1398 « Sabotage ! Hunt Saboteurs Association », The Warwick Boar, 31 janvier 1979, p. 6. 1399 « Animal Liberation Front », Peace News, 19 octobre 1973, p. 7. 1396 457 458 Claire Mansour, Diffusion et évolution des mouvements sociaux rebaptisé Animal Liberation Front (ALF), renforçant explicitement l'analogie avec le NLF vietnamien. Le groupe était structuré en petites cellules secrètes, dont les activités défiaient de plus en plus la loi, organisant des raids pour secourir les animaux des centres de recherche ou des complexes d'élevages intensifs. Ils cherchèrent également à occasionner des pertes financières chez les entreprises pratiquant l'expérimentation animale par le biais de destructions matérielles pour les détourner temporairement de leurs activités habituelles 1400. 2.5.2.3. Le mouvement étudiant De par ses dimensions à la fois contre-culturelles et politiques, le mouvement écologiste bénéficia d'un fort soutien parmi les étudiants. Leurs réseaux organisationnels et leurs journaux contribuaient à la diffusion des idées environnementalistes, tandis qu'ils participaient en nombre aux actions locales et nationales. En 1970, dans le cadre de l'année européenne de la conservation de la nature, la NUS mit sur pied un groupe de travail, qui produisit trois rapports sur le traitement des déchets, la gestion des terres agricoles et des forêts, ainsi que les relations entretenues par les entreprises avec leur environnement. Ses membres exposèrent leurs conclusions lors d'une conférence nationale en octobre 1970, organisée par l'instance gouvernementale Nature Conservancy. Afin d'encourager leurs travaux, la NUS fut dotée de financements qui lui permit d'ouvrir une section dédiée spécifiquement à la conservation de l'environnement 1401. De plus en plus d'établissements d'enseignement supérieur proposaient des formations dans le domaine de la protection de la nature, et incluaient dans leurs cursus des thématiques touchant aux problèmes écologiques. Une école de mode de Londres, la London College of Fashion and Clothing Technology, offrait par exemple un cours intitulé « Man and Environment », évoquant à la fois les conséquences des 1400 1401 « What sort of action? », Resurgence, septembre-octobre 1977, p. 21. « Student Action », The Ecologist, mars 1971, p. 26. 459 2ème Partie - 5 : Mouvement écologiste activités humaines, et plus particulièrement de l'industrie de la mode, sur l'écosystème, mais aussi les solutions concrètes pouvant être mises en place afin d'en atténuer les effets néfastes 1402 . Ce dernier point constituait d'ailleurs une demande fréquente des collectifs étudiants désireux de s'impliquer dans la défense de l'environnement : « Very few courses however provide the opportunity for students to actually do something about the problems instead of just learning about them. It is too often left to the students themselves to organise their own activities outside the course »1403. Au début de la décennie, une multitude de sociétés étudiantes furent formées dans ce but. À l'université de Cambridge, le Ecology Action Group ne se bornait pas à l'organisation de débats et de conférences. Ses membres se rendaient sur le terrain pour évaluer la pollution liée au trafic routier et suggéraient des initiatives pour la réduire. En seulement deux trimestres, ils avaient effectué un total de 1500 heures de travail bénévole 1404 . Quant aux étudiants de l'université d'Aberystwyth, ils surveillaient l'écosystème de la vallée de la Taff, à travers le Taff Project Group, examinant les besoins de conservation de la nature et agissant en fonction. Ils mirent par exemple en place des sentiers de randonnée afin de sensibiliser les marcheurs à la protection de la faune et de la flore 1405. Ces actions locales réussirent parfois à forcer les pouvoirs publics à sortir de l'inaction, comme lorsque les étudiants du Farnborough Technical College, dans le Hampshire, obtinrent le dragage du canal de Cove Brook, dont les eaux étaient souillées, en 1970 1406. Les liens entre les milieux étudiants et contre-culturels favorisèrent chez certains un rejet des excès de la société industrielle, souhaitant adopter de nouveaux modes de vie en harmonie avec la nature. De nombreux articles dans la presse alternative et étudiante incitaient leurs lecteurs à changer leurs habitudes 1402 « Student Action », The Ecologist, mai 1971, p. 31. Ibid. 1404 « Student Action », The Ecologist, janvier 1971, p. 15. 1405 « Student Action », The Ecologist, février 1971, p. 25. 1406 « Student Action », The Ecologist, janvier 1971, p. 15. 1403 460 Claire Mansour, Diffusion et évolution des mouvements sociaux de consommation, rejetant les produits industriels au profit d'aliments complets, élaborés sans produits chimiques, ou encore en prônant le végétarisme 1407. De nombreuses initiatives inspirées du Whole Earth Catalog, un magazine contreculturel écologiste américain, pionnier du « Do-It-Yourself », amenèrent les étudiants à créer leurs propres alternatives, en marge du système consumériste 1408 . À l'automne 1972, les étudiants de l'université de Keele lancèrent leur propre bibliothèque sur le campus, fonctionnant selon un principe de don d'ouvrages et de publications. Le but était à la fois de contribuer à la diffusion des idées radicales en proposant des textes politiques, contre-culturels ou scientifiques qui n'auraient pas leur place dans les rayons de la bibliothèque de l'université, mais aussi de favoriser le partage et d'éviter le gaspillage de papier en permettant à ces exemplaires d'être lus par le plus grand nombre. Ce lieu avait également vocation à mettre en contact des militants désirant mettre leurs idéaux en pratique 1409. Une des organisations écologistes les plus influentes de la décennie, Friends of the Earth (FoE), avait entrepris de confier la direction de sa branche britannique à des leaders du mouvement étudiant. À l'origine, FoE avait été fondée en 1969 par un écologiste américain chevronné, David Brower, frustré par la modération des associations existantes. Au cours d'un voyage en Europe, il forma de nouvelles branches dans plusieurs pays. Il chargea Brice Lalonde, ancien président de la branche de la Sorbonne de l'Union nationale des étudiants de France pendant les évènements de 1968, de prendre la tête de la branche française, sous le nom « Les Amis de la Terre », tandis que Graham Searle, viceprésident de la NUS en 1969, s'occuperait de celle du Royaume-Uni 1410 . Ces choix faisaient partie de la stratégie de Brower de cibler plus particulièrement les 1407 « Internal Pollution crisis », The International Times, 8 mai 1970, p. 23. « Food kills », Muther Grumble, avril 1972, p. 17. « Cram yer guts this winter », Muther Grumble, décembre 1972, p. 18. 1408 « Whole Earth Catalogue », Muther Grumble, avril 1972, p. 15. 1409 « Whole Earth Library and Switchboard », Peace News, 20 octobre 1972, p. 5. 1410 « Friends of the Earth: Newsletter », The Ecologist, décembre 1971, p. 33. 2ème Partie - 5 : Mouvement écologiste étudiants comme recrues potentielles, voyant dans cette nouvelle génération militante le moyen de faire avancer la cause environnementale. De nombreux documents produits par FoE s'adressaient directement aux étudiants, comme de faux examens posant des questions concrètes sur l'impact écologique des activités de leur université : « 1. Does your University contribute to the pollution problem by discharging untreated waste into local waterways or by disposing of chemicals (liquid or gaseous) in such a way as to constitute a danger to the environment? »1411. Ainsi, les étudiants furent à la fois les cibles des campagnes de sensibilisation à la protection de la nature, mais aussi les acteurs de sa mise en oeuvre. 2.5.2.4. Le mouvement ouvrier Si l'écologie était déjà à l'époque considérée plutôt comme une préoccupation de la classe moyenne, cela ne signifiait pas pour autant qu'elle ne mobilisât pas la classe ouvrière 1412. Cette dernière était généralement plus exposée à la pollution, les quartiers ouvriers étant souvent situés à proximité des sites industriels. Avec l'émergence du mouvement écologiste, la gauche radicale se mit à reformuler les discours environnementalistes en termes de lutte des classes, accusant les entreprises polluantes de compromettre la santé de leurs employés comme du voisinage de l'usine. Aux yeux des militants, la dégradation de l'environnement était inhérente au système capitaliste, le patronat étant obnubilé par la maximisation de ses profits, la prise en charge des dégâts écologiques retombait sur le reste de la population : « So Britain is littered with examples of where non-socialised industry has passed its costs to the community in the form of slag heaps, smog and polluted waters »1413. Le combat des ménagères d'un quartier populaire de Swansea contre l'entreprise américaine United Carbon Black, produisant du noir de carbone pour les pneus des voitures, illustrait parfaitement leur théorie. Des cheminées de 1411 « University of the Air Earth Fire and Water », Peace News, 19 mars 1971, p. 7. « Ecology IS politics », Resurgence, juillet-août 1972, pp. 10-28. 1413 « Capitalism smells », The Black Dwarf, 7 juillet 1970, p. 12. 1412 461 462 Claire Mansour, Diffusion et évolution des mouvements sociaux l'usine s'élevaient des fumées noires, chargées de particules de suie, souillant les habitations du quartier et en particulier le linge étendu à l'air libre. Lassées de l'inaction des autorités locales, un groupe de résidentes décida de prendre la situation en main. Au mois de février 1971, elles mirent en place des piquets bloquant l'accès de l'usine à tous les véhicules de jour comme de nuit. Les salariés de la firme durent être escortés par la police pour pouvoir aller travailler. L'une des protestataires expliquait comment la présence de l'usine avait bouleversé la vie des habitants du voisinage : I remember picking water lilies, wild irises, bullrushes, and blackberries from the banks of the canal. As children we swam there. There were swans and we held fishing competitions. Now we have to wash our windows every day, spend at least 15/- a week on a family wash at the launderette and dare not put a baby in its pram in the garden. 1414 Au bout de trois semaines, la direction fut contrainte de céder, promettant d'engager des travaux à hauteur de 200 000 livres afin de réduire les émissions insalubres. Dans ce cas précis, la main d'oeuvre de l'usine n'était pas syndiquée, et, lorsque la direction tenta de faire du chantage à l'emploi, la communauté ouvrière fit bloc derrière les ménagères 1415. Cependant, l'attitude ambivalente du mouvement ouvrier, et plus particulièrement des syndicats, fut fréquemment dénoncée par les écologistes, les accusant d'accorder la priorité aux considérations pécuniaires et de faire le jeu du patronat1416. Au milieu des années 1960, un projet de construction de lac artificiel avait ainsi opposé les défenseurs de la nature aux industriels et aux syndicats. Pour satisfaire ses besoins en eau, la direction de l'usine de l'entreprise Imperial Chemical Industries, spécialisée dans la production d'ammoniac, entreprit de faire construire un réservoir à Cow Green, au nord de la chaîne des Pennines. Ce site abritait des espèces végétales uniques dans les îles britanniques, que les botanistes 1414 « Carbon Black », Solidarity, 26 juin 1971, pp. 3-7. « Swansea housewives back at the blockades », Peace News, 2 février 1973, p. 7. 1416 « Ecology IS politics », Resurgence, juillet-août 1972, pp. 10-28. 1415 2ème Partie - 5 : Mouvement écologiste entendaient préserver. La campagne pour sauvegarder la flore de Cow Green obtint le soutien de scientifiques de renom, mais cela ne suffit pas à contrebalancer le front commun des syndicats et des élus travaillistes qui appuyaient les demandes du fournisseur de produits chimiques 1417 . Lors des débats sur le projet au parlement, en juillet 1966, un député travailliste de la région expliquait que les considérations sociales devaient primer : « [] it is important to stress the point that in my region we cannot evaluate beauty and the scientific interests of flora until we have the social conditions for all those who live there to enjoy it » 1418. Selon cette vision, les revendications écologistes étaient présentées comme contraires aux intérêts de la population, dont le bien-être matériel devait l'emporter. La construction du barrage fut finalement terminée en 1971, alors qu'il avait été démontré que le réservoir ne suffirait à pourvoir les besoins en eau de l'industrie que pour une durée de six ans. L'épisode devint le symbole de la primauté des intérêts à court terme du secteur industriel sur la sauvegarde des écosystèmes 1419. Avec l'essor du mouvement écologiste, les syndicats devinrent de plus en plus réceptifs à la cause environnementale. Le mouvement ouvrier dans son ensemble, avait déjà largement élargi le champ de ses revendications. En ce sens, l'inclusion de ces nouvelles demandes s'inscrivait dans la même tendance. En juillet 1973, le TUC appela au boycott des produits français pendant une semaine lors des essais atomiques de Mururoa. La mobilisation fut particulièrement suivie chez les dockers, qui refusèrent de décharger les cargaisons des navires français. Les employés des aéroports, des entreprises de métallurgie, d'imprimeries ou bien encore les salariés des services postaux furent également nombreux à participer 1417 « Battle of Cow Green: Is it a botanists' scare or a short-sighted stop-gap?», The Observer, 6 novembre 1966, p. 5. 1418 « Tees Valley and Cleveland Water Bill », §1998, Hansard, débat à la Chambre des Communes, 28 juillet 1966, vol. 732 cc1979-2033 [en ligne], [consulté le 28 mai 2018], disponible à l'adresse <https://api.parliament.uk/historic-hansard/commons/1966/jul/28/tees-valley-and-cleveland-waterbill-by>. 1419 « Teesdale teaser », The Ecologist, septembre 1971, p. 35. 463 464 Claire Mansour, Diffusion et évolution des mouvements sociaux au blocus 1420. Au cours de la décennie, une nouvelle modalité d'action incarnant la convergence entre les luttes écologistes et ouvrières fit son apparition. La tactique de la « green ban » était une adaptation des boycotts ouvriers traditionnels, généralement désignés par l'expression « black ban », dans les cas où les salariés refusaient d'effectuer un certain type de travail en signe de protestation. La green ban était une innovation d'un syndicat australien, le Builders Labourers Federation, mise en place pour la première fois par les employés d'une entreprise du secteur du bâtiment de Sydney. En 1971, ces derniers avaient refusé de détruire le dernier écrin de verdure encore intact d'un quartier de la ville. Au nom de la primauté de l'intérêt général, le syndicat australien incita ses adhérents à rejeter d'autres projets, s'engageant dans la conservation du patrimoine naturel et architectural 1421 . Au Royaume-Uni, la tactique fut adoptée par le principal syndicat du secteur du bâtiment, Union of Construction Allied Trades and Technicians, revendiquant l'influence de leurs homologues australiens. En février 1976, les employés d'une entreprise de Birmingham s'opposèrent aux travaux dont ils avaient la charge. Ils avaient été mandatés pour détruire l'édifice victorien de l'ancien bureau de poste afin de le remplacer par un gratte-ciel 1422 . Cette démarche des travailleurs, veillant à l'utilité sociale et au respect de l'environnement dans leurs activités, avait également entraîné la création de contre-projets industriels. En janvier 1976, les délégués d'atelier des différentes usines de l'entreprise aéronautique Lucas Aerospace émirent un ensemble de propositions concrètes destinées à la fois à sauver leurs emplois, mais aussi à réorienter la production afin d'élaborer des appareils utiles à la collectivité. Ils placèrent les considérations écologiques au coeur de leur contre-plan, en envisageant notamment de nouveaux types de transport en commun, des technologies permettant de réduire les 1420 « Union actions against the tests », Peace News, 6 juillet 1973, p. 8. « Tests to begin », Peace News, 13 juillet 1973, p. 4. 1421 « Non violent resistance Australian style », The Ecologist, décembre 1975, p. 386. 1422 « Green ban in Brum? », Peace News, 6 février 1976, p. 4. 2ème Partie - 5 : Mouvement écologiste émissions atmosphériques ou la consommation d'énergie, ou encore en évitant le gaspillage lors du processus de fabrication. Ce faisant, ils remettaient fondamentalement en question la logique de rentabilité présidant à la gestion des entreprises traditionnelles : « We believe that scientists, engineers and workers in those industries have a profound responsibility to challenge the underlying assumptions of large-scale industry; seek to assert their right to use their skill and ability in the interest of the community at large » 1423 . Un seul des 150 produits présentés fut finalement retenu par la direction, un prototype de pompe à chaleur dont la fabrication fut lancée à l'usine de Burnley. Si les dirigeants de Lucas Aerospace refusèrent la reconversion suggérée par leurs salariés, l'épisode fut néanmoins très médiatisé, et le contre-plan devint une source d'inspiration pour les délégués d'atelier d'autres entreprises, notamment dans le secteur de la métallurgie 1424. 2.5.2.5. Le mouvement pour l'égalité raciale La contribution du mouvement pour l'égalité raciale au mouvement écologiste fut principalement théorique. L'idéologie antiraciste influença fortement les discours des défenseurs des droits des animaux. Déjà au XIXe siècle, les partisans de la cause animale avaient adapté les idées du mouvement pour l'abolition de l'esclavage. L'ouvrage de 1859 du célèbre biologiste Charles Darwin, On the Origins of Species, avait démontré que tous les êtres vivants descendaient d'un ancêtre commun – plaçant du même coup l'homme sur un pied d'égalité avec les autres espèces animales. Ces liens biologiques justifiaient selon lui l'empathie à leur égard : « our fellow brethren in pain, disease, death, suffering, and famine – our slaves in the most laborious works, our companions in our amusements – they may partake of our origin in one common ancestor – we may be all melted together » 1425. Si 1423 « We'll all go together when we go », Socialist Challenge, 15 décembre 1977, p. 6. « Lucas Aerospace », Resurgence, juillet-août 1978, p. 2. 1425 Hilda KEAN, Animal Rights: Political and Social Change in Britain since 1800, Londres : Reaktion Books, 1998, pp. 70-1. 1424 465 466 Claire Mansour, Diffusion et évolution des mouvements sociaux l'homme était un animal comme un autre, l'asservissement de ses congénères pouvait donc être considéré tout aussi moralement répréhensible que celui des êtres humains. Ainsi, les militants opposés à l'élevage industriel le comparèrent à la traite des noirs. Suite à la parution en 1964 du livre Animal Machines : The New Factory Machines Industry de Ruth Harrison, décrivant les mauvais traitements subis par les animaux maintenus en batterie, et plus généralement dans le cadre de l'élevage intensif, une campagne pour la défense du bien-être animal fut lancée. Le gouvernement fut forcé de mandater une commission d'enquête, présidée par le zoologue et professeur Roger Brambell, afin d'établir un rapport sur le sujet. Ce dernier dressa un bilan similaire à celui de Ruth Harrison, suggérant des lignes directrices visant à alléger les souffrances animales. Les cages des animaux devaient par exemple être de taille suffisante pour leur accorder un minimum de liberté de mouvement : « An animal should at least have sufficient room to be able without difficulty to turn around, groom itself, get up, lie down, stretch its limbs »1426. La loi de 1968, Agriculture (Miscellaneous Provisions) Act, avait vocation à améliorer les conditions d'élevage en interdisant les pratiques infligeant des souffrances inutiles aux animaux (« unnecessary pain or unnecessary distress ») 1427. Elle fut accompagnée d'un code des bonnes pratiques, inspiré du rapport Brambell, suggérant aux agriculteurs des mesures concrètes à mettre en place, sans pour autant imposer de contrainte. Les militants dénoncèrent ce cadre légal trop vague, autorisant tacitement les pratiques les plus barbares. Ils regrettaient que le principe même de l'élevage en batterie ne soit pas aboli, et comparaient les arguments des partisans de l'agriculture intensive à ceux des esclavagistes. Adoptant une posture avant tout morale, ils leur reprochaient de « défendre l'indéfendable » (« defending the indefensible »), et de se focaliser sur l'espace vital accordé aux animaux dans les cages sans remettre en question leur séquestration, comme les défenseurs de la traite des noirs l'avaient fait avant eux : « the same cavilling over how much space to allow 1426 1427 « Factory farming and the new codes », Peace News, 18 juillet 1969, pp. 3, 7. Ibid. 2ème Partie - 5 : Mouvement écologiste for the perpetration of cruelty. Slave ships were deemed acceptable if they allowed sufficient room for a black to lie down and turn around in his hold » 1428. Les parallèles furent encore accentués avec le transfert des cadres de l'idéologie antiraciste. En 1970, le psychologue Richard Ryder forgea le terme de « spécisme » (« specieism »), par analogie avec le racisme, qui établissait une hiérarchie entre les hommes en se basant sur des critères liés à l'apparence physique. Le spécisme partait du postulat de la supériorité de l'espèce humaine, et accordait aux autres espèces du vivant une importance variable. Ce type de discrimination reposait sur un ensemble de préjugés, justifiant les différences de traitement et le degré d'empathie réservés aux animaux de compagnie, d'élevage, sauvages, ou encore à ceux considérés comme « nuisibles » 1429. En 1975, le philosophe australien Peter Singer développa ce concept dans son ouvrage Animal Liberation, dans lequel il fustigeait la domination humaine sur le règne animal. L'analogie qu'il établissait entre le racisme et le spécisme émanait de leur caractère moralement injustifiable : « to discriminate against beings solely on account of their species is a form of prejudice, immoral and indefensible in the same way that discrimination on the basis of race is immoral and indefensible » 1430 . S'il était immoral d'infliger des souffrances à un autre être humain, la même conclusion devait s'appliquer aux « animaux non-humains » (« non-human animals »), selon l'expression utilisée par les militants pour rappeler que l'homme n'était qu'un animal parmi les autres. Ainsi, cette idéologie légitima les demandes de traitement égalitaire visant à obtenir le même degré de considération morale pour les différentes espèces animales. Elle justifia également le recours à des techniques contestataires de plus en plus radicales, mais aussi le boycott des industries exploitant les animaux 1431. 1428 1429 1430 1431 « Slave trading in animals », Peace News, 24 octobre 1969, p. 7. « Our unequal brothers », The Ecologist, août-septembre 1976, pp. 269-70. Ibid. « Animal Liberation », Resurgence, septembre-octobre 1977, pp. 10-11. 467 468 Claire Mansour, Diffusion et évolution des mouvements sociaux 2.5.2.6. Le mouvement féministe Le mouvement féministe contribua de plusieurs manières à la cause environnementale, notamment par le biais de processus de diffusion et de convergence. Tout comme le mouvement pour l'identité raciale, son idéologie fut adaptée à la défense des animaux, condamnant les discriminations liées au spécisme au même titre que celles induites par le sexisme. Une militante pour les deux causes expliquait ainsi dans les colonnes de Spare Rib : It disappoints us to see women participating in the general enslavement and abuse of animals and indulging in speciesism [] Liberty is indivisible and people can never be entirely free while animals are used as "things" for material gain or dubious pleasure. The oppression of women is mirrored by that of animals – why else are we called 'cows, bitches, cats, sows, mares'? 1432 Tout comme les féministes affirmaient que les hommes ne pouvaient pas être pleinement libres et égaux tant que les femmes étaient opprimées, les défenseurs de la cause animale arguaient que la liberté du genre humain dépendait de celles des animaux. Selon cette militante, les femmes devaient être plus réceptives à la maltraitance animale et au spécisme, à la fois car elles étaient elles-mêmes victimes de la domination masculine, mais aussi probablement du fait des traits généralement associés au genre féminin, parmi lesquels une sensibilité et une émotivité accrues. Le groupe Chicken's Lib, fut formé en 1973 par Violet Spalding et Claire Druce, mère et fille, par analogie avec les associations féministes fréquemment désignées par l'expression « Women's Lib ». Elles se consacrèrent à la défense des gallinacés, en raison des souffrances endurées par ces volatiles dans les élevages en batterie, qui représentaient une très grande majorité des exploitations de la filière. Elles empruntèrent les techniques théâtrales des 1432 « Animal Liberation », Spare Rib, septembre 1979, p. 21. 2ème Partie - 5 : Mouvement écologiste féministes, se mettant par exemple en scène dans des cages géantes, afin de sensibiliser la population au sort des volailles dans les élevages intensifs 1433. Les féministes avaient également émis des revendications liées à la protection de l'environnement, comme en témoignait le manifeste de 1970 du Women's Liberation Workshop, listant parmi leurs demandes : « An end to all forms of environment abuses, particularly an immediate halt to those which have their most disastrous effects on women and children, such as Strontium 90 and DDT poisoning which poison mothers' milk » 1434 . L'accumulation des substances toxiques tout au long de la chaîne alimentaire renforçait les effets nocifs des polluants sur l'homme. Les nourrissons, particulièrement vulnérables, se retrouvaient ensuite exposés par le biais du lait maternel. Les féministes avaient donc choisit d'endosser les demandes écologistes qui concernaient en priorité les futures mères. À l'inverse, les écologistes portèrent à leur tour les revendications féministes qui abondaient dans leur sens. La question démographique était par exemple une de leurs préoccupations récurrentes, alertant sur les risques de surpopulation et d'épuisement des ressources naturelles. Pour lutter contre ces éventualités, ils étaient donc favorables à un accès libre et gratuit à la contraception et à l'interruption volontaire de grossesse, envisagés comme des moyens de réguler la croissance démographique 1435 . De même, ils dénonçaient le culte de la beauté artificielle et s'en prenaient à plusieurs aspects de l'industrie de la mode, comme l'utilisation de fourrures ou les produits cosmétiques testés sur des animaux, ceux contenant des substances chimiques délétères ou encore des ingrédients nécessitant l'abattage d'espèces animales en voie de disparition. Ils rejoignaient donc les féministes en prônant une beauté plus naturelle, libérée des injonctions 1433 « What sort of action? », Resurgence, septembre-octobre 1977, p. 21. « Manifesto of the London Women's Liberation Workshop », The Black Dwarf, 5 septembre 1970, p. 14. 1435 « Crash course in ecological action », Peace News, 19 mars 1971, p. 7. « Towards the stable society: Strategy for change », The Ecologist, janvier 1972, pp. 8-17. 1434 469 470 Claire Mansour, Diffusion et évolution des mouvements sociaux du patriarcat, tandis que ces dernières commençaient également à s'attaquer de leur côté à l'exploitation animale dans l'industrie cosmétique 1436. Ces convergences se concrétisèrent avec la création de projets ou de groupes féministes spécifiquement dédiés à la protection de la nature et des animaux. Afin de s'affranchir de la domination masculine répandue dans les organisations mixtes, elles formèrent des associations exclusivement réservées aux femmes, comme par exemple Lesbians Against Inhumane Research, un collectif londonien de féministes radicales défendant la cause animale 1437. Pour protester contre la construction d'une centrale nucléaire à Torness, en Écosse, un groupe de féministes fonda le Women Against Nukes 1438 . Elles s'intéressèrent aux conséquences de l'utilisation de l'énergie nucléaire touchant en priorité les femmes, et participèrent aux actions des organisations écologistes mixtes, comme lors de l'occupation du site de la future centrale de Torness, en mai 1978, tout en dénonçant le sexisme ambiant. Elles attirèrent par exemple l'attention des organisateurs sur la nécessité d'impliquer davantage les hommes dans la gestion de la crèche, et de donner davantage la parole aux femmes dans les rassemblements 1439 . Si le mouvement féministe avait conduit de nombreuses femmes à vouloir participer aux décisions concernant la protection des animaux ou de l'environnement, le mouvement écologiste reflétait lui-même le souhait de la population de défendre son patrimoine naturel, notamment à l'échelle locale. En cela, il fut influencé par les mouvements nationalistes gallois et écossais. 2.5.2.7. Les mouvements nationalistes gallois et écossais Le patrimoine naturel jouait un rôle important dans l'identité nationale galloise et écossaise. La gestion des ressources naturelles avait déjà fait l'objet de 1436 « Lipstick, make-up, leave behind », Peace News, 26 janvier 1973, p. 6. « Beauty and the beast », Spare Rib, février 1973, pp. 25-6. 1437 « Animal Liberation », Spare Rib, septembre 1979, p. 21. 1438 « Torness – women against nukes », Peace News, 5 mai 1978, p. 3. 1439 « Torness May 6th & 7th: a beginning », Peace News, 19 mai 1978, p. 3. 2ème Partie - 5 : Mouvement écologiste revendications des nationalistes, dénonçant notamment les cas où leur exploitation économique desservait les intérêts d'entreprises anglaises. Certains d'entre eux avaient également adopté des postures conservationnistes lorsque l'intégrité de leurs terres semblait menacée, notamment par des projets industriels risquant de détruire des paysages d'une grande beauté. Avec l'émergence du mouvement écologiste, cette opposition s'élargit à la protection des écosystèmes. En 1971 par exemple, la société Rio Tinto-Zinc prospecta dans la région de Snowdonia dans le but d'y exploiter des gisements de minerais, notamment de cuivre. Le statut de parc national du territoire n'interdisait pas ce type d'activités, il suffisait à l'entreprise de justifier que l'exploitation de ces ressources naturelles était dans l'intérêt de la population pour obtenir l'autorisation de commencer les travaux. Une alliance d'écologistes et de nationalistes se constitua pour empêcher le projet de mine à ciel ouvert, attirant l'attention sur les ravages inhérents aux processus d'extraction, comme la destruction de la flore en surface mais aussi la pollution de l'air et des cours d'eau environnants. Au bout de deux ans de campagne, ils réussirent à contraindre Rio Tinto-Zinc d'abandonner le projet en avril 1973 1440. La convergence entre les deux mouvements ne se limitait pas seulement à la coopération sur des actions locales. Les sociétés idéales envisagées par les nationalistes et les écologistes étaient basées sur le même principe essentiel : la décentralisation. Les publications environnementalistes Resurgence et The Ecologist consacrèrent de nombreux articles sur le sujet de la dévolution, perçue comme une solution potentielle aux problèmes environnementaux. Dans le manifeste « A Blueprint for Survival », publié dans un numéro spécial de The Ecologist en janvier 1972, les militants prônaient une société décentralisée, où de petites communautés auto-suffisantes vivraient en harmonie avec leur environnement naturel : « it is only by decentralisation that we can increase self-sufficiency – and self1440 « No Prospecting for Mid-Wales », Peace News, 19 mars 1971, p. 5. « Mining in Snowdownia », The Ecologist, juin 1971, pp. 4-8. « Snowdonia mining application soon? », Peace News, 24 novembre 1972, p. 7. « FoE versus RTZ », The Ecologist, juillet 1973, pp. 241, 245. 471 472 Claire Mansour, Diffusion et évolution des mouvements sociaux sufficiency is vital if we are to minimise the burden of social systems on the ecosystems that support them »1441. S'inspirant du fonctionnement des écosystèmes, ils souhaitaient faire des collectivités de petites cellules autonomes, recyclant leurs déchets, subvenant à leurs propres besoins alimentaires et énergétiques, tout en veillant au respect de la nature. La mise en place d'un tel système nécessitait donc la prise de décisions politiques à l'échelle locale. Ainsi, les chantres de la doctrine du « Small is beautiful », Leopold Khor et Ernst Friedrich Schumacher, étaient à la fois de fervents partisans la dévolution et de la protection de l'environnement, dans la mesure où ce système politique à taille humaine garantirait une gestion des ressources naturelles adaptée aux besoins 1442 . Ainsi, conciliant les diverses influences des mouvements précédents, le mouvement écologiste émergea comme une forme de synthèse, ralliant le soutien d'une grande partie de la population pour devenir un mouvement de masse. 2.5.3. Mouvement de masse : 1970-79 2.5.3.1. Campagnes pour la protection des animaux Un nombre important de groupes se mobilisa en faveur de la protection des animaux. Leurs revendications couvraient un éventail large, allant de la simple préoccupation pour leur bien-être à la reconnaissance de droits. Mais ce qui distinguait cette génération de militants de leurs prédécesseurs fut le recours fréquent aux tactiques d'action directe, permettant souvent en pratique de sauver des vies. La Hunt Saboteurs Association en avait d'ailleurs fait sa raison d'être. Redoublant de créativité pour permettre aux animaux traqués par les chasseurs de s'échapper, elle adaptait ses techniques aux différents types de chasse. Dans le cas des loutres, qui étaient de surcroit une espèce menacée, des équipes d'une 1441 « Towards the stable society: Strategy for change », The Ecologist, janvier 1972, pp. 8-17. « Devolution not destruction », The Ecologist, mars-avril 1976, pp. 9-11. « The critical question of size », The Ecologist, juillet-août 1975, pp. 12-14. 1442 2ème Partie - 5 : Mouvement écologiste douzaine de saboteurs se rendaient sur le terrain avant les chasseurs afin de répandre des odeurs artificielles le long des cours d'eau, pour empêcher les chiens de les débusquer. Ce type de méthode était généralement très efficace, les chasseurs étant souvent forcés de rentrer bredouille 1443. Pour la chasse au lièvre, les chiens se fiaient à leur vue, et non à leur odorat, ce qui poussa les militants à déployer d'autres stratégies, comme l'utilisation de fumigènes 1444 . Ils utilisaient également des signaux sonores pour attirer l'attention de la meute lors des parties de chasse à courre, à l'aide de cors de chasse, de cornes de brume, de sifflets ou simplement de leurs voix 1445. Les membres du Band of Mercy, plus radicaux que ceux de la HSA, n'hésitèrent pas à franchir les limites de la légalité, effectuant des raids de nuit afin de saboter les véhicules des adeptes de la vénerie ou les bateaux de pêches des chasseurs de phoques, ce qui valut à trois d'entre eux des condamnations en justice en 1975 1446. De nombreuses actions furent également menées contre les centres de recherche pratiquant la vivisection. Des petits groupes se mirent à faire irruption dans les laboratoires, qu'ils occupaient jusqu'à l'arrivée des forces de l'ordre, tout en essayant d'attirer l'attention des médias et de la population sur l'expérimentation animale, par le biais de grandes bannières suspendues aux fenêtres de ces bâtiments 1447 . Quant aux activistes du Band of Mercy, rebaptisé Animal Liberation Front en 1976, ils pénétrèrent à plusieurs reprises dans les laboratoires pour libérer les animaux, avant d'incendier les locaux 1448. Il s'agissait à la fois de causer des dégâts matériels importants afin de nuire économiquement aux entreprises, mais aussi de mettre un terme aux souffrances des animaux 1443 « Off the otter! », Peace News, 15 juin 1973, p. 7. « Hunt Saboteurs get a caustic response from hare-coursing chief », Peace News, 8 février 1974, p. 7. 1445 « Sabotage of North Bucks Beagles », Peace News, 24 novembre 1972, p. 7. « Hunt saboteur loses appeal », Peace News, 24 août 1973, p. 8. 1446 « Animal activist fined £500 », Peace News, 21 février 1975, p. 4. 1447 « Movement for Liberation of Animals invades Consultox, Ealing », Peace News, 1er novembre 1974, p. 4. 1448 « Band of Mercy activists trapped », Peace News, 6 septembre 1974, p. 4. « What sort of action? », Resurgence, septembre-octobre 1977, p. 21. 1444 473 474 Claire Mansour, Diffusion et évolution des mouvements sociaux captifs. Ces tactiques illégales restèrent néanmoins le fait d'une toute petite minorité au sein du mouvement, la plupart des militants préférant participer à des actions non-violentes et beaucoup moins risquées. Les campagnes suscitant le plus l'engouement furent celles pour la protection des espèces en voie de disparition. La baleine bleue, dont la population avait été presque complètement décimée à cause de la chasse commerciale, devint emblématique de la lutte contre l'extinction des espèces animales. Au début des années 1970, une grande campagne internationale intitulée « Save the Whale » fut lancée. Jusqu'alors, les associations conservationnistes s'étaient efforcées de sensibiliser la population au sort des cétacés et de faire pression sur la classe politique, à l'instar du prestigieux World Wildlife Fund (WWF). L'organisation avait été fondée en 1961 par le directeur de l'agence gouvernementale Nature Conservancy, Edward Max Nicholson, avec le soutien d'une quinzaine de biologistes de renom, tels que Julian Huxley. Pour la nouvelle génération de militants, incarnée entre autres par Friends of the Earth (FoE), les tactiques du WWF étaient trop modérées. Au vu de l'étendue du massacre des baleines bleues, dont le nombre avait chuté de 100 000 à seulement quelques milliers en cinquante ans, ils décidèrent d'accompagner la campagne de sensibilisation du grand public d'actions directes 1449. À l'automne 1972, une série de rassemblements réunit à chaque fois près de 10 0000 personnes à Londres 1450. Concerts, manifestations et happenings furent organisés à travers le pays, tandis que de petits groupes de protestaires avaient mis en place des piquets d'appel au boycott devant les commerces vendant des produits issus de la chasse aux baleines, comme les cosmétiques fabriqués à partir de leur graisse. Ils s'en prirent également aux pays jugés responsables de ces tueries, principalement l'Union Soviétique et le Japon, par l'entremise de leurs ambassades. Afin d'encombrer leurs lignes téléphoniques, ils lancèrent ainsi des phone-ins, consistant à appeler 1449 1450 « Can leviathan endure so wide a chase? », The Ecologist, octobre 1971, pp. 5-9. « Day of the Whale», The International Times, 18 septembre 1972, p. 10. 2ème Partie - 5 : Mouvement écologiste sans cesse pendant plusieurs heures pour se plaindre des méthodes cruelles des chasseurs 1451. La mobilisation avait été prévue pour coïncider avec le sommet de la Commission baleinière internationale (International Whaling Commission) dont le rendez-vous annuel avait lieu à Londres en 1972. Le but était de faire pression sur les États membres en vue d'obtenir un moratoire de dix ans sur la chasse commerciale. Si cette initiative échoua, les militants réussirent néanmoins à faire imposer dès l'année suivante l'interdiction d'importer des produits issus de la chasse aux baleines au Royaume-Uni. La mesure ne concernait cependant pas les produits à base de cachalot, qui n'était pas considéré comme une espèce en voie de disparition 1452 . L'organisation canadienne Greenpeace poursuivit la lutte à l'échelle internationale avec des formes d'action de plus en plus radicales. Elle se mit à traquer les baleiniers afin de filmer leurs exactions pour les diffuser dans les médias, et à envoyer des militants à bords de kayaks ou de bateaux pneumatiques s'interposer directement entre leurs harpons et les mammifères marins 1453. 2.5.3.2. Campagne pour le recyclage des déchets Au tournant de la décennie, de plus en plus de voix s'élevèrent pour dénoncer un des principaux travers de la société de consommation : la production croissante de déchets. Pour lutter contre ce fléau, les écologistes cherchaient à promouvoir les stratégies de réduction des déchets à la source ainsi que leur recyclage. En 1971, l'association FoE lança une campagne nationale contre la société Schweppes, après qu'elle eût choisi de délaisser les bouteilles consignées en faveur de contenants non-réutilisables. Afin de forcer l'entreprise à faire machine arrière, FoE lança un appel au boycott de tous les sodas produits par Schweppes. Elle incita également ses membres, et plus généralement le grand public, à partir à « la chasse aux bouteilles » (« bottle-hunting »), en faisant la tournée 1451 « Friends of the Earth: Newsletter », The Ecologist, décembre 1972, p. 29. « Friends of the Earth: Save the Whale Campaign », The Ecologist, décembre 1972, p. 29. 1453 « 'Stop Ahab' – Moby Greenpeace », Peace News, 14 décembre 1972, p. 8. 1452 475 476 Claire Mansour, Diffusion et évolution des mouvements sociaux des restaurants, des bars, des parcs et autres lieux où les récipients pouvaient être collectés, pour ensuite les apporter aux coordinateurs régionaux de la campagne. Au cours de l'année, les militants de FoE déposèrent à plusieurs reprises toutes les bouteilles récupérées devant le siège de l'entreprise à Londres. Si la mobilisation ne parvint pas à infléchir la politique de la société, elle assura néanmoins une grande visibilité à l'organisation dans les médias, entraînant la création de nombreuses branches régionales 1454. La campagne fut ensuite élargie au problème du suremballage, avec des actions de sensibilisation auprès de la population à l'échelle locale et nationale. Le 25 mars 1972 fut déclarée « Journée nationale de l'emballage » (« National Packaging Day »), donnant lieu à des manifestations prenant pour cibles certaines entreprises ainsi qu'à des opérations d'étiquetage des produits dans les commerces pour éduquer les consommateurs. Les militants désignaient les produits suremballés par le biais d'autocollants portant des inscriptions telles que « Don't buy me I'm unreturnable » ou « Don't buy this article it's overpackaged »1455. Les militants s'attaquèrent également au problème des déchets en mettant au point leurs propres systèmes de recyclage. Leurs initiatives concernaient le plus souvent le papier, à la fois parce que les procédés étaient plus simples à mettre en oeuvre, mais aussi pour lutter contre la déforestation. À Londres, FoE instaura un système de collecte de papier journal, puis d'élaboration de papier recyclé qui servait ensuite de support aux publications de l'association 1456 . Ce dispositif inspira d'autres groupes, notamment étudiants, qui suivirent leur exemple. À l'université de Warwick, les écologistes de la Survival Society mirent au point une collecte dans toutes les résidences étudiantes du campus, afin de recycler le papier journal 1457. Ce nouveau type d'action directe s'intégrait dans le 1454 « Friends of the Earth's Schweppes Campaign », The Ecologist, octobre 1971, pp. 29-31. « Friends of the Earth: Newsletter », The Ecologist, décembre 1971, p. 33. 1455 « Bottles bright and beautiful », Peace News, 7 avril 1972, p. 5. « Demo », Muther Grumble, april 1972, p. 8. 1456 « Re-cycling scheme rescued », Peace News, 20 octobre 1972, p. 7. 1457 « A plea for survival », The Warwick Boar, 15 novembre 1973, p. 4. 2ème Partie - 5 : Mouvement écologiste courant anti-consumériste du « Do-It-Yourself », destiné à promouvoir la fabrication et la réparation d'objets de la vie courante. Une multitude d'articles de la presse étudiante, militante et alternative expliquaient par exemple pas à pas comment préparer son propre savon, ou réparer son vélo 1458. Ce dernier mode de transport écologique était devenu très populaire en réaction aux embouteillages et autres désagréments causés par le nombre croissant de voitures. 2.5.3.3. Campagne contre le trafic automobile Une autre campagne phare du mouvement écologiste des années 1970 concernait le trafic automobile. Depuis 1950, le nombre de voitures en GrandeBretagne avait été multiplié par deux à chaque décennie, passant de 2 257 873 en 1950 à 5 525 828 en 1960, puis 11 328 000 en 1970 1459. Ce phénomène avait de multiples répercussions environnementales, au premier rang desquelles l'aggravation de la pollution de l'air. Ainsi, la tactique du sit-in sur la voie publique, perturbant la circulation, prit une nouvelle dimension lorsqu'elle fut utilisée comme une fin en soi pour protester contre les véhicules à moteurs. L'association écologiste Commitment, créée par les militants radicaux des Young Liberals 1460, dénonçait la prédominance de la voiture comme mode de transport. En décembre 1971, ses membres coupèrent la circulation d'Oxford Street, rue commerçante du centre de Londres fréquemment embouteillée, en s'asseyant au milieu de la route. Ils réitérèrent à plusieurs reprises, s'enchaînant aux feux de signalisation pour être plus difficiles à déloger lors des interventions policières 1461. 1458 « Soap supplement », Peace News, 11 août 1972, p. 6. « The pedal-power pocket book and kerbside companion », Peace News, 10 août 1973, p. 16. 1459 Ian G. SIMMONS, op. cit., p. 193. 1460 Les Young Liberals étaient les membres de l'aile jeunesse du Parti libéral. Ils étaient partisans des stratégies d'action directe et étaient considérés comme particulièrement radicaux. Ils furent d'aileurs pour cette raison affublés du surnom de « Red Guard » dans la presse. Ils s'impliquèrent particulièrement dans les mobilisations contre l'apartheid et la défense de l'environnement. « Young Liberals around the grave », The Spectator, 2 septembre 1972, p. 6. 1461 « The potential for a movement », Resurgence, juillet-août 1972, p. 26. « Doing it in the road », Peace News, 6 avril 1973, p. 21. 477 478 Claire Mansour, Diffusion et évolution des mouvements sociaux Les adeptes du vélo comme mode de transport alternatif non-polluant lancèrent la pratique contestataire innovante du bike-in, organisée d'abord à Édimbourg en novembre 1971, puis s'étendant rapidement au reste du pays 1462. Il s'agissait de rassemblements de cyclistes roulant sur la chaussée, ralentissant ainsi le trafic automobile, mais laissant passer les bus. Ces évènements étaient particulièrement festifs : les participants ornaient leurs cycles de ballons et de banderoles, portant haut leurs slogans comme « Pedal Power » ou « Car-free is care-free » 1463 . Ils pédalaient dans un joyeux tintamarre au rythme de leurs sonnettes et autres petits instruments sonores utilisés pour signaler leur présence et attirer l'attention. Certains étaient juchés sur des montures excentriques, comme des tandems, des tridems, ou des tricycles. Les bike-ins s'inspiraient aussi du happening : les organisateurs demandaient souvent aux participants de venir costumés, portant par exemple des masques à gaz pour dénoncer la pollution du gaz d'échappement des voitures 1464 . En perturbant ainsi la circulation, ils espéraient obtenir la mise en place de voies séparées pour les cyclistes, et d'itinéraires cyclables, garantissant leur sécurité. Selon eux, la planification urbaine était pensée dans le seul intérêt des véhicules motorisés, ils demandaient donc un traitement équitable pour les vélos. Les trajets empruntés par l'une de ces manifestations en juillet 1972, suivaient les itinéraires proposés pour de futures pistes cyclables au centre de Londres 1465 . La popularité des bike-ins contribua à remettre le vélocipède au goût du jour. En 1975, le nombre de bicyclettes vendues sur le territoire national avait dépassé le million, soit plus du double des ventes de l'année 1970, tandis que le kilométrage moyen des déplacements à vélo pour l'ensemble de la population avait augmenté de 20% par 1462 « Mass bike-in at Cambridge », Peace News, 3 décembre 1971, p. 1. « Bike Ways », Spare Rib, novembre 1972, p. 19. 1464 « High Wycombe bike-in », Peace News, 14 juillet 1972, p. 7. « Lotty bike-in », Peace News, 1er décembre 1972, p. 7. 1465 « Bikes rule! OK? », Peace News, 25 août 1972, p. 10. 1463 2ème Partie - 5 : Mouvement écologiste rapport à 1974 1466. Les autorités locales acceptèrent quelques-uns des projets des cyclistes militants, comme la piste cyclable de Hyde Park à Londres. À Portsmouth, un projet de grand réseau réservé aux deux-roues non-motorisés, empruntant des rues peu fréquentées du centre-ville, fut expérimenté en 1975, mais succomba finalement devant l'hostilité des commerçants 1467 . De plus en plus d'itinéraires cyclables allaient cependant être créés dans les décennies suivantes, notamment grâce aux projets de reconversion d'anciennes voies ferrées fermées suites aux coupes budgétaires imposées par la Beeching Axe, qui commencèrent à être lancés à la fin des années 1970 1468. 2.5.3.4. La mobilisation contre le nucléaire civil Au Royaume-Uni, les premières protestations contre le nucléaire civil furent organisées en solidarité avec un groupe français opposé à la construction de la centrale de Fessenheim en Alsace, en avril 1971. Les associations FoE et la Campaign for Biological Sanity appelèrent au rassemblement devant l'ambassade de France, synchronisant leur action avec la manifestation de Fessenheim. Les militants dénoncèrent au passage l'indifférence de la CND, qui n'avait jamais pris position officiellement sur le nucléaire civil. Le choix d'organiser cette première action contre un projet de centrale français, alors que le Royaume-Uni disposait déjà de 27 réacteurs, visait à ériger les militants français en exemple de résistance 1469. Pour contrer les arguments des autorités, affirmant que le nucléaire était une énergie propre et sûre, les écologistes dénonçaient le problème du traitement des déchets radioactifs, en comparant les réacteurs nucléaires à des bombes atomiques à retardement : « During its lifetime a reactor produces many hundreds of times the radioactive waste released over Hiroshima and Nagasaki by the 1466 « Bring back the bike », Peace News, 25 août 1972, p. 10. Ibid. 1468 Carlton REID, Bike Boom : The Unexpected Resurgence of Cycling, Washington : Island Press, 2000, pp. 106-8. 1469 « Fessenheim – Easter Monday », The Ecologist, juin 1971, p. 26-28. 1467 479 480 Claire Mansour, Diffusion et évolution des mouvements sociaux bombs »1470. Les associations écologistes s'opposèrent aux projets de construction et d'agrandissement des centrales nucléaires, à la fois en fournissant des rapports détaillés lors des enquêtes publiques mais aussi au travers de manifestations et d'actions directes. En 1974, FoE réussit par exemple à obtenir que les autorités abandonnent leurs plans de réacteurs à eau pressurisée au profit des réacteurs refroidis au gaz, plus chers mais jugés plus sûrs 1471 . En avril 1976, des rassemblements synchronisés réunirent un millier de personnes sur les sites de Windscale, Sizewell (Suffolk) et Torness, à l'initiative de FoE et de la Scottish Campaign to Resist the Atomic Menace (SCRAM), formée pour coordonner l'opposition locale au projet de construction de la centrale de Torness 1472. Si la mobilisation peinait jusque-là à attirer les foules, les évènements de Malville, en Isère, au mois de juillet 1977, allaient galvaniser les contestataires. S'insurgeant contre le projet de centrale dans la ville, les branches françaises de Greenpeace et FoE invitèrent les opposants au nucléaire des pays voisins à venir leur prêter main forte. La manifestation prit une véritable dimension transnationale, avec l'afflux de militants allemands, suisses, scandinaves et britanniques. Environ 60 000 protestataires convergèrent vers le site pour l'occuper de manière non-violente, mais furent repoussés par les forces de l'ordre. De violentes échauffourées entre les manifestants et les CRS éclatèrent, faisant une centaine de blessés et un mort, du côté des militants 1473. Selon eux, Malville incarnait le type de société que l'industrie nucléaire était en train de créer, caractérisée par le déploiement d'un arsenal sécuritaire, un manque de transparence et de démocratie 1474. Ils prônaient au contraire la transition vers des énergies alternatives renouvelables, comme le solaire ou l'éolien, permettant 1470 Ibid. Adam LENT, op. cit., p. 104. 1472 « We'll all go together when we go », Socialist Challenge, 15 décembre 1977, p. 6. « SCRAM », Peace News, 10 mars 1978, p. 3. 1473 « Malville: 60,000 in the mire », Peace News, 12 août 1977, p. 5. « Malville », Peace News, 9 septembre 1977, pp. 8-9. 1474 « The insanity of secrecy in a nuclear age », The Ecologist, juillet 1977, pp. 236-9. « The struggle against nuclear power in central Europe », The Ecologist, juillet 1977, pp. 216-22. 1471 2ème Partie - 5 : Mouvement écologiste une gestion à l'échelle locale et sans danger pour la population 1475. Ils établissaient un lien entre les dispositifs de protection des centrales nucléaires et la transformation du combustible pour un usage militaire : Firstly, the threat to democracy in the shape of the police state powers that would necessarily be involved to protect plutonium from the attentions of terrorists or sabotage. Already the British nuclear power industry has a private army of 400 men to protect their installations. Secondly, [] the increased production of plutonium [would lead] to the spread of nuclear weapons production to all parts of the globe. 1476 Le 29 avril 1978, un grand rassemblement national fut organisé à Trafalgar Square, ralliant plus de 10 000 personnes venues protester à la fois contre le nucléaire civil et militaire, comme en témoignaient les slogans du type « Windscale could fuel the last World War »1477. À l'appel de SCRAM, Greenpeace et FoE, près de 4000 personnes participèrent à l'occupation non-violente du site de Torness les 6 et 7 mai, donnant au site de la future centrale des allures de festival avec l'organisation d'un concert de rock 1478. À la fin du mois de septembre, SCRAM lança une occupation illimitée afin d'empêcher le début des travaux. Pendant près d'un mois et demi, les militants prirent possession des lieux, rénovant une bâtisse en ruine rebaptisée le « Half Moon Cottage » qui devint leur quartier général, avant d'être expulsés par l'entreprise gérant la centrale 1479 . La résistance continua à l'échelle locale, jusqu'au point d'orgue de mai 1979, lorsque près de 10 000 opposants au nucléaire venus de tout le pays se rassemblèrent à nouveau pour occuper le site, toujours au son de groupes de rock jouant sur une grande scène dans un champ voisin. L'évènement attira des écologistes de diverses associations mais aussi des nationalistes du SNP et du SWP 1480 . Si ces occupations ne 1475 « We'll all go together when we go », Socialist Challenge, 15 décembre 1977, p. 6. « Smallscale not windscale », Resurgence, juillet-août 1978, pp. 6-8. 1477 Ibid. 1478 « Torness: May 6th & 7th », Peace News, 19 mai 1978, p. 5. 1479 « Torness occupied », The Ecologist, novembre-décembre 1978, pp. 202-3. 1480 « No nukes explosion hits Torness », Socialist Challenge, 17 mai 1979, p. 6. 1476 481 482 Claire Mansour, Diffusion et évolution des mouvements sociaux parvinrent, au bout du compte, qu'à retarder la construction de la centrale de Torness, les militants réussirent cependant à faire échouer des projets d'enfouissement de déchets nucléaires, ou de création de mines d'uranium 1481. Mais le mois de mai vit également l'élection des conservateurs, qui allaient se montrer bien moins réceptifs aux demandes des écologistes et adopter une ligne plus ferme pour réprimer la contestation. 2.5.4. Déclin 2.5.4.1. Fermeture de la structure des opportunités politiques Aux yeux des écologistes, le Parti conservateur était le moins sensible à la protection de l'environnement des partis de gouvernement. Si quelques députés d'arrière banc s'étaient engagés dans la voie de la conservation du patrimoine naturel, ses dirigeants ne semblaient pas se préoccuper du sujet. Pire encore, en plaçant la croissance économique au-dessus de tous les autres enjeux, ils risquaient d'aggraver encore la situation. Toujours selon les militants, les conservateurs, et Thatcher en particulier, incarnaient la domination des intérêts capitalistes de la City : « they have been led so long by the hard-faced men – and women, for Margaret Thatcher is a prime example of this – that they appear unable to get away from the capitalist, city-dominated notion that growth is everything » 1482 . Dans leur manifeste de campagne, ils s'étaient contentés de mentionner vaguement les problèmes environnementaux sans proposer de mesure concrète pour y remédier. Ils s'étaient en revanche engagés à poursuivre le programme de développement du nucléaire civil, et même à renforcer l'arsenal de dissuasion nucléaire. Ils accusaient les travaillistes d'avoir affaibli la position du Royaume-Uni en réduisant les dépenses militaires, et affirmaient vouloir inverser la tendance, du 1481 1482 « Antinuclear reactions », Peace News, 5 mai 1978, p. 8. « Green politics », Resurgence, janvier-février 1979, p. 6. 2ème Partie - 5 : Mouvement écologiste fait des avancées des Soviétiques dans la course aux armements : « During the past five years the military threat to the West has grown steadily as the Communist bloc has established virtual parity in strategic nuclear weapons and a substantial superiority in conventional weapons » 1483. En soulignant la menace émanant du bloc de l'Est, les conservateurs justifiaient leur ligne politique de réductions drastiques des dépenses publiques, à l'exception du budget de la défense, qui était sur le point d'augmenter considérablement. Cette stratégie fut poursuivie après leur accession au pouvoir. Ils continuèrent à agiter la menace soviétique afin de légitimer l'adoption d'un nouveau programme d'armements nucléaires : les missiles Trident, dotés de têtes multiples à guidage indépendant. Le coût de cette technologie américaine était estimé à cinq milliards de livres 1484. Dans ce contexte politique de plus en plus hostile aux revendications écologistes, le mouvement fut rapidement remplacé par l'opposition aux armes de destruction massive, qui devint la principale préoccupation des militants. 2.5.4.2. Résurgence du mouvement pour le désarmement nucléaire Alors que la menace d'une guerre nucléaire se faisait de plus en plus pressante, le mouvement pour le désarmement nucléaire recommença à mobiliser massivement les foules. Au début de la décennie, la CND avait bénéficié d'un regain d'intérêt suite aux essais atomiques américains et français de 1971 et 1973, mais elle peinait encore à rallier plus d'un millier de participants pour ces actions. En 1973, ses dirigeants choisirent de remplacer la grande marche de Pâques par des veillées simultanées sur les sept bases écossaises en lien avec le programme nucléaire Polaris, mais elles ne rassemblèrent pas plus d'un millier de 1483 1484 CONSERVATIVE PARTY, « Conservative manifesto, 1979 », op. cit « Trident replaces Polaris », Peace News, 9 novembre 1979, p. 4. 483 484 Claire Mansour, Diffusion et évolution des mouvements sociaux protestataires sur l'ensemble des sites 1485. En 1977, le mouvement bénéficia de la dynamique ascendante de la mobilisation contre le nucléaire civil, suite à l'impulsion donnée par les évènements de Malville en juillet. Le lien entre les oppositions au nucléaire civil et militaire permit à la CND d'attirer de nouveaux militants dans ses rangs. Lors d'un rassemblement au mois de septembre à la base de sous-marins américains de Holy Loch, les membres de longue date de l'association eurent l'impression que ce nouvel afflux de recrues était dû à la prise de conscience de la corrélation entre les deux types d'utilisation de l'énergie nucléaire « [] more people are coming to see the links between nuclear power and nuclear weapons and feel they must take some kind of stand », une analyse partagée par des commentateurs extérieurs 1486 . Avec l'adoption du programme Trident, et la publication d'une série d'articles en janvier 1980 dans le Times sur les mesures de protection civile préconisées par le gouvernement, la guerre nucléaire semblait plus que jamais imminente. En cas d'attaque nucléaire, le gouvernement recommandait à la population de construire un abri à l'intérieur de leurs habitations, et d'y rester confiné jusqu'à nouvel ordre 1487 . Dans ce contexte anxiogène, le mouvement pour le désarmement nucléaire redevint un mouvement de masse, rassemblant environ 80 000 personnes à Trafalgar Square au mois d'octobre 1980 1488 . Ce nouvel essor dépassa même les records des mobilisations au début des années 1960, avec une manifestation atteignant les 250 000 participants en octobre 1981 à Londres 1489 . Ainsi, le mouvement écologiste clôtura le cycle de contestation des longues années soixante, tandis que la résurgence du mouvement pour le désarmement nucléaire en amorçait un nouveau. 1485 « CND: focus on Polaris », Peace News, 6 avril 1973, p. 7. « CND's Scottish excursion », Peace News, 27 avril 1973, p. 7. 1486 « CND comeback », Peace News, 23 septembre 1977, p. 3. « We'll all go together when we go », Socialist Challenge, 15 décembre 1977, p. 6. 1487 « Close to extinction », Resurgence, septembre-octobre 1980, p. 36. 1488 « 80,000 against the missiles », Socialist Challenge, 30 octobre 1980, p. 3. 1489 « This time we can win », Socialist Challenge, 21 octobre 1981, pp. 8-9. 2ème Partie - 5 : Mouvement écologiste 2.5.4.3. Conclusion et impact du mouvement La prise de conscience écologique au cours des longues années soixante induisit un changement progressif des mentalités et des comportements, ce qui représentait une avancée non-négligeable dans un domaine où la somme des actions individuelles pouvait avoir une incidence favorable sur l'environnement, comme par exemple en évitant de jeter des détritus dans la nature ou en changeant ses pratiques de consommation. D'autres progrès notables furent obtenus en matière de lutte globale contre la pollution et la disparition des espèces animales, qui devinrent bientôt des objectifs internationaux. Le mouvement avait réussi à imposer l'écologie comme un vrai sujet politique, abordé par les principaux partis lors de l'élection de 1979 et même par un parti lui étant spécifiquement consacré, l'Ecology Party, qui deviendrait le Green Party au cours de la décennie suivante 1490 . Les mobilisations pour le désarmement nucléaire et contre la guerre du Vietnam avaient permis de sensibiliser la population aux conséquences délétères des activités humaines sur l'écosystème, en dénonçant respectivement l'impact des retombées radioactives et de l'utilisation des herbicides, ainsi que leurs risques en termes de santé publique. L'adaptation des cadres anti-impérialistes et antiracistes contribua ensuite à façonner ceux de la défense de l'environnement et de la protection des animaux, forgeant de nouveaux concepts tels que l'écocide ou le spécisme. La diffusion des pratiques contestataires entraîna une série d'innovations tactiques, comme le bike-in, le phone-in, ou la green ban. Un certain degré de convergence entre les revendications des différents mouvements encouragea la coopération entre les militants, notamment dans les cas des féministes et des nationalistes avec, entre autres, les demandes d'accès libre et gratuit à la contraception et la dévolution, leur permettant par là même de rallier de nouveaux adeptes pour leurs causes respectives. Les mouvements précédents servirent également de pépinière au 1490 « Green crosses », The Ecologist, mai-juin 1979, p. 29. 485 486 Claire Mansour, Diffusion et évolution des mouvements sociaux mouvement écologiste, à l'instar des étudiants, dont les réseaux organisationnels contribuèrent à l'essor de la nouvelle mobilisation. De par sa genèse complexe, le mouvement écologiste représentait une forme de synthèse des mouvements du cycle de contestation des longues années soixante, qu'il clôtura en cédant la place à une nouvelle vague de mobilisation pour le désarmement nucléaire. 2ème Partie - 5 : Mouvement écologiste Conclusion Les mouvements de deuxième génération vinrent encore amplifier la dynamique protestataire du cycle de contestation des longues années soixante. En tirant leur impulsion et leur inspiration de la première génération de mouvements, les acteurs de cette deuxième vague se consacrèrent à des domaines négligés par leurs prédécesseurs. Les liens personnels entre les militants et les canaux non-relationnels, notamment la presse alternative, permirent la diffusion des cadres, des symboles et des répertoires. L'adaptation des modèles des mouvements américains joua également un rôle déterminant, particulièrement pour les mouvements féministes, gay et lesbien, où de nombreux éléments furent directement transplantés sur le sol britannique. Ces derniers prirent cependant des formes spécifiques en se développant dans leur nouveau contexte, comme par exemple un ancrage plus à gauche que leurs équivalents outre-Atlantique. Mais les choix des sources d'inspiration pouvaient également relever d'une stratégie pragmatique, à l'instar de la décision des militants nord-irlandais de se démarquer des traditions républicaines et loyalistes en invoquant l'image inclusive et non-violente du mouvement pour les droits civiques des noirs américains. Les nationalistes gallois et écossais utilisèrent également les cadres des mouvements précédents à des fins de propagande, dénonçant entre autres l'impérialisme anglais. Enfin, le mouvement écologiste emprunta à l'ensemble des mouvements du cycle afin de couvrir les diverses facettes de la protection du vivant. 487 3. CONCLUSION • 489 • Conclusion En faisant appel à divers outils sociologiques et historiques, ainsi, notamment qu'en analysant des articles issus de la presse alternative, étudiante et militante, cette thèse s'est efforcée de mettre en évidence le rôle moteur de la diffusion dans l'évolution du cycle de contestation des longues années soixante. À travers une variété de canaux non-relationnels et de liens personnels, les répertoires et les cadres d'action collective des mouvements sociaux se propagent d'une mobilisation à l'autre. Le mouvement pour le désarmement nucléaire amorça la dynamique protestataire au Royaume-Uni, grâce à un ensemble de facteurs conjoncturels qui contribuèrent à son émergence. La menace d'une attaque nucléaire, émanant du contexte international de la guerre froide, donnait aux futurs militants l'impression d'être constamment en danger. L'intervention des troupes britanniques en Égypte, lors de la crise du canal de Suez à l'automne 1956, provoqua de vives réactions d'opposition au sein de la population, aboutissant aux premières mobilisations de masse contre le gouvernement depuis la fin de la Seconde Guerre mondiale. La conviction que les efforts collectifs des protestataires avaient réussi à infléchir la politique gouvernementale et à éviter une nouvelle guerre fut la cause directe de l'émergence du mouvement pour le désarmement nucléaire. Les prémices de la contre-culture, incitant à la révolte et à la création d'une société alternative, ainsi que le courant idéologique de la Nouvelle Gauche influencèrent le mouvement naissant et servirent à sa diffusion dans leurs milieux, tandis que l'action collective contre les armes de destruction massive représentait une application concrète de leurs valeurs. En ce sens, le mouvement pour le désarmement nucléaire anticipait déjà la confluence du politique et du culturel qui allait caractériser l'ensemble des mouvements du cycle de contestation des longues années soixante. Son répertoire et ses cadres d'action collective, inspirés de la non-violence gandhienne, popularisèrent le sit-in et la désobéissance civile, et conférèrent une forte dimension morale aux cadres motivationnels des mouvements suivants. La créativité inhérente aux processus de diffusion transformèrent ensuite le sit-in en une kyrielle de dérivés adaptés à 491 492 Claire Mansour, Diffusion et évolution des mouvements sociaux leurs nouveaux contextes : drink-in, teach-in, work-in, think-in, kiss-in, gay-in, fish-in, phone-in ou encore bike-in pour ne citer que les principaux. La perception que le traité interdisant les essais nucléaires atmosphériques et sous-marins, signé en août 1963 par les gouvernements soviétique, américain et britannique, démontrait le succès de la mobilisation, confortant ainsi les autres groupes de militants dans leur volonté de faire entendre leurs propres revendications. Le mouvement joua un rôle précurseur au sein du cycle de contestation, signalant l'ouverture de la structure des opportunités politiques. Dans son sillage, et grâce à sa structure organisationnelle, le mouvement contre la guerre du Vietnam fit son apparition sur la scène contestataire. Parmi les associations créées spécifiquement pour défendre cette nouvelle cause, la VSC prit des positions radicales en faveur de la victoire des insurgés Vietnamiens. De ce fait, elle adopta le cadre anti-impérialiste du NLF, prônant le recours à la lutte armée pour se libérer de la domination américaine et invoquant le droit à l'autodétermination pour le peuple Vietnamien. Ce cadrage devint par la suite essentiel à la diffusion de la contestation, permettant à d'autres groupes d'individus de prendre conscience de leur propre oppression et de commencer à lutter pour leur libération. Ce faisant, le mouvement servit de catalyseur, entraînant un tournant radical dans la dynamique protestataire. De nombreux militants s'identifiaient désormais aux combattants du NLF, justifiant l'emploi de pratiques inspirées des techniques de guérilla, à l'instar des « éco-commandos », plantant illégalement des arbres pour empêcher la jungle de béton de gagner du terrain, ou de l'ALF, lançant des raids pour sauver les animaux détenus dans des centres de recherches pratiquant la vivisection. De plus, la guerre du Vietnam représentait une illustration explicite des ravages considérables produits par les pesticides, dont l'utilisation, selon les militants, s'apparentait à de véritables armes chimiques. Cette destruction délibérée de l'écosystème serait plus tard qualifiée d'« écocide », adaptation du concept de « génocide » aux dégâts environnementaux, mettant en exergue la filiation entre le mouvement contre la guerre du Vietnam et le mouvement écologiste. Conclusion Quant aux étudiants, ils avaient déjà massivement protesté lors des manifestations contre l'intervention britannique en Égypte et de la répression brutale de l'insurrection hongroise par les Soviétiques quelques jours plus tard. Le soulèvement en Hongrie avait été déclenché par des manifestations estudiantines, poussant non seulement les étudiants britanniques à exprimer leur soutien à leurs homologues d'Europe de l'Est, mais inspirant aussi les théories de certains intellectuels de la Nouvelle Gauche envisageant les étudiants comme fer de lance d'une révolte populaire. Les campagnes contre l'apartheid en Afrique du Sud et la colour bar au Royaume-Uni, dans lesquelles les étudiants furent très impliqués, trouvèrent un prolongement logique dans la mobilisation contre les discriminations à l'encontre des étudiants étrangers, permettant à son tour un recentrage sur des revendications liées à leur statut d'étudiant. Ils s'insurgèrent notamment contre les règlements paternalistes des universités, réclamant davantage d'autonomie et de participation au processus décisionnel régulant la vie universitaire. Les évènements de mai 1968 en France furent érigés en modèle, incitant les étudiants outre-Manche à forger une alliance avec les travailleurs, considérés par les groupes de la gauche radicale comme les seuls à pouvoir s'imposer comme véritable force révolutionnaire. Les liens tissés entre les militants étudiants et ouvriers servirent ensuite de canaux de diffusion à double sens, influençant les tactiques et l'idéologie des deux groupes. Les multiples occupations d'usines et d'universités étaient l'une des manifestations les plus visibles de ce phénomène. De par la politisation accrue de ses participants, le mouvement étudiant servit de vivier aux autres mobilisations. Plus encore, les sociétés étudiantes devinrent le berceau des mouvements féministes ou gay et lesbien, et certaines associations de ce type eurent par la suite un impact décisif sur l'évolution du mouvement pour les droits civiques en Irlande du Nord ou des mouvements nationalistes gallois et écossais. Sous l'influence des autres mouvements du cycle de contestation, le mouvement ouvrier élargit son champ d'action en cessant de se consacrer exclusivement à la défense des intérêts de ses membres historiques : les ouvriers 493 494 Claire Mansour, Diffusion et évolution des mouvements sociaux blancs de sexe masculin du secteur industriel. Les organisations syndicales, au départ réticentes à endosser les revendications des femmes, des homosexuels ou des immigrés, furent progressivement sensibilisées à leurs causes au cours de la période grâce à leurs mouvements respectifs. Les salariés du secteur tertiaire, et notamment des services publics, s'intégrèrent aussi peu à peu au mouvement, en adoptant les techniques et l'idéologie des travailleurs d'usines. Lorsque les intérêts des industriels et ceux du reste de la population semblaient diverger, le mouvement ouvrier fit souvent le choix de donner la priorité au bien commun, tentant de concilier obligations professionnelles et considérations éthiques. Son poids en fit le seul mouvement des longues années soixante capable de faire chuter un gouvernement, comme ce fut le cas pour le gouvernement Heath en 1974, mais aussi dans une certaine mesure du gouvernement Callaghan en 1979, grâce à la motion de défiance des nationalistes écossais. En ce sens, il exerça une pression déterminante dans les rapports de force entre les mouvements protestataires et les autorités. Ses revendications autogestionnaires s'inscrivirent dans la même tendance autonomiste que les autres mobilisations de l'époque, réclamant la participation des travailleurs aux décisions qui les concernaient directement au sein de leurs entreprises. L'innovation tactique du work-in en était une application pratique, destinée à sauver les emplois menacés, tout en permettant aux salariés de gérer eux même la production. Les populations issues de l'immigration du nouveau Commonwealth, arrivées en masse à partir de 1948, s'inspirèrent du mouvement pour les droits civiques aux États-Unis ainsi que des mouvements de libération nationale en Afrique pour lancer une campagne contre la colour bar au Royaume-Uni. Ce racisme systémique était particulièrement manifeste dans les domaines de l'emploi et du logement, mais aussi dans les lieux ouverts au public comme les restaurants et les pubs. La diffusion outre-Atlantique du Black Power conféra à cette idéologie radicale une nouvelle dimension inclusive en Grande-Bretagne, où les militants s'efforcèrent de fédérer toutes les communautés immigrées opprimées sous la même bannière. Pour les militants antiracistes, le terme Conclusion « black » devenait ainsi une identité politique afin de rassembler notamment les Antillais et, les Africains mais aussi, potentiellement, les Indo-Pakistanais, même si ces derniers étaient souvent réticents à être inclus dans cette catégorie. Les adeptes du Black Power embrassèrent également le volet culturel du cadre de pronostic préconisé par cette doctrine, destiné à transformer en profondeur la culture dominante, en éradiquant les préjugés racistes et en changeant l'image dévalorisante de ces populations au sein de la société britannique. Cette solution se révéla déterminante pour tous les mouvements aux revendications identitaires des longues années soixante, soit les mouvements féministes, gay et lesbien, mais aussi les mouvements nationalistes. Pour que l'émancipation de ces groupes soit complète, leurs membres devaient se rendre compte qu'ils avaient intériorisé la vision dégradante et stéréotypée de la culture dominante. Cette prise de conscience leur permettait ensuite d'avoir davantage confiance en eux et d'éprouver un sentiment de fierté quant à leur identité. La présence d'un nombre croissant d'immigrés et leurs efforts pour défendre leurs droits suscitèrent un courant réactionnaire au sein d'une certaine frange de la population autochtone, aboutissant à la montée de l'extrême droite. Ces circonstances permirent une convergence des luttes des groupes antiracistes et des antifascistes de la gauche radicale, avec, entre autres, l'organisation des gigantesques concerts Rock Against Racism – initiative bientôt reprise par les collectifs de féministes qui lancèrent Rock Against Sexism –participant ainsi à l'évolution progressive des mentalités. La deuxième vague de féminisme prit forme à l'intérieur des principaux mouvements contestataires, en réaction au sexisme ambiant. En partageant leurs expériences personnelles, les militantes constatèrent le caractère systémique de leur oppression au sein de la société patriarcale. À partir des cadrages antiimpérialistes et du Black Power, elles élaborèrent un nouveau cadre motivationnel résumé par le slogan « The personal is political ». En permettant une prise de conscience individuelle des femmes au sein de petits groupes de sensibilisation, elles pouvaient ensuite s'engager dans la lutte pour leur libération et contre le sexisme inhérent à la culture dominante. Cette articulation entre sphères privée et 495 496 Claire Mansour, Diffusion et évolution des mouvements sociaux publique allait devenir un enjeu central du mouvement gay et lesbien. Les féministes dénoncèrent également les effets pervers de la « révolution sexuelle », bénéficiant principalement aux hommes hétérosexuels, mais renforçant au contraire l'objectification du corps des femmes dans les médias et la publicité. Elles créèrent leurs propres institutions alternatives, les women's centres, afin de venir en aide aux femmes à l'échelle locale, par exemple en fournissant des informations sur les méthodes contraceptives, ou en hébergeant les femmes victimes de violence, mais aussi en proposant plus généralement toutes sortes d'activités politiques, sociales et culturelles. Le concept donna ensuite naissance au gay centres, remplissant un rôle similaire auprès des communautés gay. L'évolution du mouvement homosexuel en mouvement de libération gay fut une conséquence directe du voyage des fondateurs du premier GLF britannique aux États-Unis. Les liens personnels entre les militants des deux pays permirent la diffusion des GLF, de leurs cadres et de leurs tactiques. À travers l'acte symbolique du coming out, les membres de ces groupes radicaux clamaient leur homosexualité haut et fort, revendiquant leur orientation sexuelle comme une identité politique. En rendant public ce qui relevait auparavant exclusivement du domaine privé, les militants donnaient un sens nouveau au cadre motivationnel des féministes. La Gay Pride incarnait ce sentiment de fierté fraîchement acquise. Cette forme d'action directe performative représentait l'aboutissement des transformations culturelles prônées par les mouvements identitaires précédents. De plus, le style provocateur et festif des organisations militantes gay déteignit sur les autres mouvements de la période, qu'il s'agisse des actions contre le racisme, contre les violences faites aux femmes, ou encore des bike-ins des écologistes. Les mouvements de la première génération du cycle de contestation s'avérèrent déterminants dans l'émergence du mouvement pour les droits civiques en Irlande du Nord. Ils contribuèrent, pendant un temps, à détourner la population des clivages politiques et religieux historiques. La participation des principales organisations religieuses au mouvement pour le désarmement 497 Conclusion nucléaire reflétait un nouvel esprit de tolérance et de coopération entre les principales confessions, tandis que le mouvement ouvrier essayait de forger une alliance de classe sociale entre catholiques et protestants. Les militants du mouvement pour les droits civiques en Irlande du Nord avaient choisi d'adopter les cadres et le répertoire du mouvement des noirs américains afin de se démarquer des traditions militantes nationalistes et unionistes, revendiquant précisément les caractères non-violent et inclusif de leur mobilisation. Du fait de leur lutte contre les discriminations religieuses, ils suscitèrent l'hostilité des unionistes extrémistes et des fondamentalistes protestants, s'opposant farouchement à toute remise en question du système de domination unioniste. Les tensions entre les communautés dégénérèrent finalement en conflit armé, et le gouvernement britannique envoya les troupes pour tenter de ramener le calme. En Grande-Bretagne, les militants de la gauche radicale eurent recours au cadre anti-impérialiste hérité de l'opposition à la guerre du Vietnam afin de rallier l'opinion en faveur de l'autodétermination des Nord-Irlandais. En réaction au lourd bilan humain, un mouvement pacifiste s'évertua à mettre fin aux violences des groupes paramilitaires républicains et loyalistes, tandis que le gouvernement britannique prenait des mesures de plus en plus répressives afin de lutter contre le terrorisme, qui allaient nuire à l'ensemble des mouvements contestataires de la période. La résurgence des mouvements nationalistes gallois et écossais pendant les longues années soixante fut façonnée par les autres mouvements de cette époque. Leurs interactions les entraînèrent tous deux dans une dynamique propre, où les avancées de l'un émulaient les revendications de l'autre. Leurs demandes d'autonomie politique et l'affirmation de leurs identités nationales s'exprimèrent à travers de nouveaux cadres, librement adaptés de l'anti-impérialisme et du Black Power, condamnant notamment la gestion coloniale des territoires par l'Angleterre et la dépendance psychologique des Gallois et des Écossais au gouvernement central. Les liens historiques avec le mouvement nationaliste irlandais favorisèrent également la diffusion de son idéologie et de ses tactiques, soulignant 498 Claire Mansour, Diffusion et évolution des mouvements sociaux les origines celtes des Gallois et des Écossais afin de les démarquer des Anglais. Le mouvement ouvrier contribua à son tour à légitimer les aspirations au changement de système politique afin de prendre en compte les problèmes économiques spécifiques des nations galloises et écossaises, qui se sentaient lésées par la gestion du gouvernement central. Le projet de dévolution proposant la création d'institutions autonomes en Écosse et au pays de Galles visait à rapprocher le centre du pouvoir des habitants de ces nations, leur donnant plus de contrôle sur les décisions qui les concernaient directement. Cette gestion à l'échelle locale, tenant compte des particularités des territoires et de leurs ressources était également une demande phare du mouvement écologiste, avec lequel des alliances furent formées sur le terrain. Enfin, le mouvement écologiste émergea comme une forme de synthèse des mouvements des longues années soixante. La formulation et l'étendue du champ de ses revendications étaient la résultante de la transposition des cadres des mouvements précédents à l'environnement. Son cadre motivationnel alarmiste, inspiré du mouvement pour le désarmement nucléaire, insistait sur l'urgence d'agir pour sauver l'espèce humaine de la catastrophe que constituerait la destruction de son écosystème, tout en soulignant la dimension morale de ce combat. Les demandes de traitement égalitaire à l'égard des espèces animales et de leur libération de l'exploitation humaine, ou encore la domination de la voiture en milieu urbain et l'oppression des cyclistes avaient été adaptées des cadres antiimpérialiste et antiraciste. Les pratiques d'éco-guérilla ou le bike-in reflétaient explicitement la même filiation. Ces origines composites expliquaient également les nombreuses convergences entre le mouvement écologiste et les autres mouvements de l'époque, visibles, entre autres, dans les appels à rendre l'accès à la contraception et à l'avortement libre et gratuit afin de limiter la croissance démographique, le soutien à la dévolution afin de mieux gérer les ressources naturelles à l'échelle locale, mais aussi dans l'articulation du lien entre les utilisations militaires et civiles de l'énergie nucléaire. La mobilisation contre les centrales nucléaires permit d'ailleurs de revivifier la CND, engendrant un 499 Conclusion nouveau mouvement pour le désarmement nucléaire, au moment où une part grandissante du budget du gouvernement était redirigée pour accroître la puissance de frappe des armes de destruction massive. Ce mouvement amorça à son tour un nouveau cycle, dans un contexte politique radicalement différent de celui des longues années soixante. Si les militants impliqués dans les mouvements sociaux de cette époque ne parvinrent pas à provoquer la révolution que nombre d'entre eux espéraient, ils réussirent néanmoins à faire advenir de profonds changements sociétaux. L'impact du cycle de contestation ne se limitait pas aux nombreuses avancées législatives, mais contribua à faire progressivement évoluer les mentalités et les comportements individuels. En cela, les mouvements sociaux des longues années soixante transformèrent les relations humaines et la culture dominante au sein de la société britannique, les rendant plus égalitaires et plus libérales, au sens anglosaxon du terme. Cependant, ils déclenchèrent aussi un retour de flammes conservateur qui limita la portée de ces évolutions. Les réformes néolibérales du gouvernement Thatcher s'accompagnaient également de transformations culturelles, légitimant le désengagement de l'État. Dans un entretien au Sunday Times en mai 1981, la Première ministre expliquait la dualité de son approche : What's irritated me about the whole direction of politics in the last 30 years is that it's always been towards the collectivist society. People have forgotten about the personal society. And they say: do I count, do I matter? To which the short answer is, yes. And therefore, it isn't that I set out on economic policies; it's that I set out really to change the approach, and changing the economics is the means of changing that approach. If you change the approach you really are after the heart and soul of the nation. Economics are the method; the object is to change the heart and soul.1491 Margaret Thatcher entendait donc saper les principes fondateurs du Welfare State pour instaurer un nouvel ordre social, affirmant l'avènement du 1491 Margaret THATCHER, « Interview for Sunday Times », 3 mai 1981, Margaret Thatcher Foundation [en ligne], [consulté le 17 juin 2018], disponible à l'adresse suivante : <https://www.margaretthatcher.org/document/104475 >. 500 Claire Mansour, Diffusion et évolution des mouvements sociaux primat de l'individu sur la collectivité. Ses discours méritocratiques sousentendaient par exemple que le chômage ou la pauvreté n'étaient plus le fait d'un problème structurel, mais plutôt le symptôme d'un échec personnel. Au sein de ce climat politique, il allait devenir très difficile pour les militants de faire entendre leurs revendications. Les acquis du cycle de contestation des longues années soixante continuèrent pourtant d'inspirer d'autres groupes de protestataires, laissés-pourcompte des mouvements précédents. Les prisonniers et les personnes en situation de handicap avaient commencé à se mobiliser dans les années 1970, adaptant à leur tour les cadres et le répertoire d'action collective en vogue. Les nombreuses incarcérations de militants suite à des actes de désobéissance civile au cours de la période étudiée avait permis d'attirer l'attention des médias sur les conditions de détention dans les prisons au Royaume-Uni. Leurs témoignages choquants faisaient état de mauvais traitements de la part du personnel pénitentiaire et de conditions sanitaires déplorables 1492. La présence des militants dans les établissements carcéraux facilita les processus de diffusion grâce à la création de liens relationnels. En août 1972, 6000 prisonniers dispersés à travers le pays participèrent à des sit-ins dans leurs cours de promenade, pour demander un ensemble de droits, parmi lesquels le droit d'appartenir à une organisation syndicale, de recevoir un salaire décent pour leur travail ou encore d'avoir accès à des équipements éducatifs 1493. Ils créèrent l'organisation Preservation of the Rights of Prisoners pour défendre leurs intérêts, à la manière d'un syndicat, à travers le recours aux grèves et aux pratiques contestataires non-violentes 1494. Quant aux personnes en situation de handicap, elles se considéraient également comme un groupe opprimé, et s'inspirèrent des cadres anti-impérialistes, antiracistes, féministes et gay pour oeuvrer à l'amélioration de leur sort. L'association People 1492 « Brixton prison attacked: 'dirty, wasteful, inhuman' », Peace News, 6 octobre 1967, pp. 1, 12. « From Dartmoor to the Albany: 6,000 sit-in », Peace News, 11 août 1972, p. 7. 1494 « About time too! », Peace News, 1 septembre 1972, p. 1. 1493 Conclusion with Disabilities Liberation Front, formée en 1976, dénonçait les stéréotypes dégradants dont les personnes handicapées étaient victimes et insistait sur la dimension politique de leur situation personnelle. Ses militants appelaient avant tout les sujets placés dans des institutions spécialisées à en sortir, à faire leur coming out et à réintégrer la société 1495. Les efforts des prisonniers et des personnes handicapées pour se mobiliser deviendraient plus soutenus dans la décennie suivante, lors du prochain cycle de contestation 1496. En ce sens, la diffusion des mouvements des longues années soixante exacerba leur impact, en permettant à d'autres groupes de commencer à leur tour à lutter, accroissant l'ampleur de la contestation par le biais d'un effet boule de neige. Arthur Marwick parle ainsi de « révolution culturelle » pour souligner l'envergure des transformations sociétales dans les pays occidentaux de son étude, la France, l'Italie, les États-Unis et le Royaume-Uni, tous traversés par d'importants mouvements protestataires. Selon lui, non seulement ces bouleversements concernaient la vie quotidienne de millions d'individus, mais leur simultanéité et l'étendue de leur champ d'action justifiaient l'emploi du terme de « révolution ». La singularité des longues années soixante ne résidait donc pas dans la dimension novatrice des revendications portées par les mouvements sociaux ayant marqué l'époque, mais plutôt dans l'intensité des phénomènes : « It is important not to exaggerate the extent of change, or its novelty. [] what was new was that so many things happened at once »1497. Ainsi, le développement des médias de masse, de la presse alternative et militante ainsi que les progrès technologiques dans les moyens de transports facilitant les déplacements personnels, constituèrent des canaux de diffusion particulièrement efficaces, permettant d'impulser une dynamique au rythme soutenu à l'évolution de la contestation dans les longues années soixante. 1495 « Crippled words », Peace News, 3 décembre 1976, p. 5. « People with disabilities and state dependency », Peace News, 3 décembre1976, p. 6. 1496 Adam LENT, op. cit., p. 108. 1497 Arthur MARWICK, op. cit., p. 803. 501 502 Claire Mansour, Diffusion et évolution des mouvements sociaux De plus, l'analyse des phénomènes de diffusion transnationaux démontre que des tendances similaires sont à l'oeuvre entre les différents pays qui connurent des cycles contestataires durant cette période. Le rayonnement culturel des États-Unis ne doit pas éclipser la contribution du Royaume-Uni dans la dynamique protestataire internationale. Le mouvement pour le désarmement nucléaire britannique fut, par exemple, une source d'inspiration pour les militants du mouvement pour les droits civiques, qui influença ensuite à son tour la plupart des autres mouvements de l'époque. L'emblématique marche sur Washington de 1963, organisée à l'initiative de Bayard Rustin, était, selon ses dires, le fruit de sa participation à la marche de Pâques de 1958 de Londres à Aldermaston. Cette étude étant centrée sur le Royaume-Uni, elle s'est concentrée en priorité sur les phénomènes de diffusion expliquant l'évolution de la contestation au sein de ce cadre national, mais il pourrait être opportun, à l'avenir, de se pencher sur les cas où, inversement, les mouvements britanniques ont influencé les militants d'autres pays. L'étude diachronique de mouvements sociaux comparables, (par exemple, les mouvements étudiants des années 1960 et du début des années 2010) déjà esquissée dans certains travaux de recherche, constitue une autre piste féconde. 4. BIBLIOGRAPHIE • 503 • Bibliographie 4.1. SOURCES PRIMAIRES 4.1.1. Articles de presse classés par ordre chronologique Avant 1956 « Dirty Rivers », The Times, 17 novembre 1950, p. 5. « News in brief », The Times, 12 janvier 1952, p. 3. « Scottish Republican Army Threats continue », The Glasgow Herald, 25 mars 1953, p. 7. 1956 « Opposition to British H-test grows », Peace News, 20 janvier 1956, p. 1. « Report on the Welsh Nationalist I: Welsh Nationalism and peace », Peace News, 20 janvier 1956, pp. 2, 6. « The Plight of England's first colony », Peace News, 4 février 1956, p. 4. « Report on the Welsh Nationalists IV: Toward a co-operative democracy », Peace News, 17 février 1956, p. 4. « To help Britain beat the colour bar », Peace News, 17 février 1956, p. 1. « Report on the Welsh Nationalists V: Plaid Cymru looks to the future », Peace News, 24 février 1956, p. 4. « Seizure of Welsh valley protest », Peace News, 30 mars 1956, p. 3. « H-dust peril: popular press plays down warning », Peace News, 15 juin 1956, p. 1. « Hiroshima: August 6 1945 – 1956 », Peace News, 3 août 1956, p. 1. « Taking Peace News to the homes of Britain », Peace News, 10 août 1956, p. 1. « Suez: A big 'no' to armed force », Peace News, 14 septembre 1956, p. 1. « End gunboat diplomacy », Peace News, 21 septembre 1956, p. 1. « 4,000 pledge defence of Welsh valley », Peace News, 12 octobre 1956, pp. 1, 7. « Rising protests on H-bomb tests », Peace News, 26 octobre 1956, p. 8. « Repudiate this madness now », Peace News, 2 novembre 1956, p. 1. « LSE condemns government », The Beaver, 8 novembre 1956, p.1. « Storming the Suez », The Beaver, 8 novembre 1956, p.2. « What is this thing called law », The Beaver, 8 novembre 1956, p. 1. « Britain commits aggression », Peace News, 9 novembre 1956, p. 8. « Sunday night », Peace News, 9 novembre, 1956, p. 8. « Violent scenes over Suez », The Glasgow University Guardian, 9 novembre 1956, p. 4. « Students form army », The Beaver, 22 novembre 1956, p.1. « Hungarian students to study in Scotland », The Gilmorehill Guardian, 23 novembre 1956, p. 1. « The effects of nuclear explosions », Peace News, 23 novembre 1956, p. 5. 505 506 Claire Mansour, Diffusion et évolution des mouvements sociaux « We mourn Hungary », Union News, 23 novembre, 1956, p. 1. « A break in the colour bar », Peace News, 28 décembre 1956, p. 8. « Great questions for 1957 », Peace News, 28 décembre 1956, p. 2. 1957 « Disillusioned Communist », Peace News, 11 janvier 1957, p. 3. « Non-violent action in Northern Rhodesia », Peace News, 18 janvier 1957, p. 6. « Africans begin first phase of non-violent campaign », Peace News, 25 janvier 1957, p. 6. « 'Scrap Arms' March: Now is the time to do it – Dr. Soper », Peace News, 1er février 1957, p. 1. « African matters », The Gilmorehill Guardian, 15 février 1957, p. 3. « Stop the H-Tests », Peace News, 22 février 1957, pp. 1, 6. « Universities reject Apartheid », The Gilmorehill Guardian, 22 février 1957, p. 3. « Ghana », Peace News, 1er mars 1957, p. 2, 6. « New moves to halt tests », Peace News, 1er mars 1957, p. 1. « Freedom through non-violence », Peace News, 8 mars 1957, p. 1. « March on South Africa House », The Beaver, 14 mars 1957, p. 1. « Colonial Africa's mood today », Peace News, 5 avril 1957, p. 2. « A Cruel piece of deception », Peace News, 12 avril 1957, p. 1. « Direct Action Committee Against Nuclear War », Peace News, 12 avril 1957, p. 1. « Disarmament : Make this our defence policy », Peace News, 12 avril 1957, p. 1. « Public opinion effective in stopping the Suez War can halt the H-tests », Peace News, 18 avril 1957, p. 1. « Six questions to Russia », Peace News, 18 avril 1957, p. 1. « Fallout », Peace News, 8 mai 1959, p. 4. « Vigil of women at Westminster », Peace News, 10 mai 1957, p. 1. « Harold Steele: Why I am going to the Pacific », Peace News, 17 mai 1957, p. 7. « H-bomb test: women's protest march », Peace News, 17 mai 1957, p. 6. « H-tests: 'The public can stop this immorality'», Peace News, 17 mai 1957, p. 1. « Frustrated orators », The Beaver, 23 mai 1957, p. 2. « Further accusations on College authorities », The Beaver, 23 mai 1957, p. 1. « Britain 'Great' again! », Peace News, 24 mai 1957, p. 4. « Don't wait for America or Russia – Canon Collins », Peace News, 24 mai 1957, p. 1. « H-Bomb test brings renewed protests », Peace News, 24 mai 1957, p. 5. « Weapon of suicide not diplomacy », Peace News, 24 mai 1957, p. 5. « Disastrous to Welsh way of life », Peace News, 7 juin 1957, p. 3. « Mounting H-protests », Peace News, 14 juin 1957, p. 2. « Record of nuclear explosions », Peace News, 5 juillet 1957, p. 7. « 'Something every town and village should do' », Peace News, 5 juillet 1957, p. 7. « Indian independence: the message of non-violence spreads », Peace News, 16 juillet 1957, p. 5. « Bomb test opponent's mission failed », The Times, 5 août 1957, p. 4. « Eleven against the bomb defy law – arrested in Nevada test area », Peace News, 9 août 1957, p. 1. Bibliographie « Arch Druid heads H-bomb petition », Peace News, 16 août 1957, p. 8. « Fight for Tryweryn must go on », Peace News, 16 août 1957, p. 5. « Leukaemia and Radiation », Peace News, 16 août 1957, p. 3. « Students say no », The Beaver, 31 octobre 1957, p. 3. 1958 « Campaign for nuclear disarmament launched in London », Peace News, 31 janvier 1958, p. 1. « Mahatma Gandhi lives on in America: "More than any person in history" – Martin Luther King », Peace News, 31 janvier 1958, p. 2. « All-Wales campaign against nuclear weapons », Peace News, 7 mars 1958, p. 2. « Undergraduates campaign on H-bomb », Peace News, 7 mars 1958, p. 11. « LSE H-bomb campaign », The Beaver, 13 mars 1958, p. 1. « Whisky A'Gogo ? », The Beaver, 13 mars 1958, p. 1. « Campaign news in brief », Peace News, 21 mars 1958, p. 3. « Oxford's Stop H-Bomb Campaign », Peace News, 21 mars 1958, p. 3. « Labour gains in North », The Irish Democrat, avril 1958, p. 8. « Aldermaston 1959 », Peace News, 3 avril 1959, p. 5. « H-bomb protest march begins », The Times, 5 avril 1958, p 14. « "A wide alliance" on the march to Aldermaston », The Times, 5 avril 1958, p. 6. « Scuffles as marchers reach Aldermaston », The Times, 8 avril 1958, p. 8. « Aldermaston: It's only the beginning », Peace News, 11 avril 1958, p. 1, 8. « Scottish campaign against the bomb », Peace News, 15 avril 1958, p. 3. « Aldermaston rallies », Peace News, 18 avril 1958, p. 7. « Aldermaston vigillers asked to see Penney », Peace News, 18 avril 1958, p. 1. « The Good Friday meeting in Trafalgar Sq. », Peace News, 18 avril 1958, p. 6. « Students and the bomb », Peace News, 2 mai 1958, p. 6. « Golden Rule seized and crew arrested », Peace News, 9 mai 1958, p. 1. « March on H-base », Peace News, 9 mai 1958, p. 8. « Students and the bomb », Peace News, 9 mai 1958, pp. 1, 8. « Strike against mass murder », Peace News, 16 mai 1958, p. 10. « The Campaign in Northern Ireland», Peace News, 22 mai 1958, p. 2. « "Golden Rule" to sail again », Peace News, 6 juin 1958, p. 1. « "No victory without action": PN staffman at Brize Norton », Peace News, 6 juin 1958, p. 3. « The rising tide of protest », Peace News, 6 juin 1958 p. 2. « Greatest fight since '26 strike and we can win it! », Strike Bulletin: Supplement to the Newsletter, 14 juin 1958, pp. 1-2. « 140-mile marchers », Peace News, 4 juillet 1958, p. 8. « Return to Aldermaston », Peace News, 4 juillet 1958, p. 1. « 'Women against the bomb' », Peace News, 4 juillet 1958, pp. 1, 8. « Aldermaston: appeal to workers », Peace News, 18 juillet 1958, p. 1. « In camp at Aldermaston », Peace News, 25 juillet 1958, p. 1. 507 508 Claire Mansour, Diffusion et évolution des mouvements sociaux « Aldermaston: workers risk jobs to sign petition », Peace News, 22 août 1958, p. 1. « Missile base protesters jailed: Cheyenne resistance continues », Peace News, 29 août 1958, p. 1. « Did H-tests kill this sailor? », Peace News, 5 septembre 1958, p. 1. « Notting Hill as I saw it », Peace News, 5 septembre 1958, p. 1. « From Chicago to Notting Hill », Peace News, 12 septembre 1958, p. 8. « On the street where you live », Peace News, 12 septembre 1958, p. 2. « Notting Hill and the infection of violence », Peace News, 12 septembre 1958, p. 5. « Race Riots », The Daily Mirror, 16 septembre 1958, p. 1. « Atomic Dust in Wales », Peace News, 19 septembre 1958, p. 8. « Aldermaston: Unique experiment comes to a close », Peace News, 2 octobre 1958, p. 3. « Towards reconciliation », Peace News, 17 octobre 1958, pp. 2-3. « Second rocket base struggle », The Times, 8 décembre 1958, p. 10. « To see women MPs about H-test danger », Peace News, 12 décembre 1958, p. 8. « What really happened at the rocket site », Peace News, 12 décembre 1958, p. 1. « Some lessons from Swaffham », Peace News, 19 décembre 1958, p. 1. « Victory at Accra: a step towards a free Africa », Peace News, 26 décembre 1958, p. 7. « Rocket marchers plead the "Gandhi tradition" », The Times, 30 décembre 1958, p. 3. 1959 « Swaffham: 37 face jail », Peace News, 2 janvier 1959, p. 1. « Swaffham hit the headlines », Peace News, 9 janvier 1959, p. 3. « Forward the Ossianic », The Glasgow University Guardian, 23 janvier 1959, p. 1. « Desegregation », Peace News, 13 février 1959, p. 3. « People and places: desegregation means hard work », Peace News, 13 février 1959, p. 3. « Evolution of the Aldermaston resistance », Peace News, supplément de février 1959. « In the square after all », Peace News, 20 mars 1959, p. 1. « The new vitality », Peace News, 27 mars 1959, p. 8. « The Aldermaston Charter: End the risk of total war », Peace News, 3 avril 1959, p. 1. « Taking Gandhi to India », Peace News, 3 avril 1959, p. 3. « Britain's first strike against H-bomb », The Newsletter, 11 avril 1959, pp. 107, 114. « The Socialist Labour League looks to the future », The Newsletter, 11 avril 1959, p. 108. « New town strike against bomb », Peace News, 17 avril 1959, p. 10. « Irish Trade Union Unity », The Irish Democrat, mai 1959, pp. 2, 7. « May Day », Peace News, 8 mai 1959, p. 4. « Rocket base action in Dortmund », Peace News, 3 juillet 1959, p. 8. « African boycott wins support », Peace News, 17 juillet 1959, p. 8. « Africa prepares to support boycott », Peace News, 31 juillet 1959, p. 3. « Direct action in Denmark and Germany: dockside campaign against missiles », Peace News, 14 août 1959, p. 1. « Labour's cuckoo in the nest », The Times, 15 août 1959, p. 7. Bibliographie « Workers quit at rocket base site », Peace News, 17 août 1959, p. 10. « The week opens », Peace News, 18 septembre 1959, pp. 7-8. « A call to Africans », Peace News, 23 octobre 1959, p. 1. « French tests: protest team meets in Ghana », Peace News, 23 octobre 1959, p. 1. « Nkrumah opposes tests in 'the homeland of innocent Africans' », Peace News, 23 octobre 1959, p. 1. « Industrial campaigns made direct challenge », Peace News, 28 octobre 1960, p. 2. « Unity can defeat rising racial tensions », The West Indian Gazette, novembre 1959, p. 2. « Ghanaians volunteer for A-protest team », Peace News, 13 novembre 1959, p. 1. « Sahara team held at border », Peace News, 18 novembre 1959, p. 1. « Letters to the editor », The Glasgow University Guardian, 20 novembre 1959, p. 2. « Oxford march », Peace News, 27 novembre 1959, p. 12. « Sahara protest: meeting the people », Peace News, 27 novembre 1959, p. 1, 8. « United Ghana backs Sahara protest », Peace News, 27 novembre 1959, p. 1. « More bigotry in Belfast », The Irish Democrat, décembre 1959, pp. 1, 3. « Oxford march », Peace News, 4 décembre 1959, p. 1. « Thousands of Africans at A-protest team send-off », Peace News, 11 décembre 1959, p. 8. 1960 « Caribbean Carnival Bal », The West Indian Gazette, janvier 1960, p. 1. « Sahara protest team 'virtually under arrest' », Peace News, 1er janvier 1960, p. 8. « The New Left », Peace News, 29 janvier 1960, p. 2. « No colour bar », The Glasgow University Guardian, 12 février 1960, p. 2. « Lunch-counter protests are snowballing », Peace News, 4 mars 1960, p. 5. « Negroes: mass direct action », Peace News, 25 mars 1960, p. 1. « Sunday protest against South African shootings », Peace News, 25 mars 1960, p. 8. « Boycott will continue », Peace News, 1er avril 1960, p. 8. « The campaign against apartheid », Peace News, 1er avril 1960, p. 1. « Let Britain lead », Peace News, 15 avril 1960, p. 1. « 60,000 in bomb protest demonstration », The Times, 19 avril 1960, p. 10. « On from Aldermaston », Peace News, 22 avril 1960, p. 1. « Irish at Aldermaston », The Irish Democrat, mai 1960, p. 7. « Few students on the march », The Glasgow University Guardian, 13 mai 1960, p. 1. « Unions vote for unilateralism », Peace News, 13 mai1960, p. 12. « 3,000 on Scots' Aldermaston », Peace News, 20 mai 1960, p. 3. « Freedom Africa's Right », The West Indian Gazette, juin 1960, p. 4. « Race bar », The Beaver, 16 juin 1960, p. 1. « Stand up and be counted », The Spectator, 24 juin 1960, pp. 3-4. « So sorry, no coloured, no children », The West Indian Gazette, août 1960, p. 5. « County Council lead agaisnt civil defence contribution », Peace News, 5 août 1960, p. 9. « The Beat Generation - I », Peace News, 12 août 1960, p. 5. 509 510 Claire Mansour, Diffusion et évolution des mouvements sociaux «West Indian house owner attacked », The West Indian Gazette, septembre 1960, p. 1. « The roots of Beatness: The Beat Generation - II », Peace News, 9 septembre 1960, p. 5. « Facts behind the call for civil disobedience », Peace News, 7 octobre 1960, p. 1. « Plans to consolidate the victory », Peace News, 14 octobre 1960, p. 1. « Ban-the-bomb campaigners meet RAF at base », Peace News, 21 octobre 1960, p. 12. « Polaris base: 'Scotland seething with opposition' – Emrys Hughes, MP », Peace News, 11 novembre 1960, p. 1. « How we boarded Polaris submarines », Peace News, 18 novembre 1960, pp. 1, 12. « News in brief », The Times, 23 novembre 1960, p. 9. « Polaris base on Holy Loch: 'We work unceasingly for its withdrawal' – Glasgow marchers », Peace News, 25 novembre 1960, p. 12. « Anglo-Indian barred », The West Indian Gazette, décembre 1960, p. 1. « Brookeborough wants Polaris », The Irish Democrat, décembre 1960, p. 1. « Polaris danger », The Irish Democrat, décembre 1960, p. 2. « Ten years ago: 'The tale of the wee magic stane' », The Glasgow University Guardian, 9 décembre 1960, pp. 4-5. 1961 « And in Northern Ireland », Peace News, 24 février 1961, p. 5. « Glasgow's big day », Peace News, 24 février 1961, p. 12. « Aldermaston '61: 1,500 overseas marchers coming », Peace News, 10 mars 1961, p. 1. « Dublin's first 'Aldermaston'», Peace News, 10 mars 1961, p. 5. « Is it revolution we're after? », Peace News, 10 mars 1961, p. 9. « Scots rally at the Holy Loch », Peace News, 10 mars 1961, p. 12. « There's room for all », Peace News, 10 mars 1961, p. 7. « Who is the minority, Mr. Gaitskell? », Peace News, 10 mars 1961, p. 1. « Labour's Lord Salisburys », Peace News, 17 mars 1961, p. 1. « Holy Loch action », Peace News, 17 mars 1961, p. 7. « Ireland conference on reconciliation », Peace News, 24 mars 1961, p. 3. « March to Holy Loch starts on Monday », Peace News, 31 mars 1961, p. 10. « Three board sub in the Holy Loch », Peace News, 31 mars 1961, p. 9. « Ladbroke Grove pub colour bar », The West Indian Gazette, avril 1961, p. 1. « 'We want work' strike shakes Belfast », The Irish Democrat, avril 1961, p. 8. « Brotherhood, not bombs », Peace News, 7 avril 1961, p. 1. « This was Easter 1961 », Peace News, 7 avril 1961, pp. 5-6. « Easter abroad », Peace News, 14 avril 1961, pp. 5, 6. « A question of leadership », Peace News, 19 avril 1963, p. 4. « How we boarded the Proteus », Peace News, 21 avril 1961, p. 12. « Brotherhood not bombs », Peace News, supplément d'avril 1961, pp. 1-4. « Unemployed demonstrate in Belfast », The Irish Democrat, mai 1961, p. 8. « From the War Office to Aldermaston », Peace News, 5 mai 1961, p. 6. Bibliographie « May Day », Peace News, 8 mai 1959, p. 4. « From Aldermaston to Christmas Island », Peace News, 12 mai 1961, p. 6. « Whitsun at the Holy Loch », Peace News, 12 mai 1961, p. 1. « Principles, strategy and tactics at the Holy Loch », Peace News, 26 mai 1961, p. 4. « Belfast CND demonstration », The Irish Democrat, juin 1961, p. 1. « The ND symbol », Peace News, 2 juin 1961, p. 6. « The organisation that launched the march to Moscow », Peace News, 2 juin 1961, p. 2. « Towards a more serious movement », Peace News, 2 juin 1961, pp. 4-5. « U.S.-Moscow walkers at Aldermaston », Peace News, 9 juin 1961, p. 1. « 142 arrested at Holy Loch », Peace News, 15 juin 1961, p. 12. « New bombs for Labour », International Socialism, 5, été 1961, p. 1. « Discrimination in Britain », The Irish Democrat, juillet 1961, p. 8. « Ireland one country banner has crossed England », The Irish Democrat, juillet 1961, p. 1. « Probe "top people's" railway colour bar », The West Indian Gazette, juillet 1961, p. 1. « Storm over a Belfast handbill », The Irish Democrat, juillet 1961, p. 1. « African leaders in profile – I: Kenneth Kaunda », Peace News, 7 juillet 1961, p. 7. « Kaunda launches non-violent campaign for self-government », Peace News, 14 juillet 1961, p. 1. « Now the North will hear too », The Irish Democrat, août 1961, pp. 4-5, 8. « Nottingham 1961 », The West Indian Gazette, septembre 1961, p. 8. « Action at the Holy Loch », Peace News, 8 septembre 1961, pp. 5-8. « 1,314 arrests in Trafalgar Square disorders », The Times, 18 septembre 1961, p. 10. « London and Holy Loch postscript », Peace News, 22 septembre 1961, p. 11. « The Phoenix sails again to Vladivostok », Peace News, 22 septembre 1961, p. 12. « Police violence », Peace News, 29 septembre 1961, p. 12. « For a weekly WIG », The West Indian Gazette, octobre1961, p. 4. « Working out direct democracy », Peace News, 6 octobre 1961, p. 5. « Unilateralists in the Red Square », Peace News, 6 octobre 1961, p. 10. « Dr. John », The Glasgow University Guardian, 27 octobre 1961, p. 6. « Nationalism in Scotland today: 'Where do we go from here?'», The Glasgow University Guardian, 27 octobre 1961, p. 4. « Letter about the Irish CND », The Irish Democrat, novembre 1961, p. 2. « New mortgage company open for deposits », The West Indian Gazette, novembre 1961, p. 13. « Total integration », The West Indian Gazette, novembre 1961, p. 1. « Bradford march », The West Indian Gazette, décembre 1961, p. 1. « Further actions », Peace News, 15 décembre 1961, pp. 10-11. 1962 « Police accused of violence », The West Indian Gazette, janvier 1962, p. 5. « Clear road for Glasgow sit-down », Peace News, 19 janvier 1962, p. 12. « This women's meeting was different », Peace News, 19 janvier 1962, p. 8. 511 512 Claire Mansour, Diffusion et évolution des mouvements sociaux « Ireland: North and South agree », Peace News, 26 janvier 1962, p. 12. « Anti-colour Bill Lobby – February 13 », The West Indian Gazette, février 1962, p. 1. « No colour bar on immigration march », The West Indian Gazette, février 1962, p. 16. « Prison for six members of Committee of 100 », The Times, 21 février 1962, p. 6. « Scottish Nationalists in conference », The Glasgow University Guardian, 23 février 1962, p. 1. « The verdict is guilty, but has Regina won? », Peace News, 23 février 1962, p. 1. « A mobilisation of spirit », Peace News, 2 mars 1962, p. 2. « Wanted a movement for women against the bomb », Peace News, 2 mars 1962, pp. 6-7. « Editorial », Young Guard, 7 mars 1962, p. 2. « Protest spreads throughout Britain », Peace News, 9 mars 1962, p. 12. « The twenty megaton bomb », Peace News, 30 mars 1962, p. 1. « Discrimination – law of Six-County life », The Irish Democrat, avril 1962, pp. 6-7. « We probe occupied Ireland », The Irish Democrat, avril 1962, p. 1. « Women fly to Geneva », Peace News, 6 avril 1962, p. 3. « The international movement », Peace News, 20 avril 1962, p. 3. « From Hyde Park to Grosvenor Square », Peace News, 27 avril 1962, pp. 6-7. « The marchers », Peace News, 27 avril 1962, p. 5. « Dublin in Belfast CND procession », The Irish Democrat, mai 1962, p. 5. « MCF condemns Stormont », The Irish Democrat, mai 1962, p. 1. « New moves to free last prisoners », The Irish Democrat, mai 1962, p. 2. « The Irish Freedom march », The Irish Democrat, mai 1962, pp. 2, 8. « 700 strike against tests », Peace News, 18 mai 1962, p. 12. « 'Member for the colonies' to speak », The Irish Democrat, juin 1962, p. 1. « Six-County elections », The Irish Democrat, juin 1962, p. 2. « Alan Clayton: why I resigned from CND », Peace News, 1er juin 1962, p. 8. « Colour bar act emboldens fascists », The West Indian Gazette, juillet 1962, p. 11. « Campaign Caravan moves off », Peace News, 6 juillet 1962, p. 12. « The Campaign Caravan », Peace News, 27 juillet 1962, p. 12. « YCND conference », Young Guard, 10 août 1962, p. 7. « The Caravan comes South », Peace News, 31 août 1962, p. 12. « The Caravan on Tees-side », Peace News, 7 septembre 1962, p. 12. « Labour to power – with a strong YS », Young Guard, 20 septembre 1962, p. 2. « The party's over », Peace News, 5 octobre 1962, p. 1. « Merseyside action », Peace News, 19 octobre 1962, p. 12. « Fascists attack African hostel », The West Indian Gazette, novembre 1962, p. 3. 1963 « The factory for peace: from slogan to action », Peace News, 1 février 1963, p. 7. « CND decline and fall ? », The Glasgow University Guardian, 8 mars 1963, p. 1. « Homosexuality and violence », Peace News, 22 mars 1963, p. 10. Bibliographie « Editorially speaking: Mr James Crow Esq. », The West Indies Observer, 23 mars 1963, p. 4. « CND undercurrents », The Times, 16 avril 1963, p. 11. « Undercurrents to CND : The one essential truth », The Times, 18 avril 1963, p. 11. « Aldermaston – London 1963 », Peace News, 19 avril 1963, p. 9. « Wilson joins colour bar fray », The Bristol Evening Post, 2 mai 1963, p. 1. « The Caravan Workshops », Peace News, 3 mai 1963, p. 9. « How to study », The Glasgow University Guardian, 10 mai 1963, p. 2. « Welsh nationalists take to direct action », Peace News, 24 mai 1963, p. 5. « Sir Learie makes it plain on that Bristol colour bar », The West Indian Gazette, juin 1963, p. 1. « Undeterred », Peace News, 28 juin 1963, p. 1. « 'Complete integration' on buses – YES to coloured men », The Bristol Evening Post, 28 août 1963, p. 1. « Bus firm drops colour bar », The Bristol Evening Post, 29 août 1963, p. 1. « London solidarity march », The West Indian Gazette, septembre 1963, p. 1. « 750 in London 'freedom march' », Peace News, 6 septembre 1963, p. 9. « Is CND finished? », Peace News, 20 septembre 1963, p. 1. « Letter from America », The Beaver, 10 octobre 1963, p. 3. « Help to fight Apartheid », Union News, 11 octobre 1963, p. 2. « LSE boycott snowball », The Beaver, 24 octobre 1963, p.1 . « Homosexuality: a discredited law which won't collapse », Peace News, 1er novembre 1963, p. 8. « Not for laughs », Union News, 1er novembre 1963, p. 4. « 'Help liberation' marchers told », Union News, 22 novembre 1963, p. 9. « Defending Welsh valleys », Peace News, 29 novembre 1963, p. 3. « Outlaw racial discrimination! », The West Indian Gazette, décembre 1963, p. 3. « Sit-down in Wales », Peace News, 8 décembre 1963, p. 12. 1964 « Letters », The Irish Democrat, janvier 1964, p. 6. « Discrimination enquiry », The Irish Democrat, février 1964, p. 3. « The campaign on Tyneside », Peace News, 2 février 1964, p. 1. « East Side tenants join rent strike », Young Socialist, mars 1964, p. 4. « A campaign that succeeded », Peace News, 20 mars 1964, p. 4. « Women's peace groups merge », Peace News, 1er mai 1964, p. 3. « Welsh Peace Factory launches appeal », Peace News, 7 mai 1965, p. 12. « The Factory for Peace is growing », Peace News, 8 mai 1964, p. 11. « March of victory from Marathon to Athens », Peace News, 5 juin 1964, p. 3. « The colour bar at the labour exchange », Peace News, 12 juin 1964, p. 1. « T.U. recognition is now likely », The Irish Democrat, août 1964, p. 2. « Colour bar strike in Glasgow », Peace News, 14 août 1964, p. 12. « 'Suicidal belligerence' in Vietnam, says Russell », Peace News, 14 août 1964, p. 12. « Aggression unchallenged », The Irish Democrat, septembre 1964, p. 2. 513 514 Claire Mansour, Diffusion et évolution des mouvements sociaux « Colour bar at London pub: four stage sit-in », Peace News, 18 septembre 1964, p. 12. « Race: the unmentionable issue », Peace News, 25 septembre 1964, p. 1. « Before and after Smethwick », The West Indian Gazette, novembre 1964, p. 1. « Grants: Award or charity? », The Beaver, 12 novembre 1964, pp. 4-5. « L.S.E. Secession », The Beaver, 12 novembre 1964, p. 2. « Give us extensions demands President », Union News, 13 novembre 1964, p.1. « Immigration: why no open door? », Peace News, 13 novembre 1964, p. 1. « The fight against racialism in Leicester », Peace News, 20 novembre 1964, p. 10. « Freedom to study », Union News, 27 novembre 1964, p. 4. « Martin Luther King's warning to Britain: 'Don't let inequality continue' », Peace News, 11 décembre 1964, p. 1. « News in brief », Union News, 11 décembre 1964, p. 5. « Savio blasts Kerr's 'knowledge factory'», The Harvard Crimson, 12 décembre 1964, n. p. 1965 « Dr Luther King's warning », The West Indian Gazette, décembre-janvier 1965, pp. 1-2. « 1965 and the Irish in Britain », The Irish Democrat, janvier 1965, pp. 3-4. « Dear Claudia! We shall hold high your banner of anti-imperialism », The West Indian Gazette, janvier-février 1965, p. 3. « Racialism », Union News, 25 janvier 1965, p. 4. « Brockway bill to be watered? », The Irish Democrat, février 1965, p. 8. « Lemass talks trade with O'Neill », The Irish Democrat, février 1965, p. 1. « 'Washington DC centre of world imperialism – Malcolm X », The West Indian Gazette, février 1965, p. 4. « Survey on accomodation – Results 'disturbing' », The Beaver, 4 février 1965, p. 2. « Malcolm X in London », Peace News, 12 février 1965, p. 12. « Vietnam: CND to picket US embassy », Peace News, 12 février 1965, p. 2. « New campaign to attack colour bar », Peace News, 19 février 1965, p. 1. « Vietnam protest in London », Peace News, 19 février 1965, p. 9. « It happened elsewhere: Oxford », Union News, 26 février 1965, p. 5. « Cranhill youth joined up for Morecambe », Keep Left, mars 1965, p. 2. « Enquiry urged in House of Commons », The Irish Democrat, mars 1965, p. 1. « Let's go for socialism », Keep Left, mars 1965, p. 1. « The Lemass – O'Neill talks », The Irish Democrat, mars 1965, p. 2. « Labour's Future », The Glasgow University Guardian, 5 mars 1965, p. 7. « Vietnam story », The Glasgow University Guardian, 19 mars 1965, p. 5. « Unionists want to kill Derry », The Irish Democrat, avril 1965, p. 1. « We want equal rights », The Irish Democrat, avril 1965, p. 4. « C.N.D. – Is it still relevant? », Union News, 30 avril 1965, p. 3. « Belfast talks civil rights », The Irish Democrat, mai 1965, p. 2. « May Day 1965 », The Newsletter, mai 1965, p. 4. « Youth CND demonstration », Vietnam Solidarity Bulletin, mai 1965, p. 5. Bibliographie « Grants likely to go up soon », Union News, 7 mai 1965, p. 5. « New accomodation problem looms », Union News, 7 mai 1965, p. 5. « Police break up May Day fast », Peace News, 7 mai 1965, p. 2. « The Easter survey by the Lancaster Peace Research Centre », Peace News, 7 mai 1965, p. 3. « Welsh peace factory launches appeal », Peace News, 7 mai 1965, p. 12. « May Day message from the Socialist Labour League: Arm the Viet-Cong », The Newsletter, 8 mai 1965, pp. 1, 4. « Nuclear arms race threatens Asia », Peace News, 21 mai 1965, p. 1. « Day and night vigil for peace campaign », Union News, 7 mai 1965, p. 2. « Growing support for Vietnam Peace Council », Peace News, 28 mai 1965, p. 12. « Amazing conference in Belfast », The Irish Democrat, juin 1965, p. 8. « Wilson: ally number one of American imperialism », Keep Left, juin 1965, p. 2. « Joan Baez and Donovan at Vietnam rally », Peace News, 4 juin 1965, p. 2. « First British Vietnam teach-in », Peace News, 11 juin 1965, p. 12. « Ginsberg for Albert Hall », Peace News, 11 juin 1965, p. 12. « Race issue hits Preston strike », Peace News, 11 juin 1965, p. 1. « The strike and its background », Peace News, 11 juin 1965, p. 1. « Lessons of a teach-in », Peace News, 25 juin 1965, p. 1, 4. « July 18 YS Vietnam demo », Keep Left, juillet-août 1965, pp. 1, 8. « Vietnam », Keep Left, juillet-août 1965, p. 7. « Sixth form teach-in », Peace News, 9 juillet 1965, p. 12. « TV teach-in », Peace News, 23 juillet 1965, p. 12. « New drive against race discrimination », Peace News, 30 juillet 1965, p. 1. « Tenants fight rent increases in Islington », Peace News, 20 août 1965, p. 3. « West Indian vigilante patrols », Peace News, 20 août 1965, p. 12. « Catholics are increasing », The Irish Democrat, septembre 1965, p. 6. « Six-Counties debate at Westminster », The Irish Democrat, septembre 1965, p. 8. « Young Socialists call for the defeat of U.S. imperialism », Keep Left, septembre 1965, p. 2. « Glasgow YS beat ban – March against Vietnam war », Keep Left, octobre 1965, p. 8. « They are trying to kill Derry City », The Irish Democrat, octobre 1965, p. 8. « Vietnam protests take shape », Peace News, 1er octobre 1965, p. 12. « Education and the Plan », The Beaver, 14 octobre 1965, p. 2. « LSE Left », The Beaver, 14 octobre 1965, p. 2. « Grants petition launched », Union News, 15 octobre 1965, p. 1. « Poets for Peace », Peace News, 15 octobre 1965, p. 12. « News in Brief », Peace News, 22 octobre 1965, p. 12. « Vietnam protests in Britain and in America », Peace News, 22 octobre 1965, p. 12. « Vietnam protest weekend », Peace News, 22 octobre 1965, p. 3. « Rhodesia : Runge walks out », The Beaver, 28 octobre 1965, p. 4. « New Vietnam demonstrations », Peace News, 29 octobre 1965, p. 12. « The comprehensives teach-in », Peace News, 29 octobre 1965, p. 7. 515 516 Claire Mansour, Diffusion et évolution des mouvements sociaux « Northern Ireland YS breaks from Labour Party », Keep Left, novembre 1965, p. 8. « Lewisham Council teach-in », Peace News, 19 novembre 1965, p. 12. « LSE against UDI », The Beaver, 25 novembre 1965, p. 5. « Vietnam March », The Beaver, 25 novembre 1965, p. 1. « Negro hits out on civil rights », Union News, 26 novembre 1965, p. 2. « Neither victim nor executioner: An appeal to the Prime Minister to intervene on behalf of the people of Vietnam », Peace News, 26 novembre 1965, p. 9. « Vietnam demonstration details », Peace News, 26 novembre 1965, p. 12. « Many thousands march in US and Britain », Peace News, 3 décembre 1965, p. 9. « Southall strike », Peace News, 17 décembre 1965, p. 4. « In brief », Union News, 10 décembre 1965, p. 1. 1966 « Indians in Southall strike », Peace News, 14 janvier 1966, p. 1. «Vietnam War simulation », Union News, 21 janvier 1966, p. 9. « A city fights for life », The Irish Democrat, février 1966, p. 2. « Scottish Nationalist Club rejoins FSN », The Glasgow University Guardian, 7 février 1966, p. 5. « Edgeware project », Peace News, 11 février 1966, p. 10. « Women's march », Peace News, 11 février 1966, p. 10. « They drop them in Vietnam and lose them in Spain », The Beaver, 17 février 1966, p. 3. « Unionists under fire », The Irish Democrat, mars 1966, p. 8. « Letter to the Editor », The Glasgow Univeristy Guardian, 2 mars 1966, p. 7. « Round the Universities – Reading », Giblet, 9 mars 1966, p. 6. « Colour-bar plea over lodgings », Union News, 6 mai 1966, p. 8. « NUS Conference delegates 'scared'», The Beaver, 12 mai 1966, p. 5. « Seamen in the dock », Peace News, 20 mai 1966, p. 1. « We are determined says Bill Hogarth », The Seaman, 20 mai 1966, p. 1. « Who are the real splitters? », The Newsletter, 28 mai 1966, p. 1. « Statement of intent », Resurgence, mai-juin1966, pp. 2-3. « Dockers, Seamen and Young Socialists unite against the government's policy », Keep Left, juin 1966, p. 5. « Draft of the proposed structure », Vietnam Solidarity Bulletin, juin 1966, p. 2. « Draft statement of aims of the Vietnam Solidarity Campaign », Vietnam Solidarity Bulletin, juin 1966, p. 2. « The pearly docker », The Newsletter, 2 juin 1966, p. 1. « Soldier sheep in London », Peace News, 3 juin 1966, p. 1. « Seamen and dockers must win, says SLL conference », The Newsletter, 4 juin 1966, p. 1. « 'Happening' at Alconbury », Peace News, 10 juin 1966, p. 12. « 54 Labour MPs sign 'Manifesto' », Peace News, 17 juin 1966, p. 10. « Scotland: 'Self-government by the 70's », Peace News, 17 juin 1966, p. 10. « Labour backs bankers against seamen », The Newsletter, 18 juin 1966, p. 1. « 1866 or 1966 », Union News, 21 juin 1966, p. 5. Bibliographie « Alconbury 'happening' », Peace News, 24 juin 1966, p. 10. « Honorary degree award », Union News, 24 juin 1966, p. 1. « What's wrong with our governement », Tribune, 24 juin 1966, p. 1. « What the seamen have to say », Peace News, 24 juin 1966, p. 1. « Belfast barman shot dead », The Irish Democrat, juillet 1966, p. 1. « Statement of aims of the Vietnam Solidarity Campaign », Vietnam Solidarity Bulletin, juillet 1966, p. 6. « War Crimes Tribunal », Vietnam Solidarity Bulletin, juillet 1966, pp. 12-3. « The fight goes on », The Seaman, 1er juillet 1966, p. 1. « 'The P.M. has become a strike breaker' », The Newsletter, 2 juillet 1966, p. 1. « Demonstration at Alconbury », Peace News, 8 juillet 1966, p. 7. « George Clark starts fast in Parliament Sq », Peace News, 8 juillet 1966, p. 7. « Tolerance and extremism in Ulster », Peace News, 15 juillet 1966, p. 3. « Reaction and religion », The Newsletter, 16 juillet 1966, p. 2. « Rebirth of a movement », Peace News, 29 juillet 1966, p. 5. « Anarchy spreads in Six Counties », The Irish Democrat, août 1966, p. 1. « Five on Belfast murder charge », The Irish Democrat, août 1966, p. 5. « Paisley goes to jail », The Irish Democrat, août 1966, p. 1. « Plaid Cymru's victory in Camarthen », Peace News, 12 août 1966, p. 3. « SNP strides ahead », Peace News, 12 août 1966, p. 3 « Murder charges hearing at Belfast », The Irish Democrat, septembre 1966, p. 5. « O'Brien accuses Aiken», The Irish Democrat, septembre 1966, p. 2. « Paisley in Mufti », The Irish Democrat, septembre 1966, p. 5. «The conscience of mankind », Vietnam Solidarity Bulletin, septembre 1966, pp. 1, 6. « Trade Unions are growing », The Irish Democrat, septembre 1966, p. 5. « Industrial Society », Resurgence, septembre-octobre 1966, pp. 12-16. « 'Freeze' hits Labour Soc. », Union News, 14 octobre 1966, p. 5. « Scottish Nationalist Association », The Glasgow University Guardian, 18 octobre 1966, p. 3. « No mastermind behind Vietnam demonstrations », The Beaver, 20 octobre 1966, p. 3. « Chile-2 », Union News, 21 octobre 1966, p. 7. « International links forged », The Newsletter, 22 octobre 1966, p. 1. « Peace in Viet-Nam starts quorum row », Union News, 22 octobre 1965, p. 2. « Trotskyism triumphant », The Newsletter, 22 octobre 1966, p. 1. « C.N.D. banned », The Irish Democrat, novembre 1966, p. 4. « Food boycott », Giblet, 3 novembre 1966, p. 1. « Other people's lives », Union News, 4 novembre 1966, pp. 6-7. « Student world: Australia », Union News, 4 novembre 1966, p. 4. « Battle of Cow Green: Is it a botanists' scare or a short-sighted stop-gap? », The Observer, 6 novembre 1966, p. 5. « Food boycott », Giblet, 10 novembre 1966, p. 1. « 'Right to strike' says Jack Dash », Union News, 11 novembre 1966, p. 3. 517 518 Claire Mansour, Diffusion et évolution des mouvements sociaux « Students demonstrate while Wilson installed as Bradford Chancellor », Union News, 11 novembre 1966, p. 5. « Bertrand Russell », The International Times, 14 novembre 1966, p. 4. « Student Power », The Beaver, 17 novembre 1966, p. 9. « American fresh air », Union News, 18 novembre 1966, p. 9. « Liege – invaluable demonstration », Keep Left, décembre 1966, p. 3. « It's a living », Union News, 9 décembre 1966, p. 7. « Human rights for women », Peace News, 30 décembre 1966, p. 4. 1967 « Govt Squeeze Threatens Overseas Students », The Beaver, 19 janvier 1967, p. 12. « Unpleasant », Union News, 20 janvier 1967, p. 2. « We demand! », Shrew, février 1971, p. 16. « RSA emerges », Giblet, 2 février 1967, p. 6. « Mass protest denounces fees increase », The Beaver, 9 février 1967, p. 5. « The Radical Alliance », Giblet, 16 février 1967, p. 7. « All set for march and boycott », Union News, 21 février 1967, p.1. « Protests are national », Union News, 21 février 1967, p. 1. « Director-student entente over fees increase protest », The Beaver, 23 février 1967, p. 12. « Student radicalism: Is it meaningless? », The Beaver, 23 février 1967, p. 3. « 'Half a mile' of students march », Union News, 24 février 1967, p. 1. « David Breen heads Vietnam protest movement », The Irish Democrat, mars 1967, p. 4. « Can the seas survive? Long-term effects of pollution on marine life », The Ecologist, mars 1971, pp. 4-9. « United organisation for civil rights », The Irish Democrat, mars 1967, p. 8. « Johnson's Hawk has a stormy reception », Union News, 3 mars 1967, p. 5. « Student Power and the Free University », The Beaver, 9 mars 1967, p. 14. « The immigrant », Union News, 10 mars 1967, pp. 6-7. « New-style protests may spread to other universities », The Times, 15 mars 1967, p. 12. « LSE Delegation is to Negotiate », Union News, 17 mars 1967, p. 1. « Plaid Cymru's achievement », Peace News, 17 mars 1967, p. 10. « Race to keep tanker's oil clear of Cornish beaches », The Guardian, 20 mars 1967, p. 1. « Vietnam: beyond the slogans », Peace News, 24 mars 1967, p. 1. « Marchers demonstrate outside U.S.A.F. headquarters », The Times, 27 mars 1967. « Biggest sea spectacular since the war », The Guardian, 29 mars 1967, p. 1. « An Easter meditation », Peace News, 31 mars 1967, p. 4. « Reinstatement of Aldenstein and Bloom 'act of clemency' », Union News, 8 avril 1967, p. 1. « Politicat », The International Times, 21 avril 1967, p. 2. « Yard clamps down on shame march », Peace News, 21 avril 1967, p. 12. « Reply to R. McVeigh from John Spencer », Keep Left, mai 1967, p. 11. « Roderick McVeigh replies on Nationalism », Keep Left, mai 1967, p. 11. Bibliographie « Scottish Nationalism », Keep Left, mai 1967, p. 10. « March of Shame: exhibitionists spoil the drama », Peace News, 5 mai 1967, p. 12. « Berlin student crisis », Giblet, 11 mai 1967, p. 2. « Canadian students strike », The Beaver, 11 mai 1967, p.5. « The ten point program and platform: What we want, what we believe », The Black Panther Newspaper, 2, no. 1, 23 novembre 1967, p. 3. « Students shake Stewart and Vietnam dollars », Peace News, 19 mai 1967, p. 9. « A challenge », The Beaver, 25 mai 1967, p. 8. « Greater step forward? », The Beaver, 25 mai 1967, p. 2. « Scottish YS Discuss Marxism », Keep Left, juin 1967, p. 12. « Notting Hill summer », Peace News, 2 juin 1967, p. 12. « Local response at Notting Hill conference », Peace News, 9 juin 1967, p. 12. « Summer project in Notting Hill », Peace News, 9 juin 1967, pp. 1, 4. « SNP now biggest in Scotland », Peace News, 23 juin 1967, p. 12. « Nationalism and the Arab Revolution », Keep Left, juillet-août 1967, p. 11. Sans titre, The Black Dwarf, 19 juillet 1967, p. 3. « Dialectuals' masturbation », The International Times, 28 juillet 1967, p. 11. « Class warfare », Keep Left, août 1967, p. 10. « Cork men picket U.S. ship », The Irish Democrat, août 1967, pp. 1, 8. « Dialectics of Liberation: Disappointment, enlightment », Peace News, 4 août 1967, p. 12. « The black tragedy of Aberfan », The Times, 4 août 1967, p. 9. « Notting Hill: help for the over-researched and under-assisted », Peace News, 11 août 1967, p. 12. « Take-over in Notting Hill », Peace News, 18 août 1967, p. 12. « Mass peace-in to shut down and exorcise Pentagon », Peace News, 8 septembre 1967, p. 9. « Black Power in Britain », Peace News, 15 septembre 1967, p. 12. « New group to fight the Stansted bulldozer », Peace News, 22 septembre 1967, p. 1. « Burial party », Peace News, 29 septembre 1967, p. 12. « Brixton prison attacked: 'dirty, wasteful, inhuman' », Peace News, 6 octobre 1967, pp. 1, 12. « Funeral in Scarborough », Peace News, 6 octobre 1967, p. 1. « Student world: U.S.A. », Union News, 13 octobre 1967, p. 4. « Tenants organise to fight soaring council house rents », Peace News, 13 octobre 1967, p. 3. « Tokyo riot », Union News, 13 octobre 1967, p. 4. « Bobbin' campus », Campus, 18 octobre 1967, p. 2. « Che Guevara and Debray », Peace News, 20 octobre 1967, p. 4. « Victory for Vietcong », The Beaver, 26 octobre 1967, p. 1. « From resistance to insurrection », Peace News, 27 octobre 1967, p. 4. « Police harassment of immigrants », Peace News, 27 octobre 1967, p. 4. « The violence in Grosvenor Square », Peace News, 27 octobre 1967, p. 12. « Dublin's great anti-war parade: U.S. Embassy besieged», The Irish Democrat, novembre 1967, p. 1. « Letter », The Irish Democrat, novembre 1967, p. 2. « Broomielaw and Vietnam », The Glasgow University Guardian, 2 novembre 1967, p. 3. 519 520 Claire Mansour, Diffusion et évolution des mouvements sociaux « The Welsh Language Society », Sruth, 2 novembre 1967, p. 6. « Eggs for Wilson », Union News, 3 novembre 1967, p. 4. « Overseas fees », Union News, 3 novembre 1967, p. 2. « Student world: Puerto Rico», Union News, 3 novembre 1967, p. 4. « The forgotten ones », Union News, 3 novembre 1967, pp. 6-8. « CARD meets black power », Peace News, 17 novembre 1967, p. 3. « Govt. climbs down on overseas fees », Union News, 17 novembre 1967, p. 1. « Derry – study in industrial apartheid », The Irish Democrat, décembre 1967, p. 4. « Students defy Stormont », The Irish Democrat, décembre 1967, p. 8. « Zeitgeist », Sruth, 14 décembre 1967, p. 4. 1968 « Anti-university announces courses », The International Times, 19 janvier 1968, p. 3. « PM slices grant increase », Union News, 19 janvier 1968, p. 1. « 'Poofs' Charter' – sodomy meets bestiality », The Glasgow University Guardian, 29 janvier 1968, p. 6. « Plaid Cymru and Scots explain », The Irish Democrat, février 1968, p. 2. « Letters to the Editors », Union News, 2 février 1968, p. 2. « The war is over – When will it end? », Peace News, 9 février 1968, p. 1. « Academic democracy », Union News, 23 février 1968, p. 2. « Nationalist Party Considering Non-Violent Civil Disobedience » The Irish News, 24 juin 1968. « Come demonstrate for Vietnamese freedom ! », The Beaver, 29 février 1968, p. 3. « Strike emergency meeting », The Beaver, 29 février 1968, p. 12. « Sussex students seek support », The Beaver, 29 février 1968, p. 12 « 3-Day Sleep-in Victory », Union News, 1er mars 1968, p. 1. « Polemicos », Union News, 1er mars 1968, p.3. « Red scare at Sussex », Peace News, 1er mars 1968, p. 12. « Student Power », Union News, 1er mars 1968, p. 2. « Who says Britain isn't involved in Vietnam? », Peace News, 1er mars 1968, p. 1. « Kelly leads march to No. 10, NUS dissassociates », Union News, 8 mars 1968, p. 3. « Communists behind unrest? Trouble at Sussex University », The Glasgow University Guardian, 14 mars 1968, p. 2. « Back to square one », Peace News, 22 mars 1968, p. 4. « Violence in the Square », Peace News, 22 mars 1968, p. 12. « House commandeered for Derry family », The Irish Democrat, avril 1968, p. 5. « Britain – the 51st State », Peace News, 5 avril 1968, pp. 5-7, 10. « How Britain helps America's war », Peace News, 12 avril 1968, pp. 5-6. « Enoch Powell's stink bomb », Peace News, 26 avril 1968, p. 4. « British students protest at 'fascism' », The Irish Democrat, mai 1968, p. 5. « Celtic Youth Congress », The Irish Democrat, mai 1968, p. 8. « Workers' control MUST = workers' power », The Week, mai 1968, p. 2. Bibliographie « Immigrant general strike! », Peace News, 3 mai 1968, p. 1. « Race reactions: immigrants unite », Peace News, 3 mai 1968, p. 12. « May Day Walk, May Day Talk », Peace News, 10 mai 1968, p. 12. « La semaine enragée », Action, 13 mai 1968, pp. 1-2. « Notre Commune du 10 mai », Le Nouvel Observateur, 15 mai 1968, p. 32. « Socialist Society column », Campus, 16 mai 1968, p. 8. « Youth carries torch of the future: The Celtic Youth Congress », Sruth, 18 mai 1968, p. 8. « Votre lutte est la nôtre », Action, 21 mai 1968, p. 5. « La Commune – c'est moi! », Peace News, 24 mai 1968, p. 1. « The politics of the student upsurge », The Week, juin 1968, p. 7. « The power next time! », Workers' Fight, juin 1968, p. 2. « Paris : City of hope », The Black Dwarf, 1er juin 1968, pp. 4-5. « The night of May 10 », The Black Dwarf, 1er juin 1968, p. 3. « Theory turned sideways », The Black Dwarf, 1er juin 1968, pp. 4-5. « Le théâtre des opérations », Action, 5 juin 1968, p. 3. « Kids and protestors cavort in Powis Square », Peace News, 21 juin 1968, p. 4. « The Sorbonne slogan : L'imagination prend le pouvoir », Union News, 21 juin 1968, pp. 6-7. « Housing protest in Derry street », The News Letter, 24 juin 1968. « The Celtic League Conference », Sruth, 27 juin 1968, p. 2. « Housing – The Struggle for Tenants' Control », International Socialism, été 1968, pp. 7-8. « Notting Hill crumbles to People's Power », Peace News, 12 juillet 1968, p. 5. « Notes and news », The Irish Democrat, août 1968, p. 3. « Wilson's workers' control », Workers' Fight, août 1968, p. 4. «'Ban Proves Civil Rights Need'», The Belfast Telegraph, 26 août 1968. « Batons Used on Civil Rights Marchers in Dungannon », The Irish News, 26 août 1968. « Not so Civil » The News Letter, 26 août 1968. « Belfast », The Black Dwarf, 30 août 1969, p. 8. « Derry », The Black Dwarf, 30 août 1969, p. 8. « Northern Ireland – Not another fifty years! », The Irish Democrat, septembre 1968, pp. 4-5. « The Breakdown of Nations », Sruth, 5 septembre 1968, p. 6. « Tenants Control », The Black Dwarf, 22 septembre 1968, p. 2. « Soc. Soc. view », Campus, 4 octobre 1968, p. 8. « The role of the student in society », Campus, 11 octobre 1968, p. 7. « Workers and Students don't demand occupy your schools your factories », The Black Dwarf, 15 octobre 1968, p. 1. « London tenants: 15,000 march », The Black Dwarf, 16 octobre 1968, p. 2. « The constant flux », The International Times, 18 octobre 1968, p. 2. « Soc. Soc. show solidarity with B.S.R. strikers », The Glasgow University Guardian, 23 octobre 1969, p. 3. « Turn on, tune in, TAKE OVER », The Beaver, 24 octobre 1968, p. 10. « British democrats join Derry brutality protest », The Irish Democrat, novembre 1968, p. 8. 521 522 Claire Mansour, Diffusion et évolution des mouvements sociaux «'Fish-in' by the men of Drogheda », The Irish Democrat, novembre 1968, p. 2. « London students protest », The Irish Democrat, novembre 1968, p. 8. « The battle of Derry and its lessons for us », The Irish Democrat, novembre 1968, pp. 4-5, 7. «'Fish-in' by the men of Drogheda », The Irish Democrat, novembre 1968, p. 2. « Callaghan, the demo, and the press », Peace News, 1er novembre 1968, p. 1. « The demonstration », Campus, 1er novembre 1968, p. 1. « The violence that really never was », Union News, 1er novembre 1968, p. 5. « 27 October », The Glasgow University Guardian, 5 novembre 1968, p. 3. « Our wonderful British press », The Beaver, 7 novembre 1968, p. 2. « 'The day the police were wonderful' – Daily Mirror », The Beaver, 7 novembre 1968, pp. 5-6. « Where Adams failed », The Beaver, 7 novembre 1968, p. 4. « Militant British unionists meet », The Bulletin, 11 novembre 1968, p. 8. « What went wrong: Three views », The International Times, 15 novembre 1968, p. 3. « Aberdeen RSSF takes the lead », The Glasgow University Guardian, 22 novembre 1968 p. 4. « Students threatened with arrest in Bakery Strike », Campus, 29 novembre 1968, p. 10. « Lesson of October 27 », International, décembre 1968, pp. 11-12. « There are two revolts in occupied Ireland », The Irish Democrat, décembre 1968, p. 5. « GLC tenants: politics not in command », The Black Dwarf, 3 décembre 1968, p. 7. « London tenants enter new phase of struggle », The Black Dwarf, 3 décembre 1968, p. 7. « The trial of Owain Williams: Welsh Patriot », The Black Dwarf, 3 décembre 1968, p. 6. « Where is RSSF going and when ? », The Black Dwarf, 3 décembre 1968, p. 2. « The squatters move in! », Peace News, 5 décembre 1968, pp. 1, 4. « Revolution in modern Britain – Is it possible? », Campus, 6 décembre 1968, p. 7. «'Charley Windsor shall not pass' cry rebels », The Sydney Morning Herald, 9 décembre 1968, p. 2. « Guerrilla University in Viet-Nam », Union News, 13 décembre 1968, p. 3. « How Liverpool tenants fought the council – and won », Peace News, 16 décembre 1968, p. 4. « People's Democracy Plans Derry March », Peace News, 27 décembre 1968, p. 4. 1969 « Rolls Royce and Viet-Nam: A case study in complicity », VSC Bulletin, janvier 1969, pp. 1-9. « Lil Bilocca and Hull trawlers », The Black Dwarf, 10 janvier 1969, p. 8. « The Derry march is over: now civil war – or revolution? », Peace News, 10 janvier 1969, pp. 1-2. « Derry squat-in goes on », Peace News, 17 janvier 1969, p. 2. « One Northern Ireland community », Peace News, 17 janvier 1969, p. 1. « The civil righters », Peace News, 17 janvier 1969, pp. 4-7. « More squatters occupy house in Notting Hill », Peace News, 24 janvier 1969, p. 5. « Derry squat-in goes on », The Black Dwarf, 27 janvier 1969, p. 12. « Capitalism trembles at ideals », The Beaver, 29 janvier 1969, p. 9. « It's closed », The Beaver, 29 janvier 1969, p. 10. « Today is a national day of action », The Beaver, 29 janvier 1969, p. 9. Bibliographie « Action for equal rights – New campaign launched », Socialist Woman, février 1969, n. p. « Interview with Madame Binh of the National Liberation Front of Vietnam », Socialist Woman, février 1969, n.p. « The struggle for control », Community, février 1969, p. 1. « We are the nation's investment but are we being educated or exploited? », Union News, 7 février 1969, p. 17. « Class struggle in Britain », The Bulletin, 10 février 1969, pp. 5-8. « A single spark can start a prairie fire. », The Black Dwarf, 14 février 1969, p. 2. « People's Democracy plan », Peace News, 14 février 1969, p. 4. « Sexual Revolution », The International Times, 14 février 1969, pp. 12-13. « Minorities must not succeed », Sruth, 20 février 1969, p. 4. « Industrial tactics », The Black Dwarf, 28 février 1969, p. 2. « Ulster: 23,000 support People's Democracy », Peace News, 28 février 1969, p. 1. « Tell us, who's mad », The Black Dwarf, 28 février 1969, p. 1. « Equal pay – The first step », Socialist Woman, mars-avril 1969, n. p. « The equal pay fight at Ford's », Socialist Woman, mars-avril 1969, n. p. « Anarchists arrested at Sheffield », Union News, 7 mars 1969, p. 1. « Saigon: more repression », Peace News, 14 mars 1969, p. 1. « Urgent appeal from the Saigon Student Union to students of the world », Peace News, 4 avril 1969, p. 5. « PD goes south of the border », Peace News, 11 avril 1969, p. 5. « People's Democracy Easter march », The Black Dwarf, 18 avril 1969, p. 2. « Workers control: the unions under siege », The Black Dwarf, 18 avril 1969, p. 8. « May Day strike in LSE », The Beaver, 24 avril 1969, p. 6. « Organise, educate, agitate! », Peace News, 25 avril 1969, p. 3. « London PD is set up », Peace News, 2 mai 1969, p. 9. « Technicians strike – All out », Union News, 2 mai 1969, p. 4. « The squats go on », Peace News, 23 mai 1969, pp. 1, 4. « For workers' power », International, juin 1969, p. 3. « Woman's rights », The Black Dwarf, 1er juin 1969, p. 4. « Northern Ireland: 'guerilla' actions go on during truce », Peace News, 6 juin 1969, p. 4. « The ecological gap », Peace News, 20 juin 1969, pp. 2-3, 7. « Bloody Nonsense », Peace News, 27 juin 1969, p. 1. « Strike and be damned! », Peace News, 27 juin 1969, p. 9. « Call for A Scottish Language Society », Sruth, 10 juillet 1969, p. 5. « Factory farming and the new codes », Peace News, 18 juillet 1969, pp. 3, 7. « Ambush at Burntollet: 'Ulster police helped' », Peace News, 15 août 1969, pp. 1, 5. « Defoliation, Dow and Vietnam », Peace News, 15 août 1969, p. 1, 5. « Ireland: base for revolution », The Black Dwarf, 15 août 1969, p. 2. « Riots in Derry's Bogside », Peace News, 15 août 1969, p. 1. « St Ives: the new fuzz », The International Times, 15 août 1969, p. 4. « Catholic insurrection », Peace News, 28 août 1969, pp. 1, 4. 523 524 Claire Mansour, Diffusion et évolution des mouvements sociaux « After twenty months of struggle the tenants prepare to build barricades », The Black Dwarf, 30 août 1969, p. 3. « Historic barricades », The Irish Democrat, septembre 1969, p. 4. « The strange world of the Ulster Protestant », Peace News, 12 septembre 1969, p. 2. « Worker-student unity – how real are the prospects? », The Black Dwarf, 16 septembre 1969, p. 5. « The Welsh Language Society », Sruth, 18 septembre 1969, p. 11. « Goodbye Ho », The International Times, 26 septembre 1969, p. 5. « Hands off Viet Ulster! », The International Times, 26 septembre 1969, p. 5. « Can civil war be averted in Northern Ireland? », Peace News, 3 octobre 1969, p. 4. « Celtica – today », Sruth, 16 octobre 1969, p. 3. « Slave trading in animals », Peace News, 24 octobre 1969, p. 7. « Lewisham squatters act on pact with Council », Peace News, 31 octobre 1969, p. 4. « Vietnamese Women Make History », Socialist Woman, novembre 1969, n.p. « Birmingham active », The Beaver, 3 novembre 1969, p. 3. « Your blood for Vietnam », The Beaver, 3 novembre 1969, p. 7. « Warwick Women's Liberation », Campus, 7 novembre 1969, p. 9. « 'Most students are happy to stay in NUS says Jack Straw new NUS President », Union News, 21 novembre 1969, p. 6. « 'Vietnam a crime' – say debates », Union News, 21 novembre 1969, p. 3. « War is pollution », Peace News, 21 novembre 1969, p. 4. « Path to freedom », Campus, 28 novembre 1969, pp. 5-6. « Student world: Demonstrations », Union News, 28 novembre 1969, p. 2. 1970 « Psychology constructs woman », Peace News, 9 janvier 1970, p. 4. « GLF and the movement », Come Out!, 2, 10 janvier 1970, pp. 4-5. « Ford Convenors put their case », The Black Dwarf, 30 janvier 1970, pp. 6-7. « Teachers strike: militancy pays », The Black Dwarf, 30 janvier 1970, p. 3. « Orange Green and Khaki », The Black Dwarf, 20 février 1970, p. 2. « Confidential files », Union News, 27 février 1970, p. 1. « Oxford sits in », Union News, 27 février 1970, p. 1. « The Warwick affair – Is it just a personal issue? », Union News, 28 février 1970, pp. 6-7. « Comunn na canain albannaich: 'Tir gun chanain, tir gun anam' », Sruth, 5 mars 1970, p. 10. « Women's Liberation Conference », Peace News, 6 mars 1970, p. 7. « A conference of women in drag », The International Times, 13 mars 1970, p. 4. « Isle of Dogs goes free », Peace News, 13 mars 1970, p. 7. « Women's World », Union News, 20 mars 1970, p. 10. « University Council decides on files issue », Union News, 20 mars 1970, p. 12. « Where the river bends », The Black Dwarf, 23 mars 1970, p. 2. « Announcements/ Calendar », Shrew, avril 1970, p. 7. Dernière de couverture, Shrew, avril 1970, p. 8. Bibliographie Éditorial sans titre, Shrew, avril 1970, pp. 1-4. « Plaid Cymru », The Irish Democrat, avril 1970, p. 2. « So long fag hags », The International Times, 7 avril 1970, p. 24. « Fish-ins carry on », The Irish Democrat, mai 1970, p. 5. « Black brothers battle pigs », The International Times, 8 mai 1970, p. 2. « Internal Pollution crisis », The International Times, 8 mai 1970, p. 23. « CS = Child Slaughter », The Black Dwarf, 10 mai 1970, p. 3. « News », Come Out!, 4, juin-juillet 1970, p. 5. « Editorial », The Ecologist, juillet 1970, p. 2. « Violence and the Welsh cause », The Irish Democrat, juillet 1970, p. 5. « Birmingham Womens Liberation Group », Peace News, 3 juillet 1970, p. 3. « Women's Liberation groups in Britain », Peace News, 3 juillet 1970, p. 6. « Capitalism smells », The Black Dwarf, 7 juillet 1970, p. 12. « Now the Catholic Backlash », Peace News, 17 juillet 1970, p. 2. « Down to Earth », The Ecologist, août 1970, p. 36. « If you hate the Britsh Army, clap your hands », The Red Mole, août 1970, p. 12. « Ireland: aftermath of internment », The Red Mole, août 1970, pp. 8-9. « The ailing air », The Ecologist, septembre 1970, pp. 6-11. « A letter from Huey P. Newton », Come Out!, 5, septembre-octobre 1970, p. 12. « We did it! », Come Out!, 5, septembre-octobre 1970, p. 11. « Comunn na canain albannaich », Sruth, 3 septembre 1970, p. 10. « Manifesto of the London Women's Liberation Workshop », The Black Dwarf, 5 septembre 1970, p. 14. « Housing Cooperatives », Peace News, 2 octobre 1970, p. 6. « Waste-More-Land », The International Times, 8 octobre 1970, p. 4. « Gay Liberation », The Beaver, 29 octobre 1970, p. 4. « Maxi or Midi for her », The Beaver, 29 octobre 1970, p. 5. « The battle outside raging will soon shake yer windows and rattle your walls », The International Times, 5 novembre 1970, pp. 6-7. « Gay lib », The International Times, 19 novembre 1970, p. 23. « Genocide by legislation », Sruth, 26 novembre 1970, p. 2. « Over to you », Sruth, 26 novembre 1970, pp. 4, 8. « Editorial: Responsibilities and abhorrence », Leeds Student, 27 novembre 1970, p. 3. « Students may join TUC », Leeds Students, 27 novembre 1970, p. 3. « Students say they'll strike », Leeds Students, 27 novembre 1970, p. 1. « The great flesh-show protest », Peace News, 27 novembre 1970, p. 5. « How do we fight the Tories », The Red Mole, décembre 1970, p. 3. « Miss World », Shrew, décembre 1970, pp. 16-18. « National Liberation Movements and Women's Liberation », Shrew, décembre 1970, p. 2. « The scabs charter », The Red Mole, décembre 1970, p. 2. « Women in Vietnam », Shrew, décembre 1970, p. 7. « Gay-in protest », The International Times, 3 décembre 1970, p. 3. 525 526 Claire Mansour, Diffusion et évolution des mouvements sociaux « It's everybody out ! », Leeds Students, 4 décembre 1970, p. 1. « Workers ready to fight against Tory law », Workers Press, 8 décembre 1970, p. 2. « Gay liberation front does it », The Beaver, 10 décembre 1970, p. 7. « Gay Libs defiant on Highbury Fields », Peace News, 11 décembre 1970, p. 5. « Power men's claim in danger! Unions begin climb down », Workers Press, 11 décembre 1970, p. 1. « Why Freud », Shrew, 22 décembre 1970, p. 22. « Oz bust continued », The International Times, 31 décembre 1970, p.2. 1971 « Student Action », The Ecologist, janvier 1971, p. 15. « May Hobbs: women cleaners campaign », The Red Mole, 16 janvier 1971, p. 3. « Teachers: the anti-tory struggle », Red Mole, 16 janvier 1971, p. 3. « Censorshit and you », The Beaver, 28 janvier 1971, p. 3. « Student Action », The Ecologist, février 1971, p. 25. « Women's Liberation Workshop », Shrew, février 1971, p. 29. « Women Unite! », Shrew, février 1971, p. 7. « Those two demos », Peace News, 11 février 1971, p. 7. « Provocation in Ulster », Peace News, 12 février 1971, p. 1. « 100,000 march in peaceful protest », The Times, 22 février 1971, p. 1. « 125,000 march against Bill », The Guardian, 22 février 1971, pp. 1, 18. « 'Kill the Bill'demonstration », Leeds Student, 26 février 1971, p. 5. « Organizing ourselves », Shrew, mars 1971, pp. 2-5. « Student Action », The Ecologist, mars 1971, p. 26. « Welsh pull up road signs », The Irish Democrat, mars 1971, p. 2. « No second-class citizens! », Peace News, 5 mars 1971, p. 1. « Homosexuals », Leeds Student, 12 mars 1971, p. 10. « "Police files on political activists" claims », Leeds Student, 12 mars 1971, p. 1. « Crash course in ecological action », Peace News, 19 mars 1971, p. 7. « 'Homosexuals' – It's not a 'gay' thing to be at all », Leeds Student, 19 mars 1971, pp. 6-7. « March against racialism », Peace News, 19 mars 1971, p. 4. « No Prospecting for Mid-Wales », Peace News, 19 mars 1971, p. 5. « University of the Air Earth Fire and Water », Peace News, 19 mars 1971, p. 7. « After February 21 », The Red Mole, 22 mars 1971, p. 2. « British General Strike Answers Ford, Heath », The Bulletin, 29 mars 1971, p. 4. « Rooting up road signs », The Irish Democrat, avril 1971, p. 2. « GLF against the IRB », Come Together, 5, mai 1971, p. 1. « Student Action », The Ecologist, mai 1971, p. 31. « Control of the university », The Beaver, 20 mai 1971, p. 3. « Report from Northern Ireland », Peace News, 21 mai 1971, pp. 3, 6. Bibliographie « The Fox and the pollution war », Peace News, 28 mai 1971, p. 4. « Fessenheim – Easter Monday », The Ecologist, juin 1971, p. 26-28. « Mining in Snowdownia », The Ecologist, juin 1971, pp. 4-8. « On the Gay Lib. Front », Peace News, 18 juin 1971, p. 4. « Carbon Black », Solidarity, 26 juin 1971, pp. 3-7. « Letter from the London Gay Liberation Front », Come Out!, 7b, printemps-été 1971, p. 2. « What's happening », Come Out!, 7b, printemps-été 1971, p. 3. « Consciousness raising exposes the Orwellian lies of sexist Amerika », Come Out!, 7b, printemps-été 1971, p. 19. « Lancaster cleaner's campaign », Socialist Woman, juillet-août 1971, pp.1-21. « For a Welsh TUC? », The Irish Democrat, juillet 1971, p. 2. « Sisterhood is », Shrew, juillet 1971, p. 1. « Special Clydeside supplement: Introduction », The Red Mole, 15 juillet 1971, p. 1. « The Occupation of Clydeside: First step towards the Scottish Workers' Republic? », The Red Mole, 15 juillet 1971, p. 1. « UCS: the origins of the crisis », The Red Mole, 15 juillet 1971, pp. 7-8. « Factory occupations: a short history », The Red Mole, août 1971, p. 4. « UCS: the struggle must extended », The Red Mole, août 1971, p. 2. « The good ship "Greenpeace" and the Amchitka test », Peace News, 13 août 1971, p. 5. « Internment is a disaster », Peace News, 20 août 1971, p. 5. « Gerlin », Shrew, septembre 1971, pp. 10-12. « Headstart: Education and leisure programme », Grass Roots, 1, no. 4, septembre 1971, p. 10. « Mangrove nine », Grass Roots, 1, no. 4, septembre 1971, p. 2. Sans titre, Grass Roots, 1, no. 4, septembre 1971, p. 12. « Teesdale teaser », The Ecologist, septembre 1971, p. 35. « What is Black Power », Grass Roots, 1, no. 4, septembre 1971, pp. 6-7. « The fight against unemployment », The Red Mole, 1er septembre 1971, p. 5. « UCS: transform the work-in into a sit-in », The Red Mole, 1er septembre 1971, p. 14. « Protests disrupt Festival of Light », The Guardian, 10 septembre 1971, p. 1. « The Derry work camp », Peace News, 10 septembre 1971, p. 7. « Darkness in our light », The Guardian, 11 septembre 1971, p. 11. « A Gay Liberation Front Collective rap on the Festival of Light, pornography and sexism », The International Times, 23 septembre 1971, p. 12-13. « The National Festival of Light », The International Times, 23 septembre 1971, p. 11. « Workers take over », Peace News, 26 septembre 1969, p. 4. « Can leviathan endure so wide a chase? », The Ecologist, octobre 1971, pp. 5-9. « Friends of the Earth's Schweppes Campaign », The Ecologist, octobre 1971, pp. 29-31. « Greenpeace message: 'This world is our place' », Peace News, 8 octobre 1971, p. 1. « An American solution to the problems of Northern Ireland », Leeds Student, 15 octobre 1971, p. 4. « All Out for the 31st! », The Red Mole, 20 octobre 1971, p. 2. « Devlin at LSE », The Beaver, 28 octobre 1971, p. 12. 527 528 Claire Mansour, Diffusion et évolution des mouvements sociaux « Gay Liberation – Statement of aims », The Beaver, 28 octobre 1971, p. 5. « By-line: A diary for Belfast – October », The Glasgow University Guardian, 29 octobre 1971, p. 6. « Gay Liberation Front », Campus, 30 octobre 1971, p. 3. « Torture: in England's Vietnam », The Irish Democrat, novembre 1971, pp. 1, 5. « Victory to the IRA! – For a mass solidarity campaign », The Red Mole, novembre 1971, p. 2. « CND returning to Aldermaston », Peace News, 5 novembre 1971, p. 7. « Gay Liberation », Campus, 5 novembre 1971, p. 3. « The Amchitka test », Peace News, 5 novembre 1971, p. 7. « Warwick women's liberation? », Campus, 7 novembre 1969, p. 9. « White sexism in the ivory tower », The Beaver, 25 novembre 1971, p. 5. « Artsetera Oz et Al. », Campus, 26 novembre 1971, p. 6. « Ecocide », Peace News, 26 novembre 1971, p. 3. « One in Twenty », Campus, 26 novembre 1971, p. 8. « Cleaning contractors », Shrew, décembre 1971, p. 3. « Friends of the Earth: Newsletter », The Ecologist, décembre 1971, p. 33. « Night cleaners and women's liberation », Shrew, décembre 1971, p. 2. « Thousands on rent strike », The Irish Democrat, décembre 1971, p. 5. « Womens liberation should », Shrew, décembre 1971, pp. 8-9. « Women's work », Shrew, décembre 1971, p. 4. « Mass bike-in at Cambridge », Peace News, 3 décembre 1971, p. 1. « No surrender! », The Glasgow University Guardian, 15 décembre 1971, p. 1. « T'queer replies », The Glasgow University Guardian, 15 décembre 1971, p. 2. 1972 « Essex shows the way », The Red Mole, hors série « Miners' Strike Special », 1972, n. p. « Towards the stable society: Strategy for change », The Ecologist, janvier 1972, pp. 8-17. « Plessey five-month occupation ends », Workers Press, 5 janvier 1972, p. 3. « The Fisher-Bendix Occupation », Solidarity, 25 janvier 1972, pp. 4-6. « Friends of the Earth Newsletter », The Ecologist, février 1972, p. 27. « Wales – the struggle will go on », The Irish Democrat, février 1972, p. 3. « The daily distortion », The Beaver, 3 février 1972, p. 2. « Bloody Sunday », Peace News, 4 février 1972, pp. 1, 4. « British civilians and soldiers », Peace News, 7 février 1972, p. 5. « Miners and students versus the State », The Red Mole, 7 février 1972, p. 12. « Strike Interviews », The Red Mole, 7 février 1972, p. 3. « Gay women split from GLF », The International Times, 10 février 1972, p. 3. « The gates close », The Birmingham Evening Mail, 11 février 1972, p. 1. « Death of a miner », Workers Press, 12 février 1972, pp. 6-7. « Political life on the march », Workers Press, 12 février 1972, p. 3. « Tories fear general strike », Workers Press, 12 février 1972, p. 1. Bibliographie «Strategy for workers' control », The Beaver, 17 février 1972, p. 3. « Student Power strikes again », The Beaver, 17 février 1972, p. 1. « Miner victory », Private Eye, 25 février 1972, p. 1. « Interview with Arthur Scargill », The Red Mole, 28 février 1972, p. 4. « The Aldershot explosion », The Red Mole, 28 février 1972, p. 12. « Campaign for sexual equality », The Beaver, 6 mars 1972, p. 3. « Gay Liberation Front », Campus, 11 mars 1972, p. 10. « Right-to-work diary », Workers Press, 11 mars 1972, p. 10. « Right-to-work marchers enter London: a credit to the working class », Workers Press, 11 mars 1972, p. 1. « The bourgeoisie after the miners' strike », The Red Mole, 13 mars 1972, p. 2. « Tory retreat UCS », The Red Mole, 13 mars 1972, p. 3. « Loyalists against the Crown », Peace News, 17 mars 1972, p. 1. « The Right to Work March », The Red Mole, 18 mars 1976, p. 3. « The Loyalist veto», Peace News, 31 mars 1972, p. 1. « Demo », Muther Grumble, april 1972, p. 8. « Food kills », Muther Grumble, avril 1972, p. 17. « Now a Stormont for Scotland? », The Irish Democrat, avril 1972, p. 3. « Protests against square ban », The Irish Democrat, avril 1972, p. 4. « Whole Earth Catalogue », Muther Grumble, avril 1972, p. 15. « Bottles bright and beautiful », Peace News, 7 avril 1972, p. 5. « Mold », Solidarity, 9 avril 1972, pp. 12-13. « Editorial », Gay News, 1, 1er mai 1972, p. 2. « Gay Pridethe week», Gay News, 1, 1er mai 1972, p. 6. « Gay life in Scotland, or Och, Yerra Naffie Big Jessie, Jimmah! », Gay News, 1, 1er mai 1972, p. 5. « Trouble shared », Gay News, 1, 1er mai 1972, p. 6. « Rectorial installation demands: Participation now! », The Glasgow University Guardian, 4 mai 1972, p. 1. « Abortion on demand now! », The International Times, 18 mai 1972, p. 9. « We know you're in there », Gay News, 2, 1er juin 1972, p. 5. « For a people's Peace », Peace News, 2 juin 1972, p. 1. « Transport Action », Peace News, 30 juin 1972, p. 7. « Miners take first step to independence », The Irish Democrat, juillet 1972, p. 3. « National Gay Liberation Front Groups », Gay News, 3, 1er juillet 1972, p. 12. « The work-ins spread to printing », Peace News, 7 juillet 1972, p. 7. « High Wycombe bike-in », Peace News, 14 juillet 1972, p. 7. « Britain's largest civil disobedience campaign », Peace News, 28 juillet 1972, p. 8. « End the act: nothing less », The Red Mole, 29 juillet 1972, p. 5. « Strikes free the five », The Red Mole, 29 juillet 1972, pp. 1, 8. « Ecology IS politics », Resurgence, juillet-août 1972, pp. 10-28. « Greenpeace », Resurgence, juillet-août 1972, p. 33. « The potential for a movement », Resurgence, juillet-août 1972, p. 26. 529 530 Claire Mansour, Diffusion et évolution des mouvements sociaux « Greatest poet approaches eighty », The Irish Democrat, août 1972, p. 3. « Troops collaborate with U.D.A. », The Irish Democrat, août 1972, p. 1. « Gay Liberation Groups », Gay News, 4, 1er août 1972, p. 12. « Where is CHE », Gay News, 4, 1er août 1972, p. 8. « With the IRAs by the tail », Peace News, 4 août 1972, p. 3. « Ireland », The Red Mole, 7 août 1972, pp. 4-5. « The pedal-power pocket book and kerb-side companion », Peace News, 10 août 1973, p. 16. « From Dartmoor to the Albany: 6,000 sit-in », Peace News, 11 août 1972, p. 7. « Soap supplement », Peace News, 11 août 1972, p. 6. « The war in Ireland », The Red Mole, 14 août 1972, pp. 6-7. « Bikes rule! OK? », Peace News, 25 août 1972, p. 10. « Bring back the bike », Peace News, 25 août 1972, p. 10. « About time too! », Peace News, 1 septembre 1972, p. 1. « Editorial », Gay News, 1er septembre 1972, p. 2. « Ideas of Gay Liberation », Gay News, 6, 1er septembre 1972, p. 6. « Young Liberals around the grave », The Spectator, 2 septembre 1972, p. 6. « Against racism in Yorkshire », Peace News, 9 septembre 1972, p. 10. « Fracas at gay pub », Gay News, 7, 14 septembre 1972, p. 10. « Is Gay Lib still liberated? », Gay News, 7, 14 septembre 1972, p. 4. « Kent Gay Day », Gay News, 7, 14 septembre 1972, p. 12. « Day of the Whale», The International Times, 18 septembre 1972, p. 10. « Re-cycling scheme rescued », Peace News, 20 octobre 1972, p. 7. « Bike Ways », Spare Rib, novembre 1972, p. 19. « Sabotage of North Bucks Beagles », Peace News, 24 novembre 1972, p. 7. « Snowdonia mining application soon? », Peace News, 24 novembre 1972, p. 7. « All quiet on the fulham front », Gay News, 8, 1er octobre 1972, p. 4. « Customer wore drag », Gay News, 8, 1er octobre 1972, p. 3. « Whole Earth Library and Switchboard », Peace News, 20 octobre 1972, p. 5. « CHE talks to liverpool », Gay News, 10, 1er novembre 1972, p. 5. « Getting together », Gay News, 10, 1er novembre 1972, p. 6. « Cram yer guts this winter », Muther Grumble, décembre 1972, p. 18. « Friends of the Earth: Newsletter », The Ecologist, décembre 1972, p. 29. « Friends of the Earth: Save the Whale Campaign », The Ecologist, décembre 1972, p. 29. « Militancy galvanises the moderate Mòd! », The Irish Democrat, décembre 1972, p. 3. « Lotty bike-in », Peace News, 1er décembre 1972, p. 7. « 'Stop Ahab' – Moby Greenpeace », Peace News, 14 décembre 1972, p. 8. 1973 « Up against the welfare state: the claimant unions », Socialist Register, 10, 1973, pp. 183-194. « Wendy Wood thinks promises should be kept », The Irish Democrat, janvier 1973, p. 3. Bibliographie « Discos », Gay News, 14, 10 janvier 1973, p. 16. « First National Friend Conference », Gay News, 14, 10 janvier 1973, p. 5. « Rent strike spirals », Campus, 12 janvier 1973, p. 1. « Come togethers », Gay News, 15, 24 janvier 1973, p. 5. « All out ! », Campus, 26 janvier 1973, pp. 1, 5. « Lipstick, make-up, leave behind », Peace News, 26 janvier 1973, p. 6. « LSE students support rent strike and ask for help », The Beaver, 26 janvier 1973, p. 12. « Beauty and the beast », Spare Rib, février 1973, pp. 25-6. « Bring the boys home », The Beaver, février 1973, p. 12. « Grants fight », The Beaver, février 1973, p. 7. « London and Brussels versus Scottish Steel », The Irish Democrat, février 1973, p. 3. « Whose bloody battle? », Spare Rib, février 1973, pp. 17-18. « Swansea housewives back at the blockades », Peace News, 2 février 1973, p. 7. « Welsh Language Society: more charges, more actions », Peace News, 9 février 1973, p. 7. « Education on the cheap », The Red Mole, 17 février 1973, p. 2. « Belfast: co-operation and self-help », Peace News, 23 février 1973, p. 3. « Bogside: 'Community with power within' », Peace News, 23 février 1973, p. 5. « Weslh Trade Unionists start their own TUC », The Irish Democrat, mars 1973, p. 3. « Next session – a £550 grant ? », The Glasgow University Guardian, 1er mars 1973, p. 8. « Newcastle : No hall places for strikers? », Campus, 9 mars 1973, p. 10. « Welsh disrupt TV studios », Peace News, 9 mars 1973, p. 7. « Occupation », The Beaver, 14 mars 1973, p. 9. « Son of Armaddon [sic] – tit for tat », The Beaver, 14 mars 1973, p. 11. « Thames Poly », The Beaver, 14 mars 1973, p. 6. « We stand firm », The Red Mole, 17 mars 1973, p. 1. « Women in struggle: the strike at Mansfield Hosiery », Spare Rib, 21, mars 1973, pp. 18-9. « CND: focus on Polaris », Peace News, 6 avril 1973, p. 7. « Doing it in the road », Peace News, 6 avril 1973, p. 21. « Gays in G.U. », The Glasgow University Guardian, 19 avril 1973, p. 4. « The steps of the revolution in Wales », Peace News, 20 avril 1973, p. 3. « CND's Scottish excursion », Peace News, 27 avril 1973, p. 7. « Student rent strikers face legal threats », Red Weekly, 12 mai 1973, p. 2. « Communist university in London », Campus, 18 mai 1973, p. 12. « Maggie Thatcher Handout £40 – You must be joking !! », Campus, 18 mai 1973, p. 1. « Beaten up women and their children », Spare Rib, juin 1973, pp. 4-5, 12. « Shackles on Scottish culture », The Irish Democrat, juin 1973, p. 3. « Greenpeace expects! », Peace News, 1 juin 1973, p. 8. « Greenpeace in Paris: Turn up, chain-in, sit down! », Peace News, 8 juin 1973, p. 10. « Peace armada », Peace News, 8 juin 1973, p. 10. « Off the otter! », Peace News, 15 juin 1973, p. 7. 531 532 Claire Mansour, Diffusion et évolution des mouvements sociaux « A Vietnam vet looks at Belfast », The International Times, 28 juin 1973, pp. 6-7. « FoE versus RTZ », The Ecologist, juillet 1973, pp. 241, 245. « She can do it », Spare Rib, juillet 1973, p. 14. « Union actions against the tests », Peace News, 6 juillet 1973, p. 8. « Carving up Cymdeithas », Peace News, 13 juillet 1973, p. 1. « C'est la mort! », Peace News, 13 juillet 1973, p. 1. « IS sectarianism », Red Weekly, 13 juillet 1973, p. 2. « Tests to begin », Peace News, 13 juillet 1973, p. 4. « Ballyhoo of Royal publicity », The Irish Democrat, août 1973, p. 3. « Hunt saboteur loses appeal », Peace News, 24 août 1973, p. 8. « White settlers oppose developments in Scotland », The Irish Democrat, octobre 1973, p. 3. « IMG arrests », Warwick Boar, 11 octobre 1973, p. 3. « Animal Liberation Front », Peace News, 19 octobre 1973, p. 7. « Ireland: Troops out now! », Red Weekly, 19 octobre 1973, p. 3. « A plea for survival », The Warwick Boar, 15 novembre 1973, p. 4. « Edinburgh grants survey sheds light », The Glasgow University Guardian, 15 novembre 1973, p. 1. « Come Together », Muther Grumble, décembre 1973, p. 9. 1974 « Kilbrandon and Govan », The Irish Democrat, janvier 1974, p. 3. « The ones that got away», Spare Rib, février 1974, pp. 22-23. « Women's Centres », Spare Rib, février 1974, p. 19. « Action boycott », The Glasgow University Guardian, 4 février 1974, p. 1. « Hunt Saboteurs get a caustic response from hare-coursing chief », Peace News, 8 février 1974, p. 7. « Unionists hold balance at Westminster », The Irish Democrat, mars 1974, p. 1. « Tories down – on to workers victory », Red Weekly, 1 mars 1974, p. 1. « 'No industrial dispute can be won without the solidarity of people like students and the working class'», The Beaver, 5 mars 1974, pp. 12-13. « Axe falls on Scottish newspapers », Red Weekly, 22 mars 1974, p. 1. « Cymdeithas comes to the English capital », Peace News, 22 mars 1974, p. 7. « The oil pirates of the North Sea », Red Weekly, 22 mars 1974, p. 6. « The election, the SNP and independence », The Irish Democrat, avril 1974, p. 3. « Upstairs and downstairs 100 times a day », Spare Rib, avril 1974, pp. 9-11. « Seize the Daily Express – for a workers' paper! », Red Weekly, 5 avril 1974, p. 2. « Against Miss England », Spare Rib, mai 1974, p. 20. « 67 years as a feminist », Spare Rib, mai 1974, pp. 6-9. « Cymdeithas re-starts campaign for bi-lingual post office », Peace News, 10 mai 1974, p. 4. « How to start a women's centre », Peace News, 24 mai 1974, pp. 10-11. « Pipped at the post », Peace News, 24 mai 1974, p. 5. « Counter-revolution in Belfast », The Irish Democrat, juin 1974, p. 4. Bibliographie « Short life and early death of the Council of Ireland », The Irish Democrat, juin 1974, pp. 3, 5, 8. « Why the Loyalists won », Red Weekly, 6 juin 1974, p. 2. « N. Ireland: the British dimension », Peace News, 7 juin 1974, p. 3. « Red Lion Square: Carrying the fight forward », Red Weekly, 27 juin 1974, p. 3. « Arecsam signs », Peace News, 5 juillet 1974, p. 5. « The price of Scottish oil », The Irish Democrat, septembre 1974, p. 3. « Working », Spare Rib, septembre 1974, pp. 9-11. « IPD workers can lead jobs fight », Red Weekly, 5 septembre 1974, p. 3. « Band of Mercy activists trapped », Peace News, 6 septembre 1974, p. 4. « Manchester Gay Alliance Centre », Peace News, 6 septembre 1974, p. 7. « Fascists thwarted in East London », Red Weekly, 12 septembre 1974, p. 3. « National Front suffers crushing defeat », Red Weekly, 12 septembre 1974, p. 3. « BMA Gay Day », Peace News, 20 septembre 1974, p. 4. « Parliament useless – in London or Edinburgh », Red Weekly, 3 octobre 1974, p. 8. « VIVA cleaner strike », Peace News, 4 octobre 1974, p. 5. « Ban on Troops Out demo », Red Weekly, 24 octobre 1974, p. 1. « Scotland and the elections », Red Weekly, 24 octobre 1974, p. 9. « Strike wave rocks social con-trick », Red Weekly, 24 octobre 1974, p. 1. « Groups », Spare Rib, novembre 1974, p. 33. « Spare Rib takes on the media », Spare Rib, novembre 1974, p. 28. « Movement for Liberation of Animals invades Consultox, Ealing », Peace News, 1er novembre 1974, p. 4. « 'No pity' », The Warwick Boar, 7 novembre 1974, p. 3. « The co-operative solution? The NVT experience », International Socialism, décembre 1974, pp. 16-19. « Fight police state laws », Red Weekly, 5 décembre 1974, p. 1. « Rank and filers build struggle », Workers' Power, 12 décembre 1974, p. 3. 1975 « Community work in NI », Peace News, 10 janvier 1975, p. 2. « Statws i'r iaith », Peace News, 10 janvier 1975, p. 4. « Application of the Sex Act », The Glasgow University Guardian, 15 janvier 1975, p. 2. « Rents : Why we're being conned », Red Weekly, 16 janvier 1975, p. 7. « Scottish Daily News: Good news is coming », The Glasgow University Guardian, 16 janvier 1975, p. 6. « Suas leis a ghaidhlig », The Glasgow University Guardian, 30 janvier 1975, p. 12. « Army presents at Eisteddfod », Peace News, 7 février 1975, p. 7. « Smash unemployment », Red Weekly, 13 février 1975, p. 8. « Grants action call », The Glasgow University Guardian, 14 février 1975, p. 1. « Ghosts of the 30s Haunt the valleys », Red Weekly, 20 février 1975, pp. 6-7. « Animal activist fined £500 », Peace News, 21 février 1975, p. 4. « As we see it », The Glasgow University Guardian, 27 février 1975, p. 12. « Women workers in the media: 'No more charities and baby shows' », Spare Rib, mars 1975, p. 18. 533 534 Claire Mansour, Diffusion et évolution des mouvements sociaux « Scarman Tribunal return verdict on Gately's death », The Glasgow University Guardian, 13 mars 1975, p. 5. « Abortion Act threat: 3 », Spare Rib, avril 1975, pp. 17-18. « How dare you presume I'm straight », The Glasgow University Guardian, 17 avril 1975, p. 4. « Senate House sit-in: United action by Exec. », Warwick Boar, 29 avril 1975, p. 1. « Daily News poised for take-off », The Glasgow University Guardian, 1er mai 1975, p. 4. « The prospects of independence », The Glasgow University Guardian, 1er mai 1975, p. 8. « Police on the move. Thrown out! », Warwick Boar, 22 mai 1975, p. 1. « The costs of confrontation », Warwick Boar, 22 mai 1975, p. 2. « Press hope in 'Scottish workers' paper », The Irish Democrat, juin 1975, p. 3. « The Death of Buzz Goodbody », Spare Rib, juin 1975, p. 5. « Gay workers acknowledge debt to women's movement », Spare Rib, juillet 1975, p. 22. « In Britain they're more subtle », Peace News, 11 juillet 1975, p. 5. « The critical question of size », The Ecologist, juillet-août 1975, pp. 12-14. « Squatters integrated », Peace News, 5 août 1975, p. 5. « Gays and the Trade Union Movement », Gay Left, 1, automne 1975, pp. 6-7. « Gay conference », Warwick Boar, 27 octobre 1975, p. 3. « Gay times », Gay Left, 1, automne 1975, pp. 6-7. « Cymdeithas action pays off », Peace News, 7 novembre 1975, p. 6. « SDN – Co-operation with bosses leads to mass redundancies », Red Weekly, 13 novembre 1975, p. 5. « Up from under », Peace News, 21 novembre 1975, pp. 10-11. « Iron heel of the social contract », Red Weekly, 27 mars 1975, pp. 6-7. « Organising the fight for jobs », Red Weekly, 27 novembre 1975, p. 7. « The Manchester Engineers Occupations », The Red Mole, 27 novembre 1975, p. 6. « Non violent resistance Australian style », The Ecologist, décembre 1975, p. 386. « Devolution », The Glasgow University Guardian, 4 décembre 1975, p. 4. « Public Squalor, private profit », Red Weekly, 4 décembre 1975, p. 2. « Save our health », Red Weekly, 4 décembre 1975, p. 1. « Teachers – stop the rot! », Red Weekly, 4 décembre 1975, p. 2. 1976 « Abortion conference: structure and feminism », Spare Rib, janvier 1976, pp. 20-21. « Trade unions criticise TUC article », Spare Rib, january 1976, p. 25. « White paper shock waves », The Irish Democrat, janvier 1976, p. 3. « New Scottish Labour Party launched », The Irish Democrat, février 1976, p. 3. « Green ban in Brum? », Peace News, 6 février 1976, p. 4. « Grants, cuts and you », The Beaver, 17 février 1976, p. 8. « Brum rally », Warwick Boar, 26 février 1976, p. 1. « Gaysoc », The Glasgow University Guardian, 26 février 1976, p. 3. « One Year of the Right to Work Campaign », International Socialism, mars 1976, pp. 10-15. « Cuts fight hots up », Red Weekly, 4 mars 1976, p.1. Bibliographie « Fees demonstration report », Warwick Boar, 16 mars 1976, p. 1. « Devolution not destruction », The Ecologist, mars-avril 1976, pp. 9-11. « Welsh Assembly is not good enough », The Irish Democrat, avril 1976, p. 3. « 7 days in the 6 Counties », Red Weekly, 15 avril 1976, p. 4. « Abortion news », Spare Rib, juin 1976, p. 20. « Homosexuals confer », Peace News, 11 juin 1976, p. 4. « Mass arrests at sit-down », Peace News, 25 juin 1976, p. 3. « Wages for Housework », Peace News, 25 juin 1976, p. 16. « How do we fight racism », Red Weekly, 1er juillet 1976, p. 3. « Change the line of march », International Socialism, 22 juillet 1976, p. 4. « Labour cuts its own throat », Red Weekly, 22 juillet 1976, p. 1. « Blood on Labour's hands », Red Weekly, 29 juillet 1976, p. 4. « Cuts = sackings », Red Weekly, 29 juillet 1976, p. 2. « Countering fascism in Bradford », Peace News, 20 août 1976, pp. 10-11. « Gay Centre attacked », Peace News, 20 août 1976, p. 3. « Strikes over sacked gay », Peace News, 20 août 1976, p. 3. « Our unequal brothers », The Ecologist, août-septembre 1976, pp. 269-70. « All worked up », Gay Left, 3, automne 1976, pp. 12-14. « Animal Liberation », Resurgence, septembre-octobre 1977, pp. 10-11. « Troops Out », Peace News, 8 octobre 1976, pp. 6-7. « Devolution – step to power », The Irish Democrat, novembre 1976, p. 7. « Peace People rally: Trafalgar Square », Peace News, 5 novembre 1976, p. 3. « N Ireland: a sort of unilateralism », Peace News, 19 novembre 1976, p. 7. « Crippled words », Peace News, 3 décembre 1976, p. 5. « Peace People rally », Peace News, 3 décembre 1976, p. 3. « People with disabilities and state dependency », Peace News, 3 décembre1976, p. 6. 1977 « Petrified assembly », The Irish Democrat, january 1977, p. 3. « Why bother about beauty contests », Spare Rib, janvier 1977, p. 21. « No news is good news », Red Weekly, 13 janvier 1977, p. 11. « The demands of peace », Peace News, 14 janvier 1977, pp. 9-13. « As International Socialists launch SWP », Red Weekly, 27 janvier 1977, p. 9. « 700 hundred years is too much, troops out now », Red Weekly, 27 janvier 1977, p. 12. « A glimpse into the Scottish establishment », The Irish Democrat, février 1977, p. 3. « Why Ireland won't go away », Red Weekly, 3 février 1977, p. 11. « The demands of peace », Peace News, 11 février 1977, pp. 8-10. « The occupation: Prospect and retrospect », Warwick Boar, 23 février 1977, p. 1. « Northern Ireland: mountain of harassment for mouse size visit », Peace News, 25 février 1977, p. 4. « 'What is to be done?' », The Beaver, 1er mars 1977, p. 1. 535 536 Claire Mansour, Diffusion et évolution des mouvements sociaux « 7 days in the 6 counties », Red Weekly, 10 mars 1977, p. 11. « Gayhunt in Cornwall », Peace News, 11 mars 1977, p. 4. « Students fight on despite broad left », Red Weekly, 17 mars 1977, p. 3. « Stop the witchunt », Peace News, 25 mars 1977, p. 4. « They say law and order we say troops out now », Socialist Challenge, 5 avril 1979, p. 1. « Women's Liberation 1977 », Spare Rib, mai 1977, pp. 6-16. « No to Orange rule, no to British rule », Red Weekly, 5 mai 1977, p. 1. « A dialogue of hope: Jim Forest and Betty Williams », Peace News, 6 mai 1977, p. 6. « Alternative seminars », The Glasgow University Guardian, 12 mai 1977, p. 12. « The Orange strike for privilege », Red Weekly, 12 mai 1977, p. 6. « Terror act claims new victims », Red Weekly, 22 mai 1977, p. 11. « Come all you gay women, come all you gay men », Gay Left, 4, été 1977, pp. 7-9. « Grunwick », Peace News, 1er juillet 1977, p. 3. « The insanity of secrecy in a nuclear age », The Ecologist, juillet 1977, pp. 236-9. « The struggle against nuclear power in central Europe », The Ecologist, juillet 1977, pp. 216-22. « Smallscale not windscale », Resurgence, juillet-août 1978, pp. 6-8. « Germany: Reclaiming the night », Spare Rib, août 1977, p. 21. « Grunwick women », Spare Rib, août 1977, pp. 6-8, 46. « Impartial BBC war on Welsh », The Irish Democrat, août 1977, p. 2. « Elizabeth II – Labour's Queen of Orange », Socialist Challenge, 11 août 1977, p. 10. « Malville: 60,000 in the mire », Peace News, 12 août 1977, p. 5. « Lewisham march », Peace News, 26 août 1977, p. 3. « What sort of action? », Resurgence, septembre-octobre 1977, p. 21. « Malville », Peace News, 9 septembre 1977, pp. 8-9. « CND comeback », Peace News, 23 septembre 1977, p. 3. « Work-in: the lessons of Hounslow », Socialist Challenge, 13 octobre 1977, p. 4. « Fact, myth, reason or prejudice? », The Glasgow University Guardian, 14 octobre 1977, p. 10. « Re-open Hounslow Hospital », Socialist Challenge, 20 octobre 1977, p. 3. « No to the politics of hate », Peace News, 21 octobre 1977, pp. 8-9. « Hounslow conference: How can we halt hospital closures », Socialist Challenge, 3 novembre 1977, p. 3. « Community government », Peace News, 4 novembre 1977, pp. 8-9. « Block the scabs in uniform: support the firefighters », Socialist Challenge, 10 novembre 1977, p. 5. « Firefighters ask for your support », Socialist Challenge, 17 novembre 1977, pp. 8-9. « Liverpool firefighters hit back », Socialist Challenge, 8 décembre 1977, p. 3. « The Labour left: fine words and sympathy not enough », Socialist Challenge, 8 décembre 1977, p. 4. « We'll all go together when we go », Socialist Challenge, 15 décembre 1977, p. 6. « Crossroads – which way now? », Gay Left, 5, hiver 1977, pp. 15-17. « Gays and fascism », Gay Left, 5, hiver 1977, pp. 26-29. « The Gay News Trial », Gay Left, 5, hiver 1977, pp. 32-35. Bibliographie 1978 « Bristol women's centre statement », Spare Rib, janvier 1978, p. 5. « We will walk without fear », Spare Rib, janvier 1978, pp. 22-23. « They're crucifying us », Socialist Challenge, 5 janvier 1978, p. 5. « Gay bar », Peace News, 13 janvier 1978, p. 4. « Lessons of FBU strike: troops and bureaucrats ensure defeat », Socialist Challenge, 19 janvier 1978, p. 6. « Lewisham », Peace News, 27 janvier 1978, p. 8. « Fascist threat », Spare Rib, février 1978, p. 13. « Cymdeithas », Peace News, 10 mars 1978, p. 5. « SCRAM », Peace News, 10 mars 1978, p. 3. « News Shorts », Spare Rib, mai 1978, p. 11. « Antinuclear reactions », Peace News, 5 mai 1978, p. 8. « Campaign against racism and fascism », Peace News, 5 mai 1978, p. 4. « Torness – women against nukes », Peace News, 5 mai 1978, p. 3. « The carnival is over », Peace News, 19 mai 1978, pp. 7-8. « Torness May 6th & 7th: a beginning », Peace News, 19 mai 1978, p. 3. « Conference », Spare Rib, juin 1978, pp. 6-7. Entrefilet sans titre, Spare Rib, juin 1978, p. 5. « Feminists facing fascism », Shrew, été 1978, pp. 22-23. « Fighting fascism », Gay Left, 6, été 1978, pp. 30-31. « Gay times », Gay Left, 6, été 1978, p. 4. « In the balance », Gay Left, 6, été 1978, pp. 2-4. « The Gay Activists Alliance », Gay Left, 6, été 1978, p. 8. « The Anti-Nazi League », Peace News, 14 juillet 1978, pp. 7-8. « Looking forward in Anger », Socialist Challenge, 20 juillet 1978, pp. 4-5. « Sunday against the Nazis », Socialist Challenge, 20 juillet 1978, p. 2. « Carnival time », Peace News, 28 juillet 1978, p. 3. « Lucas Aerospace », Resurgence, juillet-août 1978, p. 2. « Another view of the plenary », Spare Rib, août 1978, pp. 20-21. « Editorial », Spare Rib, août 1978, pp. 3-4. « Labour Party, TUC and pay agreements into the eighties », Socialist Challenge, 3 août 1978, p. 4. « A guide to lesbian groups », Spare Rib, septembre 1978, p. 26. « CADRIL », Peace News, 22 septembre 1978, p. 3. « Labour and the public sector », Socialist Challenge, 11 novembre 1978, pp. 8-9. « Women unite, reclaim the night », Peace News, 17 novembre 1978, p. 3. « Ford deal – 'a militant advance to the rear' », Socialist Challenge, 23 novembre 1978, p. 5. « After the Ford strike: The socialist alternative to Labourism », Socialist Challenge, 30 novembre 1978, p. 4. « Torness occupied », The Ecologist, novembre-décembre 1978, pp. 202-3. « Alternatives to unemployment », Peace News, 1er décembre 1978, p. 4. 537 538 Claire Mansour, Diffusion et évolution des mouvements sociaux « Cymdeithas », Peace News, 1er décembre 1978, p. 4. « Homosexuals fight back », Gay Left, 7, hiver 1978-79, pp. 15-16. « Two letters on Freud », Gay Left, 7, hiver 1978-79, p. 23. 1979 « End low pay now », Socialist Organiser, janvier 1979, p. 12. « Male violence, female dilemma », Spare Rib, janvier 1979, p. 9. « After Jan. 22: all out for the full claim », Socialist Press, 24 janvier 1979, p. 12. « Follow haulage drivers: finish off Callaghan », Socialist Press, 24 janvier 1979, p. 1. « Anti-strikers », Socialist Challenge, 25 janvier 1979, p. 5. « The day the low-paid rose up », Socialist Challenge, 25 janvier 1979, p. 3. « The great devo debate », The Glasgow University Guardian, 27 janvier 1979, p. 3. « Sabotage ! Hunt Saboteurs Association », The Warwick Boar, 31 janvier 1979, p. 6. « Green politics », Resurgence, janvier-février 1979, p. 6. « For a general strike! », Spartacist Britain, février 1979, p. 1. « Have mercy on my son », The Daily Mirror, 1er février 1979, p. 1. « They won't let us bury our dead », The Daily Mail, 1er février 1979, p. 1. « Press gang », Socialist Press, 7 février 1979, p. 5. « The real killers, the real vandals », Socialist Challenge, 8 février 1979, p. 3. « Home news », Socialist Challenge, 15 février 1979, p. 7. « 'Concordat' means phase 5 », Socialist Press, 21 février 1979, p. 12. « Devolution in Scotland: one small step towards working class control », Socialist Challenge, 22 février 1979, p. 10. « First victims of the concordat : the low paid? », Socialist Challenge, 22 février 1979, p. 1. « Home news », Socialist Challenge, 22 février 1979, p. 7. « Towards a workers' plan for the NHS », Socialist Challenge, 22 février 1979, p. 9. « Yes in Wales », Socialist Challenge, 22 février 1979, p. 2. « Press has a field day », The Glasgow University Guardian, 24 février 1979, p. 4. « Camden : all-out strike wins £60 for 35 hours », Socialist Press, 28 février 1979, p. 1. « Crisis in the NHS », Socialist Action, mars 1979, p. 7. « Guide to Women's Theatre Groups », Spare Rib, mars 1979, pp. 18-21. « The Con-cordat », Socialist Challenge, 1er mars 1979, p. 2. « 'Housewives can be an important part of the left' », Socialist Challenge, 8 mars 1979, p. 3. « Women against violence », Peace News, 23 mars 1979, p. 4. « Love music, hate sexism », Spare Rib, avril 1979, pp. 6-7. « Referendum in Wales », The Irish Democrat, avril 1979, p. 5. « Scottish democracy said 'YES'», The Irish Democrat, avril 1979, p. 5. « Scottish workers», The Irish Democrat, avril 1979, p. 5. « Southall 23 April: Blair Peach was murdered by police », Socialist Challenge, 26 avril 1979, p. 1. « The day they turned Southall into a colony », Socialist Challenge, 26 avril 1979, pp. 2-3. Bibliographie « Is Margaret Thatcher for women? », Spare Rib, mai 1979, pp. 3-4. « No more school meals, books, buses», Spare Rib, mai 1979, pp. 3-4. « Green crosses », The Ecologist, mai-juin 1979, p. 29. « Law and order: the truncheon under Labour », Socialist Challenge, 1er mai 1979, p. 5. « Gaelic culture », Peace News, 4 mai 1979, p. 7. « Rock Against Racism in park today », The New York Times, 5 mai 1979, p. 14. « Tory victory: a battle lost but not the war », Socialist Challenge, 10 mai 1979, p. 2. « No nukes explosion hits Torness », Socialist Challenge, 17 mai 1979, p. 6. « Thatcher's Irish ministers: the military men », Socialist Challenge, 17 mai 1979, p. 10. « IRSP are targets in terror swoop », Socialist Challenge, 31 mai 1979, p. 12. « One Prime Minister doesn't make a matriarchy », Spare Rib, juin 1979, p. 10. « Editorial », Gay Left, 8, été 1979, p. 2-3. « Pat Arrowsmith – Pacifist », Gay Left, 8, été 1979, pp. 11-12. « Out into the open », Spare Rib, juillet 1979, pp. 42-46. « Spare Rib: 7 years on », Spare Rib, juillet 1979, pp. 6-8, 18. « End the war », Socialist Challenge, 30 août 1979, p. 1. « Animal Liberation », Spare Rib, septembre 1979, p. 21. « A language for freedom », Peace News, 28 septembre 1979, pp. 12-14. « The gin and tonic set », Peace News, 28 septembre 1979, p. 8. « Anti-homosexual from both sides », The Glasgow University Guardian, 13 octobre 1979, p. 2. « Trident replaces Polaris », Peace News, 9 novembre 1979, p. 4. Après 1979 « Close to extinction », Resurgence, septembre-octobre 1980, p. 36. « 80,000 against the missiles », Socialist Challenge, 30 octobre 1980, p. 3. « Save them! », Socialist Challenge, 30 octobre 1980, p. 1. « The lark », Socialist Challenge, 12 mars 1981, p. 4. « An army of occupation », Socialist Challenge, 16 avril 1981, pp. 2-3. « Brixton's outside agitators », Socialist Challenge, 16 avril 1981, p. 1. « This time we can win », Socialist Challenge, 21 octobre 1981, pp. 8-9. 4.1.2. Archives en ligne CONNOLLY ASSOCIATION : Journal nationaliste destiné à la diaspora irlandaise The Irish Democrat <http://www.connollyassociation.org.uk/irishdemocrat/>. EXACT EDITIONS (accès payant) : Jounaux écologistes Resurgence et The Ecologist <https://reader.exacteditions.com/magazines/308/issues/>. FRAGMENTS D'HISTOIRE DE LA GAUCHE RADICALE : Journal étudiant français Action <http://archivesautonomies.org/spip.php?article2201>. 539 540 Claire Mansour, Diffusion et évolution des mouvements sociaux FREEDOM ARCHIVES : journal The Black Panther Newspaper <https://search.freedomarchives.org/search.php?view_collection=90&year=1967>. GAY LEFT : Revue gay marxiste Gay Left <http://gayleft1970s.org/>. GAY NEWS ARCHIVE PROJECT : Journal gay Gay News <http://gaynewsarchive.org/>. GLASGOW GUARDIAN DIGITAL ARCHIVE : Journal étudiant The Glasgow University Guardian <https://www.gla.ac.uk/myglasgow/archives/guardian/>. HANSARD : transcriptions officielles des débats parlementaires à Westminster <https://hansard.parliament.uk/>. HARVARD CRIMSON : Journal étudiant américain The Harvard Crimson <https://www.thecrimson.com/>. INTERNATIONAL TIMES : Magazine contre-culturel The International Times <http://www.internationaltimes.it/archive/> JOURNAL ARCHIVES : Magazine féministe Spare Rib <https://journalarchives.jisc.ac.uk/britishlibrary/sparerib>. LSE DIGITAL LIBRARY : Journal étudiant The Beaver <https://digital.library.lse.ac.uk/collections/thebeaver>. MARGARET THATCHER FOUNDATION : Transcriptions des discours de Margaret Thatcher <https://www.margaretthatcher.org/speeches/search.asp>. MARXISTS' INTERNET ARCHIVE : Publications de la gauche radicale <https://www.marxists.org/history/etol/newspape/>. MUTHER GRUMBLE ONLINE ARCHIVE : Journal alternatif Muther Grumble <http://www.muthergrumble.co.uk/archive.htm>. NATIONAL LIBRARY OF SCOTLAND DIGITAL GALLERY : Journal nationaliste écossais Sruth <http://digital.nls.uk/an-comunn-gaidhealach/archive/126160454>. OUTHISTORY : Publication du GLF de New York Come Out! <http://outhistory.org/exhibits/show/come-out-magazine-1969-1972/the-come-out-archive>. SOCIALIST REGISTER : Revue marxiste Socialist Register <https://socialistregister.com/index.php/srv/issue/archive#.WqLtyejOW70>. UNIVERSITY OF LEEDS DIGITAL LIBRARY: Journaux étudiants Union News et Leeds Student <http://digital.library.leeds.ac.uk/view/newspapers/Union_News.html>. WARWICK DIGITAL COLLECTIONS : Journal étudiant Campus et The Warwick Boar <https://wdc.contentdm.oclc.org/digital/collection/boar/search/order/date/ad/as>. 4.1.3. Documents officiels CAMERON COMMISSION, Cameron Report: Disturbances in Northern Ireland, 1969, HSMO [en ligne], [consulté le 23 septembre 2015], disponible à l'adresse : <http://cain.ulst.ac.uk/hmso/cameron.htm>. Bibliographie COMMITTEE ON HIGHER EDUCATION, Higher Education: report of the committee appointed by the Prime Minister under the Chairmanship of Lord Robbins 1961-63, Londres : HSMO, 1963 [en ligne], [consulté le 2 février 2017], disponible à l'adresse suivante : <http://www.educationengland.org.uk/documents/robbins/robbins1963.html #02>. MINISTRY OF DEFENCE AND PRIME MINISTER'S OFFICE, « The Women of the Second World War », GOV.UK, 16 avril 2015 [en ligne], [consulté le 1er novembre 2017], disponible à l'adresse suivante : <https://www.gov.uk/government/news/thewomen-of-the-second-world-war>. OFFICE FOR NATIONAL STATISTICS, « Annual Percentage of Employed Women in the UK », GOV.UK, 31 mai 2017 [en ligne], [consulté le 1er novembre 2017], disponible à l'adresse suivante : <https://cy.ons.gov.uk/aboutus/transparencyandgovernance/freedomofinformationf oi/annualpercentageofemployedwomenintheuk>. 4.1.4. Manifestes de partis politiques CONSERVATIVE PARTY, « 1970 Conservative Party General Election Manifesto: A Better Tomorrow », 1970, Political Sciences Resources [en ligne], [consulté le 7 mars 2018], disponible à l'adresse suivante : <http://www.politicsresources.net/area/uk/man/con70.htm>. CONSERVATIVE PARTY, « Conservative Manifesto, 1979 », 1979, Political Sciences Resources [en ligne], [consulté le 8 mai 2018], disponible à l'adresse suivante : <http://www.politicsresources.net/area/uk/man/con79.htm>. 4.1.5. Documents émanant du monde associatif BLACK LIBERATION FRONT, « Grass Roots Self-Help Community Project », 1972, document tiré de la collection d'archives « Black History Collection », « Grass Roots », 01/04/04/01/04/01/04, Londres : Institute of Race Relations. BLACK PANTHER MOVEMENT, « All black people and white progressives rally and demonstrate », mars 1970, tract tiré de la collection d'archives « Black History Collection », « Black Panther Movement », 01/04/04/01/04/01/05, Londres : Institute of Race Relations. BLACK PANTHER MOVEMENT, « Black People Don't Vote: Organise against exploitation and British Institutional Racism », 1970, tract tiré de la collection d'archives « Black History Collection », « Black Panther Movement », 01/04/04/01/04/01/05, Londres : Institute of Race Relations. BLACK PANTHER MOVEMENT, « Organised action in self-defence », 27 août 1970, tract tiré de la collection d'archives « Black History Collection », « Black Panther Movement », 01/04/04/01/04/01/05, Londres : Institute of Race Relations. 541 542 Claire Mansour, Diffusion et évolution des mouvements sociaux BLACK PANTHER MOVEMENT, « Solidarity meeting with Black Panthers », 1969, tract tiré de la collection d'archives « Black History Collection », « Black Panther Movement », 01/04/04/01/04/01/05, Londres : Institute of Race Relations. BLACK PANTHER MOVEMENT, « What we want », 1971, tract tiré de la collection d'archives « Black History Collection », « Black Panther Movement », 01/04/04/01/04/01/05, Londres : Institute of Race Relations. CAMPAIGN FOR SOCIAL JUSTICE IN NORTHERN IRELAND, Northern Ireland: The Plain Truth, Dungannon : 15 juin 1969 (2ème éd.). CENTRE FOR SOCIALIST EDUCATION, Report of the Workers Control Conference: Nottingham, 1966, Nottingham : The Week, 1966. COATES Ken et al., Bertrand Russel and Industrial Democracy, Nottingham : Institute for Workers' Control, 1970. GAY LIBERATION FRONT, « Gay Liberation Front Manifesto, London 1971 », Londres, 1971, Internet History Sourcebooks Project, Fordham University, New York [en ligne], [consulté le 3 février 2018], disponible à l'adresse suivante : <https://sourcebooks.fordham.edu/pwh/glf-london.asp>. NEW YORK RADICAL WOMEN, « The Personal Is Political », février 1969 [en ligne], [consulté le 27 décembre 2017], disponible à l'adresse suivante : <http://www.carolhanisch.org/CHwritings/PIP.html>. ORGANISATION OF WOMEN OF ASIAN AND AFRICAN DESCENT, « First National Black Women's Conference », 1979, tract tiré de la collection d'archives « Black History Collection », « OWAAD, Organisation of Women of Asian and African Descent », 01/04/04/01/04/02/27, Londres : Institute of Race Relations. RED STOCKINGS, « No More Miss America », 22 août 1968, dans Alexander BLOOM et Wini BREINES (éds), Takin' It to the Streets : A Sixties Reader, Oxford : Oxford University Press, 2011, pp. 409-411. SCANLON Hugh, The Way Forward for Workers'Control, Nottingham : Insitute for Workers' Control, 1968 [en ligne], [consulté le 18 mars 2018], disponible à l'adresse suivante : <http://www.socialistrenewal.net/node/121>. STUDENT NON-VIOLENT COORDINATING COMMITTEE, « SNCC Position Paper », Waveland, Mississippi, novembre 1964, Women and Social Movement in the United States, 1600-2000 [en ligne], [consulté le 1er décembre 2017], disponible à l'adresse suivante : <http://womhist.alexanderstreet.com/SNCC/doc43.htm>. STUDENT NON-VIOLENT COORDINATING COMMITTEE, « Women, SNCC and Stokely : An email dialog, 2013-2014 », Women and Social Movement in the United States, 1600-2000 [en ligne], [consulté le 1er décembre 2017], disponible à l'adresse suivante : < http://womhist.alexanderstreet.com/SNCC/doc90.htm>. TROOPS OUT MOVEMENT, Alternative White Paper on Ireland, Londres : Literature Committee of the Troops Out Movement, 1974, [Box 10, 2a St Paul's Rd, N.1], Londres : British Library. ULSTER VANGUARD, Ulster – A Nation, Ulster Vanguard Publication, avril 1972 [en ligne], [consulté le 5 avril 2018], disponible à l'adresse suivante : <http://cain.ulst.ac.uk/othelem/organ/docs/vanguard72.htm>. Bibliographie UNIVERSAL COLOURED PEOPLE'S ASSOCIATION, « UCPA Black Power », 1967, document tiré de la collection d'archives « Black History Collection », « Universal Coloured People's Association (UCPA) », 01/04/04/01/04/01/17, Londres : Institute of Race Relations. VIETNAM SOLIDARITY CAMPAIGN, « Why Vietnam Solidarity? Policy Statement by the Nation Council of the Vietnam Solidarity Campaign », Londres : Hatfield Press, 1966 [en ligne], [consulté le 23 juin 2018], disponible à l'adresse : <https://www.marxists.org/history/etol/newspape/vsc/why-vietnamsolidarity.pdf>. 4.1.6. Discours CHURCHILL Winston, débat à la Chambre des Communes, 16 août 1945, Hansard 1803-2005, 413, paragraphe 94 [en ligne], [consulté le 28 février 2018], disponible à l'adresse suivante : <http://hansard.millbanksystems.com/commons/1945/aug/16/debate-on-the-address>. LEWIS Saunders, « The Fate of the Language », discours radiophonique, 13 février 1962 [en ligne], [consulté le 28 avril 2018], disponible à l'adresse suivante : <https://morris.cymru/testun/saunders-lewis-fate-of-the-language.html>. MACMILLAN Harold, « The Wind of Change », Parlement d'Afrique du Sud, Le Cap, 3 février 1960, South African History Online [en ligne], [consulté le 20 octobre 2017], disponible à l'adresse suivante : <http://www.sahistory.org.za/archive/wind-change-speech-made-south-africaparliament-3-february-1960-harold-macmillan>. THATCHER Margaret, « Conservative Party Political Broadcast (Winter of Discontent) », 17 janvier 1979, Margaret Thatcher Foundation [en ligne], [consulté le 15 mars 2018], disponible à l'adresse suivante : <https://www.margaretthatcher.org/document/103926>. THATCHER Margaret, « Speech to Conservative Rally in Edinburgh », 25 avril 1979, Margaret Thatcher Foundation [en ligne], [consulté le 8 mai 2018], disponible à l'adresse suivante : <https://www.margaretthatcher.org/document/104043>. THATCHER Margaret, « General Election Press Conference ('Scottish Press Conference') », 26 avril 1979, Margaret Thatcher Foundation [en ligne], [consulté le 2 janvier 2018], disponible à l'adresse suivante : <https://www.margaretthatcher.org/document/104045>. THATCHER Margaret, « Speech to Conservative Rally in Bolton », 1er mai 1979, Margaret Thatcher Foundation [en ligne], [consulté le 15 mars 2018], disponible à l'adresse suivante : <https://www.margaretthatcher.org/document/104065>. WILSON Harold, « Labour's Plan for Science », congrès annuel du Parti travailliste à Scarborough, 1er octobre 1963, School of Politics and International Relations, University of Nottingham [en ligne], [consulté le 2 février 2017], disponible à l'adresse : <http://nottspolitics.org/wp-content/uploads/2013/06/Labours-Plan-for-science.pdf>. 543 544 Claire Mansour, Diffusion et évolution des mouvements sociaux 4.1.7. Mémoires, autobiographies et témoignages ALI Tariq, Street Fighting Years : an Autobiography of the Sixties, Londres : Verso, 2005. CASTLE Barbara, The Castle Diaries: 1964-1976, London: Macmillan, 1990. HARDING Norman, Staying Red: Why I Remain a Socialist, Londres : Index Books, 2005. HEATH Edward, The Autobiography of Edward Heath: The Course of My Life, Londres : Hodder and Stoughton, 1988. HUME John, A new Ireland: politics, peace and reconciliation, Cork : Roberts Rinehart Publishers, 1996. MCALISKEY Bernadette, The price of my Soul, Londres : Pan Books, 1972. MAILER Norman, The Armies of the Night: History as a novel, the novel as history, New York : Plume,1994. NEWENS Arthur Stanley, « Memories of a Seminal Year », International Socialism, 112, 12 octobre 2006 [en ligne], [consulté le 26 avril 2017], disponible à l'adresse : <http://isj.org.uk/memories-of-a-seminal-year/>. O'NEILL Terence, The autobiography of Terence O'Neill, Londres : Hart-Davis, 1972. ROWBOTHAM Sheila, Promise of a Dream: Remembering the Sixties, New York : Verso, 2001. THATCHER Margaret, The Downing Street Years, New York : Harper Collins, 1993. WILSON Harold, The Labour government, 1964-70: a personal record, Harmondsworth : Penguin Books, 1974. 4.1.8. Autres supports THE BEATLES, « I want to hold your hand », Meet the Beatles!, Londres : EMI Studio, 1963. THE BEATLES, « Why don't we do it in the road », The Beatles, Londres : Apple Records, 1968. 4.2. SOURCES SECONDAIRES 4.2.1. Ouvrages ALEXANDER Robert J., International Trotskyism 1929-1985: A Documented Analysis of the Movement, Durham et Londres : Duke University Press, 1991. ANDREWS Geoff, Endgames and New Times: The Final Years of British Communism, 19641991, Londres : Laurence & Wishart, 2004. BARDON Jonathan, A history of Ulster, Belfast : Blackstaff Press, 1992. BECKETT Andy, When the Lights Went Out: What Really Happened to Britain in the Seventies, Londres : Faber and Faber, 2009. Bibliographie BELL Daniel, The Coming of Post-Industrial Society, New York : Basic Books, 1973. BOUCHIER David, Idealism and revolution: new ideologies of liberation in Britain and the United States, New York : St. Martin's Press, 1978. BOUCHIER David, The Feminist Challenge: The Movement for Women's Liberation in Britain and in the United States, Londres : Macmillan, 1983. BOURKE Joanna, Working-Class Cultures in Britain 1890–1960: Gender, class and ethnicity, Londres : Routledge, 2009. BRADLEY Quintin, The Tenants' Movement: Resident Involvement, Community Action and the Contentious Politics of Housing, New York : Routledge, 2014. BRUCE Steve, Paisley: religion and politics in Northern Ireland, Oxford : Oxford University Press, 2009. CAINE Barbara, English Feminism: 1780-1980, Oxford: Oxford University Press, 1997. CARSON Rachel, Silent Spring, Greenwich (Connecticut) : Fawcett, 1962. CARTER April, Peace Movements: International Protest and World Politics Since 1945, New York : Routledge, 2014. CHASTAGNER Claude, Révoltes et utopies: militantisme et contre-culture dans l'Amérique des années soixante, Paris, France : Presses universitaires de France, 2012. COLLEY Linda, Britons: Forging the Nation 1707-1837, Londres : Pimlico, 2003. CROUCH Colin, The Student Revolt, Londres : Bodley Head, 1970. CRUIKSHANK Maragaret, The Gay and Lesbian Liberation Movement, New York : Routledge, 1992. DEBRAY Régis, Revolution in the Revolution, New York : Grove Press Inc., 1967. DEWITT John, Indian Workers' Association in Britain, Londres : Oxford Univeristy Press, 1969. DOOLEY Brian, Black and Green: The Fight for Civil Rights in Northern Ireland and Black America, Londres : Pluto Press, 1998. DRESSER Madge, Black and White on the Buses: The 1963 Colour Bar Dispute in Bristol, Bristol : Bristol Broadside, 1986. DUCLOS Nathalie, La dévolution des pouvoirs à l'Écosse et au pays de Galles : 1966-1999, Nantes : Éditions du Temps, 2007. DUMBRELL John, A Special Relationship: Anglo-American Relations from the Cold War to Iraq, 2ème éd., Basingstoke : Palgrave Macmillan, 2006. ELLISON Graham et Jim SMYTH, The Crowned Harp: Policing Northern Ireland, Londres : Pluto Press, 2000. ENGEL Stephen M., The Unfinished Revolution: Social Movement Theory and the Gay and Lesbian Movement, Cambridge : Cambridge University Press, 2001. EVANS David, A History of Nature Conservation in Britain, Londres : Routledge, 1997. EVANS D. Gareth, A History of Wales: 1906-2000, Cardiff : University of Wales Press, 2000. FARBER David, The Age of Great Dreams: America in the 1960s, New York : Hill and Wang, 1994. FARRELL Michael, Northern Ireland: the Orange State, Londres : Pluto Press, 1980. 545 546 Claire Mansour, Diffusion et évolution des mouvements sociaux FRIEDAN Betty, The Feminine Mystique, New York : Dell, 1973, p. 11. FRYER Peter, Staying Power: The History of Black People in Britain, Londres : Pluto Press, 1984. GILROY, Paul, The Black Atlantic: Modernity and Double Consciousness, Cambridge : Harvard University Press, 1993. GOFFMAN Erving, Frame Analysis: An Essay on the Organization of the Experience, New York : Harper Colophon, 1974. GOODWIN Jeff et James JASPER (éds), The Social Movements Reader: Cases and Concepts, Chichester : Wiley Blackwell, 2015. GREEN Jonathon, All Dressed up: The Sixties and the Counter-Culture, Londres : Jonathan Cape, 1998. HARVIE Christopher, Scotland and Nationalism: Scottish Society and Politics 1707 to the Present, Abington : Routledge, 2004. HOGGART Richard, The Uses of Literacy: Aspects of Working-Class Life with Special Reference to Publications and Entertainments, Harmondsworth : Penguin Books, 1957. HOEFFERLE Caroline, British Student Activism in the Long Sixties, New York : Routledge, 2013. HOWELL Chris, Trade Unions and the State: The Construction of Industrial Relations Institutions in Britain, 1890-2000, Princeton : Princeton University Press, 2005. HUDSON Kate, CND - Now More Than Ever: The Story of a Peace Movement, Londres : Vision, 2005. INGLEHART Ronald, The Silent Revolution: Changing Values and Political Styles Among Western Publics, Princeton : Princeton University Press, 1977. JIVANI Alkarim, It's Not Unusual: A History of Lesbian and Gay Britain in the Twentieth Century, Londres : Michael O'Mara, 1997. JOSEPH Peniel E., Stokely: A Life, New York : Perseus Books Group, 2014. KEAN Hilda, Animal Rights: Political and Social Change in Britain since 1800, Londres : Reaktion Books, 1998. LATOUR Vincent, Le Royaume-Uni et la France au test de l'immigration et à l'épreuve de l'intégration : 1930-2012, Pessac, Presses Universitaires de Bordeaux, 2014. LENT Adam, British Social Movements since 1945: Sex, Colour, Peace, and Power, New York : Palgrave, 2001. LEVIN Simon A. (éd), The Princeton Guide to Ecology, Princeton : Princeton University Press, 2009. LLOYD Leonora, Women Workers in Britain: A Handbook, Londres : Socialist Women Publications, 1971. LOWE Rodney, The Welfare State in Britain Since 1945, Basingstoke : Palgrave Macmillan, 2005. MACLEAY Iain et Andrew Murray SCOTT, Britain's Secret War: Tartan terrorism and the Anglo-American State, Édimbourg : Mainstream Publishing, 1990. MALCHOW Howard L., Special Relations: The Americanization of Britain?, Stanford : Stanford University Press, 2001. Bibliographie MARTIN Maureen M., The Mighty Scot: Nation, Gender, and the Nineteenth-Century Mystique of Scottish Masculinity, Albany : SUNY Press. MARWICK Arthur, The Sixties: Cultural Revolution in Britain, France, Italy, and the United States, c.1958-c.1974, Oxford : Oxford University Press, 1998. MATHIEU Lilian, Comment lutter ? : sociologie et mouvements sociaux, Paris : Textuel, 2004. MCADAM Doug, Political Process and the Development of Black Insurgency, 1930-1970, Chicago : University of Chicago Press, 1999. MCALLISTER Ian et Richard ROSE, United Kingdom Facts, Londres : Palgrave Macmillan, 1982. MORGAN Kenneth O., Rebirth of a Nation: Wales 1880-1980, Oxford : Oxford University Press, 1981. MORGAN Kenneth O., The People's Peace: British History, 1945-1989, Oxford : Oxford University Press, 1990. NAGLE John, Mary-Alice C. CLANCY, Shared Society or Benign Apartheid? Understanding Peace Building in Divided Societies, Basingstoke : Palgrave Macmillan, 2010. NEVEU Erik, La sociologie des mouvements sociaux, Paris : La Découverte, 2005. NUTALL Jeff, Bomb culture, Londres : Paladin, 1972. PATERSON Lindsay, The Autonomy of Modern Scotland, Édimbourg : Edinburgh University Press, 1994. PITTOCK Murray, The Road to Independence: Scotland since the Sixties, Londres : Reaktion Books, 2002. POWER Lisa, No Bath But Plenty of Bubbles: An Oral History of the Gay Liberation Front 1970-73, Londres : Cassell, 1995. PURDIE Bob, Politics in the streets: the origins of the civil rights movement in Northern Ireland, Belfast : Blackstaff press, 1990. REID Carlton, Bike Boom : The Unexpected Resurgence of Cycling, Washington : Island Press, 2000. REVAUGER Cécile, Jean-Paul REVAUGER et Andrée SHEPHERD, Le mémoire de civilisation britannique en maîtrise et en DEA, Bordeaux, PUB Collection « Parcours universitaire », 2000. SANDBROOK Dominic, Never Had It So Good: A History of Britain from Suez to the Beatles, Londres : Abacus, 2005. SANDBROOK Dominic, White Heat: A History of Britain in the Swinging Sixties, Londres : Abacus, 2007. SANDBROOK Dominic, State of Emergency: The Way We Were: Britain 1970-74, Londres : Penguin, 2011. SANDBROOK Dominic, Seasons in the Sun: The Battle for Britain, 1974-1979, Londres : Penguin Books, 2013. SCALMER Sean, Gandhi in the West: the Mahatma and the rise of radical protest, Cambridge : Cambridge University Press, 2011. SIMMONS Ian G., An Environmental History of Great Britain: From 10,000 Years Ago to the Present, Édimbourg : Edinburgh University Press, 2001. 547 548 Claire Mansour, Diffusion et évolution des mouvements sociaux SIVANANDAN Ambalavaner, A Different Hunger: Writings on Black Resistance, Londres : Pluto Press, 1982. SMITHEY Lee A., Unionists, loyalists, and conflict transformation in Northern Ireland, Oxford ; New York : Oxford University Press, 2011. SOLOMOS JOHN, Race and Racism in Britain, Londres, Macmillan, 1993. SUNDAY TIMES INSIGHT TEAM, Ulster, Londres : Penguin Books, 1972. TARROW Sidney, Power in Movement: Social Movements and Contentious Politics, Cambridge : Cambridge University Press, 2011. THOMLINSON Nathalie, Race, Ethnicity and the Women's Movement in England, 1968–1993, Londres : Palgrave Macmillan, 2016. THOMPSON Edward Palmer, The Making of the English Working Class, New York : Vintage, 1966. TOURAINE Alain, La société post-industrielle : naissance d'une société, Paris : Denoël, 1969. WEEKS Jeffrey, Coming Out: Homosexual Politics in Britain from the Nineteenth Century to the Present, Londres : Quartet Books, 1979. WELLS Tom, The War Within: America's Battle Over Vietnam, Berkeley : University of California Press, 2005. WICHERT Sabine, Northern Ireland since 1945, Londres : Longman, 1999. WITTNER Lawrence, Confronting the bomb: a short history of the world nuclear disarmament movement, Stanford : Stanford University Press, 2009. WOLF Susan et Neil STANLEY, Wolf and Stanley on Environment Law, Oxford: Routledge, 2011. WOLFE Billy, Scotland Lives: The Quest for Independence, Édimbourg : Reprographia, 1973. WRENCH John, Unequal Comrades: Trade Unions, Equal Opportunity and Racism, Coventry : University of Warwick, 1986. WRIGLEY Chris, British Trade Unions since 1933,Cambridge : Cambridge University Press, 2002. YOUNG Nigel, An Infantile Disorder: the Crisis and Decline of the New Left, Londres : Routledge and Kegan Paul, 1977. ZIERLER David, The Invention of Ecocide: Agent Orange, Vietnam, and the Scientists Who Changed the Way We Think about the Environment, Athens (Géorgie) : Georgia University Press, 2011. 4.2.2. Contributions à des ouvrages collectifs ANGELO Anne-Marie, « 'We All Became Black': Tony Soares, African-American Internationalists, and Anti-Imperialism » dans KELLEY Robin D. G. et Stephen G. N. TUCK (éds.), The Other Special Relationship: Race, Rights, and Riots in Britain and the United States, New York : Palgrave Macmillan, 2015, pp. 95-102. Bibliographie CLARKE John, Stuart HALL, Tony JEFFERSON et Brian ROBERT, « Subcultures, cultures and class », dans Stuart HALL et Tony JEFFERSON (éds), Resistance through Rituals: Youth subcultures in post-war Britain, Abington : Routledge, Taylor & Francis Group, 2006, pp. 3-59. CONNOLLY S. J., « Lemass, Sean », dans S.J. CONNOLLY (éd), The Oxford companion to Irish history, Oxford : Oxford University Press, 1998, p. 313. DAVIS John, « Containing Racism? The London Experience, 1957-1968 » dans KELLEY Robin D. G. et Stephen G. N. TUCK (éds.), The Other Special Relationship: Race, Rights, and Riots in Britain and the United States, New York : Palgrave Macmillan, 2015. DEGROOT Gerard J., « Left, Left, Left!': The Vietnam Day Committee, 1965-66 », dans Gerard DEGROOT (éd.), Student Protest: The Sixties and After, Harlow: Longman, 1998, pp. 85-99. DOHERTY Brian, Matthew PATERSON, et Benjamin SEEL, « Direct Action in British Environmentalism », dans Brian DOHERTY, Matthew PATERSON, et Benjamin SEEL (éds), Direct Action in British Environmentalism, Londres : Routledge, 2000, pp. 1-24. DUCLOS Nathalie, « The Idiosyncrasies of Scottish National Identity », dans A. MILNE et R. R. VERDUGO (dirs), National Identity: Theory and Research, Charlotte (Caroline du Nord) : Information Age Publishing, 2016, pp.83-112. ELLIS Sylvia, « 'A Demonstration of British Good Sense?' British Student Protest during the Vietnam War » dans Gerard DEGROOT (éd.), Student Protest: The Sixties and After, Harlow: Longman, 1998, pp. 54-69. FREY Michael, « The International Peace Movement », dans KLIMKE Martin et Joachim SCHARLOTH (éds), 1968 in Europe – A History of Protest and Activism 1956-1977, New York : Palgrave Macmillan, 2008, pp. 33-44. HALL Stuart, « The 'First' New Left: Life and Times » dans Robin ARCHER et le OXFORD UNIVERSITY SOCIALIST DISCUSSION GROUP (éds), Out of Apathy: Voices of the New Left Thirty Years on: Papers Based on a Conference Organized by the Oxford University Socialist Discussion Group, Londres : Verso, 1989, pp. 13-38. HEMPTON David, « Ecumenism », dans S.J. CONNOLLY (éd.), The Oxford companion to Irish history, Oxford : Oxford University Press, 1998, pp. 167-68. HETTINGER Ned, « Environmental ethics », dans Mark BEKOFF et Carron MEANEY (éds), Encyclopedia of Animal Rights and Welfare, Westport : Greenwood Press, 1998. HMED Choukri, « Grève des loyers » dans FILLEULE Olivier, Lilian MATHIEU et Cécile PECHU (éds), Dictionnaire des mouvements sociaux, Paris : Presses de Sciences Po, 2009, p. 276. HOEFFERLE Caroline, « A Web of Interconnections: Student Peace Movements in Britain and the United States, 1960-1975 » dans Benjamin ZIEMANN (éd.), Peace Movements in Western Europe, Japan and the USA during the Cold War, Essen : Klartext, 2008, pp. 131-147. JAMESON Frederic, « Periodizing the 60s », dans Sohnia SAYRES, Anders STEPHANSON, Stanley ARONOWITZ et Frederic JAMESON, The 60s without Apology, Minneapolis : University of Minnesota Press, 1984, pp. 178-209. 549 550 Claire Mansour, Diffusion et évolution des mouvements sociaux MCADAM Doug, « 'Initiator' and 'Spin off' Movements: Diffusion Processes in Protest Cycles », dans Mark TRAUGOTT (éd.), Repertoires and Cycles of Collective Action, Durham : Duke University Press, 1995, pp. 217-239. MILES Robert et Annie PHIZACKLEA, « The British Trade Union Movement and Racism » dans Peter BRAHAM, Ali RATTANSI et Richard SKELLINGTON, Racism and Antiracism: Inequalities, opportunities and policies, Londres : Sage, 1992, pp. 30-45. NEHRING Holger, « Great Britain » dans KLIMKE Martin et Joachim SCHARLOTH (éds), 1968 in Europe – A History of Protest and Activism: 1956-1977, New York : Palgrave Macmillan, 2008, pp. 125-136. OFFEN Karen, « Feminism », dans Peter N. STEARNS (éd), Encyclopedia of Social History, New York : Garland, 1994, pp. 356-58. RILEY Denise, « Some Peculiarities of Social Policies Concerning Women in Wartime and Postwar Britain », dans Margaret RANDOLPH HIGGONET et al. (éds), Behind the Lines: Gender and the Two World Wars, New Haven: Yale University Press, 1987, pp. 260-271. TAYLOR Richard, « Labour Party and CND: 1957-1984 », dans TAYLOR Richard et Nigel YOUNG (éds), Campaigns for Peace: British Peace Movements in the Twentieth Century, Manchester : Manchester University Press, 1987, pp. 100-130. WEBB Clive, « Brotherhood, Betrayal, and Rivers of Blood: Southern Segregationists and British Race Relations » dans KELLEY Robin D. G. et Stephen G. N. TUCK (éds.), The Other Special Relationship: Race, Rights, and Riots in Britain and the United States, New York : Palgrave Macmillan, 2015. WILLIAMS Colin H., « Restoring the language », dans Geraint H. JENKINS et Mari A. WILLIAMS (éds), 'Let's Do Our Best for the Ancient Tongue': The Welsh Language in the Twentieth Century, Cardiff : University of Wales Press, 2000, p. 657-81. YOUNG Nigel, « Tradition and innovation in the British Peace Movement: towards an analytical framework » dans TAYLOR Richard et Nigel YOUNG (éds), Campaigns for Peace: British Peace Movements in the Twentieth Century, Manchester : Manchester University Press, 1987, pp. 5-22. 4.2.3. Thèses universitaires LENORMAND MARC, Une histoire critique de l' « hiver du mécontentement » de 1978-1979 : Le mouvement syndical britannique face à la crise du travaillisme, l'extension de la conflictualité sociale et la montée de la nouvelle droite thatchérienne, thèse de doctorat, sous la direction de Keith DIXON, Université Lumière Lyon II, 2012. REVAUGER Jean-Paul, La gauche extra-parlementaire britannique à l'épreuve : 1970-1980, thèse de troisième cycle, sous la direction de Pierre MORERE, Université Stendhal Grenoble III, 1982. REVAUGER Jean-Paul, Le Pouvoir Aboli : L'idée d'autogestion en Grande-Bretagne 1900-1983, thèse de doctorat d'État, sous la direction de Pierre MORERE, Université Stendhal Grenoble III, 1986. Bibliographie WILSON Mark, The British Environmental Movement: The Development of an Environmental Consciousness and Environmental Activism, 1945-1975, thèse de doctorat, sous la direction de Joe STREET et Sylvia ELLIS, Université de Northumbria, 2014. 4.2.4. Articles scientifiques ANGELO Anne-Marie, « The Black Panthers in London: 1967-1972: A diasporic struggles navigates the Black Atlantic », Radical History Review, 103, hiver 2009, pp. 17-35. BEBBER Brett, « Model migrants?: Sikh activism and race relations organisations in Britain », Contemporary British History, publié le 24 janvier 2017 [en ligne], [consulté le 29 août 2017], disponible à l'adresse suivante : <http://www.tandfonline.com/doi/full/10.1080/13619462.2017.1280400>. BECHHOFER Frank, John H. GOLDTHORPE, David LOCKWOOD et Jennifer PLATT, « The Affluent Worker and the Thesis of Embourgeoisement: Some Preliminary Research Findings », Sociology, janvier 1967, 1, no. 1, pp. 11-31. BENFORD Robert D. et David A. SNOW, « Framing Processes and Social Movements: An Overview and Assessment », Annual Review of Sociology, 26, 2000, pp. 611-639. BENNETT Yvonne, « Vera Brittain and the Peace Pledge Union » dans Ruth PIERSON (éd), Women and Peace – Theoretical, Historical and Practical Perspectives, Londres : Croom Helm, pp. 192-213. BINARD Florence, « The British Women's Liberation Movement in the 1970s: Redefining the Personal and the Political », Revue Française de Civilisation Britannique, 21, no. 3, 2016, p. 61. BORY Stéphanie, « 'A dream turned to ashes'? Les évolutions contradictoires du nationalisme gallois dans les années 1970, Revue Française de Civilisation Britannique, 21, no.3, 2016, pp. 127-155. BURKETT Jodi, « Re-Defining British Morality: 'Britishness' and the Campaign for Nuclear Disarmament 1958-68 », Twentieth Century British History, 21, n°2, 1er juin 2010, pp. 184-205. CHARLOT Claire, « Plaid Cymru (1925-1979) : nationalisme gallois et dévolution », Revue française de civilisation britannique, XIV, no. 1, automne 2006, pp. 85-105. COATES Peter, Tim COLE, Marianna DUDLEY et Chris PEARSON, « Defending Nation, Defending Nature? Militarized Landscapes and Military Environmentalism in Britain, France, and the United States », Environmental History, 16, juillet 2011, pp. 456–491. DIXON Keith, « Ed Miliband et la question syndicale », Savoir/Agir, 3, no. 25, 2013, pp. 117-121. HAGUE Cliff, « The development and politics of tenant participation in British council housing », Housing Studies, 5, no. 4, 1990, pp. 242-56. HIGGS Michael, « From the street to the state: making anti-fascism anti-racist in 1970s Britain », Race & Class, 58, no. 1, 1er juillet 2016, p. 68. HINTON James, « Self-help and Socialism: The Squatters' Movement of 1946 », History Workshop, 25, printemps 1988, pp. 100-126. 551 552 Claire Mansour, Diffusion et évolution des mouvements sociaux KELLIHER Diarmaid, « Solidarity and Sexuality: Lesbians and Gays Support the Miners 1984–5 », History Workshop Journal, 77, no. 1, 1er avril 2014, pp. 240-262. LACHAUD Jean-Marc, « Du 'Grand Refus' selon Herbert Marcuse », Actuel Marx, 1, no. 45, 2009, pp. 137-148. LAGADEC Patrick, « La catastrophe d'Aberfan : construire une catastrophe à force d'ignorer les signes avant-coureurs », Mémoire des accidents, Préventique, 134, marsavril 2014, pp. 40-43. LAKE Marilyn, « Female Desires: The Meaning of World War Two », Australian Historical Studies, 24, 1990, pp. 267-84. LATOUR Vincent, « Between Consensus, Consolidation and Crisis: Immigration and integration in 1970s Britain », Revue Française de Civilisation Britannique, 21, no.3, 2016, pp. 141-156. LEFKOWITZ Joel, « Movement Outcomes and Movement Decline: The Vietnam War and the Antiwar Movement », New Political Science 27, no. 1, mars 2005, pp. 1-22. LERUEZ Jacques, « Syndicalisme et politique : les syndicats britanniques face au gouvernement conservateur, 1970-1974 », Revue française de science politique, 25, no. 5, 1975, pp. 919-45. MANSOUR Claire, « The Cross-National Diffusion of the American Civil Rights Movement: The Example of the Bristol Bus Boycott of 1963 », Miranda, 10, 2014 [en ligne], [consulté le 30 août 2017], disponible à l'adresse suivante : <http://miranda.revues.org/6360>. MATHIEU Lilian, « La constitution du mouvement altermondialiste français », Critique Internationale, 2, no. 27, 2005, pp. 147-161. MCADAM Doug et Dieter RUCHT, « The Cross-National Diffusion of Movement Ideas », Annals of the American Academy of Political Science, 528, juillet 1993, pp. 56-74. MENAHEM Ruth, « Désorientations sexuelles. Freud et l'homosexualité », Revue française de psychanalyse, 67, no. 1, 2003, pp. 11-25. MESSINA Antony M., « Postwar Protest Movements in Britain: A Challenge to Parties », The Review of Politics 49, no. 3, 1987, pp. 410-28. MEHTA Harish C., « North Vietnam's Informal Diplomacy with Bertrand Russell: Peace Activism and the International War Crimes Tribunal », Peace & Change, 37, no. 1, 2012, pp. 64-94. MITCHELL Juliet, « Women: the longest revolution », New Left Review, novembredécembre 1966, pp. 11-37. MOTARD Anne-Marie, « Introduction : les syndicats britanniques, déclin ou renouveau ? », Revue Française de Civilisation Britannique, 15, no. 2, 2009, pp. 5-14. NGUYEN Lien-Hang, « Revolutionary Circuits: Toward Internationalizing America in the World », Diplomatic History, 39, no. 3, 1er juin 2015, pp. 411-22. NIHTINEN Atina L. K., « Gaelic and Scots in Devolved Scotland », Studia Celtica Fennica, 5, 2008, pp. 68-80. OWUSU Kwesi, « The Struggle for a radical Black political culture: an interview with A. Sivanandan », Race & Class, 58, no. 1, 1er juillet 2016, pp. 6-16. Bibliographie PORION Stéphane, « La question de l'immigration au Royaume-Uni dans les années 1970 : le Parti conservateur, l'extrême droite et l''effet Powell' », Revue Française de Civilisation Britannique, 21, no. 3, 2016, p. 170. QUINN Thomas, « Block Voting in the Labour Party : A Political Exchange Model », Party Politics, 8, mars 2002, pp. 207-226. REXROTH Kenneth, « Student Take Over », New Left Review, 5, septembre – octobre 1960 [en ligne], [consulté le 26 avril 2017], disponible à l'adresse suivante : <https://newleftreview.org/I/5/kenneth-rexroth-students-take-over>. REISS Matthias, « Forgotten Pioneers of the National Protest March: The National League of the Blind's Marches to London, 1920 & 1936 », Labour History Review, 70, no. 2, août 2005, pp. 133-65. SCALMER Sean, « Reinventing Social Movement Repertoires: The 'Operation Gandhi' Experiment », Australian National University Research Publication, 2002, [en ligne], [consulté le 27 mai 2016], disponible à l'adresse suivante : <https://digitalcollections.anu.edu.au/handle/1885/41812>. SEMIDEI Manuela, « L'opinion américaine et les pourparlers de paix », Revue française de science politique, 20, no. 2, 1970, pp. 349-62. SHEAIL John, « Nature Reserves, National Parks, and Post-war Reconstruction, in Britain », Environmental Conservtaion, 11, printemps 1984, pp. 29-34. STREET Joe, « Malcolm X's, Smethwick, and the Influence of the African American Freedom Struggle on British Race Relations in the 1960s », Journal of Black Studies, 38, no. 6, juillet 2008, pp. 932-50. SZEKELY Mlcaëla, « La gauche travailliste et le gouvernement Wilson (octobre 1964 – juin 1970) », Revue française de science politique, 21, no. 3,1971, pp. 584-614. TAMAGNE Florence, « Genre et homosexualité. De l'influence des stéréotypes homophobes sur les représentations de l'homosexualité », Vingtième Siècle. Revue d'histoire, no. 75, 2002/3, p. 65. TARROW Sidney, « Cycles of Collective Action: Between Moments of Madness and the Repertoire of Contention », Social Science History, 17, no. 2, été 1993. TILLY Charles, « Les origines du répertoire d'action collective contemporaine en France et en Grande-Bretagne » Vingtième Siècle, revue d'histoire, 4, no. 1, 1984, pp. 89-108. THOMAS Nick, « Protests Against the Vietnam War in 1960s Britain: The Relationship between Protesters and the Press », Contemporary British History, 22, no. 3, septembre 2008, p. 335-54. TORRENT Mélanie, « A Commonwealth Approach to Decolonisation », Études anglaises, 65, no. 3, 2012, pp. 347-362. TRANMER Jeremy, « A force to be reckoned with? The Radical Left in the 1970s », Revue Française de Civilisation Britannique, 21, no. 3, 2016, pp. 175-195. TUCK Stephen, « Malcolm X's Visit to Oxford University: U.S. Civil Rights, Black Britain, and the Special Relationship on Race », The American Historical Review, 118, 1, février 2013, pp. 76-103. 553 554 Claire Mansour, Diffusion et évolution des mouvements sociaux VICKERS Rhiannon, « Harold Wilson, the British Labour Party, and the War in Vietnam », Journal of Cold War Studies, 10, no. 2, 2008, pp. 41-70. WELLINGS Ben, « Losing the Peace, Euroscepticism and the foundations of contemporary English nationalism », Nations and Nationalism, 16, no. 3, Juillet 2010, pp. 488-505. WERNICKE Gunter et Lawrence S. WITTNER, « Lifting the Iron Curtain: The Peace March to Moscow of 1960–1961 », The International History Review, 21, no. 4, 1999, pp. 900-917. WITTNER Lawrence, « The Misuse of the High-Minded: The British Government's First Campaign Against CND » New Blackfriars, 1991, pp. 56-59. WRIGHT MILLS Charles, « Letter to the New Left », New Left Review, 5, septembre – octobre 1960 [en ligne], [consulté le 26 avril 2017], disponible à l'adresse suivante : <https://www.marxists.org/subject/humanism/mills-c-wright/letter-new-left.htm>. WRIGLEY Chris, « Trade Unionists and the Labour Party in Britain: The Bedrock of Success », Revue Française de Civilisation Britannique, 15, no. 2, 2009, pp. 59-72. 4.2.5. Communications dans une manifestation scientifique HANISH Carol, « A Women's Liberation Tribute to William Hinton and the Women of Long Bow », communication présentée le 3 avril 1999 dans le cadre d'une conférence intitulée « Understanding China's Revolution: A Celebration of the Lifework of William Hinton » à l'université de Colombia, New York [en ligne], [consultée le 22 décembre 2017], disponible à l'adresse suivante : <http://www.carolhanisch.org/Speeches/HintonSpeech/HintonTribSpeech.html>. 4.2.6. Autres articles « Vietnam solidarity: the determination to resist and the confidence to win », Socialist Outlook, 7, mai-juin 1988, pp. 26-29. « Worth fighting for », Socialist Review, mai 1994, [en ligne], [consulté le 25 mars 2018], disponible à l'adresse suivante : <https://www.marxists.org/history/etol/writers/mccann/1994/05/interview.htm>. « Ensemble! Pan-Canadian Women's Centres Conference: From isolation to solidarity », Herizons, hiver 1995, 8, no. 4, pp. 8-9. « Whatever happened to the housewife? », The Guardian, 28 février 2000 [en ligne], [consulté le 1er novembre 2017], disponible à l'adresse suivante : <https://www.theguardian.com/world/2000/feb/28/gender.uk>. « Counting the cost of London's killer smog (air pollution) », Science, 13 décembre 2002, pp. 2106-7. « Ted Johns », The Guardian, 12 mai 2004 [en ligne], [consulté le 10 mars 2018], disponible à l'adresse : <https://www.theguardian.com/news/2004/may/12/guardianobituaries.politics>. Bibliographie « Enoch Powell's 'Rivers of Blood' speech », The Telegraph, 6 novembre 2007, [en ligne], [consulté le 28 août 2017], disponnible à l'adresse suivante : <http://www.telegraph.co.uk/comment/3643823/Enoch-Powells-Rivers-of-Bloodspeech.html>. « White riot: the week Notting Hill exploded », The Independent, 28 août 2008 [en ligne], [consulté le 23 août 2017], disponible à l'adresse suivante : <http://www.independent.co.uk/news/uk/home-news/white-riot-the-week-nottinghill-exploded-912105.html>. « Celebrating 40 years of Gay Liberation », Polari Magazine, 15 août 2009 [en ligne], [consulté le 3 février 2018], disponible à l'adresse suivante : <http://www.polarimagazine.com/opinion/celebrating-40-years-of-gay-liberation/>. « Forty years of women's liberation », The Guardian, 26 février 2010 [en ligne], [consulté le 27 décembre 2017], disponible à l'adresse suivante : <https://www.theguardian.com/lifeandstyle/2010/feb/26/forty-years-womensliberation>. « New papers reveal hunger strike secret of S4C's birth », BBC News, 30 décembre 2010 [en ligne], [consulté le 3 mai 2018], disponible à l'adresse suivante : <http://www.bbc.com/news/uk-wales-12062288>. « Allan Horsfall: Influential gay rights campaigner », The Independent, 10 septembre 2012 [en ligne], [consulté le 29 janvier 2018], disponnible à l'adresse suivante : <http://www.independent.co.uk/news/obituaries/allan-horsfall-influential-gayrights-campaigner-8125122.html>. « Participation rate: now we are 50 », Times Higher Education, 25 juillet 2013 [en ligne], [consulté le 20 octobre 2017], disponible à l'adresse suivante : <https://www.timeshighereducation.com/features/participation-rates-now-we-are50/2005873.article>. « Malcolm X's visit to Smethwick to fight racism remembered 50 years on », The Birmingham Mail, 16 février 2015, [en ligne], [consulté le 30 août 2017], disponible à l'adresse suivante <http://www.birminghammail.co.uk/news/midlands-news/malcolm-xs-visitsmethwick-remembered-8653592>. « The pool of blood that changed my life », BBC News, 5 août 2015, [en ligne], [consulté le 30 août 2017], disponible à l'adresse suivante : <http://www.bbc.com/news/magazine-33725217>. « Appollo 8 », Witness, 2016, BBC World Service [en ligne], [consulté le 23 mai 2018], disponible à l'adresse suivante : <https://www.bbc.co.uk/programmes/p04knm80>. « The era when gay spies were feared », BBC News, 20 janvier 2016 [en ligne], [consulté le 29 janvier 2018], disponible à l'adresse suivante : <http://www.bbc.com/news/magazine-35360172>. « Scores die in Sharpeville shoot-out », BBC News [en ligne], [consulté le 28 avril 2017], disponible à l'adresse suivante : <http://news.bbc.co.uk/onthisday/hi/dates/stories/march/21/newsid_2653000/26 53405.st>. 555 5. ANNEXES • 557 • 559 Annexes Annexe 1 Photographies du cortège de la grande marche de Pâques (1958) Sur ces photographies, les marcheurs de la première grande marche de Pâques en 1958 s'acheminent le long des 83 kilomètres séparant Londres de l'usine d'armements d'Aldermaston. Ils arborent des banderoles sobres, au lettrage blanc sur fond noir caractéristique, et des pancartes en forme de sucettes avec le signe sémaphore « N. D. » du désarmement nucléaire, devenu l'emblème officiel des différentes organisations luttant pour cette cause : le Direct Action Committee (puis le Committee of 100) et la Campaign for Nuclear Disarmament. Source : Peace News, 18 avril 1958, p. 5. British Library, General Reference Collection, LOU.LON 515[1958], Londres [consulté en juin 2017]. 560 Claire Mansour, Diffusion et évolution des mouvements sociaux Annexe 2 Photographies des cortèges des grandes marches de Pâques en Europe (1962) Ces photographies des cortèges des grandes marches de Pâques de 1962 aux Pays-Bas (à gauche), et en Allemagne de l'Ouest (à droite) témoignent de la diffusion du mouvement britannique, à commencer par la tactique elle-même, ainsi que l'emblème bien visible du désarmement nucléaire, créé par l'artiste Gerard Holtom. Ces manifestations reflétaient également les efforts de synchronisation transnationale des différentes mobilisations, soulignant l'étendue de la menace que représentaient les armes de destruction massive pour l'humanité toute entière. Source : Peace News, 4 mai 1962, p. 6. British Library, General Reference Collection, LOU.1955[1962], Londres [consulté en juin 2017]. 561 Annexes Annexe 3 Photographie d'un drapeau pacifiste lors d'une manifestation contre la guerre du Vietnam à Washington (1973) Ce drapeau américain est orné du symbole du mouvement britannique pour le désarmement nucléaire, repris par les opposants à la guerre du Vietnam à travers le monde. Il est ainsi devenu un symbole universel de paix. Source : H HISTORY, « Vietnam: Anti-war protests (13) », 1973, www.history.com, [consultée le 8 août 2017], disponible à l'adresse suivante : <http://www.history.com/topics/vietnam-war/vietnam-war-history/pictures/vietnam-antiwar-protests/peace-flag-at-an-antiwar-protest-4>. 562 Claire Mansour, Diffusion et évolution des mouvements sociaux Annexe 4 Photographie du spectacle de marionnettes géantes à l'issue de la marche de Pâques (1966) Un spectacle de marionnettes de six mètres de haut intitulé Punch and Judas fut organisé devant le bâtiment de la National Gallery, à Trafalgar Square, à l'issue de la grande marche de Pâques de 1966. La représentation visait à dénoncer le soutien du gouvernement Wilson à l'intervention américaine au Vietnam. On voit sur la gauche l'effigie d'Harold Wilson, dont la boite cranienne s'ouvre pour laisser sortir un nouveau-né, tandis que le président Johnson est représenté sous la forme d'un missile nucléaire, tout à fait à droite de l'image. Source : « Protest: Lyrical, satirical and stifled – CND rally, Trafalgar Square, Easter 1966 », Peace News, 15 avril 1966. British Library, General Reference Collection, LOU.558[1966], Londres [consulté en juin 2017]. 563 Annexes Annexe 5 Défilé de pacifistes participant à un happening contre la guerre du Vietnam (juin 1966) En juin 1966, environ deux cent militants paradèrent dans les rues de Londres affublés de costumes de soldats croisés et de masques de moutons ou de loups afin de protester contre la guerre du Vietnam. Les moutons représentaient les populations des pays occidentaux, suivant sans réfléchir leurs dirigeants belliqueux, les quelques loups du cortège, dans un conflit présenté comme une croisade anti-communiste. Source : « Soldier sheep in London », Peace News, 3 juin 1966, p. 1. British Library, General Reference Collection, LOU.558[1966], Londres [consulté en juin 2017]. 564 Claire Mansour, Diffusion et évolution des mouvements sociaux Annexe 6 Une de Peace News sur l'impact écologique de la guerre du Vietnam Cette une du magazine pacifiste Peace News fut la première consacrée spécifiquement à l'environnement. Les rapports concernant l'impact écologique de l'utilisation d'herbicides au Vietnam contribuèrent à la prise de conscience de la fragilité de l'écosystème face aux activités humaines et donc à l'émergence du mouvement environnementaliste dans les années 1970. Source : Peace News, 15 août 1969, p. 1. British Library, General Reference Collection, LOU.2715[1966], Londres [consulté en juin 2017]. 565 Annexes Annexe 7 Une de Beaver sur la ségrégation raciale aux États-Unis et la colour bar au Royaume-Uni Cette une montre la mise en parallèle des sit-ins étudiants contre la ségrégation dans le Sud des États-Unis et de l'enquête des étudiants de la LSE sur la colour bar à Londres. Source : The Beaver, 16 juin 1960, p. 1. LSE DIGITAL LIBRARY [en ligne], [consulté le 13 octobre 2017], disponible à l'adresse suivante <https://digital.library.lse.ac.uk/objects/lse:qig307fit>. 566 Claire Mansour, Diffusion et évolution des mouvements sociaux Annexe 8 Photographie en double page de Daniel Cohn-Bendit en 1968 Suite à son rôle de meneur étudiant lors des évènements de mai 1968, Daniel CohnBendit fut propulsé sur le devant de la scène internationale, comme en témoignait ce portrait en double page du journal étudiant de l'université de Leeds. L'article louait également l'alliance établie entre les étudiants et les travailleurs français lors de ce soulèvement. Source : « The Sorbonne slogan: l'imagination prend le pouvoir », Union News, 21 juin 1968, pp. 6-7. LEEDS UNIVERSITY DIGITAL LIBRARY, University Newspaper [en ligne], [consulté le 13 octobre 2017], disponible à l'adresse suivante : < http://digital.library.leeds.ac.uk/id/eprint/5569>. 567 Annexes Annexe 9 Photographie des banderoles des ouvriers de Glasgow manifestant en solidarité avec les étudiants Sur la photographie centrale, on peut observer les banderoles des ouvriers de l'usine de composants électroniques de l'entreprise Plessey à Alexandria et des chantiers navals de l'Upper Clyde venus apporter leur soutien aux étudiants lors de leur manifestation contre les propositions de réforme de Margaret Thatcher, alors ministre de l'Éducation et des sciences, portant sur le financement des syndicats étudiants. Source : « Action day – Guardian photo - news & comment », Glasgow University Guardian, 15 décembre 1971, p. 4. GLASGOW UNIVERSITY, GLASGOW GUARDIAN DIGITAL ARCHIVE [en ligne], [consulté le 13 octobre 2017], disponible à l'adresse suivante : <https://www.gla.ac.uk/myglasgow/archives/guardian/display/?page_id=1516&edition_id=222>. 568 Claire Mansour, Diffusion et évolution des mouvements sociaux Annexe 10 Photographie d'un meneur étudiant de l'université de Warwick s'adressant aux ouvriers en grève Nick Male, vice-président du syndicat des étudiants de l'université de Warwick, prit la parole devant les ouvriers grévistes de l'usine Triumph de Meriden pour leur affirmer le soutien des étudiants de l'université. Source : «Meriden: 'We will Triumph'», Warwick Boar, 22 novembre 1973, p. 1. WARWICK UNIVERSITY, WARWICK DIGITAL COLLECTIONS [en ligne], [consulté le 13 octobre 2017], disponible à l'adresse suivante : <http://contentdm.warwick.ac.uk/cdm/compoundobject/collection/boar/id/446/rec/3>. 569 Annexes Annexe 11 Une du journal The Black Dwarf en mai 1969 dénonçant l'antisyndicalisme du livre blanc In Place of Strife Les vignettes de ce dessin fustigent les propositions de réforme de l'activité syndicale contenues dans le livre blanc In Place of Strife de la ministre travailliste de l'Emploi et de la productivité Barbara Castle, dont le but était avant tout de réduire le nombre de grèves sauvages. Les deux points les plus controversés permettaient au gouvernement d'imposer l'instauration d'une période de réflexion de 28 jours avant le début d'une grève, représentée dans le coin supérieur droit comme une violation du droit de grève, ou encore d'exiger la tenue d'un scrutin, dans la première case de la troisième rangée. La dernière case exhortait les lecteurs à se mobiliser contre ce texte. Sources : « White paper cinetract », The Black Dwarf, juillet 1969, p. 1 [en ligne], [consulté le 7 mars 2018], disponible à l'adresse suivante : <https://www.marxists.org/history/etol/newspape/black-dwarf/v14n14-nodate.pdf>. 570 Claire Mansour, Diffusion et évolution des mouvements sociaux Annexe 12 Dessin illustrant la métamorphose d'un partisan du Black Power Ce dessin publié dans Grass Roots illustre la métamorphose souhaitée par les partisans du Black Power. Il représente un homme noir divisé en deux selon un axe de symétrie vertical : à gauche, la vision conforme aux attentes de la culture dominante blanche (cheveux courts, costume, esprit obnubilé par l'appât du gain et autres valeurs individualistes liées au système capitaliste) ; et à droite, la nouvelle image redonnant un sentiment de fierté noire (coiffure afro, vêtements aux motifs d'inspiration africaine, esprit tourné vers l'entraide à la communauté noire et l'émancipation à travers l'éducation). Source : Sans titre, Grass Roots : Black Community Newspaper, 1, no. 4, septembre 1971, p. 12. British Library, General Reference Collection, RH.9.x.1789, Londres [consulté en juin 2017]. 571 Annexes Annexe 13 Photographie d'un cortège de manifestants du Black Panther Movement à Londres Les activistes du Black Panther Movement arborant les symboles du Black Panther Party américain : bérets noirs, badges et drapeau à l'effigie de la panthère noire. Contrairement à leurs homologues outre-Atlantique, ils ne portent pas d'armes. Les messages sur les banderoles insistent sur l'unité des peuples opprimés à travers le monde. Source : Neil KENLOCK, « Photographie sans titre », dans Bruno BAYLEY, The amazing lost legacy of the British Black Panthers [en ligne], [consulté le 12 septembre 2017], disponible à l'adresse suivante : <https://www.vice.com/sv/article/9bz5ee/neil-kenlocks-photos-give-thebritish-black-panthers-the-legacy-they-deserve>. 572 Claire Mansour, Diffusion et évolution des mouvements sociaux Annexe 14 Programme en dix points du Black Panther Party Source : « The ten point program and platform: What we want, what we believe », The Black Panther Newspaper, 2, no. 1, 23 novembre 1967, p. 3, FREEDOM ARCHIVES [en ligne], [consulté le 25 juin 2018], disponible à l'adresse suivante : <http://freedomarchives.org/Documents/Finder/DOC513_scans/BPP_Intercommunal/513.Bl ack%20Panther%20%28New%29%20Intercommunal%20News%20Service.The_Black_Pan ther_1967.pdf>. 573 Annexes Annexe 15 Programme en cinq points du Black Panther Movement WHAT WE WANT 1) We want an immediate end to the racist immigration policies of the British government, whether Labour or Conservative. We want an end to the constant harassment at the airport and unwarranted detention in prison of black people by the racist immigration officials. Black people in our different homelands, and in this country have built up Britain, therefore we have every right to be here. We will decide for ourselves, whether we want to leave or not. 2) We want an end to racism and exploitation in employment. Black people must be given employment as well as full pay in keeping with their skill, and experience. We want all black workers to organise themselves, whether or not they are in Trade Unions to demand their rights, since British Trade Unions do not function in the interests of black people. 3) We want an end to racism and exploitation in housing, operated against black people by the British government, and local councils. We want an immediate end to the racket and intimidation, practised by greedy landlords and estate agents against black people. We demand decent housing for black people, instead of the present ratinfested [sic] sub-standard houses in the slums of Britain. Black people have a right to make these demands and it is the responsibility of the government and the local councils, to provide us with effective Associations to see that these demands are met. 4) We demand an end to the brainwashing of our children in British schools and through the mass media. We demand an end to the dumping of our children in Britain's backward schools, and discrimination in education at all levels. We demand proper education for all black people which will equip us with a true understanding of ourselves, and which will expose the decadence of this white racist society. We want our people to learn the true history of black people which exposes the savage nature of colonial exploitation, since British education has purposely distorted our history, and has "glorified" the brutality of white exploiters, who plundered our lands. 5) We demand an immediate end to police brutality and persecution of black people – on the streets and in our homes. We want an end to false arrest, and unjust imprisonment of black people. We want an end to constant beating up, physical as well as mental torture of black people by prison officers. We maintain that a government which fails to meet these basic demands has no right whatever to claim or even expect our allegience [sic]. And since the British government with the entire capitalist establishment, has failed to meet these demans [sic] but, is directly responsible for the mounting racusn [sic], exploitation, brutality and degradation which black people suffer daily, then we have no alternative but to reject, the entire capitalist establishment of Britain. This means in practice, firstly, that we must stop building our hopes for a better future as Black People on the empty and hypocritical policies, of the British government, whether Labour or Conservative. Secondly, we ourselves, must bring about the change in our present oppressive situation, right here in Britain. We must unite and get organised in order to defend ourselves in a racist and hostile society; and we must join with all oppressed people, and revolutionary forces in Britain to fight for the complete overthrow of the oppressive capitalist system for our liberation, and that of all oppressed people. Source : BLACK PANTHER MOVEMENT, « What we want », 1971, tract tiré de la collection d'archives « Black History Collection », « Black Panther Movement », 01/04/04/01/04/01/05, Londres : Institute of Race Relations. 574 Claire Mansour, Diffusion et évolution des mouvements sociaux Annexe 16 Lancement du nouveau programme du Women's Group de la CND Cet article de Peace News annonçait le nouveau programme du Women's Group of CND. À cette occasion, le slogan « Let Britain Lead » fut remanié en « Let Britain's Women Lead », et un logo spécifique fut créé en incorporant l'emblème de la CND et le symbole de vénus (généralement associé au sexe féminin), comme on le voit sur l'illustration cidessus, afin d'orner les brassards des militantes pacifistes. Source : « Women's Group of CND launches new programme », Peace News, 12 janvier 1962, p. 10. British Library, General Reference Collection, LOU.1955[1962], Londres [consulté en juin 2017]. 575 Annexes Annexe 17 Couverture du magazine Shrew en mars 1971 Le logo du mouvement de libération des femmes en couverture du magazine féministe britannique Shrew représente le symbole de vénus et le poing levé et fermé associé au mouvement du Black Power, qui l'avait précédé seulement de quelques mois aux États-Unis. Source : « Women's liberation », Shrew, mars 1971, p. 1. British Library, General Reference Collection, P.2000/1413, Londres [consulté en juin 2017]. 576 Claire Mansour, Diffusion et évolution des mouvements sociaux Annexe 18 Programme en cinq points du Women's Liberation Workshop Ce programme en cinq points des militantes féministes du London Women's Liberation Workshop s'inspirait des programmes des Black Panthers américains et britanniques. À leurs compatriotes, elles avaient emprunté la formulation en cinq points, choisissant de se concentrer sur cinq demandes principales. Chacune d'elles était introduite par l'anaphore « We demand », puis justifiée à l'aide d'un paragraphe débutant par « We believe », rappelant alors plutôt le texte fondateur des militants californiens. Source : « We demand! », Shrew, février 1971, p. 16. British Library, General Reference Collection, P.2000/1413, Londres [consulté en juin 2017]. 577 Annexes Annexe 19 Photographie des manifestants contre le concours de Miss Monde 1970 devant le Royal Albert Hall à Londres Les participants au rassemblement contre le concours de Miss Monde le comparaient à « une foire aux bestiaux » (« cattle market »). Ils protestèrent devant le Royal Albert Hall juste avant le début de la cérémonie, le 20 novembre 1970. Contrairement aux féministes américaines qui avaient couronné une brebis vivante lors de leur action contre la cérémonie de Miss America en 1968, les Britanniques préférèrent avoir recours à des déguisements plutôt qu'à de vrais animaux pour leur mise en scène, d'autant plus que ces techniques théâtrales avaient déjà fait les heures de gloire des opposants à la guerre du Vietnam. Source : « The great flesh-show protest », Peace News, 27 novembre 1970, p. 5. British Library, General Reference Collection, LOU.3182[1970], Londres [consulté en juin 2017]. 578 Claire Mansour, Diffusion et évolution des mouvements sociaux Annexe 20 Rubrique « Women's World » du journal des étudiants de l'université de Leeds La rubrique « Women's World » dans les colonnes de Union News, le journal des étudiants de l'université de Leeds, était un exemple typique des rubriques destinées au lectorat féminin dans la presse étudiante. Ces articles étaient bien souvent les seules contributions féminines à ces publications, et présentaient une vision stéréotypée des femmes comme étant principalement préoccupées par leur apparence physique, ou encore réduites aux seules fonctions domestiques. Sur les trois articles de cette page, le premier traite de cuisine, le deuxième de mode et le troisième de shopping. Source : « Women's World », Union News, 21 février 1969, p. 4. UNIVERSITY OF LEEDS DIGITAL LIBRARY [en ligne], [consulté le 28 décembre 2017], disponible à l'adresse suivante : <http://digital.library.leeds.ac.uk/5506/>. 579 Annexes Annexe 21 Photographie des actrices du Women's Street Theatre Group à Trafalgar Square en mars 1971 En l'honneur de la journée internationale des femmes en mars 1971, les féministes organisèrent une grande manifestation suivie d'un rassemblement à Trafalgar Square. Les militantes de la troupe Women's Street Theatre Group jouèrent leur pièce Sugar and Spice au milieu de la foule, déguisées en déodorant géant ou en serviette hygiénique, dénonçant les constructions oppressantes des normes de la féminité et l'objectification des femmes. Cette forme de guerrilla theatre leur permettait de se confronter directement au public pour le sensibiliser à leur cause. Source : « The Death of Buzz Goodbody », Spare Rib, juin 1975, p. 5. SPARE RIB JOURNAL ARCHIVES [en ligne], [consulté le 28 décembre 2017], disponible à l'adresse suivante : <https://data.journalarchives.jisc.ac.uk/britishlibrary/sparerib/view?pubId=P523_344_Issue3 6PDFP523_344_Issue36_0005_11pdf&terms=buzz%20goodbody&sort=date%2Basc&bran dedSearch>. 580 Claire Mansour, Diffusion et évolution des mouvements sociaux Annexe 22 Photomontage anti-Thatcher publié dans Spare Rib en juin 1979 Ce photomontage met en scène les slogans utilisés dans les manifestations féministes contre la campagne de Margaret Thatcher lors des élections de 1979. Ils renvoient notamment à la réforme de Margaret Thatcher en tant que ministre de l'Éducation, dont les coupes budgétaires mirent un terme à la distribution gratuite du lait dans les écoles pour les enfants de plus de sept ans. D'autres tournent en dérision son commentaire lors d'une conférence de presse à Glasgow pendant la campagne : « I could do an awful lot for women at the top, and for women trying to get to the top ». Source : « One Prime Minister doesn't make a matriarchy », Spare Rib, juin 1979, p. 10. SPARE RIB JOURNAL ARCHIVES [en ligne], [consulté le 2 janvier 2018], disponible à l'adresse suivante : <https://data.journalarchives.jisc.ac.uk/britishlibrary/sparerib/view?volumeIssue=333133373 23334343737%2333383234353738313239$%233833&journal=33313337323334343737%2 333383234353738313239>. 581 Annexes Annexe 23 Diffusion de l'emblème du Gay Liberation Front de Philadelphie à Londres en 1970 Ces deux documents témoignent de l'adoption de l'emblème du GLF de Philadelphia (en haut) par les GLF britanniques (en bas). Ce symbole était composé du poing levé et serré des révolutionnaires, orné d'un entrelacs de signes de mars et vénus formant une fleur. Ce logo fut ensuite imprimé sur deux nombreux badges, en blanc sur fond violet, en référence à la « peur couleur lavande » (« lavender scare »), c'est-à-dire la période de persécution des homosexuels sous l'ère McCarthy. Sources : [En haut] « GLF: the radical beginnings of the 'gay' movement », Windy City Times, 1 juin 2008, [en ligne], [consulté le 2 février 2018], disponible à l'adresse suivante : <http://www.windycitymediagroup.com/lgbt/GLF-The-radical-beginnings-of-the-gaymovement/19493.html>. [En bas] « Ideas of gay liberation », Gay News, 6, 1 septembre 1972, GAY NEWS ARCHIVE PROJECT [en ligne], [consulté le 2 février 2018], disponible à l'adresse suivante : < https://i1.wp.com/gaynewsarchive.org/wp-content/uploads/2016/09/19720901-06.jpeg>. 582 Claire Mansour, Diffusion et évolution des mouvements sociaux Annexe 24 Dessin humoristique de presse sur la présence du Gay Liberation Front dans le cortège de la grande manifestation de février 1971 Ce dessin humoristique publié dans le tabloïde conservateur The Evening Standard, se moque des écarts entre les différentes estimations du nombre de manifestants présents le 21 février 1971 pour protester contre la proposition de loi Industrial Relations Bill du gouvernement d'Edward Heath. Les militants du GLF avaient été relégués en fin de cortège par les organisateurs syndicaux, mais ils parvinrent tout de même à attirer l'attention des médias et furent mentionnés dans la plupart des journaux. Sources : JAK, The Evening Standard, 22 février 1971, reproduit dans Lisa POWER, No Bath But Plenty of Bubbles: An Oral History of the Gay Liberation Front 1970-73, Londres : Cassell, 1995, p. 118. 583 Annexes Annexe 25 Une du journal The Red Mole d'octobre 1971 dénonçant l'internement administratif en Irlande du Nord Le journal de l'IMG The Red Mole proclamait ouvertement son soutien à l'IRA, et dénonçait la répression brutale mise en place par le régime unioniste nord-irlandais. Il offrait un contre-discours à la version des autorités qui affirmaient que l'IRA était la seule responsable de la violence. En août 1971, le gouvernement réintroduisit l'internement administratif dans le cadre de la loi Special Powers Act (1922). Les personnes suspectées d'appartenir à des organisations paramilitaires pouvaient désormais être arrêtées et détenues indéfiniment sans avoir eu droit à un procès. Les forces de l'ordre eurent recours à des méthodes d'interrogation brutales, et même à des pratiques de torture, comme le « hooding » représenté sur l'illustration, consistant à aveugler les suspects en couvrant leurs têtes d'un sac de toile. Sources : « Solidarity with the IRA! », The Red Mole, 20 octobre 1971, p. 1, MARXISTS' INTERNET ARCHIVE [en ligne], [consulté le 4 avril 2018], disponible à l'adresse suivante : <https://www.marxists.org/history/etol/newspape/redmole/v02n30-oct-20-1971.pdf>. 584 Claire Mansour, Diffusion et évolution des mouvements sociaux Annexe 26 Photographie publiée en une de The Irish Democrat montrant des loyalistes patrouillant aux côtés des soldats Sur cette photographie, des membres de l'organisation paramilitaire Ulster Defence Association, aux visages masqués, effectuent une patrouille aux côtés des soldats britanniques, au mois de juillet 1972 à Belfast. Le journal nationaliste The Irish Democrat dénonçait ainsi ce qui lui apparaissait comme une collaboration choquante, puisque les troupes avaient été envoyées pour établir une médiation neutre et se devaient de rester impartiales. Sources : « Troops collaborate with U.D.A. », The Irish Democrat, août 1972, p. 1 [en ligne], [consulté le 4 avril 2018], disponible à l'adresse suivante : <http://www.connollyassociation.org.uk/irishdemocrat/1971-1980/1972-2/august-1972/>. 585 Annexes Annexe 27 Fanfare de cornemuses accueillant les participants à la marche de Londres au Holy Loch en mai 1961 Au début du mois d'avril 1961, les militants pour le désarmement nucléaire organisèrent une grande marche de Londres au Holy Loch, à l'ouest de Glasgow, afin de protester contre la création d'une base américaine de sous-marins lanceurs de missiles Polaris. La photographie ci-dessus montre un groupe de joueurs de cornemuse (pipe band) marchant en tête du cortège, juste après son entrée en Écosse. La décision du gouvernement Macmillan d'imposer cette base américaine aux Écossais suscita un vif rejet auprès de la population locale et éveilla sa fibre patriotique. Sources : « Across the border », Peace News, 12 mai 1961, p. 1. British Library, General Reference Collection, LOU.2704[1961], Londres [consulté en juin 2017]. 586 Claire Mansour, Diffusion et évolution des mouvements sociaux Annexe 28 Rassemblement en soutien aux membres de la CIG devant le tribunal d'Aberystwyth En mars 1971, des militants de l'association de défense de la langue galloise Cymdeithas yr Iaith Gymraeg furent traduits en justice pour avoir enlevé des panneaux de signalisation routière. Lors de leur passage au tribunal d'Aberystwyth, d'autres militants de la CIG vinrent déposer une pile de panneaux devant l'entrée du bâtiment, revendiquant leur part de responsabilité dans ces actions dans l'espoir de faire alléger les peines encourues par leurs camarades. Sources : WalesOnline, « Road sign demonstration at Aberystwyth in March 1971», mars 1971 [en ligne], [consulté le 3 mai 2018], disponible à l'adresse suivante : <https://www.walesonline.co.uk/news/wales-news/gallery/7025338>. 587 Annexes Annexe 29 Une de The Red Mole après le début du work-in des chantiers navals de l'UCS En juillet 1971, dès les premières semaines du work-in des chantiers navals de l'Upper Clyde, le journal de l'IMG The Red Mole établissait le parallèle avec la tradition ouvrière de la Red Clydeside, dont l'une des figures emblématiques était le marxiste et nationaliste John MacLean, qui prônait la création d'une république écossaise indépendante et socialiste (« a Scottish Workers' Republic ») au lendemain de la Première guerre mondiale. Le work-in rallia le soutien d'une grande partie de la classe ouvrière de la région, déjà fortement touchée par le chômage. Sources : « The Occupation of Clydeside : First step towards the Scottish Workers' Republic? », The Red Mole, 15 juillet 1971, p. 1 [en ligne], [consulté le 5 mai 2018], disponible à l'adresse suivante : <https://www.marxists.org/history/etol/newspape/redmole/v02n13-jul-15-1971.pdf>. 588 Claire Mansour, Diffusion et évolution des mouvements sociaux Annexe 30 Photographie intitulée « Earthrise » prise par la NASA en 1968 En décembre 1968, la mission américaine Appollo 8 envoyait pour la première fois des hommes en orbite autour de la Lune, donnant lieu à la photographie du spectacle inédit d'un « lever de Terre » (« Earthrise »). Le 24 décembre, les images du module spatial furent retransmises en direct à la télévision sous les yeux d'un quart de la population mondiale. Il s'agissait alors de la plus forte audience jamais enregistrée. L'un des astronautes déclara au cours de l'émission « The vast loneliness is awe-inspiring and it makes you realize just what you have back there on Earth ». Le contraste saisissant entre le sol inhospitalier de la Lune et les couleurs vives de la Terre, paraissant isolée et fragile dans l'immensité de l'espace, contribuèrent à faire prendre conscience de la nécessité absolue de protéger l'écosystème de la planète. Sources : « Earthrise », NASA, 24 décembre 1968, www.nasa.gov [en ligne], [consulté le 23 mai 2018], disponible à l'adresse suivante : <https://www.nasa.gov/multimedia/imagegallery/image_feature_1249.html>. 589 Annexes Annexe 31 Photographie de la Terre vue depuis la Lune accompagnant l'éditorial du numéro de lancement de The Ecologist en juillet 1970 Cette photographie de la Terre vue depuis la Lune fut imprimée en page entière pour accompagner l'éditorial du numéro de lancement de la revue The Ecologist, en juillet 1970, soit un an après la mission Appollo 11 ayant atterri sur la Lune. La légende du cliché présentait la planète comme un écosystème réunissant des conditions uniques, ayant permis à la vie de s'y développer. De cette unicité découlait la nécessité absolue pour les militants écologistes de veiller à préserver l'équilibre fragile de la biosphère. Sources : « Editorial », The Ecologist, juillet 1970, p. 2, EXACT EDITIONS [en ligne], [consulté le 23 mai 2018], disponible à l'adresse suivante : <https://reader.exacteditions.com/issues/5337/spread/4>. 590 Claire Mansour, Diffusion et évolution des mouvements sociaux Annexe 32 Militants manifestant contre les essais nucléaires français en juin 1973 à Londres Sur la photographie, des militants écologistes londoniens protestent contre les essais nucléaires français à Mururoa, en juin 1973. Leur manifestation était synchronisée avec l'arrivée de la grande marche sur Paris organisée par leur propre association indépendante Greenpeace, tandis que la célèbre organisation canadienne du même nom, à laquelle ils n'étaient pas affiliés, avait envoyé le navire Greenpeace III dans la zone de test en Polynésie, accompagné de tout une flottille d'embarcations pacifistes venues de différents pays. Sur la pancarte en forme de bouclier tenue par le jeune homme au premier plan, on peut voir le logo utilisé par les deux groupes Greenpeace, formé dans sa moitié supérieure d'un symbole représentant la planète Terre, et dans sa partie inférieure de l'emblème pacifiste hérité du mouvement pour le désarmement nucléaire. Sources : « Greenpeace », Peace News, 8 juin 1973, p. 10. British Library, General Reference Collection, LOU.4679 [1971], Londres [consulté en juin 2017]. 6. INDEX Amalgamated Union Engineering and Foundry A Aberfan, catastrophe de la mine (1966) 445 Abortion Act (1967) 267 Abse, Leopold (Leo) 314, 433, 436 accords de Genève (1954) 80, 83, 98 Acte d'Union (1707) 394, 399, 416 Adams, Walter 109, 128, 129 African National Congress 124, 228, 229 Agriculture (Miscellaneous Provisions) Act (1968) 466 Airlie, Jimmy 192 Albany Trust 314 Alconbury, base aérienne américaine 95 Aldenstein, David129, 130, 136, 138 Alexander, Sally 288 Ali, Tariq 32, 93, 98, 106, 142, 171, 224 All Trade Unions Alliance 168 Allis-Chalmers 426 Amalgamated Engineering Union 176 Workers 148 Amalgamated Union of Engineering Workers . 166 American Psychiatric Association 323 An Comunn Gàidhealach (Gaelic Association) 393, 395, 397 Anglo-Irish Free Trade Agreement (1965) 350 Animal Liberation Front 457, 473, 492 Anti-Apartheid Movement 124 Anti-Internment League 380, 381 apartheid 120, 122, 123, 124, 127, 212, 218, 223, 229, 231, 254, 493 Appollo, programme lunaire 449 Arena 3 336 Arrowsmith, Pat274, 315, 358 Attlee, Clement 48, 164, 188, 210, 313, 353, 443 avortement, droit à . 267, 288, 294, 303, 373, 498 B Baez, Joan 93 • 591 • Band of Mercy 457, 473 Bristol Omnibus Company 226 beat 50, 58, 65, 93, 447 British Nationality Act (1948) 210, 222 Bean, Gerlin 297 Beat Generation 50, 94 beatnik 50 Beaver, the 116, 125, 127, 266, 507 Beeching Axe 397, 479 Belfast Trades Council 366 Bell, Daniel 21 Benford, Robert 26 Benn, Anthony Wedgwood (Tony) 192, 226, 426, 427 Berresford Ellis, Peter 417 Bertrand Russel Youth Society for Nuclear Disarmament 70 Bevan, Aneurin 55 Bigelow, Albert 68 bike-in 478, 485, 492, 496, 498 Bilocca, Lilian 281 Birnbaum, Norman 47 Black Dwarf, the 142, 171, 182 Black Liberation Front 111, 237, 239 Black Panther Newspaper, the 210 Black Panthers 111, 237, 280, 289, 325 Black Panther Movement 237, 241, 297 Black Panthers Party . 111, 237, 280, 289, 325 Black Peoples' Alliance 235 Black Power 111, 131, 210, 217, 233, 235, 236, 238, 240, 242, 248, 255, 256, 280, 287, 297, 323, 324, 325, 342, 413, 494, 495, 497 Blood Sunday 381 Boland, Rose 282 Bond, Julian 126 Bouchier, David 33, 115 Bourdet, Claude 47 Bowlby, John 268 boycott 124, 125, 129, 138, 219, 223, 226, 229, 463, 467, 474, 475 bus de Bristol 226 bus de Montgomery 125, 223, 226 Brambell, Roger 466 Briant Colour Printing 193 British Campaign for Peace in Vietnam 98, 179 British National Party 243 British Oxygen 202 British Petroleum 430 British Sound Recorder 146 Brittain, Vera 274 Brixton Black Women's Group 297 Brize Norton, base aérienne 67, 69, 122 Broad Left 154, 171, 172, 179 Brock, Hugh 45, 52, 54 Brockway, Fenner 45, 98, 212, 217, 221, 226, 359 Brower, David 460 Brown, Oliver 402 B-Specials 371, 382 Builders Labourers Federation 464 Burgess, Guy 309 Burrough, William 94 Butler, Richard Austen 48 C cadres d'action collective cadrage moral 67, 87, 174, 180 cadre anti-impérialiste 99, 102, 112, 113, 276, 317, 375, 401, 410, 414, 456, 492, 497 cadre de diagnostic .26, 59, 88, 100, 132, 135, 142, 236, 276, 279, 412 cadre de pronostic 26, 61, 88, 236, 413, 452, 495 cadre motivationnel 26, 45, 60, 99, 100, 491, 495, 496, 498 Caine, Barbara33, 262 Callaghan, James 107, 185, 201, 205, 438, 494 Campaign Against Racial Discrimination 221, 224, 233, 241 Campaign for Biological Sanity 479 Campaign for Homosexual Equality316, 317, 331, 336, 340 593 Index Campaign for Nuclear Disarmament 55, 57, 59, 60, 61, 63, 65, 67, 70, 71, 72, 73, 75, 85, 88, 92, 95, 98, 99, 121, 122, 124, 173, 175, 179, 220, 221, 223, 239, 271, 272, 313, 315, 356, 357, 358, 368, 373, 374, 402, 452, 479, 483, 498 Campaign for Social Justice 360 Capel Celyn, lac artificiel 411, 418 Caravan Workshops 86 Carmichael, Stokely 90, 110, 131, 225, 233, 236, 280 Carson, Rachel 448 Castle, Barbara 144, 185, 282 centrales nucléaires 480, 481, 498 Fessenheim 479 Malville 480, 484 Sizewell 480 Torness 470, 480, 481 Windscale 454, 480, 481 Chaggar, Singh 244, 252 Committee for Non-Violent Action 67, 69, 81 Committee of 100 56, 72, 73, 74, 86, 87, 92, 95, 124, 174, 176, 179, 207, 221, 272, 273, 315, 358, 404, 452 Committee of African Organisations 220, 224, 229 Commonwealth Immigrants Act (1962, 1968) 231, 232, 235 community organising 195, 239, 297, 345, 385, 386 concordat 203 Congress for Racial Equality 228 Connolly Association 345, 358, 359 Connolly, James 345, 358, 359, 416 Constantine, Learie 227 contraception orale 267, 374 contrat social, politique du 187, 199, 429 contre-culture 23, 30, 32, 50, 58, 80, 93, 94, 95, 102, 104, 110, 116, 152, 155, 261, 268, 275, 291, 308, 321, 333, 342, 442, 447, 458, 459, 491 Chastagner, Claude 49 contrôle ouvrier 150, 165, 170, 176, 181, 184, nucléaires 68 Cooper,Ivan 364, 373 366, 368, 374 Cow Green, réservoir de 462 Cheyenne (Wyoming), base de missiles Churchill, Winston 163, 400 Civil Authorities [Special Powers] Act (1922) . 353, Claimants Unions 194 Clark, George 86, 239 192, 195, 207, 373, 408 Corrigan, Mairead 385, 387 Coventry Women's Liberation 278 Craig, William 368, 383 crise des missiles de Cuba (1962) 76 Clean Air Act (1956) 445 crise du canal de Suez (1956) 23, 42, 43, 46, 120, Cochrane, Kelso 215 Currie, Austin 361 Cliff, Tony 169 Cohn Bendit, Daniel 143 Colley, Linda 399 Collins, John 45, 60, 357 colour bar124, 125, 126, 212, 222, 223, 228, 229, 231, 232, 248, 254, 359, 493, 494 Combined Universities Campaign for Nuclear Disarmament 121 Come Out! 308, 323 Come Together 323 coming out 319, 327, 332, 496, 501 Commitment, organisation écologiste 452, 477 401, 491 Cymdeithas yr Iaith Gymraeg (Welsh Language Society) 406, 412, 418, 421, 422, 423, 424, 426, 435, 440 Cymru Fydd (Young Wales) 395 D Daily Mail, the 205 Daily Mirror, the 205 Dalyell, Thomas (Tam) 433, 436 Dartmouth Arms 230 Darwin, Charles 465 Dash, Jack 141, 171, 172 Davies, John 193 Davin, Anna 278 Davis, Angela 225 De Valera, Eamonn 417 Debray, Régis 135 déclaration unilatérale d'indépendance de la Rhodésie (1965) 128 délégués d'atelier 165, 166, 168, 169, 178, 199, 464 Democratic Party of Ulster 351 Derry Housing Action Committee 367, 374 Derry Unemployed Action Committee 367 désobéissance civile 45, 52, 61, 66, 67, 72, 87, 195, 217, 219, 227, 245, 358, 367, 380, 393, 404, 406, 418, 421, 491, 500 Devlin, Bernadette 370, 374 dévolution 306, 410, 428, 430, 431, 432, 433, 435, 436, 437, 439, 440, 471, 485, 498 Dewey, Kenneth 94 Dialectics of Liberation, conférence (1967) 104, 110 Direct Action Committee Against Nuclear War (DAC) 54, 56, 57, 60, 62, 63, 64, 67, 69, 71, 121, 174, 207, 453 direct rule, système de 381, 383, 389 Divorce Reform Act (1969) 267 Do-It-Yourself 477 Donaldson, Arthur 410 Dortmund, base militaire britannique 64, 71 Douglas-Home, Alec 233, 431 drink-in 126, 230, 329, 335, 492 Druce, Claire 468 Duff, Peggy 274 Dworkin, Andrea 297 Dyson, Anthony E. 313 E écocide 455, 485, 492 Eco-Commando Force 70 457 Ecologist, the 442, 449, 471 Ecology Action Group 459 Ecology Party 485 Eden, Anthony 43 Education Act (1944)48, 116 Egbuna, Obi 236 Eisteddfod 395, 402 Elizabeth II 96, 389, 419 emblème du désarmement nucléaire 71, 92, 95, 272 émeutes de Brixton (1981) 253 de Nottingham et Notting Hill (1958) 215, 240 Employment Act (1980) 206 Engel, Stephen 33 Ennals, David 205 éssais nucléaires atoll de Mururoa 454, 463 île Christmas 54, 67, 451, 453 île d'Amchitka 453 îles Marshall 41, 68, 450 Evans, Gwynfor 400, 401, 404, 409, 411, 415, 417, 423, 430 Ewing Winnifred (Winnie) 410, 415, 430 F Factories for Peace 176, 408 Farnborough Technical College 459 Farrell, Michael 369 Feather, Victor 186 Fellowship of Reconciliation 356 Ferlinghetti, Lawrence 94 Fernbach, David 316, 318 Festival of Light (1971) 332, 339 Fire Brigades Union 201 Fisher, Alan 203 Fisher-Bendix 193 fish-in 355, 417, 492 Fitt, Gerard 364 Foot, Michael 61, 179, 429, 434 Fouéré, Yann 417 Fox (the), justicier écologiste 457 Free Belfast 372 595 Index Free Derry 371, 372 Great Smog of London (1952) 445 Free Wales Army 418 Green, Jonathon 23, 32, 79, 104 Free Presbyterian Church of Ulster 348 Free Speech Movement 93, 131, 132 Freud, Sigmund 269, 310 Friedan, Betty 265 Friends of the Earth 460, 474, 475, 476, 479, 480, 481 Fryer, Peter 167, 168 G Gaitskell, Hugh 55, 72, 176, 232 Galston, Arthur 455 Gandhi, Mohandas 52, 57, 61, 66, 67, 217, 218, 219, 227 Gay Activists Alliance 340 gay centres 337, 496 Gay Days 323 Gay Left 308 Gay Liberation Front .30, 308, 316, 317, 318, 319, 320, 321, 322, 323, 324, 325, 326, 328, 329, 331, 332, 333, 334, 335, 336, 338, 340, 343, 496 Gay News 308, 336, 339 Gay Pride 317, 322, 496 Gay Women's Liberation Front 331 Gay Workers' Charter 330 gay-in 322, 492 General Electric and English Electric Company 183 Giblet/Campus/ Warwick Boar, the 116, 133 Gilroy, Paul 216 Ginsberg, Allen94, 95, 104 Glasgow University Guardian, the 116, 124, 148, 156, 393 Glasgow University Student Nationalist Association 405, 407 Glean, Marion 221, 223 Goffman, Erving 26 Goodwin, Jeffrey 20 Government of Ireland Act (1920) 360 Grass Roots 210, 239 green ban 464, 485 Green Party 485 Greenpeace 68, 70, 452, 457, 475, 480, 481 grève 146, 158, 214, 248, 250 de la faim 57, 389, 423, 431 de solidarité 190, 192 des loyers150, 156, 195 des marins 170, 171, 177, 410 des mineurs 188, 196, 207, 425 des pompiers201, 203, 205 des salariés de l'hôpital 200 droit de 145, 158, 185 générale 19, 164, 182, 186, 188, 202, 383, 389 Grunwick 249, 339 nationale 146, 201 piquets de 127, 146, 150, 183, 189 piquets secondaires 203, 204 piquets volants 189 sauvage 144, 166, 169, 177, 184, 187, 188 Griffiths, Peter 224, 233, 359 Guardian, the 115, 264, 289, 435 guérilla, tactiques de 101, 112, 113, 135, 276, 294, 317, 376, 456, 492, 498 éco-guérilla 456, 498 guerrilla theatre 101, 294 guerre froide 27, 41, 42, 59, 65, 75, 167, 169, 309, 350, 491 Guevara, Che 104, 135 H Haeckel, Ernst 441 Hall, Stuart 46, 49, 221 Hamer, Fannie Lou 279 happenings 94, 95, 474 Harrison, Ruth 466 Hart, Judith 274 Heath, Edward 32, 140, 145, 147, 154, 159, 184, 188, 191, 207, 338, 431, 432, 438, 494 hiver du mécontentement 202, 437 Ho Chi Minh 89, 100 Hobbs, May 293 Hoefferle, Caroline 23, 33 Hoggart, Richard 161 Holy Loch, base de sous-marins nucléaires américains 63, 69, 74, 402, 484 Home Rule 395, 403 Homosexual Law Reform Society 313 Horsfall, Allan 315 Hume, John 354, 373 Hunt Saboteurs Association457, 472 Huxley, Julian 443, 448, 474 I Imperial Chemical Industries 462 J Jack, James 428 Jameson, Fredric 22 Jasper, James 20 Jean XXIII 346 Jenkins, Roy 314 Jerman, Betty 264 Jeunes gardes socialistes de Belgique 91 Johns, Edward 198 Johnson, Lyndon B 80 Jones, Claudia 217, 221, 245 K Kaprow, Allan 94 In Place of Strife 144, 185 Kaunda, Kenneth52, 218 Indian Workers' Association 211 Khor, Leopold 472 incident du Golfe du Tonkin 80, 375 Indian National Congress 217, 218, 228 Industrial Relations Act (1971) 145, 186, 188, 193, 199, 337 Inglehart, Ronald 21 Institute for Workers Control 170, 184, 195, 409 insurrection hongroise (1956) 119, 167, 493 International Days of Protest (1965) 90 International Marxist Group 153, 155, 170, 243, 261, 277, 300, 425 International Socialism (publication) 169, 181 International Socialists 153, 169, 182, 194, 243, 246, 293, 300, 376 International Times, the . 111, 116, 268, 290, 321, 376, 442 International Whaling Commission 475 Irish Civil Rights Solidarity Campaign 376 Irish Democrat, the 345, 361, 375, 393, 417 Irish Solidarity Campaign 376, 377 Irish Students' CND 357 Isaacs, George 164 Iwan, Dafydd 426 Keep Left 168, 169, 414 Kerr, Clark 131 Khrouchtchev, Nikita 46 King, Martin Luther 66, 126, 218, 221, 223, 226, 362 Kinnock, Neil 433 Kinsey, Alfred 311, 312 kiss-in 332, 492 L Labouchere, amendement 307, 312 Labour Party Young Socialists 168, 169 Lalonde, Brice 460 Lambrakis, Grigoris 70 Laws in Wales Acts (1536, 1543) 394, 406 League of Empire Loyalists 243 Leeds Revolutionary Feminist Group 298 Lemass, Sean 349, 350 Lent, Adam 33, 79 Lesbian and Gay Switchboard 337 Lesbians against Inhumane Research 470 Lessing, Doris 274 lévitation du Pentagone (1967) 95 Lewis, Saunders 406, 420 597 Index Lewisham, bataille de 246, 299 Liaison Committee for the Defence of Trade Unions 172 Lindsay, Isobel 402 Liverpool Corporation 411, 417 Lloyd George, David 410 de Coalisland à Dungannon 362 de Pâques de Londres à Aldermaston 56, 57, 58, 60, 61, 62, 64, 65, 66, 68, 70, 73, 85, 103, 121, 174, 175, 221, 357, 402, 453, 483, 502 pour la paix de San Francisco à Moscou 64, 66 Lloyd George, Megan 410 pour le droit à l'emploi 194 Lodge Cabot, Henry 97 66, 125, 221, 226, 502 lobbying 86, 127, 139, 313 London College of Fashion and Clothing Technology 458 London Icebreakers 337 London School of Economics . 44, 91, 97, 100, 102, sur Washington pour l'emploi et la liberté marche de Pâques de Londres à Aldermaston 56, 57, 58, 60, 61, 62, 64, 65, 66, 68, 70, 73, 85, 103, 121, 174, 175, 221, 357, 402, 453, 483, 502 109, 110, 116, 117, 121, 123, 124, 125, 127, marche pour la paix de San Francisco à Moscou 147, 151, 157, 182, 224, 266, 290, 317, 318, marche sur Washington pour l'emploi et la 128, 130, 132, 134, 136, 137, 138, 143, 146, 321, 325, 328, 336 London Squatters Campaign 197 Lord Crowther 431 64, 66 liberté 66, 125, 221, 226, 502 Martin, Kingsley 55 Marwick, Arthur 23, 33, 107, 115, 118, 501 Lord Kilbrandon 431 Mason, Roy 389 Lord Wilberforce 191 McCann, Eamonn 356, 369 Lord Mountbatten 389 Lucas Aerospace 177, 464 Lutuli, Albert 124 M Mac a'Ghobhainn, Seumas 423 MacAlpine, Tom 408 Maccoby, Eleanor 270 MacCormick, John 396, 405 MacDiarmid, Hugh 396 MacLean, Donald 309 MacLean, John 309, 416, 425 Macmillan, Harold 42, 48, 59, 72, 117, 123, 164, 216, 402 mai 1968 19, 115, 141, 142, 158, 181, 182, 183, 192, 197, 207, 243, 346, 371, 372, 417, 493 Malcolm X 224 Mangrove Nine 241 March of Shame (1967) 96 marche de Belfat à Derry-Londonderry 370 McAdam, Doug 25, 27, 39, 259 McCarthy, Joseph 217, 309 McCluskey, Patricia 360 McIntosh, Mary 326, 335 McKeown, Ciaran 385 Mellors, Bob 316 Michael X 225, 240, 242 Mildenhall, base aérienne américaine 52 Miles, Gareth 412 Milkwood Tavern 228, 230 Mills, C. Wright 47, 120 Miss America, concours (1968) 278, 283, 284 Miss Monde, concours (1969) 279, 284, 328 Mitchell, Adrian 94 Mitchell, Juliet 269, 276, 277 Montgomery Plating 146 Morgan, Robin 284 Morris, Olive 297 Morris, William 402 Morrison, Sybil 274 Mosley, Oswald 215, 243, 246 Mountbatten-Windsor, Charles 418 Movement for Colonial Freedom . 45, 98, 212, 221, 231, 233, 359 Mudiad Amddiffyn Cymru (Movement for the Defence of Wales)418, 419 Muirhead, Roland 402 Murdoch Iris 274 Muste, A. J 81 Muther Grumble 442 N National Association for the Advancement of Coloured People 223 National Association of Local Government Officers 199 National Black Women's Conference 256 National Coal Board445, 447 National Committee for a Sane Nuclear Policy (SANE) 67 National Front 243, 245, 246, 249, 250, 253, 254, 299 National Housewives' Register 264 National Joint Action Committee for Women's Equal Rights 282 National League of the Blind 57 National Liberation Front (for South Vietnam)98, 99, 100, 103, 104, 147, 179, 181, 276, 317, 375, 376, 458, 492 National Organization of Women 285 National Packaging Day 476 National Parks and Access to the Countryside Act (1949) 443 National Party of Scotland 396, 405 National Smoke Abatement Society 445 National Union of Mineworkers 146, 188, 189 National Union of Public Employees 199, 203 National Union of Seamen 177 National Union of Students 133, 134, 136, 139, 148, 149, 150, 154, 156, 159, 179, 458, 460 National Union of Teachers 199 Nature Conservancy 443, 458, 474 Neave, Airey 389 négociation collective libre 164 Nehru, Jawarhalal 218 Newens, Arthur Stanley 44 Newsletter, the 166, 168 Newton, Huey 237, 325 Nguyen, Thi Binh 277 Nicholson, Edward Max 474 Niemoller, Martin 62 Nkrumah, Kwame 52, 63, 219, 220 North Western Homosexual Law Reform Committee 316 Northern Civil Rights Association 360, 362, 364, 366, 369, 373 Northern Ireland Committee of the Irish Congress of Trade Unions 365 Northern Ireland Labour Party 364 Nouvelle Gauche 46, 56, 65, 99, 102, 104, 110, 120, 134, 143, 151, 157, 161, 167, 182, 195, 280, 285, 290, 295, 296, 304, 305, 336, 369, 447, 491, 493 Nuttall, Jeff 50 Nyerere, Julius 52 O Oakley, Anne 278 occupation 19, 28, 58, 102, 109, 123, 130, 131, 135, 140, 144, 148, 150, 153, 156, 182, 183, 189, 191, 197, 200, 214, 240, 244, 248, 294, 318, 372, 379, 413, 421, 422, 470, 481, 493 offensive du Têt (1968) 104, 276 Oglesby, Carl 89, 93 Operation Gandhi 52, 53, 54, 69 Operation Guiness 230 Operation Hades 455 Operation Rolling Thunder 85 Operation Rupert 333 ordre d'Orange 348 Organisation of Women of Asian and African Descent 256 Oxford Vietnam Committee 92, 93 Oz 155, 333 599 Index P Paisley, Ian 340, 348, 350, 351, 363, 369, 370, 382, 386, 389 Pakistani Workers' Association 211 Parker, Mack Charles 216 Parks, Rosa 279 Parti communiste britannique 46, 167, 172 Parti conservateur 232, 431, 482 Parti travailliste 55, 72, 81, 84, 87, 91, 95, 98, 128, 162, 163, 167, 168, 169, 171, 173, 176, 178, 187, 201, 232, 233, 249, 339, 409, 418, 426, 429, 432 Peace News 30, 31, 40, 42, 45, 52, 54, 57, 61, 65, 67, 69, 75, 76, 80, 84, 104, 116, 162, 175, 209, 221, 223, 261, 270, 273, 275, 280, 287, 291, 297, 308, 345, 393, 442 Peace People 385, 386, 388, 391 Peace Pledge Union 45, 51, 53, 271 Peach, Blair 252 People's Democracy 369, 370, 371, 372, 373, 376, 380 phone-in 474, 485, 492 Plaid Cymru (Party of Wales) . 396, 398, 400, 401, 403, 404, 406, 408, 409, 411, 415, 417, 420, 426, 428, 440 Plessey 148 Porton Down, centre de recherche e microbiologie 53, 75 Powell, Enoch 235, 242, 243, 253, 267, 326 Première Guerre mondiale 271 Prevention of Terrorism Act (1974) 387 Priestley, J. B. 55, 94, 121, 313 programme nuclaire Polaris 69, 72, 357, 402, 483 Trident 483, 484 R Race Relations Act (1965, 1968, 1976) 233, 242, 251, 360 Rachman, Peter 212 Racial Adjustment Action Society 225 Racial Preservation Society 243 Radical Student Alliance 134, 136, 137 Randle, Michael 63, 221 rapport Beveridge (1942) 48 rapport Robbins (1963) 116, 152 Reclaim the Night 298 recyclage 475, 476 Red Mole, the 170, 379, 425 Red Weekly 154, 171 Redgrave, Vanessa 274 Reid, James (Jimmy) 148, 192 Resurgence 441, 452, 471 révolution sexuelle 265, 268, 314, 328, 496 Revolutionary Socialist Student Federation 134, 300 Rexroth, Kenneth 120 Reynolds, Earle 68 Rio Tinto-Zinc 471 Rivers (Prevention of Pollution) Act (1951) 444 Robert Owen 408 Robertson, John 433 Rock Against Racism 245, 254, 299, 495 Rock Against Sexism 299, 495 Rolls Royce 181 Rook, Jean 301 Roosevelt, Franklin Delano 400 Rostow, Walt W 89, 103 Roszak, Theodore 66, 221, 275 Rowbotham, Sheila 32, 274, 278, 288 Royal Society for the Prevention of Cruelty to Animals 446 Rucht, Dieter 25 Ruislip, quartier-général des forces aériennes américaines 85 Russell, Bertrand . 56, 81, 87, 89, 90, 98, 177, 313 Rustin, Bayard 52, 62, 65, 66, 67, 221, 223, 502 S Sahara Protest Team 63 Saltley, bataille de 190 Sandbrook, Dominic 31, 115 Sandys, Duncan 54 Sappho 336 Sartre, Jean-Paul 90 satyagraha, non-violence gandhienne 51, 52, 56, 77, 121, 217, 218, 226, 491 Save Stansted Group 452 Save the Whale, campagne 474 Saville, John 46 Savio, Mario 132 Scanlon, Hugh 166 Scargill, Arthur 189 Schumacher, Ernst Friedrich 447, 472 Schweppes 475 Scottish Campaign to Resist the Atomic Menace 480, 481 Scottish Daily Express, the 427 Scottish Daily News, the 428 Scottish Home Rule Association 395 Scottish National Party 396, 400, 402, 405, 408, 410, 412, 415, 417, 418, 420, 425, 426, 427, 430, 434, 438, 440, 481 Scottish Party 396 Scottish Republican Army 419 329, 335, 355, 358, 369, 403, 404, 407, 421, 424, 452, 477, 491, 500 Sivanandan, Ambalavaner 211 Smith, Ian 128, 132, 236 Snow, David 26 Soares, Tony 111 Socialist Challenge 171 Socialist Labour League 168, 169, 171 Socialist Review Group 169 Socialist Society (Soc-Soc) 128, 318 Socialist Woman 261, 277, 293 Socialist Workers Party 170, 246, 481 Society for the Protection of Unborn Children 294 Soper, Donald 45, 53, 121, 313 South African Indian Congress 217 Spalding, Violet 468 Spare Rib 261, 267, 291, 292, 298, 301, 468 spécisme 467, 468, 485 Spoutnik 43 squat 197, 296 Sruth 393, 397, 417 Steele, Harold 54, 67, 453 Scottish Trades Union Congress 428 Steele, Sheila 54, 453 Seconde Guerre mondiale 41, 44, 51, 163, 197, Stewart, Michael 97, 103, 132 Seale, Bobby 237 210, 211, 261, 263, 268, 271, 309, 397, 401, 442, 491 sensibilisation, groupes de 286, 304, 327, 495 Separate University Education Bill of 1957 (Afrique du Sud) 122 services publics 152, 199, 201, 202, 205, 208, 222, 385, 397, 494 Sexual Offences Act (1967) 314 Sharp, Gene 67 Sharpeville, massacre de 123, 228 Shrew 261, 269, 276, 285, 292 Sillars, James (Jim) 433 Sinclair, Elizabeth 364, 366 Singer, Peter 467 sit-in 28, 52, 58, 61, 74, 121, 125, 130, 131, 135, 140, 183, 228, 229, 230, 243, 245, 252, 322, Stephenson, Paul 226 Stonewall Inn 321 Straw, Jack 136, 149 Student for a Democratic Society 89, 91, 92, 93 Student Non-Violent Co-ordinating Committee 126, 131, 233, 239, 279 Student Power 129, 131, 184 suffragettes 271, 305 Summerskill, Edith 274 Sunningdale, accord de (1973) 384 suremballage 476 Survival Society 476 Swaffham, base de missiles nucléaires 61, 69, 71, 121 T Taff Project Group 459 Tansley, Arthur 443, 448 601 Index Tarrow, Sidney 24, 28 Tartan Army 419 teach-in 96, 109, 127, 128, 129, 138, 141, 143, 317, 320, 374, 492 Teddy Boys 49, 214 Thatcher, Margaret 23, 32, 147, 151, 154, 158, 159, 188, 205, 206, 253, 255, 302, 303, 341, 389, 438, 482, 499 think-in 320, 322, 492 Thompson, E. P. 46, 161, 167 Tilly, Charles 26 Times, the 40, 50, 58, 59, 74, 106, 129, 136, 289, 313, 435, 445, 484 Torrey Canyon, naufrage du pétrolier (1967)446 Touraine, Alain 21 Trades Disputes and Trade Unions Act (1927) 164 Trades Union Congress 110, 149, 164, 177, 186, 199, 201, 202, 247, 249, 262, 295, 338, 429, 463 Traité d'interdiction partielle des essais nucléaires (1963) 76, 77 Transport and General Workers' Union 163, 172, 247 Tribunal international des crimes de guerre (1967) 90 Triumph 148 Trocchi, Alexander 94 Troops Out Movement 381 Tufnell Park Group 275 turbans, campagne des 230 Turing, Alan 311 U Ulster Defence Association 383 Ulster Liberal Party 360 Ulster Protestant Volunteers 352 Ulster Unionist Party 348, 353, 365, 384 Ulster Vanguard 383 Ulster Volunteer Force 352, 361 Union Movement 215 Union News/Leeds Student 116, 132, 291 Union of Construction Allied Trades and Technicians 464 United Carbon Black 461 Universal Coloured People's Association 236 Upper Clyde Shipbuilders 148, 192, 200, 425, 427, 428, 440 Urdd Gobaith Cymru (Welsh League of Hope) . 395 V veillée atomique 68 Verwoerd, Hendrik 123 Vietnam Moratorium (1969) 107 Vietnam Solidarity Campaign80, 98, 99, 103, 106, 107, 111, 171, 181, 240, 275, 316, 376, 492 Vietnamisation, politique de 108 Voice of Women 272 W Wages for Housework Committee 265 Walter, Aubrey 316, 318, 321 Watson, Alex 356 We Shall Overcome 93, 225, 362 Week, the 170 Welfare State 164, 206, 353, 397, 443, 499 West Indian Development Council 226 West Indian Gazette, the 30, 210, 217, 220, 221 Whisky-A-Go-Go 125 White Defence League 215 Whitehouse, Mary 326, 332, 339 Whole Earth Catalog 460 Wilde, Oscar 308 Wilkinson, Ellen 48 Williams, Elizabeth (Betty) 385 Wilson, Elizabeth 326 Wilson, Harold 32, 72, 81, 83, 85, 96, 103, 112, 117, 132, 139, 144, 151, 159, 177, 181, 187, 207, 226, 232, 314, 326, 350, 360, 400, 409, 431, 433, 446 Wilson, Woodrow 400 Windrush, navire 210 Winnicott, Donald Woods 269 Winslow, Barbara 278 Wolfe, William (Billy) 408, 412, 426, 427 Wolfenden, rapport (1957) 312, 313 Women Against Nukes 470 Women Against Racism and Fascism 299 Women Against the Bomb 272 Women's Liberation Workshop286, 287, 292, 293 Women's Strike for Peace 273, 275 Wood, Wendy 431 Workers Revolutionary Party 169 work-in 192, 200, 425, 426, 492, 494 Working Women's Charter 330 World Wildlife Fund 474 Y Young Guard 169 Young Liberals 477 Young Socialists 91, 99, 168, 173, 178, 179, 181, 194, 368, 369, 414 Young, Nigel 115, 315 Youth Communist League 92 Z Zambia National Congress 218 Zedong, Mao 287 Diffusion et évolution des mouvements sociaux dans les longues années soixante au Royaume-Uni : 1956-1979 Résumé Au cours de la période des longues années soixante, le Royaume-Uni fut traversé par un cycle de contestation lors duquel différents groupes de militants firent valoir un large éventail de revendications. Un certain nombre de similarités peut être observé dans leurs idéologies, leurs tactiques et leurs symboles, comme par exemple leur volonté de lutter pour leur « libération » de « l'oppression » impérialiste, paternaliste, raciste, sexiste, homophobe ou même de délivrer les animaux de la domination humaine. Ces similitudes suscitent logiquement de nombreuses questions, notamment les suivantes : comment expliquer ces parallèles ? Quels sont les liens qui ont rendu possible la diffusion de ces éléments ? Dans quelle mesure la diffusion a-t-elle contribué à l'évolution de la contestation dans les longues années soixante au Royaume-Uni ? Afin d'y répondre, cette thèse s'efforcera d'analyser séparément les différents mouvements sociaux de la période, en accordant une importance particulière à leurs interactions et à leurs rôles au sein du cycle. En fournissant un modèle aux groupes de militants qui l'adaptent ensuite à leur propre cause, les processus de diffusion viennent nourrir et amplifier la dynamique protestataire. Il ne s'agit donc pas d'un simple phénomène de mimétisme, mais d'un procédé créatif témoignant d'activités complexes de construction du sens. Le choix de la source d'inspiration est également très significatif, d'autant plus que celle-ci peut se situer dans un autre pays ou une autre époque. Ainsi, il conviendra de démontrer que la diffusion peut opérer de manière diachronique au sein d'un même territoire, comme de manière synchronique lorsque les militants jettent leur dévolu sur un mouvement aux revendications différentes ou ayant lieu à l'étranger. Mots-clés : diffusion, longues années soixante, Royaume-Uni, cycle de contestation, mouvement sociaux, cadre d'action collective, répertoire d'action collective. Diffusion and evolution of social movements during the Long Sixties in the United Kingdom: 1956-1979 Abstract During the Long Sixties, the United Kingdom witnessed the rise of a protest cycle allowing various groups of activists to press for a wide array of claims. A number of similarities can be observed in their ideologies, tactics and symbols, such as their willingness to fight for their "liberation" from "oppression", be it imperialist, paternalistic, racist, sexist, homophobic or even to free animals from human domination. These analogies raise a number of questions, notably: how can these parallels be explained? What are the links that enabled the diffusion of these elements? To what extent did diffusion processes contribute to the evolution of protest during the Long Sixties in the United Kingdom? To answer these questions, this thesis will analyse the social movements of the period separately, whilst paying particular attention to their interactions with one another and their role within the protest cycle. By providing other groups of activists with a model that they can adapt to their own cause, diffusion processes can swell and escalate the dynamics of contention. Hence, they differ from pure mimicry; they show how meaning is carefully constructed through creative adaptations. The choice of a particular source of inspiration is also very significant, especially when it can be traced back to another era or country. Therefore, it will be demonstrated that diffusion can occur both diachronically within national boundaries or synchronically between movements making different claims or taking place in a different country. Keywords: diffusion, long sixties, United Kingdom, cycle of protest, social movements, collective action frame, repertoire of contention.
{'path': '41/tel.archives-ouvertes.fr-tel-02317668-document.txt'}
DTAM - Thème de recherche - Développement territorial et agriculture multifonctionnelle Rapport Hcéres To cite this version: Rapport d'évaluation d'une entité de recherche. DTAM - Thème de recherche - Développement territorial et agriculture multifonctionnelle. 2018, Institut national de recherche en sciences et technologies pour l'environnement et l'agriculture - IRSTEA. hceres-02030902 HAL Id: hceres-02030902 https://hal-hceres.archives-ouvertes.fr/hceres-02030902 Submitted on 20 Feb 2019 Évaluation de la recherche ÉVALUATION DU THÈME DE RECHERCHE : Développement territorial et agriculture multifonctionnelle DTAM SOUS TUTELLE DES ÉTABLISSEMENTS ET ORGANISMES : Institut national de recherche en sciences et technologies pour l'environnement et l'agriculture - Irstea CAMPAGNE D'ÉVALUATION 2017-2018 VAGUE D Rapport publié le 05/02/2018 Pour le Hcéres1 : Au nom du comité d'experts2 : Michel Cosnard, Président Hubert Jayet, Président du comité En vertu du décret n°2014-1365 du 14 novembre 2014 : 1 Le président du Hcéres "contresigne les rapports d'évaluation établis par les comités d'experts et signés par leur président." (Article 8, alinéa 5) ; 2 Les rapports d'évaluation "sont signés par le président du comité". (Article 11, alinéa 2). Développement territorial et agriculture multifonctionnelle, DTAM, IRSTEA Mme Nathalie BERTRAND, Mme Emmanuelle GEORGE, M. Frédéric SAUDUBRAY , M. Dominique VOLLET Ce rapport est le résultat de l'évaluation du comité d'experts dont la composition est précisée ci-dessous. Les appréciations qu'il contient sont l'expression de la délibération indépendante et collégiale de ce comité. PRÉSENTATION DU THÈME DE RECHERCHE Nom du thème du TR : Développement territorial et agriculture multifonctionnelle Acronyme du TR : DTAM Label demandé : Type de demande : Restructuration N° actuel : Nom du directeur (2017-2018) : Nom du porteur de projet (2018-2023) : Nombre d'équipes et /ou de thèmes du projet : Mme Nathalie BERTRAND Mme Emmanuelle GEORGE, M. Frédéric SAUDUBRAY, M. Dominique VOLLET 3 MEMBRES DU COMITÉ D'EXPERTS Président : M. Hubert JAYET, université de Lille Experts : Mme Magalie AUBERT, Inra (personnel d'appui à la recherche) M. Jean-Paul BILLAUD, CNRS, Nanterre Mme Nathalie BLANC, CNRS, Paris M. Patrick DUGUE, Cirad, Montpellier M. Hervé PIATON, ministère de l'Agriculture et de l'Alimentation (représentant de la CS) M. Patrick POINT, CNRS, Bordeaux Conseiller scientifique représentant du Hcéres : M. François-Charles WOLFF Représentants des établissements et organismes tutelles de l'unité : M. Jean-Marc CALLOIS, Irstea Mme Dominique LABORDE, Irstea 3 Développement territorial et agriculture multifonctionnelle, DTAM, IRSTEA Mme Nathalie BERTRAND, Mme Emmanuelle GEORGE, M. Frédéric SAUDUBRAY , M. Dominique VOLLET INTRODUCTION HISTORIQUE ET LOCALISATION GÉOGRAPHIQUE DU THÈME DE RECHERCHE Le TR DTAM est issu du regroupement en 2009 des Thèmes de recherche (TR) AMANDE (« Aménités et nouvelles ruralités ») et Cerès (« Multifonctionnalité de l'agriculture et enjeux environnementaux »). La continuité de deux périodes d'évaluation a permis au collectif d'entrer en 2012 dans une phase de maturité de son projet scientifique visant une meilleure compréhension des enjeux contemporains du développement durable des territoires et de la préservation et la valorisation des ressources naturelles et environnementales. Le TR est composé de trois collectifs de recherche localisés respectivement sur les sites Irstea de Bordeaux, Clermont-Ferrand et Grenoble : l'équipe EADT « Environnement, acteurs et développement territorial », initialement unité ADBX « Aménités et dynamiques des espaces ruraux – Bordeaux » (Bordeaux) ; les personnels Irstea MECF « METAFORT Clermont-Ferrand » de l'unité mixte de recherche (UMR) Territoires créée en 2017 suite à la fusion entre le CERAMAC « Centre d'études et de recherches appliquée au Massif Central, à la moyenne montagne et aux espaces fragiles » et l'UMR Metafort « Mutation des activités, des espaces et des formes d'organisation dans les espaces ruraux » (Clermont-Ferrand) ; l'unité DTGR « Développement des territoires montagnards » (Grenoble). DIRECTION DU THÈME DE RECHERCHE La directrice du TR est Mme Nathalie BERTRAND NOMENCLATURE HCÉRES SHS Sciences Humaines et Sociales SHS1_1 Économie SHS2_4 Sociologie, démographie SVE Sciences du Vivant et de l'Environnement SVE1_3 Biotechnologies, sciences environnementales, biologie synthétique, agronomie DOMAINE D'ACTIVITÉ Le TR DTAM est un collectif pluridisciplinaire qui rassemble des compétences en sciences humaines et sociales (majoritairement) et en agronomie. Les principales disciplines mobilisées sont l'économie (économie de l'environnement, économie institutionnelle, économie spatiale, économie du patrimoine, économie régionale), la sociologie (sociologie de l'environnement, sociologie des sciences, sociologie de l'action publique environnementale), l'agronomie (agronomie des territoires, agronomie des systèmes, agronomie des pratiques, géo-agronomie), la géographie (géographie sociale et culturelle). 4 Développement territorial et agriculture multifonctionnelle, DTAM, IRSTEA Mme Nathalie BERTRAND, Mme Emmanuelle GEORGE, M. Frédéric SAUDUBRAY , M. Dominique VOLLET EFFECTIFS DU THÈME DE RECHERCHE Composition du thème de recherche Nombre au 31/12/2016 Nombre au 01/01/2019 Personnels permanents en activité Professeurs et assimilés Maîtres de conférences et assimilés 1 Directeurs de recherche et assimilés 10 Chargés de recherche et assimilés 18 Conservateurs, cadres scientifiques (EPIC, fondations, industries, etc.) 0 Professeurs du secondaire détachés dans le supérieur 0 ITA, BIATSS autres personnels cadres et non-cadres des EPIC 33 TOTAL personnels permanents en activité 61 Personnels non-titulaires, émérites et autres Enseignants-chercheurs non titulaires, émérites et autres 0 Chercheurs non titulaires (dont post-doctorants), émérites et autres 2 Autres personnels non titulaires (appui à la recherche) 4 Doctorants 17 TOTAL personnels non titulaires, émérites et autres 6 TOTAL thème de recherche 67 5 Développement territorial et agriculture multifonctionnelle, DTAM, IRSTEA Mme Nathalie BERTRAND, Mme Emmanuelle GEORGE, M. Frédéric SAUDUBRAY , M. Dominique VOLLET AVIS GLOBAL SUR LE THÈME DE RECHERCHE Le TR DTAM a un positionnement scientifique original, ses champs d'investigation répondant bien à la demande sociale. Son organisation transversale mêle les chercheurs issus de trois unités et différentes disciplines et a un rôle d'incubateur de projets. La production scientifique est soutenue, dans le champ académique comme par la production de plateformes et bases de données. Il y a une très bonne prise en compte des enjeux de production scientifique, de valorisation et de transfert. L'articulation de ce positionnement scientifique avec les champs de recherche généraux reste à améliorer, la hausse du niveau de publication est à poursuivre. La construction d'un environnement adapté à la production et la gestion des bases de données est en cours, mais inachevée. Le TR confirme l'ancrage d'Irstea dans son rôle d'appui à l'action publique. La décentralisation en cours et la montée en puissance des outils de recherche partenariale lui offrent des opportunités d'amplifier son action au service des territoires. La présence significative des doctorants s'est renforcée, ainsi que la capacité à les encadrer. Leur organisation collective est cependant insuffisante. Ils ont des difficultés à organiser leurs relations avec le milieu académique local ainsi qu'à participer à des activités d'enseignement. On ne voit guère d'offre propre de formation par la recherche. Le changement d'organisation d'Irstea pose la question du maintien des acquis transversaux issus du TR DTAM, notamment les animations. Ces acquis transversaux sont de plus fragilisés par le renforcement des politiques de site. L'organisation administrative actuelle paraît peu adaptée à cette nouvelle situation, où les unités ont besoin d'être réactives. De plus, les unités vont dans un avenir proche faire face à des départs nombreux, qui les fragiliseront si n'est pas mise en place une politique adaptée de renouvellement de ces départs, avec notamment des profilages de postes bien choisis. 6 Les rapports d'évaluation du Hcéres sont consultables en ligne : www.hceres.fr Évaluation des coordinations territoriales Évaluation des établissements Évaluation de la recherche Évaluation des écoles doctorales Évaluation des formations Évaluation à l'étranger
{'path': '54/hal-hceres.archives-ouvertes.fr-hceres-02030902-document.txt'}
La sédentarisation de la cour à Paris d'après les itinéraires des derniers Valois (1515-1589)1 Caroline zum Kolk Au milieu du XIVe siècle, Paris commence à être désignée par le terme de capitale dans les ordonnances et édits royaux2. En tant que siège des principales instances gouvernementales du royaume, la ville est « le chef et la source » du pays3. Les rois insistent sur sa fonction de modèle pour les autres cités du pays et ne craignent pas la comparaison européenne ; François Ier considère la capitale comme « la plus fameuse, populeuse et louable cité de nostre royaume, mais aussi de la chrétienté4 ». Paris ne sert pas pour autant comme ville résidence, c'est-à-dire lieu de séjour habituel du monarque ; l'existence de palais royaux n'implique pas la présence de la cour. Ce phénomène s'observe non seulement en France mais aussi dans d'autres pays : à la fin du Moyen Âge, les capitales européennes ne réunissent pas systématiquement les fonctions de siège du gouvernement et de lieu de séjour du prince. L'itinérance curiale, dont les racines remontent aux premiers siècles du Moyen Âge, ne disparaît dans la plupart des pays qu'à l'époque moderne5. Les spécialistes de l'histoire politique ont considéré la sédentarisation des cours comme un marqueur de progrès puisqu'elle nécessitait le développement d'une administration et de services diplomatiques permettant au prince de gouverner à distance. Elle va de pair avec la construction ou la modernisation de résidences et l'augmentation de la pompe qui entoure le prince et sa famille, donc une étiquette mieux articulée et une vie de cour plus policée. D'après John Adamson6, un des premiers à aborder cette question sous l'angle de la cour et non pas de l'histoire urbaine, la sédentarisation aurait commencé au XVe siècle en Italie, où la cour papale servit de modèle aux principautés du Nord. Elle se serait répandue ensuite au Nord des Alpes, grâce entre autres aux guerres d'Italie. À la fin du XVIe siècle, la plupart des pays européens auraient vu émerger une résidence principale, généralement urbaine, et abandonné la vie itinérante du Moyen Âge. Cette vision a été nuancée ces dernières années. On a fait remarquer à juste titre que les princes de l'Italie du Nord n'ont jamais connu une vie itinérante très prononcée, vu la taille 1 Je remercie vivement Guillaume Fonkenell et Jean Guillaume pour la relecture attentive de cet article et leurs précieuses remarques. Alexandra Zvereva, Marion Müller et Oliver Mallick soient remerciés pour les échanges stimulants au sujet de l'itinérance et des extraits de mémoires et de lettres qu'ils m'ont signalés à ce sujet. 2 BOVE B., « Aux origines du complexe de supériorité des Parisiens : les louanges de Paris au Moyen Âge », C. GAUVARD et J.-L. ROBERT (éd.), Être parisien, Paris et Île-de-France. Mémoires, n° 55, 2004, p. 438 (notes 4447), MOUSNIER R., « Paris, capitale politique », FRIEDMANN A. et al. (dir.), Paris, fonctions d'une capitale, Paris, Hachette, 1962, p. 39-40. 3 FURETIERE A., Dictionnaire universel, contenant généralement tous les mots françois tant vieux que modernes, et les termes de toutes les sciences et des arts, La Haye, Leers, 1690. 4 BAUDOUIN-MATUSZEK M.-N., « Le domaine royal à Paris sous Henri II », OURSEL H. et FRITSCH J. (dir.), Henri II et les Arts, Paris, École du Louvre, 2003, p. 105. 5 Sur cette question, voir entre autres FOUQUET G., HIRSCHBIEGEL J. et RABELER S., Residenzstädte der Vormoderne. Umrisse eines europäischen Phänomens, Ostfildern, Thorbecke, 2016 ; PARAVICINI BAGLIANI A. (dir.), L'itinérance des seigneurs (XIVe-XVIe siècles), Cahiers Lausannois d'histoire médiévale n° 34, 2003. Deux thèses ont été dédiées à des itinéraires royaux français : FABRON J., Les déplacements de François Ier et de la Cour : commentaire de l'itinéraire de la Chancellerie royale, sous la direction de Richard Gascon, Université de Lyon, 1962 ; HOLVAS J.-F., Les séjours de Charles V et de Charles VI dans l'actuel département du Val-deMarne, dir. par Michel Balard et Jean Chapelot, Université de Paris-Val-de-Marne, 1991. 6 ADAMSON J. (dir.), The princely courts of Europe (1500-1750), London, Weidenfeld & Nicolson, 1999. 1 réduite de leurs territoires7. D'autre part, ce ne sont pas une, mais plusieurs résidences qui accueillent les cours à l'époque moderne : à côté d'un palais principal, il existe un ensemble de palais à fonctions variées, servant de résidence saisonnière, de lieu de séjour d'un parent ou invité de marque ; d'autres châteaux sont destinés à une activité particulière comme la chasse. À la fin du Moyen Âge émergent en outre de nouvelles formes de voyage : le grand tour et le voyage sous incognito. Les familles régnantes et les membres de la cour ne perdent ainsi pas en mobilité ; c'est la cour dans son ensemble qui se déplace moins, et pour des raisons différentes qu'au Moyen Âge. Par ailleurs, la chronologie du phénomène a également été mise en question : la fin du Moyen Âge est davantage marquée par une concentration des séjours dans un nombre réduit de résidences que par la disparition du nomadisme curial8. Et la persistance de l'itinérance qu'on observe dans certains pays tout au long de l'époque moderne n'est plus considérée comme synonyme de retard ou de sous-développement, mais le résultat de facteurs géopolitiques particuliers9. Qu'en est-il de la France ? Les spécialistes de l'histoire moderne ignorent souvent que, comme l'a démontré Boris Bove, la cour a connu une période sédentaire et parisienne au Moyen Âge10. Mieux perçu a été l'abandon de la capitale à partir de 1419, provoquée par la guerre civile et l'occupation anglaise. C'est sous le règne de Louis XI qu'elle réapparaît dans la région parisienne, mais ni ce roi, ni ses successeurs Charles VIII et Louis XII ne choississent Paris ou un des châteaux des environs comme résidence principale. Les avis divergent sur le moment où Paris devient une ville résidence. D'après Adamson, elle occupe cette fonction sous Henri IV, donc assez tardivement. D'autres historiens avancent François Ier ou Henri III. Les itinéraires des derniers Valois11 permettent d'invalider ces hypothèses et de cerner la chronologie et les contours de ce qu'on pourrait considérer comme un projet de réforme curiale, entrepris par Catherine de Médicis dans les années 1560. Il n'implique pas seulement l'installation de la cour à Paris, mais aussi une réorganisation des résidences de la capitale et une mise en ordre de l'entourage du roi, deux phénomènes qui accompagnent fréquemment l'émergence d'une ville résidence. Un événement hautement symbolique témoigne du changement : le 27 octobre 1572, la jeune reine Élisabeth d'Autriche accouche de son premier enfant au Louvre12. Depuis 1407, aucun enfant royal n'avait vu le jour dans la capitale13. LAZZARINI I., « L'itinérance des Gonzague : contrôle du territoire et résidentialité princière (Mantoue, XIVe-XVe siècles) », PARAVICINI BAGLIANI A. (dir.), op. cit., p. 249-274. 8 EWERT U. C., « Itinerar und Herrschaft im Spätmittelalter : Ein wirtschaftstheoretischer Ansatz und empirische Ergebnisse für die burgundischen Herzöge im 15. Jh. », Historical Social Research, vol. 21, no 4, 1996, p. 89114. 9 BOUCHERON P., MENJOT D. et MONNET P., « Formes d'émergence, d'affirmation et de déclin des capitales : rapport introductif », Les villes capitales au Moyen Âge, Paris, Publications de la Sorbonne, 2006, p. 13-53. 10 Cf. dans ce volume l'article de Boris Bove. 11 Les itinéraires ont été constitués en saisissant la date et le lieu de rédaction des lettres éditées. Le contrôle des données a été effectué en suivant le parcours étape par étape. Cet examen a permis d'identifier des lieux-dits et lieux disparus ainsi que d'éliminer des indications qui présentent des incohérences quant au lieu de séjour ou la date de rédaction. Chaque lieu a été marqué de son code INSEE. Dans le cas de lieux disparus a été attribué le code de la commune la plus proche. Les itinéraires peuvent être consultés sous forme de base de données sur le site Cour de France.fr : http://cour-de-france.fr/rubrique434.html. 12 Il s'agit de Marie-Elisabeth de France (1572-1578). Les enfants de François Ier et Claude de France sont nés jusqu'en 1519 à Amboise (Louise, Charlotte et François) puis à Saint-Germain-en-Laye (Henri, Madeleine, Charles et Marguerite). Catherine de Médicis accouche soit à Fontainebleau (François, Élisabeth, Claude, le futur Henri III, Hercule, les jumelles Victoire et Jeanne), soit à Saint-Germain-en-Laye (Louis, Charles, Marguerite). 13 Sauf erreur de ma part, les enfants de Charles VI et Isabeau de Bavière sont les derniers à naître à Paris, à l'hôtel Saint-Pol ou à l'hôtel Barbette. Leur dernier, Philippe de France, nait en 1407. 7 2 L'installation à Paris dans les années 1560 marque la fin d'un processus qui avait commencé sous le règne de François Ier, époque où la capitale et ses environs reprennent pleinement leurs droits en devenant la région la plus fréquentée par le roi. L'itinérance curiale ne disparaît pas pour autant, tout au contraire : François Ier compte parmi les rois les plus mobiles de l'histoire de France. Avant de suivre les différentes étapes de la sédentarisation de la cour, une brève présentation des caractéristiques de ce nomadisme royal s'impose. L'itinérance curiale sous François Ier Dans la première moitié du XVIe siècle, le roi et son entourage passent rarement plus de quelques semaines en un endroit. Motivées par les nécessités politiques et guerrières, l'agenda religieux ou des plaisirs comme la chasse, la cour sillonne le royaume ; peu de provinces et de régions n'ont pas bénéficié au moins une fois de son passage. Les voyages concernent un nombre plus important de courtisans qu'au XVe siècle : la cour compte entre 8 000 à 12 000 personnes et autant de chevaux quand elle est « grosse », c'est-à-dire quand tous ses membres sont réunis. Comparés aux mille personnes qui entouraient Charles VIII, ces chiffres témoignent de la croissance de l'entourage royal au XVIe siècle, où la Maison du roi passe de 333 (1496) à presque 1000 serviteurs (1555) ; les hôtels des autres membres de la famille royale suivent une évolution similaire, comme ceux des grandes familles aristocratiques14. Le nomadisme de la cour a un impact important sur sa structure qui présente un caractère modulaire, composée de Maisons qui peuvent s'en dissocier et évoluer par leurs propres moyens : chaque Maison dispose en effet de tous les services nécessaires à l'organisation de la vie quotidienne et des voyages. Notons au passage que les Hôtels de la famille royale conservent cette autonomie jusqu'à la fin du XVIIe siècle, contrairement à ce qui s'observe dans d'autres pays où la sédentarisation de la cour va de pair avec la disparition de services essentiels. En France, il faut attendre l'installation de la cour à Versailles pour constater des amputations similaires15. Le déplacement d'un cortège de la taille d'une grande ville pose des problèmes logistiques importants16. Lors de voyages de longue durée, les hôtels se séparent et progressent indépendamment pour atténuer la pénurie des logements et les difficultés d'approvisionnement. Ralentie par les animaux et les courtisans qui marchent à pied, la cour parcourt en moyenne 20 à 25 km par jour17. Une des rares représentations d'un voyage curial permet de se rendre compte de la variété des moyens de transport utilisés (ill. 1) : 14 LABANDE-MAILFERT Y., Charles VIII et son milieu (1470-1498). La jeunesse au pouvoir, Paris, Klincksieck, 1975, p. 139-141 ; LE ROUX N., « La Maison du roi sous les premiers Bourbons: institution sociale et outil politique », GRELL C. et PELLISTRANDI B. (dir.), Les Cours d'Espagne et de France au XVIIe siècle, Madrid, Casa de Velazquez, 2007, p. 13-40 ; ZUM KOLK C., « The household of the Queen of France in the Sixteenth Century », The Court Historian, vol. 14, n° 1, juillet 2009, p. 3-22. 15 La maison du dauphin est la plus durement touchée par la disparition partielle de services et la perte d'autonomie qui en résulte. Voir entre autres KELLER K., « Ladies in waiting at the imperial court of Vienna from 1550 to 1700 : structures, responsibilities and carreer patterns » et PERSSON F., « Living in the house of power: Women at the Early Modern Swedish Court », AKKERMAN N. et HOUBEN B., The Politics of female Households. Ladies-in-waiting across Early Modern Europe, Leiden, Boston, Brill, 2014, p. 77-80 et STREICH B., Zwischen Reiseherrschaft und Residenzbildung: Der Wettinische Hof im späten Mittelalter, Köln, Böhlau, 1989, p. 403-408. 16 Pour comparaison : Nancy compte à la fin du siècle 11 000 habitants, Grenoble 12 000. D'après Stéphane Durand, au XVIe siècle « une agglomération peut être qualifiée de ville quand elle n'a qu'un millier d'habitants tout au plus, nombre atteint plus facilement dans les régions d'habitat groupé. Une ville peuplée du double fait déjà figure de ville moyenne. Au-delà des dix mille âmes commence le monde des grandes villes » (DURAND S., Les villes en France, XVIe-XVIIIe siècle, Paris, Hachette, 2006, p. 6). Voir aussi B AIROCH P., BATOU J., CHEVRE P., La population des villes européennes de 800 à 1850, Genève, Droz, 1988, p. 264. 17 Depuis l'Antiquité, le transport d'un groupe de personnes ne s'est pas accéléré. L'armée romaine connaissait deux types de progression, l'iter justum (24 km parcourus par jour) et l'iter expeditum, introduit par César (32 3 Illustration 1 : Antoine Caron, Départ de la cour du château d'Anet, Paris, Musée du Louvre Aux fatigues du voyage s'ajoute l'inconfort des logements, souvent constitués d'un campement de fortune. Même les plus grandes résidences du royaume ne peuvent accueillir qu'une fraction des courtisans18. Ces incommodités n'effrayent guère François Ier, roi-voyageur par excellence. Au cours des trente-deux ans de son règne, François Ier a séjourné dans 783 lieux différents, situés en France, en Italie et en Espagne19. Quatre régions dominent son itinéraire. Largement en tête se trouve l'Île-de-France qui capitalise 39 % du total des occurrences de l'itinéraire du roi, au détriment des châteaux de la vallée de la Loire qui avaient accueilli si régulièrement la cour au XVe siècle ; la région Centre ne compte plus que 14 % du total. La troisième et la quatrième place reviennent à la Picardie (avec 10 %) et la région Rhône-Alpes (avec 7 %)20. Les autres provinces ne dépassent pas 4 % du total. Parmi les villes les plus fréquentées, Paris domine sans contestation : km par jour). Un cheval peut tenir une vitesse de 20 km pendant une heure. Les courriers de la cour parcourent jusqu'à 150 km par jour, à condition de changer régulièrement de monture. 18 Par exemple Saint-Germain-en-Laye dispose de 80 logements (CHATENET M. et BOUDON F., « Les logis du roi de France au XVIe siècle », GUILLAUME J. (dir.), Architecture et vie sociale à la Renaissance, Paris, Picard, 1994, p. 65). 19 Itinéraire de François Ier : MARICHAL P. (éd.), Catalogue des actes de François Ier (1515-1547), Paris, Imprimerie nationale, 1887-1908, t. VIII, p. 411-548. Après examen il compte 8 488 entrées et documente le lieu de séjour de 67 % des jours du règne. 20 Découpage des régions en 2014. 4 Tableau 1 : Les dix lieux les plus fréquentés par François Ier (1515-1547) Lieu Paris Saint-Germain-en-Laye Fontainebleau Amboise Lyon Blois Madrid (Espagne) Compiègne Villers-Cotterêts La Fère (Aisne) Occurrences 1 233 771 662 370 326 271 186 161 100 95 % du total 15 % 9% 8% 4% 4% 3% 2% 2% 1% 1% Est-ce que le statut de la ville se modifie en mars 1528, quand le roi déclare son intention de vouloir faire dorénavant « la pluspart de nostre demeure et sejour en nostre bonne ville et cité de Paris et alentour plus qu'en autres lieux du Royaulme21 » ? Cette décision répond avant tout à des impératifs politiques et militaires : le terrain d'affrontement avec les Habsbourg se déplace dans ces années aux frontières Nord et Est du royaume. François Ier souhaite en outre restaurer l'autorité royale dans la capitale qui avait souffert pendant la régence de sa mère22. L'itinéraire ne témoigne d'aucune augmentation de la présence royale dans la capitale. Avant avril 1528, Paris représente 18 % du total des lieux visités par le roi ; après, ce chiffre passe à seulement 15 %. C'est l'Île-de-France qui gagne du terrain : sa fréquentation passe de 35 % à 40 %. Notons enfin que les séjours dans la capitale se déroulent comme sous les règnes précédents avant tout en hiver qui capitalise 41 % des occurences23. Ce sont ainsi principalement les bâtiments du roi qui profitent de la décision de 1528 : cette année-là s'ouvrent les chantiers du Louvre, de Madrid et de Fontainebleau. Le domaine royal situé à Paris fait l'objet d'une réorganisation : en 1543, François Ier se sépare de plusieurs propriétés jugées inutiles pour les projets de construction en cours24. Notons enfin une particularité qui concerne le fonctionnement de la cour sous ce règne : les maisons des femmes de la famille royale sont fréquemment séparées de celles des hommes25. La reine Claude a résidé pendant plusieurs années à Amboise ; Éléonore d'Autriche semble avoir suivi davantage la cour26. Pour Catherine de Médicis et les filles du roi27, nous disposons de quelques chiffres : seuls 43 % de leurs lieux de séjour correspondent à ceux du roi. Ce chiffre est trop élevé pour être le fruit du hasard, d'autant plus que les séparations apparaissent aussi dans les années les mieux documentées, 1545 et 1546. Elles ne 21 Registres des délibérations du bureau de la ville de Paris, Paris, Imprimerie nationale, 1883, t. II, p. 17. KNECHT R. J., Un prince de la Renaissance : François Ier et son royaume, Paris, Fayard, 1998, p. 263. 23 Printemps : mars, avril, mai. Été : juin, juillet, août. Automne : septembre, octobre, novembre. Hiver : décembre, janvier, février. 24 Il s'agit des hôtels de Bourgogne, d'Artois, de Flandres, du Petit-Bourbon, de Tancarville et de parties de l'hôtel Saint-Pol (BAUDOUIN-MATUSZEK M.-N., « Le domaine royal à Paris », op. cit., p. 103-106). 25 L'itinéraire de la reine a été établi en saisissant les lieux de rédaction des lettres contenues dans les 10 tomes de l'édition de sa correspondance (LA FERRIERE-PERCY H. et PUCHESSE B. de (éd.), Lettres de Catherine de Médicis, Paris, Imprimerie nationale, 1880-1943). Les itinéraires publiés par les éditeurs en annexe sont erronés et incomplets. Après vérification, l'itinéraire compte 3 591 indications et documente le lieu de séjour de 16,5 % des jours que la reine a passés en France. Les périodes les mieux documentées sont celles du règne de Charles IX (34 %) et d'Henri III (31,1 %). 26 Sa correspondance est inédite est dispersée dans plusieurs archives européennes. 27 Catherine de Médicis partage jusqu'en 1540 une maison avec les filles du roi. 22 5 s'expliquent pas par la guerre : nombreux sont les cas où le roi et Catherine de Médicis résident dans la même région, mais dans des châteaux différents. Les seize séjours documentés en Île-de-France sont très marqués par ce phénomène : seul huit d'entre eux se déroulent dans le même château. L'itinérance curiale sous Henri II François Ier meurt en 1547. L'itinéraire d'Henri II témoigne de la persistance des pérégrinations curiales sous le règne suivant28. Le roi se déplace fréquemment : en treize ans, il a séjourné en 354 lieux différents, ce qui correspond à une moyenne de 27 lieux par an, contre 25 pour François Ier. Plus fréquents sont maintenant les déplacements dans le Nord et l'Est du royaume ainsi que dans la vallée de la Loire ; la fin des guerres en Italie réduit les passages dans le Sud. L'Île-de-France continue à gagner du terrain ; la région capitalise 53 % des occurrences de l'itinéraire du roi, mais cette concentration ne profite guère à Paris : la capitale passe même du premier au second rang des lieux les plus fréquentés. La palme revient maintenant à Saint-Germain-en-Laye : Tableau 2 : Les dix lieux les plus fréquentés par Henri II (1547-1559) Lieu Saint-Germain-en-Laye Paris Fontainebleau Villers-Cotterêts Blois Compiègne Reims Chantilly Anet Amboise Occurrences 705 622 615 277 216 171 98 72 69 55 % du total 17 % 15 % 15 % 7% 5% 4% 2% 2% 2% 1% Le nombre de jours passés dans la capitale augmente toutefois : Henri y réside en moyenne 52 jours par an. Les séjours les plus longs ont lieu dans les années de paix et à la fin du règne qui est marquée par une augmentation très nette de la présence royale dans la capitale. Leur durée s'accroît à partir de 1553 pour atteindre 104 jours en 1559, année où la capitale accueille les fêtes célébrant les mariages d'Élisabeth et de Marguerite de France. La ville continue à recevoir la cour avant tout en hiver, mais l'automne gagne du terrain29. Elle fait l'objet de travaux importants ; les chantiers du règne précédent sont poursuivis ou amplifiés. Henri II réoriente l'usage fait de l'hôtel des Tournelles en y logeant occasionnellement ses enfants et en renforçant sa vocation stabulaire : de vastes écuries sont construites de 1554 à 1559. Non loin de là s'élèvent de nouveaux bâtiments à l'Arsenal, dont trois granges. Comme l'a noté Marie-Noelle Baudouin-Matuszek30, le Marais cumule ainsi les fonctions de résidence royale secondaire et de quartier de services techniques, au détriment de sa vocation de résidence royale. Le roi et la reine aspirent à vivre davantage au Louvre, 28 Itinéraire publié par MATUSZEK-BAUDOUIN M.-N. (éd.), Catalogue des actes de Henri II (1547-1553), Paris, Imprimerie Nationale et CNRS, 1990, vol. 3, p. 1-63. Après examen, l'itinéraire compte 4210 enregistrements, énumère 354 lieux de séjour et documente 88 % des jours du règne. 29 Hiver : 35%, automne : 29 %, été 19%, printemps 17 %. 30 BAUDOUIN-MATUSZEK M-N., « Le domaine royal à Paris », op. cit., 2003, p. 110. 6 suivant en cela l'avis de François Ier pour qui le palais constitue « le lieu le plus commode et à propos pour nous loger »31. La cohabitation des maisons de la famille royale se modifie également. L'itinéraire de la reine démontre qu'Henri II et son épouse ont pour habitude de vivre et de voyager ensemble : 70 % des lieux de séjours de Catherine de Médicis correspondent à ceux de son époux. Les rares séparations du couple sont avant tout dues à la guerre, mais l'éloignement qu'elles provoquent est tout relatif, car la reine s'installe généralement proche des zones de combat pour assurer les arrières. Quand le couple séjourne en Île-de-France, il préfère vivre dans le même château : des 77 séjours passés dans la région, 71 sont faits en commun. L'itinéraire de Catherine de Médicis (1560-1574) En 1559, la mort d'Henri II marque la fin du « beau XVIe siècle ». Le court règne de François II n'a donné lieu qu'à de brefs séjours parisiens32 et s'achève le 5 décembre 1560 avec la mort précoce du roi. Les années qui suivent, Catherine de Médicis exerce la régence pour son fils mineur Charles IX. Même après sa majorité, proclamée le 17 août 1563, la reine mère domine la politique royale. L'itinéraire de Catherine de Médicis reflète le changement de son statut en adoptant un profil nouveau33. Il témoigne non seulement des déplacements de la reine mère, mais aussi de ceux de Charles IX : une enquête menée sur une partie de la correspondance du roi, datant des années 1565-1572, révèle que Charles ne se séparait que très exceptionnellement de sa mère, et ceci même après avoir atteint l'âge adulte34. Pour cerner la fixation de la cour à Paris dans les années 1560, il faut différencier les moments sédentaires de ceux où Catherine de Médicis se déplace, périodes qui sont en nette augmentation depuis qu'elle exerce le pouvoir. Un voyage de longue durée se déroule en 1564-1566 et trois autres auront lieu sous le règne suivant, où Catherine se déplace en tant qu'auxilliaire du roi (1575-1576, 1578-1579, 1586-1587). La reine mère suit aussi l'armée pendant la première et la troisième guerre de religion et effectue de nombreux déplacements de courte durée dans le cadre de négociations ou de rencontres politiques. De ces voyages, le Grand Tour (janvier 1564 - mai 1566) a attiré tout particulièrement l'attention de la recherche35. Il se rattache à une tradition ancienne qui veut que le roi visite après son avènement quelques-unes des villes majeures de son royaume. Le périple de Charles IX est néanmoins exceptionnel par sa durée et son trajet : François Ier comme Henri II Registres des délibérations du bureau de la ville, op. cit., t. II, p. 17. 33 occurrences sur 433 témoignent d'un séjour dans la capitale : C. zum Kolk (éd.), Itinéraire de François II. Les lieux de séjour du roi d'après ses actes (1559-1560), Paris, Cour de France.fr, 2016 (http://cour-defrance.fr/article4300.html), établi d'après MARTEL M.T. de (éd.), Catalogue des actes de François II (15591560), Paris, CNRS, 1999, t. II, p. 477-553. 33 Au sujet de cet itinéraire voir note 25. 34 Sa correspondance n'a pas fait l'objet d'une édition exhaustive. Seules ont été publié des lettres envoyées de 1565 à 1572 à Raimond Beccarie de Fourquevaux, ambassadeur de France en Espagne (DOUAIS C. (éd.), Lettres de Charles IX à M. de Fourquevaux, ambassadeur en Espagne, 1565-1572, Montpellier, Académie des Sciences et Lettres de Montpellier, 1899). Leur analyse donne un résultat sans appel : l'itinéraire du roi ne diffère que très exceptionnellement de celui de sa mère : une seule lettre présente un lieu de séjour différent. Ce constat invalide l'hypothèse de séparations régulières du roi et de sa mère que j'ai émise dans un article paru en 2008 (ZUM KOLK C., « L'évolution du mécénat de Catherine de Médicis d'après sa correspondance », FROMMEL S. et WOLF G. (dir.), Il mecenatismo di Caterina de' Medici. Poesia, feste, musica, pittura, scultura, architettura, actes de colloque, Venise, Marsilio, 2008, p. 83). 35 Trois études lui ont été consacrées : BOUTIER J. et al., Un tour de France royal : le voyage de Charles IX (1564-1566), Paris, Aubier, 1984; CHAMPION P., Catherine de Médicis présente à Charles IX son royaume (1564-1566), Paris, Grasset, 1937 et GRAHAM V. E. et MCALLISTER JOHNSON W., The Royal Tour of France by Charles IX and Catherine de' Medici. Festivals and Entries, 1564-1566, Toronto, University of Toronto Press, 1979. Le trajet a été décrit sur ordre de la reine par Abel JOUAN, Recueil et discours du voyage du roy Charles IX, Lyon, Benoist Rigaud, 1567. 31 32 7 ont étalé sur plusieurs années ces visites ; Catherine de Médicis fait effectuer à son fils un programme de voyage unique et très complet, évacuant par là toute obligation de déplacement pour les années qui suivent. C'est dans les périodes sédentaires, et seulement à partir de mai 1566, qu'émerge le changement de fonction de la capitale qui nous intéresse : quand la reine mère ne voyage pas, on la trouve désormais à Paris et non pas dans un des châteaux des environs. Suivons cette évolution en détail. De 1560 à 1574, l'Île-de-France capitalise 54 % de l'ensemble des occurrences de son itinéraire ; la région Centre vient en second (15%), suivi de la Picardie (7%). Ces valeurs rappellent celles du règne d'Henri II, mais à l'intérieur de l'Île-de-France se dessine un schéma différent par rapport au passé. Avant le départ pour le Grand Tour (janvier 1564), Catherine préfère les châteaux des environs de la capitale quand elle réside en région parisienne : Saint-Germain-en-Laye (18 % des occurrences), Fontainebleau (13 %) et Vincennes (8 %). Paris ne représente à cette époque que 13 % du total. C'est après le retour du Grand Tour que se produit le basculement : sur un total de 1 082 entrées, la capitale domine largement : Tableau 3 : Les dix lieux les plus fréquentés par Catherine de Médicis (4 mai 1566 - 3 septembre 1574) Lieu Occurrence 424 69 48 48 35 33 29 28 26 24 22 Paris Fontainebleau Saint-Germain-en-Laye Saint-Maur-des-Fossés Lyon Montceaux-lès-Meaux Vincennes Blois Orléans Angers Villers-Cotterêts % du total 39 % 6% 4% 4% 3% 3% 3% 3% 2% 2% 2% À aucun moment, l'écart entre la résidence principale et les lieux secondaires n'a été si marqué. Fontainebleau et Saint-Germain-en-Laye reçoivent en huit ans autant la cour qu'entre 1560-1564 et se voient concurrencés en outre par deux résidences personnelles de la reine mère, Saint-Maur-des-Fossés et Montceaux. Autre fait nouveau : Paris sert maintenant de lieu de séjour pendant toute l'année. Seul le printemps mène à l'abandon de la capitale : Tableau 4 : Présence à Paris par saison (%) Roi/reine François Ier Henri II François II Catherine de Médicis (1560-1574) Henri III Printemps 24 17 0 14 33 8 Été 18 19 0 34 22 Automne 15 29 0 21 20 Hiver 43 35 0 31 25 Remarquable est aussi la prolongation des séjours dans la capitale. De septembre 1567 à décembre 1568, Catherine réside de manière quasi permanente à Paris ; à l'exception de quelques interruptions de courte durée (1 à 3 jours), elle y vit plus de quinze mois d'affilés. Ce sont là des valeurs tout à fait inédites dans l'histoire de l'itinérance curiale au XVIe siècle. L'itinérance curiale sous Henri III (1574-1589) Pour Catherine de Médicis, la mort de Charles IX sonne le glas de sa position en tant que chef de famille et maître de la politique royale. Henri III entend régner par ses propres moyens, tout en accordant à sa mère une place privilégiée en tant que première conseillère et confidente. Il délègue régulièrement à Catherine la tâche de sillonner le pays pour mener des négociations ou pour pacifier une région. Ce partage des rôles a une influence marquée sur les déplacements du roi qui voyage nettement moins que ses prédécesseurs. Il suit le chemin tracé par sa mère en ce qui concerne le choix de son lieu de séjour privilégié : du début de son règne jusqu'à la journée des Barricades (13 mai 1588), le roi vit à Paris et ne s'en éloigne que pour mener la guerre ou pour des séjours d'agrément36. Cette sédentarisation fait chuter le nombre des lieux fréquentés par Henri III durant son règne. Le roi a visité seulement 96 villes et villages ce qui revient à une moyenne annuelle de 6 lieux (contre 27 et 25 pour Henri II et François Ier). L'Île-de-France capitalise maintenant 79 % des occurrences de l'itinéraire. Loin derrière se situent les régions Centre (11 %), Poitou-Charentes (3%) et Rhône-Alpes (3%). Avec 59 % de l'ensemble des entrées, Paris domine très nettement la statistique : Tableau 5 : Les dix lieux les plus fréquentés par Henri III (1574-1587) Lieu Paris Blois Saint-Germain-en-Laye Saint-Maur-des-Fossés Fontainebleau Ollainville Poitiers Lyon Chenonceau Avignon Charleville-Mézières Occurrences 1503 174 157 121 95 86 73 63 45 31 17 % du total 59 7 6 5 4 3 3 2 2 1 1 Une réorganisation structurelle et spatiale de la cour Les itinéraires démontrent ainsi ce que les correspondances et mémoires de l'époque ont laissé entrevoir37 : Catherine de Médicis est à l'origine de la sédentarisation de la cour qui intervient dès 1566 ; la fonction de ville résidence de Paris émerge à cette époque. Mais L'itinéraire d'Henri III couvre au moment de la rédaction de cet article la période du 3 avril 1565 au 31 déc. 1587 et sera complété dès la parution du dernier tome des Lettres du roi (à paraître). L'itinéraire compte actuellement 3145 enregistrements, dont 2 528 de la période du règne. Source : BOUCHER J., CHAMPION P. et FRANÇOIS M. (éd.), Lettres de Henri III, roi de France, Paris, Société de l'Histoire de France, 1959-2012. 37 Jacqueline Boucher, Jean-Pierre Babelon et Nicolas Le Roux ont remarqué grâce à diverses sources que la cour réside à Paris dès 1566 : BABELON J.-P., Paris au XVIe siècle, Paris, coll. Nouvelle histoire de Paris, Hachette, 1986, p. 71 ; BOUCHER J., Société et mentalités autour de Henri III, Paris, Champion, 2007, p. 148 et LE ROUX N., La faveur du roi, Seyssel, Champ Vallon, 2000, p. 288-289. 36 9 quelles sont les motivations pour cette réorientation ? En dehors des plaisirs offerts par la vie urbaine et la proximité avec les instances politiques, juridiques et financières du royaume, trois facteurs semblent avoir été décisifs. Notons d'emblée que rien ne prédit la focalisation sur Paris au début de la régence : en 1561, Catherine de Médicis semble même éviter la capitale. C'est la guerre qui apparaît comme un des premiers facteurs modifiant la donne : le 6 avril 1562, la cour se réfugie à Paris pour échapper à une prise de main par les huguenots ; la première entrée du petit Charles IX se fait donc à la hâte et sans aucune cérémonie. Un scénario similaire se produit en 1567. À l'évidence, les châteaux des alentours de la capitale sont évités car trop vulnérables38. Protégée par ses murailles, sa milice (fondée en 1562) et une population restée majoritairement catholique, le choix de la capitale s'impose. Le deuxième facteur est financier. En 1561, la dette du roi s'élève à 43 millions de livres, soit le quadruple du revenu annuel de la couronne. La régente cherche par tous les moyens à réduire les dépenses et la cour n'est pas épargnée par ces mesures, comme le démontre une lettre écrite le 9 août 1561 à Sébastien de L'Aubespine, ambassadeur de France en Espagne : « Monsieur de Lymoges, estant le Roy mon fils en l'aage qu'il est et en la necessite ou sont reduictz nos affayres je tasche par tous les moyens de réduire sa despance en tel estat qu'il puisse s'aquiter. Et d'aultant que je scay combien la facon d'Espagne est de beaucoup plus grand espargne que la nostre je desirerais le plus du munde de pouvoir voir l'estat de la maison du Roy d'Espagne mon bon fils, tant des mangeailles que de ceulx qui ont vivres ou sont deffroyez en argent ou autrement vous priant Monsieur de Lymoges faire tant que vous m'en puissiez envoyer un estat, ensemble de la maison de la Reyne ma fille. Car ils me serviront infiniment à trouver le moyen pour parvenir au but de mon Intention. Si vous me pouvez avec cela escrire la facon qu'ilz tiennent en allant par pays pour les trains assavoyr ceux qui sont nourris ou qui ont argent et comme ils en usent pour les loger et pour la conduicte des bagages ce sera encores le meilleur que je vous recommande et vous prie me l'envoyer par la première occasion39. » Organiser mieux la cour afin de réduire les coûts : cette préoccupation trouve une réponse pertinente en l'installation de l'entourage royal à Paris. La présence de la cour n'y provoque aucune difficulté particulière en matière d'approvisionnement, contrairement à ce qui s'observe en province, où la pénurie provoquée par l'arrivée de plusieurs milliers de courtisans suscite régulièrement une flambée des prix. Le séjour parisien permet en outre de réduire les dépenses non seulement de la couronne, mais aussi des courtisans qui doivent assumer personnellement leurs frais de voyage40 ; beaucoup possèdent un logement dans la capitale. La ville est aussi une source de richesses capable de renflouer le trésor royal : elle sert régulièrement de « banquier » à la couronne en accordant des rentes et des aides ponctuelles. L'apport financier de la municipalité se reflète aussi dans sa participation à l'organisation de fêtes et de réceptions, contribuant ainsi au faste monarchique. Elle cofinance les entrées 38 Par exemple Fontainebleau, doté de nombreux accès et ouvertures, est impossible à défendre ; le palais nécessite encore au XVIIe siècle une augmentation significative du nombre de gardes quand le roi y séjourne. 39 Lettre à Monsieur de Limoges du 9 août 1561, BnF, Fr. 6605 fol. 64. Éditée dans LA FERRIERE-PERCY H. et PUCHESSE B. de (éd.), op. cit., t. I, p. 606. À ma connaissance, la réponse de l'ambassadeur n'a pas été conservée. 40 Même la garde royale est contrainte de payer son logement : BnF, Dupuy 86, folio 188 : Degrèvements d'impôts accordés aux villages où aura logé la garde royale, novembre 1570. 10 royales41, organise des banquets et offre aux visiteurs de marque de somptueux cadeaux. Ces largesses, mais aussi le grand nombre de spectateurs qui assistent aux réjouissances publiques de la cour, donnent à partir de 1566 aux festivités curiales une ampleur et une publicité qui dépassent celles des fêtes organisées en province. Enfin, l'installation de la cour à Paris permet d'organiser d'une façon plus ordonnée la vie de la cour. Elle ouvre ainsi de nouvelles perspectives pour la représentation du pouvoir, devenue depuis le XVe siècle un élément essentiel de la vie politique en Europe : l'accroissement de la pompe qui entoure les familles princières modifie le cadre et le quotidien des cours, transformant les châteaux et les appartements ainsi que l'étiquette et le cérémonial. L'intérêt de Catherine de Médicis pour ces questions est bien connu. Il semble que la reine a joué un rôle non négligeable dans l'apparition de l'antichambre sous le règne d'Henri II42. Elle intervient aussi dans la distribution de logements, comme en 1567, où elle fait à Montceaux « tous les logis au chasteau tous autres que par le passé, toutefois commodément pour chascun43 ». L'architecture est un autre de ses champs de prédilection ; la reine collabore au dessin de plans de construction, allant jusqu'à détailler la distribution intérieure et les mesures des corps de bâtiment. Dans ce domaine, certaines décisions prises par Catherine de Médicis avant le départ pour le Grand Tour trouvent un sens nouveau si nous les mettons en relation avec le projet de la sédentarisation de la cour à Paris. Dès les premiers mois de la régence, la reine mère intervient au sujet des résidences royales, en commençant par l'abandon de l'hôtel des Tournelles : devenue régente, Catherine n'y résidera plus. Certains historiens ont expliqué cette décision par les événements tragiques qui se sont déroulés en cet endroit lors des festivités de 1559 : suite à la mort accidentelle de son mari, Catherine aurait refusé d'y séjourner pour éviter ce souvenir douloureux. On accueille cette interprétation avec méfiance quand on sait que la reine mère se servit de l'image de la veuve éplorée pour asseoir son autorité de régente ; d'autre part, Catherine fait installer en 1563 aux Tournelles le magasin des poudres et des munitions, ce qui est une manière assez insolite d'honorer la mémoire de son époux44. En janvier 1564, Catherine ordonne même la destruction des bâtiments et la vente du terrain, avec l'idée d'y aménager éventuellement une grande place. L'abandon de l'hôtel du Marais s'inscrit ainsi davantage dans la réorientation des résidences et des fonctions de ce quartier, restructuration en cours depuis les règnes de François Ier et Henri II, comme l'a démontré Marie-Noëlle Baudouin Matuszek. La famille royale privilègie le Louvre, et c'est proche de ce château, mais extramuros, que Catherine de Médicis commande la création d'un grand jardin et d'une villa palais, peut-être inspirés du palazzo Pitti qui est en construction à cette époque45. Les achats de terrain et l'aménagement du jardin débutent en août 1561, suivis en mai 1564 de ceux du palais des Tuileries46. 41 Elle accorde par exemple 48 000 livres tournois pour celle de Charles IX, organisée le 6 mars 1571 ; voir les Registres des délibérations du bureau de la ville de Paris, op. cit., t. VI, p. 232 ; BABELON J.-P., op. cit., p. 72 et CHAMPION P., Paris au temps des guerres de religion, Paris, Calman-Lévy, 1938, p. 177. 42 JESTAZ B., « Étiquette et distribution intérieure dans les maisons royales de la Renaissance », Bulletin Monumental, 1988, n° 146-2, p. 109-120 et CHATENET M., « Architecture et cérémonial à la cour de Henri II : L'apparition de l'antichambre », OURSEL H., FRITSCH J. (dir.), Henri II et les Arts. Actes du colloque international, Paris, École du Louvre, 2003, p. 355-380. 43 Lettre de Jean de Bouchefort à Renée de France, 16 septembre 1567, LA FERRIERE-PERCY H. et PUCHESSE B. de (éd.), op. cit., t. III, p. 59, note 1. 44 Lettre à Arthus de Cossé, seigneur de Gonnor, du 4 février 1563, Ibid, t. I, p. 494. 45 Catherine de Médicis demande le 5 juin 1563 au grand-duc de Toscane de lui envoyer les plans du Palais Pitti, FROMMEL S., « Florence, Rome, La France : La convergence de modèles dans l'architecture de Catherine de Médicis », FROMMEL S. et WOLF G. (dir.), op. cit., p. 290. 46 Sur l'histoire de la construction et la bibliographie au sujet des Tuileries voir FONKENELL G., Le Palais des Tuileries, Arles, H. Clair, 2010 ; PEROUSE DE MONTCLOS J.-M., Philibert Delorme, Architecte du roi (1514- 11 Le projet de construction prend tout son sens si nous le rattachons au projet de l'installation de la cour à Paris : pour assumer la fonction de ville résidence, la capitale manque en effet de deux éléments indispensables à la vie de cour : un grand jardin, utile pour les promenades, les rencontres non protocolaires et les festivités, ainsi qu'un palais qui fonctionne en étroite symbiose avec ce parc. Ce dernier se présente comme un monument à la gloire de la régente qu'elle conçut en étroite collaboration avec Philibert de l'Orme en intervenant dans le dessin des plans47. Guillaume Fonkenell a mis en évidence le caractère novateur du palais qui comportait plusieurs salles à grande dimension (la plus grande mesurant 420 m2) et, si le projet dessiné par Jacques Androuet Du Cerceau a été amené à être réalisé, des espaces inspirés des constructions éphémères fabriquées pour les fêtes de cour48. Le palais présente en outre plusieurs appartements organisés autour d'un escalier central. D'une structure novatrice, ces logements se composaient de plusieurs salles, antisalles et antichambres, permettant de graduer l'accès au souverain49. Comme l'ont souligné Sabine Frommel50 et Alexandre Gady51, le jardin et le palais des Tuileries apparaissent ainsi comme une extension du Louvre qui manquait d'espaces capables d'accueillir des milliers de personnes lors de grands événements. Les jardins servent dès 156752 et accueillent des festivités et réceptions, comme celle des ambassadeurs polonais en août 1573 (ill. 2). 1570), Paris, Mengès, 2000, p. 233-237 et BLUNT A., Philibert de l'Orme, Paris, Julliard, 1963. Il n'est pas certain que les plans et dessins du palais publiés par Jacques Androuet Du Cerceau en 1576/1579 (DU CERCEAU A., Les plus excellents bastiments de France, éd. THOMSON D., Paris, Sand & Conti, 1988) présentent le projet que la reine mère a souhaité réaliser ; la représentation à vol d'oiseau et le dessin du plan conservés à Londres au British Museum posent les mêmes interrogations. Le projet initial a été peut-être augmenté dans les années 1570/1571. Voir à ce sujet FROMMEL S., op. cit., p. 290-291, FONKENELL G., op. cit., p. 23-26 et le point de vue de Jean GUILLAUME qui achève actuellement un ouvrage sur le Louvre et les Tuileries (à paraître). Sur l'oeuvre de Du Cerceau voir l'analyse récente de BOUDON F. et MIGNOT, Jacques Androuet de Cerceau, Les dessins des plus excellents bâtiments de France, Paris, Picard, 2010. 47 Le décor du palais foisonne d'emblèmes et d'allégories en rapport avec Catherine de Médicis et l'ordre ionique a été choisi par Delorme pour son caractère « féminin » (FONKENELL G., op. cit., p. 31-37). 48 Ibid., p. 30. 49 À la même époque apparaît à Fontainebleau une deuxième antichambre, autre témoignage de l'éclosion de nouveaux espaces dans les appartements royaux dans les années 1560. Monique Chatenet rapproche la distribution intérieure des Tuileries de celle des palais des cardinaux romains pour constater qu'une « telle disposition des espaces implique une vision plus hiérarchique de l'étiquette, car elle crée une distance – que l'enfilade souligne – entre le courtisan et son roi. » (CHATENET M., « Henri III et l'ordre de la cour : évolution de l'étiquette à travers les règlements généraux de 1578 et de 1585 », S AUZET R. (dir.), Henri III et son temps, Paris, Vrin, 1992, p. 134. 50 FROMMEL S., op. cit., p. 290. 51 GADY A., « Le roi, la reine et la reine mère. Essai sur les appartements royaux au XVIIe siècle », CHATENET M. et DE JONGE K., Le prince, la princesse et leurs logis. Manières d'habiter dans l'élite aristocratique européenne (1400-1700), Paris, Picard, 2014, p. 231. 52 Le 15 juillet 1567, Catherine de Médicis informe Anne d'Este qu'elle donnera un banquet aux Tuileries ; il est probable qu'il eut lieu dans le jardin et non dans le palais qui n'était pas encore habitable. LA FERRIERE-PERCY H. et PUCHESSE B. de (éd.), op. cit., t. III, p. 45. 12 Illustration 2 : Bal donné aux Tuileries en 1573 lors de la réception des ambassadeurs polonais Pièce des Tapisseries des Valois, réalisées vers 1580 probablement d'après les dessins d'Antoine Caron, musée des Offices, Florence. D'autres constructions complètent le réseau des palais parisiens. En 1563, la reine mère acquiert une résidence champêtre, le château de Saint-Maur-des-Fossés, situé sur les rives de la Marne. En février 1570, Catherine de Médicis lance la construction d'un hôtel proche de Saint-Eustache53. Une légende entoure ce projet : un astrologue aurait averti Catherine de Médicis que pour vivre longuement, elle devait se « garder d'un Saint-Germain ». D'après certains érudits, cet avertissement l'aurait incité à se faire construire un nouveau palais, abandonnant le chantier des Tuileries qui se situe sur la paroisse de Saint-Germainl'Auxerrois : « Elle quittera les Tuileries pour échapper à cette prédiction54 ». Il s'agit là d'une interprétation moderne d'un récit néé du vivant de la reine, car Etienne Pasquier et JacquesAuguste de Thou n'évoquent pas l'abandon des Tuileries mais uniquement celui du Louvre et de châteaux dont le nom comporte « Germain »55. L'aménagement de l'hôtel s'explique davantage par l'arrivée imminente d'une nouvelle reine de France que par le mouvement des astres : le mariage de Charles IX et d'Élisabeth d'Autriche est négocié depuis janvier 156956. L'arrivée d'Élisabeth modifiera radicalement le 53 Voir au sujet de cette construction T URBIDE C., Les collections artistiques de Catherine de Médicis (15191589), thèse de doctorat inédite, université Aix-Marseille I, 2002, t. I, p. 46 et ZVEREVA A., « La Galerie de portraits de l'Hôtel de la Reine », Bulletin monumental, n° 166-1, 2008, pp. 33-41. 54 BAUDOUIN-MATUSZEK M. N. et ANDIA B. de (dir.), Paris et Catherine de Médicis, Paris, Délégation à l'action artistique de la ville de Paris, 1989, p. 108. 55 Etienne Pasquier relate cette anecdote dans une lettre à son fils rédigée début 1589, mais sans évoquer les Tuileries : d'après lui, seul le Louvre et le château de Saint-Germain-en-Laye sont abandonnés. Jacques-Auguste de Thou réduit l'abandon aux châteaux dont le nom comporte « Germain ». THOU J.-A. de, Histoire universelle de Jacques Auguste de Thou depuis 1543 jusqu'en 1607, Londres, 1737, t. X, p. 502 ; FEUGERE L. (éd.), OEuvres choisies d'Étienne Pasquier, Paris, Didot frères, 1849, t. II, p. 323 ; PASQUIER É., Les oeuvres d'Estienne Pasquier, Amsterdam, Compagnie des libraires associés, 1723, t. II, p. 378. 56 Mariage conclu le 2 octobre 1570 ; Élisabeth arrive en France le 25 novembre 1570. 13 statut de la reine mère à la cour : Catherine, toujours respectueuse des convenances, devra lui céder le pas, au moins symboliquement. Elle répond à cette nouvelle donne en se préparant à une existence en dehors des lieux de pouvoir, tout en restant proche et accessible 57. Par ailleurs, la construction de l'hôtel ne mène pas à l'abandon du chantier des Tuileries qui continue avec interruptions jusqu'en 1582. Le palais ne sera toujours pas achevé à la fin du règne d'Henri III; les problèmes de trésorerie et la guerre expliquent la lenteur des travaux. D'après l'inventaire après-décès de Catherine de Médicis, la reine mère a séjourné néanmoins de temps à autre aux Tuileries, probablement dans un bâtiment situé dans le parc. Elle ne souhaitait pas s'y installer à demeure mais « venoit en ce lieu seulement pour ce pourmener, et lorsquelle y vouloit manger ou séjourner, qui estoit fort peu souvent, faisoit apporter les meubles qui luy estoient nécessaires, lesquelz ses officiers remportoient après son départ58 ». La stabilisation de la cour à Paris ne modifie pas seulement la topographie des résidences royales, elle mène aussi à partir de 1567 à la publication d'une série d'ordonnances et de règlements qui visent à réformer le fonctionnement de la cour59. Ces mesures traitent de sujets que Catherine de Médicis avait déjà évoqués dans sa lettre à l'ambassadeur d'Espagne en 1561, tout en abordant des thématiques nouvelles. Le contrôle des espaces intérieurs et extérieurs y apparaît en force : le roi définit qui a accès à sa chambre et à son cabinet quand il travaille ou tient conseil (fév. 1567, oct. 1572) ; il impose le respect des instructions des maréchaux et fourriers qui distribuent les logis lors des voyages (août 1570) et précise la position des gardes à l'intérieur du château (oct. 1572). À ma connaissance, pour la première fois sont mises par écrit les règles qui ordonnent l'accès au château : seuls les membres de la famille royale et quelques princes de haut rang peuvent pénétrer la cour intérieure à cheval ou en carrosse. Les aristocrates doivent en descendre à la porte du château ; tous les autres avancent à pied à partir de la « barrière » (la grille extérieure) de la résidence (oct. 1572). Cette disposition, connue sous le nom des Honneurs de la cour, restera en vigueur jusqu'à la Révolution. Le contrôle et la réduction des effectifs de la cour, préoccupation financière qui avait déjà marquée la lettre de 1561, constitue un deuxième volet ; le roi chasse toutes les personnes sans charge et office (soldats, fille de joie, clercs, marchands, cabaretiers, vagabonds) et impose aux courtisans de n'employer pas plus de personnes qu'ils ne peuvent en rémunérer (août 1570, oct. 1572). Par ailleurs, les conditions de promotion des pages sont précisées (oct. 1572) et des mesures sont prises à l'encontre de gentilshommes et officiers qui n'effectuent pas leur service en temps et en heure, où qui servent sans disposer d'une charge tout en révendiquant des gages (fév. 1567, nov. 1572). En 1572 est publiée l'interdiction de servir dans plusieurs maisons royales à la fois. Des mesures disciplinaires accompagnent l'ensemble : le roi ordonne la punition sévère et immédiate des blasphémateurs (août 1570) et appelle ses gardes à veiller au bon comportement des pages et valets (oct. 1572), leur Plusieurs indices étayent l'hypothèse d'une préparation à la retraite de la reine mère qui marque la fin des années 1560 ; voir à ce sujet ZUM KOLK C., « L'évolution du mécénat », op. cit., p. 86-87. Sur Saint-Maur voir KITAEFF M., « Le château de Saint-Maur-des-Fossés », Monuments et mémoires de la Fondation Eugène Piot, n° 75, 1996, p. 65-126. 58 BONNAFFE E., Inventaire des meubles de Catherine de Médicis, 1874, rééd. Genève, Minkoff, 1973, p. 212. 59 Ordre et Reiglement que le Roy Veult estre gardé tant en sa chambre que au Cabinet de ses affaires (), 26 fév. 1567, BnF, Dupuy 218, fol. 301-302 ; Ordonnance du Roy pour la police de la Cour et reiglement de sa suite () publiée a sainct Germain en laye a son de trompe et cry public, 7 août 1570 (Ibid., fol. 150-154) ; L'ordre que le Roy a commandé estre doresnavant observé pour la conduite & direction de ses affaires, service de sa personne police & reglement de sa maison & suitte ordinaire de sa Cour, 24 octobre 1572 (Ibid., fol. 1720) ; Le Roy considéreant que le plus souvent il est en un mesme iour et en mesme qualité servi de plusieurs differentes personnes (), 22 nov. 1572, Ibid., fol. 20. Des copies de ces ordonnances sont réunies dans le recueil BnF, NAF 7225. 57 14 prohibant « jeux, voleries de bonnets [et] de capes, faire injure aux femmes et autres inscolences et débordements60 ». Peu remarquées par la recherche, ces ordonnances précèdent les dispositions bien mieux étudiées d'Henri III61 et probablement aussi la lettre non datée que Catherine de Médicis a adressé « au roi », résumant les règles du bon gouvernement et de l'ordre de la cour ainsi que le déroulement de la journée du roi62. Henri III était conscient des progrès faits en la matière sous le règne de Charles IX. En témoigne un dialogue qui se déroule en 1573, quand il rencontre l'électeur palatin Frédéric le Pieux, qui avait séjourné à la cour de France sous le règne de François Ier. L'électeur se souvient des moeurs détestables qui régnaient dans l'entourage royal à cette époque. Henri rétorque qu'il est vrai que les moeurs de la cour étaient très dissolues par le passé, mais sa mère et son frère Charles « y ont mis bon ordre et justice63 ». Le désir d'une réorganisation de la cour, autant en ce qui concerne son fonctionnement interne que son évolution dans l'espace, a modifié pendant quelques décennies le destin de la capitale qui devient à partir de 1566 une véritable ville résidence. La fin du règne d'Henri III en 1589 met un terme à la cohabitation entre la ville et la cour : comme en 1419, le roi doit quitter la capitale pour se réfugier dans la vallée de la Loire. Sous Henri IV, la cour se tient à bonne distance de Paris, privilégiant les châteaux des environs au séjour urbain. Au grand dam des ambassadeurs, dont les plaintes reprennent comme à l'époque de François Ier : en effet, comment gérer les affaires quand « tous les conseillers sont dispersés, partie se trouvant à la campagne, partie auprès de Sa Majesté, partie à Paris64 » ? Les courtisans ne souffrent pas moins de cette vie itinérante, mais il semble impensable de s'y soustraire, comme le note Pierre de Dampmartin : « On ne voit guere de Courtisans qui se retirent volontairement de la Cour ; le commun proverbe veut qu'ils meurent entre deux coffres. Et quand ils sont contraints de vivre chez eux, ce ne sont que regrets qui les consument à vue d'oeil65 ». Cette pérégrination ne cessera qu'avec la création de Versailles, compromis grandiose unissant les avantages d'une résidence unique à ceux d'un palais situé à distance prudente de la bouillante capitale. 60 BnF, Dupuy 218, fol. 19v. Charles IX compte parmi les rois qui ont fait l'objet de peu d'études ; un colloque a comblé cette lacune en ce qui concerne sa représentation et le mécénat royal : CAPODIECI L., LEUTRAT E. et ZORACH R. (dir.), Miroirs de Charles IX : images, imaginaires, symboliques (à paraître). 62 Plusieurs copies de la lettre de Catherine de Médicis ont été conservées : BnF, Dupuy 218, fol. 11 ; NAF 7225, fol. 21. Sur les ordonnances d'Henri III, voir entre autres CHATENET M., « Henri III et l'ordre de la cour : évolution de l'étiquette à travers les règlements généraux de 1578 et de 1585 », SAUZET R. (dir.), Henri III et son temps, Paris, Vrin, 1992, p. 133-139 et EAD., La Cour de France au XVIe siècle. Vie sociale et architecture, Paris, 2002, p. 135-140 ainsi que LE ROUX N., « La cour dans l'espace du palais. L'exemple de Henri III », AUZEPY M.-F., CORNETTE J. (dir.), Palais et Pouvoir, de Constantinople à Versailles, Saint-Denis, Presses universitaires de Vincennes, 2003, p. 229-267. 63 « Verzeichnis des Gesprächs so zwischen Heinrich dem dritten König in Pohlen und Khur-Fürst Friederich dem dritten zu Heydelberg vorgangen, von dem Khur-Fürst eigenhändig auffgezeichnet, den 12. Decemb. des 1573 Jahrs », LALANNE L. (éd.), OEuvres complètes de Pierre de Bourdeille, seigneur de Brantôme, Paris, Renouard, 1868, t. IV, p. 414. 64 STRUNCK C., « Un cardinal-légat au pays des hérétiques », ZUM KOLK C. et al. (dir.), Voyageurs étrangers à la cour de France, 1589-1789. Regards croisés, Rennes-Versailles, Presses universitaires de Rennes-Centre de recherche du Château de Versailles, 2014, p. 31. 65 DAMPMARTIN P. de, Discours sur quelques particularitez, touchant les Intrigues de la Cour. Divisez en trois Livres. Traitant du bonheur & malheur des Favoris, Paris, Loyson, 1651, livre 1, p. 82. 61 15
{'path': '50/hal.archives-ouvertes.fr-hal-01829675-document.txt'}
LORD RAYLEIGH. - Sur la théorie des forces superficielles. III. Influence de légères impuretés (Phil. Mag., 5e série, t. XXXIII; 1892) C. Raveau To cite this version: C. Raveau. LORD RAYLEIGH. - Sur la théorie des forces superficielles. III. Influence de légères impuretés (Phil. Mag., 5e série, t. XXXIII; 1892). J. Phys. Theor. Appl., 1892, 1 (1), pp.256-256. 10.1051/jphystap:018920010025601. jpa-00239619 HAL Id: jpa-00239619 https://hal.archives-ouvertes.fr/jpa-00239619 Submitted on 1 Jan 1892 256 qu'on pût la suivre, il faudrait que la vapeur fût en contact avec du liquide en masse, ce qui n'est pas le cas ; suivant la valeur de l'attraction exercée par les parois, on continuera à suivre la courbe ou bien on ne pourra pas arriver au point d'intersection ; le point anguleux sera remplacé par une courbe de raccord. ' Passant à l'étude de la couche de passage entre le liquide et la vapeur, l'auteur montre que la possibilité de Inexistence, dans la couche de transition, de certaines densités qui seraient instables pour un liquide pris en masse, dépend du fait que, dans cette couche, l'attraction interne ne prend pas sa valeur normale, à cause de la variation rapide de densité dans le voisinage. Il retrouve également ce résultat, déjà énoncé toutefois, que l'existence d'une force capillaire est liée à la transition brusque d'un milieu à l'autre et qu'elle peut disparaître complètement quand la transition est suffisamment graduelle. Le calcul de la tension superficielle entre un liquide et sa vapeur et l'application au cas d'une sphère liquide permettent de retrouver la formule déjà donnée par Maxwell. On explique aussi comment un corps plongé dans une vapeur non saturée peut se recouvrir d'une couche de fluide, qui persiste, même dans un vide élevé. C. RAVEAU. LORD RAYLEIGH. - Sur la théorie des forces superficielles. III. Influence de légères impuretés (Phil. Mag., 5e série, t. XXXIII; I892). que la diminution de tension superficielle présence d'une couche d'huile décroît beaucoup plus rapidement que l'épaisseur de la couche; l'étude théorique de la question montre que cette diminution serait proportionnelle au carré de l'épaisseur de la couche d'impureté aussi bien que le rayon de la sphère d'activité des forces internes sont négligeables par rapport à la courbure de la s urface. On peut admettre une loi absolument arbitraire pour les actions mutuelles d'un couple quelC. RAVEAU. conque de fluides. L'expérience montre de leu due à la Article published online by EDP Sciences and available at http://dx.doi.org/10.1051/jphystap:018920010025601
{'path': '38/hal.archives-ouvertes.fr-jpa-00239619-document.txt'}
L'Etat local, de la résistance à la résidualisation Renaud Epstein To cite this version: Renaud Epstein. L'Etat local, de la résistance à la résidualisation : Les services extérieurs à l'épreuve des réformes administratives. Jean-Michel Eymeri-Douzans, Geert Bouckaert. La France et ses administrations : un état des savoirs, Bruylant, pp.585-603, 2013. halshs-00831545 HAL Id: halshs-00831545 https://halshs.archives-ouvertes.fr/halshs-00831545 Submitted on 7 Jun 2013 L'Etat local, de la résistance à la résidualisation. Les services extérieurs à l'épreuve des réformes administratives Renaud Epstein Maître de conférences à l'Université de Nantes – Laboratoire Droit et Changement Social Depuis le début du XIXe siècle, la présence de l'Etat dans les territoires s'incarne dans la figure du Préfet, placé à la tête d'une administration structurée à l'échelle départementale. L'unité de l'Etat local, personnifiée par ce haut fonctionnaire, relève cependant de la fiction juridique. L'intégration verticale de l'administration française s'accompagne en effet d'un fort cloisonnement horizontal, résultant d'une segmentation historique de son organisation et de son action qui s'est approfondie dans les décennies d'après-guerre à mesure de l'extension de ses domaines d'intervention. L'Etat local est constitué d'un ensemble complexe de directions, de services, d'agences et d'agents, dont les missions combinent des actes régaliens, de contrôle de légalité, de régulation politique ou économique, de production de biens publics et de prestations de services. Réunissant le gros des troupes étatiques (966.000 agents hors Education en 2007, soit vingt fois plus que les effectifs des administrations centrales), ces services chargés de mettre en oeuvre des politiques publiques décidées à l'échelon central ont longtemps été au coeur du modèle républicain d'administration du territoire. Les lois de décentralisation de 1982-83 ont marqué la fin de ce modèle. Bien que fortement affaibli par les transferts opérés vers les collectivités (communes, départements, régions) et la disparition de la tutelle qu'il exerçait sur ces dernières, l'Etat local est parvenu à conserver un rôle important, sinon prééminent, dans la gestion publique des territoires au cours des décennies 1980 et 1990. L'Acte II de la décentralisation1 et les réformes néomanagériales du début des années 2000 ont fortement accéléré le mouvement de déclin amorcé vingt ans plus tôt. L'administration territoriale de l'Etat, dont l'organisation était restée pratiquement inchangée depuis les réformes administratives de 1964, est désormais engagée dans une vaste opération de réorganisation, dont on voit mal comment elle pourrait inverser une tendance à la résidualisation des services déconcentrés. I. L'Etat local dans la décentralisation Les sciences sociales françaises ont découvert tardivement l'Etat local, au moment précis où celui-ci entamait un lent processus de déclin dans la fabrique et la mise en oeuvre de l'action publique. Prisonniers d'une conception du politique issue des sciences juridiques assimilant le pouvoir politique à l'Etat et celui-ci aux administrations centrales, les politistes français ont longtemps délaissé l'étude de leurs services extérieurs (requalifiés services déconcentrés en 1992), considérés comme de simples relais descendants, appliquant les règles nationales de façon uniforme en tout point de l'hexagone 2. Il est vrai que, jusqu'au début des années 1980, l'action des collectivités locales était étroitement contrôlée par un Etat auquel elles étaient subordonnées, obligées de lui soumettre tous leurs actes qui ne devenaient exécutoires qu'après validation préfectorale. La tutelle étatique était renforcée par la faiblesse des ressources propres des communes et des départements, totalement dépendants de l'expertise technique concentrée dans les administrations étatiques et des crédits distribués par 1 Lequel englobe, outre la réforme constitutionnelle du 28 mars 2003 sur l'organisation décentralisée de la République et la loi du 13 août 2004 relative aux libertés et responsabilités locales (qui liste les transferts de compétences aux collectivités des différents niveaux), plusieurs lois organiques relatives à l'organisation des référendums locaux (loi du 1er août 2003), au droit à l'expérimentation locale (loi du 2 août 2003) et à l'autonomie des collectivités territoriales (loi du 29 juillet 2004). 2 Albert MABILEAU, Le système local en France, Paris, Montchrestien, 2e éd., 1994. 1 ces derniers. Le contrôle central de l'action publique locale allait donc bien au delà de l'énonciation des finalités de l'action, s'étendant à la mise en oeuvre des politiques publiques, qui était fermement encadrée par les services extérieurs de l'Etat, eux-mêmes contraints par des règlementations techniques définies par les administrations centrales et par des règles financières qui conféraient aux normes nationales une force quasi-obligatoire3. Les territoires étaient donc moins gouvernés qu'ils n'étaient administrés en fonction de normes de portée universelle4. La tutelle étatique n'était cependant pas sans limites : comme tout système bureaucratique centralisé, celui-ci recelait des marges de jeu à la base 5. La rationalité technique d'administrations spécialisées, la démultiplication des règles et normes générales codifiant précisément les actions à mener n'épuisaient pas les occasions de négocier entre fonctionnaires et élus locaux, comme l'ont montré les chercheurs du Centre de sociologie des organisations. Car le processus multiséculaire de centralisation politique et administrative, qui a atteint son apogée au cours de la première décennie de la Ve République, s'est accompagné de la constitution d'une administration territoriale d'Etat en prise directe sur les milieux locaux. Les institutions administratives centrales et locales était d'autant plus imbriquées fonctionnellement qu'elles étaient nettement séparées juridiquement 6. Le cloisonnement du système politicoadministratif avait pour corolaire une forte interdépendance entre les fonctionnaires des services extérieurs de l'Etat, enracinés dans leur territoire, et les élus locaux : ces derniers dépendaient, pour toute action, des ressources maîtrisées par les premiers ; réciproquement, les fonctionnaires avaient besoin de la légitimation apportée par les élus locaux pour mettre en oeuvre les politiques dont ils avaient la charge, et pour acquérir des marges d'autonomie vis-àvis de leur hiérarchie 7. L'image d'un pouvoir centralisé dans lequel les acteurs de la périphérie auraient été de simples exécutants, mettant en oeuvre des politiques indifférenciées conçues dans les bureaux des ministères parisiens, apparaît en réalité assez éloignée de la réalité historique. Le jacobinisme français était largement apprivoisé par le local, au travers d'un réseau de liens complexes unissant les représentants de l'Etat aux notables locaux8. La centralisation formelle était ainsi assouplie par des arrangements informels qui relevaient de la « ruse avec la règle », au sens où la négociation demeurait une pratique non explicite et non codifiée 9. Même si ces arrangements demeuraient limités dans leur portée, produisant tout au plus des adaptations mineures au stade de la mise en oeuvre de politiques publiques définies hors sol, ils permettaient la prise en compte des intérêts locaux dans l'application des règles nationales. Le modèle sociologique de la régulation croisée proposé par Michel Crozier et Jean-Claude Thoenig rend parfaitement compte de cette réalité officieuse, qui conférait à l'Etat local un rôle 3 François D'ARCY, Structures administratives et urbanisation, Paris, Berger-Levrault, 1968 ; Dominique LORRAIN, « Les pilotes invisibles de l'action publique. Le désarroi du politique ? » in Pierre LASCOUMES, Patrick LE GALES, Gouverner par les instruments, Paris, Presses de Sciences Po, 2004, pp. 163-197. 4 Thiery OBLET, Gouverner la ville, Paris, PUF, 2005. 5 Michel CROZIER, Le phénomène bureaucratique, Paris, Seuil, 1963. 6 Patrice DURAN, « Les pannes de la déconcentration : l'échec du rapprochement des directions départementales de l'Equipement et des directions départementales de l'Agriculture et de la Forêt en 1993 », Revue française d'administration publique, vol. 120, no4, 2006, pp. 757-776. 7 Michel CROZIER, Jean-Claude THOENIG, « La régulation des systèmes organisés complexes. Le cas du système de décision politico-administratif local en France », Revue française de sociologie, vol. 16, no1, 1975, pp. 3-32. 8 Jean-Pierre WORMS, « Le Préfet et ses notables », Sociologie du travail, vol. 8, no3, 1966, pp. 249-275 ; Pierre GREMION, Le pouvoir périphérique. Bureaucrates et notables dans le système politique français, Paris, Seuil, 1976. 9 Jean-Pierre GAUDIN, Les nouvelles politiques urbaines, Paris, PUF, 1993. 2 pivot dans la régulation politique et sociale en assurant la combinaison des intérêts du centre avec ceux de la périphérie10. Ce modèle historique, mis à l'épreuve dès la fin des années 1960 par l'urbanisation et l'autonomisation corolaire des députés-maires des villes vis-à-vis du système politicoadministratif départemental structuré autour du Préfet, n'a pas survécu aux profondes transformations institutionnelles amorcées dans les années 1980. Initiées par les lois de décentralisation, qui ont bouleversé le cadre juridique de l'action publique locale, ces transformations se sont prolongées au cours des deux décennies suivantes avec la déconcentration, la montée en puissance de l'Union Européenne et l'émergence de structures intercommunales puissantes. Combinées, ces trois évolutions ont suscité une prolifération des centres d'initiatives et de pouvoir dans les territoires, qui a déstabilisé le bipôle traditionnel constitué du maire et du responsable administratif. La pluralisation de la gestion territoriale, qui s'est accompagnée d'une redistribution des ressources et des contraintes entre ses acteurs, a suscité de nouveaux risques et de nouvelles opportunités pour les uns et les autres. Les villes ont été les principales bénéficiaires de ces évolutions, qui leur ont permis de s'imposer comme les leaders de la gouvernance territoriale11. Réciproquement, l'emprise des services déconcentrés sur les politiques locales s'est nettement desserrée. Les lois de décentralisation ont incontestablement joué un rôle clé dans ces évolutions, en consacrant la fin d'un système politico-administratif marqué par l'hégémonie bureaucratique de l'Etat sur les affaires locales. Le nouveau cadre juridique mis en place en 1982-1983 se distingue du précédent sur cinq points principaux : la tutelle administrative et financière a priori exercée par le préfet a été supprimée ; la Région a été transformée en une collectivité territoriale de plein exercice ; le pouvoir exécutif départemental et régional a été confié à un élu local ; de nouvelles compétences ont été confiées aux collectivités des trois niveaux (région, département, commune), accompagnés de transferts des personnels des services déconcentrés de l'Etat vers ces collectivités ; parallèlement, des impôts d'Etat ont été transférés aux collectivités locales, libres d'en fixer le taux, en même temps que les subventions spécifiques et discrétionnaires du passé ont été remplacées par des dotations globales automatiques et non négociables. Ce faisant, le législateur a cherché à organiser l'autonomie de chaque niveau de collectivités dans sa sphère d'autorité, sous la responsabilité d'un exécutif élu. Le transfert d'un bloc de compétences complet à chaque échelon – le développement pour les régions, la solidarité pour les départements, l'urbanisme et les services de proximité pour les communes– se justifiait pleinement dans cette perspective, la délimitation de ces blocs de compétences devant dessiner des ensembles fonctionnels jugés assez homogènes pour créer des sphères d'autonomie particulières. Il s'agissait alors d'éviter des chevauchements de responsabilités qui auraient risqué de faire naître des conflits entre des collectivités publiques dont l'indépendance mutuelle était garantie par la Constitution. Ce faisant, les lois de décentralisation ont moins transformé que prolongé la logique d'action sectorielle antérieure, se contentant d'en déplacer les lignes. Plus encore, le partage des compétences entre régions, départements et communes a renforcé la segmentation de l'action publique locale, en ajoutant une forme de cloisonnement vertical entre les trois échelons de collectivités au cloisonnement horizontal antérieur entre de multiples administrations sectorielles. Cette logique juridique de spécialisation fonctionnelle par blocs de compétences a rapidement été critiquée par les chercheurs et les acteurs, qui ont pointé ses effets de fragmentation sectorielle et de 10 Michel CROZIER, Jean-Claude THOENIG, « La régulation des systèmes organisés complexes. Le cas du système de décision politico-administratif local en France », op. cit. 11 Patrick LE GALES, Le retour des villes européennes. Sociétés urbaines, mondialisation, gouvernement et gouvernance, Paris, Presses de Sciences Po, 2003. 3 cloisonnement interinstitutionnel là où les enjeux du développement local exigeaient de la transversalité et du décloisonnement : « plus ce principe de spécialisation était poussé, plus il requérait en pratique des coopérations entre des pôles d'initiative bien affirmés dans leur spécialité »12. L'impossible congruence entre la définition des compétences administratives et des problèmes publics à la fois complexes et évolutifs a réduit à néant les espoirs d'indépendance mutuelle des collectivités locales et d'autonomie de celles-ci à l'égard de l'Etat. Les problèmes intégrant les compétences et non l'inverse, les options retenues pour la décentralisation ont renforcé les interdépendances entre les collectivités des différents niveaux et vis-à-vis de l'Etat, à l'opposé des intentions du législateur13. Bien qu'émancipées de la tutelle étatique, les collectivités n'ont pu immédiatement se passer de l'aide que les services de l'Etat. Il a fallu pour cela qu'elles se dotent de services administratifs et techniques nécessaires et qu'elles fassent l'apprentissage de leurs nouvelles compétences, ce qui a pris du temps 14. Mais la dépendance était à double sens : les collectivités pouvant recourir à des prestataires privés (grands ensembliers urbains 15, bureaux d'études, cabinets de conseil), les administrations étatiques ont dû se mobiliser pour maintenir un contact étroit et garder la confiance des élus qui constituaient leur marché 16. La décentralisation s'est donc prolongée par un mouvement de déconcentration, au travers de laquelle les administrations étatiques ont cherché, dans une logique de survie, à renforcer leurs services territoriaux de façon à fournir aux collectivités des prestations de qualité 17. La décentralisation, couplée avec la déconcentration, n'a donc pas entraîné une diminution des échanges entre collectivités et services de l'Etat, mais elle a changé leur nature, conduisant à une forme d'inversion de la tutelle. La nécessité d'accompagner la décentralisation par un mouvement parallèle de déconcentration avait été affirmée dès 1982, avant d'être consacrée par la loi relative à l'administration territoriale de la République du 6 février 1992 et le décret du 1 er juillet de la même année portant « charte de la déconcentration ». Cette déconcentration et le mouvement de centrifugation des services extérieurs de l'Etat qui en a résulté ont suscité des problèmes de contrôle hiérarchique dans les chaînes d'autorité ministérielles, auxquels se sont ajoutés des problèmes plus horizontaux de contrôle, de coordination et de maîtrise de l'action de l'Etat sur le territoire par les préfets. Ceux-ci ont néanmoins vivement défendu le principe de déconcentration. Par ce biais et dans une logique de compensation, le corps préfectoral a cherché à récupérer en autorité sur les services territoriaux de l'Etat ce qu'il avait perdu sur les 12 Jean-Pierre GAUDIN, « Politiques urbaines et négociations territoriales: quelle légitimité pour les réseaux de politiques publiques ? », Revue française de science politique, vol. 45, no1, 1995, pp. 31-56. 13 Patrice DURAN, Penser l'action publique, Paris, LGDJ, 1999. 14 Les grandes villes et les régions ont été les plus rapides en la matière. Les départements ont suivi plus lentement. En revanche, la majeure partie des communes est restée dépendante de cette aide de l'Etat, jusqu'à ce que les départements se positionnent dans les années 1990 sur une fonction d'assistance technique aux communes rurales. 15 Dominique LORRAIN, « Les services urbains, le marché et le politique » in Claude MARTINAND (dir.) L'expérience française du financement privé des équipements publics, Paris, Economica, 1993, pp. 13-43. 16 Toutes les administrations ont été déstabilisées par la décentralisation, mais toutes n'ont pas réagi à l'identique. Les DDASS ont subi un choc violent avec le départ de leurs travailleurs sociaux vers les départements, dont elles ne se sont jamais remises. Les DDE ont été les plus actives pour se repositionner au service des collectivités territoriales, en lien avec lesquelles elles développaient 70% de leurs activités. Les DDAF sont restées plus longtemps abritées de la tourmente décentralisatrice, oeuvrant généralement auprès de petites communes relativement démunies et de conseils généraux où les règles de représentation renforçaient le poids du monde rural. Cf. Jean-Pierre GAUDIN, « Politiques urbaines et négociations territoriales: quelle légitimité pour les réseaux de politiques publiques ? », op. cit. ; Patrice DURAN, « Les pannes de la déconcentration : l'échec du rapprochement des directions départementales de l'Equipement et des directions départementales de l'Agriculture et de la Forêt en 1993 », op. cit. 17 Patrice DURAN, Bruno HERAULT, « L'administration à la découverte du politique : l'Equipement en décentralisation », L'annuaire des collectivités locales, vol. 12, no12, pp. 5-25, 1992. 4 élus locaux18. Si les préfets ont appelé au renforcement de l'autonomie des services territoriaux vis-à-vis de leurs administrations centrales, c'est pour immédiatement les replacer sous leur houlette. La « charte de la déconcentration » leur a donné satisfaction, en renforçant les pouvoirs de coordination préfectorale. Les notions d'actions communes, de chef de projet et de pôle de compétence introduites à cette occasion devaient permettre aux préfets d'avancer dans trois directions : regrouper les moyens, coordonner les missions communes, et articuler les compétences en fonction des problèmes concrets rencontrés sur le terrain 19. Ces trois objectifs se retrouvent dans les diverses réformes de l'Etat territorial conduites par la suite, de la généralisation des missions inter-services en 1993 aux projets territoriaux de l'Etat expérimentés à partir de 1996 et généralisés sous la forme des projets d'action stratégique de l'Etat en 2000. Ces formules managériales n'ont cependant eu qu'un impact limité sur la coordination de services veillant jalousement à leur autonomie. Le préfet n'a aucune autorité sur la Justice en vertu de la séparation des pouvoirs, les lignes hiérarchiques de la Gendarmerie ne transitent pas par les préfectures, la Police a longtemps conservé une autonomie quasiabsolue dans la définition de ses tâches et l'Education Nationale se trouve dans une situation à bien des égards comparable. Au-delà de ces services, qui réunissent le gros des troupes de l'Etat local, toutes les directions départementales ont su construire des formes de protection vis-à-vis des préfectures en se plaçant sous la protection des élus locaux ou en mettant en avant leur manque de moyens et les priorités de leur ministre. La tutelle préfectorale n'était finalement acceptée par les services déconcentrés que dans les cas exceptionnels, correspondant à des situations de crise ou de blocage lié à des désaccords entre services dans la gestion d'un dossier, appelant de ce fait un arbitrage. La déconcentration n'a donc pas mis fin à la fragmentation de l'Etat local. Les préfets ne disposant pas de réelle capacité de coordination des services placés sous leur autorité, c'est avec les collectivités territoriales qu'ils ont dû traiter pour organiser cette coordination nécessaire au traitement des problèmes transversaux auxquels celles-ci étaient confrontés. Le changement dans les termes de la relation entre collectivités locales et services déconcentrés de l'Etat a été amplifié par l'irruption de nouveaux acteurs qui ont joué un rôle croissant dans la gestion publique des territoires. C'est notamment le cas de l'Union Européenne, dont la montée en puissance a conduit à une réduction des capacités d'intervention directe des administrations étatiques. D'un côté, la politique de concurrence a limité les possibilités de subvention publique aux acteurs privés, privant l'Etat d'un important levier de gestion territoriale, tout en l'incitant, par la conditionnalité des aides régionales européennes, à intervenir suivant des modalités différentes. De l'autre, l'élargissement de ses capacités d'initiative propres a permis à l'Union de s'imposer comme l'un des principaux financeurs des projets des collectivités au travers de sa politique régionale qui a exercé une influence croissante sur la gestion territoriale. Le colloque singulier associant villes et Etat a ainsi été brisé. La relation de face-à-face s'est transformée en triangle, élargissant le terrain de jeu des régions et des villes qui ont pu trouver dans l'Union un allié face à l'Etat, une source d'inspiration et un guichet pour leurs projets 20. Le développement de l'intercommunalité a prolongé ce processus de transformation institutionnelle. A la différence d'autres pays européens ayant fait le choix de la coordination supracommunale, la France a opté pour la formule de la coopération intercommunale, bien plus respectueuse du pouvoir des maires21. L'article premier de la loi du 2 mars 1982 envisageait, 18 Philippe BEZES, « Le tournant néomanagérial de l'administration française », op. cit. Patrice DURAN, « Les pannes de la déconcentration : l'échec du rapprochement des directions départementales de l'Equipement et des directions départementales de l'Agriculture et de la Forêt en 1993 », op. cit. 20 Patrick LE GALES, Le retour des villes européennes. Sociétés urbaines, mondialisation, gouvernement et gouvernance, op. cit. 21 Bernard JOUVE, Christian LEFEVRE (dir.), Métropoles ingouvernables, Paris, Elsevier, 2002. 19 5 entre autres mesures, de nouvelles modalités de coopération entre les communes. Celles-ci demeuraient timides et il a fallu attendre le vote de la loi relative à l'administration territoriale de la République dix ans plus tard pour qu'une politique consistante de promotion de la coopération intercommunale s'engage, amplifiée par les lois Pasqua (1995), Voynet (1999) et Chevènement (1999). Jusqu'au vote de cette dernière, l'intercommunalité à fiscalité propre se réduisait néanmoins à de rares îlots de coopération, suscitant la critique récurrente des élites nationales envers les « égoïsmes municipaux ». Il a suffi d'assortir le développement de l'intercommunalité d'une bonification conséquente des dotations de l'Etat pour que la France s'engage dans une « révolution intercommunale »22. La rapide montée en puissance des structures intercommunales a renforcé le pouvoir des maires 23, en particulier ceux des villes24 qui se sont imposés comme les véritables leaders de la gouvernance urbaine25. Les maires du début du XXIe siècle n'ont plus grand-chose à voir avec leurs prédécesseurs des années 1960, qui se cantonnaient dans une position de « courtier en influence »26. Au fil du temps et par petites touches, les maires ont fait évoluer le profil traditionnel du notable local, au profit d'une figure de l'élu modernisateur, leader d'une ville qui s'est transformée en acteur autonome et stratégique27, porteur d'une vision de ce que doit être l'avenir de son territoire, tirant en grande partie sa légitimité de sa capacité à faire partager ce projet localement et à le vendre aux niveaux national, européen et international28. Contrairement à ce que pourrait laisser croire la formule de Dominique Lorrain 29, qui parle du passage d'un système d'administration centré sur l'Etat à un régime de gouvernement centré sur les élus locaux, cette évolution n'a pas signé le remplacement d'une hégémonie par une autre, les maires prenant la place des représentants de l'Etat. Certes, leur emprise sur l'action publique locale s'est nettement accrue au cours des années 1980 et 1990. Mais la fragmentation du système politico-administratif issu de la décentralisation et les problèmes de coordination entre acteurs qui en ont découlé ont légitimé le maintien des services de l'Etat dans le jeu local. Emancipés de la tutelle centrale, les élus locaux ont trouvé dans les représentants locaux de l'Etat des alliés utiles : leur légitimité à organiser le dialogue et la coopération entre collectivités (et avec leurs divers partenaires locaux) était reconnue par tous, d'autant plus aisément que les préfets et les services déconcentrés de l'Etat se montraient plutôt dociles, ne cherchant pas tant à imposer localement les priorités centrales qu'à les adapter aux enjeux définis par les acteurs locaux et aux configurations différenciés des territoires. L'Etat local s'est ainsi inventé un nouveau rôle, consistant dans la territorialisation des politiques 22 Olivier BORRAZ, Patrick LE GALES, « France: the intermunicipal revolution », in Bas DENTERS, Lawrence ROSE (dir.) Comparing Local Governance: trends and developments. Basingstoke, Palgrave, 2005, pp. 12-28. 23 Rémy LE SAOUT, « L'intercommunalité, un pouvoir inachevé », Revue française de science politique, vol. 50, no3, 2000, pp. 439-461 ; Fabien DESAGE, « La vocation redistributive contrariée d'une institution fédérative infranationale. Les faux-semblants du "consensusˮ partisan à la communauté urbaine de Lille », Lien social et politiques, no56, 2006, pp. 149-163. 24 Mais le phénomène s'observe aussi dans les territoires ruraux, où la mutualisation des maigres moyens dont disposaient les communes et le soutien technique des conseils généraux ont permis aux édiles de réduire leur dépendance vis-à-vis des services de l'Etat. 25 Olivier BORRAZ, Emmanuel NÉGRIER, « The end of French mayors? », in John GARRARD (dir.), Heads of the Local State in Past and Present, London, Ashgate, 2006, pp. 79-114. 26 Dominique LORRAIN, « De l'administration républicaine au gouvernement urbain », Sociologie du travail, vol. 33, no4, 1991, pp. 461-484. 27 Jean Gustave PADIOLEAU, « L'action publique urbaine moderniste », Politiques et Management Public, vol. 9, no3, 1991, pp. 133-143. 28 Patrick LE GALES, Le retour des villes européennes. Sociétés urbaines, mondialisation, gouvernement et gouvernance, op. cit. 29 Dominique LORRAIN, « De l'administration républicaine au gouvernement urbain », op. cit. 6 nationales et l'animation de la coopération entre les parties prenantes de la gestion territoriale30. Cette fonction « d'institutionnalisation de l'action collective »31 s'est concrétisée par une floraison de contrats signés avec les collectivités des différents niveaux : dans les seuls domaines de l'aménagement du territoire et de la politique de la ville, qui ont servi de fer de lance pour le développement des contractualisations territoriales, l'Etat a proposé aux villes et aux régions une vingtaine de contrats distincts entre 1983 et 2000, des premières chartes intercommunales de développement et d'aménagement jusqu'aux contrats d'agglomération et de pays, en passant par les contrat de plan Etat Région, programmes d'aménagement concerté du territoire, conventions de développement social des quartiers et autres contrats de ville. Alors qu'elles ne concernaient que les régions et les villes dont les quartiers d'habitat social étaient les plus précocement affectés par la crise socio-urbaine, ainsi que quelques bassins en reconversion industrielle au début des années 1980, les contractualisations territoriales se sont rapidement étendues à d'autres territoires, pour finir par concerner l'ensemble des collectivités et couvrir la quasi-totalité des secteurs de l'action publique 32, jusqu'aux domaines régaliens de la sécurité et de la justice. Une large part des politiques sectorielles a ainsi été inscrite dans un jeu complexe de conventions signées par les représentants de l'Etat et les élus locaux, assurant à ces derniers une prééminence dans la définition des priorités de l'action publique locale et un droit de regard sur les conditions de mise en oeuvre des politiques nationales. En effet, contrairement aux craintes exprimées par de nombreux juristes, les contractualisations territoriales n'ont pas été le cheval de Troie d'un retour de la tutelle étatique. Au contraire, ces contractualisations ont contribué à la concrétisation des objectifs d'autonomie locale et de flexibilité poursuivi par la décentralisation, en organisant le passage de normes et de règles définies par les administrations centrales à des objectifs et des actions négociés localement par les services déconcentrés de l'Etat et les collectivités, sur la base de diagnostics et de projets territoriaux élaborés dans des scènes partenariales coprésidées par les préfets et les élus locaux. Les normes et les règles générales n'ont pas disparu, mais leur adaptation a été érigée en règle. On est ainsi passé d'une normalisation assouplie par des arrangements occultes entre représentants de l'Etat et notables à une négociation explicite – sinon ouverte – des normes et des actions dans le cadre de scènes contractuelles semipubliques33. Car les contrats dont il est ici question n'en étaient pas au sens juridique du terme 34. Il s'agissait de textes cosignés par les représentants de l'Etat et les élus locaux, consignant un accord négocié sur des objectifs d'action qui s'inscrivaient dans un terme moyen, entre l'annualité budgétaire et l'horizon lointain de la planification, autour desquels les parties prenantes s'engageaient à mobiliser les ressources nécessaires. Mais ces engagements étaient purement politiques, en l'absence de mécanismes de sanction de ceux qui ne les respectaient 30 Jean-Pierre GAUDIN, Gouverner par contrat : l'action publique en question, Paris, Presses de Sciences Po, 1999 ; Jacques DONZELOT, Philippe ESTEBE, L'Etat animateur. Essai sur la politique de la ville, Paris, Esprit, 1994. 31 Patrice DURAN, Jean-Claude THOENIG, « L'Etat et la gestion publique territoriale », Revue française de science politique, vol. 46, n o4, 1996, pp. 580-623. 32 Rappelons que cet usage intensif de l'instrument contractuel n'avait pas été prévu par le législateur : outre les Contrats de Plan Etat Région, on ne trouve qu'une mention à de tels contrats dans la loi de décentralisation de 1983, à propos des chartes intercommunales. 33 Jean-Pierre GAUDIN, Gouverner par contrat : l'action publique en question, op. cit. 34 Gérard MARCOU, « Les instruments contractuels de l'aménagement du territoire dans les relations entre les collectivités publiques » in Hervé GROUD, Jean-Cleaude NEMERY (dir.), Le renouveau de l'aménagement en France et en Europe, Paris, Economica, 1994 ; Yves JEGOUZO, « Contenu et articulation des contrats d'agglomération », in Jean-Philippe BROUANT (dir.) Contractualisation et territoires. Le rôle des contrats d'agglomération, Paris, La Documentation Française, 2005, pp. 141-163. 7 pas. L'usage de la notion de contrat dans les politiques publiques ne s'est donc faite qu'au prix d'un détournement de sens, puisque « la valeur qui est reconnue au contrat n'est pas de produire des obligations, c'est de procéder d'une négociation et d'aboutir à un accord »35. On serait même tenté d'aller plus loin : la valeur des contrats entre Etat local et collectivités tenait moins aux engagements qui y étaient consignés qu'à l'accord des signataires pour instaurer une scène permanente de négociation. La démarche de projet qui sous-tendait les contractualisations territoriales était plus importante que le contenu contractuel qui résultait des négociations initiales, puisque celles-ci se répétaient chaque année, à l'occasion de la définition des programmes d'action. Les contrats des années 1980 et 1990 se distinguaient donc nettement de ceux expérimentés au cours des années 1970 dans le cadre de la politique d'aménagement du territoire en ce qu'ils portaient moins sur la localisation des équipements collectifs programmés par l'Etat qu'ils ne visaient à organiser l'alignement cognitif (diagnostic), stratégique (projet) et opérationnel (programmation) des différents acteurs impliqués dans la gestion territoriale, de façon à constituer une capacité d'action collective. Les projets et contractualisations territoriales ont ainsi marqué une rupture avec la rigidité de la planification étatique antérieure à la décentralisation, en introduisant des démarches plus ouvertes, horizontales, itératives et incrémentales dans la gestion publique des territoires 36. La décentralisation n'a donc pas conduit à la disparition de l'Etat local. Elle a indéniablement amorcé un mouvement d'affaiblissement, dont l'ampleur a varié en fonction des services déconcentrés. Mais l'Etat local est globalement parvenu à se maintenir dans un système politico-administratif local dont les cartes ont été rebattues au profit des collectivités. Celles-ci ont pris le leadership sur l'action publique locale, prenant en charge la définition des finalités et la mise en oeuvre des politiques publiques, pendant que l'Etat local se repositionnait sur la mise en place des conditions d'une mise en cohérence transversale de ces politiques. II. L'Etat local à l'épreuve des réformes néomanagériales Le lent processus d'affaiblissement de l'Etat local s'est accéléré avec l'Acte II de la décentralisation, qui a fait perdre aux services déconcentrés une bonne part des leviers d'intervention qui leur restaient. Le cas du ministère de l'Equipement, dont les services territoriaux ont toujours été parmi les plus puissants, en fournit l'illustration. L'essentiel des responsabilités et des financements en matière de logement a été délégué aux agglomérations et aux départements ; la gestion et l'entretien de la quasi-totalité du réseau routier national ont été transférés aux départements ; il en va de même des ports et des aéroports, à l'exception de ceux d'intérêt national, qui sont revenus aux départements et aux régions. Dépouillées des agents routiers qui constituaient le gros de leurs troupes, contraintes de fermer les subdivisions et les arrondissements qui maillaient le territoire national depuis plus d'un siècle, les directions départementales de l'Equipement ont en outre été désertées par les ingénieurs des Ponts et Chaussés, comme ceux des Travaux Publics de l'Etat 37 et donc privées de leur dernière ressource : l'expertise. Il ne s'agit pas d'un cas isolé : la plupart des services ont été affectés par des transferts opérés dans une logique de « décroisement des compétences »38. En confiant aux collectivités l'entière responsabilité des politiques qu'elles cogéraient avec l'Etat local 39, 35 Gérard MARCOU, Francois RANGEON, Jean-Louis THIEBAULT, La coopération contractuelle et le gouvernement des villes, Paris, L'Harmattan, 1997. 36 Gilles PINSON, Gouverner la ville par projet. Urbanisme et gouvernance des villes européennes, Paris, Presses de Sciences Po, 2009. 37 Julie GERVAIS, « Former des hauts fonctionnaires techniques comme des managers de l'action publique – L'"identité managérialeˮ et le corps des Ponts et Chaussées », Politix, no79, 2007, pp. 101-123. 38 Patrick LE LIDEC, « Le jeu du compromis : l'Etat et les collectivités territoriales dans la décentralisation en France », Revue française d'administration publique, no121-122, 2007. 39 La loi du 13 août 2004 relative aux libertés et responsabilités locales a notamment mis fin à la cogestion de plusieurs fonds sociaux comme le RMI et le fonds de solidarité logement. 8 l'Acte II a produit de nouvelles saignées dans les services déconcentrés, en même temps qu'il a conduit à une réduction de leurs interdépendances avec les collectivités et donc à un affaiblissement de leur positionnement local. Tout autant qu'à l'approfondissement de la décentralisation, la marginalisation des services déconcentrés dans la gestion publique des territoires est due à une série de réformes menées en parallèle ou à la suite de l'Acte II, qui bouleversent l'organisation administrative, le mode de définition des politiques de l'Etat et les instruments par lesquels il intervient dans les territoires. Ces réformes dérogent nettement à l'approche privilégiée par les programmes de modernisation de l'administration des années 1980 et des années 1990, fondés sur l'introduction d'expérimentations locales. La réforme de l'Etat qui se met en place depuis le début des années 2000 est bien plus radicale et systématique. Dans le sillage de la loi organique relative aux lois de finances du 1er août 2001 (LOLF), les plans de réforme sont devenus plus globaux et leur inspiration plus nettement marquée par l'importation des recettes du New Public Management, qui se sont progressivement diffusées en France et sont désormais systématiquement utilisées40. Les effets infranationaux de ces réformes demeurent, en l'état actuel de la recherche, relativement incertains. Ainsi, tout en soulignant que la LOLF impose un changement paradigmatique, c'est-à-dire une transformation des principes et des instruments « qui produit de lourds effets de déstabilisation et appellent de nouvelles réformes selon un mécanisme d'effets dominos classiquement observé », Philippe Bezes fait preuve d'une grande prudence quant à la portée infranationale de cet effet domino : « en tout état de cause, la structuration historique territoriale de l'Etat et ses relations imbriquées avec les collectivités locales constituent des institutions solides qui ne favorisent ni le design d'une politique de séparation tranchée entre l'Etat et le gouvernement local ni une réorganisation des services déconcentrés de l'Etat [] L'avenir dira qui l'emporte, des recettes néomanagériales ou des propriétés historiques de l'administration française »41. Au crédit de cette dernière hypothèse, Patrick Le Lidec rappelle que les ambitions réformatrices centrales se sont jusqu'à présent toujours heurtées aux préférences collectives des élus locaux, qui disposent d'un contrôle sur l'agenda et le contenu des réformes sans équivalent en Europe42. De ce fait, « les réformes entreprises au cours des dernières années amplifient les caractéristiques saillantes du "modèle d'administration locale françaisˮ plus qu'elles ne le transforment »43. On conviendra, avec ces spécialistes des réformes institutionnelles, que le changement résulte moins d'une décision politique marquant une rupture dans le système politico-administratif français qu'il ne procède de l'accumulation d'évolutions incrémentales. Il n'en reste pas moins que l'enchaînement rapide de réformes mineures peut conduire à des transformations radicales, comme l'avait souligné Charles Lindblom vingt ans après avoir théorisé la quasi-impossibilité de réformes politiques de grande ampleur : « A fast-moving sequence of small changes can more speedily accomplish a drastic alteration of the status quo than can only infrequent major policy change »44. 40 Philippe BEZES, Réinventer l'Etat. Les réformes de l'administration française (1962-2008), Paris, PUF, 2009. IDEM, « Le tournant néomanagérial de l'administration française » in Olivier BORRAZ, Virginie GUIRAUDON, Politiques publiques. 1, La France dans la gouvernance européenne, Paris, Presses de Sciences Po, 2008, pp. 215254. 42 Contrôle qu'il explique par le rôle des associations d'élus, qui disposent de relais puissants dans l'administration ; par le cumul des mandats, qui assure une pénétration des intérêts des institutions locales au sein des arènes parlementaires ; par le rôle du Sénat, qui relaie avec force la pression des intérêts locaux ; et par l'indistinction entre personnel gouvernemental et personnel politique local. La combinaison de ces quatre mécanismes structurants limite fortement les marges de manoeuvre des gouvernants dans la fabrication des réformes des institutions et des politiques locales. 43 Patrick LE LIDEC, « La réforme des institutions locales » in Olivier BORRAZ, Virginie GUIRAUDON, Politiques publiques. 1, La France dans la gouvernance européenne, Paris, Presses de Sciences Po, 2008, pp. 215-254. 44 Charles LINDBLOM, « Still Muddling, Not Yet Through », Public Administration Review, vol. 39, no6, 1979, pp. 517-526. 41 9 Si rupture il y a, elle tient en premier lieu à la dissociation entre décentralisation et déconcentration à laquelle ces réformes conduisent. La déconcentration s'était imposée sans plus d'examen comme l'évidente compensation de la logique décentralisatrice dans les années 1980 et 199045. Il en va autrement avec l'Acte II, qui brise le lien entre ces deux processus parallèles de transfert du pouvoir du centre vers la périphérie, pour reprendre les catégories de Pierre Grémion. Certes, l'Acte II de la décentralisation a été accompagné par une série de mesures visant à transformer le fonctionnement de l'Etat territorial, présentées sous l'angle du renforcement de l'échelon régional. Mais ce renforcement n'est que relatif, par rapport à un échelon départemental qui constituait l'échelon de base de l'administration territoriale de l'Etat et qui a toujours été le plus solidement structuré, servant de lieu d'opérationnalisation des politiques nationales. De ce fait, le renforcement de l'échelon régional de l'Etat pèse peu au regard de la crise dans laquelle ont été plongés les services départementaux, sous l'effet des transferts de compétences et de personnels opérés en direction des collectivités et des incertitudes qui en ont résulté quant à leurs missions et leur devenir 46. L'approfondissement de la décentralisation a laissé les services départementaux exsangues et l'entrée en application de la LOLF ne les a pas revitalisés. L'« esprit de la LOLF », tel qu'explicité par ses deux pères (le député Didier Migaud et la sénateur Alain Lambert), allait clairement dans le sens d'une déconcentration managériale et financière accrue47. La LOLF en actes n'a cependant pas grand-chose à voir avec les présentations qu'en font ses promoteurs. S'il est prématuré de porter un jugement précis sur les conséquences de cette loi organique, les premiers effets observables vont à l'inverse des intentions affichées s'agissant des rapports entre administrations centrales et services déconcentrés. La Cour des comptes et la DATAR avaient souligné en 2003 le risque d'un hiatus entre la logique descendante de la LOLF et la logique à la fois horizontale et remontante supposée guider l'action de l'Etat dans les territoires. Ces mises en garde n'ont pas été entendues et l'accroissement des marges de manoeuvre des responsables des services déconcentrés que devaient permettre la globalisation et la fongibilité des crédits à l'intérieur de chaque programme ne s'est pas concrétisé. Les projets annuels de performance (PAP) qui accompagnent chaque programme devaient s'organiser autour d'un nombre restreint d'objectifs de résultats assortis d'indicateurs de performance. Mais les objectifs et indicateurs de résultats (outcomes) ont été remplacés, dans nombre de PAP, par des objectifs et indicateurs portant sur les réalisations (outputs), limitant les marges de manoeuvre des services déconcentrés. L'accroissement de leurs libertés attendu de la fongibilité des crédits à l'intérieur d'un programme a été réduit à néant par les pratiques des responsables de programme 48, qui les 45 Un examen attentif aurait suscité des interrogations quant à l'option retenue. La déconcentration ressemblait en effet à une formule magique, supposée dans un même mouvement assurer la présence dans les territoires de services techniques puissants, à même de compenser la faiblesse des collectivités ; garantir l'autonomie fraîchement acquise par celles-ci en évitant qu'elles soient dépendantes de décisions qui auraient été prises à Paris ; éviter que la décentralisation conduise à un affaiblissement de l'Etat, qui aurait été dépendant des collectivités territoriales pour la mise en oeuvre de ses politiques et sans capacité de contrôle sur leur action. Cf. Patrice DURAN, « Les pannes de la déconcentration : l'échec du rapprochement des directions départementales de l'Equipement et des directions départementales de l'Agriculture et de la Forêt en 1993 », op. cit. 46 Danièle LINHART (dir.), Les différents visages de la modernisation du service public, Paris, La Documentation Française, 2006. 47 Le budget de l'Etat, qui était découpé par ministère et par nature de dépense, est désormais structuré en une soixantaine de missions (unité à l'échelle de laquelle le Parlement vote le budget), comprenant une centaine de programmes assortis d'objectifs précis et d'indicateurs de performance. Leur déclinaison opérationnelle à l'échelle infranationale s'opère par le biais de budgets opérationnels de programme (BOP), qui devaient renforcer les libertés et les responsabilités des gestionnaires locaux. 48 Chaque programme est piloté par un haut fonctionnaire qui s'engage devant le Parlement sur des objectifs chiffrés pour l'année suivante. Il doit ensuite rendre compte des résultats obtenus et expliquer les écarts par rapport aux prévisions dans un rapport annuel de performances, joint au projet de loi de règlement qui rend compte de l'exécution budgétaire de l'année passée. 10 ont fractionné en de multiples budgets opérationnels de programme, créant ainsi des blocs de dépenses constituant autant d'enveloppes non fongibles, en même temps qu'ils ont multiplié les directives et les instructions relatives à l'emploi des crédits, privant les managers locaux d'une grande partie des libertés nouvelles qui devaient résulter de la loi organique 49. Celle-ci se traduit par un renforcement du fonctionnement vertical et hiérarchique de l'administration française, aboutissant à des prescriptions toujours plus précises pour les acteurs situés en bout de chaîne50. L'échelon départemental de l'Etat a été particulièrement affecté par cette reconcentration, qui a réduit sa capacité à adapter les politiques nationales en fonction des contextes et des projets locaux. Les contrats signés par les préfectures et les collectivités, qui servaient de cadre à cette territorialisation des politiques nationales, ont d'ailleurs été rapidement remis en cause. Ils ont laissé place à une nouvelle génération de contrats (Contrat de projets Etat région, Convention de rénovation urbaine, Contrat urbain de cohésion sociale, Convention de délégation des aides à la pierre, etc.) d'une toute autre nature. Ceux-ci ne s'organisent plus autour de projets territoriaux négociés localement, mais des priorités sectorielles et des objectifs chiffrés de production définis à Paris. Ils se déclinent en programmes précis, constitués d'opérations dont les maîtrises d'ouvrage, plans de financement et calendriers de réalisation sont définis dans le détail, assortis de mécanismes de sanction ou de clauses de révision en cas de non respect de leurs engagements par les collectivités. Plus encore, c'est le mode d'élaboration de ces contrats qui a changé. Les négociations horizontales du passé, entre Etat local et collectivités, ont été remplacées par des appels à projet verticaux. L'appel à projet est désormais un instrument banalisé, utilisé de façon quasisystématique par l'Etat pour allouer de façon sélective ses budgets d'investissement dans les territoires (Programme national de rénovation urbaine, Plan Ville Durable, Pôles de compétitivité, Plan Campus, programmes du Grand emprunt, etc.). Ce changement instrumental a de lourdes conséquences pour l'Etat local. Les anciennes contractualisations territoriales lui conféraient un rôle important, à la fois arbitre (en fixant et veillant au respect des règles du jeu procédural), banquier (en apportant des financements) et joueur (en mettant ses politiques dans le panier contractuel). La situation est toute autre avec les appels à projets nationaux qui court-circuitent les services déconcentrés, évincés de l'élaboration des projets et cantonnés dans une fonction aval de reporting51. La mise à l'écart des services déconcentrés s'explique en partie par le fait que ces appels à projet ne sont pas lancés par les administrations centrales, mais par des agences nationales dont la prolifération a recomposé le paysage administratif. Jusqu'à une date récente, la France était restée en retrait du mouvement d'agencification observable dans le reste de l'Europe, consistant dans le transfert d'activités gouvernementales vers de nouvelles organisations chargées de missions de service public tout en étant placées à distance du pouvoir politique52. Ces opérations de démembrement de l'administration, qui s'opéraient au coup par 49 Alain LAMBERT, Didier MIGAUD, La mise en oeuvre de la loi organique relative aux lois de finances. A l'épreuve de la pratique, insuffler une nouvelle dynamique à la réforme. Paris, Ministère de l'Economie, des Finances et de l'Industrie, 2006. 50 Sylvie TROSA, Bernard PERRET, « Vers une nouvelle gouvernance publique ? La nouvelle loi budgétaire, la culture administrative et les pratiques décisionnelles », Esprit, fevrier 2005, pp. 65-85. 51 Le reporting consiste à collecter des informations précises sur des procédures, des résultats et des moyens utilisés dans des systèmes d'informations qui assurent la disponibilité immédiate de ces informations pour les responsables. Cf. Florence FAUCHER-KING, Patrick LE GALES, Tony Blair 1997-2007, Paris, Presses de Sciences Po, 2007. 52 La notion d'agence n'existe pas en droit administratif français. Sous cette dénomination, coexistent des structures aux statuts juridiques, missions et fonctionnement divers. On peut, à la suite de Christopher Pollit, définir l'agence comme une organisation (1) dont les statuts sont définis par voie législative ou règlementaire ; (2) 11 coup, se sont multipliées dans le sillage de la LOLF. Car celle-ci, en faisant prévaloir la notion de programme sur celle de ministère dans l'architecture budgétaire, a créé un terrain favorable pour que la « fièvre des agences »53 se diffuse dans l'ensemble du corps administratif français54. Depuis le vote de la LOLF, les ministères qui étaient chargés de la conception et de l'exécution de l'ensemble des politiques relevant d'un secteur donné en perdent progressivement la maîtrise, au profit de diverses agences chargées d'un seul programme. La création d'agences, qui met en conformité de l'organisation administrative de l'Etat à l'échelon central et son architecture budgétaire, s'est systématisée dans le cadre de la révision générale des politiques publiques (RGPP). Elle n'est pas sans effet sur les services déconcentrés. A l'image de l'Agence nationale pour la rénovation urbaine (créée en 2003), de l'Agence de l'innovation industrielle (2005), de l'Agence nationale pour la recherche (2005), de l'Agence nationale pour la cohésion sociale et l'égalité des chances (2006) ou de l'Agence du Service Civique (2010), ces nouvelles organisations captent une part croissante des ressources budgétaires et extrabudgétaires de l'Etat, lesquelles sont soustraites aux administrations centrales et sortent donc du dialogue de gestion qu'elles nouaient avec leurs services déconcentrés. Valorisées pour leur souplesse, leur légèreté et leur réactivité, les agences ne sont pas tenues de s'appuyer sur les services locaux de leur ministère de tutelle. Elles privilégient les relations directes avec les porteurs des actions relevant du programme dont elles ont la charge, sans passer par les préfectures et les directions départementales concernées. Une part croissante des programmes de l'Etat se met donc en oeuvre suivant de nouveaux circuits, dont les services déconcentrés sont tenus à l'écart. Si l'on excepte quelques secteurs dont la compétence relève exclusivement ou principalement de l'Etat (éducation, sécurité et santé), les transformations institutionnelles des années 2000 semblent ainsi conduire à la marginalisation totale des services déconcentrés, dont le rôle tend à devenir résiduel pour les pouvoirs locaux comme pour l'Etat central. * Jusqu'au début des années 2000, l'Etat local avait fait preuve d'une remarquable labilité fonctionnelle et d'une grande résilience organisationnelle. Il avait su s'adapter aux bouleversements de son environnement alors même son organisation, issue des réformes administratives de 1964 qui avaient donné naissance aux administrations régionales et à de grandes directions départementales (DDE, DDAF, DDASS, etc.), avait résisté à toutes les tentatives de réorganisation55. La dernière de ces tentatives semble être la bonne. La réforme de l'administration territoriale de l'Etat figure en bonne place dans les programmes de la RGPP lancée en 2007, qui redessine de fond en comble son organisation et son fonctionnement, suivant trois axes principaux : fusions de services, renforcement de l'échelon régional et réaffirmation de l'autorité préfectorale sur les services déconcentrés. désagrégée fonctionnellement de l'appareil administratif du ministère dont il dépend ; (3) bénéficiant d'un certain degré d'autonomie dont ne jouit pas l'administration ministérielle traditionnelle ; (4) dont les liens au ministère sont néanmoins suffisants pour permettre aux ministres de peser sur les budgets et les principaux objectifs opérationnels de l'organisation ; (5) qui n'est donc pas statutairement totalement indépendante de son ministère ; (6) qui n'est pas une entreprise commerciale. Cf. Christopher POLLITT, Colin TALBOT, Janice CAULFIELD, Amanda SMULLEN, Agencies. How governments do things through semi-autonomous organizations. Basingstoke, Palgrave Macmillan, 2004. 53 Christopher POLLITT, Karen BATHGATE, Janice CAULFIELD, Amanda SMULLEN, Colin TALBOT, « Agency fever? Analysis of an international policy fashion », Journal of Comparative Policy Analysis, vol. 3, n o3, 2001, pp. 271290. 54 Claudia FERRAZI, Frank MORDACQ, « LOLF et agences », in Edward ARKWRIGHT, Christian DE BOISSIEU, JeanHervé LORENZI, Julien SAMSON, Economie politique de la LOLF. Rapport du Conseil d'Analyse Economique, Paris, La documentation Française, 2007. 55 Patrice DURAN, « Les pannes de la déconcentration : l'échec du rapprochement des directions départementales de l'Equipement et des directions départementales de l'Agriculture et de la Forêt en 1993 », op. cit. 12 Dans le cadre de cette réforme, l'organisation héritée de l'histoire, qui juxtaposait 35 directions, services ou délégations de l'Etat dans les territoires, laisse place à un schéma simplifié résultant de la fusion de ces structures dans huit pôles à l'échelon régional sur des périmètres correspondant globalement aux missions des ministères dans l'organisation gouvernementale (celles du gouvernement Fillon II). A l'échelon départemental, les réorganisations sont plus drastiques encore, avec la fusion des directions départementales dans deux ou trois directions, suivant les départements. Parallèlement, le niveau régional devient le niveau de droit commun pour le pilotage des politiques de l'Etat. Le préfet de région voit ses pouvoirs renforcés. Il est chargé de la coordination entre pôles régionaux et de la cohérence de l'action des échelons régionaux et départementaux. Dans cette perspective, les préfets de département passent sous son autorité, ces derniers devant se conformer à ses décisions et lui rendre compte de leur action. Le niveau départemental de l'Etat devient donc un simple échelon de mise en oeuvre des politiques nationales, sous l'autorité du niveau régional. Enfin, l'autorité des préfets sur les services déconcentrés est également réaffirmée. Le préfet a autorité sur les pôles et directions ainsi que, pour le préfet de département, sur les unités départementales des services régionaux lorsqu'elles traitent de dossiers relevant de sa compétence ; par ailleurs, les préfets deviennent les délégués des agences nationales lorsque celles-ci exercent leurs attributions sur le territoire. Ces réformes sont en cours de mise en oeuvre. L'avenir dira si leurs effets valident un des slogans de la RGPP : « Moins de structures, plus d'efficacité ». On peut néanmoins penser que cette vaste réforme de l'Etat territorial aura pour principal effet de parachever un long processus de déclin de ce dernier, dont la présence dans les territoires et le rôle dans l'action publique locale deviennent résiduels. Il convient néanmoins de ne pas conclure hâtivement à la disparition de l'Etat de l'action publique locale. L'hypothèse inverse semble même plus vraisemblable, tant il est vrai que les services déconcentrés étaient tout autant les relais descendants de l'Etat que les avocats des territoires vis-à-vis de leur administration. Dès lors, la résidualisation de ces services permet aux élites centrales de se dégager de l'emprise du pouvoir périphérique, et ainsi de retrouver des capacités d'orientation à distance des politiques conduites dans les territoires comme on l'a montré au sujet de la politique de rénovation urbaine56. Le transfert aux élus locaux de la responsabilité de la mise en oeuvre de nombreux programmes étatiques et plus encore de la mise en cohérence transversale de ces programmes n'a pas fait disparaître toute influence de l'Etat sur les politiques locales. Au contraire, le retrait de l'Etat des territoires a rendu possible son retour dans la définition des finalités et du contenu de ces politiques, au travers de mécanismes de mise en concurrence, d'incitation et de sanction financière, complétés par des systèmes d'indicateurs, de reporting, de benchmarking et de promotion de bonnes pratiques qui s'avèrent d'autant plus efficaces qu'ils ne reposent plus sur la hiérarchie ou la négociation, mais sur la libre conformation d'acteurs autonomes. 56 Renaud EPSTEIN, « Gouverner à distance. Quand l'Etat se retire des territoires », Esprit, novembre 2005, pp. 96111. 13
{'path': '52/halshs.archives-ouvertes.fr-halshs-00831545-document.txt'}
Étude par la TEP au [18F]MPPF des récepteurs cérébraux sérotoninergiques 5-HT1A dans l'épilepsie du lobe temporal Adrien Didelot To cite this version: Adrien Didelot. Étude par la TEP au [18F]MPPF des récepteurs cérébraux sérotoninergiques 5-HT1A dans l'épilepsie du lobe temporal. Médecine humaine et pathologie. Université Claude Bernard - Lyon I, 2010. Français. NNT : 2010LYO10104. tel-00705810 HAL Id: tel-00705810 https://tel.archives-ouvertes.fr/tel-00705810 Submitted on 20 Nov 2012 N° d'ordre : 104 Année 2010 THESE DE L'UNIVERSITE DE LYON Délivrée par L'UNIVERSITE CLAUDE BERNARD LYON 1 École Doctorale Neurosciences et Cognition DIPLOME DE DOCTORAT (Arrêté du 7 août 2006) soutenue publiquement le 23 juin 2010 Étude par la TEP au [18F]MPPF des récepteurs cérébraux sérotoninergiques 5-HT1A dans l'épilepsie du lobe temporal par Adrien DIDELOT JURY : Pr. Michel BAULAC, Président Pr Franck SEMAH, Rapporteur Pr Patrick VAN BOGAERT, Rapporteur Dr Alexander HAMMERS, Examinateur Pr. François MAUGUIERE, Directeur de thèse Pr. Philippe RYVLIN, Co-directeur de thèse UNIVERSITE CLAUDE BERNARD - LYON 1 Président de l'Université M. le Professeur L. Collet Vice-président du Conseil Scientifique M. le Professeur J-F. Mornex Vice-président du Conseil d'Administration M. le Professeur G. Annat Vice-président du Conseil des Etudes et de la Vie Universitaire M. le Professeur D. Simon Secrétaire Général M. G. Gay COMPOSANTES SANTE Faculté de Médecine Lyon Est – Claude Bernard Directeur : M. le Professeur J. Etienne Faculté de Médecine Lyon Sud – Charles Mérieux Directeur : M. le Professeur F-N. Gilly UFR d'Odontologie Directeur : M. le Professeur D. Bourgeois Institut des Sciences Pharmaceutiques et Biologiques Directeur : M. le Professeur F. Locher Institut des Sciences et Techniques de Réadaptation Directeur : M. le Professeur Y. Matillon Département de Biologie Humaine Directeur : M. le Professeur P. Farge COMPOSANTES ET DEPARTEMENTS DE SCIENCES ET TECHNOLOGIE Faculté des Sciences et Technologies Directeur : M. le Professeur F. Gieres Département Biologie Directeur : M. le Professeur C. Gautier Département Chimie Biochimie Directeur : Mme le Professeur H. Parrot Département GEP Directeur : M. N. Siauve Département Informatique Directeur : M. le Professeur S. Akkouche Département Mathématiques Directeur : M. le Professeur A. Goldman Département Mécanique Directeur : M. le Professeur H. Ben Hadid Département Physique Directeur : Mme S. Fleck Département Sciences de la Terre Directeur : M. le Professeur P. Hantzpergue UFR Sciences et Techniques des Activités Physiques et Sportives Directeur : M. C. Collignon Observatoire de Lyon Directeur : M. B. Guiderdoni Ecole Polytechnique Universitaire de Lyon 1 Directeur : M. le Professeur J. Lieto Institut Universitaire de Technologie de Lyon 1 Directeur : M. le Professeur C. Coulet Institut de Science Financière et d'Assurance Directeur : M. le Professeur J-C. Augros Institut Universitaire de Formation des Maîtres Directeur : M R. Bernard -2- RESUME en français Chez un patient épileptique, aucun examen ne permet la délimitation exacte de la zone épileptogène (ZE) qui est définie par la zone corticale nécessaire à la genèse des crises. Dans les épilepsies du lobe temporal (ELT), près d'un tiers des patients ne sont pas libres de crises après la chirurgie en dépit d'un bilan préopératoire concluant. La tomographie par émission de positons (TEP) au [18F]MPPF permet la mise en évidence de zones d'hypofixation qui sont, à l'échelle du groupe, corrélées à l'épileptogénicité du parenchyme cérébral. Afin d'évaluer la validité de la TEP au [18F]MPPF pour identifier la ZE au plan individuel, une première nous avons comparé l'analyse visuelle et statistique par SPM de la TEP au [18F]FDG à la TEP au [18F]MPPF en termes de sensibilité et de spécificité chez 42 patients souffrant d'une ELT en cours de bilan préchirurgical. Dans une seconde étude nous avons développé une méthode d'analyse statistique d'un index d'asymétrie (IA) de la fixation du [18F]MPPF [BPND] et comparé les rendements de cette nouvelle approche à l'analyse standard SPM des images TEP en utilisant deux seuils statistiques différents (p< 0,05, corrigé au niveau du voxel et p< 0,05, corrigé au niveau du cluster) chez 24 patients opérés et guéris de leur ELT. Dans une troisième étude nous avons évalué, au niveau du groupe, l'influence d'un état dépressif sur le BPND du [18F]MPPF chez 24 patients souffrant d'une ELT. Ces trois études ont permis les conclusions suivantes : i) dans des conditions d'analyse identiques, La TEP au [18F]MPPF est supérieure au [18F]FDG pour identifier le lobe épileptogène chez des patients souffrant d'une ELT, ii) L'analyse de l'IA, avec un seuil à p< 0,05 corrigé au niveau du cluster, est la meilleure technique d'analyse de la TEP au [18F]MPPF et permet l'identification de la ZE avec une sensibilité de 96% et une spécificité de 88% dans l'ELT, iii) A l'échelle du groupe, un état dépressif est responsable d'une -3- augmentation du BPND du [18F]MPPF dans les noyaux du raphé et l'insula controlatérale à la ZE. ______________________________________________________________________ TITRE en anglais Brain serotoninergic 5-HT1A receptor study using [18F]MPPF PET neuroimaging in the context of temporal lobe epilepsy ______________________________________________________________________ RESUME en anglais In patients suffering from epilepsy, no neuroimaging method has proved able to delineate the epileptogenic zone (EZ), which is defined by the area of cortex required to generate the epileptic seizures. About one third of patient suffering from temporal lobe epilepsies (TLE) are not seizure free after surgery after removal of the cortical area supposed to included the EZ according to the presurgical evaluation. Data from previous studies carried out in our departement suggested that decreases of the [18F]MPPF binding potential (BPND) correlated, at the group level, with cortical epileptogenicity. Our aim was to validate the relevance of [18F]MPPF PET at the individual level for identifying the EZ in TLE. In a first study, the [18F]MPPF PET of 42 patients suffering from TLE were visually and statistically analyzed and compared with [18F]FDG PET, which were performed in the same group of patients during their presurgical evaluation. In a second study, we developed a voxel based analysis of asymmetry index (AI) of [18F]MPPF binding and compared the sensibility and specificity of this method to those of conventional SPM analysis of [18F]MPPF PET data. This second study was carried out in 24 patients, who have been operated and remained seizure-free after surgery. Two statistical thresholds (p< 0.05 corrected at the voxel level and p< 0.05 corrected at the cluster level) were used for each -4- method. In a last study, the correlation between the depressive symptoms and the BPND of [18F]MPPF was studied in 24 patients suffering from TLE. These three studies lead to the following conclusions: i) [18F]MPPF PET is more performant than [18F]FDG PET for identifying the epileptogenic lobe in patients suffering from TLE, ii) AI analysis with a statistical threshold of p< 0.05 corrected at the cluster is the method of analysis of [18F]MPPF PET that allowed EZ identification with the best sensitivity [96%] and specificity [88%] in TLE, iii) at the group level, depressive symptoms positively correlate with an increase of the BPND of [18F]MPPF BPND within the raphe nuclei and the insula controlateral to the EZ. ______________________________________________________________ DISCIPLINE Neurosciences ______________________________________________________________________ MOTS-CLES TEP, [18F]MPPF, récepteurs 5-HT1A, sérotonine endogène, épilepsie. PET, [18F]MPPF, 5-HT1A receptors, endogenous serotonin, epilepsy. ______________________________________________________________________ INTITULE ET ADRESSE DE L'U.F.R. OU DU LABORATOIRE INSERM - U879 Intégration centrale de la douleur chez l'Homme Hôpital Pierre Wertheimer, 59 Bd Pinel, 69677 Bron, France. INSERM - U821 Dynamique Cérébrale et Cognition Centre Hospitalier Le Vinatier, 95 Bd Pinel, 69500 Bron, France. -5- -6- - Remerciements - M. le Pr. Michel BAULAC, vous m'avez fait l'honneur d'accepter de présider le jury d'évaluation de ce travail. Trouvez ici l'expression de ma profonde reconnaissance. M. le Pr Franck SEMAH, je vous prie d'accepter tous mes plus sincères remerciements pour votre implication dans l'évaluation de ce travail. Je vais, grâce à vos remarques, pouvoir me pencher sur l'étude des échelles de couleurs en portant une attention particulière à l'échelle « arc-en-ciel » M. le Pr Patrick VAN BOGAERT, je vous remercie chaleureusement pour votre participation à l'évaluation de ce travail. Je vous suis particulièrement reconnaissant pour votre cordialité et votre disponibilité. M. le Dr Alexander HAMMERS. Cher Alexander, mille mercis pour ton implication dans ce travail. Je souhaite que tu trouves ici toute ma reconnaissance pour le plaisir que j'ai à travailler en ta compagnie. Je souhaite que nous ayons encore de nombreuses occasions de se retrouver sur des projets communs de neuroimagerie. Merci d'avoir poussé ta compassion jusqu'à soutenir ton habilitation à diriger des recherches le même jour que moi. Je te promets de tout faire pour progresser en anglais -7- M. le Pr François MAUGUIERE. L'achèvement de ce travail est pour moi l'objet d'une satisfaction qui se teinte cependant d'un peu de nostalgie. Comme vous le savez, il marque la fin de l'aventure que fut mon arrivée à Lyon à l'occasion de mon master de Neurosciences. Je voudrais que vous trouviez ici toute la gratitude que j'ai pour le soutien indéfectible que vous m'avez apporté. Partager votre travail qu'il soit clinique ou scientifique est aussi agréable que passionnant. Je souhaite vous témoigner l'expression de ma plus respectueuse amitié. M. le Pr Philippe RYVLIN, Mille mercis Philippe pour ton accompagnement au cours de ce travail. Tu as su me transmettre ton appétit pour l'étude des examens TEP et je souhaite ardemment avoir l'opportunité de poursuivre avec toi cette aventure de neuroimagerie qui me passionne autant que toi. Je t'adresse ici mes plus chaleureux remerciements et te prie de croire en toute mon amitié. -8- À Amélie, Sandrine, Jérôme, Anthonin, Nicolas, Franck, Christian et toute l'équipe du CERMEP. Vous m'avez initié aux subtilités de la recherche scientifiques et admirablement toléré les questions inappropriées d'un indécrottable clinicien. Merci aussi pour votre engagement et votre investissement dans ce travail. À mes Collègues du Centre de Référence des Syndromes Neurologiques Paranéoplasiques. Merci à Géraldine, Véronique, Gaëlle et Martine ! Vous m'avez accompagné de votre gentillesse durant cet épisode de vie troglodyte et permis de passer deux super années. À François, Stéphanie et Jérôme. Mille mercis de m'avoir accueilli dans votre petite famille durant ces deux années. En Neuroonco, qu'est ce qu'on rigole ! Je vous prie de croire à toute mon amitié. À mes Confrères et Amis lyonnais. Je vous remercie de rendre, par votre gentillesse et votre sympathie, le quotidien professionnel parfois rude toujours supportable (voir délicieusement déconnant). -9- À mes Parents à qui je dois d'avoir su me transmettre, par l'exemple qu'est leur vie, les valeurs qui sont aujourd'hui les miennes. Vous avez tout mon Amour. À Nicolas et Caroline que je voudrais voir plus souvent et qui gardent une place toujours aussi grande dans mon coeur. - 10 - Je dédie ce travail à ma chère épouse Anouck qui a réussi l'exploit de me supporter et me soutenir vaillamment au cours de ces cinq années où le travail est, bien souvent, passé avant elle. A Pierre, Baptiste et Guillaume, mes trois turbulentes merveilles. - 11 - - 12 - TABLE DES MATIERES Liste des Figures et Tableaux ________________________________________________ 17 Liste des principales abréviations : ____________________________________________ 18 Introduction ______________________________________________________________ 19 La sérotonine et ses récepteurs chez l'Homme___________________________________ 21 Rôle des récepteurs 5-HT1A :_____________________________________________________24 Relations entre epilepsie et sérotonine _______________________________________ 26 Rôle de la sérotonine sur l'épilepsie _______________________________________________26 Modulation du système sérotoninergique par l'épilepsie : ______________________________29 Rôle des récepteurs 5-HT1A ______________________________________________________31 Imagerie TEP des récepteurs 5-HT1A : _________________________________________ 34 Principe de la tomographie par émission de positons (TEP) :____________________ 34 Les radiotraceurs des récepteurs 5-HT1A : ___________________________________ 38 Estimation de la densité en récepteurs 5-HT1A : _______________________________ 39 Méthode d'aquisition de la TEP au [18 F]MPPF _______________________________ 42 La modélisation des données TEP au [18F]MPPF _____________________________________43 Modélisation simplifiée avec courbe de référence tissulaire _____________________________47 Normalisation et lissage ________________________________________________________49 Place de la neuroimagerie dans le bilan des épilepsies pharmacorésistantes___________ 52 Détermination de la zone épileptogène chez un patient épileptique _______________ 52 Apport de la neuroimagerie _______________________________________________ 56 L'imagerie par résonnance magnétique (IRM) cerebrale _______________________________57 La scintigraphie cérébrale ictale et inter-ictale par emission monophotonique (SPECT) _______58 La magnéto-électroencéphalographie (MEG) ________________________________________58 La tomographie par émission de positons (TEP)______________________________________59 - 13 - Objectifs _________________________________________________________________ 65 Intérêt de l'analyse visuelle de la TEP au [18F]MPPF ____________________________ 67 Méthodes_______________________________________________________________ 68 Patients _____________________________________________________________________68 Témoins_____________________________________________________________________68 IRM ________________________________________________________________________68 Vidéo Stéréo-électroencéphalographie _____________________________________________69 TEP au [18F]FDG _____________________________________________________________70 Étude de la TEP au [18F] MPPF __________________________________________________70 Chirurgie de l'épilepsie _________________________________________________________70 Classification syndromique de l'epilepsie___________________________________________71 Analyse des examens TEP au [18F]MPPF ___________________________________________71 Résultats _______________________________________________________________ 73 Analyse visuelle ______________________________________________________________73 Analyse statistique voxel à voxel _________________________________________________74 Corrélation entre diminution du BPND du [18F]MPPF et zone épileptogène _________________74 Discussion ______________________________________________________________ 75 Analyse statistique de cartes d'index d'asymétrie du [18F] MPPF dans l'épilepsie du lobe temporal _________________________________________________________________ 91 Construction des cartes d'index d'asymétrie _________________________________92 Construction d'un modèle symétrique de carte d'asymétrie _____________________________92 Analyse de l'index d'asymétrie :__________________________________________________93 Rôle de l'effet de volume partiel et de la normalisation dans la construction des cartes d'IA _________________________________________________________________________ 98 Automatisation de la procédure d'analyse __________________________________ 105 Application de l'analyse de l'Index d'Asymétrie à l'épilepsie du lobe temporal _______ 116 - 14 - Methodes______________________________________________________________ 117 Patients ____________________________________________________________________117 Témoins____________________________________________________________________118 Analyse statistique des images de BPND et d'index d'asymétrie _________________________118 Interprétations des images paramétriques de BPND et des cartes d'IA ____________________120 Sensibilité et spécificité________________________________________________________120 Résultats ______________________________________________________________ 121 Analyse standard _____________________________________________________________121 Analyse de l'index d'asymétrie__________________________________________________122 Comparaison des analyses visuelles, SPM standard et IA______________________________122 DISCUSSION__________________________________________________________ 123 Avantages de la méthode d'analyse de l'IA ________________________________________123 Influence de la dépression sur la fixation du [18F]MPPF chez les patients souffrant d'épilepsie du lobe temporal ________________________________________________ 161 Méthodes______________________________________________________________ 162 Résultats ______________________________________________________________ 163 Discussion _____________________________________________________________ 164 DISCUSSION GENERALE ________________________________________________ 184 CONSIDERATIONS METHODOLOGIQUES ______________________________ 185 Rôle de l'effet de volume partiel et de la normalisation _______________________________185 Les différentes méthodes d'analyse_______________________________________________186 L'analyse voxel à voxel de l'IA _________________________________________________188 Choix du Z-max pour la définition de la spécificité __________________________________188 Script d'automatisation de la procédure d'analyse ___________________________________190 CONSIDERATIONS CLINIQUES ________________________________________ 192 Application à l'epilepsie du lobe temporal _________________________________________192 Application aux autres epilepsies ________________________________________________193 - 15 - Interaction entre épilepsie et dépression ___________________________________________194 La diminution du BPND [18F]MPPF reflète-t-elle la ZE ? ______________________________195 PERSPECTIVES _______________________________________________________ 196 Amélioration de l'évaluation des methodes d'analyse de la TEP au [18F]MPPF ____________196 Références ______________________________________________________________ 198 ANNEXES ______________________________________________________________ 226 Classification post-chirurgicale des Epilepsies selon Engel _____________________ 227 Script d'automatisation de la fabrication des cartes de BPND et d'IA ___________ 228 - 16 - LISTE DES FIGURES ET TABLEAUX !"#$%&'(')'*+%$,+$%&'-./0,$/1"%&'2&'/1'30%.+.4"4& 555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555556( 718/&1$'(')'!1-"//&3'2&'%0,&9+&$%3'30%.+.4"4&%#":$&3;'%12"./"#1423;'/.,1/"31+".4'&+'%</&35555555555555555555555555555555555555555556= !"#$%&'6')'*,>0-1'2$'%</&'2&3'1$+.%0,&9+&$%3'&+'2&3'%0,&9+&$%3'9.3+?3@419+":$&3'A?B7(C 555555555555555555555555555555555555555556A 718/&1$'6')'D</&3'2&3'%0,&9+&$%3'A?B7(C'2143'/&3'-.2E/&3'14"-1$F'2G09"/&93"&'H2G19%E3'I1#2@'&+'1/5'6JJKL 5555== !"#$%&'=')'*,>0-1'2&3'2"MM0%&4+3'0N04&-&4+3'&4',.O4,"2&4,&'20+&,+03'91%'$4&',1-0%1'P'9.3"+.435555555555555555555555555=Q !"#$%&'R')'D&9%03&4+1+".4'2&3'2"MM0%&4+&3',.43+14+&3'2&'M/$F'&4+%&'/&'9/13-1'&+'/&',.-91%+"-&4+'2&'%0M0%&4,&' H,&%N&/&+L'2G$4&'91%+'&+'/&',.-91%+"-&4+',"8/&'H/G>"99.,1-9&L'2G1$+%&'91%+5555555555555555555555555555555555555555555555555555555555555555555555RJ !"#$%&'A')'*,>0-1'2&3'2"MM0%&4+&3'S.4&3',.%+",1/&3'"-9/":$0&3'2143'/G09"/&9+.#04E3&5555555555555555555555555555555555555555555555555555AR !"#$%&'Q')'*,>0-1'2&3'2"MM0%&4+&3'0+$2&3555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555QQ !"#$%&'K')'*,>0-1'2&'/1',.43+%$,+".4'2&'/1',1%+&'2G"42&F'2G13@-0+%"&5 55555555555555555555555555555555555555555555555555555555555555555555555555555555555TA !"#$%&'U')'D&9%03&4+1+".4'3,>0-1+":$&'2&'/G"42&F'2G13@-0+%"&''HV5C5L',>&S'$4'91+"&4+'2.4+'/G1,+"N"+0'2143'$4&' %0#".4'P'2%."+&'&3+'3$90%"&$%&'P'3.4'3@-0+%":$&'P'#1$,>&555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555TA !"#$%&'T')'C41/@3&'*WX'2$',.4+%13+&'70-."43'-."43'W1+"&4+555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555TQ !"#$%&'(J')'D&9%03&4+1+".4'2&3'2&$F',.4+%13+&3'2&'/1',1%+.#%19>"&'2&'/G"42&F'2G13@-0+%"&5555555555555555555555555555555555555555TK !"#$%&' ((')' *,>0-1' 2&3' %03$/+1+3' .8+&4$3' 9.$%' /&3' >"99.,1-9&3' &4' M.4,+".4' 2&3' -0+>.2&3' 2&' ,1/,$/' 2&' /G13@-0+%"&55555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555(JJ !"#$%&' (6')' X&3$%&3' 2$' IWYZ' 2$' [(U!\XWW!' >"99.,1-9":$&' &+' "42&F' 2G13@-0+%"&' ,>&S' (6' 91+"&4+3' 1N&,' $4&' 09"/&93"&'+&-9.%.?-03"1/&5 5555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555 (J6 !"#$%&'(=')']1/&$%3'-.@&44&3'2&3'IWYZ' 2$'[(U!\XWW!'2&3'>"99.,1-9&3'4.4'09"/&9+":$&3'&+'09"/&9+":$&3'2143' /&3'3.$3?#%.$9&3'2&'91+"&4+3'1N&,'&+'3143'3,/0%.3&'>"99.,1-9":$&5 5555555555555555555555555555555555555555555555555555555555555555555555555555555555555(J= !"#$%&'(R')'D&9%03&4+1+".4'2&'/1'3&43"8"/"+0'&+'390,"M","+0',.-91%0&3'2&3'-0+>.2&3'2G141/@3&'3+1421%2'&+'2&3' "42&F'2G13@-0+%"&555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555(UK !"#$%&'(A')'3,>0-1' 2&3' 2"MM0%&4+&3' S.4&3' 2G&F,"+18"/"+0',.%+",1/&'&+'/&$%'%199.%+'P'/1'2"-"4$+".4' 2$'IWYZ'2$' [(U!\XWW! 555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555555(TJ - 17 - LISTE DES PRINCIPALES ABREVIATIONS : 5-HIAA : acide 5-hydroxy-indol- magnétique acétique Le : lésion épileptogène 5-HT : sérotonine ou 5-hydrotryptamine KO : knock-out 5-HTT : transporteur de la sérotonine MAO : monoamine oxydase ACTH : hormone adrénocorticotrope MEG : magnéto-encéphalographie AMT : alpha méthyl-tryprophane ROI : région d'intêret BPND : potentiel de liaison (non displaceable SEEG : stéréo-élecrto-encéphalographie binding potential) SH : sclérose hippocampique ddp : densité de probabilité SNC : système nerveux central EEG : électro-encéphalographie SNP : système nerveux périphérique ELT : épilepsie du lobe temporal SPM : Statistical Parametric Mapping ETM : épilepsie temporo-mésiale SRTM : modèle simplifié avec [18F]FCWAY : [18F]-trans-4-fluoro-N-2-[4-(2- référence tissulaire (simple reference methoxyphenyl)piperazin-1-yl-ethyl]-N-(2- tissue model) pyridyl)cyclohexanecarboxamide TAC : courbe temps activité (time [18F]FDG : [18F]-fluorodeoxyglucose activity curve) [18F]MPPF : [18F]-[4-(2'-methoxyphenyl)-1-[2'- TEP : tomographie par émission de (N-2-pyridinyl)-p-fluorobenzamido]-ethyl- positons piperazine] TPH : tryptophane hydroxylase GABA : acide !-aminobutyrique TTX : tétrodoxine GH : hormone de croissance (growth hormon) ZD : zone de départ des crises IA : index d'asymétrie ZE : zone épileptogène IMAO : inhibiteur de la monoamine ZI : zone irritative oxydase ZS : zone symptomatogène IRM : imagerie par résonance - 18 - Introduction ___________________________________________________________________________ INTRODUCTION Les techniques de neuro-imagerie fonctionnelle permettent l'évaluation in vivo du fonctionnement du cerveau humain à travers l'étude de son débit sanguin, du métabolisme glucidique ou de l'expression de différents récepteurs neuronaux. Parmi les nombreux traceurs comportant un marqueur radioactif et qui permettent l'étude du parenchyme cérébral par la tomographie par émission de positons (TEP), le [4-(2'methoxyphenyl)-1-[2'-(N-2-pyridinyl)-p-fluorobenzamido]-ethyl-piperazine] ([18F]MPPF) est synthétisé et disponible au sein du Centre d'Etudes et de Recherches Médicales par Emission de Positons (CERMEP – Imagerie du vivant). Le MPPF se fixe sur un sous-type de récepteurs de la sérotonine : les 5-HT1A. Ce récepteur, de par les liens physiopathologiques établis entre système sérotoninergique et épileptogénèse, est un bon candidat à l'étude des patients épileptiques. Lorsque cela est possible, la résection de la zone du cerveau impliquée dans le départ des crises, appelée zone épileptogène (ZE), vise à la guérison des manifestations critiques. Cependant, les moyens de délimiter la ZE gardent à ce jour un niveau important d'imprécision. Cela justifie que les données de plusieurs techniques d'exploration soient habituellement recoupées pour circonscrire au mieux la localisation et les limites de la ZE. Enfin, certaines de ces méthodes, comme la stéréo-électroencéphalographie ou les enregistrements intra-crâniens par électrodes corticales de surface, sont invasives et ne peuvent être réalisées en routine hors de centres spécialisés. - 19 - Introduction ___________________________________________________________________________ Les patients souffrant d'une épilepsie temporale sont actuellement ceux qui tirent le plus grand bénéfice de la chirurgie de l'épilepsie. Ce syndrome épileptique est de plus bien caractérisé sur le plan clinique et paraclinique, notamment pour son sous-type impliquant la face mésiale du lobe temporal : l'épilepsie temporo-mésiale (ETM). Après avoir précisé la physiologie de la sérotonine, notamment au sein du système nerveux central, les caractéristiques de l'épilepsie du lobe temporal seront détaillées ainsi que l'état des connaissances relatives aux relations entre sérotonine et épileptogénèse. Enfin, le dernier chapitre de cette partie théorique sera consacré aux méthodes de délimitations, invasives et non invasives, de la ZE. La seconde partie, expérimentale, reposera sur trois études dont les objectifs nous sont apparus complémentaires et qui ont été réalisées dans une population de patients souffrant d'épilepsie du lobe temporal. La première fait suite aux précédents travaux conduit dans notre équipe de recherche, lesquels suggèrent l'existence d'une corrélation spatiale entre la ZE et les régions où la fixation spécifique du [18F]MPPF est diminuée [Merlet, et al., 2004a]. Cette première étape compare, à l'échelle individuelle, l'analyse visuelle de la TEP au [18F]FDG, à celle de la TEP au [18F]MPPF et à l'analyse SPM de ce dernier examen. La seconde étude a permis la mise au point d'une analyse statistique automatisée des TEP au [18F]MPPF utilisable en routine clinique lors du bilan préopératoire des épilepsies. La troisième étude, réalisée au niveau du groupe, étudie l'impact des symptômes dépressifs, première comorbidité rencontrée chez les patients épileptiques, sur la fixation cérébrale du [18F]MPPF chez les patients présentant une épilepsie du lobe temporal. - 20 - Rappels théoriques ___________________________________________________________________________ LA SEROTONINE ET SES RECEPTEURS CHEZ L'HOMME La sérotonine est au centre de la régulation des comportements. Elle joue un rôle clef dans la régulation du rythme circadien, les comportements alimentaires, les émotions, les comportements moteurs ou les tâches cognitives. Sa découverte remonte aux années trente, au niveau du système digestif [Erspamer et Vialli, 1937] où la sérotonine fut identifiée comme une substance prokinétique provoquant la contraction des muscles lisses. L'équipe de Vittorio Erspamer isola à partir des cellules entérochromaffines de l'intestin une nouvelle molécule capable de contracter les muscles lisses qu'elle nomma « entéramine » [Erspamer et Vialli, 1937]. Par la suite, une substance sérique appelée 5hydroxytryptamine ou sérotonine (5-HT) fut identifiée pour ses propriétés vasomotrices [Rapport, et al., 1948]. La structure chimiquede la sérotonine fut déterminée l'année suivante [Rapport, 1949] (cf. Figure 1) et sa synthèse organique fut réalisée en 1951 [Hamelin et Fisher, 1951]. C'est à cette époque que ces deux molécules furent reconnues comme identiques et prirent le nom commun de sérotonine [Erspamer et Asero, 1952]. Figure 1 : Structure moléculaire de la sérotonine - 21 - Rappels théoriques ___________________________________________________________________________ Sur le plan neuroendocrinien, le thalamus régule via la sérotonine la sécrétion d'hormones par l'adénohypophyse et notamment l'ACTH (adrenocorticotropin hormon), la prolactine et la GH (growth hormon). La sérotonine favorise aussi la libération de CRH (corticotropin-releasing hormon) à partir des noyaux paraventriculaires de l'hypothalamus. La sérotonine est le précurseur de la mélatonine et à ce titre participe à la régulation du rythme circadien. La pluralité des effets centraux et périphériques de la sérotonine est la conséquence du nombre de récepteurs spécifiques différents mis en évidence. Le recensement des sous-types spécifiques de récepteurs sérotoninergiques débuta dans les années 70. Bradley, et al. [1986] proposèrent en 1986 une première classification à partir de données pharmacologiques et physiologiques. Les techniques de biologie moléculaire permirent ensuite une identification plus exhaustive des différents récepteurs à la sérotonine. Une classification fut établie en 1993 par le Serotonin Club Receptor Nomenclature Comittee sur la base des informations opérationnelles, structurelles et transductionnelles disponibles pour chaque récepteur [Humphrey, et al., 1993]. Sept familles de récepteurs 5-HT sont différenciées à ce jour et la classification est amendée au fur et à mesures des avancées dans la connaissance de ces récepteurs [Barnes et Sharp, 1999, Hoyer, et al., 1994, Hoyer, et al., 2002, Hoyer et Martin, 1997]. Barnes et Sharp établirent en 1999 la liste et les fonctions des sept familles de récepteurs 5-HT mises en évidence à ce jour. (Tableau 1) - 22 - Rappels théoriques ___________________________________________________________________________ Tableau 1 : Familles de récepteurs sérotoninergiques, radioligands, localisation et rôles. Il est précisé dans la deuxième colonne si le récepteur est couplé à une protéine G (PG) ou à un canal ionique (ION). SNC : système nerveux central, SNP : système nerveux périphérique. - 23 - Rappels théoriques ___________________________________________________________________________ ROLE DES RECEPTEURS 5-HT1A : Les récepteurs de la famille 5-HT1 ont été initialement définis et individualisés du fait de leur haute affinité pour la sérotonine marquée au 3H dans le cortex du rat et de leur faible affinité pour la spiperone [Peroutka et Snyder, 1979]. Les propriétés pharmacologiques communes de cette famille ont été rapportées par Bradley [Bradley, et al., 1986] : ces récepteurs sont activés par le 5-CT (5carboxamidotryptamine), respectivement inhibés et stimulés par la méthiothépine et le méthysergide. Enfin, ces récepteurs ne sont pas bloqués par les antagonistes sélectifs des récepteurs 5-HT2 et 5-HT3. Le gène codant pour ce récepteur a été le premier à être complètement séquencé et est situé chez l'humain sur le chromosome 5 (5 q11.2-q13). Les récepteurs 5-HT1A sont couplés à une protéine G et ont deux effets distincts : inhibition de l'activité de l'adényl cyclase et ouverture des canaux potassiques, responsable d'une hyperpolarisation neuronale [Hoyer, et al., 2002]. Les récepteurs 5-HT1A sont présents au sein du système nerveux central en situation pré-synaptique sur les corps cellulaires de noyaux du raphé mais aussi en post-synaptique, notamment sur les neurones hippocampiques. Anatomiquement, ils se répartissent entre les structures du système limbique, en particulier l'hippocampe, le septum, le gyrus cingulaire et le cortex entorhinal et les noyaux du raphé. Ils sont aussi représentés, bien que plus faiblement, dans l'ensemble du cortex supra-tentoriel. Ces récepteurs sont en revanche pratiquement indétectables dans les ganglions de la base et dans le parenchyme cérébelleux. Les récepteurs 5-HT1A sont aussi représentés au niveau du tube digestif. Les récepteurs 5-HT1A se différencient des autres représentants de cette famille par leurs propriétés pharmacologiques. Ainsi des agonistes sélectifs ont pu être développés. - 24 - Rappels théoriques ___________________________________________________________________________ Figure 2 : Schéma du rôle des autorécepteurs et des récepteurs post-synaptiques 5HT1A A. Noyaux du raphé : la fixation de sérotonine sur les auto-récepteurs situés au niveau du corps neuronal des récepteurs sérotoninergiques inhibe la production du potentiel d'action. B. Au niveau des projections sérotoninergiques (principalement dans le système limbique), la sérotonine libérée au niveau de la terminaison axonale des neurones sérotoninergiques se fixe sur des récepteurs post-synaptiques, provoquant l'hyperpolarisation de la cellules en aval. - 25 - Rappels théoriques ___________________________________________________________________________ L'hyperpolarisation neuronale consécutive à l'afflux intracellulaire de potassium secondaire à l'activation des récepteurs 5-HT1A serait responsable de l'action anti-épileptique de ces derniers [Andrade et Nicoll, 1987, Beck et Choi, 1991, Okuhara et Beck, 1994]. Relations entre epile psie et sé ro tonine Durant les dernières années, de nombreux travaux expérimentaux sont venus confirmer l'existence d'interactions étroites entre le système sérotoninergique et l'épilepsie [Bagdy, et al., 2007]. Par ailleurs plusieurs antiépileptiques ont effet sur le système sérotoninergique. Ces différentes interactions sont décrites en distinguant successivement le rôle de la sérotonine sur l'épilepsie et le rôle de cette dernière sur le système sérotoninergique. ROLE DE LA SEROTONINE SUR L'EPILEPSIE Les modèles animaux L'étude de modèles animaux a permis de mettre en évidence l'effet anticonvulsivant de la sérotonine. Dans de nombreux modèles d'épilepsie, le système sérotoninergique joue un rôle modulateur. Dans la grande majorité des cas, les molécules responsables d'une élévation de la sérotonine extracellulaire, comme le 5-hydroxytryptophane ou les inhibiteurs de la recapture de la sérotonine, inhibent à la fois les crises focales et généralisées [Loscher, 1984, Prendiville et Gale, 1993, Yan, et al., 1994]. Une diminution de la sérotonine cérébrale donne un effet inverse et provoque une diminution du seuil de déclenchement des crises audiogènes et provoquées par stimulation chimique ou électrique [Browning, et al., 1978, Statnick, et al., 1996]. Cependant, des effets contradictoires ont été décrits dans des modèles d'épilepsie généralisée. Ainsi, il a été constaté une sensibilité accrue aux crises dans les modèles de - 26 - Rappels théoriques ___________________________________________________________________________ rongeurs génétiquement disposés lors de l'exposition à des agonistes des récepteurs sérotoninergiques [Buterbaugh, 1978,Filakovszky, et al., 1999,Kilian et Frey, 1973]. Certains modèles d'épilepsie apparaissent plus directement que d'autres concernés par le système sérotoninergique et notamment le modèle de rat bicuculline [Prendiville et Gale, 1993], le rat WAG/Rij, qui est un modèle génétique validé de l'épilepsie absence chez l'Homme [Graf, et al., 2004,Jakus, et al., 2003,Loscher et Schmidt, 1988], et les modèles de crises audiogéniques chez le rats [Dailey, et al., 1989,Jobe, et al., 1973] ou la souris [Brennan, et al., 1997,Tecott, et al., 1995]. Le modèle murin d'épilepsie myoclonique est associé à une profonde déplétion sérotoninergique dans l'ensemble du cerveau, exception faite du striatum [Welsh, et al., 2002]. Dans le cas particulier du modèle d'épilepsie absences atypiques chez le rat traité par le AY-9944, il a été constaté des taux élevés d'acide 5-hydroxyindolacétique et de sérotonine tout comme une altération du recyclage de la sérotonine ce qui suggère une altération de la neurotransmission sérotoninergique [Bercovici, et al., 2006]. L'inhibition par la galanine des neurones sérotoninergiques dans les noyaux du raphé aggrave les états de mal épileptiques limbiques induits par stimulations électriques dans des modèles murins [Mazarati, et al., 2005]. Par ailleurs, les phénomènes d'embrasement (kindling) sont retardés chez le rat [Lerner-Natoli, 1987, Schmitz, et al., 1998] et le chat [Wada, et al., 1992] lorsque la recapture de la sérotonine est inhibée. Cette activité est sous-tendue par l'action des récepteurs 5-HT1A comme cela est démontré en utilisant des agonistes spécifiques de ces récepteurs (8-OHDPAT) [Wada, et al., 1993]. L'injection de ce même agoniste au niveau de l'hippocampe diminue la fréquence des crises chez les rats-kaïnate [Gariboldi, et al., 1996] ou les ratsbicuculline [Salgado-Commissariat et Alkadhi, 1997]. - 27 - Rappels théoriques ___________________________________________________________________________ Les médicaments sérotoninergiques Les inhibiteurs sélectifs de la recapture de la sérotonine (ISRS) modifient la transmission sérotoninergique à travers leur effet sur une vaste gamme de récepteurs pré et post-synaptiques qui ont chacun des potentiels de fixation et de dissociation différents. Cela explique l'effet pro- ou anti-épileptique qui est constaté selon les doses administrées. De plus, l'augmentation de la libération de sérotonine ou l'activation de ces récepteurs peut conduire à la libération d'autres neurotransmetteurs qui seront à leur tour responsables d'effets indirects. L'effet thérapeutique des IRSR va donc dépendre de la résultante entre des effets opposés sur l'excitabilité neuronale [Theodore, 2003]. Globalement, les médicaments responsables d'une augmentation de la sérotonine intracérébrale exercent un effet anticonvulsivant sur divers modèles animaux [Dailey, et al., 1992,Wada, et al., 1993,Watanabe, et al., 1998,Yan, et al., 1994,Yan, et al., 1995]. Cet effet apparaît, là encore, dépendant des récepteurs 5-HT1 [Lu et Gean, 1998]. La fluoxetine est un inhibiteur hautement sélectif de la recapture de la sérotonine. Cette molécule prévient l'apparition de crises induite par la bicuculline, que la fluoxétine soit injectée en périphérie [Prendiville et Gale, 1993] ou directement dans la substance noire [Pasini, et al., 1992]. L'effet anti-épileptique de la fluoxétine au sein de la substance noire apparaît résulter d'une augmentation de l'action de la sérotonine endogène à ce niveau et ce par son action sur plusieurs types de récepteurs sérotoninergiques [Pasini, et al., 1996]. Le blocage de la recapture de la sérotonine par la fluoxétine est responsable d'une diminution de la durée et d'une augmentation du seuil de déclenchement des post-décharges dans des modèles d'épilepsie par embrasement de chats ou de rats [Wada, et al., 1993]. Il est démontré une potentialisation de l'effet anti-épileptique de la phénytoïne et de la carbamazépine par la fluoxétine dans le cas de souris présentant des crises toniques induites par des stimulations électriques [Leander, 1992]. Dans un autre modèle de souris présentant des crises, la - 28 - Rappels théoriques ___________________________________________________________________________ fluoxétine accroit le pouvoir anti-épileptique de la carbamazépine, de la diphénylhydantoïne, du valproate et du phénobarbital [Borowicz, et al., 2006]. Cet effet est confirmé par la dose d'anti-épileptique nécessaire à diminuer de moitié le nombre de crises. Cette dose nécessaire se révèle en effet inversement corrélée à la dose de fluoxétine administrée. Le prétraitement de souris par de la fluoxétine a permis une augmentation significative du taux de survie à 60 mn après injection de pentylenetetrazole, tout comme la durée de survie et la latence d'apparition des crises [Magyar, et al., 2003]. Des résultats similaires ont été observés avec un métabolite de la fluoxétine (la norfluoxétine) sur ce même modèle murin [Kecskemeti, et al., 2005]. L'administration à long terme de fluoxétine permet une inhibition des crises hippocampiques déclenchées par stimulations électriques chez le rat [Wada, et al., 1995]. Cependant, l'effet au long court de la fluoxétine a été étudié chez des souris présentant une épilepsie partielle et par ailleurs traitées par des doses stables de phénytoïne [Raju, et al., 1999]. Non seulement la fluoxétine n'a démontré dans ce cas aucun effet anti-convulsivant mais plutôt un effet proconvulsivant. MODULATION DU SYSTEME SEROTONINERGIQUE PAR L'EPILEPSIE : Les modèles animaux et vérifications anatomiques Si certaines chimiothérapies anticonvulsivantes ont précocement démontré leur responsabilité dans l'augmentation de la sérotonine cérébrale [Bonnycastle, et al., 1956], les effets des crises sur les récepteurs 5-HT semblent très divers selon le type d'épilepsie. L'étude d'un modèle génétique d'épilepsie généralisée (Genetically Epilepsy-Prone Rats) chez le rat montre une diminution globale de la concentration de la sérotonine intracérébrale [Dailey, et al., 1992]. Sa recapture et sa synthèse sont aussi diminuées - 29 - Rappels théoriques ___________________________________________________________________________ [Statnick, et al., 1996a,Statnick, et al., 1996b] ; les récepteurs 5-HT1A sont diminués concomitamment. Sur les modèles d'épilepsie temporale par embrasement chez le rat, on constate une augmentation focale bilatérale des récepteurs 5-HT1A dans les hippocampes. Chez l'Homme, la sérotonine et son métabolite (l'acide 5-hydroxyindolacétique) sont augmentés dans la zone épileptogène et notamment au sein des régions riches en pointes intercritiques sur l'électroencéphalographie pré-opératoire. Cette démonstration a été apportée par l'étude des pièces de lobectomie temporale chez les patients bénéficiant d'une chirurgie de l'épilepsie [Louw, et al., 1989,Pintor, et al., 1990]. Les médicaments anti-épleptiques L'acide valproïque, la lamotrigine, la carbamazépine, la phénytoïne, le zonisamide élèvent tous le taux de base de la sérotonine ou stimulent sa libération [Ahmad, et al., 2005,Dailey, et al., 1997,Okada, et al., 1992]. Cet effet est d'ailleurs considéré comme participant aux propriétés anti-épileptiques de ces médicaments. Ainsi, les effets des médicaments anti-épileptiques sur la sérotonine ont été étudiés sur le rat génétiquement prédisposé à l'épilepsie généralisée (Genetically Epilepsy-Prone Rats) par microdialyse. Il a été démontré une corrélation positive entre effet anti-épileptique du médicament et le taux extracellulaire de sérotonine [Dailey, et al., 1997]. Les effets de la lamotrigine, de la phénytoïne et de la carbamazépine sur les taux extracellulaires de sérotonine et de dopamine basaux et après stimulation ont été étudiés [Ahmad, et al., 2005]. L'effet de ces drogues sur la libération de sérotonine apparaît aussi dépendre du taux de base de cette dernière. - 30 - Rappels théoriques ___________________________________________________________________________ ROLE DES RECEPTEURS 5-HT1A Les différentes études détaillées dans les paragraphes précédents établissent un rôle antiépileptique à la sérotonine. Au sein du système sérotoninergique, les récepteurs 5-HT1A jouent un rôle particulier dans cet effet antiépileptique. Les différentes expérimentations qui contribuent à définir ce rôle sont rapportées dans le tableau 2. La grande majorité de ces études, réalisées sur des modèles animaux, confère aux récepteurs 5-HT1A un rôle protecteur à l'égard du développement des crises et de l'épileptogénèse au sein du parenchyme cérébral. Les molécules antagonistes de ces récepteurs ont quant à elle un effet délétère et favorise l'émergence des crises d'épilepsie. Ces effets apparaiassent reproductibles dans différents modèles d'épilepsie, que ce soit chez le rat, la souris ou des préparations histologiques isolées. Une unique étude chez la souris se révèle négative [Middlemiss et Fozard, 1983] et il est mis en évidence un effet aggravant de la stimulation des récepteurs 5-HT1A sur l'épilepsie dans un modèle d'épilepsie généralisée chez le rat [Filakovszky, et al., 1999, Filakovszky, et al., 2001, Gerber, et al., 1998]. Il a par ailleurs été démontré une interdépendance du rôle de ces récepteurs avec les récepteurs glutamatergiques dans ce même modèle. - 31 - - 32 - Rappels théoriques ___________________________________________________________________________ Tableau 2 : Rôles des récepteurs 5-HT1A dans les modèles animaux d'épilepsie (d'après Bagdy et al. 2007) Les études qui mettent en évidence un effet facilitateur des récepteurs 5-HT1A sont reportées en italiques. Toutes les autres études plaident en faveur d'un effet protecteur de la mise en jeu de ces récepteurs. 8-OH-DPAT : agoniste sélectif des récepteurs 5-HT1A (effet conjoint sur les récepteurs !1 et 5-HT7). MES : Maximal electroshock Antagonistes des récepteurs 5-HT1A : WAY-100135 : N-tert-butyl-3-(4-(2-methoxyphenyl)piperazin-1-yl)-2-phenylpropanamide; piperazinyl]ethyl]-N-2-pyridinyl WAY-100635 : cyclohexane-carboxamide methoxyphenyl)-4-[4–2(2-phthalimmido)butyl]pipérazine. - 33 - N-[2-]4-(2-methoxyphenyl)-1maleate; NAN-190 : 1-(2- IMAGERIE TEP DES RECEPTEURS 5-HT1A : Princi pe de la tom ographie par émiss ion de positons (TEP ) : La TEP est une technique d'imagerie fonctionnelle radio-isotopique, permettant après l'administration à dose traceuse d'une molécule biologique marquée par un isotope radioactif émetteur de positons, l'étude in vivo du fonctionnement du corps humain. Le principe de la TEP repose sur les caractéristiques physiques de radio- isotopes à courte demi-vie, émetteurs de positons [Houdé, et al., 2002]. Le positon (e+) est l'antiparticule de l'électron. Les isotopes utilisés en TEP sont principalement l'oxygène 15, l'azote 13, le carbone 11 et le fluor 18, dont les demi-vies sont respectivement de 2, 10, 20 et 110 minutes. Ce sont des éléments radioactifs instables qui libèrent un positon lors de leur retour à l'équilibre. Le positon, après un court trajet dans la matière (de l'ordre du millimètre, dépendant de l'énergie de libération de l'isotope), rencontre un électron libre (e-). Ces particules s'annihilent, laissant place à 2 photons gamma possédant deux caractéristiques essentielles: une énergie identique (511 keV) et une direction opposée à 180°. La caméra TEP détecte ces paires de photons gamma émis lors de l'annihilation au moyen de scintillateurs disposés en couronne autour de l'organe cible (Figure 3). Ainsi, les deux photons émis lors d'une annihilation sont recueillis en coïncidence temporelle par le couple de scintillateurs placés sur la ligne de réponse. La lumière secondaire émise par les scintillateurs est amplifiée par des photomultiplicateurs et transformée en signal électrique. Ces deux détecteurs sont munis d'un dispositif de coïncidence temporelle permettant de recueillir les détections coïncidence. La fenêtre de coïncidence est de l'ordre de quelques nanosecondes. En effet, avec la caméra TEP que nous avons utilisée, la transduction du signal photonique n'est pas assez rapide pour prendre en considération le temps de vol respectif des deux photons gamma entre le point de l'annihilation positonique et chacun des deux détecteurs. La détection de ces deux photons gamma dans une fenêtre de coïncidence est - 34 - appelée un "événement". Trois types d'évènements peuvent être détectés (Figure 3): - les événements dit « vrais » provenant de la même annihilation, pour lesquels les photons gamma ont suivi une trace directe jusqu'aux détecteurs sans interaction avec la matière traversée, - les événements « diffusés », pour lesquels au moins l'un des deux photons a subi une interaction avec la matière, ce qui a provoqué une déviation de sa trajectoire, - les événements « fortuits» se produisent lorsque deux photons provenant de deux annihilations différentes survenues quasiment au même instant sont captés par deux photorécepteurs dans la même fenêtre temporelle de coïncidence. - 35 - Figure 3 : Schéma des différents événements en coïncidence détectés par une caméra à positons. A. les photons gamma (!) sont représentés par les flèches qui partent dans des directions opposées à partir du point d'annihilation, B. Coïncidence vraie, C. Coïncidence fortuite, D. Coïncidence diffusée Il existe plusieurs techniques pour distinguer ces différents types d'événements en coïncidence et obtenir une estimation des seules coïncidences vraies. Pour corriger le nombre total d'événements fortuits, une fenêtre de coïncidence dite « retardée » est utilisée afin d'éliminer les arrivées multiples de photons simples pour lesquelles la résolution temporelle du système ne permet pas de déterminer s'ils proviennent de la même annihilation. La correction des événements diffusés est plus complexe et s'effectue par seuillage sur l'énergie d'arrivée des photons simples (350 KeV) ; les photons diffusés ont une énergie plus faible que les photons initiaux. Cette correction est complétée par l'évaluation du taux d'évènements diffusés à partir de la mesure d'atténuation tissulaire (mesure de transmission effectuée par une source émettrice de positons externe, 68Ge). En effet, un autre phénomène, l'atténuation, perturbe le parcours des photons dans le cerveau. Afin d'obtenir une mesure quantitative de la radioactivité locale, il est nécessaire de connaître l'atténuation subie par les photons le long des lignes de réponses, or les photons ne parcourent pas la même distance à travers le cerveau. Pour corriger cette atténuation, une mesure de « transmission » est effectuée, elle consiste à faire tourner une source externe au cerveau, calibrée, émettrice de positons (68Ge) autour du sujet et à recueillir les photons simples qui traversent les tissus. Ainsi une carte d'atténuation tenant compte de la densité des tissus traversés (cerveau, crâne) et des matériaux (lit, support de tête) peut être reconstruite. Cette mesure prend 10 minutes et est réalisée en début d'un examen TEP. - 36 - Notons que l'activité du radioélément injecté décroît avec le temps, une correction de cette décroissance est donc nécessaire. La reconstruction des images est effectuée à partir du comptage des coïncidences vraies sur chaque ligne de réponse. Les deux principales catégories d'algorithmes de reconstruction sont la rétroprojection filtrée et la reconstruction itérative. La rétroprojection filtrée présente l'avantage d'être rapide, facile et assez satisfaisante dans le cas de fixations de traceur relativement homogènes. Néanmoins, elle est connue pour amplifier le bruit statistique inhérent aux données acquises. A la fin de cette reconstruction, le nombre d'annihilations de positons a été converti en chaque point du cerveau en unité de radioactivité. Cependant, d'autres phénomènes peuvent affecter les images TEP : l'effet du volume partiel et les mouvements du sujet. L'effet de volume partiel résulte des deux aspects de la résolution spatiale. Le premier est lié à la résolution spatiale limitée du tomographe (entre 3 et 10 mm) et le second est lié à l'échantillonnage des images sur une grille de pixels. Ainsi, la petite taille de certaines structures associée à cette résolution spatiale limitée de la TEP produit un phénomène de dispersion de l'activité réelle au niveau de ces structures (une partie de l'activité de ces structures sera située en dehors de ces structures) et par conséquent la perte d'une partie de l'information sur la concentration (qui est sous-estimée) (spill-out effect). En dehors de la structure, l'effet de volume partiel entraîne une sur-estimation des concentrations dues à la contamination des structures voisines (spillover effect). En TEP cérébrale, l'effet de volume partiel peut se traduire par une contamination des régions cérébrales de forte radioactivité sur celles de faible radioactivité et par une mesure de radioactivité réduite dans les structures cérébrales de petite taille comme les noyaux du raphé. En effet, les études menées chez les sujets sains concluent à un volume du raphé mesuré à partir des images fonctionnelles en TEP de [18F]MPPF de l'ordre de 400 mm3. Bien que peu d'études aient été réalisées sur l'anatomie du raphé dorsal chez l'Homme, la taille réelle de cette structure serait - 37 - en fait environ 8 fois inférieure [Underwood, et al., 1999]. Ceci prouve que la taille apparente de cette structure sur les images TEP dépasse la taille réelle de la structure anatomique, et suggère qu'un effet de volume partiel en altère les mesures. Plusieurs méthodes de correction de l'effet de volume partiel ont été développées, dont la méthode de Geometric Transfer Matrix (GTM). Cette méthode repose sur la connaissance de la fonction de réponse de l'imageur dans le domaine spatial et des contours des structures dans l'image TEP au moyen d'une image anatomique (Imagerie par Résonance Magnétique (IRM) recalée sur l'image TEP. Elle permet l'extraction des courbes d'activité temporelles réelles des structures étudiées à partir de l'information anatomique fournie par l'IRM. La qualité des images TEP peut aussi être dégradée par les mouvements du sujet luimême. Ces mouvements sont de deux types : les mouvements involontaires du sujet pendant l'acquisition des images et les mouvements physiologiques, tels que la respiration. La méthode la plus répandue de correction de ces mouvements est une méthode de correction algorithmique basée sur le réalignement de chaque séquence (frame) d'émission sur une cible. Les radiotraceu rs des ré cepteu rs 5- HT 1A : Un premier radioligand a été développé par Pike et al [Pike, et al., 1996] en 1996 : le [11C]WAY-100635. Il s'agit d'un antagoniste spécifique des récepteurs 5-HT1A. Le second, le [18F]-(2'-methoxyphenyl-(N-2''-pyridinyl)-p-fluoro-benzamido-ethylpiperazine ([18F]MPPF) a été élaboré en 1997 [Shiue, et al., 1997]. Sa synthèse, initialement complexe, a été simplifiée par Le Bars et al en 1998 au CERMEP [Le Bars, et al., 1998]. Le traceur utilisé dans notre laboratoire présente l'avantage d'être marqué au 18F dont la demi-vie radioactive est de 110 minutes soit 5,5 fois plus longue que celle du WAY100635 marqué au 11 C. De plus, son affinité pour les récepteurs 5-HT1A (Kd = 3,3 nM) est - 38 - proche de celle de la sérotonine endogène [Le Bars, et al., 1998] contrairement au WAY dont la forte affinité aux récepteurs le rend peu sensible aux variations de sérotonine endogène. La corrélation entre répartition en récepteurs 5-HT1A et marquage par le MPPF a été démontrée par des études réalisées chez le chat et le rat [Ginovart, et al., 2000,Le Bars, et al., 1998,Plenevaux, et al., 2000a,Plenevaux, et al., 2000b]. Le [18F]MPPF permet ainsi de rendre compte de la perte neuronale hippocampique subie dans l'épilepsie du cortex limbique comme cela a été démontré chez le rat kaïnate [Van Bogaert, et al., 2001]. Estimation de la densité en réce pteu rs 5- HT 1 A : La tomographie par émission de positons encéphalique permet d'acquérir des images reflétant la présence d'un traceur radioactif au sein du parenchyme cérébral et de ses différentes enveloppes. Ce signal radioactif est le reflet à un temps donné de la présence du traceur. De cette activité brute, il convient d'en déduire la composante informative soit l'activité radioactive correspondant à la fixation spécifique du traceur sur le récepteur 5-HT1A. Cette activité est en effet surchargée par le rayonnement du traceur présent dans le compartiment vasculaire et de celui se situant dans le parenchyme mais non lié aux récepteurs. Le modèle habituel d'évaluation de la fixation spécifique d'un radioligand à des récepteurs implique la réalisation de prélèvements artériels. Cette méthode invasive est difficilement applicable dans le cadre de protocole cliniques chez des patients. Une méthode d'évaluation simplifiée, ne nécessitant pas de prélèvement artériel, a été développée par Gunn [Innis, et al., 2007] pour le WAY puis validée dans notre laboratoire par Costes [Costes, et al., 2002] pour le [18F]MPPF. - 39 - Ce modèle distingue trois compartiments distincts (Figure 4) : le compartiment vasculaire, le compartiment où le ligand est présent de manière aspécifique (ligand libre et ligand fixé de manière aspécifique) et un dernier compartiment où le ligand se fixe de manière spécifique aux récepteurs 5-HT1A . Figure 4 : Représentation des différentes constantes de flux entre le plasma et le compartiment de référence (cervelet) d'une part et le compartiment cible (l'hippocampe) d'autre part. Au sein de chaque compartiment, le ligand est réparti entre fraction libre (free), fraction liée de manière aspécifique aux récepteurs (NS) et fixation spécifique (Specific) pour le tissu cible. Gunn a démontré que, pour un radioligand franchissant la barrière hématoencéphalique de manière non saturable et sans métabolite actif au sein du parenchyme cérébral, l'évolution de la radioactivité spécifique de la fixation du ligand aux récepteurs au cours du temps peut être exprimée comme : ( ) CT(t) = RICR(t) + k2 – (RIk2) /(1+BP) CR(t) ! e-(k2/(1+BP) + ")t, - 40 - où Cr(t) est l'activité radioactive en fonction du temps au sein de la région de référence, Ct(t) est l'activité radioactive en fonction du temps au sein de la région cible, BP est le potentiel de fixation, k2 est la constante de flux de sortie du ligand de la région cible, R1 exprime le rapport entre les constantes de flux d'entrée dans la région cible sur la région de référence (= K1/K'1), ! est la constante de radioactivité du traceur du ligand et " représente l'opération de convolution. Cette relation permet de déduire les valeurs de BP, k2 et R1 pour une région cible donnée à partir de la comparaison de la radioactivité de cette dernière au cours du temps avec celle enregistrée dans une région de référence. - 41 - Acquisition de la TEP au [18F]MPPF ___________________________________________________________________________ Métho de d'aq uisition de la TEP au [ 18 F]MPP F Toutes les acquisitions TEP effectuées au cours de ce travail ont été réalisées sur une caméra CTI-SIEMENS HR+ (Knoxville, TN, USA), pendant l'après-midi, au CERMEPimagerie du vivant à Lyon. Le sujet est allongé en état de repos sensoriel dans la salle d'examen et un masque thermoformable est modelé sur son visage afin de limiter les mouvements de la tête pendant l'acquisition. Avant le début de l'examen, une mesure de transmission de 10 minutes est effectuée. Puis, un bolus d'environ 200 MBq de [18F]MPPF (2,7 MBq par kilo de poids) est injecté par voie intraveineuse périphérique, sur 30 secondes environ, suivi d'une rinçure par du sérum physiologique. Pour l'injection du radiotraceur, un cathéter intraveineux est placé dans la veine radiale du bras gauche. Pour une haute activité spécifique de 1 Ci/!mol, ceci correspond à une quantité maximale de [18F]MPPF injecté de 2,5 !g (5nmol), soit pour un individu de 60 kg, 0.042 !g/kg. L'acquisition dynamique des images radioactives du cerveau commence immédiatement après l'injection et dure 60 minutes. Pendant l'acquisition, l'absence d'endormissement est contrôlé par le personnel paramédical. Après reconstruction, une séquence dite « dynamique » est obtenue. Elle regroupe 35 acquisitions successives ou «frames» décomposées en 15 frames de 20 s, 15 frames de 120 s et 5 frames de 300 s. Ces images sont corrigées du diffusé et de l'atténuation, et reconstruites par une méthode de rétroprojection filtrée 3D (Hanning filter) pour fournir un volume de 63 coupes jointives de 128 x 128 voxels de 2,01 x 2,01 x 2,42 mm2. La résolution spatiale est d'environ 4 mm dans le centre du champ de vue. Ces images TEP brutes de radioactivité sont ensuite transformées en images quantifiées de BP du [18F]MPPF aux récepteurs 5-HT1A à partir d'un modèle simplifié à référence tissulaire à trois compartiments (SRTM, Simple Reference Tissue Model) [Gunn, et - 42 - Acquisition de la TEP au [18F]MPPF ___________________________________________________________________________ al., 1998]. Ces images quantifiées pourront être statistiquement analysées soit voxel à voxel soit par régions d'intérêt (ROI). LA MODELISATION DES DONNEES TEP AU [18F]MPPF Après son injection, le radioligand se répartit dans le cerveau en traversant la barrière hémato-encéphalique. Dans le cas où le radioligand est un agoniste ou un antagoniste d'un récepteur, il va se fixer sur les récepteurs correspondants en entrant en compétition avec le neurotransmetteur endogène. Au moment de l'acquisition, la fixation du ligand dépend donc du nombre de récepteurs disponibles et de la compétition avec le neurotransmetteur endogène. Des cartes de disponibilité de récepteurs peuvent ainsi être obtenues. La TEP permet l'acquisition continue du signal radioactif cérébral une période de 60 minutes. La série d'images fournie par la TEP permet une extraction régionale des courbes tissulaires cérébrales de l'activité radioactive (Time activity curves TAC). L'objet de la modélisation est de transformer cette mesure cinétique de radioactivité en une mesure quantitative des paramètres régissant les échanges ligand- récepteur au niveau local, voire au niveau du voxel. L'interaction ligand-récepteur repose sur la reconnaissance spécifique du ligand par le récepteur. Cette liaison est spécifique, réversible et donc saturable. Il n'y a en effet qu'un nombre limité de récepteurs dans une synapse. La modélisation in vivo des interactions ligand-récepteurs découle de la modélisation in vitro de ces interactions, mais en diffère pour plusieurs raisons : l'apport du ligand se fait par voie intraveineuse (nécessité d'inclure la cinétique du ligand entre la circulation sanguine et les récepteurs), la concentration de ligand libre (F) n'est pas constante, la concentration du ligand sous forme liée (B) n'est pas accessible directement par la mesure, une partie du ligand est métabolisée et - 43 - Acquisition de la TEP au [18F]MPPF ___________________________________________________________________________ le système ne contient plus un seul compartiment cible mais éventuellement d'autres compartiments non-spécifiques. Les modèles compartimentaux sont le « gold standard » de la modélisation de ces interactions. Ils permettent l'étude de la cinétique de produits entre différents systèmes. Ces modèles sont constitués d'un nombre fini de compartiments liés les uns aux autres par des vitesses d'échange de produits et par des constantes d'équilibre. Ces modèles se formulent mathématiquement par des équations différentielles qui permettent de calculer la dynamique des produits au cours du temps et les échanges entre les différents compartiments. Pour modéliser l'interaction ligand-récepteur in vivo, Delforge a proposé un modèle compartimental répondant aux exigences de la modélisation in vivo [Delforge, et al., 1996]. Ce modèle comporte 4 compartiments. Le premier compartiment représente la concentration de ligand libre dans le plasma et les trois autres compartiments ont la même signification que dans le modèle in vitro : concentration tissulaire du ligand libre, du ligand spécifiquement ou non spécifiquement fixé à ses récepteurs. Dans ce modèle, la liaison non spécifique est supposée non saturable. De plus, si les échanges avec le compartiment non spécifique sont rapides et atteignent un état d'équilibre par rapport à la liaison spécifique, le modèle peut être réduit à 3 compartiments. Le problème majeur de la quantification in vivo des interactions ligand- récepteurs est l'incertitude concernant la concentration réelle de ligand libre. Il est donc nécessaire d'ajouter deux variables supplémentaires à ce modèle pour l'imagerie TEP. Ces deux variables sont la fraction f1 de ligand plasmatique libre susceptible de traverser la barrière hémato-encéphalique et la fraction f2 de ligand du compartiment libre disponible pour effectuer la fixation spécifique du ligand sur son récepteur. f1 et f2 représentent des fractions de volume et sont sans unité mais de dimension ml.ml-1. Ainsi K1 = f1.k1 - 44 - Acquisition de la TEP au [18F]MPPF ___________________________________________________________________________ k2 = k2 k3= f2.konB'max k4= koff Où kon : constante d'association du ligand-récepteur (min-1) koff : constante de dissociation (min-1) B'max : concentration de récepteurs spécifiques potentiellement disponibles (pmol.cm-3) La résolution et donc l'identification des paramètres de ce modèle à 4 compartiments sont particulièrement compliquées. Trois stratégies sont possibles : 1) réaliser une première modélisation chez l'animal de la cinétique du ligand dans une expérience de multi-injection permettant la résolution complète du système d'équations différentielles puis valider une simplification des protocoles chez l'homme, 2) Réaliser une expérience de multi-injection chez l'homme, dans le respect des contraintes de dosimétrie, de toxicologie et de temps d'examen, 3) simplifier ce modèle pour permettre une identification plus accessible des paramètres restants. Pour le [18F]MPPF une identification complète des paramètres du modèle a été menée à l'aide d'une expérience de multi-injection chez l'homme [Costes, et al., 2002]. Le modèle à 4 compartiments a été simplifié en modèle à 3 compartiments (cf. Figure 26). Ces compartiments sont le compartiment plasmatique, le compartiment contenant la fraction de radioligand libre et le compartiment contenant la fraction de radioligand lié de façon spécifique aux récepteurs. - 45 - Acquisition de la TEP au [18F]MPPF ___________________________________________________________________________ Il convient de remarquer que dans ce type de modélisation compartimentale de la répartition tissulaire du traceur, le volume de réaction, Vr, est défini par le rapport entre la concentration moyenne de ligand dans le tissu et la concentration locale de ligand au voisinage des récepteurs. Vr ne peut être estimé séparément de kon : seul le rapport kon/Vr peut être estimé. De la même façon, seul le produit KdVr peut être estimé. Le paramètre Vr prend en compte l'effet d'une possible liaison non spécifique incluse dans le compartiment « ligand libre ». Dans les conditions d'un modèle tri-compartimental, la cinétique du radioligand est évaluée dans les différents compartiments et des équations différentielles décrivent les modifications des concentrations dans ces compartiments : dCf/dt = K1 . Ca – (k2 + k3)Cf + k4 . Cb et dCb/dt = k3 . Cf – k4 . Cb où Cf : concentration tissulaire de ligand libre pouvant se lier Ca : concentration de ligand libre dans le sang traversant la barrière hématoencéphalique Cb : concentration tissulaire de ligand lié aux récepteurs Le relevé des cinétiques régionales de la distribution du [18F]MPPF, ainsi que la connaissance de la fonction artérielle mesurée par une voie artérielle périphérique a permis de résoudre le système et donner une évaluation fiable des paramètres du modèle compartimental. Ainsi, une étude TEP au [18F]MPPF en multiinjection a permis cette validation chez 5 sujets sains et a déterminé la densité des récepteurs disponibles (Bmax en pmol/cc), les vitesses d'association et de dissociation de la fixation aux récepteurs 5-HT1A (kon et koff en min -1) ainsi que la vitesse de passage de la barrière hémato-encéphalique (k1 et k2 en min -1) [Costes, et al., 2002]. - 46 - Acquisition de la TEP au [18F]MPPF ___________________________________________________________________________ MODELISATION SIMPLIFIEE AVEC COURBE DE REFERENCE TISSULAIRE Une simplification importante a été trouvée en considérant une région tissulaire de référence dépourvue de récepteur spécifique du traceur étudié. Ce type de modèle permet seulement la quantification d'une partie des paramètres du modèle compartimental complet. Pour résoudre le système d'équations différentielles de ce modèle simplifié, plusieurs stratégies ont été développées. L'une repose sur une représentation graphique paramétrique de Logan [Logan, 2000] élaborée à partir des TAC des régions cibles et des TAC de la région de référence. Ce graphe paramétrique est utilisé pour mettre en évidence une linéarisation de la courbe à l'équilibre. Les paramètres de l'asymptote de cette courbe sont liés aux paramètres du modèle compartimental. Une autre stratégie s'appuie sur une solution analytique du système simplifiée (voir ci-dessous). Il s'agit du modèle SRTM [Gunn, et al., 1998]. Ces approches sont basées sur la construction de courbes temporelle de concentration de traceur dans une région d'intérêt cible Croi(t) et dans une région de référence Cref(t). La méthode de Logan permet une estimation du paramètre du volume de distribution et le modèle SRTM que nous utilisons, permet, quant-à-lui, une estimation des paramètres BP, k2 et R1 (rapport des K1 dans la région cibles et dans la région de référence). Le BP vise à déterminer cette concentration tissulaire en récepteur en prenant en compte de façon linéaire deux paramètres : la densité des récepteurs (Bmax) et l'affinité du radioligand pour le récepteur étudié. Le BP fut tout d'abord défini in vitro par la relation suivante [Mintun, et al., 1984] : BP = Bmax/Kd = Bmax x affinité Puis adapté à l'imagerie TEP par Laruelle (2000) de la façon suivante : BP = k3/k4 = f2konBmax/koff = f2 (Bmax/Kd) - 47 - Acquisition de la TEP au [18F]MPPF ___________________________________________________________________________ Notons que jusqu'à présent, la nomenclature du BP pouvait correspondre à différentes relations, récemment un concensus autour de l'appellation du BP a été fait [Innis, et al., 2007]. Trois différents BP sont distingués : BPF, BPP et BPND [Innis, et al., 2007]. Le BPF se réfère au ratio à l'équilibre entre la concentration de radioligand spécifiquement lié dans le tissu et celle de radioligand libre (free) dans le plasma. Le BPP se réfère au ratio à l'équilibre entre la concentration de radioligand spécifiquement lié et celle de radioligand total dans le plasma. Le BPND se réfère, quant à lui, au ratio à l'équilibre entre la concentration de radioligand spécifiquement lié et celle de radioligand non-déplaçable dans le tissu ; ce BPND est la mesure typique utilisée à partir d'un modèle simplifié avec référence tissulaire. Dans nos études, nous utilisons le BPND. Si fP est la fraction libre plasmatique du ligand : BPF = (VT – VND)/ fP = K1k3 / fPk2k4 BPP = VT – VND = K1k3 / k2k4 BPND = (VT – VND)/ VND = VT / VND – 1 = k3/k4 Où VT / VND est le ratio du volume de distribution, VT : le volume de distribution total et VND : le volume de distribution non-déplaçable. L'utilisation de ces modèles suppose plusieurs hypothèses : (1) il existe une région de référence dans laquelle la concentration de récepteurs est négligeable, (2) l'amplitude de la liaison non-spécifique est la même dans la région de référence et dans les régions d'intérêt, (3) les volumes de distribution dans les compartiments libre et non-spécifique sont les mêmes dans la région de référence et dans les régions d'intérêt et (4) les échanges entre les compartiments libre et non-spécifique sont rapides. Pour nos études, le modèle SRTM à trois compartiments [Gunn, et al., 1998] a été validé pour transformer les images brutes TEP de [18F]MPPF (de radioactivité) en des images quantifiées de la fixation du traceur. - 48 - Acquisition de la TEP au [18F]MPPF ___________________________________________________________________________ Le cervelet contenant peu ou pas de récepteurs 5-HT1A est utilisé comme région de référence et permet d'évaluer la radioactivité non spécifique et les hippocampes sont considérés comme régions d'intérêt cibles, riches en récepteurs 5-HT1A. Dans ce modèle SRTM, par convolution, nous obtenons les TAC pour chaque ROI (CT(t)) selon l'équation suivante [Gunn, et al., 1998]. % RIk 2 " #CR (t) ( e ![ k 2 (1+BP ) + ) ] t CT (t) = RICR (t) + & k 2 ! 1+ BP $ ' où CR(t) représente la TAC dans la région de référence, k2 le flux de sortie du tissu, R1 le rapport entre l'entrée dans la ROI et dans la région de référence : R1=k1/k1', ! la valeur physique de la décroissance de l'isotope (18F) et l'opérateur de produit de convolution. L'application de cette équation opérationnelle à une région de référénce et à la série d'images dynamique TEP, permet d'estimer les trois paramétres k2, R1, et BP et d'obtenir des trois images paramétriques voxel à voxel de k2, R1, et BP pour chaque sujet (cf. Figure 29). Nous utilisons le module Bindimg du logiciel CAPP (Clinical Application Programming Package) pour effectuer cette étape. NORMALISATION ET LISSAGE Pour pouvoir effectuer des comparaisons inter-sujets, ces images paramétriques de BP, R1, k2 sont normalisées spatialement par rapport à un cerveau standard dans un espace stéréotaxique standard (ICBM, International Consortium for Brain Mapping). Pour ce faire, l'image statique de [18F]MPPF de chaque sujet étudié est normalisé au préalable sur l'image template [18F]MPPF du CERMEP (constituée de la moyenne de 45 images statiques normalisées de sujets sains) puis les paramètres de cette matrice de transformation non linéaire sont appliqués aux images de BP, R1, k2. Cette étape déterminante se fait avec le - 49 - Acquisition de la TEP au [18F]MPPF ___________________________________________________________________________ logiciel SPM2 (Statistical Parametric Mapping, SPM2, Wellcome Department of imaging neuroscience, Londres, http://www.fil.ion.ucl.ac.uk/spm/software/). La résolution des images TEP est de l'ordre de 5 mm isotropiques et la taille d'un voxel est de 2x2x2 mm3. Le suréchantillonnage indique qu'il existe une corrélation spatiale entre les voxels adjacents. Pour tenir compte de cette résolution et imposer la distribution gaussienne de cette corrélation, les images de BP, R1, k2 normalisées sont lissées à l'aide d'un filtre Gaussien isotropique. Cette stratégie permet en outre (1) de réduire la variabilité anatomique interindividuelle et le bruit introduit par la normalisation et (2) d'augmenter la sensibilité de l'analyse statistique [Friston, et al., 1991]. Pour l'ensemble des études réalisées dans le cadre de ce travail, le modèle simplifié SRTM avec comme tissu de référence la substance blanche du cervelet a été utilisé pour transformer les images brutes en images quantifiées en estimant la valeur du BPND du [18F]MPPF [Innis, et al., 2007]. Les images paramétriques de BPND obtenues ont été normalisées et lissées dans un espace stéréotaxique standard à l'aide du logiciel SPM2. Classiquement, l'analyse de ces images de BP, R1, k2 du [18F]MPPF normalisées et lissées peut être de trois types : visuelle, par régions d'intérêt (ROIs) et voxel à voxel à l'aide du logiciel SPM2. Les différences statistiques entre groupes de sujets sont estimées en utilisant le modèle linéaire généralisé voxel à voxel [Friston, 1995] du logiciel SPM2 et en effectuant une analyse de covariance (ANCOVA) selon un nombre de facteurs prédéfinis. Les voxels présentant une variance anormalement élevée, liée aux facteurs d'intérêts, subissent un test post-hoc de comparaison de moyennes (test de Student) qui détermine si la valeur locale de BP d'un sujet ou d'un groupe est significativement différente d'un autre sujet ou groupe. La densité de probabilité (ddp) des cartes statistiques paramétriques est évaluée, soit au niveau du voxel, tenant compte du Z-score de la comparaison statistique effectuée, soit au niveau du - 50 - Acquisition de la TEP au [18F]MPPF ___________________________________________________________________________ cluster, tenant compte du Z-score du voxel maximum dans le cluster et la taille du cluster considéré. Ces ddp sont calculées à l'aide de formules extraites de la théorie des champs gaussiens aléatoires [Worsley, et al., 1996]. Les valeurs sont considérées comme statistiquement significatives quand leur ddp est inférieure à une valeur fixée par l'opérateur, après correction par le nombre de tests effectués et de la dépendance spatiale des mesures. Certains facteurs, telles que les variations de l'activité globale, l'âge ou le sexe, peuvent être considérées comme covariable de non-intérêt. Dans ce cas, les anomalies significativement différentes entre les groupes ou sujets sont, par définition, supposées indépendantes des variations liées à l'activité globale, l'âge et le sexe. - 51 - Neuroimagerie et zone épileptogène ___________________________________________________________________________ PLACE DE LA NEUROIMAGERIE DANS LE BILAN DES EPILEPSIES PHARMACORESISTANTES Pour plus de la moitié des patients souffrant d'une épilepsie, le traitement médicamenteux permet un contrôle complet des crises sans effets secondaires majeurs ou impact négatif sur la qualité de vie. Pour ces patients, le traitement chirurgical ne se justifie pas. En revanche, lorsque les médicaments anti-épileptiques échouent à contrôler l'épilepsie, la question de l'opérabilité de ces patients se pose [Schuele et Luders, 2008]. C'est au sein de cette population que la définition de la zone épileptogène (ZE) est cruciale. Les patients souffrant d'une épilepsie mésio-temporale représente la plus forte proportion des épilepsies pharmaco-résistantes et sont de bon candidat pour la chirurgie. Cette dernière permet le contrôle des crises et l'amélioration de la qualité de vie de ces patients [Engel, et al., 2003, Sindou, et al., 2006, Trevathan, 2006, Wiebe, et al., 2001]. Cependant, entre 20 et 50% des patients avec EMLT, selon les séries, ne sont pas libres de crises après la chirurgie [Schramm, 2008, Sindou, et al., 2006, Tellez-Zenteno, et al., 2007]. Ce taux d'échec justifie à lui seul la nécessité de disposer de meilleurs outils pour définir la ZE. Détermin ation de la zone épile ptogène chez un patient épileptique La définition de « zone épileptogène » retenue est celle proposée par Rosenow et Lüders en 2001 [Rosenow et Luders, 2001]. - 52 - Neuroimagerie et zone épileptogène ___________________________________________________________________________ La ZE est définie par la région corticale indispensable à la survenue de crises d'épilepsie chez un patient épileptique. Cette zone contient donc les régions cérébrales qui sont à l'origine des crises d'épilepsies ainsi que les régions cérébrales susceptibles de développer secondairement une potentialité épileptogène, après une cortectomie notamment (c-à-d une ZE « potentielle »). À ce jour, la seule approche objective disponible de la ZE est la chirurgie. Ainsi, il est possible d'affirmer que la ZE est incluse dans la région cérébrale réséquée lorsqu'un patient est totalement libre de crise au décours de la chirurgie. La ZE est à distinguer d'autres régions impliquées dans le processus épileptogène (Figure 5) : - la zone symptomatogène (ZS) : il s'agit de la région du cerveau qui, lorsqu'elle activée par la décharge épileptique, produit les symptômes critiques. Elle peut être définie par l'analyse attentive des symptômes cliniques critiques. Plusieur ZS peuvent être successivement ou simultanément mises en jeu au cours du développement de la décharge critique. Certaines ZS peuvent être activée très à distance de la ZE. Dans la grande majorité des cas, il n'existe pas de recouvrement complet de la ZS par la ZE. - la zone irritative (ZI) est la région corticale qui est à l'origine des pointes intercritiques. L'étendue de cette zone peut être évaluée par l'électroencéphalographie et la magnétoencéphalographie (MEG). De façon plus anecdotique, elle peut être évaluée par l'IRM fonctionnelle (IRMf) des pointes interictales. - la zone de départ des crises (ZD) est la région corticale où les crises sont générées. La ZD se différencie de la ZE qui est la région cérébrale indispensable à la survenue de crises. La ZD peut être définie par les enregistrements électro-encéphalographiques intracérébraux et est constituée par les régions cérébrales capables de produire des post-décharges après stimulation électrique intracérébrale. Il s'y associe des pointes - 53 - Neuroimagerie et zone épileptogène ___________________________________________________________________________ répétitives qui peuvent produire des symptômes cliniques lorsqu'elles envahissent des régions corticales éloquentes. Figure 5 : Schéma des différentes zones corticales impliquées dans l'épileptogénèse Le : lésion épileptogène, ZD : zone de départ des crises, ZE : zone épileptogène, ZI : zone irritative, ZS : zone(s) symptomatogène(s). La lésion épileptogène est mise en évidence par les explorations radiologiques. Cependant, dans de nombreux cas, l'IRM cérébrale ne permet pas de circonscrire complètement la lésion et toutes ne sont pas visibles à l'IRM. Par ailleurs, certaines lésions radiologiques ne sont pas épileptogènes. Enfin, la lésion et la ZE ne sont pas nécessairement superposables. En effet, seule une partie de la lésion peut être impliquée dans l'apparition de crises d'épilepsie et la ZE peut s'étendre au delà de la zone lésionnelle. Les limites de l'imagerie morphologique justifient que les informations recueillies par l'analyse électro- - 54 - Neuroimagerie et zone épileptogène ___________________________________________________________________________ clinique des crises d'épilepsie soient étayées par les données de la neuroimagerie fonctionnelle. Le bilan préchirurgical réalisé chez les patients épileptiques pharmaco-résistants a pour but d'identifier la ZE. Cette identification doit être aussi précise que possible quant à la localisation anatomique, l'étendue et les rapports de la ZE avec les régions cérébrales fonctionnelles adjacentes. En effet, c'est sur la base de ces données que sera réalisée la cortectomie dont le but est la disparition des crises d'épilepsie sans sacrifier aucune des fonctions cérébrales. L'identification précise de la ZE détermine directement le type de geste chirurgical chez les patients atteints d'une épilepsie partielle pharmaco-résistante. L'ensemble du bilan préopératoire va donc s'attacher à déterminer les limites de cette ZE. La première étape de ce bilan est l'enregistrement vidéo et électro-encéphalographique de crises au cours d'une vidéo-EEG. L'établissement d'une corrélation électroclinique à partir de cet examen, associé aux données anamnestiques, permet dans la plupart des cas d'identifier une région cérébrale candidate à abriter la ZE. Trois cas distincts se présentent alors à l'issue de ce premier bilan. Premièrement, le syndrome épileptique identifié comporte tous les critères diagnostiques d'une épilepsie éligible au traitement chirurgical et une cortectomie peut être proposée d'emblée. C'est le cas de l'épilepsie temporo-mésiale (ETM) répondant à tous les critères syndromiques ainsi que certaines épilepsies lésionnelles lorsque les caractéristiques cliniques, électriques et iconographiques sont parfaitement congruentes. Dans le second cas, l'option chirurgicale est écartée car l'analyse électro-clinique permet de conclure à l'existence d'une épilepsie pour laquelle soit les ZE sont multiples, soit la ZE est très vaste, soit encore la ZE implique directement et précocement des régions du cerveau fonctionnelles donc inaccessibles à la chirurgie. Dans la troisième situation, qui est la plus courante en dehors du cas particulier de l'ETM, l'enregistrement vidéo-EEG permet - 55 - Neuroimagerie et zone épileptogène ___________________________________________________________________________ d'identifier une ZE potentiellement accessible à un geste de cortectomie mais dont la délimitation est insuffisamment précise pour proposer d'emblée une chirurgie. L'examen de référence pour circonscrire la ZE est l'enregistrement par électrodes intracrâniennes, sous forme de grilles sous-durales [grids] d'électrodes corticales de surface ou d'électrodes intracérébrales implantées par stéréotaxie (Stéréo-Electro-Encéphalographie). Cette limitation technique aux explorations invasives a conduit au développement de techniques non-invasives d'exploration, en premier lieu de neuro-imagerie fonctionnelle. Apport de la neu roimage rie Les différentes techniques de neuroimagerie sont autant d'outils qui permettent d'affiner la localisation de la ZE. Tandis que certaines comme l'IRM sont avant tout morphologiques, d'autres comme le PET ou le SPECT donnent des informations sur l'état d'activité métabolique ou neurochimique du cerveau. C'est la TEP au [18F]FDG qui, historiquement, a été initialement utilisée alors que l'IRM cérébrale n'était pas encore disponible. C'est avec la TEP au [18F]FDG qu'une première grande avancée dans le bilan non invasif préopératoire des épilepsies a été faite. Cet examen permet la mise en évidence d'un hypométabolisme intercritique focal chez des patients dont la tomodensitométrie cérébrale était normale. Cette première approche a permis la mise en évidence d'une région cérébrale « fonctionnellement déficitaire » durant la période intercritique [Luders et Awad, 1991]. Les différentes techniques d'investigations IRM ont ensuite apporté une plus-value morphologique. Ainsi, la proportion d'examens IRM considérés normaux chez un patient épileptique est de plus en plus faible. Cependant, la mise en évidence d'une anomalie morphologique qu'elle soit malformative ou lésionnelle, ne permet en aucun cas d'affirmer que la ZE se limite ou est même concernée par la lésion mise en évidence. Le développement en imagerie TEP de radioligants de récepteurs apporte des informations complémentaires de - 56 - Neuroimagerie et zone épileptogène ___________________________________________________________________________ la morphologie. Ainsi les différents traceurs développés permettent la mise en évidence d'anomalies de la neurotransmission qui reflètent l'hyperexcitabilité neuronale. Cependant, les anomalies mises en évidence ne reflètent pas directement le processus d'épileptogénèse. Les informations obtenues par chaque technique de neuro-imagerie apparaissent donc plutôt comme complémentaires que redondantes [Duncan, 2009]. Les principales techniques de neuroimagerie utilisées dans le cadre du bilan préchirurgical des épilepsies sont rapportées ici avec une attention particulière portée aux différents traceurs PET. L'IMAGERIE PAR RESONNANCE MAGNETIQUE (IRM) CEREBRALE L'IRM est actuellement l'examen iconographique de routine qui permet l'évaluation du parenchyme cérébral chez les patients épileptiques au cours de leur bilan préchirurgical. La rentabilité de cet examen est cependant très dépendante du type de séquences réalisées et de l'interprétateur (spécialisé ou non en épileptologie), ainsi que les propriétés de la machine utilisée. Ainsi, la réalisation d'une IRM cérébrale à 3 teslas permet la mise en évidence d'anomalies, essentiellement des anomalies focales du développement cortical, pour près de 20% des patients épileptiques chez qui l'IRM à 1,5 teslas était considérée normale [Strandberg, et al., 2008]. L'utilisation d'antennes de surface permet de confirmer l'existence de lésions douteuses sur l'IRM standard mais n'augmente pas le taux de détection des anomalies. La tractographie est une technique IRM qui permet de reconstruire les différents faisceaux de substance blanche à partir de l'étude du coefficient d'anisotropie mesurée sur des séquences de diffusion. Il a été démontré que la diminution du nombre de connexions était inversement corrélée aux performances de mémoire verbale chez les patients souffrant d'une - 57 - Neuroimagerie et zone épileptogène ___________________________________________________________________________ épilepsie temporale gauche [Diehl, et al., 2008, Yogarajah et Duncan, 2008]. Ces études n'ont cependant pour lors aucune application clinique en routine. L'enregistrement de l'EEG couplé à l'IRMf permet la mise en évidence de perturbations corticales induites par les crises d'épilepsie [Hamandi, et al., 2008]. LA SCINTIGRAPHIE CEREBRALE ICTALE ET INTER-ICTALE PAR EMISSION MONOPHOTONIQUE (SPECT) La SPECT permet la mesure du débit sanguin cérébral par enregistrement de l'activité de l'hexamethyl propylène amine oxime (HMPAO) marqué avec le [99Tc]. Ce traceur est en effet capté par le parenchyme cérébral proportionnellement au débit sanguin dans chaque région du cerveau. La longue demi-vie du [99Tc] (6 heures) permet une acquisition dans les heures qui suivent l'injection. Cet examen est réalisé en période ictale et interictale. Plus que l'interprétation isolée de ces deux examens, c'est la soustraction de la mesure inter-ictale de celle effectuée au cours d'une crise qui donne des informations sur la localisation de la ZE. Cependant, des études récentes comme celle de Fukuda [Fukuda, et al., 2006] remettent en cause la fiabilité de cette méthode de localisation de la ZE. La fiabilité des résultats de la SPECT est d'autant plus importante que les images de soustractions (ictale – interictale) peuvent être superposées à l'IRM du sujet [Matsuda, et al., 2009] par fusion d'images (SISCOM pour 'Substraction Ictal SPECT COregistred with MRI'). LA MAGNETO-ELECTROENCEPHALOGRAPHIE (MEG) La MEG permet l'enregistrement de champs magnétiques de l'ordre de 100 femtoTesla, produits par le cortex cérébral, avec une fréquence d'échantillonnage temporel supérieure à 1 kHz [Stufflebeam, et al., 2009]. - 58 - Neuroimagerie et zone épileptogène ___________________________________________________________________________ La première indication de la MEG en pratique clinique est l'exploration préchirurgicale des épilepsies pharmaco-résistantes. Cet examen permet la localisation anatomique au sein du cortex cérébral de décharges épileptiques ou d'anomalies intercritiques. L'enregistrement concomitant de la MEG et de l'EEG permet la localisation des anomalies épileptiques [Tang, et al., 2003]. La MEG se révèle plus sensible que l'EEG pour identifier des anomalies épileptiques sur le cortex de la convexité. Il est établi que l'utilisation de la MEG dans le bilan préchirurgical des épilepsies améliore le pourcentage de patients libres de crises et ce indépendamment des autres examens [Knowlton, et al., 2008a, Knowlton, et al., 2008b]. De plus, il a été montré que les informations données par la MEG apparaissent non redondantes de celles obtenues par les autres investigations et ce dans un cinquième à un tiers des évaluations préchirurgicales [Knake, et al., 2006, Sutherling, et al., 2008]. LA TOMOGRAPHIE PAR EMISSION DE POSITONS (TEP) Nous détaillons ici les traceurs qui se sont révélés cliniquement utiles dans le cadre du bilan préchirurgical des épilepsies. Les radioligands des récepteurs cérébraux seront ici différenciés des traceurs métaboliques. En effet, les voies d'action de la grande majorité des neuromédiateurs peuvent maintenant être explorées et permettent une évalutation fonctionnelle du parenchyme cérébral et non plus seulement métabolique, comme c'est le cas avec le [18F]FDG. - 59 - Neuroimagerie et zone épileptogène ___________________________________________________________________________ Radioligands métaboliques [18F]FDG Le premier traceur utilisé, tant chronologiquement que numériquement, est le [18F]FDG. Il traverse la barrière hémato-encéphalique avant d'être phosphorylé à l'intérieur de la cellule dans une proportion corrélée à la glycolyse. La molécule de [18F]FDG est alors piégée dans la cellule et permet l'estimation du métabolisme glucidique du cerveau à un instant donné. Cet examen apparaît d'un intérêt particulier pour les 20 à 25% de patients qui souffrent d'une épilepsie pharmaco-résistante et ont une IRM cérébrale normale. La mise en évidence d'un hypométabolisme focal chez ces patients peut révéler une malformation du développement cortical passé inaperçue ou guider un enregistrement EEG intracérébral. Dans le cas de l'épilepsie du lobe temporal, la sensibilité et la spécificité estimées sont respectivement de 84 et 86% [Spencer, 1994]. La sensibilité et la spécificité sont encore améliorées avec l'étude d'index d'asymétrie [Van Bogaert, et al., 2000]. Il est possible de différencier différents sous-types d'hypométabolisme chez les patients TLE sans cependant mettre en évidence de relation avec le pronostic chirurgical [Chassoux, et al., 2004]. Une méta-analyse récente a démontré la valeur positive sur le pronostique chirurgical de l'existence d'un hypométabolisme focal au sein du lobe temporal pour les patients souffrant de TLE [Willmann, et al., 2007]. De plus, le coût de cet examen apparaît justifié au regard des informations qu'il fournit, notamment lorsque son indication est réservée aux patients dont l'IRM cérébrale et l'EEG de scalp ne sont pas informatifs [O'Brien, et al., 2008]. - 60 - Neuroimagerie et zone épileptogène ___________________________________________________________________________ Radioligands des récepteurs cérébraux Les modifications de la neurotransmission sont actuellement placées au coeur des mécanismes qui sont suspects de présider à l'hyperexcitabilité neuronale. A ce titre, les radioligands des récepteurs sont d'excellents candidats à l'identification de zones d'hyperexcitabilité corticale et, par voie de conséquence, à la délimitation de la ZE. L'interprétation des images obtenues avec ces traceurs se heurtent à deux écueils principaux : la quantification et l'interprétation fonctionnelle des images obtenues. La quantification tout d'abord nécessite d'évaluer la proportion d'activité mesurée qui correspond à une fixation spécifique du radioligand sur le récepteur correspondant. Deux principales techniques sont utilisées : la première requiert des mesures artérielles répétées afin de mesurer l'évolution de l'activité au cours du temps et pouvoir ainsi quantifier celle-ci. Cette échantillonnage du sang artériel permet aussi de calculer les paramètres biologiques qui régulent la liaison du radioligand, comme le sont l'affinité du ligand pour le récepteur (Kd) et la disponibilité de ce dernier (Bmax). Deux méthodes permettent de calculer l'activiter spécifique [Delforge, et al., 1996]. La première consiste à comparer la courbe d'activité en fonction du temps (TAC, time-activity curve) dans une région connue pour être riche en récepteurs à une région de référence dépourvue de ceux-ci. La seconde méthode consiste à réaliser deux fois l'examen, la première en condition standard et la seconde après avoir saturé tous les récepteurs disponibles avec un ligand froid, c'est à dire non marqué. La comparaison d'activité entre ces deux examens permet de calculer l'activité spécifique. La seconde difficulté est l'interprétation des images obtenues. En effet, une fois l'estimation d'une fixation spécifique du radioligand sur son récepteur, les images obtenues doivent être interprétées sur le plan physiopathologique mais une modification identique de la fixation d'un radioligand peut résulter de différents changements biologiques. Ainsi, la diminution de la fixation spécifique d'un radioligand au sein d'une région cérébrale peut - 61 - Neuroimagerie et zone épileptogène ___________________________________________________________________________ résulter de plusieurs mécanismes d'origines physiopathologiques opposées. En effet, une diminution de la fixation du radioligand peut tout aussi bien résulter d'une diminution du nombre de récepteurs disponibles à la surface des neurones soit du fait d'une internalisation, soit d'un déplacement du radioligand par le ligand endogène. Les conclusions physiopathologiques sont alors inverses. [11C]-alpha-methyl tryptophane (AMT) L'AMT est un précurseur de la sérotonine et de la kinurénine. À ce titre, il a été étudié chez des patients épileptiques. L'intérêt de ce traceur a été démontré lorsqu'il existe plus d'un foyer épileptique potentiel, notamment dans le cas de patients souffrant de sclérose tubéreuse de Bourneville [Chugani, et al., 1998,Juhasz, et al., 2003,Kagawa, et al., 2005]. Une étude a montré la grande spécificité d'une augmentation de la fixation du [11C]AMT pour mettre en évidence des malformations occultes du développement cortical chez des enfants souffrant d'une épilepsie pharmacorésistante avec IRM normale [Wakamoto, et al., 2008]. Ce traceur se révèle aussi très performant pour mettre en évidence des hétérotopies périventriculaires [Natsume, et al., 2003]. [11C]-Flumazenil (FMZ) Ce radioligand permet l'étude des récepteurs aux benzodiazépines dont leur densité semble inversement corrélée à la perte neuronale [Henry, et al., 1993 1993, HEISS, 2000]. Cependant, si les diminutions constatées du [11C]FMZ sont bien corrélés à la perte neuronale dans les études auto-radiographiques [Koepp, et al., 1998], la correspondance n'est pas aussi claire in vivo [Koepp, et al., 1997] ce qui laisse à penser qu'une partie des diminutions observées peut refléter des modifications fonctionnelles. Une corrélation a été observée entre l'étendue de la diminution du [11C]FMZ et la fréquence des crises [Savic, et al., 1996] et une - 62 - Neuroimagerie et zone épileptogène ___________________________________________________________________________ normalisation des anomalies au décours d'une chirurgie efficace [Savic, et al., 1998]. Cependant, certains cas de fausses latéralisation ont été mises en évidences [Koepp, et al., 2000,Ryvlin, et al., 1998] et ces dernières semblent labiles au cours du temps [Ryvlin, et al., 1999]. Ce radioligand apparaît donc intéressant pour étudier les régulations à court terme des récepteurs aux benzodiazépines [Bouvard, et al., 2005] mais est d'utilisation délicate dans le cadre du bilan préchirurgical des épilepsies et peut être source d'erreur car sa fixation semble dépendante du délai séparant la dernière crise de l'acquisistion des données TEP. Marqueurs des récepteurs opioïdes : [11C]Diprenorphine et [11C]Carfentanil L'intérêt qui est porté aux marqueurs des récepteurs opioïdes dans l'épilepsie résulte de la mise en évidence d'un système anticonvulsivant endogène chez l'Homme, médié par les récepteurs opioïdes. La libération de peptides opioïdes survient lors de la phase de résolution des crises d'épilepsie. Le premier radioligand utilisé dans l'étude de ces récepteurs chez les patients épileptiques est le [11C]Carfentanil qui est un agoniste des récepteurs morphiniques !. La fixation de ce radioligand est augmentée au sein du lobe épileptogène de patients souffrant d'ELT [Frost, et al., 1988,Mayberg, et al., 1991]. Ces modifications concernent le néocortex temporal, adjacent aux structures temporo-mésiales. La [11C]Diprenorphine, un autre radioligand ciblant les récepteurs morphiniques ", # et, à un moindre degré !, a aussi été étudié. Une discrète diminution de la fixation de ce radioligand dans une petite proportion des patients avec une ELT a, cette fois ci, été mise en évidence [Frost, et al., 1990,Mayberg, et al., 1991,Theodore, et al., 1992]. Une diminution de la fixation de la [11C]Diprenorphine a aussi été mise en évidence dans les absences induites par l'hyperventilation [Bartenstein, et al., 1993]. Comme avec chaque traceur d'un récepteur, l'interprétation physiopathologique qui est faite peut être plurielle. La diminution de la fixation de la [11C]Diprenorphine au sein de la - 63 - Neuroimagerie et zone épileptogène ___________________________________________________________________________ région pariéto-temporo-occipitale gauche de patients souffrants d'épilepsie à la lecture a été ainsi interprétée comme un déplacement du radioligand par une libération d'opioïdes endogènes au moment de la crise [Koepp, et al., 1998]. Une étude récente met en évidence l'existence d'une augmentation de la disponibilité des récepteurs opioïdes subséquemment à des crises spontanées chez l'Homme [Hammers, et al., 2007]. - 64 - Objectifs de recherche OBJECTIFS Le but de notre travail est d'évaluer la nature du lien qui existe entre l'expression des récepteurs 5-HT1A et la zone épileptogène dans l'épilepsie du lobe temporal. Poursuivant les précédents travaux portant sur ce sujet, nous nous attacherons à étudier cette relation sur le plan individuel et non pas seulement à l'échelle du groupe. Différentes approches méthodologiques seront évaluées afin de déterminer celle qui est la plus adaptée à la pratique clinique quotidienne. Ainsi, dans une première étude, nous avons étudié l'intérêt de l'analyse visuelle rapportée à l'analyse statistique voxel à voxel. Nous comparerons au cours de cette même étude l'intérêt relatif du [18F]MPPF et du radiotraceur de référence, le [18F]FDG, dans l'identification de la ZE. La seconde étude est consacrée à l'évaluation d'une nouvelle approche d'analyse individuelle des données TEP par index d'asymétrie. Cette méthode d'analyse a été comparée à l'analyse standard. Pour chacune de ces méthodes d'analyse, l'intérêt pratique dans le cadre du bilan préchirurgical de l'épilepsie du lobe temporal a lui aussi été évalué. La dernière étude fut consacrée à l'effet sur la fixation du [18F]MPPF de la comorbidité psychiatrique principale associée à l'épilepsie du lobe temporal : la dépression. Nous avons étudié au niveau du groupe les modifications que cette pathologie peut engendrer sur les résultats de la TEP au [18F]MPPF et discuterons son éventuel retentissement sur les conclusions du bilan pré-chirurgical. Pour conduire ces différentes études, nous avons utilisé les examens TEP au [18F]MPPF réalisés chez 42 patients inclus prospectivement dans notre base de données entre 2001 et 2006. Tous ces patients présentaient une épilepsie pharmacorésistante et ont accepté - 65 - Objectifs de recherche de réaliser cet examen TEP au cours de leur bilan d'évaluation préchirurgicale. Parmi les 148 patients qui ont bénéficié d'un examen TEP au [18F]MPPF durant la période d'inclusion (2001 à 2006), seuls les 42 patients avec un diagnostic établi d'ELT ont été retenus pour ces différentes études (Figure 6). Figure 6 : Schéma des différentes études - 66 - Intérêt de l'analyse visuelle du [18F]MPPF dans l'épilepsie temporale ___________________________________________________________________________ - Partie I INTERET DE L'ANALYSE VISUELLE DE LA TEP AU [18F]MPPF Plusieurs questions se posent lorsqu'il s'agit d'évaluer un nouvel examen diagnostique dans le cadre d'un bilan préchirurgical de l'épilepsie. En effet, les études à l'échelle du groupe ont établi un lien avec la zone épileptogène. Cependant, cette discrimination est-elle suffisamment précise et robuste pour être pertinente au le plan individuel ? Nous avons donc souhaité comparer les résultats de la TEP au [18F]MPPF à la technique de référence (la TEP au [18F]FDG) chez les patients souffrant d'une épilepsie temporale en cours de bilan préchirurgical. De plus, il nous est apparu utile de déterminer quel type d'analyse est le plus adapté pour l'analyse individuelle. Nous avons donc comparé les examens TEP de patients souffrant d'une épilepsie temporale selon que la TEP au [18F] MPPF était analysée visuellement ou statistiquement, par une technique de comparaison voxel à voxel. Ce travail a été publié dans la revue Brain, sous la référence : PET imaging of brain 5-HT1A receptors in the preoperative evaluation of temporal lobe epilepsy. Didelot A, Ryvlin P, Lothe A, Merlet I, Hammers A, Mauguière F. Brain. 2008 Oct;131(Pt 10):2751-64. Cet article est détaillé dans les paragraphes suivants. - 67 - Intérêt de l'analyse visuelle du [18F]MPPF dans l'épilepsie temporale ___________________________________________________________________________ Métho des PATIENTS 42 patients (21 hommes et 21 femmes) ont été inclus dans l'étude entre 2001 et 2004. Tous répondent aux critères d'inclusion suivants : i) une épilepsie temporale pharmacorésistante documentée cliniquement, ii) un enregistrement vidéo-EEG de scalp comportant au moins trois crises spontanées associées à des décharges critiques impliquant les régions temporales et iii) une IRM cérébrale dans l'année précédant l'inclusion. Tout patient prenant un traitement sérotoninergique (et notamment des inhibiteurs de la recapture de la sérotonine) est exclu de l'étude. TEMOINS La base de témoins est constituée de 48 sujets sains (24 hommes et 24 femmes), âgés de 19 à 68 ans (âge moyen : 40,5 ans), ne prenant aucun traitement et sans antécédent neurologique ou psychiatrique [Costes, et al., 2005]. Dix-neuf examens TEP similaires en âge et en sexe à des patients étudiés ont été extraits de cette base de données et mélangés de façon aléatoire aux examens des patients pour réaliser l'analyse visuelle. IRM Les IRM cérébrales des patients sont réalisées avec un scanner Siemens Magnetom 1,5 Tesla (Siemens AG, Erlangen, Allemagne) et comprennent pour tous les patients et les témoins les séquences suivantes : - 68 - Intérêt de l'analyse visuelle du [18F]MPPF dans l'épilepsie temporale ___________________________________________________________________________ - une séquence volumique 3D pondérée T1 (TR : 9,7 ms, TE : 4 ms) incluant l'ensemble de l'encéphale et dont les voxels mesurent 1 mm3. Des reconstructions en coupes millimétriques sont effectuées parallèlement et perpendiculairement au plan bihippocampique, - une séquence pondérée T2 (TR : 2260 ms et TE : 45 et 90 ms) turbo spin echo en coupes de 6 mm dans le plan bi-hippocampique, - une séquence pondérée T2 (TR : 3000 ms et TE 16 et 98 ms) turbo spin echo en coupes coronales de 3 mm, perpendiculaires à la séquence précédente. Deux observateurs indépendants (PR et AD) analysèrent les IRM et obtinrent des conclusions congruentes pour tous les patients sans être informés des données cliniques associées. Les IRM ont été considérées normales dans 7 cas (17%), montrèrent une sclérose hippocampique ipsilatérale au lobe temporal épileptogène dans 23 cas (55%), une atrophie bilatérale chez un patient (2%) et une lésion focale dans 11 cas (26%) dont 9 avec un aspect de dyspasie focale et deux avec une lésion atrophique. VIDEO STEREO-ELECTROENCEPHALOGRAPHIE Chez 18 patients (43%), une exploration invasive par enregistrement de l'activité cérébrale par électrodes intra-cérébrales profondes fut réalisée. En effet, les résultats du bilan préopératoire non invasif chez ces patients étaient insuffisamment congruents pour proposer une lobectomie temporale antérieure réglée ou, au contraire, pour contre-indiquer définitivement la chirurgie. - 69 - Intérêt de l'analyse visuelle du [18F]MPPF dans l'épilepsie temporale ___________________________________________________________________________ TEP AU [18F]FDG La TEP au [18F]FDG a été réalisée dans le cadre de l'évaluation préchirugicale de routine et avec le même appareil que celui utilisé pour réaliser la TEP au [18F]MPPF. La procédure précise d'acquisition a été détaillée dans une précédente publication [Ryvlin, et al., 1992]. Les résultats de cet examen étaient disponibles pour 38 des 42 patients au moment de l'étude et intégrés dans la discussion du dossier préchirurgical, notamment pour décider de la nécessité de réaliser une vidéo SEEG. Indépendamment, et pour les besoins de l'étude, les images de ces examens ont été anonymisées et analysées à nouveau visuellement par deux interprétateurs indépendants (PR et FM). Ceux-ci ont identifié les régions d'hypométabolisme et seules les régions identifiées comme telles par les deux interprétateurs ont été prises en compte pour la comparaison avec le [18F]MPPF. ÉTUDE DE LA TEP AU [18F] MPPF L'examen est réalisé selon le protocole décrit dans le chapitre consacré au principe d'acquisition de la TEP au [18F] MPPF dans le chapitre « Rappels théoriques ». La construction des images de potentiels de fixation du [18F]MPPF (BPND) est réalisée selon le protocole décrit dans le chapitre « Rappels théoriques » en utilisant comme région de référence pour la fixation aspécifique du [18F]MPPF, le cervelet. CHIRURGIE DE L'EPILEPSIE A l'issue du bilan préchirurgical, 35 des 42 patients se sont révélés éligibles à une chirurgie de l'épilepsie et 27 d'entre eux ont finalement été opérés. 22 de ces patients ont justifié d'une lobectomie temporale antérieure réglée. Une amygdalo-hippocampectomie - 70 - Intérêt de l'analyse visuelle du [18F]MPPF dans l'épilepsie temporale ___________________________________________________________________________ sélective a été réalisée chez un patient et les quatre patients restant ont été opérés d'une cortectomie temporale à façon dont les limites ont été fixées par l'exploration stéréoélectroencéphalographique. Le suivi postopératoire moyen est de 25 mois [7 à 48 mois] et 24 des 27 patients opérés (89%) sont libres de crise (Classe I de Engel). Les trois patients restants sont dans la classe II de Engel. CLASSIFICATION SYNDROMIQUE DE L'EPILEPSIE Le groupe I est constitué par tous les patients atteints d'une EMT telle que définie par l'ensemble des symptômes décrits dans la littérature [French, et al., 1993, Williamson, et al., 1993], caractérisée par la vidéo-SEEG ou guérie par une lobectomie temporale antérieure réglée. Le groupe II regroupe les patients où les arguments cliniques et paracliniques sont insuffisants pour caractériser une EMT ainsi que les patients pour lesquels les crises ont leur origine dans des structures extra-mésiales du lobe temporal, telles qu'identifiées par la SEEG. Les épilepsies temporales néocorticales (NC), temporo-périsylvienne (T+) et temporales sans précision (t) sont distinguées au sein de ce groupe. ANALYSE DES EXAMENS TEP AU [18F]MPPF Sensibilité et spécificité Quelle que soit l'analyse effectuée dans cette étude, la sensibilité est définie par le pourcentage d'examen où la diminution mesurée sur la TEP au [18F]MPPF (visuellement ou statistiquement) implique la ZE telle que définie par le bilan préchirurgical (ou la chirurgie lorsque le patient a été opéré et guéri). - 71 - Intérêt de l'analyse visuelle du [18F]MPPF dans l'épilepsie temporale ___________________________________________________________________________ La spécificité est quant à elle définie par la proportion d'examens qui présentent une anomalie et où cette dernière est circonscrite à la ZE telle que définie au cours du bilan préchirurgical. Analyse visuelle Les images de BPND des TEP au [18F]MPPF ont été reconstruites dans les plans axial et frontal puis mélangés de façon aléatoire avec les images de 19 témoins. Cette série de 61 examens reconstruits a ensuite été soumise à interprétations à trois examinateurs (FM, PR et AH) qui n'avaient aucune indication clinique sur les examens qu'ils ont du interpréter. Seuls les diminutions jugées significatives du BPND devaient être reportées sur une grille de réponse. Lorsque l'interprétation de ces examens étaient discordante entre les examinateurs, une relecture réunissant les trois examinateurs était effectuée et a permis un consensus dans tous les cas. Analyse voxel à voxel des TEP au [18F]MPPF Les images de BPND du [18F]MPPF de chaque patient ont été individuellement comparées à celles des 48 témoins en réalisant une analyse voxel à voxel avec le logiciel SPM99. Une ANCOVA a été réalisée sur les images normalisées, lissées à 8 mm et où l'âge et le sexe ont été pris en compte comme variables de non intérêt. Les deux contrastes (témoins – patient et patient – témoins) ont été étudiés à un seuil statistique de p< 0,001, non corrigé au niveau du voxel et avec un seuil de 100 voxels au niveau du cluster. - 72 - Intérêt de l'analyse visuelle du [18F]MPPF dans l'épilepsie temporale ___________________________________________________________________________ Etude de la corrélation entre l'activité critique enregistrée en SEEG et les modifications du BPND du [18F]MPPF Pour étudier la corrélation entre modifications du BPND et ZE, nous avons segmenté en 83 régions d'intérêt, grâce à un atlas probabiliste [Hammers, et al., 2003], l'examen TEP des 18 patients qui avaient justifié d'une exploration SEEG. Sur la base des résultats de la SEEG, les régions dans lesquelles ont été enregistrées précocement une activité rapide de bas voltage ou une décharge recrutante lors de crises d'épilepsie spontanées étaient considérées épileptogènes. Seules les 54 régions d'intérêt supra-tentorielles de l'atlas utilisé ont été prises en compte dans cette analyse. La variation de BPND du [18F]MPPF a été estimée dans chaque région d'intérêt en la comparant à la valeur moyenne obtenue dans les régions homologues chez 19 témoins de notre base. La répartition par âges et le sexe ratio étaient comparables compte tenu des modifications connues du BPND du [18F]MPPF liées à l'âge et au sexe [Cidis Meltzer, et al., 2001, Costes, et al. 2005]. Cette variation est exprimée en pourcentage en appliquant la formule suivante : !BPND = 100 " BPND patient - BPND témoins BPND témoins Une comparaison est ensuite effectuée par un test de Mann et Whitney entre les valeurs de !BPND obtenues dans les régions épileptogènes par rapport à celles obtenues dans les régions non épileptogènes. Résultats ANALYSE VISUELLE Le taux de concordance inter-individuelle de l'interprétation des TEP au [18F]MPPF est élevé (93%) contre seulement 66% pour les TEP au [18F]FDG. - 73 - Intérêt de l'analyse visuelle du [18F]MPPF dans l'épilepsie temporale ___________________________________________________________________________ Tous les examens [18F]MPPF de témoins mélangés aux patients ont été interprétés comme normaux. Parmi les examens des patients, une anomalie significative du BPND du [18F]MPPF a été identifiée chez 38 d'entre eux (90%). La sensibilité résultante est équivalente dans le groupe I (90,6%) et le groupe II (90%). Les diminutions du BPND du [18F]MPPF sont restreintes à la ZE pour 12 des 29 patients du groupe I présentant une anomalie de fixation, ce qui correspond à une spécificité de 40%. Dans le groupe II, la spécificité chute à 33% (anomalie restreinte à la ZE pour 3 des neuf patients de ce groupe avec une anomalie mise en évidence). ANALYSE STATISTIQUE VOXEL A VOXEL La sensibilité résultante de cette analyse est de 67% (28 des 42 patients présentent une diminution significative BPND du [18F]MPPF). Le lobe temporal épileptogène est impliqué dans 27 cas (96%). Cette diminution est restreinte aux structures temporo-mésiales pour 14 des patients du groupe I (soit une spécificité de 58%). Dans le groupe II, cette diminution n'est jamais restreinte aux régiosn épileptogènes. CORRELATION ENTRE DIMINUTION DU BPND DU [18F]MPPF ET ZONE EPILEPTOGENE Comparé aux régions homologues chez les témoins, il existe une diminution significative du BPND du [18F]MPPF dans les régions épileptogènes identifiées. En revanche, les régions non impliquées dans la génèration des crises ne présentent pas de différences significatives du BPND du [18F]MPPF avec les régions homologues des témoins. - 74 - Intérêt de l'analyse visuelle du [18F]MPPF dans l'épilepsie temporale ___________________________________________________________________________ Discussion L'analyse visuelle se révèle très sensible et supérieure à l'analyse statistique pour détecter des diminutions du BPND du [18F]MPPF. Cette analyse permet l'identification correcte du côté où se trouve la ZE dans 90% des cas et ce sans fausse latéralisation. La faible spécificité de l'analyse visuelle (40%) est expliquée dans la grande majorité des cas par une extension de la diminution de la fixation du [18F]MPPF dans l'insula ipsilatérale au foyer épileptogène. Cette diminution a été visuellement retenue dans 47% des cas et ce indépendamment du sousgroupe d'ELT. Ce résultat plaide en faveur de modifications significative du BPND du [18F]MPPF au delà de la seule ZE et ce d'autant que certains patients présentant cette anomalie ont été opérés et guéris par une lobectomie temporale antérieure réglée. L'implication d'autres zones extra-temporales n'est en revanche visuellement jamais retenue dans cette étude. Cette constatation nous amène à reconsidérer la définition de la spécificter dans les études ultérieures. Il apparaît en effet licite, sur la foi de ce résultat, de chercher à quantifier la diminution du BPND du [18F]MPPF et de considérer la région d'anomalie maximale qui peut mieux refléter la localisation de la ZE. La faible sensibilité relative de l'analyse statistique semble pouvoir être, pour part, expliquée par la grande variabilité des valeurs du BPND du [18F]MPPF chez les témoins [Costes, et al., 2005]. Cette grande variabilité inter-individuelle a des conséquences dans l'estimation de l'intervalle des valeurs normales du BPND du [18F]MPPF dans un voxel. Ce grand intervalle normatif implique que la valeur mesurée dans un voxel doit être drastiquement augmentée ou diminuée pour être reconnue comme pathologique. Une façon de diminuer cette variabilité est d'analyser le rapport de BPND du [18F]MPPF entre deux régions homologues en calculant un index d'asymétrie. Cette méthode a déjà été validée en utilisant des régions d'intérêt [Kang, et al., 2001], une combinaison de volumes d'intérêt et d'analyse - 75 - Intérêt de l'analyse visuelle du [18F]MPPF dans l'épilepsie temporale ___________________________________________________________________________ voxel à voxel [Hammers, et al., 2001] ou une méthode d'analyse voxel à voxel [Van Bogaert, et al., 2000]. Une diminution du BPND du [18F]MPPF localisée à l'hippocampe, à l'amygdale et au pôle temporal s'associe à un bon pronostic chirurgical y compris en l'absence d'atrophie hippocampique à l'IRM ou lorsque l'histoire clinique est atypique pour évoquer une EMT. Une relation directe entre épileptogénicité du parenchyme cérébral et diminution du BPND du [18F]MPPF a été précédemment établie [Merlet, et al., 2004a] tout comme l'existence d'une diminution significative du BPND du [18F]MPPF dans les régions épileptogènes comparées à des régions homologues chez des témoins [Merlet, et al., 2004b]. Nous montrons dans cette étude que cette relation est valable pour chaque structure anatomique concernée par la ZE. - 76 - Intérêt de l'analyse visuelle du [18F]MPPF dans l'épilepsie temporale ___________________________________________________________________________ - 77 - Intérêt de l'analyse visuelle du [18F]MPPF dans l'épilepsie temporale ___________________________________________________________________________ - 78 - Intérêt de l'analyse visuelle du [18F]MPPF dans l'épilepsie temporale ___________________________________________________________________________ - 79 - Intérêt de l'analyse visuelle du [18F]MPPF dans l'épilepsie temporale ___________________________________________________________________________ - 80 - Intérêt de l'analyse visuelle du [18F]MPPF dans l'épilepsie temporale ___________________________________________________________________________ - 81 - Intérêt de l'analyse visuelle du [18F]MPPF dans l'épilepsie temporale ___________________________________________________________________________ - 82 - Intérêt de l'analyse visuelle du [18F]MPPF dans l'épilepsie temporale ___________________________________________________________________________ - 83 - Intérêt de l'analyse visuelle du [18F]MPPF dans l'épilepsie temporale ___________________________________________________________________________ - 84 - Intérêt de l'analyse visuelle du [18F]MPPF dans l'épilepsie temporale ___________________________________________________________________________ - 85 - Intérêt de l'analyse visuelle du [18F]MPPF dans l'épilepsie temporale ___________________________________________________________________________ - 86 - Intérêt de l'analyse visuelle du [18F]MPPF dans l'épilepsie temporale ___________________________________________________________________________ - 87 - Intérêt de l'analyse visuelle du [18F]MPPF dans l'épilepsie temporale ___________________________________________________________________________ - 88 - Intérêt de l'analyse visuelle du [18F]MPPF dans l'épilepsie temporale ___________________________________________________________________________ - 89 - Intérêt de l'analyse visuelle du [18F]MPPF dans l'épilepsie temporale ___________________________________________________________________________ - 90 - Analyse de l'index d'asymétrie du MPPF dans l'épilepsie temporale ___________________________________________________________________________ - Partie II ANALYSE STATISTIQUE DE CARTES D'INDEX D'ASYMETRIE DU [18F] MPPF DANS L'EPILEPSIE DU LOBE TEMPORAL L'étude précédemment conduite a révélé une faible puissance statistique de l'analyse SPM standard pour identifier la ZE et ce même dans le cas de diminution du BPND visuellement évidentes. Conformément aux conclusions de notre étude comparant l'analyse visuelle et statistique standard, nous avons donc étudié une nouvelle approche d'analyse qui nous semblait plus adaptée au [18F]MPPF. Une technique d'analyse par index d'asymétrie voxel à voxel, précédemment développée dans le cadre d'une étude de TEP au [18F]FDG [Van Bogaert, et al., 2000], nous est apparue une technique intéressante à appliquer à nos patients. La première étape de ce travail a été de développer la méthode d'analyse et d'en déterminer les différents paramètres. Nous avons ensuite constitué une banque de témoins qui a servi de base de référence pour l'analyse statistique individuelle. La troisième étape de ce travail a consisté à l'automatisation de la procédure d'analyse statistique qui permet un gain de temps considérable dans le prétraitement des images et assure une stabilité et une reproductibilité de la méthode. Nous détaillons tout d'abord dans ce chapitre le principe de construction des cartes d'index d'asymétrie, puis le script d'automatisation de la construction des cartes statistiques - 91 - Analyse de l'index d'asymétrie du MPPF dans l'épilepsie temporale ___________________________________________________________________________ (standard et AI) et une dernière partie est consacrée à l'application de cette technique à 24 patients guéris par chirurgie d'une épilepsie temporale pharmaco-résistante. Constru ction des cartes d'index d'asymétrie CONSTRUCTION D'UN MODELE SYMETRIQUE DE CARTE D'ASYMETRIE Afin de pouvoir comparer les valeurs de fixation du [18F]MPPF dans un hémisphère cérébral par rapport à l'autre, il convient de rendre ces deux hémisphères morphologiquement superposables. Le cerveau est en effet naturellement asymétrique et les deux hémisphères ne sont donc pas de forme et de volume identique. Afin de pouvoir fabriquer la carte d'index d'asymétrie, il est apparu nécessaire de déformer le cerveau de chaque sujet sur un volume symétrique dont la forme est la plus proche possible du cerveau étudié. Nous avons donc construit un volume symétrique à partir des images « somme » des témoins de notre base de données [18F]MPPF en effectuant les étapes suivantes : - Retournement du modèle asymétrique (T) par rapport à l'axe X pour créer son image retournée (fxT), - Calcul de la somme des deux volumes T + fxT. Le volume symT résultant est symétrique mais non nécessairement centré sur l'axe X. - Les volumes T et fxT sont indépendamment coregistrés sur symT. Cela permet d'obtenir une matrice de transformation spatiale de T vers symT et fxT vers symT. - Calcul de l'image moyenne de T et fxT auxquelles sont appliquées les matrices de transformations déterminées précédemment. Cette opération génère un volume cT qui est centré mais non nécessairement symétrique. - Le volume cT est retourné par rapport à l'axe X pour créer fxcT. - 92 - Analyse de l'index d'asymétrie du MPPF dans l'épilepsie temporale ___________________________________________________________________________ Calcul de l'image moyenne de cT et fxcT. Cette image est centrée, symétrique et correspond au modèle « symétrique » d'image TEP qui sera utilisé dans les analyses subséquentes. ANALYSE DE L'INDEX D'ASYMETRIE : Prétraitement des images : Cet index a quantifié les différences de valeur du BP du [18F]MPPF entre chaque voxel et son symétrique pour chaque examen. Il a été calculé chez chaque patient et chaque témoin. A partir de l'image paramétrique de BP, six étapes de prétraitement des images ont été nécessaires (figure 7) : - A : Normalisation des images brutes de BPND du [18F]MPPF par rapport au modèle PET symétrique. - B : Le volume obtenu est lissé à 8 mm. - C : Un seuil est appliqué à chaque voxel et les valeurs de BPND inférieures à 0,05 sont éliminées. Ces petites valeurs correspondent en effet à du bruit de fond. La conservation de ces petites valeurs non informatives pourrait créer artificiellement des zones de fortes asymétries qui fausseraient l'analyse. Le volume obtenu après cette opération est VBP. - D : Le volume obtenu est retourné autour de l'axe antéro-postérieur. Un volume « flippé » (fVBP) dans le sens gauche/droite est ainsi obtenu. - E : Les volumes obtenus en C et en D sont utilisés pour calculer leur différence (VBP fVBP) et leur somme (VBP + fVBP). Une carte d'index d'asymétrie (VAI) est ensuite construite selon la formule : VAI = (VBP – fVBP) / (VBP + fVBP) - 93 - Analyse de l'index d'asymétrie du MPPF dans l'épilepsie temporale ___________________________________________________________________________ - F : Le volume obtenu est enfin lissé à 4 mm. - 94 - Analyse de l'index d'asymétrie du MPPF dans l'épilepsie temporale ___________________________________________________________________________ Figure 7 : Schéma de la construction de la carte d'index d'asymétrie. A l'issue de ces prétraitements, une image où chaque voxel représente l'index d'asymétrie des valeurs de BPND du MPPF a été obtenue. Arbitrairement, la soustraction a été effectuée pour que la moitié gauche de l'image représente l'index d'asymétrie correspondant à Gauche – Droite et l'autre, la soustraction Droite – Gauche. Analyse statistique et interprétation de l'index d'asymétrie : Le prétraitement des images paramétriques de BPND a permis d'obtenir une image de soustraction où la partie gauche de cette image représentait l'hémisphère droit du patient soustrait du gauche et la moitié gauche de l'image de soustraction, l'hémisphère gauche soustrait du droit. Dans le cas où le BPND du MPPF était plus faible dans une région gauche que dans son symétrique à droite, la cause pouvait en être une augmentation droite ou une diminution gauche. L'index d'asymétrie était donc négatif dans la partie gauche de l'image de soustraction et positif dans sa partie droite (figure 8). Côté GAUCHE Côté DROIT moins côté DROIT moins côté GAUCHE Valeur positive de l'I.A. Valeur négative de l'I.A. Figure 8 : Représentation schématique de l'index d'asymétrie (I.A.) chez un patient dont l'activité dans une région à droite est supérieure à son symétrique à gauche. Chaque moitié de l'image représente une différence entre chacun des hémisphères. - 95 - Analyse de l'index d'asymétrie du MPPF dans l'épilepsie temporale ___________________________________________________________________________ Lors de la comparaison avec SPM, deux contrastes ont été successivement étudiés : les témoins moins le patient puis le patient moins les témoins. L'index d'asymétrie des témoins variait autour d'une valeur proche de zéro. SPM ne met en évidence que les différences positives dans l'étude d'un contraste. Donc, dans le cas de l'étude [Témoins moins Patient], dans l'exemple où le BP serait plus important dans une région droite que gauche, l'analyse statistique révélerait une anomalie de l'index d'asymétrie dans la moitié gauche de l'image (Figure 9). (G-D) Témoins (!0) (D-G) Témoins (!0) – (G-D) Patient (Négatif) – (D-G) Patient (Positif) __________________ _________________ Résultat NEGATIF Résultat POSITIF Figure 9 : Analyse SPM du contraste Témoins moins Patient. Exemple d'un patient présentant un BPND relativement plus important dans une région que dans la région homologue controlatérale. L'étude du second contraste [Patient moins Témoins] a donné une image symétrique de la précédente (Figure 10). Ces deux contrastes ont été systématiquement calculés et projetés sur une image de cerveau standard en trois dimensions. Le premier contraste [Témoins moins Patient] a été représenté en vert et le second en rouge. - 96 - Analyse de l'index d'asymétrie du MPPF dans l'épilepsie temporale ___________________________________________________________________________ Patient moins Témoins Témoins moins Patient Figure 10 : Représentation des deux contrastes de la cartographie de l'index d'asymétrie. Sur l'exemple de la figure 10, il a été mis en évidence une anomalie statistiquement significative de l'AI au niveau des lobes temporaux. Dans ce cas, deux interprétations peuvent être faites : une diminution de BPND du [18F]MPPF au niveau du lobe temporal gauche ou une augmentation au niveau du lobe temporal droit. - 97 - Analyse de l'index d'asymétrie du MPPF dans l'épilepsie temporale ___________________________________________________________________________ Rôle de l'effet de volume partiel et de la no rmalisation dans la construction des cartes d'IA La construction de cartes d'IA implique de déformer le cerveau pour le rendre artificiellement symétrique. Cette transformation peut avoir des conséquences sur l'estimation du BPND du [18F]MPPF des structures les plus déformées par cette normalisation. C'est notamment le cas des hippocampes, fréquemment atrophiques dans notre population de patients souffrant d'une ELT. A l'effet de cette normalisation, s'ajoute celui de volume partiel présent pour les petites structures comme l'hippocampe. De quelle façon peut-on dès lors minimiser les conséquences de cette opération de symétrie ? La figure 11 schématise (A.I à A.III.) la technique de recalage utilisée dans nos études. Chaque structure anatomique (dans cet exemple l'hippocampe) est déformée sur un patron commun et symétrique qui sert de modèle. Si l'on veut s'affranchir de la déformation sur un modèle, il est possible de recaler les structures comme cela est décrit dans la figure 11 en B. Il n'existe alors aucune déformation du volume anatomique et les deux hippocampes sont recalés soit par symétrie par rapport à la ligne médiane (ligne du haut dans la figure 11 B.) soit en recherchant le maximum de recouvrement entre les deux structures en modifiant l'axe de symétrie (Figure 11 B. ligne du bas). Ces deux techniques d'analyse, si elles n'induisent aucune déformation anatomique, comportent de nombreuses limites qui les rendent inapplicables en pratique clinique. Ainsi, la première méthode, par simple symétrie, provoque le recouvrement de structures anatomiques différentes qui sont symbolisées en noir dans l'exemple illustré. Dans ces zones sont calculées des IA qui n'ont aucune signification physiologique puisqu'ils correspondent à la comparaison de BPND dans des structures anatomiques différentes. Dans l'exemple pris des hippocampes, il existe, de façon - 98 - Analyse de l'index d'asymétrie du MPPF dans l'épilepsie temporale ___________________________________________________________________________ immédiatement adjacente à ces derniers, la corne temporale du ventricule latéral. Dans cette structure ne contenant que du LCR, la seule activité radioactive mesurée est la conséquence du spill over du parenchyme adjacent. Les IA dans ces structures vont donc être très élevés. Lors de la recherche de clusters significatifs, ces régions vont donc ressortir de façon très importante rendant toute détection des asymétries pertinentes impossibles. La deuxième technique proposée ne présente pas plus d'avantage. Le réajustement réalisé permettra une meilleure correspondance des structures réalignées. Il s'en suivra cependant un décalage de toutes les autres structures anatomiques. La correction qui vaut pour réaligner les hippocampes est en effet différente de celle nécessaire au réalignement du gyrus para-hippocampique, des insulas, du cortex orbito-frontal, etc De plus, à chaque recalage, se produit une zone de superposition entre des régions non homologues (symbolisées en noir sur la figure 11) où se reproduisent les mêmes phénomènes de disproportion statistiques. Une solution pour faire disparaître ces régions de discordance est d'appliquer un masque dessiné sur l'IRM du patient et ce pour chaque structure anatomique étudiée. Toute utilisation en pratique clinique est alors illusoire. - 99 - Analyse de l'index d'asymétrie du MPPF dans l'épilepsie temporale ___________________________________________________________________________ Figure 11 : Schéma des résultats obtenus pour les hippocampes en fonction des méthodes de calcul de l'asymétrie L'exemple pris pour illustrer ces différentes méthodes de calcul sont les deux hippocampes d'un patient (Hipp D : hippocampe droit, Hipp G : hippocampe gauche). Dans le cas choisi, l'hippocampe gauche est atrophique. A. Calcul d'un index d'asymétrie à partir de deux hippocampes normalisés sur un modèle symétrique. La dilatation relativement plus importante de l'hippocampe gauche sur le modèle symétrique provoque une diminution artificielle du BPND dans cette structure par « dilution » dans un plus grand volume. - 100 - Analyse de l'index d'asymétrie du MPPF dans l'épilepsie temporale ___________________________________________________________________________ B. Calcul d'un index d'asymétrie en superposant les deux hippocampes, sans les normaliser. Deux recalages différents sont représentés : le premier recalage est effectué par simple symétrie tandis que le second s'attache à faire correspondre au mieux les deux structures anatomiques (recalage manuel). Dans les deux cas, on observe la génération de zones de très fortes asymétries (en noir) qui correspondent à la soustraction de valeurs de BPND entre des structures anatomiques différentes. Si l'effet de normalisation est non négligeable lors de la fabrication des cartes d'IA selon notre méthode, les structures concernées par cette distortion ont très probablement une diminution déjà significative du BPND du [18F]MPPF. Pour le vérifier, nous avons donc mesuré la valeur du BPND du [18F]MPPF chez 12 patients en cours de bilan préchirurgical d'une ETM. Ces patients sont différents de ceux étudiés dans les études précédentes. Parmi ces 12 patients, huit ont une atrophie hippocampique unilatérale mise en évidence sur l'IRM et 4 ont des hippocampes de volume normal. Afin de s'affranchir de tout effet dépendant d'une quelconque normalisation, c'est un atlas probabiliste qui vient se déformer sur l'image TEP du patient et permet la mesure des valeurs du BPND du [18F]MPPF dans chacune des 166 régions d'intérêt prédéfinies [Hammers, et al., 2003]. Nous ne rapportons ici que les données mesurées dans les hippocampes, aux fins d'illustrer notre propos. La figure 12 reporte les mesures de BPND du [18F]MPPF dans les hippocampes des douze patients étudiés. L'index d'asymétrie est exprimé en pourcentage et calculé de la façon suivante : 2((BPND ) noE ! (BPND ) E ) , où (BPND)noE correspond au BPND mesuré dans ((BPND) noE + (BPND) E ) - 101 - Analyse de l'index d'asymétrie du MPPF dans l'épilepsie temporale ___________________________________________________________________________ l'hippocampe non épileptique et (BPND)E correspond au BPND mesuré dans l'hippocampe épileptique. Figure 12 : Mesures du BPND du [18F]MPPF hippocampique et index d'asymétrie chez 12 patients avec une épilepsie temporo-mésiale. Les quatre premiers patients ont une IRM normale et les huit suivants présentent une sclérose hippocampique unilatérale, dans le lobe temporal épileptogène. Un index d'asymétrie positif correspond à un BPND du [18F]MPPF plus élevé dans l'hippocampe non épileptique. Il existe ainsi une différence de valeur du BPND du [18F]MPPF qui est systématiquement inférieur dans l'hippocampe épileptique que celui-ci soit normal (patients 1 à 4) ou atrophique (patients 5 à 12) sur l'IRM. La diminution du BPND du [18F]MPPF mise en évidence parmi les 42 patients précédemment étudiés n'est donc pas le seul fait de la normalisation de structures atrophiques mais reflète bien une modification du BPND du [18F]MPPF. - 102 - Analyse de l'index d'asymétrie du MPPF dans l'épilepsie temporale ___________________________________________________________________________ Les conséquences d'une telle déformation seront d'autant plus importantes que la structure est atrophiée. S'il a été mis en évidence une perte de volume global dans le lobe temporal pour les patients souffrant d'ELT [Luby, et al., 1995], cette dernière prédomine nettement sur l'hippocampe qui est la structure que nous avons prise pour illustrer ce propos. Figure 13 : Valeurs moyennes des BPND du [18F]MPPF des hippocampes non épileptiques et épileptiques dans les sous-groupes de patients avec et sans sclérose hippocampique. NS : non significatifs, SH : sclérose hippocampique. p calculés avec un test de Student. Enfin, sur les analyses de groupes illustrées par la figure 13, il n'existe pas de différences significatives entre les sous groupes de patients présentant une EMT avec ou sans SH et ce que ce soit pour l'hippocampe épileptique ou non épileptique. Il existe en revanche une diminution signicative du BPND du [18F]MPPF dans les hippocampes épileptiques par - 103 - Analyse de l'index d'asymétrie du MPPF dans l'épilepsie temporale ___________________________________________________________________________ rapport à ceux qu'il ne le sont pas, qu'il existe ou non une sclérose hippocampique. Il existe même une tendance à une diminution plus importante du BPND du [18F]MPPF dans les hippocampes épileptiques atrophiques que dans les hippocampes épileptiques non atrophiques. Cette différence cependant n'atteint pas le seuil de significativité. Il pourrait dès lors sembler intéressant d'utiliser cette méthode qui vient d'être brièvement détaillée à l'échelle clinique individuelle pour effectuer les analyses individuelles dans le cadre du bilan préopératoire des ELT. L'utilisation d'un atlas probabiliste qui se déforme sur l'examen du patient permet ainsi de s'affranchir du problème de dilution ou de concentration, par la déformation anatomique, de l'activité mesurée. La compensation de cet effet que nous démontrons comme modéré serait cependant au détriment de la résolution qu'offre l'analyse voxel à voxel qui permet d'analyser l'ensemble du parenchyme sans a priori anatomique. L'utilisation d'un atlas probabiliste conduit en effet à une segmentation qui ramène aux techniques déjà évoquées d'analyse par régions d'intérêt. - 104 - Analyse de l'index d'asymétrie du MPPF dans l'épilepsie temporale ___________________________________________________________________________ Autom atisatio n de la pro cédu re d'an alyse La technique d'analyse par IA repose sur un prétraitement des images de BPND qui se révèle long si les étapes sont réalisées manuellement. Une procédure d'analyse trop longue rend inenvisageable son application en routine clinique. À la différence des autres techniques d'analyses d'AI déjà décrites, celle que nous proposons ici repose sur un prétraitement des images qui ne justifie pas de traçage de régions d'intérêt [Lin, et al., 2007, Toczek, et al., 2003], ni de segmentation du cortex [Muzik, et al., 1998]. Aucune des étapes de prétraitement ne justifie donc d'intervention humaine. Dès lors, il est apparu possible d'automatiser ces différentes séquences. De plus, il semblait souhaitable que les prétraitements des images pour l'analyse d'IA et standard soient réalisés simultanément afin de s'assurer de la bonne reproductibilité méthodologique. Nous avons donc développé un script qui réalise les différentes étapes du prétraitement. Deux options de normalisation sont disponibles en fonctions des examens disponibles le jour de l'analyse. La carte de BPND peut ainsi être normalisée sur l'image SUM ou à partir de l'IRM du sujet. Il a été noté que la normalisation apparaissait de meilleure qualité avec l'IRM du sujet. Cependant, cet examen n'est pas toujours disponible au moment de l'analyse et il est apparu utile de pouvoir disposer d'une technique d'analyse qui soit autonome lorsque le PET seul est disponible. Dans la version actuelle de ce script, il est nécessaire de désigner le fichier correspondant à la carte de BPND, le fichier .dyn ou l'IRM (.img ou .hdr) selon la modalité de normalisation voulue ainsi que le sexe et l'âge de chaque patient à analyser. L'ensemble du - 105 - Analyse de l'index d'asymétrie du MPPF dans l'épilepsie temporale ___________________________________________________________________________ prétraitement est ensuite réalisé pour l'analyse standard et l'analyse d'IA avec l'estimation du modèle et la construction des contrastes statistiques. Chaque prétraitement et analyse est ensuite rangé dans deux fichiers distincts, propres à chaque type d'analyse. Automatisation du prétraitement des images L'exemple pris ici est celui du script utilisant le fichier dynamique du PET comme référence pour déterminer les paramètres de normalisation de l'image de BPND. Les différentes étapes suivies par le script sont présentées ici. Pour chaque étape, les lignes de commande correspondantes sont reproduites puis explicitées. Ce programme comporte différentes parties que nous détaillerons successivement. La première permet la définition des différents paramètres permettant la sélection des témoins et les variables prises en compte (âge et sexe). La seconde permet à l'utilisateur de renseigner les paramètres spécifiques à l'analyse qu'il souhaite réaliser. Les troisième et quatrième étapes réalisent successivement la construction des cartes d'asymétrie et leur analyse statistique. Les cinquième et sixième étapes sont dévolues à la construction des cartes de BPND et leur analyse statistique. Une septième étape permet l'élimination des fichiers intermédiaires. Détermination des paramètres spécifiques à l'étude Détermination des fichiers sources : Cette commande permet l'ouverture du logiciel SPM5 et précise la localisation des dossiers dans lesquels se trouvent les fichiers sources des examens des patients (basecwd), des - 106 - Analyse de l'index d'asymétrie du MPPF dans l'épilepsie temporale ___________________________________________________________________________ PET des témoins selon qu'ils ont été normalisés sur un modèle symétrique (controlsdir) ou non (controldirBP). Intégration de l'âge et du sexe des témoins comme covariables : Sont précisées ici les valeurs correspondant aux âges et au sexe (1= homme, 2= femme) des 41 témoins. Ces données seront appelées plus loin dans l'exécution du programme pour être intégrées comme covariables dans l'analyse statistique. Détermination des filtres d'ouverture des fichiers : La première ligne (datafold) correspond au nom du dossier qui sera ouvert par défaut pour que l'utilisateur y sélectionne les fichiers du patient qui doit être analysé. Vient ensuite la racine commune aux noms des fichiers à analyser (BProotfilename) qui sont toujours, dans le cas présent des fichiers de BPND. Enfin, il est déterminé la racine du nom du fichier utilisé (dynrootfilename) pour déterminer les paramètres de normalisation du fichier analysé. Dans l'exemple présenté ici, la normalisation est réalisée sur le PET à partir du fichier dynamique. Choix des modèles : Sont désignés ici la localisation respective des modèles symétrique (templ_norm_sym) et asymétrique (templ_norm) utilisés pour les opérations de normalisation. - 107 - Analyse de l'index d'asymétrie du MPPF dans l'épilepsie temporale ___________________________________________________________________________ Paramètres de lissage et de seuillage : Sont précisées dans les deux premières lignes les valeurs de pré- (prefwhm) et postlissages (postfwhm) appliquées dans les trois dimensions x, y et z de l'espace. La dernière ligne donne la valeur du seuil chois pour l'élimination des valeurs aberrantes. Détermination des informations nécessaires à chaque analyse et nombre de patients à étudier : Cette étape détermine les informations nécessaires pour l'analyse : le nom donné à l'analyse (subname), le fichier de référence pour la normalisation (dynfilepath), le sexe (SexPatient) et l'âge (AgePatient) du patient à étudier. Les lignes suivantes permettent à l'utilisateur de préciser le nombre de patients (Nsubj) qu'il souhaite analyser au cours de cette étude. Les prétraitements des images et les analyses statistiques correspondant à chaque patient seront ainsi réalisés successivement. Sélection des informations nécessaires à l'analyse : Les lignes de commande ci-dessus invitent l'utilisateur à renseigner successivement l'adresse du fichier dynamique (dynfilepath{i,1}) et du fichier de BPND (BPfilepath{i,1}). Il est ensuite demandé de renseigner l'âge du patient étudier puis l'utilisateur clique sur la case à cocher correspondant au sexe du patient étudié. La récupération de ces 4 informations est répétée automatiquement pour chaque patient de l'étude. Le nombre de patient a été renseigné à l'étape précédente. Il s'agit de la dernière étape où l'utilisateur est appelé à intervenir. - 108 - Analyse de l'index d'asymétrie du MPPF dans l'épilepsie temporale ___________________________________________________________________________ Fabrication du nom des fichiers calculés lors de l'étude : Cette étape permet de retrouver dans le nom des fichiers sélectionnés la racine qui correspond au nom du ou des patient(s) étudié(s). Cette racine sera ensuite utilisée pour créer le nom de tous les fichiers créés pour ce patient dans cette étude. Détrompeur : Cette étape permet de vérifier que les fichiers dynamiques et de BPND sélectionnés proviennent bien du même patient. Si les racines de ces fichiers sont discordantes, un message d'erreur (vous n'avez pas sélectionné des images du même sujet) apparaît et l'utilisateur est appelé à renouveler sa sélection. Ce message d'erreur ne bloque pas l'exécution du programme et permet la correction de l'erreur de sélection sans avoir à rentrer à nouveau toutes les sélections précédemment effectuées. Construction des cartes d'asymétrie Création des dossiers et copie des fichiers utiles Cette étape permet de désigner la localisation où doivent être dirigés les fichiers qui vont être créés pour permettre la construction de la carte d'IA. Il est aussi créer un fichier temporaire pour accueillir les fichiers propres au patient. Importation des fichiers avec conversion au format .nii : Les fichiers dynamiques et de BPND sont écrits pour chaque patient au format ECAT ces derniers sont donc importés et convertis au format .nii reconnu par SPM5. - 109 - Analyse de l'index d'asymétrie du MPPF dans l'épilepsie temporale ___________________________________________________________________________ Calcul de l'image somme à partir de l'image dynamique : Le premier paragraphe permet la sélection du fichier dynamique adéquat, le second définit l'expression pour le calcul de la moyenne et le troisième paragraphe permet le calcul de l'image somme proprement dite. Normalisation de l'image de BPND : Les deux premiers paragraphes permettent de déterminer les paramètres de normalisation. Ces paramètres sont estimés à partir de l'image somme, calculée précédemment, rapportée au modèle symétrique. Les paramètres obtenus sont ensuite appliqués à l'image de BPND. Pré-lissage des images Cette étape permet la réécriture du fichier de BPND normalisé en y appliquant un lissage définit au début du programme à 8 mm par défaut. Application du seuil à l'image pré-lissée Cette étape permet d'appliquer à l'image pré-lissée le seuillage définit par défaut (threshold = 0.05). Les faibles valeurs correspondant à une fixation aspécifique de BPND sont ainsi éliminées. - 110 - Analyse de l'index d'asymétrie du MPPF dans l'épilepsie temporale ___________________________________________________________________________ Fabrication de la carte d'index d'asymétrie Le premier paragraphe permet de déterminer le nom du fichier. Le deuxième paragraphe permet le calcul de la carte d'index d'asymétrie à l'aide de la « toolbox volumes » de SPM5. Le dernier paragraphe détermine les paramètres de calcul de la carte d'index d'asymétrie. Application d'un seuillage aux valeurs d'index d'asymétrie Cette étape applique un masque aux valeurs d'index d'asymétrie en excluant les valeurs strictement inférieures à -1 ou strictement supérieures à 1. Lissage de la carte d'asymétrie seuillée Cette étape permet le lissage de la carte d'asymétrie à 4 mm dans toutes les directions de l'espace (selon les axes x, y et z) et clos l'étape de construction de la carte des index d'asymétrie. Classement des fichiers créés Les fichiers créés sont déplacés dans un répertoire aux fins d'être utilisés lors de l'analyse statistique. Analyse statistique des cartes d'asymétrie Spécification du type de modèle utilisé Cette commande permet l'ouverture de la partie PET du logiciel SPM5. - 111 - Analyse de l'index d'asymétrie du MPPF dans l'épilepsie temporale ___________________________________________________________________________ Création du dossier statistique et récupération des fichiers utiles à l'analyse Cette étape permet la création d'un dossier dans lequel sera regroupé l'ensemble des fichiers créés au cours de l'analyse statistique. De plus, les fichiers correspondant au masque explicite, à la carte d'IA du patient et aux cartes d'IA des témoins sont copiés dans ce dossier. Définition des covariables Cette étape récupère les valeurs des deux covariables (âges et sexe) pour le patient étudié et l'ensemble des témoins. Définition du plan de l'analyse statistique Les différents paramètres de l'analyse statistique sont rapportés ici. Les différentes lignes de commande renseignent successivement les informations requises par SPM5 pour effectuer l'analyse. Le premier paragraphe désigne les fichiers du patient et des témoins qui seront utilisés pour l'analyse. Il est ensuite précisé que la variance est considérée égale dans le groupe des témoins et celle du patient. Il n'est pas réalisé de grand mean scalling et le test statistique employé est une ANCOVA par sujet. Les deux paragraphes suivants définissent successivement l'âge et le sexe comme deux covariables indépendantes sans ajustement des valeurs à la moyenne (no centering). Le dernier paragraphe permet l'application d'un masque explicite sur les valeurs à analyser, la désactivation de l'option 'grand mean scalling' et sans normalisation globale. - 112 - Analyse de l'index d'asymétrie du MPPF dans l'épilepsie temporale ___________________________________________________________________________ Estimation du modèle statistique Cette étape permet l'estimation du modèle statistique défini à l'étape précédente et la création d'un fichier « SPM.mat ». Définition des contrastes statistiques Le premier paragraphe définit le contraste « Patient – Témoins » qui va permettre de comparer la carte d'IA du patient à celles des témoins. Cette comparaison permet de mettre en évidence tous les voxels et clusters où l'IA sont significativement supérieurs à celui des témoins dans des régions homologues. Le deuxième contraste, « Témoins – Patient », est défini dans le paragraphe suivant mais n'est pas utilisé dans l'analyse que nous effectuons dans les études présentées ici. Le dernier paragraphe permet la sauvegarde des paramètres définis. Fabrication de la carte de BPND du patient pour l'analyse standard avec SPM5 Création d'un dossier dédié Cette commande crée dans le dossier du patient étudier un dossier intitulé « statsBP » dans lequel sera regroupé l'ensemble des fichiers permettant l'analyse SPM standard. Normalisation de l'image de BPND Cette étape détermine les paramètres de normalisation à partir du modèle de carte de BPND non symétrique. - 113 - Analyse de l'index d'asymétrie du MPPF dans l'épilepsie temporale ___________________________________________________________________________ Lissage de l'image de BPND normalisée L'image de BPND normalisée est lissée à 8 mm dans les trois dimensions (x, y et z). Analyse statistique standard de la carte de BPND Définition des fichiers utilisés Cette étape sélectionne automatiquement la carte de BPND normalisée et lissée du patient étudié ainsi que celles des témoins. Estimation de la valeur globale de la carte de BPND Cette commande conduit au calcul de la valeur moyenne du BPND pour les cartes normalisées et lissées du patient étudié et de tous les témoins. Paramètres de l'analyse statistique Les différents paramètres de l'analyse statistique sont rapportés ici. Les différentes lignes de commande renseignent successivement les informations requises par SPM5 pour effectuer l'analyse. Le premier paragraphe désigne les fichiers du patient et des témoins qui seront utilisés pour l'analyse. Il est ensuite précisé que la variance est considérée égale dans le groupe des témoins et celle du patient. Il n'est pas réalisé de grand mean scalling et le test statistique employé est une ANCOVA par sujet. Les trois paragraphes suivants définissent successivement la valeur globale moyenne de BPND, l'âge et le sexe comme trois covariables indépendantes sans ajustement des valeurs - 114 - Analyse de l'index d'asymétrie du MPPF dans l'épilepsie temporale ___________________________________________________________________________ à la moyenne (no centering). Le dernier paragraphe permet l'application d'un masque explicite asymétrique sur les valeurs à analyser, la désactivation de l'option 'grand mean scalling' et l'absence de normalisation globale. Estimation du modèle statistique Les différents paramètres sélectionnés à l'étape précédente sont appliqués pour estimer le modèle statistique. Définition des contrastes statistiques Le premier paragraphe définit le contraste « Patient – Témoins » qui va permettre de comparer la carte de BPND du patient à celles des témoins. Cette comparaison permet de mettre en évidence tous les voxels et clusters où les valeurs de BPND sont significativement supérieures à celle chez les témoins dans des régions homologues. Le deuxième contraste, « Témoins – Patient », est défini dans le paragraphe suivant. Il permet de mettre en évidence tous les voxels et clusters où les valeurs de BPND sont significativement inférieures à celle chez les témoins dans des régions homologues. Le dernier paragraphe permet la sauvegarde des paramètres définis. Effacement des fichiers intermédiaires et fin du programme Cette dernière étape efface tous les fichiers intermédiaires placés dans le dossier «fichiers temporaires » et ferme le programme. - 115 - Analyse de l'index d'asymétrie du MPPF dans l'épilepsie temporale ___________________________________________________________________________ - Partie III APPLICATION DE L'ANALYSE DE L'INDEX D'ASYMETRIE A L'EPILEPSIE DU LOBE TEMPORAL L'utilisation de l'analyse de l'IA du BPND du [18F]MPPF dans le cadre du bilan préchirurgical des épilepsies du lobe temporal doit permettre de recueillir des indications sur les limites de la ZE. Pour vérifier cette hypothèse, nous avons appliqué cette technique d'analyse à 24 patients souffrant d'une épilepsie temporale rigoureusement bilantée. Le volume cérébral dans lequel se situe la ZE était connu puisque tous les patients sélectionnés ont été opérés et guéris de leur épilepsie. Cette étude fait l'objet d'une soumission pour publication dans la revue Journal of Nuclear Medicine sous la référence : Voxel based analysis of asymmetry index maps increases the specificity of [18F]MPPF-PET abnormalities for localizing the epileptogenic zone in Temporal Lobe Epilepsies. A DIDELOT, F MAUGUIÈRE, J REDOUTÉ, S BOUVARD, A LOTHE, A REILHAC, A HAMMERS, N COSTES, P RYVLIN. Nous détaillons cette étude dans les paragraphes suivants. - 116 - Analyse de l'index d'asymétrie du MPPF dans l'épilepsie temporale ___________________________________________________________________________ Metho des PATIENTS Vingt-quatre patients ont été inclus. Ils satisfaisaient tous aux critères suivants : 1) évaluation pré-chirurgicale incluant un enregistrement vidéo-EEG prolongé avec des crises, une IRM cérébrale et une TEP interictale au [18F]FDG conduisant au diagnostic d'épilepsie temporale unilatérale, 2) une TEP au [18F]MPPF et 3) l'absence de crise au décours de la chirurgie du lobe temporal, définissant une classe I de Engel avec un recul post-opératoire d'au moins six moix (moyenne +/- DS = 34 +/- 12 mois, avec un recul de 8 à 53 mois). Ce dernier critère d'inclusion confirme que la ZE a correctement été identifiée au cours du bilan préopératoire. Les résultats des TEP au [18F] MPPF n'étaient pas disponibles au moment de la décision chirurgicale. Tous ces patients sont extraits de la série de patients étudiés précédemment. La ZE a été définie comme mésiale chez 20 des patients qui furent opérés par lobectomie temporale antérieure emportant les structures temporo-mésiales et le pôle temporal [Spencer et Spencer, 1985, Williamson, et al., 1993]. Parmi ces 20 patients, 13 avaient une présentation électro-clinique et IRM caractéristiques d'une ETM avec sclérose de l'hippocampe [French, et al., 1993, Williamson, et al., 1993], deux patients avaient une atrophie hippocampique à l'IRM mais une présentation électro-clinique atypique et l'IRM des cinq derniers patients était normale. Ces sept derniers patients furent explorés en SEEG [Guenot, et al., 2001], confirmant l'origine temporo-mésiale des crises. Ces vingt patients ont été classés dans deux sous-groupes : MTHS ou MTnoHS selon la présence (HS pour « hippocampal sclerosis ») ou non (noHS) d'une atrophie et d'un hypersignal T2 FLAIR à l'IRM. La résection chirurgicale fut étendue à la partie latérale du pôle temporal chez tous les - 117 - Analyse de l'index d'asymétrie du MPPF dans l'épilepsie temporale ___________________________________________________________________________ patients présentant une ETM afin de permettre une résection complète des structures temporomésiales. Pour quatre patients, la zone de départ des crises a été localisée au niveau du néocortex temporal latéral par l'enregistrement SEEG (NC pour épilepsie temporale NéoCorticale). La résection chirurgicale fut limitée au néocortex temporal latéral pour deux patients mais étendue aux structures temporo-mésiales pour les deux autres car la décharge épileptique chez ces patients se propageait très rapidement au gyrus para-hippocampique et à l'hippocampe [Kahane, et al., 2006]. Ces patients furent classés en NCMT ou NCnoMT selon l'existence ou non d'une implication précoce des structures temporo-mésiales par la décharge critique. Trois de ces patients avaient une IRM normale et un, une petite lésion située au sein du gyrus temporal moyen. L'analyse anatomopathologique conclut à la nature dysplasique de cette lésion. TEMOINS Afin de réaliser une comparaison statistique de la TEP au [18F]MPPF de chaque patient avec une population de témoins, nous avons utilisé les examens TEP de 41 témoins (âge moyen : 42,8 ans [20 à 70 ans], 23 femmes) sans antécédent psychiatrique ou maladie neurologique et dont l'IRM cérébrale était normale [Costes, et al., 2005]. ANALYSE STATISTIQUE DES IMAGES DE BPND ET D'INDEX D'ASYMETRIE Design de l'analyse statistique Les images de BPND et d'index d'asymétrie des patients sont comparées respectivement aux images de BPND et d'index d'asymétrie des témoins. Cette comparaison - 118 - Analyse de l'index d'asymétrie du MPPF dans l'épilepsie temporale ___________________________________________________________________________ statistique individuelle est réalisée avec SPM5 et repose sur un test t avec deux échantillons, une ANCOVA par sujet, la variance est considérée identique dans les deux échantillons et il n'est pas effectué d'étalonnage par rapport à la moyenne globale des images (overall grand mean scaling). L'application d'un masque (obtenu par seuillage ne retenant que les valeurs x> 0,3) restreint l'analyse statisitique aux voxels situés dans la substance grise du cerveau. L'âge et le sexe sont pris en compte dans l'analyse comme variables de non intérêt. Deux seuils statistiques différents sont appliqués successivement à chaque analyse statistique : (i) p< 0,05 FWE (family-wise error) corrigé au niveau du voxel qui constitue un haut seuil statistique pour ce type d'analyse et (ii) p< 0,05 corrigé au niveau du cluster (les clusters étant définis par les groupes de voxels demeurant significatifs à p< 0,001 non corrigé). Détermination du sens de l'anomalie de BPND sous-tendant l'augmentation de l'IA Le contraste "Témoins – Patient" a été étudié : chaque moitié de l'image correspond donc à l'étude d'un contraste différent (voir l'exemple Figures 8 et 9 dans le chapitre « Construction des cartes d'IA »). Dans tous les cas, l'anomalie d'IA mise en évidence a été corrélée aux résultats de l'analyse standard afin de déterminer le sens (augmentation ou diminution du BPND) et le côté (hémisphère droit ou gauche) de l'anomalie constatée. Cependant, dans notre expérience, la grande majorité des anomalies du BPND du [18F]MPPF correspond à des diminutions. - 119 - Analyse de l'index d'asymétrie du MPPF dans l'épilepsie temporale ___________________________________________________________________________ INTERPRETATIONS DES IMAGES PARAMETRIQUES DE BPND ET DES CARTES D'IA Au regard des résultats des études précédentes [Didelot, et al., 2008, Lothe, et al., 2008, Merlet, et al., 2004a], seules les diminutions du BPND du [18F] MPPF sont pertinentes en pratique clinique pour identifier la ZE. Nous n'avons donc considéré ici que les anomalies de l'IA correspondant à des diminutions du BPND du [18F] MPPF. La localisation de clusters significatifs et la localisation du voxel avec la significativité maximale (plus haut Z-score) sont les deux paramètres qui ont été étudiés. Cette localisation se fait par rapport à trois régions d'intérêt : les régions mésio-temporales (amygdale, hippocampe, gyrus parahippocampique et la partie la plus mésiale du pôle temporal), les régions temporales néocorticales (gyrus temporal supérieur, moyen et inférieur, gyrus fusiforme ainsi que la partie latérale du pole temporal). La troisième région d'intérêt regroupe toutes les régions corticales extra-temporales. SENSIBILITE ET SPECIFICITE La sensibilité a été définie comme la proportion d'examens où les clusters d'anomalies significatives incluent la ZE. La spécificité repose quant à elle sur la proportion d'examens où le maximum statistique (voxel avec le Z-score maximal) est situé dans la ZE. Cette définition de la spécificité a été choisie pour tenter de répondre à la question clinique la plus fréquente dans cette situation : l'anomalie la plus nette correspond-elle à la ZE ? Nous posons ici l'hypothèse que cette information pourrait être plus pertinente que l'étendue propre de la diminution du BPND du [18F]MPPF ou que l'existence de plusieurs clusters dans des régions différentes. - 120 - Analyse de l'index d'asymétrie du MPPF dans l'épilepsie temporale ___________________________________________________________________________ Les résultats de chaque analyse ont été comparés en termes de sensibilité et spécificité par un test de Mc Nemar. Résultats ANALYSE STANDARD Seuil à p< 0,05, corrigé au niveau du voxel (FWE) Une diminution significative du BPND du [18F] MPPF est observée dans 58% (14/24 patients) dont 60% des patients souffrant d'une épilepsie temporo-mésiale avec sclérose hippocampique ou non et la moitié des patients avec une épilepsie temporale néocorticale. Toutes les anomalies constatées sont ipsilatérales à la ZE et impliquent le lobe temporal épileptogène dans la moitié des cas (12/24 patients) ce qui représente une sensibilité globale de 50%. Le voxel associé au Z-score le plus élevé est localisé dans les régions mésiotemporales pour huit des patients avec une ETM et dans le néocortex temporal pour les deux patients NCHS et l'un des deux patients NCnoHS. La spécificité résultante est de 64% (9 des 14 patients présentant des anomalies significatives du BPND). Seuil à p< 0,001, corrigé au niveau du cluster Ce seuil, moins statistiquement exigent que le précèdent, permet la mise en évidence de clusters significatifs chez cinq nouveaux patients. Pour quatre d'entre eux, ces clusters sont situés dans le lobe temporal épileptogène. Cet abaissement du seuil statistique permet un gain de sensitivité qui passe de 50% à 67% mais cela au détriment de la spécificité qui chute à - 121 - Analyse de l'index d'asymétrie du MPPF dans l'épilepsie temporale ___________________________________________________________________________ 47%. En effet, seuls neuf des 19 patients avec un cluster significatif ont le voxel associé au Zscore maximal situé dans la ZE. ANALYSE DE L'INDEX D'ASYMETRIE Seuil à p< 0,05, corrigé au niveau du voxel (FWE) Une anomalie significative de l'IA est constatée chez tous les patients pour ce seuil statistique. En comparant ces clusters aux résultats de l'analyse standard, toutes ces anomalies correspondent à des diminutions du BPND du [18F] MPPF. A deux exceptions près (patients 20 et 24), ces anomalies impliquent le lobe temporal épileptogène. Il en résulte une sensibilité de 92%. Cette sensibilité est de 100% dans le sous-groupe MT et de 75% dans le groupe NC. Selon la définition préétablie, la spécificité est de 88%. Seuil à p< 0,001, corrigé au niveau du cluster Ce seuil statistique, moins exigeant que le précédent, permet d'identifier un cluster significatif chez un patient supplémentaire ce qui permet d'augmenter la sensibilité à 96%. La spécificité demeure inchangée. COMPARAISON DES ANALYSES VISUELLES, SPM STANDARD ET IA L'analyse de l'IA se révèle clairement supérieure aux autres, sur le plan individuel, pour mettre en évidence des anomalies pertinentes. Ainsi, pour les quatre patients présentant un examen considéré normal à l'analyse visuelle (et qui avaient tous une IRM normale), l'analyse SPM standard montre des anomalies chez deux d'entre eux mais toutes sont extra- - 122 - Analyse de l'index d'asymétrie du MPPF dans l'épilepsie temporale ___________________________________________________________________________ temporales tandis que l'analyse de l'IA révèle des clusters significatifs chez ces quatre patients. Dans 3 cas sur 4, ces anomalies impliquent le lobe épileptogène. Quel que soit le seuil statistique utilisé, l'analyse d'IA se révèle significativement supérieure à l'analyse standard en terme de sensibilité et spécificité (tests de Mc Nemar : p< 0,05 dans tous les cas). DISCUSSION Cette étude a permis la validation d'une technique d'analyse voxel à voxel automatisée de l'IA des TEP au [18F]MPPF. Cette analyse se révèle sensible et spécifique pour déterminer la ZE chez les patients souffrant d'une ELT. Cette méthode d'analyse se révèle fiable au niveau lobaire et infra-lobaire pour la majorité des patients. L'analyse d'IA se révèle significativement supérieure à l'analyse SPM standard en terme de sensibilité et spécificité. AVANTAGES DE LA METHODE D'ANALYSE DE L'IA Dans le contexte de l'évaluation préchirurgicale des ELT, le but des examens de neuroimagerie est d'identifier le lobe épileptogène [Mauguiere et Ryvlin, 2004] et de délimiter le plus exactement possible la ZE. Les résultats de ces investigations permettent en effet, couplé aux résultats de la vidéo-EEG, de déterminer la zone de cortectomie. Ainsi, l'analyse de l'IA a permis un gain dans l'identification de la ZE pour 3 des 4 patients où l'IRM cérébrale était normale, la TEP au [18F]MPPF visuellement considérée normale et où les seules anomalies mises en évidence par l'analyse SPM standard n'étaient pas pertinentes. - 123 - Analyse de l'index d'asymétrie du MPPF dans l'épilepsie temporale ___________________________________________________________________________ La meilleure spécificité de l'analyse de l'IA est démontrée par la localisation du Zscore maximal. Le voxel associé au Z-score maximal est situé dans les structures mésiotemporales chez tous les patients MT alors que cela n'est le cas que pour 8 sur les 15 patients MT en analyse SPM standard. De plus, lorsqu'il existe une diminution significative du BPND du [18F]MPPF extérieur à la ZE chez les patients MT, le Z-score mesuré à ce niveau est toujours inférieur à celui situé dans la ZE (exception faite du patient 20). D'autres techniques d'analyses de l'IA ont été précédemment développées et appliquées à de nombreux traceurs [Lin, et al., 2007, Muzik, et al., 1998,Toczek, et al., 2003]. Cependant, la grande majorité des methodes d'analyse proposées repose sur le traçage de regions d'intérêt ou la realisation d'une segmentation de l'examen du patient. La méthode que nous rapportons ici présente l'avantage d'être automatisée et facilement utilisable en routine clinique. Le petit nombre de patients rapportés dans cette étude (notamment dans le sousgroupe d'épilepsie néocorticale) limite la portée des conclusions faites dans cette étude. Le choix d'étudier des patients opérés et guéris permet de confirmer que la ZE était incluse dans le parenchyme réséqué mais ne permet pas de vérifier si les patients non-guéris après chirurgie ont un pattern différent de diminution du BPND du [18F]MPPF. Ce point doit faire l'objet d'une étude dédiée pour confirmer la spécificité de la TEP au [18F]MPPF. Au total, la TEP au [18F]MPPF apparaît être un examen utile dans le cadre du bilan préopératoire des ELT, notamment lorsque l'IRM et/ou le PET [18F]FDG est normal. Dans le cas où l'IRM est normale, cette exploration peut aider à prendre la décision d'une exploration invasive par SEEG et donnent des renseignements utiles à la réalisation du schéma d'implantation des électrodes. - 124 - Analyse de l'index d'asymétrie du MPPF dans l'épilepsie temporale ___________________________________________________________________________ Voxel based analysis of asymmetry index maps increases the specificity of [18F]MPPF-PET abnormalities for localizing the epileptogenic zone in Temporal Lobe Epilepsies Authors: Adrien DIDELOT (1,2,3,4), François MAUGUIÈRE (1,2,3,4,5), Jérôme REDOUTÉ (6), Sandrine BOUVARD (2,6,7), Amélie LOTHE (6,7), Anthonin REILHAC (6), Alexander HAMMERS (5), Nicolas COSTES (6), Philippe RYVLIN (2,3,4,7,8) 1. INSERM, U879, Hôpital Pierre Wertheimer, 59, boulevard Pinel, 69003 Lyon, France. 2. Université Lyon 1, 69003 Lyon, France. 3. Hospices Civils de Lyon, Service de Neurologie Fonctionnelle et d'Epileptologie, 69003 Lyon, France. 4. Institut Fédératif des Neurosciences de Lyon, 69003 Lyon, France. 5. Neurodis Foundation, 69003 Lyon, France 6. CERMEP – Imagerie du vivant, 69003 Lyon, France 7. CTRS-INSERM IDEE, 69003 Lyon, France. 8. INSERM, U821, 69003 Lyon, France. Corresponding author: Philippe RYVLIN, ryvlin@cermep.fr Financial support: This study is supported by a PHRC of the Hospices Civils de Lyon Total number of words: - 125 - Analyse de l'index d'asymétrie du MPPF dans l'épilepsie temporale ___________________________________________________________________________ ABSTRACT: Purpose: [18F]MPPF-PET has proved to be a very sensitive technique in the pre-surgical evaluation of patients with drug resistant temporal lobe epilepsy (TLE), but a significant proportion of visually detected abnormalities failed to be detected by standard SPM analysis (Didelot et al. Brain 2008). This study aimed at 1) describing a voxel-based method for computing inter-hemispheric asymmetry indices (AIs) using SPM5 software; 2) validating the clinical relevance of this method for analysing asymmetries of [18F]MPPF-PET images in patients with drug resistant temporal lobe epilepsy (TLE). Methods: [18F]MPPF-PET scans of 24 TLE patients who achieved an Engel class I outcome following epilepsy surgery, and of 41 controls, were analyzed visually, with standard SPM, and by computing voxel based AIs. Both SPM methods were assessed using two different statistical thresholds (p< 0.05, corrected at the cluster level, and p< 0.05, family-wise error (FWE) corrected at the voxel level). Sensitivity and specificity of each method were estimated and compared using McNemar tests. Results: The sensitivity of AI analysis to detect decreases of [18F]MPPF BPND ispilateral to the epileptogenic lobe was 92% (p< 0.05, corrected at the cluster level ) and 96% (p< 0.05, FWE corrected at the voxel level), while specificity (defined as the congruence between the localisation of the voxel associated with the greatest Z-score and that of the epileptogenic zone) was 88% at both thresholds. AI analysis was significantly more sensitive (p<0.05) and specific (p< 0.005) than standard SPM analysis regardless of the applied threshold. AI analysis also proved to be more sensitive than visual analysis. Discussion: AI analysis of [18F]MPPF-PET was more sensitive and specific than previous methods of analysis. This non-invasive imaging procedure was especially informative for presurgical assessment of patients presenting with clinical histories atypical of mesial TLE or with normal brain MRI. - 126 - Analyse de l'index d'asymétrie du MPPF dans l'épilepsie temporale ___________________________________________________________________________ Key words: [18F]MPPF-PET, epilepsy surgery, serotonin, 5-HT1A receptor, voxel based analysis, asymmetry index. - 127 - Analyse de l'index d'asymétrie du MPPF dans l'épilepsie temporale ___________________________________________________________________________ INTRODUCTION: Surgical treatment of patients suffering from pharmaco-resistant focal epilepsy leads to seizure freedom when the epileptogenic zone (EZ) has been removed. The EZ is thus defined empirically as the brain region the resection of which is both necessary and sufficient to result in seizure freedom [Luders, et al., 2006]. This favourable outcome is currently obtained in about 2/3 of patients with TLE [Wiebe et Jette, 2006], the most common form of surgically treated refractory epilepsy, with some degree of variation between the different epilepsy surgery centres [Schramm, 2008,Sindou, et al., 2006,Tellez-Zenteno, et al., 2007]. As 1/3 of patients do not become seizure free, there is a need to develop new preoperative investigations in order to better delineate the EZ. Investigations routinely used in the majority of epilepsy surgery centres include interictal scalp electroencephalography (EEG), video-EEG recording of seizures, magnetic resonance imaging (MRI), and [18F]fluorodeoxyglucose (FDG) PET [Rosenow et Luders, 2001,Ryvlin et Rheims, 2008]. Few other PET ligands have been evaluated in TLE but did not show a clear cut benefit over [18F]FDG-PET and have not found their way into clinical routine [Ryvlin, et al., 1998]. However, recent studies suggest that PET tracers targeting the 5-HT1A receptor, such as [11C]WAY-100635, [18F]FC-WAY, and [18F]MPPF [4-(2'-methoxyphenyl)-1-[2'-(N-2-pyridinyl)-p-fluorobenzamido]-ethyl- piperazine], might offer greater sensitivity and specificity than [18F]FDG-PET in the delineation of the EZ in TLE [Didelot, et al., 2008,Merlet, et al., 2004a,Savic, et al., 2004,Toczek, et al., 2003]. In a previous study comparing [18F]FDG-PET and [18F]MPPF-PET in a series of 42 TLE patients, we found that visual analysis detected significantly more [18F]MPPF than [18F]FDG PET abnormalities within the epileptogenic temporal lobe structures [Didelot, et al., 2008]. Standard voxel-based statistical parametric mapping (SPM) was also used in this previous - 128 - Analyse de l'index d'asymétrie du MPPF dans l'épilepsie temporale ___________________________________________________________________________ study in an attempt to detect more objectively the area of maximal [18F]MPPF binding potential (BP) abnormality, but statistical analysis proved less sensitive than visual detection [Didelot, et al., 2008]. We hypothesized that the lack of sensitivity of standard SPM analysis resulted from the wide range of normal BP values measured within each voxel across healthy subjects [Costes, et al., 2005]. In order to address this issue, we have developed an SPMbased voxel-by-voxel procedure, to calculate and analyse maps of asymmetry index (AI) rather than maps of BP values directly. Previous PET studies in epilepsy, using various types of regions of interest (ROIs), have suggested a better sensitivity of AI analysis [Juhasz, et al., 2003,Juhasz, et al., 2000,Kim, et al., 2003,Lee, et al., 2001,Lin, et al., 2007,Muzik, et al., 1998,Toczek, et al., 2003]. Only one previous study has implemented an approach using voxel-based and AI analysis applied to [18F]FDG-PET which achieved a sensitivity of 71% and a specificity of 100% in identifying the side of resection [Van Bogaert, et al., 2000]. We implemented SPM AI analysis in the present study using MPPF PET and SPM5 and evaluated its clinical relevance in 24 patients with drug resistant TLE, whose EZ localization was validated by a seizure-free outcome following temporal lobectomy. - 129 - Analyse de l'index d'asymétrie du MPPF dans l'épilepsie temporale ___________________________________________________________________________ METHODS: PATIENTS AND CONTROLS The 24 patients included in this study fulfilled the following criteria: 1) Pre-surgical evaluation including video-EEG recording of seizures, brain MRI, and interictal [18F]FDGPET leading to the diagnosis of unilateral TLE, 2) Interictal [18F]MPPF-PET, and 3) Seizure free outcome following temporal lobe epilepsy surgery, defined as an Engel Class I (free of disabling seizures) with a post-operative follow-up of at least 6 months (mean ± SD = 34 ± 12 months, range 8 to 53). This latter criterion ensured that the EZ had been correctly identified pre-operatively. Results of individual [18F]MPPF-PET data were not available at the time of surgical decision. All these patients belonged to the series of TLE patients previously reported [Lothe, et al., 2008]. The EZ was considered mesial temporal in 20 patients who benefited from a standard anterior temporal resection [Spencer et Spencer, 1985,Williamson, et al., 1993] involving the mesial temporal structures as well as the temporal pole. Of these 20 patients, 13 patients had the typical electro-clinical and MRI features of the mesial temporal lobe epilepsy (MTLE) syndrome including hippocampal atrophy [French, et al., 1993,Williamson, et al., 1993], while two patients showed MRI signs of hippocampal atrophy with atypical electro-clinical findings, and five had a normal MRI. These seven latter patients underwent invasive depth stereotactic EEG (SEEG) recordings, according to the Bancaud and Talairach approach [Guenot, et al., 2001], which demonstrated a mesial temporal ictal onset in all cases. These 20 patients were classified into MTHS or MTnoHS subgroups depending on the presence or not of atrophy and T2/FLAIR hypersignal on MRI suggesting hippocampal sclerosis. The surgical resection was extended to the lateral aspect of the temporal pole in all MTLE patients to facilitate a complete removal of the mesial temporal structures. In the four patients not included in the MTLE group, ictal onset was localized by SEEG in the lateral temporal - 130 - Analyse de l'index d'asymétrie du MPPF dans l'épilepsie temporale ___________________________________________________________________________ neocortex (NC). The surgical resection was limited to NC in two but also involved the mesial temporal structures in the two others where the ictal discharge very rapidly invaded the parahippocampal gyrus and hippocampus [Kahane, et al., 2006]. These patients were subsequently classified as NCMT or NCnoMT according to the early involvement or not of the mesial temporal structures by the ictal discharge. Three of them had normal MRI and one had a small lesion located in the middle temporal gyrus that proved to be a focal dysplasia on histopathological examination. In order to perform SPM analysis of individual patients as compared to a normal database, we used the [18F]MPPF-PET data previously obtained in 41 healthy drug free volunteers without any past history of psychiatric or neurological illness (mean age = 42.8 [20-70], 23 women) [Costes, et al., 2005], whose brain MRI was normal. MRI Structural brain MRI was performed using a 1.5 T Siemens Magnetom scanner (Siemens AG, Erlangen, Germany), and included the following sequences in all patients and controls: 3D anatomical T1-weighted sequence (TR: 9.7ms, TE: 4ms) covering the whole brain volume with 1 mm3 cubic voxels, turbo-spin echo T2-weighted sequence (TR: 2260ms, TE: 45 and 90ms) with 6 mm thick slices acquired parallel to the long axis of the hippocampi, and turbospin echo T2 sequence (TR: 3000ms, TE: 16 and 98ms) yielding 3 mm thick slices perpendicular to the former. MPPF PET Data Acquisition [18F]MPPF-PET was obtained by nucleophilic fluoration of a nitro-precursor with a - 131 - Analyse de l'index d'asymétrie du MPPF dans l'épilepsie temporale ___________________________________________________________________________ radiochemical yield of 20–25% at the end of the synthesis and a specific activity of 32–76 GBq/mmol [Le Bars, et al., 1998]. PET scans were performed on a CTI-Siemens HR+ scanner (Knoxville, TN, USA) during the afternoon after a standard meal. For tracer injections, an intravenous catheter was placed in a vein of the left forearm. Before emission acquisition, a 10-min transmission scan was performed using three 68Ge rod sources for the measurement of tissue and head support attenuation. After i.v. injection of a bolus of [18F]MPPF at 2.7 MBq/kg, a dynamic emission scan consisting of 35 frames of increasing duration (20s to 5min) was acquired over 60 mins post-injection. The PET scanner was operating in 3D mode. Images were corrected for scatter and attenuation, and reconstructed using a filtered back projection (Hanning filter, cut-off 0.5 cycles/pixels) to provide a 3D volume of 63 slices (2.42 mm thickness) with 128x128 voxels in plane (2.06 mm2). In the centre of the field of view, the NEMA (National Electrical Manufacturers Association) protocol measured a nominal axial resolution of 4.1 mm and a nominal transverse resolution of 4.4 mm for an 18F point source reconstructed with a ramp filter [Brix, et al., 1997]. Modeling of [18F]MPPF and creation of parametric images of binding potential For each subject, the MRI was coregistered with mutual information criteria to the static, weighted and summed PET image to obtain a complete data set (anatomic MRI, static and dynamic PET) with common orientation and size. Parametric images of binding potential (BPND with the ND suffix indicating 'non-displaceable tissue uptake' in accordance with the consensus nomenclature [Innis, et al., 2007]) were obtained using an analytical solution for the compartment model with a simplified reference tissue model developed for [11C] WAY100635-PET [Gunn, et al., 1998] and validated for [18F]MPPF-PET studies [Costes, et al., 2002]. In this model, the assessment of free and non-specific ligand kinetics is based on the - 132 - Analyse de l'index d'asymétrie du MPPF dans l'épilepsie temporale ___________________________________________________________________________ time–activity curve of a reference region (i.e. cerebellar white matter that is devoid of specific 5-HT1A binding). Using this model, a previous study confirmed that BPND was a reliable index of local receptor concentration [Costes, et al., ,Kung, et al., 1996]. Data Preprocessing All preprocessing steps were performed using SPM5 software. As detailed below, a different spatial normalization was performed for each method of analysis (standard and AI), using dedicated templates. Preprocessing for SPM standard analysis Raw BPND images were spatially normalized to a BPND template in standard MNI/ICBM152 stereotactic space that had been constructed using SPM5. Normalization parameters were determined from the mean image of the [18F]MPPF dynamic acquisition and then applied to the raw (non-normalized) BPND images. Normalized images were then smoothed using an isotropic 8mm FWHM Gaussian kernel that accommodates intersubject anatomy variability and improves the sensitivity of the statistical analysis [Ashburner et Friston, 1997]. Preprocessing for SPM Asymmetry Index analysis Symmetric [18F]-MPPF PET template We first constructed a symmetric [18F]-MPPF PET template in approximate standard MNI/ICBM152 stereotactic space using the following procedure, starting from our in-house MPPF template (T), which, as it was constructed in MNI/ICBM152 space, was naturally nonsymmetric. (1) Flip the initial template (T) around the X-axis to create fxT. (2) Add T and fxT to create symT (symmetric, but not necessarily centred on the X=0 axis). - 133 - Analyse de l'index d'asymétrie du MPPF dans l'épilepsie temporale ___________________________________________________________________________ (3) Coregister T and fxT on symT independently. (4) Compute the mean of T and fxT applying the coregistration matrix found in step (3), creating cT (centred, but not necessary symmetric). (5) Flip cT creating fxcT. (6) Compute the mean of cT and fxcT. This image is centred, symmetric and corresponds to our 'symmetric MPPF template' in the subsequent procedure. AI map construction (detailed in figure 1) Raw (unnormalized) BPND images of patients and controls were spatially normalized to this symmetric template using SPM5. Normalized BPND images were spatially smoothed using a 8mm isotropic Gaussian kernel. Areas with low BPND were excluded by thresholding at 0.05 to remove spurious values in low signal areas. The resulting thresholded and smoothed normalized image (VBP) was right-left reversed, providing its flipped BPND counterpart (fVBP). An asymmetry index volume (VAI) was then computed using SPM's Volumes Toolbox (http://sourceforge.net/projects/spmtools) according to the following formula: VAI = (VBP - fVBP) / (VBP + fVBP), so that at each and every voxel, the resulting value represented the asymmetry index calculated at that position. Finally, we applied a second spatial smoothing using an isotropic 4mm Gaussian kernel. These resulted in a final smoothness of the SPM AI analysis of about ten to fifteen millimetres, similar to that of standard analysis. STATISTICAL ANALYSIS OF BPND AND AI IMAGES Statistical design for BPND and AI analysis BPND and AI images from patients were individually compared to control subjects' BPND and - 134 - Analyse de l'index d'asymétrie du MPPF dans l'épilepsie temporale ___________________________________________________________________________ AI images respectively, using SPM5's two-sample t-test, with an ANCOVA by subject, equal variance and without overall grand mean scaling. Analysis was restricted to voxels belonging to grey matter by applying a mask obtained by thresholding at x> 0.3 the probabilistic map of grey matter within the SPM distribution (/spm5/apriori/grey.nii). Age and sex were modelled as covariates of no interest [Costes, et al., 2005]. Two different thresholds were applied for each analysis: (i) p<0.05 FWE corrected at the voxel level, which represents a stringent statistical criterion for this type of analysis, and (ii) p<0.05 corrected at the cluster level (clusters are defined by voxels surviving a threshold of p<0.001 uncorrected). Direction of BPND abnormalities underlying AI increases As in our experience, the vast majority of [18F]MPPF-PET abnormalities observed in patients with TLE corresponds to decreases of BPND, we selected primarily the contrast 'Controls – Patients', which displayed significant AI resulting from decreased BPND on the same side as the underlying "standard" BPND abnormality. As shown in figure 2, the left half of the map corresponds to the following algebraic calculation: (right hemisphere – left hemisphere)patient (right hemisphere – left hemisphere)controls so that any significant cluster reflects either a left sided BPND decrease or a right sided BPND increase in the patient as compared to controls. Conversely, the right half of the map corresponds to the following algebraic calculation: (left hemisphere – right hemisphere)patient - (left hemisphere – right hemisphere)controls so that any significant cluster reflects either a right sided BPND decrease or a left sided BPND increase in the patient as compared to controls. To further ensure the direction of BPND changes underlying AI abnormalities, we used the results provided in the same brain regions by standard SPM analysis. When the latter were negative at the threshold considered for statistical significance (see above), we searched for clusters at puncorrected < 0.005, and if still negative at puncorrected < 0.01. This procedure allowed - 135 - Analyse de l'index d'asymétrie du MPPF dans l'épilepsie temporale ___________________________________________________________________________ in all cases to determine the type of abnormality underlying significant AIs. INTERPRETATION OF BPND PARAMETRIC IMAGES AND SPM MAPS According to previous findings [Didelot, et al., 2008,Lothe, et al., 2008,Merlet, et al.], the only clinically relevant abnormalities of [18F]MPPF scans to identify the EZ in TLE patients are decreases of BPND. We have thus limited our clinical analysis to data showing a BPND decrease either after standard SPM or AI analysis. Two criteria were considered, firstly the presence and location of clusters showing significant abnormalities, secondly the location of the maximal abnormality defined as the voxel from any significantly abnormal cluster that showed the highest Z score. We chose to consider three anatomical regions based on the EZ location to compare our different methods of analysis (visual, standard SPM and AI). The mesial temporal (MT) region included the amygdala, hippocampus, parahippocampal gyrus and the mesial aspect of the temporal pole. The lateral temporal (LT) region included the superior, middle, inferior temporal gyri and lateral occipitotemporal (fusiform) gyrus as well as the lateral aspect of the temporal pole. The third region (ET) included all extra-temporal cortical regions. The visual analysis of BPND parametric images has been described in our previous study [Didelot, et al., 2008]. Briefly, all TLE scans intermixed with control scans from normal subjects matched for age and gender were visually and separately analyzed by three experts (AH, FM and PR) blind to clinical history and other presurgical data. Experts were asked to report on the presence and location of visible areas of BP decrease, but not on the location of the site with maximal abnormality since the latter could not be assessed visually in a reliable manner. - 136 - Analyse de l'index d'asymétrie du MPPF dans l'épilepsie temporale ___________________________________________________________________________ SPM maps were superimposed on MRI to precisely assess the anatomical location of all significant clusters and that of the voxel with the highest Z score, and to ascribe these abnormalities to one the three anatomical regions described above (MT, LT or ET). SENSITIVITY AND SPECIFICITY Sensitivity and specificity of each method of analysis were defined as follows: Sensitivity was defined as the proportion of [18F]MPPF-PET showing a decrease of BPND located within the EZ out of all patients [18F]MPPF-PET. Specificity corresponded to the proportion of [18F]MPPF-PET showing the maximum of BPND decrease located within the EZ. This latter definition of specificity was adapted to address the most frequent question raised in the clinical interpretation of PET findings in patients with epilepsy, which is that of the diagnostic value of either multiple or large abnormal areas of BPND decrease encompassing both the EZ and other brain regions. Sensitivity and specificity of the two statistical analyses were compared one with the others using Mc Nemar test. - 137 - Analyse de l'index d'asymétrie du MPPF dans l'épilepsie temporale ___________________________________________________________________________ RESULTS: Visual analysis As described in details in our previous study [Didelot, et al., 2008], investigators agreed on the presence of a focal decreased BPND in 20 out of 24 patients (83%), including 100% of the 15 patients with MTHS, but only three (60%) of the five MTnoHS, and 50% of the other patients (one NCMT and one NCnoMT patient). These abnormalities primarily involved the epileptogenic temporal lobe in all cases, but extended to the temporal neocortex and/or extratemporal regions in 14 (70%) of the 20 MT patients and to the extra-temporal region in one of the two NCMT patients and to the mesial temporal region in one of the two NCnoMT patients. Standard SPM analysis Threshold: p<0.05 FWE corrected at the voxel level (Figure 3) At least one significant cluster of decreased BPND was observed in 14 patients (58%) overall, 9/15 (60%) of MTHS patients, 3/5 (60%) of MTnoHS patients, 1/2 (50%) of NCnoMT patients and none of the two NCMT patients. These abnormalities were ipsilateral to the EZ in all cases, and involved the epileptogenic temporal lobe in 12/24 patients, i.e. the overall sensitivity was 50%. In one MTHS and one NC patient, the only significant cluster was extra-temporal. The voxel with the highest Z-score was located in the mesio-temporal structures and hence correctly identified the EZ in seven MTHS patients and one MTnoHS patient, whereas it was located in the lateral temporal cortex in two MTnoHS patients and one MTHS patient, and in extra-temporal regions in one MTHS patient. In the two NC patients with significant cluster(s) of decreased BPND, the voxel with the highest Z-score was located in the lateral temporal cortex in one patient, and in an extra-temporal region in the other. According to our definition, the specificity of this standard SPM analysis was 64% (representing 9/14 patients - 138 - Analyse de l'index d'asymétrie du MPPF dans l'épilepsie temporale ___________________________________________________________________________ in whom significant MPPF PET abnormalities were found and where the voxel with the highest Z-score was located in the EZ. Threshold: p<0.05, corrected at the cluster level (Figure 4) At this more liberal threshold, five additional patients had significant clusters of decreased BPND. These were located in the epileptogenic temporal lobe in four, and in ipsilateral extratemporal regions in one. Overall, sensitivity increased from 50% to 67% (i.e. 16 out of 24 patients had a cluster of significantly decreased BPND in the epileptogenic temporal lobe). Conversely, specificity decreased from 64% to 47%, with the voxel associated with highest Zscore being located within the EZ in only nine of the 19 patients with significant cluster(s) of decreased BPND (seven MTHS patients and one NC patient). Six MTHS and three MTnoHS patients had the highest Z-score voxel located either in the lateral temporal cortex (N=7) or in extra-temporal regions (N=2). Furthermore, one NCMT and one NCnoMT patients had their maximum abnormality located in extra-temporal regions. Asymmetry index analysis Threshold: p<0.05 FWE corrected at the voxel level (Figure 3) A significant abnormality was observed in all patients at this threshold. In each patient, the comparison of the result with the standard SPM analysis demonstrated that the main AI cluster(s) always corresponded to a decreased BPND ipsilateral to the epileptogenic temporal lobe. In all but two patients (#20 and #24), the significant AI cluster(s) involved the temporal lobe, yielding a sensitivity of 22/24 (92%; 15/15 (100%) for MTHS, 4/5 (80%) for MTnoHS, 2/2 for NCMT and 1/2 for NCnoMT). The voxel with the highest Z-score was located within the EZ in 21/24 patients, including all 15 MTHS patients, 4/5 (80%) MTnoHS patients, and 2/4 (50%) for NC patients. The specificity was hence 21/24 (88%) according to our definition. - 139 - Analyse de l'index d'asymétrie du MPPF dans l'épilepsie temporale ___________________________________________________________________________ Threshold: p<0.05 corrected at the cluster level (Figure 4) At this more liberal threshold, one additional NC patient had a significant cluster in the epileptogenic temporal lobe, increasing sensitivity from 92% to 96%, while specificity remained at 88%. Comparing visual, standard and AI SPM analyses Among the four patients where visual analysis did not detect any [18F]MPPF-PET abnormality, all of whom had a normal MRI, standard SPM analysis detected significant cluster(s) in two but these were always restricted to extra-temporal regions. In contrast, AI SPM analysis detected at least one significant cluster in all four patients with a normal MRI, which included the epileptogenic temporal lobe in three. AI analysis was more sensitive than standard analysis for both statistical SPM thresholds (Mc Nemar test p< 0.001 for SPM threshold of p< 0.05 FWE corrected at the voxel level; Mc Nemar test p< 0.05 for SPM threshold of p< 0.05 corrected at the cluster level). Similarly, AI analysis was more specific than standard analysis (Mc Nemar test p< 0.005 for both statistical thresholds). Figures 5 and 6 illustrate examples of improved gain in defining the EZ in two patients with similar BPND decreases on visual analysis. - 140 - Analyse de l'index d'asymétrie du MPPF dans l'épilepsie temporale ___________________________________________________________________________ DISCUSSION In this study we have developed a voxel based statistical analysis of the inter-hemispheric asymmetry index (AI) of [18F]MPPF-PET images and validated this method in the context of pre-surgical evaluation of TLE patients. This approach proved highly sensitive for identifying focal BPND decreases that correctly identified side, lobar and sub-lobar localization of the EZ in the majority of patients. Advantages of voxel based AI analysis In the context of pre-surgical assessment of TLE functional neuroimaging is used in order to: i) identify the epileptogenic lobe, which represents a crucial prerequisite before performing a standardized temporal lobectomy [Mauguiere et Ryvlin, 2004], and: ii) more precisely delineate the EZ location within this epileptogenic temporal lobe, allowing individually tailored cortectomy when judged necessary. For instance, temporal lobe surgery sparing the hippocampus might offer improved memory outcome in patients where the hippocampus is neither atrophic nor involved at ictal onset [Mintzer et Sperling, 2008]. i) Epileptogenic lobe identification Regarding the lateralization of the epileptogenic temporal lobe, voxel based AI analysis proved significantly more sensitive than standard SPM comparison of individual patient's data with those of a control group of healthy subjects, with a detection rate of 100% versus 58% at a statistical threshold of p< 0.05 FWE corrected at the voxel level. The reason for this difference is likely to primarily reflect the larger variation of BPND values as compared to BPND ratio at the voxel level across controls. Indeed, AIs allow within-subject normalization that has been found to be beneficial in other contexts, too [Hammers, et al., 2007]. - 141 - Analyse de l'index d'asymétrie du MPPF dans l'épilepsie temporale ___________________________________________________________________________ The threshold of statistical significance had only a marginal impact on the sensitivity of voxel based AI analyses, changing from 96% for a frequently used thresholding in clinically oriented analysis of individual patients' data (p< 0.05 corrected at the cluster level) to 92% using a more stringent threshold (p< 0.05 FWE corrected at the voxel level). Furthermore, AI analysis detected a significant abnormality in all 4 patients where visual analysis was negative, half of which were co-localized with the EZ. Several other computerised techniques based on ROI measurements have consistently demonstrated the effectiveness of AI analysis for lateralizing the EZ, using either [18F]FDGPET, alpha-methyl tryptophan or radio labelled ligands of benzodiazepine ([11C]flumazenilPET) or 5HT1A receptors ([18F]FCWAY-PET) [Lin, et al., 2007,Muzik, et al., 1998,Toczek, et al., 2003]. The advantage of voxel based AI analysis is that, unlike methods based on ROIs, it does not require any a priori hypothesis on the location or extent of the suspected abnormalities. Van Bogaert et al [Van Bogaert, et al., 2000] proposed a similar approach for analysing AI of glucose metabolism using [18F]FDG-PET in 12 TLE patients. As in our [18F]MPPF PET study, this approach proved more reliable than standard SPM analysis in lateralizing the epileptogenic temporal lobe. ii) Delineation of the EZ Specificity, defined here as the proportion of patients in whom the voxel showing the highest Z-score correctly identified the sub-lobar localization of the EZ, was also greater for AI than for standard SPM analysis, at both thresholds (88% versus 64% at p< 0.05 FWE corrected at the voxel level; 88% versus 50% at p< 0.05 corrected at the cluster level). Previous studies of AI have not addressed this issue, which in our view represents one of the major benefits of AI analysis as compared to visual analysis. Indeed, defining the area of maximal abnormality using visual analysis was extremely difficult and poorly reliable. The - 142 - Analyse de l'index d'asymétrie du MPPF dans l'épilepsie temporale ___________________________________________________________________________ great intra-hemispheric variability of MPPF binding between limbic, paralimbic and neocortical regions hampers any robust visual comparison of the degree of asymmetry across these various brain structures. Interestingly, the only two MT patients who were not completely seizure free (Engel class Ib / Ic) either had an extra-temporal maximal AI Z-score (#20) or a very large cluster extending to a large portion of the ipsilateral extra-temporal region (#13). Limitations of voxel based AI analysis Several technical limitations of our procedure need to be discussed: i) The generation of artefacts within a limited volume of several tens of voxels centered over the inter-hemispheric midline, which may hamper the interpretation of decreased BPND in mesial frontal, parietal and occipital cortical areas. These midline artefacts, which were observed in 21% of patients, have no major impact in TLE but limit the application of our method in patients with partial epilepsies suspected to involve mesial extra-temporal regions. This issue is also depending on the accuracy of the registration and normalization methods, which may potentially induce midline artefacts due to the flip of normalized images. Further refinements of image co-registration and normalization methods may help to address this issue. ii) Another limitation of our method is the symmetrization of the physiologically asymmetrical brain. The deformation of the brain resulting from the normalization step to the symmetrical template is different for left and right hemispheres. This could potentially influence the yield of AI analysis as a function of the lateralization of the epileptogenic temporal lobe. Our findings did not suggest any such influence, since the same proportion of patients with - 143 - Analyse de l'index d'asymétrie du MPPF dans l'épilepsie temporale ___________________________________________________________________________ right or left TLE demonstrated significant AI abnormalities, regardless of their hemispheric dominance. iii) Our method cannot directly provide information as to whether an abnormal AI primarily reflects increased binding on one side, or decreased binding on the other. However post-hoc analysis of standard SPM maps at various statistical thresholds easily allows determining which of the two above hypotheses is correct. In our populations of TLE patients, abnormal AIs within temporal lobes always reflected BPND decreases ipsilateral to the EZ. AI increases reflecting increased BPND were uncommon, only observed in extra-temporal regions, and always smaller and less significant than BPND decreases. From a practical point of view, our SPM script automatically generates AI and standard SPM maps allowing an unambiguous and time efficient detection and interpretation of significant AI abnormality in clinical practice. This SPM script is available from http://www.cermep.fr, allowing its rapid implementation in other centres. Limitations of the study design The relatively limited number of patients, especially those with the EZ located in the lateral temporal neocortex (NC group), and the selection of seizure free post-surgical outcomes (Engel class I patients) that was needed to evaluate the sensitivity and specificity of our procedure is a limitation of our study. Thus this selection did not allow to address the issue whether patients with poor surgery outcome would present with AI patterns similar to, or different from, those observed in Engel class I patients. Similarly we did not explore the value of [18F]MPPF-PET and AI analysis in extra-temporal lobes epilepsy or temporal plus epilepsy [Ryvlin et Kahane, 2005]. As previously mentioned, MPPF binding shows large variations - 144 - Analyse de l'index d'asymétrie du MPPF dans l'épilepsie temporale ___________________________________________________________________________ across brain regions, being maximal in temporo-limbic brain structures, mid-level in paralimbic extra-temporal regions such as the insular, orbito-frontal and cingulate cortices, and low in other neocortical structures. One might anticipate that the sensitivity of [18F]MPPFPET will decrease as a function of 5-HT1A receptor density, and will therefore prove less effective in extratemporal lobe epilepsy. This, and the performance of combined standard and AI SPM analysis in truly bitemporal epilepsies, remains to be fully investigated. Clinical relevance of AI analysis From a clinical point of view, [18F]MPPF-PET appears useful for TLE patients with normal MRI and/or normal [18F]FDG-PET, where it provides reliable information regarding the lateralization and localization of the EZ. In particular when MRI is normal, [18F]MPPF-PET findings might help deciding to perform and tailor an invasive intra-cranial EEG investigation. Finally, one should keep in mind that, despite the concordance observed between the localization of the EZ and that of the maximal MPPF AI abnormality, the latter does not precisely map the extent of the EZ. Thus the area delineated by reduced tracer binding can be larger than the EZ. Intracerebral recordings of seizures have shown some correlation between cortical epileptogenicity and the degree of MPPF binding reduction in TLE. [Merlet, et al., 2004a], the BPND decrease being significantly greater in regions involved in seizure onset than in those where only interictal or no epileptic activity was recorded. The good specificity (88%) shown in this study is in accordance with our previous finding obtained at the group level in patients whose EZ was defined by seizures onset in mesio-temporal structures using deep brain ictal recordings [Merlet, et al., 2004a]. - 145 - Analyse de l'index d'asymétrie du MPPF dans l'épilepsie temporale ___________________________________________________________________________ We could not formally compare the specificity of visual and voxel-based AI analysis in this study, firstly because of our empirical definition of specificity, but also because the three experts involved in the visual inspection of [18F]MPPF-PET images felt unable to reliably delineate the area of maximal BPND decrease. Based on this latter consideration, and the finding that visual analysis identified abnormalities extending beyond the EZ in 70% of patients, we believe that voxel-based AI analysis provides clinically useful information in addition to those derived from visual analysis for detecting the most likely sub-lobar localisation of the epileptogenic zone. Overall, the combined used of visual and voxel-based AI and standard SPM analysis improves the diagnostic yield of [18F]MPPF-PET in patients with TLE candidates to epilepsy surgery. This approach deserves to be further developed with other PET tracers, including [18F]FDG-PET, as well as in extra-temporal lobe epilepsies. It should also facilitate a more objective comparison of the various imaging techniques used in the presurgical evaluation of refractory partial epilepsies. - 146 - Analyse de l'index d'asymétrie du MPPF dans l'épilepsie temporale ___________________________________________________________________________ Acknowledgements: The authors thank Drs G Demarquay, C Fischer, J Isnard and D Rosenberg for their help in recruitment of patients. We are grateful to the CERMEP paramedical team for taking care of patients and control subjects and we are in debt to Dr D Le Bars and his collaborators for [18F]MPPF radiosynthesis. We also thank F Lavenne and C Pierre for their precious technical assistance. - 147 - Analyse de l'index d'asymétrie du MPPF dans l'épilepsie temporale ___________________________________________________________________________ Table 1: Patients' clinical features. EZ: epileptogenic zone, *: post-surgical follow up, MTHS: mesio-temporal lobe epilepsy with hippocampal sclerosis, MTnoHS: mesio-temporal lobe epilepsy without hippocampal sclerosis, NCMT: neocortical epilepsy with rapid invasion of the mesial temporal structures by the ictal discharge, NCnoMT: neocortical epilepsy without rapid invasion of the mesial temporal structures by the ictal discharge, F: female, M: male, R: right, L: left, B: bilateral, ATL: anterior temporal lobectomy, TLNC: temporal lobectomy with extensive neocortical resection, Le: lesionnectomy sparing mesiotemporal structures. Figure 1: Construction of Asymmetry Index maps Each step of the AI map construction is shown in A. to F. "Raw" BPND images correspond to unnormalized BPND images that have not been spatially normalized. - 148 - Analyse de l'index d'asymétrie du MPPF dans l'épilepsie temporale ___________________________________________________________________________ Figure 2: Asymmetry Index analysis. A. Maps of the asymmetry indices obtained from control BPND datasets. B. Map of the asymmetry indices obtained from the BPND images of the patient under study. A maximum intensity projection viewed from above represents the AI map. The orange area corresponds to the contrast 'left hemisphere minus right hemisphere' and the green area to 'right hemisphere minus left hemisphere'. Resulting voxel based statistical analysis using SPM5 at p<0.05 corrected at the cluster level. In this example, two clusters were identified by AI analysis: - 1 (in the orange part of the maximum intensity projection): (R-L)Patient > (R-L)Controls, consistent with a left decrease or a right increase of MPPF BPND in the patient, - 2 (in the green part of the maximum intensity projection):(L-R)Patient > (L-R)Controls, consistent with a right decrease or a left increase of MPPF BPND in the patient. - 149 - Analyse de l'index d'asymétrie du MPPF dans l'épilepsie temporale ___________________________________________________________________________ Figure 3: Results of visual, standard and asymmetry index analysis. Statistical threshold: p< 0.05 FWE corrected at the voxel level. MTHS: mesio-temporal lobe epilepsy with hippocampal sclerosis on MRI, MTno HS: mesio- temporal lobe epilepsy with visually normal hippocampus on MRI, NC: neocortical epilepsy. Regions of interest: MT: mesial temporal structures, LT: lateral temporal neocortex, ET: extra-temporal structures. The dot line delineates the suspected epileptogenic zone for each TLE subgroup: MT and LT for MT and NC patients respectively. Significant BPND decreases are reported for each region of interest in grey. Black boxes represent the region where the voxel associated with the maximal Z-score is located. Figure 4: Results of visual, standard and asymmetry index analysis. Statistical threshold: p< 0.05 corrected at the cluster level For explanations, see legend for Figure 3. - 150 - Analyse de l'index d'asymétrie du MPPF dans l'épilepsie temporale ___________________________________________________________________________ Figure 5: Results of visual, standard and asymmetry index analysis of a patient with mesio-temporal lobe epilepsy (MTnoHS, patient #16). A. Axial slice of the BPND map in a plane along the long axis of the hippocampi showing visually detectable left-sided decreased MPPF binding involving the entire temporal lobe and extending to ipsilateral extra-temporal regions. B. Standard analysis: Projection of significant clusters obtained by SPM5 analysis at a statistical level of p < 0.05 FWE corrected at the voxel level onto patient's normalized MRI. The blue cross indicates the voxel with the highest Z-score locarted in the anterior part of the inferior temporal gyrus. C. Asymmetry index analysis: Projection of significant clusters obtained with SPM5 analysis at a statistical threshold of p < 0.05 FWE corrected at the voxel level onto patient's normalized MRI. The blue cross indicates the voxel with the highest Zscore, located within the epileptogenic hippocampus. - 151 - Analyse de l'index d'asymétrie du MPPF dans l'épilepsie temporale ___________________________________________________________________________ Figure 6: Results of visual, standard and asymmetry index analysis of a patient with neocortical temporal lobe epilepsy (NC, patient #22). A. Axial slide of the BPND map in a plane along the long axis of the hippocampi showing visually detectable left-sided decreased MPPF binding within the mesiotemporal structures (except for the head of the hippocampus), the lateral temporal neocortex, and ipsilateral extra-temporal regions. B. Standard analysis: Projection of significant clusters obtained by SPM5 analysis at a statistical level of p < 0.05 FWE corrected at the voxel level onto patient's normalized MRI. No significant cluster is found at this threshold. C. Asymmetry index analysis: Projection of significant clusters obtained with SPM5 analysis at a statistical threshold of p < 0.05 FWE corrected at the voxel level onto patient's normalized MRI. The blue cross indicates the voxel with the highest Zscore, located in the inferior temporal gyrus about midway along its anteriorposterior extent. - 152 - Analyse de l'index d'asymétrie du MPPF dans l'épilepsie temporale ___________________________________________________________________________ Table 1: Patient Epilepsy Age Gender (years) Handed- Epilepsy Side of the EZ ness duration (years) Hippocampal Surgery sclerosis Engel Follow up* class (months) 1 MTHS 24 F R 18 R R ATL 1a 35 2 MTHS 50 F R 49 R R ATL 1a 50 3 MTHS 55 M R 46 L L ATL 1a 35 4 MTHS 50 F L 10 L L ATL 1a 50 5 MTHS 32 F B 17 R R ATL 1a 49 6 MTHS 44 F R 11 R R ATL 1a 23 7 MTHS 29 M R 26 R R ATL 1a 30 8 MTHS 61 F R 55 R R ATL 1a 48 9 MTHS 35 M R 34 R R ATL 1a 46 10 MTHS 23 M B 22 R R ATL 1a 26 11 MTHS 46 M R 18 L L ATL 1a 41 12 MTHS 40 M R 30 R R ATL 1a 32 13 MTHS 31 M R 26 R R ATL 1c 19 14 MTHS 35 M R 29 R B ATL 1a 37 15 MTHS 36 M R 31 R R ATL 1a 30 - 153 - Analyse de l'index d'asymétrie du MPPF dans l'épilepsie temporale ___________________________________________________________________________ 16 MTnoHS 39 F B 39 L No ATL 1a 51 17 MTnoHS 18 M L 16 R No ATL 1a 22 18 MTnoHS 41 F R 37 L No ATL 1a 12 19 MTnoHS 42 M R 38 R No ATL 1a 53 20 MTnoHS 60 M R 40 L No ATL 1b 47 21 NCMT 51 F R 36 R No TLNC 1a 8 22 NCMT 18 F R 5 L No TLNC 1a 34 23 NCnoMT 34 F R 7 R No Le 1a 29 24 NCnoMT 42 M R 11 L No Le 1a 12 - 154 - Analyse de l'index d'asymétrie du MPPF dans l'épilepsie temporale ___________________________________________________________________________ Figure 1: - 155 - Analyse de l'index d'asymétrie du MPPF dans l'épilepsie temporale ___________________________________________________________________________ Figure 2: - 156 - Analyse de l'index d'asymétrie du MPPF dans l'épilepsie temporale ___________________________________________________________________________ Figure 3: - 157 - Analyse de l'index d'asymétrie du MPPF dans l'épilepsie temporale ___________________________________________________________________________ Figure 4: - 158 - Analyse de l'index d'asymétrie du MPPF dans l'épilepsie temporale ___________________________________________________________________________ Figure 5: - 159 - Analyse de l'index d'asymétrie du MPPF dans l'épilepsie temporale ___________________________________________________________________________ Figure 6: - 160 - Dépression, récepteurs 5-HT1A et épilepsie temporale ___________________________________________________________________________ - Partie IV INFLUENCE DE LA DEPRESSION SUR LA FIXATION DU [18F]MPPF CHEZ LES PATIENTS SOUFFRANT D'EPILEPSIE DU LOBE TEMPORAL La première comorbidité des patients souffrant d'une épilepsie est les troubles de l'humeur. La dépression, dont la prévalence est de 11% à 60% selon les séries dans la population d'épileptiques [Kanner, 2003], est d'autant plus fréquente chez les patients souffrant d'une épilepsie temporale [Jones, et al., 2005]. La sérotonine joue un rôle physiopathologique important dans les épisodes dépressifs majeurs [Dhaenen, 2001,Drevets, et al.]. Il est ainsi observé dans ces situations pathologiques une diminution de la sérotonine plasmatique [Asberg, et al., 1976,Meltzer, 1990] associée à une réduction de la neurotransmission sérotoninergique [Lopez, et al., 1998]. Plusieurs études précédentes en TEP ont mis en évidence des modifications des récepteurs sérotoninergiques chez des patients dépressifs. Le radioligand utilisé était un antagoniste des récepteurs 5-HT1A, le [11C]WAY-100635, et les résultats obtenus discordants : les premières études montraient une réduction du potentiel de fixation du traceur dans différentes régions du cerveau [Bhagwagar, et al., 2004, Drevets, et al., 2000, Drevets, et al., 1999, Drevets, et al., 2007, Sargent, et al.] tandis qu'une étude récente, avec le même - 161 - Dépression, récepteurs 5-HT1A et épilepsie temporale ___________________________________________________________________________ radioligand montrait plutôt une tendance à l'augmentation du potentiel de fixation dans ces mêmes régions [Parsey, et al., 2006]. Il est dès lors apparu important de vérifier au sein de noter population de patients présentant une ELT quelles modifications des résultats de la TEP au [18F]MPPF pouvaient être induites par un syndrome dépressif. Cette hypothèse a fait l'objet d'une étude publiée dans la revue Brain : A. Lothe, A. Didelot, A. Hammers, N. Costes, M. Saoud, F. Gilliam and P. Ryvlin. Comorbidity between temporal lobe epilepsy and depression: a [18F]MPPF PET study. Brain, 2008. Cette publication a été intégrée dans un travail de thèse étudiant plus largement les différents facteurs pouvant rendre compte des modifications du BPND du [18F] MPPF [Lothe, 2009]. Métho des Vingt-quatre patients souffrant d'une ELT pharmacorésistante avec une SH unilatérale ont été recrutés. Les patients sous traitement antidépresseur tricyclique, IMAO ou inhibiteur sélectif de la recapture de la sérotonine ont été exclus. Pour chaque patient, une TEP au [18F]MPPF et une évaluation des symptômes dépressifs par un auto-questionnaire BDI-2 ont été réalisés. Dans le cadre du bilan pré-chirurgical de l'ELT, chaque patient a aussi bénéficié d'une TEP au [18F]FDG et d'une IRM en séquence 3D pondérée en T1. Les items de la BDI-2 peuvent être classés selon les types de symptômes évalués [Dunn, et al., 2002] : cognitifs, psychomoteurs, somatiques et végétatifs. Une relation entre les valeurs du BPND du [18F]MPPF et les scores obtenus (score principale et à chaque classe - 162 - Dépression, récepteurs 5-HT1A et épilepsie temporale ___________________________________________________________________________ de symptômes) à la BDI-2 a été recherchée. Pour se faire, une analyse par ANCOVA voxel à voxel a été effectuée avec le logiciel SPM2. Une analyse par ROI a été effectuée pour confirmer les résultats obtenus au niveau des noyaux du raphé. Huit des 24 patients retenus souffraient d'une épilepsie temporale gauche. Les examens de ces patients ont été retournés par rapport au plan sagittal médian de façon à ce que le foyer épileptogène soit à droite chez tous les patients. Résultats Parmi les 24 patients (12 hommes et 12 femmes) inclus dans cette étude, huit d'entre eux souffrent d'une ELT gauche et 16 d'une ELT droite. Neuf de ces 24 patients, dont huit souffrant d'une ELT droite, ont un score de BDI-2 supérieur à 11. L'analyse visuelle des données TEP [18F]MPPF de ces patients montre une asymétrie marquée mésio-temporale du BPND du [18F]MPPF du côté du foyer épileptogène. L'analyse SPM des données non flippées nous a permis de mettre en évidence une corrélation positive entre le BPND du [18F]MPPF et le score total de BDI-2, le score réflétant les symptômes cognitifs et psychomoteurs/anhédoniques dans l'insula gauche. Les symptômes somatiques sont corrélés positivement au BPND dans les gyri cingulaires moyens gauche et droit et les gyri frontaux inférieurs et moyens gauches. En revanche, aucune corrélation positive ou négative n'a été observée entre le BPND du [18F]MPPF et les symptômes végétatifs. L'analyse SPM des données flippées montre des résultats similaires, à savoir une corrélation positive entre le score de BDI-2 total, le score reflétant les symptômes cognitifs et psychomoteurs/anhédoniques et le BPND du [18F]MPPF au niveau de l'insula controlatérale au foyer épileptogène. En revanche, les symptômes somatiques sont corrélés positivement au - 163 - Dépression, récepteurs 5-HT1A et épilepsie temporale ___________________________________________________________________________ BPND dans l'hippocampe ipsilatéral au foyer épileptogène, le gyrus cingulaire moyen controlatéral et les gyri frontaux inférieur et moyen des deux côtés. En accord avec les résultats précédemment obtenus, aucune corrélation entre le BPND du [18F]MPPF et les symptômes végétatifs n'a été mise en évidence. L'analyse par ROI a confirmé ces résultats et démontré une corrélation positive entre le BPND du [18F]MPPF des noyaux du raphé et le score total de BDI-2, ainsi que les scores des sous-classes de symptômes cognitifs et psychomoteurs/anhédoniques. Discussion Cette étude a pemis de mettre en évidence l'existence d'altérations complexes du système sérotoninergique chez des patients souffrant d'une ELT et de symptômes dépressifs. L'affinité du [18F]MPPF pour les récepteurs 5-HT1A étant proche de celle de la 5-HT, l'interprétation de ces résultats nous a conduit à la formulation de plusieurs hypothèses (soit une diminution de la concentration extracellulaire de 5-HT, soit une augmentation du nombre de récepteurs 5-HT1A, soit une combinaison des deux phénomènes). Au vu des nombreux arguments de la littérature d'une neurotransmission sérotoninergique réduite dans la dépression, cette corrélation positive serait plus probablement le reflet de la diminution de la concentration extracellulaire de sérotonine plus importante chez les patients les plus déprimés. Se pose dès lors la question de l'interférence de ces modifications avec l'épilepsie : les modifications observées du BPND du [18F]MPPF liées à la dépression peuvent-elles fausser l'interprêtation épileptologique de la TEP au [18F]MPPF ? Un argument plaide pour une relation forte entre épilepsie et dépression : la latéralisation des anomalies du BPND du [18F]MPPF dues à la dépression sont dépendantes de la localisation de la ZE. Cependant, les anomalies significatives constatées dans cette étude sont des augmentations et concerne des - 164 - Dépression, récepteurs 5-HT1A et épilepsie temporale ___________________________________________________________________________ structures extra-hippocampiques. L'existence d'augmentations anormales ipsilatérales pourraient tendre à « gommer » une asymétrie pathologique plutôt que la faire apparaître artificiellement. Enfin, les augmentations controlatérales ne concernent pas les régions retrouvées asymétriques dans l'étude précédente. Au total, les résultats de cette étude ne retrouvent aucun argument permettant de craindre que l'existence d'un syndrome dépressif chez un patient puissent obérer l'interprétation de la TEP au [18F]MPPF à visée épileptologique. - 165 - Dépression, récepteurs 5-HT1A et épilepsie temporale ___________________________________________________________________________ - 166 - Dépression, récepteurs 5-HT1A et épilepsie temporale ___________________________________________________________________________ - 167 - Dépression, récepteurs 5-HT1A et épilepsie temporale ___________________________________________________________________________ - 168 - Dépression, récepteurs 5-HT1A et épilepsie temporale ___________________________________________________________________________ - 169 - Dépression, récepteurs 5-HT1A et épilepsie temporale ___________________________________________________________________________ - 170 - Dépression, récepteurs 5-HT1A et épilepsie temporale ___________________________________________________________________________ - 171 - Dépression, récepteurs 5-HT1A et épilepsie temporale ___________________________________________________________________________ - 172 - Dépression, récepteurs 5-HT1A et épilepsie temporale ___________________________________________________________________________ - 173 - Dépression, récepteurs 5-HT1A et épilepsie temporale ___________________________________________________________________________ - 174 - Dépression, récepteurs 5-HT1A et épilepsie temporale ___________________________________________________________________________ - 175 - Dépression, récepteurs 5-HT1A et épilepsie temporale ___________________________________________________________________________ - 176 - Dépression, récepteurs 5-HT1A et épilepsie temporale ___________________________________________________________________________ - 177 - Dépression, récepteurs 5-HT1A et épilepsie temporale ___________________________________________________________________________ - 178 - Dépression, récepteurs 5-HT1A et épilepsie temporale ___________________________________________________________________________ - 179 - Dépression, récepteurs 5-HT1A et épilepsie temporale ___________________________________________________________________________ - 180 - Dépression, récepteurs 5-HT1A et épilepsie temporale ___________________________________________________________________________ - 181 - Dépression, récepteurs 5-HT1A et épilepsie temporale ___________________________________________________________________________ - 182 - Dépression, récepteurs 5-HT1A et épilepsie temporale ___________________________________________________________________________ - 183 - Discussion ___________________________________________________________________________ DISCUSSION GENERALE Les études menées à l'occasion de ce travail ont permis de situer la TEP au [18F]MPPF dans le cadre du bilan préchirurgical des ELT. Nous avons à la fois comparé cet examen à l'examen de référence : la TEP au [18F]FDG et évalué les différentes méthodes d'analyses permettant une sensibilité et une spécificité optimales. Nous allons détailler dans ce chapitre les applications méthodologiques qui peuvent découler de la technique d'analyse de l'IA, développée pour le [18F]MPPF. L'automatisation de la procédure, notamment, est l'étape indispensable qui permet d'accéder à l'application clinique routinière. Nous verrons donc quels peuvent être les avantages et les limites de l'application pratique d'un tel script. Le second volet de cette discussion portera sur l'aspect clinique avec les implications pratiques que peut avoir la TEP au [18F]MPPF dans le cadre de l'évaluation préchirurgicale de l'épilepsie. - 184 - Discussion ___________________________________________________________________________ CONSIDER ATI ONS ME THOD OLOGI QUES ROLE DE L'EFFET DE VOLUME PARTIEL ET DE LA NORMALISATION Quelle que soit la méthode statistique d'analyse, la normalisation d'un volume sur un volume de référence induit une déformation de ce volume source. Cette déformation est plus importante dans les régions qui sont atrophiques et notamment l'hippocampe chez les patients souffrant d'une ELT. Cette « dilatation » artificielle causée par la normalisation peut être à l'origine d'une diminution de l'estimation du BPND du [18F]MPPF dans ces régions. Le risque était donc de détecter des régions atrophiques sans préjuger de leur caractère épileptogène ou non. Les résultats des études conduites dans ce travail vont contre cette hypothèse. En effet, une diminution significative du BPND du [18F]MPPF a été mise en évidence par l'analyse standard chez 11 des 17 patients sans sclérose de l'hippocampe. Deux cas seulement des 42 patients de notre cohorte peuvent avoir leur diminution du BPND du [18F]MPPF expliquée par la seule atrophie (patients 12 et 28 de la première étude). En effet, dans tous les autres cas, cette diminution implique des régions cérébrales non atrophiques. Enfin, une étude utilisant un autre ligand des récepteurs 5-HT1A, le [18F]FC-WAY, a démontré la persistance d'une diminution significative de ces récepteurs après correction de l'effet de volume partiel [Giovacchini, et al., 2005]. De plus, les mesures de BPND du [18F]MPPF effectuées chez 12 patients présentant une EMT avec ou sans sclérose hippocampique plaident en faveur de valeur de BPND [18F]MPPF plus faibles dans les hippocampes atrophiques épileptogènes que dans les hippocampes épileptogènes de taille normale. Cette différence ne s'est cependant pas révélée significative (p= 0,14). - 185 - Discussion ___________________________________________________________________________ Le rôle joué par l'effet de volume partiel apparaît donc mineur et ne semble pas être source d'erreur dans le cadre de l'application clinique individuelle en routine. Bien entendu, cet effet peut être beaucoup plus important en cas de déformation importante du parenchyme cérébral, notamment chez des patients présentant des lésions volumineuses (tumeur ou séquelles ischémiques notamment). Ces situations particulières réclament une validation par une étude indépendante pour que les résultats puissent être interprétables en analyse individuelle. LES DIFFERENTES METHODES D'ANALYSE Avec les études rapportées dans ce travail, nous avons tenté de délimiter la ZE des patients souffrant d'ELT en utilisant le [18F]FDG en analyse visuelle et le [18F]MPPF en analyse visuelle, en analyse voxel à voxel standard et analyse voxel à voxel des cartes d'IA. Chaque analyse statistique a été réalisée avec deux seuils différents (p< 0,05 corrigé au niveau du cluster et p< 0,05 FWE corrigé au niveau du voxel). Pour chacune de ces méthodes d'analyse, une sensibilité et une spécificité ont pu être estimées. La figure 14 rappelle les différentes estimations de sensibilité et spécificité qui ont pu être réalisées pour l'analyse standard et de l'IA du BPND du [18F]MPPF. Seules ces dernières méthodes d'analyses ont pu être représentées de façon comparative sur ce graphique car ce sont celles pour lesquelles les définitions de la sensibilité et de la spécificité sont demeurées identiques. En effet, la spécificité a été définie dans la première étude comme le pourcentage d'examens où la diminution du [18F]MPPF était limitée à la ZE. Dans la seconde étude, c'est la localisation du voxel avec le Z-max qui a été retenue pour déterminer les vrais et les faux positifs utilisés pour le calcul de la spécificité. Cependant, l'évolution de cette définition de la spécificité a été dictée par les résultats de la - 186 - Discussion ___________________________________________________________________________ première étude. En effet, la corrélation entre diminution du BPND du [18F]MPPF et épileptogénicité du parenchyme cérébral avait été établie à l'échelle du groupe {MERLET, 2004} mais la première étude rapportée ici a mis en évidence une concordance entre ZE et zone de diminution du BPND du [18F]MPPF au niveau individuel. Dès lors, il est licite de considérer le voxel où le Z-score est maximal comme proche, si ce n'est localisateur, de la région la plus épileptogène. La figure 14 illustre la supériorité de la méthode d'analyse de l'IA sur l'analyse SPM standard. Toutes les méthodes d'analyse ont une sensibilité correcte et le principal bénéfice obtenu en analysant l'IA du BPND du [18F]MPPF porte sur la spécificité. Figure 14 : Représentation de la sensibilité et spécificité comparées des méthodes d'analyse standard et des index d'asymétrie p< 0,05 : p corrigé au niveau du cluster, p< 0,05 FWE : p corrigé au niveau du voxel, FWE : family-wise error. - 187 - Discussion ___________________________________________________________________________ L'analyse visuelle s'est révélée sensible (> 80%) pour mettre en évidence des anomalies mais avec une spécificité médiocre (< 50%) et ce quel que soit le traceur utilisé. L'ANALYSE VOXEL A VOXEL DE L'IA Cette méthode se révèle robuste et significativement supérieure, en terme de sensibilité et spécificité, aux autres méthodes d'analyse étudiées pour mettre en évidence le lobe épileptogène. Le gain de sensibilité est majeur (100% contre 58%) lorsque l'on compare l'analyse d'IA à l'analyse standard à un seuil statistique de p< 0,05 FWE corrigé au niveau du voxel. Comme cela a été discuté dans notre dernière étude, la valeur globale du BPND du [18F]MPPF varie dans de grandes proportions d'un sujet à l'autre. Il en résulte de grandes variations au sein d'un voxel. De fait, le taux de détection des voxels avec une valeur anormale chute. Le calcul de l'IA permet une normalisation intra-individuelle des valeurs ce qui limite l'effet du à la grande variabilité inter-individuelle des valeurs du BPND. Cet effet normatif de l'IA a déjà été démontré avec la [11C]diprénorphine [Hammers, et al., 2007]. CHOIX DU Z-MAX POUR LA DEFINITION DE LA SPECIFICITE Il existe une corrélation démontrée entre épileptogénicité du tissu cérébral et diminution de la fixation du [18F]MPPF [Merlet, et al., 2004a]. Cette étude repose sur une méthodologie robuste d'enregistrement intra-cérébral par électrodes profondes mais n'a été réalisée qu'une seule fois et par notre équipe. Il serait donc nécessaire que cette relation soit étayée par d'autres travaux similaires. Cependant, la première étude rapportée dans notre travail {DIDELOT, 2008} étaye cette hypothèse sur le plan individuel. Même si ces différents travaux confirment cette hypothèse, le problème de la définition de la zone épileptogène ne - 188 - Discussion ___________________________________________________________________________ serait pas pour autant réglé. En effet, l'existence de plusieurs zones interdépendantes [Rosenow et Luders, 2001] que sont la ZE, la zone irritative, la zone symptomatogène et la zone de départ des crises témoigne de l'existence d'un gradient d'épileptogénicité dans le parenchyme cérébral du patient épileptique (Figure 15). Ce gradient est indirectement reflété par la diminution du BPND du [18F]MPPF. Cependant, rien ne permet d'affirmer que la diminution du BPND du [18F]MPPF se superpose à la ZE. Comme cela est schématisé dans la figure 10, la diminution du BPND du [18F]MPPF implique probablement une grande partie de la ZE mais aucune étude à ce jour ne permet d'affirmer qu'elle s'y limite. L'étude réalisée dans notre centre [Merlet, et al., 2004a] permet cependant de constater que cette diminution du BPND du [18F]MPPF est significativement moins marquée dans la zone irritative que dans la ZE et la zone de départ des crises, à l'échelle du groupe tout du moins. Cette diminution reflète donc essentiellement le parenchyme cérébral concerné par la ZE. Partant de ce postulat, l'identification du Z-max est apparue pertinente comme critère de spécificité car a priori corrélée à la localisation de la ZE. Cette hypothèse s'est vérifiée dans l'étude portant sur l'analyse des IA. En effet, la localisation du voxel associé au Z-score maximal est dans l'immense majorité des cas située dans la ZE et permet même de différencier les différents sous-types d'ELT. - 189 - Discussion ___________________________________________________________________________ Figure 15 : schéma des différentes zones d'excitabilité corticale et leur rapport à la diminution du BPND du [18F]MPPF Le : lésion, ZD : zone de départ de la crise, ZE : zone épileptogène, ZI : zone irritative, ZS : zone(s) symptomatogène(s). Les ellipses en pointillés représentent les limites minimales et maximales théoriques de la diminution du BPND du [18F]MPPF. SCRIPT D'AUTOMATISATION DE LA PROCEDURE D'ANALYSE La rédaction conjointe à une technique d'analyse d'un script d'exécution est nécessaire à la diffusion de cette technique. Cette procédure permet en effet une reproductibilité de la méthode entre les utilisateurs. Un autre avantage du script d'exécution est le gain de temps. En effet, le renseignement des différentes informations nécessaires à l'analyse prend environ 1 minute à l'utilisateur et la génération des cartes de BPND, d'IA et des contrastes statistiques prend - 190 - Discussion ___________________________________________________________________________ moins de 3 minutes. La même procédure, réalisée manuellement, requiert au moins une vingtaine de minutes pour chaque modalité (analyse standard et IA). L'utilisation de ce script d'exécution exige cependant une parfaite connaissance des différentes opérations réalisées et de la façon dont elles sont effectuées par ce script. Le risque d'erreur est en effet important mais limité par quelques « sécurités » dans le programme : l'examen TEP d'un patient ne peut être normalisé qu'à partir de l'IRM ou de l'image somme de ce même patient, différents filtres permettent, à chaque étape de sélection préalable à l'analyse, de présélectionner des fichiers cohérents en terme de format et de nom pour l'analyse qui est prévue. L'ensemble de ces filtres peut être modifié en fonction des besoins de l'analyse. - 191 - Discussion ___________________________________________________________________________ CONSIDER ATI ONS C LINIQUES APPLICATION A L'EPILEPSIE DU LOBE TEMPORAL Le [18F]MPPF apparaît supérieur au [18F]FDG pour identifier le lobe épileptogène dans le cadre de l'ELT. Les anomalies constatées avec le [18F]FDG sont en effet souvent plus vastes, concernent plusieurs lobes et rendent de fait la délimitation précise d'un ZE supposée souvent grossière. Il a même été constaté dans notre première étude un cas de mauvaise latéralisation du foyer épileptogène sur la base de l'analyse visuelle de la TEP au [18F]FDG. Cependant, pour un des patients étudiés, les résultats de l'étude portant sur les index d'asymétrie posent question. Ce patient [n°20], appartenant au sous-groupe épilepsie temporo-mésiale sans sclérose hippocampique (MTnoHS), fut classé Ib de Engel après lobectomie temporale antéreure réglée et avec un recul post-opératoire de près de 4 ans alors qu'aucune anomalie de l'index d'asymétrie ne fut mise en évidence dans les structures temporo-mésiales. Chez ce patient un cluster significatif de diminution de la fixation du [18F]MPPF était présent en localisation extra-temporale tant en analysant les AI que par analyse SPM standard. Dès lors, quelle signification a cette anomalie de l'index d'asymétrie ? Elle ne peut pas, dans le cas présent, être considérée comme la conséquence de modifications des récepteurs par un parenchyme cérébral potentiellement épileptogène puisque le patient est guéri de ses crises. Cette constatation est cependant demeurée marginale mais suggère que des modifications importantes du BPND du [18F]MPPF peuvent survenir en dehors de la ZE Il apparaît donc nécessaire d'évaluer dans une population plus large de patients la fréquence d'observation de ce type d'anomalie. Les études menées dans ce travail sont donc insuffisantes pour démontrer de façon absolue la signification exacte de la diminution du BPND du [18F]MPPF. En effet, le seul - 192 - Discussion ___________________________________________________________________________ moyen de connaître avec certitude la région cérébrale contenant la ZE était d'effectuer notre étude sur des patients opérés et guéris. Cependant, cette étude ne répond pas à la question de la localisation de la diminution du BPND du [18F]MPPF chez des patients opérés non guéris. Ainsi, la mise en évidence d'un Z-score maximal situé dans les régions temporales internes chez des patients EMT opérés non guéris remettrait en cause la pertinence de la TEP au [18F]MPPF dans le cadre du bilan préchirurgical de ces épilepsies. L'étude de l'IA chez les patients EMT non guéris par la chirurgie apparaît l'étape suivante nécessaire pour établir complètement la TEP au [18F]MPPF comme légitime dans le bilan préopératoire de ces épilepsies. Si cette technique apparaît robuste pour localiser la ZE (à une exception près) chez les patients guéris, il faut aussi démontrer que les patients non guéris ont un Z-score maximum en dehors de la zone initialement supposée épileptogène. Une corrélation plus fine encore pourrait être établie entre diminution du BPND du [18F]MPPF et épileptogénicité. Une étude en comparant, chez des patients implantés en SEEG et thermocoagulés, la localisation du voxel avec le Z-score max et celle des plots thermocoagulés, pourraît ainsi préciser la pertinance du choix du Z-max comme localisateur de la ZE. APPLICATION AUX AUTRES EPILEPSIES Les constations faites pour la TEP au [18F]MPPF dans l'ELT demandent à être confirmées pour toutes les autres épilepsies partielles. En effet, la répartition naturelle des récepteurs 5-HT1A (très représentés dans le cortex limbique) fait du [18F]MPPF un traceur propice à mettre en évidence des anomalies dans ces régions. Il est donc possible que la TEP au [18F]MPPF soit moins performante pour l'identification des ZE extra-temporales. Une étude s'attachant à l'analyse de patients souffrant d'épilepsies extra-temporales apparaît elle - 193 - Discussion ___________________________________________________________________________ aussi nécessaire. Le principal écueil pour cette étude est la localisation de la ZE. En effet, l'étude peut être restreinte à des patients opérés et guéris mais dans ce cas, les effectifs seront plus petits que dans les ELT et hétérogènes en terme de localisation de ZE. Les épilepsies lésionnelles posent le problème de la déformation (plus ou moins importante) du parenchyme cérébral et ses conséquences lors de l'analyse statistique. La normalisation d'un cerveau déformé est en effet à l'origine de nombreux artéfacts de distorsion. Les épilepsies frontales cryptogéniques sont de bonnes candidates pour l'analyse de l'IA mais pose le problème de la définition précise de la ZE qui est toujours très difficile dans ce sous-groupe d'épilepsie. Indépendamment du type de traceur, on peut aussi considérer le type d'analyse. L'analyse de l'IA se révèle en effet supérieure à l'analyse visuelle et à l'analyse standard pour le [18F]MPPF. La prochaine étape du développement de cette méthode d'analyse sera donc son application aux autres traceurs utilisés au sein du CERMEP – imagerie du vivant. Il est ainsi prévu de réaliser un script d'exécution pour le [18F]FDG et le [11C]Flumazénil. INTERACTION ENTRE EPILEPSIE ET DEPRESSION De nombreux facteurs peuvent modifier l'expression des récepteurs 5-HT1A et, parmi ceux-ci, l'un des plus importants semble être l'existence d'un syndrome dépressif. Comme cela a été montré dans l'étude portant sur la comorbidité épilepsie et dépression, l'existence d'un état dépressif, tel qu'évalué par la BDI-II, chez des patients souffrant d'une ELT est corrélé positivement avec le BPND du [18F]MPPF dans l'insula gauche et les noyaux du raphé. Cette modification de BPND du [18F]MPPF a été retrouvé dans la population de patients étudiés mais dans des régions non concernées par les ZE. Ces régions, mises en évidence dans les analyses de groupe n'ont pas été retrouvées sur le plan individuel. Il apparaît donc que ces modifications de l'expression des récepteurs 5-HT1A sont de moindre importance que celles - 194 - Discussion ___________________________________________________________________________ observées du fait du processus épileptogène et n'ont, dans notre population, pas d'impact significatif sur la détermination individuelle de la ZE. LA DIMINUTION DU BPND [18F]MPPF REFLETE-T-ELLE LA ZE ? Il a été montré dans des travaux précédents et confirmé dans nos études qu'il existait une probable corrélation entre épileptogénicité et diminution du BPND [18F]MPPF. Cependant, l'étendue de cette diminution est appréciée de façon fort différente selon la méthode d'analyse utilisée et/ou, dans le cas d'une analyse statistique, en fonction du seuil de significativité choisi. L'analyse visuelle permet ainsi d'identifier de larges plages de diminution du BPND [18F]MPPF tandis que l'analyse de l'IA à un seuil statistique rigoureux réduit la zone de diminution significative à une poignée de voxels. L'analyse est rendue caricaturale lorsque l'on choisit, comme c'est le cas de la deuxième étude, de ne tenir compte que de la localisation du voxel associé au Z-score maximal pour localiser la ZE. Les deux études menées ici avec plusieurs techniques d'analyse différentes ne font que montrer les images d'une réalité identique déformée par la méthode d'observation : il existe une diminution du BPND [18F]MPPF dont les contours sont flous et qui s'étend de façon plus ou moins large selon la limite fixée pour que la diminution soit jugée significative. En cela, aucune des méthodes employées ici ne peut être considérée comme plus adaptée en ce sens qu'elles tendent chacune à définir une ZE dont les contours exacts sont de toute façon inconnus. La problématique est donc, dans le contexte préchirurgical, de décider quel est le meilleur positionnement du seuil de significativité pour obtenir des informations pertinentes en terme de décision chirurgicale. En cela, le choix de l'analyse de l'IA apparaît adéquat car il discrimine de façon robuste les EMT et différencie aussi correctement les NC. - 195 - Discussion ___________________________________________________________________________ PERSPEC TI VES AMELIORATION DE L'EVALUATION DES METHODES D'ANALYSE DE LA TEP AU [18F]MPPF Au cours de ce travail, nous avons constaté que l'une des principales difficultés pour juger de la pertinence d'une méthode d'analyse était le choix du type de mesure à effectuer et la définition de la sensibilité et la spécificité. En effet, nous avons déjà du nous limiter à l'une des constantes mesurables, le BPND, alors que ce traceur répond à un modèle tricompartimental et que le k2 aurait tout aussi bien pu être étudié. Le BPND nous est apparu le mieux refléter l'expression des récepteurs 5-HT1A. Une fois ce paramètre choisi, il faut à nouveau déterminer un choix dans le type de mesure : les clusters mis en évidence doivent-ils être considérés par rapport à un lobe ou à une région anatomique plus restreinte supposée épileptogène ? La précision de cette mesure dépend largement des résultats du bilan chirurgical mais cette délimitation de la ZE reste très imparfaite. Choisir des patients opérés, comme c'est le cas dans notre dernière étude, ne répond qu'à une partie de la question car permet uniquement de prouver que la ZE était incluse dans la région concernée par la cortectomie. Cela ne permet en aucun cas de démontrer que certaines régions extirpées auraient finalement pu être préservées. C'est la problématique commune aux épilepsies impliquant la face latérale du lobe temporal où la question de l'épargne des structures mésiales se pose constamment. Afin de contourner les différents problèmes évoqués ci-dessus, il semble nécessaire de disposer d'une méthode d'évaluation objective quantifiée de la sensibilité et de la spécificité d'une méthode d'analyse d'un examen TEP dans une condition donnée. Cette évaluation objective est dorénavant rendue possible par la création d'examens TEP simulés. En effet, les - 196 - Discussion ___________________________________________________________________________ différentes étapes de la reconstruction d'un examen TEP au [18F]MPPF ont été reproduites à partir de données brutes simulées à partir de notre banque de témoins. L'intérêt fondamental de ces données simulées est le fait que la valeur initiale de la radioactivité dans chaque voxel est connue. Cette valeur va se trouver modifiée au cours des différentes étapes qui vont conduire à la construction de la carte de BPND. Ces modifications de valeur seront le fait des approximations effectuées à chaque étape de la construction de cette carte. La carte de BPND résultante sera donc une simulation réaliste prenant en compte l'ensemble des imprécisions de la chaine de traitement de l'image. Par ailleurs, il est possible de générer, dans une ou plusieurs régions données, des modifications de la valeur de la radioactivité. Par exemple, on peut décider de diminuer de 10, 20, 40 ou 80% la valeur du signal dans un hippocampe (l'encéphale est arbitrairement divisé en 127 régions d'intérêt). Il est ainsi possible de créer une base de témoins simulés et une base de témoins présentant des diminutions du BPND du [18F]MPPF d'intensité et dans des régions anatomiques différentes. Nous disposerions alors des données nécessaires pour une évaluation objective des méthodes d'analyse et il deviendrait possible de déterminer le taux de faux positifs et de vrais négatifs en évaluant le nombre (et la localisation) des voxels anormalement détectés dans notre population simulée ainsi que le taux de faux négatifs et de vrais positifs. La simulation de différents degrés de diminutions dans des régions données permettra de définir le seuil de sensibilité de la méthode et ce en fonction de la région anatomique concernée. Il est en effet probable que le seuil de détection dépende notamment de l'importance de la représentation des récepteurs 5-HT1A dans une région donnée. Une fois appliquée à la mesure de la fixation du [18F]MPPF, cette technique d'évaluation objective des méthodes d'analyse pourra être étendue à d'autres traceurs, en premier lieu le [18F]FDG. - 197 - Références ___________________________________________________________________________ REFERENCES - 198 - Références ___________________________________________________________________________ Ahmad S., Fowler L.J., Whitton P.S. Lamotrigine, carbamazepine and phenytoin differentially alter extracellular levels of 5-hydroxytryptamine, dopamine and amino acids. Epilepsy Res. 2005; 63: 141-9 Andrade R., Nicoll R.A. Pharmacologically distinct actions of serotonin on single pyramidal neurones of the rat hippocampus recorded in vitro. J Physiol. 1987; 394: 99-124 Asberg M., Thoren P., Traskman L., Bertilsson L., Ringberger V. "Serotonin depression"-a biochemical subgroup within the affective disorders? Science. 1976; 191: 478-80 Ashburner J., Friston K. Multimodal image coregistration and partitioning--a unified framework. NeuroImage. 1997; 6: 209-17 Bagdy G., Kecskemeti V., Riba P., Jakus R. Serotonin and epilepsy. J Neurochem. 2007; 100: 857-73 Barnes N.M., Sharp T. A review of central 5-ht receptors and their function. Neuropharmacology. 1999; 38: 1083-152 Bartenstein P.A., Duncan J.S., Prevett M.C., Cunningham V.J., Fish D.R., Jones A.K., et al. Investigation of the opioid system in absence seizures with positron emission tomography. J Neurol Neurosurg Psychiatry. 1993; 56: 1295-302 - 199 - Références ___________________________________________________________________________ Beck S.G., Choi K.C. 5-hydroxytryptamine hyperpolarizes ca3 hippocampal pyramidal cells through an increase in potassium conductance. Neurosci Lett. 1991; 133: 93-6 Bercovici E., Cortez M.A., Wang X., Snead O.C., 3rd. Serotonin depletion attenuates ay9944-mediated atypical absence seizures. Epilepsia. 2006; 47: 240-6 Bhagwagar Z., Rabiner E.A., Sargent P.A., Grasby P.M., Cowen P.J. Persistent reduction in brain serotonin1a receptor binding in recovered depressed men measured by positron emission tomography with [11c]way-100635. Mol Psychiatry. 2004; 9: 386-92 Bonnycastle D.D., Giarman N.J., Paasonen M.K. Diphenylhydantoin and brain-levels and 5-hydroxytryptamine. Nature. 1956; 178: 990-1 Borowicz K.K., Stepien K., Czuczwar S.J. Fluoxetine enhances the anticonvulsant effects of conventional antiepileptic drugs in maximal electroshock seizures in mice. Pharmacol Rep. 2006; 58: 83-90 Bouvard S., Costes N., Bonnefoi F., Lavenne F., Mauguiere F., Delforge J., et al. Seizurerelated short-term plasticity of benzodiazepine receptors in partial epilepsy: A [11c]flumazenil-pet study. Brain. 2005; 128: 1330-43 Bradley P.B., Engel G., Feniuk W., Fozard J.R., Humphrey P.P., Middlemiss D.N., et al. Proposals for the classification and nomenclature of functional receptors for 5hydroxytryptamine. Neuropharmacology. 1986; 25: 563-76 - 200 - Références ___________________________________________________________________________ Brennan T.J., Seeley W.W., Kilgard M., Schreiner C.E., Tecott L.H. Sound-induced seizures in serotonin 5-ht2c receptor mutant mice. Nat Genet. 1997; 16: 387-90 Brix G., Zaers J., Adam L.E., Bellemann M.E., Ostertag H., Trojan H., et al. Performance evaluation of a whole-body pet scanner using the nema protocol. National electrical manufacturers association. Journal of nuclear medicine : official publication, Society of Nuclear Medicine. 1997; 38: 1614-23 Browning R.A., Hoffmann W.E., Simonton R.L. Changes in seizure susceptibility after intracerebral treatment with 5,7-dihydroxytryptamine: Role of serotonergic neurons. Ann N Y Acad Sci. 1978; 305: 437-56 Buterbaugh G.G. Effect of drugs modifying central serotonergic function on the response of extensor and nonextensor rats to maximal electroshock. Life Sci. 1978; 23: 2393-404 Chassoux F., Semah F., Bouilleret V., Landre E., Devaux B., Turak B., et al. Metabolic changes and electro-clinical patterns in mesio-temporal lobe epilepsy: A correlative study. Brain : a journal of neurology. 2004; 127: 164-74 Chugani D.C., Chugani H.T., Muzik O., Shah J.R., Shah A.K., Canady A., et al. Imaging epileptogenic tubers in children with tuberous sclerosis complex using alpha-[11c]methyl-ltryptophan positron emission tomography. Ann Neurol. 1998; 44: 858-66 Cidis Meltzer C., Drevets W.C., Price J.C., Mathis C.A., Lopresti B., Greer P.J., et al. Gender-specific aging effects on the serotonin 1a receptor. Brain Res. 2001; 895: 9-17 - 201 - Références ___________________________________________________________________________ Costes N., Merlet I., Ostrowsky K., Faillenot I., Lavenne F., Zimmer L., et al. A 18fmppf pet normative database of 5-ht1a receptor binding in men and women over aging. Journal of nuclear medicine : official publication, Society of Nuclear Medicine. 2005; 46: 1980-9 Costes N., Merlet I., Zimmer L., Lavenne F., Cinotti L., Delforge J., et al. Modeling [18 f]mppf positron emission tomography kinetics for the determination of 5- hydroxytryptamine(1a) receptor concentration with multiinjection. J Cereb Blood Flow Metab. 2002; 22: 753-65 Costes N., Zimmer L., Reilhac A., Lavenne F., Ryvlin P., Le Bars D. Test-retest reproducibility of 18f-mppf pet in healthy humans: A reliability study. Journal of nuclear medicine : official publication, Society of Nuclear Medicine. 2007; 48: 1279-88 Dailey J.W., Reigel C.E., Mishra P.K., Jobe P.C. Neurobiology of seizure predisposition in the genetically epilepsy-prone rat. Epilepsy Res. 1989; 3: 3-17 Dailey J.W., Yan Q.S., Mishra P.K., Burger R.L., Jobe P.C. Effects of fluoxetine on convulsions and on brain serotonin as detected by microdialysis in genetically epilepsy-prone rats. J Pharmacol Exp Ther. 1992; 260: 533-40 Dailey J.W., Reith M.E., Yan Q.S., Li M.Y., Jobe P.C. Anticonvulsant doses of carbamazepine increase hippocampal extracellular serotonin in genetically epilepsy-prone rats: Dose response relationships. Neurosci Lett. 1997; 227: 13-6 - 202 - Références ___________________________________________________________________________ Delforge J., Spelle L., Bendriem B., Samson Y., Bottlaender M., Papageorgiou S., et al. Quantitation of benzodiazepine receptors in human brain using the partial saturation method. J Nucl Med. 1996; 37: 5-11 Dhaenen H. Imaging the serotonergic system in depression. Eur Arch Psychiatry Clin Neurosci. 2001; 251 Suppl 2: II76-80 Didelot A., Ryvlin P., Lothe A., Merlet I., Hammers A., Mauguiere F. Pet imaging of brain 5-HT1a receptors in the preoperative evaluation of temporal lobe epilepsy. Brain. 2008; 131: 2751-64 Diehl B., Busch R.M., Duncan J.S., Piao Z., Tkach J., Luders H.O. Abnormalities in diffusion tensor imaging of the uncinate fasciculus relate to reduced memory in temporal lobe epilepsy. Epilepsia. 2008; 49: 1409-18 Drevets W.C., Frank E., Price J.C., Kupfer D.J., Greer P.J., Mathis C. Serotonin type-1a receptor imaging in depression. Nucl Med Biol. 2000; 27: 499-507 Drevets W.C., Frank E., Price J.C., Kupfer D.J., Holt D., Greer P.J., et al. Pet imaging of serotonin 1a receptor binding in depression. Biol Psychiatry. 1999; 46: 1375-87 Drevets W.C., Thase M.E., Moses-Kolko E.L., Price J., Frank E., Kupfer D.J., et al. Serotonin-1a receptor imaging in recurrent depression: Replication and literature review. Nucl Med Biol. 2007; 34: 865-77 - 203 - Références ___________________________________________________________________________ Duncan J. The current status of neuroimaging for epilepsy. Curr Opin Neurol. 2009; 22: 17984 Dunn R.T., Kimbrell T.A., Ketter T.A., Frye M.A., Willis M.W., Luckenbaugh D.A., et al. Principal components of the beck depression inventory and regional cerebral metabolism in unipolar and bipolar depression. Biol Psychiatry. 2002; 51: 387-99 Engel J., Jr., Wiebe S., French J., Sperling M., Williamson P., Spencer D., et al. Practice parameter: Temporal lobe and localized neocortical resections for epilepsy: Report of the quality standards subcommittee of the american academy of neurology, in association with the american epilepsy society and the american association of neurological surgeons. Neurology. 2003; 60: 538-47 Erspamer V., Asero B. Identification of enteramine, the specific hormone of the enterochromaffin cell system, as 5-hydroxytryptamine. Nature. 1952; 169: 800-1 Erspamer V., Vialli M. Ricerche sul secreto delle cellule enterocromaffini. Boll Soc MedChir Pavia. 1937; 51: 357-63 Filakovszky J., Gerber K., Bagdy G. A serotonin-1a receptor agonist and an n-methyl-daspartate receptor antagonist oppose each others effects in a genetic rat epilepsy model. Neurosci Lett. 1999; 261: 89-92 - 204 - Références ___________________________________________________________________________ Filakovszky J., Kantor S., Halasz P., Bagdy G. 8-oh-dpat and mk-801 affect epileptic activity independently of vigilance. Neurochem Int. 2001; 38: 551-6 French J.A., Williamson P.D., Thadani V.M., Darcey T.M., Mattson R.H., Spencer S.S., et al. Characteristics of medial temporal lobe epilepsy: I. Results of history and physical examination. Annals of neurology. 1993; 34: 774-80 Friston K.J. Commentary and opinion: Ii. Statistical parametric mapping: Ontology and current issues. J Cereb Blood Flow Metab. 1995; 15: 361-70 Friston K.J., Frith C.D., Liddle P.F., Frackowiak R.S. Comparing functional (pet) images: The assessment of significant change. J Cereb Blood Flow Metab. 1991; 11: 690-9 Frost J.J., Mayberg H.S., Fisher R.S., Douglass K.H., Dannals R.F., Links J.M., et al. Mu-opiate receptors measured by positron emission tomography are increased in temporal lobe epilepsy. Ann Neurol. 1988; 23: 231-7 Frost J.J., Mayberg H.S., Sadzot B., Dannals R.F., Lever J.R., Ravert H.T., et al. Comparison of [11c]diprenorphine and [11c]carfentanil binding to opiate receptors in humans by positron emission tomography. J Cereb Blood Flow Metab. 1990; 10: 484-92 Fukuda M., Masuda H., Honma J., Fujimoto A., Kameyama S., Tanaka R. Ictal spect in supplementary motor area seizures. Neurol Res. 2006; 28: 845-8 - 205 - Références ___________________________________________________________________________ Gariboldi M., Tutka P., Samanin R., Vezzani A. Stimulation of 5-ht1a receptors in the dorsal hippocampus and inhibition of limbic seizures induced by kainic acid in rats. Br J Pharmacol. 1996; 119: 813-8 Gerber K., Filakovszky J., Halasz P., Bagdy G. The 5-ht1a agonist 8-oh-dpat increases the number of spike-wave discharges in a genetic rat model of absence epilepsy. Brain Res. 1998; 807: 243-5 Ginovart N., Hassoun W., Le Bars D., Weissmann D., Leviel V. In vivo characterization of p-[(18)f]mppf, a fluoro analog of way-100635 for visualization of 5-ht(1a) receptors. Synapse. 2000; 35: 192-200 Giovacchini G., Toczek M.T., Bonwetsch R., Bagic A., Lang L., Fraser C., et al. 5-ht 1a receptors are reduced in temporal lobe epilepsy after partial-volume correction. Journal of nuclear medicine : official publication, Society of Nuclear Medicine. 2005; 46: 1128-35 Graf M., Jakus R., Kantor S., Levay G., Bagdy G. Selective 5-ht1a and 5-ht7 antagonists decrease epileptic activity in the wag/rij rat model of absence epilepsy. Neurosci Lett. 2004; 359: 45-8 Guenot M., Isnard J., Ryvlin P., Fischer C., Ostrowsky K., Mauguiere F., et al. Neurophysiological monitoring for epilepsy surgery: The talairach seeg method. Stereoelectroencephalography. Indications, results, complications and therapeutic applications in a series of 100 consecutive cases. Stereotact Funct Neurosurg. 2001; 77: 29-32 - 206 - Références ___________________________________________________________________________ Gunn R.N., Sargent P.A., Bench C.J., Rabiner E.A., Osman S., Pike V.W., et al. Tracer kinetic modeling of the 5-ht1a receptor ligand [carbonyl-11c]way-100635 for pet. NeuroImage. 1998; 8: 426-40 Hamandi K., Powell H.W., Laufs H., Symms M.R., Barker G.J., Parker G.J., et al. Combined eeg-fmri and tractography to visualise propagation of epileptic activity. J Neurol Neurosurg Psychiatry. 2008; 79: 594-7 Hamelin E., Fisher F. The synthesis of 5-hydroxytryptamine. J Am Chem Soc. 1951; 73: 5007-8 Hammers A., Allom R., Koepp M.J., Free S.L., Myers R., Lemieux L., et al. Threedimensional maximum probability atlas of the human brain, with particular reference to the temporal lobe. Hum Brain Mapp. 2003; 19: 224-47 Hammers A., Asselin M.C., Hinz R., Kitchen I., Brooks D.J., Duncan J.S., et al. Upregulation of opioid receptor binding following spontaneous epileptic seizures. Brain. 2007; 130: 1009-16 Hammers A., Asselin M.C., Turkheimer F.E., Hinz R., Osman S., Hotton G., et al. Balancing bias, reliability, noise properties and the need for parametric maps in quantitative ligand pet: [(11)c]diprenorphine test-retest data. NeuroImage. 2007; 38: 82-94 - 207 - Références ___________________________________________________________________________ Hammers A., Koepp M.J., Labbé C., Brooks D.J., Thom M., Cunningham V.J., et al. Neocortical abnormalities of [11c]-flumazenil pet in mesial temporal lobe epilepsy. Neurology. 2001; 56: 897-906 Henry T.R., Frey K.A., Sackellares J.C., Gilman S., Koeppe R.A., Brunberg J.A., et al. In vivo cerebral metabolism and central benzodiazepine-receptor binding in temporal lobe epilepsy. Neurology. 1993; 43: 1998-2006 Houdé O., Mazoyer B., Tzourio-Mazoyer N. Cerveau et psychologie, introduction à l'imagerie cérébrale anatomique. 2002. Hoyer D., Clarke D.E., Fozard J.R., Hartig P.R., Martin G.R., Mylecharane E.J., et al. International union of pharmacology classification of receptors for 5-hydroxytryptamine (serotonin). Pharmacol Rev. 1994; 46: 157-203 Hoyer D., Hannon J.P., Martin G.R. Molecular, pharmacological and functional diversity of 5-ht receptors. Pharmacol Biochem Behav. 2002; 71: 533-54 Hoyer D., Martin G. 5-ht receptor classification and nomenclature: Towards a harmonization with the human genome. Neuropharmacology. 1997; 36: 419-28 Humphrey P.P., Hartig P., Hoyer D. A proposed new nomenclature for 5-ht receptors. Trends Pharmacol Sci. 1993; 14: 233-6 - 208 - Références ___________________________________________________________________________ Innis R.B., Cunningham V.J., Delforge J., Fujita M., Gjedde A., Gunn R.N., et al. Consensus nomenclature for in vivo imaging of reversibly binding radioligands. Journal of cerebral blood flow and metabolism : official journal of the International Society of Cerebral Blood Flow and Metabolism. 2007; 27: 1533-9 Jakus R., Graf M., Juhasz G., Gerber K., Levay G., Halasz P., et al. 5-ht2c receptors inhibit and 5-ht1a receptors activate the generation of spike-wave discharges in a genetic rat model of absence epilepsy. Exp Neurol. 2003; 184: 964-72 Jobe P.C., Picchioni A.L., Chin L. Role of brain 5-hydroxytryptamine in audiogenic seizure in the rat. Life Sci. 1973; 13: 1-13 Jones J.E., Hermann B.P., Barry J.J., Gilliam F., Kanner A.M., Meador K.J. Clinical assessment of axis i psychiatric morbidity in chronic epilepsy: A multicenter investigation. J Neuropsychiatry Clin Neurosci. 2005; 17: 172-9 Juhasz C., Chugani D.C., Muzik O., Shah A., Asano E., Mangner T.J., et al. Alphamethyl-l-tryptophan pet detects epileptogenic cortex in children with intractable epilepsy. Neurology. 2003; 60: 960-8 Juhasz C., Chugani D.C., Muzik O., Watson C., Shah J., Shah A., et al. Electroclinical correlates of flumazenil and fluorodeoxyglucose pet abnormalities in lesional epilepsy. Neurology. 2000; 55: 825-35 - 209 - Références ___________________________________________________________________________ Kagawa K., Chugani D.C., Asano E., Juhasz C., Muzik O., Shah A., et al. Epilepsy surgery outcome in children with tuberous sclerosis complex evaluated with alpha[11c]methyl-l-tryptophan positron emission tomography (pet). J Child Neurol. 2005; 20: 42938 Kahane P., Landre E., Minotti L., Francione S., Ryvlin P. The bancaud and talairach view on the epileptogenic zone: A working hypothesis. Epileptic Disord. 2006; 8 Suppl 2: S16-26 Kang K.W., Lee D.S., Cho J.H., Lee J.S., Yeo J.S., Lee S.K., et al. Quantification of f-18 fdg pet images in temporal lobe epilepsy patients using probabilistic brain atlas. NeuroImage. 2001; 14: 1-6 Kanner A.M. Depression in epilepsy: Prevalence, clinical semiology, pathogenic mechanisms, and treatment. Biol Psychiatry. 2003; 54: 388-98 Kecskemeti V., Rusznak Z., Riba P., Pal B., Wagner R., Harasztosi C., et al. Norfluoxetine and fluoxetine have similar anticonvulsant and ca2+ channel blocking potencies. Brain Res Bull. 2005; 67: 126-32 Kilian M., Frey H. Central monoamines and convulsive thresholds in mice and rats. Neuropharmacology. 1973; 12: 681-92 Kim Y.K., Lee D.S., Lee S.K., Kim S.K., Chung C.K., Chang K.H., et al. Differential features of metabolic abnormalities between medial and lateral temporal lobe epilepsy: Quantitative analysis of (18)f-fdg pet using spm. J Nucl Med. 2003; 44: 1006-12 - 210 - Références ___________________________________________________________________________ Knake S., Halgren E., Shiraishi H., Hara K., Hamer H.M., Grant P.E., et al. The value of multichannel meg and eeg in the presurgical evaluation of 70 epilepsy patients. Epilepsy Res. 2006; 69: 80-6 Knowlton R.C., Elgavish R.A., Bartolucci A., Ojha B., Limdi N., Blount J., et al. Functional imaging: Ii. Prediction of epilepsy surgery outcome. Ann Neurol. 2008a; 64: 35-41 Knowlton R.C., Elgavish R.A., Limdi N., Bartolucci A., Ojha B., Blount J., et al. Functional imaging: I. Relative predictive value of intracranial electroencephalography. Ann Neurol. 2008b; 64: 25-34 Koepp M.J., Hammers A., Labbe C., Woermann F.G., Brooks D.J., Duncan J.S. 11cflumazenil pet in patients with refractory temporal lobe epilepsy and normal mri. Neurology. 2000; 54: 332-9 Koepp M.J., Hand K.S., Labbe C., Richardson M.P., Van Paesschen W., Baird V.H., et al. In vivo [11c]flumazenil-pet correlates with ex vivo [3h]flumazenil autoradiography in hippocampal sclerosis. Ann Neurol. 1998; 43: 618-26 Koepp M.J., Richardson M.P., Brooks D.J., Duncan J.S. Focal cortical release of endogenous opioids during reading-induced seizures. Lancet. 1998; 352: 952-5 - 211 - Références ___________________________________________________________________________ Koepp M.J., Richardson M.P., Labbe C., Brooks D.J., Cunningham V.J., Ashburner J., et al. 11c-flumazenil pet, volumetric mri, and quantitative pathology in mesial temporal lobe epilepsy. Neurology. 1997; 49: 764-73 Kung H.F., Stevenson D.A., Zhuang Z.P., Kung M.P., Frederick D., Hurt S.D. New 5ht1a receptor antagonist: [3h]p-mppf. Synapse. 1996; 23: 344-6 Le Bars D., Lemaire C., Ginovart N., Plenevaux A., Aerts J., Brihaye C., et al. High-yield radiosynthesis and preliminary in vivo evaluation of p-[18f]mppf, a fluoro analog of way100635. Nuclear medicine and biology. 1998; 25: 343-50 Leander J.D. Fluoxetine, a selective serotonin-uptake inhibitor, enhances the anticonvulsant effects of phenytoin, carbamazepine, and ameltolide (ly201116). Epilepsia. 1992; 33: 573-6 Lee J.S., Juhasz C., Kaddurah A.K., Chugani H.T. Patterns of cerebral glucose metabolism in early and late stages of rasmussen's syndrome. J Child Neurol. 2001; 16: 798805 Lerner-Natoli M. Serotonin and kindling development. Int J Neurosci. 1987; 36: 139-51 Lin T.W., de Aburto M.A., Dahlbom M., Huang L.L., Marvi M.M., Tang M., et al. Predicting seizure-free status for temporal lobe epilepsy patients undergoing surgery: Prognostic value of quantifying maximal metabolic asymmetry extending over a specified proportion of the temporal lobe. J Nucl Med. 2007; 48: 776-82 - 212 - Références ___________________________________________________________________________ Logan J. Graphical analysis of pet data applied to reversible and irreversible tracers. Nucl Med Biol. 2000; 27: 661-70 Lopez J.F., Chalmers D.T., Little K.Y., Watson S.J. A.E. Bennett research award. Regulation of serotonin1a, glucocorticoid, and mineralocorticoid receptor in rat and human hippocampus: Implications for the neurobiology of depression. Biol Psychiatry. 1998; 43: 547-73 Loscher W. Genetic animal models of epilepsy as a unique resource for the evaluation of anticonvulsant drugs. A review. Methods Find Exp Clin Pharmacol. 1984; 6: 531-47 Loscher W., Schmidt D. Which animal models should be used in the search for new antiepileptic drugs? A proposal based on experimental and clinical considerations. Epilepsy Res. 1988; 2: 145-81 Lothe A. Apports de la neuroimagerie tep au [18F]MPPF dans l'étude des modifications fonctionnelles du système sérotoninergique. 2009: 261 Lothe A., Didelot A., Hammers A., Costes N., Saoud M., Gilliam F., et al. Comorbidity between temporal lobe epilepsy and depression: A [18F]MPPF pet study. Brain. 2008; 131: 2765-82 Louw D., Sutherland G.R., Glavin G.B., Girvin J. A study of monoamine metabolism in human epilepsy. Can J Neurol Sci. 1989; 16: 394-7 - 213 - Références ___________________________________________________________________________ Lu K.T., Gean P.W. Endogenous serotonin inhibits epileptiform activity in rat hippocampal ca1 neurons via 5-hydroxytryptamine1a receptor activation. Neuroscience. 1998; 86: 729-37 Luby M., Spencer D.D., Kim J.H., deLanerolle N., McCarthy G. Hippocampal mri volumetrics and temporal lobe substrates in medial temporal lobe epilepsy. Magn Reson Imaging. 1995; 13: 1065-71 Luders H., Awad I.: Conceptual considerations; in Epilepsy surgery. (ed. New York, Raven Press), 1991, pp 51-62 Luders H.O., Najm I., Nair D., Widdess-Walsh P., Bingman W. The epileptogenic zone: General principles. Epileptic Disord. 2006; 8 Suppl 2: S1-9 Magyar J., Rusznak Z., Harasztosi C., Kortvely A., Pacher P., Banyasz T., et al. Differential effects of fluoxetine enantiomers in mammalian neural and cardiac tissues. Int J Mol Med. 2003; 11: 535-42 Matsuda H., Matsuda K., Nakamura F., Kameyama S., Masuda H., Otsuki T., et al. Contribution of subtraction ictal spect coregistered to mri to epilepsy surgery: A multicenter study. Ann Nucl Med. 2009; 23: 283-91 Mauguiere F., Ryvlin P. The role of pet in presurgical assessment of partial epilepsies. Epileptic Disord. 2004; 6: 193-215 - 214 - Références ___________________________________________________________________________ Mayberg H.S., Sadzot B., Meltzer C.C., Fisher R.S., Lesser R.P., Dannals R.F., et al. Quantification of mu and non-mu opiate receptors in temporal lobe epilepsy using positron emission tomography. Ann Neurol. 1991; 30: 3-11 Mazarati A.M., Baldwin R.A., Shinmei S., Sankar R. In vivo interaction between serotonin and galanin receptors types 1 and 2 in the dorsal raphe: Implication for limbic seizures. J Neurochem. 2005; 95: 1495-503 Meltzer H.Y. Role of serotonin in depression. Ann N Y Acad Sci. 1990; 600: 486-99; discussion 99-500 Merlet I., Ostrowsky K., Costes N., Ryvlin P., Isnard J., Faillenot I., et al. 5-ht1a receptor binding and intracerebral activity in temporal lobe epilepsy: An [18f]mppf-pet study. Brain : a journal of neurology. 2004a; 127: 900-13 Merlet I., Ryvlin P., Costes N., Dufournel D., Isnard J., Faillenot I., et al. Statistical parametric mapping of 5-ht1a receptor binding in temporal lobe epilepsy with hippocampal ictal onset on intracranial eeg. NeuroImage. 2004b; 22: 886-96 Middlemiss D.N., Fozard J.R. 8-hydroxy-2-(di-n-propylamino)-tetralin discriminates between subtypes of the 5-ht1 recognition site. Eur J Pharmacol. 1983; 90: 151-3 Mintun M.A., Raichle M.E., Kilbourn M.R., Wooten G.F., Welch M.J. A quantitative model for the in vivo assessment of drug binding sites with positron emission tomography. Ann Neurol. 1984; 15: 217-27 - 215 - Références ___________________________________________________________________________ Mintzer S., Sperling M.R. When should a resection sparing mesial structures be considered for temporal lobe epilepsy? Epilepsy Behav. 2008; 13: 7-11 Muzik O., Chugani D.C., Shen C., da Silva E.A., Shah J., Shah A., et al. Objective method for localization of cortical asymmetries using positron emission tomography to aid surgical resection of epileptic foci. Comput Aided Surg. 1998; 3: 74-82 Natsume J., Kumakura Y., Bernasconi N., Soucy J.P., Nakai A., Rosa P., et al. Alpha[11c] methyl-l-tryptophan and glucose metabolism in patients with temporal lobe epilepsy. Neurology. 2003; 60: 756-61 O'Brien T.J., Miles K., Ware R., Cook M.J., Binns D.S., Hicks R.J. The cost-effective use of 18f-fdg pet in the presurgical evaluation of medically refractory focal epilepsy. J Nucl Med. 2008; 49: 931-7 Okada M., Kaneko S., Hirano T., Ishida M., Kondo T., Otani K., et al. Effects of zonisamide on extracellular levels of monoamine and its metabolite, and on ca2+ dependent dopamine release. Epilepsy Res. 1992; 13: 113-9 Okuhara D.Y., Beck S.G. 5-ht1a receptor linked to inward-rectifying potassium current in hippocampal ca3 pyramidal cells. J Neurophysiol. 1994; 71: 2161-7 - 216 - Références ___________________________________________________________________________ Parsey R.V., Oquendo M.A., Ogden R.T., Olvet D.M., Simpson N., Huang Y.Y., et al. Altered serotonin 1a binding in major depression: A [carbonyl-c-11]way100635 positron emission tomography study. Biol Psychiatry. 2006; 59: 106-13 Pasini A., Tortorella A., Gale K. Anticonvulsant effect of intranigral fluoxetine. Brain Res. 1992; 593: 287-90 Pasini A., Tortorella A., Gale K. The anticonvulsant action of fluoxetine in substantia nigra is dependent upon endogenous serotonin. Brain Res. 1996; 724: 84-8 Peroutka S.J., Snyder S.H. Multiple serotonin receptors: Differential binding of [3h]5hydroxytryptamine, [3h]lysergic acid diethylamide and [3h]spiroperidol. Mol Pharmacol. 1979; 16: 687-99 Pike V.W., McCarron J.A., Lammertsma A.A., Osman S., Hume S.P., Sargent P.A., et al. Exquisite delineation of 5-ht1a receptors in human brain with pet and [carbonyl-11 c]way100635. Eur J Pharmacol. 1996; 301: R5-7 Pintor M., Mefford I.N., Hutter I., Pocotte S.L., Wyler A.R., Nadi N.S. Levels of biogenic amines, their metabolites, and tyrosine hydroxylase activity in the human epileptic temporal cortex. Synapse. 1990; 5: 152-6 Plenevaux A., Lemaire C., Aerts J., Lacan G., Rubins D., Melega W.P., et al. [(18)f]pmppf: Aa radiolabeled antagonist for the study of 5-ht(1a) receptors with pet. Nucl Med Biol. 2000a; 27: 467-71 - 217 - Références ___________________________________________________________________________ Plenevaux A., Weissmann D., Aerts J., Lemaire C., Brihaye C., Degueldre C., et al. Tissue distribution, autoradiography, and metabolism of 4-(2'-methoxyphenyl)-1-[2' -[n-2"pyridinyl)-p-[(18)f]fluorobenzamido]ethyl]piperazine (p-[(18)f]mppf), a new serotonin 5ht(1a) antagonist for positron emission tomography: An in vivo study in rats. J Neurochem. 2000b; 75: 803-11 Prendiville S., Gale K. Anticonvulsant effect of fluoxetine on focally evoked limbic motor seizures in rats. Epilepsia. 1993; 34: 381-4 Prevett M.C., Cunningham V.J., Brooks D.J., Fish D.R., Duncan J.S. Opiate receptors in idiopathic generalised epilepsy measured with [11c]diprenorphine and positron emission tomography. Epilepsy Res. 1994; 19: 71-7 Raju S.S., Noor A.R., Gurthu S., Giriyappanavar C.R., Acharya S.B., Low H.C., et al. Effect of fluoxetine on maximal electroshock seizures in mice: Acute vs chronic administration. Pharmacol Res. 1999; 39: 451-4 Rapport M. Serum vasoconstrictor (serotonin) the presence of creatinine in the complex; a proposed structure of the vasoconstrictor principle. J Biol Chem. 1949; 180: 961-9 Rapport M., Green A., Page I. Crystalline serotonin. Science. 1948; 108: 329-30 Rosenow F., Luders H. Presurgical evaluation of epilepsy. Brain. 2001; 124: 1683-700 - 218 - Références ___________________________________________________________________________ Ryvlin P., Bouvard S., Le Bars D., De Lamerie G., Gregoire M.C., Kahane P., et al. Clinical utility of flumazenil-pet versus [18f]fluorodeoxyglucose-pet and mri in refractory partial epilepsy. A prospective study in 100 patients. Brain. 1998; 121 ( Pt 11): 2067-81 Ryvlin P., Bouvard S., Le Bars D., Mauguiere F. Transient and falsely lateralizing flumazenil-pet asymmetries in temporal lobe epilepsy. Neurology. 1999; 53: 1882-5 Ryvlin P., Kahane P. The hidden causes of surgery-resistant temporal lobe epilepsy: Extratemporal or temporal plus? Curr Opin Neurol. 2005; 18: 125-7 Ryvlin P., Philippon B., Cinotti L., Froment J.C., Le Bars D., Mauguiere F. Functional neuroimaging strategy in temporal lobe epilepsy: A comparative study of 18fdg-pet and 99mtc-hmpao-spect. Ann Neurol. 1992; 31: 650-6 Ryvlin P., Rheims S. Epilepsy surgery: Eligibility criteria and presurgical evaluation. Dialogues Clin Neurosci. 2008; 10: 91-103 Salgado-Commissariat D., Alkadhi K.A. Serotonin inhibits epileptiform discharge by activation of 5-ht1a receptors in ca1 pyramidal neurons. Neuropharmacology. 1997; 36: 170512 Sargent P.A., Kjaer K.H., Bench C.J., Rabiner E.A., Messa C., Meyer J., et al. Brain serotonin1a receptor binding measured by positron emission tomography with [11c]way100635: Effects of depression and antidepressant treatment. Arch Gen Psychiatry. 2000; 57: 174-80 - 219 - Références ___________________________________________________________________________ Savic I., Blomqvist G., Halldin C., Litton J.E., Gulyas B. Regional increases in [11c]flumazenil binding after epilepsy surgery. Acta Neurol Scand. 1998; 97: 279-86 Savic I., Lindstrom P., Gulyas B., Halldin C., Andree B., Farde L. Limbic reductions of 5ht1a receptor binding in human temporal lobe epilepsy. Neurology. 2004; 62: 1343-51 Savic I., Svanborg E., Thorell J.O. Cortical benzodiazepine receptor changes are related to frequency of partial seizures: A positron emission tomography study. Epilepsia. 1996; 37: 236-44 Schmitz D., Gloveli T., Empson R.M., Draguhn A., Heinemann U. Serotonin reduces synaptic excitation in the superficial medial entorhinal cortex of the rat via a presynaptic mechanism. J Physiol. 1998; 508 ( Pt 1): 119-29 Schramm J. Temporal lobe epilepsy surgery and the quest for optimal extent of resection: A review. Epilepsia. 2008; 49: 1296-307 Schuele S.U., Luders H.O. Intractable epilepsy: Management and therapeutic alternatives. Lancet Neurol. 2008; 7: 514-24 Shiue C.Y., Shiue G.G., Mozley P.D., Kung M.P., Zhuang Z.P., Kim H.J., et al. P-[18f]mppf: A potential radioligand for pet studies of 5-ht1a receptors in humans. Synapse. 1997; 25: 147-54 - 220 - Références ___________________________________________________________________________ Sindou M., Guenot M., Isnard J., Ryvlin P., Fischer C., Mauguiere F. Temporo-mesial epilepsy surgery: Outcome and complications in 100 consecutive adult patients. Acta Neurochir (Wien). 2006; 148: 39-45 Spencer D.D., Spencer S.S. Surgery for epilepsy. Neurol Clin. 1985; 3: 313-30 Spencer S.S. The relative contributions of mri, spect, and pet imaging in epilepsy. Epilepsia. 1994; 35 Suppl 6: S72-89 Statnick M.A., Dailey J.W., Jobe P.C., Browning R.A. Abnormalities in 5-ht1a and 5-ht1b receptor binding in severe-seizure genetically epilepsy-prone rats (gepr-9s). Neuropharmacology. 1996a; 35: 111-8 Statnick M.A., Dailey J.W., Jobe P.C., Browning R.A. Abnormalities in brain serotonin concentration, high-affinity uptake, and tryptophan hydroxylase activity in severe-seizure genetically epilepsy-prone rats. Epilepsia. 1996b; 37: 311-21 Strandberg M., Larsson E.M., Backman S., Kallen K. Pre-surgical epilepsy evaluation using 3t mri. Do surface coils provide additional information? Epileptic Disord. 2008; 10: 8392 Stufflebeam S.M., Tanaka N., Ahlfors S.P. magnetoencephalography. Hum Brain Mapp. 2009; 30: 1813-23 - 221 - Clinical applications of Références ___________________________________________________________________________ Sutherling W.W., Mamelak A.N., Thyerlei D., Maleeva T., Minazad Y., Philpott L., et al. Influence of magnetic source imaging for planning intracranial eeg in epilepsy. Neurology. 2008; 71: 990-6 Tang L., Mantle M., Ferrari P., Schiffbauer H., Rowley H.A., Barbaro N.M., et al. Consistency of interictal and ictal onset localization using magnetoencephalography in patients with partial epilepsy. J Neurosurg. 2003; 98: 837-45 Tecott L.H., Sun L.M., Akana S.F., Strack A.M., Lowenstein D.H., Dallman M.F., et al. Eating disorder and epilepsy in mice lacking 5-ht2c serotonin receptors. Nature. 1995; 374: 542-6 Tellez-Zenteno J.F., Dhar R., Hernandez-Ronquillo L., Wiebe S. Long-term outcomes in epilepsy surgery: Antiepileptic drugs, mortality, cognitive and psychosocial aspects. Brain. 2007; 130: 334-45 Theodore W.H. Does serotonin play a role in epilepsy? Epilepsy Curr. 2003; 3: 173-7 Theodore W.H., Carson R.E., Andreasen P., Zametkin A., Blasberg R., Leiderman D.B., et al. Pet imaging of opiate receptor binding in human epilepsy using [18f]cyclofoxy. Epilepsy Res. 1992; 13: 129-39 Toczek M.T., Carson R.E., Lang L., Ma Y., Spanaki M.V., Der M.G., et al. Pet imaging of 5-ht1a receptor binding in patients with temporal lobe epilepsy. Neurology. 2003; 60: 74956 - 222 - Références ___________________________________________________________________________ Trevathan E. Does temporal lobe epilepsy surgery in children improve functional outcomes? Nat Clin Pract Neurol. 2006; 2: 130-1 Underwood M.D., Khaibulina A.A., Ellis S.P., Moran A., Rice P.M., Mann J.J., et al. Morphometry of the dorsal raphe nucleus serotonergic neurons in suicide victims. Biol Psychiatry. 1999; 46: 473-83 Van Bogaert P., De Tiege X., Vanderwinden J.M., Damhaut P., Schiffmann S.N., Goldman S. Comparative study of hippocampal neuronal loss and in vivo binding of 5-ht1a receptors in the ka model of limbic epilepsy in the rat. Epilepsy Res. 2001; 47: 127-39 Van Bogaert P., Massager N., Tugendhaft P., Wikler D., Damhaut P., Levivier M., et al. Statistical parametric mapping of regional glucose metabolism in mesial temporal lobe epilepsy. NeuroImage. 2000; 12: 129-38 Wada Y., Hasegawa H., Nakamura M., Yamaguchi N. Serotonergic inhibition of limbic and thalamic seizures in cats. Neuropsychobiology. 1992; 25: 87-90 Wada Y., Nakamura M., Hasegawa H., Yamaguchi N. Intra-hippocampal injection of 8hydroxy-2-(di-n-propylamino)tetralin (8-oh-dpat) inhibits partial and generalized seizures induced by kindling stimulation in cats. Neurosci Lett. 1993; 159: 179-82 - 223 - Références ___________________________________________________________________________ Wada Y., Shiraishi J., Nakamura M., Hasegawa H. Prolonged but not acute fluoxetine administration produces its inhibitory effect on hippocampal seizures in rats. Psychopharmacology (Berl). 1995; 118: 305-9 Wakamoto H., Chugani D.C., Juhasz C., Muzik O., Kupsky W.J., Chugani H.T. Alphamethyl-l-tryptophan positron emission tomography in epilepsy with cortical developmental malformations. Pediatr Neurol. 2008; 39: 181-8 Watanabe K., Minabe Y., Ashby C.R., Jr., Katsumori H. Effect of acute administration of various 5-ht receptor agonists on focal hippocampal seizures in freely moving rats. Eur J Pharmacol. 1998; 350: 181-8 Welsh J.P., Placantonakis D.G., Warsetsky S.I., Marquez R.G., Bernstein L., Aicher S.A. The serotonin hypothesis of myoclonus from the perspective of neuronal rhythmicity. Adv Neurol. 2002; 89: 307-29 Wiebe S., Blume W.T., Girvin J.P., Eliasziw M. A randomized, controlled trial of surgery for temporal-lobe epilepsy. N Engl J Med. 2001; 345: 311-8 Wiebe S., Jette N. Randomized trials and collaborative research in epilepsy surgery: Future directions. Can J Neurol Sci. 2006; 33: 365-71 Williamson P.D., French J.A., Thadani V.M., Kim J.H., Novelly R.A., Spencer S.S., et al. Characteristics of medial temporal lobe epilepsy: Ii. Interictal and ictal scalp - 224 - Références ___________________________________________________________________________ electroencephalography, neuropsychological testing, neuroimaging, surgical results, and pathology. Annals of neurology. 1993; 34: 781-7 Willmann O., Wennberg R., May T., Woermann F.G., Pohlmann-Eden B. The contribution of 18f-fdg pet in preoperative epilepsy surgery evaluation for patients with temporal lobe epilepsy a meta-analysis. Seizure. 2007; 16: 509-20 Worsley K.J., Marrett S., Neelin P., Vandal A.C., Friston K.J., Evans A.C. A unified statistical approach for determining significant signals in images of cerebral activation. Hum Brain Mapp. 1996; 4: 58-73 Yan Q.S., Jobe P.C., Cheong J.H., Ko K.H., Dailey J.W. Role of serotonin in the anticonvulsant effect of fluoxetine in genetically epilepsy-prone rats. Naunyn Schmiedebergs Arch Pharmacol. 1994; 350: 149-52 Yan Q.S., Jobe P.C., Dailey J.W. Further evidence of anticonvulsant role for 5hydroxytryptamine in genetically epilepsy-prone rats. Br J Pharmacol. 1995; 115: 1314-8 Yogarajah M., Duncan J.S. Diffusion-based magnetic resonance imaging and tractography in epilepsy. Epilepsia. 2008; 49: 189-200 - 225 - Annexes ___________________________________________________________________________ ANNEXES - 226 - Annexes ___________________________________________________________________________ Classification pos t-chi ru rgicale des E pilepsies selon Enge l Classe I : Libre de crises IA : Totalement libre de crise après la chirurgie. IB : Crises parielles simples non invalidantes apparues seulement depuis la chirurgie. IC : Quelques crises invalidantes au décours de la chirurgie mais patient libre de crises invalidantes depuis au moins deux ans. ID : Crises généralisées à l'occasion d'un sevrage médicamenteux Classe II : Rares crises invalidantes (« presque libre de crises ») IIA : Initiallement libre de crises mais rares crises actuelles. IIB : Rares crises invalidantes depuis la chirurgie. IIC : Crises non exceptionnelles au décours de la chirurgie mais crises rares depuis au moins 2 ans. IID : Crises morphéiques isolées. Classe III : Amélioration significative IIIA : Réduction significative des crises. IIIB : Libre de crise durant une période prolongée (supérieure à 2 ans et durant plus de la moitié de la période de suivi). Classe IV : Absence d'amélioration significative IVA : Diminution significative du nombre de crises IVB : Pas de modification des crises IVC : aggravation des crises - 227 - Annexes ___________________________________________________________________________ Scri pt d'au tom atisation de la fabri cation des cartes de BPND et d'I A Détermination des paramètres spécifiques à l'étude Détermination des fichiers sources : « close all; clear all; warning off MATLAB:divideByZero spm('defaults','pet'); basecwd = '/home/mppf/100epilepsies'; controlsdir = '/home/mppf/100epilepsies/TEMOINS/SYM'; controlsdirBP = '/home/mppf/100epilepsies/TEMOINS/noSYM' ; » Intégration de l'âge et du sexe des témoins comme covariables : « AgeControls = [21 20 27 25 47 30 21 31 23 21 31 33 44 45 42 53 42 31 46 33 43 33 47 42 48 63 45 54 47 53 46 48 70 37 56 52 58 58 60 63 67]; SexControls =[1 1 1 1 1 2 2 1 2 2 2 1 2 1 2 2 1 2 1 2 1 1 2 2 2 1 1 1 2 2 2 1 2 2 2 1 2 1 2 2 2]; » Détermination des filtres d'ouverture des fichiers : « datafold = '42_patients_TLE'; BProotfilename = 'BP'; - 228 - Annexes ___________________________________________________________________________ dynrootfilename = 'dyn'; » Choix des modèles : « templ_norm_sym = strcat('/home/cronos/redoute/AsymIndexes/templates/Sym_template/','Sym_ wmppf_template.nii', ',1'); templ_norm = strcat('/home/cronos/redoute/AsymIndexes/templates/','wmppf_sum_avg51.n ii',',1'); » Paramètres de lissage et de seuillage : « prefwhm = [8 8 8]; postfwhm = [4 4 4]; threshold = '0.05'; cd (fullfile(basecwd,datafold)); » Détermination des informations nécessaires à chaque analyse et nombre de patients à étudier : « subname={};dynfilepath={};BPfilepath={};SexPatient={};AgePatient={}; name1='';name2=''; Nsubj = inputdlg('nombre de sujets a traiter', 'select subjects',1,{'1'}); checkfile = 1;i=1; while i<= str2num(cell2mat(Nsubj)) » - 229 - Annexes ___________________________________________________________________________ Sélection des informations nécessaires à l'analyse : « dynfilepath{i,1} =spm_select(1,'.*dyn.*v$',strcat('select Dyn ecat file for Subject n°',num2str(i))); [pathstr, name, ext]=fileparts(dynfilepath{i,1}); selectdir = pathstr; cd (selectdir); BPfilepath{i,1} = spm_select(1,'.*BP.*v$',strcat('select BP ecat file for Subject n°',num2str(i))); dlg_title = 'Patient Characteristics'; prompt = {'Enter patient Age:'}; num_lines = 1; AgePatient{i,1} = inputdlg(prompt,dlg_title,num_lines); %ask for sex choice = questdlg('Enter Patient Sex:', 'Patient Characteristics', 'Male','Female','Male'); % Handle response switch choice case 'Male' SexPatient{i,1} = 1; %1 = Male case 'Female' SexPatient{i,1} = 2 ; %2= Female end cd ; » - 230 - Annexes ___________________________________________________________________________ Fabrication du nom des fichiers calculés lors de l'étude : « [pathstr, name, ext]=fileparts(BPfilepath{i,1}); outputdir = pathstr; [pathstr, name, ext]=fileparts(pathstr); name1 = name; » Détrompeur : « [pathstr, name, ext, versn]=fileparts(dynfilepath{i,1}); [pathstr, name, ext, versn]=fileparts(pathstr); name2 = name; checkfile = strcmp(name1,name2) if checkfile == 0 h = errordlg('vous navez pas selectionne des images du meme sujet'); uiwait(h);i=i-1; else subname{i,1}= name; end i=i+1; end » Construction des cartes d'asymétrie Création des dossiers et copie des fichiers utiles « %Nsubj = length(subname); for subj = 1:str2num(cell2mat(Nsubj)) - 231 - Annexes ___________________________________________________________________________ %working pathes [pathstr, name, ext, versn]=fileparts(BPfilepath{subj,1}); outputdir = pathstr; %creation repertoire temporaire tmpdir = fullfile(outputdir, 'TEMP'); mkdir (tmpdir) cd (tmpdir); %!rm *.* !mkdir dyn; tmpdyn = fullfile (tmpdir, 'dyn'); srcfilename = strcat( 'sym', subname(subj),BProotfilename ,'.nii'); srcfilename2 = strcat( subname(subj),BProotfilename ,'.nii'); finalfilename = strcat('SI_', subname(subj), char(num2str(prefwhm(1))), '_pre', '_post', char(num2str(postfwhm(1))),BProotfilename,'.nii'); » Importation des fichiers avec conversion au format .nii : « wkdir = fullfile (basecwd, datafold); imgfiles = spm_select('List', fullfile(wkdir,subname{subj,1}), strcat(subname(subj),'.*dyn.*v$')); dirs = repmat([spm_select('cpath',fullfile(wkdir,subname{subj,1}))],size(imgfiles,1), 1); imgpath = strcat(dirs, filesep,imgfiles); - 232 - Annexes ___________________________________________________________________________ wkdir = fullfile (basecwd, datafold, subname{subj,1}); filtselect = '.*_mppf_BP.*v$'; imgfiles2 = spm_select('List', wkdir, filtselect); dirs2 = repmat([spm_select('cpath',wkdir)],size(imgfiles2,1),1); imgpath2 = strcat(dirs2, filesep,imgfiles2); allimgpath = {dynfilepath{subj,1};BPfilepath{subj,1}}; job_import{1,1}.util{1}.ecat.data = allimgpath; job_import{1,1}.util{1}.ecat.opts.ext = '.nii'; cd (tmpdyn); spm_jobman('run',job_import); %cd (tmpdir); %importfilename = spm_select('List', tmpdir, strcat('^',subname{subj,1},dynrootfilename,'.nii$')); %dynfilepath = strcat (basecwd,filesep,datafold,filesep,subname{subj,1},'_mppf_dyn.nii'); %dynfilename = strcat (subname{subj,1},'_mppf_dyn.nii'); cd (tmpdyn) eval(sprintf('!mv %s %s%s%s','*BP*.nii',tmpdir, '/', cell2mat(srcfilename))); » Calcul de l'image somme à partir de l'image dynamique : « wkdir = strcat(basecwd,filesep,datafold); imgfiles3 = spm_select('List', tmpdyn, '.*dyn.*nii$'); dirs3 = repmat([spm_select('cpath',tmpdyn)],size(imgfiles3,1),1); imgfiles3 = strcat(dirs3, filesep,imgfiles3); - 233 - Annexes ___________________________________________________________________________ sumfilename = char(strcat(subname{subj,1},'_dynavg.nii')); tmpstr = '(i'; for z=1:(size(imgfiles3,1)-1) f = strcat(tmpstr,num2str(z),'+i'); tmpstr=f; end; expression1 = strcat(f ,num2str(size(imgfiles3,1)),')/',num2str(size(imgfiles3,1))); jobs_SI{1,1}.util{1}.imcalc.input = cellstr(imgfiles3); jobs_SI{1,1}.util{1}.imcalc.output = sumfilename; jobs_SI{1,1}.util{1}.imcalc.outdir = cellstr(tmpdir); jobs_SI{1,1}.util{1}.imcalc.expression = expression1; jobs_SI{1,1}.util{1}.imcalc.options.dmtx = 0; jobs_SI{1,1}.util{1}.imcalc.options.mask = 0; jobs_SI{1,1}.util{1}.imcalc.options.interp = 1; jobs_SI{1,1}.util{1}.imcalc.options.dtype = 4; » Normalisation de l'image de BPND : « sourcenormpath = strcat(tmpdir, filesep, sumfilename,',1'); jobs_SI{1,2}.spatial{1}.normalise{1}.estwrite.subj.source = cellstr(sourcenormpath); jobs_SI{1,2}.spatial{1}.normalise{1}.estwrite.subj.wtsrc = {}; jobs_SI{1,2}.spatial{1}.normalise{1}.estwrite.subj.resample {strcat(fullfile(tmpdir, cell2mat(srcfilename)), ',1')}; - 234 - = Annexes ___________________________________________________________________________ jobs_SI{1,2}.spatial{1}.normalise{1}.estwrite.eoptions.template = cellstr(templ_norm_sym); jobs_SI{1,2}.spatial{1}.normalise{1}.estwrite.eoptions.weight = {}; jobs_SI{1,2}.spatial{1}.normalise{1}.estwrite.eoptions.smosrc = 8; jobs_SI{1,2}.spatial{1}.normalise{1}.estwrite.eoptions.smoref = 0; jobs_SI{1,2}.spatial{1}.normalise{1}.estwrite.eoptions.regtype = 'mni'; jobs_SI{1,2}.spatial{1}.normalise{1}.estwrite.eoptions.cutoff = 25; jobs_SI{1,2}.spatial{1}.normalise{1}.estwrite.eoptions.nits = 16; jobs_SI{1,2}.spatial{1}.normalise{1}.estwrite.eoptions.reg = 1; jobs_SI{1,2}.spatial{1}.normalise{1}.estwrite.roptions.preserve = 0; jobs_SI{1,2}.spatial{1}.normalise{1}.estwrite.roptions.bb = [-78 -112 -50;78 76 85]; jobs_SI{1,2}.spatial{1}.normalise{1}.estwrite.roptions.vox = [2 2 2]; jobs_SI{1,2}.spatial{1}.normalise{1}.estwrite.roptions.interp = 1; jobs_SI{1,2}.spatial{1}.normalise{1}.estwrite.roptions.wrap = [0 0 0]; » Pré-lissage des images « input_norm_file = strcat(tmpdir, filesep, 'w',srcfilename, ',1'); jobs_SI{1,2}.spatial{2}.smooth.data = input_norm_file; jobs_SI{1,2}.spatial{2}.smooth.fwhm = prefwhm; jobs_SI{1,2}.spatial{2}.smooth.dtype = 0; » - 235 - Annexes ___________________________________________________________________________ Application du seuil à l'image pré-lissée « expression2 = strcat('i1.*(i1>',threshold,')'); inputfilepath = strcat(tmpdir, filesep, 'sw',srcfilename, ',1'); outputfilename = char(strcat ('thresholded_',subname{subj,1},'_BP.nii')); jobs_SI{1,3}.util{1}.imcalc.input = cellstr(inputfilepath); jobs_SI{1,3}.util{1}.imcalc.output = outputfilename; jobs_SI{1,3}.util{1}.imcalc.outdir = cellstr(tmpdir); jobs_SI{1,3}.util{1}.imcalc.expression = expression2; jobs_SI{1,3}.util{1}.imcalc.options.dmtx = 0; jobs_SI{1,3}.util{1}.imcalc.options.mask = 0; jobs_SI{1,3}.util{1}.imcalc.options.interp = 1; jobs_SI{1,3}.util{1}.imcalc.options.dtype = 4; » Fabrication de la carte d'index d'asymétrie % utilise la fonction de la toolbox volumes de SPM5 ET multiplie par 2 « inputasympath = strcat(tmpdir, filesep, outputfilename,',1'); inputmultpath = strcat (tmpdir, filesep, 'tmpASYM_thresholded_',subname{subj,1},'_BP.nii',',1'); outputmultname = char(strcat ('ASYM_thresholded_',subname{subj,1},'_BP.nii')); jobs_SI{1,4}.tools{1}.vgtbx_Volumes{1}.Stats_Tools.tbxvol_laterality.srcimgs = cellstr(inputasympath); jobs_SI{1,4}.tools{1}.vgtbx_Volumes{1}.Stats_Tools.tbxvol_laterality.interp = 0; - 236 - Annexes ___________________________________________________________________________ jobs_SI{1,4}.tools{1}.vgtbx_Volumes{1}.Stats_Tools.tbxvol_laterality.dtype = 0; jobs_SI{1,4}.tools{1}.vgtbx_Volumes{1}.Stats_Tools.tbxvol_laterality.prefix = 'tmpASYM_'; jobs_SI{1,5}.util{1}.imcalc.input = cellstr(inputmultpath); jobs_SI{1,5}.util{1}.imcalc.output = outputmultname; jobs_SI{1,5}.util{1}.imcalc.outdir = cellstr(tmpdir); jobs_SI{1,5}.util{1}.imcalc.expression = 0; jobs_SI{1,5}.util{1}.imcalc.options.dmtx = 0; jobs_SI{1,5}.util{1}.imcalc.options.mask = 0; jobs_SI{1,5}.util{1}.imcalc.options.interp = 1; jobs_SI{1,5}.util{1}.imcalc.options.dtype = 4; » « expression3 = 'i1.*(i1>-0.99)'; expression4 = 'i1.*(i1<0.99)'; inputfilepath1 = strcat (tmpdir, filesep, 'ASYM_thresholded_',subname{subj,1},'_BP.nii',',1'); outputfilename1 = char(strcat ('masked1_ASYM_',subname{subj,1},'_BP.nii')); inputfilepath2 = strcat (tmpdir, filesep,'masked1_ASYM_',subname{subj,1},'_BP.nii',',1'); outputfilename2 = char(strcat ('masked2_ASYM_',subname{subj,1},'_BP.nii')); jobs_SI{1,6}.util{1}.imcalc.input = cellstr(inputfilepath1); jobs_SI{1,6}.util{1}.imcalc.output = outputfilename1; jobs_SI{1,6}.util{1}.imcalc.outdir = cellstr(tmpdir); jobs_SI{1,6}.util{1}.imcalc.expression = expression3; jobs_SI{1,6}.util{1}.imcalc.options.dmtx = 0; - 237 - Annexes ___________________________________________________________________________ jobs_SI{1,6}.util{1}.imcalc.options.mask = 0; jobs_SI{1,6}.util{1}.imcalc.options.interp = 1; jobs_SI{1,6}.util{1}.imcalc.options.dtype = 4; jobs_SI{1,6}.util{2}.imcalc.input = cellstr(inputfilepath2); jobs_SI{1,6}.util{2}.imcalc.output = outputfilename2; jobs_SI{1,6}.util{2}.imcalc.outdir = cellstr(tmpdir); jobs_SI{1,6}.util{2}.imcalc.expression = expression4; jobs_SI{1,6}.util{2}.imcalc.options.dmtx = 0; jobs_SI{1,6}.util{2}.imcalc.options.mask = 0; jobs_SI{1,6}.util{2}.imcalc.options.interp = 1; jobs_SI{1,6}.util{2}.imcalc.options.dtype = 4; » Lissage de la carte d'asymétrie seuillée « inputfilepath = strcat(tmpdir, filesep, outputfilename2,',1'); jobs_SI{1,7}.spatial{1}.smooth.data = inputfilepath; jobs_SI{1,7}.spatial{1}.smooth.fwhm = postfwhm; jobs_SI{1,7}.spatial{1}.smooth.dtype = 0; cd (outputdir) spm_jobman('run',jobs_SI); display ('compute SI Maps finished'); » Classement des fichiers créés « cd (tmpdyn) - 238 - Annexes ___________________________________________________________________________ eval(sprintf('!mv %s %s','*.ps','/')); cd (tmpdir) eval(sprintf('!mv %s%s%s%s','s',char(outputfilename2),'/',char(finalfilename))); eval(sprintf('!cp %s %s%s%s', char(srcfilename), '/', cell2mat(srcfilename2))); eval(sprintf('!mv %s %s',char(srcfilename) ,'/.')); eval(sprintf('!mv %s %s','w*.nii','/.')); » Analyse statistique des cartes d'asymétrie Spécification du type de modèle utilisé « spm('defaults','pet'); disp('model: Specification'); » Création du dossier statistique et récupération des fichiers utiles à l'analyse « statdir = fullfile (outputdir, 'statsIA'); mkdir (statdir);cd (statdir);!rm *.mat *.img *.hdr; maskfile = strcat(fullfile('/home/cronos/redoute/AsymIndexes/templates/Mask','mask_tr onc_cerveau.img'),',1'); patientimgpath = strcat(fullfile(outputdir,cell2mat(finalfilename)),',1'); imgfiles = spm_select('List', controlsdir, 'SI.*.*nii$'); dirs = repmat([spm_select('cpath',controlsdir)],size(imgfiles,1),1); - 239 - Annexes ___________________________________________________________________________ controlsimgpath = strcat(dirs, filesep,imgfiles); » Définition des covariables « Ages = [str2num(cell2mat(AgePatient{subj,1})), AgeControls] Sexes = [SexPatient{subj,1}, SexControls] » Définition du plan de l'analyse statistique « jobs_Stat{1}.stats{1,1}.factorial_design.des.t2.scans1{1} = patientimgpath; jobs_Stat{1}.stats{1,1}.factorial_design.des.t2.scans2 = cellstr(controlsimgpath); jobs_Stat{1}.stats{1,1}.factorial_design.des.t2.dept = 0; jobs_Stat{1}.stats{1,1}.factorial_design.des.t2.variance = 0; %0: set variance to Equal jobs_Stat{1}.stats{1,1}.factorial_design.des.t2.gmsca = 0; jobs_Stat{1}.stats{1,1}.factorial_design.des.t2.ancova = 1; jobs_Stat{1}.stats{1,1}.factorial_design.cov(1,1).c = Ages'; jobs_Stat{1}.stats{1,1}.factorial_design.cov(1,1).cname = 'Age'; jobs_Stat{1}.stats{1,1}.factorial_design.cov(1,1).iCFI = 1; jobs_Stat{1}.stats{1,1}.factorial_design.cov(1,1).iCC = 5; jobs_Stat{1}.stats{1,1}.factorial_design.cov(1,2).c = Sexes'; jobs_Stat{1}.stats{1,1}.factorial_design.cov(1,2).cname = 'Sex'; jobs_Stat{1}.stats{1,1}.factorial_design.cov(1,2).iCFI = 1; jobs_Stat{1}.stats{1,1}.factorial_design.cov(1,2).iCC = 5; - 240 - Annexes ___________________________________________________________________________ jobs_Stat{1}.stats{1,1}.factorial_design.masking.tm.tm_none = []; jobs_Stat{1}.stats{1,1}.factorial_design.masking.im = 1; jobs_Stat{1}.stats{1,1}.factorial_design.masking.em{1} = maskfile; jobs_Stat{1}.stats{1,1}.factorial_design.globalc.g_omit = []; jobs_Stat{1}.stats{1,1}.factorial_design.globalm.gmsca.gmsca_no = []; jobs_Stat{1}.stats{1,1}.factorial_design.globalm.glonorm = 1; jobs_Stat{1}.stats{1,1}.factorial_design.dir{1} = statdir; » Estimation du modèle statistique « jobs_Stat{1}.stats{1,2}.fmri_est.spmmat{1} = fullfile(statdir, 'SPM.mat'); jobs_Stat{1}.stats{1,2}.fmri_est.method.Classical = 1; » Définition des contrastes statistiques « jobs_Stat{1}.stats{1,3}.con.spmmat{1} = fullfile(statdir, 'SPM.mat'); jobs_Stat{1}.stats{1,3}.con.consess{1,1}.tcon.name = 'Patient - Temoins'; jobs_Stat{1}.stats{1,3}.con.consess{1,1}.tcon.convec = [1 -1]; jobs_Stat{1}.stats{1,3}.con.consess{1,1}.tcon.sessrep = 'none'; jobs_Stat{1}.stats{1,3}.con.consess{1,2}.tcon.name = 'Temoins - Patient'; jobs_Stat{1}.stats{1,3}.con.consess{1,2}.tcon.convec = [-1 1]; jobs_Stat{1}.stats{1,3}.con.consess{1,2}.tcon.sessrep = 'none'; cd (statdir); save design.mat jobs_Stat; spm_jobman('run',jobs_Stat); » - 241 - Annexes ___________________________________________________________________________ Fabrication de la carte de BPND du patient pour l'analyse standard avec SPM5 Création d'un dossier dédié « statdir = fullfile (outputdir, 'statsBP'); mkdir (statdir); » Normalisation de l'image de BPND « jobs_Norm2{1,1}.spatial{1}.normalise{1}.estwrite.subj.source = cellstr(sourcenormpath); jobs_Norm2{1,1}.spatial{1}.normalise{1}.estwrite.subj.wtsrc = {}; jobs_Norm2{1,1}.spatial{1}.normalise{1}.estwrite.subj.resample = {strcat(fullfile(outputdir, cell2mat(srcfilename2)), ',1')}; jobs_Norm2{1,1}.spatial{1}.normalise{1}.estwrite.eoptions.template cellstr(templ_norm); jobs_Norm2{1,1}.spatial{1}.normalise{1}.estwrite.eoptions.weight = {}; jobs_Norm2{1,1}.spatial{1}.normalise{1}.estwrite.eoptions.smosrc = 8; jobs_Norm2{1,1}.spatial{1}.normalise{1}.estwrite.eoptions.smoref = 0; jobs_Norm2{1,1}.spatial{1}.normalise{1}.estwrite.eoptions.regtype = 'mni'; jobs_Norm2{1,1}.spatial{1}.normalise{1}.estwrite.eoptions.cutoff = 25; jobs_Norm2{1,1}.spatial{1}.normalise{1}.estwrite.eoptions.nits = 16; jobs_Norm2{1,1}.spatial{1}.normalise{1}.estwrite.eoptions.reg = 1; jobs_Norm2{1,1}.spatial{1}.normalise{1}.estwrite.roptions.preserve = 0; - 242 - = Annexes ___________________________________________________________________________ jobs_Norm2{1,1}.spatial{1}.normalise{1}.estwrite.roptions.bb = [-78 -112 50;78 76 85]; jobs_Norm2{1,1}.spatial{1}.normalise{1}.estwrite.roptions.vox = [2 2 2]; jobs_Norm2{1,1}.spatial{1}.normalise{1}.estwrite.roptions.interp = 1; jobs_Norm2{1,1}.spatial{1}.normalise{1}.estwrite.roptions.wrap = [0 0 0]; cd (tmpdir) spm_jobman('run',jobs_Norm2); eval(sprintf('!mv %s %s','w*.nii','/.')); » Lissage de l'image de BPND normalisée « disp('images smoothing'); imgselfilter = strcat ('^w', subname(subj), '.*BP.nii$'); imgfile =spm_select('List', outputdir, imgselfilter); smoothimgfile = strcat ('s', imgfile); dirs = repmat([spm_select('cpath',outputdir)],size(imgfile,1),1); patientimgpath = fullfile (dirs, imgfile); patientsmoothpath = fullfile (dirs,smoothimgfile); jobs_Stat2{1,1}.spatial{1}.smooth.data = patientimgpath; jobs_Stat2{1,1}.spatial{1}.smooth.fwhm = [8 8 8]; jobs_Stat2{1,1}.spatial{1}.smooth.dtype = 0; cd (statdir); save design.mat jobs_Stat2; spm_jobman('run',jobs_Stat2(1)); » - 243 - Annexes ___________________________________________________________________________ Analyse statistique standard de la carte de BPND Définition des fichiers utilisés « disp('Stats BP: Model Specification'); imgfile =spm_select('List', outputdir, 'sw.*BP.nii$'); dirs = repmat([spm_select('cpath',outputdir)],size(imgfile,1),1); patientimgpath = fullfile (dirs, imgfile); imgfiles = spm_select('List', controlsdirBP, 'sw.*BP.nii$'); dirs = repmat([spm_select('cpath',controlsdirBP)],size(imgfiles,1),1); controlsimgpathBP = strcat (dirs, filesep ,imgfiles); » Estimation de la valeur globale de la carte de BPND « P1 = maskfile; P2 = char(patientimgpath,controlsimgpathBP); cd (tmpdir) spm_globalmasked_JR(P1,P2); load GlobalMasked.mat; » Paramètres de l'analyse statistique « jobs_Stat2{1,2}.stats{1,1}.factorial_design.des.t2.scans1{1} = patientsmoothpath; jobs_Stat2{1,2}.stats{1,1}.factorial_design.des.t2.scans2 cellstr(controlsimgpathBP); jobs_Stat2{1,2}.stats{1,1}.factorial_design.des.t2.dept = 0; - 244 - = Annexes ___________________________________________________________________________ jobs_Stat2{1,2}.stats{1,1}.factorial_design.des.t2.variance = 0; jobs_Stat2{1,2}.stats{1,1}.factorial_design.des.t2.gmsca = 0; jobs_Stat2{1,2}.stats{1,1}.factorial_design.des.t2.ancova = 0; jobs_Stat2{1,2}.stats{1,1}.factorial_design.cov(1,1).c = GlobalMasked'; jobs_Stat2{1,2}.stats{1,1}.factorial_design.cov(1,1).cname = 'GlobalMasked'; jobs_Stat2{1,2}.stats{1,1}.factorial_design.cov(1,1).iCFI = 1; jobs_Stat2{1,2}.stats{1,1}.factorial_design.cov(1,1).iCC = 5; jobs_Stat2{1,2}.stats{1,1}.factorial_design.cov(1,2).c = Ages'; jobs_Stat2{1,2}.stats{1,1}.factorial_design.cov(1,2).cname = 'Age'; jobs_Stat2{1,2}.stats{1,1}.factorial_design.cov(1,2).iCFI = jobs_Stat2{1,2}.stats{1,1}.factorial_design.cov(1,2).iCC = 5; jobs_Stat2{1,2}.stats{1,1}.factorial_design.cov(1,3).c = Sexes'; jobs_Stat2{1,2}.stats{1,1}.factorial_design.cov(1,3).cname = 'Sex'; jobs_Stat2{1,2}.stats{1,1}.factorial_design.cov(1,3).iCFI = 1; jobs_Stat2{1,2}.stats{1,1}.factorial_design.cov(1,3).iCC = 5; jobs_Stat2{1,2}.stats{1,1}.factorial_design.masking.tm.tm_none = []; jobs_Stat2{1,2}.stats{1,1}.factorial_design.masking.im = 1; jobs_Stat2{1,2}.stats{1,1}.factorial_design.masking.em{1} = maskfile; jobs_Stat2{1,2}.stats{1,1}.factorial_design.globalc.g_omit = []; jobs_Stat2{1,2}.stats{1,1}.factorial_design.globalm.gmsca.gmsca_no = []; jobs_Stat2{1,2}.stats{1,1}.factorial_design.globalm.glonorm = 1; jobs_Stat2{1,2}.stats{1,1}.factorial_design.dir{1} = statdir; » - 245 - 1; Annexes ___________________________________________________________________________ Estimation du modèle statistique « jobs_Stat2{1,2}.stats{1,2}.fmri_est.spmmat{1} = fullfile(statdir, 'SPM.mat'); jobs_Stat2{1,2}.stats{1,2}.fmri_est.method.Classical = 1; » Définition des contrastes statistiques jobs_Stat2{1,2}.stats{1,3}.con.spmmat{1} = fullfile(statdir, 'SPM.mat'); jobs_Stat2{1,2}.stats{1,3}.con.consess{1,1}.tcon.name = 'Patient - Temoins'; jobs_Stat2{1,2}.stats{1,3}.con.consess{1,1}.tcon.convec = [1 -1]; jobs_Stat2{1,2}.stats{1,3}.con.consess{1,1}.tcon.sessrep = 'none'; jobs_Stat2{1,2}.stats{1,3}.con.consess{1,2}.tcon.name = 'Temoins - Patient'; jobs_Stat2{1,2}.stats{1,3}.con.consess{1,2}.tcon.convec = [-1 1]; jobs_Stat2{1,2}.stats{1,3}.con.consess{1,2}.tcon.sessrep = 'none'; cd (statdir); save design.mat jobs_Stat2; spm_jobman('run',jobs_Stat2(2)); » Effacement des fichiers intermédiaires et fin du programme « cd (outputdir) rmdir (tmpdir,'s'); clear jobs_SI;clear job_import;clear jobs_Stat; clear jobs_Stat2; close all; end; » - 246 -
{'path': '28/tel.archives-ouvertes.fr-tel-00705810-document.txt'}
20 ans d'évolutions régionales de l'insertion : mobilité, métropolisation et contextes économiques régionaux Gérard Boudesseul, Patrice Caro et Agnès Checcaglini Céréq ESO Caen UMR 6590 Publié dans « 20 ans d'insertion professionnelle des jeunes : entre permanences et évolutions » Thomas Couppié, Arnaud Dupray, Dominique Épiphane, Virginie Mora (coordonnateurs), Céreq Essentiels n°1, avril 2018, 196 p. http://www.cereq.fr/actualites/20-ans-d-insertion-professionnelle-des-jeunes-entrepermanences-et-evolutions Depuis plus de 30 ans, ne cesse de s'affirmer, dans le débat social comme scientifique, la reconnaissance de la dimension territoriale des relations formation - emploi. Ainsi, dix ans après les lois de décentralisation de 1983, la loi quinquennale de 1993 consacre le rôle politique des régions dans ce domaine, que ce soit dans les questions de formation professionnelle (création des PRDFP) ou d'emploi (création des OREF). La loi LRU, qui instaure en 2008 l'autonomie de gestion des universités tout en leur confiant une nouvelle mission d'insertion, complète ce mouvement de gestion du national vers le local. Du côté scientifique, divers travaux ont souligné les disparités d'insertion des jeunes entre régions. Ce faisant, ils ont pointé différents éléments de contexte pouvant expliquer tout ou partie de ces disparités. Certains d'entre eux soulignent que la répartition des formations, et donc des jeunes diplômés, n'est pas homogène sur le territoire. L'exemple de l'enseignement supérieur est le plus évident : un nombre réduit de grands établissements se concentre dans quelques grands pôles métropolitains (Vignale 2016). Or, le diplôme imprime sa marque sur les conditions d'insertion (Céreq, 2005, 2008, 2012, 2014). Les disparités régionales d'insertion doivent donc être relativisées au regard de la structure particulière à chaque région des niveaux de diplôme des sortants. D'autre travaux, en étudiant les conditions locales d'insertion des jeunes, ont souligné l'importance des disparités de destinée professionnelle rencontrées d'un territoire à l'autre, fortement dépendantes des contextes économiques locaux (Roux 2005). Il apparait donc opportun de tenter ici un bilan des évolutions sur longue période des variations régionales en matière d'insertion. 1 Parmi les facteurs explicatifs, quelle est la part de la localisation des jeunes diplômés sur le territoire ? Y-a-t-il des effets régionaux dans le processus d'insertion professionnelle des jeunes, et ceux-ci sont-ils demeurés constants à 20 ans d'écart ? Les enquêtes Génération du Céreq permettent d'étudier l'évolution de l'insertion professionnelle des jeunes en France à 20 ans d'écart à l'échelle des régions. En se focalisant sur les cohortes de sortants de formation initiale de 1992 et 2010, observées chacune pendant 5 ans (jusqu'en 1997 et 2015), il est alors possible d'étudier l'évolution des disparités régionales d'insertion, qui plus est dans deux contextes conjoncturels difficiles marqués par des pics de chômage à plus de 10 % (en 1994 et 2015). Nous commençons par une analyse des disparités d'évolution des conditions d'insertion selon les régions sur une vingtaine d'années. Une deuxième partie s'attache à confirmer l'existence d'effets économiques régionaux nets pesant sur l'insertion des jeunes, c'est-àdire prenant en compte les inégalités structurelles entre les différentes offres de formation régionales. Une troisième partie explore les relations entre conditions d'insertion et différents éléments caractérisant le contexte régional économique, démographique et géographique. 1. Evolutions des conditions d'insertion en région à 20 ans d'écart : une typologie Les régions peuvent être classées selon le temps passé par les jeunes en emploi à durée indéterminée (EDI), incluant le CDI et les autres formes d'emplois stables comme ceux de la fonction publique et territoriale, au cours des cinq années passées depuis la sortie de formation initiale, et en considérant la région d'obtention du dernier diplôme. Les écarts sont importants puisque cet indicateur varie d'un gros tiers à la moitié des 56 mois d'observation, avec un resserrement des extrêmes entre les deux générations. Une douzaine de régions peuvent être considérées comme inscrites dans une dynamique favorable d'emploi alors que neuf autres apparaissent comme fragilisées par les années de crise. 2 Encadré 1 : Méthodologie L'échelle privilégiée est celle des régions métropolitaines (sauf Corse, données non significatives) avant la réforme territoriale introduite par la loi NOTRE de 2015. Les données relatives à l'insertion ont été calculées pour les deux générations (1992 et 2010) à partir des calendriers professionnels recueilli (56 mois, de septembre 1992/2010 à mai 1997/2015). Les huit indicateurs retenus pour caractériser et comparer l'insertion des deux générations sont :  la part de temps passé en emploi à durée indéterminée (EDI),  la part de temps passé en contrats à durée déterminée (CDD),  la part de temps passé en emploi aidé,  la part de temps passé au chômage,  la part de temps passé en formation,  la part de temps passé en inactivité  le nombre de mois écoulés avant l'obtention du premier emploi à durée indéterminée (contrat à durée indéterminée ou fonction publique)  le nombre de mois écoulés avant l'obtention d'un premier emploi ordinaire (emploi à durée indéterminée ou contrat à durée déterminée). 1.1. Deux groupes de régions aux conditions plutôt favorables pour les deux générations Du côté des régions aux conditions favorables d'insertion pour la Génération 2010, deux groupes se distinguent. Dans le premier, la part de temps passé en EDI reste parmi les plus élevées pour les deux générations bien que son évolution soit fluctuante. Dans le second, les évolutions - positives – de cette part sont les plus remarquables. - Une part de temps passé en emploi à durée indéterminée importante mais en érosion : des régions à composantes abritées (Alsace, Île-de-France, Rhône-Alpes et Franche- Comté) Dans ces quatre régions, les jeunes ont un accès plus rapide à l'emploi et ont passé une part importante des cinq ans qui ont suivi leur sortie du système éducatif en EDI, pour les deux Générations (47 à 50 % de temps passé en EDI). Il s'agit de régions disposant de composantes abritées sur le plan spatial, sectoriel et de niveaux de qualification se traduisant par un marché du travail plus favorable. Encadré 2 : Des composantes abritées, facteurs de stabilité en emplois En Alsace, Rhône-Alpes et Franche-Comté, le poids du travail frontalier est constant, d'une période à l'autre. Si une certaine dégradation est observée dans l'industrie, les activités tertiaires suisse et allemande demeurent de longue date pourvoyeuses d'emploi. De plus, les secteurs du commerce et de l'immobilier profitent de la proximité avec les consommateurs des mêmes pays au bénéfice de petites villes françaises frontalières. En Îlede-France, les politiques de grands projets d'Etat en matière d'aménagement sont récurrentes malgré la crise : développement des emplois publics de l'enseignement supérieur et de la recherche (Saclay), emplois du BTP et des transports (Grand Paris Express 2019-2030, rénovation du quartier des Halles au coeur de Paris, etc.). Enfin, les quatre régions bénéficient d'activités touristiques et d'emplois d'économie présentielle. Ces quatre régions demeurent en tête de classement aux deux dates, même si cette durée est en recul pour la Génération 2010. De manière convergente, le temps nécessaire pour 3 accéder à un emploi ordinaire s'est allongé d'un mois (comme nationalement). Symétriquement, le temps passé au chômage est toujours inférieur à la moyenne nationale, bien qu'il tende à s'en rapprocher en Alsace et en Franche-Comté. Pour les deux grandes régions (Ile-de-France et Rhône-Alpes), les conditions prévalant dans les secteurs les plus concurrentiels ou en restructuration ont pu s'étendre à toute leur économie. Les deux « petites » régions, Alsace et Franche-Comté, apparaissent moins diversifiées d'un point de vue sectoriel et donc plus dépendantes des aléas de la conjoncture. - Un accès à l'emploi durable en progression : des régions à dynamisme variable (Midi-Pyrénées, Pays-de-la-Loire, Auvergne, Bretagne, Aquitaine, Poitou-Charentes, Basse-Normandie et Centre-Val-de-Loire) Ce deuxième groupe de régions, centrées plutôt sur l'Atlantique, se singularise par deux caractéristiques. D'une part, une progression de la part de temps passée en EDI entre les deux périodes, alors même que cette part diminue de 2 points au niveau national ; d'autre part, cette part atteint un niveau proche ou (très) supérieur à la moyenne nationale pour la Génération 2010. Nous les identifierons comme des régions à dynamisme variable. Des évolutions du contexte économique local semblent ainsi avoir particulièrement profité à cinq de ces régions qui se situaient pour la Génération 1992 un peu en dessous de la moyenne nationale. C'est le cas de Midi-Pyrénées, qui connait une progression remarquable (7,5 points entre les deux Générations) qui l'amène à atteindre la part de temps passé en EDI la plus élevée pour la Génération 2010 (51,6 %). Pour les trois autres (Poitou-Charentes, Basse-Normandie et Centre-Val-de-Loire) leur dynamisme leur permet de rattraper la moyenne nationale pour la Génération 2010. La croissance économique et démographique des grandes aires urbaines explique en partie ce constat. Dans l'ensemble, ces douze régions sont aussi symétriquement celles où le temps passé au chômage est le plus faible pour la Génération 2010, de 15,4 % dans les Pays-de-Loire à 19,8 % en Basse-Normandie. Deux groupes de régions aux conditions d'insertion plutôt incertaines À l'opposé, neuf régions plus exposées, ont les temps de chômage les plus élevés pour la Génération 2010 : jusqu'à 28,5 % en Picardie, soit 10 points de plus que dans les régions connaissant les processus d'insertion les plus favorables. Le temps nécessaire pour obtenir un emploi ordinaire (EDI ou CDD) connait lui aussi d'importants écarts entre régions exposées et fragilisées et les régions les plus abritées et dynamiques. La désindustrialisation de ces régions est en cause, elle touche à la fois leurs branches industrielles historiques comme la sidérurgie, le textile, la chimie, mais aussi celles qui ont été implantées plus récemment au fil des politiques publiques de reconversion. Cette 4 désindustrialisation sous-tend une croissance très ralentie du PIB, comme on le verra plus loin. - Un accès à l'emploi à durée indéterminée amélioré mais limité : régions exposées à un risque d'insertion dans la précarité (Languedoc-Roussillon, Champagne-Ardenne, Nord-Pas-de-Calais) Ces trois régions se caractérisent par une augmentation du temps passé en EDI d'une Génération à l'autre, dans un contexte national où il est à la baisse, mais cette dynamique les laisse encore nettement en dessous de la moyenne nationale pour la Génération 2010. Ces régions apparaissent du coup toujours exposées à un risque d'insertion dans la précarité. L'accès au CDD y apparaît plutôt stable. Le temps passé au chômage est supérieur à la moyenne nationale de 2 à 6 points. De fait, le nombre de mois nécessaires avant d'accéder à un emploi demeure élevé. Une certaine inertie semble caractériser les indicateurs de ces régions bien que le temps en EDI s'améliore. - Un accès à l'emploi dégradé : régions fragilisées (Picardie, Haute-Normandie, Limousin, PACA, Lorraine et Bourgogne) Ces six régions sont fragilisées du fait d'un accès à l'EDI dégradé entre les deux Générations. Cependant, cette faiblesse de l'EDI est en partie compensée par des temps passés en CDD et en emplois aidés supérieurs à la moyenne nationale. Mais cette dégradation de la qualité des emplois est également à mettre en relation avec l'augmentation du poids du temps passé au chômage, PACA faisant exception. Cette dégradation rend la situation très délicate pour quatre de ces régions (Picardie, Haute-Normandie, Limousin et PACA) dont la part de temps passé en EDI, déjà faible dans la Génération 1992, régresse pour atteindre les niveaux les plus faibles observés au sein des régions dans la Génération 2010. Pour les deux autres, la dégradation observée les fait plonger nettement sous la moyenne nationale. Au regard de ces quatre groupes, les évolutions divergentes du temps passé en CDD interrogent la notion de qualité des emplois dans la phase d'insertion. Si les signes d'une dégradation ne manquent pas, leur articulation avec les temps passés en EDI d'une part, et au chômage d'autre part, s'avère complexe selon les régions. Dans les deux premiers groupes, les plus favorables à l'insertion dans la Génération 2010, le cas le plus fréquent est celui d'évolutions du temps passé en CDD qui accompagnent les évolutions générales du temps passé en EDI : soit à la hausse (Aquitaine, Auvergne, Bretagne, Champagne-Ardennes, Poitou), soit à la baisse (Alsace, Île-de-France, mais aussi Haute-Normandie et Lorraine dans les groupes les plus marqués par l'incertitude). Mais, dans la moitié des régions à insertion difficile en EDI, la progression des CDD prend un sens aigu. Ainsi, dans le groupe des six régions fragilisées, le recul du temps passé en EDI est en partie compensé par l'accroissement du temps passé en CDD (sauf Haute-Normandie et Lorraine). 5 Jusqu'à quel point peut-on parler de compensation ? En effet, cet accroissement du temps passé en CDD est associé dans plusieurs régions à un temps au chômage accru de plus de 7 points (Bourgogne, Haute-Normandie, Lorraine, Picardie). La compensation ne serait complète que lorsque le temps au chômage est stable ou en tout cas inférieur à l'évolution moyenne (PACA, ainsi que Rhône-Alpes dans le groupe de tête). Ces différentes combinaisons entre temps passé en CDD qui accompagne ou au contraire évolue à l'inverse de celui en EDI, ou bien encore qui évolue dans le même sens ou à l'opposé du temps passé au chômage, amènent à suggérer que différents régimes prévalent d'une région à l'autre. Pour les unes, l'accroissement du temps passé en CDD signifierait une précarisation de l'emploi, alors que pour d'autres, il traduirait l'installation de nouveaux modes de recrutement prenant sur le chômage. Rappelons que 87 % des nouveaux contrats sont en CDD, dont 70 % pour une durée inférieure à un mois. Le halo du chômage (Cézard, 1986 ; Coudin, 2009) s'étendrait ainsi et selon les régions, à un halo de l'emploi. 6 2. Neutraliser l'influence d'offres de formation disparates dans les régions pour isoler l'effet d'un contexte économique régional « net » dans l'insertion des jeunes Le niveau de diplôme est, d'une façon générale, le facteur qui joue le rôle le plus important dans les inégalités d'accès à l'emploi des jeunes. Or, l'inégale répartition des diplômés dans les régions est forte et contribue ainsi à alimenter, parallèlement au contexte économique territorial, les disparités d'insertion entre régions. Ainsi, les diplômés du supérieur se concentrent dans certaines régions métropolisées comme L'Île-de-France, tandis qu'ils sont beaucoup moins présents en Picardie ou en Normandie, régions moins urbanisées. La densité, la variété et la spécialisation de l'offre de formation proposée par les grands pôles d'enseignement supérieur alimentent leur attractivité auprès de bon nombre de bacheliers et entretiennent les disparités régionales de concentration étudiante. Les mobilités en cours d'études induites conduisent à une forte surreprésentation des jeunes diplômés du supérieur (du simple au double) parmi les sortants de formation des régions les mieux dotées en pôles attractifs comparées aux régions les moins bien dotées. Mais l'effet structurant de l'offre agit dès le lycée. Ainsi, la part des lycées professionnels varie de 23-24 % dans les académies d'Ile-de-France à 48-52 % dans les académies de Bordeaux, Amiens et Besançon, une moyenne nationale de 38 % (MENESR DEPP, 2010). L'éloignement de l'offre d'enseignement peut aussi dissuader de poursuivre des études. Ainsi, en moyenne 8,5 % des jeunes ont déclaré avoir arrêté leurs études en 2010 car la formation souhaitée n'existait pas à proximité de leur résidence, cette proportion variant de 13 % (Poitou-Charentes) à 7 % (Ile-de-France). Cependant, la diversité de la répartition des niveaux de diplômes des jeunes sortant du système éducatif dans les différentes régions n'explique pas à elle seule les écarts régionaux observés dans l'insertion des jeunes. De la même façon, les évolutions de la distribution des niveaux de diplômes en 20 ans n'expliquent pas non plus les évolutions de l'insertion des jeunes entre les générations 1992 et 2010. Le contexte économique local pèse sur les conditions d'insertion, comme le suggère la typologie esquissée précédemment, mais jusqu'à quel point ? Pour y répondre, il est nécessaire de neutraliser l'effet de structure régionale de l'offre de formation et donc des disparités de structure selon le niveau de diplôme des sortants. A cette fin, la valeur attendue des différents indicateurs de temps passé a été calculée au regard de la distribution des diplômes dans la région mais compte tenu de ses valeurs moyennes observées par niveau de diplôme pour l'ensemble de la France. Un « effet économique régional net » apparait lorsque la valeur observée s'écarte significativement de cette valeur attendue. 7 Cet effet économique régional net est en partie constitué pour chaque région de dimensions structurelles abordées par la suite, considérées ici dans leur globalité. 2.1. Des effets économiques régionaux nets variables Pour la Génération 1992, les régions pour lesquelles l'effet économique régional net sur la part du temps passé en EDI est important, sont les régions Alsace et Île-de-France avec un effet positif, et Languedoc-Roussillon et Nord-Pas-de-Calais avec un effet négatif. Mais ces effets économiques régionaux nets ne touchent pas les mêmes régions pour la Génération 2010. Ainsi, la part de temps passé en EDI semble être influencée négativement en Languedoc-Roussillon, en Limousin et positivement en Midi-Pyrénées. L'effet économique régional net ne se manifeste ni avec la même ampleur ni à la même période sur toutes les dimensions de l'insertion des jeunes. L'influence du contexte égional sur la part de temps passé en emploi précaire (emploi aidé et CDD) est ainsi très faible pour la Génération 1992, tandis qu'elle apparaît forte pour la Génération 2010 en Limousin et en Lorraine. Concernant le temps passé au chômage, un effet économique régional net marqué et durable - car observé pour les deux générations- singularise le Nord-Pas-de-Calais et la Picardie. Cet effet régional marqué est également observé pour la Génération 1992 en Poitou-Charentes et Alsace, et en Haute-Normandie et Lorraine pour la Génération 2010. En considérant les indicateurs dans leur globalité, l'effet économique régional net moyen est plus important pour la Génération 2010 que pour la Génération 1992. Pour la Génération 1992, l'effet économique régional net global, qu'il soit porteur ou défavorable, est le plus marqué dans les régions Alsace, Nord-Pas-de-Calais, Poitou-Charentes, Île-de-France, Champagne-Ardenne et Languedoc-Roussillon. Pour la Génération 2010, il prédomine dans les régions Picardie, Limousin, Nord-Pas-de-Calais, Languedoc-Roussillon, Franche-Comté, Auvergne et Lorraine. 2.2. Effet économique régional net : une révision à la marge de la typologie Au total, en se focalisant sur part de temps passé en EDI, les régions peuvent être distinguées selon qu'elles montrent un effet économique régional net favorable ou non. Elles se répartissent ainsi en deux grands ensembles qui comptent chacun deux sousensembles, qui confirment en grande partie les groupes identifiés précédemment. 8 Graphique 3 : Effet économique régional net et évolution de la part de temps passé en EDI les 5 premières années entre les Générations 1992 et 2010 Source : Enquête Génération 1992 et Génération 2010, Céreq, calculs Céreq ESO Caen UMR 6590. Un effet économique régional net favorable dans dix régions Dans un premier ensemble, un effet économique régional net favorable contribue à maintenir le temps passé en EDI à un niveau élevé en dépit d'une certaine érosion. Île-deFrance, Rhône-Alpes, Alsace et Franche-Comté confirment leurs spécificités identifiées précédemment de régions à composantes abritées avec un marché du travail de grande taille ou très actif, même en neutralisant l'effet de la structure des diplômes délivrés. Les diplômés « Franc-comtois » présentent le cas particulier d'être multi-polarisés en dehors de leur territoire d'origine : ils doivent une partie de leur bonne insertion à un accès devenu aisé aux grands marchés de l'Île-de-France et de Rhône-Alpes, et aussi à une proximité immédiate avec l'Alsace, la Suisse et l'Allemagne. Un deuxième ensemble montre aussi un effet économique régional net favorable renforçant l'amélioration du temps passé en EDI. Il reprend six des huit régions classées dans le groupe qualifié de régions à dynamisme variable, particulièrement positif pour Midi-Pyrénées, Paysde-la-Loire et Basse-Normandie, et à un moindre degré pour les régions Auvergne, Centre et Bretagne, touchée par plusieurs crises dans l'agro-alimentaire. Un effet régional défavorable dans onze régions Un troisième ensemble porte la trace d'un effet économique régional net plutôt défavorable bien que le temps passé en EDI soit en augmentation. Poitou-Charentes et Aquitaine, 9 précédemment associés au groupe des régions à dynamisme variable, rejoignent les trois régions (Languedoc-Roussillon, Champagne-Ardenne et Nord-Pas-de-Calais) identifiées au risque d'insertion dans la précarité, caractérisé par un accès à l'EDI en amélioration mais limité. Le quatrième ensemble est dans une situation plus délicate dans la mesure où il atteste d'un effet économique régional net défavorable pour la Génération 2010 cumulé avec une régression du temps passé en EDI. Il confirme l'identification d'un groupe de régions fragilisées avec un accès à l'emploi dégradé. 3. Les contextes économiques régionaux de l'insertion et la mobilité des jeunes Les régions ont leur propre histoire économique et sociale tout en s'inscrivant dans des mutations globales affectant l'ensemble du territoire. La croissance de l'emploi, et plus largement la croissance du PIB1, les comportements adaptifs des jeunes susceptibles de mobilité géographique en sont les dimensions principales. Ces dernières évoluent depuis au moins 30 ans en lien avec le degré de métropolisation2 des régions. 3.1 Insertion, PIB et emploi régional L'hypothèse de régimes d'insertion différents d'une région à l'autre invite à considérer les contextes économiques régionaux comme structurant les conditions d'insertion des jeunes. L'évolution du PIB régional constitue un indicateur pertinent pour identifier les différences de dynamisme entre économies régionales. La reprise de la croissance du PIB ou un ralentissement confirmé différencient les beaucoup et donc le potentiel d'insertion qu'elles sont susceptibles d'offrir. Les régions de Champagne-Ardenne, Picardie, Haute Normandie, Lorraine, Limousin ou Auvergne ont connu une croissance très ralentie de leur PIB (19902011, carte 1). Ces régions, économiquement plus en difficulté, sont aussi en situation défavorable du point de vue de l'insertion des jeunes mesurée par l'évolution du temps passé en emploi et en EDI. 1 Produit Intérieur Brut La métropolisation désigne « le mouvement de concentration de populations, d'activités et de valeur dans des ensembles urbains de grande taille.», CGET (2016) page 23. 2 10 Carte 1 : Types de régions selon l'évolution à long terme de leur PIB (1990-2011) Source : INSEE, PIB régionaux en volume, base 100 en 1990. Observatoire des Territoires, Rapport 2014. À l'inverse, les jeunes formés en Midi-Pyrénées, les Pays-de-la-Loire ou la Bretagne connaissent une évolution du temps passé en emploi et en EDI plus favorable que la moyenne, en lien avec la progression au-dessus de la moyenne du PIB de leur région. L'évolution favorable du PIB à long terme en Languedoc-Roussillon apparaît surtout à travers une meilleure qualité de l'insertion, caractérisée par une augmentation du temps passé en EDI entre les deux générations. Ces évolutions de PIB conditionnent en partie celles de l'emploi régional. De 1999 à 2013, les régions les plus métropolisées, ont fréquemment connu les plus fortes croissances d'emploi. Outre Rhône-Alpes, une nouvelle fois, les régions Aquitaine, Midi-Pyrénées, Bretagne et Pays-de-la-Loire ont connu un taux de croissance de l'emploi supérieur à 13,5 %, à rapprocher de leur positionnement dans le groupe des régions à dynamisme variable. En revanche, dynamisme de l'emploi au niveau régional et insertion favorable pour les jeunes formés dans la région ne vont pas systématiquement de pair. Ainsi, les régions LanguedocRoussillon et PACA connaissent-elles aussi une croissance régionale de l'emploi parmi les plus élevées bien qu'elles se classent dans des groupes plus pénalisés en matière de temps passé en EDI. À l'opposé, la croissance de l'emploi est faible dans les régions du nord-est (ChampagneArdenne 1,2 %, Lorraine 2,6 %, Bourgogne 4,4 % et Franche-Comté 4,1 %). Elle se cumule avec une faible part d'emplois de cadres et correspond, pour les jeunes des Générations étudiées, à un temps passé limité en EDI, Franche-Comté mise à part. Le cas particulier de la Franche-Comté est intriguant. Il souligne que, malgré les évolutions plutôt atones du marché du travail régional (marqué entre autres par les difficultés de 11 l'industrie automobile), un certain nombre de jeunes formés dans cette région s'adaptent et contournent cette difficulté, soit par une mobilité professionnelle hors de la région (voire transfrontalière), soit par une double mobilité, professionnelle et résidentielle. Ainsi, alors que la part de temps passé en EDI situe en bonne place les jeunes formés dans la région, ce même indicateur calculé au lieu de résidence 5 ans plus tard situe la Franche-Comté parmi les six plus faibles parts. 3.2 Mobilité inter-régionale et métropolisation : un jeune sur quatre change de région Jusqu'à présent, les conditions d'insertion étudiées concernent les jeunes identifiés au lieu du dernier diplôme obtenu. Or, selon les régions, une partie d'entre eux a migré pendant les cinq années d'observation : 23,2 % en moyenne, mais de 14,3 % en Île-de-France à 39,4 % en Poitou-Charentes (Génération 2010). Ces flux dépendent de nombreux facteurs tels que la taille du territoire mais aussi la structure des qualifications recherchées, la rotation sur le marché du travail, la création nette d'emplois Ainsi, un effet économique structurel marque l'insertion professionnelle des jeunes en région parce que les branches ne font pas appel aux débutants de la même manière sur le marché du travail régional. Les activités hôtels, cafés, restaurants (HCR), par exemple, recrutent des débutants en plus grande proportion que les transports. Selon qu'une branche occupe une place plus ou moins centrale dans l'économie de la région, un effet structurel y sera plus ou moins développé (Couppié & Mansuy, 2004, p. 159). Les régions où les jeunes sont les plus sédentaires (à partir des mobilités observées entre 2010 et 2015, carte 2), sont les plus métropolisées, c'est-à-dire celles où le réseau urbain est le plus dominé par une grande aire urbaine3 peuplée d'au moins 500 000 habitants en 2013 : Paris (12 millions), Lille (1,3 million), Strasbourg (770 000 h) ou Rouen (650 000 h), constituent par exemple des marchés du travail massifs, diversifiés et en forte croissance sur 20 ans4. 3 Une aire urbaine est un ensemble de communes, d'un seul tenant et sans enclave, constitué par un pôle urbain (unité urbaine) de plus de 10 000 emplois, et par des communes rurales ou unités urbaines (couronne périurbaine) dont au moins 40 % de la population résidente ayant un emploi travaille dans le pôle ou dans des communes attirées par celui-ci (Floch & Levy, 2011). 4 1,3 million d'habitants dans l'aire urbaine de Toulouse (2013), 1,7 à Aix-Marseille, 2,2 à Lyon, 1,1 million d'habitants dans l'aire urbaine de Bordeaux, 680 000 à Grenoble (source INSEE, voir carte 7 page 18). 12 Carte 2 : Taux de sédentarité* des jeunes entre 2010 et 2015 dans leur région de formation en 2010 Source : Enquête Génération 2010, Céreq, calculs et cartographie Céreq ESO Caen UMR 6590. *NB : Le taux de sédentarité correspond à la part des jeunes résidant en 2015 dans leur région de formation de 2010, soit celle du dernier diplôme obtenu. Leur capacité d'attraction est forte sur les régions voisines moins urbanisées ; ainsi, le rayonnement de Bordeaux et Nantes sur Poitou-Charentes, de même pour Strasbourg et Lyon sur la Franche-Comté, de Paris sur le nord Bourgogne ou le nord de la région Centre. Les arrivées sont donc plus importantes que les départs de 2010 à 2013 en Île-de-France à l'inverse de ce qui se passe en Bourgogne et en Franche-Comté par exemple (Vignale, 2016). Pourtant, les régions Aquitaine, Midi-Pyrénées, Bretagne et Pays-de-la-Loire ont des flux de sorties qui se traduisent au total par un taux de sédentarité faible. Le phénomène de polarisation métropolitaine de l'emploi et de la population joue aussi sur des régions comme Rhône-Alpes avec la proximité de Genève ou Lausanne. L'emploi frontalier en Suisse ou au Luxembourg tire sans doute les indicateurs d'insertion d'une manière favorable pour la Lorraine ou la Franche-Comté. L'Île-de-France (12,4 millions d'habitants dans l'aire urbaine parisienne en 2013), constitue la région la plus avancée dans le processus de métropolisation avec une concentration de 20,7 % d'emploi de cadres des fonctions métropolitaines5 dans l'emploi total au lieu de 5 « La notion de cadre des fonctions métropolitaines (CFM) est un nouveau concept. Il remplace la notion d'emploi métropolitain supérieur (EMS). L'objectif des deux concepts est le même (mesurer la présence d'emplois stratégiques sur un territoire). Cinq fonctions, plus spécifiquement métropolitaines, forment ainsi le groupe des fonctions métropolitaines : Conception-recherche, Prestations intellectuelles, Commerce interentreprises, Gestion, Culture-loisirs. Le concept de "cadres des fonctions métropolitaines" (CFM) vise à offrir une notion proche d'emplois "stratégiques", en assurant la cohérence avec les fonctions. La présence d'emplois "stratégiques" est utilisée dans l'approche du rayonnement ou de l'attractivité d'un territoire » (INSEE, voir https://www.insee.fr/fr/statistiques/1893116). 13 travail, suivie de Rhône-Alpes (10,2 %) et de l'Alsace (8,4 %) pour le groupe le plus abrité (carte 3). Carte 3 : Part des cadres des fonctions métropolitaines dans l'emploi total au lieu de travail (2013) Source : Observatoire des territoires, INSEE RP 2013 (moyenne 10,3 % Carte 4 : Métropolisation des régions en 2013 Source : données INSEE RP 2013, cartographie Céreq ESO Caen UMR 6590 Parmi les régions à dynamisme variable, Midi-Pyrénées et l'Aquitaine, confirment cet effet d'entraînement des emplois qualifiés. À l'opposé, une faible proportion de cadres des fonctions métropolitaines en Bourgogne va dans le même sens qu'un accès dégradé à l'emploi durable (groupe des régions fragilisées). Mais là encore, la relation n'est pas mécanique : la Basse-Normandie, bien que peu dotée de cadres de fonction métropolitaine 14 (5,3 %) relève en matière d'insertion des jeunes du groupe favorisé des régions à dynamique variable. Enfin, deux situations se présentent à nouveau comme atypiques. La région PACA (8,9 %) présente un taux significatif de cadres des fonctions métropolitaines, supérieur par exemple à celui de l'Alsace, sans pour autant que cela se traduise pour les jeunes qu'elle forme dans le temps passé en EDI. Le décalage est encore plus marqué pour le Nord-Pas-de-Calais qui présente lui aussi une part significative de ces cadres (près de 8 %), mais demeure dans le groupe des régions fragilisées avec un accès limité à l'EDI, bien qu'en progression. Cette particularité s'explique par une désindustrialisation de l'économie régionale. Le profil relatif des régions en matière d'insertion diffère donc quelque peu selon que l'individu est considéré dans sa région du dernier diplôme ou sur son lieu de résidence cinq ans plus tard. Si les grands marchés métropolisés de l'emploi confirment l'existence d'un groupe de régions à composantes d'emploi plutôt abritées (Île-de-France, Rhône-Alpes et Alsace de moindre taille), trois autres pôles s'illustrent plus par le sous-emploi (LanguedocRoussillon, Nord-Pas-de-Calais, PACA). Le phénomène de métropolisation concentre donc à la fois des emplois durables et du sous-emploi, selon les configurations régionales. Conclusion Le contexte démographique, économique et géographique régional influence donc l'insertion. Une schématisation spatiale de la géographie de l'insertion amènerait à distinguer une France de l'Ouest, celle des régions atlantiques ainsi que de Midi-Pyrénées, qui constituent le centre de gravité des régions les plus dynamiques où la part de temps passé en EDI a augmenté pour la Génération 2010 par rapport à la Génération 1992. Elle est attractive et a gagné beaucoup de population et d'emploi dans les vingt dernières années. Le Centre, l'Auvergne et le Languedoc-Roussillon se rattachent potentiellement à cette France de l'Ouest. Celle de l'Est, centrée sur l'Alsace, la Franche-Comté et Rhône-Alpes agrège des régions dont les tendances sont plus incertaines du fait d'une diminution du temps EDI, mais dans un contexte économique régional favorable. Cette France est moins attractive. La Bourgogne, la Lorraine, Provence-Alpes-Côte-d'Azur, la Picardie et la Haute-Normandie s'en rapprocheraient si les temps passés en emploi durable s'y amélioraient. Enfin, l'Île-de-France et son aire urbaine de 12 millions d'habitants perturbent l'insertion des jeunes issus des régions voisines que sont Bourgogne, Champagne-Ardenne, Picardie ou Haute-Normandie. L'analyse de l'évolution de l'insertion des jeunes à l'échelle régionale doit distinguer les observations enregistrées au lieu d'obtention du dernier diplôme, de celles localisées en région de résidence 5 ans après la sortie du système éducatif. Le cas de la Franche-Comté illustre l'écart qu'il peut y avoir entre les deux observations. Les jeunes formés en FrancheComté et qui la quittent sont en situation d'insertion plus favorable que ceux qui y sont restés. Les premiers ont sans doute migré vers l'Alsace (Mulhouse, Strasbourg, etc.) ou Rhône-Alpes (Lyon, Grenoble, etc.), tandis que les seconds se sont peut-être déplacés vers 15 Sochaux-Montbéliard. Pour affiner l'analyse de l'évolution de l'insertion des jeunes à l'échelle régionale et les effets régionaux associés, il conviendrait d'approfondir l'analyse des mobilités géographiques des jeunes lors leur insertion. En effet, si le rôle structurant de la métropolisation dans les flux est attesté, il demeure dépendant d'autres mutations qui ont un effet propre sur la qualité de l'insertion professionnelle (CGET, 2016). Les professions de techniciens, ingénieurs, cadres de direction liées aux activités de la recherche, de la finance et du droit s'exercent massivement au coeur des centres névralgiques technopolitains, de la décision et de la finance. Elles précèdent donc au moins autant qu'elles suivent ce processus. Plus largement, des mutations macro-régionales sont parfois transversales aux métropoles : attractivité démographique des côtes maritimes, spécialisations intra-sectorielles mais aussi sentiers d'inertie de spécialisations antérieures. Références bibliographiques Arrighi J.J. coord. (2012) Quand l'école est finie Premiers pas dans la vie active de la Génération 2008, Céreq, 63p. Baccaïni B. (2001) « Les migrations en France entre 1990 et 1999. Les régions de l'Ouest de plus en plus attractives », INSEE Première, n°758, 4p. Borzic M. & Le Jeannic T. (2014) « En matière d'emploi, les métropoles ont davantage résisté à la crise », Insee Première, n° 1503, 4p. Cézard M. (1986), « Le chômage et son halo », Économie et statistique, N°193-194, Nov.Déc., pp. 77-82. Coudin É. (2009), « Le « halo » du chômage : entre chômage BIT et inactivité », Insee Première, N°1260, oct. Couppié T. & Mansuy M. (2004) « L'insertion professionnelle des débutants en Europe : des situations contrastées » Economie et statistique, n°378-379, pp 147-165. Davezies L. (2008) La République et ses territoires. La circulation invisible des richesses, Paris, La République des idées, éd du Seuil, 96p. Epiphane D., Gasquet C. & Hallier P. coord. (2005) Quand l'école est finie Premiers pas dans la vie active de la Génération 2001, Céreq, 88p. Floch J.M. & Levy D. (2011) « Le nouveau zonage en aires urbaines de 2010. Poursuite de la périurbanisation et croissance des aires urbaines », Insee Première, n°1375, 4p. FNAU (2012) « Les grandes aires urbaines françaises, un essai de typologie », Dossier Fédération nationale des Agences d'Urbanismes, n°24, 16p. Ghorra-Gobin C. (2015) La métropolisation en question, Paris, La ville en débat, PUF, 116p. 16 Julien P. (2002) « Onze fonctions pour qualifier les grandes villes », INSEE Première, n°840, 4p. Le Bras H. & Todd E. (2013) Le mystère français, Paris, La République des idées, éd du Seuil, 336p. Marchand O. (2010) « Une cartographie de l'emploi régional d'après le recensement de la population de 2006 », INSEE Première, n°1280, 4p. Mora V. & Sulzer E. coord. (2008), Quand l'école est finie Premiers pas dans la vie active de la Génération 2004, Céreq, 81p. Observatoires des territoires (2017) « Emploi et territoires – Rapport de l'Observatoire des territoires 2016 », En Détail, Commissariat général à l'égalité des territoires, 152p. Reynard R., Vialette P. & Gass C. (2015) « Trente ans de mutations fonctionnelles de l'emploi dans les territoires », Insee Première, n°1538, 4p. Rouaud P. & Joseph O. coord. (2014) Quand l'école est finie Premiers pas dans la vie active de la Génération 2010, Céreq, 92p. Roux V. (2005), « L'insertion des jeunes d'une région à l'autre : quels constats ? Quelles évolutions récentes » in « L'insertion des jeunes dans la vie active et le pilotage de la formation professionnelle au niveau régional », Les Dossiers Insertion, Éducation et Société, n°168, MENESR-DEP, pp. 33-42. Van Puymbroeck C. & Reynard R. (2010) « Les grandes villes concentrent les fonctions intellectuelles, de gestion et de décision », Insee Première, n° 1278, 4p. Vignale M. (2016) « Mobilités interrégionales de jeunes diplômés, analyse par niveau de sortie », Net.Doc, Céreq n°160, 56p. 17
{'path': '50/halshs.archives-ouvertes.fr-halshs-02011211-document.txt'}
EchoGéo Sur le Vif | 2021 Évacuation massive des populations en temps d'épidémie de COVID-19 : comment éviter la surcrise ? Éric Daudé, Delphine Grancher et Franck Lavigne Édition électronique URL : http://journals.openedition.org/echogeo/20961 DOI : 10.4000/echogeo.20961 ISSN : 1963-1197 Éditeur Pôle de recherche pour l'organisation et la diffusion de l'information géographique (CNRS UMR 8586) Ce document vous est offert par Université de Rouen – Bibliothèque Universitaire Référence électronique Éric Daudé, Delphine Grancher et Franck Lavigne, « Évacuation massive des populations en temps d'épidémie de COVID-19 : comment éviter la sur-crise ? », EchoGéo [En ligne], Sur le Vif, mis en ligne le 25 mars 2021, consulté le 26 mars 2021. URL : http://journals.openedition.org/echogeo/20961 ; DOI : https://doi.org/10.4000/echogeo.20961 Ce document a été généré automatiquement le 26 mars 2021. EchoGéo est mis à disposition selon les termes de la licence Creative Commons Attribution - Pas d'Utilisation Commerciale - Pas de Modification 4.0 International Évacuation massive des populations en temps d'épidémie de COVID-19 : comment Évacuation massive des populations en temps d'épidémie de COVID-19 : comment éviter la sur-crise ? Éric Daudé, Delphine Grancher et Franck Lavigne Ce travail est réalisé dans le cadre du projet ANR ESCAPE soutenu par l'Agence Nationale de la Recherche, ANR-16-CE39-0011-01. 1 La pandémie de COVID-19 qui dure depuis près d'une année est une crise majeure du fait de ses retombées sanitaires, sociales et économiques. Elle nécessite la pleine concentration des services de soins, ce qui au moment de la première vague a engendré un recul de l'attention portée à des nombreuses autres pathologies ou maladies dont les conséquences se mesureront à moyen et long terme. Elle mobilise également pleinement la vigilance et les ressources économiques des États, des organisations, des entreprises et des individus pour y faire face. Cette focalisation nécessaire pour tenter de limiter au mieux les effets et revenir au plus vite à une « vie ordinaire » a engendré une exposition accrue à d'autres aléas. Or la durée de cette pandémie ne peut que créer des situations multi crise, du fait de la périodicité prévisible de certains aléas, tels que les aléas naturels. Parmi ceci, on pense notamment aux cyclones et aux inondations qui chaque année sont à l'origine de pertes humaines et de dégâts matériels considérables. Or comment faire face à un cyclone et ses conséquences lorsque toute l'attention se focalise sur la pandémie ? Comment concilier des stratégies de luttes organisées dans une vision mono-aléa lorsque la situation nécessiterait de penser des stratégies multi risques qui présentent potentiellement des situations contradictoires. L'objectif de ce papier, à travers la présentation d'exemples de situations multi crise qui se sont produits durant l'année 2020, est de faire un point sur les enjeux, les verrous et les défis à relever dans un tel contexte. EchoGéo , Sur le Vif 1 Évacuation massive des populations en temps d'épidémie de COVID-19 : comment Le talon d'Achille de la gestion des risques : la réduction des risques de catastrophes multi-aléas 2 Une crise est le dysfonctionnement d'un système qui résulte d'une perturbation. Celleci met potentiellement en danger le fonctionnement des organisations qui le structurent et peut conduire à la catastrophe. La gestion d'une crise consiste donc à limiter les effets potentiels de ces perturbations sur les territoires. Elle se décline en plusieurs volets qui mobilisent des compétences et des outils différents, qui impliquent communications et actions pour protéger la population (Leone et al., 2010 ; Sauvagnargues 2019). Cet arsenal de moyens inclut notamment des systèmes de surveillance, des procédures d'alerte à la population, des consignes de sécurité, de préparation, de protection et de mise à l'abri (Bundy et al., 2017). Parmi celles-ci, l'évacuation massive est l'une des stratégies qui peut être envisagée pour écarter d'une zone de danger la population, pour quelques heures, quelques jours ou plusieurs semaines via l'utilisation de centres de refuge ou de véritables camps de déplacés (CEPRI, 2014 ; Esposito Amideo et al., 2019). 3 Les plans de gestion des crises qui ont pour objectif la préparation des services et des territoires, ce qui comprend les consignes à donner à la population ainsi que la délimitation des zones exposées, prennent cependant rarement en compte les risques de sur-crise. Par sur-crise, nous entendons une amplification de la crise initiale en lien soit avec l'occurrence d'un nouvel aléa (un tsunami après un tremblement de terre) soit des effets systémiques avec des défaillances en cascade au sein de l'organisation de la gestion de crise (une épidémie et une défaillance du système de soin). L'une des causes possibles de sur-crise est que ces plans sont le plus souvent fondés sur une approche aléa-centrée et mono-aléa : plan inondation, plan submersion marine, plan mouvement de terrain, plan éruption volcanique, etc. Ils semblent ainsi plus faciles à élaborer et à mettre en oeuvre car ils ne prennent justement pas en compte la complexité des interactions entre plusieurs aléas et leur gestion, ni n'impliquent une géographie évolutive de la crise. Ce qui peut amener à une sur-crise. Or, de nombreux territoires sont exposés à différentes menaces naturelles non directement liées, telles les Antilles ou les Philippines qui sont exposées aux aléas cycloniques, sismiques et volcaniques (illustration 1). EchoGéo , Sur le Vif 2 Évacuation massive des populations en temps d'épidémie de COVID-19 : comment Illustration 1 - Stèle érigée sur la commune de Saint-Claude, Guadeloupe Auteur : É. Daudé. 4 Même si la coexistence de plusieurs risques peut être communiquée à la population dans un document unique, par exemple en France le Document d'Information Communal sur les Risques Majeurs (DICRIM), les plans de gestion de crise définis par les autorités demeurent généralistes ou déclinés pour chacun des aléas. Les consignes ou décisions prévues ne sont donc non seulement pas hiérarchisées pour privilégier l'une ou l'autre des contraintes, ni pour les autorités ni pour les populations, en cas d'aléas d'origine différente et simultanée, ni pensée en termes de complémentarités ou de contraintes entre elles dans un contexte de sur-crise. Dit autrement, le risque systémique est trop peu souvent envisagé dans les plans et la préparation à la gestion de crise. 5 Des retours d'expériences menés au lendemain de catastrophes multi-aléas ont malgré tout conduit à la mise en place de stratégies et de procédures spécifiques pour anticiper les effets domino prévisibles et ainsi limiter les risques de sur-crise (Shaw et al., 2013 ; Few et Matthies, 2006). Cependant, force est de constater que ces initiatives sont rares et que la gestion au coup par coup, avec une vision à court terme en fonction de la chronologie des événements, reste la pratique la plus répandue. Ce fut par exemple le cas aux Philippines, à la suite de l'éruption du volcan Pinatubo en 1991, lorsque des lahars (coulées de débris et de boues d'origine volcanique) dévastateurs furent provoqués par un cyclone (Janda et al., 1996). Comme l'ont aussi montré les catastrophes liées aux séismes suivis de tsunamis de Tohoku (Japon) en mars 2011 ou à Palu (Indonésie) en octobre 2018 (Omira et al., 2019), la sur-crise ne prolonge pas simplement la crise, mais constitue un état modifié de celle-ci, qui résulte d'une nouvelle perturbation contradictoire aux connaissances et/ou aux outils déployés EchoGéo , Sur le Vif 3 Évacuation massive des populations en temps d'épidémie de COVID-19 : comment jusque-là pour réduire les effets de la crise initiale. C'est précisément le cas lorsqu'une catastrophe d'origine naturelle intervient dans un contexte de pandémie. Gestion de crises d'origine naturelle en contexte de pandémie 6 L'Histoire nous a montré que de grandes catastrophes naturelles ont souvent été à l'origine d'épidémies voire de pandémie. Les éruptions volcaniques majeures provoquent systématiquement des pertes de récoltes catastrophiques qui entrainent des famines. Ces événements en cascade sont le plus souvent engendrés à l'échelle régionale par l'impact direct des cendres, comme en 1815 sur les iles indonésiennes de Sumbawa et Lombok suite à l'éruption du volcan Tambora. Les famines et les épidémies apparaissent également à la suite de perturbations climatiques engendrées par les éruptions à l'échelle globale, comme illustré en Europe et au Japon suite à l'éruption du volcan indonésien Samalas en 1257 (Guillet et al., 2017). Les cyclones dévastateurs du XXe siècle ont aussi été à l'origine d'épisodes épidémiques : en Haïti, des épidémies de choléra se sont propagées à plusieurs reprises après des cyclones dévastateurs (Piarroux, 2019). 7 Certaines catastrophes d'origine naturelle se sont aussi produites pendant une période de pandémie. Au lendemain de la Première Guerre Mondiale, la « grippe espagnole » a ainsi fragilisé des dizaines de millions de personnes en raison de sa souche particulièrement virulente et contagieuse (H1N1). Les effets de l'intense sècheresse due au El Niño de 1918-1919, considéré comme l'un des plus puissants du XX e siècle (Giese et al., 2010), ont probablement contribué aux 18 millions de morts en Inde de ce virus (Dye et al., 1988) 8 Cette concomitance d'événements majeurs a des conséquences en termes de gestion de crise, notamment du fait de la segmentation des compétences selon la nature de l'aléa et d'une emprise territoriale des aléas pouvant être disjointes en partie. En Chine, le coronavirus responsable du syndrome respiratoire aigu sévère (SRAS) a émergé puis s'est propagé entre novembre 2002 et juillet 2003 dans trente pays. Cette pandémie a mis en évidence que sur de nombreux territoires ce n'étaient pas les mêmes acteurs qui géraient les risques sanitaires et les risques naturels (Zhang, 2012). Or la coordination entre tous les acteurs se complexifie en l'absence de préparation à des changements de doctrine en cours de crise. Ainsi l'épidémie du SRAS de 2013 a permis de modifier le schéma initial de gestion des crises en Chine, dans le but de clarifier les responsabilités des gouvernements centraux et locaux, ainsi que des ministères et des agences. 9 Que ce soit des événements quasiment synchrones dans des espaces restreints ou à l'échelle nationale, ces catastrophes illustrent donc les difficultés du contexte multi risques et invitent à penser l'harmonisation des procédures, l'anticipation et la préparation à l'aggravation des crises par la survenue d'une autre crise. L'analyse de la pandémie de COVID-19 pour questionner la gestion des risques naturels et sanitaires simultanés 10 La période actuelle, marquée par la propagation de la COVID-19 est particulièrement compliquée pour tous les acteurs de gestion de crises qui doivent, en plus de gérer la pandémie, se préparer à d'autres événements potentiellement catastrophiques. Des cyclones, des inondations graves ou des séismes qui ont nécessité des évacuations de EchoGéo , Sur le Vif 4 Évacuation massive des populations en temps d'épidémie de COVID-19 : comment masse ont déjà eu lieu depuis le début de la pandémie et se renouvelleront du fait notamment de leur saisonnalité sur certains territoires (c'est le cas en particulier des cyclones). Prendre en compte ce contexte sanitaire dans la gestion de cet évènement amène des difficultés supplémentaires. 11 En l'absence de vaccin près d'un an après le début de la pandémie et jusqu'au début de 2021, la stratégie privilégiée par presque tous les territoires pour lutter contre la progression du virus et faire barrage aux vagues épidémiques a été de réduire voire interdire les déplacements et les rassemblements. Les fermetures des frontières et la limitation des transports se sont ajoutées à un confinement plus ou moins strict de la population : universités, salles de sport, théâtres, cinémas et commerces non essentiels fermés, incitation au télétravail, couvre-feu etc. Ces restrictions se sont accompagnées de mesures individuelles de précaution – port du masque, distanciation physique, lavage des mains – imposées dans certaines circonstances (dans les transports publics, les établissements scolaires, les commerces etc.). Les autorités, les entreprises, les institutions et les populations doivent donc depuis plusieurs mois anticiper et organiser leurs activités au rythme des consignes successives de confinement et de déconfinement imposées pour lutter contre la progression de l'épidémie. Si cette situation fragilise l'économie des territoires et les systèmes de santé, elle fragilise encore plus durement les populations les plus vulnérables1 et l'hypothèse de la survenue d'une autre crise constitue un véritable défi pour nos sociétés. 12 Or cette situation est certaine dans de nombreux territoires et pour ceux où l'évacuation des populations est prévue dans les plans de gestion de crise. Les autorités doivent donc établir un état des lieux des difficultés que pourrait faire peser la pandémie sur cette stratégie. En effet, comment inciter les populations à quitter leur domicile et à évacuer une ville, comment gérer leurs déplacements en particulier s'ils doivent être massifs et rapides, comment adapter les hébergements collectifs lorsque toutes les mesures prises jusqu'à présent pour limiter la diffusion du virus se sont focalisées sur le confinement (rester chez soi), la restriction des déplacements et la distanciation physique ? Parmi toutes les étapes d'une gestion de crise, l'évacuation massive est donc surement celle dont l'adaptation à cause de la COVID-19 présente le plus d'enjeux (Quigley et al., 2020). Et les effets potentiels de ces deux stratégies opposées – évacuer en période de confinement ou de distanciation physique – sont encore peu anticipés et étudiés étant donné l'aspect inédit de cette pandémie. Objectifs et méthode 13 Le présent article a pour principal objectif de décrire et de lancer des pistes de réflexion sur les principaux problèmes posés ou qui risquent de se poser en cas de surcrise de la pandémie liée à un aléa naturel. À partir de principes théoriques et d'exemples précis, nous détaillons les conséquences possibles ou déjà observées des consignes sanitaires strictes liées à la pandémie actuelle sur les évacuations de populations exposées à une menace. Nous nous intéressons ici exclusivement au cas de crises d'origine naturelle en focalisant un peu plus nos propos sur la zone intertropicale, dont l'exposition et la vulnérabilité des populations sont un enjeu particulièrement important. Plus précisément, cet article a été construit à partir de rares articles scientifiques sur la question, d'articles de presse dans la mesure où cette crise est très récente et toujours en cours et d'informations et réflexions issues d'une EchoGéo , Sur le Vif 5 Évacuation massive des populations en temps d'épidémie de COVID-19 : comment expertise plus approfondie sur certaines zones géographiques connues par les auteurs (Indonésie, Inde, Antilles, etc.), notamment concernant l'adaptation des plans de gestion des risques et des crises d'origine naturelle. 14 Nous illustrons notre réflexion avec deux cyclones de catégorie 5 sur l'échelle de SaffirSimpson et deux séismes, ainsi que l'étude de la documentation préventive distribuée en Indonésie et à Sint-Maarten (Antilles). Les deux cyclones sont d'abord Harold qui a ravagé début avril 2020 le Vanuatu (27 victimes), avec des pointes de vent de 230 km/h. Cet exemple permettra en particulier de soulever les questions d'entraide internationale et du rôle des ONG. Le second est le cyclone Amphan qui a balayé la région de Calcutta et le Bangladesh en mai 2020. Ce cyclone est le plus violent survenu dans le Golfe du Bengale depuis 2007. Les vents violents (jusqu'à 240 km/h), les pluies diluviennes et une submersion marine de près de 3,5 mètres ont entrainé la mort de 118 personnes. Ce super cyclone a nécessité l'évacuation de plus de 2 millions de personnes dans un contexte sanitaire et médical particulièrement fragile. Enfin les séismes de Zagreb de magnitude 5.3 du 22 mars 2020 et de l'État d'Oaxaca au Mexique de magnitude 7.5 du 23 juin 2020 (6 morts) ont directement illustré les difficultés de l'évacuation spontanée des populations dans des territoires soumis à un confinement. Coordonner les acteurs de la gestion de crise 15 La gestion des risques naturels est structurée dans chaque État selon des organigrammes prédéfinis, souvent très hiérarchisés, qui permettent d'attribuer à chaque service les responsabilités d'organisation des secours et de la logistique. Dès le début de la crise sanitaire mondiale (la COVID-19 a été déclarée pandémie le 11 mars 2020 par l'OMS), les États ont mobilisé des ressources humaines, matérielles et financières de différents services : ministère de la Santé bien sûr, mais également de la sécurité civile, de l'armée ou encore des transports pour contenir la maladie. Les réponses stratégiques ont varié d'un pays à l'autre. Après une période d'ajustement liée au manque de ressources pour opérationnaliser la stratégie (manque de masques, de tests, hôpitaux sous-dimensionnés), les différents acteurs mobilisés dans la gestion de cette épidémie sont parvenus dans de nombreux pays à ralentir en deux ou trois mois la première vague, alors que d'autres déployant d'autres stratégies n'y sont pas parvenus. Quelle que soit la situation aujourd'hui, avec de nombreux pays touchés par une seconde vague, une nouvelle crise liée à un aléa de nature différente constitue un véritable défi stratégique et opérationnel. 16 La superposition d'un nouvel évènement majeur provoque en effet une « concurrence » entre les plans de secours prévus pour lutter contre ce nouvel aléa et ceux de la gestion de crise sanitaire en cours, notamment sur les aspects tactiques et opérationnels. Chaque plan est conçu pour un seul aléa indépendamment des autres, il ne prend donc pas en compte les acteurs qui seraient déjà mobilisés. Si cette conjonction conduit inévitablement à mobiliser les mêmes acteurs (les hôpitaux par exemple), elle amène aussi potentiellement son lot de nouveaux acteurs (ONG, armées) et pose des contraintes importantes pour le déploiement des secours. 17 À l'échelle internationale, l'aide humanitaire et les ONG d'urgence classiquement mobilisées lors des catastrophes majeures sont ainsi déjà considérablement paralysées. Les fermetures de frontières décidées généralement unilatéralement dans un contexte officiel d'état d'urgence national pour empêcher l'arrivée de personnes contagieuses ne EchoGéo , Sur le Vif 6 Évacuation massive des populations en temps d'épidémie de COVID-19 : comment sont pas facilement dérogeables, même pour favoriser le soutien international. Il s'agit en effet pour les autorités de préserver au maximum leur territoire déjà meurtri d'une contamination croissante qu'ils ne pourraient gérer. En milieu insulaire et en cas de soutien de forces extérieures par exemple, il est possible que les territoires ou pays imposent une quarantaine à ces personnels. Les militaires de l'opération Résilience en France ont ainsi été soumis à une quarantaine avant de débarquer sur les territoires outre-mer français où ils étaient attendus en renfort des hôpitaux locaux au printemps 2020. Cette étape de quarantaine a ralenti la mise en place du soutien pour la COVID-19, et si une autre opération devait être déclenchée en cas de séisme ou de cyclone sur un des territoires ultramarins français, la même organisation (envoi de forces militaires extérieures au territoire) ne pourrait être rapidement opérationnelle sans que ces forces se soumettent antérieurement à un isolement complet. Autre exemple, au Vanuatu, où les frontières étaient fermées pour cause de pandémie au moment du passage du cyclone Harold, l'acheminement de l'aide humanitaire a été largement perturbé. D'origine étrangère, en particulier via les ONG internationales, il a souffert d'un retard conséquent obligeant les autorités nationales à gérer seules les secours à la population2. 18 À l'échelle nationale, la mobilisation de ressources matérielles et humaines pour soutenir des territoires dont le système de santé est en tension à cause de la COVID-19 limite forcément un déploiement immédiat en cas de nouveaux besoins et réduit la disponibilité des moyens. C'est ce qu'on a pu observer en Odissa (Inde) où la coordination entre les services de santé, les autorités locales et la force d'intervention en cas de catastrophe3 a pu être problématique. En effet, nombre d'abris anticycloniques usuels avaient déjà été réquisitionnés pour servir de centres de quarantaine pour des malades de la COVID-19 alors gérés par les services de santé avant l'arrivée du cyclone Amphan (Boyland, Adelina, 2020). Cette situation a conduit à des adaptations contextuelles entre d'un côté la NDRF, les Panchayats (gouvernements locaux villageois) et les institutions qui ont pu proposer des solutions alternatives face au danger. Cette décentralisation de la décision et de l'action est d'autant plus nécessaire que c'est à un niveau local que la connaissance des populations vulnérables, de l'éducation aux dangers et du territoire est la plus concrète. Ces négociations au niveau local ont alors permis à de nombreux villages de choisir des abris alternatifs à ceux proposés par les autorités indiennes pour se protéger du cyclone Amphan 4. 19 Paradoxalement, la mobilisation pour renforcer les services de soin peut constituer également un avantage pour la gestion des autres risques. Ainsi la France en mobilisant des forces militaires pour aider au transfert des malades et renforcer les équipes médicales locales lors de l'opération Résilience en outre-mer Français a aussi renforcé la préparation des territoires à la saison cyclonique à venir (juin-octobre) en effectuant des exercices de reconnaissance. Un autre effet relativement positif est la présence déjà opérationnelle des ONG médicales locales ou internationales en intervention pour soulager le système de santé et sensibiliser la population (par exemple Médecins sans Frontières en Haïti en mai 2020). On peut supposer leur déploiement rapide en cas de catastrophe d'origine naturelle. Malgré ces derniers exemples très spécifiques, l'importance d'une vérification globale de la capacité de réaction des acteurs potentiellement impliqués dans une gestion de crise, et leur disponibilité, est indispensable. EchoGéo , Sur le Vif 7 Évacuation massive des populations en temps d'épidémie de COVID-19 : comment 20 Il s'agit en effet de protéger les intervenants du secours et du soutien aux déplacés. La protection des personnes extérieures doit être garantie, notamment les plus âgées (souvent actives sous la forme de bénévolat) dont on connait la vulnérabilité plus grande à la COVID19 (Nikolich-Zugich et al., 2020). On peut anticiper une réticence de leur part à vouloir intervenir dans les zones avec de fortes densités ou à être en contact avec beaucoup de personnes différentes dans des conditions d'hygiène non garantie. Ce cas s'est présenté au Japon lors des fortes inondations en juillet 2020 qui ont nécessité l'évacuation de plus de 450 000 personnes sur l'ile de Kyushu 5. Ces exemples posent la question des effectifs mobilisables en gestion de sur-crise et de leur vulnérabilité. Ceci suppose d'évaluer à la fois les forces vives à disposition malgré la mobilisation pour la gestion de la COVID-19 et les possibles refus d'action liés au choix de protection des intervenants et de leurs proches au détriment de l'engagement professionnel ou volontaire. Avec la double crise épidémie et aléa naturel, ce phénomène peut ne pas être marginal et donc peser sur la conduite des plans. Gérer de nouvelles répartitions démographiques, redimensionner les abris, prendre en charge les malades 21 On l'a vu avec les personnels professionnels ou bénévoles, la gestion de crise soulève des enjeux logistiques pour les autorités et pour les populations. Lorsque l'épidémie est présente sur un territoire, le nombre de personnes sous respirateur artificiel est supérieur à la capacité habituelle des unités locales, car les formes les plus graves de la COVID-19 entrainent des complications qui nécessitent souvent un long séjour, jusqu'à plusieurs semaines, en service de réanimation. Or l'étape la plus critique d'une évacuation de masse classique concerne les personnes hospitalisées (Duanmu et al., 2010) et les personnes non-autonomes (sans véhicule personnel). Une zone à évacuer qui serait touchée par la COVID-19 nécessitera donc d'importantes ressources supplémentaires pour assurer le transfert de ces malades. Ils seront transférés vers d'autres établissements dans des conditions particulières complexes, notamment pour les personnes en réanimation qui nécessitent la disponibilité d'équipements spécifiques dans les hôpitaux d'accueil. En cas d'alerte tsunami, l'UNESCO a donc rédigé un guide synthétisant les mesures à prendre pour évacuer les personnes affectées par la COVID-19, incluant le personnel soignant (UNESCO, 2020). La survenue d'un évènement majeur peut aussi directement affecter les structures de soins, dont celle des malades COVID-19. Le typhon Vongfong (mai 2020) a par exemple détruit les deux tiers des lits de quarantaines destinés aux malades de la COVID-19 dans la province du Samar Oriental aux Philippines6. 22 Dans le cas des cyclones, la phase d'alerte est associée à la préparation des abris par les autorités. Quel que soit l'aléa pris en compte, les plans de gestion sont adaptés au contexte démographique de la zone sur laquelle ils s'appliquent, en anticipant les moyens médicaux mobilisés et leur décharge en cas d'afflux de blessés (Jassempour et al., 2014), en prévoyant des espaces (généralement publics) équipés pour l'hébergement et la nourriture ou en organisant des jumelages entre communes (Elysia et Wihadanto, 2018). EchoGéo , Sur le Vif 8 Évacuation massive des populations en temps d'épidémie de COVID-19 : comment 23 Or cette crise met en évidence l'interdépendance et les effets en cascade de risques complexes entre les systèmes. Ainsi le confinement national ou régional a pu modifier la répartition démographique dans de nombreux pays, en perturbant l'équilibre villes campagnes par exemple et en changeant les caractéristiques socioéconomiques des populations locales (Valsecchi et Durante, 2020). Les populations urbaines ont en effet parfois massivement quitté les grandes agglomérations pour les campagnes. Par exemple en Inde, des centaines de milliers de travailleurs ayant perdu leur emploi ont été contraints de revenir dans leurs villages d'origine (Bercegol et al., 2020). En Malaisie, ce sont les habitants de plusieurs villages qui se sont réfugiés dans les forêts par crainte d'être contaminés par la COVID-19, devenant malgré eux le vecteur de la COVID-19 dans ces zones de refuge7. Ces départs non anticipés par les gouvernements nationaux ou locaux ont augmenté les populations dans certains territoires sans aucune adaptation des infrastructures de santé ou d'hébergement. Dans des zones exposées aux aléas naturels, ce déséquilibre brutal a mis alors en danger la logistique de crise prévue par les autorités, d'autant plus que ces nouvelles populations étaient plus touchées par le virus que les provinces reculées, la COVID-19 étant principalement urbaine au début de l'épidémie. Pour gérer l'arrivée massive de cette population et contenir la propagation du virus sur leur territoire, les autorités sanitaires ont donc dû placer une partie de ces migrants spontanés en quarantaine et isoler ceux qui étaient déjà malades. Il a donc été nécessaire de trouver très rapidement des solutions d'hébergement adaptés à recevoir du public. La solution pragmatique a été d'utiliser les abris officiels destinés à héberger les populations en cas d'alerte, notamment cyclonique. C'est la stratégie qui a été choisie au Bengale-Occidental et en Odissa. Lorsque le cyclone Amphan est arrivé, ces réfugiés placés en quarantaine, les malades de la COVID-19 et les personnes fuyant le cyclone se sont alors retrouvés mélangés dans les mêmes abris8. Cette problématique d'abris sur peuplés s'est reproduit au Vietnam lors du passage du cyclone Molave qui a conduit plus de 375 000 personnes à être évacuées vers des centres d'accueils en octobre 2020 (UN, 2020). Afin d'éviter ces situations et pour limiter le nombre de personnes initialement prévu par abri, il est nécessaire de réquisitionner un plus grand nombre de bâtiments, comme des écoles, des bâtiments publics ou encore des entreprises. Ainsi au Bangladesh, alors que 4 500 abris pouvant accueillir chacun entre 600 et 1 200 personnes étaient initialement prévus et disponibles dans la zone touchée par le cyclone Amphan, ce sont plus de 12 000 abris qui ont dû être ouverts pour accueillir les personnes évacuées et respecter un seuil maximal de densité par centre9. EchoGéo , Sur le Vif 9 Évacuation massive des populations en temps d'épidémie de COVID-19 : comment Illustration 2 - Abri, distanciation physique et mesure de protection individuelle dans un abri lors du passage du cyclone Amphan droite : https://www.thenewhumanitarian.org/analysis/2019/07/04/india-mass-cyclone-evacuationssaved-lives-not-livelihoods - gauche : https://www.canberratimes.com.au/story/6762875/cyclonedumps-rain-on-india-bangladesh/?cs=14264 24 À l'intérieur des abris, il est également nécessaire de limiter au maximum la propagation du virus et gérer les malades, en particulier les cas les plus graves. D'abord il s'agit de détecter (thermomètres, tests) et d'isoler les malades parmi ces populations hébergées collectivement. Cependant, malgré les efforts des autorités pour aménager les refuges et garantir la sécurité sanitaire, certaines populations n'accepteront pas l'ordre d'évacuation. La crainte de voir apparaitre des foyers de contamination dans des abris surpeuplés est réelle10. Elle pousse de nombreuses personnes à refuser de se rendre dans les abris, comme lors des inondations au Japon où de nombreuses personnes ont préféré s'abriter à l'intérieur de leur voiture au détriment de leur sécurité11. Ce comportement pourtant dangereux met en exergue un vrai dilemme entre l'évacuation et la protection face à l'épidémie pour les populations. 25 En effet, alors que pour un certain nombre d'aléas naturels les consignes officielles incitent à quitter son logement et à se regrouper collectivement dans des endroits ciblés (en hauteur dans un bâtiment, en altitude ou loin du rivage), les gestes barrières et les restrictions de déplacement stipulent de limiter les contacts et de ne pas s'éloigner du domicile dans le cadre de la lutte contre la COVID-19. Et dans cette situation de pandémie, les populations sont abondamment « exposées » à des messages privilégiant la prévention sanitaire. Le « nouveau » risque qui se présente pour chaque personne est donc à évaluer par rapport à la crainte préalable de tomber malade ou de contaminer un proche fragile et non par rapport à une situation sanitaire normale. La situation sanitaire qui dure depuis plusieurs mois et qui a fragilisé économiquement et psychologiquement des franges de la population12 renforce cette difficulté. L'annonce d'un nouvel aléa peut donc être encore plus difficile à gérer psychologiquement, la prise de décision devenant encore plus problématique (Cozic et al., 2020). Pour les populations et notamment les plus vulnérables, en plus d'abandonner ses biens et son domicile, c'est donc un dilemme qui se présente : fuir un danger plus ou moins imminent et connu mais risquer d'être contaminé par un virus potentiellement mortel. Selon l'état de santé, la qualité du logement, les ressources, mais aussi sa perception du danger, la résolution du dilemme demande une priorisation de l'un ou l'autre des deux aléas. En situation de pandémie, les familles doivent dès lors revoir toute leur « stratégie » afin de préserver les personnes les plus fragiles face au virus mais au détriment potentiel de leur sécurité face à l'aléa. Pour les populations des zones d'accueil, l'hospitalité fut ou devrait être aussi un dilemme qu'il va falloir résoudre EchoGéo , Sur le Vif 10 Évacuation massive des populations en temps d'épidémie de COVID-19 : comment individuellement ou collectivement : en Indonésie, certains villages ont rajouté des barrières à l'entrée pour interdire l'accès à toute personne non résidente (Widianto et al., 2020), pouvant alors constituer un véritable verrou à une évacuation spontanée. 26 Une autre difficulté vient de la capacité d'anticipation des populations. Les populations situées dans les zones exposées aux cyclones ont pour habitude et consigne de se préparer quelques jours avant l'arrivée d'un cyclone, et ceci passe par l'achat d'équipements de protection et de première nécessité. Chacun renforce son habitation et fait des réserves de nourriture et d'eau. Ces comportements "réflexes" reposent sur l'expérience des cyclones passés mais aussi sur le rappel de consignes dans les journaux ou par des ONG. Réalisées par des dizaines ou des centaines de milliers de personnes, ces préparations entrainent classiquement des ruées massives dans les supermarchés pour l'approvisionnement en matériel de protection de l'habitat et en produits alimentaires. Mais en situation d'épidémie, ces situations de forte affluence doivent être évitées au maximum et peuvent même être interdites (nombre de personnes limité dans les commerces par exemple). La spécificité du contexte sanitaire fragilise donc le bon déroulement de cette phase préparatoire. Certains produits ont été rapidement en rupture de stock dès le début du confinement dans tous les pays et on a pu observer des scènes de désordre public ainsi que de longues files d'attente 13. La pénurie de produits d'hygiène (gel, masque, savon) risque d'être amplifiée par les recommandations pourtant indispensables de les rajouter dans le kit de secours préparatoire par exemple à la survenue d'un tsunami, comme c'est le cas en Indonésie (UNESCO, 2020) ou d'un cyclone en début de saison cyclonique comme en Floride14. Ainsi une anticipation de la consommation particulière due à la fois au contexte pandémique qui serait concomitant avec une alerte cyclonique est indispensable afin d'éviter des pénuries, d'autant plus si le pays se trouve dans une phase de confinement avec un arrêt complet de son économie. La question des moyens logistiques doit donc aussi être soulevée. L'évacuation des populations au Bangladesh a ainsi été ralentie du fait d'une grave pénurie des transports locaux et de l'approvisionnement en essence, en raison des intempéries et de l'arrêt de toutes les activités économiques dû au lock down 15. 27 L'anticipation des consignes et la préparation des populations devraient permettre de réduire les effets du stress sur les populations et d'anticiper ces réactions problématiques. Le gouvernement de Sint-Maarten aux Antilles a par exemple demandé aux populations dès le mois de mai 2020 de s'inscrire pour réserver les places dont elles ont besoin, ceci en amont de la saison cyclonique qui s'écoule de juin à octobre, et en prévision de la diminution des capacités d'hébergement des refuges publics. Sans connaitre l'évolution de l'épidémie des prochains mois sur leur île, les habitants ont donc pu anticiper et choisir une stratégie de refuge. La préparation des populations à la concordance des deux phénomènes peut permettre d'obtenir un compromis permettant une acceptation plus facile de l'évacuation, et de l'hébergement collectif, malgré une exposition accrue au virus. Conclusion 28 Comment évacuer des centaines de milliers voire des millions de personnes en période d'épidémie et sous la contrainte d'un confinement ? En privilégiant la menace imminente de destruction que fait peser par exemple un cyclone majeur aux conséquences possibles d'une évacuation sur la dynamique de l'épidémie, il est en effet EchoGéo , Sur le Vif 11 Évacuation massive des populations en temps d'épidémie de COVID-19 : comment indispensable de s'adapter aux nouvelles contraintes. Les cellules de gestion de crise ainsi que les populations doivent dont anticiper les contraintes de l'épidémie en vue de cette évacuation massive. Cela passe par l'information aux populations, l'intégration des nouvelles contraintes dans les plans, l'adaptation des ressources mobilisables dans un contexte sanitaire potentiellement très dégradé, une prise en charge accrue des populations les plus vulnérables. Les incertitudes intrinsèques à toutes crises sont dans ce contexte multi risques démultipliées et nécessitent l'anticipation logistique et la préparation, tout en laissant une place à l'adaptation contextuelle. 29 La concordance entre pandémie de la COVID-19 et des événements majeurs déjà expérimentée dans plusieurs pays offre l'occasion aux acteurs de la gestion de crise, aux populations et aux chercheurs d'intégrer les contraintes multi risques à plusieurs échelles, du local au global. En effet les plans de gestion des risques sont trop souvent mono-aléa et circonscrits à l'intérieur d'un territoire restreint : le territoire à risque d'inondation, le territoire à risque volcanique, le territoire à risque cyclonique. Or il n'est pas rare qu'une catastrophe soit non seulement le résultat d'une capacité locale de gestion dépassée mais également d'une emprise spatiale de l'évènement disproportionnée par rapport à ce qui avait été anticipé. Ces deux enjeux sont saillants dans un contexte multi risques qui démultiplie les conditions de ruptures. La question des limites des systèmes de gestion de crise et des limites territoriales des crises anticipées permet alors d'imaginer de nouveaux scénarios de crises multi risques, et de s'y préparer. BIBLIOGRAPHIE Bercegol R. de, Goreau-Ponceaud A., Gowda S., Raj A., 2020. Confining the margins, marginalizing the confined: The Distress of Neglected Lockdown Victims in Indian Cities. EchoGéo [En ligne], Sur le Vif. URL: http://journals.openedition.org/echogeo/19357 - DOI: https://doi.org/10.4000/ echogeo.19357 Boyland M., Adelina C., 2020. COVID-19, Cyclone Amphan and building back better. Site web du Stockholm Environment Institute [En ligne]. URL : https://www.sei.org/perspectives/covid-19cyclone-amphan-and-building-back-better/ Bundy J., Pfarrer M.D., Cole E. 2017. Crises and Crisis Management: Integration, Interpretation, and Research Development. Journal of Management [En ligne], vol. 43, n° 6, p. 1661-1692. DOI: https://doi.org/10.1177/0149206316680030 Canavesio R., Jeanson M., Étienne S., 2014. La gestion du risque cyclonique en Polynésie française et ses limites : exemple du cyclone tropical Oli, février 2010. Bulletin de l'association de géographes français, vol. 91, n° 3, p.325-337. CEPRI, 2014. L'évacuation massive des populations : Les territoires face à l'inondation. Centre Européen de Prévention du Risque d'Inondation, 100 p. Chittibabu P., Dube S.K., Macnabb J.B., Murty T. S., et al., 2004. Mitigation of Flooding and Cyclone Hazard in Orissa, India. Natural Hazards [En ligne], 31, p. 455-485. URL: https://link.springer.com/ EchoGéo , Sur le Vif 12 Évacuation massive des populations en temps d'épidémie de COVID-19 : comment article/10.1023/B:NHAZ.0000023362.26409.22 – DOI: https://doi.org/10.1023/B:NHAZ. 0000023362.26409.22 Ćosić K., Popović S., Šarlija M., Kesedžić I., 2020. Impact of Human Disasters and COVID-19 Pandemic on Mental Health: Potential of Digital Psychiatry. Psychiatria Danubina [En ligne], vol. 32, n° 1, p. : 25-31. URL: http://www.psychiatria-danubina.com/UserDocsImages/pdf/ dnb_vol32_no1/dnb_vol32_no1_25.pdf - DOI: https://doi.org/10.24869/psyd.2020.25 Daudé É. Chapuis K., Taillandier P., et al., 2019. ESCAPE: Exploring by Simulation Cities Awareness on Population Evacuation [En ligne]. ISCRAM, International Conference on Information Systems for Crisis Response and Management, p. 76-93. URL: https://halshs.archives-ouvertes.fr/ halshs-02144058 De Belizal E., Lavigne F., Gaillard J.-C., et al., 2012. The 2007 eruption of Kelut volcano (East Java, Indonesia): Phenomenology, crisis management and social response. Geomorphology, vol. 136, n° 1, p. 165-175. Defossez S., Gherardi M., 2020. Face au cyclone Irma ! Le rôle des populations dans la gestion de la crise à Saint-Martin (Petites Antilles, iles du Nord), EchoGéo [En ligne], n° 51. URL: http:// journals.openedition.org/echogeo/18987 - DOI : https://doi.org/10.4000/echogeo.18987 Didier D., Bernatchez P., Dumont D., 2017. Systèmes d'alerte précoce pour les aléas naturels et environnementaux : virage ou mirage technologique ? Revue des sciences de l'eau, vol. 30, n° 2, p. 79-169. Duanmu J, Taaffe K, Chowdhury M., 2010. Minimizing patient transport times during mass population evacuations. Transportation Research Record: Journal of the Transportation Research Board, vol. 2196, n° 1, p. 150-158. Dye C., Wolpert D.M, 1988. Earthquakes, influenza and cycles of Indian kala-azar. Transactions of the royal society of tropical medicine and hygiene, vol. 82, n° 6, p. 843-850. Elysia V., Wihadanto A., 2018. The Sister Village Program: Promoting Community Resilience after Merapi Eruption. The Indonesian Journal of Planning and Development, vol. 3, n° 1, P. 32-43. Esposito Amideo A., Scaparra M.P., Kotiadis K., 2019. Optimising shelter location and evacuation routing operations: The critical issues. European Journal of Operational Research [En ligne], vol. 279, n° 2, p. 279-295. DOI: https://doi.org/10.1016/j.ejor.2018.12.009 Few R., Matthies F., 2006. Flood Hazards and Health: Responding to Present and Future Risks. London, 212 p. Floret N., Viel J.F., Mauny F., et al., 2006. Negligible Risk for Epidemics after Geophysical Disasters. Emerging Infectious Diseases [En ligne], vol. 2, n° 4, p. 543-548. DOI: https://doi.org/10.3201/ eid1204.051569 Giese B. S., Slowey N. C., Ray S., et al., 2010. The 1918/19 El Niño. Bulletin of American Meteorological Society [En ligne], n° 91, 177–183. DOI: https://doi.org/10.1175/2009BAMS2903.1 Guillet, S., Corona, C., Stoffel, M. et al., 2017. Climate response to the Samalas volcanic eruption in 1257 revealed by proxy records. Nature Geoscience [En ligne], n° 10, p. 123–128. DOI: https:// doi.org/10.1038/ngeo2875 Gupta S.K., Suantio AA., Gray A., et al., 2007. Factors associated with E. Coli contamination of household drinking water among tsunami and earthquake survivors, Indonesia. Am. J. Trop. Med. Hyg., vol. 76, n° 6, p. 1158-1162. Janda, R.J., Daag, A.S., Delos Reyes, P.J., et al., 1996. Assessmentand response to lahar hazard around Mount Pinatubo, 1991-1993. In Newhall C.G., Punonbayan R.S. (ed.), Fire and mud: Eruptions EchoGéo , Sur le Vif 13 Évacuation massive des populations en temps d'épidémie de COVID-19 : comment and lahars of Mount Pinatubo. Philippines and Seattle, Quezon City, Philippine Institute of Volcanology and Seismology and University of Washington Press, p. 107-140. Nikolich-Zugich J., Knox K.S., Tafich Rios C., Natt B., Bhattacharya D., Fain M.J., 2020. SARS-CoV-2 and COVID-19 in older adults: what we may expect regarding pathogenesis, immune responses, and outcomes. GeroScience [En ligne], n° 42, p. 505-514. DOI: https://doi.org/10.1007/ s11357-020-00186-0 Jassempour K., Shirazi K.K., Fararooei M., et al., 2014. The impact of educational intervention for providing disaster survival kit: Applying precaution adoption process model. Int. J. Disaster Risk Reduct. [En ligne], n° 10, p. 374-380. DOI: https://doi.org/10.1016/j.ijdrr.2014.10.012 Jenkins S., Lallemant D., Federico S., 2020. Pandemics & Natural Hazards: The Potential Coincidence of a Very Contagious Disease with Another Disaster. Earth observatory blog [En ligne]. URL: https://earthobservatory.sg/blog/pandemics-natural-hazards-potential-coincidence-verycontagious-disease-another-disaster Laliberté D., 2007. Crises humanitaires, santé des réfugiés et des déplacés : un cadre analytique. Revue européenne des migrations internationales, vol. 23, n° 3, p. 85-96. Lavigne F., Sahal A., 2011. La réalité des risques majeurs en Nouvelle-Calédonie. In Cheroux B., Faberon J. Y. (ed.), Risques majeurs et institutions en Nouvelle-Calédonie. Presses Universitaires d'AixMarseille, p. 33-55. Lavigne F., Paris R., Grancher D., et al., 2009. Reconstruction of Tsunami Inland Propagation on December 26, 2004 in Banda Aceh, Indonesia, through Field Investigations. Pure and Applied Geophysics, n° 166, p. 259-281, DOI: https://doi.org/10.1007/s00024-008-0431-8 Leone F., De Richemond N., Vinet F. 2010. Aléas naturels et gestion des risques. Presses Universitaires de France, 288 p. Leone F., Komorowski J.-C., Gherardi-Leone M., et al., 2018. Accessibilité territoriale et gestion de crise volcanique aux Antilles françaises (Guadeloupe & Martinique) : contribution à la planification des évacuations. Cybergeo : European Journal of Geography [En ligne], document 865, DOI: https://doi.org/10.4000/cybergeo.29425 Mei E.T.W., Lavigne F., 2013. Mass evacuation of the 2010 Merapi eruption. International Journal of Emergency Management, vol. 9, n° 4, p. 298-311. Moatty A., Grancher D., Virmoux C., Cavero J., 2019. Bilan humain de l'ouragan Irma à SaintMartin : la rumeur post-catastrophe comme révélateur des disparités socio-territoriales, Géocarrefour [En ligne], vol. 93, n° 1. URL: http://journals.openedition.org/geocarrefour/12918 DOI: https://doi.org/10.4000/geocarrefour.12918 Omira R., Dogan G. Hidayat G., et al., 2019. The September 28th, 2018, Tsunami In Palu-Sulawesi, Indonesia: A Post-Event Field Survey. Pure and Applied Geophysics [En ligne], n° 176, p. 1379-1395. DOI: https://doi.org/10.1007/s00024-019-02145-z Quigley M.C., Attanayake J., King A., Prideaux F., 2020. A multi‐hazards earth science perspective on the COVID‐19 pandemic: the potential for concurrent and cascading crises. Environ Syst Decis [En ligne], n° 40, p. 199-215. DOI: https://doi.org/10.1007/s10669-020-09772-1 Organisation panaméricaine de la santé. 1982. L'hygiène du milieu après une catastrophe naturelle. Publication scientifique n° 430, 72 p., Accessible en ligne. URL: http://helid.digicollection.org/en/ d/J066f/5.html Paul B.K., 2009. Why relatively fewer people died? The case of Bangladesh's Cyclone Sidr. Natural Hazards [En ligne], vol. 50, p. 289-304. DOI: https://doi.org/10.1007/s11069-008-9340-5 EchoGéo , Sur le Vif 14 Évacuation massive des populations en temps d'épidémie de COVID-19 : comment Piarroux R., 2019. Choléra, Haïti 2000-2018, Histoire d'un désastre. Paris, Éditions du CNRS, 295 p. Reghezza-Zitt M., 2019. Gestion de crise et incertitude(s) ou comment planifier le hors-cadre et l'inimaginable. Application aux crises résultant de crues majeures en Île-de-France Annales de géographie 2019/2 (N° 726), p 5-30 Sauvagnargues S. (dir.), 2019. Prise de décision en situation de crise : recherche et innovations pour une formation optimale. ISTE Editions, 172 p. Shaw R., Mallick F., Islam A. (ed.), 2013. Disaster Risk Reduction Approaches in Bangladesh. Springer, 366 p. UN, 2020. Floods Response Plan, Viet Nam [En ligne]. 12 p. URL: https://reliefweb.int/sites/ reliefweb.int/files/resources/VNM-ResponsePlan-201031.pdf UNESCO, 2020. Guide on Tsunami Evacuation during COVID-19, Jakarta [En ligne]. URL: https:// en.unesco.org/sites/default/files/guide_for_tsunami_evacuation_covid-1_final-1_eng.pdf Valsecchi M., Durante R., 2020. Internal migration and the spread of COVID-19. New Economic School, Working Paper n° 276 [En ligne], 44 p. URL: https://www.nes.ru/files/Preprints-resh/WP276.pdf Vinet F., 2018. La grande grippe. 1918. La pire épidémie du siècle. Ed. Vendémiaire, 256 p. Widianto S., Christina B., Allard T., 2020. Indonesia, in major shift, to allow lockdowns as coronavirus cases soar. Site web de l'Agence Reuters [En ligne]. URL: https://www.reuters.com/ article/us-health-coronavirus-indonesia-lockdown-idUSKBN21E1LL Zhang H., 2012. What has China Learnt from Disasters? Evolution of the Emergency Management System after SARS, Southern Snowstorm, and Wenchuan Earthquake. Journal of Comparative Policy Analysis: Research and Practice [En ligne], vol. 14, n° 3, p. 234-244. DOI: https://doi.org/ 10.1080/13876988.2012.687621 NOTES 1. https://www.santepubliquefrance.fr/etudes-et-enquetes/covid-19-une-enquete-pour-suivre-levolution-des-comportements-et-de-la-sante-mentale-pendant-l-epidemie 2. https://www.dnc.nc/vanuatu-le-cyclone-harold-sinvite-en-pleine-crise-du-coronavirus 3. NDRF : http://www.ndrf.gov.in/ 4. https://www.thenewhumanitarian.org/news-feature/2020/06/16/coronavirus-cyclone- disaster-risk-reduction-preparedness 5. https://www.huffingtonpost.fr/entry/apres-des-inondations-devastatrices-au-japon-450000personnes-contraintes-devacuer_fr_5f06b86fc5b6480493cb617f 6. https://www.thenewhumanitarian.org/news-feature/2020/06/16/coronavirus-cyclonedisaster-risk-reduction-preparedness 7. https://www.thejakartapost.com/seasia/2020/04/03/malaysias-indigenous-people-flee-intoforests-to-escape-coronavirus.html 8. https://earthjournalism.net/stories/no-space-in-shelters-as-severe-cyclone-nears-indiabangladesh 9. https://reliefweb.int/report/bangladesh/bangladesh-cyclone-final-report-early-action- eap2018bd01 10. https://www.youtube.com/watch?v=ALuiYitYg3s 11. https://www.huffingtonpost.fr/entry/apres-des-inondations-devastatrices-au-japon-450000personnes-contraintes-devacuer_fr_5f06b86fc5b6480493cb617f EchoGéo , Sur le Vif 15 Évacuation massive des populations en temps d'épidémie de COVID-19 : comment 12. https://www.irdes.fr/recherche/2020/qes-249-les-inegalites-face-au-risque-de-detresse- psychologique-pendant-le-confinement-premiers-resultats-enquete-coclico.html 13. https://www.lemonde.fr/big-browser/article/2020/03/23/covid-19-dans-le-monde-la-fievredu-stockage-et-une-ruee-sur-le-papier-toilette_6034158_4832693.html 14. https://www.miamiherald.com/news/weather/hurricane/article242864096.html 15. https://reliefweb.int/sites/reliefweb.int/files/resources/EAP2018BD01fr.pdf RÉSUMÉS Cet article propose une réflexion sur les contraintes que fait peser la focalisation de la gestion de la pandémie au niveau mondial et de l'épidémie au niveau des territoires sur la préparation et l'anticipation de nouvelles menaces, tels que des aléas naturels. This paper offers a reflection on the constraints imposed by the focus of the management of the pandemic at the global level and of the epidemic at the level of the territories on the preparation and anticipation of new threats, such as natural hazards. INDEX Keywords : pandemic, multi-hazards, multi crisis, population evacuation Mots-clés : pandémie, multi-aléa, multicrise, évacuation des populations AUTEURS ÉRIC DAUDÉ Éric Daudé, eric.daude@cnrs.fr, est directeur de recherche au CNRS et membre de l'UMR IDEES. Il a récemment publié : - Fenet J., Daudé É., 2020. La population, grande oubliée des politiques de prévention et de gestion territoriales des risques industriels : le cas de l'agglomération rouennaise. Cybergéo. European Journal of Geography [En ligne], document 932. URL: http://journals.openedition.org/cybergeo/ 34020 - DOI: https://doi.org/10.4000/cybergeo.34020 - Daudé É., Tranouez P., 2020. ESCAPE-SG : un simulateur d'évacuation massive de population pour la formation des acteurs à la gestion de crise. Netcom, Networks and Communication Studies [En ligne]. URL: http://journals.openedition.org/netcom/4340 - Daudé É., Chapuis K., Taillandier P., et al., 2019. ESCAPE: Exploring by Simulation Cities Awareness on Population Evacuation [En ligne]. Proceedings of the 16th ISCRAM Conference, Information Systems for Crisis Response and Management, p. 76-93. URL: https://halshs.archivesouvertes.fr/halshs-02144058 DELPHINE GRANCHER Delphine Grancher, Delphine.GRANCHER@lgp.cnrs.fr, est ingénieur de recherche au Laboratoire de Géographie Physique (UMR 8591). Elle a récemment publié : EchoGéo , Sur le Vif 16 Évacuation massive des populations en temps d'épidémie de COVID-19 : comment - Moatty A., Grancher D., Virmoux C., Cavero J., 2020. Organisation de la post-catastrophe après Irma à Saint-Martin., EchoGéo [En ligne], n° 51. URL: http://journals.openedition.org/echogeo/ 19017 - DOI: https://doi.org/10.4000/echogeo.19017 - Moatty A., Grancher D., Virmoux C., Cavero J.,2019. Bilan humain de l'ouragan Irma à SaintMartin : la rumeur post-catastrophe comme révélateur des disparités socio-territoriales., Géocarrefour [En ligne], vol. 93, n° 1. URL: http://journals.openedition.org/geocarrefour/12918 DOI: https://doi.org/10.4000/geocarrefour.12918 - Oiry A., Grancher D., 2019. Le milieu scolaire : un terrain privilégié de l'enseignement et/ou de l'éducation aux risques naturels dans les territoires d'outre-mer ? Les Cahiers d'Outre-Mer, n° 280, p. 567-598. URL: https://www.cairn.info/revue-les-cahiers-d-outre-mer-2019-2-page-567.htm FRANCK LAVIGNE Franck Lavigne, franck.lavigne@univ-paris1.fr, est professeur à l'Université Paris 1 PanthéonSorbonne/Institut Universitaire de France (IUF) et membre du Laboratoire de Géographie Physique. Il a récemment publié : - Malawani M. N, Lavigne F., Gomez C., Mutaqin B. W., Hadmoko D. S., 2021. Review of Local and Global Impacts of Volcanic Eruptions and Disaster Management Practices: The Indonesian Example. Geosciences [En ligne], vol. 11, n° 3109. DOI: https://doi.org/10.3390/ geosciences11030109 - Meilianda E., Lavigne F., Pradhan B., et al., 2021. Barrier Islands Resilience to Extreme Events: Do Earthquake and Tsunami Play a Role? Water [En ligne], vol. 13, n° 2. https://doi.org/10.3390/ w13020178 - Le Cozannet G., Oliveros C., Brivois O., et al., 2020. Detecting Changes in European Shoreline Evolution Trends Using Markov Chains and the Eurosion Database. Frontiers in Marine Science [En ligne], vol. 7. DOI: https://doi.org/10.3389/fmars.2020.00326 EchoGéo , Sur le Vif 17
{'path': '20/halshs.archives-ouvertes.fr-halshs-03177723-document.txt'}
L'art de faire crédit ou comment ne pas prendre les autres pour des imbéciles Isabelle Delpla To cite this version: Isabelle Delpla. L'art de faire crédit ou comment ne pas prendre les autres pour des imbéciles. Philosophia Scientiae, Editions Kime, 2002, 6 (2), pp.181-216. halshs-00644952 HAL Id: halshs-00644952 https://halshs.archives-ouvertes.fr/halshs-00644952 Submitted on 19 Jan 2020 L'art de faire crédit ou comment ne pas prendre les autres pour des imbéciles Isabelle Delpla Université Paul Valéry-Montpellier III Résumé : Le principe de charité est analysé ici comme l'une des formes d'une bienveillance interprétative qui vise à faire crédit aux autres et à ne pas les prendre pour des imbéciles. Mais, dans cette visée même, il est en concurrence avec d'autres maximes combattant chacune une forme de stupidité. Il faut dès lors critiquer les faux dilemmes de la charité ou du mépris et de la charité ou du non-sens. Le principe de charité ne peut être légitimé comme principe spécifique des sciences humaines ni par un finalité morale ni par le statut de condition indispensable de l'interprétation. La confrontation avec d'autres maximes d'interprétation permet de limiter sa pertinence interprétative mais aussi de critiquer en retour d'autres pratiques d'interprétation inspirées de Wittgenstein. En définitive, les vertus escomptées du principe de charité pour les sciences humaines se trouvent aussi bien assurées par un principe de parcimonie qui ne rencontre pas les objections résultant d'une application inconditionnelle et exclusive de la charité. Le problème demeure de savoir jusqu'où doit s'appliquer le rasoir d'Occam et dans quelle mesure la parcimonie n'équivaut pas aussi à un escamotage des difficultés et des objets d'interprétation. Abstract: The principle of charity is here analysed as one form of interpretive benevolence whose aim is to give others credit and not to take them for idiots. In this very aim, however, it is in competition with other maxims, each of Philosophia Scientiae, 6 (2), 2002, 181–216. 182 Isabelle Delpla which fights against one kind of stupidity. That being the case, we must criticize the false alternatives between charity and contempt, on the one hand, and charity and nonsense, on the other. The principle of charity cannot be granted legitimacy as a principle specific to the social sciences on the basis of a moral aim or on the ground that it is an indispensable condition for interpretation. Comparing and contrasting it to other maxims of interpretation allows us to limit its interpretive relevance, but also to criticize other interpretive practices inspired by Wittgenstein. Ultimately, the virtues expected of the principle of charity for the social sciences are just as well provided by a principle of parsimony, which is not open to the objections resulting from the unconditional and exclusive application of the charity. There remains the problem of knowing how far to apply Occam's razor and to what extent parsimony does not just amount to an evasion of the difficulties and the objects of interpretation. Faire crédit aux autres, les prendre au sérieux, en donner une interprétation favorable : voilà autant de formulations d'une bienveillance dans l'interprétation dont le principe de charité n'est qu'une version parmi d'autres. La formulation la plus générale en serait peut-être tout simplement : ne pas prendre les autres pour des imbéciles, la charité étant l'une des formes de cette limitation ou élimination de l'excessive stupidité de notre interlocuteur. Mais, si la bienveillance interprétative déleste l'autre d'une telle stupidité, une question se pose : où est donc passée la stupidité de l'indigène ? Les avanies de la stupidité seront donc le fil directeur d'une analyse de l'art du crédit. Cette présentation imagée des principes d'interprétation est à l'image de cet article qui prendra une certaine liberté avec l'exégèse des auteurs. Cependant, elle est significative de la nature même de ces principes. D'une part, le principe de charité se présente d'abord de manière négative comme un garde-fou contre l'extravagance interprétative visant à poser des limites à l'absurdité et à la stupidité d'autrui [Quine 1960, §13]. Il s'agit d'une règle négative d'abstention. Cependant, ne pas présumer de la stupidité des autres, est-ce pour autant leur faire crédit ? L'abstention ou l'élimination de la stupidité reste difficilement une opération purement critique et négative comme l'attestent nos pratiques les plus ordinaires. Cependant, du refus de l'absurdité à la présomption d'intelligibilité et de rationalité, la conséquence est-elle bonne comme semblent le laisser penser certains usages du principe de charité ? C'est la légitimité d'une charité seulement négative par élimination ou positive par crédit qui est en question. D'autre part, ne pas prendre les autres pour des imbéciles exprime une double exigence. Pour autant qu'une extrême stupidité tourne à l'absurdité, il s'agit d'une exigence épistémique, l'interprétation visant à L'art de faire crédit 183 donner du sens, à rendre les autres intelligibles. Par ailleurs, présumer de la stupidité des autres est une attitude de supériorité condescendante qui doit être bannie selon une exigence éthique de respect et d'équité nous enjoignant de considérer les autres comme nos semblables, la stupidité ou l'imbécillité étant prises au sens général d'infériorité ou de faiblesse d'esprit. La vigoureuse récusation par Quine de la mentalité primitive selon Lévy-Bruhl relève de cette double exigence. La charité, d'abord présentée comme un principe ou une condition d'intelligibilité 1 , est un impératif logique conforté par une visée morale étant donnée la connotation péjorative acquise par les idées de peuples primitifs ou de sociétés inférieures 2 . Ainsi la charité serait à la fois un garde-fou contre le non-sens et la condescendance, une condition d'intelligibilité et de bienveillance. Cette double légitimité pose néanmoins une question de définition : la légitimité de principes d'interprétation est-elle de nature différente de celle des principes qui règlent l'activité scientifique dans les disciplines non interprétatives ? Il n'y a assurément pas de principe de charité en physique et dans les sciences dures, quoique selon Quine des maximes de conservatisme et de simplicité y soient indispensables. Les maximes de bienveillance interprétative posent donc la question de la spécificité des sciences humaines. A-t-on besoin dans l'interprétation de principe de nature ou de portée éthique intégrant la dimension humaine de leur objet ou bien les règles usuelles de l'activité scientifique y suffisent-elles ? En outre, cette double légitimité soulève aussi une question de préséance : si une forme quelconque de bienveillance est requise pour une interprétation acceptable, s'ensuit-il que la légitimité de principes d'interprétation doit être évaluée à l'aune de cette bienveillance ? Si une recherche de la bienveillance prévaut, alors la légitimité de la charité comme norme logique ne sera plus inconditionnelle per se mais relative à sa manière de comprendre autrui en bonne part. Les principes d'interprétation devront être (ou ne pas être) appliqués, non parce qu'ils sont logiques, rationnels et conformes à des réquisits épistémiques, mais parce qu'en définitive les normes logiques et rationnelles de la charité sont (ou ne sont pas) les plus à même de traiter autrui comme égal et non comme inférieur. Pour éclairer ces diverses questions, il convient de confronter le principe de charité à d'autres règles de l'activité scientifique ainsi qu'à d'autres 1. L'idée que la charité est une condition de l'interprétation est plutôt celle de Davidson que celle de Quine qui ne fait pas un usage systématique de ce principe. 2. Les deux expressions étant employées par Lévy-Bruhl. 184 Isabelle Delpla maximes de bienveillance dans l'interprétation. Il s'agira d'envisager par cette confrontation les questions suivantes 1) l'élimination de la stupidité peut-elle être une opération seulement négative de débit ou d'abstention sans devenir une opération de crédit ? 2) la charité se justifie-t-elle comme principe de bienveillance et le dilemme de la charité ou du mépris est-il fondé ? 3) la charité se justifie-t-elle comme condition d'intelligibilité et le dilemme de la charité ou du non-sens est-il fondé ? 4) un principe théorique comme le principe de parcimonie peut-il équivaloir à une maxime de bienveillance ? Débit ou crédit ? Ne pas prendre les autres pour des imbéciles n'est pas une opération univoque consistant seulement à exclure ou supprimer la stupidité, c'est ce qu'attestent d'emblée nos pratiques ou nos expressions les plus ordinaires, éclairantes dans leur trivialité sur les difficultés et les ambiguïtés d'une telle entreprise. Plutôt que de juger un comportement foncièrement stupide, nous le réévaluons selon d'autres critères ou blâmons notre propre aveuglement. Mais, loin d'être éliminée, la stupidité d'autrui se trouve n'être souvent que déplacée ou escamotée. Ainsi l'autre n'est pas stupide, disons-nous, il est gentil ; un esprit simple est vu comme un coeur simple. Mais une telle gentillesse ou simplicité, risque de porter tout le poids de la stupidité qui se trouve seulement rebaptisée. L'interprète escamote la stupidité d'autrui par un tour de passe-passe linguistique. Il s'agit alors d'un déplacement en trompe-l'oeil, je dis de quelqu'un qu'il est gentil parce qu'il ne peut pas faire mieux. La condescendance pointe sous la bienveillance. Selon une deuxième forme de déplacement, face à la stupidité des autres, je me dis « suis-je bête ! » et reconnaissant une erreur de compréhension de ma part, je me rends compte que les autres ne sont pas si stupides, et qu'en l'occurrence je le suis plus qu'eux. C'est la solution de la maxime de traduction proposée par Quine : au-delà d'un certain degré, la stupidité de notre interlocuteur est moins probable qu'une mauvaise traduction et qu'une défaillance de l'interprète. La charité est ainsi pour Quine une « mise en balance de diverses valeurs » [Quine 1975, 322] dans l'interprétation, toutes choses égales par ailleurs, c'est-à-dire compte tenu de la totalité des données empiriques. Cette solution consiste en un transvasement de l'indigène vers l'anthropologue. Etant donnée une certaine dose de stupidité, il faut la répartir entre eux selon le principe des vases communicants. Par un réaménagement dans la traduction (trade off ), la charité opère un rééquilibrage des comptes au profit de l'interlocuteur. L'art de faire crédit 185 Pour filer la métaphore financière du crédit, faire crédit aux autres, c'est débiter leur compte d'erreurs ou d'aberrations dont l'on crédite le mien. Il n'y a plus d'une part un imbécile, de l'autre un interprète, mais c'est bien le même, l'interprète, qui joue les deux rôles, le rééquilibrage s'opérant entre les diverses interprétations que lui-même produit, corrige et élimine. Dans le premier cas, il s'agissait d'un rééquilibrage, voire d'un maquillage des comptes de l'interlocuteur. Une telle démarche suppose un élargissement de perspective sur la personne d'autrui permettant un déplacement du déficit de valeurs intellectuelles vers d'autres valeurs. Dans le deuxième cas, il s'agit d'un transfert de compte d'une personne à une autre. Mais pas plus que Socrate ne croyait au transvasement interpersonnel de sagesse par capillarité, Quine ne croit pas à la transmigration de stupidité d'une âme à une autre, ce transvasement se fait donc, non entre les personnes mais dans le langage. Le contre-balancement et le rééquilibrage s'opère en l'occurrence entre l'esprit et le langage, c'est-à-dire qu'une différence d'esprit ou de mentalité est transformée en divergence langagière. Selon une autre hypothèse, la stupidité foncière de l'indigène ne serait pas seulement déplacée, mais d'emblée évitée par la projection dans l'interprétation de certaines règles inviolables qui interdisent de comprendre notre interlocuteur comme croyant que 2 + 2 font 5, ou que les choses sont elles-mêmes et leur contraire ou qu'il n'a pas de corps. Il s'agit alors d'éliminer par principe les entités superflues : la notion de mentalité prélogique, d'esprit arriéré, hypothèses à la fois inutiles et nuisibles. On pratiquerait l'art du crédit en étant soi-même économe et non dispendieux : mieux vaut ne pas prêter aux autres des entités encombrantes comme des mentalités ou des formes d'esprit, inobservables et sans pouvoir explicatif. La bienveillance est d'abord abstinence. Une telle forme de bienveillance, purement critique et négative, s'apparente ainsi à un principe de parcimonie ou d'économie théorique que pratique Quine envers la notion de signification ou de mentalité prélogique. Mais, s'agit-il d'une pure et simple suppression ou encore une fois d'un rééquilibrage ? Est-ce que la stupidité est seulement supprimée ou remplacée par autre chose ? Ce remplacement peut-il se décider a priori ou être constaté a posteriori ? Peut-on enlever aux autres leurs défauts sans les remplacer (contrebalancer) par des qualités dont on leur ferait crédit par principe et non au gré des rencontres ou selon une enquête empirique ? La charité négative ou parcimonie est-elle alors séparable d'une charité positive ? Le principe de charité devient alors un principe de crédit. Au lieu 186 Isabelle Delpla d'un contre-balancement par la gentillesse ou par ma propre bêtise, il consiste à accorder aux autres, à leur prêter ou à leur donner du sens, de la rationalité ou de la véracité. Cependant, comme dans le crédit, on ne prête ou on ne donne que ce que l'on a déjà ou dont on peut disposer : sans charité, on risque de prêter sa propre stupidité, avec la charité, sa logique, sa rationalité, ses propres croyances ou celles que l'on devrait avoir et que l'on emprunte à une modèle de rationalité qui nous semble désirable ou à un fond commun d'humanité, nature humaine ou sens commun. Mais du crédit à l'imposition il n'y a qu'un pas. Ainsi la charité qui vise à éviter que l'on accorde aux autres trop peu court aussi le risque de la prodigalité ou d'une générosité étouffante qui accorde trop. Ces dilemmes de la charité ont été souvent soulignés avec le risque d'imposition et de projection illégitime sur les autres qui, après avoir été le miroir de notre propre bêtise, ne seraient que celui de nos croyances et de notre modèle de rationalité. Il y a donc au moins trois opérations possibles pour « sauver l'indigène », chacune soulevant des difficultés propres : 1) un élargissement et un déplacement vers d'autres aspects de l'interlocuteur, ce qui peut n'être qu'un maquillage langagier (contre-balancement par la gentillesse). Se pose alors la question de l'unité théorique de référence, du lieu où une telle opération est légitime : est-ce l'individu et la totalité de la personne ? Ou bien peut-on transférer la difficulté d'une personne à une autre, peut-on déplacer vers Jacques la stupidité de Paul ? Jusqu'où peut-on élargir la base d'interprétation pour en résoudre les problèmes ? 2) un déplacement vers l'interprétation qui peut n'être qu'un transfert des difficultés à l'intérieur de ma théorie (contre-balancement par ma propre erreur). Mais, si la stupidité passe dans mon interprétation, c'est à celle-ci qu'il incombe d'en porter le poids. Comment alors éviter un alourdissement de l'outil interprétatif et une inflation méthodologique si les caractéristiques précédemment prêtées à l'interprété deviennent des réquisits de l'interprétation ? 3) une élimination qui peut être contrebalancée par une imposition de qualités positives. Un principe de bienveillance négatif, consistant seulement à supprimer, risque d'être un simple escamotage des difficultés (inintelligibilité, irrationalité), les problèmes étant déplacés ailleurs ou transférés dans l'interprétation, alors qu'un principe de bienveillance positif, conçu comme crédit, risque de devenir une imposition. L'élimination, par exemple de la mentalité prélogique, pourrait n'être que l'en- L'art de faire crédit 187 vers d'une imposition, celle d'une mentalité logique ou rationnelle, par exemple. La pluralité de ces opérations, dont chacune peut prétendre à sauver les autres de l'imputation de stupidité, manifeste que la bienveillance interprétative n'est pas univoque, la charité n'étant alors que l'une de ses formes. C'est alors la légitimité de la charité qui doit être réévaluée si elle ne peut se prévaloir d'être la condition sine qua non d'une interprétation correcte. I. Le dilemme de la charité ou du mépris La justification de la charité repose sous diverses formulations sur une série de dilemmes : condition de l'intelligibilité, elle serait une alternative au non-sens, mais aussi indirectement à la condescendance. Cependant, si la formulation la plus générale de la bienveillance interprétative consiste à ne pas prendre les autres pour des imbéciles, il existera diverses formes d'une telle bienveillance en fonction du type d'infériorité d'esprit que l'on s'efforcera d'épargner aux autres. Aussi l'alternative n'est-elle pas entre charité d'une part, malveillance ou condescendance de l'autre. On n'a pas attendu Quine pour critiquer la mentalité prélogique et à moins de montrer que le principe de charité est sous-jacent à toute critique de la mentalité prélogique et de ses dérivés, l'alternative n'est pas entre charité 3 et prélogicité. Inversement, le rejet du principe de charité n'implique pas que l'on doive renoncer à toute maxime de bienveillance. Que la stupidité à évincer et les principes visant à l'éliminer soient relatifs les uns aux autres, c'est ce qu'attestent les écrits de Quine : l'autre ne doit pas être considéré comme illogique ou privé de ses cinq sens, comme niant les évidences logiques ou les évidences empiriques, comme un esprit foncièrement dans le faux. Il faut épargner à l'indigène l'absurdité logique et des erreurs manifestes et inexplicables en le comprenant à la lumière de nos vérités logiques et des données empiriques. La stupidité résiduelle ne serait alors plus que de la stupeur qui priverait quelqu'un momentanément de ses capacités de réactions sensorielles ou intellectuelles [Quine 1960, § 14]. Par conséquent, même chez Quine, la charité n'est que l'une des pièces de ce dispositif de bienveillance dont la forme la plus large est une convention de traduction qui requiert de sauver les évidences, à la fois logiques 3. Au demeurant, Quine ne prétend nullement être propriétaire du principe de charité, qu'il réfère toujours à Wilson, ou de la maxime faisant passer la stupidité dans une erreur d'interprétation dont il rappelle que ce n'est qu'une vérité de bon sens, à la disposition de tout le monde [Quine 1960, § 13]. 188 Isabelle Delpla et empiriques. Cette convention se découple en deux méthodes complémentaires : d'une part l'empathie pour l'apport empirique du manuel de traduction qui se caractérise par un dédoublement de point de vue et la possibilité de se mettre à la place de l'indigène d'un point de vue perceptif ; d'autre part la charité concernant la logique qui se caractérise par l'inconditionnalité et l'absence de dédoublement de point de vue. Et entre les deux, un vaste domaine sans règles autres que subjectives, celui des hypothèses analytiques déterminant l'ontologie de l'indigène. Aussi la charité comme imposition unilatérale de notre propre point de vue n'est-elle pas univoque selon qu'elle est tour à tour prise au sens de critère positif de correction de la traduction (pour les connecteurs logiques) ou comme simple pis aller, faute de mieux (pour l'ontologie). C'est alors un appel à la familiarité qui est un guide sans être un critère et sans qu'une limite stricte puisse être tracée entre charité et empathie faute d'un critère de distinction entre inintelligibilité et simple extravagance 4 . Mais si la charité selon Quine et Davidson vise à combattre l'erreur 'crasse' et massive, il apparaît que la figure de véracité enviable à leurs yeux ne l'est guère pour d'autres. Si l'on considère diverses stratégies d'évitement de la stupidité, elle divergent autant que le genre que l'on veut éviter : car il ne suffit pas d'être dans le vrai pour ne pas être borné, arriéré, raté ou insignifiant. En se limitant à la littérature philosophique, on peut citer deux autres types de bienveillance qui s'opposent à la charité comme maximisation de la vérité dans la mesure où la stupidité de l'indigène proviendrait précisément de la focalisation sur les critères de la vérité et de l'erreur. Il s'agit des stratégies interprétatives de Goodman, incompatibles avec la charité comme maximisation de la vérité, et de Wittgenstein, conciliables à certaines conditions. Toutes deux ont en commun une fertilité herméneutique en anthropologie que n'a pas la charité : alors que dans la littérature anthropologique, les références aux vues de Quine et Davidson restent marginales, les références explicites faites aux constructivismes de Goodman 5 ou aux jeux de langage de Wittgenstein y sont innombrables. Il est d'ailleurs notable que l'un des rares ouvrages consacrés aux relations de Quine et de l'anthropologie 4. Je parlerai donc de charité pour Quine au sens d'imposition unilatérale de notre point de vue. Ce n'est pas le sens initial donné par Wilson et repris par Davidson. Pour une analyse détaillée des divers critères et principes de traduction, je renvoie, plutôt que de me répéter, à mon ouvrage Quine, Davidson. Le principe de charité, Paris : PUF, 2000. 5. Voir notamment [Douglas et Hull 1992]. Voir également les derniers écrits de Geertz qui se réclame explicitement de Goodman et « Rituels et références » d'Israël Scheffler in Lire Goodman, sous la direction de Roger Pouivet, Combas : L'éclat, 1992, pp. 69-87. L'art de faire crédit 189 [Feleppa, 1988] en vienne à se référer aux vues de Goodman pour illustrer le possible usage anthropologique de ces analyses philosophiques. Si l'une des maximes de l'anthropologie anglo-saxonne est « get the native right », les deux interprétations les plus divergentes de cette rightness sont certainement celles des théories davidsoniennes de la vérité et des théories goodmaniennes de la conceptualisation 6 . Goodman critique la réduction de tout critère de correction et de justesse (rightness) à la vérité, et de toute compréhension à la compréhension linguistique. C'est l'application exclusive de théories de la vérité à la compréhension qui est selon Goodman responsable d'une image dommageable des autres comme étant à la fois à côté de la plaque, déphasés, dépourvus d'à propos et de discernement et d'une banalité à pleurer. Ne dire et ne faire que ce qui est vrai, sans autre critère, ce serait trop vaste et chargé de platitudes. Répondre que « la neige est blanche » à une question sur la densité du granit serait donner une réponse vraie mais incorrecte. Si tout principe de correction était subordonné à la vérité, au détriment de la maxime gricienne de pertinence qui tend à éviter un catalogue de banalités sans contenu informatif, une conversation réglée par un emploi systématique du principe de charité oscillerait entre l'ubuesque et le trivial 7 . Mais pour Goodman, il ne suffit pas de rajouter une théorie de la maximisation de l'information par la pertinence à une théorie de la maximisation de la vérité par la charité car la recherche de la correction et de la justesse suppose la prééminence de la bonne catégorisation sur la vérité. Ainsi, si un garde reçoit l'ordre de tuer les prisonniers qui bougent dans la cour, les tue tous illico et se justifie en disant qu'ils bougeaient autour du soleil, son affirmation est vraie mais incorrecte, parce qu'elle repose sur une catégorie inappropriée du mouvement. Or, on ne peut seulement rajouter une théorie constructiviste de la conceptualisation à une théorie de la vérité car poussée à son terme la prévalence d'un critère de vérité est incompatible avec l'idée de schème conceptuel. C'est le point sur lequel s'accorderaient Goodman et Davidson. Aussi Goodman et Elgin [Goodman & Elgin 1988, 145] estiment 6. J'ai par ailleurs, et plus longuement que je ne pourrais le faire ici, analysé la confrontation entre Goodman et Davidson concernant l'usage du principe de charité et l'interprétation en anthropologie, dans « Manières de faire les autres. Quelques aspects du constructivisme de Goodman selon Quine, Davidson et Searle », Actes du colloque international Nelson Goodman, Philosophia Scientiae, Vol. 2, cahier 1, 1997. 7. Dans sa formulation initiale, le principe de charité chez Wilson visait à critiquer les vues de Grice sur la signification et la pertinence, cf. « Grice on Meaning : the ultimate counter example », Noûs, vol. 4, n◦ 3, 1970, pp. 295-302. 190 Isabelle Delpla qu' « une déviation accidentelle vers la stupidité » est caractéristique des théories de la connaissance (et de la compréhension) qui se fixent pour but : 1. la croyance (le but épistémique est d'accepter ou de croire un énoncé s'il est vrai et de le rejeter s'il est faux) 2. la réfutation du scepticisme. Car, pour s'assurer que les croyances des autres sont bien vraies, le critère d'acceptabilité ne peut être placé trop haut, ou bien le scepticisme prévaudrait. Mieux vaut alors privilégier les banalités et les catégorisations grossières qui, pour éviter que l'autre ne se trompe, ne distinguent ni un Saint-Emilion d'un Médoc ni les Bordeaux des Bourgognes, ni même le vin de l'eau. Il s'ensuit une inutilité épistémique de l'intelligence et de la subtilité et le triomphe de Watson sur Sherlock Holmes. Un principe de charité qui serait à la fois condition d'attribution des croyances, donc méthode d'interprétation, et principe de réfutation du scepticisme, condamnerait les autres à un manque de pertinence et de perspicacité, de subtilité et d'à-propos ; toutes choses qui ne peuvent simplement s'ajouter à la véracité de même qu'une théorie de la conceptualisation ne peut seulement se greffer sur une théorie de la vérité, l'une prônant une relativité de la vérité à la pluralité des systèmes conceptuels que l'autre s'est donné pour but de réfuter. Deux images de la stupidité correspondent ainsi à deux théories de la vérité-banalité ou de la conceptualisation-création. Après l'image de l'élève borné et déphasé s'entêtant à répondre à toute question que la neige est blanche, une deuxième figure de la stupidité est celle du raté, de l'élève qui s'acharne dans une voie qui n'est pas la sienne (généralement la filière scientifique), s'enferme dans une conduite d'échec et à qui il convient de conseiller une réorientation dans une voie où ses qualités se manifesteront bien davantage, généralement les filières artistiques, religieuses ou politiques. A la figure du raté, correspond la stratégie de l'élargissement de perspective et de changement de jeu de langage. C'est une forme de principe de bienveillance de cet ordre que pratique Wittgenstein dans ses Remarques sur Le Rameau d'Or : en faisant de la magie, l'indigène ne fait pas de la science mais plutôt autre chose, de la religion. L'erreur de Frazer est d'interpréter les indigènes selon des critères de vérité et de les présenter en conséquence comme étant dans le faux et persistant dans l'erreur, donc comme stupides, sans que la stupidité soit elle-même un facteur explicatif plausible 8 . Que les 8. « La manière dont Frazer expose les conceptions magiques et religieuses des hommes n'est pas satisfaisante : elle fait apparaître ces conceptions comme des erreurs. . . Tout ce que Frazer fait consiste à rendre vraisemblables [le meurtre du roiprêtre] pour des hommes qui pensent comme lui. Il est très remarquable que tous L'art de faire crédit 191 indigènes n'abandonnent pas l'usage de la magie malgré les preuves de son inefficacité ne pourrait être une preuve de stupidité que s'il s'agissait d'une erreur à rectifier. « Or ce n'est pas le cas lorsqu'il s'agit des usages religieux d'un peuple et c'est pour cette raison qu'il ne s'agit pas d'une erreur » [Wittgenstein 1982, 14]. Une telle stratégie interprétative est directement reprise par de nombreux anthropologues pour éviter de juger de la magie comme étant une forme inférieure de science qui viserait à représenter ou expliquer le monde. Ainsi, se réclamant de l'analyse austinienne des actes de langage, Tambiah note, contre l'analyse de Frazer, que dans les rituels magiques, « l'action analogique se conforme davantage à un modèle de persuasion qu'à un modèle scientifique » [Tambiah 1985, 72] 9 . Les rites ont une fonction performative qu'il est inapproprié de juger en termes de vérité ou fausseté [Tambiah 1985, 81]. Au-delà du cas de la magie, une analyse vériconditionnelle de la signification est corollaire d'une tendance intellectualiste qui conçoit les autres comme produisant ou ayant en tête des théories explicatives du monde et qui conduit les anthropologues, selon les termes de Jean Bazin, à « imaginer que ceux qu'ils observent se conduisent comme des savants ratés qui appliqueraient obstinément une théorie fausse » [Bazin 1991, 506]. Suivant donc la voie ouverte par Austin et Wittgenstein, il convient d'interpréter nombre de pratiques comme relevant d'autres jeux de langage où la parole agit plutôt qu'elle ne représente. Contre la réduction des critères de signification et de compréhension au vrai et au faux, ou même au rationnel et à l'irrationnel, la référence aux jeux de langage permet de déterminer des normes, sans pour autant postuler des significations comme entités cachées. Les pratiques et l'usage ne sont pas un simple comportement mais un comportement gouverné par des règles et sujet à des critères de correction. De même qu'il existe une pluralité de jeux, de même il existe une pluralité de règles permettant de comprendre comment les autres donnent sens à leurs pratiques 10 . Cette stratégie d'interprétation est double : ces usages soient au bout du compte présentés pour ainsi dire comme des stupidités. Mais jamais il ne devient vraisemblable que les hommes fassent tout cela par pure stupidité. » [Wittgenstein 1982, 13-14]. 9. « J'ai défendu la thèse que considérer la magie comme une tentative de faire la science qui échoue (ou plus crûment comme une « science bâtarde » à la manière de Frazer. . .) revient à affirmer que dans leur magie et leurs rituels les primitifs essayaient d'atteindre des résultats par un raisonnement « causal » et échouaient. . . La sémantique des actes rituels ne doit pas nécessairement être jugée dans des termes tels que vrai/faux de la science mais selon des critères et des buts différents », [Tambiah 1985, 77]. 10. Pour une confrontation synoptique des conceptions de la signification de Quine et 192 Isabelle Delpla - D'une part, elle consiste en un élargissement et un déplacement hors du langage théorique de la science vers des jeux de langage sociaux replaçant le centre de gravité de l'interprétation dans les relations que les hommes entretiennent entre eux et non dans l'analyse de leur rapport au monde. C'est un tel déplacement vers les rapports sociaux qu'opère Jeanne Favret-Saada pour refuser l'interprétation de la sorcellerie par l'idée d'une mentalité paysanne arriérée « inapte à saisir les relations de causalité » 11 . Elle souligne ainsi comment cette figure de l'imbécile est construite comme « l'image inversée du savant » 12 . Il faut donc pour comprendre la sorcellerie se défaire d'une conception de la parole comme information au profit d'une « parole qui est pouvoir » [Favret-Saada 1977, 26]. - D'autre part, en insistant sur la dimension pratique et non théorique de l'activité humaine, cette démarche critique l'insistance mise sur les représentations et les croyances qui revient à enfermer les indigènes dans des systèmes de pensées censés expliquer leur comportement. Non seulement les pratiques et les actions ne relèvent pas de croyances fausses, mais, selon Wittgenstein, elles ne s'expliquent pas du tout par des croyances : « Brûler en effigie. Embrasser l'image du bien aimé. Cela ne repose naturellement pas sur la croyance qu'on produit un certain effet sur l'objet que l'image représente. Cela vise à procurer une satisfaction et y parvient effectivement. Ou plutôt, cela ne vise rien : nous agissons ainsi et nous avons alors un sentiment de satisfaction » 13 . Il en ressort de Wittgenstein, cf. [Hacker, 1996, chapitre 7]. Hacker dresse un tableau des ressemblances et des différences entre ces théories en insistant sur le fait que, à la différence de Quine, la théorie wittgensteinienne du langage comme activité gouvernée par des règles permet de déterminer des critères de correction de la signification sans pour autant postuler des significations-entités (p. 207 et sq.) 11. La Mort, les mots, les sorts, p. 19. Il est à noter que Favret-Saada ne se réfère pas à Wittgenstein ou à Austin même si l'on retrouve cette même démarche de déplacement d'un jeu de langage scientifique à un jeu de langage social. 12. P. 17. Elle précise : « On comprend que les paysans de l'ouest ne soient guère pressés de venir occuper cette place d'imbéciles où les rive le discours public. . . Quand les folkloristes ou les journalistes parlent de la sorcellerie des campagnes, c'est toujours comme si deux théories physiques incompatibles étaient en présence : la prélogique ou la médiévale, celle des paysans qui attribuent à tort leur malheur à d'imaginaires sorciers ; et la nôtre, celle des gens instruits qui manipulent correctement les relations de causalité. Il est dit ou sous-entendu que le paysan est incapable de le faire, soit par ignorance, soit par arriération. La description qui est donnée à ce propos du paysan est. . . [destinée] à produire l'impression qu'il est inapte à saisir les relations de causalité », pp. 17-19. 13. [Wittgenstein 1982, 16]. Ce point de vue est directement repris par J. Bazin : « J'échoue à décrire sa croyance, j'en rate le phénomène, si j'établis seulement la L'art de faire crédit 193 que, plutôt que de prêter aux autres des théories qui ne sont que le produit de la position d'observateur/théoricien, il convient dans l'interprétation de distinguer entre les catégories de l'acteur et les catégories de l'observateur [Lloyd 1990]. Par conséquent, on ne s'étonnera pas que les jeux de langage selon Wittgenstein et les actes de langage selon Austin puissent être utilisés pour critiquer non seulement un biais scientifique de l'interprétation mais aussi tout système de croyances et de représentations déterminant et expliquant le comportement, qu'il soit scientifique ou religieux. Attaquant ce qu'il considère être un mythe européen, l'anthropologue Obeyesekere critique l'idée d'une apothéose du Capitaine Cook par les Hawaïens [Obeyesekere 1992]. Considérer que les Hawaïens ont pris l'arrivée de Cook pour le retour du Dieu Lono, c'est les considérer comme des « attardés » qui, empêtrés dans un système de croyances mythiques, échoueraient à voir la nouveauté d'une situation réelle. Voyant dans l'idée de l'occidental fait dieu un mythe forgé par les occidentaux et les colonisateurs, Obeyesekere propose d'interpréter les prétendus signes d'adoration religieuse à l'égard de Cook selon le jeu de langage de la politique et du pouvoir de l'époque [Obeyesekere 1992, 9]. Là où d'autres interprètes parlent de « dévotion » et d'« apothéose », Obeyesekere rattache les attitudes de prosternation à un cérémonial d'obéissance et d'honneur dû aux chefs de la plus haute importance dans un jeu de hiérarchie sociale [Obeyesekere 1992, 120]. A l'encontre de l'idée de systèmes de pensée et de représentations monolithiques, la référence aux jeux de langage, avec l'idée d'une pluralité d'usages, permet de replacer les pratiques des individus dans des situations d'énonciation et des contextes sociaux singuliers, diversifiés et variables. Cette mise en perspective du principe de charité par rapport à d'autres formes de bienveillance interprétative permet de sortir d'un premier dilemme, celui de la charité ou du mépris, puisque le refus de prendre les autres pour des imbéciles lui est commun avec d'autres types de maximes concurrents. Inversement, en matière de stupidité, la charité comme maximisation de la vérité produit selon les théories de Goodman ou celles héritées de Wittgenstein une image d'autrui aussi dommageable que celle qu'elle veut éviter. L'intérêt herméneutique du principe de charité doit donc être relativisé, s'ensuit-il qu'il doit être disqualifié ? A ce théorie, à mon sens fausse dont ses actes me semblent l'application. Mais de ce point de vue, il est indifférent que je lui impute une théorie que je jugerais « moins fausse »ou « presque vraie ». De toute manière sa croyance ne confirme ni n'infirme un savoir. . . Juger [des pèlerins] qu'ils ne se trompent pas (ou pas tant que ça, ou pas plus que d'autres) n'est pas davantage comprendre ce qu'ils font (c'est tout au plus se montrer compréhensif). » [Bazin 1991, 507]. 194 Isabelle Delpla propos, la confrontation entre les différentes maximes appelle trois remarques : 1) On pourrait penser que la charité comme maximisation de la vérité reste prisonnière d'une représentation de la stupidité comme erreur où quand je dis le faux ou l'étrange, je me trompe ou je trompe, sans prendre en compte les usages sociaux ou politiques du langage. Or, à condition qu'elle ne soit pas exclusive, il y a plutôt compatibilité entre l'usage de la charité et un recours à la diversité des jeux de langage si l'on se réfère, non à l'usage davidsonien de la charité, mais à la convention quinienne « sauver les évidences » dont la charité est une expression. Par des voies diverses, et implicitement, J. Favret-Saada et G. Obeyesekere, appliquent la maxime de traduction de Quine pour sauver les évidences soit logiques soit empiriques. Puisqu'il faut refuser l'idée de mentalité paysanne arriérée et crédule, avatar de la mentalité prélogique, et s'interdire d'interpréter la sorcellerie par un mauvais usage des principes de la pensée 14 , il convient donc d'aller voir ailleurs 15 , dans des pratiques sociales. Puisqu'il faut sauver les évidences perceptives et le point de vue empirique des Hawaïens, il faut s'abstenir de leur attribuer une vision ridicule d'une divinité en bottes, chapeau et redingote violant leur sens commun [Obeyesekere 1992, 20, 61] et se détourner d'un jeu de langage religieux pour en adopter un autre. La possible complémentarité des divers principes d'interprétation précédemment mentionnés est particulièrement claire dans ce dernier cas. Il s'agit d'abord négativement pour Obeyesekere de critiquer l'idée de pensée cosmologique et son inflexibilité comme un résidu dans l'anthropologie contemporaine de l'idée de mentalité prélogique et mystique [Obeyesekere 1992, 15]. La rigidité qui affectait la pensée primitive se retrouve dans l'idée de pensée mythique comme un système de signes et de significations ou même dans l'imputation aux « primitifs » d'une rationalité avec des processus de pensée si inflexibles 16 qu'ils les privent de toute faculté d'appréciation et de jugement dans des situations nouvelles. 14. Je laisse de coté le fait, non pertinent ici, que la causalité dans la tradition humienne n'est pas une catégorie logique. 15. Il convient de remarquer que la bienveillance interprétative n'est pas un creuset oecuménique où toutes les théories s'accordent. L'usage que Jeanne Favret-Saada fait de la maxime anthropologique selon laquelle l'indigène a toujours raison ne relève pas du principe de charité mais plutôt d'une forme radicale d'empathie. Donner raison à l'indigène peut amener l'anthropologue dans des directions imprévues : cette possibilité de partir vers l'imprévu est même le signe, selon elle, que l'anthropologie n'est pas une science fiction mais une science empirique. 16. Obeyesekere vise l'usage anthropologique du structuralisme et les vues de Todorov sur la conquête de l'Amérique, op. cit. p. 18. L'art de faire crédit 195 Cette critique d'un mode de pensée mythique qui mettrait la pensée sur des rails est en accord avec la critique de la notion de mentalité que l'on trouve dans diverses formulations du principe de charité. Elle trouve un écho dans la critique de toute notion normative de signification réglant « automatiquement » l'usage, critique commune à Wittgenstein et Quine. Obeyesekere reproche donc aux théories cosmologiques de priver les indigènes de discrimination, alors que ces derniers peuvent opérer des distinctions variées et subtiles dans la nature de la divinité, ce qui s'accorde avec les vues de Goodman sur la pluralité et la créativité des systèmes de catégorisation. Il convient de considérer, selon lui, les individus dans des situations où ils jugent et agissent en fonction de ce qu'ils perçoivent et en accord avec les pratiques sociales de leur temps. Une volonté démystificatrice et déflationniste qui tend à ramener l'étrangeté des différences culturelles à des vues de sens commun, aussi variable soit-il culturellement [Obeyesekere 1992, 20), le respect des évidences logiques et empiriques et la relativisation par rapport à des jeux de langage sociaux qui évite de pourvoir les indigènes de « théories » cosmologiques, le respect des subtilités de discrimination dans la catégorie même de divinité : ainsi se trouvent articulés dans une même démarche interprétative les principes de Quine et de Wittgenstein (et dans une moindre mesure de Goodman). La convention de Quine, sauver les évidences logiques et empiriques, apparaît donc comme un critère indiquant quand il y a lieu de changer de jeu de langage. 2) Une telle présentation des principes de bienveillance interprétative permet de réconcilier les vues de Quine et de Wittgenstein et de réaffirmer une utilité herméneutique du canon de traduction « sauver les évidences », au-delà de l'exemple canonique de la mentalité prélogique. Elle peut aussi susciter des doutes envers la stratégie de déplacement vers d'autres jeux de langage, stratégie dont l'intérêt herméneutique n'est certes plus à prouver. Sans rentrer dans le fond du débat, sur lequel je n'ai pas la moindre compétence, dans la virulente polémique qui les oppose, le reproche fait par Sahlins à Obeyesekere est d'escamoter bien vite les difficultés au nom d'une rationalité de sens commun. D'une part, la préservation des évidences empiriques et de la rationalité pratique des Hawaïens revient, selon Salhins, à leur prêter un sens commun européen et bourgeois en supprimant leur point de vue et leur culture spécifique 17 . D'autre part, on pourrait considérer que les Hawaïens voient Cook comme un Dieu tout en étant dans un jeu politique. De même, déplacer l'interprétation de la magie, de la sorcellerie ou de 17. Ce point est répété comme un leitmotiv dans How 'Natives' think : p. 56, 8, 9, 14, 40, 64, 118, 119, etc. 196 Isabelle Delpla l'astrologie vers des jeux de langage politiques ou religieux ne les soustrait pas pour autant au jeu de langage de l'explication et de l'efficacité sur le monde, à l'instar de la médecine et de la science 18 . Précisément, la critique adressée par la philosophie classique à la superstition, la magie et l'astrologie est de mêler des prétentions scientifiques, politiques et religieuses. Ainsi, le classique de la critique de la superstition qu'est Les Pensées diverses sur la comète de P. Bayle argumente que l'astrologie et la magie tirent leur pouvoir de cette constante confusion des genres et porte la critique successivement dans les domaines scientifique, politique, social et religieux. Pour voir dans une lecture sociale, politique et religieuse, une interprétation qui ferait justice à ces divers phénomènes contre les critiques « sottement rationalistes » 19 , il faut s'être donné une définition bien restrictive de la rationalité et une nouvelle image de l'imbécile, celle d'un rationaliste borné et entêté, qui, ne jugeant de toute activité que par les critères de la science, serait voué à ne rien comprendre. La bienveillance qui consiste en un élargissement de perspective et un changement de jeu de langage peut donc également être un escamotage des difficultés. A l'instar des réorientations scolaires vers les filières techniques ou artistiques, elle recèle aussi une forme subtile de condescendance où l'on trouvera toujours un jeu de langage pas trop difficile (non-scientifique) mais où l'indigène réussira très bien. La richesse interprétative de cette démarche la rendrait ainsi suspecte aux yeux de Popper pour qui le pouvoir des disciplines herméneutique est moins la marque de leur validité que de leur irréfutabilité. Le déplacement vers d'autres grammaires et d'autres jeux de langage s'apparenterait alors à une facilité interprétative d'autant plus irréfutable que l'on trouvera derrière toute activité humaine, aussi théorique soit-elle, une dimension sociale ou des relations de pouvoirs. Aussi, en dépit de la faveur dont jouit la référence à Wittgenstein dans les sciences sociales, elle est passible de certaines critiques usuellement adressées au principe de charité. D'une part, de même que l'usage de la charité tend à escamoter les difficultés en les considérant comme des erreurs d'interprétation, de même les difficultés d'interprétation ou 18. Pour une critique de la théorie symbolique et expressive de la magie, cf. R. Horton « Tradition and modernity revisited » in [Hollis et Lukes 1982] et [Boudon 1990, 387 sq.]. 19. Selon l'expression de Jeanne Favret-Saada (op. cit.) p. 135 dont la volonté de défendre les paysans de l'accusation d'arriération s'accompagne d'une présentation de toute forme de critique de la sorcellerie par les notables, les médecins ou les extérieurs (ceux qui ne sont pas « pris ») comme une forme de sottise, de condescendance ou d'incompréhension, le rationaliste venant à son tour prendre la place de l'imbécile. L'art de faire crédit 197 les phénomènes récalcitrants peuvent être escamotés ou aplanis par le déplacement vers un autre jeu de langage. D'autre part, de même que le principe de charité, en retraduisant les propos qui tendraient à le contredire, s'immunise contre toute réfutation empirique, de même le recours à la pluralité des jeux et des actes de langage, par sa souplesse et sa richesse même, se prémunit d'autant plus contre toute réfutation qu'il fait de la prétention à la vérité et à la scientificité un jeu de langage parmi d'autres. 3) Le reproche souvent adressé à la charité d'être un principe d'imposition et de projection de nos croyances et de nos critères de vérité sur les autres ne devrait-il pas être étendu à toute maxime de bienveillance qui serait érigée en principe ? En effet on épargne la stupidité à l'indigène en lui attribuant des qualités compensatrices, de véracité et de rationalité selon le principe de charité, de discrimination et de créativité conceptuelle selon Goodman, de sens social et religieux selon Wittgenstein. Si bien que l'indigène, comme le dit Geertz [Geertz 1983, 150-151] n'est jamais aussi obsédé de classification que sous la plume de LéviSrauss, aussi occupé à resserrer les rangs de sa communauté et à mettre en scène ses propres valeurs sociales que sous la plume de Mary Douglas, et pourrait-on ajouter aussi empreint de sens esthétique que sous la plume de Geertz. Chaque principe d'interprétation fonctionnerait d'autant mieux qu'il fabriquerait lui-même l'indigène à son image. Aucune des maximes n'évite per se le risque d'accorder trop, de peur d'accorder trop peu et de passer du crédit à la prodigalité. II. Dilemme de la charité/familiarité ou du non-sens La confrontation avec d'autres maximes de bienveillance permet de sortir du faux dilemme de « la charité ou le mépris », elle permet aussi de questionner un autre dilemme qui sert de justification à la charité, celui de la charité ou du non-sens. Alors même que Quine et Davidson essaient de dépasser la dichotomie du relativisme et de l'universalisme, ils tendent à recréer de nouvelles oppositions, celle du traduisible ou du nonsens, celle du familier ou de l'étrangeté délirante : soit la charité comme contrainte méthodologique inévitable nous ramenant au bien connu et au familier, soit la fascination romantique pour un exotisme extravagant et inscrutable. Opposition qui chez Davidson reconduit le dualisme de l'esprit et de la matière : la compréhension selon nos critères atteste que nous avons affaire à un esprit ou une personne, l'intraduisible selon nos critères étant renvoyé à l'insignifiance de la nature. Cependant, lorsque Quine oppose d'une part les contraintes méthodo- 198 Isabelle Delpla logiques (charité) qui imposent nos vues psychologiques, ontologiques et logiques et d'autre part un impressionnisme déréglé, il enferme la pensée dans des oppositions artificielles et douteuses. Dans l'article, « Philosophical progress in language theory », Quine exprime son scepticisme envers l'anthropologie et émet des mises en garde contre « la tentation de laisser s'envoler les joliesses méthodologiques et de se complaire dans un impressionnisme interculturel déstructuré » [Quine 1970b, 16]. Plutôt que de céder gratuitement aux séductions de l'exotisme, l'anthropologue doit, faute de données objectives, s'appuyer sur une psychologie pratique qui présume de l'identité d'esprit entre l'indigène et lui. En conséquence « la familiarité du contenu est elle-même une preuve partielle d'une bonne traduction » [Quine 1970b, 16]. Donc, selon Quine, « lorsque le linguiste aborde pour la première fois la langue de la jungle en déterminant par induction les stimulations appropriées pour certains énoncés d'observations, il est déjà engagé dans la psychologie ; il conjecture que le sens de la similitude de l'indigène, les associations et les séparations qu'il établit en matière de similitude, sont semblables aux nôtres. Il suppose que l'indigène ne tendra pas à grouper certains lapins blancs en priorité avec des loups alors qu'il les dissocie des autres lapins » [Quine 1970b, 18] ou qu'il n'annoncera pas « loup » chaque fois qu'il verra un lapin [Quine 1970b, 16]. Mais, si tels sont les garde-fous posés par Quine, à un tel niveau de généralité, on peut être sceptique envers la pertinence de ces remarques pour l'anthropologie. Si ces règles méthodologiques nous rappellent à ce genre d'évidence, que les lapins ne sont pas des loups et ne leur ressemblent pas, elles échouent à critiquer aussi bien le relativisme de Whorf que la mentalité primitive de Lévy-Bruhl dont le primitif ne souffre assurément pas d'une stupidité aussi profonde que celle dont on veut le sauver par charité. Lévy-Bruhl souligne ainsi que le primitif « n'est jamais aussi ignorant qu'on serait tenté de l'imaginer. Même dans les sociétés que nous plaçons très bas, il sait distinguer les races et la variétés des plantes qui l'intéressent. Il connaît les caractères et les façons de vivre des animaux, insectes, oiseaux, poissons » [Lévy-Bruhl 1927, 7], il distingue le rêve et la réalité et sait bien que, s'il a perdu une pièce de gibier alors qu'il en avait trois, il lui en reste deux. Face à de telles mises en garde, l'on en vient à penser qu'il faudrait être charitable avec les anthropologues qui ne peuvent non plus être beaucoup plus stupides que l'indigène 20 , à moins de se donner une caricature sous la forme de Lévy-Bruhl ou de Frazer désignés pour jouer le rôle de 20. Pour un cas célèbre de crédulité de la part de certains anthropologues, voir Leach [1967] et sa réfutation de l'idée de « virgin birth ». L'art de faire crédit 199 l'imbécile ou des vues de Sapir et de Whorf brandies ad hoc pour donner une pertinence au principe de charité comme dernier rempart contre l'irrationalisme. La charité-familiarité ou l'absurde-exotique : n'est-ce pas là pour l'anthropologue un dilemme aussi caricatural que celui que Quine propose au théoricien de la connaissance ayant le choix entre l'empirisme et la télépathie ou la voyance ? Faisant l'impasse sur toute épistémologie rationaliste, Quine justifie l'empirisme comme la seule alternative aux para-sciences et à l'occultisme 21 . De même, s'il faut choisir entre l'absurde appariement des loups et des lapins d'une part et le principe de charité d'autre part, il serait difficile de ne pas choisir ce dernier 22 . C'est néanmoins une piètre justification de l'empirisme et du principe de charité et, en l'absence d'hypothèses rationalistes, cognitivistes ou structurales par exemple, il ne s'agit pas d'alternatives épistémologiques sérieuses, ni pour les sciences physiques, ni pour les sciences humaines. Il convient de se défier d'une radicalisation des questions telle que l'adversaire est ridiculisé d'avance sans que soit pour autant précisé quand nos vues familières sont insuffisantes ou dommageables pour la compréhension des indigènes et doivent être abandonnées ou reformulées. Par conséquent, la charité ne peut être une méthode d'interprétation, mais au mieux une limite critique et négative. Ce type de dichotomie, charité ou impressionnisme pour la méthode, familiarité ou absurde pour le contenu, appelle trois remarques : 1) L'alternative de la charité ou de l'impressionnisme déstructuré recoupe chez Quine d'autres dualismes hérités du positivisme logique où il n'y a pas d'objectivité autre que physique et de critère hors des sciences 'dures' et de la logique au-delà desquels règne l'indétermination. A la différence d'une théorie wittgensteinienne des jeux de langage où peuvent être définis des critères de correction spécifiques en sus du vrai et du faux, il n'y a pas de critère de correction de la traduction hors des pôles empiriques et logiques. La charité est alors une recherche de règles subjectives internes à la traduction faute de données objectives. L'idée que les seules règles sont celles que l'on s'impose soi-même (« self imposed guides »), faute de basculer dans le non-sens, dérive de l'opposition entre sous-détermination des théories scientifiques et indétermination de la traduction où aucun critère objectif ne peut être espéré. Cet héritage positiviste n'a cependant pas pour conséquence que 21. Cf. Quiddités, article « Miracles », cette manière de présenter l'empirisme comme la seule alternative épistémologique acceptable est critiquée par [Van Fraassen 1995]. 22. Ce qui ne signifie pas qu'il ne puisse, sans absurdité, exister des catégories apparemment hétérogènes. Cf. G. Lakoff, Women, fire and other dangerous objects, Chicago : Chicago University Press, 1987. 200 Isabelle Delpla toutes les activités humaines sont jugées à l'aune de la science. Même s'il reste tributaire de l'idée que la compréhension consiste à prêter aux autres une théorie du monde, l'on ne saurait reprocher à Quine de faire de l'indigène un scientifique plus ou moins raté, incapable de sentiment religieux ou esthétique, mais plutôt d'en faire un individu ordinaire, incapable de créativité scientifique, en vertu même de la dimension « humaine » de la charité. En effet, l'indétermination de la traduction rend possible, faute de critère objectif, une pluralité de traductions des propos de l'indigène. Le principe de charité comme imposition unilatérale de nos catégories ontologiques et logiques familières est le correctif méthodologique de cette absence de limitation objective. Ce principe reconduit pour une part les maximes de conservatisme et d'économie théorique que prône Quine pour les sciences physiques. Il introduit cependant des réquisits supplémentaires. D'une part, il bannit par principe les révisions logiques en anthropologie et limite les révisions ontologiques : notre schème conceptuel d'objets se trouvant de facto imposé dans la traduction, la liberté théorique possible en sciences physiques ne l'est pas en sciences humaines. D'autre part, dans la version de Davidson, il s'agit pour l'interprète d'attribuer aux autres des croyances vraies et rationnelles, ce qui assurément n'est pas le souci du physicien envers son objet d'étude. Le principe de charité marque donc la différence entre sciences humaines et sciences physiques et intègre la dimension « humaine » de l'objet d'étude. Il est un garde-fou à l'extrapolation hasardeuse de théories scientifiques pour légitimer l'étrangeté en anthropologie telle que l'usage par Whorf de la théorie de la relativité d'Einstein pour accréditer la représentation du temps et de l'espace des Hopis. La projection de nos vues familières dans l'interprétation, qu'aucune donnée objective ne saurait démentir, garantit donc que l'indigène sera compris comme partageant une logique orthodoxe et une ontologie d'objets : « Les logiques de deux cultures seront au mieux incommensurables mais jamais en conflit » [Quine 1970a, 143]. Toutefois, cette humanité des principes d'interprétation est à double tranchant : d'une part, elle évite de comprendre les indigènes par analogie avec les théories scientifiques en préservant des vues de sens commun, d'autre part, elle est paradoxalement un obstacle à la reconnaissance et la compréhension d'une science indigène. Comme le note Mary Douglas, « plus nous avons imposé notre logique provinciale sur la pensée indigène, meilleure est la traduction, alors la conséquence d'une bonne traduction est d'empêcher toute confrontation entre des systèmes de pensée étrangers » [Douglas 1975, 277]. Supposons, en effet, que l'indigène présente L'art de faire crédit 201 un traité de physique quantique, de micro-physique, une théorie de la matière comme énergie ou un manuel de logique plurivalente, comment le comprendre ? Si l'on fait jouer le principe de charité, l'imposition de notre logique bivalente et de notre ontologie d'objets dans la traduction, nous empêchera d'en comprendre la nouveauté par rapport à nos propres vues, alors même que ces théories sont formulables pour les sciences physiques. Pour éviter que le principe de charité ne réduise par principe au silence un Einstein Hopi, il faudrait pouvoir limiter son usage et séparer théories scientifiques et discours ordinaire dans la traduction radicale selon une distinction entre sous-détermination des théories scientifiques et indétermination de la traduction. Cependant, l'indétermination de la traduction ne concerne pas un autre type de discours ou de réalité que la sous-détermination mais signifie qu'il n'y a pas de détermination sémantique additionnelle à la détermination empirique des sciences physiques. Trivialement, cette thèse affirme seulement qu'il n'y a pas de détermination objective à ce que pense ou signifie l'indigène au-delà des données empiriques observables. Mais, triviale ou non, cette thèse correspond à une différence de traitement des discours auxquels s'appliquent ou non les principes d'interprétation. Pour que l'application de la charité soit légitime en anthropologie, il faudrait supposer que l'indigène n'est pas (ne peut pas être) scientifique ou logicien déviant ou qu'il existe une délimitation claire entre son discours ordinaire (indéterminé) et ses théories scientifiques (sousdéterminées) pour la compréhension desquelles il faudrait suspendre l'usage du principe de charité, ce qui va à l'encontre du holisme. A moins de prêter à Quine un ethnocentrisme tel que l'indigène ne peut pas être savant, ce qui serait lui faire un mauvais procès, il faut alors supposer que l'on peut distinguer dans son discours indétermination (appelant des corrections charitables) et sous-détermination (laissant place à une pluralité d'ontologies et de logiques). On voit mal alors quel peut être, d'après Quine, le statut de l'ethno-science 23 ou de l'histoire des sciences : même en supposant une coupure entre discours ordinaire et théorie scientifique, douteuse dans une hypothèse holiste, il apparaît difficile de reconnaître quand l'indigène fait de la science. On pourrait objecter que des théories physiques s'éloignant des vues de sens commun seraient compréhensibles, non par la seule interprétation des discours, mais par l'observation directe des données empiriques 23. L'ethno-science est une subdivision de l'ethnologie consacrée à l'étude de la connaissance que les groupes étudiés ont de la biologie, de la zoologie ou de l'astronomie, etc. 202 Isabelle Delpla à la disposition des indigènes, qui étayeraient la réforme des vues de sens commun de l'interprète. Cependant, une telle hypothèse ne serait pas une défense suffisante du principe de charité : en premier lieu, elle supposerait qu'il existe des critères transculturels et trans-historiques de l'activité scientifique reconnaissable au jeu de l'expérimentation et de la vérification, ce qui est discutable ; deuxièmement, elle impliquerait que seuls les discours étayés par des données empiriques pourraient appeler une suspension du principe de charité. La distinction entre indétermination et sous détermination réactualiserait ainsi la séparation établie par le positivisme logique entre énoncés pourvus de sens (empiriquement vérifiables) et énoncés dépourvus de sens (invérifiables). Or cette séparation se heurte à l'objection que des énoncés invérifiables, comme les théories atomistes de l'Antiquité, seraient passées, avec les progrès de la physique, du statut d'énoncés métaphysiques dépourvus de sens au statut d'énoncés vérifiables et pourvus de sens. De même, l'atomisme passerait du statut de discours radicalement indéterminé (à interpréter charitablement selon notre ontologie d'objets) à celui de théorie sous-déterminée appelant une révision de notre théorie des corps. Plus généralement, la compréhension des autres par la projection de nos vues de sens commun dans la traduction radicale ne permet pas de comprendre comment ont pu être comprises les diverses théories ontologiques ou cosmologiques de l'antiquité dont les hypothèses n'étaient pas validées par des expériences contemporaines de leur formulation 24 . 2) Si la prévalence de nos vues de sens commun est un obstacle épistémologique à la compréhension de la science ou de la métaphysique indigène là où ses conceptions logiques ou ontologiques diffèrent des nôtres, le privilège accordé au familier, à la banalité ou, dans la version de Wittgenstein et d'Austin, à l'ordinaire doit être réévalué. Assurément, les atomistes, Héraclite ou les théoriciens de la physique quantique vivaient dans un monde d'objets de taille moyenne. Il ne s'ensuit pas que toute interprétation doive se régler sur le trivial, même si elle en part. La légitime critique des séductions de l'exotisme ne vaut pas per se comme validation de nos évidences de sens commun. Non seulement le sens de ce qui est évident est lui-même relatif comme le souligne Mary Douglas dans « Self Evidence » [Douglas 1975], mais encore, présentée d'abord comme un pis aller, faute de preuve du contraire, la familiarité finit par devenir 24. Je rejoins sur ce point les analyses de G. Lloyd sur la pluralité des ontologies comme obstacle à l'application du principe de charité, cf. son article dans le présent volume. L'art de faire crédit 203 une contrainte inévitable en disqualifiant par principe toute alternative raisonnable. Le défaut méthodologique de cette référence à la familiarité est double. Premièrement, il n'y a pas chez Quine ou Davidson, une théorie du cercle herméneutique sur la manière de conserver, de reformuler ou d'abandonner les présupposés initiaux de l'interprète. Nos vues de sens commun ne sont pas seulement une voie d'entrée dans la traduction radicale, elles en sont l'horizon même 25 . La prévalence accordée à la traduction comme critère de compréhension peut ainsi devenir un obstacle à l'apprentissage de nouveaux concepts. Deuxièmement, nos vues de sens commun se trouvent projetées et imposées dans la traduction par méthode alors que la familiarité du contenu est une preuve d'une traduction acceptable : voilà un cercle d'auto-justification où la projection du familier est à la fois méthode et critère de succès de cette méthode. 3) Il reste donc à s'interroger sur la portée des analyses de Quine pour l'anthropologie où la thèse d'indétermination de la traduction semble avoir des conséquences drastiques. Parce qu'elle s'attaque à la signification et à toute existence par soi des systèmes symboliques, rappelant donc que l'anthropologie commence, sinon s'arrête, avec l'interprétation des personnes, cette thèse touche au premier chef l'anthropologie symbolique. Mais, plus largement, l'idée que les seules règles sont celles que l'on s'impose soi-même, sous peine de basculer dans le non-sens, enferme le linguiste dans l'alternative de l'observation et de la projection. Elle fait de toute enquête ethnographique, avant même une théorie ethnologique, une activité interprétative d'imposition des vues de l'ethnologue, et ce dès l'entretien, et elle saperait à la base toute idée d'une anthropologie descriptive 26 . Mais au moment où les vues de Quine semblent si radicales, leur portée pourrait être bien plus limitée, en raison à la fois de leur généralité et de leur spécificité. La portée du principe de charité serait fonction de sa généralité : les principes d'interprétation s'appliquent à tout individu et à toutes les formes de discours, si bien que la charité sert aussi bien à interpréter un compatriote qu'un étranger, des discours ordinaires ou 25. Et ce d'autant plus que Davidson, à la différence de Quine, nie l'existence de différences, même partielles, de schème conceptuel. 26. Seule l'anthropologie physique ou l'observation des indigènes sans aucun échange linguistique ne serait pas interprétative car elle relèverait de la même méthodologie que les sciences physiques en observant les indigènes comme des phénomènes physiques. Et c'est d'ailleurs ce que note Quine dans « Philosophical progress in language theory ». Pour l'idée d'une anthropologie descriptive, voir les textes cités de Jean Bazin, notamment [Bazin 1996]. 204 Isabelle Delpla des textes théoriques, à comprendre notre voisin de palier ou à réfuter le sceptique. L'application de la charité en reste à un niveau de généralité tel qu'elle en perd tout pouvoir herméneutique ou critique, même envers la mentalité prélogique selon laquelle le primitif sait bien que la neige est blanche et le ciel bleu. L'insistance, notamment de la part de Davidson, sur une vérité des croyances si globale qu'elle en devient irréfutable fait douter de la visée herméneutique de ce principe qui semble plutôt poursuivre, via l'interprétation, des fins proprement philosophiques, la réfutation du scepticisme et du relativisme notamment. Prôner la charité comme principe d'interprétation des sciences humaines reviendrait à prendre à partie les anthropologues pour des maux philosophiques en leur imputant un relativisme qui est aussi bien une création de la philosophie. Inversement, ce serait une esquive que de les prendre à témoins pour trancher par principe et légitimer des thèses philosophiques, celles du physicalisme ou du langage ordinaire, par exemple. Trop générales, les recommandations méthodologiques de Quine et Davidson seraient aussi moins universelles que spécifiques et relatives à un contexte. Parce qu'elles s'inscrivent essentiellement dans le courant boasien « language and culture », elles sont moins pertinentes dans une tradition française plus universaliste et moins dominée par le culturalisme, le romantisme de l'empathie et de « how to become a native ». Elles concernent davantage l'anthropologie américaine centrée sur le paradigme de la traduction et de l'intraduisible. Deuxièmement, les remarques de Quine sur la projection, empathique ou charitable, portent essentiellement sur le jeu d'équilibre ou le contrebalancement entre langage et esprit, entre linguistique et psychologie, et visent essentiellement les vues de Whorf sur la structuration de la vision du monde par les catégories grammaticales. Aussi, les remarques de Quine, loin d'avoir une portée universelle, doivent être replacées dans la perspective de l'hypothèse Sapir-Whorf et de ses dérivées, notamment l'anthropologie cognitive et les diverses tentatives qui ont été faites pour tester empiriquement les liens entre langage, catégorisation et perception. En effet, pour Quine, la seule mesure objective de la différence culturelle dans le langage, est le rapport long/court, le degré d'éloignement entre des schèmes conceptuels se mesurant par la différence de longueur entre les locutions indigènes et les expressions les traduisant [Quine 1960, §16, 123-124]. Or, cette recherche de données quantitatives et mesurables est développée dans le courant de l'anthropologie cognitive qui emprunte un grande partie de ses méthodes à la psychologie cognitive où, de même que dans la traduction radicale, l'on transporte le laboratoire dans la L'art de faire crédit 205 jungle pour voir quel est le temps de réaction des indigènes à certains stimuli et quel est leur mode de catégorisation [D'Andrade 1995]. Par conséquent, les remarques de Quine sur la charité comme équilibrage entre le linguistique et le psychologique, le langage et l'esprit, s'inscrivent dans un courant particulier de l'anthropologie et seraient bien plus testables et révisables que les déclarations de scepticisme de Quine ne le laissent penser. En effet, savoir si les indigènes groupent les lapins blancs avec les loups est une question tout à fait empirique et non de principe. Au-delà de cet exemple mal choisi, la justification de la charité comme pis aller inévitable pour la détermination de l'ontologie de l'indigène est discutable. L'imposition de notre ontologie d'objets s'opère en raison de l'inscrutabilité de la référence qui, selon Quine, rend gratuite les divergences d'ontologie supposées par Whorf entre les Hopis et les locuteurs des langues indo-européennes. Cependant, plusieurs travaux de psychologie cognitive postérieurs aux oeuvres majeures de Quine, tendent à relativiser cette indétermination. D'une part, les travaux de Rosch ou les critiques qui lui ont été adressées 27 précisent la manière dont les catégories perceptives sont ou non déterminées par les catégories de langues. D'autre part, les travaux de la psychologue E. Spelke sur la catégorisation des objets chez les jeunes enfants visent à tester et réfuter les thèses de Quine sur l'inscrutabilité de la référence selon lesquelles la distinction ontologique des termes de masse et des termes singuliers ne serait acquise qu'avec le langage [Soja & Carey & Spelke 1991], [Soja & Carey & Spelke 1992]. Une série d'expériences menées auprès d'enfants en phase d'apprentissage du langage montrerait au contraire que la distinction des termes de masse et des termes singuliers, des substances et des objets, guide l'apprentissage du langage plutôt qu'elle n'en dépend, contredisant les vues de Quine sur l'apprentissage des mots « maman », « rouge », ou « eau ». Que l'on se range ou non aux conclusions cognitivistes de Rosch et de Spelke, il ressort de ces diverses expériences que l'équilibre entre langage et esprit et la détermination des catégories d'objets ne relèvent pas seulement de règles subjectives et d'une décision de principe. Dès lors, la pertinence de la charité comme rééquilibrage entre différence d'esprit et de langage et comme imposition de nos catégories serait testable, critiquable et révisable 28 . 27. Pour une présentation des travaux de Rosch, cf. G. Kleiber, La Sémantique du prototype, Paris : PUF, 1990. Pour une critique de ces travaux, voir [Gumperz et Levinson 1996]. 28. Pour la question de savoir si la logique indigène est ou non empiriquement déterminable, voir l'appendice de l'ouvrage de M. Montminy, Les Fondements empiriques de la signification, Montréal/Paris : Bellarmin/Vrin, 1998. 206 Isabelle Delpla III. Déflation ou inflation : les vertus de la parcimonie Un principe de charité testable et révisable ne différerait plus guère alors des maximes employées par les sciences physiques : le conservatisme et l'économie théorique. Un principe d'économie théorique suffit à éliminer les entités superflues comme la mentalité prélogique et le conservatisme suffit à garantir la stabilité de notre schème conceptuel et à promouvoir nos vues de sens commun. Mais conçus comme des maximes des sciences physiques et non comme des règles adamantines de l'interprétation, tous deux peuvent être abandonnés pour un bénéfice théorique supérieur en terme de simplicité ou de fécondité. Ces maximes suffiraientelles alors à remplir la fonction du principe de charité sans reproduire les défauts de son exclusivité et de son inconditionnalité ? Exclusif, le principe de charité élimine tout autre critère de correction que la vérité empirique et logique, projetant une image unidimensionnelle de l'indigène. Inconditionnel, il empêche la distinction entre discours ordinaire et productions théoriques, devenant un obstacle à la compréhension de la science ou de la philosophie des autres, voués à l'ordinaire par une forme insidieuse de condescendance. Mais un principe de charité qui ne serait plus exclusif et inconditionnel correspond aux maximes réglant les sciences non-interprétatives. Ou plutôt, il serait préférable qu'il le soit, si l'on considère les visées déflationnistes du principe de charité. 1) Inflation interprétative et méthodologique Les diverses formes du principe de charité ou du canon de traduction convergent vers un déflationnisme qui élimine les entités superflues et inobservables dont les relativistes peupleraient l'univers : la mentalité prélogique, les significations, les visions du monde, les systèmes symboliques ou les schèmes conceptuels, la notion de langage comme structure aussi bien que l'idée de la culture comme texte que l'anthropologue déchiffrerait. Au charme des paysages désertiques, les diverses formes de charité ajouteraient l'âpre plaisir de la démystification. Si l'on considère le problème de la traduction des termes indigènes, il faut, selon Quine, aller à la traduction la plus courte (lapin, plutôt que parties non détachées de lapin), et au plus économique, non pour des raisons objectives, mais en suivant un principe restrictif relevant de la psychologie pratique : l'esprit des indigènes ne peut être si différent du nôtre. Selon un principe d'équilibre entre esprit et langage, entre bizarrerie des croyances et grammaire, entre empathie et charité, le traducteur va à la solution la plus économique, la plus conservatrice, celle qui impose ses propres vues. L'art de faire crédit 207 Le traducteur réinjecte ainsi une dose massive de sens commun ou de 'provincialisme' par le biais de la psychologie pratique. Cette déflation ontologique aurait alors pour contrepartie une inflation interprétative et méthodologique. Inflation interprétative parce que tout énoncé est soumis à interprétation et qu'en l'absence de toute compréhension « normale » il n'y a d'autre alternative que celle de l'observation physique ou de l'interprétation 29 . Inflation méthodologique également car la méthode d'interprétation s'alourdit des difficultés dont elle déleste l'indigène : non seulement, les difficultés d'interprétation risquent d'être escamotées en erreurs d'interprétation et retraduites charitablement, mais encore le choix de la logique, celui de l'ontologie, ou celui d'une psychologie commune sont réglés par principe et projetés en réquisits méthodologiques. Le problème n'est plus de savoir si les autres ont un esprit ou des croyances semblables aux autres, sont ou non rationnels. La question est tranchée par la méthode pour les interpréter qui définit les conditions logiques et rationnelles d'interprétabilité. L'autre n'a pas à être intrinsèquement rationnel ou logique, mais n'est une personne que celui à qui l'interprète attribue des croyances selon des contraintes rationnelles ; on ne dit plus que toute volonté est tournée vers le bien et le bonheur, mais qu'il ne serait pas charitable d'interpréter les autres comme voulant le mal. De même qu'on délestait l'indigène de sa stupidité en la prenant au compte de notre interprétation, le transvasement des difficultés ne s'opère pas seulement de l'indigène vers l'anthropologue, mais vers la méthode. Autrement dit, un tel gonflement du langage ou de la méthode escamote les problèmes philosophiques - comme ceux de la vérité des croyances et de la volonté du bien - en en faisant des réquisits inévitables de l'interprétation. Si bien que la charité fait passer en méthode d'interprétation une théorie rationnelle de l'esprit, une psychologie de sens commun, une théorie physicaliste des objets. Le déflationnisme des tenants du principe de charité n'est que l'envers d'un gonflement de présupposés méthodologiques qui répond mal aux exigences de parcimonie théorique. L'élimination des fausses entités a pour contre partie le déplacement des problèmes vers la méthode et leur résolution par pétition de principe, comme celui des logiques déviantes ou de la réfutation du relativisme et du scepticisme. Or, cette inflation interprétative et méthodologique est dommageable pour l'interprétation elle-même et engage à chercher une vision plus authentiquement parcimonieuse de la charité. 29. Je renvoie sur ce point aux critiques de Bouvesse [Bouveresse 1991], de Descombes [Descombes 1996] et de Hacker [Hacker 1996]. 208 2) Isabelle Delpla Les vertus de parcimonie Une vertu de parcimonie ontologique mais aussi méthodologique permettrait ainsi de ne pas escamoter les difficultés en les baptisant critères ou principes d'interprétation et de ne pas multiplier les impositions par le biais de réquisits méthodologiques. Dans le jeu de rééquilibrage de la charité, l'élimination d'entités superflues (mentalité prélogique, visions du monde, etc.) est contrebalancée par un crédit fait à autrui en termes de logique orthodoxe, d'ontologie d'objets pour Quine, ou de rationalité et de vérité des croyances pour Davidson. Cependant, cette manière de faire crédit n'inclut pas de garde-fou contre une imposition abusive puisque la charité est à la fois méthode et critère de correction. Sans recourir à une quelconque exaltation de l'irrationalité ou du relativisme, la rationalisation des croyances et la maximisation de l'accord prémunit seulement contre l'hypothèse d'une mentalité prélogique, mais non contre celle d'une mentalité rationnelle, qui, sous la forme du « miracle grec », a créé des illusions dommageables pour l'étude de l'Antiquité grecque. La maximisation de la rationalité et de l'accord des croyances peut alors devenir un obstacle à la compréhension des autres, comme le suggère un texte ambigu de Davidson : en vertu de l'application du principe de charité, il n'est pas possible d'attribuer aux grecs, à propos de notre terre, la croyance qu'elle était plate et au centre de l'univers [Davidson 1984, 247]. Or la vertu critique et déflationniste du principe de charité est aussi bien assurée par un principe d'économie théorique, que ce soit pour l'élimination de la mentalité prélogique ou pour la préservation d'une ontologie d'objets, les deux domaines où la charité est requise selon Quine. C'est ce qu'atteste la critique par Geoffrey Lloyd des mentalités [Lloyd 1990] ou celle par Jean Bazin de la prodigalité ontologique dans la détermination de la référence des croyances « irrationnelles » [Bazin 1991]. Ces deux démarches conjuguent à leur manière une pratique de l'économie théorique pour éliminer les entités superflues et une recherche de la justesse ou de la bienveillance dans l'interprétation qui pour autant ne devient pas un art du crédit par charité. La critique par Lloyd de la notion de mentalité qui vise aussi bien les mirages de la prélogicité que ceux de la rationalité grecque, relève de principes généraux de l'activité scientifique 30 : selon un principe d'économie théorique, il convient d'éliminer les entités supposées, sans pouvoir explicatif, qui ne font que redécrire les phénomènes qu'elles visent à expliquer, sans pouvoir être isolées de ces phénomènes. La notion de men30. Cf. [Lloyd 1990] et l'article de G. Lloyd dans le présent volume. L'art de faire crédit 209 talité fait appel à des processus psychologiques invérifiables et soustraits à une enquête empirique. La référence à des mentalités relève également de généralisations hâtives, qui rigidifient et uniformisent des opinions diverses et ignorent les différences dans les opinions d'une même personne. Critique des entités superflues et de leur prétendu pouvoir explicatif 31 , exigence de vérification empirique, refus des généralisations abusives suffisent à critiquer l'idée de mentalité prélogique sans recourir à un principe de charité. La déflation ontologique comprise comme refus de postuler des entités n'est donc pas nécessairement la contre-partie d'une inflation interprétative. Selon une exigence d'enquête empirique, les problèmes traités sous la rubrique « mentalité » ne sont, dans la démarche de Lloyd, ni éliminés ni déplacés vers le langage, dans un contre-balancement de principe invérifiable, mais transposés vers la réalité sociale, dans un domaine où il est possible d'enquêter directement. L'économie ontologique est d'autant moins contrebalancée par une inflation méthodologique que la critique des mentalités est aussi bien une critique des outils conceptuels employés dans l'interprétation des mentalités 32 . Par conséquent, la critique négative d'une mentalité prélogique ou primitive n'est pas corrélative de l'imposition a priori d'une rationalité qui, selon Lloyd, se révèle un obstacle à l'étude de la science grecque et à la perception des différences et des tensions qui accompagnent sa constitution. Une bienveillance seulement négative éviterait d'imposer à l'objet d'interprétation les vues incorporées dans la méthode de l'interprète, étendant ainsi les possibilités d'enquête empirique. Une telle bienveillance négative peut également être invoquée, non pour la critique de la mentalité prélogique, mais pour la détermination de l'ontologie de l'autre. La vertu herméneutique d'un principe d'économie théorique dans la référence à un monde d'objets est illustrée par l'analyse que l'ethnologue Jean Bazin donne des principes d'interprétation d'une de ses collègues, M. C. Pouchelle, travaillant alors sur les milieux spirites et en dialogue avec Mme G. qu'elle présente comme en relation avec l'esprit de Claude François [Bazin 1991]. Mme G. ayant éprouvé une douleur aiguë à la mort du chanteur sent depuis sa présence dans son appartement et inquiète, fébrile, en guette les signes. Et il y a cette troublante irrégularité du bruit du chauffe-eau de sa voisine, qui semble compter 3, puis 6, C, F. . . pour Claude François ! Face à Mme 31. Wittgenstein, de la même manière, considère dans ses Remarques sur le Rameau d'Or que la stupidité alléguée du primitif n'a aucun pouvoir explicatif. 32. Voir la critique de la dichotomie du littéral et du métaphorique, du mythos et du logos [Lloyd 1990]. 210 Isabelle Delpla G, l'ethnologue M. C. Pouchelle renonce « à toute assurance suspecte » envers sa propre vision du monde et décide « de suspendre tout verdict a priori sur la réalité de la vie dans l'au-delà ». Avec une grande générosité ontologique, elle accorde à Mme G. la référence de sa croyance en traitant Claude François comme un partenaire réel. Mais une telle générosité est bien différente de la bienveillance négative que défend implicitement Bazin. Comme le note ce dernier, Mme G. n'est pas victime d'hallucination, elle « ne demande pas qu'on tienne pour une vérité de fait que le chanteur mort est là dans sa chambre, au même titre que le fauteuil ou le téléviseur ». Aussi, en oubliant que Mme G. vit dans un monde familier, en se mettant dans la position du « comme si », on peuple le monde d'entités suspectes comme des chanteurs morts dans des tuyauteries en même temps que l'on se méprend sur l'état d'esprit de Mme G. qui « est engagée dans une quête sans fin des signes de sa présence. . . et ne confond pas le mode d'existence du chanteur mort et celui du facteur » [Bazin 1991, 501]. La critique des mentalités ou d'un monde d'objets autres relèverait ainsi de la critique d'entités inobservables, obstacle à la compréhension de ce qui est. En refusant les mentalités, la référence à d'autres mondes, il s'agit de refuser une forme de mythe du musée ou de cabinet de curiosités où l'interprète créerait des arrières-mondes au-delà de ce que disent les autres 33 . Sur ce point, la critique menée par Bazin des entités inobservables et sans pouvoir explicatif qu'il applique également à la catégorie d'ethnie [Bazin 1985], peut se réclamer de Quine aussi bien que de Wittgenstein 34 . Cependant, à l'instar de celle de Lloyd, la démarche de Bazin engage à distinguer un usage négatif du principe de charité d'un usage positif. La critique des arrières-mondes, le refus de postuler d'autres mondes ou des entités faussement explicatives, comme les mentalités ou les ethnies, relèvent des principes généraux de l'activité scientifique et non d'un principe de charité 35 impliquant l'imposition d'une ontologie d'objets 36 et d'une rationalité des croyances. 33. « L'interprète si occupé à déballer avec ravissement l'inventaire des croyances, à étaler avec une minutie d'érudit le bric-à-brac de tout ce que les humains ont pu croire et croient encore » [Bazin 1991 498]. 34. Pour le principe de parcimonie reliant à la fois Wittgenstein et Quine, voir la critique de la signification objet par Bazin [Bazin 1991]. Voir aussi la critique par Bazin de l'idée d'ethnie qui allie la critique quinienne de la signification et la théorie de actes de langages avec une référence explicite à Wittgenstein [Bazin 1985]. 35. La catégorie d'ethnie présentée comme un facteur explicatif des comportements relève selon Bazin de généralisations hâtives [Bazin 1985]. Il s'agit d'éliminer les entités inobservables qui sont postulées sans pouvoir être vérifiées et qui engendrent de fausses explications. 36. Pour critiquer les arrières-mondes, dans « Retour aux choses-Dieux », Bazin se L'art de faire crédit 211 3) Le crédit facile : prendre les autres trop facilement au sérieux En critiquant la prodigalité ontologique, Bazin épingle une forme de crédit qui prend trop facilement les autres au sérieux et escamote les difficultés d'interprétation de la croyance ou des pratiques sociales en les transférant dans un au-delà de l'enquête empirique. En ce sens, le principe de charité en tant qu'il s'impose à l'interprétation sans se soumettre à une évaluation empirique serait une manière d'escamoter les difficultés en les transférant dans la méthode d'interprétation, devenant un en-deçà de l'enquête empirique, invérifiable. Mais une telle critique d'un crédit trop facile ne vise pas seulement les arrières-mondes ou les principes invérifiables. Il y a une autre manière d'escamoter les problèmes en les déplaçant vers le langage, de pratiquer une bienveillance qui accorde trop, de pratiquer une forme déguisée d'inflation linguistique dommageable. C'est ce que Quine reproche directement à la philosophie du langage ordinaire et indirectement à la stratégie d'élargissement vers d'autres jeux de langage 37 en considérant la manière dont la philosophie du langage ordinaire escamote le problème de la vérité religieuse. Considérons la question de la vérité des doctrines religieuses. Puisque la signification, c'est l'usage, les énoncés sur lesquels il y a un accord caractéristique de la part des porte-parole religieux doivent être vrais. Puisque divers termes-clés tels que « Dieu », « La grâce » se trouvent essentiellement dans les énoncés de ces représentants, ces énoncés épuisent la plus grande partie de l'usage de ces mots. Les énoncés sur lesquels les porteparole religieux sont donc d'accord sont donc vrais et même analytiques, vrais par la signification des mots. C'est une défense facile de la religion, trop facile pour être jamais acceptée par les croyants, qui à juste titre ne trouvent aucun réconfort dans une doctrine religieuse avec un fondement aussi trivial que celui-ci. Ceci est moins intéressant comme défense de la religion que comme un défi à la philosophie du langage ordinaire. La réponse demeure, à nouveau, dans la psychologie. Si nous maîtrisons suffisamment le vocabulaire religieux pour atteindre des questions de fond avec des croyants, nous le faisons non simplement en tenant leur énoncés pour vrais, mais en reconstruisant dans une certaine mesure la psychologie de leur croyance [Quine 1970b, 18]. réfère davantage à la présence de la chose selon Heidegger qu'à l'objet physique selon Quine. 37. Car pour Quine le contre-balancement interne au langage est limité précisément en raison de l'inexistence des significations ; le contre-balancement essentiel s'opère entre langage et psychologie donc entre empathie et charité. 212 Isabelle Delpla On ne peut ainsi sauver le sens des croyance au mépris de la psychologie du croyant, de ses attentes et de ses espoirs. On ne peut donner raison aux autres en leur accordant des significations ou en leur donnant raison dans le langage. Dire aux autres : c'est vrai dans votre langage parce que telles sont les règles de la communauté, parce que telle est la grammaire du mot Dieu, parce tel est l'usage, donc je vous l'accorde, est un crédit trop facile, qui est une forme de condescendance. Accorder ainsi la signification dans une conception grammaticale de la culture selon des règles et des jeux de langage, serait un crédit aussi suspect que la prodigalité ontologique qui accorde de la référence exotique de son discours à quelqu'un qui croit que Claude François est présent dans son chauffe-eau. C'est donner trop facilement raison que de dire que le sens est contenu dans l'usage et dans des pratiques sociales. Remonter du discours sur Dieu aux pratiques des prêtres, des gens d'église et à l'institution de la prêtrise et s'arrêter là, à la manière wittgensteinnienne (« c'est ainsi que j'agis »), serait une opération analogue au déplacement de la stupidité de Pierre vers Paul ou à un escamotage des attentes et des croyances des croyants par l'insignifiance analytique de l'objet de leur croyance 38 . Quelque polémique et expéditive que soit une telle présentation de la philosophie du langage ordinaire par Quine, elle met en évidence une autre forme de déplacement et d'escamotage, ne consistant plus seulement à transférer les difficultés d'interprétation dans des au-delà mais dans des à-côtés où se perd l'attention à ceux que l'on voulait comprendre. La référence à des pratiques et des usages diluerait l'attention aux individus et permettrait de transférer les difficultés d'interprétation de leurs croyances vers des pratiques et des institutions où le sens des croyances des uns seraient donné dans les pratiques des autres. La justification d'un principe de charité positif résiderait en définitive dans une forme d'individualisme méthodologique. Nous ne serions alors sortis des dilemmes de « la charité ou le mépris » et « la charité ou le non sens » que pour rencontrer celui de l'inflation 38. On pourrait en effet objecter que l'interprétation de la croyance par Bazin, parcimonieuse dans la postulation d'entités, est elle-même un escamotage de l'objet de croyance car Bazin décrit le phénomène de la croyance sur le modèle de l'angoisse, disposition non intentionnelle. On est alors en croyance comme on est amoureux ou comme on a mal au dent [Bazin 1991, 496]. La croyance du croyant est alors « sauvée », mais en étant dépourvue de tout contenu intentionnel, ce qui ne saurait satisfaire le croyant. De même, pour sauver Mme G. de l'imputation de folie, Bazin argumente qu'elle ne souffre pas d'hallucination et qu'elle fait bien la différence entre la présence du chanteur mort et celle de la voiture dans le garage. Se faisant, il en vient à caricaturer la notion d'hallucination qui, pas plus que la croyance de Mme G, ne consiste pas à voir les choses comme posées devant soi, cf. à ce propos Merleau-ponty, Phénoménologie de la perception, Paris : Gallimard, 1945, p. 385. L'art de faire crédit 213 ou de la parcimonie, dilemme aussi fallacieux car la parcimonie ontologique peut être corrélative d'une inflation méthodologique ou langagière. L'inflation de la méthode avec la charité ou l'inflation grammaticale des jeux de langage n'évite pas l'escamotage des difficultés qu'elles visent à résoudre, revenant parfois à escamoter soit l'imbécillité, soit les imbéciles. Dans les deux cas, ce sont les autres qu'il s'agissait de prendre au sérieux qui risquent de s'évanouir dans l'opération pour les sauver de leur imbécillité. Dans un cas, il y a chez Quine et Davidson, une forme d'individualisme méthodologique sous-jacent par laquelle ne pouvant faire crédit des significations, le traducteur essaie de faire crédit à des personnes et de sauver l'individualité sous forme d'idiolecte, mais au prix d'une inflation méthodologique par laquelle, ne sortant plus de ses propres croyances, il façonne autrui à l'image de sa rationalité. De l'autre, en élargissant la base d'interprétation et en déplaçant les problèmes vers d'autres jeux de langage, l'interprète risque d'enfermer les autres dans une conception analytique de la culture où ils auraient raison, non plus par imposition de nos vues, mais par définition, dans leur jeu de langage, et à peu de frais. Et à force de vouloir diluer les difficultés par l'intégration des autres dans des formes de vie, dans des pratiques, ou de chercher la vérité et le sens dans l'usage, ou de déplacer les problèmes vers d'autres jeux de langage, ce sont peut-être les autres qui finissent par se diluer dans des unités plus larges et impersonnelles qui ne seraient plus derrière eux (comme des arrières-mondes et des mentalités inobservables) mais autour ou à-côté comme des usages qui auraient raison pour eux. Conclusion Le principe de charité comme principe propre à l'interprétation en sciences humaines ne peut se justifier comme rempart contre le mépris ni comme rempart contre le non-sens. Il ne peut être légitimé comme principe spécifique des sciences humaines ni par une finalité morale ni par le statut de condition indispensable de l'interprétation. La confrontation avec d'autres maximes d'interprétation permet de limiter sa pertinence interprétative mais aussi de critiquer en retour d'autres pratiques d'interprétation inspirées de Wittgenstein. En définitive, les vertus escomptées du principe de charité pour les sciences humaines se trouvent également assurées par un principe de parcimonie qui ne reproduit pas les difficultés résultant d'une application inconditionnelle et exclusive du principe de charité. Au nom même d'un principe de parcimonie, il faudrait critiquer les maximes de bienveillance qui équivalent soit à l'imposition par une inflation interprétative de présupposés soustraits à l'interpréta- 214 Isabelle Delpla tion (comme la charité), soit à des élargissements-déplacements qui se donneraient une interprétation analytique et grammaticale de la culture dans des jeux de langage. Mais jusqu'où faut-il user du rasoir d'Occam ? S'il faut supprimer les entités théoriques superflues qui ne sont pas objets d'enquête empirique, dans ce cas, c'est le principe de charité qui doit être éliminé. Mais, au-delà, les diverses maximes de bienveillance interprétative, que ce soit par prodigalité ou par parcimonie, risquent de perdre les autres qu'elles voulaient sauver de l'imputation d'imbécillité soit dans des arrières-mondes, soit dans la résorption à notre image, soit dans des contextes où se dilueraient leur individualité et leur prétention à la réalité et à la vérité. Bibliographie Bazin, Jean 1985 A chacun son bambara, in Au coeur de l'ethnie, sous la direction de J.-L. Amselle et E. M'Bokolo, Paris, La découverte. 1986 Retour aux choses-dieux, in Le Temps de la réflexion. 1991 Les fantômes de Mme du Deffand : exercices sur la croyance, Critique, Juin-Juillet, 492-511. 1996 Interpréter ou décrire, in Une école pour les sciences sociales, édité par J. Revel et N. Wachtel, Paris : éditions du Cerf-éditions de l'EHESS, pp. 401-420. Boudon, Raymond 1990 L'Art de se persuader, Paris : Fayard Bouveresse, Jacques 1991 Herméneutique et Linguistique, Combas : L'éclat. D'Andrade, Roy 1995 The development of cognitive psychology, Cambridge : Cambridge University Press. Davidson, Donald 1982 Animaux rationnels, in Paradoxes de l'irrationalité, tr. fr. de Pascal Engel, Combas : L'éclat, 1991. 1984 Inquiries into truth and interpretation, Oxford : Clarendon press, tr. fr. de Pascal Engel, Enquête sur la vérité et l'interprétation, Nîmes : J. Chambon, 1993. Descombes, Vincent 1996 Les Institutions du sens, Paris : Minuit. Douglas, Mary 1975 Implicit meanings, Londres : Routledge, 1993. Douglas, Mary et Hull, D. (éd.) 1992 How Classification Works - Nelson Goodman among the social sciences, L'art de faire crédit 215 Edinburgh : Edinburgh University Press. Favret-Saada, Jeanne 1977 La Mort, les mots, les sorts, Paris : Folio/Essais, 1994. Feleppa, Robert 1988 Convention, Translation and Understanding. Philosophical Problems in the Comparative Study of Culture, Albany : State University of New York Press. Geertz, Clifford 1983 Local Knowledge, USA : Basic Books. Goodman, Nelson 1978 Manières de faire des mondes, Nîmes : J. Chambon, tr. fr., 1992. Goodman, Nelson & Elgin, C. 1988 Reconceptions in philosophy, London : Routledge, tr. fr. de J.-P. Cometti et R. Pouivet, Reconceptions en philosophie, Paris : PUF, 1994. Gumperz J. J. et Levinson, S. C. 1996 Rethinking Linguistic relativity, Cambridge : Cambridge University Press. Hacker, P. M. S. 1996 Wittgenstein's place in Twentieth-century Analytic Philosophy, Oxford : Blackwell. Hollis, M. & Lukes, S. 1982 Rationality and Relativism, Oxford : Blackwell, 1982. Leach, Edmund 1967 Virgin Birth in Proceedings of the royal anthropological institute, 1967, p. 39-49, London. Levy-Bruhl, Lucien 1927 L'Ame primitive, Paris : PUF, 1963. Lloyd, Geoffrey E. R. 1990 Demystifying Mentalities, Cambridge : Cambridge University Press. Tr. fr. par Franz Regnot : Pour en finir avec les mentalités, Paris : La Découverte, 1993. Obeyesekere, Gananath 1992 The Apotheosis of Captain Cook, European Mythmaking in the Pacific, Princeton : Princeton University Press. Quine, W.V.O. 1953 From a logical Point of View (New York : Harper and Row) 1960 Word and object, Cambridge, Ma. : M.I.T. Press ; tr. fr. de Paul Gochet : Le Mot et la chose, Paris : Flammarion, 1977. 1970a Philosophy of Logic, Englewood Cliffs, Prentice Hall, tr. fr. par J. Largeault, Philosophie de la logique, Paris : Aubier, 1975. 1970b Philosophical progress in language theory, Metaphilosophy, vol 1, n◦ 1, pp. 219. 216 1975 On Empirically Equivalent Systems of the World, Erkenntnis, 9, Dordrecht : Reidel Publishing Company, pp. 313-328. 1981 Theories and Things, Cambridge, Ma. : Harvard University Press. 1987 Quiddities - An Intermittently Philosophical Dictionary, Cambridge, Ma. : Harvard University Press, ; tr. fr. par D. Goy-Blanquet et T. Marchaisse, Quiddités - Dictionnaire philosophique par intermittence, Paris : Seuil, 1992. 1990 The Pursuit of Truth, Cambridge, Ma. : Harvard University Press 1992. Salhins, Marshall 1995 How « Natives » think, Chicago : The University of Chicago Press. Tambiah, S. J. 1985 Culture, Thought and Social Action. An anthropological perspective, Cambridge Ma : Harvard University Press. Van Frassen, Baas 1995 Against naturalized epistemology, dans On Quine, New Essays, P. Léonardi et M. Santambrogio (eds), Cambridge, Cambridge University Press, 1995. Wittgenstein, Ludwig 1982 Remarques sur le Rameau d'Or, tr. fr. J. Lacoste, Paris : L'Âge d'homme.
{'path': '12/halshs.archives-ouvertes.fr-halshs-00644952-document.txt'}
Agriculture et pollution de l'eau : modélisation des processus et analyse des dynamiques territoriales François Laurent To cite this version: François Laurent. Agriculture et pollution de l'eau : modélisation des processus et analyse des dynamiques territoriales. Sciences de l'environnement. Université du Maine, 2012. tel-00773259 HAL Id: tel-00773259 https://tel.archives-ouvertes.fr/tel-00773259 Submitted on 12 Jan 2013 Université du Maine Habilitation à Diriger des Recherches Présentée par François LAURENT Maître de Conférences en Géographie UMR ESO (Espaces et Sociétés) Université du Maine Volume Position et projet scientifique Agriculture et pollution de l'eau : modélisation des processus et analyse des dynamiques territoriales Dossier soutenu le 29 novembre 2012 devant le jury composé de : Gilles BILLEN, directeur de recherche au CNRS, Sisyphe, Rapporteur Jeannine CORBONNOIS, professeur à l'université du Maine, ESO, Directrice, Rapporteur Christophe CUDENNEC, professeur à Agro Campus Ouest, INRA SAS, Examinateur Daniel DELAHAYE, professeur à l'université de Caen, LETG, Rapporteur Vincent DUBREUIL, professeur à l'université de Rennes 2, LETG, Examinateur Christine MARGETIC, professeur à l'université de Nantes, ESO, Examinatrice 2 SOMMAIRE Itinéraire de recherche_______________________________________________________ 5 1. 2. 3. 4. 6. Travaux de DEA et de thèse _______________________________________________________ 5 Intégration à l'université du Maine et à l'UMR ESO ____________________________________ 7 Animation et contribution à des projets de recherche ___________________________________ 10 Co-encadrements de thèses _______________________________________________________ 22 Positionnement épistémologique et méthodologique____________________________________ 29 Synthèse des travaux : introduction ___________________________________________ 35 1ère partie : Agriculture, pollution et gestion de l'eau______________________________ 37 1. Ampleur de la pollution d'origine agricole en France ___________________________ 38 1. 2. 3. 4. 5. 6. 2. L'intensification de l'agriculture en France et ses conséquences sur les ressources en eau_______ Les techniques agro-environnementales et leur efficacité sur la qualité de l'eau ______________ Pollutions agricoles et politiques territoriales à l'échelle de bassins en France ________________ Etude de cas : le Rochereau _______________________________________________________ Etude du cas : l'Oudon___________________________________________________________ Conclusion sur les pollutions agricoles à l'échelle de bassins versants en France______________ 38 43 48 50 56 69 La problématique agriculture – environnement au sud du Brésil__________________ 71 1. 2. 3. 4. Le bassin versant de l'Ibicuí ______________________________________________________ Les enjeux environnementaux sur le bassin de l'Ibicuí __________________________________ Le comité de bassin de l'Ibicuí : une forte participation mais un manque de moyens___________ Conclusion sur la relation agriculture – environnement dans le Sud du Brésil ________________ 72 76 79 81 3. La place de l'agriculture familiale dans la gestion de l'eau : le cas du Sertão semi-aride brésilien _____________________________________________________________________ 82 1. 2. 3. Le Nordeste du Brésil : sous-développement, inégalités sociales et ressources en eau __________ 83 L'alimentation en eau de Campina Grande ___________________________________________ 86 Le conflit pour l'usage de l'eau du canal da Redenção dans le Sertão ______________________ 90 4. Un système de production intégrant les services écologiques : l'agriculture de conservation__________________________________________________________________ 94 1. 2. 3. Les principes de l'agriculture de conservation_________________________________________ 96 L'agriculture de conservation au Brésil ______________________________________________ 98 L'agriculture de conservation en France ____________________________________________ 107 Conclusion de la 1ère partie_____________________________________________________ 113 2ème partie : Méthodologies _________________________________________________ 115 1. Présentation des bassins, objets de la modélisation des pollutions ________________ 115 1. 2. 3. Moine _______________________________________________________________________ 116 Rochereau ___________________________________________________________________ 117 Oudon_______________________________________________________________________ 118 2. Cartographie des propriétés hydriques des sols et vulnérabilité des sols au transfert de polluants____________________________________________________________________ 120 1. 2. 3. 4. 3. Sondages à la tarière et profils pédologiques _________________________________________ Estimation de propriétés hydriques des sols _________________________________________ Cartographie des propriétés des sols _______________________________________________ Analyse de sensibilité à la densité des sondages ______________________________________ 121 122 123 127 Modélisation agro-hydrologique distribuée des pollutions agricoles ______________ 129 1. 2. 3. 4. 5. 6. 7. 9. Choix opérés en matière de modélisation ___________________________________________ Présentation du modèle SWAT ___________________________________________________ Mise en oeuvre du modèle SWAT sur les bassins tests _________________________________ Calibration et validation du modèle ________________________________________________ Résultats de la modélisation______________________________________________________ Analyse de sensibilité du modèle à la qualité des données ______________________________ Analyse comparée du modèle SWAT et d'un indicateur d'émission polluante _______________ Conclusion sur l'application de SWAT pour des problématiques de pollution agricole ________ 3 129 130 134 138 139 146 152 158 4. Modélisation hydrologique de la sensibilité à la variabilité climatique d'un grand bassin en Afrique soudano-sahélienne _________________________________________________ 162 1. 2. 3. 4. 5. Zone d'étude _________________________________________________________________ Données _____________________________________________________________________ Calage et validation ____________________________________________________________ Résultats_____________________________________________________________________ Discussion et conclusion ________________________________________________________ 162 163 167 167 171 Perspectives______________________________________________________________ 173 1. 2. La séquestration du carbone par l'agriculture ________________________________________ 174 Les services écologiques dans le biome de la Pampa __________________________________ 178 Conclusion ______________________________________________________________ 183 Bibliographie ____________________________________________________________ 185 4 Synthèse des travaux : introduction La synthèse est organisée en deux parties. La première est consacrée à l'intégration des enjeux agricoles dans la gestion de bassins versants et aux pratiques agro-environnementales en France et au Brésil. En France, nous nous intéressons aux pollutions agricoles, à leur régulation et à l'appropriation des pratiques agro-environnementales par les agriculteurs. Au Brésil, nous analysons la participation des agriculteurs à la gestion des bassins versants pour le partage de la ressource et pour la réduction des impacts sur la qualité de l'eau. Un système de production intégrant mieux les services écologiques offerts par l'activité biologique du sol fait l'objet d'une analyse spécifique concernant ses intérêts écologiques et agronomiques et sa diffusion géographique. La seconde partie est consacrée à la modélisation hydrologique distribuée afin d'évaluer les facteurs de variabilité des flux d'eau et de polluants à l'échelle de bassins versants. Dans l'ouest de la France, le modèle est appliqué pour déterminer les conséquences des successions culturales et des pratiques qui y sont associées sur la qualité de l'eau de trois bassins versants. En Afrique soudano-sahélienne, le modèle est utilisé pour évaluer les conséquences de la variabilité climatique sur les écoulements de surface d'un grand bassin. Figure 7 : Organisation de la synthèse des travaux 35 36 1ère partie : Agriculture, pollution et gestion de l'eau L'activité agricole modifie fortement la qualité et la dynamique de l'eau dans le milieu. Par la transformation du couvert végétal, le travail du sol, l'apport de fertilisants et de pesticides, l'agriculture altère le cycle de l'eau comme de ses composés. La croissance de la production agricole au moyen de l'agrochimie et de la mécanisation durant ces dernières décennies a entraîné des dégradations des sols et des eaux dans de nombreuses régions du monde. Ces dégradations varient en fonction des formes et du niveau d'intensification agricole et en fonction du contexte pédo-climatique. Face à ces risques, souvent sous la pression de la société, les pouvoirs publics ont élaboré des politiques pour limiter les impacts négatifs de l'agriculture sur l'eau. Mais les réglementations nationales n'ont pas suffit à restaurer la qualité des ressources pour trois raisons majeures. Tout d'abord, l'impact de l'agriculture sur le milieu résulte de pratiques qui ne peuvent pas être systématiquement régies par des normes du fait de leur complexité et de la difficulté de leur contrôle par les pouvoirs publics. Par ailleurs, le retour à une qualité satisfaisant les usages humains passe par des mesures plus adaptées aux spécificités des territoires du fait de la diversité des activités agricoles, des contextes pédo-climatiques et des sociétés locales. Troisième raison, les agriculteurs n'ont pas adhéré dans leur majorité à la légitimité des actions environnementales, les risques sanitaires et écologiques ne sont pas pleinement admis et les solutions proposées ne leur paraissent pas forcément efficaces ou, pour le moins, sont considérées comme inadaptées à leurs contraintes de production (Soulard, 1999). Cependant, depuis plusieurs années, des expériences sont conduites sur des bassins versants avec un engagement des agriculteurs. Des résultats ont été produits en matière d'évolution des pratiques agricoles. Par ailleurs, la lutte contre les pollutions a légitimé des remises en cause du modèle de production conventionnel dominant au sein même de la profession agricole et des groupes développent des modes de production alternatifs qui visent à mieux gérer le sol et les écosystèmes, ce qui a des conséquences positives sur la qualité de l'eau. Il semble donc particulièrement pertinent de comprendre d'une part les processus socio-politiques en cours, associant les agriculteurs dans des structures de gestion des bassins versants, et d'autre part d'identifier les démarches proactives en faveur de l'environnement, conçues par des groupements d'agriculteurs se revendiquant de modèles de production alternatifs. Dans cette première partie, nous allons tout d'abord dresser un tableau des pollutions d'origine agricole en France, des processus d'émission et de transfert et des techniques agroenvironnementales pour améliorer la qualité de l'eau. L'étude de deux bassins versants de l'ouest servira à mieux comprendre des processus territoriaux de réduction des pollutions agricoles. Dans un deuxième chapitre, nous analyserons la prise en compte de l'environnement dans le sud du Brésil, dans le biome de la Pampa, en nous intéressant aux représentations et aux actions des agriculteurs. Dans un troisième chapitre, l'étude de la gestion de l'eau en région semi-aride du Nordeste du Brésil révèlera les tensions entre besoins urbains et besoins agricoles et les inégalités sociales dans le partage de la ressource. Le dernier chapitre de cette première partie portera sur un système de production alternatif, l'agriculture de conservation, avec ses impacts environnementaux et sa dynamique socioterritoriale en France et au Brésil. 37 1. Ampleur de la pollution d'origine agricole en France En préalable, une présentation du contexte des pollutions d'origine agricole et des techniques pour les réduire nous paraît nécessaire pour situer nos recherches. Les dynamiques territoriales générées par la protection des ressources en eau seront ensuite analysées à l'échelle de deux bassins versants. Ces deux territoires ont été étudiés dans le cadre de projets de recherche. L'analyse résulte de l'exploitation de données et d'entretiens et de participation aux réunions des instances de gestion de l'eau et de réduction des pollutions d'origine agricole, elle est également le fruit d'une recherche de master que j'ai encadrée sur le bassin du Rochereau (Garon, 2005; Garon, 2006). 1. L'intensification de l'agriculture en France et ses conséquences sur les ressources en eau La France a connu une révolution agricole sans précédent dans la seconde moitié du XXème siècle (Hervieu, 1993; Mazoyer, Roudart, 1997). Celle-ci a permis par exemple de quintupler les rendements en blé, de quadrupler la productivité des vaches laitières, de décupler la surface de travail de chaque agriculteur. Ce développement a été fondé sur la mécanisation, la sélection des variétés végétales et animales, l'achat d'aliments pour le bétail, l'emploi d'engrais de synthèse et de produits phytosanitaires. L'augmentation de la productivité a impliqué une spécialisation des exploitations, autrefois basées sur la polyculture et l'élevage, et a entraîné une spécialisation accrue des territoires ruraux dans certaines productions. Sans revenir sur les conséquences sociales et économiques d'une telle évolution, les impacts sont considérables sur le plan environnemental. Cette forme de développement agricole a conduit à l'emploi massif de fertilisants et à concentrer l'élevage dans des régions spécialisées. Dans les systèmes de production prévalant auparavant, le cheptel était nourri par les fourrages et les céréales de l'exploitation et les déjections animales servaient à fertiliser en quasi-totalité les cultures et prairies de l'exploitation. Ce système en équilibre a été rompu par l'achat d'aliments pour bétail qui permet d'accroître la densité d'élevage et par l'achat d'engrais de synthèse. Ainsi, des espaces ruraux se trouvent aujourd'hui avec des densités d'élevage telles que les sols et les récoltes ne peuvent plus absorber tous les nutriments apportés par les déjections, le surplus est lessivé jusqu'aux nappes et rivières (ce qu'avaient déjà mis en évidence (Sebillotte, Meynard, 1990)). Parallèlement, d'autres régions orientées vers la céréaliculture voient la teneur en matière organique des sols fortement diminuer, ce qui les rend plus vulnérables à l'érosion et au lessivage et nécessite l'emploi de doses d'engrais plus importantes, également partiellement lessivées. La croissance des pollutions des milieux aquatiques n'est pas seulement due à l'emploi d'engrais, aux déjections animales et aux traitements massifs. Elle a été aggravée par l'évolution de l'ensemble des systèmes de production et par le bouleversement des paysages ruraux qui s'en est suivi, augmentant notamment leur vulnérabilité. Le recours aux cultures fourragères comme le maïs, en substitution aux prairies, laisse le sol nu une grande partie de la période où l'écoulement est le plus intense (Thiébaud et al., 2001). La spécialisation en grandes cultures conduit au même résultat. Ainsi, les fertilisants et pesticides sont plus facilement lessivés ou transportés avec des particules du sol (Le Gall et al., 1997). Lorsque l'exploitation se spécialise dans certaines productions, les rotations plus courtes et moins diversifiées favorisent les invasions de parasites ou de plantes adventices, ce qui appelle un emploi accru de pesticides. Par ailleurs, la mécanisation et l'agrandissement des exploitations nécessitent d'augmenter la surface des parcelles, ce qui a entraîné la réalisation de remembrements. Les parcelles 38 disséminées ont été regroupées, les sols assainis et des fossés créés pour évacuer les eaux en surplus. Ainsi, le remembrement, impulsé et financé par les pouvoirs publics des années 1960 aux années 1980, a favorisé la destruction des haies, l'arrachage des bosquets, l'arasement des talus, le drainage des zones humides et donc la disparition de ces « compartiments de rétention » (Leibowitz et al., 2000; Haag, Kaupenjohann, 2001) qui faisaient obstacle à la migration des polluants vers les cours d'eau (Haycock, Pinay, 1993; Billen, Garnier, 2000; Caubel, 2001). C'est ainsi les bassins versants dans leur ensemble qui sont devenus plus vulnérables à la pollution d'origine agricole. Aujourd'hui, l'état qualitatif des ressources en eau en France est clairement dégradé par les pollutions d'origine agricole. Si les investissements dans la mise aux normes des bâtiments et des sièges d'exploitation ont permis de réduire les pollutions ponctuelles, il reste le problème plus épineux des pollutions diffuses qui proviennent du lessivage et de l'érosion de polluants dans les parcelles cultivées et pâturées. Les pollutions diffuses sont en effet difficiles à identifier et donc à maîtriser car elles concernent des espaces importants, aux contours imprécis et sont générées par des pratiques variées qui interfèrent de façon complexe avec le sol et les aléas météorologiques (Laurent, 2005). Les responsables potentiels sont nombreux à l'échelle du bassin versant d'un cours d'eau ou de la zone d'alimentation d'un puits ou d'un forage. Même si la pollution ne provient que de certains agriculteurs, ils sont difficiles à identifier car les pollutions dépendent de certains facteurs de production (type de culture, chargement animal à l'hectare) mais aussi des façons de faire de chacun appelées « pratiques agricoles » (ensemble coordonné d'actions visant à la production agricole), ce qui contribue encore à entraver l'identification des responsabilités. Autre difficulté, la pollution ne peut être mesurée que bien en aval des lieux d'émission après un temps de transfert dans le milieu mal connu. Les responsabilités sont donc difficiles à cerner et l'effet des actions proposées pour réhabiliter la qualité des eaux reste incertain en matière de coût / efficacité, comme en matière de délai de réponse du milieu (Novotny, 1999; Mollard et al., 2000; Turpin et al., 2005; Grizzeti et al., 2011). L'azote d'origine agricole Le nitrate est la forme la plus stable de l'azote minéral dans le milieu naturel en conditions aérobies. Cet élément présente des risques pour la santé. Des études ont montré son caractère cancérigène (Gulis et al., 2002; Wolfe, Patz, 2002; Ward et al., 2005) alors que d'autres épidémiologistes réfutent ce lien (Apfelbaum, 1998; Powlson et al., 2008). Par ailleurs, l'azote induit une perturbation des écosystèmes aquatiques (Haag, Kaupenjohann, 2001; Powlson et al., 2008). Mais l'azote est un élément indispensable à la croissance des végétaux. Des apports d'azote sont nécessaires pour la plupart des cultures afin de maintenir des rendements satisfaisants. L'azote est présent sous différentes formes dans le sol : • L'azote minéral : nitrate (NO3-), nitrite (NO2-) et ammonium (NH4+) sont en phase aqueuse ou adsorbée. La forme minérale représente de l'ordre de 2 à 4 % de l'azote total du sol, c'est une forme soluble hautement lessivable ; • L'azote organique est intégré dans les organismes (racines, microflore et microfaune) et dans la matière organique du sol. Il s'agit d'une forme de l'azote qui migre difficilement dans le milieu. Sa quantité dépend du type de sol et de la biomasse. Des échanges entre ces formes minérales et organiques s'opèrent. L'azote minéral absorbé par les végétaux est ensuite intégré dans leurs tissus pour former de l'azote organique. A la mort des végétaux, l'azote organique est soit stabilisé dans la matière organique du sol, soit 39 minéralisé pour aboutir, en conditions normales, à du nitrate lessivable. La matière organique dite stable se minéralise lentement et alimente un flux d'azote minéral. Les apports en azote ont pour but de compenser les exportations par les récoltes et les pertes par lessivage. Ils se font soit sous forme minérale (engrais minéraux), soit sous forme organique (fumiers et lisiers). Le risque de lessivage est important notamment lorsqu'une pluie efficace survient entre la date d'épandage et le prélèvement par les cultures. L'azote minéral est alors lessivé. Ce phénomène a également lieu lorsque les rendements n'atteignent pas le niveau espéré pour des raisons climatiques ou lorsque les parcelles sont surfertilisées. Il reste alors des reliquats d'azote minéral lessivable après la récolte. La dynamique de la minéralisation du stock organique (qui représente de l'ordre de 96 à 98 % de l'azote du sol) est par ailleurs sujette aux variations climatiques puisqu'elle est fonction des températures et de la teneur en eau. Conformément à ces phénomènes, les flux et les concentrations les plus importants en nitrates s'observent généralement en automne lorsqu'il fait doux, que les pluies sont efficaces et que les besoins des végétaux chutent. Plus la lame d'eau écoulée est importante, plus les flux sont élevés : les années humides sont donc des années de forte pollution nitratée. Le drainage des sols accroît le potentiel de lessivage de ceux-ci et conduit à une augmentation des flux de nitrates dans les eaux (Garwood et al., 1986; Gilliam, Skaggs, 1986; Arlot, 1999), d'autant qu'il « court-circuite » les zones tampons sur les rives (Billen, Garnier, 2000). En milieu réducteur, dépourvu d'oxygène, le nitrate est transformé en azote gazeux, c'est le processus de dénitrification. Il a lieu dans les sols mal drainés où l'eau stagne et s'appauvrit en oxygène. C'est le cas de certains sols peu perméables (argileux) saturés en eau (Garwood et al., 1986; Dendooven et al., 1999; Rapion, Bordenave, 2001) ou de situations topographiques particulières de fonds de vallée où l'eau converge et sature le sol même lorsqu'il est perméable (Beven, Kirkby, 1979; Durand et al., 1995; Merot et al., 1995; Gascuel-Odoux et al., 1998; Caubel, 2001; Merot et al., 2003). Les marais et les forêts de rive sont des espaces qui sont donc particulièrement efficaces en termes de dénitrification. Les régions les plus touchées par la pollution azotée sont celles d'élevage intensif à forte charge en azote organique due aux effluents animaux, celles de grandes cultures fortement fertilisées et celles où les ressources en eau sont superficielles ou de faible profondeur (zones de socle aux sous-sol peu perméable, nappes aquifères alluviales, nappes aquifères karstiques). Le phosphore d'origine agricole Longtemps sous-estimé comme polluant, cet élément est lui aussi à la base de la fertilisation des sols. Il est par ailleurs produit dans les déjections animales. Comme l'azote, il est un élément essentiel à la croissance végétale. Dans le milieu naturel, il est un facteur limitant car sa concentration est très faible. Il n'est pas néfaste pour la santé humaine mais induit un développement anormal d'algues dans les rivières ce qui réduit leurs qualités biologiques et piscicoles (Johnes, Hodgkinson, 1998). Le risque d'eutrophisation par le phosphore apparaît à de faibles doses pour des seuils voisins de 0,035 à 0,1 mg.l-1 en phosphore total (Turner, Haygarth, 1999), alors que la valeur guide d'une eau brute pour la potabilisation est de 0,7 mg.l-1. Le phosphore épandu sur le sol par l'apport d'engrais de synthèse ou de déjections animales est rapidement adsorbé à la surface des argiles et de la matière organique (l'adsorption est une fixation électrostatique réversible). Contrairement au nitrate, il est peu lessivable mais stocké dans les premiers centimètres du sol à la surface de particules. Il contamine les cours d'eau lorsque les particules auxquelles il est attaché sont entraînées par érosion, une partie est ensuite stockée dans les sédiments. Ainsi, ce sont les sols vulnérables au ruissellement et à l'érosion qui « émettent » ce polluant (Catt et al., 1998). Des études ont montré que seule une 40 faible partie d'un bassin versant participait effectivement à la pollution des cours d'eau (Johnes, Hodgkinson, 1998; Haag, Kaupenjohann, 2001; Sharpley et al., 2011). Dans le temps, les pointes de pollution par le phosphore s'observent lors de pics de crue pour deux raisons : le phosphore adsorbé est alors érodé des sols par ruissellement et le phosphore contenu dans les sédiments au fond des cours d'eau est remis en suspension. Ainsi, sur un bassin versant américain, Gburek et al. (2000) ont mesuré que 90 % du phosphore est transporté lors des sept plus violents orages de l'année (Gburek et al., 2000). L'eutrophisation qui est l'une des conséquences les plus néfastes s'observe cependant en saison chaude lorsque sont réunis les autres facteurs favorables à la prolifération algale (ensoleillement et chaleur) (Billen et al., 1994; Gardner et al., 2002). Le drainage des sols agricoles, en diminuant le ruissellement, réduit nettement l'entraînement des particules de sol et des éléments fixés sur ces particules tels le phosphore et certaines molécules phytosanitaires (Skaggs et al., 1994; Catt et al., 1998). Sur le site expérimental de la Jaillère, en Loire-Atlantique, les mesures effectuées par Arvalis montrent des flux de phosphore dans les eaux de ruissellement en parcelle non drainée supérieurs de 80 % au total des flux en drainage et ruissellement de la parcelle drainée (Gillet, Dutertre, 2010). La limitation des transferts entre les sols agricoles et les cours d'eau nécessite un raisonnement des pratiques, voire des choix culturaux, afin de réduire le ruissellement et l'érosion et d'éviter des apports de fertilisants en période humide. La limitation « à la source » des pollutions en phosphore agricole peut être techniquement réalisée en région de grande culture lorsque les apports sont effectués sous forme d'engrais de synthèse. En revanche, dans les régions d'élevage intensif, il convient de répartir voire de réduire la charge en phosphore organique ce qui est d'autant plus difficile que le rapport Azote/Phosphore dans les déjections (N/P compris entre 2 et 6) est inférieur au rapport N/P des besoins des cultures (de 7 à 11). Autrement dit, dans un système de fertilisation purement organique, en raisonnant correctement les apports en azote organique, l'agriculteur est conduit à apporter un excédent de phosphore organique. Les régions d'élevage intensif (notamment le nord-ouest de la France) sont ainsi affectées par une contamination des eaux de surface par le phosphore et par voie de conséquence connaissent une eutrophisation élevée en été et début d'automne. L'épandage d'azote et de phosphore sur les sols agricoles ne se traduit pas immédiatement par une pollution des cours d'eau ou des nappes souterraines et inversement une réduction de leur usage n'entraîne pas une amélioration instantanée de la qualité des eaux. En effet, avant d'atteindre une ressource en eau ces éléments percolent à travers des sols ou sur les versants et sont stockés dans différents réservoirs, sous différentes formes plus ou moins stables (Bordenave et al., 1999; Viavattene, 2006). Produits phytosanitaires La France consomme 71 600 t.an-1 de ces produits, appelés également pesticides répartis ainsi : 15 % pour les insecticides, 42 % pour les fongicides, 35 % pour les herbicides et 12 % pour d'autres produits (en 2006). 95 % de ces produits sont utilisés en agriculture (www.developpement-durable.gouv.fr, d'après l'Union des Industries de la Protection des Plantes – UIPP). Ces produits sont très nombreux puisque plus de 900 substances actives ont été recensées en France. La toxicité est généralement élevée à de faibles doses pour beaucoup d'entre eux (Benachour, Seralini, 2008). Ils engendrent chez l'homme des problèmes respiratoires, génitaux, mutagènes, immunitaires, neurologiques, cardio-vasculaires et sont cancérigènes pour certains. Les effets à long terme restent encore méconnus. Dans le monde, il y a chaque année 1 million de personnes qui sont intoxiquées par les pesticides, 20 000 en meurent (Van 41 der Werf, 1996). Les écosystèmes souffrent de l'effet de ces produits. Les pesticides perturbent la microfaune et la microflore du sol et peuvent réduire sa fertilité (réduction du nombre de vers de terre). Les populations d'insectes baissent, les oiseaux sont touchés notamment par les semences traitées aux pesticides organochlorés. Les mammifères prédateurs souffrent particulièrement avec des dégénérescences des organes sexuels. Les poissons sont très atteints, les doses létales de nombreuses molécules sur les poissons sont voisines de 10 μg.l-1. Aux Etats-Unis, 6 à 14 millions en meurent chaque année (Van der Werf, 1996). Les produits initiaux se décomposent en divers métabolites en fonction des micro-organismes présents dans le milieu, ces métabolites sont rarement mesurables car en quantités minimes. Ils peuvent présenter des risques tout aussi élevés pour la santé humaine ou pour les écosystèmes (Benachour, Seralini, 2008). La biodégradation n'est donc pas totale, si elle réduit la pollution, elle la diversifie par ailleurs. La toxicité est évaluée lors d'une procédure européenne d'homologation des produits depuis 1991. En France, la norme pour l'eau potable distribuée est fixée à 0,1 μg.l-1 par substance et 0,5 μg.l-1 pour l'ensemble des substances phytosanitaires ; en eau brute (l'eau captée dans le milieu avant traitement), elle est respectivement de 2 μg.l-1 par substance et de 5 μg.l-1 toutes substances confondues. Van der Werf indique que seulement 0,3 % de la quantité déversée atteint sa cible, à savoir les végétaux, le reste part dans l'air, le sol ou l'eau (Van der Werf, 1996). Ainsi, jusqu'à 80 à 90 % des pesticides sont perdus dans l'atmosphère lors de la pulvérisation ou dans les quelques jours qui suivent (en fonction de la température et de la vitesse du vent). Moins de 3 % sont entraînés par les eaux. Néanmoins, la ressource en eau est facilement atteinte puisqu'à titre d'illustration, une lame drainante de 200 mm.an-1 lessivant 0,2 g de substance active par ha suffit à atteindre la limite de 0,1 μg.l-1. Les risques de transfert dans les eaux liés à la molécule sont généralement appréhendés par 2 paramètres (Schiavon, 1998) : • Kd : coefficient d'adsorption de la molécule sur des particules du sol, moins il est élevé, plus le risque est important, en effet la majorité des transferts est faite sous forme dissoute, bien que lors d'événement érosifs, des particules du sol adsorbant des produits phytosanitaires peuvent contaminer une ressource d'eau superficielle. L'adsorption est réversible : la désorption des molécules entraîne une certaine rémanence de ces pollutions. • DT50 : durée de demi-vie qui est le temps nécessaire pour que la moitié de la quantité initiale soit transformée. Il varie de quelques jours à quelques centaines de jours. Plus il est élevé, plus le risque est important. La majeure partie des produits est entraînée dans l'eau durant les quelques semaines qui suivent le traitement. Les transferts sont liés aux événements pluvieux mais le pic de concentration n'est pas forcément simultané au pic de crue surtout en automne (Gouy et al., 1998; Gril et al., 1999). Les transferts n'ont lieu que lorsque ces pluies produisent un écoulement hors de la tranche de sol efficace pour retenir et dégrader les molécules. Pour les risques de contamination des eaux de surface, les quantités sont nulles ou très faibles si le ruissellement intervient plus de 2 mois après l'application. La concentration décroît exponentiellement avec le temps séparant l'application de l'évènement pluvieux intense et dépend des doses d'application et de la quantité contenue dans le volume de sol exploré par les eaux de ruissellement (Schiavon, 1998). C'est pourquoi la contamination des herbicides généralement appliqués entre la fin de l'automne et le début du printemps est plus importante que celle produite par les fongicides, d'utilisation globalement plus estivale (Gril et al., 1999). Par contre si une forte pluie suit l'application des produits, des concentrations très 42 élevées peuvent être observées : jusqu'à 1 900 μg.l-1 d'atrazine dans des eaux de ruissellement (Schiavon, 1998). Etant donné que les ruissellements sont des conditions d'écoulement à risques pour la contamination des cours d'eau, les facteurs identifiés comme favorisant ce processus sont donc également négatifs pour les produits phytosanitaires. La teneur en matière organique est particulièrement importante car c'est sur ces particules, ainsi que sur l'argile, que les molécules sont adsorbées. La baisse des teneurs en matière organique dans les zones de céréaliculture intensive contribue donc à accroître la vulnérabilité des sols au transfert de ces polluants. Les haies du système bocager constituent par ailleurs des pièges pour les produits phytosanitaires du fait de la plus grande perméabilité de leur sol et de leur richesse en matière organique. Si tant est que leur efficacité ne soit pas court-circuitée par un réseau de fossés de drainage. Pour les risques de lessivage vers les nappes souterraines, le sol constitue une zone de rétention et de protection qui alimente, avec un certain coefficient de rabattement et un certain retard, la pollution souterraine (Borggaard, Gimsing, 2008). Les risques de contamination dépendent fortement de la période et de la vitesse de recharge de la nappe, de la profondeur de la nappe, de la nature des sols, mais aussi du taux de renouvellement de la nappe puisqu'un effet de dilution réduit les concentrations (Shukla et al., 1998). Les concentrations des eaux d'infiltration sont très variables : pour l'atrazine par exemple elles oscillent entre 0,5 à 28 μg.l-1 (Schiavon, 1998). Ainsi, la bibliographie montre que les pollutions agricoles dépendent de facteurs du milieu et des pratiques agricoles. La variabilité pédo-climatique, les choix culturaux et les pratiques associées déterminent l'ampleur des processus en cause à l'échelle de bassins versants. Nous verrons par la suite comment ces relations complexes sont prises en charge par les acteurs du monde agricole et les gestionnaires de l'eau à l'échelle de bassins versants. Cela a motivé par ailleurs notre orientation vers la modélisation agro-hydrologique distribuée. 2. Les techniques agro-environnementales et leur efficacité sur la qualité de l'eau Différentes techniques et choix culturaux améliorent la conservation des sols et réduisent les fuites de nutriments ou de pesticides vers les cours d'eau et les nappes. Ces techniques relèvent de l'agronomie, de l'aménagement des versants et de ce qui a pris le nom d'ingénierie écologique. Certaines techniques sont pratiquées de façon traditionnelle par les communautés paysannes et ont été reprises et adaptées aux systèmes de production actuels. Avant d'analyser leur diffusion, les politiques qui les soutiennent et l'efficacité de certaines à l'échelle des bassins versants étudiés, il convient de présenter les plus fréquemment mises en oeuvre en France. • Couverture permanente des sols par des végétaux ou par des résidus de culture : La couverture du sol par les végétaux les protège de l'érosion. La production de matière organique qui en résulte accroît l'activité biologique du sol. Or, c'est l'activité biologique qui créée une structure favorable à l'enracinement des végétaux et à leur nutrition, elle augmente la porosité et ainsi l'infiltration de l'eau. Par ailleurs, les végétaux puisent des éléments minéraux dans le sol et les organisent dans leurs tissus, ce qui diffère voire réduit leur disponibilité pour le lessivage. 43 Dans les rotations de cultures annuelles, le sol reste à nu ou peu couvert durant la saison défavorable à la croissance des cultures. Sous des latitudes moyennes, cette période est longue entre deux cultures de printemps (entre septembre et mai, en France) ou entre une culture d'hiver et de printemps (entre juillet et mai, en France) ; par ailleurs, les céréales d'hiver qui suivent une culture de printemps se développent peu en automne et en hiver. L'implantation d'une culture intermédiaire permet de produire une biomasse durant cette période. Le couvert végétal améliore la structure du sol, réduit le ruissellement et piège temporairement des éléments minéraux lessivables. Il a donc un effet agronomique bénéfique et réduit les pollutions. Constantin et al. ont mesuré une réduction de 36 à 62 % des concentrations en nitrates sous la zone racinaire, sur 3 sites en France (Ile-de-France, Bretagne, ChampagneArdenne) (Constantin et al., 2010). Ces auteurs montrent que les couverts sont plus efficaces sur le lessivage en nitrates qu'une réduction de la fertilisation de 20 %. Dans l'Aisne, Beaudoin et al. ont mesuré un abaissement moyen de 50 % des fuites en nitrates (8 ans de mesures sur différents sols) (Beaudoin et al., 2005). Des valeurs similaires ont été recensées en Grande Bretagne (Shepherd et al., 1993). Elles convergent aussi avec une étude menée dans le sud de la Suède (Blombäck et al., 2003). Selon une analyse économique, les couverts constituent le moyen le plus efficient pour réduire le lessivage de l'azote (rapport entre le coût d'implantation et de destruction et l'efficacité sur le lessivage) (Lacroix et al., 2005). En France, les plantes fréquemment utilisées sont : la moutarde (Sinapis alba), la phacélie (Phacelia tanacetifolia), le seigle (Secale cereale), l'avoine brésilienne (Avena sativa), le sorgho (Sorghum bicolor), le radis chinois (Raphanus sativus), etc. Ces plantes peuvent être associées dans ce qui est nommé des « biomax » (Huchon, 2010). Des légumineuses sont également utilisées en couvert, comme des trèfles (Trifolium sp.). Elles ont la propriété de fixer l'azote atmosphérique et ainsi d'enrichir le sol en cet élément, ce type de couvert n'a bien entendu pas d'effet sur la réduction des transferts d'azote (semé seul, il est proscrit en zone vulnérable mais est autorisé en mélange). En milieu tropical, les espèces sont nombreuses, citons parmi elles : Brachiaria ruzizisensis, Eleusine coracana, Mucuna pruriens, Crotalaria retusa et Dolichos lablab (dolique) (Séguy et al., 2006; Bollinger et al., 2007; Deguine et al., 2008; Carvalho et al., 2010). L'enfouissement de résidus de cultures au rapport C/N élevé réalisé dans l'horizon de surface du sol réduit également les risques de lessivage : sur le site de la Jaillère (en Loire Atlantique, limons sur schiste), étudié par Arvalis, une baisse de 20 à 30 kgN.ha-1.an-1 est observée (communication orale avec A.-M. Bodilis). Mélange de moutarde, phacélie et tournesol (photo : J.B. Huchon) Radis chinois (photo : J.B. Huchon) 44 Moutarde Figure 8 : Exemples de couverts végétaux cultivés en France • Maintien ou implantation de haies : Les haies présentent différents intérêts pour réduire les transferts de sédiments et de nutriments vers les cours d'eau. A proximité d'une haie, le sol tarde à se saturer en automne, ce qui réduit le ruissellement et le lessivage (Caubel, 2001). Les racines, l'enrichissement en matière organique et l'activité biologique accroissent la perméabilité du sol sous la haie ce qui augmente la perméabilité et réduit ainsi le ruissellement. Les flux de polluants se trouvent abaissés, surtout au printemps. En ce qui concerne les nitrates, le rabattement peut atteindre 75 à 99 % du flux provenant du versant, s'il est perpendiculaire à la haie et s'il circule en surface ou en sub-surface (Haycock, Pinay, 1993; Caubel, 2001). Figure 9 : Paysage bocager en Sarthe • Les zones humides : Les zones humides sont tout d'abord des espaces propices à la fixation et au dépôt de particules sur lesquelles peuvent être adsorbées du phosphore ou des produits phytosanitaires. Elles sont le siège d'une dénitrification, du fait de leur caractère réducteur lorsque l'eau circule lentement dans la couche d'humus. Les prairies humides de fond de vallée entraînent de fortes baisses. Des mesures ont par exemple révélé une baisse de 84 % des teneurs en nitrates (Haycock, Pinay, 1993). L'efficacité varie fortement selon les flux entrants, la morphologie, l'hydrogéologie, la géométrie et la végétation de la zone humide avec une efficacité mesurée de l'ordre de 35 à 100 % sur les flux de nitrates (Larson et al., 2000; Haag, Kaupenjohann, 2001), de 0 à 72 % sur les flux de phosphore et de 25 à 100 % pour les 45 pesticides (Kay et al., 2009). L'efficacité des zones humides est réduite durant la période d'écoulement intense du fait de la réduction des temps de séjour (Koskiaho et al., 2003). Figure 10 : Prairie humide et forêt de peuplier en Sarthe • Bandes enherbées Les bandes enherbées sont des espaces tampons implantés sur les bords des cours d'eau afin de constituer un obstacle aux flux provenant du versant. Elles sont fauchées et ne reçoivent ni fertilisation, ni pesticides. Leur efficacité a été maintes fois prouvée (Klöppel et al., 1997). Par exemple, Patty et al. ont mesuré la réduction des flux pour des bandes de 6 à 18 m de largeur sur 3 sites de l'ouest de la France (Patty et al., 1997) : le ruissellement est réduit de 43 à 99 %, le flux de produits phytosanitaires de 44 à 100 % (selon les molécules), le flux de nitrates de 47 à 100 %, le flux de phosphore soluble de 22 à 89 %. D'autres auteurs trouvent des valeurs de rabattement similaires sur les nitrates (Haycock, Pinay, 1993; Hefting, de Klein, 1998) et sur les pesticides (Kay et al., 2009). Concernant le phosphore, l'efficacité de la bande enherbée a tendance à se réduire avec le temps par saturation en cet élément (Dorioz et al., 2006). Différents facteurs interviennent sur l'efficacité des bandes enherbées : la nature du sol, la saison (l'efficacité est réduite en hiver), le couvert végétal, les caractéristiques des sédiments transportés et la présence d'un drainage qui court-circuite la bande (Barling, Moore, 1994; Tate, Nader, 2000; Uusi-Kämppä et al., 2000). La largeur efficace semble être de 5-10 m au-delà desquels le gain additionnel est réduit (Kay et al., 2009). Bande boisée de saules sur le site de la Jaillère Bande enherbée sur le bassin du Layon Figure 11 : Bandes enherbées ou boisées à proximité de cours d'eau 46 • Fractionnement des apports Le fractionnement des apports en fertilisants permet de mieux les adapter aux besoins des végétaux lors de leur croissance et de diminuer le risque de lessivage d'un stock en nutriments temporairement non utilisé. Il permet par ailleurs de s'adapter aux prévisions de rendement en fonction du climat. • Périodes des traitements phytosanitaires Les produits phytosanitaires se dégradent plus ou moins rapidement dans le milieu naturel. Les essais conduits sur le site de la Jaillère par Arvalis présentent une forte sensibilité des flux de pesticides à la date de reprise d'écoulement : par exemple, l'isoproturon est 6 à 10 fois moins entraîné lorsqu'il est appliqué avant le démarrage du drainage, les résultats sont encore plus marqués avec le glyphosate (communication orale avec A.-M. Bodilis). D'autres travaux du même type conduits par la Chambre d'Agriculture d'Eure-et-Loir convergent avec ces résultats (Huchon, 2011). • Conversion des terres cultivées en prairies : La prairie présente de multiples avantages en matière de qualité des eaux (Le Gall et al., 1997). Le couvert végétal permanent limite le lessivage hivernal des nitrates par une organisation de l'azote. Il accroît la perméabilité du sol et réduit ainsi le ruissellement et par voie de conséquences les flux de phosphore (D'Arcy, Frost, 2001). Les traitements phytosanitaires y sont faibles ou inexistants contrairement aux cultures fourragères annuelles. L'efficacité des prairies sur la pollution de l'eau par les nutriments dépend des pratiques. En cas de pâturage, le chargement animal est déterminant. Dans différentes stations de mesure de l'ouest de la France, Simon et al. (1997) établissent un seuil de chargement inférieur à 1,5 UGB.ha-1 (UGB = unité de gros bétail) pour obtenir des concentrations en nitrates des eaux de drainage inférieures à 50 mg.l-1. La pâture intensive sur prairie entraîne de forts taux de lessivage (Arlot, 1999). Sous des prairies pâturées conduites de façon intensive (plus de 200 kgN.ha-1.an-1 et/ou 600 journées de pâturage.ha-1.an-1), les pertes d'azote nitrique peuvent être du même ordre que les pertes sous « cultures optimisées » de maïs avec raisonnement de la fertilisation et cultures intermédiaires (Thiébaud et al., 2001). La prairie fauchée nonpâturée présente généralement le moins de risques de transferts de nutriments. Ainsi, à même niveau de fertilisation, les risques de pollution de l'eau sont plus importants sous une prairie pâturée que sous une prairie fauchée (Simon et al., 1997). Le retournement de prairie entraîne un lessivage important de nitrates par minéralisation de l'azote organique : la libération massive de l'azote stocké atteint 200 à 300 kgN.ha-1 (Decau, Salette, 1992; Withmore et al., 1992; Le Gall et al., 1997). Les prairies temporaires de courte durée correspondent donc à des situations moins favorables vis-à-vis de la qualité de l'eau, d'autant plus qu'elles sont souvent associées à des modes de gestion intensifs. L'allongement de la durée des prairies temporaires est donc souhaitable pour limiter le lessivage des nitrates, il nécessite alors des espèces adaptées (ray-grass anglais et association graminées légumineuses de longue durée) (Thiébaud et al., 2001). Malgré les effets du retournement, à l'échelle d'une succession, l'intégration d'une prairie temporaire fauchée dans une rotation « prairies – céréales » limite fortement les pertes d'azote par lixiviation comparativement à une succession de cultures annuelles sans prairie (Loiseau et al., 1992). Le jugement porté sur la prairie temporaire, outre la prise en compte du mode d'exploitation et du degré d'intensification, doit donc être nuancé selon la durée de son implantation d'une part et en fonction du couvert auquel elle est comparée d'autre part : si la prairie temporaire pose plus de problèmes vis-à-vis de la qualité de l'eau que la prairie permanente, elle peut limiter les pertes par lixiviation par rapport à une rotation de cultures annuelles en continu. 47 D'autres mesures agro-environnementales existent, telles que par exemple : l'élargissement de la surface amendée en effluents organiques dans les exploitations concentrant leurs effluents sur certaines cultures ou la limitation de l'accès des animaux aux cours d'eau. Ainsi, la littérature démontre l'efficacité de différentes techniques agro-environnementales par des mesures au champ : il est possible de réduire les fuites en nutriments et en produits phytosanitaires des parcelles vers les cours d'eau et les nappes souterraines. Les travaux des différents auteurs montrent par ailleurs que l'efficacité varie dans le temps et dans l'espace selon de multiples facteurs liés au milieu, aux pratiques antérieures et aux conditions d'application. Sur les bassins étudiés lors de nos travaux, certaines de ces techniques ont été implantées. Nous verrons comment elles sont mises en oeuvre par les agriculteurs. Nous évaluerons ensuite leur efficacité à l'échelle du bassin versant au moyen de la modélisation agro-hydrologique distribuée. 3. Pollutions agricoles et politiques territoriales à l'échelle de bassins en France Le modèle dit « productiviste », responsable des pollutions affectant aujourd'hui de nombreuses ressources en eau, a été fortement soutenu par l'Etat français et par l'Union Européenne durant plusieurs décennies. La prise de conscience des effets négatifs de l'intensification agricole sur l'environnement et sur la santé n'a réellement émergé que durant les années 1990 (Soulard, 1999; Commissariat_au_Plan, 2001). Les politiques publiques ont alors commencé à s'infléchir vers moins de course au rendement en introduisant progressivement plus de respect de l'environnement dans la Politique Agricole Commune et dans les politiques de protection des ressources en eau (Mahe et al., 2000; Nilsson, 2004). La régulation s'appuie sur des lois réglementant la conception des bâtiments d'élevage et interdisant ou réglementant certaines pratiques agricoles à risques en fonction d'objectifs environnementaux. L'un des textes clefs est la Directive Nitrates (12/12/1991) donnant lieu à des programmes d'actions (Oenema et al., 2011). Dans les zones identifiées comme vulnérables (où les concentrations en nitrates dans les eaux superficielles destinées à l'alimentation en eau potable dépassent 50 mg.l-1 ou menacent de l'être), qui couvrent les 2/3 de la surface agricole française, les mesures suivantes sont appliquées : - la fertilisation azotée doit respecter les principes d'une fertilisation équilibrée ; - l'apport annuel en azote organique doit être inférieur à 170 kg d'azote.ha-1 épandable, globalement à l'échelle de l'exploitation ; - l'agriculteur est tenu de réaliser un plan de fumure prévoyant les quantités d'azote épandues par parcelle et un cahier d'épandage enregistrant les quantités effectivement apportées ; - l'agriculteur doit respecter le calendrier départemental d'épandage des fertilisants organiques ou minéraux en fonction des cultures ; - le retournement des prairies permanentes est interdit ; - la réalisation de bandes enherbées de 5 mètres de largeur est imposée le long des cours d'eau figurant sur les cartes IGN au 1 : 25 000. A l'amont de captages d'eau superficielle, destinés à l'alimentation en eau potable et dépassant les normes exigées pour les eaux brutes, des Zones d'Action Complémentaire (ZAC) sont définies : les sols doivent être y couverts durant la période de lessivage par des Cultures Intermédiaires Pièges à Nitrates (CIPAN) ou par les résidus des tiges de maïs grain 48 ou par des repousses de colza, la fertilisation totale en azote organique et minéral ne doit pas dépasser les 210 kg d'azote.ha-1 épandable (globalement à l'échelle de l'exploitation), la fertilisation azotée est interdite sur toute culture suivant un retournement de prairies de plus de 3 ans. Ces mesures sont obligatoires et ne font donc pas l'objet d'indemnisation, à l'exception de l'indemnité compensatoire à la couverture des sols (ICCS). Au delà de la réglementation nationale (qui est le plus souvent en France une transcription de la réglementation européenne), des stratégies sont élaborées à l'échelle d'unités hydrologiques ou hydrogéologiques. Elles sont développées dans le cadre de SAGE ou de contrats de rivière, mais aussi par des syndicats d'alimentation en eau potable. Elles s'appuient sur un processus de gestion participative associant les pouvoirs publics, des usagers de l'eau et de l'espace et des associations de défense de l'environnement. Les agriculteurs, en tant qu'usagers de l'eau et de l'espace, s'associent aux processus d'élaboration des plans d'action dont les choix peuvent influer fortement sur la productivité de leurs exploitations (Le Guen, Sigwalt, 1999; Mer, 2000; Deffontaines, 2001). L'échelon local est ainsi devenu un niveau stratégique dans les politiques de gestion des ressources en eau. Des modèles dits de gestion intégrée ont été élaborés pour prendre en compte les activités humaines et les facteurs naturels sur des unités géographiques correspondant non pas à des entités administratives mais à des unités de fonctionnement naturel, c'est-à-dire des bassins versants ou des nappes souterraines. La régulation opère alors par l'incitation financière en soutenant des pratiques jugées plus durables réalisées volontairement par des agriculteurs, au-delà de la réglementation. En France, des contrats territoriaux d'exploitation (CTE) remplacés par les contrats d'agriculture durable (CAD) puis par les Mesures Agro-Environnementales (MAE), ont été conclus entre l'Etat et des agriculteurs volontaires qui se sont engagés à réaliser des actions en faveur de l'environnement. Mais, comme nous le verrons dans des études de cas, d'autres moyens sont également développés qui impliquent des agriculteurs et orientent leur système de production vers une plus grande durabilité, en allant au-delà des normes de la réglementation (Pochon, 1996; Join, 1999; Bouzillé, 2002; Gasson, 2003; Charvet et al., 2004; Deléage, 2004; Griffon, 2010). La gestion intégrée/territoriale : une voie pour réduire les pollutions agricoles ? La gestion intégrée consiste par principe à coordonner et à associer les multiples usagers de l'eau et des sols dans des programmes d'actions locaux en considérant la ressource et ses usages de façon systémique (Hellier et al., 2009). La gestion est confiée aux acteurs locaux qui, censés être plus au fait des besoins et des nécessités, peuvent ainsi être responsabilisés en partageant un pouvoir de décision (Parage, Laurent, 2009). Il s'agit de mettre en oeuvre un processus de gestion coordonnée de la ressource entre les usagers, les défenseurs de l'environnement, les instances politiques locales, régionales et nationales. Les intérêts sectoriels sont supposés être dépassés par l'émergence d'un patrimoine commun dont l'usage est à partager. L'ajustement d'un mode de gestion au territoire dépend alors d'interrelations entre les acteurs qui élaborent des décisions co-construites. Ces décisions s'appuient sur des normes locales évolutives, devant résulter d'une perception partagée des enjeux. Cependant, les normes générales fixées par l'Etat restent en vigueur et constituent un socle de base qui doit être respecté. Si le consensus est difficile à atteindre, des compromis peuvent être établis et régulièrement révisés, pour respecter les besoins de tous les usagers et garantir les fonctions écologiques. L'implication des usagers, leur participation est jugée nécessaire pour que des stratégies soient élaborées et conduisent à des actions efficaces (Allan, Wouters, 2003). Dans le cadre de systèmes de gestion intégrée, les acteurs construisent ensemble les critères d'une gestion, 49 identifient les priorités, proposent des solutions, suivent et évaluent les résultats (Johnson et al., 2001; Parage, 2009). Sur les bassins versants à dominante agricole, les problématiques sont généralement fortes d'un point de vue qualitatif (nitrates, phosphore ou produits phytosanitaires) ou d'un point de vue quantitatif (irrigation). Les agriculteurs jouent alors un rôle clef dans les débats. Au sein des institutions de gestion (comme par exemple les Commissions Locales de l'Eau), sur les territoires à forte composante rurale, un comité agricole est généralement créé et a en charge la proposition et le suivi d'actions à destination des agriculteurs. Il est lui-même constitué principalement des acteurs du monde agricole : des élus et des techniciens de chambres d'agriculture, des agriculteurs représentant des Groupements de Développement Agricole, des représentants de coopératives ou des membres de réseaux se revendiquant de différentes formes d'agriculture durable. L'objectif est d'élaborer des plans d'actions adaptés aux enjeux environnementaux, aux caractéristiques des systèmes de production et aux savoir-faire locaux (Pretty, Shah, 1999). Trois expériences territoriales, permettent de mieux comprendre : quels sont les enjeux environnementaux à l'échelle du territoire ? Comment les politiques sont élaborées ? Comment les agriculteurs s'insèrent dans le processus socio-territorial ? Quelles en sont les réalisations ? Quelle en est l'efficacité à l'échelle du bassin versant ? Quels obstacles s'opposent à la diffusion de pratiques plus durables ? 4. Etude de cas : le Rochereau La gestion de l'eau sur le bassin versant du Rochereau en Vendée constitue une expérience de gestion intégrée associant fortement les agriculteurs dans l'élaboration des plans d'actions. Elle ne s'inscrit pas dans un cadre défini par la loi sur l'eau (avec ses outils tels le SAGE) mais révèle une dynamique locale émanant d'acteurs territoriaux soucieux de résoudre collectivement un problème de qualité (Hellier et al., 2009). Les données utilisées ci-dessous ont été collectées en grande partie dans le cadre d'un master de géographie à l'université du Maine (Garon, 2005). Le bassin du Rochereau couvre 206 km2 (Figure 2). Il compte environ 16 000 habitants répartis dans 15 communes. Il est exploité pour l'alimentation en eau potable de l'est vendéen par le syndicat intercommunal des sources de l'Arkanson. C'est une région de socle armoricain qui est dépourvue de ressource souterraine exploitable. L'eau de surface, sensible aux étiages, est retenue dans un barrage construit au début des années 1980 à des fins d'alimentation en eau potable. Depuis les années 1990, la ressource présente des teneurs en nitrates élevées, le plan d'eau est fréquemment sujet à l'eutrophisation en été, du fait de contaminations en phosphore, et les teneurs en produits phytosanitaires avoisinent ou dépassent les normes réglementaires (Garon, 2005). Les facteurs de pollution Les causes de la pollution sont diverses mais l'agriculture y tient une forte responsabilité. Les 279 exploitations agricoles, recensées en 2005, sont principalement de type polycultureélevage, avec une dominante des fourrages dans l'assolement : prairies et maïs (Figure 12). L'élevage est centré sur la production de viande bovine (2 exploitations sur 3) et des ateliers hors sol avicoles ou porcins (2 exploitations sur 5). Les effluents d'élevage (fumiers et lisiers) sont épandus principalement sur le maïs et dans une moindre mesure sur les prairies. 50 Figure 12 : L'assolement agricole sur le Rochereau (Source: Chambre d'agriculture de Vendée in (Garon, 2005)) Les normes en nitrates sont parfois dépassées dans l'eau brute prélevée à la retenue de Rochereau. Les maximums sont observés de novembre à mars, en période de lessivage des sols. Le diagnostic réalisé montre que les quatre cinquièmes des nitrates présents dans la retenue proviennent de l'agriculture par lessivage des fertilisants (Garon, 2005). La situation est similaire pour les produits phytosanitaires. Les herbicides les plus fréquemment employés étaient l'atrazine, la simazine et le diuron avant 2003 ; le glyphosate leur a été substitué depuis. Les teneurs en herbicides présents dans les eaux de la retenue s'expliquent par le désherbage communal (emploi de 247 kg.an-1 en 2004), de la voirie départementale (27 kg.an-1), des lignes de chemin de fer (35 kg.an-1), des jardins familiaux et surtout par le désherbage agricole (13 533 kg.an-1) (Garon 2005). Si les émissions non agricoles de produits phytosanitaires paraissent très faibles, elles représentent un poids moins négligeable dans les transferts car les herbicides sont dispersés sur des surfaces peu perméables et ruissellent ainsi plus facilement vers les cours d'eau, tandis que les herbicides employés en agriculture sont dispersés sur des sols perméables et adsorbants. En ce qui concerne le phosphore, il est émis essentiellement par les effluents d'élevage (88 % selon le diagnostic réalisé par Garon, 2005). Sur les 374 tonnes émises, les gestionnaires du bassin estiment que seulement 9 tonnes sont transférées à l'exutoire de la retenue du fait de la rétention à l'amont dans les sols, des prélèvements végétaux et de la sédimentation dans les cours d'eau et dans la retenue. La mobilisation des acteurs locaux Face au risque sanitaire présenté par les pollutions, le syndicat départemental d'alimentation en eau a été à l'initiative d'un programme d'actions conçu collectivement avec les acteurs locaux : les agriculteurs et les communes responsables des rejets d'eaux usées et du désherbage des espaces publics (15 communes incluses dans le bassin). Le programme a été financé par différentes institutions : le syndicat d'alimentation en eau Vendée Eau, l'Agence de l'eau Loire-Bretagne, l'Etat, le Conseil régional des Pays de la Loire, le Conseil général et la Chambre d'agriculture de la Vendée. Ce premier programme s'est échelonné de 2000 à 2005 ; il a été suivi par un second de 2007 à 2012. 51 Figure 13 : L'organisation des acteurs sur le bassin du Rochereau (Hellier et al., 2009) Les acteurs sont organisés en quatre comités (Figure 13). Deux comités sont chargés de la conception du programme (Garon, 2005) : • le comité technique de pilotage, formé de techniciens des différentes institutions, à l'issue d'une consultation des usagers des l'eau et des agriculteurs : il propose la stratégie pour atteindre les objectifs et programme les actions ; • le comité technique agricole, composé d'agriculteurs représentant toutes les communes, définit le volet agricole du programme d'actions et diffuse l'information au reste de la profession sur le terrain. Deux comités valident les actions proposées : • le comité de pilotage, composé d'élus et sous la présidence du préfet ; • le comité d'opération rassemble les acteurs locaux (maires, représentants d'associations de défense de l'environnement, industriels et agriculteurs) ; il est chargé également de diffuser l'information au reste de la population. 52 Les objectifs du premier programme ont été de respecter les limites suivantes à la prise d'eau de Rochereau : des teneurs moyennes de 50 mg.l-1 en nitrates, de 0,4 mg.l-1 en phosphore (P2O5) et de 0,1 μg.l-1 par molécule de produit phytosanitaire (0,5 μg.l-1 pour l'ensemble des molécules). L'enjeu est qu'en cas de dépassement des normes en nitrates plus de 18 jours par an, le préfet interdise le captage de l'eau potable. Connaissance du milieu Agriculture Ville Communication « grand public » o Mesures de la qualité de l'eau souterraine dans les puits des particuliers o Cartographie de la vulnérabilité au transfert de pollutions diffuses o Pesées d'épandeur et analyse de la valeur fertilisante des effluents d'élevage o Plans de désherbage communal o Par voie de presse et au moyen des réunions dans chaque commune sur les phénomènes de pollution et la responsabilité de chacun o Mesures de reliquat d'azote en sortie d'hiver pour évaluer le potentiel de nitrate disponible dans le sol o Information sur des techniques de gestion de prairies o Mise en adéquation des quantités fertilisants apportées et des objectifs de rendement sur chaque parcelle o Formation du personnel communal à l'emploi des produits phytosanitaires o Information aux jardiniers amateurs o Formation dans les écoles sur le cycle de o Diagnostic de réseau l'eau et les pollutions d'assainissement o Bulletin d'information joint à la facture d'eau o Prime et conseil technique pour les Cultures Intermédiaires Pièges A Nitrates (CIPAN) o Compostage des fumiers o Plans de gestion des haies Tableau 2 : Les actions réalisées sur le bassin du Rochereau (source : Garon, 2005) L'efficacité de cette politique locale a été évaluée par deux séries d'indicateurs, décrivant l'évolution des pratiques et celle de l'état de la ressource. Ainsi, si la gestion de l'eau ne s'est pas inscrite dans une procédure SAGE, elle a suivi la démarche générale du chaînage état des lieux – diagnostic des enjeux – plan d'actions – réalisation – évaluation. L'efficacité de la politique en termes d'actions Les quantités d'azote minéral apportées à l'hectare ont baissé de 48 % de 1998 à 2006 (de 102 à 70 kgN.ha-1.an-1) ; celles de phosphore minéral ont diminué de 54 % (de 28 à 13 kgP2O5.ha1 .an-1), alors que les rendements sont restés stables sur la même période (Garon, 2006). Cette diminution est due principalement à une meilleure valorisation des effluents d'élevage grâce aux plans de fumure. Les quantités d'azote organique ont baissé de 17 % (de 184 à 152 kgN.ha-1.an-1) sur la même période, du fait d'une baisse des effectifs animaux et d'une meilleure répartition des effluents. Mais les bilans d'azote montrent encore des excédents de 53 fertilisation notamment sur le maïs. La couverture végétale des sols (CIPAN = Cultures Intermédiaires Pièges à Nitrates) en période à risque de lessivage élevé s'est étendue puisque la part de sols nus après récolte du maïs est passée de 12 à 7 % entre 2000 et 2003. Les quantités d'herbicides utilisées par les communes ont baissé d'un tiers entre 1998 et 2004. Les produits les plus persistants dans l'environnement ont été remplacés et les pratiques à risques fortement réduites (non prise en compte de la météorologie, rinçage des fonds de cuves de pulvérisateur, mauvais réglages). L'évolution des pratiques de traitement phytosanitaire au champ n'a pu être évaluée pour l'instant. L'efficacité de la politique sur la pollution Concernant les concentrations en nitrates à la prise d'eau potable de Rochereau, l'observation de la Figure 14 fait apparaître une forte variabilité interannuelle et la présence de cycles pluriannuels : - 1981-1985 : des années similaires en terme d'amplitude de variations, avec des maximums assez faibles (moyenne des maximums à 22 mg.l-1), - 1986-1989 : baisse tendancielle des maximums annuels (maximums évoluant de 37 à 24 mg.l-1), - 1990-1995 : hausse très brutale des maximums en début de cycle, puis baisse tendancielle (maximums évoluant de 75 à 38 mg.l-1), - 1996-2003 : reprise à la hausse des maximums et nouvelle baisse tendancielle (maximums évoluant de 61 à 34 mg.l-1), - 2004-2010 : variation des maximums annuels stabilisée autour d'un niveau élevé (moyenne des maximums à 44 mg.l-1). Mais la seule lecture de ces concentrations ne permet pas de distinguer l'effet des pratiques de celui du climat. Une modélisation hydrologique dans le cadre du projet ARPENT DADP a révélé qu'en l'absence des changements de pratiques générés par les plans de fumure à la fin de la décennie 1990, les flux de nitrates auraient été largement plus élevés, à conditions climatiques équivalentes (Bioteau et al., 2002; Garon, 2005). Les niveaux élevés des teneurs en nitrates de ces dernières années font que le captage de Rochereau est classé prioritaire dans le Grenelle de l'environnement (captages fortement atteints par la pollution). Il est donc susceptible de faire l'objet d'une procédure ZSCE (Zones Soumise à des Contraintes Environnementales), ce qui pèserait lourdement sur l'activité d'élevage en imposant des seuils réglementaires de chargement animal plus contraignants. Les pollutions par le glyphosate (le désherbant le plus répandu) et par son composé dérivé l'AMPA présentent une tendance à la baisse dans l'affluent principal du barrage. La pollution par l'AMPA avait atteint des sommets en 2000 avec une teneur maximale de 4 μg.l-1 (la norme en eau brute pour la production d'eau potable est de 2 μg.l-1 par substance) (Figure 15). Les concentrations en phosphore (orthophosphates) dans les affluents à l'entrée de la retenue montrent une baisse sensible depuis 2002. D'un point de vue financier, le programme d'action représente un coût moyen de 10 % du prix total de la production d'eau potable, soit près de 0,05 € par m3 (Garon, 2006). Une enquête a permis d'apprécier les perceptions du programme par les personnes s'étant engagées dans des actions. Les deux tiers ont jugé qu'il a eu un impact réel sur leurs pratiques. 54 Figure 14: Evolution des teneurs en nitrates à la retenue de Rochereau en fonction des pluies efficaces Source : Vendée Eau et MétéoFrance Figure 15 : Evolution des teneurs en glyphosate et son dérivé AMPA, dans la rivière du Grand Lay à l'entrée de la retenue de Rochereau Source : Vendée Eau (In Hellier et al., 2009) 55 L'expérience du Rochereau présente plusieurs enseignements : - Tout d'abord, la gouvernance locale s'est imposée comme une nécessité, ce n'est pas un modèle extérieur qui a été transposé. Le syndicat des eaux, confronté aux problèmes de pollution, a choisi d'associer les acteurs locaux – agriculteurs, communes responsables de l'assainissement et des traitements de la voirie ou des espaces verts, entreprises, jusqu'aux jardiniers et aux écoliers – pour mettre en oeuvre des actions. Cette volonté a produit des résultats. - L'expérience du Rochereau nous apprend également que la gouvernance locale, comme la restauration de la qualité de la ressource en eau, est un processus long et que les efforts doivent rester constants pour se traduire par des résultats dans le long terme. - La mobilisation des acteurs nous montre, par ailleurs, que la gestion intégrée de l'eau suppose une dynamique qui n'est pas seulement endogène au sein du bassin, étant donnée l'influence de nombreux facteurs externes, susceptibles de la perturber (l'évolution de la PAC et des marchés agricoles par exemple) (Lacroix et al., 2005). 5. Etude du cas : l'Oudon Nous commencerons par présenter le contexte des pollutions agricoles sur le bassin de l'Oudon et leurs conséquences sur l'alimentation en eau potable, puis nous traiterons des politiques publiques qui sont conduites dans cet espace du fait de la réglementation nationale et du fait des démarches territoriales portées par les acteurs locaux, nous identifierons ensuite les raisons techniques, économiques et cognitives qui expliquent les difficultés rencontrées par les agriculteurs pour réduire les pollutions et nous analyserons enfin les leviers qu'il serait possible d'activer pour surmonter certains obstacles. Les données utilisées dans cette présentation sont issues des études réalisées par la Commission Locale de l'Eau et les chambres d'agriculture, des statistiques agricoles, des réunions auxquelles nous avons participé et d'entretiens avec les techniciens et les acteurs du bassin. La ressource exploitée L'Oudon est un affluent de la Mayenne qui draine un bassin versant de 1 480 km2 (Figure 2). Le bassin est situé dans le sud du département de la Mayenne et le nord-ouest du département du Maine-et-Loire. Il comptait au dernier recensement INSEE près de 70 000 habitants répartis dans 101 communes. Il est géré par une Commission Locale de l'Eau (CLE) dans le cadre d'un SAGE. Deux syndicats de bassin conduisent les travaux décidés au sein de la CLE : le Syndicat de Bassin de l'Oudon Nord et le Syndicat de Bassin de l'Oudon Sud. Les populations du secteur sont principalement alimentées par des eaux de surface car le socle armoricain schisto-grèseux offre des ressources souterraines limitées. La principale prise d'eau est située à Segré, elle alimente toute une partie du segréen. Des captages souterrains puisent également dans des nappes contenues dans les formations tertiaires de graviers et de sables et dans les fissurations du socle schisto-gréseux, ils alimentent de petites collectivités. Les volumes prélevés sur l'ensemble du bassin présentent une diminution sensible depuis 2004 (Figure 16), traduisant une évolution plus générale d'économie d'eau en France. Les prélèvements pour la production d'eau potable prédominent, l'irrigation représente cependant près du tiers du total, elle se concentre dans le sud du bassin. 56 Figure 16 : Prélèvements d'eau dans le bassin de l'Oudon (source : CLE Oudon, d'après données de l'Agence de l'Eau Loire Bretagne) Orientation agricole du bassin Selon les chambres d'agriculture du Maine et Loire et de la Mayenne, le Recensement Général Agricole de 2010 dénombre 2 625 exploitations sur le bassin. La surface agricole utile est de 1 282 km2 (déclarations PAC 2009), soit 87 % de la surface du bassin. L'orientation de la majorité des exploitations est l'élevage bovin lait et mixte, ce qui se traduit dans l'assolement par la forte présence des prairies et du maïs ensilage (Figure 17). Figure 17 : Assolement sur le bassin de l'Oudon en 2009 (en ha) (source : Chambres d'agriculture) Pollution par les nitrates La prise d'eau de Segré, qui alimente 4 200 foyers, est fortement polluée : le seuil de 50 mg.l-1 en nitrates ayant été fréquemment dépassé plus de 18 jours par an (Tableau 3), le prise d'eau de Segré aurait dû faire l'objet d'une fermeture temporaire à partir de 2012. De ce fait, un 57 raccordement à la Loire a été mis en place à partir d'Angers Loire Métropole, ce qui a représenté un coût important (comme nous le verrons par la suite). Mais comme depuis 2009, le nombre de jours de dépassement de la norme est inférieur à 18 jours, le préfet n'a pas suspendu l'utilisation du captage. Aujourd'hui encore les services de l'Etat attendent des actions plus volontaires. De l'efficacité du nouveau programme d'action agricole dépend l'avenir de l'alimentation en eau du bassin mais aussi le risque d'un durcissement de la réglementation des activités agricoles. Années 2004 2005 2006 2007 2008 2009 2010 2011 Nombre de jours dépassant 50 mg.l-1 NO3- par an 41 0 46 91 37 4 15 10 Tableau 3 : Nombre de jours de dépassement de la norme nitrates à la prise d'eau de Segré (source : CLE de l'Oudon) Figure 18 : Evolution des teneurs en nitrates de l'Oudon à Segré (Source : CLE de l'Oudon avec données ARS et DREAL Pays de Loire) L'évolution des teneurs en nitrates de l'Oudon à la prise d'eau de Segré (Figure 18) montre que les pollutions étaient plus élevées au début de la décennie 1990. Durant la décennie 2000, les concentrations maximales annuelles varient autour de 50 mg.l-1, les années de moindres concentrations sont des années de sécheresse comme 2004-2005. A l'échelle saisonnière, les maximums s'observent en hiver avec une montée rapide en automne et une baisse plus 58 progressive au printemps en lien vraisemblablement avec la dynamique des nappes souterraines. La pollution par les nitrates concerne l'ensemble des cours d'eau du bassin de l'Oudon, en niveau « mauvais » ou « très mauvais » (Figure 19). Prise d'eau de Segré Figure 19 : Carte de qualité SEQ-Eau en nitrates 2009-2010 (source : CLE de l'Oudon) Pollution par le phosphore L'évolution des teneurs en phosphore de l'Oudon à la prise d'eau de Segré (Figure 20) montre des similitudes avec la dynamique des nitrates : des concentrations beaucoup plus élevées durant la décennie 1990 et une amélioration à partir de 2000 accompagnée d'une certaine variabilité interannuelle qui peut s'expliquer par des facteurs climatiques. Les teneurs se situent sur cette seconde période en qualité « passable » ou « mauvaise » en hiver certaines années. La distribution spatiale des pollutions phosphorées indique une plus grande variabilité que celle des pollutions nitratées (Figure 21). Le sud du bassin, avec les affluents du Misengrain et de la Verzée, présente de meilleures qualités. Ceci peut s'expliquer par l'influence des flux d'origine urbaine plus variables dans l'espace. 59 Figure 20 : Evolution de la teneur en phosphore total dans l'Oudon à Segré (Source : CLE de l'Oudon, données ARS et Agence de l'eau Loire Bretagne) Prise d'eau de Segré Figure 21 : Carte de qualité SEQ-Eau en matières phosphorées 2009-2010 (source : CLE de l'Oudon) 60 Pollution par les produits phytosanitaires Le bassin de l'Oudon est également affecté par les pollutions dues aux produits phytosanitaires. Jusqu'aux années 2000, le nombre de molécules recherchées était réduit et la molécule la plus fréquemment mesurée était l'atrazine, une molécule fortement nocive pour la santé et relativement soluble et persistante dans le milieu. L'utilisation de l'atrazine a été interdite en 2003. Les mesures de pesticides en révèlent cependant jusqu'à présent, notamment à la suite des périodes de désherbage des maïs (0,7 μg.l-1 en juillet 2011 sur un des affluents), ce qui indique des utilisations illicites. Le nombre de molécules analysées s'est fortement accru tout particulièrement depuis 2006 (Figure 22). Les teneurs en produits phytosanitaires n'ont pas pour autant augmenté si ce n'est aux printemps 2007 et 2009. Figure 22 : Seuil max Pesticides totaux : eau distribuée = 0,5 μg.l-1 ; eau brute = 5 μg.l-1 (données ARS) Responsabilité de l'agriculture dans les niveaux de pollution En excluant les années sèches (moins de 650 mm.an-1), nous estimons que les flux d'azote provenant des zones urbaines représentent 9 à 13 % des flux d'azote mesurés à Segré (à partir des mesures des flux sortant des industries et en faisant l'hypothèse d'une charge en azote de 11 gN.hab-1.j-1 et de rendements moyens des systèmes d'épuration des eaux usées domestiques de 60 %). Nous estimons que les flux de phosphore d'origine urbaine s'échelonnent de 22 à 39 % des flux mesurés à Segré, en excluant les années sèches (à partir des mesures des flux sortant des industries qui représentent près des 2/3 des flux urbains et en supposant des émissions de 2,9 gP.hab-1.j-1 et des rendements épuratoires moyens des systèmes d'épuration des eaux usées domestiques de 50 %). En année sèche, les flux mesurés en phosphore et en azote sont constitués essentiellement des rejets urbains. En année normale, l'agriculture est donc la principale source de pollutions azotée et phosphorée sur le bassin de l'Oudon : de près de 90 % pour l'azote et de 60 à 80 % pour le phosphore (hormis en année sèche). Coûts pour la collectivité Des captages souterrains et la prise d'eau sur l'Oudon au Lion d'Angers ont dû être abandonnés du fait de leur contamination. Le coût de cet abandon et du remplacement par d'autres ressources n'a pas été chiffré. La pollution du captage de Segré a nécessité le développement d'interconnexions avec les eaux de la Loire. En 2005, les interconnexions avec SIAEP d'Ancenis, ont représenté un investissement de 1 600 000 €. Comme le captage de Segré va être fermé provisoirement en attendant de retrouver une qualité satisfaisante, une 61 interconnexion est en cours d'achèvement avec Angers Loire Métropole, l'investissement s'élève à 3 200 000 €. Pour prévenir les pollutions agricoles différents programmes ont été et sont encore conduits, ils représentent les coûts suivants (entretien avec l'animatrice du SAGE de l'Oudon) : • 1er programme d'action agricole (2004-2008) : 840 291 € (hors animation) ; • 2ème programme partie agricole du Contrat territorial (2009-2013) : 1 599 800 € ; • Mesures agro-environnementales territoriales : o Diagnostics préalables / Animation = 100 000 € ; o MAET (engagées sur 2007 à 2010) = 1 488 070 € ; • Mises aux normes des bâtiments agricoles du PMPOA 2 (2002-2006) : 4 425 022 €. Réglementation spécifique mise en oeuvre pour la réduction des pollutions agricoles Le bassin de l'Oudon est en Zone d'Action Complémentaire (ZAC) selon la directive Nitrates. Ainsi, le seuil réglementaire par exploitation de la charge azotée produite par les effluents d'élevage est de 170 kgNorg.ha-1.an-1 (jusqu'à octobre 2011, ce calcul était réalisé par rapport à la surface potentiellement épandable, selon la directive Nitrates, ce qui excluait les surfaces en protéagineux, il est à présent calculé par rapport à la Surface Agricole Utile). Cet indicateur donne une image de la pression structurelle en azote organique. Selon les données présentées par les chambres d'agriculture (issues des analyses des plans de fumure de la chambre d'agriculture de la Mayenne en 2008 et de l'enquête déclarative sur la zone vulnérable, DDT de Maine et Loire en 2010), la charge organique moyenne est de 95 kgN.ha-1.an-1 en Maine-et-Loire et de 106 kgN.ha-1.an-1 en Mayenne. 15 % des exploitations dépassent le seuil en azote organique de 170 kgN.ha-1.an-1. La réglementation ZAC impose également une limite de 210 kg d'azote total.ha-1 épandable, en intégrant donc l'azote minéral et organique. Selon les chambres d'agriculture, 4 % des exploitations dépassent le seuil de 210 kgN.ha-1 en Maine-et-Loire et 19 % en Mayenne. Les apports en azote se composent de 55 % d'organique et de 45 % de minéral sur le bassin. Si ces deux indicateurs de charge globale à l'échelle de l'exploitation sont largement respectés (hormis par une petite minorité), ils n'expriment pas les risques réels qui dépendent de la répartition effective de cette charge sur les parcelles de l'exploitation et de facteurs du milieu comme l'atteste le niveau élevé de pollution du cours d'eau (pour des raisons que nous détaillerons par la suite). Le captage de Segré est classé prioritaire dans le Grenelle de l'environnement (captages fortement atteints par la pollution). Il est donc susceptible de faire l'objet d'une procédure ZSCE (Zones Soumise à des Contraintes Environnementales). La situation deviendrait alors fortement contraignante pour l'agriculture en imposant des actions sous le poids du réglementaire, sans indemnisation compensatrice. L'élevage serait ainsi particulièrement touché car cette procédure se manifeste notamment par un abaissement des seuils d'azote d'origine organique à l'hectare ce qui se traduirait par une nécessaire extensification des systèmes d'élevage, voire leur abandon dans certaines exploitations. Une autre menace sur l'activité agricole est le risque de contentieux comme en Bretagne : une association ou un tiers pourrait porter plainte pour non respect de la qualité de l'eau ce qui générerait des mesures réglementaires spécifiques à ce bassin pour diminuer la pression agricole. Ces deux perspectives inquiètent la profession et constituent ainsi une incitation à agir avant d'aboutir à ces situations. 62 La Commission Locale de l'Eau et ses actions en direction du monde agricole La CLE de l'Oudon a été mise en place en 1997. Elle oeuvre sur le bassin versant afin de réduire les pollutions. La voie qui a été retenue est d'engager un processus de concertation et d'associer la profession agricole à l'élaboration des programmes d'actions. Du point de vue organisationnel, un Comité de pilotage à vocation agricole rassemblant l'ensemble des professionnels a été constitué au sein de la CLE et a défini un premier programme d'actions de 2004 à 2008, puis un second de 2009 à 2012. Différentes démarches sur le volet de la communication, de la formation, du conseil, des diagnostics, comme sur le volet de l'aide financière à l'équipement, à la réalisation d'actions favorables à la qualité de l'eau ont été mises en oeuvre. Des évolutions nettes ont été relevées en matière de pratiques agricoles depuis 2000 (selon les enquêtes réalisées par les Chambres d'Agriculture) : des pressions d'azote et de phosphore organiques en baisse, une meilleure répartition des effluents d'élevage, plus de précautions quant à l'usage des produits phytosanitaires Les actions conduites sur le bassin se manifestent par une évolution favorable de la qualité de l'eau à Segré (station en aval du bassin qui intègre ainsi les effets sur l'ensemble de l'amont) comme le montrent la Figure 18 et la Figure 20 (concentrations en nitrates et en phosphore). Néanmoins, le respect de la réglementation agricole comme les actions volontaires ne suffisent pas encore à obtenir une qualité satisfaisante pour l'alimentation en eau potable. Des Mesures Agro-Environnementales Territoriales sont mises en oeuvre sur trois sousbassins : l'Araize, le Chéran et le Mizengrain (situés dans le sud-ouest du bassin de l'Oudon). Elles ont été souscrites par 53 exploitations sur un total de 320 sur ces sous-bassins (2 625 pour l'ensemble de l'Oudon, selon le RGA 2010) et y ont représenté environ 10 % de la SAU. Les mesures retenues sur cet espace sont d'une durée de 5 ans (source : CLE de l'Oudon) : - MAET Conversion à l'Agriculture Biologique (CAB) : la mesure accompagne les exploitations en conversion pour partie ou en totalité de leur parcelles vers l'agriculture biologique. L'aide s'élève à 200 €.ha-1.an-1 pour les cultures annuelles et les prairies temporaires et à 100 €.ha-1.an-1 pour les prairies permanentes. - MAET Systèmes Fourragers Economes en Intrants (SFEI) : la mesure favorise les systèmes fourragers à base de prairie et incite à la réduction des fertilisants de synthèse et des produits phytosanitaires. L'aide s'élève à 130 €.ha-1.an-1. L'ensemble de l'exploitation doit respecter le cahier des charges : o Assolement : 55 % de la Surface Agricole Utilisée et 75 % de la Surface Fourragère Principale doivent être en herbe (prairies permanentes et temporaires), moins de 18 % de la surface fourragère doivent être en maïs (hors maïs grain et semences) ; o Achat de concentrés pour l'alimentation animale plafonné à 800 kg.an-1 par UGB bovine ou équine (UGB : unité de gros bétail) et 1000 kg.an-1 par UGB ovine et caprine ; o Fertilisation : 1 apports azotés annuels totaux produits et importés limités à 170 kgN.ha-1 en moyenne sur l'exploitation, 1 apports azotés organiques annuels totaux produits et importés limités à 140 kgN.ha-1 en moyenne sur l'exploitation, 1 pas d'apport de phosphore minéral, 1 apport azoté minéral annuel sur chaque parcelle de culture plafonné par type de culture : • à 30 kgN.ha-1 sur les prairies, • à 0 kgN.ha-1sur maïs et sur betterave, • à 60 kgN.ha-1 sur céréales de printemps, 63 - - • à 100 kgN.ha-1 sur céréales d'hiver et colza. o Traitements phytosanitaires : 1 Interdiction d'emploi de régulateur et d'insecticide sur les céréales, 1 Limitation à une seule dose homologuée de fongicide sur les céréales, 1 Limitation à 70 % de la dose homologuée d'herbicides sur les cultures annuelles, 1 Destruction mécanique des couverts hivernaux et des prairies. MAET « herbe » : l'aide s'élève à 99 €.ha-1.an-1 pour les surfaces engagées. Le cahier des charges impose : o Absence de destruction des prairies permanentes engagées mais avec la possibilité d'un renouvellement par travail superficiel du sol ; o Un seul retournement des prairies temporaires engagées est autorisé durant les 5 ans de l'engagement ; o Absence de désherbage chimique à l'exception de traitements localisés, o Entretien mécanique des haies, o Absence d'écobuage ou de brûlage dirigé o Fertilisation : 1 Soit, limitation de la fertilisation azotée totale à 90 kgN.ha-1 et minérale à 30 kgN.ha-1, 1 Soit, absence de toute fertilisation minérale ou organique, l'aide est alors portée à 211 €.ha-1.an-1 pour les surfaces concernées. MAET « Grandes cultures » : il s'agit de réduire la fertilisation azotée sur les grandes cultures. L'aide s'élève à 137 €.ha-1.an-1 pour les surfaces engagées. Le cahier des charges impose : o Analyse annuelle de la valeur fertilisante de chaque type d'effluent épandu, o Seuil minimal de contractualisation : 50 % des surfaces en cultures, o Sur les parcelles engagées, fertilisation limitée à : 1 40 kgN.ha-1 en azote minéral, en moyenne sur l'ensemble des parcelles engagées, 1 140 kgN.ha-1 en azote total (minéral et organique y compris les restitutions par pâturage) sur chaque parcelle engagée, o Sur les parcelles non engagées, fertilisation limitée à : 1 210 kgN.ha-1 en azote total en moyenne sur l'ensemble des parcelles non engagées, 1 170 kgN.ha-1 en azote organique en moyenne sur l'ensemble des parcelles non engagées (hors apports éventuels par pâturage). Les MAET sont contractualisées sur une minorité d'exploitations. Elles ne concernent d'ailleurs pas toutes les parcelles au sein de l'exploitation. Selon l'avis des préconisateurs et des conseillers des chambres d'agriculture, ce sont les agriculteurs qui sont les plus proches des objectifs des MAET qui y ont souscrit afin d'obtenir une reconnaissance financière de leurs bonnes pratiques. L'impact sur le milieu a donc été faible et ce type de démarche de contractualisation ne peut pas résoudre les problèmes de pollution à l'échelle du bassin. Le rétablissement de la qualité des eaux de l'Oudon nécessite une évolution des pratiques d'un plus grand nombre d'agriculteurs. L'enjeu est de taille sur un grand bassin versant où il y a urgence à réduire les flux de nitrates, de phosphore et de produits phytosanitaires et il n'est pas possible de compter sur une transformation rapide et en profondeur des systèmes de production, ni même sur une généralisation des MAET. Des améliorations des pratiques pourraient avoir a priori des effets sensibles si elles étaient généralisées : une meilleure répartition des effluents d'élevage, une réduction de la durée des sols nus par des cultures intermédiaires, un bonne gestion de bandes enherbées le long des cours d'eau, une 64 préservation des zones humides, etc. La dynamique est en cours sur le bassin et son observation permet d'identifier des avancées et des difficultés à surmonter, représentatives d'une situation plus générale que nous pouvons retrouver dans d'autres terres d'élevage notamment. Pour identifier les freins et les leviers à un changement des pratiques agricoles, nous nous appuyons sur les discussions ayant eu lieu avec les préconisateurs d'organismes agricoles. Lors de huit journées dédiées à la question de la pollution agricole, organisées par la CLE, des groupes d'une douzaine de préconisateurs ont été constitués et ont donné lieu à des échanges sur les facteurs explicatifs ainsi que sur les leviers et les freins à l'évolution des pratiques dans le bassin. Les préconisateurs sont des technico-commerciaux de l'agrofourniture et des coopératives qui conseillent les agriculteurs sur leurs choix culturaux, leurs pratiques agricoles et qui réalisent les plans de fumure avec eux. Ils connaissent bien le contexte dans lequel les agriculteurs raisonnent, leurs objectifs, leurs perceptions de l'environnement, leurs contraintes de production. Ces discussions sont riches d'enseignements. En effet, comme l'écrit P. Milleville (en parlant des problèmes rencontrés par la diffusion de modèles fondés sur la maximisation des rendements), « pour devenir une pratique, la technique doit prendre place dans une organisation qui a ses finalités, ses règles et ses contraintes » (Milleville, 1999). Les techniques de réduction des pollutions deviennent des pratiques réelles si elles entrent en adéquation avec l'ensemble du contexte de production de l'exploitant. Il faut tenir compte des situations dans lesquelles se trouvent les agriculteurs et de la diversité de ces situations, pour mieux identifier les facteurs favorisant ou s'opposant à la diffusion de pratiques plus respectueuses de l'environnement. Les facteurs expliquant les pollutions sur l'Oudon Différents facteurs expliquent l'ampleur des pollutions diffuses sur le bassin : • Les apports organiques se concentrent sur le maïs, culture qui présente une forte capacité d'absorption, des avantages en matière de période d'épandage (au printemps avant le semis) mais aussi des risques importants de lessivage en laissant le sol nu en automne à la suite de la récolte. Les apports sont donc importants, voire bien souvent excédentaires sur cette culture. Le maïs constituant la plus grande partie du fourrage de la majorité des exploitations, les agriculteurs ont tendance à maximiser sa production. Or, la fréquence d'été secs et la réserve utile des sols peu élevée dans le secteur ne permettent pas d'atteindre les rendements espérés chaque année ce qui génère des reliquats d'azote dans les parcelles en maïs à la suite de la récolte. • Les valeurs fertilisantes des effluents ne sont pas assez connues et prises en compte. • Les mises aux normes des bâtiments d'élevage réalisées au début des années 2000 sont dans de nombreux cas insuffisantes aujourd'hui en matière de capacité suite à l'agrandissement des structures. Cela génère des insuffisances de stockage qui poussent alors à épandre au mauvais moment ou en trop grande quantité sur les parcelles disponibles lorsque les fosses ou les aires de stockage sont pleines. • Le plan de fumure rendu obligatoire en zone vulnérable selon la directive « Nitrates » est le plus souvent réalisé uniquement pour respecter la réglementation. Sur le papier, il y a un équilibre de la fertilisation, mais dans la réalité, les apports intègrent d'autres contraintes comme par exemple la proximité entre les parcelles et les bâtiments d'élevage, dans un contexte d'agrandissement des structures et donc d'éloignement de certaines parcelles où il est plus contraignant d'apporter des effluents (Marie et al., 2009). 65 • • • • • • L'allongement et la diversification des rotations, notamment avec des prairies temporaires, permettent de réduire l'usage de produits phytosanitaires en cassant le cycle des adventices, maladies et parasites. Mais la hausse du prix du blé depuis 2007 n'incite pas à leur développement car, lorsque le sol le permet, la préférence est donnée à cette culture. Lors du retournement de prairie, il est interdit par la réglementation de fertiliser la culture suivante ce qui n'est fréquemment pas respecté car les agriculteurs craignent un manque d'azote, ne pouvant pas mesurer la minéralisation au cours de la saison. L'élevage régresse sur le bassin au profit des cultures, ceci est lié à l'évolution des prix (crise du lait en 2010, contexte difficile pour la viande bovine et augmentation tendancielle des prix des céréales depuis 2007), à la pénibilité du travail d'éleveur mais aussi à l'agrandissement progressif des exploitations (64 ha en moyenne au RGA 2010). Ceci se traduit par un recul des prairies au profit du blé, avec des risques accrus de lessivage d'azote, de phosphore et de produits phytosanitaires. L'arasement des haies est concomitante au recul de l'élevage et constitue une autre conséquence négative sur les transferts de polluants. L'agrandissement des exploitations en cours dans la région est lié à leur coût d'achat, relativement élevé (de 300 000 à 500 000 € pour une exploitation moyenne en élevage bovin, selon la Chambre d'Agriculture du Maine-et-Loire) difficilement accessible à des jeunes en installation. Or, selon les dires des préconisateurs et conseillers des chambres d'agriculture, ce sont les jeunes qui sont plus sensibles aux questions environnementales, à l'optimisation agronomique et qui sont le plus susceptibles d'adopter de nouvelles techniques, voire de nouveaux systèmes. Selon les préconisateurs et de nombreux agriculteurs, les niveaux élevés de pollution résultent aussi des pratiques de certains agriculteurs minoritaires qui ignorent sciemment les principes de la fertilisation équilibrée et de l'usage responsable des produits phytosanitaires (preuve en est l'usage illicite de l'atrazine interdit depuis 2003 et pourtant mesuré à des teneurs significatives dans les rivières jusqu'à présent). Ces agriculteurs ne participent pas aux réunions, ni aux journées d'information, ni aux démonstrations en « bout de champ » organisées par les chambres d'agriculture avec le soutien de la CLE. Inconscients de l'intérêt général, ils ne seraient sensibles qu'à des sanctions. Or, les sanctions de la part de la police des eaux ne seraient pas assez appliquées pour dissuader les agriculteurs récalcitrants au respect de la réglementation environnementale. Hormis ces comportements extrêmes, la perception des enjeux sanitaires sur l'eau potable n'est pas homogène sur le bassin : les agriculteurs de l'amont du bassin sont ainsi moins sensibles à la question de la qualité à la prise d'eau de Segré. Leviers favorables à une évolution des pratiques Différentes actions sont conduites par certains et nécessiteraient d'être renforcées et diffusées pour réduire les pollutions : • Une meilleure répartition de la charge organique par épandage des effluents sur les prairies et d'autres cultures que le maïs afin de réduire la charge organique sur cette dernière culture (les aléas de la minéralisation poussent à une sur-fertilisation et donc à des risques de lessivage en post-récolte). o Le colza (en développement surtout en 2009 et 2010 lorsqu'une prime a été mise en place sur cette culture) est à présent fertilisé en apports organiques. o Le compostage des fumiers est une voie pour adapter leur usage sur d'autres cultures que le maïs ou le colza. Depuis quelques années, certains agriculteurs 66 • • • • • fertilisent leurs prairies avec des lisiers ou des fumiers. Les résultats sont assez satisfaisants d'un point de vue agronomique mais le temps passé, l'équipement comme des craintes sanitaires freinent la diffusion de cette pratique (aménagement de plates-formes et équipement pour le retournement des andains afin d'oxygéner le fumier). Le blé n'est quasiment jamais fertilisé en effluents organiques (hormis avec du lisier). o L'échange de parcelles est pratiqué par certains (de façon informelle, sans déclaration, du fait de la lourdeur administrative de telles demandes) afin de réduire les déplacements, ce qui a un effet favorable sur la répartition des effluents. o La hausse du prix des engrais minéraux incite à leur économie et à une meilleure valorisation de l'azote des effluents. Dans une certaine mesure, le raisonnement environnemental peut ainsi converger avec le raisonnement économique. L'information sur l'épandage des effluents pourrait être améliorée par des mesures de teneurs en nutriments des effluents et par des pesées d'épandeurs (seuls 10 à 15 % des agriculteurs feraient des pesées selon les préconisateurs). Un accroissement du nombre de mesures des reliquats au champ en post-récolte permettrait de mettre en évidence les mauvaises pratiques de fertilisation. L'agriculteur pourrait ainsi mieux ajuster ses apports. Certains acteurs du bassin pensent d'ailleurs que ces mesures pourraient être utiles pour identifier les agriculteurs qui ne respectent pas les principes de la fertilisation équilibrée afin soit de les verbaliser, soit de leur proposer une formation. Un fractionnement des fertilisations permettrait de mieux répartir dans le temps les apports en fonction des besoins en s'adaptant à la situation climatique. Les bandes enherbées sont généralisées sur le bassin. Lorsqu'elles mesurent 6 m de largeur (cas le plus fréquent), les parcelles environnantes ne doivent pas recevoir d'épandage à moins de 35 m du cours d'eau. En réalité, rares sont les agriculteurs à respecter ces 35 m. Lorsque les bandes sont élargies à 10 m, l'agriculteur peut épandre jusqu'en limite de la bande, ce qui avantage la culture sans menacer plus fortement le cours d'eau. Cette alternative permettrait donc en réalité d'améliorer la situation. La généralisation des couverts végétaux ou cultures intermédiaires pièges à nitrates : les couverts sont obligatoires selon la directive Nitrates sur le bassin de l'Oudon. Ils ont été initialement perçus comme une contrainte représentant un coût et du temps sans utilité pour l'exploitation mais au fil des années, une grande partie des agriculteurs y ont trouvé un intérêt agronomique d'amélioration de la structure des sols. Certains agriculteurs diversifient d'ailleurs leurs couverts pour accroître leur efficacité : à la moutarde, moins coûteuse au semis, se substituent d'autres espèces (phacélie, vesce, pois, avoine, seigle parfois en mélange) qui pour certaines sont gélives, ce qui permet une destruction naturelle du couvert en hiver sans avoir à employer d'herbicides (ce dernier intérêt va dans le sens d'un meilleur respect de la réglementation départementale qui impose que la destruction chimique des couverts ne concerne pas plus de 33 % des surfaces en Maine-et-Loire et 50 % en Mayenne différence territoriale d'ailleurs difficilement justifiable). La proportion est bien respectée selon les préconisateurs. Néanmoins, si certains agriculteurs exploitent bien les capacités des couverts, les marges de manoeuvre restent encore importantes chez le plus grand nombre pour optimiser la production de biomasse et ainsi réduire le lessivage et l'érosion. Un accompagnement technique, des communications seraient utiles selon les préconisateurs. Cette technique favorable à l'environnement et à la 67 • • productivité des sols n'est cependant pas applicable dans toutes les successions à risques : ainsi, les couverts ne peuvent pas être mis en place entre un maïs et un blé. Si les agriculteurs ont acquis une conscience de la dangerosité des produits phytosanitaires et respectent les procédures de rinçage des bidons vides ou de gestion du fond de cuve des pulvérisateurs, il y a encore des marges de progrès pour éviter les pollutions ponctuelles notamment lors du remplissage ou pour mieux respecter des espaces non traités le long des cours d'eau. Un développement du raisonnement agronomique est nécessaire pour mieux prendre en compte les potentiels des sols composant l'exploitation, les besoins des cultures, la valeur fertilisante des effluents, l'intérêt des couverts Il conduit les agriculteurs à réduire les pertes et à éviter de gaspiller les fertilisants et les produits phytosanitaires. Les préconisateurs relèvent une évolution positive dans ce domaine : le conseil dans la lutte phytosanitaire s'est développé et les agriculteurs prennent beaucoup plus de précautions, l'usage des logiciels de calcul des bilans est aussi de plus en plus répandu et la jeune génération est plus réceptive. o Un conseil personnalisé avec une analyse du bilan économique, des conditions de travail et des impacts environnementaux permettrait de proposer une évolution du système d'exploitation plus adaptée à chacun. Le coût financier d'un tel conseil est élevé (2 500 € en moyenne) et peut être pris en charge à hauteur de 90 % par les organismes publics. Facteurs explicatifs des pratiques à risques - Surfertilisation du maïs, - Insuffisance de connaissances sur la valeur fertilisante des effluents et des reliquats d'azote des sols, - Equipement : faible dimensionnement des stockages d'effluents d'élevage, - Faisabilité technique : temps de transport des effluents dans des parcelles éloignées, - Evolutions favorables à renforcer Recul de l'élevage au profit des céréales 2 disparition des haies, prairies et appauvrissement des rotations, - Sanctions insuffisamment dissuasives pour le non respect des réglementations, - Perception insuffisante des liens entre pratiques et qualité cours d'eau. - Pilotage agronomique : répartition de la fertilisation organique, ajustement des apports en s'appuyant sur des mesures plus précises, fractionnement des fertilisations, raisonnement plus précis des fertilisations et traitements, accroissement de la biomasse de couverts végétaux, - Simplification de la manipulation des fertilisants organiques : échange de parcelles, élargissement des bandes enherbées / réduction distance d'épandage aux cours d'eau, - Conscience de la dangerosité des produits phytosanitaires. Tableau 4 : Facteurs explicatifs de pratiques à risques et leviers d'action pour les réduire Comme pour le Rochereau, l'expérience de l'Oudon nous montre que la réduction des pollutions d'origine agricole est un processus long qui demande la participation des acteurs du monde agricole et l'adhésion du plus grand nombre d'exploitants pour que les actions se 68 traduisent au niveau de la qualité de l'eau du bassin. La diffusion des techniques respectueuses de l'environnement prend du temps, la dynamique de leurs effets sur le milieu également. La restauration de la qualité de l'eau est un processus qui n'offre ses fruits qu'à moyen ou long terme. Nous pouvons relever l'importance de la mobilisation des acteurs locaux et l'ampleur des engagements financiers sur l'Oudon, pour une évolution certes significative mais insuffisante de la qualité de l'eau. Les agriculteurs respectent dans leur grande majorité la réglementation mais cela ne suffit pas pour atteindre les objectifs de qualité, une évolution plus poussée des pratiques est nécessaire. Des marges de manoeuvre sont encore présentes et peuvent être exploitées sans remettre en cause la productivité. L'adoption de pratiques plus respectueuses de l'environnement doit rimer pour le plus grand nombre avec un gain économique et ne pas engendrer de temps supplémentaire. En effet, dans le cadre de l'agrandissement des exploitations, les tâches ne peuvent se multiplier et la majeure partie des agriculteurs se refuse à prendre plus de temps pour le seul intérêt environnemental. Par ailleurs, les marges étant réduites, les agriculteurs n'adoptent que des mesures éprouvées, n'engendrant pas un risque sur la production. L'évolution ne peut donc se faire sans une adhésion réelle des agriculteurs vers des techniques qui allient un meilleur bilan environnemental à un respect de la rentabilité économique et de la charge de travail. 6. Conclusion sur les pollutions agricoles à l'échelle de bassins versants en France L'étude des deux bassins illustre la dynamique en cours sur de nombreux bassins versants français pour faire face à la dégradation de la qualité de l'eau par les activités agricoles (Figure 23). Un processus de négociation s'établit entre les agriculteurs et les gestionnaires de bassin afin d'élaborer des actions efficaces qui ne menacent pas l'économie des entreprises agricoles. Les agriculteurs sont dans leur grande majorité dans des stratégies d'adaptation : il ne s'agit pas de remettre en cause les systèmes de production mais de modifier les pratiques les plus à risques ou d'aménager leur espace de production. L'environnement est alors perçu comme une contrainte relativement légitime à présent sur ces bassins versants, tant qu'il n'interfère pas avec l'économie de l'exploitation. Mais le territoire – bassin versant ne fonctionne pas en système fermé. Les Agences de l'eau jouent un rôle important en incitant les acteurs à l'organisation et en contribuant au financement d'actions. La qualité de l'eau doit respecter les objectifs fixés par le Comité de bassin (Loire-Bretagne en l'occurrence) et l'Etat surveille étroitement l'évolution des pollutions sur les bassins dont les ressources sont utilisées pour la production d'eau potable. Si la qualité de l'eau ne respecte pas les normes (décidées à l'échelon européen), la distribution d'eau à partir de ces ressources peut être suspendue et des réglementations spécifiques mises en oeuvre afin de réduire la pression agricole. Les agriculteurs sur l'ensemble du bassin versant sont donc incités à réaliser des actions efficaces s'ils ne veulent pas être soumis à des réglementations plus contraignantes qui peuvent menacer la viabilité de leurs exploitations. 69 Figure 23 : Le système d'acteurs intra et extra-territoriaux dans la gestion des pollutions agricoles Face à la multiplicité des actions possibles, la question de leur efficacité respective reste ouverte. Une estimation des impacts positifs de telle ou telle alternative est nécessaire pour que les choix portent sur les actions les plus efficaces, qui produisent les résultats les plus significatifs à l'échelle du bassin versant, enjeu de l'alimentation en eau potable. Nous présenterons plus loin des méthodologies adaptées à ces besoins de connaissances. 70 2. La problématique agriculture – environnement au sud du Brésil La problématique des impacts environnementaux de l'activité agricole dans le sud du Brésil diffère évidemment de celle du nord-ouest de la France du fait du contexte bioclimatique, de l'orientation des productions, des structures agraires, des savoir-faire, de la culture des agriculteurs, du rôle des politiques, des réglementations Cependant, dans cette région, la protection des ressources en eau et plus largement celle de l'environnement deviennent un enjeu. Des questions similaires à celles qui se posent dans l'ouest de la France émergent ainsi : Comment inscrire le développement agricole en cohérence avec la finitude et la vulnérabilité des ressources naturelles ? Comment les agriculteurs perçoivent-ils les nouveaux enjeux ? Quelles actions conduisent-ils pour améliorer leurs impacts sur l'environnement ? Comment se construisent socialement et politiquement les nouveaux territoires de l'eau que sont les bassins versants ? Quelle place y tiennent les agriculteurs ? Quels sont les leviers d'une évolution des pratiques agricoles vers une meilleure prise en compte de l'environnement ? Au Brésil, les préoccupations environnementales se concentrent le plus fréquemment sur la forêt amazonienne. Cependant, d'autres biomes que la forêt tropicale sont également soumis aux pressions du développement agricole et soulèvent de nombreuses questions quant à la régulation et à l'adaptation des pratiques et des systèmes agricoles afin d'en réduire les impacts sur l'environnement. La Pampa forme l'un des biomes de l'Amérique du Sud. Elle représente 777 000 km2 dont 137 000 km2 au Brésil (Overbeck et al., 2007) où elle couvre le sud de l'Etat du Rio Grande do Sul. C'est une prairie subtropicale (appelée fréquemment « campos » au Brésil) interrompue de forêts galeries le long des cours d'eau. La Pampa possède une biodiversité importante : 3 000 espèces végétales (dont 450 espèces de graminées avec plus de 200 d'entre elles menacées d'extinction), 100 espèces de mammifères et 500 espèces d'oiseaux. 64 % de la couverture végétale originelle du biome ont été détruits au Brésil (source : Eduardo Vélez, biologiste à l'UFRGS), ce qui en fait l'un des biomes brésiliens les plus dégradés. La Pampa couvre une part importante de l'aire d'alimentation du plus grand aquifère d'Amérique du Sud, l'aquifère Guarani (Vianna, 2002), et des bassins des fleuves Paraná et Uruguay. Au Brésil, la Pampa constitue une aire importante pour l'élevage, la riziculture et le soja, bien qu'en recul relatif face à la croissance de ces productions dans le Centre-Ouest (Mato Grosso). La recherche qui est présentée ici s'appuie sur les travaux que nous avons conduits dans le cadre de l'accord CAPES-COFECUB : enquêtes auprès des gestionnaires, des techniciens et des agriculteurs, campagnes de terrain, analyse des données produites par le Comité de bassin de l'Ibicuí, travaux de master et bibliographie. Cette recherche a été réalisée en collaboration avec Jeannine Corbonnois (UM), Guillaume Leturcq (master puis doctorat UM), Leslie Lepiller (master UM), Roberto Verdum (UFRGS), Rosa Medeiros (UFRGS) et Ivo Mello (président du Comité de bassin de l'Ibicuí). Les résultats ont fait l'objet de plusieurs publications (Laurent et al., 2006; Leturcq et al., 2008; Laurent et al., 2009; Corbonnois et al., 2011). Plusieurs travaux de master de l'université du Maine ont été réalisés dans la zone (Leturcq, 2004; Plessis, 2004; Leturcq, 2005; Plessis, 2005; Lepiller, 2006; Sogue, 2011). 71 Figure 24 : Les régions et les État du Brésil 1. Le bassin versant de l'Ibicuí L'étude du bassin de l'Ibicuí illustre les enjeux de développement agricole et de protection des ressources naturelles des espaces ruraux de campos du Sud du Brésil. Situé dans l'ouest du Rio Grande do Sul, à une latitude voisine du 30ème parallèle sud, l'Ibicuí draine 45 694 km2 jusqu'à sa confluence avec le fleuve Uruguay. La population sur le bassin versant de l'Ibicuí est estimée en 2002 à 414 321 habitants (source : DRH/SEMA). La densité s'élève à 9,1 hab.km-2. La population est majoritairement citadine avec comme principaux centres urbains : Santa Maria, Uruguaiana, Santana do Livramento et Alegrete. Une grande partie de l'activité économique est liée à l'activité agricole : industries agro-alimentaires, agrofourniture, machinisme agricole et services à l'agriculture et à l'élevage. Le climat est de type subtropical humide. Les précipitations moyennes à São Borja, dans la vallée de l'Uruguay, au nord du bassin sont de 1 499 mm.an-1 (source : Worldwide Bioclimatic Classification System – WBCS, période 1944-1994). Régulièrement réparties durant l'année, elles présentent un maximum en avril avec 156 mm.mois-1 et un minimum en juillet avec 84 mm.mois-1. La température moyenne annuelle s'y élève à 21°C avec une moyenne mensuelle minimale en juillet de 15,6°C et maximale en janvier de 26,7°C. L'évapotranspiration potentielle y est de 1 059 mm.an-1 (Thornthwaite). Ce n'est qu'en décembre et janvier que l'évapotranspiration dépasse les précipitations, sans qu'un déficit hydrique n'apparaisse pour une réserve utile du sol de 100 mm (source : WBCS). Le bassin présente une certaine diversité géologique et géomorphologique (Figure 25) (Corbonnois et al., 2011) qui se reflète dans les activités agricoles (Lepiller, 2006) : • Le plateau au nord, formé de sols volcaniques fertiles : initialement couvert de forêt d'Araucarias, il a été colonisé par des Allemands et des Italiens à la fin du 19ème siècle (Pébayle, 1974; Claval, 2004), il est aujourd'hui consacré au soja dans de petites et moyennes propriétés familiales. • La dépression centrale gaúcha occupe la partie centrale et méridionale du bassin. Elle est constituée de grès et de sables dans sa majeure partie et de roches métamorphiques 72 • et cristallines à l'extrême sud-est. Elle a été colonisée depuis le 17ème siècle par des Espagnols puis par des Portugais, elle est dominée par l'élevage extensif associé à la riziculture dans les fonds de vallée irrigables et au soja sur les collines (le soja donne des rendements moindres dans la dépression centrale que sur les plateaux volcaniques - par exemple 8 qtx.ha-1 à Alegrete contre 22 qtx.ha-1 à Palmeira das Missões). Le système foncier dominant correspond à des latifundias de plusieurs milliers d'hectares. La plaine d'Uruguaiana à l'ouest, est formée principalement de basaltes, recouverts de sols généralement peu épais et caillouteux et de dépôts alluviaux. La riziculture partage cet espace avec l'élevage bovin extensif. Le système foncier est constitué de moyennes et de grandes propriétés. Dans ces dernières, la location est fréquemment pratiquée par des riziculteurs sur des surfaces de quelques dizaines jusqu'à une centaine d'hectares. Figure 25 Les unités de relief du bassin de l'Ibicuí (d'après MNT SRTM – Schuttle Radar Topography Mission, 90 m). 1 : zone soumise à l'érosion des sables ; 2 : reliefs de dissection ; 3 : plateau ; 4 : retombée occidentale du massif ancien ; 5 : vallée de l'Ibicuí et plaine d'Uruguaiana ; 6 : talus principal ; 7 : limites du bassin-versant (Corbonnois et al., 2011) 73 Figure 26 : Activités agricoles sur le bassin de l'Ibicuí : part pâturée dans la surface totale des municipes et part des différentes cultures dans l'assolement des terres arables (source IBGE, 2006) Figure 27 : Taille des propriétés agricoles dans le bassin de l'Ibicuí (source IBGE, 2006) 74 Figure 28 : Surfaces relatives des cultures annuelles dans le bassin de l'Ibicuí (source IBGE, 2006) Rizière dans une vallée amont Rizière dans la vallée de l'Ibicuí Forêt et polyculture familiale sur l'escarpement Pâturages de la pampa et retenue collinaire pour la riziculture Figure 29 : Paysages du bassin de l'Ibicuí 75 29 775 exploitations sont dénombrées dans le bassin (source : IBGE, Censo Agropecuário, 2006). La surface moyenne mise en culture ou en pâturage d'une exploitation est de 123 ha. Les cultures annuelles couvrent 18 % du bassin, les pâturages en représentent 50 %. Seul un quart des exploitations dispose d'un tracteur (IBGE). Le nombre de têtes de bovins sur l'Ibicuí avoisine les 2 475 000 (en pondérant le nombre de têtes par municipío du recensement IBGE en fonction de la surface circonscrite dans le bassin, source : IBGE, Censo Agropecuário, 2006). L'élevage se concentre dans la plaine. Il est pratiqué sur des pâturages extensifs permanents ou sur les parcelles cultivées en rotation avec des céréales ou du soja. Les exploitations d'élevage sont généralement de grande étendue. Les conditions climatiques subtropicales, la topographie légèrement ondulée avec des fonds de vallée élargis et l'abondance de la ressource en eau sont favorables à la riziculture. Les rendements en riz sont relativement élevés dans la région (70 à 80 quintaux par ha). L'État du Rio Grande do Sul est d'ailleurs au premier rang dans la production de riz au sein de la fédération brésilienne, avec 6 875 077 t en 2010 (dont 507 788 t produites dans le municipío d'Uruguaiana, au premier rang national), pour une production nationale de 11,4 millions de tonnes. Des céréales d'été (maïs et sorgho) et d'hiver (avoine et blé) sont également cultivées (IBGE, Recensement, 2006). Le maïs régresse. L'avoine est souvent introduite dans les successions comme céréale d'hiver après la récolte de soja, de riz ou de maïs. 2. Les enjeux environnementaux sur le bassin de l'Ibicuí Les sols du bassin présentent une vulnérabilité à l'érosion variable. La partie médiane qui est formée de grès et de sables (séries de Botucatu et de Rosario) est couverte de formations superficielles sableuses particulièrement vulnérables à l'érosion. Des formes spectaculaires de ravinement et des aires d'ensablement dépourvues de végétation apparaissent dans ce secteur. Ces processus d'érosion atypiques en milieu humide ont été étudiés par les géographes de l'UFRGS (Université Fédérale du Rio Grande do Sul) et qualifiés de processus « d'arenização » (Suertegaray, 1988; Verdum, 1997; Suertegaray et al., 2001). Ils existent en condition naturelle, mais peuvent être activés par le travail du sol ou le pâturage (Corbonnois et al., 2011). Par ailleurs, les sols cultivés sont soumis à l'ablation des particules lors d'événements pluvieux intenses comme il s'en produit fréquemment dans la région : la précipitation maximale quotidienne peut dépasser les 100 mm.j-1 (Verdum, 1997). Les sables entraînés par l'érosion provoquent une charge sédimentaire élevée dans les rivières (Ibicuí signifie d'ailleurs « la rivière de sable » en Tupi-Guarani). Les ressources en eau du bassin versant de l'Ibicuí sont fortement sollicitées par l'irrigation qui représente 89,0 % des prélèvements totaux, suivie par l'alimentation en eau à destination humaine avec 9,4 % et l'abreuvement du bétail 1,6 % (SEMA, 2003; Laurent et al., 2009). La demande pour l'irrigation correspond à la saison chaude, avec un pic en décembre et janvier. Les barrages n'ont cessé de se multiplier depuis des décennies. Le sud du bassin atteint aujourd'hui les limites d'extension de la riziculture du fait de l'exploitation importante des ressources en eau en été et de la vulnérabilité naturelle aux étiages liée à la nature sableuse des roches. L'Ibicuí connaît des ensablements récurrents liés à l'érosion des sols en amont, d'où la nécessité de réduire ces phénomènes. D'autres enjeux sont d'ordre qualitatif avec les rejets urbains et les effluents d'élevage qui sont responsables d'une pollution fécale (UFSM, 2005). L'élevage produit des volumes importants de déjections susceptibles d'être lessivées jusqu'au cours d'eau. Toute une partie de la population urbaine n'est pas raccordée aux réseaux d'assainissement (84 % par exemple à Alegrete, une ville de plus de 78 000 habitants) et les stations d'épuration qui existent ont un rendement insuffisant (Lepiller, 2006). La biodiversité des écosystèmes de pampa a souvent été négligée pourtant il a été relevé une grande richesse biologique (Suertegaray et al., 2001; Overbeck et al., 2007). La ripisylve 76 constitue par ailleurs un enjeu à double titre : en tant qu'écosystème et pour la protection naturelle qu'elle offre aux cours d'eau contre des flux de polluants et de sédiments provenant des versants. La ripisylve est protégée par une loi fédérale qui impose le respect d'une Aire de Protection Environnementale (APP) le long de cours d'eau. Les municipios doivent assurer la surveillance de la forêt rivulaire, ce qui n'est pas suffisamment appliqué. La loi impose par ailleurs une absence de mise en culture à moins de 100 mètres des barrages, cette règle est fortement remise en cause par les riziculteurs qui ont aménagé des barrages en terre pour l'irrigation et qui perdent ainsi des surfaces importantes. L'agriculture présente ainsi de multiples impacts sur le milieu qui nécessitent des actions de correction dans les exploitations et une régulation collective. Nous nous sommes intéressés aux perceptions et aux actions conduites par les agriculteurs en matière de conservation des sols et d'utilisation de l'eau (Leturcq et al., 2008) et à leur participation à la gestion collective des ressources en eau (Laurent et al., 2009). Perceptions et actions des agriculteurs en matière environnementale L'étude du bassin de l'Ibicuí permet d'identifier plus précisément les freins et les leviers à une gestion plus durable des ressources en eau et en sol dans le biome de la Pampa. Pour cela, il nous est apparu nécessaire de mieux comprendre les logiques des agriculteurs : Comment les agriculteurs perçoivent-ils leurs impacts sur l'environnement ? Constituent-ils pour eux des enjeux ? Comment raisonnent-ils leurs pratiques, avec quels réseaux ? Quelles sont les interactions avec les pouvoirs publics ? Pour répondre à ces questions, nous avons réalisé des enquêtes auprès de 23 agriculteurs. Il s'est agit de mettre en évidence leurs perceptions de l'environnement, leurs modes de gestion et d'identifier les variables sociales au sein de l'échantillon expliquant des différences de comportement. Des innovations favorables à l'environnement et motivées par des gains de production Si la communauté scientifique est consciente des enjeux environnementaux dans cette zone, il en va autrement de la majorité des agriculteurs qui perçoivent difficilement les liens entre leurs pratiques et l'état de leur environnement. Des risques de manque d'eau sont perçus par certains, mais ils sont attribués essentiellement à la sécheresse et non à une surexploitation des ressources, la pollution par les pesticides est quant à elle négligée. L'érosion des sols dans les zones de tâches de sable (nommées « déserts ») n'est pas considérée comme un enjeu, ces espaces sont jugés improductifs depuis longtemps et ne menacent pas la rentabilité globale des exploitations. Des actions sont toutefois réalisées par un nombre non négligeable d'agriculteurs : conservation des sols, économies d'eau, protection de la forêt native L'enquête souligne que les actions favorables à l'environnement sont adoptées lorsqu'elles convergent avec une meilleure rentabilité de leur exploitation ou tout au moins lorsqu'elles n'engendrent pas de coûts supplémentaires. L'érosion en nappe au sein des parcelles cultivées est une préoccupation forte car elle menace la productivité des sols à moyen terme, ceci a conduit une grande partie d'entre eux à passer au semis direct (non labour). La protection des sols contre l'érosion au moyen de ce système contribue à réduire la charge sédimentaire dans les cours d'eau et les problèmes d'ensablement. La conversion au semis direct a été amorcée dans les années 1990, elle a été motivée par la réduction de l'érosion mais aussi par la réduction des charges d'exploitation (carburants, tracteurs et outils de travail du sol). Néanmoins, le semis direct recouvre différentes pratiques dont l'efficacité en matière de conservation des sols est variable. Une minorité d'agriculteurs a adopté le système de semis direct sur couvert végétal associant au non labour des cultures intermédiaires qui enrichissent le sol en matière 77 organique, avec un maintien des résidus à la surface du sol et le respect de rotations longues avec différentes cultures. La diffusion de ce système efficient dans les dimensions environnementales et économiques est un enjeu important pour le développement agricole de la région (Diaz-Zorita et al., 2002; Sisti et al., 2004; Zinn et al., 2005; Mello, van Raij, 2006; Calegari et al., 2008). Il apparaît clairement que les agriculteurs sont ouverts à l'information sur les questions environnementales et que certains sont prêts à évoluer dans leurs pratiques. Mais, les campagnes de sensibilisation manquent, les coopératives et les syndicats ruraux pourraient être des relais pertinents pour mobiliser une majorité d'agriculteurs. Les réseaux professionnels sont en effet encore peu préoccupés par les enjeux environnementaux. Les pouvoirs publics ont quant à eux peu de contact avec les agriculteurs. Les comités de bassin sont des structures de concertation ouvertes aux agriculteurs, ces lieux d'échange et de décision pourraient également développer l'information voire soutenir techniquement et matériellement des actions en collaboration avec des organismes professionnels agricoles, si leurs moyens financiers le leur permettaient (absence actuelle de redevance). L'eucalyptus et son instrumentalisation environnementale Les campos du sud du Brésil (et plus généralement le biome de la Pampa) font aujourd'hui l'objet de vastes plans de boisements d'espèces exotiques pour la production de pâte à papier (Overbeck et al., 2007; Gautreau, Merslinsky, 2008). Les espèces employées sont les eucalyptus, et dans une moindre mesure les pins et les acacias. Les eucalyptus croissent rapidement et sont coupés au bout de 6 à 9 ans pour la production de pâte à papier. Ils permettent de « valoriser » des sols pauvres, voire dégradés par l'érosion. Ils s'étendent à présent aux dépens des prairies naturelles : de grandes exploitations d'élevage sont rachetées par des groupes de l'industrie de la pâte à papier et sont intégralement boisées sur des centaines d'hectares. Les surfaces concernées sont donc considérables, selon nos analyses par télédétection, les plantations d'eucalyptus seraient passées de 4 101 ha en 2001 à 19 472 ha en 2009 sur le bassin de l'Ibicuí (Sogue, 2011). Cette évolution pose des problèmes à de nombreux habitants de la Pampa et divise la société locale. Les boisements sont défendus par certains au nom du développement économique et d'arguments environnementaux car les eucalyptus recolonisent des terres dégradées. On assiste ainsi à une certaine instrumentalisation de l'érosion et de l'arenização en particulier. Les eucalyptus sont plantés en effet sur les sols les moins fertiles et sont censés lutter contre l'extension des taches de sable qui menaceraient la région (les travaux des géomorphologues démontrent pourtant que ces taches ne sont pas en extension). Les intérêts de la sylviculture industrielle se trouvent légitimés par des arguments environnementaux qui s'appuient également sur l'image « écologique » du reboisement. Une usine de transformation fonctionne dans la région urbaine de Porto Alegre (Aracruz), deux autres usines sont en projet : à Pelotas avec la société Votorantin et à Alegrete avec la société Storaenzo. Le développement de l'eucalyptus intéresse aussi certains agriculteurs qui le considèrent comme un moyen d'accroître la productivité des exploitations sur des sols peu fertiles et une voie de substitution à l'élevage bovin viande en crise depuis les années 1990. Une partie de la population locale considère l'eucalyptus comme une chance pour redynamiser cette région excentrée et en déprise et espère que la filière créera de nouveaux emplois. Mais le projet est très contesté par d'autres groupes sociaux : des écologistes qui s'inquiètent de l'effet de la monoculture sur le régime hydrologique, des enzymes employées pour la décomposition des souches et des toxines générées par les eucalyptus sur la qualité des eaux. D'autres segments de la population considèrent l'eucalyptus comme une menace pour le paysage traditionnel des gaúchos, constitué de prairies ouvertes (Ribeiro, 2008). D'autres enfin s'inquiètent de l'accroissement de la valeur du foncier lié à la sylviculture commerciale qui va entrer en concurrence avec 78 l'agriculture familiale (agriculture caractérisée par la prédominance du travail familial et dont l'objectif économique est d'assurer les revenus de la famille). Des mouvements de protestation sont organisés avec des manifestations allant jusque dans la capitale de l'Etat, Porto Alegre. L'autorisation de plantation d'eucalyptus est délivrée par l'IBAMA depuis novembre 2007 (auparavant c'était la FEPAM, Fundação Estadual de Proteção Ambiental, sous l'autorité du gouvernement du RS), l'Etat fédéral semble ainsi vouloir contrôler l'expansion de la sylviculture présentant de forts enjeux sociaux et environnementaux. L'état du Rio Grande do Sul avait auparavant établi un zonage qui autorisait 100 000 ha de plantation l'eucalyptus, sur l'ensemble de l'état. Figure 30 : Plantations d'eucalyptus sur le bassin de l'Ibicuí 3. Le comité de bassin de l'Ibicuí : une forte participation mais un manque de moyens Pour ne pas alourdir la lecture, nous ne présentons pas ici les principes et les outils de la gestion de l'eau au Brésil. Une synthèse bibliographique est effectuée dans une de nos publications (Laurent et al., 2009). Le comité de bassin de l'Ibicuí constitue une expérience de gestion concertée des ressources, issue d'une initiative locale. En 1998, dans l'esprit de la loi sur l'eau de l'Etat du Rio Grande do Sul (Canepa, Timm Grassi, 2000), la mairie, le Conseil Municipal de Développement Agropastoral et le Syndicat Rural d'Alegrete, municipe situé au centre du bassin, ont décidé d'organiser des réunions avec les représentants d'autres municipes et du milieu professionnel et associatif sur l'ensemble du bassin. Une commission provisoire a été constituée suite à ces réunions avec des acteurs du domaine. Elle avait pour but de définir les principes d'une composition équilibrée du futur comité de bassin. En 2000, sa proposition fut retenue par le Département des Ressources en Eau de l'Etat du Rio Grande do Sul qui organisa les élections auprès des institutions identifiées. Les collèges du comité représentent différents segments de la société : les usagers de l'eau (dont les irrigants constituent un groupe prédominant), la population, les pouvoirs publics et les organismes de contrôle et d'autorisation de prélèvements et de rejets polluants (Lepiller, 2006). Les irrigants participent activement au comité, ainsi les présidents qui se sont succédés à sa tête sont des riziculteurs ou des agronomes, la secrétaire du comité qui joue un rôle d'animation est rémunérée par l'association des riziculteurs (en l'absence de redevance). Ceci oriente bien entendu la politique du comité. Le comité gère les autorisations de prélèvement et limite le développement de l'irrigation dans certains espaces critiques. En effet, si l'eau est en apparence abondante (précipitations de 79 1 400 à 1 700 mm.an-1), le sud du bassin de l'Ibicuí souffre ces dernières années d'une pénurie estivale liée à l'excès de prélèvements agricoles et à la moindre productivité des nappes souterraines. Les actions du comité portent également sur la communication et l'éducation à l'environnement lors de forums, de séminaires ou de foires agricoles ou par des médias avec une forte participation des acteurs territoriaux. Le Comité vient de lancer un diagnostic pour définir un scénario prospectif d'évolution des usages de l'eau et de l'état du bassin à moyen terme (4 à 12 ans). Un plan d'actions sera ensuite défini afin de fixer les objectifs de qualité et de débit minimal et les usages à développer sur chaque sous bassin. Ce plan sera soumis à une consultation publique. Figure 32 : Le Rio Ibicuí à Manoel Viana Figure 31 : Poster de sensibilisation sur la qualité de l'eau de l'Ibicuí au siège de l'association des riziculteurs Ces avancées démontrent les capacités de gestion concertée de l'eau sur ce territoire. Les membres du comité perçoivent en tous cas une solidarité les unissant avec une volonté d'agir pour un patrimoine commun. Mais ces actions de communication sont de fait consensuelles, elles ne heurtent pas les intérêts sectoriels. Or, dans l'avenir, il sera de plus en plus nécessaire d'adapter la demande croissante de la riziculture à la disponibilité des ressources, variable selon les substrats géologiques et les types de sols, ce qui risquera de limiter le développement agricole dans le sud du bassin et suscitera forcément des tensions. Ne serait-ce que pour faire respecter la loi fédérale qui impose de maintenir les espaces naturels le long des cours d'eau, le comité devra également assurer la protection et la restauration des ripisylves qui ont été fortement dégradées pour laisser place à la riziculture (Laurent et al., 2009). Or, comme les riziculteurs ont un poids très important dans l'économie locale, les orientations du Comité respecteront nécessairement en priorité leurs intérêts. Les actions impliquent une dimension financière, mais aucune redevance n'est encore prélevée, ce qui limite pour l'instant les moyens d'une politique. La mise en place de cette redevance sur les prélèvements et sur les rejets suscitera également des résistances. 80 4. Conclusion sur la relation agriculture – environnement dans le Sud du Brésil La demande alimentaire mondiale est en forte croissance et le Brésil est devenu en peu d'années une puissance agricole de premier plan, notamment en ce qui concerne la production de soja, matière première stratégique pour l'élevage (Théry, 2011). Le Sud du Brésil est l'un des grands pôles de production du soja (avec le Centre-Ouest, à présent). Le riz et le maïs connaissent également un accroissement notable en lien avec l'évolution de la consommation mondiale en céréales et une forte demande intérieure. L'eucalyptus constitue quant à lui une matière première importante pour la fabrication de pâte à papier et est perçu par les propriétaires fonciers comme un moyen pour valoriser économiquement les sols de faible fertilité. Ainsi, l'augmentation des prix des produits agricoles incite les agriculteurs à étendre les surfaces cultivées et les boisements artificiels aux dépens des pâturages naturels et à intensifier les systèmes de production. Dans un espace aux sols fragiles et aux ressources en eau qui seront confrontées à la demande croissante de l'irrigation, l'enjeu majeur est la mise en place d'une régulation collective où les agriculteurs participent afin que les gains de production ne se fassent pas aux dépens des ressources naturelles. Pour assurer la cohérence entre développement agricole et protection de l'environnement, se pose alors la question des outils de suivi du bassin au moyen de mesures et d'indicateurs pour évaluer les impacts des activités agro-pastorales, dans le temps et dans l'espace, approches qui font encore défaut dans cette région. 81 3. La place de l'agriculture familiale dans la gestion de l'eau : le cas du Sertão semi-aride brésilien Jusqu'à présent, nous avons traité des impacts de l'agriculture en matière d'érosion des sols et de pollution des ressources en eau. Dans les territoires présentés, des dynamiques se développent entre les acteurs locaux et les agriculteurs et se traduisent par des actions de réduction des pressions sur le milieu. Il en va autrement dans des espaces où des catégories significatives d'agriculteurs ne peuvent accéder aux ressources et restent à l'écart du processus de décision. Ceci est particulièrement manifeste lors de la création d'ouvrages hydrauliques dans les pays du Sud. Dans des secteurs de forte pauvreté rurale, la réalisation d'un aménagement et la création concomitante d'une nouvelle ressource génèrent des espoirs chez les paysans pauvres, privés d'accès à la terre et à l'eau. Lorsque l'alimentation en eau de l'agriculture familiale est négligée ou insuffisante, des conflits se développent alors notamment lorsque les aménagements sont réservés à des usages non agricoles ou à l'approvisionnement en eau d'une agriculture commerciale. La réalisation d'aménagements hydrauliques dans le Nordeste brésilien semi-aride illustre la problématique de l'accès à une ressource en eau limitée dans un contexte social de fortes inégalités. Dans le Nordeste, le contrôle de l'eau constitue un enjeu majeur. L'alimentation urbaine domestique et industrielle comme l'irrigation souffrent de déficits d'approvisionnement récurrents qui freinent le développement. Mais si la rareté de l'eau est une cause évidente de cette situation, c'est surtout la structure sociale qui est responsable des tensions (Jiquiriça, 2002; Garjulli et al., 2004; Lemos, Oliveira, 2004; Tonneau, Sabourin, 2009). La gestion de l'eau dans le Nordeste du Brésil est marquée par des structures agraires très inégales et par des systèmes politiques et des traditions culturelles qui l'accompagnent (Tonneau, Sabourin, 2009). La domination sociale des latifundiaires pèse lourdement dans les choix de gestion, par différents biais dont celui du clientélisme (Leal, 1975; Ribeiro, 1995; Théry, 2005). Les mouvements sociaux qui contestent ces inégalités sont dans des rapports de force plus défavorables que dans le Sud du Brésil (Souza, 2003; Schneider et al., 2004). Les petits paysans sont souvent en demande d'assistance des pouvoirs publics locaux ou nationaux (non dénuée d'une forme de recherche de paternalisme de substitution à celui des latifundiaires), la dimension entreprenariale y est moins développée que dans le sud du pays. Par ailleurs, les arbitrages entre usages urbains et usages d'irrigation sont plus tendus du fait de la présence de grandes villes dans cette zone semi-aride soumise périodiquement à de fortes sécheresses. Les outils brésiliens de gestion intégrée de l'eau, à forte dimension participative (Saldanha Machado, 2004; Ribeiro, 2009), sont confrontés dans leur mise en oeuvre à un accès très inégal à la terre et à l'eau. Le partage de l'eau reste un principe théorique qui s'oppose à la réalité des inégalités sociales (Coutinho, 2010). De ce fait, les pratiques de gestion de l'eau restent sectorielles et traduisent des rapports socio-politiques de domination, avec un manque de planification et de volonté de régler durablement le partage de l'eau. Les déficits de régulation publique, l'incapacité actuelle à rassembler les acteurs autour de projets territoriaux communs génèrent des conflits et l'inégale répartition des ressources en eau oriente le développement régional vers l'éviction des plus pauvres. A la suite d'une présentation du contexte régional, nous analysons l'empreinte des rapports sociaux dans les modes de gestion de l'eau dans deux études de cas : l'approvisionnement en eau de la ville de Campina Grande et le canal d'irrigation de la plaine de Sousa (canal da Redenção) dans l'ouest de la Paraíba. En lien avec les enseignements que nous avons pu tirer 82 des exemples territoriaux dans l'ouest de la France ou dans le sud du Brésil, les études de cas que nous allons voir à présent ont pour objectif de montrer que la gestion durable d'une ressource en eau - c'est-à-dire qui assure son renouvellement, respecte sa qualité et garantisse l'utilisation rationnelle des aménagements - est conditionnée par un processus démocratique de prise de décision traitant clairement la question sociale à l'échelon territorial. Les agriculteurs, dans leur diversité, doivent être partie prenante de ce processus démocratique. La question de la gestion de l'eau ne peut être isolée du reste de l'organisation de la société. Nous allons voir dans ces cas du Nordeste que la pauvreté rurale générée par l'inégal accès aux ressources, par la concentration du foncier entre les mains de latifundiaires ne peut entraîner que des conflits lorsqu'un nouvel aménagement est réalisé, si les questions des inégalités sociales et du partage du pouvoir politique avec les paysans pauvres ne sont pas résolues. 1. Le Nordeste du Brésil : sous-développement, inégalités sociales et ressources en eau Les conflits sur les ressources en eau dans le Nordeste du Brésil s'inscrivent dans un environnement socio-politique marqué par les problèmes structurels du développement inégal et par le poids historique des latifundiaires. Quelques données méritent d'être présentées pour apprécier ce contexte régional et les freins qu'il constitue à une gestion plus équitable des ressources en eau. Les réussites économiques du Brésil en tant que puissance économique émergente s'accompagnent depuis quelques années d'une réduction de la pauvreté grâce à une politique volontariste du gouvernement : 40 % des dépenses publiques sont consacrés aux politiques sociales, soit environ 15 % du Produit Intérieur Brut (PIB). Le pourcentage de familles vivant avec moins de la moitié du salaire minimum est ainsi passé de 31,6 % en 1997 à 23,5 % en 2007. Néanmoins, le chemin reste long à parcourir et le Brésil est parmi les pays au monde les plus inégalitaires : le rapport du revenu moyen des 20 % des personnes les plus riches à celui des 20 % des personnes les plus pauvres s'élevait à 32, au début de la décennie 2000, alors qu'il était inférieur à 10 dans la grande majorité des pays (Sgard, 2003). Par ailleurs, le pays souffre d'un développement inégal entre régions, l'ensemble du Brésil n'avance pas à la même vitesse (Droulers, 2001; Théry, 2005). Le Sud et le Sud-Est (Figure 24) concentrent l'industrie autour des grandes métropoles de São Paulo, Rio de Janeiro, Belo Horizonte, Porto Alegre et Curitiba. Les productions agricoles d'exportation et les filières de l'agrofourniture et de l'agro-alimentaire, qui placent le pays dans les premiers rangs mondiaux en termes d'exportation, se situent dans le Sud, le Sud-Est et le Centre-Ouest. Le Nord et le Nord-Est (Nordeste en portugais) représentent des régions en retard. Dans le Nordeste, le pourcentage de familles vivant avec moins de la moitié du salaire minimum est de 43,1 % en 2007 (soit près de 20 points de plus que pour la moyenne nationale) ; 52 % des analphabètes de plus de 15 ans se trouvent dans le Nordeste (alors que 28 % de la population nationale habite dans le Nordeste) (source : IBGE). L'espace sur lequel a porté notre étude est la Paraíba, un petit État du Nordeste dont la capitale est Joao Pessoa. C'est l'un des État les plus pauvres du Brésil : le taux de pauvreté (personnes vivant avec moins de 1,5 US$ par jour) était de 48 % en 2005 (contre 29 % pour la moyenne nationale, IBGE). Il est caractérisé par une faible industrialisation et un système foncier dominé par la grande propriété. Ce retard de développement se manifeste dans de multiples domaines et notamment en matière d'accès aux services d'eau puisque 29 % des habitants ne sont pas alimentés en eau par un réseau public et que 79 % ne sont pas raccordés à un système d'assainissement des eaux usées (IBGE, 2007). Outre cette forte vulnérabilité sociale, cet Etat est confronté à la rareté des ressources en eau. La Paraíba, comme d'autres États du Nordeste, se caractérise par un contraste très marqué 83 entre le littoral et l'intérieur (Figure 33). La plaine littorale d'une cinquantaine à une centaine de kilomètres de largeur est fortement arrosée avec des précipitations dépassant les 1 400 mm.an-1 tandis que l'intérieur présente une pluviométrie située entre 300 et 1 000 mm.an-1. Cette région est ainsi considérée comme semi-aride pour la partie médiane de la Paraíba (le Planalto da Borborema) à subhumide sèche pour la partie occidentale (le Sertão), soumise à des influences amazoniennes. La saison sèche s'étend pour le Sertão de juillet à décembre et pour le coeur semi-aride du Planalto da Borborema de juin à janvier (Cohen, Duqué, 1997). Cette aridité est associée à une forte variabilité interannuelle des précipitations. Figure 33 : Pluviométrie dans le Nordeste 84 Par ailleurs, la géologie de l'intérieur de la Paraíba est dominée par des roches cristallines imperméables faisant obstacle aux écoulements souterrains. Les altérites les recouvrant sont peu épaisses du fait du climat peu propice à l'altération. L'écoulement se produit donc essentiellement en surface et les transferts souterrains se limitent à des circulations d'inferoflux dans les alluvions des cours d'eau intermittents ou dans les fissures des roches mères. Exploitation agricole sur un versant granitique Affleurement de granite Figure 34 : Un substrat géologique difficile pour l'agriculture et de faible potentiel aquifère Les ressources en eau dans l'intérieur du Nordeste sont donc limitées et irrégulières. La construction de barrages et de dérivations a permis de constituer les réserves indispensables à l'alimentation urbaine et à l'irrigation. Ainsi, de grands travaux hydrauliques ont été conduits essentiellement par l'État fédéral depuis les années 1930, afin de permettre le développement de l'intérieur (Gomes, 2002). Cette région présente d'ailleurs l'une des plus fortes densités en barrages parmi les régions arides dans le monde. A ces barrages sont associés à partir des années 1980 des réseaux de transfert d'eau entre bassins, vers les villes et les zones agricoles. Le réseau hydrologique naturel est ainsi doublé par un réseau artificiel qui présente un véritable maillage de l'espace (Governo do Estado da Paraiba, 2006). Les questions qui se posent alors sont de savoir si cette politique d'aménagements hydrauliques permet de « corriger » les déficits naturels en alimentant l'ensemble des usagers ? Les multiples usages s'intègrent-ils ou s'opposent-ils dans les politiques de gestion ? Quels sont alors les processus d'exclusion dans le domaine de l'accès à l'eau ? Quelles en sont les conséquences sociales ? Nous traitons de ces questions au travers de deux exemples dans l'intérieur de la Paraíba (Figure 35). Nous nous appuyons sur des observations de terrain que nous avons réalisés, sur des entretiens avec des gestionnaires de l'eau (représentants de l'agence de bassin) et surtout sur une collaboration que nous avons construite avec les chercheurs de l'UFPB (GEPAT Grupo de Estudos e Pesquisas em Agua e Territorio – CNPq/Universidade Federal da Paraíba) : Pedro Vianna, professeur de géographie, Raquel Porto de Lima et Franklyn Barbosa de Brito, étudiants en master à l'UFPB (aujourd'hui en doctorat à l'université de Séville et à l'UFRGS). Ces recherches ont donné lieu à deux communications lors du colloque « Au fil de l'eau » à Clermont-Ferrand en 2009 et font l'objet d'une publication en cours dans un ouvrage collectif. 85 Figure 35 : Les grands bassins versants de l'État de la Paraíba (source : AESA, 2004) et les espaces étudiés 2. L'alimentation en eau de Campina Grande Campina Grande est l'une des plus grandes villes de l'intérieur du Nordeste avec 385 000 habitants (plus de 500 000 avec l'agglomération, source IBGE, 2010) située dans le Planalto da Borborema. L'activité industrielle est centrée sur l'agro-alimentaire et le textile. Les besoins en eau actuels s'élèvent à 36 millions de m3.an-1 (Barbosa de Brito, 2008). - L'histoire de l'alimentation en eau de la ville : une multiplication des ouvrages en l'absence de gestion territoriale L'histoire de l'alimentation en eau de la ville de Campina Grande révèle les déficits de planification face à la croissance urbaine. La ville tient son origine d'un marché d'animaux créé au début du 19ème siècle, au niveau d'un carrefour de pistes entre le littoral et l'intérieur. Deux premiers barrages furent construits en 1830, ils permirent de transformer le bourg rural initial en ville. Ces barrages ont alimenté la ville pendant un siècle. Ils sont situés actuellement en centre ville. Au début du 20ème siècle, la disponibilité en eau devenait un facteur limitant la croissance urbaine ce qui a justifié la construction d'un troisième barrage en 1917 (açude Bodocongó). Le barrage a été implanté en périphérie immédiate de la ville et a été utilisé pour l'industrie. Sa situation a rapidement entraîné sa pollution du fait de la croissance de l'agglomération. Il constitue aujourd'hui un réceptacle d'eaux usées urbaines. En 1925, pour répondre à la demande urbaine en plein essor et disposer d'un environnement sanitaire plus sûr, un quatrième barrage est construit à 18 km de la ville (açude João Suassuna). N'y suffisant d'ailleurs pas, il a été doublé en 1939 par un cinquième barrage à 40 km de la ville (açude de Vaca Brava). De 1951 à 1956, le barrage Epitácio Pessoa (également nommé Boqueirão) est édifié par l'État fédéral dans le cadre d'un plan de lutte contre la sécheresse au Sertão. Ce barrage est situé à 44 km de la ville. Il constitue l'un des grands barrages du Nordeste avec un volume utile de 411 millions de m3 et un plan d'eau de 2 678 ha. Il draine un bassin versant de 86 12 410 km2. La vocation initiale de ce barrage était l'irrigation et la production électrique. Mais en réalité, ce barrage a très rapidement été utilisé pour l'alimentation urbaine : une année après l'achèvement des travaux, la ville de Campina Grande s'est raccordée à cet ouvrage pour assurer son développement. Parallèlement, peu de temps après sa construction, de petits agriculteurs se sont établis illégalement sur les rives pour y pratiquer l'agriculture irriguée à partir de motopompes. Ces familles sont encore présentes aujourd'hui et vivent pour les deux tiers sur des exploitations de moins de 10 ha, destinées à l'autosubsistance. La moitié des irrigants pratique une irrigation gravitaire par immersion des parcelles. Ce système consomme beaucoup d'eau de façon peu efficiente et les agriculteurs manquent de formation et de capacité d'investissement dans des systèmes plus économes (Barbosa de Brito, 2008). Lors de périodes sèches, cet usage de l'eau entre en concurrence avec l'alimentation urbaine de Campina Grande. Le manque de régulation d'accès aux ressources révèle non seulement les difficultés des pouvoirs publics à contrôler et à planifier l'occupation de l'espace, mais surtout à réduire la pauvreté rurale en assistant les paysans pauvres dans des projets de développement et plus largement à effectuer les réformes permettant un accès équitable à la terre et à l'eau. De plus, l'absence de gestion du bassin versant a entraîné une érosion massive des sols suite à des défrichements des berges, au labour des terres cultivées et au surpâturage, ce qui a provoqué une perte de 23 % du volume utile ces cinquante dernières années par comblement partiel de la retenue. L'exploitation des ressources en eau n'a pas été planifiée à l'échelle du bassin versant, des barrages se sont multipliés à l'amont : 22 retenues sont dénombrées à l'amont du barrage Epitácio Pessoa pour un volume global de 300 millions de m3, nombre d'entre elles ont été édifiées après la construction de ce dernier (Barbosa de Brito, 2008). Ces barrages ont été construits pour la plupart par le gouvernement (le DNOCS, département fédéral des ouvrages de lutte contre la sécheresse, a construit a lui seul 42 barrages dans l'État de la Paraíba). Ces aménagements ont été réalisés sans suffisamment tenir compte des conséquences en aval. L'évaporation dans les lacs de barrage et les canaux ainsi que les usages de l'eau réduisent les flux aboutissant au barrage Epitácio Pessoa. - La sécheresse de 1998 – 1999 : la crise révèle les déficits de gouvernance de l'eau L'année hydrologique 1998 – 1999 a connu une grande sécheresse dans l'ensemble du Nordeste. Les ouvrages de retenue se sont avérés insuffisants pour répondre aux besoins de tous les usagers et, en l'absence d'anticipation, la crise climatique s'est transformée en crise sociale et politique. La persistance de la saison sèche et les excès de prélèvement ont entraîné un quasi assèchement de la retenue d'Epitácio Pessoa : le niveau s'est tellement abaissé qu'il restait peu de résreve avant le désamorçage des pompes d'alimentation en eau de Campina Grande (Figure 36). Cette situation a perduré le temps que le réservoir se remplisse de nouveau. Ainsi, en ville durant la saison sèche, les coupures d'eau s'élevaient à une moyenne de 48 h par semaine durant trois années (Barbosa de Brito, 2008). En début de crise, en juillet 1998, l'agglomération a nommé un groupe d'experts. Il préconisa un arrêt immédiat de l'irrigation légale et illégale le temps de la sécheresse et, sur le long terme, une réduction des prélèvements sur l'ensemble du bassin par un contrôle plus efficace des pompages clandestins. Cet avis a été rapidement suivi d'une décision de justice et d'une intervention de l'État fédéral (IBAMA) avec une interdiction provisoire de l'irrigation sur l'ensemble du bassin versant, une interdiction définitive sur les rives du barrage. La décision a été appliquée : les agents de l'État ont confisqué les pompes sur les berges de la retenue, ce qui a entraîné la perte totale des récoltes. Les paysans se sont fortement opposés à cette interdiction par des manifestations à Campina Grande sans obtenir d'indemnités à hauteur de leurs pertes. Ils jugèrent cette décision inéquitable en dénonçant les gaspillages dans la ville 87 de Campina Grande et le fait que les industries aient été considérées comme prioritaires sur leurs activités agricoles. Figure 36 : Cote annuelle moyenne du barrage Epitacio Pessoa (source : AESA) Figure 37 : Lac du barrage Epitacio Pessoa avec la tour de la prise d'alimentation en eau - Depuis 2004, le retour à des pluies normales masque les déficits de gestion Les fortes pluviométries des années 2004 à 2011 font reverdir le Planalto da Borborema, remplissent les barrages jusqu'au débordement de leur déversoir de crues et masquent les déficits de gestion de l'eau à l'échelle du bassin versant. Dès 2004, la pauvreté rurale a poussé des paysans à revenir occuper les rives de la retenue et à installer à nouveau des pompes illégales sans que les pouvoirs publics n'osent intervenir. Les pouvoirs publics ne semblent d'ailleurs pas s'accorder eux-mêmes sur la stratégie à mener pour assurer un approvisionnement durable de Campina Grande, tout en offrant une voie 88 alternative aux paysans locaux. La dispersion des organismes publics se révèle par des prises de positions souvent contradictoires (Barbosa de Brito, 2008) : 1 L'État de la Paraíba souhaite interdire les pompages illégaux, mais ne dispose pas des compétences pour exécuter les décisions de justice. Il dénonce le manque de contrôles de l'IBAMA ; 1 L'IBAMA, qui est l'organisme de contrôle fédéral, prétend laisser faire par manque de moyens techniques et humains pour assurer ce contrôle ; 1 L'organisme fédéral des barrages (DNOCS) demande de lever les interdictions d'irrigation ; 1 L'organisme d'appui à l'agriculture (EMATER) développe des techniques efficientes d'irrigation auprès des paysans riverains afin qu'ils réduisent leur consommation d'eau ; 1 Les municipalités riveraines défendent le droit d'irrigation des paysans pour limiter les problèmes sociaux et demandent des compensations à Campina Grande en cas d'interdiction lors de sécheresses ; 1 La municipalité de Campina Grande refuse de s'engager dans ce contexte conflictuel, les fortes pluies de ces dernières années offrant suffisamment d'eau pour tous les usagers. Enseignements L'inaction de l'Etat en période d'abondance, s'explique par un laisser faire pour permettre aux petits paysans de survivre, tandis que lorsque l'eau manque les conflits pour l'accès à l'eau provoquent des réactions brutales d'interdiction et d'expulsion sans conséquence durable sur la gestion de la ressource. Les crises sociales relatives à l'eau ont différentes causes dans le Nordeste semi-aride : 1 L'inégale répartition d'accès à l'eau et aux terres irrigables qui provoque des usages illégaux des ressources par des paysans pauvres sans autres alternatives. 1 Le manque fréquent de coordination de l'action publique : comme l'atteste l'exemple du barrage Epitácio Pessoa avec une dispersion des stratégies et des actions des organismes publics. 1 Le manque de planification : l'aménagement des eaux suit l'accroissement des besoins sans les anticiper, ni les réguler. Le manque de réduction des gaspillages, des pollutions et de planification urbaine de la ville de Campina Grande a ainsi entraîné une « course en avant » dans la construction de barrages de plus en plus éloignés de la ville. 1 Le manque de gestion des ouvrages et prélèvements à l'échelle de bassins versants : la multiplication des barrages à l'amont de celui d'Epitácio Pessoa, réalisée par le gouvernement fédéral lui-même, a entraîné des déficits d'alimentation en eau cumulés vers l'aval. 1 L'absence de recherche de compromis entre l'alimentation en eau des villes et les agriculteurs entraîne une concurrence non régulée, manifeste lors de sécheresses, cachée lors de périodes humides. Sans traiter ici de la question de la réforme agraire, la prévention de ces crises nécessiterait une réflexion et une négociation en période normale, afin d'appliquer des actions issues de compromis préalablement acceptés par les différentes parties. Des moyens seraient nécessaires afin de subventionner les projets d'économie d'eau à la fois en ville (pertes des réseaux, comportements des habitants) et pour les techniques d'irrigation. Des compensations pourraient être prévues pour indemniser les agriculteurs lorsque l'irrigation est interdite. 89 Ces actions nécessiteraient de gérer l'ensemble des usages de l'eau à l'échelle du bassin versant, dans le cadre d'institutions collectives de gouvernance locale de l'eau. Une telle structure a été créée en 2007 avec le comité de bassin de la Paraíba. Mais ce comité, comme pratiquement tous les comités de bassin au Brésil (à l'exception de bassins pilotes dans le sudest, comme le bassin du Piracicaba), ne dispose pas de système de redevance, ce qui limite fortement son action et l'implication des usagers (Laurent et al., 2009). Ainsi, pour le cas du barrage Epitácio Pessoa, seulement un quart des irrigants du barrage connaissait son existence, lors d'une enquête de terrain en 2008, et aucun n'y participait (Barbosa de Brito, 2008). Ceci met en évidence le déficit d'information des populations rurales du Nordeste qui freine leur capacité à participer à des processus de gouvernance territoriale (Tonneau et al., 2009; Tonneau et al., 2011). 3. Le conflit pour l'usage de l'eau du canal da Redenção dans le Sertão L'ouest de la Paraíba se présente comme une grande dépression semi-aride à sub-humide sèche : le Sertão ou Depressão Sertaneja. La végétation naturelle encore fortement présente est la caatinga arborée. Elle est consacrée à l'élevage extensif de bovins et de caprins (Tonneau et al., 2007). Une agriculture irriguée se développe autour des açudes (barrages) pour assurer l'alimentation locale. - Le périmètre irrigué des Várzeas de Sousa De grands barrages ont été construits au 20ème siècle par l'organisme fédéral des barrages (DNOCS), d'une part, afin d'assurer l'alimentation en eau urbaine et l'irrigation de la région et, d'autre part, afin d'alimenter par un transfert les rivières Piancó et Piranhas s'écoulant vers le Rio Grande do Norte. Les deux plus grands ouvrages sont : le Coremas, édifié de 1937 à 1943, pour retenir un volume de 720 millions de m3 et le Mãe d'Água, construit entre 1953 et 1956, avec une réserve de 650 millions de m3 (Porto de Lima, 2006). En 1997, un canal de transfert d'eau (37 km avec un débit de 7,9 m3.s-1) est réalisé pour irriguer une plaine aux sols fertiles, les Várzeas de Sousa. Un vaste périmètre d'irrigation y est aménagé avec des lots de différentes tailles (Figure 38), afin d'y établir à la fois une agriculture commerciale (lots de 144 ha) et une agriculture familiale (les lots les plus petits sont de 5 ha). Une installation de paysans sans terre (assentamento) vient d'être récemment ajoutée par l'INCRA sur 998 ha, suite à une invasion de paysans sans terre dans le périmètre. Au total, 4 417 ha sont en cours d'aménagement. Ces travaux ont été conçus par l'État de la Paraíba dans un plan d'aménagement hydraulique (Plano das Águas, 1990). 90 Figure 38 : Le périmètre irrigué des Várzeas de Sousa (source : Governo da Paraíba) - L'eau canal da Redenção attire d'autres paysans non intégrés au projet L'arrivée d'eau dans ce secteur a attiré d'autres agriculteurs non intégrés au projet des Várzeas de Sousa (projet dénommé PIVAS). En effet, le canal traverse les terres arides de plusieurs exploitations, où ont été réalisés des branchements illégaux dans le canal au moyen de pompes, d'autant que pendant 9 ans (entre 1998 et 2007), le canal est mis en service sans que le périmètre des Várzeas de Sousa ne soit aménagé, ni n'utilise l'eau. Il y a, parmi ces utilisateurs riverains illégaux, des exploitations commerciales et des paysans pauvres. Le canal traverse notamment une installation de paysans sans terre, l'assentamento Acauã. En 2001, les usages illégaux ont été interdits par l'agence de l'eau estaduale (de l'État de la Paraíba) et certaines pompes ont été confisquées. Les enquêtes réalisées auprès des agriculteurs (Porto de Lima, 2006) ont montré que les exploitations commerciales n'ont pas été inquiétées tandis que les petits paysans ont vu leurs récoltes détruites par l'arrêt des pompages de 2001 à 2003. Ceci a entraîné des mouvements de protestation des paysans pauvres et la formation de deux associations comptant plus de 250 membres. Ces actions ont eu un succès relatif puisque les paysans n'ont pas obtenu de droit d'accès à l'eau, mais une tolérance, d'autant que les années 2004 à 2010 ont connu des pluies abondantes permettant une satisfaction de tous les usages. Un travail de terrain a permis de recenser 51 captages illégaux le long du canal principalement au moyen de motopompes et parfois par simple gravité. Ces relevés furent cartographiés par les membres du GEPAT (Grupo de Estudos e Pesquisas em Agua e Territorio – CNPq/Universidade Federal da Paraíba). 91 Mur du barrage Mãe d'Água Canal da Redenção Irrigation gravitaire dans une exploitation familiale Irrigation le long du canal Assentamento Acauã sur les bords du canal da Redençao Figure 39 : Irrigation dans la Paraíba Ainsi, le conflit local tire son origine d'une division des terres et des eaux jugée injuste par les paysans pauvres, ce qui a donné lieu à l'occupation des rives du canal (fig. 6), une première au Brésil où les invasions de terres ont lieu habituellement le long de routes. Le conflit qui a impliqué les paysans de l'Assentamento Acauã peut être qualifié d'un conflit lié à un « droit de passage ». Les responsables du projet n'avaient pas prévu que les riverains revendiquent l'accès à l'eau traversant leur territoire. 92 La deuxième zone de conflit se situe au niveau du périmètre irrigué de la plaine des Várzeas de Sousa. La répartition des terres provoqua la colère d'autres paysans pauvres qui sont venus envahir les bords d'une route nationale, la BR230. Ce sont des familles de paysans de la région qui n'ont pas été intégrées au projet d'irrigation. La figure 5 montre en effet la prédominance de grands lots réservés à l'agriculture commerciale. Face à ces tensions, le projet a été modifié avec des règles d'accès à la terre souvent obscures. Récemment, le ministère de l'intégration du gouvernement fédéral a imposé l'installation supplémentaire de 114 familles de paysans pauvres. Pour cela, près de 1 000 ha ont été ajoutés au projet initial et une partie des lots réservés à l'agriculture commerciale a été redistribuée. Conclusion Ces exemples soulignent l'importance de l'eau dans le Nordeste, où cette ressource présente un enjeu socio-économique fort. L'eau est une question de survie pour les petits paysans pratiquant l'agriculture de subsistance. Les inégalités d'accès à la terre et à l'eau pour l'irriguer sont responsables de cette pauvreté rurale, ce qui provoque des occupations et des prélèvements illégaux. Les conflits dorment en période humide, mais risquent de se réactiver en période de sécheresse. La difficulté d'accès à l'eau est utilisée comme moyen d'asservir les petits paysans et constitue une source de clientélisme pour les élites politiques locales. Il est ainsi fréquent de constater que les conflits trouvent des solutions temporaires lors des périodes électorales. Le transfert d'eau du fleuve São Francisco vers le Nordeste semi-aride de la Paraíba, du Pernambuco, du Rio Grande do Norte et du Ceara est aujourd'hui en cours de réalisation (Figure 40). Il devra répondre à la demande urbaine et à celle de l'irrigation par le détournement d'un débit relativement modeste de ce fleuve puisqu'il s'élèvera à 1,6 % du module dans la boucle de Cabobro. Il y aura deux axes. L'axe oriental se déversera dans le rio Paraíba après un transfert sur 220 km par un débit continu de 10 m3.s-1 (le débit actuel moyen à Epitácio Pessoa est de 4 m3.s-1). L'approvisionnement de Campina Grande a été l'une des raisons majeures à l'ouverture de cet axe. On peut alors se demander si ce grand ouvrage permettra de surmonter les conflits liés aux inégalités sociales et aux déficits de gouvernance ? Ou bien si cette nouvelle ressource généra à son tour de nouveaux conflits en attirant des paysans pauvres et exclus des projets hydrauliques ? Figure 40 : Travaux de creusement du canal du São Francisco en août 2010 93 4. Un système de production intégrant les services écologiques : l'agriculture de conservation Le modèle de production agricole visant une rentabilité à court terme, basé sur l'emploi massif d'intrants, ne pose pas seulement des problèmes à la société du fait de la dégradation des ressources naturelles, il conduit aussi les agriculteurs à devenir de plus en plus dépendants de facteurs de production qu'ils ne contrôlent pas et dont les cours ne cessent d'augmenter (pétrole, engrais, produits phytosanitaires). Corrélativement, le sol qui devrait constituer le capital essentiel des agriculteurs s'est trouvé appauvri d'un point de vue biologique dans les systèmes dits « conventionnels ». Le labour, la baisse des apports organiques dans les régions de grande culture et le recours systématique à l'agrochimie ont en effet réduit l'activité biologique des sols. Des agriculteurs développent des systèmes de production alternatifs qui ouvrent d'autres perspectives à l'agriculture que celle de l'intensification basée sur la consommation d'énergies fossiles et l'appauvrissement des écosystèmes (Hervieu, 1993; Pochon, 1996; Briel, Vilain, 1999; Deffontaines, 2001; von Wieren-Lehr, 2001; Gasson, 2003; Gonod, 2003; Charvet et al., 2004; Sharmaa et al., 2006; Bourguignon, 2008; Griffon, 2010). Ainsi, une meilleure prise en compte de l'environnement en agriculture n'est pas seulement le fait de politiques publiques menées par l'Etat ou les collectivités territoriales, mais résulte aussi de démarches pro-actives d'agriculteurs. Les démarches volontaires, émanant des agriculteurs eux-mêmes, offrent a priori différents avantages comparativement aux contraintes réglementaires de protection de l'environnement (Laurent, Vieira Medeiros, 2010) : • une meilleure prise en compte de l'agronomie, en protégeant le sol et en limitant les pertes de nutriments ; • une optimisation économique : la réduction des impacts environnementaux négatifs peut se traduire par une réduction des coûts (baisse de la consommation d'intrants notamment) ; • une auto-surveillance, sachant que les pratiques agricoles ne peuvent pas être intégralement contrôlées et que le coût des contrôles est élevé pour la société ; • une meilleure adaptation au contexte propre à l'exploitation agricole et au territoire dans lequel elle se situe : la complexité de l'environnement pédo-climatique, social, technique et culturel ne pouvant pas être intégrée dans les réglementations, il ne peut y avoir de solution définitive et généralisable quelque soit le contexte. Comme nous l'avons vu dans les études de cas de bassins versants, les réglementations sont nécessaires mais non suffisantes pour garantir une préservation des ressources. C'est une révision dans le détail des pratiques agricoles par une majorité d'agriculteurs qui pourra se traduire par une amélioration manifeste à l'échelle de bassins versants. Cette révision implique une reconnaissance des services écologiques générés par le milieu (le sol, la faune et la flore non cultivées). Pour emporter l'adhésion de la majorité des agriculteurs, l'environnement ne peut plus être considéré seulement comme une contrainte imposée par la réglementation. C'est du milieu agricole, avec le soutien des pouvoirs publics et des autres acteurs territoriaux, qu'émergeront des solutions plus durables. Mais, il ne faudrait pas opposer ce qui vient des politiques publiques ou du marché et ce qui émane des agriculteurs eux-mêmes. En effet, il y a un rapport dialectique entre les deux puisqu'une « contrainte » réglementaire ou une évolution de facteurs économiques favorisent la diffusion d'innovations initialement portées par des groupes minoritaires. Ainsi, les couverts végétaux en interculture sont préconisés depuis plusieurs décennies par certains 94 pionniers pour protéger le sol de l'érosion, pour limiter les lessivages de fertilisants et pour accroître la biodiversité (Richter et al., 1998; Blombäck et al., 2003; Beaudoin et al., 2005; Kay et al., 2009; Constantin et al., 2010). En France, ils sont imposés par la réglementation en zone d'action complémentaire (directive Nitrates) depuis 2003 (Thareau et al., 2008) et le sont sur la totalité des surfaces agricoles à partir de 2012. Comme nous l'avons vu sur l'Oudon, au début, ces couverts étaient perçus par beaucoup comme une contrainte, mais ils s'avèrent pour un nombre de plus en plus large d'agriculteurs comme un moyen d'accroître le potentiel de production du sol et de réduire la consommation de fertilisants en limitant le lessivage automnal et hivernal (principe d'une « innovation induite » par une pression exogène de type réglementaire sur le système de production des agriculteurs (Cheauveau, 1999)). Les journées de démonstration, les visites de parcelles portant sur ces techniques éveillent de plus en plus la curiosité et l'intérêt (Thareau et al., 2008; Laurent, Vieira Medeiros, 2010). Diversité des réseaux Les systèmes alternatifs sont divers. Ils sont conçus et portés par des agriculteurs qui se sont organisés en réseaux (avec parfois l'aide du monde de la recherche ou des instituts techniques, le plus souvent dans un second temps). A ces réseaux correspondent des modèles de production et, derrière eux, des représentations des rapports que les agriculteurs devraient avoir avec le reste de la société et des interactions qu'ils devraient établir avec leur milieu biophysique, dans leur territoire. Ils renvoient ainsi à une certaine conception de la société et de l'environnement. La diversité des systèmes montre qu'il n'y a pas de modèle unique de durabilité en agriculture mais une diversité d'approches qui répondent à une diversité culturelle, sociale et technique des agriculteurs. Parmi les différents réseaux d'agriculteurs qui se réclament d'une forme d'agriculture plus durable, nous pouvons citer : l'agriculture biologique, l'agriculture durable, l'agriculture de conservation, l'agriculture raisonnée, etc. (Charvet et al., 2004; Laurent, Vieira Medeiros, 2010; Garambois, 2011). Les conceptions de l'agriculture diffèrent fortement entre les voies alternatives car elles sont supportées par des groupes différents voire parfois opposés d'un point de vue syndical. Cependant les frontières s'atténuent. Preuve en est le succès des salons Tech&Bio, organisés par des agriculteurs en système biologique et fréquentés également par des agriculteurs en d'autres systèmes à la recherche de techniques alternatives qui leur permettent de réduire les consommations de produits phytosanitaires ou d'engrais de synthèse (selon les organisateurs des journées de juin 2010, 80 % du public agricole n'étaient pas en biologique). Nous traiterons dans les paragraphes suivants de l'agriculture de conservation. L'agriculture de conservation est appelée également agroécologie, dans le sens où les fonctionnalités natuelles qui favorisent la productivité sont substituées aux intrants et à certaines pratiques (le terme d'agroécologie est cependant plus vaste que celui d'agriculture de conservation, puisqu'il englobe aussi pour certains l'agriculture biologique). Le terme de semis direct est aussi utilisé mais il ne désigne qu'un des volets de l'agriculture de conservation, comme nous le verrons ensuite. Nous nous sommes particulièrement intéressés à ce système car il protège le sol contre l'érosion, enjeu crucial dans le monde et tout particulièrement dans la zone intertropicale, et parce qu'il il produit des rendements similaires ou supérieurs au système conventionnel (Ogle et al., 2012). L'ampleur et la rapidité de la diffusion du semis direct de par le monde motive par ailleurs cet intérêt (FAO, 2001; Lal et al., 2007). Notre analyse s'inscrit dans une approche territoriale, en nous intéressant à la dynamique spatio-temporelle de sa diffusion, aux réseaux professionnels qui le promeuvent et aux liens entre ces démarches et les problématiques de qualité de l'eau à l'échelle de bassins versants. Cette recherche s'est appuyée sur de la bibliographie, des enquêtes auprès d'agriculteurs français et brésiliens et de représentants des associations qui défendent ce système. 95 1. Les principes de l'agriculture de conservation L'agriculture de conservation repose sur trois principes : le non-travail du sol, le couvert permanent par des cultures intermédiaires ou par des résidus de culture et la rotation des cultures. Le non-labour permet de ne pas enfouir les résidus végétaux afin de constituer un mulch en surface et de ne pas dégrader la structure du sol en conservant les agrégats argilohumiques. Les couverts protègent physiquement le sol de l'impact de la pluie et améliorent sa structure par leur réseau racinaire. Ils enrichissent de plus le sol en carbone et en azote. Les rotations permettent de limiter les invasions de plantes adventices, de maladies et d'insectes ravageurs qui prolifèrent en monoculture, elles peuvent conduire à une réduction de l'usage de produits phytosanitaires. Les trois principes font système. Le terme de semis direct sur couvert végétal est également employé pour désigner cet ensemble de pratiques. Dans les régions soumises à de fortes intensités de pluies ou sur des sols vulnérables, le non labour est tout d'abord un moyen de limiter l'érosion (Minella et al., 2009), il permet de former un mulch en surface (Diaz-Zorita et al., 2002; Scopel et al., 2004; Amado et al., 2006; Bayer et al., 2006; Calegari et al., 2008). Ce sont les résidus de culture qui, en se décomposant, accroissent la teneur en matière organique du sol et donc la fertilité (Blevins et al., 1983; Derpsch et al., 1986; Diaz-Zorita et al., 2002; Sisti et al., 2004; Maia et al., 2010). Dans un système conduit selon les principes de l'agriculture de conservation, une partie significative de la production de biomasse doit être laissée au champ (Figure 41), à des valeurs en matières sèches proches de 4 à 6 t.ha-1.an-1 en zone tropicale ou sub-tropicale, elles s'abaissent généralement à 1 à 4 t.ha-1.an-1 en zone tempérée océanique. Le couvert limite l'effet de splash des gouttes de pluies, amortit le passage des engins (Séguy, Bouzinac, 2001) et améliore la structure du sol par l'accroissement de l'activité biologique (Helgason et al., 2010). A moyen terme (de trois à dix ans), la faune du sol est activée par l'abondance de matière organique en surface et les galeries creusées par les vers de terre créent une porosité favorisant l'infiltration de l'eau aux dépens du ruissellement (Derpsch et al., 1986; Pinheiro et al., 2004; Johnson-Maynard et al., 2007; Cavalieri et al., 2009; Engel et al., 2009; Minella et al., 2009; Calonego, Rosolem, 2010). La réserve en eau du sol se trouve accrue d'autant que le mulch limite l'échauffement du sol et réduit ainsi l'évaporation (Bollinger et al., 2007). La matière organique est également centrale pour retenir et recycler les éléments minéraux qui seraient sinon lessivés hors de portée des racines (Séguy et al., 2006). Ceci est particulièrement important dans les régions tropicales où une grande partie des sols est constituée d'oxydes/hydroxydes et d'argiles à faible capacité d'échange cationique (CEC) comme la kaolinite. C'est alors la matière organique qui représente l'essentiel de la CEC. Ainsi, au Brésil, les sols conduits en semis direct sur couvert végétal présentent à moyen terme une meilleure disponibilité en phosphore, azote, calcium, magnésium et potassium que des sols labourés (Séguy et al., 1996; Bollinger et al., 2007). 96 Figure 41 : Structuration du sol en Semis Direct sur Couverture Végétale (Séguy, Bouzinac, 2001) Eléments historiques L'agriculture de conservation est née aux Etats-Unis. La dénudation des sols et leur appauvrissement en matière organique ont provoqué des crises érosives qui abaissaient la productivité des sols. Le Soil Conservation Service (dépendant du ministère de l'agriculture) a alors travaillé sur une réduction du labour et sur la couverture du sol par des résidus de culture. Des essais furent menés à la fin des années 1940, mais les premiers tests en système mécanisé furent réalisés en 1961 dans le Kentucky (Derpsch, 1998). C'est à partir des années 1970 que le semis direct amorça une diffusion plus large pour répondre non seulement à des problèmes d'érosion mais aussi pour réduire les coûts de production. La diffusion fut stimulée par la crise pétrolière, qui a poussé les agriculteurs à des économies de carburant, et par l'apparition d'herbicides efficaces sur le mulch (herbicides de post-levée). Le semis direct fut encore renforcé à la fin des années 1990 par l'introduction des variétés transgéniques tolérantes aux herbicides (Serpantié, 2009). En 2006, le semis direct couvrait 95 millions d'hectares à travers le monde, soit près de 6 % des surfaces cultivées (Derpsch, 2007). Dans certaines régions du monde, la séquestration du carbone par le non-labour est reconnue comme un service écologique par les pouvoirs publics et l'agriculture de conservation fait l'objet d'aides. Ainsi, le gouvernement d'Alberta a mis en place un système de crédits carbone pour compenser les émissions des industries et des mines (le tiers des émissions en carbone du Canada). En 2006, en Alberta, le non-labour couvre 47 % des surfaces cultivées. Les agriculteurs qui pratiquent ce système bénéficient du paiement de crédits par l'industrie et les mines car cela représente 5.106 t equC évités (Kassam et al., 2012). 97 2. L'agriculture de conservation au Brésil Au Brésil, le semis direct est apparu dans le Sud du pays. Auparavant, les cultures de soja et de blé avec labour généraient une érosion massive des sols du fait de l'absence de couverture végétale en interculture et de la destruction des agrégats argilo-humiques par le travail du sol (Amado et al., 2006). A partir des années 1960, des agriculteurs et des scientifiques ont cherché à réduire l'impact du travail du sol sur l'érosion en s'inspirant de techniques développées par le Soil Conservation Service aux Etats-Unis. Le premier essai de non-labour a été conduit par des agronomes de l'UFRGS (université fédérale du Rio Grande do Sul) en 1969, puis en 1971 par la future EMBRAPA, l'institut de recherche agronomique brésilien, à Londrina et à Ponta Grossa dans le Paraná (Bollinger et al., 2007). Herbert Bartz, à Rolândia (Paraná), fut le premier agriculteur brésilien à pratiquer le semis direct en 1972. Préoccupé par l'érosion, il fut impressionné par les essais de l'EMBRAPA et alla visiter des exploitations en semis direct en Grande Bretagne et aux EtatsUnis. Il en revint avec un nouveau semoir pour appliquer le semis direct dans son exploitation. La démonstration qu'il fit en matière de réduction de l'érosion et des coûts de production convainquit d'autres producteurs dans les années 1970. Néanmoins, la diffusion fut restreinte du fait de problèmes de contrôle de plantes adventices et d'adaptation des semoirs à des sols couverts de résidus pailleux (Bollinger et al., 2007). L'arrivée du glyphosate au Brésil à la fin de la décennie 1970 permit d'écarter en grande partie la difficulté des invasions d'adventices. La diffusion du semis direct s'appuya sur des réseaux d'agriculteurs. Au début des années 1980, les producteurs s'organisèrent en associations de promotion du semis direct comme le Clube da Minhoca (« Club du ver de terre ») et les Clubes dos Amigos da Terra (« Clubs des amis de la Terre ») avec l'appui du réseau de coopératives Fundação ABC (Agricultura de Baixo Carbono). Durant les années 1980, la FEBRAPDP, Federação Brasileira de Plantio Direto na Palha, structura les producteurs à l'échelle nationale. À la fin des années 1980, les organismes agricoles de l'État du Paraná et du Santa Catarina, en coopération avec la FEBRAPDP, initièrent le développement du semis direct pour les petits producteurs (moins de 50 ha) en adaptant le système à la traction animale et aux petits tracteurs, mais aussi en informant (plates-formes de démonstration) et en formant les agriculteurs (journées de formation et de rencontres) (Bollinger et al., 2007). La technique se diffusa alors largement dans les petites exploitations du Sud. Ainsi, à l'inverse de la plupart des autres pays du monde où cette technique n'est adoptée que dans les grandes exploitations (Dijkstra, 2002; Scopel et al., 2004), au Brésil de petits producteurs pratiquent le semis direct. Leurs principales motivations sont la réduction de la pénibilité du travail, le contrôle de l'érosion, la réduction des coûts de production et l'accroissement des rendements (Dijkstra, 2002; Mello, van Raij, 2006; Leturcq et al., 2008). Le semis direct pratiqué dans le Sud se propagea également dans d'autres régions. Durant les années 1980, la colonisation agricole du Cerrado dans le centre du Brésil se développa rapidement (Santos, 2004; Théry, 2004; Dubreuil et al., 2005; Théry, 2005; Séguy et al., 2006; Arvor et al., 2009). Là aussi, auparavant, le labour pour la culture du soja et du coton entraînait une dégradation des sols et les rendements s'abaissaient au fil des ans, malgré l'emploi croissant d'engrais et de pesticides (minéralisation progressive de la matière organique). La transposition des techniques de semis direct du Sud ne donnait pas les résultats escomptés du fait des différences pédo-climatiques et d'une inadaptation à la taille des exploitations. Pour surmonter ces difficultés, les mutations du système, nécessaires en milieu tropical, ont été accompagnées par l'EMBRAPA et le CIRAD dès la fin des années 1980 (Séguy, Bouzinac, 2001). Le Cerrado est ainsi devenu une aire importante du semis direct avec 6 millions d'hectares en 2002 (Bollinger et al., 2007; Altmann, 2010). Actuellement, la nouvelle zone de développement est l'Amazonie où les pâturages dégradés sont convertis en 98 champs de soja, de riz ou de maïs conduits en semis direct, soit en rotation continue, soit en cycles de trois ans alternés avec une prairie artificielle (Capillon, Séguy, 2002; Valbuena, 2009). Mais dans le Cerrado, c'est plus souvent un travail minimal du sol qui est pratiqué à la place du système de Semis Direct sur Couverture Végétale prôné par les agronomes de l'EMBRAPA et du Cirad (Arvor et al., 2009). Au total, le semis direct couvre 25,5 millions d'ha en 2005/06 au Brésil (www.febrapdp.com.br) (Figure 42), soit près de la moitié de la surface en cultures annuelles. Figure 42 : Evolution des surface en semis direct au Brésil (en millions ha) (source FEBRAPDP (www.febrapdp.com.br) ; In Laurent et al., 2011) Diversité des pratiques Lucien Séguy du Cirad a conçu un système élaboré en s'inspirant de l'écosystème forestier (Séguy, Bouzinac, 2001; Séguy et al., 2006). Ce système est dénommé Semis Direct sur Couverture Végétale. La couverture permanente du sol par l'introduction de cultures intermédiaires (genres Brachiaria, Stylosanthes, Cassia rot., ou mil ou sorgho) constitue la « pompe biologique » (Figure 43) avec des rendements de l'ordre de 7 à 15 tonnes de matière sèche à l'hectare en zone tropicale humide, elle : • recycle les nutriments et remonte vers la surface ceux qui sont lessivés vers les horizons profonds : les cultures de soja, de coton ou de riz ont un système racinaire qui exploite une profondeur de l'ordre de 0,8 à 1,20 m, tandis que les racines des cultures intermédiaires peuvent descendre à 2,5 m ; • protège le sol en surface contre l'effet de splash notamment durant le début de la saison des pluies où la culture commerciale est peu couvrante ; • limite le développement des adventices ; • restructure le sol par le pouvoir agrégeant du système racinaire (« trame de sustentation du sol ») ; • capte l'eau plus profondément dans des horizons qui ne sont pas atteints par les cultures commerciales afin d'augmenter la production de matière organique en saison sèche et d'accroître l'activité biologique. Ce système permet de cultiver avec peu ou pas d'intrants des sols considérés comme improductifs (Husson et al., 2006) : sols ferralitiques acides, à forte saturation en aluminium et carencés en phosphore et en potassium, fréquents en zone tropicale humide. Il peut être 99 associé à l'élevage en utilisant les cultures intermédiaires comme fourrages. L'usage d'herbicides est annulé ou limité seulement au dessèchement de la biomasse avant semis : ce système permet ainsi de s'affranchir de l'usage d'herbicide durant la culture commerciale et donc d'employer des plantes non OGM (Séguy, Bouzinac, 2001). Figure 43 : Le système de semis direct sur couvert végétal conçu par le Cirad en zone tropicale humide (Séguy, Bouzinac, 2001) L'accroissement des rendements et la baisse des coûts de production sont importants : pour le soja, les rendements en SCV sont de 4,5 t.ha-1 dans le Mato Grosso avec peu d'engrais minéraux (40 kgP et 40 kgK), rendements équivalents à ceux d'un soja deux fois plus fertilisé sur un sol travaillé avec des disques (Séguy et al., 2006). En SCV, la safrinha (seconde culture dans l'année, produisant une récolte moins abondante) de millet, de sorgho qui suit produit 1,5 à 3,0 t.ha-1 et le fourrage à base de Brachiaria R. ou de Stylosanthes G. sert à l'alimentation du bétail. Du coton peut être également cultivé en saison sèche dans cette succession. Mais un majorité d'agriculteurs brésiliens n'utilisent pas ce système qui optimise les multiples fonctions de la biomasse, ils réduisent le semis direct au non-labour en négligeant la production de biomasse et les rotations. Lorsque le sol n'est pas couvert, les effets du nonlabour sur le sol sont plus limités, notamment sur des sols sableux ou compactés. En effet, le mulch issu des résidus de culture est insuffisant (6-8 t.ha-1) et rapidement minéralisé, tout particulièrement en zone tropicale humide (Séguy et al., 2006). Ce sont généralement de petits producteurs qui ne maîtrisent pas totalement le système du Semis Direct sur Couverture Végétale, tel qu'il est préconisé par les agronomes : certains effectuent un travail du sol épisodique pour lutter contre les adventices ou chauler leurs terres, d'autres ne couvrent pas le sol en interculture ou recourent massivement aux herbicides (Bollinger et al., 2007). Ceci réduit à la fois la performance économique de leur exploitation, dégrade le sol et finalement accroît les effets négatifs sur l'environnement. Des techniques de travail minimal du sol (cultivo mínimo en portugais) sont également largement pratiquées dans les grandes exploitations : le sol n'est pas labouré mais l'horizon de surface est ameubli et les résidus sont enfouis sur les cinq à dix premiers centimètres. Les impacts agronomiques et environnementaux peuvent alors fortement diverger du système de Semis Direct sur Couverture Végétale. Pratiques de travail du sol à l'échelle des Etats brésiliens La diffusion des techniques de semis direct et de travail du sol, à l'échelle des États brésiliens, est présentée dans la Figure 44. Issue du recensement de l'IBGE, elle distingue trois types de 100 travail du sol : le labour conventionnel (labour et hersage ou hersage profond), le travail du sol minimum (hersage superficiel) et le semis direct (sous couvert et sans travail du sol). Mais il convient d'être prudent sur les pratiques réelles sous-jacentes : dans ces statistiques, le « Semis Direct sur Couverture Végétale » doit en réalité englober tous les systèmes pour lesquels aucun travail du sol n'est effectué, car les enquêtes que nous avons réalisées montrent que le système complet avec couverture végétale permanente et rotations culturales est très minoritaire y compris dans le Sud. Par ailleurs, l'IBGE recense le nombre d'exploitations et non les surfaces selon le type de travail du sol. Cette carte ne présente donc pas les impacts sur le milieu puisqu'ils dépendent des surfaces concernées. Figure 44 : Travail du sol et semis direct au Brésil (source IBGE, 2006 ; In Laurent et al., 2011) La lecture de la Figure 44 montre que le Semis Direct (selon la typologie de l'IBGE) est adopté plus largement dans le Sud et le Nord du pays (entre le tiers et la moitié des exploitations). Différentes raisons peuvent expliquer cette distribution : sa promotion par les réseaux d'agriculteurs originaires du Sud et les conditions climatiques (saison sèche peu marquée dans le Sud et dans le Nord, favorisant une couverture permanente utilisée pour 101 réduire l'érosion générée par les pluies intenses). Dans le Centre-Ouest, le travail du sol minimum domine, sans que le semis direct soit négligeable ; la saison sèche est bien marquée avec une difficulté de développement des couverts végétaux intermédiaires et de moindres risques d'érosion durant cette période (la couverture du sol est ainsi moins indispensable). Le semis direct est peu pratiqué dans le Sud-Est et le Nord-Est où le labour tient encore une large place (à l'exception du Maranhão). Les types de production végétale qui y sont implantés expliqueraient en partie ces différences (notamment la canne à sucre ou le manioc), mais pour le démontrer il faudrait disposer de statistiques présentant les types de travail du sol en fonction des cultures. Dans le Sud-Est et le Nord-Est, les modes de production sont par ailleurs plus traditionnels et le contexte historique de développement agricole diffère. Un des freins majeurs à la diffusion du Semis Direct sur Couverture Végétale est d'ordre culturel. Pour de nombreux agriculteurs, le labour reste un principe de base et sa suppression impliquerait une révision profonde de l'ensemble du système de production. Il entraîne un retour à plus d'observation et d'adaptation au contexte pédo-climatique, une remise en cause des « recettes » acquises, plus de temps à consacrer à la lecture de documents techniques et au partage d'expériences entre producteurs (Dijkstra, 2002; Scopel et al., 2004; Leturcq, 2005; Bollinger et al., 2007; Serpantié, 2009). Les ingrédients de cette innovation et de sa diffusion ont été réunis initialement dans le sud du pays : ouest du Paraná et nord du Rio Grande do Sul. L'aire actuelle de distribution du semis direct correspond aux migrations issues de ce noyau, les espaces colonisés par les gaúchos (les Brésiliens originaires du Rio Grande do Sul) pour la culture du soja : le Sud, le Cerrado et l'Amazonie. Les aides publiques Les innovations dans les techniques de non-travail du sol ont reçu le soutien des pouvoirs publics brésiliens au moyen d'une aide technique et scientifique. Il est aujourd'hui question de financement du Semis Direct sur Couverture Végétale en tant que bonne pratique agricole et service à l'environnement, comme le souhaitent les associations de producteurs en Semis Direct sur Couverture Végétale (FEBRAPDP, APDC). Les bonnes pratiques pourraient être certifiées par un « label vert », selon une méthode similaire à celle testée sur le Paraná 3 dans le cadre du programme Cultivando Água Boa. Depuis 2010, le Semis Direct sur Couverture Végétale bénéficie du soutien financier du Ministère de l'Agriculture au moyen de prêts à taux bonifiés. L'aide s'inscrit dans le programme Agricultura de Baixo Carbono (ABC) qui vise à séquestrer du carbone tout en accroissant la productivité agricole. Le budget du programme ABC s'élève à 3,15 milliards de réais pour 2011/12 (www.agricultura.gov.br/abc), soit environ 1,25 milliards d'euros. L'ambition est d'étendre au niveau national la surface en semis direct de 25 millions d'hectares en 2005 à 33 millions d'hectares en 2020, notamment en associant le semis direct à la restauration des pâturages dégradés afin de réduire la pression sur les surfaces forestières. Par ailleurs, l'Agência Nacional de Águas (ANA) commence à reconnaître financièrement l'intérêt de la réduction du ruissellement et de la diminution de l'érosion à l'amont des barrages. Dans des secteurs menacés, les agriculteurs en Semis Direct sur Couverture Végétale pourront être qualifiés de Produtores de Água avec une aide financière à la clef (Trecenti, 2010). Le bassin versant du Paraná 3 à l'amont d'Itaipu : une démarche volontariste vers l'agriculture de conservation L'expérience construite sur une partie du bassin versant du barrage d'Itaipu illustre une démarche territoriale soutenue par les pouvoirs publics. Le lac de barrage d'Itaipu est situé sur le fleuve Paraná, à la frontière du Paraguay et de l'État du Paraná, au Brésil. Il reçoit des apports importants en sédiments et en nutriments ce qui provoque son eutrophisation et un 102 risque d'envasement prématuré. Le potentiel agricole de la région est très élevé du fait de la qualité des sols et de la régularité des pluies. Les rendements de soja y atteignent des records. Cette région est exploitée en grands domaines mais aussi par de petits propriétaires qui diversifient leur production par des élevages avicoles, porcins et laitiers. L'activité agricole est à la base de l'économie régionale qui compte de nombreuses industries agro-alimentaires. Le semis direct est largement pratiqué dans la région d'Itaipu mais il se résume le plus souvent à du non-labour sans raisonnement des couverts végétaux en période hivernale, ni de rotation des cultures et un usage abondant d'herbicides. Les gestionnaires du barrage d'Itaipu (société Itaipu Binacional) financent un vaste programme nommé Cultivando Água Boa qui concerne l'épuration des eaux urbaines, la protection de la forêt sur les berges du lac et des cours d'eau, l'aménagement des versants et le développement de pratiques agricoles respectueuses de l'environnement. Ce programme s'applique sur le bassin versant des affluents du lac de barrage en rive gauche, nommé bassin du Paraná 3, qui représente une surface de 8 000 km2 (Figure 45). Figure 45 : Le bassin du Paraná 3 (In Laurent et al., 2011) Le Paraná 3 est couvert de banquettes anti-érosives dont la réalisation a été financée par le programme Cultivando Água Boa dans les exploitations familiales. Les cultures sont systématiquement implantées en suivant les courbes de niveau (contouring). Le dimensionnement des banquettes permet de retenir le ruissellement généré par des pluies de période de retour de 20 ans. La forte perméabilité des sols entraîne une infiltration rapide de l'eau en amont de la banquette sans dommage pour les cultures. Selon les ingénieurs de la FEBRAPDP, si la plupart des agriculteurs a accepté la construction de ces banquettes, la moitié les entretient bien, les autres en arasent certaines lorsqu'ils les jugent trop rapprochées pour faciliter le passage des engins. Avant la large diffusion du semis direct, opérée durant la décennie 1990, l'érosion était extrêmement forte dans cette région avec des valeurs de dégradation spécifique atteignant 50 t.ha-1.an-1 (source : entretien avec Glaucio Roloff, agronome à l'UNILA – Universidade 103 Federal da Integração Latino-Americana). Le semis direct y a constitué un réel progrès. Mais son impact sur l'érosion pourrait être amélioré grâce à la mise en place d'une couverture permanente et à la rotation des cultures. Soja sur mulch Comptage de vers de terre pour évaluer la qualité du système Champ de soja Petit producteur participant au programme d'amélioration du semis direct Figure 46 : semis direct sous couvert végétal dans la région d'Itaipu Afin d'améliorer le semis direct, la FEBRAPDP participe au vaste programme Cultivando Água Boa. L'objectif du projet concernant les pratiques agricoles est justement de réduire l'érosion des sols et d'améliorer la performance économique des exploitations. Le projet qui a débuté en 2005, est construit sur une démarche participative à laquelle sont associés les agriculteurs lors de réunions et de visites de terrain à l'échelle de six sous-bassins versants. La FEBRAPDP apporte des connaissances agronomiques et contribue à la valorisation des expériences acquises par les agriculteurs du secteur. La fédération et les agriculteurs locaux ont conçu ensemble un système d'autoévaluation de la durabilité du système de semis direct. Il est fondé sur une analyse multicritère n'exigeant ni mesures coûteuses, ni ingénierie extérieure, mais sur l'observation et le savoir faire des producteurs, nécessaires à une appropriation réelle et durable des innovations. Les critères concernent la couverture des sols, la fertilisation organique, les rotations (par exemple une culture de blé, d'avoine ou de Brachiaria en hiver, suivie de soja et de maïs en été), la réduction des doses d'herbicides, le non-travail du sol et un comptage des vers de terre attestant de la bonne qualité biologique des sols. Outre son intérêt technique et environnemental, cette démarche vise à rendre les 104 agriculteurs plus autonomes dans le raisonnement de leurs pratiques. En effet, les fournisseurs de pesticides ou de semences sont souvent les seuls conseillers des agriculteurs, bien qu'ils soient économiquement intéressés par les choix opérés. Eutrophisation dans le lac de barrage d'Itaipu Affluent du lac à forte charge sédimentaire Déversoir de crue du barrage d'Itaipu Figure 47 : Le barrage d'Itaipu La Figure 48 souligne la prédominance du système de semis direct (tel que l'IBGE le définit, cf. supra) sur le bassin du Paraná 3. Le Semis Direct sur Couverture Végétale est largement plus pratiqué dans cette zone que dans le reste de l'Etat du Paraná. Cette situation s'explique tout d'abord par le fort potentiel pédo-climatique qui permet deux à trois récoltes par an, ce qui incite à réduire la durée d'interculture au moyen du semis direct. L'érosion des sols affecte par ailleurs la productivité et Itaipu Binacional soutient depuis plusieurs années les actions de sensibilisation et de formation des agriculteurs sur les intérêts du semis direct. Il est cependant notable de remarquer des différences de diffusion de cette technique entre les municipios proches du lac de barrage, en zone vallonnée, qui pratiquent encore pour un quart à la moitié le labour et ceux plus éloignés, situés sur le plateau à l'Est, où le labour est très minoritaire. Ces différences peuvent s'expliquer en partie par la taille des exploitations, plus étendues sur le plateau, interprétation qui converge avec différents travaux montrant que le semis direct est plus pratiqué dans les grandes exploitations (Bollinger et al., 2007) et qui confirme le modèle de diffusion des innovations de (Hägerstraand, 1953) : les grands 105 producteurs de par leur formation plus poussée, leur insertion dans des réseaux techniques, sont plus aptes à adopter des innovations que les petits producteurs. Figure 48 : Travail du sol et semis direct dans le du bassin du Paraná 3 (source IBGE, 2006 ; In Laurent et al., 2011) 106 3. L'agriculture de conservation en France L'agriculture de conservation est promue en France par l'association BASE (Bretagne, Agriculture, Sol et Environnement) qui s'appuie sur la revue TCS (Techniques Culturales Simplifiées), ainsi que par l'APAD (Association pour la Promotion d'une Agriculture Durable). BASE a été fondée en 1998 et regroupait alors une cinquantaine d'adhérents surtout répartis dans le nord-ouest de la France (la première initiale signifie d'ailleurs Bretagne), elle en compte plus de 800 en 2012 et son réseau couvre aujourd'hui une grande partie de la France métropolitaine. Les rédacteurs de la revue et les membres du réseau animent des journées techniques dans les départements où ils sont présents. L'assemblée générale annuelle de l'association BASE est l'occasion d'une conférence donnée par un invité étranger, généralement un agriculteur, le public s'élève à 300-400 participants. Les agriculteurs de ce réseau considèrent que le sol constitue le capital essentiel de l'agriculture. La compréhension et le respect de son fonctionnement naturel sont nécessaires selon eux pour assurer une activité agricole durable. Le système qu'ils défendent s'appuie sur un couvert végétal permanent du sol, sur le non-labour (semis direct ou travail simplifié) et sur l'établissement de rotations longues et diversifiées. Selon ces agriculteurs, le travail du sol ne pouvait se justifier auparavant que pour la lutte contre les adventices et pour la préparation du lit de semence, d'autres techniques alternatives permettent d'y parvenir à présent, en ne recourant pas forcément à des herbicides (Huchon, 2010). Pour ce réseau, le non-labour est une condition nécessaire mais non suffisante pour s'inscrire dans la durabilité, le rôle des couverts est essentiel voire prépondérant. Depuis 2009-2010, l'audience de BASE et de l'APAD va au-delà des manifestations qu'ils organisent. Par exemple, le groupe Terrena, une des grandes coopératives française, implantée dans l'ouest, soutient ce système au moyen de son réseau d'information et de conseil. Il s'inscrit selon ce groupe dans le paradigme d'une « agriculture écologiquement intensive » prônée par Michel Griffon (Griffon, 2010). Le non-labour se développe en France (avec du retard, relativement au continent américain) : en 2005, il couvre plus du tiers des surfaces en grandes cultures (céréales et oléoprotéagineux) (ADEME, 2007). Cependant, une grande partie des agriculteurs ne labourant plus, ne s'inscrit pas pour autant dans l'agriculture de conservation car leurs objectifs sont moins ambitieux : pour la plupart, il s'agit essentiellement d'une économie de carburant, à l'heure de la flambée des prix des hydrocarbures, la simplification du travail du sol permet d'y parvenir en réduisant les consommations de carburant de 20 à 50 % (ADEME, 2007; Zanella, 2007). Les agriculteurs sont également motivés par le gain de temps et l'économie de matériel (baisse d'un tiers des coûts de matériel selon l'ADEME, 2007). En pratique, beaucoup d'agriculteurs en non-labour portent moins d'attention à la vie biologique des sols que les promoteurs de l'agriculture de conservation, ils négligent souvent l'importance des couverts végétaux et des rotations. L'emploi des herbicides constitue chez eux le substitut au travail du sol et entraîne bien souvent leur utilisation plus élevée qu'en agriculture conventionnelle avec travail du sol. Les promoteurs de l'agriculture de conservation ont une vision plus systémique, mais les principes ne donnent pas lieu à des normes. L'Agriculture de Conservation, prônée par le réseau BASE, est ouverte aux adaptations par les agriculteurs selon leur environnement, leur système de production, comme à d'autres contraintes propres (Thomas, 2002). Le système de l'Agriculture de Conservation est fondé sur l'observation et l'échange d'expériences. Une compréhension de la complexité de la vie biologique du sol est recherchée avec une maîtrise agronomique qui doit permettre à l'agriculteur de moins dépendre des préconisations techniques de l'agrofourniture et le conduire à réduire ses consommations d'intrants (engrais minéraux, pesticides, carburants). Nous sommes ici dans le registre de la recherche d'une plus 107 grande autonomie et de la valorisation des compétences de l'agriculteur. Les exploitations en agriculture de conservation ne disposent pas d'aide directe à ce titre dans la plupart des pays, les Etats peuvent financer cependant l'appui technique. Impacts environnementaux en région de moyenne latitude La technique du non-labour recouvre soit un travail du sol superficiel ou profond sans retournement (terme de TCS employé, pour Techniques Culturales Simplifiées), soit une absence totale de travail du sol hormis sur le rang de semis (terme de semis direct). La gestion des résidus, le couvert végétal, les rotations varient également entre les systèmes de nonlabour. La diversité des pratiques associées au non-labour explique une variabilité de son efficacité environnementale. L'étude réalisée en France par Arvalis (ADEME, 2007) sur un large panel de pratiques de non-labour montre de manière générale que : le stock en matière organique s'élève, les émissions de gaz à effet de serre se réduisent (notamment grâce à la baisse de consommation de carburant : de 20 % en TCS à 40-50 % en semis direct), l'érosion baisse nettement (d'un facteur supérieur à 5, dans 60 % des cas), la biodiversité et l'activité biologique sont accrues. Les résultats concernant les risques de transferts de contaminants vers l'eau sont plus discutés et variables. En l'absence de labour, un gradient de concentration décroissante de phosphore s'établit avec la profondeur, ce qui selon certains travaux (Arvalis – La Jaillère, communication orale avec Anne-Monique Bodilis) facilite sa prise en charge par les eaux qui ruissellent et accentue le transfert de phosphore dissous, le plus déterminant pour l'eutrophisation. Sur les parcelles drainées, l'absence de labour facilite le transfert rapide de phosphore vers les drains par le biais des fissures et des galeries de vers de terre non brisées par le travail du sol. Ainsi, en l'absence de labour, les transferts de phosphore dissous par drainage sont multipliés par deux (Zeimen et al., 2006; Castillon, 2008). Concernant le transfert de nitrates, au-delà de 4-5 ans après la phase d'organisation de l'azote, le non-labour aurait un impact insignifiant (Catt et al., 2000; Stoddard et al., 2005). Mais, sur des cultures de tabac en Virginie, des auteurs montrent une forte efficacité du semis direct sur les transferts d'azote avec une réduction de 63 % sur l'azote total et de 49 % sur les nitrates dans les eaux de ruissellement (Benham et al., 2007). Le semis direct est controversé en ce qui concerne l'emploi des herbicides. En effet, le labour permet de limiter les plantes adventices et, en son absence, le semis direct implique le plus souvent l'emploi d'herbicides. Les détracteurs du semis direct lui reprochent pour cette raison d'être un système liant l'agriculteur à l'industrie agrochimique, voire aux plantes transgéniques résistantes aux herbicides (Lal, 2007). Le glyphosate (herbicide de post-levée largement utilisé de par le monde et particulièrement en système de non-labour) inhiberait à moyen terme la vie épigée du sol (Serpantié, 2009), il présente par ailleurs des risques inquiétants sur la santé humaine (Delabays, Bohren, 2007; Benachour, Seralini, 2008). Le glyphosate se dégrade en aminométhylphosphonate (AMPA) qui présente une forte persistance et est fréquemment mesuré dans les eaux en France. Dans le nord-ouest de la France, sur le site de la Jaillère, suivi par Arvalis, le non-labour présente des résultats contrastés vis-à-vis des risques de transferts de molécules : ils sont moins élevés avec le semis direct qu'avec le labour pour les molécules utilisées au printemps, mais cela s'inverse pour les molécules utilisées à l'automne (Réal et al., 2005). La synthèse bibliographique conduite pour l'ADEME souligne cependant de façon plus générale que la présence d'un mulch en surface intercepte tout d'abord une grande partie des produits appliqués (jusqu'à 80%), que l'augmentation de la teneur en matière organique dans les horizons superficiels en non-labour favorise l'adsorption des produits et qu'enfin l'augmentation de l'activité microbienne permet une dégradation plus rapide des produits appliqués (ADEME, 2007). Dans le cas d'un 108 système intégré d'agriculture de conservation, à l'absence de travail du sol sont associés les couverts végétaux en interculture qui permettent de limiter le développement des adventices et ainsi l'usage d'herbicides. En outre, les rotations longues qui sont prônées réduisent les adventices et les parasites, ce qui abaisse également l'usage des herbicides et des insecticides. La « Lutte Phytosanitaire Intégrée » est d'ailleurs préconisée par les promoteurs de l'agriculture de conservation. Scopel et al. (2004) montrent ainsi que, dans de tels systèmes, l'emploi d'herbicides s'abaisse au bout de quelques années du fait du mulch et du couvert végétal qui bloquent la germination des adventices (Scopel et al., 2004). 4. Convergences et divergences entre le Brésil et en France La diffusion du semis direct en général et de l'agriculture de conservation en particulier ont été appréciées par une analyse bibliographique, par des observations sur les terrains d'étude et par l'exploitation de données statistiques. Des enquêtes réalisées auprès de responsables de réseaux professionnels ou d'agriculteurs pratiquant l'agriculture de conservation, comme la participation à des réunions de l'association BASE, nous permettent de mieux saisir les convergences et divergences entre le Brésil et la France dans la diffusion de ces systèmes. Nous devons d'abord reconnaître que les démarches entreprises au Brésil et en France ne sont pas si éloignées. L'analyse des enquêtes fait apparaître les traits communs suivants : • Une critique du système conventionnel jugé non durable : érosion et appauvrissement des sols, forte dépendance aux prix croissants des intrants et du machinisme. • Un niveau de connaissance élevé en agronomie ou, tout du moins, un souci d'observation et d'expérimentation, preuve en est la place donnée dans les publications et les conférences organisées par les réseaux à des connaissances scientifiques très en amont de l'acte de production. • Une recherche de réduction des coûts de production par la baisse de la consommation d'intrants : o au Brésil, l'émergence du semis direct a été favorisée par la crise agricole des années 1980-1990 pendant laquelle les aides de l'État furent fortement réduites et les prêts bancaires rendus difficilement accessibles ; il s'est agît de réduire les coûts de production en l'absence d'aides publiques et de cherté des importations (carburant, matériel agricole) ou des produits suivant les cours du pétrole (engrais de synthèse) ; o en France, la diffusion du semis direct est plus récente (depuis 2005, schématiquement), elle s'explique également en grande partie par l'accroissement des prix des intrants et par l'agrandissement des exploitations qui incite à la simplification des travaux. • Une volonté de protection du milieu et plus particulièrement des sols, base de la production végétale et animale, le milieu n'apparaît plus comme une contrainte à surmonter mais comme un allié, voire un modèle (la forêt tropicale dans le système porté par le Cirad). • Un besoin de recherche – développement sur des équipements spécifiques, se traduisant par des accords avec les industriels fabriquant d'engins agricoles. • L'importance des réseaux professionnels de diffusion de l'agriculture de conservation : les exploitants rencontrés ne sont pas des individus isolés mais se sont inscrits dans des réseaux de producteurs afin de partager des savoir-faire, c'est grâce à ces échanges que leur système a progressé. Des visites d'exploitations, des revues professionnelles, des sites Internet, des forums organisés par les Clube dos Amigos da Terra, le Clube da Minhoca et par la FEBRAPDP au Brésil, par BASE ou l'APAD en 109 • France, permettent de partager les expériences acquises et d'entraîner d'autres agriculteurs. La dimension collective est importante car il est difficile à un agriculteur d'avancer seul dans ces systèmes d'autant qu'ils correspondent à une certaine prise de risques : des événements météorologiques, des invasions de parasites ou des erreurs techniques pouvent entraîner de mauvais résultats certaines années, l'agriculteur est alors tenté de retourner à un système conventionnel, plus normé, d'autant qu'il se trouve en général isolé géographiquement dans ses pratiques. Selon la façon dont elle est vécue, l'expérience d'une difficulté n'est pas uniquement négative car « la prise de risques engendre des échecs mais l'important c'est d'expliquer les raisons de l'échec, alors la perception change et on peut progresser ensemble » (entretien avec un agriculteur du réseau BASE). Un besoin de reconnaissance des bénéfices environnementaux par la société ou par l'Etat. Divergences : • L'enjeu d'érosion des sols est plus important au Brésil car l'érosivité des pluies y est plus élevée. • L'augmentation des rendements est significative au Brésil, alors qu'ils avoisinent ceux des systèmes conventionnels en France, ceci s'explique par la forte réduction de l'érosion et par l'importance de la matière organique dans la rétention de nutriments en milieu tropical. • La pollution de l'eau et des sols par les herbicides est peu prise en compte dans les régions étudiées du Brésil (Itaipu et Ibicuí), contrairement à la France où c'est un enjeu bien identifié. • En France, une plus grande importance est donnée aux couverts végétaux qu'au non labour, nous interprétons cela notamment par l'importance des questions de pollution et de ce fait la valorisation des effets de rétention des nutriments, reconnue par l'Etat et les gestionnaires de bassins depuis la fin de la décennie 1990, les conséquences de la réduction du travail du sol sur le transfert de nutriments étant plus discutés. • La question foncière : les agriculteurs français sont protégés par des baux de longue durée qui favorisent a priori la mise en place de systèmes plus durables, avec un « retour sur investissement » (notamment parce que les premières années sont marquées par une « faim d'azote » résultant d'une intégration de l'azote dans la matière organique du sol, les rendements s'améliorent au bout de 4 à 5 ans) ; au Brésil, les baux peuvent être réduits à un an et des producteurs louent des terres de grandes propriétés qu'ils ne sont pas certains de pouvoir exploiter sur le long terme. Finalement, au Brésil comme en France, la diffusion du semis direct sur couvert végétal a été initiée par des agriculteurs pionniers, férus d'agronomie. L'approche qu'ils ont développée est fondée sur un respect de la vie biologique des sols en considérant qu'il faut « nourrir le sol avant de nourrir les plantes ». La conversion du système de production vers l'Agriculture de Conservation s'est manifestée par des gains réels en matière d'économie d'intrants permettant à l'agriculteur de diminuer sa dépendance à ceux-ci et aux fluctuations de leurs valeurs. Le potentiel de production des sols s'est accru grâce à un enrichissement en matière organique. Mais l'amélioration du système a nécessité plusieurs années, en ayant recours à de nombreuses évolutions techniques. Les producteurs ont raisonné leurs pratiques en fondant les gains de productivité sur un respect de la vie biologique du sol et de ses cycles naturels, garants selon eux de la durabilité du système de production. Les innovations sont issues d'expériences conduites par les agriculteurs qui ont partagé leurs savoir-faire. Ce processus a valorisé les compétences des agriculteurs sans leur imposer un 110 système « idéal », venu des sphères institutionnelles, ce qui explique en grande partie son succès. Ceci converge avec d'autres expériences dans le domaine de l'innovation (Coudel, Tonneau, 2010). Le partage d'informations est essentiel, il passe par la lecture de revues, des forums et des communications sur Internet, sans exclure des visites d'exploitations et des réunions de groupes locaux. La différenciation culturelle mise en évidence par Hägerstraand dans la diffusion spatiale de l'innovation est cependant encore pertinente : entre producteurs possédant un certain niveau de connaissances, lisant la presse spécialisée, impliqués dans des réseaux techniques plus facilement susceptibles d'innover d'une part, et exploitants se fiant plus à l'observation directe de pratiques au champ qui demandent plus de temps pour changer de système, ce qui nécessite une certaine proximité (Hägerstraand, 1953). Rencontre entre agriculteurs français du réseau BASE, le président de la FEBRAPDP et un universitaire brésilien Agriculteurs observant la structure et l'activité biologique du sol sur une parcelle en semis direct Figure 49 : Partage d'expériences entre producteurs en agriculture de conservation Le soutien scientifique et technique des chercheurs et des ingénieurs des universités et des centres de recherche agronomique a également été important pour concevoir et faire évoluer les systèmes et pour évaluer et capitaliser les expériences. Les firmes multinationales de l'agrochimie, les coopératives et les entreprises de matériel agricole apportent aussi un soutien financier et technique conséquent à ce développement, tout en cherchant à l'orienter vers l'emploi de leurs produits et matériels. L'intégration des individus à un groupe est une dimension fondamentale dans le processus de diffusion : la rupture de l'isolement dont souffrent de nombreux agriculteurs, la multiplication des échanges avec des professionnels venus de différents horizons, une certaine fierté de contribuer à un mouvement qu'ils considèrent à l'avant-garde, les valeurs positives qu'ils peuvent présenter pour l'environnement et donc pour le reste de la société sont des facteurs expliquant leur engagement. La vision systémique d'une certaine « avant-garde » d'agriculteurs qui intègrent le semis direct dans un ensemble de techniques améliorant les sols et diminuant l'utilisation d'intrants n'est cependant pas partagée par le plus grand nombre des producteurs qui réduisent le semis direct au fait de ne plus travailler le sol. Les motivations de cette majorité sont avant tout l'économie de carburant, de matériel et de temps de travail ou la mise en culture de sols 111 improductifs en système conventionnel. L'évolution du plus grand nombre vers un système intégré d'agriculture de conservation nécessitera une meilleure appropriation des connaissances des processus naturels et l'appui à la réalisation d'un réseau de parcelles de démonstration à proximité des producteurs car pour beaucoup de producteurs la « preuve par l'exemple » et le contact direct sont primordiaux. Un partenariat entre des associations d'agriculteurs et des institutions publiques, telles qu'elles sont expérimentées sur le Paraná 3, auraient certainement un rôle important à jouer afin que les intérêts économiques immédiats ne priment pas sur une agriculture durable. 112 Conclusion de la 1ère partie Le modèle de développement agricole construit durant la seconde moitié du 20ème siècle a généré de gains de rendement considérables mais, fondé sur l'utilisation massive d'intrants sans se préoccuper des conséquences sur le milieu bio-physique environnant, il montre de plus en plus de limites. La reconnaissance des services écologiques (rendus par le sol, la faune et la flore non cultivées) dans le renforcement de la productivité des exploitations offre de nouvelles perspectives à l'agriculture et à la société. Dans le sud du Brésil et dans l'ouest de la France, les contextes sociaux, les enjeux sur l'eau et l'agriculture diffèrent, mais des deux côtés de l'Atlantique, les objectifs de gestion durable des ressources en eau sont conditionnés par la participation des agriculteurs et par leur adhésion aux projets territoriaux. En effet, comme nous l'avons vu sur l'Oudon, le Rochereau, l'Ibicuí et le Paraná 3, afin de résoudre les problèmes qui y sont posés, les agriculteurs sont associés aux processus de négociation auxquels participent les autres usagers de l'eau et les pouvoirs publics. Si ces interactions génèrent parfois des conflits ou des tensions, elles sont aussi sources de nouvelles solidarités et font tout du moins évoluer les perceptions et les pratiques. Elles conduisent à une certaine régulation collective et permettent une adaptation des solutions techniques aux caractéristiques territoriales à la fois en matière de milieu biophysique et en matière socio-économique. L'expérience du Nordeste du Brésil montre par ailleurs que le poids des structures sociales, les inégalités d'accès à la terre et aux ressources en eau, la pauvreté rurale, l'exclusion des paysans pauvres se manifestent dans les choix de développement agricole et de gestion des ressources en eau qui sont lourds de conséquences sur les sociétés rurales. Les politiques de partage de la ressource reflètent les structures sociales et d'une certaine manière les reproduisent. Des alternatives au système intensif à forte consommation d'intrants existent à présent pour répondre aux besoins d'accroissement de la productivité sans dégradation des ressources naturelles. Parmi ces alternatives, l'Agriculture de Conservation présente une forte dynamique d'expansion à travers le monde. L'ensemble des pratiques est révisé et un nouveau système de production est construit par les agriculteurs, avec l'appui de la recherche agronomique. Il ne s'agit pas d'un modèle définitif et universel, mais de principes de production fondés sur l'activité biologique des sols garantie par le respect de sa structure et par des apports en carbone. Ce système permet une hausse de la productivité en milieu tropical, une réduction de l'érosion des sols et une baisse de la consommation de carburants et d'intrants observées sous différentes latitudes. Sa diffusion se manifeste par de multiples adaptations en fonction du contexte pédo-climatique, de la taille des unités de production et des savoirs et savoir-faire des agriculteurs. Ce système montre que le développement agricole peut ne pas s'opposer à la préservation du milieu. Il montre également que la préservation des ressources ne viendra pas du seul fait des réglementations, se traduisant par des techniques imposées, perçues comme des contraintes par les producteurs et assez souvent contournées. Les techniques agroenvironnementales peuvent être réellement appropriées par les agriculteurs si elles entrent en phase avec un système de production agronomiquement et économiquement performant. Dans cette première partie, nous nous sommes attachés à décrire les processus de pollution diffuse des ressources en eau par l'agriculture, le raisonnement des pratiques agricoles qui ont un impact sur la qualité de l'eau et les dynamiques territoriales générées par la régulation de ces pratiques. Durant la deuxième partie, nous allons présenter une méthode d'identification des interactions entre pratiques, milieu et qualité des eaux de surface à l'échelle de bassins versants afin d'évaluer les variables déterminantes. Cette méthode, fondée sur la modélisation agro-hydrologique, permet en outre de simuler l'impact de pratiques alternatives de réduction de la pollution. 113 114 2ème partie : Méthodologies L'analyse des impacts des activités agricoles sur les ressources en eau butte sur des difficultés méthologiques, en effet les systèmes bio-physiques naturels et les systèmes de production agricole s'enchevêtrent. Les pratiques agricoles modifient le milieu mais sont également contrôlées par celui-ci, les résultantes de ces interactions en matière de flux d'eau et de polluants ne peuvent donc être évaluées que par une prise en compte de l'ensemble du système. Les questions majeures que nous avons retenues dans nos orientations méthodologiques sont : Comment représenter à l'échelle de bassins versants, les interactions entre les facteurs déterminant les transferts d'eau et de polluants, qu'ils soient liés au milieu bio-physique ou à l'activité agricole ? Sur quels leviers agir ? Quelle peut en être l'efficacité ? Afin de répondre à ces questions, il est apparu nécessaire de représenter la dynamique spatio-temporelle des processus. Dans ce but, nous nous sommes orientés vers la modélisation agro-hydrologique distribuée car elle permet de prendre en compte le rôle des facteurs du milieu (climat, sol, topographie), des types de culture et des pratiques agricoles, dans leur variabilité spatiale et temporelle. Dans cette partie consacrée aux méthodologies, nous commencerons par présenter les bassins versants de l'ouest de la France où la modélisation a été mise en oeuvre. Puis, nous nous intéresserons à l'obtention de cartes des facteurs qui déterminent le comportement hydrique des sols par une méthode spécifique adaptée aux échelles étudiées. Ensuite, la modélisation sera développée en matière de processus modélisés, de données, de procédures de traitement et de lecture des résultats des simulations face aux observations. Une attention particulière sera portée à la sensibilité des résultats à la résolution spatiale des données d'entrée car cette question est particulièrement importante lors des changements d'échelle nécessaires pour le passage à des bassins versants de tailles variables. La lecture des résultats nous conduira à mettre en évidence le poids des successions culturales, des pratiques, du climat et des sols dans les transferts de nitrates et de phosphore et la qualité résultante dans les eaux de surface. Sur un des bassins d'étude, les résultats et leurs apports seront comparés à ceux obtenus par un indicateur issu d'une analyse multicritère, de mise en oeuvre plus simple. Nous nous intéresserons ensuite à la simulation de changements de pratiques et de successions sur la qualité des cours d'eau afin d'évaluer l'efficacité à l'échelle du bassin versant de différentes alternatives élaborées par les acteurs locaux. Nous terminerons cette partie par une application de la modélisation hydrologique distribuée à une problématique et à un contexte géographique différents en analysant ses apports à la compréhension des phénomènes déterminant la variabilité de l'écoulement d'un grand bassin soudano-sahélien d'Afrique de l'ouest. 1. Présentation des bassins, objets de la modélisation des pollutions Nos travaux de modélisation des flux de nitrates et de phosphore d'origine agricole ont été réalisés sur trois bassins versants des Pays de la Loire : la Moine (385 km2) dans le sud-ouest du Maine et Loire, le Rochereau (206 km2) à l'est de la Vendée et l'Oudon au nord-ouest du Maine et Loire et au sud de la Mayenne (1 480 km2) (Figure 2). Les trois bassins s'inscrivent dans un contexte similaire : socle armoricain recouvert d'altérites peu épaisses, à dominante limoneuse, climat océanique, caractère rural, orientation dominante vers la polyculture élevage. L'Oudon et le Rochereau ont déjà fait l'objet d'une présentation en 1ère partie, mais nous insistions plus alors sur la dynamique socio-territoriale de gestion de l'eau et du 115 développement agricole, nous présentons à présent leurs caractéristiques pédo-climatiques, hydrologiques et leur occupation du sol en préalable à la modélisation qui y a été réalisée. 1. Moine Le bassin versant de la Moine est situé dans le département du Maine-et-Loire. La Moine est un affluent rive droite de la Sèvre Nantaise, qu'elle rejoint à Clisson. La morphologie correspond un plateau faiblement incliné vers l'ouest et incisé progressivement par le réseau hydrographique vers l'aval. L'altitude varie de 180 mètres au nord-est à 15 mètres à Clisson, à la confluence de la Moine avec la Sèvre Nantaise. La géologie est constituée de schistes et grès principalement, d'âge précambrien ou paléozoïque, affectés par la tectonique hercynienne et injectés d'intrusions granitiques. Le fond des vallées principales est couvert d'alluvions peu épaisses sur une faible largeur, étant donné l'encaissement du réseau hydrographique. Les plateaux de la partie occidentale du bassin sont couverts de loess sur une épaisseur comprise généralement entre 1 à 2 mètres. Les sols dominants sont limoneux et hydromorphes (luvisols rédoxiques et rédoxisols) sur les plateaux, des limono-sableux sains et peu épais (brunisols et brunisols lithiques) sur les versants des vallées et limoneux ou limono-argileux et hydromorphes (luvisols et colluviosols rédoxiques) dans les fonds de talwegs (classification des sols du référentiel pédologique de (Baize, Girard, 1995)). La moyenne interannuelle des précipitations à Cholet est de 751 mm et la température moyenne est de 11,4°C (entre 1966 et 1999, source : MétéoFrance). Le climat océanique est caractérisé par des précipitations relativement bien réparties sur l'année (maximales en décembre avec en moyenne 80 mm, minimales en juillet avec en moyenne 44 mm) et des températures modérées (moyennes mensuelles de 4,9°C en janvier et de 18,8°C en juillet). Le bilan hydrique annuel moyen présente un excédent d'octobre à février s'élevant à 280 mm dans le cas d'un sol avec une réserve utile de 100 mm. Le paysage du bassin est un bocage avec quelques forêts au nord-est et l'urbanisation de Cholet au centre nord. Le bassin est à dominante d'élevage bovin viande avec du hors-sol en complément dans certaines exploitations. La population du bassin de la Moine s'élève à près de 71 000 habitants (Chapdelaine, 2006). Figure 50: Occupation du sol sur le bassin de la Moine en 1999 La Moine constitue la ressource en eau de l'agglomération de Cholet grâce à deux barrages en amont du bassin qui forment les lacs du Verdon et de Ribou. Si la teneur en nitrates est peu élevée (14 mg.l-1 en moyenne aux prises d'alimentation en eau potable), les problèmes 116 d'eutrophisation des plans d'eau et des cours d'eau sont fréquents du fait de flux importants en phosphore rejeté par l'assainissement et émis par les surfaces agricoles (CALLIGEE, 1998; Buffard, 2001). Les lacs de barrage à l'amont de Cholet en sont particulièrement atteints (arrêt de la production d'eau potable en été 2004 avec une alimentation par la Loire en substitution), ce qui nuît également aux activités de loisir (interdiction de baignade dans le Ribou certains étés). Figure 51 : Occupation du sol sur le bassin versant de la Moine en 1999 2. Rochereau Le Rochereau est le nom donné au barrage situé sur le Grand Lay dans l'est de la Vendée. Ce barrage alimente en eau potable environ 55 000 personnes. Son bassin versant couvre 206 km2. Le relief est formé d'un plateau accidenté de collines au nord et plus faiblement ondulé au sud, avec une vallée encaissée. L'altitude varie entre 276 m à Pouzauges et 50 m à la retenue. Le socle est constitué majoritairement de schistes et de granites au nord ou de basaltes au sud. Des brunisols lithiques (limoneux) couvrent près de la moitié du bassin essentiellement sur les pentes. Des brunisols limoneux généralement sains se développent sur les plateaux tandis que les fonds de vallées sont couverts de fluviosols et colluviosols limono-argileux hydromorphes (Levrel, 2003). La pluviométrie annuelle moyenne sur 30 ans est de 805 mm à la station de Chantonnay (source MétéoFrance), avec un minimum mensuel moyen de 42 mm en juillet et un maximum mensuel moyen de 97 mm en novembre. L'excédent hydrique s'étend de novembre à mars. Le bocage est assez bien conservé dans ce secteur, si ce n'est autour de la retenue du fait du remembrement. L'agriculture est centrée sur l'élevage bovin viande et le hors sol (volailles). Dans ces agrosystèmes, les effluents sont essentiellement apportés sur les cultures de maïs, ce qui conduit à leur surfertilisation. L'espace agricole est consacré aux prairies (53 % de la SAU), au blé et à l'orge (22 %) et au maïs (20 %). Le maïs est particulièrement développé au sud, à l'est de la retenue, car les agriculteurs y pratiquent l'irrigation. 279 agriculteurs ont été dénombrés sur le bassin en 2005, avec une surface Agricole Utile (SAU) moyenne de 59 ha. En 1997, la production d'azote par l'élevage était estimée à 2 209 tN.an-1 (Garon, 2005). La population du bassin versant est de l'ordre de 16 000 habitants. Les bourgs sont assainis par lagunage et la ville de Pouzauges par une station à boues activées. Près d'un tiers des habitants est en système d'assainissement individuel. Il y a 19 installations classées (essentiellement de l'agro-alimentaire). Avant épuration, l'émission d'azote d'origine 117 humaine peut être estimée à 58 tN.an-1 (en supposant une émission individuelle de 3,65 kgN.an-1, selon le ratio FNDAE). Les flux d'origine humaine peuvent ainsi être considérés comme faibles vis-à-vis des flux dus à l'élevage. Le bassin est équipé d'une station de jaugeage à Saint-Prouant à proximité amont de la retenue, présentant un bassin versant de 130 km2. Du fait de sa géologie peu perméable, les débits varient fortement sur le Grand Lay avec 0,183 m3.s-1 en moyenne mensuelle en septembre et 3,27 m3.s-1 en février (Garon, 2005). Figure 52 : Occupation du sol sur le bassin versant du Rochereau (Berthelot, 2002) 3. Oudon Le bassin de l'Oudon couvre 1 480 km2 à la confluence avec la Mayenne. Il est formé sur le socle armoricain constitué essentiellement de schistes et de grès fracturés et plissés par l'orogenèse hercynienne. Le relief est un plateau faiblement ondulé avec un réseau hydrographique incisant des vallées étroites, l'altitude varie de 192 m au nord à 15 m au sud. Les sols sont limoneux et hydromorphes sur les plateaux, sablo-limoneux sur les pentes des vallées et limono-argileux et hydromorphes dans les fonds de vallée. Les précipitations annuelles sont en moyenne de 743 mm et la température moyenne de 13°C (sur la période considérée 1999-2007, source MétéoFrance). Les aquifères sont rares et de faible extension dans cette zone de socle. Les circulations souterraines se localisent dans les zones d'altération et dans le milieu fissuré. Ainsi, le débit du cours d'eau est fortement variable avec une moyenne mensuelle de 25,2 m3.s-1 en janvier et de 0,5 m3.s-1 en août, pour un module de 8,7 m3.s-1 à la station de mesure de Segré (source : Banque Hydro). Le système agricole dominant est la polyculture - élevage. En 2000, on relevait près de 97 000 bovins, 1 000 000 de volailles et 54 000 porcins (source : Recensement Général Agricole RGA). 118 Sur le bassin, on dénombre près de 70 000 habitants. Les villes et villages sont équipés de systèmes collectifs d'épuration. Un tiers d'entre eux présente une efficacité de plus de 75 % et un autre tiers entre 50 et 75 % (source: Commission Locale de l'Eau de l'Oudon). Hors année sèche, les émissions urbaines représenteraient de l'ordre de 10 % des flux d'azote et de 20 à 40 % des fux de phosphore à Segré*. L'agriculture est donc la source dominante de pollutions en nutriments du bassin. Figure 53: Occupation du sol du bassin versant de l'Oudon en 2003 (cartographie réalisée à partir d'images SPOT par D. Ruelland – ESO) Les eaux superficielles captées à Segré alimentent 4 200 foyers. Les cours d'eau sont pollués par les nitrates, le phosphore et les produits phytosanitaires depuis les années 1980. Au captage de Segré, durant plusieurs années la norme des 50 mg.l-1 était dépassée plus de 18 jours par an et, de 2006 à 2009, un cinquième des mesures de produits phytosanitaires a dépassé 1 μg.l-1. Les concentrations en nitrates et les débits sont mesurés quotidiennement par la DREAL (Direction Régionale de l'Environnement, de l'Aménagement et du Logement, exDIREN) à Segré depuis 2002 (bassin de 1 310 km2). La moyenne en nitrates est de 21,9 mg.l-1, le maximum atteint 63,4 mg.l-1. * L'émission annuelle nette d'azote d'origine domestique est estimée à 112 tN.an-1 (en appliquant le ratio FNDAE de 11 g.personne-1.j-1 et un rendement moyen des stations d'épuration de 60 % sur l'azote selon les données de la CLE). La somme des flux d'origine industrielle est estimée 74 tN.an-1 (données de la CLE). En ce qui concerne le phosphore, les émissions nettes d'origine domestique sont estimées à 33 tP.an-1 (en appliquant le ratio FNDAE de 2,4 g.personne-1.j-1 et un rendement moyen des stations d'épuration de 50 % sur le phosphore selon les données de la CLE). La somme des flux d'origine industrielle est estimée 51 tP.an-1 (données de la CLE). Cette estimation néglige les phénomènes de stockage de ces types d'émission dans les sédiments des cours d'eau (qui peuvent être en réalité conséquents et ainsi diminuer la part de la contribution urbaine aux flux de phosphore mesuré à l'aval du bassin). 119 2. Cartographie des propriétés hydriques des sols et vulnérabilité des sols au transfert de polluants Ce travail s'insère dans une logique de constitution de bases de données géographiques nécessaires à l'évaluation des risques de transfert de polluants agricoles. En effet, le sol joue un rôle de rétention déterminant puisqu'il constitue le substrat des cultures et conditionne ainsi les prélèvements d'eau et de nutriments. Il est également le siège de phénomènes d'adsorption, de filtration physique et de dégradation biologique. Il stocke par ailleurs l'eau libre et les solutés dont elle se charge avant qu'ils ne soient absorbés par la végétation ou lixiviés dans les nappes souterraines et les cours d'eau. Il forme ainsi un compartiment essentiel de rétention. L'identification des sols est un élément important du diagnostic des risques de pollution. Or, en France, la cartographie des sols est hétérogène et, pour toute une partie du territoire national, elle est inexistante aux échelles situées entre le 1 / 50 000 et le 1/100 000. Nous avons élaboré une méthodologie de cartographie des propriétés hydriques des sols. Elle s'appuie sur des données géologiques et topographiques, aisément accessibles au 1/50 000, sur des sondages à la tarière et sur un traitement au moyen d'un Système d'Information Géographique. Notre préoccupation était de définir une méthode économe en mesures afin de pouvoir la généraliser sur des espaces importants, à des échéances raisonnables. La méthode est dénommée « Sol – ITL » car les entités spatiales constituées sont issues des combinaisons d'Indice Topographique et de Lithologie. Avec une démarche similaire, Curmi et al. ont également mis en évidence l'intérêt d'une approche de cartographie des sols basée sur des fonctions de pédotransfert pour étudier les flux en nitrates en Bretagne (Curmi et al., 1996). L'objectif de nos travaux a été de quantifier les relations entre les sols, la lithologie et la topographie pour construire une carte de certaines caractéristiques moyennes des sols : en l'occurrence leur réserve utile (RU), leur profondeur, l'épaisseur d'hydromorphie et leur perméabilité. Un sol avec une RU élevée est moins sensible au lessivage puisqu'il stocke une plus grande quantité d'eau et de solutés disponibles pour les végétaux. Un sol hydromorphe retient une quantité supplémentaire d'eau gravitaire par engorgement et est le siège de phénomènes de dénitrification. Une partie de l'excédent du bilan hydrique climatique est ainsi piégée dans les sols hydromorphes, ce qui peut réduire la contamination des cours d'eau par le nitrate de l'automne au printemps durant l'interculture. La perméabilité détermine quant à elle la rapidité du transfert, les capacités de dégradation des polluants sont donc en relation inverse de la perméabilité des sols. La méthode se décompose en quatre phases (Figure 54) : 1. réalisation de sondages à la tarière et de profils pédologiques, description de certaines caractéristiques du sol ; 2. estimation de propriétés hydriques des sols selon des fonctions de pédotransfert (Rawls et al., 1982; Rawls, Brakensiek, 1985) ; 3. analyse spatiale et analyse de la variance des relations entre les caractéristiques des sondages et les données cartographiques de géologie (lithologie) et de topographie ; 4. classification des combinaisons de classes d'indice topographique et d'unités lithogiques produisant une cartographie des propriétés hydriques des sols. 120 Figure 54 : Méthodologie (les couches cartographiques sont encadrées) 1. Sondages à la tarière et profils pédologiques Les sondages ont été réalisés avec une densité moyenne de 2 à 5 sondages par km2 selon les bassins versants. La position des sondages a été choisie en cherchant à représenter les différentes classes de pente et les différents substrats lithologiques, selon une logique de toposéquences. Pour chaque sondage, les différents horizons ont été identifiés de façon visuelle et leur classe texturale a été déterminée manuellement selon le triangle du GEPPA. Les indicateurs d'hydromorphie (taches de deferrification/oxydation, concrétions ferromanganiques) ont permis de mesurer l'épaisseur de la zone périodiquement engorgée sur la profondeur observée (1,2 m). L'épaisseur de l'hydromorphie est comprise entre la profondeur d'apparition des signes d'hydromorphie et une couche de blocage de l'eau qui peut être la roche peu altérée ou une altérite imperméable. Des profils pédologiques (15 à 20 par zone d'étude) ont été décrits et analysés afin de caler les observations faites à la tarière. 121 Fluviosol argileux hydromorphe, bassin du Rochereau Fosse pédologique, bassin du Rochereau Figure 55 : Observations en fosses pédologiques Figure 56 : Organisation des sols selon une toposéquence sur granite sur le Rochereau 2. Estimation de propriétés hydriques des sols La bibliographie présente plusieurs fonctions de pédotransfert élaborées pour déduire les propriétés hydriques des sols à partir de leur texture (Bastet et al., 1998). Nous avons retenu les équations de régression linéaire de (Rawls et al., 1982; Rawls, Brakensiek, 1985) pour l'estimation de la teneur en eau volumique (W) du sol à des potentiels de -330 hPa (capacité 122 au champ) et de - 15 000 hPa (point de flétrissement). Il est possible que ces fonctions de pédotransfert soient moins précises que d'autres qui s'appuient sur des classes granulométriques et sur d'autres paramètres du sol (Bastet et al., 1998). Mais, ces autres fonctions requièrent des mesures en laboratoire réalisables qu'en un nombre limité de profils. Ainsi, ce que nous gagnerions en précision sur les fonctions serait perdu en représentativité des échantillonnages et diminuerait ainsi la qualité de la spatialisation. Chaque horizon a été affecté à une classe de texture par détermination manuelle. Les fonctions de pédotransfert ont été utilisées pour calculer la RU de chaque horizon de chaque sondage, puis les RU des horizons ont été sommées pour obtenir la RU globale du sondage. 3. Cartographie des propriétés des sols Les résultats précédents sont attachés à des points. Nous recherchons durant cette phase les liens qui peuvent exister avec les variables lithologiques et topographiques afin de spatialiser ensuite les propriétés des sols. Nous supposons que la lithologie et la pente sont des variables explicatives, la RU et l'épaisseur d'hydromorphie sont considérées comme des variables résultantes. Les données qui ont été mobilisées sont organisées en trois couches cartographiques dans le SIG : - le Modèle Numérique de Terrain (MNT) issu de la BD Alti de l'IGN à une résolution de 50 mètres ; - la carte géologique du BRGM au 1/50 000, numérisée pour former une couche cartographique du SIG, les unités lithologiques sont agrégées par familles de faciès ; - la carte des sondages issue du terrain constituant une troisième couche cartographique qui a été réalisée avec des étudiants en master (Blot, 2001; Euriat, Tritz, 2002; Levrel, 2003). Les points ont été précisément localisés au GPS (précision de l'ordre de 1520 m). Le MNT est utilisé pour calculer un indice topographique. L'indice utilisé a été défini par Beven et Kirkby, il est pertinent pour identifier le mouvement de l'eau à l'échelle du paysage (Beven, Kirkby, 1979; Merot et al., 1995; Curmi et al., 1997; Gaddas, 2001). L'indice est élevé dans les talwegs et réduit sur les lignes de crêtes et les fortes pentes. Il permet d'identifier la propension du sol à être saturé. Il a été largement validé sur des zones de socle où les nappes souterraines suivent la topographie. L'indice topographique IT est défini ainsi : 6 ln A 3 11 IT = 44 5 tan β 2 avec : A : surface amont drainée spécifique en m2 par unité de largeur orthogonale à la direction d'écoulement 1 : pente topographique Plus la surface amont drainée spécifique est élevée et/ou plus la pente est faible (ce qui correspond à un indice topographique élevé), plus le sol est supposé avoir tendance à être saturé. L'intérêt de cet indice pour la prédiction de l'humidité des sols a fait l'objet de différents travaux. Merot et al. ont cherché à prédire l'extension des sols hydromorphes sur des bassins bretons à partir de cet indice (Merot et al., 1995; Curmi et al., 1997; Merot et al., 2003). Ils comparèrent les zones dépassant un certain seuil d'indice avec la carte des sols constituée au 1/25 000 : la structure spatiale et l'étendue des sols hydromorphes est correctement prédite par l'indice dans les fonds de talwegs. Mais l'hydromorphie de plateau est mal représentée par l'indice car elle est causée par la lithologie ou par des horizons 123 pédologiques imperméables. Gascuel-Odoux et al. ont modifié l'indice topographique en remplaçant la pente locale par la pente moyenne le long du chemin hydrologique séparant la maille de calcul du cours d'eau (Gascuel-Odoux et al., 1998). Dans un travail plus récent, Merot et al. appliquèrent un indice topographique modifié intégrant la lame d'eau précipitée afin de prédire les zones humides dans différentes conditions climatiques en Europe (Merot et al., 2003). La structure et l'extension générale sont bien identifiées mais l'indice ne permet pas de prédire la localisation exacte des zones humides. Nous allons voir par la suite que cet indice s'avère pertinent pour d'autres propriétés physiques du sol sur les zones d'étude : profondeur, texture, réserve utile et perméabilité. La carte des points de sondages est ensuite croisée à la carte lithologique ainsi qu'à la carte de l'indice topographique afin de construire un tableau présentant les variables explicatives et les variables résultantes par sondage. Les relations entre variables explicatives et résultantes sont présentées dans la Figure 57 et la Figure 58. Sur les bassins versants, les résultats mettent en évidence une croissance continue de la teneur en argile, de la profondeur du sol et de la RU lorsque l'indice topographique croît (Figure 57 illustrant l'application de la méthode sur le Rochereau). La perméabilité montre une décroissance significative mais irrégulière. La teneur en limons moyenne est constante entre les classes d'indice topographique sur le Rochereau et décroît en fonction de cet indice sur la Moine. Les moyennes des variables résultantes varient fortement entre unités lithologiques (Figure 58 illustrant l'application de la méthode sur le Rochereau). Ceci s'explique par la variabilité de vulnérabilité à l'altération des roches. Figure 57 : Le Rochereau, relations entre les classes d'indice topographique et les propriétés du sol 124 Figure 58 : Le Rochereau, relations entre la lithologie et les propriétés du sol Les écarts types sont élevés pour la perméabilité en fonction des classes topographiques et lithologiques, ce qui révèle une forte variabilité spatiale au sein des unités. Les relations entre variables explicatives et variables résultantes sont confirmées par une analyse de variance Les effets de l'indice topographique et de la lithologie sont significatifs. L'indice topographique présente un potentiel de prédiction supérieur à la pente. La pertinence de la prise en compte de la lithologie a déjà été mise en évidence par King et al. (2003) qui ont montré que l'erreur moyenne d'estimation des propriétés par des fonctions de pédotransfert pouvait être réduite par la classification selon le type de matériau parental (King et al., 2003). Ainsi, nous pouvons admettre que l'indice topographique et la lithologie constituent des variables explicatives déterminantes permettant de définir les lois d'organisation spatiale des propriétés hydriques des sols étudiés à l'échelle considérée. Les valeurs de propriétés des sols sont affectées à chaque combinaison d'indice topographique et de lithologie cartographiée. La Figure 59 illustre l'évaluation sur le Rochereau. La résolution de 50 m correspond à celle de la BD Alti. Nous voyons apparaître de fortes différenciations spatiales entre les plateaux, les pentes des talwegs et leur fond, mais, l'influence de la lithologie intervient aussi nettement au sein des plateaux où l'épaisseur des sols varie selon le matériau parental. 125 Figure 59 : Cartes des données prédictives (sources : IGN et BRGM) et de propriétés hydriques des sols résultant de l'analyse spatiale sur le bassin versant du Rochereau 126 4. Analyse de sensibilité à la densité des sondages La question est de savoir comment l'information dépend de la densité de points de sondages. L'information initiale a été dégradée en ne retenant que certaines toposéquences, ce qui réduit le nombre de points d'observation (Figure 60). Figure 60 : Sondages sur le Rochereau Les points de sondage de chaque densité sont représentés par la couleur de leur classe et par celle des classes de densité inférieure Cette réduction entraîne une modification des relations identifiées entre les variables explicatives et les propriétés recherchées. Un calcul de l'erreur quadratique moyenne (RMSE) de la surface relative de chaque classe de propriété par rapport à l'estimation réalisée avec la plus forte densité de points (1/22 ha) permet d'estimer la sensibilité de ces classes à la densité de points de sondages (cf. Figure 61). Figure 61 : Sensibilité de l'estimation des propriétés à la densité de points de sondage sur le bassin du Rochereau (RMSE : erreur quadratique moyenne) L'erreur quadratique moyenne s'accroît lorsque la densité de points baisse (sauf entre la première et la deuxième densité pour la RU). Mais la perte d'information n'est pas linéaire : elle s'accentue nettement lors du passage de 1 point pour 200 ha à 1 point pour 400 ha, 127 particulièrement pour la profondeur et la RU (ces deux propriétés sont d'ailleurs étroitement liées). La valeur du seuil dépend du contexte physiographique. L'identification de ce seuil permet, dans une région donnée, d'estimer la densité de sondages minimale pour déterminer avec une précision satisfaisante les relations entre la lithologie, la topographie et les propriétés des sols. Conclusion sur la méthode de cartographie des propriétés hydriques des sols L'intégration des données pédologiques constitue une phase importante dans l'évaluation des risques de pollution diffuse d'origine agricole. L'enjeu est de mieux comprendre les phénomènes de transfert à l'échelle de bassins versants et de mieux cerner les espaces à risques. Mais la géomatique ne remplace pas le travail de terrain qui reste bien entendu indispensable pour caler les classes réalisées par croisement cartographique. Une précaution s'impose quant à la transposabilité de la méthodologie sur d'autes espaces : la méthode a été élaborée et testée sur un secteur de socle. Elle ne peut donner des résultats satisfaisants que sur des secteurs où il y a des relations nettes entre la topographie, la lithologie et les sols. Dans des régions où ces relations sont plus tenues, des interpolations par krigeage semblent plus adaptées. La méthode proposée offre un moyen relativement rapide et économe pour identifier sur de grandes étendues les propriétés de rétention des sols d'une eau chargée en nitrate. Les résultats cartographiques sont susceptibles de constituer des supports pour une meilleure prise en compte du fonctionnement du milieu dans le cas de transferts diffus de polluants. Ils peuvent ainsi améliorer la perception de la variabilité spatiale de la vulnérabilité du milieu par les acteurs locaux, voire contribuer à une gestion différenciée de l'espace agricole en orientant préférentiellement des actions de protection des eaux sur les secteurs les plus vulnérables c'est-à-dire pour l'azote avec une faible RU et une faible hydromorphie. La cartographie des propriétés des sols peut par ailleurs être utilisée pour paramétrer un modèle hydrologique distribué, comme nous allons le présenter dans le chapitre suivant lors de l'analyse de sensibilité à la cartographie des propriétés hydriques des sols introduites dans le modèle SWAT. 128 3. Modélisation agro-hydrologique distribuée des pollutions agricoles L'évaluation des effets des activités agricoles sur la qualité des cours d'eau implique une représentation des processus de transferts de l'eau et des éléments qu'elle transporte. Dans le contexte de la protection des ressources en eau à l'échelle des unités de gestion que sont les bassins versants, il est nécessaire de mieux comprendre et représenter les processus régissant les interactions entre les pressions agricoles et le milieu biophysique. Le but est de hiérarchiser l'influence de différents facteurs de contrôle et de disposer de critères de choix pour améliorer l'efficacité des actions. Les processus sont en effet complexes à l'échelle d'un bassin versant. Il y a une variabilité spatio-temporelle des flux et des stocks dans les différents compartiments du cycle de l'eau et des nutriments : le sol, les végétaux, la zone non-saturée, la nappe souterraine, les cours d'eau, les zones humides et les plans d'eau. De plus, le transfert n'est pas conservatif pour les éléments polluants transportés par l'eau, les éléments sont en partie stockés ou transformés, comme le démontrent les abattements observés entre les entrées du système et les sorties mesurées sur les cours d'eau (Haag, Kaupenjohann, 2001) ; pour le cas de l'azote, une étude à l'échelle de grands bassins versants européens présente un rabattement moyen de 78 % entre la charge d'origine anthropique nette et les sorties à l'exutoire des bassins (Billen et al., 2011). 1. Choix opérés en matière de modélisation La modélisation a été orientée par le caractère appliqué des recherches réalisées. Nous sommes partis des problèmes posés par la pratique (en l'occurrence celle des gestionnaires de bassins versants confrontés à la pollution d'origine agricole) et non résolus par des méthodes conventionnelles, pour concevoir une méthodologie améliorant la représentation des phénomènes en jeu. Au cours du partenariat avec les acteurs territoriaux, nous avons établi un ensemble de besoins interrogeant la recherche : - Représentation spatiale des facteurs déterminants : le sol, la topographie, la météorologie, l'occupation du sol (avec les principales cultures, les prairies, les forêts et les zones urbaines) et les pratiques agricoles, - Modélisation agronomique pour représenter l'effet des pratiques agricoles, de la météorologie et du sol sur la croissance des cultures et ses conséquences en termes de flux d'eau et de nutriments, - Evaluation de l'effet tampon des matières organiques du sol sur les flux de nutriments, - Prise en compte de la dynamique de l'eau et des polluants hors de la zone racinaire par ruissellement en surface ou par infiltration dans une nappe souterraine alimentant ensuite les cours d'eau (les délais de réaction peuvent être parfois très longs, de l'ordre de plusieurs années), - Possibilité de validation des outils d'évaluation des risques par des mesures de débit et de qualité des eaux, disponibles en certains points du réseau hydrographique, - Capacité à tester des scénarios de pratiques agricoles et de choix culturaux, 129 - Adaptation aux données disponibles sur des territoires étendus (plusieurs centaines de km2), en mobilisant au mieux les bases de données existantes (IGN, BRGM, DREAL, Agence de l'Eau, réseaux de mesures locaux ou départementaux, etc.). Il ressort de l'analyse de l'adéquation des outils à ces besoins que les modèles statistiques globaux, mettant en relation des facteurs explicatifs et des variables mesurées, ne permettent pas de comprendre les phénomènes. Ils peuvent donner de bons résultats dans certains contextes, mais sans analyse des relations entre facteurs du milieu et facteurs de pression agricole. De plus, ils sont inadaptés sur des espaces non mesurés et ne permettent pas de simuler des scénarios de changement de pratiques ou d'assolements. Les modèles physiques sont les plus adaptés à ce contexte. Ils ont l'ambition de représenter les processus selon des lois physiques. Les intérêts d'une telle approche résident dans le fait qu'elle offre une prédétermination possible des paramètres par des données sur la zone d'étude et qu'elle suppose un certain réalisme de la transposition vers des espaces où les pollutions ne sont pas mesurées. Les modèles physiques permettent alors de simuler l'effet d'une évolution de l'usage du sol et, par extension, l'effet de modification de pratiques agricoles. Le couplage des modèles physiques avec des Systèmes d'Information Géographique (Loague, Corwin, 1998; Pullar, Springer, 2000; Ruelland, 2009) constitue un moyen de spatialiser les phénomènes d'émission et de transfert des polluants. Il est alors possible de classer les espaces suivant un critère de sensibilité ou en fonction d'un degré de priorité d'action. Mais, la mise en oeuvre de la plupart des modèles physiques est difficile car les paramètres à renseigner sont souvent très nombreux. Beaucoup d'entre eux ne sont pas adaptés à de grandes surfaces du fait de la difficulté de disposer d'informations précises pour renseigner le modèle d'une part et de la propagation des incertitudes dans les résultats d'autre part (Beven, 1993; Bierkens et al., 2000). Par ailleurs, ces modèles doivent souvent être calibrés à partir de longues chroniques de mesures de pollution en sortie de bassin versant pour donner des résultats dans une fourchette de fiabilité suffisante (Carrubba, 2000). Sur de vastes territoires, il faut accepter des simplifications de la modélisation, ne serait-ce que pour s'adapter aux données disponibles et aux possibilités de calcul (Refsgaard et al., 1999; Quinn, 2004). Nous avons choisi le modèle SWAT (Soil and Water Assessment Tool) pour ces raisons. Par l'introduction de fonctions statistiques, voire parfois empiriques, qui se substituent aux fonctions à base physique dans plusieurs modules, le modèle SWAT permet une simplification du paramétrage pour des données difficiles à mesurer et une amélioration des temps de calcul. Ainsi, l'écoulement de la nappe est simulé par un modèle simple « à réservoir » dont les principaux paramètres sont calibrés. Par contre, la partie agronomique, avec notamment tout ce qui concerne la prise en compte des pratiques agricoles et les interactions avec le sol, est plus complète. Or, il a été mis en évidence qu'à l'échelle du bassin versant, les flux en azote sont principalement déterminés par le compartiment sol et par les zones humides (Billen et al., 2009). Si les processus au niveau du sol sont assez bien représentés avec SWAT, ce n'est pas le cas des zones humides. 2. Présentation du modèle SWAT SWAT†, développé à l'USDA - Agricultural Research Service (Arnold et al., 1993; Arnold et al., 1998), a été conçu pour des grands bassins versants de quelques centaines de km2 à plusieurs centaines de milliers de km2 (Arnold et al., 2000). Ce modèle physique semi† SWAT est téléchargeable gratuitement depuis Internet. 130 distribué estime les flux d'eau, de nutriments, de pesticides et de sédiments dans la zone racinaire, dans la nappe souterraine ou dans les cours d'eau. Il permet de plus de simuler certains phénomènes dans des lacs. SWAT a donné des validations satisfaisantes sur de nombreux bassins versants dans le monde. Sa validité a d'ailleurs été testée pour de différentes tailles de bassin et pour différents types de géologie (Srinivasan et al., 1998; Vaché et al., 2002; Santhi et al., 2003). L'accès aux variables et paramètres est facilité par une intégration du modèle dans un SIG (Manguerra, Engel, 1998). A notre connaissance, ce modèle est peu appliqué en France pour la simulation de flux d'azote, il a été cependant utilisé en Bretagne sur le Coët-Dan, un bassin de 12 km2 (Conan et al., 2003), ainsi qu'en Vendée, sur le bassin versant de la Bultière (155 km2) par la Chambre d'Agriculture de Vendée (travaux de François Le Flahec). Il est employé largement aux Etats-Unis et dans certains pays européens. L'unité spatiale de base au calcul est la HRU (Hydrologic Response Unit) qui est le résultat de la combinaison d'un type de sol, d'une classe d'occupation du sol et d'un sous bassin versant. Dans chaque HRU, les volumes représentés sont : le sol, l'aquifère peu profond et l'aquifère profond. Chaque HRU est supposée présenter un comportement agro-hydrologique homogène. Les flux estimés par HRU sont alors sommés par sous-bassin de manière à obtenir un flux global transmis entre les sous-bassins. Processus modélisés SWAT n'est pas un modèle pleinement à base physique, il contient un certain nombre de fonctions empiriques notamment en ce qui concerne le ruissellement, modélisé par la méthode du Curve Number ou la méthode d'infiltration de Green et Ampt, ou en ce qui concerne l'écoulement des nappes souterraines, simplifié par un coefficient de tarissement empirique (baseflow coefficient). Les processus actifs dans le sol sont l'infiltration, l'évapotranspiration, le prélèvement par les végétaux, l'écoulement latéral et l'écoulement vers des horizons inférieurs (Figure 62). L'écoulement vertical d'horizon en horizon se produit lorsque la teneur en eau de l'horizon supérieur dépasse la capacité au champ et que l'horizon inférieur n'est pas saturé, le flux est déterminé par la perméabilité des horizons et peut s'inverser. La percolation à la base du sol alimente ensuite la zone non saturée puis l'aquifère peu profond. Ce dernier contribue alors à l'écoulement du cours d'eau avec une fonction de retard tandis qu'une fraction du flux de cette nappe peut alimenter une nappe profonde. Le flux vers cette nappe profonde correspond à une sortie du système (un retour est néanmoins possible via l'irrigation). Les échanges entre la nappe peu profonde et les cours d'eau peuvent s'inverser (par infiltration du cours d'eau dans la nappe), la nappe peut également subir une évaporation à partir du sol. La croissance végétale est basée sur le modèle EPIC (Williams et al., 1984). La croissance se produit lorsque la température quotidienne dépasse une température seuil spécifique à chaque plante. La température dépassant ce seuil est comptée en « degrés jours » (heat units) qui sont accumulés d'un jour à l'autre (Lenhart et al., 2002). La croissance végétale est contrôlée en comparant les degrés jours effectivement accumulés à une somme d'unités de chaleur prédéfinie et spécifique à chaque plante, nécessaire pour atteindre la maturité. La biomasse potentielle est ajustée en fonction de stress en eau, en température et en nutriments. L'indice de surface foliaire (leaf area index) est simulé en fonction des degrés jours et varie entre des valeurs minimales et maximales spécifiques à chaque plante. L'évapotranspiration est calculée en fonction de l'évapotranspiration potentielle (différentes méthodes sont disponibles, nous avons retenu la méthode d'Hargreaves qui offre les meilleurs calages sur les 131 bassins tests), de la surface foliaire, de la teneur en eau du sol et de la profondeur d'enracinement. Figure 62 : Compartiments et flux représentés dans SWAT, d'après (Neitsch et al., 2000) Le ruissellement quotidien est modélisé à partir de la méthode du Curve Number (CN) du Soil Conservation Service de l'United States Departement of Agriculture (USDA, 1972). A chaque catégorie de sol est affecté un CN représentant un potentiel de ruissellement, selon trois classes de teneur en eau. En ce qui concerne la modélisation de l'azote, cinq pools d'azote sont représentés dans le sol (Figure 63). Deux pools sont des formes minérales de l'azote : NH4+ and NO3-. Trois pools sont des formes organiques : azote organique « frais » associée aux résidus de culture et à la biomasse microbienne, azote organique « actif » (disponible pour la minéralisation) et azote organique stable associé à l'humus. Les processus sont contrôlés par les niveaux initiaux d'azote des différents pools, par la somme de carbone organique du sol, par le coefficient de minéralisation, par la température et par la circulation de l'eau dans le sol. Le NO3- peut être lessivé par percolation verticale, par ruissellement ou par écoulement latéral de subsurface. L'azote organique peut être érodé par ruissellement. 132 1 Figure 63 : Pools et flux d'azote modélisés par SWAT N_APP : fertilisation en azote appliquée (kgN/ha) NRAIN : azote apporté par les pluies (kgN/ha) F_MN : minéralisation de l'azote à partir de la matière organique fraîche (kgN/ha) A_MN : minéralisation de l'azote à partir de la matière organique active (kgN/ha) A_SN : passage de l'azote d'une forme organique active en forme stable (kgN/ha) DNIT : dénitrification (kgN/ha) NUP : azote exporté par les récoltes (kgN/ha) ORGN : azote organique transféré dans les cours d'eau (kgN/ha) NSURQ : azote nitrique lessivé dans les eaux de ruissellement (kgN/ha) NLATQ : azote nitrique lessivé dans les eaux de subsurface (kgN/ha) NO3L : azote nitrique lessivé dans les eaux de percolation dans la nappe (kgN/ha) 1 1 Figure 64 : Pools et flux de phosphore modélisés par SWAT P_APP : fertilisation en phosphore appliquée (kgP/ha) F_MP : minéralisation du phosphore à partir de la matière organique fraîche (kgP/ha) AO_LP : transformation du phosphore à partir de l'humus en une forme soluble (kgP/ha) L_AP : adsorption du phosphore sous forme active à partir de sa forme soluble (kgP/ha) A_SP : passage de la forme adsorbée active en forme adsorbée stable (kgP/ha) PUP : phosphore exporté par les récoltes (kgP/ha) ORGP : phosphore organique transféré dans les cours d'eau (kgP/ha) SEDP : phosphore adsorbé transféré dans les cours d'eau (kgP/ha) SOLP : phosphore soluble transféré dans les cours d'eau par le ruissellement (kgP/ha) P_GW : phosphore soluble transféré dans les cours d'eau par percolation (kgP/ha) 133 Entrées du modèle Les données spatiales en entrée du modèle sont : les sols, la topographie, la météorologie, l'occupation du sol (il est possible d'introduire des successions culturales sur plusieurs années), les lacs réservoirs, les rejets de stations d'épuration et les prélèvements d'eau. A ces entités spatiales sont associées des données non spatiales concernant le paramétrage détaillé des cultures et des itinéraires techniques associés (dates de semis, fertilisations), des sols, de l'aquifère peu profond, des chenaux, des prélèvements et rejets et des réservoirs. Parmi ces nombreux paramètres, le modèle se montre particulièrement sensible au CN (Curve Number), à la réserve utile du sol et à un coefficient d'évaporation (Arnold et al., 2000). Le coefficient de tarissement de la nappe vers le cours d'eau (alpha base flow) est également sensible, il est donc important de l'ajuster pour reproduire au mieux les décrues et le débit d'étiage. L'ensemble des données et le modèle de calcul lui-même sont gérés par un Système d'Information Géographique ArcView®, ArcGIS® ou GRASS®. 3. Mise en oeuvre du modèle SWAT sur les bassins tests SWAT a été conçu et validé sur différents types de milieux et de systèmes agricoles. Les bassins sur lesquels nous l'utilisons ont en commun une géologie de socle altéré, un climat océanique et une dominante d'élevage. Figure 65 : Schéma méthodologique de la mise en oeuvre du modèle SWAT Données Les interfaces SIG développées autour du modèle SWAT ont été conçues aussi bien pour gérer les données spatiales que pour automatiser et faciliter la préparation des jeux de données d'entrée. Ces interfaces permettent donc de manipuler, d'extraire et de convertir les informations spatiales dans un format compatible avec le modèle. Elles facilitent les paramétrages liés aux simulations. La première phase consiste à générer les HRU (Hydrological Response Units) en combinant trois couches cartographiques au sein du SIG ArcView® : 134 − Le découpage en sous bassins a été réalisé à partir de données topographiques issues de Modèles Numériques de Terrain de l'IGN (BD Alti®, résolution de 50 mètres). C'est la résolution du MNT qui fixe la résolution des autres thèmes géographiques. Aussi, il peut être judicieux d'interpoler cette grille d'altitude à une résolution plus fine si on veut conserver plus d'informations sur l'occupation du sol. − La couche cartographique d'occupation du sol résulte : o Sur la Moine, les successions culturales sur deux années et les praries temporaires et permanentes issues d'un traitement de 6 scènes SPOT de 1999 et 2000 complétées par un scène SPOT de 1997 (résolution de 20 m). o Sur le Rochereau, lors de nos premiers travaux effectués avec le Cemagref l'occupation du sol était déduite d'un travail de photo-interprétation à partir d'orthophotoplans (résolution de 2,5 m) (Berthelot, 2002), nous venons de réaliser une cartographie des successions sur 4 ans à partir d'images LANDSAT de 2006 à 2009 (avec François Messner, technicien à ESO Le Mans). o Sur l'Oudon, l'occupation du sol résulte d'un traitement de neuf images Landsat 7 successives sur trois années (2001-2003) avec extraction des successions culturales sur trois années et une image sur une année plus ancienne (1997) pour distinguer les prairies permanentes des prairies temporaires. A notre connaissance, l'intégration de successions culturales a rarement été réalisée pour modéliser les flux de pollution à l'échelle d'un bassin versant alors que les successions culturales jouent un rôle encore plus déterminant que la culture elle-même (Leteinturier et al., 2007), comme nous le verrons par la suite pour les résultats de cette modélisation. La sensibilité du modèle à cette entrée est développée plus bas avec une analyse sur le bassin de la Moine. − La couche cartographique des sols : sur les trois bassins, la carte des sols a été réalisée dans le cadre d'un partenariat avec l'Institut National d'Horticulture (Agrocampus Ouest), elle a été le cadre de la réalisation d'un mémoire de master que nous avons coencadré (Mouclier, 2005). La sensibilité du modèle à cette entrée est également développée plus bas avec une analyse sur le bassin de la Moine. Les couches cartographiques des sols et des usages du sol renvoient à des bases de données contenant des paramètres descriptifs que l'utilisateur peut adapter. Ainsi, la base de données sur les cultures permet de renseigner des paramètres agronomiques tels que les températures de base à la croissance, les degrés jours (Heat Units) nécessaires pour atteindre la maturité de chaque culture, la profondeur d'enracinement, le taux de matière sèche, la part récoltée, etc. Ces valeurs doivent être adaptées aux conditions locales. La base de données des sols contient des éléments mesurés comme la granulométrie ou la profondeur et des propriétés hydriques (perméabilité, porosité efficace, réserve utile, densité volumique, etc.) que nous avons renseignées à partir de fonctions de pédotransfert appliquées aux classes de texture (Rawls et al., 1982). Cependant, la perméabilité du premier horizon de sol est sous-estimée par ces fonctions qui ne prennent pas en compte la macroporosité et le foisonnement généré par les organismes et par le travail du sol. Afin de corriger cela, nous avons doublé la valeur de perméabilité du premier horizon. 135 Figure 66 : Constitution des HRU par croisement cartographique sur le bassin de l'Oudon Les données météorologiques journalières (précipitations, températures minimales et maximales) ont été acquises pour la période 1990-2002 dans la base de données Climathèque de MétéoFrance et font référence aux stations circonscrites dans chacun des bassins. Enfin, les données de vitesse du vent, de température au point de rosée et de radiations solaires moyennes mensuelles sont issues des stations départementales (seules renseignées sur ces paramètres par MétéoFrance). L'évapotranspiration potentielle, à la résolution temporelle considérée, est générée par SWAT pour chaque simulation selon la méthode de Hargreaves (Hargreaves, Samani, 1985) à partir de ces données climatiques. Les mesures de débits journaliers utilisées pour le calage du modèle proviennent des stations de mesure de la DREAL : • Les points de mesure sont au nombre de trois sur la Moine (Cholet, Roussay et SaintCrespin). La station de mesure utilisée ici est située en aval du bassin à proximité de sa confluence avec la Sèvre Nantaise et draine une surface de 363 km2 (le bassin mesure 385 km2 à sa confluence). • Pour le Rochereau, la station utilisée est située sur le Grand Lay et draine les 2/3 de la surface totale du bassin versant (129,9 km2 sur un total de 206 km2). • Sur l'Oudon, la station de mesure des débits est située à Segré, à l'aval d'un bassin de 1 310 km2 (à la confluence avec la Mayenne, l'Oudon présente un bassin de 1 480 km2). Les concentrations mesurées de polluants (nitrates et phosphates) sont issues : • Sur la Moine : du RNDE (Réseau National de Données sur l'Eau, géré par la DREAL et l'Agence de l'Eau) et concernent 2 stations (Cholet, Clisson) avec 6 à 8 prélèvements par an. 136 • • Sur le Rochereau, nous avons utilisé les mesures réalisées par le Syndicat d'alimentation en eau à une fréquence d'un prélèvement tous les 15 jours au point de mesure des débits de la DREAL. Sur l'Oudon, les mesures de nitrates sont quotidiennes à la station de Segré, suivie par la DREAL. Les pratiques agricoles intégrées dans SWAT sont associées aux cultures et aux prairies (Tableau 5). Elles prennent en compte les dates de semis, de récolte, les apports en nutriments sous différentes formes, le travail du sol, le maintien de résidus et les successions. Les successions ont un rôle déterminant dans les processus de pollution (Leteinturier et al., 2007), elles ont été identifiées sur une durée de deux années sur la Moine et de trois années sur l'Oudon et le Rochereau. Les pratiques peuvent être différenciées pour chaque HRU afin d'introduire, s'il y a lieu, une variabilité spatiale. Ceci n'a pas été réalisé car cela alourdit considérablement le paramétrage ainsi que les temps de calcul. Le paramétrage est fondé sur des valeurs moyennes issues d'enquêtes auprès d'un échantillon de 70 agriculteurs sur la Moine (Béziers La Fosse et al., 2001; Charpentier et al., 2001), de 18 agriculteurs sur l'Oudon (Guénolé, 2006). Lors de la première phase de travaux avec le Cemagref, il a été réalisé à « dires d'expert » sur le Rochereau (le conseiller agricole de la Chambre d'Agriculture de la Vendée) ; nous venons d'affiner et de mettre à jour les pratiques au moyen d'une enquête réalisée en 2011 auprès de quatre agriculteurs sur ce bassin. Un drainage est introduit dans les cultures annuelles et les prairies temporaires. Les drains fonctionnent lorsque le teneur en eau de l'horizon où il se situe (à 80 cm dans SWAT sur l'Oudon) dépasse la capacité au champ. Blé Maïs Prairies temporaires Prairies permanentes Date de semis Octobre Début mai Septembre - Date de récolte Mi-juillet Mi-septembre Fauche en juin et en septembre Pâturées d'avril à octobre Quantité et date des fertilisations En 3 fois : Février – Mars – Avril Avril En 3 fois : Mars – Avril – Juin En 2 fois : Mars – Avril Engrais minéral 100 kgN.ha-1 Engrais minéral 66 kgN.ha-1 - 16 kgN.ha-1 Engrais minéral 150 kgN.ha-1 Déjections animales au champ - Fumier 210 kgN.ha-1 Engrais minéral 18 kgN.ha-1 - Tableau 5 : Pratiques moyennes issues des enquêtes sur l'Oudon et intégrées dans SWAT 137 4. Calibration et validation du modèle La procédure de calibration / validation consiste à séparer la durée des observations en deux entités : − une période de calibration durant laquelle des paramètres sont modifiés dans le but d'obtenir la meilleure adéquation entre observations et simulations, − une période de validation où, à partir des valeurs précédentes de paramètres, l'écart entre observations et simulations est mesuré ; en effet, une qualité essentielle du modèle est sa capacité à représenter les processus quelles que soient les conditions climatiques. Sur la Moine, les simulations sont effectuées de 1997 à 2001, avec 1997-1999 comme période de calibration et 2000-2001 comme période de validation. Les deux années de validation ont été plus humides que la période précédente avec une moyenne annuelle de 927 mm contre 816 mm sur 1997-1999. Sur le Rochereau, les simulations en cours sont réalisées sur la période de 2001 à 2009, elles s'appuient sur une calibration de 2005 à 2007 (précipitations annuelles moyennes de 783 mm) et une validation de 2008 à 2009 (848 mm.an-1 en moyenne). Sur l'Oudon, les simulations sont réalisées sur la période 1999 à 2007. Après 4 ans d'initialisation du modèle, la calibration et la validation sont conduites respectivement sur les périodes 2003–2004 et 2006–2007. Les périodes de calibration et de validation sont météorologiquement similaires, avec des précipitations proches de 700 mm.an-1. Les paramètres qui sont observés ou calculés par des lois physiques ne sont pas modifiés lors de la calibration comme par exemple : la profondeur des horizons du sol, leur perméabilité, la température de base de chaque culture, la hauteur maximale de chaque culture, la teneur en azote minéral et organique des effluents animaux, les teneurs initiales en azote organique et en nitrates du sol (GEOSOL - Base de Données Analyse des Terres). Les paramètres empiriques ou difficilement mesurables sont calibrés pour que les sorties d'adaptent aux observations. La calibration a pour objectifs de respecter d'abord les rendements, puis la dynamique journalière des débits, leur cumul, le bilan en azote du sol et finalement les flux de nitrates à la station de mesure. Les rendements des cultures sont calibrés manuellement afin de réduire la différence avec les enquêtes sur les sols à potentiel moyen à élevé pour les années climatiques moyennes. Ensuite, la calibration hydrologique est réalisée automatiquement sur 19 paramètres à l'aide de la méthode d'optimisation intégrée dans SWAT (van Griensven et al., 2002). La fonction objectif utilisée par l'auto-calibration est la somme des carrés des écarts entre les mesures de débit et les simulations. Puis, la calibration des débits journaliers est affinée avec l'indice de Nash (Nash, Sutcliffe, 1970), l'observation visuelle des graphiques et les cumuls d'écoulement. Le modèle est ensuite manuellement calibré sur la dynamique de l'azote en optimisant le coefficient de corrélation des flux de nitrates journaliers. Les paramètres de calage sont présentés dans le Tableau 6 sur l'Oudon. 138 Paramètre Définition Unité ALPHA_BF jours jours 1 - 0.05 mm 500 mm 0.01 1 SOL_ORGN Facteur alpha d'écoulement de base qui caractérise la courbe de recession de la nappe souterraine peu profonde Retard d'écoulement de la nappe souterraine peu profonde: temps pour que l'eau quitte la zone racinaire et atteigne la nappe souterraine. Coefficient d'évaporation à partir de la nappe souterraine peu profonde: contrôle la quantité d'eau s'évaporant de la nappe souterraine Seuil de profondeur de la nappe souterraine peu profonde pour que l'évaporation se produise Fraction de percolation dans une nappe souterraine profonde Seuil de lame d'eau dans la nappe souterraine peu profonde requis pour qu'elle alimente les cours d'eau Coefficient de retard du ruissellement Facteur de compensation de l'évaporation du sol Facteur de compensation de l'évaporation des plantes Perméabilité des chenaux secondaires Coefficient de Manning "n" des chenaux secondaires Perméabilité du chenal principal Coefficient de Manning "n" du chenal principal Facteur de mineralization des nutriments organiques actifs de l'humus Paramètre de distribution du prélèvement en azote: contrôle la quantité d'azote extraite des différents horizons du sol par les plantes Coefficient de percolation du nitrate : contrôle la quantité de nitrate prélevée dans l'eau de ruissellement surface par rapport à celle prélevée dans l'eau de percolation Coefficient de décomposition des résidus: fraction des résidus qui se décompose en un jour en supposant des conditions optimales d'humidité, de température, de ratio C:N and C:P Concentration initiale en azote organique dans l'horizon du sol Valeur de calibration 0.6 SOL_ORGP Concentration initiale en phosphore organique dans l'horizon du sol GW_DELAY GW_REVAP REVAPMN RCHRG_DP GWQMN SURLAG ESCO EPCO CH_K1 CH_N1 CH_K2 CH_N2 CMN N_UPDIS N_PERCO RSDCO mm.hr-1 mm.hr-1 0.79 0.80 0.40 0.50 0.014 73 0.10 0.005 20 0.25 0.05 mg.kg-1 mg.kg-1 1 600 (1er horiz) 20 (1er horiz) Tableau 6 : Valeurs des paramètres calibrés sur l'Oudon Le problème d'équifinalité de la calibration avec un tel nombre de paramètres (Beven, 2006) peut être réduit par l'analyse du réalisme des sorties des différents compartiments que nous avons vus précédemment. 5. Résultats de la modélisation Bien que les systèmes d'élevage soient plus intensifs sur l'Oudon que sur la Moine (ce qui explique de moindres flux d'azote sur le second bassin), les résultats sur les deux bassins montrent un certain nombre de similitudes : forte variabilité selon les sols, selon les successions culturales (celles intégrant du maïs présentent plus de risques), poids de certaines pratiques à risques (en fonction des quantités, des dates de fertilisation et des durées d'interculture) et variabilité interannuelle des flux selon la lame d'eau écoulée. 1. Modélisation sur l'Oudon Les rendements des cultures simulés après calage sont proches de ceux résultant des enquêtes de 2007 (Tableau 7). Concernant la simulation des débits, nous avons retenu comme critère l'indice de Nash car il offre une évaluation plus précise que le R2 quant au respect du volume écoulé, aux écarts absolus et à la représentation des crues (Nash, Sutcliffe, 1970). En ce qui 139 concerne les débits à la station de Segré, sur la période de calibration, le coefficient de Nash est relativement élevé 0,79 ainsi que le coefficient de corrélation 0,89 ; sur la période de validation, le coefficient de Nash baisse à 0,66 et le coefficient de corrélation à 0,82. Pour les flux quotidiens de nitrates, le coefficient de corrélation s'établit à 0,78 durant la calibration et à 0,74 durant la validation. Le graphique des débits quotidiens à Segré (Figure 67) montre que la dynamique d'écoulement est assez bien représentée durant l'hiver et l'été mais que les débits sont surestimés en automne, par une reprise trop précoce de l'écoulement. La différence des cumuls d'écoulement sur deux ans entre observations et simulations s'élève à 5,4 % sur la période de calibration et de 11,7 % sur la période de validation. Les flux de nitrates simulés sont surestimés en été et surtout en automne du fait d'une reprise d'écoulement trop avancée, tandis que les flux hivernaux sont sous-estimés, vraisemblablement par un abaissement du stock d'azote lessivable dès l'automne (Figure 68). Nous ne présentons pas les concentrations en nitrates car elles sont mal estimées, ce qui peut s'expliquer par la sensibilité au phénomène de dilution particulièrement en été lorsque l'écoulement est surestimé tandis que le flux de nitrate s'approche des valeurs observées. Prairie permanente Prairie temporaire Blé Maïs ensilage Rendements des cultures issus de l'enquête de 2007 5.4 10.0 7.8 12.9 Rendements des cultures obtenus par simulation en 2007 7.6 8.5 8.1 13.2 Tableau 7 : Rendements observés et simulés (en tonnes de matière sèche récoltée, à l'exception du blé en tonnes de grains) Figure 67 : Débits observés et simulés (m3.s-1) sur l'Oudon à la station de Segré durant la période de validation (2006-2007) 140 Figure 68 : Flux de nitrates observes et simulés (kg N-NO3.j-1) sur l'Oudon à la station de Segré durant la période de validation (2006-2007) En dépit des simplifications du modèle et des incertitudes sur les paramètres physiques (notamment sur leur variabilité spatiale), le calage et la validation des débits et des flux de nitrates représente assez correctement l'ampleur et la dynamique des observations à la station de mesure. Une surestimation des flux apparaît cependant en automne du fait d'une surestimation de la reprise de l'écoulement. Successions culturales 2005-2006-2007 Lessivage en nitrates (kg N-NO3.ha-1.an-1) 74 51 23 10 38 10 16 11 12 40 16 12 9 35 24 CCC CCW CPC CPP CWW PAST PCW PPC PPW WCW WPC WPP WPW WWC WWW Tableau 8 : Simulations des flux annuels moyens de nitrates hors de la zone racinaire pour un sol sablo-limoneux profond sur la période 2005–2007 (C = maïs ensilage, P = Prairie, W = blé, PAST = prairie permanente, N-NO3 = flux en nitrate) 141 La simulation des flux de nitrates par HRU présente les risques plus élevés dans les successions intégrant du maïs et plus faibles dans les prairies permanentes et dans les successions avec prairies temporaires (Tableau 8 présentant l'exemple de sorties pour un sol sablo-limoneux profond). Des différences marquées apparaissent pour une même culture intégrée dans différentes successions. Ainsi, par exemple, en 2006, dans un sol sablolimoneux profond, le lessivage varie de 18 à 123 kgN.ha-1.an-1 pour le maïs ; de 33 à 62 kgN.ha-1.an-1 pour le blé ; de 12 à 41 kgN.ha-1.an-1 pour les prairies temporaires, selon les successions où elles s'intègrent. Cette variabilité peut s'expliquer principalement par la culture précédente, par la dynamique de minéralisation de l'azote et par la longueur et la saison de l'interculture. Sol Argile limoneuse hydromorphe Limon hydromorphe sur plateau Limon hydromorphe en fond de vallée Limon superficiel Limon sableux superficiel sur les pentes des vallées Limon et limon sableux superficiel sur les sommets des reliefs Limon profond, hydromorphe Limon très profond, hydromorphe Limon sableux profond F_MN‡ A_MN§ A_SN** DNIT†† NUP‡‡ Nleach§§ 90 108 -3 17 166 56 92 123 -14 12 166 89 91 113 -3 15 166 65 95 129 -12 2 166 95 90 90 22 2 141 70 89 91 91 89 108 114 112 107 4 -5 -2 0 3 22 21 1 164 166 166 166 74 66 62 75 Tableau 9 : Simulations des flux de nitrates hors de la zone racinaire pour la succession maïs-maïs-maïs en 2007 (kgN.ha-1.an-1), avec 228 kgN.ha-1.an-1 de fertilisant appliqué Une forte variabilité des flux de nitrates apparaît également entre différents sols pour une même succession. Par exemple, dans le cas d'une succession intégrant du maïs, en 2007 (Tableau 9), la minéralisation de la matière organique fraîche et active est importante du fait de la quantité de fertilisation organique. La dénitrification est également fortement variable entre les sols, selon leur hydromorphie et peut atteindre le cinquième de la quantité d'azote apportée. Ainsi, le fuites en nitrates varient fortement selon les sols : les sols profonds, limoneux ou limono-argileux et hydromorphes présentent des risques moindres que les sols sableux, sains et peu profonds. La forte variabilité des flux de nitrates calculés pour les différents sols du bassin de l'Oudon converge avec celle calculée par Nieder et al. (1995), qui ont obtenu un lessivage en azote compris entre 16 kgN.ha-1.an-1 dans des sols argileux et limoneux et 63 kgN.ha-1.an-1 dans des sols sableux du nord-ouest de l'Allemagne (Nieder et al., 1995). La variabilité modélisée sur l'Oudon est également en accord avec les mesures réalisées dans le nord de la France par Beaudoin et al. (2005) qui ont relevé des fuites s'échelonnant de 16 kgN.ha-1.an-1 dans des limons profonds à 50 kgN.ha-1.an-1 dans des sols sableux superficiels (Beaudoin et al., 2005). Ces mêmes auteurs ont par ailleurs relevé des écarts importants entre successions intégrant une même culture. ‡ F_MN: Transformation d'azote du pool organique frais au pool minéral A_MN: Transformation d'azote du pool organique actif au pool mineral ** A_SN: Transformation d'azote du pool organique actif au pool organique stable †† DNIT: Azote enlevé du sol par dénitrification ‡‡ NUP: Azote prélevé par les plantes §§ N leach: N-NO3 lessivé par percolation, par ruissellement et par écoulement lateral de subsurface § 142 La cartographie des flux en nitrates moyens des surfaces agricoles par sous-bassin montre une variabilité en fonction de la répartition spatiale des sols, de la pluie efficace et des successions culturales (Figure 69). Elle doit être utilisée avec précaution car nous manquons de mesures spatialisées par sous-bassin pour valider la cartographie, il s'agit plutôt d'une carte de hiérarchie de risques de transfert qu'une quantification précise. Figure 69 : Charge annuelle moyennes en nitrate (kgN.ha-1.an-1) sur les espaces agricoles entre 2005 et 2007 2. Modélisation sur la Moine Le calage sur 1997-1999 et la validation des débits sur 2000-2001 donnent des résultats satisfaisants avec un indice de Nash de 0,83 pour la période de validation. Le calage respecte la teneur en azote et en phosphore organique du sol ainsi que les rendements observés sur les bassins (5,5 tMS.ha-1.an-1 par ha simulés pour le blé contre 5,6 en moyenne selon l'enquête, 13,6 tMS.ha-1.an-1 pour le maïs ensilage en simulé comme selon l'enquête). Les pics de crue comme les phases de tarissement apparaissent relativement bien reproduites sur les graphiques (Figure 70). Cependant les courbes des cumuls d'écoulement présentent un écart du fait d'une sous-estimation des crues hivernales, ce qui peut fausser la modélisation du lessivage des nitrates. Dans le Tableau 10, sont présentés pour deux types de sols les excédents de nitrates en termes de flux. La hiérarchie des surplus de nitrates en fonction des combinaisons [sols x successions culturales] est très nette. Les estimations sont très variables selon les successions intégrant une même culture ; elles soulignent l'importance de la prise en compte des successions culturales dans l'analyse plutôt qu'une simple cartographie des cultures. La hiérarchie des surplus de nitrates dépend principalement des facteurs suivants : les dates, les formes et les quantités de fertilisants apportés, la durée de l'interculture, les besoins des cultures. La succession ray grass italien / maïs par exemple réduit la durée de sol nu, les reliquats de fertilisation du ray grass sont en partie utilisés par le maïs car celui-ci est semé début mai après que le ray grass ait été détruit en avril ; ensuite, moins d'un mois après la récolte du maïs, le ray grass est à nouveau semé et occupe le sol durant 18 mois. A l'opposé, la 143 succession maïs – maïs laisse le sol nu pendant 8 mois et fait l'objet d'apports élevés en azote ce qui explique son mauvais rang en termes de risques. Figure 70 : Débits simulés et observés à la station DREAL de la Moine à Saint-Crespin (à gauche en m3.s-1 pour les débits journaliers et à droite en m3 pour les débits cumulés) Types de successions modélisés Flux (Kg NO3-.ha-1.an-1) sur brunisol lithique ou leptique Prairies permanentes Flux (Kg NO3-.ha-1.an-1) sur brunisol 23 26 29 32 38 39 40 41 53 63 Prairies temporaires RGI / Maïs Maïs / RGI RGI / Blé Blé / Blé Blé / RGI Blé / Maïs Maïs / Blé Maïs / Maïs 16 19 17 18 26 23 36 31 31 41 Tableau 10 : Flux des nitrates en excédent en fonction des successions sur deux types de sol (2000-01) sur la Moine (avec RGI = Ray Grass Italien) L'impact du sol sur les surplus de nitrates est important sur les excédents en nitrates car la dynamique et l'amplitude des processus impliqués (ruissellement, écoulement latéral de subsurface, infiltration dans la nappe, etc.) interfèrent avec les pratiques agricoles. Dans le cours d'eau, les simulations des flux de nitrate et de phosphore reproduisent de façon acceptable la dynamique observée (Figure 69 et Figure 70), notons cependant la faible fréquence des mesures qui limitent la validation des résultats. Le coefficient de corrélation R2 144 s'élève à 0,66 pour les nitrates et à 0,56 pour le phosphore. Mais plusieurs pics de nitrates sont sous-estimés. En ce qui concerne le phosphore, le protocole de mesure de cet élément ne permet pas de saisir les pics de flux qui ont lieu lors de fortes précipitations. Figure 71 : Flux de nitrates (en kgN.j-1) à la station DIREN de Roussay-sur-Moine en 2000-2001 Figure 72 : Flux de phosphore (en kgP.j-1) à la station DIREN de Roussay-sur-Moine en 2000-2001 Les résultats des simulations peuvent être spatialisés à l'échelle de sous-bassins afin d'apprécier la hiérarchie des risques de transfert (Figure 73). La hiérarchie des fuites en nitrates et en phosphore par sous-bassin s'explique en fonction de la vulnérabilité des sols et de la répartition des successions culturales. Les différences de hiérarchie entre le phosphore et le nitrate peuvent paraître surprenantes, elles sont dues en grande partie à la répartition des sols : ainsi les sols limono – argileux hydromorphes retiennent ou dénitrifient l'azote contenu dans le sol mais sont soumis au ruissellement qui favorise les transferts de phosphore. 145 Figure 73 : Evaluation des fuites d'azote (kgN.ha-1.an-1) et en phosphore (kgP.ha-1.an-1) hors de la zone racinaire par sous-bassin versant de la Moine en 1997-2001 Bien que SWAT offre une souplesse quant à l'intégration des données, celles-ci doivent être nécessairement adaptées et structurées pour constituer les entrées du modèle. Le problème se pose alors de la disponibilité des données spatialisées qui sont rarement numérisées et souvent dispersées ; l'acquisition et la structuration des informations constituent d'évidence une étape clef pour la généralisation du modèle. 6. Analyse de sensibilité du modèle à la qualité des données La modélisation pose la question cruciale de la qualité des données à la fois en termes scientifiques et en termes d'application (Ruelland, 2009). Les modèles peuvent être alimentés par différentes sources de données en fonction de leur disponibilité et des coûts et des temps de traitements alloués à l'étude. Mais la qualité des résultats est conditionnée par la qualité des données introduites dans les modèles. La qualité intègre : la résolution spatiale, la résolution temporelle, la représentativité sémantique, la représentativité spatiale et la précision numérique. Nous avons conduit des analyses de sensibilité du modèle SWAT aux entrées de végétation et de sol. 1. Sensibilité à la cartographie des cultures et des prairies Ces travaux ont été réalisés avec Denis Ruelland (géographe-géomaticien, à l'époque à l'UMR ESO, à présent à HydroScience Montpellier). Ils ont donné lieu à une publication dans la revue Mosella (Laurent et al., 2004). Un article avait été préalablement publié dans la revue Télédétection détaillant la spatialisation des cultures et prairies par le traitement d'images staellites (Ruelland et al., 2004). Deux stratégies d'acquisition de données d'occupation du sol agricole ont été comparées sur la Moine : des traitements à partir d'images satellite (cultures revenant sur elles-mêmes ou successions culturales) et une exploitation du Recensement Agricole de 2000 du SCEES, croisé à la BD CARTO de l'IGN. Il nous est apparu pertinent d'étudier la sensibilité du modèle SWAT d'une part à ces deux types de spatialisation de l'occupation du sol et d'autre part à la prise en compte des successions culturales au lieu des cultures sur une seule année. Les gains en matière de représentation de l'information se traduisent-ils par une amélioration de l'efficacité de la modélisation ? Comment expliquer les différences ou les similitudes ? Quelles indications en tirer sur les conditions d'application du modèle sur des bassins versants de grande étendue en France. 146 Spatialisation des cultures et prairies par télédétection La télédétection constitue un moyen de cartographier les paramètres d'un modèle hydrologique. Elle est particulièrement pertinente pour l'identification de l'occupation du sol puisqu'elle offre les avantages suivants : une représentation instantanée sur une grande étendue géographique (60 x 60 km avec SPOT), à une résolution suffisamment fine (20 m avec SPOT) et un suivi diachronique de l'évolution de l'occupation du sol grâce à une fréquence relativement élevée des scènes (en théorie mensuelle avec SPOT, mais le couvert nuageux réduit cette disponibilité). En outre, cette fréquence d'observation rend possible la cartographie de successions culturales sur plusieurs années : ceci semble particulièrement pertinent face à des pollutions agricoles qui sont aussi sensibles à la nature de la culture qu'à la durée d'interculture et à la nature de la culture suivante. Ainsi, la variabilité des fuites en azote s'avère aussi forte entre les différentes successions intégrant une même culture qu'entre différentes cultures se succédant sur elles-mêmes. La méthode de classification peut être résumée en 4 phases : • Isoler par étapes hiérarchiques les éléments stables (hors prairies permanentes) : les zones urbaines, les vignes, les plans d'eau et les forêts. Ces éléments stables ont été rassemblés au sein d'un masque numérique qui a été appliqué aux images pour n'en retenir que les zones agricoles (hors vignes). • Dans un deuxième temps, le suivi diachronique d'indices de végétation (Lo et al., 1986) a permis de déterminer quatre thèmes principaux pour les années 1999 et 2000 : prairies, cultures d'hiver, cultures de printemps et autres (sols nus ou autres cultures) et d'en déduire les successions culturales 1999 – 2000. • La phase suivante a consisté à distinguer les prairies temporaires des prairies considérées comme permanentes (présentes pendant au moins 4 ans) en utilisant une image de novembre 1997. • Le plan final représentant l'occupation du sol et les successions culturales 1999/2000 a été obtenu par l'addition des différents plans (zones urbaines, plans d'eau, forêts, vignes, successions culturales et prairies). L'évaluation de la classification à partir des images HRV de SPOT s'est avérée satisfaisante avec une précision globale de 84,7 % concernant l'identification des successions (vs parcelles de contrôle). La cartographie de l'occupation du sol et des successions culturales 1999/2000 résultante a été testée comme entrée pour la constitution des HRU à la base des simulations avec SWAT. Une extraction de cette cartographie a aussi été opérée pour réaliser une carte présentant uniquement l'occupation du sol et des cultures en place en 2000. Cette carte a été utilisée ensuite pour étudier la sensibilité du modèle à une prise en compte des successions culturales par rapport aux cultures sur une seule année. Cartographies du RGA à différentes résolutions Face à l'imagerie satellitaire, d'autres sources d'informations telles que les recensements agricoles existent et peuvent constituer une alternative pour la cartographie des cultures mais à un niveau de précision plus grossier. Le Recensement Général Agricole (RGA) utilisé pour ces travaux a été réalisé en 2000 (SCESS, 2000). Il est conduit dans chaque exploitation mais les données ne sont disponibles qu'à l'échelle communale (les données sont affectées à la commune du siège de l'exploitation et non à la commune où se situent les parcelles, ce qui peut induire un biais important). Elles décrivent notamment les surfaces déclarées des différents types de cultures ou prairies. Ces surfaces déclarées peuvent aisément être agrégées (par soucis d'homogénéité avec la typologie mise en oeuvre en télédétection) en : vignes, prairies permanentes, prairies temporaires, cultures d'hiver, cultures de printemps et autres 147 cultures. Le RGA ne permet cependant pas de constituer les HRU d'entrée de SWAT car les successions ne sont pas spatialisées. C'est par la BD CARTO® que les successions ont été spatialisées, car elle offre une couverture géo-référencée des éléments généraux d'occupation du sol, hors espace agricole (bâti, zones industrielles, forêts, plans d'eau). Ces deux bases de données ont donc été combinées pour générer une nouvelle cartographie de l'occupation du sol et des cultures pour l'année. La méthode retenue se décompose en quatre temps : • Dans un premier temps, une matrice géo-référencée de pixels à une résolution spatiale donnée et correspondant à la zone d'emprise des 29 communes du bassin d'étude a été créée. • Dans un deuxième temps, un identifiant de commune d'appartenance a été affecté par superposition spatiale à chacune des cellules de la matrice. • Dans un troisième temps, les éléments généraux d'occupation du sol (bâti, zones industrielles, forêts, plans d'eau) issus de la BD CARTO ont été affectés par superposition spatiale aux cellules concernées de la matrice ; les autres cellules étant donc considérée comme en zone agricole. • Dans un dernier temps, les différents types de cultures ont été affectés à ces cellules « agricoles » et pour chaque commune par répartition aléatoire au prorata des surfaces recensées du RGA. De manière à tester en parallèle la sensibilité du modèle à la résolution spatiale d'une telle couverture, 3 matrices de cellules de résolutions différentes ont été créées : 100 m, 200 m et 400 m. Résultats de l'analyse de sensibilité du modèle à la méthode de cartographie L'analyse de la sensibilité des simulations à la méthode de cartographie de l'occupation du sol révèle une similitude des résultats en matière de débit. Le coefficient de Nash n'est pas dégradé en passant d'une cartographie des successions à une cartographie des cultures sur une seule année (Tableau 11). L'utilisation du RGA n'entraîne pas plus de dégradation de ce coefficient qui reste d'ailleurs à une valeur élevée. En terme de cumul relatif des écoulements sur les deux années de validation, l'effet de la perte d'information avec les cartographies dérivées du RGA n'est pas plus significatif : on constate une sous-estimation de 3 % de la lame écoulée, contre 2 % avec les cartographies obtenues par télédétection. télédétection : successions 1999-2000 télédétection : cultures 2000 RGA Résolution 100 m RGA Résolution 200 m RGA Résolution 400 m N-NO3 R2 flux N-NO3 2 flux (kg) -2* Concentration 1 (mg.l- NO3), les jours des mesures 23,8 0,66 807 742 0,82 -2 23,7 0,57 824 106 0,82 0,82 0,82 -3 -3 -2 23,3 23,2 22,8 0,34 0,31 0,30 817 813 814 026 806 056 Débits Nash Ecoulements : Cumul relatif des écarts (%) 0,81* Tableau 11 : Résultats des simulations sur la Moine à Roussay en 2000-01 en fonction de la méthode de cartographie de l'occupation du sol * les résultats issus de la télédétection, présentés dans le chapitre précédent sont basés sur un calage légèrement différent, avec un Nash de 0,83 et une différence de cumul plus importante, mais un N-NO3 R2 équivalent. A l'échelle annuelle, l'estimation des transfert de nitrates (en N-NO3) ne semble pas sensible à la méthode de cartographie : les sommes des flux comme les concentrations moyennes restent proches. Les résultats diffèrent par contre nettement en ce qui concerne la dynamique 148 des flux puisque le passage de la cartographie des successions culturales à celle des cultures de l'année 2000 génère une dégradation du R2 de 0,66 à 0,57. La perte d'information est encore plus élevée avec la cartographie combinant RGA et BD CARTO puisque le R2 « tombe » entre 0,34 à 0,30 selon la résolution spatiale. Interprétation Il convient d'expliquer les raisons de la dégradation de la qualité des simulations en fonction des méthodes de cartographie employées. Comme nous l'avons vu, à l'échelle du bassin, les surfaces relatives d'occupation du sol sont voisines entre les méthodes. Mais la perte d'information s'effectue à une échelle plus fine. Les différences marquées entre les flux de nitrates hors du sol mettent en évidence la forte sensibilité du modèle aux combinaisons des sols et des cultures. Or, sur le bassin versant d'étude, la localisation des cultures est déterminée par la nature des sols comme le montre une analyse de variance réalisée sur la répartition relative de chaque combinaison sol – succession culturale***. L'analyse de variance des données étudiées produit un facteur F de 3,48 pour un seuil critique de 2,12 : il y a donc un effet significatif de la variable « sol » sur la variable « successions culturales ». Ainsi, étant donné que la répartition des cultures dépend des sols et que les fuites diffèrent nettement entre les combinaisons de sol et de culture, il est nécessaire que la cartographie des cultures prenne en compte leur localisation à une échelle infra-communale afin de représenter ces combinaisons. La méthode élaborée à partir du RGA et de la BD CARTO s'appuie sur une répartition aléatoire des cultures au sein de chaque commune, elle ne permet pas de tenir compte de ces relations. Ceci explique la dégradation de la qualité des simulations des flux de nitrates dans les cours d'eau avec la méthode du RGA. La proximité des moyennes de concentration et des sommes de flux transitant au point de mesure est trompeuse : elle est liée à des effets de compensation entre les combinaisons sol – culture. Ainsi, la perception des risques et des actions à entreprendre dans l'espace est faussée par la méthode RGA – BD CARTO alors que la méthode de spatialisation de successions culturales par télédétection permet de mieux appréhender ces hiérarchies en représentant plus fidèlement les combinaisons de sol et de culture et les successions culturales. 2. Sensibilité à la cartographie des sols Les sols ont un rôle déterminant dans les flux de polluants. Il est donc logique qu'une modélisation agro-hydrologique telle que celle pratiquée avec SWAT présente une sensibilité au paramétrage des sols. Nous avons réalisé une analyse de sensibilité du modèle à la méthode de cartographie et de paramétrage des sols en comparant les résultats des simulations SWAT à partir d'une carte de sols d'une part et à partir de la méthode « sol – ITL » (méthode présentée auparavant). Cette deuxième approche permet de réduire les temps d'acquisition en appuyant la spatialisation des propriétés du sol sur des variables plus facilement disponibles ou au moindre temps d'acquisition, la question que nous soulevons ici est de savoir si cela n'entraîne pas de dégradation des résultats des simulations. L'analyse de sensibilité à ces entrées a été faite sur la Moine. La carte des sols réalisée au 1:50 000 offre une description des sols plus riche puisque les différents horizons sont décrits avec leurs propriétés alors qu'avec la méthode sol – ITL un seul horizon est utilisé pour caractériser l'ensemble du sol. Un calage *** Cette analyse consiste à comparer les moyennes des surfaces relatives de successions culturales pour les différentes classes de sols. Le facteur F mesure le rapport de la moyenne des carrés des écarts entre les groupes par celle des carrés des écarts à l'intérieur des groupes. Lorsque F est supérieur à un seuil critique, on rejette l'hypothèse de moyennes égales entre les groupes, on admet alors qu'il y a un effet significatif de la variable de groupement sur la variable observée. Plus F est élevé par rapport au seuil critique, plus la variable de groupement est discriminante (les classes de sols en l'occurrence). 149 différent est effectué dans SWAT avec chaque méthode. Sur la période de validation 2000-2001, la méthode sol – ITL dégrade le critère de Nash de 0,82 à 0,71. Mais l'observation des cumuls d'écoulement sur 2000-2001 indique une meilleure efficience de la méthode sol – ITL : le décrochement par rapport aux cumuls observés est beaucoup plus faible qu'avec la carte des sols (Figure 74), or la lame écoulée a un impact important sur les transferts de nitrates. Méthode carte des sols Méthode sol – ITL Méthode sol – ITL Méthode sol – ITL Méthode sol – ITL 1point/50ha 1point/100ha 1point/200ha 1point/400ha Critère de Nash 0,81 0,71 0,70 0,71 0,70 R2 flux N-NO3 0,66 0,56 0,56 0,56 0,56 Tableau 12 : Sensibilité des simulations à la méthode de cartographie et de description des sols et à la densité de points de sondages sur la Moine, en 2000-2001 Figure 74 : Débits de la Moine à Roussay (station DIREN) et sensibilité des simulations à la méthode de cartographie et de description des sols, en 2000-2001 En ce qui concerne les flux de nitrates, les quantités comme la dynamique de transfert différent entre les deux méthodes. Sur l'ensemble de la période, les flux sont plus élevés avec la méthode sol – ITL. En observant les courbes (Figure 75), nous pouvons noter qu'elles diffèrent totalement : de nombreux pics de flux apparaissent seulement avec la méthode sol – ITL, alors que les flux en période d'étiage sont nettement inférieurs avec cette méthode qu'avec la carte pédologique. 150 Figure 75 : Sensibilité des simulations des flux de nitrates (en kgN.j-1) à la méthode de cartographie des sols, la Moine à Roussay en 2000-2001 (station DIREN/DREAL) Sensibilité du modèle à la densité de points utilisés dans la méthode sol – ITL Les relevés de terrain représentent des coûts et des temps d'observation non négligeables. La question est de savoir quelle est la sensibilité du modèle SWAT à la densité de points de sondages dans la méthode sols – ITL ? Comme nous l'avons vu précédemment, le nombre de sondages modifie l'évaluation des propriétés des sols, en quoi les variations de ces propriétés altèrent les résultats des simulations ? Quel est le niveau de densité de points de sondage permettant de représenter correctement les émissions et les transferts de nitrate ? En matière de simulation des débits, le critère de Nash n'est pas modifié par le changement de densité de sondages : il reste entre 0,70 et 0,71 (Tableau 12). L'estimation des transferts de nitrate reste similaire quelque soit la densité de points : le coefficient de corrélation R2 est de 0,56 (Tableau 12). Nous n'avons représenté ni les courbes de débit, ni celles de flux de nitrate, réalisées à partir des différentes densités de point, car les courbes sont trop proches les unes des autres. D'après ces résultats, le modèle est donc assez peu sensible aux variations des propriétés des sols en fonction de la densité de sondages. En conclusion de ces travaux sur la sensibilité du modèle agro-hydrologique aux entrées de sol, la méthode de cartographie proposée « sol – ITL » dégrade la qualité des simulations des débits et des flux de nitrates. Le niveau des résultats n'est cependant pas irréaliste. L'analyse de sensibilité montre par ailleurs que sur le bassin étudié (compte tenu de la variabilité spatiale des sols propre à cet espace), le modèle est peu sensible à la densité de points de sondages pour la méthode sol – ITL. Des travaux similaires sur l'analyse de la sensibilité du modèle SWAT à la résolution spatiale des entrées ont été conduits par (Cotter et al., 2003), dans un bassin de 18,9 km2 dans l'Arkansas : les auteurs mettent en évidence une résolution minimale de 300 m pour le MNT et de 500 m pour la cartographie des sols et des couverts végétaux, ces valeurs dépendent de la structure spatiale du bassin versant étudié. 151 7. Analyse comparée du modèle SWAT et d'un indicateur d'émission polluante L'objectif de ce travail a consisté à confronter modèle et indicateur en comparant les résultats obtenus par l'application de l'un et l'autre à un territoire commun d'étude. Nous avons utilisé le modèle SWAT et l'indicateur d'émissions polluantes (IEP) développé par l'équipe INRA de Grenoble. Par indicateur, nous entendons un outil qui recourt à un formalisme simplifié, à des données faciles d'accès et dont les résultats sont difficilement validables par des mesures. Il s'agissait plus précisément d'évaluer les avantages et inconvénients de chacune des méthodologies en termes de conditions de mise en oeuvre et de résultats, et d'apprécier les effets de la résolution spatio-temporelle de l'information et des choix de formalisme inhérents à chacun des outils. Ces travaux ont été réalisés avec Anne Lacroix (économiste à l'UMR GAEL INRA – Rhône Alpes), Denis Ruelland (UMR ESO puis HydroScience Montpellier) et Emmanuelle Sauboua (hydrologue, animatrice de l'Unité INRA PSDR – Rhône Alpes). Ils ont fait l'objet d'une communication orale au symposium international "Territoires et enjeux du développement régional" à Lyon, les 9-11 mars 2005 et d'un article dans la revue IJARGE (International Journal of Agricultural Resources, Governance and Ecology) en 2006. Un certain nombre d'enseignements ressortent de l'analyse quant à l'usage de modèles ou d'indicateurs. La distinction principale entre ces deux types d'outils tient au degré de finesse de représentation des processus, tant au niveau spatial et temporel, que du point de vue de leur formalisation. Il en découle des différences qui peuvent être appréciées selon trois angles : o les données mobilisées : l'indicateur mobilise des données faciles d'accès et peu nombreuses ; le modèle nécessite, dans la plupart des cas, l'acquisition de nombreuses données supplémentaires ; o la mise en oeuvre : un indicateur peut être mis en oeuvre par un public non averti ; un modèle nécessite une expertise scientifique et un apprentissage beaucoup plus lourd ; o les résultats à en attendre : un indicateur apprécie le risque plutôt du point de vue qualitatif ; un modèle ambitionne une estimation quantitative qu'il est possible de valider ou d'invalider par des mesures. Indicateur et modèle constituent tous deux des outils d'aide à la décision, mais leurs coûts de mise en oeuvre (temps de travail et compétences) s'avèrent très différents. Aussi, le choix entre l'un ou l'autre doit-il être raisonné en fonction de l'objet même du diagnostic à mener. Selon qu'il s'agit : o D'espaces de plus ou moins grande dimension : l'indicateur est approprié pour cartographier les déséquilibres à l'échelle régionale ; mais, pour des périmètres plus limités, une connaissance plus fine des sols et des processus est nécessaire et le modèle devient alors un outil plus adéquat. o De l'identification de zones ou de pratiques à risques : a priori, l'IEP permet d'identifier les zones à surveiller ; il permet en outre de dresser une série d'hypothèses sur l'origine des risques : importance des cultures de printemps, présence ou non de l'élevage, sols plus ou moins profonds Mais, l'implication de telle ou telle pratique agricole ne pourra être réellement identifiée que via le modèle, en remontant aux valeurs simulées pour le système de culture suspecté. 152 o Des émissions ou de l'impact sur la ressource : l'IEP se limite à l'évaluation des fuites d'azote sous la zone racinaire et, de ce fait, ne peut en aucun cas prétendre établir un diagnostic de la ressource en eau. SWAT modélise les émissions d'azote dans le sol, mais aussi les processus en aval (ruissellement, percolation, dénitrification ). Aussi est-il à même de simuler les transferts d'eau et d'azote dans les nappes souterraines et les cours d'eau. En ce sens, SWAT permet d'aider des décisions dans une problématique d'eau potable, y compris en permettant de prédire des événements ponctuels, comme des pics de flux. L'approche comparative du modèle SWAT et de l'indicateur d'émissions polluantes met en évidence que le choix de l'outil dépend du profil de l'utilisateur ou, plus exactement, des compétences disponibles (expertise scientifique/connaissance de terrain), du temps et des moyens alloués au diagnostic, de l'étendue géographique sur laquelle l'analyse porte, du pas de temps et, plus généralement, de la problématique dans laquelle s'inscrit le diagnostic. 8. Simulation de scénarios La modélisation permet d'anticiper les évolutions du système étudié en simulant les effets d'un changement de certaines entrées. Nous avons analysé les impacts qu'entraîneraient des changements de pratiques agricoles sur la qualité de l'eau au niveau de prises d'eau potable à l'aval des bassins versants. Les changements de pratiques ont été définis avec les acteurs locaux, représentants agricoles et gestionnaires de bassin. Les pratiques sont généralisées sur l'ensemble des successions culturales où elles peuvent être mises en oeuvre. Elles constituent la marge d'évolution potentielle maximale dont nous étudions l'impact sur la qualité de l'eau de surface à l'aval du bassin. Elles correspondent généralement à des pratiques agroenvionnementales réalisées par des producteurs sur le bassin, une évolution de l'emprise des successions culturales a également été simulée sur l'Oudon. Nous présentons ci-dessous les résultats sur chaque bassin. 1. Bassin versant du Rochereau Ces travaux ont été réalisés avec Thierry Bioteau (géomaticien au Cemagref), P. Bordenave (hydrologue au Cemagref) et Denis Ruelland (UMR ESO puis HydroScience Montpellier). Ils ont fait l'objet d'une publication dans la revue Ingénieries – EAT en 2002. Des scénarios de modification des pratiques agricoles ont été testés. Ils permettent d'estimer les efforts déjà entrepris sur le bassin et les effets de modifications renforcées sur certaines zones. Ces scénarios permettent d'estimer les durées pour lesquelles ces actions ont une conséquence positive sur la qualité de l'eau. Les scénarios suivants ont été retenus : 1. Effets des pratiques issues des données de 1998 (début des plans de fumures) appliquées sur l'ensemble du bassin. Ces pratiques sont considérées comme des pratiques non optimisées. Il s'est agit d'étudier quel aurait été leur impact sur la qualité de l'eau à moyen terme, ce qui correspond en quelque sorte de l'état le plus défavorable sans raisonnement des fertilisations. Il devrait donc en résulter des flux plus élevés que dans la réalité. 2. Effets des pratiques intégrant les plans de fumure (en 2003, 60 % de la SAU suivait des plans de fumure, ce chiffre stagne depuis l'arrêt des aides) simulées sur l'ensemble du bassin à partir de 1997. Les pratiques intégrées seront celles issues de la moyenne des plans de fumure réalisés par les agriculteurs et non de ceux préconisés par le conseiller. 153 3. Idem que 2 mais avec un plan de fumure renforcé sur les sous bassins présentant des sols jugés plus vulnérables (soit 36 % de l'ensemble du bassin du Rochereau), ce plan renforcé est celui préconisé par le conseiller agricole. 4. Idem que 2 mais avec un plan de fumure renforcé sur les zones aux plus fortes charges animales (soit 20 % de l'ensemble du bassin du Rochereau). Le test du scénario 1 sur 1997-2003 montre des flux simulés plus élevés qu'en réalité avec un écart s'accentuant en hiver 2000-01. La concentration médiane simulée est supérieure de 15,7 % à celle des observations. Ainsi les mesures agro-environnementales ayant débutées en 1998-99, ce résultat tend à montrer que les modifications qui ont été apportées sur le bassin ont eu des conséquences favorables sur la qualité de l'eau. On peut noter que si les modifications ont été entreprises dès 1998, les effets sur la qualité de l'eau ne sont perceptibles qu'à partir de l'année 2001. Les résultats du scénario 2 viennent conforter les interprétations de ceux du scénario 1 puisque le cumul simulé est toujours en dessous du mesuré avec une tendance au rapprochement des deux courbes en fin de période de simulation. La concentration médiane simulée est inférieure de 19,1 % à celle des observations. Ce scénario permet de montrer les concentrations probables qu'il aurait été possible d'obtenir en 2003, si l'optimisation des pratiques agricoles avait débutée avant 1998 et sur l'ensemble du bassin. Les scénarios 3 et 4 réduisent la concentration médiane respectivement de 21,7 et de 20,8 %. Ainsi, en concernant une surface plus restreinte, le scénario 4 paraît plus efficace au regard de l'indicateur de concentration médiane en nitrates. L'emploi du modèle permet ainsi de conforter les efforts entrepris par les acteurs sur le bassin versant en montrant le lien entre les changements entrepris et l'évolution de la qualité de l'eau. En effet, cette évolution positive pourrait n'être due qu'à une variabilité climatique. Le modèle permet par ailleurs d'apprécier les effets d'une application de mesures renforcées sur une portion du bassin : la réduction de la charge animale semble la plus efficace (rapport entre la baisse de teneurs en nitrates et la surface d'application des actions) : elle permettrait de faire évoluer la médiane des concentrations en nitrates de 30 à 24 mg.l-1 et de passer ainsi en dessous de la valeur guide de 25 mg.l-1 (Union Européenne). 2. Bassin versant de la Moine Ces travaux ont été réalisés avec Denis Ruelland. Ils ont fait l'objet d'une publication dans la Revue des Sciences de l'Eau en 2007. Les scénarios pris en compte sur la Moine ont été : une baisse de la fertilisation minérale de 20 %, l'introduction d'un Culture Intermédiaire Piège à Nitrates (CIPAN) en l'occurrence un Ray Grass Italien et le passage au semis direct sur couverture végétale en hiver (SCV). Pour le scénario SCV, une modification du CN (Curve Number, employé dans la fonction empirique SCS de ruissellement) est introduite pour tenir compte de l'évolution de l'état de surface du sol (Bracmort et al., 2006) : le CN a été abaissé de 3 unités dans les successions concernées par cette pratique. Les résultats sont représentés sur les bassins à l'amont des barrages où les enjeux d'alimentation en eau potable sont élevés (cf. Tableau 13). Nous pouvons remarquer que les pollutions en nitrates sont faiblement réduites avec les différentes alternatives. La différenciation est plus marquée pour le phosphore car cet élément présente un excédent plus marqué et comme sa migration dépend moins des termes du bilan et plus des modes de circulation de l'eau, il est plus sensible à une modification du travail du sol et de son couvert végétal. 154 Alors que les teneurs actuelles en nitrates sont tout à fait acceptables, le phosphore préoccupe les gestionnaires de l'alimentation en eau potable de l'agglomération de Cholet puisque le phosphore entraîne une eutrophisation des lacs de barrage. La réduction de la fertilisation minérale a un effet négligeable sur les transferts de phosphore. L'introduction de CIPAN permet de réduire les flux de phosphore de 11 % ce qui reste largement insuffisant selon les gestionnaires. Le semis direct sur couverture végétale présente une forte efficacité en ce qui concerne les transferts de phosphore (baisse de 37 %) : en effet, dans le modèle, le couvert végétal hivernal réduit la saturation du sol et le CN plus élévé réduit le ruissellement, ce CN plus élevé traduit une meilleure porosité du sol, favorisée par une moindre battance par les pluies et une plus forte activité biologique. Le ruissellement étant le vecteur principal du transfert du phosphore, les flux de ce dernier sont ainsi abaissés. Concentration moyenne en nitrates (mg NO3-.l-1) Flux de nitrates (kg N-NO3-.an-1) Flux de P minéral (kg P.an-1) Pratiques moyennes 2000 139 484 14,1 15 256 Réduction fertilisation minérale de 20 % 129 365 13,3 15 086 Avec CIPAN 136 515 13,8 13 518 Avec semis direct sur couvert végétal 133 267 13,2 9 563 Tableau 13 : Transfert de nutriments simulés dans la Moine au niveau des barrages AEP de l'agglomération de Cholet en 2000-01 Le tableau suivant (Tableau 14) présente un exemple d'incidence des scénarios de pratiques sur une succession de maïs – maïs en 2000 – 2001 pour des brunisols. La réduction de la fertilisation minérale n'a pas été présentée car le maïs est fertilisé uniquement avec des apports organiques. Pour cette combinaison de sol – succession culturale, nous pouvons voir également que les flux de nitrates sont réduits de façon négligeable selon les alternatives : ceci s'explique par la faiblesse des excédents en azote. Les flux de phosphore sont par contre sensibles à la pratique : l'introduction de CIPAN et surtout le Semis Direct sur Couverture Végétale montrent une grande efficacité qui est liée à la baisse très nette du ruissellement (de 82 % en passant au semis direct). Ce changement de pratique affecte très peu les rendements. Pratiques moyennes 2000 Avec CIPAN Avec semis direct sur couverture végétale Flux de nitrates (kg N-NO3-/ha/an) 23,1 Flux de P minéral (kg P/ha/an) 0,354 Ruissellement (mm.an-1) 114 21,7 21,0 0,173 0,151 52 21 Rendement (tMS/ha/an) 12,7 12,7 12,2 Tableau 14 : Sorties de la succession maïs-maïs en 2000-2001 sur brunisols La simulation de l'impact de changements de pratiques sur la qualité des eaux souligne l'intérêt de la méthode du Semis Direct sur Couverture Végétale, ou tout au moins de l'introduction de CIPAN. Le semis direct permet sans baisse significative de rendement, de réduire considérablement les flux de phosphore et constituerait ainsi une voie intéressante pour la reconquête de la qualité des eaux. Ces résultats sont d'ailleurs en adéquation avec les travaux de Lucien Séguy du CIRAD qui a démontré les effets positifs du Semis Direct sur Couverture Végétale pour la conservation des sols comme pour la réduction des fuites de 155 nutriments et de produits phytosanitaires (Séguy, Bouzinac, 2001). 3. Bassin versant de l'Oudon Ces travaux ont été réalisés avec Denis Ruelland (UMR ESO puis HydroScience Montpellier) qui avait en charge la télédétection des successions culturales. Ils ont fait l'objet d'une publication dans le Journal of Hydrology en 2011 (Laurent, Ruelland, 2011). Sur ce bassin, il y a une volonté forte des acteurs locaux d'évaluer l'impact potentiel d'évolutions des pratiques agricoles voire des systèmes de production sur la qualité de l'eau à l'échelle du bassin versant. Les scénarios ont été construits avec le groupe d'action agricole de la Commission Locale de l'Eau de l'Oudon. Toutes leurs interrogations n'ont pu être prises en compte. Par exemple, les questions concernant l'arrangement spatial des îlots de culture ne peuvent être correctement modélisés avec l'outil SWAT, basé sur des HRU connectées au réseau hydrographique. Un modèle comme TNT est alors mieux orienté sur la problématique de l'arrangement spatial des unités et de l'effet de la géomorphologie (Beaujouan et al., 2000). Autre exemple, les effets de changements de pratiques sur certains sous-bassins et non sur l'ensemble de l'Oudon, n'ont pas pu être simulés du fait de la lourdeur du paramétrage que cela aurait nécessité. Les scénarios testés sont les suivants : 1 Couverts hivernaux (CIPAN) : l'avoine brésilienne (Avena strigosa) est reconnue pour sa forte croissance végétale et la facilité de sa destruction par le gel hivernal, ce qui évite de recourir à des herbicides, elle semble donc plus performante que la moutarde et a été retenue pour cette raison dans ce scénario ; elle ne peut être implantée avec suffisamment de temps entre deux cultures qu'entre un blé et un maïs ou entre deux maïs, le couvert n'est pour cela implanté que dans 16 % du bassin dans nos simulations. 1 Bandes enherbées, la modélisation de l'effet des bandes enherbées est très schématique dans SWAT : il est impossible de prendre en compte des bandes enherbées uniquement le long des cours d'eau, comme cela est imposé dans la réalité ; les bandes enherbées sont simulées en aval de chaque unité de sol – culture, correspondant pratiquement aux îlots culturaux (assemblage de parcelle présentant une même culture). Il s'agit donc plus d'un système de bande enherbée – haie proche d'un bocage serré. Le modèle ne simule que leur effet sur les eaux de ruissellement par l'équation suivante : trap = 0.367(widthfilt)0.2967 1 1 avec trap la fraction de nitrates piégée dans la bande tampon et widthfilt la largeur de la bande tampon (en mètres). Nous avons supposé une largeur de 5 mètres telle qu'elle est pratiquée sur le bassin ; la fraction de nitrates piégée serait alors de 0,59. Cette formule est évidemment très empirique, elle néglige par ailleurs le rabattement sur les flux de subsurface qui peuvent être atteints par les racines des végétaux. Sur le bassin expérimental de la Jaillère, suivi par Arvalis, Patty et al. (1997) ont mesuré un coefficient de rabattement de 0,47 (Patty et al., 1997). Fertilisation : plafonnement à 140 kgN.ha-1.an-1 ce qui conduit à réduire les apports en azote de 7 % sur le blé et de 39 % sur le maïs, sans générer d'impact sur les prairies qui sont déjà fertilisées à des valeurs inférieures à ce seuil ; la réduction de la fertilisation n'affecte donc que 45 % de la surface du bassin. Travail du sol : suppression du labour avec soit : o Semis Direct sur Couverture Végétale, le sol n'est pas travaillé, les résidus sont laissés en surface et des couverts végétaux sont implantés en interculture (en l'occurrence de l'avoine brésilienne) ; la faisabilité de cette pratique nous a 156 1 1 conduit à introduire le non-labour sur 45 % du bassin et à introduire des couverts sur 16 % ; o Simple lit de semence sans couvert : cette pratique de plus en plus répandue consiste à effectuer un travail superficiel par chisel sans labour ; nous avons simulé cette pratique sans couvert végétal afin de tester l'effet d'une TCS à la place du SCV ; les successions concernées couvriraient 45 % du bassin ; Une baisse du CN de 3 unités a été introduite pour tenir compte de l'évolution favorable des états de surfaces dans l'équation du SCS, générant le ruissellement. « Système fourrager économe en intrant » (SFEI), soutenu en tant que mesure agroenvironnementale sur certains sous-bassins prioritaires, les agriculteurs s'engagent à o respecter 55 % de la Surface Agricole Utilisée et 75 % de la Surface Fourragère Principale en surface en herbe (prairies permanentes et temporaires), o à réduire la surface en maïs (hors maïs grain et semences) à moins de 18 % de la surface fourragère, o à limiter les apports azotés annuels totaux produits et importés à 170 kgN.ha-1 en moyenne sur l'exploitation, o à limiter les apports azotés organiques annuels totaux produits et importés à 140 kgN.ha-1 en moyenne sur l'exploitation, o à ne pas apporter de phosphore minéral, o à limiter sur chaque parcelle de culture l'apport azoté minéral annuel (maximum autorisé) par type de culture : 1 à 30 kgN minéral/ha sur les prairies (PP + PT) 1 à 0 kgN minéral/ha sur maïs et sur betterave 1 à 60 kgN minéral /ha sur céréales de printemps 1 à 100 kgN minéral/ha sur céréales d'hiver et colza Modification de l'orientation agricole du bassin de l'élevage bovin vers la céréaliculture dans un contexte de hausse tendancielle des prix des céréales et oléagineux : les prairies temporaires couvrant 25 % du bassin, sont intégralement transformées en blé (2/3) et colza (1/3). Les prairies permanentes n'ont pas été transformées car elles occupent généralement des espaces de faible productivité (sols hydromorphes, caillouteux ou sur de fortes pentes). Le maïs est supposé constant car le maïs fourrage actuel pourrait être remplacé par du maïs grain. Les impacts des changements de pratiques ou de systèmes sont variables selon l'échelon spatial considéré : l'unité de culture (HRU) ou le bassin versant. A l'échelle du bassin, l'impact des actions résulte de leur impact au champ et de la surface relative couverte sur le bassin. Les actions sont appliquées sur la surface maximale où elles peuvent l'être, cette dernière varie. La mesure SFEI présente potentiellement la plus grande efficacité (Tableau 15) car elle conduit à réduire les apports sur les successions les plus polluantes (intégrant du maïs) et à réduire la surface de ces successions en les remplaçant par des prairies à moindre risque de lessivage. Ce système offre par ailleurs d'autres avantages en termes de durabilité (Garambois, 2011). Du fait de la surface relative concernée (45 %) et parce que la fertilisation est fortement réduite sur le maïs, le scénario de réduction de fertilisation serait également fortement efficace d'après la modélisation (Tableau 15). Néanmoins, les simulations montrent une diminution importante des rendements générée par la baisse de fertilisation : 25 à 35 quintaux de baisse sur le blé, 2 à 2,5 tMS sur les prairies de 0,5 à 1 tMS sur le maïs (qui peut être économiquemennt compensée par une baisse des charges de productions). 157 Les couverts végétaux bien que très efficaces à l'échelle de la parcelle (baisse du lessivage de 20 à 70 % dans les successions concernées) ont une efficacité moindre à l'échelle du bassin. Richter et al. (1998) ont mesuré des ordres de grandeur similaires dans le nord-ouest de l'Allemagne : les couverts réduisent les flux de 64 % à l'échelle de la parcelle et de 13 % à l'échelle du bassin (Richter et al., 1998). Le Semis Direct sur Couverture Végétale donne des résultats similaires : 14 % de baisse. Les bandes tampons produisent des résultats également proches de ces valeurs (11 %) mais leur efficacité est sous-estimée du fait de la non prise en compte des flux de subsurface ; des expérimentations sur le site de la Jaillère effectuées par Arvalis présentent des rabattements plus élevés de 47 à 100 % au niveau de la parcelle (Patty et al., 1997). La transformation des prairies en céréales et oléagineux conduirait inversement à une forte dégradation de la qualité de l'eau en ce qui concerne les nitrates avec un accroissement des flux de 21 %. Ceci converge avec la littérature qui souligne les moindres risques de lessivage sous prairie (Rode et al., 2009). Scenarios de pratiques alternatives Réduction de fertilisation Couverts hivernaux Travail simplifié du sol Semis Direct sur Couverture Végétale Bandes tampons SFEI Conversion des prairies temporaires en blé et colza Variation des flux de N-NO3 à la station de mesure de Segré (en %) -19 -13 0 -14 -11 -31 +21 Tableau 15 : Variation des flux de N-NO3 à la station de mesure de Segré selon différents scénarios de changement de pratiques sur la période 2005–2007 Nous pouvons observer que si certaines mesures ont un impact significatif sur ce bassin, elles nécessiteraient d'être conjuguées pour se traduire par une évolution plus ample de la qualité des eaux en nitrates. Thieu et al., sur le bassin de la Seine, mettent également en évidence la nécessité d'associer différentes « bonnes pratiques agricoles » pour atteindre les objectifs de qualité (Thieu et al., 2010). 9. Conclusion sur l'application de SWAT pour des problématiques de pollution agricole En première partie, un certain nombre de questions en matière de connaissance et de représentation des processus ont été soulevées à l'échelle de bassins versants. La modélisation agro-hydrologique distribuée permet de mieux identifier les facteurs déterminant les transferts de polluants d'origine agricole et de simuler les impacts de changements de pratiques proposées par les gestionnaires de bassins versants ou par les acteurs agricoles. Cependant, le modèle reste une représentation simplifiée de la réalité, il doit être mis en oeuvre avec certaines précautions concernant la qualité des données entrées, le réalisme de certains processus représentés dans le modèle, les méthodologies et l'interprétation des résultats. Principales limites de la modélisation à l'échelle des bassins étudiés La mise en oeuvre de SWAT sur les bassins versants étudiés présente certaines limites : • La qualité des simulations dépend de la qualité des données entrées dans le modèle, à savoir leur résolution spatiale et leur précision sémantique. Comme nous l'avons mis en évidence, la sensibilité des simulations à la résolution spatiale des données de sol et 158 • • • • de végétation n'est pas linéaire, il existe des seuils liés à la structure spatiale de ces entrées. La modélisation est sensible à la discrétisation en sous-bassin car les paramètres topographiques utilisés dans le modèle sont moyennés à l'échelle de sous-bassin, or si un gain de précision peut être obtenu par une discrétisation spatiale plus fine, les temps de calcul sont alors multipliés. La validation des résultats souffre d'un manque de mesures que ce soit en matière de fréquence, de spatialisation (validation en des points expérimentaux intermédiaires) ou de représentation des compartiments successifs du cycle de l'eau (migrations dans le sol ou à sa surface, sorties sous-racinaires, transfert dans les nappes). Une telle validation nécessiterait une instrumentation dense et sur une longue durée. Par exemple, l'évaluation des résultats pour le phosphore repose sur des données de validation issues de protocoles de mesure inadaptés sur les trois bassins tests, pour un nutriment migrant principalement lors d'évènements pluvieux intenses. Les résultats sur le phosphore doivent être pris avec une encore plus grande précaution que ceux obtenus sur l'azote. Le paramétrage du modèle pourrait être amélioré. Il conviendrait ainsi de spatialiser certaines pratiques agricoles telles que les apports de fertilisants qui varient selon la charge animale (mais ceci entraîne des temps de calcul beaucoup plus élevés, ce qui alourdit le calage). Bien que SWAT soit un modèle à base physique, il ne l'est qu'en partie car certains phénomènes sont représentés par des fonctions empiriques, comme, par exemple, le ruissellement déduit de la méthode du Curve Number et l'érosion obtenue par la MUSLE. Si le modèle offre un certain réalisme conforté par les mesures à l'exutoire du bassin versant, il ne peut cependant évidemment pas prétendre à une représentation de toute la complexité du système. Ainsi, il convient de considérer les sorties davantage selon une hiérarchie de risques de transfert que comme des grandeurs réelles. Apports de la modélisation hydrologique En tenant compte de ces réserves, la modélisation conduite sur les bassins tests a permis de mieux cerner les relations entre sols, cultures et pratiques culturales et de les spatialiser. La modélisation avec ce type d'outil est un moyen de mieux comprendre les phénomènes à l'échelle de bassins versants et de tester l'efficacité de pratiques alternatives. Sur les trois bassins étudiés, les éléments suivants sont à relever : • Les successions sont plus déterminantes que les cultures seules, du fait de la durée de sol nu exposé au lessivage et au ruissellement et du fait des arrières effets des fertilisations et du pool organique du sol sur plusieurs années. Ainsi les variabilités pour une même culture sont très fortes selon les successions dans lesquelles elle s'intègre (sur l'Oudon par exemple : variabilité de 1 à 4 pour les nitrates et de 1 à 16 pour le phosphore minéral). • L'intégration des entrées climatiques par la modélisation permet d'identifier en quoi la variabilité temporelle des flux de nutriments est due à l'évolution des pratiques ou à la variabilité climatique. La météorologie conditionne les transferts du fait de la lame d'eau écoulée et du ruissellement : ainsi les risques varient fortement d'une année à l'autre, par ailleurs, au sein d'un même grand bassin, des secteurs plus arrosés peuvent être plus vulnérables au lessivage. • Les sols sont un facteur de vulnérabilité important : les sols hydromorphes, sensibles au ruissellement, exportent plus facilement le phosphore tandis que les sols filtrants, 159 • sains et légers sont plus vulnérables au lessivage des nitrates (sur l'Oudon, la variabilité entre sols est d'un facteur 1 à 2 pour les nitrates et de 1 à 3 pour le phosphore minéral). Les différences de hiérarchie spatiale dans l'évaluation des transferts entre les nitrates et le phosphore montrent qu'il est difficile d'agir sur les conditions de transfert des nitrates et du phosphore simultanément : réduire le ruissellement au profit de l'infiltration est efficace pour lutter contre les transferts de phosphore mais pourrait dans certaines conditions accroître le lessivage des nitrates. Les actions sur les transferts doivent être associées à un meilleur raisonnement des apports de fertilisants. Mais le domaine d'application le plus fertile pour la réflexion nous paraît être la simulation de scénarios d'évolution des choix culturaux et des pratiques culturales afin d'en évaluer leurs conséquences sur la qualité de l'eau. Ce potentiel est particulièrement utile dans des démarches prospectives où les acteurs souhaitent optimiser la localisation et le choix des actions. Simultanément au calcul des flux de nutriments, le modèle permet d'évaluer les conséquences des changements de pratiques sur les rendements des cultures, critère essentiel pour l'agriculteur. Les conséquences d'un changement de pratiques peuvent donc être évaluées à la fois sur les fuites hors des parcelles, sur la qualité des cours d'eau et sur les rendements des cultures. Les « bonnes pratiques agricoles » les plus efficaces à l'échelle de la parcelle, ne sont pas forcément les plus efficaces à l'échelle du bassin comme nous avons pu le montrer avec le modèle. Pour confirmer les résultats des simulations de changements de pratiques, il serait utile de mettre en place des opérations pilotes sur un sous-bassin avec des agriculteurs intéressés par ces pratiques afin de valider leur efficacité au moyen de mesures de l'évolution des transferts dans les cours d'eau. Mais cette démarche est difficile à mettre en oeuvre et longue avant de pouvoir être interprétée. La modélisation hydrologique dans le partenariat avec les acteurs La méthode de modélisation avait été présentée initialement aux partenaires locaux, en l'occurrence les groupes de travail chargés de la pollution agricole. Les avantages et les limites de ces approches ont été traités dès le début. Des réunions intermédiaires ont permis de faire le point sur les avancées, l'intérêt des premiers résultats et de soulever des questions complémentaires quand elles pouvaient obtenir des réponses avec la méthodologie choisie. Les restitutions des résultats ont conduit à de riches discussions, pas seulement entre les acteurs et les chercheurs mais aussi entre les acteurs eux-mêmes sur les facteurs de pollutions et sur l'efficacité des actions qu'ils mettent en oeuvre ou les évolutions de l'agriculture sous la dépendance de phénomènes qui leur échappe (la hausse des prix des céréales, les difficultés de l'élevage). Le modèle n'a pas été utilisé pour décider d'une action au profit d'une autre car bien d'autres éléments entrent dans les stratégies mises en oeuvre (coûts économiques, faisabilité technique, réceptivité au changement de certaines pratiques). Les résultats ont néanmoins permis de conforter certains choix comme l'appui au développement des couverts végétaux et à leur diversification. Ils ont renforcé l'intérêt que certains pouvaient avoir sur un changement de système comme la conversion au Système Fourrager Econome en Intrants ou le semis direct sur couverture végétale. Cependant, cette recherche a soulevé la réticence, voire l'opposition, de certains représentants du monde agricole (ceux d'une chambre d'agriculture) qui y voient un argument pour renforcer les pressions sur la profession en constituant un outil d'appui aux politiques de réduction des activités agricoles polluantes. Les risques de transfert plus élevés des successions à base de maïs ont été mis en évidence durant les modélisations ce qui contribue à remettre en cause cette culture qui est à la base de l'alimentation animale de nombreuses 160 exploitations d'élevage. En contrepartie, les systèmes à base d'herbe ont été valorisés. Ces conclusions (partagées par bien des travaux d'agronomes dans d'autres zones) vont à l'encontre des orientations prises par certains acteurs du monde agricole. L'opposition ne provient pas d'agriculteurs du bassin mais de représentants départementaux. 161 4. Modélisation hydrologique de la sensibilité à la variabilité climatique d'un grand bassin en Afrique soudano-sahélienne Les travaux qui sont présentés ici résultent du projet ANR RESSAC, « vulnérabilité des Ressources en Eau Superficielle au Sahel aux évolutions Anthropiques et Climatiques à moyen terme », projet associant le CNRS, l'IRD, le Cemagref et l'université de Dijon, piloté par J.E. Paturel (IRD). Ils ont été réalisés avec Denis Ruelland (HydroSciences Montpellier) et ont fait l'objet d'une publication (Laurent, Ruelland, 2010). L'Afrique de l'Ouest est affectée depuis les années 1970 par une baisse de la pluviométrie (Bricquet et al., 1997; Servat et al., 1998; L'Hôte et al.). Celle-ci a généré une diminution d'environ 30 à 60 % des écoulements des grands bassins versants (Servat et al., 1998), la baisse se traduit non seulement sur le module annuel, mais aussi sur les extrêmes (crues et étiages). La réduction des ressources en eau constitue un des facteurs limitant du développement de la région. De nombreuses questions se posent aujourd'hui dans cette région : quels sont les contributions des différentes portions du bassin versant ? Quels sont les apports respectifs du ruissellement et des nappes souterraines et leur évolution dans le temps ? Quelles sont les interactions entre pluie – végétation – sol – topographie ? Comment intégrer la compréhension locale des mécanismes à l'échelle du bassin versant ? La modélisation hydrologique semi-distribuée à base physique peut fournir des éléments de réponse à ces questions. Elle permet d'analyser les impacts de la variabilité des précipitations sur les stocks et les flux d'eau dans les différents compartiments du cycle de l'eau à l'échelle du bassin versant. Par ailleurs, elle prend en compte le poids et la variabilité spatiale d'autres facteurs tels que la végétation ou le sol. Dans ce travail, nous évaluons la capacité du modèle SWAT à contribuer à la compréhension des écoulements sur le bassin versant du Bani, un des affluents principaux du fleuve Niger dans sa partie amont. 1. Zone d'étude Le Bani a été choisi d'une part pour les enjeux qu'il représente dans l'alimentation du delta intérieur du Niger, d'autre part pour les données qui y sont disponibles (notamment en matière de chroniques de débit de plusieurs de ses cours d'eau) et enfin parce que les écoulements n'y sont pas perturbés par des ouvrages hydrauliques de grande ampleur. Il constitue donc un espace d'analyse intéressant pour mieux comprendre les effets de la variabilité spatiotemporelle des pluies ainsi que des caractéristiques propres du bassin versant sur les écoulements. Le Bani draine un bassin de près de 100 000 km2 à la station de Douna. Il est situé principalement dans le sud-ouest du Mali mais est alimenté également par l'extrême ouest du Burkina Faso et le nord de la Côte d'Ivoire. Il se déverse dans le delta intérieur du Niger à hauteur de Mopti et contribue fortement à la formation de l'inondation annuelle du delta. Depuis les années 1970, le Bani connaît une crue de moindre ampleur ce qui dégrade les conditions de vie des pêcheurs, des agriculteurs et des éleveurs qui dépendent des inondations annuelles. Plus d'un million de personnes vivent des ressources de ce delta et les équilibres sociaux sont menacés par la baisse de la crue (Servat et al., 1998). Le module du Bani est de 513 m3.s-1 à Douna. Le régime du cours d'eau est de type tropical à saisons alternées : les hautes eaux s'étendent d'août à novembre, la moyenne mensuelle interannuelle la plus élevée se situe en septembre avec 1 941 m3.s-1 à Douna, le coeur de l'étiage a lieu en mai avec 23 m3.s-1 en moyenne mensuelle interannuelle à Douna (source : 162 GRDC, mesures de 1922 à 1994). Olivry et al. (1993) et Mahé et al. (2000) ont mis en évidence une vidange plus précoce et plus rapide des nappes depuis 1970 en lien avec la baisse des précipitations (Olivry et al., 1993; Mahe et al., 2000). Les précipitations moyennes annuelles sur la période d'étude de 1950 à 2000 présentent un gradient du sud au nord : environ 1 500 mm.an-1 à la station d'Odienné en Côte d'Ivoire au sud et 730 mm.an-1 à la station de San au nord. L'altitude s'échelonne entre 580 m au sud à proximité d'Odienné jusqu'à 267 m à l'exutoire dans le delta intérieur du Niger. La topographie dominante est celle de plateaux avec des reliefs tabulaires armés de cuirasses ferrugineuses et de vallées faiblement encaissées tapissées de limons. L'amont du bassin versant est formé par un socle cristallin et métamorphique et présente des nappes souterraines de faible capacité de stockage car localisées dans les altérites ou générées dans la porosité de fissure. La partie aval est constituée de grès et de dépôts alluviaux de plus large ampleur le long du cours d'eau, les circulations souterraines y sont ainsi beaucoup plus conséquentes (Mahé et al., 1998; Ruelland et al., 2009). Figure 76 : Le Baoulé, cours amont du Bani Figure 77 : Puits villageois 2. Données Les HRU, constituant les unités spatiales du modèle SWAT, nécessitent d'intégrer un modèle numérique de terrain, une carte des sols et une carte d'occupation du sol. A ces données spatialisées sont associées des tables de paramètres renseignant chaque unité spatiale sur ses propriétés. La localisation des stations météorologiques est également nécessaire, y sont associées les tables contenant les chroniques de pluie et de température. La qualité des simulations est fortement conditionnée par la qualité des données entrées à la fois en matière de résolution spatiale et de précision sémantique (Romanowicz et al., 2005). Météorologie SWAT fonctionne à un pas de temps quotidien, il nécessite les précipitations, les températures minimales et les températures maximales journalières. Sur une aussi longue période et sur une si grande surface, les postes météorologiques présentent des lacunes de mesure et l'interpolation par la méthode de polygones de Thiessen, implantée dans SWAT, nous est apparue trop simplificatrice car la modélisation semi-distribuée est fortement sensible à la représentation spatiale de cette entrée (Ruelland et al., 2008). Ainsi, pour les pluies, nous avons intégré non pas les stations réelles (Figure 78) mais une grille de stations virtuelles issues d'une interpolation inverse pondérée par la distance au carré. 65 stations ont été mobilisées pour ce traitement. SWAT attribue une station de référence à chaque sous-bassin 163 versant par la méthode du plus proche voisin entre le centroïde du sous-bassin versant et la station météorologique. L'évapotranspiration potentielle est calculée selon la méthode d'Hargreaves avec SWAT (Hargreaves, Samani, 1985) à partir de chroniques de températures issues de 9 stations. Figure 78 : Localisation du bassin du Bani et stations de mesure (Ruelland et al., 2010) Sols Les sols sont spatialisés à partir de la carte des sols au 1:5 000 000 de la FAO (Figure 80). Une telle résolution réduit considérablement la variabilité spatiale de ce facteur déterminant mais aucune autre carte n'est disponible sur l'ensemble de l'étendue du bassin versant. Les unités de sol sont représentées par une structure et une texture type issues d'observations de terrain. Les paramètres hydrologiques de chaque horizon de sol sont déduits de leur texture (Bastet et al., 1998; Laurent, Rossignol, 2004): réserve utile, densité volumique et perméabilité. Ces éléments sont intégrés dans la table associée à la carte des sols. Les principaux sols qui sont représentés sur cette carte s'organisent ainsi du sud vers le nord : – Acrisols Ferriques : sols argileux avec une faible saturation en bases échangeables, très acides et évolués, généralement présents dans des topographies faiblement ondulées, liés à un climat tropical humide ; – Luvisols ferriques : sols riches en oxydes de fer et d'aluminium, avec un horizon de surface grossier surmontant un horizon fin, riches en bases échangeables ; généralement présents dans les plaines et plateaux faiblement ondulés ; – Gleysols : sols présentant un horizon hydromorphe à moins de 50 cm de la surface, fréquemment de texture fine ; ces sols apparaissent dans les fonds de la vallée du Bani à l'aval du bassin ; – Cambisols eutriques ou ferraliques : sols épais de texture limono-sableuse. 164 Topographie Le relief est issu du SRTM30 (Shuttle Radar Topography Mission d'une résolution de 30 secondes d'arc, une seconde d'arc équivalent à 1/3600 de degré, soit 93m à l'équateur). Il est corrigé dans SWAT afin d'éliminer les cuvettes et de construire les chenaux d'écoulement ainsi que les sous-bassins versants. Les sous-bassins ont été choisis à l'amont de différentes stations de mesure des débits. A chaque sous-bassin sont associés des valeurs topographiques tels que le plus long chemin hydraulique ou la pente moyenne. Occupation du sol – couverts végétaux Savane arborée à karité, assimilée à une savane arbustive fermée Sol nu sur cuirasse, assimilé à une steppe Forêt Savane arbustive dégradée par l'exploitation pour le charbon de bois Champ de coton Agriculteur pratiquant la culture de décrue Figure 79 : Paysages et couverts végétaux sur le bassin du Bani 165 L'occupation du sol a été constituée à partir de la carte GLCF (Global Land Cover Facility) fournie par l'université du Maryland et établie à partir d'images NOAA-AVHRR acquises entre 1981 et 1994 (Hansen et al., 1998) (Figure 80). La résolution spatiale est de 1 km. Les unités initiales ont été reclassées afin de constituer les unités suivantes : forêts (2,1 % de la surface du bassin), savanes arbustives fermées (75,8 %), savanes arbustives ouvertes (2,1 %), steppes (16,0 %), cultures (3,7 %), eau et zones urbaines. (b) N (a) N Sols gleysols luvisols ferriques lithosols nitosols cambisols acrisols 0 Couverts végétaux Cultures Steppes Savanes arb. ouvertes Savanes arb. fermées Forêts 0 70 Km 70 Km Figure 80 : Entrées spatialisées de SWAT sur le Bani : (a) Sols (source : FAO) ; (b) Couverts végétaux (source : GLCF). Mesures de débits En fonction de la quantité et de la qualité des séries chronologiques disponibles, quatre stations de débits (Douna, Dioïla, Bougouni et Pankourou) ont été retenues pour le calage et la validation du modèle (Figure 78). Ces données proviennent des réseaux de mesures des Directions Nationales de l'Hydraulique du Mali et de Côte d'Ivoire. Figure 81 : Station hydrologique de Bougouni 166 3. Calage et validation Le calage du modèle est effectué sur 14 paramètres de nature empirique concernant notamment la capacité des végétaux à extraire l'eau du sol, la dynamique de la nappe souterraine, la rugosité des chenaux et le processus de ruissellement (Tableau 16). Le Curve Number de chaque couvert végétal a été également adapté. Les simulations s'étendent de 1950 à 2000. Les deux premières années (1950-1951) sont utilisées pour l'initialisation du modèle. Le calage a été réalisé en référence à la station de Douna sur la période plus sèche des années 1972 à 1992 (moyenne des précipitations à Kankela : 885 mm.an-1). La validation concerne deux périodes : l'une plus humide de 1952 à 1971 (moyenne à Kankela : 1075 mm.an-1), l'autre également sèche de 1993 à 2000 (moyenne à Kankela : 901 mm.an-1). Les critères utilisés pour le calage sont : le coefficient de Nash et le cumul d'écoulement. Paramètre ALPHA_BF GW_DELAY GW_REVAP REVAPMN RCHRG_DP GWQMN Définition Coefficient de tarissement de la nappe souterraine Délai de recharge de l'aquifère (j) Coefficient d'évaporation à partir de la nappe souterraine Seuil d'évaporation à partir de la nappe souterraine (mm) Coefficient de percolation vers la nappe profonde Seuil de contribution de la nappe souterraine à l'écoulement en chenal, écoulement de base (mm) Coefficient de délai du ruissellement Facteur sol d'évaporation du sol en fonction de la profondeur Facteur végétal d'évaporation du sol en fonction de la profondeur Perméabilité des berges des chenaux secondaires (mm.h-1) Coefficient de Manning des chenaux secondaires Perméabilité des berges des chenaux principaux (mm.h-1) Coefficient de Manning des chenaux principaux Coefficient de tarissement des berges des cours d'eau SURLAG ESCO EPCO CH_K1 CH_N1 CH_K2 CH_N1 ALPHA_BNK Valeur de calage 0,45 3 0,1 50 0,01 1 2 0,84 0,80 7 0,13 7 0,13 0,3 Tableau 16 : Valeurs des paramètres calés dans SWAT 4. Résultats Validation spatio-temporelle Le calage du modèle à Douna de 1972 à 1992 aboutit à un coefficient de Nash de 0,88 indiquant une bonne aptitude du modèle à reproduire les écoulements observés à la station de référence de Douna. La validation sur la période 1952-1971, nettement plus humide, est également satisfaisante à cette station (Nash de 0,81) : la dynamique temporelle est respectée mais le pic de crue est sous-estimé (Figure 82). La validation sur l'autre période sèche des années 1992-2000 produit un coefficient de Nash de 0,91 encore plus élevé que sur la période de calage. Douna Dioïla Bougouni Pankourou 1972-1992 (période de calage) 0,88 0,71 0,79 0,84 1952-1971 (période de validation 1) 0,81 0,79 0,74 0,75 1993-2000 (période de validation 2) 0,91 0,70 0,77 0,85 Tableau 17 : Indices de Nash pour les périodes de calage et de validation à la station de calage (Douna) et en d'autres stations 167 Le modèle calé à Douna donne des résultats globalement satisfaisants sur les sous-bassins amont mesurés (Tableau 17) que ce soit au sud, en zone soudano-guinéenne, ou dans la partie médiane, en zone soudanienne. La production de biomasse simulée par le modèle est proche des moyennes observées dans la zone (Marie et al., 2007) et (http://greforec.cirad.fr), ainsi les valeurs (en tMS.ha-1.an-1) varient selon les années de 1,5 à 1,7 pour les cultures, de 2,7 à 3,2 pour les steppes, de 3,5 à 4,5 pour les savanes arbustives, et de 3,5 à 3,8 pour les forêts. Figure 82 : Moyennes mensuelles des débits mesurés Qobs et simulés Qsim et des débits de base simulés GWQ (générés par les nappes souterraines) à Douna (a) 1952-1971; (b) 1972 -1992 ; (c) 1993-2000 Sur la période 1952-2000, le taux de contribution du ruissellement à l'écoulement dans les cours d'eau s'établit à 37 %, soit 5 % des précipitations sur l'ensemble du bassin versant. Ces valeurs s'inscrivent dans le domaine des valeurs mesurées en parcelles expérimentales par Roose (1983) dans les années 1955-1975, puisqu'il relevait en milieu de savane arbustive, sur des luvisols et des acrisols ferriques sur granite, des coefficients de ruissellement représentant 0,2 à 3 % des précipitations annuelles sous couvert naturel et de 2 à 45 % sous des cultures. Interprétation Le fait que SWAT soit fondé sur une approche à base physique à l'échelle de HRU permet d'évaluer spatialement les dynamiques de l'eau en fonction des caractéristiques des sols et des couverts végétaux. Le coefficient de ruissellement correspond au rapport entre le ruissellement et l'écoulement au sein de chaque HRU. Les portions de bassin représentées du Tableau 18 au Tableau 21 sont celles de Pankourou au sud (967 mm.an-1 en moyenne) et celles à l'amont immédiat de Douna (800 mm.an-1 en moyenne). 168 Luvisol ferrique / Nitosol Cambisol Acrisol Cultures (sorgho) Steppes 223 217 253 196 232 Savanes arbustives ouvertes 163 33 196 Savanes arbustives fermées 134 20 169 Forêts 97 116 Tableau 18 : Lame d'eau écoulée (mm.an-1) sur le sous bassin de Pankourou, moyenne 1952-2000 Luvisol ferrique / Nitosol Cambisol Gleysol Lithosol Cultures (sorgho) Steppes 142 134 - 128 76 113 280 Savanes arbustives ouvertes 79 3 74 280 Savanes arbustives fermées 49 2 46 280 Forêts 21 - Tableau 19 : Lame d'eau écoulée (mm.an-1) sur le sous bassin de Douna, moyenne 1952-2000 Luvisol ferrique /Nitosol Cambisol Acrisol Cultures (sorgho) Steppes 0,63 0,50 0,57 0,53 0,50 Savanes arbustives ouvertes 0,55 0,30 0,50 Savanes arbustives fermées 0,46 0,15 0,47 Forêts 0,40 0,40 Tableau 20 : Coefficient de ruissellement sur le sous bassin de Pankourou, moyenne 1952-2000 Luvisol ferrique / Nitosol Cambisol Gleysol Lithosol Cultures (sorgho) Steppes 0,67 0,96 - 0,55 0,38 0,93 0,01 Savanes arbustives ouvertes 0,57 0,49 0,95 0,03 Savanes arbustives fermées 0,43 0,23 0,92 0,01 Forêts 0,36 - Tableau 21 : Coefficient de ruissellement sur le sous bassin de Douna, moyennes 1952-2000 Variabilité selon les sols Du Tableau 18 au Tableau 21, nous observons de nettes différences d'écoulement entre les types de sols présents sur les sous-bassins. Les lithosols produisent des écoulements importants du fait de leur faible réserve utile. Les cambisols présentent, au contraire, une forte réserve utile (160 mm) favorable au stockage de l'eau dans la zone racinaire et donc à son évapotranspiration tandis que les luvisols ferriques, les nitosols et les gleysols produisent des écoulements moindres, principalement du fait de leur réserve utile intermédiaire (80 à 100 mm). Le coefficient de ruissellement est réduit dans les lithosols en lien avec leur perméabilité et leur faible teneur en argiles. A l'opposé, il est très élevé sur les gleysols quasiment imperméables en profondeur. Les luvisols ferriques et les nitosols présentent des coefficients relativement élevés du fait de leur teneur importante en argile et leur perméabilité intermédiaire. La texture limono-sableuse des cambisols permet une infiltration plus importante ce qui réduit le ruissellement. 169 Figure 83 : (a) Précipitations et (b) lame écoulée simulée – moyennes de 1952 à 2000 (en mm.an-1) Figure 84 : Estimation de la part de l'écoulement provenant du ruissellement : (a) moyenne 1952-1971; (b) moyenne 1972 -1992 Variabilité selon les couverts végétaux L'écoulement varie également fortement selon les couverts végétaux : il est inversement proportionnel à la densité du couvert végétal (du Tableau 18 au Tableau 21). Les cultures laissant le sol nu ou peu couvert une grande partie de l'année réduisent l'évapotranspiration tandis que des couverts végétaux naturels exploitent plus largement le potentiel de rétention en eau du sol, l'écoulement est ainsi largement supérieur dans les espaces cultivés. Le coefficient de ruissellement varie fortement selon les couverts (Tableau 20 et Tableau 21) : moyen sous forêt, il augmente légèrement sous savane arbustive fermée et plus fortement sous savane arbustive ouverte et dans les steppes pour atteindre son maximum sous les cultures. Ces résultats traduisent la prise en compte de la densité du couvert végétal du sol dans le calcul du ruissellement. Les travaux de Roose (1983) en parcelles expérimentales montraient une différence de ruissellement encore beaucoup plus nette entre couverts naturels et cultures (Roose, 1983). Variabilité entre portions de bassin versant La distribution inégale des pluies comme la variabilité spatiale des sols et des couverts végétaux génèrent des différences sensibles en ce qui concerne l'écoulement entre les portions de bassin versant. Selon toute logique, la lame écoulée décroît du sud vers le nord en fonction du gradient de précipitations (Figure 83 b). La contribution relative du ruissellement à 170 l'écoulement dans les cours d'eau varie également selon les portions de bassin (Figure 84) : à pluviométrie comparable, les bassins produisent des ruissellements différents du fait de la distribution des sols et de la végétation. Variabilité temporelle de la contribution de ruissellement à l'écoulement Les simulations présentent un taux d'écoulement provenant du ruissellement plus élevé en période humide qu'en période sèche : 38 % en moyenne de 1952 à 1971 contre 20 % de 1972 à 1992 ou 27 % de 1993 à 2000. Le coefficient de corrélation entre les précipitations annuelles et le ratio annuel d'écoulement provenant du ruissellement s'établit à 0,77 sur l'ensemble de la période 1952-2000. Ces résultats montrent assez logiquement que le ruissellement généré par le modèle est plus sensible à la baisse de la pluviométrie que l'écoulement de base et qu'en année sèche les nappes souterraines contribuent relativement plus à l'écoulement des cours d'eau qu'en année humide, même si l'écoulement de base diminue en valeur absolue. Ce phénomène s'observe également sur les hydrogrammes interannuels simulés moyens (Figure 82). 5. Discussion et conclusion Les travaux réalisés montrent l'intérêt du modèle semi-distribué SWAT à représenter l'hydrologie d'un grand bassin versant d'Afrique de l'Ouest en zone soudano-sahélienne. Schuol & Abbaspour (2006) ont appliqué le modèle SWAT sur l'ensemble des bassins de la Volta, du Niger et du Sénégal avec une méthode de calage spécifique et ont obtenu des résultats très variables mais globalement faibles quant au coefficient de Nash (Schuol, Abbaspour, 2006). Nous montrons ici sur le Bani que le modèle SWAT reproduit correctement les débits sur une longue période (1952-2000). Il présente une bonne robustesse aux variations climatiques et une transposition spatiale satisfaisante en différentes stations de mesure sur des portions à l'amont du bassin versant. Il produit de plus des éléments de compréhension des processus en jeu. L'écoulement varie fortement en fonction des précipitations mais aussi, dans une moindre mesure, en fonction des sols et de la végétation. Selon le modèle, ces facteurs déterminent également la contribution spécifique des nappes souterraines et du ruissellement dans le temps et dans l'espace. Ainsi, la contribution du ruissellement à l'écoulement du cours d'eau varie fortement selon les sous bassins. D'un point de vue temporel, la contribution du ruissellement semble diminuer lors des périodes sèches alors que les nappes souterraines assureraient la majeure partie de l'écoulement annuel même si les flux qui en proviennent se réduisent en valeur absolue. Avec le modèle conceptuel HydroStrahler, Ruelland et al. (2009) ont évalué par simulation une baisse drastique de l'écoulement de base à partir de 1970, à la fois en valeur absolue, ce qui converge avec nos résultats, mais aussi en valeur relative dans la formation du débit des cours d'eau (Ruelland et al., 2009). Cette divergence peut s'expliquer par les différentes approches de modélisation car l'écoulement de base calculé par les modèles intègre en réalité différents flux : ceux de subsurface, ceux d'écoulements de nappes profondes, ceux du milieu fissuré et ceux du milieu poreux. SWAT constitue à cette échelle un outil intéressant pour étudier l'effet spatial et temporel de la variabilité du climat. Néanmoins, le réalisme des résultats doit être encore considéré avec prudence car la validation des simulations par HRU ne peut être réalisée faute de mesures suffisantes. Par ailleurs, la carte des sols reste trop grossière pour représenter toute la complexité des impacts du sol sur les écoulements. Enfin, la carte des couverts végétaux identifie les unités présentes durant les années 1980, or les couverts se sont dégradés sur les marges sud et nord du Sahara (voir notamment (Taïbi et al., 2006)). 171 Nous allons utiliser ce modèle pour simuler les conséquences hydrologiques d'un scénario prospectif de changement climatique sur la période 2031-2042 en utilisant les résultats de la simulation de pluies produits par un autre groupe de travail de RESSAC, à l'aide d'un modèle régional WRF (Weather Regional Forecast). Ce modèle climatique a servi à désagréger au demi degré les sorties du modèle global GCM ARPEGE (2,5°). L'objectif est d'appréhender les évolutions possibles de l'hydrologie de la région en fonction d'une hausse probable des températures et d'une variation plus discutée des précipitations. 172 Perspectives Les travaux présentés précédemment ne sont pas clôturés. Je considère qu'ils doivent être prolongés en ce qui concerne la modélisation agro-hydrologique de scénarios agricoles et de scénarios de changements climatiques. Cette méthodologie a l'avantage d'appuyer des démarches prospectives sur une meilleure prise en compte des effets du milieu et des effets des activités humaines sur les systèmes de bassins versants. Modélisation de scénarios agricoles La capacité de la modélisation agro-hydrologique en matière de scénarios agricoles mérite d'être poursuivie. D'une part, d'un point de vue méthodologique, le calage du modèle peut être amélioré par des mesures des stocks d'azote et de phosphore dans le sol (reliquats) et la variabilité des pratiques mériterait d'être représentée au-delà de leur association à des entités spatiales de successions culturales, par exemple à l'échelle de sous-bassins, puisque sur un grand bassin les pratiques peuvent s'organiser dans l'espace. D'autre part, la modélisation agro-hydrologique est à poursuivre pour répondre aux enjeux soulevés par les évolutions de l'agriculture française. Il est en effet nécessaire d'anticiper sur les conséquences des futurs changements de pratiques agricoles (voire de systèmes de production) sur la qualité de l'eau. Trop d'a priori sur les bénéfices escomptés des changements agricoles risquent de conduire à de mauvais choix ou à des manques de persévérance dans les efforts de rétablissement de la qualité de l'eau, soit parce que les relations de cause à effet seront mal prises en compte, soit parce que ces relations s'inscriront sur un temps plus long difficilement perceptible sans modélisation temporelle. Certes, la modélisation ne produit pas de résultats infaillibles, comme nous l'avons vu, mais elle peut réduire les marges d'incertitude et mieux représenter la dynamique des processus en jeu. La France de l'Ouest est une zone aux enjeux importants. Je poursuis mes travaux sur le bassin du Rochereau dans ce cadre, mais il serait également opportun d'étudier un hydrosystème dans une autre zone d'agriculture intensive, je pense tout particulièrement au bassin du Paraná 3, à l'amont d'Itaipu, où nous avons des échanges avec un chercheur de l'UNILA, Glaucio Roloff, spécialiste en modélisation hydrologique, et avec le président d'une organisation d'agriculture durable, Ivo Mello. Modélisation de scénarios de changement climatique La modélisation agro-hydrologique offre par ailleurs un moyen de traiter des conséquences du changement climatique sur les interactions sol-plante et sur les processus de transfert d'eau, d'azote et de phosphore. L'accroissement de l'évapotranspiration potentielle, la modification du régime des précipitations, soulèvent des questions cruciales sur la productivité agricole et les ressources en eau, mais aura aussi sur l'évolution des flux de polluants qui en résulteront. La sensibilité des bassins versants à une variabilité des entrées climatiques est hétérogène, en fonction des sols et des couverts végétaux, ce qui nécessite des approches intégrant la variabilité spatiale de ces facteurs. Sur le bassin du Bani, nous continuons de travailler sur l'exploitation d'autres scénarios de changement climatique afin de les intégrer dans le modèle SWAT. Ceci permettra de mettre en évidence les tendances des conséquences hydrologiques du changement climatique en zone soudano-sahélienne. Ce travail est réalisé avec Pascal Roucou et Nicolas Vigaud (climatologues à l'université de Bourgogne) et avec Denis Ruelland (géomaticien à HSM). Je pense qu'il serait par ailleurs pertinent de travailler cette question sur un bassin versant français qui est ou a été l'objet de simulations de changement des pratiques agricoles. 173 De nouvelles perspectives s'ouvrent par ailleurs en lien avec les thèmes, les espaces et les chercheurs avec qui j'ai travaillé jusqu'à présent. Ils s'inscrivent dans deux champs thématiques : la séquestration du carbone par l'agriculture dans le biome de la forêt tropicale humide au Brésil et les services écologiques dans le biome de la Pampa. 1. La séquestration du carbone par l'agriculture L'agriculture et l'élevage sont à l'origine d'une part importante des émissions de gaz à effet de serre. Ainsi, un cinquième des 356±85 milliards teC d'émissions mondiales de gaz à effet de serre depuis 1750 sont attribués à la minéralisation de la matière organique des sols (Lal, 2003). Les changements d'occupation du sol (déforestation, conversion des prairies en cultures) et le travail du sol sont les principaux responsables de la minéralisation. Inversement, il est estimé que le potentiel de séquestration du carbone et de restauration des sols dégradés par des systèmes de conservation des sols s'élèverait entre 30 à 60 milliards teC au niveau mondial pour les 50 ans à venir (Lal, 2004). L'enrichissement en matière organique, généralement observé dans les sols non labourés, constitue une forme de séquestration du carbone (FAO, 2001; Corsi et al., 2012). Les flux mesurés sont de l'ordre de 0,2 à 0,5 t equC.ha-1.an-1 (Halvorson et al., 2002; Bayer et al., 2006; Lafond et al., 2011) mais peuvent être accrus avec des systèmes plus performants. L'agriculture peut donc participer de façon importante à l'atténuation du changement climatique, si elle s'oriente vers de nouvelles pratiques : l'abandon du labour, la couverture du sol et des rotations diversifiées. Le piégeage du carbone dans les sols agricoles sert par ailleurs à d'autres fins, comme la réduction de l'érosion, le recyclage des nutriments, la biodiversité, voire des gains de rendements en zone tropicale. Comme nous l'avons vu, des agriculteurs, avec l'appui des instituts de recherche, des pouvoirs publics ou du secteur privé, innovent depuis plusieurs années vers des systèmes plus durables alliant une meilleure productivité à des impacts bénéfiques sur l'environnement. Dans l'ouest de la France, par exemple les systèmes fourragers économes en intrants ont des besoins plus limités en engrais minéraux à la source d'émission d'oxydes nitreux et reposent sur des prairies fixatrices de carbone. L'agriculture de conservation, que nous avons étudiée auparavant, commence à être pratiquée en France mais est surtout développée aux Etats-Unis, au Canada, au Brésil, en Argentine et au Paraguay. Elle a pour principe de maintenir un niveau élevé de matière organique dans le sol et peut ainsi contribuer à la lutte contre le changement climatique (Corsi et al., 2012). Nous souhaitons conduire nos recherches sur la question de l'atténuation du changement climatique par l'agriculture, en portant notre attention sur l'agriculture de conservation. D'autres systèmes et pratiques peuvent séquestrer du carbone, mais nous choisissons d'étudier ce système à la fois parce qu'il propose d'appuyer la production agricole sur un meilleur respect du fonctionnement du sol et parce qu'il prend une ampleur importante dans certains pays du fait de l'amélioration de la productivité qu'il génère (FAO, 2001). Contexte bibliographique sur la séquestration du carbone par l'agriculture de conservation au Brésil L'agriculture est une source d'émission de gaz à effet de serre, mais elle peut devenir un puits lorsque le système de production s'appuie sur le respect de l'activité biologique du sol et du cycle naturel du carbone et des nutriments. L'absence de labour est nécessaire au bon fonctionnement du sol, néanmoins, comme nous l'avons vu précédemment, sous le vocable semis direct ou non-labour se cachent de multiples pratiques qui peuvent s'éloigner fortement du système optimisé d'un point de vue agronomique et écologique (le semis direct sur couverture végétale permanente – SCV – pouvant constituer une référence). Baker a ainsi 174 remis en cause la séquestration du carbone en semis direct du fait de l'existence de systèmes de non-labour sans couverture permanente du sol (Baker et al., 2007). Pourtant, il y a plus de 25 ans, Derpsch et al. insistaient déjà sur l'importance des couverts végétaux dans la performance du semis direct dans le sud du Brésil (Derpsch et al., 1986). Dans une métaanalyse sur les flux de carbone associés au non labour, Luo et al. (2010) concluent que c'est la biomasse produite qui détermine la séquestration du carbone entre les différents systèmes de non-labour. Pour ce qui est des biomes représentés au Brésil, l'intérêt environnemental a été étudié dans différents travaux. Dans les zones cultivées des Cerrados et de l'Amazonie, la monoculture domine. La transformation des forêts et des savanes en cultures avec travail du sol se traduit par des émissions de gaz à effet de serre, les émissions se poursuivent après plus d'une dizaine d'années de mise en culture (Zinn et al., 2005; Carvalho et al., 2010). Ainsi, Ogle et al. ont estimé que la transformation d'une forêt tropicale humide en cultures avec labour générait une disparition moyenne de 42 % de la matière organique du sol (Ogle et al., 2005). Martins et al. ont mesuré une perte de 28 % de matière organique après 5 ans de déforestation et de mise en culture avec labour en Amazonie (Martins et al., 1991). Dans les Cerrados (avec près de 200 millions d'hectares, ce biome constitue l'une des grandes zones de l'expansion agricole du Brésil), les émissions de carbone ont été évaluées sur les 5 ans qui suivent la mise en culture, pour un sol travaillé en monoculture de soja ou de coton, entre 0,25 et 1,40 teC.ha1 .an-1 en fonction des conditions pédoclimatiques (Séguy, Bouzinac, 2006). Figure 85 : Champ de soja après récolte sur un front pionnier d'Amazonie (Santarem) Les flux peuvent s'inverser en non-labour. Ainsi, la séquestration du carbone par le nonlabour dans les Cerrados est estimée en moyenne à 0,3 teC.ha-1.an-1 pour des oxisols sabloargilo-limoneux et de 0,6 teC.ha-1.an-1 pour des oxisols argileux (Bayer et al., 2006). Sur des sites observés depuis 20 ans dans les Cerrados et l'Amazonie, Maia et al. (2010) ont mesuré que la transformation de la savane en cultures en semis direct avec deux récoltes annuelles conduisait à une séquestration accrue du carbone avec un taux de 1,08 teC.ha-1.an-1 (qu'ils expliquent aussi par une augmentation de la fertilité grâce aux apports de chaux et d'engrais) ; 175 la conversion de la forêt avec le même système n'entraînait pas de perte significative de matière organique (Maia et al., 2010). Le développement de systèmes intégrant les cultures et l'élevage avec une rotation des plantes fourragères et des cultures en semis direct serait particulièrement efficace selon les travaux de (Carvalho et al., 2010) qui révèlent des taux de séquestration de 1,3 teC.ha-1.an-1 pour des Oxisols en système intégré de rotation de prairies temporaires et de cultures, en semis direct. Le semis direct sur couverture végétale permanente expérimenté par le Cirad dans les Cerrados s'appuie sur une succession intégrant une ou deux cultures commerciales et une « biomasse de couverture » (mil ou sorgho associé à Brachiaria ruziziensis, Eleusine coracana qui sont des espèces fourragères à croissance active en saison sèche) ; ce système reconstitue la matière organique du sol à des taux voisins ou supérieurs à ceux de l'écosystème originel. La séquestration annuelle de carbone sur les 3 à 5 premières années, s'établit entre 0,83 à 1,50 teC.ha-1.an-1 dans l'horizon 0-10 cm, et atteint 1,40 à 1,80 teC.ha-1.an-1 dans l'horizon 10-20 cm (Séguy, Bouzinac, 2006). Avec un système similaire, en condition plus sèche et donc avec une moindre production de biomasse, Scopel et al. ont mesuré un enrichissement du sol en carbone de 0,75 teC.ha-1.an-1 dans l'horizon 020 cm (Scopel et al., 2005). Dans le sud du Brésil, au sein du biome de la Mata Atlantica subtropicale, toujours pour des Oxisols, Calegari et al. ont mesuré des propriétés du sol (dont les teneurs en matière organique) similaires entre une forêt native et des champs gérés depuis 19 ans en agriculture de conservation (non-labour et couvert végétal en inter-culture). Dans les parcelles mesurées, la séquestration du carbone s'élève à 1,2 teC.ha-1.an-1 ce qui indique une forte capacité du système à piéger le carbone et à assurer une activité biologique importante (Calegari et al., 2008). Dans le même biome, d'autres auteurs montrent également un piégeage du carbone sur le long terme (Cavalieri et al., 2009). Sisti et al. ont comparé différents systèmes de nonlabour dans cette région : le stock de carbone dans le sol augmente seulement lorsqu'un couvert végétal est intégré alors que sans ce couvert, il est équivalent à un sol labouré (Sisti et al., 2004). Dans le biome de la Pampa, des analyses convergent avec certaines conclusions précédentes. Pour des sols sableux, le non labour est responsable de teneurs en matière organique plus élevées que pour des cultures avec labour, mais les types de rotations sont également déterminantes : les successions intégrant des prairie temporaires et des cultures accroissent les teneurs en matière organique (Diaz-Zorita et al., 2002). Dominguez et al. ont ainsi montré dans la Pampa argentine que le semis direct, s'il n'est pas associé au couvert végétal permanent et à des rotations, conduit à un appauvrissement de la macrofaune du sol et altère la décomposition de la matière organique, comparativement à une prairie native. L'emploi systématique des herbicides serait en partie responsable de la dégradation de la vie du sol (Dominguez et al., 2010). Problématique La séquestration du carbone par l'agriculture est une voie importante d'atténuation du changement climatique. Cette fonction nouvelle est revendiquée par certains réseaux qui défendent des systèmes alternatifs à l'agriculture dite conventionnelle. Dans différents pays du monde, l'agriculture de conservation (nommée agroécologie par certains de ses défenseurs) l'inscrit parmi ses objectifs. En France, d'autres réseaux défendent aussi ce rôle (ADEAS-CIVAM). Les services écologiques offert par le semis direct commencent à être reconnus par les politiques publiques, au Brésil (programme fédéral Agricultura Baixo Carbono et programmes locaux à l'échelle de bassins versant), ainsi qu'au Canada (compensations carbone des surfaces en non labour en Alberta). La FAO soutient par ailleurs fortement la 176 diffusion de ces techniques pour l'agriculture familiale dans les pays du Sud (FAO, 2001). En Afrique sub-saharienne et en Asie du sud, l'agriculture de conservation se diffuse peu notamment du fait des barrières techniques (maîtrise des adventices et matériels de semis) mais aussi pour des raisons culturelles et socio-économiques qui mériteraient d'être analysées. L'absence ou l'insuffisance de mulch et de couvert végétal réduisent fortement l'efficacité du non-labour et s'expliquent en agriculture familiale en zone tropicale par le fait que les résidus servent comme source d'énergie à la cuisine et comme fourrage du bétail (Lal, 2007). Cependant ce système a montré son intérêt pour l'agriculture familiale au Cameroun et au Cambodge et se diffuse au-delà des parcelles expérimentales (travaux de Florent Tivet, Cirad). Au Brésil, le système se développe que ce soit dans les petites ou les grandes exploitations. Mais, comme nous l'avons vu, il y a une forte diversité des pratiques avec des conséquences environnementales très variables, notamment en matière de séquestration du carbone. L'enjeu est aujourd'hui de mieux évaluer les services écologiques offerts par les systèmes qui visent à respecter au mieux le fonctionnement naturel du sol. Le semis direct sur couverture végétale permanente tel qu'il a été expérimenté et développé dans les régions tropicales (Séguy, Bouzinac, 2006) et tempérées présente de nombreux intérêts en matière de durabilité. La caractérisation de la séquestration du carbone et des variables qui la déterminent dans ce système permettrait de mieux mettre en évidence son potentiel pour contribuer à la lutte contre le changement climatique. Quels sont les flux de carbone en fonction des variables de sol, de climat et de pratiques agricoles ? Quels sont les processus en jeu ? Quelle dynamique sur le moyen terme (la séquestration n'est pas continue, elle évolue au cours du temps) ? Bien entendu nous ne pourrons répondre à ces questions qu'avec un partenariat avec des agronomes. La diffusion du semis direct soulève également de nombreuses questions sur les dynamiques territoriales impulsées et la reconnaissance des bénéfices en matière de séquestration du carbone par les pouvoirs publics. Sur une espace d'étude de l'ordre de quelques centaines à quelques milliers de km2, il s'agirait d'identifier les logiques qui animent les producteurs, leurs motivations et leurs difficultés. Quels sont les réseaux dans lesquels ils s'insèrent ? Les soutiens dont ils disposent pour développer ces systèmes ? En quoi les grands et les petits producteurs se différencient dans la réalisation de ces systèmes ? En parallèle, il paraît pertinent d'analyser les stratégies « supra-territoriales » qui soutiennent le semis direct du fait d'organisations publiques ou privées agissant au niveau régional ou national. Au Brésil, l'Etat fédéral intervient directement (programme Agricultura Baixo Carbono) ou indirectement (pour la stabilisation des fronts pionniers, l'intensification des systèmes, la récupération des pâturages dégradés par exemple). Les Etats fédérés ont également leurs propres politiques de soutien. Les sociétés d'agrofourniture (commercialisant les herbicides, les semences, le matériel, etc.) sont très puissantes dans le domaine de l'agrobusiness et ont une forte influence sur les pratiques mises en oeuvre par les producteurs. D'autres acteurs interviennent également : des coopératives, des associations de producteurs, des ONG de développement agricole ou de protection de l'environnement, des organisations internationales (FAO) et des instituts de recherche (réalisant des expérimentations et accompagnant les producteurs). Espaces d'étude Comme nous l'avons vu, le Brésil est l'un de ses « berceaux » principaux et un pays où elle couvre de grandes surfaces (25,5 millions d'ha en 2005/06 selon la FEBRAPDP, elle s'établirait en 2011 à 35 millions d'ha). Les Cerrados, l'Amazonie, comme le Sud du pays sont des espaces de forte diffusion du semis direct et des systèmes sur couverture végétale permanente y sont conduits depuis de nombreuses années. 177 Notre espace d'analyse sera en Amazonie brésilienne. L'Embrapa d'Amazonie orientale et l'université fédérale rurale d'Amazonie testent et diffusent un système alternatif au brûlis au moyen d'une jachère d'espèces ligneuses de légumineuses broyées, alternant avec des cultures en semis direct sur le mulch issu de ce broyage. Ils montrent que ce système permet une exploitation durable des sols en agriculture familiale sans recours aux fertilisants minéraux, ni aux pesticides, tout en obtenant des rendements plus élevés qu'en culture conventionnelle (Denich et al., 2004; Denich et al., 2005). Les émissions de gaz à effet de serre dans ce type de système sont 5 fois moins élevées qu'en culture sur brûlis (Davidson et al., 2008; Rangel-Vasconcelos et al., 2009). Dans les grandes exploitations mécanisées, le SCV est un moyen d'exploiter les terres en réduisant leur érosion et de piéger du carbone. Ces approches offrent ainsi une alternative à la déforestation en fixant les producteurs, en accroissant la productivité des terres avec peu d'intrants et en réhabilitant les pâturages dégradés. Ce qui renforce encore leur intérêt vis-à-vis de la question des émissions de gaz à effet de serre. Nous nous orientons vers un espace d'étude de quelques municipios où nous pourrions enquêter des producteurs (petits et grands, les systèmes différant selon les capacités d'investissement, le type de production et les savoir faire), des acteurs locaux et mesurer la diffusion spatiale du semis direct. Nous enquêterons par ailleurs les acteurs régionaux ou nationaux cités précédemment. Partenaires et cadre de la recherche Ces recherches s'articuleront au sein de l'UMR ESO avec celles conduites par d'autres collègues sur les puits de carbone. Nous avons été retenus en mai 2012 dans le cadre de l'appel à projets exploratoires du CNRS – Mission interdisciplinarité sur les inégalités écologiques. Le projet exploratoire s'intéresse aux territoires de réduction des émissions de gaz à effet de serre, avec trois volets : déchets, forêt et agriculture. Il est piloté par Cyria Emelianoff. Le projet exploratoire consiste à préparer un projet plus vaste, du type projet ANR. La caractérisation de la séquestration du carbone et des facteurs la déterminant dans des systèmes de semis direct sera réalisée par des agronomes. Nous construisons dans ce sens le projet avec un chercheur du Cirad (Florent Tivet). Lucien Séguy y contribuera également : il est le concepteur du système de semis direct sur couverture végétale permanente ; auparavant chercheur au Cirad, il est à présent consultant auprès de l'IMA (Institut de recherches sur le Coton du Mato Grosso) et enseigne à l'Université Fédérale de Ponta Grossa (berceau du semis direct au Paraná) avec Joâo Carlos Moraes de Sà. Ivo Mello, le président de l'association de semis direct sur couverture végétale du Brésil (FEBRAPDP) participe à la conception du projet et collaborera aux travaux. Nous envisageons également un partenariat avec les chercheurs de l'Embrapa de l'Amazonie orientale qui travaillent sur l'agriculture familiale. Amir Kassam et Théodore Friedrich de la FAO, avec qui nous avons collaboré (Kassam et al., 2012; Kassam et al., 2012), seront associés à nos réflexions en tant que spécialistes de l'agriculture de conservation et des services écologiques en agriculture. 2. Les services écologiques dans le biome de la Pampa La Pampa est une région traditionnelle d'élevage bovin extensif et de production de riz. Mais elle connaît depuis quelques décennies de profondes mutations : élevages hors-sol, extension du riz dans les fonds alluviaux, plantations d'eucalyptus pour la pâte papier et implantation de la viticulture. Ces transformations affectent les sociétés rurales ainsi que l'environnement. L'évolution des espaces ruraux de la Pampa soulève la question de la durabilité du développement agricole de la région : les ressources fournies par le milieu naturel peuvent 178 être menacées par certaines activités alors qu'elles sont nécessaires à la productivité (notion de services écologiques). L'enjeu pour l'agriculture dans la Pampa (comme d'autres espaces) est de protéger et d'utiliser au mieux les services écologiques afin : - de maintenir voire de renforcer la productivité des sols tout en réduisant l'usage de fertilisants minéraux grâce à l'activité biologique : l'introduction des légumineuses dans les successions permet de fixer l'azote atmosphérique ; certaines plantes ont des racines profondes qui remontent des nutriments vers la surface par l'effet de « pompe biologique » (Séguy, Bouzinac, 2006) ; la matière organique accroît la fertilité du sol en augmentant la capacité d'échange cationique (Saultner, 1989) ; - de bénéficier de la biodiversité pour la pollinisation et pour les auxiliaires en réduisant ainsi l'usage des pesticides ; - de bénéficier de la capacité de la forêt rivulaire à épurer les eaux de versants et à maintenir ainsi la qualité de l'eau des cours d'eau ; - de préserver la quantité disponible de ressources en eau nécessaires à la riziculture (le Rio Grande do Sul est le premier Etat dans la production de riz au Brésil) et bien sûr à l'alimentation humaine (Laurent et al., 2009). Contexte bibliographique sur les services écologiques La reconnaissance des services écologiques dans le renforcement de la productivité des exploitations offre de nouvelles perspectives à l'agriculture et à la société. Des systèmes de production intégrant mieux les services écologiques contribuent à la protection de la qualité des ressources du territoire, tout en économisant des intrants et en augmentant la productivité du système (Zinn et al., 2005; Carvalho et al., 2010; Kassam et al., 2012). La notion de service écologique est à la fois du ressort de l'environnent et de la société, puisqu'elle pose les questions de savoir : qui utilise les « services » ? A quelles fins ? Il y a de multiples usagers des services écologiques. Les usagers de l'espace et de ses ressources étant hétérogènes, ils ont différentes perceptions et différents intérêts, ce qui peut entraîner des conflits dans le contrôle et l'appropriation des services écologiques. Selon la méthodologie de développée par D. Cáceres et E. Tapella dans le Chaco (Université de Córdoba, Argentine), il apparaît pertinent d'identifier : Quels sont les services écologiques reconnus par la population d'une zone géographique ? Quels bénéfices tirent-ils de chaque milieu ? La priorisation des services écologiques diffère selon les agriculteurs, notamment entre grands propriétaires et petits exploitants, il est important de distinguer les différences de hiérarchie des services écologiques entre les groupes sociaux et de connaître comment ils sont intégrés dans leurs stratégies. Les services écologiques ont été étudiés dans la Pampa argentine par (Barral, Maceira, 2012) qui ont identifié sept services écologiques principaux dans l'espace agricole, étudié leur variation en conséquence d'un changement d'occupation du sol et cartographié les zones prioritaires pour une conservation des écosystèmes sans nuire significativement à la production agricole. Les services écologiques sont : la production de biens (grains, produits animaux, bois), la séquestration du carbone, la protection des sols contre l'érosion, la production et la purification de l'eau, la régulation des inondations, la conservation de la biodiversité et la neutralisation de polluants par la biomasse. Leur approche constitue une aide à la planification de l'occupation du sol, dans une approche coût / bénéfices. De Faccio Carvalho et Batello ont analysé les impacts des politiques incitatives concernant l'élevage sur le biome de la Pampa (de Faccio Carvalho, Batello, 2009) en montrant que les 179 logiques actuelles de production dégradent les écosystèmes par le surpâturage et la disparition des espèces natives au profit des cultures de grains et de fourrages. Ils plaident pour une orientation des politiques agricoles en faveur d'un respect du milieu pour garantir la multifonctionnalité des prairies naturelles. Dans la Pampa argentine, Gavier-Pizarro et al. ont travaillé sur les services écologiques apportés par les oiseaux à la production agricole (Gavier-Pizarro et al., 2012) : pollinisation, dispersion des semences, contrôle de certains ennemis des cultures, recyclage de déchets comme des cadavres animaux par les charognards Ils mettent en évidence une régression des écosystèmes abritant les oiseaux dans la Pampa du fait de l'intensification et de l'extension des surfaces cultivées. Toujours dans le même biome, Caride et al. ont montré que l'agriculture intensive altère profondément le cycle du carbone (Caride et al., 2012), en effectuant des bilans carbone à l'échelle régionale à partir de la télédétection. Bernardos et al. ont étudié l'impact du travail du sol et d'autres pratiques agricoles sur l'érosion, les dynamiques de nutriments et les processus hydrologiques dans la Pampa au moyen d'une modélisation couvrant le 20ème siècle (Bernardos et al., 2001). Ghersa et al. ont évalué la durabilité écologique d'exploitations dans la Pampa en fonction de différents critères et montré ainsi une grande variabilité des impacts en fonction des pratiques (Ghersa et al., 2002). Au moyen d'une analyse multicritère avec une SIG, Cisneros et al. ont estimé les impacts de l'intensification agricole sur l'érosion et l'hydrologie et ont simulé des pratiques qui permettraient de mieux respecter les attentes économiques, sociales et environnementales sur un bassin versant de la Pampa argentine (Cisneros et al., 2011). Les systèmes de production basés sur le non-labour, largement diffusés dans la Pampa, ont été analysés au regard des intérêts environnementaux qu'ils présentent par (Alvarez, Steinbach, 2009) : les auteurs montrent que le semis direct préserve mieux les services écologiques des sols : une moindre érosivité et une meilleure infiltration de l'eau (infiltration doublée comparativement à des sols labourés), ce qui réduit le stress hydrique des cultures. Sur la question plus spécifique des herbicides, Rodriguez et Jacobo ont montré l'évolution de populations végétales de la Pampa lors de l'usage de glyphosate (Rodriguez, Jacobo, 2010). Le glyphosate est notamment préconisé en fin d'été pour favoriser de nouvelles pousses favorables à la production de pâturage en hiver. Cette pratique provoque la disparition des espèces natives pérennes ce qui nuît à la conservation des écosystèmes et au cycle de l'eau. Problématique Les services écologiques sont diversement reconnus et utilisés par les agriculteurs. Certains les lient fortement à leur activité parce qu'ils considèrent que les services écologiques renforcent la productivité de leur système (comme nous l'avons vu avec l'agriculture de conservation, mais aussi l'agriculture biologique qui se développe dans la région), d'autres agriculteurs, s'inscrivant dans des systèmes plus conventionnels, en préservent plus ou moins sciemment. Il paraît pertinent de mieux identifier les services écologiques offerts par les différents écosystèmes du biome de la Pampa au Brésil. Il serait alors nécessaire de différencier ces écosystèmes entre les prairies natives, les forêts galerie, les forêts de versants rocheux (buttes gréseuses ou basaltiques), les espaces cultivés. Chaque écosystème rend des services écologiques multiples mais leurs perceptions varient. La population agricole étant hétérogène (grands propriétaires, exploitants familiaux, assentamentos), il paraît important de savoir quelles sont perceptions qu'en ont les différents groupes ? Quels bénéfices tirent-ils de chaque milieu ? Comment les valorisent-ils ? Avec quelles stratégies ? Leurs usages entraînent-ils des conflits ? L'évolution passée et actuelle des systèmes de production s'est traduite par quelles 180 évolutions dans la gestion des services écologiques ? Les politiques publiques de développement agricole et de préservation de l'environnement ont quel poids dans ces évolutions ? Sont-elles en adéquation avec les perceptions des agriculteurs ? Espaces d'étude L'espace d'analyse sera l'ouest du Rio Grande do Sul, espace drainé en partie par le rio Ibicuí (que nous avons étudié en matière de ressource en eau lors d'un précédent projet). Des entretiens seront réalisés à l'échelle de quelques municipios représentatifs (comme São Francisco d'Assis ou Manoel Vianna). Partenaires et cadre de la recherche La recherche s'intègrera dans un projet sur la construction de la qualité dans les productions agricoles de la Pampa qui est un prolongment du projet CAPES-COFECUB réalisé en 20072010. Le projet associe les géographes de l'UFRGS (Roberto Verdum, Rosa Vieira Medeiros, Louis Robaina et Laurindo Guasselli), l'Université Fédérale de Santa Maria (Guillaume Leturcq), l'UFPB (Pedro Vianna) et ESO (Jeannine Corbonnois et Frédéric Fortunel). Je travaillerai pour ma part la partie concernant les services écologiques. Butte grèseuse et champs de riz dans la pampa brésilienne 181 182 Conclusion La hausse de la demande en denrées alimentaires, l'évolution des modes de consommation des pays émergents vers des produits carnés et laitiers et le développement des agrocarburants génèrent une extension des surfaces agricoles de par le monde et une intensification des systèmes de production. Mais, une grande partie des terres arables sont aujourd'hui cultivées ou pâturées et les espaces naturels sont heureusement protégés. De plus, les intrants, l'une des clefs de l'intensification de la seconde moitié du 20ème siècle, présentent des coûts de plus en plus élevés soit parce qu'ils dépendent du pétrole (engrais azotés de synthèse), soit parce qu'ils exploitent des ressources minières de moins en moins accessibles (phosphore). Le modèle actuel va donc devoir nécessairement évoluer face à la disponibilité décroissante de ces moyens de production. Par ailleurs, l'agriculture par son emprise spatiale, par les modifications qu'elle génère à la surface du sol et par les éléments organiques et minéraux qu'elle y introduit, altère les cycles de l'eau, du carbone et de l'azote, de l'échelle locale à l'échelle globale. Ces transformations induisent de multiples risques sur la santé humaine, sur les espaces aquatiques, sur la biodiversité et sur la productivité agricole (érosion et dégradation des sols). L'enjeu pour l'agriculture est donc à présent de « produire plus avec moins » tout en respectant les ressources en eau, en conservant la biodiversité et en limitant les émissions de gaz à effet de serre (Griffon, 2010). Ce contexte a déterminé mon parcours, comme cela a dû apparaître dans cette synthèse. J'ai cherché à représenter les interactions entre le sol, les végétaux et le climat et leurs impacts sur l'eau à l'échelle de bassins versants au moyen des Systèmes d'Information Géographique puis de la modélisation agro-hydrologique distribuée. Si les processus bio-physiques sont analysés par les agronomes et les hydrologues à l'échelle de la parcelle ou du petit bassin versant expérimental, les approches sur de plus vastes espaces sont plus rares et nécessitent des compromis entre la représentation des processus et l'adaptation à la disponibilité des données. La méthode adoptée à l'échelle de bassins versants de plusieurs centaines à plusieurs milliers de km2, offre une certaine compréhension des facteurs déterminants qui peut être partagée avec les acteurs de la gestion de l'eau et des représentants agricoles. Certes, comme nous l'avons vu sur les différentes zones tests, des améliorations seraient nécessaires en matière de conception du modèle, de calage et de validation des paramètres, mais le poids du milieu (variabilité spatiale des sols, de la topographie et variabilité spatio-temporelle du climat) et celui des activités humaines sont mieux identifiés grâce à la modélisation. Les agriculteurs de par leurs pratiques peuvent agir sur certains facteurs afin d'améliorer leurs impacts sur l'eau. La modélisation permet (avec toutes les réserves méthodologiques) d'anticiper sur l'ampleur des conséquences sur la ressource en eau et sur les rendements des cultures. Elle offre donc à la fois un moyen de compréhension des phénomènes en jeu en fonction des caractéristiques locales et un moyen d'accompagner les prises de décision souvent lourdes de conséquences sur le fonctionnement des exploitations et sur l'emploi des fonds publics. Au-delà de la modélisation, j'ai cherché à comprendre comment les enjeux environnementaux interrogent l'activité agricole. Les choix de pratiques sont déterminés par des facteurs économiques et des propositions de changement de pratiques à moindre impact environnemental ne peuvent être adoptées que lorsqu'elles respectent les imératifs économiques des exploitations. Mais, la dimension économique n'est pas seule à intervenir : les représentations du milieu, des processus agronomiques et hydrologiques et les relations qu'ils entretiennent avec d'autres usagers du territoire guident les agriculteurs dans leurs activités. Ces élements sont complexes et étudier cette complexité est du ressort de la 183 sociologie. Néanmoins, je crois avoir fait apparaître par une approche territoriale, les freins et les leviers qu'ils peuvent constituer. Un système dynamique d'interactions se développe à présent à l'échelle de bassins versants où des politiques de réduction des pollutions d'origine agricole sont conduites : initialement les agriculteurs ont tendance à s'opposer aux pressions de la société locale, mais les pratiques peuvent néanmoins évoluer lorsqu'une dynamique locale est créée avec les acteurs de l'eau et cela se manifeste par une amélioration de la qualité de l'eau lorsque des actions sont réalisées. Bien entendu, l'évolution des pratiques vers un meilleur respect de la qualité de l'eau ne vient pas seulement des structures locales de gestion de l'eau, elle est également régie par la réglementation environnementale et contrainte par l'évolution des prix des produits et des facteurs de production. Sur les bassins étudiés en France, une tendance à l'amélioration est relevée depuis le début des années 2000 (cette évolution est générale en France et même en Europe selon (Grizzeti et al., 2011)). L'évolution des pratiques est un processus lent car il nécessite des adaptations importantes et peut être perçu comme une prise de risques. La démonstration par l'observation est essentielle : des essais techniques locaux et des témoignages d'agriculteurs « pionniers » sont nécessaires pour amorçer une évolution d'un plus grand nombre d'agriculteurs qui se traduise au niveau de la qualité de l'eau du bassin. La réduction des pollutions d'origine agricole est donc un processus socio-territorial qui se construit par des interactions entre gestionnaires des ressources en eau, usagers du territoire et agriculteurs. Les expériences françaises et brésiliennes l'attestent dans leurs réussites comme dans leurs échecs. Au-delà d'une évolution des pratiques sous la pression des acteurs territoriaux et des réglementations, des systèmes de production alternatifs se développent. Ils présentent une dynamique fondée sur un meilleur usage des services environnementaux pour produire plus et/ou à moindre coût en économisant les intrants. D'une motivation économique, en dehors de contraintes réglementaires, ces systèmes présentent de multiples intérêts environnementaux. Dans différentes régions du monde, des agriculteurs construisent des réseaux et défendent des systèmes de production qui oeuvrent vers plus de durabilité. L'analyse de la diffusion de l'Agriculture de Conservation au Brésil et en France montre que la capacité du monde agricole à évoluer est importante. Ceci correspond à un tournant : l'amélioration des connaissances agronomiques et la place donnée à l'observation revalorisent le travail et le rôle social des agriculteurs, en mobilisant leurs savoir-faire dans une dynamique collective. Les pratiques orientées vers la conservation des sols et de leur activité biologique ont un effet système sur la qualité de l'eau et sur la séquestration du carbone. De telles orientations proactives en faveur d'une production agricole s'appuyant sur une reconnaissance des services environnementaux, méritent d'être plus profondément analysées dans leurs impacts environnementaux et dans leurs dynamiques de diffusion. 184 Bibliographie ADEME, 2007. Evaluation des impacts environnementaux des Techniques Culturales Sans Labour (TCSL) en France. Agence de l'Environnement et de la Maîtrise de l'Energie, Paris, 451. Allan, A., Wouters, P., 2003. What role for water law in the "good gouvernance" debate ? Water Resources Impact, Vol.5, 4, 5-7. Altmann, N., 2010. Plantio Direto no Cerrado. Aldeia Norte Editora, Passo Fundo (RS, Brasil), 568 p. Alvarez, R., Steinbach, H. S., 2009. A review of the effects of tillage systems on some soil physical properties, water content, nitrate availability and crops yield in the Argentine Pampas. Soil & Tillage Research, Vol.104, 1-15. Amado, T. J. C., Bayer, C., Conceição, P. C., Spagnollo, E., Campos, B. C., da Veiga, M., 2006. Potential of carbon accumulation in zero tillage soils with intensive use and cover crops in Southern Brazil. J. Environ. Qual., 35, 1599-1607. Andrieu, D., Cailly, L., Chaléard, J. L., Charlery de la Masseliere, B., Chevalier, P., Devienne, S., Faliès, C., Fortunel, F., Fumey, G., Gironde, C., Guibert, M., Hervé, J. J., Jean, Y., Landy, F., Pouzenc, M., Rieutort, L., Sanjuan, T., Sili, M., Théry, H., Velut, S., Veyret, Y., 2011. Dynamiques des espaces ruraux dans le monde. Armand Colin, sous la direction de M. Guibert et Y. Jean, Paris, 407 p. Apfelbaum, M., 1998. Risques et Peurs alimentaires. Ed. Odile Jacob, Paris, 284 p. Arlot, M. P., 1999. Nitrates dans les eaux : drainage acteur, drainage témoin ? Thèse d'université, Université Paris 6, 446 p. Arnold, J. G., Allen, P. M., Bernhardt, G., 1993. A comprehensive surface-groundwater flow model. Journal of Hydrology, 142, 47-69. Arnold, J. G., Muttiah, R. S., Srinivasan, R., Allen, P. M., 2000. Regional Estimation of base flow and groundwater recharge in the Upper Mississippi river basin. Journal of Hydrology, 227, 20-41. Arnold, J. G., Srinivasan, R., Muttiah, R. S., Williams, J. R., 1998. Large area hydrologic modeling and assessment, Part 1: Model Development. JAWRA, Vol.34, 1, 73-90. Arvor, D., Dubreuil, V., Mendez del Villar, P., Magri Ferreira, C., Simões Penello Meirelles, M., 2009. Développement, crises et adaptation des territoires du soja au Mato Grosso: l'exemple de Sorriso. Confins [Online], mis en ligne le 24 juin 2009, consulté le 3 février 2011, URL : http://confins.revues.org/5934. Auzet, A. V., 1987. L'érosion des sols cultivés en France sous l'action du ruissellement. Annales de géographie, Vol.537, 529-556. Bailly, A., Ferras, R., 1997. Eléments d'épistémologie de la géographie. Armand Colin, Paris, 191 p. Baize, D., Girard, M. C., 1995. Référentiel pédologique, Paris, 332 p. Baker, J. M., Ochsner, T. E., Venterea, R. T., Griffis, T. J., 2007. Tillage and soil carbon sequestration-What do we really know? Agric. Ecosyst. Environ, Vol.118, 1-4, 1-5. Baker, W., Cai, Y., 1992. The r.le programs for multiscale analysis of landscape structure using the GRASS geographical information system. Landsc. Ecol., Vol.7, 291-302. Barbosa de Brito, F., 2008. Conflito para uso da agua do açude Epitação Pessoa (Boqueirão) - Paraiba, Brasil. Mémoire de pos-graduação de l'UFPB, centro de ciências exatas e da natureza, 169 p. Barling, R. D., Moore, I. D., 1994. Role of buffer strips in management of waterway pollution – a review. Environmental Management, 18, 543–558. 185 Barral, M. P., Maceira, N. O., 2012. Land-use planning based on ecosystem service assessment: A case study in the Southeast Pampas of Argentina. Agriculture, Ecosystems and Environment, 154, 34-43. Bastet, G., Bruand, A., Quetin, P., Cousin, I., 1998. Estimation des propriétés de rétention en eau des sols à l'aide de fonctions de pédotransfert (FPT) : une analyse bibliographique. Etude et Gestion des Sols, Vol.5, 1, 1-24. Bayer, C., Martin-Neto, L., Mielniczuk, J., Pavinato, A., Dieckow, J., 2006. Carbon sequestration in two Brazilian Cerrado soils under no-till. Soil & Tillage Research, 86, 237-245. Beaudoin, N., Saad, J. K., Van Laethem, C., Machet, J. M., Maucorps, J., Mary, B., 2005. Nitrate leaching in intensive agriculture in Northern France: Effect of farming practices, soils and crop rotations. Agriculture, Ecosystems and Environment, 111, 292-310. Beaujouan, V., Durand, P., Ruiz, L., 2000. Modelling the effect of the spatial distribution of agricultural practices on nitrogen fluxes in rural catchments. Ecological Modelling, Vol.137, 1, 93-105. Benachour, N., Seralini, G. E., 2008. Glyphosate Formulations Induce Apoptosis and Necrosis in Human Umbilical, Embryonic, and Placental Cells. Chemical Research in Toxicology, 23 dec 2008, http://pubs.acs.org/journal/crtoec. Benham, B. L., Vaughan, D. H., Laird, M. K., Blake, B. R., Peek, D. R., 2007. Surface water quality impacts of conservation tillage practices on burley tobacco production systems in southwest Virginia. Water, Air and Soil Pollution, Vol.179, 1-4, 159-166. Bernardos, J. N., Viglizzo, E. F., Jouvet, V., Lertora, F. A., Pordomingo, A. J., Cid, F. D., 2001. The use of EPIC model to study the agroecological change during 93 years of farming transformation in the Argentine pampas. Agricultural Systems, Vol.69, 215234. Berthelot, S., 2002. Délimitation des zones à risques de pollutions azotées sur le bassin versant du Rochereau (Vendée) à partir d'un logiciel de modélisation (SWAT). Mémoire de DESS de l'Université du Maine, Le Mans (stage Cemagref - Rennes), 64 p. Beven, K. J., 1993. Prophecy, reality and uncertainty in distributed hydrological modelling. Advances in Water Resources, 16, 41-51. Beven, K. J., 2006. A manifesto for the equifinality thesis. Journal of Hydrology, Vol.320, 18-36. Beven, K. J., Kirkby, M. J., 1979. A physically based, variable contributing area model of basin hydrology. Hydrol. Sci. Bull., Vol.24, 43-69. Béziers La Fosse, A., Canon, H., Crespo, J. C., Jézégou, A., Liu, Q., Nivet, D., Paepegaey, J. C., Picault, S., Rocheteau, E., Sauvage, R., Viau, P. H., 2001. Etude des pratiques de fertilisation sur le bassin versant de la Moine. ESA, Angers, Bierkens, M., Finke, P. A., De Wellingen, P., 2000. Upscaling and Downscaling Methods for Environmental Research. Kluwer Academic Press, 190 p. Billen, G., Garnier, J., 2000. Nitrogen transfers through the Seine drainage network : a budget based on the application of the RIVERSTRAHLER model. Hydrobiologia, 410, 139150. Billen, G., Garnier, J., Hanset, P., 1994. Modelling phytoplankton development in whole drainage network : the RIVERSTRAHLER model applied to the Seine river system. Hydrobiologia, 289, 119-137. Billen, G., Silvestre, M., Grizzeti, B., Leip, A., Garnier, J., Voss, M., Howarth, R., Bouraoui, F., Lepistö, A., Kortelainen, P., Johnes, P., Curtis, C., Humborg, C., Smedberg, E., Kaste, O., Ganeshram, R., Beusen, A., Lancelot, C., 2011. Nitrogen flows from 186 European regional watersheds to coastal marine waters. The European Nitrogen Assessment. C. M. H. M.A. Sutton, J.W. Erisman, G. Billen, A. Bleeker, P. Grennfelt, H. van Grinsven and B. Grizzetti (Ed.) (Ed.), Cambridge University Press: 271-297. Billen, G., Thieu, V., Garnier, J., Silvestre, M., 2009. Modelling the N cascade in regional watersheds: The case study of the Seine, Somme and Scheldt rivers. Agriculture, Ecosystems and Environment, Vol.133, 3-4, 234-246. Bioteau, T., Bordenave, P., Laurent, F., Ruelland, D., 2002. Evaluation des risques de pollution agricole à l'échelle de bassins versants : intérêts d'une approche par modélisation hydrologique avec SWAT. Ingénieries - EAT, Vol.32, 3-13. Blevins, R., Thomas, G., Smith, M., Frye, W., Cornelius, P., 1983. Changes in soil properties after 10 years continuous non-tilled and conventionally tilled corn. Soil & Tillage Research, Vol.3, 2, 135-146. Blombäck, K., Eckersten, H., Lewan, E., Aronsson, H., 2003. Simulations of soil carbon and nitrogen dynamics during seven years in a catch crop experiment. Agricultural Systems, 76, 95-114. Blot, O., 2001. Evaluation et cartographie de la vulnérabilité des sols aux pollutions diffuses d'origine agricole, application au bassin versant de la Moine. Mémoire de Maîtrise, Université du Maine, 98 p. Boiffin, J., Papy, F., 1988. Influence des systèmes de culture sur les risques d'érosion par ruissellement concentré. I, Analyse des conditions de déclenchement de l'érosion. Agronomie, Vol.8, 663-673. Bollinger, A., Magid, J., Amado, T. J. C., Skora, F. N., Santos, M. F. R., Calegari, A., Ralisch, R., Neergaard, A., 2007. Taking stock of the Brazilian zero - till revolution: a review of landmark research and farmers practice. Advances in Agronomy, 91, 47-64. Bordenave, P., Bouraoui, F., Gascuel-Odoux, C., Molenat, J., Merot, P., 1999. Décalages temporels entre modifications des pratiques agricoles et diminution de nitrate dans les eaux superficielles. In Pollutions diffuses : du bassin au littoral, Ploufragan, 23-24 Septembre 1999. IFREMER, Collection Acte de Colloques n°24, pp. 311-333., Borggaard, O., Gimsing, A. L., 2008. Fate of glyphosate in soil and the possibility of leaching to ground and surface waters: a review. Pest Management Science, 64, 441-456. Bourguignon, C., 2008. Le sol, la terre et les champs : Pour retrouver une agriculture saine. Sang de la Terre, 221 p. Bouzillé, E., 2002. L'agriculture à l'épreuve de l'environnement, la diffusion des pratiques agricoles respectueuses de l'environnement dans les Pays de la Loire, l'exemple du Réseau Agriculture Durable. Thèse, université de Nantes, 475 p. Bracmort, K. S., Arabi, M., Frankenberger, J. R., Engel, B. A., Arnold, J. G., 2006. Modeling long-term water quality impact of structural BMPs. American Society of Agricultural and Biological Engineers, Vol.49, 2, 367-374. Bricquet, J. P., Bamba, F., Mahe, G., Toure, M., Olivry, J. C., 1997. Évolution récente des ressources en eau de l'Afrique atlantique. Rev. Sci. Eau, Vol.10, 3, 321-337. Briel, B., Vilain, L., 1999. Vers l'agriculture durable. EducAgri (ed.), Ministère de l'Agriculture et de la Pêche, Rambouillet, 143 p. Brunet, R., 1990. Le Territoire dans les turbulences. RECLUS, 220 p. Buffard, G., 2001. Identification des sources de pollution et localisation des zones à risque sur le bassin versant de Ribou et du Verdon. Mémoire de Maîtrise, Université d'Angers, 57 p. Bühler, E. A., 2006. Les mobilités des exploitations rizicoles du Rio Grande do Sul (Brésil) vers l'Uruguay : territorialités et stratégies transfrontalières d'accès aux ressources. Thèse, Ecole Nationale Supérieure d'Agronomie de Toulouse et de Université de Toulouse Le Mirail, 463 p. 187 Calegari, A., Hargrove, W. L., Rheinheimer, D. D. S., Ralisch, R., Tessier, D., de Tourdonnet, S., de Fatima Guimarães, M., 2008. Impact of Long-Term No-Tillage and Cropping System Management on Soil Organic Carbon in an Oxisol: A Model for Sustainability. Agronomy Journal, 100, 1013-1019. CALLIGEE, 1998. Etude préalable à l'instauration des périmètres de protection, prise d'eau de Ribou, Maine et Loire, vol. B, partie 1. Ville de Cholet, 35. Calonego, J., Rosolem, C., 2010. Soybean root growth and yield in rotation with cover crops under chiseling and no-till. Europ. J. Agronomy, 33, 242-249. Canepa, E. M., Timm Grassi, L. A., 2000. A lei das águas no Rio Grande do Sul, no caminho do desenvolvimento sustentável ? Ciênca e ambiente, Santa Maria/RS, 21, 135-152. Capillon, A., Séguy, L., 2002. Ecosystèmes cultivés et stockage du carbone, cas des systèmes de culture en semis direct avec couverture végétale. C.R. Acad. Agri. Fr., Vol.88, 5, 63-70. Caride, C., Pineiro, G., Paruelo, J. M., 2012. How does agricultural management modify ecosystem services in the argentine Pampas? The effects on soil C dynamics. Agriculture, Ecosystems and Environment, 154, 23-33. Carrubba, L., 2000. Hydrologic Modeling at the Watershed Scale Using NPSM. JAWRA, Vol.36, 6, 1237-1246. Carvalho, J. L. N., Raucci, G. S., Cerri, C. E. P., Bernoux, M., Feigl, B. J., Wruck, F. J., Cerri, C. C., 2010. Impact of pasture, agriculture and crop-livestock systems on soil C stocks in Brazil. Soil & Tillage Research, 110, 175–186. Castillon, P., 2008. Transferts de phosphore : le non labour trouve ses limites. Perspectives agricoles, 348, 24-25. Catt, J. A., Howse, K. R., Christian, D. G., Lane, P. W., Harris, G. L., Goss, M. J., 2000. Assessment of tillage strategies to decrease nitrates leaching in the Brimstone Farm Experiment, Oxfordshire, UK. Soil and Tillage Research, 53, 185-200. Catt, J. A., Howse, K. R., Farina, R., Todd, A., Chambers, B. J., Hodgkinson, R., Harris, G. L., Quinton, J. N., 1998. Phosphorus losses from arable land in England. Soil Use and Management, Vol.14, 168-174. Caubel, V., 2001. Influence de la haie de ceinture de fond de vallée sur les transferts d'eau et de nitrate. ENSAR, 155 p. Cavalieri, K. M. V., Silva, A. P., Tormena, C. A., Leão, T. P., Dexter, A., Hakansson, I., 2009. Long-term effects of no-tillage on dynamic soil physical properties in a Rhodic Ferrasol in Parana , Brazil. Soil & Tillage Research, 103, 158–164. Chapdelaine, M., 2006. Evaluation de l'efficacité d'actions agri-environnementales sur le bassin de la Moine en Maine-et-Loire. Mémoire de master, Université du Maine, 64 p. Charpentier, L., Duchet, J., Guiho, M., Hergoualc'h, C., Le Garrec, L., Rougerie, P., Rousseau, M. L., 2001. Spatialisation des pratiques agricoles sur le bassin versant de la Moine. ESA, Angers, 26. Charvet, J. P., Croix, N., Diry, J. P., 2004. Agricultures durables et développement durable de territoires ruraux en France. Historiens et Géographes, 387, 217-229. Cheauveau, J. P., 1999. L'étude des dynamiques agraires et la problématique de l'innovation. L'innovation en agriculture - Questions de méthodes et terrains d'observation(Ed.). Paris, Ed. IRD: 10-31. Cholley, A., 1951. Géographie, guide de l'étudiant. PUF, 231 p. Cisneros, J. M., Grau, J. B., Anton, J. M., de Prada, J. D., Cantero, A., Degioanni, A. J., 2011. Assessing multi-criteria approaches with environmental, economic and social attributes, weights and procedures: A case study in the Pampas, Argentina. Agricultural Water Management, Vol.98, 1545-1556. Claval, P., 2004. Le Brésil, une grande puissance en devenir. Belin, Paris, 384 p. 188 Cohen, M., Duqué, G., 1997. Les deux visages du Sertão (stratégies paysannes face aux sécheresses). Ed. IRD, Collection "A travers champs", 388 p. Commissariat_au_Plan, 2001. La politique de préservation de la ressource en eau destinée à la consommation humaine. Commissariat au Plan, Paris, 402. Conan, C., Bouraoui, F., Turpin, N., de Marsily, G., Bidoglio, G., 2003. Modelling flow and nitrate fate at catchment scale in Brittany (France). Journal of Environmental Quality, 32, 2026-2032. Constantin, J., Mary, B., Laurent, F., Aubrion, G., Fontaine, A., Kerveillant, P., Beaudoin, N., 2010. Effects of catch crops, no till and reduced nitrogen fertilization on nitrogen leaching and balance in three long-term experiments. Agriculture, Ecosystems and Environment, 135, 268-278. Corbonnois, J., Verdum, R., Messner, F., Laurent, F., Garcez Soares, V., 2011. L'érosion des sols sableux dans les campos du sud du Brésil (bassin de l'Ibicui, Rio Grande do Sul). Géomorphologie : relief, processus, environnement, 1, 53-64. Corsi, S., Friedrich, T., Kassam, A., Pisante, M., de Moraes Sà, J., 2012. Soil Organic Carbon Accumulation and Greenhouse Gas Emission Reductions from Conservation Agriculture - A literature review. FAO, Rome, 102 p. Cotter, A., Chaubey, I., Costello, T., Soerens, T., Nelson, M., 2003. Water quality model output uncertainty as affected by spatial resolution of input data. JAWRA, Vol.39, 4, 977-986. Coudel, E., Tonneau, J.-P., 2010. How can information contribute to innovative learning processes? Insight from a farmer university in Brazil. Agricultural information worldwide, Vol.3, 2, 56-64. Coutinho, A. A., 2010. Tecnologias sociais como instrumento de gestão participativa: a experiência da communidade Lajedo da Timbauba, Paraiba, Brasil. Mémoire de posgraduação (master), UFPB, Centro de Ciências Exatas e da Natureza, 122 p. Croix, N., 1998. Environnement et Nature dans les campagnes. Nouvelles politiques, nouvelles pratiques ? PUR, Rennes, 264 p. Curmi, P., Bidois, J., Bourrié, G., Cheverry, G., Durand, P., Gascuel-Odoux, C., Germon, J. C., Hallaire, V., Hénault, C., Jaffrezic, A., Mérot, P., Trolard, F., Walter, C., Zida, M., 1997. Rôle du sol sur la circulation et la qualité des eaux au sein de paysages présentant un domaine hydromorphe. Etude et Gestion des Sols, Vol.4, 2, 95-114. Curmi, P., Walter, C., Gascuel-Odoux, C., Durand, P., 1996. Interest of class pedotransfer functions and soil distribution models for water quality studies: the case of nitrate in armorican catchments. In The use of pedotransfer in soil hydrology research in Europe, Orléans (France), 10-12 oct. 1996, 86-96. D'Arcy, B., Frost, A., 2001. The role of best management practices in alleviating water quality problems associated with diffuse pollution. The Science of the Total Environment, 265, 359-367. Davidson, E. A., de Abreu Sa, T. D., Carvalho, C. J. R., R.D.O., F., Kato, M. S. A., Kato, O., Yoko Ishida, F., 2008. An integrated greenhouse gas assessment of an alternative to slash-and-burn agriculture in eastern Amazonia. Global Change Biology, Vol.14, 110. de Faccio Carvalho, P. C., Batello, C., 2009. Access to land, livestock production and ecosystem conservation in the Brazilian Campos biome: The natural grasslands dilemma. Livestock Science, Vol.120, 158-162. Decau, M. L., Salette, J., 1992. Suivi de l'azote ammoniacal et nitrique dans les sols de prairie au cours des saisons et après destruction du couvert végétal. Fourrages, Vol.132, 355363. 189 Deffontaines, J. P., 2001. Ressources naturelles et développement durable en agriculture, le point de vue d'un agronome. Le développement durable, de l'utopie au concept, de nouveaux chantiers pour la recherche. M. Jollivet (Ed.). Paris, Elsevier: 131-142. Deguine, J. P., Ferron, P., Russell, D., 2008. Protection des cultures: De l'agrochimie à l'agroécologie. Ed. Quae, 192 p. Delabays, N., Bohren, C., 2007. Le glyphosate: bilan de la situation mondiale et analyse de quelques conséquences malherbologiques pour la Suisse. Revue suisse Vitic. Arboric. Hortic., Vol.39, 5, 333-339. Delahaye, D., 1992. Approches spatialisées et analyses expérimentales des phénomènes de ruissellement et d'érosion des sols. Application aux systèmes de production agricole du Calvados. Thèse d'université, Université de Caen, 427 p. Deléage, E., 2004. Paysans, de la parcelle à la planète. Socio-anthropologie du Réseau agriculture durable. Ed. Syllepse, 246 p. Dendooven, L., Murphy, M. E., Catt, J. A., 1999. Dynamics of the denitrification process in soil from the Brimstone Farm experiment, UK. Soil Biology and Biochemistry, 31, 727-734. Denich, M., Vielhauer, K., Kato, M. S. d. A., Block, A., de Abreu Sa, T. D., Lücke, W., Vleck, P. L. G., 2004. Mechanized land preparation in forest-based fallow systems: The experience from Eastern Amazonia. Agroforestry Systems, Vol.61, 91-106. Denich, M., Vleck, P. L. G., de Abreu Sa, T. D., Vielhauer, K., Lücke, W., 2005. A concept for the development of fire-free fallow management in the Eastern Amazon, Brazil. Agriculture, Ecosystems and Environment, Vol.110, 43-58. Derpsch, R., 1998. Historical review of no-tillage cultivation on crops. In Proceedings of the 1st JIRCAS Seminar on Soybean Research. No- tillage Cultivation and Future Research Needs, March 5- 6, 1998, Iguassu Falls, Brazil, JIRCAS Working Report, No. 13, p. 1-18, Derpsch, R., 2007. No-tillage and conservation agriculture : a progress report. No-till farming systems, WASWC, special publication n°3. Z. M. Goddard T., Gan Y., Ellis W., Watson A., Sombatpanit S. (Ed.): 7-42. Derpsch, R., Sidiras, N., Roth, C. H., 1986. Results of studies made from 1977 to 1984 to control erosion by cover crops and no-tillage techniques in Paraná, Brazil. Soil & Tillage Research, 8, 253-263. Derruau, M., 1996. Composantes et concepts de la géographie physique. Armand Colin, 254 p. Diaz-Zorita, M., Duarte, G., Grove, J., 2002. A review of no-till systems and soil management for sustainable crop production in the subhumid and semiarid Pampas of Argentina. Soil & Tillage Research, 65, 1-18. Dijkstra, F., 2002. Conservation tillage development at the ABC Cooperatives in Paraná, Brazil. In "Making Conservation Tillage Conventional: Building a Future on 25 Years of Research". Proceedings of the 25th Annual Southern Conservation Tillage Conference for Sustainable Agriculture, June 24-26, 2002 in Auburn", Alabama Agricultural Experimental Station and Auburn University, AL, USA, 12-18. Dominguez, A., Bedano, J. C., Becker, A. R., 2010. Negative effects of no-till on soil macrofauna and litter decomposition in Argentina as compared with natural grasslands. Soil & Tillage Research, 110, 51-59. Dorioz, J. M., Wang, D., Poulenerd, J., Trévisan, D., 2006. The effect of grass buffer strips on phosphorus dynamics – a review and synthesis as a basis for application in agricultural landscapes in France. Agric. Ecosyst. Environ, Vol.117, 4-21. Droulers, M., 2001. Le Brésil, une géohistoire. PUF, Paris, 306 p. 190 Dubreuil, V., Bariou, R., Dos Passos, M., Ferrand, R., Nedelec, V., 2005. Évolution de la frontière agricole dans le centre-ouest du Mato Grosso : municipes de Tangarà da Serra, Campo Novo do Parecis, Diamantino. Agricultures, Vol.14, 2, 217-224. Durand, P., Hénault, C., Bidois, J., Trolard, F., 1995. La dénitrification en zone humide de fond de vallée. Agriculture intensive et qualité des eaux. INRA (Ed.): 223-231. Engel, F. L., Bertol, I., Ritter, S. R., Paz Gonzalez, A., Paz Ferreiro, J., Vidal Vazquez, E., 2009. Soil erosion under simulated rainfall in relation to phenological stages of soybeans and tillage methods in Lages, SC, Brazil. Soil & Tillage Research, 103, 216221. Euriat, A., Tritz, F., 2002. Cartographie des sols et de leur vulnérabilité aux pollutions agricoles, bassin versant de la Moine. Mémoire de maîtrise de Sciences de la Terre et de l'Univers, Université Poincaré, 63 p. FAO, 2001. Conservation agriculture. FAO Soils Bulletin, [Online] (78), consulté le 4 février 2011. URL : http://www.fao.org/DOCREP/003/Y1730E/Y1730E00.htm p. Gaddas, F., 2001. Proposition d'une méthode de cartographie des pédopaysages - application à la moyenne Vallée du Rhône. Thèse d'université, Institut National Agronomique Paris Grignon, 212 p. Garambois, 2011. Des prairies et des hommes : Les systèmes herbagers économes du bocage poitevin : agro-écologie, création de richesse et emploi en élevage bovin. Thèse d'université, AgroParisTech, Paris, 462 p. Gardner, C. M. K., Cooper, D. M., Hughes, S., 2002. Phosphorus in soils and field drainage water in the Thame catchment, UK. The Science of the Total Environment, 282-283, 253-262. Garjulli, R., Rodrigues, H. E., de Oliveira, J. L., 2004. A gestão participativa dos recursos hidricos no semi-arido: a experiência do Caerá. C. J. Saldanha Machado (Ed.). Rio de Janeiro, Brasil, Interciência: 267-289. Garon, F., 2005. Evaluation du programme d'actions 2000-2005 d'initiatives locales pour la restauration et la préservation de l'eau sur le bassin versant d'alimentation en eau potable de Rochereau (Vendée). Mémoire de master 1, Université du Maine, 97 p. Garon, F., 2006. L'aménagement de l'espace rural sur le bassin versant de Rochereau dans le haut bocage vendéen pour améliorer la qualité de l'eau. Mémoire de master 2, Université du Maine, 56 p. Garwood, E. A., Ryden, J. C., Tyson, K. C., 1986. Nitrogen losses from drained grassland. Animal and grassland research Institute, Grassland Manuring BGS, 9. Gascuel-Odoux, C., Merot, P., Crave, A., Gineste, P., Taha, A., Zhang, Z., 1998. Les zones contributives de fond de vallée: localisation, structure et fonctionnement hydrodynamique. Agriculture intensive et qualité des eaux. C. Cheverry (Ed.), INRA, coll. Science Update: 129-142. Gasson, A., 2003. Le développement agricole durable. Fondements théoriques et éclairage bas-normand. Thèse, Université de Caen, 630 p. Gautreau, P., Merslinsky, G., 2008. Mouvements locaux, Etat et modèles de développement dans le conflit des usines de pâte à papier du fleuve Uruguay. Problèmes d'Amérique Latine, 70, 61-80. Gavier-Pizarro, G. I., Calamari, N. C., Thompson, J. J., Canavelli, S. B., Solari, L. M., Decarre, J., Goijman, A. P., Suarez, R. P., Bernardos, J. N., Zaccagnini, M. E., 2012. Expansion and intensification of row crop agriculture in the Pampas and Espinal of Argentina can reduce ecosystem service provision by changing avian density. Agriculture, Ecosystems and Environment, 154, 44-55. 191 Gburek, W. J., Sharpley, A., Heathwaite, L., Folmar, G. J., 2000. Phosphorus management at the watershed scale : a modification of the phosphorus index. J. Environmental Quality, Vol.29, 130-144. Germaine, M. A., 2009. De la caractérisation à la gestion des paysages ordinaires de vallées du nord-ouest de la France. Représentations, enjeux d'environnement et politiques publiques en Basse Normandie. Thèse d'université, Université de Caen, 645 p. Ghersa, C. M., Ferraro, D. O., Omacini, M., Martinez-Ghersa, M. A., Perelman, S., Satorre, E. H., Soriano, A., 2002. Farm and landscape level variables as indicators of sustainable land-use in the Argentine Inland-Pampa. Agriculture, Ecosystems and Environment, Vol.93, 279-293. Gillet, J. P., Dutertre, A., 2010. Sols hydromorphes : Quel impact du drainage sur le rendement des cultures et le transfert des solutés ? Perspectives agricoles, 368, 60-63. Gilliam, J. W., Skaggs, R. W., 1986. Controlled agricultural drainage to maintain water quality. J. Irrig. Drain. Eng., Vol.112, 3, 254-263. Gomes, R. A., 2002. Implicações do Trabalho e da Cultura na Mobilidade da População dos Projetos de Irrigação do Sertão Paraibano. In XIII Encontro da Associação Brasileira de Estudos Populacionais, Gonod, P., 2003. Matières à (re)penser le développement durable et d'autres développements. INRA Bilan et Prospectives, Paris, 129 p. Gouveia, E. L., 2010. Aspectos Ambientais e Gestão dos Recursos Hídricos no Litoral Sul da Região Metropolitana do Recife – RMR: O caso da Microrregião de Suape. Mémoire de pos-graduação (master), UFPB, Centro de Ciências Exatas e da Natureza, 131 p. Gouy, V., Gril, J. J., Laillet, B., Garon-Boucher, D., Dubernet, J. F., Cann, C., 1998. Suivi du transfert des produits phytosanitaires sur les bassins versants et exemple de modélisation globale. Ingénieries - EAT, 13, 3-14. Governo do Estado da Paraiba, 2006. PERH-PB, Plano Estadual de Recursos Hidricos, Resumo executivo e atlas. Governo do Estado da Paraiba, Joao Pessõa, 112. Griffon, M., 2010. Pour des agricultures écologiquement intensives. Ed. de l'Aube, 112 p. Gril, J. J., Gouy, V., Carluer, N., 1999. Processus de transfert superficiel des produits phytosanitaires, de la parcelle au bassin versant. La Houille Blanche, 5, 76-80. Grizzeti, B., Bouraoui, F., Billen, G., van Grinsven, A., Cardoso, A., Thieu, V., Garnier, J., Curtis, C., Howarth, R., Johnes, P., 2011. Nitrogen as a threat to European water quality. The European Nitrogen Assessment. C. M. H. M.A. Sutton, J.W. Erisman, G. Billen, A. Bleeker, P. Grennfelt, H. van Grinsven and B. Grizzetti (Ed.), Cambridge University Press: 379-404. Guénolé, Y., 2006. Modélisation des pollutions agricoles sur le bassin versant de l'Oudon à l'aide du modèle SWAT. Mémoire de master 1, Université du Maine, 50 p. Gulis, G., Czompolyova, M., Cerhan, J. H., 2002. An Ecologic Study of Nitrate in Municipal Drinking Water and Cancer Incidence in Travna District, Slovakia. Environmental Research, 88, 182-187. Haag, D., Kaupenjohann, M., 2001. Landscape fate of nitrate fluxes and emissions in Central Europe. A critical review of concepts, data, and models for transport and retention. Agriculture, Ecosystems and Environment, 86, 1-21. Hägerstraand, T., 1953. Innovation diffusion as a spatial process. Chicago University Press (Ed. 1968), Chicago, 334 p. Halvorson, A. D., Wienhold, B. J., Black, A. L., USDA, A., 2002. Tillage, nitrogen, and cropping system effects on soil carbon sequestration. Soil Science Society of America journal, Vol.66, 3, 906-912. 192 Hansen, M., DeFries, R., Townshend, J. R., Sohlberg, R., 1998. UMD Global Land Cover Classification, 1 km, version 1.0, Product Coverage Date: 1981-1994. Department of Geography, University of Maryland, College Park, Maryland, USA p. Hargreaves, G. H., Samani, Z. A., 1985. Reference crop evapotranspiration from temperature. Applied Engineering in Agriculture, 1, 96-99. Hauchard, E., Delahaye, D., Freire-Diaz, S., 2002. Organisation fractale de l'occupation du sol : conséquences sur le ruissellement et le ravinement des terres de grande culture. Géomorphologie : relief, processus, environnement, Vol.2, 181-196. Haycock, N. E., Pinay, G., 1993. Groundwater nitrate dynamics in grass and popular vegetated riparian buffer strips during the winter. J. Environ. Qual., 22, 273-278. Hefting, M. M., de Klein, J. J. M., 1998. Nitrogen removal in buffer strips along a lowland stream in the Netherlands: a pilot study. Environmental Pollution, Vol.102, 521-526. Helgason, B. L., Walley, F. L., Germida, J. J., 2010. No-till soil management increases microbial biomass and alters community profiles in soil aggregates. Applied Soil Ecology, 46, 390-397. Hellier, E., Dupont, N., Laurent, F., Vaucelle, S., 2009. La France, la ressource en eau usages, fonctions et enjeux territoriaux. Ed. Armand Colin, collection U, Paris, 309 p. Hervieu, B., 1993. Les champs du futur. Julliard (ed.), Paris, 172 p. Huchon, J. B., 2010. Les couverts végétaux en interculture : intérêts environnementaux et agronomiques, modes de diffusion dans le Perche. Université du Maine, 59 p. Huchon, J. B., 2011. Bilan de trois années d'expérimentation sur le transfert des urées substituées en sol drainé sur le bassin versant de l'Ozanne (Eure-et-Loir). Mémoire de Master 2 Professionnel "gestion sociale et territoriale des déchets et pollutions", 66 p. Husson, O., Séguy, L., Michellon, R., Boulakia, S., 2006. Restoration of acid soil systems through agroecological management. Biological approaches to sustainable soil systems. J. Thies (Ed.), Taylor & Francis: 343-356. Jiquiriça, C. I. d. V. d., 2002. O Relacionamento entre Poder Público e Organismos de Bacia Dentro do Modelo Brasileiro de Gestão de Recursos Hídricos: A Experiência do Consórcio Intermunicipal do Vale do Jiquiriçá - Bahia, Brasil. Brazil: 13. Johnes, P. J., Hodgkinson, R. A., 1998. Phosphorus loss from agricultural catchments : pathways and implications for management. Soil Use and Management, Vol.14, 175185. Johnson, N., Ravnborg, H. M., Westermann, O., Probst, K., 2001. User participation in watershed management and research. Water Policy, 3, 507-520. Johnson-Maynard, J. L., Umiker, K. J., Guy, S. O., 2007. Earthworm dynamics and soil physical properties in the first three years of no-till management. Soil & Tillage Research, Vol.94, 338-345. Join, C., 1999. De nouveaux paysans, un agriculture pour vivre mieux. Siloë, 150 p. Jollivet, M., Mathieu, N., 1989. Du rural à l'environnement. La question de la nature aujourd'hui. L'Harmattan, Paris p. Kassam, A., Mello, I., Bartz, M., Goddard, T., Friedrich, T., Laurent, F., Uphoff, N., 2012. Harnessing Ecosystem Services in Brazil and Canada. In Planet Under Pressure, London, 2012 march 26-29, Poster. Kassam, A., Mello, I., T., G., Friedrich, T., Bartz, M., Laurent, F., 2012. Harnessing on-farm and landscape ecosystem services from agriculture in the Parana 3 basin, Brazil and the Alberta Prairie, Canada. In International Conference on Managing Soils for Food Security and Climate Change Adaptation and Mitigation, FAO/IAEA, 23-26 July 2012, Vienna (Austria), Poster. 193 Kay, P., Edwards, A. C., Foulger, M., 2009. A review of the efficacy of contemporary agricultural stewardship measures for ameliorating water pollution problems of key concern to the UK water industry. Agricultural Systems, 99, 67-75. King, D., Bruand, A., Cousin, I., Hollis, J., 2003. Rôle des propriétés physiques des sols et de leur variabilité spatiale sur les flux d'eau. Etude et Gestion des Sols, Vol.10, 4, 287297. Klöppel, H., Kördel, W., Stein, B., 1997. Herbicide transport by surface runoff and herbicide retention in a filter strip – rainfall and runoff simulation studies. Chemosphere, Vol.35, 1-2, 129-141. Koskiaho, J., Ekholm, P., Räty, M., Riihimäki, J., Puustinen, M., 2003. Retaining agricultural nutrients in constructed wetlands – experiences under boreal conditions. Ecological Engineering, Vol.20, 89-103. L'Hôte, Y., Mahé, G., Somé, B., Triboulet, J. P., 2002. Analysis of a Sahelian index from 1896 to 2000 ; the drought continues. Hydrol. Sci. J., Vol.47, 4, 563-572. Lacroix, A., Beaudoin, N., Makowski, D., 2005. Agricultural water nonpoint pollution control under uncertainty and climate variability. Ecological Economics, 53, 115-127. Lacroix, A., Laurent, F., Ruelland, D., Sauboua, E., 2006. Nitrate pollution risk assessment : from the model to the indicator. Int. J. Agricultural Resources, Governance and Ecology, Vol.5, 2/3, 206-223. Lafond, G. P., Walley, F. L., May, W. E., Holzapfel, C. B., 2011. Long term impact of no-till on soil properties and crop productivity on the Canadian prairies. Soil & Tillage Research, Vol.117, 110-123. Lal, R., 2003. Global Potential of Soil Carbon Sequestration to Mitigate the Greenhouse Effect. Critical Reviews in Plant Sciences, Vol.22, 2, 151-184. Lal, R., 2004. Soil Carbon Sequestration Impacts on Global Climate Change and Food Security. Science, Vol.304, 5677, 1623-1627. Lal, R., 2007. Constraints to adopting no-till farming in developing countries. Soil & Tillage Research, 94, 1-3. Lal, R., Reicosky, D. C., Hanson, J. D., 2007. Evolution of the plow over 10,000 years and the rationale for no-till farming. Soil & Tillage Research, 93, 1-12. Landais, E., Deffontaines, J. P., 1988. Les pratiques des agriculteurs. Point de vue sur un courant nouveau de la recherche agronomique. Etudes Rurales, Vol.109, 125-158. Langlois, P., Delahaye, D., 2002. RuiCells, automate cellulaire pour la simulation du ruissellement de surface. Revue Internationale de Géomatique, Vol.12, 4, 461-487. Larson, A. C., Gentry, L. E., David, M. B., Cooke, R. A., Kovacic, D. A., 2000. The role of seepage in constructed wetlands receiving agricultural tile drainage. Ecological Modelling, Vol.15, 91-104. Laurent, F., 1992. Méthodologie d'étude de la vulnérabilité d'une prise d'eau de surface traitement par un SIG - application au bassin versant du Vizézy (Loire). Mémoire de DEA, Université de Saint-Etienne, 153 p. Laurent, F., 1995. Rivers and Groundwater Vulnerability to Accidental Pollutions - Spatial Analysis of Vulnerability Areas. In TIEMEC 1995, Globalization of Emergency Management and Engeenering : National and International Issues Concerning Research and Applications, Nice, France, 451-459. Laurent, F., 1996. Outils de modélisation spatiale pour la gestion intégrée des ressources en eau - Application aux Schémas d'Aménagement et de Gestion des Eaux. Thèse d'université, Ecole Nationale Supérieure des Mines de Saint-Etienne et Ecole Nationale Supérieure des Mines de Paris, 254 p. Laurent, F., 2001. Vulnérabilité et risques de pollution des ressources en eau. In Colloque " Risques et Territoires ", 16-18 mai 2001, ENTPE, Vaulx-en-Velin, Poster. 194 Laurent, F., 2005. Pollutions des ressources en eau et agriculture : l'ouest de la France. In Conférence du Monde Diplomatique "L'eau, source de vie, source de conflits", Le Mans, Presses Universitaires de Rennes, 143-150. Laurent, F., Anker, W., Graillot, D., 1998. Cartographic Modelling with Geographical Information Systems for Determination of Water Resources Vulnerability. JAWRA, Vol.34, 1, 123-134. Laurent, F., Bordenave, P., Bioteau, T., Ruelland, D., Rossignol, J. P., Aveline, A., Cannavacciuolo, M., Caro, A.-C., Hérault, C., Le Guen, R., Pain, G., Sigwalt, A., 2005. Pollution agricole et qualité des eaux : de la connaissance des mécanismes à la mise en oeuvre de politiques régionales. Rapport de recherche, UMR ESO, Le Mans, 274. Laurent, F., Delclaux, F., Graillot, D., 1998. Perte d'information lors de l'agrégation spatiale en hydrologie. Application à un modèle hydrologique. Revue Internationale de Géomatique, Vol.8, 1-2, 99-119. Laurent, F., Leturcq, G., Mello, I., Corbonnois, J., Verdum, R., 2011. La diffusion du semis direct au Brésil, diversité des pratiques et logiques territoriales : l'exemple de la région d'Itaipu au Paraná. Confins [Online], mis en ligne le 2 juillet 2011, http://confins.revues.org/7143. Laurent, F., Mello, I., Corbonnois, J., Verdum, R., 2011. Conservation agriculture and watershed management in Brazil: the Itaipu lake eastern watersheds (Paraná 3). In 5th World Congress of Conservation Agriculture (WCCA) incorporating 3rd Farming Systems Design Conference, 25-29 September 2011, Brisbane, Australia, www.wcca2011.org, Poster. Laurent, F., Rossignol, J. P., 2002. Cartographie de la vulnérabilité des sols au transfert de polluants agricoles. In Journées "Bassins versants" ENGREF, Clermont-Ferrand, 1213 mars 2002, Poster. Laurent, F., Rossignol, J. P., 2003. Cartographie des propriétés hydriques des sols à partir de la lithologie et des pentes. Application au bassin versant de la Moine (France, Maineet-Loire). Etude et Gestion des Sols, Vol.10, 3, 155-170. Laurent, F., Rossignol, J. P., 2004. Sensibilité d'un modèle agro-hydrologique à la cartographie des sols : test d'une méthode basée sur l'indice topographique et la lithologie. Etude et Gestion des Sols, Vol.11, 3, 199-217. Laurent, F., Ruelland, D., 2007. Simulation de l'effet de changements de pratiques agricoles sur la qualité des eaux avec le modèle SWAT. Revue des Sciences de l'Eau, Vol.20, 4, 395-408. Laurent, F., Ruelland, D., 2010. Modélisation à base physique de la variabilité hydroclimatique à l'échelle d'un grand bassin versant tropical. In Proceedings of 6th FRIEND International Conference "Global Change: Facing Risks and Threats to Water Resources", 25-29 October 2010, Fez, Morocco, IAHS Publ., 474-484. Laurent, F., Ruelland, D., 2011. Assessing impacts of alternative land use and agricultural practices on nitrate pollution at the catchment scale. Journal of Hydrology, Vol.409, 440-450. Laurent, F., Ruelland, D., Aveline, A., Cannavacciuolo, M., 2004. Analyse de sensibilité du modèle agro-hydrologique SWAT à la représentation spatiale des activités agricoles. Mosella, 3-4, 61-76. Laurent, F., Ruelland, D., Bioteau, T., Bordenave, P., 2004. Modélisation des pollutions agricoles avec SWAT : application à des bassins versants de taille moyenne dans les Pays de la Loire. In Colloque " BV Futur ", 20 - 22 avril 2004, Vannes, Poster. Laurent, F., Ruelland, D., Bioteau, T., Bordenave, P., Kermadi, S., Trebouet, A., 2003. Modélisation des risques de pollution agricole - Application à des bassins versants 195 des Pays de la Loire. In Festival International de Géographie, Saint-Dié-des-Vosges, Poster. Laurent, F., Verdum, R., Leturcq, G., Lepiller, L., Vieira Medeiros, R., Mello, I., Corbonnois, J., Vianna, P., 2006. Agriculture et gestion des ressources en eau et en sol dans le Rio Grande do Sul (Brésil) : les enjeux à l'échelle de bassins versants. In Festival International de Géographie, 'les géographes redécouvrent les Amériques", Saint-Diédes-Vosges, Poster. Laurent, F., Vianna, P., Barbosa de Brito, F., Porto de Lima, V. R., 2009. L'eau dans le Nordeste du Brésil : des conflits générés par les inégalités d'accès et par les déficits de gouvernance. In Colloque " Au fil de l'eau - L'eau : ressources, gestion et risques ", 11-13 mars 2009, Clermont-Ferrand, organisé par la MSH de Clermont-Ferrand, actes en cours de publication. Laurent, F., Vianna, P., Verdum, R., Mello, I., 2009. La gestion des ressources en eau dans les Etats de la Paraiba et du Rio Grande do Sul: enjeux, conflits et gouvernance locale. Les Cahiers des Amériques Latines, 54-55, 53-70. Laurent, F., Vieira Medeiros, R., 2010. Des réseaux d'agriculteurs en faveur de l'environnement en France. Cybergéo [Online], article 500, mis en ligne le 19 mai 2010, http://cybergeo.revues.org/index23152.html. Le Gall, A., Legarto, J., Pfimlin, A., 1997. Place du maïs et de la prairie dans les systèmes fourragers laitiers. III - Incidence sur l'environnement. Fourrages, 150, 147-169. Le Guen, R., Sigwalt, A., 1999. Le métier d'éleveur face à une politique de protection de la biodiversité. Economie rurale, Vol.249, 41-48. Leal, V. N., 1975. Coronelismo, enxada e voto: o municipio e o regime representativo no Brasil. Alfa-Omega, São Paulo, 368 p. Lechevallier, C., 1992. Evolution des structures agraires et érosion des sols en Pays de Caux. Bull. Assoc. des géographes français, Vol.2, 101-106. Leibowitz, S. G., Loehle, C., Bai-Lian, L., Preston, E. M., 2000. Modeling landscapes functions and effects : a network approach. Ecological Modelling, Vol.132, 77-94. Lemée, D., 2004. Le budget participatif de Porto Alegre : entre espoir et pragmatisme. Mémoire de maîtrise de géographie, Université du Maine, 70 p. Lemos, M. C., Oliveira, J. L. F., 2004. Can Water Reform Survive Politics? Institutional Change and River Basin Management in Ceará, Northeast Brazil. World Development, Vol.32, 12, 2121–2137. Lenhart, T., Eckhardt, K., Fohrer, N., Frede, H. G., 2002. Comparaison of two different approaches of sensitivity analysis. Physics and Chemistry of the Earth, 27, 645-654. Lepiller, L., 2006. La gestion intégrée des ressources en eau: l'exemple participatif du bassin versant de l'Ibicuí, Rio Grande do Sul (Brésil). Mémoire de master 2, Université du Maine, 133 p. Leteinturier, B., Tychon, B., Oger, R., 2007. Agronomical and agro-environmental diagnosis of crop sequences in Wallonia (Belgium). Biotechnol. Agron. Soc. Environ., Vol.11, 1, 27-38. Leturcq, G., 2004. Les problèmes de la terre dans le Rio Grande do Sul (Brésil). Mémoire de maîtrise de géographie, Université du Maine, 75 p. Leturcq, G., 2005. La diffusion spatiale d'une innovation : le semis direct du riz dans le Rio Grande do Sul (Brésil). Mémoire de master 2 en géographie, Université du Maine, 78 p. Leturcq, G., Laurent, F., Vieira Medeiros, R., 2008. Perception et gestion de l'érosion et des ressources en eau par les agriculteurs et les éleveurs du bassin versant de l'Ibicuí (RS, Brésil). Confins [Online], 4 | 2008, mis en ligne le 9 novembre 2008, consulté le 7 février 2011, URL : http://confins.revues.org/document4793.html. 196 Leturcq, G., Laurent, F., Vieira Medeiros, R., 2010. Percepção e gestão da erosão e dos recursos hidricos pelos agricultores e criadores da bacia hidrografica do Ibicui (RSBrasil). Desertificação, desenvolvimento sustentavel e agricultura familiar recortes no Brasil, em Portugal e na Africa. I. T. Emilia Moreira (Ed.), Editoria Universataria, João Pessoa PB, Ministério do Meio Ambiente (http://webiica.iica.ac.cr/bibliotecas/repiica/b2055p/b2055p.pdf): 85-100. Levrel, G., 2003. Acquisition de données de cartographie pédologique du bassin versant du Rochereau, Vendée. Mémoire de maîtrise de Sciences de la Terre et de l'Univers, Université Poincaré, 107 p. Lo, T. H. C., Scarpace, F. L., T.M., L., 1986. Use of multi-temporal spectral profiles in agricultural land-cover classification. Photogrammetric Engineering and Remote Sensing, 52, 535-544. Loague, K., Corwin, D., 1998. Regional-scale assessment of non-point source groundwater contamination. Hydrological Processes, Vol.12, 957-965. Loiseau, P., El Habchi, A., de Montard, F. X., Triboï, E., 1992. Indicateurs pour la gestion de l'azote dans les systèmes de culture incluant la prairie temporaire de fauche. Fourrages, Vol.129, 29-43. Lusson, G., 2004. Populations et aires protégées au Brésil : le cas de la réserve de la biosphère (MAB-UNESCO) de la Mata Atlantica et de la station écologique Aratinga (rio Grande do Sul). Mémoire de maîtrise de géographie, Université du Maine, 80 p. Mahé, G., Dessouassi, R., Cissoko, B., Olivry, J. C., 1998. Comparaison des fluctuations interannuelles de piézométrie, précipitation et débit sur le bassin versant du Bani à Douna au Mali. In Water Resources Variability in Africa during the XXth Century, Abidjan'98 Conference, IAHS, 289-295. Mahe, G., Olivry, J. C., Dessouassi, R., Orange, D., Bamba, F., Servat, E., 2000. Relations eaux de surface-eaux souterraines d'une rivière tropicale au Mali. C. R. Acad. Sci., Vol.330, 10, 689-692. Maia, S., Ogle, S., Cerri, C. C., Cerri, C. E. P., 2010. Changes in soil organic carbon storage under different agricultural management systems in the Southwest Amazon Region of Brazil. Soil & Tillage Research, 106, 177–184. Manguerra, H. B., Engel, B. A., 1998. Hydrologic Parametrization of Watersheds for Runoff Prediction using SWAT. JAWRA, Vol.34, 5, 1149-1162. Marie, J., Morand, P., N'Djim, H., 2007. Avenir du fleuve Niger. IRD ed., Paris, 287 p. Marie, M., Abdelkarim, B., Delahaye, D., 2009. Le rôle de la distance dans l'organisation des pratiques et des paysages agricoles : l'exemple du fonctionnement des exploitations laitières dans l'arc atlantique. CyberGeo: European Journal of Geography document 460, mis en ligne le 27 mai 2009, consulté le 17 novembre 2011, URL: http://cybergeo.revues.org/22366. Martin, P., Le Bissonnais, Y., Benkhadra, H., Ligneau, L., Ouvry, J. F., 1997. Mesures du ruissellement et de l'érosion diffuse engendrés par les pratiques culturales en Pays de Caux (Normandie). Géomorphologie : relief, processus, environnement, Vol.2, 143155. Martins, P. F. S., Cerri, C. C., Volkoff, B., Andreux, F., Chauvel, A., 1991. Consequences of clearing and tillage on the soil of a natural Amazonian ecosystem. For. Ecol. Manag., Vol.38, 273-282. Mazoyer, M., Roudart, L., 1997. Histoire des agricultures du monde. Points, Paris, 705 p. Mello, I., van Raij, B., 2006. No-Till for Sustainable Agriculture in Brazil. In Proceedings of the World Association of Soil and Water Conservation (PWASWC), 49-57. Mer, R., 2000. Le paradoxe paysan. Essai sur la communication entre l'agriculture et la société. Harmattan, 236 p. 197 Merot, P., Ezzahar, B., Walter, C., Aurousseau, P., 1995. Mapping waterlogging of soils using Digital Terrain Models. Hydrological Processes, Vol.9, 27-34. Merot, P., Squividant, H., Aurousseau, P., M., H., Burt, T., Maitre, V., Kruk, M., Butturini, A., Thenail, C., Viaud, V., 2003. Testing a climato-topographic index for predicting wetlands distribution along an European climate gradient. Ecol. Model., Vol.163, 5171. Milleville, P., 1999. Techniques des agronomes, pratiques des agriculteurs. L'innovation en agriculture, questions de méthodes et terrains d'observation. E. Mollard (Ed.). Paris, IRD: 35-64. Minella, J. P. G., Merten, G. H., Walling, D. E., Reichert, J. M., 2009. Changing sediment yield as an indicator of improved soil management practices in southern Brazil. CATENA, 79, 228–236. Mollard, A., Lacroix, A., Bel, F., Grappey, C., Vachaud, G., Sauboua, E., Mary, B., Beaudoin, N., David, C., Piot-Lepetit, I., Dupraz, P., Vermersch, D., Salanié, F., Thomas, A., Amigues, J. P., Bailly, R., 2000. Agriculture durable et pollutions diffuses dans la plaine de Bièvre : modélisation des transferts d'eau et d'azote vers la nappe et modalités de régulation économique. INRA-R&A Grenoble, Grenoble, 161. Mouclier, M., 2005. Cartographie et caractérisation des sols du bassin versant de l'Oudon (Maine et Loire). INH, Angers, 49. Nash, J. E., Sutcliffe, J. V., 1970. River flow forecasting through conceptual models, a discussion of principles. Journal of Hydrology, Vol.10, 282-290. Neboit-Guilhot, R., 1999. Autour d'un concept d'érosion accélérée : l'homme, le temps et la morphogenèse. Géomorphologie : relief, processus, environnement, Vol.2, 159-172. Neitsch, S. L., Arnold, J. G., Williams, J. R., 2000. Soil and Water Assessment Tool, User's manual. USDA-ARS, Temple, Texas, 468. Nieder, R., Kersebaum, K. C., Richter, J., 1995. Significance of nitrate leaching and long term N immobilisation after deepening the plough layers for the N regime of arable soils in N.W. Germany. Plant Soil, 173, 167-175. Nilsson, H., 2004. What are the possible influences affecting the future environmental agricultural policy in the European Union ? An investigation into the main factors. J. of Cleaner Production, 12, 461-468. Novotny, V., 1999. Integrating Diffuse / Nonpoint Pollution Control and Water Body Restoration into Watershed Management. JAWRA, Vol.35, 4, 717-727. Oenema, O., Bleeker, A., Braathen, N. A., Budòáková, M., Bull, K., Pavel, E., Geupel, M., Hicks, K., Hoft, R., Kozlova, N., Leip, A., Spranger, T., Valli, L., Velthof, G., Winiwarter, W., 2011. Nitrogen in current European policies. The European Nitrogen Assessment. C. M. H. M.A. Sutton, J.W. Erisman, G. Billen, A. Bleeker, P. Grennfelt, H. van Grinsven and B. Grizzetti (Ed.) (Ed.), Cambridge University Press: 62-81. Ogle, S. M., Breidt, F. J., Paustian, K., 2005. Agricultural management impacts on soil organic carbon storage under moist and dry climatic conditions of temperate and tropical regions. Biogeochemistry, Vol.72, 87-121. Ogle, S. M., Swan, A., Paustian, K., 2012. No-till management impacts on crop productivity, carbon input and soil carbon sequestration. Agriculture, Ecosystems and Environment, 149, 37-49. Olivry, J. C., Bricquet, J. P., Mahe, G., 1993. Vers un appauvrissement durable des ressources en eau de l'Afrique humide ? In Hydrology of warm humid regions, Proceedings of the AlSH Symposium, Yokohama, Japan, 67-78. O'Neil, R. V., Krummel, J. R., Gardner, R. H., Sughira, G., Jackson, B., de Angelis, D. L., Milne, B. T., Turner, M. G., Zygmunt, B., Christensen, S. W., Dale, V. H., Graham, R. L., 1988. Indices of landscape pattern. Landsc. Ecol., Vol.1, 153-162. 198 Overbeck, G., Muller, S., Fidelis, A., Pfadenhauer, J., Pillar, V., Blanco, C., Boldrini, I., Both, R., Forneck, E., 2007. Brazil's neglected biome: The South Brazilian Campos. Perspectives in Plant Ecology, Evolution and Systematics, 9, 101-116. Parage, J., 2009. Gouvernance locale de l'eau et information géographique - Etude du Schéma d'Aménagement et de Gestion des Eaux du bassin versant de la Mayenne, France. Thèse, Université du Maine, 302 p. Parage, J., Laurent, F., 2009. Méthodes de gestion de l'information géographique pour les démarches participatives locales de gestion intégrée de la ressource en eau : l'exemple du bassin versant de la rivière La Mayenne (France). In Colloque " Au fil de l'eau - L'eau : ressources, gestion et risques ", 11-13 mars 2009, Clermont-Ferrand, organisé par la MSH de Clermont-Ferrand, actes en cours de publication., Patty, L., Réal, B., Gril, J. J., 1997. The use of grassed buffer strips to remove pesticides, nitrate and soluble phosphorus compounds from runoff water. Pestic. Sci., Vol.49, 243-251. Pébayle, R., 1974. Pionniers et éleveurs du Rio Grande do Sul. Thèse d'Etat, Université de Paris 1, 745 p. Pinheiro, E. F. M., Pereira, M. G., Anjos, L. H. C., 2004. Aggregate distribution and soil organic matter under different tillage systems for vegetable crops in a Red Latosol from Brazil. Soil & Tillage Research, 77, 79–84. Plessis, J. C., 2004. L'érosion des sols dans le sud-ouest du Rio Grande do Sul (Brésil), contribution des SIG à l'étude des processus érosifs. Mémoire de maîtrise de géographie, Université du Maine, 65 p. Plessis, J. C., 2005. Analyse de l'érosion hydrique par géomatique dans le sud-ouest du Rio Grande do sul (Brésil), Etude de cas à l'échelle du bassin versant de l'arroio Sao Joao. Mémoire de master 2 en géographie, Université du Maine, 64 p. Pochon, A., 1996. Les Champs du Possible, plaidoyer pour une Agriculture Durable. Syros, Paris, 251 p. Porto de Lima, V. R., 2006. Conflito pelo uso da agua do canal de Redenção: assentamento Acauã, Aparecida, PB, Brasil. Mémoire de pos-graduação (master), UFPB, Centro de Ciências Exatas e da Natureza (Brasil), 87 p. Powlson, D. S., Addiscott, T. M., Benjamin, N., Cassman, K., de Kok, T., van Grinsven, A., L'Hirondel, J. L., Avery, A., van Kessel, C., 2008. When does nitrate become a risk for humans? Journal of Environmental Quality, Vol.37, 291-295. Pretty, J., Shah, P., 1999. Soil and water conservation: A brief history of coercion and control. Fertile ground: The impacts of participatory watershed management. J. T. F. Hinchcliffe, J. N. Pretty, I. Guijt and P. Shah (Ed.). London, Intermediate Technology Publications Ltd.: 1-12. Pullar, D., Springer, D., 2000. Towards integrating GIS and catchment models. Environmental Modelling and Software, 15, 451-459. Quinn, P., 2004. Scale appropriate modelling: representing cause-and-effect relationships in nitrate pollution at the catchment scale for the purpose of catchment scale planning. Journal of Hydrology, 291, 197-217. Rangel-Vasconcelos, L. G. T., Kato, O., Brancher, T., Nascimento, E. P., 2009. Estoque de Carbono e Diversidade Florística de Vegetação de Pousio em Áreas Submetidas aos Sistemas de Corte-e-Queima e Corte-e-Trituração em Marapanim, Nordeste Paraense. Rev. Bras. de Agroecologia, Vol.4, 2, 2558-2561. Rapion, P., Bordenave, P., 2001. Pratiques agricoles et pollutions azotées diffuses des eaux de surface: exemples d'évaluation d'impact sur trois bassins versants d'élevage intensif. In Hydrosystèmes, Paysages, Territoires, Lille, 6-8 septembre 2001, actes 199 publiés sur CD Rom et disponibles sur : http://www.univlille1.fr/geographie/labo/gma.htm, Rawls, W., Brakensiek, D., 1985. Prediction of Soil Water Properties for Hydrologic Modeling. Watershed Management in the Eighties(Ed.), ASCE: 293-299. Rawls, W., Brakensiek, D., Saxton, K. E., 1982. Estimating Soil Water Retention from Soil Properties. J. Irrig. Drain. Eng., Vol.108, IR2, 166-171. Réal, B., Labreuche, J., Heddadj, D., 2005. L'impact du travail du sol sur les transferts de produits phytosanitaires. Perspectives agricoles, 309, 24-28. Refsgaard, J. C., Thorsen, M., Jensen, J. B., Kleeschlute, S., Hansen, S., 1999. Large scale modelling of groundwater contamination for nitrate leaching. Journal of Hydrology, 221, 117-140. Ribeiro, D., 1995. O povo brasileiro. Editoria Schwarcz Ltda (ed. 2008), São Paulo, Brasil, 435 p. Ribeiro, J. C., 2008. A verticalização da paisagem nos campos de areia da Vila Kraemer. São Francisco de Assis, RS, Brasil. Mémoire de pos-graduação (master), UFRGS, 187 p. Ribeiro, W. C., 2009. Governança da agua no Brasil, São Paulo, 379 p. Richter, G. M., Beblik, A. J., Schmalstieg, K., Richter, O., 1998. N-dynamics and nitrate leaching under rotational and continuous set-aside - a case study at the field and catchment scale. Agric. Ecosyst. Environ, 68, 125-138. Rode, M., Thiel, E., Franko, U., Wenk, G., Hesser, F., 2009. Impact of selected agricultural management options on the reduction of nitrogen loads in three representative meso scale catchments in Central Germany. Science of the Total Environment, 407, 3459– 3472. Rodriguez, A., Jacobo, E., 2010. Glyphosate effects on floristic composition and species diversity in the Flooding Pampa grassland (Argentina). Agriculture, Ecosystems and Environment, Vol.10, 222-231. Romanowicz, A. A., Vanclooster, M., Rounsevell, M., Junesse, I. A., 2005. Sensitivity of the SWAT model to the soil and land use data parametrisation: a case study in the Thyle catchment, Belgium. Ecological Modelling, Vol.187, 1, 27-39. Roose, E., 1983. Ruissellement et érosion avant et après défrichement en fonction du type de culture en Afrique occidentale. Cahiers ORSTOM, série Pédologie, Vol.20, 4, 327339. Ruelland, D., 2009. Méthodes d'intégration de l'information géographique dans la modélisation des hydrosystèmes. Thèse, université Montpellier 2, 302 p. Ruelland, D., Ardoin-Bardin, S., Billen, G., Servat, E., 2008. Sensitivity of a lumped and semi-distributed hydrological model to several modes of rainfall interpolation on a large basin in West Africa. Journal of Hydrology, 361, 96-117. Ruelland, D., Guinot, V., Levasseur, F., Cappelaere, B., 2009. Modelling the long-term impact of climate change on rainfall-runoff processes over a large Sudano-Sahelian catchment. In conférence internationale de l'IAHS (International Association of Hydrological Sciences), 6-12 septembre 2009, Hyderabad, India, Ruelland, D., Larrat, V., Guinot, V., 2010. A comparison of two conceptual models for the simulation of hydro-climatic variability over 50 years in a large Sudano-Sahelian catchment. Global Change: Facing Risks and Threats to Water Resources(Ed.), IAHS Publ. 340: 668–678. Ruelland, D., Laurent, F., Trebouet, A., 2004. Spatialisation de successions culturales à partir d'image HRV(XS) de SPOT pour une intégration dans un modèle agro-hydrologique. Télédétection, Vol.4, 3, 231-250. Saldanha Machado, C. J., 2004. Gestão des aguas doces, Rio de Janeiro, 372 p. 200 Santhi, C., Srinivasan, R., Arnold, J. G., Williams, J. R., 2003. A modeling approach to evaluate the impacts of water quality management plans implemented in the Big Cypress Creek watershed. In Proc. Conference: Total Maximum Daily Load (TMDL) Environmental Regulations - II, St. Joseph, Mich., ASAE, 384-394. Santos, M., 1990. Espace et méthode. Publisud, 123 p. Santos, R. J., 2004. Gaúchos no cerrado de Minas Gerais. Rio Grande do Sul: Paisagens e Territórios em Transformação. D. M. A. Suertegaray (Ed.). Porto Alegre, Editora da Universidade Federal do Rio Grande do Sul, 319 p. Saultner, D., 1989. Les bases de la production végétale. Sciences et Techniques Agricoles, Angers, France, 458 p. SCESS, 2000. Agreste, Recensement Agricole 2000. Ministère de l'Agriculture, de l'alimentation, de la pêche et des affaires rurales, Service Central des Enquêtes et des Etudes Statistiques, http://www.agreste.agriculture.gouv.fr. Schiavon, M., 1998. La pollution des eaux par les produits phytosanitaires. In ANPP - 17ème conférence du COLUMA, Journées Internationales sur la lutte contre les mauvaises herbes, Dijon, 419-428. Schneider, S., Silva, M. K., Marques, P. E. M., Eds, 2004. Políticas Públicas e Participação Social no Brasil Rural. Porto Alegre, Brasil, UFRGS Ed., 256 p. Schuol, J., Abbaspour, K. C., 2006. Calibration and uncertainty issues of a hydrological model (SWAT) applied to West Africa. Adv. Geosci., Vol.9, 137-143. Scopel, E., Douzet, J. M., Macena da Silva, F. A., Cardoso, A., Alves Moreira, J. A., Findeling, A., Bernoux, M., 2005. Impactos do sistema de plantio direto com cobertura vegetal (SPDCV) sobre a dinamica da agua, do nitrogênio mineral e do carbono do solo do Cerrado brasileiro. Cadernos de Ciência & Tecnologia, Vol.22, 1, 169-183. Scopel, E., Triomphe, B., Ribeiro, M. F. S., Séguy, L., Denardin, J. E., Kochann, R. A., 2004. Direct seeding mulch-based cropping systems (DMC) in Latin America. In Proceedings of the 4th International Crop Science Congress "New directions for a diverse planet", 26 sep. - 1 oct. 2004, Brisbane, Australia., Published on CDROM. Web site www.cropscience.org.au, Sebillotte, M., 2000. Des recherches pour le développement local, partenariat et transdisciplinarité. Revue d'Economie Régionale et Urbaine, 3, 535-556. Sebillotte, M., 2002. Les fondements épistémologiques de l'évaluation des recherches tournées vers l'action. In DADP 2002, Montpellier, Sebillotte, M., Meynard, J. M., 1990. Systèmes de culture, systèmes d'élevage et pollutions azotées. In Nitrates, agriculture, eau, Paris, 7-8 novembre 1990, 289-312. Séguy, L., Bouzinac, S., 2001. Direct seeding on plant cover : sustainable cultivation of our planet's soils. In Conservation agriculture, a worldwide challenge : 1st World congress on conservation agriculture. 1-5 oct 2001, Madrid, Spain, 85-91. Séguy, L., Bouzinac, S., 2001. Un dossier du semis direct, systèmes de culture sur couverture végétale. CIRAD, Montpellier, 63. Séguy, L., Bouzinac, S., 2006. Rapport annuel d'activités 2005 UR1/Cirad-CA. Cirad, 159. Séguy, L., Bouzinac, S., Husson, O., 2006. Direct-seeded tropical soil systems with permanent soil cover: learning from brazilian experience. Biological approaches to sustainable soil systems. J. Thies (Ed.), Taylor & Francis: 323-336. Séguy, L., Bouzinac, S., Trentini, A., Cortes, N. A., 1996. L'agriculture brésilienne des fronts pionniers. Agriculture et développement, 12, 1-76. SEMA, 2003. Bacia hidrografica Ibicui. In Relatório Anual sobre a Situação dos Recursos Hídricos no Estado do Rio Grande do Sul. Secretaria Estadual do Meio Ambiente, RS, Brasil, 232-243. 201 Serpantié, G., 2009. L'agriculture de conservation à la croisée des chemins (Afrique, Madagascar). VertigO - la revue électronique en sciences de l'environnement, Vol.9, 3, mis en ligne le 14 décembre 2009, consulté le 25 janvier 2011. URL : http://vertigo.revues.org/9290, 1-21. Servat, E., Paturel, J. E., Kouame, B., Travaglio, M., Ouedraogo, M., Boyer, J. F., Lubes-Niel, H., Fristch, J. M., Masson, J. M., Marieu, B., 1998. Identification, caractérisation et conséquences d'une variabilité hydrologique en Afrique de l'Ouest et Centrale. In Water Ressources Variability in Africa during the XXth Century, Abidjan'98 Conference, IAHS, 323-337. Sgard, J., 2003. Pauvreté et inégalités au Brésil. La Lettre du CEPII, 229 - Décembre 2003, 14. Shannon, C. E., Weaver, W., 1949. The mathematical theory of communication. The University of Illinois Press, Urbana, Illinois, 125 p. Sharmaa, T., Carmichaelb, J., Klinkenberg, B., 2006. Integrated modeling for exploring sustainable agriculture futures. Futures, 38, 93-113. Sharpley, A., Kleinman, P., Flaten, D., Buda, A., 2011. Critical Source Area Management of Agricultural Phosphorus: Experiences, Challenges and Opportunities. Water Science and Technology, Vol.64, 4, 945-952. Shepherd, M. A., Davies, D. B., Johnson, P. A., 1993. Minimising nitrate losses from arable soils. Soil Use and Management, Vol.9, 94-99. Shukla, S., Mostaghimi, S., Shanholtz, V. O., Collins, M. C., 1998. A GIS-based modeling approach for evaluating groundwater vulnerability to pesticides. Water Resour. Bull., Vol.34, 6, 1275-1293. Simon, J. C., Decau, M. L., Vertès, F., 1997. Chargement animal et pollution nitrique sous prairie. INRA, Le Courrier de l'environnement (30), http://www.inra.fr/dpenv/simonc30.htm. Sisti, C. P. J., dos Santos, H., Kohhann, R., Alves, B. J. R., Urquiaga, S., Boddey, R. M., 2004. Change in carbon and nitrogen stocks in soil under 13 years of conventional or zero tillage in southern Brazil. Soil & Tillage Research, 76, 39-58. Skaggs, R. W., Breve, M. A., Gilliam, J. W., 1994. Hydrologic and water quality impact of agriculture drainage. Crit. Rev. in Envir. Sci. Tech., Vol.24, 1, 1-32. Sogue, M., 2011. Cartographie par télédétection de l'agriculture dans le bassin versant de l'Ibicui (sud du Brésil) : apports des séries d'images MODIS/TERRA. Mémoire de master 1, Université du Maine, 57 p. Soulard, C. T., 1999. Les agriculteurs et la pollution agricole, proposition d'une géographie des pratiques. Thèse d'Université, Université de Paris 1 Panthéon - Sorbonne, 424 p. Souza, F. A. V., 2003. A Questão Nacional e Assentamentos Rurais na Paraíba. Idéia Ed., João Pessoa, PB, Brasil, 206 p. Srinivasan, R., Ramanarayanan, T. S., Arnold, J. G., Bednarz, S. T., 1998. Large area hydrologic modeling and assessment, Part 2: Model Application. JAWRA, Vol.34, 1, 91-101. Stoddard, C. S., Grove, J. H., Coyne, M. S., Thom, W. O., 2005. Fertilizer, tillage, and dairy manure contributions to nitrate and herbicide leaching. Journal of Environmental Quality, Vol.34, 4, 1354–1362. Suertegaray, D., 1988. A Trajetória da Natureza: um estudo geomorfológico sobre os areias de Quaraí. Thèse, Universidade de São Paulo, USP, Brasil, 243 p. Suertegaray, D., Guasselli, L. A., Verdum, R., 2001. Atlas da arenização - Sudoeste do Rio Grande do Sul. Secretaria da coordeenação e planejamento, Porto Alegre, RS, Brasil, 84 p. 202 Syndicat_de_Bassin_de_l'Oudon, 2010. Prospective « Eau et systèmes agricoles durables sur le bassin de l'Oudon 2030 » - définition d'une stratégie crédible, Segré, France, 65. Taïbi, N., El Hannani, M., Gassani, J., Ballouche, A., Moguedet, G., El Ghadi, A., Ozer, P., 2006. Aléas climatiques versus actions anthropiques dans le développement des processus de « désertification » sur les marges sud et nord du Sahara. In Colloque « Interactions Nature-Société, analyses et modèles », La Baule, France, mis en ligne halshs-00477655. Tate, K. W., Nader, G. A., 2000. Evaluation of buffers to improve the quality of runoff from irrigated pastures. Journal of Soil and Water Conservation, 55, 473–478. Ternisien, J., 1971. Terminologie de l'environnement. Options méditerranéennes, Vol.9, 2733. Thareau, B., Congy, E., Bolo, P., 2008. L'appropriation de l'obligation de couverture hivernale des sols par les agriculteurs. Courrier de l'environnement de l'INRA, Vol.56, 105-118. Théry, H., 2004. La vague déferlante du soja brésilien. Mappemonde [Online], 74 | 2004, Accès 05/02/2010, URL: http://mappemonde.mgm.fr/num2/articles/art04204.html. Théry, H., 2005. Le Brésil. Armand Colin, Paris, 288 p. Théry, H., 2011. Les défis du monde rural au Brésil. Dynamique des espaces ruraux dans le monde. Y. Jean (Ed.). Paris, Armand Colin: 297-314. Thiébaud, F., Cozic, P., Véron, F., Brau-Nogué, C., Bornard, A., 2001. Intérêts et limites des différents couverts fourragers et pratiques associées vis-à-vis de l'environnement. Analyse bibliographique. Fourrages, 168, 449-475. Thieu, V., Garnier, J., Billen, G., 2010. Assessing the effect of nutrient mitigation measures in the watersheds of the Southern Bight of the North Sea. Science of The Total Environment, Vol.408, 1245-1255. Thomas, F., 2002. Couverture du sol et semis direct. Revue TCS, 18, 8-21. Tonneau, J.-P., Piraux, M., Coudel, E., 2011. Quelles innovations territoriales dans des territoires marginalisés au Nordeste du Brésil. Cahiers agricultures, Vol.20, 3, 235240. Tonneau, J.-P., Piraux, M., Coudel, E., de Azevedo, S. G., 2009. Évaluation du développement territorial comme processus d'innovation et d'institutionnalisation : le cas du Territoire du Alto Sertão do Piauí e Pernambuco au Nordeste du Brésil. VertigO - la revue électronique en sciences de l'environnement [On line], 9 (3) | 2009, mis en ligne le 14 décembre 2009, http://vertigo.revues.org/9207. Tonneau, J.-P., Piraux, M., Lardon, S., Raymond, R., Chia, E., Caron, P., 2007. Gestion agroécologique de la caatinga pour les agriculteurs familiaux du Sertão : une alternative à la désertification ? Bois et forêts des tropiques, 293, 9-21. Tonneau, J.-P., Sabourin, E., 2009. Agriculture familiale et politiques publiques de développement territorial : le cas du Brésil de Lula. Confins [Online], 5 | 2009, mis en ligne le 20 mars 2009, URL : http://confins.revues.org/document5575.html. Turner, B. L., Haygarth, P. M., 1999. Phosphorus leaching under cut grassland. Wat. Sci. Tech., Vol.39, 12, 63-67. Turpin, N., Bontems, P., Rotillon, G., Bärlund, I., Kaljonen, M., Tattari, S., Feichtinger, F., Strauss, P., Haverkamp, R., Garnier, M., Lo Porto, A., Benigni, L., Leone, A., Ripa, M. N., Eklo, O. M., Romstad, E., Bioteau, T., Birgand, F., Bordenave, P., Laplana, R., Lescot, J. M., Piet, L., Zahm, F., 2005. AgriBMPWater: systems approach to environmentally acceptable farming. Environmental Modelling and Software, Vol.20, 187-196. UFSM, 2005. Metodologia para iniciar a implantação de outorga em bacias carentes de dados de disponibilidade e demanda - IOGA - Bacia do rio Ibicui. convênio 203 FNDCT/CT-Hidro 01.04.0056.00, volume 1: relatorio técnico e anexo 1, Santa Maria, RS, Brasil, 200. USDA, 1972. National Engineering Handbook. Part 630 Hydrology, Section 4, U.S. Government Printing Office, Washington, D.C., Uusi-Kämppä, J., Braskerud, B., Jansson, H., Syversen, N., Uusitalo, R., 2000. Buffer zones and constructed wetlands as filters for agricultural phosphorus. Journal of Environmental Quality, 29, 151-158. Vaché, K., Eilers, J., Santelmann, M., 2002. Water Quality Modeling of Alternative Agricultural Scenarios in the US Corn Belt. JAWRA, Vol.38, 3, 773-787. Valbuena, R., 2009. Les dynamiques territoriales associées au soja et les changements fonctionnels en Amazonie. Le cas de la région de Santarém, Pará, Brésil. Confins [Online], 5 | 2009, mis en ligne le 20 mars 2009, consulté le 6 février 2011, http://confins.revues.org/5615. Van der Werf, H. M. G., 1996. Assessing the impact of pesticides on the environment. Agriculture, Ecosystems and Environment, Vol.60, 81-96. van Griensven, A., Francos, A., Bauwens, W., 2002. Sensitivity analysis and auto-calibration of an integral dynamic model for river water quality. Water Science and Technology, Vol.45, 5, 321-328. Verdum, R., 1997. L'approche géographique des "déserts" dans les communes de São Francisco de Assis et Manuel Viana, État du Rio Grande do Sul, Brésil. Thèse, Université de Toulouse Le Mirail, 211 p. Veyret, Y., 2011. Géo-environnement. Armand Colin, 253 p. Veyret, Y., 2011. Le défi environnemental. Dynamique des espaces ruraux dans le monde(Ed.). Paris, Armand Colin: 114-138. Veyret, Y., Vigneau, J. P., Dubois, J. J., Kergomard, C., Lageat, Y., Miossec, A., 2002. Géographie physique, Milieux et environnement dans le système Terre, 368 p. Vianna, P., 2002. O sistema aquifero Guarani (SAG) no Mercosul. Universidade de São Paulo, USP, Brasil, 113 p. Viavattene, C., 2006. Exploitation socio-économique de la modélisation souterraine du transfert des nitrates à l'échelle du bassin de la Seine. Thèse d'université, Ecole Nationale Supérieure des Mines de Paris, 243 p. Vieira Medeiros, R. M., Laurent, F., 2008. Es redes de agricultores em favor do meio ambiente na França: multiplicidades de sistemas de açoes e de percepçoes. Agricultura, desenvolvimento e transformaçoes socioespacias: reflexões interinstitucionais e constituição de grupos de pesquisa no rural e no urbano. E. Assis (Ed.). Uberlândia, MG, Brasil: 179-212. Vogt, J., 1953. Erosion des sols et techniques culturales en climat tempéré maritime de transition (France et Allemagne). Revue de Géomorphologie Dynamique, Vol.4, 157183. von Wieren-Lehr, S., 2001. Sustainability in agriculture - an evaluation of principal goal oriented concepts to close the gap between theory and practice. Agriculture, Ecosystems and Environment, Vol.84, 115-129. Ward, M., de Kok, T., Levallois, P., Brender, J., Gulis, G., Nolan, B., Van Derslice, J., 2005. Drinking water nitrate and health: recent findings and research needs. Environmental Health Perspectives, Vol.113, 11, 1607 –1614. Williams, J. R., Jones, C. A., Dyke. , P. T., 1984. A modeling approach to determining the relationship between erosion and soil productivity. Trans. ASAE, Vol.27, 1, 129-144. Withmore, A. P., Bradbury, N. J., Johnson, P. A., 1992. Potential contribution of ploughed grassland to nitrate leaching. Agric. Ecosyst. Environ., Vol.39, 3-4, 221-233. 204 Wolfe, A. H., Patz, J. A., 2002. Reactive nitrogen and human health: acute and long-term implications. Ambio, Vol.31, 2, 120-125. Zanella, C., 2007. La diffusion du Semis Direct et des Techniques Culturales Simplifiées dans l'ouest de la France. Université du Maine, 57 p. Zeimen, M. B., Janssen, K. A., Sweeney, D. W., Pierzynski, G. M., Mankin, K. R., Devlin, D. L., Regehr, D. L., Langemeier, M. R., Mcvay, K. A., 2006. Combining management practices to reduce sediment, nutrients, and herbicides in runoff. Journal of Soil and Water Conservation, Vol.61, 5, 258–267. Zinn, Y., Lal, R., Resck, D. V. S., 2005. Changes in soil organic carbon stocks under agriculture in Brazil. Soil & Tillage Research, 84, 28-40. 205 206 Table des figures Figure 1: Schéma des activités principales 9 Figure 2 : Situation des bassins tests dans les Pays de la Loire 11 Figure 3 : Phases de constitution du partenariat lors du projet INRA-DADP/PSDR 14 Figure 4 : Localisation du bassin versant de l'Ibicuí 18 Figure 5 : Localisation du bassin versant du Bani 20 Figure 6 : Schéma de l'activité publications 28 Figure 7 : Organisation de la synthèse des travaux 35 Figure 8 : Exemples de couverts végétaux cultivés en France 45 Figure 9 : Paysage bocager en Sarthe 45 Figure 10 : Prairie humide et forêt de peuplier en Sarthe 46 Figure 11 : Bandes enherbées ou boisées à proximité de cours d'eau 46 Figure 12 : L'assolement agricole sur le Rochereau 51 Figure 13 : L'organisation des acteurs sur le bassin du Rochereau (Hellier et al., 2009) 52 Figure 14: Evolution des teneurs en nitrates à la retenue de Rochereau en fonction des pluies efficaces 55 Figure 15 : Evolution des teneurs en glyphosate et son dérivé AMPA, dans la rivière du Grand Lay à l'entrée de la retenue de Rochereau 55 Figure 16 : Prélèvements d'eau dans le bassin de l'Oudon 57 Figure 17 : Assolement sur le bassin de l'Oudon en 2009 (en ha) 57 Figure 18 : Evolution des teneurs en nitrates de l'Oudon à Segré 58 Figure 19 : Carte de qualité SEQ-Eau enNitrates 2009-2010 59 Figure 20 : Evolution de la teneur en phosphore total dans l'Oudon à Segré 60 Figure 21 : Carte de qualité SEQ-Eau en matières phosphorées 2009-2010 60 Figure 22 : Seuil max Pesticides totaux : eau distribuée = 0,5 μg.l-1 ; eau brute = 5 μg.l-1 61 Figure 23 : Le système d'acteurs intra et extra-territoriaux dans la gestion des pollutions agricoles 70 Figure 24 : Les régions et les État du Brésil 72 Figure 25 Les unités de relief du bassin de l'Ibicuí 73 Figure 26 : Activités agricoles sur le bassin de l'Ibicuí : part pâturée dans la surface totale des municipes et part des différentes cultures dans l'assolement des terres arables 74 Figure 27 : Taille des propriétés agricoles dans le bassin de l'Ibicuí 74 Figure 28 : Surfaces relatives des cultures annuelles dans le bassin de l'Ibicuí 75 Figure 29 : Paysages du bassin de l'Ibicuí 75 Figure 30 : Plantations d'eucalyptus sur le bassin de l'Ibicuí 79 Figure 31 : Poster de sensibilisation sur la qualité de l'eau de l'Ibicui au siège de l'association des riziculteurs 80 Figure 32 : Le Rio Ibicuí à Manoel Viana 80 Figure 33 : Pluviométrie dans le Nordeste 84 Figure 34 : Un substrat géologique difficile pour l'agriculture et de faible potentiel aquifère 85 Figure 35 : Les grands bassins versants de l'État de la Paraíba (source : AESA, 2004) et les espaces étudiés 86 Figure 36 : Cote annuelle moyenne du barrage Epitacio Pessoa 88 Figure 37 : Lac du barrage Epitacio Pessoa avec la tour de la prise d'alimentation en eau 88 Figure 38 : Le périmètre irrigué des Várzeas de Sousa 91 Figure 39 : Irrigation dans la Paraíba 92 Figure 40 : Travaux de creusement du canal du São Francisco en août 2010 93 207 Figure 41 : Structuration du sol en Semis Direct sur Couverture Végétale (Séguy, Bouzinac, 2001) 97 Figure 42 : Evolution des surface en semis direct au Brésil (en millions ha) 99 Figure 43 : Le système de semis direct sur couvert végétal conçu par le Cirad en zone tropicale humide (Séguy, Bouzinac, 2001) 100 Figure 44 : Travail du sol et semis direct au Brésil 101 Figure 45 : Le bassin du Paraná 3 (In Laurent et al., 2011) 103 Figure 46 : semis direct sous couvert végétal dans la région d'Itaipu 104 Figure 47 : Le barrage d'Itaipu 105 Figure 48 : Travail du sol et semis direct dans le du bassin du Paraná 3 106 Figure 49 : Partage d'expériences entre producteurs en agriculture de conservation 111 Figure 50: Occupation du sol sur le bassin de la Moine en 1999 116 Figure 51 : Occupation du sol sur le bassin versant de la Moine en 1999 117 Figure 52 : Occupation du sol sur le bassin versant du Rochereau 118 Figure 53: Occupation du sol du bassin versant de l'Oudon en 2003 119 Figure 54 : Méthodologie 121 Figure 55 : Observations en fosses pédologiques 122 Figure 56 : Organisation des sols selon une toposéquence sur granite sur le Rochereau 122 Figure 57 : Le Rochereau, relations entre les classes d'indice topographique et les propriétés du sol 124 Figure 58 : Le Rochereau, relations entre la lithologie et les propriétés du sol 125 Figure 59 : Cartes des données prédictives (sources : IGN et BRGM) et de propriétés hydriques des sols résultant de l'analyse spatiale sur le bassin versant du Rochereau 126 Figure 60 : Sondages sur le Rochereau 127 Figure 61 : Sensibilité de l'estimation des propriétés à la densité de points de sondage sur le bassin du Rochereau 127 Figure 62 : Compartiments et flux représentés dans SWAT, d'après (Neitsch et al., 2000) . 132 Figure 63 : Pools et flux d'azote modélisés par SWAT 133 Figure 64 : Pools et flux de phosphore modélisés par SWAT 133 Figure 65 : Schéma méthodologique de la mise en oeuvre du modèle SWAT 134 Figure 66 : Constitution des HRU par croisement cartographique sur le bassin de l'Oudon 136 Figure 67 : Débits observés et simulés (m3.s-1) sur l'Oudon à la station de Segré durant la période de validation (2006-2007) 140 Figure 68 : Flux de nitrates observes et simulés (kg N-NO3.j-1) sur l'Oudon à la station de Segré durant la période de validation (2006-2007) 141 Figure 69 : Charge annuelle moyennes en nitrate (kgN.ha-1.an-1) sur les espaces agricoles entre 2005 et 2007 143 Figure 70 : Débits simulés et observés à la station DREAL de la Moine à Saint-Crespin 144 Figure 71 : Flux de nitrates (en kgN.j-1) à la station DIREN de Roussay-sur-Moine en 20002001 145 Figure 72 : Flux de phosphore (en kgP.j-1) à la station DIREN de Roussay-sur-Moine en 2000-2001 145 Figure 73 : Evaluation des fuites d'azote (kgN.ha-1.an-1) et en phosphore (kgP.ha-1.an-1) hors de la zone racinaire par sous-bassin versant de la Moine en 1997-2001 146 Figure 74 : Débits de la Moine à Roussay (station DIREN) et sensibilité des simulations à la méthode de cartographie et de description des sols, en 2000-2001 150 Figure 75 : Sensibilité des simulations des flux de nitrates (en kgN.j-1) à la méthode de cartographie des sols, la Moine à Roussay en 2000-2001 (station DIREN/DREAL) 151 Figure 76 : Le Baoulé, cours amont du Bani 163 Figure 77 : Puits villageois 163 208 Figure 78 : Localisation du bassin du Bani et stations de mesure 164 Figure 79 : Paysages et couverts végétaux sur le bassin du Bani 165 Figure 80 : Entrées spatialisées de SWAT sur le Bani : (a) Sols (source : FAO) ; (b) Couverts végétaux 166 Figure 81 : Station hydrologique de Bougouni 166 Figure 82 : Moyennes mensuelles des débits mesurés Qobs et simulés Qsim et des débits de base simulés GWQ (générés par les nappes souterraines) à Douna 168 Figure 83 : (a) Précipitations et (b) lame écoulée simulée – moyennes de 1952 à 2000 (en mm.an-1) 170 Figure 84 : Estimation de la part de l'écoulement provenant du ruissellement : 170 Figure 85 : Champ de soja après récolte sur un front pionier d'Amazonie (Santarem) 175 209 210 Table des tableaux Tableau 1 : Nombre d'auteurs, positionnement parmi les auteurs et langue des publications réalisées 27 Tableau 2 : Les actions réalisées sur le bassin du Rochereau 53 Tableau 3 : Nombre de jours de dépassement de la norme nitrates à la prise d'eau de Segré . 58 Tableau 4 : Facteurs explicatifs de pratiques à risques et leviers d'action pour les réduire 68 Tableau 5 : Pratiques moyennes issues des enquêtes sur l'Oudon et intégrées dans SWAT. 137 Tableau 6 : Valeurs des paramètres calibrés sur l'Oudon 139 Tableau 7 : Rendements observés et simulés 140 Tableau 8 : Simulations des flux annuels moyens de nitrates hors de la zone racinaire pour un sol sablo-limoneux profond sur la période 2005–2007 141 Tableau 9 : Simulations des flux de nitrates hors de la zone racinaire pour la succession maïsmaïs-maïs en 2007 (kgN.ha-1.an-1), avec 228 kgN.ha-1.an-1 de fertilisant appliqué 142 Tableau 10 : Flux des nitrates en excédent en fonction des successions sur deux types de sol (2000-01) sur la Moine 144 Tableau 11 : Résultats des simulations sur la Moine à Roussay en 2000-01 en fonction de la méthode de cartographie de l'occupation du sol 148 Tableau 12 : Sensibilité des simulations à la méthode de cartographie et de description des sols et à la densité de points de sondages sur la Moine, en 2000-2001 150 Tableau 13 : Transfert de nutriments simulés dans la Moine au niveau des barrages AEP de l'agglomération de Cholet en 2000-01 155 Tableau 14 : Sorties de la succession maïs-maïs en 2000-2001 sur brunisols 155 Tableau 15 : Variation des flux de N-NO3 à la station de mesure de Segré selon différents scenarios de changement de pratiques sur la periode 2005–2007 158 Tableau 16 : Valeurs des paramètres calés dans SWAT 167 Tableau 17 : Indices de Nash pour les périodes de calage et de validation à la station de calage (Douna) et en d'autres stations 167 Tableau 18 : Lame d'eau écoulée (mm.an-1) sur le sous bassin de Pankourou, moyenne 19522000 169 Tableau 19 : Lame d'eau écoulée (mm.an-1) sur le sous bassin de Douna, moyenne 1952-2000 169 Tableau 20 : Coefficient de ruissellement sur le sous bassin de Pankourou, moyenne 19522000 169 Tableau 21 : Coefficient de ruissellement sur le sous bassin de Douna, moyennes 1952-2000 169 211 212 Table des matières Itinéraire de recherche 5 Itinéraire de recherche 5 1. 2. 3. 4. 6. Travaux de DEA et de thèse 5 Intégration à l'université du Maine et à l'UMR ESO 7 Animation et contribution à des projets de recherche 10 Co-encadrements de thèses 22 Positionnement épistémologique et méthodologique 29 Synthèse des travaux : introduction 35 1ère partie : Agriculture, pollution et gestion de l'eau 37 1. Ampleur de la pollution d'origine agricole en France 38 1. 2. 3. 4. 5. 6. 2. L'intensification de l'agriculture en France et ses conséquences sur les ressources en eau 38 Les techniques agro-environnementales et leur efficacité sur la qualité de l'eau 43 Pollutions agricoles et politiques territoriales à l'échelle de bassins en France 48 Etude de cas : le Rochereau 50 Etude du cas : l'Oudon 56 Conclusion sur les pollutions agricoles à l'échelle de bassins versants en France 69 La problématique agriculture – environnement au sud du Brésil 71 1. 2. 3. 4. Le bassin versant de l'Ibicuí 72 Les enjeux environnementaux sur le bassin de l'Ibicuí 76 Le comité de bassin de l'Ibicuí : une forte participation mais un manque de moyens 79 Conclusion sur la relation agriculture – environnement dans le Sud du Brésil 81 3. La place de l'agriculture familiale dans la gestion de l'eau : le cas du Sertão semi-aride brésilien 82 1. 2. 3. Le Nordeste du Brésil : sous-développement, inégalités sociales et ressources en eau 83 L'alimentation en eau de Campina Grande 86 Le conflit pour l'usage de l'eau du canal da Redenção dans le Sertão 90 4. Un système de production intégrant les services écologiques : l'agriculture de conservation 94 1. 2. 3. Les principes de l'agriculture de conservation 96 L'agriculture de conservation au Brésil 98 L'agriculture de conservation en France 107 Conclusion de la 1ère partie 113 2ème partie : Méthodologies 115 1. Présentation des bassins, objets de la modélisation des pollutions 115 1. 2. 3. Moine 116 Rochereau 117 Oudon 118 2. Cartographie des propriétés hydriques des sols et vulnérabilité des sols au transfert de polluants 120 1. 2. 3. 4. 3. Sondages à la tarière et profils pédologiques 121 Estimation de propriétés hydriques des sols 122 Cartographie des propriétés des sols 123 Analyse de sensibilité à la densité des sondages 127 Modélisation agro-hydrologique distribuée des pollutions agricoles 129 1. 2. 3. 4. 5. Choix opérés en matière de modélisation 129 Présentation du modèle SWAT 130 Mise en oeuvre du modèle SWAT sur les bassins tests 134 Calibration et validation du modèle 138 Résultats de la modélisation 139 213 6. 7. 9. Analyse de sensibilité du modèle à la qualité des données 146 Analyse comparée du modèle SWAT et d'un indicateur d'émission polluante 152 Conclusion sur l'application de SWAT pour des problématiques de pollution agricole 158 4. Modélisation hydrologique de la sensibilité à la variabilité climatique d'un grand bassin en Afrique soudano-sahélienne 162 1. 2. 3. 4. 5. Zone d'étude 162 Données 163 Calage et validation 167 Résultats 167 Discussion et conclusion 171 Perspectives 173 1. 2. La séquestration du carbone par l'agriculture 174 Les services écologiques dans le biome de la Pampa 178 Conclusion 183 Bibliographie 185 214
{'path': '19/tel.archives-ouvertes.fr-tel-00773259-document.txt'}
Les stéréotypes de genre dans les coins jeux à l'école maternelle Célia Legouic, Solène Theil To cite this version: Célia Legouic, Solène Theil. Les stéréotypes de genre dans les coins jeux à l'école maternelle. Education. 2018. dumas-01910037 HAL Id: dumas-01910037 https://dumas.ccsd.cnrs.fr/dumas-01910037 Submitted on 31 Oct 2018 Distributed under a Creative Commons Attribution - NonCommercial - NoDerivatives| 4.0 International License
{'path': '42/dumas.ccsd.cnrs.fr-dumas-01910037-document.txt'}
Diversité des expériences scolaires chez des collégien(ne)s scolarisés en 3e Amélie Courtinat-Camps, Yves Prêteur To cite this version: Amélie Courtinat-Camps, Yves Prêteur. Diversité des expériences scolaires chez des collégien(ne)s scolarisés en 3e. L'Orientation scolaire et professionnelle, Institut national d'étude du travail et d'orientation professionnelle (INETOP-CNAM), 2012, 10.4000/osp.3918. hal-01892060 HAL Id: hal-01892060 https://hal-inshea.archives-ouvertes.fr/hal-01892060 Submitted on 10 Oct 2018 L'orientation scolaire et professionnelle 41/4 | 2012 Varia Diversité des expériences scolaires chez des collégien(ne)s scolarisés en 3e Variety of school experiences amongst 9th grade students Amélie Courtinat-Camps et Yves Prêteur Éditeur Institut national d'étude du travail et d'orientation professionnelle (INETOP) Édition électronique URL : http://osp.revues.org/3918 DOI : 10.4000/osp.3918 ISSN : 2104-3795 Édition imprimée Date de publication : 7 décembre 2012 ISSN : 0249-6739 Référence électronique Amélie Courtinat-Camps et Yves Prêteur, « Diversité des expériences scolaires chez des collégien(ne)s scolarisés en 3e », L'orientation scolaire et professionnelle [En ligne], 41/4 | 2012, mis en ligne le 07 décembre 2015, consulté le 02 octobre 2016. URL : http://osp.revues.org/3918 ; DOI : 10.4000/ osp.3918 Ce document a été généré automatiquement le 2 octobre 2016. © Tous droits réservés Diversité des expériences scolaires chez des collégien(ne)s scolarisés en 3e Diversité des expériences scolaires chez des collégien(ne)s scolarisés en 3e Variety of school experiences amongst 9th grade students Amélie Courtinat-Camps et Yves Prêteur Introduction 1 Alors que de nombreux travaux s'accordent à souligner que l'École ne fait plus système (Dubet & Martuccelli, 1996), qu'elle est sans cesse interpellée par les changements profonds affectant l'organisation sociale et productive (Charlot, 1987) et que finalement c'est le sens même de la scolarité qui est en jeu (Develay, 1996), interroger l'expérience scolaire de collégien(ne)s apparaît légitime. L'expérience collégienne ou lycéenne, est devenue plus composite et problématique qu'elle ne l'était auparavant, en raison de l'importance croissante prise par la sociabilité et la culture juvéniles ainsi que par les stratégies des élèves face à un système de sélection qui cristallise la hiérarchie des filières (Rochex, 2006). La massification scolaire a produit une diversification des objectifs scolaires (Dubet & Martuccelli, 1998). Dans cet univers disparate, les acteurs doivent recomposer et repenser leurs pratiques. 2 Pour de nombreux adolescents, l'institution scolaire n'est plus ni garante de l'avenir, ni synonyme d'excellence. Si pour certains, elle est vécue comme une chance, est source de satisfaction et fait l'objet d'un fort investissement, pour d'autres, elle ne représente qu'une obligation, un lieu sans attrait, où les expériences sont éprouvantes et constituent des mises à l'épreuve. Ces élèves ressentent alors des difficultés à donner du sens à l'école, à percevoir un réel intérêt dans leurs études et se désengagent de la sphère scolaire. Cette expérience scolaire, que chaque élève vit et se forge tout au long de sa scolarité, participe à la construction de son identité. Cette expérience est fondamentalement plurielle puisque le vécu subjectif est différent au regard de la multiplicité des facteurs – familiaux, scolaires, sociaux et personnels – en jeu (Le BastardLandrier, 2005). Dans ce contexte, l'objectif est de proposer une typologie L'orientation scolaire et professionnelle, 41/4 | 2015 1 Diversité des expériences scolaires chez des collégien(ne)s scolarisés en 3e multidimensionnelle d'expériences scolaires chez des collégien(ne)s scolarisé(e)s en classe de 3e, à partir de profils types élaborés à l'aide d'une démarche classificatoire informatisée. 3 Pour expliciter cet argument introductif et étayer notre positionnement, nous proposons dans un premier temps de définir les contours de la notion d'expérience scolaire. Nous développons ensuite l'intérêt de développer une approche qui prend en compte la singularité des adolescent(e)s, avant de formuler les objectifs inhérents à la recherche. La seconde partie présente la procédure et les résultats d'une étude empirique réalisée auprès de 677 collégien(ne)s scolarisé(e)s en 3e, en région Midi-Pyrénées. L'expérience scolaire des élèves : un champ de recherche relativement récent 4 La loi d'orientation de 1989 a marqué un tournant symbolique en affichant la nécessité de placer l'élève « au centre du système éducatif ». Si ce principe a été mis en cause au cours des deux dernières décennies, la place de l'élève a considérablement évolué (Cavet, 2009). Il est devenu un sujet pourvu de droits mais surtout un acteur, responsable de sa propre scolarité, investi d'un rôle puisque l'école attend de lui qu'il exerce son « métier d'élève ». Conjointement à ces transformations, la recherche va elle aussi placer l'élève au coeur de ses préoccupations et se met à interroger son « expérience scolaire ». La sociologie de l'éducation a longtemps négligé l'étude des acteurs scolaires, et plus particulièrement celles des élèves. Il faudra attendre les travaux de Dubet (1991, 1994) sur les lycéens et la promotion d'une « sociologie de l'expérience scolaire » pour que la façon dont les élèves élaborent des stratégies, des relations, des significations soit considérée. Il s'agit donc d'un domaine de recherche relativement récent. D'une sociologie de l'expérience scolaire 5 Fondé sur des enquêtes de terrain, le courant de recherche développé par Dubet (1991) propose une lecture sociologique des déterminants qui influencent la construction des enfants et adolescents en tant qu'élèves et le déroulement de leur scolarité. Cette approche fait notamment ressortir le poids des facteurs culturels qui caractérisent l'environnement familial et social de chaque élève et conditionne son accès à la culture scolaire ainsi que son appropriation (Cavet, 2009). Selon Dubet (1994), le concept d'expérience scolaire se structure autour de trois logiques d'action : l'intégration du sujet à différents groupes d'appartenance (au collège, le groupe de pairs devient essentiel) ; la stratégie ou capacité de faire des choix personnels au sein du système scolaire (la stratégie collégienne essentielle est celle de l'investissement scolaire et des choix d'orientation vers des filières et établissements plus ou moins rentables) et la subjectivation adolescente, c'est-à-dire la construction de soi. Dubet et Martucelli (1996) défendent l'hypothèse selon laquelle la subjectivation participe de l'expérience scolaire pour les meilleurs élèves, développant une capacité à distancier les jugements de l'institution ; or, ce serait l'inverse pour les élèves « en échec », puisqu'ils ne parviendraient pas à développer une estime d'eux-mêmes indépendante des jugements scolaires. Aussi, l'expérience scolaire serait le résultat d'un travail des acteurs sur euxmêmes visant la conciliation de ces trois logiques d'action contradictoires. En fonction de L'orientation scolaire et professionnelle, 41/4 | 2015 2 Diversité des expériences scolaires chez des collégien(ne)s scolarisés en 3e la façon dont les élèves parviendraient ou non à concilier ces logiques d'action, l'expérience scolaire se construirait selon des modalités très différentes : expérience de subjectivation participant à une individuation pour les uns, elle serait, pour d'autres, une expérience d'aliénation et de mise à l'épreuve de la personnalité (Fondeville, 2002). Selon Caillet (2008), l'expérience scolaire est bien sûr influencée par des déterminants tels que la position sociale, le parcours scolaire et l'âge de l'élève. Mais la cohérence des expériences scolaires résulte aussi des ressources internes à l'école, de son climat, de sa politique éducative, des relations pédagogiques, c'est-à-dire de sa capacité à réduire les tensions de l'expérience, tensions qui augmentent au fil de la progression de l'élève dans son parcours scolaire. 6 Sans rentrer dans le détail des différentes études menées par Dubet sur les modes d'élaboration de l'expérience lycéenne, nous pouvons considérer que deux portraits se dessinent, deux figures entre lesquelles oscille l'expérience scolaire des élèves, selon leur situation et l'évolution de leur parcours (Cavet, 2009) : • L'élève acteur de sa scolarité : Ce sont les élèves dotés d'un capital social et culturel important, qui parviennent facilement à construire leur expérience scolaire en se positionnant en tant que sujets, acteurs de leurs études. « Ces élèves savent pourquoi ils travaillent à l'école, ils sont en mesure d'établir un lien entre leurs investissements et les bénéfices escomptés, ils jouent le jeu d'une formation qui leur permettra de maintenir ou d'améliorer leur position sociale. Ils sont capables de se projeter dans l'avenir. Enfin, ces élèves adhèrent subjectivement au modèle culturel de leurs études », résume Dubet (2008). • L'élève étranger au jeu scolaire : À l'inverse, les élèves dont le bagage social et culturel est le plus faible éprouvent d'importantes difficultés à se construire une expérience scolaire positive. « Pour eux, la tension entre la culture juvénile et sociale d'une part, et le monde scolaire d'autre part, est irréductible. Souvent même, les élèves ne veulent pas "trahir" le groupe de pairs en "collaborant" avec la discipline scolaire » (op. cit.). Ces élèves sont progressivement confrontés au sentiment que les études ne servent à rien, sinon à repousser un avenir incertain et semé d'embuches. Ne pouvant concevoir l'utilité et le sens de la culture scolaire, ils la perçoivent comme étrangère et ne peuvent s'identifier à elle. Ce sentiment d'extériorité, ainsi que l'échec et la mise à l'écart qu'il produit dans l'espace scolaire viennent affecter ces élèves dans leur image de soi, ce qui les pousse à adopter deux types de stratégies en réaction. La première stratégie est celle du retrait : ces élèves se retirent du jeu scolaire. Ils n'ont plus d'attentes envers l'école, et le travail qu'ils y fournissent n'a d'autre enjeu que d'assurer leur maintien en son sein. L'école n'est plus qu'un décor. La seconde stratégie est celle de l'opposition au monde scolaire. En choisissant le conflit, ils se constituent contre l'institution scolaire, contre les enseignants perçus comme des ennemis, contre ceux qui leur font perdre la face. Une grande partie des violences antiscolaires s'explique de cette façon (Dubet, 2008). 7 L'intérêt des études de Dubet réside dans la conceptualisation de l'expérience lycéenne, qui permet la mise en évidence des effets de la transformation des conditions de scolarisation sur le rapport des élèves à leur scolarité (Fondeville, 2002). Pour autant, nous ne partageons pas toutes les analyses de cet auteur. En effet, si l'expérience scolaire se présente comme le jeu d'une activité de régulation opérée de façon active par les individus, il s'avère que « la nature des épreuves auxquelles ces derniers sont confrontés reste assujettie à la position qu'ils occupent dans la hiérarchie du système » (op. cit., p. 74). Même si nous partageons le point de vue de Dubet sur le fait que la subjectivation désigne un travail de l'acteur sur lui-même visant à faire face aux tensions que provoquent les L'orientation scolaire et professionnelle, 41/4 | 2015 3 Diversité des expériences scolaires chez des collégien(ne)s scolarisés en 3e logiques contradictoires de son expérience sociale, nous ne souhaitons pas réduire la source de ces divisions à une simple position sociale ou scolaire. Ce parti pris revient à sous-estimer le rôle actif du sujet dans la transformation de ses conduites et de ses milieux de vie. 8 De même, les analyses réalisées par Dubet l'ont conduit à négliger le rôle de l'expérience des apprentissages pour expliquer les modes d'élaboration de l'expérience scolaire. Bautier et Rochex (1998) ont justement reproché à Dubet de se focaliser uniquement sur le registre relationnel de l'expérience lycéenne et ce, sans en penser les liens avec les modes concrets de transmission et d'appropriation des savoirs, ce qui marque un désaccord net sur la définition même de l'objet de l'expérience scolaire. Pour ces auteurs, la fonction première de l'institution scolaire est d'assurer la transmission de savoirs savants aux jeunes générations et c'est ce qui spécifie, selon eux, l'expérience scolaire (Fondeville, 2002). à la notion d'expérience subjective : la question du sens au coeur du débat 9 Sans pour autant nier l'importance des travaux issus de la sociologie de l'expérience scolaire, notre angle d'analyse s'inscrit dans la perspective choisie par l'équipe ESCOL 1 (Bautier & Rochex, 1998 ; Charlot, Bautier, & Rochex, 1992 ; Rochex, 1995a, 1995b) pour étudier l'expérience scolaire des adolescents. Dans ce cadre théorique, il s'agit de comprendre la réussite ou l'échec scolaire, comme résultant des expériences d'individus, qui ont leur propre histoire personnelle, leur subjectivité, en lien avec un rapport au savoir2 et aux apprentissages singulier. Ce sont donc bien les activités d'apprentissage, dispensées par l'École, qui constituent l'objet premier de l'analyse de l'expérience scolaire des adolescents. 10 Sans reprendre leurs études dans le détail, nous souhaitons rappeler quelques résultats significatifs auxquels parviennent ces auteurs. Nous nous référons aux travaux de Charlot et al. (1992) et de Bautier et Rochex (1998) pour spécifier différents types de rapport au savoir. À partir de l'analyse de bilans de savoir rédigés par des collégiens scolarisés dans divers types d'établissements (ordinaires, Zone d'Éducation Prioritaire, professionnels). Charlot et al. (1992) mettent en exergue trois profils-types qui renvoient à la dimension identitaire du rapport au savoir. Le rapport identitaire au savoir renvoie à la question « Pourquoi apprendre ? ». Il correspond à la façon dont le savoir prend sens par référence à des modèles, à des attentes, à des repères identificatoires, à la vie que l'on veut mener, au métier que l'on veut faire (Bautier & Rochex, 1998). 11 Une première constellation représente plutôt des adolescents en difficulté, pour lesquels venir à l'école n'a que peu de sens au regard des savoirs qui s'y enseignent ou de son utilité sociale, ne serait-ce que pour se préparer à la vie active. Différentes formes de nonmobilisation scolaire sont alors repérables, certains collégiens se sentant totalement étrangers à ce qui se passe à l'école, d'autres semblant réduire l'école à sa fonction de socialisation. Dans ce dernier cas, le rapport à l'école est positif mais il ne s'agit pas d'un rapport au savoir manifeste, spécifié. Une deuxième constellation permet d'identifier des adolescents pour qui le sens de la scolarité s'élabore à partir d'un important désir de réussite future. Le jeune accepte de se prêter au jeu de l'apprentissage parce qu'il sait qu'il en retirera un bénéfice symbolique ou matériel, une utilité immédiate ou à plus long L'orientation scolaire et professionnelle, 41/4 | 2015 4 Diversité des expériences scolaires chez des collégien(ne)s scolarisés en 3e terme. Le sens que ces adolescents accordent à l'école et à leur scolarité ouvre souvent sur une forte mobilisation scolaire. Mais en même temps le « volontarisme » de ces derniers ne suffit pas toujours pour réussir scolairement : « Le problème est que ces adolescents, à l'exception d'une minorité, n'ont pas "compris" que cette fonction sociale de l'école (la préparation à la vie professionnelle) implique une médiation par une fonction culturelle et cognitive » (Bautier & Rochex, 1998, p. 78). De fait, ces seuls mobiles ne sont pas vraiment efficaces pour permettre une appropriation effective des savoirs enseignés. Enfin, une troisième constellation, caractéristique des « bons élèves », permet de repérer les adolescents pour qui l'apprentissage ne prend pas sens seulement au regard de l'avenir et de la valeur instrumentale des savoirs mais aussi parce qu'il permet de structurer sa vision du monde et d'élargir ses horizons. Le savoir fait sens en lui-même et occupe une place centrale dans l'existence du jeune. 12 Trois profils-types épistémiques sont également mis à jour. Le rapport épistémique au savoir répond aux questions : « Qu'est-ce que savoir ? Qu'est-ce qu'apprendre ? Apprendre c'est avoir quels types d'activités ? ». Avec la mise en avant de cette notion, le glissement épistémologique qui s'opère du rapport au savoir au rapport à l'apprendre 3 est identifiable. Dans la première constellation, caractéristique des élèves en difficulté, les savoirs apparaissent comme dépossédés de toute consistance en tant qu'entités intellectuelles. L'élève prototypique de cette constellation « évoque les apprentissages intellectuels et scolaires à travers des programmes, des comportements, des disciplines vécues comme formes institutionnelles plus que pensées comme corps de savoirs » (Bautier & Rochex, 1998, p. 148). Autrement dit, apprendre consiste à se soumettre à des procédures apparentées au « métier d'élève » qui n'ont que peu de lien avec les activités intellectuelles réellement sollicitées par les apprentissages dispensés. La deuxième constellation semble assez proche de la première, étant donné qu'ici aussi « apprendre c'est se rendre capable de maîtriser une situation » (op. cit., p. 149) et non pas s'approprier un objet intellectuel. Cependant, maîtriser une situation n'est pas ici « écouter le professeur et faire le programme » (op. cit.) mais plutôt « s'exprimer, s'organiser, penser, réfléchir » (op. cit.). La troisième constellation, représente des élèves (le plus souvent en réussite) pour qui apprendre ne consiste pas seulement à se conformer à des attitudes et des comportements relevant de l'exercice d'un « métier d'élève », c'est aussi et surtout mettre en oeuvre des activités intellectuelles et s'interroger sur le sens des contenus appris et des disciplines enseignées. 13 Les travaux sur l'expérience scolaire tentent donc d'interroger le sens que les élèves donnent à leur scolarité, leur rapport à l'institution scolaire, leur manière de s'y adapter ou de s'y opposer (Cavet, 2009). Plusieurs types d'opérationnalisation sont utilisés pour appréhender cette notion d'expérience scolaire. Par-delà les enquêtes extensives par questionnaire, le recours à des enquêtes qualitatives – à travers le travail biographique ou les histoires de vie (Pineau, 2005) – les entretiens avec des élèves, les autoportraits (L'Ecuyer, 1990 ; Courtinat-Camps, Villatte, Massé, & de Léonardis, 2011) ou encore les bilans de savoir (Charlot, Bautier, & Rochex, 1992 ; Courtinat-Camps, de Léonardis, & Prêteur, 2011), signe la prise en compte de la parole de l'élève ainsi que leur capacité de réflexion sur eux-mêmes (par la méthode d'auto-confrontation4 ou l'intervention sociologique5). Désormais, une place de plus en plus importante est accordée aux sentiments des élèves, à leurs arguments et justifications ainsi qu'aux récits par lesquels s'expriment leurs expériences (Cavet, 2009). L'orientation scolaire et professionnelle, 41/4 | 2015 5 Diversité des expériences scolaires chez des collégien(ne)s scolarisés en 3e Problématique de recherche 14 Nous adoptons une posture épistémologique et méthodologique qui permet d'approcher le sens que les élèves accordent à leur scolarité mais également la singularité de ces élèves, dans la mesure où chacun se construit comme singulier, porteur d'une histoire, dans un contexte familial et social. La question du sens mais aussi celle de la singularité sont donc au coeur de notre recherche. Cette singularité du sujet apprenant est un processus et non pas un état. Un des enjeux réside dans le dépassement d'une explication causale se bornant à mettre l'accent sur les seuls éléments objectifs pour expliquer les avatars de la scolarité. Il importe de prendre en compte à la fois les conditions externes de la scolarité et ce qui, sur le versant subjectif, amène le sujet à se mobiliser (de Léonardis, Capdevielle-Mougnibas, & Prêteur, 2005). Il s'agit de saisir parmi les modes d'interprétation et d'attribution du sens que les élèves donnent à leur scolarité et à leur travail, ce qui apparaît de nature à leur faciliter ou à leur rendre plus difficile l'engagement scolaire. Cette question est au coeur de l'expérience scolaire. La signification est liée à ce que l'élève pense apprendre au contact des activités scolaires. Aussi, l'abord du sens de l'expérience scolaire ouvre la voie vers une analyse qui permet d'articuler la dimension objective de la scolarité, renvoyant aux performances scolaires et à l'ensemble des indicateurs communément associés à la démobilisation scolaire (absentéisme, moyenne scolaire, etc.) à une dimension plus subjective renvoyant au sens que le sujet, produit et auteur d'une histoire, accorde à sa scolarité, à son parcours scolaire, aux savoirs, à son statut d'élève et à ses projets. L'expérience scolaire « se situe donc à l'interface d'une histoire biographique et d'un contexte scolaire » (Rochex, 1995a, p. 39). 15 Nos recherches (Laboratoire Psychologie du Développement et Processus de Socialisation) privilégient le modèle de l'interstructuration de la socialisation et de la personnalisation. Il s'agit d'appréhender « l'interconstruction et le rôle des processus cognitifs, socio-affectifs, axiologiques, mobilisés en réponse aux conflits de sollicitations et d'influences que le sujet a vécus au cours de son histoire, dans ses participations à une pluralité de milieux, dans ses tentatives pour évaluer les voies d'un développement susceptible de former en lui des capacités à "faire face" à des situations problématiques et anxiogènes mais aussi à imaginer des manières d'agir, de se projeter, de se reconnaître et de se faire reconnaître dans une ou plusieurs formes identitaires subjectives » (Beaumatin, Baubion-Broye, & Hajjar, 2010, p. 49). 16 Dans une posture théorique, interactionniste et psychosociale, où le sujet est acteur de son développement, auteur de sa propre expérience de vie et créateur de sens dans ses différents milieux, l'expérience scolaire est personnelle et sociale, relevant d'une interaction entre le sujet et le(s) groupe(s) (famille, école, pairs) dans une adaptation réciproque et constructive. 17 L'originalité de ce travail réside dans la posture méthodologique adoptée car rares sont les recherches qui s'attachent à étudier les représentations des adolescents au sujet de l'accompagnement scolaire parental (Bergonnier-Dupuy, 2005). 18 Nous adoptons une approche multidimensionnelle car elle permet une connaissance dialectique et fine des différentes variables susceptibles de participer à l'expérience scolaire. Même si l'intérêt d'une approche par typologie semble faible, eu égard à la complexité des processus en jeu (Esterle-Hedibel, 2006), elle permet toutefois d'apporter un éclairage intéressant et novateur sur le phénomène, et de mettre en exergue une hétérogénéité de profils, qui ne doivent jamais cacher des histoires singulières. En effet, L'orientation scolaire et professionnelle, 41/4 | 2015 6 Diversité des expériences scolaires chez des collégien(ne)s scolarisés en 3e la vérité d'un phénomène social résulte certes de catégories « objectives » socialement construites, mais également du sens que donnent les sujets aux événements et aux actes (Blaya, 2010). Ce qui nous intéresse ici, ce sont les processus qui contribuent à construire l'histoire personnelle, familiale et scolaire de l'élève, et à conférer du sens à cette histoire pour le jeune lui-même (Charlot & Rochex, 1996). Objectifs 19 Il s'agit ici d'éviter tout réductionnisme dans l'étude de l'expérience scolaire de jeunes collégien(ne)s. Dans ce cadre, expérience sociale et expérience scolaire entretiennent des rapports dialectiques où l'apprentissage et la socialisation sont indissociables. Trois axes relationnels structurent l'expérience scolaire des élèves : l'axe élève-enseignant ; l'axe élève – groupe de pairs et l'axe élève-famille. Ces axes contribuent au travail de signification de sa scolarité, des savoirs enseignés où apprendre met perpétuellement à l'épreuve l'apprenant comme sujet et comme rapport à un ou à des autrui significatifs (Jellab, 2001). Par conséquent, nous proposons une analyse du jeu complexe des rapports dialectiques entre déterminants socio-biographiques et familiaux, trajectoires scolaires et rapport à l'avenir pour comprendre comment le sens de l'expérience scolaire se forme et se transforme. Pour éviter à l'inverse tout effet d'atomisation descriptive, nous choisissons une méthode de traitement de l'ensemble de ces données permettant la construction de profils-types. Plus spécifiquement, nous souhaitons identifier différents profils d'expériences scolaires au collège, en considérant les rôles conjugués du contexte de scolarisation (filière, public/privé), du parcours scolaire (avance, retard), de certaines caractéristiques socio-biographiques et culturelles (âge, genre, fratrie, niveau d'études des parents, professions des parents, langue parlée à la maison, type de structure familiale, etc.), et de la socialisation familiale (relations aux parents et soutien éducatif parental perçu par ces collégiens). En étudiant simultanément l'histoire familiale, les parcours scolaires, les relations de sociabilité, il s'agit de dépasser la recherche de l'élément déterminant ou la construction de types explicatifs qui s'opposeraient : la famille versus le groupe de pairs versus l'école (Millet & Thin, 2003). Méthode Participants 20 La présente recherche concerne des élèves de 3e, à la fois classe « bilan » et classe épreuve avec l'examen du brevet. Le choix de mener l'étude auprès de collégien(ne)s n'est pas un hasard. D'abord, le collège marque l'entrée dans un univers institutionnel plus complexe que l'école élémentaire. Ensuite, les études perdent de leur évidence et les classements scolaires sont de plus en plus « stigmatisant ». L'intériorisation de l'obligation du travail scolaire, érigée par la famille et l'école, a moins d'emprise sur des adolescents qui commencent à affirmer une certaine distance par rapport à l'adulte. Enfin, au collège, se consolide une culture adolescente (Bajoit, 2010), antinomique ou parallèle à la culture scolaire (Dubet & Martucelli, 1998). Au collège, les relations sociales gagnent en importance et les cultures juvéniles peuvent entrer en tension – voire en contradiction – avec les normes et exigences scolaires (Millet & Thin, 2003). Dubet et Martucelli (1996) L'orientation scolaire et professionnelle, 41/4 | 2015 7 Diversité des expériences scolaires chez des collégien(ne)s scolarisés en 3e montrent bien comment l'expérience collégienne est souvent vécue comme une épreuve face à cette dualité école/ pairs. 21 La participation des élèves a eu lieu après autorisation écrite préalable des parents. Les établissements qui ont accepté de participer à cette recherche ont été sélectionnés de façon aléatoire et non sur des critères spécifiques. L'échantillon d'étude est composé de 677 collégien(ne)s scolarisé(e)s en 3e, rencontré(e)s dans 15 établissements publics (81 %) et privés (19 %) de Midi-Pyrénées. Ils sont âgés de 13 à 17 ans (M = 14,8 ; ET = 0,74). Les garçons sont plus représentés dans notre échantillon : 387 pour 290 filles. Par ailleurs, notre échantillon est plutôt surreprésenté par la catégorie des parents occupant des emplois peu qualifiés (57,5 % des mères et 60,5 % des pères). 38 % des mères et 44 % des pères ont un faible niveau d'études. Près de 18 % sont de nationalité étrangère. 75 % de ces collégien(ne)s fréquentent une filière générale, 8 % la filière technique et 17 % une filière spécialisée (Section d'Enseignement Général et Professionnel Adapté, insertion, professionnelle). Instrument 22 Les données ont été rassemblées, collectivement par classe, à la fin du deuxième trimestre, par le biais d'un questionnaire auto-administré intitulé « Les jeunes, l'école et leur avenir ». La construction du questionnaire est à la fois inspirée de certaines rubriques de l'instrument élaboré par le ministère de l'Éducation du Québec (1991) « L'école ça m'intéresse » et adapté par Dupont et Leclercq (1998), la rubrique relative à la valeur accordée à l'école est issue d'une thèse de Doctorat (Levesque, 2001) et les autres rubriques sont reprises de l'étude de Prêteur, Constans et Féchant (2004). Ce questionnaire, composé de 112 items, comporte 9 rubriques : • Parcours scolaire : il s'agit de recueillir des éléments relatifs au curriculum. Cette dimension rassemble des éléments d'information sur les éventuels redoublements et les classes concernées, la moyenne générale obtenue en 3e, etc. • Orientation et projets : les items renvoient à la satisfaction personnelle du jeune à l'égard de son orientation, à celle qu'il perçoit chez chacun de ses parents, à ses aspirations scolaires et professionnelles (par exemple, vers quelle filière penses-tu être orienté l'année prochaine ? Es-tu satisfait de ton orientation ? Es-tu confiant dans ton passage en classe supérieure ? Jusqu'où penses-tu poursuivre tes études ? Te sens-tu prêt actuellement à exercer un métier ? As-tu une idée de ton futur métier ? etc. • Vécu au collège : les items concernent le fait d'aimer aller à l'école, l'absentéisme, les retards répétés, les attentes à l'égard du collège, le type de difficultés rencontrées au collège (exemples d'items : au niveau du travail, je fais juste ce qu'on me demande ; quand je suis au collège, je me demande parfois ce que je fais ; je me sens souvent seul ; je peux éprouver du plaisir à aller en cours ; je peux éprouver du plaisir à réaliser certains travaux scolaires ; je me sens découragé ou bloqué face à certains apprentissages ; je ne comprends pas ce que les enseignants attendent de moi ; j'ai hâte de terminer mes études car plus vite ce sera fini, mieux ça ira ; j'ai l'impression que mes professeurs ne me comprennent pas ; j'ai l'impression que mes parents se désintéressent de ma scolarité, etc.). • Rapport à l'école : cette rubrique concerne l'implication scolaire de l'élève, le plaisir à aller en cours (exemple : Aimes-tu aller au collège ?), à s'investir dans les tâches scolaires mais également la sphère relationnelle (relations aux camarades de classe ; aux enseignants). L'orientation scolaire et professionnelle, 41/4 | 2015 8 Diversité des expériences scolaires chez des collégien(ne)s scolarisés en 3e • Valeur accordée à l'école : cette rubrique issue de Levesque (2001) comporte 20 affirmations (items), dont les réponses se présentent sous la forme d'une échelle de type Likert en 4 points, allant de « faux » (1) à « vrai » (4), en passant par « plutôt faux » (2) et « plutôt vrai » (3). Les items se divisent en deux catégories : 10 items renvoient à la valeur sociale6 de l'école et 10 items concernent la valeur scolaire7. Nous obtenons donc deux scores partiels allant de 10 à 40. La valeur sociale renvoie à l'importance des relations sociales qui occulte la question du savoir et à la constellation études-diplômes-travail sans référence au savoir. La valeur scolaire renvoie, quant à elle, à l'importance du savoir et des apprentissages intellectuels et scolaires, à un rapport épistémique au savoir. • Rapport à l'apprendre : cette rubrique est composée d'items relatifs au plaisir d'apprendre et aux différentes formes de l'apprendre. Des analyses psychométriques ont conduit à un travail de sélection et de répartition des items composant cette dimension « qu'est-ce qu'apprendre »8. Suite à cette analyse, nous proposons la sélection de 12 items renvoyant à deux dimensions9 de rapport à l'apprendre (épistémique et identitaire). Les indices de consistance interne obtenus sont satisfaisants : rapport épistémique à l'apprendre (6 items : a = .73) et rapport identitaire à l'apprendre (6 items : a = .75). Nous obtenons deux scores partiels (allant de 6 à 24). • Relations avec les parents : cette rubrique comporte 10 items 10 dont les réponses se présentent sous la forme d'une échelle de Likert en 4 points, allant de tout à fait en désaccord (1) à (4) tout à fait d'accord. • Soutien familial perçu : cette rubrique est composée de 6 items 11 dont les réponses se présentent sous la forme d'une échelle de Likert en 4 points, allant de jamais (1) à (4) très souvent. Nous ne nous intéressons pas aux pratiques parentales en elles-mêmes mais bien à la façon dont les adolescents ressentent et perçoivent cette implication parentale (soutien perçu) : nous sommes donc précisément du côté des représentations que se font les adolescent(e)s à propos de l'investissement de leurs parents pour leur scolarité. • Informations socio-biographiques sur l'élève et sa famille : cette dernière rubrique spécifie le sexe, l'âge, la composition de la fratrie, la ou les langue(s) parlée(s) à la maison, la cote sociale des parents (combinant les niveaux d'études et les professions des parents), le secteur de scolarisation (public/privé) et la filière fréquentée (générale, technique, spécialisée). Construction de la dimension de climat relationnel familial perçu 23 Cette dimension a été construite à partir des 16 items relatifs aux relations entretenues avec les parents et au soutien familial perçu. Méthode de classification appliquée 24 Afin de réduire le nombre des observations tout en les structurant, nous avons effectué une Classification Hiérarchique (CH) (Evrard, Pras, & Roux, 2003). Celle-ci permet de produire des suites de partitions en classes emboîtées. Nous avons opté pour un processus hiérarchique ascendant regroupant pas à pas les sujets, à partir de la méthode de Ward 12 qui retient les groupements qui sont les plus distincts et qui maximisent la variance intergroupe. Afin de rendre comparable les unités originales ayant servi à mesurer chacune des variables étudiées nous avons utilisé des variables centrées réduites (Evrard L'orientation scolaire et professionnelle, 41/4 | 2015 9 Diversité des expériences scolaires chez des collégien(ne)s scolarisés en 3e et al., 2003). Les données ont donc été standardisées par des valeurs-étalon (z) au cours de la classification. Enfin, nous avons sélectionné la partition la plus pertinente et testé la validité de la typologie obtenue en effectuant une Analyse Discriminante (AD) pas à pas (Kinnear & Gray, 2005). L'AD montre qu'une partition en 4 classes est celle qui permet d'ordonner de manière optimale nos observations originales (87 % d'entre elles sont correctement classées). Description des classes issues de la typologie 25 Pour interpréter les classes issues de la CHA, nous avons opéré un croisement des variables initiales avec les 4 classes issues de l'analyse. Aussi, des tableaux croisés, associés à des tests du Khi2 de Pearson (Kinnear & Gray, 2005), entre chacune des variables initiales et la variable de classification (comprenant 4 modalités) ont été réalisés. Cette analyse permet de mettre en évidence les modalités caractéristiques ([surreprésentation de modalité(s)] de chacune des classes). 26 La classe 1 (n = 93 ; absence de soutien parental, situation de désaffiliation familiale) représente les collégien(ne)s qui éprouvent le sentiment de ne pas être du tout soutenu (e)s par leurs parents, aussi bien sur le versant scolaire que pour les activités de loisir. Ils ressentent un manque de communication au sein de leur famille : leurs parents ne prennent pas le temps de parler avec eux, ni de discuter de leurs orientations, projets scolaires et professionnels. Ces collégien(ne)s sont en situation de désaffiliation familiale car ils expriment, vis-à-vis de leur famille, une perception négative témoignant d'un vécu difficile (Demerval, Cartierre, & Coulon, 2003). 27 La classe 2 (n = 55 ; climat familial positif mais soutien parental modéré) est composée de collégien(ne)s qui témoignent d'un soutien parental modéré, relatif sur le versant scolaire mais important en ce qui concerne les activités de loisir. Ils évoquent un climat familial malgré tout positif, avec des parents qui aident dans les devoirs et qui sont impliqués dans la vie de leur enfant (connaissent les amis, réservent du temps pour parler avec lui, font des activités intéressantes en famille). Néanmoins, ces collégien(ne)s ont le sentiment que leurs parents ne leur permettent pas de faire des projets d'activités qu'ils désirent pratiquer. Enfin, ils rapportent ne pas recevoir beaucoup d'encouragements et/ ou de félicitations de leur part. Les parents caractéristiques de cette classe apportent donc peu de soutien affectif à leur enfant (sous forme d'encouragements et de compliments) et seraient parfois trop contrôlants, réduisant ainsi la prise d'initiatives et d'autonomisation des jeunes. 28 La classe 3 (n = 278 ; climat familial relativement positif mais manque d'engagement parental) est constituée d'adolescent(e)s qui disent entretenir des relations familiales relativement positives. Leurs parents les encouragent mais ces adolescent(e)s rapportent un manque de communication au sein de la famille. Malgré tout, les parents semblent être du côté de l'autonomisation ou de l'indépendance (ils encouragent leur enfant à avoir ses idées), peut-être parce que ça les dispense de s'impliquer. En effet, les jeunes rapportent une absence d'implication dans les activités de loisir. Ils mentionnent ne pas faire d'activités intéressantes en famille et ne pas avoir de temps pour parler avec leurs parents. Enfin, l'aide parentale aux devoirs est irrégulière. Cette classe reflète donc un certain manque d'engagement parental dans l'univers de leurs enfants, comme si leurs mondes étaient séparés. Cette classe n'est pas sans rappeler les familles du type « parallèle » (Kellerhals, Montandon, Ritschard, & Sardi, 1992), caractérisées à la fois par L'orientation scolaire et professionnelle, 41/4 | 2015 10 Diversité des expériences scolaires chez des collégien(ne)s scolarisés en 3e l'autonomie et la fermeture. À l'intérieur de la famille, chacun a ses territoires, les rôles sont très différenciés et les activités ne sont pas communes, les domaines d'intérêts ne se recoupent pas. 29 Enfin, la classe 4 (n = 251 ; climat familial très positif, des parents soutenants, encouragements à l'autonomie) regroupe les adolescent(e)s qui ont le sentiment de pouvoir compter sur leurs parents, d'être soutenu(e)s en toutes circonstances, encouragé (e)s et aidé(e)s dans leurs études et dans leurs activités sociales et de loisir. Le climat familial est très positif et soutenant et les parents favorisent l'autonomisation de leur enfant. Cette classe peut s'apparenter à un milieu familial démocratique, caractérisé par un niveau élevé d'encadrement parental, d'engagement et d'encouragement à l'autonomie. Résultats : analyse multivariée des formes de (dé)mobilisation scolaire Méthode de classification appliquée 30 Nous avons adopté une démarche d'analyse multivariée qui permet de prendre en compte l'ensemble des dimensions étudiées. Nous avons analysé les réponses au questionnaire à l'aide d'une Classification Hiérarchique Descendante (CHD) réalisée avec le logiciel Alceste13 (Reinert, 1983). Il s'agit d'une méthodologie visant à mettre en évidence les points communs et les différences qui caractérisent les réponses des sujets. Ce modèle d'analyse multivariée permet de prendre en compte les aspects qualitatifs de variables nominales et ordinales. 31 Après un tri à plat et un examen approfondi de la répartition des réponses des sujets, 44 variables actives [autoévaluation du parcours et des résultats scolaires (11 items) ; orientation et projets (10 items) ; vécu au collège (8 items) ; rapport à l'école (10 items) ; valeurs scolaire et sociale accordées à l'école (2 scores) ; indices de rapport épistémique et identitaire à l'apprendre (2 scores) ; apprendre est un plaisir (1 item)] et 13 variables illustratives (âge, sexe, filière, type d'établissement, statut scolaire, nombre frères/ soeurs, type de famille14, profil familial, profession père, profession mère, niveau d'études père, niveau d'études mère, langue parlée à la maison) ont été prises en compte dans l'analyse. La technique consiste à répartir dans un premier temps l'ensemble des sujets et des indicateurs de variables en deux classes les plus contrastées possibles. Ces deux profils initiaux se spécifient ensuite en plusieurs profils terminaux. Les classes (ou profilstypes) regroupent les sujets en fonction de la ressemblance de leur profil par rapport à l'ensemble des indicateurs utilisés (ici les 44 variables actives). 32 Dans un deuxième temps, leur sont associées les variables illustratives15 (tels que les éléments socio-biographiques). L'analyse nous indique pour chaque trait le nombre de sujets qui le possède et qui se situent dans la classe considérée, le nombre d'occurrences de ce trait dans la population globale et une valeur du Khi2 (à un ddl ; p < .05) qui exprime l'importance relative de chaque trait dans la définition du profil. Le Khi 2 est calculé sur la base d'un tableau de contingence à quatre cases croisant présence/absence de l'indicateur avec l'appartenance de la classe. Ces coefficients servent ici uniquement d'indices de liaison et ne peuvent être interprétés comme révélant la probabilité d'un lien. Cette technique permet donc de mettre en exergue une typologie des réponses soit L'orientation scolaire et professionnelle, 41/4 | 2015 11 Diversité des expériences scolaires chez des collégien(ne)s scolarisés en 3e des « profils-types » qui apparaissent corrélés à un ensemble d'individus caractérisés par certaines variables illustratives. Chaque sujet ne présente évidemment pas l'ensemble des traits définissant la classe à laquelle il appartient. Il convient alors de raisonner davantage en matière de sujets « théorico statistiques » ne correspondant pas forcément à des sujets « individuels ». 33 La CHD a été réalisée sur 633 sujets (93,5 % de l'échantillon) : 44 sujets présentant des cooccurrences de réponses trop hétérogènes (en fonction des critères statistiques du logiciel) ont été éliminés. Elle a permis de dégager quatre profils qui se distinguent par des formes d'expériences scolaires différenciées : Figure 1. Dendogramme de la CHD Figure 1. Profile typology Description des profils issus de la typologie 34 Le premier profil (33,5 % de l'échantillon d'étude) caractérise les sujets les plus mobilisés sur les apprentissages et très soutenus par les parents. 35 Les variables illustratives qui définissent ce profil type soulignent que ce sont plutôt des élèves jeunes (13-14 ans), scolarisés en filière générale/technique et qui sont à l'heure dans leur cursus. La mère exerce une activité professionnelle qui la situe parmi les couches supérieures. Cette classe est associée au profil familial 4, caractéristique des parents soutenant sur le plan éducatif et (extra)scolaire. Ce sujet prototypique obtient une moyenne générale satisfaisante et indique ne pas sécher les cours. Autant lui que ses parents sont satisfaits de ses résultats. Il a le sentiment que c'est en classe de 4 e qu'il a le moins travaillé. Malgré tout, il indique que c'est la classe de 6e qui a été la plus réussie. 36 Cet élève témoigne d'un rapport positif à l'école et à l'apprendre : il aime aller au collège, éprouve du plaisir à réaliser certains travaux scolaires, ne se demande pas ce qu'il fait au collège et tend à développer un rapport identitaire à l'apprendre16 très positif. Néanmoins, il considère que ce qui est le plus difficile au collège, c'est l'emploi du temps trop chargé. L'école est pour lui synonyme, en premier lieu, de « travail » et d'« apprentissage, de savoirs et de connaissance », puis de « métier et d'avenir ». En mettant l'accent sur l'intérêt suscité par l'acquisition de connaissances, de savoirs, par l'appropriation d'objets intellectuels, ce sujet nous laisse à penser que pour lui l'objet de L'orientation scolaire et professionnelle, 41/4 | 2015 12 Diversité des expériences scolaires chez des collégien(ne)s scolarisés en 3e savoir a du sens et de la valeur en soi. Il accorde à l'école une valeur scolaire très positive, tandis que sa valeur sociale est plus modérée, voire même négative, ce qui pourrait être le reflet de certaines difficultés d'intégration sociale à l'école. 37 Cette connivence avec l'école l'incite à poursuivre ses études au-delà du baccalauréat. Il se dit satisfait de son orientation et apparaît confiant pour son passage en classe supérieure. Néanmoins, il ne se sent pas prêt à exercer un métier. Ses parents sont satisfaits de son travail scolaire et de son orientation et lui accordent la possibilité d'exprimer librement la filière de son choix. Dans ce contexte, ce qu'il attend du collège, c'est d'abord d'acquérir des connaissances. Si l'on rapproche ce dernier point avec la manifestation d'une valeur sociale modérée, cette conjonction semble traduire le sentiment 38 Tableau 1.Profil 1 : un(e) collégien(ne) mobilisé(e) à l'école et dans les apprentissages, soutenu(e) par ses parents (n = 212 : 33,5 %) Effectif Effectif global % χ2 classe Variables illustratives Âge : 13-14 ans 226 91 40,3 7.24 Statut scolaire : âge normal 335 125 37,3 4.67 Filière générale / technique 527 191 36,24 10.70 60 30 50,24 8.11 236 89 37,70 3.91 Profession de la mère : très favorisée Profil familial 4 : (climat familial très positif, des parents soutenants, encouragements à l'autonomie) Variables actives L'orientation scolaire et professionnelle, 41/4 | 2015 13 Diversité des expériences scolaires chez des collégien(ne)s scolarisés en 3e Moyenne générale satisfaisante 158 69 43,70 9.80 Ne sèche pas les cours 521 184 35,30 4.40 Résultats d'après toi : satisfaisants 327 125 38,20 6.81 Résultats d'après tes parents : satisfaisants 282 113 40,10 9.88 Au collège, se demande parfois ce qu'il fait : faux 354 133 37,60 6.00 Éprouve du plaisir à réaliser certains travaux scolaires 494 182 36,80 11.34 Aime aller au collège 365 133 36,40 3.84 Valeur scolaire accordée à l'école : très positive 159 67 42,10 7.13 Valeur sociale accordée à l'école : 164 65 39,60 3.95 75 34 45,33 5.36 Classe la moins réussie : 6 e 184 73 39,70 4.45 Classe la moins travaillée : 4 e 358 132 36,90 4.23 Attentes à l'égard du collège 1 : 264 100 37,90 3.91 acquérir des connaissances 142 60 42,20 06.31 Ce qui est le plus difficile au collège 1 : 137 60 43,80 08.33 emploi du temps trop chargé 44 29 65,90 22.31 Mot synonyme d'école 1 : 90 40 44,40 05.65 – apprendre, savoir, connaissances 51 32 62,70 21.31 – travailler 74 34 45,90 05.84 362 134 37,00 04.72 – métier/avenir 551 197 35,70 09.77 – relations sociales (amitié, amour) 401 145 36,20 03.90 502 187 37,30 15.39 – apprendre, savoir, connaissances 294 114 38,90 06.88 – relations sociales 539 201 37,30 23.53 509 197 38,70 31.69 464 172 37,10 09.99 négative à modérée Mot synonyme d'école 2 : Mot synonyme d'école 3 : Orientation l'année prochaine : 2 nde générale/ technique/redoublement Avis qui compte dans son orientation Confiant pour passage dans classe supérieure Poursuite des études : Bac ou plus Pas prêt à exercer métier Satisfaction personnelle par rapport à orientation : oui Satisfaction mère par rapport à orientation : oui Satisfaction père par rapport à orientation : oui 39 Notes. 40 – Variables actives : identification des items correspondants. 41 – Effectif global : effectif de la modalité pour la totalité des classes. 42 – Effectif par classe : effectif de la modalité pour la classe décrite. 43 – % : % de présence de la modalité par classe. L'orientation scolaire et professionnelle, 41/4 | 2015 14 Diversité des expériences scolaires chez des collégien(ne)s scolarisés en 3e 44 45 – χ2 : χ2 d'association de la modalité à la classe. Il convient d'appliquer le principe de « double proportionnalité » (effectifs globaux et effectifs par classe) pour bien comprendre que certains traits considérés comme « rares » peuvent néanmoins être caractéristiques d'un profil. Table 1. Profile 1. A pupil with a positive school experience, supported by their parents 46 d'une trop faible participation à des réseaux sociaux et groupes amicaux de pairs et l'expression d'une certaine frustration dans ce domaine de sa sociabilité hors de la famille. 47 Le deuxième profil (20,5 % de l'échantillon d'étude) regroupe des collégiens qui se particularisent par un rapport relativement négatif à l'école. Il s'agit d'un élève prototypique scolarisé en filière générale et/ou technique. Ce profil n'est pas caractérisé par une forme de socialisation familiale particulière. 48 Même s'il indique que ses parents jugent ses résultats scolaires très satisfaisants, ce sujet avoue par ailleurs sécher les cours. Ce qui semble le plus difficile au collège est le manque d'amis. On perçoit ici l'évocation de certaines difficultés d'intégration sociale au sein de l'école, laissant transparaître peut-être un mal-être relationnel. L'école est pour cet élève synonyme d'évaluation et d'examen mais aussi d'émotions négatives (tristesse, déprime, etc.). 49 Ces parents semblent satisfaits de son orientation, il(elle) envisage d'aller en 2 nde générale et/ou technique l'année prochaine. Dans son futur métier (qu'il(elle) avoue ne pas être prêt(e) à exercer), il(elle) espère s'épanouir dans son travail et gagner de l'argent. 50 Nous percevons les difficultés de ce(cette) collégien(ne) à concevoir l'école comme le théâtre d'une socialisation essentielle entre pairs, ce qui ne lui permet pas de l'investir comme un lieu où il Tableau 2. Profil 2 : un élève en mal-être et en situation de désaffiliation horizontale (n = 129 : 20,5 %) Effectif Effectif global classe 527 116 % χ2 Variables illustratives Filière générale / technique Variables actives L'orientation scolaire et professionnelle, 41/4 | 2015 22.0 5.17 15 Diversité des expériences scolaires chez des collégien(ne)s scolarisés en 3e Sèche les cours 107 29 27,1 3.59 56 17 30,4 3.87 Classe la plus réussie : 6 e 165 43 26,1 4.44 Classe la plus travaillée : 6 e 146 41 28,1 6.94 Attentes à l'égard du collège 1 : rencontrer des amis 26 15 57,7 23.26 Mot synonyme d'école 1 : émotions négatives 95 29 30,5 (tristesse, déprime, stress) 28 14 50 15.84 Mot synonyme d'école 2 : 71 22 31 5.54 – évaluation 35 12 34,3 4.42 – émotions négatives 63 20 31,7 5.57 Mot synonyme d'école 3 : 362 90 24,9 10.47 – règles, éducation, interdits, valeurs 294 72 24,5 5.72 – émotions négatives 247 62 25,1 5.57 Orientation l'année prochaine : 2 nde générale/ 299 81 27,1 15.73 technique/redoublement 509 113 22,2 5.31 Pas prêt à exercer métier 464 108 23,2 8.99 Résultats d'après tes parents : très satisfaisants 7.09 Attentes à l'égard du métier (1) s'épanouir dans son travail (2) gagner de l'argent Satisfaction mère par rapport à orientation : oui Satisfaction père par rapport à orientation : oui Table 2. Profile 2. A pupil with a challenging, uneasy, school experience, isolated from peers 51 peut s'épanouir et vivre des expériences positives. L'école est perçue comme un contexte évaluatif, normatif, sources de contraintes et ne représente pas forcément un lieu de convivialité et de sociabilité où les relations interpersonnelles peuvent concourir à l'établissement d'une culture scolaire favorisant l'appropriation du savoir. 52 Le troisième profil (20,5 % de l'échantillon d'étude) caractérise plutôt une collégienne. Cette adolescente, inscrite dans une filière générale et/ou technique, est issue d'un milieu favorisé/très favorisé. La Tableau 3. Profil 3 : un élève avec un projet scolaire ambitieux malgré un rapport externalisé à l'école (n = 130 : 20,5 %) Effectif Effectif global Variables illustratives L'orientation scolaire et professionnelle, 41/4 | 2015 classe % χ2 16 Diversité des expériences scolaires chez des collégien(ne)s scolarisés en 3e 23,9 3.82 Fille 276 66 Filière générale / technique 527 123 23,3 15.15 Niveau d'études du père : très favorisé 150 46 30,7 12.36 Niveau d'études de la mère : très favorisé 144 38 26,4 3.91 Profession de la mère : favorisée 175 45 25,7 3.97 Profession du père : très favorisée 107 30 28,1 4.44 Langue française parlée à la maison 518 114 22,1 3.88 Profil familial 3 : (climat familial relativement 261 64 24,5 4.32 Pas d'absences et retards 493 110 22,3 4.30 Résultats d'après toi : insatisfaisants 209 54 25,8 5.37 N'éprouve pas de plaisir à réaliser 132 37 28,1 5.74 certains travaux scolaires 173 45 26,1 4.37 Ce qui est le plus difficile au collège (2) : 46 26 56,5 39.36 certaines matières trop difficiles 43 15 34,9 Mot synonyme d'école 2 : 35 15 42,9 11.31 – règles, éducation, interdits, valeurs 362 86 23,8 5.37 – travailler 551 120 21,8 4.02 Mot synonyme d'école 3 : règles, éducation, interdits, valeurs 502 112 22,3 4.68 positif mais manque d'engagement parental) Variables actives Orientation l'année prochaine : 2 nde générale /technique/redoublement 5.82 36 23 63,9 43.96 76 30 39,5 18.98 Avis qui compte dans son orientation Poursuite des études : Bac ou plus Satisfaction personnelle par rapport à orientation : NR Satisfaction mère par rapport à orientation : NR Table 3. Profile 3, A pupil with scholastic ambitions despite experiencing school as externally imposed 53 langue parlée à la maison est le français. Le profil familial associé à cette classe est celui de parents peu soutenants sur le plan extrascolaire. 54 Cette adolescente juge ses résultats scolaires insatisfaisants. Elle n'accumule pas les absences et retards au collège. Pourtant, elle développe un rapport externalisé à l'école : elle n'éprouve pas de plaisir à réaliser certains travaux scolaires, peut-être en raison de la difficulté de certaines matières. Ce sujet prototypique donne l'impression de vivre l'école comme une contrainte (insatisfaction). 55 L'école est synonyme de « règles, d'éducation, d'interdits et de valeurs » et de « travail ». Il(elle) désire s'orienter vers une filière générale et/ou technique et ambitionne d'aller au-delà du baccalauréat. Il(elle) refuse de se positionner quant à sa propre satisfaction ou celle de sa mère concernant son orientation actuelle, même si par ailleurs il(elle) indique que son avis compte dans ce domaine. Ce sujet ne renonce pas à l'école mais semble éloigné du « métier d'élève ». L'orientation scolaire et professionnelle, 41/4 | 2015 17 Diversité des expériences scolaires chez des collégien(ne)s scolarisés en 3e 56 Enfin, le quatrième profil (25,6 % de l'échantillon d'étude) dresse plutôt le portrait type d'un garçon, âgé de 14 ans 1⁄2 à 17 ans, scolarisé en filière professionnelle, dans un établissement public. Il est issu d'un milieu défavorisé et est en retard dans son cursus. Dans sa famille, une autre langue et le français sont mobilisés pour communiquer. Le profil familial caractéristique d'une désaffiliation familiale est associé à cette classe. Cette classe se particularise par une très faible implication dans les réponses. Ces fréquentes non-réponses ne sont pas un non sens en soi mais caractérise le positionnement de cet élève par rapport à la scolarité et à l'école. Ceci a du sens et témoigne d'une posture quelque peu étrangère à la sphère scolaire. 57 Le rapport à l'école et à l'apprendre de ce collégien est concordant avec son statut scolaire : apprendre n'est pas du tout un plaisir et il développe un rapport épistémique à l'apprendre17 très négatif. Au collège, il se demande parfois ce qu'il fait et il se sent incompris de ses enseignants. Pour échapper à ce « tableau noir », il a recours à l'absentéisme et aux retards. L'absentéisme peut ici être compris comme une prise de distance à l'égard de l'école. Le comportement absentéiste est un phénomène complexe, lié d'une part à la situation scolaire de l'individu (redoublement), à la perception qu'il en a (insatisfacTableau 4. Profil 4 : un collégien totalement étranger au jeu scolaire et simple figurant (n = 162 : 25,6 %) Effectif Effectif % global classe Garçon 357 101 28,3 Âge : – 14 1⁄2 - 15 1⁄2 ans 325 97 29,9 82 32 39,1 Statut scolaire : en retard 282 97 34,4 Établissement public 517 143 27,7 Filière : SEGPA/insertion professionnelle 106 65 61,3 46 19 41,3 Profession de la mère : très faible 239 80 33,5 Profession du père : très faible 130 46 35,4 Langue parlée à la maison : français et autre langue 115 45 40.0 85 31 36,5 χ2 Variables illustratives – 16-17 ans Niveau d'études du père : très faible Profil familial 1 (absence de soutien parental, situation de désaffiliation familiale 3.43 6.35 8.93 20.70 6.33 85.35 6.43 12.52 8.24 15.32 6.10 Variables actives L'orientation scolaire et professionnelle, 41/4 | 2015 18 Diversité des expériences scolaires chez des collégien(ne)s scolarisés en 3e 44 39 88,6 98.70 130 51 39,2 15.98 Résultats d'après toi : très insatisfaisants 38 18 47,4 10.07 Résultats d'après tes parents : très insatisfaisants 82 32 39,1 8.93 Au collège, se demande parfois ce qu'il fait : vrai 264 80 30,3 5.28 A hâte de terminer ses études : vrai 326 95 29,1 4.45 Impression que les enseignants ne le comprennent pas : 222 70 31,5 6.33 vrai 97 37 38,1 9.48 Apprendre est un plaisir : 60 24 40.0 7.23 – NR 122 93 31,2 3.23 – pas du tout 88 42 47,7 26.30 109 49 45.0 25.92 Classe la plus réussie : NR 60 27 45.0 13.11 Classe la moins réussie : NR 84 32 38,1 7.95 Classe la plus travaillée : NR 55 34 61,8 41.51 Classe la moins travaillée : NR 45 26 57,8 26.35 140 63 45.0 35.55 – NR 180 73 40,6 29.57 – certaines matières trop difficiles 252 98 38,9 38.87 Ce qui est le plus difficile au collège 2 : non réponse 65 30 46,2 16.08 Mot synonyme d'école : NR 58 34 58,6 36.58 Orientation l'année prochaine : 2 nde pro/ 57 41 71,9 70.63 CFA/BEPA 48 35 72,9 61.08 Avis qui compte dans son orientation : non 67 29 43,3 12.32 Satisfaction de son orientation : non Moyenne générale : NR Absences et retards : oui Rapport épistémique à l'apprendre : très négatif Ce qui est le plus difficile au collège 1 : 86 32 37,2 7.05 Satisfaction père par rapport à orientation : non 315 119 37,8 48.89 Satisfaction mère par rapport à orientation : non 92 45 48,9 30.74 Confiant pour passage dans classe supérieure : NR Veut arrêter l'école Prêt à exercer métier Attentes à l'égard du métier : NR Table 4. Profile 4. A schoolboy who perceives the school context as foreign and themselves as an outsider 58 tion scolaire) mais aussi à la qualité de sa vie familiale et relationnelle. Cet absentéisme n'est pas forcément signe d'une révolte ouverte contre l'école mais plutôt celui d'une extériorité aux valeurs de l'école (Esterle-Hedibel, 2006). 59 Face à ce contexte, il rejoint l'avis de ses parents et considère ses résultats comme très insatisfaisants. Il souhaite arrêter ses études à la fin de l'année scolaire, d'autant qu'il n'est pas satisfait de son orientation, tout comme ses parents. Ces derniers souhaitent qu'il s'oriente vers une filière professionnelle. Il est dans un rapport utilitaire 18 au collège (obtenir un métier intéressant). Il se dit prêt à exercer un métier mais ne fait pas part L'orientation scolaire et professionnelle, 41/4 | 2015 19 Diversité des expériences scolaires chez des collégien(ne)s scolarisés en 3e d'attentes particulières à l'égard de celui-ci. Révélateur d'un passé scolaire et de difficultés auxquelles il est difficile d'échapper, l'âge (donc le retard), apparaît comme un critère d'orientation. Ce collégien est dans un désamour de l'école, voire dans une forme de désaffiliation scolaire. Discussion 60 Notre étude, qui s'inscrit dans un cadre multifactoriel, considérant un grand nombre de facteurs personnels, familiaux, scolaires et liés à la culture horizontale entre pairs, visait l'identification de différents profils d'expérience scolaire chez des collégien(ne)s. 61 Nos résultats réaffirment que l'expérience scolaire de jeunes collégien(ne)s s'étaye sur des logiques diversifiées, hétérogènes à mettre en lien avec des formes de socialisation familiale (jeunes issus de milieux populaires, soutien éducatif familial plus ou moins prégnant, relations intrafamiliales hétérogènes) et de socialisations scolaires plurielles. Cette mise en exergue de profils et de manifestations différenciés d'expérience scolaire vient battre en brèche la dichotomie classique des élèves en réussite versus en échec scolaire. La reconnaissance des différences individuelles et des besoins spécifiques de chaque sous-groupe d'adolescent(e)s est essentielle car elle permet d'envisager la mise en oeuvre de programmes pédagogiques différenciés et surtout plus adaptés, au regard des caractéristiques de chaque profil. 62 Nos résultats corroborent ceux de recherches antérieures selon lesquels la combinaison entre disponibilité affective et encouragement à l'autonomie des adultes aurait un effet favorable sur les comportements scolaires de l'adolescent (Bergonnier-Dupuy, 2005) et contribuerait à instaurer un rapport positif à l'école. En effet, les liens positifs entre certains modes de participation parentale et les résultats scolaires, les comportements appropriés en classe, l'implication dans la réalisation des devoirs ou encore les aspirations scolaires ont souvent été soulignés (Henderson & Mapp, 2002). Ces résultats réaffirment l'importance de la part des parents de manifester de la chaleur, d'encourager l'expression de l'individualité et d'exercer une supervision adaptée afin de favoriser, chez les adolescents, la persévérance dans le travail, l'envie de relever des défis, de s'autonomiser et faire des efforts (Deslandes, Potvin, & Leclerc, 2000). Une attitude de contrôle trop marqué à l'égard du jeune ou à l'inverse, un manque d'encadrement parental et d'engagement dans la scolarité doublé d'un manque de soutien affectif représentent des freins à l'autonomisation du sujet et favoriseraient le développement d'un rapport à l'école problématique (Potvin et al., 1999). 63 Le rapport à l'institution scolaire apparait également très diversifié, résultat confirmant ceux déjà obtenus par de Léonardis, Féchant et Prêteur (2005). Si certain(e)s adolescent (e)s aiment aller au collège, manifestent des attentes fortes à l'égard de leur scolarité et un intérêt pour les activités scolaires proposées (classe 1), d'autres élèves adoptent des positions inverses. Ils n'aiment pas aller au collège et s'en dispenseraient bien volontiers s'ils le pouvaient (classe 4). Les collégiens qui éprouvent de réelles difficultés scolaires ne parviennent pas à se mobiliser sur les savoirs et sur les apprentissages. Un des quatre portraits-types dégagés (la classe 4) se distingue nettement des trois autres par un rapport à l'école et à l'apprendre problématique. Les adolescents caractéristiques de ce portrait ont pu connaître des difficultés scolaires précoces, et notamment être confrontés au redoublement. Le retard scolaire a pu fragiliser leur confiance dans leurs capacités à poursuivre des études, les amenant ainsi à réduire leurs ambitions scolaires, voire parfois L'orientation scolaire et professionnelle, 41/4 | 2015 20 Diversité des expériences scolaires chez des collégien(ne)s scolarisés en 3e même à s'engager dans la voie du décrochage scolaire. Aujourd'hui, l'accumulation de lacunes au niveau des apprentissages, un rapport conflictuel à l'égard de l'institution scolaire (par ses règles, ses acteurs, ses valeurs, ses attentes, etc.), renforcé par un sentiment d'absence de soutien parental, les poussent à fuir l'école (absentéisme, retards répétés). Cependant, si ces collégiens (souvent des garçons) éprouvent de réelles difficultés scolaires et ne parviennent pas à se mobiliser sur le savoir et les apprentissages scolaires, ils se mobilisent par ailleurs sur l'exercice d'un futur métier. Ces adolescents n'apprendraient pas pour le présent et pour les enjeux épistémiques que cela implique mais pour avoir un métier plus tard (Bautier & Rochex, 1998). Ils laissent donc percevoir que la scolarité ne se justifie guère pour eux que comme un passage obligé permettant d'avoir un métier (Rochex, 1995b). 64 La valeur accordée à l'école (scolaire et sociale) constitue également un point fort de l'expérience scolaire des jeunes (de Léonardis & Prêteur, 2007 ; Safont-Mottay, Oubrayrie, & Prêteur, 2010). Il semblerait que les jeunes « démobilisés » ne parviennent pas à valoriser l'école, ni même à investir de façon adaptée les activités scolaires (Janosz, Leblanc, Boulerice, & Tremblay, 1997). Cette notion de valeur réfère au fait, pour un sujet, de reconnaitre le rôle de l'école comme important dans la réalisation de ses objectifs (de Léonardis & Prêteur, 2007). Les valeurs prônées aujourd'hui par les adolescents évoluent vers une moins grande centralité du travail, peut-être liée à l'angoisse de ne pas réussir à s'insérer professionnellement. Ce mal-être, doublé d'une certaine angoisse, pourrait entraîner certains vers un retrait de la scène scolaire (Périer, 2004, 2008). Le fait d'accorder une valeur scolaire importante à l'école (classe 1) oriente l'engagement dans les apprentissages scolaires. Mais le collège doit également être un lieu de convivialité et de sociabilité, au sein duquel les relations sociales avec les pairs favorisent l'appropriation des savoirs. Certains ne parviennent pas à percevoir l'école comme un lieu de sociabilité, de partage et de rencontre avec les pairs. Un tel résultat incite à s'interroger sur les fonctions du groupe de pairs (réassurance, soutien social, affectivité, amitié, etc.) dans la mobilisation scolaire à l'adolescence (Hernandez, Oubrayrie-Roussel, & Prêteur, 2012). À ce propos, Hatzichristou et Hopf (1996) ont montré que les élèves rejetés socialement, qui ne possèdent pas de soutien amical, sont plus couramment en échec scolaire et à risque de décrochage scolaire. L'expérience scolaire des élèves est donc une expérience sociale qui se construit à partir d'une socialisation familiale, scolaire et d'interactions entre pairs. Le rapport aux pairs, cette expérience de la relation à l'autre, nouvelle figure identificatoire, est en lien avec l'expérience scolaire. C'est dans cette inter-construction entre climat relationnel familial soutenant et sens de l'expérience scolaire suscité grâce au sentiment d'être reconnu par les enseignants et d'être intégré dans des groupes de pairs que l'école et le savoir peuvent être investis en tant que tels. 65 Nos résultats soulignent à nouveau l'importance de la relation pédagogique avec les enseignants, et plus précisément de la présence d'un environnement pédagogique qui les sécurise et soutient leurs efforts (Cossette et al., 2004). L'élève en difficulté qui se sent compris ou en confiance avec son enseignant vit beaucoup mieux l'école (Rousseau, Deslandes, & Fournier, 2009). Plus l'enseignant est perçu comme bienveillant par les élèves, moins le risque de décrochage est élevé (Doré-Côté, 2006). La qualité de la relation pédagogique serait intimement liée au sentiment de réussite ou d'échec des jeunes, et donc à l'appréciation qu'ils manifestent à l'égard de l'école et d'eux-mêmes. L'expérience scolaire serait donc très sensible aux compétences relationnelles des enseignants (Merle, 2004). Par ailleurs, l'hétérogénéité des profils scolaires se resserre autour des différences L'orientation scolaire et professionnelle, 41/4 | 2015 21 Diversité des expériences scolaires chez des collégien(ne)s scolarisés en 3e filles-garçons (Courtinat-Camps & Prêteur, 2010), même si celles-ci ne sont pas très saillantes dans le sens où les 4 profils ne font pas systématiquement ressortir cette forme de différenciation sexuée. 66 Certains profils ne sont donc pas sans rappeler le portrait d'adolescents potentiellement « décrocheurs » (Janosz, Leblanc, Boulerice, & Tremblay, 2000). Le décrochage scolaire serait le résultat d'un processus cumulatif de ruptures dans la scolarité mais aussi entre la culture familiale, celle du quartier et la culture scolaire. Ces ruptures fréquentes et répétées du lien social sont autant de brèches qui fragilisent la construction de la personne et démobilisent l'élève dans son rapport au savoir (Prêteur et al., 2004). L'expérience scolaire singulière de chaque adolescent oriente donc le sens qu'il accorde à l'école et structure son rapport à l'école et au savoir. Si les uns adhèrent aux valeurs et aux attentes scolaires, se mobilisent pour s'approprier les savoirs dispensés et se projettent au lycée, voire à l'université, d'autres, marqués par des itinéraires scolaires irréguliers, une expérience précoce du redoublement et le sentiment de ne pas être reconnus ni par leurs parents ni même par leurs enseignants, se démobilisent dans leur rapport à l'école et au savoir et envisagent l'arrêt de leurs études ou une orientation vers des filières professionnelles (op. cit.). Toute expérience subjective est à la fois mise à l'épreuve de soi, de son histoire et pourtant, génère une prise de position d'un sujet, procure des sources de dépassement, permet une expression singulière et des tentatives de personnalisation. Tout sujet n'est donc jamais totalement déterminé. Conclusion 67 L'institution scolaire demande à tous les élèves d'apprendre à distinguer culture juvénile et culture scolaire, pour mettre cette dernière à profit et devenir « acteurs » de leur scolarité, en limitant l'impact de la première dans l'espace scolaire. Mais tous les élèves ne sont pas égaux face à cette exigence. Car il ne s'agit pas seulement d'adopter les codes, habitudes et comportements du rituel scolaire. Au-delà de la forme, il s'agit d'accéder au sens de la scolarité. Or, bien des élèves n'y parviennent pas. Ils comprennent bien les attentes formelles que l'école leur adresse et s'y plient a priori volontiers, mais certains peinent à saisir ses attentes plus implicites. Et lorsque ces malentendus s'accumulent, ces élèves « en difficulté » peuvent parfois se transformer en collégiens « difficiles ». La plupart se maintiennent dans un rôle de figurant du théâtre scolaire, se protégeant derrière une apparente indifférence, érigée en valeur constitutive d'une solidarité entre pairs. Mais pour les plus blessés et/ou les plus sensibles, le retrait va jusqu'au rejet de l'école sous une forme agressive, dirigée vers les représentants de l'institution ou vers eux-mêmes. Ainsi « élèves fantômes », « décrocheurs » et autres « accidentés de l'école » vont avoir tendance à subir leur orientation dans des filières dites de relégation (Cavet, 2009). Comme proposé par Le Bastard-Landrier (2005), les résultats obtenus invitent les équipes éducatives à s'interroger et à mener une réflexion sur leurs pratiques au regard de l'expérience subjective des élèves. 68 Malgré les apports de cette recherche, il convient d'en souligner un certain nombre de limites. 69 Le mode d'analyse privilégié en cluster, certes intéressant car il permet d'approcher des types d'expériences subjectives de l'école diversifiés, peut parfois pousser à la surreprésentation de certains traits statistiquement rares. Rappelons tout de même que cette étude extensive se voulait exploratoire et originale dans la démarche L'orientation scolaire et professionnelle, 41/4 | 2015 22 Diversité des expériences scolaires chez des collégien(ne)s scolarisés en 3e méthodologique et dans les modes d'analyse adoptés. Certains résultats spécifiques nous invitent à poursuivre et approfondir les analyses entreprises. Des analyses confirmatoires pourraient être menées pour appréhender plus précisément les effets de certaines dimensions sur l'expérience, telles que définies dans cette recherche. La question du rapport au savoir, dimension de l'expérience scolaire, mériterait également d'être approfondie. Dans ce cadre, nous pourrions envisager de prolonger cette étude en recourant, non plus à une méthodologie par questionnaires fermés, mais en partant de questions ouvertes. Enfin, des bilans de savoir mais aussi des entretiens semi-directifs de recherche permettraient de se centrer plus spécifiquement sur les dimensions identitaires et épistémique du rapport au savoir. BIBLIOGRAPHIE Bajoit, G. (2010). Une jeunesse libre assujettie. In J. Hamel, C. Pugeault-Cicchelli, O. Galand & V. Cicchelli (éd.). La jeunesse n'est plus ce qu'elle était (pp. 55-65). Rennes : Presses Universitaires, coll. Le sens social. Bautier, E., & Rochex, J.-Y. (1998). L'expérience scolaire des nouveaux lycéens. Démocratisation ou massification ? Paris : A. Colin. Beaumatin, A., Baubion-Broye, A., & Hajjar, V. (2010). Socialisation active et nouvelles perspectives en psychologie de l'orientation. L'Orientation Scolaire et Professionnelle, 39(1), 43-52. Bergonnier-Dupuy, G. (2005). Famille(s) et scolarisation. Revue Française de Pédagogie, 151, 5-16. Blashfield, R. K., & Aldenderfer, M. S. (1988). The methods and problems of cluster analysis. In J. R. Nesselroad (Ed.), Handbook of multivariate experimental psychology (2 nd ed.) (pp. 447-473). New York: Plenum. Blaya, C. (2010). Décrochages scolaires : l'école en difficulté. Bruxelles : De Boeck. Caillet, V. (2008). Expérience scolaire des élèves. In A. Van Zanten (dir.). Dictionnaire de l'éducation. Paris : Presses Universitaires de France. Caverni, J.-P. (1988). La verbalisation comme source d'observables pour l'étude du fonctionnement cognitif. In J.-P. Caverni & C. Bastien (éd.), Psychologie cognitive : modèles et méthodes (pp. 253-273). Grenoble : Presses Universitaires de France. Cavet, A. (2009). Quelle vie scolaire pour les élèves ? Dossier d'actualité de la VST, 49. Charlot, B. (1987). L'école en mutation. Paris : Payot. Charlot, B. (1997). Du rapport au savoir : éléments pour une théorie. Paris : Anthropos-Economica. Charlot, B., & Rochex, J.-Y. (1996). L'enfant-élève : dynamiques familiales et expérience scolaire. Lien social et Politiques, 35, 137-151. Charlot, B., Bautier, E., & Rochex, J.-Y. (1992). École et savoir dans les banlieues et ailleurs. Paris : Armand Colin. L'orientation scolaire et professionnelle, 41/4 | 2015 23 Diversité des expériences scolaires chez des collégien(ne)s scolarisés en 3e Cossette, M.-C., Potvin, P., Marcotte, D., Fortin, L., Royer, E., & Leclerc, D. (2004). Le risque de décrochage scolaire et la perception du climat de classe chez les élèves du secondaire. Revue de Psychoéducation, 33(1), 117-136. Courtinat-Camps, A., & Prêteur, Y. (2010). Expérience scolaire à l'adolescence : quelles différences entre filles et garçons. In V. Rouyer, S. Croity-Belz & Y. Prêteur (éd.). Socialisation de genre de l'enfance à l'âge adulte. Regards transdisciplinaires (pp. 91-105). Ramonville-Saintt-Agne : Erès. Courtinat-Camps, A., de Léonardis, M., & Prêteur, Y. (2011). Formes du rapport au savoir chez des collégien(ne)s à haut potentiel intellectuel. Neuropsychiatrie de l'Enfance et de l'Adolescence, 59(6), 336-341. Courtinat-Camps, A., Villatte, A., Massé, L., & de Léonardis, M. (2011). « Qui suis-je ? » Diversité des représentations de soi chez des adolescent(e)s à haut potentiel intellectuel. Bulletin de Psychologie, 64(4), 514, 315-328. de Léonardis, M., Capdevielle-Mougnibas, V., & Prêteur, Y. (2005). Sens de l'orientation vers l'apprentissage chez des apprentis de niveau V : entre expérience scolaire et rapport à l'avenir. L'Orientation Scolaire et Professionnelle, 1(35), 5-27. de Léonardis, M., Féchant, H., & Prêteur, Y. (2005). Modalités de l'expérience scolaire et socialisation familiale chez des collégiens de troisième générale. Revue Française de Pédagogie, 151, 47-59. de Léonardis, M., & Prêteur, Y. (2007). Expérience scolaire, estime de soi et valeur accordée à l'école à l'adolescence. In A. Florin & P. Vrignaud (éd.), Réussir à l'école : les effets des dimensions conatives en éducation (pp. 31-45). Rennes : Presses Universitaires. Demerval, R., Cartierre, N., & Coulon, N. (2003). Désaffiliation familiale et désaffiliation scolaire : effets sur la santé des adolescents. Société française de santé publique, 15(1), 39-48. Deslandes, R., Potvin, P., & Leclerc, D. (2000). Les liens entre l'autonomie de l'adolescent, la collaboration parentale et la réussite scolaire. Revue Canadienne des Sciences du Comportement, 32 (4), 208-217. Deslandes, R., & Cloutier, R. (2005). Pratiques parentales et réussite scolaire en fonction de la structure familiale et du genre des adolescents. Revue Française de Pédagogie, 151, 61-74. Develay, M. (1996). Donner du sens à l'école. Paris : E.S.F. Dubet, F. (1991). Les lycéens. Paris : Le Seuil. Dubet, F. (1994). Sociologie de l'expérience. Paris : Le Seuil. Dubet, F., & Martuccelli, D. (1996). Les parents et l'école, classes populaires et classes moyennes. Lien social et politique, 35, 109-121. Dubet, F., & Martuccelli, D. (1998). Sociologie de l'expérience scolaire. L'Orientation Scolaire et Professionnelle, 27(2), 169-186. Dubet, F. (2008). Faits d'école. Paris : Éditions de l'École des Hautes Études en Sciences Sociales. Dupont, P., & Leclerc, D. (1998). Adaptation du questionnaire québécois : « l'école, ça m'intéresse » du MEQ. Document non publié : Université de Mons-Hainaut. Esterle-Hedibel, M. (2006). Absentéisme, déscolarisation, décrochage scolaire, les apports des recherches récentes. Déviance et Société, 30(1), 41-65. Evrard, Y., Pras, B., & Roux, E. (2003). Market : études et recherches en marketing. Paris : Dunod. L'orientation scolaire et professionnelle, 41/4 | 2015 24 Diversité des expériences scolaires chez des collégien(ne)s scolarisés en 3e Fondeville, B. (2002). Le rôle de l'expérience scolaire dans la personnalisation de l'adolescent. Thèse de Doctorat Nouveau Régime, Université de Toulouse. Hatzichristou, C., & Hopf, D., (1996). A multiperspective comparison of peer sociometric status groups in childhood and adolescence. Child Development, 67, 1085-1102. Henderson, A., & Mapp, K. (2002). A new wave of evidence: the impact of school, family and community connections on student achievement. Austin, TX: National Center of Family and Community. Hernandez, L., Oubrayrie-Roussel, N., & Prêteur, Y. (2012). Relations sociales entre pairs à l'adolescence et risque de désinvestissement scolaire. Neuropsychiatrie de l'enfance et de l'adolescence, 60(2), 87-93. Janosz, M., Leblanc, M., Boulerice, B., & Tremblay, R. (1997). Disentangling the weight of school dropout predictors: a test on two longitudinal samples. Journal of Youth and Adolescence, 26(6), 733-762. Janosz, M., Leblanc, M., Boulerice, B., & Tremblay, R. (2000). Predicting different types of school dropouts: a typological approach with two longitudinal samples. Journal of Educational Psychology, 92(1), 171-190. Jellab, A. (2001). Scolarité et rapport aux savoirs en lycée professionnel. Paris : Presses Universitaires de France. Kellerhals, J., Montandon, C., Ritschard, G., & Sardi, M. (1992). Le style éducatif des parents et l'estime de soi des adolescents. Revue française de sociologie, 33, 313-333. Kinnear, P., & Gray, C. (2005). SPSS facile appliqué à la psychologie et aux sciences sociales : maîtriser le traitement de données. Bruxelles : de Boeck. L'Ecuyer, R. (1990). Méthodologie de l'analyse développementale de contenu : méthode GPS et concept de soi. Québec : Presses de l'Université du Québec. Le Bastard-Landrier, S. (2005). L'expérience subjective des élèves de seconde : influence sur les résultats scolaires et les voeux d'orientation. L'Orientation Scolaire et Professionnelle, 34(2), 143-164. Levesque, S. (2001). Valeur accordée à l'école, estime de soi et performance scolaire à l'adolescence. Thèse de Doctorat Nouveau Régime, Université Toulouse II. Merle, P. (2004). Mobilisation et découragement scolaires : l'expérience subjective des élèves. Éducation et Sociétés, 13, 193-208. Millet, M., & Thin, D. (2003). Ruptures scolaires et déscolarisation des collégiens de milieu populaire : parcours et configurations. Rapport de recherche, Université Lumière Lyon 2, Groupe de recherche sur la socialisation, http:// cisad.adc.education.fr/descolarisation. Morey, L. C., Blashfield, R. K., & Skinner, H. A. (1983). A comparison of cluster analysis techniques within a sequential validation framework. Multivariate Behavioral Research, 18, 309-329. Périer, P. (2004). Adolescences populaires et socialisation scolaire : les épreuves relationnelles et identitaires du rapport pédagogique. L'Orientation Scolaire et Professionnelle, 33(2), 227-248. Périer, P. (2008). La scolarité inachevée. Sortie du collège et expérience subjective du préapprentissage. L'Orientation Scolaire et Professionnelle, 37(2), 241-265. Pineau, G. (2005). La vie à orienter, quelle histoire ! L'Orientation Scolaire et Professionnelle, 34(1), 5-18. L'orientation scolaire et professionnelle, 41/4 | 2015 25 Diversité des expériences scolaires chez des collégien(ne)s scolarisés en 3e Potvin, P., Deslandes, R., Beaulieu, P., Marcotte, D., Fortin, L., Royer, É., & Leclerc, D. (1999). Risque d'abandon scolaire, style parental et participation parentale au suivi scolaire. Revue canadienne de l'éducation, 24(4), 441-453. Prêteur, Y., Constans, S., & Féchant, H. (2004). Rapport au savoir et (dé)mobilisation scolaire chez des collégiens de troisième, Pratiques Psychologiques, 10, 119-132. Reinert, M. (1983). Une méthode de classification descendante hiérarchique : application à l'analyse lexicale par contexte. Les Cahiers de l'Analyse des Données, 8(2), 187-198. Rochex, J.-Y. (1995a). Le sens de l'expérience scolaire : entre activité et subjectivité. Paris : Presses Universitaires de France. Rochex, J.-Y. (1995b). Adolescence, rapport au savoir et sens de l'expérience scolaire en milieux populaires. L'Orientation Scolaire et Professionnelle, 24(3), 341-359. Rochex, J.-Y. (2006). Le lycée de masse : entre démocratisation et ségrégation. In J. Beillerot et N. Mosconi (éd.), Traité des sciences et des pratiques de l'éducation (pp. 229-241). Paris : Dunod. Rousseau, N., Deslandes, R., & Fournier, H. (2009). La relation de confiance maître-élève : perception d'élèves ayant des difficultés scolaires. McGill Journal of Education, 44(2), 193-212. Safont-Mottay, C., Oubrayrie-Roussel, N., & Prêteur, Y. (2010). Valeurs et attentes des collégiens et collégiennes envers l'école : une mixité à construire. Revue Française de Pédagogie, 171, 31-45. Tatsuoka, M. M. (1988). Multivariate analysis. New York: Macmillan Publishing Company. Vermersch, P. (1993). Du faire au dire : l'entretien d'explicitation. Le Cahier du SFP. Paris : EDF. NOTES 1. ESCOL : Éducation, Socialisation, Collectivités Locales. 2. Dans ce cadre, le rapport au savoir est une relation de sens, et donc de valeur, qu'un individu (ou un groupe) entretient avec les processus et produits du savoir (Charlot, Bautier, & Rochex, 1992, p. 29). Les processus renvoient à l'acte d'apprendre et les produits définissent les compétences acquises, les objets culturels, institutionnels et sociaux. 3. Nous parlons ici du rapport à l'acte d'apprendre. Charlot (1997) retient l'expression de « rapport épistémique au savoir ». « Il se définit en référence à la nature de l'activité que le sujet met sous les termes apprendre, savoir : apprendre c'est quoi faire ? » (Bautier & Rochex, 1998, p. 34). Un glissement théorique existe entre rapport au savoir et rapport à l'apprendre. La question de « l'apprendre » est considérée comme plus large que celle du savoir et le rapport à l'apprendre devrait, de ce fait, être distingué du rapport au savoir qui n'en est qu'une forme spécifique. Charlot (1997) revendique ce glissement mais continue à utiliser le terme de rapport au savoir qui lui apparaît presque comme un paradigme de recherche. 4. Le principe général de ce type d'entretien repose sur une verbalisation de l'action visant l'observation de son fonctionnement (Caverni, 1988). Parmi les dispositifs ayant contribué à asseoir cette méthodologie, la technique de l'entretien d'explicitation mise au point par Vermersch (1993) constitue une référence incontournable. Fondeville (2002), qui s'est appuyé sur cette méthode dans ses recherches, a cherché à mettre en place une technique d'entretien qui vise à instaurer un espace réflexif entre le sujet et sa conduite afin d'approcher certaines dimensions psychosociales de celle-ci susceptibles de nous renseigner sur ses zones de tension et sur la nature des difficultés rencontrées par le sujet. 5. Cette technique originale vise à instaurer, par le collectif, un espace de parole réflexif à l'intérieur duquel les élèves puissent définir leur expérience de la scolarité : « elle consiste à L'orientation scolaire et professionnelle, 41/4 | 2015 26 Diversité des expériences scolaires chez des collégien(ne)s scolarisés en 3e placer des acteurs, une douzaine de membres par groupe environ, dans le réseau des relations et des rapports sociaux au sein desquels se construit l'expérience sociale » (Dubet, 1991, pp. 36-37). 6. L'indice de cohérence interne est de 0,61. Un seuil compris entre 0,60 et 0,80 est considéré comme suffisant pour une recherche exploratoire (Nunally, 1967, 1978 in Evrard, Pras, & Roux, 2003). 7. α = 0,74. 8. Comme suggéré par Tatsuoka (1988), deux critères ont été appliqués pour identifier le nombre de facteurs : la valeur propre (eigen values) > à 1 et le test des éboulis (scree-plot) (Evrard et al., 2003). Nous avons retenu 3 facteurs qui expliquent plus de 47 % de la variance totale. Pour l'appartenance d'un item à une dimension, des saturations factorielles = 0,40 ont été retenues (Guadagnoli & Velicer, 1988). 9. Une autre dimension composée de trois items a été identifiée (rapport externalisé à l'apprendre) mais l'indice de cohérence interne n'étant pas acceptable (α = 0,47), nous faisons le choix de ne pas la considérer ici. 10. Je peux ou je pourrais compter sur mes parents pour m'aider lorsque j'ai un problème personnel ; mes parents m'incitent à faire de mon mieux dans tout ce que je fais ; mes parents m'incitent à avoir mes propres opinions ; mes parents m'aident quand je ne comprends pas quelque chose dans mes travaux scolaires ; quand mes parents veulent que je fasse quelque chose, ils m'expliquent pourquoi ; lorsque j'ai une mauvaise note à l'école, mes parents m'encouragent à faire encore plus d'efforts ; mes parents me permettent de faire des projets d'activités que je désire pratiquer ; mes parents connaissent mes amis ; mes parents réservent du temps pour parler avec moi ; nous faisons des activités intéressantes en famille. L'indice de cohérence interne (α = .80) est élevé ; les corrélations inter-items sont significatives (p < .01) et vont de .15 à .41. 11. Un de mes parents m'aide à faire mes devoirs quand je lui demande ; un de mes parents me félicite pour mes réalisations ; un de mes parents m'encourage à réaliser mes activités scolaires ; un de mes parents m'accompagne lors d'un voyage ou d'un événement spécial ; un de mes parents assiste à des activités dans lesquelles je suis impliqué à l'école ; un de mes parents discute avec moi des options ou des orientations à choisir pour l'an prochain. L'indice de cohérence interne (α= .67) est correct ; corrélations inter-items sont significatives (p < .01) et vont de .15 à .46. 12. Cette méthode démontre des résultats très puissants comparativement aux solutions obtenues par les autres méthodes (Blashfield & Aldanderfer, 1988 ; Morey, Blashfield, & Skinner, 1983). 13. Ce logiciel, outil d'analyse des données textuelles, permet également d'effectuer des classifications hiérarchiques descendantes à partir de questionnaires fermés. 14. Par famille traditionnelle, nous désignons les familles composées des deux parents biologiques et par famille non traditionnelle, les familles monoparentales, reconstituées ou autres (Deslandes & Cloutier, 2005). 15. Nous avons fait le choix de distinguer la dimension « climat relationnel familial perçu » en construisant une première typologie distincte de la seconde car la dimension « climat relationnel familial perçu » est introduite dans l'analyse globale en tant que variable illustrative (au même titre que les variables socio-biographiques) et non pas comme variable active. 16. Le rapport identitaire à l'apprendre renvoie aux mobiles de l'engagement dans l'acte d'apprendre liés au développement personnel. 17. Le rapport épistémique se définit en référence à la nature même de l'activité que le sujet met sous les termes apprendre et savoir. 18. Ce type de rapport renvoie aux mobiles de l'engagement dans l'acte d'apprendre fondés sur un abord instrumental des études. L'orientation scolaire et professionnelle, 41/4 | 2015 27 Diversité des expériences scolaires chez des collégien(ne)s scolarisés en 3e RÉSUMÉS Notre objectif est d'appréhender différents profils d'expérience scolaire à l'adolescence. L'originalité réside dans la prise en compte de cette perception subjective dans la compréhension de la scolarité des élèves. 677 collégien(ne)s scolarisés en 3 e (290 filles ; 387 garçons), âgés de 13 à 17 ans (M = 14,8 ; ET = 0,74) ont été rencontrés. Une classification hiérarchique descendante permet de dégager quatre profils contrastés de collégien(ne)s qui témoignent d'expériences scolaires et subjectives singulières. Ils sont mis en lien avec une pluralité de trajectoires scolaires, de rapport à l'école et à l'apprendre et de modes de socialisation familiale différenciés. The objective of this contribution is to highlight the variety in profiles of school experiences during adolescence. The originality of our study results from taking the subjective perspective of students' own schooling into account. We distributed questionnaires to 677 junior high-school students in 9th grade (USA) / Year 10 (UK) (290 girls, 387 boys), aged 13-17 years (M = 14.8, SD = 0.74), in 15 high schools.A downward hierarchical classification reveals four contrasting profiles amongst these students, who each resolutely reflect singular subjective experiences. These have been linked with the plurality of school trajectories, relationships between schooling and learning and with differentiated patterns of family socialization. INDEX Mots-clés : Collégien(ne)s, expérience scolaire, socialisation familiale différenciée, typologie Keywords : differentiated family socialization, Junior high school pupils, school experience, typology AUTEURS AMÉLIE COURTINAT-CAMPS est Maître de Conférences en Psychologie du Développement et de l'Éducation, Institut National Supérieur de Formation et de Recherche pour l'Éducation des Jeunes Handicapés et les Enseignements Adaptés (INS HEA – Suresnes). Amélie Courtinat-Camps est membre de l'axe Psychologie de l'Éducation Familiale et Scolaire et Contextes Culturels au sein du Laboratoire Psychologie du Développement et Processus de Socialisation (PDPS, EA 1687) - Thèmes de recherche : expérience scolaire, socialisation familiale et scolaire et construction identitaire des adolescent(e)s (spécificité des travaux autour de la population des élèves à haut potentiel intellectuel)- Contact : Laboratoire PDPS, Bureau C445, Maison de la Recherche, Université de Toulouse ; UTM. 5, Allée Antonio Machado, F-31058 Toulouse Cedex 09, France – Courriel : courtina@univ-tlse2.fr L'orientation scolaire et professionnelle, 41/4 | 2015 28 Diversité des expériences scolaires chez des collégien(ne)s scolarisés en 3e YVES PRÊTEUR est Professeur en Psychologie du Développement et de l'Éducation, UFR de Psychologie, Université de Toulouse 2 - Yves Prêteur est également membre de cet axe de recherche au sein du laboratoire PDPS (EA 1687) - Thèmes de recherche : Socialisation familiale et scolaire, relations entre pairs, expérience scolaire, rapport à l'école et au savoir et construction identitaire des adolescents - Courriel : ypreteur@univ-tlse2.fr L'orientation scolaire et professionnelle, 41/4 | 2015 29
{'path': '64/hal-inshea.archives-ouvertes.fr-hal-01892060-document.txt'}
Étude des composantes du spectre β- de 8637Rb Jeanne Laberrigue-Frolow, Michel Lederer To cite this version: Jeanne Laberrigue-Frolow, Michel Lederer. Étude des composantes du spectre β- de 8637Rb. J. Phys. Radium, 1955, 16 (4), pp.346-347. 10.1051/jphysrad:01955001604034600. jpa-00235160 HAL Id: jpa-00235160 https://hal.archives-ouvertes.fr/jpa-00235160 Submitted on 1 Jan 1955 346 ÉTUDE DES COMPOSANTES DU SPECTRE 03B2- DE $$8 6 3 7Rb Par Mme Jeanne Physique LABERRIGUE-FROLOW, et Chimie nucléaires, et M. Michel Collège de France saturé de H CI ')2 N, d'après Steel [8]. Pour nous assurer de la validité radiochimique, nous avons déterminé les valeurs de RF de plusieurs ions qui pourraient être présents comme impuretés. LEDERER, Institut du Radium. Les études 'publiées sur n ¥ Rb [1], [2], [3], [4], s'accordent pour indiquer dans sa désintégration pl'existence de deux groupes et pour attribuer aux 3 Fig. a. - Spectre y Fig. obtenu d'une 3 b. source - de g q Rb Spectre avec une source de non purifiée. y g 7Rb purifiée. La figure 4 montre les positions des ions sur un chromatogramme où ceux-ci se propagent parallèuns aux autres sur la même feuille. Les habituelles des sources radioactives telles que le fer, le zinc, etc. sont complètement séparées. 2 à 3 mg de matière ont été ainsi purifiés. lement les impuretés Fig. 1. Fig. 2 obtenu a: - Spectre Bde 86Rb avec une source Fig. obtenu 2 b. - non purifiée. Spectre B- avec une source de Rb purifiée. niveaux du 3 $Sr les spins et les parités portés figure sur la i. 3- conduisant niveau excité de 3 g Sr correspondrait alors à une transition (6.J o, oui). Il est intéressant de connaître avec précision la forme de son spectre. La difficulté d'une telle étude provient de la présence dans 11 Rb d'une impureté de 1 11 Cs, très gênante car la section efficace de formation de 1 Cs est 17 26. Io-24 cm2 alors que celle du hRb est cr = 0,524. 1 0-2/ cm 2. De plus le 134CS a une composante B- molle (Emax go keV) très intense et neuf raies y d'énergies allant de 467 à 1400 keV [5] ( fcg 2 et 3). Les études précédentes [1], [6], [7] utilisant du Rb purifié soit par précipitation du Cs, soit par séparation par colonne de résines, étaient faites avec des sources épaisses (source + support de o, 5 à 3 mg/cm2). Il était important d'obtenir des sources minces et pures de "Rb. Nous avons appliqué la méthode de La transition au = Fig. fi. - Position des ions sur un chromatogramme. figure 5 reproduit la répartition de l'intensité I, 4 MeV) le long d'une bande du Ey (o, 4 papier filtre et montre l'existence de deux pics très nettement séparés. Les spectres y relevés pour ces deux pics à l'aide d'un spectromètre à scintillations correspondent bien La en y Fig. Répartition de l'intensité y ( o, 4 E le long d'une bande du papier filtre. Elle reste nulle ensuite jusqu'au bout de la = chromatographie sur papier. Le chlorure de Rb, irradié quatre semaines dans le flux de neutrons de la pile P2 de Saclay (activité spécifique, 42 mC/g) a été purifié par chromatographie sur papier, avec comme solvant du phénol 5. - Article published online by EDP Sciences and available at http://dx.doi.org/10.1051/jphysrad:01955001604034600 1,4 MeV) bande. 347 le premier au ; Rb ( fig. 3 b ) et le second au 134CS (on peut évaluer à moins de i pour 100 la proportion de l'impureté de Cs présente dans le Cl-Rb utilisé). Il apparaît donc que la séparation Rb-Cs par la méthode de chromatographie sur papier assure une pureté totale sans perte de matière. Le Rb ainsi purifié nous a permis d'étudier le spectre p- et le spectre de coïncidences B-y à l'aide du spectromètre type Slatis-Siegbahn du Laboratoire de Physique et Chimie nucléaires dans les mêmes conditions que dans l'étude du "Rh [9], mais avec une fenêtre de compteur de1 mg/cm2. Les sources obtenues par sublimation à l'air avaient épaisseur o,mgjcm2 et étaient déposées sur du LC 600 d'épaisseur - 20 p.gjcm2. Le spectre B- (fig. 2 b) dont la composante éner1760 + 10 ) keV a la forme caractégique (E.,,, ristique d'une transition ( AJ 2, oui) a été analysé par la méthode de Fermi en appliquant le facteur de correction exact pour la composante énergique du spectre. Cette analyse conduit aux résultats suivants : une = = diélectriques sur le pyrrole. Les résultats concernant les solutions diluées ont déjà été donnés [2]. On trouvera ici les résultats relatifs au pyrrole liquide pur, de 16 à 830 C. Les constantes diélectriques ont été mesurées à l'aide d'un pont semblable à celui utilisé par Schupp et Mecke [3], avec deux tubes 6 H 6 redresseurs. Deux condensateurs de précision ont été employés : l'un, le Leybold's Nachfolger « Normal Drehkondensator no 847 », de 1,5 [J.[J.F par grade, avec une précision de lecture de o,05 grade; l'autre, un condensateur Manens 25puuF isolé au quartz, dont on avait supprimé des lames : la capacité de 10 uu.F obtenue permettait une lecture correspondant à 10-3 uu.F. Les mesures ont été faites de deux façons avec la cellule placée dans un récipient rempli de toluène : 10 en employant un condensateur « grossier » seulement ; 20 en mesurant à la température ordinaire, pour la cuve vide et pleine, avec le condensateur « grossier » et, pour les variations de température, avec le condensateur de précision. On a pris la moyenne des mesures à température croissante et décroissante. En faisant un essai semblable avec le benzène, on a trouvé que la capacité de la cellule de mesure était 7,96 -+- o,oi 1J.¡.tF (la constante diélectrique du benzène est celle indiquée par Niini [4D. Les résultats sont rassemblés dans le tableau I. Les thermomètres avaient été contrôlés par le Bureau des Poids et Mesures d'Helsinki et les corrections ont été faites. mesures Le spectre de coïncidences [3-y correspondant à la seconde composante à une forme expérimentale très voisine de la forme permise, confirmant les résultats antérieurs obtenus avec des sources plus épaisses. Manuscrit reçu le [1] [2] [3] [4] [5] II février 1955. Rev. HOLLANDER J. M., PERLMAN I. et SEABORG T. Mod. Phys., I953, 25, n° 2, 469. BELLAMY. 2014 Nature, I95I, 168, 556. LYON W. S. et STRAIN J. E. Phys. Rev., I954, 95, n° 6, I500. Phys. Rev., I953, HAMILTON, LEMONICK et PIPKIN. 92, II9I. JOSHI M. C. et THOSAR B. V. Phys. Rev., I954, 96, I022. BACHILOV A. A., ANTONEVA N. M., BLINOV M. V. et Isv. Akad. Naouk. S. S. S. R., DJELEPOV B. S. - - - - - I954, 18, n° Les valeurs des densités ont été déterminées avec pycnomètre 2 ml possédant deux capillaires gradués. Les mesures de densité ont été faites jusqu'à 540 C (tableau II). Pour le calcul des moments d'Onsager [5], les valeurs suivantes ont été utilisées : 60° C, o,g348; 7oo C, 0,925; 83° C, 0,912 g.cm-3. Le moment d'Onsager est plus sensible à la constante diélectrique qu'à la densité. un 1, 43. [6] MACQ. 2014 Ann. Soc. Sc., Bruxelles, 67, 30, I7. Phys. Rev., I954, [7] POHM, LEWIS, TALBOY et JENSEN. - 95, I5I3. [8] [9] TABLEAU 1. STEEL A. E. Nature, I954, 173, 3I5. LABERRIGUE-FROLOW J. - C. R. Acad. Sc., - I954, 240, 287. TABLEAU II. . CONSTANTE DIÉLECTRIQUE ET ASSOCIATION DU PYRROLE Par P. TUOMIKOSKI, Helsinki (Finlande). Les recherches infrarouges [1] ont posé le problème du mécanisme de l'association des molécules de pyrrole. Afin de trouver des données indépendantes par d'autres propriétés physique, l'auteur a abordé des La formule d'Onsager :
{'path': '49/hal.archives-ouvertes.fr-jpa-00235160-document.txt'}
Les catégories socioprofessionnelles : sous la nomenclature, quelles institutions ? Alain Chenu To cite this version: Alain Chenu. Les catégories socioprofessionnelles : sous la nomenclature, quelles institutions ?. Revue Française de Socio-Economie, Paris : La Découverte, 2012, pp.235-240. hal-01470579 HAL Id: hal-01470579 https://hal-sciencespo.archives-ouvertes.fr/hal-01470579 Submitted on 17 Feb 2017 Débats et controverses P235 > 240 Document téléchargé depuis www.cairn.info - Institut d'Etudes Politiques de Paris - - 193.54.67.93 - 24/11/2014 12h52. © La Découverte Les catégories socioprofessionnelles : sous la nomenclature, quelles institutions ? Alain CHENU OSC, Sciences-Po-CNRS alain.chenu@sciences-po.fr « En fait, jamais les hommes ne sont entrés en rapport les uns avec les autres qu'au sein de groupes définis et organisés et, par conséquent, il est tout à fait arbitraire d'imaginer une vie mentale indépendante de toute organisation. Tout au moins le groupe qu'ils forment a toujours le sentiment de lui-même, de son unité, et ce sentiment, qui varie suivant la nature, la forme, la composition des groupes, affecte nécessairement toutes les représentations qui y prennent naissance. » Marcel Mauss On s'efforce ici de replacer les catégories socioprofessionnelles dans leur contexte d'usage, en suivant un vieux principe durkheimien : ne pas dissocier l'étude des institutions et celle des idées [Mauss, 1908, p. 76 ; Gernet, 1917, préface]. Les catégories socioprofessionnelles (CS dorénavant) sont d'abord un produit de l'institution Insee (Institut national de la statistique et des études économiques), et l'Insee lui-même est le produit d'une histoire plus vaste. Très schématiquement, les CS ont suivi un cycle de vie à deux grandes phases : de la Libération au début des années 1980, elles se sont diffusées comme schème de lecture de la société française dans son ensemble ; puis elles sont entrées dans une période de déclin. Quelles institutions, derrière l'Insee, sont à l'origine de cet essor puis de ce recul ? 1. Une première phase d'extension des droits sociaux liés à l'appartenance professionnelle Dans la phase ascendante, la genèse puis l'expansion de l'usage des CS peuvent se lire en référence à la formule « quand Renault éternue, la France s'enrhume ». La période est marquée par l'importance d'un capitalisme industriel à base principalement nationale. La part des ouvriers de la grande industrie s'accroît, les syndicats de salariés sont puissants, les métallos ou les mineurs forment des catégories inductrices, des avant-gardes, pour des conquêtes sociales telles que les congés payés ou la semaine de quarante heures. Les conventions collectives de la métallurgie sont étendues à d'autres secteurs industriels, la grille ABCD de la fonction publique présente d'étroites correspondances avec la classification Parodi-Croizat (Cadre/technicien/ouvrier qualifié/ouvrier spécialisé DOI: 10.3917/rfse.010.0235 2nd. 2012 sem 10 235 Document téléchargé depuis www.cairn.info - Institut d'Etudes Politiques de Paris - - 193.54.67.93 - 24/11/2014 12h52. © La Découverte 236 et manoeuvre), l'une et l'autre renvoyant à quatre grands niveaux de formation ou d'expérience. L'État-providence se construit en référence à ces grilles : congés payés, retraite, accès à la sécurité sociale sont fonction de l'appartenance socioprofessionnelle des individus. Les mineurs forment à eux seuls une CS (sur 37) dans la nomenclature de 1954 alors qu'ils ne comptent que pour 1 % environ de la population active. Ce favoritisme, qui peut traduire une représentation physiocratique de l'économie dans laquelle les activités extractives occupent une place distincte de celles de transformation, se comprend aussi dans le contexte de la Libération, des nationalisations, de la « bataille du charbon » : les mineurs ont accédé à un statut de héros prolétariens et prométhéens, ils ont bien mérité un régime de retraite spécifique, ainsi qu'un siège au parlement symbolique des CS. Les artisans, les commerçants ont aussi une CS, mais pour d'autres raisons : leur écart avec le monde du salariat vient de se creuser, ils n'auront pas ou presque pas de retraite parce que leurs organisations professionnelles n'ont pas voulu cotiser aux caisses de répartition qui se mettaient en place – un mauvais choix, leur épargne sera bientôt laminée par l'inflation. La dernière grande étape de la construction d'une protection sociale à base socioprofessionnelle est, au début des années 1970, la mensualisation des ouvriers de l'industrie [Bunel, 1973]. Le Premier ministre Jacques Chaban-Delmas et son secrétaire général Jacques Delors, aiguillonnés par mai 1968, ont mené, sous une bannière encore gaulliste, une politique social-démocrate. La croissance est allée de pair avec une forte progression des prélèvements sociaux. Les droits en matière d'assurance-maladie s'étendent, ils sont modulés en fonction de l'appartenance socioprofessionnelle. D'autres aspects de la vie hors-travail sont en correspondance avec la CS. Une ségrégation scolaire de fait se superpose à l'appartenance socioprofessionnelle et en renforce la pertinence. Les enfants d'ouvriers, à l'exception de quelques miraculés de la sélection scolaire [Bourdieu, Passeron, 1964], n'entrent guère en 6e, le « réseau PP » et le « réseau SS » – « primaire-professionnel » et « secondaire-supérieur » [Baudelot, Establet, 1976] – sont bien disjoints. Les ouvriers votent bien plus à gauche que les cadres, qui eux vont encore massivement à l'église. Ainsi la description du monde social dans son ensemble peut se thématiser au travers du langage des CS, outil cognitif polyvalent fonctionnant comme clé de passage entre les multiples facettes (économique, politique, culturelle) de l'appartenance sociale. Pour autant que le concept de classe sociale trouve sa pertinence dans l'étroitesse des correspondances entre les différents aspects d'une situation sociale fondamentalement multidimensionnelle, la « structure de classe » se trouve ainsi visiblement au coeur de la « conscience sociale » [Ossowski, 1971]. La force de la nomenclature des CS est d'exprimer ces correspondances en délimitant des ensembles de professions qui, en raison de leur histoire, présentent un « air de famille » [Wittgenstein, 2004, § 66]. La référence à Wittgenstein, bien que non explicite, est centrale dans un article fameux de Boltanski et Thévenot, « Finding one's way in social space » [Boltanski, Thévenot, 1983], rédigé dans le cadre de la préparation de la réforme de 1982 de la nomenclature des CS. Les auteurs décrivent le « jeu des paquets », où les joueurs, à partir de fiches individuelles, doivent constituer des familles de professions ; ils identifient ainsi des professions bâtardes qui se situent aux 2nd. 2012 sem 10 Débats et controverses P235 > 240 frontières de plusieurs familles professionnelles, et des professions à forte typicité, souvent placées sur le dessus d'un paquet parce qu'elles possèdent les propriétés les plus caractéristiques de la famille concernée. Document téléchargé depuis www.cairn.info - Institut d'Etudes Politiques de Paris - - 193.54.67.93 - 24/11/2014 12h52. © La Découverte Les nomenclatures socioprofessionnelles de 1954 et surtout de 1982 se prêtent bien à la mise en évidence de l'organisation bidimensionnelle de l'espace social telle que Pierre Bourdieu la caractérise notamment dans La distinction (1979). Toutefois, l'importance de l'opposition capital culturel / capital économique n'est perceptible que lorsqu'on se situe à l'échelon des CS détaillées, à deux chiffres (37 postes en 1954, 42 en 1982). Beaucoup d'enquêtes menées en dehors de la statistique publique se limitent aux rubriques à un chiffre (9 en 1954, 6 en 1982), en raison de la faible taille des échantillons et/ou du caractère simplifié des procédures de codage. Par suite, elles sont, par construction, inadaptées à cette approche bidimensionnelle fortement mise en exergue dans le volume Données sociales publié par l'Insee en 1984 [Gollac, 2004, p. 32-33 ; Chenu, 2012, p. 91]. 2. Une seconde phase marquée par le recul des références à la position professionnelle La décennie 1980 marque un tournant, les années ultérieures pouvant être placées sous le signe d'une devise du type « quand Wall Street éternue, la France s'enrhume ». Un capitalisme financier très internationalisé est devenu dominant, notamment depuis la chute de l'URSS. Ronald Reagan et Margaret Thatcher se sont attaqués frontalement, et avec succès, aux plus puissants syndicats de salariés, ouvrant la voie du démantèlement des protections sociales naguère négociées avec ces syndicats. La France s'est dotée de nouveaux dispositifs de solidarité tout à fait indépendants de l'appartenance socioprofessionnelle (RMI, API, APE, CMU). Ces sigles (Revenu minimum d'insertion, Allocation de parent isolé, Allocation parentale d'éducation, Couverture médicale universelle) ont pu donner lieu à des dérivés tels que « rmiste » ou « apiste » qui témoignent de ce que le langage de la protection sociale a percolé dans la conscience sociale ordinaire [Schnapper, 1989]. Les salariés ont été invités à s'assurer une épargne-retraite rémunérée via les marchés financiers internationaux, alors que la retraite par répartition dépend de circuits de solidarité qui s'organisent généralement à l'échelon national ; mais en France la formule des « retraites » par capitalisation n'a guère eu de succès, et l'assise socioprofessionnelle des retraites est restée forte, notamment sous la forme du clivage entre fonctionnaires et autres salariés. Les classifications professionnelles ont fait de plus en plus souvent appel à des « critères classants » étrangers aux jargons sectoriels et à la grille des CS [Denimal, 1996]. L'école offrant aux enfants des classes populaires la possibilité un peu plus effective de faire des études longues, le thème de la méritocratie scolaire a gagné du terrain (si des enfants d'ouvriers échouent c'est parce qu'ils n'ont pas bien travaillé à l'école, donc ils méritent leur destin probable de travailleurs subalternes). L'action publique s'est équipée de seuils de pauvreté et s'est définie en termes de « lutte contre l'exclusion » [Lenoir, 1974]. Ces seuils ont fait l'objet de négociations dans le cadre des institutions européennes et leur terminologie, par construction, a été facile à traduire d'une langue à une autre, ce qui n'était pas le cas du vocabulaire socioprofessionnel – le terme de « cadre » à la française est resté à peu près incompréhensible et intraduisible hors 2nd. 2012 sem 10 237 de l'Hexagone, y compris au Québec ou en Suisse romande, tout comme il est très difficile à un Britannique d'expliquer à un non-Britannique en quoi consiste la service class, et ce en dépit des tentatives de John Goldthorpe et Robert Erikson de doter la « relation de service » d'un substrat théorique [Erikson, Goldthorpe, 1992]. Document téléchargé depuis www.cairn.info - Institut d'Etudes Politiques de Paris - - 193.54.67.93 - 24/11/2014 12h52. © La Découverte 238 Les nouvelles descriptions usuelles du monde social font aussi davantage de place à des catégories spatiales, « les banlieues », éventuellement combinées avec des catégories d'âge (« les jeunes des banlieues »). Des catégorisations en « communautés » renvoyant à l'origine nationale, ethno-raciale ou religieuse sont mises en saillance dans un contexte de plus en plus souvent qualifié de « postcolonial ». La libre circulation des marchandises et des capitaux contraste avec les barrières opposées aux migrations de travail Sud-Nord. La hauteur de ces barrières, très approximativement proportionnelle au niveau de protection sociale au Nord, est plus forte en France qu'en Grande-Bretagne. Les membres des catégories populaires autochtones des pays riches se représentent leur position sociale dans des termes qu'a très bien décrits Olivier Schwartz : on est passé d'une représentation bipolaire à une tripartition de la conscience sociale ; les conducteurs de la RATP ont le sentiment d'être soumis à une pression venant non seulement du haut (« eux » les dirigeants) mais aussi du bas (« eux » les chômeurs, les immigrants), « c'est par exemple l'idée qu'il y a trop de chômeurs qui ne cherchent pas d'emploi, qui vivent du RMI ou des aides sociales Ou encore l'idée que dans certaines familles immigrées on vit sans travailler, grâce aux allocations » [Schwartz, 2009]. Ces conducteurs se perçoivent comme étant « lésés à la fois par les plus puissants et les plus pauvres », donc comme occupant dans l'espace social une position intermédiaire. Aux États-Unis, un racisme ouvert est politiquement de plus en plus incorrect, mais la détestation de la protection sociale, très amplement répandue, continue de s'expliquer par le fait que cette protection bénéficie principalement aux Noirs [Gillens, 2000]. Donc la structure de classe apparaît dans la conscience sociale sous des facettes multiples qui cette fois renvoient à des thématisations hétérogènes dans lesquelles l'appartenance socioprofessionnelle n'est plus une clé de passage entre différents registres de description du monde social. La CS n'est plus un dispositif central renvoyant à des catégorisations congruentes dans les principaux registres de la vie sociale – travail, niveau de ressources économiques, culture, politique. Une information telle que l'appartenance à la CS des « employés administratifs de la fonction publique », par exemple, a perdu de sa pertinence à mesure qu'au sein de cette catégorie la part des fonctionnaires assurés de leur emploi s'amoindrissait au profit de celle des salariés précaires. Les références à la CS diminuent massivement, de 1987 à 1990, dans Données sociales, la publication de l'INSEE où elles étaient les plus fréquentes [Pierru, Spire, 2008, p. 462], et Données sociales disparaît après 2006. 3. Une Europe dépourvue de conscience sociale commune C'est dans ce contexte que l'on peut évoquer la concurrence, dans l'espace statistique européen, entre l'ESeC (European Socio-economic Classification [Rose, Harrison, 2007]) et des projets en cours qui feraient plus de place à l'expérience française de 2nd. 2012 sem 10 Débats et controverses P235 > 240 Document téléchargé depuis www.cairn.info - Institut d'Etudes Politiques de Paris - - 193.54.67.93 - 24/11/2014 12h52. © La Découverte mise en oeuvre des CS [Brousse, 2008]. La force de la CS tenait certes à la sagacité de Jean Porte ou des promoteurs de la réforme de la nomenclature de 1982 (Desrosières, Thévenot, Boltanski, Gollac), mais elle découlait avant tout de ce que les métallos étaient un groupe inducteur, et de ce que la fonction publique à la française était une institution forte. Y a-t-il un principe de structuration similaire à l'échelle européenne aujourd'hui, qui serait porté par des institutions jouant un rôle homologue de celui des syndicats de salariés au temps du Front populaire, de la Libération, de Mai 1968 ? Le vocabulaire des seuils de pauvreté est assez facile à traduire d'une langue à une autre, mais la pertinence d'une traduction est faible puisque les seuils sont calculés pays par pays, et non à l'échelle européenne, la charge d'une éventuelle redistribution vers les plus pauvres reposant surtout sur les moins pauvres du même pays. Le vocabulaire de description des sociétés européennes est doublement fragmenté par « facettes » non congruentes, intra-nationalement et internationalement, en fonction de la diversité des dispositifs de protection sociale, qui suivent des chemins de dépendance propres à chaque pays [Esping-Andersen, 2009]. Aucune nomenclature européenne des positions sociales, quelle qu'elle soit, ne jouera le rôle de grille unique de passage entre les différentes facettes de l'appartenance sociale qui a été celui de la CS : la portée d'une certaine unification statistique est forcément très limitée si le nouvel ordre cognitif ne s'appuie pas sur des institutions fortes, susceptibles de donner du poids aux catégories mises en oeuvre ; or les institutions européennes sont bien loin d'avoir la capacité d'action qui était celle, dans la France de la Libération, des organisations issues du Conseil national de la Résistance. À l'échelle planétaire, des catégories prenant appui sur l'IDH (indice de développement humain [Stiglitz, Sen, Fitoussi, 2009]) renouent avec le caractère multi-facettes de la CS, mais leur portée pratique est à la mesure du poids d'institutions internationales telles que l'OCDE ou les Nations unies, encore plus faibles que l'Union européenne. Bibliographie Baudelot C., Establet R. (1976), L'école capitaliste en France, Paris, Maspero. Boltanski L., Thévenot L. (1983), « Finding one's way in social space: a study based on games », Social Science Information, 22 (3-4), p. 631-680. Bourdieu P. (1979), La distinction, Paris, Minuit. Bourdieu P., Passeron J.-C. (1964), Les héritiers, Paris, Minuit. Bunel J. (1973), La mensualisation, une réforme tranquille ?, Paris, Économie et humanisme. Brousse C. (2008), « ESeC, projet européen de classification socio-économique », Courrier des statistiques, 125, p. 27-36. Chenu A. (2012), « Les catégories socioprofessionnelles », in A. Bevort et al. (dir.), Dictionnaire du travail, Paris, PUF, p. 89-95. Denimal P. (1996), Les classifications professionnelles, Paris, PUF. Erikson R., Goldthorpe J. (1992), The Constant Flux. A Study of Class Mobility in Industrial Societies, Oxford, Clarendon Press. Esping-Andersen G. (2009), « The welfare state and redistribution », in W. Salverda, B. Nolan, T. Smeeding (ed.), The Oxford Handbook of Economic Inequality, Oxford, Oxford University Press. 2nd. 2012 sem 10 239 Gernet L. (1917), La pensée juridique et morale en Grèce, Paris, Ernest Leroux. Gillens M. (2000), Why Americans Hate Welfare: Race, Media, and the Politics of Antipoverty Policy, Chicago, University of Chicago Press. Gollac M. (2004), « La rigueur et la rigolade. À propos de l'usage des méthodes quantitatives par Pierre Bourdieu », Courrier des statistiques, 112, p. 29-36. Document téléchargé depuis www.cairn.info - Institut d'Etudes Politiques de Paris - - 193.54.67.93 - 24/11/2014 12h52. © La Découverte 240 Lenoir R. (1974), Les exclus. Un Français sur dix, Paris, Le Seuil. Mauss M. (1908), « L'art et le mythe d'après Wundt », Revue philosophique, 66, p. 48-78. Ossowski S. (1971 [1963]), La structure de classes dans la conscience sociale, Paris, Anthropos. Pierru E., Spire A. (2008), « Le crépuscule des catégories socioprofessionnelles », Revue française de science politique, 58 (3), p. 457-481. Rose D., Harrison E. (2007), « The European socio-economic classification: a new social class schema for comparative European research », European Societies, 9, p. 459-490. Schnapper D. (1989), « Rapport à l'emploi, protection sociale et statuts sociaux », Revue française de sociologie, 30 (1), p. 3-29. Schwartz O. (2009), « Vivons-nous encore dans une société de classes ? Trois remarques sur la société française contemporaine », site internet La vie des idées, 22 sept. (http:// www.laviedesidees.fr/Vivons-nous-encore-dans-une.html). Stiglitz J., Sen A., Fitoussi J.-P. (2009), Mesure des performances économiques et du progrès social réexaminée, site internet http://www.stiglitz-sen-fitoussi.fr/documents/ overview_francais.pdf. Wittgenstein L. (2004 [1953]), Recherches philosophiques, Paris, Gallimard. 2nd. 2012 sem 10
{'path': '01/hal-sciencespo.archives-ouvertes.fr-hal-01470579-document.txt'}
Mécanisme d'action de nouveaux agents alkylants ciblant l'ADN ou les protéines Gaëlle Lenglet To cite this version: Gaëlle Lenglet. Mécanisme d'action de nouveaux agents alkylants ciblant l'ADN ou les protéines. Médecine humaine et pathologie. Université du Droit et de la Santé - Lille II, 2010. Français. NNT : 2010LIL2S048. tel-00703474 HAL Id: tel-00703474 https://tel.archives-ouvertes.fr/tel-00703474 Submitted on 2 Jun 2012 Université de Lille Nord de France Ecole Doctorale Biologie-Santé THESE Présentée pour l'obtention du grade de : DOCTEUR DE L'UNIVERSITE DE LILLE-NORD DE FRANCE Discipline : Biologie moléculaire et cellulaire Par Gaëlle LENGLET Mécanisme d'action de nouveaux agents alkylants ciblant l'ADN ou les protéines Soutenue le 15 décembre 2010 devant le jury : Rapporteurs : Dr Sophie BOMBARD Dr Thierry RABILLOUD Examinateurs : Pr Fernando RODRIGUES-LIMA Pr Pierre FORMSTECHER Membre invité (co-Directeur de thèse): Directeur de thèse : Dr Denise MENDY Dr Marie-Hélène DAVID A Michaël, A ma Famille, A tous ceux qui me sont chers Remerciements Je tiens à exprimer mes plus vifs remerciements aux docteurs Sophie BOMBARD et Thierry RABILLOUD d'avoir accepté d'être rapporteurs de cette thèse. Je remercie également les professeurs Fernando RODRIGUES-LIMA et Pierre FORMSTECHER, de me faire l'honneur de siéger dans ce jury. J'exprime également toute ma reconnaissance à mes tuteurs de thèse les docteurs Marie-Hélène DAVID et Denise MENDY. Remerciements Ce projet de thèse fut réalisé au sein de l'équipe 4 de l'unitée INSERM 837. Je tiens à remercier le Pr Formstecher d'avoir su m'accorder sa confiance et de m'avoir apporté conseil et soutien. Je tiens à exprimer toute ma gratitude à l'Université de Lille 2, le Conseil Régional Nord-Pas-de-Calais, l'Inserm ainsi que les membres du conseil de l'IRCL, dont le Pr Jean Krembel pour le financement de ma thèse. Le bon déroulement de la thèse n'aurait pu se faire sans l'assistance, la disponibilté et le professionalisme de mes deux tutrices. Je remercie très chaleureusement Marie-Hélène David pour m'avoir orienté dans mes travaux de recherche, je lui adresse toute ma gratitude pour son soutien et son aide quand j'en ai eu besoin. Je tiens également à te remercier pour m'avoir permis de participer à différents congrès et projets qui m'ont permis un épanouissement personnel sans précédent. Je remercie le Dr Denise Mendy pour sa transmission de savoir en protéomique et pour ses précieux conseils. Encore un grand merci pour tout. Sabine (Depauw), je te remercie pour m'avoir intégré aussi bien professionnellement qu'amicalement, pour ta grande disponibilité, ta gentillesse, ta bonne humeur et tes expériences culinaires que l'on a dût éliminer en faisant du roller et du sport en salle !! Raja (Nhili), je tiens à te remercier pour tes encouragements et ton aide à finaliser ce projet de thèse. Et n'oublions pas Marie-Paule (Hildebrand), j'ai apprécié votre joie de vivre et votre franchise. Je remercie également les thésards et post-doctorants, Paul Peixoto, Magali Rebucci, Samuel Meignan et Laure Delestré pour leur bonne humeur et leur soutien. Je remercie aussi Xavier Dezziter pour son aide dans mes débuts à la paillasse. Je tiens à remercier Christelle Vambesien et Odile Viltard grâce à qui j'ai eu l'occasion de m'essayer à l'enseignement durant ces deux dernières années. Un grand merci aux Amélies Lansiaux et Dewitte, à Nicole Lemahieu (l'as du cytomètre et des discussions politiques), Christine Bal (ma collègue motarde), Brigitte Baldeyrou et Nicolas Simon pour leur soutien durant mes années au laboratoire. Merci également à « l'équipe 4 du troisième », pour leur acceuil, merci au Dr Renata Polakowska et à Yasmine Touil pour leurs conseils. Remerciement Je remercie le Dr Maud Collyn, pour sa joie de vivre et la mise à disposition du matériel de l'IMPRT IFR-114. Nathalie et Meryem, je vous remercie pour votre gentillesse et pour votre apprentissage au bon usage des machines. Hervé Drobecq, je te remercie pour ta collaboration, et oui je dois être une rare personne des alentours à être contente d'identifier de la GAPDH !! Un grand merci également au Dr Florence Pinet pour m'avoir permis d'utiliser l'Ettan-DIGE Imager et à Olivia Beseme pour l'aide donné concernât son utilisation Je remercie tous mes collègues organisateurs des Journées André Verbert, pour ces bons moments passés lors de nos réunions, notamment notre directrice le Dr Malika Hamdane pour ses nombreux conseils prodigués. Je remercie le Pr Jean-Louis Kraus pour l'étude du produit JLK1486. Je remercie Micheline Magdelon pour son efficacité, sa gentillesse et Matthias pour son humour. Merci à toutes les personnes qui ont contribué de près ou de loin à la rédaction de ce mémoire et aux membres de la grande famille IRCL, que je ne citerai pas de peur d'oublier quelqu'un. Au delà des murs du labo, il existe une vie dans laquelle j'ai pu compter sur mon amie Wendeline, son amitié a été le meilleur réconfort lors de ces années d'étude. Un grand merci à Jean-Jacques et Véronique pour leur gentillesse, leur soutien et de m'avoir acceuilli dans leur famille depuis presque dix ans. J'exprime ma plus profonde reconnaissance à ma famille. Mes soeurs Mathilde et Noémie pour avoir partagé ma vie durant ce travail, et qui m'ont donné leur force et leur soutien. Mes parents qui m'ont permis de faire ces études, pour les perpétuels encouragements et leur confiance sans lesquels je n'aurais pu réussir. Merci à toi Michaël qui partage ma vie depuis presque dix ans. Tu m'as accompagné dans toutes mes épreuves depuis les bancs du lycée jusqu'à aujourd'hui. Tu as fais plus de sacrifices que je ne pourrais l'admettre pour supporter mon stress et mon emploi du temps pendant toutes ces années et en particulier pendant mes années de Master puis de Doctorat. Je te remercie d'avoir toujours été là pour moi, d'avoir écarté les doutes, merci pour ton amour et pour tout le bonheur que tu m'as apporté. ☺Merci à tous!!! LISTE DES ABREVIATIONS Liste des abréviations ADN : Acide Désoxyribo Nucléique ADNdb: ADN double brin ADNsb: ADN simple brin AIF : Apoptosis Inducing Factor AMM : Autorisation de Mise sur le Marché AMV-RT : Avian Myeloblastosis Virus-Reverse Transcriptase ANT: Adenine Nucleotide Translocator APE1: Human APymidic/APuric Endonuclease 1 Ap4A : Diadénine Polyphosphate ARN: Acide RiboNucléique Ara-C: Cytarabine cytosine arabinoside ATM: Ataxia Telangiectasia Mutated ATR: Ataxia telangiectasia mutated-RAD3 related BER: Base Exision Repair 3BrPA: Pyruvic acid analog 3-bromopyruvate BSO: Buthionine Sulfoximine CAST-ing: Cyclic Amplification of Sequence Targeting CBP: CREB Binding Protein CICD: Caspase Independante Cell Death Cyt c: Cytochrome c dATP: Désoxyadenosine triphosphate dGTP: Désoxyguanosine triphosphate dCTP: Désoxycytosine triphosphate dTTP: Désoxythymidine triphosphate DSBs : Cassures doubles brins de l'ADN DMSO : Diméthyl sulfoxide Liste des abréviations DO : Densité Optique EI-MS: Electrospray Ionization Mass Spectrometry 5-FU: 5-Fluoro-Uracile GAPDH: Glycéraldéhyde-3-phosphate déshydrogénase GG-NER: Global Genomic Nucleotide Excision Repair G3P: Glycéraldéhyde-3-Phosphate GSH: Glutathion GSNO: Glutathion nitrosylé GST pull-down: Gluthatione S-Transferase pull-down γH2AX: H2AX phosphorylé H2 O2 : Peroxyde d'hydrogène HIF-1: Hypoxia inducible factor-1 HMG-B1: High Mobility Group-B1 4-HNE: 4-hydroxy-2-nonenal HPV: Human papillomavirus HRP: Horse Radish-Peroxidase ICL: Crosslink interbrin IPSF-IIα: Immunoglobulin Production Stimulating Factor-IIα LDH-B : Lactate Déshydrogénase B LMC : Leucémie Myéloïde Chronique LPS : Lipopolysaccharide MALDI-TOF: Matrix-Assisted Laser Desorption/Ionisation Time of Flight MGMT : O6-Méthyl-Guanine DNA Méthyl Transférase min : Minute mL : Millilitre mM : Millimolaire Liste des abréviations mm : Millimètre MMP : Perméabilisation de la Membrane Mitochondriale MMR: Mismatch Repair MPG: Méthylpurine Glycosylase mU: Milli-unité NAD+: Nicotinamide Adénine Dinucléotide NER: Nucleotide Excision Repair NES: Nuclear Export Signal NLS: Nuclear Localization Signal ng: Nanogramme nm: Nanomètre NO: Oxide Nitrique OMS: Organisation Mondiale de la Santé OEC: Observatoire Européen du Cancer PARP: Poly(ADP-ribose) Polymerase pb: Paires de bases PM: Poids Moléculaire PCAF: P300/CBP-Associated Factor pI: Point Isoélectrique PSF: Polypyrimidine tract-binding protein-associated Splicing Factor PVDF: Polyvinylidene fluoride RE: Réticulum Endoplasmique Rpm: Rotations Par Minute ROS: Espèces Réactives de l'Oxygène siRNA: Small Interference RNA SVF: Sérum de Veau Foetal TBP: TATA Binding Protein Liste des abréviations TC-NER: Transcription-Coupled Nucleotide Excision Repair TGF-β: Transforming Growth Factor-beta Tm: Melting Temperature TRAI: TNF-Related Apoptosis-Inducing Ligand U: Unités UDG: Uracile DNA Glycosylase V: Volts XELOX: Combinaison de l'oxaliplatin (par voie intraveineuse) et de la capecitabine (par voie oral) μg: Microgramme μM: Micromolaire μm: Micromètre ΔΨmt: Variation du potentiel de membrane mitochondriale TABLE DES MATIERES Table des matières Table des matières LISTE DES ABREVIATIONS 6 TABLE DES MATIERES 11 CHAPITRE I : Introduction 17 1. Cancer et cibles moléculaires 18 1.1. 1.2. 1.3. 1.4. 1.5. Terminologie et épidémiologie 18 Tumorigenèse : Dommages à l'ADN 19 Historique de la chimiothérapie 21 Phénomènes de résistance 22 Efficacité du traitement chimiothérapeutique 23 2. Traitement systémique, agents chimiques 23 2.1. Agents ciblant les voies signalétiques 24 2.2. Anti-métabolites 24 2.3. Antitubulines 25 2.4. Inhibiteurs de Topoisomérases 25 2.5. Agents intercalants de l'ADN 26 2.6. Agents clivant l'ADN 26 2.7. Agents alkylant l'ADN 26 2.7.1. Définition 26 2.7.2. Agents alkylant le grand sillon 28 2.7.3. Alkylants du petit sillon 33 3. Le S23906-1 36 3.1. Découverte de l'acronycine et synthèse de dérivés pentacycliques 36 3.2. Mécanisme d'action du S23906-1 39 3.2.1. Mécanisme d'action cellulaire du S23906-1 39 3.2.2. Détoxification cellulaire du composé 42 3.2.3. L'ADN comme cible moléculaire du S23906-1 43 3.3. Bilan mécanistique 47 3.4. Déstabilisation de la double hélice 48 3.5. Objectifs 48 4. GAPDH 49 4.1. Expression et structures de la GAPDH 50 4.1.1. Gène(s) de la GAPDH 50 4.1.2. Régulation de l'expression de la GAPDH 50 4.1.3. Structure et activité glycolytique de l'enzyme 52 4.1.4. Modifications post-traductionnelles de la GAPDH 54 4.2. Localisation et fonctions extracellulaires 56 4.3. Localisation et fonctions cytoplasmiques 57 4.3.1. Interaction avec la membrane plasmique, échanges d'informations avec le milieu extracellulaire 57 4.3.2. Interaction avec les tubulines, interface RE-golgi 58 4.3.3. Localisation mitochondriale, rôle anti- ou pro-apoptotique 58 Table des matières 4.3.4. Activité kinasique de la GAPDH, implication dans la transmission de signaux et dans l'infection des cellules 59 4.4. Interface Cytoplasme/Noyau 60 4.4.1. Régulation de l'expression de certains ARN, implication dans l'inflammation, l'infection et l'export d'ARNt 60 4.4.2. Translocation nucléaire de la GAPDH 60 4.5. Fonctions nucléaires 64 4.5.1. Maintien structural de la chromatine 64 4.5.2. Réplication 65 4.5.3. Régulation de la transcription 65 4.5.4. Réparation des lésions de l'ADN 66 4.5.5. Interaction Acides Nucléiques et reconnaissance d'adduits 68 4.6. Bilan des fonctions de la GAPDH 69 4.6.1. Diabète, inflammation, infection 69 4.6.2. Survie, prolifération cellulaire et maintenance 69 4.6.3. Activité antiproliférative et maladies neurodégénératives 70 CHAPITRE II : Objectifs des travaux de thèse 72 CHAPITRE III : Résultats et discussions 75 Partie I : Projet S23906-1 76 1. Interaction à l'ADN et déstabilisation 76 1.1. Validation de l'interaction du S23906-1 aux guanines 76 1.2. Déstabilisation de l'ADN 78 2. Recherche des partenaires protéiques des adduits 83 2.1. Identification d'un site de fixation de facteurs de transcription ciblé par le S23906-1 84 2.1.1. Utilisation de membranes TranSignalProtein/DNA Array 84 2.1.2. Protéines ciblant la séquence Smad-SBE 87 2.1.3. Vérification de l'alkylation de Smad-SBE par le S23906-1 88 2.2. Recherche du/des partenaire(s) protéique(s) 89 2.2.1. Protéines recrutées sur l'oligonucléotide Smad-SBE 89 2.2.2. HMG-B1, une protéine aux multiples fonctions nucléaires 91 2.2.3. Localisation nucléaire de la GAPDH 91 2.3. Validation des interactions 93 2.3.1. Interaction HMG-B1/Smad-SBE alkylé ou non 93 2.3.2. Interaction GAPDH/Smad-SBE alkylé ou non 93 2.3.3. Interaction GAPDH/autres séquences alkylées ou non 99 2.3.4. Interaction GAPDH/Smad-SBE alkylé par d'autres composés 102 3. Spécificité de fixation de la GAPDH à l'ADN 107 3.1. 3.2. 3.3. 3.4. Identification de séquences consensus par CAST-ing107 Validation du consensus par retard en gel, ADN non alkylé 109 Validation du consensus par retard en gel, ADN alkylé par le S23906-1 114 Stoechiométrie et domaine d'interaction de la GAPDH à l'ADN116 4. Translocation nucléaire de la GAPDH après traitement au S23906-1 118 Table des matières 4.1. Etude de la localisation cellulaire de la GAPDH exogène après traitement au S23906-1 118 4.1.1. Mise au point de la transfection dans les cellules A549 118 4.1.2. Localisation cellulaire de la GAPDH-GFP : Time Lapse 119 4.1.3. Etude de l'interaction entre la GAPDH chimérique et Smad-SBE 120 4.1.4. Conséquences de la surexpression globale de la GAPDH 121 4.2. Etude de la localisation cellulaire de la GAPDH endogène après traitement au S23906-1 122 4.2.1. Cellules A549 122 4.2.2. Cellules HT-29 124 4.2.3. Validation par western-blot 126 5. Conséquences cellulaires de l'interaction GAPDH/adduits 127 5.1. Cellules HT-29 127 5.1.1. Invalidation transitoire de la GAPDH 127 5.1.2. Survie des cellules transfectées avec le siRNA puis traitées au S23906-1 128 5.2. Cellules A549 129 Partie II : Projet JLK1486 131 1. Introduction 131 2. Recherche d'une cible nucléotidique et peptidique 132 3. Recherche d'une cible protéique 133 Partie III : Etude de composés dérivés de la nitidine 136 Partie IV : Etude de dérivés pyrido- et thienocarbazoles de l'ellipticine 137 CHAPITRE IV : Conclusion et Perspectives 139 CHAPITRE V : Matériel et méthodes 148 1. Molécules, oligonucléotides et protéines utilisés 149 1.1. Composés 149 1.2. Oligonucléotides 149 1.3. Protéines 151 1.3.1. Protéines commerciales 151 1.3.2. Préparation des protéines 151 2. Approches moléculaires 154 2.1. Clonage 154 2.1.1. Construction plasmidique 154 2.1.2. Souche bactérienne 155 2.1.3. Transformation bactérienne 155 2.1.4. Amplification des plasmides 155 2.2. Méthodes d'étude des interactions ADN/ligand 156 2.2.1. Etudes biophysiques 156 2.2.2. Spectrométrie de masse, MALDI-TOF 157 2.2.3. Méthodes radioactives 157 2.3. Méthodes d'étude des interactions protéine/ADN 159 2.3.1. Modulation de fixation de facteurs de transcription à l'ADN 159 Table des matières 2.3.2. Chromatographie d'affinité 160 2.3.3. Retard en gel 161 2.3.4. CASTing 162 2.4. Analyses protéomiques 163 2.4.1. Electrophorèse monodimensionnelle (1D) 163 2.4.2. Electrophorèse bidimensionnelle (2D) 164 2.4.3. Electrophorèse 2D-DIGE, marquage à saturation 165 2.4.4. Western-blotting 166 3. Approches cellulaires 167 3.1. Culture cellulaire167 3.2. Microscopie de fluorescence 168 3.2.1. Localisation de la GAPDH exogène en temps réel 168 3.2.2. Localisation de la GAPDH endogène (Confocal) 169 3.3. Transfection transitoire d'un siRNA 169 3.3.1. Mise au point du protocole 169 3.3.2. Préparation des cellules pour l'étude du cycle cellulaire et contrôle du taux d'expression de la GAPDH 170 3.3.3. Préparation des cellules pour le test de survie 170 3.4. Cytomètrie en flux 171 3.5. Evaluation de la survie cellulaire (MTS) 171 BIBLIOGRAPHIE 173 CHAPITRE I : Introduction CHAPITRE I : Introduction 1. Cancer et cibles moléculaires 1.1. Terminologie et épidémiologie Il y a plusieurs siècles, le cancer n'était pas aussi fréquent car l'espérance de vie était moins élevée. La peste, la tuberculose ou encore la diphtérie représentaient les premières causes de mortalité. Depuis le 20ème siècle, avec l'accroissement de l'espérance de vie et l'augmentation de l'exposition à des éléments cancérogènes (tabac, aliments riches, polluants chimiques), le cancer est devenu l'une des premières causes de mortalité. Ainsi, dans le monde, plus de 11 millions de personnes sont diagnostiquées avec un cancer chaque année, et il tue environ 7 millions de personnes tous les ans. Selon l'OMS (l'Organisation Mondiale de la Santé), le nombre de cancers pourrait atteindre 15 millions de nouveaux cas par an dès 2020. Selon les dernières statistiques publiées pour l'Europe par l'OEC (Observatoire Européen du Cancer) en 2006, le nombre de cas incidents (nouveaux cas diagnostiqués) de cancer est d'environ 2,4 millions (en dehors des cancers de la peau non mélanomes) et le nombre de décès d'environ 1,2 millions. Le cancer est moins fréquent chez la femme (45% des cas diagnostiqués) que chez l'homme (55% des cas diagnostiqués) (figure 1). Figure 1 : Estimation de l'incidence des cancers les plus fréquents en 2006 en Europe par l'OEC. 18 CHAPITRE I : Introduction Une « tumeur » (ou néoplasme) est une masse anormale de tissu qui peut être bénigne ou maligne (cancéreuse). Notre corps étant composé de centaines de catégories différentes de cellules, il existe alors des centaines de cancers qui peuvent être classés en fonction du type cellulaire affecté : le carcinome (tissus glandulaires et épithéliaux), le sarcome (tissu conjonctif), le lymphome (ganglions lymphatiques), le myélome (moelle osseuse) et la leucémie (éléments constitutifs du sang). L'une des caractéristiques du cancer est la prolifération anarchique de cellules anormales qui peuvent se propager dans d'autres organes, via la circulation sanguine ou lymphatique, formant des « métastases » (figure 2). En effet, selon le type de cancer, les cellules vont acquérir des capacités de motilité et d'invasion différentes. Le décès par cancer est dû principalement au développement de ces métastases au niveau des organes vitaux. Figure 2: Propagation de cellules tumorales (http://anaximperator.files.wordpress.com/2009/04/m etastasis.jpg) 1.2. Tumorigenèse : Dommages à l'ADN Les cancers sont des pathologies avec pour origine principale une altération génétique qui est somatique dans 90% des cancers humains ; les 10% restants sont associés à une altération constitutionnelle (facteur héréditaire). L'ADN (Acide DésoxyriboNucléique) est le support de l'information génétique, il est empaqueté sous forme de chromosomes par association à des protéines chromatiniennes au sein des noyaux des cellules eucaryotes. Selon le modèle de Watson et Crick (figure 3A) [18], la molécule d'ADN est formée de deux brins complémentaires enroulés en hélice de façon antiparallèle, donnant naissance à un grand et à un petit sillon. 19 CHAPITRE I : Introduction Ces deux brins sont constitués d'un enchaînement précis (séquence) d'unités élémentaires que sont les nucléotides (dATP, dGTP, dCTP et dTTP). Un nucléotide est composé d'un phosphate relié à un sucre, le 2'-désoxyribose, lui-même relié à une base azotée. L'adénine (A) et la guanine (G) sont des bases puriques, la cytosine (C) et la thymine (T) des bases pyrimidiques. Les liaisons hydrogènes qui lient les bases des deux brins complémentaires vont stabiliser la double hélice (figure 3B). A. B. Figure 3: (A) Structure de l'ADN. (B) Appariement des bases nucléiques. Cet ADN est continuellement soumis à des agressions. Ces altérations sont soit dues à des facteurs internes (mutations, additions ou délétions au niveau de la séquence d'ADN, modifications épigénétiques), soit dues à des facteurs externes (virus, bactéries, agents chimiques ou radioactifs, radiations électromagnétiques). En majeure partie, les modifications de l'ADN de nos cellules passent inaperçues car les systèmes de réparation de l'ADN corrigent ces défauts. Mais dans de rares cas, une mutation peut subsister et modifier l'expression de facteurs qui contrôlent la prolifération cellulaire, comme les oncogènes ou les suppresseurs de tumeur ; ces dérégulations conduiront à plus ou moins long terme à l'apparition d'un cancer. Les lignes classiques de traitements antitumoraux sont représentées par la chirurgie et la radiothérapie (traitements locaux-régionaux), ainsi que la chimiothérapie (traitement systémique, agents chimiques) qui est la base de nombreux travaux de recherche du laboratoire. Pour augmenter l'efficacité et diminuer les phénomènes de résistance et de toxicité, ces traitements sont le plus souvent combinés dans le cadre d'une stratégie programmée. Enfin, on a plus rarement recours à l'hormonothérapie ou à l'immunothérapie (traitement systémique, agents biologiques), pour les cancers sensibles à ces traitements. Il est 20 CHAPITRE I : Introduction important de rappeler que, selon le type de traitement employé, les cellules répondront de manière différente et y seront plus ou moins sensibles (radiosensibilité ou chimiosensibilité des cellules tumorales). 1.3. Historique de la chimiothérapie Au 19ème siècle, diverses méthodes « anticancéreuses » étaient déjà à l'étude, le Pr Flores y avait décrit les propriétés anti-tumorales d'un lézard d'Amérique Centrale. W. Harvey proposa également de couper l'apport vasculaire de la tumeur puisqu'il était connu que la ligature du cordon testiculaire induisait la nécrose du testicule ; ce concept fut d'ailleurs repris un siècle et demi plus tard par J. Folkman sous le nom de thérapie antiangiogénique [19]. Au début du 20ème siècle, P. Ehrlich montra l'affinité de certaines matières colorantes pour les cellules vivantes (tel que le bleu de méthylène pour le tissu nerveux). Par ailleurs, sachant que certains colorants tuent les micro-organismes, il poursuivit ses recherches afin d'utiliser ces colorants à des fins thérapeutiques. En 1909, il mit au point un dérivé de l'arsenic efficace contre la syphilis, le Salvarsan, premier médicament de synthèse qu'il perfectionne par la suite sous le nom de Néosalvarsan, utilisé jusqu'en 1945 et remplacé alors par la pénicilline. Sa contribution à la mise au point de nouvelles techniques expérimentales, comme l'utilisation des cultures cellulaires pour sélectionner des substances disposant d'un effet thérapeutique potentiel (anti-bactérien, anti-tumoral), lui vaut d'être considéré comme le père de la chimiothérapie [20]. La méchlorétamine (ou Caryolisine®), appelée plus communément gaz moutarde, est la première molécule à avoir fait la preuve d'une efficacité significative pour le traitement du cancer. C'est en 1946 que sont publiés plusieurs cas de régressions tumorales chez des patients atteints de lymphome et traités par la moutarde azotée [21]. Dès 1945, plusieurs dérivés de la moutarde azotée furent développés, dont certains sont encore utilisés aujourd'hui tels que le chlorambucile et le melphalan. D'autre part, une des premières applications du principe de sélectivité (déterminant l'index thérapeutique) sera la découverte des inhibiteurs de l'acide folique comme le méthotrexate ou encore des antimétabolites comme le 5-Fluorouracile (5-FU). Cependant, jusque dans les années 80, la plupart des médicaments anticancéreux ont été sélectionnés et développés tout en ignorant bien souvent leur mécanisme d'action au niveau cellulaire. A présent, une phase d'étude pré-clinique permet d'identifier le mécanisme d'action moléculaire, d'étudier l'effet de la nouvelle molécule sur les cellules et sur l'animal afin de déterminer les organes cibles potentiels. 21 CHAPITRE I : Introduction Enfin, l'histoire retiendra probablement l'Imatinib (Glivec®) comme le premier agent de chimiothérapie ciblée, sélectionné selon un processus radicalement différent. Ce composé a été synthétisé spécifiquement pour inhiber l'activité enzymatique de la protéine de fusion bcrabl suite à la découverte de la translocation t(9;22) dans la leucémie myéloïde chronique. Cependant, en l'état actuel des connaissances, tous les types de cancers n'ont pas de cibles clairement identifiées ou utilisables. Il est donc important de continuer à développer de nouvelles molécules à large spectre d'action présentant une plus grande tolérance et une moins forte toxicité. Cette recherche passe en grande partie par l'exploration de la nature comme source d'agents actifs, leur structure pouvant servir de base à l'élaboration de nouveaux médicaments pour lutter contre les cancers qui ne disposent pas ou peu de traitements à ce jour. Les plantes, les microorganismes et, plus récemment, les organismes marins représentent les principales sources d'agents anticancéreux. Depuis le début de la chimiothérapie, il a été estimé que plus de 60% des nouvelles entités chimiques introduites entre 1981 et 2006 étaient des produits naturels ou des dérivés de ces produits naturels [22]. 1.4. Phénomènes de résistance La recherche de nouvelles molécules est d'autant plus importante étant donné que 50% des tumeurs présenteraient d'emblée des phénomènes de résistance aux traitements antitumoraux. De plus certaines tumeurs peuvent développer une résistance au cours du traitement, la population cancéreuse est en effet souvent hétérogène et une sélection de clones résistants peut se produire [23]. La résistance au traitement serait due à : - Une faible concentration intracellulaire de drogue (augmentation de l'efflux ou diminution de l'entrée) (ex : anthracyclines) - L'inactivation de la drogue par des mécanismes de détoxification, comme l'interaction au glutathion (GSH) (ex : alkylants) ou à des métallothionéines qui sont des détoxifiants des métaux lourds (ex : cisplatine) - La diminution de l'activité de la drogue, métabolisme de l'agent au sein de la cellule (conversion des antimétabolites en nucléotides, métabolisme hépatique ou élimination rénale) - L'augmentation de la production d'un récepteur ou d'une enzyme impliquée dans la tumorigenèse par amplification de gène (ex : methotrexate en quantité insuffisante si amplification de la dihydrofolate réductase) 22 CHAPITRE I : Introduction - La diminution de l'affinité à un récepteur ou à une enzyme impliquée dans la tumorigenèse (ex : les inhibiteurs de kinase ne pourront plus interagir avec les kinases mutées comme le Glivec®) - L'augmentation de la réparation de l'ADN (ex : alkylants) - La diminution de l'activité d'une enzyme cible (ex : inhibiteurs de Topoisomérase II telle que la doxorubicine) - L'augmentation de l'expression du gène de resistance multidrogue mdr1 qui code pour la glycoprotéine P, une pompe d'efflux transmembranaire dépendante de l'ATP. Dans certains cas cette résistance peut être inversé par l'utilisation de cyclosporine, de tamoxifen ou de bloqueurs de canaux calciques comme le verapamil. Afin de remédier à ces phénomènes de résistance, des combinaisons thérapeutiques sont possibles. 1.5. Efficacité du traitement chimiothérapeutique Sachant que la majorité des cellules tumorales se multiplient plus rapidement que les cellules saines, les molécules impliquées directement ou indirectement dans les mécanismes de prolifération cellulaire, et plus particulièrement l'ADN nucléaire et les protéines nucléaires associées, représentent de multiples cibles privilégiées des traitements antitumoraux classiques. Afin d'augmenter l'efficacité du traitement, les agents cytotoxiques peuvent être associés dans le cadre d'un protocole de polychimiothérapie. L'utilisation simultanée de plusieurs médicaments repose sur la recherche d'un meilleur indice thérapeutique basé sur l'utilisation de molécules ayant des mécanismes d'actions différents. Par exemple, le 5-FU combiné à la leucovorin est le seul protocole depuis plus de 40 ans à montrer la plus forte activité contre les cancers colorectaux. Depuis peu, le protocole XELOX (combinaison de l'oxaliplatin par voie intraveineuse et de la capecitabine par voie orale) a montré son efficacité chez des patients présentant un cancer colorectal métastasique [24]. 2. Traitement systémique, agents chimiques Les agents chimiques sont de petites molécules synthétiques ou semi-synthétiques qui vont cibler les voies de signalisation conduisant à la prolifération ou à la mort de la cellule, le fuseau mitotique, la réplication, la transcription ou aussi la réparation de l'ADN. 23 CHAPITRE I : Introduction 2.1. Agents ciblant les voies signalétiques Depuis quelques années, les points de contrôle du cycle cellulaire sont devenus les cibles de molécules anti-tumorales. En effet, le cycle cellulaire est sous le contrôle de nombreuses protéines, dont les cyclines, les activateurs de ces cyclines, les kinases dépendantes des cyclines (CDK) et leurs inhibiteurs. Une attention particulière a été portée aux inhibiteurs de CDK qui agissent majoritairement en bloquant le site ATP par compétition, tel que le Flavopiridol et la Roscovitine [25, 26]. L'apoptose est un mécanisme de mort programmée qui met en jeu la perméabilisation des membranes de la mitochondrie. Le développement d'oligonucléotides antisens de bcl-2 (Genasens ou Oblimersen) et de peptides-bloquant qui miment le domaine BH3 (ABT263 ou ABT737) tend à sensibiliser les cellules à l'apoptose. Certains agents bloquent la transduction des signaux des récepteurs membranaires à leurs cibles nucléaires. Ainsi, l'un des premiers oncogènes identifiés (HER2/Neu) est ciblé par l'anticorps Herceptin®. Parallèlement aux approches immunologiques par anticorps, s'est développé le ciblage des activités tyrosine kinase de différents récepteurs membranaires comme l'Iressa® (Gefitinib) pour l'EGFR (epidermial growth factor). De nombreuses molécules sont également développées pour bloquer directement les activités transcriptionelles de c-jun, NFĸB ou STAT. Enfin de nombreuses molécules anti-angiogéniques sont en cours de développement ; les phénomènes de néo-angiogenèse passant par la transcription et la sécrétion de facteurs angiogéniques par les cellules tumorales sous l'effet de l'hypoxie. 2.2. Anti-métabolites Ces composés vont bloquer la synthèse des acides nucléiques en phase S du cycle cellulaire, soit en inhibant les protéines nécessaires au métabolisme des bases puriques et pyrimidiques, comme par exemple le méthotrexate (MTX ou Ledertrexate®) et le pemetrexed (Alimta®) qui sont des antifolates, ou alors l'hydroxyurée (hydroxycarbamide ou Hydrea®) qui inhibe la ribonucléotide-diphosphate réductase ; soit en se substituant aux bases azotées, comme le 5-FU ou la cytarabine (cytosine arabinoside, Ara-C, Aracytine®, Cytarbel®, ou Cytosar®) qui sont des antipyrimidiques, ou la 6-mercaptopurine (6-MP, Purinéthol®) et la 6-thioguanine (Lanvis®) qui sont des antipuriques ; soit encore en hydrolysant la L-asparagine, qui est un précurseur de la synthèse protéique, comme par exemple la L-asparaginase (Kidrolase®). 24 CHAPITRE I : Introduction 2.3. Antitubulines Au cours de la prophase, chaque centrosome se place à un pôle de la cellule pour initier la polymérisation des tubulines alpha et beta en microtubules pour former le fuseau mitotique. C'est ce fuseau qui capture les chromosomes et les positionne sur la plaque équatoriale métaphasique pour les séparer ensuite en deux jeux égaux. Les antitubulines interagiront avec les tubulines et bloqueront ainsi la dynamique de polymérisation (Vincaalcaloïdes : vinblastine (Velbe®) et vinorelbine (Navelbin®)) / dépolymérisation (Taxanes : paclitaxel (Taxol®) et docetaxel (Taxotère®)) des microtubules. 2.4. Inhibiteurs de Topoisomérases Les topoisomérases sont des enzymes assurant la condensation / décondensation de l'ADN après avoir créé des coupures transitoires de l'un (topoisomérase I) ou des deux (topoisomérase II) brins, puis leur ligation, permettant une relaxation des forces de torsion générées au moment de la réplication. Figure 4: Activité de la topoisomérase I et de la topoisomérase II, d'après http://acces.inrp.fr/. (A) Liaison non covalente de la topoisomérase I à l'ADNdb. (B) Clivage d'un brin et liaison covalente de l'enzyme à l'extrémité 3' de ce brin. (C) Relaxation de l'ADN et religation. (D) Libération de la topoisomérase I. (E) Fixation du dimère topoisomérase II. (F) Hydrolyse d'ATP et coupure des brins. (G) Hydrolyse d'ATP et séparation des brins du premier ADN par rapport aux brins non coupés du deuxième ADN. (H) Religation et hydrolyse d'ATP suivie d'une libération de la topoisomérase II. Les inhibiteurs des ADN topoisomérases I (irinotecan (ou Campto®) et le topotecan (Hycamtin®)) ou de topoisomérase II (telle que l'aclarubicine qui inhibe la fixation à l'ADN et la novobiocine qui inhibe la fixation de l'ATP) ne s'intercalent pas dans l'ADN mais bloquent le site catalytique. L'etoposide (Celltop®, Etopophos® ou Vépéside®) agit comme un poison en stabilisant le complexe de clivage [ADN/topoisomérase II] et en empêchant l'étape de religation, ce qui provoque une coupure définitive des brins d'ADN. Certains 25 CHAPITRE I : Introduction intercalants peuvent aussi empêcher le recrutement de la topoisomérase II, mais aussi de la topoisomérase I comme par exemple le composé Hoechst 33342. 2.5. Agents intercalants de l'ADN Ce sont des molécules caractérisées par plusieurs noyaux aromatiques condensés, de dimension et structure telles qu'elles provoquent une détorsion de la molécule d'ADN et donc un empêchement de la progression des ARN et ADN polymérases ainsi qu'une inhibition de la réplication et de la transcription. La présence de substance intercalée entre les deux brins de l'ADN peut perturber aussi l'action de l'ADN topoisomérases I et II (cf paragraphe précédent) et provoquer des cassures mono- et bicaténaires. Il existe différents groupes utilisés en clinique : comme les Anthracyclines (doxorubicine (Adriblastine®, Myocet® ou Caelyx®) et la daunorubicine (Cérubine® ou Daunoxome®)), les Anthracènes (mitoxantrone (ou Novantrone®)) ou les Phenoxazines (dactinomycine et actinomycine-D (ou Cosmegen®)). Ces molécules génèrent pour certains des radicaux libres (quinones, diols, époxydes, superoxydes, peroxyde d'hydrogène) pouvant altérer les membranes plasmiques et s'associer à l'ADN en tant qu'alkylant. Certains inhibiteurs de topoisomérase II, comme la doxorubicine (aTAa), présentent une sélectivité de séquence [27]. 2.6. Agents clivant l'ADN La substance qui est actuellement la plus connue pour ses propriétés de clivage de la double hélice d'ADN est la bléomycine (Blenoxane®) [28]. Son mode d'action met en jeu des coupures des brins d'ADN résultant d'une réaction radicalaire au niveau du désoxyribose des nucléotides GT ou GC. Les antibiotiques naturels de type Enediynes (dynemicin A et neocarzinostatin) ont également un fort potentiel de clivage de l'ADN. 2.7. Agents alkylant l'ADN 2.7.1. Définition Les agents alkylants sont des composés fortement électrophiles qui vont réagir avec des molécules possédant des radicaux nucléophiles tels que les groupements -SH, -OH, COOH ou –NH2 que l'on retrouve dans les acides nucléiques et les protéines (figure 5). 26 CHAPITRE I : Introduction Figure 5: Réaction chimique entre un nucléophile et un électrophile, formation d'une liaison covalente. L'interaction par liaison covalente entre l'agent alkylant et l'ADN produit différents types d'adduits: - en fonction de l'isomérie et du métabolisme de l'alkylant, la fixation se fait de manière partielle ou quasi-complète ; - monovalents (sur un nucléotide) ou bivalents (l'alkylant relie deux nucléotides adjacents pour former des ponts inter- ou intra-brins) (figure 6); - au niveau de sites plus ou moins préférentiels au sein de l'ADN ; - qui modifieront la structure de la double hélice (stabilisation/déstabilisation). Figure 6: Interactions monoou bivalentes produites par les agents alkylants. La fixation de ces molécules à l'ADN et notamment la formation de crosslinks interbrins empêche la réplication et la transcription [13]. De plus, ces lésions induisent souvent des cassures simple- ou double-brins de l'ADN ce qui conduit à l'apoptose de la cellule ou à la mise en exécution des systèmes de réparation pour le maintien de la prolifération des cellules tumorales (phénomène de résistance). Les agents alkylants se fixent principalement au niveau des bases puriques, plus particulièrement au niveau des guanines qui présentent quatre sites potentiels de fixation (N2, N3, N7 et O6), alors que les adénines n'en présentent que deux (N7 et N3) (figure 7). L'azote N7 de la guanine est la cible principale de l'alkylation puisqu'il a le plus haut potentiel électrophile de l'ADN, puis les suivants ont des potentiels de moins en moins élevé : O6guanine et N3-adénine > N2-guanine, N3 guanine et N7-adénine [29]. 27 CHAPITRE I : Introduction Figure 7: Sites d'interaction à l'ADN de différents agents alkylants. Les agents surlignés en jaune sont en essais cliniques. Par rapport aux caractéristiques énumérées plus haut, les agents alkylants présenteront une efficacité cytotoxique et une activité anti-tumorale propre. La compréhension du mécanisme d'action de chacun d'entre eux permettra le développement de nouvelles molécules qui contourneront les éventuels phénomènes de résistance rencontrés. Dans un premier temps, il est donc important de présenter les avantages et les inconvénients de certains agents alkylant le grand sillon, connus pour la plupart depuis les années 40. Dans un second temps, nous verrons que les agents alkylant le petit sillon, découverts plus récemment, sont faiblement représentés et la majorité d'entre eux sont encore en essai clinique (figure 7). Ces agents sont très prometteurs car ils pourraient contourner les phénomènes de résistance rencontrés avec certains agents alkylant du grand sillon. 2.7.2. Agents alkylant le grand sillon 2.7.2.1. Les moutardes azotées Les propriétés cytotoxiques des moutardes azotées sont dues principalement à la formation de ponts interbrins (figure 6). Cependant, seulement 10% de ces composés forment in vivo des interactions bivalentes avec l'ADN [30]. Les composés vont réagir principalement avec la position N7 des résidus guanines [31, 32] via un intermédiaire aziridinium (figure 8.1) pour former une guanine N7-alkylée (figure 8.2). Ce mono-adduit va ensuite former un second intermédiaire aziridinium (figure 8.3), qui pourra soit réagir avec l'eau (figure 8.4) ou avec un second résidu guanine pour former le cross-link entre deux brins de séquence 5'-GNC (figure 8.5) [31-33]. Cependant, les guanines N7-alkylées (figure 8.6) sont peu stables, une rupture du pont N-glycosyl peut avoir lieu, ce qui crée un site abasique (figure 8.7) ou un dérivé formamido-pyrimidine (FAPY), plus stable (figure 8.8)[13]. 28 CHAPITRE I : Introduction Figure 8: Modèle d'interaction des moutardes azotées avec l'azote en position 7 de la guanine, exemple de la méchlorétamine (ou Caryolisine®) [13]. En général, la contrainte provoquée par ce type de crosslink, entre deux G d'une séquence 5'GNC, ne permet pas de produire une distorsion de l'hélice. Cependant, des études structurales ont déjà montré une courbure de 14° de l'ADN suite à la formation d'un crosslink avec la méchlorétamine (ou Caryolisine®) [34]. Celle-ci est utilisée pour le traitement de la maladie de Hodgkin. Cette molécule interagit directement avec l'azote en position 7 des guanines [34]. Le cyclophosphamide (ou Endoxan®) est quant à lui utilisé pour le traitement adjuvant des cancers du sein et des ovaires, pour le traitement des sarcomes, des neuroblastomes, des lymphomes hodgkiniens et non hodgkiniens, des myélomes et dans certaines leucémies aiguës lymphoïdes. Celui-ci doit être activé par des enzymes hépatiques (telle que CYP2B6) pour ensuite pouvoir interagir avec l'azote en position 7 des guanines. A. B. Figure 9: (A) Structure de la méchlorétamine. (B) Structure du cyclophosphamide avant et après action des enzymes hépatiques. Le témozolomide (ou Tomodal®) (figure 10.1) est un composé monovalent, activé via une hydrolyse enzyme-indépendante suivie d'une décarboxylation pour former le 5méhyltriazenoimidazole-4-carboxamide (MTIC) (figure 10.2) puis le 5-aminoimidazole-4carboxamide (figure 10.3) et enfin les ions methyldiazonium (figure 10.4), l'espèce réactive qui méthyle un des deux brins d'ADN en position N7 ou O6 des guanines (figure 10.5). 29 CHAPITRE I : Introduction A. B. Figure 10: (A) Réaction d'interaction du témozolomide avec l'ADN, d'après [9]. (B) Interaction avec O6 ou N7 de la guanine. Le témozolomide est administré pour traiter les mélanomes et les gliomes malins. Cependant pour ce dernier type de cancer, plusieurs cas de chimiorésistance ont été rencontrés. En effet, les lésions induites par le témozolomide en position O6 et N7 de la guanine sont reconnues par une O6-méthyl-guanine DNA méthyl transférase (MGMT) et par une méthylpurine glycosylase (MPG) suggérant une réparation plus importante de la lésion [35] (figure 11 ). Figure 11: Voies de réparation des lésions induites par le témozolomide, d'après [11]. Ces lésions sont reconnues par la MGMT ou la MPG, qui activeront à leur tour les voies de réparation MMR (Mismatch Repair) ou BER (Base Exision Repair). Les lésions seront toxiques pour la cellule. 30 CHAPITRE I : Introduction 2.7.2.2. Les moutardes souffrées ou alkyl-sulfonates Le busulfan (ou Misulban®) est un agent alkylant bifonctionnel qui interagit avec l'azote en position 7 des guanines. Il n'est indiqué que dans le traitement de la leucémie myéloïde chronique Figure 12: Structure du busulfan. (LMC). 2.7.2.3. Les nitrosourées Les nitrosourées sont des molécules liposolubles, ce qui favorise leur passage à travers la barrière-hémato-encéphalique. La carmustine (ou BCNU ou Bicnu®) est utilisée dans le traitement des tumeurs Figure 13: Structure de la carmustine. cérébrales malignes. Elle interagit principalement en N7 ou O6 des guanines [36] et peut former ou non des crosslinks interbrins [37, 38]. Même si les crosslinks ne représentent que 8% des adduits totaux, la cytotoxicité serait liée majoritairement à leur formation [39]. De plus, les lésions induites en O6 par les nitrosourées sont réparées par une MGMT comme pour le témozolomide [40, 41]. Un traitement préalable avec un inhibiteur de MGMT sensibilise les cellules à la carmustine et au témozolomide [42]. Enfin, la carmustine stabilise la double hélice et induit une distorsion minimale de l'ADN [43]. 2.7.2.4. Les sels de platine Figure 14: Structure du cisplatine. Les dérivés platinés font partis des agents anticancéreux les plus prescrits, ils sont en effet utilisés pour traiter un large spectre de tumeurs humaines. Les sels de platine se fixent principalement au niveau de l'azote en position 7 des guanines. A. Le cisplatine (ou cis-diamminedichloroplatinum(II) ou Cysplatyl®) possède deux atomes de chlore labiles et deux groupements ammoniaques inertes de conformation cis reliés à un B. atome de platine central. Le composé interagit avec N7-guanine mais aussi avec d'autres sites du grand sillon de l'ADN comme C. O6-guanine et N7-adénine. Les adduits monofonctionnels ne représentent que 1 à 2% des lésions formées par le cisplatine et peuvent donner naissance à des pontages ADN-protéine [44]. Les lésions les plus rencontrées sont les crosslinks intrabrin d(GpG) (65%) ou encore d(ApG) (25%) (figure 15). 31 Figure 15: Nature des adduits bifonctionnels du cisplatine formés avec l'ADN. (A) Adduit d(GpG). (B) Adduit d(ApG). (C) Adduit interbrin. CHAPITRE I : Introduction On observe seulement 5 à 10% de crosslinks interbrins (ICL)s (entre deux guanines) et 5 à 10% de crosslinks intrabrin sur la séquence d(GpNpG) [45]. Même quand il est lié à des structures biologiques, le cisplatine conserve sa disposition planaire de conformation cis, essentielle à son activité. Les composés trans, ne pouvant pas produire de crosslink intrabrin, n'ont quasiment aucune activité anti-tumorale [46]. L'interaction du cisplatine va également induire des altérations structurales de la double hélice puisqu'il entraîne des courbures et des déroulements plus ou moins importants de l'ADN. Ces modifications structurales ont été étudiées par trois approches différentes: gel d'électrophorèse (a), cristallographie aux rayons X (b) et résonance magnétique nucléaire (RMN) (c) qui ont été résumés dans le tableau 1. Adduit -ADN/protéine -Intrabrin d(GpG) -Intrabrin d(ApG) -Interbrin Courbure de l'ADN (en°) 0 32-34 (a) 39-55 (b) 78 (c) 58 (c) 32-34 (a) 55(c) 45 (a) 47 (b) 20 (c) Déroulement de l'ADN (en °) 5 (a) 13 (a) nd 25 (c) 21 (c) 13 (a) 79 (a) 70 (b) 87 (c) Références bibliographiques [47] [47] [48] [49] [50] [47] [51] [52] [53] [54] Tableau 1: Courbures et déroulements induits par différents adduits du cisplatine, d'après [10]. Dans les cellules résistantes au cisplatine, les lésions de l'ADN vont être mieux réparées suite, principalement, à la surexpression des protéines impliquées dans la voie NER (Nucleotide Excision Repair) [55-58]. De plus, les liaisons intrabrins d(GpNpG) sont mieux réparées par la voie NER que les d(GpG) [59]. En effet, il a été montré que certaines protéines HMG (HMG-1 et HMG-2) avaient une haute affinité et spécificité de fixation pour les adduits 1,2d(GpG) [60]. Cette reconnaissance empêche la fixation des protéines de la voie de réparation NER et augmente ainsi la sensibilité des cellules au cisplatine [61]. Le complexe hMutSα et hMSH2 de la voie de réparation MMR peut également reconnaitre les crosslinks d(GpG) ou d(ApG) [62]. De plus, les cellules qui ont une voie MMR active sont plus sensibles au cisplatine [63-65]. 32 CHAPITRE I : Introduction L'oxaliplatine (figure 16), qui forme moins d'adduit que le cisplatine, est pourtant plus efficace car les adduits sont plus difficiles à réparer, mais surtout l'oxaliplatine n'a pas besoin d'une machinerie MMR fonctionnelle, et est donc plus efficace sur les lignées tumorales déficientes en MMR [66]. 2.7.2.5. Figure 16 : Structure de l'oxaliplatine. Aziridine (Mitomycine C) La mitomycine C (ou Ametycine®) est utilisée dans le traitement du cancer du sein, du colon et de la vessie. Elle interagit avec l'azote en position 7 ou 2 des guanines via le groupement aziridine après activation in vivo par des flavoréductases. Son activité est donc sélective des régions hypoxiques des tumeurs solides. Ce composé se lie à l'ADN sous forme d'adduit mono- ou bivalent inter- ou intrabrin (figure 17) [1] et induit une distorsion mineure de la double hélice [67]. Cependant, si la mitomycine C est activée dans le cytoplasme, elle ne pourra plus interagir avec l'ADN dans le noyau. Figure 17 : Adduit mitomycine C/ désoxyguanosine [1] 2.7.3. Alkylants du petit sillon 2.7.3.1. Dérivés de la distamycine A Les dérivés de la distamycine A (figure 18) interagissent plutôt au niveau de l'azote en position 3 des guanines. Le tallimustine est le dérivé de la distamycine A le plus connu. Il présente la structure de base de la distamycine A avec en plus un groupement benzoyle de 33 CHAPITRE I : Introduction moutarde azotée (figure 19). La brostallicine est un autre dérivé synthétique, actuellement en essai clinique de phase I-II chez des patients présentant une résistance à différents agents de chimiothérapie, notamment associé à une surexpression de la GSH-S-transférase [68, 69]. En effet, la brostallicine doit être activée par le GSH pour pouvoir interagir avec l'ADN, alors que dans la plupart des cas, le GSH agit plutôt comme un agent détoxifiant [70]. Figure 19: Structure de la distamycine A (A), de la brostallicine (B) et du tallimustine (C). 2.7.3.2. Dérivés cyclopropylindole Le CC-1065 (figure 20) a une forte efficacité in vitro (cellules leucémiques, mélanome, cancer du sein, de l'ovaire, du pancréas, neuroblastome) mais une trop forte hépato-toxicité sur les modèles expérimentaux. Il interagit avec l'azote en position 3 des adénines ou des guanines. Ce composé stabilise localement la double hélice [71], mais induit aussi une courbure générale de l'ADN [72]. 2.7.3.3. Figure 20: Structure du CC-1065. SJG-136 Le SJG-136 (ou Spirogen ou NSC694501) est un dimère pyrrolobenzodiazepine. Celui-ci est le composé le moins électrophile connus des agents alkylant l'ADN. Cette propriété lui permet alors de ne pas être désactivé par des éléments nucléophiles de la cellule avant son interaction avec l'ADN. Contrairement au CC-1065, le SJG-136 interagit avec deux N2guanines séparées par 2 paires de bases au niveau d'une séquence Figure 21: Structure du SJG-136 formant un crosslink interbrin entre deux guanines [9]. spécifique (5'-PuGATCPy-3') (figure 21) [73, 74]. In vivo, il est plus efficace que le cisplatine alors les ICLs (crosslinks interbrins) produits par chacun des composés sont tous deux réparés par ERCC1-XPF (protéines de la voie NER, voir figure 31) [75]. De plus, le SJG-136 est 100 fois plus efficace que le melphalan (ou Alkeran®) sur différentes cellules CHO (Chinese hamster ovary). En effet, les ICLs produits par le SJG-136 sont plus persistants que ceux produits par le melphalan (interaction avec N3-adénine) [74, 75]. Contrairement au cisplatine et au CC-1065, le SJG34 CHAPITRE I : Introduction 136 n'induit pas de distorsion de l'ADN [73]. Bien que les ICLs sembleraient responsables de l'activité cytotoxique du SJG-136, une étude récente a montré que le SJG-136 pouvait induire également des mono-adduits et des crosslinks intrabrins. Cela expliquerait pourquoi ce composé est plus efficace que le CC-1065 et le cisplatine alors qu'il n'induit pas de torsion de la double hélice [76]. Le SJG-136 est actuellement en essai clinique de phase I-II chez des patients présentant des tumeurs solides avancées [77, 78]. 2.7.3.4. ET-743 L'ET-743 (Ecteinascidin 743 ou Trabectedin ou Yondelis®) (figure 22) est en phase III d'essai clinique pour le cancer de l'ovaire et a obtenu une autorisation de mise sur le marché (AMM) pour le traitement du sarcome de tissu mou évolué en seconde ou première intention. Ce composé naturel d'origine marine interagit avec N2-guanine sous forme de mono-adduit [15]. Il présente également une certaine sélectivité de séquence puisqu'il se fixe de manière plus importante sur une séquence 5'-AGGCA-3' [79]. Figure 22: Structure de l'ET743. Il est composé de 3 cycles tétrahydroisoquinoline : le A et le B interagissent avec l'ADN et le C se retrouve à l'extérieur du petit sillon, où il peut interagir avec des facteurs de transcription [15]. Le carbone C21 impliqué dans l'interaction avec l'ADN est localisé sur la sous-unité A. Contrairement aux autres alkylants du petit sillon, l'ET-743 courbe l'ADN vers le grand sillon tout en stabilisant les deux brins de la double hélice [15, 80]. De manière tout à fait originale, l'ET-743 empêche la fixation du facteur de transcription NF-Y et inhibe ainsi l'expression d'une pompe d'efflux des drogues, la glycoprotéine P [15, 81]. L'ET-743, en concentration plus élevée, inhibe la fixation d'autres facteurs de transcription comme TBP (TATA binding protein), E2F et SRF (régulateurs du cycle cellulaire) [82]. Cette inhibition de la transcription est constitutive [80, 83]. L'ET-743 bloque notamment la progression de la phase S conduisant à une accumulation des cellules en phase G2/M, via une inhibition de la 35 CHAPITRE I : Introduction transcription des gènes essentiels à la progression du cycle, et engendre ainsi une apoptose indépendante de p53 [84-86]. Enfin, l'activité cytotoxique d'ET-743 est liée également à une mauvaise réparation via la voie TC-NER (Transcription-coupled NER). Ainsi, contrairement aux autres agents alkylants, l'ET-743 est moins efficace sur les cellules déficientes en TCNER de part un blocage de XPG (une protéine de la voie de réparation NER, voir figure 31) au niveau de la lésion, empêchant la réparation de l'adduit [87], et induisant des DSBs (cassures doubles brins de l'ADN) [88]. Les lésions de l'ADN les plus toxiques connues à ce jour sont les crosslinks interbrins (ICLs), qui sont produits par des agents alkylants bi-fonctionnels. En effet, elles vont bloquer les processus cellulaires qui nécessitent une séparation des deux brins de l'ADN, comme la transcription et la réplication [13]. Cependant, il existe de nombreuses voies de réparation des ICLs, notamment la voie NER avec ERCC1-XPF [89] qui va engendrer une résistance des cellules aux agents alkylants. De manière intéressante, l'étude du mécanisme d'action des agents alkylant a mis en évidence le recrutement de protéines de la machinerie cellulaire au niveau des lésions, qui vont alors augmenter la toxicité de l'agent, comme par exemple le recrutement de XPG au niveau de l'adduit ET-743 ou de HMG-B1 au niveau de l'adduit cisplatine, et inhiber la réparation de la lésion. Notre projet repose sur l'étude du mécanisme d'action d'un autre agent alkylant le petit sillon de l'ADN entré en phase I d'essai clinique: le S23906-1. Ses caractéristiques originales seront développées dans la partie suivante. 3. Le S23906-1 3.1. Découverte de l'acronycine et synthèse de dérivés pentacycliques L'acronycine (3,12-dihydro-6-methoxy-3,3,12-trimethyl-7H-pyrano[2,3-c]acridin-7- one) a été découverte en 1948. Cet alcaloïde a été isolé pour la première fois à partir de l'écorce d'un arbuste (Rutaceae) d'origine australienne Acronychia baueri Schott (=Sarcomelicope simplicifolia (Endl.)Hartley ssp simplicifolia), par l'équipe de Hughes et Lahey [90]. Sa structure moléculaire a ensuite été établie par MacDonald et Robertson, ils ont 36 CHAPITRE I : Introduction montré que le cycle pyrane était fusionné de manière angulaire au squelette de base acridone, puis c'est en 1970 que l'acronycine a été cristallographiée [91, 92]. A. B. Figure 23: (A) Sarcomelicope simplicifolia ssp. Simplicifolia, d'après L. Fagg et L. Valle, Australian National Botanic Gardens. (B) Structure de l'acronycine. En 1966, l'équipe de Svoboda (laboratoire Eli Lilly) a montré son intérêt en tant qu'agent antitumoral à large spectre sur les tumeurs solides in vivo, notamment sur des tumeurs résistantes à d'autres agents de chimiothérapie (le sarcome 180, le carcinome S-115, le melanome S-91 et plus particulièrement le myelome X-5563) [93]. En raison de sa faible puissance et de sa quasi-insolubilité dans l'eau et les solvants biocompatibles, l'acronycine est administrée aux patients sous forme de capsule à avaler. L'activité envers la lignée X-5563 étant intéressante, les essais cliniques ont été effectués sur des patients présentant un myelome multiple réfractaire. Ces essais se sont cependant limités aux phases I-II du fait des problèmes de formulation conduisant à de trop fortes toxicités gastrointestinales et neurologiques [94]. Le mécanisme d'action de l'acronycine au niveau cellulaire et moléculaire n'est pas encore bien déterminé. Dans les années 70, certains auteurs suggèrent que l'acronycine n'interagirait pas directement avec les acides nucléiques mais gênerait indirectement la synthèse d'ADN et d'ARN [95]. Des expériences montrent en effet que l'alkaloïde agit principalement en altérant les membranes des organelles ou de la surface cellulaire [96-98]. Par conséquent, il bloque la division cellulaire pour donner une binucléation et ainsi réduit l'assemblage des nucléosides [99]. Dans les années 80, Dorr et Liddil suggèrent malgré tout une possible réactivité de l'acronycine avec l'ADN, puisque l'acronycine stabiliserait la double hélice lors d'une dénaturation thermique [100]. Les effets de l'acronycine sur le cycle cellulaire ne sont pas clairement établis [101]. 37 CHAPITRE I : Introduction L'isolement de dérivés de l'acronycine à partir d'autres arbustes du genre Sarcomelicope (Rutaceae), notamment le dérivé 1-2 époxy-acronycine (figure 24), ont mis en évidence la possibilité d'une bio-activation in vivo [102]. Cependant, l'instabilité chimique de l'époxyde rendait impossible son utilisation comme agent antitumoral [103]. Par la suite, de nombreux autres dérivés d'origine naturelle ont été isolés, et de nombreux composés synthétiques plus stables et présentant une meilleure solubilité ont été produits (figure 24). Ces composés se sont avérés à la fois plus puissants et plus Figure 24: Structure de base des dérivés de l'acronycine [16]. actifs que l'acronycine sur les lignées cellulaires et in vivo [103]. Dans les années 90, il a été montré que certains dérivés semi-synthétiques de l'acronycine interagissait avec l'ADN de thymus de veau, de foie de veau, et avec une variété de (désoxy)ribonucléotides simple ou double brins. Bien qu'aucune spécificité de séquence ne soit observée, il a été proposé que cette interaction jouerait un rôle important dans l'activité cytotoxique du composé [101]. En 2000, afin de favoriser cette interaction, les chimistes du laboratoire de pharmacognosie de l'Université de Paris V ont synthétisés des dérivés diesters optimisés par l'addition d'un noyau aromatique fusionné au squelette de base acronycine [104] (figure 25). La benzo[b]acronycine présente une meilleure activité cytotoxique in vitro par rapport à la benzo[a] ; la benzo[c] est quant à elle 4 à 5 fois moins active que les deux précédents, et elle présente alors quasiment la même activité que l'acronycine [105]. Figure 25: Structure de la benzo[a]acronycine (A), benzo[b]acronycine (B), benzo[c]acronycine (C). Plusieurs dérivés ont été synthétisés et testés, notamment des dérivés de la benzo[b] acronycine [105-107]. 38 CHAPITRE I : Introduction 3.2. Mécanisme d'action du S23906-1 Le S23906-1 (cis-1,2-diacétoxy-1,2-dihydrobenzo[b]acronycine) (figure 26), développé par l'Institut Servier, a été sélectionné parmi ces composés pour son potentiel cytotoxique in vitro [108] et son activité anti-tumorale in vivo sur de nombreux modèles anti-tumoraux [104, 109]. Figure 26: Structure des composés diacétate S23906-1 (A), monoacétate S28687-1 (B) et diol S23907-1 (C). En effet, le S23906-1 a montré une efficacité et une activité antitumorale équivalente ou plus importante que celles des médicaments actuellement utilisés en clinique humaine (paclitaxel, topotécan, vinorelbine), ou sur les modèles de tumeurs solides humaines de poumon (A549 et NCI-H460), de colon (HCT-116 et HT-29) et de l'ovaire (IGROV1 et NIH:OVCAR-3) xénogreffées sur la souris immunodéprimée nude [109]. 3.2.1. Mécanisme d'action cellulaire du S23906-1 Diverses études ont été entreprises afin de mieux comprendre le mécanisme d'action cellulaire et moléculaire de ce composé. Au niveau des cellules HT-29, on observe des effets sur le cycle cellulaire variables en fonction de la concentration en produit [110] : un arrêt réversible en phase G2/M du cycle cellulaire (0,1 à 1μM de S23906-1), puis un arrêt irréversible en phase S du cycle, suivi d'apoptose (2,5 à 5μM de S23906-1) et enfin un arrêt en phase G1/S (10μM de S23906-1). Le S23906-1 induit également l'apoptose des cellules leucémiques HL-60 via l'apparition de populations sub-G1 [111]. Cependant, aucune population de ce type n'est observée sur les cellules murines de mélanome B16 (cellules particulièrement résistantes aux agents cytotoxiques), pour lesquelles on observe cependant une accumulation en G2/M [111], tout comme obtenue sur les cellules HT-29 [110]. Il y aurait donc différentes machineries cellulaires mises en place selon la concentration en S23906-1 utilisée. Son action rapide et irréversible suggère notamment une accumulation du S23906-1 dans les cellules tumorales et des lésions peu ou pas réparées [110]. Une lignée cellulaire résistante à 500nM de S23906-1 (KB500) a été sélectionnée à partir de lignées KB3.1 sensibles pour faciliter l'étude du mécanisme d'action du S23906-1 [112]. Des tests de Comet Assay et de phosphorylation d'histones H2AX par ATM (Ataxia telangiectasia mutated) et ATR (Ataxia telangiectasia mutated-RAD3 related) kinase ont montré que les 39 CHAPITRE I : Introduction premiers adduits générés conduisaient à une formation plus importante de DSBs dans la lignée sensible au S23906-1 (13% de DSBs à 5μM pour KB3.1 contre 4% de DSBs pour KB500 après 4H) [112]. La formation de ces lésions active alors différentes machineries cellulaires. 3.2.1.1. Arrêt du cycle cellulaire (lignées HT-29, HeLa, KB3.1 et KB500) La formation de DSBs génère l'activation de protéines kinase « checkpoint » Chk1 et Chk2 qui vont indirectement provoquer l'arrêt du cycle cellulaire en phase G2/M (et/ou G1/S) (figure 27) et ainsi permettre à la cellule de réparer la lésion ou alors d'entrer en apoptose si la lésion n'est pas réparable. Le S23906-1 induit en effet l'activation de Chk2 dans les lignées sensibles [112]. Mais contrairement à l'irofulven (autre alkylant du petit sillon), le S23906-1 active aussi Chk1 dans les cellules HeLa et HT-29 [113]. Une augmentation de la cycline E est observée au niveau des cellules HT-29 et KB3.1. Cependant, aucune augmentation de l'activité cycline E/Cdk2 n'est mesurée, en lien avec un blocage en phase G1 (figure 27) [110]. Figure 27: Modèle d'arrêt du cycle en phase G1/S suite au traitement des cellules au S23906-1 (d'après Cell Signaling Technology). L'induction de DSBs par le S23906-1 active Chk2 qui va ensuite indirectement inhiber le complexe cycline E/Cdk2. 40 CHAPITRE I : Introduction L'implication de la cycline E dans l'activité cytotoxique du S23906-1 n'est pas claire pour ces lignées, d'autant plus que cette protéine n'est pas surexprimée dans les cellules KB500 [110]. L'utilisation de siRNA dirigé contre la cycline E1 démontre qu'elle n'est pas directement impliquée dans l'activité cytotoxique du S23906-1 [113]. 3.2.1.2. Mort par « catastrophe mitotique » (lignées HT-29 et HeLa) L'observation d'un arrêt réversible en phase G2/M émet l'hypothèse d'une entrée en mitose des cellules. Le S23906-1 induirait alors « une catastrophe mitotique », c'est à dire une entrée en mitose des cellules dont l'ADN n'est pas complètement répliqué. Une augmentation importante du taux de Cycline B1 a été observée après 1 à 4H de traitement des cellules HT29 et HeLa, l'augmentation étant plus faible après 24H. Une forte quantité de cycline B1 (de 16H à 48H post-traitement) et une activité de Cdk1 qui augmente à partir de 32H a été observée, prouvant que les cellules entrent en mitose après un dommage à l'ADN (figure 28) [113]. Figure 28: Modèle d'arrêt du cycle en phase G2/M suite au traitement des cellules au S23906-1 (d'après Cell Signaling Technology). L'induction de lésions à l'ADN par le S23906-1 active Chk2 qui va ensuite indirectement inhiber le complexe cycline B/Cdk1. 41 CHAPITRE I : Introduction Des tests en microscopie de fluorescence utilisant un anticorps anti-γH2AX ont montré des cellules en mitose contenant de l'ADN endommagé après 24H de traitement au S23906-1. Enfin, si l'on inhibe les « checkpoints » par la caféine, on augmente le nombre de cellules en mitose sous traitement au S23906-1, passant de 1,5% à 11,4% [113]. Le S23906-1 activerait donc dans un premier temps les « checkpoints » de dommage à l'ADN pour prévenir d'une « catastrophe mitotique », ce qui explique l'observation d'un arrêt du cycle en phase G2/M. Malgré cela, cette « catastrophe mitotique » a lieu même après 24H, c'est pourquoi on observe une reprise du cycle cellulaire et la réversibilité de l'arrêt en phase G2/M. 3.2.1.3. Mort par apoptose caspase-dépendante (lignée HL-60 et cellules murines de mélanome B16) Le composé S23906-1 induit l'apoptose des cellules HL-60 par une voie dépendante des caspases 3 et 7 mais ne montre pas d'effet sur l'expression de Bcl-2. L'apparition de populations sub-G1 (fonction de la concentration en S23906-1) est associée à l'observation d'importants changements du potentiel de membrane mitochondrial (ΔΨmt) et à une production de ROS (espèces réactives à l'oxygène). Aucune de ces réponses moléculaires n'est observée sur les cellules murines de mélanome B16 [111]. 3.2.2. Détoxification cellulaire du composé Le S23906-1 étant un composé fortement électrophile, il présente la capacité d'interagir avec des radicaux nucléophiles retrouvés également au sein des acides nucléiques et des protéines. Par des expériences de biologie moléculaire classique (EI-MS, dichroisme circulaire, fluorescence, retard en gel) mais aussi de biologie cellulaire (test MTS avec ou sans BSO (buthionine sulfoximine, inhibiteur de la synthèse de gluthation)), il a en effet été montré que le S23906-1 pouvait interagir avec le groupement thiol de la cystéine présente dans le glutathion. Certains dérivés du S23906-1 peuvent également interagir avec ce GSH, comme par exemple le S28687, mais pour lequel une transestérification est nécessaire (figure 29) [16, 114, 115]. Figure 29: Réaction de formation de la liaison covalente entre le S28687 et le GSH [16]. 42 CHAPITRE I : Introduction La formation d'adduits GSH-dérivé benzoacronycine diminue l'action cytotoxique du composé contrairement à ce qui est observé avec la brostallicine [114]. Enfin, la résistance des cellules KB500 au S23906-1 n'est pas liée à une surexpression de la glycoprotéine-P (pompe d'efflux des drogues) [112] . 3.2.3. L'ADN comme cible moléculaire du S23906-1 3.2.3.1. Interaction avec le petit sillon l'ADN Il a été montré dans un premier temps que l'arrêt irréversible en phase S du cycle cellulaire résulterait d'une inhibition de la synthèse d'ADN (incubation des cellules avec 5μM pendant 4H) [110]. De manière intéressante, un profil similaire est retrouvé avec le dFdC (2'deoxy-2' difluorodeoxycytidine), un analogue de la désoxycytidine (incorporation dans l'ADN, inhibition de la synthèse de l'ADN et de l'ADN polymerase α) [116, 117]. Le S23906-1 et ses dérivés (S28687-1 et S23907-1) (figure 30) présentent une structure plane qui leur permettrait en effet d'interagir avec l'ADN. Cependant, des études ont ensuite montré qu'aucune de ces trois molécules ne s'intercalait à l'ADN, ou n'inhibait la topoisomérase I [14]. De plus, le S23906-1 n'a pas non plus d'effet sur l'activité de la topoisomérase II, ni sur la polymérisation des tubulines [108]. Le S23906-1 est un composé électrophile fort, des expériences de retard en gel et de EI-MS ont montré que le S23906-1 et le S28687-1 interagissait de manière covalente avec l'ADN contrairement au composé S23907-1 [14] (figure 30). De plus, l'alkylation de l'ADN est une étape essentielle à l'activité cytotoxique du S23906-1 puisque le composé diol est inactif in vitro et in vivo [104, 118]. D'un point de vue réactionnel, l'interaction du S23906-1 à l'ADN se fait suite au départ du groupement acétate en position C1 et à l'apparition d'un intermédiaire réactif potentiel (le C1-carbocation) [119] (figure 30). Le S28687-1, quant à lui, doit subir une transestérification [16]. Le S23906-1 et le S28687-1 peuvent également alkyler de l'ADNsb, la forme mono-acétate étant cependant plus efficace que la forme diacétate [6]. Enfin, des expériences de retard en gel et de fluorescence ont révélé que le S23906-1 et le S28687-1 interagissaient, sous forme de mono-adduit [115], avec les guanines, et plus particulièrement avec l'azote en position 2 [14] (figure 30). Il faut noter que très peu de molécules induisent des mono-adduits au niveau du petit sillon de l'ADN, l'exemple le plus connu étant l'ET-743, qui a pourtant une structure très différente. 43 CHAPITRE I : Introduction 3.2.3.1.1. Formation de DSBs. Figure 30: Structure de l'adduit S23906-1/N2 guanine et S28687-1/N2 guanine. Le composé S23907-1 n'interagit pas avec la guanine [14]. L'induction de DSBs est un phénomène qui a déjà été observé suite au recrutement soit de l'ADN polymérase au niveau de la fourche de réplication (ex : cisplatine [120]), soit suite au recrutement des topoisomérases I ou II. Dans le cas d'un traitement au S23906-1, l'apparition de DSBs (observées de manière plus précoce qu'avec le cisplatine) serait dépendante de la réplication puisque l'inhibition d'ADN polymérase par l'aphidicolin engendre une diminution de l'apparition de ces lésions. Cette hypothèse est validée in vitro puisque les γH2AX (H2AX phosphorylé, indicateur de DSBs) sont observés en phase S du cycle des cellules HT-29 [112]. 3.2.3.2. Réparation des lésions De toutes les voies de réparation, la voie NER est la plus polyvalente en termes de reconnaissance des lésions de l'ADN [122] (figure 31). Par exemple, l'adduit ET-743/ADN est reconnu par la machinerie TC-NER (Transcription-Coupled NER), mais n'est pas reconnu par la machinerie GG-NER (Global Genomic NER) [123]. Cependant la lésion n'est pas enlevée mais convertie en un complexe stable entre l'adduit ET-743/ADN et l'endonucléase XPG [87]. A l'instar de l'empoisonnement par la topoisomérase I, ce complexe [adduit/protéine] forme une lésion encombrante qui entrera en collision avec le complexe de transcription (arrêt de la transcription), et avec la fourche de réplication (cassures de l'ADN) [124]. 44 CHAPITRE I : Introduction Figure 31: Sous-types de la voie de réparation NER (http://ccr.coriell.org/sections/collections/nigms/ner_pathway.aspx?PgId=256). Certaines lésions de l'ADN permettent le recrutement des protéines XPC/HR23B (GGNER) ou alors le recrutement du complexe CSA/CSB suite à la détection de la lésion par l'ARN polymérase III (TC-NER). Ces deux voies conduisent à la fixation des autres protéines de la machinerie NER, permettant ainsi l'excision et le remplacement de la zone lésée par un fragment d'ADN nouvellement synthétisé. Contrairement à l'ET-743, les adduits S23906-1/ADN sont reconnus par la machinerie TC-NER et par GG-NER [125]. La conformation de l'ADN aurait alors un impact sur la reconnaissance de l'adduit par les voies NER. En effet les cellules n'exprimant pas XPC et CSB sont très sensibles au S23906-1. Les cellules KB500 montrent aussi une activité de réparation TC-NER et GG-NER plus importante qu'au sein des cellules sensibles. Cependant, aucun changement du taux d'ERCC1 n'est observé dans les cellules résistantes. En effet, il a été montré que ERCC1 et XPF sont uniquement requis pour l'incision des crosslinks de l'ADN [125]. Le complexe n'interviendrait donc pas dans la réparation des lésions induites par le S23906-1. 45 CHAPITRE I : Introduction Toutefois, la réparation de l'alkylation en elle-même apparaît comme identique dans les lignées KB3.1 et KB500 après 1H ou 24H de traitement (40% des lésions initiales par alkylation subsistent après 24H) [110, 112], ce qui ne serait pas le cas pour les DSBs [125]. Ce type de lésion de l'ADN peut alors être reconnu par d'autres voies de réparation (figure 32), telles que la voie Non Homologous End-Joining (NHEJ) ou Homologous Recombination (HR). De plus, le S23906-1 ne montrant pas d'effet sur l'expression de Bcl-2 [111], il n'inhiberait pas la voie NHEJ [126]. Figure 32: Lésions de l'ADN et réparations correspondantes [2, 3] Ainsi ce ne serait pas l'alkylation en elle-même qui induirait un effet cytotoxique, mais plutôt le recrutement ou le non recrutement éventuel de protéines de la machinerie cellulaire au niveau de l'adduit ou alors une mauvaise réparation des DSBs dans les cellules sensibles. 3.2.3.3. Ouverture locale de la double hélice. A la différence de l'ET-743, le S23906-1 ne stabilise pas la double hélice d'ADN mais au contraire la déstabilise [14]. Ainsi, des expériences de spectrométrie et de biochimie réalisées au sein du laboratoire ont montré que le S23906-1, le S28687-1 (dérivé monoacétate) et plus particulièrement le S29385-1 (dérivé bicarbamate) (figure 33A) déstabilisaient l'oligonucléotide XH [6]. L'apparition d'ADNsb a conduit également à tester la capacité de ces composés à alkyler l'ADNsb, les résultats se sont révélés positifs [6]. Ces dérivés benzoacronycine ont donc un mécanisme d'action bien particulier et différent des autres agents alkylant le petit sillon (figure 33B). 46 CHAPITRE I : Introduction Figure 33: Structure du composé S29385-1 (A) et comparaison de la déstabilisation/stabilisat ion des différents composés par mesure de la température de fusion d'un ADN de 24pb [6]. 3.3. Bilan mécanistique Le S23906-1 induit une mort par « catastrophe mitotique » mais aussi caspasedépendante comme bon nombre d'agents de chimiothérapie. Comme la plupart des agents alkylants, son interaction à l'ADN provoque des cassures doubles brins qui sont ici réplication-dépendantes et qui conduisent à l'arrêt du cycle cellulaire. Les lésions pourront être réparées par différentes voies de réparation comme la voie NER. Figure 34: Schéma récapitulatif du mécanisme d'action du S23906-1 47 CHAPITRE I : Introduction Le S23906-1 est pourtant plus efficace que ces différents agents dans plusieurs lignées cancéreuses humaines. En effet, très peu d'agent alkylant présente la capacité d'induction d'une ouverture locale de l'ADN. L'adduit formé permettrait ou empêcherait alors le recrutement de certaines protéines de la machinerie cellulaire ce qui induirait une mauvaise réparation de la lésion (observé dans les KB3.1 par rapport aux KB500) et/ou une modification de l'expression de protéines impliquées dans la prolifération ou la mort cellulaire. 3.4. Déstabilisation de la double hélice Les liaisons hydrogènes qui stabilisent les deux brins d'ADN sont réversibles, les molécules qui interagissent avec l'ADN de manière covalente ou non peuvent alors désorganiser la double hélice de différentes manières. Cependant, à ce jour très peu de composés présentent cette capacité de déstabilisation de la double hélice. La revue Lenglet and David-Cordonnier située en annexe (Journal of Nucleic Acids, 2010) regroupe les agents connus qui présentent une activité de déstabilisation. Nous retrouvons notamment l'Acridine Orange (mono-intercalant), la Bisacridine A (bis-intercalent) ainsi que des agents alkylants comme certains dérivés platinés, ruthénium, psoralènes ou benzopyrènes, et la 4Hydroxyequinelin. Le S23906-1 fait partie de cette minorité. La déstabilisation de l'ADN pourra modifier le recrutement des protéines de réparation et de réplication de l'ADN mais aussi l'expression de certains gènes. La déstabilisation serait une « lésion » supplémentaire de l'ADN qui modifierait alors des processus cellulaires différents de ceux qui sont observés suite à l'apparition d'ICLs. L'étude du S23906-1 qui interagit au niveau du petit sillon en est d'autant plus intéressante. 3.5. Objectifs Les résultats antitumoraux très prometteurs ont permis l'entrée du S23906-1 en essais cliniques de phase I-II en 2006, mais l'observation de thrombopénies chez plusieurs patients a motivé leur arrêt en 2007-2008. L'étude plus précise de son mécanisme d'action permettra ainsi de sélectionner des composés plus efficaces contournant ces toxicités. Le mécanisme d'interaction à l'ADN du S23906-1 est très original, puisqu'il interagit avec le petit sillon, tout comme l'ET-743 mais il induit également une ouverture locale de la double hélice. Il est en effet le seul connu à ce jour capable de déstabiliser l'ADN en alkylant l'azote en position 2 des guanines. Les conséquences en termes de reconnaissance par les protéines de la machinerie cellulaire (réparation, transcription, réplication, structuration de la 48 CHAPITRE I : Introduction chromatine, etc) seraient alors différentes de celles s'opérant en présence de molécules fixées dans le grand sillon de l'ADN et/ou stabilisant la double hélice. Les études entreprises sur les molécules ayant le même site de liaison à l'ADN (groupement amine exocyclique des guanines) mais le stabilisant, comme l'ET-743, peuvent alors se révéler très intéressantes pour nos recherches sur le S23906-1. Il est aussi essentiel de les comparer aux résultats obtenus avec les médicaments alkylants qui déstabilisent l'ADN, comme le cisplatine. Il faut rappeler que le recrutement et/ou l'inhibition de fixation de protéine(s) à ces types d'adduits influe sur l'activité cytotoxique du composé. En effet, l'ET743 bloque la fixation de NF-Y, ce qui empêche l'expression de la glycoprotéine P, et trappe la protéine XPG, ce qui inhibe la réparation de la lésion par la machinerie NER. La distorsion de l'ADN induite par le cisplatine favorise quant à elle la fixation de la protéine HMG-B1 (High Mobility Group-B1) ou p53, ce qui aboutit également à un défaut de réparation de la lésion. Les objectifs majeurs de ce travail sont donc de déterminer quelles protéines sont spécifiquement impliquées dans la reconnaissance directe des adduits S23906-1/ADN de manière à aborder la compréhension du mécanisme d'action de ce nouvel agent chimiothérapeutique et de débuter la cascade des évènements signalétiques qui aboutissent à la mort de la cellule tumorale traitée par cette molécule. Nos études ayant mis en évidence la GAPDH comme protéine interagissant directement avec l'adduit S23906-1/ADN, nous nous sommes interrogés sur les différentes fonctions de cette protéine. 4. GAPDH La GAPDH (Glycéraldéhyde-3-phosphate déshydrogénase) a été originellement identifiée comme une protéine impliquée dans la glycolyse. Elle est également connue des biologistes moléculaires pour être exprimée de manière « ubiquitaire » ; elle est alors utilisée comme normalisateur d'expression tant protéique (western-blot) qu'ARNm (Q-RT-PCR). La GAPDH présente une localisation cellulaire très variée en lien avec ses multiples fonctions [127] qui conduiront soit au maintien de la prolifération, soit à l'induction de l'apoptose dans différents types cellulaires (sains, cancéreux ou neurodégénératifs). Au niveau du cytoplasme, la GAPDH est retrouvée à la fois associée aux mitochondries, au système réticulum endoplasmique/golgi/vésicules, aux microtubules et aux membranes 49 CHAPITRE I : Introduction cellulaires. Au niveau nucléaire, la GAPDH interagit avec l'ADN double brin (ADNdb) ou simple brin (ADNsb), les ARNm et ARNt mais aussi certains adduits ou bases modifiées de l'ADN. 4.1. Expression et structures de la GAPDH 4.1.1. Gène(s) de la GAPDH Malgré son rôle pléiotrope, un seul gène « actif » serait à l'origine de la synthèse de la GAPDH au sein des différentes cellules humaines. Ce gène est situé sur le chromosome 12, proche du gène de la LDH-B (lactate déshydrogénase B) [128]. Néanmoins 24 « pseudogènes » ont été détectés dans le génome humain, notamment sur la région p21-p11 du chromosome X, alors qu'il y en a plus de 200 pour le génome de rat [129]. Un seul type d'ARNm a été identifié dans différentes lignées tissulaires de rat [130, 131]. Plus récemment, une équipe a montré la présence d'un deuxième gène actif de la GAPDH qui code pour une protéine de 44,5 KDa (68,3% d'identité avec la première). Le gène de cette GAPDH-2 est localisé sur le chromosome 19, mais est exprimé uniquement dans les cellules spermatogénique [132]. Puisqu'elle n'est pas exprimée de manière ubiquitaire, elle est peu étudiée, notamment dans le cadre de la mort cellulaire. La diversité des fonctions de la GAPDH ne serait donc pas le résultat d'un épissage alternatif mais plutôt la conséquence de variation du taux d'expression et de modifications post-traductionnelles. 4.1.2. Régulation de l'expression de la GAPDH L'expression de la GAPDH peut varier entre des lignées cellulaires d'origine tissulaire différente de rat [131] et peut être prolifération-dépendante dans les cellules humaines saines [133, 134]. Par exemple, dans certains fibroblastes, le taux de GAPDH est dépendant du cycle cellulaire, avec une expression qui augmente fortement (ARNm et protéine) avant et pendant la synthèse d'ADN, mais qui diminue ensuite en fin de phase S [134]. Il faut noter que la durée de demi-vie de la protéine nouvellement synthétisée suite à un divers stimuli est très courte (1H) [134], alors qu'elle varie habituellement entre 33 et 43H [135]. Des études sur lignées tumorales de prostate humaine ont aussi montré une corrélation entre la quantité de GAPDH et le grade tumoral [136]. La GAPDH est également surexprimée (et localisée dans le noyau) dans les cellules granuleuses cérébelleuses et dans les neurones 50 CHAPITRE I : Introduction corticaux qui entrent en apoptose suite au vieillissement des cellules, ou encore au traitement des cellules avec l'AraC, à une déplétion en sérum ou en K+ du milieu de culture [137-140]. Il est à noter que les ADNc de la GAPDH des cellules cérébelleuses saines et apoptotiques de rat sont identiques [141]. Pourtant, la surexpression de ce même ADNc (couplé ou non à une GFP) par transfection dans les lignées COS-7, PC12, HEK et COS-1, induit l'apoptose des cellules (la translocation nucléaire observée précède les dommages à l'ADN) [141, 142]. L'étude de la région promotrice des cellules traitées par AraC a en effet mis en évidence une région pro-apoptotique (de -154 à -84pb) [143] contenant trois sites potentiels de fixation de p53. Le traitement à l'AraC active p53 qui active à son tour l'expression de Bax et de la GAPDH [137, 144]. Réciproquement, un traitement des cellules neuronales avec Cognex® (un anti-apoptotique utilisé pour limiter l'évolution de la maladie d'Alzheimer) diminue l'expression de la GAPDH, empêche sa translocation nucléaire [145] et l'entrée en apoptose des cellules traitées avec l'AraC et ceci de manière dose-dépendante [143]. Le taux d'expression de la GAPDH varie également suite à de multiples autres stimuli, les conséquences en seront également variées (tableau 2). Stimuli Expression Type cellulaire Mécanisme proposé Références cellules endothéliales HIF-1 (Hypoxia inducible factor-1) interagirait avec une région du promoteur (de -130 à -112pb) du gène de la GAPDH [146, 147] Hypoxie Surexpression (=développement du cancer) - [148] nd [149] Pas de surexpression A549, HT-29, HCT116 BT-20 et MCF-7 (épithéliales mammaires malignes) 1,25 dihydroxyvitamine Da Surexpression Infection persistante par HPVb Surexpression (=développement du cancer du col de l'utérus) cellules de cancer de l'utérus HPV-positif nd [150] Infection par virus Vaccina Surexpression monocytes adhérents humain Localisation nucléaire suite à l'infection [151] Insuline Surexpression cellules H35 (Hépatome) Glutaminec Surexpression cellules HepG2 Hyperpression Surexpression cellules de ganglion rétinien (RGC-5), Fixation d'IREA-BP (protéine de réponse à l'insuline) à la région promotrice (-480 à -435pb) du gène de la GAPDH dans un vecteur rapporteur Contrôle de l'expression de la GAPDH par le Gln se fairait au niveau de la région (de -126 à -118pb). Localisation nucléaire suite à l'hyperpression a [152, 153] [154] [155] stéroïde produit au niveau du tubule proximal (rein) en réponse à différents stimuli comme une hypophosphatémie, une hyperparathyroïdie ou des faibles apports alimentaires en calcium b Human PapilloVirus c régule l'anabolisme du foie, comme l'insuline pour les tissus périphériques nd : non déterminé Tableau 2: Variation du taux d'expression de la GAPDH suite à différents stimuli. 51 CHAPITRE I : Introduction Ainsi, le taux d'expression de la GAPDH peut varier entre des lignées cellulaires d'origine tissulaire différente, mais aussi au sein d'une même cellule en fonction du stade de prolifération, du nombre de divisions cellulaires déjà effectuées ou en fonction de l'environnement extracellulaire. Depuis longtemps, la GAPDH est utilisée comme normalisateur dans l'étude de l'expression des gènes. Compte tenu des différentes études illustrées ci-dessus, ce gène « contrôle » devrait être testé pour chacune des lignées étudiées. Par exemple, ces tests ont déjà été réalisé pour l'étude des gènes impliqués dans l'insuffisance cardiaque humaine [156]. Enfin les mécanismes par lesquels le taux de GAPDH influe sur différentes voies signalétiques comme l'induction de l'apoptose ou à l'inverse la prolifération des cellules ne sont pas encore bien connus. 4.1.3. Structure et activité glycolytique de l'enzyme La GAPDH est une protéine composée d'une chaine polypeptidique de 335 acides aminés (figure 35). Figure 35: Séquence peptidique de la GAPDH humaine, (d'après UniProtKB/SwissProt). L'enzyme glycolytique (EC1.2.1.12) est isolée sous forme d'homo-tétramère [127] et arrangée selon un système de coordonnées orthogonales d'axes P, Q et R. Chaque sous-unité présente (exemple de Bacillus stearothermophilus [157]) : - un domaine N-terminal de liaison à une molécule de NAD+ (Nicotinamide Adénine Dinucléotide) (résidus 1-148 et 312-333, constitué de plusieurs structures α/β). Ce motif β-α-β-α-β, nommé aussi « Rossman Fold » est souvent retrouvé dans les protéines à activité déshydrogénase [158, 159]. - un domaine catalytique en C-terminal (résidus 149-311, constitué de 8 feuillets β parallèles reliés par des coudes ou des petites hélices α) [160] (figure 36). 52 CHAPITRE I : Introduction A. B. C. D. Figure 36: (A et B) Structure tridimensionnelle d'un homo-tétramère de GAPDH issue de B. stearothermophilus. Les axes de symétrie P, Q et R permettent à partir d'une sous-unité O choisie arbitrairement de définir les sous unités P, Q et R respectivement. (C) Représentation en ruban du domaine de fixation du cofacteur (vert) et du domaine catalytique (bleu) d'un monomère de la GAPDH. (D) Vue de la poche de fixation de NAD+ (d'après la thèse de Sébastien Moniot). La GAPDH catalyse simultanément l'oxydation et la phosphorylation de la glycéraldéhyde-3-phosphate (G3P) en 1,3-biphosphoglycérate, en utilisant le NAD+ comme accepteur d'électrons (figure 37). Figure 37: Activité glycolytique de la GAPDH. Les acides aminés importants pour la fonction glycolytique sont la Cys152 et l'His179 [127] : l'His179 interagit via des ponts hydrogènes avec la Cys152 [161]. La Val240 est caractéristique de la GAPDH, puisqu'elle forme un pont hydrogène avec l'Asn316 lui permettant d'interagir avec le noyau nicotinamine du NAD+ [160]. La masse de la GAPDH peut varier de 34 à 54KDa et le pI (point isoélectrique) de 7,0 à 8,7. Nous verrons en effet qu'elle peut subir de nombreuses modifications posttraductionnelles qui lui permettront de se localiser dans différents compartiments cellulaires [162]. Enfin, de manière générale, la structure des protéines varie de manière plus ou moins importante entre les espèces. Ainsi, l'antibiotique pentanelactone interagit avec la GAPDH de muscle de lapin [163], mais pas avec la GAPDH de Streptomyces arena, l'organisme qui 53 CHAPITRE I : Introduction produit cette molécule [164]. Des études ont notamment montré des différences structurales entre la GAPDH de foie humain et de Trypanosoma cruzi, cette particularité peut être utilisée à des fins anti-parasitaires. Des dérivés de coumarines sont notamment synthétisés pour inhiber sélectivement l'activité glycolytique de la GAPDH du parasite [165]. Il y a donc un intérêt croissant pour l'étude de la GAPDH dans le cadre du développement de médicaments anti-parasitaires. La détermination de la structure de la GAPDH est donc une contribution importante pour le design de drogue basé sur la structure des cibles. 4.1.4. Modifications post-traductionnelles de la GAPDH L'étude des différentes modifications post-traductionnelles de la GAPDH a permis d'appréhender le fonctionnement de cette GAPDH aux multiples fonctions. L'équipe de Kong-Joo Lee a notamment contribué à l'identification de nombreuses modifications posttraductionnelles peu représentées qui ont lieu suite au traitement au peroxyde d'hydrogène (ou H2O2) des cellules HEK293T [166] (figure 38). Figure 38: Localisation de différentes modifications post-traductionnelles de la GAPDH. La Cys152 forme des ponts avec l'His189 et la Cys156, elle interagit également avec la Cys du GSH. La Cys152 subit plusieurs autres modifications (voir texte). M : diméthylation ; A : désamination ; P : phosphorylation ; O : oxydation ; N : nitroalkylation ; A : acétylation 54 CHAPITRE I : Introduction La GAPDH peut être phosphorylée par plusieurs protéines kinases : protéine kinase C [167], epidermal-growth-factor kinase [168] et Ca2+/calmodulin-dependent protein kinase II [169]. En présence d'H2O2, les groupements thiols s'oxydent très facilement. La Cys152 impliquée dans la fonction glycolytique de la protéine forme un pont disulfure avec la Cys156 [166] ou avec une cystéine du glutathion (le GSH fait changer le pI de la GAPDH d'érythrocyte humain de 8,1 à 6,9 [127]) [170-173]. La Cys152 peut également être transformée en acide cystéique ou en sérine [166], et la Cys247 en acide cystéique ou en déhydroalanine [166]. L'oxide nitrique (NO) induit une Snitrosylation de la Cys152 [174-176] qui pourra être hydrolysée en acide sulfénique (-SOH) puis oxydée séquentiellement en acide sulfinique (-SO2H) et en acide sulfonique (-SO3H) [177]. La GAPDH peut également être nitro-alkylée en Cys152, 156 et 247 et en His111, 137, 330 par des dérivés nitroalkènes (« Acide Gras insaturé + NO », médiateurs endogènes antiinflammatoire) [4]. Elle peut aussi être poly(ADP-ribosylée) par la PARP (poly(ADP-ribose) polymerase) [178, 179]. Enfin, la GAPDH peut interagir avec diverses petites molécules qui ont des fonctions anti-tumorales ou anti-neurodégénératives : La GAPDH interagit directement via 2 résidus Cys, 2 His ou 1 Lys avec le produit de péroxydation des lipides: le 4-hydroxy-2-nonenal (ou 4-HNE) [180]. Cette molécule électrophile induit des adduits de l'ADN en N2 des guanines dans les cellules dont la voie de réparation est ou non NER fonctionnelle [181]. Il s'en suit une dégradation de cette GAPDH modifiée par une « giant serine protease » [182].  Le 3BrPA (pyruvic acid analog 3-bromopyruvate) est un agent alkylant connu pour induire la mort de cellules cancéreuses en inhibant la glycolyse via la voie des caspases. En utilisant du 3BrPA radiomarqué et une électrophorèse bidimensionnelle, une équipe a mis en évidence la GAPDH comme cible protéique principale dans différentes lignées de carcinome hépatocellulaire humain. La GAPDH pyruvylée ne présente alors plus d'activité glycolytique [183]. Le CPGP3466, un composé en phase II d'essai clinique pour le traitement de la maladie de Parkinson, se lie également à la GAPDH, ce qui empêcherait l'apoptose des cellules et réduirait la mort neuronale et non-neuronale [145]. 55 CHAPITRE I : Introduction Les isoformes de GAPDH seront, comme pour l'expression de l'ARNm, différentes entre lignées cellulaires et entre des cellules saines et anormales [136], mais aussi différent pour une même cellule en fonction des stimuli extérieurs. Suite aux modifications post-traductionnelles, la GAPDH pourra être convertie en forme non native (mono- ou homomérique), interagir avec des composants moléculaires dans différents compartiments cellulaires, et ainsi jouer un rôle dans le maintien de la prolifération cellulaire ou l'induction de l'apoptose des cellules normales ou pathologiques, et cela en conservant ou non son activité glycolytique. Les différentes fonctions de la GAPDH sont développées dans les paragraphes suivants. 4.2. Localisation et fonctions extracellulaires L'IPSF-IIα (Immunoglobulin production stimulating factor-IIα) est retrouvée au niveau du milieu extracellulaire des cellules Namalwa de lymphome de Burkitt et augmente la production d'IgM dans des hybridomes humain/humain et souris/souris. L'IPSF-2α est composée d'une chaine polypeptidique de 40KDa et de deux chaines de 36KDa qui correspondent à deux GAPDH. L'activité IPSF de la GAPDH a également été retrouvée au sein du milieu de culture de différentes lignées cellulaires de mammifères (COS-7, HEK293, MCF-7, PC12 et neuro-2a). Elle module alors les interactions cellules/cellules ou cellules/matrice en interagissant avec la membrane par son résidu Cys152. Elle agit ainsi comme un facteur « anti-adhésion », sans modifier la prolifération cellulaire [184]. 56 CHAPITRE I : Introduction 4.3. Localisation et fonctions cytoplasmiques 4.3.1. Interaction avec la membrane plasmique, échanges d'informations avec le milieu extracellulaire L'interaction de la GAPDH à la membrane plasmique a été observée pour la première fois dans les années 70, cependant le rôle de cette GAPDH membranaire n'est pas toujours très clair. Dans les cellules érythrocytaires humaines, la GAPDH est retrouvée associée à la membrane à hauteur de 60-70% où deux molécules de GAPDH interagissent avec une molécule Figure 39: Les modifications post-traductionnelles de la GAPDH et du GSH influencent leur distribution subcellulaire [4]. Band3 (une protéine échangeuse d'ions) [127]. Dans les globules rouges humains, les nitroalkènes permettent aussi à la GAPDH et au GSH d'interagir directement avec la membrane [4]. La GAPDH présente également une activité fusiogénique (endocytose) au sein de cellules CHO [127, 185] et de muscle de lapin alors que ce n'est pas le cas de la GAPDH érythrocytaire humaine [127]. La protéine est également localisée au niveau des membranes de macrophages bovins, où, comme les protéines HSP90 et HSP70, elle interagit directement avec le domaine cytoplasmique de MSR (Macrophage Scavenger Receptor), ce qui affecte l'internalisation, l'expression à la surface membranaire et la transduction du signal [186]. Elle est aussi retrouvée à la surface des macrophages humains et murins, de manière dépendante de la quantité de fer extracellulaire, jouant un rôle de recepteur de transferrines [187]. La GAPDH serait donc impliquée dans de nombreuses fonctions de la membrane plasmique : échange d'ions, de micro- ou macromolécules avec le milieu extracellulaire et reconnaissance/adhésion des cellules entre elles. 57 CHAPITRE I : Introduction 4.3.2. Interaction avec les tubulines, interface REgolgi La tubuline est une protéine du cytosquelette présente dans toutes les cellules de mammifères. Sa polymérisation/dépolymérisation est une fonction essentielle à la prolifération et l'organisation structurale de la cellule. Dans les années 80, des études ont montré que la GAPDH interagissait sous forme dimérique ou tétramérique avec les microtubules, mais que seul le tétramère avait une activité de polymérisation. En effet, en présence d'ATP (qui facilite la dissociation de la forme tétramérique de la GAPDH en forme monomérique), l'assemblage des microtubules est interrompu [127]. Cette activité de polymérisation des microtubules par la GAPDH est observée dans les cellules cancéreuses de colon humain [127]. La GAPDH est impliquée également dans le transport vésiculaire entre le Réticulum Endoplasmique et le complexe Golgien. En effet, suite au recrutement au niveau de l'amas vésiculaire de Rab2 (petite GTPase impliquée dans la formation de vésicules) dans les cellules rénales de rat, la GAPDH est phosphorylée par la protéine kinase Cιλ [188] ; elle permet alors la fixation des microtubules aux membranes de ces vésicules [189]. Rab2 se fixe enfin aux microtubules et recrute la protéine motrice : la dynéine [190]. Il faut noter également qu'après traitement de cellules de neuroblastome avec la 6hydroxydopamine, la GAPDH se localise d'abord dans le Golgi puis dans le noyau [191]. 4.3.3. Localisation mitochondriale, rôle anti- ou pro-apoptotique La GAPDH est transloquée dans les mitochondries de cellules HeLa et HEK293, suite au traitement pendant 6H avec la staurosporine (250 nM) (inhibiteur de protéine kinase), l'étoposide (250μM) (poison de la topoisomérase II), la lonidamine (500μM) (drogue mitochondiotoxique) ou suite à une déplétion en sérum (associée à une translocation nucléaire de la GAPDH dans les cellules HEK293), ceci de manière dépendante de l'expression de Bcl2. En effet, la GAPDH interagit avec VDAC (Voltage-dependent anion channel, composant du PTPC (permeability transition pore complex)) et induit une perméabilisation de la membrane mitochondriale (MMP) (figure 40) [17]. La GAPDH provoque alors la libération de AIF (Apoptosis Inducing Factor) et du Cyt c (Cytochrome c) qui vont à leur tour activer les caspases (figure 40). Toutefois, à la différence du traitement par les ions Ca2+, les mitochondries conservent une forme ovoïde [17]. 58 CHAPITRE I : Introduction Figure 40: Interaction de la GAPDH au niveau du complexe de pore de transition (PTPC) composé de VDAC, ANT et CypD, d'après [12]. La GAPDH n'interagit pas avec ANT (Adenine Nucleotide Translocator) mais induit une perméabilisation de la membrane mitochondriale via son association avec VDAC [17]. La GAPDH induit alors, tout comme les ions Ca2+, la libération de AIF et du Cyt c qui vont à leur tour activer les caspases et induire l'apoptose des cellules. Il existe également une voie de mort cellulaire dépendante de la MMP mais indépendante des caspases (CICD). La GAPDH protège en effet les cellules HeLa de la CICD induite par un traitement à la staurosporine, l'étoposide ou de l'Actinomycine D, en augmentant la glycolyse pour compenser la diminution du taux d'ATP [8, 192]. Figure 41: Rôle pro- et antiapoptotique de la GAPDH, d'après [8]. La GAPDH est ainsi impliquée dans le contrôle de la voie intrinsèque de mort cellulaire caspase-dépendante, mais elle exerce aussi des fonctions anti- apoptotiques. Cependant, la raison pour laquelle la GAPDH exerce soit l'une soit l'autre fonction n'est pas connue (figure 41). 4.3.4. Activité kinasique de la GAPDH, implication dans la transmission de signaux et dans l'infection des cellules In vitro, en présence de Mg2+ et d'ATP radiomarqué la GAPDH de muscle de lapin présente une capacité d'autophosphorylation [193]. Elle peut également phosphoryler d'autres protéines comme preS1-BP35 (une protéine de l'enveloppe du virus de l'Hépatite A) [194], ou alors jouer un rôle dans les signaux de phospho-relai de la voie MAPK [195]. 59 CHAPITRE I : Introduction 4.4. Interface Cytoplasme/Noyau 4.4.1. Régulation de l'expression de certains ARN, implication dans l'inflammation, l'infection et l'export d'ARNt La synthèse de protéines est quelques fois régulée par un processus de stabilisation/déstabilisation de l'ARNm. Ces ARNm présentent en effet des éléments riches en bases AU en 3'de la région non traduite qui peuvent être déstabilisés par des protéines du cytoplasme. Dans les cellules endothéliales, la GAPDH S-glutathionylée en position Cys152 interagit et déstabilise l'ARNm d'ET-1 (endothelial-derived vasoconstrictor endothelin-1) [196]. La GAPDH fait partie du complexe GAIT (IFN-γ-activated inhibitor of translation) qui est activé suite au traitement de cellules myéloïdes avec de l'IFN-γ, et diminue ainsi la traduction de protéines impliquées dans l'inflammation [197]. La GAPDH peut aussi interagir avec des ARNm viraux en 3'-UTR (virus parainfluenza de type 3[198] et virus encephalitis japonais [199]) ou en 5'-UTR (virus de l'hépatite A [200]). Elle se fixe également au PRE (post-transcriptional regulatory ciselement) de l'ARNm du virus de l'hépatite B. Ce complexe est notamment retrouvé au niveau du noyau des cellules infectées [201]. La GAPDH présentera alors un rôle pathogène [199] ou anti-infectieux [202]. La GAPDH permet aussi le transport d'ARNt du noyau vers le cytoplasme puisqu'un ARNt muté qui ne peut plus interagir avec la GAPDH ne présente plus la possibilité d'être exporté du noyau vers le cytoplasme dans les ovocytes de grenouille [203]. Enfin, le domaine de fixation du NAD+ serait impliqué dans l'interaction à l'ARN [127, 203, 204]. 4.4.2. Translocation nucléaire de la GAPDH Dans la partie de ce chapitre concernant la régulation de l'expression de la GAPDH, nous avions observé une corrélation entre la variation du taux d'expression de la GAPDH et sa localisation nucléaire suite à certains stimuli. Une réduction de la translocation nucléaire de la GAPDH diminue notamment l'activité cytotoxique de l'AraC [143]. Puisque notre étude porte également sur une molécule antitumorale qui cible l'ADN, il paraît important de vérifier par quel processus la GAPDH est transloquée et quelles en sont les conséquences. Les données actuelles montrent que des modifications post-traductionnelles sont nécessaires à la translocation nucléaire de la protéine. 60 CHAPITRE I : Introduction 4.4.2.1. Modifications post-traductionnelles *S-nitrosylation. L'oxide nitrique (NO) cause une mort nécrotique des cellules via la formation de peroxynitrite. Ce puissant oxydant produit des cassures de l'ADN, une peroxydation lipidique et une oxydation des protéines [205]. Récemment, une étude a montré que le NO pouvait induire l'apoptose des cellules par un autre mécanisme encore peu connu, mais qui impliquerait une S-nitrosylation sur la Cys152 de la GAPDH [206]. In vitro, la GAPDH interagit par ses résidus 222-238 (dont la Lys227 est essentielle) aux résidus 270-282 de la protéine Siah [5] présentant une activité E3-ubiquitine ligase. La Siah stabilisée par la GAPDH entre dans le noyau et dégrade ainsi plusieurs protéines nucléaires [3] (figure 42). En effet, les cellules HEK293 traitées au GSNO (glutathion nitrosylé), ou les macrophages (RAW264.7) traités au LPS (lipopolysaccharide, inducteur de l'apoptose via la production de NOS) présentent une S-nitrosylation de la GAPDH, une augmentation du taux du complexe GAPDH/Siah1 mais aussi une augmentation du taux nucléaire de GAPDH-Cys-SO3H [5]. Dans les lignées cancéreuses thyroïdiennes, la protéine TRAIL (TNF-related apoptosis-inducing ligand) interagit avec les récepteurs de mort DR4 et DR5 pour finalement activer la caspase 3. Elle module également la production de NO, permettant alors la Snitrosylation de la GAPDH ainsi que sa translocation nucléaire [207]. Dans les cellules mésencéphaliques de rat, le paraquat (herbicide non sélectif dérivé de la pyridine, qui aurait un lien avec la maladie de Parkinson) induit également une augmentation du taux de NO qui conduit à la translocation nucléaire de la GAPDH de manière dépendante à la cascade de mort cellulaire NO/GAPDH/Siah [208]. Figure 42: Cascade de mort cellulaire NO/GAPDH-S-nitrosylée/Siah1 et implication de la Siah dans d'autres voies signalétique, d'après [5]. La GAPDH nitrosylée par le NO stabilise la Siah, le complexe entre alors dans le noyau et permet ainsi à la Siah de dégrader diverses protéines comme p53 par exemple, conduisant dans ce cas à la mort de la cellule. La Siah est capable de dégrader d'autres protéines nucléaires, pouvant aboutir à un arrêt ou au contraire à une prolifération du cycle cellulaire. *Acétylation. La GAPDH peut également être acétylée en Lys117, 227 et 251 par l'acétyltransférase PCAF (P300/CBP-associated factor). L'acétylation en Lys227 est requise 61 CHAPITRE I : Introduction pour la translocation nucléaire de la GAPDH [209]. Comme Siah1, PCAF possède une activité ubiquitine ligase, qui pourrait participer au processus apoptotique [210]. *O-GlcNacylation. La GAPDH peut être modifiée (O-GlcNacylation) par une NAcétylglycosamine au niveau de l'oxygène de la Thr229. Cette modification déstabilise les interfaces hydrophobes entre chacunes des sous-unités de la GAPDH tétramérique et lui permet d'être transloquée sous forme de monomère du cytoplasme vers le noyau [211]. Cette modification est retrouvée au niveau de la plupart des protéines qui sont transloquées du cytoplasme vers le noyau comme par exemple NF-ĸB [212]. 4.4.2.2. Translocation et conséquences cellulaires (tableau 3) La translocation nucléaire peut avoir lieu de manière spontanée et induire la mort cellulaire dans le cas de la maladie de Parkinson ou d'Huntington par exemple. L'entrée en apoptose des cellules découle souvent d'un stress oxydatif, avec l'apparition d'H2O2 ou de NO qui induisent alors des modifications post-traductionnelles de la GAPDH. De manière globale, et par rapport aux données actuelles de la littérature, la translocation nucléaire de la GAPDH, qui fait suite ou non à des stimuli extérieurs, est corrélée à une entrée en apoptose des cellules [144, 145, 213-221]. Cependant, le mécanisme exact qui fait suite à la translocation et qui engendre la mort des cellules n'est pas encore bien connu. Il faut noter aussi que malgré la présence d'une quantité importante de GAPDH nucléaire sans stimuli (cellules SH-SY5Y) [222] ou suite à une translocation nucléaire de la GAPDH pendant la phase S du cycle (A549) [223], les cellules n'entre pas en apoptose. De plus, dans certains cas, un défaut de la translocation nucléaire de la GAPDH n'empêche pas forcément l'entrée en apoptose des cellules [222]. Enfin sous certaines conditions, la translocation est réversible, elle conduit alors à un arrêt du cycle plutôt qu'à une induction d'apoptose. Et, contrairement à l'import, l'export de la GAPDH n'apparait pas comme étant dépendant du cycle cellulaire puisque l'olomoucine (induit un arrêt du cycle cellulaire en phase G1) et l'inhibiteur PD098059 de la voie de prolifération MAPK n'empêchent pas le retour de la GFP-GAPDH dans le cytoplasme après ajout de sérum. 62 CHAPITRE I : Introduction Conséquences de la translocation nucléaire de la GAPDH Type cellulaire Stimuli cellules neuronales de la substance noire Aucun cellules de la maladie d'Huntington Aucun -poptose (maladie d'Huntington) [227] les cellules de neuroblastome humaine rotenone (toxine produisant des neuropathologies ressemblant à la maladie de Parkinson) apoptose (maladie de Parkinson) [215] apoptose (maladie de Parkinson) [224] Conséquences observées - Translocation nucléaire précède la diminution du Ψmt [145, 225, 226] -Augmentation du taux de caspase 3 et de Bax [224] Formation d'un complexe ternaire GAPDH/Siah1/mHtt. Une surexpression de la GAPDH ou de Siah1 augmente la translocation de mHtt (huntingtine mutée) ainsi que la cytotoxicité, alors qu'une déplétion aura l'effet contraire [227] Le déprényle (neuroprotecteur, anti-Parkinson) protège les cellules de l'apoptose en empêchant la S-nitrosylation de la GAPDH, son interaction à Siah et sa translocation nucléaire [228] nd Translocation mitochondriale de la GAPDH [229] Surexpression de Bcl2 ou traitement avec la rasagiline (un inhibiteur de Monoamine Oxidase, anti-Parkinson), limite la translocation nucléaire de GAPDH et prévient ainsi l'apoptose [213] GOSPEL (GAPDH's competitor of Siah Protein Enhances Life) empêche la mort induite par NDMA, sa S-nitrosylation en Cys47 lui permet d'interagir avec la GAPDH [230] cellules cérébelleuses immatures AraC apoptose[229] milieu pauvre en K+ apoptose[229] SH-SY5Y (cellules dopaminergiques humaines) N-methyl(R)salsolinol (une neurotoxine dopaminergique) apoptose[213] cellules primaires de neurones NDMA (N-Methyl-DAspartate) apoptose[230] SH-SY5Y (GAPDH est exclusivement dans le noyau en condition normal) et NB41A3 (GAPDH est distribuée de manière égale entre noyau et cytoplasme) MMP+ (=1-Methyl-4phenyl-pyridium iodide, un inhibiteur du complexe I du système de transfert d'électron de la mitochondrie) apoptose non liée à la translocation nucléaire de la GAPDH [222] A549, HeLa aucun, phase S du cycle cellulaire pas d'apoptose, maintenance cellulaire [223] R6-Bcl2(fibloblastes surexprimant Bcl2) surexpression de GAPDHGFP [213] pas d'apoptose [213] - doxorubicine ou gemicitabine pas d'apoptose dépendante des caspases [234] Arrêt du cycle cellulaire [234] car pas d'interaction aux télomères (en lien avec la partie « Fonctions nucléaire ») déplétion en sérum pas d'apoptose, réversibilité de la translocation par ajout de sérum ou de facteur de croissance (EGF ou PDGF) dans le milieu de culture [235]. Présence d'un NES (Nuclear Export Signal) (résidus 259 à 271) moins riche en leucine que ceux rencontrés habituellement, fixation de CRM-1 à NES de la GAPDH puis export au travers des pores nucléaires [236] A549 cellules fibroblastiques embryonnaires de souris NIH3T3 Transfection de manière stable d'un gène de GAPDH comprenant ou non une partie NLS (Nuclear Localization Signal) ajoutée en C-Ter [222] -Réparation [231, 232], réplication ou coactivation de transcription [233]. -Translocation est indépendante de la translocation induite par Siah1 durant l'apoptose [5]. Tableau 3: Translocation nucléaire de la GAPDH dans différentes lignées et conséquences associées. 63 CHAPITRE I : Introduction Il existerait donc plusieurs mécanismes de translocation, responsables du maintien d'un bon fonctionnement cellulaire ou d'une induction en apoptose des cellules. La Snitrosylation et l'acétylation permettent à la GAPDH d'être impliquée dans différentes voies apoptotiques connues. Ces expériences ont également mis en évidence une voie de mort par apoptose dépendante de NO, dont la GAPDH fait partie (figure 42) et qui se mettrait en place parallèlement aux voies d'induction de l'apoptose déjà connus. En effet, la surexpression ou la translocation d'une GAPDH exogène n'induit pas forcément l'apoptose. L'étude de l'activité et de la structure de l'isoforme nucléaire de la GAPDH endogène, transloquée lors de l'apoptose des cellules, permettrait de mieux comprendre d'une part pourquoi, et suite à quel mécanisme moléculaire, la GAPDH est transloquée dans le noyau lors d'un stress et d'autre part comment la GAPDH transloquée contourne l'inhibition de croissance par les agents de chimiothérapie. 4.5. Fonctions nucléaires Afin de mieux comprendre les conséquences de l'interaction de la GAPDH au niveau de l'adduit S23906-1/ADN, nous avons recherché quelles étaient les fonctions nucléaires de la GAPDH. Plusieurs études ont révélés des interactions directes ou indirectes de la GAPDH à l'ADN. 4.5.1. Maintien structural de la chromatine La GAPDH est retrouvée au niveau de l'ADN télomérique de cellules A549 suite au traitement par la doxorubicine et par la gemcitabine [223]. In vitro, la GAPDH se fixe de manière di- ou tétramérique préférentiellement sur les séquences de type télomérique simple brin via ses résidus Asp34 ou Cys152 [234]. En effet, la mutation pour chacun de ces sites inhibera la fixation de la GAPDH à l'ADN mais n'empêchera pas la translocation nucléaire. On observe alors un raccourcissement des séquences télomériques suivi d'un arrêt du cycle cellulaire mais pas d'apoptose dépendante des caspases [234]. La surexpression de la GAPDH empêche cette dégradation télomérique après exposition des cellules aux céramides [223]. Il faut noter que l'association de la GAPDH aux télomères n'est pas spécifique des cellules cancéreuses [234]. Enfin, comme observé précédemment avec l'ARN, la liaison à l'ADN se ferait via le site de fixation au NAD+. 64 CHAPITRE I : Introduction L'interaction de la GAPDH à cette séquence jouerait ici plutôt un rôle dans la résistance aux agents de chimiothérapie. Ce rôle anti-apoptotique a déjà été montré avec l'implication de la GAPDH dans la survie des cellules après diminution de Ψmt [192]. 4.5.2. Réplication  Relaxation par la topoisomérase I. Suite à un traitement avec H2O2 des cellules HEK293T, la GAPDH est oxydée et interagit alors avec le complexe p54nrb/PSF. p54nrb est impliquée dans de multiples fonctions nucléaires, son interaction au PSF (Polypyrimidine tract-binding protein-associated Splicing Factor) augmente l'activité de relaxation de la topoisomérase I. Paradoxalement, l'interaction a lieu dans le cytoplasme, bien que p54nrb soit localisé majoritairement dans le noyau. On observe cependant que suite au traitement de ces cellules avec 2,5mM de H2O2, la GAPDH quitte le noyau pour y revenir progressivement [237].  Inhibition de l'ADN polymérase α. La GAPDH de thymus de veau interagit préférentiellement avec de l'ADNsb et présente une capacité de fixation à l'ADN plus forte que celle de l'ADN polymérase α, inhibant ainsi la synthèse d'ADN [238]. 4.5.3. Régulation de la transcription Différents gènes sont régulés par l'intermédiaire de la GAPDH, notamment par interaction avec les facteurs de transcription.  Activation de la transcription des gènes H2B pendant la phase S. Les histones jouent un rôle essentiel dans le maintien structural des chromosomes, leur réplication et leur transcription. Leurs gènes sont présents en plusieurs copies et leur expression, très contrôlée, a lieu principalement en phase S du cycle cellulaire, de manière dépendante de la réplication de l'ADN. Le taux d'expression et la capacité de fixation à l'ADN de l'octamère Oct-1, qui régule la transcription de H2B, ne varie pas durant toutes les phases du cycle cellulaire [239]. La transcription au cours du cycle est donc contrôlée par des cofacteurs spécifiques de la phase S. En effet, une étude sur des extraits nucléaires de cellules HeLa a montré la présence de 7 autres protéines : nm23-H1, nm23-H2, UDG (Uracyle-DNA Glycosylase), LDH, HSP70, Sti1 et la GAPDH au sein du complexe OCA-S (Oct-1 coactivator in S phase). La transcription de H2B nécessite un statut redox NAD+/NADH approprié, apporté par la LDH, qui stabilise alors l'interaction directe entre la GAPDH et Oct-1 [233, 240]. De plus, la GAPDH présenterait un domaine intrinsèque qui serait activé par un co-facteur, encore non 65 CHAPITRE I : Introduction identifié, de la machinerie de transcription de l'ARN polymérase II [240]. Il a été montré que la GAPDH interagissait aussi avec l'ARN polymérase II d'eucaryote [241].  Activation de la transcription par l'oncogène hTAFII68-TEC. Des études de chromatographie d'affinité in vitro ont mis en évidence l'interaction de la GAPDH avec le facteur de transcription oncogénique hTAFII68-TEC. Des tests de GST pull-down (Gluthatione S-Transferase pull-down) ont révélé que la GAPDH se liait plus particulièrement via les acides aminés 1-66, 67-160 et 160-248 avec la région C-terminale de hTAFII68-TEC. La GAPDH non mutée augmente l'activité transcriptionnelle de hTAFII68-TEC. De plus, des expériences de transfection des cellules avec un plasmide Flag- hTAFII68-TEC, ont montré que la relocalisation de la GAPDH dans le noyau était corrélée à la formation du complexe GAPDH/ hTAFII68-TEC [244].  Activation de la transcription du gène Atg12 et protection contre l'apoptose. La GAPDH nucléaire augmente l'expression d'Atg12 qui va à son tour activer le processus d'autophagie pour dégrader les mitochondries « défectueuses », et ainsi inhiber la voie apoptotique dépendante de la mitochondrie CICD. Cependant, aucune interaction directe entre la GAPDH et l'ADN n'a été observée. De plus, le complexe protéique impliqué n'est pas connu [192].  Stimulation de l'ARN polymérase II. Le pool de GAPDH isolé de cellules de muscle squelettique de lapin présenterait 2 types de GAPDH : un type qui se fixe uniquement sur l'ADNsb et l'autre qui se fixe à de l'ADNdb. Il faut noter que la GAPDH qui interagit avec l'ADNsb ne stimule pas l'ARN polymérase II, alors que celle qui interagit avec l'ADNdb la stimule [245].  Activation indirecte de p53 et induction de l'apoptose. En interagissant avec CBP (p300/CREB Binding Protein), la GAPDH est acétylée sur la Lys162 de manière NOdépendante. En retour, la GAPDH stimule l'auto-acétylation de la CBP [246], qui va alors activer p53 et induire la mort cellulaire [247]. La GAPDH régule donc la transcription de gènes impliqués dans des voies antiapoptotiques ou de prolifération cellulaire en interagissant avec les complexes protéiques de régulation et/ou directement avec l'ADN. 4.5.4. Réparation des lésions de l'ADN  Implication dans la voie BER (Base Excision Repair). Cette voie est notamment impliquée dans la réparation de bases endommagées par des agents alkylants [89]. La voie 66 CHAPITRE I : Introduction BER peut conduire à deux mécanismes de réparation : la « short-patch»- et la « long-patch »BER. Celles-ci débutent toutes deux par le recrutement d'une UDG (liaison à l'ADNsb ou db) qui génére un site abasique. La protéine APymidic/APuric Endonuclease 1 (APE1) clivera ensuite le pont phosphodiester en 5', puis la polyADP-ribose polymérase (PARP) ajoutera des groupements ADP-ribose pour marquer l'ADN lésé et le rendre accessible aux protéines de réparation telles que XRCC1, mais également pour empêcher la fixation de l'ADN polymérase α [7]. Figure 43: Mécanisme de la voie de réparation BER [7]. (Voir le texte pour les explications) Le monomère de GAPDH présente une activité UDG [231, 248], mais qui est deux fois moins active que l'UDG d'E. coli. [127]. De plus, il y aurait deux types d'UDG : l'UDG1 est plutôt localisée au niveau des mitochondries alors que les différentes isoformes phosphorylées d'UDG2 sont plutôt localisées dans le noyau [249]. Des expériences de GSTpull down et de co-immunoprécipitation montrent que la GAPDH interagit avec APE1. En présence d'H2O2, la GAPDH réduit la forme oxydée d'APE1 par l'intermédiaire de son résidu Cys152 et réactive ainsi l'activité endonucléasique [232]. De plus lors d'un stress, l'ADN endommagé provoque l'augmentation du niveau de diadénine polyphosphate (Ap4A) qui vont être reconnues par une PARP [250], mais aussi par l'UDG/GAPDH dans les cellules HeLa [251]. Enfin, le taux d'expression ainsi que l'activité de la GAPDH/UDG augmente durant la prolifération de fibroblastes normaux de poumon embryonnaire WI-38 [133].  Implication dans la voie MMR (MisMatch Repair) indépendante de MutSα. La voie de réparation MMR reconnait un mésappariement (occasionné par les erreurs de réplication) ou une guanine anormale (thioguanosine) [122]. Le traitement à la mercaptopurine de lignées de leucémies lymphoblastiques, déficientes ou surexprimant certaines des protéines impliquées dans la voie de réparation MMR, a montré que la sensibilité des cellules au traitement n'était 67 CHAPITRE I : Introduction pas dépendante de l'expression de ces protéines. L'équipe de Krynetski a mis en évidence une voie de réparation MMR indépendante de MutSα et impliquant un complexe de 5 protéines HMG-B1, HMG-B2, HSC-70, ERp60 et la GAPDH [252]. La HMG-B1 interagit directement avec l'ADN contenant des dGs (thioguanosine) et la GAPDH ne se retrouverait qu'en périphérie du complexe car elle s'y en détache facilement. Les mêmes résultats ont été obtenus avec un traitement au 5-FU pour lequel une augmentation de l'expression de la GAPDH a été observée [253]. Ainsi, la GAPDH est impliquée dans la reconnaissance de certaines lésions de l'ADN. 4.5.5. Interaction Acides Nucléiques et reconnaissance d'adduits Certaines modifications post-traductionelles permettent à la GAPDH d'interagir avec les acides nucléiques, l'oxydation des groupements thiols des sites actifs lui permettrait notamment de changer de structure (apparition de forme mono- et dimériques) [254]. La glutathionylation et la nitrosylation de la GAPDH, impliquées aussi dans la translocation nucléaire, sont également des médiateurs potentiels dans l'interaction de la GAPDH à l'ADN. Des expériences de retard en gel ont montré que chacune de ces isoformes interagissait avec un fragment d'ADN de 248pb [255]. Un des mécanismes par lequel les bis-électrophiles exercent leur cytotoxicité est l'induction de crosslinks ADN/peptide génotoxiques. La GAPDH a été identifiée comme étant une protéine nucléaire très nucléophile de part ses résidus Cys152 et 246 [256]. Des tests in vitro ont notamment montré que la fixation de diepoxybutane (agent alkylant l'ADN) à la Cys246 de la GAPDH favoriserait son interaction à l'ADN. Cependant, la surexpression de GAPDH humaine dans E. coli. n'augmente pas la mutagénicité du composé diepoxybutane, contrairement à ce qui est observé avec la surexpression de la protéine de réparation O6alkylguanine DNA-alkyltransférase [257]. De manière tout à fait intéressante, une étude a permis d'identifier la GAPDH comme partenaire des adduits ADN/QAD (un dérivé de la Saframycine A) et ADN/Pt650 (un dérivé de l'ET-743) [221]. L'ET-743 et la Saframycine A (composé naturel d'origine bactérienne) présentent des homologies structurales et alkylent tous deux le groupement N2 des guanines. Des expériences complémentaires ont montré que la GAPDH, potentiellement sous forme de monomère, interagirait avec l'adduit. Après traitement de levures à la Saframycine A ou aux QAD, une augmentation de l'expression de trois isoformes de la GAPDH (gènes TDH1, 2 et 3) est observée [258]. De plus, après 48H de traitement des cellules HeLa-S3 avec QAD, on 68 CHAPITRE I : Introduction observe une translocation nucléaire de la GAPDH. Enfin, les cellules A549 traitées avec un siRNA dirigé contre la GAPDH sont plus résistantes à QAD, la GAPDH serait donc impliquée dans l'activité cytotoxique de QAD [221]. 4.6. Bilan des fonctions de la GAPDH 4.6.1. Diabète, inflammation, infection Le diabète cause des changements pathologiques au niveau des capillaires (hypoxie des cellules et activation des ROS, des NO), des artères et des nerfs périphériques [259]. Une hyperglycémie induite dans les cellules endothéliales de l'aorte engendre l'activation de ROS, qui induit une forte production de superoxide par les mitochondries générant des DSBs. Ceci favorise le recrutement et l'activation de la PARP qui pourra alors poly(ADP-ribosyler) la GAPDH nucléaire. En retour, cette modification post-traductionnelle de la GAPDH activera le facteur de transcription proinflammatoire NF-ĸB, [178, 179]. De plus, certains patients atteints de diabète et présentant des complications rénales ont un taux plus élevé de méthylglyoxal (MG) par rapport aux patients résistants. Le MG est formé durant la glycolyse, notamment suite à la dé-phosphorylation de la glycéraldéhyde-3-phosphate [260]. Le MG induit la glycation de nombreuses protéines, responsable majeure des complications du diabète. L'interaction du MG à la GAPDH inhibe l'activité de cette enzyme, et conduit alors à une boucle d'augmentation de la formation de MG in vitro et in vivo [261]. Enfin, nous avons vu précédemment que la GAPDH présentait une activité anti-inflammatoire (complexe GAIT) mais aussi un rôle pathogène ou anti-inflammatoire (interaction avec les ARNm). 4.6.2. Survie, prolifération cellulaire et maintenance Dans les cellules A549, le taux de GAPDH nucléaire est à son maximum en phase S [223]. Il a été montré que la GAPDH interagissait avec SET pour libérer la cycline B-Cdk1 qui peut alors exercer ses fonctions au sein du cycle cellulaire. De plus, la GAPDH peut également interagir avec la cycline B sans modifier l'activité du complexe cycline B-Cdk1 [262]. Cependant, SET est impliqué dans la réorganisation de la chromatine, la transcription, l'acétylation des histones et l'apoptose. Son interaction à la GAPDH peut engendrer des dérégulations de ces différentes fonctions cellulaires [262]. La GAPDH présente également d'autres fonctions de survie/maintenance de la cellule que nous avons vu précédemment (assemblage des microtubules, transcription des gènes H2B, réparation des lésions), mais aussi un rôle d'oncogène de part son activité transcriptionelle (oncogène hTAFII68-TEC) ou 69 CHAPITRE I : Introduction anti-apoptotique (inhibition de CICD). Enfin elle est impliquée dans la transmission d'informations intra- ou extracellulaires (échanges membranaires, transport vésiculaire, activité kinasique). 4.6.3. Activité antiproliférative et maladies neurodégénératives La GAPDH joue un rôle important dans les maladies neurodégénératives, son implication en tant que neurotoxique est généralement liée à sa sensibilité au NO. La GAPDH interagit avec la protéine Huntingtin mutée impliquée dans les symptômes de la maladie d'Huntington, ainsi qu'avec d'autres protéines, présentant également des répétitions en glutamine et impliquées dans d'autres maladies neurodégénératives comme l'ataxie spinocérebelleuse de type I (interaction ataxin1) ou l'atrophie pallidoluysian dentorubral (interaction avec l'atrophine) [263-265]. Plusieurs études ont montré la localisation de la GAPDH au niveau des plaques amyloïdes [266, 267]. La GAPDH oxydée interagit avec le domaine cytoplasmique du précurseur de la protéine amyloïde (protéine transmembranaire qui peut être clivée et donner naissance au peptide Aβ) [268, 269] et le peptide Aβ lui-même [270][271], suggérant que la GAPDH joue un rôle dans la progression de la maladie d'Alzheimer. Suite au stress oxydatif, les beta-amyloïdes induisent l'apparition de ponts disulfures entre plusieurs GAPDH (β-structures) dans les tissus de patients atteints de la maladie d'Alzheimer [263]. Les β-structures se forment d'abord dans le noyau des cellules corticales de neurones, puis deviennent insolubles et induisent directement ou indirectement l'apoptose ; les agrégats libérés dans le milieu extracellulaire forment des plaques [263]. De plus, il a été montré que les aggrégats de GAPDH pouvaient interagir avec la protéine tau phosphorylée [263, 272]. La GAPDH colocalise également avec l'α-synuclein des corps de Lewy dans la maladie de Parkinson [273]. Nous avons vu précédemment que la GAPDH était aussi impliquée dans la maladie de Parkinson, et pouvait exercer des fonctions proapoptotique (localisation mitochondriale, activation indirecte de p53, interaction aux adduits ADN/QAD). 70 CHAPITRE I : Introduction Au fil des années, les multiples fonctions non glycolytiques de la GAPDH sont progressivement identifiées. Chacune de ces activités est régulée en fonction de la localisation intra- ou extracellulaire de la GAPDH, et de sa structure oligomérique en lien avec les différentes modifications post-traductionnelles mises en évidence. On observe par ailleurs une grande variation du taux de la GAPDH et de localisation subcellulaire suite à différents stimuli (environnement extracellulaire, métabolisme intracellulaire et cycle cellulaire). Cependant, l'activité de la GAPDH la plus étudiée est sa fonction de catalyseur de la voie apoptotique. Suite aux différentes modifications qu'elle subit et aux diverses interactions moléculaires qu'elle entretient, la GAPDH est impliquée dans la mort cellulaire spontanée ou induite par des agents chimiques de cellules neuronales ou non neuronales. Dans la plupart des cas, le stress oxydant conduit à la modification directe ou indirecte de la GAPDH, qui est alors transloquée dans le noyau, notamment via son interaction avec Siah1, et peut ainsi réguler la transcription ou l'activation des molécules pro-apoptotiques ou alors participer au maintien du bon fonctionnement de la cellule. 71 CHAPITRE II : Objectifs des travaux de thèse CHAPITRE II : Objectifs des travaux de thèse Le S23906-1 est donc un nouvel agent alkylant de l'ADN au mode d'action original de par sa fixation dans le petit sillon de l'ADN et sa capacité d'ouverture locale de la double hélice d'ADN. Son étude représente le premier grand axe de recherche de cette thèse avec plusieurs objectifs. En effet, si un faisceau d'arguments convergent vers une alkylation de la guanine par le S23906-1, celle-ci n'a pour l'heure pas été formellement établie. Le premier objectif de ce travail est donc de valider la formation de l'adduit guanine/S23906-1 par le biais d'une approche de spectrométrie de masse. Un deuxième objectif est de déterminer si certains éléments structuraux du S23906-1 sont importants pour le processus de déstabilisation de l'hélice d'ADN en utilisant différents dérivés ou différents isomères du S23906-1. Ensuite, les conséquences en termes de reconnaissance par les protéines de la machinerie cellulaire (réparation, transcription, réplication, structuration de la chromatine) au niveau de cet adduit particulier seraient vraisemblablement différentes de celles s'opérant en présence de molécules fixées dans le grand sillon de l'ADN et/ou stabilisant la double hélice d'ADN. Cest pourquoi, le troisième objectif majeur de ce travail consiste à identifier les partenaires protéiques des adduits S23906-1/ADN afin de débuter la cascade des évènements signalétiques qui aboutissent à la mort de la cellule tumorale traitée par cette molécule. De manière inattendue, la GAPDH a été identifiée. Cette protéine est présente dans la cellule sous différentes isoformes jouant des rôles très différents impliqués à la fois dans des activités cellulaires normales ou pathologiques (cancer, neurodégénérescence, diabète, infection). Nous évaluerons donc l'implication de la GAPDH dans l'activité cytotoxique du S23906-1. Parmi ces fonctions biologiques, la GAPDH est capable de se lier à l'ADN et à certains adduits mais sa spécificité d'interaction à l'ADN n'est pas clairement établie. Le quatrième objectif est de déterminer la sélectivité d'interaction à l'ADN de la GAPDH et si celle-ci change après formation de l'adduit du S23906-1. 73 CHAPITRE II : Objectifs des travaux de thèse Mes travaux de thèse ont également porté sur l'étude du JLK1486, un dérivé hydroxyquinoline présentant des propriétés d'alkylation. Des résultats préliminaires ont montré une certaine activité antitumorale sur différentes lignées cellulaires, en particulier sur les lignées de glioblastome chimiorésistantes. Le second grand axe de ma thèse consiste à identifier les cibles nucléotidiques ou protéiques du JLK1486 afin de comprendre son mécanisme d'action. Enfin ces trois années de thèse ont été enrichies par l'étude d'autres composés présentant une activité cytotoxique (dérivés de la nitidine et de l'ellipticine) qui sont le fruit de deux collaborations différentes et d'un travail d'équipe et que je développerai en dernier lieu dans un troisième grand axe. 74 CHAPITRE III : Résultats et discussions CHAPITRE III : Résultats et discussions Partie I : Projet S23906-1 1. Interaction à l'ADN et déstabilisation 1.1. Validation de l'interaction du S23906-1 aux guanines Les données publiées actuellement ont clairement montré que le composé S23906-1 alkyle des oligonucléotides riches en paires de bases GC et non pas AT ou IC [14]. En effet, l'utilisation d'EI-MS (Electrospray Ionization-Mass Spectrometry) sur des oligonucléotides en épingle à cheveux contenant 3 guanines (5'-CTATG1ACTCTG2TCATAG3) et incubés avec le S23906-1 présentaient de 1 à 3 adduits. De même, par empreinte à la DNaseI la fixation du S23906-1 semblait impliquer les guanines [14]. De plus, l'alkylation de l'ADN par l'ET-743, un alkylant du petit sillon utilisé comme contrôle, ne permet plus au S23906-1 de se lier à l'ADN montrant clairement l'utilisation d'un site commun (groupement N2 des guanines) [274]. Afin d'identifier de manière catégorique l'alkylation des guanines par le S23906-1, des expériences de coupures enzymatiques analysées en MALDI-TOF (MatrixAssisted Laser Desorption/Ionisation-Time-of-flight) ont été entreprises sur cet oligonucléotide en épingle à cheveu de 17pb. Les résultats sont présentés en figure 44 et les pics attendus et obtenus pour l'ADN libre et alkylé dans le tableau 4. Pic G17 A16 T15 A14 C13 T12 G11 T10 C9 T8 C7 A6 G5 T4 A3 T2 C1 Séquence 5'-CTATGACTCTGTCATAG 5'-CTATGACTCTGTCATA 5'-CTATGACTCTGTCAT 5'-CTATGACTCTGTCA 5'-CTATGACTCTGTC 5'-CTATGACTCTGT 5'-CTATGACTCTG 5'-CTATGACTCT 5'-CTATGACTC 5'-CTATGACT 5'-CTATGAC 5'-CTATGA 5'-CTATG 5'-CTAT 5'-CTA 5'-CT 5'-C Oligonucléotide non alkylé Masse Masse attendue observée 5160,4 5159 4831,2 4830 4518,0 4516 4213,8 4212 3900,6 3898 3611,4 3609 3307,2 3305 2978,0 2975 2673,8 2671 2384,6 2381 2080,4 2077 1791,2 1787 1478,0 1474 1148,8 1144 844,6 840 531,4 227,2 - Oligonucléotide mono alkylé Masse Masse attendue observée 5589,4 5587 5260,2 5257 4947,0 4944 4642,8 4642 4329,6 4328 4040,4 4039 3736,2 3733 3407,0 3102,8 3103 2813,6 2814 2509,4 2510 2220,2 2221 1907,0 1907 1577,8 1273,6 960,4 656,2 - Tableau 4: Identification de l'interaction du S23906-1 aux guanines par MALDITOF. Les masses des pics obtenus sur chacun des spectres MALDI-TOF sont comparées aux masses des pics attendus. Les pics annotés de la figure 44 correspondent aux fragments d'ADN alkylés (rouge) ou non (bleu) par le S23906-1 puis digérés par la phosphodiesterase I. Les fragments T4 et A3 alkylés ne sont pas retrouvés. 76 CHAPITRE III : Résultats et discussions B. A. D. C. F. E. G. Figure 44: Analyse MALDI-TOF de l'interaction du S23906-1 aux guanines. (A,C,E) L'oligonucléotide (50μM) est seul (A) ou incubé avec 200μM de S23906-1 pendant 2H (C) ou 16H (E). (B,D,F,G) L'oligonucléotide est digéré progressivement de 3' en 5' par la phosphodiesterase I de venin de serpent. Les pics obtenus par MALDI-TOF représentent les fragments oligonucléotidiques non alkylés (bleu) ou alkylés par une (rouge) ou deux molécules (vert) de S23906-1. Les fragments oligonucléotidiques alkylés A3 et T4 ne sont pas retrouvés dans le spectre (G). Après 2H ou 16H d'incubation, 1 à 2 molécules de S23906-1 se lient à l'oligonucléotide (figure 44-C et 44-E). Cet ADN est ensuite digéré par la phosphodiesterase I de 3' en 5' (tableau 4). Suite à la coupure enzymatique, nous observons que les séquences G17, G11 et G5, qui comportent respectivement 3, 2 et 1 guanines, interagissent avec une seule molécule de S23906-1 (figure 44-C et 44-E). Les digestions supplémentaires effectuées sur le fragment oligonucléotidique G5 nous montrent uniquement des fragments non alkylés. En effet, aucun pic correspondant à la séquence 5'-CTAT alkylée (fragment T4 figure 44-G) ou 5'CTA alkylée (fragment A3 figure 44-G) n'est retrouvé. Ces séquences ne contenant pas de guanine, les résultats de cette expérience sont un nouvel argument en faveur de l'interaction unique du S23906-1 à la guanine. 77 CHAPITRE III : Résultats et discussions 1.2. Déstabilisation de l'ADN Le S23906-1 interagit avec l'azote en position 2 des guanines [14], ce qui mobilise un atome donneur de liaison hydrogène et réduit ainsi le nombre de ponts possibles entre la guanine et la cytosine. Des expériences de mesure de fluorescence [2], de retard en gel [2] et de coupure à la nucléase S1 (figure 45) ont mis en évidence l'apparition d'ADNsb suite à l'incubation du S23906-1 avec un ADN de 117pb. Nous avons évalué certains dérivés du S23906-1 présentant ou non le cycle benzène additionnel à différentes positions (S17887-1 et S71344-1) (figure 45). Figure 45: Digestion par la Nucléase S1 des oligonucléotides XH alkylés ou non par le S23906-1, le S17887-1 ou le S71344-1. La formation d'adduits entre l'ADN et l'agent alkylant conduit à la formation d'ADN simple brin qui sont la cible de la nucléase S1 (NS1), et ainsi conduit à l'apparition de fragments d'ADN (1, 2 e 3). Par digestion à la nucléase S1, ce gel (figure 45) montre des fragments générés plus ou moins longs, signal d'une capacité d'induction d'ADNsb différente entre chacun des composés. En effet, un nombre plus important de fragments d'ADN court est obtenus pour le composé S17887-1 (dérivé diacétate de l'acronycine sans cycle additionnel), ce qui implique une déstabilisation plus forte de l'ADN par rapport aux composés S23906-1 et S71344-1 (benzo-diacétates). La présence d'ADNsb suggère que cet oligonucléotide de 117pb soit localement déstabilisé. Des variations importantes de la température de fusion de l'ADN (ΔTm) ont en effet été observées entre l'oligonucléotide XH (24pb dont 14 pb GC) incubé avec le S23906-1 78 CHAPITRE III : Résultats et discussions (ou certains dérivés) et l'oligonucléotide XH non alkylé (figure 33) [6]. Il est alors fort probable que les deux liaisons hydrogènes restantes entre la guanine et la cytosine soient également déstabilisées, ainsi que celles des bases environnantes (figure 46). Figure 46: Schématisation de la déstabilisation du couple GC par le S23906-1. Le S23906-1 interagit avec l'azote en position 2 des guanines, réduisant ainsi le nombre de ponts hydrogènes entre la guanine et la cytosine. La fixation du composé engendre probablement un encombrement stérique au sein de la double hélice. L'adduit [guanine/S23906-1] et/ou la cytosine seront peut-être externalisés et/ou les paires de bases avoisinantes déstabilisées. (dG=désoxyguanine ; dC=désoxycytosine) Cependant, le degré de déstabilisation au niveau des guanines ainsi que l'importance de l'ouverture locale de l'ADN en termes de nombre de paires de bases déstabilisées ne sont pas connus. Nous avons mesuré la température de fusion (Tm) de différents oligonucléotides de séquences XH contenant, sur un des deux brins, des mésappariements (cytosineadénine), des sites délétés ou des spacers (mime d'un site abasique) (tableau 5). Cette expérience a pour but de mimer le mésappariement provoqué par la fixation du S23906-1, du S71344-1 ou du S29385-1 sur ce même oligonucléotide [6], à titre de comparaison. 79 CHAPITRE III : Résultats et discussions ΔTm (°C) Nom Séquence Oligonucléotide XH (1,25μM) + alkylant (50μM) (15H) 5'-CTAGAGTCGACCTGCAGGCATGCA 5'-AGCTTGCATGCCTGCAGGTCGACT XHa XHb 5'-CTAGAGTCGACCTGCAGGCATGCA TCTCAGCTGGACGTCCGTACGTTCGA-5' Oligonucléotide simple brin XHb muté + XHa XH double brin S23906-1 S71344-1 S29385-1 S17887-1 ET-743 DOXO -7,5 -7,5 -16 -20 +20 +10 Modèle à 1 mésappariement 5'-AGCTTGCATGACTGCAGGTCGACT 5'-AGCTTGCATGCATGCAGGTCGACT 5'-AGCTTGAATGCCTGCAGGTCGACT 5'-AGCTTGCATGCCTGAAGGTCGACT 5'-AGCTTGCATGCCTGCAGGTAGACT -3,5 -5,4 -5,8 -8,4 -7,2 5'-AGCTTGCATGAATGCAGGTCGACT 5'-AGCTTGAATGACTGCAGGTCGACT 5'-AGCTTGAATGCCTGAAGGTCGACT 5'-AGCTTGCATGCCTGAAGGTAGACT 5'-AGCTTGAATGCCTGCAGGTAGACT 5'-AGCTTGCATGCATGAAGGTCGACT -11,4 -9,9 -14,4 -15,3 -12,9 -14,4 5'-AGCTTGAATGACTGAAGGTCGACT 5'-AGCTTGCATGACTGAAGGTAGACT 5'-AGCTTGAATGCCTGAAGGTAGACT -19,5 -20,5 -22,0 5'-AGCTTGAATGACTGAAGGTAGACT XHb-M1A-M2-M4-M5 5'-AGCTTGAATGAATGAAGGTAGACT XHb-M1-M2-M4-M5 Oligonucléotide simple brin XHb délété + XHa 5'-AGCTTG-ATGCCTGCAGGTCGACT XHb-D2 5'-AGCTTGCATGCCTG-AGGTCGACT XHb-D4 5'-AGCTTGCATGCCTGCAGGT-GACT XHb-D5 5'-AGCTTGCATG--TGCAGGTCGACT XHb-D1 -24,0 -23,9 XHb-M1A XHb-M1B XHb-M2 XHb-M4 XHb-M5 Modèle à 2 mésappariements XHb-M1 XHb-M1A-M2 XHb-M2-M4 XHb-M4-M5 XHb-M2-M5 XHb-M1B-M4 Modèle à 3 mésappariements XHb-M1A-M2-M4 XHb-M1A-M4-M5 XHb-M2-M4-M5 Modèle à 4-5 mésappariements -7,0 -12,8 -9,0 -17,8 Oligonucléotide simple brin XHb avec sites abasiques + XHa XHb-AP2 5'-AGCTTG(dR)ATGCCTGCAGGTCGACT -8,3 XHb-AP4 5'-AGCTTGCATGCCTG(dR)AGGTCGACT -14,5 XHb-AP5 5'-AGCTTGCATGCCTGCAGGT(dR)GACT -11,2 Tableau 5: Variation de la température de fusion (ΔTm) de l'oligonucléotide XH incubé avec le composé S23906-1, S71344, S17887 ou muté par rapport à l'oligonucléotide non modifié. L'oligonucléotide XH db est incubé avec chacun des alkylants (S23906-1, S71344-1, S29385-1, S17887-1, ET-743) ou intercalant (Doxorubicine) [6]. Chacun des brins XHb mutés, délétés ou contenant des spacers est hybridé à un brin non muté. Les modifications du brin XHb sont surlignées en jaune. L'absorbance à 260nm est mesurée toutes les minutes de 20 à 100°C (1°C/min). ΔTm = Tm XH seul – Tm XH modifié ou alkylé Le mésappariement est le résultat d'une perte/diminution des liaisons hydrogènes, il engendre ainsi une modification plus ou moins importante de la structure de l'ADN. Le mésappariement CA ou CT est moins stable que le mésappariement GA ou GT (figure 47), puisque la formation de ponts hydrogènes moins stables est possible entre G et A ou G et T [275]. Le mésappariement GA a donc été choisi pour mimer la possible formation de deux liaisons hydrogènes entre la guanine alkylée et la cytosine du brin complémentaire (tableau 5). Figure 47: Stabilité de différentes paires de bases. Le duplex GT et GA est stabilisé par la formation de deux ponts hydrogènes, alors qu'aucune liaison n'est possible entre CT, CA, AA ou AT. 80 CHAPITRE III : Résultats et discussions Le mésappariement induit des modifications du positionnement des bases impliquées. Les bases peuvent alors se retrouver à l'extérieur de l'hélice ou encore rester à l'intérieur, ce qui peut déstabiliser les ponts hydrogènes des bases adjacentes (figure 46) [276]. La présence d'un spacer est utilisée pour mimer l'externalisation des bases mésappariées ; une délétion produit, quant à elle, une courbure de la double hélice. Les résultats exposés dans le tableau 5 montrent qu'une modification (mutation, délétion ou spacer) au niveau des extrémités engendre globalement une déstabilisation moins importante de l'oligonucléotide par rapport à la modification centrale. La présence d'un site abasique déstabiliserait de manière plus importante l'ADN par rapport à une délétion, qui elle-même déstabiliserait de manière plus importante l'ADN par rapport à une mutation (déstabilisation : mutation<délétion<site abasique). Nous observons également que l'augmentation du nombre de mésappariements induit une augmentation de la déstabilisation de l'oligonucléotide. La fixation des composés S23906-1, S71344-1, S29385-1 et S17887-1 provoque une diminution de la température de fusion de l'oligonucléotide XH double brin de 7,5°C pour les deux premiers, de 16°C et de 20°C respectivement pour les suivants (figure 33 et 48). Figure 48: Structure des composés S23906-1, S71344-1, S29385 et S17887-1. Les différences structurelles par rapport au S23906-1 sont encadrées en rouge. Ces composés alkylent également l'ADN à des taux différents : S29385-1>S239061≥S71344-1>S17887-1 [6], un fort taux d'alkylation n'est donc pas forcément corrélé à une forte déstabilisation de l'ADN. Le taux de déstabilisation serait donc fonction de la structure du composé en lui-même plutôt qu'à l'intensité d'alkylation de l'ADN. Les composés ET-743 et doxorubicine induisent quant à eux une stabilisation de la double hélice, puisqu'il faut 10 ou 20°C de plus pour obtenir 50% de fusion des deux brins (figure 33 et 49) [6]. 81 CHAPITRE III : Résultats et discussions Figure 49: Structure des composés DOXO (doxorubicine) et ET-743. En se référant aux résultats obtenus pour les oligonucléotides XH mutés, nous observons que la modification de la structure de l'ADN par le S23906-1 ou le S71344-1 induit la même déstabilisation qu'un mésappariement GC. La fixation du S29385-1 à l'oligonucléotide induirait quant à lui des modifications structurales correspondant à 2 mésappariements GC. Enfin, la fixation du S17887-1 induirait des modulations similaires à 3 mésappariements GC. Cependant ces résultats ne nous servent que de points de repères, puisque l'expérience est réalisée sur le pool total d'oligonucléotides. Il est en effet possible qu'une petite quantité d'ADN ne soit pas alkylé (figure 49). Ainsi, chacun des composés déstabiliserait peut-être d'avantage l'oligonucléotide XH. Figure 49: Retard en gel de l'oligonucléotide XH alkylé ou non. L'oligonucléotide est incubé ou non pendant 16H à 37°C avec 50μM de S23906-1. L'adduit est séparé de l'ADN non alkylé sur un gel de polyacrylamide 10%. Enfin, le S23906-1 est un cis-racémate, les études entreprises sur les isomères purs S27589-1 et S27590-1 ont montré l'importance de l'orientation du groupement acétate en position 1 (site réactif) des différents énantiomères [106]. Ainsi, le composé 1S (acétate en position 1 en conformation S) présente une activité cytotoxique et une activité antitumorale plus importante que le composé 1R, ce qui est corrélé à l'activité de déstabilisation plutôt qu'à l'activité d'alkylation de l'ADN. En effet, le composé 1S présente une capacité d'ouverture de la double hélice un peu plus importante que le composé 1R, alors que le 1R alkyle l'ADN de manière un peu plus efficace que le composé 1S. Ces résultats sont exposés dans l'article Depauw et al. (Molecular Pharmacology, 2009) situé en annexe. 82 CHAPITRE III : Résultats et discussions L'activité cytotoxique et antitumorale du S23906-1 est liée à sa capacité d'interaction à l'ADN, puisque le composé diol n'est pas actif in vitro ou in vivo (voir Chapitre I, 3.2). Les expériences réalisées, et notamment l'étude des énantiomères du S23906-1, montrent que cette activité cytotoxique et antitumorale est également corrélée au pouvoir de déstabilisation de la double hélice. Dans le but de mieux comprendre le mécanisme d'action moléculaire du S23906-1, et ainsi les répercussions d'une ouverture locale de la double hélice, nous avons recherché les partenaires protéiques des adduits S239061/ADN. 2. Recherche des partenaires protéiques des adduits S23906-1/ADN Il a été montré dans la littérature que certaines protéines interagissent avec les adduits de l'ADN, en lien ou non avec l'activité cytotoxique de l'agent alkylant. C'est le cas des adduits du cisplatine reconnus par la HMG-B1, de ceux de l'ET-743 par la protéine XPG pour en empêcher la réparation ou encore des adduits CC-1065/ADN reconnus par la protéine DARP (Duocarmycin-DNA Adduct Recognizing Protein) [277]. Certains d'entre eux ont une activité plus spécifique puisqu'ils peuvent moduler la fixation de facteurs de transcription. Par exemple, l'ET-743 empêche la fixation de NF-Y [81], les conjugués platineII-acridine empêchent aussi la fixation des TBPs (TATA Binding Proteins) [278] ; au contraire les adduits formés par le cisplatine sont reconnus par le domaine C-terminal du suppresseur de tumeur p53 [279]. Afin d'identifier les partenaires protéiques (potentiellement des facteurs de transcription) des adduits S23906-1/ADN, notre étude a débuté par la recherche des facteurs de transcription dont la reconnaissance de leur cible nucléotidique est inhibée ou augmentée par la présence de l'adduit S23906-1/ADN. 83 CHAPITRE III : Résultats et discussions 2.1. Identification d'un site de fixation de facteurs de transcription ciblé par le S23906-1 2.1.1. Utilisation de membranes TranSignalProtein/DNA Array Afin de déterminer l'activité potentielle du S23906-1 à inhiber ou à favoriser la fixation de facteurs de transcription, nous avons utilisé des membranes TranSignalProtein/DNA Array (Panomics) [280]. Ces membranes permettent la quantification de l'expression de certains facteurs de transcription. Ce kit a été détourné de son utilisation initiale afin d'étudier la spécificité d'alkylation du S23906-1 au niveau de séquences d'ADN consensus reconnues par les facteurs de transcription dans le but de déterminer ensuite les conséquences sur la transcription (activation ou inhibition). Cette technique présente également l'avantage d'effectuer un criblage large d'environ 400 facteurs de transcription, nous avons à disposition 5 kits TranSignal et chacun d'eux comprend 3 membranes identiques. Les expériences d'interaction [facteur de transcription/séquence cible alkylée] en utilisant les membranes TranSignalTM nous ont permis d'observer plusieurs modulations de fixation de facteurs de transcription à leur site oligonucléotidique respectif selon que celui-ci soit alkylé ou non par le S23906-1. Chacune des séries de trois membranes (ADN non alkylé, ADN alkylé avec 1μM de S23906-1, ADN alkylé avec 5μM de S23906-1) est testée à trois reprises : les deux premières séries (duplicate) sont réalisées en incubant les oligonucléotides avec 15μg de protéines nucléaires et la dernière expérience est réalisée en absence de protéines avec une hybridation directe à la membrane des oligonucléotides contrôles ou alkylée par le S23906-1. Ce contrôle sans protéine nous permet d'éliminer les faux positifs ainsi que les faux négatifs : nous regardons ainsi si une variation se produit lors de l'hybridation du brin d'ADN alkylé au brin complémentaire déjà fixé sur la membrane, suggérant dans ce cas que la simple présence de l'adduit change la capacité d'interaction de l'ADN à son brin complémentaire. La membrane TranSignalTM I montre une importante augmentation de fixation de protéines d'un facteur supérieur à 30, au niveau de l'oligonucléotide Smad-SBE (Smad Binding Element) alkylé par rapport au non alkylé (figure 50 et tableau 6). Cette différence suggère que l'oligonucléotide Smad-SBE alkylé forme un complexe protéique alors que l'oligonucléotide contrôle non alkylé n'est quasiment pas reconnu par des protéines d'extrait 84 CHAPITRE III : Résultats et discussions nucléaire. La série de membranes contrôles (sans incubation avec les protéines d'extrait nucléaire) ne nous montre aucune augmentation d'hybridation de cet oligonucléotide : l'alkylation ne module donc pas l'hybridation du brin alkylé. La modulation de la reconnaissance de la séquence Smad-SBE est donc bien liée à la formation de complexes protéine/ADN alkylé. Figure 50: TranSignalTM Protein/DNA Array I. Augmentation de fixation de protéines d'un facteur 30 sur l'oligonucléotide Smad-SBE. D'autres modulations de fixation de protéines sont observées sur les membranes TranSignal II à V. Un bilan des modulations de fixation de protéines sur les oligonucléotides spécifiques de chacune des membranes est présenté dans le tableau ci-dessous. Tableau 6: Valeurs de modulation de fixation de protéines obtenues à partir des 5 membranes TranSignal. Les valeurs sont obtenues en comparant chacun des spots des membranes TranSignalTM Protein/DNA Array fixant des « ADN alkylés » et la membrane hybridant des « ADN non alkylés », l'expérience est réalisée à deux reprises. Les valeurs supérieures à 1 correspondent à une augmentation de fixation de protéines sur les oligonucléotides cibles alkylés par rapport aux oligonucléotides contrôles non alkylés. Les inhibitions (valeurs inférieures à 1) étant faibles, elles n'ont pas été retenues dans ce tableau. 85 CHAPITRE III : Résultats et discussions Les membranes II et III présentent de nombreuses modulations de fixation de protéines. La membrane II montre trois augmentations de fixation de protéines d'un facteur supérieur à 10 (KKLF, SRY et Tax/CREB). Cependant, après comparaison des résultats avec la série contrôle de la membrane III (sans incubation des oligonucléotides avec les extraits nucléaires), nous observons une augmentation de fixation d'un facteur 24, pour le brin alkylé par 5μM de S23906-1 de l'oligonucléotide KKLF; et nous n'observons qu'une augmentation de fixation du brin complémentaire d'un facteur 12 en présence de protéines. Une diminution de fixation de protéines de l'ordre de 50% serait peut-être dissimulée derrière l'observation d'une augmentation de fixation. Les autres modulations sont quant à elles reproductibles et indépendantes de la capacité d'interaction des séquences complémentaires. La membrane IV ne présente aucune modification de fixation de protéines sur les oligonucléotides alkylés. Enfin, la membrane V présente des oligonucléotides fixant de manière importante des protéines lorsque ceux-ci sont alkylés, notamment l'oligonucléotide msx 1/2/3. L'étude de la reconnaissance de cet oligonucléotide sera également très intéressante puisque sa reconnaissance par des protéines augmente d'un facteur 20. L'expérience sans protéine n'a pas révélé de différences. Il est à noter que nous n'observons pas de changement de la capacité d'interaction à l'ADN des facteurs de transcriptions TBP (comme observé pour le cisplatine) ou NF-Y (comme observé pour l'ET-743). Pour résumer, un grand nombre de modulation de fixation de facteurs de transcription est mis en évidence (tableau 6), les plus intéressantes étant la modulation observée au niveau de l'oligonucléotide Smad-SBE et de l'oligonucléotide Msx 1/2/3. Notre étude a donc débuté par l'utilisation de Smad-SBE comme cible oligonucléotidique pour l'étude des protéines recrutées au niveau de l'adduit ADN/S23906-1. Il serait intéressant pour la suite du projet de regarder également quelles types de protéines sont recrutées au niveau de Msx 1/2/3. De même, il faudra vérifier si certaines protéines ont leur fixation empêchée au niveau de KKLF, et surtout l'importance de cette séquence (5'- GGGGAGGAGGGGGAGGAGGGGGAGGAG-3') dans la reconnaissance du S23906-1. 86 CHAPITRE III : Résultats et discussions 2.1.2. En utilisant Protéines ciblant la séquence Smad-SBE le logiciel PATCHTM public 1.0 (http://www.gene- regulation.com/pub/programs.html#patch), les sites de reconnaissance de différents facteurs de transcription au sein de l'oligonucléotide Smad-SBE ont été mis en évidence comme indiqué dans la figure 51. Figure 51: Protéines susceptibles de se fixer sur Smad-SBE. La séquence palindromique GTCTAGAC est reconnue par le complexe humain Smad3/Smad4, la séquence TGTCT chevauchant en partie le site consensus du complexe Smad3/4 est reconnue par la protéine humaine TGIF (TG-interacting factor). Cette recherche informatique de sites consensus a également révélé que cet oligonucléotide était la cible de protéines d'autres espèces, comme le complexe murin Smad3/TFE3 et la protéine de rat PTF. Les protéines Smads appartiennent à une famille de facteurs de transcription permettant la transmission du signal intracellulaire induit par le TGF-β (Transforming Growth Factor-béta) régulant ainsi la croissance cellulaire, la différenciation et l'apoptose. Il existe huit protéines Smads chez l'homme. Smad 1, 2, 3, 5 et 8 sont des substrats directs des récepteurs de la famille TGF-β ; Smad 4 est un co-partenaire des Smads ; Smad 6 et 7 sont des inhibiteurs de Smads [281]. Plusieurs centaines de gènes sont régulés par TGF-β, dont 2/3 sont activés par le signal et 1/3 sont réprimés. Les cofacteurs d'interaction des Smads à l'ADN sont FoxH1, Mixer, E2F4, FoxO alors que p300 est un co-activateur [281]. Les Smads orchestrent les modifications des histones et le remodelage de la chromatine pour activer la transcription [282]. Smad 4 est essentiel pour augmenter l'expression de Bmf et Bim (membres de la famille des pro-apoptotiques Bcl-2) et ainsi induire l'apoptose des cellules [283]. L'association de Smad 3 à Smad 4 permet leur interaction à des zones promotrices de certains gènes et facilite la fixation de Sp1 pour augmenter l'expression des gènes d'inhibiteurs de cdk tel que p21 [284]. Smad 3 peut se fixer à la séquence Smad-SBE du gène sm22 en association avec SRF, et ainsi être impliqué dans la différentiation myofibroblastique [285]. SRF est impliqué également dans l'apoptose et la prolifération puisqu'il peut aussi au contraire inhiber la fixation de Smad 3 sur la région promotrice de p15 et p21 [286]. 87 CHAPITRE III : Résultats et discussions Ces données de la littérature montrant que Sp1 et SRF peuvent s'associer avec les protéines Smads et interagir avec Smad-SBE [284, 285, 287] ont particulièrement retenu notre attention car nous observons aussi une augmentation de formation de complexe protéines/ADN sur les séquences consensus de ces deux facteurs de transcription (tableau 6). Cependant, aucune augmentation des capacités de liaison des protéines reconnaissant la séquence « Smad3/4 » n'est présente sur la membrane. Cela s'expliquerait par le fait que les cellules HT-29 (carcinome de côlon humain) utilisées pour nos expériences n'expriment pas la protéine Smad 4 [288]. L'alkylation a donc permis l'activation de la reconnaissance de ce site par certaines protéines qui pourraient être les facteurs de transcription de la famille Smad (sauf Smad 4) ou alors d'autres protéines qui empêcheraient ou favoriseraient la fixation de ces facteurs de transcription. La formation de l'adduit Smad-SBE/S23906-1 dans cette voie signalétique aurait des répercussions sur l'induction de l'apoptose ou sur la prolifération des cellules. Il était donc important d'identifier les protéines recrutées au niveau de cette séquence alkylée. 2.1.3. Vérification de l'alkylation de Smad-SBE par le S23906-1 Dans un premier temps, nous avons testé la capacité d'alkylation du S23906-1 sur l'oligonucléotide Smad-SBE. Pour cela nous avons utilisé les propriétés de fluorescence du composé (λexcitation 354nm, λémission 420 à 650nm [114]) (figure 52). Une expérience de retard en gel permet également de visualiser l'adduit Smad-SBE/S23906-1, qui va être retardé (figure 53). Figure 53: Retard en gel montrant l'alkylation de SmadSBE par le S23906-1. L'oligonucléotide Smad-SBE est incubé pendant 16H avec des concentrations croissantes en S23906-1. L'ADN alkylé est visualisé par un retard de l'adduit sur un gel d'acrylamide 10%. Figure 52: Spectre de fluorescence du S23906-1 fixé à l'oligonucléotide Smad-SBE. L'oligonucléotide est incubé avec des concentrations croissantes en S23906-1 pendant 16H à 37°C. Après précipitation de l'ADN, l'intensité de fluorescence du S23906-1 lié à la séquence Smad-SBE, est mesurée (λexcitation=354nm) 88 CHAPITRE III : Résultats et discussions Ainsi, le composé S23906-1 interagit de manière covalente avec l'oligonucléotide Smad-SBE. Après observation d'interaction de protéine(s) d'extraits nucléaires de cellules HT-29 sur Smad-SBE alkylé par rapport au non alkylé (voir figure 62), nous avons utilisé notre approche de protéomique pour identifier le(s) partenaire(s). 2.2. Recherche du/des partenaire(s) protéique(s) 2.2.1. Protéines recrutées sur l'oligonucléotide Smad-SBE Les protéines qui se fixent à l'ADN alkylé par le S23906-1 ont été isolées par un système chromatographique où l'oligonucléotide d'intérêt biotinylé est alkylé ou non par le S23906-1. Cet oligonucléotide est fixé sur des colonnes de chromatographie via l'interaction streptavidine/biotine. Les protéines d'extraits nucléaires de cellules HT-29 qui se fixent à l'ADN sont éluées par des concentrations croissantes en NaCl (50 ; 100 ; 200 ; 300 ; 500 et 1000 mM), dessalées puis séparées par électrophorèse monodimensionnelle (1D). Les spots d'intérêt sont récupérés, la ou les protéine(s) contenue(s) dans ceux-ci sont digérés par la trypsine puis les peptides sont analysés par MALDI-TOF (Voyager), en mode positif. Les spectres obtenus sont ensuite comparés à une banque de données (Profound). Les protéines identifiées sont enfin analysées par PeptideMass, un logiciel permettant la détermination des points de coupure trypsique. L'électrophorèse réalisée sur les protéines éluées des colonnes de chromatographie montre deux bandes qui apparaissent avec un différentiel de fixation de protéine(s) entre l'oligonucléotide non alkylé et alkylé (spot 1 et 2, figure 54). Figure 54: Electrophorèse 1D des différents éluas de la chromatographie d'affinité. Les éluas de la colonne correspondant à l'oligonucléotide SmadSBE alkylé sont notés « A » ou non alkylé sont notés « C » (contrôle). L'interaction Smad-SBE/protéines est déstabilisée en présence de 200 et 300mM de NaCl. On observe une fixation préférentielle de protéines lorsque l'oligonucléotide est alkylé. L'analyse MALDI-TOF a permis d'identifier la GAPDH et la HMG-B1. PM : marqueur de poids moléculaire (KDa). 89 CHAPITRE III : Résultats et discussions Ce gel confirme la fixation préférentielle de protéines observées au niveau de Smad-SBE alkylé sur les membranes TranSignalTM. Contre toute attente, l'analyse MALDI-TOF ne nous révèle pas la présence de protéines Smads (environ 43KDa) ou des facteurs suspectés (figure 51) sur cet oligonucléotide mais plutôt celle de la GAPDH (Glycéraldéhyde 3-phosphate déshydrogénase) et de la HMG-B1 (High Mobility Group-B1) respectivement à 37 et 24KDa (figure 55). Figure 55 : Identification de la GAPDH et de la HMG-B1. Les tableaux regroupent l'ensemble des masses de pics retrouvés sur le spectre MALDI-TOF. L'analyse Profound indique que les 7 peptides de chacun des spectres (dont tous les pics majeurs) correspondent aux séquences peptidiques de la GAPDH (34% de recouvrement) et de la HMG-B1 (31% de recouvrement). Ces peptides sont inscrits en rouge dans les séquences peptidiques entières de la GAPDH et de HMGB1 humaine. 90 CHAPITRE III : Résultats et discussions 2.2.2. HMG-B1, une protéine aux multiples fonctions nucléaires La protéine HMG-B1 est une protéine abondante dans le noyau des cellules de mammifères (1 pour 10 à 20 nucléosomes). Elle contient deux « domaines HMG » (14-74 et 100-160) et une queue chargée négativement (riche en résidus aspartate/glutamate) [289]. De manière générale, les protéines à « domaine HMG » sont des protéines chromosomales nonhistones qui se lient à des structures spécifiques déroulées ou courbées de l'ADN ou à la chromatine plutôt qu'à des séquences spécifiques [290, 291]. En plus de leur rôle structural, les protéines HMG-B1 et B2 sont connues pour être recrutée au niveau de certains dommages à l'ADN, comme par exemple les crosslinks psoralen/ADN [292], les adduits benzo[a]pyrene diol époxides [293] ou encore les adduits cisplatine/ADN [60, 294], qui vont déstabiliser la double hélice. De plus, des expériences in vitro ont montré que la reconnaissance de ce dernier adduit par la HMG-B1 empêche la fixation de XPG et donc la réparation NER [61, 295]. Elle joue également un rôle important dans la réparation de l'ADN [296-300]. Elle est aussi impliquée dans la voie MMR indépendante de MutS où elle reconnait la lésion thiopurine et permet le recrutement des autres protéines de cette voie telles que : HMG-B2, HSC-70, Erp60 et la GAPDH [301, 302]. De manière intéressante, nos expériences ont permis l'identification de la GAPDH contenue dans ce complexe. Enfin, la HMG-B1 est impliquée dans la réplication et la transcription de l'ADN [298, 303-305]. 2.2.3. Localisation nucléaire de la GAPDH Comme souligné dans l'introduction, la GAPDH présente une localisation cellulaire très variée en lien avec ses multiples fonctions qui conduiront soit au maintien de la prolifération cellulaire, soit à l'induction de l'apoptose. Au niveau nucléaire, la GAPDH interagit avec l'ARNm, l'ARNt, l'ADN double brin (ADNdb) ou simple brin (ADNsb), mais aussi avec certains adduits de l'ADN. Bien qu'il ait été montré à plusieurs reprises que la GAPDH présentait des fonctions nucléaires, nous avons vérifié la présence de GAPDH au sein des noyaux des cellules HT-29 et A549 (adénocarcinome de cellules épithéliales basales alvéolaires humaines). Une extraction fractionnée (kit biovision) suivie d'un western-blot a été réalisé (figure 56). 91 CHAPITRE III : Résultats et discussions Figure 56: Identification de la localisation nucléaire de la GAPDH par Western-blot. Les expériences sont réalisées en duplicate (points 1 et 2 sur la figure). La topoisomérase I est utilisée comme contrôle de dépôt. La contamination de la fraction nucléaire par la fraction cytoplasmique, est évaluée par un dosage de la β-galactosidase. 10 μg de protéines de fractions nucléaires de cellules A549 ou HT-29 sont déposées par puits. Nous observons la présence de GAPDH nucléaire pour chacune des lignées, mais en quantité moins importante pour HT-29. Il a déjà été montré qu'au sein du noyau de certaines cellules, la GAPDH interagissait avec l'ADN, notamment au niveau des télomères (voir Introduction 4.6). Nous avons alors vérifié l'interaction de la GAPDH à la chromatine dans nos deux lignées cellulaires (figure 57). Figure 57: Identification de l'interaction de la GAPDH à la chromatine des cellules HT-29 et A549 par Western-blot. Les expériences sont réalisées en duplicate (points 1 et 2 sur la figure). L'Histone H3 est utilisée comme contrôle de dépôt. La contamination de la fraction chromatinienne par la fraction cytoplasmique est évaluée par un dosage de la β-galactosidase. 10μg de protéines de fractions chromatinienne de cellules A549 ou HT-29 sont déposées par puits. Ces expériences valident la présence de GAPDH dans nos extraits nucléaires de cellules HT-29 et ainsi la possibilité d'une interaction de la GAPDH avec notre oligonucléotide Smad-SBE. De plus, la GAPDH qui interagit de manière différente entre Smad-SBE alkylé et non alkylé pourrait être une GAPDH de type nucléaire. 92 CHAPITRE III : Résultats et discussions 2.3. Validation des interactions L'étape suivante est la validation des interactions entre l'ADN et les protéines identifiées. Pour cela nous avons utilisé la technique de retard en gel. 2.3.1. non Interaction HMG-B1/Smad-SBE alkylé ou Les expériences réalisées avec la HMG-B1 pure humaine n'ont pas montré d'interaction directe avec l'oligonucléotide Smad-SBE alkylé ou non, ceci même en présence de GAPDH. La présence de HMG-B1 lors de la purification des protéines pourrait s'expliquer par une interaction indirecte via une protéine intermédiaire non identifiée. Nous avons ensuite testé la fixation d'anticorps anti-HMG-B1 contre le complexe formé par l'oligonucléotide et les protéines d'extraits nucléaires. Cependant aucun supershift n'a été obtenu, suggérant que la protéine HMG-B1 serait peut-etre absente du complexe protéique interagissant avec l'adduit S23906-1/ADN. 2.3.2. Interaction GAPDH/Smad-SBE alkylé ou non Nous avons ensuite validé l'interaction de la GAPDH pure avec l'oligonucléotide Smad-SBE alkylé. Au début de notre étude, la GAPDH d'érythrocyte humain n'était pas disponible dans le commerce. Nos expériences ont donc tout d'abord été réalisées avec de la GAPDH purifiée de cellules d'autres espèces animales (muscle de lapin et muscle de poulet), qui présentent de fortes similarités structurales avec la GAPDH humaine, puis validées plus tard avec la GAPDH purifiée d'érythrocyte humain. 2.3.2.1. Alignement des séquences protéiques des GAPDHs A l'aide du logiciel « EMBOSS Pairwise Alignment Algorithms », nous avons aligné les séquences peptidiques de la GAPDH de chacune des espèces (figure 58). Nous observons un haut taux d'identité et de similarité entre chacune d'elles: - 94,3% d'identité et 96,1% de similarité entre la GAPDH humaine et de lapin, - 91,3% d'identité et 94,3% de similarité entre la GAPDH humaine et de poulet, - 93,7% d'identité et 96,4% de similarité entre la GAPDH de lapin et de poulet. 93 CHAPITRE III : Résultats et discussions Figure 58: Alignement des séquences peptidiques de la GAPDH de chacune des espèces. La séquence de chacune des protéines a été recherchée sur le site UniProtKB. Puis, chacune d'entre elle a été copiée sous format FASTA dans le logiciel d'alignement « EMBOSS Pairwise Alignment Algorithms ». Dans un alignement de protéines, la barre verticale (|) indique une identité, deux points (:) indique une substitution par un acide aminé proche chimiquement (exemple valine/leucine), un point (.) indique une différence. Le domaine N-terminal d'interaction à NAD est présenté en bleu et le domaine C-terminal catalytique de la GAPDH est écrit en vert. Chacune des espèces présente les acides aminés Asp34 et Cys152 (surlignés en jaune). Ce haut taux de similarité augmente les chances d'avoir un recrutement similaire de la GAPDH de chacune des espèces à l'oligonucléotide Smad-SBE alkylé. En effet, les acides aminés impliqués dans la reconnaissance in vitro des ADN télomériques (Asp34 et la Cys152) sont identiques pour toutes les séquences peptidiques de GAPDH [234]. La GAPDH de chacune des espèces est donc susceptible d'interagir avec l'oligonucléotide Smad-SBE alkylé. 94 CHAPITRE III : Résultats et discussions 2.3.2.2. Isoformes de la GAPDH Il est important de rappeler aussi que la structure de la GAPDH peut varier entre différentes espèces, différents tissus, mais aussi au sein d'une même cellule puisque la GAPDH peut subir de nombreuses modifications post-traductionnelles (voir introduction 4.2.4). Le poids moléculaire de la GAPDH peut varier de 35 à 54 kDa et le pI de 7,0 à 8,7 selon sa localisation cellulaire. La GAPDH nucléaire présente en général un pI de 8,3-8,7 alors que l'isoforme cytoplasmique est plus acide avec un pI autour de 7,0-7,5 [162]. Afin de connaître le pI des GAPDH pures du commerce qui ont été utilisées dans les expériences de retard en gel, nous avons réalisé des gels d'électrophorèse bidimensionnelle. Ceux-ci pourront alors être comparés aux gels séparant les isoformes de GAPDH présentes dans la fraction nucléaire de cellules HT-29 et qui interagissent avec Smad-SBE alkylé (figure 59). Malheureusement, nous n'avons pas eu assez de matériel pour tester la GAPDH de muscle de poulet qui n'était alors plus vendue dans le commerce, mais d'après Sirover [127] celle-ci présente un pI moyen de l'ordre de 8,5. Figure 59: Les isoformes contenues dans les lots de GAPDH pure de lapin ou humaine sont comparées aux isoformes de GAPDH contenues dans les extraits nucléaires de cellules HT-29 et interagissant avec Smad-SBE alkylé. (A) Dépôt d'un mélange d'1μg de GAPDH pure de lapin et 3μg de CPK (Creatine phosphokinase)/strip. La CPK est utilisée comme contrôle interne, elle a un poids moléculaire de 45KDa et les différentes isoformes ont un pI variant de 4,9 à 7,1. (B) Dépôt d'un mélange de 3μg de GAPDH d'érythrocyte humain et de 3μg de CPK/strip. (C) Pool de 2 éluas protéiques de colonnes de chromatographie, contenant Smad-SBE alkylé, après une élution des protéines avec 300mM de NaCl. PM : marqueur de poids moléculaire (en KDa) 95 CHAPITRE III : Résultats et discussions Les isoformes contenues dans le pool de GAPDH humaine (figure 59B) sont un peu plus basiques que certaines contenues dans le pool de GAPDH de lapin (figure 59A) et pourraient correspondre aux formes nucléaires. Par comparaison des gels d'électrophorèse 2D, les isoformes humaines contenues dans les extraits nucléaires interagissant avec Smad-SBE (figure 59C) paraissent également plus basiques que celles de GAPDH de lapin. Les modifications post-traductionnelles permettraient éventuellement à ces isoformes d'interagir plus ou moins bien avec l'ADN. 2.3.2.3. Retard en gel et quantification de l'interaction Smad-SBE double brin/GAPDH En effet, nous observons que la GAPDH de chacune des espèces se fixe préférentiellement à Smad-SBE double brin alkylé par le S23906-1 par rapport au non alkylé, mais aussi que la GAPDH humaine se fixe de manière plus importante à l'ADN par rapport aux isoformes de GAPDH des autres espèces (figure 60). La différence de pI observée entre la GAPDH humaine et de lapin (figure 59) pourrait expliquer la plus faible interaction de la GAPDH de lapin à l'ADN double brin alkylé par rapport à la GAPDH humaine, un pI basique améliorerait l'interaction de la protéine à l'ADN. Enfin, même si nous observons une fixation un peu moins importante de la GAPDH de lapin ou de poulet sur Smad-SBE alkylé par rapport à la GAPDH humaine, les courbes de fixation sont équivalentes. Les expériences réalisées avec chacune d'elles pourront alors être comparées. 96 CHAPITRE III : Résultats et discussions Figure 60: Fixation préférentielle de la GAPDH sur l'oligonucléotide double brin alkylé par le S23906-1. L'oligonucléotide Smad-SBE radiomarqué est incubé ou non avec 50μM de S23906-1 pendant 16H à 37°C. Après une incubation de 30min à 4°C avec la GAPDH pure humaine, les ADN libres et complexés à la GAPDH sont séparés sur gel d'acrylamide à 6%. Les taux d'interaction entre la GAPDH et Smad-SBE sont regroupés dans le graphique. 97 CHAPITRE III : Résultats et discussions 2.3.2.4. Retard en gel et quantification de l'interaction Smad-SBE/GAPDH Il faut rappeler que le S23906-1 présente la capacité d'ouverture locale de la double hélice, il induit alors de l'ADN simple brin. Nous avons vérifié la capacité de fixation de la GAPDH à Smad-SBE simple brin, alkylé ou non. Figure 61: Fixation préférentielle de la GAPDH sur un des deux brins alkylé par le S23906-1. L'oligonucléotide Smad-SBE radiomarqué est incubé ou non avec 50μM de S23906-1 pendant 16H à 37°C. Après une incubation de 30min à 4°C avec la GAPDH pure de poulet, les ADN libres et complexés à la GAPDH sont séparés sur gel d'acrylamide à 6%. De la même manière que pour l'ADNdb, nous observons une fixation préférentielle de la GAPDH à l'ADN simple brin alkylé par rapport au simple brin non alkylé (figure 61). Nous observons également que la GAPDH se fixe de manière plus importante à l'oligonucléotide simple brin Smad-SBEa alkylé par rapport à Smad-SBEb alkylé (figure 61). On remarque que le brin a présente deux fois plus de guanine que le brin b. La fixation plus importante de la GAPDH sur ce brin a pourrait s'expliquer par le fait qu'il est deux fois plus alkylé par le 98 CHAPITRE III : Résultats et discussions S23906-1. La deuxième hypothèse est une possible spécificité de séquence pour la fixation de la GAPDH, puisque le brin a non alkylé interagit lui aussi plus fortement avec la GAPDH par rapport au brin b non alkylé. Nous avons alors comparé la fixation de la GAPDH entre les brins a et b alkylés et Smad-SBE double brin alkylé. La GAPDH présente une fixation préférentielle sur le brin a par rapport au double brin. La présence de S23906-1 augmenterait la fixation de la GAPDH sur l'oligonucléotide mais ne déstabiliserait pas entièrement les deux brins pour engendrer du simple brin et augmenter ainsi une plus forte fixation de la GAPDH. 2.3.3. Interaction GAPDH/autres séquences alkylées ou non Afin de conforter les résultats précédents et de savoir si la GAPDH se fixerait sur une séquence particulière, nous avons testé la capacité de fixation de cette protéine à un adduit S23906-1/ADN en utilisant d'autres séquences oligonucléotidiques (figure 62). La séquence Msx présentait une forte modulation de fixation de protéines au niveau des membranes TranSignalTM alors que les séquences Pit-1 et NF-1 n'en montraient aucune (tableau 6). Figure 62: Séquences oligonucléotidiques de SmadSBE, Msx, Pit-1 et NF-1. Les guanines sont notées en rouges puisqu'elles sont des cibles potentielles du S23906-1. Dans un premier temps, nous avons vérifié l'interaction des protéines d'extraits nucléaires pour chacun de ces oligonucléotides alkylés ou non. Les gels présentés dans la figure 63 confirment la modulation de fixation des protéines d'extraits nucléaires, observée précédemment au niveau des membranes TranSignalTM. Nous voyons en effet que les protéines d'extraits nucléaires ne se fixent pas sur Msx et Smad-SBE non alkylé alors qu'elles s'y fixent lorsque l'oligonucléotide est alkylé. Au contraire, des protéines identiques sont recrutées à la fois sur NF-1 alkylé et non alkylé. 99 CHAPITRE III : Résultats et discussions Figure 63: Fixation des protéines d'extraits nucléaires (EN) de cellules HT-29 et de la GAPDH au niveau des oligonucléotides Smad-SBE, Msx et NF-1. Les oligonucléotides radiomarqués sont incubés ou non avec 50μM de S23906-1 pendant 16H à 37°C. Après une incubation de 30min à 4°C avec la GAPDH pure de poulet ou les extraits protéiques, les ADN libres ou complexés sont séparés sur gel d'acrylamide à 6%. Nous voyons ensuite que la GAPDH interagit de manière plus importante avec SmadSBE et Msx alkylés par rapport à NF-1 alkylé. Des gels complémentaires, et notamment un gel réalisé avec l'oligonucléotide Pit-1, ont conforté ces résultats et sont exposés dans le graphique suivant (figure 64). 100 CHAPITRE III : Résultats et discussions Figure 64: Comparaison de la fixation de la GAPDH entre les oligonucléotides Smad-SBE, Msx et Pit-1 alkylés. Une analyse via le logiciel ImageQuant de chacun des retards en gel montre une fixation importante de la GAPDH à SmadSBE et Msx alkylés. Nous n'observons qu'une très faible fixation de la GAPDH pour Pit-1, suggérant encore une certaine sélectivité de séquence reconnue par la GAPDH. Enfin, nous avons également évalué le taux de recrutement de la GAPDH au niveau des oligonucléotides Smad-SBE mutés alkylés ou non. A. C. B. Figure 65: Retards en gel des oligonucléotides Smad-SBE mutés alkylés ou non par le S23906-1, puis incubés avec la GAPDH humaine. (A) Séquence des différentes mutations de Smad-SBE. (B) Smad-SBE mutés ou non sont alkylés ou non avec 50μM de S23906-1 pendant 16H. L'adduit est séparé de l'ADN non alkylé sur un gel d'acrylamide 10% (C) Les oligonucléotides sont ensuite incubés ou non avec la GAPDH d'érythrocyte humain pendant 30 min à 4°C. Les complexes sont séparés sur un gel d'acrylamide 6%. Cette expérience montre que plusieurs sites seraient reconnus par la GAPDH au niveau de l'oligonucléotide Smad-SBE alkylé puisque les différentes mutations (ACTTGC ou TGTCGA) engendrent une diminution de fixation de la protéine (figure 65). 101 CHAPITRE III : Résultats et discussions Ainsi la GAPDH se fixe sur une séquence particulière ceci d'autant plus lorsqu'elle est alkylée par le S23906-1. De manière intéressante, la fixation ne dépend pas de la quantité en paires de bases GC présentes au sein de l'oligonucléotide puisque : Smad-SBE en compte une de moins que Pit-1 mais est mieux reconnu par la GAPDH, alors que les oligonucléotides Smad-SBE mutés en compte une ou deux de plus et sont moins bien reconnus. Nous nous sommes donc aussi demandés si la GAPDH ne reconnaîtrait pas l'ADN déstabilisé ou simple brin, en plus de son éventuelle séquence cible sur de l'ADN double brin. 2.3.4. Interaction GAPDH/Smad-SBE alkylé par d'autres composés Pour répondre à cette question, nous avons évalué la capacité de fixation de la GAPDH à l'oligonucléotide Smad-SBE alkylé par l'ET-743 (agent alkylant stabilisant l'ADN au niveau du petit sillon), les énantiomères S27589-1 et S27590-1 pour lesquels nous avons montré préalablement un lien entre la déstabilisation de l'ADN et l'activité cytotoxique, ou encore des dérivés du S23906-1. 2.3.4.1. Interaction GAPDH/Smad-SBE alkylé par ET-743 Il est important de rappeler que la GAPDH contenue dans le lysat de cellules A549 interagit également avec l'adduit du composé QAD, un dérivé de la Saframycine A qui est lui-même structurellement très proche de l'ET-743 (figure 66) (voir introduction 4.6.5), avec l'ADN présentant les sites de fixation connus des saframycines et ceux du cisplatine, du transplatine et de la mitomycine C (utilisés comme contrôle dans leurs expériences). Figure 66: Séquence de l'oligonucléotide cible de QAD pour la recherche de partenaires protéiques, et structure des composés Saframycine A et son dérivé QAD, ainsi que ET-743 et son dérivé Pt650. La Structure chimique commune entre chacun des composés est indiquée en rouge. Le X présent sur le composé QAD désigne un groupement -OH (QADOH) ou -CN (QADCN). 102 CHAPITRE III : Résultats et discussions Nous ne disposons malheureusement pas des composés QADOH et QADCN, qui nous auraient permis le contrôle du recrutement de la GAPDH sur Smad-SBE alkylé par ces derniers. Cependant, les auteurs de cet article ont également montré le recrutement de la GAPDH à l'adduit ADN/Pt650, un alkylant dérivé de l'ET-743 (figure 66). Après validation par retard en gel de la qualité d'alkylation de Smad-SBE par l'ET-743 (figure 67A), nous avons testé la capacité de fixation de la GAPDH à cet adduit (figure 67B). Figure 67: Test d'alkylation de l'oligonucléotide SmadSBE par l'ET-743 (A) et de l'interaction de ce dernier avec la GAPDH (B). Smad-SBE est incubé avec des concentrations croissantes en ET-743. L'ADN alkylé est séparé du non alkylé sur un gel de polyacrylamide 10%. Le taux alkylation étant identique entre les concentrations 10 et 50μM, la GAPDH sera incubée pendant 30 min à 4°C avec Smad-SBE préalablement alkylé avec 15μM d'ET743. Bien que cette séquence soit correctement alkylée par l'ET-743 (figure 67A), ce dernier ne permet pas le recrutement de la GAPDH (figure 67B). Ce phénomène peut être dû au fait que ce composé ne déstabilise pas la double hélice ou alors que l'encombrement stérique et les modifications structurales induites par cette alkylation empêchent toute reconnaissance de l'ADN par la GAPDH. 2.3.4.2. Interaction à Smad-SBE alkylé par des dérivés du S23906-1 Nous avons également testé la capacité de fixation de la GAPDH à Smad-SBE alkylé avec certains dérivés du S23906-1, qui présentent donc une structure plus proche de notre composé mais qui alkylent plus ou moins efficacement l'ADN. 103 CHAPITRE III : Résultats et discussions Figure 68: Structure du S23906-1 et de ses dérivés. Figure 69: Interaction de la GAPDH au niveau de l'oligonucléotide Smad-SBE alkylé ou non par des dérivés du S23906-1. (A) Retard en gel d'acrylamide à 10% de l'alkylation de chacun des composés (100μM de S23906, S18887, S71507, S71344, S73356, S75162 et S74495) incubés avec Smad-SBE pendant 16H à 37°C. (B) Les oligonucléotides alkylés sont ensuite incubés pendant 30min à 4°C avec différentes quantités de GAPDH humaine. 104 CHAPITRE III : Résultats et discussions Nous observons que les adduits formés avec chaque composé di-acétylé sont reconnus par la GAPDH, ainsi qu'une fixation préférentielle de la GAPDH à Smad-SBE alkylé par les composés qui alkylent le mieux (S23906-1, S71344-1 et S17887-1) (figure 69). Ce gel montre un lien entre l'intensité d'alkylation de l'oligonucléotide et la fixation de la GAPDH. Le S71344-1 présente en effet une capacité d'alkylation et de déstabilisation identique à celle du S23906-1 et ils présentent tous les deux le même taux de recrutement de GAPDH. La présence d'un atome d'azote supplémentaire sur l'un des cycles benzène ou l'absence du groupement réactif diacétate diminue l'efficacité d'alkylation des composés S71507-1 et S73356-1, nous observons que cela restreint également le recrutement de la GAPDH à SmadSBE (figure 69). De plus, le S17887-1 permet une fixation importante de GAPDH (figure 69B). Il alkyle un peu moins efficacement l'oligonucléotide par rapport au S23906-1, mais induit une déstabilisation plus forte de la double hélice [6]. Le composé S73356-1 interagit quant à lui avec l'azote en position 7 des guanines et ne déstabilise pas l'ADN (d'où un très faible retard de migration (figure 69A)). Ce composé n'induit pas de recrutement de la GAPDH à SmadSBE, suggérant l'importance du site d'alkylation dans le petit sillon et/ou de la déstabilisation de la double hélice. Cette expérience montre à la fois l'importance d'une alkylation dans le petit sillon, ainsi qu'une déstabilisation de la double hélice pour obtenir un recrutement efficace de la GAPDH. 2.3.4.3. Importance de l'isomérie du site d'alkylation du S23906-1 pour le recrutement de la GAPDH Précédemment, nous avons montré que l'orientation du groupement acétate en position C1 du S23906-1 est importante pour l'activité cytotoxique de ce racémate [306], le composé S27589-1 qui présente une capacité d'ouverture plus importante est plus actif in vitro et in vivo que le composé S27590-1. 105 CHAPITRE III : Résultats et discussions Figure 70: Structure du composé S23906-1 et de ses énantiomères, les composés S27589-1 et S27590-1. Nous avons testé la capacité de ces deux énantiomères à recruter la GAPDH sur l'oligonucléotide Smad-SBE. A. B. Figure 71: Interaction de la GAPDH au niveau de l'oligonucléotide Smad-SBE alkylé ou non par les énantiomères du S23906-1. (A) Retard en gel à 10% d'acrylamide de Smad-SBE alkylé pendant 16H à 37°C avec des concentrations croissantes en S23906-1, S27589 (1S) ou S27590 (1R). (B) Retard en gel à 6% séparant les complexes Smad-SBE/GAPDH de l'ADN libre. Incubation pendant 30min à 4°C de l'oligonucléotide avec la GAPDH humaine. La GAPDH se fixe de manière plus importante à l'oligonucléotide alkylé par le S27590 (composé 1R) par rapport au S27589 (composé 1S) (figure 71). L'isomérie du composé S23906-1 est également importante pour le recrutement de la GAPDH. 106 CHAPITRE III : Résultats et discussions Ainsi, nous avons identifié la GAPDH comme partenaire direct de l'adduit S23906-1/ADN. Cette protéine présente une fixation préférentielle à certaines séquences oligonucléotidiques et son recrutement est également fonction de la nature de l'agent alkylant ainsi que de la modification structurelle de l'ADN. Afin de mieux comprendre les conséquences de ce recrutement protéique à la chromatine alkylée par le S23906-1, nous avons recherché s'il existait un site consensus de fixation de la GAPDH à l'ADN. 3. Spécificité de fixation de la GAPDH à l'ADN 3.1. Identification de séquences consensus par CAST-ing Afin de déterminer cette éventuelle séquence spécifique, nous avons réalisé une sélection par CASTing [307], c'est-à-dire un screnning global à partir d'un oligonucléotide aléatoire. Nous avons effectué 6 cycles de sélection/amplification (cf Matériel et Méthodes), puis nous avons cloné dans un vecteur pBSIISK les ampligènes digérés sur les sites de restriction EcoRI et BamH1. Après amplification en bactérie, 165 clones ont été séquencés. Nous avons ensuite effectué des alignements de séquences à l'aide de différents logiciels en ligne : - MEME, Multiple Em for Motif Elicitation, version 4.4.0 version 4.4.0 (http://meme.ncbr.net/meme4_4_0/cgi-bin/meme.cgi) - GLAM2, Gapped local Alignement of Motifs, (http://meme.ncbr.net/meme4_4_0/cgi-bin/glam2.cgi) - RSA-tools-info-gibbs (http://rsat.ulb.ac.be/rsat/info-gibbs_form.cgi) - Melina II, Motif Elucidator in Nucleic Acid Assembly, version 1.1 (http://melina2.hgc.jp/public/index.html) - YMF (http://wingless.cs.washington.edu/YMF/YMFWeb/YMFInput.p1) - BioProspector (http://robotics.stanford.edu/~xsliu/cgi-bin/BPsearch.cgi) Chacun de ces logiciels nous a donné un ou plusieurs « consensus » autour d'un « core » riche en paires de bases GT, mais aucun consensus strict. Devant le manque d'homogénéité de ces 107 CHAPITRE III : Résultats et discussions méthodes mathématiques, nous avons repris les données et quantifié chaque succession de 2, 3, 4 et 5 paires de bases qui nous ont permis de proposer l'alignement suivant (figure 72). Figure 72: Oligonucléotides interagissant avec la GAPDH. (A) Les séquences de l'expérience de CASTing, ont été alignées grâce à la quantification de chacune des successions de 2, 3, 4, ou 5 bases. Le consensus obtenu est indiqué en bleu. (B) Le tableau indique le nombre de bases C, G, T ou A obtenues pour chacune des positions (-1 à +6), le consensus final est quant à lui exprimé en pourcentage, par rapport au nombre total de séquences alignées. Les douze oligonucléotides qui ont été retenus pour une validation par retard en gel sont surlignés en jaune et numérotés en rouge. Cet alignement nous a ainsi permis de mettre en évidence un site consensus potentiel de fixation de la GAPDH à l'ADN. Ce consensus GGTgt ou GGTgg paraît en accord avec certaines données de la littérature. En effet, il a été montré que la GAPDH interagit avec l'ADN télomérique au sein de lignées cancéreuses (A549) ou non cancéreuse (MLE-15) [223, 234]. De plus, suite au traitement des cellules A549 avec la doxorubicine (agent intercalent et poison de la topoisomérase II) et la gemicitabine (antimétabolite), la GAPDH empêcherait le raccourcissement des télomères puisque la synthèse d'une GAPDH mutée pour l'Asp34 et la 108 CHAPITRE III : Résultats et discussions Cys152 (sites d'interaction à l'ADN (figure 58)) rend les cellules plus sensibles à ces agents cytotoxiques [223]. Des tests avec des oligonucléotides contenant 1 à 3 séquences télomérique répétées (TTAGGG) ont montré que plus le nombre de répétitions augmentait plus la GAPDH se fixait [223]. Des expériences ont également indiqué que la GAPDH se fixe d'avantage sur l'oligonucléotide contenant la séquence télomérique répétée trois fois (5'TTAGGGTTAGGGTTAGGG-3') quand celle-ci est sous forme simple brin par rapport au double brin. Plus récemment, la même équipe a montré par des tests de compétition avec des séquences (TTAGGG)3 mutées pour chacune des bases, que la GAPDH reconnaît plus particulièrement les bases GGT (soulignées) de la séquence ggT1T2A3G4G5G6tt, chevauchant donc deux « motifs télomériques ». En effet, l'oligonucléotide 5'- AGGGTTAGGGTTAGGGTT-3' comportant 3 sites GGT fixe plus fortement la GAPDH que la séquence 5'-TTAGGGTTAGGGTTAGGG-3', n'en comportant que 2 (soulignés) [234]. 3.2. Validation du consensus par retard en gel, ADN non alkylé Une validation par retard sur gel a été réalisée en sélectionnant dans un premier temps: - 12 oligonucléotides doubles brins obtenus par CASTing, qui contiennent des séquences plus ou moins proches de celle du consensus potentiel (figure 72) - la séquence télomérique simple brin 5'-AGGGTTAGGGTTAGGGTT-3' synthétisée par cette équipe (que nous appellerons T2) - la séquence télomérique « classique » (TTAGGG)3 pour laquelle nous avons ajouté un AGGG en 5' : 5'-AGGGTTAGGGTTAGGGTTAGGG-3' (que nous appellerons T1). Cette séquence comprend donc 3 sites GGT comme T2. 109 CHAPITRE III : Résultats et discussions Figure 73: Retard en gel de certains oligonucléotides non alkylés dont les séquences ont été obtenues par CASTing. Les oligonucléotides sont incubés 30 min à 4°C avec 0, 5, 10 ou 15μg de GAPDH. Les complexes ADN/GAPDH sont séparés sur des gels à 6% d'acrylamide. Des complexes de tailles différents ont été observés pour les oligonucléotides T1, T2 et C3. Les données obtenues suite à la quantification des complexes retardés par rapport à l'ADN libre sont regroupés dans l'histogramme ci-contre. 110 CHAPITRE III : Résultats et discussions Les expériences de retard en gel ont été réalisées dans un premier temps avec les séquences non alkylées par le S23906-1 (figure 73). Elles nous montrent tout d'abord que les séquences de type télomérique recrutent plus efficacement la GAPDH par rapport à SmadSBE. De plus, et de manière très intéressante, nous observons plusieurs complexes ADN/GAPDH de tailles différentes au niveau des oligonucléotides T1, T2 et C3, ces résultats sont corrélés avec les expériences de Demarse et al. qui montraient que la GAPDH pouvait se fixer sous forme de dimères pour un oligonucléotide ou de tétramères pour deux oligonucléotides de 18 bases [234]. Ainsi le complexe le plus retardé en gel correspondrait à la fixation de tétramère, et les bandes intermédiaires à la fixation en monomère ou dimère. Afin de mieux comprendre le système de reconnaissance de la GAPDH à l'ADN et de valider le consensus observé, nous avons réalisé un classement des séquences oligonucléotidiques en fonction de leur proximité au consensus, puis en fonction de leur capacité à interagir avec la GAPDH ; et nous les avons comparés (figure 74). Nous observons que le classement des oligonucléotides non alkylés en fonction de leur interaction plus ou moins importante à la GAPDH s'aligne en grande partie sur le classement des séquences en fonction de leur identité au consensus. En effet, la GAPDH reconnait le consensus entier (GGTGt/g (G9)) de manière importante par rapport aux séquences obtenues par CASTing qui ne présentent pas de consensus (C9 et A9). 111 CHAPITRE III : Résultats et discussions Figure 74: Classements des oligonucléotides interagissant avec la GAPDH (A) en fonction de la présence d'une séquence plus ou moins proche de celle du consensus ou (B) en fonction de la quantification de l'intensité des complexes retardés par rapport à l'intensité de l'ADN libre des expériences de retard en gel. Les oligonucléotides contenant 4 paires de bases consécutives GGTGn (C3, G6 et G5) du consensus interagissent moins bien avec la GAPDH, suggérant que la thymine en extrémité 3' du consensus serait importante pour la fixation de la protéine, notamment pour l'oligonucléotide G5 dont sa position chute dans le classement (figure 74). En effet, les oligonucléotides A6 et B7 qui contiennent la séquence GGTnT recrutent la GAPDH de manière plus efficace. 112 CHAPITRE III : Résultats et discussions De plus la partie GGT du consensus est : - nécessaire puisque H3 (GnTGT) recrute peu de GAPDH - mais pas suffisante car A12 (GGTnn) présente également un taux faible de recrutement de la GAPDH - importante lorsqu'elle est présente en plusieurs exemplaires car elle favorise le recrutement de la GAPDH (D5, T1, T2). Après comparaison des séquences obtenues par CASTing et de la séquence de SmadSBE, nous n'observons pas ce trinucléotide GGT. La séquence AGTA observée dans SmadSBE permettrait peut-être le recrutement de la GAPDH, puisque F8, qui présente pourtant un consensus faible (GGTnn), interagit de manière importante avec la GAPDH. De plus, cette séquence est également retrouvée dans l'oligonucléotide B7. Des expériences d'empreintes à la DNAse I ont étaient réalisées avec Smad-SBE incubé avec la GAPDH, cependant la GAPDH n'est pas assez affine pour permettre la détection de son site d'interaction exact à l'ADN. Cette expérience ne peut pas être reproduite avec de l'ADN alkylé par le S23906-1 puisque ce dernier perturbe la migration de l'ADN en gel dénaturant [14]. Enfin, la présence de complexe [ADN/protéine] de différentes tailles au niveau des séquences de type télomérique s'expliquerait par la présence de séquences répétées GGT. La fixation de GAPDH se ferait sous forme de dimère ou de tétramère [234]. L'oligonucléotide C3 présente quant à lui deux séquences GGT répétées inversées (figure 74). Pour résumer, le consensus observé par CASTing serait un consensus potentiel de recrutement de la GAPDH. Cependant par rapport aux résultats obtenus avec G5 il serait intéressant d'identifier les séquences environnantes qui seraient également importantes à une fixation efficace de la GAPDH. Nous avons obtenu une multitude d'autres oligonucléotides, il faudra tester leur interaction avec la GAPDH afin de valider sa sélectivité de séquence. De plus ces résultats montrent de nouveau que la GAPDH présente des sites préférentiels de fixation et qu'elle fixerait d'avantage les télomères. 113 CHAPITRE III : Résultats et discussions 3.3. Validation du consensus par retard en gel, ADN alkylé par le S23906-1 Nos expériences ont montré que la GAPDH se fixait de manière préférentielle à SmadSBE alkylé par rapport au non alkylé. Nous avons donc évalué le taux de recrutement de la GAPDH aux différentes séquences testées précédemment mais alkylées par le S23906-1. Figure 75: Retard en gel de certains oligonucléotides alkylés dont les séquences ont été obtenues par CASTing. Les oligonucléotides sont incubés 30 min à 4°C avec 0, 5, 10 ou 15μg de GAPDH. Les complexes ADN/GAPDH sont séparés sur des gels à 6% d'acrylamide. Des complexes de tailles différentes ont été observés pour les oligonucléotides T1 et T2. Les données obtenues suite à la quantification des complexes retardés par rapport à l'ADN libre sont regroupées dans l'histogramme cicontre. 114 CHAPITRE III : Résultats et discussions L'efficacité d'alkylation de ces différents oligonucléotides a été validée par migration des ADN alkylés versus non alkylés sur gel de polyacrylamide natif à 10%. De manière très intéressante, les oligonucléotides B7, C9, G9 et F8 interagissent beaucoup mieux avec la GAPDH, et même mieux que les séquences télomériques ou SmadSBE alkylées. De plus, l'écart entre le taux de fixation de la GAPDH aux oligonucléotides B7, C9, G9 et F8 non alkylé et alkylé est beaucoup plus important que celui observé pour Smad-SBE (figure 75). Nous observons plusieurs complexes [ADN alkylé/GAPDH] de tailles différentes au niveau des oligonucléotides T1, T2 alkylés mais en moins grande proportion des bandes plus basses, et plus aucunes bandes les plus basses pour la séquence C3 alkylée par rapport aux oligonucléotides non alkylés. Nous observons également que les séquences télomériques (T1 et T2) et Smad-SBE alkylés recrutent la GAPDH à un même niveau d'intensité avec 20% d'ADN lié à la GAPDH (figure 75). Les séquences télomériques alkylées ou non fixent de la même manière la GAPDH, suggérant que le S23906-1 ne modifie pas l'affinité de cette séquence à la GAPDH. Mise à part ces deux séquences, tous les oligonucléotides recrutent plus de GAPDH lorsqu'ils sont alkylés (figure 76A). A. B. Figure 76: (A) Comparaison du taux de fixation de 15μg de GAPDH entre les oligonucléotides alkylés et non alkylés. Le nombre de guanines par séquence est annoté en rouge. (B) Corrélation du taux de fixation de la GAPDH avec le nombre de guanines par oligonucléotide. Cependant, la quantité de guanines (cibles du S23906-1) au sein de l'oligonucléotide ne va pas influencer la fixation de la GAPDH (figure 76B). 115 CHAPITRE III : Résultats et discussions Pour résumer cette partie moléculaire, nous avons observé et confirmé que la GAPDH se fixait majoritairement sur l'ADN télomérique en absence de S23906-1. Par contre, la présence de S23906-1 favorise le recrutement de la GAPDH sur d'autres séquences de l'ADN. 3.4. Stoechiométrie et domaine d'interaction de la GAPDH à l'ADN Nos expériences de retard en gel ont montré que la GAPDH interagissait préférentiellement avec Smad-SBE simple brin alkylé par rapport au double brin alkylé. Il est alors possible que ce soit deux isoformes différentes qui interagissent avec l'ADNsb ou db. Comme indiqué dans l'introduction (voir partie 4.6.3), les isoformes contenues dans un pool de GAPDH pure commercial n'interagissent pas de la même manière avec l'ADN : un type interagirait avec du simple brin et l'autre avec du double brin, elles auront alors des fonctions différentes [245]. Il faut noter que la GAPDH est dans la majorité des cas retrouvée sous forme tétramérique au sein de la cellule, lui permettant ainsi d'exercer son activité glycolytique. Si l'on se réfère à l'article de Sirover [127], la présence d'ATP déstabilise ce tétramère. Nous avons alors réalisé un retard en gel en incubant la GAPDH purifiée humaine ou d'extraits nucléaires de cellules HT-29 avec de l'ATP préalablement à l'incubation avec l'ADN radiomarqué (figure 77). Figure 77: Retard en gel des complexes Smad-SBE/protéine en présence de NAD+ ou d'ATP. L'oligonucléotide Smad-SBE est incubé pendant 16H à 37°C avec 50μM de S23906-1. Après incubation de 5μg de GAPDH ou de 15μg de protéines d'extraits nucléaires avec des concentrations croissantes en NAD+ ou en ATP pendant 30min à 4°C, les protéines sont incubées pendant 30 min supplémentaire à 4°C avec l'oligonucléotide Smad-SBE. 116 CHAPITRE III : Résultats et discussions Sur ce gel, on remarque la parfaite co-migration du complexe GAPDH purifiée/ADN avec celui obtenu avec les extraits nucléaires de cellules HT-29, montrant qu'il s'agirait bien de la GAPDH. Le complexe [GAPDH/Smad-SBE alkylé] se forme peu en présence de concentrations croissantes en ATP suggérant que la GAPDH (pure ou d'extrait nucléaire de cellules HT-29) interagirait avec Smad-SBE sous forme de tétramère. De la même manière, nous avons réalisé cette expérience avec les séquences de type télomérique utilisées dans l'expérience de CASTing et pour lesquelles nous avions remarqué la formation de complexes ADN/GAPDH de différentes tailles (figure 78). Figure 78: Retard en gel de la séquence de type télomérique T1 en complexe avec la GAPDH, en présence de NAD+ ou d'ATP. L'oligonucléotide est incubé pendant 16H à 37°C avec 50μM de S23906-1. Après incubation de 5μg de GAPDH avec des concentrations croissantes en NAD+ ou en ATP pendant 30min à 4°C, la GAPDH est incubée pendant 30 min supplémentaire à 4°C avec l'oligonucléotide. En effet, le complexe ADN/protéine le plus haut est déstabilisé suggérant ainsi que la forme tétramérique de la GAPDH interagit également avec cet ADNsb. Enfin, des études ont montré que la GAPDH de foie humain interagissait avec l'ADN télomérique via son site de liaison au NAD+ et que la présence de 2mM de NAD+ empêche l'interaction de la GAPDH à l'ADN [223]. De la même manière, nous avons pré-incubé la GAPDH pure d'érythrocytes humains avec des concentrations croissantes en NAD+ puis testé son interaction avec Smad-SBE alkylé par le S23906-1 (figure 77). Une diminution progressive de fixation de la GAPDH à l'oligonucléotide est observée suggérant que la GAPDH interagirait avec Smad-SBE via son site NAD+. En parallèle, nous avons réalisé d'autres expériences qui ont également mis en évidence la possible interaction de la GAPDH à SmadSBE alkyle via son site de liaison au G3P (données non montrées). 117 CHAPITRE III : Résultats et discussions 4. Translocation nucléaire de la GAPDH après traitement au S23906-1 De nombreuses études dans certaines lignées cellulaires ont montré que, suite à certains traitements comme le GSNO (Glutathion nitrosylé), l'étoposide, la staurosporine et la déplétion en sérum, la GAPDH pouvait être transloquée du cytoplasme vers le noyau. C'est le cas également avec le QADOH (dérivé de la Saframycine A) pour lequel Xing et al. ont observé par microscopie confocale une translocation nucléaire de la GAPDH après 48H de traitement des cellules HeLa-S3 [221]. 4.1. Etude de la localisation cellulaire de la GAPDH exogène après traitement au S23906-1 Dreyer et al. [142] ont construit un plasmide exprimant une protéine de fusion fluorescente GAPDH-GFP qui présente la même localisation subcellulaire que la GAPDH endogène au niveau de cellules PC12 (cellules différenciées de neurone). Cette protéine chimérique est transloquée dans le noyau après un traitement avec H2O2 dans les cellules PC12 [142], mais aussi après traitement à la staurosporine de cellules fibroblastiques R6 [213]. Nous avons obtenu ce vecteur pour effectuer nos expériences. 4.1.1. Mise au point de la transfection dans les cellules A549 Nous avons tout d'abord vérifié le taux de transfection de 500.000 cellules A549 avec 2, 10 ou 20 μg de plasmide (voir la partie Matériel et Méthodes). Après 24H et 48H, les cellules sont récupérées et analysées au cytomètre. 40% des cellules incubées 24H avec 2, 10 ou 20μg de plasmide expriment la GAPDH-GFP. Après 48H, 50% des cellules transfectées avec 2 ou 10μg sont fluorescentes et 60% des cellules transfectées avec 20μg expriment la GAPDH-GFP. Nous avons donc choisi d'introduire 20μg de plasmide pour 500.000 cellules et de regarder l'effet entre 24 et 48H. De plus, il a été montré que la GAPDH-GFP est localisée majoritairement dans le noyau à hauteur de 75% pour les cellules NB41A3 (cellules dérivées du système nerveux central) alors que la GAPDH endogène est équitablement répartie entre cytoplasme et noyau. 118 CHAPITRE III : Résultats et discussions Cette proportion est de 70% pour les cellules fibroblastiques R6 alors qu'il n'y a que 20% de GAPDH endogène nucléaire [213]. Il est donc important de vérifier si la GAPDH-GFP n'est pas transloquée dans le noyau de nos cellules sans traitement préalable au S23906-1. Des photographies ont donc été prises après 30H d'incubation post-transfection à l'étuve (24H d'expression de la GAPDH-GFP + 6H de traitement au S23906-1) (figure 79). Figure 79: Localisation cellulaire de la GAPDH-GFP 30H post-transfection, sans traitement au S23906-1. 60.000 cellules A549 sont transfectées avec 2,5μg de plasmide puis incubées 30H à l'étuve. Les cellules sont ensuite fixées et observée au microscope à fluorescence. Nous observons que la GAPDH est localisée exclusivement dans le cytoplasme des cellules A549. 4.1.2. Localisation cellulaire de la GAPDH-GFP : Time Lapse Nous avons ensuite utilisé la technologie de fluorescence en temps réel (Time lapse) pour visualiser la mobilité intracellulaire de cette protéine fluorescente. Après 24H de transfection, les cellules sont traitées avec 1,5μM de S23906-1 dans une boîte de pétri placée dans l'enclos entourant le microscope à une température de 37°C pendant 6H (figure 80). Figure 80: Localisation cellulaire de la GAPDHGFP après traitement au S23906-1. 60.000 cellules A549 transfectées avec 2,5μg de plasmide GAPDH-GFP sont incubées 24H à l'étuve. Les cellules sont ensuite placées dans l'enceinte du Time Lapse où elles seront traitées avec 1,5μM de S23906-1 dans 500μL de milieu. Une photographie est prise toutes les 30 secondes pendant 6H. 119 CHAPITRE III : Résultats et discussions Une augmentation de la fluorescence GFP est observée dans les cellules A549 après traitement avec le S23906-1, correspondant à une translocation nucléaire de la GAPDH exogène. Cependant, puisque la cellule se rétracte il est difficile de différencier une translocation nucléaire d'un recouvrement du noyau par le cytoplasme avec ce type de microscope. Ces résultats sont donc à confirmer en utilisant d'autres techniques de biologie cellulaire et moléculaire. Il faut noter que les cellules NB41A3 n'entrent pas en apoptose, malgré la forte concentration nucléaire de GAPDH exogène sans traitement avec quelconque proapoptotique. L'équipe de chercheurs a d'ailleurs émis l'hypothèse que la seule translocation de la GAPDH n'induisait pas la mort des cellules [213]. D'ailleurs, puisque nous avons vu plus haut que la GAPDH interagissait avec l'ADN des cellules, il est possible que cette protéine chimérique puisse être transloquée dans le noyau mais ne puisse pas interagir avec ses cibles nucléotidiques. Nous avons voulu vérifier cette hypothèse. 4.1.3. Etude de l'interaction entre la GAPDH chimérique et Smad-SBE Nous avons récupéré la séquence d'ADNc de cette protéine qui se trouve dans le plasmide qui nous a été donné (plasmides contenant soit la GAPDH-GFP soit la GAPDHBFP), puis nous l'avons introduite dans le vecteur d'expression pBSIIKS (voir le Matériel et Méthodes). Cette expérience a été validée par des tests de coupure enzymatique sur l'ADNc contenu dans le vecteur puis par séquençage de l'insert. L'expression a ensuite été validée par synthèse protéique en lysat de réticulocytes, en présence de méthionine marquée au [35S] (figure 81A). Enfin, la protéine a été produite en lysat de réticulocytes en absence de radioactivité pour l'expérience de retard en gel (figure 81B). A. Figure 81: Vérification de l'expression de la GAPDH-BFP et validation de l'interaction de cette dernière avec Smad-SBE alkylé par le S23906-1. L'expression de la protéine GAPDH-BFP a été réalisée en utilisant le kit de lysat de réticulocyte Promega en intégrant dans la solution une méthionine radiomarquée ou non au [35S]. (A) La solution protéique 1 déposée et séparée dans le gel d'acrylamide 10% ne présente qu'une protéine qui a un poids correct contrairement à la solution protéique 2. (B) Le retard en gel d'interaction de la GAPDH à Smad-SBE alkylé avec 100μM de S23906-1 est réalisé avec cette solution. MP : Marqueur de poids moléculaire B. MP MP 120 CHAPITRE III : Résultats et discussions Même si l'expérience d'interaction avec Smad-SBE a été réalisée avec la GAPDHBFP, la présence de la protéine fluorescente ne gênerait pas la fixation de la GAPDH à sa cible oligonucléotidique. L'expression de la GAPDH-GFP apparaîtrait donc comme une surexpression de la GAPDH au sein des cellules. 4.1.4. Conséquences de la surexpression globale de la GAPDH Après traitement avec 200 nM de staurosporine (concentration qui induit peu d'apoptose), une translocation nucléaire plus importante de GAPDH endogène (65% contre 50% sans traitement pour NB41A3 et 55-65% contre 20% pour les R6) est observée par rapport à la translocation générée avec 100μM de H2O2 (concentration qui n'induit pas l'apoptose). Une surexpression de la GAPDH de l'ordre de 50% a également été montrée dans les cellules non-apoptotiques et de 300% dans les cellules apoptotiques [213]. Puisque l'expression de la GAPDH-GFP induit une augmentation d'expression globale de la GAPDH, nous avons transfecté les cellules A549 pendant 24H en présence du plasmide vide ou du vecteur exprimant la GAPDH-GFP. Le taux de cellules dans les différentes phases du cycle cellulaire a été mesuré après traitement des cellules avec le S23906-1 (figure 82). Figure 82: Expérience de cycle cellulaire réalisé sur les cellules A549 transfectées pendant 24H en présence versus en absence du plasmide puis traitées avec le S23906-1. 60.000 cellules A549 sont transfectées avec 2,5μg de vecteur exprimant la GAPDH-GFP ou de vecteur vide. Le taux de transfection est contrôlé par visualisation du taux de fluorescence par microscopie. Après 24H à l'étuve, les cellules sont traitées pour 48H supplémentaires avec 0, 5, 10 ou 15μM de S23906-1. 121 CHAPITRE III : Résultats et discussions Cette expérience préliminaire n'a cependant été réalisée qu'une seule fois et demande à être répétée. Si elle se confirme, l'apparition de phase sub-G1 (assimilé à l'apoptose des cellules) montre que la surexpression de la GAPDH sensibiliserait les cellules A549 au S23906-1. Nous observerions alors les mêmes résultats obtenus avec les cellules fibroblastiques R6 montrant que les cellules transfectées par le vecteur GAPDH-GFP sont sensibles à l'apoptose [213]. Cependant, ces résultats doivent être répétés et le taux global de GAPDH mesuré dans les cellules après transfection. 4.2. Etude de la localisation cellulaire de la GAPDH endogène après traitement au S23906-1 Des expériences de microscopie confocale (Zeiss LSM710) ont été réalisées sur les cellules HT-29 et A549 afin de déterminer la localisation de la GAPDH endogène après 24H de traitement en présence de 2,5 ou 5μM de S23906-1. 4.2.1. Cellules A549 Nous avons utilisé le H2O2 comme contrôle positif de translocation pour mettre au point cette technique de microscopie. Les cellules sont incubées pendant 1H avec 1 mM de H2O2 et remises en culture 24H avec du milieu neuf. En parallèle, les cellules sont également traitées avec 2,5 ou 5μM de S23906-1 pendant 24H avant d'être fixées en présence de DAPI comme marqueur nucléaire. Les cellules sont ensuite visualisées en microscopie confocale (figure 83). 122 CHAPITRE III : Résultats et discussions Figure 83: Localisation de la GAPDH endogène après traitement des cellules A549 avec le S23906-1, étude de colocalisation avec le noyau. 60.000 cellules A549 sont traitées ou non avec 1mM de H2O2, 2,5 ou 5μM de S23906-1. Les cellules A549 sont marquées avec un anticorps secondaire fluorescent marquant la GAPDH endogène (vert). Le noyau est marqué au DAPI (bleu). La superposition et la colocalisation (couleur rainbow 2) des deux fluorochromes a été réalisée avec le logiciel ZEN 2009. Plus la couleur de superposition est rose, plus il y a colocalisation entre les pixels verts et les pixels bleus. 123 CHAPITRE III : Résultats et discussions Nous observons que la GAPDH est déjà présente en faible quantité dans le noyau des cellules A549 sans traitement préalable. Suite au traitement avec H2O2, nous observons une augmentation de la colocalisation entre la GAPDH et le noyau, montrant une augmentation de la quantité de GAPDH dans le noyau, excepté dans le nucléole. Nous observons également une colocalisation de la GAPDH dans les noyaux des cellules traitées avec 5μM de S23906-1, mais de manière moins importante. De manière surprenante, nous observons une diminution de la quantité de GAPDH dans le noyau des cellules après un traitement avec 2,5μM de S23906-1. 4.2.2. Cellules HT-29 Selon le protocole utilisé pour les cellules A549, nous avons testé en parallèle le taux de translocation de la GAPDH suite à un traitement avec H2O2 au sein des cellules HT-29. 124 CHAPITRE III : Résultats et discussions Figure 83: Localisation de la GAPDH endogène après traitement des cellules HT-29 avec le S23906-1, étude de colocalisation avec le noyau. 60.000 cellules HT-29 sont traitées ou non avec 1mM de H2O2, 750μM GSNO, 2,5 ou 5μM de S23906-1. Les cellules HT-29 sont marquées avec un anticorps fluorescent (alexa 488). Le noyau est marqué au DAPI (bleu). La superposition et la colocalisation (couleur rainbow 2) des deux fluorochromes a été réalisée avec le logiciel ZEN 2009. Plus la couleur de superposition est rose, plus il y a colocalisation entre les pixels verts et les pixels bleus. 125 CHAPITRE III : Résultats et discussions La GAPDH endogène des cellules HT-29 n'est pas équitablement répartie entre toutes les cellules observées au microscope confocal. La GAPDH est en effet présente en quantité plus ou moins importante au sein du noyau des cellules. Globalement et comme pour l'expérience avec les cellules HT-29, il y aurait une faible, voir pas du tout de translocation nucléaire de la GAPDH suite au traitement des cellules avec le S23906-1. 4.2.3. Validation par western-blot Ces expériences de microscopie doivent être validées par une autre approche, telle que l'extraction fractionnée des différents compartiments cellulaires, suivi d'un western-blot. Les cellules sont traitées ou non avec 5μM de S23906-1 (figure 84). Figure 84: GAPDH nucléaire après traitement ou non avec 5μM de S23906-1 des cellules HT-29 et A549. La contamination du noyau par le cytoplasme est mesurée par dosage de la galactosidase présente dans la fraction nucléaire par rapport à la fraction cytoplasmique. La quantification des bandes des western-blots par ImageQuant a montré une diminution de la quantité de GAPDH nucléaire d'un facteur 3 suite au traitement des cellules HT-29 et d'un facteur 9 pour les cellules A549 traitées. Ces expériences valident l'absence de translocation nucléaire de GAPDH endogène des cellules A549 et montrent également une diminution globale de la quantité en GAPDH nucléaire dans les cellules HT-29. Des expériences réalisées sur 1 million de cellules sensibles (KB3.1) et résistantes (KB500) au S23906-1 ont montré que ce composé se fixait à hauteur de 3 molécules pour environ 1 million de pb après 1H d'incubation avec 1μM de S23906-1 dans 300μL de milieu [112]. Il serait alors intéressant d'évaluer le taux de GAPDH recrutée à la chromatine après traitement des cellules au S23906-1. 126 CHAPITRE III : Résultats et discussions 5. Conséquences cellulaires de l'interaction GAPDH/adduits Afin de mieux comprendre les conséquences du recrutement de la GAPDH au niveau des adduits ADN/S23906-1 en général, nous avons utilisé une approche d'ARN interférence pour diminuer l'expression globale de la GAPDH. Suite à la transfection par siRNA les cellules deviennent plus ou moins sensibles à divers agents cytotoxiques/cytostatiques [308]. Nous avons vérifié l'effet de cette inhibition d'expression de la GAPDH sur l'activité cytotoxique du S23906-1 au niveau de nos lignées cellulaires. 5.1. Cellules HT-29 L'implication de la GAPDH dans l'activité cytotoxique du S23906-1 est mesurée par l'observation du cycle et du taux de survie (MTS) des cellules transfectées avec un siRNA dirigé contre la GAPDH puis traitées ou non par des concentrations croissantes en S23906-1. 5.1.1. Invalidation transitoire de la GAPDH Nous avons choisi de transfecter nos cellules par lipofection, une méthode qui induit beaucoup moins de mort cellulaire que l'électroporation. Les quantités de lipofectamine et de siRNA ont été optimisées (voir le Matériel et Méthodes) afin d'obtenir un taux protéique au plus bas et un taux de survie au plus haut avant traitement au S23906-1. A. B. 50nM siRNA 100nM siRNA 48H 72H 90% survie 70% survie 90% survie 70% survie Figure 85: Diminution de la quantité protéique de GAPDH après traitement avec un siRNA dirigé contre la GAPDH. (A) 3.000 cellules/puits (plaque 96 puits) sont transfectées avec un mélange de 0,5μL de lipofectamine et 50 ou 100nM de siRNA dirigé contre la GAPDH. Après 48H ou 72H, les cellules sont incubées pendant 1H avec 20μL de réactif MTS. (B) 12.000 cellules sont traitées avec un mélange de 2μL de lipofectamine et 50nM de siRNA dirigé contre la GAPDH. Les cellules sont également traitées avec 50nM de siRNA négatif. Après 48H, les cellules sont lysées et les extraits protéiques analysés par western-blot. La protéine HSC-70 est utilisée comme contrôle de dépôt. 127 CHAPITRE III : Résultats et discussions Des expériences ont été réalisées en parallèle afin de voir si la présence de siRNA dirigé contre la GAPDH modifiait le cycle des cellules traitées au S23906-1. Les histogrammes sont obtenus après analyse au cytomètre de flux (FACScan) puis normalisés via le logiciel WinMDI (cf Matériel et Méthodes) (figure 86). A. Figure 86: Cycle cellulaire des cellules HT-29. (A) Histogramme des cellules HT-29 transfectées avec 50nM de siRNA Négatif 96H. (B) 12.000 cellules/puits (plaque 24 puits) sont traitées avec un mélange de 2μL de lipofectamine et 50nM de siRNA dirigé contre la GAPDH. Les cellules sont également traitées avec 50nM de siRNA négatif. Après 48H, les cellules sont lysées et les extraits protéiques analysés par western-blot, ou alors les cellules sont traitées avec des concentrations croissantes en S23906 pendant 48H puis récupérées pour être analysées au cytomètre en flux. B. Aucune différence de cycle cellulaire n'a été observée entre les cellules HT-29 transfectées avec un siRNA négatif et avec un siRNA dirigé contre la GAPDH puis traitées avec le S23906-1. Cela suggère que la GAPDH est peu impliquée dans l'effet cytotoxique du S23906-1 des cellules HT-29. 5.1.2. Survie des cellules transfectées avec le siRNA puis traitées au S23906-1 Pour nos études de cytotoxicité, les cellules sont transfectées avec 50 nM de siRNA, puis, après 48H, elles sont traitées avec des concentrations croissantes en S23906-1 pour une durée de 72H supplémentaires (figure 87). 128 CHAPITRE III : Résultats et discussions A. B. Figure 87: Courbes de survie des cellules HT-29 après traitement au S23906-1. (A) 3.000 cellules/puits (plaque 96 puits) sont traitées avec des concentrations croissantes en S23906-1 pendant 72H. (B) 3.000 cellules/puits (plaque 96 puits) sont transfectées avec un mélange de 0,5μL de lipofectamine et 50nM de siRNA dirigé contre la GAPDH ou de siRNA négatif. Après 48H, les cellules sont traitées avec des concentrations croissantes en S23906-1. Après 72H supplémentaires, les cellules sont incubées pendant 1H avec du réactif MTS. L'IC50 est réduite d'un facteur 2 lorsque les cellules expriment moins de GAPDH, ce qui suggère que la GAPDH est plutôt impliquée dans l'effet protecteur de la cytotoxicité induite par le S23906-1 sur les cellules HT-29. Cet effet est contraire à celui observé avec les cellules A549 traitées avec un dérivé de la Saframycine A. Cette observation renforce l'hypothèse d'un rôle différent de la GAPDH au sein d'une même cellule, suite à différents stimuli. 5.2. Cellules A549 Les cellules A549 présentent quasiment la même sensibilité au S23906-1 que les cellules HT-29 (figure 88). Figure 88: Courbes de survie des cellules A549 après traitement au S23906-1. 3.000 cellules/puits (plaque 96 puits) sont traitées avec des concentrations croissantes en S23906-1 pendant 72H. Les cellules sont incubées pendant 1H avec du réactif MTS. Nous nous sommes basés sur le même mode opératoire que celui des cellules HT-29 dans la caractérisation des quantités en siRNA à administrer aux cellules. Cependant, nous 129 CHAPITRE III : Résultats et discussions avons rencontré des difficultés techniques : le traitement des cellules avec 50nM ou 100nM de siRNA n'a pas induit une diminution du taux protéique de GAPDH après 24H (figure 89A) et seulement une faible diminution de l'expression avec 100nM de siRNA après 48H. De plus, les cellules A549 sont beaucoup plus sensibles à une diminution du taux global de GAPDH puisque le taux de survie de celles-ci chute fortement après transfection avec le siRNA (figure 89B). A. B. 24H 48H 72H 50nM siRNA 70% survie 50% survie 50% survie 100nM siRNA 70% survie 40% survie 40% survie Figure 89: Diminution du taux de survie des cellules A549 après un traitement avec un siRNA dirigé contre la GAPDH et invalidation de l'expression de la GAPDH et (A) 12.000 cellules sont traitées avec un mélange de 2μL de lipofectamine et 50nM ou 100nM de siRNA dirigé contre la GAPDH. Les cellules sont également traitées avec 50nM ou 100nM de siRNA négatif. Après 24 ou 48H, les cellules sont lysées et les extraits protéiques analysés par western-blot. La protéine HSC-70 est utilisée comme contrôle de dépôt. (B) 3.000 cellules/puits (plaque 96 puits) sont transfectées avec un mélange de 0,5μL de lipofectamine et 50nM ou 100nM de siRNA dirigé contre la GAPDH. Après 24, 48 ou 72H, les cellules sont incubées pendant 1H avec du réactif MTS. Dans la littérature, il est en effet indiqué que les cellules A549 déplétées en GAPDH présentent un arrêt de la prolifération cellulaire, avec une accumulation en phase G0/G1, et cela même en présence de pyruvate dans le milieu de culture pour compenser l'activité glycolytique de l'enzyme [308]. Il faut noter qu'il a déjà été montré que la GAPDH serait en effet impliquée dans le maintien d'une prolifération correcte de certaines cellules, notamment les cellules A549 (translocation en phase S du cycle, arrêt du cycle après un traitement doxorubicine) (cf introduction). Enfin la déplétion en GAPDH induirait un arrêt du cycle cellulaire via l'activation de p53 et de p21 (inhibiteur de cdk). Nous devrons alors renouveler l'expérience en débutant avec des quantités plus importantes de cellules A549 transfectées pendant 48H avec une quantité plus importante en siRNA (150nM) et qui seront ensuite comptées pour avoir le même nombre de cellules avant traitement au S23906-1. 130 CHAPITRE III : Résultats et discussions Partie II : Projet JLK1486 1. Introduction Des dérivés bis-8-hydroxyquinolines substitués de benzylamines ont été synthétisés par l'équipe du Pr Jean-Louis Kraus de l'université de Méditerranée, dont le composé JLK1486 (4-fluoro-5benzylamine-5(8-hydroxyquinoline) 8-hydroxyquinoline) (figure 90) [309]. Figure 90: Structure de l'hydroxyquinoline (A) et du JLK1486 (B) A. B. Le JLK1486 a été sélectionné pour sa remarquable activité cytotoxique comparable à celle du docetaxel (analogue du paclitaxel, inhibiteur la dépolymérisation des microtubules) sur les cellules KB3 (carcinome cervical). Le composé présente également une activité cytotoxique plus ou moins importante sur de nombreuses autres lignées cancéreuses dont les cellules A549, HCT-116 et HCT15 [309]. Des recherches ont été entreprises afin de comprendre le mécanisme d'action de cette molécule prometteuse. Le composé n'intervient pas dans la polymérisation/dépolymérisation des microtubules. De plus, si la 8-hydroxyquinoline et le dérivé clioquinol (figure 91) sont capables d'inhiber le protéasome de manière Cu2+-dépendante et ainsi d'induire la mort des cellules, le JLK1486 n'a pas d'effet sur l'activité du protéasome [309, 310]. Figure 91: Structure de du dérivé clioquinol de l'hydroxyquinoline. Il a été montré également que le JLK1486 serait un substrat potentiel de la Pg-P (glycoprotéine P, une pompe d'efflux des drogues). Enfin, le JLK1486 active les caspases 3/7, sans activer les caspases 8 ou 9. [309]. 131 CHAPITRE III : Résultats et discussions Le JLK1486 induirait donc la mort cellulaire par une autre voie de signalisation. Le composé pourrait générer, en présence d'un nucléophile, des intermédiaires quinone methide, qui deviendraient alors des agents potentiellement alkylants (figure 92) [311]. Figure 92: Hypothèse du mécanisme d'action du JLK1486. Ces intermédiaires du JLK1486 pourront alors interagir avec des groupements électrophiles tels que –OH, -NH2, -SH ou -COOH présents au sein des protéines et des acides nucléiques. Ces interactions seraient alors impliquées dans l'activité cytotoxique du JLK1486. L'objectif de nos travaux est donc de déterminer quelles sont les cibles potentielles du JLK1486 afin de mieux comprendre son mécanisme d'action conduisant à la mort des cellules. 2. Recherche d'une cible nucléotidique et peptidique Nous avons entrepris des expériences de spectrométrie (EI-MS, dichroïsme circulaire, UV/visible et Tm) et des approches biochimiques. Celles-ci n'ont pas mis en évidence d'interactions covalentes entre le JLK1486 et l'ADN, mise à part une interaction avec une désoxyguanosine seule, mais plutôt avec les groupements thiols du GSH (glutathion). Ces résultats sont exposés dans l'article Madonna et al. (European Journal of Medicinal Chemistry, 2009) situé en annexe. 132 CHAPITRE III : Résultats et discussions Par utilisation de BSO (inhibiteur de la synthèse de GSH) nous avons montré que l'interaction au GSH diminue l'effet cytotoxique du JLK1486 par un effet de détoxification comme montré auparavant avec le S23906-1 (voir introduction 3.2.2). Puisque les dérivés du JLK1486 qui ne présentent pas d'intermédiaires alkylant sont moins cytotoxiques, et que la cible principale n'est pas l'ADN, le JLK1486 doit sûrement interagir avec une ou plusieurs protéine(s). Ainsi le JLK1486 bloquerait ou activerait les fonctions de celle(s)-ci, ce qui conduirait à la mort de la cellule. Des expériences d'électrophorèse 2D-DIGE ont été réalisées afin d'identifier les autres cibles protéiques potentielles du JLK1486. 3. Recherche d'une cible protéique Sachant que le JLK1486 a la capacité de se fixer à certains groupements –SH, nous avons dévié l'utilisation classique de la 2D-DIGE (figure 93). Nous utilisons le marquage de saturation qui va permettre de marquer toutes les cystéines libres de toutes les protéines. Nous disposons de 2 fluorochromes (Cy3 et Cy5) qui se fixent sur les groupements –SH des cystéines. Figure 93: Utilisation de la technique d'électrophorèse 2D-DIGE pour identifier le(s) partenaire(s) protéique(s) du JLK1486. (A) Un pool de 10μg d'extraits protéiques totaux de cellules HT-29 est divisé en deux quantités strictement identiques. (B) La moitié sera incubée 2H avec 100μM de JLK1486 ; chacune des moitiés sera ensuite incubée avec un fluorochrome différent. Les cyanines interagissent avec tous les groupements –SH libres de chaque protéine. (C) Les protéines sont enfin poolée pour être séparées sur un même gel d'électrophorèse 2D ; les protéines ayant interagit avec le JLK1486 seront reconnues par une fluorescence Cy5 alors que les autres auront une fluorescence correspondant au mélange équimolaire des deux fluorochromes. Afin d'éviter les faux positifs, deux gels d'électrophorèse 2D inverses (gels analytiques) sont réalisés. C'est-à-dire que dans le premier gel, les protéines préalablement incubées avec le JLK1486 sont marquées avec Cy3, alors que dans le second gel, les protéines préalablement incubées avec le JLK1486 sont marquées avec Cy5. Les protéines d'intérêt 133 CHAPITRE III : Résultats et discussions ayant fixé le JLK1486 ne pourront pas fixer le fluorochrome, il sera alors possible de sélectionner les protéines interagissant avec le JLK1486. Deux solutions protéiques préparées à des temps différents ont été testés (lot de protéines n°1 ou n°2, figure 94), et pour chacune d'elles, 3 expériences comprenant à chaque fois de 2 gels inverses ont été réalisés. Deux gels inverses de chacune des séries sont représentés dans la figure ci-dessous. Figure 94: Electrophorèse 2D-DIGE des protéines incubées ou non avec le JLK1486. Les expériences sont réalisées en triplicate pour chacun des lots protéiques. Les protéines fluorescentes du lot n°1, incubées ou non avec le JLK1486, ont été déposées sur des strips 4-7 et la seconde dimension a été réalisée sur un gel d'acrylamide 8-16%. Les protéines fluorescentes du lot n°2, incubées ou non avec le JLK1486, ont été quant à elle déposées sur des strips 3-10 et la seconde dimension a été réalisées sur un gel d'acrylamide 9-15%. Les cercles sont des références et permettent de comparer les gels entre eux. Le différentiel de fluorescence observé au niveau des spots 3 et 4 montrent déjà une interaction potentielle entre les protéines contenues dans celui-ci et le JLK1486. L'analyse des gels par le logiciel SameSpot a ensuite mis en évidence deux autres spots intéressants. Le spot 3 est retrouvé sur les gels des deux lots de protéines. Une fois les gels analytiques réalisés, ceux-ci sont scannés et analysés par le logiciel SameSpot qui va pouvoir identifier la variation d'intensité de fluorescence entre les protéines marquées par les deux fluorochromes différents. 134 CHAPITRE III : Résultats et discussions Figure 95: Analyse SameSpot des gels analytiques et comparaison au gel préparatif (A) Les gels analytiques de chacune des séries sont analysés par le logiciel SameSpot. Pour chacun des spots, le ratio (« fold ») est calculé, ce qui correspond à la différence d'intensité observée entre les protéines non incubée avec le JLK1486 et celles incubées avec le JLK1486. Les données sont significatives si ratio >1,5 et p-value ≤ 0,05. La variabilité (anova) entre les gels inverses d'une même série doit en effet être inférieure à 5%. (B) Les spots d'intérêt fluorescents sont repérés sur les gels préparatifs, ils sont ensuite excisés pour être identifié. Cette analyse a permis de mettre en évidence quatre spots d'intérêt, dont deux (3 et 4) qui était déjà identifiable avant l'analyse SameSpot. Le spot n°3 est le plus intéressant puisqu'il est retrouvé dans les gels des deux lots de protéines différents. Afin d'identifier les protéines contenues dans chacun des spots et qui interagiraient potentiellement avec le JLK1486, des gels préparatifs ont été réalisés. Une plus grande quantité de protéines est déposée sur ces gels d'électrophorèse 2D classique. Par comparaison avec les gels analytiques, les spots d'intérêt sont excisés afin d'être ensuite analysés par MALDI-TOF et identifiés via les banques de données. Cependant le spot n°3 qui représente le plus grand intérêt est très peu visible sur les gels d'électrophorèses. Malheuresement les analyses MALDI-TOF ont été infructueuses à cause de la trop faible quantité de matériel protéique dans chacun des spots. Il sera donc important de renouveler l'expérience en augmentant la quantité de protéines déposées par gel d'électrophorèse mais aussi de réaliser plusieurs gels, permettant ainsi de pooler les spots d'intérêt et d'augmenter les chances d'identification en MALDITOF. 135 CHAPITRE III : Résultats et discussions Partie III : Etude de composés dérivés de la nitidine La nitidine est une molécule à activité anti-néoplasique. Elle inhibe l'activité de la topoisomérase I aussi efficacement que la camptotécine, mais elle inhibe aussi la topisomérase II. Malgré cela, la nitidine présente une activité cytotoxique beaucoup moins importante que la camptotécine sur plusieurs lignées cancéreuses [312]. Afin d'augmenter l'efficacité antitumorale, d'autres dérivés ont été synthétisés, dont les composés de la série benzo[c]phenanthrolinones substitués en N5 et les composés de la série benzo[c]phenanthrolines substitués en C6. Pour ce travail de collaboration entre chimistes et biologistes, ma contribution a été d'évaluer la cytotoxicité de chacun des composés, leur efficacité d'interaction à l'ADN comparativement à la camptotécine, et ainsi appréhender leur activité inhibitrice de topoisomérases. Les résultats et discussions de ces travaux ont été soumis au European Journal of Medicinal Chemistry (Genès et al.). 136 CHAPITRE III : Résultats et discussions Partie IV : Etude de dérivés pyrido- et thienocarbazoles de l'ellipticine L'ellipticine est une molécule à activité anti-néoplasique, elle s'intercale à l'ADN et inhibe indirectement l'activité de la topoisomérase II. Dans le but de cibler un plus large panel de tumeurs, des dérivés ont été synthétisés, dont les dérivés pyrido- et thienocarbazoles. Nous avons évalué leur capacité de liaison à une séquence spécifique de l'ADN de chacun des composés et d'inhibition de l'activité de la topoisomérase I et II, ainsi que leur effet sur le cycle cellulaire et leur cytotoxicité respectives. Les résultats sont exposés dans l'article Lemster T. et al. (European Journal of Medicinal Chemistry, 2009) situé en annexe (figures 1 à 7 et Tableaux 3 à 5). Ma contribution à ce travail collaboratif a porté sur l'ensemble des données cellulaires (cycle et mesures de la cytotoxicité) ainsi qu'à 137 certaines mesures spectroscopiques. CHAPITRE III : Résultats et discussions 138 CHAPITRE IV : Conclusion et Perspectives CHAPITRE IV : Conclusion et Perspectives L'efficacité d'un traitement anti-tumoral est corrélée à l'utilisation d'une ou plusieurs molécules qui ciblent les voies signalétiques de la prolifération cellulaire ou de l'apoptose, ou directement l'ADN, de manière à viser les cellules tumorales sans trop affecter les cellules saines. Par exemple, le Glivec® est un composé très efficace de thérapie ciblée, synthétisé et sélectionné pour inhiber spécifiquement l'activité enzymatique de la protéine de fusion BcrAbl, protéine qui n'est exprimée que dans les leucémies myéloïdes chroniques. Toutefois, tous les cancers ne présentent pas une cible clairement identifiée, il est alors important de continuer à développer de nouvelles molécules à large spectre d'action, comme les agents alkylants l'ADN, pour lesquels il est important d'évaluer des composés aux mécanismes d'action variés pour pallier aux résistances et qui présenteront une plus grande tolérance et une plus faible toxicité, en mono- ou poly-chimiothérapie. Dans ce cadre, mon projet de thèse s'est orienté sur deux grands axes autour du développement de nouveaux agents alkylants. 1. Mécanisme d'action du S23906-1 A ce jour, les lésions de l'ADN les plus toxiques induites par ce type d'agents sont les crosslinks interbrins (ICLs). Cependant, la plupart de ces agents ne forment qu'un faible pourcentage d'ICLs par rapport à la quantité totale de molécules liées à l'ADN. Afin de mieux comprendre par quel moyen certains agents alkylants sont plus cytotoxiques que d'autres et pour développer des composés plus efficaces et moins toxiques, l'identification du type de liaison à l'ADN (grand/petit sillon, stabilité de la double hélice), ainsi que l'étude du mécanisme d'action et des conséquences cellulaires sont importants. Cela a permis en effet de mettre en évidence le recrutement de protéines de la machinerie cellulaire au niveau de certains adduits de l'ADN, ce qui aura pour conséquence l'augmentation de l'activité cytotoxique de la molécule (ex : HMG-B1 pour le cisplatine [61], XPG pour l'ET-743 [87]). 1.1 Interaction à l'ADN et déstabilisation Parmi les modifications de la structure de l'ADN induites par les agents alkylants, la déstabilisation de la double hélice est un phénomène rare et tout à fait original. Comme indiqué dans notre revue (voir page 49), très peu de molécules présentent cette capacité, parmi lesquels le S23906-1. Ce dernier est un dérivé de l'acronycine qui induit un arrêt du cycle cellulaire et/ou la mort par apoptose ou par « catastrophe mitotique » comme la plupart des agents anti-tumoraux. Cependant, le non-conformisme de la molécule au niveau de son 140 CHAPITRE IV : Conclusion et Perspectives interaction à l'ADN (petit sillon et ouverture locale) expliquerait le fait d'une activité cytotoxique et anti-tumorale équivalente à celles de certains agents de chimiothérapie déjà utilisés en clinique. Les approches de spectrométrie de masse entreprises au cours de cette étude ont montré en effet que cet agent se lie au niveau des guanines (position N2), ce que nous avons confirmé plus récemment. De plus, notre travail a montré que certains dérivés du S23906-1, ainsi que l'isomérie même de ce composé, induisait une ouverture plus ou moins importante de l'hélice. L'étude de la cytotoxicité et des activités anti-tumorales des stéréo-isomères du S23906-1 ont montré une corrélation entre l'efficacité de déstabilisation de la double hélice et leur activité anti-tumorale (voir page 100). A la différence des autres agents alkylant le petit sillon connus, cette interaction originale tend donc à penser à l'existence d'un mode d'action nouveau pour lutter contre la prolifération des cellules tumorales. La modification structurale de l'ADN engendrée par la formation de l'adduit S23906-1/ADN pourrait alors permettre ou empêcher la fixation de protéines nucléaires (structurales, enzymes de réparation, facteurs de transcription) et ainsi contribuer à l'activité cytotoxique du composé. 1.2 Identification des protéines GAPDH et HMG-B1 comme partenaires des adduits S23906-1/ADN et conséquences cellulaires Au cours de ce travail, nous avons évalué la capacité des adduits S23906-1/ADN à inhiber ou recruter des facteurs de transcription à leur séquence cible, comme cela a déjà été observé pour l'ET-743 qui inhibe la fixation de NF-Y à sa séquence cible [81]. Par une évaluation parallèle des capacités d'interaction à leur cible d'environ 400 facteurs de transcription, nous n'avons pas identifié d'inhibition de fixation de facteurs de transcription à l'ADN. Par contre, des augmentations de formation de complexes protéiques sur certaines séquences cibles ont été observées, comme c'est le cas de Smad/SBE. Si cette séquence oligonucléotidique activée en réponse à un signal extracellulaire induit par TGF-β nous paraissait tout à fait pertinente dans le cadre de la compréhension du mécanisme d'action du S23906-1, les cellules HT-29 n'expriment pas Smad 4 connue pour interagir au site Smad-SBE avec d'autres protéines de la famille Smad. Le complexe formé au niveau de la séquence Smad-SBE alkylée par le S23906-1 n'impliquant vraisemblablement 141 CHAPITRE IV : Conclusion et Perspectives pas les facteurs de transcription qui s'y lient classiquement, nous avons recherché quelles étaient ces protéines par une approche de protéomique. Cette technique a mis en évidence la fixation de deux protéines que nous avons pu identifier par MALDI-TOF : la HMG-B1 et la GAPDH. Nous avons validé l'interaction préférentielle de la GAPDH à l'oligonucléotide double brin alkylé, puis aux mêmes séquences simple brin alkylées, en relation avec l'effet déstabilisant de l'ADN du S23906-1 et des capacités de la GAPDH à interagir avec de l'ADN simple brin [223, 234]. Par contre, aucune interaction directe de la protéine HMG-B1 à l'ADN ni au complexe GAPDH/ADN alkylé n'a été observée, suggérant qu'une autre protéine non identifiée par nos approches de protéomique pourrait relier HMG-B1 à un complexe multi-protéique plus important. A ce titre, il a déjà été montré que ces deux protéines étaient retrouvées au sein du même complexe protéique impliqué dans la voie de réparation MMR indépendante de MutS [252, 253]. Les données de la littérature montrent que les protéines extraites de noyau de cellules déficientes pour la voie MMR dépendante de MutS sont recrutées au niveau d'oligonucléotides présentant un mésappariement Gs.C ou Gs.T (où Gs = thioguanosine générée suite au traitement de l'ADN par la mercaptopurine). La GAPDH a tout d'abord été identifiée au sein de ce complexe lié à Gs [252]. Des études complémentaires sur ces cellules ont montré que l'arrêt du cycle cellulaire suite au traitement à la mercaptopurine ne se faisait qu'en phase S du 2ème cycle. Cette observation suggère que la voie secondaire de réparation reconnait plutôt une distorsion de l'ADN, en lien avec l'incorporation de dGs supplémentaires, plutôt qu'un mésappariement [253]. Ces recherches ont permis l'identification des protéines HMG-B1, HMG-B2, HSC-70, ERp60 et de la GAPDH. Cependant, même si chacune des protéines ERp60, HMG-B2 et la GAPDH peut interagir avec l'ADN [253], ce serait plutôt la protéine HMG-B1 qui se fixerait directement à la lésion. Nos résultats ont indiqué au contraire que la GAPDH interagissait directement à l'adduit S23906-1/ADN alors que HMG-B1 ne le fixait pas directement. De plus, la lésion pourrait également être reconnue grâce à la déstabilisation de l'ADN plutôt qu'à un mésappariement puisque des expériences effectuées avec un ADN alkylé par des dérivés du S23906-1, qui déstabilisent également l'ADN, recrutent plus efficacement la GAPDH que les dérivés déstabilisant peu l'ADN ou que l'ET-743 qui stabilise l'ADN. 142 CHAPITRE IV : Conclusion et Perspectives Nos expériences de siRNA dirigés contre la GAPDH ont révélé ensuite une sensibilisation des cellules HT-29 au S23906-1, ce qui conduirait alors à l'hypothèse d'une implication de la GAPDH dans la réparation des lésions de l'ADN. Il serait donc intéressant de vérifier la présence de l'un des composants de la machinerie de la voie MMR indépendante de MutS au sein du complexe GAPDH/ADN alkylé. Pour cela, nous pourrions par exemple récupérer les protéines interagissant à l'ADN alkylé suite à une EMSA puis les identifier par western-blot ou encore invalider par siRNA l'expression de chacune des protéines impliquées dans ce complexe de réparation et évaluer leur impact sur la cytotoxicité du S23906-1. Il faut rappeler que l'interaction du complexe de la voie MMR indépendante de MutS n'est pas inhibée en présence d'ATP [253], alors que dans nos expériences l'interaction des protéines d'extraits nucléaires de cellules HT-29 à Smad-SBE alkylé est inhibée. Un autre point qui est différent de celui observé pour les cellules déficientes en voie MMR indépendante de MutS [253], est l'absence de translocation nucléaire de la GAPDH suite au traitement des cellules HT-29 ou A549 avec le S23906-1. C'est pour cela que si les recherches d'identification des protéines du complexe de la voie MMR indépendante de MutS sont infructueuses, il sera également intéressant de récupérer et d'identifier les protéines interagissant à un ADN plus long alkylé par chromatographie nano-LC-MSMS Il faut remarquer également que la localisation de la GAPDH dans le noyau avec ou sans traitement peut avoir différentes conséquences comme le maintien de la prolifération ou l'induction de l'apoptose. Son interaction à l'ADN peut donc avoir diverses conséquences en fonction du type cellulaire. Pour évaluer le rôle d'une protéine dans un mécanisme particulier, il est possible d'inhiber son expression. Cependant, par rapport aux diverses fonctions de la GAPDH au sein des cellules (et notamment la glycolyse), le siRNA invalidant l'expression de cette protéine doit être utilisé avec précaution. Pour chacune des expériences réalisées, il faut tenir compte de données publiées en 2009 qui montrent que la déplétion de GAPDH active p53 et p21 dans cellules A549 [308] et entraîne ainsi une diminution du taux de prolifération avant même un traitement avec quelconque molécule anti-tumorale. Nous avons en effet observé une forte diminution du taux de prolifération pour les cellules A549. C'est pourquoi nous avons préféré, dans un premier temps, évalué l'effet d'une augmentation d'expression de la protéine GAPDH dans ces cellules. Nos résultats préliminaires indiqueraient alors que les cellules 143 CHAPITRE IV : Conclusion et Perspectives A549 seraient plus sensibles au S23906-1, suggérant que la GAPDH serait impliquée dans l'activité cytotoxique du S23906-1 dans ces cellules. (Figure 82). Contrairement aux expériences sur les cellules HT-29, une invalidation (même faible) de l'expression de GAPDH dans les cellules A549 par siRNA aboutit à une mort importante des cellules qui n'est pas compatible avec des mesures de cytotoxicité. Certaines données de la littérature montrent aussi que les cellules A549 transfectées avec le siRNA GAPDH sont plus résistantes à la cytotoxicité induite par QAD [221] ou l'AraC mais ne modifie pas la sensibilité des cellules A549 à la doxorubicine [308]. Nos résultats sur cellules HT-29 transfectées avec le siRNA GAPDH sont au contraire plus sensibles au S23906-1, suggérant que la GAPDH n'est pas impliquée dans l'effet cytotoxique du S23906-1 mais plutôt dans la résistance de la cellule au composé, ce qui rejoint notre hypothèse d'une implication de la GAPDH dans la réparation de l'ADN. Cette augmentation de sensibilité des cellules déplétées en GAPDH a également été montré dans les cellules Jurkat traitées à la prednisolone (agent cytotoxique n'induisant pas de dommages à l'ADN) [313]. 1.3 Localisation de la GAPDH après un traitement au S23906-1 Comme nous l'avons remarqué plus haut, aucune translocation nucléaire de la GAPDH n'a été obtenue au sein de nos modèles cellulaires, on observe au contraire une diminution transitoire du taux de GAPDH dans le noyau des cellules traitées au S23906-1. Il nous faudra évaluer cet effet avec une cinétique plus précise dans les temps courts. Nous nous sommes référés à la littérature pour essayer de comprendre l'intérêt de cette diminution du taux de GAPDH nucléaire. Cependant, celle-ci montre des avis différents. En effet, on peut observer une translocation cytoplasmique de la GAPDH des cellules HEK293 suite au traitement avec H2O2 [237] comme on peut observer une translocation nucléaire de la GAPDH dans les cellules de neuroblastome mNB41A3 suite au même traitement [213]. De manière générale, le mécanisme par lequel la translocation d'un compartiment à un autre de la GAPDH induit l'apoptose des cellules n'est pas encore bien connu. Les résultats obtenus à propos de la translocation cytoplasmique peuvent sembler en contradiction avec une augmentation de fixation de la GAPDH sur l'ADN alkylé. Puisque nos expériences de western-blot ont montré que la GAPDH était déjà présente dans le noyau des 144 CHAPITRE IV : Conclusion et Perspectives deux lignées cellulaires mais également de manière associée à la chromatine, il est probable que la GAPDH qui interagit avec l'adduit serait une des isoformes déjà localisée dans le noyau. Il sera important pour la suite du projet d'évaluer le taux de GAPDH recrutée au niveau de la chromatine de cellules traitées au S23906-1 par rapport au taux de GAPDH recrutée au niveau de la chromatine de cellules non traitées. Cette expérience nous révélera si globalement la GAPDH se fixe d'avantage à l'ADN alkylé et cela même en présence d'un plus faible taux de GAPDH. Il sera également important de comparer les différentes isoformes de GAPDH fixées à la chromatine alkylée ou non à celles de la GAPDH présente dans le noyau dont une partie peut être libre d'après les différences observées entre nos résultats avec les cellules HT-29 et A549 (figures 56 et 57). Nous pourrons également identifier l'isoforme de GAPDH qui interagit avec l'ADN alkylé par une étude des modifications post-traductionnelles de la GAPDH nucléaire et purifiée d'érythrocytes humains. Pour cela, il serait possible de séparer les isoformes par la technique Offgel. Celle-ci permet de séparer les protéines selon leur pI sur une strip, mais son avantage est la récupération directe des protéines au sein du tampon disposé dans des cupules au dessus de la strip et à différents niveaux de pI. Ces isoformes seront alors récupérées, incubées avec l'ADN alkylé puis déposées sur un gel retard mais également identifiées en spectrométrie de masse. 1.4 Structure et spécificité de fixation de la GAPDH Puisque peu d'études ont été réalisées sur les capacités d'interaction de la GAPDH à l'ADN, nous avons évalué sa capacité de fixation à l'ADN, qu'il soit alkylé ou non par le S23906-1. Nos expériences nous ont amené à considérer que la GAPDH ne se fixerait pas au hasard sur l'ADN. En effet, la GAPDH présente une fixation qui dépend de la séquence oligonucléotidique simple ou double brin, de l'agent alkylant, mais également de la modification structurale de la double hélice. Dans la littérature, il a été montré une préférence de fixation de la GAPDH pour les séquences télomériques mais également pour un ADN double brin alkylé par un dérivé de la Saframycine A. Nos recherches ajoutent ainsi une nouvelle démonstration de la fixation directe de la GAPDH à l'ADN modifié. Nous avons ensuite recherché par CASTing s'il existait une séquence spécifique de fixation à l'ADN de la GAPDH. Les résultats préliminaires de sélection de séquence cible montrent la présence de sites préférentiels autour d'une séquence de base GGTG (Figure 72). Ces résultats sont en 145 CHAPITRE IV : Conclusion et Perspectives cours de validation et il est important de tester l'interaction de la GAPDH à d'autres oligonucléotides obtenus par CASTing afin de valider un éventuel consensus. Un point important est l'augmentation flagrante de fixation de la GAPDH à ces oligonucléotides alkylés par le S23906-1. Cette expérience est une nouvelle preuve qui indique que la GAPDH reconnaît non seulement la séquence, mais aussi la structure de l'ADN. La GAPDH peut interagir sous différentes formes avec l'ADN (mono, bi ou tétramérique). Pour déterminer la nature des complexes formés en retard en gel sur les adduits S23906-1/ADN, nous avons réalisé des expériences en présence de NAD+, de G3P ou d'ATP. Le NAD+ et G3P permettent de constater indirectement la liaison de la GAPDH à l'ADN alkylé par le S23906-1 via son site NAD+ et au niveau du site de fixation du G3P. La présence d'ATP va quant à elle induire une déstabilisation de la forme tétramérique de la GAPDH. La diminution de l'interaction de la GAPDH purifiée d'érythrocytes humains ou contenues dans les extraits nucléaire de cellules HT-29 montre que cette protéine interagirait avec Smad-SBE alkylé sous forme tétramérique. L'utilisation d'ATP révèle également la fixation possible de GAPDH sous-forme mono- ou dimérique puisque les complexes les plus bas formés entre la séquence T1 et la GAPDH et visualisés lors d'expériences de retard en gel ne sont pas inhibés (Figures 77 et 78) . Il serait alors intéressant de valider la présence de structure tétra-, di- ou monomériques de la GAPDH au niveau de cet oligonucléotide et d'identifier également le site d'interaction à l'ADN de cette GAPDH puisque les complexes les plus bas observés sur les retards en gel formés entre la GAPDH et T1 ne sont pas déstabilisés en présence de NAD+. Pour cela il est possible d'incuber la GAPDH avec l'ADN alkylé, de dénaturer l'ADN qui n'interagit pas avec la GAPDH, de séparer et identifier la taille des complexes par westernblot. Enfin d'un point de vue plus global, il est important de vérifier l'augmentation de fixation de la GAPDH à la chromatine alkylée par le S23906-1 dans chacune des lignées testées pour valider l'augmentation d'interaction aux oligonucléotides observé dans nos expériences. 2. Mécanisme d'action du JLK1486 Le second grand axe de cette thèse a porté sur l'étude du mécanisme d'action du JLK1486 et a montré que cette molécule ne se fixe pas avec l'ADN mais à certains groupements thiols comme ceux du glutathion. Cependant, cette liaison au glutathion participe au processus de détoxification cellulaire mais ne représente pas la cible du composé 146 CHAPITRE IV : Conclusion et Perspectives que nous avons voulu rechercher. Nous avons mis en évidence de manière indirecte par 2DDIGE différentielle qu'elle pouvait interagir avec certaines protéines par un processus d'alkylation. Si elles sont repérées, les quantités de protéines mises en oeuvre ont été trop faibles pour permettre leur identification en MALDI-TOF. Il sera important de renouveler l'expérience en multipliant le nombre de gels préparatifs ainsi que la quantité de protéines au sein de ces gels pour optimiser les possibilités d'identification des protéines cible du JLK1486. 147 CHAPITRE V : Matériel et méthodes CHAPITRE V : Materiel et méthodes 1. Molécules, oligonucléotides et protéines utilisés 1.1. Composés Le composé S23906-1 (PM=489 g/mol) et ses dérivés, ainsi que le composé JLK1486, sont reçus sous forme cristalline purifiée. Ils sont alors dilués dans du diméthyl sulfoxide (DMSO) à une concentration de 10mM, réparti en différents aliquots qui sont conservés à 20°C. Les différents produits utilisés sont listés dans le tableau suivant. S23906-1 S27589-1 S27590-1 S71344-1 S29385-1 S17887-1 S71507-1 S73356-1 ET-743 JLK1486 Tableau 7: Molécules utilisées lors des différentes expériences 1.2. Oligonucléotides Les oligonucléotides sont reçus sous forme cristalline simple brin, ils sont repris dans de l'eau mQ afin d'obtenir une concentration finale de 500 μM. Une quantité de brin « a » est ajouté à une même quantité de brin « b ». Dans le cas d'un marquage radioactif, le brin « b » est ajouté à hauteur de 1,5 fois par rapport à la quantité de brin « a ». La réaction d'hybridation des deux brins d'oligonucléotides s'effectue en plaçant la solution 10 min à 90°C puis en laissant redescendre lentement la température à 4°C. Les oligonucléotides doubles brins ou simples brins sont listés dans le tableau suivant. 149 CHAPITRE V : Materiel et méthodes N° 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 Nom 2/1n1 Smad-SBEa Smad-SBEb Biotine-Smad-SBE-a Smad-SBEb Smad-SBEm1-a Smad-SBEm1-b Smad-SBEm2-a Smad-SBEm2-b Smad-SBEm3-a Smad-SBEm3-b XHb XHa XHb-M1A XHb-M1B XHb-M2 XHb-M4 XHb-M5 XHb-M1 XHb-M1A-M2 XHb-M2-M4 XHb-M4-M5 XHb-M2-M5 XHb-M1B-M4 XHb-M1A-M2-M4 XHb-M1A-M4-M5 XHb-M2-M4-M5 XHb-M1A-M2-M4-M5 XHb-M1-M2-M4-M5 XHb-D1 XHb-D4 XHb-D5 XHb-D2 XHb-AP2 XHb-AP4 XHb-AP5 Msx a Msx b Pit-1 a Pit-1 b NF-1 a NF-1 b T1 T2 D5 G9 C3 G6 G5 B7 A6 H3 F8 C9 A12 A9 CASTing aléatoire Séquence 5'-CTATGACTCTGTCATAG 5'-AGTATGTCTAGACTGA TCATACAGATCTGACT-5' *5'-AGTATGTCTAGACTGA TCATACAGATCTGACT-5' 5'- AGTATGTCTAGTGCGA TCATACAGATCACGCT-5' 5'- AGTACGACTAGACTGA TCATGCTGATCTGACT-5' 5'- AGTACGACTAGTGCGA TCATGCTGATCACGCT-5' 5'-AGCTTGCATGCCTGCAGGTCGACT ACGTACGGACGTCCAGCTGAGATC-5' 5'-AGCTTGCATGACTGCAGGTCGACT 5'-AGCTTGCATGCATGCAGGTCGACT 5'-AGCTTGAATGCCTGCAGGTCGACT 5'-AGCTTGCATGCCTGAAGGTCGACT 5'-AGCTTGCATGCCTGCAGGTAGACT 5'-AGCTTGCATGAATGCAGGTCGACT 5'-AGCTTGAATGACTGCAGGTCGACT 5'-AGCTTGAATGCCTGAAGGTCGACT 5'-AGCTTGCATGCCTGAAGGTAGACT 5'-AGCTTGAATGCCTGCAGGTAGACT 5'-AGCTTGCATGCATGAAGGTCGACT 5'-AGCTTGAATGACTGAAGGTCGACT 5'-AGCTTGCATGACTGAAGGTAGACT 5'-AGCTTGAATGCCTGAAGGTAGACT 5'-AGCTTGAATGACTGAAGGTAGACT 5'-AGCTTGAATGAATGAAGGTAGACT 5'-AGCTTGCATG--TGCAGGTCGACT 5'-AGCTTGCATGCCTG-AGGTCGACT 5'-AGCTTGCATGCCTGCAGGT-GACT 5'-AGCTTG-ATGCCTGCAGGTCGACT 5'-AGCTTG(dR)ATGCCTGCAGGTCGACT 5'-AGCTTGCATGCCTG(dR)AGGTCGACT 5'-AGCTTGCATGCCTGCAGGT(dR)GACT 5'-GGCGAATTAGGAATTAGG CCGCTTAATCCTTAATCC 5'-TGTCTTCCTGAATATGAATAAGAAATAA ACAGAAGGACTTATACTTATTCTTTATT-5' 5'-TTTTGGATTGAAGCCAATATGATAA AAAACCTAACTTCGGTTATACTATT-5' 5'-AGGGTTAGGGTTAGGGTTAGGG 5'-AGGGTTAGGGTTAGGGTT 5'-GTGGTCATTGTGGTCCCGGG CACCAGTAACACCAGGGCCC-5' 5'-CCCGGTGTTTATTGACGTCA GGGCCACAAATAACTGCAGT-5 5'-GGGGCTAGAGTTGGCGGTG CCCCGATCTCAACCGCCAC-5' 5'-CGGTGCCATGGCGGAGGGGG GCCACGGTACCGCCTCCCCC-5 5'-ACGTCATGGGGTGGTACTGG TGCAGTACCCCACCATGTCC-5' '-AGTATGCGGAGGTATGAGTT TCATACGCCTCCATACTCAA-5' 5'-GGGCTCAGCCATTAGGTATT CCCGAGTCGGTAATCCATAA-5' 5'-TGAACACGTTTGCTGTTTGC ACTTGTGCAAACGACAAACG-5' 5'-TATCACGAAGTACTGGAATC ATAGTGCTTCATGACCTTAG-5 5'-AGGCAGCCCGGCAAATGGCA TCCGTCGGGCCGTTTACCGT-5' 5'-GCAAAGGGGATAGGGTACCG CGTTTCCCCTATCCCATGGC-5' 5'-TCGGCGCGGGGCCTGGGCGG AGCCGCGCCCCGGACCCGCC-5' 5'-GTAGCGACGCTCACTCACA(N)16 GGAGGTCTAGGCGTCAATCT 150 CHAPITRE V : Materiel et méthodes 49 5'-AGATTGACGCCTAGACCTCC 5'-GTAGCGACGCTCACTCACA CASTing primer a CASTing primer b Tableau 8 : Oligonucléotides utilisés lors des différentes expériences 1.3. Protéines 1.3.1. Protéines commerciales Les protéines pures ont toutes été achetées chez Sigma : HMG-B1 humaine (H4652), GAPDH d'érythrocyte humain (G6019), GAPDH de muscle de lapin (G2267) et GAPDH de muscle de poulet (G9263). 1.3.2. Préparation des protéines 1.3.2.1. 1.3-2-1 Expression en lysat de réticulocytes L'expression de protéines en lysat de réticulocytes s'effectue par le kit TNT® Quick Coupled Reticulocyte Lysate System (Promega). Vingt-cinq μL de lysat sont mélangés à 2 μL de tampon TNT® reaction Buffer, 1 μL de TNT® T3 RNA polymérase, 1 μL d'acides aminés à 1 mM, 2 μL d'inhibiteur de ribonucléase (Invitrogen) et 1μg du plasmide d'intérêt (vecteur réalisé selon le protocole décrit en paragraphe 2.1.2, exprimant la GAPDH-BFP). Le mélange est complété avec de l'eau sans nucléase pour un volume final de 50 μL et incubé à 30°C pendant 1H30. Afin de vérifier l'expression des protéines d'intérêt, l'acide aminé méthionine est remplacé par la [35S] méthionine (1,1MBq ; 1175Ci/mmol ; GE Healthcare) dans une manipulation contrôle. Les lysats contenant les protéines marquées sont alors déposés sur un gel de polyacrylamide (gel de concentration : 5% acrylamide/bisacrylamide 37,5 :1 ; 0,125 M Tris pH 6,8 ; 0,1% SDS ; 0,1% APS et 0,01% Temed ; gel de séparation : 10% acrylamide/bisacrylamide 37,5 :1 0,375 M Tris pH 8,8 ; 0,1% SDS ; 0,1% APS et 0,01% Temed). La migration s'effectue à 30 mA pendant 4H contre un tampon de migration (25 mM Tris pH 8 ; 192 mM glycine ; SDS 0,1%). Le gel est alors séché sous vide et analysé au phosphoImager. 1.3.2.2. Extraction de protéines totales Les extraits totaux de cellules HT-29 sont utilisés dans l'expérience de 2D-DIGE. Afin de ne pas gêner le marquage des protéines par les fluorochromes ni la migration de la 1ère dimension, le tampon de lyse ne doit contenir ni DTT, ni SDS. Vingt millions de cellules HT29 sont récupérées, centrifugées à 1000 g, puis lavées par 20 mL de PBS. Le culot est repris 151 CHAPITRE V : Materiel et méthodes par 2 mL de tampon de lyse (10 mM Tris-HCl pH 7,4 ; 140 mM NaCl ; 5 mM EDTA ; 1% Triton-X100 ; 0,2 mM Na3VO4 ; 1 mM NaF ; 10 ng/mL aprotinine ; 10 ng/mL leupeptine ; 10 ng/mL pepstatine). Après incubation 1H à 4°C et agitation toutes les 10 min, la solution est centrifugée à 13000 g pendant 15 min à 4°C. Le surnageant contenant les protéines est récupéré, dosé par la technique de Bradford et stocké à -80°C. 1.3.2.3. Extraction de protéines nucléaires Quarante millions de cellules HT-29 sont récupérées, centrifugées à 1000 g, puis lavées avec 40 mL de PBS. Le culot est repris avec 5 mL de tampon A peu salin (10 mM Hepes pH 7,9 ; 1,5 mM MgCl2 ; 10 mM KCl ; 0,5 mM DTT). Après 15 min d'incubation à 4°C et fragilisation des membranes cytoplasmiques par pression osmotique, les membranes sont cassées par pression mécanique (aspiration-refoulement de la solution cellulaire au travers une aiguille 21G). La solution est centrifugée à 13000 g pendant 1 min à 4°C. Le surnageant contenant les membranes et les protéines cytoplasmiques est éliminé. Les culots correspondant aux fractions nucléaires sont resuspendus dans 1,5 mL de tampon B très salin (20 mM HEPES pH 7,9 ; 420 mM NaCl ; 1,5 mM MgCl2 ; 0,2 mM EDTA ; 0,5 mM DTT ; 0,5 mM PMSF ; 25% Glycérol) et les tubes sont placés sous agitation pendant 20 min à 4°C. La forte force ionique du tampon B permet de libérer les protéines nucléaires au travers des pores nucléaires. Les extraits nucléaires sont alors isolés par centrifugation à 13000 g pendant 10 min à 4°C puis dialysés à 4°C dans des cassettes de dialyse (Slide-A-Lyser® Dialysis Cassette, 2000 MWCO, Pierce) contre 1 L de tampon D (20 mM HEPES pH 7,9 ; 100 mM KCl ; 0,2 mM EDTA ; 0,5 mM DTT ; 0,5 mM PMSF ; 20% Glycérol) en présence d'inhibiteurs de protéases (5 μg/μL de leupeptine et 5 μg/μL d'aprotinine). Après dialyse pendant une nuit, la concentration protéique est déterminée par dosage colorimétrique de Bradford. Les extraits nucléaires ainsi préparés sont aliquotés et conservés à -80°C. 1.3.2.4. Extraction fractionnée de protéines Cette technique est employée pour étudier la localisation cellulaire de la GAPDH après traitement ou non des cellules A549 et HT-29 avec le S23906-1. Deux protocoles ont été utilisés. Le premier consiste à séparer la fraction nucléaire de la fraction cytoplasmique (kit Nuclear/Cytosol Fraction, Biovision). 152 CHAPITRE V : Materiel et méthodes Le second protocole permet quant à lui d'isoler également les protéines associées à la chromatine. Un million de cellules sont collectées, centrifugées à 1000 g puis lavées dans 10 mL de PBS. Les cellules sont reprises dans 500 μL de tampon FA (10 mM HEPES pH 7,9 ; 10 mM KCl ; 1,5 mM MgCl2 ; 0,34 M sucrose ; 10% glycérol ; 1 mM DTT ; 5 μg/mL aproptine; 5 μg/mL leupeptine; 0,5 μg/mL pepstatine A; 0,1 mM PMSF ; 0,1% Triton X-100) et incubées pendant 5 min à 4°C. La solution est ensuite centrifugée à 1300 g pendant 4 min à 4°C. Le surnageant contenant les protéines cytoplasmiques est mis de côté. Le culot est lavé deux fois avec le tampon FA puis repris avec 200μL de tampon FB (3 mM EDTA; 0,1 mM EGTA; 1mM DTT 5μg/mL ; aproptine; 5μg/mL leupeptine; 0,5μg/mL pepstatine A; 0,1 mM PMSF) et incubé pendant 30 min à 4°C. La solution est ensuite centrifugée à 1700 g pendant 4 min à 4°C. Le surnageant récupéré contient les protéines nucléaires. Le culot est lavé deux fois avec le tampon FB puis repris avec 300μL de tampon FC (62,5 mM Tris-HCl pH8; 2 % SDS; 10% glycérol) avant d'être soniqué à trois reprises pendant 10 sec (à 50% d'intensité de l'appareil Vibra cell 72408, Bioblock) dans la glace. Après centrifugation à 13000 g, la concentration protéique de chacune des fractions est déterminée par dosage colorimétrique de Bradford. Les extraits nucléaires ainsi préparés sont conservés à -80°C. Enfin, le taux de contamination de la fraction nucléaire ou chromatinienne par la fraction cytoplasmique est mesuré par un dosage de l'activité β-Galactosidase dans chacune des fractions, en suivant le protocole du fournisseur (Luminescent β-galactosidase, ClonTech). 1.3.2.5. Dosage des protéines (Bradford) Les extraits protéiques totaux sont dosés grâce au kit Biorad Protein Assay (Biorad). Une gamme étalon de BSA allant de 0 à 20 μg/μL est réalisée et les échantillons protéiques (1 et 2 μL en duplicat) sont dilués dans un volume final de 800 μL d'H2O. Après 5 minutes d'incubation à température ambiante, 200 μL de réactif Biorad Protein Assay sont ajoutés et l'absorbance des échantillons est mesurée à 595 nm par spectrophotomètrie. Les concentrations protéiques sont déterminées à partir de la gamme de concentration de BSA. 153 CHAPITRE V : Materiel et méthodes 2. Approches moléculaires 2.1. Clonage 2.1.1. Construction plasmidique 2.1.1.1. Vecteur exprimant la GAPDH Nous avons cloné l'ADNc (1088 pb) de la GAPDH-BFP ou de la GAPDH-GFP, initialement contenu dans le plasmide GAPDH-EGFP ou GAPDH-EBFP au sein du vecteur d'expression pBSIIKS permettant ainsi la transcription in vivo à partir des séquences T3 reconnues par l'ADN polymérase T3. Les nucléotides 93 à 1088 de l'insert correspondent aux nucléotides 111 à 1107 du gène de la GAPDH humaine. L'insert (ADNc) a donc été excisé et inséré dans le vecteur plasmide pBSIIKS puis amplifié selon le protocole suivant. Six μg du plasmide GAPDH-EGFP ou GAPDH-EBFP sont digérés par 6 unités d'enzyme SacI (R0156S, New England BioLabs) pendant 45min puis par 6 unités d'enzyme KpnI (R0142S, New England BioLabs). Deux μg de vecteur pBSIIKS sont en parallèle digérés avec 2 U de ces mêmes enzymes. Les vecteurs ouverts sont séparés par migration sur gel d'agarose 1 % pendant 1H à 120 V. Les bandes d'intérêt sont excisées du gel sous UV et l'ADN plasmidique est récupéré avec le kit NucleoSpin (Macherey-Nagel). L'agarose est dissous à 50°C pendant 5 min dans 300 μL de tampon NT. La solution contenant l'ADN est placée sur une colonne munie d'un filtre capable de retenir les acides nucléiques, centrifugée 1 min à 11000 g puis lavée deux fois par 600 μl d'une solution NT3. Pour terminer, le vecteur est élué par 30 μL d'eau et récupéré dans un tube 1,5 mL par centrifugation pendant 2 min à 12000 g. Les ligations sont effectuées en utilisant 200 ng de vecteur et 66ng d'insert. Pour la ligation, le mélange vecteur/insert est incubé avec 4 unités de T4 DNA ligase (M0202T, New England BioLabs) pendant 16 h à 16°C dans son tampon spécifique (50 mM Tris-NaCl, pH 7,5 ; 10 mM MgCl2 ; 1 mM ATP ; 10 mM DTT). 154 CHAPITRE V : Materiel et méthodes 2.1.1.2. Clonage des oligonucléotides cibles de la GAPDH isolés par CAST-ing Les oligonucléotidiques obtenus à partir de l'expérience de CAST-ing et contenant aux extrémités les sites de coupures d'EcoRI et de BamH1 sont insérés dans le plasmide pBSIIKS pour être amplifiés et séquencés. 2.1.2. Souche bactérienne La souche d'Escherichia coli XL1-Blue strain possède le génotype suivant : recA1, endA1, gyrA96, thi-1, hsdR17, supE44, relA1, lac [F', proAB, lacqZΔM15, Tn10, (Tetr)]. Cette souche bactérienne est communément utilisée pour amplifier des plasmides d'intérêt. Elle est cultivée en solution dans du milieu LB (Luria Bertoni : peptone 10 g/L ; extrait sec de levure 5 g/L, NaCl 86 mM ; pH 7,5) ou étalée sur boîtes de pétri de LB gelosé (LB contenant de l'agar à 15 g/L). 2.1.3. Transformation bactérienne L'amplification des plasmides s'effectue dans cette bactérie XL1. Un clone bactérien est placé dans 10 mL de milieu LB à 37°C sous agitation. Après 16H, les bactéries sont diluées au 1/10ème et placées 4h à 37°C sous agitation (DO580nm= 0,4 à 0,6). Cette incubation permet aux bactéries de reprendre leur phase de croissance exponentielle. Les amplifications bactériennes en milieu liquide s'effectuent toujours à 37°C sous agitation alors que les milieux gélosés sont placés à 37°C sans agitation. Les bactéries sont alors centrifugées à 5000 g pendant 8 min et le culot est repris dans 1 mL d'une solution de TSS (10 mL LB, 1 g PEG, MgCl2 90 mM, DMSO 45 mM). Cent μL de bactéries sont placées dans la glace en présence de 200 ng du produit de ligation préalablement dialysé sur membrane (Membrane Filters 0,025μm, Millipore) contre de l'eau mQ pendant 30 min, 900 μL d'une solution de TSS glucose (TSS, glucose 200 mM) sont ensuite ajoutés. Après 1H d'incubation sous agitation à 37°C, 200 ou 50 μL de la solution de culture sont étalés sur une boîte de pétri contenant le LB gélosé additionné de l'antibiotique de sélection, l'ampicilline (25 μg/mL). 2.1.4. Amplification des plasmides Après incubation 16 h à 37°C dans une étuve, les clones bactériens transformés avec un plasmide d'intérêt sur boîte de pétri, sont cultivés dans 10 mL d'une solution de LB additionnée de l'antibiotique de sélection à la concentration appropriée. Après incubation à 37°C pendant 8H, 1 mL de bactéries est prélevé et placé dans 250 mL de milieu LB + 155 CHAPITRE V : Materiel et méthodes antibiotique. Cette solution bactérienne est incubée pendant 16 h à 37°C. Les plasmides ainsi amplifiés sont récupérés et purifiés à l'aide du kit Qiagen (Maxi prep). Brièvement, les bactéries sont récupérées par centrifugation à 5000 g pendant 8 min puis remises en suspension dans 10 mL de tampon P1. Les bactéries sont ensuite lysées dans 10 mL de tampon P2 pendant 5 min, et la réaction est stoppée par 10 mL de tampon P3. Les lysats sont filtrés à travers une seringue munie d'un filtre pour éliminer les débris bactériens. La solution ainsi obtenue est déposée sur une colonne où l'ADN plasmidique est retenu. Ces colonnes sont lavées 2 fois par 30 mL de tampon QBT. Les plasmides sont ensuite élués dans 15 mL de tampon QF puis précipités par 15 mL d'isopropanol à température ambiante puis dans 10 mL d'éthanol à 70 %. Les culots d'ADN plasmidique sont séchés et repris dans l'eau avant d'être dosés au spectrophotomètre (DO260nm). 2.2. Méthodes d'étude des interactions ADN/ligand 2.2.1. Etudes biophysiques 2.2.1.1. Expériences de fluorescence Les propriétés de fluorescence du S23906-1 ont été utilisées pour vérifier son interaction à l'ADN. Cinq μM d'oligonucléotide Smad-SBE double brin sont incubés avec des concentrations croissantes en S23906-1 (1 ; 2,5 ; 5 ; 10 ; 25 ; 50 et 100 μM) dans un volume final de 200 μL d'acétate d'ammonium 1 mM. La lecture au spectromètre à luminescence (LS50B, Perkin Elmer) est réalisée après une nuit d'incubation à 37°C. Après excitation à 354 nm, le composé S23906-1 émet une fluorescence entre 420 et 650nm avec un pic à 500-510nm. 2.2.1.2. Test de dénaturation thermique de l'ADN Cette technique consiste à enregistrer les variations des propriétés d'absorbance reflétant un changement conformationnel de la molécule d'ADN (effet hyperchrome). Pour cela, la densité optique (DO) à 260 nm d'une solution d'ADN soumise à une augmentation de température progressive de 20 à 100°C (augmentation de 1°C/min) est mesurée toutes les 90 secondes. Les courbes de dénaturation thermique de l'ADN sont enregistrées avec un spectrophotomètre Uvikon XL Secoman couplé à un régulateur thermique. La température de fusion d'un fragment d'ADN, ou Tm (melting temperature), correspond à la température où 50 % de l'ADN se retrouve sous forme dénaturée et 50 % sous forme double brin. La température est mesurée dans une cuve de référence à l'aide d'une sonde de température. Les 156 CHAPITRE V : Materiel et méthodes échantillons d'ADN sont placés dans 1 mL de tampon BPE (6 mM Na2HPO4, 2 mM NaH2PO4, 1 mM EDTA, pH 7). Pour cette étude, différentes séquences XH mutées, délétées ou présentant des sites de type abasique ont été utilisées (n°7 à 30 du tableau 8). Les oligonucléotides ont une concentration finale en paires de base d'ADN de 1 μM. 2.2.2. Spectrométrie de masse, MALDI-TOF Cette technique permet de déterminer le site d'alkylation précis du S23906-1 sur la séquence nucléotidique en épingle à cheveux de 17 pb. Cinquante μM d'oligonucléotides sont incubés avec 200 μM de S23906-1 pendant 2 ou 16H dans une solution finale d'acétate d'ammonium à 1 mM (20 μL). Dix μL de tampon (20 mM citrate d'ammonium hydrogène, 20 mM MgSO4) contenant 2 mU de phosphodiesterase I de venin de serpent (Sigma) sont ensuite ajoutés à cette solution oligonucléotidique. L'enzyme hydrolyse les liaisons phosphodiesters de chacun des nucléotides de l'extrémité 3' vers l'extrémité 5'. Après 20 min d'incubation à 37°C, les sels sont enlevés par des colonnes de dessalage C18 Zip-TipTM (Millipore) selon le protocole du fournisseur. Les protéines sont ensuite récupérées par 2 μL d'une solution de matrice (20 mM d'ammonium citrate ; 50% d'acétonitrile ; 7 mg/mL de 3HPA (acide 3-hydroxypicolinique)), puis déposées sur une cible MALDI-TOF non téflonnée. Enfin les oligonucléotides sont analysés par MALDI-TOF en mode linéaire et de polarité négative (intensité du laser : 2900 ; voltage d'accélération : 20kV). 2.2.3. Méthodes radioactives 2.2.3.1. Marquage radioactif des oligonucléotides Quarante ng d'oligonucléotide (n° 2 à 6 et 31 à 48 du tableau n° 8) simple brin sont marqués par l'incorporation sur l'extrémité 5' de γ-[32P]-ATP (1,85 MBq; 3000Ci/mmol ; GE Healthcare). Le marquage s'effectue par l'ajout de 20 U d'enzyme T4 polynucléotide kinase (M0201S ; New England BioLabs). Après 2H d'incubation à 37°C, l'enzyme est inactivée pendant 10 min à 90°C et 60 ng d'oligonucléotides complémentaires sont ajoutés. Une fois la température redescendue lentement la température à 4°C, l'oligonucléotide double brin est purifié par migration sur gel de polyacrylamide à 10% non dénaturant (rapport acrylamide:bisacrylamide 19:1 ; 0,5% TBE ; 0,5% APS et 0,05% Temed) et séparés par une migration de 1H30 à 150 V dans une solution de TBE 1X (Invitrogen). Après autoradiographie du gel, les bandes d'intérêt sont excisées, broyées puis éluées dans un tampon TE-NaCl (10 mM Tris ; 1 mM EDTA ; 100 mM NaCl pH 8) pendant une nuit à 4°C. L'ADN radiomarqué en solution est alors séparé du gel d'acrylamide par centrifugation au 157 CHAPITRE V : Materiel et méthodes travers d'un filtre millipore de porosité de 0,45 μm de diamètre puis précipité dans l'éthanol absolu froid par centrifugation 30 min à 13500 g. L'éthanol est éliminé et le culot d'ADN est remis en suspension dans 50 μL d'eau mQ. Dans le cadre de l'expérience de CASTing, 100 ng d'oligonucléotides simple brin aléatoires (n°48 tableau n°8) sont marqués de manière identique, mais hybridés à 300 ng de primer (n°49 tableau n°8). La polymérisation du brin complémentaire est effectuée par incorporation sur l'extrémité 3' des dNTP par 4 unités d'enzyme Klenow (11008404001 ; Roche) pendant 1H à 37°C. L'oligonucléotide double brin est ensuite purifié par migration sur gel de polyacrylamide et récupéré comme précédemment. Le fragment d'ADN de 117 pb provenant du plasmide pBS (Stratagen) est obtenu par digestion enzymatique EcoRI-PvuII. Le marquage est effectué par incorporation d'α-[32P]dATP 1,85 MBq; 3000Ci/mmol ; GE Healthcare) au niveau du site EcoRI et en 3' du fragment d'ADN par 40 unités d'enzyme AMV-RT (Avian Myeloblastosis Virus-Reverse Transcriptase, Finzyme, 20U/μL). Après 2H d'incubation à 37°C, 12 μL d'une solution de dATP non marqué à 100 mM sont ajoutés. L'oligonucléotide est ensuite purifié par migration 2H à 170V sur gel de polyacrylamide 10% et récupéré comme précédemment. 2.2.3.2. Digestion à la nucléase S1 La nucléase S1 est une endonucléase spécifique des ADN (ou ARN) simple brin. Cette technique permet ainsi de localiser indirectement les zones simples brin de l'ADN. Les oligonucléotides sont tout d'abord alkylés ou non par 0, 10 ou 50 μM de S23906-1 ou ses dérivés à 37°C pendant 16H dans un volume final de 20μL de cacodylate de sodium 1mM. Après précipitation à l'éthanol absolu froid, l'ADN est digéré pendant 15min à 37°C avec 4 unités de nucléase S1 (818348, Roche), dans un volume final de 5 μL de tampon spécifique (30 mM acétate de sodium ; 50 mM NaCl ; 0,1 mM ZnSO4 ; 5% glycérol). La solution est déposée sur un gel non dénaturant à 10% (rapport acrylamide:bisacrylamide 37,5:1, TBE 1X). 158 CHAPITRE V : Materiel et méthodes 2.3. Méthodes d'étude des interactions protéine/ADN 2.3.1. Modulation de fixation de facteurs de transcription à l'ADN Les membranes Panomics TranSignal Protein/DNA Arrays ont été utilisées. Elles ont été développées originellement pour comparer le taux d'expression de facteurs de transcription au sein de différentes lignées cellulaires. Cette technique permet d'effectuer un criblage large d'environ 400 facteurs de transcription. Le kit a été détourné de son utilisation initiale afin d'étudier la spécificité d'alkylation par le S23906-1 de séquences d'ADN consensus reconnues par les facteurs de transcription dans le but de déterminer les conséquences des adduits S23906-1/ADN sur la transcription. Dix μL d'un mélange d'oligonucléotides biotinylés spécifiquement reconnus par des facteurs de transcription sont incubés en absence (contrôle) ou en présence de 1 ou 5 μM de S239061 dans 100 μL de tampon cacodylate de sodium 1 mM. L'alkylation est réalisée à 37°C toute la nuit. L'ADN est ensuite précipité par ajout de 10 μL de NaCl 5M et de 1 mL d'éthanol absolu à -20°C, suivi d'une centrifugation à 13500 g pendant 30 min à 4°C. Le culot est repris dans 20 μL de Binding Buffer 1X du kit auquel nous avons ajouté 15 μg de protéines d'extraits nucléaires de cellules HT-29. Une incubation de 30 min à 15°C permet aux facteurs de transcription contenus dans les extraits nucléaires de se lier à leurs oligonucléotides cibles respectifs. L'isolation des complexes [facteur de transcription/ADN] est réalisée à l'aide de colonnes de centrifugation qui retiennent les complexes protéine-oligonucléotide. Après lavages, les complexes sont récupérés par addition d'une solution saline (Elution Buffer). Les oligonucléotides dénaturés, en solution dans 3 mL de tampon d'hybridation du kit, sont incubés avec les membranes pendant toute une nuit à 42°C. Sur ces membranes sont greffés chacun des oligonucléotides simple brin correspondant aux séquences complémentaires des cibles des facteurs de transcription testés (kits TranSignalTM/protein/DNA arrays I à V). Les membranes sont ensuite lavées et une solution de HRP (Horse Radish-Peroxidase) couplée à la streptavidine est ajoutée. Pour terminer, les membranes sont incubées dans une solution contenant le substrat de la HRP (ECL, GE Healthcare) et sont ensuite révélées par autoradiographie (films GE Healthcare). L'analyse se fait à l'aide du logiciel ImageQuant qui quantifie l'intensité de chaque spot. Le rapport d'intensité est calculé en 159 CHAPITRE V : Materiel et méthodes faisant le ratio « intensité du test avec drogue » sur « intensité du contrôle sans drogue ». Comme établi par le fournisseur, la modulation de l'interaction ADN/facteur de transcription est significative lorsque le ratio présente une valeur absolue supérieure à 1,5. Figure 96 : TranSignalTM/protein/DNA arrays (Panomics). Les oligonucléotides biotinylés sont incubés ou non avec le S23906-1 puis des extraits nucléaires de cellules HT-29 sont ajoutés. Les complexes facteurs de transcription/ADN ainsi formés sont récupérés. Les ADN sont isolés des complexes et hybridés à leur brin complémentaire sur les membranes TransignalTM. Des billes de streptavidine couplées à la protéine HRP sont ajoutées. Une analyse densitométrique permet de déterminer les rapports d'inhibition ou d'activation de la formation des complexes ADN/facteurs de transcription par le S23906-1. 2.3.2. Chromatographie d'affinité Cette technique nous permet d'isoler les protéines d'extraits nucléaires qui se fixent à l'adduit Smad-SBE/S23906-1 par rapport à Smad-SBE non alkylé. Cinquante μM d'oligonucléotide biotinylé sont incubés ou non avec 200 μM de S23906-1 dans un volume final de 200 μL d'acétate d'ammonium 1 mM. Après une nuit d'incubation à 37°C, cette solution est complétée par 2 mL de tampon de fixation (20 mM HEPES pH 7,9 ; 20 mM NaCl ; 1 mM EDTA ; 1 mM DTT), puis sont injectés dans les colonnes qui contiennent des molécules de streptavidine immobilisées sur des billes de SepharoseTM High Performance (HiTrapTM Streptavidin HP, Amersham Biosciences). Puis, la colonne est lavée avec 10 mL de tampon de liaison pour enlever tout élément non fixé. Afin d'éviter la dénaturation des protéines, la chromatographie est réalisée en chambre froide. Le protocole décrit ci-dessous est réalisé en parallèle pour chacune des deux colonnes. Cinq mg d'extraits nucléaires de 160 CHAPITRE V : Materiel et méthodes cellules HT-29 dilués dans un volume final de 3 mL de tampon de fixation contenant 5 μg/mL de leupeptine et 5 μg/mL d'aprotinine sont injectés à trois reprises dans la colonne avec un débit constant de 1 mL/min. Un mL de solution protéique est ensuite incubé avec les oligonucléotides contenus dans chacune des colonnes pendant 1H en circuit fermé, grâce à une pompe péristaltique. Les protéines nucléaires non fixées sont éliminées par 10 mL de tampon de fixation, puis les protéines fixées aux oligonucléotides sont décrochées par un passage de 1,2 mL de tampon d'élution (20 mM HEPES pH 7,9 ; 1 mM EDTA ; 1 mM DTT) contenant des concentrations croissantes en NaCl (50, 100, 200, 300, 500 ou 1000 mM) en circuit fermé pendant 5 minutes. Les protéines éluées sont dessalées par dialyse contre 1 L d'eau mQ à 4°C contenant 1 g de résine (AG®501-X8(D) Resin, Bio-Rad). Deux dialyses courtes précèdent une dialyse d'une nuit. Les échantillons sont alors placés 1H à -80°C, lyophilisés sur la nuit puis stockées à -80°C. Les protéines seront ensuite séparées par électrophorèse (voir partie 2.4.1). Figure 97: Chromatographie d'affinité. Les protéines d'extraits nucléaires de cellules HT-29 sont injectées dans les colonnes de chromatographie contenant l'oligonucléotide Smad-SBE alkylé ou non par le S23906-1. Les protéines qui se fixent à l'ADN alkylé ou non sont éluées avec des concentrations croissantes en NaCl. 2.3.3. Retard en gel Cette technique permet de visualiser l'interaction entre une protéine et une sonde d'acide nucléique marquée, en se basant sur la différence de mobilité sur gel de polyacrylamide d'un complexe protéine-ADN par rapport à celle de la sonde ADN libre. Les oligonucléotides radiomarqués (voir partie 2.2.3) sont incubés avec 50 μM de composé S23906-1 ou l'un de ses dérivés dans une solution finale de 50 μL d'acétate d'ammonium 1 mM. Après 16H d'incubation à 37°C, les oligonucléotides sont précipités à l'éthanol absolu froid. Les oligonucléotides sont ensuite repris avec 50 μL d'eau mQ. Deux μL de cette solution oligonucléotidique sont incubés avec un mélange comprenant 4 μL de tampon d'interaction 5X (15 mM Tris-HCl, pH 7,5, 50 mM KCl, 1,5 mM EDTA, 10% glycérol, 1,5 mM DTT), 2 μL de polydIdC à 0,6 μg/μL, 1 μL de BSA à 10 μg/μL ainsi qu'une quantité adéquat en protéine pure, d'extraits nucléaires de cellules HT-29 ou de lysat de réticulocytes (voir partie 1.3.2). Ces expériences ont également été réalisées en présence de NAD+ (0,1 ; 1 ; 2,5 ou 5 mM) ou de l'ATP (1 ; 2,5 ; 5 ou 10 mM), ces molécules sont alors préalablement 161 CHAPITRE V : Materiel et méthodes incubées avec les protéines pendant 30 min à 4°C, puis ajoutées au mélange. Après 30 min d'incubation, les échantillons sont déposés sur un gel de polyacrylamide non dénaturant à 6 % (rapport acrylamide:bisacrylamide 37,5:1, TBE 0,5X). L'électrophorèse s'effectue à 300 V pendant 3H contre un tampon TBE 0,5X. Le gel est ensuite séché et analysé au phosphoImager. Le pourcentage de complexe formé par rapport à l'ADN libre est quantifié par le logiciel Image Quant TL (GE Healthcare). 2.3.4. CASTing Cette technique consiste en l'utilisation d'oligonucléotides aléatoires double brin non alkylés qui sont ensuite sélectionnés pour leurs interactions avec la GAPDH pure d'érythrocytes humains via des retards sur gel (voir partie 2.3.3). Les oligonucléotides aléatoires sont incubés pendant 30 min à 4°C avec de la GAPDH dans un volume final de 20 μL de solution d'interaction contenant 300 mM de NaCl. Les solutions d'oligonucléotides non marqués sont préparées en quantité 20 fois plus importante que la quantité de solution d'oligonucléotides marqués. Puisque le pool d'oligonucléotides présente au départ une faible proportion de molécules d'ADN capables d'interagir avec la GAPDH, plusieurs cycles de sélection sont nécessaires. Une amplification par PCR des fragments isolés du complexe ADN/protéine est réalisée après chaque round de sélection. Cette PCR est possible grâce aux fragments d'ADN non aléatoires présents à l'extrémité de l'oligonucléotide double brin, qui peut alors interagir avec des amorces (rouge): 5'-GTAGCGACGCTCACTCACA(N)16 GGAGGTCTAGGCGTCAATCT CCTCCAGATCCGCAGTTAGA-5' 5'-GTAGCGACGCTCACTCACA 3'-CATCGCTGCGAGTGAGTGT(N)16 CCTCCAGATCCGCAGTTACT La PCR est réalisée avec les solutions du kit Platinium PCR Super Mix High Fidelity (Invitrogen) dans un volume final de 50 μL, comprenant 0,8 μM de chacun des primers. Le cycle PCR est le suivant : -3 min à 90°C -3 min à 90°C, 2min à 60°C puis 2min à 72°C (cycle répété 30 fois) -15 min à 72°C -diminution de la température jusqu'à 4°C Le cycle sélection/amplification est répété 6 fois afin d'augmenter de façon exponentielle l'abondance dans le mélange des séquences préférentielles. 162 CHAPITRE V : Materiel et méthodes Figure 98: CASTing. La GAPDH est incubée avec un oligonucléotide contenant des séquences aléatoires. L'oligonucléotide du complexe ADN/protéine est amplifié par PCR, pour être ensuite réincubé avec la GAPDH pure. Après 6 cycles, l'ADN est amplifié en bactérie puis séquencé. Afin d'amplifier de manière importante la quantité d'oligonucléotide finale, ceux-ci sont insérés dans un plasmide qui se multipliera en bactérie. Pour cela, les sites de restrictions des enzymes SacI et KpnI sont ajoutées aux extrémités de l'oligonucléotide double brin par PCR. Ces oligonucléotides sont alors insérés dans un vecteur d'amplification (voir partie 2.1.1), amplifiés puis séquencés. Les séquences obtenues sont alignées manuellement ou par divers logiciels informatiques. 2.4. Analyses protéomiques 2.4.1. Electrophorèse monodimensionnelle (1D) L'électrophorèse 1D réalisée avec le système Biorad PROTEAN II XL Cell nous permet de séparer les protéines éluées des colonnes de chromatographie. Les échantillons sont repris dans 50 μL de tampon de charge 2X (100 mM Tris HCl, pH 6,8 ; 200 mM DTT, 4% SDS, 20% glycérol et 0,2% bleu de bromophénol) et déposés sur un gel d'acrylamide (rapport acrylamide/bisacrylamide 37,5/1 ; gel de concentration à 5%: 0,125 M Tris pH 6,8 ; 0,1% SDS ; 0,1% APS ; 0,01% TEMED ; gel de séparation à 10%: 0,375 M Tris pH 8,8 ; 0,1% SDS ; 0,1% APS ; 0,01% TEMED). La migration s'effectue dans un tampon de migration (25 mM Tris pH 8; 192 mM glycine ; 0,1% SDS) pendant 18H à 12 mA. Les gels sont ensuite fixés et colorés au nitrate d'argent selon le protocole du fournisseur (kit ProteoSilver, Sigma). Après comparaison des échantillons contenant les protéines qui étaient fixées à l'ADN seul et ceux contenant les protéines retenues par les adduits ADN/S23906-1, les spots d'intérêt sont excisés et décolorés selon le protocole du fournisseur (kit ProteoSilver, Sigma). Deux-cent μL d'une solution de carbonate d'ammonium 0,5% / acétonitrile 50% sont déposés sur chaque spot. Les fragments de gel sont séchés au Speed-Vac puis les protéines sont hydrolysées par 10 μL d'une solution de trypsine (Promega) à 4 μg/mL dans du bicarbonate d'ammonium 50 mM à pH 8,5. Cette endoprotéase hydrolyse la liaison peptidique après un acide aminé basique (lysine ou arginine) sauf si elle implique une proline. 163 CHAPITRE V : Materiel et méthodes Après une incubation de 18H à 37°C, les peptides sont extraits du gel par ajout de 25 μL puis de 10 μL d'une solution de TFA (acide trifluoroacetique) 0,1% / acétonitrile 50% pendant 30 min. La solution peptidique est séchée au Speed-Vac puis reprise par 10 μL de TFA 0,1%. Cette solution est dessalée par des colonnes de micro-dessalage μC18 Zip-TipTM (Millipore). Les peptides sont repris avec une solution d'acide α-cyano-4-hydroxycinnamique à 5 mg/mL dans du TFA 0,1% / acétonitrile 50% et déposés sur la cible MALDI-TOF. L'analyse est effectuée en mode réflecteur et de polarité positive (intensité du laser : 2300 ; voltage d'accélération : 20 kV). 2.4.2. Electrophorèse bidimensionnelle (2D) Cette technique nous a permis de séparer les protéines pures de GAPDH du commerce ainsi que les protéines contenues dans certaines élutions des colonnes de chromatographie. 2.4.2.1. Première dimension Les protéines sont d'abord séparées selon leur point isoélectrique (pI). Elles sont reprises avec 100 μL de solution de réhydratation (7M Urée ; 2M Thiourée; 4% Chaps; 0,4% Triton X-100; Bleu de Bromophénol à 0,025%) contenant 20 mM de DTT et 0,46% d'Ampholytes 3-10 (Bio-Rad) et déposé contre une strip, dans un portoir adapté à l'appareil IEF Cell de chez Bio-Rad. Les strips (Bio-Rad) sont des gels déshydratés formés par un gradient de pH immobilisé de 3 à 10. Ils sont préalablement réhydratés de manière passive pendant 16H avec 400 μL de la solution de réhydratation. Le programme d'isoélectrofocalisation est le suivant : • Étape 1 : 50 V en montée rapide pendant 14H • Étape 2 : 200 V en montée rapide pendant 2H • Étape 3 : 200 V à 1 000 V en gradient linéaire pendant 2H • Étape 4 : 1 000 V à 8 000 V en gradient linéaire pendant 4H • Étape 5 : 8 000 V maintenus pendant 6H 2.4.2.2. Equilibration Afin de réduire les ponts disulfure, les strips sont ensuite placées dans 10 mL de tampon d'équilibration (68 mM de Tris pH 8,8 ; 8 M d'Urée; 2% de SDS; 40% de glycérol) contenant 1% de DTT et mise sous agitation pendant 15 min. Les cystéines sont ensuite alkylées sous agitation pendant 20 min à l'obscurité dans 10 mL de tampon d'équilibration contenant 1,6% d'iodoacétamide et 5 mg de bleu de bromophénol qui permettra le suivi de la 164 CHAPITRE V : Materiel et méthodes migration. Les strips sont rincées dans 10 mL de tampon d'électrophorèse 1X (25 mM Tris ; 200 mM glycine ; 0,1% SDS ; 5 mM thiosulfate de sodium). 2.4.2.3. Deuxième dimension Les gels 2D forment un gradient 9-15% de polyacrylamide, ils sont coulés la veille de leur utilisation afin d'éviter la formation d'adduits d'acrylamide avec les résidus cystéines des protéines et sont stockés à 4°C. Le gradient est obtenu par mélange de deux phases : Phase « légère » 9% Solution stock d'acrylamidea 5,2 mL Tampon d'électrophorèse 4X 4,4 mL SDS 10% 177,5 μL Glycérol Eau Ultra-Pure 8 mL Temed 10,4 μL APS 99,6 μL a 40% acrylamide + 30% piperazine di-Acrylamide Phase « lourde » 15% 8,6 mL 4,4 mL 177,5 μL 4,8 mL 8,9 μL 66,6 μL Tableau 9 : Composition des différentes phases du gradient de polyacrylamide. Une fois la strip déposée, un gel d'agarose « low melting » à 1% dans du tampon d'électrophorèse 1X est coulé pour la maintenir. Deux μL de marqueur de poids moléculaire (InvitrogenTM) sont déposés. Les gels 2D sont placés dans les cuves PROTEAN II XL Cell pour une migration dans du tampon d'électrophorèse 1X pendant 18H à 12 mA à 10°C. Les gels sont fixés et colorés de manière identique aux gels 1D. 2.4.3. Electrophorèse 2D-DIGE, marquage à saturation Cette technique a été mise au point dans le but d'identifier indirectement les protéines cibles du composé JLK1486 qui présente la capacité d'interagir avec les groupements thiols. Dix μg de protéines de lysat de cellules HT-29 (voir partie 1.3.2) sont incubées ou non avec 100 μM de JLK1486 dans une solution finale de 50 μL d'acétate d'ammonium 1 mM. Après 2H d'incubation à l'obscurité, chaque pool de 10 μg de protéines (alkylées ou non par le JLK1486) est divisé en deux et marqué avec chacun des fluorochromes du kit de 2D-DIGE au niveau de toutes les cystéines des protéines (25-8009-83 ; 25-8009-84 ; 29-9366-83, GE Healthcare) de la manière suivante : - 5 μg protéines incubées avec le JLK + 4 nmol de Cy5 - 5 μg protéines incubées avec le JLK + 4 nmol de Cy3 - 5 μg protéines non incubées avec le JLK + 4 nmol de Cy5 - 5 μg protéines non incubées avec le JLK + 4 nmol de Cy3 165 CHAPITRE V : Materiel et méthodes Le marquage est effectué pendant 30 min à l'obscurité à 37°C. Puis les protéines incubées avec le JLK1486 sont mélangées avec les protéines sans JLK1486 marquées avec un fluorochrome différent, comme indiqué ci-dessous : - 5 μg avec JLK Cy5 + 5 μg sans JLK Cy3 - 5 μg avec JLK Cy3 + 5 μg sans JLK Cy5 Les protéines sont immédiatement reprises dans 100 μL de solution de réhydratation (contenant ampholytes et DTT) pour stopper la réaction puis celles-ci sont déposées sur une strip 3-10 ou 4-7. Le protocole utilisé pour l'électrophorèse 2D de ces gels dit « analytiques » est détaillé dans la partie électrophorèse 2D, cependant l'expérience est réalisée à l'obscurité. Les gels sont également en gradient 9-15% d'acrylamide mais nous avons utilisé également des gels pré-coulés de gradient 8-16% (161-1453, Biorad). Après migration, les gels sont scannés avec un Ettan-DIGE Imager (GE Healthcare). Les différences d'intensité de fluorescence entre les protéines incubées et non incubées avec le JLK1486 sont quantifiées par le logiciel SameSpot (Progenesis). En parallèle, des gels d'électrophorèse 2D classiques, dit « préparatifs » sont réalisés avec 250 μg de protéines totales de cellules HT-29 non incubées avec le JLK1486. Ces gels sont colorés au nitrate d'argent. Les spots d'intérêt observés préalablement en fluorescence sur les gels « analytiques » sont excisés et analysés par MALDI-TOF. 2.4.4. Western-blotting Cette expérience est réalisée avec le système Mini-PROTEAN® Tetra Cell (Biorad). Les protéines sont reprises dans du tampon de charge 2X (100 mM Tris HCl, pH 6,8 ; 200 mM DTT, 4% SDS, 20% glycérol et 0,2 % bleu de bromophénol) et dénaturées 3 min à 100°C. Dix μg d'échantillon sont déposés sur un gel d'acrylamide (gel de concentration : 5% acrylamide/bisacrylamide 37,5/1 ; 0,125 M Tris, pH 6,8 ; 0,1% SDS ; 0,1% APS ; 0,01% TEMED ; gel de séparation : 10% acrylamide/bisacrylamide 37,5/1 ; 0,375 M Tris ; pH 8,8 ; 0,1% SDS ; 0,1% APS ; 0,01% TEMED) et la migration s'effectue dans le tampon de migration (25 mM Tris pH 8; 192 mM glycine ; 0,1% SDS) pendant 2H à 110 V. Après migration, le gel est transféré sur une membrane PVDF (Polyvinylidene fluoride) (GE Healthcare) pendant 90 min à 100 V dans un tampon de transfert à 4°C (192 mM glycine ; 25 mM Tris, pH 8,3 ; 0,1% SDS ; 20% méthanol). La membrane est ensuite saturée pendant 1H dans 10 mL de solution de saturation (10 mM Tris-HCl pH 8.0 ; 150 mM NaCl ; 0,1% Tween 20 ; 1% lait) afin de limiter les interactions non spécifiques de l'anticorps sur la membrane. 166 CHAPITRE V : Materiel et méthodes Puis elle est incubée avec 10 mL de tampon T (10 mM Tris-HCl pH 8.0 ; 150 mM NaCl ; 0,1% Tween 20 ; 0,1% lait) contenant l'anticorps primaire pendant 1H sous agitation. Deux lavages successifs de 10 min sous agitation sont réalisés avec 10 mL de tampon T, puis la membrane est incubée avec 10 mL de tampon T contenant l'anticorps secondaire couplé à la peroxydase (HRP) pendant 1H sous agitation. Les anticorps utilisés dans les diverses expériences sont regroupés dans le tableau suivant : Anticorps primaire Fournisseur GAPDH (37KDa) Mouse Topoisomérase (110KDa) Goat Histone H3 (17KDa) Rabbit HSC-70 (70KDa) Mouse HMG-1 (24KDa) Goat tebu-bio (sc-47524) tébu-bio (sc5342) Cell Signaling (05-928) tébu-bio (sc7298) tébu-bio (sc26351) Dilution Anticorps secondaire couplés HRP 1/300 Goat anti-mouse IgG-HRP 1/300 Donkey anti-goat IgG-HRP 1/5000 Goat anti-rabbit IgG-HRP 1/300 Goat anti-mouse IgG 1/300 Donkey anti-goat IgG-HRP Fournisseur tebu-bio (sc2031) tebu-bio (sc2020) tebu-bio (sc2004) tebu-bio (sc2031) tebu-bio (sc2020) Dilution 1/20.000 1/20.000 1/35.000 1/20.000 1/20.000 Tableau 10 : Anticorps utilisés lors des différentes expériences de western-blot et de retard en gel. Trois lavages successifs de 10 min dans 10 mL de tampon T sont à nouveau réalisés avant un 4ème lavage dans 10 mL de tampon T ne contenant pas de Tween. L'activité HRP couplée aux anticorps retenus par les protéines d'intérêt sur la membrane sont révélées par chimioluminescence avec le kit ECL (GE Healthcare) sur des films radiographiques (GE Healthcare). 3. Approches cellulaires 3.1. Culture cellulaire Les cellules de carcinome de colon humain HT-29 (ATCC: HTB-38) ou d'adénocarcinome de poumon humain A549 (ATCC: CCL-185) sont cultivées dans un milieu DMEM-glutaMAX (Invitrogen) auquel sont classiquement ajoutés 10% de SVF (sérum de veau foetal) et 1% de mélange pénicilline-streptomycine (pénicilline G : 10000 U/mL, streptomycine 10 μg/mL, Invitrogen). Les cellules sont maintenues en culture à 37°C avec 5% de CO2 dans une étuve sous atmosphère humide (90%). L'ensemencement s'effectue dans une flasque T150 (150 cm2) tous les 2 à 3 jours à raison de 200.000 cellules/mL. 167 CHAPITRE V : Materiel et méthodes 3.2. Microscopie de fluorescence 3.2.1. réel Localisation de la GAPDH exogène en temps 3.2.1.1. Localisation subcellulaire de la GAPDH avant traitement Le plasmide exprimant la GAPDH-GFP nous a été généreusement fourni par le Dr Jean-Luc Dreyer de l'Université de Fribourg. La transfection d'un million de cellules A549 par 20 μg de plasmide est réalisée avec un kit d'électroporation (kit T, programme X-001, Amaxa). 60.000 cellules électroporées sont tout d'abord ensemencés dans chacun des puits de lames compartimentées (8 puits, LabTech, VWR), dans 500 μL de milieu DMEM-glutaMAX sans SVF ni antibiotiques. Le milieu de culture est changé 6H après la transfection. Après une incubation de 18H supplémentaires, les cellules sont fixées pendant 5 min par 200 μL de méthanol 100% à -20°C. Les cellules sont perméabilisées avec 0,2% de Triton X-100 dans du PBS (Invitrogen) pendant 10 min à température ambiante, puis incubées pendant 30 min avec 3% de BSA dans du PBS. Puis les cellules sont lavées 5 min par 500 μL de PBS. Enfin, la préparation est scellée entre lame et lamelle dans 8 μL/puits d'une solution de «Vectashield+DAPI» (VECTOR). Le DAPI ou 4',6'-diamidino-2-phénylindole, λexc 359 nm et λem 461 nm) se fixe sur les régions riches en paires de bases AT de l'ADN et marque ainsi le noyau d'une fluorescence bleue. Les lames sont observées au microscope droit à fluorescence LEICA® et les images sont captées par le logiciel Qfluo. 3.2.1.2. Localisation subcellulaire de la GAPDH après traitement (Time Lapse) Les cellules sont électroporées selon le même protocole que précédemment, puis 60.000 cellules sont ensemencées sur une boîte de pétri contenant un fond en verre (glass base Dish, VWR) de 1 cm de diamètre. Après une incubation de 24H, les cellules sont traitées directement dans l'enclos du Time Lapse (ASMDW, LEICA®), avec 1,5μM de S23906-1 dans 500 μL de milieu. Une photographie est prise toutes les 30 secondes pendant 6H. 168 CHAPITRE V : Materiel et méthodes 3.2.2. Localisation de la GAPDH endogène (Confocal) Les images en microscopie à fluorescence classique ont une perte de résolution due à l'excitation des fluorochromes se situant hors du plan focal. En effet les fluorochromes sont excités par le laser (Light Amplification by Stimulated Emission of Radiation) sur toute l'épaisseur de la préparation, ce qui se traduit par une image contaminée par un bruit de fond. L'objectif de la microscopie confocale à balayage laser est d'éliminer la lumière provenant des plans défocalisés qui parasitent le plan focal. Les cellules HT-29 et A549 sont ensemencées dans 500μL de milieu de culture sur des lames compartimentées en 8 puits (LabTech, VWR) à la densité de 60.000 cellules/mL. Après 24H d'incubation, les cellules sont traitées avec 250 μL d'une solution contenant soit: - 1 mM de H2O2 pendant 1H puis remplacé par du milieu neuf pendant 24H -750 μM de glutathion nitrosylé pendant 24H -2,5 ou 5 μM de S23906-1 pendant 24H Les cellules sont ensuite lavées par 500μL de PBS puis fixées pendant 5min par 200 μL de méthanol 100% à -20°C. Les cellules sont perméabilisées avec 0,2% de Triton X-100 dans du PBS pendant 10 min à température ambiante, puis incubées pendant 30 min avec 3% de BSA dans du PBS. Les cellules sont lavées pendant 5 min par 500 μL de PBS. Elles sont ensuite incubées avec 200 μL d'anticorps primaire dirigé contre la GAPDH dilué au 1/100ème dans du PBS. Après 1H d'incubation, les cellules sont lavées deux fois 5min au PBS, puis incubées avec l'anticorps secondaire anti-mouse AlexaFluor 488 (λexc 495, λem 519, Invitrogen) dilué au 1/2000ème. Après 1H d'incubation, les cellules sont de nouveau lavées deux fois 5min avec du PBS. Enfin, la préparation est scellée entre lame et lamelle dans 8 μL/puit d'une solution de «Vectashield+DAPI» (VECTOR). Les lames sont observées au microscope confocal Zeiss (LSM710) permettant de visualiser la localisation de la GAPDH après traitement au S23906-1. Les images sont captées par le logiciel ZEN 2009. 3.3. Transfection transitoire d'un siRNA 3.3.1. Mise au point du protocole Le siRNA (small interference RNA) se fixe spécifiquement à l'ARNm cible et permet ainsi d'éteindre l'expression du gène. Chacune des expériences réalisées avec le siRNA dirigé contre la GAPDH (Ambion) est contrôlée par l'utilisation d'un siRNA dit « Négatif » (Ambion) correspondant à une séquence de siRNA aléatoire ne ciblant aucun ARNm. La mise 169 CHAPITRE V : Materiel et méthodes au point du protocole a été réalisée sur des plaques 24 puits (voir le protocole 2.3.2). Pour cela, une gamme de 0 ; 25 ; 50 ; 100 ou 250 nM de siRNA ainsi qu'une gamme de 1 ; 2 ou 3 μL de lipofectamine par puits a été évaluée. Les quantités de 50 nM de siRNA et 2 μL de lipofectamine ont été retenues suite à des tests de transfection d'un siRNA fluorescent (442524, Invitrogen) en cytométrie en flux puis d'une validation de la diminution du taux d'expression en western-blot. Les quantités ont ensuite été adaptées pour les expériences de survie cellulaire. 3.3.2. Préparation des cellules pour l'étude du cycle cellulaire et contrôle du taux d'expression de la GAPDH Cette expérience est réalisée dans le but d'observer l'effet d'une inhibition de l'expression de la GAPDH sur l'activité cytotoxique du S23906-1, mais également pour contrôler la diminution d'expression de la GAPDH lors des expériences de MTS ou encore de cycle cellulaire. Dans ce cas, les cellules ont été lysées et le niveau d'expression de la protéine identifié en western-blot. Les cellules HT29 sont ensemencées dans 500 μL de milieu à la densité de 12.000 cellules/mL et incubées pendant 24H à 37°C dans des plaques 24 puits. Le mélange siRNA/lipofectamine/OptiMEM est ensuite préparé de la manière suivante : un volume de lipofectamine (2 μL final/puits) est tout d'abord « activée » dans 40 μL de milieu OptiMEM (Invitrogen) pendant 10 min. Le siRNA est ensuite ajouté à cette solution à une concentration final/puits de 25 ou 50 nM pendant 20 min dans 80 μL final d'OptiMEM. Enfin 40 μL de DMEM-glutaMAX sans SVF ni antibiotique sont ajoutés. Cette solution finale est déposée dans chacun des puits. Après 6H d'incubation à 37°C, cette solution est remplacée par 100 μL de milieu neuf (contenant SVF et antibiotiques) pendant 42H supplémentaires. Les cellules sont alors prêtes à être lysées pour la validation de l'invalidation en western-blot ou incubées avec des concentrations croissantes en S23906-1 pour des mesures de survie cellulaire. 3.3.3. Préparation des cellules pour le test de survie Les cellules HT29 sont ensemencées dans 100 μL de milieu à la densité de 15.000 cellules/mL et incubées pendant 24H à 37°C dans des plaques 96 puits. La Lipofectamine RNAi Max®(Invitrogen) à 0,5 μL final/puits est « activée » dans 10 μL de milieu OptiMEM (Invitrogen) pendant 10 min, le siRNA est ensuite ajouté à cette solution à une concentration final/puits équivalente à 25 ou 50 nM et incubé pendant 20 min supplémentaires dans 20 μL 170 CHAPITRE V : Materiel et méthodes final d'OptiMEM. Enfin, 10 μL de DMEM-glutaMAX sans SVF ni antibiotique sont ajoutés. Cette solution finale est déposée dans chacun des puits pour 6H d'incubation à 37°C. Celle-ci est remplacée par 100 μL de milieu (contenant SVF et antibiotiques) pendant 42H supplémentaires. 3.4. Cytomètrie en flux Les cellules HT29 pré-incubées avec le siRNA sont traitées avec des concentrations croissantes en S23906-1 (0 ; 0,1 ; 0,25 ; 0,5 ; 1 ; 1,5 ; 2,5 ; 5 ; 7,5 ou 10 μM) pendant 48H à 37°C. Les cellules adhérentes sont récupérées par trypsinisation et centrifugées 5 min à 1200 g. Le surnageant est éliminé alors que le culot cellulaire est lavé avec 1 mL de PBS et centrifugé de nouveau à 1200 g pendant 5 min. Les cellules sont fixées dans une solution d'éthanol à 70% à froid pendant 24 heures à -20°C. Après centrifugation 5 min à 1200 g et lavage avec 1 mL de PBS à froid, les cellules sont marquées par une solution d'iodure de propidium à 50 μg/mL (Interchim, France), additionnée de RNase à 100 μg/mL (SigmaAldrich) dans du PBS pendant 30 min à température ambiante et à l'abri de la lumière. L'analyse de la distribution du cycle cellulaire est déterminée sur un cytomètre en flux Becton Dickinson FACScan (BD biosciences) en utilisant le logiciel CellQuestPro (BD biosciences). Les phases du cycle cellulaire sont quantifiées par le logiciel WinMDI. 3.5. Evaluation de la survie cellulaire (MTS) Ce test colorimétrique est basé sur la capacité des mitochondries fonctionnelles (à travers la NADP-déshydrogénase active) à réduire le MTS (3-(4,5-dimethylthiazol-2-yl)-5-(3carboxymethoxyphenyl)-2-(4-sulfophenyl)-2H-tetrazolium)) en cristaux de formazan détectables en spectrométrie visible. Il permet alors d'évaluer les effets des traitements étudiés sur la croissance globale d'une population cellulaire donnée, en déterminant le nombre de cellules vivantes restant au sein de la culture cellulaire analysée. Ce test permet d'évaluer la concentration pour laquelle 50% des cellules sont vivantes après traitement (IC50). Après traitement au siRNA, les 100 μL de milieu de culture sont remplacés par 100 μL de milieu contenant des quantités croissantes en S23906-1. Après 72H d'incubation à 37°C, le réactif MTS (CellTiter 96® Aqueous, Promega) est ajouté à raison de 20 μL par puits et incubé à 37°C pendant 1H. Sa réduction entraîne un changement de couleur de la molécule qui passe du jaune au pourpre. Le pourcentage de cellules vivantes est déterminé par la lecture de l'absorbance à 492 nm des différents échantillons traités ou non. L'absorbance à cette 171 CHAPITRE V : Materiel et méthodes longueur d'onde est maximale lorsque le dérivé tétrazolium est réduit (couleur pourpre). L'IC50 est calculée à partir des courbes de survie par le logiciel SoftMax Pro Sofware. 172 BIBLIOGRAPHIE Bibliographie 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. 20. 21. 22. 23. 24. 25. 26. 27. 28. 29. 30. 31. 32. Paz, M.M., T.A. Das, and M. Tomasz, Mitomycin C linked to DNA minor groove binding agents: synthesis, reductive activation, DNA binding and cross-linking properties and in vitro antitumor activity. Bioorg Med Chem, 1999. 7(12): p. 2713-26. Hoeijmakers, J.H., DNA damage, aging, and cancer. N Engl J Med, 2009. 361(15): p. 1475-85. Reed, J.C. and K.R. Ely, Degrading liaisons: Siah structure revealed. Nat Struct Biol, 2002. 9(1): p. 8-10. Batthyany, C., et al., Reversible post-translational modification of proteins by nitrated fatty acids in vivo. J Biol Chem, 2006. 281(29): p. 20450-63. Hara, M.R., et al., S-nitrosylated GAPDH initiates apoptotic cell death by nuclear translocation following Siah1 binding. Nat Cell Biol, 2005. 7(7): p. 665-74. David-Cordonnier, M.H., et al., Covalent binding of antitumor benzoacronycines to double-stranded DNA induces helix opening and the formation of single-stranded DNA: unique consequences of a novel DNA-bonding mechanism. Mol Cancer Ther, 2005. 4(1): p. 71-80. Abbotts, R. and S. Madhusudan, Human AP endonuclease 1 (APE1): From mechanistic insights to druggable target in cancer. Cancer Treat Rev. Song, S. and T. Finkel, GAPDH and the search for alternative energy. Nat Cell Biol, 2007. 9(8): p. 86970. Neidle, S. and D.E. Thurston, Chemical approaches to the discovery and development of cancer therapies. Nat Rev Cancer, 2005. 5(4): p. 285-96. Kartalou, M., L.D. Samson, and J.M. Essigmann, Cisplatin adducts inhibit 1,N(6)-ethenoadenine repair by interacting with the human 3-methyladenine DNA glycosylase. Biochemistry, 2000. 39(27): p. 80328. Sarkaria, J.N., et al., Mechanisms of chemoresistance to alkylating agents in malignant glioma. Clin Cancer Res, 2008. 14(10): p. 2900-8. Bayir, H. and V.E. Kagan, Bench-to-bedside review: Mitochondrial injury, oxidative stress and apoptosis--there is nothing more practical than a good theory. Crit Care, 2008. 12(1): p. 206. Noll, D.M., T.M. Mason, and P.S. Miller, Formation and repair of interstrand cross-links in DNA. Chem Rev, 2006. 106(2): p. 277-301. David-Cordonnier, M.H., et al., Alkylation of guanine in DNA by S23906-1, a novel potent antitumor compound derived from the plant alkaloid acronycine. Biochemistry, 2002. 41(31): p. 9911-20. Simmons, T.L., et al., Marine natural products as anticancer drugs. Mol Cancer Ther, 2005. 4(2): p. 333-42. David-Cordonnier, M.H., et al., A transesterification reaction is implicated in the covalent binding of benzo[b]acronycine anticancer agents with DNA and glutathion. Bioorg Med Chem, 2004. 12(1): p. 239. Tarze, A., et al., GAPDH, a novel regulator of the pro-apoptotic mitochondrial membrane permeabilization. Oncogene, 2007. 26(18): p. 2606-20. Watson, J.D. and F.H. Crick, Molecular structure of nucleic acids; a structure for deoxyribose nucleic acid. Nature, 1953. 171(4356): p. 737-8. Faguet, G.B., The war on cancer. Springer Editors, 2005. Strebhardt, K. and A. Ullrich, Paul Ehrlich's magic bullet concept: 100 years of progress. Nat Rev Cancer, 2008. 8(6): p. 473-80. Goodman, L.S., Wintrobe, M.M., Dameshek, W. et al. , Use of methyl-bis-B-chloroethylamine hydrochloride for hodgkin's disease, lymphosarcoma, leukemia, and certain allied and miscellaneaous disorders. JAMA, 1946. 132: p. 126-132. Newman, D.J. and G.M. Cragg, Natural products as sources of new drugs over the last 25 years. J Nat Prod, 2007. 70(3): p. 461-77. Thurston, D.E., Chemistry and Pharmacology of anticancer drugs. CRC Press, 2007. Karacetin, D., et al., Capecitabine and oxaliplatin (XELOX) as first-line treatment for patients with metastatic colorectal cancer. J BUON, 2009. 14(4): p. 605-8. Knockaert, M., P. Greengard, and L. Meijer, Pharmacological inhibitors of cyclin-dependent kinases. Trends Pharmacol Sci, 2002. 23(9): p. 417-25. Ruetz, S., et al., Chemical and biological profile of dual Cdk1 and Cdk2 inhibitors. Curr Med Chem Anticancer Agents, 2003. 3(1): p. 1-14. Binaschi, M., F. Zunino, and G. Capranico, Mechanism of action of DNA topoisomerase inhibitors. Stem Cells, 1995. 13(4): p. 369-79. Galm, U., et al., Antitumor antibiotics: bleomycin, enediynes, and mitomycin. Chem Rev, 2005. 105(2): p. 739-58. Pullman, A. and B. Pullman, Molecular electrostatic potential of the nucleic acids. Q Rev Biophys, 1981. 14(3): p. 289-380. McHugh, P.J., et al., Excision repair of nitrogen mustard-DNA adducts in Saccharomyces cerevisiae. Nucleic Acids Res, 1999. 27(16): p. 3259-66. Jagetia, G.C., et al., The evaluation of nitric oxide scavenging activity of certain herbal formulations in vitro: a preliminary study. Phytother Res, 2004. 18(7): p. 561-5. Shukla, P.K., Mishra, P.C., Suhai, S. , Reactions of DNA bases with the anti-cancer nitrogen mustard mechlorethamine: A quantum chemical study Chemical Physics Letters 2007. 449: p. 323-328. Bibliographie 33. 34. 35. 36. 37. 38. 39. 40. 41. 42. 43. 44. 45. 46. 47. 48. 49. 50. 51. 52. 53. 54. 55. 56. 57. 58. 59. 60. Millard, J.T., et al., Sequence preferences of DNA interstrand crosslinking agents: quantitation of interstrand crosslink locations in DNA duplex fragments containing multiple crosslinkable sites. Nucleic Acids Res, 1991. 19(8): p. 1885-91. Rink, S.M. and P.B. Hopkins, A mechlorethamine-induced DNA interstrand cross-link bends duplex DNA. Biochemistry, 1995. 34(4): p. 1439-45. Mishina, Y., E.M. Duguid, and C. He, Direct reversal of DNA alkylation damage. Chem Rev, 2006. 106(2): p. 215-32. Bodell, W.J., DNA alkylation products formed by 1-(2-chloroethyl)-1-nitrosourea as molecular dosimeters of therapeutic response. J Neurooncol, 2009. 91(3): p. 257-64. Eisenbrand, G., et al., DNA adducts and DNA damage by antineoplastic and carcinogenic Nnitrosocompounds. J Cancer Res Clin Oncol, 1986. 112(3): p. 196-204. Ali-Osman, F., A. Rairkar, and P. Young, Formation and repair of 1,3-bis-(2-chloroethyl)-1-nitrosourea and cisplatin induced total genomic DNA interstrand crosslinks in human glioma cells. Cancer Biochem Biophys, 1995. 14(4): p. 231-41. Wiencke, J.K. and J. Wiemels, Genotoxicity of 1,3-bis(2-chloroethyl)-1-nitrosourea (BCNU). Mutat Res, 1995. 339(2): p. 91-119. Ma, L.C., et al., Transcriptional repression of O6-methylguanine DNA methyltransferase gene rendering cells hypersensitive to N,N'-bis(2-chloroethyl)-N-nitrosurea in camptothecin-resistant cells. Mol Pharmacol, 2008. 74(2): p. 517-26. Yu, Y.L., et al., Extended O6-methylguanine methyltransferase promoter hypermethylation following nbutylidenephthalide combined with 1,3-bis(2-chloroethyl)-1-nitrosourea (BCNU) on inhibition of human hepatocellular carcinoma cell growth. J Agric Food Chem. 58(3): p. 1630-8. Kokkinakis, D.M., et al., Sensitization of pancreatic tumor xenografts to carmustine and temozolomide by inactivation of their O6-Methylguanine-DNA methyltransferase with O6-benzylguanine or O6-benzyl2'-deoxyguanosine. Clin Cancer Res, 2003. 9(10 Pt 1): p. 3801-7. Wilds, C.J., F. Xu, and A.M. Noronha, Synthesis and characterization of DNA containing an N1-2'deoxyinosine-ethyl-N3-thymidine interstrand cross-link: a structural mimic of the cross-link formed by 1,3-bis-(2-chloroethyl)-1-nitrosourea. Chem Res Toxicol, 2008. 21(3): p. 686-95. Roberts, J.J. and F. Friedlos, Quantitative estimation of cisplatin-induced DNA interstrand cross-links and their repair in mammalian cells: relationship to toxicity. Pharmacol Ther, 1987. 34(2): p. 215-46. Wang, D. and S.J. Lippard, Cellular processing of platinum anticancer drugs. Nat Rev Drug Discov, 2005. 4(4): p. 307-20. Boudvillain, M., et al., Intrastrand cross-links are not formed in the reaction between transplatin and native DNA: relation with the clinical inefficiency of transplatin. Nucleic Acids Res, 1995. 23(13): p. 2381-8. Bellon, S.F. and S.J. Lippard, Bending studies of DNA site-specifically modified by cisplatin, transdiamminedichloroplatinum(II) and cis-[Pt(NH3)2(N3-cytosine)Cl]+. Biophys Chem, 1990. 35(2-3): p. 179-88. Takahara, P.M., et al., Crystal structure of double-stranded DNA containing the major adduct of the anticancer drug cisplatin. Nature, 1995. 377(6550): p. 649-52. Gelasco, A. and S.J. Lippard, NMR solution structure of a DNA dodecamer duplex containing a cisdiammineplatinum(II) d(GpG) intrastrand cross-link, the major adduct of the anticancer drug cisplatin. Biochemistry, 1998. 37(26): p. 9230-9. Yang, D., et al., Structure and isomerization of an intrastrand cisplatin-cross-linked octamer DNA duplex by NMR analysis. Biochemistry, 1995. 34(39): p. 12912-20. Fouchet, M.H., et al., Synthesis and characterization of a d(ApG) platinated nonanucleotide duplex. Biochem Biophys Res Commun, 1992. 182(2): p. 555-60. Malinge, J.M., C. Perez, and M. Leng, Base sequence-independent distorsions induced by interstrand cross-links in cis-diamminedichloroplatinum (II)-modified DNA. Nucleic Acids Res, 1994. 22(19): p. 3834-9. Coste, F., et al., Crystal structure of a double-stranded DNA containing a cisplatin interstrand cross-link at 1.63 A resolution: hydration at the platinated site. Nucleic Acids Res, 1999. 27(8): p. 1837-46. Huang, H., et al., Solution structure of a cisplatin-induced DNA interstrand cross-link. Science, 1995. 270(5243): p. 1842-5. Zamble, D.B., et al., Repair of cisplatin--DNA adducts by the mammalian excision nuclease. Biochemistry, 1996. 35(31): p. 10004-13. Dabholkar, M., et al., Messenger RNA levels of XPAC and ERCC1 in ovarian cancer tissue correlate with response to platinum-based chemotherapy. J Clin Invest, 1994. 94(2): p. 703-8. Yu, J.J., et al., Alternative splicing of ERCC1 and cisplatin-DNA adduct repair in human tumor cell lines. Int J Mol Med, 1998. 1(3): p. 617-20. Li, Q., et al., Association between the level of ERCC-1 expression and the repair of cisplatin-induced DNA damage in human ovarian cancer cells. Anticancer Res, 2000. 20(2A): p. 645-52. Moggs, J.G., et al., Differential human nucleotide excision repair of paired and mispaired cisplatin-DNA adducts. Nucleic Acids Res, 1997. 25(3): p. 480-91. Pil, P.M. and S.J. Lippard, Specific binding of chromosomal protein HMG1 to DNA damaged by the anticancer drug cisplatin. Science, 1992. 256(5054): p. 234-7. Bibliographie 61. 62. 63. 64. 65. 66. 67. 68. 69. 70. 71. 72. 73. 74. 75. 76. 77. 78. 79. 80. 81. 82. 83. 84. 85. 86. 87. Huang, J.C., et al., HMG-domain proteins specifically inhibit the repair of the major DNA adduct of the anticancer drug cisplatin by human excision nuclease. Proc Natl Acad Sci U S A, 1994. 91(22): p. 10394-8. Fink, D., et al., The role of DNA mismatch repair in platinum drug resistance. Cancer Res, 1996. 56(21): p. 4881-6. Hoffmann, J.S., et al., In vitro bypass replication of the cisplatin-d(GpG) lesion by calf thymus DNA polymerase beta and human immunodeficiency virus type I reverse transcriptase is highly mutagenic. J Biol Chem, 1996. 271(26): p. 15386-92. Vaisman, A., et al., The role of hMLH1, hMSH3, and hMSH6 defects in cisplatin and oxaliplatin resistance: correlation with replicative bypass of platinum-DNA adducts. Cancer Res, 1998. 58(16): p. 3579-85. Lin, X., H.K. Kim, and S.B. Howell, The role of DNA mismatch repair in cisplatin mutagenicity. J Inorg Biochem, 1999. 77(1-2): p. 89-93. Raymond, E., et al., Cellular and molecular pharmacology of oxaliplatin. Mol Cancer Ther, 2002. 1(3): p. 227-35. Dronkert, M.L. and R. Kanaar, Repair of DNA interstrand cross-links. Mutat Res, 2001. 486(4): p. 21747. Caponigro, F., et al., Phase I dose-escalation study of brostallicin, a minor groove binder, in combination with cisplatin in patients with advanced solid tumors. Cancer Chemother Pharmacol. 66(2): p. 389-94. Lorusso, D., et al., Brostallicin (PNU-166196), a new minor groove DNA binder: preclinical and clinical activity. Expert Opin Investig Drugs, 2009. 18(12): p. 1939-46. Geroni, C., et al., Brostallicin, a novel anticancer agent whose activity is enhanced upon binding to glutathione. Cancer Res, 2002. 62(8): p. 2332-6. Swenson, D.H., et al., Mechanism of interaction of CC-1065 (NSC 298223) with DNA. Cancer Res, 1982. 42(7): p. 2821-8. Hurley, L.H., DNA and its associated processes as targets for cancer therapy. Nat Rev Cancer, 2002. 2(3): p. 188-200. Gregson, S.J., et al., Design, synthesis, and evaluation of a novel pyrrolobenzodiazepine DNAinteractive agent with highly efficient cross-linking ability and potent cytotoxicity. J Med Chem, 2001. 44(5): p. 737-48. Hartley, J.A., et al., SJG-136 (NSC 694501), a novel rationally designed DNA minor groove interstrand cross-linking agent with potent and broad spectrum antitumor activity: part 1: cellular pharmacology, in vitro and initial in vivo antitumor activity. Cancer Res, 2004. 64(18): p. 6693-9. Clingen, P.H., et al., The XPF-ERCC1 endonuclease and homologous recombination contribute to the repair of minor groove DNA interstrand crosslinks in mammalian cells produced by the pyrrolo[2,1c][1,4]benzodiazepine dimer SJG-136. Nucleic Acids Res, 2005. 33(10): p. 3283-91. Rahman, K.M., et al., The pyrrolobenzodiazepine dimer SJG-136 forms sequence-dependent intrastrand DNA cross-links and monoalkylated adducts in addition to interstrand cross-links. J Am Chem Soc, 2009. 131(38): p. 13756-66. Hochhauser, D., et al., Phase I study of sequence-selective minor groove DNA binding agent SJG-136 in patients with advanced solid tumors. Clin Cancer Res, 2009. 15(6): p. 2140-7. Janjigian, Y.Y., et al., A phase I trial of SJG-136 (NSC#694501) in advanced solid tumors. Cancer Chemother Pharmacol. 65(5): p. 833-8. David-Cordonnier, M.H., et al., DNA and non-DNA targets in the mechanism of action of the antitumor drug trabectedin. Chem Biol, 2005. 12(11): p. 1201-10. Friedman, D., et al., Ecteinascidin-743 inhibits activated but not constitutive transcription. Cancer Res, 2002. 62(12): p. 3377-81. Jin, S., et al., Ecteinascidin 743, a transcription-targeted chemotherapeutic that inhibits MDR1 activation. Proc Natl Acad Sci U S A, 2000. 97(12): p. 6775-9. Bonfanti, M., et al., Effect of ecteinascidin-743 on the interaction between DNA binding proteins and DNA. Anticancer Drug Des, 1999. 14(3): p. 179-86. Minuzzo, M., et al., Selective effects of the anticancer drug Yondelis (ET-743) on cell-cycle promoters. Mol Pharmacol, 2005. 68(5): p. 1496-503. Martinez, N., et al., Transcriptional signature of Ecteinascidin 743 (Yondelis, Trabectedin) in human sarcoma cells explanted from chemo-naive patients. Mol Cancer Ther, 2005. 4(5): p. 814-23. Takebayashi, Y., et al., Ecteinascidin 743 induces protein-linked DNA breaks in human colon carcinoma HCT116 cells and is cytotoxic independently of topoisomerase I expression. Clin Cancer Res, 2001. 7(1): p. 185-91. Erba, E., et al., Ecteinascidin-743 (ET-743), a natural marine compound, with a unique mechanism of action. Eur J Cancer, 2001. 37(1): p. 97-105. Herrero, A.B., et al., Cross-talk between nucleotide excision and homologous recombination DNA repair pathways in the mechanism of action of antitumor trabectedin. Cancer Res, 2006. 66(16): p. 8155-62. Bibliographie 88. 89. 90. 91. 92. 93. 94. 95. 96. 97. 98. 99. 100. 101. 102. 103. 104. 105. 106. 107. 108. 109. 110. 111. 112. 113. 114. 115. 116. 117. Soares, D.G., et al., Replication and homologous recombination repair regulate DNA double-strand break formation by the antitumor alkylator ecteinascidin 743. Proc Natl Acad Sci U S A, 2007. 104(32): p. 13062-7. Helleday, T., et al., DNA repair pathways as targets for cancer therapy. Nat Rev Cancer, 2008. 8(3): p. 193-204. Hughes, G.K., Lahey, F.N. and Price, J.R., Alkaloids of the Australian Rutaceae. Nature (Lond.), 1948. 162: p. 223-224. Macdonald, P.L., Robertson, A.V. , The structure of acronycine. Aust. J. Chem., 1966. 19: p. 275-281. Gougoutas, J.Z.K., B. A. , crystal and molecular structure of bromodihydroacronycine. Acta Crystallogr., 1970. B26: p. 853-859. Svoboda, G.H., Poore, G.A., Simpson, P.J. and Boder, G.B., Alkaloids of Acronychia baueri. Isolation of the alkaloids and study of the antitumor and other biological properties of acronycine. J. Pharmacol. Sci., 1966. 55: p. 758-768. Scarffe, J.H., A.R. Beaumont, and D. Crowther, Phase I-II evaluation of acronine in patients with multiple myeloma. Cancer Treat Rep, 1983. 67(1): p. 93-4. Dunn, B.P., P.W. Gout, and C.T. Beer, Effects of the antineoplastic alkaloid acronycine on nucleoside uptake and incorporation into nucleic acids by cultured L5178Y cells. Cancer Res, 1973. 33(10): p. 2310-9. Tan, P. and N. Auersperg, Effects of the antineoplastic alkaloid acronycine on the ultrastructure and growth patterns of cultured cells. Cancer Res, 1973. 33(10): p. 2320-9. Low, R.S. and N. Auersperg, Effects of acronycine and of cytochalasin B on the division of rat leukemia cells. Exp Cell Res, 1981. 131(1): p. 15-24. Kessel, D., Effects of acronycine on cell-surface properties of murine leukemia cells. Biochem Pharmacol, 1977. 26(11): p. 1077-81. Gout, P.W., B.P. Dunn, and C.T. Beer, Effects of acronycine on nucleic acid synthesis and population growth in mammalian tumor cell cultures. J Cell Physiol, 1971. 78(1): p. 127-38. Dorr, R.T., Liddil, J.D., Development of a parental formulation of the antitumor agent acronycine. J. Drug. Dev., 1988. 1: p. 31-39. Shieh, H.L., J.M. Pezzuto, and G.A. Cordell, Evaluation of the cytotoxic mechanisms mediated by the broad-spectrum antitumor alkaloid acronycine and selected semisynthetic derivatives. Chem Biol Interact, 1992. 81(1-2): p. 35-55. Brum-Bousquet, M., et al., Acronycine epoxide: a new acridone alkaloid from several Sarcomelicope species. Planta Med, 1988. 54(5): p. 470-1. Tillequin, F., [New antitumor agents in the acronycine series]. Ann Pharm Fr, 2002. 60(4): p. 246-52. Costes, N., et al., Synthesis and cytotoxic and antitumor activity of benzo[b]pyrano[3, 2-h]acridin-7-one analogues of acronycine. J Med Chem, 2000. 43(12): p. 2395-402. Nguyen, Q.C., et al., Acronycine derivatives: a promising series of anticancer agents. Anticancer Agents Med Chem, 2009. 9(7): p. 804-15. Michel, S., T. Gaslonde, and F. Tillequin, Benzo[b]acronycine derivatives: a novel class of antitumor agents. Eur J Med Chem, 2004. 39(8): p. 649-55. Do, Q., et al., Structure-activity relationships in the acronycine and benzo[b]acronycine series: role of the pyran ring. Eur J Med Chem, 2008. 43(12): p. 2677-87. Léonce, S., Perez, V., Lambel, S., Burbridge, M., Tillequin, F., Koch, F., Pfeiffer, B., Pierré, A., and Atassi, G., Cytotoxic and cell cycle effect of S23906-1, a new acronycine derivative. Proc. Am. Assoc. Cancer Res., 2000. 41: p. 601. Guilbaud, N., et al., Marked antitumor activity of a new potent acronycine derivative in orthotopic models of human solid tumors. Clin Cancer Res, 2001. 7(8): p. 2573-80. Leonce, S., et al., Induction of cyclin E and inhibition of DNA synthesis by the novel acronycine derivative S23906-1 precede the irreversible arrest of tumor cells in S phase leading to apoptosis. Mol Pharmacol, 2001. 60(6): p. 1383-91. Kluza, J., et al., Induction of apoptosis in HL-60 leukemia and B16 melanoma cells by the acronycine derivative S23906-1. Biochem Pharmacol, 2002. 63(8): p. 1443-52. Leonce, S., et al., Generation of replication-dependent double-strand breaks by the novel N2-Galkylator S23906-1. Cancer Res, 2006. 66(14): p. 7203-10. Cahuzac, N., et al., An unusual DNA binding compound, S23906, induces mitotic catastrophe in cultured human cells. Cancer Lett. 289(2): p. 178-87. David-Cordonnier, M.H., et al., Covalent binding to glutathione of the DNA-alkylating antitumor agent, S23906-1. Eur J Biochem, 2003. 270(13): p. 2848-59. David-Cordonnier, M.H., et al., Design of novel antitumor DNA alkylating agents: the benzacronycine series. Curr Med Chem Anticancer Agents, 2004. 4(2): p. 83-92. Chen, M., A.M. Hough, and T.S. Lawrence, The role of p53 in gemcitabine-mediated cytotoxicity and radiosensitization. Cancer Chemother Pharmacol, 2000. 45(5): p. 369-74. Graham, F.L. and G.F. Whitmore, Studies in mouse L-cells on the incorporation of 1-beta-Darabinofuranosylcytosine into DNA and on inhibition of DNA polymerase by 1-beta-Darabinofuranosylcytosine 5'-triphosphate. Cancer Res, 1970. 30(11): p. 2636-44. Bibliographie 118. 119. 120. 121. 122. 123. 124. 125. 126. 127. 128. 129. 130. 131. 132. 133. 134. 135. 136. 137. 138. 139. 140. 141. 142. 143. 144. 145. 146. Tran-Thi, H.A., et al., Synthesis and cytotoxic activity of pyranocarbazole analogues of ellipticine and acronycine. Chem Pharm Bull (Tokyo), 2004. 52(5): p. 540-5. Thi Mai, H.D., et al., Structure-activity relationships and mechanism of action of antitumor benzo[b]pyrano[3,2-h]acridin-7-one acronycine analogues. J Med Chem, 2003. 46(14): p. 3072-82. Bosco, E.E., et al., RB signaling prevents replication-dependent DNA double-strand breaks following genotoxic insult. Nucleic Acids Res, 2004. 32(1): p. 25-34. Pourquier, P., et al., Induction of topoisomerase I cleavage complexes by 1-beta -Darabinofuranosylcytosine (ara-C) in vitro and in ara-C-treated cells. Proc Natl Acad Sci U S A, 2000. 97(4): p. 1885-90. Hoeijmakers, J.H., Genome maintenance mechanisms for preventing cancer. Nature, 2001. 411(6835): p. 366-74. Damia, G., et al., Unique pattern of ET-743 activity in different cellular systems with defined deficiencies in DNA-repair pathways. Int J Cancer, 2001. 92(4): p. 583-8. D'Incalci, M. and C.M. Galmarini, A review of trabectedin (ET-743): a unique mechanism of action. Mol Cancer Ther. 9(8): p. 2157-63. Rocca, C.J., et al., The NER proteins XPC and CSB, but not ERCC1, regulate the sensitivity to the novel DNA binder S23906: implications for recognition and repair of antitumor alkylators. Biochem Pharmacol. 80(3): p. 335-43. Wang, Q., et al., Bcl2 negatively regulates DNA double-strand-break repair through a nonhomologous end-joining pathway. Mol Cell, 2008. 29(4): p. 488-98. Sirover, M.A., New insights into an old protein: the functional diversity of mammalian glyceraldehyde3-phosphate dehydrogenase. Biochim Biophys Acta, 1999. 1432(2): p. 159-84. Bruns, G.A.P., Gerald P.S., Human glyceraldehyde-3-dehydrogenase in man-rodent somatic cell hybrids. Sciences, 1976. 192: p. 54-56. Hanauer, A. and J.L. Mandel, The glyceraldehyde 3 phosphate dehydrogenase gene family: structure of a human cDNA and of an X chromosome linked pseudogene; amazing complexity of the gene family in mouse. EMBO J, 1984. 3(11): p. 2627-33. Fort, P., et al., Various rat adult tissues express only one major mRNA species from the glyceraldehyde3-phosphate-dehydrogenase multigenic family. Nucleic Acids Res, 1985. 13(5): p. 1431-42. Piechaczyk, M., et al., Post-transcriptional regulation of glyceraldehyde-3-phosphate-dehydrogenase gene expression in rat tissues. Nucleic Acids Res, 1984. 12(18): p. 6951-63. Welch, J.E., et al., Human glyceraldehyde 3-phosphate dehydrogenase-2 gene is expressed specifically in spermatogenic cells. J Androl, 2000. 21(2): p. 328-38. Meyer-Siegler, K., et al., Proliferative dependent regulation of the glyceraldehyde-3-phosphate dehydrogenase/uracil DNA glycosylase gene in human cells. Carcinogenesis, 1992. 13(11): p. 212732. Mansur, N.R., et al., Cell cycle regulation of the glyceraldehyde-3-phosphate dehydrogenase/uracil DNA glycosylase gene in normal human cells. Nucleic Acids Res, 1993. 21(4): p. 993-8. Franch, H.A., et al., A mechanism regulating proteolysis of specific proteins during renal tubular cell growth. J Biol Chem, 2001. 276(22): p. 19126-31. Epner, D.E. and D.S. Coffey, There are multiple forms of glyceraldehyde-3-phosphate dehydrogenase in prostate cancer cells and normal prostate tissue. Prostate, 1996. 28(6): p. 372-8. Ishitani, R. and D.M. Chuang, Glyceraldehyde-3-phosphate dehydrogenase antisense oligodeoxynucleotides protect against cytosine arabinonucleoside-induced apoptosis in cultured cerebellar neurons. Proc Natl Acad Sci U S A, 1996. 93(18): p. 9937-41. Ishitani, R., et al., An antisense oligodeoxynucleotide to glyceraldehyde-3-phosphate dehydrogenase blocks age-induced apoptosis of mature cerebrocortical neurons in culture. J Pharmacol Exp Ther, 1996. 278(1): p. 447-54. Ishitani, R., et al., Evidence that glyceraldehyde-3-phosphate dehydrogenase is involved in ageinduced apoptosis in mature cerebellar neurons in culture. J Neurochem, 1996. 66(3): p. 928-35. Ishitani, R., et al., Overexpression of glyceraldehyde-3-phosphate dehydrogenase is involved in low K+-induced apoptosis but not necrosis of cultured cerebellar granule cells. Mol Pharmacol, 1997. 51(4): p. 542-50. Tajima, H., et al., Over-expression of GAPDH induces apoptosis in COS-7 cells transfected with cloned GAPDH cDNAs. Neuroreport, 1999. 10(10): p. 2029-33. Shashidharan, P., et al., Nuclear translocation of GAPDH-GFP fusion protein during apoptosis. Neuroreport, 1999. 10(5): p. 1149-53. Tsuchiya, K., et al., Disclosure of a pro-apoptotic glyceraldehyde-3-phosphate dehydrogenase promoter: anti-dementia drugs depress its activation in apoptosis. Life Sci, 2004. 74(26): p. 3245-58. Chen, R.W., et al., Involvement of glyceraldehyde-3-phosphate dehydrogenase (GAPDH) and p53 in neuronal apoptosis: evidence that GAPDH is upregulated by p53. J Neurosci, 1999. 19(21): p. 9654-62. Carlile, G.W., et al., Reduced apoptosis after nerve growth factor and serum withdrawal: conversion of tetrameric glyceraldehyde-3-phosphate dehydrogenase to a dimer. Mol Pharmacol, 2000. 57(1): p. 212. Graven, K.K., et al., Regulation of endothelial cell glyceraldehyde-3-phosphate dehydrogenase expression by hypoxia. J Biol Chem, 1994. 269(39): p. 24446-53. Bibliographie 147. 148. 149. 150. 151. 152. 153. 154. 155. 156. 157. 158. 159. 160. 161. 162. 163. 164. 165. 166. 167. 168. 169. 170. 171. 172. 173. 174. 175. Graven, K.K., et al., Identification of an oxygen responsive enhancer element in the glyceraldehyde-3phosphate dehydrogenase gene. Biochim Biophys Acta, 1999. 1447(2-3): p. 208-18. Said, H.M., et al., Absence of GAPDH regulation in tumor-cells of different origin under hypoxic conditions in - vitro. BMC Res Notes, 2009. 2: p. 8. Desprez, P.Y., D. Poujol, and S. Saez, Glyceraldehyde-3-phosphate dehydrogenase (GAPDH, E.C. 1.2.1.12.) gene expression in two malignant human mammary epithelial cell lines: BT-20 and MCF-7. Regulation of gene expression by 1,25-dihydroxyvitamin D3 (1,25-(OH)2D3). Cancer Lett, 1992. 64(3): p. 219-24. Hansen, C.N., et al., Expression of CPEB, GAPDH and U6snRNA in cervical and ovarian tissue during cancer development. APMIS, 2009. 117(1): p. 53-9. Nahlik, K.W., et al., Modulation of GAPDH expression and cellular localization after vaccinia virus infection of human adherent monocytes. Acta Biochim Pol, 2003. 50(3): p. 667-76. Alexander, M.C., et al., Insulin stimulates glyceraldehyde-3-phosphate dehydrogenase gene expression through cis-acting DNA sequences. Proc Natl Acad Sci U S A, 1988. 85(14): p. 5092-6. Alexander-Bridges, M., et al., Multiple insulin-responsive elements regulate transcription of the GAPDH gene. Adv Enzyme Regul, 1992. 32: p. 149-59. Claeyssens, S., et al., Amino acid control of the human glyceraldehyde 3-phosphate dehydrogenase gene transcription in hepatocyte. Am J Physiol Gastrointest Liver Physiol, 2003. 285(5): p. G840-9. Kim, C.I., et al., Nuclear translocation and overexpression of GAPDH by the hyper-pressure in retinal ganglion cell. Biochem Biophys Res Commun, 2006. 341(4): p. 1237-43. Brattelid, T., et al., Reference gene alternatives to Gapdh in rodent and human heart failure gene expression studies. BMC Mol Biol. 11: p. 22. Biesecker, G., et al., Sequence and structure of D-glyceraldehyde 3-phosphate dehydrogenase from Bacillus stearothermophilus. Nature, 1977. 266(5600): p. 328-33. Rossmann, M.G., et al., Letter: Molecular symmetry axes and subunit interfaces in certain dehydrogenases. J Mol Biol, 1973. 76(4): p. 533-7. Rao, S.T. and M.G. Rossmann, Comparison of super-secondary structures in proteins. J Mol Biol, 1973. 76(2): p. 241-56. Ismail, S.A. and H.W. Park, Structural analysis of human liver glyceraldehyde-3-phosphate dehydrogenase. Acta Crystallogr D Biol Crystallogr, 2005. 61(Pt 11): p. 1508-13. Soukri, A., et al., Role of the histidine 176 residue in glyceraldehyde-3-phosphate dehydrogenase as probed by site-directed mutagenesis. Biochemistry, 1989. 28(6): p. 2586-92. Sirover, M.A., New nuclear functions of the glycolytic protein, glyceraldehyde-3-phosphate dehydrogenase, in mammalian cells. J Cell Biochem, 2005. 95(1): p. 45-52. Cane, D.E. and J.K. Sohng, Inhibition of glyceraldehyde-3-phosphate dehydrogenase by pentalenolactone. 2. Identification of the site of alkylation by tetrahydropentalenolactone. Biochemistry, 1994. 33(21): p. 6524-30. Frohlich, K.U., et al., Pentalenolactone-insensitive glyceraldehyde-3-phosphate dehydrogenase from Streptomyces arenae is closely related to GAPDH from thermostable eubacteria and plant chloroplasts. Arch Microbiol, 1996. 165(3): p. 179-86. Pavao, F., et al., Structure of Trypanosoma cruzi glycosomal glyceraldehyde-3-phosphate dehydrogenase complexed with chalepin, a natural product inhibitor, at 1.95 A resolution. FEBS Lett, 2002. 520(1-3): p. 13-7. Seo, J., et al., Strategy for comprehensive identification of post-translational modifications in cellular proteins, including low abundant modifications: application to glyceraldehyde-3-phosphate dehydrogenase. J Proteome Res, 2008. 7(2): p. 587-602. Reiss, N., et al., Phosphatidylserine directs differential phosphorylation of actin and glyceraldehyde-3phosphate dehydrogenase by protein kinase C: possible implications for regulation of actin polymerization. Biochem Mol Biol Int, 1996. 40(6): p. 1191-200. Reiss, N., H. Kanety, and J. Schlessinger, Five enzymes of the glycolytic pathway serve as substrates for purified epidermal-growth-factor-receptor kinase. Biochem J, 1986. 239(3): p. 691-7. Ashmarina, L.I., et al., Phosphorylation of D-glyceraldehyde-3-phosphate dehydrogenase by Ca2+/calmodulin-dependent protein kinase II. FEBS Lett, 1988. 231(2): p. 413-6. Puder, M. and R.J. Soberman, Glutathione conjugates recognize the Rossmann fold of glyceraldehyde3-phosphate dehydrogenase. J Biol Chem, 1997. 272(16): p. 10936-40. Brodie, A.E. and D.J. Reed, Reversible oxidation of glyceraldehyde 3-phosphate dehydrogenase thiols in human lung carcinoma cells by hydrogen peroxide. Biochem Biophys Res Commun, 1987. 148(1): p. 120-5. Schuppe-Koistinen, I., et al., S-thiolation of human endothelial cell glyceraldehyde-3-phosphate dehydrogenase after hydrogen peroxide treatment. Eur J Biochem, 1994. 221(3): p. 1033-7. Shenton, D. and C.M. Grant, Protein S-thiolation targets glycolysis and protein synthesis in response to oxidative stress in the yeast Saccharomyces cerevisiae. Biochem J, 2003. 374(Pt 2): p. 513-9. Stamler, J.S., et al., S-nitrosylation of proteins with nitric oxide: synthesis and characterization of biologically active compounds. Proc Natl Acad Sci U S A, 1992. 89(1): p. 444-8. Hara, M.R., M.B. Cascio, and A. Sawa, GAPDH as a sensor of NO stress. Biochim Biophys Acta, 2006. 1762(5): p. 502-9. Bibliographie 176. 177. 178. 179. 180. 181. 182. 183. 184. 185. 186. 187. 188. 189. 190. 191. 192. 193. 194. 195. 196. 197. 198. 199. 200. 201. 202. Hara, M.R. and S.H. Snyder, Nitric oxide-GAPDH-Siah: a novel cell death cascade. Cell Mol Neurobiol, 2006. 26(4-6): p. 527-38. Hess, D.T., et al., Protein S-nitrosylation: purview and parameters. Nat Rev Mol Cell Biol, 2005. 6(2): p. 150-66. Du, X., et al., Inhibition of GAPDH activity by poly(ADP-ribose) polymerase activates three major pathways of hyperglycemic damage in endothelial cells. J Clin Invest, 2003. 112(7): p. 1049-57. Devalaraja-Narashimha, K. and B.J. Padanilam, PARP-1 inhibits glycolysis in ischemic kidneys. J Am Soc Nephrol, 2009. 20(1): p. 95-103. Ishii, T., et al., Molecular basis of enzyme inactivation by an endogenous electrophile 4-hydroxy-2nonenal: identification of modification sites in glyceraldehyde-3-phosphate dehydrogenase. Biochemistry, 2003. 42(12): p. 3474-80. Feng, Z., et al., Mutational spectrum and genotoxicity of the major lipid peroxidation product, trans-4hydroxy-2-nonenal, induced DNA adducts in nucleotide excision repair-proficient and -deficient human cells. Biochemistry, 2003. 42(25): p. 7848-54. Tsuchiya, Y., et al., Degradation of glyceraldehyde-3-phosphate dehydrogenase triggered by 4hydroxy-2-nonenal and 4-hydroxy-2-hexenal. Arch Biochem Biophys, 2005. 438(2): p. 217-22. Ganapathy-Kanniappan, S., et al., Glyceraldehyde-3-phosphate dehydrogenase (GAPDH) is pyruvylated during 3-bromopyruvate mediated cancer cell death. Anticancer Res, 2009. 29(12): p. 4909-18. Yamaji, R., et al., Glyceraldehyde-3-phosphate dehydrogenase in the extracellular space inhibits cell spreading. Biochim Biophys Acta, 2005. 1726(3): p. 261-71. Robbins, A.R., R.D. Ward, and C. Oliver, A mutation in glyceraldehyde 3-phosphate dehydrogenase alters endocytosis in CHO cells. J Cell Biol, 1995. 130(5): p. 1093-104. Nakamura, T., et al., HSP90, HSP70, and GAPDH directly interact with the cytoplasmic domain of macrophage scavenger receptors. Biochem Biophys Res Commun, 2002. 290(2): p. 858-64. Raje, C.I., et al., The macrophage cell surface glyceraldehyde-3-phosphate dehydrogenase is a novel transferrin receptor. J Biol Chem, 2007. 282(5): p. 3252-61. Bryksin, A.V. and P.P. Laktionov, Role of glyceraldehyde-3-phosphate dehydrogenase in vesicular transport from golgi apparatus to endoplasmic reticulum. Biochemistry (Mosc), 2008. 73(6): p. 619-25. Tisdale, E.J., Glyceraldehyde-3-phosphate dehydrogenase is phosphorylated by protein kinase Ciota /lambda and plays a role in microtubule dynamics in the early secretory pathway. J Biol Chem, 2002. 277(5): p. 3334-41. Tisdale, E.J., F. Azizi, and C.R. Artalejo, Rab2 utilizes glyceraldehyde-3-phosphate dehydrogenase and protein kinase C{iota} to associate with microtubules and to recruit dynein. J Biol Chem, 2009. 284(9): p. 5876-84. Maruyama, W., et al., Glyceraldehyde-3-phospate dehydrogenase is translocated into nuclei through Golgi apparatus during apoptosis induced by 6-hydroxydopamine in human dopaminergic SH-SY5Y cells. Neurosci Lett, 2002. 321(1-2): p. 29-32. Colell, A., et al., GAPDH and autophagy preserve survival after apoptotic cytochrome c release in the absence of caspase activation. Cell, 2007. 129(5): p. 983-97. Kawamoto, R.M. and A.H. Caswell, Autophosphorylation of glyceraldehydephosphate dehydrogenase and phosphorylation of protein from skeletal muscle microsomes. Biochemistry, 1986. 25(3): p. 657-61. Duclos-Vallee, J.C., et al., Phosphorylation of the hepatitis B virus core protein by glyceraldehyde-3phosphate dehydrogenase protein kinase activity. J Gen Virol, 1998. 79 ( Pt 7): p. 1665-70. Morigasaki, S., et al., Glycolytic enzyme GAPDH promotes peroxide stress signaling through multistep phosphorelay to a MAPK cascade. Mol Cell, 2008. 30(1): p. 108-13. Rodriguez-Pascual, F., et al., Glyceraldehyde-3-phosphate dehydrogenase regulates endothelin-1 expression by a novel, redox-sensitive mechanism involving mRNA stability. Mol Cell Biol, 2008. 28(23): p. 7139-55. Mukhopadhyay, R., et al., The GAIT system: a gatekeeper of inflammatory gene expression. Trends Biochem Sci, 2009. 34(7): p. 324-31. De, B.P., et al., Specific interaction in vitro and in vivo of glyceraldehyde-3-phosphate dehydrogenase and LA protein with cis-acting RNAs of human parainfluenza virus type 3. J Biol Chem, 1996. 271(40): p. 24728-35. Yang, S.H., et al., Glyceraldehyde-3-phosphate dehydrogenase (GAPDH) interaction with 3' ends of Japanese encephalitis virus RNA and colocalization with the viral NS5 protein. J Biomed Sci, 2009. 16: p. 40. Schultz, D.E., C.C. Hardin, and S.M. Lemon, Specific interaction of glyceraldehyde 3-phosphate dehydrogenase with the 5'-nontranslated RNA of hepatitis A virus. J Biol Chem, 1996. 271(24): p. 1413442. Zang, W.Q., et al., Identification of glyceraldehyde-3-phosphate dehydrogenase as a cellular protein that binds to the hepatitis B virus posttranscriptional regulatory element. Virology, 1998. 248(1): p. 4652. Yi, M., D.E. Schultz, and S.M. Lemon, Functional significance of the interaction of hepatitis A virus RNA with glyceraldehyde 3-phosphate dehydrogenase (GAPDH): opposing effects of GAPDH and Bibliographie 203. 204. 205. 206. 207. 208. 209. 210. 211. 212. 213. 214. 215. 216. 217. 218. 219. 220. 221. 222. 223. 224. 225. 226. 227. 228. 229. polypyrimidine tract binding protein on internal ribosome entry site function. J Virol, 2000. 74(14): p. 6459-68. Singh, R. and M.R. Green, Sequence-specific binding of transfer RNA by glyceraldehyde-3-phosphate dehydrogenase. Science, 1993. 259(5093): p. 365-8. Nagy, E. and W.F. Rigby, Glyceraldehyde-3-phosphate dehydrogenase selectively binds AU-rich RNA in the NAD(+)-binding region (Rossmann fold). J Biol Chem, 1995. 270(6): p. 2755-63. Lipton, S.A., et al., A redox-based mechanism for the neuroprotective and neurodestructive effects of nitric oxide and related nitroso-compounds. Nature, 1993. 364(6438): p. 626-32. Benhar, M. and J.S. Stamler, A central role for S-nitrosylation in apoptosis. Nat Cell Biol, 2005. 7(7): p. 645-6. Du, Z.X., et al., Involvement of glyceraldehyde-3-phosphate dehydrogenase in tumor necrosis factorrelated apoptosis-inducing ligand-mediated death of thyroid cancer cells. Endocrinology, 2007. 148(9): p. 4352-61. Ortiz-Ortiz, M.A., et al., Paraquat exposure induces nuclear translocation of glyceraldehyde-3phosphate dehydrogenase (GAPDH) and the activation of the nitric oxide-GAPDH-Siah cell death cascade. Toxicol Sci. 116(2): p. 614-22. Ventura, M., et al., Nuclear translocation of glyceraldehyde-3-phosphate dehydrogenase is regulated by acetylation. Int J Biochem Cell Biol. Linares, L.K., et al., Intrinsic ubiquitination activity of PCAF controls the stability of the oncoprotein Hdm2. Nat Cell Biol, 2007. 9(3): p. 331-8. Park, J., et al., O-GlcNAcylation disrupts glyceraldehyde-3-phosphate dehydrogenase homo-tetramer formation and mediates its nuclear translocation. Biochim Biophys Acta, 2009. 1794(2): p. 254-62. Yang, W.H., et al., NFkappaB activation is associated with its O-GlcNAcylation state under hyperglycemic conditions. Proc Natl Acad Sci U S A, 2008. 105(45): p. 17345-50. Dastoor, Z. and J.L. Dreyer, Potential role of nuclear translocation of glyceraldehyde-3-phosphate dehydrogenase in apoptosis and oxidative stress. J Cell Sci, 2001. 114(Pt 9): p. 1643-53. Saunders, P.A., E. Chalecka-Franaszek, and D.M. Chuang, Subcellular distribution of glyceraldehyde3-phosphate dehydrogenase in cerebellar granule cells undergoing cytosine arabinoside-induced apoptosis. J Neurochem, 1997. 69(5): p. 1820-8. Kragten, E., et al., Glyceraldehyde-3-phosphate dehydrogenase, the putative target of the antiapoptotic compounds CGP 3466 and R-(-)-deprenyl. J Biol Chem, 1998. 273(10): p. 5821-8. Fukuhara, Y., et al., GAPDH knockdown rescues mesencephalic dopaminergic neurons from MPP+ induced apoptosis. Neuroreport, 2001. 12(9): p. 2049-52. Sharma, S.K., E.C. Carlson, and M. Ebadi, Neuroprotective actions of Selegiline in inhibiting 1-methyl, 4-phenyl, pyridinium ion (MPP+)-induced apoptosis in SK-N-SH neurons. J Neurocytol, 2003. 32(4): p. 329-43. Maruyama, W., et al., Transfection-enforced Bcl-2 overexpression and an anti-Parkinson drug, rasagiline, prevent nuclear accumulation of glyceraldehyde-3-phosphate dehydrogenase induced by an endogenous dopaminergic neurotoxin, N-methyl(R)salsolinol. J Neurochem, 2001. 78(4): p. 727-35. Barbini, L., et al., Glyceraldehyde-3-phosphate dehydrogenase exerts different biologic activities in apoptotic and proliferating hepatocytes according to its subcellular localization. Mol Cell Biochem, 2007. 300(1-2): p. 19-28. Saunders, P.A., R.W. Chen, and D.M. Chuang, Nuclear translocation of glyceraldehyde-3-phosphate dehydrogenase isoforms during neuronal apoptosis. J Neurochem, 1999. 72(3): p. 925-32. Xing, C., et al., Identification of GAPDH as a protein target of the saframycin antiproliferative agents. Proc Natl Acad Sci U S A, 2004. 101(16): p. 5862-6. Kodama, R., et al., Nuclear localization of glyceraldehyde-3-phosphate dehydrogenase is not involved in the initiation of apoptosis induced by 1-Methyl-4-phenyl-pyridium iodide (MPP+). Genes Cells, 2005. 10(12): p. 1211-9. Sundararaj, K.P., et al., Rapid shortening of telomere length in response to ceramide involves the inhibition of telomere binding activity of nuclear glyceraldehyde-3-phosphate dehydrogenase. J Biol Chem, 2004. 279(7): p. 6152-62. Tatton, N.A., Increased caspase 3 and Bax immunoreactivity accompany nuclear GAPDH translocation and neuronal apoptosis in Parkinson's disease. Exp Neurol, 2000. 166(1): p. 29-43. Tatton, W.G., et al., (-)-Deprenyl reduces PC12 cell apoptosis by inducing new protein synthesis. J Neurochem, 1994. 63(4): p. 1572-5. Wadia, J.S., et al., Mitochondrial membrane potential and nuclear changes in apoptosis caused by serum and nerve growth factor withdrawal: time course and modification by (-)-deprenyl. J Neurosci, 1998. 18(3): p. 932-47. Bae, B.I., et al., Mutant huntingtin: nuclear translocation and cytotoxicity mediated by GAPDH. Proc Natl Acad Sci U S A, 2006. 103(9): p. 3405-9. Hara, M.R., et al., Neuroprotection by pharmacologic blockade of the GAPDH death cascade. Proc Natl Acad Sci U S A, 2006. 103(10): p. 3887-9. Ishitani, R., et al., Nuclear localization of overexpressed glyceraldehyde-3-phosphate dehydrogenase in cultured cerebellar neurons undergoing apoptosis. Mol Pharmacol, 1998. 53(4): p. 701-7. Bibliographie 230. 231. 232. 233. 234. 235. 236. 237. 238. 239. 240. 241. 242. 243. 244. 245. 246. 247. 248. 249. 250. 251. 252. 253. 254. 255. 256. 257. 258. Sen, N., et al., GOSPEL: a neuroprotective protein that binds to GAPDH upon S-nitrosylation. Neuron, 2009. 63(1): p. 81-91. Meyer-Siegler, K., et al., A human nuclear uracil DNA glycosylase is the 37-kDa subunit of glyceraldehyde-3-phosphate dehydrogenase. Proc Natl Acad Sci U S A, 1991. 88(19): p. 8460-4. Azam, S., et al., Human glyceraldehyde-3-phosphate dehydrogenase plays a direct role in reactivating oxidized forms of the DNA repair enzyme APE1. J Biol Chem, 2008. 283(45): p. 30632-41. Zheng, L., R.G. Roeder, and Y. Luo, S phase activation of the histone H2B promoter by OCA-S, a coactivator complex that contains GAPDH as a key component. Cell, 2003. 114(2): p. 255-66. Demarse, N.A., et al., Direct binding of glyceraldehyde 3-phosphate dehydrogenase to telomeric DNA protects telomeres against chemotherapy-induced rapid degradation. J Mol Biol, 2009. 394(4): p. 789803. Schmitz, H.D., Reversible nuclear translocation of glyceraldehyde-3-phosphate dehydrogenase upon serum depletion. Eur J Cell Biol, 2001. 80(6): p. 419-27. Brown, V.M., et al., A novel CRM1-mediated nuclear export signal governs nuclear accumulation of glyceraldehyde-3-phosphate dehydrogenase following genotoxic stress. J Biol Chem, 2004. 279(7): p. 5984-92. Hwang, N.R., et al., Oxidative modifications of glyceraldehyde-3-phosphate dehydrogenase play a key role in its multiple cellular functions. Biochem J, 2009. 423(2): p. 253-64. Grosse, F., et al., Lactate dehydrogenase and glyceraldehyde-phosphate dehydrogenase are singlestranded DNA-binding proteins that affect the DNA-polymerase-alpha-primase complex. Eur J Biochem, 1986. 160(3): p. 459-67. Segil, N., S.B. Roberts, and N. Heintz, Mitotic phosphorylation of the Oct-1 homeodomain and regulation of Oct-1 DNA binding activity. Science, 1991. 254(5039): p. 1814-6. Dai, R.P., et al., Histone 2B (H2B) expression is confined to a proper NAD+/NADH redox status. J Biol Chem, 2008. 283(40): p. 26894-901. Mitsuzawa, H., et al., Glyceraldehyde-3-phosphate dehydrogenase and actin associate with RNA polymerase II and interact with its Rpb7 subunit. FEBS Lett, 2005. 579(1): p. 48-52. Carlile, G.W., W.G. Tatton, and K.L. Borden, Demonstration of a RNA-dependent nuclear interaction between the promyelocytic leukaemia protein and glyceraldehyde-3-phosphate dehydrogenase. Biochem J, 1998. 335 ( Pt 3): p. 691-6. Wang, J., et al., Promyelocytic leukemia nuclear bodies associate with transcriptionally active genomic regions. J Cell Biol, 2004. 164(4): p. 515-26. Kim, S., J. Lee, and J. Kim, Regulation of oncogenic transcription factor hTAF(II)68-TEC activity by human glyceraldehyde-3-phosphate dehydrogenase (GAPDH). Biochem J, 2007. 404(2): p. 197-206. Morgenegg, G., et al., Glyceraldehyde-3-phosphate dehydrogenase is a nonhistone protein and a possible activator of transcription in neurons. J Neurochem, 1986. 47(1): p. 54-62. Sen, N., et al., Nitric oxide-induced nuclear GAPDH activates p300/CBP and mediates apoptosis. Nat Cell Biol, 2008. 10(7): p. 866-73. Lill, N.L., et al., Binding and modulation of p53 by p300/CBP coactivators. Nature, 1997. 387(6635): p. 823-7. Vollberg, T.M., B.L. Cool, and M.A. Sirover, Biosynthesis of the human base excision repair enzyme uracil-DNA glycosylase. Cancer Res, 1987. 47(1): p. 123-8. Caradonna, S., et al., Affinity purification and comparative analysis of two distinct human uracil-DNA glycosylases. Exp Cell Res, 1996. 222(2): p. 345-59. Vartanian, A., et al., Opposite effects of cell differentiation and apoptosis on Ap3A/Ap4A ratio in human cell cultures. FEBS Lett, 1997. 415(2): p. 160-2. Baxi, M.D. and J.K. Vishwanatha, Uracil DNA-glycosylase/glyceraldehyde-3-phosphate dehydrogenase is an Ap4A binding protein. Biochemistry, 1995. 34(30): p. 9700-7. Krynetski, E.Y., et al., A novel protein complex distinct from mismatch repair binds thioguanylated DNA. Mol Pharmacol, 2001. 59(2): p. 367-74. Krynetski, E.Y., et al., A nuclear protein complex containing high mobility group proteins B1 and B2, heat shock cognate protein 70, ERp60, and glyceraldehyde-3-phosphate dehydrogenase is involved in the cytotoxic response to DNA modified by incorporation of anticancer nucleoside analogues. Cancer Res, 2003. 63(1): p. 100-6. Arutyunova, E.I., et al., Oxidation of glyceraldehyde-3-phosphate dehydrogenase enhances its binding to nucleic acids. Biochem Biophys Res Commun, 2003. 307(3): p. 547-52. Holtgrefe, S., et al., Regulation of plant cytosolic glyceraldehyde 3-phosphate dehydrogenase isoforms by thiol modifications. Physiol Plant, 2008. 133(2): p. 211-28. Dennehy, M.K., et al., Cytosolic and nuclear protein targets of thiol-reactive electrophiles. Chem Res Toxicol, 2006. 19(1): p. 20-9. Loecken, E.M. and F.P. Guengerich, Reactions of glyceraldehyde 3-phosphate dehydrogenase sulfhydryl groups with bis-electrophiles produce DNA-protein cross-links but not mutations. Chem Res Toxicol, 2008. 21(2): p. 453-8. Plowright, A.T., S.E. Schaus, and A.G. Myers, Transcriptional response pathways in a yeast strain sensitive to saframycin a and a more potent analog: evidence for a common basis of activity. Chem Biol, 2002. 9(5): p. 607-18. Bibliographie 259. 260. 261. 262. 263. 264. 265. 266. 267. 268. 269. 270. 271. 272. 273. 274. 275. 276. 277. 278. 279. 280. 281. 282. 283. 284. 285. group, T.d.c.a.c.t.r., The effect of intensive treatment of diaetes on the development and progression of long-term complications in insuli-dependent diabetes mellitus. N. Eng. J. Med., 1993. 329: p. 977-986. Beisswenger, P.J., et al., Glyceraldehyde-3-phosphate dehydrogenase activity as an independent modifier of methylglyoxal levels in diabetes. Biochim Biophys Acta, 2003. 1637(1): p. 98-106. Lee, H.J., et al., Methylglyoxal can modify GAPDH activity and structure. Ann N Y Acad Sci, 2005. 1043: p. 135-45. Carujo, S., et al., Glyceraldehyde 3-phosphate dehydrogenase is a SET-binding protein and regulates cyclin B-cdk1 activity. Oncogene, 2006. 25(29): p. 4033-42. Cumming, R.C. and D. Schubert, Amyloid-beta induces disulfide bonding and aggregation of GAPDH in Alzheimer's disease. FASEB J, 2005. 19(14): p. 2060-2. Burke, J.R., et al., Huntingtin and DRPLA proteins selectively interact with the enzyme GAPDH. Nat Med, 1996. 2(3): p. 347-50. Koshy, B., et al., Spinocerebellar ataxia type-1 and spinobulbar muscular atrophy gene products interact with glyceraldehyde-3-phosphate dehydrogenase. Hum Mol Genet, 1996. 5(9): p. 1311-8. Sunaga, K., et al., Glyceraldehyde-3-phosphate dehydrogenase is over-expressed during apoptotic death of neuronal cultures and is recognized by a monoclonal antibody against amyloid plaques from Alzheimer's brain. Neurosci Lett, 1995. 200(2): p. 133-6. Tamaoka, A., et al., Antibodies to amyloid beta protein (A beta) crossreact with glyceraldehyde-3phosphate dehydrogenase (GAPDH). Neurobiol Aging, 1996. 17(3): p. 405-14. Schulze, H., et al., Rat brain glyceraldehyde-3-phosphate dehydrogenase interacts with the recombinant cytoplasmic domain of Alzheimer's beta-amyloid precursor protein. J Neurochem, 1993. 60(5): p. 1915-22. Butterfield, D.A., S.S. Hardas, and M.L. Lange, Oxidatively modified glyceraldehyde-3-phosphate dehydrogenase (GAPDH) and Alzheimer's disease: many pathways to neurodegeneration. J Alzheimers Dis. 20(2): p. 369-93. Oyama, R., H. Yamamoto, and K. Titani, Glutamine synthetase, hemoglobin alpha-chain, and macrophage migration inhibitory factor binding to amyloid beta-protein: their identification in rat brain by a novel affinity chromatography and in Alzheimer's disease brain by immunoprecipitation. Biochim Biophys Acta, 2000. 1479(1-2): p. 91-102. Naletova, I., et al., Non-native glyceraldehyde-3-phosphate dehydrogenase can be an intrinsic component of amyloid structures. Biochim Biophys Acta, 2008. 1784(12): p. 2052-8. Wang, Q., et al., Proteomic analysis of neurofibrillary tangles in Alzheimer disease identifies GAPDH as a detergent-insoluble paired helical filament tau binding protein. FASEB J, 2005. 19(7): p. 869-71. Tatton, W.G., et al., Glyceraldehyde-3-phosphate dehydrogenase in neurodegeneration and apoptosis signaling. J Neural Transm Suppl, 2000(60): p. 77-100. Boutefnouchet, S., et al., Synthesis, cytotoxic activity, and mechanism of action of furo[2,3-c]acridin-6one and benzo[b]furo[3,2-h]acridin-6-one analogues of psorospermin and acronycine. J Med Chem, 2008. 51(22): p. 7287-97. Ikuta, S., Takagi, K., Bruce Wallace, R., Itakura, K., Dissociation kinetics of 19base paired oligonucleotide-DNA duplexes containing different single mismatch base pairs. Nucleic acid research, 1987. 15(2): p. 797-811. Tibanyenda, N., et al., The effect of single base-pair mismatches on the duplex stability of d(T-A-T-T-AA-T-A-T-C-A-A-G-T-T-G) . d(C-A-A-C-T-T-G-A-T-A-T-T-A-A-T-A). Eur J Biochem, 1984. 139(1): p. 1927. Asai, A., et al., Characterization of a duocarmycin-DNA adduct-recognizing protein in cancer cells. Cancer Res, 1999. 59(21): p. 5417-20. Budiman, M.E., U. Bierbach, and R.W. Alexander, DNA minor groove adducts formed by a platinumacridine conjugate inhibit association of tata-binding protein with its cognate sequence. Biochemistry, 2005. 44(33): p. 11262-8. Pivonkova, H., et al., Recognition of cisplatin-damaged DNA by p53 protein: critical role of the p53 Cterminal domain. Biochem Biophys Res Commun, 2006. 339(2): p. 477-84. Peixoto, P., et al., Direct inhibition of the DNA-binding activity of POU transcription factors Pit-1 and Brn-3 by selective binding of a phenyl-furan-benzimidazole dication. Nucleic Acids Res, 2008. 36(10): p. 3341-53. Massague, J., J. Seoane, and D. Wotton, Smad transcription factors. Genes Dev, 2005. 19(23): p. 2783810. Ross, S., et al., Smads orchestrate specific histone modifications and chromatin remodeling to activate transcription. EMBO J, 2006. 25(19): p. 4490-502. Ramjaun, A.R., et al., Upregulation of two BH3-only proteins, Bmf and Bim, during TGF beta-induced apoptosis. Oncogene, 2007. 26(7): p. 970-81. Pardali, K., et al., Role of Smad proteins and transcription factor Sp1 in p21(Waf1/Cip1) regulation by transforming growth factor-beta. J Biol Chem, 2000. 275(38): p. 29244-56. Qiu, P., X.H. Feng, and L. Li, Interaction of Smad3 and SRF-associated complex mediates TGF-beta1 signals to regulate SM22 transcription during myofibroblast differentiation. J Mol Cell Cardiol, 2003. 35(12): p. 1407-20. Bibliographie 286. 287. 288. 289. 290. 291. 292. 293. 294. 295. 296. 297. 298. 299. 300. 301. 302. 303. 304. 305. 306. 307. 308. 309. 310. 311. 312. 312. Lee, H.J., et al., SRF is a nuclear repressor of Smad3-mediated TGF-beta signaling. Oncogene, 2007. 26(2): p. 173-85. Binato, R., et al., SMAD 8 binding to mice Msx1 basal promoter is required for transcriptional activation. Biochem J, 2006. 393(Pt 1): p. 141-50. Pholnukulkit, P., K. Sonoyama, and J. Kawabata, Activin A induces phosphorylation of Smad2 but not complex formation of Smad2 with Smad4 in human colon cancer cell line HT-29. Biosci Biotechnol Biochem, 2003. 67(9): p. 2042-4. Bustin, M. and R. Reeves, High-mobility-group chromosomal proteins: architectural components that facilitate chromatin function. Prog Nucleic Acid Res Mol Biol, 1996. 54: p. 35-100. Grosschedl, R., K. Giese, and J. Pagel, HMG domain proteins: architectural elements in the assembly of nucleoprotein structures. Trends Genet, 1994. 10(3): p. 94-100. Reeves, R. and J.E. Adair, Role of high mobility group (HMG) chromatin proteins in DNA repair. DNA Repair (Amst), 2005. 4(8): p. 926-38. Reddy, M.C., J. Christensen, and K.M. Vasquez, Interplay between human high mobility group protein 1 and replication protein A on psoralen-cross-linked DNA. Biochemistry, 2005. 44(11): p. 4188-95. Lange, S.S. and K.M. Vasquez, HMGB1: the jack-of-all-trades protein is a master DNA repair mechanic. Mol Carcinog, 2009. 48(7): p. 571-80. Hughes, E.N., B.N. Engelsberg, and P.C. Billings, Purification of nuclear proteins that bind to cisplatindamaged DNA. Identity with high mobility group proteins 1 and 2. J Biol Chem, 1992. 267(19): p. 13520-7. Malina, J., et al., Recognition of major DNA adducts of enantiomeric cisplatin analogs by HMG box proteins and nucleotide excision repair of these adducts. Chem Biol, 2002. 9(5): p. 629-38. Lange, S.S., M.C. Reddy, and K.M. Vasquez, Human HMGB1 directly facilitates interactions between nucleotide excision repair proteins on triplex-directed psoralen interstrand crosslinks. DNA Repair (Amst), 2009. 8(7): p. 865-72. Liu, Y., R. Prasad, and S.H. Wilson, HMGB1: roles in base excision repair and related function. Biochim Biophys Acta. 1799(1-2): p. 119-30. Stros, M., et al., HMGB1 and HMGB2 cell-specifically down-regulate the p53- and p73-dependent sequence-specific transactivation from the human Bax gene promoter. J Biol Chem, 2002. 277(9): p. 7157-64. Nagaki, S., et al., Non-histone chromosomal proteins HMG1 and 2 enhance ligation reaction of DNA double-strand breaks. Biochem Biophys Res Commun, 1998. 246(1): p. 137-41. Stros, M., D. Cherny, and T.M. Jovin, HMG1 protein stimulates DNA end joining by promoting association of DNA molecules via their ends. Eur J Biochem, 2000. 267(13): p. 4088-97. Yuan, F., et al., Evidence for involvement of HMGB1 protein in human DNA mismatch repair. J Biol Chem, 2004. 279(20): p. 20935-40. Genschel, J. and P. Modrich, Functions of MutLalpha, replication protein A (RPA), and HMGB1 in 5'directed mismatch repair. J Biol Chem, 2009. 284(32): p. 21536-44. Ge, H. and R.G. Roeder, The high mobility group protein HMG1 can reversibly inhibit class II gene transcription by interaction with the TATA-binding protein. J Biol Chem, 1994. 269(25): p. 17136-40. Imamura, T., et al., Interaction with p53 enhances binding of cisplatin-modified DNA by high mobility group 1 protein. J Biol Chem, 2001. 276(10): p. 7534-40. Zappavigna, V., et al., HMG1 interacts with HOX proteins and enhances their DNA binding and transcriptional activation. EMBO J, 1996. 15(18): p. 4981-91. Depauw, S., et al., Influence of the stereoisomeric position of the reactive acetate groups of the benzo[b]acronycine derivative S23906-1 on its DNA alkylation, helix-opening, cytotoxic, and antitumor activities. Mol Pharmacol, 2009. 76(6): p. 1172-85. David-Cordonnier, M.H., et al., The DNA binding domain of the human c-Abl tyrosine kinase preferentially binds to DNA sequences containing an AAC motif and to distorted DNA structures. Biochemistry, 1998. 37(17): p. 6065-76. Phadke, M.S., et al., Glyceraldehyde 3-phosphate dehydrogenase depletion induces cell cycle arrest and resistance to antimetabolites in human carcinoma cell lines. J Pharmacol Exp Ther, 2009. 331(1): p. 77-86. Moret, V., et al., Discovery of a new family of bis-8-hydroxyquinoline substituted benzylamines with pro-apoptotic activity in cancer cells: synthesis, structure-activity relationship, and action mechanism studies. Eur J Med Chem, 2009. 44(2): p. 558-67. Zhai, S., et al., Tumor cellular proteasome inhibition and growth suppression by 8-hydroxyquinoline and clioquinol requires their capabilities to bind copper and transport copper into cells. J Biol Inorg Chem. 15(2): p. 259-69. Madonna, S., et al., Structure-activity relationships and mechanism of action of antitumor bis 8hydroxyquinoline substituted benzylamines. Eur J Med Chem. 45(2): p. 623-38. Del Poeta, M., et al., Comparison of in vitro activities of camptothecin and nitidine derivatives against fungal and cancer cells. Antimicrob Agents Chemother, 1999. 43(12): p. 2862-8. Hulleman, E., et al., Inhibition of glycolysis modulates prednisolone resistance in acute lymphoblastic leukemia cells. Blood. 2009. 113(9): p. 2014-21 Bibliographie
{'path': '15/tel.archives-ouvertes.fr-tel-00703474-document.txt'}
Le personnel de la Compagnie des Hauts-Fourneaux de Chasse-sur-Rhône pendant les Trente Glorieuses (1945-1966) : de la croissance à la crise Cyril Bonfils-Guillaud To cite this version: Cyril Bonfils-Guillaud. Le personnel de la Compagnie des Hauts-Fourneaux de Chasse-sur-Rhône pendant les Trente Glorieuses (1945-1966) : de la croissance à la crise. Histoire. Université de Lyon, 2018. Français. NNT : 2018LYSE2054. tel-01938221 HAL Id: tel-01938221 https://tel.archives-ouvertes.fr/tel-01938221 Submitted on 28 Nov 2018 N° d'ordre NNT : 2018LYSE2054 THESE de DOCTORAT DE L'UNIVERSITÉ DE LYON Opérée au sein de L'UNIVERSITÉ LUMIÈRE LYON 2 ED 483 Sciences sociales Discipline : Histoire Soutenue publiquement le 27 juin 2018, par : Cyril BONFILS-GUILLAUD Le personnel de la Compagnie des HautsFourneaux de Chasse-sur-Rhône pendant les Trente Glorieuses (1945-1966). De la croissance à la crise. Devant le jury composé de : Hervé JOLY, Directeur de Recherche, C.N.R.S., Président Anne DALMASSO, Professeure des universités, Université Grenoble 2, Rapporteure Pascal RAGGI, Maître de conférences HDR, Université de Lorraine, Rapporteur Xavier VIGNA, Professeur des universités, Université de Bourgogne, Examinateur Sylvie SCHWEITZER, Professeure des universités, Université Lumière Lyon 2, Directrice de thèse Cyril BONFILS-GUILLAUD LE PERSONNEL DE LA COMPAGNIE DES HAUTS-FOURNEAUX DE CHASSE-SUR-RHȎNE PENDANT LES TRENTE GLORIEUSES (1945-1966). DE LA CROISSANCE A LA CRISE Thèse pour le doctorat d'histoire Présentée et soutenue publiquement le 27 juin 2018 Jury : Madame Anne DALMASSO, Professeure, Université Grenoble Alpes (rapporteure). Monsieur Hervé JOLY, Directeur de recherche au CNRS, UMR Triangle. Monsieur Pascal RAGGI, Maître de conférences HDR, Université de Lorraine (rapporteur). Madame Sylvie SCHWEITZER, Professeure émérite, Université Lyon 2 (directrice de la thèse). Monsieur Xavier VIGNA, Professeur, Université de Bourgogne. Université Lumière Lyon 2 École doctorale 483, Sciences sociales LARHRA, UMR 5190 0 Remerciements : Ces remerciements sont en premier lieu pour Sylvie Schweitzer à qui j'adresse toute ma gratitude pour son soutien, son attention et la qualité de son encadrement pendant les années de préparation à la thèse. Ces remerciements s'adressent aussi à la professeure qui depuis mon année de licence a su me faire progresser et par sa bienveillance m'encourager à avancer dans mon travail et ma carrière. Par sa rigueur et son investissement constant, elle a été pour moi un modèle. J'adresse ensuite des remerciements aux professeurs et doctorants du Séminaire La Ville Juste et de l'Université d'été de Ferney Voltaire. J'ai pu découvrir grâce à eux certains aspects de la vie universitaire et de la recherche. Il est impossible de tous les remercier ici, mais mes pensées vont d'abord à ceux avec lesquels j'ai le plus travaillé et appris, en particulier Monica Martinat et Marie-Thérèse Têtu pour les professeurs. Merci à Nicolas Guyard et à Anouk Delaigue qui ont joué leur rôle de représentants des doctorants pour m'accueillir, à Eulaidia de Araujo avec qui j'ai eu le plaisir de travailler et une mention spéciale pour Antoine Vernet pour la qualité de ses échanges et son aide. Mes longues recherches m'ont amené à de multiples pérégrinations à travers les centres d'archives. Les personnels et leur disponibilité sont importants pour tout chercheur. Mais il faut souligner l'importance de l'accueil des institutions qui m'ont permis d'avoir un large accès à leurs services : je pense en particulier à la bibliothèque de Givors et à la mairie de Chasse-sur-Rhône. Il m'est impossible de remercier tous les personnels pour leur accueil, et si je ne le fait ici qu'en nommant des responsables – Jean-Pierre Rioult, ancien maire de Chasse et Régis Aloy, ancien secrétaire général de la mairie –, je leur adresse à tous une cordiale pensée. Les nombreux témoins ou enfants de travailleurs rencontrés m'ont été d'une aide précieuse. Ces rencontres ont été l'une des parties les plus enrichissantes de mon travail. C'est avec beaucoup d'amitié que je pense à eux. Mes remerciements vont également à la section patrimoine de la MJC de Chasse, et en particulier à Éric Combaluzier et Michel Paret qui en sont les gardiens : la richesse des archives conservées a été d'une contribution importante pour ce travail. J'ai eu aussi beaucoup de plaisir à participer au projet Patri/malles avec l'association Solosary, en particulier avec Michel-Rémy et Anny Bez ainsi qu'Olivier Schweblin. 1 J'adresse enfin mes amicales pensées aux collègues de l'enseignement secondaire qui m'ont soutenu, ou avec qui j'ai pu collaborer à travers différents projets. Je pense en particulier à Arnaud Costechareire et à Véronique Stacchetti pour les formations, à Sebastien Vuaille pour le projet PECED, à Karine et Thierry Gouillon, comme à Marie-José Aucourt, à Chritophe Gobbé pour les longues discussions. À tous mes proches pour leur soutien. À mes enfants qui se demandent s'il existe des métiers où on ne travaille pas pendant les vacances. À Laurence sans qui ce travail n'aurait pu être et pour chaque jour. 2 Liste des abréviations et sigles utilisés : ADI : Archives départementales de l'Isère ADL : Archives départementales de la Loire ADR : Archives départementales du Rhône AMC : Archives municipales de Chasse-sur-Rhône AMG : Archives municipales de Givors AN : Archives nationales ASMPL : Association des Syndicats Métallurgiques Patronaux de la Loire BML : Bibliothèque municipale de Lyon CA : conseil d'administration CAFL : Compagnie des Ateliers et Forges de la Loire CORSID : Comité d'organisation de la sidérurgie CSSF : Chambre syndicale de la sidérurgie française FNE : Fonds National de l'Emploi GIS : Groupement de l'industrie Sidérurgique HFC : Compagnie des Hauts-Fourneaux de Chasse-sur-Rhône Marine : Compagnie des Hauts-Fourneaux, Forges et Aciéries de la Marine et des Chemins de fer (depuis 1854), Compagnie des Forges et Aciéries de la Marine et d'Homécourt (1903), Compagnie des Forges et Aciéries de la Marine et de SaintÉtienne (1952). Elle devient la Compagnie des Forges et Aciéries de la Marine, Firminy et Saint-Étienne (1960), puis Marine-Firminy (1968), puis l'entreprise passe sous les contrôle des Wendel (1974) et devient Marine-Wendel (1975). NF : nouveaux francs SAMPO : Société Auxiliaire des Mines des Pyrénées Orientales SCOF : Société des cokes de hauts-fourneaux UEFM : Union d'Electricité et des Forces Motrices du Centre UGH : l'Union des Groupements de producteurs de fonte Hématite UNIE : Union pour l'Industrie et l'électricité 3 SOMMAIRE INTRODUCTION GENERALE 5 CHAPITRE 1 : RECONSTRUCTION ET RELANCE, 1945-1947 29 CHAPITRE 2 : UNE CROISSANCE FRAGILE, 1947-1956 112 CHAPITRE 3 : UNE PHASE D'EXPANSION : LES « SEPT GLORIEUSES », 19561962 273 CHAPITRE 4 : DE LA CRISE DE 1963 A LA FIN DES HAUTS-FOURNEAUX DE CHASSE 343 CONCLUSION GENERALE 407 SOURCES : 418 BIBLIOGRAPHIE : 435 Annexes : 456 Table des illustrations : 493 Index : 496 Table des matières : 499 4 Introduction générale Le 31 juillet 1966 l'usine des Hauts-Fourneaux de Chasse « ferme ses portes »1. La décision a été prise quelques mois plus tôt2, mettant fin à une séquence de luttes sociales ouverte en 1963. Or cette usine a été créée en 18563, c'est donc une histoire industrielle vieille de près de 110 ans qui s'achève pendant les Trente Glorieuses. Plusieurs centaines de salariés perdent leur travail, alors que cette période d'expansion souvent qualifiée de « miracle »4 n'est pas achevée. La croissance de la production intérieure brute de la France calculée en volume à partir de la somme des valeurs ajoutée atteint cette année-là 5,9 %5. La notion de Trente Glorieuses est de Jean Fourastié. Pour lui, ces trente années mettent fin « à la pauvreté millénaire », à la « vie végétative traditionnelle » pour leur substituer les « niveaux de vie » et les « genres de vie contemporains ». Par ces dernières expressions, l'auteur entend : la « société de consommation », la « santé » et la « Sécurité sociale », l'« hygiène » et tous « les moyens modernes de transports, d'information de communication ». Toujours selon lui, cette période ne connait pas de chômage, tandis que l'augmentation générale du niveau de vie ne s'explique pas par les luttes sociales mais par l'augmentation de la productivité. Cette dernière améliore également les conditions de travail et le pouvoir d'achat ; Jean Fourastié concédant cependant que cela peut entrainer des « migrations professionnelles douloureuses »6. Or Rémy Pawin note que de nombreux ouvrages utilisent dans leur titre l'expression de « Trente Glorieuses », cette expression étant devenue « le label d'une 1 « Les Hauts-Fourneaux de Chasse fermeront leurs portes demain », Le Progrès n° 36 852, vendredi 29 juillet 1966, p. 1. 2 ADI, 56J16, réunions du conseil d'administration du 1re avril 1966. 3 ADI, 56J1, historique succinct des exploitations des Hauts-Fourneaux de Chasse de 1856 à 1880. Arrêté préfectoral du 31 janvier 1856 et lettre du sous-préfet de Vienne au maire de Chasse-sur-Rhône en date du 8 février 1856 autorisant les premiers travaux de l'usine (photographies Éric Combaluzier). 4 BRAUDEL Fernand et LABROUSSE Ernest (dir.), Histoire économique et sociale de la France, tome IV, volume 3, Paris, PUF, 1982, p. 981-1847, p. 1011. 5 INSEE, Annuaire statistique de la France 1968, 655 p. et annexes, p. 637. 6 FOURASTIÉ Jean, Les Trente Glorieuses, 1ère édition Fayard 1979, puis Coll. Pluriel, Fayard, Paris, 2011, 288 p., p. 27. Pour les citations et références suivantes : p. 27, p. 79-80 puis 191 sqq., p. 201-205. 5 époque » ; pour l'année 2011 par exemple, on ainsi onze thèses en cours, dont cinq en histoire1. Mais l'usage de ce label et de cette période sont-ils pertinents ? Citant Reinhart Kosellec, Rémy Pawin indique que cet auteur « a attiré l'attention des historiens sur la complexité sociale et a mis en garde contre le risque de simplification inhérent aux tentatives de périodisation »2. Or on sait depuis longtemps grâce à Philippe Mioche que la crise structurelle de la sidérurgie a débuté au cours des années 1960, anticipant la dépression industrielle des années 1970 3. C'est ce que confirme la fin de la Compagnie des Hauts-Fourneaux de Chasse en 1966. Toutefois, l'étude du personnel de cette entreprise n'a bien évidemment pas comme seul objectif de discuter cette périodisation. Il s'agit en fait de revisiter cet « âge d'or »4 à travers les conditions de travail et de vie de ces personnels et de leurs familles dans cette commune de l'Isère. Par exemple, la question de l'emploi ouvrier et de la crainte du chômage sont des questions anciennes dont les limites chronologiques ne correspondent pas à celle de la crise pétrolière puis de la crise générale marquant la fin des Trente Glorieuses5. Cette histoire se fait donc dans un contexte de changements politiques – naissance de la CECA puis de la CEE, planification de l'économie –, économiques – réorganisation de la sidérurgie régionale et nationale –, techniques – rationalisation et modernisation des productions – indispensables à étudier afin de comprendre les facteurs contraignants les conditions de travail et de vie de ces personnels et les décisions de leurs dirigeants. Elle est enfin une histoire des mouvements sociaux des personnels pendant cette période de profonds bouleversements. 1 PAWIN Rémy, « Retour sur les « Trente Glorieuses » et la périodisation du second XXe siècle », Revue d'histoire moderne et contemporaine, 2013/1, n° 60-1, p. 155-175, p. 155. 2 Ibidem. 3 MIOCHE Philippe, La sidérurgie et l'État en France des années 1940 aux années 1970, thèse de doctorat d'État soutenue en 1992 sous la direction de François Caron, 4 volumes, 1418 p., p. 12. 4 Des chercheurs l'ont récemment fait à travers une lecture de la modernisation et de ses résistances, dans BONNEUIL Christophe, PESSIS Céline, TOPÇU Sezin (dir.), Une autre histoire des « Trente Glorieuses », La Découverte, Paris, 2013, 309 p. 5 VIGNA Xavier, L'insubordination ouvrière dans les années 68. Essai d'histoire politique des usines, Presse universitaire de Rennes, Rennes, 2007, 380 p., p. 148, tiré d'une thèse, Université Paris VIII, 2003. 6 I) Faire une histoire sociale du personnel Dans une tentative d'étude du « continent » que représente selon lui l'histoire sociale François, Jarrige renonce à en faire un « impossible » inventaire1. Faire une histoire sociale du personnel des Hauts-Fourneaux de Chasse, c'est donc faire des choix parmi différentes approches. 1) De l'histoire ouvrière à l'histoire du personnel d'une entreprise Écrire l'histoire du personnel des Hauts-Fourneaux de Chasse, c'est tout d'abord reconnaître l'héritage régional et national dans lequel s'inscrit ce travail. On citera tout d'abord la thèse d'Yves Lequin2, à la fois « représentative de ce modèle labroussien et des doutes qui commencent à l'assaillir »3. Par cette phrase Gérard Noiriel souligne le caractère novateur de la thèse selon laquelle l'idée de groupes ou d'une classe ne sont pas des données de départ, mais le résultat d'une construction, faisant d'Yves Lequin notre « Thompson français », comme l'analyse Michelle Perrot4. On en retiendra pour notre étude le concept de construction, mais moins pour une approche intellectuelle que matérielle : la formation du personnel des HFC étant continuelle, il conviendra d'en décrire les évolutions et d'en rechercher les facteurs. Yves Lequin évoque à plusieurs reprises dans sa thèse les HFC et leurs personnels, car avant 1914 l'usine compte déjà dans le paysage régional5. Toutefois, son échelle d'analyse demeure encore conforme au modèle labroussien. L'adoption de 1 JARRIGE François, « Discontinue et fragmentée ? Un état des lieux de l'histoire sociale de la France contemporaine », Histoire, économie et société, 2012/2, 31e année, p. 45-59, p. 46-47. 2 LEQUIN Yves, Les ouvriers de la région lyonnaise, 1848-1914, 2 volumes, Lyon, PUL, 1977, 573 et 500 p., tiré d'une thèse de doctorat d'État, Université Lyon 2, 1975. 3 NOIRIEL Gérard, Qu'est-ce que l'histoire contemporaine ? , Hachette, Paris, 1998, 255 p., p. 90. 4 PERROT Michèle, « Yves Lequin et la formation de la classe ouvrière », dans Jean-Jacques Becker et alii, Ouvriers, villes et société. Autour d'Yves Lequin et de l'histoire sociale, Paris, Nouveau monde éditions, 2005, 296 p., p. 88. THOMPSON Edward P., La formation de la classe ouvrière anglaise , 1ère édition Londres, Victor Gollancz, 1963, traduction française, Paris, Le Seuil, « Point Histoire », 2012, 1166 p. 5 LEQUIN Yves, Les ouvriers de la région lyonnaise, , op. cit., Volume 1 p. 54, 79, 98-99, 140-141, 146, 263, volume 2 p. 328-331. 7 l'échelle locale se fait progressivement 1 sous l'influence de la microstoria2. Cela a par exemple donné les thèses de Jean-Pierre Burdy et de Jean Castets3. La première a retenu l'échelle d'un quartier et montre sur près d'un siècle les changements concernant le travail, les migrations, la manière de vivre et d'habiter. La seconde permet de voir comment s'élaborent les hiérarchies au travail dans une usine. Toutes deux mettent également en avant des acteurs, – par exemple lorsque Jean-Pierre Burdy évoque les « étranges étrangers »4 vivant au Soleil noir –, ce qui est un des enjeux du passage de l'échelle macro à l'échelle micro comme le rappelle Christian Delacroix5. Or le concept d'acteur – qui fait son retour dans les années 1970-19806 – est aussi doublement utile dans un contexte d'évolution de la recherche. Il l'est pour le paradigme constructiviste, « l'enjeu étant dès lors de comprendre comment les frontières définissant les groupes ont été élaborées et quels rôles les divers acteurs ont pu jouer dans ce processus »7. Il l'est aussi pour une démarche pragmatique « qui réhabilite la centralité de l'action, de la communication, de l'intentionnalité des acteurs »8. De plus, la thèse de Jean Castets porte sur le personnel de la Société des hautsfourneaux et fonderies de Givors, une entreprise voisine et rivale des HFC. Mais son principal intérêt est le choix de l'échelle adoptée : l'entreprise. Cette démarche est dans le prolongement d'une « histoire sociale de l'entreprise » dont les tenants souhaitent que l'on reconnaisse qu'elle est « un des lieux fondamentaux d'une société industrialisée »9. Certaines thèses comme celles de Jean Castets se sont intéressées aux ouvriers, mais 1 La thèse plus ancienne, mais monumentale et indispensable pour la connaissance de l'histoire économique et sociale de Monique Luirard conserve une échelle régionale : LUIRARD Monique, La région stéphanoise dans la guerre et dans la paix (1936-1951), Presses universitaires de Saint-Étienne, Saint-Étienne, 1980, 1024 p., tiré d'une thèse de doctorat d'État, Université Bordeaux 3, 1978. 2 Dans NOIRIEL Gérard, Qu'est-ce que l'histoire contemporaine ? , op. cit., p. 142-143. Pour une présentation du sujet : REVEL Jacques, « Micro-analyse et construction du social », in REVEL Jacques (dir.), Jeux d'échelles. La micro-analyse à l'expérience, Éditions du Seuil, 1996, 243 p., p. 15-36. 3 BURDY Jean-Paul, Le Soleil noir. Un quartier de Saint-Étienne 1840-1940, Presses universitaires de Lyon, 1989, 270 p., tiré d'une thèse, Université Lyon 2, 1986. CASTETS Jean, Des ouvriers de la Société des hauts-fourneaux et fonderies de Givors et leurs familles dans la seconde moitié du XIXème siècle, thèse sous la direction de LEQUIN Yves, Université Lumière Lyon 2, 1995, 2 tomes, 630 p. 4 BURDY Jean-Paul, Le Soleil noir, op. cit., p. 179 sqq. 5 DELACROIX Christian, « Histoire sociale », dans DELACROIX Christian, DOSSE François, GARCIA Patrick, OFFENSTADT Nicolas (dir.), Historiographie, concepts et débats, tomes 1 et 2 , Gallimard, coll. Folio histoire, Paris, 2010, 1325 p., p. 429. 6 Selon Christian Delacroix dans « Acteur », dans DELACROIX Christian, et alii, op. cit., p. 656. 7 JARRIGE François, « Discontinue et fragmentée ? », op. cit., p. 48. 8 DELACROIX Christian, « Histoire sociale », op. cit., p. 429. 9 LEQUIN Yves et VANDECASTEELE Sylvie, « Pour une histoire sociale de l'entreprise » dans LEQUIN Yves et VANDECASTEELE Sylvie (dir.), L'usine et le bureau. Itinéraires sociaux et professionnels dans l'entreprise, XIXème-XXème siècles, P.U.L., 1990, 193 p., p. 5-18 et p. 5. 8 d'autres catégories de personnels ont été à leur tour étudiées comme par exemple les employé.e.s1, ou les personnels d'une entreprise de transport2, démontrant la valeur heuristique de cet objet. L'étude du personnel des Hauts-Fourneaux de Chasse s'inscrit donc dans une historiographie ancienne3. Elle n'est pas qu'une histoire des ouvriers pouvant s'appuyer sur des synthèses plus ou moins récentes4. Elle est aussi une histoire des employés, des agents de maîtrise et des cadres de l'entreprise : à la différence de travaux plus anciens, elle ne fait pas le choix d'une catégorie ou d'une autre. Elle cherche enfin à s'appuyer sur les autres objets permettant de « catégoriser le monde social »5. 2) Catégoriser le personnel des Hauts-Fourneaux de Chasse En paraphrasant à nouveau François Jarrige, on peut dire que : l'« histoire sociale du contemporain s'est également renouvelée par la poursuite des réflexions menées sur les frontières et sur les catégories qui servent à décrire les mondes sociaux. C'est précisément la remise en cause incessante de ces anciennes catégories et frontières qui ont pu donner l'impression d'une "crise", d'un "éclatement" alors qu'il s'agissait sans doute d'abord d'une complexification de l'analyse du social »6. Le programme a été tracé pour l'histoire sociale de l'entreprise il y a déjà quelque temps : « il faudrait une histoire sociale – incluant tout à la fois l'analyse des métiers et du travail, des itinéraires sociaux, professionnels, géographiques » écrivent Yves Lequin et Sylvie Schweitzer7, objets auxquels on pourrait ajouter les migrants et les femmes. 1 BEAU Anne-Sophie, Grand Bazar, modes d'emploi : les salarié-e-s d'un grand magasin lyonnais : 1886-1974, thèse sous la direction de Sylvie Schweitzer, Université Lumière Lyon 2, 2001, 684 p. 2 MONTAGNON Florent, Construire le stable et l'instable. La gestion du personnel d'exécution des transports publics urbains lyonnais, 1894-1948, thèse sous la direction de Sylvie Schweitzer, Université Lumière Lyon 2, 2009, 2 volumes, 859 p. 3 Voir par exemple pour l'histoire d'une entreprise FRIDENSON Patrick, Histoire des usines Renault. Naissance de la grande entreprise (1893-1939), Le Seuil, Paris, 1972, 358 p., tiré d'une thèse, université Paris VIII, 1971 ; SCHWEITZER Sylvie, Des engrenages à la chaine. Les usines Citroën 1915-1935, PUL, Lyon, 1982, 208 p., tiré d'une thèse, université Paris VIII, 1980. 4 NOIRIEL Gérard, Les ouvriers dans la société française, XIXème-XXème siècle, Éditions du Seuil, Paris, 1986, 321 p. WILLARD Claude (dir.), La France ouvrière 1920-1968, tome 1, 2 et 3, Editions de l'Atelier, Paris, 1995, 493, 368 et 267 p. VIGNA Xavier, Histoire des ouvriers en France au XXe siècle , Perrin, Paris, 2012, 405 p. 5 JARRIGE François, « Discontinue et fragmentée », op. cit., p. 53. 6 Ibidem, p. 53. 7 LEQUIN Yves et VANDECASTEELE Sylvie, « Pour une histoire sociale », op.cit., p.14. 9 Une première manière de fixer des catégories parmi le personnel des HFC est de repérer celles qui sont liées aux métiers et qui permettent d'aller déjà plus loin que les catégories sociales ouvrier ou employé 1. Le métier a tout d'abord été défini par un savoir-faire fondé sur l'apprentissage lors de la première industrialisation ; puis, dans « l'usine nouvelle », on supprime d'anciens métiers et on en crée de nouveaux2. La rationalisation des productions entraine alors par exemple une séparation progressive entre des ouvriers qui demeurent qualifiés et ceux qui sont de simples opérateurs sur machine3. Dans la seconde moitié du XXe siècle – une période moins explorée par les historiens que les précédentes –, on peut se demander comment évoluent les métiers – et d'une manière plus large, les postes de travail – dans une usine sidérurgique connaissant à la fois une expansion des productions et une modernisation de son outillage. Ensuite, les conventions collectives de 1919, 1936 et 1945 s'étendent progressivement à l'ensemble des métiers et profession. Les dernières – appelées Conventions Parodi – font correspondre à des salaires trois catégories d'ouvriers – manoeuvre, ouvrier spécialisé et ouvrier professionnel – divisées en sept échelons4. Valables jusqu'en 1968, elles fixent une première hiérarchie de nature salariale pour les diverses catégories professionnelles dont – en plus des ouvriers –, les ETAM (employés, techniciens et agents de maîtrise) et les cadres 5. Elles fixent aussi les statuts professionnels qui désignent la position sociale de chaque travailleur. Par exemple, un ouvrier spécialisé travaillant aux HFC est payé à la quinzaine et peut travailler en 3/8 quand un secrétaire est un mensuel travaillant la journée. Enfin les classifications contribuent à l'organisation des marchés du travail externe et interne de chaque entreprise, les pratiques étant différentes de l'une à l'autre 6. On s'intéressera donc également aux pratiques des HFC à ce sujet. 1 SCHWEITZER Sylvie, « Gestions de salariés : métiers et flexibilités (Lyon, XIXe-XXe siècles) », Histoire, économie et société, 2001, 20e année, n° 4, p. 455-470, p. 456. 2 LEQUIN Yves, « Le métier », dans NORA Pierre (dir.), Les Lieux de mémoire, vol. 3, Quarto Gallimard, Paris, 1997, 1720 p., p. 3351-3384, p. 3362-3363. 3 DEWERPE Alain, Le monde du travail en France 1800-1950, Coll. Cursus, Armand Colin, Paris, 2007, 174 p., p. 107. 4 SAGLIO Jean, « Hiérarchies salariales et négociations de classifications France, 1900-1950 », Travail et Emploi, 1986/3, n° 27, p. 7-19, p. 16. 5 SAGLIO Jean, « Les arrêtés Parodi sur les salaires : un moment de la construction de la place de l'État dans le système français de relations professionnelles », Travail et Emploi, 2007, n° 111, juilletseptembre, p. 53-73. 6 SCHWEITZER Sylvie, « Industrialisation, hiérarchies au travail et hiérarchies sociales au vingtième siècle », Vingtième siècle. Revue d'histoire, n° 54, avril-juin 1997, p. 103-115, p. 114. 10 Une dernière manière de fixer des catégories parmi le personnel des HautsFourneaux concerne l'emploi. Pour la sociologue Margaret Maruani, le « mode d'emploi, c'est-à-dire le type de contrat de travail, les modalités d'accès au marché du travail et les conditions d'emploi, constitue aujourd'hui une des lignes de partage fondamentales entre différentes catégories de salariés »1. Elle donne comme exemple le fait d'être employé à temps plein ou à temps partiel, à durée déterminée ou à durée indéterminée. Or par exemple, l'opposition entre une partie de la main d'oeuvre « stable » et une autre touchée par le « turnover » à la fin de ce siècle est un problème ancien posé aux entreprises2. Il concerne d'ailleurs certaines catégories de personnels, dont les étrangers et les femmes3 : la nationalité et le sexe sont en effet des critères objectifs d'étude permettant d'établir des distinctions entre les différents personnels d'une entreprise. Ainsi, c'est en étudiant les ouvriers de Longwy que Gérard Noiriel rencontre « derrière » les ouvriers les immigrés4. À l'époque où il écrit – au début des années 1980 – il regrette alors le manque d'intérêt des historiens pour cet objet, décrivant une « histoire en friche »5. Or les immigrés ont en effet joué un rôle important dans l'histoire de l'industrialisation6. Depuis, cette histoire n'est plus en friche, elle est même devenue un l'un des axes les plus actifs de la recherche contemporaine et de nombreuses synthèses ont même été rédigées7. Au niveau national, l'une des premières a été dirigée par Yves Lequin8. À l'échelle régionale, l'enquête de l'ACSÉ – Agence nationale pour la cohésion sociale et l'égalité des chances – menée à partir de 2005 partout en France a 1 MARUANI Margaret, « Statut social et modes d'emplois », Revue française de sociologie, 1989, 30e année n° 1, p. 31-39, p. 32 2 NOIRIEL Gérard, « Du "patronage" au "paternalisme" : la restructuration des formes de domination de la main-d'oeuvre ouvrière dans l'industrie métallurgique française », Le Mouvement social, n° 144, juillet-septembre 1988, p. 17-35, p. 21 et 30. 3 L'intérêt pour ces sujets à l'échelle européenne se développe surtout à partir des années 1980, d'après VAN DER LINDEN Marcel, « L'histoire ouvrière européenne. Le long chemin vers une collaboration sans frontière », dans HATZFELD Nicolas, PIGENET Michel et VIGNA Xavier (dir.), Travail, travailleurs et ouvriers d'Europe au XXe siècle, Éditions universitaires de Dijon, Dijon, 2016, 359 p. 4 NOIRIEL Gérard, Longwy, immigrés et prolétaires 1880-1980, Paris, P.U.F., 1984, 396 p., tiré d'une thèse, Université Paris 8, 1982. NOIRIEL Gérard, Le creuset français, histoire de l'immigration XIXèmeXXème siècles, Paris, Le Seuil, L'univers historique, 1988, 441 p., p. 18. 5 NOIRIEL Gérard, Le creuset français, op. cit., p. 18 et NOIRIEL Gérard, « L'immigration en France, une histoire en friche », Annales. Économies, Sociétés, Civilisations, 41e année, n° 4, 1986, p. 751-769. 6 Ibidem, p. 754-758. 7 RYGIEL Philippe, « L'historiographie des migrations », Mémoires publiés par la fédération des sociétés historiques et archéologiques de Paris et de l'Ile de France , tome 61, 2010, p. 7-17, https://halshs.archives-ouvertes.fr/halshs-00548192/document, [dernière consultation le 19 octobre 2012]. 8 LEQUIN Yves (dir.), La mosaïque France, histoire des étrangers et de l'immigration en France, Paris, Larousse, 1988, 419 p. 11 permis de faire à un travail de synthèse complet : « Histoire et mémoires des immigrations en régions au XIXe et XXe siècles ». Ce travail a donné lieu à des comptes-rendus dans la revue Hommes et Migrations1. Il a également permis de faire un état des lieux de l'histoire de l'immigration en Rhône-Alpes2. À partir de ces travaux, plusieurs thèmes peuvent être dégagés afin d'être utiles à l'étude du personnel des HFC. Il y a tout d'abord le dénombrement des nationalités. Puis on peut ensuite aborder le thème du travail : types de poste occupé, activité, trajectoire professionnelle. Cela peut être enfin confronté à l'accession à la nationalité française, le logement, la situation familiale. La place des femmes étrangères a été jusque-là peu étudiée en raison d'un « rendez-vous manqué » entre l'histoire de l'immigration et l'histoire des femmes3. Or les étrangers comme les femmes font partie de thématiques plus récentes en histoire sociale4. Paru au début des années 1990, l'ouvrage collectif dirigé par Georges Duby et Michelle Perrot l'Histoire des femmes en Occident5 fait la première synthèse des travaux entamés depuis 20 ans sur un sujet en voie d'institutionnalisation 6. Très tôt – relativement à ce sujet –, on s'intéresse aux « travaux de femmes »7, puis on passe à une « histoire du travail au féminin »8. Cela signifie d'après Françoise Thébaud que l'on ne s'intéresse plus seulement aux activités salariées mais aussi désormais aux activités domestiques. Les femmes ont en effet toujours travaillé écrit Sylvie Schweitzer9, mais leur travail pendant longtemps n'a pas été reconnu. Quels postes de travail et emplois occupent-elles alors aux HFC ? Quelles sont leurs trajectoires professionnelles ? 1 Articles coordonnés par MAYEUR Laurence et POINSOT Marie, Hommes et Migrations, n° 1273, maijuin 2008 et n° 1278 mars-avril 2009, dont CHAPLAIN Renaud, BERBAGUI Dalila, ELONGBILEWANE Emilie et SCHWEITZER Sylvie, « Regards sur les migrations aux XIXe et XXe siècles en Rhône-Alpes », Hommes et migrations, n° 1278, mars-avril 2009, p. 32-47. 2 SCHWEITZER Sylvie (dir.), Rhône-Alpes : étude d'une région et d'une pluralité de parcours migratoires, Tomes 1 et 2, 2008, 241 et 148 p. [PDF] halshs.archivesouvertes.fr/docs/00/37/34/14//ACSE.R.Alpes.t1.pdf et halshs.archivesouvertes.fr/docs/00/37/34/14//ACSE.R.Alpes.t2.pdf, [dernière consultation le 14 août 2011]. 3 GUERRY Linda, « Femmes et genre dans l'histoire de l'immigration. Naissance et cheminement d'un sujet de recherche », Genre & Histoire, n° 5, Automne 2009, 16 p., http://genrehistoire.revues.org/808, [dernière consultation le 23 février 2017]. 4 JARRIGE François, « Discontinue et fragmentée », op. cit., p. 53-54. 5 DUBY Georges et PERROT Michelle (dir.), l'Histoire des femmes en Occident, Plon, Paris, 1991-1992, 1ère édition, 5 tomes, 2977 p. 6 THÉBAUD Françoise, Écrire l'histoire des femmes et du genre, ENS Éditions, Lyon, 2007, 312 p., p. 5. 7 Par exemple le numéro spécial dirigé par PERROT Michelle, « Travaux de femmes », Le Mouvement social, n° 105, octobre-décembre 1978. 8 THÉBAUD Françoise, Écrire l'histoire des femmes , op. cit., p. 87-91. 9 SCHWEITZER Sylvie, Les femmes ont toujours travaillé. Une histoire du travail des femmes aux XIXe et XXe siècles, Paris, Odile Jacob, 2002, 329 p. 12 Comment évoluent les pratiques d'entreprise à leur encontre ? Autant de questions qui peuvent sembler paradoxales dans une usine où les femmes sont minoritaires, mais une minorité qui est cependant présente du début à la fin de cette histoire. Les problématiques précédentes peuvent également être reprises à travers le prisme du genre1. De plus, une attention portée sur le genre du poste de travail peut compléter utilement cette approche : il s'agit non pas de dénombrer les postes de travail en fonction du sexe, mais de comprendre pourquoi on les attribue aux hommes ou aux femmes. Or, il est manifeste qu'aux HFC on attribue certains postes à des ouvrières plutôt qu'à des ouvriers. Il serait alors utile de savoir comment et pourquoi une telle répartition a-t-elle pu être faite ; notamment si les évolutions technologiques et l'organisation du travail ont pu avoir un effet sur l'organisation du travail des femmes 2. Toutefois, s'interroger sur les évolutions techniques qui touchent la sidérurgie à cette époque, c'est s'intéresser à un autre champ historique. C'est même plus largement croiser l'étude sociale des personnels avec d'autres champs de recherche en histoire sociale, politique et économique. II) Faire une histoire du personnel à la croisée d'autres champs de recherche en histoire Faire cette étude, c'est donc s'intéresser à l'évolution des techniques afin de comprendre les transformations du travail. Mais faire une étude du personnel d'une entreprise, c'est aussi s'intéresser à cette entreprise et à ses dirigeants, sinon comment comprendre le travail, les pratiques d'entreprise et l'attitude des salariés face à ces pratiques ? C'est enfin comprendre le contexte économique et politique dans lequel vivent, travaillent et agissent les hommes et les femmes qui composent le personnel de la Compagnie des Hauts-Fourneaux de Chasse. 1 THÉBAUD Françoise, Écrire l'histoire des femmes , op. cit., p. 211. FRADER Laura L., « Le travail dans les études de genre », dans MARUANI Margaret (dir.), Travail et genre dans le monde, La Découverte, Paris, 2013, 463 p., p. 36. 2 13 1) Les apports de l'histoire des techniques et du travail Gérard Noiriel constate que les historiens des techniques ont des divergences entre ceux qui étudient les techniques pour elles-mêmes et ceux qui prolongent cette étude au niveau économique ou social1. De fait, l'intérêt pour les acteurs a été là encore un moyen de renouveler les recherches en histoire des techniques2 : par exemple en montrant comment technique et genre peuvent être imbriqués dans le cadre d'une histoire des employés de bureau3. Cependant, notre sujet porte davantage sur le travail en usine qu'en bureau, même si les recherches de Delphine Gardey et de Perrine Gallice4 peuvent nous être utiles. Or l'histoire des techniques sidérurgiques a été abordée surtout dans le cadre de l'histoire de l'entreprise, en particulier par Philippe Mioche5. Une thèse plus récente comme celle de Bruno Pratti6 change d'échelle, mais reste centrée sur une histoire de l'entreprise ou celle des techniques. Il faut donc avoir recours aux recherches de Michel Freyssenet pour avoir une étude des techniques sidérurgiques en lien avec celle du travail 7. Toutefois, en s'attachant principalement à l'étude des effets de la modernisation sur le travail, en particulier aux effets de « qualification » et de « déqualification », l'auteur cherche d'abord à remettre en cause « une thèse optimiste quant à l'évolution du travail »8. Mais concentré surtout sur ce thème – qui nous intéresse néanmoins aussi –, Michel Freyssenet ne voit pas tous les postes de travail des usines sidérurgiques, en particulier ceux non touchés par la modernisation des processus de production et/ou de l'outillage. 1 NOIRIEL Gérard, Qu'est-ce que l'histoire contemporaine ? , op. cit., p. 151. GRISET Pascal et BOUVIER Yves, « De l'histoire des techniques à l'histoire de l'innovation. Tendances de la recherche française en histoire contemporaine », Histoire, économie & société 2012/2 (31e année), p. 29-43, P. 34 sqq. 3 Ibidem, p.36 ; GARDEY Delphine La Dactylographe et l'expéditionnaire. Histoire des employés de bureau. 1890-1930, Belin, Paris, 2001, 335 p. 4 GALLICE Perrine, « Travail des femmes et politique sociale : Berliet, années 1950-1960 », Bulletin du Centre Pierre Léon d'histoire économique et sociale, n° 1-2, 1996, p. 59-77. 5 MIOCHE Philippe, La sidérurgie et l'État en France des années 1940 aux années 1970, Thèse de doctorat d'État sous la direction de François Caron, Paris 4, 1992, 4 volumes, 1418 p. Page 13, il indique que sa thèse n'aborde pas la main d'oeuvre en faisant « l'hypothèse » que : « les aspects sociaux interviennent de façon marginale dans les relations entre la sidérurgie et l'État ». 6 PRATI Bruno, La Fonte Ardennaise et ses marchés. Histoire d'une PME familiale dans un secteur en déclin (1926-1999), thèse sous la direction de DAUMAS Jean-Claude, Université de Franche-Comté, 2013, 563 p. 7 En particulier FREYSSENET Michel, « Division du travail, pratiques ouvrières et pratiques patronales. Les ouvriers sidérurgistes chez de Wendel, 1880-1974 », CSU, Paris, 1978, 30 p., Édition numérique, freyssenet.com, [dernière consultation le 21 août 2012]. 8 FREYSSENET Michel, La division capitaliste du travail, Savelli, Paris, 1977, 165 p Édition numérique, freyssenet.com, [dernière consultation le 21 juin 2016]. 2 14 Or les ateliers dans une usine sidérurgique sont divers : il y a certes des hauts-fourneaux et un service d'entretien, mais aussi des activités de transports, de production d'énergie, etc. Ces différentes remarques confirment l'analyse de Christian Chevandier et Michel Pigenet observant que l'analyse du travail dans l'histoire des techniques passe surtout par « les motivations des seuls décideurs », les salariés faisant « vite figure d'agents passifs »1. Il reste donc à explorer l'histoire du travail dans une usine sidérurgique, en utilisant les travaux antérieurs des sociologues, afin de « transformer [ce] "retard" en atout »2. Il s'agit en effet d'un objet historique en plein renouveau ces dix dernières années3. Il est alors possible d'étudier les activités, les savoir-faire, de décrire les postes et les conditions de travail ; autant de questions qui concernent les pratiques des travailleurs en lien avec la technique, mais aussi les exigences du patronat. 2) Une histoire du patronat, des pratiques d'entreprises et des mouvements sociaux « Pour une sociologie du patronat » écrit Jean-Claude Daumas afin de décrire les dynamiques récentes d'une histoire du patronat qui n'est plus un désert historiographique4. Les recherches sur le patronat, en particulier le patronat régional existent5, et Pierre Cholat – le président des HFC – est déjà connu des historiens6. Toutefois, centrées sur un groupe professionnel, un individu ou une entreprise, ces recherches ne les étudient pas à notre connaissance avec leurs personnels. Plusieurs remarques justifieraient pourtant cette pratique. Tout d'abord la distinction entre patronat et personnel n'est peut-être pas toujours aussi nette que cela. Par exemple, un administrateur de l'entreprise peut occuper temporairement des fonctions de personnel 1 CHEVANDIER Christian et PIGENET Michel, « L'histoire du travail à l'époque contemporaine, clichés tenaces et nouveaux regards », Le Mouvement social, 2002/3, n° 200, p. 163-169, p. 165-166. 2 Ibidem, p. 167. 3 HAMELIN David, « Pour une histoire du travail ! », Cahiers d'histoire. Revue d'histoire critique, n° 124, 2014, p. 147-158. 4 DAUMAS Jean Claude, « Regards sur l'histoire du patronat », Vingtième Siècle. Revue d'histoire, 2012/2, n° 114, p. 3-14, p. 3-4. Il est aussi l'auteur de L'amour du drap Blin et Blin (1827-1975). Histoire d'une entreprise lainière familiale, Presses universitaires franc-comtoises, Besançon, 1999, 660 p., tiré d'une thèse, université Paris IV Sorbonne, 1995. 5 JOLY Hervé, ROBERT François, GIANDOU Alexandre, Entreprises et pouvoir économique dans la région Rhône-Alpes (1920-1954), Cahiers Pierre Léon n° 4, Lyon, 2003, 300 p. 6 Voir par exemple pour une biographie MIOCHE Philippe, La sidérurgie et l'État en France , op. cit., p. 457 et pour des informations complémentaires p. 245, 531, 543. 15 de direction de l'usine. Inversement, le directeur peut devenir administrateur et, même s'il ne suit pas ce parcours, il travaille avec les membres du conseil d'administration. Si la frontière entre dirigeants et dirigés est connue et reconnue de tous, mais si en pratique on a du mal à savoir toujours où la faire passer, cela ne justifie-t-il pas alors une étude commune des différents groupes sociaux ? Cela a d'autant plus de sens lorsqu'il s'agit d'une monographie d'entreprise. Ensuite, on peut dire que d'une manière générale, les dirigeants de l'usine sont à l'interface des relations entre les personnels de l'entreprise et ses dirigeants. Les cadres constituent ensuite un groupe intermédiaire entre la direction de l'usine et les différents groupes de travailleurs. Or les personnels dirigeants et d'encadrement participent à ce que l'on a depuis longtemps appelé des politiques paternalistes1 adressées aux personnels. Ces pratiques font cependant apparaître « des contrats tacites mais croisés, des fidélités pas forcément synonymes de passivité, des forces associées plus souvent qu'opposées entre les employeurs et les salariés, une interdépendance sue, reconnue, admise »2. Par conséquent, si on étudie les personnels et si on étudie leurs relations avec le patronat, n'est-il pas alors aussi logique de vouloir mieux connaître le patronat luiaussi ? Par ailleurs les pratiques sociales de l'entreprise portent en particulier sur le logement3. Il s'agit d'un souci ancien chez un patronat bâtisseur, notamment pour fixer une partie de sa main d'oeuvre. On décrira alors dans quelle mesure les dirigeants des HFC ont réalisé des aménagements à Chasse et dans les communes environnantes, mais aussi comment les personnels se les sont appropriés. Les relations entre patronat, dirigeants de l'usine et salariés sont aussi faites de luttes, d'affrontements, ou de conciliations. L'historiographie s'est tout d'abord intéressée aux grèves4. Toutefois, les pratiques d'oppositions vont bien au-delà de ce phénomène certes total et spectaculaire 5, qui s'inscrit en partie dans la période 1 NOIRIEL Gérard, « Du "patronage" au "paternalisme" , op. cit. SCHWEITZER Sylvie (dir.), Logiques d'entreprises et politiques sociales, Éditions du programme pluriannuel en Sciences Humaines Rhône-Alpes, Oullins, 1993, 255 p., p. 14. 3 LEQUIN Yves, « Les citadins et leur vie quotidienne », dans AGULHON Maurice (dir.), La ville de l'âge industriel. Le cycle haussmannien, Éditions du Seuil, Paris, 1998, 734 p., p. 331-332. 4 On pense bien sûr à PERROT Michelle, Les ouvriers en grève. France 1871-1890, Paris-La Haye, Mouton, coll. Civilisations et Sociétés, 2 vol., 1974, 900 p, tiré d'une thèse soutenue en 1971 à Paris I Panthéon-Sorbonne. 5 SIROT Stéphane, La grève en France. Une histoire sociale (XIXe-XXe siècle), Odile Jacob, Paris, 2002, 306 p., p. 37 sqq. sur la grève « un fait social total » et p. 143 et sqq. sur la geste gréviste. 2 16 d'« Insubordination ouvrière » des années 19681, mais qui n'est pas l'unique forme d'opposition. On peut aussi relever différentes pratiques de résistance et de réappropriation du temps, de l'espace et du travail qui sont autant de moyens traduisant une recherche d'autonomie utilisés par les salariés. On s'intéressera enfin à l'attitude des différentes catégories de dirigeants de l'entreprise et de l'usine afin de canaliser et gérer mouvements sociaux comme l'autonomie des travailleurs ; ainsi qu'aux réactions de leurs salariés face à ces pratiques. D'une manière générale, ces luttes et formes d'opposition s'inscrivent dans des temporalités politiques et économiques plus larges qui déterminent le jeu des acteurs. Stéphane Sirot a déjà attiré notre attention sur les liens entre grève et conjoncture2. Il s'agira donc d'étendre cette démarche à d'autres situations comme les phases de modernisation ou l'évolution des pratiques d'entreprise ; ces dernières et celles du personnel – faites souvent de réciprocité –, sont parfois contraintes par l'environnement pour les premières, influencées par l'actualité pour les secondes. 3) Un contexte politique et économique déterminant le jeu des acteurs Il est possible de traiter d'évènements régionaux, nationaux voir internationaux dans une étude monographique ; notamment parce que l'échelle micro est préférable à la macro pour en déceler certains aspects qu'il est ensuite possible de généraliser3. De plus, on ne peut pas s'intéresser à l'échelle locale en faisant abstraction des autres échelles4, tant au niveau politique qu'économique. Un nombre relativement réduit de thèmes doit alors être nécessairement abordé. Tout d'abord, à l'échelle internationale, deux faits marquent toute la période : le processus d'indépendance des colonies et la construction de l'Europe. Dans le premier cas, cela concerne directement les HFC pour au moins deux ensembles de raisons : d'une part une partie de leur personnel est recrutée en Algérie, d'autre part ils possèdent une succursale minière qui est à la fois pourvoyeuse en matière première et recruteuse 1 VIGNA Xavier, L'Insubordination ouvrière dans les années 68, op. cit SIROT Stéphane, La grève en France, op. cit., p. 37 sqq. 3 L'échelle micro de l'étude ne signifie en effet pas l'échelle micro de l'analyse, dans DELACROIX Christian, « Échelle », op. cit., p. 727. 4 REVEL Jacques, « Micro-analyse et construction du social », op. cit., p. 19-20. 2 17 locale en main d'oeuvre. Or même si Jacques Marseille 1 a démontré comment le capitalisme français a pu se détacher de son Empire colonial pour se tourner vers l'Europe, cela n'empêche pas que cette reconversion a pu être difficile. De plus, l'entrée dans l'Europe ne s'est pas non plus faite facilement et sans débats parmi les patrons de la sidérurgie2. Avec la création de la CECA, se constitue un marché commun du charbon et de l'acier faisant partie des premières étapes de la construction européenne. Toutefois, derrière l'énonciation de ces généralités, on a aussi la réalité d'entreprises qui voient leur horizon être modifié – plutôt qu'être élargi –, puisque les marchés européens de l'acier sont en réalité anciennement organisés3. Les HFC qui ont jusque-là bénéficié d'un cadre national protecteur pour diversifier leurs activités et étendre leurs filiales en France voient leur territoire et leurs champs d'action se rétrécir, de même que le rôle de l'État être modifié. À l'échelle nationale, l'État mène une politique industrielle et est un acteur majeur de la vie économique après la Seconde Guerre mondiale 4. Trois périodes comptent particulièrement pour les HFC. Il y a tout d'abord celle de l'après-guerre qui voit un début de réorganisation de la sidérurgie régionale, tandis que la reconstruction provoque une première phase d'expansion. Ensuite, les années 1950 sont marquées par la participation de la France à la CECA ce qui accélère le processus de concentration industrielle régional et modifie les marchés des entreprises. Enfin, après une courte mais brutale phase d'expansion, la sidérurgie régionale entre en crise au début des années 1960. L'État intervient alors à nouveau, pas simplement comme « brancardier »5 – courant après les évènements –, mais plutôt comme un acteur à part entière de la concentration industrielle – avant, pendant et après cette dernière – et donc, de ses effets négatifs sur le personnel des HFC. L'échelle régionale est enfin mobilisable. Elle est utile en ce qui concerne l'étude de la réorganisation de la sidérurgie du Centre-est. La mobilisation politique et 1 MARSEILLE Jacques, Empire colonial et capitalisme français, Histoire d'un divorce, Albin Michel, Paris, 1984, 465 p. 2 BERGER Françoise, La France, l'Allemagne et l'acier (1932-1952). De la stratégie des cartels à l'élaboration de la CECA, thèse sous la direction de FRANK Robert, Université Paris I PanthéonSorbonne, 2000, 1257 p. [PDF] tel-00442332, version 1 – 21 Dec 2009, [dernière consultation le 14 août 2013], p. 901 sqq. 3 Ibidem, p. 41 sqq. 4 MARGAIRAZ Michel, L'État, les finances et l'économie. Histoire d'une conversion. 1932-1952, Paris, Imprimerie nationale, 1991, 2 vol., 1456 p., p. 769 sqq. pour l'après guerre. Ouvrage tiré d'une thèse de doctorat d'État soutenue en 1989 sous la direction de Jean Bouvier, puis de René Girault, Paris I Panthéon-Sorbonne, 1989. 5 COHEN Élie, L'État brancardier, Calmann-Lévy, Paris, 1989, 351 p. 18 syndicale des personnels comme du patronat s'effectue également à cette échelle qui peut être parfois dépassée. En effet, les discussions politiques et économiques régionales sont aussi débattues dans un cadre national et de plus en plus dans un cadre européen. La méthode à adopter est alors de faire varier les échelles afin de suivre ses débats. III) Méthodes et sources Si pour reprendre l'expression de Christophe Charles « l'histoire sociale consiste à croiser plusieurs niveaux d'interprétation historique et plusieurs échelles d'analyse », alors il est nécessaire de varier et de croiser les sources1. 1) Les documents du personnel de l'entreprise Même si elle ne couvre pas toute la période de cette étude débutant en 1945, la principale source de notre étude sur le personnel de la Compagnie des Hauts-Fourneaux de Chasse est son fichier mécanographique 2. Il est composé de 1891 fiches établies entre 1953 et 1966. Sur ce total, 1757 fiches ont été retenues et 134 supprimées pour deux ensembles de raisons : soit parce qu'elles sont incomplètes, soit parce qu'elles ont été remplies pendant l'année 1953. Dans le premier cas, il s'agit de travailleurs restés peu de temps dans l'usine, dans le second cas comme le fichier a été commencé cette année-là, le document ne couvre pas les douze mois. De plus, rédigées alors que les services du personnel des bureaux s'approprient progressivement cet outil, elles sont moins bien renseignées que celles des années suivantes. Le choix a donc été fait de n'en conserver que quelques unes, parmi les plus complètes. 1 CHARLES Christophe, « Quels combats pour l'histoire sociale aujourd'hui ? », Histoire et sociétés , n° 25-26, avril 2008, p.160-167. Marc Bloch indiquait déjà que « L'illusion serait grande d'imaginer qu'à chaque problème historique réponde un type unique de documents, spécialisé dans cet emploi », dans BLOCH Marc, Apologie pour l'histoire ou le métier d'historien, Armand Colin, Paris, 2012, 159 p., p. 79. 2 AMC, non classé. 19 Les fiches1 organisées dans une base de données comportent des renseignements sur l'état civil des travailleurs et de leurs familles, leur nationalité, leur situation de résidence, leur situation militaire et d'ancien combattant ou de déporté, leur qualification, leur profession, ou leur trajectoires professionnelle dans et à l'extérieur de l'usine, leur état de santé. En outre, au dos des fiches les services du personnel peuvent rajouter diverses informations : salaires annuels, primes de naissance ou de mariage, évènement survenu comme les motifs d'un accident du travail. Pour la période précédent 1954, il est nécessaire de recourir aux cahiers du personnel de l'usine2. Il existe deux types de cahiers : ceux des travailleurs français et ceux des étrangers. Ils comportent les mêmes renseignements : noms, dates et lieux de naissance, dates d'entrée et de sortie de l'usine, atelier d'affectation, adresse et une partie « observation » où est généralement inscrit le motif du départ. Pour les travailleurs étrangers, il y a – outre la nationalité –, la mention de la naturalisation. De plus, les cahiers des travailleurs étrangers n° 12 et 13 comportent en plus les professions, ce qui est rarement indiqué dans les autres documents. Ces documents ont donc des limites puisqu'ils sont inégalement précis. De plus, comme ils sont complétés au fur et à mesure des entrées, un même travailleur peut être recensé à plusieurs reprises ; cela arrive notamment en raison du phénomène de noria. Mais comme il n'existe pas de document d'usine dénombrant le personnel avant 1954, les cahiers sont par conséquent tout à la fois indispensables et moins bien renseignés que le fichier mécanographique. Le choix a été fait de conserver l'ensemble des données pour les travailleurs étrangers – moins nombreux –, mais de procéder par sondage à la lettre B pour l'étude des travailleurs français. Cette lettre est en effet représentative d'une population – d'une « étonnante stabilité » à travers le temps –, et peut permettre d'effectuer un échantillonnage comme l'ont prouvé plusieurs historiens3. En revanche, les données que l'on peut collecter après 1954 sont considérables : outre le fichier mécanographique, on dispose de la liste des personnels français des élections prud'homales 1954 et 1960, d'un état du personnel lors de la fermeture, des listes et dossiers des chômeurs et enfin des cahiers du personnel français et étrangers4. 1 Cf. annexe 12. AMC, non classé. 3 Voir par exemple PINOL Jean Luc, Les mobilités de la grande ville, Presse de la Fondation Nationale des Sciences Politiques, Paris, 1991, 431 p., p. 388-389. 4 ADI, 56J65 pour l'état du personnel ; AMC pour toutes les autres sources. 2 20 Outre la diversité de l'information, il est possible de croiser ces sources afin de vérifier leur qualité. Enfin, certains documents peuvent être utilisés en complément car ils ne concernent qu'une partie des salariés. Il s'agit tout d'abord des recensements de la population de Chasse-sur-Rhône1 : donc parmi les travailleurs des HFC, on ne voit que ceux qui résident dans la commune. Puis pour certains travailleurs étrangers, il est également possible de rechercher les demandes de cartes de séjour et les dossiers de naturalisation2, ou leurs fiches de renseignement3. Ces documents ont l'avantage de couvrir toute la période de l'étude. 2) Les autres sources : documents d'entreprises, politiques, administratifs, judiciaires, presse et imprimés Les autres sources utilisées concernent les personnels et l'environnement dans lequel ils travaillent et ils vivent. Les documents d'entreprise sont un premier ensemble de sources. On dispose pour la Compagnie des Hauts-Fourneaux de Chasse de ses procès verbaux des conseils d'administration, des rapports du conseil d'administration et des commissaires des comptes aux assemblées générales des actionnaires, et enfin des procès verbaux de l'assemblée générale des actionnaires couvrant toute la période étudiée4. Ces documents nous permettent de suivre les décisions stratégiques des dirigeants de l'entreprise et dans une certaine mesure, les débats qu'elles provoquent parfois avec les représentants des salariés lors des conseils d'administration. On a aussi quelques échos du comité d'entreprise, mais il faut chercher ailleurs – dans la presse ou les témoignages – des sources complémentaires pour cette institution5. Lors des CA, des informations concernent plus ou moins directement les salariés : décision de construire des maisons, d'attribuer des primes, de redémarrer ou d'arrêter certaines activités, etc. Des données essentielles sur les productions ou la masse salariale figurent également. Comme Jean1 AMC, 1F. ADI, 2973W1 à 1385 : dossiers de demande de cartes de séjour constitués dans les années 1930-1950 ; 4252W1 à 458 : dossiers accordés de demande de naturalisation et de réintégration dans la nationalité française. 3 AMC, 1E. 4 ADI, 56J, Compagnie des Hauts-Fourneaux de Chasse (1873-1979). 5 AMC, 1H3 où figurent quelques documents du comité d'entreprise datant de la période de la fermeture. 2 21 Claude Daumas l'écrit, il est en effet apparu capital pour cette recherche de passer une « alliance entre l'histoire sociale et l'histoire économique », car – toujours selon lui – « c'est dans l'entreprise que se déploient les politiques patronales, que se construisent (au moins en partie) les catégories et les classifications, et que les travailleurs sont confrontés chaque jour aux logiques du capital »1. Pour les mêmes raisons, on ne saurait rendre compte des rapports entre salariés et patrons « sans considérer l'histoire du patronat, sa structure, sa culture »2. De plus, comme les HFC appartiennent à un réseau d'entreprises sidérurgiques alliées et/ou rivales, on peut trouver des informations supplémentaires dans leurs archives. La Compagnie des hauts-fourneaux et fonderie de Givors nous offre la possibilité de suivre la conjoncture et de confronter les décisions de cette entreprise avec celles des HFC 3. Elle dispose en outre de documents syndicaux du Comité des forges, de la chambre syndicale des aciéries et hauts-fourneaux du bassin de la Loire et de l'Association des syndicats métallurgiques patronaux du bassin de la Loire ; ou encore des bulletins de la Chambre syndicale de la sidérurgie ; ils permettent d'avoir des informations sur la branche à l'échelle régionale et nationale. De plus, dans le réseau d'entreprises sidérurgiques régionales, la Compagnie des Forges et Aciéries de SaintÉtienne joue elle aussi un rôle clef pour les HFC : il s'agit d'une entreprise cliente des HFC dirigée par le même président directeur général. Ses archives4 permettent de suivre à l'échelle régionale les rythmes la vie économique et sociale ; en particulier la conjoncture et les grandes décisions qui concernent la profession. Des informations sur les HFC sont également évoquées : échanges commerciaux par exemple à propos de l'entreprise, grève de leurs personnels ou encore discussions entre leurs dirigeants. Toutefois, à partir de 1952, les Aciéries de Saint-Étienne vont se rapprocher de celles de la Marine pour former ensuite avec d'autres entreprises la Compagnie des Ateliers et Forges de la Loire 5. Par conséquent, c'est désormais dans les archives du groupe Marine6 que l'on peut poursuivre l'étude des relations entre les HFC et le réseau d'entreprises avec lequel ils collaborent. Ils partagent des administrateurs et les 1 DAUMAS Jean-Claude, « L'histoire ouvrière, quel retour ? », dans HATZFELD Nicolas, PIGENET Michel, VIGNA Xavier (dir.), Travail, travailleurs , op. cit., p. 351. 2 Ibidem, p. 347. 3 ADR, 34J, Compagnie des hauts-fourneaux et fonderies de Givors, établissements Prénat. 4 ADL, 117J, Compagnie des forges et aciéries de Saint-Étienne. 5 Les archives personnelles d'Henri Malcor sont déposées aux ADL, 211J, archives Henri Malcor. Elles éclairent la formation de la CAFL puis de Creusot Loire. 6 AN, 2012 026, archives du groupe Marine et archives liées au groupe Wendel déposées aux archives nationales du monde du travail. 22 informations transmises permettent de jeter un autre regard sur les dirigeants de l'entreprise et leurs choix, jusqu'à la fin de cette dernière. Les rivalités entre industriels permettent d'avoir un regard décalé sur les actions des uns et des autres. D'une manière générale, c'est dans ces différents documents que l'on trouve les sources portant sur les affaires judiciaires1. Elles peuvent concerner les dirigeants, l'entreprise et l'État français ou la CECA. Elles sont nécessaires à la compréhension des politiques menées par les dirigeants, ainsi qu'à la compréhension des relations avec les salariés. Les sources politiques et administratives, ainsi que la presse et les imprimés offrent des compléments utiles. Parmi les premières, figurent les archives de la mairie de Chasse-sur-Rhône et celles de Givors. Les cartons des HFC conservés dans la première nous livrent par exemple des documents sur les luttes menées dans les années 1960 ou sur la mutualité de l'entreprise2. Les document du conseil municipal sont moins riches, mais peuvent apporter des informations ponctuelles comme le nom des travailleurs des HFC élus municipaux ou les aides votées lors des grèves 3. Dans ces archives, on trouve différentes correspondances avec les administrations comme avec la préfecture de l'Isère ou la sous-préfecture de Vienne lors des luttes contre la fermeture la fermeture. On trouve aussi quelques articles de journaux conservés suite à un évènement important concernant la commune. Or les articles de périodiques comme le Progrès ou le Dauphiné Libéré peuvent aussi témoigner de l'actualité locale, régionale voire nationale et internationale intéressant les HFC et leur personnel 4. Ils sont parfois accompagnés de photographies permettant de repérer des visages, d'apercevoir l'intérieur de l'usine, de voir la foule mobilisée lors des manifestations, etc. Parmi les autres sources utilisées, on distinguera pour les sources dactylographiées les mémoires de recherche spécifiquement effectués sur Chasse 5, et pour les sources imprimées les articles ou ouvrages rédigés sur un sujet concernant 1 Il a été parfois possible de les croiser avec des archives départementales de la série U voire W. AMC, 1H3. 3 AMC, 1B3 et Bibliothèque municipale de Givors, 1D. 4 Les exemplaires du Progrès sont consultables à la bibliothèque municipale de Lyon, mais ce sont surtout les témoins qui ont permis de diversifier ces sources. 5 En particulier KINOSSIAN Laurence, Le personnel des Hauts-Fourneaux de Chasse-sur-Rhône, 18561940, mémoire de maîtrise sous la direction de LEQUIN Yves, Université Lyon 2, septembre 1989, 120 p. Volume 1 et Annexes volume 2 et PASQUET Caroline, Chasse-sur-Rhône : un relais secondaire en mutation, mémoire de maîtrise sous la direction de LAFFERRERE Michel, Université Lyon 2, 1973, 157 p. 2 23 l'entreprise. Parmi ces derniers, la géographie compte beaucoup1. Enfin, des sources en ligne reprenant les différentes thématiques ici indiquées ont été mobilisées 2. 3) L'apport des sources orales et privées La constitution progressive d'un échantillon de témoins remonte à près de 18 ans, à partir de la réalisation d'un mémoire de maîtrise, puis bien plus tard d'un master 23. C'est ce qui explique à la fois la richesse des apports, mais aussi les limites des sources recueillies. Le tout premier témoin a été Georges Charrier, mon grand-père, qui a été ouvrier de 1942 à 1944, puis infirmier des HFC de 1948 à 1961. Il m'a permis de rencontrer mes premiers témoins : Fernand Abel, puis Mohamed Safer, tous deux anciens ouvriers4. C'est également par l'intermédiaire de mon grand-père que j'avais déjà pu recevoir des documents de la part d'autres anciens travailleurs. Une quinzaine d'années plus tard, cette enquête a été reprise. De nombreux travailleurs sont décédés pendant ce laps de temps et d'autres sont tombés malades, si bien que les possibilités d'entretien se sont réduites : j'ai d'ailleurs eu des refus, essentiellement pour des raisons de santé et/ou liées au grand âge. Néanmoins neufs anciens travailleurs supplémentaires ont pu être contactés5. Il a donc été possible de réunir au total douze entretiens de travailleurs, huit hommes dont un mensuel et quatre femmes, toutes mensuelles. On compte neuf travailleurs français – dont un « pied noir » –, deux Algériens et un Italien. Les caractéristiques sociales de l'usine ne sont donc qu'en partie reproduites : notamment parce qu'il manque des cadres, toutes les nationalités ne sont pas représentées, il n'y a pas d'ouvrière. Des travaux de recherche effectués à Chasse comportent cependant 1 On indiquera parmi les nombreuses sources LAFERRERE Michel, Lyon ville industrielle, Essai d'une géographie urbaine des techniques et des entreprises, Paris, PUF, 1960, 546 p. 2 On citera par exemple la base Léonore. 3 Les témoins ou simples salariés sont nommément cités, sauf exception afin de préserver l'anonymat : le nom a alors été remplacé par une lettre. BONFILS-GUILLAUD Cyril, Le personnel des HautsFourneaux de Chasse-sur-Rhône de 1956 à 1963, mémoire de maîtrise sous la direction de SCHWEITZER Sylvie, Université Lyon 2, septembre 2000, 190 p. BONFILS-GUILLAUD Cyril, Le personnel immigré de la Compagnie des Hauts-Fourneaux de Chasse-sur-Rhône de 1960 à la fermeture de l'usine, mémoire de master 2 sous la direction de SCHWEITZER Sylvie, Université Lyon 2, juin 2013, 213 p. 4 Entretiens Georges Charrier et Fernand Abel le 15/3/2000 et Georges Charrier et Mohamed Safer 22/04/2000. Ils ont été conduits à partir d'un questionnaire : cf. annexe 13. 5 Cf. sources et annexes 14 et 15. 24 quelques extraits d'entretien avec d'autres membres du personnel, ainsi que des ouvrages documentaires rédigés par des auteurs locaux, parfois anciens travailleurs1. Ces sources posent diverses questions – en particulier de savoir comment elles ont été recueillies et retranscrites – mais elles peuvent aussi dans une certaine mesure compléter notre panel. Cependant, comme l'enquête a été effectuée en deux temps sur près de dix-huit ans, les conditions d'entretien ont alors été variées, ce qui a conduit à adapter les pratiques2. Les deux premiers entretiens effectués en 2000 se sont déroulés au domicile des trois anciens salariés des HFC. Par la suite lorsque l'enquête fut reprise, trois entretiens ont également été conduits au domicile de quatre des travailleurs. Dans un seul cas, il a été possible d'effectuer un enregistrement. Deux autres rencontres ont eu lieu à l'issue de conférences tenues à Chasse-sur-Rhône3. Enfin, deux entretiens téléphoniques ont été effectués et ont été enregistrés. Les premiers entretiens semi-directifs ont été effectués à partir d'un questionnaire et avec prise de notes. Leur objectif était alors de connaitre ces salariés et de les faire témoigner sur leur travail, leurs conditions de travail et leur parcours professionnel dans l'entreprise. Par la suite, les entretiens au domicile des travailleurs ont tous été conduits à partir d'un second questionnaire plus détaillé, portant sur les mêmes thèmes que ceux des premiers entretiens, mais aussi davantage sur le hors travail. Ce questionnaire a été repris de manière simplifiée pour les entretiens téléphoniques. Ces derniers n'ont certes pas la richesse que peut avoir une rencontre avec le témoin, mais ils permettent de pallier la difficulté à trouver des personnes acceptant un rendez-vous. Enfin, deux entretiens ont été menés sans questionnaire, pour des raisons matérielles, lors de rencontres informelles. Une raison du non enregistrement systématique des entretiens est aussi à chercher dans la nécessité – par ailleurs pas toujours choisie – d'inscrire l'enquête dans la durée : la connaissance du terrain permet en effet de maîtriser bon nombre de 1 KINOSSIAN Laurence, Le personnel des Hauts-Fourneaux de Chasse , op. cit. ; PASQUET Caroline, Chasse-sur-Rhône : un relais secondaire , op. cit. dans le premier cas. BOUILLET Janine, Racines et réalités de Chasse-sur-Rhône, Salaize-sur-Sanne, 2012, 148 p. COMTE Marie-Hélène et GONOD Nathalie, L'éternel arménien, l'histoire de la communauté de Chasse-sur-Rhône, Saint-Just-la pendue, 1997, 52 p. dans le second cas. 2 Sur le sujet, les ouvrages de référence utilisés sont DESCAMPS Florence, L'historien, l'archiviste et le magnétophone. De la constitution de la source orale à son exploitation , CHEFF, Paris, 2001 pour la première édition, 864 p., [également mis en ligne par open éditions books en 2011], http://books.openedition.org/igpde/104. BEAUD Stéphane et WEBER Florence, Guide de l'enquête de terrain, La Découverte, Paris, 2010, 334 p. 3 Dans le cadre des « Patri/malles », deux conférences les 17 et 20 mai 2016. 25 références communes avec les interviewés (noms des quartiers, des personnes, des postes de l'usine, etc.), ce qui est indispensable lors de l'entretien puis à son analyse 1. La fin des questionnaires en vue des entretiens a donc alors été réservée à l'actualisation des questionnements. Mais surtout, le choix a été fait de poursuivre les rencontres avec certains anciens travailleurs afin d'accumuler des informations orales de manière plus naturelle que lors d'un entretien, ce dernier ayant par ailleurs pu être préalablement effectué de façon informelle lors d'un rendez-vous en mairie, ou autour d'un café ; il a été suivi d'autres rencontres, appels téléphoniques et une correspondance par courriels a pu être établie avec trois anciens travailleurs : en leur posant régulièrement des questions, j'ai pu avoir accès à leurs réseaux de connaissances alors qu'il m'aurait été impossible de rencontrer ces personnes. Fondé sur la confiance, ce contact entretenu pendant de longues années avec plusieurs témoins a été plus productif que n'importe quelle enquête menée sur une journée, et a permis de revenir sur mes sources afin de les compléter, de les préciser2. Enfin, il a été aussi possible d'être associé à la rédaction de plusieurs livres, d'assister ou de participer à diverses manifestations : comme des expositions, ou des vernissages3. À cette occasion, de nombreux enfants de travailleurs ont été rencontrés : deux d'entre eux – Éric Combaluzier et Michel Paret – organisent depuis longtemps des actions portant sur la mémoire des HFC, mais tous m'ont apporté des documents ou des témoignages supplémentaires. L'accès à des sources privées complémentaires a alors été à l'origine de découvertes aussi inattendues que variées : film, photographies, correspondances, mémoire de recherche, articles de journaux, tracts, et même documents de l'entreprise non conservés dans des archives. Ainsi par exemple parmi les articles de journaux, plusieurs provenaient de numéros du Dauphiné libéré dont un correspondant local était Gaston Riffard, le dirigeant de la section CGT-FO de l'usine. Mais surtout, les sources privées sont les plus riches qui soient au niveau iconographique, notamment parce que 1 SIRNA Francesca, « L'enquête biographique : réflexions sur la méthode », in AGGOUN Atmane (dir.), Enquêter auprès des migrants, Le chercheur et son terrain , L'Harmattan, 2009, 164 p., p. 9-30, p. 14 sqq. 2 Francesca Sirna insiste sur l'importance de la fréquentation des interviewés afin d'établir un sentiment de confiance, dans SIRNA Francesca, « L'enquête biographique : réflexions sur la méthode », op. cit. p 28 sqq. 3 Les premiers contacts ont été pris grâce au maire de Chasse Jean-Pierre Rioult et de son secrétaire général Régis Aloy : cela a permis les premières rencontres pour le livre de FOND Christine, Chasse-surRhône au fil de l'eau, GLM Communication, 2002, 103 p. Des années plus tard, la méthode a été reprise pour les livres de BOUILLET Janine, Racines et réalités, op. cit., BELON Pascal, Carnets de Chasse de A à Z, EMCC, Lyon, 2012, 96 p., les rencontres des « Patri/malles » qui ont été l'occasion en 2016 de rencontrer les Chassères lors de la tenue de deux conférences enregistrées portant sur les HFC, mais aussi de participer à diverses réunions avec eux afin d'organiser ces évènements, d'accueillir les scolaires, etc. 26 les travailleurs ont photographié leur usine ou leur quotidien. Or les images peuvent être une source pour l'historien, il faut aussi les utiliser avec méthode : car si elles ne mentent pas, elles n'en sont pas moins des interprétations du réel1. Produites par ou avec l'accord des dirigeants de l'usine, elles représentent le procès technique, une topographie de l'usine, des éléments de la culture de l'entreprise 2 ; mais elles peuvent également être prises par les travailleurs eux-mêmes ou leurs familles. Elles sont toutes utiles pour tenter de savoir ce que font les ouvriers, tandis que comme l'indique JeanClaude Daumas les discours sur eux, les normes et leurs pratiques sont bien souvent divergents3. En s'interrogeant sur les conditions de travail et de vie des personnels de la Compagnie des Hauts-Fourneaux de Chasse pendant les Trente Glorieuses, cette thèse vise à revisiter cette période de croissance et d'amélioration des conditions de vie. La sidérurgie entrant précocement en crise, la fin des HFC n'a-telle pas annoncé ce qui allait se passer pour bien d'autres secteurs seulement à partir de 1974 ? Répondre à cette question nécessite de varier les échelles d'analyse et de ne pas se cantonner à une histoire des groupes sociaux, mais aussi de s'intéresser à celle des techniques, de l'entreprise ou du politique. Un plan chronologique a également été suivi. Le premier chapitre porte sur la période de reconstruction et de relance de l'entreprise alors qu'elle est complètement à l'arrêt à la fin du conflit. Un rappel est cependant fait de la situation des personnels, de l'entreprise et de ses dirigeants pendant et avant la guerre, car ceux qui sont là en 1945 ont une histoire. Les dirigeants cherchent à les mobiliser afin de préparer l'usine à une nouvelle phase d'expansion des productions. Le second chapitre aborde la période 1947-1956 pendant laquelle l'usine redémarre en effet. Mais la création de la CECA est accompagnée d'une évolution des rapports de force locaux dont pâtit le groupe d'entreprises auquel appartiennent les HFC au profit de celui dominé par les Aciéries de la Marine. Par conséquent après une phase d'expansion, les personnels vont devoir faire face à une baisse des productions tandis que l'on modernise l'outillage de l'usine. En 1956 est inauguré un nouveau hautfourneau censé favoriser le renouveau de l'usine de Chasse. 1 MICHEL Alain, « Les images comme source d'une histoire pratique du travail à la chaîne : Renault (1899-1947) », Histoire et sociétés, n° 23, septembre 2007, p. 76-89. GERVEREAU Laurent, Les images qui mentent. Histoire du visuel au XXe siècle, Seuil, Paris, 2000, 458 p., p.15. 2 DEWERPE Alain, « Miroirs d'usines : photographies industrielles et organisation du travail à l'Ansaldo (1900-1920) », Annales Économies, Sociétés, Civilisations, 42e année, n° 5, 1987, p. 1079-1114. 3 DAUMAS Jean-Claude, « L'histoire ouvrière, quel retour ? », op. cit., p. 346-347. 27 Dans le troisième chapitre, on constate que, dans le même temps, le périmètre de l'entreprise chassère se réduit progressivement car elle perd progressivement ses filiales. De plus, les dirigeants de Marine prennent une influence croissante, jusque dans son conseil d'administration. Les politiques d'entreprises suivies misent alors sur l'expansion et la modernisation de l'outillage afin de conserver une certaine indépendance. Le personnel participe de cette phase d'expansion, tandis que les recrutements, le travail, les conditions de travail sont à nouveau nécessairement affectés. Dans le dernier chapitre, on peut voir que le pari est cependant perdu et en 1962 s'ouvre une période de crise. L'année 1963 est un premier temps fort pendant lequel les travailleurs des HFC sont mobilisés. Ils le sont à nouveau en 1966 alors que de nouveaux dirigeants ont pris le pouvoir. Malgré une longue lutte, l'entreprise ferme et son usine est démantelée. Se pose alors la question de la reconversion du site et de ses travailleurs. 28 CHAPITRE 1 : RECONSTRUCTION ET RELANCE, 1945-1947 La phase de reconstruction et de relance de l'activité économique en France après la Seconde Guerre mondiale est un sujet d'étude historique déjà ancien1. Cela a permis à de nombreux ouvrages et articles de vulgariser le sujet devenu commun en histoire économique et sociale de la France2. Les thématiques sont connues : on s'intéresse aux destructions, on constate les difficultés à relancer l'économie qui est convalescente pendant plusieurs années, enfin on insiste sur le rôle de l'État 3 et du plan Marshall dans la relance. Aujourd'hui, un changement est cependant perceptible en raison de l'évolution de l'approche scientifique : on ne s'attache plus au conflit en lui-même, mais on s'intéresse aussi à la période qui le suit, on aborde les deux ensembles et non plus comme avant de manière de manière séparée4. De plus, au niveau sectoriel, l'industrie française5 – et la sidérurgie – ont également été étudiés : elles participent activement à la reconstruction de toute l'économie6. À une autre échelle, la reconstruction régionale dans le bassin stéphanois est également connue grâce notamment à la thèse de Monique Luirard7. Cependant à l'échelle locale, malgré différents travaux, pour l'usine 1 La bibliographie ne pouvant toute être citée, on se limitera aux titres suivants : BAIROCH Paul, Victoires et déboires, Histoire économique et sociale du monde du XVIe siècle à nos jours, tome 3, Paris, Gallimard, coll. Folio, 1997, 1111 p., p. 104 sqq. BRAUDEL Fernand et LABROUSSE Ernest (dir.), Histoire économique et sociale de la France, tome IV, volumes 1-2, Paris, PUF, 1982, 980 p., p. 667 sqq., et p. 763 sqq. 2 On peut citer par exemple ASSELAIN Jean Charles, Histoire économique de la France du XVIIIe siècle à nos jours, De 1919 à la fin des années 1970 , Tome 2, Coll. Points histoire, Éditions du Seuil, Paris, 1984, 219 p., p. 107 sqq. VOLDMAN Danièle, « 1945-1950 : La Reconstruction », L'Histoire, n° 179. 3 MARGAIRAZ Michel, L'État, les finances et l'économie. Histoire d'une conversion. 1932-1952, op. cit. 4 VAYSSIÈRE Bertrand, « Relever la France dans les après-guerres : reconstruction ou réaménagement ? », Guerres mondiales et conflits contemporains, 4/2009, n° 236, p. 45-60. 5 WORONOFF Denis, Histoire de l'industrie en France, du XVIe siècle à nos jours, Paris, Le Seuil, 1998, 681 p., p. 483 sqq. 6 MIOCHE Philippe, La sidérurgie et l'État en France des années 1940 aux années 1970, op. cit., p. 589 sqq. BUSSIÈRE Éric et CHADEAU Emmanuel, « Sidérurgie et métallurgie lourde : aléas et structures », dans LÉVY-LEBOYER Maurice (dir.), Histoire de la France industrielle, Paris, Larousse , 1996, 550 p., p.335 sqq. 7 LUIRARD Monique, La région stéphanoise dans la guerre et dans la paix (1936-1951), op. cit., p. 669 sqq. 29 sidérurgique de Chasse-sur-Rhône, le sujet n'a en revanche jusque-là pas encore été abordé1. Or la Compagnie des Hauts-Fourneaux de Chasse a traversé la Seconde Guerre mondiale en poursuivant ses activités jusqu'à la Libération. On doit donc faire un état des lieux de l'entreprise, de l'usine, et de son personnel à l'issue du conflit, alors que se mettent en place les éléments qui vont conditionner les Trente Glorieuses. Il s'agit de savoir comment la reconstruction et la relance s'effectuent dans l'immédiat aprèsguerre. Après avoir établi un bilan de sa situation à la Libération, on verra ensuite le redémarrage de ses activités jusqu'en 1947. I) Chasse année zéro : une entreprise à l'arrêt En 1945, la Compagnie des Hauts-Fourneaux de Chasse doit faire face à un nouvel environnement politique et économique né de la guerre. Cet environnement a eu un impact sur ses filiales, ses fournisseurs et ses clients. Ses dirigeants vont alors pouvoir utiliser leur expérience pour la relancer. 1) La Compagnie des Hauts-Fourneaux de Chasse et ses filiales face à un nouvel environnement En 1945, la Compagnie a près de trois-quarts de siècle d'existence. Elle a été constituée le 10 janvier 1873 par un acte déposé aux minutes de maître Messimy, notaire à Lyon2. Elle reprend l'usine sidérurgique de Chasse-sur-Rhône et les mines d'El M'Kimen près de Bône en Algérie venant de la liquidation Girerd-Nicolas et Compagnie, « banquier local » stéphanois emporté par la crise de 18703. Dès son 1 BONFILS-GUILLAUD Cyril, Le personnel des Hauts-Fourneaux de Chasse-sur-Rhône de 1956 à 1963, op. cit. BONFILS-GUILLAUD Cyril, Le personnel immigré de la Compagnie des HautsFourneaux de Chasse-sur-Rhône de 1960 à la fermeture de l'entreprise, op. cit. KINOSSIAN Laurence, Le personnel des Hauts-Fourneaux de Chasse-sur-Rhône, 1856-1940, op. cit. 2 ADI, 56J. 3 VANT André, « Évolution bancaire et espace urbain stéphanois », Revue de géographie de Lyon, vol. 52 n° 4, 1977, p. 367-394, p. 374. 30 origine donc, la Compagnie des Hauts-Fourneaux de Chasse possède une usine et des mines. Par la suite, elle a aussi acquis ou créé des filiales et succursales. En 1945, il y en a quatre mais il existe également d'autres participations, si bien que les entreprises contrôlées sont plus nombreuses. Parmi ces filiales et succursales, on a tout d'abord la Société des mines de la Têt qui exploite du minerai de fer dans les Pyrénées créée en 19091. Cette filiale de Chasse est aussi à l'origine de la création de la Société Auxiliaire des Mines des Pyrénées Orientales (SAMPO) en 1923 2. La SAMPO est à la fois une entreprise de transport et de traitement du minerai. Ensuite, après l'épuisement des mines de El M'Kimen en Algérie au lendemain de la Première Guerre mondiale, la Compagnie investit dans d'autres mines. Il y a notamment celles du djebel Bou Amrane proches de Bougie qui sont encore en exploitation au lendemain du second conflit mondial. Elles sont la propriété de Chasse depuis 1918, mais constituent une simple succursale3. Enfin, la Compagnie a une ancienne filiale commune avec la Compagnie des fonderies, forges et aciéries de Saint-Étienne dans laquelle elle détient toujours des participations : il s'agit de la Société des forces motrices Bonne et Drac fondée en décembre 19204. Un programme de construction sur plusieurs années a permis la réalisation de trois usines productrices d'électricité : celle de la Bonne inférieure à Ponsonnas en 1926, celle du Sautet en 1935 et enfin celle de Cordéac qui s'appuie elle aussi sur le barrage du Sautet. Cette dernière usine, encore en chantier pendant la guerre, n'a été achevée qu'après, en 1947 ou 19485. La Seconde Guerre mondiale a eu un effet important sur les filiales de Chasse, de même que l'immédiat après guerre. Mais si le contexte général est commun, leur situation est toutefois variable. 1 ADI, 56J1, dossier adressé à « Monsieur Couturie » ingénieur en chef de l'artillerie navale au Ministère de la marine. 56J7, conseil d'administration du 14 septembre 1909 pour le projet de constitution de la société. 56J8, conseil d'administration du 21 mars 1911 pour sa création. Les archives de la Société des mines de la Têt sont également conservées à Grenoble. La sous-série 56J71 comprend les documents de constitution de la société. 2 ADI, 56J1, dossier adressé à Monsieur Couturie déjà cité. Les archives de la SAMPO sont également conservées à Grenoble où elles ont été versées en même temps que celle des mines de la Têt. La soussérie 56J113 comprend les documents fixant les statuts de l'entreprise au moment de sa création. 3 ADI, 56J51, dossier adressé à « Monsieur Couturie » déjà cité. Les archives des mines du djebel Bou Amrane se trouvent aussi à Grenoble et ont été versées avec celles des HFC, sous-séries 56J51 à 56J56. 4 ADI, 56J22, rapport du CA à l'AG ordinaire du 28 juin 1946 et rapport de messieurs les commissaires des comptes pour l'exercice 1944-1945. 16 Anne Dalmasso donne l'année 1947, mais sans citer sa source, in DALMASSO Anne, « Barrages et développement dans les Alpes françaises de l'entre-deux-guerres », Revue de Géographie Alpine, 96-1, 2008, p. 45-54. Une fiche EDF indique l'année 1948, in EDF unité de Production Alpes, document [pdf] , « fiche barrage du Sautet », [mis en lligne septembre 2013], http://energie.edf.com/fichiers/fckeditor/Commun/En_Direct_Centrales/Hydraulique/Centres/Les_Alpes/ publications/document/fiche_sautet/. 31 Les HFC ont également investi par le passé dans plusieurs domaines et terrains où ils espéraient trouver du charbon ou du minerai de fer. Des activités ont pu être développées par le passé, mais elles ne leur rapportent désormais plus rien et sont au mieux louées1. Ils possèdent aussi une participation majoritaire dans la Société des chaux et ciments de Chazay-Bons2 qui fournit la chaux servant de fondant à ses hautsfourneaux, ainsi qu'une autre participation dans une société comparable à Amby : Jean Demoule – le directeur des usines – en a la responsabilité pour la Compagnie des HautsFourneaux de Chasse3. Ils collaborent donc avec ces entreprises, mais elles ne sont pas considérées comme des filiales, même si leurs participations peuvent être importantes : la preuve en est que la direction de ces entreprises est indépendantes, que la gestion des relations est confiée à la direction de l'usine, ce qui n'est bien sûr pas le cas des filiales. Il est également vrai que leurs liens avec elles ne concernent que la cimenterie, une activité marginale de l'usine de Chasse. Pour les sociétés minières pendant la guerre, leur position géographique a été déterminante. Ainsi, les entreprises des Pyrénées sont restées en contact avec Chasse pendant toute la période : elles deviennent sa principale source en minerai de fer, même si un système de répartition l'oblige à partager avec les autres entreprises sidérurgiques4. Mais après le débarquement en Afrique du Nord le 8 novembre 1942, la ligne de démarcation disparaît et les logiques d'exploitation économique allemande s'imposent sur tout le territoire français. Par exemple, dans un rapport du conseil d'administration à l'assemblée générale ordinaire du 10 juin 1943, il est indiqué une volonté de développer l'extraction qui se heurte déjà au manque de main d'oeuvre : les travailleurs polonais ont été renvoyés vers les mines de fer de Lorraine 5. Les minerais circulent encore par la batellerie du Rhône, comme au XIXe siècle, ainsi que cela est précisé dans le même rapport. Par la suite, se sont les combats de la Libération qui constituent de nouvelles contraintes et la situation ne fait que s'aggraver jusqu'à la fin de l'année 1944 : c'est seulement en décembre que les mines pyrénéennes reprennent leurs livraisons, après six mois d'interruption. Néanmoins, pendant cette période de 1 ADI, 56J34, propriétés de Fauches et Grandchamp en Saône-et-Loire, Masseguin en Lozère, Montredon dans le Tarn, Bourg Saint-Maurice en Savoie. 2 ADI, 56J12, conseil d'administration du 28 décembre 1955. 3 ADI, 56J22, rapport du CA à l'AG du 29 mai 1951. Sur les liens économiques : BLANCHARD Raoul, « L'industrie des chaux et ciments dans le Sud-Est de la France », Revue de géographie alpine, tome 16, n° 2, 1928, p. 255-376, p. 351-353. 4 ADI, 56J24, rapport du CA à l'AG ordinaire du 10 juin 1943. 5 ADI, 56J24, ibidem. 32 suspension des transports, elles ont tout de même pu poursuivre leur extraction, mais à un rythme ralenti. Les stocks constitués sont alors importants, ils posent un problème de coût, mais en même temps leur vente – et donc leur transport – ne peut se faire que si les prix sont relevés à un niveau suffisamment rémunérateur1. Les mines algériennes produisent pour Chasse, mais aussi pour d'autres clients comme des sidérurgistes anglais avant 1939 2. A partir de l'été 1940, le minerai n'est plus envoyé en métropole suite à l'invasion par le Reich ; le personnel s'occupe alors d'entretenir la mine en vue de sa reprise d'activité. Puis, les livraisons reprennent pour la France en 1942, mais elles sont interrompues à nouveau en novembre après le débarquement des Alliés en Afrique du Nord3. D'après les documents du rapport du conseil d'administration à l'assemblée générale, l' « occupation de l'Afrique française nous a séparé [] de votre exploitation algérienne, dont les comptes demeurent bloqués depuis lors »4. Ce document donne l'impression, comme l'a écrit Jacques Marseille, que la Libération de l'Afrique du nord par les Alliés a pu être vécue comme « une seconde défaite française »5. Après cet évènement, les hauts-fourneaux britanniques vont se faire livrer les minerais de haute qualité des mines de Bou Amrane jusqu'en avril 1946. Ensuite, les livraisons pour la France et donc également pour Chasse reprennent en partie6. Par conséquent, si les mines algériennes et pyrénéennes ont traversé la même époque chaotique, leur existence n'a pas été la même. En 1945, Bou Amrane fait état d'une « trésorerie large », quand les mines de la Têt et la SAMPO ont en revanche « particulièrement souffert »7. Les premières ont repris leurs activités dès 1943 ; alors que les secondes sont paralysées et ont des problèmes de main d'oeuvre comme d'expédition, pendant et après la Libération. Enfin, on relèvera un dernier paradoxe : si les mines algériennes ont produit pour les Alliés, celles des Pyrénées ont travaillé pour l'industrie au service du Reich. 1 ADI, 56J22, rapport du CA à l'AG ordinaire du 26 juin 1945. ADI, 56J22, rapport du CA à l'AG ordinaire du 28 juin 1946. 3 ADI, 56J24, rapport de messieurs les commissaires aux comptes (non daté) et rapport du CA à l'AG ordinaire du 10 juin 1943. 4 ADI, 56J24, rapport du CA à l'AG ordinaire du 9 juin 1944, p. 1-2. 5 MARSEILLE Jacques, « L'Empire », in AZÉMA Jean Pierre et BÉDARIDA François (dir.), La France des années noires, tome 1, Points Histoire, Éditions du Seuil, 2000, 580 p., p. 297. 6 ADI, 56J22, rapport du CA à l'AG ordinaire du 28 juin 1946. 7 ADI, 56J22, rapport de messieurs les commissaires aux comptes (premier rapport de l'année 1945). 2 33 En ce qui concerne la Société des forces motrices Bonne et Drac, celle-ci n'a distribué aucun dividende à ses actionnaires depuis 19311. Les bénéfices ont été consacrés à des amortissements et à des paiements de primes en raison de l'ampleur de la construction : avec une hauteur de 126 mètres, le barrage poids voûte du Sautet est le plus grand du monde2. De plus, la guerre a entrainé la destruction de plusieurs infrastructures de transport d'électricité ainsi que des retards dans le chantier de l'usine de Cordéac3. Le prix de ce dernier chantier est multiplié par deux et demi entre 1941 et 1945 – soit de 180 millions à 450 millions de francs entre ces deux dates 4 , alors que les retards dans la mise en fonctionnement de l'usine ne permettent pas de réaliser d'amortissement pour cette infrastructure, ni même simplement de commencer à compenser les coûts qui croissent. Toutefois, la Société a fourni de l'électricité à Chasse ainsi qu'aux Aciéries de Saint-Étienne avec lesquelles elle a un contrat. Cela a d'ailleurs été le seul résultat tangible pour les HFC jusqu'en 1945, car ensuite « la société [] tombe sous les effets de la loi de nationalisation des entreprises productrices d'énergie électrique »5. Cette dernière filiale de Chasse ne lui a donc pas causé autant de souci que les autres, mais elle ne lui a rien rapporté, alors que la diversification des activités et la création de ressources nouvelles ont été les buts des investissements réalisés après 1918 grâce aux bénéfices conséquents engrangés pendant le premier conflit mondial. Ajoutons que la Société des ciments Pelloux – dont Chasse avait pris le contrôle avec Bonne et Drac après la Première Guerre mondiale dans le but de participer à la construction des barrages – a fait faillite dès 1938 6. Avec la nationalisation de 1945, c'est bien tout une aventure industrielle dans les Alpes qui s'achève ; même si les conséquences de ces investissements s'étendent, comme on le verra, jusqu'aux années 1960. 1 Ibidem. DALMASSO Anne, « Barrages et », op. cit., p. 9. 3 ADI, 56J12, conseil d'administration du 12 janvier 1945. 4 ADI, 56J12, conseil d'administration du 30 mars 1944. 5 ADI, 56J22, rapport de messieurs les commissaires aux comptes pour l'exercice 1944-1945. 6 ADI, sous-série 23J, Fonds de la Société des Ciments Pelloux de Valbonnais. Pour la liquidation, voir séance de l'AG extraordinaire des actionnaires du 28 octobre 1938, 23J122. 2 34 2) La Compagnie des Hauts-Fourneaux de Chasse dans le réseau régional Si la guerre et la Libération ont eu des conséquences importantes sur les filiales et la succursale de Chasse, c'est évidement aussi le cas pour les clients et fournisseurs de la Compagnie. Il n'est pas utile ici de faire la liste de toutes entreprises avec lesquelles elle a des liens économiques. On s'attachera donc seulement aux principales, car elles ont joué un rôle important dans l'histoire de la Compagnie des hauts-fourneaux de Chasse et de leurs personnels. Il y a tout d'abord la Compagnie des fonderies, forges et aciéries de SaintÉtienne. Cette entreprise a été fondée à l'automne 1865 par l'ingénieur Charles Barrouin1. Elle est bien connue des historiens pour avoir participé au cours de l'année 1952 à la fusion avec la Compagnie des forges et aciéries de la Marine, un des éléments de la future société Creusot Loire2. Ce sont Ernest Revol et Charles Cholat – le premier administrateur délégué et le second secrétaire général du conseil d'administration de cette entreprise –, qui participent à la fondation de la Compagnie des Hauts-Fourneaux de Chasse en 18733. Charles Cholat en devient le secrétaire au conseil d'administration, poste qu'il occupe afin de « faire ses preuves » et de devenir administrateur des Aciéries de Saint-Étienne en 1874, puis administrateur délégué en 1876 à la mort d'Ernest Revol4. Les liens entre les deux entreprises sont donc anciens et soutenus. Ils sont tout d'abord dus à la présence d'administrateurs communs : par exemple, trois sur les sept qui ont fondé Chasse ; soit Arbel, Roget et Revol ; et même quatre si on compte Cholat, qui est administrateur à Chasse dès son origine, quand il ne l'est pas encore à SaintÉtienne5. Au XXe siècle, les Cholat6 ayant pris le pouvoir à Saint-Étienne comme à 1 ADL, 117J1, procès verbaux du conseil d'administration 1865-1875. Voir aussi COLSON Daniel, La Compagnie des fonderies, forges et aciéries de Saint-Étienne (1865-1914). Autonomie et subjectivité techniques, Publications de l'Université de Saint-Étienne, Saint-Étienne, 1998, 290 p., p. 7. 2 Voir notamment MIOCHE Philippe et ROUX jacques, Henri Malcor : un héritier des maîtres de forges, Éditions du CNRS, 1988, Paris, 349 p., en particulier p. 50 sqq., ainsi que p. 307 sqq. BEAUD Claude, « Le drame de Creusot-Loire : échec industriel ou fiasco politico-financier ? », Entreprises et histoire, 2001/1 n° 27, p. 7-22. FREYSSENET Michel, La sidérurgie française 1945-1979, Histoire d'une faillite. Les solutions qui s'affrontent, Paris, Savelli, 1979, 170 p., p. 24-25. 3 ADI, 56J1 et COLSON Daniel, La Compagnie, op. cit., p. 51-52. 4 COLSON Daniel, La Compagnie, op. cit., p. 51-52. 5 ADI, 56J5, conseil d'administration du 12 septembre 1873 et ADL, 117J1, procès verbaux du conseil d'administration 1865-1875. 6 Sur la famille, voir notamment COLSON Daniel, La Compagnie, op. cit. MIOCHE Philippe et ROUX jacques, Henri Malcor, op. cit. VERNEY CARRON Nicole, Le ruban et l'acier : les élites économiques 35 Chasse, la famille constitue alors le principal pivot entre les deux entreprises, ce qui est toujours valable après 1945. De plus, les réunions des conseils d'administration des HFC se tiennent pendant longtemps dans les locaux des Aciéries stéphanoises. Des facteurs industriels expliquent cette proximité : Chasse, dès sa création, fournit en fonte les fours Martin de Saint-Étienne et ces liens ont été maintenus avec le temps. Enfin, les deux entreprises ont aussi comme filiale commune la Société des forces motrices Bonne et Drac. Elles se partagent l'électricité, échangeant par exemple leurs quotas, en fonction de leurs besoins, pendant la Seconde Guerre mondiale1. Toujours pendant la guerre, Chasse se porte caution pour l'achat d'un four électrique dont la valeur forfaitaire est de 10 800 000 francs2. Par conséquent, si les Aciéries de Saint-Étienne appartiennent à un groupe indépendant de celui de Chasse, on peut dire que les entreprises sont soeurs. Elles participent à un réseau industriel s'étendant à la vallée du Gier, mais dont les ramifications vont bien au-delà. Un autre pôle de ce réseau est constitué par les Aciéries Marrel de Rive-de-Gier, Jean-Baptiste Marrel rejoignant le conseil d'administration de Chasse en 18833. Ce dernier ayant été nommé vice-président du conseil d'administration des HFC à plusieurs reprises, il joue dès les débuts de l'entreprise un rôle clef. Les relations demeurèrent étroites, la famille Marrel restant au conseil d'administration de l'entreprise depuis ce temps-là, elle est encore présente après 1945. Les autres clients ou fournisseurs de Chasse n'ont pas eu de liens aussi étroits que ceux des Aciéries de Saint-Étienne et Marrel de Rive-de-Gier4. Ils peuvent même appartenir à des réseaux concurrents, comme celui qui comprend la Compagnie des hauts-fourneaux et fonderie de Givors, établissements Prénat. Cette entreprise qui a été constituée en 18535 est localisée de l'autre côté du Rhône. Elle travaille en particulier avec la Compagnie des forges et aciéries de la Marine et d'Homécourt, dont plusieurs dirigeants sont des administrateurs de Givors : on peut citer en particulier Théodore de la région stéphanoise au XIXe siècle 1815-1914, Publications de l'Université de Saint-Étienne, 1999, 448 p., p. 116-118. 1 ADI, 56J24, rapport du CA à l'AG ordinaire du 9 juin 1944. 2 ADI, 56J12, conseil d'administration du 29 avril 1943. 3 ADI, 56J5, conseil d'administration du 3 décembre 1883. 4 MIOCHE Philippe et ROUX jacques, Henri Malcor , op. cit., p. 313 sur Prénat et p. 317 sur Marine. 5 ADR, 34J1, Statuts de la société E. Prénat et Cie, Compagnie des Hauts-fourneaux et fonderies de Givors, 1853. 36 Laurent, Joseph Roederer ou Léon Daum1. Le premier est contraint de démissionner de ses postes de président du conseil d'administration et directeur général de Prénat au début de l'Occupation2 ; mais Roederer et Daum restent administrateurs à Givors. Or le premier a été directeur des usines de la Loire de la Compagnie des forges et aciéries de la Marine et d'Homécourt3, quand le second a été directeur général de la même entreprise4. Toutefois, si les Hauts-Fourneaux Prénat appartiennent à un réseau qui est en concurrence de celui de Chasse, ils ont déjà été amenés à collaborer à plusieurs reprises au cours de leur longue histoire. Par exemple, en 1890, les HFC se fournissent en coke auprès de la nouvelle cokerie de Givors, après avoir passé un contrat avec les Aciéries de Saint Chamond5. Bien plus tard, en 1922, les Hauts-Fourneaux de Chasse et ceux de Givors protestent de concert contre le prix du coke et de la charge excessive qui résulte de leur adhésion à la Société des cokes de hauts-fourneaux (SCOF)6. Toutefois, si à maintes reprises les entreprises collaborent, elles rivalisent aussi. Des différends entre les deux réseaux peuvent remonter quasiment aux origines de Chasse, mais ils se développent surtout à partir de 1914. Par exemple en 1891, un « incident » porte sur la qualité de la livraison de la fonte produite par Chasse pour la Compagnies des forges aciéries de Saint Chamond7. La solution à la crise est trouvée par l'acquisition de l'intégralité du stock litigieux par les Aciéries de Saint-Etienne et leur remplacement par les nouvelles productions de Chasse8. Le contrat avec Saint Chamond est donc renouvelé l'année suivante. Il l'a été jusqu'à la Grande guerre, car après cette période, Saint Chamond, Assailly ou Lorette qui « faisaient partie [] de la clientèle de Chasse, sont maintenant approvisionnés par les Hauts-Fourneaux de Givors »9, sans que ces marchés ne soient partagés entre les deux usines productrices de fonte, qui approvisionnent donc les aciéries de deux réseaux devenus alors principalement concurrents. 1 Pour une biographie de Laurent et Daum, DAUMAS Jean Claude, CHATRIOT Alain, FRABOULET Danièle, FRIDENSON Patrick et JOLY Hervé (dir.), Dictionnaire historique des patrons français, Paris, Flammarion, 2010, 1620 p., p.403-405 et p. 218-219. 2 ADR, 34J7, assemblées générales, rapports et comptes-rendus imprimés 1917-1962, rapport du conseil d'administration et assemblée générale du 27 octobre 1941. 3 Ibidem, rapport du conseil d'administration du 15 juillet 1933. 4 Ibidem, rapport du conseil d'administration du 25 août 1934 5 ADI, 56J6, conseil d'administration du 25 février 1890. 6 ADI, 56J9, conseil d'administration du 29 décembre 1922. 7 ADI, 56J6, séances du conseil d'administration du12 février et du 28 mai 1891. 8 Ibidem, séance du 27 juin. 9 ADI, 56J9, conseil d'administration du 29 octobre 1925. 37 L'entre-deux-guerres et le second conflit mondial ont été l'occasion de la poursuite de relations faites de méfiance, de rivalité, mais aussi de réalisme et de coopération entre ces deux réseaux d'entreprises. Deux exemples peuvent illustrer cela : celui de la participation de Chasse à une entente sur les fontes hématites, puis celui de la participation de ses dirigeants aux activités syndicales patronales du bassin de la Loire. Tout d'abord, au sujet de l'entente de 1925 sur les fontes hématites, il est possible de remonter à la fondation d'un comptoir à laquelle Chasse et Givors ont participé en 19191. Ce premier Comptoir est par la suite dissout 2. Plusieurs épisodes de création et de menace, voire de suppression de l'entente se succèdent alors : en 1925 on a la renaissance de l'entente sous l'impulsion de Jacques Aguillon, administrateur délégué des Hauts-Fourneaux de Rouen3. Puis, avec la « dissidence » de Decazeville4, on entre dans une période où d'assez « nombreuses infractions aux prix minima » sont constatées5. En 1929, Chasse menace de quitter l'entente afin d'obtenir une hausse de son quantum (quantité de production allouée dans le cadre de l'entente), et elle l'obtient6. La Compagnie renouvelle sa menace en 1931 dans le contexte de la grande crise en critiquant le refus d'augmenter son quantum, alors que d'après elle Givors l'a obtenu7. Elle met alors sa menace à exécution par lettre à partir du 3 septembre, tout en restant en contact avec Jacques Aguillon 8, mais en provoquant la dissolution du comptoir. Des pourparlers sont régulièrement tenus pour sa reconstitution9, qui ne prend effet qu'en 1935 avec la création de l'Union des Groupements de producteurs de fontes Hématites (UGH)10. Mais la reconstitution d'une entente est suivie d'accords et de désaccords avec Givors, par exemple sur le partage du quantum du Creusot, ou pour la rétrocession de quantum en période d'arrêt des hauts-fourneaux pour réparation11. Pendant la Seconde Guerre mondiale, le Comité d'organisation de la sidérurgie (CORSID) est créé dès novembre 1940. Il concerne « l'activité industrielle et 1 ADR, 34J223, Comptoir des Fontes hématites (1920-1934), PV. de la réunion du 16 mai 1919. ADI, 56J9, conseil d'administration du 4 octobre 1923. 3 Ibidem, conseil d'administration du 20 août 1925. 4 Ibidem, conseil d'administration du 2 février 1928. 5 Ibidem, conseil d'administration du 7 septembre 1928. 6 ADI, 56J10, conseils d'administration du 17 octobre et du 28 novembre 1929. 7 Ibidem, conseil d'administration du 29 août 1931. 8 Ibidem, conseil d'administration du 1 octobre 1931. 9 Ibidem, séances du conseil d'administration du 23 février, du 29 novembre et 29 décembre 1932, puis du 2 mai 1933, puis du 29 mars et 23 août 1934. 10 Ibidem, séances du conseil d'administration des 31 janvier, 28 février et 28 mars 1935. 11 Ibidem, séances du conseil d'administration des 27 septembre et 5 novembre 1935, 5 novembre 1936, 4 novembre 1937 et 3 février 1938. 2 38 commerciale des entreprises qui élaborent les produits ferreux (fontes, aciers ordinaires ou spéciaux) ou qui les transforment par des opérations de laminage de fort tonnage »1. Sa création succède à la disparition de l'UGH suite à l'invasion. Il examine alors comment restructurer la sidérurgie française, et il envisage de faire de Chasse et de Givors des « points forts » car elles possèdent des hauts-fourneaux « bien placés géographiquement »2. Mais si la création d'ententes se fait à l'échelle nationale, c'est surtout à l'échelle régionale que se développent les activités syndicales patronales du bassin de la Loire. Les représentants des réseaux auxquels appartiennent Chasse et Givors jouent un rôle central. Ainsi, en 1939, Pierre Cholat est président du Comité des Forges de la Loire3. Il conserve cette fonction alors que le Comité des Forges de la Loire devient la Chambre syndicale des aciéries et hauts-fourneaux du bassin de la Loire en 1941. La Chambre est chargée de seconder le Groupement de la sidérurgie du centre dont le président est Léon Daum (ce dernier est alors aussi administrateur des hauts-fourneaux de Givors et vice-président du Comité d'organisation de la sidérurgie)4. Mais si Pierre Cholat reste à cette fonction pendant tout le conflit comme représentant des Aciéries de Saint-Etienne, en revanche les HFC n'ont de représentant que jusqu'en 1943. Enfin, Pierre Cholat est également vice-président de l'Association des syndicats métallurgiques patronaux de la Loire qui devient un syndicat officiel dans le cadre de la Charte du travail5. Il est nommé ensuite président en 1943, dans le cadre de la formation d'un syndicat unique6. En 1945, les dirigeants de Chasse ont une influence à l'échelle principalement régionale. Prénat et surtout ses administrateurs venant de Marine Saint-Chamond agissent eux à l'échelle nationale. La fin du conflit a donc apporté une certaine incertitude au niveau économique en raison de la désorganisation des marchés. Il en est de même au niveau de l'évolution du rapport de force entre réseaux d'entreprises 153 AN/ F 12 / 10 134, décret portant création du CORSID, JO du 11 novembre 1940 dans BERGER Françoise, La France, l'Allemagne et l'acier (1932-1952). De la stratégie des cartels à l'élaboration de la CECA, op. cit., p. 450. 2 Ibidem, p. 464. 3 ADR, 34J222, Comité des Forges de la Loire puis Chambre syndicale des Aciéries et hauts-fourneaux du bassin de la Loire et Association des Syndicats métallurgiques patronaux du bassin de la Loire, octobre 1899–novembre 1948. 4 Ibidem, réunion du Comité des forges de la Loire du 30 mai 1941. 5 Ibidem, réunions de l'Association des syndicats métallurgiques patronaux de la Loire du 8 février 1939 et du 28 novembre 1941. 6 Ibidem, assemblée constitutive du 9 décembre 1943 du Syndicat unique de la production des métaux de la Loire. 39 concurrentes et néanmoins collaboratrices dans un cadre régional. Ce dernier est devenu trop étroit, alors que l'État a appris à jouer un rôle central au niveau économique. Dans ce nouvel environnement, les dirigeants de Chasse vont devoir adopter de nouvelles stratégies : ils peuvent s'appuyer sur leur identité et leur expérience héritées d'un long passé. II) La permanence des dirigeants Le patronat français est « depuis longtemps, un objet de recherche tant pour les historiens que pour les sociologues et les politistes » selon Jean Claude Daumas1. Aussi, toujours d'après lui, nous sommes « bien loin d'être devant un désert historiographique : les monographies d'entreprises, de Bianchini-Ferier à Peugeot, les biographies de patrons, d'André Citroën à Marcel Dassault, les histoires de dynasties, lyonnaises, marseillaises ou alsaciennes, et organisations patronales, du Comité des Forges à la CGPME se sont accumulées depuis une trentaine d'année », même s'il faut « attendre le Dictionnaire historique des patrons français 2 paru en 2010, pour disposer enfin d'une vue d'ensemble ». Le patronat de la Loire et en particulier les Cholat n'échappent pas à cette règle. On peut alors étudier les dirigeants de l'entreprise, puis ceux de l'usine, afin de les confronter aux connaissances que l'on a sur les caractéristiques sociologiques des dirigeants : famille, âge et formation en particulier. 1 DAUMAS Jean Claude, « Regards sur l'histoire du patronat », Vingtième Siècle. Revue d'histoire, 2012/2 n° 114, p. 3-14, p. 3. 2 DAUMAS Jean Claude, CHATRIOT Alain, FRABOULET Danièle, FRIDENSON Patrick et JOLY Hervé (dir.), Dictionnaire historique des patrons français, op. cit. Parmi les monographies : VERNUS Pierre, Art, luxe et industrie. Bianchini Férier, un siècle de soieries lyonnaises 1888-1992, Presses universitaires de Grenoble, Grenoble, 2006, 431 p., tiré d'une thèse, université Lyon 2, 1997 ; LOUBET Jean-Louis, Automobiles Peugeot : une réussite industrielle, 1945-1974, Economica, Paris, 1990, 469 p., tiré d'une thèse, université Paris X, 1988. Parmi les biographies : SCHWEITZER Sylvie, André Citroën, Fayard, Paris, 1992, 239 p. Parmi les approches plus générales : JOLY Hervé, Patrons d'Allemagne : sociologie d'une élite industrielle 1933-1989, Presses de la Fondation nationale des sciences politiques, Paris, 1996, tiré d'une thèse, EHESS, 1993. 40 1) Les Cholat, une famille ancienne La famille Cholat occupe une position centrale et constante dans l'entreprise, avec les deux frères Pierre et Lucien. Mais cette stabilité se retrouve aussi chez les autres administrateurs : Robert Tremeau, Guillaume Martouret et Léon Marrel. Ainsi, les deux frères Cholat sont les fils de Charles qui est le dirigeant historique de l'entreprise plus que son fondateur. Pierre, le plus âgé, est né en 1877. Son cadet a trois ans de moins1. Tous deux sont stéphanois de naissance. Ils ont grandi dans une famille qui compte deux autres garçons et deux autres filles. Mais Lucie, l'aînée de la fratrie, étant décédée à l'âge de dix-huit ans, c'est désormais Pierre qui occupe cette position dans la famille2. Les quatre garçons vont faire une carrière dans l'industrie, à l'image de leur père. Ainsi, comme ce dernier, Lucien est ingénieur civil ; mais si Charles Cholat est sorti de Polytechnique3, son fils est diplômé de l'école des mines de Saint-Etienne4. Pierre Cholat, est lui en revanche diplômé de l'école supérieure de commerce de Lyon 5. Pierre, appelé « Cholat fils » dans les procès verbaux du conseil d'administration, entre en fonction comme administrateur en septembre 1905 6, même si son nom n'apparait dans les sources officielles qu'en 19067. Il est nommé « Président directeur général » en 1920, poste qu'il occupe sans interruption depuis cette date, d'après une note biographique datant de 19638. On soulignera cependant l'anachronisme de la fonction indiquée, puisque Pierre Cholat continue à être appelé administrateur délégué pendant l'entre-deux-guerres9. Cette dernière disparait en effet en 1940 avec « la "loi" vichyste du 16 novembre 1940 » chargée de simplifier l'administration des sociétés anonymes 10. Lucien a rejoint Pierre à la mort de leur père 1 ADI, 56J3. Correspondance avec Janine Bouillet. 3 COLSON Daniel, La Compagnie, op. cit., p. 10. 4 Journal officiel du 21 octobre 1933, p.10 788. Lucien Cholat recevant la légion d'honneur au grade de chevalier, une courte biographie est faite de lui. 5 Union des associations des anciens élèves des écoles supérieures de commerce. Annuaire général 1913 , Paris, 1913, 440 p., p. 83, http://gallica.bnf.fr/ark:/12148/bpt6k55682995.image.langEN.swf, [dernière consultation le 7 mars 2015]. 6 ADI, 56J24, rapport du 12 décembre 1963 ; 56J27, assemblée générale du 12 décembre 1963 et ADL, 211J4, correspondance avec Pierre Cholat, vice-président de la CAFL (1953-1955), courrier du 13 mars 1953 à Henri Malcor. 7 ADI, 56J7, conseil d'administration du 2 février 1906. 8 ADI, 56J24, rapport du CA à l'AG ordinaire du 12 décembre 1963. 9 ADI, 56J10. 10 JOLY Hervé, Diriger une grande entreprise française au XXe siècle : modes de gouvernance, trajectoires et recrutement, Mémoire présenté pour l'habilitation à diriger des recherches, École des Hautes Etudes en Sciences Sociales (EHESS), 2008, vol.1, 722 pages, <tel-00343525>, [dernière consultation le 5 novembre 2013]. 2 41 en 1916 : c'est cette année là qu'il est nommé administrateur1. Lui aussi a exercé sa fonction en continu pendant l'entre-deux-guerres et le second conflit mondial. En 1945, Pierre a donc soixante-huit ans, dont quarante passés au conseil d'administration des HFC ; et Lucien a soixante-cinq ans, dont vingt-neuf ans de présence au conseil d'administration avec son frère. À la fin de la guerre, les administrateurs de la Compagnie ont la même ancienneté que la famille fondatrice, pour leur âge comme pour leur date d'arrivée dans l'entreprise. Robert Tremeau est né en 1865, tout comme Léon Marrel ; Guillaume Martouret est lui de 18712. En 1945, ils ont donc respectivement quatre-vingt et soixante-quatorze ans. Robert Tremeau est arrivé dans l'entreprise comme administrateur en 1918. Cet ancien président de la Chambre de commerce de Vienne a été en particulier chargé de la question des transports qui « intéresse directement l'activité de [l'] usine de Chasse »3. Guillaume Martouret est nommé administrateur de l'entreprise en 1922. Il prit ensuite en 1926 la présidence de la société Bonne et Drac, fondée en 1920 avec le concours de la Compagnie des HFC 4. Enfin, Léon Marrel a pris la fonction d'administrateur des HFC la même année que Guillaume Martouret 5. Il succède à Jean Baptiste Marrel (1822-1904), puis Jules Marrel (1850-1922). Jean Baptiste est l'un des six frères fondateurs des aciéries Marrel frères à Rive-de-Gier. Jules, son fils, a été aussi administrateur des Aciéries et forges des Étaings. Léon (18651952) est un neveu de Jean-Baptiste (son père Jean-François est donc l'un des six frères de la génération des fondateurs)6. Léon, troisième représentant de sa famille, perpétue cette longue tradition de présence au conseil d'administration des Hauts-Fourneaux de Chasse. 2) Une direction de l'usine anciennement installée Les dirigeants de l'usine ne dérogent pas non plus à cette règle, certes non écrite, mais jusque-là toujours observée, selon laquelle l'âge et l'expérience priment sur la 1 ADI, 56J8, conseil d'administration du 30 juin. ADI, 56J3. 3 ADI, 56J22, rapport du CA à l'AG ordinaire du 19 juin 1950. 4 ADI, 56J22, rapport du CA à l'AG ordinaire du 28 juin 1949. 5 ADI, 56J22, rapport du CA à l'AG ordinaire du 12 mars 1953. 6 Base Léonore, http://www.culture.gouv.fr/public/mistral/leonore_fr. Voir les dossiers de Jules et de Léon Marrel. 2 42 jeunesse. Le directeur de l'usine est Jean Demoule, son secrétaire général est Paul Goisset et son ingénieur principal est François Tavernier. Jean Demoule1 est né en 1877. Il fait des études à l'école supérieure des mines de Saint-Étienne est devient ingénieur civil des mines en 1903. Il entre ensuite aux HFC en 1904. Il est nommé en 1921 à la direction des usines de Chasse, succédant ainsi à deux précédents directeurs, Mercier (1873-1899) et Sovignet (1899-1921)2. Depuis 1873 donc, seuls trois directeurs se sont succédés : on notera leur longévité à ce poste, à chaque fois largement supérieure à vingt ans. En 1945, Jean Demoule est alors dans sa soixante-huitième année et il en a passé quarante-et-une au service des HFC, dont vingt-quatre comme directeur. Ensuite, Paul Goisset est né en 1881. Il est lieutenant de vaisseau de réserve. Il possède une licence en droit. Il occupe la fonction de secrétaire général des usines : il dirige ce que l'on appelle à Chasse les « Grands bureaux », supervisant tous les services administratifs, alors que le directeur supervise l'ensemble des services de l'usine. Paul Goisset est entré aux HFC en mars 19193. En 1945, il est dans sa soixante-quatrième année et il a passé vingt-six ans au service des hauts-fourneaux de Chasse. Enfin, François Tavernier est né en 1885. Lui aussi est passé par l'école des mines de Saint-Étienne : il a obtenu son diplôme d'ingénieur civil des mines en 1909. Il est entré dans l'entreprise en 1910 comme ingénieur 4, l'année suivante de l'obtention de son diplôme, tout comme Jean Demoule l'avait fait. Il le remplace à son poste d'ingénieur principal lorsque ce dernier devient directeur en 1921. Il est donc le suivant sur la liste d'un « cursus honorum », dont on peut constater certaines règles. La première est le recrutement d'ingénieurs formés à l'école des mines de Saint-Étienne, tout comme Lucien Cholat, administrateur des HFC et ingénieur principal des Aciéries de Saint-Étienne. La seconde, que l'on peut observer dans le parcours de ces personnels d'encadrement et de direction, fait d'un ingénieur (responsable des hauts-fourneaux), un ingénieur principal, puis un directeur des usines de Chasse. C'est ce parcours qui explique en partie l'âge avancé des dirigeants de l'usine, l'impétrant ne pouvant accéder au sommet de la hiérarchie qu'après avoir occupé tous les autres postes qui mènent à cette position. Un autre facteur est, pourrait-on dire, la bonne santé de celui qui précède le postulant dans l'ordre de ce « cursus honorum ». Or, François Tavernier a seulement 1 ADI, 56J1, enquête relative à notre demande d'inscription sur la liste des fournisseurs de l'artillerie navale, et 56J22, rapport du CA à l'AG ordinaire du 19 juin 1950. 2 ADI, 56J6 et 56J8. 3 ADI, 56J1, ibidem, et AMC, liste électorale au conseil des prud'hommes 1954. 4 Ibidem. 43 huit ans d'écart avec Jean Demoule, si bien qu'il a tout de même soixante ans en 1945, dont trente-cinq passés au service des HFC. 3) Des dirigeants d'expérience Si on compare les résultats de cette étude à ce que l'on sait du patronat français en général, on peut repérer plusieurs caractéristiques communes. Il y a tout d'abord l'âge : on aura donc noté que les dirigeants de l'usine sont des hommes, âgés ; tout comme les administrateurs. Ces caractéristiques liées à l'âge et au sexe sont par ailleurs observables à l'échelle de la France en 1945 : dans une étude sur le patronat français, Maurice Lévy-Leboyer trouve que l'âge moyen des cadres dirigeants d'un échantillon est de 56,8 ans en 1919, qu'il atteint 59,3 ans en 1939, pour retomber à 56,4 ans 1973 1. Dans son échantillon, en 1959, 60,6 % d'entre eux sont encore des « hommes du XIXe siècle », et ce sont eux qui ont eu « la charge de la reconstruction »2. Philippe Mioche ajoute que l'âge des dirigeants de la sidérurgie est même en moyenne plus élevé que dans le reste du patronat, ce qui reflète selon lui la personnalisation accrue du pouvoir dans cette branche3. Hervé Joly indique qu'il n'y a en effet pas eu pendant longtemps de limite d'âge4. C'est pourquoi nombre d'entre eux – près d'un tiers de son échantillon –, décèdent à leur poste. C'est d'ailleurs ce qui est arrivé à Charles Cholat en 1916. De plus, la crise des années 1930 n'a pas provoqué un renouvellement des dirigeants : alors même qu'elle a un effet sur les résultats des entreprises, il y a peu de concentrations et peu de dirigeants poussés vers la sortie. Ceux qui sont en poste, le demeurent, sauf peutêtre pour les financiers qui sont davantage touchés que les industriels ; mais « dans ces "bureaucraties" privées [] même lorsque les choses tournent mal, le milieu des affaires a suffisamment de ressources et de positions de second rang à offrir pour permettre, [] des repêchages, plus ou moins confortables »5. Ensuite, leurs formations sont diverses : école d'ingénieurs, de commerce, licencié en droit ; même si la formation de tous les administrateurs n'a pas pu être 1 LÉVY-LEBOYER Maurice, « Le patronat français », in LÉVY-LEBOYER Maurice (dir.), Le Patronat de la seconde industrialisation, Cahiers du mouvement social, Éditions ouvrières, Paris, 1979, 320 p., p. 165. 2 Ibidem, p. 180. 3 MIOCHE Philippe, La sidérurgie et l'État en France, p. 342. 4 JOLY Hervé, Diriger une grande entreprise , op. cit., p. 222 sqq. 5 JOLY Hervé, Diriger une grande entreprise , op. cit., p. 239 sqq. 44 retrouvée. Parmi eux, le nombre d'ingénieurs est particulièrement élevé. Là encore, on peut constater que ces caractéristiques sont comparables à celles des études sur le sujet. Maurice Lévy-Leboyer trouve ainsi dans son échantillon de dirigeants d'entreprise que les ingénieurs (non compris ceux de la botte de Polytechnique) représentent 49,5 % et 39,6 % de l'échantillon, respectivement en 1939 et 19591. Hervé Joly parle lui aussi de « l'hégémonie des grandes écoles d'ingénieurs »2. Mais toutes n'ont pas la même influence, ni le même prestige. Il note alors la « réussite de l'école des mines de SaintÉtienne dans l'industrie minière », mais la plus faible représentation de ces anciens élèves dans les autres branches – même la sidérurgie –, « à l'exception d'un tropisme régional qui profite très fortement à Marine3 et, à un degré nettement moindre, aux entreprises plus éloignées Châtillon-Commentry et Schneider »4. On peut donc inclure Chasse dans ce « tropisme régional » ; car même si la commune n'est qu'en bordure du bassin stéphanois, ses dirigeants en sont issus. On retrouve donc des caractéristiques comparables parmi les dirigeants des hauts-fourneaux de Chasse à celles de bien d'autres dirigeants ; pourtant, on peut aussi noter une certaine originalité. Elle concerne tout d'abord Pierre Cholat, et plus précisément sa formation ; puisque lui-même n'est pas ingénieur, mais simplement diplômé de l'école supérieure de commerce de Lyon. Ce fait est notable car les formations commerciales, même à HEC, sont d'après Hervé Joly « presque totalement absentes » parmi « les managers » avant la Seconde Guerre mondiale. Ce n'est en effet – toujours d'après lui –, qu'après cette période que « le niveau de sélection s'élève. Ce qui vaut pour la plus prestigieuse [il s'agit d'HEC] vaut a fortiori pour les autres écoles de commerce, dont l'exigence scolaire est encore plus faible »5, l'école lyonnaise en faisant partie. Ensuite, on peut noter le poids des femmes, ce qui est peut-être d'ailleurs moins remarquable qu'à remarquer ; car si on pense seulement aux hommes, on oublie qu'ils sont aussi des frères et des maris, et même des neveux. Or les alliances matrimoniales comptent beaucoup dans le réseau dont Pierre Cholat est le centre, comme cela a été 1 LÉVY-LEBOYER Maurice, « Le patronat français », op. cit., p. 152. JOLY Hervé, Diriger une grande entreprise , op. cit., p. 280. 3 Philippe Mioche note cependant que les présidents de Marine sont issus de l'école des mines de Paris pendant quatre générations (Laurent, Daum, Malcor, Legendre). Dans MIOCHE Philippe , La sidérurgie et l'État en France, p. 336. Pour être même précis, ils sont du corps des mines. Pour une biographie d'Henri Malcor : DAUMAS Jean Claude, CHATRIOT Alain, FRABOULET Danièle, FRIDENSON Patrick et JOLY Hervé (dir.), Dictionnaire historique des patrons français, op. cit., p. 453-455. 4 JOLY Hervé, Diriger une grande entreprise , op. cit., p. 308. 5 JOLY Hervé, Diriger une grande entreprise , op. cit., p. 272 sqq. 2 45 d'ailleurs déjà le cas du temps de son père. Ainsi, son oncle, Léon Poidebard est un ancien administrateur de Chasse. On peut citer aussi Pierre Grelet de la Deyte qui est son beau-frère et administrateur des Aciéries de Saint-Étienne. Sa propre femme, Hélène Chalus, est la fille d'un banquier1, dont la famille dirige l'une des plus ancienne banque privée française. Enfin, la famille Cholat est elle-même remarquable, en raison de la diversité des affaires qu'elle a dirigées, même si c'est dans un oubli relatif. On connait surtout Charles Cholat ; mais ses quatre fils n'ont pas eu la notoriété d'un Théodore Laurent et d'un Henri Malcor des Aciéries de la Marine, ou encore des enfants des frères Marrel de Rive-de-Gier, bien qu'ils aient été de leurs générations. Ils apparaissent relativement peu dans les ouvrages étudiant les entreprises régionales. Ainsi, dans Entreprises et pouvoir économique dans la région Rhône-Alpes (1920-1954), seul Auguste Cholat est recensé. Il a dirigé les Verreries de Saint Galmier (source Badoit) et est présent à quatre conseils d'administration, c'est-à-dire autant qu'un Théodore Laurent d'après cette même source2. Mais Pierre et ses autres frères ne sont pas nommés. Ils administrent ou dirigent pourtant de nombreuses entreprises : Hauts-Fourneaux de Chasse, Aciéries de Saint-Étienne ; mais aussi leurs filiales, comme les mines de la Têt dont Lucien est le PDG3. Bien sûr, comme l'écrit Jean-Claude Daumas, l'exhaustivité est « une entreprise impossible » en ce qui concerne l'étude du patronat4. La diversité de leurs affaires, le fait qu'elles ont des tailles et une situation géographique différentes contribuent également sans doute à cela. La Seconde Guerre mondiale a donc été traversée par une entreprise dont les dirigeants sont âgés, mais aussi expérimentés. Ils dirigent plusieurs filiales, l'usine de Chasse constituant le centre de l'entreprise vers lequel convergent les productions. Les réseaux d'entreprises auxquels les HFC appartiennent sont également anciens, mais ont résisté au conflit. On peut alors s'interroger sur la manière dont le personnel a vécu lui aussi cette période. 1 Janine Bouillet a grandement contribué à m'éclairer sur ces sujets, mais ces informations sont aussi généralement dispersées à travers les archives. 2 JOLY Hervé, ROBERT François, GIANDOU Alexandre, Entreprises et pouvoir économique dans la région Rhône-Alpes (1920-1954), Cahiers Pierre Léon n° 4, Lyon, 2003, 300 p., p. 260 et 268. 3 ADI, 56J22, rapport du CA à l'AG ordinaire du 28 juin 1949. 4 DAUMAS Jean Claude, « Regards sur », op. cit., p. 3. 46 III) Un personnel transformé par le conflit Le personnel des Hauts-Fourneaux de Chasse a été transformé par une double épreuve : celle de la Seconde Guerre mondiale, mais aussi par la crise qui l'a précédée. On en étudiera les effets, puis on en recherchera les origines précises. Or décrire l'évolution du personnel d'une entreprise, nécessite de rechercher des facteurs endogènes et exogènes. C'est donc croiser des éléments nécessairement complexes puisqu'ils peuvent être de nature politique et économique, conjoncturelle ou non, visibles à des échelles différentes. Les travaux de recherche sur le thème de l'emploi permettant de traiter ce sujet sont eux aussi nécessairement variés en raison des limites relativement étendues de la période – avant et pendant la Seconde Guerre mondiale –, des échelles multiples, de l'étendue du sujet qui touche à la fois à l'histoire sociale, politique et économique. Néanmoins, en s'appuyant sur l'historiographie, on peut regrouper ces facteurs en trois thématiques : la conjoncture politique et économique, la réglementation, les pratiques de recrutement de l'entreprise ; auxquels on doit ajouter encore la marge de liberté dont dispose chaque travailleur pour entrer, demeurer dans, ou quitter cette dernière. D'un point de vue méthodologique, en utilisant les mêmes termes que Bernard Lepetit, on peut dire que l'on retrouve une première approche plutôt « macro-économique » ; alors que la suivante est sensible aux « normes », aux « valeurs », aux « conventions » ; mais que les deux dernières permettent de définir les « pratiques » de l'entreprise et des individus1. Bien entendu, pour les HFC, chaque facteur peut être dominant à un moment donné de leur histoire, mais ils peuvent aussi exister tous en même temps. Tout d'abord en suivant la première approche, on peut dire que la conjoncture politique et économique2 est largement connue et décrite à l'échelle nationale : ses grandes phases sont la crise qui débute vers 1931, l'épisode du Front populaire suivi par la relance de l'économie à la veille de la guerre, l'arrêt brutal au moment de la défaite en 1940 et enfin les pillages de l'Occupation et les destructions. L'évolution de la 1 LEPETIT Bernard, « Histoire des pratiques, pratique de l'histoire », dans LEPETIT Bernard (dir.), Les formes de l'expérience. Une autre histoire sociale, Albin Michel, Paris, 2013, 383 p., p. 15-32. Le vocabulaire employé provient des p. 16 où il est traité de l'histoire économique et sociale de Labrousse et Braudel, et p. 24-25 sur l'usage de la notion de convention en histoire (après avoir traité de l'approche pragmatique et des pratiques p. 18-24). 2 La bibliographie étant trop vaste, on renvoie à BRAUDEL Fernand et LABROUSSE Ernest (dir.), Histoire économique et sociale de la France, tome IV, volumes 1-2. 47 population active est cahotique : on constate alors la forte chute de l'emploi industriel pendant la crise, moins 1,3 millions de 1931 à 1936, ce qui se répercute partiellement sur le chômage en raison de la baisse du taux d'activité 1. Cependant pour les années suivantes, l'historiographie a avancé à des rythmes inégaux, car comme le rappelle Jean Claude Daumas : « les historiens n'ont d'abord prêté qu'une attention discrète à la question du travail et des ouvriers sous l'Occupation » et qu'il a fallu attendre les années 1980 pour que cela change2. Or pendant cette période, les questions de la Relève et du STO sont centrales car, selon Vincent Viet, les politiques de la main d'oeuvre ont conduit à la préférence de la main d'oeuvre nationale aux dépens des travailleurs étrangers3. À l'échelle régionale, la thèse de Monique Luirard permet de changer de focale et d'observer des nuances par rapport à la situation nationale : dans la Loire, la crise commence plus tôt qu'ailleurs4, mais dès 1936 l'industrie métallurgique se reprend grâce aux commandes de l'État : elles sont si importantes que la clientèle privée est négligée5. En 1938, l'économie régionale a « doublé le cap des tempêtes », mais avec la mobilisation et la guerre, la main d'oeuvre devient rare et précieuse 6. Le régime de Vichy lance officiellement à Montoire la Collaboration le 11 octobre 1940, mais près de deux ans plus tard la zone sud est envahie : là comme dans le reste de la France occupée se posent les questions de la Relève et du STO, les industries régionales manquent de main d'oeuvre7. Pour la seconde approche, on s'intéressera aux différentes lois qui ont eu un impact sur le travail. On la distinguera de la conjoncture politique – qui a une influence plus globale –, car les lois ou règlements ont des effets qui peuvent être plus précis et parce qu'ils proviennent d'une volonté politique ou administrative identifiable. L'État qui se développe en France a permis notamment l'essor d'un droit du travail au XXe siècle8. La réglementation joue ainsi un rôle dans le recrutement de la main d'oeuvre : il 1 MARCHAND Olivier et THELOT Claude, Le travail en France, op. cit., p. 77. DAUMAS Jean-Claude, Introduction de Travailler dans les entreprises sous l'Occupation, textes réunis par CHEVANDIER Christian et DAUMAS Jean-Claude, Presses universitaires de Franche Comté, Besançon, 2007, 528 p., p. 11. 3 VIET Vincent, « Vichy dans l'historie des politiques françaises de la main d'oeuvre », Travail et emploi n° 98, avril 2004, p. 77-93 et « La politique de main d'oeuvre et les travailleurs étrangers et coloniaux entre 1914 et 1950 », Hommes et migrations n° 1263, septembre-octobre 2006, p. 10-25. 4 LUIRARD Monique, La région stéphanoise , op. cit., p. 187-188. 5 Ibidem, p. 180-181. 6 Ibidem, p. 265. 7 Ibidem, p. 453-457 et p. 465-466. 8 SUPIOT Alain, Le droit du travail, Paris, Presses Universitaires de France « Que sais-je ? », 2011, 128 p., p. 15. 2 48 suffit de songer par exemple à la question de la semaine de quarante heures en 1936 – même si elle a créé relativement peu d'emploi en réalité dans la région stéphanoise 1 –, ou encore à la législation qui vise les travailleurs étrangers 2. Enfin suivant la dernière thématique, les entreprises ont leurs propres « pratiques de recrutement » dont l'enjeu est le « contrôle du travail »3. Cependant, ces pratiques concernent de manière différenciée les travailleurs : les historiens se sont intéressés en particulier aux travailleurs étrangers et aux femmes ces dernières années. Les premiers ont en effet joué un rôle déterminent dans le « spectaculaire développement économique de la France » au cours des années 19204. Les secondes n'ont pas découvert le travail à l'usine pendant la Première Guerre mondiale : elles jouent même un rôle déterminant dans certaines branches5. Or on peut retrouver de telles pratiques aux HFC. 1) Une évolution importante des effectifs L'évolution des effectifs pendant la Seconde Guerre mondiale est révélatrice d'une conjoncture tourmentée qui concerne l'espace régional autant que national et même international dans lequel les Hauts-Fourneaux de Chasse évoluent. Mais cette instabilité est déjà présente dans les années 1930. En effet, avant guerre, les Hauts-Fourneaux de Chasse comptent plusieurs centaines de salariés. Ils en embauchent 828 en 19296 – dont 778 ouvriers –, ce qui représente pour cette catégorie de personnels : 492 Français, 50 Algériens, 55 Espagnols, 45 Italiens, 45 Arméniens, 26 Portugais, 26 Polonais, 23 Grecs, 12 Russes et 4 d'« autres origines »7. Or l'année 1929 est souvent utilisée comme année de référence par les chercheurs, notamment pour l'industrie française, même si la situation des 1 LUIRARD Monique, La région stéphanoise , op. cit., p. 154-155. LEWIS Mary Dewhurst, Les frontières de la République, L'immigration et les limites de l'universalisme en France (1918-1940), Contre-feux, Agone, Marseille, 2010, 425 p. 3 SCHWEITZER Sylvie, « Paternalismes ou pratiques sociales ? », dans SCHWEITZER Sylvie (dir.), Logiques d'entreprises et politiques sociales, op. cit., p. 10. 4 NOIRIEL Gérard, « L'histoire de l'immigration en France. Note sur un enjeu », Actes de la recherche en sciences sociales, vol. 54, septembre 1984, p. 72-76, p. 73. 5 FOURCAUT Annie, Femmes à l'usine en France dans l'entre-deux guerres, Paris, Maspero, 1982, 269 p., p. 47 et p. 52. 6 ADI, 56J1, historique des exploitations des hauts-fourneaux à Chasse adressé à Monsieur Couturie ingénieur en chef d'artillerie navale pour obtenir des commandes (1936). 7 ADI, 56J1, enquête relative à notre demande d'inscription sur la liste des fournisseurs de l'artillerie navale. 2 49 branches industrielles et des entreprises est variable1. On peut donc l'utiliser pour étalonnage afin d'établir des comparaisons avec les années suivantes. Dans ce contexte général de crise, on constate alors que dans les années 1930 à Chasse, les effectifs chutent : il n'y a plus que 579 ouvriers en 1934 et 574 en 1935 (cette même année le personnel total de l'entreprise est à 652)2. Donc, par rapport à l'année de référence 1929, la diminution du nombre d'ouvriers est en proportion de 25,58 % en 1934, puis de 26,22 % en 1935, en atteignant cette année-là un point bas. La baisse des effectifs totaux des personnels de l'usine est cependant moindre, toujours en ce qui concerne l'année 1935 : elle n'est – malgré le poids des ouvriers dans l'effectif total –, que de 21,26 %. Cela confirme que Chasse ne constitue pas un cas particulier : on retrouve cette situation à l'échelle nationale, car d'après Claude Thélot et Olivier Marchand pendant cette période le chômage touche « particulièrement les ouvriers de l'industrie »3. De plus, on peut dire que ces chiffres sont donnés de manière globale et ne reflètent pas les mouvements à l'intérieur de chaque catégorie de travailleurs. Par conséquent, avec le jeu des départs et des arrivées, les modifications qui touchent le personnel sont encore plus importantes. En 1939, les effectifs remontent ensuite fortement comme les recrutements nous permettent de l'observer : soit une hausse de 444,5 % des entrées pour les Français cette année-là par rapport à la précédente, et de 360,1 % pour les étrangers4. D'après Laurence Kinossian, c'est la première fois depuis 1929 que le nombre d'entrées d'« étrangers » dépasse les sorties5. Cette hausse des effectifs est la conséquence de la relance de la production afin de satisfaire les commandes militaires, « l'usine de Chasse a[yant] répondu à sa tradition »6. Là encore, les HFC se comportent comme le reste de l'industrie française, Denis Woronoff écrivant à ce sujet que l'« amélioration évidente des résultats de nombreuses entreprises en 1939 est déjà sous le signe d'une économie de l'armement »7. Les transformations dans le recrutement du personnel sont donc fortes pendant les années de crise et l'avant guerre : 1 Pour une comparaison internationale et nationale : BAIROCH Paul, Victoires et déboires, Histoire économique et sociale du monde du XVIe siècle à nos jours, tome 3, op. cit., p. 56-57. Pour la production industrielle française et la diversité des situations pendant la crise : WORONOFF Denis, Histoire de l'industrie en France, du XVIe siècle à nos jours, Paris, Le Seuil, 1998, 681 p., p. 464-467. 2 ADI, 56J1, historique des exploitations des hauts-fourneaux. 3 MARCHAND Olivier et THELOT Claude, Le travail en France (1800-2000), Paris, Nathan, 1997, 269 p., p. 77. 4 KINOSSIAN Laurence, Le personnel des Hauts-Fourneaux, op. cit., p. 104 et p. 106 volume 1. 5 Ibidem, p. 106. 6 ADI, 56J24, rapport du CA à l'AG ordinaire du 29 mai 1941. 7 WORONOFF Denis, Histoire de l'industrie en France,, op. cit., p. 465. 50 que ce soit par le nombre des départs pour les premières, ou l'importance des arrivées pour la seconde. Ainsi, dans l'industrie de guerre à l'échelle nationale, les proportions de femmes et d'étrangers sont comparables en 1939 à 1914-1918, ce qui traduit une « mutation de la main d'oeuvre » provoquée par l'effort de guerre1, tout comme on peut le constater aux HFC pour les étrangers. Or en France 2 comme à Chasse, la période de l'Occupation va être marquée par de nouvelles évolutions dans les effectifs de la main d'oeuvre. La Seconde Guerre mondiale est en effet une épreuve qui a touché tout le personnel. Il y a tout d'abord les travailleurs de nationalité française. Tableau 1 : Évolution du recrutement du personnel de nationalité française des HFC de 1940 à 19443 Année Sorties 1940 1941 1942 1943 1944 Total Entrées 52 16 29 25 35 157 Évolution l'effectif de 23 14 27 19 9 92 -29 -2 -2 -6 -26 -65 Puis ceux de nationalité étrangère. Tableau 2 : Évolution du recrutement du personnel de nationalité étrangère des HFC de 1940 à 19444 Année 1940 1941 1942 1943 1944 Total Sorties Entrées 92 28 31 21 4 176 Évolution l'effectif de 83 3 58 12 5 161 -9 -25 + 27 -9 +1 -15 1 FRIDENSON Patrick et ROBERT Jean-Louis, « Les ouvriers dans la France de la Seconde Guerre mondiale. Un bilan », Le Mouvement Social, n° 158, janvier-mars 1992, p. 117-137, p. 120. 2 Ibidem, p. 120-121. 3 AMC, cahiers du personnel français 6 et 7. Étude effectuée par sondage en utilisant la lettre B. 4 AMC, cahiers du personnel étrangers 10, 11 et 12. 51 L'évolution des effectifs du personnel des HFC à l'issue de la guerre étudiée à partir de ces tableaux repose sur la distinction entre Français et étrangers, comme le font les sources. Or cette distinction est pertinente car les évolutions ne sont pas systématiquement identiques. On peut certes constater plusieurs points communs. Il y a tout d'abord une baisse générale des effectifs : moins soixante-cinq pour l'échantillon des Français et moins quinze pour l'ensemble des travailleurs étrangers. De plus les variations sont considérables, même si elles concernent parfois les mêmes individus embauchés ou quittant l'entreprise à plusieurs reprises : on compte 249 entrées et départs pour les Français – alors qu'il ne s'agit que d'un échantillon de cette catégorie de personnel –, et 337 pour les étrangers. Enfin, il est notable que tous les effectifs s'effondrent en 1940. Toutefois, plusieurs différences sont également observables. Ainsi, si la baisse des effectifs de travailleurs français est constante, avec deux années d'accélération (1940 et 1944) en revanche, les travailleurs étrangers connaissent des années de solde positif : 1942 – période de recrutement afin de rallumer un haut fourneau supplémentaire –, et 1944. C'est donc grâce à ces travailleurs que l'on constate une hausse totale des effectifs de l'usine qui passent de 750 salariés en 1941 à 800 en 1943 selon des sources administratives1. Par conséquent, la baisse pendant toute la période de la guerre est moins forte pour les travailleurs immigrés que pour les travailleurs français, alors que la première est sans doute sous-estimée par les sources qui sont en partie lacunaires. On peut donc estimer que la proportion de personnel étranger a également augmenté, car leur nombre a moins régressé que celui des travailleurs français, les premiers jouant un rôle important et croissant, notamment pour les activités productives : comme lors de la Première Guerre mondiale, ces derniers se sont donc substitués aux travailleurs français. Pour conclure, on peut donc dire que les effectifs du personnel des HFC a connu de fortes variations pendant la période de crise des années 1930 et encore plus pendant la Seconde Guerre mondiale. En 1945, les effectifs ont fortement chuté. Toutefois, l'étude des effectifs révèle aussi un impact différencié entre Français et étrangers, hommes et femmes : c'est toute la structure du personnel qui a été transformée. 1 ADR, 130W78, 1773. On notera que les chiffres donnés sont des arrondis. 52 2) Les facteurs d'évolution des effectifs Tout d'abord, on peut retrouver des facteurs conjoncturels liés à l'évolution de la situation économique et politique. a) Le contexte économique et politique Comme on l'a vu, la crise des années 1930 provoque une forte baisse des effectifs de près de 1/5 entre 1929 et 1935. La reprise des recrutements est liée à la politique de réarmement, comme Monique Luirard a pu également le constater dans la région stéphanoise1. On note ensuite des évolutions rapides dans le recrutement du personnel entre 1939 et 1940. Elles s'expliquent par la mobilisation des soldats : comme lors de la Première Guerre mondiale, cette dernière perturbe la production de l'usine en raison du départ d'une partie du personnel. Mais il y a aussi de l'arrivée de nouveaux travailleurs : Laurence Kinossian a repéré l'augmentation du recrutement de personnel en vue de satisfaire les nouveaux besoins de la production. Cela concerne en particulier une augmentation du nombre des travailleurs immigrés2. De plus, en juin 1940, l'arrivée de personnels réfugiés des régions envahies accroît également les effectifs de l'usine 3. Toutefois, ordre a été donné par le ministère de l'armement au moment de l'invasion de diminuer les productions, ce qui a pour conséquence une baisse importante des personnels : elle est estimée en août à près de la moitié des effectifs 4. Ensuite, pendant la période suivante de l'Occupation, les productions sont réduites. Par exemple, il est écrit dans le rapport des commissaires aux comptes pour l'exercice 1941-1942 qu' « [a]ucun exercice n'avait donné lieu à une production aussi faible depuis votre exercice 1921-1922 »5. Cependant, en 1942, avant l'occupation de la zone sud, une marche à deux hauts-fourneaux est reprise. Elle s'explique, selon les dirigeants de l'entreprise, par le fait que la marche à un seul haut-fourneau « conduisait à un équilibre 1 LUIRARD Monique, La région stéphanoise , op. cit., p. 180. KINOSSIAN Laurence, Le personnel des Hauts-Fourneaux de Chasse-sur-Rhône, op. cit., p. 104 sqq. 3 ADI, 56J12, conseil d'administration du 6 juin 1940. 4 56J12, conseil d'administration du 8 août 1940. 5 ADI, 56J24, rapport des Commissaires des comptes pour l'exercice 1941-1942. 2 53 industriel insuffisant »1. Ils regrettent alors que les « effectifs n'aient pu être renforcés suffisamment et que les départs pour l'Allemagne aient entraîné des prélèvements regrettables »2. En effet, si des travailleurs de nationalité française doivent partir, des étrangers sont recrutés : il s'agit de « cinquante espagnols encadrés, que divers départs ont ramenés à trente-sept »3. En novembre 1942, on parle alors de « pénurie de main d'oeuvre » qui rend compliquée la marche à deux hauts-fourneaux4. On sait que des problèmes comparables se posent à l'ensemble des industries du bassin industriel stéphanois qui doivent faire face à un manque de main d'oeuvre en raison des prisonniers de guerre, de la relève et surtout du STO ; même si les entreprises sont inégalement touchées : les entreprises prioritaires pour l'occupants sont habilitées à reconstituer leurs personnels, or les entreprises sidérurgiques en font partie5. Par la suite, la baisse des transports entraine une diminution des ventes, tandis que les rationnements provoquent une diminution des approvisionnements en matières première, avec par exemple une division par deux du charbon à coke dès la fin de 19426. La situation ne fait alors que s'aggraver, jusqu'à l'arrêt presque complet de l'usine, son dernier haut-fourneau à feu étant arrêté le 20 août 1944 après le bombardement du 11 au 12 août7. Elle peut certes tourner au ralenti en continuant à expédier la fonte stockée, mais la Libération n'entraîne pas le redémarrage rapide espéré 8. Il faut attendre le 7 juillet 1945 pour qu'un haut-fourneau soit à nouveau allumé9. L'évolution des effectifs du personnel de l'usine de Chasse suit donc dans ses grandes lignes les rythmes de la conjoncture économique et politique nationale ou régionale. Toutefois, les rythmes de la production liés à la conjoncture ne sont pas les seuls facteurs de l'évolution du personnel : les lois s'imposent aussi à elle. Ses dirigeants savent cependant également en jouer afin de mener leurs propres politiques de recrutement comme le révèle une étude qui prête attention au sexe et à la nationalité des travailleurs. 1 56J24, rapport du CA à l'AG ordinaire du 10 juin 1943. Ibidem. 3 56J12, conseil d'administration du 15 octobre 1942. 4 Ibidem, séance du 20 novembre 1942. 5 LUIRARD Monique, La région stéphanoise , op. cit., p. 455-456 et p. 588-589. 6 56J24, rapport du CA à l'AG ordinaire du 9 juin 1944. 7 56J12, conseil d'administration du 20 septembre 1944. 8 56J12, conseil d'administration du 24 novembre 1944. 9 56J12, conseil d'administration du 10 septembre1945. 2 54 b) Le sexe et la nationalité Tout d'abord, on peut dire que les femmes ne représentent qu'une partie assez faible du personnel ouvrier, comme du personnel étranger, dans une usine où les personnels masculins dominent en nombre de manière écrasante1. Elles sont cependant très présentes dans les activités de bureau : ces femmes sont alors toutes de nationalité française. On les retrouve aussi dans certains ateliers – comme l'atelier d'agglomération des briquettes de pyrites –, ou à certains postes, comme pontonnières à la fonderie : ces femmes sont alors assez souvent étrangères, ou d'origine étrangère. D'autres emplois féminins, peu nombreux, peuvent être occupés par des femmes de nationalité française, naturalisées ou non : il s'agit des femmes de ménage ou du personnel de service à la cantine. On peut donc dire que les postes de travailleuses étrangères sont des postes d'ouvrières, ce qui est plus rarement le cas des Françaises, qui sont pour la plupart des employées. La faiblesse générale de leur effectif pourrait néanmoins laisser son évolution inaperçue, sauf si on s'intéresse aux données relatives. Deux ensembles de remarques peuvent alors être faites en fonction de la période considérée : c'est-à-dire le début de l'Occupation, puis les années postérieures à 1940. Ces remarques concernent d'abord les licenciements qui suivent la défaite. L'entreprise stoppe brutalement son activité suite à l'invasion et sur la demande du ministère de l'armement. Pour les travailleuses françaises, on constate alors que quatre femmes sur les treize recrutées avant 1940 partent en juillet-août, soit environ 30,8 % de cet effectif2. De plus sur les quatre femmes embauchées en 1940, deux quittent l'usine pendant l'été, soit 50 % de l'effectif. Pour les femmes étrangères, ce sont cinq ouvrières qui sont renvoyées sur les onze présentes, soit 45 % de cet effectif qui quittent l'usine au mois de juillet. Les licenciements de personnels féminins représentent donc des proportions plus fortes que celles du personnel masculin. Ces licenciements préfigurent la politique de Vichy limitant le travail des femmes, puisqu'ils se déroulent pendant l'été 1940, c'est-à-dire bien avant – par exemple – la loi du 11 octobre qui limite l'embauche des femmes mariées dans la fonction publique. Cependant, ils ne visent pas les femmes en fonction de leur âge ou de leur situation familiale, mais uniquement en raison de la faiblesse de leur ancienneté dans l'entreprise : on perçoit là une logique 1 2 AMC, cahiers du personnel étrangers 10, 11 et 12, et cahiers du personnel français 6 et 7. Pour tous les chiffres cités dans cette partie, en procédant par sondage à partir de la lettre B. 55 d'entreprise – il s'agit de conserver les personnels les plus expérimentés et de se débarrasser des autres –, et non la logique de l'État français qui veut renvoyer les mères de familles à leurs foyers. Le second ensemble de remarques concerne l'importance des recrutements de personnels féminins après 1940 : en effet, si la politique de Vichy s'oppose au travail des femmes1, elle entre par la suite en contradiction avec les nécessités économiques. De plus, entre 1942 et 1944 de 600 000 à 700 000 hommes partent pour l'Allemagne. Des femmes les remplacent alors ; ce qui est valable en France et dans la Loire 2. L'usine de Chasse n'échappe pas à ce qui a été vérifié ailleurs : pour les travailleuses françaises, on constate le recrutement de quatre femmes en 1940 (environ 18,2 % des recrutements de travailleurs français cette année-là), une en 1941 (soit environ 7,1 % des recrutements), puis quatre en 1942 (soit environ 11,4 % des recrutements), puis deux en 1943 et deux en 1944 (soit respectivement 11,1 et 18,2 % des recrutements). En ce qui concerne les étrangères, leur recrutement reprend en 1941 (pour deux individus) et s'accélère en 1942 (avec quatorze individus). Cette année-là, les femmes représentent donc déjà environ 24,1 % des recrutements de personnels étrangers. Cette proportion élevée est exceptionnelle : elle n'a d'ailleurs jamais été atteinte dans l'histoire de l'entreprise3. De plus, ce recrutement s'effectuant principalement en fin d'année, il vise à compenser la pénurie de main d'oeuvre constatée pour maintenir la marche de l'usine : les travailleurs étrangers n'ont pas pu compenser les départs des Français et ils manquent à leur tour. En 1943, cinq femmes sont encore recrutées : elles représentent environ 41,7 % des recrutements d'étrangers de l'année par les HFC. Enfin, en 1944, sur cinq personnels étrangers recrutés, deux sont des femmes. Les recrutements de travailleuses françaises sont déjà remarquables en valeur relative, mais ils le sont moins que ceux des femmes étrangères : on pourrait voir là le résultat des pratiques de recrutement de l'entreprise qui face à la pénurie de main d'oeuvre fait davantage appel aux femmes et en particulier aux femmes étrangères. Mais il faut aussi tenir compte du fait que parmi elles, seules les Françaises sont en capacité 1 AZÉMA Jean Pierre, « Le régime de Vichy », in AZÉMA Jean Pierre et BÉDARIDA François (dir.), La France des années noires, tome 1, Points Histoire, Éditions du Seuil, 2000, 580 p., p. 176. 2 SCHWEITZER Sylvie, Les femmes ont toujours travaillé. Une histoire du travail des femmes aux XIXe et XXe siècles, Paris, Odile Jacob, 2002, 329 p., p. 101. FRIDENSON Patrick et ROBERT Jean-Louis, « Les ouvriers dans la France de la Seconde Guerre mondiale », op. cit., p. 125. Pour la Loire LUIRARD Monique, La région stéphanoise , op. cit., p. 454 et p. 601. 3 En valeur absolue, des dizaines de travailleuses étrangères sont embauchées de l'après guerre à 1931, mais elles ne représentent pas une telle proportion des effectifs de recrutement de travailleurs étrangers : AMC, cahiers des travailleurs étrangers n° 8 et n° 9. 56 de quitter l'usine. C'est ce que révèlent leurs motifs de départ indiqués sur les cahiers du personnel : elles ont d'avantage d'atouts et moins de contraintes que les étrangères. En revanche, dans la région, la surveillance et la répression qui s'abattent sur la main d'oeuvre étrangère débutent en 1940 et la soumettent au travail par la contrainte 1, ce qui va dans le sens de leur moindre mobilité. L'entreprise fait cependant le choix de ne recruter des ouvrières étrangères qu'en les affectant à trois ateliers : l'agglomération des pyrites, la fonderie et – nouveauté après 1940 – la briqueterie. De telles pratiques, correspondent à une division sexuelle du travail, concernant les employeurs de l'industrie qui les ont mises en place pendant la Première Guerre mondiale, puis qui les ont développées pendant l'entre-deux-guerres2. Les politiques de recrutement sexuées de l'entreprise existent donc bien, mais elles se voient finalement moins dans la nature de ceux-ci – car ils sont globalement contraints par le manque de main d'oeuvre – que dans l'affectation des personnels à leurs ateliers ou à leurs postes. Ensuite, un second critère des politiques de recrutement concerne les nationalités. On peut tout d'abord dire que les travailleurs étrangers ont toujours joué un rôle important dans le recrutement des personnels de l'usine. Les plus anciens documents de l'entreprise signalent leur présence dès le XIXe siècle, même si leur embauche massive ne débute qu'avec la Première Guerre mondiale3. Pour la période qui nous intéresse, ils jouent un rôle manifeste au début de la guerre en participant à l'effort de production, alors que les travailleurs français sont appelés sous les drapeaux : à partir de l'été 1939, on notera en particulier le recrutement4 de plusieurs dizaines d'« Algériens »5. Les travailleurs étrangers sont sans exception des ouvriers. Ils sont présents dans presque tous les ateliers de l'usine, mais plus particulièrement dans ceux liés à la production : hauts-fourneaux, fonderie, cokerie. 1 LUIRARD Monique, La région stéphanoise , op. cit., p. 631. DOWNS Laura Lee et LEFEBVRE Frédéric, « Boys will be men and girls will be boys » : division sexuelle et travail dans la métallurgie (France et Angleterre, 1914-1939), Annales. Histoire, Sciences Sociales, 54e année, n° 3, 1999, p. 561-586. 3 AMC, cahier du personnel n°1 et BONFILS-GUILLAUD Cyril, Le personnel immigré de la Compagnie , op. cit., p. 5-6. 4 AMC, cahier du personnel étranger 12. 5 On a adopté ici la terminologie de l'entreprise, pour parler des travailleurs français musulmans d'Algérie. On n'ignore donc pas les remarques de Sylvain Laurens qui conseille de veiller à l'anachronisme dans LAURENS Sylvain, « L'immigration : une affaire d'Etats. Conversion des regards sur les migrations algériennes (1961-1973) », Cultures & Conflits, n° 69, 2008, 17 p. p.2-3, [pdf] http://conflits.revues.org/index10503.html., [dernière consultation le 11 décembre 2011]. Mais par commodité, on a par la suite utilisé ce nom sans guillemet, même s'il n'a pleinement son sens national qu'en 1962. 2 57 Ils participent aussi aux activités d'entretien comme maçons. En revanche on ne les trouve pas dans les activités d'entretien proprement dites (comme soudeur, forgeron, électricien, etc.), ni à la centrale et très rarement à la menuiserie ou à l'usinage. Certains cahiers du personnel1 comportant la profession – et pas uniquement l'atelier – permettent d'observer la faiblesse de leurs qualifications, puisqu'ils sont très souvent manoeuvres. Pendant la guerre, les travailleurs étrangers dans le département voisin de la Loire peuvent perdre leur emploi après la défaite de 1940 – une manière comme une autre de les pousser au départ sans les expulser –, sachant que la « commission de la production » du préfet Laban souhaite « l'élimination des étrangers aussi bien parmi la main d'oeuvre que parmi les producteurs ». Elle reprend-là les grandes lignes de l'avis de la chambre de commerce d'après Monique Luirard2. On retrouve également un départ important de personnels à Chasse : cela représente 44 d'entre eux sur les 251 présents pendant les seuls mois de juillet et d'août3. Les périodes d'embauche et de départ suivent ensuite moins les rythmes du bassin stéphanois que ceux de l'usine : si Monique Luirard signale qu'ils remplacent les Français partis pour la relève dès le printemps 1942, puis qu'ils sont concernés par le STO à partir d'octobre 19434, on n'en perçoit peu les variations à Chasse. Ainsi les départs pour l'Allemagne ne concernent que neuf travailleurs étrangers des HFC jusqu'en 1944, dont six en 1942. En revanche, on constate davantage les effets de l'allumage d'un second haut-fourneau en 1942 qui repose essentiellement sur l'embauche de travailleurs étrangers puisque sur cette annéelà leur nombre total augmente de vingt-sept. Il semble donc que les rythmes de production de l'entreprise liés à la conjoncture économique et politique ont eu un effet supérieur aux lois sur l'évolution des effectifs de travailleurs étrangers. Or plusieurs facteurs variables dans le temps expliquent l'évolution des recrutements. Les lois et règlements qui concernent ces mêmes travailleurs sont mises en place très tôt : dès octobre 1940 Vichy se préoccupe des Juifs étrangers dont les « Allemands se débarrassent en les faisant passer en zone Sud »5. On retrouve alors la trace de ces mesures dans les archives municipales de Chasse-surRhône et on en observe le renforcement : en octobre 1941, les autorités préfectorales de 1 AMC, cahier du personnel étranger 12 et 13. LUIRARD Monique, La région stéphanoise , op. cit., p. 630-631 et p. 564. 3 AMC, cahier du personnel étranger n° 12. 4 LUIRARD Monique, La région stéphanoise , op. cit., p. 434-435. 5 Ibidem, p. 641. 2 58 Vichy ordonnent aux maires de signaler les étrangers qui ont passé la ligne de démarcation et qui se présentent sur le territoire de leur commune 1. Puis, les mêmes autorités préfectorales leur ordonnent, le mois suivant, de faire une « liste nominative » des « allemands israélites ou non » et « présumés communistes »2. Puis, ils leur demandent d'établir la liste nominative de tous les étrangers présents sur leur commune en mars 19423. En réalité, depuis décembre 1941, les services de la préfecture de l'Isère font tenir dans les mairies des « états numériques des étrangers en résidence dans le département » à renseigner par commune. Les premiers sont de décembre 1941 et indiquent – outre les nationalités –, les professions, sexes, groupes d'âge 4. Mais, il ne s'agit alors que de dénombrer. On peut donc repérer la progression qui va du dénombrement de certaines catégories à la création de listes exhaustives et nominatives de tous les étrangers, en passant par plusieurs étapes intermédiaires. En 1943, le résultat de ce travail de recensement est là : au mois de juillet, il permet de fournir aux autorités une liste de dix-sept travailleurs devant intégrer le 351 e groupe de travailleurs étrangers à Uriage pour être affectés aux HFC 5. Or, à ce momentlà, dans un cadre contraint par le STO et le classement prioritaire des usines, ces personnels sont en réalité d'une certaine manière protégés par l'entreprise, car plutôt que de partir pour l'Allemagne, ils restent à travailler à Chasse. Cette protection vient bien des dirigeants de l'usine et non des seules autorités municipales car depuis 1941 Paul Laurent-Devalors est maire de Chasse nommé par Vichy6. Il est aussi ingénieur travaillant aux HFC : entré dans l'entreprise en 1925, il dirige la briqueterie cimenterie7. Cumulant des fonctions politiques et administratives locales avec celles de cadre de l'entreprise, on peut donc affirmer que grâce à lui les autorités municipales et l'entreprise sont liées. En outre, ce dernier a pu prendre personnellement des mesures de protection pour certains travailleurs qui ont été ensuite cachés dans les campagnes 1 AMC, dans 1E, étrangers, 1E1, circulaire n° 5/1 DC de la préfecture de l'Isère, document en date du 25 octobre 1941. 2 Ibidem, 1E1, lettre de la préfecture de l'Isère en date du 11 novembre 1941 adressée au maire de Chasse et classée confidentiel. 3 Ibidem, 1E1, circulaire n°12/1 DC de la préfecture de l'Isère, document en date du 12 mars 1942. 4 Ibidem, 1E1, document en date du 31 décembre 1941. 5 Ibidem, 1E1, document en date du 10 juillet 1943 6 AMC, série 1B3, délibérations du conseil municipal, cahier 1B3/2 : 1934-1941, séance du 13 août 1941. 7 AMC, fichier mécanographique du personnel de l'entreprise. Voir pour une biographie de Paul Laurent Devalors qu'elle a bien connu, BOUILLET Janine, Racines et réalités de Chasse-sur-Rhône, Salaize-surSanne, 2012, 148 p., p. 137 et p. 139. 59 environnantes1. Est-ce pour cette raison qu'il est incarcéré à Montluc le 27 mars 19442 ? La mémoire collective locale le rapporte encore, faisant de lui quelqu'un qui « aida beaucoup la Résistance et les réfractaires au STO »3 . Avec l'intervention de certains personnels d'encadrement de l'usine, on a alors l'une des raisons qui peut expliquer que le recrutement des personnels étrangers dépende dans cette usine moins qu'ailleurs de la législation du travail et de gestion de la main d'oeuvre. Toutefois en application des lois, l'ensemble de ces travailleurs est dénombré et surveillé : comme entreprise sidérurgique, les HFC sont aussi une entreprise prioritaire qui a en partie la possibilité de conserver ses salariés. On retrouve cela ailleurs dans la région stéphanoise où par exemple les entreprises sidérurgiques soumises au STO sont habilitées à reconstituer leur personnel le mois qui a suivi sa mise en place4, ce qui ne peut se faire qu'avec des femmes, des jeunes (c'est d'autant plus difficile dans la sidérurgie où le travail demande force physique et résistance), ou des travailleurs étrangers. Pour autant, cela ne veut pas dire que les HFC puissent protéger toute leur main d'oeuvre des demandes de mutation effectuées par les inspecteurs du travail : c'est le cas pour sept travailleurs étrangers dont cinq femmes entre 1941 et 1944. Parmi les entreprises prioritaires, certaines le sont donc plus que d'autres, à moins que les déséquilibres créés par les prélèvements allemands ne nécessitent une meilleure répartition. Cependant, ni la conjoncture économique et politique, ni les lois et règlements de Vichy et de l'occupant, ni l'intervention de Paul Laurent-Devalors n'expliquent la totalité des entrées et sorties de personnels : les objectifs de recrutement de personnels reflètent bien aussi les politiques de l'entreprise. Cette dernière privilégie certaines nationalités aux dépens d'autres. Ainsi, les Algériens ont quasiment disparu des personnels (cinq individus en janvier 1945) alors qu'ils sont le premier groupe d'« étrangers » au début de la guerre (quatre-vingt-onze individus en janvier 1940)5. Si on prend d'autres nationalités ; il y a pour les mêmes dates : huit Portugais sur les onze présents, trente-deux sur les trente-six Arméniens présents, douze sur les vingt-et-un Italiens présents, etc. Même ce dernier groupe – qui est le second plus touché par la 1 Témoignage d'Antoinette C, fille d'un travailleur portugais des HFC lors de la conférence du 20 mai 2016 à Chasse-sur-Rhône. 2 ADR, 3335W30, Montluc 1942-1944. 3 Conférence du 20 mai 2016 à Chasse-sur-Rhône, témoignage d'Andrée Jobert ; la citation provient de BOUILLET Janine, Racines et réalité, op. cit., p. 139. 4 LUIRARD Monique, La région stéphanoise , op. cit., p. 588-589. 5 AMC, cahiers du personnel étrangers 10 et 12. 60 baisse des effectifs après les Algériens – n'atteint une baisse en proportion que de 42,9 %, quand ces derniers en sont à 94,5 %. Cela révèle bien des politiques dont les Algériens sont victimes. Certes, on pourrait penser que comme l'entreprise cherche à garder ses plus anciens salariés, quelque soit leur nationalité, le turnover touchant pendant la guerre essentiellement les derniers arrivants. Or comme la plupart des Algériens sont arrivés entre 1939 et 1940 : ils ne sont donc pas concernés par ces pratiques. Mais comme le révèlent les motifs spécifiques de leur départ, cela n'explique pas l'effondrement de leurs effectifs comparés à ceux des autres nationalités : les Algériens sont un groupe dont on cherche à se débarrasser en les poussant par tous les moyens à quitter l'usine, ou en les en chassant. On peut en relever des éléments de preuve sur les cahiers du personnel, ils sont les seuls à partir d'« eux-mêmes » en 1940, ils sont les seuls à être renvoyés pour sanction et pratiquement les seuls à être renvoyés pour « refus de travail ». Or les cahiers de l'entreprise indiquent que cela vient – pour tous –, de leur « refus de faire le brai ». Le brai de houille est un résidu pâteux de sa distillation. Il s'agit donc d'un travail pénible et salissant. On peut constater que les travailleurs originaires d'Algérie sont exposés aux tâches parmi les plus dures de l'usine et on peut se demander si cela n'est pas aussi un moyen de les renvoyer (les départs de ce type se faisant surtout en 1941 et pour cette seule « nationalité »). Enfin, on remarque que les Algériens forment le groupe qui exprime le plus son désir de rentrer chez lui, pendant la guerre. Or, étant donné les conditions de transport et de conflit à cette époque, on peut s'interroger sur les motivations réelles de ces salariés ; et cela d'autant plus que parmi le personnel de l'usine, ils sont ceux qui viennent des régions parmi les plus les plus éloignées du territoire français, et qu'ils doivent traverser une Méditerranée en guerre afin de rentrer chez eux. Ainsi, même si les Algériens sont le groupe de travailleurs immigrés qui a le plus de départs non renseignés sur les cahiers du personnel – mais cela n'est-il pas finalement aussi révélateur de l'intérêt qui leur est porté –, on ne peut que constater qu'ils sont les plus renvoyés, sous la contrainte ; ce qui est donc du seul fait des HFC. On peut encore ajouter que la liste détaillée des personnels affectés au 351e groupe de travailleurs étrangers à Uriage ne révèle qu'aucun Algérien n'est recensé, tandis que figurent plusieurs Italiens, Espagnols, Polonais ou Arméniens. Certains, tel Stéphane B., ne sont rentrés dans l'entreprise qu'en 1940 ; ou tel Henri K., ne sont que manoeuvres. Le critère de nationalité prédomine donc bien sur d'autres qui auraient pu être l'ancienneté ou la qualification. En revanche, les Algériens sont cinq des neuf 61 travailleurs « étrangers » à partir pour l'Allemagne de 1941 à 19431. Enfin, l'emploi même du nom d'« Algérien » est significatif : les musulmans d'Algérie sont français, même si leur nationalité est vidée de ses principaux droits2. Or les dirigeants des HFC les considèrent comme des étrangers, comme les Italiens ou les Espagnols avec qui on les classe dans les cahiers ; ou au moins comme des non Français à l'image des apatrides arméniens qui portent le nom de leur région d'origine plutôt que celui d'une nationalité. Ces éléments cumulés font alors penser à un mode de fonctionnement « racialiste ». Laurent Dornel, indique que ce « processus d'identification » des travailleurs – en les classant selon des aptitudes raciales supposées – est mis en place pendant la Première Guerre mondiale, accompagnant le développement du processus scientifique de travail dans l'industrie de guerre 3. On retrouve là un contexte analogue à celui qui a conduit au recrutement des femmes pendant la Grande guerre, entrainant une division sexuelle du travail dans la métallurgie. Or dans les deux cas, comme le soulignent Laurent Dornel et Laura Downs 4, cette situation s'est poursuivie pendant l'entre-deux-guerres : elle est présente encore à Chasse au-delà des années 1930. Pour conclure, on peut dire qu'en 1945 les effectifs de l'usine de Chasse ont diminué de manière importante, après avoir subi de fortes variations lors des quinze années précédents ; à la hausse, comme à la baisse. Ces variations touchent cependant inégalement les personnels en fonction de leur nationalité et de leur sexe. Les travailleurs français ont vu leur importance en proportion diminuer dans le personnel, car le solde des recrutements – entrées moins sorties – est négatif pendant toutes les années de conflit en raison de la conjoncture et des lois sur le travail. Les travailleurs envoyés en Allemagne pour la Relève et le STO représentent 7 % des départs quand les travailleurs envoyés en camp de jeunesse, ou affectés, ou mutés en représentent 11,46 %5. De 1940 à 1944, les prélèvements de la main d'oeuvre française des HFC sur ordre 1 AMC, cahiers du personnel étrangers 10, 11 et 12. WEIL Patrick, « Le statut des musulmans en Algérie coloniale. Une nationalité française dénaturée », Histoire de la justice 2005/1, n° 16, p. 93-109, p. 104. 3 DORNEL Laurent, « Les usages du racialisme. Le cas de la main d'oeuvre coloniale en France pendant la Première Guerre mondiale », Genèses n° 20, p. 48-72, p. 67 sqq. Mais Patrick Fridenson et Jean-Louis Robert utilisent à propos des « politiques de main d'oeuvre immigrée » des termes comparables, parlant de « logiques ethniques » fondées sur des « hiérarchies de valeurs qui primaient avant la guerre » : dans FRIDENSON Patrick et ROBERT Jean-Louis, « Les ouvriers dans la France de la Seconde Guerre mondiale », p. 125. 4 DORNEL Laurent, « Les usages » op. cit., p. 71-72, et DOWNS Laura Lee, « Boys will be », op. cit., p. 563. 5 AMC, cahiers du personnel français 6 et 7, d'après un échantillon du personnel pris à la lettre B. 2 62 des Allemands ou de Vichy ne sont donc pas négligeables. Ils posent aussi des problèmes moraux et prennent de l'importance pendant toute la guerre, ils s'effectuent dans un marché en pénurie de main d'oeuvre qualifiée, mais ils ne sont pas majoritaires : près de 81, 54 % des départs ont des causes autres, notamment parce que cela provient des dirigeants de l'entreprise qui les renvoient dans le contexte de l'été 1940, ou des départs au moment de la Libération. Pour les étrangers, leur part a progressé dans le personnel, mais les nationalités présentes dans l'usine ne sont donc plus du tout dans les mêmes proportions celles qui étaient là au début, ce qui est encore en partie de la responsabilité des dirigeants de l'usine et de l'entreprise. Le personnel des Hauts-Fourneaux de Chasse a donc subi – tout comme son entreprise – le nouveau contexte politique et économique créé par la guerre. Privé de ses libertés politiques comme le droit de grève ou de se syndiquer librement, surveillé et dénombré, il a aussi été soumis aux politiques d'entreprise des HFC, bien souvent sans pouvoir faire face ou faire preuve d'autonomie – sauf à prendre de grands risques –, mais avec des différences entre nationalités et sexes. À l'aube des Trente Glorieuses, dans quelle mesure la Libération va-t-elle leur apporter plus de libertés ? Comment vont-ils pouvoir l'utiliser ? Ces questions sont posées alors que les dirigeants des HFC s'apprêtent eux aussi à affronter ce nouveau contexte. IV) 1945-1946 : reconstruire et relancer l'entreprise Il faut évoquer plusieurs débats concernent la situation du patronat dans l'aprèsguerre, avant même de pouvoir parler de leur action dans la reconstruction et la relance de l'économie. Le premier porte sur le renouvellement des dirigeants. Françoise Berger voit dans la nouvelle loi sur les sociétés anonymes qui interdit le cumul de présidences de sociétés un des éléments qui a contribué au renouvellement du milieu patronal : elle cite le cas de Théodore Laurent comme exemple1. Cependant, à partir d'un 1 BERGER Françoise, La France, l'Allemagne et l'acier, op. cit., p. 662. 63 échantillonnage de grandes entreprises industrielles et bancaires, Hervé Joly nous décrit au contraire un « grand patronat français peu renouvelé à la Libération »1. Un second débat plus ancien que le précédent concerne l'épuration patronale et représente des enjeux bien plus importants. Hervé Joly rappelle que « [s]elon les représentations communes l'épuration patronale n'aurait pratiquement pas eu lieu ; les patrons compromis dans la collaboration n'auraient guère été punis et presque tous auraient pu poursuivre leur carrière sans encombre »2. De fait, Françoise Berger citant l'exemple des Schneider indique qu'après avoir exporté 40 % de leur production vers l'Allemagne pour la valeur totale de commande de 1 400 millions de francs ne voient aucune confiscation de profits illicites : « les affaires traitées avec l'occupant allemand étant donc toutes considérées comme relevant de la contrainte et n'ayant laissé aucun bénéfice »3. Or Monique Luirard parle d'une « épuration vigoureuse » menée dans les divers établissements industriels stéphanois : ainsi trente établissements métallurgiques se retrouvent pourvus d'un administrateur4. Comment comprendre de telles différences ? Hervé Joly l'explique ainsi : « Tout dépend en fait de la manière dont on la mesure. Si l'on ne prend en compte que les sanctions effectivement prononcées, non révisées en appel, non amnistiées et qui ont formellement écarté de manière durable des dirigeants, le bilan est effectivement quasi nul. Mais si l'on recense toutes les procédures lancées contre des patrons, aussi bien dans le cadre de l'épuration professionnelle que judiciaire dans leurs différentes composantes, le bilan est tout sauf négligeable : comme plusieurs contributions[] le montrent à l'échelle d'une région ou d'un secteur, ce sont des milliers de responsables économiques qui ont été touchés d'une manière ou d'une autre »5. Toujours selon lui, les travaux qui ont porté sur l'épuration des élites économiques se sont en effet pendant longtemps appuyés presque exclusivement sur la Commission Nationale Interprofessionnelle d'Épuration, or il est possible de tenir comptes de différentes procédures judiciaires, mais aussi administratives, professionnelles ; et celles-ci sont menées par diverses cours de justice, chambre civique, voire tribunaux 1 JOLY Hervé, « Un grand patronat français peu renouvelé à la Libération ». Version retravaillée d'une communication présentée en janvier 2003 à une table ronde, 11 p., [pdf], https://halshs.archivesouvertes.fr/halshs-00191162., [dernière consultation le 27 mars 2015]. 2 JOLY Hervé, « Mobilités patronales dans l'après-guerre et impact de l'épuration », Dans BERGÈRE. Marc (dir.), L'Épuration économique en France à la Libération , PUR, Rennes, 2008, p. 83-100, p. 83. 3 BERGER Françoise, La France, l'Allemagne et l'acier, op. cit., p. 690. 4 LUIRARD Monique, La région stéphanoise , op. cit., p. 705. 5 JOLY Hervé, « Mobilités patronales dans l'après-guerre », op. cit., p. 83. 64 militaires1. Mesurer l'ampleur de l'épuration dépend donc du secteur économique étudié, de la région, mais aussi des sources utilisées, ce qui permet alors de dire qu'en Rhône-Alpes une épuration patronale a bien provisoirement existée2. Un dernier débat concernant les dirigeants porte sur la nature de leur engagement dans la Collaboration. L'attitude du patronat de la métallurgie n'est pas discutée en ce qui concerne la collaboration économique, tant elle est évidente. Ce qui l'est davantage est le degré d'implication : les industriels ont-ils trahis3 ? Se sont-ils conduits plutôt passivement à l'image de ce qu'ont fait la moyenne des Français et ontils collaboré parce qu'ils étaient forcés4 ? Se seraient-ils situés surtout entre la « collaboration profit » et la « collaboration survie »5. N'y a-t-il pas aussi parmi eux des cas de « collaborationnisme » économique évidents6 comme des cas de résistance7 ? Or si l'usine de Chasse a surtout fabriqué des matières premières (fonte et ciment de laitier), ses productions métallurgiques en font une usine clef pour Vichy et les Allemands dès le début de la période de l'Occupation : les premiers s'intéressent notamment à elle pour opérer un recentrage de la production française dans la vallée du Rhône8, les seconds dès 1940 recensent et surveillent toutes les entreprises françaises de la zone Sud9. Après l'occupation de toute la France en novembre 1942, le contrôle allemand s'établit sur la zone Sud, puis il se durcit jusqu'à la fin de la guerre où il est accompagné de pillages10. Toutefois, malgré la reconversion d'une partie des industries métallurgiques11, les entreprises du bassin stéphanois fournissent du matériel de 1 JOLY Hervé, « L'Épuration patronale a bien (provisoirement) existé : l'exemple de la région RhôneAlpes », dans BARUCH. Marc Olivier, Une poignée de misérables. L'épuration de la société française après la Seconde Guerre mondiale, Fayard, Paris, 2003, p. 301-335, p. 301. 2 Ibidem. 3 LACROIX-RIZ Annie, Industriels et banquiers sous l'Occupation. La collaboration économique avec le Reich et Vichy, Armand Colin, Paris, 1999, 661 p., p. 148-151. 4 BERGER Françoise, La France, l'Allemagne et l'acier, op. cit., p. 665-668. 5 MIOCHE Philippe. « Les entreprises sidérurgiques sous l'Occupation », Histoire, économie et société , 11e année, n° 3. « Stratégies industrielles sous l'occupation », 1992, p. 397-414, p. 401. 6 Exemple de Marcel Paul Cavalier, Ibidem, p. 411. 7 Exemples de Holtzer, Barriol et Dallière, dans LUIRARD Monique, La région stéphanoise , op. cit., p. 595. 8 BERGER Françoise, La France, l'Allemagne et l'acier, op. cit., p. 461, p. 464. 9 BERGER Françoise, La France, l'Allemagne et l'acier, op. cit., p. 505-506. Pour la région stéphanoise, LUIRARD Monique, La région stéphanoise , op. cit., p. 424-425. 10 BERGER Françoise, La France, l'Allemagne et l'acier, op. cit., p. 527 sqq. Pour la région stéphanoise : LUIRARD Monique, La région stéphanoise , op. cit., p. 585. 11 BERGER Françoise, La France, l'Allemagne et l'acier, op. cit., page 506. LUIRARD Monique, La région stéphanoise , op. cit., p. 567. 65 guerre1, voire certaines productions que dans l'ensemble de la France elles seules sont capables de fournir, comme le laminage pour blindages par les entreprises Marine, Marrel et les Aciéries de Saint-Étienne2. Mais la reconstruction et la relance de l'usine et des HFC après la Libération doit se faire dans un nouveau contexte politique où l'attitude du patronat est questionnée. La Libération est aussi marquée par la réorganisation de l'économie française et en particulier de ses entreprises. La période voit en effet la mise en place3 du plan de Jean Monnet et de plus, il faut reconstituer l'appareil de direction économique et financière du pays : d'une manière générale d'après Michel Margairaz, « [l]e caractère provisoire des institutions et les difficultés matérielles rendent plus malaisée la stabilisation de l'appareil de direction économique et financier »4. Cette période de flottement est cependant un temps stratégique pendant lequel la sidérurgie française peut prendre du retard par rapport aux autres sidérurgies comme le pensent Michel Freyssenet et Catherine Omnès5. En effet, de nombreux patrons refusent de réorganiser leur secteur alors qu'il faudrait fermer les unités les plus vétustes d'après d'autres dirigeants de la sidérurgie : si tous conçoivent la nécessité de moderniser, certains refusent que les réorganisations se fassent à leurs dépens 6. Les discussions ont particulièrement été âpres dans la région stéphanoise 7. C'est dans ce contexte que l'entreprise et ses filiales sont à réorganiser, et que son usine de Chasse est à relancer. 1) Des dirigeants qui restent en place Les dirigeants de la Compagnie des Hauts-Fourneaux de Chasse-sur-Rhône et ceux de leur usine principale restent tous en place à la Libération. Il s'agit du président – Pierre Cholat –, de son frère Lucien et des autres administrateurs, Guillaume Martouret, Robert Tremeau et Léon Marrel. De même, les dirigeants de l'usine 1 BERGER Françoise, La Fra nce, l'Allemagne et l'acier, op. cit., page 516. LUIRARD Monique, La région stéphanoise , op. cit., p. 585, p. 597 2 LACROIX-RIZ Annie, Industriels et banquiers, op. cit., p. 147-148. 3 MIOCHE Philippe, « Aux origines du Plan Monnet : les discours et les contenus dans les premiers plans français (1941-1947) », Revue historique, n° 538, avril-juin 1981, p. 405-438, p. 418. 4 MARGAIRAZ Michel, L'État, les finances et l'économie, op. cit., p. 769-806. 5 FREYSSENET Michel et de OMNES Catherine, La crise de la sidérurgie française, Paris, Hatier, coll. Profil, 1982, 84 p., p. 25 sqq. 6 BERGER Françoise, La France, l'Allemagne et l'acier, op. cit., p. 720-722. 7 MIOCHE Philippe, La sidérurgie et l'État en France des années 1940, op. cit., p. 43 sqq. 66 demeurent à leurs postes : ce sont le directeur Jean Demoule, l'ingénieur principal François Tavernier et le secrétaire général Paul Goisset. Tous ces dirigeants sont encore là au début de l'année 19481. Donc aux HFC, on peut conclure avec Hervé Joly que la guerre n'a pas été l'occasion d'un renouvellement du patronat, ni même des dirigeants de l'usine2. Or on peut dire aussi que l'épuration économique aurait pu concerner les HFC et provoquer un renouvellement de leurs dirigeants. L'usine a en effet fourni des matières premières stratégiques pour la sidérurgie, et même des pièces aux aciéries de la région qui fabriquaient du matériel de guerre pour les Allemands : les dirigeants de Chasse ont collaboré à l'effort de guerre de l'Occupant3. Ils ont même cherché à relancer leur production dès l'été 1942 en allumant un second haut-fourneau, avant même que la zone libre ne soit occupée : ils ne peuvent donc pas invoquer comme d'autres dirigeants des contraintes exercées par les Allemands4. Ils n'ont cependant pas été inquiétés pour cela à la fin de la guerre : aucune trace de poursuite concernant les Cholat ou les autres dirigeants des HFC n'a été découverte aux archives départementales de l'Isère 5, ni non plus dans les documents de l'usine6. Dans ce cas précis, la thèse d'un patronat épargné par l'épuration semble donc confortée. Néanmoins, en élargissant les recherches vers les Aciéries de Saint-Étienne dont la famille Cholat fournit une partie des dirigeants, un tout autre constat peut être fait : en effet, « le choix de l'échelle n'est [pas] neutre » et « la nature même des réalités dégagées par l'analyse en dépend »7. Ainsi, même si les recherches menées sont 1 ADI, 56J12. JOLY Hervé, « Un grand patronat français peu renouvelé à la Libération », op. cit 3 Les Aciéries Marrel ont fabriqué des tôles de blindage pour char ou du matériel blindé pour casemates côtières. Or les Hauts-fourneaux de Chasse les ont notamment fournis en pièces de lingotière comme le prouve une déclaration de transport en date du 18 février 1944 : ADR, 394W721, dossiers des affaires closes par une ordonnance de non-lieu. 4 Les contraintes liées à l'Occupant sont indiquées dans les conclusions du comité de confiscation des profits illicites dans sa lettre du 6 décembre 1945 concernant l'affaire Marrel : ADR, 394W721. Ce sont les conclusions plus générales de Françoise Berger à propos de l'attitude des dirigeants français de la sidérurgie qui ne pouvaient faire autrement selon elle : dans BERGER Françoise, La France, l'Allemagne et l'acier , op. cit., p. 665. 5 Les sources consultées sont 20U : cour de justice de Grenoble. 21U : chambres civiques de l'Isère, de la Drôme et des Hautes-Alpes. 6 ADI, 56J12. 7 DELACROIX Christian, « Échelle », dans DELACROIX Christian, DOSSE François, GARCIA Patrick, OFFENSTADT Nicolas (dir.), Historiographie, concepts et débats, tome 2, op. cit., p. 727. 2 67 nécessairement limitées1, il est possible de dire que grâce à d'autres sources liées à l'histoire des Aciéries de Saint-Étienne : « une Épuration patronale a bien provisoirement existée »2. Les archives de l'entreprise indiquent lors d'un conseil d'administration du 8 décembre 1944 qu'elle est citée à comparaître devant le comité départemental de confiscation des profits illicites depuis le 1er septembre 1939, en même temps que « diverses sociétés sidérurgiques et minières » de la région3. Toutefois, en janvier 1945, la loi ne demande plus que le dépôt d'un mémoire4, avant qu'à l'automne 1945 la commission n'indique s'intéresser aux prix pratiqués qu'à partir de janvier 19445. Mais si la commission semble abaisser ses exigences, en février 1945, la cour de justice de Saint-Étienne enquête sur les commandes allemandes de différentes entreprises sidérurgiques de la région, dont les aciéries dirigées par Pierre Cholat 6. Un expert comptable est ensuite nommé par le « tribunal sur les commandes allemandes », tandis que la « commission des prix de Paris » mène son enquête7 : ce sont donc au moins deux institutions différentes qui vérifient les activités des dirigeants de l'entreprise pendant la guerre : le comité départemental des profits illicites avec une commission parisienne d'une part et la cour de justice de Saint-Étienne dépendant de la cour d'appel de Lyon d'autre part. Une lettre du procureur général de la cour de Lyon en date du 2 juillet confirme l'existence des poursuites indiquées dans les documents de l'entreprise, Saunier étant l'expert chargé des Aciéries de Saint-Étienne8. Plusieurs mois s'écoulent ensuite avant qu'un mémoire additionnel concernant les litiges ne soit remis en mars 19469. Les affaires vont alors trainer plusieurs années : la chambre économique de Saint-Étienne prononce un acquittement le 19 décembre 1946 qui est confirmé par un jugement en appel le 27 juin 194710. Ensuite, la chambre économique prononce le 31 juillet 1947 une mainlevée de la saisie de 10 000 000 de francs effectuée au moment de 1 On peut néanmoins citer aux ADR, 3942W : comité de confiscation des profits illicites (1944-1946). 394W : juridictions d'exception à la Libération dans le ressort de la cour d'appel de Lyon. Rhône, Ain, Loire. 1944-années 1970. 668W : cabinet du préfet du Rhône. 283W : archives du Commissariat général de la République à la Libération. Aux ADL : 2W340, comité départemental de confiscation des profits illicites et 85W 137-140, entreprises mises sous séquestre de leurs biens pour collaboration ou profits illicites (1944-1947). 2 JOLY Hervé, « L'Épuration patronale a bien (provisoirement) existé », op. cit. 3 ADL, 117J8, conseil d'administration du 8 décembre 1944. 4 Ibidem, conseil d'administration du 11 janvier 1945. 5 Ibidem, conseil d'administration du 5 septembre 1945. 6 ADR, 394W611, lettre adressée au Commissaire du gouvernement Faivre en date du 17 février. 7 ADL, 117J8, conseil d'administration du 15 juin 1945. 8 ADR, 394W611, lettre du Procureur général Damour. 9 ADL, 117J8, conseil d'administration du 29 mars 1947. 10 ADL, 117J8, conseil d'administration du 8 septembre 1947. 68 la Libération, mais prononce aussi une amende de 500 000 francs : les dirigeants des Aciéries décident alors de faire appel1. Le comité de confiscation des profits illicites fait de son côté une demande d'hypothèque et un pourvoi est déposé devant la commission supérieure de confiscation des profits illicite le 15 avril 19482. Cette commission rejette le pourvoi et renvoi le dossier au comité local, ce dernier reconnaissant que la question posée peut être modifiée par décision de la cour d'appel : il est alors décidé de payer 1 000 000 de francs pour éviter une menace de saisie3. Même si ce n'est pas négligeable, on est certes loin des mesures prises par exemple contre Berliet en 1945 : les profits illicites de ce dernier étant estimés à plus de 106 753 000 francs, l'amende à payer est de 37 000 000, si bien que le total des confiscations s'élève à 143 753 000 francs4. Nous perdons ensuite la trace des litiges qui concernent les Aciéries de SaintÉtienne. Néanmoins, quelques qu'en soient leurs résultats, les Aciéries ont du verser à plusieurs reprises des sommes d'argent pour profits illicites, mais sans que leurs dirigeants ne soient condamnés : on voit bien avec cet exemple que nombre de patrons ont été impliqués « d'une manière ou d'une autre dans l'épuration »5. On voit aussi que l'importance relative des sanctions financières prononcées contraste avec l'absence des poursuites visant les dirigeants : faut-il alors conclure à l'indulgence des juges vis-à-vis des « gros » ? Hervé Joly aborde la difficulté qu'il y a eu à juger le patronat à l'issue de la guerre. La faiblesse de l'accusation peut être responsable, de même que l'importance des moyens mobilisés par la défense6. Bien souvent, les dirigeants se cachent aussi derrière les injonctions de Vichy ou de l'Occupant sans qu'il soit toujours facile de démêler le vrai du faux7. Ainsi si la collaboration économique a été « la collaboration la plus importante et la plus répandue »8 ; l'épuration économique a été « polymorphe » : 1 Ibidem. ADL, 117J8, conseil d'administration du 25 mai 1948. 3 ADL, 117J8, conseil d'administration du 14 janvier 1949. 4 ADR, 3942W342, transmission au trésorier payeur des sommes à recouvrer. 5 JOLY Hervé, « L'Épuration patronale a bien (provisoirement) existé », op. cit. , p. 312. 6 Ibidem ; p. 325-326. 7 JOLY Hervé, « L'Épuration patronale a bien (provisoirement) existé », op. cit. , p. 325-326. LUIRARD Monique, La région stéphanoise , op. cit., p. 591. 8 ROUSSO Henry, « L'Épuration en France, une histoire inachevée », XXe siècle, revue d'histoire, n° 33, janvier-mars 1992, pages 78-105, p.99. 2 69 il y eut « des épurations économiques »1. Les Cholat se sont relativement bien sortis de cette épreuve si on les compare à un Berliet ou à un Renault, mais cela ne veut pas dire qu'ils n'ont pas été inquiétés pour autant. Mais si juger les patrons n'a pas été simple, cela ne vient-il pas aussi de la difficulté de juger leur comportement ? C'est ce que pense Françoise Berger : elle souligne le problème des sources insuffisantes pour définir l'attitude du patronat français de la sidérurgie2. Définir ici cette attitude est certes impossible, car cela va très au-delà de notre sujet ; en revanche, on peut esquisser un certain nombre de caractères à partir de l'exemple des dirigeants des Hauts-Fourneaux de Chasse pendant la guerre et en particulier sur Pierre Cholat. Tout d'abord, la Libération est particulièrement appréhendée par eux. Elle les inquiète. Elle est un moment révélateur, comme on peut le voir dans les mesures prises lors d'un conseil d'administration des Aciéries de Saint-Étienne en date du 9 juin, trois jours seulement après le débarquement et dont le texte mérite d'être cité3 : « Monsieur le président fait connaître au Conseil que Monsieur L[ucien] Cholat, Ingénieur en chef, lui a exprimé le désir de connaître la situation qui lui serait faite dans le cas où il serait amené à cesser ses fonctions d'ingénieur en chef, pour quelque cause que ce soit. Monsieur le président demande au Conseil d'examiner quelles assurances pourront lui être données à ce sujet. Après examen de la situation, le Conseil décide de garantir à Monsieur L. Cholat, Ingénieur en chef, l'application d'un régime correspondant à celui qui avait été admis en faveur de Monsieur Henri Harmet [prédécesseur de Lucien Cholat ] au moment où celui-ci avait quitté ses fonctions d'ingénieur en chef et éventuellement avec réversibilité en faveur de sa veuve. Monsieur de Castelnau [administrateur des Aciéries] fait remarquer que la même question peut se poser en ce qui concerne Monsieur P[ierre] Cholat, Directeur général et Monsieur Grellet de la Deyte [administrateur des Aciéries et beau-frère de Pierre et Lucien], adjoint à la Direction générale. Le Conseil considère que la longue carrière de ces directeurs au service de la Compagnie confère à chacun d'eux des droits analogues à ceux qui viennent d'être fixés pour ceux de Monsieur l'ingénieur en chef ». 1 BERGÈRE Marc, « Introduction pour une épuration économique a géométrie variable », dans BERGÈRE Marc (dir.), L'épuration économique en France à la Libération, Presses Universitaires de Rennes, 2008, 344 p., p., 11-16. 2 BERGER Françoise, La France, l'Allemagne et l'acier, op. cit., p. 665. 3 ADL, 117J8, conseil d'administration du 9 juin 1944. 70 Le conseil d'administration est levé à la suite de cette décision qui est censée protéger financièrement, à vie, certains dirigeants des Aciéries, pour « quelque cause que ce soit » de leur départ. Le contexte – trois jours après le débarquement – , la soudaineté de la demande, son côté théâtral donnant l'impression d'une mise en scène, la non limitation des « causes » ; beaucoup d'éléments rendent suspecte cette décision qui révèle de la crainte face à l'avenir, voire de la culpabilité. On peut d'ailleurs se demander pourquoi une décision semblable n'a pas été prise aux HFC : cela ne correspond-il pas alors à une juste évaluation des risques qui concernent davantage l'entreprise stéphanoise – qui fabrique du matériel – que l'entreprise de l'Isère qui ne produit principalement que des matières premières ? Il y a aussi les fonctions que la famille occupe dans les institutions patronales de la Loire et non dans celles de l'Isère. D'ailleurs, Pierre Cholat démissionne de celles de vice-président de l'ASMPL le 22 septembre 19441, il avait été élu à ce poste le 8 février 1939 2 : la région vient juste d'être libérée. Or il est également le président du Comité des Forges de la Loire lors de l'entrée en guerre et il demeure président lorsque cette institution devient la chambre syndicale des Aciéries et Hauts-Fourneaux du bassin de la Loire en mai 19413. Cette démission rompt, elle aussi, abruptement, avec la période précédente d'engagement constant dans des institutions patronales ; elle s'effectue également dans le contexte particulier de la Libération et alors que d'autres dirigeants démissionnent, donnant l'impression d'une fuite4. Toutefois, un comportement peut-être davantage révélateur d'états d'âmes que d'actes réellement commis : les craintes des Cholat n'impliquent pas forcément leur culpabilité, mais elles peuvent plutôt s'expliquer par la peur de représailles. En effet, la démission apparemment calculée de Pierre comme la tentative de protection de leurs revenus provenant des Aciéries anticipent des changements politiques évidents, mais dont ils ne connaissent pas encore la nature. De plus, tout dans l'histoire de la famille signale leurs sentiments et engagements nationalistes5, ce qui est en contradiction 1 ADR, 34J222, conseil de direction de l'ASMPL du 22 septembre 1944. Ibidem, ASMPL, réunion du 8 février 1939. 3 Ibidem, Comité des Forges de la Loire, réunion du 30 mai 1941. 4 Xavier Vigna parle de « fuite » dans VIGNA Xavier, Histoire des ouvriers en France au XXe siècle , Perrin, Paris, 2012, 405 p., p. 161. Philippe Mioche minimise ce sentiment de panique qui a selon lui été « trop amplifié » dans MIOCHE Philippe, La sidérurgie et l'État en France des années 1940, op. cit., p. 551. 5 Ces sentiments sont d'ailleurs assez largement partagés par les autres sidérurgistes sans que cela ne fasse de la plupart d'entre eux des résistants ou des collaborateurs d'après MIOCHE Philippe, La sidérurgie et l'État en France des années 1940, op. cit., p. 509-511. 2 71 apparente avec une quelconque collaboration économique pour des raisons politiques : Pierre et Lucien Cholat sont détenteurs de la Légion d'honneur 1, leur père est officier de la légion d'honneur2, leurs entreprises contribuent à fabriquer des armements pour la France : des blindages pour croiseurs et cuirassés (dont par exemple le Dunkerque et le Jean Bart), des canons, des obus ; et cela pour la Première comme pour la Seconde guerre mondiale3. D'ailleurs, l'une de leur première décision à la Libération est de produire des armes pour l'armée française4. À cela, des actes réels de résistance5 peuvent peut-être s'ajouter : ils auraient permis à Pierre Cholat de recevoir la médaille de la « France debout » pour « services rendus dans la clandestinité »6. Malheureusement, le document n'est pas plus précis sur la nature des « services », mais une telle médaille semble bien avoir été fabriquée pour le bijoutier lyonnais Augis 7 afin de récompenser ceux qui ont participé au camouflage du matériel. Les Cholat ont-ils alors collaboré et résisté ? Faut-il les classer dans la catégorie des « vichysto-résistants » au sens où l'emploie Johanna Barasz, c'est-à-dire « des hommes dont l'expérience vichyste marque, d'un point de vue idéologique, organisationnel, stratégique et/ou relationnel, les formes de leur résistance »8 ? On peut sans doute l'affirmer en partie si on considère notamment l'engagement de la famille dans les institutions patronales pendant la période. Mais ne peut-on pas dire aussi qu'il faut chercher ailleurs que dans des calculs politiques pour saisir toute l'attitude des Cholat pendant la guerre ? Monique Luirard9 a dit combien certains patrons pouvaient rechercher les commandes allemandes et les profits : leur motivation est donc financière. Il est donc intéressant de creuser cette piste pour saisir d'autres sources de motivation, elles plus économiques et/ou rémunératrices. Par exemple, on sait que l'argument utilisé pour justifier la marche à deux hauts-fourneaux était que la marche à 1 Source pour Pierre Cholat, Journal officiel du 22 septembre 1921, p. 10 877 ; et pour Lucien, Journal officiel du 21 octobre 1933, p. 10 788. 2 Base Léonore http://www.culture.gouv.fr/public/mistral/leonore_fr. 3 ADL, 117J6, 117J7, 117J8. 4 ADL, 117J8, conseil d'administration du 26 octobre 1944. 5 On rappellera également le parcours de Paul Laurent-Devalors évoqué plus haut, à la fois maire nommé par Vichy, cadre des HFC et détenu incarcéré à Montluc par les autorités nazies à la fin de l'Occupation pour ses activités « anti-allemandes ». 6 ADL, 117J8, conseil d'administration du 4 juin 1946. 7 MERLIN Jacques, « Le service secret du camouflage du matériel (CDM) », bulletin de l'association http://www.symboles-etSymboles et Traditions, n° 132, p. 7-11, traditions.fr/articlesmembres/merlin/cdm/pagecamouflage.htm, [dernière consultation le 8 décembre 2017]. 8 BARASZ Johanna, « De Vichy à la Résistance : les vichysto-résistants 1940-1944», Guerres mondiales et conflits contemporains, 2011/2, n° 242, p. 27-50. 9 LUIRARD Monique, La région stéphanoise , op. cit., p. 667-668. 72 un seul haut-fourneau « conduisait à un équilibre industriel insuffisant »1. Or d'autres décisions importantes ont eu comme origine la recherche ou le maintien des profits et/ou la stratégie de développement de l'entreprise en tenant compte de la concurrence : à Chasse on installe un atelier de compression de gaz des fours à coke en 1941 dont les ventes pour les transports se développent dès l'année suivante 2. De plus, à propos de la Compagnie des Fonderies, Forges et Aciéries de Saint-Étienne, Philippe Mioche indique l'installation d'un nouveau four électrique de dix tonnes au lendemain de l'armistice : « il [Pierre Cholat] a fait activer les travaux afin – de son propre aveu – de mettre la Direction de l'armement "devant le fait accompli" »3. On peut d'autant plus comprendre les dirigeants des Aciéries de Saint-Étienne que la décision de construire ce four a été prise en 1938, que le coût total aurait du être environ de quinze millions pour le ministère de la guerre, plus deux à trois millions à charge pour la Compagnie, que le contrat est passé au printemps 1939 et les travaux ne sont pas achevés au moment de la défaite 4. Or le contrat a été résilié par lettre du 24 juillet 1940 par la direction de la sidérurgie, la « commission Daum » avait donné un avis défavorable5 – il faut rappeler que Léon Daum est alors aussi administrateur des hauts-fourneaux de Givors, directeur général de la Compagnie des Forges et Aciéries de la Marine, vice-président du Comité d'organisation de la sidérurgie – et que ce n'est que par un accord du dix mai 1942 que l'installation pourra reprendre, les Aciéries empruntant pour compenser la perte des investissement de l'État et les Hauts-Fourneaux de Chasse devant se porter caution6. Or en 1937, les dirigeants des Aciéries notaient qu'ils étaient « presque seuls dans la Loire à ne pas en posséder un », alors que seul ce type de four permettait de réaliser des blindages d'acier moulé pour chars, offrant ainsi « un débouché intéressant »7. La concurrence entre industriels, quand bien même ces derniers seraient parfois des alliés, a donc été aussi un important facteur permettant de comprendre l'attitude des dirigeants de la sidérurgie pendant la guerre. Par conséquent, c'est en croisant les différents aspects de la personnalité de Pierre Cholat que l'on peut essayer d'en saisir 1 56J24, Rapport du CA à l'AG ordinaire du 10 juin 1943. ADI : 56J12, conseils d'administration des 6 février et 23 décembre 1941, 24 juin 1942. 3 MIOCHE Philippe, La sidérurgie et l'État en France des années 1940, op. cit., p. 531. 4 ADL, 117J8, conseils d'administration des 1er octobre 1938, 13 février 1939 6 mai 1939, 1er juillet 1939, 5 août 1940. 5 Les sources montrent qu'il n'est pas possible de suivre Philippe Mioche lorsqu'il prend l'exemple des Aciéries de Saint-Étienne pour démontrer que le Corsid a pour objectif de ne pas développer de nouveaux moyens de production au nord de la ligne de démarcation au profit des établissements du sud ; dans MIOCHE Philippe, La sidérurgie et l'État en France des années 1940, op. cit., p. 530-531. 6 ADL, 117J8, conseils d'administration des 31 octobre 1941, 25 mars 1942, 10 avril 1942, 27 mai 1942. 7 ADL, 117J8, conseil d'administration du 13 octobre 1937. 2 73 les ressorts, car « les évènements biographiques se définissent comme autant de placements et de déplacements dans l'espace social »1 : ses engagements nationalistes le poussent à résister mais comme patron il souhaite faire des profits ce qui l'amène à collaborer, comme représentant syndical de la sidérurgie il critique l'intervention de l'État vichyste mais il a aussi besoin de lui pour rentabiliser ses investissements, comme patron il coopère et est en compétition avec d'autres patrons qui sont donc à la fois des concurrents et des alliés dans la vie économique et face à Vichy ou l'Occupant. Ne voir que l'une de ces identités – patron, dirigeant syndical, résistant, etc. –, demeurer sur un seul champ – la collaboration économique ou politique –, c'est se condamner à ne traiter qu'une partie de ce qu'a été et ce qu'a fait Pierre Cholat. 2) Les réorganisations de l'après-guerre Comme Pierre Cholat, Léon Marrel et Louis de Curières de Castelnau sont des maîtres de forge. L'un et l'autre sont installés à Rive de Gier. Ils sont aussi respectivement administrateur des Hauts-Fourneaux de Chasse pour le premier et des Aciéries de Saint-Étienne pour le second ; entreprises dont Pierre Cholat est le Président directeur général. Tout comme ce dernier, on les retrouve dans les institutions patronales régionale : Léon Marrel comme membre de la chambre de commerce de Saint-Étienne jusqu'en 1943 et comme président d'honneur de la Chambre syndicale des Aciéries et HautsFourneaux de la Loire 2, tandis que Castelnau est représentant à la chambre de commerce de la Loire à Rive de Gier et membre de la commission exécutive et vice-président de l'ASMPL à partir de 19443. On ne peut pas les considérer de la même manière que Louis Vergniaud – des Aciéries Holtzer –, ou Marcel Dumuis – des Aciéries de Firminy –, qui sont présents aux côtés des dirigeants précédents dans les mêmes institutions patronales, mais qui sont davantage des concurrents. Toutefois, tous se méfient de la Compagnie des Aciéries de la marine, qui est le véritable géant de la Loire et qui est la seule entreprise à pouvoir parler d'égal à égal avec les Schneider du Creusot ou les de 1 BOURDIEU Pierre, « L'illusion biographique », Actes de la recherche en sciences sociales, Vol. 62-63, juin 1986, p. 69-72, p. 71. 2 ADR, 34J222, réunion ASMPL du 7 janvier 1943 et réunion du Comité des Forges du 30 mai 1941, 3 Ibidem, ASMPL réunion du 22 septembre 1944. 74 Wendel grâce à leur alliance avec Micheville et Pont-à-Mousson1. Or c'est dans ce contexte concurrentiel pesant sur les décisions de tous ces dirigeants – dont Pierre Cholat –, que s'effectuent les réorganisations de l'après-guerre. Elles doivent être étudiées au niveau régional, qui est l'échelle choisie par Vichy2 et à l'échelle des entreprises afin d'en comprendre les conséquences. a) De nouvelles logiques de réorganisations régionales Toutefois, pour comprendre les logiques des réorganisations régionales, il faut d'abord revenir à la période précédente de la guerre : c'est en effet à ce moment qu'une première tentative en ce sens est effectuée. L'État en est un acteur important, car il accentue son dirigisme économique. Vichy renforce en effet le contrôle de l'économie grâce à l'Office Central de Répartition des Produits Industriels et aux Comités d'Organisation ; l'État français intervenant en particulier au niveau du contrôle des prix et élaborant des projets de programmes de développement de secteurs clefs 3. Y a-t-il eu alors, comme Henri Rousso en a émis l'hypothèse, une tentative de faire des Comités d'Organisation les « instruments d'une politique de concentration au service de quelques grandes entreprises, qui précisément les contrôlent » ? Françoise Berger pense que non dans le cas la sidérurgie : pour elle le secteur était déjà très concentré dans les années 19304. Des documents de la Chambre syndicale des aciéries et hauts-fourneaux de la Loire et de l'ASMPL donnent en fait partiellement raison à l'un et à l'autre : lors d'une réunion du 3 juillet 1941, les observations concernant la circulaire 1099 du 13 juin 1941 qui établit le vendeur unique pour les aciers ordinaires ôte toute ambiguïté à ce sujet. Les auteurs critiquent le fonctionnement du CORSID parlant de « décision unilatérale » de sa part. Suit une liste de remarques dont la quatrième est : « [c]ette perte de contact direct des usines avec les clientèles serait d'autant plus grave qu'il s'établirait un véritable ''monopole commercial'' au profit des entreprises désignées comme chef de groupe. 1 MIOCHE Philippe et ROUX jacques, Henri Malcor , op. cit., p. 318-319. ADR, 34J222, réunion du Comité des Forges de la Loire du 30 mai 1941. 3 MARGAIRAZ Michel, L'État, les finances et l'économie, op. cit., p. 541-590. 4 ROUSSO Henry, « L'organisation industrielle de Vichy (perspectives de recherches) », Revue d'histoire de la Seconde Guerre mondiale, n° 116, octobre 1979, p. 27-44, dans BERGER Françoise, La France, l'Allemagne et l'acier, op. cit., p. 662. 2 75 On n'a pas été sans remarqués (sic) que la plupart des maisons désignées comme chefs de groupes sont dirigées par des personnalités appartenant au Comité d'Organisation de la Sidérurgie et du Commerce des Produits sidérurgiques. Les usines doivent se préoccuper du sort réservé à leurs représentants, comme aussi de leur remplacement éventuel, lorsque les mesures de concentration actuelles auraient cessé »1. Léon Daum comme dirigeant des Aciéries de la Marine ne semble pas particulièrement visé, mais il est le seul représentant membre du CORSID. Une première hiérarchie s'établit donc entre lui est les autres industriels qui ne sont que membres de la « commission générale » du CORSID créée en décembre 1940, selon Philippe Mioche, ou au printemps 1941 d'après Françoise Berger2 : Cholat3, Marrel, Vergniaud, Dumuis en font partie. Une seconde hiérarchie s'établit ensuite avec ceux qui ne sont pas représentés au CORSID et qui n'occupent que des places de second rang dans les autres institutions patronales tout en représentant les entreprises les plus nombreuses : Aciéries du Forez, Laminoir de la Ricamarie, etc. Un document du Comité de direction de l'ASMPL nous fournit ensuite une chronologie précise de ces évènements : « En octobre 1941, les Comités d'Organisation ont été invités par la Ministère de la Production industrielle à préparer des plans de concentration industrielle comportant, d'une part, la spécialisation des usines à activités multiples dans certaines fabrications pour lesquelles elles ont un bon rendement, d'autre part, l'arrêt d'usines ayant de mauvaises conditions de production et, par voie de conséquence, la concentration du travail disponible dans certaines autres usines mieux qualifiées sur le plan professionnel. Ce travail de préparation de la concentration industrielle était en cours quand a été promulguée la loi du 17 décembre 1941 sur l'aménagement de la production, loi qui vise l'arrêt provisoire de certaines usines dans toutes les branches des activités industrielles où les nécessités de la répartition imposent une telle mesure, les usines ainsi arrêtées pouvant être admises à bénéficier d'une allocation professionnelle. 1 ADR, 34J222. MIOCHE Philippe, La sidérurgie et l'État en France des années 1940, op. cit., p. 527 et BERGER Françoise, La France, l'Allemagne et l'acier, op. cit., p. 451. La liste des représentants au CORSID est dans MIOCHE Philippe, ibidem, p. 1101. 3 La décision du Corsid entre en application malgré les discussions de Pierre Cholat avec Roy viceprésident du CORSID, Babouin nouveau Directeur de la sidérurgie, Queyras du comptoir des produits sidérurgiques et Fourmont chef de l'économie nationale est jugée « grave de conséquence » lors d'un conseil d'administration à Saint-Étienne : ADL, 117J8, séance du 1er décembre 1941. 2 76 Par ailleurs, le 25 février 1942, était publiée une première Ordonnance allemande donnant aux Feldkommandantur le droit de fermer des usines en zone occupée, si la situation économique l'exigeait, sans que le préjudice subit n'ouvre droit à un dédommagement, ni à une compensation. Le 22 avril 1942, une 2ème Ordonnance allemande obligeait []1 En suivant ces sources, aucun doute n'est donc possible : comme le pense Henry Rousso, une politique de concentration a bien été élaborée et commencée à être suivie : il ne s'agit donc pas seulement d'un « rêve de rationaliser la production sidérurgique dans le réduit de Centre Midi » pendant la période où le « Corsid est dans Vichy » comme l'écrit Philippe Mioche2, cela a bien commencé à se concrétiser. Dans la Loire, les grandes entreprises sont les plus intéressées, mais en fonction de la taille de chacune, la plupart sont aussi de potentielles victimes, sauf les Aciéries de la Marine. En revanche, comme le pense Françoise Berger, la concentration n'a pas eu lieu ; mais non pas parce que comme elle le dit elle était déjà suffisante, mais plutôt parce qu'à peine cette politique a-t-elle commencé à être mise en place que les Allemands s'en sont emparés, rendant impossible toute concentration menée par des Français 3. Cela ne veut cependant pas dire que les manoeuvres ont cessé, elles se sont simplement faites plus discrètes, plus sourdes et ont pris d'autres formes : on peut citer l'attitude déjà évoquée de Léon Daum qui, toujours directeur des Aciéries de la Marine, s'oppose dans le cadre du CORSID à l'installation d'un four électrique à Saint-Étienne et ne l'autorise « qu'à condition [que les dirigeants stéphanois s'engagent] à ne pas monter des fabrications [qu'ils ne faisaient] pas auparavant (roulements à bille) »4. On peut citer encore les manoeuvres de Pierre Cholat afin que Saint-Étienne soit siège local et siège de région de la Commission tripartite de la famille de la production des métaux instituée dans le cadre de la Charte du travail, et que Chasse fasse partie de la localité stéphanoise 5. Les rivalités entre chefs d'entreprises se sont donc poursuivies : elles perdurent à la Libération, plus qu'elles ne reprennent au moment de nouveaux projets de concentration. 1 ADR, 34J222, réunion de l'ASMPL du 18 juillet 1942. MIOCHE Philippe, La sidérurgie et l'État en France des années 1940, op. cit., p. 539. 3 Philippe Mioche date un peu plus tard la perte de ce qu'il appelle, dans un cadre plus large, la « l'indépendance toute relative du réduit sidérurgique de Vichy », c'est-à-dire du début de l'année 1943 : il utilise pour cela les accords Bichelonne/Schieber du 11 mars 1943, dans MIOCHE Philippe, La sidérurgie et l'État en France des années 1940, op. cit., p. 499. 4 ADL, 117J8, conseil d'administration du 25 mars 1942. 5 ADR, 34J222, réunion de la Chambre syndicale des Aciéries et Hauts-Fourneaux de la Loire du 7 janvier 1943. 2 77 Les projets de réorganisation de la sidérurgie à l'issue de la guerre sont également connus des historiens : Alexis Aron a joué un rôle clé en contribuant à éviter la nationalisation et en cherchant moderniser la sidérurgie 1. En octobre 1944, il est président « de fait » du CORSID, puis à partir de mars 1945 et jusqu'en juin 1946 commissaire provisoire de l'Office Professionnel de la Sidérurgie (OPSID)2. Il rédige un rapport en novembre 1944 qui entraine l'opposition de la profession – certes satisfaite de ne pas subir de nationalisation –, et qui la pousse à se réorganiser : la Chambre syndicale de la sidérurgie est reconstituée et créée en décembre 19443. Françoise Berger a une vision moins conflictuelle et évoque un patronat qui n'ose critiquer le gouvernement provisoire et qui se contente de ressortir de ses tiroirs les projets d'équipement ou d'amélioration longtemps retardés 4. De fait, les documents des Hauts-Fourneaux de Chasse ou des Aciéries de Saint-Étienne ne révèlent pas une aussi grande inquiétude à ce propos : pourtant un projet de concentration des hauts-fourneaux et des cokeries « d'un seul côté du Rhône » est évoqué en juin 1945 suite à la visite d'Alexis Aron5. La méthodologie est indiquée par les documents d'entreprise de SaintÉtienne6 : « [i]l faut en effet que chaque usine obtienne un minimum vital, tout en abandonnant, si elles ne l'ont pas déjà fait, certaines fabrications pour lesquelles elles sont moins bien placées, en se reportant sur des fabrications dont les prix de revient seront améliorés ». Le ton pour commenter ces projets potentiellement graves pour les HFC est neutre, il n'y a pas de contestations, ni même d'observations et cela quelque soit la source7. Est-ce parce qu'une comparaison – sans doute rassurante dans cette hypothèse –, entre Chasse et Givors au sujet de la cokerie a déjà été faite en mai 1944 par Roger Martin, ingénieur des mines, pour le compte de la Direction de la sidérurgie8 ? La suite des évènements donne raison aux dirigeants des HFC : certes leur cokerie est arrêtée – mais parce que celle de la Silardière au Chambon-Feugerolles va remplacer les cokeries régionales dans le cadre des nationalisations touchant au secteur 1 MIOCHE Philippe, La sidérurgie et l'État en France des années 1940, op. cit., p. 558. Ibidem, p. 570. 3 Ibidem, p. 571-572. 4 BERGER Françoise, La France, l'Allemagne et l'acier, op. cit., p. 703-704. 5 ADI, 56J12, conseil d'administration du 14 juin 1945 d'où est tirée la citation. 6 ADL, 117J8, séance du 15 juin 1945. 7 En plus des deux sources précédentes ; aux ADI, 56J22, rapport du conseil d'administration à l'AG du 26 juin 1945. 8 ADI, 56J12, conseil d'administration du 25 mai 1944. 2 78 de l'énergie1 –, tandis que les activités des hauts-fourneaux et de la fonderie ne sont pas à proprement menacées : la Chambre syndicale de la sidérurgie autorise une augmentation de la production qui nécessite la marche à deux hauts-fourneaux par courrier du 5 octobre 19462. Jugé par cette même Chambre3, le rapport de la Commission Aron parait finalement particulièrement vague : à propos des hautsfourneaux, il se contente d'indiquer la nécessité d'équiper Chasse ou Givors d'un appareil moderne d'une capacité quotidienne de cinq à six-cents tonnes de production par jour. Les 19 autres hauts-fourneaux prévus par ce plan doivent être installés dans les autres régions françaises. En revanche, les discussions ont été plus ardues à propos des Aciéries de Saint-Étienne car un plan régional envisage une redistribution des activités avec ses principaux concurrents4. Françoise Berger écrit qu'en raison des risques de nationalisation, « certains sidérurgistes [ont] été très prudents et donc peu enclins à l'innovation »5. À partir des sources utilisées, il est impossible de dire si cette menace a eu un effet sur la direction des entreprises aux mains des Cholat, mais il est en revanche certain que les projets de modernisation en ont eu un pendant et après la guerre. À Chasse, ces projets ont entrainé l'arrêt de la cokerie et des hésitations jusqu'en septembre 1946 avec la crainte que les aciéries électriques marchant avec de la ferrailles ne remplacent rapidement les aciéries Martin qui consomment leur fonte hématite d'affinage6. C'est donc dans ce contexte incertain qu'à partir de l'été 1944, les dirigeants de la Compagnie des HautsFourneaux de Chasse doivent faire face à une série d'enjeux propres à leur entreprise : il s'agit de renouer avec les filiales et de financer son développement. b) Les relations avec les différentes filiales Or renouer avec les différentes filiales ne s'avère pas aussi facile que la Libération aurait pu le laisser espérer. Toutes sont en difficulté et sollicitent la Compagnie des HFC. 1 LUIRARD Monique, La région stéphanoise , op. cit., p. 780. ADI, 56J12, conseil d'administration du 7 novembre 1946. 3 D'après le rapport de la Chambre syndicale de la sidérurgie du 19 septembre1947, ADR, 34J230. 4 ADL, 117J8, conseils d'administration des 5 septembre et 10 novembre 1945, des 8 février et 4 juin 1946, du 11 janvier 1947. 5 BERGER Françoise, La France, l'Allemagne et l'acier, op. cit., p 703. 6 ADI, 56J12, conseil d'administration du 9 septembre 1946. 2 79 Les mines d'Algérie ont vu leurs productions s'effondrer en 1940, puis après une reprise des expéditions vers la France de mai à novembre 1942, le débarquement en Afrique du Nord les interrompt à nouveau. Des stocks sont alors constitués. Ils sont ensuite expédiés pour les hauts-fourneaux anglais ; mais désormais les comptes vont être bloqués. Ils le sont toujours en 1946, si bien que même si l'entreprise fait des bénéfices, elle ne peut les envoyer en métropole1. La situation ne redevient normale qu'à partir du second trimestre de 1946. Mais à ce moment là, même s'ils peuvent envoyer du minerai pour l'usine de Chasse, la fin du débouché anglais et le ralentissement de l'activité en France pèsent sur l'activité de Bou Amrane. D'un point de vue financier, les comptes de Bou Amrane pour l'ensemble de la période depuis 1942 ne pourront être réincorporés dans ceux de la Compagnie des Hauts-Fourneaux de Chasse qu'à partir de l'exercice 1946-19472. Ils apportent alors un bénéfice important de 7 005 194, 10 francs, mais qui est trop tardif pour aider l'entreprise à se relancer dès la fin de la guerre. La situation des entreprises pyrénéennes n'est pas meilleure pour les HFC. Au mois de décembre 1944, les mines de la Têt reprennent leurs expéditions de minerais qui étaient suspendues depuis près de six mois3. Des réserves importantes en minerai ont été là aussi constituées. Cela est dû aux difficultés de transport, ce qui oblige également l'entreprise à faire des provisions. Ensuite, l'année suivante, le relèvement de facturation des prix des minerais a été jugé « tardif et insuffisant » : par conséquent, la société de transport (SAMPO) et la Société des mines de la Têt « ont enregistré en 1945 de très lourdes pertes »4. En 1946, malgré une forte augmentation de la production, la situation demeure identique : les résultats « ont malheureusement été très décevants [] par suite du retard apporté au redressement des prix de vente des minerais pyrénéens, qui restent encore insuffisants face aux charges croissantes de l'extraction »5. Enfin, en 1947, les HFC doivent continuer « à appuyer les efforts de la Société des mines de la Têt pour accroître son extraction et réaliser des transformations » : si les entreprises pyrénéennes ne sont plus en déficit, leurs besoins en investissements demeurent toujours lourds6. 1 ADI, 56J22, rapport du CA à l'AG ordinaire du 28 juin 1946. ADI, 56J22, rapport du CA à l'AG ordinaire du 10 juin 1948. 3 ADI, 56J22, rapport des commissaires des comptes pour l'exercice 1943-1944. 4 ADI, 56J22, rapport du CA à l'AG ordinaire du 28 juin 1946. 5 ADI, 56J22, rapport du CA à l'AG ordinaire du 26 juin 1947. 6 ADI, 56J22, rapport des commissaires des comptes pour l'exercice 1947-1948. 2 80 Pour terminer, on peut dire que même leurs anciennes filiales leur posent problème ou ne leur rapportent plus rien. Tout d'abord, la Société des Forces Motrices Bonne et Drac est une entreprise dans laquelle les HFC ne détiennent plus qu'une simple participation depuis 1931, alors qu'elle l'avait fondée et qu'un de ses administrateurs – Guillaume Martouret – en avait assuré la présidence1. Pendant la guerre, alors que la Compagnie est minoritaire dans Bonne et Drac face à deux entreprises puissantes – l'Union d'Electricité et des Forces Motrices du Centre (UEFM) et l'Union pour l'Industrie et l'électricité (UNIE) –, elle réussit à arracher un accord, le 24 janvier 1944 – complété le 1er octobre 1945 –, sur les futurs tarifs d'électricité dont elle est bénéficiaire avec les Aciéries de Saint-Étienne2. À la fois cliente et actionnaire de Bonne et Drac, Chasse réussit alors à concilier des intérêts opposés (entre ses administrateurs, sa société soeur dont les administrateurs sont en partie ceux de Chasse, les autres entreprises électriques présentes dans Bonne et Drac, et enfin les autorités de l'État qui supervisent les négociations). C'est cependant peine perdue car en 1946, son ancienne filiale est nationalisée. Les HFC n'étant plus propriétaires de Bonne et Drac : les cartes sont redistribuées car Chasse n'est désormais qu'une entreprise consommatrice d'électricité. Or en plus de fournir de l'électricité, Bonne et Drac aurait du enfin pouvoir commencer à verser des dividendes3. De plus, la Compagnie des Hauts-Fourneaux de Chasse est en attente d'une indemnisation pour nationalisation. Elle doit cependant la négocier sur plusieurs années avec EDF4, dont la création le 8 avril 1946 a constitué un « vrai challenge »5, notamment en raison du nombre d'entreprises nationalisées qui la compose : le dossier Bonne et Drac n'est donc que l'un des nombreux dossiers à gérer par la nouvelle entreprise publique. Les ciments Pelloux sont une seconde ancienne filiale de Chasse. À la différence de Bonne et Drac, ceux-ci ont disparu : ils ont fait faillite avant la guerre, mais en 1945 leur liquidation n'est toujours pas terminée. Or les HFC ont du consentir « des avances » à leur filiale. Cela a permis aux Aciéries de Saint-Étienne d'être remboursées 1 ADI, 56J10, conseil d'administration du 29 janvier 1931 ; 56J24, rapport du CA à l'AG ordinaire du 28 juin 1949. 2 ADL, 117J8, conseils d'administration des 1er juin, 18 septembre, 29 octobre 1943 et 5 avril 1944. ADI, 56J24, premier rapport additionnel des commissaires aux comptes au rapport à l'AG ordinaire du 26 juin 1945, et premier rapport additionnel des commissaires aux comptes au rapport à l'AG ordinaire du 28 juin 1946. 3 Un versement de dividende est prévu pour l'année 1945 : ADI, 56J22, rapport du CA à l'AG ordinaire du 28 juin 1946. 4 ADI, 56J22, rapports du CA aux AG ordinaire du 26 juin 1947 et du 28 juin 1949. 5 BARJOT Dominique, « Reconstruire la France après la Seconde Guerre mondiale : les débuts d'Électricité de France (1946-1953) », Entreprises et histoire, 2013/1, n° 70, p. 54-75, p. 55. 81 de leurs obligations. Par échange de bon procédé, Saint-Étienne finit par racheter la raison sociale et le fonds de commerce des ciments Pelloux aux HFC en 1945 1 : on peut donc dire que le coût de la liquidation des ciments Pelloux est géré dans le temps et réparti entre les deux sociétés dirigées par Pierre Cholat, nouvel exemple de coopération entre elles. En revanche, la somme récupérée, en principe cinq-cents francs, est symbolique. Donc après avoir fait le tour des différentes filiales ou participations, on peut dire que soit les difficultés de ses dernières nécessitant une aide financière des HFC, soit leur apport financier a été tardif. Par conséquent, la Compagnie des Hauts-Fourneaux de Chasse doit compter principalement sur ses propres forces pour se relancer. Elle doit même aider certaines de ses filiales. Cela est d'autant plus compliqué qu'il n'existe pas encore de consolidation de compte et que chaque filiale a sa propre comptabilité dont le détail ne figure jamais dans ceux de la maison mère : c'est ce que l'on retrouve ailleurs en France jusque vers 19452. c) Compter sur ses propres forces Ainsi, après une baisse continue de ses résultats pendant la Seconde Guerre mondiale, la Compagnie se retrouve lourdement en déficit pour l'exercice 1944-1945 : Tableau 3 : Évolution des résultats de la Compagnie des Hauts-Fourneaux de Chassesur-Rhône de l'exercice 1939-1940 à l'exercice 1946-19473 Année Résultat de l'exercice en Évolution par rapport à l'exercice francs précédent 1939-1940 1940-1941 1941-1942 1942-1943 1943-1944 1944-1945 1945-1946 1946-1947 +10 197 774,88 + 7 726 508,29 + 3 506 832, 94 + 2 625 834, 34 + 1 992 150,51 - 6 754 100, 34 + 16 141 892,69 + 21 369 865,25 - 4 215 569,68 - 2 471 266, 59 - 4 219 673, 35 - 880 998, 60 - 633 683, 83 - 7 387 784, 17 + 23 529 676, 86 + 5 227 972, 56 1 ADL, 117J8, conseil d'administration du 5 septembre 1945. BENSADON Didier, La consolidation des comptes en France (1929-1985) : analyse du processus d'introduction et de diffusion d'une technique comptable, Thèse de doctorat de sciences de gestion sous la direction de Yannick Lemarchand, soutenue à l'Université de Nantes, le 11 décembre 2007, 464 p. 3 ADI, 56J22, 56J24, 56J30. 2 82 Cependant, dès l'exercice suivant, le redressement des comptes est spectaculaire. L'explication n'est pas par la hausse des productions de l'usine comme le prouve l'évolution de la principale d'entre elle, celle de fonte : Tableau 4 : Évolution de la production de fonte aux HFC de l'exercice 1939 -1940 à l'exercice 1946-19471 Guerre Après guerre Année 1939-1940 1940-1941 1941-1942 1942-1943 1943-1944 1944-1945 Tonnes produites 85 681 22 000 32 096 55 481 37 000 17 000 de fonte Année 1945-1946 1946-1947 Tonnes produites 34 000 59 000 de fonte La production de fonte s'est donc effondrée pour l'exercice 1944-1945 puisque l'usine est à l'arrêt complet depuis le 20 août 1944 jusqu'au 7 juillet 1945, date à laquelle un haut-fourneau est à nouveau allumé2. Toutefois, l'exercice 1946-1947, même s'il est plus de trois fois supérieur en production de fonte à celui de 1944-1945, donne une production comparable à celle de l'exercice 1942-1943, alors que l'on est en pleine guerre. Or, avec des productions proches, le résultat 1946-1947 est plus de huit fois supérieur à celui de 1942-1943. Ces chiffres ne tiennent cependant pas compte de l'inflation, mais pour autant on ne peut pas penser qu'elle explique à elle seule les progrès des résultats : il faut donc chercher ailleurs. Le déficit de l'exercice 1944-1945 s'explique en grande partie par les problèmes des filiales, notamment celles des Pyrénées orientales qui pèsent sur le compte débiteur (ce dernier s'élève au total à 48 938 501,71 francs contre 29 895 616,31 francs pour l'exercice précédent)3. Le résultat fortement excédentaire de l'exercice suivant est cependant fragile et en trompe l'oeil. D'une part, en raison des pertes de l'exercice précédent, au lieu de 16 141 892,69 francs, le bénéfice disponible ne s'élève plus que de 9 387 792, 35 francs une fois retiré la somme du déficit. D'autre part, ce sont des circonstances exceptionnelles qui expliquent ces profits : il y a un redressement important des prix d'inventaire et un déblocage de devises étrangères reprises par l'État 1 ADI, 56J22, 56J24. ADI, 56J12, conseils d'administration du 20 septembre 1944 et du 10 septembre1945. 3 ADI, 56J22, rapport du CA à l'AG extraordinaire du 6 mai 1945. 2 83 le 15 mai 19461. Dans les deux cas, c'est l'État qui a apporté des revenus considérables à l'entreprise. Outre le rachat de devises, il a soutenu le cours de la fonte par des relèvements de prix et des compléments qui ont de plus permis également l'« unité de facturation » des fontes hématites. Enfin, l'exercice 1946-1947 est le premier où l'entreprise retrouve une situation un peu plus normale2. En ce qui concerne l'usine de Chasse, la marche à deux hauts-fourneaux reprend le 25 janvier 1947 : à peu près à la moitié de l'exercice, donc. Cela permet alors d'améliorer la production des deux autres ateliers qui dépendent des hauts-fourneaux, c'est-à-dire la cimenterie et la fonderie. Toutefois, selon les mots des administrateurs, le « résultat industriel a été cependant très modeste malgré les progrès accomplis ». Les progrès réalisés en ce qui concerne les bénéfices relèvent à nouveau de circonstances appelées à ne pas se renouveler. Il s'agit d'une part de la réincorporation des comptes de Bou Amrane dans la comptabilité générale. Cet « apport exceptionnel » se monte à 7 005 194,10 francs. Il y a d'autre part un redressement de la valeur des portefeuilles ajouté au solde des comptes « Domaines et escomptes, Intérêts et Changes » : cela apporte une somme de 6 148 090, 20 francs. Le total de ces deux apports est de 13 153 284, 30 francs sur des bénéfices qui se montent à 21 369 865, 25 francs. La situation financière de l'entreprise est donc semblable à celle décrite par Michel Freyssenet pour l'ensemble de la sidérurgie3 : « après la guerre, si leurs réserves ne sont pas nulles, elles ne sont pas suffisantes. Le marché des capitaux est faible, les possibilités d'emprunt sont limitées ». La Compagnie des Hauts-Fourneaux de Chasse va en effet devoir se lancer dans une opération financière de grande envergure, afin de financer ses filiales et de relancer son usine. Dès le début de l'été 1945, des pourparlers avec le Crédit Lyonnais sont menés pour un emprunt obligataire allant jusqu'à quarante millions de francs4. Au mois de juin 1945, une augmentation de capital est également décidée avec l'appui de la même banque : il va passer de seize à trente-deux millions suite à deux émissions successives 5. Puis, au mois de juillet, c'est au tour de l'emprunt 1 ADI, 56J22, rapport du CA à l'AG ordinaire du 26 juin 1947 et rapport des commissaires aux comptes pour l'exercice 1945-1946. 2 ADI, 56J22, rapport du CA à l'AG ordinaire du 10 juin 1948. 3 FREYSSENET Michel, La sidérurgie française 1945-1979, op. cit., p. 18. 4 ADI, 56J12, conseil d'administration du 14 juin 1945. 5 ADI, 56J22, rapport des commissaires aux comptes à l'AG extraordinaire du 26 juin 1945. 84 obligataire d'être lancé : il se monte finalement à vingt-huit millions de francs1. La reconstruction de l'usine de Chasse va donc pouvoir être menée, malgré les difficultés. 3) Reconstruire et relancer L'usine des HFC a subi la crise des années 1930 et la Seconde Guerre mondiale. À la Libération, il faut donc la reconstruire pour la relancer. Mais l'usine ne fonctionne pas ex nihilo : elle fait corps avec Chasse-sur-Rhône, formant un bassin mono-industriel qui s'étend sur les communes voisines. Sa construction jusqu'en 1945 s'est effectuée sur plus de soixante-dix ans d'existence, au rythme des différents plans d'investissement : à la fin du XIXe siècle, au début du XXe, lors de la Première Guerre mondiale et dans une moindre mesure l'après guerre. Le document suivant permet d'avoir une vue des principales installations : Hauts-fourneaux 1,2,3 Estacades à minerai Briqueterie et cimenterie Fonderie Document 1 : Vue des Hauts-Fourneaux de Chasse (vers 1945 ?)2 1 ADI, 56J12, conseil d'administration du 10 septembre 1945 ; 56J22, rapport du CA à l'AG ordinaire du 6 mai 1946. 2 Source, collection de cartes postales de Michel Paret. 85 Cette carte postale des Hauts-Fourneaux est censée être de 1945 d'après Christine Fond1. Dans son livre, la carte postale qui a exactement la même vue est datée du 7 novembre 1945 d'après le tampon de la poste. Elle nous paraît cependant pouvoir être plus ancienne car les gazomètres qui devraient se trouver devant le château d'eau du haut-fourneau n°3 ne sont pas visibles. Or ils ont été construits en 1922 et 19242. De plus, les logements en construction – sans leur toit sur l'image – devant l'un des bâtiments de la fonderie sont achevés en 1945. Ses réserves émises quant à la datation exacte de la photographie – et même si elle ne date en réalité que de l'entre-deuxguerres –, ni la configuration générale, ni l'aspect des bâtiments n'évoluent de manière considérable entre 1920 et 1945, comme on va le voir. L'usine a été construite autour de ses hauts-fourneaux. Si le premier date de 1856 lors de la création de l'usine, un second haut-fourneau est construit au moment de son rachat en 18733 et un dernier lors de la Première Guerre mondiale4. C'est lors de la même période qu'est construite une fonderie de deuxième fusion pouvant mouler des obus5, les hauts-fourneaux fabriquant la fonte de moulage nécessaire à la fonderie. En revanche, la briqueterie-cimenterie est plus ancienne : sa décision de construction date de 18986. Elle fait suite à une mesure de l'administration qui rend alors impossible l'épandage des laitiers le long des berges du Rhône. On recherche alors une solution technique et on s'aperçoit que « plusieurs usines du Nord et de l'Est » en font du ciment ou des briques, et qu'elles trouvent là « une source de bénéfices »7 : preuve que les règlements administratifs ne sont pas uniquement des contraintes pour les entreprises, mais qu'ils peuvent aussi être stimulant et créateurs de richesses. L'usine possède d'autres activités positionnées en amont ou en aval du fonctionnement des hauts-fourneaux, et dans une moindre mesure des autres ateliers productifs (fonderie et briqueterie-cimenterie). Il s'agit des activités de transport : une grue est présente sur le Rhône avant le rachat de l'usine en 1873, mais on décide alors de faire un raccordement au PLM 8. Le développement de la gare de triage de Chasse 1 FOND Christine, Chasse-sur-Rhône au fil de l'eau, GLM Communication, 2002, 103 p., p. 70. ADI, 56J59, Déclarations de constructions nouvelles. 3 ADI, 56J1, Historique succinct des exploitations de hauts-fourneaux à Chasse (Isère) de 1856 à 1880 . Arrêté préfectoral du 31 janvier 1856, source Éric Combaluzier. 4 ADI, 56J8, conseil d'administration du 25 février 1915. 5 ADI, 56J8, conseils d'administration des 7 décembre 1915 et 17 mai 1916. 6 ADI, 56J6, conseil d'administration du 1er mars 1898 pour la décision et 56J7, conseil d'administration du 18 septembre 1899 pour la mise en route effective de la briqueterie. 7 ADI, 56J6, conseil d'administration du 1er mars 1898. 8 ADI, 56J1, Historique succinct des exploitations de hauts-fourneaux à Chasse (Isère) de 1856 à 1880 . 2 86 dépend alors en grande partie des matières premières consommées par l'usine ainsi que de l'expédition de ses différentes productions. L'usine possède donc différentes aires de stockage, mais aussi un atelier d'agglomération des briquettes de pyrite construit en 18901. La pyrite de fer sert en effet de minerai pour les lits de fusion des hautsfourneaux. Il y a ensuite deux ateliers chargés d'entretenir le matériel et les bâtiments et d'analyser les productions : il s'agit de l'atelier d'entretien (achevé en 1906) et du laboratoire (achevé en 1904)2. Enfin, l'usine est dotée de plusieurs ateliers chargés de la production d'énergie. Dès 1894, un bâtiment des machines a été construit afin de produire de l'électricité : il possède déjà un éclairage électrique3. De plus, afin de gagner en indépendance pour son approvisionnement en coke, il est décidé en 1897 de commander leur propre batterie de fours à coke qui est construite l'année suivante4. Cette activité va être complétée par une usine à benzols et à goudron dont la décision de construction date de 19125 et par des gazomètres servant à stocker le gaz des fours à coke pour le revendre6. Pendant la Seconde Guerre mondiale, enfin, une installation de compression de gaz des fours à coke est commandée en 1941 afin de fournir les véhicules fonctionnant au gazogène. Elle est achevée cette même année, ainsi que la réfection d'une partie des fours à coke7. La diversité des ateliers et des productions brièvement présentée ici donne une idée de l'importance de l'usine, mais aussi de la diversité des activités et des postes de travail. Elle ne peut donc passer inaperçue aux yeux de l'Occupant, comme des Alliés. Mais si les Allemands s'abstiennent d'en piller les installations, les combats de la Libérations vont entrainer son arrêt durable. L'usine elle-même est cependant davantage épargnée que son environnement. En effet, les principaux dégâts ont été causés par les bombardements des gares de triages de Chasse et de Badan (à Grigny de l'autre côté du Rhône) par les Alliés les nuits du 26 au 27 juillet et surtout du 11 au 12 août 19448. Les 25 mai, 6 et 23 août 1944 les gares et ponts ferroviaires de Givors et de Grigny sont également bombardés, 1A DI, 56J5, conseil d'administration du 3 décembre 1889 et 56J6, conseils d'administration des 25 février et 12 août 1890. 2 ADI, 56J7, conseils d'administration du 7 décembre 1904 et du 2 février 1906. 3 ADI, 56J6, conseils d'administration du 21 décembre 1893 et du 30 janvier 1894. 4 ADI, 56J6, conseils d'administration du 14 avril 1897 et du 17 décembre 1898. 5 ADI, 56J8, conseil d'administration du 5 décembre 1912. 6 ADI, 56J9, voir par exemple le conseil d'administration du 7 mars 1924. 7 ADI, 56J12, conseils d'administration du 6 février 1941 et du 23 décembre 1941. 8 PY Évelyne, Un été sous les bombes. Givors, Grigny, Chasse 1944, Alan Sutton, 2004, 159 p., p. 9. 87 paralysant ainsi toute circulation ferroviaire dans la l'espace proche des HFC pour plusieurs mois : l'usine n'a donc pas été visée directement. Elle subit néanmoins quelques dommages : son magasin de pièces de rechange a été détruit1. C'est aussi le cas de plusieurs maisons appartenant à la Compagnie : deux à Chasse-sur-Rhône et une à Ternay2. Toutefois le plus tragique concernant le bombardement du 11-12 août ne sont pas les dégâts matériels mais les pertes humaines : plusieurs bombes tombent alors à proximité de l'un des abris des HFC et font soixantedix morts3 (il y eut au total quatre-vingt-douze morts à Chasse et quatre-vingt-deux blessés4). Plusieurs victimes sont des travailleurs des HFC ou des membres de leurs familles. Dès l'été 1944, les opérations de déblaiement débutent. Une autre partie du personnel est employée par les Ponts et chaussés pour effectuer « des travaux de réparation dans le voisinage de l'usine »5. Pendant l'automne, seules les expéditions de fonte peuvent reprendre, mais l'usine est toujours à l'arrêt6. Au début de l'hiver 19441945, la situation s'améliore lentement : à partir du mois de décembre l'arrivée de minerais de fer reprend, mais il n'y en a toujours pas pour le charbon. L'usine continue à puiser dans ses stocks de fonte pour les vendre, mais cela ne satisfait pas ses besoins en trésorerie7. Un premier haut-fourneau n'est rallumé que le 7 juillet, mais encore au mois de juin, on n'est pas sûr d'avoir assez d'approvisionnements en matière première pour le faire fonctionner : cela en dit long sur les difficultés liées au transport et sur l'impérieuse nécessité, malgré tout, de faire repartir l'activité 8. Néanmoins, c'est suffisant pour relancer les autres ateliers de l'usine : fonderie, briqueterie, cimenterie. En revanche, la cokerie ne repart toujours pas. Pendant près d'un an la situation est stable : les productions, faibles, correspondent aux ventes, qui sont tout aussi faibles. À l'automne 1946, il est décidé d'attendre pour une marche à deux hauts-fourneaux que « des garanties suffisantes » soient obtenues « pour nos approvisionnements et nos prix de vente de fontes hématites »9. L'attente va encore durer six mois, puisque la marche à 1 ADI, 56J59, déclarations de constructions nouvelles. Ibidem. 3 Association de sauvegarde du patrimoine de Chasse, mis en page par BOUILLET Janine, La « défense passive » à Chasse-sur-Rhône, document imprimé relié en janvier 2004, 38 p., p. 15. 4 Ibidem, p. 18. 5 ADI, 56J12, conseil d'administration du 20 septembre 1944. 6 Ibidem, conseil d'administration du 24 novembre 1944. 7 Ibidem, conseil d'administration du 12 janvier 1945. 8 Ibidem, conseils d'administration du 14 juin et du 10 septembre 1945. 9 Ibidem, conseil d'administration du 9 septembre 1946. 2 88 deux hauts-fourneaux date du 25 janvier 1947. Toutefois, les approvisionnements en charbon étant à peine suffisants pour les deux hauts-fourneaux, il n'est toujours pas envisageable de faire repartir la cokerie1. L'usine de Chasse a donc bien été relancée après la Libération, mais la remise en marche est lente et incomplète de 1945 à 1947. Des investissements sont cependant effectués : Tableau 5 : Achats de terrains et travaux neufs de l'exercice 1942 -1943 à l'exercice 1946-19472 Années d'exercice 1944-1945 1945-1946 Total pour la période 1942-1946 1946-1947 Valeur des investissements en francs 562 738,10 1 145 655, 09 2 965 426,44 9 973 948,6 On peut constater que l'essentiel des efforts est porté à partir de l'exercice 19461947. Néanmoins, en 1945 le magasin de pièces de rechange est reconstruit. En 1946, c'est au tour des deux maisons d'habitation détruites en août 1944 d'être reconstruites. Mais il y a cette année-là également des constructions nouvelles : six maisons « pour le logement d'ouvriers ». Enfin jusqu'en juin 1947 – ce qui correspond à la fin de l'exercice 1946-1947 –, les travaux ne portent que sur des constructions nouvelles : bureaux pour les services de la Sécurité sociale et pour la centrale, des vestiaires, une estacade à ferraille, deux étuves, deux villas et un « cantonnement pour les célibataires »3. Loin de constituer un plan de relance de grande envergure, ces investissements permettent seulement de reconstruire, puis de faire quelques améliorations. Les dirigeants de l'entreprise parlent d'une gestion « prudente » 4, alors que les prix de vente des production, les salaires et les prix d'achats constituent un problème lancinant pendant les années de reconstruction 5. Cela est conforme à ce que décrit à l'échelle nationale Michel Freyssenet à propos de l'attitude de l'ensemble des dirigeants de la 1 ADI, 56J22, rapport du CA à l'AG ordinaire du 26 juin 1947. ADI, 56J30, exercices 1942-1943 à 1946-1947. 3 ADI, 56J59, déclarations de constructions nouvelles. 4 ADI, 56J22, rapport du CA à l'AG ordinaire du 26 juin 1947. 5 ADI, 56J12, séances du conseil d'administration des 14 juin et 10 septembre 1945, puis des 6 février, 9 septembre et 7 novembre 1946, puis des 7 janvier et 11 juin 1947. 2 89 sidérurgie française après la Seconde Guerre mondiale : « [l]e patronat de la sidérurgie [] attend la stabilisation pour investir. Il prend ainsi du retard dans son programme de modernisation » 1. Il indique aussi plus loin : « très peu d'investissements sont faits jusqu'à la fin 1948, [] il est vrai que les difficultés de trouver des financements sont réelles, que l'augmentation des prix de vente, fixés par arrêté du gouvernement, est toujours décalée par rapport à l'augmentation des prix de revient, que les subventions gouvernementales devant compenser ces décalages sont versées avec retard, que la marge d'amortissement technique autorisée est insuffisante et que les versements au titre des dommages de guerre ne seront vraiment effectués qu'à partir de 1948 » 2. Toutes ces remarques sont justes, mais on peut ajouter aussi à cette somme importante de difficultés l'incertitude liée aux projets de modernisation de l'après-guerre. On peut alors comprendre que la reconstruction et la relance de la production n'entrainent donc pas un redémarrage fulgurant, au contraire. Des éléments contradictoires constituent l'environnement dans lequel doit s'effectuer la reprise de l'activité. Certes les dirigeants des HFC ont été relativement épargnés par l'épuration. Ils ont également une usine partiellement touchée par le conflit. Mais en revanche, la situation de leurs filiales les freine. Il faut néanmoins mobiliser le personnel, même si ce n'est pas aussi intensivement qu'un vrai plan de relance aurait permis de le faire. V) Mobiliser le personnel La mobilisation des personnels de la Compagnie des Hauts-Fourneaux de Chasse s'effectue dans un nouveau contexte politique et social : celui du Gouvernement provisoire et des réformes sociales de l'après-guerre. Il s'agira de voir comment les dirigeants de l'entreprise ont mobilisé leurs personnels pour le redémarrage économique et dans quelle mesure ils ont réussi. On peut tout d'abord évaluer quels sont leurs besoins en main d'oeuvre. Ces besoins dépendent de plusieurs données : la nature des productions et leur évolution, mais aussi de l'outillage détermine les métiers et les postes. À cela, on peut ajouter les pratiques de recrutement. Pour certains auteurs, une nouvelle génération ouvrière se 1 2 FREYSSENET Michel, La sidérurgie française 1945-1979, op. cit., p. 9. FREYSSENET Michel, La sidérurgie française 1945-1979, op. cit., p. 18. 90 constitue dans les usines à partir de l'entre-deux-guerres1 : elle voit la force physique et le tour de main perdre de leur importance face à la montée de la « rationalisation »2. Cette dernière renvoi au progrès technique comme à l'organisation du travail. Qu'en est-il alors pour la sidérurgie ? Françoise Berger comme Philippe Mioche soulignent l'état de vétusté de ses installations3. En prenant l'exemple Lorrain, Michel Freyssenet explique que jusqu'à la création de la Sollac en 1949, les ouvriers de métiers et les manoeuvres dominaient avant que l'automatisation n'entraine l'apparition d'autres catégories de travailleurs4. Si la guerre a été un « temps mort pour l'investissement » succédant « aux années creuses » de la crise des années 1930 dans toute l'industrie5, l'industrie sidérurgique est de plus en retard par rapport à l'évolution des autres secteurs industriels : « [s]es usines en sont à un stade d'organisation capitaliste du travail moins avancé que celui des usines sidérurgiques anglaises ou allemandes, et que celui des industries de transformation française les plus dynamiques »6. En Lorraine, les besoins en main d'oeuvre pour la Sollac sont satisfaits par l'arrivée massive de travailleurs algériens pour les manoeuvres et la recherche d'ouvriers de métiers en France ou frontaliers belges7. Or à la même époque à l'échelle nationale comme régionale, dans des travaux récents ou anciens, les historiens notent plutôt que la reconstruction est le fait des travailleurs présents en France. Ainsi Yves Lequin écrit l'immigration « n'a pas été immédiate», mais que c'est plutôt « à partir des années 1950 qu'elle vient relayer les progrès de productivité »8. Gérard Noiriel rappelle que le nombre de travailleurs étrangers baisse de 1,3 millions de personnes de 1930 à 19549. Philippe Rygiel souligne que la chronologie des flux ne correspond pas exactement à celle des Trente Glorieuses, puisque le « nombre d'entrées est assez modeste durant les années 40 et 50. La phase d'afflux massif est en fait assez courte, s'étalant sur un peu plus de 15 ans de la fin des années cinquante à 1975 »10. À l'échelle régionale, des 1 DEWERPE Alain, Le monde du travail en France 1800-1950, Coll. Cursus, Armand Colin, Paris, 2007, 174 p. ; NOIRIEL Gérard, Les ouvriers dans la société française, op. cit., p. 195 sqq. 2 DEWERPE Alain, Le monde du travail en France, op. cit., p. 131. 3 BERGER Françoise, La France, l'Allemagne et l'acier, op. cit., p. 681. MIOCHE Philippe, La sidérurgie et l'État en France des années 1940, op. cit., p. 544 sqq. 4 FREYSSENET Michel, « Division du travail, pratiques ouvrières et pratiques patronales. », op. cit., p.12-13. 5 WORONOFF Denis, Histoire de l'industrie en France, op.cit., p. 485. 6 FREYSSENET Michel, La sidérurgie française 1945-1979, op. cit., p. 9. 7 FREYSSENET Michel, « Division du travail, pratiques ouvrières et pratiques patronales, op. cit., p. 12. 8 LEQUIN Yves (dir.), La mosaïque France, histoire des étrangers , op. cit., p. 429. 9 NOIRIEL Gérard, Les ouvriers dans la société française, op. cit., p. 200. 10 RYGIEL Philippe, « L'historiographie des migrations », op. cit., p. 11. 91 recherches récentes ne disent pas autre chose : « La période de reconstruction s'est donc apparemment faite sans apports étrangers, du moins en Rhône-Alpes. Du recensement de 1946 à celui de 1954, le nombre d'étrangères et étrangers reste stable, ne progressant que d'un peu plus de 3 %. En revanche, dans les vingt années suivantes, l'immigration dans la région explose »1. On peut alors se demander si Chasse suit la règle générale ou l'exception lorraine. Enfin, ces recrutements s'effectuent dans un nouveau contexte politique et social : la Libération est marquée par une renaissance ouvrière aussi bien au niveau syndical que politique2. De grandes innovations sociales suivent : ce sont en particulier la création des comités d'entreprise et de la sécurité sociale3. La Compagnie des HautsFourneaux de Chasse est contrainte de mettre en oeuvre ces réformes sociales imposées par la loi en les ajoutant ou en les intégrant à ses propres pratiques. On peut alors se demander aussi comment ces innovations sont-elles prises en charge par les travailleurs des HFC et dans quelle mesure cela transforme leur rapport avec l'entreprise : il s'agit alors de savoir comment interagissent salariés et dirigeants qui vivent en interdépendance. 1) Les besoins en main d'oeuvre La nature des besoins en personnels dépend de plusieurs facteurs, dont les productions de l'usine et la nature de son outillage. Néanmoins, l'absence de dénombrement complet dans les sources avant 1954 nous empêche d'avoir des informations précises sur la classification et les métiers de la main d'oeuvre. Loin d'être exceptionnel, ce niveau de recensement des personnels correspond plus largement à la situation au niveau nationale, puisque c'est pour la première fois cette année-là que l'INSEE distingue différentes catégories d'ouvriers en fonction de leur qualification 4. D'autres sources peuvent heureusement nous fournir des renseignements complémentaires et parfois plus anciens. Ils permettent alors d'établir des comparaisons. 1 SCHWEITZER Sylvie (dir.), Rhône-Alpes : étude d'une région , op. cit., Tome 1, p. 41. BOURDERON Roger, « Stratégies pour une renaissance 1944-1946 », dans WILLARD Claude (dir.), La France ouvrière 1920-1968, tome 2, Editions de l'Atelier, Paris, 1995, 368 p., p. 193 sqq. 3 Ibidem, p. 215-216. Voir également HATZFELD Henri, Du paupérisme à la sécurité sociale 18501940, Presses universitaires de Nancy, Nancy, 1989, 348 p., 1ère édition Librairie Armand Colin, 1971. 4 MARGAIRAZ Michel, « La permanence de la structure de la classe ouvrière dans les années cinquante », dans WILLARD Claude (dir.), La France ouvrière 1920-1968, op. cit., p. 244-245. 2 92 Ainsi un dénombrement datant de 1929 recense les métiers par ateliers. Ils sont appelés à « spécialités »1 à cette époque. Ce document présente cependant plusieurs limites. Ainsi, on peut regretter que les bureaux de l'usine ne soient pas traités de manière détaillée : on n'évoque que le nombre de leurs « employés », sans plus de précision. En revanche, en ce qui concerne les activités de production, les métiers sont bien indiqués en fonction de leurs ateliers, ainsi que quelques éléments de classification. Dans tous les ateliers de production, les ouvriers sont les plus nombreux. Les hauts-fourneaux qui sont les principales installations de l'usine ne comptent néanmoins pas le plus grand nombre de personnels : il s'agit en fait de la fonderie. Si les hautsfourneaux emploient des fondeurs, des chargeurs et des mécaniciens, la fonderie a elle des mouleurs et des mécaniciens. Dans les deux cas les mécaniciens sont chargés de faire fonctionner les installations des hauts-fourneaux ou les cubilots de fonderie. Il n'y a donc pas de distinction dans la dénomination de ces deux métiers alors que la taille et le fonctionnement de ces installations ne sont pas identiques. En revanche, on distingue les fondeurs des mouleurs : les premiers préparent le sol dans lequel la fonte des hautsfourneaux est coulée, tandis que les seconds la versent dans des moules qu'ils assemblent et démontent pour obtenir des pièces de fonderie. Enfin, seuls les hautsfourneaux sont équipés de monte-charges activés par les chargeurs. La fonderie possède des ateliers annexes : il s'agit de la menuiserie et de l'usinage. Dans le premier atelier on fabrique les pièces des moules de la fonderie (modèles, et noyaux pour les pièces creuses). Dans le second, on nettoie ces pièces après leur démoulage en éliminant les défauts de surface (opération d'ébarbage), puis on les usine pour les ajuster. Les métiers du premier atelier sont ceux de menuisiers et de modeleurs (d'après l'enquête de 1929, la « spécialité » de noyauteur n'est pas indiquée, même si la tâche existe nécessairement), dans le second atelier il s'agit d'ajusteurs et de tourneurs. On retrouve là les différents métiers de « toutes les opérations qui concourent à la production de pièces en fontes moulées », tels qu'on les retrouve dans la fonderie de la Fonte Ardennaise décrite par Bruno Prati à la même époque2. Tous les autres ateliers sont dépendant des hauts-fourneaux : ils se trouvent en amont ou en aval de leurs productions. En amont, on trouve tout d'abord l'atelier d'agglomération des pyrites dans lequel travaillent des mécaniciens. En aval en 1 ADI, 56J1, Enquête relative à notre demande d'inscription sur la liste des fournisseurs de l'artillerie navale. 2 PRATI Bruno, La Fonte Ardennaise et ses marchés, op. cit., p. 246. 93 revanche, on trouve d'avantage d'ateliers : il s'agit de la maçonnerie, de l'entretien général, du laboratoire, de la briqueterie-cimenterie et de la manutention. La centrale qui produit l'énergie de l'usine en 1945 n'est pas indiquée, mais ces travailleurs doivent être dénombrés en 1929 avec ceux des fours à coke : il s'agit donc de mécaniciens. Ensuite, si maçon est le seul métier de la maçonnerie, l'atelier d'entretien est celui qui en compte le plus : mécanicien, ajusteur, tourneur, chaudronnier, forgeron, électricien. Les deux ateliers entretiennent les installations de l'usine, mais les tâches de l'atelier d'entretien sont diversifiées. Le laboratoire a aussi un seul métier, celui de chimiste : à la différence de la cokerie, malgré le manque de houille et de coke, les activités ne sont pas suspendues dans ce domaine après 1945, comme le montre le livre des inventaires de l'usine1. Cimentier et briquetier sont les deux seuls métiers de la briqueteriecimenterie. Enfin, les activités de manutention nécessitent des mécaniciens : ils conduisent les locotracteurs, ou entretiennent les monte-charges comme les pontsroulants de l'usine. Les métiers indiqués sont appelés « spécialités » dans le document de 1929, c'est-à-dire avant les négociations de 1936 qui amènent à la création de conventions collectives dans la métallurgie, et avant les arrêtés Parodi de 1945 2 : les ouvriers de métiers et les manoeuvres dominent3. Ceci explique en partie la relative faiblesse du nombre de métiers indiqués, ainsi que la quasi absence de tâches reconnues et définies par des postes. Pourtant, parmi les ouvriers – outre les ouvriers de « spécialité » –, les auteurs du rapport parlent des « manoeuvres ». Ces derniers sont présents dans la plupart des ateliers de production. On peut alors se demander qui effectue les tâches fastidieuses, demandant un savoir-faire mais peu de compétences reconnues, tâches effectuées plus tard par des ouvriers spécialisés4. On peut citer par exemple à la fonderie la l'ébarbage déjà évoqué, mais on peut ajouter celle de pontonnier ou de leveur de fonte pour la manutention, de casseur de fonte au haut-fourneau, et bien d'autres encore. 1 ADI, 56J31, inventaires 1945-1959. SAGLIO Jean, « Hiérarchies salariales et négociations de classifications France, 1900-1950 », Travail et Emploi, 1986/3, n° 27, p. 7-19. MARGAIRAZ Michel, « La permanence de la structure de la classe ouvrière dans les années cinquante », dans WILLARD Claude (dir.), La France ouvrière 1920-1968, op. cit., p. 241-243. 3 FREYSSENET Michel, « Division du travail, pratiques ouvrières et pratiques patronales, op. cit., p. 2. 4 La catégorie des OS n'est en effet reconnue dans les statistiques officielles qu'au cours des années 1950, alors qu'elle est apparue une génération auparavant : dans MARGAIRAZ Michel, « La permanence de la structure de la classe ouvrière dans les années cinquante », dans WILLARD Claude (dir.), La France ouvrière 1920-1968, op. cit., p. 246. 2 94 Les témoignages des anciens travailleurs de l'usine sont alors indispensables 1 : ils évoquent tous le rôle des manoeuvres car ces tâches nécessitent bien souvent de la force et de l'endurance, mais elles étaient également en partie accomplies par des ouvriers de métier, comme dans le cas de l'ébarbage. Pour les manoeuvres, comme en témoigne un document préfectoral datant de 19432, l'apprentissage d'un travail nouveau se fait par un « entrainement » : l'entreprise sélectionnait certains d'entre eux et les mettaient à l'épreuve sur un nouveau poste ou une nouvelle tâche. Toujours d'après ce document, il n'y a en effet pas d'« organisation d'apprentissage » dans l'usine. Le rapport de 1929 indique également d'autres activités liées à la direction de l'usine et à l'encadrement de la main d'oeuvre, mais il en oublie certaines. En ce qui concerne la direction, outre le directeur de l'usine, le secrétaire général et l'ingénieur principal ; on peut signaler la présence de plusieurs ingénieurs, certains ayant un atelier à sa charge. C'est le cas des hauts-fourneaux, de la fonderie, de la briqueterie-cimenterie et de l'entretien. Ces ateliers sont toujours dirigés par un ingénieur en 1945, ceux des hauts-fourneaux, de la fonderie et de la briqueterie étant d'ailleurs les mêmes individus qu'en 1929. En revanche, avant guerre, le laboratoire et la cokerie sont des ateliers qui possèdent plusieurs ingénieurs travaillant en partie ensembles ; les uns aux activités de carbonisation, les autres aux activités chimiques. Les activités de la cokerie étant à l'arrêt en 1945, l'équipe a été dispersée : il reste au moins deux de ses membres en 1945, dont un au laboratoire, mais il n'est pas possible d'indiquer quand s'est produit le départ des deux autres3. On peut donc dire que l'usine compte au moins six ingénieurs en 1945 en plus de l'ingénieur principal. Ils ont sous leurs ordres des contremaîtres et des chefs d'équipe, ces personnels étant au nombre de trente-deux en 1929. Ils sont nécessairement moins nombreux en 1945 pour deux raisons : certaines activités sont supprimées comme la cokerie, et d'autre part il y a moins de personnels à diriger. Outre les personnels d'encadrement, on peut signaler d'autres différences dans la taxinomie des personnels en la comparant à celle du document de 1929. On a des personnels de surveillance non indiqués : il s'agit des gardes de l'usine et des pointeaux. Il y a enfin des personnels appartenant à la cantine : elle est tenue par la famille Durier 1 Témoignages de messieurs Charrier et Abel le 15/3/2000, Charrier et Safer le 22/04/2000. ADR, 130W, 1773. 3 AMC, listes des personnels pour les élections prud'homales de 1954, fichier mécanographique du personnel de l'entreprise, cahier du personnel français n° 5, 6, 7, 8, 9, 10. 2 95 depuis 1920, les baux étant ensuite régulièrement renouvelés 1. L'existence de la cantine révèle celle de politiques d'entreprise non liées à des seuls buts de production, mais afin de satisfaire certains besoins des salariés de l'usine2. D'une manière générale donc, de 1945 à 1947 la production de l'usine augmente, mais les caractéristiques de cette dernière n'évoluent pas. De plus, on peut dire que si les effectifs remontent eux aussi pendant la période, la plupart des métiers et postes existants en 1929 n'évoluent pas non plus, à quelques exceptions près. On doit cependant ajouter qu'en raison des réformes sociales de 1945, la création des assurances sociales en 1945 vient modifier les métiers du social présent autour de l'usine. De plus, on est dans le contexte où les comités de sécurité créés sous Vichy deviennent par décret en août 1947 des comités hygiène et sécurité aux pouvoirs plus étendus 3. Certes, depuis au moins l'entre-deux-guerres la Compagnie prend en charge la santé de ses salariés : elle fait travailler un médecin et les consultations médicales sont gratuites 4. Des « visiteuses » se rendent ensuite au domicile des travailleurs malades. Après guerre, un médecin est toujours au service de la Compagnie, ce dernier percevant des honoraires5. La nouveauté est que désormais ce sont des salariés au service des HFC qui s'occupent de la santé des personnels. De plus, ils le font en étant présents dans l'usine. Le 1er juin 1946, un infirmier est recruté : il s'agit de Louis Paret l'année suivante, une assistante sociale et une secrétaire sont embauchées : il s'agit de Pierrette Terrasse en juin et de Jeanne Giraud en janvier. Ces nouveaux personnels sont cependant encore peu nombreux en 1947. Comme le reste du personnel, leur nombre augmente. Cela s'explique par la modification du contexte économique et social et les grandes réformes de l'après guerre. 1 ADI, 56J36 : contrats d'acquisitions immobilières à Chasse-sur-Rhône et dans les communes voisines (15 contrats) 1854-1961. 2 Voir sur les cantines, l'exemple du Creusot dans GACON Stéphane et JARRIGE François, « Les trois âges du paternalisme. Cantines et alimentation ouvrière au Creusot (1860-1960) », Le Mouvement Social, 2014/2 n° 247, p. 27-45. Toutefois, à la différence du Creusot, à Chasse la création d'une cantine n'est pas vécue comme un « pis-aller ». 3 COINTEPAS Michel, « Les origines du CHSCT (1926-1947) », Les cahiers du CHATEFP , n° 5, mai 2001, p. 3-15. 4 ADI, 56J1, enquête relative à notre demande d'inscription 5 ADI, 56J30 : déclarations d'honoraires, commissions, ristournes, frais de déplacement, jetons de présence, pensions et rentes viagères : correspondance avec les bénéficiaires, listes informatiques des ristournes, bordereaux de déclaration 1952-1962. 96 2) Permanences et évolutions du recrutement La Compagnie des Hauts-Fourneaux de Chasse a mis en place des politiques de recrutement efficaces de longue date. Par exemple en 1939, elle est capable de recruter massivement des travailleurs algériens afin de pourvoir à ses besoins en main d'oeuvre. Sa politique de recrutement est basée sur des logiques liées à la nationalité comme au sexe des travailleurs. Les premiers exercices depuis la Libération qui couvrent la période janvier 1945-juin 1947 sont ceux pendant lesquels les travailleurs des Hauts-Fourneaux de Chasse participent à la reconstruction et à la relance de l'usine. À la différence de la période précédente, on constate que les effectifs des travailleurs français progressent, tout comme ceux des travailleurs étrangers ; mais cela s'effectue à des rythmes différents. Les distinctions entre nationalités sont toujours ici conformes au classement des personnels établi par les services de l'usine. On pourrait néanmoins s'interroger sur leur pertinence pour plusieurs raisons. Par exemple, plusieurs « Français » peuvent être des immigrés qui ont acquis la nationalité française, les « Arméniens » ne sont pas une nationalité, ou encore les « Algériens » ne constituent toujours pas une nation indépendante. Ce classement est donc parfaitement subjectif, mais il est aussi révélateur d'une vision : celle des dirigeants et des services du personnel de l'usine, c'est pourquoi il a malgré tout été conservé. On peut alors faire plusieurs constats sur l'évolution des recrutements : 97 Tableau 6 : Évolution du recrutement des personnels des HFC de 1945 à juin 1947 par nationalités et par sexe1 Année Nationalités Français2 Portugais Espagnols Italiens Arméniens Grec Russes Polonais Algériens Total étrangers Français Portugais Espagnols Italiens Arméniens Grecs Russes Polonais Allemand Algériens Total étrangers Français Espagnols Italiens Arméniens Polonais Tchèque Algériens Total étrangers Total étrangers sur la période Total Français sur la période 1945 1946 1947 3 Arrivées Départs Solde hommes femmes Solde femmes et 24 3 5 1 4 0 0 13 6 32 15 2 2 21 2 1 4 7 5 127 171 6 2 4 2 0 1 229 238 441 9 0 4 2 5 1 1 2 2 17 15 1 5 3 4 2 1 14 0 31 61 7 2 3 1 1 0 115 122 200 +15 +3 +1 -1 -1 -1 -1 +11 +4 +15 0 +1 -3 +18 -2 -1 +3 -7 +5 +96 +110 -1 0 +1 +1 -1 +1 +114 +116 +241 +1 +1 +1 0 +1 0 0 -2 0 +1 0 0 +1 +1 0 -1 +1 -1 0 0 +1 +1 +2 0 +1 0 0 0 +3 +5 45 31 +14 +2 Tout d'abord, on peut dire que les progrès des travailleurs français sont en trompe l'oeil. Certes leur nombre augmente, ce qui met fin à cinq années de baisse continuelle depuis 1940. Toutefois, avec une progression de quatorze individus dans le sondage, ils sont loin de rattraper la baisse de soixante-cinq individus sur la période 1940-1944 : c'est seulement 21,5 % des effectifs en baisse de la guerre qui sont ainsi compensés. De plus, cette hausse est surtout forte pour l'année 1945, car ensuite c'est la stagnation en 1946, voire la baisse pour l'année 1947 jusqu'en juin inclus qui l'emportent. On peut néanmoins constater que les Françaises sont les seules à 1 AMC, cahiers du personnel français n° 7 et étranger n° 12, 13. Rappel : la méthode utilisée est la même que pour le tableau 1, c'est-à-dire par sondage en utilisant la lettre B : cela ne permet pas la comparaison avec les travailleurs étrangers dénombrés en totalité, mais celle avec les travailleurs français pendant et après la guerre. 3 Seuls les six premiers mois de l'année 1947 sont pris en compte. 2 98 progresser en nombre, mais la faiblesse relative de leur effectif ne peut compenser l'évolution générale du groupe. Les travailleurs étrangers ont donc représenté l'essentiel des recrutements de personnels supplémentaires jusqu'en juin 1947 : soit un effectif total de 241 individus. Le recrutement total est de 441 personnels étrangers, mais il ne correspond pas à l'augmentation totale du groupe en raison d'un fort turnover : les travailleurs étrangers qui quittent l'usine représentent 45,35 % des recrutements. Parmi ceux qui partent, tous n'ont pas été recrutés après 1945, mais la majorité d'entre eux l'a été : cela implique alors un temps de passage dans l'usine court, à peine quelques mois, parfois quelques semaines seulement. Enfin, on peut constater que le nombre d'étrangères progresse lui aussi pendant la période, mais cette fois-ci c'est beaucoup trop insignifiant pour influer sur l'évolution globale des effectifs de travailleurs étrangers : c'est une des différences notables avec la période 1940-1944. Même s'il y a des permanences, il est en effet possible de remarquer plusieurs évolutions dans le recrutement des personnels. Tout d'abord, les femmes ne jouent plus le rôle important qu'elles ont eu dans les recrutements pendant la guerre. En revanche, les Françaises sont toujours recrutées principalement comme employée dans les bureaux, tandis que les étrangères sont des ouvrières : néanmoins, on retrouve ces dernières à la fonderie et à l'agglomération, mais plus à la briqueterie-cimenterie. Ensuite, les travailleurs français continuent à pouvoir être embauchés dans les divers ateliers et services, alors que les étrangers sont absents des bureaux ou quasi absent de certains ateliers comme l'entretien. La plupart d'entre eux sont recrutés comme manoeuvres, hommes comme femmes. Cela ne signifie pas pour autant que tous les travailleurs étrangers de l'usine à cette époque soient des manoeuvres : parmi les Italiens anciennement recrutés, on compte par exemple un maçon, un ébarbeur, un mécanicien, un ajusteur et un contremaître. On a donc des métiers et des qualifications divers. On retrouve une telle situation parmi les travailleurs arméniens ou grecs de l'usine : les premiers comptent un coketier (chargeur en coke), un chargeur, un ébarbeur, deux mouleurs ; les seconds trois fondeurs, un ébarbeur et un mouleur. Les Algériens ne comptent en revanche aucun ouvrier autre que manoeuvre. Il faut dire que seuls quatre d'entre eux et un Djiboutien sont présents dans l'usine au moment de la Libération : Ali Haydar embauché en 1932, Abdelhamid Abdelbost embauché en décembre 1939 et Mohamed Lagab, Mohamed Douha, et Mohamed Ben Ali, tous 99 embauchés en 19401. Or c'est l'ancienneté qui détermine la mobilité professionnelle ascendante, c'est-à-dire le passage de manoeuvre à l'occupation d'un poste ou d'un rang dans la classification qui soit plus élevé. On peut penser que la faiblesse de l'effectif des Algériens explique cela. Toutefois on rappellera aussi que la faiblesse de cet effectif est la conséquence d'une discrimination qui leur a été propre pendant la guerre. De plus, on peut dire que l'immigration algérienne a joué un rôle spécifique à Chasse dans la reconstruction et la relance de l'usine des HFC. Cette immigration est aussi précoce qu'originale. En effet, on l'a vu plus haut, à la même époque, à l'échelle nationale comme nationale, les historiens notent plutôt que la reconstruction est le fait des travailleurs présents en France. Or les Algériens représentent 127 des 167 travailleurs étrangers recrutés en 1946 et 229 des 241 travailleurs étrangers l'année suivante. Cela représente 76 % puis 95 % des recrutements de travailleurs étrangers. Comment expliquer alors qu'à l'échelle locale on ait une telle différence ? On peut tout d'abord rappeler que la recherche d'une main d'oeuvre immigrée venant renforcer les effectifs des usines demeure une obsession patronale à la sortie de la guerre, la main d'oeuvre française manquant selon ces derniers : c'est ce que montrent les archives de la Chambre syndicale de la sidérurgie 2. Par exemple, dans une circulaire du 29 juillet 1946, le délégué général de la sidérurgie Louis Charvet indique que : la « gravité du problème de la main d'oeuvre pour l'industrie sidérurgique fait l'objet de toutes nos préoccupations ». Parlant de « pénurie de main d'oeuvre constatée », il demande aux différentes entreprises de recenser leurs besoins en personnels. Dans la circulaire suivante du 30 juillet, il note que d'après les « renseignements qu'ils ont pu recueillir, il résulte qu'il apparaît à peu près impossible de recruter actuellement de la main d'oeuvre étrangère. Il n'existe plus aucune disponibilité en prisonniers de guerre. Par ailleurs, tous les pays qui nous fournissaient avant guerre des contingents d'ouvriers se refusent actuellement à laisser sortir de leurs territoires leurs travailleurs ». D'autres précisions allant dans le même sens sont apportées : les autorités polonaises et yougoslaves s'efforcent même de faire revenir leurs travailleurs, alors que les autorités italiennes ne délivrent plus de passeports autorisant la sortie de leurs nationaux. Quelques mois plus tard dans une circulaire en date du 14 janvier 1947, on s'inquiète du retrait prochain des prisonniers de guerre allemands au printemps ou à l'été. Avec l'aide de ces exemples, on peut donc bien dire 1 2 AMC, cahiers du personnel étranger n° 12. ADR, 34J230 : Chambre syndicale de la sidérurgie, circulaires, bulletins (juillet 1946-décembre 1947). 100 que si à l'échelle nationale l'immigration n'a pas d'impact visible au niveau de la démographie française entre 1945 et 1947, elle constitue bien une demande persistante du patronat de la sidérurgie. Plus qu'une exception locale, il s'agit d'une exception propre à la branche : on retrouve en effet une situation similaire décrite en Lorraine par Michel Freyssenet1. Or, comme le rappelle Catherine Wihtol de Wenden, dès « 1946, les Algériens bénéficient de la liberté de circulation et jouissent, comme tous les ressortissants coloniaux, des mêmes droits que les nationaux français dès lors qu'ils sont établis sur le territoire français »2. On comprend alors l'intérêt pour les dirigeants de la Compagnie des Hauts-Fourneaux de Chasse à faire revenir cette main d'oeuvre : elle est pratiquement la seule qui pouvant circuler librement est en capacité de venir travailler à Chasse. De plus, ils ont fait appel de longue date aux Algériens vivant dans la région de leurs mines de Bou Amrane. Ayant constitué sur place des réseaux de recrutement de main d'oeuvre, il s'agit alors simplement de les réactiver. Cela est révélé par le nombre élevé de travailleurs portant parfois le même nom et surtout venant du même village : par exemple, sur les arrivants de septembre 1946, dix-sept viennent d'Ouled Djelall, soit plus du quart des arrivants ce mois-là. En juillet 1946, le cahier ne signale aucune arrivée, il y en a trois en août, puis soixante-deux en septembre : à partir de cette date des dizaines de travailleurs arrivent chaque mois3. Afin d'accueillir ces nouveaux personnels, mais aussi de mobiliser les autres, les HFC sont dans l'obligation mener des politiques d'entreprise. Elles vont être déployées dans un nouveau contexte social et politique. 3) Un nouveau contexte politique et social Roger Bourderon, écrit qu'au « lendemain de la Libération, la place de la classe ouvrière dans la Résistance est exaltée par tous. Mais cela se traduira-t-il dans la vie nationale ? »4. Cette question se pose aussi pour les travailleurs des Hauts-Fourneaux de Chasse. Mais on a déjà vu que l'autorité des dirigeants de la Compagnie n'a pas été 1 FREYSSENET Michel, « Division du travail, pratiques ouvrières et pratiques patronales, op. cit., p. 12. WITHOL DE WENDEN Catherine, « Ouverture et fermeture de la France aux étrangers » Un siècle d'évolution », Vingtième Siècle. Revue d'histoire, 2002/1, n° 73, p. 27-38, p. 33. 3 AMC, cahiers du personnel étranger n° 12. 4 BOURDERON Roger, « Stratégies pour une renaissance 1944-1946 », op. cit., p. 191. 2 101 remise en cause au moment de la Libération. Il n'y a pas d'occupation d'usine et la production se poursuit, comme dans bien des usines de la sidérurgie, seulement gênée par les manques d'énergie, de moyens de transport et de main d'oeuvre1. Pourtant, de 1945 à 1947 deux réformes sociales considérables se produisent. Elles concernent d'une part la représentativité des salariés dans l'entreprise et donc, la remise en cause du pouvoir patronal ; et d'autre part la création d'un système d'assurances mettant les salariés à l'abri des aléas de la vie, poursuivant la remise en question des anciennes pratiques sociales paternalistes. L'ordonnance du 22 février 1945 précise les contours du futur comité d'entreprise, permettant de clore l'expérience des comités animés par des syndicalistes, ouvriers, techniciens et cadres dans les entreprises qui se sont substitués aux directions d'entreprises faillies2. De fait, à la question de Pierre Cholat lors d'une réunion de l'ASMPL portant sur la nécessité de créer des comités patriotiques, la réponse est qu'il n'est plus nécessaire de le faire depuis que l'ordonnance portant sur les comités patriotiques a été promulguée. La discussion porte alors sur la circulaire du 13 mars 1945 qui indique les modalités de mise en place des comités d'entreprises : il est alors décidé de faire en sorte que les représentants des ouvriers soient en nombre équivalent que ceux des autres catégories de personnels ; c'est-à-dire les employés, cadres et techniciens3. Comme le nombre d'ouvriers est généralement supérieur à celle de toutes les autres catégories réunies, on comprend qu'après avoir divisé les salariés en collèges d'électeurs, il s'agit ensuite de noyer celui des ouvriers parmi les autres catégories, sans que cela ne soit trop visible4. À Chasse, peu de documents nous permettent d'avoir accès aux premiers temps de cette institution importante. Néanmoins, il est possible de dire que les salariés délégués assistent à leur premier conseil d'administration lors de la séance du 28 juin 19465. Bien qu'ils soient seulement deux face aux cinq administrateurs assistés du directeur et de l'ingénieur en chef, ils n'hésitent pas à intervenir et à reposer leurs questions lors des séances suivantes. En cela, ils se montrent aussi actifs que leurs 1 À l'échelle française, dans MIOCHE Philippe, La sidérurgie et l'État en France des années 1940, op. cit., p. 550. 2 Xavier Vigna parle de « fuite » dans VIGNA Xavier, Histoire des ouvriers en France au XXe siècle , Perrin, Paris, 2012, 405 p., p. 163 sqq. 3 ADR, 34J222, réunion de l'ASMPL du 27 mars 1945. 4 L'attitude du patronat de la Loire rejoint celle du CNPF qui va réagir négativement aux nouvelles prérogatives des CE d'après BOURDERON Roger, « Stratégies pour une renaissance 1944-1946 », op. cit., p. 216. 5 ADI, 56J12. 102 collègues des commissions paritaires qui négocient avec le patronat de la Loire dès 1944. Jusqu'en 1946, de très nombreux sujets sont abordés par ces derniers : l'affichage dans les entreprises, les aides aux prisonniers, déportés et aux familles des FFI, les licenciés lors des grèves de 1938, les élections prud'homales, les salaires, les abattements de zone, les classifications, l'apprentissage ou le travail de nuit et le dimanche1. Les demandes des représentants du CE de Chasse le 28 juin 1946 semblent plus locales, mais non moins précises : elles portent sur des aides concernant le ravitaillement et le transport des personnels pour le ravitaillement. Il est rappelé que cette demande a déjà été faite lors de réunions du CE pendant la première moitié de l'année. 20 000 puis 40 000 francs ont été débloqués en janvier et mai de cette année. Ce que souhaitent les représentants du CE, en s'appuyant sur une loi de novembre 1945 qui permet la reconduction des aides portant sur ravitaillement, c'est de les pérenniser : outre l'habilité tactique qui consiste à s'appuyer sur des lois qui sont désormais moins défavorables aux salariés, on a l'impression de voir des militants plutôt expérimentés à la manoeuvre. Lors des séances suivantes, les représentants du CE interviennent presque à chaque fois pour porter des revendications du personnel. Elles portent par exemple sur la réorganisation de la cantine. La subvention versée pour le CE lors du second trimestre 1947 est de 439 000 francs. Elle permet les achats et vente de denrées. En outre, pour l'exercice 1946-1947, diverses subventions ont été dépensées pour les besoins suivants : sport, versements complémentaires aux vieux travailleurs ou encore médailles du travail2. Enfin, lors de la séance du conseil d'administration du 8 janvier 1948, un intéressement donné à la fin de l'exercice est réclamé par les représentants du comité d'entreprise. Ce que l'on peut dire avec certitude sur eux est bien mince : ils s'appellent Borde, Gautier ou Gauthier, Dorel et Bonnard. Comme leurs prénoms ne sont pas indiqués dans les sources et que même l'orthographe de leur nom est imprécise – Dorel est d'abord orthographié Doron, Gautier ou Gauthier est orthographié des deux manières –, il est difficile d'avoir des renseignements très précis sur eux : on risque de les confondre avec des membres de leur familles ou des homonymes. On peut simplement constater que ce sont des hommes, de nationalité française. 1 ADR, 34J222, les premiers sujets sont évoqués à partir de la réunion de l'ASMPL du 22 septembre 1944. 2 ADI, 56J12, conseil d'administration du 8 janvier 1948. 103 L'autre grande réforme de la période est la création de la Sécurité sociale. Les ordonnances des 4 et 19 octobre 1945 créent un organisme unique de Sécurité sociale pour environ quinze millions de salariés. Ces mesures proviennent d'un texte présenté à l'Assemblée consultative en juillet 1945 par le ministre du Travail Alexandre Parodi. La nouveauté principale est que les salariés administrent eux même les caisses dans des conseils composés en majorité de représentants des syndicats ouvriers. Les cotisations sont payées pour moitié par les salariés et pour moitié par les employeurs, mais les allocations familiales et les accidents de travail sont à la charge du patronat. En ce qui concerne les retraites, le principe de capitalisation est abandonné au profit de cotisations patronales et ouvrières1. À Chasse, cette réforme fondamentale est accompagnée par l'entreprise. Comme l'écrit Henri Hatzfeld à propos de l'attitude du grand patronat face à la création de la Sécurité sociale, ce dernier a surtout eu la « volonté de sauvegarder ses droits gestionnaires »2. Or les Cholat sont déjà engagés dans les oeuvres de secours mutuels3, ils sont donc intéressés par la poursuite de la maîtrise d'institutions sociales, même si en raison de la loi leur contrôle ne peut plus en être direct. Comme on l'a vu, on embauche alors une assistante sociale et une secrétaire en 1947. La même année, on fait construire des bureaux pour la Sécurité sociale achevés en octobre4. Ces décisions suivent de quelques mois la création du régime général de la Sécurité social le 1er juillet 1946 ; création dont l'objectif est de « de réformer profondément la législation sociale existante, afin de lui donner une ampleur et une efficacité qu'elle n'avait pas atteintes jusque-là »5. Cette innovation majeure a cependant laissé peu de trace dans les archives des HFC, encore moins que celle du comité d'entreprise. En revanche, nous avons davantage d'information sur l'évolution des rapports entre patronat et salariés dans le contexte de ces créations. 1 BOURDERON Roger, « Stratégies pour une renaissance 1944-1946 », op. cit., p. 215-216. HATZFELD Henri, Du paupérisme à la sécurité sociale, op. cit., p. 155 sqq. 3 Lucien Cholat a été président de la société de secours mutuels des fonderies, forges et aciéries de SaintÉtienne : Journal officiel du 12 août 1934, p. 8508. Pierre Cholat a été aussi vice-président honoraire de la Société de secours Mutuels des ouvriers et employés de la Compagnie des Hauts-Fourneaux de Chasse : Éric Combaluzier, plusieurs documents dont les statuts de 1938 et la composition de son conseil d'administration en 1937. 4 ADI : 56J59, déclarations de constructions nouvelles. 5 VALAT Bruno, « Le choix de la sécurité sociale », dans DREYFUS Michel, RUFFAT Michèle, VIET Vincent, VOLDMAN Danièle (dir.), Se protéger, être protéger. Une histoire des assurances sociales en France, Presses universitaires de Rennes, 2006, 352 p., p. 259. 2 104 4) et l'évolution des rapports entre salariés et dirigeants L'évolution des rapports entre l'entreprise et ses salariés de la Libération à l'après-guerre doit être examinée en tenant compte du nouveau contexte politique économique et social qui est le cadre contraignant dans lequel évoluent ces rapports. Les dirigeants de l'entreprise doivent désormais tenir compte de l'évolution de la législation sociale et du développement d'une certaine démocratie d'entreprise. Les salariés expérimentent les nouveaux droits conquis dans le contexte de la Libération. La période est souvent présentée comme propice aux ouvriers, le tournant ne se produisant qu'en 1947 avec, dans le contexte « des vents violents et glacés » de la guerre froide, une « unité de la gauche [qui] vole en éclat », le mouvement ouvrier déchiré et découragé entamant alors « une longue retraite »1. Les dirigeants des Hauts-Fourneaux de Chasse ont certes fort à faire : leur entreprise est menacée par les projets de modernisation, ils sont en concurrence avec les autres grands acteurs économiques de la région, les pénuries et les difficultés de transport freinent la relance de l'usine tandis que la reprise en main des filiales est tout sauf facile. La restauration de la légalité républicaine et les réformes sociales remettent en cause une direction « paternaliste et autocratique »2. Fragilisés, devant être présents sur plusieurs fronts, les dirigeants de Chasse ne s'en laissent pas pour autant compter : si ils plient, ils ne rompent pas ; voir ils réagissent et sont à l'offensive. Les dirigeants de Chasse s'appuient pour cela sur les autres dirigeants de la sidérurgie à travers la Chambre syndicale ou le Syndicat de la métallurgie : les patrons sont rivaux, mais ils savent aussi quand il le faut utiliser leurs réseaux pour défendre leurs intérêts communs. On a vu par exemple, comment ils débattent ensemble de la manière de créer les collèges d'électeurs aux comités d'entreprise afin de diluer le vote ouvrier. Ces échanges peuvent aussi prendre la forme de conseils – par exemple à propos d'échanges de points de vue sur la création des comités patriotiques afin de savoir quelle expérience en ont les autres entreprises –, ou même encore prendre la forme d'une position commune contre le fait qu'un délégué d'un comité patriotique 1 WILLARD Claude, « Les couches populaires urbaines », dans BRAUDEL Fernand et LABROUSSE Ernest (dir.), op. cit., p. 945. 2 MIOCHE Philippe et ROUX jacques, Henri Malcor : un héritier des maîtres de forges, op. cit., p. 307308. 105 puisse donner son accord à un licenciement dans une entreprise1. Le patronat peut en outre interpeler les autorités politiques ou administratives, ce qu'il fait fréquemment, par exemple en critiquant le fonctionnement du comité de confiscation de profits illicites2. Une attitude commune aux dirigeants est aussi l'atermoiement : face à une situation où ils se savent en position de faiblesse, plutôt que de refuser, ils préfèrent remettre à plus tard sous n'importe quel prétexte. On peut citer comme exemple celui de Castelnau qui demande que l'on consulte les procès verbaux des commissions paritaires pour voir si la question de l'affichage des syndicats dans les usines a été évoquée, puis comme rien n'a été trouvé à la séance suivante, on propose de trouver ensemble une « formule qui évite les abus », sans donner suite à la demande3. On retrouve une attitude semblable chez Pierre Cholat et les administrateurs des HFC qui refusant une demande d'allocation aux représentants du CE, proposent ensuite de les accorder plus tard si « elles sont motivées par les circonstances à venir »4 : de vagues promesses donc. Pourtant, la stratégie des dirigeants des HFC ne se limite pas à une attitude hostile, d'opposition, voire de combat face aux salariés. Ils peuvent satisfaire leurs revendications et même les prévenir : outre des motifs politiques ou moraux, ce qui compte pour eux est de donner l'apparence qu'ils sont encore les maîtres de la situation ; qu'ils ont le pouvoir. Les pratiques sociales qui concernent la santé en sont un excellent exemple. La création de la Sécurité sociale n'entraine pas la disparition de toutes les mesures sociales prises pour protéger la santé des travailleurs : par exemple, la mutualité est maintenue. De plus, un infirmier est recruté en juin 1946 : il vient s'ajouter au médecin qui continue à recevoir des honoraires5 de la part de l'entreprise pour les visites qu'il effectue chez ses salariés. Ce recrutement s'effectue dans un contexte où la législation évolue6. Enfin, l'installation des bureaux de la Sécurité sociale 1 ADR, 34J222, réunion de la chambre syndicale du 30 janvier et réunion du comité de direction de l'ASMPL du 10 février 1945. 2 Ibidem, réunion du 10 février 1945 3 Ibidem, conseil de direction de l'ASMPL du 22 septembre 1944, puis commission exécutive du 28 septembre 1944. 4 ADI, 56J12, conseil d'administration du 28 juin 1946. 5 ADI, 56J60 et 56J61. Les honoraires et vacations du docteur Bal seront versés jusqu'à la fermeture de l'usine en 1966. 6 La loi du 11 octobre 1946 organise les services médicaux du travail et les rend obligatoire dans les entreprises. Les CHS créés en août 1947 vont ensuite travailler avec ces services. 106 parmi les bâtiments de l'usine est tout un symbole de l'appropriation de cette réforme ouvrière par le patronat des HFC : même le personnel est salarié par l'entreprise1. Les ouvriers sont à l'offensive pendant la période. Ils bénéficient de mesures légales qui soutiennent leur action : par exemple, la restauration de la légalité républicaine par ordonnance le 9 août 1944 redonne aux syndicats une liberté d'action. Des institutions ouvrières, les comités patriotiques les défendent au sein des entreprises dans lesquelles les patrons ne sont plus tous puissants. Même la justice en pratiquant l'épuration, parait un temps les soutenir. À Chasse, les revendications rejoignent celles de leurs camarades des autres usines concernant la vie chère : un cahier de revendications déposé aux Aciéries Marrel de Rive de Gier à la fin de l'année 1945 reprend cette thématique 2. Outre leurs syndicats, les ouvriers peuvent compter sur une presse qui leur est moins hostile : c'est au tour du patronat de se plaindre des campagnes de presse dont il fait l'objet 3. Toutefois, leurs actions paraissent inégalement coordonnées. D'une part, on trouve dans le cahier des charges de Rive de Gier toutes les revendications que l'on retrouve au niveau du bassin stéphanois : « contrôle des embauchages et des licenciements, institution d'un délégué [du comité patriotique] permanent, création d'une Commission paritaire, [], demande que les licenciés de 1938 soient réembauchés »4 ; or ce n'est pas le cas de Chasse, même si on peut néanmoins se demander dans quelle mesure ce n'est pas une lacune des sources. Ensuite, le 23 mai 1945, les usines du bassin de Rive de Gier sont en grève 5, sans que l'on ne retrouve trace d'un tel mouvement dans les archives des HFC. Le 2 juin 1947, les travailleurs des Aciéries de Saint-Étienne entament une grève perlée : ils rejoignent ceux des aciéries de Saint-Chamond et Marrel. À Chasse, une réduction de production a été votée, malgré une offre d'une prime importante de production6. Puis à la fin de l'année, une seconde grève touche l'usine pendant une dizaine de jours à partir du 21 novembre7. Mais si des aides aux grévistes sont votées par le conseil municipal de Givors, il n'y a pas trace de cela à Chasse au même moment, ce qui semble indiquer une moindre ampleur de la grève dans 1 Témoignage de Simonne Arcondara du 11/03/2013. Elle a été employée au bureau de la Sécurité sociale des HFC de 1948 à 1966, date à laquelle elle a du partir pour Givors où un bureau a été créé suite à la fermeture de l'usine. 2 ADR, 34J222, réunion du conseil de direction de l'ASMPL du 4 décembre 1945. 3 Ibidem, réunion du conseil de direction de l'ASMPL du 27 mars et du 29 mai 1945. 4 Ibidem, réunion du conseil de direction de l'ASMPL du 4 décembre 1945. 5 Ibidem, réunion du conseil de direction de l'ASMPL du 29 mai 1945. 6 ADL, 117J8, conseil d'administration du 12 juin 1947. 7 ADI, 56J12, conseil d'administration du 8 juin 1948. 107 la commune de l'Isère : les ateliers de l'usine sont à l'arrêt, mais pas ses hautsfourneaux1. Or en décembre 1947, les secours sont votés à Givors en raison de « la prolongation de la grève qui est quasi générale »2 : cela relativise encore – mais cette fois-ci dans la durée – la participation du personnel des HFC à un mouvement massif et long. Les primes ont-elles finalement eu un impact ? Ou s'agit-il plutôt de la menace, par ailleurs bien réelle, du bouchage d'un des deux hauts-fourneaux à la même époque3 ? Les sources ne nous apportent pas de réponse sur ce point. D'une manière plus générale, elles nous montrent cependant bien des ouvriers, dont la solidarité de classe est fluctuante dans le temps : cette dernière peut reculer, en fonction des circonstances, devant le rapport de force ou la coopération au niveau local. La réciproque est valable au niveau du patronat, comme le prouve cet exemple : alors que la consigne de ne pas reprendre de salariés licenciés en 1938 est en train d'être passée, certains patrons invoquent des mesures d'apaisement ou l'ignorance pour justifier qu'ils aient déjà effectué des réembauches, d'autres plus nuancés disent qu'il est possible de faire un choix parmi les licenciés de 19384. Mais si les « pratiques sociales des entrepreneurs sont constantes et inévitables », elles ne peuvent pas empêcher les luttes sociales, malgré les « contrats tacites mais croisés des fidélités »5. Néanmoins, on relèvera deux grands absents dans cette histoire : les femmes et les travailleurs étrangers. Les premières n'ont pas d'élues au comité d'entreprise ou de représentants dans les syndicats des HFC. À l'échelle du bassin industriel, aucune revendication ne les concerne spécifiquement, bien que, par exemple, la question des salaires – en leur défaveur –, soit posée : un abattement maximum de 20% est applicable à partir du 1 er novembre 1944, qu'elles soient ou non employées à la production, mais aucune femme n'est présente lors de ces négociations 6. Elles représentent cependant une partie non négligeable des personnels, et même de la main d'oeuvre ouvrière. Cela va dans le sens de ce qu'écrit Françoise Thébaud : « si les Françaises obtiennent des droits politiques par l'ordonnance du 21 avril 1944, elles ne deviennent pas pour autant, ni dans les têtes, ni dans les faits – il y a peu d'élues –, des 1 ADI, 56J12, conseil d'administration du 8 janvier 1948. AMG, 1D27, conseil municipal du 2 décembre 1947. 3 ADI, 56J22, compte-rendu du CA à l'AG du 28 juin 1949. 4 ADR, 34J222, conseil de direction de l'ASMPL du 22 septembre 1944. 5 SCHWEITZER Sylvie, « Paternalismes ou pratiques sociales ? », op. cit. p. 14. 6 ADR, 34J222, commission paritaire du 19 octobre 1944. 2 108 citoyennes à part entière, et cette mutation politique ne s'accompagne pas d'une mutation plus générale des droits féminins qui lui aurait donné tout son sens »1. Les seconds représentent la plus grande part des embauches des HFC : de 1945 au milieu de l'année 1947, il y a 437 embauches, mais en même temps 200 d'entre eux partent alors que la plupart sont arrivés dans la période. Ce fort turnover est observable ailleurs et même dans des proportions supérieures puisque Rossin – des Aciéries d'Ugine –, indique que lors d'une expérience dans son entreprise en 1946, à peine untiers de la main d'oeuvre nord-africaine embauchée était encore en place2. Une des raisons en est la faible constitution des travailleurs embauchés : il est conseillé aux employeurs de recruter des individus connus ou recommandés pour éviter ce problème3. Aux HFC, les refusés pour raison médicale ne représentent cependant que 9 des 148 causes de départ d'Algériens4. En revanche, cinquante-trois départs s'effectuent « après essai », et deux parce que les travailleurs n'ont « pas convenu », ce qui indique un refus de la part de l'entreprise. Soixante-sept départs sont justifiés par une « autorisation d'interruption de travail », ce qui indiquerait un accord à l'amiable entre employeur et salariés. Les autres causes représentent des effectifs plus faibles et sont sans signification précise ou malheureusement – pour dix-huit d'entre elles –, non renseignées ou illisibles : on notera cependant que cinq départs s'expliquent par des « absences » qui impliquent un comportement d'évitement. Les motifs de départ sont donc davantage liés au travail qu'à des problèmes de santé. En effet, de nombreux travailleurs viennent de douars et donc de la campagne. On peut comprendre que se retrouvant plongés dans un univers industriel aux machines gigantesques et dangereuses, loin de chez eux, ils soient particulièrement déboussolés. Le travail, essentiellement manuel et physique n'est pas non plus sans danger et l'un d'entre eux décède le 22 décembre 1946 à l'âge de vingtsept ans, vraisemblablement d'un accident de travail (la cause et le lieu de son décès ne sont cependant pas indiqués). Deux autres ouvriers étrangers de nationalités différentes décèdent eux aussi pendant ces deux ans et demi : un manoeuvre espagnol de quarantesept ans et un manoeuvre italien de soixante-et-onze ans. L'âge de ce dernier révèle qu'il faisait partie des « vieux travailleurs » que l'entreprise conserve en leur donnant des 1 THÉBAUD Françoise, Écrire l'histoire des femmes et du genre, op. cit., p. 95. ADR, 34J230, réunion de la Chambre syndicale de la sidérurgie du 26 avril 1946. 3 Ibidem, réunion du 9 octobre 1946. 4 AMC, cahier du personnel étranger numéro 12. 2 109 tâches moins pénibles1 : la cause du décès dans ce cas n'est vraisemblablement pas liée directement au travail. Les renvois pour sanctions apparaissent comme rares à Chasse parmi les motifs de départ, mais ils sont une possibilité utilisée comme exemple pour dissuader les autres travailleurs : c'est d'ailleurs ce que Charvet, délégué de la Chambre syndicale de la sidérurgie propose d'organiser avec l'Office National de l'Immigration et de mettre en pratique avec ses adhérents pour les travailleurs italiens2. Pour conclure, on peut dire que les rapports entre l'entreprise et ses salariés sont donc faits de coopération, d'intérêts partagés, mais aussi d'affrontements. Les travailleurs français, de sexe masculin, sont mieux considérés et traités que les femmes ou les travailleurs étrangers. Ces dernier.e.s sont cependant pris en compte de manière spécifique, le traitement des travailleurs étrangers paraissant particulièrement dur, notamment parce qu'on leur réserve les travaux de force. Cela provoque un fort turnover, mais ne débouche pas sur des mobilisations comme pour les travailleurs français. Ce sont ces derniers qui négocient avec les dirigeants des HFC. À Chasse, les rapports sont cependant moins conflictuels qu'ailleurs, même en 1947 quand débute une première phase d'affrontements qui reprennent en 1948 et s'étendent jusqu'en 19533. On perçoit néanmoins « un mécontentement social en quête d'expression collective »4, pendant l'après-guerre, au niveau local comme au niveau de la région de stéphanoise. La période allant de la Libération au déclenchement de la guerre froide voit un patronat censé être affaibli, se mobiliser et se défendre, négocier et préparer l'avenir malgré les difficultés. Dans le même temps, les ouvriers en position de force passent à l'offensive, obtiennent des avancées sociales, mais composent aussi avec le patronat. Conclusion : À la Libération, la Compagnie des Hauts-Fourneaux de Chasse-sur-Rhône a des dirigeants d'expérience. Elle possède des filiales minières et elle a un partenariat 1 Témoignages de Georges Charrier et Fernand Abel le 15/3/2000 et de Georges Charrier et Mohamed Safer le 22/04/2000. 2 ADR, 34J230, circulaire de la Chambre syndicale de la sidérurgie du 20 février 1947. 3 TARTAKOWSKI Danielle, « Classe ouvrière en guerre froide (1948-1953) », dans WILLARD Claude (dir.), La France ouvrière, op. cit., p. 261 sqq. 4 PIGENET Michel, « La Libération. Les mobilisations sociales à l'heure de la Reconstruction », dans PIGENET Michel et TARTAKOWSKY Danièle (dir.), Histoire des mouvements sociaux en France. De 1814 à nos jours, La Découverte, Paris, 2012, 800 p., p. 435. 110 privilégié avec son entreprise soeur, les Aciéries de Saint-Étienne qui ont le même président directeur général qu'elle. Elle a donc su participer au développement d'un modèle d'intégration vertical qu'elle partage avec les Aciéries de la marine, le véritable géant de la région. Elle doit faire face aux difficultés de la reconstruction et à la réorganisation du secteur de la sidérurgie. Le contexte politique a lui aussi changé, et il est favorable à des forces nouvelles issues de la Résistance. Le patronat régional en est en partie ébranlé. Le personnel de la Compagnie a fortement changé pendant la guerre. Les femmes et les travailleurs étrangers jouent un rôle clef dans les recrutements alors que la main d'oeuvre est un enjeu croissant dans le cadre de la relève, puis du STO. Aprèsguerre, les changements sont aussi importants car les recrutements reprennent à partir de 1946. Cette croissance repose à nouveau sur les travailleurs étrangers, en particulier Algériens. L'usine ayant été peu transformée en raison de la crise des années 1930 puis de la guerre, les faits marquants de la période sont l'énorme effort de production jusqu'en 1940, le non moins spectaculaire effondrement au moment de la défaite, puis la production médiocre jusqu'en 1944 où un point bas est atteint. À la libération, on prépare la relance des activités. Un haut-fourneau est rallumé le 7 juillet 1945, mais la marche à deux hauts-fourneaux ne date que du 25 janvier 1947. Avec le non redémarrage de la cokerie, cela témoigne des difficultés multiples qui freinent la reprise de l'activité. L'outillage est vétuste et les méthodes de travail nécessitent une main d'oeuvre importante1. Les ouvriers de métiers et les manoeuvres dominent. Les conditions de travail sont donc difficiles. Elles sont aggravées par les pénuries et l'attitude autoritaire de la direction, en particulier contre les travailleurs algériens pendant la guerre. Le travail est segmenté selon les sexes et les nationalités. À la Libération, la situation n'évolue guère et un effort important de production est demandé aux travailleurs immigrés de fraiche date. Cela permet de satisfaire les besoins en main d'oeuvre de l'usine alors que les travailleurs français sont en lutte plus ou moins ouverte avec leurs employeurs. Fin 1947, toutes les hypothèques de la fin du conflit n'ont pas été levées : l'incertitude quant à la croissance, mais aussi l'avenir de l'usine perdurent. 1 Situation comparable à celle du reste de la sidérurgie comme l'indique Philippe Mioche dans sidérurgie et l'État en France des années 1940, op. cit., p. 543-544. 111 CHAPITRE 2 : UNE CROISSANCE FRAGILE, 1947-1956 La période des Trente Glorieuses n'a donc pas commencé en 1945 à Chasse. Comme l'écrit Éric Hobsbawm à propos de l'ensemble de l'Europe : « la priorité absolue était [] de se remettre de la guerre »1. En 1947, l'usine a un niveau de production encore largement inférieur à celui de 1939-1940 : il reste comparable à celui des années de crise de l'avant-guerre. L'expansion se fait attendre et les projets de réorganisation de la sidérurgie menacent l'avenir de l'usine. Lors de la période suivante, l'horizon ne s'éclaircit pas pour autant. Les dirigeants doivent faire face à de nombreux enjeux, certains étant anciens et d'autres nouveaux. Parmi les premiers, il y a l'interventionnisme de l'État. En effet, si jusqu'en juin 1947 il a des « objectifs » mais « sans les moyens », tout change avec le « grand tournant du Plan Marshall2. De plus, le Plan Monnet lancé en 1946 s'achève en 1952. Mais si ce premier plan fait l'objet d'un consensus sur la « sélection des secteurs de base », à partir du second plan « l'objectif d'une croissance soutenue » s'applique alors à « l'ensemble des activités industrielles au-delà des " secteurs de base "»3. Ainsi, les politiques de l'État changent de moyens et de nature. Elles remettent alors en cause les relations traditionnelles avec la sidérurgie. C'est ce qu'entraine également la création de la Communauté Européenne du Charbon et de l'Acier ; l'État français n'étant plus un interlocuteur privilégié, il doit céder une partie de sa place devant des institutions supranationales : c'est ce que craignent d'ailleurs les sidérurgistes4. Mais l'ouverture des marchés européens qui suit 1 HOBSBAWM Eric J., L'Ère des révolutions, Editions Complexe, Paris, 2000, 417 p., p. 343. MARGAIRAZ Michel, L'État, les finances et l'économie, op. cit., p. 845-880 et p. 881-914. 3 MARGAIRAZ Michel, « Planification et politiques industrielles des années 1940 aux années 1960 : les trois figures du Plan », Politiques industrielles d'hier et d'aujourd'hui en France et en Europe , colloque international, académie François Bourdon, 30 novembre - 2 décembre 2006, 14 p., [pdf], http://www.ihs.cgt.fr/IMG/pdf_Michel_Margairaz_-_G2_-_Planification_et_politique_industrielle.pdf, [dernière consultation le 15 août 2013]. 4 MIOCHE Philippe, La sidérurgie et l'État en France des années 1940, op. cit., p.636 et suivantes. BERGER Françoise, La France, l'Allemagne et l'acier, op. cit., p.958 et suivantes. Dans une version plus polémique, LACROIX-RIZ Annie, Aux origines du carcan européen (1900-1960), La France sous influence allemande et américaine, Le temps des cerises, éditions Delga, Paris, 2015, 193 p., p.151. 2 112 la signature du traité de Paris peut avoir encore d'autres effets : il s'agit de voir quelles régulations mettre en place afin de succéder au système des ententes de l'avant guerre. Il faut alors établir une nouvelle législation dont l'application est confiée à la Haute autorité1. De plus, ce projet modernisateur repose sur des règles de fonctionnement libérales2. Il favorise donc une réorganisation de la sidérurgie, poussée à se concentrer, mais en « prolonge[a]nt des affinités financières et des stratégies industrielles repérables parfois dès le début du siècle »3. Ces changements concernant la sidérurgie s'effectuent dans un contexte politique et social plus large qui agit de différentes manières sur la branche et l'entreprise. Sans être exhaustif, on peut le présenter rapidement par un classement scalaire. Au niveau international à partir de 1947, la décolonisation et le développement de la guerre froide sont les faits les plus marquants. Or la Compagnie des HautsFourneaux de Chasse possède, par exemple, des activités en Algérie, ou embauche des travailleurs venant de territoires colonisés. Elle va devoir faire face à des transformations alors que s'affirme un « mouvement moderniste » qui ne voit pas d'intérêt pour le capitalisme français à conserver les colonies4, et que par ailleurs s'impose le « choix de l'Europe »5. La seconde échelle est nationale : la France achève sa reconstruction et débute alors une phase « d'expansion sans précédent »6 avec les autres pays développés ; phase marquée par un essor des niveaux de vie, des transformations dans les modes de vie ou l'urbanisation. Certains phénomènes peuvent enfin se jouer des échelles : par exemple, la longue période de luttes qui marque le début de la guerre froide de 1947 à 1953 s'inscrit à la fois à un niveau national et international. Ainsi, la maîtrise de la classe ouvrière française présente à la fois un intérêt pour les forces politiques et syndicales en présence en France, tout en pesant dans les rapports de forces entre les deux blocs7. 1 MIOCHE Philippe, Les cinquante années de l'Europe du charbon et de l'acier 1952-2002, Office des publications officielles des Communautés européennes, Luxembourg, 2004, 128 p., p. 15 sqq. 2 FREYSSENET Michel, La sidérurgie française 1945-1979, op. cit., p. 26-27. WORONOFF Denis, Histoire de l'industrie en France, op. cit., p. 514. Et plus largement sur la « conversion » aux politiques libérales dans l'après-guerre : DIDRY Claude et MARTY Frédéric, « La politique de concurrence comme levier de la politique industrielle dans la France de l'après-guerre », Gouvernement et action publique, n° 4, 2016, p. 23-45. 3 BOUVIER Jeau et CARON François, dans BRAUDEL Fernand et LABROUSSE Ernest (dir.), Histoire économique et sociale de la France, volumes 1-2, op. cit., p. 786. 4 MARSEILLE Jacques, Empire colonial et capitalisme français, Histoire d'un divorce, Albin Michel, 1984, 465 p., p. 351 sqq. 5 WORONOFF Denis, Histoire de l'industrie en France, op. cit., p. 511 sqq. 6 BAIROCH Paul, Victoires et déboire, tome 3, op. cit, p. 104 sqq. 7 TARTAKOWSKI Danielle, « Classe ouvrière en guerre froide (1948-1953) », op. cit., p. 262. 113 Toutefois, si les dirigeants de l'entreprise inscrivent leurs décisions dans un contexte qui évolue continuellement, leur personnel doit lui vivre et travailler. Or après avoir été fortement transformé par l'épreuve de la guerre, puis avoir participé au redémarrage de l'entreprise, il s'apprête à devoir affronter pendant une décennie ce nouveau contexte international, ainsi que les conséquences de la modernisation et de l'expansion de son entreprise. Quels sont alors les changements techniques intervenus ? Comment évoluent le travail et les embauches ainsi que les productions ? Quels sont alors les rapports du personnel avec les dirigeants de l'usine ? D'une manière générale, comment le personnel des Hauts-Fourneaux de Chasse vit-il cette première décennie des Trente Glorieuses ? I) Les enjeux de la modernisation D'après certains auteurs, la modernisation est un vocable qui a des sens divers et qui est souvent utilisé sans distance analytique1. Nous l'utilisons dans cette première partie surtout pour parler des transformations de l'outillage industriel de l'usine des Hauts-Fourneaux de Chasse et de leurs conséquences sur le processus de production. Ses conséquences sociales seront abordées plus loin. Pendant les Trente Glorieuses, Jean Fourastié – qui est un partisan de cette modernisation –, voit en elle une transformation positive de la société et de l'économie fondée sur le progrès technique, lui-même directement dérivé de la méthode scientifique expérimentale. Toujours selon lui : « [s]i ce progrès technique n'était pas intervenu, aucun des phénomènes économiques contemporains ne se serait produit. La production n'aurait pas été croissante »2. Une première interrogation peut alors déjà porter sur la réalité des liens entre modernisation et progrès, cette réalité étant remise en cause par divers chercheurs contemporains quand d'autres « paraphrasent encore sans distance » – selon ce qu'en disent les premiers –, les écrits de Jean Fourastié3. 1 BONNEUIL Christophe, PESSIS Céline, TOPÇU Sezin (dir.), Une autre histoire des « Trente Glorieuses », La Découverte, Paris, 2013, 309 p., p. 12. 2 FOURASTIÉ Jean, Le grand espoir du XXe siècle, Gallimard, Paris, 1963, 372 p., p. 120-121. 3 BONNEUIL Christophe, PESSIS Céline, TOPÇU Sezin (dir.), Une autre histoire des « Trente Glorieuses », op. cit., p. 13. 114 En changeant d'échelle, c'est-à-dire en passant de l'économie nationale à la branche, une seconde réflexion peut concerner les liens entre modernisation et évolution de la sidérurgie. Dans un ouvrage déjà ancien, Catherine Omnès et Michel Freyssenet indiquent que les installations neuves de laminages sont privilégiées dans les premier et deuxième plans, et que ce n'est qu'à partir du troisième (1957-1960) que l'on investit dans des installations nouvelles de production de fonte et d'acier : jusque-là on se contente de « rapiéçage » dans les usines anciennes1. L'expression de « rapiéçage » se retrouve employée sous une forme plus « régionale » par Henri Malcor qui parle de « rapetassage » ; ce qui consiste à maintenir en bon état un outillage ancien, voire de n'en modifier que certaines parties dans le but de « moderniser aux moindres frais »2. Or pour Catherine Omnès et Michel Freyssenet, les restructurations de l'après-guerre aboutissent à une concentration essentiellement financière et non technique, « empêchant ainsi la sélection des meilleures installations et l'élimination des usines vétustes »3. Ces auteurs constatent un retard de la sidérurgie française face aux sidérurgies concurrentes et voient dans ce facteur l'une des causes de la crise future de ce secteur : alors que les sidérurgies allemande, italienne, hollandaise et japonaise font le choix des usines intégrées, les gains de productivité acquis dans le laminage sont « obérés par le retard au niveau des hauts-fourneaux et des aciéries »4. Dans un texte plus ancien, Michel Freyssenet avait déjà développé des thèses semblables 5. Il avait cependant apporté quelques précisons supplémentaires : d'après lui le rapiéçage des usines et l'installation des trains à large bande s'explique par le choix de limiter les risques financiers et sociaux. La première limitation, celle des risques financiers, est obtenue par la réduction des investissements les plus importants à la seule activité de laminage. Cela permet également de réduire l'impact de la modernisation sur l'emploi, puisque seules certaines activités sidérurgiques sont concernées6. En revanche, si Philippe Mioche partage le constat de la vétusté d'une partie des usines françaises en 1945, il ne constate pas de retard significatif par rapport aux autres sidérurgies en ce qui 1 FREYSSENET Michel et de OMNES Catherine, La crise de la sidérurgie française, op. cit. p. 25. MIOCHE Philippe et ROUX jacques, Henri Malcor : un héritier des maîtres de forges, op. cit., p. 108109. 3 Ibidem, p. 38. 4 Ibidem, p. 26. 5 FREYSSENET Michel, La sidérurgie française 1945-1979, op. cit., p. 14-17 sur le retard dans la division du travail et la mécanisation par rapport aux autres sidérurgies, p. 23-24 sur le choix des trains à large bande pour le laminage continue, p. 24-25 sur le rapiéçage des usines, p. 25-26 sur les objectifs non atteints du premier Plan en ce qui concerne la productivité et les restructurations. 6 Ibidem, p. 23-24. 2 115 concerne la taille des installations1. Françoise Berger parle aussi de la vétusté des usines, mais elle apporte une précision supplémentaire en ce qui concerne l'usure d'un matériel qui a été poussée au maximum de son potentiel pendant le conflit 2. De plus, si elle note elle aussi l'effort particulier porté sur l'installation de trains à large bande, elle cite aussi Roger Biard qui montre que les investissements de 1947 à 1953 ne se limitent pas à ces outillages : les laminoirs représentant certes 30,3 % des investissements de la période, mais les cokeries en représentant également 7,9 %, les hauts-fourneaux 17,1 %, les installations de préparation de charge 5,1 %, les équipements électriques 15,9 % et les maisons 8,6 %3. Pour Chasse-sur-Rhône, le rapport des commissaires aux comptes de l'entreprise rédigé en mai 1948 évoque un nouveau contexte marqué par la nationalisation de la société Bonne et Drac impliquant un recentrage sur l'usine iséroise : ce document justifie « les transformations d'outillage reconnues opportunes »4. Mais le sujet est abordé la première fois lors du conseil d'administration du 7 octobre 1947 : un programme de modernisation en date de juin 1946 est alors évoqué 5. Il s'agira donc de voir quels sont les projets de changement technique dans l'usine de Chasse, comment ils sont mis en oeuvre, avec quels objectifs et comment le contexte économique et politique influence l'ensemble. 1) Les choix techniques Peu de constructions nouvelles ont été réalisées dans l'usine immédiatement après la Libération, sauf quelques réalisations pour parer au plus pressé. Elles ne constituent en aucune façon un programme de modernisation. Ce dernier a été élaboré puis adopté en même temps que ces constructions qui ne sont que de simples prémices de la relance. Il va alors se déployer sur plusieurs années. On ne sait pas grand-chose des détails du programme initial de modernisation de l'usine de juin 1946. Il est 1 MIOCHE Philippe, La sidérurgie et l'État en France des années 1940, op. cit., p. 31-32. BERGER Françoise, La France, l'Allemagne et l'acier, op. cit., p. 681. 3 BERGER Françoise, La France, l'Allemagne et l'acier, op. cit., p. 718. Elle cite BIARD Roger, La sidérurgie française, Paris, 1958, p. 180. 4 ADI, 56J22 et 56J24. 5 ADI, 56J12. 2 116 présenté au conseil d'administration du 7 octobre 19471 par François Tavernier, alors ingénieur principal. On sait cependant qu'il s'agissait de reconstruire le haut-fourneau n° 3 pour le porter à une capacité de consommation de 200 tonnes de coke par jour. Les administrateurs ajoutent un projet d'adjonction d'une machine à couler et d'appareils de manutention. Jean Demoule, le directeur de l'usine, présente également un projet à l'étude sur le transbordement des grands wagons vers les estacades des hauts-fourneaux. On notera que l'ensemble des transformations projetées concerne les hauts-fourneaux, même si la réalisation du programme a touché également d'autres ateliers. Les informations concernant le coût précis des installations sont difficiles à réunir. Divers éléments peuvent en effet faire penser que la gestion est perfectible, voir qu'elle manque de rigueur : par exemple, le coût total de ce programme de modernisation est d'abord évalué de « 150 à 300 millions de francs » lors du conseil d'administration du 27 avril 19482. On relèvera le fort écart entre ces deux chiffres, du simple au double. Ensuite, des écarts importants sont observables entre l'estimation, la commande et le coût final. Par exemple, entre le prix commande et celui payé après l'installation de la machine à couler, on constate un écart d'au moins 23,180 millions de francs, soit une différence de prix supérieure ou égale à 31,3 % par rapport à celui de départ. D'ailleurs, à propos de la gestion de l'entreprise soeur des HFC, Henri Malcor disait que la comptabilité des Aciéries de Saint-Étienne était « archaïque »3. Or on sait qu'un certain nombre de dirigeants de l'entreprise stéphanoise sont aussi administrateurs des HFC. Mais on peut relativiser ces constats pour plusieurs raisons. Tout d'abord, parce que dans le même livre où Henri Malcor émet des critiques à propos des méthodes comptables de certains dirigeants de Chasse, Philippe Mioche et Jacques Roux évoquent la difficulté à déchiffrer, en général, les comptes d'entreprises4. Ces derniers étant réservés principalement aux dirigeants, les imprécisions comptables ne seraient donc pas le fruit de négligences, mais pourraient être plutôt celui d'imprécisions ou d'oublis volontaires afin de réserver la compréhension des informations clefs à ceux qui sont « initiés ». Ensuite, on peut ajouter que l'évaluation d'investissements de grande ampleur est un exercice difficile, alors que prix de commande ou prix final sont eux 1 ADI, 56J12. ADI, 56J12. 3 MIOCHE Philippe et ROUX jacques, Henri Malcor : un héritier des maîtres de forges, op. cit., p. 102. 4 MIOCHE Philippe et ROUX jacques, Henri Malcor : un héritier des maîtres de forges, op. cit., p. 1516. Les auteurs citent BOUVIER Jean, Initiation aux mécanismes économiques contemporains, 1977, p. 219. 2 117 connus. Dans ce cas, l'utilisation d'une fourchette large pour estimer un prix futur peut alors relever de méthodes prudentes de gestion afin d'anticiper des surcoûts imprévus. Enfin, la forte inflation de la période1 entraine nécessairement des différences, sur dix ans, entre la valeur des investissements prévus et le coût des équipements réalisés. Ainsi, l'indice du coût de la vie indiquant une augmentation de 26,6 % de 1949 à 1951 ou celui des prix de gros augmentant de 38,3 % sur la même période 2 ; cela relativise le surcoût d'au moins 31,3 % occasionné par la construction de la machine à couler. En se référant aux documents de l'entreprise, on peut évaluer le coût de cet ambitieux programme de modernisation à plus de 500 millions de francs. Or en plus des gros équipements évoqués ci-dessus, il compte différents aménagements de plus petite dimension dont le cumul est coûteux : on a un magasin à modèle ainsi qu'une étuve pour la fonderie et des estacades à ferraille (1947), des estacades de déchargement des wagons ; mais aussi un pont à laitier sec pour la cimenterie, une bascule pour peser la fonte et un rallongement de la fonderie (1951-1952), et diverses constructions de bureaux dans plusieurs services (entre 1947 et 1956)3. Le coût de l'allongement du bâtiment de la fonderie est à lui seul de dix millions de francs. Ensuite, un nouvel atelier consacré au broyage des tournures est achevé en 1950. Il s'agit d'acheter de la ferraille et de récupérer les déchets métalliques de l'usine, pour les recycler en matière première et les réutiliser pour le haut-fourneau. Il est équipé d'une presse Lindeman acquise en 1950. Il y a encore la participation à la réfection de l'embranchement de la SNCF reliant l'usine à la gare que l'on évalue à 3,3 millions de francs en 1950. Du matériel tombant en panne doit être changé comme cette chaudière de la marque l'Alsacienne dont l'arbre d'un des moteurs se casse après trente-huit ans de service « pour une cause inconnue », indication qui paraît être sérieusement notée dans les comptes-rendus du conseil d'administration4. Enfin, hors matériel ou construction dans l'usine, de lourds investissements sont encore effectués dans le logement des personnels. Le montant total des actifs immobilisés pour l'usine de Chasse est de 713 285 250 francs à la fin de l'exercice 1955-1956, amortissements déduits ; 1 L'inflation est évaluée à + 60 % par an de 1946 à 1948, pour tomber cependant à moins de 5 % par an de 1953 à 1956 : dans TAVERNIER Jean-Luc (dir.), Trente ans de vie économique et sociale, INSEE, Paris, 2014, 160 p., p. 122-123. 2 Annuaire statistique de la France, résumé rétrospectif, INSEE, Paris, 1966, 752 p., p. 377 et 388. 3 ADI : 56J12, 56J22, 56J24, 56J59. 4 ADI, 56J12, conseil d'administration du 24 octobre 1952. 118 1 333 678 795 francs si on ne compte pas les amortissements1. Le montant des actifs immobilisés ne s'élevaient qu'à 2 965 426, 64 francs lors de l'exercice 1945-1946 : on mesure le chemin parcouru. Mais les sources étant insuffisamment précises, il est difficile d'aller plus loin dans l'étude des coûts du programme de modernisation. On aurait pu, par exemple, comparer les investissements au chiffre d'affaire cumulé ou aux bénéfices cumulés sur la période. Mais ces dernières données concernent l'entreprise : il faudrait alors pouvoir distinguer l'usine de Chasse des filiales. De plus, bien des chiffres provenant des archives sont des arrondis, en particulier en ce qui concerne les chiffres d'affaire annuels. On n'indiquera donc ces données comparées que pour estimer l'importance des investissements : on a 16,5 milliards de francs pour le chiffre d'affaire cumulé et 369 353 784,34 de francs pour les bénéfices2. Par conséquent, les investissements de matériels parmi les plus lourds accomplis dans l'usine – machines à couler, haut-fourneau, etc. – représentent plus de 4,3 % du chiffre d'affaire de l'entreprise sur la période juin 1947-juin 1956 ; mais si on prend les actifs immobilisés hors amortissements, on est au dessus des 8 %. Ensuite, si on fait la comparaison avec les bénéfices cumulés, les principaux investissements représentent plus de 193 % dans le premier cas, quand les actifs immobilisés hors amortissement sont à 361 % : malgré l'imprécision de ces calculs, on peut voir là que pendant près de dix ans le programme de modernisation a été supérieur à la recherche des profits. Document 2: La machine à couler des hauts-fourneaux n° 2 et n° 3. 1 2 ADI : 56J30. ADI : 56J12, 56J22. 119 Document 3 : Coulée de fonte au Haut-fourneau n° 31. 2) La modernisation, le personnel et la concurrence Le programme de modernisation de l'usine des Hauts-Fourneaux de Chasse est le plus important depuis la Première Guerre mondiale en ce qui concerne le matériel. Pour la construction d'habitations ou de logements, il faudrait évoquer cette période et les années 1920. On peut alors se demander ce que sont les objectifs d'un programme aussi conséquent, sachant que l'on attend forcément un retour proportionnel au risque que l'on prend, ainsi qu'à l'investissement que l'on fait. La lecture des conseils d'administration fait apparaître deux thématiques principales concernant le personnel et la concurrence. Ce programme de modernisation est abordé pour la première fois en conseil d'administration en octobre 1947. Le projet est centré sur la modernisation du hautfourneau n° 3 afin que ce dernier se substitue à une marche à deux hauts-fourneaux plus 1 Sources des documents 2 et 3 : Michel Paret. 120 petits pour obtenir « une économie importante de main d'oeuvre »1. Le conseil retient ce projet, à condition « que la dépense et l'économie à prévoir soient chiffrées [] en visant aussi l'installation d'une machine à couler et les modifications à étudier pour les moyens de manutention ». Ce sont donc les éléments principaux du programme de modernisation qui sont concernés : haut-fourneau moderne, machine à couler, estacades et monte-charge. Ce qui est recherché est l'« économie » importante de main d'oeuvre. Il s'agit donc d'économiser les effectifs. On cherche donc à embaucher moins de personnels pour pallier des difficultés de recrutement. Ces dernières sont réelles durant l'après-guerre pour les industries sidérurgiques, même si on a trouvé la solution à Chasse en faisant appel à la main d'oeuvre algérienne. Mais il s'agit surtout de faire des économies sur les coûts occasionnés par l'embauche de la main d'oeuvre. La suite du texte rejoint cette logique : les administrateurs mettent en parallèle le chiffrage de « la dépense et de l'économie » à prévoir, comme si les amortissements des investissements devaient être compensés par la diminution des frais de personnel. Toujours lors de cette même séance, à propos des moyens de manutention, on parle d'éviter la dépense importante de l'élévation et du transbordement des grands wagons sur les estacades : bon nombre d'activités de ce type sont effectuées « à bras » selon l'expression employée par Fernand Abel2, c'est-à-dire grâce à la force humaine. On imagine alors facilement le nombre d'emplois que l'on pourrait supprimer si on les remplaçait par des machines. Au CA du 27 avril 1948, on évoque encore « l'économie de main d'oeuvre attendue correspon[d] à un amortissement sur plus de dix années »3 : donc calcul de rentabilité et d'amortissement intègrent bien des « économies » en frais de main d'oeuvre obtenues grâce au plan de modernisation. Ainsi, bien que comme l'indique Philippe Mioche4 et comme le démontre largement la lecture des comptes-rendus des conseils d'administration des HFC 5 « les matières premières passent avant les hommes » dans l'estimation des coûts pendant les Trente Glorieuses, la main d'oeuvre n'en est pas non plus complètement absente. Toutefois, le souci de recrutement d'effectifs suffisants pour le bon fonctionnement de l'usine et la recherche de gains de productivité n'épuisent pas à eux seuls les objectifs du plan de modernisation mené par les HFC. Un regard sur les 1 ADI, 56J12, conseil d'administration du 7 octobre 1947. Témoignage de Georges Charrier et Fernand Abel le 15/3/2000. 3 ADI, 5612. 4 MIOCHE Philippe, La sidérurgie et l'État en France des années 1940, op. cit., p. 191. 5 ADI, 56J12 et 56J13. 2 121 pratiques des concurrents est également constamment porté : il est possible de décliner cela en plusieurs thématiques. Cela peut être à propos de la surveillance des rendements et de l'amélioration de l'outillage afin de mener une comparaison et d'en tirer des leçons : par exemple, au début de la mise en place du programme de modernisation de Chasse, Lucien Cholat fait un exposé « au sujet de la lutte contre les prix de revient des hauts-fourneaux de l'Est »1. Il peut s'agir aussi du choix du matériel : par exemple, l'entreprise Delattre et Frouard chargée de rénover l'appareillage de manutention s'inspire de ce qui a été fait en Grande Bretagne : on s'intéresse en particulier à l'usage de transporteuses en caoutchouc2. Il peut s'agir encore de choix stratégiques à effectuer en évaluant cette même concurrence. On peut citer le débat qui va animer pendant plusieurs mois le conseil d'administration à propos du bon dimensionnement du futur haut-fourneau moderne de l'usine : faut-il pour cet appareil une capacité de 200, 220 ou de 300 tonnes de consommation quotidienne de coke ? Lors du conseil du 27 avril 1948, la stratégie des hauts-fourneaux voisins de Givors est estimée : en cas d'augmentation de la demande future de fonte hématite, il s'agit d'être bien positionné face à ce concurrent qui augmenterait lui aussi sa production. Or d'après la même source, le tonnage de production de l'usine de Chasse a été souvent supérieur à celui de Givors, la preuve étant qu'au sein de l'Union des Groupements de producteurs de fonte Hématite le quantum de la première était supérieur à celui de la seconde 3. La crainte d'être « en retard d'une étape pour l'abaissement nécessaire [des] prix de revient »4 pousse les dirigeants des HFC à choisir l'appareil de plus grande capacité. Ce choix repose également sur une estimation du marché futur, au niveau national et européen. Par conséquent, alors que Michel Freyssenet affirme que la France est en retard dans le domaine de la mécanisation pour son industrie sidérurgique en générale, comme pour ses hauts-fourneaux en particulier5, on peut remarquer qu'à Chasse cette préoccupation n'est pas absente. Cependant, le contexte économique et politique dans lequel se déploie le plan de modernisation va avoir un fort impact sur celui-ci ; cela va également en partie modifier ses objectifs. 1 ADI, 56J12, conseil d'administration du 8 janvier 1948. Ibidem, conseil d'administration du 7 octobre 1947. 3 ADI, 56J12. 4 Ibidem, conseil d'administration du 8 juin 1948. 5 FREYSSENET Michel, La sidérurgie française 1945-1979, op. cit., p. 15-16. 2 122 3) La modernisation et le contexte économique et politique Du second trimestre 1947 à 1956, le contexte dans lequel le plan de modernisation des HFC va être mis en oeuvre connait plusieurs évolutions majeures liées aux transformations économiques et politiques. Les échelles d'études sont multiples. Au niveau régional, il y a la concurrence avec les hauts-fourneaux voisins, ceux de Givors, ainsi que la réorganisation des grandes entreprises sidérurgiques, fait majeur de la période : elle aboutit à la création de la Compagnie des Ateliers et Forges de la Loire1 dont les HFC sont des fournisseurs. À l'échelle nationale, le Plan Monnet – après l'« invention » des secteurs de base dont la sidérurgie fait partie2 –, ne « trouve son sens, et son efficacité qu'avec le Plan Marshall »3. Enfin, au niveau européen, après le Plan Schuman, la naissance de la CECA a des effets économiques et sociaux qui « ne se résument [] pas à l'augmentation des échanges »4. De fait, la nomination de Léon Daum comme membre de la Haute autorité de la CECA peut être décrite comme l'arrivée d'un représentant de la sidérurgie française de premier plan au niveau européen5. Mais elle devient, à l'échelle locale, un événement capital : elle signifie la nomination à un poste de pouvoir d'un des dirigeants de la Compagnie des Aciéries de la Marine, la principale rivale du réseau d'entreprise auquel appartiennent les HFC. On peut alors distinguer quatre temps forts dans cette histoire6. Le premier a commencé à la fin de la guerre et s'achève en 1948. Il correspond aux projets et discussions à propos de la modernisation et de la réorganisation de la sidérurgie. Le second est la création de la CAFL. Le troisième voit la relance des projets de rapprochement entre les Hauts-Fourneaux de Chasse et ceux de Givors de la part des autorités. Enfin, l'année 1956 marque le début d'une quatrième période pendant laquelle les projets de réorganisation redeviennent essentiellement des enjeux locaux et régionaux dont les dirigeants d'entreprise sont les acteurs principaux. Le personnel des 1 AN 2012 026 602, Établissements Jacob Holtzer : assemblées et conseils d'administration, convention d'apport du 10 novembre 1953 entre Marine et les Établissements Jacob Holtzer (1953) ; Compagnie des Forges et Aciéries de la Marine et de Saint-Étienne : assemblées générales, détail des apports (19531958). 2 MARGAIRAZ Michel, « Planification et politiques industrielles », op. cit., p. 3. 3 MIOCHE Philippe, La sidérurgie et l'État en France des années 1940, op. cit., p. 589 sqq. 4 Ibidem, p. 636 sqq. 5 BERGER Françoise, La France, l'Allemagne et l'acier, op. cit., p. 990 et MIOCHE Philippe, La sidérurgie et l'État en France des années 1940, op. cit., p. 651-652. 6 Cf. annexe 5. 123 HFC est spectateur de ces transformations, mais il en subit les conséquences à travers l'évolution des politiques de production de l'entreprise et donc, in fine, de ses conditions de travail. a) 1946-1948 : des sidérurgistes de la Loire divisés De 1945 à 1948, les HFC sont donc tout d'abord concernés par la modernisation et la réorganisation de la sidérurgie française. Les projets de modernisation remontent à la guerre. Comme on l'a vu plus haut, Alexis Aron mène ces projets, dans le cadre du CORSID puis de l'OPSID, jusqu'en 1946. Puis, les commissions de modernisation et d'équipement du Plan prennent le relai. Celle de la sidérurgie est constituée le 9 mars 1946. Eugène Roy la préside, mais Alexis Aron en est également membre1. Néanmoins, avec la disparition de l'OPSID ce dernier n'a plus de moyen d'intervention auprès de ses collègues : c'est ce qui explique d'après Philippe Mioche2 la « mise à mort » des projets de rationalisation. Certes, Françoise Berger insiste davantage sur la crainte de l'interventionnisme de l'État pour expliquer les tensions entre le Plan et la Chambre syndicale de la sidérurgie3, mais on suivra plutôt Philippe Mioche qui souligne lui le poids des divisions internes et décisions personnelles, en particulier celle de François de Wendel4. Toujours selon lui, les Schneider et de Wendel sont à l'origine des blocages, en refusant notamment les regroupements. Ils sont d'ailleurs soutenus par une partie de la profession5. Par la suite, pendant plusieurs années, l'investissement dans deux trains à chaud de laminoirs à large bande occupe les débats : le Nord puis l'Est sont choisis6, mais non la sidérurgie du Centre. À l'échelle régionale, on retrouve des affrontements comparables. On peut citer l'exemple des dirigeants des Aciéries de Firminy parlant de manière acerbe en 1946 d'un « projet qui sous couleur de rationalisation, apparaît en réalité comme un essai d'élimination de Firminy par ses concurrents directs »7. En effet, comme à l'échelle nationale pour le train à large bande, le projet d'installation d'un blooming crée des 1 MIOCHE Philippe, La sidérurgie et l'État en France des années 1940, op. cit., p. 590. Ibidem, p. 594. 3 BERGER Françoise, La France, l'Allemagne et l'acier, op. cit., p. 721. 4 MIOCHE Philippe, La sidérurgie et l'État en France des années 1940, op. cit., p. 601 et p. 608. 5 Ibidem, p. 595. 6 Ibidem, p. 598 sqq. 7 Cité par Monique Luirard dans LUIRARD Monique, La région stéphanoise , op. cit., p. 787. 2 124 tensions entre sidérurgistes. Pierre Cholat essaie de le faire installer à Saint-Étienne dès 19451, ce qui provoque la réaction hostile des dirigeants des Aciéries de Firminy, comme on vient de le voir, mais aussi celle de Marrel2. Cela est bien plus grave car les dirigeants de cette entreprise sont historiquement des alliés de ceux de Saint-Étienne et l'un d'entre eux est administrateur des HFC. En 1948, la dispute n'est toujours pas close : par exemple, les Aciéries de Saint-Étienne souhaitent émettre des réserves auprès de l'Association technique de la sidérurgie quant à l'installation d'un blooming chez Marrel3. Les aciéristes de la Loire sont donc divisés. À l'échelle locale, la Compagnie des hauts-fourneaux et fonderies de Givors se lance elle aussi dans un plan de modernisation de son outillage. Son programme débute en 1945 et s'achève en 19494. Elle modernise sa fonderie et son atelier d'agglomération des minerais. L'entreprise est rivale de Chasse pour fournir les aciéries Martin de la région. Or le rapport Aron a souhaité dès 1945 le rapprochement entre les deux usines. La commission évoque ensuite l'installation d'un haut-fourneau moderne pour un espace usinier rationalisé entre Givors et Chasse sans préciser la répartition des activités. Sa capacité de production de 500 tonnes/jour équivaut à une consommation de 300 tonnes de coke, ce qui correspond aux caractéristiques du haut-fourneau n° 3 – ce que ne manquent pas de rappeler les administrateurs de Chasse –, cherchant à trouver-là une légitimité à leur programme5. Ils cherchent aussi à faire en sorte que la concentration des deux usines se fasse davantage sur le site de Chasse que sur celui de Givors6. La Compagnie des Forges et Aciéries de la Marine et d'Homécourt est au coeur des discussions portant sur la modernisation et la réorganisation de la sidérurgie française. Avec Schneider, elle est l'un des deux géants de la région centre. Elle est aussi présente dans diverses régions dont la Lorraine à Homécourt, où elle a fondé depuis longtemps une alliance avec Micheville et Pont-à Mousson7 (que l'on appelle « Marmichpont »). L'un de ses principaux dirigeants, Henri Malcor, est membre de la 1 LUIRARD Monique, La région stéphanoise , op. cit., p. 787 et ADL, 117J8, conseils d'administration des 5 septembre et 10 novembre 1945. 2 ADL, 117J8, conseil d'administration du 8 février 1946. 3 ADL, 117J8, conseil d'administration du 25 mai 1948. 4 ADR, 34J7, rapport du CA à l'AG ordinaire du 2 juin 1949. 5 ADI, 56J12, conseil d'administration du 27 avril 1948. 6 Ibidem. 7 MIOCHE Philippe et ROUX jacques, Henri Malcor : un héritier des maîtres de forges, op. cit., p. 318319. 125 commission de modernisation de la sidérurgie 1 dont il va savoir, d'après Philippe Mioche, « capter l'héritage » pour son entreprise2. À l'échelle régionale, Marine est à l'écoute des projets des Aciéries de Saint-Étienne : elle étudie avec eux le projet d'une fusion dès 19463. Mais elle négocie aussi une entente avec Marrel4. Par conséquent, les divisions entre industriels lui conviennent : elle négocie, voire passe des accords avec les uns et les autres, tout en étant épargnée par les débats autour de la modernisation ; mieux, elle est en position d'arbitre. Enfin, au niveau local, elle possède plusieurs administrateurs aux hauts-fourneaux voisins de Givors ; dont Léon Daum, Joseph Roederer et Jacques Laurent5. Ce sont ces hauts-fourneaux qui fournissent ses aciéries Martin. Un dernier élément est à évoquer : il s'agit de la nouvelle place que tend à prendre la sidérurgie de l'Est au niveau des productions sidérurgiques françaises. Après 1945, elle se lance dans la fabrication des aciers spéciaux et entre en concurrence avec la Loire qui s'était spécialisée depuis longtemps dans ce domaine. En 1950 par exemple, cela provoque une baisse de la production d'acier brut qui tombe à 180 500 tonnes en employant pour cela 14 700 ouvriers ; par comparaison, les chiffres étaient de 314 600 tonnes en 1938-39 pour 19 900 ouvriers6. Or d'après Monique Luirard, les Lorrains pratiquent un véritable dumping, acceptant des pertes sur la vente des aciers spéciaux en les compensant par celle d'aciers ordinaires qu'ils ont toujours vendu 7. C'est ce que confirme Philippe Mioche en ajoutant qu'un véritable ultimatum est lancé à la sidérurgie de la Loire : ils ont dix mois, puis à défaut d'accord entre eux, la commission du Plan indique qu'elle renoncera à passer un accord d'autolimitation avec la sidérurgie du Nord ou de l'Est : la sanction est appliquée en décembre 19478. La situation se dégrade donc dans la Loire et à Saint-Étienne en particulier9 : la Direction de la sidérurgie note que cette entreprise est en effet plus fragile que ses concurrents, car 1 MIOCHE Philippe, La sidérurgie et l'État en France des années 1940, op. cit., p. 590. Ibidem, p. 609. 3 LUIRARD Monique, La région stéphanoise , op. cit., p. 790. 4 Ibidem, p. 791. 5 Respectivement directeur général, directeur des usines de la Loire et président de Sidelor ; ADR, 34J7 et Les Annales des Mines, http://www.annales.org/. 6 ADL, 108VT21, cabinet du préfet, situation actuelle de la sidérurgie de la Loire. 7 LUIRARD Monique, La région stéphanoise , op. cit., p. 786. 8 MIOCHE Philippe, La sidérurgie et l'État en France des années 1940, op. cit., p. 44. 9 Ibidem, p. 44. Les archives du conseil d'administration des Aciéries stéphanoises parlent d'un « effondrement du chiffre d'affaire » ; ADL, 117J8, conseil d'administration du 14 octobre 1948. 2 126 moins spécialisée1. Ce nouveau contexte va aboutir à la création de la Compagnie des Ateliers et Forges de la Loire. b) De 1948 à 1956 : la transformation des rapports de force locaux La période suivante est en effet caractérisée à l'échelle française par « des opérations de regroupement et de restructuration [marquant] les années 1948-1953 »2, entrainant la création de Sidelor en 1950 ou de Lorraine-Escaut en 19533. Dans la Loire, il s'agit de la CAFL. Toutefois, sa création passe par une première étape : celle de la naissance de la Compagnie des Forges et Aciéries de la Marine et de Saint-Étienne, c'est-à-dire de la fusion de l'entreprise dirigée par Théodore Laurent avec celle dont Pierre Cholat est le Président. Deux facteurs principaux expliquent ce rapprochement : l'accroissement de la concurrence de la sidérurgie de l'Est – comme on l'a dit ci-dessus – et le Plan Schuman. Ces deux éléments conjoncturels majeurs ont été décisifs – de l'aveu même de Pierre Cholat –, pour expliquer le rapprochement entre les Aciéries de Saint-Étienne et celles de la Marine et d'Homécourt. La reprise des pourparlers de rapprochement en 1949 correspond à cette chronologie4. Il en témoigne dans les documents de ces entreprises : en 1949, avant même l'annonce du Plan, il déclare que l'enjeu est de « maintenir dans la Loire une fabrication importante de tôles fortes, pour utiliser plus complètement la capacité de production de nos fours Martin et résoudre ainsi les difficultés dont notre équilibre industriel serait menacé par la création des trains Usinor à Denain et Sollac à Hayange »5. Or ensuite, il « signale la gravité du plan présenté le 9 mai 1950 par le Gouvernement français [] il devrait notamment en résulter un abaissement de la protection douanière nécessaire à la sidérurgie des régions frontières pour appuyer ses exportations sur le marché intérieur et celui de l'Union française, la place encore réservée à la sidérurgie du Centre-midi risquerait de se resserrer. Il y a lieu 1 Ibidem, p. 939-940. CARON François et BOUVIER Jean, « Structure des firmes, emprise de l'État », dans BRAUDEL Fernand et LABROUSSE Ernest (dir.), Histoire économique, op. cit., tome IV, volumes 1-2, p. 785. 3 FREYSSENET Michel, La sidérurgie française 1945-1979 , op. cit., p. 24-25. 4 AN, 2012 026 601. 5 ADL, 117J8, conseil d'administration du 4 novembre 1949. Il ne dit pas autre chose au conseil d'administration des HFC : ADI, 56J12, le 2 mars 1950. 2 127 de suivre avec attention les discussions ouvertes autour du plan Schuman »1. Pierre Cholat a donc craint d'abord la concurrence qui se renforce de la sidérurgie Lorraine et du Nord2 : on est au début du processus qui l'a amené à accepter la fusion donnant naissance à la Compagnie des Forges et Aciéries de la Marine et de Saint-Étienne. Mais il évoque aussi plus tard qu'en « raison de l'orientation de la préparation du Plan Schuman il a été amené à conclure à la fusion » : il fait donc de la création de la CECA l'élément déclenchant3. Toutefois, ces déclarations laissent croire que c'est avec son acceptation que la fusion a pu avoir lieu. Or l'examen des faits commande d'être plus nuancé. En plus de la conjoncture subie et malgré le soutien des HFC lors de son augmentation de capital en 1948, Marine profite de cette opération pour entrer à son conseil d'administration en la personne de Léon Daum, son directeur général4. Ce dernier prépare avec Pierre Cholat la fusion des deux entreprises. Toutefois, comme il est nommé à la Haute Autorité de la CECA, c'est son successeur, Henri Malcor5 qui doit en exercer la supervision6. Certes les négociations sont courtoises, mais le plan préparé avec soin par Marine prévoit à l'origine le contrôle des Aciéries de Saint-Étienne et des Hautsfourneaux de Chasse7. L'offre n'est pas reprise par Pierre Cholat et les HFC restent ensuite en dehors des négociations8. Une clause est même négociée pour eux afin de leur réserver des commandes d'au moins 12 000 tonnes de fonte par an, ce qui est censé représenter leurs fournitures habituelles pour les Aciéries de Saint-Étienne9. La courtoisie n'est cependant que de façade et derrière les formules de politesses pointent les enjeux économiques et de pouvoir. Alors même que les conseils d'administration des deux entreprises sont en train de mettre en place la fusion, une 1 ADI, 56J12, conseil d'administration du 19 juin 1950. Allant dans le même sens que nos sources, voir la note d'Albert Bureau du 12 février 1949. Dans MIOCHE Philippe, La sidérurgie et l'État en France des années 1940, op. cit., p. 939-940. 3 ADI, 56J12, conseil d'administration du 10 septembre 1952. Il y a surtout AN, 2012 026 601, AG extraordinaire du 1er décembre 1952 dans laquelle il est écrit que la création de la CECA a eu un rôle décisif dans le fait que « des pourparlers ont été repris » pour aboutir à la fusion. 4 ADL, 117J8, conseils d'administration du 28 juin 1949 pour l'annonce de sa nomination et du 4 novembre 1949 pour son entrée en fonction, après l'augmentation de capital. 5 Après Léon Daum et Théodore Laurent, la place « virtuelle » de numéro trois est occupée dès avant la Seconde Guerre mondiale par Henri Malcor selon Philippe Mioche, dans MIOCHE Philippe, « Un tournant dans l'histoire de la sidérurgie : la création de l'Irsid. Compétition et collaboration entre l'État et l'industrie », Histoire, économie et société, 8e année, n° 1, 1989, p. 119-140, p. 131. 6 ADL, 117J9, dès le conseil d'administration du 5 décembre 1951 et jusqu'à la fin, Henri Malcor remplace dans un premier temps Léon Daum qui est « empêché ». 7 Sur le plan, voir AN, 2012 026 601, « remarques sur Sidecentre » en date du 10 janvier 1952. 8 ADL, 117J9, conseil d'administration du 27 août 1952. 9 ADL, ibidem et ADI, 56J12, conseil d'administration du 10 septembre 1952. 2 128 lettre de Pierre Cholat1 à Théodore Laurent annotée par ce dernier éclaire d'une lumière crue ces luttes : le premier essaie de négocier ses pouvoirs par délégation du président directeur général, ceux de ses subordonnés ainsi que certains avantages comme le recours à la banque Chalus (banque de la famille de sa femme) pour financer la nouvelle entreprise née de la fusion, ; le second annote de manière lapidaire – « non » plusieurs fois souligné, « sans intérêt », « il n'y a pas de raison », « qui l'a dit ? », « il ne saurait y avoir deux directions dans la Compagnie », etc. – et donne ainsi des consignes officieuses pour limiter le futur rôle de Pierre Cholat. Philippe Mioche a évoqué « les tensions » qui suivent la fusion entre Pierre Cholat et la direction de Marine, mais sa source – Henri Malcor – en rend responsable Pierre Cholat qui « sans l'exprimer ouvertement » rêvait d'une fusion où « il continuait à diriger les Aciéries de SaintÉtienne et tout particulièrement son service commercial »2. Or contrairement à ce que dit Henri Malcor, et comme le prouve la lettre à Théodore Laurent, les tensions ne surviennent pas après la fusion, mais sont contemporaines, voire la précèdent 3 ; elles ne sont pas du seul fait de Pierre Cholat, mais aussi de ceux qui prennent le contrôle de l'entreprise qu'il a dirigée ; et enfin Pierre Cholat a bien exprimé constamment et clairement ses voeux, ce qu'il a écrit d'ailleurs à plusieurs reprises4 : pouvoir continuer à gérer la commercialisation des produits laminés des Aciéries de Saint-Étienne, assurer les mêmes débouchés pour les fontes des HFC. Il s'appuie pour cela sur deux documents dans lesquels ces droits sont bien indiqués : le protocole d'accord du 21 juillet 1952 et la délégation de pouvoirs du 31 décembre 19525. Il est vrai aussi que de son côté Pierre Cholat entre en concurrence avec des filiales de Marine auxquelles il souffle des marchés6, ce qui ne peut que mécontenter Henri Malcor, même si lui non plus n'en laisse rien paraître dans ses courriers. Cette situation est close par la fusion avec les Aciéries de Firminy créant la Compagnie des Forges et Ateliers de la Loire. Comme le prouve la lettre – connue de 1 AN, 2012 026 601, lettre du 12 décembre 1952. MIOCHE Philippe, La sidérurgie et l'État en France des années 1940, op. cit., p. 45 et p. 942. 3 Cf. par exemple la relecture méthodique du document des pouvoirs de Pierre Cholat par les services juridiques des Aciéries de Saint-Étienne qui repèrent et indiquent les modifications faites par Marine lors de leur « reproduction », AN, 2012 026 601, lettre du 7 novembre 1952. 4 ADL, 211J4, pour l'année 1953, plusieurs lettres de Pierre Cholat à Henri Malcor en date du 12 février, 11 et 13 mars, 24 avril, 11 juillet, 5 et 10 août. 5 AN 2016 026 601 et ADL, 211J4. 6 ADL, 211J4. 2 129 Philippe Mioche1 – d'Henri Malcor à Pierre Cholat qui lui annonce le rapprochement entre Aciéries de la Marine et de Saint-Étienne et Aciéries de Firminy, ce dernier a été tenu à l'écart des discussions et de plus, ses pouvoirs concernant la commercialisation devront être annulés. Après la fusion2, Pierre Cholat voit ses actifs dilués et la plupart des postes d'administrateurs partagés entre les dirigeants de Marine et de Firminy (un seul poste ainsi que la fonction de vice-président lui étant réservés). Ayant perdu ses attributions commerciales, il a cependant demandé confirmation de la position de fournisseur des HFC auprès des Aciéries de Saint-Étienne dans la CAFL3. L'année 1953 est donc marquée par l'achèvement du processus de concentration dans la Loire avec la création de la CAFL. Cette même année, le projet de rapprochement hauts-fourneaux de Chasse et de Givors ressurgit : à l'été 1953, Albert Denis demande l'établissement d'un rapport technique sur le sujet 4. Un troisième chapitre s'ouvre donc dans l'histoire des opérations de rationalisation, après les projets de l'après-guerre puis la création de la CAFL. Les ingénieurs des deux usines sont chargés des rapports demandés par la Direction de la sidérurgie5. Or en raison des difficultés rencontrées par leur entreprise soeur des Aciéries de Saint-Étienne provoquées par l'accroissement de la concurrence de1948-1950, Chasse a été appelée à la rescousse : il s'agit d'aider à financer le plan de modernisation des usines de plusieurs dizaines de millions de francs lancé en 19486 ainsi qu'une augmentation de capital7. Cependant, les découverts en banque vont correspondre rapidement à cette même augmentation de capital8. On sait que cela a provoqué le rapprochement avec Marine, mais en attendant, le programme des HFC est retardé : par exemple, le projet de modernisation du haut-fourneau n° 3 datent de 1948, mais sa reconstruction ne débute qu'en 19539. L'année précédente, encore accaparés par les conséquences des luttes avec Marine, les dirigeants des HFC s'interrogeaient sur l'utilité d'un tel investissement, ne voyant plus que dans l'importance des sommes déjà engagées la seule raison de mener 1 MIOCHE Philippe, La sidérurgie et l'État en France des années 1940, op. cit., p. 942. Cette lettre non envoyée en date du 8 octobre 1953 se trouve aux ADL, 211J4. 2 AN 2012 026 602, AG mixte du 21 décembre 1953. 3 ADL, 211J4, lettre du 5 décembre 1953 à Lucien Lefol. 4 ADI, 56J12, conseil d'administration du 9 juillet 1953. 5 Ibidem, conseil d'administration du 5 octobre 1953. 6 ADL, 117J8, conseil d'administration du 13 mars 1948. 7 Ibidem, conseil d'administration du 25 mai 1948. 8 Ibidem, conseil d'administration du 14 octobre 1948. 9 En 1948, quand on n'est qu'au stade de projet, on espère la mise en route du haut-fourneau n° 3 pour 1950 : ADI, 56J12, conseil d'administration du 27 avril 1948. 130 le programme à son terme : l'impression d'un non-retour a remplacé l'enthousiasme des débuts1. Mais avec les nouveaux projets étatiques de 1953, la modernisation de l'usine de Chasse prend un nouveau sens : il s'agit de sauver le site isérois, en justifiant son existence par de meilleures installations que celles du site voisin. L'achèvement du programme s'effectue comme un dernier sursaut, dans un contexte de « crise terrible » de 1954 à 1956 pour reprendre les mots du président des HFC 2. En 1955, la Direction de la sidérurgie semble renoncer à ses projets. La construction du haut-fourneau moderne a été achevée en 1956 : Chasse a gagné la bataille de la modernisation. Les dirigeants des HFC peuvent alors utiliser l'argument de l'importance de leurs investissements – machine à couler et haut-fourneau moderne en cours de construction – pour essayer d'imposer que la « juxtaposition » se fasse dans l'Isère plutôt que dans le Rhône3. En 1955, l'idée de juxtaposition laisse place à des projets de rapprochement financier : les dirigeants des deux entreprises acceptent de parler de fusion, ou plutôt d'« interpénétration en capital entre les deux sociétés »4. Le président de la Chambre de la sidérurgie, Pierre Ricard, appuie par une lettre ce projet 5. La Compagnie des HautsFourneaux de Chasse fait ensuite valoir son programme de modernisation ainsi que le poids de ses filiales pour faire réévaluer son offre : elle est alors rejetée6. Les négociations se poursuivent alors au-delà de 1956 : ce quatrième est dernier chapitre est marqué par le retour des acteurs économiques locaux et par l'apparent effacement des acteurs étatiques ou de la Chambre syndicale de la sidérurgie. c) et la domination des Aciéries de la Marine Les enjeux politiques et économiques de la modernisation technique dépassent largement le sujet du choix de l'outillage et des méthodes productives. Ils dépassent même le cadre local, puisqu'à l'échelle nationale l'État en est un des acteurs. Mais il faut tout d'abord revenir sur l'idée que l'intervention étatique aurait précédé celle des 1 ADI, 56J12, conseil d'administration du 29 mai 1952. AN, 2012 026 819, notes prises par André Legendre au cours du conseil d'administration du 26 mars 1956. 3 56J12, conseil d'administration du 7 avril 1954. 4 Ibidem, conseil d'administration du 29 janvier 1955. 5 Ibidem, conseil d'administration du 7 avril 1955. 6 Ibidem, conseil d'administration du 23 juillet 1955. 2 131 acteurs économiques – dont les Aciéries de la Marine – qui ont ensuite le dernier mot, chaque intervention se succédant et étant distincte. Cette idée a été largement répandue parmi les historiens qui – à propos de la création de la CAFL – citent le rôle historique des Aciéries de la Marine ; cette entreprise s'étant, selon eux, substituée à l'État dans cette mission1. Plusieurs éléments nous amènent cependant à nuancer cette vision. Tout d'abord parce que la distinction entre dirigeants politiques/administratifs ou économiques n'est pas nette : ce sont parfois les mêmes hommes qui sont présents à la direction d'entreprises comme les Aciéries de la Marine et dans les institutions de l'État. On peut citer les deux exemples de Léon Daum ou d'Henri Malcor2 : le premier est membre du CORSID puis de la Haute Autorité et le second est membre de la Commission de modernisation et de l'IRSID. Un second élément concerne les moyens de contrôle ou d'action à distance3 : il n'est en effet pas nécessaire à la Direction de la sidérurgie ou à la Haute Autorité d'agir ou de légiférer quotidiennement pour avoir un impact sur la vie économique du pays, il lui suffit de fixer un cadre légal, puis de laisser faire. On a bien vu que la décision de laisser la concurrence de la sidérurgie de l'Est se déployer et la menace semblable que fait peser l'ouverture du marché commun ont poussé Pierre Cholat à solliciter la fusion de son entreprise avec Marine. L'action de ces décisions se poursuit alors qu'apparemment leurs auteurs n'agissent plus et que Marine a soi-disant pris leur relais. Or à propos de l'« action » des dirigeants de cette dernière, en s'intéressant aux pratiques plus qu'au discours, on peut dire qu'elle consiste également à attendre que le fruit soit mûr pour le cueillir et emporter la décision. C'est d'ailleurs le conseil que donne Henri Malcor à Léon Daum, suite à la demande de Pierre Cholat d'appuyer sa demande d'installation nouvelle de tôles fortes aux Aciéries de Saint-Étienne – un débouché indispensable pour ses fours Martin menacés par la crise – auprès de l'Association technique : « ne pas lui donner ainsi une apparence de corps »4. C'est pourquoi, jusqu'au moment de la fusion, les dirigeants de Saint-Étienne espèrent et attendent que Marine les soutiennent alors que Firminy et Marrel ont déjà leur propre 1 MIOCHE Philippe, La sidérurgie et l'État en France des années 1940, op. cit., p. 43-47. MIOCHE Philippe et ROUX jacques, Henri Malcor : un héritier des maîtres de forges, op. cit., p. 51-64. LUIRARD Monique, La région stéphanoise , op. cit., p. 784-792. 2 Christian Stoffaës cite Léon Daum et Henri Malcor comme exemple pour parler des dirigeants à qui l'État confie la reconstruction de la sidérurgie après la guerre, dans STOFFAËS Christian, « Le rôle du Corps des Mines dans la politique industrielle française : deux siècles d'action et d'influence », Annales des Mines - Réalités industrielles 4/2011, p. 48-67, p. 58. 3 NOIRIEL Gérard, Introduction à la socio-histoire, Paris, La Découverte, 121 p., p. 4 et sqq. 4 2012 026 601, courriers d'avril 1949. 132 blooming1. Donc si le récit de la rationalisation des Aciéries de la Loire et des Hautsfourneaux du Rhône peut être présenté en chapitres successifs par commodité, en poursuivant la métaphore livresque, on peut dire aussi qu'il appartient à un même livre, celui qui raconte la modernisation du pays ; une modernisation imposée par des moyens de contrôle à distance peut-être subtils mais constants. Or la modernisation est aussi portée par des hommes qui ont soutenu cette politique et partagé une même formation : celle de l'école des Mines. Prenons alors les exemples déjà cités d'Alexis Aron 2 et Albert Denis3 ; ils sont tous deux membres du corps des Mines, le premier est membre de la commission de la sidérurgie avec Henri Malcor et le second Directeur de la sidérurgie au ministère de l'industrie. Théodore Laurent, Léon Daum, les autres dirigeants de Marine, sont eux aussi des ingénieurs des Mines. Il en est de même de Louis Charvet, délégué général de la Chambre syndicale de la sidérurgie de 1948 à 1953, Jules Aubrun président de cette même Chambre de 1945 à 1953, etc. Patrons, représentants de patrons, technocrates, parfois les deux à la fois. Cela témoigne de « la réussite spectaculaire du corps des Mines dans l'industrie », au-delà des institutions de l'État4. Il est une institution hors norme qui n'« est pas seulement une addition d'individualités [] C'est une collectivité dotée d'une identité forte forgée sur la longue durée, qui a exercé un rôle puissant dans l'économie, dans le privé comme dans le public, conseillé les gouvernements, contribué à la pensée économique et sociale de son temps sur les questions de politiques industrielles »5. Ces dirigeants – politiques, économiques, administratifs, syndicaux – partagent une identité et donc des valeurs (on pense à Jacques Revel qui en citant Luc Boltanski rappelle que la constitution d'un groupe – ici celui des « modernisateurs » ou du corps des mines – est inséparable de celle de son identité6). On se gardera toutefois de généraliser à l'ensemble du corps ne pouvant l'étudier en entier, mais on en établira des aspects à partir de ce qui est observable à l'échelle des dirigeants des Aciéries de la Marine avec leurs contacts politiques, administratifs ou syndicaux. Tous sont des partisans des « grosses entreprises et des gros équipements » selon Philippe Mioche. 1 ADL, 117J8, conseil d'administration du 1er octobre 1951. BERGER Françoise, « Alexis Aron, ingénieur sidérurgiste. (Nîmes, 24 janvier 1879 – Neuilly-surSeine, 29 juillet 1973)», Archives Juives 2011/1, Vol. 44, p. 136-139. 3 Cf. sa biographie dans http://www.annales.org/, ainsi que celle des ingénieurs cités à la suite. 4 JOLY Hervé, Diriger une grande entreprise , op. cit., p. 367 sqq. 5 STOFFAËS Christian, « Le rôle du Corps des Mines dans la politique industrielle française », op. cit., p. 48-49. 6 REVEL Jacques, « l'institution et le social », LEPETIT Bernard (dir.), Les formes de l'expérience. Une autre histoire sociale, Albin Michel, Paris, 2013, 383 p., p. 105. 2 133 Cette confiance en la technique et l'importance des équipements industriels est cependant également partagée par un François de Wendel comme par ces « modernisateurs »1. À l'échelle régionale, on a bien vu que les Aciéristes se battent tous pour des installations modernes, et que la modernisation touche aussi les hautsfourneaux. Par conséquent, la différence se fait moins au niveau du projet qu'au niveau de sa mise en oeuvre. Or les dirigeants des Aciéries de la Marine sont des partisans du Plan Monnet (Henri Malcor en a été membre) et de la CECA2. Ils participent même à ces institutions. Toutefois, indépendamment des qualités et défauts de chacun, ces positions s'accompagnent d'un sentiment de supériorité partagé. L'une des conséquences est la certitude de détenir la vérité, d'être moderne, à l'avant- garde. Les autres dirigeants de la sidérurgie sont décrits comme des « seigneurs »3 ce qui est une manière de rappeler leur autoritarisme, mais aussi de les désigner comme des hommes du passé. Henri Malcor se refuse, avec une certaine condescendance, à décerner des « cotes d'intelligence » entre les différents patrons qui ont accepté le rapprochement des entreprises de la sidérurgie régionale à des vitesses inégales4. L'acceptation de Pierre Cholat lui permet alors d'obtenir ce premier prix. La version d'Henri Malcor est cependant assez loin de la vérité historique puisque Pierre Cholat a davantage été contraint qu'il n'a adhéré librement à ce projet. On pourrait ainsi multiplier longtemps les exemples de ce genre, mais ce qui nous intéresse est ce qu'ils provoquent parmi leurs confrères : faut-il s'étonner de la violence de leurs réactions ? François de Wendel écrit dans ses mémoires à propos d'Alexis Aron qui vient de lui présenter le projet de rationalisation de l'outil de production lorrain : « C'est à se demander si le directeur de l'Office professionnel de la sidérurgie [] est un fourbe, un brouillon ou un fou, ou s'il n'essaie pas tout simplement de sauver la situation en se joignant aux chacals qui rêvent de dépecer la vieille maison »5. Sa colère vise également Henri Malcor6. À l'échelle ligérienne, Vergniaud et Dumuis répondent eux aussi de manière violente aux projets de rationalisation régionaux : le premier déclarant « que si quelqu'un venait lui parler de fusion, il appelait le commissaire de police pour le mettre 1 Citations de MIOCHE Philippe, La sidérurgie et l'État en France des années 1940, op. cit., p. 606. Pour la CECA, cela est reconnu par Henri Malcor dans MIOCHE Philippe et ROUX jacques, Henri Malcor : un héritier des maîtres de forges, op. cit., p. 190. Françoise Berger l'indique pour Théodore Laurent dans BERGER Françoise, La France, l'Allemagne et l'acier, op. cit., p. 964. 3 MIOCHE Philippe et ROUX jacques, Henri Malcor : un héritier des maîtres de forges, op. cit., p. 190. 4 MIOCHE Philippe et ROUX jacques, Henri Malcor : un héritier des maîtres de forges, op. cit., p. 58. 5 MIOCHE Philippe, La sidérurgie et l'État en France des années 1940, op. cit., p. 601. 6 Ibidem, p.606-607 et note p. 1125. 2 134 à la porte » et le second qu'il « préférerait " crever " tout seul que prospérer dans le cadre d'une fusion »1. Bien sûr, Henri Malcor ne nie pas la violence de ces réactions. Au contraire, il les attribue à des facteurs générationnels : Louis Vergniaud – président délégué de Jacob Holtzer – et Charles Dumuis – président des Aciéries de Firminy – sont des hommes du passé. Heureusement pour Henri Malcor, des causes naturelles vont l'en débarrasser : le décès du premier en 1952 et la mise en retraite du second la même année. Cette naturalisation des évènements est évoquée aussi pour le rapprochement avec Saint-Étienne : « et puis un beau jour Pierre Cholat a dit oui. Peut-être sa famille l'y a-t-il poussé, je n'en sais rien. Bref, un beau jour il a dit qu'il était d'accord »2. Estelle une conséquence du fait que tout témoignage est un récit qui « s'inspire toujours, au moins pour une part, du souci de donner sens »3. Cela est possible, mais pas en totalité car d'une certaine manière Henri Malcor contribue bien souvent à réécrire une histoire qui lui convient. Des éléments de langage trahissent pourtant une réalité qui n'a rien de naturelle : qu'il s'agisse de la « cour » faite par Marine à Pierre Cholat ou à Francou chez Marrel4, au pouvoir de séduction de Léon Daum – un homme « courtois »5 – sur les dirigeants stéphanois, la métaphore sexuelle exprime un rapport social de domination fondé sur un principe de division fondamental entre le masculin actif et le féminin passif6. Cette version de l'histoire concerne en particulier les entreprises convoitées par les Aciéries de la Marine. Henri Malcor explique par exemple que Pierre Cholat refuse le rapprochement, et cela d'autant plus après la création de la CAFL car Chasse reste son seul « fief »7. Mais surtout, ce commentaire ne correspond pas aux sources déjà étudiées : encore plus que le discours, ce sont les pratiques qui invalident les thèses d'Henri Malcor. Ainsi, en ce qui concerne les Aciéries de Saint-Étienne, Pierre Cholat a soutenu un plan de rationalisation dont il a longtemps pensé tirer profit ; puis il a accepté l'entrée de Léon Daum à son CA toujours en espérant son soutien ; enfin, 1 MIOCHE Philippe et ROUX jacques, Henri Malcor : un héritier des maîtres de forges, op. cit., respectivement p. 58 et p. 51. 2 Ibidem, p. 58. 3 BOURDIEU Pierre, « L'illusion biographique », op. cit., p. 69. 4 MIOCHE Philippe et ROUX jacques, Henri Malcor : un héritier des maîtres de forges, op. cit., p. 57 et p. 60. 5 Ibidem, p. 58. 6 BOURDIEU Pierre, La domination masculine, Editions du Seuil, Paris, 2002, 182 p., p. 37. 7 MIOCHE Philippe et ROUX jacques, Henri Malcor : un héritier des maîtres de forges, op. cit., p. 62. On verra dans le chapitre suivant les raisons de cette position. 135 jusqu'au bout, il a espéré une « association » qui aurait été un « mariage » et non une absorption entre les deux entreprises, conformément aux engagements écrits et oraux des dirigeants de Marine1. Il est certes évident que Pierre Cholat essaie de conserver des marges de manoeuvres alors qu'il est avec le temps de plus en plus contraint à ces rapprochements. Toutefois, même après la création de la CAFL, Pierre Cholat et les dirigeants des HFC discutent les offres des hauts-fourneaux de Givors et ce sont les dirigeants de cette dernière entreprise qui rejettent les propositions de Chasse en 19552. La version de l'histoire d'Henri Malcor s'explique par la volonté de faire endosser par d'autres la responsabilité des échecs : si on prend à nouveau l'exemple du non-rapprochement Chasse-Givors, on peut rappeler que plusieurs administrateurs de cette dernière entreprise sont aussi des dirigeants de Marine ; dont Henri Malcor luimême, administrateur de l'entreprise de 1953 à 1954, puis au nom de la Compagnie des Forges et Aciéries de la Marine et de Saint-Étienne à partir de cette date3. Ce sont donc eux qui ne donnent pas suite aux propositions de rapprochement faites par les dirigeants des HFC. Enfin, cette version s'appuie sur l'idée largement partagée selon laquelle les dirigeants des entreprises familiales sont égoïstes, individualistes, inefficaces. Henri Malcor reprend et contribue à diffuser cette antienne que l'on retrouve ailleurs. Selon le ministère de l'industrie, ces patrons s'enfermeraient dans « un isolement exclusif »4, ou encore « refusent toujours énergiquement de se dessaisir de leur autorité »5. Pierre Cholat refusant même « farouchement de se plier à aucune réglementation »6. On peut encore citer des études de la préfecture qui en font une des causes de la crise de la sidérurgie de la Loire en 19507. Même certains scientifiques l'ont par le passé repris : Michel Freyssenet et Catherine Omnès voient là un des facteurs du retard de la sidérurgie française face aux sidérurgies européennes8. On ne peut plus aujourd'hui reproduire ces discours datés et remis en cause par les historiens à partir des années 1990 : Jean Claude Daumas rappelle que le capitalisme familial a eu longtemps 1 ADL, 211J4, lettre de Pierre Cholat à Henri Malcor du 11 juillet 1953. ADI, 56J12, conseil d'administration du 29 janvier. 3 ADR, 34J7. 4 LUIRARD Monique, La région stéphanoise , op. cit., p. 789. 5 MIOCHE Philippe, La sidérurgie et l'État en France des années 1940, op. cit., p. 939-940, « Note pour la Direction de la sidérurgie » d'Albert Bureau qui est un ingénieur des mines. 6 Ibidem. 7 ADL, 108VT21, aide-mémoire du 24 juillet 1950. 8 FREYSSENET Michel et OMNES Catherine, La crise de la sidérurgie française, op. cit., p. 33, p. 34 et p. 43. 2 136 mauvaise réputation : cela s'explique « notamment par une vulgate qui puisait ses sources outre Atlantique [] et chez les technocrates modernisateurs de l'aprèsguerre »1. Pour conclure, on peut donc dire que le programme de modernisation lancé par la Compagnie des Hauts-Fourneaux de Chasse est le plus important de l'histoire de l'entreprise depuis la Première Guerre mondiale. À l'interrogation qui porte tout d'abord sur la modernisation des installations productives et le progrès supposé et attendu, il est possible de répondre qu'elle s'accompagne d'une rationalisation des moyens de productions. Or ce terme comporte lui aussi sa part d'ambiguïté : la rationalisation implique à la fois une approche rationnelle, donc raisonnée et de ce fait censée être juste au sens moral du terme ; mais aussi une meilleure utilisation au sens d'un rationnement des moyens de production, c'est-à-dire au plus juste – au sens de limité –, de ceux-ci. Ainsi, on a vu que la rationalisation recherche la baisse de l'effectif productif. Pour cela, on a besoin d'améliorer la productivité ; cette dernière étant « l'objectif économique ultime » du processus selon Alain Dewerpe2. On cherche alors à résister à la concurrence dans le cas des HFC. La question des conséquences sur le travail et les qualifications sera examinée plus loin, mais on peut déjà dire que la rationalisation implique le départ d'une partie non négligeable du personnel de l'entreprise, ainsi que l'adaptation – plus ou moins à négocier – de ceux qui peuvent rester. Ensuite, à propos du retard technique supposé de la sidérurgie française, on notera que le plan de modernisation des hauts-fourneaux de Chasse est de première ampleur, du moins à l'échelle régionale. Certes le rapiéçage existe dans certaines parties de l'usine, mais davantage par manque de moyens de financement que par absence de volonté ou par négligence. Ici comme ailleurs en France, la restructuration de l'appareil productif de la sidérurgie a donc été précoce ; plus pour ce secteur que dans bien d'autres industries selon Philippe Mioche 3. Ce plan de modernisation a en outre sa propre cohérence puisqu'il suit les recommandations de la commission de modernisation de la sidérurgie. Dans ce contexte, la mise en place du programme de modernisation de Chasse va prendre différentes significations pour l'entreprise : d'indispensable en 1945 en raison d'installations vétustes, il devient nécessaire dans un contexte de concurrence 1 DAUMAS Jean-Claude, « Les dirigeants des entreprises familiales en France, 1970-2010 », Vingtième Siècle. Revue d'histoire, 2012/2, n° 114, p. 33-51, p. 33. 2 DEWERPE Alain, Le monde du travail en France, op. cit., p. 140. 3 MIOCHE Philippe, La sidérurgie et l'État en France des années 1940, op. cit., p. 69. 137 avec les hauts-fourneaux voisins, puis un temps ralenti par le soutien des HFC à leur entreprise soeur des Aciéries de Saint-Étienne, il fini par être vital dans le cadre d'un nouveau projet de rapprochement avec Givors. Cependant, avec la mise en place de ce programme, on peut aussi dire que le travail et les conditions de travail vont être transformés, concernant ainsi directement les travailleurs. II) Le personnel face à la modernisation et la relance de la production Les deux éléments qui expliquent l'évolution des postes de travail, du travail luimême et des conditions dans lesquelles il s'effectue sont la modernisation et les rythmes des productions. Dans un premier temps, on peut partir de la description du travail afin de repérer les postes et indiquer les métiers dans une usine sidérurgique. Comme dans le reste de l'industrie, ces derniers sont désormais nombreux, mais malgré l'inflation des nomenclatures1, il arrive qu'un même nom désigne des postes très différents : c'est donc en étudiant ces derniers que l'on peut arriver à les distinguer. Il faut aussi veiller aux anciens noms comme celui de fondeur qui ont été conservés à travers le temps, mais qui ne désignent plus les mêmes réalités au niveau du travail2. Les recherches de Michel Freyssenet sur les métiers de la sidérurgie peuvent nous servir d'étalonnage3. On s'intéressera également aux qualifications, à la position dans la classification, aux trajectoires professionnelles, ce que l'on peut ensuite croiser pour reconstituer l'identité des travailleurs. Enfin, à partir de l'étude du travail dans les ateliers, l'objectif est de définir les postes et les hiérarchies4. Puis dans un second temps, il est possible de voir comment la modernisation des installations et l'intensification des productions ont pu transformer les postes de travail et les conditions de travail dans l'usine des HFC. À la même époque, une autre étude de 1 LEQUIN Yves, « Le métier », dans NORA Pierre (dir.), Les Lieux de mémoire, vol. 3, Quarto Gallimard, Paris, 1997, 1720 p., p. 3351-3384, p. 3363-3365. 2 Ibidem, p. 3377. 3 FREYSSENET Michel, La sidérurgie française 1945-1979, , op. cit. 4 SCHWEITZER Sylvie, « Industrialisation, hiérarchies au travail et hiérarchies sociales au vingtième siècle », Vingtième siècle. Revue d'histoire, n°54, avril-juin 1997, p. 103-115, p. 112. 138 Michel Freyssenet sur le personnel de la Sollac permet d'effectuer à nouveau des comparaisons1. Or de manière plus générale, les Trente Glorieuses peuvent être vues comme une période où le travail et les conditions de travail allaient être améliorés. Jean Fourastié a souhaité faire partager ce point de vue optimiste : « les métiers tertiaires sont en effet dans leur ensemble moins exigeants en force physique que les autre, plus éloignés de la dureté des volumes, des poids, des températures, des climats. [] Les observateurs n'ont pas de mal à discerner dans le tertiaire actuel des ensembles entiers de travaux aussi répétitifs et parcellaires que dans le secondaire ; en effet, les bureaux mêmes sont envahis par la mécanisation et la production en grande série, tandis qu'inversement les machines industrielles deviennent de plus en plus aisées à conduire avec une faible force corporelle, mais avec une souple précision. Il y a donc un double mouvement : le premier est la rapide extension des emplois du tertiaire, le second est la tendance à la « tertiarisation » des emplois primaires et secondaires euxmêmes. Beaucoup d'ateliers ressemblent de plus en plus à des bureaux ; des bureaux à des ateliers. L'agriculteur lui-même, de plus en plus souvent, enfermé dans la cabine close de ses tracteurs, ni est plus soumis à la pluie et au froid, []. Il n'y dépense plus qu'une faible force corporelle, et n'y entend plus chanter les oiseaux, mais écoute France musique, France culture, ou les glapissements courants des radios populaires2. On a cependant du mal à imaginer comment il est possible de conduire un tracteur, avec le bruit du moteur, et d'écouter de la musique classique, à moins d'être précisément quelqu'un qui n'en a jamais conduit un. On se contentera de confronter cette vision « optimiste »3 du travail pendant les Trente Glorieuses avec ce qu'en dit Xavier Vigna : « au regard de ces réalités ouvrières, il y a quelque obscénité à célébrer la période dite des " Trente Glorieuses ", sans jamais envisager ses revers, ni penser à ces soutiers qui furent aussi ses victimes »4. Sans tomber dans le misérabilisme, il conviendra donc d'envisager les conditions de travail dans l'usine dans ce qu'elles ont de plus dur, mais aussi parfois de positif. 1 FREYSSENET Michel, « Division du travail, pratiques ouvrières et pratiques patronales », op. cit FOURASTIÉ Jean, Les Trente Glorieuses, Coll. Pluriel, Fayard, Paris, 2011, 288 p., p. 82-83. 3 BOULAT Régis, « Jean Fourastié, apôtre de la productivité », dans BONNEUIL Christophe, PESSIS Céline, TOPÇU Sezin (dir.), Une autre histoire des « Trente Glorieuses », op. cit., p.81-98. 4 VIGNA Xavier, Histoire des ouvriers en France , op. cit. p.208. 2 139 1) Des postes de travail divers L'usine de Chasse peut être considérée comme intégrée puisqu'elle possède plusieurs étapes autres que la production de fonte qu'elle « intègre » dans un processus de fabrication allant de la préparation des matières premières, à la création de pièces dans une fonderie de deuxième fusion, en passant par la production de fonte dans les hauts-fourneaux. Des produits dérivés sont également fabriqués et vendus. On peut présenter les postes de travail de chacune des usines – celle des hauts fourneaux, celle de la fonderie de deuxième fusion –, puis les autres postes de travail des ateliers et services qui se trouvent dans l'espace usinier. Un état du personnel pour l'année 1954 a été réalisé. Cette étude des postes de travail a été menée à partir du fichier mécanographique de l'entreprise1. La source est plus complète en informations – mais non en nombre d'individus – que la liste des prud'hommes de 19542 avec laquelle elle peut être croisée. Avec le fichier, mécanographique constitué à partir de l'année 1953, non seulement l'évolution de la carrière est inscrite, mais on gagne en précision et en exactitude. Les fiches sont elles-mêmes de mieux en mieux renseignées : c'est pourquoi à partir de 1960 on pourra relier systématiquement chaque personnel à sa place dans la classification et à son métier ; mais pas avant. Cela témoigne des progrès dans les moyens de gestions du personnel, mais aussi – en raison du déploiement même de ces nouveaux moyens –, sans doute aussi d'un souci plus grand qui découle de la rationalisation du travail dans l'usine. a) Les hauts-fourneaux, coeur de l'usine Le coeur de l'usine des HFC est formé par les trois hauts-fourneaux. Les différentes étapes de leur fonctionnement permettent de repérer les postes de travail ainsi que différents métiers3. Pour charger les hauts-fourneaux, le coke, le fondant, les 1 AMC, fichier mécanographique, avec comme complément les documents suivants : listes des prud'hommes et cahiers du personnel français et étranger. 2 Cette liste a été constituée le 5 avril 1954, source AMC. 3 AMC, fichier mécanographique. De plus, les témoignages des anciens ouvriers a permis d'éclairer ce sujet, en particulier ceux de Jean Montoya et surtout ceux de Gérard Pastorino et de Mohamed Safer qui 140 minerais, les ferrailles sont acheminés vers chaque gueulard par un monte-charge. Les wagonnets sont conduits par des chargeurs. Ils passent d'abord sous des trémies pour être remplis de coke, de minerais etc. Les charges sont ensuite pesées par des machinistes avant leur envoi dans chaque haut-fourneau, afin de respecter la composition du lit de fusion. Puis, les wagonnets sont montés et vidés au dessus du gueulard. Le travail de chargement terminé, le fonctionnement des hauts-fourneaux est assuré par des appareilleurs appelés surveillants et gaziers et par des machinistes. Les surveillants doivent faire entrer l'air des cowpers à température constante à l'intérieur des hauts fourneaux. Cet air – préchauffé dans les cowpers et injecté sous pression – forme un vent chaud qui facilite la fusion et permet de la contrôler. Le gazier est chargé de la récupération des gaz des hauts-fourneaux. Ces gaz sont en partie brûlés pour fournir de l'énergie, en partie récupérés pour être épurés et envoyés aux cowpers pour les chauffer. Enfin, des machinistes contrôlent la pression et la température pendant toute l'opération de fusion. Celle-ci est complexe et il convient donc de la surveiller constamment, notamment pour éviter de graves accidents. Il faut ensuite effectuer les coulées de fonte et de laitier : elles se font toutes les quatre heures. Les fondeurs pratiquent la coulée en perçant à deux reprises à la base du haut-fourneau, une fois pour évacuer le laitier et une seconde pour la fonte. Cette dernière est évacuée à travers le hall de coulée1 vers la machine à coulée grâce à laquelle elle est moulée en lingots2. Les machinistes font monter les lingotières qui sont refroidies avec de l'eau. Puis, lorsqu'elles arrivent en bout de la chaîne, leur contenu tombe automatiquement et se brise en trois gueusets d'environ quinze kilogrammes chacun. Ceux-ci sont ensuite évacués vers le parc à fonte par les pontonniers et par le personnel chargé de la manutention de l'usine. En faisant un état du personnel de l'usine3 et des hauts-fourneaux en avril 1954, on précède la mise en route du haut-fourneau moderne. À cette époque, la marche à deux hauts-fourneaux a été stoppée depuis avril 19534. Le haut-fourneau n° 3 est en réfection pour sa modernisation, le n° 1 est à l'arrêt et seul le n° 2 reste en fonctionnement. ont travaillé au haut fourneau. Ce dernier a même été fondeur et contremaître. Le court métrage « L'enfer des hommes » conservé en mairie de Chasse-sur-Rhône nous montre également des ouvriers au travail. 1 Cf. document 3. 2 Cf. document 2. 3 Cf. annexe 2. 4 ADI, 56J22, rapport du conseil d'administration à l'AG ordinaire du 12 février 1955. 141 On peut remarquer la présence d'un encadrement qualifié composé de plusieurs ingénieurs qui commandent à des contremaîtres et des chefs d'équipe. La complexité de la marche d'un haut-fourneau, la taille de l'installation et sa dangerosité expliquent cela. Mais si ces derniers sont nombreux, c'est aussi parce que l'installation fonctionne en continue, par trois postes de huit heures chacun : il en est de même pour la briqueterie cimenterie et la centrale. Il faut donc pour chaque équipe un contremaître qui peut être secondé d'un chef d'équipe : on a pour chaque appareil huit agents de maîtrise car trois équipes se relaient la journée quand la quatrième est mise au repos1. Le contremaître gère l'ensemble de l'atelier, quand le chef d'équipe s'occupe des appareillages et du travail dans le hall de coulée ; du moins dans ce dernier cas, jusqu'à ce que la machine à coulée n'ait pas rendu cette tâche de surveillance inutile. Une seconde raison vient du fait que l'on a conservé ces personnels alors que la marche à deux hauts-fourneaux est achevée, mais que l'on espère la reprendre les mois suivants. Or il est impossible de renvoyer puis de rembaucher des personnels aussi qualifié entre deux périodes de marche à deux fourneaux. Assurément, le manque de flexibilité représente un coût pour l'entreprise. Inversement, cette période de moindre presse allège le travail ouvrier. On aurait cependant tort de penser qu'ils en sont satisfaits car plusieurs d'entre eux espèrent au contraire les heures supplémentaires, certains n'hésitent pas à doubler leur poste2. D'une manière générale, l'organisation du travail et les postes de travail dans les hauts-fourneaux sont assez proches de ceux décrits par Michel Freyssenet : Par poste de huit heures, il faut un contremaître de poste, un chef fondeur pour un à trois hauts fourneaux et une équipe par haut fourneau. L'équipe est formée d'un premier fondeur, «le seigneur», c'est un professionnel, un deuxième fondeur et un troisième fondeur, classés à cette époque Ouvrier Spécialisé (O.S.)., et un à deux décrasseurs classés manoeuvres. Par ailleurs, il y a des travailleurs dont l'activité concerne généralement plusieurs hauts fourneaux et qui sont placés sous l'autorité du chef fondeur : ce sont les gaziers qui assurent le débit et la température du vent dans les tuyères, les surveillants des eaux de refroidissement des hauts fourneaux, les pontonniers, etc3. Toutefois, on constate dans ce texte que le nombre d'agents de maîtrise est un peu plus faible qu'à Chasse, mais on a vu qu'aux HFC cette situation était transitoire 1 Témoignage de Mohamed Safer le 22/04/2000. Témoignage de Mohamed Safer le 22/04/2000. On a aussi cela dans COMTE Marie-Hélène et GONOD Nathalie, L'éternel arménien, op. cit., p. 27. Mais cela est si banal que plusieurs témoins l'ont évoqué. 3 FREYSSENET Michel, La sidérurgie française 1945-1979, , op. cit., p. 10. 2 142 entre deux périodes de marche différentes. En revanche, les postes et la position dans la classification se ressemblent, même si la nomenclature fournie par Michel Freyssenet est moins détaillée. À Chasse, les ouvriers sont en nombre et en proportion inégale selon leur position dans la classification. Les ouvriers professionnels au nombre de vingt-cinq représentent 18,4 % des salariés des hauts-fourneaux. Les métiers de chargeur, fondeur, appareilleur et machiniste peuvent s'apprendre sur le tas1. C'est d'ailleurs ce qu'a fait Mohamed Safer2 qui – en débutant comme manoeuvre en 1947 – a gravis tous les échelons qui l'ont amené au poste de contremaître en 19633. Aucune qualification n'a été trouvée sur un document du personnel, ni aucun stagiaire n'a été recruté démontrant que la formation à cet atelier se fait principalement sur place. Il arrive même qu'un agent de maîtrise débute dans cet atelier sans avoir aucune expérience en cette activité : c'est le cas de Jean-Baptiste Pastorino qui travaille aux mines de Bou Amrane jusqu'en juillet 1956, puis qui devient contremaître des hauts-fourneaux à partir du 1er août4. Pour les ouvriers, ces pratiques d'apprentissages par d'autres salariés existent déjà – comme on l'a vu – pendant la Seconde Guerre mondiale5. Elles touchent encore à cette époque d'autres ateliers : Georges Charrier a appris son métier d'ajusteur au côté de Charles Jounay6. Les ouvriers professionnels collaborent donc avec les ouvriers spécialisés qui sont des « aides », mais ils leurs apprennent aussi le métier. Les manoeuvres apportent une aide dans les travaux de force plus qu'un savoir-faire. Manoeuvres et ouvriers spécialisés sont de manière incontestable les plus nombreux : 101, soit 74,3 % des effectifs. Les manoeuvres sont appelés « manoeuvres de force » dans la nomenclature de l'usine, ce qui laisse présager de leur usage. On peut regrouper de deux manières les activités des OS : soit ils « aident » des ouvriers professionnels fondeurs ou machinistes, soit ils actionnent eux même des machines (ponts, charriots). Comme les manoeuvre, ce sont de simples exécutants, mais ils peuvent recevoir une formation. Il existe donc une hiérarchie entre les différents ouvriers que conforte leur position dans la classification. Toutefois, cette position dépend de la place que leur 1 Michel Freyssenet ne décris pas autre chose à propos de l'apprentissage du métier de lamineur dans FREYSSENET Michel, « Division du travail, », op. cit., p. 2 sqq. 2 Témoignage de Mohamed Safer le 22/04/2000. 3 Ibidem et AMC, fichier mécanographique. 4 fichier mécanographique. 5 ADR, 130W, 1773. 6 Témoignage écrit de Georges Charrier. 143 attribue l'entreprise, selon sa propre politique – on parlerait aujourd'hui de gestion des ressources humaines – et non en suivant une échelle de qualifications professionnelles à partir de diplômes1. En outre, il n'y a pas non plus aux HFC de hiérarchie entre le premier fondeur et les autres, comme le signale Michel Freyssenet : le poste est pris à tour de rôle, ce qui permet de se partager de manière équitable la prime 2. On peut ajouter que c'est une manière, non dite, de se partager le risque inhérent à ce poste exposé aux éclaboussures de la fonte en fusion, au moment de la percée. L'absence de personnels féminins et l'immigration sont après la formation « sur le tas » les autres caractéristiques du recrutement de cet atelier. Le nombre et la proportion d'étrangers est élevée : soixante-cinq individus si on ajoute les algériens, soit 47,8 % de l'effectif de l'atelier. Leur présence se retrouve davantage chez les manoeuvres – où ils sont 65,3 % de l'effectif – et chez les OS – 51,9 % – que chez les ouvriers professionnels où ils ne sont « que » 28 %. De loin, leur présence dans cet atelier est en proportion la plus élevée de l'usine (la moyenne est de 26,4 %). Et encore, on ne tient pas compte des travailleurs nés à l'étranger et naturalisés : on passe alors de 47,8 à 55,9 % des personnels de cet atelier concernés par la migration. Il pourrait paraître paradoxal de trouver dans un atelier aussi symbolique de cette usine une proportion élevée de travailleurs étrangers et/ou immigrés, mais ce sont aussi des postes très exposés physiquement et sans que la qualification ne repose sur une formation scolaire, mais sur l'apprentissage dans l'usine. On relèvera la proportion très élevée de travailleurs algériens : vingt-sept des cinquante-trois présents à Chasse, soit 50,9 % de ce groupe. Deux Algériens sont OP, mais treize sont manoeuvres et douze OS : dans l'atelier le plus exposé, on retrouve donc en forte proportion ces travailleurs parmi ceux qui occupent souvent les positions les plus basses dans la hiérarchie de la classification. Les agents de maîtrise sont en revanche tous de nationalité française, même si l'un d'entre eux est d'origine grecque. Il est la preuve qu'après des années de labeur 3 il est tout de même possible de s'élever dans la hiérarchie de l'usine : car si dès le XIXe 1 ADI, 56J57, règlement d'atelier du 1 er septembre 1950, 5e article : « La qualification professionnelle valable à l'intérieur de l'établissement est attribuée à la suite de la période d'essai. [] La classification est fonction de l'emploi effectivement occupé à l'intérieur de l'établissement quelle que soit en réalité la capacité professionnelle de l'ouvrier ou de l'employé ». 2 Témoignage de Mohamed Safer le 22/04/2000. 3 Michel Zancarini-Fournel retrouve également cela pour les agents de maîtrise de Casino dont une grande partie de la carrière se fait dans l'entreprise : ZANCARINI-FOURNEL Michelle, « La famille Casino-Saint-Etienne », op. cit., p. 63. 144 siècle l'État a par exemple tenté de créer la formation de contremaître, elle reste longtemps faite par promotion interne, dans l'usine, même pour des travailleurs dont le niveau scolaire est très faible1. Pourtant, il est aussi le seul représentant parmi les dizaines de salariés grecs ou arméniens arrivés pendant les années 1920-1930 et qui ont travaillé dans l'usine. On ne peut donc pas tout à fait dire pour tous les travailleurs étrangers comme le témoin de Marie-Hélène Comte et de Nathalie Gonod à propos des Arméniens : « [ils] n'étaient jamais des chefs, même pas contremaîtres, même s'ils en avaient la capacité »2. Cet adage a quelques exceptions. Cependant, leur mobilité professionnelle ascendante est principalement stoppée au niveau d'ouvrier professionnel quand on se situe à l'échelle de cet atelier : mais c'est certainement moins dû à leurs origines qu'à la nécessité de recruter des personnels dont la maîtrise du français est importante, puisque la paperasserie prend de plus en plus de place à ce poste. Pour l'instant en 1954, aucun Algérien ne fait partie des personnels de maîtrise. Cela est révélateur de leur recrutement récent ; mais lorsqu'après une longue carrière Mohamed Safer devient contremaître en 1963, c'est aussi parce qu'il sait écrire comme le prouvent le fait qu'il rédige le courrier de ses camarades et l'importance qu'il attache à son passage dans une école où on lui a enseigné le français3. D'une manière plus générale, pour Sylvie Schweitzer, le passage du contremaître à l'agent de maîtrise est révélateur d'une mutation de la fonction qui va accentuer l'importance prise dans la formation par le français et la culture générale4. En tenant compte des efforts physiques à fournir et de la dangerosité de cet atelier, on pourrait également attendre que la répartition selon les postes de travail tienne compte de l'âge : aux plus jeunes certaines tâches demandant des efforts musculaires importants ou de la résistance à la chaleur. Les résultats obtenus sont à l'inverse de ce qui était attendu : la moyenne d'âge5 des manoeuvres est de 41,3 ans, celle des OS de 37,9 et celle des OP de 37,4. Ces moyennes sont relativement élevées. Les écarts sont significatifs sans être si importants que cela : une amplitude de 3,9 années (ce qui exprimé en mois après la décimale en ajouterait presque onze). Mais 1 VANDECASTEELE Sylvie, « Comment peut-on être contremaître », dans LEQUIN Yves et VANDECASTEELE Sylvie, L'usine et le bureau, op. cit., p. 97 et sqq. 2 COMTE Marie-Hélène et GONOD Nathalie, L'éternel arménien, op. cit., p. 27. 3 Témoignage de Mohamed Safer 22/04/2000. 4 VANDECASTEELE Sylvie, « Comment peut-on être contremaître », dans LEQUIN Yves et VANDECASTEELE Sylvie, L'usine et le bureau, op. cit., p. 104-105. 5 Pour cette simple estimation a été tenu compte de l'âge du salarié au 5 avril 1954 sans compter les mois afin de simplifier le calcul. 145 surtout, alors que l'on pouvait attendre que les manoeuvres soient les plus jeunes, c'est l'inverse que l'on constate : cinq d'entre eux ont plus de 60 ans, pour un seul OS et aucun OP. Il faut donc chercher ailleurs que dans la force physique seule les motifs de leur recrutement. En effet, lorsque que l'on observe leur première année d'entrée dans l'usine, d'autres logiques apparaissent : Tableau 7 : Période d'entrée des ouvriers des hauts-fourneaux présents en 1954, en fonction de leur position dans la classification, exprimée en proportion de chaque classe1 Classification Entrés 1939 avant Entrés de 1939 à Entrés au Entrés après le mai 1945 moment de juin second semestre 1945 à juin 1947 1947 Ouvriers professionnels Ouvriers spécialisés Manoeuvres 40 % 4% 12 % 44 % 21,2 % 16,3 % 1,9 % 4,1 % 9,6 % 28,6 % 67,3 % 51 % Les ouvriers professionnels sont des trois groupes celui qui est le plus entré avant guerre à 40 %. Cela traduit la volonté des dirigeants de l'usine de fixer cette main d'oeuvre et dans une certaine mesure la réussite de cette opération. En revanche, les manoeuvres et les OS sont surtout arrivés après la guerre. On repère cependant une différence entre ces deux groupes : les manoeuvres sont davantage recrutés au moment de la reconstruction que les OS (28,6 % contre 9,6 %). La reconstruction et la relance de l'usine ont donc davantage reposé sur eux, puis la modernisation produisant ses premiers effets avec la mise en route de la machine à couler, le recrutement d'OS supplante en partie celui des manoeuvres. Or comme ces derniers sont globalement arrivés après 1945 – comme les OS –, on doit donc constater qu'on les recrute à tout âge, parfois à plus de 50 ans. C'est le cas d'Abel De Jesus recruté en décembre 1945 à 53 ans ou de Mohamed Bada recruté en juillet 1950 à 51 ans. En revanche, les OS sont recrutés en moyenne à un plus jeune âge. Il a donc bien une logique de recrutement : à de nouveaux postes, des hommes plus jeunes. En l'absence d'éléments probants, on en est réduit à faire des suppositions : est-ce dû à une meilleure acceptation des machines par les plus jeunes, et/ou à une volonté de contourner l'opposition des plus anciens, et/ou au désir de conserver le plus longtemps possible pour les rentabiliser des personnel formés, et/ou à un peu de tout cela ? 1 AMC, fichier mécanographique du personnel. 146 b) La fonderie et la briqueterie cimenterie Dans l'imaginaire collectif des Français, les hauts-fourneaux ont occupé une place de premier plan d'après Philippe Mioche1. En revanche, c'est beaucoup moins le cas des fonderies. D'ailleurs, même les historiens se sont bien peu intéressés à elles d'après Bruno Prati2. Pourtant, après les trois hauts-fourneaux, la fonderie de Chasse est une véritable usine dans l'usine des HFC. Quand on regarde la fonderie encore aujourd'hui, on est encore frappé par la taille de ses bâtiments : c'était déjà 10 500 m2 en 19503. Certes, c'est moins impressionnant que les hauts-fourneaux dont les cheminées de 30 mètres de hauteurs se détachent dans le paysage, mais elle comporte plusieurs ateliers : celui de menuiserie – appelé également modelage – où sont fabriqués les moules et les modèles de fonderie, les ateliers de fonderie proprement dits avec leurs quatre cubilots4, celui d'ébarbage où on élimine les défauts des pièces démoulées, celui d'usinage où on les retravaille. Elle possède en outre ses propres bureaux et son propre pointeau. Avec 172 travailleurs, elle représente près du quart des fiches du personnel dans le fichier mécanographique en avril 19545. Les ouvriers sont 143, soit 83,1 % : une proportion élevée, mais plus faible que dans l'atelier précédent. En effet, en plus de ces derniers et des agents de maîtrise, on a aussi des employés et techniciens : des catégories de personnel que l'on ne trouve pas aux hauts-fourneaux. La première étape de production est à l'atelier de menuiserie. Les modeleurs, appelés aussi menuisiers modeleurs, créent des modèles en bois qui servent à la fabrication des moules. Ce travail peut être effectué à l'aide de plans ou, sans plans, lorsqu'il s'agit de reproduire une pièce à l'identique. C'est donc un travail très soigné qui demande une grande dextérité, car certaines pièces sculptées s'apparentent à de véritables oeuvres d'art6. C'est un travail manuel mais, pour fabriquer quelques modèles de plus grande dimension, il faut utiliser des machines : une scie à ruban, une machine à tarauder, une machine à percer, une raboteuse7. Les menuisiers sont presque tous des 1 MIOCHE Philippe, La sidérurgie et l'État , op. cit., p. 862-863. PRATI Bruno, La Fonte Ardennaise et ses marchés, op. cit., p. 15-17. 3 ADI, 56J59, bulletin auxiliaire de propriété bâtie. 4 56J59, bulletin auxiliaire de propriété bâtie. 5 Cf. annexe 2. 6 Témoignage de Mohamed Safer le 22/04/2000, Jean Montoya le 12/05/2017. 7 ADI, 56J59, bulletin auxiliaire de propriété bâtie. 2 147 ouvriers professionnels, à part un charpentier et une magasinière. Cette dernière, la seule femme de l'atelier, est donc au service des autres hommes ; rangeant ou apportant le matériel, suivant là le modèle de la femme qui aide1. D'autres ouvriers fabriquent des noyaux de fonderie : ce sont les noyauteurs. Ces ouvriers professionnels font des noyaux destinés à former les parties creuses des pièces. Les noyaux sont sculptés (tout comme les modèles des modeleurs), puis ils sont envoyés dans une des étuves à noyau où ils se rigidifient. Mais quand ces ouvriers sont des OS, alors ce sont des femmes, qui ont à leur charge ce travail. Est-il si différent de celui effectué par les ouvriers professionnels ? Impossible de le dire, les sources manquent. Mais on sait, pour reprendre Fanny Gallot, que les emplois des femmes « se situent chaque fois au plus bas de la hiérarchie et leurs emplois se caractérisent par l'absence de responsabilité »2. Les mouleurs interviennent à l'étape suivante du processus de production. Ils assemblent les différentes parties du moule de fonderie : châssis, sable de fonderie servant d'empreinte et noyaux. On distingue parmi ceux-ci les mouleurs manuels des mouleurs à la machine. Les mouleurs manuels fabriquent des pièces qui peuvent être de forme spéciale, ou de grande dimension. Généralement, ce sont des pièces produites en nombre réduit. Pour créer leurs moules, ils travaillent avec des instruments manuels comme des spatules. Ils utilisent ensuite un four sécheur pour pouvoir les solidifier. Ce sont des OP. Les mouleurs à la machine, eux, fabriquent les différentes parties du moule avec des machines à mouler et des plaques modèles. Le sable utilisé pour faire l'empreinte est humidifié, puis il est tassé par vibration sur la machine à mouler. On installe également, si cela est nécessaire, les noyaux. Les mouleurs à la machine sont des OS : ils fabriquent de plus grandes séries de pièces. Leur travail est répétitif et mécanisé alors que celui des mouleurs manuels laisse plus de place à l'initiative et la dextérité. La fabrication d'un moule comporte plusieurs étapes pour installer des plaques modèles, des noyaux, tasser le sable, etc. Ensuite, il faut retirer la pièce de fonderie de son moule une fois qu'elle a été coulée. Dans ces différents travaux, les mouleurs sont aidés et parfois suppléés par des ouvriers spécialisés appelés démouleurs. 1 PERROT Michelle, « Qu'est-ce qu'un métier de femme ? », Le Mouvement social, n° 140, juilletseptembre 1987, p.3-8, p. 3. 2 GALLOT Fanny, Les ouvrières des années 1968 au très contemporain : pratiques et représentations, thèse sous la direction de ZANCARINI-FOURNEL Michelle, Université Lyon 2, soutenue en décembre 2012, 608 p., p. 131. 148 Quand le moule est prêt pour recevoir la fonte en fusion, il est alors transporté par des pontonnières dans l'atelier de fonderie de deuxième fusion ; à moins qu'il n'ait été assemblé sur place, en raison de ses dimensions. Elles interviennent alors pendant toute l'opération d'assemblage de ce moule. Document 4 : Une pontonnière de la fonderie1 Dans cet atelier, les cubilotiers s'occupent de quatre fours appelés cubilots : ces derniers fonctionnent comme des hauts-fourneaux en modèle réduit. Des chargeurs approvisionnent le four en coke et fondant. Tous ces ouvriers sont des OP. Les cubilotiers injectent ensuite de l'air pour faciliter la fusion des matériaux. Comme pour les hauts-fourneaux, on pratique ensuite deux coulées, une pour la fonte, une pour le laitier. La fonte est coulée dans des poches qui sont emportées vers les moules grâce aux ponts-roulants. Les pontonnières – toutes des ouvrières spécialisées – sont dans des cages en hauteur d'où elles dirigent les différentes poches vers les moules. Les mouleurs versent la fonte liquide à l'intérieur des moules par un orifice de coulée. Pour les plus petites pièces, comme il faut utiliser peu de fonte, ils ont des 1 Source : Michel Paret. 149 poches portatives qu'ils transportent à deux. On attend ensuite que la fonte se solidifie, puis, les démouleurs interviennent une dernière fois pour sortir la pièce. Après le démoulage, le moule est confié à des manoeuvres : les arroseurs et les accrocheurs. Les premiers sont chargés de refroidir les pièces. Les seconds doivent récupérer le sable de fonderie qui sera réutilisé pour d'autres moules : ce sont des manoeuvres qui s'occupent plus généralement de la manutention, d'où leur nom. Les pièces de fonderie sont cependant encore grossières à la sortie de l'atelier de deuxième fusion. Elles doivent donc passer par l'atelier d'ébarbage et ensuite parfois par l'atelier d'usinage. Dans l'atelier d'ébarbage, les ébarbeurs, tous OS, enlèvent les excroissances formées lors de la coulée et qui dépassent des pièces de fonderie. Le travail qu'ils font est relativement simple puisqu'il vise à éliminer les défauts de surface des pièces. Les pièces peuvent aussi être polies. Quand ils travaillent, les ébarbeurs doivent être protégés contre les éclats de métal qui peuvent être coupants comme des lames de rasoirs1. C'est également un travail fatiguant et répétitif, nécessitant un faible savoirfaire important mais sur un nombre de tâches limité : ces ouvriers sont des OS. Cela n'est pas le cas dans l'atelier d'usinage qui rassemble une forte proportion d'ouvriers qualifiés. L'atelier d'usinage fournit des pièces plus élaborées que celles qui sortent directement de la fonderie. Dans cet atelier on fabrique des pièces de taille, de complexité et de nature variables : on demande donc à son personnel de s'adapter continuellement. Le travail est moins répétitif et demande de l'initiative et un savoirfaire poussé. Les ouvriers de l'atelier d'usinage sont principalement des ajusteurs et des tourneurs. Ce sont tous des ouvriers professionnels mais, alors que les tourneurs travaillent principalement sur le tour et les grosses machines-outils, les ajusteurs sont beaucoup plus polyvalents. Ils utilisent par conséquent davantage les outils portatifs dans leurs opérations d'usinage. Ils peuvent être amenés à percer, meuler, souder, etc. Alors que les tourneurs – s'ils fabriquent eux aussi des pièces de nature différente –, emploient toujours le même outillage. Les deux OS de l'atelier sont des soudeurs dont le travail n'est certes pas répétitif au niveau des gestes puisque les pièces sont diverses généralement, mais il l'est au niveau de la tâche à effectuer. On trouve également à la Fonderie des personnels dédiés au transport et à l'entretien. Les pontonnières sont installées en hauteur dans la fonderie. Elles sont 1 Témoignage de Georges Charrier. 150 aidées par des accrocheurs chargés de fixer ce qui doit être transporté sur les ponts. Cette aide est en effet indispensable : les pontonnières sont perchées dans des cabines surplombant l'atelier, elles seraient donc obligées de descendre à chaque fois pour manipuler l'objet à transporter si les accrocheurs ne le faisaient pas à leur place. Grâce à ces derniers, la manutention gagne donc en temps et en efficacité. Ils s'occupent également des charriots qui circulent dans les différents ateliers transportant les paquets de ferraille, les minerais, etc., ainsi que les différentes pièces de fonderie à travers les ateliers et les magasins de stockage. De plus, pour que tous les ponts de la fonderie fonctionnent (il y en a sept au total1), il faut qu'ils soient graissés. Ce travail est fait par des ouvriers chargés de l'entretien des appareillages appelés graisseurs. Ces tâches de manutention et de graissage sont confiées à des manoeuvres : elles ne correspondent donc pas à un métier mais à une fonction et une activité. Comme aux hauts-fourneaux, la fonderie travaille sous le contrôle d'ingénieurs. Ils sont aussi au nombre de deux. Ils collaborent avec l'atelier de dessin qui les fournit en plans pour les pièces à fabriquer. Enfin, en plus de ce personnel d'encadrement et de conception des produits, il existe un personnel administratif. La fonderie peut vraiment être considérée comme une usine, puisqu'elle a sa propre administration indépendante des bureaux de l'ensemble usinier. Tous sont des employés et des comptables. La question de la formation à ces postes de travail doit à nouveau être posée, en particulier en la comparant à la situation des hauts-fourneaux. Or la formation par d'autres salariés a longtemps été jugée suffisante dans cette usine comme dans les autres usines de Chasse. C'est ce que prouve l'exemple de Georges Charrier formé à l'usinage – avant de partir au service d'entretien – pendant la guerre après sa sortie de l'école pratique de Vienne et l'obtention d'un CAP d'ajusteur2. Cela permet à d'autres travailleurs d'avoir des parcours professionnels étrangers à la sidérurgie avant de travailler aux HFC : c'est par exemple le cas de Michel Audibert qui travaille comme mouleur à la fonderie est qui un ancien coiffeur3. Or depuis 1938, les entreprises ont l'obligation de former des apprentis dont le nombre est en fonction de leurs effectifs 4. Dans les années 1950 aux HFC, on commence à accueillir des apprentis pendant leur formation. Il ne s'agit donc plus d'adaptation à un poste, d'un perfectionnement, mais 1 ADI, 56J59, bulletin auxiliaire de propriété bâtie. Témoignage dactylographié de Georges Charrier. 3 AMC, fichier mécanographique. 4 MARGAIRAZ Michel, « La permanence de la structure de la classe ouvrière dans les années cinquante », dans WILLARD Claude (dir.), La France ouvrière 1920-1968, op. cit., p. 259. 2 151 désormais d'une participation à la formation d'un futur travailleur dont les cours théoriques sont suivis dans une école technique. Ces derniers doivent faire leurs preuves. Le temps de formation est relativement long et l'accession au grade d'OP ne s'obtient pas automatiquement car on peut être embauché d'abord sur un autre poste où cette qualification n'est pas reconnue. Par exemple, Simon Gondin est embauché à quatorze ans à la menuiserie en 1945 ; il est modeleur de formation mais il n'est ouvrier professionnel et n'occupe un poste de ce type qu'en 1956. À partir du milieu des années 1950 le nombre d'apprentis augmente : on les trouve principalement à la fonderie et à l'entretien ; soit comme mouleur dans le premier atelier, soit comme ajusteur à l'usinage de la fonderie ou au service d'entretien. Certains contrats indiquent que la Compagnie des HFC peut prendre en charge les droits d'inscription aux cours1. Il est aussi possible que dès cette époque des ouvriers partent se former en suivant des cours du soir, mais on n'a jusque-là trouvé aucune preuve à ce sujet : de telles pratiques sont néanmoins présentes dès la fin des années 19502. La formation des ouvriers qualifiés ne s'effectue pas dans les mêmes conditions aux hauts-fourneaux et à la fonderie ou à l'entretien. Aux méthodes de recrutement de personnel expérimenté et à la formation « sur le tas » présentes dans tous les ateliers, on ajoute la formation de stagiaire et la formation professionnelle à partir de cours du soir. Toutefois, les hauts-fourneaux ne sont pas concernés par ces derniers types de formation alors que paradoxalement c'est sur ces ateliers que porte l'essentiel de l'effort de modernisation. Cela devrait pourtant nécessiter du personnel nouvellement formé. Or cela ne peut s'expliquer par la simplicité des tâches à effectuer dans la conduite d'un haut-fourneau : la description qu'en a faite Mohamed Safer3 montre qu'en plus d'un savoir faire technique théorique, il faut aussi une expérience afin de par exemple mesurer au coup d'oeil si la coulée peut être pratiquée, ou éviter un accrochage lors du chargement. Il resterait alors deux facteurs permettant de comprendre ces différences : tout d'abord le haut-fourneau comporte un grand nombre de travailleurs étrangers. Or les formations peuvent en théorie s'adresser à eux, mais en pratique la barrière de la langue4 pour certains ou le turnover sont une première limite. Ensuite, comme il ne reste plus que deux usines régionales à posséder des hauts-fourneaux alors qu'il y a de 1 AMC, fichier mécanographique, voir le contrat d'apprentissage de Colagero Dominico. Témoignage de Jacques Bernet le 02/02/2017. Jacques Bernet travaille alors comme laborantin. Il a suivi les cours pour passer un brevet industriel d'aide-chimiste. 3 Témoignage de Mohamed Safer le 22/04/2000. 4 J'ai pu le tester lors de l'interview de Dilmi Bencheick qui malgré sa gentillesse n'a pas pu être interviewé jusqu'au bout. Il en a été de même pour Saturno Colangeli. 2 152 nombreuses fonderies, il parait logique que la formation professionnelle attire d'abord des stagiaires pour les secondes et non pas pour les premières : les métiers de la fonderie apparaissent donc comme attractifs car ils offrent des opportunités de carrière. La complexité relative du processus de production de la fonderie et la diversité de ses fabrications expliquent en effet le nombre assez élevé de métiers. On retrouve cette variété nulle part ailleurs dans l'usine des HFC. Chaque atelier emploie des manoeuvres, des ouvriers spécialisés et des ouvriers professionnels. Cependant, chacun a sa tâche à l'intérieur de l'atelier. Par exemple, dans l'atelier de deuxième fusion, les mouleurs manuels sont tous des ouvriers professionnels, les mouleurs à la machine sont des ouvriers spécialisés, les accrocheurs sont des manoeuvres. Les postes occupés par les ouvriers sont donc plus difficilement interchangeables que dans d'autres ateliers comme aux hauts-fourneaux ou à la cimenterie ; mais plus on descend dans la hiérarchie ouvrière et moins cela est vrai. À ce constat s'ajoute une double segmentation des postes et des tâches en lien avec la nationalité et le sexe. En ce qui concerne la nationalité, on peut observer que tous les contremaîtres et chefs d'équipe sont Français. Comme dans l'atelier des hautsfourneaux, l'un d'entre eux est d'origine grecque et constitue une exception. Ensuite, plus on descend dans la classification ouvrière et plus la proportion de travailleurs étrangers augmente : 28 % des OP, 26,7 % des OS (mais 55 % en comptant les naturalisés), 75 % des manoeuvres. Les Algériens qui sont toujours comptabilisés ici avec les étrangers sont uniquement des OS et des manoeuvres. On observe néanmoins la présence d'une qualification supplémentaire : celle de technicien. Or cette catégorie de travailleur est encore peu reconnue dans la plupart des professions, la métallurgie faisant exception1. Peu nombreux – on n'en compte que trois –, tous sont dans cet atelier et tous sont Français, même s'il y a un naturalisé. Le critère de la nationalité ne se retrouve pas qu'à l'échelle des postes, car il permet de distinguer aussi les différents ateliers entre eux. Les ateliers de fonderie possèdent des travailleurs de toutes nationalités, ce qui est beaucoup moins le cas en menuiserie et pas du tout au niveau de l'usinage. À ce propos, on notera que les ébarbeurs qui travaillent les pièces de fonderie après leur démoulage comme les ouvriers de l'usinage ne se retrouvent pas avec eux dans le même atelier : la différence de qualification et de nationalité se retrouve dans la 1 JOBERT Annette, TALLARD Michèle, « Systèmes de classification et structuration de la catégorie des techniciens », Sociétés contemporaines, n° 9, Mars 1992, p. 143-158, p. 144 sqq. 153 séparation des ateliers, alors que la position dans le processus de travail aurait pu permettre un rapprochement. Le second critère de la segmentation des postes de travail dans cette usine est le sexe. On retrouve les femmes dans un nombre restreint de postes : noyauteuse et pontonnière à la fonderie, magasinière à la menuiserie, employée de bureau. Noyauteuse et par exemple employée de bureau dactylographe sont des métiers, mais les femmes sont toujours en position inférieure à celle des hommes : on a vu qu'elles ne peuvent être qu'OS comme noyauteuse et pas OP, et dans les bureaux aucune n'est comptable. En outre, le travail de bureau à la fonderie n'est pas aussi intéressant que celui des bureaux de l'ensemble usinier : par exemple, Andrée Jobert qui a travaillé avec son mari au bureau de la fonderie était cependant prête à démissionner, quitte à aller jusqu'à Lyon chercher du travail. Sa mutation dans les « grands bureaux » lui a permis de surseoir à cette décision1. Enfin, pontonnière et magasinière sont des activités qui s'inscrivent dans les dispositions considérées comme « innées » ou « naturelles » des femmes2 : dans le premier cas il s'agit de sa dextérité, dans le second de sa capacité à aider. La briqueterie cimenterie est la troisième usine de production possédant une autonomie dans le fonctionnement dans l'espace usinier. Comme les hauts-fourneaux et la fonderie, elle gère ses stocks de matière première et de production indépendamment du fonctionnement immédiat des autres ateliers. À la cimenterie on transforme le laitier en ciment, puis en produits finis à la briqueterie : c'est-à-dire briques, moellons mais aussi tuyaux et barrières dont bons nombre de maisons de Chasse sont encore constituées. Les ouvriers de la cimenterie sont cimentiers, chargeurs, ensacheurs. Ceux de la briqueterie sont chargeurs ou ajusteurs. Il existe des postes communs aux deux ateliers : pontonnier ou personnel d'entretien comme graisseur. La majorité des ouvriers sont OS ou manoeuvres. On n'est donc pas surpris de retrouver parmi eux des étrangers : à 35,3 % pour l'effectif OS et 53,8 % pour les manoeuvres (en comptant avec les étrangers les Algériens) en avril 19543. De plus, comme au haut-fourneau, on ne trouve aucune femme. Or il y en avait jusqu'à la fin de la Seconde Guerre mondiale. 1 Témoignage du le 06/05/2016. PERROT Michelle, « Qu'est-ce qu'un métier de femme ? », op.cit., p. 3-4. 3 Cf. annexe 2. 2 154 En revanche, le nombre d'agents de maîtrise est élevé : six, soit 14,6 % de l'effectif total). On retrouve toutes les catégories possibles : chef d'équipe, contremaître, chef de poste. Cela s'explique par la présence de deux ateliers, mais aussi parce que les ateliers fonctionnent en 3/8 comme aux hauts-fourneaux1. Comme la briqueterie cimenterie jouit d'une autonomie de gestion vis-à-vis de la direction de l'usine, ses ateliers possèdent chacun leur pointeau. Un ingénieur supervise l'ensemble. On doit constater aussi la polyvalence et la circulation d'une partie des ouvriers d'un atelier. En effet, à part les cimentiers, les ensacheurs et les chargeurs, tous peuvent travailler indifféremment à la briqueterie ou à la cimenterie. Ainsi Jacques Bernet travaillait aussi bien dans l'un que dans l'autre des deux ateliers lorsqu'il était ajusteur dans cette usine2. Cela est rare dans une usine où le règlement intérieur limite les déplacements des ouvriers3. Mais il faut aussi dire qu'en changeant d'atelier on ne s'éloigne guère puisque les deux bâtiments sont mitoyens. c) Les activités périproductives Les autres activités peuvent être présentées comme annexes aux activités productives proprement dites : hauts-fourneaux, fonderie, cimenterie et briqueterie. On peut parler d'activités « périproductives » au sens où les géographes l'emploient : ses activités « participent directement ou indirectement à la production »4. Dans un premier temps, on peut étudier celles qui sont annexes des hauts-fourneaux et de la fonderie, puis on verra les autres activités annexes de l'usine. Les premières sont regroupées en cinq lieux distincts : un atelier d'agglomération, deux parcs de stockage (ferrailles et fonte), des bureaux de dessin et un laboratoire. Même si certaines activités comptent peu d'ouvriers, ils n'en sont jamais complètement absents ; ce que l'on retrouve en avril 19545, comme dans les années antérieures et postérieures. 1 Témoignage du 22/04/2000, Georges Charrier et Mohamed Safer. Témoignage de Jacques Bernet le 02/02/2017. 3 ADI, 56J57, règlement intérieur d'atelier. 4 DAMETTE Félix et SCHEIBLING Jacques, La France. Permanences et mutations, Hachette, Paris, 1999, 255 p., p. 88 et sqq. 5 Cf. annexe 2. 2 155 Dans l'atelier d'agglomération, les ouvriers fabriquent des briquettes de pyrite qui servent de minerai pour les hauts-fourneaux en raison de leur haute teneur en fer. La pyrite est acheminée par wagon jusqu'aux estacades de l'usine où elle est déchargée, puis elle est emmenée par des ouvriers spécialisés appelés rouleurs dans l'atelier. Au premier stade d'élaboration des briquettes, la pyrite est emportée sur deux élévateurs vers des presses à agglomérer. Les briquettes, encore fragiles, sortent sur un monorail. Là, elles sont ensuite chargées par les empileurs sur des chariots : ce sont des manoeuvres. Ces chariots passent dans l'un des autoclaves qui servent à la cuisson des briquettes puis par l'un des fours sécheurs. Il reste alors aux rouleurs à évacuer ces briquettes qui sont prises en charge par le personnel chargé du transport à l'intérieur de l'usine. L'atelier d'agglomération occupe relativement peu de monde si on le compare au haut-fourneau ou à la fonderie. Son personnel est uniquement composé d'OS – machinistes, pontonniers, rouleurs – et de manoeuvres placés sous les ordres d'un contremaître. La manutention et le chargement des wagons sont souvent effectués par des travailleurs étrangers. Ce travail est physique, donc pénible et dangereux, mais il ne demande aucune qualification. De même, les empileurs font un travail à la chaîne confié à des femmes avant 1945 qui de plus, sont également souvent étrangères. À la différence de la cimenterie où les ouvrières ont disparu, il existe donc encore des postes d'empileuse à l'agglomération. Ce travail dur est le seul où des femmes sont exposées au feu. Elles n'ont cependant pas à manipuler de la matière en fusion comme au hautfourneau ou à la fonderie, mais elles doivent supporter de fortes chaleurs. En 1947, le remplacement des empileuses arméniennes – poste pour poste – par des Espagnoles révèle une segmentation du marché du travail reposant sur des critères de sexe et de nationalité. C'est le seul atelier où l'on retrouve cela puisque les autres postes attribués à des femmes étrangères faiblement qualifiées concernent ensuite le ménage ou la cantine. Toutefois, après la substitution des ouvrières espagnoles aux arméniennes, ces dernières partent au début des années 1950 sans être remplacées par d'autres femmes : la nature du recrutement des empileurs est en voie d'être modifiée. En 1954 en effet, on remarque le recrutement récent de deux OS de dix-sept et dix-huit ans, mais surtout parmi les manoeuvres, douze ont de seize à vingt ans soit les 2/3 de cette catégorie de personnel dans l'atelier. On ne retrouve cela dans aucun des autres ateliers. De plus, alors que les femmes ouvrières sont généralement séparées des hommes, à un poste de travail à part pour les noyauteuses, en hauteur pour les 156 pontonnières, on tolère ici la promiscuité dans la mesure où ces jeunes sont mineurs. Cela est cohérent avec cette substitution des ouvrières par de jeunes travailleurs alors qu'on fait entrer ces derniers en grand nombre afin de les fixer. Or le travail à l'agglomération permet une exposition au feu sans atteindre la dangerosité des autres ateliers exposés à ce risque. Il demande de vérifier la docilité de chacun par l'acceptation de la discipline de la chaine. Plusieurs de ces jeunes travailleurs deviennent ensuite des OS dans les autres ateliers. Deux d'entre eux sont même devenus des ouvriers professionnels ; l'un Gaetano Cali est mécanicien à la centrale, l'autre René Touvignon est à la manutention. Un troisième travailleur, François Dagostini sort du centre d'apprentissage de Vienne. Il débute le 30 octobre 1952 à l'agglomération comme manoeuvre à presque dix-sept ans. Deux ans plus tard il est OS2 à la centrale ; puis encore quatre ans après – ayant fait son service militaire –, il devient OP1. Ces différents exemples démontrent donc bien que cet atelier est un lieu d'intégration, et dans une certaine mesure de formation pour le recrutement de futurs travailleurs des HFC. Ces pratiques sont bien évidemment anciennes. En observant l'âge d'entrée dans l'entreprise, on s'aperçoit ainsi que plusieurs OP 1 qui ont débuté à Chasse dans les années 1920 sont partis quelques mois ou quelques années, puis sont revenus dans l'usine. Par exemple, Paul Ferrand est mouleur à la fonderie. Il est embauché la première fois le 9 avril 1920 à quatorze ans. Il revient à plusieurs reprises dans l'usine : trois ans et deux mois de 1920 à 1923, dix mois de 1924 à 1925, neuf mois de 1925 à 1926, trois mois en 1927 ; puis il part au régiment. De retour en avril 1928, il est embauché depuis à la fonderie. Donc la nouveauté à l'agglomération n'est pas dans la pratique, mais dans le fait que désormais un atelier soit spécifiquement dédié à cette mise à l'épreuve des futures recrues2. Dans les deux parcs de stockage (ferrailles et fonte), un contremaître dirige une équipe formée uniquement de manoeuvres et d'OS, totalement masculine. Les valeurs viriles et la fierté de leur force caractérise ces hommes 3. De plus, comme ceux des aux hauts-fourneaux – une autre usine dont le personnel est entièrement composée 1 AMC, fichier mécanographique. On voit que dans les années 1920, le recrutement de travailleurs mineurs, voir très jeunes concerne tous les ateliers, sauf le haut fourneau : AMC, cahier des personnels français n° 4. 3 Une situation comparable à celle des dockers de Michel Pigenet dans PIGENET Michel, « A propos des représentations et des rapports sociaux sexués : identité professionnelle et masculinité chez les dockers français (XIXe - XXe siècles)», Le Mouvement Social, 2002/1, n° 198, p. 55-74. 2 157 d'hommes –, « ils ne crachent pas sur la bouteille »1. Témoignant et revendiquant ces valeurs, Fernand Abel embauché en novembre 1933 a d'abord été ouvrier au hautfourneau quelques années avant de passer le reste de sa carrière au parc à fonte. La présence étrangère est là encore plus forte quand on descend de la catégorie OS à manoeuvre. Toutefois, les tâches et activités différent. Au parc à ferraille, on s'occupe de l'approvisionnement des hauts-fourneaux les paquets venant en complément des lits de fusion. Le travail demandé peut être divisé en deux ensembles de tâches bien distincts. D'une part, les ouvriers doivent découper et broyer les déchets métalliques (tournures et riblons) qui peuvent être produits par l'usine ou surtout achetés et importés : c'est le travail des chalumistes et des broyeurs. D'autre part, une fois que la ferraille est broyée, elle est envoyée dans des petites presses ou dans l'énorme presse Lindemann récemment achetée2 pour quelle soit compactée : c'est le travail au poste de « mécano presse ». L'agglomération des minerais et le paquetage des ferrailles sont les deux seules activités de transformation industrielle intervenant en amont de l'activité sidérurgique de l'usine car la fabrication de coke a été abandonnée après la Seconde Guerre mondiale. Le parc à fonte fonctionne lui en aval des activités des hauts-fourneaux, mais en amont de celle de la fonderie si la fonte considérée est de moulage. Ce parc est approvisionné en gueuses de fonte provenant des hauts-fourneaux. On les expédie ensuite vers les clients de l'usine. Le « parc à fonte » utilise un pont stripeur3 servant à extraire les lingots des moules à fonte, puis des bascules pour peser le chargement des wagons et des ponts pour la transporter vers les wagons. Néanmoins, en raison des diverses tâches à accomplir dans de multiples lieux – d'extraction et de récupération des lingots après la coulée, de pesage, de chargement, de déchargement et de stockage – une partie du travail demeure manuel. C'est ce qu'affirme Fernand Abel4, lui-même ancien leveur de fonte : « la plupart du temps, le chargement des wagons se faisait à bras ». Ce travail est particulièrement physique et rude, surtout l'hiver où la fonte colle à la peau. Toutefois, être leveur de fonte est un poste recherché5 car on est mieux classé sur la grille de salaire de l'entreprise. 1 Georges Charrier et Fernand Abel le 15/3/2000. Sur la consommation d'alcool, voir plus loin. b) Les remises en cause des pratiques patronales. 2 ADI, 56J12, conseil d'administration du 29 novembre 1950. 3 ADI, 56J59, bulletin auxiliaire de propriété, fiscalité 1929-1969. 4 Témoignage du 15/03/2000. 5 Ibidem 158 Le laboratoire et les bureaux d'étude sont des annexes des hauts-fourneaux pour le premier, de la fonderie pour le second. Les personnels sont tous des hommes, Français et souvent très qualifiés. Le laboratoire prévoit et analyse les productions des hauts fourneaux. Son personnel est composé de trois ingénieurs et de quatre chimistes, tous mensuels. On compte également des OS (aide chimistes ou échantillonneurs) et des manoeuvres. Ce personnel ouvrier est chargé d'aller faire des prélèvements jusqu'à l'intérieur des hauts-fourneaux, ou lors de la coulée, afin qu'ils soient analysés 1. Pour réaliser ces prélèvements – parfois risqués puisqu'ils s'effectuent avec de la fonte en fusion –, les ouvriers utilisent des outils en platine. Ils peuvent aussi prélever des échantillons au niveau des minerais2. Par ailleurs, ils ont souvent travaillé auparavant aux hauts-fourneaux et connaissent donc leur fonctionnement. Les bureaux d'étude sont eux dirigés par un ingénieur. Les dessinateurs sont des mensuels, comme les chimistes du laboratoire. Ils travaillent surtout pour la réalisation des pièces de la fonderie. La diversité des activités annexes des hauts-fourneaux et de la fonderie se retrouve dans une certaine mesure dans celles du reste de l'usine. On a tout d'abord celles qui concernent l'entretien et la production d'énergie tout d'abord, puis celles de manutention et de transport. En 1954, ces activités occupent au total 142 salariés, tous masculins3. L'activité d'entretien de l'usine et son parc de logement est elle-même divisée en deux d'après la nomenclature fournie par les sources de l'usine : l'atelier d'entretien proprement dit et les maçons. Cette séparation entre ces deux activités est comparable avec ce que l'on retrouve avec l'ébarbage et l'usinage : on sépare des activités manuelles d'activités plus techniques, mais les travailleurs français et étrangers sont aussi séparés. En effet, les maçons sont principalement des OS et des manoeuvres – 73,7 % de l'effectif ouvrier –, alors qu'à l'entretien les OP représentent 48,2 % de l'effectif ouvrier. Pour l'entretien, on peut souliger également la diversité des métiers : ajusteurs, tourneurs, chaudronniers, serruriers, mécaniciens, soudeurs, électriciens, plombiers. La liste est à peine plus courte pour les ouvriers spécialisés : monteurs, ajusteurs, tourneurs, frappeurs (c'est-à-dire aide forgeron), électriciens et magasinier. Cette diversité est unique dans l'usine, elle correspond à la diversité des lieux et causes d'intervention : il 1 Témoignage Mohamed Safer du 22/04/2000. Témoignage Jacques Bernet du 02/05/2017. 3 Cf. annexe 2. 2 159 s'agit d'entretenir l'appareillage industriel qui est complexe ainsi que dans une moindre mesure le parc immobilier de l'entreprise. Les maçons ont eux aussi les mêmes champs d'intervention : dans l'espace de l'entreprise, ils ont par exemple posé toutes les barrières fabriquées à la briqueterie des maisons des HFC du quartier de l'Église 1. Dans l'espace usinier, ils travaillent en particulier pour l'entretien des hauts-fourneaux et de la fonderie : ils sont chargés de changer les briques réfractaires des parties usées du matériel (des hauts-fourneaux et cubilots), ils peuvent aussi les déconstruire et les reconstruire. Mais leurs métiers sont beaucoup moins variés puisqu'ils sont presque tous maçons. Le contraste entre les maçons et les ouvriers d'entretien se retrouve également au niveau de leur outillage. Les premiers sont aussi palefrenier ou voituriers car il y a encore des chevaux pour tirer le matériel. Ils sont certes indispensables aux hautsfourneaux en raison de leur force et de leur manoeuvrabilité : eux seuls peuvent débloquer l'orifice de coulée2 et réussir là où les hommes et les machines sont impuissants. Mais ils sont également un élément d'archaïsme. Le métier de maçon est également simple et demande peu de formation et d'outillage. Cela s'oppose à l'équipement moderne de l'entretien composé de machines outils : forges, scies, tours, etc.3. De plus, on constate la présence d'un apprenti dans l'effectif, ce qui est différent de la formation « sur le tas » de la maçonnerie. Un autre élément de contraste se retrouve dans les installations : l'atelier d'« entretien du matériel » mesure 1860 m2 auquel on lui a adjoint les deux ateliers du « magasin général » de 1180 m2 et 450 m2 dans lesquels on stocke le matériel. La maçonnerie située devant la fonderie est constituée d'un bâtiment de petite dimension, qui sert de vestiaire, de bureau et de stockage. Enfin, un dernier élément de différenciation entre la maçonnerie et l'entretien se retrouve dans la hiérarchie : on a un seul contremaître qui dirige de simples chefs d'équipe dans la première. Il y a en revanche un ingénieur, des chefs de poste, des contremaîtres et des chefs d'équipe dans la seconde activité. Tout comme à l'entretien, le personnel du « service thermique » est très qualifié et expérimenté. À part un ouvrier spécialisé, il est composé de mécaniciens, ajusteurs, surveillants et alimenteurs qui sont des OP. Quant au personnel d'encadrement – des chefs de poste et un chef d'équipe – il représente 1⁄4 de l'effectif total de l'atelier. La 1 Témoignage, Fernand Abel le 15/3/2000. Témoignage de Mohamed Safer le 22/04/2000. 3 ADI, 56J59, bulletin auxiliaire de propriété, fiscalité 1929-1969. 2 160 centrale tourne en effet en continu, le personnel travaille en équipes de jour et de nuit. Certains sont qualifiés comme Gaston Riffard, agent technique venant de l'école professionnelle de Voiron1, devenu chef de poste. D'autres parmi les plus anciens ont d'abord été ouvrier avant de devenir chef par promotion interne. C'est le cas d'Étienne Sauzay, ouvrier embauché en 1912 à l'âge de 14 ans, il devient mensuel en 1947. Il prend sa retraite en 1963 après avoir effectué l'intégralité de sa carrière aux HFC 2. L'ensemble de ces personnels est sous les ordres d'un ingénieur. Tous sont Français. Les activités de manutention et du garage sont les dernières de l'usine à embaucher des ouvriers. On aurait pu tout aussi bien les présenter avec les travailleurs des parcs à fonte et à ferrailles avec lesquels ils partagent nombre de caractéristiques : la plus grande proportion d'OS et de manoeuvres que d'OP (ces derniers représentent seulement 12,5 % de la catégorie ouvrier) et son corollaire la plus forte présence de personnels étrangers ; du moins pour la manutention. En 1954, ces ateliers embauchent à eux deux cinquante-quatre travailleurs. On peut remarquer que le garage compte certes un faible effectif, mais que les cinq chauffeurs et leurs chefs sont tous de nationalité française. Ce sont des OS, comme de nombreux travailleurs de la manutention. On a cependant fait le choix de les distinguer de cette activité. Les personnels effectuant des activités de manutention se retrouvent dans divers ateliers de l'espace usinier. Mais, les travailleurs de la « manutention » sont les seuls à déplacer les matières premières et les productions entre les ateliers – et non à l'intérieur de l'un d'entre eux –, ou de recevoir et d'expédier celles-ci vers l'extérieur de l'usine. On peut distinguer pour la « manutention » quatre activités différentes. Le grutier installé le long du Rhône qui s'occupe du déchargement de produits pondéreux, en particulier des minerais. Des pontonniers gèrent les différents lieux de stockage autres que les ateliers et qui se trouvent à l'intérieur de l'usine (parcs à charbon, à minerais, etc.). Ensuite, comme les HFC sont reliés aux voies de chemin de fer passant à proximité et à la gare de triage de Chasse, une bonne partie du transport des pondéreux (charbon, coke, pyrite, minerai) et des productions (fonte pièces de fonderie, ciment, 1 École professionnelle fondée en 1882, « orientée vers les métiers industriels, pour élever la qualité de production dans les manufactures », dans http://www.fbuisson.fr/, [dernière consultation le 31 juillet 2016]. Voir aussi ROJON Jérôme, L'industrialisation du Bas Dauphiné : le cas du textile (fin XVIIIe à 1914), CHASSAGNE Serge (dir.), thèse Université Lumière Lyon 2, 2007, 1314 p., p. 854 sqq. sur les débuts de l'école professionnelle de Voiron. 2 AMC, fichier mécanographique. 161 etc.) passe sur les presque dix kilomètres de voies ferrées 1 se trouvant à l'intérieur de l'usine. Il existe donc tout un personnel spécialisé dans ce dernier domaine : des conducteurs de locomotives – appelés « mécano loco » – pour faire fonctionner cellesci, des caleurs chargés du triage des wagons et des garde-barrières. Enfin, à la bascule se trouvant entre les hauts-fourneaux et la fonderie, vers les parcs de stockage, on pèse les matières premières entrant ou les produits expédiés. Parmi les basculeurs on compte une femme qui est une employée et non une ouvrière. Cette dernière est une Française comme toutes les employées travaillant à la fonderie et dans les bureaux de la direction de l'usine2. Il est cependant possible d'établir une différenciation entre les employées travaillant dans les ateliers et ceux qui sont dans les bureaux. d) Les activités de bureau et de service Une seconde différenciation apparait au sein même des bureaux de la direction entre les « grands bureaux » de la direction des « bureaux » de l'usine. À Chasse, les bureaux de la direction de l'usine sont appelés les « grands bureaux ». Le directeur est Georges Albert de Benoist. Il n'a pourtant pas encore officiellement remplacé François Tavernier, mais il est en voie de le faire ainsi que d'occuper le poste d'ingénieur principal. Il est aidé de Jean Boureille, ingénieur travaillant aux HFC depuis le 1er janvier 1927, qui occupe le poste de secrétaire général. Ils ont dans ces bureaux quatre services sous leurs ordres directs. Tout d'abord le directeur de l'usine possède son propre secrétariat à la tête duquel on trouve un secrétaire de direction : Bernard Tremeau. Il est le petit-fils de Robert Tremeau, administrateur des HFC 3. Il entre dans l'usine à ce poste à vingt-quatre ans, juste après son service militaire. On a ensuite la comptabilité qui est dirigée par un 1 ADI, 56J59, bulletin auxiliaire de propriété, fiscalité 1929-1969. Une situation commune et ancienne, par exemple chez Renault aussi les employés sont eux aussi presque tous Français, dans GARDEY Delphine, « Du veston au bas de soie : identité et évolution du groupe des employés de bureau (1890-1930) », Le Mouvement social, n° 175, avril-juin 1996, p. 55-77, p.75. 3 Généalogie Robert et Bernard Tremeau, http://www.cgvvr.org/michal/dat20.htm, [dernière consultation le 11 avril 2015] ; AMC, fichier mécanographique ; ADI, 56J3, inscription au registre de commerce ; base Léonore, dossier Robert Tremeau, http://www.culture.gouv.fr/LH/LH108/PG/FRDAFAN84_O19800035v0155890.htm. 2 162 chef comptable : Marius Meunier. Il a fait la plus grande partie de sa carrière dans l'entreprise en étant rentré dans celle-ci en mars 19191. Il y a également le service fonte, dirigé par un chef de service – André Béllangeon – qui est chargé de la commercialisation de la production de l'usine. Il est né en 1911. Titulaire d'un brevet élémentaire, cet ancien adjudant entre aux HFC en 1947 alors qu'il vient d'être retraité de l'armée2. Enfin, il y a aussi un service « approvisionnement » dirigé par Marius Astic, lui aussi chef de service. Embauché en 1919, il a fait lui aussi la plus grande partie de sa carrière aux HFC 3. On retrouve donc ces postes de responsabilité et de confiance, des hommes qui ont été recrutés soit par connaissance, soit en raison de leur ancienneté dans l'entreprise, voire de leurs services dans l'armée. Pour ce qui concerne les personnels de ces services, on trouve à la comptabilité des comptables et dans les autres services qui sont de nature administrative un secrétaire, des employés, des sténodactylographes et des dactylographes. On a enfin un personnel non directement lié aux différents services : il s'agit d'une standardiste et d'un coursier, tous chargés de la communication des « grands bureaux » avec l'extérieur. Les « bureaux » sont dans le même bâtiment que les « grands bureaux » et se distinguent ainsi des autres services de bureaux présents dans l'espace usinier (bureau de sécurité sociale, bureaux de la fonderie, etc.). Leur position dans l'espace usinier est également symbolique : les « grands bureaux » et les « bureaux » de l'usine sont dans des bâtiments que l'on voit depuis l'entrée. Les « bureaux » du bâtiment de l'entrée sont divisés en au moins deux services : le « service paie » dirigé par un « caissier principal » – Georges Guinand4 – s'occupe des paies et des différentes indemnités devant être versées au personnel. Comme d'autres chefs de service, il débute en 1919, mais il a déjà trente-cinq ans. On ne connait pas sa formation. Il est simple soldat pendant la Première Guerre mondiale, mais cité à trois reprises, il a la croix de guerre. L'autre service, concerne le « personnel » et est dirigé par Marius Calvi qui est « chef du service personnel ». Il gère le recrutement et le parcours professionnel des salariés de l'entreprise ; c'est dans ce service que sont tenus les cahiers et fichiers du personnel. Marius Calvi5 est bien plus jeune que Georges Guinand. Il débute comme simple 1 Liste des prud'hommes 1954 ; AMC, cahier du personnel n°9. ADI, 56J65, état du personnel ; AMC, fichier mécanographique. 3 AMC, fichier mécanographique du personnel. 4 AMC, fichier mécanographique. 5 Ibidem. 2 163 employé au service fonte en 1939 à l'âge de 18 ans, il part pour les chantiers de jeunesse en 1941, puis au STO de 1943 à mai 1945. Il est mensuel peu de temps après son retour en juin 1945 et devient chef de service en 1947. Ces quelques années lui ont permis de faire ses preuves. Un troisième service appelé « ravitaillement » est dirigé par Charles Domeyne. À une date inconnue il devient le service « logement », chargé de gérer le parc de logements de la Compagnie. En 1954, Charles Domeyne1 n'est noté qu'employé sur la liste des prud'hommes et il n'est donc pas possible de savoir où on en est dans ces changements. Il est cependant titulaire d'un brevet d'enseignement agricole. Il a vingttrois ans en 1937 lorsqu'il quitte l'entreprise familiale pour les HFC. Il travaille à la manutention comme contremaître dès 1938, puis en 1943 il devient employé de bureau. Il reste dans ces services jusqu'à la fin des HFC. Ces hommes partagent les caractéristiques de recrutement des chefs des grands bureaux, mais ils sont en moyenne un peu plus jeunes. Les personnels subalternes des « bureaux » sont des comptables, des employés et des secrétaires dactylographes et sténodactylographes. Leur nombre est plus limité que dans les « grands bureaux ». Il n'y a en outre ni standardiste, ni coursier. Les parcours professionnels des personnels de bureaux révèlent une forte différenciation entre hommes et femmes. Seuls les premiers ont la possibilité de devenir chef : comme l'écrit Delphine Gardey, cette catégorie d'employé jouit en effet d'une « position sociale spécifique [] héritage du passé [qui] semble donc se poursuivre pour la plupart des employés adultes masculins »2. Leur recrutement dépend d'éléments supplémentaires à ceux liés à la qualification. Il y a l'expérience, qu'elle soit acquise dans l'entreprise ou à l'extérieur3. Ensuite, le service ou la carrière militaire a de l'importance, notamment parce qu'elle offre des aptitudes de commandement. Enfin, des garanties, comme le fait d'appartenir à une famille déjà connue, apporte des facilités. Les femmes ne peuvent pas effectuer les même parcours professionnels. Toutefois, la quasi totalité des salariés des bureaux sont des mensuels, or c'est parmi 1 ADI, 56J65, état du personnel ; AMC, fichier mécanographique. GARDEY Delphine, « Du veston au bas de soie », op. cit., p. 66. 3 Anne-Sophie Beau l'avait déjà noté pour les employés masculins, même si c'est dans un autre contexte professionnel. BEAU Anne-Sophie, « Les employéEs du grand Bazar de Lyon (1886-1950) », op. cit., p. 60. 2 164 eux que l'on retrouve la plupart des femmes qui ont atteint ce niveau de rémunération1. Des postes leurs sont réservés : elles représentent la totalité des sténodactylographes et des dactylographes, or on sait que ces professions sont féminisées ce qui a été accompagné d'une naturalisation des qualités féminines supposées correspondre à cette compétence2. On leur réserve également le poste de standardiste. En revanche, la profession de comptable est majoritairement masculine. La situation évolue néanmoins, puisqu'une femme est devenue secrétaire de direction – il s'agit de Janine Bouillet – et qu'une autre est comptable, elle s'appelle Marguerite Migieu. Cette dernière est d'ailleurs payée au coefficient 185 3 (malheureusement le salaire précis n'est pas donné ici, la comparaison ne peut se faire qu'à partir du coefficient). Elle est donc au dessus de la cotation de l'un de ses collègues, Armand Bellotti qui n'est qu'à 168 (pour les trois autres comptables, toute comparaison est impossible par manque de données). Il est aussi vrai qu'elle a neuf ans d'ancienneté de plus que lui. Mais la position élevée de Marguerite dans l'échelle des salaires de l'usine parait pouvoir être justifiée par la reconnaissance de la qualité de son travail4 ; ce qui n'empêche pas qu'elle soit placée dans un service différent de celui de ses collègues comptables masculins. Les autres activités de service de l'usine sont regroupées dans sa nomenclature sous la mention de « divers ». On retrouve au total quatre activités différentes : les services de « sécurité » au sens de sécurité sociale, une infirmerie, des activités de surveillance des personnels et enfin des activités de service pour les personnels et les locaux de l'entreprise. Les personnels concernés ont donc eux aussi des activités et des professions variées. Le personnel employé au bureau sécurité est séparé de celui des bureaux d'administration de l'usine. Une assistante sociale travaille dans ce bureau. Elle est aidée par deux employés : une secrétaire et une sténodactylographe. Un homme est cependant leur chef de service, Édouard Claude. Tous sont Français comme les autres personnels de bureau de l'usine. Leur mission est d'aider dans leur vie courante les salariés de l'entreprise. 1 Perrine Gallice retrouve cela chez Berliet à la même époque dans GALLICE Perrine, « Travail des femmes et politique sociale : Berliet, années 1950-1960 », Bulletin du Centre Pierre Léon d'histoire économique et sociale, n° 1-2, 1996, p. 59-77, p. 64. 2 GARDEY Delphine, « Steno-dactylographe : de la naissance d'une profession à sa féminisation. 18831930 », Cahiers du Mage, n° 1, 1995, p. 53-61. 3 AMC, fichier mécanographique du personnel. 4 Correspondance avec Janine Bouillet. 165 Édouard Claude est entré dans l'usine à quatorze ans le 28 février 1929, à sa sortie de l'école. Il est d'abord embauché dans les bureaux, puis à partir de 1932 comme dessinateur dans les bureaux d'étude. En 1949, il devient chef du service sécurité ; seul homme parmi des femmes, il les dirige sans avoir de qualification spécifique pour le faire. Pierrette Terrasse est assistante sociale. Elle a vingt-six ans quand elle a été embauchée au 1er août 1947 par les HFC, c'est-à-dire peu de temps après l'institutionnalisation de cette profession en entreprise1. Une assistante sociale dénommée Clémence Bardin l'avait cependant précédée pour peu de temps, du 1 er octobre 1946 au 1er septembre 19472 : on ne sait pas grand-chose sur cette dernière. Le diplôme d'État d'assistante sociale s'obtient après trois années d'études supérieures. Cela explique que ces personnels soient très bien payés, en « faisant partie du haut de la pyramide des emplois de bureau »3, ce qui est le cas de Pierrette Terrasse puisque son coefficient salarial est de 2594. Pour Perrine Gallice, les missions des assistantes sociales sont complexes, ce qui « les amène à régler des problèmes très variés et, de ce fait à travailler non seulement avec de nombreux services à l'intérieur de l'entreprise, mais aussi avec de nombreux organismes extérieurs à l'entreprise. Elles collaborent en particulier avec le service médical, le service hygiène et sécurité, travaillent avec le comité d'entreprise »5. Aux HFC, on retrouve des activités comparables car elles font partie des obligations légales : l'assistante sociale fait partie du comité de sécurité de l'entreprise, elle participe aux réunions trimestrielles de ce dernier lors desquelles on essaie d'améliorer les conditions de travail des salariés6. L'usine possède aussi sa propre infirmerie dans laquelle exercent deux infirmiers. Ils ont une double tâche. Il s'agit tout d'abord de gérer les problèmes de santé au quotidien. On conserve d'ailleurs à l'infirmerie plusieurs documents concernant la santé et la situation familiale des travailleurs – cahiers de naissances, de maladies, d'accidents de travail, etc. – et on gére la mutualité de l'entreprise7. La 1 GALLICE Perrine, « Travail des femmes et politique sociale », op. cit., p.71. Le diplôme est créé en 1932, mais c'est dans l'après guerre qu'à travers le service social du travail on va rendre leur présence obligatoire en entreprise pour certaines branches : dans TOULOTTE Sarah, Le service social à l'épreuve de l'entreprise. Les formes contemporaines d'exercice du métier, thèse sous la direction de JOVELIN Emmanuel, Université de Lorraine, décembre 2016, 487 p., p. 90 sqq. 2 AMC, cahier du personnel français n° 8. 3 Ibidem. 4 Fichier mécanographique. Ce coefficient est cependant fourni pour une date inconnue. On peut relever qu'il est nettement supérieur à celui d'un comptable. 5 GALLICE Perrine, « Travail des femmes et politique sociale », op. cit., p. 71 6 Témoignage de Georges Charrier. 7 Témoignage de Georges Charrier, ancien infirmier de l'usine. AMC, 1H3, carton mutualité. 166 seconde tâche concerne la gestion des situations d'urgence et les blessures. En raison du caractère dangereux des différents métiers, elles sont fréquentes et même quotidiennes. Un cahier permettant les remboursements par la Sécurité sociale géré directement par les infirmiers permet de le constater1. Ces derniers ont également un rôle préventif plus ponctuel2. Ils participent, par exemple, à des entrainements à l'utilisation des masques à gaz dans une chambre spéciale. Ils tentent de sensibiliser le personnel aux multiples dangers qui les menacent et vérifient régulièrement les équipements de secours (masques à gaz, équipement médical, etc.)3. L'existence de l'infirmerie témoigne – dans une certaine mesure – des préoccupations des dirigeants de l'entreprise pour la sécurité et la santé de leurs personnels. Ces préoccupations sont anciennes puisqu'avant guerre déjà des médecins visitaient les travailleurs des HFC. Toutefois, sans la législation4, rien ne dit que les dirigeants des HFC auraient investi autant dans une infirmerie. Ils étaient d'ailleurs hors la loi puisqu'aucun infirmier diplômé d'État n'exerçait à Chasse. C'est sous la pression du comité de sécurité qui joue bien son rôle, en particulier de Charles Portal – un prêtre ouvrier –, que le directeur Georges de Benoist recherche un infirmier qualifié. Il propose en 1956 à Georges Charrier de préparer ce diplôme tout en continuant à travailler à l'infirmerie avec des horaires aménagés. Ce dernier ne disposait en effet que d'un diplôme d'infirmier militaire obtenu suite à son engagement en 1944. Il a obtenu son diplôme d'État en suivant des cours à l'école d'infirmiers des Hospices civils de Lyon, « seule école préparant des hommes », après deux années d'efforts, en doublant en quelques sorte son poste et en travaillant sept jours sur sept5 : on ne peut donc pas particulièrement dire qu'on lui ait facilité la tâche, alors que l'on avait besoin de ses compétences. L'usine emploie aussi des personnels de surveillance au nombre de six, dont un chef. Ils contrôlent l'espace usinier, évitant les vols et les intrusions, mais ils surveillent aussi les personnels. Les gardes sont même armés selon les témoignages, mais aucun document n'a été retrouvé afin de pouvoir le dater. Il serait pourtant intéressant de voir 1 AMC, 1H3, mutualité. Ils travaillent en collaboration avec le CHS créé en août 1947. L'existence et le fonctionnement de ces derniers étant cependant rarement satisfaisants dans les années 1950 d'après l'avis des inspecteurs du travail : COINTEPAS Michel, « Les CHS des années 50 et 60 vus par les inspecteurs du travail », Les cahiers du CHATEFP , n° 5, mai 2001, p. 17-28. 3 Témoignage de Georges Charrier. 4 La loi du 11 octobre 1946 relative à l'organisation des services médicaux du travail fixe cette obligation. 5 Témoignage écrit de Georges Charrier. 2 167 si cela est antérieur ou non à la guerre d'Algérie. Ils surveillent l'usine jour et nuit. Le jour, les gardes sont également présents devant l'usine en contrôlant les entrées et les sorties du personnel. D'ailleurs, la pointeuse est placée devant leurs bureaux, à proximité du portail de l'usine. Ce travail peu pénible (comparé à celui des ouvriers) est effectué par un personnel de confiance, français. Les six gardes sont d'anciens travailleurs, quatre d'entre eux viennent d'une autre entreprise, voire d'une autre activité (l'un est un ancien gendarme). La plupart sont des travailleurs âgés : quatre d'entre eux ont soixante ans et plus, l'un d'entre eux est également mutilé du travail. Les deux autres gardes plus jeunes sont l'un ancien gendarme et l'autre un travailleur grand mutilé du travail. Donc mis à part l'ancien gendarme, comme les gardes barrières ou les vieux ouvriers devenus graisseurs ou balayeurs, ce sont des travailleurs en position fragile sur le marché du travail que l'entreprise conserve dans une démarche qui peut être qualifiée de paternaliste. Toutefois, il semble que la comparaison ne puisse jouer tout à fait de la même manière ici : c'est aussi la fragilité de leur position sur le marché du travail qui garantit leur loyauté pour l'entreprise. On n'hésite d'ailleurs pas à les renvoyer : c'est le cas de Jean Claude B. en août 1956. On retrouve aussi cette logique pour les autres travailleurs chargés de la surveillance. Le concierge et les pointeaux ont tous plus de soixante ans. Mais ce sont là d'anciens ouvriers des HFC que l'entreprise recase ainsi à des postes moins pénibles en attente de la retraite. Elle a pu éprouver leur loyauté au cours d'une longue carrière, ce qui garantit aussi la confiance qu'elle peut avoir en eux. Tous sont Français, comme la plupart des personnels employés de l'usine. Enfin, plusieurs personnels du « service divers » de l'usine travaillent au « service » des autres personnels et des locaux. Les femmes de ménages sont au nombre de dix. On a aussi une cantinière. Les hommes sont en revanche jardiniers, gérant de la cantine, ou entraineur sportif. On observe à nouveau une division sexuée des tâches : aux femmes les activités ménagères1 ; aux hommes les responsabilités, les activités extérieures et physiques. Ces personnels travaillent dans différents lieux. Les bureaux et les locaux du personnel sont en effet régulièrement entretenus par les femmes de ménages. L'usine possède aussi sa cantine, dans laquelle tous ne mangent pas, notamment parce que certains rentrent chez eux ou vont prendre leur repas dans un café. Enfin dans le local 1 PERROT Michelle, « Qu'est-ce qu'un métier de femme ? », op.cit., p. 3. 168 du « Cercle » – une association qui gère le temps libre ainsi que les loisirs du personnel et de leurs familles –, on trouve des boissons non alcoolisées, de la lecture et des loisirs. Le « Cercle » est en effet un lieu qui se veut convivial, où on peut lire le journal et les livres de la bibliothèque de l'usine mais aussi regarder la télévision, jouer au billard ou aux dames. C'est un endroit de détente, où on se retrouve entre personnels de l'usine, en dehors du travail, pour encore certainement parler du travail L'entreprise possède aussi son propre club de football avec un entraineur payé par l'usine : Charles Mathé. Il s'agit d'un ancien joueur professionnel qui a été recruté en août 1950. Jusqu'en 1946, il a joué au Racing club de Strasbourg, puis il a fait trois saisons dans des clubs de division inférieure, avant de prendre sa retraite professionnelle puis de venir à Chasse. Charles Mathé entraine les différentes équipes d'enfants du personnel, mais il joue aussi avec eux dans un championnat local. Il participe également à la gestion du « Cercle ». Les métiers et postes décrits sont donc de nature diverses puisqu'ils vont du métier de fondeur à celui d'entraineur sportif en passant par pontonnière, ensacheur ou caissier. Les ouvriers sont les plus nombreux, mais on retrouve une grande diversité de postes en raison de la présence de différentes activités de production, entretien, transport, etc. Cette diversité concerne aussi le monde des employés : les « petits chefs », de divers niveaux hiérarchiques et les plus « grands », ingénieurs originaires de diverses écoles1 en fonction des compétences requises par leur atelier (école des mines de Saint-Étienne pour le haut fourneau, école centrale de Lyon à la briqueterie cimenterie, école de chimie de Lyon au laboratoire, etc.). Les modalités du recrutement pour certains ouvriers et pour les techniciens s'effectuent par le biais d'une formation scolaire : c'est ce que révèle l'indication d'une qualification, d'un diplôme, mais aussi la présence d'apprentis. Toutefois, une grande partie de la formation est encore faite dans les ateliers de l'usine, notamment à l'agglomération comme cela était déjà observé pendant la guerre en notant le succès de ces méthodes2. Mais pour le personnel peu qualifié – composant le groupe des manoeuvres voire d'une partie des OS –, on se contente d'une formation rapide sur le tas. On pourvoit à leur remplacement par un recrutement continuel de nouveaux entrants. Toutefois, des stratégies de recrutement familial favorisent aussi la stabilisation. 1 2 ADI, 56J1, enquête à notre demande d'inscription sur les listes des fournisseurs de l'artillerie navale. ADR, 130W, courrier du 25 août 1943. 169 Ces différentes remarques posent la question des hiérarchies et des différenciations présentes dans l'ordre usinier et de l'attribution des postes de travail selon leur nature. Différents critères observables révèlent une hiérarchisation par activité, par atelier et une segmentation complexe des postes de travail. Il y a bien sûr en premier lieu le métier : le prestige de celui de l'ingénieur, l'image positive du leveur de fonte qui utilise sa force ou du fondeur pour son endurance. Ensuite, la position dans la classification, l'atelier, la qualification sont autant de critères de distinction, de reconnaissance. À cela s'ajoute des critères liés à la nationalité, au sexe et parfois l'âge : on réserve par exemple aux plus jeunes les nouveaux emplois de l'agglomération ou d'OS au haut-fourneau. L'organisation des ateliers révèle aussi cette volonté de classement : distinguer le garage des autres activités de transport, c'est comme séparer l'entretien de la maçonnerie, ou distinguer l'ébarbage de l'usinage. On établit une distinction entre les ateliers en suivant des critères de nature du travail et de nationalité et pas seulement d'activité et de qualification. La position dans la classification et les caractéristiques du travail – qu'il soit plus ou moins manuel ou plus ou moins autonome par exemple – permettent également de fixer des hiérarchies entre des ateliers et des types de travailleurs qui font penser à la distinction volontaire entre esclaves et contractuels blancs dans les colonies a pu – toute chose égale par ailleurs – permettre de les diviser pour les diriger1. Outre les ateliers, on retrouve d'ailleurs cette distinction volontaire entre travailleurs français et étrangers dans les quartiers où l'entreprise les loge, jusque dans leur regroupement par chambres. Les critères de cet ordre usinier dépendent donc des choix des dirigeants, de leur reconnaissance et interprétation par les salariés, comme de la loi qui fixe, par exemple, la classification ou le fonctionnement des services sociaux. Ils reposent néanmoins en premier lieu sur les activités et les métiers que l'on retrouve à l'intérieur de l'usine, supports indispensables avant toute entreprise de hiérarchisation. Se pose alors la question de l'évolution de l'outillage industriel dans le cadre de la modernisation des moyens de production de l'usine et de l'évolution de ses rythmes de production : comment ont alors été transformés les postes, puis les conditions de travail ? 1 HARMAN Chris, Une histoire populaire de l'humanité, La Découverte, Paris, 2011, 733 p., p. 280. 170 2) Les transformations du travail et de l'emploi La quantité de travail, son intensité et sa nature dépendent des rythmes de production de l'usine, mais aussi des transformations induites par le progrès technique. Or la question de la transformation des conditions de travail par la modernisation est déjà ancienne, le débat s'engageant pendant les années 19601. Des économistes comme Jean Fourastié ou des sociologues comme Alain Touraine ont vu dans la modernisation du processus de production une possibilité d'amélioration des conditions de travail. Pierre Naville ou Georges Friedman voient au contraire une possibilité de déqualification. Dans les années 1970, Michel Freyssenet – en s'appuyant sur la théorie marxiste – décrit un double processus de déqualification surqualification2. Pour Michel Margairaz en 1995, le débat se pose dans les mêmes termes qu'au court des décennies précédentes et il prend position pour une vision proche de celle de Michel Freyssenet 3. François Caron, à peu près à la même époque 4, indique que le progrès technique ne crée pas le chômage, mais qu'il provoque « un changement d'occupation » : se pose alors la question de savoir si les travailleurs qui perdent leur travail sont les mêmes que ceux qui en ont trouvé un grâce au progrès technique. L'échelle d'étude de ces auteurs est cependant nationale. La réflexion porte sur des groupes sociaux ou des catégories professionnelles comme les ouvriers ou les OS. Seul François Caron évoque rapidement la possibilité de trajectoires professionnelles diverses, avec des gagnants et des perdants. Or dans le cadre d'une analyse à l'échelle de l'entreprise5, on peut tenir compte de l'impact de la modernisation sur les différentes activités. Cela concerne donc tous les ateliers et bureaux : la modernisation n'affecte pas que les activités productives dominantes de l'entreprise. Ensuite, il faut savoir ce que l'on appelle modernisation : il y a le progrès technique, mais aussi le processus de production. Il faut également en voir les effets au niveau de la classification, mais aussi des parcours professionnels et des hiérarchies de l'entreprise, ainsi que sur le 1 MARGAIRAZ Michel, « Les transformations structurelles des années soixante » dans WILLARD Claude (dir.), La France ouvrière 1920-1968, op. cit., p. 311-313. 2 FREYSSENET Michel, La division capitaliste du travail, Savelli, 1977, 165 p., Édition numérique, freyssenet.com, [dernière consultation le 21 juin 2016]. 3 MARGAIRAZ Michel, « Les transformations structurelles des années soixante », op. cit., p. 313. 4 CARON François, Les deux révolutions industrielles du XXe siècle , Albin Michel, Paris, 1998, 592 p., p. 428-429. 5 L'état du personnel en avril 1954 sert de base à cette étude. L'amélioration de la qualité des documents d'usine a permis de le réaliser : cf. annexe 2. 171 recrutement même du personnel et les modifications que cela induit sur sa composition : au niveau du sexe, de l'âge, de la nationalité. Enfin, il existe une modernisation générale des activités qui ne dépend pas directement des choix de l'entreprise, mais à l'évolution générale des systèmes techniques. La concurrence entre entreprises ou l'imitation sont des facteurs possibles de diffusion. a) La recomposition des activités Tout d'abord, certains ateliers disparaissent à partir de 1945 car des activités ne sont pas relancées : les projets régionaux de modernisation de ces activités ont en effet pour conséquence une concentration des lieux de production et Chasse n'en fait pas partie. Les ateliers concernés sont la cokerie, ainsi que des activités chimiques ou de stockages liées à son exploitation. En avril 1954, il ne reste plus que six anciens travailleurs de la cokerie, soit deux Français et quatre étrangers. La nationalité est un critère d'analyse. Ainsi, Louis Bonnet a été embauché en 1936 comme manoeuvre. Il a su progresser dans la classification pour devenir OP puis chef d'équipe au haut-fourneau. Jean Escanès, est lui issu d'une famille pieds noirs (il est né en Algérie). Il est présent en France en 1934 pour son service militaire (il a vingt ans). Il est embauché aux HFC aux « fours à coke » en 1937 et n'a plus quitté l'usine de Chasse depuis. En 1954 ; il travaille comme pontonnier OS2 au haut-fourneau. Sa mobilité professionnelle a donc été plus réduite que celle de son collègue. Mais cela peut s'expliquer par le fait qu'il a été encarté à la CGT1. Sur les quatre anciens travailleurs étrangers, deux sont Arméniens et deux autres Espagnols. Tous sont des manoeuvres que l'on appelle « coketier » car ils chargent les fours à coke. En 1954, les deux Espagnols sont devenus des OS, l'un pontonnier au parc à fonte, l'autre manoeuvre classé OS1 au haut-fourneau. En revanche, si l'un des Arméniens est OS à la fonderie, l'autre à la maçonnerie est toujours un manoeuvre. D'une manière générale, ces vieux travailleurs étrangers demeurent dans des ateliers ou des activités qui sont parmi les plus exposés de l'usine, ou au moins parmi les plus pénibles. De plus, ils ont donc au mieux connu une mobilité professionnelle réduite. 1 Il a été délégué du personnel : témoignage Georges Charrier et ADI, 56J13. 172 Ensuite en avril 1954, on a encore cinq ouvriers présents dans l'usine qui ont travaillé ou travaillent toujours dans les activités chimiques ; ce qui est appelé « sousproduit » dans la nomenclature des ateliers de l'usine. À la différence des fours à coke, cette activité ne s'arrête pas complètement en 1944, mais perdure en déclinant lentement jusqu'en 1955, dernière année où un petit stock est recensé dans les inventaires1. Parmi les anciens ouvriers appelés « distillateurs », trois ont effectués une mobilité professionnelle ascendante : Claudius Crapon est désormais ouvrier professionnel à l'entretien, Marius Colombier chef d'équipe dans cet atelier et Marius Rocher contremaître au haut-fourneau. Pour les deux autres, moins qualifiés, les trajectoires professionnelles sont inégales. François Pichot, manoeuvre aux « sous produits » à partir de 1934 est désormais « manoeuvre OS2 » au haut-fourneau. On relèvera au passage la confusion au niveau des termes de la classification entre « manoeuvre » – qui indique sa fonction –, et OS2 qui est sa vraie position dans la classification. Un second et dernier ouvrier, Louis Paret, a au contraire effectué un parcours professionnel ascendant. Il est devenu infirmier des HFC après avoir passé un diplôme professionnel. Il ne faut pas être surpris par le fait qu'un ancien ouvrier occupe ce poste demandant une qualification médicale : c'est aussi le cas de Georges Charrier qui avant de devenir infirmier militaire était ouvrier professionnel à l'usinage (il était titulaire d'un CAP d'ajusteur)2. Enfin, il reste une dernière catégorie de travailleurs évoquée sur les listes prud'homales de 1954 : il s'agit d'un « manoeuvres au trou ». On parle ici du trou à brai ; le brai étant produit par distillation de la houille. Cette activité fait partie de celle des « sous-produits ». L'ouvrier en question – Fleury Villard –, est toujours manoeuvre, mais il travaille désormais à la manutention. Il avait été embauché en 1942. La disparition des postes de ces différentes activités a donc été inégalement rapide. C'est le cas dès octobre 1944 pour la cokerie –, si on en croit les fiches de Louis Bonnet et de Jean Escanès –, c'est-à-dire tout juste après la libération de la région, à un moment où on commence à déblayer l'usine pour la relancer. Les activités liées à la fabrication de sous-produits de la houille ont en revanche décliné lentement jusqu'au milieu des années 1950. Or ces activités ont par le passé représenté une part importante du personnel de l'usine. L'effectif total de la cokerie a été de soixante-dix ouvriers et 1 2 ADI, 56J31, inventaires. Témoignage écrit de Georges Charrier. 173 quatre contremaîtres et de vingt ouvriers et un contremaître pour l'activité « sousproduit de la houille » en 19291. Ces effectifs sont nécessairement plus faibles en 1944 car ils ont décliné dès la Seconde Guerre mondiale. Ce déclin s'est poursuivi pour quelques postes après 1945. Alors que l'effectif de l'usine atteignait un premier maxima à environ 1000 salariés en 19492 – et même 1060 en 19523 –, ces mouvements ont donc faiblement impacté l'évolution générale. On le ressent donc surtout au niveau des métiers et des activités qui ont disparu définitivement du site de Chasse. Toutefois, les choix techniques faits par les dirigeants de l'usine ont eu un effet encore plus important que les transformations importées de l'extérieur (liées à la concurrence, aux décisions de nationalisation, etc.). On pense ici en particulier à l'installation de la machine à couler achevée en 1951, puis des monte-charges en 1954 et enfin du haut-fourneau n° 3 en 1956. Mais les bureaux vont à leur tour être touchés par ce processus. b) À partir de 1947 : la modernisation de l'usine Avant l'installation de la machine à couler, l'opération de la coulée se faisait dans le sol4. Pour la préparer, des manoeuvres bêchent le sable pour le rendre meuble et supprimer toute trace de fonte de la coulée précédente. Ils creusent ensuite une rigole centrale (appelée « la mer ») ; puis, avec l'aide d'un moule en bois, ils forment des empreintes qui donneront des gueuses de chaque côté de la rigole. La fonte est ensuite coulée. Les fondeurs referment les empreintes au fur et à mesure que la coulée s'effectue. On arrose la fonte pour la refroidir puis, quand elle s'est solidifiée : cela est confié à des arroseurs qui sont souvent de vieux travailleurs. Enfin, des casseurs de fonte fracturent les gueuses et les différentes masses de fonte coulées avant qu'elles ne refroidissent trop. Les gueuses et les morceaux de fonte sont alors évacués par un pontonnier utilisant un électroaimant. 1 ADI, 56J1, enquête à notre demande d'inscription sur les listes des fournisseurs de l'artillerie navale. ADI, 56J24, rapport du conseil d'administration à l'AG ordinaire du 28 juin 1949. 3 AN, 2012 026 819, compte-rendu du 12 mars 1962 par André Legendre de la réunion des administrateurs du 9 mars 1962. 4 Témoignage de Mohamed Safer, le 22/04/2000. Le court métrage « L'enfer des hommes », op. cit., montre également une coulée. 2 174 Être casseur de fonte n'est pas à proprement parler un métier. Le poste nécessite cependant un savoir faire1 afin de casser la fonte en morceaux de dimension égale. La couleur du métal indique sa température et le bon moment où l'on peut essayer de le fracturer. Chaque fondeur avait sa préférence2 qui correspond à son savoir-faire. Il faut ensuite adopter le bon angle d'attaque pour casser si possible de manière nette le bloc et le détacher. Les casseurs de fonte, de même que les nombreux manoeuvres qui arrosent la fonte pour la refroidir ou qui préparent le sol pour la coulée suivantes vont voir leurs postes supprimés avec l'installation de la machine à couler. Ils sont remplacés par des hommes plus jeunes. Ce sont des machinistes classés OS. La proportion des manoeuvres diminue. Mais si les postes et la place dans la classification change, ces travailleurs demeurent cependant très souvent des étrangers : vingt-six sur les cinquante-deux OS des hauts-fourneaux en 1954, et même trente-quatre si on tient compte de la migration3, c'est-à-dire en ajoutant des travailleurs qui ont acquis la nationalité française. Enfin, ils sont remplacés par quelques machinistes OP. Au final, cela s'est traduit par des substitutions et non par une possibilité de mobilité professionnelle ascendante. Tableau 8 : Comparaison des effectifs du personnel employés aux hauts-fourneaux en avril 1954 et décembre 19564 Atelier Classification Hauts-fourneaux : Ingénieurs 2 2 Contremaîtres 6 6 Chefs d'équipe Effectifs Avril 1954 Décembre 1956 2 2 Ouvriers professionnels : 25 18 Ouvriers spécialisés : 52 37 Manoeuvres : Total : 49 42 136 107 L'installation du monte-charge en 1954 va encore faire diminuer le nombre de manoeuvres et d'OS de l'usine. En effet, les chargeurs sont moins nombreux car ils 1 Sur ces « métiers » qui nécessitent une formation, mais qui ne sont pas reconnu par une qualification : LEQUIN Yves, « Le métier », op. cit., p.3361-3363. Mais aussi NOIRIEL Gérard, Longwy, immigrés et prolétaires, op. cit., p. 45-50. 2 Témoignage Jean Montoya, 12/05/2016. 3 Cf. annexe 2. 4 AMC, fichier mécanographique ; listes des prud'hommes 1954 et 1960 ; cahiers du personnel français n°10 et étranger n° 15. 175 n'ont plus à accompagner le wagonnet jusqu'au gueulard du haut-fourneau, l'installation étant automatique. Cependant ce monte-charge n'est mis en service qu'en 1956 et il n'approvisionne que le haut-fourneau n° 31 : on peut donc en voir les effets sur l'emploi cette année-là au mois de décembre, mais pas avant. De plus, en avril 1954, le haut-fourneau n° 2 de type ancien est en marche2, alors qu'en décembre 1956 il s'agit du nouveau haut-fourneau n° 33 : on compare alors leurs besoins différents en main d'oeuvre. On perçoit tout de suite deux différences : le haut-fourneau moderne emploie vingt-neuf personnels en moins (21,3% de l'effectif de cet atelier en 1954). Ensuite, on constate que la baisse concerne uniquement les effectifs ouvriers, mais pas les ingénieurs, contremaîtres et chefs d'équipe. De plus, toutes les catégories de la classification des ouvriers sont concernées, mais de manière inégale : du manoeuvre (14,3 % par rapport à l'effectif de 1954) à l'OP (-28 %) en passant par les OS (-28,8 %). Par conséquent, si en valeur absolue la baisse du nombre de manoeuvres est comparable à celle des OP, cela n'est pas le cas en proportion. Or la diminution en proportion la plus forte concerne d'abord les travailleurs les mieux payés : on a vu que faire des économies en dépense sur les personnels est l'un des objectifs justifiant la modernisation. Cela ne suit donc pas le modèle décrit par Michel Freyssenet qui voit une modernisation qui a surtout un impact sur les OP et les manoeuvres, alors que les OS – des machinistes notamment – s'accroissent ainsi que les ingénieurs et techniciens4 : ce modèle ne concerne en effet que quelques sites dans les années 19505. En allant plus loin dans l'analyse, on peut voir que les OP passent d'un effectif de vingt-cinq à dix-huit. Or l'essentiel de la diminution est portée par la suppression des postes de fondeurs : cinq individus en moins sur les sept postes supprimés. Les appareilleurs, surveillants ou chargeurs sont beaucoup moins touchés par ces suppressions de postes : deux seulement, dont au moins un chargeur (le dernier poste reste inconnu). Dans le premier cas, la diminution du nombre de postes de fondeurs s'explique par l'installation de la machine à couler, dans le second, il s'agit de l'automatisation des chargements. Sur les sept départs de l'atelier, trois sont des départs 1 Témoignage de Mohamed Safer, le 22/04/2000. ; ADI, 56J59, bulletin auxiliaire de propriété bâtie. ADI, 56J12, conseils d'administration du 7 avril et du 7 juillet 1954. 3 ADI, 56J12, conseils d'administration du 30 mai et du 28 juillet 1956. 4 FREYSSENET Michel, La sidérurgie française 1945-1979, op. cit., p. 20 ; FREYSSENET Michel et de OMNES Catherine, La crise de la sidérurgie française, op. cit. p. 63 ; FREYSSENET Michel, « Division du travail, pratiques ouvrières et pratiques patronales », op. cit., p. 13. 5 FREYSSENET Michel, La sidérurgie française 1945-1979, op. cit., p. 38. 2 176 de l'usine : il s'agit d'un travailleur algérien, un Russe et un Polonais. Les quatre autres travailleurs changent d'atelier : deux vont à l'entretien, un à la centrale et un à la maçonnerie. L'OP qui va dans ce dernier atelier est Italien, les trois autres sont de nationalité française. Le critère de la nationalité permet à nouveau de lire ces reclassements. Les travailleurs français sont les mieux traités : ils demeurent dans l'usine, mais en changeant d'atelier ils vont dans des ateliers plus recherchés et moins exposés. Même quand ils ne changent pas de position dans la classification, ils vont au minimum dans de tels ateliers. En valeur absolue, ce sont les OS qui payent le plus lourd tribut à la modernisation : soit quinze postes en moins en 1956. Les fiches du personnel sont trop imprécises pour mesurer quels postes disparaissent. La polyvalence des postes peut d'ailleurs expliquer l'imprécision des fiches. La seule certitude est qu'il n'y a plus d'arroseurs en raison de l'installation de la machine à couler. Le nombre d'aidesfondeurs OS tend à décroître jusque vers 1956. Par exemple, Mohamed Gharbi – embauché en 1952 et licencié en février 1956 – occupe encore ce poste en 19541. Il est logique que le nombre d'aides-fondeurs décline à partir de 1951, puisque l'effectif des fondeurs OP diminue lui aussi avec la mise en service de la machine à couler. Il n'est pas utile de ne maintenir ce poste que pour un haut-fourneau, le n° 1, dont les coulées se font dans un hall prévu à cet effet, et non pas avec la machine à couler. Pour les deux autres hauts-fourneaux, les aides-fondeurs ont été remplacés par des aides-machinistes. De 1954 à 1956, l'effectif des manoeuvres diminue de sept unités et les OS de quinze unités. Toutefois, si on veut rendre compte des évolutions réelles sur chaque salarié et non globale par atelier, il faut aussi tenir compte de la mobilité des travailleurs, c'est-à-dire des flux entrants et sortants. On retrouve cela pour les OS et les manoeuvres, mais pas pour les OP. Ces derniers sont en effet beaucoup plus stables (il n'y a pour eux aucun recrutement entre avril 1954 et décembre 1956). 1 AMC, fichier mécanographique du personnel. 177 Tableau 9 : Flux entrants et sortants d'ouvriers spécialisés et de manoeuvres de l'atelier du haut-fourneau entre avril 1954 et décembre 19561 Ouvriers spécialisés Entrées Recrutements externes Recrutements ateliers venant Français 2 Algérien 1 Parc à fonte : Italien 1 d'autres Sorties Départs définitifs Français 1 Algériens 2 Total : + 4 Départs vers d'autres ateliers de l'usine Fonderie : Algériens 3 Français 2 Menuiserie 1 Manutention : Polonais 1 Maçonnerie : Allemand 1 Italien 1 Leveurs de fonte : Italien 1 Algérien 1 Parc à ferrailles : Algérien 1 Cimenterie : Français 3 Entretien : Français 1 Total : -19 Manoeuvres Entrées Sorties Recrutements externes Recrutements ateliers venant d'autres Français 2 Algériens 7 Parc à fonte : Algérien 1 Départs définitifs Français 1 Algériens 4 Espagnol 1 Départs vers d'autres ateliers de l'usine Fonderie : Algériens 2 Espagnols 2 Menuiserie : Espagnol 1 Parc à ferrailles : Espagnol 1 Entretien : Algérien 1 Briqueterie-cimenterie : Polonais 1 Algériens 1 Maçonnerie : Italien 1 Portugais 1 Total : +10 -17 Les entrées d'OS et de manoeuvres sont faibles pendant les deux ans et demi. Les caractères du recrutement sont similaires. Peu d'ouvriers viennent d'autres ateliers : à chaque fois il s'agit d'un travailleur venant du parc à fonte. Cela s'explique par les besoins en main d'oeuvre limités mais qui n'ont pas disparu, alors que l'effectif général de l'atelier diminue. Or comme cet atelier est en restructuration, on fait appel à de la main d'oeuvre algérienne, sans doute parce qu'elle est supposée plus docile, puisque contrainte par ses contrats de travail et un contrôle administratif qui se renforce2. Cela n'empêche pas des recrutements limités de travailleurs français venant de l'extérieur : leur installation récente dans l'usine ne pose pas les mêmes problèmes en termes de parcours tenant compte de la hiérarchie des ateliers. Néanmoins, plus globalement, les recrutements touchent d'abord les travailleurs algériens. Ces derniers demeurent les travailleurs les plus recrutés pendant cette partie de la première phase de modernisation 1 Ibidem. Sur le contrôle administratif, SPIRE Alexis, « D'une colonie à l'autre. La continuation des structures coloniales dans le traitement de la migration algérienne en France après 1945 », dans WEIL Patrick et DUFOIX Stéphane (dir.), L'esclavage, la colonisation, et après, PUF, Paris, 2005, 640 p., p.387-409, 18 p., p. 6-7. 2 178 1947-19561. De plus, ils sont le second groupe de travailleurs des hauts-fourneaux ; derrière les Français, mais devant les Italiens2. Les départs mobilisent des effectifs relativement élevés. Le critère de la nationalité doit être retenu avec celui de l'âge afin de les étudier. Les OS français représentent 37,5 % des départs vers d'autres ateliers de cette catégorie d'ouvriers, alors qu'ils représentent 50 % cet effectif dans l'atelier en 1954. Ils partent en proportion un peu moins de leur atelier que les OS étrangers. Mais cette remarque est encore davantage valable pour les manoeuvres : il n'y a aucun départ de manoeuvres français vers d'autres ateliers, or même s'ils sont minoritaires, ils représentent tout de même 34,7 % des manoeuvres employés aux hauts-fourneaux en 1954. Un second critère à utiliser est l'âge des travailleurs. En effet, les travailleurs français qui quittent l'atelier sont relativement jeunes : vingt-deux ans pour le manoeuvre et trente-et-un ans pour l'OS. L'âge n'a pas joué comme un frein et ils n'ont pas eu peur de tenter leur chance ailleurs. En revanche, les travailleurs immigrés sont de tous âges et un seul part volontairement de l'entreprise. Les motifs des autres travailleurs sont « décès » – si l'on peut dire pour le premier –, « invalidité » pour un second, « renvoi pour absences » pour quatre travailleurs algériens. Ces départs sont donc contraints, mais il n'y a en revanche pas eu de volonté apparente de la part de l'entreprise de se séparer d'eux. D'ailleurs pour l'un des renvoi pour absence, celui de Mohamed K., le motif de son départ est son placement en détention3. Enfin, un dernier critère de comparaison est l'atelier vers lequel se font les départs de certains ouvriers. Les OS français sont les seuls à aller à la briqueterie et surtout à l'entretien, quand la manutention, le parc à ferrailles ou la maçonnerie sont pour les étrangers. Les activités périproductives sont touchées indirectement par la modernisation : il s'agit de la maçonnerie et du laboratoire. En avril 1954, on vient d'achever la réparation du haut-fourneau n° 1, tandis que le n° 3 est en reconstruction pour être modernisé : un maximum de travailleurs est embauché à cette activité : soixante-deux au total4. En revanche en décembre 1956, ces chantiers étant achevé, les besoins en main d'oeuvre ont diminué de 19,4 % soit douze individus. Là encore, on ne suit pas le modèle de Michel Freyssenet qui voit comme conséquence de la modernisation une diminution des OP et des manoeuvres au profit des OS. Il fait cependant principalement 1 Cf. plus loin le graphique 2. Cf. annexe 2. 3 Source : AMC, fichier mécanographique. 4 AMC, fichier mécanographique, cahiers du personnel français n°10 et étranger n°15. 2 179 reposer sa démonstration sur les travailleurs des activités productives qui sont pourtant loin d'être les seuls dans une usine sidérurgique. Le départ de plus de 1/5e de l'effectif de l'atelier ne s'est pas effectué qu'avec des licenciements. Dans la mesure du possible, l'entreprise cherche à garder ses travailleurs, elle les redistribue dans plusieurs de ses ateliers, comme cela s'est déroulé au haut-fourneau pour les OS et les manoeuvres. Parmi les OS de la maçonnerie, un travailleur de nationalité française va au « garage » où il est embauché comme chauffeur. Au niveau des manoeuvres, deux Algériens et un Français vont à la fonderie – un atelier qui est en plein développement en 19561 –, tandis qu'un dernier Français va à la « bascule ». Le départ vers d'autres ateliers ne concerne donc pas que les travailleurs français, mais seuls ces derniers vont vers des ateliers plus protégés : au garage ou à la « bascule ». On notera une dernière différence qui concerne les départs de l'usine : six au total, soit deux OS et quatre manoeuvres. Or parmi les manoeuvres, deux d'entre eux sont réembauchés en 1960 : l'un est de retour au haut-fourneau, toujours comme manoeuvre et l'autre est devenu chauffeur, classé ouvrier spécialisé au « garage ». Le premier est Algérien et le second est Français : ce dernier est donc le seul à pouvoir revenir et occuper un meilleur poste dans un meilleur atelier, après avoir dans un premier temps quitté l'usine. Le laboratoire voit lui aussi ses effectifs évoluer car il est lié aux hautsfourneaux, mais c'est à la marge. Un ouvrier spécialisé est alors embauché comme échantillonneur. Il faut dire que les difficultés de marche du haut-fourneau moderne pendant tout l'année 1956 rendent indispensables les mesures pour espérer trouver le moyen de régler sa marche2. Enfin, en dehors des activités purement productives et périproductives, les activités de bureaux sont elles aussi concernées par la modernisation ; mais de manière partielle. Selon Jean Gerbier, pendant longtemps, l'organisation des bureaux dans les entreprises reste stable. Il y a certes un « début de mécanisation administrative à travers les machines de bureau » et « les bureaux et leur personnel sont à l'abri des préoccupations de rendement qui sont de règle dans les ateliers »3. Cela peut être illustré 1 Cf. chapitre 3. ADI, 56J12, conseils d'administration des 28 juillet, 4 septembre, 30 octobre 1956. 3 GERBIER Jean, « Organisation du travail et de l'entreprise », dans DAUMAS Maurice (dir.), Histoire générale des techniques, tome V, Paris, PUF, 1979, 595 p., p. 541. 2 180 par l'usage de la plume et de l'encre noire sur de nombreux documents1. Les fiches les plus anciennes du fichier mécanographique sont remplies de cette façon. Mais au début des années 1950 le stylo bille fait son apparition : il s'agit surtout d'une autre manière d'écrire. Avec lui, fini l'écriture patiente et posée de la plume, une écriture rapide et moins soigneuse la remplace. Elle trahit de nouveaux gestes, une nouvelle façon de travailler. D'autres matériels modernes peuvent permettre de gagner en efficacité et rapidité, mais on n'en recherche pas à en développer l'usage. Il y a par exemple la machine à écrire. Son utilisation se développe depuis le dernier quart du XIXe siècle 2. Aux HFC, on l'utilise pour différents types de documents : correspondance avec l'extérieur, rapports du conseil d'administration et des commissaires aux comptes, etc3. Toutefois, jusqu'en 1966 les originaux dactylographiés du CA sont ensuite recopiés à la main dans un cahier, comme si le fait de réaliser des copies à la main leur donnait un caractère respectable justifiant que l'on perde du temps, pour cela, en notant soigneusement ce qui est déjà dactylographié proprement. On ne peut donc pas dire que l'usage de la machine à écrire ait modifié le travail de bureau de 1945 à 1956 : l'écriture garde encore son prestige et par exemple, afin d'appuyer certaines lettres, les dirigeants de l'usine écrivent manuscritement à la suite du travail tapé par leur secrétaire 4. Le téléphone est également un matériel moderne. Mais le nombre de standardistes étant limité, il n'a pas non plus transformé le travail dans les bureaux, même si cet équipement va commencer à se généraliser en France dans l'après guerre5. Le fichier mécanographique ne se substitue pas plus complètement aux cahiers du personnels que la machine à écrire ne l'a fait avec l'écriture. Mais alors que les documents plus anciens de l'usine n'arrivent qu'à un chiffrage imprécis du nombre de travailleurs – en 1929, on les fournit arrondis à la dizaine près6 –, le fichier permet, lui, de centraliser les noms de tous les salariés dans une source unique, quelque soit la nationalité. De plus, les informations sur eux sont plus riches et plus proches de la 1 AMC, cahiers du personnel et fichier mécanographique ; des documents appartenant aux travailleurs comme des fiches de paie (celles de Georges Charrier ou selon le témoignage de Mohamed Safer) ; etc. 2 GARDEY Delphine, « Steno-dactylographe : de la naissance d'une profession », op. cit., p. 78. 3 ADL, 211J4, correspondance Pierre Cholat-Henri Malcor ; AN, 2012 026 815, correspondance Marine HFC ; AN, 2012 026 819, administration, correspondance des HFC. Pour les documents d'entreprise : ADI, 56J24. 4 Par exemple, ADI, 56J58, lettre d'Antoine de Tarlé, PDG des HFC, à Georges de Benoist, le directeur général. 5 BERTHO Catherine, « Le téléphone », dans Puissance et faiblesse de la France industrielle. XIXe-XXe siècle, Éditions du Seuil, Paris, 1997, 628 p., p. 289 sqq. 6 ADI, 56J1, enquête à notre demande d'inscription sur les listes des fournisseurs de l'artillerie navale. 181 réalité. Plus riches car sur chaque item des cahiers on a des informations supplémentaires. Par exemple, pour l'état civil, en plus du lieu et de la date de naissance, on a celui des parents, du conjoint, des enfants : cela est pratique pour une entreprise qui mène des politiques « familialistes ». Pour le travail, en plus de la date de la première embauche et de l'atelier, on a sur le fichier la qualification, la position dans la classification, les changements d'atelier avec leurs dates, les motifs des départs, d'où provient le travailleur. Son origine offre une garantie – ou à défaut une information – sur la qualité future de son travail, mais avec le fichier, c'est tout le parcours professionnel du salarié qui est contrôlée. La surveillance peut s'exercer y compris si le travailleur multiplie les allers et retours dans l'usine. On peut suivre précisément sa rémunération. Toutefois, comme on trouve que les fiches sont encore incomplètes, des informations supplémentaires sont ajoutées au dos : primes de naissance ou de mariage, revenus annuels, motifs détaillés de renvoi ou de départ, etc., ce qui permet d'être toujours plus efficace dans la gestion des personnels. Cependant, en 1956 une machine à calculer et une machine Gestetner servant à dupliquer sont achetées1. Elles coûtent 1 593,90 nouveaux francs (NF) pour la machine à calculer et 2 559, 90 pour celle à dupliquer. C'est à comparer avec le coût d'achat l'année suivante d'une Peugeot 403 – 7 607,36 NF –, soit près de 21 % de sa valeur pour une calculatrice et plus de 33 % pour le duplicateur. Mais surtout ces achats sont les premiers d'une série qui va permettre de mécaniser davantage le matériel des bureaux à partir du milieu des années 1950. De 1954 à 1956, on constate cependant une augmentation totale des effectifs de huit individus qui profite à la direction et aux bureaux paie. Les effectifs des « bureaux du personnel » diminuent en revanche d'une secrétaire. Par conséquent, les effets de l'expansion ont été les plus importants puisqu'ils expliquent la hausse. La modernisation se voit néanmoins mieux de manière relative puisqu'une petite diminution des effectifs des « bureaux du personnel » se produit alors que ceux des autres bureaux augmentent. La modernisation a donc principalement concerné les ouvriers, même si tous les ateliers ne sont pas également touchés. On peut alors observer plusieurs types de trajectoires liées à la position dans la classification, la nationalité et parfois l'âge. On peut dire que les ouvriers professionnels de nationalité française sont avantagés, 1 ADI, 56J15, conseil d'administration du 9 novembre 1960, tableau d'amortissement. 182 notamment s'ils ont de l'ancienneté dans l'usine. Toutefois, plus généralement, les dirigeants de l'entreprise cherchent à conserver les salariés plutôt qu'à s'en séparer. Une différence se fait alors entre ceux qui font le choix de quitter les HFC ou ceux qui profitent de la mobilité pour changer d'atelier en améliorant leurs conditions de travail, et parfois leur position dans la hiérarchie des activités et des postes. Cela reste cependant inatteignable pour la plupart des ouvriers étrangers. Néanmoins dans l'ensemble usinier, les effets de la modernisation sont davantage à rechercher dans le travail que dans l'emploi. Si on prête attention à leur nature, des métiers et des postes disparaissent, mais seuls des postes nouveaux sont créés (casseur de fonte, arroseur, fondeur d'une part ; machiniste d'autre part). Et si on s'attache aux effectifs cette fois-ci, on constate néanmoins que les postes supprimés sont supérieurs à ceux qui ont été créés1. Cela correspond d'ailleurs aux objectifs d'économie de la masse salariale de l'entreprise. Toutefois, ni la croissance jusqu'en 1949, ni la baisse qui suit de près de 350 emplois entre 1952 et 1956 ne s'expliquent par les seuls effets de la modernisation : les effectifs passent d'environ 1060 salariés en 1952 à 707 en 19562. Seuls quelques dizaines de postes sont bien supprimés en raison de la modernisation (machine à couler, monte-charge, nouveau haut-fourneau, nouveau matériel de bureau, etc.). C'est donc le passage d'une marche à deux-hauts fourneaux de 1951 à 19533 à un seul appareil jusqu'en 19564 qui explique une grande partie de la baisse. Les effectifs diminuent alors à la fois en raison de l'arrêt du fourneau, mais aussi de la diminution des besoins dans les activités annexes – de stockage de minerai, de charbon, de fonte et de paquetage de la ferraille – qui nécessitent elles aussi moins de personnels. C'est ce qui est évoqué dans le rapport du conseil d'administration à l'assemblée générale du 6 janvier 1954 à propos des « mouvements d'effectifs qui se produisaient à la veille et au lendemain de chaque campagne à deux hauts-fourneaux »5. Ce même rapport évoque un renforcement du personnel six mois avant le début de la campagne, puis « une réduction du personnel excédentaire, qui s'est réalisée lentement, notamment par de nouvelles admissions aux allocations renouvelables pour les retraités ». En revanche pour les travailleurs étrangers, la baisse des effectifs est davantage due au non-renouvellement des 1 Michel Freyssenet décrit cela pour les mines puis la sidérurgie touchées par les modernisations dans FREYSSENET Michel, La sidérurgie française 1945-1979, op. cit., p. 54. 2 ADI, 56J59, renseignements fournis à l'inspecteur des impôts. Il s'agit d'une moyenne annuelle. 3 ADI, 56J22, rapports du CA à l'AG ordinaire des 15 mars 1952 et 6 janvier 1954. 4 ADI, 56J22, rapports du CA à l'AG ordinaire du 12 février 1955 et du 14 février 1957. 5 ADI, 56J22. 183 contrats qu'aux départs en retraite : ainsi d'avril 1953 – période d'achèvement de la marche à deux hauts-fourneaux – jusqu'en janvier 1956, trente-neuf travailleurs algériens quittent l'usine alors que seulement deux sont recrutés1. Pour les travailleurs italiens, on a pour sept départs et aucune arrivée, pour les Espagnols trois départs et aucune arrivée, etc. Toutefois, la fin de la marche à deux hauts-fourneaux s'anticipe. Par conséquent on commence à limiter les recrutements plusieurs mois avant l'arrêt : ainsi pour l'année 1952, on a trente-six entrées de travailleurs algériens et soixante-quatre sorties, et par conséquent un solde déjà négatif de vingt-huit2. Or comme le marasme perdure, la politique de diminution des coûts est prolongée jusqu'en 1956. Les départs en retraites ne touchent pas que les hauts-fourneaux, mais tous les ateliers3. On cherche aussi à éliminer des postes que l'on juge désormais inutiles ou au dessus des moyens de l'entreprise : par exemple, l'effectif des jardiniers passe de quatre à un4 entre 1954 et 1956. Les postes de balayeurs ou de graisseurs réservés à de vieux travailleurs sont eux aussi menacés. En s'ajoutant aux effets de la modernisation, cette contraction importante des effectifs effectuée en quatre ans peut aussi avoir des conséquences sur l'évolution des conditions de travail de ceux qui demeurent employés : pour des raisons d'économie de coûts de personnels, on peut chercher à accroître leur productivité en élevant leur charge de travail. 3) Des conditions de travail inégales Les conditions de travail des travailleurs dépendent des postes de travail occupés. Or le travail est lui-même réglementé, surveillé et contrôlé. Après 1936, la réglementation dépend du droit du travail et de son application dans l'usine 5 puisqu'après le Front populaire le lieu de travail « sort de la sphère privée pour entrer dans la sphère publique »6. Pendant les Trente Glorieuses on a alors une « version 1 AMC, cahier des travailleurs étrangers n° 15. Cf. annexe 1. 3 AMC, liste des prud'hommes 1954. 4 AMC, fichier mécanographique. 5 WILLARD Claude, « La crise des années 1930 et le Front populaire », dans WILLARD Claude (dir.), La France ouvrière 1920-1968, op. cit., p.91-93. 6 PROST Antoine, « Les grèves de mai-juin 1936 revisitées », Le Mouvement social, 2002/3, n° 200, p.33-54, p.52-53. 2 184 maximaliste » de l'« État social » qui « intègre [] le développement du droit du travail dans la structuration de la société industrielle »1. Les conditions de travail sont donc définies par l'employeur et encadrées par la loi. Elles portent notamment sur le temps de travail : de lui dépend par exemple la fixation des salaires mais aussi l'imposition d'une discipline et d'une intensité de travail2. Or à l'intensité du travail s'ajoute son effet physique sur les salariés. En effet, aux contraintes de temps et d'espace fixées pour chaque poste de travail, on doit associer le travail lui-même et son effet produit sur le salarié : est-il exposé au feu ? Doit-il transporter des charges lourdes ? Travaille-t-il à l'intérieur ou non ? Etc. Il ne s'agira pas seulement de décrire les activités, mais également d'en mesurer l'impact sur la santé des salariés. Or l'histoire du travail longtemps délaissée doit beaucoup aux sociologues et aux sciences sociales3. Mais le constat qui en est fait est le passage d'une sociologie du travail de « l'homme-ouvrier-de-la-grande-industrie » à « la diversité des approches et encore plus des thèmes »4. Il ne saurait cependant être question ici d'exhaustivité, même si on cherche à varier les thèmes afin de donner une idée suffisamment précise des conditions de travail aux HFC. Ensuite, alors que l'État tient de plus en plus de place dans les relations patrons salariés, on cherchera à distinguer ce qui relève des pratiques d'entreprises. a) Assignation, contrôle et surveillance Les conditions de travail sont donc déterminées par les hiérarchies de l'espace usinier. Les critères de hiérarchisation sont visibles à des échelles diverses : certains concernent tout le personnel, d'autres un groupe et d'autres encore chaque individu. Par exemple, comme le constate Michelle Zancarini-Fournel5 pour les salariés de Casino, une part du personnel est fixée, celle qui compte pour l'entreprise ; quand une autre est instable et constitue une variable d'ajustement à la conjoncture. On retrouve aussi cela à Chasse ; en témoigne ce rapport du conseil d'administration qui décrit le redémarrage 1 CASTEL Robert, Les métamorphoses de la question sociale, Gallimard, Paris, 1995, 813 p., p. 343 pour la citation et p. 430 sqq. pour le traitement du sujet dans le chapitre VI : La propriété sociale. 2 MAITTE Corine et TERRIER Didier, « Temps de travail », Genèses, n° 85, 2011/4, p. 2-5, p. 3. 3 CHEVANDIER Christian et PIGENET Michel, « L'histoire du travail à l'époque contemporaine, clichés tenaces et nouveaux regards », Le Mouvement social, 2002/3, n° 200, p. 163-169. 4 ERBÈS-SEGUIN Sabine, La sociologie du travail, La Découverte, Paris, 2010, 125 p., p. 86 sqq. 5 ZANCARINI-FOURNEL Michelle, « La famille Casino-Saint-Etienne », op. cit., p. 62. 185 de l'usine en juin 1946 : il oppose « le personnel attaché depuis longtemps à notre société » qui a « déployé des efforts, que nous sommes heureux de souligner, notamment pour porter au maximum la production », à « un renforcement des effectifs » pour « une marche à deux hauts-fourneaux »1. Toutefois, à l'échelle de chaque salarié, cette division entre personnel permanent et mobile n'est pas définitive : comme l'indique Michelle Zancarini-Fournel, c'est la longévité dans l'entreprise, preuve de confiance, qui permet de passer d'un statut à l'autre. Un second grand critère de distinction est la différence entre ouvrier et employé. Elle recoupe la distinction travail manuel et travail intellectuel2, même si à travers des exemples comme celui des pointeaux que cela est loin d'être évident : ouvriers ou anciens ouvriers, leur travail est non manuel. Le passage du statut d'ouvrier à celui d'employé est également perçu positivement comme « une promesse d'évolution » d'où un fort souci de distanciation3. On peut le noter par exemple, à travers le témoignage d'Andrée Jobert qui sursoit à son départ de l'usine lorsqu'elle reçoit l'assurance de passer des bureaux de la fonderie aux grands bureaux4. On le repère aussi dans les trajectoires professionnelles, des ouvriers devenant employés comme Georges Charrier, Louis Paret ou Charles Domeyne. Un dernier critère traversant l'ensemble du personnel est celui de la position dans les hiérarchies de commandement l'usine dont la classification est censée être le reflet. Il y a deux degrés de lecture de ces distinctions. Il y a tout d'abord la séparation entre chefs et subalternes, puis il y a ensuite au sein d'un même groupe de travailleurs la multiplicité des grades. Dans le premier cas, la multiplicité des « chefs » – dans les ateliers comme dans les bureaux –, la diversité des grades – contremaître, chef de poste, chef d'équipe ; tous sous les ordres d'ingénieurs – donne l'image d'une hiérarchisation poussée, les différentes catégories d'agent de maîtrise étant à leur tour soumises aux cadres. La diversité des « petits chefs » indique une spécialisation des tâches de surveillance et de commandement : le chef de poste ou d'atelier a la responsabilité administrative de l'ensemble des travailleurs sur un chantier, les chefs d'équipe ou les contremaîtres ont celle de la direction des équipes sur le terrain 5. On retrouve là des 1 ADI, 56J22, rapport du CA à l'AG ordinaire du 28 juin 1946. BEAU Anne-Sophie, « Les employéEs du grand Bazar de Lyon (1886-1950) », op. cit., p. 52. 3 Ibidem, p. 53. 4 Témoignage du le 06/05/2016. 5 Témoignages de Fernand Abel le 15/3/2000, Mohamed Safer le 22/04/2000 et Georges Charrier. 2 186 logiques connues1. Ensuite la diversité des hiérarchies et des statuts se retrouve à l'intérieur de chaque groupe de travailleurs à son tour segmenté. Les ouvriers en sont l'exemple le plus éclairant puisqu'ils sont divisés en manoeuvres, ouvriers spécialisés, ouvriers professionnels, puis en OS1, OS2, etc. Il ne faut pas minimiser ces distinctions qui ont une grande importance pour le personnel, notamment au niveau financier. Ainsi, Fernand Abel2 souligne par exemple que les leveurs de fonte étaient les ouvriers parmi les mieux payés de l'usine. La distinction qu'il fait est pourtant en apparence limitée puisque les leveurs de fonte sont seulement OS1 – ou parfois OS2 – alors que les autres travailleurs de force sont manoeuvres3. Les primes ont également une grande importance4, comme dans l'entreprise Casino étudiée par Michelle Zancarini-Fournel où les rémunérations sont fortement individualisés5. La place de chacun correspond à un grade et à des revenus décernés par les dirigeants de l'usine6, même si ces informations ne sont pas précisément connues par le reste du personnel, car pour reprendre les paroles significatives d'une cadre interviewée par Michelle Zancarini-Fournel, « on ne nous classait pas, on nous donnait de l'argent »7. La position dans la classification et l'argent sont un moyen d'assigner chacun à une place dans l'ordre usinier, mais le contrôle et la surveillance s'effectuent aussi de manière plus classique et physique par la présence des gardes et des pointeaux. Les allées et venues dans l'usine sont contrôlées, des bons sont signés afin de justifier les déplacements, sans quoi on peut être « mis à pied » par les gardes en cas d'absence de ce type de document sur soi lors d'un contrôle8. Un règlement d'atelier9 fixe toute une série de règles de discipline. En date du 1er septembre 1950, il est valable pour tous les travailleurs de l'usine et est soumis aux conventions collectives déjà anciennes des hauts-fourneaux de Chasse et de Givors10. Ces articles peuvent être classés par thèmes selon les domaines de préoccupation disciplinaire. 1 SCHWEITZER Sylvie, « Industrialisation, hiérarchies au travail et hiérarchies sociales au vingtième siècle », op. cit., p. 110. 2 Témoignage, Fernand Abel 15/3/2000. 3 Ce qui dit Fernand Abel est confirmé par le fichier mécanographique du personnel, source AMC. 4 Témoignages de Fernand Abel le 15/3/2000, Mohamed Safer le 22/04/2000 et Georges Charrier. 5 ZANCARINI-FOURNEL Michelle, « La famille Casino-Saint-Etienne », op. cit., p. 66. 6 ADI, 56J57, règlement d'atelier du 1er septembre 1950, 5e article. 7 ZANCARINI-FOURNEL Michelle, « La famille Casino-Saint-Etienne », op. cit., p. 65. 8 Témoignage, Fernand Abel du 15/3/2000. 9 ADI, 56J57. Voir annexe 7. 10 En date du 1er novembre 1936, révisées le 27 juillet 1938. 187 Une première thématique concerne la discipline des corps : il s'agit de contrôler le personnel et de lui faire adopter une attitude positive pour l'entreprise, c'est-à-dire disponible et efficace pour le travail. Cela concerne le contrôle des déplacements (articles 10, 11, 13, 18), la consommation d'alcool ou de tabac (article 18), la gestion du temps et de la période de travail (articles 18, 21, 22, 23) et notamment d'un éventuel temps libre et/ou de repos (article 18). L'entreprise a comme second objectif de contrôler toute organisation collective des salariés dans le respect de la législation de l'époque : il est interdit de faire des collectes (article 18), de transmettre de l'information (article 18), de faire des discours et d'haranguer les travailleurs (article 18). Le vol et la perruque sont également craints, d'où plusieurs interdiction concernant la possibilité de rester dans l'atelier après la fermeture, de toucher à des machines, d'introduire une personne étrangère (article 18). Il peut s'agir aussi de problème de sécurité. Mais même l'outillage et les matières premières ne peuvent être délivrés que grâce à une note de service attestant qu'il ne s'agit donc pas d'un vol (article 13). Une dernière thématique concerne la responsabilisation des travailleurs face à leur travail (article 20). L'entreprise s'accorde enfin le droit de fixer et d'appliquer des sanctions. Une grille spécifique va de l'avertissement au renvoi. La mutation dans un autre service fait partie des mesures répressives et disciplinaires. On relèvera également que les ouvriers font l'objet d'une surveillance spécifique. Certes, il est bien rappelé que le règlement s'applique aux ouvriers et aux employés, mais la référence aux ateliers d'avantage qu'aux bureaux, aux machines plus qu'au matériel de bureau, indique une préoccupation plus grande vis-à-vis d'un groupe plus nombreux et plus craint. D'ailleurs, eux seuls sont concernés par la mesure qui les subordonne à n'importe quel agent de maîtrise, même s'il n'est pas leur supérieur habituel : on comprend alors mieux la volonté des employés de se distinguer du statut d'ouvrier qui ne peut-être jugé que comme inférieur car moins libre. Le contrôle du temps de travail est un point important des pratiques de mise en place d'une discipline de la main d'oeuvre. La journée de travail est officiellement de huit heures depuis le 20 juin 1936, mais la loi du 25 février 1946 autorise le recours aux heures supplémentaires avec l'accord de l'inspection du travail1. De fait, les heures supplémentaires sont couramment pratiquées. Ainsi en 1953, face aux difficultés de mévente provoquées par la naissance de la CECA, il est proposé par le président que 1 MARCHAND Olivier et THELOT Claude, Le travail en France (1800-2000), op. cit., p. 139-140. 188 l'horaire de quarante-huit heures soit ramené à quarante heures1. Il s'agit donc de revenir à l'horaire légal de quarante heures, mais comme celui-ci n'était pas appliqué depuis des années, c'est l'horaire de quarante-huit heures – heures supplémentaires comprises – qui est devenu la norme. La journée de travail est longue : 9h30 heures par jour pendant cinq jours pour quarante-huit heures la semaine. Elle est différente pour les ateliers en travail posté 3/8 au haut-fourneau, à la briqueterie-cimenterie, à la centrale et en 2/8 dans certains ateliers de la fonderie. Les journées de travail dans ces ateliers ne sont que de huit heures sur cinq jours suivies de deux jours de repos2. Mais il est possible de doubler son poste, c'est-à-dire de travailler seize heures de suite. Cela est recherchée par les salariés qui, comme ailleurs3, voient la possibilité d'augmenter leurs salaires jugés trop faibles grâce au paiement des heures supplémentaires. Elle dépend cependant de la quantité de travail de l'usine et non de la volonté des travailleurs. Cette possibilité apparait donc être un avantage artificiel pour les ouvriers dont profite – en réalité – surtout l'entreprise, ce qui permet de maintenir des salaires relativement bas et de s'adapter aux surplus de production sans avoir à embaucher. Enfin, la question de la maîtrise du temps de travail par les salariés ou les dirigeants est anciennement posée par les chercheurs. Ainsi, Corine Maitte et Didier Terrier rappellent que : le « temps est aussi l'expression d'un rapport de force qui met aux prises, d'une part celui qui achète du temps, des capacités et de la subjectivité dans le cadre d'un procès de travail, d'autre part celui qui, s'il vend son temps, entend préserver une certaine maîtrise de celui-ci »4. Cela renvoi à de nombreuses questions déjà abordées : la liberté de circulation entre atelier, la lutte contre la flânerie, la surveillance des salariés, etc. Il est visible qu'aux HFC on essaie de réduire la maîtrise du temps de travail par les salariés en s'appuyant sur le règlement d'atelier, la surveillance et un dispositif de sanction. Elle l'est d'autant plus s'ils sont ouvriers et s'ils sont faiblement qualifiés. Dans ce dernier cas, ils sont aussi davantage contraints par les effets de la mécanisation et la rationalisation5 que le reste du personnel. 1 ADI, 56J12, conseil d'administration du 4 avril 1953. Témoignage, Fernand Abel 15/3/2000. 3 MARGAIRAZ Michel, « La permanence de la structure de la classe ouvrière dans les années cinquante », dans WILLARD Claude (dir.), La France ouvrière 1920-1968, op. cit., p. 254. 4 MAITTE Corine et TERRIER Didier, « Une question (re)devenue centrale : le temps de travail », Genèses, n° 85, 2011/4, p.156-170, p. 158. 5 Ibidem, p. 158. Ces logiques sont parfaitement connus par les chercheurs et renvoient à la qualification du travail cf. MARGAIRAZ Michel, « Les transformations structurelles des années soixante » ; op. cit., p. 311 sqq. ; FREYSSENET Michel, La sidérurgie française 1945-1979, op. cit., p. 15 ; etc. 2 189 La question de la productivité qui limite la liberté dans le travail se pose de plusieurs manières. Seuls quelques postes peuvent être comparés à du travail à la chaîne en raison de leurs gestes répétitifs : celui de noyauteur à la machine ou celui d'ébarbeur à la fonderie, celui d'empileur à l'agglomération de briquettes de pyrite. La question de la rationalisation des gestes1 peut être posée, mais il n'y a à notre connaissance jamais eu de chronométrage à Chasse. Ensuite, la mécanisation a déjà touché de nombreux postes : machinistes, appareilleurs, chargeurs aux hauts-fourneaux, cubilotiers à la fonderie, cimentiers à la cimenterie, etc. Or d'après Michel Freyssenet, avec elle : « le travailleur perd la maîtrise de son travail lui-même et devient le servant d'une machine qui lui impose rythme et gestes »2. Il y a aussi une automatisation limitée du chargement du haut-fourneau n° 3. Toujours d'après le même auteur, la « mise en oeuvre capitaliste du principe automatique consiste à enlever à l'ouvrier le travail d'alimentation de la machine qui exigeait encore de lui une petite activité intellectuelle pour en faire un surveillant devant réagir d'une manière purement réflexe à des signaux optiques ou sonores »3. Avec l'automatisation, le chargeur n'a en effet plus qu'à surveiller le montecharge qui se vide automatiquement au dessus du gueulard du haut-fourneau. Mais, mis à part ces exemples, de nombreux travailleurs gardent encore une certaine indépendance dans leur travail : ajusteurs, tourneurs, soudeurs, chimistes, etc. On les trouve dans différents ateliers : entretien, usinage, laboratoire. Ces derniers sont encore en partie maîtres de leur temps ; voire, comme les dessinateurs du bureau d'étude, ils pourraient être les principaux bénéficiaires de ces changements4. Toutefois, comme l'automatisation est limitée et que le bureau d'étude a d'avantage en charge les pièces à réaliser que le processus de production à gérer, les effets de l'automatisation sont loin d'être ceux décrits par Michel Freyssenet. Certes le poste de surveillant existe au hautfourneau, mais il est en réalité la conséquence de la mécanisation. Enfin, la question de la productivité peut se poser à l'échelle d'un atelier. La modernisation du haut-fourneau n° 35 en est la meilleure illustration : avec lui, les coulée se font désormais toutes les 2h30 à 3 heures et non plus toutes les 4 heures comme au hauts-fourneaux n° 1 et 2 de 1 MAITTE Corine et TERRIER Didier, « Une question (re)devenue centrale : le temps de travail », op. cit., p. 158. 2 FREYSSENET Michel, La division capitaliste du travail, op. cit., p. 14. 3 Ibidem, p. 14. 4 Ibidem, p. 14. 5 Michel Freyssenet note cependant que si les gains de productivité peuvent être importants, l'automatisation des hauts-fourneaux est très complexe à réaliser : dans FREYSSENET Michel, La sidérurgie française 1945-1979, op. cit., p. 69. 190 type ancien. La modernisation a donc modifié les cadences de production, mais seulement au haut-fourneau. Les effets du travail se font ressentir en raison de sa durée et de son intensité, mais aussi en raison de l'effort physique à fournir. Cet effort est musculaire lorsque l'on est leveur de fonte ou empileur, mais il peut s'agir aussi de la résistance au feu. De plus, à l'usure physique s'ajoute les risques représentés par des activités très différentes : déplacement des wagons, poussières de la cimenterie, fumées diverses de combustion, ou manipulation de produits chimiques, etc. Le travail marque les corps, il a un effet sur l'intégrité physique des travailleurs. Pour les périodes les plus proches de la guerre, il nous manque cependant des documents pour en faire l'étude. En revanche, partir des années 1950, cela devient progressivement possible et de plus en plus complet le temps passant. Trois grandes thématiques peuvent être abordées : les maladies, les accidents, la mortalité. b) La gestion des arrêts longue maladie et des accidents de t ravail par l'entreprise Le détail des maladies ne nous est pas connu car les documents de la mutualité de l'entreprise conservés à Chasse datent pour l'essentiel des années 19601. Seul un cahier nous donne pour l'année 1956 le nombre d'arrêts longue maladie de l'usine. Il peut-être complété par les indications se trouvant au dos des fiches du personnel pour les arrêts du même type depuis 19542. Les informations concernant les arrêts maladie de longue durée ne couvrent donc pas toute la période. De plus, cette étude se limite aux aspects les plus importants, mais les arrêts les plus courts nous sont invisibles : on peut le regretter car ils seraient pourtant eux aussi révélateurs de la morbidité touchant le personnel des HFC. Tout d'abord, on peut donner le dénombrement suivant des arrêts de longue durée de 1953 à 1956 : sept la première année, puis onze, neuf et vingt-et-un les années suivantes. On n'en dira cependant pas plus sur les effectifs concernés car les sources sont lacunaires, sauf pour l'année 1956. 1 2 AMC, 1H3, mutualité. AMC, fichier mécanographique du personnel. 191 On peut néanmoins déjà constater que tous les ateliers sont touchés par les arrêts maladie longue durée, ces derniers pouvant aller de quelques semaines à plusieurs mois. Certes les hauts-fourneaux et la fonderie sont selon les années en effectif plus important, mais ce sont aussi les ateliers numériquement les plus élevés. On peut observer également que toutes les nationalités sont concernées, de même que les deux sexes. L'exposition aux risques est donc assez répandue. Les arrêts longue maladie entrainent également une gestion de la part de l'entreprise. En effet, les renvois pour absentéisme n'ont pas été trouvés dans les documents du personnel, ni pour les employés, ni pour les agents de maîtrise. En revanche, bien que rares, ils sont dénombrables pour les ouvriers. Antoine K. – mouleur à la fonderie – et Ahmed M. – maçon – sont tous les deux renvoyés en 1956 pour leurs « absences » : or le seul motif était leurs arrêts maladie. Cette année-là, trois autres ouvriers sont « réglés », c'est-à-dire qu'on leur a donné leur compte alors qu'ils étaient en arrêt longue maladie. Une serveuse à la cantine, Elise D., en arrêt maladie pendant toute l'année 1956 démissionne pour ce motif : elle a vingt-cinq ans. Edouard C. connait une situation intermédiaire entre la sanction et la faveur : après des mois d'absence, il change d'atelier. Il passe d'ouvrier OP1 à la cimenterie en 1953 à celui de magasinier OS1 en 1955 ; mais on ne peut pas dire que ce soit vraiment une mesure disciplinaire puisque ce qu'il perd en salaire et en position dans la classification, il le regagne un peu en changeant d'atelier et en occupant un poste moins exposé, sans doute pour des raisons de santé. La sanction par le renvoi, la crainte de la rétrogradation dans la hiérarchie des ateliers et de la classification sont autant de moyens de pression. D'ailleurs si les chiffres des arrêts de longue durée varient aussi peu pendant ces années, n'est-ce pas aussi le signe de leur « gestion » par l'entreprise ? Toutefois, José P. change lui aussi d'atelier après un an d'arrêt de mars 1956 à mars 1957, mais sans rétrogradation. Ou encore René B. qui cumule vingt-quatre mois d'arrêt maladie en quatre ans ne subit lui non plus aucune rétorsion : il garde son poste d'échantillonneur au laboratoire. Gérer ne veut donc pas dire seulement sanctionner, mais aussi récompenser en gardant, c'est-àdire en protégeant ceux que les dirigeants jugent les plus méritants : les dirigeants de l'entreprise cultivent ainsi une image de protecteur auprès de leurs salariés. Ces derniers le lui rendent bien et ce savant dosage de punition et de récompense, c'est-à-dire de sanction des travailleurs supposés se reposer et de protection des plus méritants – selon le point de vue des dirigeants de l'entreprise – fait 192 que les cas d'absentéisme semblent rares. La nécessité de gagner sa vie peut l'expliquer, mais certains travaillent tout de même pour elle jusqu'à l'épuisement, voire l'accident. Par exemple, Ernest Sapin, maçon de son état, est en arrêt maladie à plusieurs reprises en 1954 et 1956. Il décède en 1958 à cinquante-huit ans. Il n'est certes pas possible d'établir de corrélation absolue entre ces données, mais lorsqu'elles se répètent, on a de fortes présomptions : par exemple, Jean Guichard est ouvrier spécialisé à la fonderie depuis 1942. Il est malade de 1950 à 1952. Il reprend un travail de garde barrière de janvier 1953 à décembre 1954. Il est déclaré invalide, mais il occupe ensuite un poste à la maçonnerie d'après sa fiche du personnel. Il décède en en mars 1957 à l'âge de trente-huit ans. On retrouve d'ailleurs également dans les bureaux des décès aussi brutaux que tragiques. Par exemple, Marguerite Migieu – comptable réputée pour son sérieux et ses capacités – décède en 1959 a à peine cinquante-cinq ans. Georges Guinand, caissier principal, est mort sur son lieu de travail – dans son bureau –, en 19561 ; il avait soixante-douze ans. Cependant, aux risques de décès liés plus ou moins au travail excessif, les ouvriers ajoutent celui des accidents. On dénombre un nombre de élevé de victimes : il y en a vingt-huit en quatre ans. Les accidents de travail occasionnent des arrêts assez longs, mais ils sont pour la plupart suivis d'un constat d'invalidité partielle ou totale en raison d'une mutilation (vingt-six des vingt-huit cas). Ainsi en février 1956 André Loup, un leveur de fonte de quarantesix ans est déclaré invalide ; de même que Mohamed Lemmouchi un jeune manoeuvre du haut-fourneau qui a lui seulement vingt-six ans. Néanmoins, tant que l'invalidité totale n'a pas été constatée, les ouvriers blessés continuent à être embauchés par les HFC. Pour les cas les plus graves, un changement de poste peut leur être proposé : ainsi Jean Buisson2, un ouvrier des hauts-fourneau accidenté en 1952 après un court passage à la maçonnerie est embauché à l'entretien où il est magasinier. 1 2 Correspondance Janine Bouillet. AMC, fichier mécanographique et liste des prud'hommes 1960. 193 Tableau 10 : Les accidents du travail suivis d'arrêts de longue durée 1953-19561 Ateliers 1953 Français Algériens Étrangers Total 1 1 1 1 4 0 0 0 0 0 1 0 0 0 1 2 1 1 1 5 0 2 0 1 1 4 0 0 0 0 0 0 1 0 1 0 0 2 1 2 1 1 1 6 2 2 1 1 1 0 0 7 0 1 0 0 0 1 0 2 1 0 0 0 0 0 1 2 3 3 1 1 1 1 1 11 Haut-fourneau Fonderie Parc à fonte Total 1 1 1 3 1 0 1 2 1 0 0 1 3 1 2 6 OP OS Manoeuvres Employé Total général 5 8 4 1 18 0 1 3 0 4 1 4 1 0 6 6 13 8 1 28 Haut-fourneau Manutention Centrale Entretien Total 1954 Haut-fourneau Agglomération Entretien Maçonnerie Garde Total 1955 Haut-fourneau Fonderie Cimenterie Centrale Entretien Manutention Parc à ferrailles Total 1956 Toutes les nationalités sont concernées, mais ce qui fait avant tout leur point commun est le fait qu'ils sont presque tous ouvriers. Aucun atelier n'est épargné, mais le haut-fourneau domine largement : neuf cas pour ces quatre années, soit 32,1 % des accidents ; alors que par exemple en 1954 il ne représente que 19,5 % de l'effectif total de l'usine et 23,2 % de ses ouvriers2. Dans cet atelier, le poste de chargeur est en particulier très exposé : cinq des neuf accidents. 1 2 AMC, fichier mécanographique du personnel. Cf. annexe 2. 194 c) La mortalité au travail On retrouve des statistiques comparables entre invalidité et mortalité puisque l'origine en est la même : ils surviennent suite à des accidents de travail. Il n'est cependant possible de l'affirmer avec certitude qu'à partir de 1954, au moment où le fichier mécanographique de l'entreprise est utilisé. Pour la période antérieure, on a des noms, des dates et des ateliers, mais aucune information sur la manière dont est survenu le décès. Parmi les travailleurs étrangers, on recense douze décès entre janvier 1945 et décembre 19531, dont la moitié concerne des travailleurs des hauts-fourneaux. Cette surreprésentation peut s'expliquer au moins de deux manières. On a tout d'abord vu que cette activité de l'usine concentrait un grand nombre de travailleurs étrangers ou à statut particulier comme les Algériens2. Il parait donc logique de retrouver leur présence dans les statistiques des victimes : quatre des six travailleurs décédés de cet atelier sont des Algériens. Les dirigeants de l'entreprise en tirent les conséquences en prenant à leur charge les frais d'une concession trentenaire au cimetière de Chasse-sur-Rhône3 pour la « sépulture d'ouvriers décédés ». Une note manuscrite précise qu'il s'agit de travailleurs algériens. Un second facteur peut être aussi une relative inexpérience de ces nouveaux travailleurs confrontés à d'importants efforts de production au moment de la relance de l'usine. Par exemple, Ahmed Zerfas, un maçon est décédé à l'âge de vingt-sept ans ; Émile Kirshner, ouvrier du haut-fourneau, avait vingt-et-un ans ; Senoussi Senoussi, ouvrier au haut-fourneau, avait vingt-sept ans. Si on prend l'exemple de ce dernier, il vient directement d'Algérie en février 1947. Il enchaine pendant quatre ans le travail dans trois ateliers différents, au grès des besoins de l'entreprise. Émile Kirshner est lui un ancien prisonnier de guerre embauché tout d'abord à la briqueterie cimenterie en décembre 1946, il décède deux ans plus tard alors qu'il travaille désormais au hautfourneau. Toutefois, un seul de ces décès est recensé clairement dans les cahiers du personnel avec la mention « décédé suite à un accident de travail ». Il s'agit d'Antonio Martinez mort le 17 avril 1952. Tous les décès de travailleurs étrangers ne sont donc pas nécessairement des accidents de travail, de même que ceux des douze travailleurs 1 AMC, cahier du personnel étranger n° 12, 13, 14. Cf. annexe2 pour l'année 1954. 3 ADI, 56J58, concession trentenaire au cimetière. 2 195 français survenus pendant la même période 1. Le jeune âge des travailleurs au moment de leur trépas peut être un indice, mais Antonio Martinez avait lui soixante-deux ans, ce qui laisse entendre que l'âge n'est pas un critère absolu pour déterminer l'origine de la mort. En ce qui concerne les travailleurs français, plusieurs sont d'âge avancé. Comme on l'a vu jusqu'en 1953, l'entreprise conserve pour des raisons sociales une partie de ses vieux travailleurs. Ainsi outre deux soixantenaires nommés Prudent Bouzon – ouvrier à la fonderie qui avait soixante-trois ans à son décès –, Georges Boulon – ouvrier à la briqueterie qui avait soixante-huit ans –, les autres avaient soixante-quinze ans comme Johanni Berger – ouvrier à l'entretien –, et même soixante-seize ans, pour Léon Buisson, ouvrier au haut-fourneau. Ces âges plus élevés, à une époque où les départs en retraite étaient encore compliqués en raison de la faiblesse des pensions2, sousentendent des décès pour la plupart non dus à des accidents de travail. Cependant, quatre travailleurs français décédés sont des quarantenaires et un cinquième – Jean Bouvier, ouvrier à la briqueterie cimenterie – a seulement trente-huit ans : ils ne sont certainement pas tous morts de causes naturelles à un âge aussi jeune. On peut dire que sur la période 1945-1953, seul un des décès peut être attribué à un accident de travail de manière sûre, mais qu'il est certain que cela soit également le cas pour plusieurs autres. L'âge du décès est un indice : trop jeune, il peut s'agir d'un accident, plus âgé, il peut s'agir d'une mort naturelle alors que de nombreux travailleurs n'ont pas les moyens de partir à la retraite ou ne souhaitent pas le faire3. Dans ce dernier cas, on retrouve d'avantage de travailleurs français. Toutefois, à partir des années 19541956 et grâce au fichier mécanographique, il est possible de connaître beaucoup plus précisément la nature des décès survenus et d'en analyser les causes. Il n'y a aucun décès dû à des accidents de travail pendant les années 1954-1955. En revanche l'année 1956 bat des records. Les deux années qui l'ont précédée sont en effet marquées par une baisse de la production4 et une diminution des effectifs. On peut dans une certaine mesure relier ces éléments entre eux : une relative stabilisation de la main d'oeuvre, avec une baisse de l'intensité productive et la disparition des accidents 1 AMC, cahier du personnel français n° 7, 8, 9. FELLER Élise, « La construction sociale de la vieillesse (au cours du premier XXe siècle) », dans GUEDJ François et SIROT Stéphane (dir.), Histoire sociale de l'Europe. Industrialisation et société en Europe occidentale 1880-1970, Seli Arslan, Paris, 1998, 411 p., p. 301-302. 3 FELLER Élise, « La construction sociale de la vieillesse », op. cit., p. 310-313. 4 Cf. annexe 3. 2 196 mortels. Mais on a aussi déjà indiqué l'importance des accidents suivis de mutilation en 19551, ce qui relativise ce constat. En 1956, au moins quatre décès sont imputables à des accidents de travail. Le premier est celui de Louis Lalise le 23 mai. Il est écrit au dos de sa fiche : « chute accidentellement sur la traine de coulée du HF2, à travers le hall de coulée ». Ce dernier était maçon et avait près de dix ans d'expérience. C'est en voulant traverser le hall de coulée qu'il a glissé et est tombé dans de la fonte en fusion. Sans une aide rapide d'un collègue pour ressortir, le corps s'enfonce sans possibilité de prendre appui : c'est ce dont se rappelle Saturno Colangeli qui a assisté à un accident de ce type n'ayant provoqué qu'une amputation du talon2. Mais dans le cas où comme pour Louis Lalise c'est le corps qui est tombé, l'issue ne peut qu'être fatale. Le 3 octobre, Luigi Angius décède à son tour. Cet ajusteur italien est un ouvrier d'expérience : trente-trois ans de présence dans l'usine au moment de l'accident. Il est classé OP1 et travaille à la manutention depuis des années. Les causes de son accident ne sont pas précisées ; de même que celles de Sarkis Hairabédian décédé le 23 du même mois. Cet ouvrier spécialisé arménien qui a passé plus de vingt-trois ans dans l'usine trouve donc la mort dans un accident de travail, son atelier est la Briqueterie Cimenterie où il a fait toute sa carrière. Le quatrième est dernier travailleur est lui aussi qualifié et expérimenté : il s'agit de Marius Rocher, un contremaître des hauts-fourneaux. Georges Charrier se rappelle que ce dernier est monté seul pour inspecter le gueulard du haut-fourneau3. Ne le voyant pas redescendre, on est allé le chercher et on l'a trouvé mort asphyxié par du monoxyde de carbone. D'autres décès cette année-là peuvent être plus ou moins imputés au travail. On se rappelle que Georges Dunand est mort dans son bureau la même année. Aquilino Pastor décède le 7 décembre 1956, mais à la différence des autres travailleurs, sa fiche ne porte pas la mention accident du travail. Il est pourtant mort à trente-neuf ans alors que son poste de travail est au haut-fourneau, ce qui rend ce décès suspect. Pour toutes ces raisons, on peut dire que la période pendant laquelle on construit puis on met à feu du haut-fourneau n° 3 voit une dégradation des conditions de travail dont l'impact est très négatif sur les ouvriers. Or même si les sources sont moins 1 Cf. tableau n° 10. Témoin rencontré le 17 mai 2016. 3 Témoignage de Georges Charrier : comme infirmier, il se rappelle que suite à ce décès la décision a été prise d'interdire à une personne non accompagnée de monter au sommet du haut-fourneau. 2 197 précises pour la période précédente – depuis la relance de la production après 1945 puis la modernisation –, on peut dire qu'elles étaient déjà difficiles. À cela s'ajoutent de multiples éléments de contrôle et de pression sur les personnels. On a néanmoins vu que les dirigeants de l'usine ne recherchent pas uniquement à sanctionner, mais aussi à récompenser pour, par exemple, gérer les arrêts longue maladie. Leurs résultats en matière de lutte contre l'absentéisme paraissent d'ailleurs efficaces, mais elle a aussi un coût humain en encourageant un engagement parfois excessif. Néanmoins, de nombreux salariés accomplissent un parcours professionnel ascendant. D'autres changent simplement d'activité, ce qui peut être suffisant, notamment quand en raison de l'âge on aspire à avoir un travail moins dur. Pour les travailleurs étrangers cependant, les conditions changent peu pendant la période. Dans un contexte marqué par la place croissante de la modernisation, ces douze années ont donc vu le travail et les conditions de travail évoluer à des rythmes différents. Le recrutement des travailleurs également. 4) Des variations importantes dans le recrutement et la structure du personnel Pour Michel Margairaz, les années 1950 voient en France la stabilisation simultanée des effectifs et de l'enracinement des ouvriers 1. Gérard Noiriel voit dans la stabilisation des bassins industriels commencée dans les années 1930 ce qui a permis la naissance d'une véritable génération ouvrière après 1945 2. Xavier Vigna conteste cela en pointant les fractures internes du monde ouvrier et l'ampleur de la déstabilisation opérée par la Seconde Guerre mondiale. Par conséquent, selon lui, on peut observer un brassage intense de la classe ouvrière, qui tend même à s'accélérer par la suite 3. Or le personnel des HFC connait de fortes variations, à la fois dans son recrutement et sa structure. C'est donc un personnel en partie renouvelé qui sort de ces dix années d'expansion irrégulière et de modernisation. En partie seulement, car s'il y a des changements, il y a aussi des permanences. 1 MARGAIRAZ Michel, « La permanence de la structure de la classe ouvrière », op. cit., p. 241. NOIRIEL Gérard, Les ouvriers dans la société française, op. cit., p. 195 sqq. 3 VIGNA Xavier, Histoire des ouvriers en France , op. cit. p.178-179. 2 198 a) Les fortes variations des recrutements À la Libération, l'effectif de l'usine a baissé et il est inférieur à 700 travailleurs. Il augmente ensuite fortement pour la reconstruction et la remise en route de l'usine, puis la relance des productions : il devient supérieur à 1 000 individus en 1949 et le demeure jusqu'en 1952. Ensuite ils diminuent jusqu'en 1955 où ils atteignent un minimum : 705 et même 742 si on tient compte de toutes les catégories de personnels (les apprentis de moins de vingt ans, les personnes chargées uniquement du nettoyage, du chauffage, de la garde des locaux et celles qui sont affectées aux oeuvres sociales ou au service médical de l'entreprise). Puis en 1956, les effectifs remontent un peu pour atteindre 707 individus1 auxquels il faudrait ajouter les personnels de nettoyage et de gardiennage2. Les variations des recrutements de personnels3 reflètent assez fidèlement les rythmes de production de l'usine qui dépendent eux-mêmes principalement de la marche des hauts-fourneaux. Les périodes de marche à deux appareils correspondent aux dates suivantes : 25 janvier 1947-16 juin 1950, puis mi-avril 1951-avril 19534. Puis cette marche n'est reprise à nouveau que le 13 mai 1956, après l'inauguration du nouveau haut-fourneau n° 35. Les années positives en recrutement de travailleurs, français comme étrangers, correspondent à ces périodes : on retrouve les années 19471948, puis 1951 et enfin 1956. En effet, comme on l'a vu avant chaque campagne on procède à un recrutement supplémentaire, puis cette dernière se finissant, on commence à réduire personnel excédentaire. C'est d'ailleurs pour éviter ces mouvements d'effectifs et gagner en productivité que le haut-fourneau n° 3 doit remplacer au moins les deux anciens selon les administrateurs des HFC6. Plusieurs évolutions du recrutement observées dans l'étude des postes de travail et des ateliers sont repérables ici à l'échelle de l'usine. Cependant, des remarques complémentaires peuvent être faites à cette échelle d'étude, avant de voir plus particulièrement les recrutements de personnels étrangers puis français. 1 ADI, 56J59, renseignements pour la contribution des patentes. Chiffre non fournit pour l'année 1956. 3 Voir annexe 1 pour le détail des mouvements depuis 1945 et les graphiques n° 1, 2, 3, 4. 4 56J24, rapport des commissaires aux comptes exercice 1946-1947, rapports du CA à l'AG ordinaire du 29 mai 1951, du 15 mars 1952 et du 6 janvier 1954. 5 56J12, conseil d'administration du 30 mai 1956. 6 Sur cette description des recrutements et les projets de productivité, source : ADI, 56J24, rapport du CA à l'AG ordinaire du 6 janvier 1954. 2 199 Graphique 1 : Recrutement des personnels français des HFC de 1947 à 1956 1 20 15 10 5 Entrées 0 Sorties Entrées/sorties hommes -5 Entrées/sorties femmes -10 Graphique 2 : Différence des entrées et sorties de travailleurs étrangers de 1947 à 19562 100 80 60 40 20 0 -20 -40 -60 -80 2dse mestr 1948 1949 1950 1951 1952 1953 1954 1955 1956 e194 7 Entrées/sorties hommes 48 18 -15 -66 82 -18 -23 -14 -10 29 Entrées/sorties femmes 0 0 1 -2 0 0 -3 0 0 -1 1 AMC, cahier du personnel français n° 8, 9, 10. La méthode utilisée est la même que pour le tableau 1, c'est-à-dire par sondage en utilisant la lettre B : cela ne permet pas la comparaison avec les travailleurs étrangers dénombrés en totalité, mais celle avec les travailleurs français pendant et après la guerre. 2 AMC, cahier du personnel étranger n° 13, 14, 15. 200 Tout d'abord, en 1949 on assiste à une croissance des effectifs pour les travailleurs Français et étrangers à l'exception remarquable des travailleurs venant d'Algérie, comme si la baisse de leur recrutement anticipait la diminution future de la production. Ensuite, alors que la marche en 1952 à deux hauts-fourneaux aurait dû entrainer un redémarrage des embauches de travailleurs, on constate que cela est surtout vrai pour les Français, mais pas pour les étrangers. Or quand on regarde à nouveau cette catégorie, on s'aperçoit qu'il faut distinguer les Algériens des autres nationalités ; les pertes d'emploi les concernent principalement. Dans ce second cas, cela s'explique par le fait qu'ils sont surtout embauchés aux hauts-fourneaux, or la mise en route de la machine à couler provoque la diminution des besoins en main d'oeuvre. Cela représente quarante-trois départs dans l'année sur les soixante-quatre observés pour ces salariés cette année-là. Les conséquences négatives de la modernisation ne concernent donc pas de manière égale le personnel, mais touchent d'abord les travailleurs étrangers, et en particulier les Algériens. On peut donc dire qu'en occupant ces emplois nécessairement précaires car provisoires, ils ont apporté une souplesse dans la gestion des effectifs pour suivre les rythmes de production, et contribué à la mise en place du plan de modernisation de l'entreprise1. Leur apport ne se limite donc pas à une force de production. Il comprend aussi l'utilisation de cette force qui épargne, au moins en partie, d'autres catégories de travailleurs. De plus, on peut noter l'importance de la longue période de stagnation qui s'étend de 1953 à 1956. La faiblesse des départs et arrivées s'explique parce que l'entreprise tourne au ralenti. Il y a plusieurs facteurs à cela : la construction du hautfourneau n° 3, mais surtout la faiblesse de la demande en fonte2 qui contraint les dirigeants des HFC à diminuer leurs productions alors que leur situation financière est de plus en plus délicate. Or ce fléchissement s'explique par la mise en place du Marché commun : en juin 1954, les importations de fonte hématites allemandes, belges, hollandaises se poursuivent encore, alors que la demande intérieure a baissé de 10 1 Comme le pensent plusieurs historiens de l'immigration, loin de freiner l'investissement technologique et l'innovation, la main d'oeuvre immigrée a apporté sa contribution : PITTI Laure, « La main d'oeuvre algérienne dans l'industrie automobile (1945-1962), ou les oubliés de l'histoire », dans PITTI Laure (dir.), « Immigration et marché du travail », Homme et Migration, n° 1263, Septembre-octobre 2006, p. 47-57, p. 54. Elle rappelle que cette thèse est discutée dans NOIRIEL Gérard Noiriel, Le creuset français, op. cit., p. 315. 2 La production des aciéries Martin de la région ont par exemple baissé de 42 % en 1953 par rapport à 1952 : ADI, 56J12, conseil d'administration du 23 février 1954. 202 %1. Pendant cette phase délicate qui ne s'interrompt qu'au début de 19562, tous les personnels sont touchés par les départs. On constate également la quasi disparition des recrutements. Seules nuances notables, mais tout de même particulièrement significatives : les Algériens, – même si c'est en plus faible nombre –, continuent à représenter l'essentiel des départs d'« étrangers » en 1954 et 1955. De plus, pour cette dernière année, les étrangers continuent à partir de l'entreprise quand le recrutement se fait à somme nulle pour les Français. Ce sont les prémices d'un retournement de situation, et les recrutements reprennent en 1956, dès le mois de mars pour les travailleurs français et ceux venant d'Algérie. b) Les travailleurs étrangers : une place centrale Ensuite, plusieurs autres remarques peuvent être faites en étudiant chaque nationalité. On peut tout d'abord constater que certaines d'entre elles disparaissent assez rapidement des recrutements. On retrouve là des Européens de l'Est, des Grecs et des Arméniens qui sont les représentants d'anciens apports migratoires dont les flux vont se tarir. En ce qui concerne la première catégorie, il est facile de comprendre le facteur principal : en raison de la guerre froide, l'Europe est coupée en deux. Les flux de travailleurs migrants, en particulier polonais et allemands, qui venaient travailler à Chasse diminuent. Ceux qui sont embauchés sont en général déjà relativement âgés 3 – plus de 40 ans –, ce qui fait penser qu'ils doivent être présents sur le territoire français depuis l'entre-deux-guerres. Les travailleurs allemands font exception : sur les cinq qui sont embauchés en 1946, quatre ont un peu plus d'une vingtaine d'années. Ils sont recensés comme prisonniers de guerre4. Quand en 1947 leur statut change, un certain nombre reste en 1 ADI, 56J12, conseil d'administration du 7 juillet 1954. Les importations sont toujours dénoncées en 1955 : ibidem, séances du 29 janvier, 27 avril, 23 juillet 1955. Un mémorandum rédigé par Léon Aveline, président de la Société commerciale des fontes, est même déposé à Luxembourg sur les difficultés éprouvées par Chasse et Givors depuis l'ouverture du Marché commun : ibidem, séance du 28 décembre 1955. 2 ADI, 56J12, conseil d'administration du 9 février 1956. 3 AMC, cahier du personnel étranger n° 13. 4 Ibidem. 203 France1. Ce sont certainement des travailleurs de ce type qui sont embauchés après cette date, d'où leur relative jeunesse. Par exemple en 1948, sur cinq nouveaux embauchés, quatre ont une vingtaine d'années. Les Grecs et Arméniens sont arrivés pendant l'entre-deux-guerres, fuyant un Proche Orient sous tension2. Les Syriens ou Libanais sont des enfants arméniens nés au moment de la diaspora arménienne. Ceux qui entrent dans l'usine de Chasse après 1945 sont donc présents en France depuis plusieurs années. Leur nombre est peu élevé. En revanche, on remarque pendant le second semestre 1947 un départ important d'Arméniens : quatorze en tout, dont trois femmes. Les raisons de ce départ groupé sont à chercher dans le « retour » dans la République d'Arménie en URSS3. Le mythe créé par la victoire, la propagande soviétique et l'appui du clergé arménien sont les facteurs qui ont entrainé ce départ. La communauté arménienne de Chasse en a gardé longtemps la cicatrice, les familles parties ne pouvant revenir. Les anecdotes qui concernent ce voyage suivi de désillusions sont nombreuses ; on racontera seulement celle-là : pour échapper à la censure stalinienne un frère annonce qu'il enverra une photographie de lui. S'il est debout tout va bien. S'il est assis, c'est le contraire. Or sur la photographie envoyée, il était couché. Que cette histoire soit vraie ou enjolivée, il n'en reste cependant pas moins réel que la communauté arménienne de Chasse va être amputée d'une partie importante de ses membres, alors que dans le même temps elle va se diviser sur la nécessité de partir ou de rester4. Les autres nationalités sont les Portugais, les Espagnols, les Italiens et, classés avec eux tout en n'étant pas une nationalité étrangère, les Français musulmans d'Algérie5. Les travailleurs portugais sont recrutés au compte-goutte jusqu'en 1951, puis leurs arrivées cessent jusqu'à la fin de la période étudiée. Cette catégorie de 1 THÉOFILAKIS Fabien, Les prisonniers de guerre allemands en mains françaises (1944-1949) : captivité en France, rapatriement en Allemagne , thèse sous la codirection de BECKER Annette, ROUSSO Henry et WIRSHING Andréas, Université Paris X Nanterre, 2010, 1344 p., p. 269 sqq. 2 BOZARSLAN Hamit, DUCLERT Vincent, KÉVORKIAN Raymond, Comprendre le génocide des Arméniens, Tallandier, Paris, 2015, 494 p., p. 126-128 sur la naissance d'une diaspora et p. 149 sur les populations visées (Arméniens et Grecs notamment). 3 COMTE Marie-Hélène et GONOD Nathalie, L'éternel arménien, l'histoire de la communauté de Chasse-sur-Rhône, Saint-Just-la pendue, 1997, 52 p., p. 40-42. 4 Ibidem. 5 Un des travailleurs est Marocain, d'où l'emploi de Nord-Africains au lieu d'« Algériens » dans le graphique n° 3. Il constitue cependant une exception, ce qui nous amène à parler surtout des « Algériens ». 204 migrants est décrite comme arrivant surtout à partir des années 1960 1, ce qui explique la faiblesse des effectifs recrutés avant. Elle est en effet contrôlée par les autorités portugaises et bon nombre de ces migrants sont des clandestins2. Quand on a des informations plus précises sur eux, on note qu'ils sont même venus en France dans l'entre-deux-guerres, alors que leur embauche aux HFC est plus récente. Par exemple, c'est le cas de François Fernandès 3, entré en France en 1934 dans sa septième année, il est embauché aux HFC en 1945. Les vagues de recrutement des travailleurs espagnols, italiens et algériens suivent les rythmes de production de l'usine : 1947-1949, 19511952 et 1956 pour les phases de croissance. Toutefois, les travailleurs algériens voient leurs effectifs diminuer en 1949 et 1952, car leurs contrats se terminent en raison de l'arrêt futur d'un haut-fourneau, puis de la mise en route de la machine à couler : cela constitue un cas particulier. Une seconde différence à noter concerne la taille des effectifs de recrutement : les Portugais sont numériquement les moins nombreux, puis il y a les Espagnols, les Italiens et enfin les Algériens. Pour ces derniers, cela provient de la politique de l'entreprise qui a des facilités pour recruter autour de sa mine de Bou Amrane. Une troisième différence concerne la présence des femmes dans les recrutements des HFC. Ces dernières sont désormais peu nombreuses, en valeur absolue comme en proportion. Leur nombre diminue même globalement de cinq unités sur ces dix années, effaçant complètement la progression précédente observée de 1945 à la moitié de 1947. Le départ de trois Arméniennes en 1947 est compensé par l'arrivée d'Espagnoles aux mêmes ateliers – l'agglomération et la fonderie –, révélant le maintien d'une segmentation des postes de travail dans l'usine. Puis à partir de 1950, les départs de travailleuses étrangères se succèdent, sans qu'il n'y ait plus de recrutement, même en 1956 alors que l'usine embauche à nouveau : les femmes étrangères n'ont pas été concernées directement par la modernisation de l'usine étant occupées à d'autres ateliers, mais elles sont tout de même touchées par la baisse générale des effectifs. Leur nombre étant relativement faible, cela empêche de dégager une logique dans ces départs. Pour autant, on constate malgré cela une différence entre les Espagnols, les Italiens et les Algériens. Seuls les premiers sont présents avec leurs 1 SCHWEITZER Sylvie (dir.), Rhône-Alpes : étude d'une région , op. cit ., tome 1, p. 42 ; POINARD Michel, « Les Portugais dans le département du Rhône entre 1960 et 1970 », Revue de géographie de Lyon, vol.47, n° 1, 1972, p. 35-58, p. 35. 2 POINARD Michel, « Les Portugais », op. cit., p. 38. 3 ADI, 2973W653. 205 femmes qui travaillent à Chasse. Ils sont souvent logés au quartier du cantonnement par l'entreprise1. Dans les autres cas, les femmes sont restées « au pays » ou, quand elles sont à Chasse, ne travaillent pas aux HFC. Cela constitue une quatrième différence concernant la présence des familles des migrants. Les Italiens effectuent pourtant une migration familiale comme les Espagnols : ainsi Carmelo Balsamo2, né le 30 novembre 1900 arrive en France au plus tard en octobre 1946 puisqu'il est embauché aux HFC le 28 de ce mois3. Sa femme ne le rejoint qu'en 1947 avec leurs cinq enfants nés en Italie. D'autres trouvent leur conjoint peu de temps après leur arrivée en France. Par exemple, Gaetano Costanza 4, né en 1928, entre en France le 1er octobre 1947. Il a un contrat de travail avec les HFC depuis le 20 octobre de cette même année. Sa femme, Joséphine Balsamo, née en 1931, entre en France en mars 1947 sans avoir résidé auparavant dans ce pays. C'est donc à Chasse qu'ils se sont rencontrés et mariés le 30 juillet 1949. La première de leurs enfants, Antoinette, va même naître dans cette commune en 19515. Les Portugais et les travailleurs venant d'Algérie sont donc les seuls à ne pas effectuer de migration avec leurs femmes6. Pourtant ces derniers sont souvent mariés : par exemple, en 1956, c'est au moins le cas de vingt-et-un des trente-cinq travailleurs algériens de l'usine, (car la situation maritale n'est pas indiquée sur quatre fiches) 7. Certains ont même déjà des enfants. Cela invalide donc l'image du travailleur immigré masculin et non-marié8 et leur logement à Chasse dans le « bâtiment des célibataires » au cantonnement correspond davantage à leur situation provisoire en France qu'à leur statut familial réel. On peut alors se demander ce qui explique l'embauche des femmes espagnoles ainsi que la raison de la non-embauche ou la non-installation de femmes d'autres nationalités. Dans le premier cas, la réponse se trouve dans l'ancienneté de la présence des femmes espagnoles en France et en particulier à Chasse. Par exemple Antoinette Cano, embauchée en 1947, est la fille d'un travailleur espagnol, José Cano, employé 1 AMC, cahiers du personnel étranger n° 13, 14, 15. ADI, 2973W32. 3 AMC, fichier du personnel. 4 ADI, 2973W1258. 5 AMC, fichier du personnel. 6 Cela est également exceptionnel à l'échelle régionale à cette époque : SCHWEITZER Sylvie (dir.), Rhône-Alpes : étude d'une région , op. cit., tome 1, p. 46-17. 7 AMC, fichier du personnel et cahier du personnel étranger n° 15. 8 SCHWEITZER Sylvie, « La mère de Cavanna. Des femmes étrangères au travail au XX e siècle », Travail, Genre et Société, n° 20, 2008/2, p. 29-45, p. 29-30. 2 206 aux HFC depuis le 4 avril 19261. Salvadora Hernandez est à la fois femme et mère de travailleurs des HFC 2. Son fils Jean est entré dans l'usine le 19 août 1942. On peut donc dire que les Espagnols peuvent bénéficier des politiques familialistes des HFC. Or on se rappelle qu'à la différence des Espagnols, de nombreux travailleurs italiens de Chasse sont partis pendant la Seconde Guerre mondiale. Par conséquent, ils sont en moyenne moins anciennement employés dans l'usine ce qui fait que leurs femmes ont moins de chance d'être embauchées. Le poids des mentalités peut expliquer pour certains l'absence en France des femmes de travailleurs originaires d'Algérie, l'immigration de cette dernière pouvant être vécue comme une trahison3. Mais cela ne peut être la seule cause. On a aussi comme caractéristiques communes avec le Portugal la distance : alors que l'Italie ou l'Espagne sont des pays frontaliers, les autres sont davantage éloignés. Mais les chercheurs avancent surtout d'autres arguments. Pour Michel Poinard, il y a au Portugal une politique qui entrave la circulation des travailleurs4. Cela n'est en revanche pas la situation des travailleurs algériens à partir de 19465 : on comprendrait alors que dans le premier cas eux et leurs familles ne puissent pas circuler, mais pas dans le second. Pour la non-installation des femmes algériennes, Marc André indique donc plutôt que tant que celles-ci ont un statut de femmes « indigènes », la migration est « impensable »6. Ce n'est qu'avec la levée progressive de ces restrictions statutaires après la guerre que l'on assiste à une augmentation des entrées en métropole7. Or à Chasse, le maintien du phénomène de norias avec des allées et venues continuelles entre territoire d'origine et métropole révèle bien que perdure l'impossibilité de toute installation durable. On peut l'observer dans une étude comparant la situation des travailleurs algériens et italiens des HFC. 1 AMC, fichier du personnel. Ibidem. 3 SCHWEITZER Sylvie (dir.), Rhône-Alpes : étude d'une région , op. cit., tome 1, p. 46-47. 4 POINARD Michel, « Les Portugais », op. cit, p. 37 sqq. 5 WITHOL DE WENDEN Catherine, « Ouverture et fermeture de la France aux étrangers, op. cit., p. 33. 6 ANDRÉ Marc, « Algériennes, quelle citoyenneté ? (années 1930-années 1960), Clio, Femmes, Genre, Histoire, n° 43, 2016, p. 94-116, p. 94-99. 7 Ibidem, p. 100-101. 2 207 Tableau 11 : turnover annuel de travailleurs algériens et italiens des HFC de 1947 à 19561 année 1947 nationalité Algériens Italiens présence <1an année 1952 56,70% 69,20% 1948 nationalité présence <1an Algériens Italiens 50% 11,1% Algériens Italiens 0% - Algériens Italiens 0% - Algériens Italiens 100% - Algériens Italiens 71,4% 33,3% 1953 Algériens Italiens 66,40% 57,60% 1949 1954 Algériens Italiens 57,9% 51,5% 1950 1955 Algériens Italiens 100% - 1951 1956 Algériens Italiens 61,5% 20% Afin de mesurer la durée moyenne de présence dans l'usine de chaque travailleur, on part d'une année commune d'entrée. Ce qui nous intéresse est d'évaluer le temps moyen passé, notamment parce qu'une situation stable permet de faire venir sa famille. Il s'agit simplement de dégager ici des tendances. La durée fixée à l'année suivante de l'année d'entrée est en partie arbitraire en raison de la date qui est fixe alors que les arrivées se font pendant les douze mois, mais cet inconvénient est réparti de manière égale sur les deux nationalités. En outre la période ne parait ni trop longue, ni trop courte. Enfin, cette durée correspond bien souvent à celle des contrats de travail pour les primo-arrivants. On observe alors qu'après la guerre, le phénomène des norias touche aussi bien les migrants italiens que ceux d'Algérie. Or il apparait nettement que la durée moyenne de présence des travailleurs s'allonge pour les seuls Italiens, quand de nombreux Algériens, souvent en proportion des deux-tiers, ont quitté l'usine avant la fin de l'année qui suit leur arrivée. Il faut dire que la « gestion coloniale »2 de cette main 1 AMC, cahiers du personnel étranger n° 13, 14, 15. L'expression est prise dans un article de Laure Pitti qui décrit ainsi la main d'oeuvre française musulmane d'Algérie dans PITTI Laure, « La main d'oeuvre algérienne dans l'industrie automobile », op.cit ., p. 52. 2 208 d'oeuvre, faite de contrats précaires et d'occupation de postes difficiles n'incite pas non plus à rester. Cela s'ajoute donc aux raisons précédemment évoquées de la non-venue des femmes algériennes en France. Les nombreuses permissions, souvent une fois par an, donnent des carrières hachées1, mais permettent aux travailleurs de supporter la séparation ; ce qui contribue aussi au maintien les femmes en Algérie. Pourtant, certains travailleurs algériens commencent dès cette époque à s'installer avec leur famille. Par exemple, Dilmi Bencheikh2 débute à Chasse en 1948 à l'atelier d'agglomération, comme bon nombre de nouveaux dans l'usine. Dès 1950, il est chargeur au haut-fourneau. Son premier enfant nait en Algérie en 1954, mais les cinq suivants naissent à Saint-Symphorien d'Ozon à partir de 1957. Cela invalide les discours qui font démarrer le regroupement des familles en 1974, celui-ci débutant plus tôt, même si les chercheurs ne l'ont pas toujours vu eux non plus3. On voit aussi que la possibilité d'une installation durable du travailleur migrant en France est la condition qui détermine le plus l'arrivée de sa famille, quelque soit l'origine géographique du migrant, relativisant par conséquent les arguments culturels ou politiques. La migration des travailleurs algériens est donc spécifique à plus d'un titre : leur recrutement sur place par les HFC, la non-venue durable des femmes, le phénomène de norias qui se maintient pendant toute la période. Ajoutons un dernier critère lié à celui des norias : un recrutement de travailleurs venant de mêmes villages et dans l'ensemble d'une même région, celle des Aurès, trahissant les pratiques de recrutement. Nombre d'entre eux viennent alors avec leurs frères, cousins, oncles ou père. Si on prend une période courte, les six dernier mois de 1947 par exemple, sur soixante-sept arrivants, quatorze arrivent d'un même village ou d'une même commune en portant le même nom, soit 20,9 % de l'effectif4. Cette méthode de comptage a évidement ses limites puisqu'avoir le même patronyme ne signifie pas appartenir forcément à la même famille. Elle donne donc une estimation approximative, d'autant plus que certains cas sont statistiquement invisibles : ainsi Dilmi Bencheikh qui arrive à Chasse après 1945 succède à son père qui a été embauché pendant l'entre-deux-guerres5. Elle sous-estime 1 Cinq des hommes embauchés en 1956 ont déjà travaillé aux HFC auparavant, onze étant partis – en congé ou non – reviennent dès 1957 : AMC, fichier du personnel. 2 AMC, fichier mécanographique. 3 GUERRY Linda, « Femmes et genre dans l'histoire de l'immigration. Naissance et cheminement d'un sujet de recherche », Genre & Histoire, n° 5, Automne 2009, 16 p., http://genrehistoire.revues.org/808, [dernière consultation le 23 février 2017], p. 1-2. 4 AMC, cahier du personnel étranger n° 13. 5 Entretien Dilmi Bencheikh 01/05/2017. 209 alors largement l'importance numérique des personnels venant d'Algérie qui ont des liens de parenté puisque l'on ne recense que les individus dont des liens provenant des pères, et cela uniquement pour des personnels migrants ensembles et non en comptabilisant ceux qui sont déjà présents à Chasse. Donc cette estimation – faite a minima – révèle bien la présence importante de liens de parenté de personnels qui – par ailleurs – viennent souvent des mêmes villages. Toujours sur la même période de la fin de l'année 1947, sur soixante-sept migrants venant d'Algérie, neuf individus seulement sont les seuls représentants de leur village ou commune. À l'inverse, Manaa ou M'Sila sont des communes qui ont respectivement onze et douze représentants. Un simple douar comme Chir en a neuf. Enfin, faire l'histoire des femmes étrangères, employées par l'usine ou conjointes, c'est porter un regard nouveau et déceler des pratiques grâce à cela : la segmentation du marché du travail, le familialisme. Pourtant ces femmes ne sont souvent pas prises en compte dans la mémoire collective1. Guère plus visible – ou moins invisible –, le travail des femmes françaises n'a lui aussi pas été reconnu pendant longtemps2. Alors que les effectifs masculins poursuivent leur lente remontée à Chasse – avec une augmentation de dix-neuf individus sur la période –, celui des femmes accuse un solde positif de trois. C'est faible en valeur absolue, mais cela représente tout de même 15,8 % de l'augmentation de l'effectif masculin ce qui participe à hauteur de 13,6 % de l'augmentation de l'effectif total. Ces chiffres révèlent la faiblesse de l'augmentation du nombre de travailleurs français : pour mémoire, la baisse pendant la Seconde Guerre mondiale a été de soixante-cinq individus3 jusqu'en 1944, la reprise a été ensuite de trente-six individus4 jusqu'en 1956, dont cinq femmes. 1 SCHWEITZER Sylvie, « La mère de Cavanna », op. cit., p. 30. SCHWEITZER Sylvie, « Les enjeux du travail des femmes », Vingtième Siècle. Revue d'histoire, 2002/3 n° 75, p. 21-33, p. 21. 3 Sondage à la lettre B des travailleurs des HFC. 4 Soit un solde positif de quatorze travailleurs recrutés de 1945 à la moitié de 1947, puis de vingt-deux jusqu'en 1956. 2 210 c) Les travailleurs français : un recrutement local La faiblesse relative du dynamisme des embauches est à mettre en parallèle avec l'origine des travailleurs français. Les documents de l'entreprise permettent d'observer cela à partir des lieux de naissance. Le graphique suivant est construit à partir de toutes les entrées de travailleurs français du second semestre 1947 à l'année 1956. Le choix des lieux de naissance est fourni par les sources, mais il ne présage pas du parcours ultérieur des travailleurs jusqu'à leur embauche dans l'entreprise : on a donc une estimation de leurs origines plus que des trajectoires complètes. Graphique 5 : Lieux de naissance des travailleurs français 1 selon leur année d'entrée dans l'usine de 1947 à 19562. 18 16 14 12 10 8 6 4 2 0 1947 1948 1949 1950 1951 1952 1953 1954 1955 Nés à Chasse et dans les communes proches Nés dans les départements limitrophes Nés dans un département métropolitain Nés à l'ét a ge 1956 On se doute néanmoins que des travailleurs nés à Chasse ou à proximité et travaillant aux HFC sont restés pour la plupart à proximité de leur lieu de naissance avant leur embauche. Or plus de la moitié des travailleurs embauchés de 1947 à 1956 1 2 Sondage à la lettre B des travailleurs des HFC. AMC, cahiers du personnel français n° 8, 9, 10. 211 sont nés à Chasse ou dans une commune proche : soit qu'elle jouxte Chasse (Givors, Communay, Loire-sur-Rhône, etc.) ou qu'elle soit un chef lieu proche (comme Vienne, Rive de Gier). Le recrutement s'effectue donc dans un périmètre retreint, à l'intérieur d'un espace industriel où la sidérurgie est importante (vallée du Gier), mais qui rassemble aussi d'autres industries comme la verrerie à Givors ou le textile à Vienne1. Cet espace industriel est composé de plusieurs bassins d'emplois de nature différente se recoupant. Il permet de satisfaire 55 % des besoins en main d'oeuvre pendant ces dix années, de manière assez constante. Ensuite, on peut observer qu'une très large majorité des travailleurs non née à Chasse ou dans les communes limitrophes vient néanmoins de départements proches. Les travailleurs continuent à venir de départements majoritairement ruraux comme l'Ardèche ou la Drôme qui ont toujours envoyés des migrants vers Chasse 2. L'exode rural n'est en effet pas terminé au début de ces Trente Glorieuses 3. Or les mouvements hors des communes rurales sont largement « intra régionaux » : deux migrants sur trois restent dans la même région4. Les migrants venant des autres régions françaises ou de l'étranger représentent tout juste 10 % des effectifs de ce sondage. Les départements représentés sont divers : on a le Lot comme Paris. Le premier travailleur embauché est un maçon, le second un laborantin : des métiers qu'il n'est guère surprenant de trouver puisque premier vient d'un département rural quand le second a pu être formé dans une grande ville. On relèvera également la présence d'un travailleur né en Italie et qui a pris la nationalité française Alessio Barbieri. On ne connait pas sa date d'arrivée en France, mais il est mobilisé pendant la guerre de 1941 à 1943 dans sa patrie d'origine. Il se marie néanmoins en 1949 avec une native de Givors, Joséphine Monose. Même si à cette époque l'administration a du mal à venir à bout des demandes de naturalisation en raison de ses propres exigences ainsi que du nombre des demandes5, on constate tout de même la présence de plusieurs travailleurs naturalisés dans le personnel des Hauts- 1 AVOCAT Christian, « Les industries rhodaniennes », Revue de géographie de Lyon, Vol. 40, n° 4, 1965, p. 277-344. 2 AMC, cahier du personnel français n° 1 et suivants. 3 COURGEAU Daniel, « Mobilité et migrations », dans DUPÂQUIER Jacques (dir.), Histoire de la population française, tome 4, PUF, Paris, 1988, 590 p., p. 432-433. 4 Ibidem, p. 433. 5 LOSEGO Sarah Vanessa, LUTZ Raphael, « Pratiques de naturalisation. Le cas du bassin industriel de Longwy (1946-1990) », Annales. Histoire, Sciences Sociales, 2006/1, p. 135-162, p. 140. 212 Fourneaux de Chasse. La « mobilité » qui caractérise les dix années de 1947 à 1956 concerne donc aussi bien les travailleurs de nationalité étrangère que les Français 1. L'étude du recrutement du personnel des HFC nous permet-il de conclure alors à l'enracinement des ouvriers comme Gérard Noiriel a pu l'observer dans le bassin de Longwy2 ? On peut répondre de manière affirmative si l'on observe le recrutement des personnels de nationalité française. Une minorité de ceux-ci est originaire des autres régions françaises, voire de l'étranger. La plus grande partie vient du bassin monoindustriel chassère et des autres bassins qui sont à proximité, même si l'étude par les lieux de naissance ne présage pas des trajectoires professionnelles complètes des individus étudiés. Si on ajoute les départements proches, cette majorité devient écrasante, traduisant l'attraction des usines de la vallée du Gier sur les campagnes avoisinantes de la Loire, de la Haute-Loire et de l'Ardèche principalement. En ce qui concerne le département du Rhône, la partie sud est la seule concernée : autour de l'agglomération lyonnaise, jusque dans les campagnes des Monts du lyonnais. Cependant, la plus grande partie du recrutement de personnel de l'usine est composée de travailleurs étrangers ; les personnels de nationalité française n'ayant toujours pas retrouvé les effectifs d'avant-guerre. Par conséquent, l'arrivée de ces travailleurs et de leurs familles constitue un évènement majeur qui, à l'inverse du constat précédent traduit, comme Xavier Vigna le pense, une forte instabilité de la main d'oeuvre. Cette instabilité est par ailleurs remarquable pour certaines nationalités et à certaines périodes : anciens prisonniers allemands et ouvriers Italiens après la guerre, travailleurs d'Algérie jusqu'en 1956. Bien qu'instable, cette main d'oeuvre a cependant joué un rôle déterminant dans la modernisation de l'usine des HFC3. d) 1954 : un personnel inégalement stabilisé Après avoir étudié les caractéristiques du recrutement des HFC, on peut en étudier les effets sur la structure d'ensemble de leur personnel. Il est possible d'adopter trois angles d'approche à partir des groupes professionnels, de la nationalité, du sexe. Il 1 La notion de mobilité prend le pas sur celle de migration : MAITTE Corine et RYGIEL Philippe, « Mobilités et travail », Historiens et géographes, n° 438, mai-juin 2017, p. 71-79, p. 71. 2 NOIRIEL Gérard, Longwy, immigrés et prolétaires 1880-1980, Paris, P.U.F., 1984, 396 p., p. 213 sqq. 3 Constat que fait également Laure Pitti pour les travailleurs algériens chez Renault, dans PITTI Laure, « La main d'oeuvre algérienne dans l'industrie automobile », op.cit ., p. 54. 213 s'agit de déterminer dans quelle mesure la position professionnelle peut être caractérisée par une plus ou moins grande stabilité dans l'usine. Ensuite, en s'intéressant aux nationalités, on peut déterminer dans quelle mesure il y a rupture ou continuité dans les recrutements d'avant et après la Seconde Guerre mondiale. Enfin, l'étude du parcours professionnel des travailleuses doit permettre de déterminer leur place dans l'usine alors qu'on les a longtemps perçues comme une force d'appoint1. Une première approche peut être effectuée à partir des principaux groupes professionnels : on peut alors utiliser les collèges électoraux pour l'élection prud'homale de 19542. On distingue les électeurs patrons, des employés ou ouvriers. Les premiers rassemblent bien des salariés, mais ils sont directeur, ingénieurs ou chefs de service. Ils sont les personnels cadres de l'usine. Les personnels d'encadrement du personnel (contremaîtres, chefs d'équipe ou de poste) – les « petits chefs » comme les appelle Sylvie Schweitzer3 – sont en revanche avec les ouvriers, les uns et les autres étant affectés à des activités productives. On a enfin les employés qui rendent des services : secrétaire, dactylo, comptable, infirmier, etc. La logique de ce classement a cependant ses limites, puisque les pointeaux sont classés parmi les employés alors qu'ils travaillent dans les ateliers, ou que les gardes de l'usine sont avec les ouvriers. Mais si on peut toujours trouver des limites à ce découpage, il a l'avantage de permettre une présentation synthétique, alors qu'une étude cherchant à suivre les multiples strates hiérarchiques nous auraient conduit à nous perdre dans les détails tant les postes et les statuts sont divers. On peut enfin remarquer que les travailleurs étrangers font uniquement partie du personnel ouvrier : les employés et cadres sont tous de nationalité française, même si certains sont nés hors de la France métropolitaine, qu'ils aient été naturalisés ou non. 1 OMNÈS Catherine, « Les trois temps de l'emploi féminin : réalités et représentations», L'Année sociologique, n° 2, vol. 53, 2003, p. 373-398, p. 375. 2 AMC, liste des élections des prud'hommes 1954 et fichier mécanographique du personnel. 3 SCHWEITZER Sylvie, « Industrialisation, hiérarchies au travail et hiérarchies sociales au vingtième siècle », Vingtième siècle. Revue d'histoire, n° 54, avril-juin 1997, p. 103-115, p. 109. 214 Tableau 12 : Date d'entrée du personnel des HFC en 1954 suivant leur classification 1 Dates d'arrivée Entrés avant 1939 Entrés pendant la guerre Entrés au moment de la reconstruction Entrés après le second semestre 1947 Total Personnel Personnel cadre de employé l'usine Personnel ouvrier français Personnel ouvrier étranger Total 8 19 189 38 254 2 10 54 9 75 0 13 55 38 106 3 22 93 161 279 13 64 391 246 714 Tout d'abord, on peut voir que les personnels cadres ont majoritairement été embauchés avant la Seconde Guerre mondiale : huit personnels sur treize, soit 61,5 %. Comme ces personnels ont des responsabilités, il est nécessaire de les fixer durablement. Le recrutement de personnel employé est en revanche mieux réparti dans le temps : 29,7 % avant la Seconde Guerre mondiale et 34,4 % après le second semestre 1947. On remarque la baisse des recrutements pendant la guerre (15,6 % de l'effectif) et la reprise rapide lors de la reconstruction (20,3 % de l'effectif en à peine deux ans). Plus de la moitié des employés a été recrutée néanmoins après 1945, ce qui révèle un renouvellement important de cette catégorie de personnels. 35,6 % des ouvriers ont été embauchés avant la guerre, 9,9 % pendant la guerre, 14,6 % pour la reconstruction et la relance, 39,9 % pendant la phase de modernisation. Là encore, le renouvellement du personnel après guerre a été important puisque comme pour les employés, cela concerne plus de la moitié des personnels présents en 1954 dans l'usine. Si on comparait les groupes d'ouvriers recrutés en fonction de leur ancienneté dans l'entreprise aux blocs d'une pyramide, on pourrait dire que ses deux extrémités rassemblent les effectifs les plus importants. Mais si la tête grisonnante est largement française, la base rajeunie est davantage étrangère. En effet, on doit distinguer les ouvriers étrangers et les ouvriers français car leurs périodes de recrutement ne sont pas identiques. Tout d'abord 189 ouvriers français 1 AMC, liste des élections des prud'hommes 1954, complété pour le personnel non Français par le cahier du personnel étranger n° 15. 215 sont recrutés avant la Seconde Guerre mondiale : c'est environ 48,5 % de l'effectif de cette catégorie de personnel. En comparaison, le recrutement de trente-huit ouvriers étrangers représente 15,4 % de leur groupe. On perçoit bien ici que la catégorie ancien travailleur correspond surtout à celle des ouvriers français. Leur ancienneté leur a permis souvent d'accomplir une mobilité professionnelle ascendante. En revanche, 161 ouvriers étrangers ont été embauchés depuis le second trimestre 1947 (65,4 % de leur effectif) alors que ce n'est le cas que de quatre-vingt-treize ouvriers français (23,8 % de l'effectif). L'importance de ces recrutements d'ouvriers étrangers est bien révélatrice de leur participation à la modernisation de l'usine. On peut ensuite par une seconde approche faire l'étude de la région d'origine des travailleurs étrangers1, ceci afin de voir dans quelle mesure des réseaux migratoires ont pu être constitués et plus ou moins perdurer dans le temps. Mais cela ne peut être fait pour toutes les nationalités. En effet, certaines sont trop peu nombreuses, ce qui enlève tout intérêt statistique à l'étude : c'est le cas des Polonais, des Allemands, des Russes, etc. ; c'est-à-dire de la plupart des Européens de l'Est. Parmi les autres, il est en revanche possible de distinguer deux groupes : celui des nationalités dont les origines géographiques sont différentes, celui dont des nationalités dont les travailleurs proviennent de régions voire de villages communs. Dans le premier cas, on trouve les travailleurs portugais, dans le second les Italiens, les Algériens, mais aussi les Arméniens, les Grecs et dans une certaine mesure les Espagnols. Sur les six travailleurs portugais présents aux HFC en 1954, trois sont nés au Portugal dans des communes différentes et trois sont nés à Chasse. Ces derniers sont donc les enfants de travailleurs des HFC, deux d'entre eux étant même frères. Mais dans le cas des natifs du Portugal, un de ces travailleurs est arrivé pendant l'entre-deuxguerres aux HFC et les deux autres après 1945. Pour ces deux derniers, vu leur âge – ils sont nés en 1895 pour le plus âgé et 1904 pour le plus jeune – il est possible que leurs recrutements à Chasse aient été faits bien après leur immigration en France. Quant à Rolo José De Barros, il est le dernier représentant des vagues migratoires portugaises des années 1920-1930 alors que ces migrants venaient souvent en ce temps de villes ou villages communs2. Le parcours migratoires de ces travailleurs est donc des plus divers si on s'en tient à leurs dates d'arrivée en France ou dans l'usine. Avec leur faible nombre, cela caractérise des flux migratoires qui sont en train de se tarir. 1 2 AMC, cahier du personnel étranger n° 15. KINOSSIAN Laurence, Le personnel des Hauts-Fourneaux de Chasse , op. cit., vol. 1, p. 68 et p. 86. 216 Ce n'est pas le cas des travailleurs italiens, algériens ou espagnols. Tout d'abord pour les premiers, on peut remarquer que pour soixante-quatorze travailleurs italiens présents en 1954, il y a au total cinquante-et-une communes de naissance différentes ; soit une apparente diversité. Pourtant si on enlève les neuf travailleurs arrivés avant 1945 – tous nés dans des communes différentes –, on remarque à partir de cette date dans les recrutements la présence de sept communes dont sont originaires vingt-neuf travailleurs : c'est-à-dire Campobello (deux individus), Fontanelle (trois), Ravanusa (cinq), Roccadarce (trois), San Cataldo (cinq), Santopadre (cinq), Serra di Falco (six). Si on ajoute en France la ville de Givors où sont nés deux ouvriers ; ce sont huit communes qui sont représentées par plusieurs travailleurs et trente-et-un travailleurs (environ 41,9 % de l'effectif) qui ont au moins un autre représentant de leur commune de naissance dans l'usine. Toutefois, dans le cas de Givors, cela n'indique pas de départ groupé de migrants, mais cela s'explique dans les deux cas par la présence du père parmi le personnel des HFC. De plus, en passant à l'échelle régionale, on peut observer plus nettement les départs groupés. En Vénétie où se trouve Fontanelle, on a au total dix travailleurs. Toutefois, les communes de départ sont dispersées. Ce n'est pas le cas du Latium d'où viennent quatorze travailleurs, la plupart de communes proches de Santopadre et Roccadarce. En Sicile, la proximité géographique est encore plus nette car des communes de Serra di Falco, San Cataldo, Campobello, Ravanusa et Canicatti sont venus dix-neuf travailleurs. Pour les travailleurs venant d'Afrique du Nord, les départs groupés sont encore plus nombreux. Pour soixante-dix-neuf individus, il y a seulement vingt-neuf localités différentes de naissance. On a deux exceptions – un Tunisien et un Marocain –, mais tous les autres travailleurs sont nés en Algérie. Embauchés principalement après 1945 aux HFC, ils viennent souvent d'un simple douar. Mais si on passe à l'échelle d'une Wilaya, on constate que celles qui se trouvent dans la région des Aurès dominent : la Wilaya de Batna compte trente-cinq natifs, Biskra quatre. Or avec la Wilaya de M'Sila, ces circonscriptions sont proches de celle de Bougie où se trouvent les mines de Bou Amrane appartenant aux HFC. La wilaya de M'Sila a dix natifs travaillant aux HFC et celle Bougie six : on arrive à un total de cinquante-cinq individus sur soixante-dix-sept Algériens, soit 71,4 % de l'effectif. En revanche, les départs groupés de travailleurs espagnols sont beaucoup moins nets : après le second semestre 1947, seul trois communes comptent plusieurs salariés travaillant aux HFC. Il s'agit de Cuevas, Escurial de la Sierra et de Ternay. La présence 217 de cette commune française révèle – comme pour les Portugais et les Italiens – un enracinement d'anciens travailleurs des HFC dont les enfants nés en France ont conservé leur nationalité d'origine. Cuevas est en revanche une petite ville d'Andalousie d'où sont partis les premiers migrants espagnols embauchés par les HFC 1. Escurial de la Sierra se trouve dans la région de Salamanque : six travailleurs des HFC embauchés avant la Seconde Guerre mondiale sont nés dans cette commune. C'est le cas de trois autres travailleurs après la guerre. Escurial est un foyer d'émigration vers la France et les HFC plus récent que Cuevas : pour le second les départs sont conséquents dès l'après Première Guerre mondiale, il faut attendre la période 1927-1931 pour le premier2. On peut donc dire que les départs groupés du début des Trente Glorieuses sont totalement les héritiers de ceux de l'entre-deux-guerres pour les travailleurs Espagnols des HFC. Cela s'explique par leur présence régionale accrue dès l'entre-deux-guerres3 qui est accompagnée de ces départs groupés, ce qui les a inscrit dans le temps du fait de leur importance ; puis par leur histoire régionale marquée par les phases d'accueil et de départ de ces populations pendant la guerre d'Espagne puis la période de Vichy4, contribuant ainsi à leur brassage et à l'affaiblissement des foyers d'émigration. Le foyer algérien de l'Aurès, présent et dominant dès la fin des années 19205, s'inscrit lui aussi totalement dans l'héritage des recrutements de l'entreprise. La sûreté de cette source d'approvisionnement en main d'oeuvre est avérée et a permis le redémarrage de l'entreprise dès 1945, alors que les industries locales se plaignent de pénuries. L'héritage migratoire italien existe lui aussi dans le domaine des départs groupés vers les HFC. Toutefois, il correspond davantage à la période des années 1930 qu'à celle qui a précédé : en effet, l'immigration vient d'abord d'Italie du Nord, mais c'est à partir de la fin des années 1920 que le Latium 6 (Santopadre, Cassino) envoie des travailleurs à Chasse. Cet héritage est repris après 1945, avec cependant une nouveauté : celle de l'arrivée groupée de travailleurs siciliens. Enfin, le caractère des départs groupés se retrouve dans l'immigration arménienne et grecque, mais cela est limité à la famille, plutôt qu'au village ou à la région. La première est arrivée aux HFC au milieu des années 1920 quand pour la 1 Ibidem, p. 51. Ibidem, p. 51-52 et p. 82-83. 3 SCHWEITZER Sylvie (dir.), Rhône-Alpes : étude d'une région , op. cit., tome 1, p. 22-23. 4 LUIRARD Monique, La région stéphanoise , op. cit., p. 857. 5 KINOSSIAN Laurence, Le personnel des Hauts-Fourneaux de Chasse , op. cit., vol. 1, p. 81-82. 6 Ibidem, p. 84-85. 2 218 seconde c'était au début1. Les Arméniens de Chasse viennent d'abord principalement de Cilicie après que les troupes kémalistes en aient fait la conquête en 19212. Karpouth a elle seule représente le lieu de naissance de 63,6% des embauches arméniennes sur la période 1922-19313. En 1954, deux travailleurs arméniens des HFC sont originaires de cette ville et trois autres d'Hadjin. Mais on peut suivre le parcours des familles depuis la Cilicie, à travers la Syrie puis le Liban 4, puisque certains travailleurs y sont nés. L'émigration arménienne est en effet familiale bien souvent, un premier membre arrivé en France cherchant à faire venir ensuite les survivants du génocide et de la guerre 5. C'est d'ailleurs pour cela que trois membres de la famille Tchoulfyan sont encore embauchés aux HFC en 1954 ; ils représentent plus du quart des travailleurs arméniens. Mais la plupart des autres travailleurs ont eu des membres de leur famille qui ont travaillé aux HFC. Comme les Arméniens, les travailleurs grecs sont les représentants d'anciens flux migratoires qui se sont taris. Eux aussi ont des descendants – peu nombreux – qui sont nés en France ou qui y sont arrivés enfants, mais qui n'ont pas tous pris la nationalité française. Ces derniers sont embauchés après la Seconde Guerre mondiale, mais ils ne participent pas à des flux migratoires qui se poursuivent : l'immigration grecque est bien achevée elle aussi. Les Grecs sont également partis après la victoire des forces kémalistes6. Toutefois, leur migration s'explique aussi en partie pour des raisons économiques, tous n'ayant pas quitté de territoires conquis par les Turcs7. De plus, une fois arrivés en France, les travailleurs essaient de faire venir leur famille : c'est le cas de Manuel Arcondara embauché aux HFC en 1920. Son frère Georges le rejoint en 1923. Leur beau-frère Stamatias Sarantou est aussi embauché par les HFC depuis 1921 Les frères et beaux-frères sont accompagnés de leurs femmes et tous leurs enfants sont nés en France8. La fille de Manuel Arcondara travaille également aux HFC. Elle fait partie des quarante-sept femmes embauchées dans l'usine en 1954, dont quarante-quatre 1 Ibidem, p. 52-53, p. 74-75. COMTE Marie-Hélène et GONOD Nathalie, L'éternel arménien, op. cit., p. 5. BOZARSLAN Hamit, DUCLERT Vincent, KÉVORKIAN Raymond, Comprendre le génocide des Arméniens, op. cit., p. 328 sqq. 3 KINOSSIAN Laurence, Le personnel des Hauts-Fourneaux de Chasse , op. cit., vol. 1, p. 74. 4 COMTE Marie-Hélène et GONOD Nathalie, L'éternel arménien, op. cit., carte p. 4 et p . 6-7. 5 Ibidem, p. 11-12. 6 RONCAYOLO Marcel, « Le monde contemporain 1914-1938 », dans Le monde et son histoire, Vol. 3, collection bouquins, Éditions Robert Laffont, Paris, première édition 1985, 1996, 1005 p., p. 552. 7 Témoignage de Simone Arcondara le 11/3/2013. 8 AMC, fichier mécanographique. 2 219 françaises (ces dernières représentent donc environ 93,6 % des femmes travaillant aux HFC). Les travailleuses forment moins de 6,6 % de l'effectif total de l'usine : les Françaises près de 6,2 % et les étrangères à peine 0,4 %. Onze d'entre elles, toutes Françaises, ont plus de quinze ans d'ancienneté. On peut donc dire que les femmes ont une ancienneté plus faible que celle des hommes puisque seulement 23,4 % de leur effectif est présent dans l'usine avant-guerre quand la moyenne des travailleurs quelque soit leur origine est de 35,4 % et celle de tous les travailleurs français – femmes comprises –, de 46,3 %. Il faut rechercher dans leurs parcours professionnels les raisons de cette moindre ancienneté. Mais cette remarque ne signifie pas pour autant que les femmes ne travaillent pas, qu'elles ont des carrières à trou ; mais simplement qu'elles changent plus fréquemment d'activité ou d'employeur que les hommes 1, d'où leur moindre ancienneté. Par exemple, Janine Bouillet est embauchée pour trois ans et neuf mois seulement dans l'entreprise comme secrétaire de Georges de Benoist qui va alors en devenir le directeur. Puis elle aide pendant près de dix ans ses parents à tenir leur commerce avant d'ouvrir le sien en 19682. Il n'y a donc pas d'interruption dans sa carrière. D'autres femmes sont embauchées depuis de longues années aux HFC comme Clémence Chirouze ou Marcelle Boyer qui ont toutes les deux plus de vingt ans de service en 1954 comme employée, l'une à la fonderie et la seconde aux bureaux paie. Il y a donc la possibilité de s'installer durablement dans l'usine pour les femmes comme pour les hommes. On peut cependant constater que l'ancienneté est encore moindre que celle des Française pour les travailleuses étrangères. Les embauches aux HFC les plus anciennes ne datent que de la guerre pour trois d'entre elles, alors que six autres sont effectuées après 1945. Pour les travailleuses étrangères, la possibilité de faire carrière dans l'usine existe aussi, mais différents facteurs on conduit au départ des plus anciennes : émigration des travailleuses arméniennes, démissions des autres. Or cela s'accompagne dans le même temps d'une diminution du nombre d'ateliers et de postes de travail dans lesquels on aurait pu les recruter. On pourrait avoir là encore l'impression que ces femmes sont moins actives que les hommes, que des périodes de travail alternent avec des temps de retrait du marché du travail. Pourtant, lorsque l'on a accès à leur carrière on complète, on s'aperçoit qu'elle a été souvent bien remplie. Marie Bracco – une 1 2 SCHWEITZER Sylvie, Les femmes ont toujours travaillé , op. cit., p. 87. Janine Bouillet entretien du 24/2/2012. 220 pontonnière à la fonderie – a par exemple travaillé sans discontinuer de février 1923 à mars 1965 ; et encore on ne tient compte de sa carrière que depuis qu'elle a 23 ans, or elle a très bien pu commencer à travailler avant. Cela représente a minima plus de quarante-deux ans de travail dont vingt-neuf ans et sept mois aux HFC. On a encore l'autre exemple d'Anna Giva qui est elle aussi d'origine italienne. Elle a travaillé aux HFC du 28 juillet 1924 au 5 juillet 1926. Elle est embauchée ensuite à la Société Anonyme de la soie à Feyzin puis aux Établissements Demogé à Sérezin qui fabriquent des articles de confection. Elle retourne ensuite travailler aux HFC du 1 er juin 1943 au 31 décembre 1965. Elle finit sa carrière à plus de soixante-six ans. Entre ces différentes périodes de travail, elle n'a eu qu'un seul enfant quand Marie en a eu trois. Comme l'étude sur les recrutements, celle sur la structure du personnel des HFC permet de dire que le personnel ouvrier français est dans l'ensemble stable, donnant raison à Gérard Noiriel qui constate l'enracinement de ces derniers ; le patronat ayant réussi à les fixer. Cela donne encore raison à Michel Margairaz qui voit une stabilisation simultanée des effectifs, de l'enracinement, de la structure des ouvriers. Confirmant cela, les effectifs d'ouvriers français de Chasse augmentent lentement après la Seconde Guerre mondiale et les travailleurs poursuivent leurs parcours professionnels dans l'usine. En revanche, si on regarde les travailleurs étrangers, on observe d'abord leur mobilité comme l'avait remarqué Xavier Vigna. De plus, les ouvriers étrangers sont ceux qui ont participé à la reconstruction et à la relance de la production. Par la flexibilité de leur embauche, ils ont aussi favorisé la modernisation et l'expansion : leur rôle a donc été essentiel. La réalité est cependant encore plus complexe que ne l'indiquent ces premières observations. D'une part, tous les étrangers ne sont pas si mobiles : les plus anciens ont un comportement comparable à celui des ouvriers français. Ils demandent même à être naturalisé et deviennent par exemple des « chefs », grâce à leur longévité et leur persévérance. Il est après tout indispensable à l'entreprise d'avoir des personnels d'encadrement parlant la même langue que celle des ouvriers étrangers dont la circulation est rapide. L'enracinement est aussi plus important en ce qui concerne certains employés et les cadres. Une distinction est cependant à faire à l'intérieur du personnel entre les hommes et les femmes. Ces dernières ont en moyenne une ancienneté plus faible. C'est le cas aussi des femmes ouvrières, françaises comme 221 étrangères. Les carrières féminines ne sont cependant pas discontinues1, mais diverses, ce qui ne veut pas dire qu'elles s'arrêtent de travailler, mais qu'elles changent plus souvent d'activité. L'étude de l'origine des travailleurs des Hauts-Fourneaux de Chasse met enfin en valeur le rôle des dirigeants de l'entreprise dans les recrutements. Cela se retrouve dans les recrutements des femmes, de membres d'une même famille ou dans les foyers d'émigration. Toutefois, la constitution de réseaux migratoires répond à différentes modalités. Il peut s'agir d'un recrutement sur place en Algérie puisque l'entreprise possède des mines. En revanche, pour l'Italie, il semble plutôt que cela vienne d'« éclaireurs » qui de retour au pays – les premières migrations fonctionnant sur le mode des norias –, feront ensuite venir d'autres membres de leur famille, de leur village et de proche en proche de toute une région 2. Il semble que ces premiers recrutements aient pu se faire à la frontière, ou encore par voie d'affichage sur les points de passage des migrants3. Les modalités de recrutement de travailleurs français sont différentes. Le recrutement est en partie local, dans le bassin industriel de l'usine. Il est là encore souvent familial. D'autres travailleurs viennent des campagnes de l'Isère ou des départements voisins à une époque où l'exode rural n'est pas achevé participant ainsi à la recomposition du monde ouvrier4. Les rencontres sportives sont également un bon moyen de détecter des profils physiques et psychologiques intéressants : c'est comme cela que Jean Montoya5 a été repéré et embauché en 1948, ainsi que deux autres ouvriers avec lui. Il est cependant hors de question de recruter de la même façon des ingénieurs, comptables ou des chefs de service. Dans le premier cas, l'école des mines de Saint-Étienne a été un bon pourvoyeur. Mais d'une manière générale, il s'agit d'élargir l'origine des recrutements, car ces personnels plus qualifiés ne peuvent dépendre du seul bassin d'emploi local. Le rôle que jouent les dirigeants de l'entreprise dans les recrutements n'est toutefois que l'un des aspects de ce que l'on appelle des pratiques d'entreprises. 1 SCHWEITZER Sylvie, « Gestions de salariés : métiers et flexibilités (Lyon, XIXe-XXe siècles) », Histoire, économie et société, 2001, 20e année, n° 4, p. 455-470, p. 458. 2 Témoignage de Madame Lucidi, le 20/05/2016. 3 Le témoignage de Simone Arcondara le 11/3/2013 est bien net à ce sujet. Les autres témoignages évoquent des ouï-dire. 4 VIGNA Xavier, Histoire des ouvriers en France , op. cit., p. 181. 5 Témoignage du 20/05/2016. 222 III Dirigeants et salariés face aux pratiques d'entreprise Comme Hervé Joly l'a décrit à l'échelle nationale, on a à Chasse un « grand patronat français peu renouvelé à la Libération »1, même si les Cholat ne sont pas à proprement parler de si grands patrons que cela2. Les choses pourraient changer dans la décennie qui suit, notamment parce que le plan Schuman a pu contribuer à l'arrivée de nouveaux dirigeants dans la sidérurgie3. Il s'agira donc de voir si cela peut être vérifié à Chasse. Enfin, si l'entreprise va voir s'installer de nouveaux administrateurs, on peut se demander dans quelle mesure cela va-t-il avoir un impact sur le pouvoir personnel de Pierre Cholat, de sa famille, ou des dirigeants de l'usine. Ensuite, Pierre Cholat a la réputation de diriger ses entreprises de manière « paternaliste », et même d'un paternalisme que Philippe Mioche et Jacques Roux qualifient de « désuet »4. Pourtant, plutôt que de reprendre ce terme qui désigne un stade de gestion de la main d'oeuvre situé entre le patronage et le management selon Gérard Noiriel5, on préfèrera utiliser l'expression de pratiques sociales ou de pratiques d'entreprise pour désigner des actions variées qui ont comme objectif « d'assoir l'harmonie sociale au travail »6, de créer « consensus et stabilité générateurs de productivité »7. En effet, Pierre Cholat est un patron catholique et son engagement 1 JOLY Hervé, « Un grand patronat français peu renouvelé à la Libération », op. cit. Pierre Cholat est le président directeur général des Aciéries de Saint-Étienne qui ont 1600 employés en 1948 (d'après AN, 2012 026 601), mais il est aussi le dirigeant de l'entreprise de Chasse qui compte plusieurs filiales. Si on ne tient compte que de l'usine de Chasse, Pierre Cholat ne dirige qu'une entreprise moyenne, mais si on ajoute toutes les entreprises et leurs filiales, on obtient un chiffre que l'on estimer autour des 3000 salariés. Cela le rangerait alors à un niveau supérieur à celui de Pompey ou de Jacob Holtzer à Unieux selon les données d'Hervé Joly dans JOLY Hervé, Diriger une grande entreprise française au XXe siècle, op. cit., p. 539-543. 3 BERGER Françoise, La France, l'Allemagne et l'acier, op. cit. p. 965. Françoise Berger s'appuie sur MIOCHE Philippe, « Le patronat de la sidérurgie et le Plan Schuman en 1950-1952 », dans SCHWABE Klaus (dir.), Die Anfänge des Schuman- Plans, 1950-1951, Acte du colloque d'Aix-la Chapelle de mai 1988, Paris-Bruxelles, 1988, p. 305-318. 4 MIOCHE Philippe et ROUX jacques, Henri Malcor : un héritier des maîtres de forges, op. cit., p. 294. 5 NOIRIEL Gérard, « Du " patronage " au " paternalisme ", la restructuration des formes de domination de la main-d'oeuvre ouvrière dans l'industrie métallurgique française », Le Mouvement social n° 144, juillet-septembre 1988, p. 17-35, p. 27 sqq. 6 L'expression est reprise de DEWERPE Alain, « Conventions patronales. L'impératif de justification dans les politiques sociales des patronats français (1800-1936) », dans SCHWEITZER Sylvie (dir.), Logiques d'entreprises, op. cit., p. 21. 7 SCHWEITZER Sylvie, « Paternalismes ou pratiques sociales ? », dans SCHWEITZER Sylvie (dir.), Logiques d'entreprises , op. cit., p. 14. 2 223 religieux a un effet perceptible sur les pratiques de son entreprise, mais ces dernières sont soutenues par les autres dirigeants, mises en place par les cadres, en interaction avec les personnels et contraintes par la loi ou l'intervention d'autorités locales. On s'intéressera donc davantage aux pratiques qu'aux théories sur lesquelles elles reposent. On le fera d'autant plus que les pratiques sont davantage présentes dans les sources que les théories qui servent à les justifier. Chaque entreprise possède ses propres pratiques, même si elles peuvent être influencées par celle des entreprises voisine ou par des théories. Elles concernent le travail et le hors travail, les travailleurs et parfois leur famille. Ceux-ci adoptent des attitudes différentes face à ces pratiques. Elles peuvent être faites d'acceptation, de résignation, d'appropriation ou de résistance. Dans ce dernier cas, il peut s'agir d'une action individuelle ou collective, spontanée ou non. 1) Le renouvellement des dirigeants Pierre Cholat est le seul dirigeant de l'entreprise qui va traverser la décennie. Ces collègues sont au nombre de quatre : Lucien Cholat – le jeune frère de Pierre –, Robert Tremeau, Guillaume Martouret et Léon Marrel. En suivant la chronologie des changements on peut présenter chaque nouveau dirigeant et indiquer son importance dans l'histoire de l'entreprise et de ses salariés. Tout d'abord, de 1947 à 1956, le conseil d'administration est presque entièrement renouvelé. Le premier changement intervient en décembre 1948 avec la mort de Guillaume Martouret1. Il a été administrateur des HFC depuis 1922 et en charge des réalisations sur le Drac qui ont – elles – débuté en 1917. Sa mort est suivie quelques mois plus tard par celle de Lucien Cholat2. Outre sa carrière aux Aciéries de SaintÉtienne comme ingénieur en chef, il est administrateur des HFC depuis 19163. Il est aussi président des deux filiales de Chasse dans les Pyrénées : les mines de la Têt et la SAMPO. À ce titre, il a géré leur modernisation après la Seconde Guerre mondiale 4. Son expérience est reconnue par ses pairs : Henri Malcor témoigne de la qualité des 1 ADI, 56J22, rapport du CA à l'AG ordinaire du 28 juin 1949. ADL, 117J22, ordre de service 1090. 3 ADI, 56J22, rapport additionnel à celui des commissaires des comptes pour l'exercice 1947-1948. 4 Ibidem. 2 224 Aciéries de Saint-Étienne qui avait « la plus belle aciérie de la Loire »1. Il justifie cela en la considérant comme la plus « moderne » et « la mieux conçue »2. Or toujours d'après lui, cela ne doit rien au hasard puisque « jusqu'à sa mort Lucien Cholat avait toujours bien utilisé les ateliers dont il disposait ». On peut retrouver ce respect dans des écrits contemporains et pas seulement a posteriori. Ainsi on a cette remarque sincère adressée par Henri Malcor à Léon Daum lorsque le premier est informé des soucis de santé de l'ingénieur en chef stéphanois : « [l]a maladie de M. Lucien Cholat est triste en soi et bien fâcheuse pour nous »3. L'année d'après Robert Tremeau décède à son tour, au mois de janvier4. Suivant les documents du conseil d'administration, il occupe son poste dans cette institution depuis 1917. Il est président de la chambre de commerce de Vienne et s'occupe pour les HFC des problèmes liés aux transports, sujet primordial pour une entreprise appelée à utiliser et vendre des masses considérables de matières premières et produits divers. Enfin, Léon Marrel décède le 3 octobre 19525. Il est administrateur à Chasse depuis 19226. Il est aussi le fils de l'un des six fondateurs des Aciéries Marrel de Rive-de Gier, une entreprise alliée et cliente des HFC depuis le XIXe siècle. Ces hommes sont donc tous arrivés à leur poste d'administrateur, soit pendant la Première Guerre mondiale, soit juste après. Ils sont décédés à soixante-dix-sept ans pour Guillaume Martouret, soixante-huit ans pour Lucien Cholat, quatre-vingt-quatre ans pour Robert Tremeau et quatre-vingt-six ans pour Léon Marrel. En quatre années le conseil a perdu l'ensemble de ses administrateurs, tous décédés à leur poste, dépassant donc les moyennes pourtant élevées observées dans d'autres entreprises par Hervé Joly7. Par conséquent, les changements au conseil des HFC ne s'expliquent pas pour des raisons liées à une transformation des rapports de force au sein de cette institution. En revanche, les remplacements peuvent indiquer un certain nombre d'évolutions, même si les traditions perdurent : il y a la volonté de maintenir un équilibre au sein du conseil en établissant une certaine forme de permanence familiale dans la succession. 1 Dans MIOCHE Philippe et ROUX jacques, Henri Malcor : un héritier des maîtres de forges, op. cit., p. 307. 2 Ibidem p. 102. 3 AN, 2012 026 601, note de Léon Daum à Henri Malcor du 11 avril 1949 et réponse de ce dernier le même jour, suite à un courrier de Pierre Cholat du 9 avril adressé à Léon Daum. 4 ADI, 56J22, rapport du CA à l'AG ordinaire du 19 juin 1950. 5 ADI, 56J12, conseil d'administration du 24 octobre 1952. 6 ADI, 56J22, rapport du CA à l'AG ordinaire du 12 mars 1953. 7 JOLY Hervé, Diriger une grande entreprise , op. cit., p. 222 sqq., à propos de l'absence de limite d'âge des dirigeants. 225 Ainsi, Guillaume Martouret est remplacé par son fils Jean et Lucien Cholat par son frère Joseph, tous les deux nommés lors de l'assemblée générale du 19 juin 19501. Léon Marrel est remplacé par Georges Marrel2, son cousin. Georges est le quatrième représentant de la famille à être administrateur à Chasse. Il est également président des Établissements Marrel frères lorsqu'il est désigné par le conseil d'administration puis nommé à l'assemblée générale des HFC3. Il a certes une vingtaine d'années de moins que le cousin qu'il remplace et huit de moins que Pierre Cholat, mais il a tout de même soixante-huit ans lorsqu'il obtient le poste d'administrateur à Chasse : le rajeunissement du conseil est donc plutôt relatif. En revanche, Joseph Cholat a quarante-neuf ans au moment de sa nomination. Il est docteur en droit4 et occupe le poste de secrétaire général de la Compagnie des Aciéries de Saint-Étienne après la Seconde Guerre mondiale5. Il devient directeur administratif après la fusion avec les Aciéries de la Marine en 1952, puis il le reste après la création de la CAFL en 19536. Une première évolution concerne donc les frères Cholat. Derrière cette succession fraternelle en apparence gage de stabilité, on peut toutefois noter des différences notables : il y a l'important écart d'âge qui ne place pas Joseph au même rang dans la fratrie, mais il y a surtout sa formation de juriste. Il est aussi depuis de nombreuses années l'homme de confiance de Pierre7. Mais Joseph n'a pas les compétences techniques que Lucien dont les conseils auraient été précieux en raison des enjeux croissants autour de la modernisation de la sidérurgie. Une seconde évolution, plus importante encore, concerne le renforcement de la présence des anciens dirigeants la Compagnie des Aciéries de Saint-Étienne. En effet, Jean Martouret, démissionne officiellement en raison de ses nombreuses obligations8. Sylvain Girerd, ancien administrateur de la Compagnie des Forges et Aciéries de Saint-Étienne, lui succède9. À 1 ADI, 56J27, procès verbal de l'AG ordinaire du 19 juin 1950. Source : à partir des éléments biographiques présents dans la base Léonore, croisés avec ceux des autres membres de la famille http://www.culture.gouv.fr/public/mistral/leonore_fr. 3 ADI, 56J12, conseil d'administration du 4 avril 1953 et 56J27, AG ordinaire du 6 janvier 1954. 4 Ce diplôme est indiqué sur de nombreux documents, voir par exemple AN, 2012 026 601, fascicule intitulé la Compagnie des Forges et Aciéries de Saint-Étienne, 1948, 15 p., p. 2. ADL, 117J8, conseil d'administration du 23 mai 1938 lors de laquelle son diplôme est indiqué et où on lui accorde des pouvoirs comme secrétaire de la direction (il n'est pas encore secrétaire général). 5 ADL, 117J8. 6 ADL, 211J4. 7 Ainsi, c'est par exemple Joseph qui relit les pouvoirs de son frère accordés par Théodore Laurent suite à la fusion de 1952 et négociés, document important comme on l'a déjà vu : AN, 2012 026 601. 8 ADI, 56J22, rapport du CA à l'AG ordinaire du 15 mars 1952 et rapport des commissaires aux comptes 1950-1951. 9 ADI, 56J27, procès verbal de l'AG du 12 mars 1953. 2 226 la différence de Curières de Castelnau et de Grellet de la Deyte qui dirigeaient les Aciéries de Saint-Étienne avec Pierre Cholat, il n'avait pas retrouvé de poste d'administrateur après la fusion de 19521 : or comme l'écrit Hervé Joly, « les fusions ménagent les dirigeants » qui retrouvent souvent d'autres places2. Les deux hommes représentent toutefois des milieux différents : Martouret, marié à la plus jeune fille de Geoffroy Guichard, est le fils d'un industriel de la région stéphanoise ; tandis que Girerd, un avoué, est avant tout un conseiller juridique3. Néanmoins, Sylvain Girerd décède peu de temps après sa prise de fonction, en mars 1954 4. Il est alors remplacé par Louis de Curières de Castelnau, ancien administrateur de la Compagnie des Forges et Aciéries de Saint-Étienne depuis 19345, puis administrateur de la Compagnie des Forges et Aciéries de la Marine et de Saint-Étienne après la fusion de 1952. Castelnau est également chef d'entreprise et il peut apporter son expérience afin d'épauler Pierre Cholat. Sa fidélité est éprouvée depuis de nombreuses années grâce à leur collaboration à la direction de l'entreprise stéphanoise. Il est en revanche à peu près aussi âgé que lui, puisque seulement de quatre ans son cadet6. Une troisième évolution concerne le remplacement de Robert Tremeau avec l'arrivée d'André Diederichs en 1951 7. Cette arrivée est un soutien de poids. André Diederichs est président directeur général des établissements du même nom à Bourgoin-Jallieu qui fabrique des métiers à tisser8 et qui est cliente des HFC. Il est en outre président du syndicat des fondeurs du Sud-Est9. Cependant, quand on observe les différentes évolutions rapportées, on constate que le pouvoir de Pierre Cholat est conforté ainsi que l'équilibre au sein du conseil d'administration. Les hommes qui entourent le président des HFC sont majoritairement de la même classe d'âge que lui ; ce qui a d'ailleurs comme conséquence le décès d'un administrateur récemment nommé et resté en poste moins de deux ans. Seul son plus 1 AN 2012 026 601, AG ordinaire du 3 décembre et AG extraordinaires des 3 et 30 décembre 1952 de la Compagnie des Forges et Aciéries de la Marine et de Saint-Étienne. 2 JOLY Hervé, Diriger une grande entreprise , op. cit., p. 228 sqq. 3 Source pour Martouret, base Léonore, http://www.culture.gouv.fr/public/mistral/leonore_fr ; pour Girerd : ADI, 56J22, rapport des commissaires aux comptes 1953-1954. 4 ADI, 56J22, rapport du CA à l'AG ordinaire du 12 février 1955. 5 Il remplace comme administrateur son beau-père Barthélémy Deflassieux à son décès, il est présenté comme ingénieur du génie maritime et maître de forges à Rive-de Gier : ADL, 117J8, conseil d'administration du 9 janvier 1934. 6 ADI, 56J3. 7 ADI, 56J12, séance du 23 août 1951. 56J12, rapport du CA à l'AG ordinaire du 15 mars 1952. 56J27, procès verbal de l'AG ordinaire du 15 mars 1952. 8 Pour une histoire de cette entreprise : ROJON Jérôme, « L'entreprise Diederichs (1882-1938) », Bulletin du Centre Pierre Léon, 02/1996, p. 79-98. 9 ADI, 56J12, séance du 23 août 1951. 227 jeune frère fait exception. On peut donc craindre pour la relève qui n'est pour l'instant pas assurée, Pierre utilisant Joseph davantage comme un bras droit que comme un héritier à former1. C'est dans ce contexte que la nomination d'un nouvel administrateur, entraine un dernier changement en février 19562. Il est d'une toute autre nature. Sans être négatif, il peut être inquiétant : il s'agit d'un nouvel arrivant imposé par l'équipe dirigeante de Marine. Or c'est à l'occasion d'une augmentation de capital que cette entreprise a déjà obtenu la nomination d'un administrateur aux Aciéries de SaintÉtienne dirigées par Pierre Cholat avant de prendre le contrôle de l'entreprise. Elle récidive en entrant au conseil des HFC à l'occasion d'une opération d'augmentation de capital lancée par la Compagnie en 19543. Pierre Cholat qui communique avec Lucien Lefol – président directeur général des Aciéries de la Marine et de Saint-Étienne depuis la mort de Théodore Laurent –, est dans un premier temps heureux du soutien ; du moins en apparence4. Toutefois, en réponse, ce dernier propose la présence d'un nouvel administrateur au conseil de Chasse5. Sur ordre d'Henri Malcor, Marine a souscrit dès le printemps 19556, Pierre Cholat et Henri Malcor s'étant déjà tenus informés à ce sujet7, l'ordre ayant cependant précédé cet échange. En réponse à la demande de Lefol, Pierre Cholat rappelle qu'il y a déjà des dirigeants communs aux deux entreprises, lui-même ainsi que de Castelnau et Joseph Cholat, ce à quoi Lefol répond qu'ils ne représentent pas les Aciéries de la Marine mais leurs propres intérêts8. S'ensuit une épreuve de force à l'issue de laquelle Henri Malcor obtient par courriers recommandés la nomination de Paul Berthier comme administrateur9. Ce dernier est un ancien directeur général des Aciéries de la Marine du temps de Théodore Laurent. Il fait dès son arrivée au conseil un compte-rendu détaillé de la séance aux autres dirigeants de Marine qui ne font pas partie du Groupe de Saint-Étienne10. Il y a aussi la velléité de contester et de contrôler 1 Dans le « parcours initiatique » qui est réservé aux héritiers, Joseph n'est pas passé d'une fonction à l'autre dans l'entreprise familiale, ni n'a été directeur général comme évoqué dans DAUMAS JeanClaude, « Les dirigeants », op. cit., p. 39. 2 ADI, 56J27, procès verbal de l'AG ordinaire du 13 février 1956. 3 ADI, 56J27, procès verbal de l'AG extraordinaire du 6 janvier 1954. 4 ADL, 211J4, lettre de Pierre Cholat à Lucien Lefol du 11 juin 1955. 5 Ibidem, lettre du 27 juin 1955. 6 AN, 2012 026 819, courrier du 25 mars 1955 à Hubert des services du contentieux. 7 ADL, 211J4, lettres du 6 et 7 avril 1955. 8 Ibidem, lettre de Lefol du 28 juillet 1955. 9 Ibidem, courrier du 2 février 1956. 10 AN, 2012 026 819, notes de 8 pages dactylographiées prises au cours du CA du 26 mars 1956. 228 les ordres du jour des séances, mais cela n'est pas possible en droit 1. Henri Malcor et ses alliés ou représentants ont donc les moyens de surveiller ce qui se passe aux HFC de l'intérieur, mais pas encore d'agir. La situation reste sous contrôle pour Pierre Cholat qui a du céder sur certains points, mais conserve son pouvoir personnel. Il ne faut cependant pas sous-estimer la menace, car c'est cette connaissance précise de la situation de l'entreprise qui avait permis à Marine, du temps de Théodore Laurent, de préparer la fusion : les documents préparatoires montrent bien la différence entre les chiffres précis du projet concernant les Aciéries de Saint-Étienne et les évaluations en ce qui concerne les Hauts-Fourneaux de Chasse2. La période 1954-1955 est également marquée par des changements à la tête de l'usine de Chasse. Or après la guerre son directeur est Jean Demoule, son secrétaire général Paul Goisset et son ingénieur principal François Tavernier. Tous sont présents depuis de nombreuses années à Chasse. Ils prennent néanmoins en charge le plan de modernisation de l'usine. Ce n'est qu'en 1950, alors qu'il a soixante-treize ans, que Jean Demoule propose sa démission. Cette dernière est acceptée dans le courant de l'année3. Il continue cependant à être présent lors des assemblées générales4. François Tavernier lui succède et devient officiellement directeur de l'usine après déjà quarante ans de carrière dans l'usine5. Il démissionne à son tour quelques années plus tard, le 1er avril 1955 : il vient d'avoir soixante-dix ans6. Entre-temps, à la fin de 1952, Paul Goisset est remplacé par Jean Boureille au poste de secrétaire général : il a alors soixante-et-onze ans. Ces hommes déjà âgés ne sont pas remplacés par des personnels vraiment plus jeunes. Le nouvel entrant au poste de secrétaire général se rapproche des 60 ans au moment de sa nomination. On vient de le voir également pour François Tavernier qui après de longues années d'attente finit par arriver au poste de directeur, peu de temps avant de partir en retraite. C'est à lui qu'a été confiée la reconstruction du haut-fourneau n° 3. Il n'en voit cependant pas l'achèvement car l'année 1955 est marquée par un renouvellement de l'équipe de direction. En effet, au conseil d'administration du 27 1 AN, 2012 026 820, note envoyée par les services du contentieux de Marine le 21 décembre 1956 par Hubert à Henri Malcor. 2 AN, 2012 026 601, notes sur Sidecentre du 10 janvier 1952. 3 ADI, 56J22, rapport du CA à l'AG ordinaire du 29 mai 1951. 4 Sa présence est attestée jusqu'en 1955 : ADI, 56J27, procès verbaux des AG ordinaires des 12 mars 1953, 6 janvier 1954, 12 février 1955. 5 ADI, 56J22, rapport du CA à l'AG ordinaire du 19 juin 1950. 6 ADI, 56J12, conseil d'administration du 27 avril 1955. 229 avril 19551, Jean Boureille est maintenu à son poste, mais Georges Albert de Benoist de Gentissart devient ingénieur principal. Il est assisté par Louis de Curières de Castelnau nommé directeur général adjoint, car il exerce aussi la fonction non officielle de directeur de l'usine. Jean Boureille, ingénieur des mines de Saint-Étienne2, aurait du logiquement accéder aux postes occupés par de Benoist si la tradition de l'usine avait été suivie : le poste de secrétaire est à la fois un poste de confiance et une promotion limitée. Si les choses se déroulent ainsi, c'est parce que Pierre Cholat s'est enfin choisi un successeur3 : Georges de Benoist est en effet le gendre de son frère Lucien 4. Fiancé puis marié à Huguette Cholat en 19405, il est également ingénieur des mines6. Il entre aux Hauts-Fourneaux de Chasse le 1er janvier 19417, à 26 ans8. Puis il occupe différentes fonctions de direction9 aux mines de la Têt dans les Pyrénées, une filiale des HFC, du 1er janvier 1943 jusqu'au 31 décembre 1952. À partir de janvier 1953, il est de retour à Chasse et il assiste à son premier conseil d'administration le 4 avril 10. Bien qualifié – il est ingénieur civil des mines –, bien formé, chaperonné, Georges de Benoist a le profil et suit les étapes du parcours initiatique réservé aux héritiers décrit par JeanClaude Daumas11. En 1955, à 40 ans, il est arrivé à la direction des usines, mais il n'est pas encore à celle de l'entreprise. En une décennie les dirigeants de l'entreprise ont donc tous été changés hormis Pierre Cholat. Mais malgré l'arrivée d'un administrateur étranger en 1956, les HFC sont toujours contrôlés par Pierre Cholat grâce à une majorité d'administrateurs de confiance, ou au moins admis par lui. Néanmoins cela fait des décennies qu'un tel évènement ne s'est pas produit au sein du conseil des HFC. Il est la première manifestation locale et tardive d'une onde de choc provoquée par la naissance de la 1 Ibidem. ADI, 56J1., enquête relative à notre demande d'inscription sur la liste des fournisseurs de l'artillerie navale. 3 Son fils unique, Charles, étant mort à 23 ans : COLSON Daniel, La Compagnie, op. cit., p. 31. 4 Correspondance avec Janine Bouillet, secrétaire de Georges de Benoist. 5 Pour les fiançailles : Le Figaro du 6 avril 1940, p. 2, http://gallica.bnf.fr/ark:/12148/bpt6k410553f/f2, [dernière consultation le 18 août 2016] ; pour le mariage, Le Figaro du 13 octobre 1940, p.2, http://gallica.bnf.fr/ark:/12148/bpt6k4107299/f2.item, [dernière consultation le 18 août 2016]. 6 Le Figaro du 6 avril 1940. 7 AMC. Le fichier mécanographique du personnel indique 1940, mais pas la liste des élections aux Prud'hommes de 1954 et 1960, ni les cahiers du personnel 10 et 11 qui indiquent les mêmes jours et mois mais l'année 1941: c'est donc la seconde date, d'ailleurs après son mariage, qui a été retenue. 8 AMC, fichier mécanographique du personnel. 9 56J22, rapport du CA à l'AG ordinaire du 12 février 1955. 10 ADI, 56J12. 11 DAUMAS Jean-Claude, « Les dirigeants », op. cit., p. 39. 2 230 CECA. Avec Philippe Mioche1, on peut en effet dire que cet évènement a eu un impact sur le renouvellement du patronat étudié ; ici celui de la Loire. Les Cholat qui dirigeaient l'entreprise soeur des Aciéries de Saint-Étienne ont vu leur pouvoir dilué après la fusion de 1952 avec les Aciéries de la Marine et surtout après 1953 lors de la création de la CAFL. On presse les dirigeants de Chasse de faire de même avec les Hauts-Fourneaux voisins de Givors. En attendant, on observe une relative stabilité au niveau des hommes au pouvoir et des pratiques d'entreprise. 2) Permanences et évolutions des pratiques d'entreprise Lorsque Jean-Pierre Daviet étudie la gestion sociale de Saint-Gobain, il le fait à travers quatre grandes thématiques : « [l]es logiques du processus de travail et les rémunérations correspondantes, [l]es règles de carrière (formation, embauche, durée de l'emploi, à situer dans une stratégie de l'acteur), [l]es problèmes plus liés à la sociologie de l'organisation, aux problèmes de pouvoir ou de l'autorité dans l'entreprise, les préoccupations relatives au "moral" (au sens de moral des troupes) et au répertoire symbolique ou idéologique (lutte contre le syndicalisme, influences recherchées sur les comportements, attachement aux dirigeants, culture d'entreprise peut être, individualité collective »2. On peut s'inspirer de ces thématiques, tout en sachant que les deux premières – travail et carrières – ont en partie été traitées plus haut3. On les complétera seulement, en insistant davantage sur les pratiques hors de l'usine. Enfin, on ne suivra pas l'ordre des thématiques suivi par Jean-Pierre Daviet car elles sont en réalité mêlées inextricablement dans chaque pratique, en revanche on les évoquera toutes en suivant une logique qui va de l'embauche aux politiques d'entreprise qui concernent le hors travail. 1 MIOCHE Philippe, « Le patronat de la sidérurgie et le Plan Schuman », op. cit. DAVIET Jean-Pierre, « Histoire de la gestion sociale d'un grand groupe industriel, Saint-Gobain 19211981 », dans SCHWEITZER Sylvie (dir.), Logiques d'entreprises, op. cit., p. 137. 3 Cf. II) Le personnel face à la modernisation et la relance de la production. 2 231 a) Le recrutement et les affectations Les méthodes de recrutement du personnel demeurent dans l'ensemble les mêmes pendant la période, même si certaines évolutions sont remarquables. On doit distinguer la partie du recrutement qui concerne l'embauche, en dehors de l'usine donc, de celle qui concerne l'attribution des ateliers et des postes de travail. Enfin, il est possible de repérer des profils de parcours professionnels différents à l'intérieur de l'usine. On constate alors l'intérêt porté aux familles dans le recrutement, une attribution des postes de travail et des ateliers fonctionnant selon des logiques liées au sexe et à la nationalité accompagnées d'un traitement individuel des personnels, ce qui donne des parcours professionnels différents. La recherche de nouveaux travailleurs s'effectue principalement sur un double marché régional ou international. Mais quelque soit l'origine des travailleurs, on remarque l'intérêt porté à leur famille par leur employeur. Pour les travailleurs français 1, il est fréquent que des couples soient embauchés. Par exemple les Jobert qui sont employés à la fonderie, ou les Bouillet qui sont employés aux grands bureaux. Les Anthouard sont ouvriers à la fonderie, etc. Plus rarement dans le cas des Pastorino lui est ouvrier et elle employée. Cela explique qu'ils ne soient pas dans le même atelier ou bureau, ce qui est le cas de la plupart des couples cependant. Leur embauche peut se faire avant ou après leur mariage : dans le premier cas l'usine et ses annexes ont pu être les lieux de leur rencontre, dans le second cas l'un des conjoints a pu favoriser l'embauche de l'autre. La présence d'un ascendant – un père, un oncle – est également fréquente. Le père de Georges Charrier a travaillé au HFC, de même qu'un oncle maternel. Janine Bouillet, Gérard et Christiane Pastorino ont tous des ascendants. Il faudrait donc faire la généalogie des travailleurs des HFC pour tenir compte de tous les liens pouvant les apparenter. Une tâche impossible tant ils sont potentiellement nombreux : par mariage, filiation, cousinage, lien ascendant collatéral, etc. Ces liens peuvent passer par les hommes comme par les femmes ; ce qui pose le problème des changements de noms afin de repérer ces dernières. Ils peuvent être avec un ascendant, comme avec un descendant. Mais entrer autant dans les détails est en fait une tâche inutile puisque les 1 Sources pour ce paragraphe et le suivant : témoignages Georges Charrier et Fernand Abel le 15/3/2000 ; Simone Arcondara le 11/3/2013 ; Janine Bouillet le 24/2/2012 ; Gérard et Christiane Pastorino le 06/01/2015 ; Andrée Jobert le 06/05/2016 ; AMC, fichier mécanographique. 232 exemples cités nous permettent déjà de comprendre l'essentiel : les HFC « forment une grande famille »1, au sens propre comme au sens figuré. Cette expression se retrouve d'ailleurs fréquemment dans les témoignages des anciens travailleurs français qui généralement l'associent aux solidarités dont ils ont bénéficié à l'intérieur comme à l'extérieur de l'usine. Les travailleurs étrangers migrent avec d'autres membres de leurs familles, le temps d'un contrat, ou de plusieurs contrats de travail. Pendant la migration, un père ou un oncle peut être présent. Mais le plus souvent, il s'agit d'un frère ou d'un cousin, c'est-à-dire de membres d'une même génération. Lorsqu'il y a un ascendant, c'est le plus souvent parce que ce dernier s'est installé durablement à Chasse. Par exemple, Crescenzo Grimaldi est un ouvrier italien embauché pour travailler à la manutention en juin 19392. Antoine, son fils, travaille à la fonderie dès 1948. Ettore, un frère ou un cousin de Crescenzo est embauché au haut-fourneau en 1949. Ce dernier est apparenté par sa mère à la famille Capuano, originaire du même village, et dont deux membres travaillent aux HFC après la guerre. Enfin, d'autres membres de la famille Grimaldi originaires de villages voisins ont été recrutés à la même période : Giulio en 1960 pour la fonderie, Laurent en 1946 pour la fonderie, Louis la même année pour le hautfourneau et enfin Alexandre en 1951 pour l'agglomération. Louis et Laurent sont demifrères. Alexandre est le fils de Louis et donc le neveu du second. Enfin, Laurent est luimême apparenté par sa femme à une autre famille de la même région, les Colantonio, dont l'un des membres est présent à Chasse. Ce sont donc au moins dix travailleurs apparentés des HFC appartenant à trois familles de noms différents qui travaillent après guerre. D'autres membre de ces familles sont présents avant guerre, mais ce sont des femmes : Oliva Grimaldi travaille trois ans à l'agglomération de 1926 à 1929, Philomène Grimaldi travaille cinq ans dans le même atelier de 1933 à 1938. Il est peu vraisemblable qu'il s'agisse d'une migration familiale qui ait commencé avec les femmes seules car Philomène a quarante-trois ans au moment de son embauche – ce qui est déjà âgé –, et Oliva – qui est jeune – n'en a que dix-neuf. Il est donc possible que le reste de leur famille travaille dans le bassin d'emploi chassère. En revanche, si elles ne sont pas première au niveau de la migration, elles le sont sans doute au niveau de l'embauche aux HFC car dans les années 1930, près de quatre-vingt femmes ont été 1 2 BOUILLET Janine, Racines et réalité, op. cit., p. 112. AMC, fichier mécanographique et cahier du personnel étranger n° 8. 233 embauchées à tour de rôle dans l'usine1. Or à cette époque il est notable que les femmes étrangères actives, en particulier italienne, sont elles aussi nombreuses dans d'autres entreprises et dans la région2. On a cependant vu que les migrants embauchés aux HFC sont souvent des « célibataires », c'est-à-dire en réalité bien souvent des hommes mariés avec ou sans enfant. Mais ces derniers ne viennent pas à Chasse accompagnés avec leurs familles à la différence de ce qui est repérable pour les Grimaldi ou d'autres migrants comme les Grecs ou les Arméniens. Par exemple, dans le cas des Arcondara 3, Manuel est embauché en 1920 par les HFC, peu de temps après son arrivée en France. Il fait ensuite venir de Grèce son frère Georges embauché en 1923, puis son beau-frère Stamatias Sarantou embauché en 1924. Sa fille Simone travaille dans les bureaux des HFC à partir de 1948, ainsi que sa nièce Marie-Claire Sarantou employée de 1960 à 1966. Il n'y a cependant pas de spécificité au niveau des parcours migratoires d'une période à l'autre, mais plutôt le rôle du temps qui joue comme un filtre. L'observation des cahiers du personnel durant les années 1920 nous montre quatre-vingt-trois embauches de travailleurs grecs au cours des années 1920. Après 1945, il ne reste plus que six travailleurs4, dont quatre de la même famille. Par conséquent, l'immense majorité des migrants ayant travaillé aux HFC avant la guerre est repartie à la fin de son contrat. Les personnels qui ont fait souche avec leur famille sont minoritaires parmi ces norias, mais majoritaires parmi ceux qui sont restés, l'arrivée de leur famille étant à la fois cause et conséquence de leur installation durable. Une exception notable concerne les Algériens. À la différence des autres migrants, aucune famille ne s'est durablement installée à Chasse. Pourtant, des parents et/ou des oncles ont pu venir travailler avant guerre. Les enfants ou neveux leur ont ensuite succédé pendant les Trente Glorieuses comme dans le cas de Dilmi Bencheikh. Alors que ces migrants forment l'un des contingents les plus élevé de travailleurs des HFC, cette différence traduit bien les conditions spécifiques dans lesquelles s'effectue leur embauche : bien plus que les autres migrants, ils sont destinés à demeurer des « célibataires ». Dans la première partie des Trente Glorieuses, la situation évolue peu par rapport à la période précédente, comme par rapport à la situation des autres 1 AMC, cahier du personnel étranger n° 8. SCHWEITZER Sylvie (dir.), Rhône-Alpes : étude d'une région , op. cit., p. 28. 3 Témoignage Simone Arcondara le 11/03/2013 ; AMC, fichier mécanographique et cahier du personnel étranger n° 8. 4 AMC, cahier du personnel étranger n° 15. 2 234 travailleurs étrangers : alors qu'un turnover initial équivalent concerne les Italiens, parmi eux seuls certains peuvent commencer à s'installer durablement avec leurs familles. L'intérêt pour la famille est donc variable selon les nationalités, mais il existe toujours. Pour les travailleurs étrangers, il participe de la migration puisqu'elle se fait souvent avec d'autres membres de leurs familles ce qui est rassurant pour traverser cette épreuve. Pour l'entreprise, cela lui permet d'atteindre son contingent de nouveaux travailleurs sans déployer de moyens de recrutement supplémentaires. Il est en effet fréquent que ce soient les travailleurs eux-mêmes qui proposent à l'entreprise l'embauche d'un de leurs parents1. Elle a aussi une relative assurance de l'intensité de leur engagement dans le travail puisqu'ils ont testé d'autres travailleurs apparentés. En revanche, pour certains migrants, l'enjeu est également de faire venir leur famille en France. L'attribution ou non d'un logement par l'entreprise joue un rôle décisif dans un pays connu longtemps pour son déficit dans ce domaine2. Ils sont donc dépendants d'elle alors que l'offre de logement dans un parc largement contrôlé par les HFC se concentre principalement au quartier du cantonnement3. En revanche pour les travailleurs français, ce que Michelle Zancarini-Fournel appelle le « familialisme » permet l'acquisition d'une main d'oeuvre « stable » et « dévouée », sa sélection à l'embauche étant fondée sur la « recommandation »4. Ce système présente une double sécurité : sécurité de l'emploi pour les salariés et leurs proches, sécurité pour la direction de l'entreprise qui tient les salariés sous un double regard externe et interne5. Cela ressort dans certains témoignages, par exemple lorsque Gérard Pastorino se rappelle comment son père a pu l'empêcher fermement de manifester aux côté de la 1 Témoignages de Mohamed Safer le 22/04/2000, Simone Arcondara le 11/03/2013, Lucidi 20/05/2016. Voir aussi BRUNO Anne-Sophie, « Aux sources de la segmentation du marché du travail », Cahiers d'histoire. Revue d'histoire critique, n° 132, 2016, 14 p., http://chrhc.revues.org/5395, [dernière consultation le 12 juin 2017], p. 5 sqq. 2 LÉVY-VROELANT Claire, « Le logement des migrants en France du milieu du XIXe siècle à nos jours », Historiens et géographes, n° 385, janvier 2004, p. 147-165. 3 Michel Freyssenet note que les travailleurs immigrés chez Wendel qui sont logés dans des logements de « célibataires » ne peuvent pas faire venir leurs familles tant qu'on leur attribue de tels logements : dans FREYSSENET Michel, « Division du travail, pratiques ouvrières et pratiques patronales », op. cit., p. 5. Pour Gérard Noiriel, sans femmes ni enfants, ils sont aussi moins concernés par les oeuvres sociales, dans NOIRIEL Gérard, « Du "patronage" au "paternalisme" », op. cit. p. 33. 4 ZANCARINI-FOURNEL Michelle, « La famille Casino-Saint-Etienne », op. cit., p. 58. 5 Ibidem, p. 58-59. 235 CGT1. C'est aussi le cas d'Andrée Jobert qui subit la double pression de son mari et de son chef de service : ils sont opposés tous deux à ce qu'elle quitte l'usine2. En outre, cette politique cible spécifiquement les veuves et les femmes célibataires avec enfants3. Or à Chasse on retrouve plusieurs « veuves » parmi les personnels comme ces empileuses arméniennes embauchées à l'agglomération. Le maintien de celles-ci dans un atelier où le poste d'empileur est réservé à de jeunes hommes s'explique au moins en partie par cette politique de soutien aux femmes vivant seules avec ou sans enfants. Mais cette politique profite aussi à ces derniers. Par exemple, Jacques Bernet4 explique qu'après le décès de son père, c'est un ingénieur des hauts-fourneaux qui est venu proposer de l'aide à sa mère. Son père étant décédé en avril 1956, sa mère est embauchée comme femme de ménage en juin. Sur sa fiche figure la mention « veuve d'ancien ouvrier », preuve de ce soutien spécifique. Lui-même et son frère Joseph sont également embauchés ; Jacques à la cimenterie en août 1956 à l'âge de dix-huit ans et son frère en juin 1957 à l'agglomération à quinze ans. Pour expliquer l'embauche des « veuves », Michelle Zancarini-Fournel insiste sur les avantages que cela procure à l'entreprise comme le fait de disposer d'une main d'oeuvre reconnaissante et donc qui lui est dévouée5. Néanmoins le dévouement des cadres de cette dernière va bien au-delà de simples calculs, même si ces derniers ont bien entendu pu exister. On le voit à la situation de madame veuve Bernet : qu'elle intérêt l'entreprise a-t-elle d'embaucher immédiatement après la survenue du décès une nouvelle femme de ménage ? Cela ne correspond apparemment à aucun besoin immédiat de personnel supplémentaire, mais plutôt au désir de protéger cette dernière et ses enfants face aux aléas de la vie. Il va même au-delà de l'adhésion aux valeurs de l'entreprise : il s'agit d'un véritable engagement personnel et moral. Il est visible jusque dans les bureaux de reclassement bien après la fermeture de l'usine. En effet, des années plus tard, les anciens cadres de l'usine conseillent certains travailleurs et les aident à retrouver du travail6. Christiane Pastorino7 déclare avoir interpelé Édouard Claude, ancien chef du 1 Même si dans ce cas précis il s'agissait aussi de boycotter la manifestation d'un syndicat engagé contre la politique coloniale de la France ; témoignage du 06/01/2015. 2 Témoignage Andrée Jobert le 06/05/2016. 3 ZANCARINI-FOURNEL Michelle, « La famille Casino-Saint-Etienne », op. cit., p. 59. 4 Témoignage de Jacques Bernet le 02/05/2017 ; AMC, fichier mécanographique. 5 ZANCARINI-FOURNEL Michelle, « La famille Casino-Saint-Etienne », op. cit., p. 59. 6 Témoignage d'Adrien Vanssons le 20/05/2016. 7 Témoignages de Gérard et Christiane Pastorino le 06/01/2015. 236 service du personnel, afin qu'il trouve grâce à ses relations un meilleur travail à son mari, ce qui a pu être fait. Elle et son mari disent comme Janine Bouillet que les HFC ont été « une grande famille ». Ils ajoutent qu'on leur est « redevable ». Pourtant si cette politique de protection de la veuve et de l'orphelin perdure pendant les années 1950, une autre est sur le point de disparaitre : celle qui consiste à secourir les vieux travailleurs, certains postes leur étant réservés. En effet, la plupart des vieux travailleurs de l'usine la quitte au début des années 1950. On trouve trois raisons à ces départs : la mise en place d'un système de retraites, la modernisation, la montée de la concurrence internationale. Dans le premier cas, la généralisation du système d'assurances retraites à partir de 1945 permet aux travailleurs de partir à l'âge de soixante-cinq ans. Mais comme ils n'ont pas toujours cotisé suffisamment, ils demeurent plus longtemps dans l'entreprise. Toutefois, ces départs de vieux travailleurs auraient du se faire progressivement si cela avait été le seul facteur, or cela est fait principalement entre 1952 et 1956. La modernisation a en effet supprimé nombre de postes qui leur sont habituellement réservés – arroseur, graisseur, balayeur ou homme à tout faire à l'entretien –, mais pas tous non plus puisqu'il reste par exemple des gardes barrières. Toutefois, la disparition de postes comme ceux des jardiniers révèlent une pression supplémentaire dans la recherche de diminution des coûts salariaux : cela s'explique notamment par la montée de la concurrence entre entreprises avec la création de la CECA qui contraint à l'abandon de certaines pratiques. Or le paternalisme1 entre en crise pour diverses raisons : Gérard Noiriel l'explique par ses contradictions2, André Gueslin évoque son coût3, Jean-Claude Daumas parle de son coût et du fait qu'il contribue à rigidifier le marché du travail4. Mais on a moins mis cela en relation avec les conséquences de l'augmentation de la concurrence dans un contexte de développement de la CECA. Or il est vraisemblable que des évolutions comparables se retrouvent dans d'autres entreprises sidérurgiques que les HFC. 1 Pour une présentation historiographique récente : GACON Stéphane et JARRIGE François, « Les trois âges du paternalisme», op. cit., p. 28-30 . 2 NOIRIEL Gérard, « Du "patronage" au "paternalisme" », op. cit. p. 31. 3 GUESLIN André, « Le paternalisme revisité en Europe occidentale (seconde moitié du XIXe siècle, début du XXe siècle), Genèses, n° 7, 1992, p.201-211, p. 210. 4 DAUMAS Jean-Claude, « Les métamorphoses du paternalisme », dans DAUMAS Jean Claude, CHATRIOT Alain, FRABOULET Danièle, FRIDENSON Patrick et JOLY Hervé (dir.), Dictionnaire historique des patrons français, op. cit., p. 885. 237 Toutefois, si la gestion sur un mode familialiste du personnel connait des modifications liées aux contraintes financières, en revanche l'attribution des postes de travail et de la répartition dans les ateliers continue à se faire en fonction du sexe, de la nationalité et dans une moindre mesure de l'âge des travailleurs pendant toute la période1. Mais comme cela a déjà été évoqué plus haut, on insistera davantage sur le traitement individuel des personnels. Ainsi, l'individualisation des récompenses – souvent financières – est un moyen de les gérer. Elle suit la logique de segmentation des postes de travail : ne pas créer des collectifs revendicatifs. Les moyens sont d'une grande diversité. À partir des arrêtés ministériels de 1945-1946, d'après Michèle Zancarini-Fournel2, les salaires ne sont plus individualisés – à la tâche ou au rendement – mais dépendent du poste de travail. Or on a vu que l'attribution de la classification correspondante dépend de la bonne volonté des dirigeants qui n'hésitent pas à nommer des travailleurs sur des postes qui ne correspondent pas à leur qualification. De plus, un système de primes très élaboré permet de continuer à individualiser une partie des revenus des salariés, malgré la législation sur les salaires. On peut distinguer ces primes en fonction de leur échelle d'attribution : qu'elles soient des primes attribuées pour un poste, pour un atelier, pour l'usine. Dans le premier cas, on peut distinguer les primes liées à la production et celles liées à l'ancienneté. Les postes les plus dangereux bénéficient de ces primes, comme c'est le cas pour le poste de premier fondeur : elles visent alors à récompenser la prise de risque. Les primes liées à l'ancienneté sont remises pour trois, cinq et quinze ans de service continu3. L'objectif est à la fois de stabiliser le personnel et d'inscrire cette stabilité dans la durée puisqu'un départ remet le compteur à zéro. À l'échelle de l'atelier, des primes peuvent concerner certaines activités. Par exemple, les mensuels de la fonderie ont bénéficié d'un rabais de 5 % sur les véhicule Peugeot quand des culasses de moteur ont été fabriquées pour cette marque dans cet atelier4. Il n'est en effet pas utile d'intéresser tous les ouvriers à l'achat de ces voitures dans la mesure où leur pouvoir d'achat ne le leur permet pas, à la différence des ETAM. D'autres primes peuvent concerner tout l'atelier, comme lorsqu'un record de production est battu pour le haut-fourneau5. Enfin, diverses primes concernent l'ensemble des personnels de l'usine. Elles peuvent être collectives comme 1 Cf. II) Le personnel face à la modernisation et la relance de la production. ZANCARINI-FOURNEL Michelle, « La famille Casino-Saint-Etienne », op. cit., p. 65. 3 ADI, 56J12, conseil d'administration du 8 juin 1948. 4 Témoignages Georges Charrier et Mohamed Safer le 22/04/2000 5 Ibidem. 2 238 les « gratifications exceptionnelles » remises en fin d'année à partir de 19481. Mais elles concernent aussi plus particulièrement ce que l'on appelle « les oeuvres », c'est-à-dire des actions charitables dans le « prolongement des formes traditionnelles de bienfaisance » coûtant relativement peu cher au patron2 : il s'agit de primes de mariage, de primes de naissance et à partir de 1950 des primes pour le service militaire3. D'autres sont encore données pour les remises de médaille du travail ou des buts marquées lors de rencontres de football4. Cette individualisation d'une grande partie des primes est encore accentuée par la méthode de leur distribution : chaque mois, individuellement, les mensuels passaient dans le bureau du directeur pour la remise de la prime ; les ouvriers se contentant de se rendre chaque quinzaine aux bureaux paies où elle est remise par le caissier principal avec la paie5. Les salaires réels sont donc tenus secrets. De telles pratiques se retrouvent chez Casino où elles ont comme effet de maintenir des incertitudes et des divisions 6. D'une manière générale, les logiques pour récompenser financièrement les salariés n'ont apparemment pas évolué dans l'après guerre. Néanmoins, dans le contexte de la modernisation, des départs sont anticipés en raison de la baisse future des besoins en main d'oeuvre, en particulier au haut-fourneau. On envisage alors d'encourager les départs en retraite en les gratifiant d'une allocation renouvelable à la fin de la marche à deux hauts-fourneaux7. Cela permet d'accompagner la diminution nécessaire de personnels, mais une nouvelle logique apparait alors : celle du traitement social des restructurations appelée à un bien plus grand avenir dans la France des années 196019808. Les résultats de ces politiques est vérifiables dans les parcours professionnels. Les trajectoires sont nécessairement diverses car les parcours professionnels ne dépendant pas que des politiques menées par l'entreprise, mais aussi du choix des individus. Mais on peut tout de même décrite trois ensembles de parcours professionnels type : celui des travailleurs masculins français et ceux qui ne le sont pas, 1 ADI, 56J12, conseil d'administration du 8 juin 1948. NOIRIEL Gérard, « Du "patronage" au "paternalisme" », op. cit., p. 20. 3 ADI, 56J12, conseil d'administration du 11 mai 1950. 4 Témoignages de Georges Charrier et Mohamed Safer le 22/04/2000 et de Jean Montoya le 20/05/2016. 5 Témoignages de Georges Charrier et Mohamed Safer le 22/04/2000. 6 ZANCARINI-FOURNEL Michelle, « La famille Casino-Saint-Etienne », op. cit., p. 66. 7 ADI, 56J12, conseil d'administration du 11 mai 1950. 8 BERGER Françoise, « Éléments sur la crise de la sidérurgie en vue d'une approche comparative. Le cas du Nord-Pas-de-Calais et du groupe Usinor », Revue du Nord, hors série n° 21, 2006, 11 p., version électronique, p. 5-8. 2 239 c'est-à-dire les femmes et les étrangers. Les variations sont cependant importantes à l'intérieur de ces trois grands ensembles car les parcours professionnels ne dépendant pas que des politiques menées par l'entreprise, mais aussi du choix des individus. Les travailleurs français sont presque les seuls à avoir la possibilité d'effectuer une mobilité professionnelle ascendante, même quand l'atelier est touché par la modernisation qui oblige à des départs. Toutefois, nombre d'entre eux demeurent pendant toute leur carrière à des postes modestes. Le turnover les concerne également, même si c'est en de moindre proportion. Les parcours professionnels ascendants leur sont réservés, mais ils ne sont pas systématiques. En revanche, les carrières de femmes sont caractérisées par la faiblesse des évolutions, qu'elles soient françaises ou étrangères. Qu'elles soient ouvrières ou employées, la segmentation des postes et le faible nombre d'activités qui leur sont réservées limite nécessairement leur possibilité de changement. De même, leurs possibilités d'ascension professionnelle sont réduites : les femmes de l'usine sont également systématiquement placées sous l'autorité d'un homme. Inversement, elles ne dirigent aucun homme. Les hommes ont pour eux la majorité des postes de travail, les postes les plus qualifiés, les postes de commandement, les meilleurs salaires. Leur domination matérielle – par les avantages dont ils disposent – et symbolique – par leur position systématiquement plus élevée – est justifiée par un discours reposant sur les qualités et défauts supposés des femmes. On en retrouve encore les principaux aspects dans les témoignages des travailleurs, sans doute parce que ce poste a été à la fois celui qui a été occupé pendant le plus de temps et par le plus de femmes : ainsi, l'idée qu'il y ait nécessairement des pontonnières à la fonderie s'explique d'après les nombreux témoignages1 par leur habileté à manipuler les poches de fontes. Ce facteur est celui qui a été le plus répété et qui est venu le plus spontanément chez les enquêtés. Toutefois dans le contexte usinier de l'époque, il peut paraître contradictoire de confier de si grandes responsabilités à des femmes : de mauvaises manoeuvres peuvent en effet avoir de lourdes conséquences pour les travailleurs placés en dessous. Mais on les choisissait aussi parce qu'elles ont des « gestes doux » et qu'elles ne boivent pas d'alcool nous a dit Christiane Pastorino2. De plus, elles dépendent des accrocheurs qui finalement sont 1 Tous, hommes comme femmes ont affirmé cela : Georges et Marie-Louise Charrier, Fernand Abel, Mohamed Safer, Janine Bouillet, Simone Arcondaras, Christiane et Gérard Pastorino. 2 Témoignage Christiane Pastorino le 06/01/2015. 240 des travailleurs masculins leur donnant les ordres1. Enfin, elles passent une partie de leur temps à attendre – en tricotant2 – tandis que les hommes s'affèrent à fabriquer des moules ou couler de la fonte. Or cette attitude décrite comme passive repose sur la considération plus générale selon laquelle ce principe est typiquement féminin3 : cela explique sans doute aussi que le poste de pontonnière leur soit réservé à la fonderie et non dans les nombreux autres ateliers où on trouve des ponts, car ceux qui les conduisent sont au sol et actifs. Les discours reposant sur les qualités naturelles supposées des femmes servent donc à justifier l'ordre usinier. Aujourd'hui, ces injustices sont reconnues et même parfois regrettées, faisant écrire à Janine Bouillet – pourtant très attachée à « ses » Hauts-Fourneaux – lorsqu'elle décrit l'organisation des bureaux « [c]e qui est intéressant (si l'on peut dire) de remarquer que chaque service avait à sa tête, un homme avec des femmes en secrétariat, même si elles en avaient les capacités, (et dire que c'est encore souvent comme cela aujourd'hui !) [] Les hommes étaient les chefs et les femmes des employées »4. Dans quelle mesure de telles critiques pouvaient-elles être formulées ou même simplement pensées à l'époque ? Aucun élément dans les archives ne permet de l'infirmer ou de le confirmer. Néanmoins, l'indépendance d'Andrée Jobert5 menaçant de quitter l'usine et obligeant sa hiérarchie à la changer de bureau montre qu'une telle attitude n'était pas impossible, à condition d'être également qualifiée et/ou expérimentée. Ce n'est cependant pas le cas de la plupart des femmes ouvrières, comme par exemple Vartèse Derguiragossain qui doit quitter l'usine en 1948 pour se marier6. Ce n'est pas non plus le cas d'Andrée Rostaing en 1957, une jeune dactylographe de vingt-deux ans au moment de son départ pour les mêmes raisons. Toutefois, par leurs qualités professionnelles ou par leur qualification, certaines travailleuses auraient pu faire évoluer l'ordre établi. Marguerite Migieu – une comptable très compétente – et Pierrette Terrasse – qui est assistante sociale – sont ce genre de femme. Mais pour que rien ne change, on place la première dans un bureau où elle est la seule comptable. La seconde demeure sous les ordres d'un chef qui n'a pourtant aucune formation dans le domaine de la gestion sociale. 1 Témoignages de Mohamed Safer le 22/04/2000 et Christiane Pastorino le 06/01/2015. Ibidem. 3 BOURDIEU Pierre, La domination masculine, op. cit., p. 37-39. 4 Correspondance Janine Bouillet, mail du 25/11/2016. 5 Cf. annexe E. 6 AMC, cahier du personnel étranger n° 13. 2 241 Ainsi, l'ordre usinier qui repose sur des valeurs patriarcales demeure, tandis que les effectifs féminins se transforment. En effet, alors que pendant la guerre, on a assisté à un renforcement des recrutements d'ouvrières, leur nombre a depuis diminué. Elles ont même disparu d'un atelier : la briqueterie cimenterie. Ce déclin a principalement été subi par les femmes étrangères, remplacées par des jeunes hommes dans l'atelier qui leur était réservé : l'agglomération. Deux facteurs sont alors repérables : le marché du travail n'est pas déséquilibré comme lors de la première reconstruction dans les années 1920, ce qui a alors expliqué les recrutements numériquement élevés d'ouvrières étrangères. Bien au contraire, on a à nouveau accès à un nombre suffisant de travailleurs étrangers. Après 1945, le recrutement d'ouvrières étrangères fortement ralenti perdure néanmoins un peu, notamment parce qu'en raison de la segmentation des postes il faut remplacer les départs d'ouvrières arméniennes. Ensuite, la volonté de former de nouveaux personnels dans le contexte de modernisation et d'expansion de l'usine explique un recrutement de jeunes hommes spécifique à l'atelier d'agglomération où ils peuvent subir une première exposition au feu. Les travailleurs étrangers ont des trajectoires professionnelles plus diverses que celles des femmes. Ils peuvent changer d'atelier ou de poste, améliorer leur salaire en changeant de place dans la classification, mais en moyenne cette possibilité est bien moindre que pour les personnels de nationalité française. Le fait de durer dans l'usine est leur principal atout, permettant d'améliorer leurs conditions de travail et leur rémunération. Toutefois, quand ils en ont la possibilité, c'est en accroissant leurs efforts qu'ils augmentent leurs revenus, comme lorsqu'ils doublent leurs postes de travail dans les ateliers en travaillant la nuit. Parmi les étrangers, on observe des différences dans la gestion de cette main d'oeuvre. On a déjà relevé les méthodes de gestion très dures réservées aux Algériens pendant la guerre pouvant être qualifiées de « racialiste ». En revanche, la relance de l'usine a reposé en grande partie sur eux, sans que leur place dans les ateliers et les hiérarchies de l'usine n'ait vraiment évolué. Ils sont surreprésentés au haut-fourneau, un atelier particulièrement exposé. La différence est qu'au lieu de chercher à se débarrasser d'eux par tous les moyens comme après 1940, on cherche désormais – non pas à les garder – mais à sélectionner parmi eux les meilleurs producteurs qui acceptent les activités les plus dures, les plus risquées. Comme pour les Italiens, le début de la période est marqué par leurs allées et venues en raison de leur départ de l'usine ou de leur retour au pays entre deux 242 renouvellements de contrats de travail. Néanmoins, l'immigration italienne se transforme assez rapidement et les femmes viennent s'installer en France, ce qui n'est pas le cas des Algériens. L'accueil et l'installation des familles pour fixer les travailleurs n'est donc pas une politique menée de manière égale dans l'usine. La situation des Espagnols est encore plus stable que celle des Italiens : leurs familles sont parfois présentes en France au moment de leur engagement par l'entreprise. Ainsi, sur trente-sept embauches1 de janvier 1946 à décembre 1955, on a six célibataires ou veufs et vingt-six hommes mariés dont les enfants et/ou la femme sont présents en France ou arrivent peu de temps après l'entrée aux HFC. Les autres nationalités ont des représentants trop peu nombreux pour que des politiques spécifiques les concernent de manière aussi nette que pour les Algériens. De plus, quand il s'agit de vieux travailleurs, ces derniers ont parfois pu devenir des « chefs ». Plus souvent, ils ont amélioré un peu leur position dans la classification en devenant OS ou OP. Ils ont pu aussi changer d'atelier. Ils sont également bien souvent logés par la Compagnie, mais pas dans les mêmes quartiers que les travailleurs français, les cadres ou les étrangers nouveaux arrivants : le logement fait en effet partie des politiques que l'entreprise consacre à son personnel. b) Le logement des salariés Citant une enquête datant de 1930 du Ministère du travail, Alain Dewerpe2 indique que sur un échantillon de 2 725 établissements employant 1,8 millions de salariés, 57 % ont une politique pour loger leurs personnels. Le grand patronat répond à la demande de logement : Yves Lequin date du Second Empire la généralisation de ces politiques3. La Compagnie des Hauts-Fourneaux de Chasse n'échappe pas à cette logique. 1 AMC, fichier mécanographique et cahier du personnel étranger n° 13, 14, 15. On a donc cinq travailleurs dont la situation est indéterminée. 2 DEWERPE Alain, « Conventions patronales », dans SCHWEITZER Sylvie (dir.), Logiques d'entreprises, op. cit., p. 52. 3 LEQUIN Yves, « Les citadins et leur vie quotidienne », dans AGULHON Maurice (dir.), La ville de l'âge industriel. Le cycle haussmannien, Éditions du Seuil, Paris, 1998, 734 p., p. 331-332. 243 On peut s'intéresser à « l'urbanistique patronale »1, c'est-à-dire à la manière dont les dirigeants des HFC ont construit la ville, tout en composant avec les réalisations urbaines déjà existantes. À l'ordre usinier reposant sur la répartition de la main d'oeuvre par postes et ateliers selon des hiérarchies auxquels correspondent des revenus et des statuts, succède un ordre hors de l'usine. Ce dernier repose sur la création de quartiers et de bâtiments différents. En 1945, la Compagnie des Hauts-Fourneaux de Chasse est propriétaire d'habitations dans cinq communes : Chasse, mais aussi Givors, Ternay, Communay et Seyssuel. Elle possède un parc immobilier déjà conséquent de 380 logements de plusieurs pièces et 35 chambres2. L'entreprise loge donc au moins de 415 salariés accompagnés souvent de leurs familles. Par ailleurs, c'est sans compter le fait que des ouvriers d'une même famille peuvent partager un même logement, qu'ils soient conjoints travaillant dans l'usine, mais aussi membres de la famille pour les travailleurs immigrés. Ils peuvent se retrouver aussi à plusieurs par chambre. Il y a en outre un château qui sert à loger la direction, mais aussi différents bâtiments qui peuvent potentiellement à leur tour devenir des logements. Les habitations et les quartiers créés ne sont cependant pas uniquement fonctionnels, ils reflètent également les hiérarchies de l'ordre usinier en les inscrivant – si on peut dire – dans la pierre. En 1945, la direction possède son château dont Donneaud3 a été l'architecte. Celui-ci possède douze pièces d'habitation4, soit deux de plus que la villa de l'ingénieur principal. Les autres ingénieurs sont logés dans différentes villas proches de l'usine qui possèdent de cinq à sept pièces. Les maisons ouvrières sont divisées soit en quatre logements de trois pièces, soit en deux logements de quatre pièces. Enfin, les travailleurs étrangers sont dans des habitations collectives. Il existe un immeuble de vingt-quatre logements de deux pièces appelé la « maison carrée », où ils sont logés avec quelques familles de travailleurs français. Mais surtout, il existe les cantonnements du quartier du château à Chasse-sur-Rhône, soit sept bâtiments composés de chambres ou de logements de deux à trois pièces. Les habitations des travailleurs étrangers sont des bâtiments collectifs où le confort est 1 FREY Jean-Pierre, « Le Creusot : l'urbanistique patronale », Les Annales de la recherche urbaine , n° 22, avril 1984, p. 3-46. 2 ADI, 56J34, évaluation des biens mobiliers et immobiliers lors de la prorogation des statuts de 1956. 3 Source : ADI, 56J34. En l'absence de prénom et d'informations supplémentaires, il n'a pas été possible de déterminer s'il s'agit des mêmes architectes que ceux de l'immeuble Barioz à Lyon. 4 ADI, 56J34, évaluation des biens mobiliers et immobiliers lors de la prorogation des statuts de 1956. 244 moindre puisque l'eau se trouve à l'extérieur des logements, sous la forme d'un simple robinet collectif. Outre la taille de l'habitation, son nombre de pièces, sa nature collective ou individuelle, deux autres ensembles d'éléments permettent d'indiquer la place de chacun dans les hiérarchies de l'usine. Il y a tout d'abord des éléments visuels liés aux matériaux utilisés et à la décoration. Le béton est réservé aux maisons ouvrières, les parpaings pour les cantonnements. Les toits sont recouverts de tuiles plates et parfois des clôtures fabriquées avec du ciment de laitier entourent les jardins. Le château possède lui un toit à la Mansart, des façades avec des moulures aux fenêtres, un jardin, un portail en fer forgé. Le second ensemble d'éléments porte sur la localisation des habitations fondée sur des principes à la fonctionnels et symboliques. Document 5 : Vue du château de la direction au début du XXe siècle 1 1 Source pour les documents 5, 6 et 7, Michel Paret et Éric Combaluzier. Le château de la direction date de 1900. 245 Hautsfourneaux Fonderie Route qui mène au quartier du château Voie ferrée de l'ancien PLM Maisons ouvrières du quartier de l'église Document 6 : Vue du quartier de l'église après 19491. 1 Les premières maisons du quartier de l'Église ont été construites en 1908 ou 1918-1919, les dernières en 1949. 246 Voie ferrée de l'ancien PLM Maisons ouvrières du quartier du Rhône Maisons ouvrières du quartier du château Maisons ouvrières du quartier de l'église Cantonnements Maisons ouvrières des Espinasses Document 7 : Vue des principaux quartiers ouvriers créés par les HFC à Chasse-sur-Rhône1. 1 Les maisons du quartier du quartier du Rhône ont été construites de 1907 à 1927, celles du quartier du château en 1918, les cantonnements dans l'entre-deux-guerres ou en 1947-1948, Les Espinasses à partir de 1949. Cette photographie a donc été prise entre 1960 et 1962 quand débute le chantier de l'autoroute A7. 247 Le château de la direction et les maisons des ingénieurs sont à proximité de l'usine pour la plupart1. Il existe également des logements à l'intérieur de l'usine : vingt-deux au total. Ils sont réservés à des personnels pour des raisons de service : concierge, jardiniers, infirmiers, etc. Tous les autres logements sont dans des quartiers et des immeubles placés en dehors de l'espace usinier et au-delà des maisons des cadres. Situés au plus bas de la hiérarchie, les travailleurs étrangers sont logés au quartier du château dans des cantonnements construits à partir de 1918. La séparation n'est pas complète avec le reste du village, mais l'école du château accueille la plus grande partie des enfants de travailleurs étrangers alors qu'à celle du village, on trouve surtout des enfants de travailleurs français et de Chassères2. La concentration de travailleurs étrangers au cantonnement lui vaut des surnoms désobligeants de la part de certains habitants qui parlent de « village nègre »3. La forte solidarité présente dans le cantonnement entre anciens et nouveaux immigrés palie cela4. D'une manière générale, les solidarités entre habitants d'un même quartier ou d'une même rue sont très fortes. « Dès que je suis arrivée dans mon nouveau logement » dit Marie-Louise Charrier, « la voisine est venue me voir pour me demander si j'avais besoin d'aide. [] On s'est arrangé pour qu'elle garde [ma fille] pour que j'aille voir [mon mari] à la clinique [] »5. C'est la même chose au cantonnement qui est pour les étrangers « la famille de remplacement »6. On célèbre souvent les solidarités ouvrières, mais on oublie parfois que l'homogénéité du peuplement créée par le patronat a pu aussi contribuer à cela. Le reste du quartier du château en dehors du cantonnement, le quartier de l'Église et celui du Rhône sont réservés au logement d'ouvriers et d'ETAM qui sont souvent de nationalité française. Un certain nombre d'ouvriers naturalisés ou de travailleurs étrangers embauchés depuis longtemps résident aussi dans ces quartiers où leur présence est à mettre en parallèle avec leur mobilité professionnelle ascendante. Enfin, la « maison carrée » construite de 1915 à 1916 constitue un cas particulier, puisqu'elle mêle travailleurs français et étrangers. Mais cela s'explique par leur homogénéité sociale : ce sont tous des ouvriers peu qualifiés qui disposent d'un confort rudimentaire puisque l'eau de ce bâtiment se trouve à l'extérieur. Elle comporte au total 1 ADI, 56J34, plans des propriétés de la Compagnie à Chasse, Ternay, Communay, Seyssuel, Givors. Témoignages Simone Arcondara le 11/3/2013 et Janine Bouillet du 24/2/2012. 3 COMTE Marie-Hélène et GONOD Nathalie, L'éternel arménien, , op. cit., p. 16. On le retrouve également présent dans le témoignage Simone Arcondara du 11/3/2013. 4 COMTE Marie-Hélène et GONOD Nathalie, L'éternel arménien, , op. cit., p. 16-18. 5 Témoignage du 15/3/2000. 6 COMTE Marie-Hélène et GONOD Nathalie, L'éternel arménien, , op. cit., p. 22-23. 2 248 vingt-quatre logements. Elle a comme originalité d'avoir été construite à cheval sur les limites communales de Chasse et de Ternay, si bien que ses habitants changeaient de commune en traversant le palier. La Compagnie a également acheté – et non fait construire comme à Chasse – des logements à Givors (soixante-huit au total) et dans une moindre mesure à Ternay, Communay et Seyssuel. Le quartier de la gare à Chasse-sur-Rhône mélange bâtiments achetés et quelques maisons construites. Mis à part Seyssuel où les deux fermes achetées sont occupées par des familles arméniennes, on retrouve surtout des ouvriers français dans ces logements. On a aussi quelques villas d'ingénieur ou de cadre (à Ternay par exemple) et même un appartement à Givors. Ils ont en commun d'être de grande dimension : l'appartement qui est situé rue Jean Marie Imbert à Givors est de huit pièces par exemple. D'autres appartements plus petits à Givors sont occupés par des agents de maîtrise. Par conséquent, dans les quartiers qui n'ont pas été construits par la Compagnie, l'homogénéité professionnelle est moindre que dans les cités ouvrières. Après 1945, la politique de construction de logement est reprise. Elle est envisagée dans le cadre de la modernisation de sa reprise de production et de son expansion. Le programme est présenté ainsi aux actionnaires : « La préparation et la reprise d'une marche à deux hauts-fourneaux dans notre usine de Chasse avaient nécessité de larges efforts de la part de notre personnel, qu'il convient de reconnaître, mais la question depuis longtemps posée au sujet du recrutement de nos effectifs en nombre et en qualité, qui a notamment conduit votre société à développer ses constructions d'habitation à Chasse et à Givors, présente une importance accrue avec deux hauts-fourneaux. Les mêmes efforts avaient été nécessaires pour cette marche d'avril 1937 à juin 1938 et de juin 1939 à juin 1940. Une certaine augmentation des logements dont votre société dispose est aussi à prévoir »1. On voit qu'il ne s'agit pas de deux politiques différentes, mais de politiques parallèles qui s'étayent l'une et l'autre, le logement permettant de fournir les personnels nécessaires à la relance, cette dernière permettant de financer les constructions. À la même époque, aux Aciéries de Saint-Étienne dirigées par Pierre Cholat, la volonté d'intensifier la production des usines est également accompagnée d'une reprise de la construction de logements2. 1 2 ADI, 56J22, rapport du CA à l'AG ordinaire du 26 juin 1947. ADL, 117J8, conseil d'administration du 11 janvier 1947. 249 De plus, on sait que la politique de construction de logement des dirigeants de Chasse traduit la volonté d'inscrire dans la pierre, à l'intérieur et en dehors de l'usine, les hiérarchies de cette dernière ; mais on voit aussi dans le discours des dirigeants que le logement est aussi un enjeu pour fixer les personnels nécessaires au fonctionnement des usines. Certes dans la réalité, tous les personnels ne sont pas concernés, mais avec 415 logements et chambres en 1945, l'entreprise loge plus de la moitié de ses salariés. Or d'après les historiens et les sociologues il s'agit de fixer la main d'oeuvre qualifiée afin de limiter le turnover1, de viser spécifiquement les ouvriers professionnels les employés, les cadres2. C'est également vrai à Chasse où l'on peut observer la sollicitude des dirigeants pour leurs personnels « depuis longtemps attachés à notre société »3, c'est-à-dire pour des travailleurs souvent qualifiés et de nationalité française. Pourtant, des travailleurs étrangers et des manoeuvres sont également parmi les bénéficiaires des politiques de logements des HFC. Avant 1945 dans les logements des HFC, la différence se fait moins au niveau de qui est logé, mais davantage au niveau de comment est-il logé. L'entreprise entreprend ensuite plusieurs réalisations de logements. Leur rythme de construction et parfois d'acquisition suit les rythmes de modernisation de l'usine : expansion de 1946 à 1952, puis ralentissement et enfin reprise en 1956. Tableau 13 : Acquisitions d'habitations et de logements par les HFC de 1946 à 19604 Année Quartier du château Quartier de l'Église 1947 Construction de 2 cantonnements de 6 chambres chacun. Construction de 5 maisons de 2 logements. 1948 Construction de 2 maisons de 2 logements Construction de 2 maisons de 2 logements Construction de 10 maisons de 2 logements 1949 1950 Achat de 3 logements. Construction d'une villa Construction de 2 villas ayant au total 3 logements 1952 1953 1956-1957 1960 Total Construction de 5 villas Quartier de la gare et usine Construction d'une villa 51 logements et 12 chambres 1 NOIRIEL Gérard, « Du "patronage" au "paternalisme" », op. cit., p. 30. FREYSSENET Michel, « Division du travail, pratiques ouvrières et pratiques patronales », op.cit., p. 5. 3 ADI, 56J22, rapport du CA à l'AG ordinaire du 28 juin 1946. 4 ADI, 56J34, évaluation des biens mobiliers et immobiliers lors de la prorogation de 1956 ; 56J59, déclarations de constructions nouvelles, bulletin auxiliaire de propriétés bâties. 2 250 Au total, de 1946 à 1960, les HFC ont construit quarante-huit logements et douze chambres. Ils ont également acheté trois logements : cette méthode d'acquisition est donc devenue marginale. Cela porte le total de leurs logements en 1960 à 431 et celui de leurs chambres à 471. Les constructions et achats nouveaux représentent donc 12,6 % du total des logements anciens datant d'avant 1945 et 34,3 % des chambres. L'effort est donc sensible, sans être non plus considérable. En outre, la reprise des constructions après 1956 traduit surtout un essoufflement. Personnels et patrons voient des intérêts à la fois particuliers et communs à l'existence de ces politiques. Pour les premiers, il s'agit d'un avantage considérable à une époque où la France manque de logements : la « crise de logement » qui caractérise la première moitié du XXe siècle2 a été encore aggravée par les destructions de la guerre. Or à une époque où la voiture est loin d'être généralisée, la proximité du lieu de travail et de logement est importante3. Cela a des conséquences sur le temps et les coûts de transport, la fatigue. Les logements des hauts-fourneaux sont inégalement commodes. Par exemple, ils possèdent pour plusieurs d'entre eux de l'eau à l'extérieur. Ils ont cependant l'électricité – en courant continu de 110 volts –, ce qui est néanmoins apprécié4. Le coût de leur location est faible5. Par exemple, en décembre 1956 pour un employé, il s'élevait à 846 francs, soit 1,7 % de son salaire brut sans les primes6. Les maisons ouvrières possèdent toutes un petit jardin où on peut aussi mettre des cages à lapin afin d'améliorer l'ordinaire : même si le temps des ouvriers-paysans est terminé, les ouvriers ont encore bien souvent des pratiques héritées de leurs familles paysannes7. Les dirigeants de l'entreprise ont plusieurs avantages à prendre en charge le logement de leurs personnels. Il y a certes la nécessité de fixer celui-ci. Ils organisent également le cadre de vie de leurs salariés selon des règles hiérarchiques qui correspondent à leur propre vision de l'ordre social, de la villa de l'ingénieur au cantonnement des ouvriers étrangers. Il s'agit alors de transmettre ses valeurs, de créer 1 Ce total est confirmé par une note manuscrite de 20/07/1964, ADI, 56J35, relevés des propriétés. LEQUIN Yves, « Les citadins et leur vie quotidienne », dans AGULHON Maurice (dir.), op. cit., p. 344-346. CHESNAIS Jean-Claude, « Les hommes et l'économie : la croissance et les changements structurels », dans DUPÂQUIER Jacques (dir.), op. cit., p. 370-371. 3 Témoignages Georges Charrier et Fernand Abel le 15/3/2000, Georges Charrier et Mohamed Safer le 22/04/2000, Janine Bouillet entretien du 24/2/2012. 4 COMTE Marie-Hélène et GONOD Nathalie, L'éternel arménien, , op. cit., p. 20. 5 Tous, hommes comme femmes ont affirmé cela : Georges et Marie-Louise Charrier, Fernand Abel, Mohamed Safer, Janine Bouillet, Simone Arcondara, Christiane et Gérard Pastorino, Andrée Jobert. 6 Il s'agit du salaire d'un infirmier : source Georges Charrier. 7 Par exemple, le témoignage de Georges Charrier dont le père cheminot a repris une vigne à sa retraite. Lui-même a toujours tenu son jardin, a élevé des lapins et même des pigeons. 2 251 de l'adhésion autour d'elles. Pour autant, tous les avantages ne sont pas univoques. Le confort qu'ils leur assurent dans la vie quotidienne motive : ils peuvent en espérer de la reconnaissance et de l'engagement dans le travail1. La possibilité de disposer de l'électricité dans les logements est sources de fierté quand le reste du village est loin de disposer de cette ressource moderne2. Le logement est un avantage en nature en échange duquel on peut marchander la modération des salaires 3. La possibilité de changer de logement en améliorant sa position dans les hiérarchies sociales symboliques de la commune – par exemple en passant du cantonnement à un logement ouvrier, d'un logement ouvrier à celui d'un agent de maîtrise – permettent de s'attacher la fidélité des personnels : un tel espoir ne peut être satisfait que si on dure dans l'usine. Inversement, la perte de l'emploi entraine celle du logement : c'est un moyen de pression supplémentaire sur des travailleurs pour qu'ils adhèrent à l'ordre patronal et usinier. Toutefois, la loi de 1953 entrainant la création du 1 % logement qui oblige les entreprises françaises à investir dans ce domaine4 est à l'origine d'une évolution des politiques des entreprises. Les effets à Chasse ne s'en font ressentir qu'à partir de 1956 : alors que l'entreprise achève son plan de construction lancé en 1946, elle retient seize logements dans les futurs HLM construits par la mairie5. Les pratiques de contrôle de la main d'oeuvre par le logement n'ont donc pas été renouvelées jusqu'à cette date. Enfin, les HFC ont participé à différentes construction monumentales dans le village. Elles contribuent à maintenir leur image à travers le temps, de même qu'à marquer un territoire de leur empreinte. Il y a tout d'abord l'église achevée en 1896 avec des fonds des HFC6. Il y a aussi le monument aux morts de la commune7 ou la tombe monumentale de son premier directeur François Mercier8. Ces monuments 1 On le retrouve cette reconnaissance à travers les témoignages : Georges Charrier, Fernand Abel, Mohamed Safer, Janine Bouillet, Simone Arcondara, Christiane et Gérard Pastorino, Andrée Jobert. 2 Source : idem. 3 Cela est par exemple clairement évoqué à la séance du conseil d'administration du 2 mars 1950, source : ADI, 56J12. 4 FROUARD Hélène, « Aux origines du 1 % logement : histoire d'un compromis républicain », Revue française des affaires sociales, 2005/3, n° 3, p. 55-76. 5 ADI, 56J12, conseil d'administration du 30 octobre 1956. 6 ADI, 56J6, conseil d'administration du 22 juillet 1896. 7 Transmis par BOUILLET Janine, Chasse-sur-Rhône 1914-1918. À la mémoire des militaires décédés, Centre généalogique de Vienne et de la vallée du Rhône, janvier 2016, 67 p., p. 67. Le terrain a été donné à la commune par les HFC, le monument a coûté 17 000 francs dont 5 155 proviennent d'une souscription. Il a été inauguré le 16 octobre 1921. Et aussi dans BOUILLET Janine, Racines et réalités de Chasse-sur-Rhône, op. cit., p. 69. En revanche selon Christine Fond, le terrain a bien été donné par la commune, mais le monument n'a été érigé qu'en 1932 : dans FOND Christine, Chasse-sur-Rhône au fil de l'eau, op. cit., p. 67. 8 ADI, 56J6, conseil d'administration du 13 mai 1899. 252 renvoient aux sentiments religieux et au nationalisme que l'on veut faire partager aux populations. Mais d'autres réalisations concernent le temps libre, le sport, les fêtes. Il y a par exemple la salle des fêtes construite à côté de l'église en 19281 et loué par l'Association d'éducation populaire de Chasse dont le président est le curé de la paroisse2. Ou on a encore le stade football construit au début des années 19203. Ces réalisations – et d'autres encore – ont pour objectif d'encadrer le temps libre des travailleurs et de leurs familles. c) Encadrer le temps libre des salariés et de leurs familles Évoquant le développement du paternalisme à la fin du XIXe siècle afin de lutter contre la vague de grèves qui caractérise l'époque, Gérard Noiriel indique la multiplication des évènements et des réjouissances au bénéfice de l'usine, « comme si la totalité du temps et de l'espace devait être utilisé par elle »4. L'observation de « l'urbanistique patronale » permet de vérifier cette volonté de contrôle de l'espace, tout en observant des limites liées à l'existence d'un bassin industriel dans lequel les HFC ne sont pas les seuls acteurs. Il en est de même pour la gestion du temps ; car malgré une volonté de contrôle exercé par diverses institutions liées à l'entreprise, ses dirigeants doivent composer avec d'autres acteurs, dont en premier lieu leurs personnels5. 1 BOUILLET Janine, Racines et réalités de Chasse-sur-Rhône, op. cit., p. 114. ADI, 56J38. 3 BELON Pascal, Carnets de Chasse de A à Z, op. cit., p. 37. 4 NOIRIEL Gérard, « Du "patronage" au "paternalisme" », op.cit., page 34. 5 Ayant critiqué une lecture trop « foucaldienne » les historiens insistent aujourd'hui sur l'autonomie du monde du travail : dans GACON Stéphane et JARRIGE François, « Les trois âges du paternalisme », op. cit., p. 29. 2 253 Document 8 : Concours de belote du CE du 22 décembre 19621 Comme dans une famille, les repas en communs, cérémonies de remise de médaille du travail ou de départ en retraite, concours de belote, etc. ponctuent régulièrement la vie des travailleurs des HFC 2. D'autres évènements sont autant de possibilités de retrouvailles en dehors du travail : départs à Saint-Hilaire-Cusson-laValmite3 dans une colonie de vacance appartenant à l'entreprise par exemple, ou encore des rencontres sportives. Ils sont organisés par les dirigeants de l'entreprise, les membres de ses institutions ou encore les associations qui en dépendent. Dans le premier cas, la famille de Pierre Cholat est présente et donne l'exemple ; « madame Cholat » et sa nièce en particulier. Cette dernière a par exemple rénové la salle de ping-pong du « Cercle » (l'association de l'usine chargée de gérer le temps libre des travailleurs et de leurs familles)4, en peignant de grandes fresques5. Ou encore en 1956, elle et sa tante participent aux cérémonies de mise à feu du haut-fourneau n° 3. 1 Source : Michel Paret. On peut regretter de ne pas avoir de photographies plus anciennes sur de tels évènements, mais ils avaient bien lieu également avant 1956. On peut noter la diversité des participants : français et étrangers, ouvriers et agents de maîtrise. 2 Éric Combaluzier et Michel Paret m'ont transmis différentes photographies de ces évènements. 3 BOUILLET Janine, Racines et réalités de Chasse-sur-Rhône, op. cit., p. 117 ; ADI , 56J12 conseils d'administration des 11 mai 1950 et 19 juillet 1951. 4 Janine Bouillet, correspondance. 5 BOUILLET Janine, Racines et réalités de Chasse-sur-Rhône, op. cit., p. 113. 254 Elles en sont les « marraines », tandis qu'Albert Denis – le directeur de la sidérurgie de l'époque – en est le « parrain »1. Les institutions de l'entreprises sont plus ou moins dépendantes des dirigeants : l'association de secours mutuel est cogérée par le patronat et les salariés 2, tandis que le comité d'entreprise n'est composé que de salariés. Ce dernier est cependant régulièrement en contact avec la direction de l'usine et les administrateurs de l'entreprise. Les deux institutions participent à transformer partiellement l'espace usinier en un lieu de vie ; avec l'accord et le contrôle bienveillant de sa direction. Le CE organise différents évènements, notamment dans la salle des fêtes construite par les HFC à côté de l'église, ou dans celle de la cantine à l'intérieur de l'usine. La Société de secours mutuel3 apporte des revenus complémentaires lors de congés maladies ou de départ en retraite. Il existe aussi une prime de naissance et une autre de mariage. Les cahiers de la mutuelle d'entreprise sont gérés dans ses locaux, à l'infirmerie de l'usine. Les familles ont un accès contrôlé à ce lieu : par exemple, lorsqu'un enfant se faisait une écorchure en jouant, il est courant qu'il aille se faire soigner à l'infirmerie qui se trouve dans l'usine4. L'accès aux douches de l'usine est aussi faiblement payant 5, alors que les maisons ne disposent généralement pas de ce confort. De plus, différentes institutions gérées par le personnel sous l'autorité bienveillante des dirigeants contribuent elles aussi à l'animation et la gestion de la vie pendant et en dehors du travail : il s'agit de la coopérative, de la cantine, du « Cercle », des associations sportives. La coopérative est née d'une initiative du comité d'entreprise encouragée en partie par les dirigeants des HFC 6. Ces derniers préfèrent en effet une extension de la coopérative qui existe à Givors plutôt qu'une nouvelle ne soit créée à Chasse. Elle obtiendrait une autorisation d'abattage du bétail ce qui est censé entrainer « une diminution importante du prix de la viande ». Cela provoque alors la mobilisation des 1 Bibliothèque municipale de Lyon, Le Progrès n°33 665 du lundi 14 mai 1956, p. 12. Source : composition du conseil d'administration de 1937, statuts de 1938, documents fournis par Éric Combaluzier. 3 Ses comptes sont conservés de janvier 1949 à décembre 1958, AMC, 1H3. Le contrat a été renouvelé en mars 1958 et prolongé jusqu'à sa dénonciation en mars 1966, ADI, 56J58. 4 Témoignages Fernand Abel le 15/03/2000 et Gérard Pastorino le 06/01/2015. 5 Témoignage Fernand Abel le 15/03/2000 et BOUILLET Janine, Racines et réalités de Chasse-surRhône, op. cit., p. 118. 6 ADI, 56J12, conseil d'administration du 14 octobre 1949. 2 255 commerçants de Chasse1 qui protestent – en plus de la création d'un abattoir – contre la commercialisation des produits suivants : « horlogerie, mercerie-chaussure, habillement sur mesure, conserve, charcuterie "produits fabriqués", poissonnerie et alimentation, boucherie ». Tous les commerces sont concernés par le fonctionnement de cette coopérative qui entrainerait une baisse importante de leur chiffre d'affaire ; certains d'entre eux étant d'ailleurs situés directement en face de la sortie des HFC, sur le chemin de retour des travailleurs. En revanche les salariés peuvent trouver là une augmentation de leur pouvoir d'achat, quand les dirigeants des HFC – qui peuvent craindre la création d'une coopérative gérée par leurs salariés – peuvent aussi voir d'un bon oeil la création d'une structure qui affaiblit la pression sur les revendications salariales, à une époque où ces dernières sont justement très fortes2. Sous la pression des commerçants qui les menacent de poursuites en justice, Pierre Cholat prend la décision d'arrêter la vente d'objets et de produits de consommation en dehors de la viande et des pommes de terre de cet « économat »3. Néanmoins, les commerçants ne lâchent pas aussi facilement leur proie et obtiennent gain de cause par un jugement du tribunal correctionnel de Vienne du 7 mars 1951 : il ordonne la suppression du groupement d'achat créé illégalement créé, mais permet sa transformation en coopérative. Les dirigeants des HFC refusent, ce qui entraine la fermeture de l'abattoir et la disparition du projet de coopérative4. La cantine est aussi concernée par le jugement du 7 mars qui en autorise l'existence. Les HFC possèdent en effet une licence qui les autorise à vendre de l'alcool5. Gaston Durier en est le gérant. Avec sa femme, il y est employé dès 1917, puis il la dirige à partir de 19196. Cette famille est l'exemple type de celles qui ont marqué l'histoire des HFC par le grand nombre de leurs membres embauchés. Au décès de Gaston en 1949, sa femme prend la suite. Sa fille va la seconder : elle est présentée comme sans travail, mais sa fiche indique qu'elle a déjà travaillé deux ans dans les bureaux. À partir de 1955, elle est serveuse à la cantine ; poste qu'elle occupe jusqu'à la fermeture en 1966. Ses quatre frères travaillent tous aux HFC en 1949 : Adolphe est 1 Éric Combaluzier, pétition en date du 11 juin 1949, adressée à « Mr le maire », et signée par 32 commerçants chassères. 2 ADI, 56J12, séances du conseil d'administration des 8 juin 1948 et 30 mars, 25 mai, 14 octobre 1949 et 6 janvier, 2 mars, 11 mai, 19 juin, 22 août 1950. 3 ADI, 56J12, conseil d'administration du 22 août 1950. 4 Ibidem, conseil d'administration du 21 mars 1951. 5 ADI, 56J57, déclarations du 11 mars 1949 et du 22 juin 1956. 6 ADI, 56J36, baux. 256 employé dans les bureaux, Gaston devient cantinier à la place de son père, Marcel est aide-chimiste, René est tourneur. À partir des quatre-vingt-quatre chaises et huit bancs indiqués dans l'adjudication de 19491, on peut estimer à une centaine le nombre de places. Cela correspond aux 120 repas servis chaque jour d'après Janine Bouillet2. Le « Cercle » est une autre institution chargée du temps libre, en particulier des loisirs des salariés et de leurs familles. En obtenant la « carte de Cercle » on peut accéder à ses différents services, sans être nécessairement employé des HFC. Tous les témoins ont dit leur attachement à cette institution3. Chacun déclare y avoir trouvé un intérêt personnel : pour Jacques Bernet4 il s'agit de la table de billard, pour d'autres le ping pong, alors que pour Janine Bouillet5 c'est la bibliothèque. Dans cette dernière, on a des ouvrages divers allant de la littérature classique aux romans policiers, mais aussi des abonnements politiques, dont l'Humanité6. Le Cercle est aussi source de fierté, car il symbolise la modernité, et même la « culture »7 : on a tout d'abord projetés des films puisque l'achat d'un appareil de projection a été fait par la Compagnie 8, puis on l'équipe de l'un des premiers postes de télévision de Chasse9. Certains Chassèrent se rappellent du succès des journées de football. Le Cercle a un gérant appointé par les HFC. Il est aussi l'entraineur de l'équipe de football : c'est le cas de Daniel Delaunay10 à partir de 1946, puis de Charles Mathé11. Ce dernier a été embauché en août 1950. Il s'agit d'un ancien joueur de National 1 qui a joué au racing club de strasbourg. Puis il a fini sa carrière au Mans en 1949. Jeune retraité, il est à la fois entraineur et joueur à Chasse. Il contribue à l'accession de l'équipe des hauts-fourneaux en ligue du lyonnais : un sommet dans l'histoire du 1 Ibidem. BOUILLET Janine, Racines et réalité, op. cit., p. 116. 3 Témoignages de: Georges et Marie-Louise Charrier, Fernand Abel, Mohamed Safer, Janine Bouillet, Simone Arcondara, Christiane et Gérard Pastorino, Andrée Jobert, Jean Montoya, Jacques Bernet. 4 Jacques Bernet le 02/05/2017. 5 Janine Bouillet a conservé, précieusement, certains cahiers de la bibliothèque dans lesquels elle trouve les noms de ses connaissances des hauts-fourneaux. Par un sondage à la lettre B, sur 50 inscrits de 1957 à 1959, on a douze inscrits venant d'autres association et tous les autres travaillant aux HFC, à moins que ce ne soient un membre de leurs familles. Parmi eux, on a huit femmes (21,1 % de l'échantillon des HFC), quatre travaillant effectivement dans l'usine. Les Femmes et les employés sont surreprésentés, mais il y a aussi par exemple un ouvrier italien et un ouvrier thèque parmi les inscrits. 6 Témoignages Georges Charrier et Fernand Abel le 15/03/2000. 7 BOUILLET Janine, Racines et réalité, op. cit., p.114. 8 ADI, 56J12, conseil d'administration du 29 mai 1952. 9 BOUILLET Janine, Racines et réalité, op. cit., p. 114. Fernand Abel, Georges Charrier et Mohamed Safer, témoins déjà cités. 10 BOUILLET Janine, Racines et réalité, op. cit., p. 114. 11 AMC, fichier mécanographique. 2 257 Groupe Sportif Chasse Foot1, dont l'enthousiasme des victoires retombe en partie sur les dirigeants des HFC. Le club a été fondé en 1917. La Compagnie a d'abord mis à la disposition des joueurs du matériel : maillots, shorts, ballons, etc. Puis elle a investi dans un stade et des vestiaires, au début des années 1920 2. Après les bombardements de la guerre, elle reprend en charge la reconstruction du stade en 19483. Les joueurs sont sous les couleurs de l'entreprise, le vert et le blanc des HFC qui sont les couleurs de l'équipe de Saint-Étienne : cela rappelle le lien avec le prestigieux club stéphanois construit à côté des Aciéries de Saint-Étienne4. Avec le basket et l'athlétisme, les HFC favorisent les activités sportives des hommes et des garçons. En revanche pour les filles, ils font assurer depuis 1948 un « cours d'enseignement ménager » pour « tous les enfants du sexe féminin de la commune, que leurs parents travaillent ou non dans l'usine »5. On retrouve ici ce que dit Gérard Noiriel à propos du paternalisme qui cherche à transformer les épouses des travailleurs en « femmes d'ouvriers »6. 1948 est d'ailleurs le début de la période pendant laquelle les départs d'ouvrières s'enchainent alors qu'on ne les remplace plus. Ce cours attire trente à quarante élèves, mais il n'entraine pas la même passion ni n'a le même écho que les rencontres sportives. Les pratiques d'entreprise des HFC contribuent donc à construire les identités de ces jeunes filles, mais plus largement des travailleurs et de leurs familles. Elles créent un ordre dans un espace usinier qui s'étend au-delà des murs de l'usine, vers le village et les quartiers ouvriers. Elles tentent de légitimer sa propre existence ainsi que de légitimer le pouvoir de ses dirigeants. On retrouve leurs valeurs traditionnelles, religieuses, nationalistes et familiales ; en particulier celles de Pierre Cholat qui incarne ce pouvoir. Les postes de travail sont segmentés, les activités hiérarchisées, les parcours professionnels sont inégaux selon des règles qui reposent sur les nationalités et les sexes. On essaie de transmettre la légitimité de cette organisation de multiples manières : par des règlements, des revenus, ou encore lors de cérémonies. Les 1 « Chasse-sur-Rhône. Un peu d'histoire avant l'ouverture : l'après-guerre avait apporté une autre façon de concevoir le football », article fourni par Éric Combaluzier. Sans date, ni source, ni auteur ; il a vraisemblablement été rédigé en 1979. 2 BELON Pascal, Carnets de Chasse de A à Z, op. cit., p. 36-39. 3 ADI, 56J11, conseil d'administration du 27 octobre 1948. 4 L'« Association des amis du sport » à l'origine de l'ASSE avait comme membres fondateurs en 1931 des représentants des Aciéries, dans LUIRARD Monique, La région stéphanoise dans la guerre et dans la paix (1936-1951), op. cit., p. 65-66. 5 Courrier en date du 6 janvier 1958 adressé au maire par le directeur de l'usine Georges-Albert de Benoist, document fourni par Èric Combaluzier. 6 NOIRIEL Gérard, « Du "patronage" au paternalisme », op. cit., p. 32. 258 personnels participent et adhèrent inégalement à ce projet. Mais quelques soient leurs opinions et leurs pratiques, ils vivent tous autour de l'usine des HFC. 3) Appropriations, remises en cause et contestations collectives des pratiques d'entreprise L'adhésion assure moins que la contestation des traces repérables pour l'historien : on manifeste généralement son mécontentement, beaucoup plus rarement son enthousiasme. De plus, on doit distinguer les discours des pratiques, dégager les différents degrés d'attitudes qui vont de l'acceptation à l'opposition. Elles ne sont également pas univoques, elles évoluent dans le temps. En revanche, il faut les comprendre dans le cadre d'interrelations avec les autres personnels de l'entreprise et de ses dirigeants. Pour toute ces raisons, cette étude ne saurait viser à l'exhaustivité tant elle est complexe : elle portera seulement sur des éléments permettant de caractériser l'appropriation, la remise en cause et la question des pratiques d'entreprise. Dans ce dernier cas, il convient de relier les contestations collectives à la conjoncture1, car cette opposition dépasse le cadre de la seule usine. a) Une appropriation inégale des pratiques d'entreprise Si les pratiques paternalistes s'adressent de manière inégale aux salariés en ciblant les plus qualifiés, elles sont aussi reçues de manière inégale en fonction de la durée d'embauche, des conditions dans lesquelles elle s'est effectuée, de la position dans la classification, de la trajectoire professionnelle effectuée, de l'âge, du sexe et de la nationalité, etc Il ne reste rien des centaines de travailleurs étrangers passés par l'usine pour des périodes plus ou moins courtes. Rien non plus des dizaines d'ouvriers français peu qualifiés qui ont eux aussi été de passage. En revanche l'attachement aux HFC est encore très présent parmi les personnels qui sont restés à Chasse après la fermeture de l'usine. Les témoins forment donc 1 SIROT Stéphane, La grève en France. Une histoire sociale (XIXe-XXe siècle), Odile Jacob, Paris, 2002, 306 p., p. 41. 259 involontairement un panel d'anciens salariés qui regrettent « le bon temps » des HautsFourneaux de Chasse. Tous1 évoquent avec une certaine fierté les dimensions de l'usine et le nombre de ses salariés, sont reconnaissants pour les salaires et l'emploi donné pour soi-même ou pour des proches. Ils ont apprécié Cercle, et divers services fournis par l'entreprise : pour le logement, les soins à l'infirmerie, la mutuelle, etc. Mais il peut aussi y avoir des variations parmi les témoignages. Chez les femmes, les solidarités entre voisines ou la sympathie des commerçants ressortent souvent2. Les hommes parlent d'avantage du travail, de sa dureté, mais aussi de la fierté qu'ils peuvent en tirer. Cela peut concerner le stoïcisme face au risque : on peut citer l'exemple de Fernand Abel faisant toucher la bille de fonte soudée à l'os de son bras3. Il peut y avoir encore le parcours professionnel effectué4, ou le savoir-faire des ouvriers et ingénieurs5. Il y a aussi toutes les solidarités présentes dans l'usine. Là encore, les hommes sont plus loquaces à ce sujet que les femmes. Il y a tout d'abord ses amitiés entre collègues de travail, les efforts et les risques partagés, le soutien reçu après un coup dur, la protection d'un aîné. Georges Charrier parle par exemple de Charles Jounay, « un ouvrier professionnel de haute qualité » qu'il a « secondé » pendant un an lors de sa formation dans l'usine6. Charles Jounay est cependant plus qu'un simple ajusteur embauché avant guerre à l'entretien. Né en 1907 à Chasse, il débute sa carrière aux HFC en 1922 où il travaille jusqu'en 1926, puis après quelques années il revient définitivement dans l'usine en 1930. Il finit son parcours comme chef d'atelier à l'entretien avec le statut de cadre7. Il a été également délégué de la société de secours mutuel de l'entreprise, membre du CE et administrateur des HFC en mars 19668. Charles Jounay est donc une personnalité à l'intérieur de l'usine et même du village. Rappeler son amitié, c'est donc faire bien plus qu'indiquer de l'estime ou témoigner de la reconnaissance pour son aide en début de carrière. 1 Si on se réfère aux témoins qui ont répondu à une interview, car par téléphone ou lors d'une simple rencontre, les matériaux recueillis sont nécessairement moins nombreux. 2 Témoignages de Marie-Louise Charrier le 15/03/2000, Janine Bouillet le 24/02/2012, Simone Arcondara le 11/03/2013, Christiane Pastorino le 06/01/2015. 3 Témoignages Georges Charrier et Fernand Abel le 15/03/2000. 4 Témoignages Georges Charrier et Mohamed Safer le 22/04/2000. 5 Témoignages Georges Charrier et Mohamed Safer le 22/04/2000, Jean Montoya le 20/05/2017. 6 Témoignage dactylographié de Georges Charrier. 7 AMC cahier du personnel français n° 10 et 11, listes des prud'hommes 1954 et 1960. 8 Sources pour Charles Jounay comme délégué de la société de secours mutuel : Éric Combaluzier, liste des délégués des sociétés approuvées et libres de la commune de Chasse-sur-Rhône, 12 février 1937 ; comme membre du CE : ADI, 56J12 ; comme administrateur : ADI, 56J13, conseil d'administration du 15 mars 1966. 260 Ces amitiés professionnelles fortes sont faites d'un double partage, celui du lieu de travail, celui d'un espace de vie ; l'un et de l'autre n'étant pas toujours facilement délimitables. À l'intérieur de l'usine, cela favorise une remise en cause des règlements et de l'autorité des dirigeants. Ainsi, la consommation d'alcool est fréquemment évoquée par les témoins. C'est le cas à l'extérieur de l'usine où les salariés prennent des verres de vin au café, dès le matin avant d'aller au travail. Elle est universellement partagée, mais elle est aussi un marqueur social : les ouvriers prennent du rouge alors que les chefs et les employés sont au blanc1. Mais le vin est consommé aussi à l'intérieur de l'usine. Or le règlement d'atelier est sans ambiguïté : l'article 18 indique qu'il est interdit d'« entrer dans les ateliers en état d'ivresse » et d'« introduire des boissons alcooliques ». Pourtant des bouteilles peuvent être cachées2, mais d'autres sont néanmoins bien visibles ; en particulier dans l'usine des hauts-fourneaux où elles sont conservées dans un tonneau d'eau fraiche3. Les travailleurs viennent donc régulièrement se désaltérer en buvant ce vin qui a certes un faible degré d'alcool, mais dont ils absorbent tout de même plusieurs litres par jour : une manière de « tenir le coup » selon certains, alors que le travail est physique et dangereux 4. Une autre raison est la volonté de démontrer leur force et leur virilité, les deux étant liées : la résistance à l'ivresse servant à le prouver. Ces deux ensembles de facteurs les amène à considérer le vin ou la gnole seulement comme des moyens de se désaltérer et de se donner du coeur à l'ouvrage5 : c'est une manière à la fois de relativiser et de justifier de tels excès. La consommation d'alcool entre collègues pendant le travail est donc une tolérance dans certains ateliers, certains travailleurs ayant même l'autorisation d'aller acheter des litres à l'extérieur de l'usine6. « Tout le monde b[oit], même les musulmans » d'après Fernand Abel7 : si on met à part le fait que tous les musulmans ne font pas nécessairement abstinence au niveau de l'alcool, cela traduit néanmoins le fait que le partage des bouteilles rassemble tous les travailleurs, au-delà de leurs origines et de leur poste de travail. La consommation d'alcool se poursuit après la journée de travail : au café, au Cercle, lors des repas ou après les cérémonies organisées. Elle est un fait 1 Conférence du 20 mai 2016 dans le cadre de Patri/malle « à feu perdu » à Chasse-sur-Rhône. Témoignage Georges Charrier le 22/04/2000. 3 Témoignage Mohamed Safer le 22/04/2000. 4 Conférence du 20 mai 2016 dans le cadre de Patri/malle « à feu perdu » à Chasse-sur-Rhône. 5 Témoignages de Georges Charrier et Fernand Abel le 15/03/2000, Georges Charrier et Mohamed Safer le 22/04/2000. 6 Témoignages Georges Charrier et Mohamed Safer le 22/04/2000, Gérard et Christiane Pastorino le 06/01/2015. 7 Témoignage Georges Charrier et Fernand Abel le 15/03/2000. 2 261 culturel majeur qui a laissé des traces jusque dans la mémoire commune contemporaine : les descendants de ces travailleurs se demandant comment on pouvait boire autant. Ce qui est surprenant, c'est surtout comment il y a eu si peu de renvois pour alcoolisme. Par exemple pour l'année 1956, il y a un seul ouvrier italien ; mais il n'y a rien pour les deux années qui précèdent1. Les comportements fondés sur l'amitié et les solidarités au travail concernent bien d'autres faits, par ailleurs plus ou moins répréhensibles eux aussi : il y a les flâneries, le pointage d'un collègue, les vols et la perruque. Les vols les plus fréquents semblent avoir porté sur le charbon qui servait dans les poêles des habitations : or au moins jusqu'à la fin des années 1940 les pénuries sont durement ressenties, mais on a des distributions « pour les nécessiteux » de la part de la mairie jusqu'à la fin des années 19502. La perruque est surtout pratiquée à la fonderie où l'on peut fabriquer toutes sortes de petits objets du quotidien : objets utilitaires comme des cendriers ou des ustensiles, objets décoratifs, objets de plus grande taille comme des moules à gaufre3. La palme revient sans doute à cet ouvrier qui a réussi à faire entrer son poêle à charbon dans l'usine pour le faire réparer par ses collègues4. Les gardes ne se seraient aperçus de rien. Néanmoins, quelques soient ces faits, ils demandent des solidarités entre collègues, mais aussi entre ouvriers et chefs. L'ancienneté dans l'usine favorise de telles solidarités. Cela traduit bien une appropriation de l'usine, expression qui est parfois à prendre au premier degré. b) Les remises en cause des pratiques patronales Remettre en cause les pratiques patronales et l'ordre usinier peut prendre des formes multiples : cela peut être plus ou moins volontaire, effectué individuellement ou collectivement, etc. En apparence, la présence de gardes armés, de pointeaux, de règlement assurent le respect de cet ordre, tandis que les pratiques visant à stabiliser la main d'oeuvre, à organiser le travail et à créer de l'assentiment sont déployées. Pourtant l'appropriation même des lieux et du travail par les salariés – qui est pourtant un but 1 AMC, cahiers du personnel français n°10 et cahier du personnel étranger n° 15. AMC, 1B3, délibérations du conseil municipal, conseil du 27 décembre 1958. 3 Témoignages Georges Charrier et Mohamed Safer le 22/04/2000. 4 Ibidem. 2 262 recherché par les dirigeants – provoque les germes du désordre par un réinvestissement personnel aux conséquences diverses : vols, perruque, flânerie, etc. On peut distinguer les modalités de la gestion de ces pratiques1 de la finalité de leur exercice. La gestion des relations ouvriers-patron suit en effet trois logiques en s'appuyant sur la figure de Pierre Cholat et l'implication de sa famille, sur l'Église, et sur un traitement inégal mais en apparence moral des travailleurs (en particulier des jeunes, des femmes, ou des étrangers). D'après André Gueslin, « Le paternalisme suppose [] la présence physique du patron qui noue des relations interpersonnelles avec ses ouvriers et qui reste le centre de l'entreprise »2. Document 9 : Inauguration du haut-fourneau n° 3 en 19563 De fait, Pierre Cholat incarne parfaitement ce rôle du patron au sens étymologique du terme. Il est assez souvent présent dans l'usine, où il arrive conduit par « Pierre » son chauffeur en tenue. Dans les bureaux, les personnels féminins sont en 1 Cf. ci-dessus 2) Permanences et évolutions des pratiques d'entreprise GUESLIN André, « Le paternalisme revisité en Europe occidentale , op. cit., p. 202. 3 Source : Michel Paret. 2 263 « effervescence »1 quand les rapports avec le personnel masculin des ateliers est plutôt fait de bonhomie comme en témoigne la photographie ci-dessous. Pierre Cholat (au centre) pose avec sa secrétaire Andrée Rostaing. Autour de lui des ouvriers, notamment algériens (Dilmi Bencheick est présent au dessus de lui). Seuls les cadres portent des costumes : à la droite d'Andrée Rostaing on a Charles Réveil et le second à la gauche de Pierre Cholat est Paul Chauzat, tous deux ingénieurs des hauts-fourneaux. Pour son personnel, Pierre Cholat est « un véritable maître de forge ». Un titre qui lui apporte de la respectabilité. Pourtant Pierre Cholat n'a pas de formation technique et c'est son frère Lucien, puis son neveu Georges-Albert de Benoist qui ont réellement de telles compétences. La famille a donc toute sa place dans l'usine à travers ses cadres dirigeants, mais aussi dans l'entreprise : Joseph Cholat, le jeune frère de Pierre est administrateur. Les frères Cholat sont la seconde génération de représentants d'une dynastie dont Charles est le fondateur. Les liens avec les Aciéries de SaintÉtienne sont très présents et les couleurs de l'équipe de football servent à les rappeler. La famille compte d'ailleurs un autre membre parmi les anciens dirigeants : Léon Poidebard, un oncle de Pierre. Enfin, les femmes – « madame Cholat » ou sa nièce – sont présentes comme on l'a vu lors des cérémonies ou pour des oeuvres caritatives. Pierre Cholat est également un patron catholique. L'engagement religieux de la famille est connu et revendiqué comme le prouvent la participation au financement de la nouvelle église au XIXe siècle, ou plus récemment après la Seconde Guerre mondiale la location de la salle des fêtes de l'entreprise à l'association d'éducation populaire du « curé » Aimé Charlot. Si la famille des fondateurs est maîtresse de l'usine, en revanche l'enseignement des enfants et l'édification des adultes sont confiés à l'Église. Comme dans bien des endroits, les cadres vont souvent à la messe et jouent un rôle actif au niveau des oeuvres2. Leurs enfants sont inscrits dans les écoles privées catholiques de Givors3. Il se dit aussi que l'embauche des femmes passe par l'accord du curé4, mais pas celle des hommes. Une discrimination sexuée que l'on retrouve donc dans l'attitude des 1 BOUILLET Janine, Racines et réalité, op. cit., p. 112. Voir par exemple à ce sujet pour Casino, ZANCARINI-FOURNEL Michelle, « Casino-Saint-Étienne, une entreprise à main d'oeuvre stabilisée (1898-1960) », Bulletin du Centre Pierre Léon, n° 2-3, 1994, p. 65-77, p. 71. Source pour les HFC : conférence du 17 mai 2016 dans le cadre de Patri/malle « à feu perdu » à Chasse-sur-Rhône. 3 Ibidem. 4 Témoignages Simone Arcondara le 11/03/2013, confirmé par Janine Bouillet et par Gérard et Christiane Pastorino le 06/01/2015. 2 264 dirigeants de l'entreprise et de l'Église, et plus généralement dans la gestion des personnels. L'attitude des dirigeants des HFC au moment d'une situation de crise permet de voir quels sont les travailleurs protégés dans l'usine et ceux dont on cherche à se séparer. Selon Joseph Cholat, il faut : « tendre à rechercher l'application du plein emploi pour le personnel qu'il reste possible d'occuper et que, pour sauvegarder le travail du plus grand nombre et notamment du personnel ancien autre que les ouvriers âgés, il est nécessaire de mettre des ouvriers âgés à la retraite et de licencier des célibataires ou mariés sans enfants parmi les derniers embauchés, il présente des indications sur les dispositions appliquées par d'autres usines régionales »1. Cette politique privilégie les hommes d'âge mûr, mariés, ayant des enfants ; ajoutons qu'ils doivent être de nationalité française. Que l'un de ces critères ne soient pas remplis – âge, sexe, nationalité – et l'on descend dans l'échelle des valeurs de l'usine. Cela est particulièrement manifeste dans la gestion de la contestation de son organisation et de ses règles. On peut étudier cela à travers deux ensembles d'exemples, en comparant les politiques menées avec les hommes puis avec les femmes. L'attitude des ouvriers est souvent faite de prise de risque et d'engagement. On peut aussi estimer que l'alcool absorbé quotidiennement par la plupart d'entre eux a une influence sur les comportements. Pourtant, même lorsque les écarts de langage et de pratiques sont constatés, rares sont les mesures de sanction. Il y a par exemple l'anecdote connue de cet ouvrier présent sur ses heures de travail chez le coiffeur, en même temps que le directeur de l'usine2. Il s'est donc nécessairement « fait pointer », c'est-à-dire qu'un de ses camarades a pointé sa fiche pour lui. Il propose au directeur de lui céder sa place, mais ce dernier refuse : une preuve de déférence pour le premier qui fait profil bas, une manière de le renvoyer le plus vite possible à son travail pour le second, mais sans le sanctionner. Plus graves, des témoins évoquent des altercations, avec des menaces physiques. Saturno Colangeli nous a expliqué qu'après une dispute avec un chef d'équipe, ce dernier a refusé de monter en haut du fourneau de peur d'être jeté à l'intérieur de celui-ci3. Une révolte spontanée est aussi possible, telle cette 1 ADI, 56J12, conseil d'administration du 29 mai 1953. Source : divers témoins, dont des petits enfants de travailleurs (Pascal Lopez par exemple). Gérard et Christiane Pastorino rapportent que cela s'est passé « chez Totor », Victor Ribeiro, qui tenait un salon de coiffure proche de l'entrée des hauts-fourneaux : témoignage du 06/01/2015. 3 Témoin rencontré le 17 mai 2016. Il s'exprimait alors devant plusieurs participants de la conférence. 2 265 véritable mutinerie intervenue à une date inconnue après la Seconde Guerre mondiale. Alors que l'alcool est interdit par le règlement intérieur, il est couramment consommé par les ouvriers des hauts-fourneaux exposés à de fortes températures de travail. Or comme les bouteilles de vin viennent à manquer et qu'un nouveau pointeau s'oppose à ce qu'un ouvrier aille en acheter pour ses camarades1, ces derniers se mettent immédiatement en grève. Un ingénieur s'apercevant que le haut-fourneau fume anormalement se précipite dans l'atelier, pensant à une mauvaise marche de l'appareil. Informé de la situation, il autorise un ouvrier à aller acheter du vin et sermonne le pointeau. D'après le témoin2 rapportant cet incident – il s'agit d'un ancien contremaître des hauts-fourneaux – les ouvriers auraient attendu le retour de leur camarade avec ses achats avant de reprendre leur travail. Aucun n'aurait été sanctionné. Les anciens travailleurs auquel cette anecdote a été rapportée ont tous réagi de la même façon, homme comme femme, en ayant une certaine sympathie pour les grévistes et en disant que c'était comme cela au temps des hauts-fourneaux. Pourtant les infractions à constater sont multiples : consommation d'alcool sur le lieu de travail dans un atelier à risque, non respect du règlement intérieur, mise en danger du matériel et des travailleurs de l'usine. L'attitude des femmes travaillant aux HFC n'est en apparence pas critique, ni elle ne conteste l'ensemble de l'ordre usinier comme celle des hommes. Pourtant, leurs trajectoires professionnelles ascendantes peuvent être autant de remise en cause de la position subalterne qu'on veut leur assigner, mais on les maintient constamment sous l'autorité des hommes. Or les politiques suivies ont une même logique qui est contraire à la manière de gérer les garçons : on a de la mansuétude pour eux, mais une attitude stricte pour elles3. 1 Gérard et Christiane Pastorino se rappellent qu'un ouvrier nommé Martinez achetait du vin pour l'équipe chez « madame Serre », dans une épicerie proche de l'entrée de l'usine. Témoignage du 06/01/2015. 2 Témoignage Mohamed Safer le 22/04/2000. 3 Olivier Schwartz décrit ce qu'il appelle l'« imprenabilité » du masculin dans les sociétés ouvrières qui freinent l'entrée des femmes dans la compétition avec les hommes, dans SCHWARTZ Olivier, Le monde privé des ouvriers. Hommes et femmes du Nord , PUF, Paris, 2002, 531 p., p. 207 sqq. 266 c) Les dirigeants face aux syndicats Même si elles créent des inégalités, les pratiques patronales ont pour objectif l'établissement d'un consensus afin de mener leur entreprise. Ils rencontrent d'ailleurs un certain succès en faisant adhérer à leur projet une partie du personnel dont l'attachement ne s'est pas démenti depuis. Il y a cependant une différence entre le discours et les pratiques. De plus, ce sont les syndicats de salariés qui offrent un débouché à des formes de contestation plus organisées et plus collectives. Or les mêmes salariés qui ont témoigné de leur attachement à l'entreprise ont pu également participer à des grèves. La contestation aux HFC pendant cette période porte surtout sur les revenus des salariés, mais elle est un écho de ce qui se passe à l'échelle régionale. En effet, en raison à la présence croissante du parti communiste et de la CGT, la contestation trouve des appuis en dehors de l'usine. Certaines figures locales sont des porte paroles reconnus. Après les grèves régionales de 1947 auxquelles l'usine de Chasse a participé, celles de 1948 qui touchent la Loire1 épargnent Chasse, ce dont se félicitent les dirigeants, car leur « personnel a su se tenir à l'écart de des agitations voisines »2. Il faut dire que d'après Monique Luirard, ce qui caractérise les grèves 1948 – par rapport à celles de 1947 – est qu'elles sont surtout dirigées par la CGT 3, or comme l'indiquent l'origine des représentants du CE4, ce syndicat est encore peu présent à Chasse. Puis plusieurs années passent encore sans évènement particulier : elles sont marquées par une croissance des effectifs et un développement des pratiques sociales de l'entreprise, dans un contexte national où les réformes de l'après guerre portent leurs fruits. En revanche, le parti communiste s'implante dans la ville voisine avec l'élection de Camille Vallin comme conseiller municipal communiste 5. Or plusieurs travailleurs des HFC sont membres de la CGT comme raymond Roux, son beau-frère Roman Scudlich, Jean Escanès, etc. La présence de ces figures connues montre le renforcement de la CGT dans l'usine. 1 LUIRARD Monique, La région stéphanoise , op. cit., p. 736 sqq. ADI, 56J22, compte-rendu du CA à l'AG du 28 juin 1949. 3 LUIRARD Monique, La région stéphanoise , op. cit., p. 737. 4 Les noms sont indiqués sur les PV des conseils d'administration, ADI, 56J12. 5 AMG, 1D27. 2 267 Parmi les figures du syndicalisme des HFC – Charles Jounay et Gaston Riffard pour la CGT-FO et Jean Escanès pour la CGT ont déjà été présentés – Raymond Roux1 est l'un de ceux qui a le plus marqué l'usine. Né en 1922, il a onze ans de moins que Jean Escanès, quinze de moins que Charles Jounay, mais il est de la même génération que Gaston Riffard né en 1921. Raymond Roux travaille aux HFC depuis avril 1940. Pendant la guerre il est passé par les chantiers de jeunesse. Il est tout d'abord embauché comme noyauteur à la fonderie. Puis il devient maçon en août 1951, après les grèves qu'il a organisées. Il le demeure en 1960 en étant simple manoeuvre. Sa situation ne s'améliore qu'en février 1961 lorsqu'il devient OP1, quittant la maçonnerie pour le matériel, après dix ans de traversée du désert. Comme pour Jean Escanès, il semble bien que leurs carrières ont été bloquées pour des raisons disciplinaires. La période suivante de contestation est l'année 1951 : deux grèves se déroulent alors, l'une en avril et l'autre en juillet2. La première grève dure du 7 au 10 avril3. Des négociations ont eu lieu à Lyon entre les représentants du patronat régional et ceux de la CGT et de la CGT-FO. Un accord est conclu le 30 mars et doit s'appliquer à Chasse. Mais profitant d'un contexte qui leur est favorable – les HFC doivent allumer un second haut-fourneau –, les travailleurs chassères déclenchent une grève et obtiennent une surprime de production. La grève suivante est menée du 12 au 25 juillet4. Des négociations précèdent la grève, mais au niveau local cette fois-ci : comme l'indique Stéphane Sirot, au troisième âge de la grève ces pratiques se banalisent5. Un cahier de revendications réclame « une hausse des salaires de 10 %, la suppression de l'abattement de zone, une échelle mobile, un relèvement de la gratification exceptionnelle et une prime de départ en vacances ». Tavernier, le directeur de l'usine avance des arguments que l'on peut regrouper selon trois registres différents. Il y a tout d'abord l'appel à la raison des salariés : l'accumulation de ces demandes les rendrait irréalisables. Ensuite on cherche à les culpabiliser car l'entreprise aurait déjà beaucoup fait, répondant à leurs désirs : les accords de Lyon du 30 mars ont été d'après lui appliqués de manière anticipée à Chasse le 15. De plus, les travailleurs ont obtenu le 10 avril des surprimes de productivité. Enfin, on renvoie à plus tard les négociations : il faut attendre les dispositions gouvernementales prévues le 1 er septembre. Il est faible de 1 Sources biographiques : AMC, fichier mécanographique du personnel et cahiers du personnel français n° 10 et n° 11, liste des prud'hommes 1960. 2 ADI, 56J22, rapport du CA à l'AG du 15 mars 1952 3 Source pour le récit de cette grève : ADI, 56J12, conseil d'administration du 16 mai 1951. 4 Source pour le récit de cette grève : ADI, 56J12, conseils d'administration des 19 juillet et 23 août 1951. 5 SIROT Stéphane, La grève en France, op. cit., p. 215. 268 dire que cette fin de non recevoir polie a provoqué un fort mécontentement : le 12 juillet vers 22 heures les hauts-fourneaux sont arrêtés, sans que des mesures ne soient prises pour les rallumer. Même les services de déchargement fonctionnent au ralenti. Tavernier menace alors les ouvriers en indiquant que la remise en route des hautsfourneaux ne pourra qu'être progressive, ce qui sous-entend qu'il peut y avoir des licenciements. Mais ceux-ci ne s'en laissent pas compter et tiennent dans la durée. Pierre Cholat est alors contraint à la négociation, ce qu'il fait dans un premier temps en recevant les représentants CGT de l'usine, de Givors, de Lyon et de Saint-Étienne dans les bureaux de son aciérie stéphanoise. Puis cette tentative de dépaysement ayant échoué, les négociations finales ont lieu à Vienne, en sous préfecture. La CGT qui a mené cette grève l'a perdu, car Pierre Cholat ne cède en rien sur les revendications salariales. En revanche les deux hauts-fourneaux sont rallumés rapidement ce qui permet l'embauche d'un nombre comparable de travailleurs1. En même temps, il ne peut en être autrement puisqu'une marche à deux hauts-fourneaux avait déjà été décidée et organisée. De plus, les membres de la CGT sont bien souvent des travailleurs qualifiés, donc difficiles à licencier alors que cette main d'oeuvre est recherchée. À la suite de cette grève achevée le 26 juillet, les hauts-fourneaux ont une mauvaise marche pendant plusieurs semaines qui fait que les prix de revient dépassent ceux de vente. Les dirigeants l'imputent à des minerais de mauvaise qualité et à l'arrêt forcé des hautsfourneaux sans plus de précision2, mais cela peut tout aussi bien être la conséquence du freinage des travailleurs déçus d'avoir perdu. La CGT est alors punie et Raymond Roux réclame que la CGT puisse à nouveau assister aux réunions du conseils d'administration de l'entreprise. Pierre Cholat répond en disant que « les désignations seront faites dans les conditions prévues par la loi »3. À la fin de l'année 1952, les dirigeants de la CGT se rapprochent néanmoins de la direction de l'usine et des représentants des autres syndicats avec lesquels ils partagent une opposition à la CECA. Les représentants du CE ont en effet signé une lettre aux députés de la Loire, de l'Isère et du Rhône demandant que ceux-ci se prononcent contre le traité de ratification4 : 1 Les cahiers du personnel ne révèlent pas de départs à ce moment-là : source AMC, cahier du personnel français n° 9 et du personnel étranger n° 14. 2 ADI, 56J12, conseil d'administration du 23 août 1951. 3 ADI, 56J12, conseil d'administration du 9 octobre 1951. 4 L'Humanité du 11/12/1950, n° 2260. Une lettre de Pierre Cholat approuvée par le comité d'entreprise a également été envoyée au préfet de l'Isère : ADI, 56J12, conseil d'administration du 22 août 1950. 269 « Monsieur le Député, « Vous allez, très prochainement, être appelé à vous prononcer sur le plan Schuman. Conscient des graves dangers que l'application dudit plan ferait peser sur la sidérurgie française et principalement sur le groupe de la Loire auquel se rattache l'entreprise des Hauts Fourneaux de Chasse, notre comité d'entreprise, dans sa réunion du 6 décembre 1951, se prononce à l'unanimité de ses membres contre ce plan. Il décide de vous demander, Monsieur le Député, de prendre en considération l'intérêt national en rejetant ce plan qui aurait des conséquences désastreuses pour l'industrie sidérurgique française. » Les signataires de ce texte sont : MM. CHOLAT, président du conseil d'administration et également président de la Chambre syndicale de la Sidérurgie de la Loire; RIFFARD, technicien F. O.: MICHALLET, F. O.; ROUX, C.G.T Les années suivantes sont marquées par la poursuite de la modernisation et une contraction des effectifs de personnels. Mais alors qu'en août 1953 la France connait « l'un des plus importants conflits sociaux de son histoire »1, les HFC sont épargnés. Les industries voisines de Givors sont pourtant touchées2. Dans l'usine, la préoccupation principale est de faciliter les départs en retraite alors que de nouvelles compressions d'effectifs restent possibles3 : le contexte n'est donc pas favorable à une nouvelle grève. Cela n'empêche pas les tensions sociales de demeurer vives, même si la situation économique ne permet pas au mécontentement de trouver une issue : le passage de la semaine de quarante-huit à celle de quarante heures entraine en effet une baisse de revenu des ouvriers4. En 1954, les représentants du comité d'entreprise rejettent l'affaiblissement des gratifications, mais ne peuvent que négocier une moindre diminution5. Ils défendent de leur mieux le pouvoir d'achat des salariés6, mais le contexte de juxtaposition entre Chasse et Givors est un frein puissant en raison de la crainte qui pèse sur l'emploi7. Une nouvelle grève est cependant déclenchée contre toute 1 PIGENET Michel, « Les grèves d'août 1953 », dans PIGENET Michel et TARTAKOWSKY Danièle (dir.), Histoire des mouvements sociaux en France, op. cit. , p. 438 sqq. 2 AMG, 1D30, conseil municipal du 26 août 1953. 3 ADI, 56J12, conseil d'administration du 5 octobre 1953. 4 ADI, 56J12 conseil d'administration du 4 avril 1953. 5 ADI, 56J12, conseil d'administration du 7 juillet 1954. 6 Ibidem, conseils d'administration des 27 septembre 1954 et 29 janvier 1955. 7 Charles Jounay, représentant CGT-FO du CE déclare qu'une telle fusion « serait désastreuse pour le personnel » : ADI, 56J12, conseil d'administration du 7 avril 1954. 270 attente en avril 19551, après un relèvement de salaire décidé au 1 er mars. Elle dure quatre semaines, ce qui en fait le conflit le plus long de l'après guerre. Camille Vallin – maire communiste de Givors – vient discourir devant les bureaux des HFC, ce qui ne laisse pas d'inquiéter Pierre Cholat2. La grève s'explique par des mois d'accumulation du mécontentement face à la faiblesse des revenus. L'étincelle a été un rapport erroné de Morizot – un Commissaire aux comptes – au comité d'entreprise. La situation se dénoue une nouvelle fois devant le sous-préfet de Vienne et en présence d'un inspecteur du travail. Malheureusement pour les travailleurs des HFC, l'erreur du comptable est reconnue et sanctionnée, ce qui ne se traduit pas par une augmentation de leurs revenus. En revanche, la mairie de Chasse3 fournit des aides importantes aux familles. Le problème des revenus ouvriers est réglé l'année suivante avec le passage à la semaine de 56 heures4. En revanche, ce n'est pas le cas des conditions de travail, puisque la reprise de l'expansion provoque des accidents en cascade. Conclusion : Les changements techniques intervenus dans l'usine de Chasse sont sans équivalent depuis la Première Guerre mondiale. Plusieurs installations nouvelles, dont une machine à couler et surtout un haut-fourneau moderne provoquent des changements importants au niveau des recrutements et des postes de travail. Ces changements s'effectuent sous la contrainte permanente de la politique de modernisation impulsée par l'État et les dirigeants modernisateurs de la sidérurgie. La création de la CECA accélère encore ce phénomène. La période 1953-1956 est particulièrement dure pour des travailleurs dont les revenus sont comprimés et alors que les départs en retraite ou d'ouvrières se sont multipliés. Néanmoins, c'est la main d'oeuvre étrangère, en particulier italienne et surtout Algérienne qui fournit suffisamment de souplesse dans les recrutements afin de suivre les rythmes de production. Les méthodes de direction et d'administration des personnels sont traditionnelles, en raison de l'engagement religieux et des valeurs conservatrices 1 ADI, 56J12, conseil d'administration du 27 avril 1955. ADL, 211J4, lettre à Henri Malcor du 6 avril 1955. 3 AMC, 1B3, délibérations du conseil municipal du 30 avril 1955 et registre du conseil municipal du 30 avril 1955. 4 ADI, 56J12, conseil d'administration du 30 mai 1956. 2 271 défendues par Pierre Cholat et sa famille. Les cadres de l'entreprise adhèrent à ce projet, leur engagement reposant sur des bases morales qui les poussent à s'investir auprès de certaines catégories de travailleurs. La famille tient une place importante dans ce projet, tant pour les recrutements que pour la gestion des personnels. Néanmoins, cette gestion demeure discriminante, les postes sont segmentés et hiérarchisés. Cependant, les avantages liés au logement, les pratiques sociales de l'entreprise et de son CE réussissent en partie à créer un attachement du personnel à son usine et à ses dirigeants. La condition en est l'origine de chaque travailleur et l'importance qu'on lui attache dans l'ordre usinier, ainsi que la durée de son embauche. Des transformations sont pourtant perceptibles qui laissent penser qu'un autre ordre économique et social est en train de se mettre en place. Les Aciéries de la Marine font entrer un de leur administrateur à Chasse alors que Pierre Cholat n'a toujours pas trouvé de successeur1. Sous la pression de la recherche de productivité et d'abaissement des coûts, de nouvelles pratiques d'entreprises se développent : comme l'abandon de la construction de logements au profit de la réservation d'habitations à loyer modéré par exemple. L'ordre traditionnel a été érigé par des dirigeants âgés, mais qui vont presque tous disparaître pendant la période (à part Pierre Cholat). Leurs remplaçants ne le remettent pour l'instant pas fondamentalement en cause. La contestation vient plutôt des progrès de la CGT à l'origine à plusieurs reprises des grèves qui ont touchées l'usine. La mise à feu du haut-fourneau n° 3 clos cette période. Elle met fin à l'attente des dirigeants et de leurs personnels : après plusieurs années de vache maigre, le retour de l'expansion est attendu. 1 Le souci d'avoir un héritier est vif, par exemple dans le patronat alsacien : HAU Michel, « La longévité des dynasties industrielles alsaciennes », Le Mouvement social, n° 132, juillet-septembre 1985, p. 9-25, p. 15 sqq. Mais le fils de Pierre Cholat est décédé. 272 CHAPITRE 3 : UNE PHASE D'EXPANSION : LES « SEPT GLORIEUSES », 1956-1962 La fin des années 1950 et le début des années 1960 sont caractérisés par une croissance forte dans tous les pays de l'OCDE, l'industrie en étant le moteur principal1. Elle prend un poids croissant dans l'économie nationale et toutes les branches industrielles sont concernées2. Après une phase de reconstruction jusqu'en 1953, Philippe Mioche parle pour la période 1954-1962 des « neufs Glorieuses » de la sidérurgie française3. Mais à l'intérieur de cette période, il établit une césure en 1961 : avant la croissance de la sidérurgie est plus rapide que la moyenne industrielle, après ce n'est plus le cas4. La croissance s'effectue dans un contexte international et national marqué par des transformations profondes. Au niveau international, le processus de d'indépendance des colonies se poursuit. En Algérie où la Compagnie des Hauts-Fourneaux de Chasse a des intérêts, la guerre s'intensifie à partir de 1956 et provoque la chute de la IVe République. La fin de l'Empire colonial favorise alors « le choix de l'Europe »5. Le choix de l'ouverture de l'économie et l'adoption d'un modèle libéral est cependant poursuivi pendant toutes ces années : 1958 ne marque pas de rupture dans ce domaine6. De fait, la planification ne consiste plus à orienter de manière volontariste des secteurs 1 CARON François et BOUVIER Jean, « Indices majeurs », dans BRAUDEL Fernand et LABROUSSE Ernest (dir.), Histoire économique et sociale de la France, op. cit., p. 1011 sqq. RONCAYOLO Marcel, « L'Europe et l'Occident », Le Monde et son histoire, Vol.4, Éditions Robert Laffont, Paris, première édition 1985, 1991, 1053 p., p. 760-761. 2 WORONOFF Denis, Histoire de l'industrie en France, op. cit., p. 535. 3 MIOCHE Philippe, La sidérurgie et l'État en France des années 1940, op. cit., p. 172. 4 Ibidem, p. 175. 5 WORONOFF Denis, Histoire de l'industrie en France, op. cit., p. 511 sqq. 6 CARON François et BOUVIER Jean, « Les agents : l'État », », dans BRAUDEL Fernand et LABROUSSE Ernest (dir.), Histoire économique et sociale de la France, op. cit., p. 1118-1119. 273 industriels comme sous le premier plan. Il faut plutôt définir des productions indicatives par branches1. La libéralisation des échanges se développe alors, mais la stabilisation monétaire Rueff-Pinay accorde aux produits industriels français une « sorte de sursis » qui s'étale jusqu'en 1963 d'après Michel Margairaz2. Philippe Mioche dit la même chose pour la sidérurgie française, mais il limite cet avantage provisoire aux années 1959-19613. Malgré cela, la sidérurgie européenne est portée sur une période plus longue par des dynamiques de compétitivité qui ont remplacé celles des barrières de protection 4. Tout parait donc devoir contribuer à l'activité et à la croissance nationale et européenne. Ajoutons encore le fait que la sidérurgie française a bénéficié d'importants investissements en 1956-1957 puis en 1959-1960, par la mise en place d'ensembles intégrés en amont (cokéfaction, préparation du minerai) et en aval (laminoirs)5. Le dynamisme de l'industrie française, en particulier de la sidérurgie est donc manifeste pendant ces années. Il s'appuie sur une libéralisation progressive de l'économie et un développement couplé à une réorientation du commerce international de la France. Philippe Mioche, Éric Bussière, Emmanuel Chadeau et Michel Freyssenet sont cependant d'accord pour dire que des « signaux endogènes »6 annoncent la crise de 1962 pendant ces années de croissance. Le premier insiste sur le ralentissement de la productivité réelle, les second et troisième sur la dégradation de la situation financière des groupes, le quatrième sur l'impossibilité d'associer sidérurgie et industrie de transformation ; tous parlent de l'endettement7. Toutefois, si le contexte politique et économique de ces années d'expansion est connu grâce à de nombreux travaux effectués à des échelles diverses ou sur différents secteurs économiques, que sait-on des travailleurs des entreprises ? Certes Michel Freyssenet évoque la paix sociale dans la sidérurgie, les semaines de 55 heures, les 1 MARGAIRAZ Michel, « Planification et politiques industrielles des années 1940 aux années 1960 , op. cit., p. 7. 2 Ibidem, p. 6. 3 MIOCHE Philippe, La sidérurgie et l'État en France des années 1940, op. cit., p. 260. 4 MIOCHE Philippe, Les cinquante années de l'Europe du charbon et de l'acier, op. cit., p. 49. 5 BARJOT Dominique, « Les industries d'équipement et de la construction », dans LÉVY-LEBOYER Maurice (dir.), Histoire de la France industrielle, op. cit., p. 419. 6 MIOCHE Philippe, La sidérurgie et l'État en France des années 1940, op. cit., p. 190. 7 MIOCHE Philippe, La sidérurgie et l'État en France des années 1940, op. cit., p. 210. BUSSIÈRE Éric et CHADEAU Emmanuel, « Sidérurgie et métallurgie lourde : aléas et structures », dans LÉVYLEBOYER Maurice (dir.), Histoire de la France industrielle, op. cit., p. 336. FREYSSENET Michel, La sidérurgie française 1945-1979, op. cit., p. 44 et p. 50. 274 accidents, la stabilité de l'emploi et l'amélioration des niveaux de vie 1. La situation estelle alors comparable en Lorraine et dans une usine du Centre-midi ? Et surtout, comment les travailleurs ont-ils vécu cette période de crise dans la croissance ? I) Une phase d'expansion sans précédent dans un contexte de crise Dans l'usine des HFC, le haut-fourneau mis à feu en 1956 permet une forte augmentation des productions. Or comme toutes les activités de l'usine dépendent directement ou indirectement de ses fabrications, c'est l'ensemble des ateliers qui est concerné par cette phase d'expansion. La croissance s'effectue dans le contexte de deux ensembles de transformations politiques qui concernent les HFC. La marche vers l'indépendance de l'Algérie pose le problème de ses activités minières sur ce territoire. Or les mines de Bou Amrane lui apportent le minerai indispensable pour la fabrication de fontes de moulage, en raison de la qualité de ses minerais riches en phosphore. En plus des problèmes d'approvisionnements, la question du rapatriement de ses actifs et des travailleurs est également posée. Enfin, de nombreux travailleurs algériens des HFC viennent de Kabylie : la marche vers l'indépendance peut alors avoir des effets sur ces migrants. Or ces sujets sont généralement traités à plus petite échelle – au sens géographique – ce qui ne rend observable que le redéploiement de secteurs industriels ou économiques entiers, tandis que des approches souvent politiques ou économiques évacuent généralement la question des pratiques sociales des entreprises2. Ensuite, l'autre grand enjeu est en rapport avec la construction européenne et ses conséquences. Certains aspects sont purement économiques – comme le paiement de taxes à Bruxelles –, mais d'autres concernent la poursuite de la politique de concentration des usines dans la région du Centre-midi3 : les restructurations sont toujours à l'ordre du jour, alors que la 1 Ibidem, p. 35-38. Voir par exemple Daniel Lefeuvre qui parlant des patrons face à la décolonisation en évoque les aspects politiques et économiques, mais pas les pratiques sociales, dans LEFEUVRE Daniel, « Les décolonisations », dans DAUMAS Jean Claude, CHATRIOT Alain, FRABOULET Danièle, FRIDENSON Patrick et JOLY Hervé (dir.), Dictionnaire historique, op. cit., p. 1331-1335. 3 Cette politique est parfaitement perçue par les dirigeants des HFC : cf. ADI, 56J24, rapport du CA à l'AG du 15 mars 1952. 2 275 concurrence européenne pousse les entreprises à grossir. Or l'Europe est attentive aux fusions et concentrations, même si elle n'a apparemment pas été dirigiste1. C'est dans ce contexte, alors que les enjeux auxquels doit faire face l'entreprise ne cessent de croître, que se produit un changement de direction. Des hommes nouveaux vont amener à un changement d'époque. 1) Une forte augmentation des productions grâce aux investissements En 1952, les Hauts-Fourneaux de Chasse et ceux de Givors fournissent encore 20 % des fontes hématites françaises2. C'est un peu plus de 10 % pour Chasse cette année-là, mais plus que 5 % en 1954 alors que l'usine traverse une grave crise. Les 10 % de la production nationale ne sont retrouvés qu'après 1956 et la mise à feu du hautfourneau n° 33. Les productions précédents 1956 contrastent donc avec la croissance rapide et le rétablissement des années suivantes. Dès 1957, on parle d'un record mensuel à atteindre de 12 500 tonnes de fonte4. Ensuite les records s'enchainent pour dépasser les 15 000 et mêmes les 16 000 tonnes mensuelles en 1961 et 1962. La production des hauts-fourneaux passe de plus de 88 000 tonnes pour l'exercice 1956-1957 aux 193 000 de l'exercice record 1961-19625. Afin de mesurer l'importance de l'effort de production, il faut rappeler qu'elle était de seulement 59 000 tonnes pour l'exercice 1946-1947 et de 77 000 à l'exercice suivant, c'est-à-dire pendant les années d'expansion de l'après-guerre. Au mois de mars 1961, l'usine a battu son record absolu avec 17 600 tonnes produites : en un mois, c'est plus de la moitié de tout l'exercice 1945-1946, ou pratiquement la moitié de ceux de 19531954 et 1954-1955. De telles productions ont été possibles grâce à la marche du nouveau hautfourneau n° 3 couplé au n° 2 partiellement modernisé, dès la fin de l'année 19576. Puis, à partir du 14 décembre 1960, on est même passé à une marche simultanée à trois hauts- 1 MIOCHE Philippe, Les cinquante années de l'Europe du charbon et de l'acier, op. cit., p. 38-39. ADI, 56J24, rapport du CA à l'AG ordinaire du 15 mars 1952. 3 ADI, 56J23, rapport du CA à l'AG ordinaire du 28 juin 1958. 4 ADI, 56J13, conseil d'administration du 12 décembre 1957. 5 Cf. annexe 3. 6 ADI, 56J13, conseil d'administration du 12 décembre 1957. 2 276 fourneaux : c'est unique dans toute l'histoire de l'usine1. Cette marche a duré jusqu'au 13 avril 19622 car la décision a été prise de limiter rapidement la production en raison de l'effondrement du prix des fontes. Les installations sont donc bien exploitées au maximum de leur capacité, comme le pense Michel Freyssenet : « les sociétés cherchent à faire fonctionner leurs usines au maximum, en multipliant les heures supplémentaires et en poussant les installations souvent au-delà de leur limite de sécurité 3 ». Les deux autres points évoqués – la surexploitation de la main d'oeuvre et des matériels – peuvent également être vérifiés. Les ouvriers sont à la semaine de cinquante-six heures au moment du lancement du haut-fourneau moderne, puis ils sont à quarante-huit heures jusqu'au début de la crise en 19634. Les incidents techniques provoquent un ralentissement des productions, voire des arrêts de hauts-fourneaux5 alors que les périodes de réparation entre chaque marche sont anormalement courtes par rapport aux pratiques des années précédents 1956. Pendant la période, on cherche à augmenter toutes les productions de l'usine. La fonderie – dont les productions marginales ne sont jusque-là pas indiquées dans les documents de l'entreprise – passe de 2 540 tonnes pour l'exercice 1957-1958 à 12 000 pour l'exercice 1962-19636. Un record de production mensuel est même battu en mars 1963 avec 1 245 tonnes7 : c'est presque la moitié de la production de tout l'exercice 1957-1958. Cette année-là, des discussions sont en cours avec la société Neyrpic afin d'accroître encore le marché de cette usine 8. Il s'agit de produire de gros cylindres de fonte pour l'industrie du papier. De nouveaux équipements doivent donc être réalisés pour la fonderie. La cimenterie est l'autre activité secondaire de l'usine. Ses productions ne figurent cependant pas dans les documents de l'entreprise avec précision. Pour la première fois en 1962 on sait qu'elles atteignent au moins 40 000 tonnes en laitier sec9. La production de laitier humide a presque disparu. Celle de ciment est inconnue. Mesurées un an plus tôt, on apprend que ces différentes productions ajoutées à celles de 1 Décision de marche prise lors du conseil d'administration du 29 juin 1959 : ADI, 56J13. Date du début de la marche : ADI, 5J13, conseil d'administration du 10 mars 1961. 2 ADI, 56J15, conseil d'administration 10 avril 1962 ; 56J27, PV du CA du 29 novembre 1962. 3 FREYSSENET Michel, La sidérurgie française 1945-1979, op. cit., p. 37. 4 ADI, 56J13, conseil d'administration du 9 avril 1959. 5 ADI : 56J13, conseils d'administration des 25 juin 1960, 23 novembre 1961 et 10 avril 1962. 6 Cf. annexe 3. 7 ADI, 56J13, conseil d'administration du 15 mai 1963. 8 ADI, 56J13, conseil d'administration du 22 janvier 1963. 9 ADI, 56J13, conseil d'administration du 11 septembre 1962. 277 la briqueterie ne représentent que 2,3 % du chiffre d'affaire des usines1. Les productions sont donc considérables en volumes, mais marginales en valeur, d'où le moindre intérêt qui leur est porté. Pourtant, le ciment de l'usine a contribué à construire de nombreux ouvrages dans la région – confection des voûtes du tunnel de la Croix Rousse à Lyon ou de la couverture du Gier à Saint Chamond2 –, un sujet de fierté pour l'entreprise. La cimenterie comme les différentes usines connaissent des projets de modernisation de leur outillage. Il s'agit d'augmenter les productions massivement afin de permettre au site de Chasse de résister à la concurrence internationale : on espère abaisser ainsi les coûts de production unitaires en les répartissant sur la fabrication de d'avantage de produits3. Les dirigeants souhaitent tout d'abord investir pour cribler le coke et agglomérer les minerais ; dans ce dernier cas, on pourrait même en revendre une partie, la production des briquettes agglomérées dépassant les besoins de l'usine. Mais on privilégie finalement d'autres investissements, car on ne peut pas non plus tout financer : un programme de travaux neufs est voté en avril 19604. Pendant la période, l'installation d'une nouvelle centrale est l'investissement le plus important. Elle comprend deux éléments : une chaudière fournie par la société Babcock qui peut fonctionner au gaz des hauts-fourneaux comme au fuel et une nouvelle turbosoufflante commandée à la société Rateau afin d'améliorer le vent des hauts-fourneaux. Cette dernière débite de 60 000 à 70 000 m3/heure et elle entraine une turbine à vapeur développant une puissance de 2 400 kilowatts5. Document 10 : Nouvelle centrale en cours de montage 1 ADI, 56J13, conseil d'administration du 27 septembre 1961. Notice générale sur l'usine, mai 1964, source Éric Combaluzier et Michel Paret. 3 ADI, conseil d'administration du 9 avril 1959 et 56J23, rapport du CA à l'AG ordinaire du 10 décembre 1960. 4 ADI, 56J13, conseil d'administration du 1er avril 1960. 5 ADI, ibidem. 2 278 Document 11 : Nouvelle centrale achevée Document 12 : Nouvelle centrale, intérieur 1 Mais toute la période 1956-1962 est concernée par les chantiers de modernisation des installations de l'usine. En 1957, on installe un nouveau portique à minerai et l'année suivante, il s'agit d'une nouvelle étuve pour la fonderie2. En 1959, ce sont des cowpers pour le haut-fourneau moderne3. En 1960, la cimenterie est équipée d'un nouveau séchoir à laitier Polysius : ce nouveau procédé récemment développé en Allemagne permet de faire des économies de consommation de gaz 4. Il est capable de traiter la totalité du laitier produit par les hauts-fourneaux afin d'en faire du laitier sec 1 Source pour les documents 10, 11, 12 : Michel Paret. ADI, 56J59, déclarations de constructions nouvelles. 3 ADI, 56J15, conseil d'administration du 9 novembre 1960. 4 ADI, 56J13, conseil d'administration du 1er avril 1960. 2 279 plus facilement commercialisable que le laitier humide1. En 1961, l'année d'achèvement de la nouvelle centrale, une installation d'injection de fuel dans le haut-fourneau n° 3 et une autre de charbon pulvérisé pour le haut-fourneau n° 2 sont également posées2. Tous ces équipements modernes sont satisfaisants3 d'après les dirigeants de l'entreprise et seul le retard des chantiers est à noter. Document 13 : Nouveau séchoir Polysius de la cimenterie 4 Le devis de l'ensemble des travaux de la période 1960-1962 se monte à 4 785 000 NF, mais la facture finale atteint les 5 500 000 NF5. Le projet est financé par des ventes de biens immobiliers et par un emprunt de 3 000 000 de NF6. Toutefois, malgré des investissements considérables et constants – mais aussi en partie à cause d'eux car il faut les amortir –, l'usine devient de moins en moins rentable7. L'exercice 1957-1958 est le premier sans bénéfice depuis la Seconde Guerre mondiale. Les années 1 Ibidem. Georges de Benoist indique que la production de laitier représente la moitié de la production de fonte : soit pour une marche à 12 000 tonnes, 6 000 tonnes. Or seule la moitié est écoulée en laitier humide quand la totalité peut l'être en laitier sec. 2 AN, 2012 026 819, compte rendu d'André Legendre du comité de direction du 6 décembre 1961. 3 ADI, 56J13, pour le séchoir Polysius les objectifs d'économie sont atteints : conseil d'administration du 23 novembre 1961. Pour la centrale qui « dépasse les prévisions les plus optimistes », conseil d'administration du 10 avril 1962. Elle a fait progresser de 20% la productivité du haut-fourneau n° 3, source : ADI, 56J27, PV de l'AG ordinaire du 29 novembre 1962. 4 Source : Michel Paret. 5 ADI, 56J13, conseil d'administration du 25 juin 1960 ; puis ADI, 56J23, rapport du CA à l'AG ordinaire du 10 décembre 1960. 6 ADI, 56J13, conseil d'administration du 30 juillet 1960. 7 Cf. annexe 4. 280 suivantes sont chaotiques. Les deux exercices pendant lesquels la production des hautsfourneaux a été la plus élevée se concluent l'un sans bénéfice et l'autre avec un déficit. Pourtant le chiffre d'affaire a été multiplié par près de trois entre l'exercice 1955-1956 et l'exercice 1961-19621. Enfin, on ne doit pas simplement prêter attention aux investissements immobiliers pour mesurer l'effort de modernisation de l'outillage, on doit aussi prendre en compte le matériel mobilier. Ce dernier laisse cependant moins de traces dans les archives, mais il est présent dans la comptabilité, pourvu que les documents conservés soient suffisamment détaillés2. Or il est manifeste qu'un plan d'investissement en matériel de transport et de bureau est en cours : il a débuté 19553. Par exemple pour l'année 1957, il représente 27 557 826 de francs pour l'achat d'une Peugeot 403, un camion Berliet 9 tonnes, un chouleur et un locotracteur ; ainsi que 892 938 francs pour l'achat de deux machines à calculer. Sur la période 1957-1960 les dépenses se montent à 5 798 979 francs de matériel de bureau (de machines à écrire, machine à calculer, machine comptable) et 58 738 380 francs de matériel de transport (camion, chouleur, locotracteur, etc.). Si on les compare avec les investissements immobiliers en outillage nouveau, cela représente tout de même 10,7 % du plan d'équipement de 1960-1962. Or le matériel de bureau et de transport s'ajoute aux dépenses consacrées à l'outillage immobilier (nouvelle centrale, appareils d'injection de fuel et de charbon, etc.). De plus on ne connait ni la valeur des investissements en matériel de transport et de bureau postérieurs à 1960, ni celle des matériels achetés pour les autres ateliers. Or il est impossible que sur près de dix ans aucun investissement n'ait été fait à la fonderie, à l'usinage, ou à l'atelier d'entretien. Par conséquent des investissements minoritaires – mais non négligeables – sont également consacrés à ces achats de matériel mobiliers. On peut conclure en observant que les dirigeants des HFC n'ont pas installé d'atelier d'agglomération de charbon et de coke indispensables à la rentabilité des hauts-fourneaux. Ce retard est d'ailleurs repérable dans le reste des usines sidérurgiques françaises d'après Michel Freyssenet4. Les dirigeants en ont conscience de la nécessité de cet équipement, mais ils jugent cet investissement évalué à 18 000 000 de NF pour 1 Ibidem. C'est ce que permet une révision comptable intervenue en 1958 : ADI, 56J23, rapport des commissaires aux comptes de l'exercice 1958-1959. 3 ADI, 56J15, conseil d'administration du 9 novembre 1960. Les dépenses sont en francs afin de rendre plus facile la comparaison des années de la période. 4 FREYSSENET Michel, La sidérurgie française 1945-1979, op. cit., p. 40. 2 281 l'instant hors de leur portée1. Ils ne sont pas restés passifs, mais ont investi dans de nombreux autres équipements et matériels2. Michel Freyssenet écrit encore que les installations sidérurgiques neuves françaises sont de faible capacité3. Or avec un hautfourneau n° 3 de 4,25 mètres de diamètre de creuset, on double la capacité de production par appareil, car les hauts-fourneaux plus anciens ne font que 2,5 mètres de diamètres4, mais les projets contemporains de hauts-fourneaux lorrains sont eux de 8 mètres de diamètre5. Toutefois, la situation de la Compagnie des Hauts-Fourneaux de Chasse est aussi singulière : il n'aurait pas été raisonnable pour elle de construire plus grand et donc plus cher, non seulement parce que ses moyens financiers ne le lui permettent pas, mais aussi parce que le marché est insuffisant. En effet, alors que Michel Freyssenet accuse les sidérurgistes français de chercher à exporter afin de profiter de la dévaluation et de contraindre les industries de transformations françaises à importer6, ce n'est pas ce que l'on constate dans les archives de la compagnie chassère : dès avril 1959 et malgré la dévaluation, les dirigeants parlent d'un quasi « dumping » allemand qui pèse sur le prix des fontes selon eux7. Ils parlent ensuite de la concurrence des fontes d'Europe de l'Est en Italie, puis des fontes « russes » qui déstabilisent le marché de la CECA8. Début 1962, lorsqu'éclate la crise, cela fait donc longtemps qu'ils critiquent la montée de la concurrence qui écrase les prix de vente, autant en France qu'à l'étranger où ils ne vont que pour tenter de compenser la baisse de leurs ventes sur le marché français9 . Les dirigeants de la Compagnie sont bien conscients de la crise qu'ils traversent dans cette phase d'expansion. Ils essaient donc d'accroître leur chiffre d'affaire pour compenser l'érosion de leurs marges. Pour cela ils augmentent les productions en espérant des économies d'échelle et font confiance à la technique afin d'abaisser les coûts. En même temps, ils sont entrainés dans le piège de l'endettement car il faut 1 ADI, 56J13, conseil d'administration du 10 avril 1962. Contrairement à Michel Freyssenet qui dénonce les rapiéçages et leurs coûts dans FREYSSENET Michel, La sidérurgie française 1945-1979, op. cit., p. 50. Philippe Mioche souligne au contraire les efforts d'investissement, dans MIOCHE Philippe, La sidérurgie et l'État en France des années 1940, op. cit., p. 107. 3 FREYSSENET Michel, La sidérurgie française 1945-1979, op. cit., p. 42. 4 « Notice générale sur l'usine », mai 1964, source Éric Combaluzier et Michel Paret. 5 FREYSSENET Michel, La sidérurgie française 1945-1979, op. cit., p. 49. 6 Ibidem, p. 44. 7 ADI, 56J13, conseil d'administration du 9 avril 1959. 8 Ibidem, conseils d'administration des 29 juin 1959 et 26 mai 1961. 9 Ibidem, conseil d'administration du 10 avril 1962. 2 282 toujours faire des investissements supplémentaires1 : une pratique contraire à l'attitude prudente de Pierre Cholat jusque-là. 2) La poursuite du recentrage de l'entreprise sur l'usine de Chasse L'accroissement de la concurrence à l'échelle européenne provoque l'inquiétude des dirigeants de la Compagnie des Hauts-Fourneaux de Chasse. Ils parlent également de désorganisation des marchés et souhaiteraient que de l'ordre y soit mis 2. Mais audelà de ces remarques qui portent sur des débats concernant la libéralisation de l'économie, c'est toute la sidérurgie française et européenne qui est en voie de réorganisation. À l'échelle régionale, aussi les politiques antérieures de réorganisation sont poursuivies, tant au niveau de la fusion Marine-Firminy que de la volonté de faire se rapprocher les hauts-fourneaux de Chasse et de Givors. Enfin, dans un contexte qui lui est de plus en plus défavorable, l'entreprise replie ses activités au sein de l'usine de Chasse. a) Une usine en décalage avec les réorganisations de la sidérurgie française et européenne. La situation de la sidérurgie française et de la sidérurgie européenne qui doivent faire face à un accroissement de la concurrence au début des années 1960 est bien connue des spécialistes. Ainsi, en 1959 les aciers Thomas et Martin représentent 90 % de la production d'acier brut et que la fourniture de minerais est toujours majoritairement française, mais alors que la sidérurgie s'engage dans un vaste programme d'investissement dans le cadre du IVe plan, un fort déséquilibre apparait sur 1 ADI, 56J13, cela est clairement dit dans le conseil d'administration du 15 janvier 1960. ADI, 56J23, rapport du CA à l'AG ordinaire du 8 juin 1959 et 56J13, conseil d'administration du 22 janvier 1963. 2 283 le marché mondial entre une demande en stagnation et une production en hausse 1. Ce faible dynamisme de marché se maintient jusqu'en 1966, la CECA étant ouverte à la concurrence internationale tandis que le marché américain demeure fermé. Les marges des entreprises sont laminées réduisant ainsi leurs capacités d'investissement et les poussant à l'endettement ; jusqu'à ce qu'en 1966 la construction de nouveaux équipements ne puisse plus être différée : il s'agit notamment de développer les aciéries à oxygène pur et localiser les usines sur le littoral afin de bénéficier de la baisse des coûts de transport maritime. Les dirigeants des HFC ont une conscience précise de l'ensemble de ces enjeux nouveaux. Ainsi en 1960, André Legendre tient informé le conseil d'administration du fait que la Sollac est en train de mettre au point le procédé Kaldo devant lui permettre de produire de l'acier comparable à celui obtenu par le procédé Martin 2. Or les fontes des HFC servent aux fours des aciéries Martin et l'entreprise chassère est l'un des fournisseurs de la Sollac : ces deux raisons devraient faire craindre aux dirigeants de Chasse la perte de marchés importants. De la même manière, dès juillet 1956 la menace du développement de la sidérurgie littorale est évoquée3. Deux logiques s'affrontent alors au sein du conseil d'administration pour faire face à ces évolutions : la première privilégie le recours à des investissements dans du matériel moderne, la seconde la concentration des sociétés4. Au début de la période d'expansion, Louis de Curières de Castelnau envisage la construction de deux hautsfourneaux modernes, l'un de petite taille afin d'éviter des marches trop onéreuses, l'autre de dimension comparable au haut-fourneau n° 3. La réponse d'André Legendre est que les programmes français de consommation de fonte ne prévoient pas de hausse des consommations de fontes hématites – du type de celles fabriquées par les HFC –, par conséquent toute augmentation de production devrait être prise sur une autre usine : cela justifie donc d'adopter une stratégie de concentration des entreprises. André Legendre n'a pas été entendu. Il s'est cependant rallié au plan de modernisation des outillages de l'usine. Mais Louis de Curières de Castelnau n'a pas vu non plus son plan 1 CARON François, « L'industrie : secteurs et branches », dans BRAUDEL Fernand et LABROUSSE Ernest (dir.), Histoire économique et sociale de la France, op. cit., p. 1260 sqq WORONOFF Denis, Histoire de l'industrie en France, op. cit., p. 559. BARJOT Dominique, « Les industries d'équipement et de la construction », dans LÉVY-LEBOYER Maurice (dir.), Histoire de la France industrielle, op. cit., p. 419-420. 2 ADI, 56J13, conseil d'administration du 1er avril 1960. 3 ADI, 56J12, conseil d'administration du 28 juillet 1956. 4 ADI, 56J13, conseil d'administration du 12 décembre 1957. 284 se réaliser en raison du manque de moyens de financement : les coûts salariaux ne sont pas évoqués pour justifier cela, mais plutôt une hausse plus rapide des matières premières que des prix de vente1, voire une baisse des prix de vente2. D'une manière plus générale, Antoine de Tarlé constate que les amortissements depuis 1953 sont faits par des « rentrées d'argent » – la perception d'indemnités ou la vente d'actifs – et non par le résultat d'exploitation3. La CECA comme certaines institutions françaises ont joué un rôle plus ou moins direct en cela. La politique menée par la CECA a été assez systématiquement défavorable à l'usine de Chasse. Tout d'abord, la baisse des protections douanières a ouvert le marché européen4. Mais elle a aussi porté sur deux autres domaines : les tarifs des transports et le prix des ferrailles de hauts-fourneaux5. La Haute Autorité a en effet réclamé et obtenu une augmentation des tarifs de transport SNCF qui renchérit les coûts de production de l'usine de Chasse obligée d'acheminer et consommer de forts volumes de matières premières, et qui renchérit aussi les coûts de vente de ses fabrications 6. Or cela avantage nécessairement les industries installées sur le littoral. Ensuite, la ferraille est indispensable aux lits de fusion des hauts-fourneaux car comme la pyrite, elle assure leur perméabilité7. Sans elle, il y a une augmentation des risques d'accrochage. Or le mécanisme de péréquation des ferrailles importées a fonctionné d'avril 1954 à février 1959 : il avait officiellement comme objectif « d'éviter le relèvement des tarifs à l'intérieur du marché commun, compte-tenu des prix plus élevés de la ferraille dans les pays extérieur de ce marché »8. Mais outre le fait que les hauts-fourneaux produisant des fontes hématites ne peuvent se passer de l'usage de ces ferrailles, le système de péréquation a pour conséquence de renchérir leurs fontes d'affinage et donc l'acier des fours Martin, alors que l'usage direct des ferrailles dans les fours électrique rend ces 1 ADI, 56J13, conseil d'administration du 25 juin 1960. Philippe Mioche indique lui aussi que pendant longtemps les matières premières ont davantage compté que les salaires dans le calcul des prix : dans MIOCHE Philippe, La sidérurgie et l'État en France des années 1940, op. cit., p. 191. 2 ADI, 56J13, conseil d'administration du 10 avril 1962. 3 ADI, 56J15, conseil d'administration du 26 mai 1961. 4 Ils baissent de 15 à 4 % avec les pays de la CECA d'après Pierre Cholat dans 56J27, PV de l'AG ordinaire du 8 juin 1959. 5 Cela fait partie des principales politiques de la CECA pendant la période, dans MIOCHE Philippe, Les cinquante années de l'Europe du charbon et de l'acier, op. cit., p. 35-36 et p. 41-42. 6 ADI, 56J23, rapport du CA à l'AG ordinaire du 8 juin 1959. 7 ADI, 56J12, conseil d'administration du 14 février 1957. 8 AN, 2012 026 605, lettre du 16 avril 1963 de Michel Hubert, responsable du service contentieux de Marine. 285 aciers plus compétitifs1. Cela revient aussi à dire qu'un ancien procédé industriel financerait partiellement le développement du nouveau qui vient à le concurrencer 2 : on comprend donc la colère de Pierre Cholat. Les dirigeants des HFC ont fait appel à la Haute-Autorité ; mais Léon Daum leur répond personnellement que leur demande a été rejetée, sans indiquer le motif du rejet3. Néanmoins le refus de payer ces cotisations a entrainé une lourde amende de 45 millions de francs4, aussitôt contestée. Mais tous les recours ayant été épuisés, et n'ayant déboursé qu'une partie des amendes alors que les intérêts ont couru pendant des années, il reste à payer 3 190 000 de NF en 19635. La Haute Autorité a donc beau jeu de dire – en parlant des HFC – qu'elle ne souhaite pas « être à l'origine de difficultés financières considérables pour une entreprise »6 ; car même si ses politiques ne les visaient pas expressément, elles ont non seulement contribué dans les faits à les affaiblir, mais elles ont également compliqué fortement et pendant des années son plan de financement, sans que jamais on ne tienne compte des remarques régulières des dirigeants chassères à ce sujet. La période 1956-1962 est aussi celle de procès menés en France : les rapports avec certaines institutions étatiques ou avec les institutions professionnelles n'ont guère été moins défavorables qu'avec la CECA. Les dirigeants des HFC, Pierre Cholat le premier, en portent une part de responsabilité, mais l'autre en revient nécessairement aux parties adverses. Un procès interminable porte sur les indemnisations reçues après la nationalisation de leur filiale de Cordéac produisant de l'hydroélectricité 7. Il s'achève par la nécessité de payer une amende de 530 000 NF8. Cela grève un peu plus les comptes de l'entreprise, après l'avoir mobilisée pendant des années et freiné ses investissements. De plus, les relations avec la CSSF sont inégales dans le temps et par exemple, un autre procès est en partie perdu face à la CSSF dont les intérêts ont été défendus par Alexis Aron : poursuivie pour non paiement de certaines taxes, il en a 1 AN, 2012 026 819, projet de PV de l'AG du 10 avril 1962. Les progrès des aciers électriques face aux aciers Martin sont évoqués dans le rapport du CA à l'AG ordinaire du 8 juin 1959, ADI, 56J23. 3 En outre cette lettre est accompagnée d'une notification du président de la Haute autorité, René Mayer : ADI, 56J12, conseil d'administration du 28 juillet 1956. 4 ADI, 56J12, conseil d'administration 14 février 1957. 5 ADI, 56J13, conseil d'administration du 27 février 1963. 6 Ibidem, conseil d'administration du 26 mai 1961. 7 ADI, 56J12, conseil d'administration du 30 mai 1956 ; 56J13, conseil d'administration du 10 mars 1961 ; 56J22, rapport du CA à l'AG ordinaire du 11 février 1957 ; 56J23, rapport des commissaires des comptes lors de l'exercice 1958-1959 et rapport du CA à l'AG ordinaire du 23 novembre 1961. 8 ADI, 56J15, PV du conseil d'administration du 10 avril 1962. 2 286 vraisemblablement coûté à l'entreprise 11 millions de francs1. Mais en ce qui concerne les politiques de l'État français lui-même, c'est son soutien aux réorganisations régionales qui inquiète le plus les dirigeants des HFC. b) Une marginalisation dans la réorganisation régionale Deux réorganisations régionales majeures concernent la période 1956-1962 : il s'agit de la fusion Marine-Firminy et du rapprochement avec la Compagnie des HautsFourneaux de Givors. Elles s'effectuent dans le prolongement de celles qui datent de la période précédente marquée par la naissance de CAFL2. Comme président des Aciéries de Saint-Étienne, Pierre Cholat était l'un des principaux acteurs de la sidérurgie de la Loire, mais depuis la fusion avec les Aciéries de la Marine puis la création de la CAFL, il n'est devenu qu'un des administrateurs de ces deux entreprises. Il assiste donc à leurs conseils en ayant perdu la capacité de décision que lui offrait la fonction de président directeur général au profit d'Henri Malcor pour la CAFL et de Lucien Lefol pour Compagnie des Aciéries de la Marine et de Saint-Étienne. Toutefois, lorsqu'en 1960 les Aciéries de Firminy fusionnent avec cette dernière entreprise, le nouveau président est Henri Malcor, tandis qu'après les apports de l'usine des Dunes et de Saint Chély d'Apcher, Marcel Macaux est le nouveau président de CAFL3. Pierre Cholat conserve ses fonctions, mais il les occupe dans deux entreprises qui ont encore grandi en taille. Dans la nouvelle CAFL, il demeure viceprésident. Il occupe la même fonction dans la Compagnie des Aciéries de la Marine, de Firminy et de Saint-Étienne aux côtés de Pierre Grellet de la Deyte et de Louis de Curières de Castelnau comme administrateurs, tous deux ayant le même poste lorsque Pierre Cholat dirigeait les Aciéries stéphanoises. Dans cette immense entreprise en train de naître, ils ont donc vu leurs intérêts respectés, mais aussi leur pouvoir dilué. D'ailleurs les négociations se sont déroulées sans eux4. Elles se sont passées directement avec les autorités européennes : Henri 1 ADI, 56J13, conseil d'administration du 12 décembre 1957 ; AN, 2012 026 819, compte rendu du conseil d'administration du 12 juillet 1957 par André Legendre. 2 Cf. 3) La modernisation et le contexte économique et politique. 3 AN, 2012 026 605, AG extraordinaire de Marine-Saint-Étienne du 12 mars 1960 et du 23 avril 1960, AG extraordinaire de la Société anonyme des Aciéries et Forges de Firminy du 30 mars 1960. 4 Ibidem, correspondance 1957-1960. 287 Malcor traite avec Paul Spaak qui l'assure de son soutien, la Haute-autorité relayant ensuite la demande auprès du gouvernement français1. En revanche, les termes du protocole du 21 juillet 1952 sont toujours respectés : les Aciéries de Saint-Étienne qui font désormais partie de la CAFL garantissent toujours une quantité plancher de 10 000 tonnes d'achat de fonte d'affinage aux HFC pour leurs fours Martin2. Le rapprochement avec la Compagnie des Hauts-fourneaux et Fonderies de Givors fait partie des projets de réorganisation régionale qui datent de l'après guerre, tous comme ceux qui ont amené à la formation de la CAFL. Ils sont poursuivis jusqu'aux années 1960. Interrompues en 1955 à l'initiative de Givors, les discussions n'ont cependant pas cessé. Elles sont menées par quatre ensembles d'acteurs : les dirigeants des Hauts-Fourneaux de Chasse autour de Pierre Cholat, ceux de Givors autour d'Édouard Prénat – son directeur général –, ceux de Marine présents aux deux conseils d'administration – supervisés par Henri Malcor – et enfin ceux de l'État. Les représentants de Marine servent de médiateurs et poussent au rapprochement. Depuis 1954, la direction de la sidérurgie a préconisé la fusion entre les deux entreprises 3. Aussi lorsqu'un désaccord est patent, il est fréquent que l'on menace de s'adresser à elle, pas simplement comme juge de paix, mais aussi et surtout en raison de son pouvoir de sanction afin de faire pression sur l'interlocuteur4. Ces négociations ont été menées en trois temps. Tout d'abord, elles se font principalement entre Édouard Prénat et Louis de Currières de Castelnau jusqu'à l'été 1958. Mais comme ce dernier s'aperçoit que Givors en difficulté financière tente de faire porter ses dettes par la nouvelle société à créer, il demande des engagements écrits5. Édouard Prénat refuse de signer le protocole d'accord qui est finalisé, il le modifie brutalement, ce qui équivaut à suspendre les négociations le temps de redémarrer sur de nouvelles bases6. Les dirigeants de Marine sont échaudés, d'autant qu'Édouard Prénat a fait trainer la vente de biens appartenant à leur filiale des Aciéries du Rhône, obligeant 1 AN, 2012 026 603, lettre du 29 février d'Henri Malcor faisant un compte-rendu de sa visite à Paul Spaak du 27 février 1960. 2 ADI, 56J58, plusieurs lettres, dont la lettre de Georges Albert de Benoist du 29 avril 1963. 3 ADI, 56J15, rapport de Pierre Cholat du 27 juin 1960. 4 Ibidem. Mais on le retrouve aussi par exemple dans une lettre de Louis de Curières de Castelnau adressée à Édouard Prénat le 18 juillet 1958, AN, 2012 026 824, etc. 5 AN, 2012 026 824, correspondance Legendre, Castelnau, Prénat de l'été 1958. 6 AN, 2012 026 824, lettre de Louis de Curières de Castelnau adressé à André Legendre en date du 22 septembre 1958. 288 Marine à recapitaliser Prénat1. Les dirigeants de Marine se rapprochent alors de ceux des HFC et laissent Prénat à son propre sort en « chargeant Chasse de la liquidation de Givors »2. Castelnau veut obtenir la fermeture des hauts-fourneaux de Givors et ne conserver dans la nouvelle société à créer que la fonderie 3. Cela correspond au projet de Marine : les HFC prendraient une partie du capital de Givors, liquideraient l'entreprise avec sa cokerie, fusionneraient sur « la base qui conviendrait à Chasse », et on demanderait une lettre de la CECA pour le reclassement du personnel. Le 2 mars 1959, un projet de convention est rédigé en ce sens, il est soutenu par Lefol et Legendre 4. Le 12 avril 1959, les HFC achètent pour 8 066 665 francs (soit 80 666,65 NF) 9 680 actions sur un capital givordin divisé en 44 000 actions5. Mais en juin, les difficultés financières de Givors entrainent l'abandon du projet par les HFC 6. En octobre 1959 Lucien Lefol signale à Édouard Prénat des irrégularités comptables graves : l'entreprise est en difficulté, en novembre un administrateur judiciaire est nommé7. Débute alors le dernier chapitre de l'histoire des hauts-fourneaux de Givors. Les dirigeants des HFC annoncent qu'ils sont prêts à reprendre, dans la mesure de leurs moyens, une partie du personnel de l'entreprise8. Ils tentent aussi de récupérer auprès des Aciéries de Saint-Étienne la part de marché des fontes givordines 9. Ils obtiennent de Marine qu'elle garantisse leur prêt pour financer leur plan de modernisation – ils peuvent plaider l'augmentation de leur part du marché régional en raison de l'élimination de leur rival – et qu'elle les soutienne auprès du ministère de l'industrie10. L'élimination d'un concurrent historique semble marquer la victoire des dirigeants des HFC. Toutefois, ils vont devoir rapidement déchanter car un groupe suisse va prendre le 1 AN, 2012 026 824, lettre d'Henri Malcor du 10 décembre 1957, lettre de Louis de Curières de Castelnau du 22 septembre 1958. 2 Ibidem, lettre d'André Legendre à Henri Malcor du 7 octobre 1958. 3 Ibidem, rapport du comité de direction du 24 septembre 1958 ; lettre manuscrite à André Legendre du 8 octobre 1958. 4 Source : ibidem, lettres de Lefol du 2 mars 1959 et de Legendre du 3 mars 1959. 5 ADI, 56J15, lettre d'Antoine de Tarlé aux administrateurs des HFC en date du 15 juin 1961 et 56J23, rapport des commissaires des comptes de l'exercice 1958-1959. Marine a servi d'intermédiaire dans cette opération : lettre d'André Legendre à Henri Malcor du 7 mars 1959, AN, 2012 026 824. La banque de l'Union européenne industrielle et financière en était propriétaire : son directeur général, Jean Terray est aussi administrateur du groupe Schneider, et un de ses directeurs – Georges Duchemin – est administrateur de Givors. 6 ADI, 56J13, conseil d'administration du 8 juin 1959. 7 AN, 2012 026 824, lettre de Lucien Lefol du 1er octobre 1959. Félix Rollet, administrateur judiciaire est nommé le 19 novembre 1959 : ADR, 34J7, rapport du CA à l'AG du 27 juin 1960. 8 AN, 2012 026 824, lettre de Louis de Curières de Castelnau du 14 mars 1959 ; réponse favorable du 4 août 1959 d'André Legendre. 9 ADI, 56J58, lettres de Pierre Cholat des 30 avril 1960, 14 mai 1960, 8 juin 1960. 10 AN, 2012 026 824, lettre d'André Legendre du 4 août 1959 après sa rencontre avec Jacques Ferry. 289 contrôle de la Compagnie des Hauts-Fourneaux et Fonderie de Givors et imposer un concordat : il s'agit du groupe Jacques Diserens1. Ce dernier propose un concordat en échange duquel il demande la cession gratuite du capital de la Compagnie des hautsfourneaux et fonderie de Givors : en cela il maintien le seul espoir pour ces sociétés de récupérer une partie de leurs capitaux investis. En faisant monter les enchères, il récupère la plus grande partie du capital de Givors en novembre 1962, sans réellement bourse délier2. c) Le recentrage des activités sur l'usine de Chasse-sur-Rhône De plus en plus en décalage avec les évolutions de la sidérurgie française et européenne, marginalisée dans les projets de réorganisation régionale, les dirigeants de la Compagnie des Hauts-Fourneaux de Chasse doivent également recentrer les activités sur la seule usine de l'Isère. En effet, ils doivent céder progressivement ou accepter la disparition de leurs filiales. Ils doivent aussi accepter de vendre toujours plus d'actifs. À l'issue de la Seconde Guerre mondiale, la Compagnie a déjà dû se séparer de sa filiale Bonne et Drac en raison de la création d'EDF et de la nationalisation des entreprises productrices d'électricité. Elle possède néanmoins encore plusieurs filiales ou participations. Mais dès 1956, en raison des difficultés croissantes de la Société des Chaux et ciments de Chazay-Bons, les administrateurs des HFC décident de vendre la totalité des actions de cette entreprise en leur possession au profit du Comptoir du bâtiment3. Pendant la période d'expansion des années 1956-1962, les mines de la Têt connaissent la même surexploitation que dans l'usine de Chasse génératrice d'accidents4, même si les approvisionnements des HFC peuvent être complétés – en période de forte expansion des productions – par des fournitures d'autres mines 1 Source pour l'offre du concordat et les débats qui s'ensuivent : ADI, 56J15, PV du conseil d'administration du 21 juin 1961 et AN, 2012 026 819, projet de PV du conseil d'administration du 21 juin 1961. 2 AN, 2012 026 854, lettre de Michel Hubert du 16 novembre 1962 et de Jacques Diserens du 14 janvier 1963. 3 ADI, 56J12, conseils d'administration du 9 février et du 4 septembre 1956. 4 Explosion dans la cheminée de la grille greenawalt : ADI, 56J13, conseil d'administration du 25 septembre 1958. Arrêt d'un four, source : AN, 2012 026 819, conseil d'administration du 24 janvier 1959. Voir à ce sujet la citation évoquée plus haut de : FREYSSENET Michel, La sidérurgie française 19451979, op. cit., p. 37. 290 pyrénéennes ou de l'étranger1. Puis, les coûts de production de la Têt devenant trop importants, les menaces de fermetures provoquent des grèves perlées pendant cinq mois en 19602. La crise des fontes d'affinage entraîne l'arrêt des mines en février 19633. Or elles embauchent encore 185 salariés en décembre 19624. Avec la fermeture des mines de la Têt, l'abandon de celles de Bou Amrane – propriété de la Compagnie depuis 1918 – est l'autre évènement important de la période5. Elle a été transformée en société civile en 1952 et Raoul Fort est son directeur 6. Dans la nuit du 30 au 31 janvier 1956, un attentat rompt le câble aérien de 18 kilomètres qui permet de transporter le minerai de Bou Amrane au port de Bougie 7. La mine elle-même est attaquée peu après ; Pierre Cholat essaie de remettre en route l'exploitation, contre l'avis des autres administrateurs qui souhaitent diminuer le plus rapidement possible les frais8. En février 1957, il réfléchit encore à remplacer le câble par une route, en juillet Cholat propose une augmentation de capital, mais Legendre proteste 9. Il cherche aussi des soutiens extérieurs afin de créer une nouvelle société, mais toujours contre les avis de Castelnau et Legendre ; ce dernier parlant de « projets illusoires ». Finalement la décision de repli devient définitive et l'exploitation de la mine est abandonnée en décembre 195710. La décision de se replier de Bougie date d'avril 1959, mais il reste à vendre le matériel des mines et les stocks de minerais qui sont encore présents sur le port11. D'après la comptabilité des mines les frais sont alors compensés par les aides du 1 ADI, 56J24, rapport du CA à l'AG du 5 mai 1960. ADI, 56J13, conseil d'administration du 15 janvier 1960. 3 ADI, 56J34, rapport du CA à l'AG du 12 décembre 1963. 4 AN, 2012 026 819, réunion d'administrateurs le 6 décembre 1962, rapport d'André Legendre. 5 Jean-François Klein indique que lorsque le siège social est transféré en métropole, le « patron colonial » est transformé en patron « métropolitain » ou « impérial » : KLEIN Jean-François, « Patronat impérial et colonies », dans DAUMAS Jean Claude, CHATRIOT Alain, FRABOULET Danièle, FRIDENSON Patrick et JOLY Hervé (dir.), Dictionnaire historique., op. cit., p. 978-984, p. 981. On pourrait ajouter que l'on ne voit pas forcément non plus l'ampleur des investissements métropolitains, alors que l'entreprise métropolitaine est diversifiée et surtout connue pour ses activités en France : la présence des HFC en Algérie remontant en 1918 pour Bou Amrane, et même au XIXe siècle pour El M'Kimen, alors que Charles Cholat était administrateur délégué. 6 ADI, 56J12, conseils d'administration des 13 mars 1952 et 30 octobre 1956. 7 ADI, 56J12, conseil d'administration du 9 février 1956. 8 ADI, 56J24, rapport du CA à l'AG du 14 février 1957 sur l'attaque de la mine ; ADI, 56J12, conseil d'administration du 30 mai 1956 sur les débats entre administrateurs. 9 ADI, 56J12, conseil d'administration du 14 février 1957 ; AN, 2012 026 819, conseil d'administration du 12 juillet 1957. 10 ADI, 56J13, conseil d'administration du 12 décembre 1957. 11 Ibidem, conseil d'administration du 9 avril 1959. 2 291 gouvernement général en 1956, la vente des stocks puis du matériel1. Néanmoins, même si on accordait du crédit à Pierre Cholat lorsqu'il affirme – sans le démontrer – que l'exploitation des mines algériennes a « juste couvert les frais » depuis 19272, ses hésitations ont engagé des dépenses importantes. On peut cependant en partie le comprendre puisque désormais l'approvisionnement en minerai des HFC va devoir être compensé par d'autres sources qui ne sont plus contrôlées par l'entreprise. Le minerai de Bou Amrane a en effet jusque-là permis aux HFC de produire leurs fontes de moulage. Pierre Cholat s'adresse alors à la Société du Zaccar – une entreprise coloniale3 qui a également une participation dans les mines de Timzerit et dont les dirigeants contrôlent celles de Fillols dans les Pyrénées – avec laquelle il fait affaire pour des quantités croissantes4. Mais à partir de 1959, cette société rachète des actions des HFC ; puis détenant près de 20 % du capital, deux de ses administrateurs font leur entrée au conseil d'administration en mai 19605. La fermeture de la mine de Bou Amrane a donc eu aussi comme conséquence indirecte une modification de la composition des dirigeants de la Compagnie. Enfin, la modification de son personnel a été marginale, mais bien réelle. Dès mai 1956, à la suite des attentats, les dirigeants de Chasse évoquent la nécessité de rapatrier personnels européens et indigènes de la mine 6. Par la suite, le sort du personnel européen est principalement évoqué. En décembre 1957, tous les personnels européens et algériens sont licenciés, mais on propose « aux bons ouvriers indigènes » d'être embauchés aux mines de la Têt et aux Européens d'être rapatrié en métropole, dans les Pyrénées ou à Chasse 7. En février 1957, il ne reste plus que sept Européens 1 ADI, 56J13, conseil d'administration du 9 avril 1959 ; 56J23, rapports des commissaires aux comptes pour les exercices 1956-1957, 1957-1958 et 1958-1959. Les HFC sont propriétaires d'un terrain de plus de 32 hectares ayant servi à l'installation du terminal d'Hassi Messaoud. 2 ADI, 56J13, conseil d'administration du 9 avril 1959. Il reste pour 104 931 776 de francs d'immobilisations pour l'exercice 1956-1957, puis 55 884 186 pour l'exercice suivant, soit une réalisation dont le détail n'est pas connu de 49 047 590 francs : 56J24, rapport des commissaires aux comptes de l'exercice 1957-1958. Mais en février 1957, André Legendre nous dit que la mine a perdu 98 millions en trois ans : AN, 2012 026 819, conseil d'administration du 14 février 1957. 3 Sur les mines du Zaccar, http://entreprises-coloniales.fr/index.html, [dernière consultation le 16 août 2016]. 4 ADI, 56J58, correspondance 1956-1958 Cholat-Vassillière. Ce dernier est le Président du Zaccar. 5 AN, 2012 026 819, « Participation du Zaccar dans Chasse », compte-rendu d'André Legendre du 5 avril 1960 ; ADI, 56J23, rapport du CA à l'AG du 5 mai 1960 sur l'entrée au conseil des administrateurs du Zaccar. 6 ADI, 56J12, conseil d'administration du 30 mai 1956. 7 Ibidem, conseil d'administration du 12 décembre 1957. 292 dans les mines, l'entreprise s'engageant – « s'ils finissaient par se lasser » – à les reprendre en métropole1. La dégradation du contexte économique et politique pour ses filiales a donc obligé les dirigeants de la Compagnie des Hauts-Fourneaux de Chasse à recentrer leurs activités sur la seule usine de Chasse. Pour les mêmes raisons, ils doivent également vendre un nombre croissant d'actifs, ce qui révèle tout autant son affaiblissement croissant. Ils le font de quatre manières : en vendant des terrains et des actifs financiers, en s'endettant et en cherchant à augmenter son capital. Les terrains sont vendus dans les communes proches de l'usine chassère, comme dans d'autres lieux : la principale vente est celle des terrains industriels de Pont de Claix – de 410 millions de francs – qui participe largement au financement du plan de modernisation de l'usine2. Les actions de différentes entreprises sont vendues par petits lots, de manière prudente jusqu'en 1961. Ainsi, afin de limiter leurs emprunts bancaires, ils vendent la totalité des actions Marine en leur possession : une page de l'histoire de l'entreprise est tournée3. Cela n'empêche cependant pas un emprunt de 300 millions de francs auprès des banques la même année. En revanche, les projets d'augmentation du capital social sont abandonnés en 1960, après une transformation déterminante de la composition du conseil d'administration 4. 3) Le renouvellement des dirigeants Le conseil d'administration de la Compagnie des Hauts-Fourneaux de Chasse est profondément transformé entre 1956 et 1962 : la présidence de Pierre Cholat est contestée et il ne peut assurer sa succession, car on la lui impose. Le conseil n'est composé que de six membres début 1957 : Pierre Cholat, son frère Joseph, André Diederichs – un industriel spécialisé dans la construction de machines textiles –, Georges Marrel un industriel client de longue date, Louis de 1 L'expression condescendante est d'André Legendre. Elle est révélatrice du rapport distancié qu'il a avec ce sujet, quand Pierre Cholat a une approche beaucoup plus passionnelle : AN, 2012 026 819, conseil d'administration du 14 février 1957. 2 ADI, 56J13, conseils d'administration des 25 septembre 1959 et 15 janvier 1960. 3 ADI, 56J13, conseils d'administration des 10 décembre 1960 et 10 mars 1961. 4 Il est passé de 16 à 32 millions de francs en juillet 1955 : ADI, 56J1, statuts successifs. L'autorisation d'augmentation de capital à 64 millions en date de 1954 – AG extraordinaire du 6 janvier, ADI, 56J22 – est évoquée pour l'exercice 1956-1957, ADI, 56J23, rapport des commissaires des comptes à l'AG ordinaire. Puis elle est évoquée une dernière fois à l'AG extraordinaire du 30 juillet 1960, source : ibidem. 293 Curières de Castelnau – un ancien administrateur des Aciéries de Saint-Étienne du temps où Cholat les présidait et Paul Berthier. Cet ancien directeur général des Aciéries de la Marine du temps de Théodore Laurent décède le 3 décembre 1956, en pleine chambre de commerce de Saint-Étienne1. André Legendre lui succède : il est nommé lors du conseil d'administration suivant, le 14 février2. Pierre Cholat le présente alors comme un « actuel directeur général adjoint de la Compagnie des Forges et Aciéries de la Marine et de Saint-Étienne ». Il est ingénieur et appartient au corps des mines, tout comme Henri Malcor 3. De douze ans le cadet de ce dernier ; il a quarante-et-un ans d'écart avec Pierre Cholat. Les deux hommes ne sont pas de la même génération, ni du même monde. Plus jeune – il est dans sa trenteneuvième année lors de son entrée aux HFC –, il est avant tout un technicien, sûr de lui et de son savoir. Si on s'en tient aux grandes figures du corps des mines, il est plus proche du « patron administrateur » de Fayol que de celui aux « qualités sociales et morales » de Cheysson4. Ses remarques sur la présidence de Pierre Cholat sont à la fois bien souvent fondées et pertinentes, mais aussi condescendantes et tranchantes 5. Plus attaché à la gestion de l'entreprise et à son système productif qu'aux hommes qui la composent ; il contraste avec un Pierre Cholat, certes autoritaire, mais aussi « paternaliste ». Toutefois, dès 1958, il arrive à trouver sa place parmi les autres administrateurs. Il a su se rapprocher en particulier de Castelnau avec qui il entretient une correspondance amicale6 : le spectateur caustique de 1957 devient ensuite un acteur qui connait ses limites, celles fixées par le président Cholat. Ce sont cependant les années 1959-1960 qui voient les changements les plus importants dans le conseil d'administration des HFC. Deux évènements en sont à l'origine : le décès de Louis de Curières de Castelnau et la montée au capital du Zaccar. 1 ADI, 56J12, conseil d'administration du 23 janvier 1957. Ibidem, conseil d'administration du 14 février 1957. Il devient administrateur à l'AG du 28 juin 1958, source ADI, 56J23 et 56J27. 3 Biographie d'André Legendre, http://www.annales.org/archives/x/legendre.html ; MIOCHE Philippe, La sidérurgie et l'État en France des années 1940, op. cit., p.470. En outre André Legendre succède à Henri Malcor comme président directeur général de Marine-Firminy de 1972 à 1975. 4 THÉPOT André, « Les ingénieurs du corps des mines, le patronat et la seconde industrialisation », dans LÉVY-LEBOYER Maurice (dir.), Le patronat de la seconde industrialisation , Le Mouvement social cahier n° 4, Les éditions ouvrières, Paris, 1979, 320 p. 5 AN, 2012 026 819, compte rendu des conseils d'administration des HFC par André Legendre. Par exemple dans celui du 12 juillet 1957, il intervient auprès de Pierre Cholat pour contester toute augmentation de capital en demandant qu'avant cela on ait « assaini la situation » et que l'on sache « un peu ou l'on va ». Ensuite, il « tente de faire comprendre » à Pierre Cholat que son engagement en Algérie est illusoire, mais cela est peine perdue, etc. 6 AN, 2012 026 824. 2 294 Avec le décès de Castelnau le 27 février 1960 1, Pierre Cholat perd un soutien indéfectible et éprouvé depuis de longues années, au pire moment ; c'est-à-dire lorsque le Zaccar monte au capital des HFC. Pierre Cholat a alors adopté une double stratégie : proposer une augmentation de capital et faire appel à des renforts. Il pense trouver ces derniers auprès d'Antoine de Tarlé et de Pierre Doulcet2. Né en 1 900, ancien élève de Polytechnique – comme l'administrateur qu'il remplace suite à son décès –, Antoine de Tarlé3 a été lieutenant-colonel dans l'artillerie de 1921 à 1941. Il a ensuite été sousdirecteur de l'école polytechnique, puis il est devenu secrétaire général de la Chambre syndicale patronale de la métallurgie de la Loire de 1946 à 1961. En outre, Pierre Cholat a déjà travaillé avec son père à la Chambre de commerce de la Loire. Quant à Pierre Doulcet, il est le gendre de Pierre Cholat4. Né en 1901, fils d'ambassadeur, il a été avant guerre secrétaire au service français de la Société des nations. Il est chef de la division des relations extérieures à la Société des Forges et Ateliers du Creusot au moment de sa nomination au poste d'administrateur des HFC. Enfin, Georges-Albert de Benoist – qui est directeur général des HFC – est nommé au comité de direction de l'entreprise avec voix délibérative5. Néanmoins, les dirigeants du Zaccar prennent Pierre Cholat de vitesse, et au moment où l'assemblée générale entérine ces nominations, ils réclament et obtiennent également deux postes pour eux6. Le premier est attribué à Léonce Bellat, il est administrateur de la Société des Mines du Zaccar et de la Société des Mines de fer de Fillols. Le second est à Charles Vassillière, il est PDG des deux sociétés dans lesquelles Léonce Bellat est administrateur, mais il est aussi administrateur de la société NobelBozel 7. Charles Vassillière met les formes en prenant contact avec les différents administrateurs des HFC et Pierre Cholat8. Léonce Bellat laisse penser à Legendre 1 ADI, 56J13, conseil d'administration du 1er avril 1960. 56J23, rapport du CA à l'AG ordinaire du 5 mai 1960. 2 Ils sont nommés lors du conseil d'administration du 8 juin 1959. 3 Sources biographiques : ADI, 56J13, conseil d'administration du 29 juin 1959. 56J65, questionnaire GIS de 1961. Sources internet complémentaires : http://gw.geneanet.org/pierfit?lang=en&p=antoine&n=de+tarle, [dernière consultation le 1re mai 2017] et http://data.bnf.fr/13085869/antoine_de_tarle/, [dernière consultation le 23 novembre 2015] et Journal Officiel de la République française, 24 septembre 1941, p. 4 108. 4 ADI, 56J3, inscriptions au registre du commerce et 56J65, questionnaire GIS de 1961. Le Gaulois, dimanche 10 mars 1929, p. 2, http://gallica.bnf.fr/ark:/12148/bpt6k541550h/f2; [dernière consultation le 31 décembre 2016]. 5 ADI, 56J13, conseil d'administration du 25 juin 1960. 6 ADI, 56J27, PV de l'AG ordinaire du 5 mai 1960. 7 ADI, 56J65, questionnaire GIS de 1961. 8 AN, 2012 026 820, lettre de Pierre Cholat à André Legendre du 2 mai 1960. 295 qu'ils ne veulent pas « casser la tirelire », car le Zaccar – qui n'a aucune compétence sidérurgique – est en revanche intéressé comme fournisseur des HFC, ainsi que par les projets de rationalisation et peut-être de fusion des mines pyrénéennes1. Léonce Bellat déclare que les bruits indiquant que le Zaccar veut éliminer le conseil et la direction actuels sont faux et colportés par des agents de change lyonnais 2. Mais que cela ait été prémédité comme peut le laisser entendre cette rumeur, ou que ce soit simplement le fruit des circonstances ; le fait est que Pierre Cholat est poussé à démissionner de ses fonctions de président. Alors qu'il est tombé malade, Charles Vassilière remet en cause les pouvoirs récemment réattribués au président : il dit qu'ils sont illégaux3. Au conseil du 10 décembre, Pierre Cholat mis sous pression remet alors sa démission4. Toutefois si la maladie est bien réelle5, il a su cependant en jouer en restant au lit et en bloquant ainsi le fonctionnement du conseil depuis le mois de septembre, ce qui lui permet de peser sur le choix de son successeur et de négocier sa sortie. Il obtient satisfaction au moins sur les conditions qui lui sont offertes : Georges Albert de Benoist est nommé directeur général, lui-même devient vice-président et demeure au comité de direction, tandis qu'une allocation bénévole conséquente lui est versée6. Contre toute évidence étant données les pressions répétées de Vassilière, il est dit qu'il « abandonne de son plein gré des pouvoirs qu'il détenait depuis si longtemps ». On met donc également les formes pour son départ en notant aussi « l'élévation de ses sentiments », tandis que ses soucis de santé permettent de donner le change 7. Le conseil retrouve par la suite un équilibre autour d'Antoine de Tarlé qui en est devenu son président, tandis que Pierre Cholat revient guéri le 26 juin 19618. Les dirigeants de l'usine ont eux aussi changé pendant la période. Les motifs sont plus « traditionnels » – si on peut dire – que ceux qui ont amené au changement de 1 AN, 2012 026 819, appel téléphonique d'André Legendre du 5 avril 1960. Ibidem. 3 ADI, 56J13, conseil d'administration du 9 novembre. AN, 2012 026 819, conseil d'administration du 22 septembre 1960. 4 ADI, 56J13. 5 Au comité de direction du 9 novembre 1960, il est indiqué que « Pierre Cholat, sous la pression de son médecin a demandé à être remplacé comme président, quand on lui aura trouvé un successeur qui lui convienne ». Vassillière demande que l'on acte au procès verbal les réserves qu'il continue à formuler sur l'étendue des pouvoirs de Cholat : AN, 2012 026 819. 6 ADI, 56J13, conseil d'administration du 10 mars 1961. 56J61 : il reçoit en 1962 pour 1270,72 NF en net de jetons de présence – ce qui est comparable aux autres administrateurs –, auxquels il ajoute 29 365,86 NF en net d'allocation renouvelable. Cette allocation est renouvelée jusqu'à son décès en 1965. 7 ADI, 56J13, conseil d'administration du 10 décembre 1960. 8 ADI, 56J13. 2 296 président directeur général : il s'agit du décès de Jean Boureille le 26 décembre 19591. Il occupait la fonction de secrétaire général : son remplacement occasionne une réorganisation des différents postes de direction des HFC et de leurs filiales2. Pierre Pautet qui dirigeait auparavant les mines de la Têt devient alors secrétaire général et succède à Jean Boureille. Il est remplacé à la direction de la Têt par Raoul Fort qui vient des mines de Bou Amrane. Jusque-là directeur, Georges de Benoist est nommé directeur général. Il laisse alors les fonctions d'ingénieur en chef – qu'il exerçait en plus de celles de directeur – à Charles Réveil, ce dernier étant auparavant ingénieur des hautsfourneaux. Avec un ingénieur principal né en 1924, un secrétaire général né en 1917 et un directeur né en 1914 ; le rajeunissement des principaux cadres dirigeants se produit en quelques mois, pendant la phase d'accélération de la croissance des productions de l'usine. Sa direction n'en est pas pour autant perturbée, puisqu'il n'y a pas de renouvellement, mais simplement une série de promotions pour des cadres déjà en fonction. Pendant cette phase d'expansion sans précédent les HFC perdent donc leurs filiales et recentrent par nécessité leurs activités sur la seule usine de Chasse. La réorganisation de la sidérurgie régionale est poursuivie dans la continuité de l'aprèsguerre comme l'avait déjà repéré Philippe Mioche3. La place des HFC devient de plus en plus marginale. Les nouveaux dirigeants de l'entreprise doivent faire face à ces défis. Ils misent sur la technique et l'accroissement de leurs productions pour réussir, ce qui va entrainer des mutations dans la composition du personnel. II) Un personnel renouvelé Les besoins en personnels nouveaux s'accroissent à partir de 1956 avec la mise à feu du haut-fourneau moderne. Ensuite, l'expansion des productions jusqu'en 1962 rend indispensable la poursuite des recrutements. Mais durant cette dernière année, on mesure déjà un reflux des recrutements, précurseur d'un retournement beaucoup plus important. 1 ADI, 56J13, conseil d'administration du 15 janvier 1960. AMC, fichier mécanographique. ADI, 56J13, conseil d'administration du 15 janvier 1960. 3 MIOCHE Philippe, La sidérurgie et l'État en France des années 1940, op. cit., p.719-720. 2 297 En France sur la même période, c'est pour satisfaire les besoins en main d'oeuvre dus à la forte croissance des Trente Glorieuses que l'on fait appel massivement aux immigrés1. Lors de cette seconde phase, les services migratoires sont même débordés, en raison des lourdeurs d'une administration qui ne peut suivre les rythmes de l'expansion économique2. Or les HFC qui ont toujours eu recours à de la main d'oeuvre étrangère poursuivent eux aussi leurs efforts de recrutement. De plus, afin de satisfaire les besoins d'un marché du travail en tension, femmes, jeunes et travailleurs ruraux viennent compléter les recrutements de personnels étrangers pendant cette période. Ceci est valable à la fois pour l'ensemble de la population active, comme pour les ouvriers3. Or pour les HFC, les ouvrières étrangères voient leurs effectifs décliner dans l'immédiat après-guerre. En revanche ceux des Françaises ont progressé légèrement jusqu'en 1956 ; la majorité d'entre elles étant des employées. Au niveau des migrants interrégionaux, le bassin chassère a été jusque-là peu attractif : le recrutement est essentiellement local. On pourrait alors s'attendre à ce qu'une recherche accrue de main d'oeuvre vienne modifier les logiques précédentes. Enfin, pour Xavier Vigna, les recensements font apparaitre des évolutions à l'intérieur de la classe ouvrière: on peut observer « un glissement vers le haut » entre 1954 et 1975, même si le groupe des OS est celui qui progresse le plus4. Gérard Noiriel avait déjà noté les mêmes évolutions, mais il insiste davantage sur l'augmentation du nombre des OS5. À son échelle, l'usine des HFC connait elle aussi des évolutions dans 1 MARCHAND Olivier et THELOT Claude, Le travail en France, op. cit., p. 63. BOURCIER DE CARBON Philippe, « La présence étrangère depuis la guerre », dans DUPÂQUIER Jacques (dir.), Histoire de la population française, op. cit. p.457-477. LEQUIN Yves (dir.), La mosaïque France, , op.cit., p. 429 ; NOIRIEL Gérard, Les ouvriers dans la société française, op. cit., p. 200 ; BAIROCH Paul, Victoires et déboires, op. cit., p. 367 sqq. 2 VIET Vincent, Histoire des Français venus d'ailleurs de 1850 à nos jours, collection Tempus, Perrin, Paris, 2013, 375 p., p. 202-203. 3 Pour la population active : sur la montée de l'emploi des femmes, BAIROCH Paul, Victoires et déboires, op. cit., p. 451 ; MARCHAND Olivier et THELOT Claude, Le travail en France, op. cit., p. 56 et WILLARD Claude, « les couches populaires urbaines 1950-1978 », dans BRAUDEL Fernand et LABROUSSE Ernest (dir.), Histoire économique et sociale de la France, op. cit., p. 1536-1538. Sur l'exode rural, BAIROCH Paul, Victoires et déboires, op. cit., p. 379 sqq. ; MARCHAND Olivier et THELOT Claude, Le travail en France, op. cit., p. 117 sqq. ; GERVAIS Michel, JOLLIVET Marcel, TAVERNIER Yves, « Le progrès et ses difficultés (de 1949 à nos jours), dans DUBY Georges et WALLON Armand (dir.), Histoire de la France rurale, tome 4, Éditions du seuil, première édition 1977, 1992, Paris, 760 p., p. 153 sqq. Pour les ouvriers : MARGAIRAZ Michel, « Les transformations structurelles des années soixante », dans WILLARD Claude (dir.), La France ouvrière 1920-1968, op. cit., p. 310-314. NOIRIEL Gérard, Les ouvriers dans la société française, op. cit., p. 210 sqq. VIGNA Xavier, Histoire des ouvriers en France au XXe siècle , op. cit., p. 194. 4 VIGNA Xavier, Histoire des ouvriers en France au XXe siècle, op. cit., p. 201-202. 5 NOIRIEL Gérard, Les ouvriers dans la société française, op. cit., p. 211. 298 En 1957, l'entreprise a augmenté ses effectifs dans la continuité de l'effort productif qui a suivi la mise à feu du haut-fourneau moderne. Elle passe de 707 salariés au 31 décembre 1956 à 760 au 1er septembre 19571. En 1958, la production de l'usine diminue fortement, à l'image du reste de l'économie française2. Mais en septembre 1958, ils sont encore 800 individus car la diminution de cette année commence à peine à être ressentie alors que les recrutements sur la fin de l'année 1957 se sont poursuivis. En effet, les recrutements s'effondrent pendant l'année – tant pour les travailleurs français qu'étrangers –, mais les sorties s'effectuent principalement au second semestre : elles sont relativement mesurées, c'est-à-dire deux fois moindres que l'année précédente. Elles résultent donc non pas d'un plan de départs, mais de l'achèvement de contrats que l'on ne renouvèle pas et de départs en retraite pour les Français. Les années suivantes, l'effectif de l'usine qui a encore diminué au premier semestre 1959, puis stagné au second reprend sa croissance : il est de 761 individus au 31 décembre 1959, puis 766 en septembre 1960, 868 en septembre 1961, et plus que 812 en septembre 1962. Toutefois, si on tient compte de tous les personnels – et pas seulement de ceux qui sont à déclarer pour l'impôt des patentes –, on a en réalité en moyenne pondérée 901 individus en septembre 1961 et de 967 en mars 19623. Un dernier maximum des effectifs est atteint cette année-là. Le précédent datait de 1952. Les administrateurs des HFC se félicitent alors qu'avec quatre-vingt-treize salariés de moins ils ont doublé leur production4. Les efforts de productivité en dix ans sont donc bien vérifiables dans ces chiffres5. Toutefois, si le résultat de l'exercice de la première année est supérieur à soixante-quinze millions de francs, l'année 1962 s'achève sans bénéfice6. Ensuite, il est possible de faire plusieurs constats d'ordre général qui concernent le sexe et la nationalité des travailleurs embauchés. Tout d'abord, les recrutements de femmes étrangères ont complètement disparu des statistiques. Celles qui sont en poste 1 ADI, 56J59, patentes. Leurs données sont utilisées pour les années de 1957 à 1962. CARON François et BOUVIER Jean, « Indices majeurs », dans BRAUDEL Fernand et LABROUSSE Ernest (dir.), Histoire économique et sociale de la France, op. cit., p. 1026. En revanche, à l'échelle de la branche, Philippe Mioche ne la voit pas : dans MIOCHE Philippe, La sidérurgie et l'État en France des années 1940, op. cit., p. 173. Cela laisse entendre que la production des fontes hématites a été plus touchée que les autres productions sidérurgiques. 3 Source pour le premier chiffre : ADI, 56J13, conseil d'administration du 27 septembre 1961 ; pour le second chiffre : AN, 2012 028 819, réunion des administrateurs du 9 mars 1962. 4 AN, 2012 028 819, réunion des administrateurs du 9 mars 1962. Le mot « production » désigne essentiellement celle de fonte qui est la plus importante de l'usine en volume et valeur. 5 Voir également pour les productions de l'usine l'annexe 3. 6 Cf. annexe 4. 2 301 restent dans l'usine pendant ces six années. Les recrutements de femmes françaises sont négatifs pendant plusieurs années, seule l'année 1961 fait exception : elles sont donc à leur tour victime des politiques de recrutement des HFC, comme les femmes étrangères l'ont précédemment été. Les contextes sont cependant différents : retour des hommes après la guerre pour les premières, modernisation des outils de travail et hausse de la productivité pour les secondes1. On peut observer la poursuite d'un recrutement inégal de travailleurs français et étrangers, mais aussi des variations dans celui-ci. L'échantillon s'établit à une différence positive de treize individus à la fin de l'année 1961 pour les travailleurs français. Or cette année-là, l'usine atteint en valeur absolue le plus grand nombre de salariés de cette catégorie depuis 1945. Elle n'a cependant toujours pas retrouvé en valeur absolue l'effectif de 1940 : il y avait eu une diminution de soixante-cinq individus entre 1940 et 1944 ; et si on ajoute tous les recrutements depuis janvier 1945, l'effectif est en augmentation de seulement de quarante-neuf unités. Le recrutement de travailleurs étrangers a donc joué un rôle décisif. Il s'élève à 413 individus pendant les « sept Glorieuses ». En 1962, la différence des entrées et sorties de travailleurs étrangers est positive de 135 individus ; elle l'a été de 199 en 1961. Il est par conséquent incontestable qu'ils ont fourni une fois de plus la plus grande partie des recrutements nécessaires à cette seconde phase d'expansion de l'usine depuis 1945. Toutefois, leur apport a été d'une moindre ampleur que durant la première partie des Trente Glorieuses ; ce qui est chronologiquement contraire à ce que l'on observe au niveau de l'immigration en général, à l'échelle nationale comme régionale. En effet, les entrées de travailleurs étrangers s'élèvent à 1066 individus sur la période 1945-1956, les entrées ne sont que de 413 individus de 1957 à 1962. Ces chiffres sont révélateurs d'une moindre progression des embauches de cette catégorie de travailleurs, en raison des effets de la politique de modernisation qui a limité le recours à des personnels non qualifiés dont ils fournissent les habituels contingents. Ensuite, si on observe les rythmes annuels de recrutement, on constate que les entrées de travailleurs étrangers sont majoritairement concentrées sur l'année 1957 (cela représente 38,25 % des entrées sur la période 1957-1962 pour cette catégorie de personnel, alors qu'en moyenne chaque année représente théoriquement 16,7 %). Par la suite, l'augmentation des effectifs s'explique moins par la reprise des entrées – qui ne retrouve pas son niveau de 1 Cf. 2) La restructuration du personnel 302 1957 en valeur absolue –, que par l'évolution de la différence entrées/sorties. Ces dernières jouent un rôle croissant dans l'évolution des effectifs étrangers. En revanche, si on observe les entrées de travailleurs français, elles sont les plus fortes de 1959 à 1961 ; tandis que la progression des recrutements de travailleurs étrangers sont en moindre croissance qu'attendue. Les travailleurs français semblent donc bénéficier en partie de la modernisation et de l'expansion. De 1957 à 1962, l'entreprise modifie en effet ses recrutements. Les entrées de la première année de la période sont caractérisées par la poursuite des modalités antérieures : embauche massive de personnels étrangers faiblement qualifiés, généralement manoeuvres et parfois OS. L'année 1958 est charnière. Après la dépression, les recrutements reprennent, mais les travailleurs français se substituent – au moins partiellement – aux étrangers. De 1959 à 1961, trente-huit individus sont recrutés dans notre échantillon. Parmi eux, on a trente-six ouvriers, dont trente pour lesquels la position dans la classification est connue. On a deux apprentis (6,7 % de l'échantillon), quatre manoeuvres (13,3 %), cinq OP (16,7 %), un agent de maîtrise (3,3 %) et dix-huit OS (60 %). Les OS vont essentiellement dans les usines de production : soit six aux hauts-fourneaux, quatre à la fonderie et trois à la cimenterie (72,2 % des OS de l'échantillon). Cela contraste avec les années précédentes pendant lesquelles les OS de nationalité française sont affectés davantage à l'entretien, la centrale, l'usinage, le matériel et le laboratoire. Les travailleurs italiens sont la seconde catégorie de travailleurs qui bénéficient des recrutements des années 1959-1960. Ils sont trente-deux à être recrutés en 1959 et quarante-et-un en 1960 ; contre huit et vingt-quatre Algériens ces années-là. En 1961, lorsque les recrutements de travailleurs algériens reprennent – soit cinquante-six individus –, le nombre d'Italiens diminue – soit seize individus – et les affectations d'OS français vers des ateliers autres que productif reprennent. D'une manière générale, le recrutement des autres nationalités étrangères demeure mineur : les entrées d'Arméniens et d'Européens de l'Est sont limitées, tandis que les départs sont souvent le fait des travailleurs eux-mêmes (en retraite notamment). Il y a cependant deux faits notables : l'arrivée de travailleurs hongrois après la révolte de 1956, preuve qu'une immigration a bien existé. D'octobre 1956 à mars 1957, plus de 170 000 Hongrois fuient vers l'Autriche. Au mois de mars, 118 000 sont évacués vers d'autres pays, dont 8 900 vers la France1. Cinq d'entre eux trouvent du travail aux HFC en 1 HENRY Louis, « Les réfugiés hongrois », dans Population, 12e année, n° 2, 1957, p. 343-345. 303 1957 ; quatre en mars et un dernier en décembre1. Le second fait notable est la réactivation de l'immigration portugaise. Elle ne concerne cependant que quelques individus et ne peut modifier, la structure du personnel, en valeur absolue comme en proportion. On peut alors tirer plusieurs enseignements de ces observations. Tout d'abord, la diminution des recrutements de travailleurs algériens peut s'expliquer par l'incertitude de l'évolution de la situation algérienne2, pour des raisons politiques comme militaires. D'ailleurs en 1957, la quasi-totalité des Algériens présents dans l'usine part en permission pendant l'année3. Mais la plupart revient d'Algérie. Ces fluctuations suivent donc bien davantage la chronologie des relations des HFC avec leur filiale algérienne : les recrutements ne sont pas interrompus au moment des attentats – en janvier 1956 –, mais après la fermeture de la mine, en décembre 1957. Avant, la période de mise en disponibilité de ces personnels correspond au moment où les dirigeants s'interrogent sur le repli de certains Européens et le recrutement des meilleurs éléments indigènes. De plus, les recrutements reprennent dès 1961, c'est-à-dire avant la fin de la guerre d'Algérie, ce qui révèle une moindre corrélation avec la chronologie internationale qu'avec la locale. Ensuite, le recrutement de personnels français substituables à ceux de personnels étrangers est en partie possible, alors que la tendance générale est caractérisée par des pénuries de personnels nationaux. Certes pour un employeur le turnover des travailleurs français est élevé : cinq des trente-six ouvriers de l'échantillon partent dans le mois de leur embauche, soit 13,8 %. Mais il est à peine moins élevé chez les travailleurs algériens : c'est le cas de sept individus sur les quatre-vingt-huit entrées de la période, soit 8 % d'entre elles alors qu'en raison de la migration les contraintes d'un départ de l'usine sont plus fortes que pour les travailleurs résident déjà en France. Il monte à 10,2 % pour les travailleurs algériens pour un départ deux mois après l'embauche, pour un chiffre stable des Français : l'instabilité dans l'emploi concerne de manière assez comparable les deux groupes. La mécanisation a pu en outre faciliter ces substitutions entre OS nationaux et étrangers, alors que cela pourrait être plus compliqué s'il s'agissait de recruter des manoeuvres français : ces derniers ne représentent d'ailleurs que 13,3 % de l'échantillon alors que c'est 60 % pour les OS. De plus, deux travailleurs 1 AMC, cahier du personnel étranger n° 15. PERVILLÉ Guy, De l'Empire français à la décolonisation, Hachette, Paris, 1991, 255 p., p. 204 sqq. 3 AMC, cahier du personnel étranger n° 15. 2 304 qualifiés proviennent des hauts-fourneaux Prénat : il s'agit de Louis Darchet embauché comme chef de la centrale en septembre 1960 et de Giacinto De Nicola, un ouvrier professionnel fondeur embauché à la fonderie en janvier 1960. La fermeture de l'entreprise rivale a pu laisser espérer des possibilités de recrutement, toutefois on ne peut que constater leur nombre plutôt limité1. Cela peut être dû aux rivalités entre les deux entreprises qui ont découragé les transferts, les travailleurs licenciés se tournant vers d'autres entreprises et d'autres communes afin de retrouver du travail 2. Les travailleurs français ont donc été en partie un moyen de substitution pour faire face aux carences du recrutement de travailleurs algériens ; l'autre étant le recrutement d'Italiens. L'entreprise a donc conservé plusieurs stratégies de recrutements, comme celle qui consiste à avoir recours aux travailleurs étrangers ; elle a pu aussi les faire évoluer ou en adopter des nouvelles. Cela concerne aussi bien la gestion du départ des personnels, que leur formation ou encore leur qualification au moment de l'embauche. L'âge peut alors devenir un élément important de l'emploi. Ainsi, les dirigeants des HFC continuent à utiliser les méthodes qui datent de la récession précédente : le départ de salariés français se fait grâce aux retraites, c'est ce qui explique quatre des sept départs de l'échantillon en 1958. Pour les étrangers, on a plutôt recours aux habituels non renouvellement voire interruptions de leur contrat. D'autre part, on peut observer que l'embauche des travailleurs français se fait toujours en recrutant des mineurs : sur l'échantillon, cela représente huit individus, soit 21,1 %. Parmi eux, six sont une sténo-dactylo (qui débute à dix-sept ans), deux manoeuvres de l'agglomération (ayant seize et dix-sept ans), deux aides-labo (de dix-huit et dix-neuf ans), et un manoeuvre de la fonderie (de dix-neuf ans). Ce mode de recrutement permet donc toujours à certains jeunes travailleurs sans qualification d'effectuer un parcours professionnel ascendant, conséquence de leur persévérance : par exemple Louis Debard vient de l'école primaire de Chasse lorsqu'il est embauché à l'agglomération comme manoeuvre en 1952. Il devient ensuite échantillonneur OS1 au laboratoire, puis OS2 à la fonderie (sans précision de poste)3. On a vu aussi que la formation sur le tas a commencé à être complétée pendant les années 1950 par des formations en cours du soir. Avec le temps, ces travailleurs peuvent donc également accomplir un parcours 1 AMC, fichier mécanographique du personnel. Il y a aussi quelques travailleurs non qualifiés comme Zemmouri Mohamed qui est un OS du parc à fonte, Auguste Bouttin et Francis Brochet qui sont des OS de la fonderie, etc. 2 Ces rivalités sont notamment évoquées par Andrée Jobert, témoignage du 06/05/2016. 3 AMC, fichier mécanographique et 56J65, état du personnel. 305 professionnel ascendant, mais on sait aussi que le taux d'échec à leurs examens peutêtre élevé1. Cependant les deux derniers travailleurs mineurs de l'échantillon sont en apprentissage à la fonderie : il s'agit de Roland Brialon et de Jacques Berthier. Dans d'autres entreprises et d'autres lieux l'embauche d'apprentis existe depuis longtemps, mais pour les HFC les conditions ont évolué seulement au cours des années 19502. En 1952, on les recrute encore à la sortie de l'école : c'est par exemple le cas de François Dagostini embauché aux HFC à dix-sept ans dans l'atelier d'agglomération, il avait suivi des cours pour devenir mécanicien au Centre d'apprentissage de Vienne. Comme de nombreux jeunes – qualifiés ou non –, il passe deux années dans cet atelier avant de partir pour celui qui correspond à sa qualification : pour lui, il s'agit de la centrale. Colagero Duminico est le titulaire du plus ancien contrat d'apprentissage signé par le directeur de l'usine retrouvé parmi les archives de l'usine 3. Cet apprenti mouleur débute directement à la fonderie en janvier 1956. Jusqu'en 1960 on retrouve la présence d'un apprenti recruté chaque année – sauf en 1959 –, généralement à la fonderie. En 1961, tout change : huit apprentis sont embauchés, soit quatre mouleurs à la fonderie ; un chaudronnier, deux ajusteurs et un tourneur à l'usinage et l'entretien4. L'année suivante, trois nouveaux apprentis sont encore embauchés. De tels recrutements sont poursuivis chaque année jusqu'à la fermeture de l'usine. On peut noter que ce changement de politique est concomitant avec un changement de direction dans l'entreprise, ce qui correspond au passage du « paternalisme désuet » de Pierre Cholat – évoqué par Henri Malcor – à une gestion plus moderne des personnels immédiatement après la prise du pouvoir par Legendre, Vassillière et de Tarlé. Toutefois, ce changement est surtout visible au niveau du nombre car ce mode de recrutement et de 1 THIVEND Marianne et SCHWEITZER Sylvie (dir.), État des lieux des formations techniques et professionnelles dans l'agglomération lyonnaise. XIXe siècle-1960, recherche financée par le programme Éducation et formation : disparités territoriales et régionales, 2005, 171 p., http://histoire.eclyon.fr/docannexe/file/1398/larhra0001.pdf, [dernière consultation le 22 mars 2016], p.142-143. Cela est confirmé par Jacques Bernet, témoignage du 2 mai 2017. 2 Les « notables industriels » de la Loire ont parfois développé leurs écoles d'apprentissage d'entreprise. Mais ils ont faiblement développé l'apprentissage maison à la différence de la région Lyonnaise : en cela Pierre Cholat se comporte bien comme ses confrères ligériens. Aussi, lorsque ces notables laissent place à une nouvelle génération d'entrepreneurs, ces derniers s'appuient sur les centres d'apprentissages privés et publics : dans VERNET Antoine, « Du développement économique à la lutte pour l'emploi : la formation en région stéphanoise (1964-1982). Penser et agir face à la crise dans les " années 1968 ". Les luttes ouvrières dans le bassin stéphanois (1963-1984), novembre 2013, Saint-Etienne, 45 p., <halshs00951442>, [dernière consultation le 13 novembre 2015], p. 13. 3 AMC, fichier mécanographique. Ce contrat date de 1956, ce qui est tardif puisque les Centre d'apprentissages se développent dès l'après-guerre, source : THIVEND Marianne et SCHWEITZER Sylvie (dir.), État des lieux des formations techniques et professionnelles, op. cit., p. 117. 4 AMC, fichier mécanographique et 1H3, « contrats d'apprentissages » dans le carton « fermetures ». 306 formation a été initié sous la direction de Pierre Cholat. Il bénéficie également de l'essor de l'offre de formation, l'AFPM ouvrant en 1961 son premier centre d'apprentissage interentreprises1 dans lequel une partie des apprentis des HFC va pouvoir être inscrit. Enfin, les enfants d'étrangers peuvent eux aussi être concernés par cette formation par apprentissage. Cela permet aux HFC d'offrir une forme de récompense à leurs salariés qui espèrent – par cette formation – donner un avenir meilleur à leurs enfants. C'est aussi s'assurer de leur fidélité sous une forme renouvelée des pratiques d'entreprise. Ainsi Mahmoud Boutamdja est un apprenti mouleur2 embauché à la fonderie en 1962. Néanmoins, cette non ségrégation à l'accès aux formations par apprentissage est déjà ancienne, puisque Colagero Duminico en a également bénéficié en 1956. Mahmoud est donc seulement le premier apprenti algérien, ce qui peut révéler une évolution du regard que l'on porte sur eux : on considère qu'ils peuvent eux aussi devenir des ouvriers professionnels, comme les autres migrants3. Toutefois, une autre condition est nécessaire : la présence du père parmi les personnels ou au moins dans la migration. L'embauche de Mahmoud Boutamdja serait alors révélatrice d'une migration algérienne davantage familiale, dont les prémices ont été indiquées plus haut4. Les employées des HFC sont une catégorie de personnels à part, leur formation a davantage reposé sur des écoles professionnelles privées5. Il y a eu également une plus grande continuité au niveau des pratiques de recrutement suivies par les HFC pour elles que pour les ouvriers6. Ainsi André Jobert a passé avant guerre son brevet, puis elle est allée « suivre une formation sur Vienne », chez Pigier où elle est formée en alternance. Embauchée en 1948, six ans après Andrée Jobert, Simone Arcondara est elle aussi passée par Pigier. Janine Bouillet embauché en 1954 a fait de même. Néanmoins, il est aussi possible d'entrer sans qualification : Christiane Pastorino a passé le baccalauréat lorsqu'elle débute aux HFC en 1958 à l'âge de dix-neuf ans. Elle n'a pas de formation technique, mais cela a été d'après elle compensé par son niveau général de 1 Histoire de l'UIMM, http://www.uimmlyon.com/representer/histoire, [dernière consultation le 31 juillet 2016]. 2 AMC, fichier mécanographique et 1H3, « contrats d'apprentissages » dans le carton « fermetures ». 3 Sur la gestion ethnique de la main d'oeuvre et ses conséquences sur les carrières : PITTI Laure, « Catégorisations ethniques au travail. Un instrument de gestion différenciée de la main d'oeuvre », Histoire & mesure [En ligne], XX - 3⁄4, 2005, 27 p., p. 6-8, http://histoiremesure.revues.org/1398, [dernière consultation le 18 décembre 2016]. 4 Cf. b) Les travailleurs étrangers : une place centrale 5 THIVEND Marianne et SCHWEITZER Sylvie (dir.), État des lieux des formations techniques et professionnelles , op. cit., p. 137 sqq. 6 Source : témoignages de Simone Arcondara le 11/03/2013, de Janine Bouillet le 24/02/2012, de Christiane Pastorino le 06/01/2015 et Andrée Jobert le 06/05/2016. 307 connaissances aux yeux de ses employeurs : en effet, la proportion de bacheliers dans une génération est autour de seulement 10 % à cette époque1. Toutes ces employées ont cependant comme point commun d'avoir été recrutées jeunes, assez souvent mineures, ce qui n'est pas forcément le cas des ouvriers. À cela s'ajoute une dernière nouveauté : le recrutement d'un nombre accru de travailleurs déjà qualifiés. C'est donc le modèle de formation interne qui décline – ce dernier étant d'ailleurs attaqué par le recrutement des apprentis dont la formation ne dépend plus totalement de l'usine –, tout comme celui de promotion à l'intérieur de l'usine, les possibilités d'évolution étant nécessairement plus limitées puisque les personnels sont embauchés à un niveau élevé alors qu'ils sont déjà qualifiés. L'abandon partiel des pratiques anciennes s'explique au moins en partie par la nécessité de poursuivre la politique de recrutements nouveaux en période d'expansion. Ainsi parmi les ouvriers professionnels de l'échantillon, Denis Berthon est titulaire d'un CAP d'ajusteur et d'un Brevet d'Enseignement Industriel. Il débute au matériel (qui fait partie de l'atelier d'entretien). Daniel Bonnet possède un CAP d'ajusteur, un Brevet d'Enseignement Industriel et un Brevet professionnel en mécanique. Il travaille un an à l'usinage, puis il va au matériel comme OP2 : il est donc également mensuel. Élie Bal a un autre profil que les deux précédents : il n'est pas salarié, mais travailleur indépendant2. Cet ancien garagiste de Givors est embauché comme OP1 au service thermique. Il devient ensuite chef d'équipe au service matériel. Un agent de maîtrise venant de l'extérieur est également recruté : il s'agit d'Auguste Boudin. Il débute en novembre 1960 comme contremaître des hauts-fourneaux ; c'est-à-dire à un moment où les trois appareils fonctionnent ensemble. Par rapport à la période précédente, les méthodes de recrutement évoluent progressivement en ce qui concerne la recherche de personnels qualifiés. Toutefois, ce qui change est moins la nature des postes à attribuer que leur accroissement en nombre. La modernisation des activités a un effet sur l'emploi dans quelques ateliers et bureaux, mais il est moindre que les fluctuations des productions. L'âge, le sexe, les nationalités sont aussi des composantes de l'emploi : ils sont à étudier pour décrire les nouvelles structures du personnel. 1 Soit 7,4 % pour le baccalauréat général en 1956 et 11,2 % en 1961, http://cache.media.education.gouv.fr/file/47/9/5479.pdf, [dernière consultation le 31 juillet 2016]. 2 Xavier Vigna est prudent lorsqu'il évoque comme facteur de croissance de la classe ouvrière l'apport des artisans et commerçants, dans VIGNA Xavier, Histoire des ouvriers en France au XXe siècle , op. cit., p. 194. Cet exemple prouve qu'il a pu exister pour certains personnels qualifiés. 308 2) La restructuration du personnel À ces trois thématiques on peut ajouter celle des postes de travail afin de décrire les transformations de la structure du personnel pendant les « sept Glorieuses ». Pendant la période d'expansion la nature des recrutements et la gestion des départs a tout d'abord eu des effets sur la pyramide des âges du personnels. Les données chiffrées des patentes ne tiennent certes pas compte de la totalité des personnels, mais elles sont suffisamment éloquentes à propos de l'évolution de la pyramide des âges du personnel de l'entreprise : les plus âgés partent à la retraite, ce qui entraine la diminution du nombre de salariés ayant plus de soixante-cinq ans ou moins de vingt ans. D'une manière générale la base et le sommet de la pyramide se rétrécissent. Tableau 14 : Évolution de l'âge des salariés des HFC de 1956 à 19621 Années Salariés de la production de de 20 ans et de + de 65 ans En % des salariés de la production Salariés de l'administration de - de 20 ans et de + de 65 ans En % des salariés de l'administration 1956 1957 1958 1959 1960 1961 1962 45 47 44 20 31 33 27 7,18 % 6,95 % 6,04 % 3% 4,47 % 4,92 % 3,5 % 7 8 8 7 9 3 2 8,75 % 9,52 % 11,27 % 10,15 % 12,5 % 7,14 % 4,88 % En % des salariés de de 20 ans et de + de 65 ans de l'usine 7,35 % 7,24 % 6,5 % 3,67 % 5,22 % 5,04 % 3,57 % Cela a tout d'abord concerné les salariés de la production au moment de la crise de 1958. Puis les employés sont touchés à leur tour par la réorganisation des bureaux entre 1960 et 19612. Le recrutement de huit apprentis en 1961 fait légèrement remonter l'effectif de cette catégorie de personnel, mais de seulement de deux unités : cela révèle que les départs des plus de soixante-cinq ans se poursuivent. C'est d'autant plus vrai que l'on continue à recruter de très jeunes travailleurs, parfois même après la loi Berthoin de 1959 qui rend pourtant la scolarité obligatoire jusqu'à seize ans. Ainsi Jean Pascual travaille à l'atelier d'agglomération à l'âge de quinze ans en 1957. Jean Martinez devient lui aussi empileur en 1960 : il a dix-sept ans. Mais Robert Lacour a seulement quatorze ans lorsqu'il est embauché en 1961, toujours au même poste et dans 1 2 ADI, 56J59, patentes. Témoignage d'Andrée Jobert le 06/05/2016. 309 ce même atelier. Pendant l'expansion, un effort important est poursuivi afin de rajeunir la pyramide des âges. Cette politique est dans la continuité de ce qui a été fait de 1952 à 1956. Pour le départ des travailleurs les plus âgés, on pourrait penser que cela s'effectue dans le contexte de développement d'un État social qui permet l'accès à la retraite plus précocement et par un plus grand nombre de travailleurs. C'est bien évidement en partie le cas, mais à l'échelle de l'entreprise on perçoit surtout les logiques de gestion de la main d'oeuvre. Elles sont d'ailleurs largement contraintes par un contexte économique très concurrentiel qui a poussé, par ailleurs, à l'abandon ou à la transformation de bon nombre d'autres pratiques patronales. Il y a enfin, l'accession au pouvoir d'un nouveau groupe de dirigeants, moins attaché à une gestion conservatrice – dans tous les sens du terme – de la main d'oeuvre, et d'avantage préoccupé par sa qualification. Tableau 15 : Composition du personnel des HFC en décembre 1956 et décembre 1962 1 Décembre 1956 Décembre 1962 Nationalités Français Dont naturalisés : Portugais Espagnols Italiens Arméniens Grecs Russe Hongrois Polonais Dont nés dans les colonies Algérie Camerounais Effectifs 574 Portugais Espagnols Italiens Algériens Arméniens, dont : Syriens Libanais Grecs Turcs Européens de l'Est, dont : Russes Polonais Tchèques Allemands Yougoslaves Hongrois 4 50 67 54 8 0 2 1 0 1 1 1 5 0 19 0 0 1 0 0 3 11 1 3 1 0 781 0 0 0 0 0 0 68 Total 1 6 17 26 17 3 1 1 3 Dont femmes 63 1 4 1 5 1 Présents de 1956 à 1962 Nationalités Français Dont naturalisés : Portugais Espagnols Italiens Arméniens Grecs Russe Hongrois Polonais Dont nés dans les colonies Algérie Camerounais Effectifs 568 Portugais Espagnols Italiens Algériens Arméniens, dont : Syriens Libanais Grecs Turcs Européens de l'Est, dont : Russes Polonais Tchèques Allemands Yougoslaves Hongrois 10 67 118 73 4 0 0 1 0 0 3 38 48 26 2 0 1 5 1 15 0 0 1 0 0 0 1 4 0 12 0 9 1 3 1 1 861 0 0 0 0 0 0 54 0 8 1 2 1 0 516 Total 5 13 8 13 2 1 1 2 Dont femmes 52 1 2 1 12 1 383 Dont naturalisés 5 12 2 13 2 1 1 2 Dont nés dans les colonies 4 1 AMC, cahiers du personnel français n° 10 et du personnel étranger n° 15. 310 Ensuite, on peut constater le déclin de certaines catégories de travailleurs étrangers et des effectifs féminins. En seulement six ans il ne reste plus que 516 des 781 travailleurs de 1956 : c'est seulement 66,1 % de l'effectif de départ. On peut aussi dire que 33,9 % des personnels de l'usine en décembre 1962 sont arrivés après décembre 1956, c'est-à-dire qu'ils ont une ancienneté inférieure à six ans. Mais les nationalités sont inégalement concernées par ces transformations rapides. Les travailleurs français sont affectés par le retournement de conjoncture de 1958 : en raison des départs en retraites, puis par un fort turnover sur les derniers mois de la période. Ce sont au final 33,3 % de l'effectif de 1956 qui ont quitté l'usine. Ils sont donc proches de la moyenne de l'usine (33,9 %). Souvent dans la mémoire des travailleurs interviewés, la fin des HFC est anticipée : ils ne parlent pas de l'année 1966 – année de la fermeture définitive –, ni même de 1963 – année d'un premier plan de licenciement –, mais bien de 1962 voire 19611, quand cela « commençait à aller mal ». La mémoire collective ne se trompe en effet pas, puisque de très nombreux départs se produisent à ce moment-là : il y en a au total soixante-deux du 31 mars au 31 décembre 19622, c'est-à dire à partir du moment où la conjoncture se retourne brutalement 3. Certains ont même anticipé : Georges Charrier quitte l'usine en novembre 1961, « quand cela commençait à aller mal », sous le prétexte du refus d'une augmentation de la part de Georges de Benoist 4. On n'est pas non plus très éloigné de la date de démission de Pierre Cholat en décembre 1960 : les salariés rapprochent en effet le retournement de la conjoncture et le changement de direction. Les travailleurs naturalisés voient leur proportion passer de 12,9 % à 7,9 % des travailleurs français et leurs effectifs de soixante-quatorze à quarante-cinq. Cette évolution ne traduit pas une fuite de cette catégorie de personnels, mais plutôt l'ancienneté de leur enracinement : plusieurs Arméniens, Italiens ou Espagnols partent en effet à la retraite pendant la période. Or comme leurs enfants sont nés en France, ils ont déjà la nationalité française lors de leur entrée dans l'usine ; ils ne renouvèlent donc pas les effectifs de cette catégorie de personnels. En revanche, on voit progresser les effectifs des pieds noirs ; plusieurs d'entre eux ayant travaillé aux mines de Bou Amrane. 1 On le retrouve dans plusieurs entretiens : Georges Charrier et Fernand Abel le 15/03/2000, Georges Charrier et Mohamed Safer 22/04/2000, Gérard et Christiane Pastorino le 06/01/2015, Andrée Jobert le 06/05/2016. 2 AMC, cahier du personnel français n° 10. 3 ADI, 56J13, conseil d'administration du 11 septembre 1962. 4 Témoignage écrit de Georges Charrier. 311 La situation des travailleurs étrangers est contrastée en fonction de l'ancienneté des courants migratoires. Certaines nationalités voient leurs effectifs stagner – comme les Grecs – ou régresser : les Européens de l'Est et les Arméniens sont dans ce dernier cas. Cela s'explique par la quasi disparition des flux entrants de migrants. Les Hongrois ont fait exception, mais il ne reste plus vraiment de traces de leur passage dans les statistiques. La nationalité turque apparait, mais elle est marginale. Par conséquent, les apports nouveaux viennent souvent des descendants de ces migrants installés localement, bien que la plupart du temps ces derniers aient désormais la nationalité française. L'installation de nouveaux travailleurs portugais reprend vigoureusement (+150 %), mais à partir d'un effectif d'origine faible. Les Italiens sont la nationalité qui a le plus bénéficié des recrutements (+76,1 %), devant les Algériens (+35,2 %) et les Espagnols (+34 %). En revanche, si on observe la stabilité des migrants dans l'emploi, le classement des nationalités n'est pas le même : c'est 75 % pour les Portugais, 71,6 % pour les Italiens, 76 % pour les Espagnols ; mais seulement 48,1 % pour les Algériens. Ce dernier groupe de migrants conserve donc une instabilité spécifique, même si on peut aussi dire que près d'un travailleur sur deux est présent depuis plus de six ans dans l'usine. La proportion de personnels féminins est également en régression : de moins quatorze postes, alors que l'effectif total a progressé de quatre-vingt individus. Il ne reste pratiquement plus de femmes étrangères, mais cela est également dû au fait que deux d'entre elles ont été naturalisées. Cela augmente d'autant l'importance du déclin des effectifs de françaises. On peut l'expliquer par la modernisation des bureaux, mais aussi par leur réorganisation. Tableau 16 : Évolution des effectifs de salariés participant aux activités administratives et commerciales de 1956 à 19621 Années 1956 1957 1958 1959 1960 1961 1962 Évolution totale 1 Effectifs 80 84 71 69 72 42 41 - 39 Évolution en % +5% - 15,5 % - 2,8 % + 4,3 % - 41,7 % - 2,4 % - 51,25 % ADI, 56J59, patentes. 312 Un important effort de modernisation du matériel de bureau a été entamé au milieu des années 19501. Il est poursuivi de 1956 à 1962, ce qui justifie la suppression régulière de quelques postes en raison de l'augmentation de la productivité. Mais la modernisation de l'outillage n'explique pas toutes les évolutions. Les effectifs progressent en effet lors des phases de croissance afin de satisfaire les besoins de gestion qui augmentent : en 1957 et 1960. En revanche, ils diminuent fortement à deux reprises : en 1958 et 1961. La première fois, la récession et la disparition de la filiale algérienne peuvent expliquer une diminution de 15,5 % des effectifs. En revanche en 1961, il s'agit d'une nouvelle répartition des postes qui sont concentrés dans les « Grands bureaux », autour de la direction générale. L'ingénieur principal perd par exemple une partie de ses secrétaires2. Cette rationalisation est efficace puisque 41,7 % des postes disparaissent par rapport à l'année précédente : si en 1960 la nomination d'un directeur général, d'un secrétaire général et d'un ingénieur principal a été effectuée avec les cadres déjà présents de l'usine, en revanche il n'en est donc pas de même des conséquences de cette réorganisation l'année suivante sur les effectifs des bureaux. Outre les bureaux, le changement d'outillage et de méthodes de production concernent les postes de la cimenterie, de la centrale et de la fonderie eux aussi touchés par la modernisation. Dans le premier atelier, le nouveau séchoir Polysius et la mécanisation des autre tâches pour ensacher, fabriquer des briques ou déplacer des produits réduit à presque rien le nombre de manoeuvres. Inversement, l'effectif des OS conduisant des machines augmente. Ces deux catégories sont celles qui ont été le plus concernées par les changements de matériels. La maîtrise n'a elle pas vraiment évolué : un chef de poste est simplement remplacé par un pointeau. Le nombre d'OP reste identique. 1 2 Cf. 2) Les transformations du travail et de l'emploi. AMC, fichier mécanographique. 313 Tableau 17 : Comparaison des effectifs de la briqueterie-cimenterie, de la centrale et de la fonderie entre décembre 1956 et décembre 1961 1 Atelier Classification et métiers Effectifs Décembre 1956 Décembre 1961 Briqueterie-cimenterie Centrale Fonderie Menuiserie Usinage Ingénieur Chef de poste Contremaîtres Chefs d'équipe Pointeau Ouvriers professionnels : Ouvriers spécialisés : Manoeuvres Total Ingénieur Chefs de poste Contremaître Chefs d'équipe Ouvriers professionnels : Ouvriers spécialisés : Total Ingénieur Contremaîtres Chefs d'équipe Agents techniques Ouvriers professionnels : Ouvriers spécialisés : Manoeuvres Apprentis Total Contremaîtres Chefs d'équipe Ouvriers professionnels : Ouvriers spécialisés : Total Chefs d'atelier Chefs d'équipe Techniciens Ouvriers professionnels : Ouvriers spécialisés : Total 1 1 2 4 0 4 20 14 46 1 3 1 1 13 3 22 2 3 7 3 29 78 36 2 160 1 1 12 4 18 1 1 0 15 1 18 1 1 2 3 1 4 24 4 40 1 4 0 0 16 3 24 2 3 8 2 30 94 41 7 187 1 1 10 2 14 1 1 1 18 4 25 Inversement, la nouvelle centrale a été surtout profitable au recrutement d'ouvriers professionnels. À la différence de la maçonnerie avant 1956 pendant la période de construction du haut-fourneau n° 3, ses postes sont pérennes. Ils ne sont encore que seize en décembre 1961, mais leur effectif va s'accroître encore les années suivantes. Donc contrairement aux activités jusque-là concernées par la modernisation qui perdent des postes, le changement de centrale en a créé de nouveaux, qui sont – de 1 Listes des prud'hommes 1960, cahiers du personnel français n° 10 et étranger n° 15. Les dates choisies sont le début de la période d'expansion et 1961 car à la fin de cette année ces deux outillages ont été mis en service. 314 plus –, qualifiés. Et si on fait des efforts de productivité au haut-fourneau, à la cimenterie et dans les bureaux en économisant des personnels, il y a au contraire un surcoût pour la centrale en raison de l'augmentation de la masse salariale de ces derniers. Mais cela est plus que compensé par les gains de productivité obtenus par l'outillage qui accroît la productivité des hauts-fourneaux et de l'usine, tout en améliorant sa propre consommation de charbon1. Les différents ateliers de la fonderie voient leurs effectifs évoluer de manière contrastée en fonction de la hausse des productions et des investissements en matériel. Pour la fonderie même, on constate que l'augmentation des effectifs profite surtout aux OS (+20,5 %) et moins aux manoeuvres (+13,9 %) et aux OP (+3,4 %). En raison de la mécanisation, les pièces fabriquées en série (des mouleurs à la machine et des noyauteurs) et les activités s'appuyant sur des machines (des ébarbeurs, caristes, pontonniers) profitent davantage de l'essor des productions : or tous ces postes sont attribués à des OS. Dans cet atelier, on voit également progresser fortement le nombre d'apprentis. À la menuiserie, l'investissement dans une nouvelle étuve2 a eu au contraire pour conséquence une diminution des effectifs, ce qui touche en valeur absolue de manière égale les OS et les OP. L'effectif de l'atelier étant faible, cela a pu être géré par des départs non remplacés et une mutation à l'atelier d'entretien. L'usinage occupe lui aussi des effectifs relativement faibles, mais qui profitent de l'expansion des productions tout comme la fonderie : c'est-à-dire davantage au profit des OS qu'à celui des OP en valeur relative, même si les premiers sont encore largement minoritaires. L'utilisation de nouveaux matériels a donc un effet sur le nombre de postes de travail, mais il est moindre que celui de la réorganisation du travail dans les bureaux et les ateliers, et surtout moindre que les variations d'effectifs imposées par la nécessité de suivre la conjoncture. Ces nouveaux matériels ont davantage un effet sur le travail luimême. Le regard porté par les salariés est souvent empreint de la fierté d'utiliser un matériel moderne et puissant. L'entreprise utilise ce sentiment afin de célébrer chaque installation nouvelle. Il y a aussi le plaisir : André Jobert se rappelle qu'il fallait « taper » sur les anciens modèles de machine, alors qu'avec les nouvelles machines électriques, il suffit de « les caresser »3. 1 ADI, 56J13, conseil d'administration du 10 avril 1962. ADI, 56J59, déclarations de constructions nouvelles. 3 Témoignage d'Andrée Jobert le 06/05/2016. 2 315 La modernisation est aussi l'occasion de changer d'activité et/ou de poste de travail. Certains travailleurs sont récompensés ; que cette mobilité entraine une plus ou moins grande amélioration de leur position dans la classification, ou non. Par exemple, José de Barros qui était manoeuvre à la maçonnerie est reclassé OS2 à la cimenterie. De même, deux des nouveaux surveillants de la centrale viennent du parc à ferrailles en restant OP1 : il s'agit de Gaetano Costanza et de Claude Gilibert. Cette occasion d'effectuer un parcours professionnel ascendant ou d'améliorer sa position dans l'usine en changeant d'activité est néanmoins limitée par des recrutements extérieurs, comme celui de Louis Darchet, le nouveau chef de poste de la centrale qui vient de Prénat. Les transformations du personnel des HFC de 1956 à 1962 sont donc très fortes. Comme pour la précédente phase d'expansion, il est difficile de parler de stabilisation de toute la classe ouvrière. Ces transformations suivent en partie seulement celles que l'on a dans l'ensemble de la population active. Les travailleurs étrangers ont un rôle très important dans les recrutements, mais il est relativement moindre en valeur absolue que lors de la période précédente. Les migrants italiens ont été davantage mobilisés que les autres nationalités, en particulier les Algériens. Les travailleurs français sont davantage recherchés eux aussi. Ils continuent à être essentiellement recrutés localement 1 et l'effet de l'exode rural ou du recrutement de travailleuses restent limités, voire négatif pour ces dernières. En revanche la mécanisation de certaines activités et dans une moindre mesure la fermeture des hauts-fourneaux voisins ont contribué à une amélioration relative de leurs capacités de recrutement. On constate également que la qualification joue bien un rôle déterminant dans l'embauche. Et s'il y a également un « glissement de la classe vers le haut », cela semble surtout dû au progrès technique pour les HFC. Une partie des recrutements de travailleurs qualifiés provient alors de l'extérieur. L'évolution des pratiques de recrutement est la conséquence du changement de dirigeants de l'entreprise et de leur choix pour s'adapter à l'environnement de l'usine. Par « environnement », on entend à la fois les évolutions politiques ou économiques conjoncturelles et la transformation des configurations techniques dans lesquelles l'entreprise se situe2. Les problématiques techniques et économiques sont celles qui sont 1 AMC, cahier du personnel français n° 10, par échantillon à la lettre B : 57,4 % des salariés embauchés de 1957 à 1962 sont nés à Chasse ou dans une commune proche et 22,2 % dans un département limitrophe. Ces données sont comparables à la période précédente. 2 Bertrand Gilles a défini la notion de système technique dans Histoire des techniques, Gallimard, Paris, 1978, 1649 p., p. VIII. François Caron le définit comme « l'interdépendance étroite qui relie entre elles les différentes composantes de la technologie à un moment donné de l'histoire », dans CARON François, Les deux révolutions industrielles du XXe siècle, op. cit., p. 18. 316 le plus évoquées lors des conseils d'administration de l'entreprise. Ce sont de plus les pratiques d'entreprise pour les personnels qui ont été concernées par les changements de politique. III) Vivre avec la Compagnie des Hauts-Fourneaux de Chasse Stéphane Gacon et François Jarrige indiquent que « [l]es auteurs qui ont travaillé sur le paternalisme ont montré la coïncidence entre les politiques sociales et les transformations générales du processus de production »1. En modernisant l'usine, on passerait alors des pratiques paternalistes d'un Pierre Cholat à d'autres car certaines d'entre-elles en crise, tandis que la conjoncture économique se détériore et que la concurrence augmente. Mais elles peuvent aussi se transformer. L'État social est un troisième acteur qui s'est immiscé – en particulier après 1945 – au sein des relations entre patronat et salariés2. Il s'agit de décrire les choix qui sont faits à Chasse et de voir comment les personnels se les approprient. Ces derniers peuvent aussi chercher à profiter de la croissance. Jean Fourastié justifie que l'on appelle ainsi les « Trente Glorieuses » par le fait que le pouvoir d'achat des salaires s'est accru pendant 30 ans, et cela davantage qu'en aucune autre période 3. Ce fait est convenu et par exemple plus récemment Olivier Marchand et Claude Thélot indiquent eux aussi que le salaire moyen des salariés comme celui des ouvriers progresse à un rythme inégalé pendant la période4. Or toujours d'après Jean Fourastié 95 sur 100 grèves ces années-là ont pour objectif des augmentations de salaires, ce qui laisse transparaître la permanence d'une tension sur ce sujet5. Ce paradoxe apparent se retrouve aussi aux HFC où des tensions salariales existent alors que les salaires progressent : les salariés ont-ils alors réellement les moyens de profiter des fruits de la croissance ? Il semble en effet que le seul examen quantitatif du sujet ne soit pas suffisant. 1 GACON Stéphane et JARRIGE François, « Les trois âges du paternalisme », op. cit., p. 28. DAUMAS Jean-Claude, « Les métamorphoses du paternalisme », dans DAUMAS Jean Claude, CHATRIOT Alain, FRABOULET Danièle, FRIDENSON Patrick et JOLY Hervé (dir.), Dictionnaire historique des patrons français, op. cit., p. 880 sqq. 3 FOURASTIÉ Jean, Les Trente Glorieuses, op. cit., p. 139. 4 MARCHAND Olivier et THELOT Claude, Le travail en France (1800-2000), op. cit., p. 164 sqq. 5 FOURASTIÉ Jean, Les Trente Glorieuses, op. cit., p. 139. 2 317 Les années 1968 sont aussi celles d'une « insubordination ouvrière »1, dont Xavier Vigna fait remonter les prémices de ce cycle à 1965 2. Antoine Vernet suggère qu'il est possible de faire débuter dans la Loire au début des années 1950 cette « seconde jeunesse de la grève »3. Il y a en effet de la pertinence à le faire, car cela est justifié par des facteurs communs et le constat de la multiplication des actions dès cette époque : la création de la CECA et les restructurations dans la Loire ouvrent une période de mécontentements et d'agitation sociale. Mais si on définit plus précisément l'insubordination à partir de l'élargissement de ses territoires et modes d'action, comme de la diversification de ses participants4, alors les grèves menées aux HFC commencent à prendre des caractères nouveaux seulement vers 1960. Dans le secteur de la sidérurgie, Michel Freyssenet note la faiblesse des mouvements de grève sur la période 1954-1960 en raison de la répression patronale antérieure5. Des actions ponctuelles se développent néanmoins pendant la phase de croissance, notamment parce que l'attitude du patronat devient moins dure et plus diversifiée. Mais à partir de 1961, le patronat est contraint d'affronter la classe ouvrière afin de se regrouper6. Cette chronologie correspond également dans l'ensemble à l'histoire des HFC. 1) L'entrée en crise des pratiques d'entreprise À l'échelle de l'usine, les pratiques d'entreprise entrent en crise à partir du moment où le plan de modernisation mis en place en 1956 commence à montrer ses limites. Elles ne disparaissent pas, mais sont modifiées ce qui est généralement négocié avec le personnel. Leur remise en cause a cependant débuté plus tôt en raison du développement de l'État social. Par exemple, la création de la Sécurité sociale diminue l'importance de la mutuelle d'entreprise, sans pour autant la faire disparaître. Toutes les politiques mises en place depuis des décennies sous la présidence de Pierre Cholat sont concernées ; on a tout d'abord le logement. 1 VIGNA Xavier, L'Insubordination ouvrière dans les années68. Essai d'histoire politique des usines, PUR, Rennes, 2007, 380 p. 2 Ibidem, p. 331. 3 VERNET Antoine, « Du développement économique à la lutte pour l'emploi, op. cit., p. 2. La citation est en revanche de Xavier Vigna. 4 VIGNA Xavier, L'Insubordination ouvrière dans les années68, op. cit., p. 89 sqq. 5 FREYSSENET Michel, La sidérurgie française 1945-1979, op. cit., p. 36. 6 Ibidem, p. 58 sqq. 318 a) Le logement du personnel : permanences et nouveautés Le dernier logement construit par la Compagnie des Hauts-Fourneaux de Chasse est, en 1960, une maison située au quartier de l'Église1. Pendant l'exercice 1959-1960, un immeuble est également acquis à Givors2. Le plan de construction de six villas réalisé à partir de 1956 est donc laborieusement achevé quatre ans plus tard. L'achat de logements anciens est lui aussi limité. Mais la Compagnie est désormais propriétaire de 431 logements et 47 chambres et peut loger entre la moitié et les 2/3 de ses salariés selon les variations annuelles du personnel. Après 1960, plus aucune construction ou achat n'est réalisé en raison des difficultés financières croissantes, mais aussi des changements de dirigeants. L'entreprise continue à avoir une politique de logement, mais sous d'autres formes. Elle achète ainsi une maison à Ternay en viager à l'un de ses salariés3. C'est une manière d'assurer un revenu pour ce contremaître de la cimenterie qui part en retraite à soixante ans en 1961 : il a tout de même passé trente-deux ans aux HFC. Mais c'est aussi un placement pour une entreprise qui peut espérer devenir propriétaire d'un bien supplémentaire sans avoir à débloquer immédiatement un capital important : il ne s'élève qu'à 10 000 NF pour une maison neuve de trois pièces avec cuisine et un terrain constructible de 1 160 m2. La rente viagère est fixée à 4 800 francs par an et transmissible à l'un des deux conjoints survivant. La valeur de la propriété comme de la rente peut varier chaque année, mais à partir d'une valeur servant de base. La Compagnie peut aussi vendre certains terrains constructibles à ses salariés. Elle le fait pour la première fois en 1960 pour une parcelle de 813 m2 à Chasse achetée par une employée de bureau ; puis pour une autre de 546 m2 en 1961 achetée dans la même commune par un chef d'équipe de la maçonnerie et une dernière fois en 1962 pour une parcelle de 2 476 m2 à Chasse-sur-Rhône achetée par un chef de service et une parcelle de 515 m2 à Ternay achetée par un contrôleur du service matériel4. Tous ces acheteurs sont des travailleurs qualifiés ou des mensuels : ils ont des revenus suffisants pour 1 ADI, 56J59, déclarations de constructions nouvelles. ADI, 56J23, rapport des commissaires aux comptes pour le bilan du 30 juin 1960. 3 ADI, 56J13, conseil d'administration du 6 septembre 1961. 4 ADI, 56J13, conseils d'administration des 15 janvier 1960, 10 mars 1961 et 10 avril 1962 ; AMC, fichier mécanographique du personnel. 2 319 devenir propriétaires, ce qui compte davantage que l'ancienneté, puisque l'un d'entre eux a à peine un an de service. Les HFC peuvent aussi prêter de l'argent à leurs salariés afin qu'ils puissent accéder à un nouveau logement ou le rénover 1. La loi de 1953 oblige en effet tout employeur de plus de dix salariés à investir chaque année au moins 1 % de la masse salariale de l'entreprise dans le logement, mais elle laisse une liberté quant au choix du mode d'investissement2. Les HFC proposent de prêter jusqu'à 3 000 NF remboursables chaque mois, sans intérêt : un avantage non négligeable pour les salariés. Ces prêts disposent de garantis en cas de décès du salarié ou de départ du logement acheté. Il faut aussi les rembourser en totalité en cas de départ de l'usine, ce qui est un bon moyen de stabiliser certains travailleurs, notamment qualifiés. Sans savoir si les documents conservés aux Archives départementales de l'Isère sont un échantillon ou non, il est difficile de mesurer l'ampleur de cette politique d'aide au logement. Néanmoins, on peut dire qu'elle s'adresse à des salariés récemment recrutés – quatre individus de l'échantillon sur vingt-quatre ont moins d'un an d'ancienneté –, et à de plus anciens ; à des hommes mais aussi à une femme ; à des travailleurs français comme étrangers. L'offre est donc libérale et une seule demande est refusée, vraisemblablement en raison d'une sollicitation trop élevée. Ces prêts sont accordés après un avis du chef de service révélateur des politiques menées : ainsi sur l'un d'eux il noté « [a]vis favorable. Ouvrier travailleur et très sérieux (spécialisé au moulage des lingotières). Il s'est toujours opposé à des arrêts de travail ». Il faut donc être sérieux dans son travail, avoir démontré son utilité dans le poste occupé et ne pas faire grève. D'une manière générale, les prêts sont presque tous accordés à des ouvriers professionnels et des employés. Par exemple Sebti Garah est fondeur OP2 au haut-fourneau. Mais ils peuvent-être occasionnellement accordés à des ouvriers moins qualifiés : Georges Ollagnier est par exemple un simple OS1 au haut-fourneau. La composition de ce groupe de demandeurs ne s'explique donc pas uniquement par un choix de l'employeur, mais aussi par une réalité économique : les revenus d'un manoeuvre ou d'un OS sont bien souvent insuffisants pour pouvoir espérer devenir propriétaire à cette époque-là. Ils ne bénéficient pas vraiment de la politique de 1 % logement par le biais des prêts, ni non plus de la vente de terrains de la Compagnie ou des viagers. 1 ADI, 56J69, activités d'oeuvres sociales. Vingt-quatre contrats de prêts son conservés sans que l'on puisse connaître leur nombre exact. Ils datent de 1956 à 1965. 2 FROUARD Hélène, « Aux origines du 1 % logement : histoire d'un compromis républicain », op. cit., p. 73-74. 320 Ils ont en revanche davantage de chance d'accéder à un logement HLM. En 1956, sur les quatre-vingt logements de ce type à construire sur la commune de Chassesur-Rhône, les HFC en obtiennent seize1. En participant seulement à hauteur de 12,5 % du financement de ces logements, ils peuvent les réserver pour leurs salariés. On comprend pourquoi ce type de logements est construit à la même époque pour la Sollac2. Cela a facilité leur financement, fait disparaître la plus grande partie de leur coût de construction et libéré les employeurs d'une lourde charge particulièrement ressentie en période de récession. Ces renouvellements de politiques de logement datent de l'époque de la présidence de Pierre Cholat. Ils s'expliquent donc par un souci nouveau de diminuer le poids des investissements consacrés au logement des travailleurs tout en gardant des moyens de contrôle sur la main d'oeuvre. Cependant les loyers – en réalité une indemnité d'occupation – restent modérés et l'eau et l'électricité qui viennent de l'usine sont gratuites, ainsi que certaines fournitures de charbon. Les revenus qu'en tire l'entreprise sont limités : 4 184 464 francs à l'année en juin 19563. Ces revenus ne sont pas connus au-delà de l'exercice 1960-1961 : soit 44 244, 49 NF cette année-là, c'est-àdire en faible augmentation compte-tenu de l'inflation4. En 1956, plusieurs mensuels ne paient pas d'indemnité d'occupation5. En revanche les ouvriers en versent toujours, même si elles sont faibles : moins de 1 000 francs par an pour une maison du quartier de l'Église ou du Rhône, entre environ 500 et 700 francs pour le cantonnement. Le fait d'être logé à proximité de l'usine est donc un avantage partagé par les ouvriers et les mensuels, de même que la faiblesse des loyers ; en revanche seuls les seconds ont accès à la gratuité des loyers ainsi que – par ailleurs – aux logements les plus spacieux et confortables du parc des HFC. Ces injustices sont tues ou non connues ; et les salariés parlent seulement de leurs avantages, mêmes 1 ADI, 56J12, conseil d'administration du 30 octobre 1956 ; AMC, 1B3, délibérations du Conseil municipal du 2 avril 1960. 2 Michel Freyssenet insiste davantage sur la volonté de division en quartier pour mieux contrôler la main d'oeuvre, mais cela n'est possible que dans une entreprise plus grande que les HFC : dans FREYSSENET Michel, « Division du travail, pratiques ouvrières et pratiques patronales », op. cit., p. 15. 3 ADI, 56J34, évaluation des biens immobiliers. 4 ADI, 56J65, réponses au questionnaire annuel du Groupement de l'Industrie Sidérurgique (GIS). L'inflation connait un pic à 15 % en 1958 mais est autour de 5 % les autres années, dans TAVERNIER Jean-Luc (dir.), Trente ans de vie économique et sociale, INSEE, Paris, 2014, 160 p., p. 122-123. 5 ADI, 56J34, évaluation des biens immobiliers ; témoignages de Georges Charrier et Fernand Abel le 15/03/2000, Georges Charrier et Mohamed Safer 22/04/2000, Janine Bouillet le 24/02/2012, Simone Arcondara le 11/03/2013, Gérard et Christiane Pastorino le 06/01/2015, Andrée Jobert le 06/05/2016. 321 symboliques, ce qui est un élément récurrent des témoignages 1. Ils le décrivent tout d'abord comme un avantage en nature. Mais ils sont aussi logés à proximité de l'usine, ce qui est utile à une époque où la plupart des travailleurs viennent à pied ou en vélo : c'est donc du temps et de la fatigue de gagné dans la journée, ce qui est appréciable vu la durée du travail. Ils ont de la reconnaissance pour cette entreprise qui leur donne du travail et les loge ; voire leur offre du chauffage, de l'électricité et de l'eau. Être logé, c'est aussi pouvoir être intégré dans le personnel et dans un quartier où tous sont de la même usine, où les voisins sont socialement proches : les solidarités de travail sont redoublées par celles de voisinage. Les écoles et les commerces sont également installés à proximité des quartiers. Ces derniers ont une grande importance dans la vie quotidienne, ils font par exemple crédit et nombre de salariés ont leur ardoise ; une preuve de confiance qui les honore, en renforçant encore le sentiment d'« appartenir à une grande famille » comme le disent si bien les témoins. Enfin, pour les travailleurs étrangers, le logement présente plusieurs enjeux qui leurs sont propres. Tout d'abord, le logement a toujours été une cause de préoccupation pour les travailleurs immigrés : comme l'écrit Marie-Claude Blanc-Chaléard, « [l]es logis insalubres, les baraques qui brûlent ou s'effondrent, le surpeuplement, tout cela colle à la vie de l'immigré et de sa famille »2. Le logement des migrants dont une bonne partie sont des étrangers a en effet longtemps été pensé comme relevant de la sphère privée : c'est-à-dire de la famille et d'initiatives patronales ou philanthropiques 3. Ensuite, le logement est indispensable pour favoriser l'installation de son conjoint et lorsqu'il y en a, de ses enfants. Selon les stratégies des migrants, il arrive que cela puisse être un choix de les laisser au pays, mais dans le cas contraire il s'agit d'une véritable contrainte4. Malgré les limites en qualité du parc immobilier des HFC, la possibilité d'avoir un logement grâce à eux 5 est donc un avantage et assez souvent, ils peuvent faire venir femmes et enfants. Les travailleurs étrangers des HFC sont placés 1 Témoignages de Georges Charrier et Fernand Abel le 15/03/2000, Georges Charrier et Mohamed Safer 22/04/2000, Janine Bouillet le 24/02/2012, Simone Arcondara le 11/03/2013, Gérard et Christiane Pastorino le 06/01/2015, Andrée Jobert le 06/05/2016. 2 BLANC-CHALEARD Marie-Claude, « Les immigrés et le logement en France depuis le XIXe siècle : une histoire paradoxale », coord. Jacques Barou, Hommes et migrations, n° 1264, novembre-décembre 2006, p. 20-34, p. 22. 3 LÉVY-VROELANT Claire, « Migrants et logement, une histoire mouvementée », Plein droit, n° 68, 2006/1, p. 5-10, p. 5. 4 LÉVY-VROELANT Claire, « Le logement des migrants en France », op. cit., p.148. 5 C'est cependant aussi une obligation de l'employeur dans le cadre des contrats collectifs de travail : VIET Vincent, « La politique du logement des immigrés (1945-1990) », Vingtième Siècle, n°64, octobredécembre 1999, p. 91-103, p.92-93. 322 dans une meilleure position que celle de bien d'autres migrants présents en France ou dans la région à la même époque : les politiques d'accueil étant peu nombreuses1. Tableau 18 : Estimation des modes de logements des travailleurs étrangers des HFC en 1956 et 19622 Nationalités Effectif total Dont logés par HFC Dont logés et mariés Dont logés avec enfants Non logés mais mariés Non logés avec enfants 1956 Algériens Italiens Espagnols Portugais Polonais Tchèque 27 5 1 1 1 1 26 4 1 0 1 0 19 4 1 0 1 0 11 3 1 0 0 0 1 1 0 0 0 0 1 1 0 0 0 0 49 11 2 1 1 1 36 6 2 0 1 1 27 6 2 0 0 0 18 4 2 0 0 0 13 4 0 0 0 0 11 4 0 0 0 0 1962 Algériens Italiens Espagnols Portugais Polonais Tchèque Ce sondage présente des limites quant à la méthode choisie puisque la lettre B de l'échantillon surreprésente les Algériens et sous-représente les Espagnols. Mais malgré cela, on peut avoir une idée générale des conditions de logement des travailleurs étrangers des HFC et aussi mesurer – prudemment – la différence entre nationalités. Tout d'abord l'entreprise loge 88,9 % des travailleurs étrangers de l'échantillon en 1956 et 70,8 % en 1962. À la même époque et compte tenu de la taille totale de son personnel, son parc lui donne la capacité théorique de loger 60,2 % de ses 781 salariés en décembre 1956 et 55,5 % de ses 861 salariés en décembre 1962 (cette capacité est estimée au plus bas car il est par exemple possible faire varier le nombre de travailleurs qu'accueillent les chambres). On peut néanmoins dire que la proportion de salariés étrangers logés par la Compagnie est nettement supérieure à la moyenne, preuve que la politique de logement des HFC les concerne particulièrement. Par exemple, Livio Baiocco loge dans un appartement de trois pièces de la Maison carrée avec sa femme et 1 À l'échelle nationale, LÉVY-VROELANT Claire, « Migrants et logement, une histoire mouvementée », op. cit., page 8. À l'échelle régionale, SCHWEITZER Sylvie (dir.), Rhône-Alpes : étude d'une région , Tome 1, op. cit., p.51-52. 2 AMC, fichier mécanographique du personnel. Étude effectuée par sondage en utilisant la lettre B. 323 ses deux enfants1. Après son mariage en novembre 1958, il est embauché en décembre 1959 comme pontonnier OS2 à la manutention. Leur première fille nait à Givors en novembre 1960 et la seconde en juillet 1965. Pourtant, de 1956 à 1962, la part des étrangers logés est en baisse de dix-huit points. On peut l'expliquer par l'augmentation des effectifs alors que la dimension du parc immobilier évolue peu : il n'est pas possible de loger le surcroît de personnel étranger en hausse de quatre-vingt-six individus sur la période2. Il peut y avoir aussi des circonstances exceptionnelles dues à la dimension de la famille : l'entreprise ne peut pas fournir un logement à Ahmed Bouchekouia, sa femme et ses onze enfants. Les trois premiers sont nés en Algérie, les deux suivants en Ille-et-Vilaine et les six derniers dans la région de Chasse. Embauché en 1952 alors qu'il n'est encore père que de sept enfants, il doit changer de logement et quitter Givors avec sa seconde femme, une française née en Bretagne où ils se sont rencontrés en 1948. Les quatre derniers enfants vont naître alors que la famille réside désormais à Chasse. La taille de la famille ne parait cependant être qu'un critère parmi d'autres : par exemple en ayant des familles de dimensions proches, deux ouvriers algériens ont des comportements opposés. Mohamed Belaziz est un ouvrier des hauts-fourneaux embauché en 1952 qui devient ensuite OP1 à la manutention. Ses quatre enfants sont tous nés à Givors entre 1960 et 1965, la famille résidant alors à Chasse dans un logement de quatre pièces loué aux HFC. En revanche la famille de Mohamed Babahenini est demeurée au pays : embauché comme manoeuvre à la fonderie en novembre 1961, ses cinq enfants sont tous nés en Algérie de 1953 à 1964. Il peut être compliqué de loger en France une famille de sept personnes avec la paie d'un manoeuvre, mais d'autres facteurs peuvent aussi entrer en jeu. En effet, ce qui compte alors sont « les " âges " de la société d'arrivée » pour reprendre l'expression de Claire Lévy-Vroelant3. Elle entend par là les caractères des migrants – sa société d'origine, son âge, son statut matrimonial, sa formation, ses attentes et celles de son groupe d'appartenance – qui se combinent aux « dispositifs d'accueil » (les conditions d'entrée, du marché du travail et du logement, l'état de l'opinion) pour donner le cadre prédisposant à telle catégorie de logement. Or les 1 Source pour Livio Baiocco, Ahmed Bouchekouia, Mohamed Belaziz, Mohamed Babaheninni, Giovanni Berardi, Ugo Mucciante : AMC, fichier mécanographique du personnel. 2 Cf. tableau 15. 3 LÉVY-VROELANT Claire, « Le logement des migrants en France », op. cit., p. 58. Claire LévyVroélant utilise cette expression en faisant référence à SAYAD Abdelmalek, « Les trois " âges " de l'émigration algérienne en France », Actes de la recherche en sciences sociales, Vol 15, juin 1977, p. 5979. 324 célibataires représentent seulement 25 % des étrangers de l'échantillon en 1956 et plus que 20 % en 1962. En 1956, la plupart des travailleurs étrangers sont donc mariés, et souvent avec charge d'enfants. Une majorité de pères est logée par la Compagnie : soit 88,2 % de l'échantillon. Ils bénéficient du parc de l'entreprise offrant une facilité pour faire venir leurs familles en France. En 1962, la proportion d'hommes mariés est encore plus élevée, mais l'entreprise ne loge plus que 61,5 % des hommes de l'échantillon ayant charge d'enfants. Dans le même temps, il est visible que le nombre de familles dont une partie des enfants naissent en France tend à augmenter : on passe de onze en 1956 à vingt-et-une en 1962. Mais la proportion des familles de cette catégorie non logées par la Compagnie évolue de 9,1 % en 1956 à 42,9 % en 1962. Pourtant il devrait être plus compliqué pour elles de trouver un logement que pour un couple sans enfant ou un individu. L'entraide et la connaissance du bassin industriel deviennent alors un atout pour rechercher et trouver un logement en dehors de ceux proposés par l'entreprise. Par exemple, Giovanni Berardi est un manoeuvre embauché aux hautsfourneaux le même jour que son beau-frère Ugo Mucciante 13 août 1959. Son premier fils est né en Italie en 1955 à Castel del Monte, village de naissance de Giovanni et de sa femme. Installé rue de la Cornemuse dans les vieux quartiers de Vienne, il loge au fond d'une impasse, puis il déménage dans une rue voisine vraisemblablement lorsque sa famille arrive en France : sa fille nait dans cette ville en octobre 1960. Il réside à 10 km de Chasse, mais il peut s'y rendre en train. Son beau-frère et sa femme habitent à proximité : il suffit de traverser le Rhône pour se rendre à leur logement. La fille de ces derniers naît elle aussi à Vienne le 18 novembre 1959, soit peu de temps après l'embauche aux HFC. C'est donc l'entraide faisant nécessairement partie d'une migration commune qui permet à ces deux couples de s'installer en France en se passant de l'offre de logements de l'usine. Toutefois en 1962, sur les neufs familles ayant des enfants de l'échantillon et qui ne sont pas logées par les HFC, trois ont d'abord été logées par les HFC : le logement par l'entreprise leur a ainsi permis de réunir la famille avant de trouver un nouveau domicile. Pour les six autres, à l'exception de Giovanni Berardi leur présence en France précède l'embauche aux HFC – souvent de plusieurs années –, si bien qu'ils possèdent déjà un logement. Donc dans huit cas sur neuf, l'indépendance croissante des travailleurs étrangers vis-à-vis de l'offre des HFC révèle l'ancienneté dans la migration. De plus, si on ajoute ceux qui sont logés par l'entreprise, le nombre de croissant de travailleurs accompagnés de leur famille signifie que le regroupement familial a commencé bien avant 1974. 325 L'absence de perception de ce fait est la conséquence d'une longue cécité concernant la présence des femmes dans le processus migratoire1. Cette cécité permet notamment d'ignorer les conditions de logement2 ; or si à Chasse les travailleurs étrangers bénéficient de l'offre de logements de la Compagnie, ils ont aussi accès souvent aux plus précaires et aux plus anciens, comme la Maison carrée ou les cantonnements. Les enfants de ces familles vont à l'école du Château où ils sont en plus forte proportion que dans les autres écoles du village, jusqu'à la création du groupe scolaire Pierre Bouchard en 19553. Le conseil municipal de l'époque a voulu cette école afin de « réunir en un seul et même établissement les enfants de tous les quartiers de la commune, de plus en plus morcelée »4. La relégation des populations du cantonnement a d'abord fait partie du projet urbanistique des dirigeants des Hauts-Fourneaux : ils voulaient classer les habitants selon leur position dans les hiérarchies de l'usine et dans une moindre mesure par rapport à leurs nationalités. Puis après 1945, elle est la conséquence d'un mélange d'insuffisances des politiques de logement de l'entreprise et de la mairie incapables – pendant longtemps – de gérer les mouvements et la croissance de ces populations, plutôt que d'une réelle volonté ségrégative. En outre, il manque à Chasse une véritable action publique jusqu'à la création d'HLM à partir de 1956. C'est en effet à partir du milieu des années 1950 que la puissance publique va commencer à prendre le relai des politiques privées. À Chasse comme ailleurs, les solidarités entre familles des travailleurs ont longtemps pallié cela. Ayant su en profiter, des commerçants appartenant à des familles d'anciens migrants se sont installés dans le quartier du château : ce sont les deux épiceries Vassiliadis et Tchoulfian et le coiffeur Torossian. Leur réussite vient certainement du fait « qu'ils s'appuient sur un environnement ethnique et communautaire »5. On ne retrouve nulle part dans Chasse autant de commerçants ou de petits entrepreneurs de familles d'immigrés6. SCHWEITZER Sylvie, « La mère de Cavanna. Des femmes étrangères au travail au XX e siècle », Travail, Genre et Société, n° 20, 2008/2, p. 29-45, p. 30. 2 Ibidem. 3 BOUILLET Janine, Racines et réalités, op. cit., p. 92-94 ; BELON Pascal, Carnets de Chasse , op. cit., p. 30-31 ; témoignage de Simone Arcondara le 11/03/2013. 4 BELON Pascal, Carnets de Chasse de A à Z, op.cit., p. 31. 5 SCIOLDO-ZÜRCHER Yann, « petits entrepreneurs en France », dans PITTI Laure (dir.), « Immigration et marché du travail », Hommes et Migration, n° 1263, Septembre-octobre 2006, p. 121. 6 Témoignages de Marie-Louise Charrier, Janine Bouillet le 24/02/2012, Simone Arcondara le 11/03/2013. Une liste des commerçants constituée à partir de l'annuaire de 1960 le confirme dans FOND Christine, Chasse-sur-Rhône au fil de l'eau, op. cit., p. 97-98. 1 326 b) Le déclin des autres pratiques d'entreprise Les autres pratiques d'entreprise sont elles aussi en déclin. Les facteurs sont les mêmes que ceux qui concernent les politiques de logement : manque de moyens et montée en puissance de l'intervention des pouvoirs publics. Les dirigeants de l'entreprise essaient de gérer un repli en ordre, voire ils l'anticipent. Les salariés et leurs représentants les pressent également de le faire. Dès l'époque où Pierre Cholat est encore président de la Compagnie, les dirigeants agissent en remettant en cause les politiques antérieures : notamment la gestion du temps hors travail et la prise en charge de la santé des personnels. Il est en effet décidé de renoncer en partie aux efforts financiers à faire afin de gérer le temps libre des salariés. L'évolution de la législation et le comportement des salariés le justifient aussi. Par exemple, la création d'une troisième semaine de congés payés développe les possibilités de départs en vacances et donc d'éloignement de l'usine : il devient alors impossible de gérer ce temps hors travail. Cela fait partie des objections émises par les administrateurs lorsqu'on leur réclame ce droit alors qu'il a été obtenu par les travailleurs parisiens : « [i]l ne faut peut-être pas identifier le cas des travailleurs des usines de Paris avec ceux de Chasse, qui ont des conditions différentes de travail et d'habitation et d'autres possibilités de détente »1. De plus, la gestion genrée des économies à faire pour abandonner ces politiques est révélatrice du maintien de l'échelle des valeurs. Il aurait été avantageux de supprimer les activités sportives des garçons qui demandent l'entretien d'un stade ou le paiement d'un entraineur, voire on aurait pu simplement les réduire. Mais ce qui est décidé par un courrier en date du 6 janvier 1958 adressé au maire par le directeur de l'usine2 est de solliciter le financement des « cours d'enseignement ménager » des filles par la commune, et donc l'arrêt de leur prise en charge par l'entreprise. La prise en charge des oeuvres sociales concernant la santé est également coûteuse. Avec l'installation et le développement durable de la Sécurité sociale, elles deviennent progressivement inutiles. C'est pourquoi Jean Boureille demande un 1 ADI, 56J12, conseil d'administration du 28 décembre 1955. La demande de troisième semaine de congés payés a donc été faire aux HFC avant que la loi ne la généralise en 1956. 2 Document fourni par Éric Combaluzier. 327 accroissement de la prise en charge des locaux, du matériel et du personnel1. On veut que cette charge soit supportée par la Sécurité sociale, si ce n'est en totalité, au moins le plus possible. La demande effectuée en 1959 obtient en partie satisfaction puisque les versements mensuels passent de 56 000 à 62 500 francs et par la prise en charge du renouvellement du matériel. Le développement de la Sécurité sociale et plus largement des assurances sociales contre les risques de la vie est d'ailleurs porté par les représentants des personnels CGT. Au moment où il demande la troisième semaine de congés payés, Charles Portal souhaite également que soit établi à Chasse un « système de retraite ouvrière »2. Alors que le régime général est un acquis datant de 1945, il s'agit ici de généraliser l'accès au régime complémentaire de retraite Irpsimmec à tous les ouvriers et agents de maîtrise, car il compte déjà de nombreux cotisants3 : ce mouvement d'adhésion à des caisses de retraites complémentaires correspond à ce qui se passe en général pour les régimes non-cadres, nés principalement dans les années 1950 à partir d'initiative venant du terrain4. Le problème du logement rejoint d'ailleurs celui des retraites : que faire des logements de l'entreprise pour les nouveaux retraités ? Ce problème était déjà un enjeu pour le cas des veuves de travailleurs qui continuent à jouir des droits du conjoint décédé alors que l'intérêt de l'entreprise est de libérer ces logements pour ses nouveaux salariés : la construction d'HLM peut alors être une réponse à cette question d'après Charles Portal5. Après plusieurs mois de débats avec leurs dirigeants et un référendum, les salariés obtiennent en 1957 l'adhésion à un régime de retraites et une augmentation de la part des cotisations patronales6. Le problème de la perte de revenu a pendant longtemps accompagné la fin de la vie des ouvriers, jusqu'à la naissance du régime général de retraite en 1945 7. Les dirigeants des HFC ont pendant longtemps encouragé le développement d'une mutuelle, 1 ADI, 56J58, correspondance entre Boureille, secrétaire général et Ravel, le Président de la Caisse primaire d'assurance maladie de Vienne. 2 ADI, 56J12, conseil d'administration du 28 décembre 1955. 3 AMC, fichier mécanographique du personnel. Par sondage à la lettre B, on obtient quatorze noncotisants pour quatre-vingt-un cotisants en décembre 1956. 4 CHARPENTIER François, Les retraites complémentaires AGIRC-ARRCO, Que sais-je n° 4073, PUF, Paris, 2016, 128 p. 5 ADI, 56J12, conseil d'administration du 28 décembre 1955. 6 ADI, 56J12, conseils d'administration des 30 mai, 28 juillet et 30 octobre 1956 ; puis 23 janvier, 12 avril, 11 juillet 1957. 7 FELLER Élise, « La construction sociale de la vieillesse (au cours du premier XXe siècle », dans GUEDJ François et SIROT Stéphane (dir.), Histoire sociale de l'Europe. Industrialisation et société en Europe occidentale 1880-1970, Seli Arslan, Paris, 1998, 411 p., p.303. 328 mais les versements de celle-ci pour les retraités stagnent à 700 francs par mois depuis 1956 : une somme devenue dérisoire en 1962 compte-tenu de l'inflation1. L'adhésion à des retraites complémentaires répond donc à un véritable besoin, mais elle fait aussi suite à plusieurs inflexions dans les politiques d'entreprises concernant les vieux travailleurs : tout d'abord au début des années 1950 on abandonne leurs embauches à des postes moins exposés. Au contraire, on encourage désormais les départs en retraites en les utilisant comme un moyen d'ajustement des effectifs. On généralise alors à l'usine ce que l'on a fait pendant longtemps afin de gérer les périodes de transitions entre deux marches à deux hauts-fourneaux. Puis dans les années 1950 il est décidé d'encourager les départs en période de récession en proposant des allocations renouvelables. Une dernière étape est franchie à partir de la récession de 1958 en décidant d'utiliser les départs en retraite comme un moyen de gérer et de faire disparaître leurs personnels excédentaires sans dédommagement. Bien avant que de telles pratiques soient utilisées massivement dans les plans de la sidérurgie, elles se mettent en place avec l'abandon des pratiques paternalistes2. Ces dernières sont donc progressivement abandonnées, mais elles sont aussi en partie renouvelées. Cela touche tous les domaines, même celui de la santé qui a longtemps été l'apanage de l'entreprise : par exemple en 1963, une section de la société des mutilés du travail ouvre à Chasse et reçoit une subvention de la mairie3. 2) Profiter de la croissance Au lendemain de la guerre, s'ouvre une seconde période de forte hausse du pouvoir d'achat : elle atteint 4 % en moyenne et pendant les Trente Glorieuses le pouvoir d'achat des ouvriers est multiplié par 3,3 d'après Olivier Marchand et Claude Thélot4. Mais à l'intérieur de cette séquence Michel Margairaz distingue une phase de stagnation du niveau de vie et d'une lente progression du pouvoir d'achat pendant les 1 AMC, 1H3, mutualité. FREYSSENET Michel et de OMNES Catherine, La crise de la sidérurgie française, op. cit., p.66-67. 3 AMC, 1B3, registres des délibérations du conseil municipal 1960-1978. 4 MARCHAND Olivier et THELOT Claude, Le travail en France (1800-2000), op. cit. p. 157. 2 329 années 1950, le revenu ouvrier n'augmentant que dans les années 19601. Il faudrait affiner encore cette analyse en distinguant les catégories de travailleurs en tenant compte des différents modes de revenus. Cependant, la croissance des productions maintient le travail à une forte intensité. La croissance a donc aussi un « coût humain » pour reprendre l'expression de Claude Willard2. a) Une forte croissance des revenus La croissance des revenus a été forte en raison de l'augmentation des salaires et du temps de travail à partir de 1956. On peut le voir sur les revenus annuels bruts des salariés : plusieurs fiches du personnel comportent leurs revenus annuels bruts au dos 3. Quelle que soit la catégorie concernée, il est multiplié par près de deux entre 1954 et 1957 et fait en particulier un bond de 1955 à 1956. Tableau 19 : Exemples de salaires annuels bruts 1954-1957 4 Catégories/ Années 1954 1955 1956 1957 Manoeuvre M2 228 783 292 916 361 279 438 835 Ouvrier spécialisé OS1 290 045 389 019 506 563 650 287 Ouvrier spécialisé OS2 282 806 277 307 714 298 814 300 Ouvrier professionnel OP1 327 844 389 911 525 587 566 707 Ouvrier professionnel OP2 380 777 442 299 572 415 604 651 Contremaître cimenterie 427 352 489 600 673 969 796 801 Chef de poste hautfourneau 393 137 548 258 844 961 878 627 Dans le premier cas, les dirigeants de l'entreprise soulignent qu'un effort important a été effectué au niveau des salaires depuis 19535. La loi du 11 février 1950 renvoie en effet aux branches le soin de négocier les salaires, or les conventions 1 MARGAIRAZ Michel, « La permanence de la structure de la classe ouvrière dans les années cinquante », dans WILLARD Claude (dir.), La France ouvrière 1920-1968, tome 2, op. cit., p. 249-253 et « Les transformations structurelles des années soixante », ibidem, p. 315. 2 WILLARD Claude, « Les couches populaires urbaines 1950-1978 », dans BRAUDEL Fernand et LABROUSSE Ernest (dir.), Histoire économique et sociale de la France, op. cit., p. 1539-1547. 3 AMC, fichier mécanographique du personnel. On peut regretter l'absence d'employés dans la source pour cette période afin d'établir un échantillon. 4 AMC, fichier mécanographique du personnel. Exprimé en Francs. 5 ADI, 56J12, conseil d'administration du 12 avril 1957. 330 collectives de la métallurgie du Rhône – dont dépend l'entreprise Chassère puisqu'elle elle fait partie du même bassin que celui des Hauts-fourneaux de Givors1 – datent du 24 décembre 1953. Par la suite, les augmentations du SMIG provoquent une hausse de l'ensemble des salaires provinciaux2, mais elles n'expliquent pas à Chasse l'importance de la hausse de 1955-1956. C'est plutôt le fait que la semaine de travail a été portée à 56 heures en raison de la mise à feu du haut-fourneau moderne. En 1957, les salaires progressent encore même si on est repassé à des horaires de travail à 48 heures par semaine : l'effort fait sur les salaires depuis 1953 est poursuivi cette année-là3. Il faut cependant tenir compte de l'inflation et donc de l'augmentation des salaires : elle est par exemple de 8,9 % pour le salaire horaire moyen d'un OS de la métallurgie parisienne de 1956 à 1957, et de 8,1 % pour un OP 4. Mais le revenu annuel aux HFC a augmenté de 21,5 % pour un manoeuvre, 28,4 % pour un OS1, 14 % pour un OS2, 3,7 % pour un OP1, 5,6 % pour un OP2, 18,2 % pour un contremaître et 4 % pour un chef de poste de notre échantillon, c'est-à-dire bien plus que les salaires horaires de la région parisienne. Les différences peuvent s'expliquer par un rattrapage des salaires provinciaux5, mais plus vraisemblablement par les heures supplémentaires et les primes. Ensuite, la hausse des revenus que l'on observe est inégale selon la position des ouvriers dans la classification : tout en rappelant le caractère individuel de ces exemples, on peut constater que l'augmentation la plus forte est dans la catégorie OS et manoeuvres. Ce phénomène est observable à partir de 1954 . Un tel rattrapage pour les seuls salaires est visible aussi en région parisienne, mais il n'est pas aussi net, le salaire horaire moyen des OS ne rejoignant pas celui des OP 6. Il traduit bien une augmentation de l'importance des ouvriers spécialisés7, mais on ne la retrouve donc pas que dans les effectifs. Cela rejoint l'idée que le dispositif paternaliste mis en place pour les OP devient au moins en partie caduque dans le contexte nouveau de modernisation de l'outillage de production : la mécanisation a pour conséquence de faire de plus en plus appel à des OS – pour conduire des ponts, une grue, des camions, un bulldozer, etc. –, 1 ADI, 56J57, règlement intérieur. MÉRAUD Jacques, « Quelques remarques sur les effets des réductions d'abattement de zone de salaires », Études et conjoncture - INSEE, n° 6, 1956 (11e année), p. 487-494. 3 ADI, 56J12, conseil d'administration du 12 avril 1957. 4 Annuaire statistique de la France, INSEE, Paris, 1966, 565 p. et annexes, tableau 7 p.427. 5 Jacques Méraud constate qu'en général ce rattrapage ne dure pas car les salaires parisiens augmentent à leur tour : MÉRAUD Jacques, « Quelques remarques sur les effets », op. cit., p. 489 sqq. 6 Annuaire statistique de la France, INSEE, Paris, 1966, 565 p. et annexes, tableau 7 p. 427. 7 MARGAIRAZ Michel, « Les transformations structurelles des années soixante », dans WILLARD Claude (dir.), La France ouvrière 1920-1968, op. cit., p. 310-311. 2 331 l'augmentation de leurs salaires peut alors servir à attirer des candidats afin d'occuper ces postes de travail déqualifiés. Deux autres facteurs peuvent aussi jouer : tout d'abord comme cette catégorie de travailleurs est celle qui contribue fortement à l'augmentation de la productivité de l'usine, il peut paraître normal que cela se retrouve aussi sur leur feuille de paie1. Ensuite, la mécanisation de leur travail peut aussi permettre d'effectuer davantage d'heures supplémentaires, alors que les tâches d'entretien d'un OP ne sont par exemple plus régulières et prévisibles. Les documents d'usine portant sur les salaires après cette période sont plus rares : seulement quelques fiches de travailleurs comportent des informations, mais celles qui figurent sur la fiche d'un OS de la fonderie permettent de suivre les évolutions de 1958 à 1961 : Tableau 20 : Salaires annuels bruts d'un OS de la fonderie de 1958 à 19612 Catégories/ OS/Fonderie Années 1958 1959 1960 1961 4 945,10 5 561,93 8 341,06 8 504,63 L'année 1958 est marquée par une récession. Il faut notamment diminuer les primes au rendement afin de limiter la « dérive salariale »3. Les salaires annuels de cet OS sont inférieurs à 5 000 NF. Ils sont en croissance de 12,5 % l'année suivante, puis ils augmentent encore plus fortement en 1960 et 1961 : l'usine atteint alors son maximum de production. La progression des productions de l'usine entraine donc des recrutements de personnels, mais aussi des heures supplémentaires pour les personnels et l'accroissement des primes4. Le détail des salaires mensuels permet de repérer de très fortes variations d'un mois à l'autre. Par exemple pour un OS des haut-fourneaux, cela atteint 43,1 % entre le mois le moins bien payé et celui qui l'est le mieux : 1 Cela est également constaté, mais pour le déplorer dans FREYSSENET Michel, La division capitaliste du travail, op. cit., p. 88. 2 AMC, fichier mécanographique du personnel. Exprimé en nouveaux Francs. ADI, 56J13, conseil d'administration du 14 février 1958. 4 ADI, 56J13, conseils des 9 avril 1959 et 10 décembre 1960. 3 332 Tableau 21 : Exemple de salaires mensuels d'un OS des hauts-fourneaux en 19611 Mois Salaire Janvier Février Mars Avril Mai Juin Juillet Août Septembre Octobre Novembre Décembre Total année Écart entre le salaire le plus fort et le plus faible : En valeur absolue En proportion Variations 655,23 522,08 777,51 811,85 880,81 917,01 788,64 764,30 744,07 719,64 702,99 816,41 9100,54 -20,3 % +48,9 % +4,4 % +8,5 % +4,1 % -14 % -3,1 % -2,6 % -3,3 % -2,3 % +16,1 % 394,93 43,1 % L'irrégularité des revenus crée nécessairement de l'incertitude. Ajoutée aux risques professionnels, cela peut constituer un frein à la consommation, et en particulier à l'achat d'un bien immobilier que le rattrapage des salaires des OS sur les OP n'a compensé qu'en partie et de manière récente. Au recensement de 1962 on a par exemple des détails sur les conditions de vie des salariés grâce à une enquête menée dans deux des cantonnements du château rassemblant douze chambres2. Au total quarante-sept résidents se trouvent dans ces chambres qui rassemblent de trois à cinq personnes par pièce. Tous sont OS ou manoeuvres. On dénombre deux Français, quatre Italiens, un Espagnol, un Polonais, un Allemand et trente-huit Algériens. Les chambres sont dépourvues de chauffage central – étant chauffées avec un poêle à charbon –, elles sont aussi sans sanitaires. Elles possèdent seulement un point d'eau, mais les toilettes collectives sont à l'extérieur et il n'y a pas de salle de bain ni de douche. Il y a une installation pour faire de la cuisine, mais pas de pièce séparée avec la chambre. Pour quarante-sept personnes, on dénombre une voiture, une moto, sept vélomoteurs et dixsept bicyclettes. Ceux qui n'ont pas de moyens de locomotion vont à l'usine en dix minutes, les autres en cinq seulement : la diminution du temps de trajet étant le seul élément de confort dans ces conditions de vie frustres. On est donc bien loin de l'image de la société d'abondance née des Trente Glorieuses, alors que l'on est pourtant au coeur de cette période. 1 2 AMC, fichier mécanographique du personnel. AMC, 1F1, recensement de 1962. 333 De plus, alors qu'il existe une rotation importante des occupants des chambres – en raison d'un turnover élevé et parfois de renvois –, leur mode d'utilisation par les travailleurs peut-être également un élément de différenciation entre ouvriers algériens et non-algériens. Elles sont un lieu de passage pour certains travailleurs du premier groupe : trois d'entre eux partent des logements de l'usine dans les deux ans qui suivent le recensement, l'un en continuant à travailler dans l'usine, les deux autres en la quittant. Pour Valentino Pasinato, ce changement de domicile et de travail suit de peu son mariage en France. Inversement, les logements de l'entreprise sont une opportunité pour quatre travailleurs algériens qui déménagent pour venir occuper ceux de l'entreprise. Ces différences sont révélatrices de trajectoires professionnelles et d'ambitions différenciées : dans le premier cas, le parc de logement semble être un pis aller temporaire que l'on quitte en trouvant un nouvel emploi voire en fondant une famille, dans le second cas il est recherché pour sa proximité avec le lieu de travail – ce qui est à relativiser car ces travailleurs ont occupé des logements dans des communes limitrophes –, et donc vraisemblablement surtout pour leur faible coût1. Les salaires des employés et des mensuels ne sont pas présents dans les documents conservés de l'usine, mais ils forment la majorité des témoins ce qui nous permet d'avoir des renseignements sur leurs revenus. Tous se rappellent de cette période comme un temps d'abondance et de croissance2. Andrée Jobert dit qu'elle est même allée quatre fois en vacances la même année à l'étranger. Elle partait avec son mari et sa fille plusieurs semaines l'été et c'était un vrai déménagement. Janine Bouillet regrette d'avoir quitté l'entreprise si tôt, car elle y était bien payée. Tous les témoignages insistent sur cette période où l'entreprise leur a permis d'avoir des revenus qu'ils n'ont parfois pas retrouvé après la fermeture de l'usine. Simone Arcondara dit aussi que les employés étaient bien mieux payés que les ouvriers, même agents de maîtrise : par exemple en débutant, son salaire était supérieur à celui de son père pourtant chef d'équipe avec plusieurs décennies d'ancienneté. Andrée Jobert avance une seconde raison : elle insiste à plusieurs reprises sur le fait que c'est le second salaire, celui de la femme, qui permet d'être dans l'aisance. On est donc loin de l'image de « madame Au1 Ces quatre migrants sont trois célibataires et le dernier a sa femmes et ses quatre enfants restés en Algérie : ils ont donc intérêt à payer les loyers les plus faibles afin d'envoyer de l'argent au pays : on retrouve cela dans LÉVY-VROELANT Claire, « Le logement des migrants en France », op. cit., p.148. 2 Témoignages de Georges Charrier et Fernand Abel le 15/03/2000, Georges Charrier et Mohamed Safer 22/04/2000, Janine Bouillet le 24/02/2012, Simone Arcondara le 11/03/2013, Gérard et Christiane Pastorino le 06/01/2015, Andrée Jobert le 06/05/2016, Jacques Bernet le 02/05/2017. 334 Foyer » et « de monsieur Gagne-Pain »1. Or le modèle de la femme au foyer, de la « mère », est durablement prégnant dans le monde ouvrier2 constituant une limite à l'augmentation du revenu de ces ménages. L'intensification du travail n'explique donc pas à elle seule la hausse des revenus, en revanche elle a eu pour conséquence la détérioration des conditions de travail. b) mais des conditions de travail toujours détériorées De 1957 à 1962, il est difficile de dire que les conditions de travail sont pires qu'en 1956, une année de tous les records en ce domaine, mais elles demeurent toujours très détériorées. La modernisation n'a pas pallié les effets de l'intensification du travail provoquée par l'expansion de la demande, au contraire. L'usure des personnels est révélée par les longues maladies, les accidents et les décès. Pendant les « Sept Glorieuses », le nombre d'arrêts longue maladie est multiplié par un peu plus de quatre3. Il passe de sept à trente individus de 1957 à 1962, le record étant en 1961 de trente-trois. L'évolution de la durée moyenne des arrêts n'est pas significative : elle s'établit à plus ou moins six mois sur toute la période. En revanche l'âge permet de repérer différents profils. Les travailleurs les plus âgés – entre cinquante-cinq et soixante-cinq ans – sont ceux qui s'arrêtent le plus durablement. Cela peut précéder un départ en retraite dans six cas, mais dans un nombre plus important de situations l'arrêt maladie est suivi du décès : dans huit cas. Par conséquent, ces arrêts sont révélateurs d'une véritable usure des travailleurs, bien avant qu'ils ne puissent partir en retraite. Pour les plus jeunes, les arrêts sont de durée variable en fonction de l'état de santé, ce qui peut aller jusqu'à la mise en invalidité. La nationalité est un autre critère d'observation. Les travailleurs français voient leur part parmi les malades constamment augmenter chaque année : 57,1 % en 1957, puis 66,7 %, 60 %, 68,4 %, 72,7% et 70 % les années suivantes. Comme ce sont les travailleurs qui ont passé en moyenne le plus d'années dans l'usine, il est logique qu'ils soient les plus touchés par l'intensification des productions. Or si on remarque souvent 1 PÉRIVIER Hélène, « De madame Au-Foyer à madame Gagne-Miettes. État social en mutation dans une perspective franco-états-unienne », dans MARUANI Margaret (dir.), Travail et genre dans le monde, op. cit., p. 310 sqq. 2 SCHWARTZ Olivier, Le monde privé des ouvriers, op. cit., p. 177 sqq. 3 Cf. annexe 8. 335 avec juste raison que les travailleurs étrangers sont exposés aux tâches les plus difficiles, il ne faut pas oublier la notion de temps : la durée d'exposition à aussi des conséquences sur la santé des travailleurs. Il est également possible de repérer quelles activités sont le plus touchées. Dans les bureaux, il y a sans surprise qu'un seul cas. En revanche la fonderie et ses différents ateliers d'usinage et de menuiserie sont largement au dessus de la moyenne de l'usine. Elle représente 28,6 % des arrêts maladie en 1957, puis 66,6 %, 33,3 %, 26,3 %, 24,2 % et 33,3 % les années suivantes. Elle est donc souvent au dessus de sa part dans les effectifs ouvriers de l'usine : une moyenne légèrement supérieure à 1⁄4 pendant la période1. Cet atelier est donc régulièrement en tension, tout comme les hautsfourneaux : ainsi 14,2 % des arrêts viennent de ce dernier atelier en 1957, mais on passe à 21,2 % en 1961 alors que l'on est proche des records de production. Enfin, on peut s'intéresser à la position dans la classification dans la mesure où elle est aussi révélatrice de la nature du travail effectué. Sans surprise, les manoeuvres représentent au moins 44,8 % des arrêts longue maladie de l'usine. On les trouve dans de nombreux ateliers, mais notamment à la fonderie ou dans les activités de transport : l'utilisation de leur force physique les expose particulièrement. On trouve également parmi eux des femmes de ménages qui sont d'anciennes ouvrières, ainsi que les empileuses de l'agglomération. Toutes catégories confondues, les femmes représentent 13,8 % de tous les arrêts maladie pris chaque année, soit une part bien supérieure à leur poids dans l'usine2. Toutefois, il y a aussi deux chefs d'équipe et trois contremaîtres ainsi qu'un nombre élevé d'OP venant de l'activité d'entretien. C'est une nouveauté par rapport à la période 1947-1956. La phase d'expansion n'épargne pas non plus les travailleurs qualifiés, d'autant qu'ils sont en moyenne plus âgés que les OS : par exemple, les trois ouvriers qualifiés de l'entretien en arrêt maladie en 1962 ont cinquante-et-un ans pour le plombier et cinquante-huit ans pour l'ajusteur et le tourneur. Les conséquences de cette usure au travail se font ressentir dans le nombre des décès : il y en a trente-quatre au total sur la période sans que l'on puisse déterminer la part de responsabilité du travail dans les causes. Les accidents du travail se produisent régulièrement, mais les archives deviennent lacunaires à ce sujet. Parmi ceux qui ont 1 ADI, 56J, rapport société anonyme fiduciaire suisse de 1963. La lourdeur du travail des femmes dans l'industrie est connue, voir par exemple GARDEY Delphine, « Le travail des femmes en France et en Grande-Bretagne de la révolution industrielle à la Seconde Guerre mondiale », dans MARUANI Margaret (dir.), Travail et genre , op. cit., p. 321 et SCHWEITZER Sylvie, Les femmes ont toujours travaillé, op. cit., P. 209-210. 2 336 entrainé une mutilation, on en compte au moins cinq en 1957, mais un seul en 19591, ce qui parait malheureusement peu probable. Les accidents mortels sont en effet en nombre élevé : cinq au total2, soit deux en 1960 et trois en 1961. Comme en 1956, ils se sont produits quand l'usine était au plus haut de ses productions. René Desautel, un manoeuvre des hauts-fourneaux est décédé à l'hôpital de Givors où il a été transporté le 15 septembre 1960. Il élevait seul ses deux filles. Jean Tabin est ouvrier à l'usinage. Il décède sur le trajet de son travail le 1 er juillet 1960 : il habite alors à Loire-sur-Rhône, une commune pourtant proche sur la rive droite du fleuve. En février 1961, Simon Kélagopian meurt écrasé entre deux wagons : il est ouvrier à la manutention. Céleste Terroni décède aussi lors d'un accident de travail au mois de septembre de la même année, il est ouvrier à la fonderie. Travaillant auparavant aux hauts-fourneaux, il a déjà été victime d'un accident qui l'a laissé mutilé à 18 %. Cependant, c'est l'accident de Léon Argout le 26 juin 1961 qui a le plus marqué la mémoire des anciens travailleurs de Chasse. Ce contremaître du haut-fourneau s'est en effet retrouvé entrainé à l'intérieur de l'appareil alors qu'il essayait de dégager un paquet de ferraille coincé dans le gueulard. Il arrive que le monte charge automatique du haut-fourneau n° 3 crée ce type de problème3. Son ringard a été pris dans le paquet de ferraille lorsqu'il s'est débloqué, tandis que l'autre extrémité recourbée de l'outil s'est en même temps accrochée à sa veste. Cette mort spectaculaire a frappé les esprits alors que cette année on en était au deuxième des trois accidents mortels survenus. La coulée a été enfouie sous une colline4 et des fleurs ont été portées dans l'usine a proximité du lieu du drame5. Une minute de silence a même été observée au conseil d'administration de l'entreprise6. Pendant les « Sept Glorieuses », les salaires ont donc augmenté, mais de manières inégale. La hausse des productions a été l'occasion d'effectuer des heures supplémentaires, cependant travailler plus c'est aussi prendre davantage de risques et user la santé des salariés. Des sujets que l'on retrouve dans leurs revendications. 1 Fichier mécanographique du personnel. Ibidem. Ces accidents mortels s'ajoutent aux trente-quatre autres décès de personnels pendant la période. 3 L'automatisation de fait pas forcément diminuer les difficultés et les risques au travail : VIGNA Xavier, Histoire des ouvriers en France au XXe siècle , op. cit., p. 205 sqq. 4 Témoignage de Mohamed Safer le 22/04/2000. 5 Témoignage émue de Odette Rollat, fille de Léon Argout le 20/5/2016. 6 ADI, 56J13, conseil d'administration du 26 juin 1961. 2 337 3) mais aussi revendiquer De 1957 à 1962 la grève semble avoir disparu du paysage politique et social. En 1961, le général de Gaulle déclare alors que « [l]a grève parait inutile, voire anachronique »1. D'après Michel Pigenet, la politique de rigueur et la question algérienne limitent alors les velléités sociales. Les interventions des représentants du comité d'entreprise des HFC montrent néanmoins que la période demeure aux revendications. On peut distinguer deux séquences à l'intérieur de celle-ci : de 1955 à 1957, les salariés et leurs représentants réclament et obtiennent la création des retraites ouvrières. Puis de 1960 à 1961, la lutte porte sur les augmentations de salaire. Lors de la première séquence, Charles Portal porte la revendication de la création des retraites ouvrières devant le conseil d'administration2. Ce dernier a été embauché en 1951 comme simple manoeuvre au haut-fourneau, puis deux mois avant de quitter l'usine, il est échantillonneur au laboratoire d'octobre à décembre 1957 3. Il part ensuite pour les mines de la Têt. Charles Portal est un prêtre ouvrier engagé aux côtés de la CGT à un moment où la position de l'Église concernant le monde ouvrier évolue, le Concile Vatican II de 1962 en étant le temps fort4. Il est de tous les combats pour améliorer la condition ouvrière : obtenir la présence d'un infirmier diplômé d'État, la troisième semaine de congé payé. Il agace aussi par son intransigeance à faire appliquer, voire à devancer l'application des règlements5. Mais il fait aussi partie des porte-paroles écoutés par la direction. Cette dernière n'est d'ailleurs pas hostile aux retraites ouvrières6, qu'elle va d'ailleurs savoir mettre à profit dès 1958 afin de gérer une baisse des effectifs en période de récession. La négociation porte finalement principalement sur la répartition des cotisations entre salariés et patrons. Les premiers vont finalement obtenir par référendum la meilleure des deux propositions qui leur a été faite, la cotisation des ouvriers passant de 2,25 % à 2 % ce qui est intégralement compensé par la cotisation patronale qui passe de 2,75 % à 3 %7. 1 Cité par Michel Pigenet, dans PIGENET Michel, « La grève des mineurs de 1963 », PIGENET Michel et TARTAKOWSKY Danièle (dir.), Histoire des mouvements sociaux , op. cit., p. 456-457. 2 ADI, 56J12. 3 Sources pour sa biographie : AMC, liste électorale des prud'hommes 1954, fichier mécanographique du personnel. 4 VIGNA Xavier, Histoire des ouvriers en France , op. cit., p. 183-185. 5 Témoignage de Marie-Louise Charrier. 6 ADI, 56J12, conseil d'administration du 28 décembre 1955. 7 Ibidem, conseils d'administration des 12 avril et 11 juillet 1957. 338 La négociation sur les salaires se déroule en revanche dans un climat beaucoup plus tendu. À la différence des retraites, les deux camps ne peuvent pas être gagnants l'un et l'autre. De plus, le contexte de fermeture des hauts-fourneaux de Givors entraine une agitation sociale dans l'usine voisine. Des grèves perlées se produisent à la fonderie1, sans avertissement préalable : une vingtaine d'ouvriers débrayent une heure, un jour sur deux, et essaient d'entrainer les autres ouvriers. Ce sont des mouleurs qui travaillent aux chaînes. La direction réplique en envoyant aux grévistes des lettres recommandées constatant l'inexécution des contrats de travail et les avertissant qu'une récidive entrainerait la mise à pied2. À Chasse, Raymond Roux qui est délégué CGT au comité d'entreprise porte la revendication d'une prime de fin d'année de 80 NF pour chaque personnel de l'entreprise devant l'assemblée générale, puis devant le conseil d'administration 3. Les dix membres du CE ont signé la demande unanimement. Avec 880 salariés, cela représenterait tout de même 70 400 NF. La demande est rejetée. Antoine de Tarlé lui répond en indiquant que les salaires de Chasse étaient en retard en 1952, mais qu'ils ont depuis rattrapé ceux des entreprises régionales. De plus, la gratification versée en juillet 1960 a déjà été augmentée de 15 % par rapport à l'exercice précédent. André Legendre rappelle « la situation des usines productrices de fonte », c'est-à-dire la menace que fait peser la concurrence croissante des fontes étrangères. Le refus des dirigeants est donc ferme, mais argumenté. Une grève est alors déclenchée en février 1961 4. Raymond Roux est absent au conseil d'administration suivant le 10 mars. Le 26 mai, il présente à nouveau la revendication d'une gratification annuelle. Antoine de Tarlé le renvoie à la direction de l'entreprise, ces questions n'étant pas du ressort du CA. Il rappelle aussi la situation délicate des HFC, mais indique tout de même que la gratification sera fixée dès que possible. Par conséquent, il laisse la porte entrouverte, mais les représentants du personnel n'ont toujours pas de réponse. La grève de février a tout de même fait chuter les productions et les livraisons de 1/3 par rapport au mois précédent. Les négociations 1 AN, 2012 026 824, courrier du 18 juillet 1960. Ce constat de l'inexécution des contrats de travail ne peut plus avoir comme conséquence le renvoi en raison de la loi du 11 février 1950 relative aux conventions collectives : SIROT Stéphane, La grève en France , op. cit., p. 31-32. On voit alors la stratégie patronale évoluer par cette menace de mise à pied. 3 ADI, 56J13, conseil d'administration du 10 décembre 1960 ; 56J27, PV de l'AG ordinaire du 10 décembre 1960. AN, 2012 026 819, rapport d'André Legendre du 13 décembre 1960 sur le CA du 10 décembre. 4 Sources pour le déroulement des grèves de l'année 1961 et des négociations : ADI, 56J13, conseils d'administration des 10 mars, 26 mai et 23 novembre 1961. 2 339 sont alors poursuivies avec la direction, mais elles échouent puisqu'une grève de quatre jours est déclenchée en novembre 1961. Cette seconde grève n'a pas été plus victorieuse que la première. La direction a en effet tenu bon, mais l'enjeu de la grève semble dépasser la question des seuls salaires. Le conseil et la nouvelle présidence ont aussi été testés : c'est l'une des causes de l'intransigeance des salariés qui avaient confiance en Pierre Cholat1. Ce dernier emportait par exemple deux pipes, alors qu'il négociait avec les représentants syndicaux : une manière de dire l'âpreté de la négociation, mais aussi qu'il y avait discussion. En revanche en renvoyant les négociations à l'échelle de la direction générale, la nouvelle présidence prive les représentants du personnel d'une tribune, même si elle est limitée. Ce refus de dialogue peut être un acte d'autorité et/ou un aveu de faiblesse. C'est en effet Georges Albert de Benoist, successeur présomptif de Pierre Cholat à qui on confie les négociations : une manière de reconnaître une légitimité que la nouvelle présidence n'a pas. En effet, les salariés ont été bien peu sensibles aux arguments des dirigeants lors des discussions menées2. Ces derniers ont après tout renoncé à distribuer des dividendes et ils ont démontré chiffres à l'appui combien le contexte économique est difficile pour l'entreprise. Alors comment comprendre l'entêtement des salariés ? Ils ont bien sûr également connaissance de la vente des biens de l'entreprise et donc conscience qu'elle a toujours des moyens financiers. D'ailleurs elle les utilise à la même époque pour acheter les actions des hauts-fourneaux de Givors, puis pour les donner à Diserens, le nouveau dirigeant de l'entreprise concurrente. Mais plus que cette apparente confusion dans l'action des nouveaux dirigeants, c'est leur manque de légitimité qui pose problème : on ne peut remplacer comme cela Pierre Cholat. Il est présent au conseil d'administration depuis 1905. Divers éléments ont permis de bâtir son statut de « maître de forge » : son chauffeur, sa présence dans l'usine, sa capacité à la moderniser, à loger ses travailleurs et à leur apporter la fierté d'arborer ses couleurs ; tout cela disparait avec lui. Les salariés ont conscience du fait qu'il a été évincé3. Ils ne savent pas qu'il a 1 Témoignage : Georges Charrier et Mohamed Safer 22/04/2000. Les témoins rencontrés ne marquent aucune empathie avec eux, ils parlent généralement « des dirigeants » qu'ils opposent à Pierre Cholat, distinguant seulement parfois Joseph Cholat voire Pierre Doulcet des « autres » : témoignages de Georges Charrier et Fernand Abel le 15/03/2000, Georges Charrier et Mohamed Safer 22/04/2000, Janine Bouillet le 24/02/2012, Simone Arcondara le 11/03/2013, Gérard et Christiane Pastorino le 06/01/2015, Andrée Jobert le 06/05/2016 3 Témoignages de Georges Charrier et Fernand Abel le 15/03/2000, Georges Charrier et Mohamed Safer 22/04/2000, Janine Bouillet le 24/02/2012, Gérard et Christiane Pastorino le 06/01/2015. 2 340 pourtant négocié son départ, ni qu'il a une part de responsabilité dans la situation actuelle de l'usine. Ce que voient les salariés est avant tout qu'ils ont perdu celui qui a traversé les décennies, alors que les nuages s'amoncellent. L'inquiétude est unanime, ce que montre d'ailleurs la mobilisation de tous les membres du CE quelques soient les tendances syndicales. Ils n'ont bien évidemment pas fait grève pour Pierre Cholat, mais parce que sans lui l'avenir ne parait plus si certain. Le recours inédit au directeur de l'usine – neveu de Pierre Cholat – pour régler un type de conflit qui jusque-là a toujours été traité par le président – ce qui sera d'ailleurs à nouveau fait par la suite lorsque la légitimité de la présidence aura été recouvrée – peut donc être vu comme une tentative exceptionnelle mais également révélatrice de restaurer la confiance des personnels. Conclusion : Les « Sept Glorieuses » ont donc été une période de formidable expansion des productions de l'usine. Cela n'a été possible que grâce à la poursuite de la modernisation de son outillage productif. L'entreprise s'est cependant recentrée sur son usine de Chasse-sur-Rhône, alors qu'elle est de plus en plus marginalisée dans les projets de réorganisation régionale. Les effectifs ont accusé de fortes variations et si les étrangers jouent un rôle prépondérant, les travailleurs français ont également participé à cette phase d'expansion. Les ouvrières sont cependant victimes de politiques de recrutements qui font appel à des hommes jeunes plus ou moins qualifiés. Les politiques paternalistes sont largement entrées en déclin : ce qui a débuté sous la présidence de Pierre Cholat c'est ensuite bien souvent accéléré après son départ. Elles ont été également renouvelées, avec par exemple pour le logement l'usage de prêts. Les conditions de travail sont demeurées toujours aussi dures en raison de l'intensification des productions et d'une modernisation de l'outillage aux effets variables. Les conditions de vie se sont améliorées tardivement et de manière très inégale. L'action de l'État est décisive : il prend le relai des initiatives privées et locales jusque-là insuffisante. Beaucoup de travailleurs connaissent encore une grande précarité, ce qui est un sujet constant des mobilisations. La période s'achève alors que la crise couve et que l'entreprise a perdu celui qui l'incarnait. À la fin de l'année 1962, la comptabilité de l'usine n'est pas large et le 341 moindre incident peut la faire basculer vers une position beaucoup plus compliquée. Il faut en même temps poursuivre les investissements pour résister à une concurrence toujours plus âpre : cela revient de plus en plus à essayer de résoudre la quadrature du cercle. 342 CHAPITRE 4 : DE LA CRISE DE 1963 À LA FIN DES HAUTSFOURNEAUX DE CHASSE En 1963, la Compagnie des Hauts-Fourneaux de Chasse est traversée par une crise qui la mène au bord de la faillite. En 1966, l'usine s'arrête définitivement, puis on commence son démantèlement. Enfin en 1968, la plupart de ses derniers salariés sont licenciés. Chaque année correspond à une date importante de l'histoire économique et sociale française, et de fait, l'histoire locale et régionale s'inscrit dans un cadre bien plus vaste. L'année 1968 en France est l'épicentre d'une « histoire collective » faite de contestations et qui s'étend sur deux décennies1. Mais cette année-là, il ne reste plus à Chasse que quelques salariés car la plupart de ceux qui ont participé au démantèlement du site l'ont quittée2. Par conséquent l'usine ne participe pas aux « évènements ». En revanche lors de la période précédente, alors que le « champ des possibles »3 est ouvert, une mobilisation de plusieurs mois réunit en 1963 les personnels pour sauver leur usine. C'est l'année de la grande grève des mineurs, où « toute la mine se lève », ces travailleurs ayant réussi à s'opposer à la réquisition4. Ils sont victorieux et obtiennent des augmentations de salaires5. Mais leur conflit occulte tous les autres. De fait, son ampleur et sa durée rappellent d'autres grandes luttes comme celles de 19486. L'année 1966 est l'autre grand temps de mobilisation des travailleurs des HFC. Cette année n'est pas aussi réputée que les deux autres pour son agitation sociale. Pourtant la crise 1 ARTIÈRES Philippe et ZANCARINI-FOURNEL Michelle (dir.), 68, une histoire collective (19621981), La Découverte, Paris, 2015, 849 p., p. 209 sqq. 2 AMC, fichier mécanographique du personnel et ADI, 56J24, AG ordinaire du 23 décembre 1968. 3 ARTIÈRES Philippe et ZANCARINI-FOURNEL Michelle, 68, une histoire collective , op. cit., p. 17. 4 BLONDEAU Achille, 1963. Quand toute la mine se lève, 1ère édition 1963, Messidor, Paris, 1991, 179 p. 5 Ibidem, p. 133 sqq. 6 PIGENET Michel, « La grève des mineurs de 1963 », dans PIGENET Michel et TARTAKOWSKY Danièle (dir.), Histoire des mouvements sociaux, op. cit., p. 456. 343 économique et sociale de la période précédant 1968 inquiète de nombreux préfets1. La mobilisation chassère s'étend sur plus de six mois et trouve un écho régional et même national. Elle participe donc de cette période d'inquiétude alors que, comme les mineurs, d'autres professions se sentent condamnées2. En effet, comme l'hypothèque algérienne est levée, le pouvoir gaulliste hâte le cours de restructurations qui favorisent une relance de l'action revendicative3. Mais à Chasse les facteurs de la crise ne sont pas uniquement politiques et limités à l'action du seul gouvernement. L'année 1966 est aussi celle du plan de professionnel de la sidérurgie. Il s'agit de réagir à l'affaiblissement de la productivité du secteur alors que la concurrence internationale s'accroit4. Comme pour toutes les grandes restructurations de la période 1960-1970, il s'agit alors de s'adapter « à la nouvelle donne du marché de l'acier »5. Or la crise structurelle de la sidérurgie a débuté en 1962 selon Philippe Mioche6. Nombre d'entreprises du secteur se retrouvent à découvert et deviennent dépendantes de l'État7. La restructuration a pour conséquence la disparition presque complète de l'usine de Chasse par son démantèlement. Cette industrie qui disparait du bassin entraine une baisse de la population de la commune qui passe de 3 622 habitants en 1962 à 3 529 en 19688. Pour plusieurs années, le bassin connait du chômage et la mairie éprouve des difficultés de financement9. Pour expliquer la désindustrialisation, les historiens ont principalement adopté deux angles d'approche correspondant également à des échelles d'étude différentes. Ils 1 ZANCARINI-FOURNEL Michelle, « Le champ des possibles », dans ARTIÈRES Philippe et ZANCARINI-FOURNEL Michelle, 68, une histoire collective , op. cit, p. 45-46. 2 ZANCARINI-FOURNEL Michelle, Les luttes et les rêves. Une histoire populaire de la France de 1685 à nos jours, La Découverte, Paris, 2016, 995 p., p. 773-774. 3 TARTAKOWSKI Danielle, « Classe ouvrière et gaullisme », dans WILLARD Claude (dir.), La France ouvrière 1920-1968, tome 2, op. cit., p. 329 sqq. 4 MIOCHE Philippe, La sidérurgie et l'État en France des années 1940, op. cit., p. 703. 5 RAGGI Pascal, « Industrialisation, désindustrialisation, ré-industrialisation en Europe. Le cas de la sidérurgie lorraine (1966-2006) », Rives méditerranéennes, n° 46, 2013, p. 11-28, p. 14. 6 Ibidem, p. 190. 7 CARON François, « L'industrie secteurs et branches », dans BRAUDEL Fernand et LABROUSSE Ernest (dir.), Histoire économique et sociale de la France, tome IV, volume 3, op. cit., p. 1261 ; WORONOFF Denis, Histoire de l'industrie en France, op. cit., p. 559-560 ; BERGER Françoise, « Crise et reconversion dans la sidérurgie : étude comparée des bassins charbonniers de la Ruhr et du Nord-Pas-de-Calais », Mitteilungs-blatt (Zeitschrift des Bochumer Instituts f ur soziale Bewegungen), 2003, n° 29, 6p., version 1, 16 mai 2007, https://hal.archives-ouvertes.fr/halshs-00147413/document, [dernière consultation le 18 août 2013], p. 3. 8 AMC, 1F1, recensements de 1962 et de 1968. La population était de 2 804 en 1954 et 3944 en 1975 : la baisse de 1968 qui peut paraître faible, traduit en réalité un arrêt brutal et exceptionnel, dans un cycle continue de croissance démographique de 1946 à aujourd'hui. 9 AMC, conseil municipal du 1er avril 1967. 344 se sont intéressés aux bassins industriels, à leur naissance et à leur mort1. Ce dernier peut être défini ainsi : « construit par et pour l'industrie lourde, le bassin industriel est un système dans lequel l'économie, l'environnement, la société sont interdépendants »2. L'intérêt de cette notion est par exemple de pouvoir comparer différents bassins3. Une seconde approche met l'entreprise au centre de l'étude. Or, ces sujets sont plus rares car l'histoire des entreprises a surtout été une histoire de leur succès et beaucoup plus rarement de leurs échecs4. La première approche permet de mêler histoire économique, sociale et technique. La seconde, complémentaire, insiste sur les acteurs économiques. Mais il faudrait aussi s'intéresser à la reconversion du site dans la mesure où souvent, par une approche par trop linéaire, on sous-estimerait assez systématiquement le renouvellement des territoires5. I) La crise de 1963 L'année 1962 est la dernière année de fortes productions dans l'usine de Chassesur-Rhône. En cours d'année les productions diminuent déjà. L'année suivante, elles s'effondrent et l'entreprise est au bord du dépôt de bilan6. Or si la crise était prévisible en raison de la difficulté croissante à dégager un bénéfice d'exploitation, son déclenchement a été accidentel. Personnels et dirigeants vont alors faire face, les conséquences sur les uns et les autres étant différentes. 1 L'ouvrage de synthèse de référence est LEBOUTTE René, Vie et mort des bassins industriels en Europe, L'Harmattan, Paris, 1997, 591 p. 2 LEBOUTTE René, « La problématique des bassins industriels en Europe », Espace, populations, sociétés, n° 3, 2001, p. 399-419, p. 399. 3 BERGER Françoise, « Éléments sur la crise de la sidérurgie en vue d'une approche comparative », op. cit., p. 1. 4 HAU Michel, « La face cachée de l'aventure industrielle », Entreprises et histoire, 2001/1, n° 27, p. 46., p. 4. 5 DAUMALIN Xavier et MIOCHE Philippe, « La désindustrialisation au regard de l'histoire », Rives méditerranéenne, n° 46, 2013, p. 5-9, p. 6. 6 Cf. annexes 3 et 4. 345 1) Une crise prévisible, un déclenchement accidentel En raison de la mévente, l'usine n'a plus qu'un seul haut-fourneau en marche à partir du 1er juillet 19621. Or il y avait encore trois appareils en marche en avril. Le prix de vente des fontes s'est en effet brutalement dégradé à partir du mois de mai2. La réaction des dirigeants de l'entreprise face aux modifications de la conjoncture a donc été rapide. De plus, l'amélioration de la productivité obtenue par la nouvelle turbosoufflante mise en route le 3 mars 1962 permet de pousser la marche du hautfourneau n° 3 et de compenser l'arrêt du haut-fourneau n° 1 en produisant autant que lorsque ce dernier était à feu3. Les principales productions4, celles de fontes, passent cependant de 193 000 tonnes pour l'exercice 1961-1962 à 102 000 tonnes pour l'exercice suivant. On en en effet passé d'une production de 118 000 tonnes de fontes d'affinage à 48 000. En plus des prix, l'effondrement de la consommation d'acier Martin est à l'origine d'une mévente de ces fontes : on passe de 122 000 à 51 000 tonnes vendues d'un exercice à l'autre. Les productions de la cimenterie dépendant des hauts-fourneaux : elles diminuent elles aussi. En revanche, la fonderie augmente les siennes. Elle dégage même un bénéfice, mais elle ne peut compenser les pertes des deux autres activités5. Toutefois, bien que brutal, le retournement conjoncturel est cependant prévisible et peut être pris en charge : par exemple, alors que Chasse et les autres usines productrices de fontes brutes éprouvent des difficultés croissantes, le président de la Société Commerciale des fontes – Léon Aveline –, en décrit de manière contemporaine les effets et le causes. Il note en particulier que depuis 1952 six usines ont fermé dont celle de Givors, ce qui a permis aux usines survivantes de se partager les marchés et d'être plus compétitives, mais que malgré ces efforts les importations de fontes brutes ont pu être difficilement contenues, passant de 25 000 tonnes en 1952 à 189 000 tonnes en 19616. Il en rend responsable l'accroissement de la concurrence étrangère dans le cadre CECA. 1 ADI, 56J13, conseil d'administration du 11 septembre 1962. ADI, 56J37, procès verbal AG extraordinaire du 17 septembre 1963. 3 AN, 2012 026 819, conseil d'administration du 11 septembre 1962. 4 ADI, 56J24, rapport du CA à l'AG ordinaire du 12 décembre 1963. 5 ADI, 56J62, rapport relatif à la situation financière au 30 juin 1963 par la Société anonyme fiduciaire suisse. 6 AVELINE Léon, « Les difficultés actuelles de l'industrie française des fontes brutes », article paru dans Les Actualités Industrielles Lorraines, septembre-octobre 1962, et L'Usine nouvelle, 6 décembre 1962 et conservé aux AMC, 1H3, fermeture Hauts-fourneaux, 7 p. dactylographiées, p. 6. 2 346 Le 9 novembre 1962, un grave incident n'ayant heureusement pas fait de victime vient compliquer sérieusement la situation de l'entreprise 1. Une explosion détruit entièrement le gueulard du haut-fourneau moderne. Or il faut un peu plus de deux mois pour le réparer, sa marche n'étant reprise que le 14 janvier2. Le déficit du compte d'exploitation atteint alors 1 894 000 NF3. Il faut en effet rallumer en catastrophe le vieux haut-fourneau n° 2 – ce qui en soit présente déjà un surcoût – et réparer le n° 3. La situation de l'entreprise est critique. Elle est aggravée par deux autres facteurs qui surviennent au même moment. D'une part la Haute-Autorité notifie un paiement des sommes dues par les HFC pour le mois d'avril, car ils ont perdu leurs procès avec elle, or le montant dépasse de 897 000 NF les sommes provisionnées à cet effet4. Cela s'explique par des intérêts de retard et par l'indexation des cotisations sur le dollar (l'amende devant être payée dans cette monnaie, sa valeur a été augmentée en raison d'une évolution défavorable des cours). Au passage, on peut relever que de tels montants sur deux années de cotisations pour les ferrailles importées justifiaient parfaitement les protestations de Pierre Cholat, mais qu'en revanche la stratégie procédurière adoptée a été très coûteuse. D'autre part, en raison de la crise sur les fontes d'affinage, il est décidé d'arrêter l'exploitation des mines de la Têt le 28 février. Il faut faire des avances qui atteignent 1 860 000 NF au 30 juin, en attendant que pour l'exercice suivant la liquidation des actifs permette de récupérer ces sommes 5. Par la suite, un dernier facteur – prévisible celui-là – va encore s'ajouter : le paiement du solde de l'exploitation des mines en Algérie, soit 600 000 NF6. Le 28 février, Antoine de Tarlé annonce par conférence de presse la décision d'arrêter les activités sidérurgiques de l'usine 7. Il indique la possibilité d'éteindre les hauts-fourneaux pour le 1er juillet : il ne resterait plus que la fonderie en marche. Cela entrainerait alors le licenciement de 560 travailleurs supplémentaires, ces activités n'étant plus rentables. Au conseil d'administration, on en rend responsable la CECA et 1 ADI, 56J13, conseil d'administration du 22 janvier 1963. ADI, 56J13, conseil d'administration du 15 mai 1963. 3 ADI, 56J24, rapport du CA à l'AG extraordinaire du 17 septembre 1963. 4 ADI, 56J24, rapport du CA à l'AG ordinaire du 12 décembre 1963. 5 ADI, 56J24, rapport du CA à l'AG extraordinaire du 17 septembre 1963. 6 Ibidem. 7 Ibidem. 2 347 on rappelle au passage qu'une telle situation avait été prévue par Pierre Cholat et le comité d'entreprise dès 19531. Les efforts pour rétablir la situation sont néanmoins conséquents et surtout efficaces. Lors de la clôture de l'exercice au 30 juin 1963, les pertes ne sont plus que de 2 164 069,46 francs2. Mais chaque mois depuis janvier, l'entreprise fait des bénéfices d'exploitation. Finalement l'activité n'est pas arrêtée au mois de juillet comme cela avait été possiblement évoqué, même si le haut-fourneau est stoppé pendant les congés d'août. Ce n'est qu'à l'assemblée générale extraordinaire de septembre que l'on décide de donner au conseil le droit d'arrêter l'exploitation s'il le juge nécessaire. On s'accorde donc toujours du temps afin d'évaluer au mieux la situation. Enfin, la poursuite de l'exploitation est acceptée en décembre lors d'une assemblée générale ordinaire : les HFC sont donc en sursis, mais ils demeurent en activité. 2) Les dirigeants et le personnel face à la crise Les dirigeants de la Compagnie des Hauts-Fourneaux de Chasse vont agir rapidement, brutalement, mais aussi efficacement afin de sauver l'entreprise. Leurs décisions sont cependant fortement contraintes. Les salariés sont eux aussi mobilisés pour sauver les HFC, mais pas toujours de leur plein gré. a) Chasse doit « s'aider lui-même » « Les services du ministère de l'Industrie ont d'ailleurs instamment prié Chasse de s'aider lui-même »3. C'est la réponse que le ministère fait à Antoine de Tarlé après que ce dernier ait demandé « quel appui pourrait avoir Chasse pour passer au mieux cette période de transition ». Le ministère de l'industrie a tout de même fait une promesse de convention tarifaire avec la SNCF, mais la réponse du ministère est peu amène. Elle peut 1 ADI, 56J13, conseil d'administration du 27 février 1963. Voir en effet la lettre commune envoyée aux députés de l'Isère, du Rhône et de la Loire parue dans L'Humanité du 11/12/1950, n° 2260, puis la lettre de Pierre Cholat approuvée par le comité d'entreprise envoyée au préfet de l'Isère. 2 Sources pour ce paragraphe : ADI, 56J24, rapports du CA à l'AG extraordinaire du 17 septembre 1963 et du CA à l'AG du 12 décembre 1963. 3 ADI, 56J13, conseil d'administration du 15 mai 1963. 348 s'expliquer par l'historique des relations avec les dirigeants des HFC, dont Pierre Cholat en particulier. Le gouvernement a en effet différents moyens de pression ou d'aide pour les sidérurgistes : il y a les tarifs SNCF et ceux de charbon. C'est aussi lui qui donne son accord à la poursuite des investissements de Chasse en autorisant l'achat d'une turbosoufflante1. Il peut aussi aider l'entreprise à se financer en lui accordant des prêts2. Ainsi l'accès aux emprunts du GIS – organisme professionnel collectant l'épargne privée afin de financer les industries sidérurgiques – a été conditionné au rapprochement avec Givors. La Direction de la sidérurgie ne se contente donc pas d'une aide financière ou de conseils, mais elle influence directement les choix stratégiques de l'entreprise. On a par ailleurs déjà dit combien elle était crainte par les sidérurgistes. Cependant le projet d'emprunt GIS est rejeté par une majorité d'administrateurs des HFC3. En faisant cela, les dirigeants peuvent sembler vouloir refuser la concentration voulue par les autorités, même si, comme on l'a vu, les dirigeants de Givors en ont la responsabilité principale. C'est pour cette raison qu'Albert Denis interpelle Pierre Cholat et le tient responsable de l'échec du rapprochement avec Givors, obligeant ce dernier à se justifier 4. Par la suite, les dirigeants de l'entreprise obtiennent l'autorisation pour leurs projets, mais ils se chargent eux-mêmes d'en trouver le financement auprès des banques et par des ventes d'actifs. Cette image de patron qui fait preuve d'un « individualisme industriel farouche »5 colle à Pierre Cholat, même si en l'occurrence il n'est pas seul à prendre ces décisions et s'il a réellement essayé de se rapprocher de Givors. Alors que le nouveau président demande à nouveau de l'aide, la Direction de la sidérurgie peut exercer une pression supplémentaire sur les dirigeants chassères et marquer son mécontentement. Il n'y a pas non plus d'aide à attendre de la part de la CECA qui reste indifférente « à l'envahissement de sa zone par des fontes des pays tiers »6. De plus, elle maintient son amende contre les HFC et consent en fin d'année à l'étaler dans le temps 7. 1 ADI, 56J13, conseil d'administration du 29 juin 1959. Ibidem. 3 ADI, 56J13, conseil d'administration du 25 septembre 1959. 4 ADI, 56J15, rapport de Pierre Cholat du 27 juin 1960. 5 MIOCHE Philippe et ROUX jacques, Henri Malcor : un héritier , op. cit., p. 294 6 AN, 2012 026 819, conseil d'administration du 27 février 1963. La version finalement retenue du procès verbal de la séance est semblable pour le sens, mais plus allusive : dans ADI, 56J13. Dans ADI, 56J13, cette accusation récurrente est présentée contre l'Allemagne, conseil d'administration du 9 avril 1959 ; l'Europe de l'Est et l'Italie, conseil d'administration du 29 juin 1959 ; contre l'URSS, conseil d'administration du 26 mai 1961. Les responsables de la sidérurgie la reconnaissent aussi : dans AVELINE Léon, « Les difficultés actuelles de l'industrie française des fontes brutes », op. cit., p. 3. 7 ADI, 56J13, conseil d'administration du 12 décembre 1963. 2 349 Par conséquent les dirigeants vont devoir surtout compter sur les ressources de leur entreprise1. Ils vont poursuivre les ventes d'actifs et envisagent même de vendre les terrains de l'usine qui intéressent un industriel : les Laboratoires Delalande (il s'agit d'une entreprise pharmaceutique2). L'abaissement de coût des lits de fusion est recherché en négociant les prix avec les fournisseurs, et on poursuit la modernisation de la fonderie qui devrait demeurer à terme la seule usine en activité quand les hautsfourneaux et la cimenterie seront arrêtés. Mais surtout, le personnel est réduit tandis que des efforts sont demandés à ceux qui demeurent à leur poste. b) La mobilisation des salariés Les personnels sont mobilisés pour le maintien de l'activité dans l'usine et la sauvegarde de leur emploi. Cette mobilisation prend différentes formes, dont plusieurs inédites, notamment parce qu'elle se produit dans un contexte social tendu. Xavier Vigna rappelle combien la peur du chômage a été importante pendant la période 1960-1968, en particulier parce que les destructions d'emplois touchent plusieurs secteurs industriels (habillement, sidérurgie, etc.)3. Dans le bassin industriel des HFC, les hauts-fourneaux voisins de Givors ont déjà été arrêtés en 1960. L'année 1963 est marquée par d'autres évènements comparables. Les établissements Lines frères qui fabriquent des jouets ferment en avril 1963, en entrainant la perte de 255 emplois4. Fives-Lille menace de fermer sa fonderie ce qui entrainerait la suppression de soixante emplois ; la cristallerie et l'usine La faïencerie nouvelle sont aussi touchées5. Dans le bassin voisin viennois, l'industrie textile est également en crise et ne cesse de perdre des emplois depuis plusieurs années6. Or il est possible de faire le lien entre la sidérurgie et le textile par la fabrication des métiers à tisser : l'administrateur des HFC André 1 Les différents points de la stratégie sont évoqués lors de la séance du conseil d'administration du 15 mai 1963, ADI, 56J13. 2 WAROLIN Christian et POMARET Jean-Carlos, « Grands pharmaciens : Michel Delalande (18991991) », Revue d'histoire de la pharmacie, 88e année, n° 327, 2000, p. 434-440. 3 VIGNA Xavier, L'Insubordination ouvrière dans les années 68, op. cit., p. 148. 4 Grâce à Éric Combaluzier et Michel Paret pour les pages suivantes, de nombreuses sources de périodiques ont été recueillies ; ici Dauphiné Libéré du 5 avril 1963, « Les établissements Lines frères fermeront leurs portes », p. 6, article sans auteur. 5 L'Humanité Dimanche n° 7, article de PAVIOT Maurice, secrétaire de la section de Givors du Parti Communiste, « Des fermetures d'usines : pourquoi ? », p. E. 6 AVOCAT Christian, « Les industries rhodaniennes », Revue de géographie de Lyon, Vol. 40, n° 4, 1965, p. 277-344, p. 297. 350 Diederichs est le représentant de cette branche elle aussi touchée par la crise. Par conséquent les difficultés économiques et sociales qui frappent des bassins et des activités diversifiées expliquent que les habitants comme de nombreux acteurs politiques, économiques, administratifs soient immédiatement sensibilisés. Par conséquent, la mobilisation des travailleurs des HFC va recevoir un soutien rapide qui va donner à leur action une ampleur inédite. Gaston Riffard, représentant CGT-FO du comité d'entreprise écrit alors ce texte dans le Dauphiné Libéré qui reprend plusieurs de ces changements : « Le fait marquant de tous ces conflits, de tous ces heurts, c'est la prise de conscience de plus en plus grande par les salariés qu'ils ne peuvent plus se battre seulement pour leurs salaires. Ils contestent aussi la gestion de l'économie. Les syndicats contestent cette gestion technocratique tous ensemble ; c'est un fait indéniable et si leur unité n'est pas réalisée au sommet, elle s'est réalisée à la base ». 1 Il indique la prise de conscience politique des salariés qui ne se battent plus pour des causes internes à l'usine. La mobilisation de 1961 nous a déjà paru reposer sur d'autres motifs que les salaires, même si les revendications portaient uniquement sur eux. Ce qui est en jeu en 1963 est cette fois-ci leur travail et leur emploi. Or de nombreux travailleurs sont nés dans ce bassin. Ils sont donc sensibles à l'argument qui consiste à dire vouloir continuer de travailler dans leur région d'origine 2. L'union syndicale entre la CGT et la CGT-FO est constituée dès les débuts de la mobilisation, au niveau local comme à l'échelle du bassin. Cette mobilisation correspond déjà en partie à ce que Xavier Vigna définit comme une « situation d'usine », c'est-à-dire « un moment pendant lequel existe et se déploie une capacité politique ouvrière. Les ouvriers rompant avec l'ordre usinier traditionnel, peuvent s'interroger sur le travail, le pays, la politique d'une manière générale »3. Une situation d'usine crée alors un « évènement ». Toutefois les représentants syndicaux gardent la main sur le mouvement qu'ils conduisent et organisent, même si Gaston Riffard donne l'impression que la conscience politique ouvrière coexiste avec la contestation syndicale et ne font que converger. 1 « L'angoissant problème des hauts-fourneaux », Dauphiné Libéré, article non daté et sans pagination, mais qui date vraisemblablement de début avril 1963. 2 Cela est notamment évoqué lors d'un discours de Raymond Roux le 22 décembre 1963 : RIFFARD Gaston, « Perspectives aux hauts-fourneaux », Dauphiné Libéré du 29 décembre 1963. 3 VIGNA Xavier, L'Insubordination ouvrière dans les années68, op. cit., p. 37. 351 L'organisation des « évènements d'usine » passe par la communication, c'est-àdire par les tracts et la presse syndicale distribués à Chasse1. Mais la presse régionale se fait aussi l'écho des débats : le Dauphiné Libéré pour la CGT-FO et L'Humanité pour la CGT2. Enfin, une réunion se tient à Chasse le 18 mars à l'initiative des syndicats CGT et CGT-FO3. Il s'agit de répondre par voie de presse à Antoine de Tarlé. Après la prise de parole de Raymond Roux pour le premier syndicat et de Gaston Riffard pour le second, plusieurs intervenants extérieurs s'expriment : en particulier Joseph Farjas pour le syndicat CGT de Givors et Camille Vallin son sénateur-maire communiste. Tous deux parlent de l'expérience des luttes menées au moment de la fermeture des Hautsfourneaux Prénat. Noël Chapuis4, député de l'Isère siégeant dans le groupe de l'Entente démocratique s'exprime également. C'est à la suite du succès de cette réunion publique qu'est créé un comité de défense présidé par Pierre Bouchard, maire – sans étiquette – de la commune. Il s'est formé d'autant plus rapidement que par exemple le premier adjoint Joseph Domeyne a de la famille qui travaille aux HFC, ou que Gaston Riffard est lui-même conseiller municipal : des liens existent entre responsables syndicaux de l'usine et élus locaux. Le comité organise des réunions publiques, des meetings et des manifestations 5. Par exemple, le 23 avril, on organise un meeting précédé par une manifestation6 qui débute à 15h00, à l'appel des cloches de l'église et de la sirène de l'usine. On trouve à sa tête un fondeur portant casque, guêtres et veste de bure, il porte une pancarte où il est écrit « non à la fermeture ». Il est suivi par les officiels – dont les maires et élus des communes voisines –, puis les salariés avec la population. On trouve parmi elles de nombreuses associations qui ont appelé à manifester aussi diverses que : les associations sportives de l'usine, les pompiers, les anciens combattants ou l'Union des femmes françaises, etc. Gaston Riffard et Raymond Roux rédigent un mémoire en s'appuyant sur les données transmises par Antoine de Tarlé en comité d'entreprise. Ce mémoire signé par 1 AMC, 1H3, comité de défense. Éric Combaluzier et Michel Paret ont conservé plusieurs articles. 3 « Chasse : les syndicats CGT et FO se sont penchés sur les problèmes d'une éventuelle fermeture des Hauts-Fourneaux », 19 mars 1963, sans pagination ni titre de périodique. 4 Biographie de Noël Chapuis, Assemblée nationale, http://www2.assembleenationale.fr/sycomore/fiche/%28num_dept%29/1651, [dernière consultation le 17 août 2017]. 5 Articles de presse Éric Combaluzier et Michel Paret : en particulier les numéros du Dauphiné Libéré des 20 avril et 24 avril ; Le Progrès des 24 avril, 18 septembre 1963. Pour le cahier du comité de défense avec les notes manuscrites des réunions, AMC, 1H3, Fermeture. 6 Sans auteur, « Après l'imposante manifestation de la population chassère », Dauphiné Libéré, 24 avril 1963, p. 9. 2 352 les associations et syndicats regroupe les thèmes suivants : les arguments favorables au maintien des HFC, les conséquences de l'arrêt de l'entreprise, les mesures à prendre pour que les HFC puissent durer1. On évoque aussi une réunion comparable qui s'est tenue à Prades le 24 février 1963 en présence du député local et on cite le texte de sa motion contre le « quatrième plan gaulliste fait dans le cadre de la CECA »2. Le mémoire est lu lors du meeting du 23 avril 1963 et destiné à être imprimé pour être diffusé auprès des parlementaires, représentants locaux, services administratifs, etc. Ce jour-là, on fait aussi signer un texte de motion destiné à être transmis aux pouvoirs publics : les luttes exemplaires menées ailleurs sont donc réemployés pour mener les combats locaux. On cherche aussi à fédérer les protestations de travailleurs situés dans de petits bassins afin d'essayer d'avoir plus de poids auprès des autorités. Le bilan de cet évènement d'usine est contrasté. Certes les populations et les salariés sont victorieux puisqu'en décembre l'activité sidérurgique perdure à Chasse, mais la situation demeure très précaire. On décide néanmoins de suspendre le comité de défense des HFC3. L'attitude des dirigeants de l'entreprise a changé : ils ont dû composer avec le personnel. Bien qu'ayant des intérêts divergents, ils en ont aussi de communs. En effet, le licenciement de vingt-cinq salariés mensuels, dont un délégué au comité d'entreprise et un délégué syndical provoque des mesures classiques de réplique de la part des salariés : un débrayage est organisé le lendemain par les syndicats CGT et CGT-FO 4. Mais il est difficile de déclencher une grève dans une entreprise en difficulté sans les accroitre encore : les actions de protestation traditionnelles ont donc toujours cours, mais elles sont nécessairement limitées. Cependant, le 27 février 1963, alors qu'Antoine de Tarlé n'a pas encore rendu publique la décision de fermeture possible de l'usine, on autorise un représentant des ingénieurs à assister au conseil d'administration en plus des représentants du personnel5. Or le projet de fermeture est débattu ce jour-là entre administrateurs, puis avec les représentants des travailleurs. Une motion rassemblant 500 signatures est également déposée : elle réclame « la continuation de l'entreprise ». Alors que le dialogue entre les administrateurs et les représentants du 1 Un exemplaire dactylographié de ce mémoire de 12 pages m'a été transmis par madame Domeyne lors de la conférence Patri/malle du 20 mai 2016. Il est en date du 23 avril 1963. 2 Ibidem, p. 8. 3 AMC, 1H3, RIFFARD Gaston, « Perspectives aux hauts-fourneaux », Dauphiné Libéré, 29 décembre 1963. 4 « Licenciements aux Hauts-Fourneaux de Chasse », Dauphiné Libéré, 5 avril 1963, pagination et auteur non indiqués. 5 AN, 2012 026 819, rapport du 8 mars 1963 sur le conseil d'administration du 27 février. 353 personnel semblait interrompu depuis les grèves de 1961 avec le renvoi de leur gestion à la direction de l'usine, il est donc par nécessité en partie rétabli. Enfin, le 30 avril et le 3 mai 1963, représentants syndicaux et dirigeants de l'usine sont reçus au ministère de l'Industrie. Accompagnés par des représentants syndicaux et politiques locaux, ils défendent ensemble le maintien en activité des HautsFourneaux devant Denis le directeur de la sidérurgie, Parodi et Lévy-Salle respectivement directeur et secrétaire du Fonds de réadaptation1. À cette occasion Albert Denis réitère les reproches qu'il avait fait à propos de Pierre Cholat le rendant responsable de l'échec du rapprochement avec les HFC en ayant refusé les prêts du GIS. Il explique aussi que la fermeture de Chasse est inéluctable pour des raisons économiques. L'existence de Chasse est mise en balance avec celle des Hautsfourneaux de Rouen. Mais à la fin du dernier entretien, notamment après l'intervention des représentants des personnels, il est concédé quelques vagues espoirs de maintien de l'activité le temps que de nouvelles entreprises s'installent dans le bassin. Néanmoins, le ministère a fait le choix de fermer les hauts-fourneaux et l'entreprise doit donc bien « s'aider elle-même ». 3) Les conséquences de la crise Les conséquences de cette crise sont à la fois inégales, différentes et semblables pour les salariés et leurs dirigeants : différentes car les premiers sont dans une situation plus précaires que les seconds, mais semblable en raison d'un renouvellement important des uns et des autres. a) Un conseil d'administration renouvelé Le conseil d'administration présidé par Antoine de Tarlé voit plusieurs changements pendant l'année 1963 qui induisent un nouvel équilibre entre administrateurs. 1 AMC, 1H3, compte-rendu manuscrit de la réunion du 3 mai pour le comité de défense ; « Mardi s'est tenue une première réunion au ministère de l'industrie. Ce matin une seconde », Dauphiné Libéré, 3 mai 1963, sans auteur. 354 Le 1er janvier 1963, Léonce Bellat et Charles Vassillière envoient leur démission du conseil1, Ils l'expliquent officiellement parce qu'en transférant les sièges sociaux de leurs entreprises algériennes, le nombre de postes d'administrateur prévu par la loi est dépassé2. Ces démissions sont néanmoins fort opportunes à un moment où l'entreprise est très en difficulté et qu'il parait urgent de s'en retirer3. Elle ne rapporte plus d'argent, même pour ses administrateurs : la valeur des jetons de présence est par exemple divisée par deux4. De plus, leurs propres entreprises éprouvent elles aussi des difficultés, elles nécessitent toute leur attention, notamment les mines des Pyrénées 5. La question de la vente de leurs actions va alors être posée. Certes les administrateurs du Zaccar n'ont pas « cassé la tirelire » comme ils l'ont promis à André Legendre, mais en se rapprochant de ce dernier, ils ont déterminé le changement de présidence. Le conseil a trouvé grâce à eux un nouvel équilibre autour d'Antoine de Tarlé, après que Pierre Cholat ait été contraint de démissionner en décembre 1960. Après leur départ, Pierre Cholat ne retrouve malgré tout pas la position qu'il avait jusque-là au conseil. Antoine de Tarlé se rapproche d'André Legendre avec lequel il entretient une correspondance régulière6. En lui demandant souvent des conseils – répercutés par ce dernier aux services juridiques de Marine –, il l'associe à la prise de décision plus étroitement qu'aucun autre administrateur. Georges de Benoist, un temps candidat à la présidence, demeure à son poste de directeur général. Pierre Cholat pourrait avoir les mains libres pour revenir, mais en deux ans il a perdu son influence comme le révèle le débat autour de la vente des terrains de l'usine 7. Il rejette le plan d'Antoine de Tarlé qui consiste à vendre jusqu'à douze hectares de terrains industriels aux laboratoires Delalande pour financer l'arrêt futur de l'activité de production de fonte à Chasse. Une fois de plus il tergiverse, refusant de se séparer d'une activité ou d'une affaire, comme en Algérie, alors que cette dernière n'est plus viable. Il s'entête à espérer des changements et pire, il ne prépare pas l'avenir. Il est donc le seul des sept administrateurs, dont son frère Joseph, à s'opposer à ce projet. Il en tire les 1 ADI, 56J13, conseil d'administration du 22 janvier 1963. ADI, 56J24, rapport du CA à l'AG ordinaire du 12 décembre 1963. 3 L'exercice 1960-1961 est en déficit, celui de 1961-1962 est sans bénéfice : cf. annexe 4. 4 Ibidem. 5 Les mines de Fillols arrêtent définitivement leur exploitation le 1 er janvier 1963 : AN, 2012 026 819, réunion des administrateurs du 29 novembre 1962. 6 AN, 2012, 026 819. 7 ADI, 56J13, conseils d'administration des 25 juin et 10 juillet 1963. 2 355 conséquences et démissionne1. Il a quatre-vingt-six ans et a passé cinquante-huit années comme administrateur des HFC. Après ce départ, une page est définitivement tournée. L'équilibre au sein du conseil est retrouvé, mais c'est bien tard alors que l'entreprise est en crise et que jusquelà les divisions et certains choix de ses dirigeants l'ont affaiblie. Antoine de Tarlé s'appuie avant tout sur André Legendre. La famille Cholat – Joseph et son neveu Pierre Doulcet – sont généralement en accord avec les décisions prises. André Diederichs et Georges Marrel sont plus en retrait, mais ils suivent généralement activement les principales décisions, participant aux débats de manière constructive. b) Des personnels affectés La politique d'abaissement des coûts de production a un effet sur les revenus des travailleurs : on annonce en novembre 1962 la suppression de la gratification exceptionnelle, le budget du comité d'entreprise est diminué de 25 %, l'horaire hebdomadaire est abaissé à 44 heures2. Certes il s'agit d'un retour vers la durée de travail hebdomadaire légale, mais il est une perte de revenus pour les salariés et leurs représentants : on a par exemple déjà vu comment Pierre Cholat résout les problèmes de pouvoir d'achat en 1956 non en augmentant le salaire horaire mais par une hausse du temps de travail. Cette durée de quarante-quatre heures n'arrive même pas par la suite à être tenue en raison de la baisse des productions3. Mais les salariés sont doublement mis à contribution : après la baisse de leurs revenus, il y a aussi le risque de perdre leur emploi. La chute des effectifs du personnel est le fait marquant de la période 1962-1963. De 944 travailleurs en juin 1962, on passe à 719 en juin 1963 ; soit une diminution de 4 ingénieurs, 34 mensuels et 187 horaires4. En septembre 1963, ils ne sont plus que 6945. De l'aveu même des dirigeants de l'usine, 1 ADI, 56J13, conseil d'administration du 17 septembre 1963. Source pour toutes ces données : « Économies massives annonce la direction des Hauts-Fourneaux de Chasse », article sans date, auteur, titre de périodique. Document fourni par Éric Combaluzier. 3 ADI, 56J13, conseil d'administration du 15 mai 1963. 4 ADI, 56J13, conseil d'administration du 24 octobre 1963. 5 ADI, 56J13, conseil d'administration du 17 septembre 1963. 2 356 récemment arrivés dans l'usine. Ces dernières caractéristiques correspondent aux pratiques traditionnelles de l'entreprise qui a toujours cherché à conserver les travailleurs ayant le plus d'ancienneté ainsi que les pères de famille, en incitant les autres à partir en premier. Les travailleurs étrangers sont concernés dans un second temps par l'évolution de ces politiques. La mise en route de la nouvelle soufflante le 3 mars permet d'arrêter le haut-fourneau n° 1 le 13 avril1, mais il n'y a pas d'effet sur les départs observables jusqu'à juin. On « occupe » les quarante travailleurs du haut-fourneau n° 1 arrêté à la « vieille » agglomération : ils doivent valoriser un « stock mort » de 17 000 tonnes de cendres de pyrite2. Puis à partir de l'été 1962, alors que le retournement économique apparait évident et durable, le nombre de départs de travailleurs étrangers progresse fortement, dépassant la plupart du temps les effectifs des travailleurs français. Les travailleurs algériens sont les plus touchés, suivis par les Italiens. On privilégie là encore les salariés les plus récemment arrivés dans l'usine. Enfin, la situation se stabilise pour tous les travailleurs au dernier trimestre, avec néanmoins à ce moment-là un nombre de départs toujours supérieur à celui des embauches. Il n'y a cependant pas eu d'anticipation de diminution du personnel comme dans les années 1950 après chaque campagne à deux hauts-fourneaux : on ne facilite pas les départs en retraite des travailleurs français – ce qui serait d'ailleurs plus compliqué puisque le personnel a été rajeuni –, et on conserve dans un premier temps les étrangers. On ne cherche donc pas à obtenir une diminution lente des effectifs comme auparavant, en gardant seulement certains personnels qualifiés ou de maîtrise afin de pouvoir préparer une reprise de marche à un niveau plus soutenu. Le départ précoce des travailleurs français est lui aussi inhabituel, mais logique dans la mesure où en cas d'urgence il est plus facile de se séparer d'eux que de salariés étrangers sous contrats et avec moins de solution de reclassement. Mais quelques mois plus tard, alors que la crise perdure et que l'on a eu le temps de préparer leurs départs, ils sont concernés à leur tour. En effet, au début du mois de mai, les prix des fontes se sont effondrés. On ne tarde pas à réagir et on fixe en juin la réduction des effectifs à 110 personnes en passant à une marche à un seul haut-fourneau le 12 juillet3. Plus que la modernisation, c'est donc bien une fois de plus l'évolution des productions en fonction des marchés qui a un 1 Source pour la chronologie des départ jusqu'au 31 août 1962 : ADI, 56J13, conseil d'administration du 11 septembre 1962, sauf mention contraire. 2 AN, 2012 026 819, compte-rendu de la réunion des administrateurs du 12 mars 1962. 3 AN, 2012 026 819, compte-rendu de la réunion des administrateurs du 27 juin 1962. 359 effet sur l'emploi dans l'usine. De fait, trente-quatre travailleurs sont licenciés sur la période de juillet-août et la baisse des effectifs depuis le mois de mars atteint les 100 individus au 31 août 1962. C'est la première fois qu'il y aurait un plan de licenciement dans l'usine d'après les administrateurs1. Cette remarque est juste s'il est considéré que ces licenciements sont imposés par les circonstances aux dirigeants des HFC ; mais si on songe à l'évolution des effectifs après chaque période de marche à deux hauts-fourneaux, on peut observer que les variations d'effectifs sont le lot du personnel pendant toutes les Trente Glorieuses. Cette remarque est alors surtout juste d'un point de vue légal, puisque c'est la loi du 19 février 1958 qui établit pour la première fois une distinction nette entre le préavis de licenciement régit par la loi et le préavis de démission qui est fonction des usages2. En outre, tous ces travailleurs sont replacés par les soins de l'entreprise3. L'étude de ces licenciements démontre en outre que leur répartition entre nationalités est inégale : il y a six Français, cinq Espagnols et neuf Algériens en juillet, pour trois Français, deux Espagnols, trois Italiens et six Algériens en août. Les Algériens et les Espagnols sont donc surreprésentés. Mais cela s'explique par la nature des emplois supprimés : il est prioritairement recherché des personnels peu qualifiés et embauchés récemment dans l'usine. On a donc vingt-quatre manoeuvres pour dix OS et parmi eux vingt-six ont moins de dix-huit mois d'ancienneté. De plus, même si ce sont les deux hauts-fourneaux qui ont été arrêtés, plusieurs ateliers sont concernés : soit treize ouvriers aux hauts-fourneaux, mais huit à la fonderie, trois au laboratoire, huit à l'agglomération, deux au parc à fonte. Cela s'explique en partie par le fait que les ouvriers du haut-fourneau n° 1 se trouvent provisoirement occupés dans d'autres ateliers : en particulier l'agglomération, ainsi qu'au laboratoire (où on les a envoyés pour renforcer les effectifs, alors que de nombreux essais sont effectués pour régler la marche des appareils et des nouveaux équipements sidérurgiques)4. Puis des ouvriers dans d'autres ateliers ont été pris afin de compléter le groupe. 1 Ibidem. MÉDA Dominique et SERVERIN Évelyne, Le contrat de Travail, coll. Repère, La Découverte, 2008, 128 p., p. 3. 3 ADI, 56J13, conseil d'administration du 11 septembre 1962. 4 La marche à un appareil que l'on pousse au maximum de ses capacités de production inquiète les dirigeants de l'usine, source : ADI, 56J13, conseils d'administration des 10 avril et 11 septembre 1962. 2 360 Toutefois les licenciements ne représentent que trente-quatre des soixante-neuf salariés quittant l'usine pendant les deux mois d'été1. Les motifs des autres départs sont peu variés et surtout dans la continuité de ce qui se fait depuis mars : il y a quatre départs en retraite, un décès, une démission, mais c'est surtout la catégorie « sur sa demande » qui est la plus représentée. Les départs en retraite sont donc relativement rares et toujours insuffisants pour réguler les effectifs comme durant les années 1950 au moment de l'arrêt d'un appareil. Les départs suite à une démission ou « sur la demande » du salarié concernent des travailleurs qui peuvent être qualifiés et qui partent d'une entreprise où l'avenir semble incertain : on a par exemple un dessinateur du bureau d'étude, un chimiste du laboratoire, et trois ouvriers professionnels fondeurs. Il y a aussi des Algériens parmi cette dernière catégorie de personnel : c'est la preuve qu'il n'y a pas de traitement spécifique pour eux dans les licenciements, et que c'est davantage les catégories de travailleurs peu qualifiés voire étrangers qui sont visées. Les HFC souhaitent toujours conserver des personnels expérimentés et anciens afin de poursuivre leurs activité, ces derniers étant plus souvent Français. Ensuite, jusqu'à la fin de l'année et au début de l'année suivante, les effectifs subissent une lente érosion, même si l'incident du 9 novembre 1962 au haut-fourneau n° 3 vient changer la donne car il va falloir accélérer la diminution du personnel. En janvier, on compte encore officiellement sur l'aide des pouvoirs publics en alertant le préfet IGAME de Lyon et en attendant les résultats d'une réunion avec les producteurs de fontes et le ministre de l'industrie début février et on ne songe pas encore à changer de politique2. La décision d'arrêter la production de fonte aux HFC prise en février n'en est que plus brutale pour les travailleurs. En réalité, elle est débattue depuis décembre entre administrateurs qui ont attendu pour l'annoncer3. L'effet de surprise n'a cependant pas été total en raison de la crise larvée dans l'usine et généralisée dans les mines et d'autres activités : la conscience de ce contexte explique que les travailleurs ont pu réagir aussi rapidement. Une seconde période de baisse des effectifs se déroule de mars à juin 1963. Son ampleur est beaucoup plus importante et surtout les caractéristiques des travailleurs touchés sont diverses. Sur cette période de quatre mois, 120 personnes quittent l'entreprise, dont 71 Français qui représentent 59,2 % des départs (c'était 33,3 % des 1 Les administrateurs notent bien que sur la période les « départs volontaires » sont plus nombreux que les licenciements : ADI, 56J13, conseil d'administration du 11 septembre 1962. 2 ADI, 56J13, conseil d'administration du 22 janvier 1963. 3 AN, 2012 026 819, réunion d'administrateurs du 29 novembre 1962. 361 départ de la précédente période de licenciement en juillet-août 1962). Les 110 départs initialement prévus sont donc largement dépassés puisque désormais un projet d'arrêt complet de l'activité fonte pendant l'été a été adopté. Durant la période, trente-cinq travailleurs sont licenciés, dont les vingt-cinq mensuels évoqués dans un article du Dauphiné Libéré1 : soit pour les mensuels deux ingénieurs, un chef de service des « grands bureaux », quatre agents de maîtrise, dix-huit employés. Parmi ces derniers on trouve notamment Charles Mathé – car l'entreprise n'a plus les moyens de payer un entraineur pour encadrer le temps libre de ses salariés et de leurs familles –, ainsi qu'un pointeau et plusieurs membres du service achat. Dans ce dernier cas, les licenciements sont utilisés pour restructurer un peu le service de sécurité de l'usine et surtout les services de bureau. On a également parmi les licenciés dix ouvriers qualifiés ou en surnombre dans des ateliers – ils sont alors indiqués dans la catégorie « divers » des fichiers du personnel –, dont deux sont mensuels. Il y a également des travailleurs en arrêt longue maladie parmi eux. Enfin, on en profite aussi pour renvoyer un manoeuvre du haut-fourneau qui fait preuve d'un trop grand absentéisme2. Ce plan touche donc prioritairement des travailleurs qualifiés majoritairement de nationalité française. Il y a une proportion forte de cadres, d'agents de maîtrise, d'employés. Certaines activités sont touchées plus que d'autres en vue de l'arrêt définitif des hauts-fourneaux. Les personnels de cette activité ont d'abord été touchés pendant l'été 1962, puis ce sont ceux de l'agglomération, de la manutention, de la maçonnerie : c'est-à-dire des activités annexes aux hauts-fourneaux. Enfin, les services achats des bureaux sont restructurés car cette activité dépend essentiellement des hautsfourneaux dans l'usine. Mais avec par exemple moins de personnels à gérer, on peut aussi supprimer un poste au service paie. Après les hauts-fourneaux en 1962 et les ateliers ou services associés, c'est donc l'ensemble des activités de l'usine qui sont concernées par les licenciements en 1963, ce qui contribue à renforcer le sentiment de solidarité parmi les travailleurs en lutte afin de défendre leur emploi en 1963. Cependant en même temps que certains se mobilisent pour sauver l'usine, d'autres la quittent : ils sont soixante-trois en tout. Comme en 1962, ce qui compte est principalement le niveau de qualification pour comprendre les logiques de ces départs ; les travailleurs les plus recherchés sur le marché du travail et 1 « Licenciements aux Hauts-Fourneaux de Chasse », op. cit. AMC, fichier mécanographique, lettre de l'ingénieur en chef du 23 janvier 1964 au directeur de l'ASSEDICAF de Grenoble. 2 362 ceux qui ont le plus de connaissances – souvent les mêmes – peuvent aller tenter ailleurs leur chance. Afin de gérer ces départs, les dirigeants de l'entreprise utilisent plusieurs biais. Ils peuvent tout d'abord arrêter de retenir ceux qui souhaitent la quitter, exactement comme cela a été fait chez Prénat à Givors1, voire aussi provoquer ces départs. On utilise la méthode suivante2 : l'ingénieur ou les agents de maîtrise de l'atelier évoquent avec le salarié les projets de fermeture, puis ils lui proposent de contacter telle entreprise pour que le salarié postule. Après un rendez-vous avec son futur employeur bien évidemment prévenu des futures candidatures par les soins des HFC, il va faire valider sa demande de départ par l'ingénieur en chef : du début à la fin du processus, l'entreprise à la main sur le « départ volontaire » du salarié. On peut le vérifier dans la chronologie des évènements : quarante-cinq des soixante-trois départs volontaires se déroulent en mars et avril, contre trente-quatre des trente-cinq licenciements en mai et juin. Ces départs sont autant de licenciements en moins à effectuer pour l'entreprise alors qu'elle s'apprête à licencier surtout des travailleurs qualifiés ayant de l'ancienneté, dont les caractéristiques sont similaires à ceux qui partent volontairement : leur coût du 1er février au 30 juin a été de 120 000 francs en indemnités de licenciement3. C'est à comparer avec 560 000 francs d'économies faites par l'ensemble de l'usine sur la même période, ce qui est obtenu pour l'activité de production de fonte – de loin la plus importante de l'usine – pour 4/5e par la baisse du prix d'enfournement et pour 1/5e par la baisse des frais de fabrication : la part de la main d'oeuvre n'est pas précisée, mais elle figure nécessairement dans chacun de ces deux prix ; les licenciements participent donc à l'amélioration de la rentabilité4. Mais c'est en revanche beaucoup moins rentable pour la municipalité qui doit demander en urgence la création d'une caisse de chômage vu le nombre des demandes d'aide qu'elle va devoir traiter5. Ensuite l'entreprise reclasse ses personnels : il est envisagé les différentes opportunités d'emploi du bassin à chaque fois que des départs sont évoqués6. Or en 1963, si les salariés licenciés ont droit à une indemnité, il n'est pas 1 AN, 2012 026 819, lettre de Legendre à Lefol du 18 janvier 1960. Il évoque les conseils qu'il a donnés à Rollet qui est administrateur provisoire à Givors. 2 À partir du témoignage de Jacques Bernet du 02/05/2017. 3 ADI, 56J13, conseil d'administration du 24 octobre 1963. 4 Ibidem. 5 AMC, 1B3, registres des délibérations, conseil municipal du 5 avril 1963. 6 AN, 2012 026 819, réunions des administrateurs des 27 juin et 29 novembre 1962 ; conseil d'administration du 27 février 1963. 363 encore obligatoire de préparer leur reclassement1, cela s'effectuant surtout à partir des années 19802. Les HFC sont donc en avance sur la législation, mais préparer le reclassement est aussi un moyen d'apaiser les tensions sociales au moment du plan de départ. Cela ne veut d'ailleurs pas dire que les reclassements se passent toujours bien, Gérard Pastorino se rappelle avoir dû solliciter les services du personnel des HFC afin de trouver un nouveau poste3. Une politique est donc bien menée afin d'atténuer les effets du plan de départs. Le choix de licencier des délégués du personnel et du comité d'entreprise4 est donc surprenant par rapport aux autres mesures prises ; ce peut être une maladresse, voire une erreur. Les congés payés sont également provisionnés sur la base de quatre semaines à partir du mois d'août5, ce qui est à la fois une nécessité en raison de la baisse d'activité de l'usine, mais aussi un moyen d'acheter la paix sociale. Enfin, une dernière caractéristique du plan de licenciement de l'année 1963 est la place que les femmes prennent dans ce dernier : elles sont sept des trente-cinq licenciés, soit 20 %, une proportion bien supérieure à ce qu'elles représentent dans l'usine. Certes comme les bureaux sont touchés, il est logique que des femmes soient licenciées, mais on supprime aussi deux postes d'ouvrières et un de femme de ménage. On trouve parmi elles deux veuves, une catégorie de personnels jusque-là protégée. Il faut ajouter encore huit autres femmes qui quittent l'usine pour d'autres raisons (un décès, deux retraites et cinq « départs volontaires »). Il y avait cinquante-quatre femmes dans toute l'usine en décembre 1962, elles ne sont plus que trente-neuf en août 1963. Pourquoi en proportion a-t-on alors privilégié leurs licenciements ou leurs départs ? Une première hypothèse serait que l'on espère moins d'opposition de leur part que si c'était des hommes. Mais une telle politique est aussi dans la continuité des diminutions d'effectifs féminins conduits dans l'usine depuis le début des années 1950. Cela correspond donc au modèle selon lequel la paie doit être ramenée par « Monsieur Gagne-pain » à la maison : on espère ainsi avoir à effectuer moins de reclassement s'il s'agit de les renvoyer à leur foyer. On comprend alors mieux les différents motifs de 1 AUDINET Jacques, « Le licenciement du salarié en droit comparé », Revue internationale de droit comparé, Vol. 18, n° 2, Avril-juin 1966, p. 365-391. 2 SIGNORETTO Camille, « Restructurations, gestion de l'emploi et droit du travail : analyse institutionnelle et statistique », La Revue de l'Ires, 2015/1, n° 84, p. 31-58, p.39 sqq. 3 Témoignage de Gérard Pastorino le 6 janvier 2015. 4 « Licenciements aux Hauts-Fourneaux de Chasse », op. cit. 5 ADI, 56J13, conseil d'administration du 17 septembre 1963. 364 mobilisation de l'Union des femmes françaises, une association communiste de défense des droits des femmes créée en décembre 19441. Par la suite, on licencie encore en juillet quatre ouvriers qualifiés et deux agents de maîtrise, puis le plan s'arrête mais les départs volontaires se poursuivent. L'usine occupe moins de 700 salariés en septembre alors que l'on envisage la prolongation de la production de fonte. Il faut donc reprendre les recrutements alors que les départs ont touché un peu toutes les activités de l'entreprise : l'arrêt complet de l'usine au mois d'août s'explique entre autres par des pénuries de personnels2. Cependant qui voudrait être embauché dans une usine en train d'arrêter ses principales activités de production et qui vient de faire deux plans de licenciement dans un contexte de forte contestation sociale ? La réponse est une fois de plus apportée par l'immigration algérienne : quatrevingt-un travailleurs sont recrutés en 1963, essentiellement à partir du mois de juin. Certains comme Chérif Bencib sont même des ouvriers licenciés quelques mois auparavant. Mais tout comme cet ancien fondeur P1 qui se retrouve simple manoeuvre à la fonderie, plusieurs travailleurs ne trouvent pas de conditions d'emploi ou de travail satisfaisantes : ils quittent donc à nouveau l'usine. Des travailleurs français comme Michel Fourel, un ancien dessinateur, accomplissent un parcours comparable. En décembre 1963, la décision de poursuivre encore quelques temps toutes les productions de l'usine n'entraine pas de soulagement car les activités concernées sont en sursis. Depuis 1962, la crise des producteurs de fonte latente depuis des mois a fragilisé une usine qu'un incident technique va amener au bord du gouffre ; puis sa situation s'améliorant, elle ne trouve pas pour autant une rémission complète dans les mois qui suivent. L'entreprise s'est repliée sur la seule usine de Chasse où elle tente par tous les moyens de rétablir son équilibre financier, vendant jusqu'à ses propres terrains industriels au laboratoire Delalande3. Elle continue à miser sur le progrès technique en investissant dans la fonderie, d'ailleurs cette dernière atteint en 1963 un record de 1 Ce mouvement de masse est issu de la Résistance. Parmi ses dirigeantes figurent Danielle Casanova, Maria Rabaté, Claudine Michaud. De nombreuses publications en sont issues : voir pour la période de la guerre http://gallica.bnf.fr/html/und/presse-et-revues/union-des-femmes-francaises-uff, [dernière consultation le 4 janvier 2018]. Sandra Fayolle fait une présentation critique de cette organisation, dont les présupposés reposent sur une définition essentialiste de la féminité, induisant la mobilisation des femmes un nombre de thèmes limités et considérés comme féministes : FAYOLLE Sandra, « L'Union des femmes françaises et les sentiments supposés féminins », dans TRAÏNI Christophe, Émotions Mobilisation !, Presses de Sciences Po, « Académique », 2009, p. 169-192. La mobilisation des représentantes locales de l'Union prouve cependant qu'elle peut néanmoins aussi coller à l'actualité et au terrain. 2 ADI, 56J13, conseil d'administration du 15 mai 1963. 3 ADI, 56J13, conseil d'administration du 17 septembre 1963. L'accord de vente est signé le 5 août. 365 production1. Les progrès réalisés ne sont pas la cause des baisses d'effectifs qui sont surtout liés à la conjoncture. Le conseil d'administration renouvelé décide pendant un temps d'arrêter les productions de fontes, ce qui provoque plusieurs vagues de départs que l'on tente de gérer, de même qu'une forte contestation sociale née de ces projets. Cette dernière porte donc logiquement davantage sur l'emploi que sur la lutte contre le progrès technique2. Elle prend des formes nouvelles qui en font un « évènement d'usine », dans le contexte de la grève des mineurs auquel elle est d'ailleurs directement liée par la fermeture des mines de la Têt. La CECA pourtant prévenue n'agit pas : après une entrevue avec Michel Bokanowski3 – président du Conseil spécial des ministres de la CECA –, Antoine de Tarlé parle d'une « indifférence totale à la situation actuelle des fontes »4. Le gouvernement n'apporte qu'une aide très limitée, refusant même la remise gracieuse d'un reliquat d'imposition5. On ne souhaite visiblement pas le maintien d'une activité de production de fontes pures à Chasse ; l'heure est à la sidérurgie sur le littoral, aux aciéries à l'oxygène et aux grosses usines intégrées6. II) 1964-1965 : le sursis Durant les deux années qui suivent la crise de 1963, l'usine de Chasse poursuit ses activités sur un rythme assez comparable : ses productions de fontes tombées à 102 000 tonnes sur l'exercice 1962-1963 augmentent jusqu'à 115 000 tonnes les deux exercices suivants, pour retomber à 103 000 tonnes lors de son dernier exercice plein de 1965-19667. Les productions de la cimenterie sont moins présentes dans les sources, mais elles sont a priori à un niveau stable puisqu'elles dépendent des productions du 1 ADI, 56J13, conseil d'administration du 24 octobre 1963. Stéphane Sirot constate plus généralement ce fait pour le dernier quart du XXe siècle, dans SIROT Stéphane, La grève en France , op. cit., p. 79. 3 CVCE, https://www.cvce.eu/content/publication/2000/3/22/2cd683ce-e3d1-4c6f-b8f65f773f01b4f5/publishable_fr.pdf, [dernière consultation le 21 août 2017]. 4 AN, 2012 026 819, compte-rendu du conseil d'administration du 27 février 1963. 5 ADI, 56J13, conseil d'administration du 10 juillet 1963 ; le ministère des finances expliquant son refus parce que la situation de l'usine n'était pas assez favorable pour qu'on lui fournisse de l'aide. 6 Ceci est répété par Albert Denis lors de la réunion du 3 mai 1963 : AMC, 1H3, compte-rendu manuscrit pour le comité de défense. 7 Pour les productions de l'usine à cette période, voir annexe 4. 2 366 haut-fourneau. Seule la fonderie voit ses productions progresser jusqu'à l'exercice 1963-1964, puis après un plateau, elles redescendent. La politique de modernisation de l'usine s'achève par manque de moyen. On crée néanmoins un nouveau hall de fonderie en 1963 dans lequel on peut fabriquer de grandes pièces1. Il s'agit de répondre à la commande l'entreprise Neyrpic qui demande la fabrication de cylindres d'imprimerie. La fonderie est équipée de nouveaux outillages dimensionnés pour ces très grosses pièces : pont roulant, étuves, tour servant à l'usinage. À cela s'ajoute une installation de dessablage haute pression pour nettoyer les pièces après leur démoulage. Un dernier investissement concerne la même année l'atelier d'agglomération où l'une des cinq presses est changée2. Mais après 1963, plus aucun investissement n'est réalisé. L'année 1964 s'est pourtant déroulée sous de meilleurs auspices. Le compte d'exploitation dégage un bénéfice suffisant pour assumer les amortissements3. Plusieurs raisons à cela : tout d'abord la Haute Autorité se décide enfin à agir et elle fixe un droit d'entrée sur le marché européen qui stabilise les prix à partir du 15 février4. Toutes les activités de l'usine voient leur chiffre d'affaire augmenter. Différentes mesures financières permettent d'assainir les comptes : on récupère de l'argent sur la liquidation des hauts-fourneaux de Givors et des mines de la Têt, la dette vis-à-vis de la CECA est consolidée5. On poursuit la vente de terrains ; celui du laboratoire Delalande est vendu le 14 février6. La situation s'inverse en 1965 et les comptes d'exploitation sont en forte baisse avant amortissements, principalement en raison de la hausse des matières premières et des frais en personnels7. L'usine est toujours à la merci d'un incident technique qui le placerait à nouveau en situation délicate. Par conséquent, les HFC doivent gérer les recrutements de leur personnel dans un contexte où leurs marges de manoeuvres sont faibles. Il faut également recruter alors que l'entreprise en difficulté parait peu attractive. Les pratiques d'entreprises, sous 1 ADI, 56J23, rapport du CA à l'AG ordinaire du 12 décembre 1963. Article du Dauphiné Libéré du 24 mai 1963, « Avec la mise en service d'un nouveau de fabrication la fonderie des HFC renforce sa capacité de production en très grosses pièces moulées et usinées », Gaston Riffard. 2 « Les Hauts-Fourneaux de Chasse continuent. L'atelier d'agglomération connait une grande activité, Dauphiné Libéré, sans auteur, transmis par Éric Combaluzier. 3 ADI, 56J13, conseil d'administration du 2 octobre 1964. 4 ADI, 56J24, rapport du CA à l'AG ordinaire du 11 décembre 1964. 5 ADI, 56J13, conseil d'administration du 2 octobre 1964. 6 ADI, 56J13, conseil d'administration du 22 avril 1964 pour la vente à Delalande et du 2 octobre 1964 pour les autres terrains. 7 ADI, 56J13, conseil d'administration du 30 septembre 1965. 367 contraintes budgétaires elles aussi, doivent être renouvelées. Fin 1965, après ces deux années de stabilisation, un plan est préparé. 1) L'évolution des recrutements et des conditions de travail Les effectifs du personnel évoluent relativement peu durant la stabilisation effectuée en 1964-1965 : le rapport commandé à la société d'expertise FIDEO indique 700 personnes au 31 janvier 19661. Ils étaient 694 en septembre 1963, au creux de la crise2. La stabilisation des effectifs du personnel est obtenue en 1964 grâce à une petite reprise des recrutements compensant les départs, ce qui est poursuivi en 1965. Mais si les effectifs de travailleurs français se tassent sur la période, ils progressent pour les étrangers3. Les travailleurs étrangers jouent donc un rôle important dans le recrutement de nouveaux personnels, notamment au moment du timide redémarrage de l'année 1964. Cette perspective a longtemps été ignorée des historiens. Par exemple, Catherine Omnès et Michel Freyssenet évoquent la main d'oeuvre étrangère comme une simple variable d'ajustement, vouée à disparaître, et qui devra s'adapter lors de la crise frappant la sidérurgie française à partir de 19614. Mais des travaux plus récents indiquent également l'existence d'un « modèle d'utilisation des immigrés dans les industries en difficulté, avant leur fermeture finale, comme ce fut le cas à Flers ou à Blobec ».5 On retrouve cette situation également dans le Nord-Pas-de-Calais à Arenberg 6 . De fait à Chasse, après les départs nombreux de travailleurs français en 1963, on recrute tout d'abord des travailleurs algériens en les utilisant dans différentes activités 1 ADI, 56J4, étude de rentabilité par la société fiduciaire d'expertise et d'organisation (Fideo) du 12 mars 1966. 2 ADI, 56J13, conseil d'administration du 17 septembre 1963. 3 Voir annexe 1. 4 FREYSSENET Michel et de OMNES Catherine, La crise de la sidérurgie française, op. cit., p.65. 5 BARZMAN John, « La Normandie immigrée. Des Anglais aux « gens du Fleuve », Homme et migration n°1273, mai-juin 2008, p.96-108, p.103. 6 NOIRIEL Gérard, Enquête histoire et mémoires des immigrations en régions, 2005-2007, Note de synthèse sur les rapports finaux rendus par les équipes en charge des enquêtes sur les régions : Alsace Bretagne Lorraine Midi-Pyrénées Nord-Pas-de-Calais Normandie Pays-de-Loire Picardie Lots non rendus ou refusés par la coordination : Aquitaine, Poitou-Charente, avec la coordination scientifique de : BRUNO Anne-Sophie, PITTI Laure, ZALC Claire, NOIRIEL Gérard, RYGIEL Philippe, SPIRE Alexis, SCIOLDO ZURCHER Yann, 2007, 36 p., p. 29, http://barthes.ens.fr/clio/acsehmr/synthes1.pdf., [dernière consultation le 23 octobre 2012]. 368 pour la relance de l'usine avant la fin de cette année. Puis en 1964, les effectifs de ces derniers étant stabilisés, les autres nationalités prennent le relais ; en particulier les Portugais1 : ils occupent alors les postes laissés par les Français. Enfin, le départ des travailleurs algériens en 1966 permet d'anticiper la fermeture de l'usine dans une proportion supérieure à celle des Italiens et Espagnols. Ainsi, les productions sont poursuivies dans tous les ateliers jusqu'à la date prévue, le 31 juillet 1966 : ils permettent d'ajuster les effectifs mais aussi de les gérer pour produire. En revanche, une partie des représentants des courants migratoires anciens – ceux des Européens de l'Est et des Arméniens – voient leurs effectifs continuer à décroître lentement. En se substituant aux travailleurs français pendant la période d'après la crise de 1963, les étrangers ont facilité leurs départs vers d'autres activités et ont permis de faire tourner l'usine. La flexibilité des Algériens étant plus grande, ils sont à la fois les premiers à revenir dans l'usine et à la quitter au moment de la fermeture. Les activités que les étrangers occupent sont les mêmes que lors des périodes précédentes : ils sont toujours très présents dans les activités de production et un peu moins dans les activités périproductives2. En revanche, on ne les retrouve pas en de mêmes proportions dans les ateliers : par exemple, ils sont toujours peu nombreux ou absents des activités de bureau et du laboratoire. Ils sont également minoritaires à l'entretien et à la centrale, où leur nombre augmente tout de même en valeur absolue et en proportion. Néanmoins, ils sont comme auparavant majoritaires au haut-fourneau et à la maçonnerie, et aussi désormais à la fonderie, à l'agglomération, dans les activités de manutention ; ils représentent même la moitié de l'effectif à la cimenterie. Pendant ces deux années de sursis, ils progressent donc le plus dans les ateliers qui ont été touchés par la modernisation de l'usine : à la cimenterie avec son nouveau séchoir, à l'agglomération avec sa nouvelle presse, à la fonderie qui a un nouveau hall, etc. On a pu poursuivre grâce à eux les efforts de productivité, preuve qu'ils jouent un rôle nécessaire dans la « rationalisation de l'appareil productif »3. Mais ils ont tout autant récupéré les postes libérés par les travailleurs français pendant les restructurations, ce qui leur a permis d'avoir accès à davantage d'ateliers et d'activités. 1 Il y a sept recrutements en 1964 et onze en 1965 : AMC, cahier du personnel étranger n° 16. Cf. tableau n° 22. Il permet de comparer la répartition du personnel pendant la phase d'expansion et après les restructurations, à l'issue de la phase de stabilisation. 3 Rôle indiqué par Laure Pitti qui critique l'idée que les étrangers sont un frein à la rationalisation, dans PITTI Laure, « La main-d'oeuvre algérienne dans l'industrie automobile», op. cit., p. 54. 2 369 Cependant, si certains ont pu ainsi améliorer leur position dans l'usine, c'est en revanche plus contrasté au niveau des classifications. Tableau 22 : Répartition des travailleurs des Hauts-Fourneaux de Chasse en 1960 et 1966 en fonction des postes occupés et des nationalités 1 Ateliers Nationalité s d'origine Cadres 196 0 196 6 Agents de maîtrise 196 196 0 6 Techniciens Ouvriers Employés 196 0 196 6 196 0 196 6 196 0 196 6 Hautsfourneaux Français Étrangers TOTAL 1 0 1 3 0 3 7 4 11 3 3 6 0 0 0 0 0 0 30 102 132 19 59 78 0 0 0 0 0 0 Fonderie Français Étrangers TOTAL 3 0 3 5 0 5 13 3 16 12 2 14 1 1 2 1 0 1 90 97 187 91 136 227 7 0 7 3 0 3 Cimenterie Français Étrangers TOTAL 1 0 1 2 0 2 5 0 5 3 1 4 0 0 0 0 0 0 23 17 40 15 11 26 0 0 0 1 0 1 Agglomératio n Français Étrangers TOTAL 0 0 0 0 0 0 1 0 1 1 0 1 0 0 0 0 0 0 11 5 16 11 36 47 0 0 0 0 0 0 Laboratoire Français TOTAL 2 2 2 2 0 0 0 0 0 0 0 0 12 12 9 9 0 0 0 0 Français Étrangers TOTAL 1 0 1 4 0 4 7 0 7 12 0 12 3 0 3 4 0 4 50 10 60 57 15 72 0 0 0 0 0 0 Maçonnerie Français Étrangers TOTAL 0 0 0 0 0 0 2 2 4 1 0 1 0 0 0 0 0 0 19 22 41 5 7 12 1 0 1 0 0 0 Centrale Français Étrangers TOTAL 1 0 1 1 0 1 7 0 7 6 0 6 0 0 0 0 0 0 26 4 30 20 8 28 0 0 0 0 0 0 Manutention, chantier à ferrailles, parc à fonte, garage Bureaux de direction Français Étrangers TOTAL 0 0 0 1 0 1 9 1 10 8 2 10 0 0 0 0 0 0 52 55 107 29 37 66 0 0 0 0 0 0 Français Étrangers TOTAL Français Étrangers TOTAL 3 0 3 0 0 0 11 0 11 0 0 0 3 0 3 1 0 1 2 0 2 2 0 2 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 0 1 0 0 0 1 0 1 45 1 46 23 11 34 39 2 41 29 6 35 Français Étrangers 12 0 29 0 55 10 50 8 4 1 5 0 314 312 257 309 76 12 72 8 Matériel entretien et Divers Total ateliers des 1 AMC, fichier mécanographique du personnel et listes des élections prud'homales de 1960 ; ADI, 56J65, réponses au questionnaire annuel du Groupement de l'Industrie Sidérurgique. Les effectifs sont donnés pour janvier 1960 et janvier 1966 : les effectifs sont alors respectivement de 796 et 738 individus pour la totalité de l'usine. 370 D'une manière générale, les travailleurs étrangers sont absents de la catégorie cadre, ils disparaissent de celle des techniciens, ils sont moins nombreux en proportion et valeur absolue parmi les employés et les agents de maîtrise : par conséquent ils ne sont en progrès que parmi les ouvriers1. Les autres catégories de personnels sont davantage représentées par des travailleurs français plus protégés lors des restructurations de l'usine. L'abaissement dans la classification parait alors être général pour les étrangers. Mais en observant chaque catégorie d'ouvrier, on voit qu'en 1966 il y a désormais treize OP parmi les travailleurs étrangers : un Espagnol, six Italiens, un Turc et cinq Algériens. Si on prend les Algériens, en 1960 il n'y avait que trois OP parmi eux et vingt-huit manoeuvres. Or il n'y a plus que deux manoeuvres en 1966, mais quatre-vingt-dix-neuf OS. Ils sont donc désormais machinistes, appareilleurs, ou encore pontonniers ; des postes moins exposés physiquement que ceux de manoeuvre qu'ils occupaient auparavant et surtout mieux payés. Ils ont donc amélioré leur position dans la classification tout à la fois grâce à la modernisation qui a créé de nouveaux postes – principalement avant que la crise ne débute – puis parce que ces postes ont été délaissés par les travailleurs français à partir de la crise. Lors des restructurations, les personnels ont donc à des degrés divers maintenu, voire amélioré, leur position dans l'usine tant au niveau des postes, des activités, qu'au niveau de la classification. On pourrait penser alors que les conditions de travail au niveau individuel ont pu s'améliorer : la diminution du nombre de manoeuvres au profit d'OS va dans ce sens (en particulier à la manutention désormais largement mécanisée). Mais à l'échelle de l'ensemble du personnel les chiffres sur les accidents et les maladies professionnelles ne sont guère brillants : des postes d'ouvriers à ceux de la maîtrise, toutes les activités sont plus ou moins exposées. Le cahier de l'année 1965 où sont reportés les accidents de travail2 en témoigne : il y a vingt travailleurs au mois de janvier, seize en février, treize au mois de mars, etc. La plupart reprennent leur travail au bout de quelques jours ou de quelques semaines, mais pour certains il faut plusieurs mois, tel Mohamed Guedjoudj, chargeur au haut-fourneau : accidenté le 15 mai 1965, il ne reprend que 10 janvier 1966, une blessure qui lui vaut vraisemblablement d'être 1 L'augmentation du nombre d'ouvriers parmi les migrants 1962 et 1975 est constatée par Xavier Vigna dans VIGNA Xavier, Histoire des ouvriers en France au XXe siècle , op. cit., p. 194. Mais en plus du développement industriel, elle peut s'expliquer partiellement aussi par leur rôle dans les restructurations. 2 AMC, 1H3, mutualité. 371 reconnu comme mutilé du travail à 10 %1. D'autres ont des blessures qui les contraignent à nouveau à s'arrêter, tel Louis Cognat, cariste à la fonderie, accidenté le 2 juillet 1963 et qui faisant une « rechute » le 16 novembre 1965 doit être arrêté jusqu'au 17 janvier 1966. Antoine de Tarlé juge comme « très sensible » l'augmentation des cotisations accidents de travail de l'exercice 1964-1965, ce qui a d'ailleurs contribué à accroître les frais de personnels2. En effet en 1965, sur seulement la moitié de cet exercice, il est possible de savoir qu'au total 176 accidents se sont produits3. Les arrêts pour longue maladie sont en nombre plus faible, mais c'est ce n'est en réalité qu'une apparence. Il y a en effet quarante arrêts longue maladie en 1963, soit une augmentation supplémentaire de dix individus par rapport à l'année précédente. Or ils sont seulement treize en 1958, et ils ne sont à nouveau plus que quinze en 1964 et autant en 1965. Mais une telle baisse des arrêts longue maladie en 1963 s'explique par onze reprises de travail, trois mises en invalidité, un départ en retraite et deux décès de personnel, mais surtout par dix-sept personnels « réglés ». Parmi eux, quatre quittent « sur leur demande » l'entreprise ; mais on se demande bien comment ils ont pu retrouver du travail alors qu'ils sortent de maladie ou sont encore malades – l'un d'eux décède l'année suivante – et qu'ils sont âgés : leur départ a donc vraisemblablement été accompagné par une aide. Les treize autres font partie des licenciements de juin 1963 : les dirigeants ont pu faire ce choix afin de faire mieux accepter le plan de licenciement, de la même façon qu'ils avaient ciblé les postes occupés par des femmes. La baisse du nombre de personnes en arrêt longue maladie en 1963 est donc artificielle et largement due aux départs de personnels. En se maintenant ensuite à un niveau supérieur à l'année 1958 avec moins d'effectifs, on peut même dire que le nombre d'arrêts est élevé : il est la conséquence de conditions de travail toujours dures et de l'usure des années précédentes. Ainsi en 1964, sur les seize malades de longue durée de l'année, cinq sont arrêtés les douze mois et deux en cours d'année mais jusqu'à sa fin : ces profils témoignent de l'affaiblissement de travailleurs dans l'incapacité de reprendre le travail4. Parmi les cinq premiers, quatre ont plus de cinquante ans, la dernière – une veuve de travailleur âgée de quarante-six ans – constitue une exception. Marius Iori (né en 1916) travaille aux HFC depuis 1951, mais il était auparavant 1 Source pour Mohamed Guedjoudj et Louis Cognat : en plus du cahier des accidents de travail, AMC, fichier mécanographique du personnel. L'absence de date sur la fiche de Mohamed Guedjoudj interdit d'être plus précis. 2 ADI, 56J13, conseil d'administration du 30 septembre 1965. 3 AMC, 1H3, mutualité. 4 AMC, 1H3, mutualité ; fichier mécanographique. 372 mineur. Joaquim Goncalvès (né en 1900) est maçon aux HFC depuis 1925, Charles Blanc (né en 1903) est plaquiste depuis 1930 et Fernand Cataly (né en 1906) est ouvrier à l'usinage depuis 1934. Ce dernier décède d'ailleurs le 1 er septembre 1964, après vingtquatre mois d'arrêt longue maladie. Les deux derniers ont des profils similaires : ce sont Colagero Gamino (né en 1914) et Louis Pruteau (né en 1909), tous deux anciens ouvriers de la fonderie. Gamino est reconnu travailleur handicapé en janvier 1966 : lorsqu'il reprend le travail en septembre 1965 il occupe le poste protégé de gardebarrière. Quant à Louis, il décède le 8 septembre 1965 à l'âge de cinquante-six ans. D'ailleurs la mortalité de personnels en activité reste élevée : de 1963 à juillet 1966 il y a sept morts1. Si un décès concerne un soixantenaire, quatre autres sont des cinquantenaires. Enfin parmi les deux derniers, Eugène Jannoray était accidenté du travail, mutilé à 45 % ; cet ancien ouvrier travaillant au garage avait seulement 44 ans. Quant à Paul Jenin, il décède à seulement 35 ans. À ces décès s'ajoutent enfin celui de Claude Ville, fondeur au haut-fourneau et victime d'un accident de travail le 15 juillet 1964. On peut donc dire que jusqu'à la fin de l'usine de Chasse, les conditions de travail ont été éprouvantes. 2) Des pratiques d'entreprise renouvelées Les pratiques d'entreprises ont été comme on l'a vu largement renouvelées pendant les années 1950 et jusqu'en 1962. L'année 1963 accélère le processus de démantèlement de ce qui reste de politiques paternalistes dans l'usine. Au niveau des modes de recrutement et d'attribution des postes, on assiste à la fin des pratiques assignant aux femmes certaines activités, dans certains postes et ateliers. Elles ne représentent qu'un peu plus de 10 % des salariés et sont surtout présentes dans les bureaux. Les quelques ouvrières de la fonderie ont comme collègue des hommes qui occupent désormais des postes de pontonnier. Les licenciements ont fait tomber également le tabou qui concernait les veuves de travailleurs. D'une manière générale les politiques de recrutement fonctionnant sur des logiques familiales sont également abandonnées, sauf en ce qui concerne les étrangers. Par exemple, sur les dix Italiens 1 AMC, fichier mécanographique. Il s'agit comme pour les périodes précédentes de décès dont on ne connait pas l'origine. Si tous les éléments convergent pour souligner la difficulté des conditions de travail, il est donc impossible d'en déterminer la part dans ces décès. 373 embauchés aux HFC en 1964 1, sept viennent de villages qui sont d'habituels foyers de recrutement : Ravanusa, Santopadre, San Cataldo, Serra di falco. Parmi eux deux sont un père qui migre avec son fils et deux autres rejoignent des travailleurs de leur famille déjà embauchés par les HFC : l'un est un père, l'autre un frère. En revanche, les politiques récentes de recrutement d'apprentis sont poursuivies. En 1965, on compte seize apprentis dans l'usine pour 701 travailleurs2. Ils viennent renforcer les 144 OP de l'entreprise. Payés au prorata de leur ancienneté, ils doivent un horaire de 44 heures de travail par semaine, heures de cours comprises. Les politiques qui concernent l'encadrement du temps hors travail sont elles aussi renouvelées. Avec la baisse du budget du comité d'entreprise et la suppression du poste de Charles Mathé, les HFC diminuent encore les moyens qu'ils y consacrent. Le Cercle demeure cependant, mais avec moins de personnel et des activités plus réduites : bibliothèque, salles de repos et de jeu. Après le départ de Charles Mathé, Claude Butty qui avait en charge la bibliothèque se retrouve gérant du Cercle. Cet ancien ajusteur P1 avait pu occuper ce poste depuis 1955, puis celui de gérant en 1963, mais il doit partir à la retraite en 1964. Il est alors remplacé par Charlotte Bonneton : elle a été ouvrière à la briqueterie de 1923 à 1927, puis bien des années après son départ, elle est embauchée spécifiquement pour ce poste de gérante. L'entreprise fournit des services lors du temps libres, voire offre du temps libre supplémentaire en accordant une quatrième semaine de congés payés, au lieu de l'encadrer et d'accorder des financements importants comme auparavant. Toutes les activités sportives qui sont à la charge des HFC vont s'interrompre en 19653 en attendant qu'elles soient reprises par la mairie4. Le terrain de sport de l'entreprise a d'ailleurs été vendu avec les terrains industriels5. L'urbanisme a été lui aussi progressivement pris en charge par la mairie. Cela n'est pas nouveau, le premier projet d'urbanisme de l'après-guerre date de 1948, puis les suivants de 1953 et 19596. Ils prévoient la réalisation d'adduction d'eau, la construction d'égouts et de voiries, l'électrification ; ils se substituent donc progressivement aux HFC jusque dans les quartiers où est logé le personnel. Vers 1963, 1 AMC, fichier mécanographique et cahier du personnel étranger n° 16. AMC, fichier mécanographique du personnel, contrat d'apprentissage d'Enrico Gasbarre. 3 BELON Pascal, Carnets de Chasse de A à Z, op. cit., p. 38 ; lettre de Michallet pour le GS de Chassesur-Rhône section basket du 10 septembre 1964, source Éric Combaluzier. 4 AMC, 1B3, délibérations du conseil municipal su 15 octobre 1965. 5 La vente a été prévue par la mairie qui n'a pas les moyens de construire immédiatement de nouvelles infrastructures sportives, AMC, 1B3, conseil municipal du 5 avril 1963. 6 1B3, délibérations du conseil municipal ; FOND Christine, Chasse-sur-Rhône au fil de l'eau, op. cit., p. 77 sqq. 2 374 la fourniture d'eau et d'électricité par l'usine n'a plus lieu d'être. C'est aussi à cette époque que certains salariés se rappellent des augmentations de loyers versés à l'entreprise, en réalité surtout parce que la gratuité de plusieurs logements est supprimée1. Les politiques de logements changent, cependant elles ne disparaissent pas : l'entreprise continue à utiliser son parc immobilier. D'ailleurs si elle vend des biens de cette nature, la plupart du temps il s'agit de terrains agricoles, constructibles ou industriels mais rarement de logements : elle en a toujours 426 en 19642. Ces derniers jouent même un rôle de premier plan dans les stratégies de recrutement de l'entreprise. Il lui faut en effet très rapidement des personnels supplémentaires à partir du milieu de l'année 1963 et alors que la décision de ne pas arrêter les productions de fontes va être prise. Il est vital pour elle de s'assurer de l'embauche de plusieurs dizaines de travailleurs nouveaux alors que la main d'oeuvre française continue à quitter l'usine. Or si on prend l'exemple des travailleurs algériens qui ont été présents dans l'usine en 1964, sur 142 individus, 108 sont logés par les HFC cette année-là, soit 76,1 %3. Mais si on prend les personnels recrutés pendant l'année, on est à 82,4 %. Le logement joue donc bien toujours un rôle important – non plus seulement pour stabiliser les personnels –, mais davantage pour pouvoir les attirer et recruter en période d'augmentation des besoins. 3) À la veille du Plan professionnel de 1966, de nouveaux projets de réorganisation En 1965, la situation des personnels et de l'usine est « stabilisée »4 – après les licenciements, départs volontaires et embauches, le turnover ralentit5 tandis que les conditions de travail changent peu –, mais la situation de l'entreprise se dégrade. Il est prévu que le tarif protecteur des fontes fixé par la Haute-autorité disparaisse au 31 1 2 Témoignage en particulier d'Andrée Jobert le 06/05/2016. ADI, 56J35, note manuscrite du 20 juillet de Charles Domeyne, chef du service logement. AMC, cahier du personnel étranger n° 16. 4 L'expression est même utilisée dès 1964 : AN, 2012 026 819, compte-rendu de l'entretien du 8 avril d'André Legendre avec Antoine de Tarlé. 5 Cf. annexe 1. 3 375 décembre 19651. Il n'intéresse certes que les fontes de moulage, mais « porte tout de même quelques fruits »2. Il faut donc profiter de ce répit momentané pour préparer l'avenir. Or Pierre Cholat décède le 31 mars 19653. Il n'assistait plus aux conseils d'administration bien qu'il ait été nommé président d'honneur de la Compagnie depuis décembre 19634. Sa famille est toujours présente au conseil des HFC par l'intermédiaire de son frère et de son gendre. C'est cependant son neveu, Georges de Benoist, qui prend davantage de responsabilités dans l'entreprise. Directeur général de l'entreprise depuis décembre 1960 et membre du comité de direction de l'entreprise avec voix délibérative depuis le mois de juin, il est resté jusqu'à présent dans l'ombre d'Antoine de Tarlé auquel on l'a « adjoint » – selon le terme employé – lors de sa nomination comme directeur général. Il a déjà pris part à des décisions importantes concernant la modernisation de la fonderie ou le choix du séchoir Polysius à la cimenterie, et il a ainsi démontré ses capacités par la performance des investissements réalisés 5. En 1964, un pas supplémentaire est franchi, puisqu'il représente les HFC lors de la réunion des producteurs de fonte à la Haute-autorité. C'est aussi lui qui se renseigne sur la cession du fonds de commerce du Boucau le 8 mars 1965 avec le représentant de la CAFL, car il souhaite préparer une éventuelle négociation entre Antoine de Tarlé et Henri Malcor 6. Enfin, le 7 décembre 1965, Antoine de Tarlé indique sa démission future dans un an : par conséquent on voit qu'il est en train de progressivement passer la main à Georges de Benoist. Pour cela, il faut que réussisse le plan de transformation de l'entreprise longuement préparé. Dès 1963, il part du constat que sur les dix dernières années à peine sept millions d'investissements ont été amortis, dont seulement trois sur les résultats d'exploitation et quatre sur des « ressources extérieures »7. Il faut donc arrêter l'activité production de fonte pure insuffisamment rentable, ce qui revient également à suivre les injonctions du ministère de l'industrie. On attend l'installation de nouvelles 1 Information donnée par Fritz Hellwig, membre de la Haute-Autorité, à la réunion des producteurs de fonte à Luxembourg du 25 juin 1964 et rapportée par Georges de Benoist au conseil d'administration du 26 juin 1964, AMC, 56J13. 2 Ibidem. 3 ADI, 56J13, conseil d'administration du 18 juin 1965. 4 ADI, 56J13, conseil d'administration du 12 décembre 1963. 5 Par exemple Henri Malcor qualifie de « vexant » – sous-entendu pour Marine et pour lui – la réussite de Chasse qui répond parfaitement en qualité à la commande Neyrpic, note manuscrite sur le compte-rendu de la réunion des administrateurs du 19 juin 1963, AN, 2012 026 819. 6 AN, 2012 026 819, rapport du 9 mars 1965. 7 AN, 2012 026 819, conseil des administrateurs du 27 février 1963. 376 activités dans la vallée du Rhône afin que les reclassements ne se fassent pas dans la douleur : on espère beaucoup de la raffinerie de Feyzin 1. On s'est précocement rapproché de Léon Aveline, président de la Société commerciale des fontes, avec qui on évalue les indemnités que les HFC toucheraient en cas d'arrêt 2. Pierre Cholat a fait adhérer les HFC à cette société le 14 décembre 1948, il a même participé à rédiger ses statuts : elle doit succéder sur un mode de gestion plus libéral au Comptoir des Produits Sidérurgiques chargé de contrôler le marché des produits sidérurgiques depuis 1940 3. Les relations avec Aveline sont donc anciennes. Antoine de Tarlé signe avec Georges de Benoist un protocole qui a un double effet : réglementer les marchés de fontes pures jusqu'au 31 décembre 1965 et s'engager à arrêter la production de fonte à Chasse en échange d'indemnités annuelles4. Les administrateurs en ont été informés et ont approuvé ce projet qui est tenu secret. Il ne s'agit cependant-là que la première moitié du plan. L'autre moitié concerne le dilemme auquel le président et son directeur sont confrontés : arrêter la production de fonte c'est risquer de laisser la fonderie isolée avec une espérance de vie aléatoire, mais il n'est pas non plus possible de continuer la production de fonte avec les hauts-fourneaux5. Il faut donc établir un plan de modernisation de la fonderie afin de consommer les 4 000 tonnes mensuelles produites transitoirement par le haut-fourneau n° 3. Ce dernier resterait quelque temps encore en activité ; mais comme le haut-fourneau a besoin de produire 10 000 tonnes par mois pour équilibrer ses coûts de fonctionnement, après la consommation de la fonderie, il resterait donc écouler 1 000 tonnes d'affinage – ce que le marché peut encore absorber – et 5 000 de moulage. Pour faire des économies, on coulerait certaines pièces en première fusion à partir de la fonte du haut-fourneau. On fait également des essais pour tenter d'abaisser les coûts de lit de fusion en tentant d'agglomérer des poussières de haut-fourneau avec des fines de minerai : le procédé est concluant à petite échelle, mais il faudrait pouvoir le développer et déposer des brevets6. Après la recherche sur les procédés d'injection de fuel et de charbon, l'entreprise continue donc à s'appuyer sur 1 Ibidem. 2012 026 819, conseil des administrateurs du 29 novembre 1962. 3 ADI, 56J58, lettres de Pierre Cholat du 19 novembre 1948 et 8 janvier 1951, projet du 6 août 1948. 4 ADI, 56J58, lettre d'Antoine de Tarlé du 29 juin 1965 et de Georges de Benoist du 27 juillet 1965. 5 AN, 2012 26 819, rapport du conseil d'administration du 3 février 1965, cette partie du projet est expliquée dans la discussion qui suit le conseil entre Antoine de Tarlé et André Legendre. 6 ADI, 56J13, conseil d'administration du 30 septembre 1965 ; AN, 2012 026 819, compte-rendu du conseil du 30 septembre 1965. 2 377 l'innovation pour assurer son développement. Toutefois, comme c'est loin d'être suffisant pour envisager son programme – c'est-à-dire moderniser la fonderie et maintenir le haut-fourneau n° 3 en activité –, Antoine de Tarlé a pris contact avec Charles Dolveck, le président directeur général des Hauts-fourneaux réunis de Saulnes et d'Uckange1. Il cherche en effet à fusionner avec Saulnes et Uckange pour qu'une holding gère les actifs sidérurgiques, la fonderie continuant à gérer pour elle-même une partie des actifs antérieurs appartenant aux HFC2. André Legendre mis au courant de la mise en route de ce projet l'appui et les chefs du service de Marine suivent le dossier3. L'enjeu est cependant de récupérer suffisamment d'actions pour pouvoir réaliser la fusion. Or le Zaccar encore propriétaire de 25 % des 64 000 actions de Chasse au 30 mai 1964 en a ensuite vendu 15 751 à Jacques Diserens le président des Hautsfourneaux de Givors, ce qui en raison d'acquisitions antérieures lui permet de détenir environ 17 350 actions4. Ce dernier a néanmoins des démêlés avec la justice française et la justice suisse pour plusieurs affaires5 : il faudrait donc pouvoir profiter de la situation pour racheter certaines de ses actions. Les représentants du comité d'entreprise sont informés des projets lors de la réunion extraordinaire du comité d'entreprise du 6 décembre 1965, à la veille de les présenter en conseil d'administration et quatorze jours avant de le faire en assemblée générale6. Après un exposé sur l'historique de la situation, Antoine de Tarlé insiste sur le fait qu'il n'y aura pas de licenciements. Puis il conclut sur la nécessité de la fusion afin de sauver l'usine. Plusieurs représentants l'interrogent sur la viabilité de la fonderie et sur la nécessité de la séparer du reste des activités sidérurgiques, de Tarlé leur répond 1 AN, 2012 026 819, conseil d'administration du 3 février 1965, information donnée lors de la discussion qui suit le conseil entre Antoine de Tarlé et André Legendre. 2 ADI, 56J13, conseil d'administration du 7 décembre 1965. 3 AN, 2012 026 821, correspondance Marine. 4 AN, 2012 026 821, lettre d'Antoine de Tarlé à Charles Dolveck du 22 mars 1965. 5 Dans AN, 2012 026 821, visite d'Antoine de Tarlé à André Legendre du 30 mars 1965 : Jacques Diserens est interrogé pour une infraction fiscale suite à une « exportation occulte de Thorium » par la justice lyonnaise, il a des dettes vis-à-vis des Hauts-fourneaux de Givors dont il est le président, ainsi que vis-à-vis de la société Distinvest. Dans AN, 2012 026 824, note du 7 mars 1964, Jacques Diserens serait un « homme de paille » et il est « surveillé par la sûreté nationale » ; dans la même source complétée par le compte-rendu de l'Assemblée générale des Haut-fourneaux de Givors du 31 octobre 1966, on apprend qu'il fait l'objet d'une commission rogatoire internationale pour la mise en faillite de la Société de Distribution Automatique. Jacques Diserens sera finalement contraint de céder la fonderie de Givors aux fonderies Roux de Lyon et La Fournaise de Pésenas, le reste des actifs étant liquidés. 6 AMC, 1H3, réunion du comité d'entreprise, compte-rendu dactylographié de la réunion extraordinaire du 6 décembre 1965 ; ADI, 56J13, conseil d'administration du 7 décembre 1962 ; ADI, 56J27, AG ordinaire du 20 décembre 1965. 378 en indiquant que Saulnes et Uckange n'est pas intéressé par celle-ci ; alors qu'en réalité il s'agit surtout pour les HFC de se replier sur une activité plus petite en cédant les autres actifs qui devraient à terme disparaitre : cette partie des projets est donc cachée aux représentants. D'ailleurs Raymond Roux intervenant pour la CGT oblige son président à reconnaitre que des discussions hors CA ont été tenues et que les représentants ouvriers de cette institution n'en ont pas été informés. De Tarlé se retranche derrière la nécessité de mener secrètement les négociations. Maurice Granjean, contremaître au haut-fourneau apporte son soutien au projet, ce qui laisse le temps à Raymond Roux de préparer des arguments supplémentaires afin d'apporter la contradiction : comment obtenir des prix de revient plus bas sans concentration de personnels et diminution de l'horaire de travail qui entraine des baisses de salaire ? Antoine de Tarlé répond en essayant de calmer les inquiétudes, mais le débat prend un tour politique où sont posés les thèmes de la CGT : droit au travail et nationalisation de la sidérurgie1. Les éléments d'un ultime « évènement d'entreprise » sont donc en place. III) La lutte finale : premier semestre 1966 La réunion avec les actionnaires se déroule très mal pour Antoine de Tarlé, comme il pouvait le craindre ; mais ce n'est pas faute d'avoir essayé de mettre toutes les chances de son côté. Il n'a d'autre choix que d'obtenir des actionnaires le vote de son programme afin de poursuivre le rapprochement avec Saulnes et Uckange. Pour cela, il contacte les conseils juridiques de Marine et de Schneider afin de préparer les stratégies de ripostes contre des adversaires lors de l'AG2. Antoine de Tarlé sait qu'il va y avoir des incidents de séances, il en est prévenu par les différents courriers qui lui ont été transmis indiquant que des actionnaires tentent de rassembler des mécontents autour d'eux3. 1 Cf. annexe 9. AN, 2012 026 821, réponses de Roquefeuil pour Schneider et Cie pour Pierre Doulcet et d'Hubert pour les Aciéries de la Marine. 3 AN, 2012 026 819, diverses lettres de Jean-Claude Barret envoyées à des actionnaires dont l'une à Charles Domeyne, en ignorant vraisemblablement que ce dernier est chef du personnel aux HFC. 2 379 Il n'a cependant pas prévu d'être largement mis en minorité lors du vote des résolutions et contraint à démissionner ainsi que tout le conseil 1. De nouveaux dirigeants prennent le pouvoir : il s'agit de Marcel Diserens, industriel à Lyon ; il est le cousin germain de Jacques. La femme de ce dernier – Elfriede Diserens – est également présente comme représentante et administratrice de la société Dismob. Se sont alliés à eux Jean-Claude Barret qui représente la charge Girardet de Lyon et son père Michel Barret, Pierre Grandjean – administrateur de la régie Renault en Suisse et directeur des services extérieurs de l'Union des banques Suisses –, Félix Rista2 – Directeur général des Établissement Réno, filiale de Continental Or Corporation. C'est cet attelage d'administrateurs d'entreprises françaises ou étrangères, mais issus de milieu plus financier qu'industriel qui s'apprête à reprendre en main une entreprise entrée dans une passe difficile. Le contexte social est lui aussi tendu : la sidérurgie est à la veille de changements importants, avec des fermetures de sites et/ou des suppressions d'emplois. Par exemple, une entreprise comme les forges du Boucau est arrêtée en 1965 : sa fermeture échelonnée s'est étendue sur plusieurs années et la plupart de ses personnels ont été reclassés3. Mais les décisions sont souvent plus brutales : dans le bassin auquel appartient Chasse, c'est l'entreprise Fives-Lille à Givors qui est menacée4. Dans la Loire, des débrayages divers et des journées de grèves ont lieu pendant l'hiver et le printemps 1966 dans les usines de la CAFL à Saint-Chamond et au Marais à SaintÉtienne : il faut améliorer les résultats, ce qui demande des efforts importants aux personnels et des suppressions de postes5. Ces politiques menées par les entreprises sidérurgiques ont précédé le plan de modernisation de 19666. Or si certains secteurs comme le textile sont en déclin, les industries françaises sont elles aussi dans une phase de concentration7. 1 AN, 2012 026 821, sténotype de l'assemblée générale du 20 décembre 1965 ; ADI, 56J27, assemblée générale ordinaire du 20 décembre 1965. 2 Décédé en 2010, il a sa fiche dans le Who's Who : https://www.whoswho.fr/decede/biographie-felixrista_9954, [dernière consultation le 4 mai 2017]. 3 TAILLEFER François, « La reconversion des forges du Boucau », Revue géographique des Pyrénées et du Sud-Ouest, tome 37, fascicule 4, 1966, p. 425-427. 4 « Les syndicats de Givors, Grigny et Chasse : " Il est possible par l'action, d'empêcher les licenciements et les fermetures d'usine " », Le Progrès n° 36 689 du 19 janvier 1966, p. 5. 5 ADL, 211J4, en particulier la note d'Henri Malcor du 14 février et la lettre 6 avril 1966. 6 FREYSSENET Michel, La sidérurgie française 1945-1979, op. cit., p. 85. 7 WORONOFF Denis, Histoire de l'industrie en France, op.cit., p. 573 sqq. 380 La crise sociale couvant aux HFC – le 24 novembre 1965 le comité d'entreprise demande encore des augmentations de salaires, appointements et primes1 – ainsi que la déstabilisation du conseil d'administration de l'entreprise préparent plusieurs mois de luttes, dans un contexte social également dégradé. Les salariés vont pouvoir remobiliser ce qu'ils ont appris pendant les luttes antérieures. Leur défaite va être suivie par le licenciement de la plus grande partie d'entre eux. 1) Six mois de luttes sociales À l'issue de l'assemblée générale, un conseil d'administration nomme Marcel Diserens président de la Compagnie des Hauts-Fourneaux de Chasse2. Le lendemain, un second conseil d'administration lui donne les pleins pouvoirs et supprime le poste de directeur général attribué à Georges de Benoist qui n'est plus que directeur de l'usine 3. On s'aperçoit alors très rapidement que les objectifs des nouveaux dirigeants des HFC ne peuvent pas être atteints et que de toute façon ils sont en réalité différents de ceux affichés publiquement4. En effet, dès le 28 décembre les HFC sont contraints de payer le coke au comptant, puis le 7 janvier les banques les lâchent, la plupart des autres fournisseurs de matière première souhaitant à leur tour être payés comptant5. Le président directeur général des Hauts-fourneaux réunis de Saulnes et d'Uckange, Charles Dolveck, est contacté par Marcel Diserens qui souhaite reprendre les discussions de rapprochement, mais ce dernier indique le refus de son conseil d'administration6. Toutes les portes se sont donc refermées rapidement devant le nouveau président et son équipe ; que ce soient les banques publiques, les Houillères, les autres entreprises. 1 AN, 2012 026 821, sténotype de l'assemblée générale du 20 décembre 1965 lors de laquelle la demande du CE est lue aux actionnaires. 2 ADI, 56J13, conseil d'administration du 20 décembre 1965. 3 Ibidem, conseil d'administration du 21 décembre 1965. 4 Cet écart entre discours et réalité des politiques menées par les dirigeants se retrouve dans bien d'autres entreprises sur le point de licencier, BOYER Tristan, « Déconstruction du projet de licenciement », La Revue de l'Ires, n° 47, 2005/1, p. 175-193. 5 ADI, 56J13, conseil d'administration du 29 janvier 1966. 6 Ibidem. Uckange va alors réussir en 1966 sa reconversion dans les fontes ductiles sous l'égide d'Usinor : FREYSSENET Michel, La sidérurgie française 1945-1979, op. cit., p. 64. 381 Marcel Diserens joue alors apparemment la transparence et avertit dès le début du processus le comité d'entreprise de la situation dès le 13 janvier 19661. La réaction des syndicats de l'usine puis de la municipalité ne se fait pas attendre. Tout d'abord les unions locales des syndicats CGT, CGT-FO, CFDT et SNI se réunissent le 17 janvier à la bourse du travail de Givors afin de rédiger un communiqué pour dénoncer les fermetures d'usine du bassin2. Puis les syndicats CGT et CGT-FO de l'usine organisent un débrayage d'une heure le 18 janvier afin d'informer les personnels3. Samedi 22 janvier, le conseil municipal de Chasse se réunit à son tour et prépare un communiqué dans lequel il annonce – notamment – l'interpellation de différents services préfectoraux du Rhône et de l'Isère, ainsi que l'appel aux élus locaux4. Le lundi 24 une table ronde initiée par Marcel Diserens réunit autour de lui des représentants syndicaux, de la mairie de Chasse et parlementaires locaux : il en profite alors pour interpeller les pouvoirs publics dans un communiqué où il se présente comme celui qui veut « continuer la production de fonte à Chasse »5. Pêle-mêle, il accuse le gouvernement de vouloir faire fermer les HFC, certains groupes sidérurgiques qui souhaitent « éliminer un concurrent viable », la technocratie planificatrice et l'ancienne direction dont les projets de rapprochement avec Saulnes et Uckange devaient conduire à la fermeture des hautsfourneaux. Par de telles manoeuvres, il obtient alors ce qu'il souhaite ; c'est-à-dire un desserrement de l'étreinte financière pour pouvoir permettre à l'entreprise de poursuivre ses activités quelques temps ; un temps suffisant à son entreprise d'enrichissement personnel : fin janvier, après avoir reçu individuellement des parlementaires, puis ces derniers accompagnés des représentants du personnel et du maire de Chasse, le gouvernement fait pression sur les banques pour qu'elles refinancent temporairement les opérations courantes des HFC 6. En exerçant un chantage à la fermeture brutale de l'entreprise, il sait que le gouvernement craignant la mobilisation sociale et politique va céder sur certains points. 1 Le Gueulard, bulletin de l'Union locale CGT du 14 janvier 1966. « Les syndicats de Givors, Grigny et Chasse : " Il est possible par l'action, d'empêcher les licenciements et les fermetures d'usines " », Le Progrès n° 36 689 du 19 janvier 1966, p. 5. 3 Tract CGT, CGT-FO du 17 janvier, Éric Combaluzier. 4 « La situation des Hauts-Fourneaux de Chasse. Le conseil muicipal : " rien n'a été négligé pour aboutir à une solution humaine et sociale " », Le Progrès du Dimanche n° 669 du 23 janvier 1966, p. 5. 5 « La situation des Hauts-Fourneaux de Chasse. La direction ; " Nous devons poursuivre une activité que nous jugeons bénéfique pour la région " », Le Progrès n° 36 693 du 24 janvier 1966, p. 7. 6 « La situation des Hauts-Fourneaux de Chasse. « La situation des Hauts-Fourneaux de Chasse. La direction ; " La paye de janvier sera assurée. Aujourd'hui à Paris se tiendra une table ronde au ministère de l'industrie " », Le Progrès n° 36 697 du 28 janvier 1966, p. 5. 2 382 Fin janvier, Marcel Diserens se fait à nouveau accorder les pleins pouvoirs par les actionnaires en prétextant de la situation particulièrement grave et urgente de l'entreprise1. Ses appointements mensuels passent à 6 000 francs et on lui octroie en plus 2 000 francs d'indemnité mensuelles forfaitaires pour frais de représentation et de voyages (Antoine de Tarlé avait touché 1 500 francs pour toute l'année 19652). Depuis le 20 décembre 1965 il est nommé administrateur des mines de la Têt, il le devient également le 29 janvier 1966 pour le Comptoir des chaux et ciments et la Société immobilière de Saint-Hilaire. Mais ce ne sont là que des éléments mineurs par rapport à la malversation principale qui consiste à signer dès le 9 janvier avec la société de son cousin Jacques Diserens un accord de commercialisation de fontes. Ce dernier gagne de l'argent de plusieurs manières : il se fait payer des commissions pour chaque vente et il ne rembourse pas les taxes de transport qu'il doit3. Il finit par ne plus payer ce qu'il a commandé, le montant total du préjudice pour les HFC étant estimé à 673 783,03 francs4. Marcel Diserens sait manoeuvrer avec habileté. Par exemple, quand Félix Rista démissionne, il nomme comme administrateur Charles Jounay en prétextant de son expérience comme président de la Société des Secours mutuels des Hauts-Fourneaux de Chasse5. C'est une manière de jouer la transparence en flattant les salariés et en les impliquant dans les décisions à venir : la déclaration de cessation de paiement6, puis la décision de cessation d'activité industrielle7. Il pense également pouvoir utiliser les sentiments anti-patrons des ouvriers : il justifie par exemple le licenciement de leur directeur Georges de Benoist à la fin du mois de janvier par le fait que ce dernier est pour la fermeture des hauts-fourneaux8. Les travailleurs n'ont cependant pas été dupes : ils ont bien compris que l'on détournait leur attention alors que les dirigeants actuels se montrent incapables d'assurer sa direction, voire précipitent sa fin. Dès le mois de janvier les cadres et ingénieurs de l'usine appellent à continuer les négociations avec Saulnes et Uckange en expliquant que la politique des anciens 1 ADI, 56J13, conseil d'administration du 29 janvier 1966. ADI, 56J61. 3 ADI, 56J58, contrat de représentation entre la Compagnie des Hauts-Fourneaux de Chasse et les Établissements Jacques Diserens SA ; 56J61, documents de réclamation à la société Jacques Diserens. 4 ADI, 56J24, rapport des commissaires aux comptes exercice 1965-1966 5 ADI, 56J13, conseil d'administration du 14 février 1966. 6 Ibidem. 7 ADI, 56J13, conseil d'administration du 1er avril 1966. 8 ADI, 56J13, conseil d'administration du 29 janvier 1966. 2 383 administrateurs est la seule à même de sauver l'entreprise1. Avec une toute autre argumentation, le bulletin de la section CGT de l'usine aboutit lui aussi à des critiques très dure contre la nouvelle présidence qu'il accuse de vouloir amener l'usine à la fermeture2. Mais ils savent tous que l'enjeu étant la fermeture de l'usine et la perte de leur emploi, ils ne peuvent compter sur le gouvernement qui n'est là que pour gérer cette fermeture et non l'empêcher. Des communistes au clergé, des commerçants aux instituteurs ; la population et ses élus font corps autour des travailleurs de l'usine menant la lutte à un degré d'intensité supérieur à ce qu'elle a été en 1963. Le mercredi 2 février, le comité de défense de l'entreprise est reformé 3. Comme celui de 1963, il rassemble le curé, des élus locaux, des représentants syndicaux ou d'associations de bords divers. Le jour même de sa recréation une série d'évènements sont préparés pour lui donner une ampleur maximale : après un débrayage dans l'usine suivi d'un premier rassemblement, des délégations des autres usines doivent rejoindre les travailleurs des HFC et la population pour se rendre à un meeting à l'entrée de l'usine. Enfin, après plusieurs discours on va ensuite manifester jusqu'à la place de la mairie4. On retrouve-là les différents moyens utilisés en 1963 pour mobiliser les personnels et la population ; faire soutenir et encadrer le mouvement par des syndicats, des représentants politiques ou du monde associatif. Un nouveau manifeste est rédigé le 4 mars pour être diffusé ou porté lors des réunions de négociation5. Enfin on utilise les médias pour donner une résonance maximale aux évènements : dès février on fait appel à la presse mais aussi – ce qui est nouveau – à la radio-télévision6. Les évènements d'usine de l'année 1966 se distinguent en effet sur plusieurs points de ceux de 19637. Il y a tout d'abord la durée, plus de six mois d'actions régulières de janvier à juillet. Il y a le nombre de participants : à plusieurs reprises les cortèges viennent de communes voisines et l'on compte plusieurs milliers de manifestants. Il y a les lieux : on continue à se mobiliser à Chasse et dans la commune voisine de Givors ; mais on va à la sous-préfecture de Vienne, à Lyon et même à Paris. La mobilisation dépasse de loin le cadre local : on se rallie à une marche de travailleurs 1 « La situation des Hauts-Fourneaux de Chasse. Les cadres et ingénieurs : " il faut continuer les négociations avec Saulnes-Uckange " », Le Progrès du Dimanche n° 669 du 23 janvier 1966, p. 5. 2 Le Gueulard, bulletin de l'Union locale CGT du 14 janvier 1966. 3 AMC, 1H3, comité de défense. 4 « Chasse : un nouveau comité de défense des HFC a été constitué », Le Progrès n° 36 702 du 3 février 1966, p. 3. 5 AMC, 1H3, comité de défense. 6 AMC, 1B3, registres des délibérations, conseil municipal du 5 février 1966. 7 Pour la chronologie, voir annexe 10. 384 venant du sud de la France, on participe à des mouvements nationaux. Ce qui frappe est aussi le foisonnement des outils de communication – lettre ouverte, envois de courriers, tracts, banderoles, paroles de chanson, manifeste, etc. –, et de modes d'expression : réunions publiques, meeting, manifestation, marches, etc. Incontestablement pendant l'année 1966 à Chasse et dans son bassin voire audelà, la population est en ébullition ; la politisation est intense. Les thèses développées s'appuient sur l'idéologie traditionnelle de chaque syndicat ou chaque partie : par exemple on retrouve dans les tracts de la CGT, les discours de Vallin, ou les articles de l'Humanité la même dénonciation des « trusts » et du « capitalisme ». Mais au-delà de ces différences d'interprétation ou d'approche, ce qui fait le lien est la commune critique de la politique du gouvernement, des « technocrates » et du « plan de stabilisation » : c'est une différence majeure avec l'année 1963 pendant laquelle la critique est partagée entre le gouvernement et la CECA. On est aussi dans le contexte de l'après élection présidentielle de décembre 1965, les appels à l'union sont renouvelés par une allusion très claire à celle qui a permis de mettre en ballottage le Général de Gaulle1. C'est par l'union de tous – constamment rappelée – que l'on peut inverser la situation et permettre le maintien de l'emploi : nulle fatalité dans le discours, nulle résignation, mais au contraire l'envie d'en découdre, même si on est resté dans l'épreuve de force sans aller jusqu'à l'affrontement. 1 Voir annexe 11, tract du 26 janvier 1966. 385 Document 14 : La mobilisation du 3 février 1966. Une des premières mobilisations : le 3 février 1966 les travailleurs givordins manifestent dans leur ville puis rejoignent les travailleurs des HFC et la population chassère devant l'usine. Sur cette image la jonction a été faite et les manifestants se dirigent vers la mairie de Chasse. 386 Document 15 : La mobilisation du 3 mai 1966. Manifestation et meeting du 3 mai 1966 : les travailleurs des HFC accueillent les travailleurs des chantiers navals de la Seyne-sur-mer en marche sur Paris. Les élus des deux communes prononcent des discours devant l'entrée des HFC (Etienne Langlois, premier adjoint de Chasse et Toussaint Merle maire communiste de la Seyne). Puis le cortège se dirige vers Givors où le sénateur-maire communiste Camille Vallin les attend pour une réception. 387 Document 16 : La mobilisation du 14 juin 1966. Débrayage et manifestation du 14 juin pour bloquer l'autoroute. Les maires (socialiste) de Chasse et (communiste) de Givors font partie d'un premier rassemblement se tenant devant l'usine avec les représentants syndicaux et d'associations, les travailleurs et la population. Puis un cortège se forme et marche vers l'autoroute où trois sections de CRS épaulées par des gendarmes s'opposent à eux. Après quelques tensions, Farjas de l'union CGT de Givors prononce un discours où il dénonce l'usage de la force par le pouvoir gaulliste. Le cortège se disperse ensuite. Après cette épreuve de force symbolique, une délégation est reçue le soir en sous-préfecture de Vienne. Document 17 : Face à face avec les forces de l'ordre, 14 juin 19661 1 Sources photographiques pour les documents 14, 15, 16, 17 : Éric Combaluzier et Michel Paret. 388 Le comité de défense des travailleurs des HFC est l'institution qui occupe une position centrale dans toutes ces mobilisations. On s'inspire des autres expériences : par exemple la marche sur Paris suit l'exemple de celle des métallos de la Seyne-sur-mer1. Il est aussi et d'abord un lieu de débat et de décision entre ses différentes composantes du monde politique, syndical et associatif local : les travailleurs sont des acteurs, mais ils sont encore fortement encadrés comme le montre la présence de représentants. Le Comité est en effet formé et non élu, d'où les nombreuses figures locales et l'absence de personnalités nouvelles et de femmes. Ces dernières ne sont cependant pas absentes des journées de mobilisation comme le montrent les photographies et le rappellent les témoignages2, mais peu nombreuses elles ne sont qu'au second rang3. Le Comité est dominé par son maire SFIO, Joseph Domeyne, un infatigable organisateur. Au niveau syndical, Raymond Roux de la CGT est l'incarnation même du mouvement ; il est de tous les discours, toutes les délégations, toutes les rédactions de tracts. Gaston Riffard avec qui il a partagé les mobilisations de l'année 1963 a en effet quitté l'usine et n'a pas trouvé de remplaçant aussi charismatique. La CGT-FO reste cependant très active tout au long des mobilisations par l'intermédiaire notamment d'Alfred Pannefieu, un ouvrier professionnel du service entretien4. Mais la bourse du travail de Givors est l'autre lieu où se construisent les mobilisations : elle a créé son propre comité de lutte dont l'action vise à rassembler des mobilisations d'usines du bassin qui sans lui agiraient en ordre dispersé. Cette commune est dominée par la personnalité de son maire communiste Camille Vallin, présent lui aussi tout au long de ces journées. Les relations avec la bourse du travail givordine sont parfois faites de rivalité, comme lorsque la mairie de Chasse refuse de payer le transport des bus vers Paris5 ; mais pendant les mobilisations la coopération l'emporte, les différents ne ressortant qu'après. En effet, les luttes menées conjointement contraignent continuellement à l'échange de vue et à un minimum de compromis. D'ailleurs les autres soutiens avec lesquels il faut composer, bien que de moindre influence, dépassent le cadre des courants socialistes et communistes : ce sont le curé de la paroisse, l'association des commerçants, les syndicats CFDT ou CGC par exemple. On peut alors retrouver trois 1 Voir annexe 11, tract du 28 juin 1966 appelant à la montée sur Paris. Par exemple Andrée Jobert déclare être allé manifester : témoignage du 06/06/2016. 3 La situation à ce sujet n'a guère évolué depuis l'après guerre : voir THÉBAUD Françoise, Écrire l'histoire des femmes et du genre, op. cit., p. 95. 4 AMC, fichier mécanographique. 5 AMC, 1H3, Comité de défense, lettre du 24 octobre 1966. 2 389 temps dans la formulation des revendications : du mois de décembre 1965 à l'annonce de la cessation de paiement, on veut informer le personnel afin de le mobiliser et interpeler le gouvernement. À partir de février et jusqu'en avril, les thématiques tournent autour de la lutte pour l'emploi et du rejet de toute fermeture du site. À partir de mai, on est à la recherche d'une sortie de crise par le maintien en activité de la fonderie et on demande le reclassement des autres personnels. Dans ce contexte, alors que pendant longtemps on a critiqué la baisse du temps de travail en soulignant ses conséquences sur les revenus, ce thème revient plusieurs fois dans les revendications, mais comme un moyen de partage de l'emploi dans un bassin en crise1. Le plan de licenciements longtemps combattu et plusieurs fois repoussé devient inévitable. 2) Des départs aux licenciements L'installation de nouveaux administrateurs n'est suivi que de quelques départs parmi les travailleurs français et étrangers : en tout dix pour le mois de janvier2. Il y en a ensuite seize au mois de février, quatorze en mars, vingt en avril et vingt-six en mai ; soit au total quatre-vingt-six sur ces cinq mois. Les effectifs de l'usine passent de 732 individus au 1er janvier – il y a pendant la période trois recrutements de travailleurs français et trois d'étrangers – à 652 au 30 mai3. L'érosion des effectifs est significative mais non brutale : cela traduit la réussite relative de l'opposition aux licenciements et des luttes pendant toute la période. Dès le mois de janvier 1966, les représentants du personnel s'opposent au président et au secrétaire général en protestant contre le licenciement d'une secrétaire après celui du directeur de l'usine : « un licenciement par jour, on ne peut pas appeler cela un licenciement individuel » disent-ils4. Par la suite, alors que la fermeture de l'usine va être rendue publique, la direction annonce à la réunion extraordinaire du comité d'entreprise du 29 mars sa décision d'un premier licenciement collectif touchant vingt-trois mensuels et quarante-six ouvriers : l'opposition du comité d'entreprise et la 1 Voir dans annexe 11, le tract appelant à la mobilisation du 1 er mai. Sources utilisées pour l'étude des départs de janvier à mai 1966 : AMC, fichier mécanographique, cahier du personnel français n° 11 et étranger n° 16. 3 ADI, 56J65, état du personnel au 30 mai 1966. 4 ADI, 56J16, conseil d'administration du 29 janvier 1966, compte-rendu dactylographié de l'échange entre les administrateurs et le comité d'entreprise. 2 390 non-approbation de la part de l'inspection du travail permettent de repousser ce projet1. Mais réunis à nouveau le 26 mai en présence cette fois-ci de l'inspecteur du travail, on leur annonce que les premiers licenciements débuteront le 1er juillet, puis qu'ils seront suivis de mesures identiques jusqu'au 31 juillet2. En réalité, les premiers salariés ont été licenciés au mois de juin et les vagues de licenciements se sont succédées pendant tout l'été3. Parmi les quatre-vingt-six départs, on en compte sept départs pour des motifs que l'on aurait pu retrouver en temps normal : c'est-à-dire quatre départs en retraite, deux décès et un départ au service militaire. On retrouve ensuite huit licenciements, sept renvois pour sanction (« absences » en l'occurrence), neuf départs pour des motifs inconnus et cinquante-cinq sur « la demande » du salarié. Tous les licenciements ne sont pas à mettre sur le même pied : deux concernent des apprentis licenciés par leur propre organisme de formation, l'Association pour la Formation et la Promotion de la Métallurgie (AFPM). Mais les six autres licenciements touchent des salariés en poste – dont le directeur de l'usine –, qui en étant associés à un nombre inhabituel de renvois pour absences – néanmoins en partie compréhensibles en période d'agitation sociale – maintiennent une pression favorisant les départs volontaires. Un autre indice de cette politique impulsée par l'employeur est le nombre anormalement élevé de départs volontaires provenant de la fonderie : vingt-deux, soit 40 % des départs de cette catégorie, alors que la proportion de travailleurs des HFC travaillant à la fonderie est bien plus faible, inférieur à un-tiers dans l'usine. À cela on peut ajouter que quatre des renvois pour absences se sont produits à la fonderie sur les sept survenus, deux des départs pour motifs inconnus sont dans cet atelier ainsi que trois des huit licenciements. Enfin, sur les travailleurs qui quittent cet atelier, quatre sont des OS, un est OP et tous les autres – soit vingt-six – sont des manoeuvres. On voudrait alléger les effectifs de la fonderie pour la céder, comme cela a été fait à Givors, que l'on ne ferait pas autrement ; mais les circonstances de la fin des HFC ne nous permettent pas de vérifier cette hypothèse. Il reste de toute manière surprenant de diminuer autant les effectifs de cet 1 « Non aux licenciements, non à la fermeture affirment les syndicats CGT et CGT-FO des HautsFourneaux de Chasse », Dauphiné Libéré, article non daté et non signé fourni par Éric Combaluzier ainsi que le tract de ces syndicats appelant à cesser le travail le 6 avril suite à cette annonce. 2 « Hauts-Fourneaux de Chasse : Aux premières mesures de licenciements annoncées pour le 1 er juillet prochain, le Comité de lutte opposera une série " d'actions spectaculaires " », Le Progrès n° 36798, jeudi 26 mai, p. 5. 3 AMC, fichier mécanographique du personnel. 391 atelier alors que c'est celui qui est destiné à perdurer après la disparition des autres activités sidérurgiques. En confrontant ces résultats au prisme de la nationalité, on peut également s'apercevoir que vingt-et-un des quarante travailleurs étrangers de l'usine en partance sont de la fonderie : ce sont donc eux qui sont le plus concernés par la politique ciblant cet atelier. En revanche les travailleurs français viennent d'un peu toutes les activités. Ils sont en général assez jeunes – par exemple Alix Frantz est un pontonnier de la cimenterie de trente ans – ou ils sont présents depuis peu de temps dans l'usine, comme Constant Montini – un mouleur de la fonderie – qui a seulement neuf mois d'ancienneté. On peut donc estimer que les départs « volontaires » de travailleurs français peuvent se faire davantage en respectant leur choix, puisque leur jeunesse et assez souvent leur qualification leur permettent de tenter plus facilement leur chance ailleurs. Cela n'empêche pas qu'il y ait aussi une dose de contrôle dans ces départs, étant donné que la moitié des travailleurs du bureau d'étude et la moitié des chauffeurs quittent l'usine de cette manière, et de façon groupée à quelques jours d'intervalle ; ou que l'on conserve prioritairement les travailleurs les plus expérimentés 1. Cette érosion des effectifs accompagne l'agonie de l'usine. Elle s'achève avec les licenciements collectifs de l'été. Pour autant, il n'y a pas de disparition complète et immédiate du personnel, car il y a une vie pendant et même après la fermeture. IV) La fin des Hauts-Fourneaux de Chasse Une étude à l'échelle du bassin industriel permet de saisir le phénomène de désindustrialisation2. On raisonne alors en termes de population active3. À l'échelle de 1 Lors d'un processus de fermeture d'usine, Magnus et Johanna Hanson constatent que les salariés s'adaptent en adoptant des stratégies de dispersion ou de reconnexion, dans HANSON Magnus et HANSON Johanna, « Identité professionnelle individuelle et processus de fermeture d'usine », Revue Française de gestion, n° 220, 2012/1, p 117-131. Toutefois dans le cas d'un départ de l'entreprise, on ne saurait attribuer uniquement cela à une démarche individuelle fondée sur de la démotivation ou du ressentiment expression de ces stratégies de « dispersion ». En effet, les salariés dépendent aussi du bon vouloir de leurs dirigeants et de leurs capacités matérielles et sociales à retrouver un autre emploi comme le démontrent les exemples de travailleurs des HFC. 2 C'est ce que fait par exemple Pascal Raggi pour la Lorraine dans : RAGGI Pascal, « Industrialisation, désindustrialisation, », op. cit. 3 HAU Michel, « Les grands naufrages industriels français », dans LAMARD Pierre et STOSKOPF Nicolas, Une décennie de désindustrialisation ? , Éditions Picard, Paris, 2009, 270 p., p. 18. 392 l'entreprise, les « naufrages industriels » permettent de saisir les responsabilités respectives des dirigeants économiques et politiques 1. Cela est très utile « aux sciences de gestion » et aux « hommes d'action »2. Mais en quoi ces approches nous permettentelles de comprendre ce qui se passe lors de la fermeture d'une usine ? Pour en faire l'étude, on peut aussi s'intéresser au lieu et pas simplement aux phénomènes qui le traversent et à ses seuls dirigeants. Or la fermeture d'usine comme objet de recherche n'a longtemps pas été traitée par les sciences sociales d'après Anne Monjaret3. Cela passe par l'étude de tous ceux qui travaillent dans ce lieu qui se transforme mais ne disparait pas, de leur travail, de leur vie, de leurs luttes. 1) La liquidation La fermeture d'un site de production n'entraine pas forcément la disparition de l'entreprise. La Compagnie des Hauts-Fourneaux de Chasse est dans ce cas puisqu'elle ne disparait qu'en 1979 suite à sa fusion avec la société Péchelbronn4. Pendant ces treize années qui la séparent de l'arrêt de ses activités sidérurgiques, l'entreprise a connu plusieurs transformations. Tout d'abord Jacques Diserens avait passé un accord avec un homme d'affaire niçois auquel il doit céder ses titres des HFC, mais comme il est dans l'incapacité de respecter le contrat, ce dernier fait saisir les actions que Diserens avait déposées en gage5. Roger Agid devient président des HFC lors du conseil d'administration du 12 août 1966 à l'issue d'une bataille juridique l'opposant à Marcel Diserens 6. Marine et les anciens dirigeants de Chasse sont informés de la situation et ne pouvant empêcher cette prise de pouvoir, ils préfèrent se rapprocher de Roger Agid afin de l'assister et de 1 Ibidem, p. 19 sqq. HAU Michel, « La face cachée de l'aventure industrielle », op. cit., p. 6. 3 MONJARET Anne, « Quand les lieux de travail ferment », Ethnologie française, 2005/4, vol. 35, p.581-592, p. 582. Cet article fait partie du numéro spécial d'Ethnologie française, Vol 35, « Fermetures. Crises et reprises », 2005/4, 192 p. D'autres parutions montrent cependant l'intérêt des sciences sociales – mais pas de l'histoire – pour ce sujet : La revue de l'Irès, n° 47, « Restructurations, nouveaux enjeux, 2005/1, 362 p. ; Revue Française de gestion, n° 220, « Restructuration d'entreprises », 2012/1, 174 p. 4 ADI, 56J14, conseil d'administration du 5 janvier 1979. 5 AN, 2012 026 820, note du 3 août 1966 d'Yves Lerin, chef du service juridique de Marine ; AN, 2012 026 821, Note du 20 juin 1966 de Legendre à partir d'une conversation qu'il a eu avec Aveline. 6 ADI, 56J13, conseil d'administration du 12 août 1966 ; AN, 2012 026 821, compte-rendu détaillé de Michel Hubert. 2 393 négocier avec lui l'avenir de l'entreprise1. Ils doivent faire face à deux menaces : d'une part les producteurs de fonte s'apprêtent à « torpiller » Diserens, ce qui entrainerait la liquidation de la société et donc une perte financière pour Marine en tant qu'actionnaire et créancier2 ; d'autre part l'administrateur judiciaire, maître Guillaud, a décidé d'informer les personnels afin de s'appuyer sur eux pour faire pression sur Roger Agid3. Maître Guillaud souhaite la liquidation, eux veulent le maintien de la fonderie alors qu'ils savent que l'arrêt des autres activités sidérurgiques est inéluctable : une alliance temporaire est donc possible, même si leurs intérêts à plus long terme sont contradictoires. Les salariés et leurs représentants dénoncent donc ce qui n'est encore alors qu'un risque : l'arrivée à la tête de l'entreprise d'un représentant de l'industrie hôtelière uniquement présent pour faire une opération immobilière4. Roger Agid est propriétaire de deux hôtels à Nice, dont le Plazza, et a possédé le Saint-Georges à Alger5. Il a travaillé étant jeune chez un administrateur judiciaire parisien6. Les trois autres administrateurs sont Julien Bouilloux, Guy Soubirou et Christian Rat. Le premier est un collaborateur de Roger Agid, le second représente la société Fiscalité et sociétés et le dernier est un ancien élève de « Science Po » qui est entré à l'ENA mais n'en est « jamais sorti » ; ce sont donc les faire-valoir de Roger Agid pour donner le « Conseil minimum nécessaire »7. Par la suite les administrateurs tourneront dans une société qui est devenue familiale : Georges Agid, frère de Roger, devenant par exemple administrateur. L'entreprise de Jacques Diserens est quant à elle déclarée en faillite le 6 juillet 19678. Poursuivis en justice, lui et son cousin sont condamnés en 1970 en première instance puis en appel pour abus de biens sociaux : Jacques à un an de prison et 2 000 francs d'amende, Marcel à six mois avec sursis et 2 000 francs d'amende ; ils doivent 1 AN, 2012 026 821, lettres d'André Legendre des 21 mai, 20 juin et 22 juillet (la dernière étant adressé à André Agid), Antoine de Tarlé du 5 juin 1966. 2 AN, 2012 026 821, Lettre d'André Legendre du 20 juin 1966. 3 « Si la fermeture des Hauts-Fourneaux de Chasse au 31 juillet parait maintenant acquise, aucune solution raisonnée n'apparait pour les sept-cents travailleurs », Dauphiné Libéré, 11 mai 1966, p. 7. 4 Ibidem. 5 AN, 2012 026 821, lettre d'André Legendre du 21 mai 1966 dans laquelle il fait un compte-rendu de son appel téléphonique avec Roger Agid ; note confidentielle de Michel Hubert du 21 septembre 1966. 6 AN, 2012 026 821, note confidentielle de Michel Hubert du 21 septembre 1966. 7 ADI, 56J13, conseil d'administration du 12 août 1966 pour les noms et présentations ; AN, 2012 026 821, note confidentielle de Michel Hubert du 21 septembre 1966 pour la première citation. Enfin la dernière expression est de Michel Hubert pour un compte-rendu du conseil d'administration du 12 août 1966, AN, 2012 026 821. 8 AN, 2012 026 821, notes d'Yves Lerin. 394 également rembourser conjointement 667 270,17 francs aux HFC1. Mais comme ils vont en cassation, puis qu'une séparation de corps est prononcée pour les époux Diserens – ce qui complique les possibilités de récupérer l'argent puisque cela s'accompagne d'une séparation de biens et qu'Elfriede Diserens dispose de la plus grande partie du patrimoine du couple –, et enfin qu'il faut les poursuivre en Suisse ; l'affaire traine encore des années, jusqu'au décès accidentel de Jacques Diserens en janvier 19732. En revanche la situation de Georges-Albert de Benoist et de Marine s'améliore. Pour le premier, un accord est trouvé : après un procès contre les HFC, il obtient réparation devant le tribunal de commerce de Lyon, soit au total 192 180 francs d'indemnités3. Avec Marine et les autres créanciers, un concordat est homologué le 21 mars 1967 et honoré jusqu'à son terme 4. Les ventes des biens des HFC – terrains et outillages en particulier –, ont permis de mener plusieurs opérations immobilières parallèlement à l'épuration des comptes. En 1975, les huit filiales hôtelières ou immobilières des HFC dégagent deux millions de résultat ; les actionnaires réclament alors le versement de dividendes5. L'année suivante, après avoir apuré ses dernières dettes, l'entreprise fait un bénéfice de 4 100 000 francs : elle est donc prête à être vendue permettant à Roger Agid de réaliser une dernière opération intéressante6. Cependant, les personnels des HFC qui ont espéré le maintien de la fonderie en activité sortent grands perdants. La mairie fait pression sur les administrateurs pour obtenir que la fonderie voisine de Givors rachète l'atelier des HFC 7. On retrouve même une clause spéciale à ce sujet dans le concordat qui comprend son prix et les modalités de sa cession8. Toutefois Roger Agid préfère liquider le matériel et vendre le terrain car 1 ADI, 56J14, conseils d'administration des 30 septembre et 17 décembre 1970 ; AN, 2012 026 819, rapport du CA à l'AG du 17 décembre 1970. 2 ADI, 56J28, procès verbal des AG ordinaires des 17 décembre 1971, 7 décembre 1972 et 21 décembre 1973. 3 AN, 2012 026 821, lettre de Roger Agid du 18 mai 1967 à André Legendre dans laquelle il le prévient du résultat du procès en raison de « l'intérêt que vous avez pris de la situation de Monsieur de Benoist ». Il espère d'ailleurs que la solution de cette affaire lui « paraitra satisfaisante ». 4 ADI, 56J13, conseil d'administration du 11 mai 1967 ; 56J28, procès verbal de l'AG ordinaire du 21 décembre 1973. 5 AN, 2012 026 820, compte-rendu de l'AG ordinaire du 16 décembre 1975. 6 ADI, 56J28, procès verbal de l'AG ordinaire du 16 décembre 1976 ; 56J14, conseil d'administration 16 octobre 1978. La valeur des apports de Chasse lors de la fusion est évaluée à la somme nette de 19 993 921,85 francs. 7 AMC, 1H3, comité de défense, correspondance de Joseph Domeyne ; correspondance Joseph Domeyne avec la Société nouvelle des fonderies de Givors, Éric Combaluzier. 8 ADI, 56J4, concordat, article 6. 395 le prix que tente d'imposer la mairie est selon lui beaucoup trop bas1. La plus grande partie du personnel est donc licenciée en 1966 ; mais comme pour leur entreprise, l'arrêt de l'activité principale n'a pas signifié pour eux la fin : une partie du personnel a travaillé dans l'usine au-delà du 31 juillet 1966. 2) Retrouver du travail Lorsqu'on lit les tracts distribués pendant les grèves, la préoccupation principale est davantage le risque de licenciement que celui du chômage. La perte de l'emploi aux HFC ne signifie en effet pas nécessairement chômage, ce qui ne veut évidemment pas dire que les craintes des travailleurs pour leur avenir aient été injustifiées. L'alerte de 1963 n'a pas été suivie de réalisations immédiates en matière d'installations industrielles nouvelles à Chasse. Néanmoins, dans une société de « plein emploi », un regard rapide et distancié, des statistiques désincarnées peuvent donner l'illusion de la réussite de la reconversion du site et de l'absence de problème social après la fermeture. En effet, les terrains des HFC qui ont commencé à être vendus avant 1966 sont partagés en totalité : Delalande s'est installé le premier à partir de 1965, puis il a été suivi par la Société Rhodanienne d'Engrais en 1968 2 et par Condat en 19693. Ces trois entreprises du secteur de la chimie se substituent à la vieille sidérurgie que les HFC ont représenté4. En 1971, les cinq principales usines de Chasse-sur-Rhône ont créé 582 emplois5 : toutes se sont installées au moment ou après la fermeture des HFC, dont trois sur leurs anciens terrains. D'ailleurs en 1966, au moment des vagues successives de licenciements, de nombreux personnels sont reclassés l'année même de leur départ de l'usine : sur 575 travailleurs sans emplois, 419 sont reclassés au 30 septembre 1966, 464 au 31 décembre ; ils sont même 499 au 30 juin 19676. Il y a donc bien une vie après la fermeture d'un site industriel et la désindustrialisation n'est pas une fatalité. Les mesures de prise en charge des chômeurs 1 AN, 2012 026 821, entretien confidentiel de Michel Hubert du 21 septembre 1966 avec Roger Agid. Le terrain est cédé à Ugine Kuhlmann, dont SRE est la filiale : ADI, 56J13, conseil d'administration du 4 mars 1968. 3 ADI, 56J14, conseil d'administration du 22 octobre 1969. 4 PASQUET Caroline, Chasse-sur-Rhône : un relais secondaire en mutation, mémoire de maîtrise sous la direction de LAFERRÈRE Michel, Université Lyon 2, 1973, 157 p., p. 50 sqq. 5 Ibidem, p. 107. 6 ADI, 56J24, rapport du CA à l'AG mixte du 9 mai 1968. 2 396 produisent leur effet. Elles sont le résultat de l'action des pouvoirs publics qui trouvent des relais au niveau local1. De plus, la décision est prise après le 31 juillet 1966 de conserver une partie du personnel des HFC qui sera licencié plus tard : il reste donc quarante-neuf salariés sur le site2. Ils sont encore trente-quatre au 1er janvier 1967 et treize l'année suivante à la même date3. Les quatre derniers salariés de l'entreprise l'ont quitté entre 1973 et 1975 – soit juste avant sa vente – et en 1982 pour la dernière : Rose Navarro, une femme de ménage payée au forfait pour entretenir les derniers bureaux. Pendant plus de deux ans, les effectifs des HFC ont été l'équivalent de ceux d'une PME. Ils ont même recruté deux salariés pendant la période : Jean-Baptiste Pastorino qui avait été licencié en juillet 1966 et qui reprend du service pour onze mois en 1967, et Rose Navarro en 1968. Les personnels ont tout d'abord travaillé à l'ébarbage des dernières pièces de fonderie, ils ont contribué aussi à écouler les stocks de l'usine, en particulier les plus de 19 000 tonnes de fontes invendues de l'usine4. Enfin, ils ont participé au démantèlement et au ferraillage des ateliers, même si le plus gros de l'opération a été confiée à des entreprises extérieures5. Il reste des tâches de gardiennage, d'administration et d'entretien qui mobilisent principalement des employés. En outre, le service du personnel de l'usine a été changé en service chargé du reclassement6. Malgré la tristesse de ce travail, eu égard au passé de l'usine, il était apparemment bien payé et certains salariés ont regretté d'avoir quitté l'usine avant qu'elle ne ferme pour profiter plus longtemps de cette manne7. Il n'en reste cependant pas moins dangereux puisque par exemple Marcel Poully – un ancien leveur de fonte devenu pontonnier – est victime d'un accident de travail qui entraine un arrêt de plus d'un mois en 19688. Toutefois, l'essentiel des mesures prises par l'entreprise porte sur le reclassement des travailleurs, leur formation et enfin la prise en charge des chômeurs. L'obligation de reclassement dans le cadre d'un licenciement ne date cependant que de 1 Un inspecteur général de l'industrie est passé le 6 avril à Chasse : Le Fourneau, journal de la cellule communiste de Chasse du 18 avril 1966 ; PASQUET Caroline, Chasse-sur-Rhône : un relais secondaire en mutation, op. cit., p. 31. L'essentiel du travail a ensuite été effectué entre la mairie, la sous-préfecture de Vienne, l'administrateur judiciaire, et les différents services administratifs locaux dont la direction de la main d'oeuvre : AMC, 1H3, Licenciements 1966-1967 et Licenciements Hauts-Fourneaux. 2 ADI, 56J24, rapport du CA à l'AG ordinaire du 13 octobre 1966. 3 AMC, fichier mécanographique du personnel. 4 ADI, 56J13, conseil d'administration du 4 juillet 1966. 5 ADI, 56J24, conseil d'administration du 9 mai 1968. 6 Ibidem. 7 Témoignage Janine Bouillet du 24/02/2012. 8 AMC, fichier mécanographique du personnel. 397 19771 : les HFC sont donc en avance. Les salariés ont aussi des droits en ce qui concerne la recherche d'emploi pendant leur temps de travail, cela provoque d'ailleurs une manifestation spontanée en juillet 1966 alors que l'administrateur judiciaire ne les respectait pas2. Cependant, dans le cadre d'un plan qui touche plusieurs centaines de salariés, les pouvoirs publics ne sauraient rester inactifs dans plusieurs autres domaines. D'ailleurs, tout cela s'effectue dans le contexte du plan professionnel de la sidérurgie, ce dernier ne concernant pas les HFC3. On retrouve un certain nombre de similitudes avec ce qui a été fait à Chasse, toutes choses égales par ailleurs. On signe une convention avec le Fonds National de l'Emploi : cette institution créée en 1945 peut apporter une aide au niveau de la formation, des préretraites (pour les personnels entre 60 et 65 ans) et pour le versement d'une allocation dégressive 4. Cette dernière ne concerne que les personnels de la cimenterie et de la fonderie qui la perçoivent pendant un an ; ceux des hauts-fourneaux ont une indemnité d'attente équivalente versée par la CECA. De plus, les allocations FNE et CECA sont garanties pendant un an pour toute personne ayant retrouvé un emploi et qui le reperdrait. À cela s'ajoutent les allocations journalières des ASSEDIC : elles s'élèvent à 35 % du salaire moyen des trois derniers mois avec un minimum de 5,60 francs par jours. L'allocation est remise également pendant un an pour les salariés de moins de 50 ans, la durée s'allongeant ensuite en fonction de l'âge. Une dernière aide concerne le fonds de chômage, ces fonds étant départementaux ou municipaux : une demande avait été faite à Chasse dès 1963. Sa durée est en principe illimitée, mais elle repose sur des finances communales aux dimensions réduites. Enfin, une indemnité de licenciement peut être perçue au moment de la perte de l'emploi, à condition d'avoir au moins cinq ans d'ancienneté : elle s'accroît si le salarié à plus de quinze ans de présence dans l'entreprise. En plaçant rapidement plusieurs centaines de travailleurs, en apportant des aides aux chômeurs et en développant les activités5, les réponses à la crise qui marque la fin des HFC semblent donc à la mesure des enjeux. Pourtant plusieurs limites sont notables, 1 FROSSARD Serge, « Les contextes de l'obligation de reclassement », Perspectives interdisciplinaires sur le travail et la santé, 12-1, 2010, 12 p., https://pistes.revues.org/, [dernière consultation le 3 septembre 2017]. 2 ADI, 56J4, lettre de maître Guillaud. 3 ADL, 211J5, préparation du plan. 4 THOMAS Claude, « Le Fonds National de l'Emploi », intervention au colloque " la mobilité facteur de plein emploi " organisé les 16 et 17 mai 1967 par l'Ecole des hautes études commerciales de Lille, http://travail-emploi.gouv.fr/IMG/pdf/FNE.pdf, [dernière consultation le 3 septembre 2017]. On retrouve les documents concernant la procédure administrative dans AMC, 1H3, Fermeture. 5 La décision de créer une nouvelle zone industrielle à Chasse est prise en avril 1966 : AMC, 1B3, registres des délibérations, conseils municipaux des 26 mai et 29 juillet 1966, 3 février et 20 avril 1968. 398 malgré l'engagement de Joseph Domeyne, du conseil municipal, des représentants syndicaux et des employés du bureau d'aide sociale ou de reclassement. Tout d'abord, plus que leur emploi, il y a ce que les salariés perdent avec la fermeture de l'usine et qu'ils ne retrouveront jamais : les solidarités de travail et de voisinage construites dans le cadre d'une entreprise paternaliste 1. Certes tous n'en ont pas profité également alors que l'investissement dans ces politiques par l'entreprise est en diminution depuis plusieurs années ; mais les travailleurs qui sont restés jusqu'en juillet 1966 sont aussi parmi les plus anciens, ils ont donc bénéficié pendant longtemps de ces politiques, en particulier au niveau du logement. C'est tout un « monde » qui disparait avec l'usine2, et notamment leur assurance de vivre avec elle, de même que leurs enfants, alors que par la suite Chasse va devenir une « ville dortoir »3. Les biens de l'entreprise sont également dispersés : le CE va par exemple donner la télévision et les livres de la bibliothèque à la mairie 4. Les maisons des HFC vont également être vendues5. Leurs locataires tombent alors sous le coup d'une menace d'expulsion s'ils n'ont pas les moyens de racheter leur logement. Joseph Domeyne va cependant intervenir à plusieurs reprises auprès de Pierre Pautet – le secrétaire général des HFC – pour que ce dernier favorise d'anciens travailleurs, notamment une famille dont le père a été tué dans un accident lorsqu'il travaillait aux HFC6. Cela se fait en maintenant dans l'ignorance Roger Agid auquel on ne s'adresse pas pour de telles sollicitations, et qui – uniquement préoccupé par le profit – n'avait jusque-là manifesté aucune considération pour des travailleurs qu'il n'a d'ailleurs jamais vraiment connus : c'est ce que montre l'opération de vente de la fonderie alors que le concordat poussait à sa reprise, c'est ce que l'on voit aussi dans l'échange de courriers entre Joseph Domeyne d'une part, Roger Agid et la sous-préfecture de Vienne d'autre part7. Ce manque de considération se retrouve encore dans la gestion spéculative du patrimoine : on conserve des terrains dans le but de les vendre à un meilleur prix et en faisant un 1 De nombreux témoins ayant habité et vivant souvent toujours à Chasse ont confirmé cela : en particulier Georges et Marie-Louise Charrier, Fernand Abel, Mohamed Safer, Janine Bouillet, Simone Arcondara, Christiane et Gérard Pastorino, Andrée Jobert. Voir aussi Caroline Pasquet qui en a recueilli des témoignages contemporain preuve de la stabilité dans le temps de ces sentiments dans PASQUET Caroline, Chasse-sur-Rhône : un relais secondaire en mutation, op. cit., p. 114-115. 2 LINHART Danièle, « D'un monde à l'autre : la fermeture d'une entreprise », La Revue de l'Ires, n° 47, 2005/1, p. 81-94, p. 81 sqq. 3 PASQUET Caroline, Chasse-sur-Rhône : un relais secondaire en mutation, op. cit., p. 100-101. 4 AMC, 1B3, délibérations du conseil municipal du 15 décembre 1967. 5 ADI, 56J35, relevé des propriétés. 6 AMC, 1H3, Fermeture. 7 AMC, 1H3, Fermeture. 399 minimum d'investissements dans l'entretien des bâtiments, tout en continuant pourtant à les louer. C'est ainsi que l'on découvre le cadavre de Joannès Vernay plusieurs jours après sa mort au cantonnement, dans un « taudis » à la « saleté indescriptible » loué par les HFC1. La mairie a cependant des moyens de pression et de bonnes raisons de les exercer : elle va finir par demander et obtenir l'expropriation de ces terrains afin de construire des logements sociaux, au grand dam de Roger Agid qui craint que le patrimoine de la Compagnie ne subisse de « très sérieux dommages »2. Malgré tout, les salariés des HFC qui pendant cette période en ont les moyens vont devenir propriétaires grâce à la vente du patrimoine immobilier de leur entreprise ; par exemple, sur les trente-six logements vendus par les HFC en 1968, vingt-deux sont vendus à d'anciens travailleurs3. Ensuite, une analyse plus fine des statistiques de l'emploi révèle une situation contrastée. Les archives n'ont conservé de traces que des 575 travailleurs licenciés à partir de l'été 1966, et même 618 si on compte également ceux qui travaillent à l'usine et sont licenciés plus tard. On ne compte cependant pas dans les statistiques les dizaines de départs volontaires : il y avait en réalité 732 travailleurs dans l'usine au 1 er janvier 1966. Or on ne sait pas si tous ont réussi leur reconversion, ce qui serait étonnant dans le contexte d'un marché du travail régional dégradé4. Ensuite, au 31 décembre 1966 on peut dire que 111 travailleurs sont au chômage ; ils sont encore 76 au 30 juin 1967 : cela représente un taux de chômage de 12,3 % un an après la fermeture. Âgés entre cinquante et soixante ans pour près de la moitié de ces derniers, ils sont trop vieux pour intéresser une entreprise et trop jeunes pour pouvoir profiter d'une mesure de préretraite. Ils sont également souvent mutilés ou malades5. D'ailleurs pour pouvoir secourir ces chômeurs en fin de droit, une association d'entraide est créée le 15 juin 1967 avec comme président Joseph Domeyne, comme secrétaire général Pierre Pautet – qui occupe la même fonction aux HFC – trois représentants syndicaux – Roux de la CGT, Pannefieu de la CGT-FO et Mounier de la CGC – ainsi que de l'administrateur judiciaire et deux directeurs du travail : elle se substitue à l'institution paritaire sollicitée 1 Ibidem, courrier du 4 mars 1969. ADI, 56J28, procès verbal de l'AG du 21 décembre 1973. 3 ADI, 56J35, relevé des propriétés. 4 L'effet des restructurations sur les trajectoires professionnelles constitue « un coût social caché » d'après RAVEYRE Marie, « Le travail dans le management des restructurations : entre déni et omission », La Revue de l'Ires, n° 47, 2005/1, p. 95-115, p. 96. 5 PASQUET Caroline, Chasse-sur-Rhône : un relais secondaire en mutation, op. cit., p. 29. 2 400 et qui a refusé1. Cette association va distribuer des aides jusqu'en 1973. Ils sont par exemple vingt-sept à les recevoir en octobre 1967 et encore dix-sept au 22 octobre 1970. Ils représentent un peu tous les ateliers de l'usine : si on prend les premiers de la liste Marcel Bacher était ajusteur à l'entretien, François Bochet chef de poste à la centrale, Damien Bordarie basculeur, ou encore Marie Combier femme de ménage. Damien Bordarie est d'ailleurs mutilé du travail2. Parmi les chômeurs percevant des allocations du FNE et de la CECA, certains retrouvent un emploi, mais souvent dans des conditions précaires. Par exemple, Fernand Abel a retrouvé du travail, mais seulement à mi-temps3. Ou encore Robert Coubret qui est licencié par son nouvel employeur Hotchkiss-Brandt : il est dans le même cas que quatre autres anciens salariés des HFC licenciés en mars 19674. D'autres encore se lassent et finissent par démissionner pour pouvoir partir chercher du travail ailleurs, comme Hocine Maouche le 19 septembre 19685. Enfin des travailleurs insuffisamment âgés pour être secourus par l'association demeurent avec des aides limitées à partir de l'été 1967 : ce sont bien souvent des femmes et dans une moindre mesure des étrangers dont la réinsertion sur le marché du travail a été compliquée. Ainsi, il y avait 138 chômeurs de moins de 60 ans au 30 septembre 1966, soit 122 hommes et 16 femmes ; il y a 37 chômeurs au 30 septembre 1967, soit 28 hommes et 9 femmes6. En outre, on compte sur ces trente-sept chômeurs trente Français dont un naturalisés, cinq Algériens, un Italien et un Polonais. Ceux qui ont retrouvé du travail sont certes mieux lotis, mais ils l'ont fait dans des conditions souvent difficiles. En général les anciens salariés indiquent qu'ils n'ont pas retrouvé des conditions de salaire équivalentes à celles qu'ils avaient en quittant les HFC7. Plusieurs facteurs peuvent l'expliquer : un état dégradé du marché du travail par des licenciements qui touchent plusieurs entreprises de la région, l'embauche dans une branche dans laquelle les salaires sont moindres, la nécessité de faire ses preuves et d'être embauché à un poste d'un niveau inférieur à celui occupé aux HFC. L'étude de leur reclassement révèle d'ailleurs l'acceptation de postes de travail dans des entreprises 1 AMC, 1H3, statuts association entre-aide aux travailleurs des Hauts-Fourneaux. AMC, fichier mécanographique. 3 AMC, 1H3, Licenciements 1966-1967. 4 AMC, 1H3, Licenciements Hauts-Fourneaux. 5 AMC, 1H3, Licenciements 1966-1967. 6 1H3, Licenciements Hauts-Fourneaux. 7 Témoignages de Fernand Abel le 15/3/2000, Mohamed Safer le 22/4/2000, Simone Arcondara le 11/3/2013, Janine Bouillet le 24/2/2012, Gérard et Christiane Pastorino le 06/01/2015, Andrée Jobert le 06/05/2016. 2 401 souvent éloignées et dans une autre activité que celle des HFC, preuve que l'on prend un peu tout ce qui se présente. Ainsi en août 1966, sur trente-huit salariés qui retrouvent du travail, seuls huit le font dans la commune voisine de Givors ; l'un à Casino et les sept autres dans la fonderie voisine et ancienne rivale 1. Mais les trente autres partent plus loin pour être embauchés dans des activités des plus diverses : seize à Hotchkiss Brandt à Gerland, quatre chez Ciba, un à la raffinerie de Feyzin, un chez Berliet, deux dans un chantier à Feyzin, etc. On retrouve cela des années plus tard dans les statistiques sur la population active chassère : seul un-tiers des salariés embauchés par les entreprises de Chasse réside dans la commune en 19712. Inversement en 1968, 300 travailleurs de Chasse-surRhône ont un emploi dans l'agglomération lyonnaise, 170 dans celle de Givors, 60 à Vienne pour 244 dans la commune ; il y en avait 836 – dont 707 aux HFC – en 1962 avant la fermeture de l'usine3. En 1962, 70,2 % des habitants travaillaient dans la commune, ils ne sont plus que 33,5 % en 19684. Ces chiffres traduisent la brutalité des changements sociaux consécutifs à la fermeture. Certes l'ouverture rapide de plusieurs entreprises dans le bassin d'emploi des HFC va permettre de créer en quelques années l'équivalent des emplois supprimés ou presque – une véritable réussite –, mais bien peu vont être occupés par les anciens travailleurs des HFC ; non pas seulement en raison de leur âge, de leur invalidité, ou de leur faible niveau scolaire comme Caroline Pasquet le pense, mais aussi en raison du décalage dans la chronologie des évènements : les travailleurs des HFC sont d'abord allés chercher au loin du travail afin d'éviter d'être au chômage, mais une fois que l'on a créé des postes dans leur commune, ils ne sont pas nécessairement revenus pour les occuper. Cela est parfaitement compréhensible, car ils auraient dû une fois de plus abandonner un emploi pour recommencer à zéro leur parcours professionnel dans une nouvelle entreprise. 1 AMC, 1H3, Licenciements 1966-1967. PASQUET Caroline, Chasse-sur-Rhône : un relais secondaire en mutation, op. cit., p. 111. 3 Ibidem, p.100-101. 4 Ibidem. 2 402 Conclusion : La montée de l'insubordination ouvrière pendant les années 1968 s'effectue dans un contexte de crise nationale, régionale et de l'entreprise. Au niveau national, l'ouverture du marché commun accroit la difficulté de plusieurs branches industrielles, alors que la politique de la CECA déstabilise le marché des fontes brutes. À l'échelle régionale, le bassin industriel de Chasse et de Givors, celui de Vienne et même toute la vallée du Gier voient le nombre d'entreprises en difficulté augmenter, les licenciements progresser. Les HFC sont eux aussi touchés par la crise des marchés de fonte pure, ce qu'un incident technique aggrave encore en 1962. Le marché du travail étant fragilisé, les salariés développent une « conscience de crise » qui précède 1968 et 19741. Elle favorise des mobilisations multiples, qui en raison de leur taille réduite sont occultées par des mouvements plus puissants. Elle se manifeste dans des mobilisations locales qui rassemblent à plusieurs reprises les personnalités du monde syndical et politique, mais aussi du monde associatif et plus largement de la société civile. Or ces soutiens sont indispensables afin de donner un poids suffisant à la mobilisation : les luttes sont donc accompagnées de débats et de compromis multiples fédérant les populations et leurs représentants ou dirigeants. Toujours dans le but de se faire entendre, les luttes des autres bassins servent de modèle, on échange avec eux, voire on se mobilise ensemble. Les salariés ont une conscience partagée des difficultés : ils savent que les économies de coûts des HFC qui changent leurs sources d'approvisionnement vont entrainer la fermeture des mines de la Têt, tandis que la fermeture de leur propre usine va avoir un impact régional pour les mines de pyrite de Sain Bel ou la cokerie de la Sillardière. C'est dans ce sens qu'il faut entendre leur critique des politiques européennes et la défense des industries françaises ; non dans celui de la défense d'un « nationalisme provoquant » dont ils se défendent2. Le patronat des HFC est lui-même déstabilisé et en peu d'années les équipes dirigeantes changent à plusieurs reprises. À peine Pierre Cholat a-t-il transmis l'entreprise à Antoine de Tarlé, que ce dernier doit faire face aux difficultés des années 1962-1963. Les années 1964-1965 sont celle de la stabilisation de la situation et de la préparation d'un grave plan de restructuration, mais qui est la dernière chance de l'usine 1 Cette expression est utilisé pour analyser la crise des années 1970-1980 par FRANCK Robert et al., « Les années grises de la fin de siècle », Vingtième Siècle, Revue d'histoire, 2004/4, n° 84, p. 75-82. 2 AMC, 1H3, mémoire sur la situation des Hauts-Fourneaux du 23 avril 1963. 403 étant donné le nouveau contexte économique dans lequel elle évolue. C'est alors qu'à la faveur d'une prise de pouvoir une nouvelle équipe s'installe éphémèrement. Les banques1 qui ont jusque-là apporté leur soutien à la modernisation de l'entreprise stoppent leurs facilités, de même que les fournisseurs. Marcel Diserens n'a cependant pas comme objectif le redressement de l'entreprise ; mais à l'image de son cousin qui a présidé les Hauts-Fourneaux de Givors, ce qui compte est d'abord leur enrichissement personnel. Une troisième équipe dirigée par Roger Agid leur succède mais elle n'a pas plus que la précédente le souci de maintenir une activité pérenne. Les politiques financières menées contrastent avec celle de l'industriel qu'était Antoine de Tarlé : ce dernier a jusqu'au bout eu un certain souci des salariés des HFC ; d'avantage encore qu'un gestionnaire froid mais réaliste comme André Legendre. Cela contraste encore plus avec la personnalité d'un Pierre Cholat, attaché à son entreprise et à ceux qui y travaillent, prêt à sombrer avec eux s'il le fallait – et donc par là même incapable de s'adapter au nouveau contexte économique –, ce qui n'empêche pas que ses pratiques passées aient été très inégalitaires en fonction notamment des nationalités et du sexe des travailleurs. La responsabilité de l'État est également lourdement engagée dans la disparition des HFC au niveau pénal, économique et social. Comment se fait-il en effet que les Diserens n'aient pas été plus efficacement poursuivis alors qu'ils étaient surveillés pour leurs différentes malversations ? Sans l'action de Raymond Guillaud et la persévérance de Marine en ce domaine, les différentes procédures menées contre eux n'auraient d'ailleurs même pas été déclenchées. Au niveau économique, alors qu'avec le IVe Plan on est à « l'apogée du plan comme outil de cohérence »2, Albert Denis s'agace du fait que les projets de rapprochements entre Chasse et Givors n'aboutissent pas ; il en attribue la responsabilité à Pierre Cholat. En 1963, il refuse encore d'apporter son soutien à l'usine en difficulté. En 1966, l'attitude des représentants de l'État ne change pas concernant le sort des HFC : pour Michel Debré « en acceptant le marché commun, nous avons accepté la disparition des industries non rentables »3. Cette déclaration n'a 1 Ces dernières peuvent néanmoins déjà jouer un rôle négatif comme pour les Hauts-Fourneaux de Givors, et plus tard dans les années 1970 : FEIERTAG Olivier, « Le système financier français face à la désindustrialisation (1974-1984) la faute aux banques ? », dans LAMARD Pierre et STOSKOPF Nicolas, 1974-1984, une décennie de désindustrialisation ? , op. cit., p.37-49. 2 MARGAIRAZ Michel, « Planification et politiques industrielles des années 1940 aux années 1960 : les trois figures du Plan », op. cit., p. 6 sqq. 3 « Michel Debré en Alsace : en acceptant le marché commun, nous avons accepté la disparition des industries non rentables », Dauphiné Libéré du 6 mars 1966. 404 pu que paraitre choquante à des salariés qui ont permis à l'usine de faire des progrès considérables de productivité. En outre l'installation d'un outillage moderne et parfaitement performant et les recherches menées par l'IRSID qui prouvent la confiance que l'on peut avoir dans l'usine sont autant d'éléments qui contredisent cette absence de performance pour les salariés. Les responsabilités sont selon eux ailleurs : dans l'absence d'aides de l'État à leur usine quand d'autres en recevaient, dans l'arbitraire du prix des matières premières ou des amendes qui handicapent l'entreprise ; en cela ils rejoignent parfaitement les positions exprimées dans le passé par Pierre Cholat. Dans un contexte politique lourd, le PCF et la CGT font une critique acerbe d'un système et d'un régime qui défend les grands groupes. Le gouvernement prête d'ailleurs le flan à la critique en limitant le dialogue et en n'apportant aucune réponse aux revendications des salariés et de leurs représentants jusqu'à la fermeture : une attitude jugée unanimement « scandaleuse ». Pourtant le gouvernement n'est pas aussi coupable que les tracts, les articles ou les courriers officiels des élus locaux le disent. Pouvait-il en effet apporter de l'aide à une usine dirigée par les Diserens ? Ces derniers ne se seraient-ils pas empressés de faire disparaître les subsides1 ? Le gouvernement était en réalité placé dans une position inconfortable. Par ailleurs s'il n'a pas apporté de réponse, les représentants locaux de l'État ont constamment joué un rôle dans les négociations avec le comité de défense, preuve qu'on ne les a pas abandonnés, même si la gestion de la crise a été en quelque sorte décentralisée. Par la suite, ces derniers ont suivi les licenciements et ont fourni des aides, innovant par exemple en participant à la création d'une association d'entraide des vieux travailleurs. De plus, à partir du IVe Plan, l'organisation professionnelle prend une place croissante dans le travail planificateur2. Or on est en train de négocier dans le cadre du plan professionnel et les difficultés des HFC sont une aubaine pour les autres fondeurs : ces derniers ont aussi une responsabilité dans la volonté de faire liquider Chasse3. André Legendre critique cette attitude car elle porte préjudice aux intérêts de Marine. Pourtant lui et Henri Malcor ont également une part de responsabilité dans la fin des hauts-fourneaux de Givors et de Chasse, puisqu'ils étaient présents aux deux 1 Dans une note manuscrite en date du 7 mars 1964 sur Jacques Diserens, il est écrit que ses affaires sont surveillées par la « sûreté nationale » en raison de sa responsabilité dans une faillite frauduleuse : AN 2012 026 824. 2 MIOCHE Philippe, La sidérurgie et l'État en France des années 1940, op. cit., p. 695. 3 AN, 2012 026 821, lettre d'André Legendre du 20 juin 1966 à Henri Malcor dans laquelle il fait un compte-rendu de son entrevue avec Léon Aveline. 405 conseils d'administration, et qu'ils ont favorisé la prise de pouvoir de Jacques Diserens à Givors ainsi qu'involontairement celle de Marcel Diserens à Chasse. Face à autant d'adversité, la mobilisation de la population et des travailleurs de la Compagnie derrières leurs représentants n'avait que peu de chance de réussir. D'ailleurs ils n'avaient aucun pouvoir et les grandes décisions stratégiques à Chasse comme ailleurs se passent en dehors d'eux1. Pour autant cette mobilisation a-t-elle été vaine ? Elle n'a certes pas pu empêcher la fermeture de l'usine, mais elle l'a en revanche retardé ce qui a facilité les politiques de reclassements. Elle a permis aux pouvoir publics, au moins au niveau local, de prendre conscience des conséquences négatives de ces fermetures et de tenter d'apporter des remèdes les plus efficaces possibles. Enfin, par un contact constant avec les pouvoirs publics, les dirigeants de l'entreprise et l'administrateur judiciaire, les membres du comité ont su faire des propositions, passer des alliances et agir au mieux des intérêts des salariés et de leurs familles. Leur diversité d'opinion a pu entrainer des divisions pendant et plus souvent après la lutte ; mais d'une manière générale ils ont su agir ensemble avant, pendant et après la fermeture de l'usine : une situation que l'on ne retrouve pas forcément ailleurs2. Cela s'explique au moins en partie par la qualité des protagonistes. 1 MIOCHE Philippe, La sidérurgie et l'État en France des années 1940, op. cit., p. 697, sur la marginalisation des syndicats de salariés au niveau des décisions stratégiques. 2 ECK Jean-François, « Les réactions syndicales face aux fermetures d'usines dans le Nord : le cas de Lever, à Haubourdin », in LAMARD Pierre et et STOSKOPF Nicolas, 1974-1984, une décennie de désindustrialisation ? , op. cit., p.51-63. 406 CONCLUSION GENERALE Cette thèse avait pour objectif de s'interroger sur les conditions de travail et de vie des personnels de la Compagnie des Hauts-Fourneaux de Chasse pendant les Trente Glorieuses. Il a été nécessaire d'étudier leur identité, leur travail et leurs conditions d'existence. Dans un bassin mono-industriel, le poids des politiques d'entreprise est d'autant plus déterminant, mais elles sont elles-mêmes soumises aux choix de dirigeants contraints par l'environnement économique et politique. Les personnels ne sont pas non plus insensibles à cet environnement et interagissent avec les politiques menées. 1) Permanences et évolutions des recrutements pendant les Trente Glorieuses L'usine de Chasse ne compte plus qu'environ 560 salariés en janvier 1945. Mais après ce point bas, les effectifs connaissent d'importantes variations à l'intérieur d'une fourchette allant d'environ 700 à 1 000 individus jusqu'en 1966. Au total, près de 3 400 salariés ont travaillé aux HFC de janvier 1945 à juillet 1966, plus de 2 830 ont été recrutés, les étrangers représentant environ 57 % des recrutements1. Ils sont cependant minoritaires parmi les personnels pendant toute la période, par conséquent leur proportion élevée révèle la spécificité de leur emploi dont la durée est souvent limitée ; leur histoire variant suivant les nationalités concernées. Les Européens de l'Est, les Arméniens et les Grecs sont anciennement présents dans l'usine ; leurs trajectoires professionnelles ressemblent alors à celle des travailleurs français par la durée de leur présence2. À quelques exceptions près dont la révolte de 1956 en Hongrie, leurs effectifs déclinent jusqu'en 1966 en raison du tarissement des flux migratoires. Ces derniers demeurent actifs pour quatre autres nationalités : les 1 AMC, cahiers des personnels français n° 9, n° 10, n° 11 et cahiers des personnels étrangers n° 12, n° 13, n° 15, n° 16. 2 Pour les Français, voir le tableau 12 : Date d'entrée du personnel des HFC en 1954 suivant leur classification. 407 Portugais qui s'installent au début et à la fin de la période, puis par ordre croissant de taille de la communauté les Espagnols, les Italiens et les Algériens. Les travailleurs algériens jouent à plusieurs reprises un rôle spécifique dans l'histoire de l'usine en raison de l'encrage algérien de l'entreprise facilitant les recrutements, comme de leur statut permettant leur mobilité, et donc leur embauche ou leur renvoi. Les travailleurs français sont majoritaires dans l'usine jusqu'à sa fermeture. En revanche, ils deviennent minoritaires parmi les ouvriers pendant les dernières années : ce déclin traduit l'importance croissante que les étrangers prennent à ce moment-là pour gérer la poursuite des productions, en particulier les Algériens. Les travailleurs français sont essentiellement recrutés localement ; dans le bassin pour les ouvriers et certains employés, au-delà pour les plus qualifiés. Leur ancienneté en moyenne plus importante s'accompagne d'une mobilité professionnelle ascendante plus fréquente que pour les travailleurs étrangers (la situation n'évoluant que partiellement et tardivement pour les étrangers). Le sexe est un second critère de recrutement des personnels. Dans une usine sidérurgique, les personnels masculins sont largement majoritaires. Toutefois, bien que minoritaires, les fluctuations des recrutements de personnels féminins ont du sens (ils ont même été relativement importants pendant l'entre-deux-guerres pour les étrangères). Ils ont joué un rôle effectif en période de pénurie pendant la guerre et l'entreprise attache de l'intérêt à les poursuivre jusque dans l'après-guerre. En revanche, ils disparaissent pour les femmes étrangères à partir de la fin des années 1940 et pour les françaises à partir de la fin des années 1950. Elles sont progressivement remplacées par des hommes alors que les politiques paternalistes s'affaiblissent, que la modernisation augmente la productivité dans les bureaux et que surtout les politiques de restructuration protègent davantage les hommes. Un dernier critère de recrutement est l'âge. Les HFC ont depuis toujours formé leurs personnels, un ouvrier plus expérimenté encadrant un plus jeune. Dès la fin des années 1940 l'agglomération continue à jouer ce rôle pour des travailleurs non qualifiés. Mais pour les autres l'apprentissage se développe ainsi que les cours du soir ; la fonderie ou l'entretien étant les principales activités accueillant ces jeunes. À l'autre extrémité de la pyramide des âges, les personnels les plus anciens sont inversement de moins en moins nombreux. Le développement de l'État providence en est responsable, de même que les politiques d'entreprise contraintes par l'accroissement de la concurrence. 408 Ces politiques sont également reconnues et admises par les salariés. Elles peuvent concerner le rôle de la famille dans le recrutement. L'entreprise s'appuie sur elles pour développer un sentiment de reconnaissance et d'appartenance que l'on retrouve dans les témoignages. Elles sont cependant distinctes pour les Français et les étrangers : pour les premiers la famille joue un rôle de recommandation quand pour les seconds elle facilite la migration. Or bon nombre de migrants sont déjà mariés et la possibilité de faire venir leur conjoint est aussi la condition clef de leur installation durable et de la réussite de leur parcours migratoire. Ces politiques concernent aussi l'affectation à des postes de travail. Leurs logiques peuvent être genrées, comme racialistes dans le cas des travailleurs algériens pendant la guerre, car ils sont destinés aux travaux les plus durs et aux emplois les plus précaires. Les travailleurs français sont à l'inverse les plus protégés, notamment lorsqu'ils bénéficient des reclassements alors que les étrangers et les femmes servent de variable d'ajustement. Cependant, les Trente Glorieuses sont marquées par un affaiblissement des politiques traditionnelles et à leur mutation. Par exemple, les postes de travail attribués aux femmes vont finir par être occupés par des hommes. D'une manière générale, il est possible d'expliquer l'évolution de ces politiques par le rôle croissant de l'État, par l'évolution des dirigeants sur ces sujets ; mais aussi – en suivant un ordre croissant d'importance – par la modernisation, par les réorganisations régionales et par le contexte économique. La modernisation de l'outillage entraine une hausse de la productivité et la suppression de certains postes. Les hauts-fourneaux ont d'abord été touchés avec l'installation d'une machine à couler, puis la plupart des activités vont finir par l'être à leur tour. Les réorganisations régionales ont un effet constant sur l'emploi, depuis la fermeture de la cokerie à la fin de la guerre jusqu'aux conséquences de la création de la CAFL sur les commandes de fonte de l'usine. La fermeture des hauts-fourneaux de Givors a également pu favoriser quelques recrutements. Toutefois, les fluctuations les plus importantes de l'emploi sont dues aux différents cycles productifs : les effectifs remontent fortement au moment de la reconstruction – grâce aux Algériens –, puis ils s'effondrent après la création de la CECA avant de repartir après la mise à feu du hautfourneau n° 3 en 1956 suivi d'une phase d'expansion. Toutefois comme ce cycle exceptionnel de croissance ne s'accompagne pas des bénéfices escomptés, la situation devient critique en 1962-1963 après une détérioration des marchés de fontes et un grave incident technique. 409 Les dirigeants des HFC préparent activement une restructuration de l'usine, ce qui semble être leur dernière chance. Profitant de la faiblesse d'une entreprise qui a perdu ses filiales et qui est marginalisée, une nouvelle équipe dirigeante s'installe ; mais sa gestion entraine un dépôt de bilan et le licenciement des personnels. Cependant, une entreprise et un site ne meurent pas tout de suite. Le démantèlement permet l'emploi temporaire de quelques dizaines de travailleurs, tandis que la reconversion est suivie de l'installation de nouvelles entreprises. Or comme cette opération s'effectue progressivement, les travailleurs des HFC partent chercher ailleurs du travail, tandis que des travailleurs extérieurs à la commune viennent occuper les postes des nouvelles activités créées. Les reclassements s'effectuent néanmoins pour une large majorité de travailleurs, mais pas toujours dans de bonnes conditions. Demeure alors le problème du chômage. Les cinquantenaires sont les plus concernés : trop jeunes pour partir en retraite, ils sont aussi trop vieux et souvent affectés physiquement pour retrouver du travail. On improvise localement une prise en charge qui va être développée à plus petite échelle – au sens géographique du terme – et institutionnalisée en 1966 dès la Convention générale État-sidérurgie1, les HFC ne faisant pas partie de cet accord. L'étude des recrutements du personnel des HFC a permis de dégager leurs caractéristiques démographiques, mais aussi d'observer comment l'emploi est la conséquence de politiques diverses. En ce sens la fermeture de l'usine traduit une situation de crise qui se développe pendant les Trente Glorieuses et qui anticipe une situation plus générale à partir de 1974. Mais déjà, avant que ne se développe la crise et la question de l'emploi pour toutes les catégories de personnels, se pose celle du travail. 2) Les effets de la modernisation et des cycles productifs sur le travail Les activités de l'usine des HFC sont diversifiées et réparties dans plusieurs usines ou ateliers. Ainsi aux activités productives principales des hauts-fourneaux, de la 1 Chasse constitue alors un laboratoire qui préfigure va être développé de manière plus élaborée dans la Loire ou plus tard en Lorraine : voir DESHAYES Jean-Luc Deshayes, « L'employeur territorial, une notion utile pour comprendre la (dé)structuration de l'emploi », Travail et Emploi , n° 136, octobredécembre 2013. 410 fonderie et de la briqueterie-cimenterie s'ajoutent des activités périproductives diverses et des activités de service. Elles concernent la fabrication de produits sidérurgiques, la production d'énergie, le transport, la santé, l'administration, l'encadrement des loisirs, etc. Leur nombre diminue cependant dès le début de la période d'étude en raison de l'arrêt de la cokerie et des productions chimiques. Les métiers et professions sont également variés : il y a les fondeurs du hautfourneau, les menuisiers de la fonderie, mais aussi les cimentiers, les conducteurs de train ou de grue, les employés de bureau, les gardes, les infirmiers, etc. Certains métiers correspondent à une formation professionnelle et à une qualification, mais nombre d'entre eux sont des postes que l'on désigne par la tâche à effectuer et dont les savoirfaire ne sont pas reconnus : il s'agit des graisseurs, des casseurs ou des leveurs de fonte, des arroseurs, etc. Or la modernisation a eu un effet plus important sur les métiers et les postes de travail que sur l'emploi. Ainsi la machine à couler a fait disparaître les casseurs de fonte, alors que la mise à feu d'un haut-fourneau moderne a quasiment fait disparaître les fondeurs. En revanche, les machinistes et les appareilleurs, les pontonniers, les chauffeurs sont en nombre croissant. Après la guerre, les classifications Parodi permettent de fixer des salaires selon les groupes professionnels et de constituer des collèges électoraux. Elles superposent à des catégories plus anciennes comme employé ou ouvrier des classes comme manoeuvre, OS, et OP. Or la modernisation, c'est-à-dire la mécanisation puis l'automatisation – cette dernière étant limitée à Chasse – est censée avoir profité aux OS aux dépens des OP. Une étude par atelier montre une réalité plus complexe, les OP bénéficiant même de la modernisation à la centrale où ils deviennent plus nombreux. Les OS se substituent davantage aux manoeuvres, ce qui favorise une progression limitée, mais non négligeable des salaires pour les travailleurs, en particulier étrangers. Enfin, certains postes d'OS disparaissent eux aussi en raison de la modernisation. Toutefois, l'augmentation de la productivité permet d'en redistribuer en partie les fruits sur les salaires de l'usine, ce dont les OS profitent relativement le plus. Malgré l'essor de la loi et des conventions collectives, les hiérarchies salariales reposent sur un système de primes complexe et d'incitations à accroître l'engagement et la productivité individuelle dans le travail. Par conséquent l'amélioration du pouvoir d'achat dépend aussi de la possibilité d'effectuer des heures supplémentaires, ce qui est réclamé par les salariés – surtout ouvriers – et leurs représentants, du moins jusqu'à ce que la question de l'emploi le remette en cause. Le maquis des primes et des avantages 411 profite largement aux travailleurs français, les discriminations s'affaiblissent cependant à partir des années 1950, mais surtout quand elles sont liées à la nationalité et non au genre. La rémunération du travail féminin est considérée comme un revenu d'appoint jusqu'en 1966, ce qui justifie par exemple qu'on les licencie prioritairement. Les conditions de travail sont éprouvantes en raison de l'engagement nécessité par les travaux de force et les nombreux risques. Les journées sont également longues en raison des nombreuses heures supplémentaires effectuées et du travail posté dans plusieurs ateliers. Les conséquences sont repérables à travers les arrêts maladie, les accidents qui entrainent de nombreuses mutilations ou des décès. La modernisation de l'outil productif ne fait pas disparaître les risques, mais les renouvellent. Toutefois, c'est l'intensification des rythmes de production qui est le plus accidentogène : le nombre de décès au travail est le plus élevé en 1956 et en 1961-1962. Pour cette raison, l'amélioration du pouvoir d'achat des salariés est très relative : elle dépend en particulier de la capacité à pouvoir travailler davantage en évitant l'accident ou la maladie. Or leur fréquence limite nécessairement les revenus et la possibilité d'accroître leur consommation pour les ouvriers ; ce qui n'est pas le cas des autres catégories de travailleurs, en particulier des employés qui bénéficient de la croissance. Le travail s'est donc transformé rapidement pendant les Trente Glorieuses, en particulier en raison de la modernisation et de l'évolution des productions. Ses évolutions sont accompagnées par des politiques d'entreprise portant sur l'attribution des postes de travail, l'organisation des parcours professionnels et les rémunérations. Les politiques d'entreprise dépassent cependant largement le cadre du travail ou des recrutements. 3) Les politiques d'entreprise entre acceptation et remise en cause La nature des dirigeants a longtemps déterminé les politiques d'entreprise dont ont bénéficié les personnels. Pierre Cholat est le président historique de l'entreprise. Ses pratiques paternalistes reposent sur des valeurs à la fois conservatrices et chrétiennes acceptées par certains salariés, en particulier les cadres. Ces derniers sont en particulier engagés dans les oeuvres, la protection des familles, en particulier des veuves et des enfants. La famille du dirigeant est également présente dans l'entreprise comme à la 412 direction de l'usine, leurs épouses participent également aux oeuvres. Les pratiques vont s'éroder avec l'affaiblissement des politiques paternalistes. Cette érosion précède les changements les plus importants de dirigeants, Pierre Cholat commençant à les diminuer dans un contexte croissant de concurrence et alors que l'État social se développe. Les politiques menées concernent les travailleurs dans l'usine, tout comme leurs familles et reposent sur une série d'avantages matériels et symboliques (la gratuité, la taille et la localisation du logement par exemple). L'accès aux douches ou à l'infirmerie sont également des pratiques qui permettent aux familles de pénétrer dans l'espace – pourtant délimité et surveillé – de l'usine. À l'inverse, l'entreprise a la charge de financer la gestion du temps libre des familles. De nombreuses cérémonies et temps forts participent à la construction d'une identité commune fondée sur l'idée que le personnel fait partie d'une grande famille. Les recrutements familiaux participent de ce processus. Pourtant tous n'ont pas également accès à ces avantages. Les activités genrées développées, comme le sport ou les cours d'enseignement ménager sont l'occasion de diffuser les valeurs de l'entreprise. Toutefois, les organisations chargées du temps libre, mais aussi de la santé et de la gestion des risques des travailleurs sont de plus en plus confiées aux représentants des salariés. Confinés à un rôle de financeur, contraints par la législation sociale – par exemple le développement des congés limite la nécessité de gérer le temps libre –, les dirigeants des HFC investissent également de moins en moins dans les oeuvres. Jusqu'à la fermeture de l'entreprise les politiques sociales sont cependant maintenues et en partie renouvelées. Nombreuses, elles concernent par exemple la santé. Avec l'avènement de la sécurité sociale, elles auraient pu disparaître totalement, mais la mutualité est maintenue, bien que diminué. La gestion des arrêts de travail de longue durée en protégeant l'emploi ou en gérant les licenciements sont en revanche des pratiques nouvelles. Celles qui concernent le logement ont un rôle central. Le développement d'une urbanistique patronale débute avant la Première Guerre mondiale. La création d'un parc immobilier de plusieurs centaines de logements à Chasse et dans les communes limitrophes permet de loger entre la moitié et les trois quarts des personnels de l'usine. Elle leur offre des avantages en nature – comme la possibilité d'avoir un jardin–, mais elle permet aussi de les contrôler. La dimension, le confort et l'aspect du logement classe symboliquement les travailleurs et leurs familles, mais favorise aussi les solidarités. Elle est enfin un outil indispensable dans la gestion de 413 l'embauche, en particulier des travailleurs étrangers. Pour cette raison, alors que l'entreprise doit vendre son patrimoine afin de rembourser ses dettes, elle va toujours ménager ses logements. Cependant, le programme immobilier décidé après-guerre est péniblement achevé en 1960. Le développement des HLM offre une alternative intéressante et beaucoup moins coûteuse. Les politiques d'aide au logement se développent alors. Les HFC ont marqué de leur empreinte la commune de Chasse. Aujourd'hui on trouve encore un peu partout des traces de leurs constructions : le monument aux morts, l'église, en passant par les traces plus discrètes des voiries qu'ils ont tracées. Seules les infrastructures sportives ont réellement totalement disparu. La mairie a dû prendre le relais de l'entreprise. Elle le fait au niveau l'urbanisme à partir des années 1950, comme plus tard dans le domaine social. Elle n'est donc pas totalement prise au dépourvu au moment de la fermeture, mais elle manque bien souvent de moyens que l'État lui a accordés tardivement. Les personnels des HFC ont adopté ces politiques, ils les revendiquent, et en tirent de la fierté, mais ils se les approprient aussi. Différentes pratiques comme la perruque ou des mouvements d'opposition spontanés en sont autant de révélateurs. Les multiples infractions sont gérées avec une inégale bonhomie qui favorise une fois de plus les travailleurs masculins et français. Cela s'explique par les pratiques genrées et nationalistes des dirigeants, mais aussi parce que ces travailleurs sont les plus organisés. L'ancienneté de bon nombre de travailleurs français leur a donné la possibilité de s'intégrer à des réseaux de solidarité qui dépassent le cadre usinier et s'étend vers les quartiers ou la municipalité. Des institutions comme la mutualité constituées bien avant la Seconde Guerre mondiale sont autant de lieu de négociation et la création du CE marque après la guerre un tournant, car il permet aux salariés d'avoir accès aux discussion des conseils d'administration. Très rapidement ils s'en emparent pour établir leurs revendications, avant que des syndicalistes plus confirmés ne l'utilisent à leur tour. Deux syndicats dominent alors : la CGT et la CGT-FO. Dans l'après-guerre, ils sont encore peu influents. Le patronat qui a participé à la collaboration économique est affaibli, alors qu'une épuration est bien menée, sans toutefois le mettre en difficulté. Les personnels des HFC participent aux mobilisations de 1947, mais pas à celles de l'année suivante. Alors que les ouvriers de la Loire affrontent le patronat, ceux de Chasse font preuve d'une moindre combativité. Les motifs sont divers : moindre influence du parti communiste à Chasse, attitude appréciée 414 pendant la guerre de certains cadres de l'entreprise, distributions de primes, menace d'arrêt des activités. En 1951 puis en 1955, les grèves portent sur des revendications salariales. On ne se plaint cependant pas de l'effet de la modernisation sur l'emploi, même si les grèves peuvent être la conséquence d'une accumulation de mécontentements1. En 1961, alors que les grèves ont disparu du paysage social en France, les salariés entament une épreuve de force avec un conseil d'administration largement renouvelé. Les revendications portent toujours sur les rémunérations, mais elles sont aussi portées dans un climat de perte de confiance en raison de l'affaiblissement Pierre Cholat qui a si longtemps incarné l'entreprise. En 1963, dans un grave contexte de crise, une nouvelle mobilisation touche l'usine. Elle est d'une ampleur exceptionnelle en raison des risques d'arrêt de l'activité, mais aussi parce qu'il faut se faire entendre par des interlocuteurs puissants et distants. Pour la première fois, les dirigeants ne sont pas visés. Lors de cette première « situation d'usine », les pouvoirs publics sont interpelés, tandis que la CECA est critiquée. Les travailleurs et leurs dirigeants syndicaux soutenus par la population et les élus mobilisent une grande variété de moyens pour se faire entendre : réunions, interpellations d'élus, rédaction d'un manifeste, débrayages, etc. Un comité de défense est créé, il rassemble et coordonne des forces de toute nature dans la lutte. Cette première épreuve s'achève par une victoire, mais au prix d'importantes réductions de personnels et de sacrifices financiers. Lorsqu'en 1966 débute une seconde crise bien plus grave, l'entreprise n'est pas sortie de ses difficultés et n'a plus les moyens de réagir, ce qui est aggravé encore par l'arrivée d'une nouvelle équipe dirigeante. La mobilisation est inédite par son ampleur, sa durée et les moyens déployés. Elle utilise l'expérience passée et celle des luttes des autres bassins. Les travailleurs ne peuvent toutefois plus s'appuyer sur la direction pour affronter les pouvoirs publics : le pouvoir gaulliste est d'ailleurs directement visé, dans le contexte de l'après élection présidentielle de 1965. Les travailleurs conservent l'espoir dans le maintien des activités sidérurgiques en raison de leur caractère viable selon eux2. Ils peuvent d'ailleurs s'appuyer sur leur longue histoire et la qualité de leurs fabrications, source de fierté. Le progrès technique et la modernité de leur outillage est aussi mobilisé dans 1 Le progrès technique semble soulever peu d'opposition. Il n'est critiqué comme une fuite en avant qu'après la fermeture : voir ce qu'en pense l'ingénieur en chef des HFC Charles Réveil dans PASQUET Caroline, Chasse-sur-Rhône : un relais secondaire en mutation, op. cit., p. 17. 2 Comme en Lorraine dix ans plus tard : VIGNA Xavier, « Les ouvriers de Denain et de Longwy face aux licenciements (1978-1979) », Vingtième Siècle. Revue d'histoire, 2004/4, n° 84, p. 129-137, p. 30. 415 l'argumentaire. Dans cette lutte pour la survie, ils n'ont plus rien à perdre, mais si les mobilisations montent en intensité, elles ne se radicalisent pas et demeurent sous le contrôle des dirigeants syndicalistes et politiques locaux. Ces derniers rivalisent, mais coopèrent quand même. Ces combats n'ont pas empêché la fermeture, car il est impossible d'agir sur les conséquences de décisions prises à d'autres échelles que celle de la mobilisation – quand bien même le contexte de réorganisations régionales est su et reconnu de longue date par les responsables syndicaux –, mais ils n'ont pas non plus été menés en vain. L'interpellation des pouvoirs publics a permis de conserver des contacts dans le but de faciliter la reconversion et de permettre la gestion du reclassement et du chômage. Les HFC qui ont déposé le bilan, ont en charge leur financement et les bureaux du personnel sont désormais installés en mairie. Cela n'a pas empêché le nouveau propriétaire de mener une belle opération financière grâce au patrimoine de l'entreprise, preuve qu'elle avait encore des ressources au moment de sa fermeture1. * * * Après la fermeture de l'usine, les salariés des HFC sont partis vers d'autres entreprises de la région accomplir la suite de leurs parcours professionnels. Seule une minorité est « restée sur le carreau », une situation que l'on peut attribuer à une société des Trente Glorieuses réputée pour le plein emploi. En réalité, on assiste aussi pendant ces années à une mutation de la société et de la commune. Certes elle demeure une cité industrielle et un carrefour ferroviaire et désormais autoroutier relativement important, mais il suffit de discuter avec les anciens travailleurs et leurs enfants pour comprendre que derrière les regrets du bon vieux temps se cache aussi le constat que « la vie n'est 1 En 1966, les indemnités de licenciement s'élèvent pourtant. à 1 326 250,90 francs auxquels il faut ajouter 200 000 francs pour le FNE : ADI, 56J24, rapport des commissaires aux comptes de l'exercice 1965-1966 et rapport du CA à l'AG du 4 juillet 1967. 416 plus comme avant ». Ils parlent alors d'une époque où le patron n'était pas anonyme et pendant laquelle, pour certains, l'usine occupait une partie centrale de leur vie. 417 Sources : 1) Archives nationales 2012 026 : Archives du groupe Marine et archives liées au groupe Wendel déposées aux Archives nationales du monde du travail. 2012 026 577 : Documentation sur les sociétés du Groupe Marine 1919-1960. 2012 026 601 : Fusion-absorption de la Compagnie des Fonderies, Forges et Aciéries de Saint-Étienne 1946-1957. 2012 026 602 : Apport partiel d'actifs à la Compagnie des Ateliers et Forges de la Loire 1953-1958. 2012 026 603 : Apport partiel d'actifs à la Compagnie des Ateliers et Forges de la Loire. détail des apports 1953-1954. 2012 026 605 : Fusion-absorption de la Société des Aciéries de Firminy 1957-1963. 2012 026 819 : Compagnie des Hauts-Fourneaux de Chasse. Administration 1953-1973. 2012 026 820 : Compagnie des Hauts-Fourneaux de Chasse. Assemblées générales 1950-1975. 2012 026 821 : Compagnie des Hauts-Fourneaux de Chasse. Liquidation des activités sidérurgiques1965-1967. 2012 026 823 : Compagnie de Givors (anciennement Compagnie des Hauts-Fourneaux et Fonderies de Givors). Renseignements généraux 1913-1966. 2012 026 824 : Administration de la participation 1957-1967. Base Léonore : Base de données Léonore, http://www.culture.gouv.fr/public/mistral/leonore_fr. Voir les dossiers de : Paul Berthier, Charles Cholat, Jules et de Léon Marrel, Robert Tremeau 418 2) Archives Départementales a) Archives Départementales de la Loire 117J : Archives de la Compagnie des Forges et Aciéries de Saint-Étienne (archives soumises à autorisation) À l'intérieur de la sous-série, seules certaines sources ont été retenues, soit : 117J1 : Conseil d'administration ; procès verbaux des délibérations. 18 octobre 1865 27 février 1875. 117J3 : Conseil d'administration ; procès verbaux des délibérations. 24 avril 1875 - 4 octobre 1888. 117J4 : Conseil d'administration ; procès verbaux des délibérations. 25 octobre 1888 14 octobre 1897. 117J5 : Conseil d'administration ; procès verbaux des délibérations. 28 décembre 1897 15 octobre 1910. 117J6 : Conseil d'administration ; procès verbaux des délibérations. 29 novembre 1910 - 28 octobre 1920. 117J7 : Conseil d'administration ; procès verbaux des délibérations. 11 décembre 1920 3 juin 1929. 117J8 : Conseil d'administration ; procès verbaux des délibérations. 2 juillet 1929 - 1er octobre 1951. 117J9 : Conseil d'administration ; procès verbaux des délibérations. 5 décembre 1951 30 octobre 1952. 117J21 : Ordres de service. 17 novembre 1939 - 13 décembre 1944. 117J22 : Ordres de service. 25 janvier 1945 - 29 octobre 1954. 117J23 : Ordres de service. 10 décembre 1954 - 8 septembre 1955. 117J30 : Notes intérieures. 1956 - 1963 117J31 : Notes de service. 1957 – 1967 419 211J : Archives Henri Malcor, Directeur de la Compagnie des ateliers et forges de la Loire (CAFL). À l'intérieur de la sous-série, seules certaines sources ont été retenues, soit : 211J1 : Préparation de la fusion. – Dossier général : notes, correspondances (19661970). Comité Creusot-Loire, réunions (1966-1967). Correspondance avec les ministères et M. Ferry président de la Chambre syndicale de la sidérurgie française (1966-1972). 211J4 : Généralités. – Conseil de direction et comité d'entreprise : comptes-rendus d'Henri Malcor, notes (1960-1970). Correspondance avec les ministères (1957-1967). Correspondance avec Pierre Cholat, vice-président de la CAFL (1953-1955). 211J5 : Préparation du plan : Étude économique de la sidérurgie française (1955-1970). Notes et rapports (1966-1973). Préparation d'une convention sociale dans le cadre du plan professionnel : rapports, notes, correspondance (1957, 1966-1968). 2W340, Comité départemental de confiscation des profits illicites. 85W 137-140, Entreprises mises sous séquestre de leurs biens pour collaboration ou profits illicites (1944-1947). 118VT21, Cabinet du préfet. b) Archives Départementales du Rhône 34J : Fonds de la Compagnie des hauts-fourneaux et fonderies de Givors, établissements Prénat (1840-1962). À l'intérieur de la sous-série, seules certaines sources ont été retenues, soit : 34J7 : Assemblées générales, rapports et comptes-rendus imprimés 1917-1962. 34J189 : Documentation imprimée, correspondance émanant de diverses organisations professionnelles, 1939-1948. 34J222 : Comité des Forges de la Loire puis Chambre syndicale des Aciéries et hautsfourneaux du bassin de la Loire et Association des Syndicats métallurgiques patronaux du bassin de la Loire, 1899, octobre–1948, novembre. 420 34J223 : Comptoir des Fontes hématites (1920-1934). 34J230 : Chambre syndicale de la sidérurgie, circulaires, bulletins (juillet 1946décembre 1947). 130W : Archives des services régionaux du ministère de la production industrielle (circonscription de Lyon 1941-1953). 130W78-1773 : Dossier de la Compagnie des Hauts-Fourneaux de Chasse. 283W : Archives du Commissariat général de la République à la Libération. 283W91 : Épuration économique. Industries de la région Rhône-Alpes. 283W170-171 : Infractions économiques, marché noir. 394W : Juridictions d'exception à la Libération dans le ressort de la cour d'appel de Lyon. Rhône, Ain, Loire. 1944-années 1970. 394W593-726 : Fonds du commissaire du gouvernement. 668W : Cabinet du préfet du Rhône. 668W68 : Séquestres à la Libération, instructions. 3942W : Comité de confiscation des profits illicites (1944-1946). 3942W1-346 : Dossiers. 3942W340, Répertoire chronologique des affaires examinées par le comité. 3942W341, Protection des biens des personnes ou sociétés devant le comité. c) Archives Départementales de l'Isère 56J : Fonds de la Compagnie des Hauts-Fourneaux de Chasse (1873-1979). A l'intérieur de la sous-série, seules certaines sources ont été retenues, soit : 56J1 : Actes constitutifs de la Compagnie (1873-1885) ; dépôt des statuts et collection des originaux modifiés successivement en 1920, 1922, 1931, 1936, 1938, 1940, 1941, 1942, 1955, 1960, 1961, 1968 ; historique des exploitations de hauts-fourneaux à Chasse de 1856 à 1880 dressé à l'intention de Monsieur Couturie ingénieur en chef de 421 l'artillerie navale pour obtenir des commandes (1936) ; extraits des statuts et des actes constitutifs (1873) ; histoire du capital social de 1873 à 1967. 56J2 : Augmentations de capital : pièces officielles et justificatifs d'annonce légale. 56J3 : Inscription au registre du commerce ; attestations, correspondance. Registre du commerce de Lyon (1920-1956) ; registre du commerce de Vienne (1966-1977) ; modification d'inscription consécutive au transfert du siège social de Lyon à Vienne (1966) ; dépôts de pièces au tribunal de commerce de Vienne ; délibérations du Conseil d'Administration et des Assemblées Générales ; extraits des casiers judiciaires des dirigeants, annonces légales, exemplaire des statuts modifiés (1968-1976) ; immatriculation à l'Institut national de la statistique et des études économiques, INSEE (1957). 56J4 : Règlement judiciaire. Situation provisoire au 31 décembre 1965, dépôt de bilan la 16 février 1966, organisation du règlement judiciaire ; étude de rentabilité par la société fiduciaire d'expertise et d'organisation (Fideo) ; concordat avec les créanciers ; rapport de la société anonyme fiduciaire suisse sur la valeur de la réalisation des actifs de l'entreprise. 56J5 : Procès verbaux du Conseil d'administration 1873-1889. 56J6 : Procès verbaux du Conseil d'administration 1890-1899. 56J7 : Procès verbaux du Conseil d'administration 1899-1909. 56J8 : Procès verbaux du Conseil d'administration 1909-1922. 56J9 : Procès verbaux du Conseil d'administration 1922-1929. 56J10 : Procès verbaux du Conseil d'administration 1929-1940. 56J11 : Copies des procès verbaux du Conseil d'administration 1939-1955. 56J12 : Procès verbaux du Conseil d'administration 1940-1957. 56J13 : Procès verbaux du Conseil d'administration 1957-1968. 56J14 : Procès verbaux du Conseil d'administration 1968-1979. 56J15 : Réunions des Conseils d'administration. Ordre du jour, convocations, procèsverbaux (projets et définitifs originaux signés) 1960-1965. 56J16 : Réunions des Conseils d'administration. Ordre du jour, convocations, procèsverbaux (projets et définitifs originaux signés) 1965-1972. 56J22 : Rapports des Conseil d'administration et des commissaires aux comptes 19431956. 56J23 : Rapports des Conseil d'administration et des commissaires aux comptes 19561963. 422 56J24 : Rapports des Conseil d'administration et des commissaires aux comptes (originaux) 1917-1968. 56J27 : Procès Verbaux des Assemblées Générales 1945-1968. 56J28 : Procès Verbaux des Assemblées Générales et rapports des Conseils d'administrations et des Commissaires aux comptes 1968-1978. 56J30 : Livre des inventaires : registres des bilans, comptes des profits et pertes, comptes d'exploitation 1912-1958. 56J31 : Inventaires 1945-1959. 56J34 : Évaluation des biens mobiliers et immobiliers lors de la prorogation des statuts de 1956, par secteur géographique : rapports sur la valeur des concessions et établissements, Bourg-Saint-Maurice, Chasse-sur-Rhône, Fauches et Grandchamp (Saône-et-Loire), forêt de Fromentay (Isère), concessions du Djebel Bou Amrane, du Masseguin (Lozère), de Montredon-Labes-Sonnié (Tarn), terrains à Pont-de-Clay (Isère), biens des sociétés des Mines de la Têt (Pyrénées orientales) ; cartes et plans. 56J35 : Relevés des propriétés. Pyrénées-Orientales, propriétés de la société des mines de la Têt et de la Société auxiliaire des mines des Pyrénées-Orientales à Vernet-lesBains, Escarro, Sahorre, Corneilla-de-Conflent, Thorrent (mars 1958) ; situation des propriétés bâties et non bâties des Pyrénées-Orientales (1972) ; Djebel Bou Amrane (1964) ; Dordogne, concession des mines de Chaillac (sans date) ; Savoie, Bourg-SaintMaurice (mars 1958) ; Isère, Pont-de-Claix, Saint-Hilaire-de-Brens, Moras (mars 1958) ; région de Chasse, liste des contrats de 1864 à 1969, hypothéqués. 56J36 : Contrats d'acquisitions immobilières à Chasse-sur-Rhône et dans les communes voisines (15 contrats) 1854-1961. 56J37 : Ventes et expropriations à Chasse, Ternay et Givors 1930-1932 et 1953-1975 (29 contrats). 56J38 : Baux et conventions à Chasse. Opérations de voirie sur les terrains de la Compagnie, correspondance avec le maire de Chasse, plan cadastrale des cités ouvrières (1930-1938) ; baux passés sur les communes de Chasse (1946-1965), Givors (19581965). 56J57 : Autorisations administratives. Occupation du domaine public (1911-1972) ; établissements insalubres, dangereux ou incommodes (1913-1949) ; appareils à vapeur (1926-1961) ; installation de tuyauterie en plomb (1928) ; déviation des chemins ruraux, vicinaux et départementaux (1930-1941) ; de chemins de halage du Rhône (1936) ; licences de fabrication et de vente de matériel de guerre (1936-1938) ; inscription sur la 423 liste des fournisseurs de la Marine et de l'Armement ( 1937-1953) ; station de gaz et extraction des graviers du Rhône (1949) ; débit de boisson (1953). Relations avec les services publics : pose de lignes électriques (1921-1964) ; notifications d'installations téléphoniques (1952-1965) ; relations avec la SNCF : indemnités pour retard des wagons (1957-1958) ; embranchements, gros travaux (1944-1957) ; électrification des embranchements (1952-1957) ; contrats d'exploitation de ces embranchements (18781962), plans. 56J58 : Abonnements à des services publics. Téléphone (1901-1950) ; Société de distribution d'eau intercommunale (1949) ; électricité (1918-1945) ; accords de crédit avec la Sécurité Sociale (1963-1965) ; concession trentenaire au cimetière de Chasse. Accords avec des fournisseurs : accord entre les entreprises françaises productrices de fonte (1965) ; statuts du Comptoir de vente de minerais de fer des Pyrénées-Orientales, COFEPY (1946) ; accord avec Ferimport SARL (1954), statuts de cette société ; Société du manganèse (1954) ; Société Saint-Gobain, Chauny et Cirey (1955) ; Mines de Timezrit (1957) ; Société minière et métallurgique du Périgord (1958) ; MarineHomécourt-Saint-Étienne (1959) ; Comptoir des houillères du Centre et du Midi (19601964) ; Entreprise Colomb (1961) ; Société commerciale des fontes (1962) ; Mobil Oil (1963) ; Société d'assistance et de défense (1963) : Institut de recherche de la sidérurgie française, IRSID (1964-1966) ; Établissements Jacques Diserens, Zurich (1966). 56J59 : Fiscalité. Patente, dégrèvement (1947-1949) ; déclarations du nombre de salariés (1954-1965) ; documentation juridique (1957-1965). Impôts fonciers : demandes de dégrèvements pour chômage d'usine et pour démolitions (1949-1969). Déclarations : de constructions nouvelles (1929-1965) ; d'achèvement des travaux et de salubrité (1939-1963) ; bulletin auxiliaire de propriété bâtie (1949-1955, 1960-1967) ; plans de l'usine de Chasse. 56J60 : Déclarations d'honoraires, commissions, ristournes, frais de déplacement, jetons de présence, pensions et rentes viagères : correspondance avec les bénéficiaires, listes informatiques des ristournes, bordereaux de déclaration 1952-1962. 56J61 : Déclarations d'honoraires, commissions, ristournes, frais de déplacement, jetons de présence, pensions et rentes viagères : correspondance avec les bénéficiaires, listes informatiques des ristournes, bordereaux de déclaration 1963-1966. 56J62 : Rapport relatif à la situation financière au 30 juin 1963 par la Société anonyme fiduciaire suisse. 424 56J63 : Litiges avec l'Union des consommateurs de ferrailles de France et l'Association des consommateurs et négociants en ferrailles : procès verbaux de conciliation 12 mai 1958. 56J64 : Contrôles de la production de ferrailles par la Société anonyme fiduciaire suisse pour la Haute-Autorité de la Communauté Économique du Charbon et de l'Acier, 29 avril-7 mai 1958 et 27-29 mars 1961. 56J65 : Réponses au questionnaire annuel du Groupement de l'industrie sidérurgique : analyse de la situation juridique, de la production, des bilans, des états du personnel, des rapports avec la CECA, des conséquences de la cessation d'activité (1961, 1962, 1966). 20U : Cour de justice de Grenoble. 20U148 : Entrées, cabinet d'instruction de la Cour de justice. 20U149 : Répertoire alphabétique d'un registre entrées. 20U151 : Répertoire alphabétique des non-lieux. 21U : Chambres civiques de l'Isère, de la Drôme et des Hautes-Alpes. 21U23 : Répertoire alphabétique des inculpés. 2973W1-1385 : dossiers de demande de cartes de séjour constitués dans les années 1930-1950. 2973W32 pour B. Giuseppe. 2973W83 pour B. Martino. 2973W205 pour G. Macar et sa femme. 2973W207 pour G. Eudoxie. 2973W237 pour G. Apolo et sa femme. 2973W269 pour K Panayotis et sa femme K Alexandra. 2973W272 pour K. O. Garabed et sa femme Archalous. 2973W284 pour K. Elyasse, sa femme Sapoulie et leur fils Manoug. 2973w308 pour L. Antonio et son fils L. Fernand. 2913W653 pour F. François. 2973W1177 pour F. Antonio. 2973W1258 pour C. Gaetano et sa femme. 2973W1290 pour J. Eugène et sa femme. 425 2973W1303 pour D. M. Pascal et sa femme. 4252W1-458 : dossiers accordés de demande de naturalisation et de réintégration dans la nationalité française. 4252W111pour G. Krikor et sa femme. 4252W136 pour F. Blaise et sa femme. 4252W152 pour D. Haiganouche et son mari. 4252W220 pour G. Cristobal et sa femme. 4252W255 pour F. Antonio. 3) Archives municipales a) Archives de Chasse-sur-Rhône Archives de la Compagnie des Hauts-Fourneaux de Chasse. Les registres du personnel : Le cahier 6 du personnel français (période 1938-1941). Le cahier 7 du personnel français (période 1942-1947). Le cahier 8 du personnel français (période 1948-1949). Le cahier 9 du personnel français (période 1950-1952). Le cahier 10 du personnel français (période 1953-1964). Le cahier 11 du personnel français (période 1965-1966). Le cahier 10 du personnel étranger (période 1921-1943). Le cahier 11 du personnel étranger (période 1923-1945). Le cahier 12 du personnel étranger (période 1945-1947). Le cahier 15 du personnel étranger (période 1953-1962). Le cahier 16 du personnel étranger (période 1963-1966). Les listes des personnels pour les élections prud'homales de 1954 et 1960. Le fichier mécanographique du personnel de l'entreprise. 426 1H3 : Cartons de l'entreprise. Un carton « statuts association entre-aide aux travailleurs des Hauts-Fourneaux ». Un carton « Chômage licenciements hts fourneaux 1966-1967 ». Un carton « Fermeture Hauts-Fourneaux de Chasse 1967-1968, licenciements, comité de défense ». Un carton « Hauts-Fourneaux de Chasse fermeture ». Deux cartons « chômage licenciement HFC 1966-1967 ». Un carton « mutualité HFC ». Quatre cartons « HFC certificats de travail ». 1B3 : Délibérations du Conseil municipal Un carton « Délibérations du Conseil municipal 1950-1964 ». Deux cartons intitulés « Registres des délibérations du Conseil municipal 1942-1960 » et « Registres des délibérations du Conseil municipal 1960-1978 ». 1F1 : Recensements 1962 et 1968. Deux cartons. 1E1 : Étrangers. Un carton. b) Bibliothèque municipale de Givors 1D : Registres des délibérations du Conseil municipal 1D27 : Conseil municipal 20 octobre 1944 - 9 décembre 1947 1D28 : Conseil municipal 6 janvier 1948 - 24 juillet 1950 1D29 : Conseil municipal 26 juillet 1950 - 24 juillet 1953 1D30 : Conseil municipal 22 août 1953 - 8 août 1955 1D31 : Conseil municipal 30 septembre 1955 - 21 octobre 1957 1D32 : Conseil municipal 16 décembre 1957 - 16 novembre 1959 1D33 : Conseil municipal 5 décembre 1959 - 9 février 1961 427 1D34 : Conseil municipal 16 mars 1961 - 14 décembre 1963 1D35 : Conseil municipal 27 mars 1964 - 23 décembre 1966 4) Sources imprimées et ressources en ligne a) Périodiques et publications diverses Journal officiel : 21 octobre 1933, page 10 788 : Lucien Cholat recevant la légion d'honneur au grade de chevalier 22 septembre 1921, page 10 877 : Pierre Cholat recevant la légion d'honneur au grade de chevalier. 12 août 1934, page 8508 : Lucien Cholat recevant la médaille de bronze décernée pour récompenser les services rendus à la mutualité. 24 septembre 1941, page 4108 : Antoine de Tarlé est nommé sous-directeur de l'école polytechnique. Le Progrès : Années 1956, 1963,1966 Accessible à la Bibliothèque municipale de la Part-Dieu. Le Gaulois : Dimanche 10 mars 1929, p. 2 : Pierre Doulcet se fiançant à Hélène Cholat, http://gallica.bnf.fr/ark:/12148/bpt6k541550h/f2, [dernière consultation le 31 décembre 2016] Le Figaro : 6 avril 1940, p.2 : pour les fiançailles de Georges Albert de Benoist, http://gallica.bnf.fr/ark:/12148/bpt6k410553f/f2, [dernière consultation le 18 août 2016]. 428 13 octobre 1940, p.2 : pour le mariage de Georges Albert de Benoist, http://gallica.bnf.fr/ark:/12148/bpt6k4107299/f2.item, [dernière consultation le 18 août 2016]. Presse de l'Union des femmes françaises http://gallica.bnf.fr/html/und/presse-et-revues/union-des-femmes-francaises-uff, [dernière consultation le 4 janvier 2018]. Union des associations des anciens élèves des écoles supérieures de commerce. Annuaire 1913 , général Paris, 1913, 440 http://gallica.bnf.fr/ark:/12148/bpt6k55682995.image.langEN.swf, p., [dernière consultation le 7 mars 2015]. École professionnelle de Voiron : http://www.fbuisson.fr, [dernière consultation le 31 juillet 2016]. UIMM : Histoire de l'UIMM, http://www.uimmlyon.com/representer/histoire, [dernière consultation le 31 juillet 2016]. Fiche EDF unité de production Alpes, [pdf] : « fiche barrage du Sautet, http://energie.edf.com/fichiers/fckeditor/Commun/En_Direct_Centrales/Hydraulique/Ce ntres/Les_Alpes/publications/document/fiche_sautet/, [mis en ligne en septembre 2013]. Entreprises coloniales : Sur les mines du Zaccar, http://entreprises-coloniales.fr/index.html, [dernière consultation le 16 août 2016]. 429 MERLIN Jacques, « Le service secret du camouflage du matériel (CDM) », bulletin de l'association Symboles et Traditions, n° 132, p. 7-11, http://www.symboles-ettraditions.fr/articlesmembres/merlin/cdm/pagecamouflage.htm., [dernière consultation le 8 décembre 2017] b) Études statistiques Annuaire statistique de la France , INSEE, Paris, 1966, 565 p. et annexes. Annuaire statistique de la France , INSEE, Paris, 1968, 655 p. et annexes. Tableaux statistiques de comparaison résultats du baccalauréat, http://cache.media.education.gouv.fr/file/47/9/5479.pdf, [dernière consultation le 31 juillet 2016]. c) Biographies Les Annales des Mines, http://www.annales.org/ Biographies de : Alexis Aron, Jules Aubrun, Paul Berthier, Louis Charvet , Léon Daum, Albert Denis, Théodore Laurent, André Legendre, Henri Malcor, Pierre Ricard Centre virtuel de la connaissance sur l'Europe : Michel Bokanowski : https://www.cvce.eu/content/publication/2000/3/22/2cd683cee3d1-4c6f-b8f6-5f773f01b4f5/publishable_fr.pdf, [dernière consultation le 21 août 2017]. Assemblée nationale : Biographie Noël Chapuis, Assemblée nationale, http://www2.assemblee- nationale.fr/sycomore/fiche/%28num_dept%29/1651, [dernière consultation le 17 août 2017] 430 Bibliothèque nationale de France : Antoine de Tarlé, http://data.bnf.fr/13085869/antoine_de_tarle/, [dernière consultation le 23 novembre 2015]. Who's Who, biographies : Félix Rista, https://www.whoswho.fr/decede/biographie-felix-rista_9954, [dernière consultation le 4 mai 2017]. Base de données généalogiques Michal : Généalogie Robert et Bernard Tremeau, http://www.cgvvr.org/michal/dat20.htm, [dernière consultation le 11 avril 2015]. Geneanet : Antoine de Tarlé, http://gw.geneanet.org/pierfit?lang=en&p=antoine&n=de+tarle, [dernière consultation le 1re mai 2017] 5) Archives privées Documents d'entreprise – tracts, correspondances, prospectus publicitaires : De Maurice Rollat, Gérard et Christiane Pastorino, Éric Combaluzier, Michel Parret. Correspondance et manuscrits recueillis pour la thèse : Par courriels avec Janine Bouillet, Christiane Pastorino, Éric Combaluzier, Michel Parret. Manuscrit de Georges Charrier retraçant sa carrière. Cartes postales : De Maurice Rollat, Gérard et Christiane Pastorino, Éric Combaluzier, Michel Parret. Photographies : De Éric Combaluzier, Michel Parret. 431 6) Sources audiovisuelles -Le court métrage « L'enfer des hommes » conservé en mairie de Chasse-sur-Rhône. 7) Sources orales Témoignages recueillis pour mon mémoire de maîtrise à partir d'un questionnaire1 : Georges Charrier et Fernand Abel le 15/03/2000, chez Fernand Abel à Chasse (deux heures). Georges Charrier et Mohamed Safer 22/04/2000, chez Georges Charrier à Ternay (deux heures). Georges Charrier est né en 1926. Il débute en 1942 à l'usinage de la fonderie comme ajusteur. Puis il devient infirmier en 1948 et le demeure jusqu'en 1961. Fernand Abel est né en 1911. Engagé en 1933 comme leveur de fonte, il fini sa carrière en 1968 comme chef d'équipe. Mohamed Safer est né en 1929. Il débute sa carrière come manoeuvre au HautsFourneaux en 1947 et l'achève dans le même atelier en 1966 comme contremaître. Témoignages recueillis pour mon mémoire de master 2 à partir d'un questionnaire2 : Simone Arcondara le 11/03/2013, à son domicile (deux heures). Janine Bouillet le 24/02/2012, plusieurs rencontres en mairie de Chasse, vernissage, archives, etc. Simone Arcondara est née en 1932. Engagée comme secrétaire en 1948 aux services de la Sécurité Sociale situés dans l'usine, elle est licenciée en 1966. Elle poursuit sa carrière alors dans des locaux à Givors. 1 2 Annexe 13. Annexe 14. 432 Janine Bouillet est née en 1935. Elle est secrétaire de Georges de Benoist de 1954 à 1958 et quitte l'usine sur sa demande. Témoignages recueillis pour ma thèse à partir d'un questionnaire 1 : Gérard et Christiane Pastorino, Marie-Louise Charrier le 06/01/2015, à leur domicile (deux heures). Andrée Jobert le 06/05/2016, à son domicile (1 heure). Gérard Pastorino est né 1939 en Algérie à Bougie. Rapatrié en France avec son père – contremaître des mines de Bou Amrane –, il entre dans l'usine en 1956 comme manoeuvre au haut-fourneau, puis il devient échantillonneur au laboratoire en 1962. Il est licencié en 1963. Christiane Pastorino est née en 1939. Elle est employée aux écritures du bureau de la Sécurité Sociale de l'usine de 1958 à 1965. Andrée Jobert est née en 1923. Elle a été employée au bureau de la fonderie de 1941 à 1966. Elle est restée dans ce service après qu'il ait été transféré dans les grands-bureaux en 1961. Témoignages reccueillis par conversation téléphonique 2 : Dilmi Bencheikh le 01/05/2017 Jacques Bernet le 02/05/2017. Dilmi Bencheikh est né en 1928. Il a débuté à l'agglomération en 1948 et est conducteur de charriot au haut-fourneau en 1952 jusqu'à la fermeture en juillet 1966. Jacques Bernet est né en 1937. Son père ouvrier de l'entretien étant décédé, les HFC l'embauchent avec son frère et sa mère. Il a été ajusteur à la briqueterie cimenterie puis aide chimiste au laboratoire de 1956 à 1963. Témoignages recueillis lors de divers évènements : Conférences des 17 et 20 mai et vernissage du 12 mai 2016 dans le cadre de Patri/malle « à feu perdu » à Chasse-sur-Rhône. 1 2 Ibidem. Annexe 15. 433 Anciens travailleurs : Saturno Colangeli, Jean Montoya Enfants de travailleurs : mesdames Goût, Domeyne, Lucidi, Criner, Rollat. 434 BIBLIOGRAPHIE : 1) Méthodologie A) Généralités -AGULHON Maurice (dir.), La ville de l'âge industriel. Le cycle haussmannien, Éditions du Seuil, Paris, 1998, 734 p. -BLOCH Marc, Apologie pour l'histoire ou le métier d'historien, Armand Colin, Paris, 2012, 159 P. -BOURDIEU Pierre, La domination masculine , Editions du Seuil, Paris, 2002, 182 p. -CASTEL Robert, Les métamorphoses de la question sociale , Gallimard, Paris, 1995, 813 p. -CHARLES Christophe, « Quels combats pour l'histoire sociale aujourd'hui ? », Histoire et sociétés, n° 25-26, avril 2008, p.160-167. -DELACROIX Christian, DOSSE François, GARCIA Patrick, OFFENSTADT Nicolas (dir.), Historiographie, concepts et débats, tomes 1 et 2 , Gallimard, coll. Folio histoire, Paris, 2010, 1325 p. -DEWERPE Alain, « Miroirs d'usines : photographies industrielles et organisation du travail à l'Ansaldo (1900-1920) », Annales Économies, Sociétés, Civilisations, 42e année, n° 5, 1987, p. 1079-1114. -DUBY Georges et WALLON Armand (dir.), Histoire de la France rurale, tome 4, Éditions du seuil, première édition 1977, 1992, Paris, 760 p. -DUBY Georges et PERROT Michelle (dir.), l'Histoire des femmes en Occident, Plon, Paris, 1991-1992, 1ère édition, 5 tomes, 2977 p. -GERVEREAU Laurent, Les images qui mentent. Histoire du visuel au XXe siècle , Seuil, Paris, 2000, 458 p. 435 -GRISET Pascal et BOUVIER Yves, « De l'histoire des techniques à l'histoire de l'innovation. Tendances de la recherche française en histoire contemporaine », Histoire, économie & société 2012/2 (31e année), p. 29-43. -JARRIGE François, « Discontinue et fragmentée ? Un état des lieux de l'histoire sociale de la France contemporaine », Histoire, économie et société , 2012/2, 31e année, p. 45-59. -LEPETIT Bernard (dir.), Les formes de l'expérience. Une autre histoire sociale, Albin Michel, Paris, 2013, 383 p. -MICHEL Alain, « Les images comme source d'une histoire pratique du travail à la chaîne : Renault (1899-1947) », Histoire et sociétés, n° 23, septembre 2007, p. 76-89. -NOIRIEL Gérard, Qu'est-ce que l'histoire contemporaine ? , Hachette, Paris, 1998, 255 p. -NOIRIEL Gérard, Introduction à la socio-histoire, Paris, La Découverte, Paris, 2006, 121 p. -REVEL Jacques, « Micro-analyse et construction du social », in REVEL Jacques (dir.), Jeux d'échelles. La micro-analyse à l'expérience, Éditions du Seuil, 1996, 243 p., p. 1536. -THÉBAUD Françoise, Écrire l'histoire des femmes et du ge nre, ENS Éditions, Lyon, 2007, 312 p. B) Sources orales -BEAUD Stéphane et WEBER Florence, Guide de l'enquête de terrain, La Découverte, Paris, 2010, 334 p. -BOURDIEU Pierre, « L'illusion biographique », Actes de la recherche en sciences sociales, Vol. 62-63, juin 1986. P. 69-72. - DESCAMPS Florence, L'historien, l'archiviste et le magnétophone. De la constitution de la source orale à son exploitation , CHEFF, Paris, 2001 pour la première édition, 864 p., [également mis en ligne par open éditions books en 2011], http://books.openedition.org/igpde/104. 436 -SIRNA Francesca, « L'enquête biographique : réflexions sur la méthode », in AGGOUN Atmane (dir.), Enquêter auprès des migrants, Le chercheur et son terrain, L'Harmattan, 2009, 164 p., p. 9-30. 2) Histoire politique -ARTIÈRES Philippe et ZANCARINI-FOURNEL Michelle (dir.), 68, une histoire collective (1962-1981), La Découverte, Paris, 2015, 849 p. -AZÉMA Jean Pierre et BÉDARIDA François (dir.), La France des années noires, tome 1 et 2, Points Histoire, Éditions du Seuil, 2000, 580 et 634 p. -BARASZ Johanna, « De Vichy à la Résistance : les vichysto-résistants 1940-1944», Guerres mondiales et conflits contemporains , 2011/2, n° 242, p. 27-50. -BERGÈRE Marc (dir.), L'épuration économique en France à la Libération, Presses Universitaires de Rennes, 2008, 344 p. -BONNEUIL Christophe, PESSIS Céline, TOPÇU Sezin (dir.), Une autre histoire des « Trente Glorieuses », La Découverte, Paris, 2013, 309 p. -BOZARSLAN Hamit, DUCLERT Vincent, KÉVORKIAN Raymond, Comprendre le génocide des Arméniens, Tallandier, Paris, 2015, 494 p. -HOBSBAWM Eric J., L'Ère des révolutions, Editions Complexe, Paris, 2000, 417 p. -MARSEILLE Jacques, Empire colonial et capitalisme français, His toire d'un divorce, Albin Michel, Paris, 1984, 465 p. -PAXTON Robert, La France de Vichy 1940-1944, Éditions du Seuil, coll. « PointsHistoire », 1973, 380 p. -PERVILLÉ Guy, De l'Empire français à la décolonisation, Hachette, Paris, 1991, 255 p. -RONCAYOLO Marcel, Le monde et son histoire , Vol. 3, collection bouquins, Éditions Robert Laffont, Paris, première édition 1985, 1996, 1005 p. -RONCAYOLO Marcel, Le Monde et son histoire, Vol. 4, collection bouquins, Éditions Robert Laffont, Paris, première édition 1985, 1991, 1053 p. -ROUSSO Henry, « L'organisation industrielle de Vichy (perspectives de recherches) », Revue d'histoire de la Seconde Guerre mondiale, n° 116, octobre 1979, p. 27-44. 437 -ROUSSO Henry, « L'Épuration en France, une histoire inachevée », XXe siècle, revue d'histoire, n° 33, janvier-mars 1992, pages 78-105. 3) Histoire économique A) Généralités -ASSELAIN Jean Charles, Histoire économique de la France du XVIIIe siècle à nos jours, Tome 1 et 2, Coll. Points histoire, Éditions du Seuil, Paris, 1984, 226 et 219 p. -AVOCAT Christian, « Les industries rhodaniennes », Revue de géographie de Lyon , Vol. 40 n° 4, 1965, p. 277-344. -BAIROCH Paul, Victoires et déboires, Histoire économique et sociale du monde du XVIe siècle à nos jours, tome 3, Paris, Gallimard, coll. Folio, 1997, 1111 p. -BARJOT Dominique, « Reconstruire la France après la Seconde Guerre mondiale : les débuts d'Électricité de France (1946-1953) », Entreprises et histoire , 2013/1, n° 70, p. 54-75. -BERGER Françoise, La France, l'Allemagne et l'acier (1932-1952). De la stratégie des cartels à l'élaboration de la CECA, thèse sous la direction de FRANK Robert, Université Paris I Panthéon-Sorbonne, 2000, 1257 p. [PDF] tel-00442332, version 1 – 21 Dec 2009, [dernière consultation le 14 août 2013]. -BLANCHARD Raoul, « L'industrie des chaux et ciments dans le Sud-Est de la France », Revue de géographie alpine, tome 16, n° 2, 1928, p. 255-376. -BRAUDEL Fernand et LABROUSSE Ernest (dir.), Histoire économique et sociale de la France, tome IV, vol. 1-2, Paris, PUF, 1982, p. 1-980. -BRAUDEL Fernand et LABROUSSE Ernest (dir.), Histoire économique et sociale de la France, tome IV, vol. 3, Paris, PUF, 1982, p. 981-1847. -CARON François, Les deux révolutions industrielles du XXe siècle , Albin Michel, Paris, 1998, 592 p. -COHEN Élie, L'État brancardier, Calmann-Lévy, Paris, 1989, 351 p. 438 -DAMETTE Félix et SCHEIBLING Jacques, La France. Permanences et mutations, Hachette, Paris, 1999, 255 p -DAUMALIN Xavier et MIOCHE Philippe, « La désindustrialisation au regard de l'histoire », Rives méditerranéenne , n° 46, 2013, p. 5-9. -DAUMAS Maurice (dir.), Histoire générale des techniques , tome V, Paris, PUF, 1979, 595 p. -DIDRY Claude et MARTY Frédéric, « La politique de concurrence comme levier de la politique industrielle dans la France de l'après-guerre », Gouvernement et action publique, n° 4, 2016, p. 23-45. -FOURASTIÉ Jean, Le grand espoir du XXe siècle , Gallimard, Paris, 1963, 372 p. -FOURASTIÉ Jean, Les Trente Glorieuses, Coll. Pluriel, Fayard, Paris, 2011, 288 p. -FRANCK Robert et al., « Les années grises de la fin de siècle », Vingtième Siècle, Revue d'histoire , 2004/4, n° 84, p. 75-82. -FREYSSENET Michel, La division capitaliste du travail, Savelli, Paris, 1977, 165 p Édition numérique, freyssenet.com, [dernière consultation le 21 juin 2016]. -GILLES Bertrand, Histoire des techniques, Gallimard, Paris, 1978, 1649 p. -LACROIX-RIZ Annie, Aux origines du carcan européen (1900-1960), La France sous influence allemande et américaine , Le temps des cerises, éditions Delga, Paris, 2015, 193 p. -LAFERRERE Michel, Lyon ville industrielle, Essai d'une géographie urbaine des techniques et des entreprises, Paris, PUF, 1960, 546 p. -LEBOUTTE René, Vie et mort des bassins industriels en Europe , L'Harmattan, Paris, 1997, 591 p. -LAMARD Pierre et STOSKOPF Nicolas, Une décennie de désindustrialisation ? , Éditions Picard, Paris, 2009, 270 p. -LÉVY-LEBOYER Maurice (dir.), Histoire de la France industrielle, Paris, Larousse, 1996, 550 p. -MARGAIRAZ Michel, L'État, les finances et l'économie. Histoire d'une conversion. 1932-1952, Paris, Imprimerie nationale, 1991, 2 vol., 1456 p. - MARGAIRAZ Michel, « Planification et politiques industrielles des années 1940 aux années 1960 : les trois figures du Plan », Politiques industrielles d'hier et d'aujourd'hui en France et en Europe , colloque international, académie François Bourdon, 30 439 novembre - 2 décembre 2006, 14 p., http://www.ihs.cgt.fr/IMG/pdf_Michel_Margairaz__G2_-_Planification_et_politique_industrielle.pdf , [dernière consultation le 15 août 2013]. -MÉRAUD Jacques, « Quelques remarques sur les effets des réductions d'abattement de zone de salaires », Études et conjoncture - INSEE, n° 6, 1956 (11e année), p. 487-494. -MIOCHE Philippe, « Aux origines du Plan Monnet : les discours et les contenus dans les premiers plans français (1941-1947) », Revue historique , avril-juin 1981, n° 538, p. 405-438. -MIOCHE Philippe, Les cinquante années de l'Europe du charbon et de l'acier 1952 2002, Office des publications officielles des Communautés européennes, Luxembourg, 2004, 128 p. -MONJARET Anne, « Quand les lieux de travail ferment », Ethnologie française , 2005/4, vol. 35, p. 581-592. -Puissance et faiblesse de la France industrielle. XIXe-XXe siècle, Éditions du Seuil, Paris, 1997, 628 p. -PAWIN Rémy, « Retour sur les « Trente Glorieuses » et la périodisation du second XXe siècle », Revue d'histoire moderne et contemporaine , 2013/1, n° 60-1, p. 155-175. -RAGGI Pascal, « Industrialisation, désindustrialisation, ré-industrialisation en Europe. Le cas de la sidérurgie lorraine (1966-2006) », Rives méditerranéennes, n° 46, 2013, p. 11-28. -STOFFAËS Christian, « Le rôle du Corps des Mines dans la politique industrielle française : deux siècles d'action et d'influence », Annales des Mines - Réalités industrielles, 4/2011, p. 48-67. -TAVERNIER Jean-Luc (dir.), Trente ans de vie économique et sociale , INSEE, Paris, 2014, 160 p. -VAYSSIÈRE Bertrand, « Relever la France dans les après-guerres : reconstruction ou réaménagement ? », Guerres mondiales et conflits contemporains , 4/2009, n° 236, p. 45-60. -WORONOFF Denis, Histoire de l'industrie en France, du XVIe siècle à nos jours, Paris, Le Seuil, 1998, 681 p. 440 B) Histoire des entreprises et du patronat -BENSADON Didier, La consolidation des comptes en France (1929-1985) : analyse du processus d'introduction et de diffusion d'une technique comptable, Thèse de doctorat de sciences de gestion sous la direction de Yannick Lemarchand, soutenue à l'Université de Nantes, le 11 décembre 2007, 464 p. -BERGER Françoise, « Alexis Aron, ingénieur sidérurgiste. (Nîmes, 24 janvier 1879 – Neuilly-sur-Seine, 29 juillet 1973)», Archives Juives, 2011/1, Vol. 44, p. 136-139. -CARRON Marie-Antoinette, « Le chemin de fer de l'Est de Lyon », Les Études rhodaniennes, vol. 23, n° 1-2, 1948, p. 25-53. -DALMASSO Anne, « Barrages et développement dans les Alpes françaises de l'entredeux-guerres », Revue de Géographie Alpine , 96-1, 2008, p. 45-54. -DAUMAS Jean Claude, CHATRIOT Alain, FRABOULET Danièle, FRIDENSON Patrick et JOLY Hervé (dir.), Dictionnaire historique des patrons français, Paris, Flammarion, 2010, 1620 p. -DAUMAS Jean Claude, L'amour du drap Blin et Blin (1827-1975). Histoire d'une entreprise lainière familiale , Presses universitaires franc-comtoises, Besançon, 1999, 660 p., tiré d'une thèse, université Paris IV, 1995. -DAUMAS Jean-Claude, « Les dirigeants des entreprises familiales en France, 19702010 », Vingtième Siècle. Revue d'histoire, 2012/2, n° 114, p. 33-51. -DAUMAS Jean Claude, « Regards sur l'histoire du patronat », Vingtième Siècle. Revue d'histoire, 2012/2, n° 114, p. 3-14. -FRIDENSON Patrick, Histoire des usines Renault. Naissance de la grande entreprise (1893-1939), Le Seuil, Paris, 1972, 358 p. -HAU Michel, « La longévité des dynasties industrielles alsaciennes », Le Mouvement social, n° 132, juillet-septembre 1985, p. 9-25. -HAU Michel, « La face cachée de l'aventure industrielle », Entreprises et histoire , 2001/1, n° 27, p. 4-6. -JOLY Hervé, Patrons d'Allemagne : sociologie d'une élite industrielle 1933-1989, Presses de la Fondation nationale des sciences politiques, Paris, 1996, tiré d'une thèse, EHESS, 1993. -JOLY Hervé, « Le capitalisme familial dans les entreprises moyennes : un déclin réversible », Entreprises et histoire , 2001/2, n° 28, p. 64-76. 441 -JOLY Hervé, « L'Épuration patronale a bien (provisoirement) existé : l'exemple de la région Rhône- Alpes », dans BARUCH. Marc Olivier, Une poignée de misérables. L'épuration de la société française après la Seconde Guerre mondiale , Fayard, Paris, 2003, p. 301-335. -JOLY Hervé, « Un grand patronat français peu renouvelé à la Libération ». Version retravaillée d'une communication présentée en janvier 2003 à une table ronde, 11 p., [pdf], <halshs-00191162> , [dernière consultation le 27 mars 2015]. -JOLY Hervé, Diriger une grande entreprise française au XXe siècle : modes de gouvernance, trajectoires et recrutement , Mémoire présenté pour l'habilitation à diriger des recherches, École des Hautes Etudes en Sciences Sociales (EHESS), vol.1, 2008, 722 p., <tel-00343525>, [dernière consultation le 5 novembre 2013]. -JOLY Hervé, « Mobilités patronales dans l'après-guerre et impact de l'épuration », Dans BERGÈRE. Marc (dir.), L'Épuration économique en France à la Libération , PUR, Rennes, 2008, p. 83-100. -JOLY Hervé, ROBERT François, GIANDOU Alexandre, Entreprises et pouvoir économique dans la région Rhône-Alpes (1920-1954), Centre Pierre Léon d'histoire économique et sociale, Lyon, 2003, 300 p., Cahiers Pierre Léon n° 4. -LACROIX-RIZ Annie, Industriels et banquiers sous l'Occupation. La collaboration économique avec le Reich et Vichy, Armand Colin, Paris, 1999, 661 p. -LÉVY-LEBOYER Maurice (dir.), Le patronat de la seconde industrialisation, Le Mouvement social cahier n° 4, Les éditions ouvrières, Paris, 1979, 320 p. -LOUBET Jean-Louis, Automobiles Peugeot : une réussite industrielle, 1945-1974, Economica, Paris, 1990, 469 p., tiré d'une thèse, université Paris X, 1988. -ROJON Jérôme, L'industrialisation du Bas Dauphiné : le cas du textile (fin XVIIIe à 1914), CHASSAGNE Serge (dir.), thèse Université Lumière Lyon 2, 2007, 1314 p. -ROJON Jérôme, « L'entreprise Diederichs (1882-1938) », Bulletin du Centre Pierre Léon, 02/1996, p. 79-98. -SCHWEITZER Sylvie, Des engrenages à la chaine. Les usines Citroën 1915-1935, PUL, Lyon, 1982, 208 p., tiré d'une thèse, université Paris VIII, 1980. -SCHWEITZER Sylvie, André Citroën, Fayard, Paris, 1992, 239 p. -VANT André, « Évolution bancaire et espace stéphanois », Revue de géographie de Lyon, vol. 52 n°4, 1977, p. 367-394. 442 -VERNEY CARRON Nicole, Le ruban et l'acier : les élites économiques de la région stéphanoise au XIXe siècle 1815-1914, Publications de l'Université de Saint-Étienne, 1999, 448 p. -VERNUS Pierre, Art, luxe et industrie. Bianchini Férier, un siècle de soieries lyonnaises 1888-1992, Presses universitaires de Grenoble, Grenoble, 2006, 431 p., tiré d'une thèse, université Lyon 2, 1997. -WAROLIN Christian et POMARET Jean-Carlos, « Grands pharmaciens : Michel Delalande (1899-1991) », Revue d'histoire de la pharmacie, 88e année, n° 327, 2000, p. 434-440. C) Histoire de la sidérurgie -BEAUD Claude, « Le drame de Creusot-Loire : échec industriel ou fiasco politicofinancier ? », Entreprises et histoire , 2001/1, n° 27, p. 7-22. -BERGER Françoise, « Crise et reconversion dans la sidérurgie : étude comparée des bassins charbonniers de la Ruhr et du Nord-Pas-de-Calais », Mitteilungs-blatt (Zeitschrift des Bochumer Instituts f ur soziale Bewegungen), 2003, n°29, 6 p., version 1, 16 mai 2007, https://hal.archives-ouvertes.fr/halshs-00147413/document, [dernière consultation le 18 août 2013. -BERGER Françoise, « Éléments sur la crise de la sidérurgie en vue d'une approche comparative. Le cas du Nord-Pas-de-Calais et du groupe Usinor », Revue du Nord, hors série n° 21, 2006, 11 p. -COLSON Daniel, La Compagnie des fonderies, forges et aciéries de Saint-Étienne (1865-1914). Autonomie et subjectivité techniques , Publications de l'Université de Saint-Étienne, Saint-Étienne, 1998, 290 p. -FREYSSENET Michel, La sidérurgie française 1945-1979, Histoire d'une faillite. Les solutions qui s'affrontent, Paris, Savelli, 1979, 170 p. -FREYSSENET Michel et OMNES Catherine, La crise de la sidérurgie française , Paris, Hatier, coll. Profil, 1982, 84 p. -MIOCHE Philippe, « Un tournant dans l'histoire de la sidérurgie : la création de l'Irsid. Compétition et collaboration entre l'État et l'industrie », Histoire, économie et société, 8e année, n° 1, 1989, p. 119-140. 443 -MIOCHE Philippe, La sidérurgie et l'État en France des années 1940 aux années 1970, Thèse de doctorat d'État sous la direction de François Caron, Paris 4, 1992, 4 volumes, 1418 p. -MIOCHE Philippe. « Les entreprises sidérurgiques sous l'Occupation », Histoire, économie et société , 11e année, n° 3. Stratégies industrielles sous l'occupation, 1992, p. 397-414. -MIOCHE Philippe et ROUX jacques, Henri Malcor : un héritier des maîtres de forges, Éditions du CNRS, 1988, Paris, 349 p. -PRATI Bruno, La Fonte Ardennaise et ses marchés. Histoire d'une PME familiale dans un secteur en déclin (1926-1999), thèse sous la direction de DAUMAS Jean- Claude, Université de Franche-Comté, 2013, 563 p. -TAILLEFER François, « La reconversion des forges du Boucau », Revue géographique des Pyrénées et du Sud-Ouest, tome 37, fascicule 4, 1966, p. 425-427. 4) Histoire du travail et des groupes sociaux A) Généralités -AUDINET Jacques, « Le licenciement du salarié en droit comparé », Revue internationale de droit comparé , Vol. 18, n° 2, Avril-juin 1966, p. 365-391. -CHARPENTIER François, Les retraites complémentaires AGIRC-ARRCO, Que sais-je n° 4073, PUF, Paris, 2016, 128 p. -CHEVANDIER Christian et PIGENET Michel, « L'histoire du travail à l'époque contemporaine, clichés tenaces et nouveaux regards », Le Mouvement social, 2002/3, n° 200, p. 163-169. -CHEVANDIER Christian et DAUMAS Jean-Claude, Travailler dans les entreprises sous l'Occupation, Presses universitaires de Franche Comté, Besançon, 2007, 528 p. -DESHAYES Jean-Luc Deshayes, « L'employeur territorial, une notion utile pour comprendre la (dé)structuration de l'emploi », Travail et Emploi, n° 136 | octobredécembre 2013. 444 -DEWERPE Alain, Histoire du travail, Coll. Que sais-je ?, PUF, Paris, 2001, 128 p. -DEWERPE Alain, Le monde du travail en France 1800-1950, Coll. Cursus, Armand Colin, Paris, 2007, 174 p. -DREYFUS Michel, RUFFAT Michèle, VIET Vincent, VOLDMAN Danièle (dir.), Se protéger, être protéger. Une histoire des assurances sociales en France , Presses universitaires de Rennes, 2006, 352 p. -DUPÂQUIER Jacques (dir.), Histoire de la population française , tome 4, PUF, Paris, 1988, 590 p. -ERBÈS-SEGUIN Sabine, La sociologie du travail, La Découverte, Paris, 2010, 125 p. -FAYOLLE Sandra, « L'Union des femmes françaises et les sentiments supposés féminins », dans TRAÏNI Christophe, Émotions Mobilisation !, Presses de Sciences Po, « Académique », 2009, p. 169-192. -FELLER Élise, « La construction sociale de la vieillesse », dans GUEDJ François et SIROT Stéphane (dir.), Histoire sociale de l'Europe. Industrialisation et société en Europe occidentale 1880-1970, Seli Arslan, Paris, 1998, 411 p, p. 293-317. -FREY Jean-Pierre, « Le Creusot : L'urbanistique patronale », Les Annales de la recherche urbaine , n° 22, avril 1984, p. 3-46. -HAMELIN David, « Pour une histoire du travail ! », Cahiers d'histoire. Revue d'histoire critique, n° 124, 2014, p. 147-158. -HARMAN Chris, Une histoire populaire de l'humanité, La Découverte, Paris, 2011, 733 p. -HATZFELD Henri, Du paupérisme à la sécurité sociale 1850-1940, Presses universitaires de Nancy, Nancy, 1989, 348 p. -LEBOUTTE René, « La problématique des bassins industriels en Europe », Espace, populations, sociétés, n° 3, 2001, p. 399-419. -LEQUIN Yves, « Le métier », dans NORA Pierre (dir.), Les Lieux de mémoire , vol. 3, Quarto Gallimard, Paris, 1997, 1720 p., p. 3351-3384. -LUIRARD Monique, La région stéphanoise dans la guerre et dans la paix (19361951), Presses universitaires de Saint-Étienne, Saint-Étienne, 1980, 1024 p. -MARCHAND Olivier et THELOT Claude, Le travail en France (1800-2000), Paris, Nathan, 1997, 269 p. -MARUANI Margaret (dir.), Travail et genre dans le monde, La Découverte, Paris, 2013, 463 p. 445 -MÉDA Dominique et SERVERIN Évelyne, Le contrat de Travail, coll. Repère, La Découverte, 2008, 128 p. -NOIRIEL Gérard, Les ouvriers dans la société française, XIXème-XXème siècle, Éditions du Seuil, Paris, 1986, 321 p. -NOIRIEL Gérard, Longwy, immigrés et prolétaires 1880-1980, Paris, P.U.F., 1984, 396 p. -PINOL Jean Luc, Les mobilités de la grande ville , Presse de la Fondation Nationale des Sciences Politiques, Paris, 1991, 431 p. -SCHWEITZER Sylvie, « Les enjeux du travail des femmes », Vingtième Siècle. Revue d'histoire, 2002/3 n°75, p. 21-33. -SCHWEITZER Sylvie, Les femmes ont toujours travaillé. Une histoire du travail des femmes aux XIXe et XXe siècles, Paris, Odile Jacob, 2002, 329 p. -THOMPSON Edward P., La formation de la classe ouvrière anglaise , 1ère édition Londres, Victor Gollancz, 1963, traduction française, Paris, Le Seuil, « Point Histoire », 2012, 1166 p. -VAGANAY Henri, « Le mouvement de la population dans le bassin du Gier au XIXe et au XXe siècle », Les Études rhodaniennes, Vol.5 n°1, 1929, p. 41-62. -VALAT Bruno, « Le choix de la sécurité sociale », dans DREYFUS Michel, RUFFAT Michèle, VIET Vincent, VOLDMAN Danièle (dir.), Se protéger, être protéger. Une histoire des assurances sociales en France , Presses universitaires de Rennes, 2006, 352 p. -VIGNA Xavier, Histoire des ouvriers en France au XXe siècle , Perrin, Paris, 2012, 405 p. -WILLARD Claude (dir.), La France ouvrière 1920-1968, tome 2, Editions de l'Atelier, Paris, 1995, 368 p. B) Histoire du travail et des salariés -BEAU Anne-Sophie, « Les employéEs du grand Bazar de Lyon (1886-1950) », Bulletin du Centre Pierre Léon d'histoire économique et sociale, n° 3-4, 1997, p. 51-64. 446 -BEAU Anne-Sophie, Grand Bazar, modes d'emploi : les salarié-e-s d'un grand magasin lyonnais : 1886-1974, thèse sous la direction de Sylvie Schweitzer, Université Lumière Lyon 2, 2001, 684 p. -BEAU Anne-Sophie, Un siècle d'emplois précaires, patron-ne-s et salarié-e-s dans le grand commerce, XIXe-XXe siècle, Payot, Paris, 2004, 303 p. -BURDY Jean-Paul, Le Soleil noir. Un quartier de Saint-Étienne 1840-1940, Presses universitaires de Lyon, 1989, 270 p., tiré d'une thèse, Université Lyon 2, 1986. -CASTETS Jean, Des ouvriers de la société des Hauts-Fourneaux et Fonderies de Givors et leurs familles dans la seconde moitié du XIXème siècle , thèse sous la direction de LEQUIN Yves, Université Lumière Lyon II, 1995, 2 tomes, 630 p. -DOWNS Laura Lee et LEFEBVRE Frédéric, « Boys will be men and girls will be boys » : division sexuelle et travail dans la métallurgie (France et Angleterre, 1914-1939), Annales. Histoire, Sciences Sociales , 54e année, n° 3, 1999, p. 561-586. -FOURCAUT Annie, Femmes à l'usine en France dans l'entre -deux guerres, Maspero, Paris, 1982, 269 p. -FRIDENSON Patrick et ROBERT Jean-Louis, « Les ouvriers dans la France de la Seconde Guerre mondiale. Un bilan », Le Mouvement Social, n° 158, janvier-mars 1992, p. 117-137. -GALLICE Perrine, « Travail des femmes et politique sociale : Berliet, années 19501960 », Bulletin du Centre Pierre Léon d'histoire économique et sociale, n° 1-2, 1996, p. 59-77. -GALLOT Fanny, Les ouvrières des années 1968 au très contemporain : pratiques et représentations, thèse sous la direction de ZANCARINI-FOURNEL Michelle, Université Lyon 2, soutenue en décembre 2012, 608 p. -GARDEY Delphine, « Steno-dactylographe : de la naissance d'une profession à sa féminisation. 1883-1930 », Cahiers du Mage, n° 1, 1995, p. 53-61. -GARDEY Delphine, « Du veston au bas de soie : identité et évolution du groupe des employés de bureau (1890-1930) », Le Mouvement social, n° 175, avril-juin 1996, p. 55-77. -GARDEY Delphine La Dactylographe et l'expéditionnaire. Histoire des employés de bureau. 1890-1930, Belin, Paris, 2001, 335 p. -HATZFELD Nicolas, PIGENET Michel, VIGNA Xavier (dir.), Travail, travailleurs et ouvriers d'Europe au XXe siècle, Éditions universitaires de Dijon, Dijon, 2016, 359 p. 447 -LEQUIN Yves, Les ouvriers de la région lyonnaise, 1848-1914, 2 volumes, Lyon, PUL, 1977, 573 et 500 p. -LEQUIN Yves et VANDECASTEELE Sylvie, L'usine et le bureau. Itinéraires sociaux et professionnels dans l'entreprise, XIXème -XXème siècles, P.U.L., 1990, 193 p. -MONTAGNON Florent, Construire le stable et l'instable. La gestion du personnel d'exécution des transports publics urbains lyonnais, 1894 -1948, thèse sous la direction de Sylvie Schweitzer, Université Lumière Lyon 2, 2009, 2 volumes, 859 p. -OMNÈS Catherine, « Les trois temps de l'emploi féminin : réalités et représentations», L'Année sociologique , n° 2, vol. 53, 2003, p. 373-398. -PERROT Michelle, « Qu'est-ce qu'un métier de femme ? », Le Mouvement social, n°140, juillet-septembre 1987, p. 3-8. -PERROT Michèle, « Yves Lequin et la formation de la classe ouvrière », dans JeanJacques Becker et alii, Ouvriers, villes et société. Autour d'Yves Lequin et de l'histoire sociale, Paris, Nouveau monde éditions, 2005, 296 p. -PIGENET Michel, « A propos des représentations et des rapports sociaux sexués : identité professionnelle et masculinité chez les dockers français (XIXe - XXe siècles)», Le Mouvement Social, 2002/1, n° 198, p. 55-74. -SCHWARTZ Olivier, Le monde privé des ouvriers. Hommes et femmes du Nord, PUF, Paris, 2002, 531 p. C) Histoire de l'immigration -ANDRÉ Marc, « Algériennes, quelle citoyenneté ? (années 1930 - années 1960), Clio, Femmes, Genre, Histoire , n° 43, 2016, p. 94-116. -BARZMAN John, « La Normandie immigrée. Des Anglais aux « gens du Fleuve », Homme et migration n° 1273, mai-juin 2008, p. 96-108. -BLANC-CHALEARD Marie-Claude, Les Italiens dans l'Est parisien : une histoire de l'intégration (1880-1960), Rome, École française de Rome, 2000, 803 p. -BLANC-CHALEARD Marie-Claude, « Les immigrés et le logement en France depuis le XIXe siècle : une histoire paradoxale », coord. Jacques Barou, Hommes et migrations, n° 1264, novembre-décembre 2006, p. 20-34. 448 -BRUNO Anne-Sophie, Les chemins de la mobilité, Migrants de Tunisie et marché du travail parisien depuis 1946 , EHESS, Paris, 2010, 288 p. -BRUNO Anne-Sophie, « Aux sources de la segmentation du marché du travail », Cahiers d'histoire. Revue d'histoire critique, n° 132, 2016, 14 p., http://chrhc.revues.org/5395, [dernière consultation le 12 juin 2017]. -COMTE Marie-Hélène et GONOD Nathalie, L'éternel arménien, l'histoire de la communauté de Chasse-sur-Rhône, Saint-Just-la pendue, 1997, 52 p. -DORNEL Laurent, « Les usages du racialisme. Le cas de la main d'oeuvre coloniale en France pendant la Première Guerre mondiale », Genèses, n° 20, p. 48-72. -GUERRY Linda, « Femmes et genre dans l'histoire de l'immigration. Naissance et cheminement d'un sujet de recherche », Genre & Histoire, n° 5, Automne 2009, 16 p., http://genrehistoire.revues.org/808, [dernière consultation le 23 février 2017]. -HENRY Louis, « Les réfugiés hongrois », dans Population, 12e année, n° 2, 1957, p. 343-345. -LAURENS Sylvain, « L'immigration : une affaire d'Etats. Conversion des regards sur les migrations algériennes (1961-1973) », Cultures & Conflits, n° 69, 2008, 17 p., [pdf] http://conflits.revues.org/index10503.html., [dernière consultation le 11 décembre 2011]. -LEQUIN Yves (dir.), La mosaïque France, histoire des étrangers et de l'immigration en France, Paris, Larousse , 1988, 479 p. -LÉVY-VROELANT Claire, « Le logement des migrants en France du milieu du XIXe siècle à nos jours », Historiens et géographes, n° 385, janvier 2004, p. 147-165. -LÉVY-VROELANT Claire, « Migrants et logement, une histoire mouvementée », Plein droit, n° 68, 2006/1, p. 5-10. -LEWIS Mary Dewhurst, Les frontières de la République, L'immigration et les limites de l'universalisme en France (1918-1940), Contre-feux, Agone, Marseille, 2010, 425 p. -LOSEGO Sarah Vanessa, LUTZ Raphael, « Pratiques de naturalisation. Le cas du bassin industriel de Longwy (1946-1990) », Annales. Histoire, Sciences Sociales,2006/1, p. 135-162. -MAITTE Corine et RYGIEL Philippe, « Mobilités et travail », Historiens et géographes, n° 438, mai-juin 2017, p. 71-79. -« Histoire des immigrations. Panorama régional », vol.1, MAYEUR Laurence, POINSOT Maris (coord.), Hommes et migrations, n° 1273, mai-juin 2008. 449 -« Histoire des immigrations. Panorama régional », vol. 2, MAYEUR Laurence, POINSOT Maris (coord.), Hommes et migrations, n° 1278, mars-avril 2009. -NOIRIEL Gérard Noiriel, Le creuset français, histoire de l'immigration XIXèmeXXème siècles, Paris, Le Seuil, L'univers historique, 1988, 441 p. -NOIRIEL Gérard, Etat, nation et immigration , Paris, Belin, collection Folio histoire, 2001, 590 p. -NOIRIEL Gérard, « L'histoire de l'immigration en France. Note sur un enjeu », Actes de la recherche en sciences sociales , vol. 54, septembre 1984, p. 72-76. -NOIRIEL Gérard, « L'immigration en France, une histoire en friche », Annales. Économies, Sociétés, Civilisations, 41e année, n° 4, 1986, p. 751-769. -NOIRIEL Gérard, Enquête histoire et mémoires des immigrations en régions, 20052007, Note de synthèse sur les rapports finaux rendus par les équipes en charge des enquêtes sur les régions : Alsace Bretagne Lorraine Midi-Pyrénées Nord-Pas-de-Calais Normandie Pays-de-Loire Picardie Lots non rendus ou refusés par la coordination : Aquitaine, Poitou-Charente, avec la coordination scientifique de : BRUNO Anne- Sophie, PITTI Laure, ZALC Claire, NOIRIEL Gérard, RYGIEL Philippe, SPIRE Alexis, SCIOLDO ZURCHER Yann, 2007, 36 p., http://barthes.ens.fr/clio/acsehmr/synthes1.pdf, [dernière consultation le 23 octobre 2012]. -PITTI Laure, « La main d'oeuvre algérienne dans l'industrie automobile (1945-1962), ou les oubliés de l'histoire », dans PITTI Laure (dir.), « Immigration et marché du travail », Homme et Migration, n° 1263, Septembre-octobre 2006, p. 47-57. - PITTI Laure, « Catégorisations ethniques au travail. Un instrument de gestion différenciée de la main d'oeuvre », Histoire & mesure , XX - 3⁄4, 2005, 27 p., http://histoiremesure.revues.org/1398, [dernière consultation le 18 décembre 2016]. -POINARD Michel, « Les Portugais dans le département du Rhône entre 1960 et 1970 », Revue de géographie de Lyon, vol.47, n° 1, 1972, p. 35-58. -RYGIEL Philippe, « L'historiographie des migrations », Mémoires publiés par la fédération des sociétés historiques et archéologiques de Paris et de l'Ile de France , tome 61, 2010, 15 p., Halshs-00548192, version 1-19Dec 2010, [dernière consultation le 19 octobre 2012]. - SAYAD Abdelmalek, « Les trois " âges " de l'émigration algérienne en France », Actes de la recherche en sciences sociales, Vol 15, juin 1977, p. 59-79. 450 -SCHWEITZER Sylvie (dir.), Rhône-Alpes : étude d'une région et d'une pluralité de parcours migratoires, Tomes 1 et 2, 2008, 241 et 148 p., [PDF], halshs.archives- ouvertes.fr/docs/00/37/34/14//ACSE.R.Alpes.t1.pdf et halshs.archives- ouvertes.fr/docs/00/37/34/14//ACSE.R.Alpes.t2.pdf, [dernière consultation le 14 août 2011]. -SCHWEITZER Sylvie, « La mère de Cavanna. Des femmes étrangères au travail au XXe siècle », Travail, Genre et Société, n° 20, 2008/2, p. 29-45. -SPIRE Alexis, « D'une colonie à l'autre. La continuation des structures coloniales dans le traitement de la migration algérienne en France après 1945 », dans WEIL Patrick et DUFOIX Stéphane (dir.), L'esclavage, la colonisation, et après, PUF, Paris, 2005, 640 p. -THÉOFILAKIS Fabien, Les prisonniers de guerre allemands en mains françaises (1944-1949) : captivité en France, rapatriement en Allemagne , thèse sous la codirection de BECKER Annette, ROUSSO Henry et WIRSHING Andréas, Université Paris X Nanterre, 2010, 1344 p. -VIET Vincent, Histoire des Français venus d'ailleurs de 1850 à nos jours, collection Tempus, Perrin, Paris, 2013, 375 p. -VIET Vincent, « La politique de main d'oeuvre et les travailleurs étrangers et coloniaux entre 1914 et 1950 », Hommes et migrations n° 1263, septembre-octobre 2006, p. 1025. -VIET Vincent, « La politique du logement des immigrés (1945-1990) », Vingtième Siècle. Revue d'histoire, n° 64, octobre-décembre 1999, p. 91-103. -WEIL Patrick, « Histoire et mémoire des discriminations en matière de nationalité française », XXe siècle. revue d'histoire, 2004/4, n° 84, p. 5-22. -WEIL Patrick, « Le statut des musulmans en Algérie coloniale. Une nationalité française dénaturée », Histoire de la justice 2005/1, n° 16, p. 93-109. -WITHOL DE WENDEN Catherine, « Ouverture et fermeture de la France aux étrangers » Un siècle d'évolution », Vingtième Siècle. Revue d'histoire , 2002/1, n° 73, p. 27-38. 451 D) Politiques patronales et étatiques -BOYER Tristan, « Déconstruction du projet de licenciement », La Revue de l'Ires, n° 47, 2005/1, p. 175-193. -COINTEPAS Michel, « Les origines du CHSCT (1926-1947) », Les cahiers du CHATEFP , n° 5, mai 2001, p. 3-15. -COINTEPAS Michel, « Les CHS des années 50 et 60 vus par les inspecteurs du travail », Les cahiers du CHATEFP , n° 5, mai 2001, p. 17-28. -FREYSSENET Michel, « Division du travail, pratiques ouvrières et pratiques patronales. Les ouvriers sidérurgistes chez de Wendel, 1880-1974 », CSU, Paris, 1978, 30 p., Édition numérique, freyssenet.com, [dernière consultation le 21 août 2012]. -FROSSARD Serge, « Les contextes de l'obligation de reclassement », Perspectives interdisciplinaires sur le travail et la santé, 12-1, 2010, 12 p., https://pistes.revues.org/, [dernière consultation le 3 septembre 2017]. -FROUARD Hélène, « Aux origines du 1 % logement : histoire d'un compromis républicain », Revue française des affaires sociales , 2005/3, n° 3, p. 55-76. -GACON Stéphane et JARRIGE François, « Les trois âges du paternalisme. Cantines et alimentation ouvrière au Creusot (1860-1960) », Le Mouvement Social, n° 247, 2014/2, p. 27-45. -GUESLIN André, « Le paternalisme revisité en Europe occidentale (seconde moitié du XIXe siècle, début du XXe siècle), Genèses, n° 7, 1992, p. 201-211. -HANSON Magnus et HANSON Johanna, « Identité professionnelle individuelle et processus de fermeture d'usine », Revue Française de gestion , n° 220, 2012/1, p 117131. -JOBERT Annette, TALLARD Michèle, « Systèmes de classification et structuration de la catégorie des techniciens », Sociétés contemporaines, n° 9, Mars 1992, p. 143-158. -LINHART Danièle, « D'un monde à l'autre : la fermeture d'une entreprise », La Revue de l'Ires, n° 47, 2005/1, p. 81-94. - MAITTE Corine et TERRIER Didier, « Temps de travail », Genèses, n° 85, 2011/4, p. 2-5. -MAITTE Corine et TERRIER Didier, « Une question (re)devenue centrale : le temps de travail », Genèses, n° 85, 2011/4, p. 156-170. 452 -MARUANI Margaret, « Statut social et modes d'emplois », Revue française de sociologie, 1989, 30e année n° 1. P. 31-39. -MONJARET Anne, « Quand les lieux de travail ferment », Ethnologie française , 2005/4, vol. 35, p. 581-592. -NOIRIEL Gérard, « Du " patronage " au " paternalisme " : la restructuration des formes de domination de la main-d'oeuvre ouvrière dans l'industrie métallurgique française », Le Mouvement social, n° 144, juillet-septembre 1988, p.17-35. -RAVEYRE Marie, « Le travail dans le management des restructurations : entre déni et omission », La Revue de l'Ires, n° 47, 2005/1, p. 95-115. -SAGLIO Jean, « Hiérarchies salariales et négociations de classifications France, 19001950 », Travail et Emploi, 1986/3, n° 27, p. 7-19. -SAGLIO Jean, « Les arrêtés Parodi sur les salaires : un moment de la construction de la place de l'État dans le système français de relations professionnelles », Travail et Emploi, 2007, n° 111, juillet-septembre, p. 53-73. -SCHWEITZER Sylvie, « Industrialisation, hiérarchies au travail et hiérarchies sociales au vingtième siècle », Vingtième siècle. Revue d'histoire, n° 54, avril-juin 1997, p. 103115. -SCHWEITZER Sylvie, « Gestions de salariés : métiers et flexibilités (Lyon, XIXeXXe siècles) », Histoire, économie et société , 2001, 20e année, n° 4, p. 455-470. -SCHWEITZER Sylvie (dir.), Logiques d'entreprises et politiques sociales, Editions du programme pluriannuel en Sciences Humaines Rhône-Alpes, 1993, 255 p. -SIGNORETTO Camille, « Restructurations, gestion de l'emploi et droit du travail : analyse institutionnelle et statistique », La Revue de l'Ires, 2015/1, n° 84, p. 31-58. -SUPIOT Alain, Le droit du travail, Paris, Presses Universitaires de France « Que saisje ? », 2011, 128 p. -THIVEND Marianne et SCHWEITZER Sylvie (dir.), État des lieux des formations techniques et professionnelles dans l'agglomération lyonnaise. XIXe siècle -1960, recherche financée par le programme Éducation et formation : disparités territoriales et régionales, 2005, 171 p., http://histoire.ec-lyon.fr/docannexe/file/1398/larhra0001.pdf, [dernière consultation le 22 mars 2016]. -THOMAS Claude, « Le fonds National de l'Emploi », intervention au colloque " la mobilité facteur de plein emploi " organisé les 16 et 17 mai 1967 par l'Ecole des hautes études commerciales de LILLE, http://travail-emploi.gouv.fr/IMG/pdf/FNE.pdf, [dernière consultation le 3 septembre 2017]. 453 -TOULOTTE Sarah, Le service social à l'épreuve de l'entreprise. Les formes contemporaines d'exercice du métier, thèse sous la direction de JOVELIN Emmanuel, Université de Lorraine, soutenue en décembre 2016, 487 p. -VERNET Antoine, « Du développement économique à la lutte pour l'emploi : la formation en région stéphanoise (1964-1982). Penser et agir face à la crise dans les " années 1968 ". Les luttes ouvrières dans le bassin stéphanois (1963-1984), novembre 2013, Saint-Etienne, 45 p., <halshs-00951442>. -VIET Vincent, « Vichy dans l'historie des politiques françaises de la main d'oeuvre », Travail et emploi n° 98, avril 2004, p. 77-93. -ZANCARINI-FOURNEL Michelle, « Casino-Saint-Étienne, une entreprise à main d'oeuvre stabilisée (1898-1960) », Bulletin du Centre Pierre Léon , n° 2-3, 1994, p. 6577. E) Grèves et mouvements sociaux - BLONDEAU Achille, 1963. Quand toute la mine se lève , 1ère édition 1963, Messidor, Paris, 1991, 179 p. -COLSON Daniel, « Bourse du travail et syndicalisme d'entreprise avant 1914 : les Aciéries de Saint-Étienne », Le Mouvement social, n° 159, avril-juin 1992, p. 57-83. -PERROT Michelle, Les ouvriers en grève. France 1871-1890, Paris-La Haye, Mouton, coll. Civilisations et Sociétés, 2 vol., 1974, 900 p. -PIGENET Michel et TARTAKOWSKY Danièle (dir.), Histoire des mouvements sociaux en France. De 1814 à nos jours, La Découverte, Paris, 2012, 800 p. -PROST Antoine, « Les grèves de mai-juin 1936 revisitées », Le Mouvement social, 2002/3, n° 200, p.33-54. -SIROT Stéphane, La grève en France. Une histoire sociale (XIXe-XXe siècle), Odile Jacob, Paris, 2002, 306 p. -VIGNA Xavier, L'Insubordination ouvrière dans les années68. Essai d'histoire politique des usines, PUR, Rennes, 2007, 380 p. -VIGNA Xavier, « Les ouvriers de Denain et de Longwy face aux licenciements (19781979) », Vingtième Siècle. Revue d'histoire , 2004/4, n° 84, p. 129-137. 454 -ZANCARINI-FOURNEL Michelle, Les luttes et les rêves. Une histoire populaire de la France de 1685 à nos jours, La Découverte, Paris, 2016, 995 p. F) Histoire de Chasse-sur-Rhône -Association de sauvegarde du patrimoine de Chasse, mis en page par BOUILLET Janine, La « défense passive » à Chasse-sur-Rhône, document imprimé relié en janvier 2004, 38 p. -BELON Pascal, Carnets de Chasse de A à Z, EMCC, Lyon, 2012, 96 p. -BONFILS-GUILLAUD Cyril, Le personnel des Hauts-Fourneaux de Chasse-surRhône de 1956 à 1963, mémoire de maîtrise sous la direction de SCHWEITZER Sylvie, Université Lyon 2, septembre 2000, 190 p. -BONFILS-GUILLAUD Cyril, Le personnel immigré de la Compagnie des HautsFourneaux de Chasse-sur-Rhône de 1960 à la fermeture de l'usine, mémoire de master 2 sous la direction de SCHWEITZER Sylvie, Université Lyon 2,juin 2013, 213 p. -BOUILLET Janine, Racines et réalités de Chasse-sur-Rhône, Salaize-sur-Sanne, 2012, 148 p. -BOUILLET Janine, Chasse-sur-Rhône 1914-1918. À la mémoire des militaires décédés, Centre généalogique de Vienne et de la vallée du Rhône, janvier 2016, 67 p. -FOND Christine, Chasse-sur-Rhône au fil de l'eau, GLM Communication, 2002, 103 p. -KINOSSIAN Laurence, Le personnel des Hauts-Fourneaux de Chasse-sur-Rhône, 1856-1940, mémoire de maîtrise sous la direction de LEQUIN Yves, Université Lyon 2, septembre 1989, 120 p., Volume 1 et Annexes volume 2. -PASQUET Caroline, Chasse-sur-Rhône : un relais secondaire en mutation , mémoire de maîtrise sous la direction de LAFFERRERE Michel, Université Lyon 2, 1973, 157 p. -PY Évelyne, Un été sous les bombes. Givors, Grigny, Chasse 1944, Alan Sutton, 2004, 159 p. 455 Annexes : Annexe 1 : Évolution du recrutement des personnels des HFC de 1945 à 1966 par nationalités et par sexe 1 Année Nationalités 1945 Français 2 Portugais Espagnols Italiens Arméniens Grec Russes Polonais Algériens Total étrangers Français Portugais Espagnols Italiens Arméniens Grecs Russes Polonais Allemand Algériens Total étrangers Français Espagnols Italiens Arméniens Polonais Tchèque Algériens Total étrangers 1946 1947 semestre) (1er Entrées Sorties 24 3 5 1 4 0 0 13 6 32 15 2 2 21 2 1 4 7 5 127 171 6 2 4 2 0 1 229 238 Solde Solde hommes et femmes femmes uniquement 9 0 4 2 5 1 1 2 2 17 15 1 5 3 4 2 1 14 0 31 61 7 2 3 1 1 0 115 122 +15 +3 +1 -1 -1 -1 -1 +11 +4 +15 0 +1 -3 +18 -2 -1 +3 -7 +5 +96 +110 -1 0 +1 +1 -1 +1 +114 +116 +1 +1 +1 0 +1 0 0 -2 0 +1 0 0 +1 +1 0 -1 +1 -1 0 0 +1 +1 +2 0 +1 0 0 0 +3 1 Source : AMC, cahiers du personnel français n° 7, 8, 9, 10, 11 et étranger n° 12, 13, 14, 15 et 16. La méthode utilisée est la même que pour le tableau 1, c'est-à-dire par sondage en utilisant la lettre B : cela ne permet pas la comparaison avec les travailleurs étrangers dénombrés en totalité, mais celle avec les travailleurs français pendant et après la guerre. 2 456 Annexe 1 (suite) : Année Nationalités 1947 (2d semestre) Français Portugais Espagnols Italiens Arméniens Allemands Polonais Algériens Total étrangers Français Portugais Espagnols Italiens Arméniens Syrien Grecs Allemands Yougoslaves Polonais Algériens Total étrangers Français Portugais Espagnols Italiens Grecs Libanais Allemands Estoniens Yougoslaves Polonais Algériens Total étrangers Français Portugais Espagnols Italiens Allemands Hongrois Algériens Total étrangers 1948 1949 1950 Entrées Sorties 14 1 11 39 0 2 0 67 120 16 1 20 33 2 1 1 5 2 2 119 186 12 2 12 33 1 1 5 2 1 1 38 96 2 1 0 0 0 1 1 3 Solde hommes femmes 12 1 6 7 14 0 1 43 72 6 0 11 34 2 1 0 7 1 1 111 168 9 1 0 28 0 0 0 0 1 0 80 110 4 0 8 13 3 0 47 71 Solde et femmes uniquement +2 0 +5 +32 -14 +2 -1 +24 +48 +10 +1 +9 -1 0 0 +1 -2 +1 +1 +8 +18 +3 +1 +12 +5 +1 +1 +5 +2 0 +1 -42 -14 -2 +1 -8 -13 -3 +1 -46 -68 -1 0 +3 0 -3 0 0 0 0 +1 0 +1 0 -1 0 0 0 0 0 0 0 0 0 0 0 +1 0 0 0 0 0 0 +1 0 0 -1 -1 0 0 0 -2 457 Annexe 1 (suite) : Année Nationalités 1951 Français Portugais Espagnols Italiens Arméniens Allemands Estoniens Suisses Algériens Total étrangers Français Espagnols Italiens Allemands Suisses Algériens Total étrangers Français Espagnols Arméniens Grecs Algériens Total étrangers Français Italiens Arméniens Allemands Estoniens Russes Algériens Total étrangers Français Espagnols Italiens Arméniens Algériens Total étrangers Français Portugais Espagnols Italiens Algériens Total étrangers 1952 1953 1954 1955 1956 Entrées Sorties 15 3 9 20 3 1 0 1 78 115 6 7 9 0 0 36 52 3 0 0 0 2 2 2 0 0 0 0 0 1 1 0 0 0 0 1 1 10 0 2 12 35 49 Solde hommes femmes 6 0 4 10 0 1 1 0 17 33 3 3 1 1 1 64 70 8 5 1 1 21 28 7 4 1 1 1 1 11 15 0 1 3 1 6 11 3 2 3 5 11 21 Solde et femmes uniquement +9 +3 +5 +10 +3 0 -1 +1 +61 +82 +3 +4 +8 -1 -1 -28 -18 -5 -5 -1 -1 -19 -26 -5 -4 -1 -1 -1 -1 -10 -14 0 -1 -3 -1 -5 -10 +7 -2 -1 +7 +24 +28 -1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 +2 -3 0 0 0 -3 +1 0 0 0 0 0 0 0 0 0 0 0 0 0 +1 0 -1 0 0 -1 458 Annexe 1 (suite) : Année Nationalités 1957 Français Espagnols Italiens Arméniens Hongrois Polonais Algériens Total étrangers Français Espagnols Italiens Arméniens Russes Polonais Hongrois Algériens Total étrangers Français Espagnols Italiens Arméniens Polonais Allemands Lettons Algériens Total étrangers Français Portugais Espagnols Italiens Arméniens Libanais Grec Polonais Algériens Total étrangers 1958 1959 1960 Entrées Sorties 7 18 58 0 5 1 69 158 0 1 0 0 0 0 0 1 2 12 17 32 1 0 1 1 8 60 14 2 15 41 2 1 0 1 24 86 Solde hommes femmes 5 5 7 1 2 0 50 70 7 5 9 1 2 1 3 13 34 6 4 7 0 1 0 0 4 16 9 0 2 14 0 0 1 0 8 25 Solde et femmes uniquement +2 +13 +51 -1 +3 +1 +19 +88 -7 -4 -9 -1 -2 -1 -3 -12 -32 +6 +13 +25 +1 -1 +1 +1 +4 +44 +5 +2 +13 +27 +2 +1 -1 +1 +16 +61 0 0 0 0 0 0 0 0 -2 0 0 0 0 0 0 0 0 -1 0 0 0 0 0 0 0 0 -1 0 0 0 0 0 0 0 0 0 459 Annexe 1 (suite) : Année Nationalités 1961 Français Portugais Espagnols Italiens Arméniens Libanais Grec Turc Polonais Letton Algériens Total étrangers Français Portugais Espagnols Italiens Algériens Total étrangers Français Portugais Espagnols Italiens Libanais Grec Tchèque Algériens Total étrangers Français Portugais Espagnol Italiens Polonais Algériens Total étrangers Français Portugais Espagnol Italiens Polonais Turc Algériens Total étrangers 1962 1963 1964 1965 Entrées Sorties 12 5 11 16 0 0 1 1 0 0 56 90 8 0 3 3 11 17 2 0 2 6 0 0 0 81 89 4 6 9 10 0 49 73 5 11 9 5 0 1 39 65 Solde hommes femmes 5 2 7 16 1 1 0 0 1 1 22 51 16 1 15 24 41 81 21 5 12 38 1 3 1 33 93 7 1 4 8 1 49 63 5 4 5 4 1 0 34 48 Solde et femmes uniquement +7 +3 +4 0 -1 -1 +1 +1 -1 -1 +34 +39 -8 -1 -12 -21 -30 -64 -19 -5 -10 -32 -1 -3 -1 +48 -4 -3 +5 +5 +1 -1 0 +10 0 +7 +4 +1 -1 +1 +5 +17 +2 0 0 0 0 0 0 0 0 0 0 0 -3 0 0 0 0 0 -2 0 0 0 0 -1 0 0 -1 +2 0 0 0 0 0 0 -1 0 0 0 0 0 0 0 460 Annexe 1 (suite) : Année Nationalités De janvier à juin 1966 Français Portugais Espagnol Italiens Polonais Algériens Total étrangers Total étrangers Total 19451er trimestre 1947 Total Sorties Solde Solde hommes et femmes femmes uniquement 0 0 1 1 0 1 3 441 15 9 11 22 1 47 81 200 -15 -9 -10 -21 -1 -46 -78 +241 0 0 0 0 0 0 0 +5 45 31 +14 +2 625 599 +26 -5 80 58 +22 +3 413 277 +135 0 53 48 +5 -5 138 111 +27 0 9 12 -3 +1 sur la période Total français sur la période 2d Total étrangers trimestre 1947-1956 sur la période Total français sur la période Total 1957- Total étrangers 1962 Entrées sur la période Total français sur la période Total 1963- Total étrangers 1965 sur la période Total français sur la période 461 Annexe 2 : État du personnel des HFC en avril 19541 Ateliers classifications hommes femmes total HAUT-FOURNEAU Dont : Français-es Algériens étrangers/ères naturalisé-e-s ingénieurs 2 0 2 0 0 0 2 maîtrise 8 0 8 0 0 1 8 OP 25 0 18 2 5 0 25 OS 52 0 26 12 14 8 52 manoeuvres 49 0 17 13 19 2 49 136 0 71 27 38 11 136 ingénieurs 2 0 2 0 0 0 2 maîtrise 9 0 9 0 0 1 9 techniciens 3 0 3 0 0 1 3 OP 25 0 19 0 6 3 25 OS 42 18 44 2 14 17 60 manoeuvres 24 0 6 7 11 0 24 105 18 83 9 31 22 123 2 0 2 0 0 0 2 OP 17 0 13 0 4 2 17 OS 1 1 2 0 0 0 2 20 1 17 0 4 2 21 total FONDERIE total MENUISERIE maîtrise total 1 AMC, fichier mécanographique, liste des prud'hommes 1954 et cahier du personnel étranger n° 15. 462 Annexe 2 : État du personnel des HFC en avril 1954 (suite) Ateliers classifications hommes femmes total USINAGE Dont : Français-es Algériens étrangers/ères naturalisé-e-s 2 0 2 0 0 0 2 OP 12 0 12 0 0 0 12 OS 2 0 2 0 0 0 2 apprenti 1 0 1 0 0 0 1 17 0 17 0 0 0 17 comptables 2 0 2 0 0 0 2 employés 4 4 8 0 0 0 8 pointeau 1 0 1 0 0 0 1 7 4 11 0 0 0 11 149 23 128 9 35 24 172 ingénieur 1 0 1 0 0 0 1 maîtrise 6 0 6 0 0 0 6 OP 4 0 4 0 0 1 4 OS 17 0 11 1 5 2 17 manoeuvres 13 0 6 2 5 0 13 41 0 28 3 10 3 41 maîtrise total BUREAUX total Total usine fonderie BRIQUETERIE CIMENTERIE total 463 Annexe 2 : État du personnel des HFC en avril 1954 (suite) Ateliers classifications hommes femmes total AGGLOMÉRATION Dont : Français-es Algériens étrangers/ères naturalisé-e-s 1 0 1 0 0 0 1 OS 12 0 11 0 1 0 12 manoeuvres 16 3 11 3 5 3 19 29 3 23 3 6 3 32 1 0 1 0 0 0 1 12 0 10 0 2 1 12 5 0 1 0 4 0 5 18 0 12 0 6 1 18 maîtrise 1 0 1 0 0 0 1 OS 8 0 6 0 2 1 8 manoeuvres 5 0 2 1 2 1 5 14 0 9 1 4 2 14 ingénieur 3 0 3 0 0 0 3 OP 4 0 4 0 0 0 4 OS 3 0 3 0 0 0 3 manoeuvres 2 0 2 0 0 0 2 12 0 12 0 0 0 12 maîtrise total PARC À FERRAILLES maîtrise OS manoeuvres total PARC À FONTES total LABORATOIRE total 464 Annexe 2 : État du personnel des HFC en avril 1954 (suite) Ateliers BUREAUX D'ÉTUDE classifications hommes femmes total Dont : Français-es Algériens étrangers/ères naturalisé-e-s ingénieur 1 0 1 0 0 0 1 dessinateurs 3 0 3 0 0 0 3 4 0 4 0 0 0 4 77 3 60 4 16 6 80 ingénieur 1 0 1 0 0 0 1 maîtrise 6 0 6 0 0 0 6 OP 27 0 26 0 1 0 27 OS 25 0 24 0 1 3 25 manoeuvres 4 0 3 1 0 1 4 apprenti 1 0 1 0 0 0 1 64 0 61 1 2 4 64 5 0 5 0 0 2 5 OP 15 0 8 1 6 2 15 OS 16 0 13 0 3 3 16 manoeuvres 26 0 13 5 8 2 26 62 0 39 6 17 9 62 total Total activités périproductives hautfourneau/fonderie ENTRETIEN total MAÇONNERIE maîtrise Total 465 Annexe 2 : État du personnel des HFC en avril 1954 (suite) Ateliers classifications hommes femmes total CENTRALE Dont : Français-es Algériens étrangers/ères naturalisé-e-s ingénieur 1 0 1 0 0 0 1 maîtrise 4 0 4 0 0 0 4 OP 10 0 10 0 0 0 10 OS 1 0 1 0 0 0 1 16 0 16 0 0 0 16 maîtrise 4 0 4 0 0 0 4 OP 4 1 4 0 1 1 5 OS 17 0 12 1 4 3 17 manoeuvres 22 0 13 2 7 3 22 47 1 33 3 12 7 48 maîtrise 1 0 1 0 0 0 1 OS 5 0 5 0 0 0 5 6 0 6 0 0 0 6 195 1 155 10 31 20 196 Total MANUTENTION Total GARAGE Total Total activités périproductives de l'usine 466 Annexe 2 : État du personnel des HFC en avril 1954 (suite) Ateliers classifications hommes femmes total GRANDS BUREAUX Dont : Français-es Algériens étrangers/ères naturalisé-e-s directeur Secrétaire général 1 0 1 0 0 0 1 1 0 1 0 0 0 1 chefs de service 3 0 3 0 0 0 3 Secrétaires 1 6 7 0 0 0 7 Comptables 4 0 4 0 0 0 4 10 3 13 0 0 0 13 20 9 29 0 0 0 29 Chef de service 1 0 1 0 0 0 1 Secrétaires 0 3 3 0 0 0 3 Employé 1 0 1 0 0 0 1 2 3 5 0 0 0 5 Caissier principal 1 0 1 0 0 0 1 Caissier 1 0 1 0 0 0 1 Comptable 0 1 1 0 0 0 1 Employé 2 2 4 0 0 0 4 4 3 7 0 0 0 7 26 15 41 0 0 0 41 Employés Total BUREAUX DU PERSONNEL Total BUREAUX PAIE Total Total personnels des bureaux 467 Annexe 2 : État du personnel des HFC en avril 1954 (suite) Ateliers classifications hommes femmes total SERVICE SECURITÉ Dont : Français-es chef de service Algériens étrangers/ères naturalisé-e-s 1 0 1 0 0 0 1 0 1 1 0 0 0 1 0 2 2 0 0 0 2 1 3 4 0 0 0 4 infirmier 2 0 2 0 0 0 2 chef gardes 1 0 1 0 0 0 1 gardes 6 0 6 0 0 0 6 pointeaux 3 0 3 0 0 0 3 concierge 1 0 1 0 0 0 1 11 0 11 0 0 0 11 femme de ménage 0 10 9 0 1 1 10 cantiniers 1 1 2 0 0 0 2 jardiniers entraineur sportif 4 0 4 0 0 1 4 1 0 1 0 0 1 1 6 11 16 0 1 3 17 644 56 516 53 131 67 700 assistante sociale secrétaires total INFIRMERIE SURVEILLANCE total SERVICE AUX PERSONNELS ET LOCAUX total total général 468 Annexe 3 : Productions des HFC de 1945 à 19661 Année 1945-1946 1946-1947 1947-1948 1948-1949 1949-1950 1950-1951 1951-1952 1952-1953 1953-1954 1954-1955 1955-1956 1956-1957 1957-1958 1958-1959 1959-1960 1960-1961 1961-1962 1962-1963 1963-1964 1964-1965 1965-1966 Fonte Cimenterie2 Laitier sec Laitier broyer Fonderie 34 000 59 000 77 000 80 000 57 500 65 000 89 700 85 600 39 000 37 500 64 000 88 334 89 048 76 000 137 000 169 000 193 000 102 000 109 000 115 000 103 000 2 540 5150 6 900 9 700 10 400 12 000 16 000 16 000 12 500 - - 40 000 30 544 - 14 716 - Ciment 33673 24 000 50 327 9 205 - 1 ADI, 56J12, 56J13, 56J15, 56J16, 56J24. Pour l'exercice 1960-1961 : tous produits confondus. Pour l'exercice 1961-1962 : laitier humide et ciment cumulé. Pour l'exercice 1962-1963 : tous produits confondus. 2 469 Annexe 4 : Chiffres d'affaire et résultats des HFC de 1945 à 1966 en francs constants1 Exercice 1945-1946 1946-1947 1947-1948 1948-1949 1949-1950 1950-1951 1951-1952 1952-1953 1953-1954 1954-1955 1955-1956 1956-1957 1957-1958 1958-1959 1959-1960 1960-1961 1961-1962 1962-1963 1963-1964 1964-1965 1965-1966 Chiffre d'affaire Non fourni Non fourni Non fourni Non fourni Non fourni 1 500 000 000 3 000 000 000 2 333 000 000 1 525 000 000 1 676 000 000 2 514 000 000 3 393 000 000 3 845 453 547 3 391 810 799 5 500 000 000 6 700 000 000 7 300 000 000 4 900 000 000 4 800 000 000 4 800 000 000 3 900 000 000 Résultat2 + 16 141 892,69 + 21 369 865,25 + 57 308 870,00 +51 819 007,00 + 39 566 199,86 +50 134 225,50 +75 525 507,00 + 37 789 306,00 + 11 811 669,00 +10 649 555,00 +20 255 282,00 +12 063 902,00 0 + 20 185 066,00 +1 671 325,00 -589 666,00 0 -2 164 283,00 +4 666 913,00 -19 627 776,003 -605 891 131,00 1 ADI, 56J12, 56J13, 56J15, 56J16, 56J24. Résultat et chiffre d'affaire exprimés en francs : la conversion en NF n'a pas été effectuée afin de faciliter la comparaison. 3 Résultat présentés à l'AG ordinaire du 20 décembre 1965, mais repoussés par l'assemblée, ils sont adoptés à l'AG ordinaire du 15 mars 1966 : ADI, 56J27, rapport du CA à l'AG. 2 470 Annexe 5 : Les HFC concernés par la modernisation et la réorganisation de la sidérurgie de 1945 à 1956 Échelle locale : HFC/Givors -Juin 1945 : visite d'Alexis Aron. Projet de concentration des hautsfourneaux et des cokeries « d'un seul côté du Rhône »1. -Automne 1947 : le rapport de la Commission Aron indique la nécessité d'équiper Chasse ou Givors d'un appareil moderne d'une capacité quotidienne de cinq à six-cents tonnes de production par jour2. -Été 1953 : Albert Denis demande l'établissement d'un rapport technique sur le rapprochement ChasseGivors 5. -Janvier 1955 : les discussions débouchent sur des projets de rapprochement financier6. Échelle régionale : vallée du Gier et région stéphanoise principalement -1945-1947 : rivalités entre sidérurgistes de la Loire, ce qui bloque les projets de rationalisation des productions 3. -Décembre 1947 : la Commission de modernisation sanctionne les entreprises de la Loire. -1948 : lancement d'un plan de modernisation et d'une augmentation de capital afin de résister à la concurrence7. -1949 : reprise des discussions entre les Aciéries de Saint-Étienne et de la Marine8 -Été 1952 : accord de fusion signé créant la Compagnie des Forges et Aciéries de la Marine et de Saint-Étienne9 -Décembre 1953 : création de la Compagnie des Forges et Ateliers de la Loire10 Échelle nationale : acteurs économiques et politiques Echelle européenne : acteurs économiques et politiques -3 janvier 1946 : création du Commissariat général du Plan. -9 mars 1946 : création de la Commission de la sidérurgie. -Janvier 1947 : mise en oeuvre du Plan Monnet et définition des secteurs de base. Impact sur le plan de modernisation de Chasse -7 octobre 1947 : présentation du plan de 4 modernisation . -1948 : participation des HFC à l'augmentation de capital des Aciéries de Saint-Étienne au détriment de ses propres investissements12. - Mai 1950 : présentation du plan Schuman. Pierre Cholat lui est immédiatement hostile11. -1952-1954 : période de chute des ventes de fonte13. -Hiver 1953 : début de la reconstruction du hautfourneaux n°314. -13 mai inauguration du fourneau n°315. 1 ADI, 56J12, conseil d'administration du 14 juin 1945 ; ADL, 117J8, conseil d'administration du 15 juin 1945. 2 D'après le rapport de la Chambre syndicale de la sidérurgie du 19 septembre 1947, ADR, 34J230. 3 ADL, 117J8. 4 ADI, 56J12. 5 ADI, 56J12, conseil d'administration du 9 juillet 1953. 6 Ibidem, conseil d'administration du 29 janvier 1955. 7 ADL, 117J8, conseils d'administration des 13 mars et du 25 mai 1948. 8 AN, 2012 026 601, Fusion-absorption de la Compagnie des Fonderies, Forges et Aciéries de SaintÉtienne. 9 ADL, 117J9, conseil d'administration du 29 août 1952. 10 AN, 2012 026 602, AG mixte ordinaire et extraordinaire du 21 décembre 1953. 11 ADI, 56J12, conseil d'administration du 19 juin 1950. 12 ADI, 56J12, conseils d'administration des 25 mai 1949, 6 janvier 1950 ; 56J22, rapport des commissaires aux comptes 1947-1948 et rapport du CA à l'AG ordinaire du 28 juin 1949 ; 56J27, procès verbal de l'AG extraordinaire du 28 juin 1949. 13 ADI, 56J22, rapport du CA à l'AG du 14 février 1957. 14 ADI, 56J12, conseil d'administration du 26 février 1953. 15 ADI, 56J12, conseil d'administration du 30 mai 1956 ; BML, Le Progrès n° 33 665, p. 12. 471 1956 : haut- Annexe 6 : Chronologie du plan de modernisation des Hauts-Fourneaux de Chasse jusqu'à la mise à feu du haut-fourneau n° 31 Nature du projet Construction d'un fourneau moderne. Date de présentation Date de début des Évaluation et/ou prix et/ou d'adoption du travaux et/ou commande et/ou coût projet d'achèvement final haut 7 octobre 1947 : présentation. 28 avril 1948 : adoption du projet 19 juillet 1951 : commande aux Forges ateliers du Creusot Travaux commencés en 1953 et achevés en mai 1956 Installation d'un troisième broyeur à la cimenterie. 7 octobre 1947 : présentation. 8 janvier 1948 : commande passée à Five Lille. 7 octobre 1947 : présentation. 30 mars 1949 : commande passée à Delattre et Frouard. Travaux commencés en avril 1949 et achevés en 1950. Installation de criblage du coke. 4 mars 1948 : présentation. Installée en 1954. Installation de deux galeries d'adduction des matières premières pour les hauts-fourneaux deux et trois. 4 mars 1948 : présentation. Installée en 1954. Partie électrique 30 mars 1949 Réalisé au fur et à mesure de l'avancement des différents chantiers. Installation d'une machine à couler pour les hautsfourneaux deux et trois. 1 Début des travaux le 25 novembre 1949 et achèvement en Septembre 1951 Évalué à 80 millions en 1951 pour haut-fourneau et 178 millions pour son monte-charge. Coût final en 1954 de 100 millions pour la reconstruction du haut-fourneau, inconnu pour son monte-charge. Évaluation de 8 à 9 millions de francs. Coût final inconnu. Commandée à 46,181 millions de francs pour la machine, le charriot et les poches de coulée et 30 millions pour le pont. Coût final total : plus de 100 millions de francs Évaluation de 15 millions de francs. Commandée à 48 millions de francs à Delattre et Frouard. Évaluation de 15 millions de francs par galerie. Son coût final avec l'installation de criblage de coke (ci-dessus) est de 84 millions de francs. Coût final de 48 millions de francs. Source : ADI, 56J12, 56J22, 56J24 et 56J59. 472 Annexe 7 : Articles du règlement d'atelier du 1er septembre 1950 concernant la discipline1 « 10e Il est interdit d'entrer ou de sortir de l'usine autrement que par la ou les portes principales. 11e Toute entrée ou toute sortie de l'établissement donne lieu à un pointage. Il est formellement interdit de pointer pour une autre personne. Les heures non pointées ne sont pas rémunérées. [] 13e Les mutations à l'intérieur des ateliers, les sorties au dehors, la procédure de vérification et d'acceptation des travaux ; la procédure de délivrance des matières premières et de l'outillage, sont réglées par notes de service. [] 18e Pour le maintien du bon ordre et de la discipline générale, il est interdit de : -Entrer dans les ateliers en état d'ivresse. -Introduire des boissons alcooliques. -Se déranger de sa besogne sans motif et sans autorisation et de pénétrer dans les locaux autres que le lieu de son travail sans motif de service. -Rester dans les ateliers après l'heure fixée pour le départ. -Prendre des repos dans les ateliers et bureaux. -Fumer dans les endroits indiqués par la direction. -Toucher aux appareils sans nécessité. -Faire des collectes sans autorisation. -Lire pendant le travail. -Distribuer, vendre ou afficher des imprimés ou écrits divers. -Emporter de l'usine sans autorisation des objets et documents appartenant à l'établissement. -Faire susciter tout acte de nature à troubler la bonne harmonie du personnel. -Sortir de l'usine sans autorisation. -Introduire des personnes étrangères à l'établissement sans autorisation. 1 ADI, 56J57. 473 19e Le personnel ouvrier est soumis à la subordination envers tout agent de maîtrise, que ce personnel soit placé directement ou non sous l'autorité de chacun de ces agents. 20e L'ouvrier doit signaler à son chef direct les accidents survenus aux machines qu'il conduit ou à l'outillage dont il est responsable, ainsi que les défauts constatés dans les pièces en cours d'exécution ; l'ouvrier est responsable des matières premières et des outils dont il a la charge, ainsi que des malfaçons dues à sa faute. 21e Tout retard dû à un cas de force majeure doit être justifié. 22e Deux retards non justifiés sont susceptibles d'entrainer des sanctions. En cas de récidive la direction se réserve de prononcer le renvoi. 23e Tout absence de 3 jours sans avertissement pourra être considérée comme un départ définitif. [] 25e La direction se réserve le droit de procéder, soit en tout temps, soit de temps à autre à des vérifications relatives aux objets emportés par les salariés. Ces vérifications pourront porter sur la personne même de ces derniers. Elles seront effectuées à la sortie de l'établissement par le personnel de contrôle. 26e En dehors des sanctions prévues par la législation en vigueur, à l'occasion d'un certain nombre de prescription qu'elle édicte, la Direction se réserve d'appliquer les sanctions suivantes en cas d'infraction au présent règlement ou en cas de faute commise à l'intérieur de l'établissement. -Avertissement (3 avertissements successifs dans le délai d'un mois entraîneront le renvoi). -La mutation dans un autre emploi ou tout autre service. -La mise à pied. -Le renvoi ». 474 Annexe 8 : Arrêts longue maladie du personnel des HFC de 1957 à 1962 1 1957 Ateliers Hommes Femmes 1 1 1 1 1 5 0 1 0 0 1 2 Français 0 1 1 0 2 4 Algériens 0 1 0 1 0 2 Étrangers 1 0 0 0 0 1 Total 1 2 1 1 2 7 2 1 2 0 1 1 2 1 1 0 0 2 0 1 0 2 2 3 4 1 1 1 1 1 9 4 0 0 0 0 0 4 4 1 1 0 1 1 8 2 0 0 1 0 0 3 2 0 0 0 0 0 2 8 1 1 1 1 1 13 2 2 5 0 4 0 1 6 1 0 0 3 1 0 1 2 6 5 5 1 2 2 1 1 1 0 13 0 0 0 0 0 0 0 2 2 1 1 2 1 0 1 1 2 9 0 0 0 1 1 0 0 0 2 4 0 0 0 0 0 0 0 4 5 1 2 2 1 1 1 2 15 3 4 6 0 0 2 2 4 3 0 0 2 1 0 3 3 4 8 2 6 1 1 3 2 1 1 0 17 0 0 0 0 0 0 0 0 2 2 1 2 1 1 3 1 1 1 2 13 1 0 0 0 0 1 0 0 0 2 0 4 0 0 0 0 0 0 0 4 2 6 1 1 3 2 1 1 2 19 3 1 6 7 0 0 0 2 3 1 5 3 0 0 0 2 0 0 1 4 3 1 6 9 Dont Haut-fourneau Fonderie Entretien Manutention Divers Total Soit par classification OP OS Manoeuvres 1958 Fonderie Entretien Maçonnerie Manutention Garage Divers Total Soit par classification OP OS Manoeuvres 1959 Fonderie Cimenterie Entretien Maçonnerie Manutention Garage Agglomération Divers Total Soit par classification OP OS Manoeuvres 1960 Haut-fourneau Fonderie Cimenterie Laboratoire Entretien Maçonnerie Manutention Garage Divers Total Soit par classification Maîtrise OP OS Manoeuvres 1 AMC, 1H3, mutualité, fichier mécanographique du personnel et liste électorale des prud'hommes 1960. 475 Annexe 8 : Arrêts longue maladie du personnel des HFC de 1957 à 1962 (suite) 1961 Ateliers Hommes Femmes 7 8 1 1 5 4 3 1 0 0 1 31 0 0 0 0 0 0 0 0 1 1 0 2 Français 5 4 1 1 5 3 1 1 1 1 1 24 Algériens 1 1 0 0 0 1 1 0 0 0 0 4 Étrangers 1 3 0 0 0 0 1 0 0 0 0 5 Total 7 8 1 1 5 4 3 1 1 1 1 33 1 6 8 16 0 0 0 2 1 6 7 10 0 0 0 4 0 0 1 4 1 6 8 18 4 9 1 3 1 4 1 0 2 1 26 0 2 0 0 0 0 0 2 0 0 4 3 7 1 3 1 2 1 2 1 0 21 1 1 0 0 0 0 0 0 0 1 3 0 3 0 0 0 2 0 0 1 0 6 3 11 1 3 1 4 1 2 2 1 30 2 5 11 8 0 0 1 3 2 5 7 7 0 0 2 1 0 0 3 3 2 5 12 11 Dont Haut-fourneau Fonderie Cimenterie Laboratoire Entretien Maçonnerie Manutention Garage Agglomération Divers Bureaux Total Soit par classification Employé OP OS Manoeuvres 1962 Haut-fourneau Fonderie Cimenterie Entretien Maçonnerie Manutention Garage Agglomération Parc à fontes Ferrailles Total Soit par classification Maîtrise OP OS Manoeuvres 476 Annexe 9 : Extrait du compte-rendu de la réunion extraordinaire du comité d'entreprise du 6 décembre 19651 Président : Antoine de Tarlé Roux : délégué du personnel CGT Escanès : délégué du personnel CGT 1 AMC, 1H3, compte-rendu dactylographié de la réunion extraordinaire du 6 décembre 1965. La page 13 a été retapée par mes soins pour des raisons de pagination. 477 478 - 13 M. le Président.- Les travailleurs de la sidérurgie n'en souffriraient pas dans de grandes usines prospères, mais dans les petites usines comme Chasse, Decazeville, je ne sais pas ce qui se passerait. Messieurs, nous allons lever cette séance et nous nous retrouverons à un autre Comité d'Entreprise, pour vous tenir au courant de l'évolution des évènements. Messieurs, je vous remercie. 479 Annexe 10 : Les luttes de l'année 19661 1966 Les étapes de la mobilisation 18 janvier Premier débrayage pour que « vive les Hauts-Fourneaux de Chasse ». 2 Février Second débrayage et première manifestation devant les locaux de l'entreprise. Sont présents maire de Chasse (Domeyne) et ses adjoints, Vallin (sénateur maire de Givors, les instituteurs du SNI mais aussi des représentants de nombreux syndicats (CGT, FO, CFDT, CGC). Manifestation qui aurait rassemblé 5000 personnes : les salariés des HFC rejoints, par ceux de Givors et la population de la commune défilent dans Chasse jusqu'à la place de la mairie. À la suite de cette manifestation, le gouvernement répond à la demande d'audience et une délégation doit partir à Paris rencontrer Marcellin, ministre de l'industrie. Cependant le rendezvous est annulé au dernier moment (par Parodi). Il est reporté au 17 février Envoi d'une cinquantaine de délégations syndicales devant la préfecture du Rhône à l'appel des syndicats de la métallurgie CGT, CGT-FO, CFDT afin d'appuyer la demande de maintien de l'activité aux HFC. Manifestation à Lyon lors de la venue de Michel Debré (ministre de l'économie et des finances) : plus de 3 000 manifestants à Lyon. Un appel est lancé pour des débrayages dans plusieurs usines de la région. Débrayage dans toutes les usines métallurgiques de Givors en solidarité avec les HFC et manifestation. Un appel à manifester devant la bourse du travail est lancé par la CGT et la CGT-FO de l'usine. Débrayages aux HFC pour protester contre les projets de licenciements groupés. 3 Février 10 Février 18 Février 15 Mars 6 Avril 1er Mai 3 Mai 12 Mai 17 Mai 2 Juin 3 Juin 14 Juin 6 Juillet Manifestation de plusieurs unions locales CGT, CGT-FO, CFDT, SNI placée sous le signe des 30 ans de 1936. Accueil à Chasse et Givors d'une délégation de travailleurs de la Seyne-surmer en marche sur Paris pour la défense de l'emploi. Tenue d'un meeting commun. Débrayages à l'appel de la CGT et de la CGT-FO pour protester contre d'éventuels licenciements collectifs. Appel à se réunir devant les grands bureaux. Appel de la CGT et de la CGT-FO à rejoindre la grève nationale. Appel à manifester à Givors et à Lyon. Marche jusqu'à la sous-préfecture de Vienne. Lettre ouverte de Joseph Domeyne à Charles de Gaulle lors de sa venue dans l'Isère. Nouvelle délégation à Paris, reçue par Parodi. Manifestation à Chasse avec décision d'aller bloquer l'autoroute. Après un débrayage des travailleurs, les cloches de l'église et les sirènes de l'usine appellent la population à manifester. Cela se fait dans le cadre d'une journée nationale pour la défense de l'emploi. Marche sur Paris afin de manifester du ministère des finances à celui de l'industrie. 1 AMC, 1H3, documents du comité local de défense ; presse locale : Le Progrès, Dauphiné Libéré, l'Humanité et différents documents et photographies transmis par Michel Paret et Éric Combaluzier. 480 Annexe 11 : Tracts de l'année 19661 26 janvier 1966 1 AMC, 1H3 ; photographies transmis par Michel Paret et Éric Combaluzier 481 26 janvier 1966 (suite) 482 1er mai 1966 : 483 14 juin 1966 : 484 14 juin 1966 (suite) : 485 6 juillet 1966 : 486 6 juillet 1966 (suite) : 487 489 Annexe 13 : questionnaire 1 1) Etat civil : -Date et lieu de naissance. -Si immigré : date et lieu d'installation en France/raison de la migration -Date et lieu du mariage. Présentation du conjoint et des enfants 2) Carrière : -Postes occupés. -Conditions de travail de l'usine. 3) Activités de l'usine -Présentation des ateliers des HFC -Métiers des autres ateliers et postes de travail. 4) Vivre avec les HFC -Localisation du logement occupé. -Quels sont les avantages fournis par l'usine (jardins ouvriers, etc.) ? 5) Nationalités -Qui sont les étrangers présents aux HFC ? -Comment venaient-ils ? -Gardaient-ils de relations avec leurs familles -Pourquoi migraient-ils 6) Temps libre -Comment le temps libre était-il occupé ? 490 Annexe 14 : questionnaire 2 1) Carrière personnelle -Postes occupés -Temps passé aux HFC -Qualification -conditions personnelles de recrutement -Evolutions de carrière -Conditions de travail -Carrière après HFC 2) Renseignement sur la vie du personnel des HFC : les politiques paternalistes et les oeuvres sociales -loisirs : associations sportives, cinéma, bibliothèque -Colonies de vacances -Cercle -prêts HFC et comptes bancaires -logements HFC (voir : 3) -cérémonies : arbres de noël, médailles, départs en retraite -Les commerces 3) Renseignement sur la vie du personnel des HFC : le logement -Combien de personnels sont concernés par les logements fournis par les HFC. Combien de familles. -Où étaient les logements des HFC ? -Quels sont les différents types de logements ? -Quels sont les enjeux liés au logement ? 4) Renseignement sur l'arrivée des personnels immigrés -Comment venaient-ils ? Famille, recrutement HFC, recrutement autres entreprises ? -Comment étaient-ils accueillis ? -Y a-t-il des différences entre les communautés ? -Qui est le responsable du recrutement et/ou de l'accueil des migrants aux HFC ? 5) Renseignement sur le système de santé des HFC -Fréquence des blessures et maladies. -Efficacité des soins. 6) Présence des personnels immigrés et/ou étrangers -Sont-ils insérés dans la ville de Chasse et dans les communes alentour ? -Comment sont-ils présents dans la vie de la ville ? -Quels sont les cultes pratiqués ? 7) Questions diverses logement -Qu'est-ce que Le clos Jobert ? Maison Bal ? Nugues ? -Qui gère Les Espinasses ? -Quels sont les immeubles des HFC à Givors ? -Pourquoi les Portugais sont à Saint Andéol ? -Y a-t-il des garnis, des chambres louées, etc ? Fermeture des HFC 491 Annexe 15 : questionnaire 3, téléphonique 1) Carrière personnelle -Postes occupés -Temps passé aux HFC -Qualification -conditions personnelles de recrutement -Evolutions de carrière -Conditions de travail -Carrière après HFC 2) Renseignement sur la vie du personnel des HFC : les politi ues d'oeuv es sociales -loisirs : associations sportives, cinéma, bibliothèque -Colonies de vacances -Cercle -prêts HFC et comptes bancaires -logements HFC -cérémonies : arbres de noël, médailles, départs en retraite -Les commerces 3) Renseignement sur le système de santé et de protection des HFC -Fréquence des blessures et maladies. -Efficacité des soins. 4) Présence des personnels immigrés et/ou étrangers -Comment sont-ils présents dans la vie de la ville ? 5) Questions diverses -Pourquoi les Portugais sont à Saint Andéol ? -Y a-t-il des garnis, des chambres louées, etc ? -Evolution du rythme et des co ditio s de t avail avec la ode isatio de l'e t ep ise. -Jugement sur la fermeture des HFC 492 Table des illustrations : Graphiques : Graphique 1 : Recrutement des personnels français des HFC de 1947 à 1956 200 Graphique 2 : Différence des entrées et sorties de travailleurs étrangers de1947 à 1956 200 Graphique 3 : Recrutement : entrées des personnels étrangers des HFC de 1947 à 1956 201 Graphique 4 : Recrutement : sorties des personnels étrangers des HFC de 1947 à 1956 201 Graphique 5 : Lieux de naissance des travailleurs français selon leur année d'entrée dans l'usine de 1947 à 1956 211 Graphique 6 : Entrées des personnels de nationalité étrangère des HFC pendant les « sept glorieuses » 299 Graphique 7 : Sorties des personnels de nationalité étrangère des HFC pendant les « sept glorieuses » 300 Graphique 8 : Recrutement des personnels de nationalité française des HFC pendant les « sept glorieuses » 300 Graphique 9 : Variations mensuelles des entrées et sorties, 1962 357 Graphique 10 : Variations mensuelles des entrées et sorties, 1963 358 Tableaux : Tableau 1 : Évolution du recrutement du personnel de nationalité française des HFC de 1940 à 1944 51 Tableau 2 : Évolution du recrutement du personnel de nationalité étrangère des HFC de 1940 à 1944 51 Tableau 3 : Évolution des résultats de la Compagnie des Hauts-Fourneaux de Chassesur-Rhône de l'exercice 1939-1940 à l'exercice 1946-1947 82 Tableau 4 : Évolution de la production de fonte aux HFC de l'exercice 1939-1940 à l'exercice 1946-1947 83 Tableau 5 : Achats de terrains et travaux neufs de l'exercice 1942-1943 à l'exercice 1946-1947 89 493 Tableau 6 : Évolution du recrutement des personnels des HFC de 1945 à juin 1947 par nationalités et par sexe 98 Tableau 7 : Période d'entrée des ouvriers des hauts-fourneaux présents en 1954, en fonction de leur position dans la classification, exprimée en proportion de chaque classe 146 Tableau 8 : Comparaison des effectifs du personnel employés aux hauts-fourneaux en avril 1954 et décembre 1956 175 Tableau 9 : Flux entrants et sortants d'ouvriers spécialisés et de manoeuvres de l'atelier du haut-fourneau entre avril 1954 et décembre 1956 178 Tableau 10 : Les accidents du travail suivis d'arrêts de longue durée 1953-1956 194 Tableau 11 : Comparaison de la mobilité des travailleurs algériens et italiens des HFC de 1947 à 1956 208 Tableau 12 : Date d'entrée du personnel des HFC en 1954 suivant leur classification 215 Tableau 13 : Acquisitions d'habitations et de logements par les HFC de 1946 à 1960 250 Tableau 14 : Évolution de l'âge des salariés des HFC de 1956 à 1962 309 Tableau 15 : Composition du personnel des HFC en décembre 1956 et décembre 1962 310 Tableau 16 : Évolution des effectifs de salariés participant aux activités administratives et commerciales de 1956 à 1962 312 Tableau 17 : Comparaison des effectifs de la briqueterie-cimenterie, de la centrale et de la fonderie entre décembre 1956 et décembre 1961 314 Tableau 18 : Estimation des modes de logements des travailleurs étrangers des HFC en 1956 et 1962 323 Tableau 19 : Exemples de salaires annuels bruts 1954-1957 330 Tableau 20 : Salaires annuels bruts d'un OS de la fonderie de 1958 à 1961 332 Tableau 21 : Exemple de salaires mensuels d'un OS des hauts-fourneaux en 1961 333 Tableau 22 : Répartition des travailleurs des Hauts-Fourneaux de Chasse en 1960 et 1966 en fonction des postes occupés et des nationalités 370 Annexe 1 : Évolution du recrutement des personnels des HFC de 1945 à 1966 par nationalités et par sexe 456 Annexe 2 : État du personnel des HFC en avril 1954 462 494 Annexe 3 : Productions des HFC de 1945 à 1966 469 Annexe 4 : Chiffres d'affaire et résultats des HFC de 1945 à 1966 en francs constants 470 Annexe 5 : Les HFC concernés par la modernisation et la réorganisation de la sidérurgie de 1945 à 1956 471 Annexe 6 : Chronologie du plan de modernisation des Hauts-Fourneaux de Chasse jusqu'à la mise à feu du haut-fourneau n° 3 472 Annexe 8 : Arrêts longue maladie du personnel des HFC de 1957 à 1962 475 Annexe 10 : Les luttes de l'année 1966 480 Documents : Document 1 : Vue des Hauts-Fourneaux de Chasse (vers 1945 ?) 85 Document 2 : Photographie de la machine à couler des hauts-fourneaux n° 2 et n° 3 119 Document 3 : Coulée de fonte au Haut-fourneau n° 3 120 Document 4 : Une pontonnière de la fonderie 149 Document 5 : Vue du château de la direction au début du XXe siècle 245 Document 6 : Vue du quartier de l'église après 1949 246 Document 7 : Vue des principaux quartiers ouvriers créés par les HFC à Chasse-surRhône 247 Document 8 : Concours de belote du CE du 22 décembre 1962 254 Document 9 : Inauguration du haut-fourneau n° 3 en 1956 263 Document 10 : Nouvelle centrale en cours de montage 278 Document 11 : Nouvelle centrale achevée 279 Document 12 : Nouvelle centrale, intérieur 279 Document 13 : Nouveau séchoir Polysius de la cimenterie 280 Document 14 : La mobilisation du 3 février 1966 386 Document 15 : La mobilisation du 3 mai 1966 387 Document 16 : La mobilisation du 14 juin 1966 388 Document 17 : Face à face avec les forces de l'ordre, 14 juin 1966 388 Annexe 11 : Tracts de l'année 1966 481 Annexe 12 : fichier mécanographique du personnel 488 495 Index : A Bouilloux Julien : 394 C Abel Fernand : 24, 95, 110, 121, 158, 160, 186, 187, 189, 232, 260, 261, 311, 321, Chapuis Noël : 352, 431 322, 324, 340, 399, 401, 432 Charlot Aimé : 264 Agid Roger : 393-395, 396, 399-400, 404 Charrier Georges : 24, 95, 110, 121, 143, Aguillon Jacques : 38 150, 151, 155, 166, 167, 172, 173, 181, Arcondara Simone : 107, 219, 222, 232, 186, 187, 197, 232, 238, 239, 240, 248, 234, 235, 240, 248, 251, 252, 257, 260, 251, 252, 257, 260, 261, 262, 311, 321, 264, 307, 321, 322, 326, 334, 340, 399, 322, 334, 338, 340, 399, 432, 433 401, 432, 433 Chalus Hélène : 46, 129 Aron Alexis : 78, 79, 124, 125, 133, 134, Chauzat Paul : 264 286, 430, 441, 471 Cholat Charles : 35, 36, 40, 41, 44, 46, 291 Aveline Léon : 203, 346, 349, 377, 393, Cholat Auguste : 46 405 Cholat Joseph : 46, 226, 264, 265 B Cholat Lucien : 41, 43, 46, 67, 69-72, 104, Barrouin Charles : 35 122, 225, 226, 428 Barret Michel et Jean-Claude 379, 380 Cholat Pierre : 15, 39, 41, 45, 46, 66-79, Bellat Léonce : 295, 296, 355 82, 102, 104, 106, 125, 127-130, 132, 134- Bencheikh Dilmi : 209, 210, 234, 433 136, 223, 224, 227-231, 249, 254, 258, Bernet Jacques : 152, 159, 236, 257, 306, 263, 264, 269-272, 283, 285, 286-289, 334, 363, 433 291-296, 306, 307, 311, 318, 321, 327, Berthier Paul : 229, 294, 418, 430 340, 341, 347-349, 354-356, 376, 377, Bokanowski Michel : 366, 430 403-405, 412, 413, 415, 419, 428, 471 Bouchard Pierre : 326, 352 Curières de Castelnau Louis : 70, 74, 106, Boureille Jean : 162, 229, 230, 297, 327, 227, 228, 230, 284, 287-289, 291, 294, 295 D 328 Bouillet Janine : 25, 26, 41, 46, 59, 60, 88, Daum Léon : 37, 39, 45, 73, 76, 77, 123, 165, 193, 220, 230, 233, 237, 240, 241, 126, 128, 132, 133, 135, 225, 286, 431 248, 251, 252, 253, 254, 255, 257, 260, Denis Albert : 130, 133, 255, 349, 354, 264, 307, 321, 322, 326, 334, 340, 397, 366, 404, 430, 471 399, 401, 431, 432, 433, 455 496 De Benoist de Gentissart Georges-Albert : J 162, 167, 181, 220, 230, 258, 264, 280, Jobert Andrée : 60, 154, 186, 232, 236, 288, 295-297, 280, 288, 311, 340, 355, 241, 251, 252, 257, 305, 307, 309, 311, 376, 377, 381, 383, 395, 429, 433 315, 321, 322, 334, 340, 375, 389, 399, Debré Michel : 404, 480 401, 433 Demoule Jean : 32, 42, 43, 66, 117, 229 Jounay Charles : 143, 260, 268, 270, 383 L De Tarlé Antoine : 181, 285, 289, 295, 296, 306, 339, 347, 348, 352-356, 366, Laurent-Devalors Paul : 59, 60, 72 372, 375, 376-379, 383, 403, 404, 428, 431 Laurent Théodore : 37, 46, 63, 127, 128, Diederichs André : 227, 293, 351, 356, 442 129, 133, 134, 226, 228, 229, 294 Diserens Elfriede : 380, 395 Laurent Jacques : 126 Diserens Jacques : 290, 340, 378, 383, Lefol Lucien : 130, 228, 287, 289, 363 393-395, 404-406, 424 Legendre André : 45, 131, 174, 280, 284, Diserens Marcel : 380-383, 393, 394, 404- 287, 288, 289, 291, 292, 293, 294, 295, 406 296, 306, 339, 355, 356, 363, 375, 377, Dolveck Charles : 378, 381 378, 393, 394, 395, 404, 405, 430 M Domeyne Joseph : 352, 389, 395, 399, 400, 480 Malcor Henri : 22, 35, 36, 41, 45, 46, 75, Doulcet Pierre : 296, 340, 356, 379, 429 105, 115, 117, 125, 128-130, 132-136, 181, Dumuis Marcel : 74, 76, 134, 135 223, 224, 225, 228, 229, 271, 287, 288, E Escanès Jean : 172, 173, 267, 268, 477 F 289, 294, 306, 349, 376, 380, 405, 420, 430, 444 Martouret Guillaume : 41, 42, 66, 81, 224, Farjas Joseph : 352, 388 225, 226 Fort Raoul : 291, 297 Martouret Jean : 226-227 G Montoya Jean : 140, 147, 175, 222, 239, Girerd Sylvain : 30, 226, 227 257, 260, 434 Grandjean Pierre : 380 Marrel Jules : 36, 42, 419 Goisset Paul : 42, 43, 66, 229 Marrel Jean-Baptiste : 36, 42 Grellet de la Deyte Pierre : 70, 227, 287 Marrel Léon : 41, 42, 46, 66, 74, 76, 125, Guillaud Raymond : 394, 398, 404 126, 224-226, 419 H Hubert Michel : 228, 229, 285, 290, 379, 393, 394, 396 Marrel Georges : 46, 226, 293, 356 P Poidebard Léon : 46, 264 497 V Pannefieu Alfred : 389, 400 Pastorino Gérard et Christiane : 140, 232, Vallin Camille : 267, 271, 352, 385, 387, 233, 236, 240, 241, 251, 255, 257, 260, 389, 480 261, 264, 265, 266, 311, 321, 322, 334, Vassillière Charles : 292, 295, 296, 306, 340, 364, 399, 401, 431, 433 355 Portal Charles : 167, 328, 338 Vergniaud Louis : 74, 76, 134, 135 Prénat Edouard : 36, 288, 289 R Rat Christian : 394 Réveil Charles : 264, 297, 415 Revol Ernest : 35 Riffard Gaston : 27, 161, 268, 270, 351, 352, 353, 367, 389 Rista Félix : 380, 383, 431 Roederer Joseph : 36, 37, 126 Roux Raymond : 267-270, 339, 351, 352, 379, 389, 400, 477 S Safer Mohamed : 24, 94, 109, 140, 142, 143, 144, 145, 147, 152, 155, 159, 160, 174, 176, 181, 186, 187, 235, 238, 239, 240, 241, 251, 252, 257, 260, 261, 262, 266, 311, 321, 322, 334, 337, 340, 399, 401, 432 Spaak Paul : 288 Soubirou Guy : 394 T Tavernier François : 42, 43, 66, 117, 162, 229, 268, 269 Tremeau Robert : 40-42, 66, 162, 224-225, 227, 418, 431 498 Table des matières Remerciements : 1 Liste des abréviations et sigles utilisés : 3 Sommaire : 4 INTRODUCTION GENERALE 5 I) Faire une histoire sociale du personnel 7 1) De l'histoire ouvrière à l'histoire du personnel d'une entreprise 7 2) Catégoriser le personnel des Hauts-Fourneaux de Chasse 9 II) Faire une histoire du personnel à la croisée d'autres champs de recherche en histoire 13 1) Les apports de l'histoire des techniques et du travail 14 2) Une histoire du patronat, des pratiques d'entreprises et des mouvements sociaux 15 3) Un contexte politique et économique déterminant le jeu des acteurs 17 III) Méthodes et sources 19 1) Les documents du personnel de l'entreprise 19 2) Les autres sources : documents d'entreprises, politiques, administratifs, judiciaires, presse et imprimés 21 3) L'apport des sources orales et privées 24 CHAPITRE 1 : RECONSTRUCTION ET RELANCE, 1945-1947 29 I) Chasse année zéro : une entreprise à l'arrêt 30 1) La Compagnie des Hauts-Fourneaux de Chasse et ses filiales face à un nouvel environnement 30 2) La Compagnie des Hauts-Fourneaux de Chasse dans le réseau régional 35 II) La permanence des dirigeants 40 1) Les Cholat, une famille ancienne 41 2) Une direction de l'usine anciennement installée 42 3) Des dirigeants d'expérience 44 III) Un personnel transformé par le conflit 47 1) Une évolution importante des effectifs 49 2) Les facteurs d'évolution des effectifs 53 a) Le contexte économique et politique 53 b) Le sexe et la nationalité 55 IV) 1945-1946 : reconstruire et relancer l'entreprise 63 1) Des dirigeants qui restent en place 66 2) Les réorganisations de l'après-guerre 74 499 a) De nouvelles logiques de réorganisation régionales 75 b) Les relations avec les différentes filiales 79 c) Compter sur ses propres forces 82 3) Reconstruire et relancer 85 V) Mobiliser le personnel 90 1) Les besoins en main d'oeuvre 92 2) Permanences et évolutions du recrutement 97 3) Un nouveau contexte politique et social 101 4) et l'évolution des rapports entre salariés et dirigeants 105 CHAPITRE 2 : UNE CROISSANCE FRAGILE, 1947-1956 112 I) Les enjeux de la modernisation 114 1) Les choix techniques 116 2) La modernisation, le personnel et la concurrence 120 3) La modernisation et le contexte économique et politique 123 a) 1946-1948 : des sidérurgistes de la Loire divisés 124 b) De 1948 à 1956 : la transformation des rapports de force locaux 127 c) et la domination des Aciéries de la Marine 131 II) Le personnel face à la modernisation et la relance de la production 138 1) Des postes de travail divers 140 a) Les hauts-fourneaux, coeur de l'usine 140 b) La fonderie et la briqueterie cimenterie 147 c) Les activités périproductives 155 d) Les activités de bureau et de service 163 2) Les transformations du travail et de l'emploi 171 a) La recomposition des activités 172 b) À partir de 1947 : la modernisation de l'usine 174 3) Des conditions de travail inégales 185 a) Assignation, contrôle et surveillance 186 b) La gestion des arrêts longue maladie et des accidents de travail par l'entreprise 192 c) La mortalité au travail 196 4) Des variations importantes dans le recrutement et la structure du personnel 198 a) Les fortes variations des recrutements 199 b) Les travailleurs étrangers : une place centrale 203 c) Les travailleurs français : un recrutement local 211 d) Un personnel inégalement stabilisé 213 III) Dirigeants et salariés face aux pratiques d'entreprise 223 500 1) Le renouvellement des dirigeants 224 2) Permanences et évolutions des pratiques d'entreprise 232 a) Le recrutement et les affectations 233 b) Le logement des salariés 244 c) Encadrer le temps libre des salariés et de leurs familles 244 3) Appropriations, remises en cause et contestations collectives des pratiques d'entreprise 260 a) Une appropriation inégale des pratiques d'entreprise 233 b) Les remises en cause des pratiques patronales 233 c) Les dirigeants face aux syndicats 233 CHAPITRE 3 : UNE PHASE D'EXPANSION : LES « SEPT GLORIEUSES », 1956-1962 274 I) Une phase d'expansion sans précédent 275 1) Une forte augmentation des productions grâce aux investissements 276 2) La poursuite du recentrage de l'entreprise sur l'usine de Chasse 283 a) Une usine en décalage avec les réorganisations de la sidérurgie française et européenne 233 b) Une marginalisation dans les réorganisations régionales 233 c) Le recentrage des activités sur l'usine de Chasse-sur-Rhône 290 3) Le renouvellement des dirigeants 293 II) Un personnel renouvelé 299 1) L'évolution des critères et des sources de recrutement 299 2) La restructuration du personnel 309 III) Vivre avec la Compagnie des Hauts-Fourneaux de Chasse 317 1) L'entrée en crise des pratique d'entreprise 318 a) Le logement du personnel : permanences et nouveautés 319 b) Le déclin des autres pratiques d'entreprise 327 2) Profiter de la croissance 329 a) Une forte croissance des revenus 330 b) mais des conditions de travail toujours détériorées 335 3) mais aussi revendiquer 338 CHAPITRE 4 : DE LA CRISE DE 1963 A LA FIN DES HAUTS-FOURNEAUX DE CHASSE 343 I) La crise de 1963 345 1) Une crise prévisible, un déclenchement accidentel 346 2) Les dirigeants et le personnel face à la crise 348 501 a) Chasse doit s'aider lui-même 348 b) La mobilisation des salariés 350 3) Les conséquences de la crise 355 a) Un conseil d'administration renouvelé 354 b) Des personnels affectés 356 II) 1964-1965 : Le sursis 367 1) L'évolution des recrutements et des conditions de travail 369 2) Des pratiques d'entreprise renouvelées 374 3) À la veille du Plan professionnel de 1966, de nouveaux projets de réorganisation 376 III) La lutte finale : premier semestre 1966 380 1) Six mois de luttes sociales 382 2) Des départs aux licenciements 391 IV) La fin des Hauts-Fourneaux de Chasse 393 1) La liquidation 394 2) Retrouver du travail 397 CONCLUSION GENERALE 407 SOURCES : 418 1) Archives nationales 418 2) Archives Départementales 419 a) Archives départementales de la Loire 419 b) Archives départementales du Rhône 420 c) Archives départementales de l'Isère 421 3) Archives municipales 426 a) Archives de Chasse-sur-Rhône 426 b) Bibliothèque municipale de Givors 427 4) Sources imprimées et ressources en ligne 428 a) Périodiques et publications diverses 428 b) Études statistiques 430 c) Biographies 430 5) Archives privées 431 6) Sources audiovisuelles 432 7) Sources orales 432 BIBLIOGRAPHIE : 435 1) Méthodologie 435 A) Généralités 435 502 B) Sources orale 436 2) Histoire politique 437 3) Histoire économique 438 A) Généralités 438 B) Histoire des entreprises et du patronat 441 C) Histoire de la sidérurgie 443 4) Histoire du travail et des groupes sociaux 444 A) Généralités 444 B) Histoire du travail et des salariés 446 C) Histoire de l'immigration 448 D) Politiques patronales et étatiques 452 E) Grèves et mouvements sociaux 454 F)Histoire de Chasse-sur-Rhône 455 ANNEXES 456 Annexe 1 : Évolution du recrutement des personnels des HFC de 1945 à 1966 par nationalités et par sexe 456 Annexe 2 : État du personnel des HFC en avril 1954 462 Annexe 3 : Productions des HFC de 1945 à 1966 469 Annexe 4 : Chiffres d'affaire et résultats des HFC de 1945 à 1966 470 Annexe 5 : Les HFC concernés par la modernisation et la réorganisation de la sidérurgie de 1945 à 1956 471 Annexe 6 : Chronologie du plan de modernisation des Hauts-Fourneaux de Chasse jusqu'à la mise à feu du haut-fourneau n° 3 472 Annexe 7 : Articles du règlement d'atelier du 1er septembre 1950 concernant la discipline 473 Annexe 8 : Arrêts longue maladie du personnel des HFC de 1957 à 1962 475 Annexe 9 : Extrait du compte-rendu de la réunion extraordinaire du comité d'enteprise du 6 décembre 1965 477 Annexe 10 : Les luttes de l'année 1966 480 Annexe 11 : Tracts de l'année 1966 481 Annexe 12 : Fichier mécanographique du personnel 488 Annexe 13 : questionnaire 1 490 Annexe 14 : questionnaire 2 491 Annexe 15 : questionnaire 3, téléphonique 492 TABLES DES ILLUSTRATIONS 493 INDEX 496 Table des matières 499 503 504
{'path': '60/tel.archives-ouvertes.fr-tel-01938221-document.txt'}
L'Insuline Histoire de la production en France Andre Frogerais To cite this version: Andre Frogerais. L'Insuline Histoire de la production en France. 2020. hal-02911542v2 HAL Id: hal-02911542 https://hal.archives-ouvertes.fr/hal-02911542v2 Submitted on 15 Jan 2022 Histoire de la fabrication de l' Insuline en France André Frogerais andrefro47@yahoo.fr 15 janvier 2022 1 Histoire de la fabrication de l' Insuline en France 1- Introduction 2- la découverte de l'insuline 3- la fabrication artisanale 4- la production industrielle 5- les formes pharmaceutiques 5.1- la vois sous cutanée 5.2- la voie orale 5.3- la voie sous cutanée 5.4- les formes retard 6- Monographies 6.1- Laboratoires de Thérapeutique Général 6.2- Laboratoires Choay 7- l'approvisionnement de l'insuline pendant la Seconde Guerre mondiale 8- l'insuline de synthèse 9- les sulfamides hypoglycémiants Bibliographie Frederick Banting & Charles Best (Torento, 1921) 2 1- Introduction: Au début du XX° siècle, il n'existe aucun traitement e cace pour traiter le diabète, on prescrit : - des extraits pancréatiques en association avec d'autres extraits opothérapiques, ou des sels minéraux Cholépan Longuet, Panchréal Kirchner, Pancréanne, Pancrépatine Laleuf, Pancrex Phillipp - des extraits végétaux, des sels minéraux vendus sous des noms évocateurs, après la découverte de l'insuline, ils sont présentés comme un « auxiliaire précieux de l'insuline ». - Diabétifuge, des cachets à base de bioxyde de manganèse, bicarbonate de soude, de chlorhydro-méhylarsinate de lithine, d'antipyrine, de nitrate d'urane et de syntonine, des laboratoire Scientia, 21 rue Chaptal à Paris IX° (1910) - les Pilules du Dr Séjournet du Laboratoire Leprince à base de Santonine qui permettent de traiter le diabète « sans régime trop rigoureux » (1912). - Diabéphobe des laboratoires Frére et Vaillant, une association d'extraits végétaux de Chimaphylla et de Jambul sous forme de pilules qui promet la guérison sous un mois (1920). - Juglane , Camille Cons fonde vers 1927 les Produits Euthérapiques Camille Cons , 12 rue des Ecoles à Chambéry (Savoie), il exploite une spécialité, le Juglane, des pilules à base d'extrait de noyer sauvage pour le traitement du diabète. En 1943, le laboratoire déménage 8 rue Jaboulay à Lyon. Il cesse son activité en 1959, le Juglane est racheté par les laboratoires Novalis (Oullins). ffi 3 - Sinahin, des pilules de Semen-Contra du laboratoire Carteret, Paris (1923) - les dragées de Lobuline des laboratoitres Robert & Carrière, une association d'Ilots de Langherans associé à une levure glycolique sous forme de dragées (1927) - Lithuranées du Dr Boveil, des pilules fabriquées par le laboratoire Marc Paris, 1 rue Lassalle à Lyon, une association d'Uranium radio-actif qui active la sécrétion des glandes, d'hélonin, de benzoate de lithine, d'arséniate de soude et de Geranuim Robertianum (1928) Au Vidal gure une dizaine de spécialités dans la rubrique « Diabète » mais ce sont en réalité des médicaments proposés pour traiter les e ets du diabète et non la cause: des laxatifs, des reconstituants, des cholagogues, des anthelminthiques et même le vin revitalisant de Bugeaud. La saccharine fabriquée par la SCUR est prescrite comme édulcorant, elle est produite sous forme de pastilles puis de comprimés e ervescents par tous les droguistes. Des spécialités sont très populaires: - le Sucre Edulcor (1891) à base de saccharine est prescrit comme édulcorant. Il est fabriqué par les laboratoires Férré, ils fabriquent une gamme de produits pour les diabétiques sans sucre un sirop et des pastilles. La matière premiére est fabriquée par la SCUR. - les Sucrettes des Laboratoires de galénique Vernin distribuées par la Cooper. Il existe également des produits diététiques hypoglycémiques: - Le Diabétalim sans saccharine (sucre, chocolat, con tures) - les pains de régime Heudebert (Pain Essentiel, au gluten) , Sana (Pain Massé Sana), Redeuil 2- la découverte de l'insuline: En 1893, Edouard Laguesse, professeur à la faculté de médecine de Lille découvre que les Ilots de Langherhans sécrétaient une substance qui régule le glucose dans les urines et le sang. Elle est baptisé par Jean de Bayer « insuline ». En mai 1921 deux jeunes chirurgiens Frederick Banting et Charles Best travaillent sur les relations entre les ilots de Langherhans et le diabète au sein de l'université Western Ontario sous la direction de John Macleod . Ils étudient le temps de survie des animaux après ablation du pancréas et mettent en évidence qu'un chien devenu diabétique par ablation du pancréas survit si on lui administre des extraits pancréatiques puri és par de l'alcool et de l'acide. fi fi ff ff fi 4 Frederick Banting (1891-1941) Charles Best (1899-1978) Un quatrième intervenant James Collip met en place des tests chez le lapin pour évaluer l'e cacité des extraits et réussit à améliorer leur puri cation, ils réussissent à extraire l'insuline. John Macleod (1876-1935) James Collip (1892-1965) En janvier 1922, les premiers extraits sont injectés à des diabétiques, les résultats sont positifs et sont immédiatement publiés. Le succès de l'insuline est immédiat et la nouvelle se répand dans la communauté médicale. L'Université de Toronto reçoit des demandes d'échantillons du monde entier et doit se tourner vers des industriels. Les laboratoires Connaught (Toronto, Canada) sont chargés de la transposition industrielle, ils rencontrent des problèmes ce qui les conduit à collaborer avec les laboratoires Eli Lilly ( Indianopolis, USA) qui commercialisent l'année suivante l'IIetine. Insuline Connaught Iletine lilly fi ffi 5 Fabrication de l'Iletine, Laboratoires Eli Lilly (Indianapolis, USA, 1924) Réception des pancréas Broyage Filtration Conditionnement 6 3- La fabrication artisanale: Une production artisanale commence en Europe à l'initiative du Pr Léon Blum (1878-1930) de la Faculté de médecine de Strasbourg. Il participe à une mission d'études aux Etats Unis organisée par la Fondation Rockefeller en octobre 1922. Il fabrique à son retour, à partir des publications de l'équipe de Toronto et d'informations fournies par Lilly les premières doses d'insuline française. cette production artisanale fonctionnera pendant une dizaine d'années. Léon Blum est considéré comme promoteur de l'insulinothérapie en France (8, 9). Pr Léon Blum (1928) Les membres de la mission (Octobre 1922) En 1924 le Dr britannique Dodds publie une méthode artisanale de préparation à l'attention des hôpitaux qui ne semble pas avoir rencontrée d'écho (10, 11, 12). 7 4- La production industrielle: Il existe un grand nombre de méthodes d'extraction de l'insuline, les fabricants vont en permanence chercher à améliorer la qualité et à diminuer le coût. En 1926 Emile Aubertin identi e une trentaine de techniques (13). La matière première est facilement disponible, on utilise le pancréas de cheval, de boeuf , de mouton ou de porc. L'extraction comprend quatre stades: - la récolte et l'extraction: Les pancréas sont recueillis dans les abattoirs et transportés le plus rapidement possible dans des caissons isothermes, ils sont refroidis pour être stocker à une température inférieure à -20°. Après élimination des graisses et des tissus conjonctifs, ils sont hachés et stabilisés par un solvant qui évite les phénomènes d'autolyse. Il est nécéssaire d'opérer le plus rapidement possible après l'abattage de l'animal a n d'éviter la destruction de l'insuline par la trypsine. La pulpe est exprimée par ltration. Caisson amovible Choay pour la congélation et le transport des pancréas (1951) - la séparation: Le solvant, en général de l'alcool est éliminé par distillation ou évaporation sous vide à basse température , le résidu est traité par de l'éther pour éliminer les corps gras, l'insuline est précipitée et récupérée par ltration ou centrifugation. A ce stade on obtient de l'insuline brute. Traitement des pulpes de pancréas, préparation de l'insuline brute, Lab Choay (1951) fi fi fi fi 8 - la puri cation: C'est l'étape la plus délicate. II est nécéssaire de puri er l'insuline brute pour éliminer les résidus de substances protéiques. La puri cation est obtenue en réalisant une succession de redissolutions, précipitations, lavages et centrifugation, elle est préférée à la ltration, l'insuline pouvant être absorbée par les ltres. L'insuline se présente sous la forme d'une poudre amorphe , elle est nalement séchée dans un dessicateur sous vide. Elimination des solvants à basse température à basse et sous vide profond Dosage de la glycémie , Lab Choay (1951) - le dosage: L'insuline est dosée en comparant l'abaissement de la glycémie produit chez un lapin par l'insuline produite et l'insuline standard, elle doit titrée 25 unités international par mg. 14, 15, 16, 17, 18, 19, 20, 21, 22, 23,) Laboratoire Connaught fi fi fi fi fi fi 9 En 1923 le Professeur Auguste Kroogh, de Copenhague, prix Nobel de physiologie de médecine en 1920 est avec son épouse Marie en voyage aux Etats Unis. Il entend parler de cette nouvelle thérapeutie et décide de se rendre à Toronto. Il obtient des laboratoires Lilly le mode opératoire. De retour au Danemark en collaboration avec son collègue le Pr Hagedorn, il met au point un procédé de fabrication, en association avec les laboratoires Lovens qui produisent dans leur usine l'Insuline Léo à partir de 1923.La même année de l'Insuline est fabriquée en Grande Bretagne la même année par Burroughs Welcome et British Drug House. Les autorités françaises ré échissent comment organiser une fabrication nationale. L'insuline étant un produit biologique, sa production est soumise à la loi du 25 avril 1895 concernant les sérums thérapeutiques. La fabrication, l'importation et la distribution doivent faire l'objet d'une autorisation délivrée par l'administration. Il est envisagé d'en con er l'exclusivité à l'Institut Pasteur seule entreprise capable selon certains auteurs de fabriquer un produit de qualité. Frederik Banting de passage à Paris soutient ce projet mais c'est sans compter avec l'institut Pasteur qui décline la proposition. Il est en conséquence décidé d'autoriser les industriels français qui le désirent à en faire la demande auprès de la Direction de l'Assistance due l'hygiène publique du Ministère de l'intérieur, une commission présidée par le Dr Roux de l'Institut Pasteur est chargé par l'Académie de médecine de délivrer les autorisations. Trois entreprises françaises déposent une demande de fabrication selon la méthode canadienne de Banting: les laboratoires Byla ,Roussel et Rogier. La demande du Dr Roussel est ajournée, son produit est jugé comme insu samment puri é. Finalement de nombreux laboratoires français spécialisés dans l'opothérapie vont être autorisés à fabriquer de l'Insuline à partir de 1923 (24). : Byla (25) Carrion, Choay (26), Fornet (Pansuline), Fournier, les Laboratoires de la Proxitase du Dr Roussel (Insulyl, 27), Rogier, les Laboratoires de thérapeutiques Générale (Endopancrine), les Laboratoires de galénique Vernin, ainsi que des laboratoires étrangers: Organon (Pays Bas) importateur Pointet Girard (1931) Léo (Danemark) importateur Jean Dedieu (1934) Novo (Danemark) importateur Henri Martinet (1938) Roche (Suisse) fabricant de l' loglandol (1927) Bayer (Allemagne) importateur Théraplix (1943) Vitrum (Danemark) importateur Girard-Mounier (1955) Ampoules et comprimés d'Insuline LEO fi ffi fi 10 fl - 5- Les formes pharmaceutiques (28) 5.1- la voie sous cutanée: C'est la voie la plus e cace - les ampoules monodoses de soluté: Le soluté est fabriqué à partir d'insuline en poudre dissoute dans de l'eau bi-distillée et acidi ée par de l'acide chlorhydrique, la solution est rendue isotonique par addition de glucose ou de chlorure de sodium, 10 ml doivent refermer 20 U.I. et avoir un pH de 2 à 3,5. Les ampoules sont stérilisées par pasteurisation ou tyndallisation à 70° C ou ltration à la bougie. Les ltres les plus utilisés sont de deux types: la bougie en porcelaine type Chamberland et la membrane de cellulose amiantée du type Seitz . Le remplissage unitaire est préféré au remplissage par le vide jugé trop imprécis. Laboratoires Roussel 1922, remplissage par gravité et scellage manuel, Laboratoires Choay (1951), machines à remplir et sceller Marzochi (Milan, I) Les machines Marzochi fabriquées en Italie utilisent des ampoules fermées stériles, ce sont des machines rotatives qui fonctionnent alternativement . fi fi ffi fi 11 - les acons-tubes multidoses Le traitement journalier nécessitant plusieurs injections, cette forme multidose est plus économique que les ampoules monodoses. Le soluté après avoir été ltré est réparti dans des acons en forme de tube stérile fermés par un « capuchon » c'est à dire une feuille de caoutchouc qui est traversée par l'aiguille lors du prélèvement sans altérer le reste de la solution. Flacons Novo et Endopancrine` - les ampoules de poudre stérile Le soluté d'insuline devant être stocké à basse température, l'usage d'ampoule remplie de poudre, permet une meilleur conservation. Le contenu doit être dissout au moment de l'emploi dans du sérum physiologique, le conditionnement est réalisé aseptiquement sous des hottes. cette forme est utilisée pour l'exportation dans les colonies. fi 12 fl fl Ampoules Endopancrine et Byla Conditionnement de la poudre en « atmosphère stérile » 5.2- la voie orale: (pilules et dragées) La voie orale est utilisée pour les formes bénignes de diabète. Au Danemark, les laboratoires Léo fabriquent une forme perlinguale, elle n'est pas importée en France (page 10). Les laboratoires Thaidelmo (Institut de Microbiologie), 23 rue du Caire puis 45 rue Mozart à Paris fabriquent les pilules d'Insuline-Bucale-Fornet, la fabrication cesse en 1960 (29, 30, 31). Il existe des associations: les pilules Néosuline du Laboratoire de Microbiologie (Paris) c'est une association d'insuline et d'une hormone régulatrice de la croissance destinées aux a ections cancéreuses de toute nature et de toute localisation (1943) 5.3- la voie cutanée: L'insuline est fabriquée sous forme de poudre et de pommade pour le traitement des ulcères variqueux, des plaies atones, et des ulcères gastro-intestinaux par les laboratoires Byla , Fornet, les Laboratoires de thérapeutique général (Phyloze), les laboratoires Roussel (Insulanol), Léo (Léotamine) (32, 33, 34). Cette forme est également préconisée pour traiter le diabète infantile, un usage qui est rapidement abandonné à cause de l'imprécision du dosage. ff 13 Des essais d'administration par la voie rectale et respiratoire (inhalation) sont conduits mais ce sont des échecs (35, 36, 37) 5.4- les formes retards: A n de diminuer le nombre d'injection, des formes retard sont étudiées. En 1925 des essais sont conduits avec de l'insuline en émulsion huileuse. elle se résorbe lentement et son action persiste plus longtemps mais est insu sante pour ne permettre qu'une injection quotidienne (38) Les laboratoires Choay fabriquent l'Insulosan, une forme retard , une association d'insuline et de polyvidone. En 1935 Hagedom met au point une insuline neutre par adjonction de Protamine et l'année suivante Scott et Fisch produisent la première insuline retard en associant l'insuline Protamine à du Zinc. En 1936, une forme retard qui permet de réduire le nombre d'injection est mise au point l'Insuline-Protamine-Zinc (39, 40, 41, 42). Vers 1930 en alternative à l'Insuline, les Etablissements Byla fabriquent la Vagotinine Byla, c'est une hormone pancréatique du parasympathique di érente de l'insuline, elle régularise le système neuro-végétatif et permettrait la diminution des injections d'insuline et l'enrichissement du régime en hydrates de carbone. Elle est fabriquée sous forme d'ampoules mais elle est essentiellement prescrite comme hypotenseur (43). ff ffi fi 14 Dermosiline Fornet Institut de microbiologie de Sarrebruck (Thaidemo) Pommade Endopancrine Lab thérapeutique Général Flacon-tube Endopancrine huileux Lab thérapeutique Général Endopancrine NPH Lab thérapeutique Général Flacon-tube Endopancrine-ZincProtamine Lab thérapeutique Général Flacon-tube Endopancrine-ZincRetard Lab thérapeutique Général Suspension Flacon-tube Insuline Bayer Théraplix (D) Flacon Insuline Byla Byla Ampoules-poudre stérile Flacon-tube Poudre -Pommade 1924-1936 1927 1928- 1956 Insuline Choay cristallisée Choay Ampoules Flacon-tube 1938-1943 Insuline-Zinc-Protamine Choay Choay Flacon-tube 1943 Insuline Léo Dedieu (D) Ampoules 1935 Insuline Novo H. Martinet (D) Flacon-tube 1937 Insuline-Zinc-Protamine Novo H. Martinet (D) Flacon-tube 1939 Insuline Retard Novo H.Martinet (D) Suspension acon-tube Insuline Rogier Rogier Ampoules Insuline Vitrum Girard-Mounier-Vitrum (D) Flacon Insuline Zinc-Protamine Vitrum Girard-Mounier-Vitrum (D) Flacon Insulosan Choay Flacon Insulanol du Dr Roussel Lab des Proxytases- Roussel Pommade 1927-1943 Insulyl Lab des Proxytases- Roussel Ampoules Flacon 1924-1940 1927-1943 Insulyl-Retard Lab des Proxytases- Roussel Flacon IIoglandol Ho mann-La Roche (CH) Ampoules 1927-1937 Pansuline Foret Institut de microbiologie de Sarrebruck (Thaidemo) Pilules 1927-1956 Phyloze Lab thérapeutique Général Poudre, Pommade 1927-1960 fl ff 15 1927-1943 1927 1935-1938 1939-1943 1943 1925-1931 1955 6- Monographies: 6.1- Le laboratoire de Thérapeutique Générale : Il est fondé en 1902 pour fabriquer des médicaments opothérapiques, 48 rue de la Procession à Paris. Il appartient à un aristocrate Guillaume Testu de Ballincourt, il est dirigé par Antoine Deslamdre, pharmacien. En 1923 à l'initiative du professeur Léo Ambard (1867-1962), il fabrique le premier soluté injectable français d'insuline vendu sous le nom d'Endopancrine qui devient en France synonyme d'insuline. La production déménage en 1925 dans une ancienne lature à Eragny-surEpte prés de Gisors (Oise), l'usine Saint Charles. L'importance prise par l'Endopancrine a conduit à renommé l'entreprise Laboratoire de l'Endopancrine en 1936. Ateliers d'extraction Endopancrine Ateliers de ltration et de distillation fi fi 16 Le développement de l'hormonothérapie conduit l'entreprise à produire une gamme de produits hormonaux dont la Cortrophine à partir d'hypophyses de porc, elle est titrée selon la méthode de Sayers. A partir de 1936 le laboratoire devient le licencié du spécialiste néerlandais des produits hormonaux Organon (44, 45, 46). Le laboratoire est absorbé par Organon en 1965. En 1972, le laboratoire prend le nom d'Organon France. En 2007 Organon fusionne avec l'américain Schéring Plough puis en 2009 avec Merck USA, en 2010 il prend le nom de Laboratoires Schering Plough. A partir de 2013, l'activité pharmaceutique de l'usine cesse, elle produit exclusivement des matières premières chimiques. Le site est cédé en 2014 au groupe américain Amphastar Pharmaceutical. Usine d'Eragny-sur-Epte 17 6.2- Les laboratoires Choay: Eugène Choay, (1861-1942) pharmacien crée au début du XIX° siècle les laboratoires Choay. ils fabriquent une gamme de médicaments opothérapiques: extraits totaux, injectables hypophysaire, hépatiques, spléniques, thyroïdiens sous les marques Syncrines et Peptoshénines. Ils mettent au point une méthode de dessiccation originale dans le vide profond à basse température, ils isolent des hormones comme l'Adrénaline, Hormone thyroïdienne, hypophysaires, Follucilline, Insuline (1923), Lipormone, A.C.T.H. (1950), Hyaluronidase (1952) Eugène Choay Lab Choay (Paris , 1950) Ils sont installés 40 rue Théopphile Gautier à Paris XVI°, la production est réalisée dans des ateliers installés successivement à Montrouge, Malako , Boulogne. Eugéne Choay est rejoint par ses deux ls André et Maurice . L' extraction de l'insuline commence à partir de 1936. Après la Seconde Guerre mondiale, l'entreprise connait une grande période de prospérité, les mises sur le marché de nouveaux médicaments se succèdent en particulier dans les domaines de la coagulation et le traitement des maladies thromboliques. Elle s'équipe d'installations de lyophilisation et délocalise la production dans de nouveaux locaux à Notre Dame de Bondeville (Seine Maritime) en 1969. L'usine fabrique des produits stériles injectables et des formes sèches. - Protamine (1949) antidote de l'Héparine Alphachymotrypsine (1959, 1962) comprimés et pommade, enzyme anti in ammatoire Iniprol (1960), inhibiteur de protases Thromboclase (1963), thrombolitique Trypsine (1965), enzyme protéolytique Calciparine (1966) héparine Ribatran (1969) association enzymatique anti-in ammatoires Plasténan (1972) cicatrisation cutanée L'Héparine ouvre d'immense perspective au laboratoire mais demande d'importants investissements en recherche, ce qui conduit Sano à prendre une participation minoritaire en 1975 puis à les absorber en 1984. L'usine de Notre Dame de Bondeville est cédée à GSK en 2004 (47). fl ff fi fl fi 18 Ateliers de fabrication des extraits hépatiques (1952) La Revue des spécialités (1939) 19 7- L'approvisionnement de l'insuline pendant la Seconde guerre mondiale: La baisse d'activité des abattoirs provoque une raréfaction de l'insuline qui conduit l'administration a prendre des mesures pour éviter la pénurie. Dés le 2 décembre 1940 le Secrétariat d'Etat à la famille et à la santé rappelle que l'insuline ne doit être délivrée que sur prescription médicale. Le 7 mars 1942 un arrêté établie un contrôle de la vente de l'insuline. Des centres de répartition sont crées, ils sont seul compétent à délivrer l'insuline, sur présentation d'une carte au nom du patient, celui de Paris est installé à l'hôpital Saint Antoine. Ils sont organisés sous l'autorité du Comité d'Organisation des industries et du commerce des produits pharmaceutique. Tout diabétique doit pour se réapprovisionner, adresser une demande d'immatriculation au centre de répartition compétent qui détermine pour chaque cas en fonction du contingentement et des disponibilités la dose qui peut être quotidiennement administrée et délivrée. Les patients reçoivent chaque mois un bon qu'ils doivent présentés au pharmacien. En cas d'urgence, les pharmaciens peuvent délivrer librement de l'insuline. De l'insuline est importée des Etats Unis jusqu'au début de l'année 1942, Bayer en exporte en France par l'intermédiaire de Théraplix qu' il contrôle en association avec Rhône Poulenc. La situation s'améliore des 1945 et redevient normal à partir de 1946 (48, 49). La situation est di érente selon les colonies, une production artisanale est mise en place à Madagascar à partir de pancréas de boeuf ainsi qu' en Indochine alors que l'Afrique du Nord est approvisionné par des importations des Etats Unis (48, 49). 8- L'insuline de synthèse : En 1982, la première insuline humaine obtenue par génie chimique est commercialisée. De nouvelles insulines sont mises sur le marché: - action rapide (1997): Humalog (E. Lilly), NovoRapid (Novo), Apidra (Sano ) - action lente (2003): Lantus et Tougéo (Sano ), Levemir (Novo) - les insulines ultra rapides: Fiasco (Novo), Lyumjev (Lilly) 9- Les hypoglycémiants oraux : Dans les années trente il existe quelques produits qui en dehors de l'Insuline se présentent comme diminuant la glycosurie et comme une médication complémentaire de l'insuline. - Antiabétique Monavon à base de Kola des laboratoires Gonnon à Lyon (1932) - Antidiabétique Requis, un soluté phytothérapique, Lab Givaudan- Lavirotte, 56 rue PaulCazeneuve à Lyon (1935) - Diabétosan, c'est un « insulinoïde » végétal obtenu par dialyse d'une espèce cultivée d'orge dont la germination est conduite dans les conditions de temps et de température rigoureusement déterminées sans aucune autre association chimique ou organique sous forme de comprimés. Il est fabriqué par les Etablissements Soudan, 48 rue d'Alésia, Paris XIV° (1935) - Litharsyne, chlorhydro-méthylarsinate de Lithine, Laboratoire Ferré, 19 rue Grégoire de Tours à ParisVI, (1935) - Oxyol Leisyn, sous forme de gouttes ou de cachets, la formule n'est pas précisée, c'est un puissant oxydant organique qui active la combustion du sucre. il est fabriqué par les laboratoires Leysin, Paris. (1934) fi fi ff 20 - Synthaline B, dragées à base de Dichlorydrate de dodécaméthylène de guanidine du laboratoires Cruet à Paris. Elles sont indiquées dans le traitement léger du diabète sucré ou pour renforcer l'action de insuline, ce qui permet de diminuer les injections. (1931) - Théraplantine H (ex-Anti-Diabète H.) du Laboratoire Alpha à Montreux-Chateau (Territoire de Belfort) à base de Myrtille, Fabiana et de Semen-Contra (1936). - Glucoxyl Nacher , des cachets à base d'extraits de Tasi Morrhénine et de Jambule qui augmente la sécrétion des cellules endocrines et favorise le métabolisme des glucides. La présence de codéine favoriserait l'oxydation des glucides (1937). Dans les années cinquante, apparait une nouvelle classe thérapeutique e cace, les sulfamides anti diabétiques, ils sont destinés au traitement du diabète non insulino dépendant; deux laboratoires français vont contribuer aux succès des hypoglycémiants oraux, les laboratoires Servier et Aron. Liste non limitative des médicaments hypoglycémiants oraux (1960-1969) Daonil Glibenclamide Hoescht 1969 Diabinése Chlorpropamide P zer 1960 Diaboral Cyclo-Hexyl-Toluène-Sulfonurée Carlo Erba 1969 Diapéros Phenbutamide Institut Mérieux 1969 Dolipol Tolbutamide Somedia (Hoescht) 1956 Euglican 5 Glibenclamide Merrel 1969 Glucidoral Glybutamide Servier 1956 Glucophage Methformine Aron 1959 Glucophage Retard Methformine Aron 1968 Glucosulfa Methformine Aron 1965 Gludiase Desaglybuzole Roger Bellon 1968 Glyconormal Glycodiazine Bayer 1969 Gondafon Glycodiazine Schering 1969 Insoral Phenformine Roger Bellon 1969 Isodiane Metahexamide Servier 1960 Tolglybutamide Endo Tolbutamide Endopancrine 1969 ffi fi 21 - Laboratoires Servier Marcel Servier, pharmacien d'o cine fonde en 1906, un modeste laboratoire pharmaceutique dans les locaux de son o cine. En 1954, son ls Jacques Servier en prend la direction et va le transformer en une multinationale. En 1956, il commercialise sous le nom de Glucidoral, le glybutamide un sulfamide développé en Allemagne de l'Est par Chemische Fabrik Van Heyden, Rosebeul-Dresden puis à l'Ouest par Boerhinger-Mannheim. Atelier de compression et de dragéification (Orléans 1961) En 1972, le laboratoires Servier mettent sur le marché une nouvelle spécialité, les comprimés de Diamicron à base de Gliclazide (50). fi ffi ffi 22 - Les laboratoires Aron: Les laboratoires Aron à Suresnes fabriquent en 1936, un antiseptique nasal l'Argyrophédrine. Grace à son succès commercial , ils disposent d'un modeste laboratoire de recherche dirigé par Jean Sterne. Au début des années cinquante le Président J. Cohen a vent de l'action hypoglycémiante d'un alcaloïde la Galégine extraite d'une légumineuse Galego o cinalis . Elle conduit à la découverte d'une nouvelle classe de médicaments les Biguanides. Le laboratoire de synthèse des laboratoires Aron fabrique la Metformine, ils viennent de mettre la main sur un futur bluckbooster. Selon le responsable du service de pharmacologie Claude Hirsch: « en choisissant la Metformine parmi les sulfamides hypoglycémiants, nous avons tapé dans le mille » (51). En 1958, ils mettent sur le marché le Glucophage, pour le traitement du diabète, c'est un succès ainsi qu'en Grande Bretagne où il est exploité par les laboratoires Nora, l'acronyme d'Aron puis le Glucosulfa (LA 6 030) une association de Metformine et d'un sulfamide le Tolbutamide en 1966 et deux ans plus tard le Glucophage Retard, un comprimé avec un enrobage gastro résistant. La matière première est fabriquée à Calais par les Ets Delaire. Les comprimés sont produits à Suresnes par Claude Moatti assisté du chef d'atelier Mme Brault. Les ventes du Glucophage Retard croient régulièrement, son potentiel est immense, il va devenir l' antidiabétique de type 2 de première intention, ce qui conduit les laboratoires Aron à se rapprocher d'un grand groupe. En 1982, ils ont absorbés par le groupe Lipha et renommés AronMédicia, Rue Saint Romain à Lyon. Le site de Suresnes est vendu, la production est transférée à Semoy (Loiret). A partir de 1983, ils publient la revue Glucorama. Le laboratoire est renommé Lipha Santé en 1993, puis à la suite de l'absorption par Merck (D) en 1995, Merck Lipha Santé en 2004. Jean Sterne (1909-1997) ffi 23 Bibliographie: 1- Henri Lestradet, Historique de la découverte de l'Insuline, Histoire des Sciences Médicales, Tome XXVII, n°1, 1993, 61-68 2- Anonyme, La fabuleuse découverte de l'insuline, Pour la science, N° 525, Juillet 2021, 72-79 3- Katherine Badertscher, Christopher J. Rutty, Insulin at 100, Indianapolis, Toronto, Woods Hole and the Insulin Road, Pharmacy in History, Vol 62, N° 3 & 4, 2020, 874- Anonyme, Fabrication et vente de l'insuline, Bulletin des Sciences Pharmacologiques, 1924, 88-89 5- B. Lyonnet, L'Insuline, Lyon Médical, 10 Décembre 1923 6- Henri Peneau, H.Simonet, Nos connaissances actuelles sur l'insuline, Bulletin des Sciences pharmacologiques, Janvier 1924, 49-61 7- C. Dezenne, L. Hallion, S. Ledbt, Les données physiologiques relatives à l'insuline et leur signi cation, La Presse médicale, 1923, n° 94, 981-987 8- Léon Blum, Henri Svhwab, Le traitement du diabète sucré par l'insuline, La Presse médicale, 1923, n° 58, 637-641 9- Paul Frank, Jean-Marie Brogard, Léon Blum, Histoire et Patrimoine hospitalier, Bulletin de l'association des amis des hôpitaux universitaires de Strasbourg, 2009, n°21, 20-29 10- E.C. Dodds , F. Dicken, Méthode simple pour la préparation de l'insuline par extraction aqueuse, La Presse Médicale, n°26, 1924, 5 11- Anonyme, Middlesex-Hospital, Dr Dodds, Information Médicale, 1924, 3° année, n° 53, 1 12- Anonyme, La préparation de l'insuline, L'Informateur médicale, n° 53, 5 juillet 1924 13- Emile Aubertin, Préparation de l'insuline, L'Insuline 1926, 33-65 14- A. Sordelli, V. Deulofeu, Préparation de l'insuline, Bulletin des sciences pharmacologiques, 1924, 294 15- C.H. Best, D.A. Scott, Préparation de l'insuline, Bulletin des sciences pharmacologiques, 1924, 424 16- L. Cheinisse, La technique du traitement du diabète par l'insuline, titrage de l'insuline, 1923, n° 95, 995-996 17- Albert Goris, Insuline, Pharmacie Galénique, Tome II, Masson 1942, 1366-1379 18- Henri Péneau, H.Simonnet, Nos connaissances actuelles sur l'insuline, Bulletin des Sciences Pharmacologiques, Janvier 1924, 39-49 19- H. Levent, L'insuline, Gazette des hôpitaux civils et militaires, N° 77, Sept 1926, 1239-1241 20- P. Lebeau et G.Courtois, l'Insuline, Traité de Pharmacie Chimique, Tome II, Masson 1938, 1933-1947 21- A. Desgrez, H. Bierry, R Ratheryy, Titrage et posologie de l'insuline, l'unité lapin, La Presse Médicale, 1924, n°51, 424-425 fi 24 22- Dr Bith, L. Blanchard, H. Simnet, L'insuline, le titrage des préparations d'insuline, Bulletin des sciences pharmacologiques, n°7, Juillet 1926, 417-448 et n° 8-9, 497-517 23- H. Chabanier, C. Lobo-Oneil, M.Lebert, E.Lelu, La question du degré de puri cation des préparations de l'insuline, La Presse médicale, Juin 1929, 766-770 24- E. Roux, Fabrication et vente de l'insuline, Bulletin des sciences pharmacologiques, 1924, N° 1, 88-89 25- Anonyme, Insuline Byla, La Revue des Spécialités, 1923, 877 26- Henri Dumaine, Les produits opothérapies, le laboratoire Choay, France Pharmacie, 1951, 197-203 27- Anonyme, Insuline Roussel, La Revue des Spécialités, 1923, 853 28- Emile Aubertin, La fabrication commerciale de l'insuline, L'Insuline Paris 1926, 301-317 29- B. Mendel, A. Wittgenstein, E. Wollfensteim, Sur l'application perlinguale de l'insuline, La Presse médicale, n° 36, 80 30- Léon Blum, L'administration perlinguale de l'insuline, Bulletin des sciences pharmacologiques, 1924, 496 31- N. Fornet, Sur l'e cacité de l'insuline, La Presse médicale, Mars 1930, n° 24, 406-407 32- Gahelinger, Applications cutanées de l'insuline, La Presse Médicale, 1924, n° 51, 236 33- Chabannier, Lumiere et Lebert, L'insuline en application locale des plaies atones, Le Concours médical, 1925, 2023 34- Faure-Beaulieu, David, Traitement des ulcères des jambes par l'insuline, Le Concours médical, 1925, 2284 35- M. Gänshem, L'inhalation d'insuline, La Presse médicale, 1925, 120 36- Marcel Labre, Nepveux, Forsans, L'insuline en suppositoires, Le Concours médical, 1925, 26 37- J. Mouzon, Peut on administrer l'insuline sans piqures? La Presse médicale, 1929, n° 101, 1639-1643 38- Henri Vignes, Emploi de l'insuline en émulsion huileuse, Le Progrès médical, Décembre 1925, 1892 39- H.Labbe, Raoul.Boulin, L'insuline retard, La Presse médicale, N° 6, 1937, 97-99 40- Raoul Bertin, Les nouvelles insulines, La Presse médicale, Janvier 1938, n° 8, 139-140 41- Henri Schwab, Traitement du diabète par une nouvelle combinaison d'insuline, La Presse médicale, Janvier 1938, n° 8, 140-142 42- Gilbert Dreyfus, L'Insuline-Protamine-Zinc, Bulletin général de thérapeuthie, n°2, 1939, 41-49 43- Pierre Layet, Premières recherches cliniques sur l'action hypoglycémiante de la vagotinine, Thése, Université de Nancy, 1930 44- A.Deslambre, Les applications cliniques de l'insuline en dehors du diabète, Laboratoires de l'Endopancrine, Paris 1935 fi ffi 25 45- Anonyme, Le laboratoire Endopancrine a 50 ans, Produits Pharmaceutiques, Vol 7, n°6, Juin 1952, 382-383 46- Bruno Bonnemain, Le laboratoire de l'Endopancrine présente l'Alchimie, Exposition virtuelle n°68, Site de la Société d'Histoire de la Pharmacie, 2014 47- Bruno Bonnemain, L'entreprise pharmaceutique Choay, une histoire associée à la recherche et à la commercialisation de produits biologiques, Revue d'Histoire de la Pharmacie, n°388, 2015, 445-460 48-Anonyme, La vente des sulfamides et de l'insuline, Le Concours médical, 1941, 1360 & 1381 49-Anonyme, La carte d'insuline, La Presse médicale, Octobre 1942, n° 44, 623 & Novembre 1942, n° 48, 686 50- Anonyme, France Pharmacie, Fev 1961, 87-91 51 - Témoignage de Claude Hirsch, ancien responsable du service de pharmacologie des laboratoires Aron, membre de la Société d'Histoire de la Pharmacie. Vidéo, Novo Nordwisk, Les cent ans de l'insuline: https://100ans-insuline.com 26 Disponible en ligne: Histoire des comprimés pharmaceutiques en France, des origines au début du XX siècle, https://hal.archives-ouvertes.fr/hal-00787009 Les comprimés enrobés à sec / Dry Coating, https://hal.archives-ouvertes.fr/hal-01526234 Les comprimés multicouches, https://hal.archives-ouvertes.fr/hal-01490871 Les comprimés e ervescents, https://hal.archives-ouvertes.fr/hal-01634235 Les comprimés disparus : les triturés et les comprimés hypodermiques, https:// hal.archives-ouvertes.fr/hal-01526236 La fabrication industrielle des comprimés en France : 1°partie, des origines à 1945, https:// hal.archives-ouvertes.fr/hal-01490873 La fabrication industrielle des comprimés en France : 2° partie, 1945-1970, https:// hal.archives-ouvertes.fr/hal-01526224 Un siècle de machines à fabriquer les comprimés (1843-1950) ; Fascicule n°1 , dispositifs manuels et machines semi automatiques, https://hal.archives-ouvertes.fr/hal-01490880 Un siècle de machines à fabriquer les comprimés (1843-1950) ; Fascicule 2, machines à comprimer alternative, https://hal.archives-ouvertes.fr/hal-01645066 Un siècle de machines à fabriquer les comprimés (1843-1950) ; Fascicule 3, machines à comprimer rotative, https://hal.archives-ouvertes.fr/hal-01688890 William Brockedon , Biographie https://hal.archives-ouvertes.fr/hal-01645071 La fabrication industrielle des pilules , https://hal.archives-ouvertes.fr/hal-01526227 La fabrication industrielle des capsules molles, https://hal.archives-ouvertes.fr/ hal-01526232 La fabrication industrielle des gélules, https://hal.archives-ouvertes.fr/hal-01490875 Histoire de la fabrication industrielle des pommades, https://hal.archives-ouvertes.fr/ hal-01526223 Histoire de la fabrication des suppositoires, https://hal.archives-ouvertes.fr/hal-01645057 Histoire de la fabrication des saccharures granulés, https://hal.archives-ouvertes.fr/ hal-01490877 La fabrication industrielle des cachets pharmaceutiques, https://hal.archives-ouvertes.fr/ hal-01526230 La production industrielle des pastilles, https://hal.archives-ouvertes.fr/hal-00957139 Histoire de la dragéi cation et du pelliculage pharmaceutique, https://hal.archivesouvertes.fr/hal-01634427 La con serie pharmaceutique, https://hal.archives-ouvertes.fr/hal-01526222 fi ff fi 27 Les origines de la fabrication des antibiotiques en France, https://hal.archives-ouvertes.fr/ hal-01645066 Pierre Broch (1909-1985) et la pénicilline, https://hal.archives-ouvertes.fr/hal-01645062 Les premières machines pour la production des produits pharmaceutiques en France, https://hal.archives-ouvertes.fr/hal-01645061 Catalogue Frogerais 1920, https://hal.archives-ouvertes.fr/hal-01490867 Henri Wierzbinski : le pionnier français des machines de conditionnement, https:// hal.archives-ouvertes.fr/hal-01526220 A.Savy Jeanjean , constructeurs de machines pour les industries alimentaires, pharmaceutiques et chimiques, https://hal.archives-ouvertes.fr/hal-01645063 L'Aspirine en France : un a rontement franco-allemand, https://hal.archives-ouvertes.fr/ hal-00848459 Les façonniers pharmaceutiques : la première génération (1920-1970), https://hal.archivesouvertes.fr/hal-01645052 La fabrication des formes sèches aux Etats Unis après la Seconde Guerre mondiale, https:// hal.archives-ouvertes.fr/hal-01526228 Les ampoules pharmaceutiques, Histoire de la fabrication industrielle, https://hal.archivesouvertes.fr/hal-01767700 Les vins médicinaux ou oénolés, https://hal.archives-ouvertes.fr/hal-01906843 Huile de foie de morue, histoire de la production industrielle, https://hal.archivesouvertes.fr/hal-01935572 Les tisanes pharmaceutiques, histoire de la production industrielle, https://hal.archivesouvertes.fr/hal-01952315 La Pharmacie centrale de France au XX°siècle, https://hal.archives-ouvertes.fr/ hal-01995419 Les sirops pharmaceutiques, Histoire de la fabrication industrielle, https://hal.archivesouvertes.fr/hal-02070402 La bactériothérapie, histoire de la production industrielle, https://hal.archives-ouvertes.fr/ hal-02105211 Homéopathie, histoire de la production industrielle ,https://hal.archives-ouvertes.fr/ hal-02144439 Histoire de l'industrie pharmaceutique en Algérie, https://hal.archives-ouvertes.fr/ hal-02145153 Histoire de la médecine dosimétrique, https://hal.archives-ouvertes.fr/hal-02296256 Les comprimés, les ampoules et les thermomètres du Service de Santé des armées, https:// hal.archives-ouvertes.fr/hal-02299617 ff 28 Les pansements, histoire de la production industrielle, https://hal.archives-ouvertes.fr/ hal-02488445 Des emplâtres aux patchs, histoire de la production, https://hal.archives-ouvertes.fr/ hal-02490041 Histoire des drogueries pharmaceutiques, https://hal.archives-ouvertes.fr/hal-02904525 Les origines de l'Industrie Pharmaceutique lyonnaise, https://hal.archives-ouvertes.fr/ hal-02906324 Arthur Colton, le premier constructeur américain de machines pour l'industrie pharmaceutique, https://hal.archives-ouvertes.fr/hal-02909615 L'insuline, Histoire de la production industrielle en France, https://hal.archives-ouvertes.fr/ hal-02911542 Les poudres pharmaceutiques, Histoire de la production industrielle, https://hal.archivesouvertes.fr/hal-02913354 Le chocolat et la pharmacie, Histoire de la production, https://hal.archives-ouvertes.fr/ hal-03036834 Les bandages et corsets orthopédiques, https://hal.archives-ouvertes.fr/hal-03127552 Les collyres et les pommades ophtalmologiques, Histoire de la production industrielle, https://hal.archives-ouvertes.fr/hal-03126133 Les fumigations, injections et pulvérisations pharmaceutiques, https://hal.archivesouvertes.fr/hal-03143870 La fabrication des sels de quinine en France, https://hal.archives-ouvertes.fr/hal-03174119 29
{'path': '58/hal.archives-ouvertes.fr-hal-02911542-document.txt'}
Séquences Labial-Coronal et Labial-vélaire: étude Articulatoire Manon Carrissimo-Bertola To cite this version: Manon Carrissimo-Bertola. Séquences Labial-Coronal et Labial-vélaire: étude Articulatoire. CEDIL 2014 - Colloque international des Etudiants chercheurs en DIdactique des langues et en Linguistique, Jun 2014, Grenoble, France. hal-01017787 HAL Id: hal-01017787 https://hal.archives-ouvertes.fr/hal-01017787 Submitted on 3 Jul 2014 Séquéncés Labial-Coronal ét Labial-Vélairé, Etudé Articulatoiré Manon Carrissimo-Bertola - manon.carrissimo-bertola@gipsa-lab.grenoble-inp.fr GIPSA-Lab DPC, UMR 5216, CNRS-Université Grenoble-Alpes, BP25 38040 Grenoble Cedex 9 Plusieurs études sur la recherche des tendances universelles dans l'organisation des syllabes ont montré la prédominance de certaines combinaisons de segments consonantiques et vocaliques, quelles que soient les origines génétiques ou géographiques des langues étudiées. Ainsi, les travaux sur la succession d'unités consonantiques en fonction de leur lieu d'articulation montrent une forte tendance à favoriser un ordre pour lequel une consonne labiale précède une consonne coronale plutôt que l'ordre inverse. Cette tendance montrée dans les lexiques de plus d'une vingtaine de langues de la base ULSID (Vallée et al. 2009) est appelée Effet Labial-Coronal ou Effet LC (MacNeilage & Davis, 2000). Cette organisation préférentielle est non seulement relevée dans les unités lexicales des langues entre attaques de deux syllabes consécutives et entre attaque et coda des syllabes fermées, mais aussi dans les productions de jeunes enfants au stade des premiers mots. Carrissimo-Bertola (2010) a recherché d'autres cooccurrences de consonnes et notamment l'existence supposée d'un effet LabialVélaire (Effet LV) dans ULSID. Cependant, aucune tendance visant à produire une Labiale en amont d'une Vélaire n'a pu être mise en avant ou généralisée. Au contraire, dans les langues où une tendance est observée, les syllabes tendent à s'organiser selon un ordre Vélaire-Labial. Etudier les stratégies d'organisation préférentielles pour ces successions de consonnes nous permet de mieux comprendre pourquoi certaines cooccurrences de consonnes répondent universellement à une tendance. Après avoir replacé l'effet LC dans le cadre de la théorie Frame, then Content (MacNeilage, 1998), de récentes études ont permis de mettre en avant l'implication de contraintes liées aux systèmes de production et de perception de la parole (Lancia & Fuchs, 2011 ; Nazzi et al., 2009 ; Rochet-Capellan & Schwartz, 2005 ; Sato et al., 2007 ; Tsuji et al., 2012). Les travaux de Rochet-Capellan ont tenté de déterminer si certaines contraintes motrices intervenaient dans la surreprésentation du patron LC en testant la stabilité du patron LC vs. CL. Leur analyse du phasage des gestes (mandibule, lèvres, apex) a permis de proposer une explication basée sur l'anticipation de la production coronale durant la phase d'articulation labiale alors qu'une contrainte aéro-acoustique gène l'anticipation de la fermeture labiale lors de la réalisation du geste coronal. Cependant d'autres travaux menés chez des locuteurs allemands ont démontré que les deux gestes demeurent en anti-phase sans réel chevauchement gestuel lèvre-langue (Lancia & Fuchs, 2011). Notre travail s'inspire de ces différentes études mais vise à étudier les stratégies articulatoires des locuteurs français, non seulement pour des cibles LC ou CL, mais aussi LV ou VL. Si l'anticipation est possible pour des séquences LC, cette anticipation devrait pouvoir être observée dans des séquences LV. L'absence de l'effet LV dans les langues nous incite d'autant plus à explorer cette piste. Notre protocole expérimental est adapté de celui des travaux antérieurs. Les cinq sujets participant à cette expérience étaient locuteurs de langue maternelle française, nés en France. La tâche à réaliser était de répéter un pseudo-mot dissyllabique en respectant le plus possible un rythme imposé par un métronome visuel (un mot par flash émis). Ce métronome imposait un rythme de production variant selon une phase d'accélération (un flash toutes les 600 à 100 ms) puis, après une phase de stabilité, selon une phase de décélération. Le rôle du métronome était d'inciter les locuteurs à répéter le mot le plus rapidement possible. Après une étude exploratoire, le choix d'un métronome visuel s'est imposé puisque les locuteurs ressentaient cette modalité comme moins contraignante que dans le cas d'un métronome auditif. Le corpus analysé se compose de 4 entrées dissyllabiques de type CVCV. La voyelle [a] a été retenue pour sa configuration centrale-ouverte sans geste labial. De plus, ses propriétés articulatoires marquent un fort contraste avec les gestes consonantiques observés lors de cet exercice. A chaque dissyllabe correspond un couple de consonne [pk] ou [pt] dont l'ordre de succession varie : [paka] vs. [kapa] et [pata] vs. [tapa]. Les enregistrements se sont déroulés dans une chambre anéchoïde. Les données articulatoires ont été récoltées grâce à un système EMA-2D Carsten®. Les locuteurs étaient équipés de 8 bobines électromagnétiques qui permettent de récupérer les mouvements et trajectoires des lèvres, de la mâchoire, de la pointe, du corps et du dos de la langue. Les locuteurs s'entrainaient sur une série avant d'être équipés du système EMA. Les 4 cibles étaient rangées dans un ordre aléatoire en série de 6 éléments : les 4 cibles observées et deux distracteurs. Le matériel recueilli se compose de 3 séquences de répétitions pour chaque entrée dissyllabique et pour chaque locuteur. Les déplacements et le phasage des gestes de la mâchoire des lèvres, de la pointe et du dos de langue ont été analysés à l'aide des outils d'annotation développés par M. Tiede (Haskins Lab') sous Matlab®. Pour les cibles [pata] et [tapa], nous constatons effectivement une réorganisation articulatoire contrainte par le paradigme de vitesse. Si on observe l'évolution du geste mandibulaire, deux comportements différents se distinguent. Chez certains locuteurs, en phase d'élocution la plus rapide, la mâchoire interrompt son mouvement d'oscillation ; dans cette configuration, les gestes labial et coronal résistent et se maintiennent en deux mouvements d'oscillation en anti-phase. Dans d'autres séquences de répétitions, la mâchoire maintient un mouvement d'oscillation net, mais les remontées des lèvres et de la pointe de la langue se produisent dans une même remontée mandibulaire. Les deux gestes ne sont plus en anti-phase. La tâche est relativement bien réussie, et aucun sujet ne présente une vraie difficulté à maintenir une alternance entre les consonnes [p] et [t]. Pour les cibles [kapa] et [paka], les taux d'erreurs sont importants. L'exercice semble plus difficile que pour les cibles avec Labiale et Coronale. De manière générale, malgré ces erreurs, la stratégie articulatoire imposée par la vitesse entraine une baisse d'amplitude des articulateurs. En débit rapide, la langue maintient un plateau en position haute alors que le geste de montée et descente de la lèvre inférieur reste bien présent. L'écart temporel entre l'occlusion labiale et l'occlusion vélaire est plus court que celui entre la réalisation d'une cible [k] à une cible [p]. Nos premiers résultats montrent bien une réorganisation articulatoire des syllabes induite par l'accélération. Cependant les stratégies articulatoires ne semblent pas être juste le fait d'une réorganisation gestuelle des articulateurs lèvre et langue par rapport à la mandibule. Des stratégies se différencient nettement selon le maintien ou non de l'oscillation mandibulaire. De plus, la vitesse paraît moins contraignante pour le geste labial que pour les autres articulateurs. Des analyses statistiques viendront préciser les observations faites. Une étude acoustique chez une vingtaine de locuteurs et une étude similaire en italien et en géorgien (en cours d'analyse) complète ce travail. Références : Carrissimo-Bertola, M. (2010). Structures syllabiques des unités lexicales : « the fronting effect » (Mémoire de Recherche de Master1). Université Stendhal, Grenoble. Lancia, L., & Fuchs, S. (2011). The labial coronal effect revised. In Proceedings of the 9th International Seminar on Speech Production (ISSP) (p. 187-194). Présenté à 9th International on Speech Production (ISSP), Montréal. MacNeilage, P. F. (1998). The Frame/Content Theory of Evolution of Speech Production. Behavioral and Brain Sciences, 21(04), 499-511. MacNeilage, P. F., & Davis, B. (2000). On the origin of internal structure of word forms. Sciences, Vol. 288. Nazzi, T., Bertoncini, J., & Bijeljac-Babic, R. (2009). A perceptual equivalent of the labial_coronal effect in the first year of life. Journal of the Acoustical Society of America, p. 1440-1446. Rochet-Capellan, A., & Schwartz, J.-L. (2005). The Labial-Coronal effect and CVCV stability during reiterant speech production: An articulatory analysis. In Proceedings of the9th International Conference on Speech Communication and Technology (p. 1013-1016). Présenté à Interspeech'05, Lisbon. Sato, M., Vallée, N., Schwartz, J.-L., & Rousset, I. (2007). A perceptual correlate of the labial-coronal effect. Journal of Speech, Language, and Hearing Research, 50, 1466-1480. Tsuji, S., Gomez, N. G., Medina, V., Nazzi, T., & Mazuka, R. (2012). The labial–coronal effect revisited: Japanese adults say pata, but hear tapa. Cognition, 125(3), 413-428. Vallée, N., Rossato, S., & Rousset, I. (2009). Favored syllabic patterns in the world's languages and sensori-motor constraints. In F. Pellegrino, E. Marsicoa, I. Chitoran, & C. Coupé (Éd.), Approaches to Phonological Complexity (p. 111140). Berlin: Mouton de Gruyter.
{'path': '39/hal.archives-ouvertes.fr-hal-01017787-document.txt'}
UNIVERSITE DE LA REUNION U.F.R SANTE N° 2020LARE023M ANNEE 2020 Thèse pour l'obtention du DIPLÔME d'ÉTAT de DOCTEUR EN MÉDECINE Discipline : Médecine Générale Acceptabilité par les internes de médecine générale de l'Océan Indien d'un outil d'auto-formation en ligne (e-learning) proposé par l'Institut national du cancer (INCA) sur le dépistage des lésions précancéreuses et cancéreuses cutanées Présentée et soutenue publiquement le 10 Juin 2020 Par Chanaël CASSAM CHENAI Née le 12/05/1991 à Sainte Clotilde, La Réunion Membres du Jury : - Monsieur Le Professeur Jean Marc FRANCO : Président - Madame Le Professeur Catherine MARIMOUTOU : Assesseure - Monsieur Le Docteur Sébastien LERUSTE : Rapporteur - Monsieur Le Docteur Antoine BERTOLOTTI : Assesseur - Madame Le Docteur Sophie OSDOIT : Directrice TABLE DES MATIERES TABLE DES MATIERES 2 ABREVIATIONS 3 INTRODUCTION 4 I- Contexte 4 1. La Réunion : exposition solaire et épidémiologie des cancers cutanés 4 2. Offre de soins et accès aux dermatologues 5 3. Evaluation des pratiques des MG dans la prise en charge des pathologies dermatologiques et particulièrement des LPCC 7 4. Parcours actuel de formation en dermatologie et en cancérologie cutanée. Attentes des MG et IMG 9 II- Objectifs 12 ARTICLE 13 Introduction 15 Matériels et méthodes 16 Résultats 18 Discussion 23 DISCUSSION 33 PERSPECTIVES 38 CONCLUSION 39 REFERENCES 40 ANNEXES 46 SERMENT D'HIPPOCRATE 72 RESUME 73 2 ABREVIATIONS CBC : carcinome(s) basocellulaire(s) CE : carcinome(s) épidermoïde(s) CHU : Centre hospitalier universitaire DES : diplôme d'études spécialisées EM : écart moyen HAS : Haute Autorité de santé IMG : internes de médecine générale IMGOI : internes de médecine générale de l'Océan Indien INCA : Institut national du cancer KA : kératose(s) actinique(s) LPCC : lésion(s) précancéreuse(s) et cancéreuse(s) cutanée(s) MG : médecin(s) généraliste(s) MGOI : médecine générale de l'Océan Indien MSU : maîtres de stages des universités MT : médecin(s) traitant(s) OMS : Organisation mondiale de la santé QCM : questionnaire à choix multiples Q1 : questionnaire numéro un (avant formation) Q2 : questionnaire numéro deux (après formation) SIDES : Système inter-universitaire dématérialisé d'évaluation UV : ultraviolet(s) 3 INTRODUCTION I- CONTEXTE 1. La Réunion : exposition solaire et épidémiologie des cancers cutanés. 1.1. Indices ultraviolets (UV). L'Organisation mondiale de la météorologie et l'Organisation mondiale de la santé (OMS) utilisent l'indice UV comme mesure de référence universelle pour définir l'intensité du rayonnement UV et son impact sanitaire sur la peau [1]. Chiffré de 1 à 11 et plus, il permet de définir une classification à cinq niveaux de risques, associée à des recommandations pratiques de protection (Annexes 12, 13). Plus l'indice UV est élevé, plus le risque de lésions cutanées est important. L'OMS a listé les indices UV des pays, suivant les mois de l'année (Annexe 14). Dans l'hémisphère sud (zone intertropicale), l'exposition est souvent forte à extrême tout au long de l'année [2], [3]. A La Réunion, les indices UV peuvent s'apparenter à ceux de l'Australie. En hiver, ils sont compris entre 7 et 10. En été, ils dépassent la valeur de 12, allant parfois jusqu'à 18 dans les hauteurs de l'île où l'indice UV augmente avec l'altitude. Contrairement à l'Australie, pour des indices UV similaires, l'île de La Réunion n'a aucune campagne de dépistage à l'échelle régionale. Les dermatologues de La Réunion ont néanmoins mis en place une journée annuelle de dépistage des cancers cutanés et des actions de prévention dans les écoles de l'île par le biais de l'association Mission soleil réunion (MiSolRé). 1.2. Epidémiologie des cancers cutanés. Les carcinomes cutanés représentent 90 % des cancers cutanés [4] : − Les carcinomes basocellulaires (CBC), représentant 70 % des cancers cutanés, sont les plus fréquents et aussi les moins graves. Leur développement à partir des kératinocytes de la couche basale de l'épiderme reste localisé. Ces cancers ne métastasent pas et leur ablation complète assure la guérison du patient. Un diagnostic précoce permet d'éviter une chirurgie mutilante aux conséquences esthétiques et fonctionnelles majeures. − Les carcinomes épidermoïdes (CE) ou carcinomes spinocellulaires, plus rares, 4 représentent 20 % des cancers cutanés. Leur développement se fait à partir des kératinocytes des couches supérieures de l'épiderme. Etant plus agressifs, ils peuvent envahir les ganglions lymphatiques et métastaser. Leur diagnostic doit donc être précoce. Les mélanomes cutanés, représentant 10 % des cancers cutanés, sont plus rares mais sont responsables de 75 % des décès liés aux cancers de la peau. Ils se développent à partir des mélanocytes. Ils peuvent apparaître sur une peau saine (70 à 80 % des cas) ou résulter de la transformation maligne d'un naevus. On estime que 10 % des mélanomes sont des formes familiales. Ces cancers sont à fort potentiel métastatique. Leur pronostic dépend principalement de leur épaisseur histologique (indice de Breslow). Selon le programme américain « Surveillance epidemiology end results » (SEER) basé sur les données de 2009 à 2015, la survie relative à 5 ans est de 98,7 % au stade localisé, 64,7 % au stade d'extension locorégionale et 24,8 % au stade métastatique [5]. Ainsi, un diagnostic précoce est indispensable pour améliorer le pronostic du patient. Selon le site de l'Institut national du cancer (INCA), en France entre 1980 et 2012, l'incidence des cancers cutanés a triplé et le taux de mortalité a significativement augmenté [4]. En 2017, en France métropolitaine, l'incidence des mélanomes était de 15 404 cas et 1783 patients sont décédés de cette maladie. A La Réunion, les études statistiques sur les cancers cutanés sont rares [6], [7]. La thèse de J. Warocquier a étudié les données épidémiologiques des mélanomes cutanés à La Réunion en 2015 [8]. Ce travail a montré que l'incidence des mélanomes invasifs à La Réunion a été multipliée par 4 en 20 ans, entre 1995 et 2015 (Annexe 15). La population atteinte était à 85 % de phototype clair de I à III (créoles blancs et métropolitains principalement). 2. Offre de soins et accès aux dermatologues. 2.1. Parcours de soins coordonnés. La mise en place du parcours de soins coordonnés en 2004, a placé le médecin traitant au centre du système de soins. Dans la majorité des cas, celui-ci est un médecin généraliste. Etant en première ligne, il a un rôle privilégié dans la prise en charge préventive. De plus, il centralise les informations médicales du patient, coordonne les soins et oriente le patient vers d'autres professionnels de santé quand il le juge nécessaire. Le respect de ce parcours de soins assure 5 une prise en charge des frais de consultations à 70 % par l'assurance maladie contre 30 % hors de ce parcours coordonné. Ce dispositif permet ainsi d'éviter la multiplication de consultations inutiles, des ordonnances et des examens redondants. 2.2. Proportion de consultations aux motifs dermatologiques. L'étude descriptive « Etude des éléments de la consultation en médecine générale » (ECOGEN), initiée en 2013 par le Collège national des généralistes enseignants (CNGE), avait pour objectif de décrire les éléments de la consultation de médecine générale en France [9]. Selon cette étude, la dermatologie représentait 4 % des motifs de consultations de médecine générale, arrivant en 8ème position sur 17 de la distribution des motifs de consultations par appareil. 2.3. Offre de soins et accès aux dermatologues à La Réunion. Des études de Statistiques et d'indicateurs de la santé et du social (STATISS) sont réalisées annuellement par l'Agence régionale de santé océan indien (ARSOI) [10], [11]. La dernière étude datant de 2017 a estimé la population réunionnaise à 850 996 habitants au 1er Janvier 2016. Le 1er Janvier 2017 à La Réunion, il y avait 825 médecins généralistes (MG) libéraux (hors remplaçants), soit une densité de 97 MG pour 100 000 habitants. Le nombre de dermatologues (hors remplaçants) était de 28 soit une densité de 3 dermatologues pour 100 000 habitants. A Mayotte, pour une population de 235 132 habitants, il y avait 131 MG dont seulement 8 en libéral (hors remplaçants) et aucun dermatologue. En France Métropolitaine, la densité de dermatologues était de 6 pour 100 000 habitants [12]. L'étude publiée en 2016 par l'Institut national de la statistique et des études économiques (INSEE), visait à étudier l'accès aux soins à La Réunion [13]. Cette étude a permis de montrer que le MG était accessible rapidement. En effet, la quasi-totalité des réunionnais résidait à moins de 10 minutes en voiture du MG le plus proche (95 %) et 80 % d'entre eux à moins de 5 minutes. À pied, la moitié des réunionnais habitait à moins de 10 minutes. De plus, les habitants de l'île consultaient d'avantage le MG que les métropolitains ou les autres ultramarins. Cette étude a également évalué l'accès à certains spécialistes libéraux tels que les ophtalmologues, les gynécologues, les pédiatres et les psychiatres. Leur densité par habitant était moindre qu'en métropole. Etant absents des hauts de l'île et se concentrant dans les centres-villes les plus 6 peuplés, les patients devaient consulter hors de leur commune de résidence. Dans ce travail, l'accès aux dermatologues n'a pas été particulièrement étudié. Cependant la densité des dermatologues étant plus faible que celles des spécialités étudiées, une difficulté d'accès, au moins similaire voire plus importante, peut être suggérée. Une étude de la Direction de la recherche, des études, de l'évaluation et des statistiques (DRESS) de 2018 en métropole montrait que le patient attendait 2 jours avant d'avoir un rendezvous chez un médecin généraliste contre 61 jours chez un dermatologue [14]. 3. Evaluation des pratiques des MG dans la prise en charge des pathologies dermatologiques et particulièrement des lésions précancéreuses et cancéreuses cutanées (LPCC). 3.1. Auto-évaluation des pratiques des MG : difficultés ressenties et incertitudes. Plusieurs travaux ont décrit la difficulté ressentie par les MG lors des consultations aux motifs dermatologiques, particulièrement lorsqu'il s'agissait de LPCC [15]–[21]. Concernant le dépistage des LPCC, les MG déclaraient avoir des connaissances insuffisantes et perfectibles [16], [18], [20]. Par exemple, concernant les kératoses actiniques (KA), G Thomas montrait dans sa thèse, qu'un tiers des MG ne savaient pas qu'elles étaient précancéreuses. Un tiers d'entre-eux pensaient qu'il s'agissait de lésions précancéreuses des CBC. Seuls 22 % des MG savaient que les KA étaient des lésions précancéreuses des CE. Concernant leur prise en charge thérapeutique, seulement 12 % des MG interrogés les traitaient eux-mêmes. Plus de la moitié des MG ne savaient pas qu'ils pouvaient prescrire les topiques. Finalement, dans 77 % des cas, les MG préféraient adresser d'emblée les patients aux dermatologues [17]. La reconnaissance des mélanomes posait davantage de difficultés que les autres LPCC [18]– [20]. En pratique, tous les outils cliniques de dépistage n'étaient pas utilisés. Les MG étaient surtout attentifs à la couleur ou à l'évolution des naevi, moins aux autres éléments de la règle ABCDE [16], [18]. De plus, peu de MG étaient familiers au signe du vilain petit canard (méthode cognitive visuelle selon laquelle une lésion mélanocytaire est considérée comme suspecte si elle est cliniquement différente des autres naevi du patient) [18]. Le dépistage cutané systématique corps entier était insuffisamment réalisé [16], [21]. Trois 7 thèses concordaient à dire que les principaux obstacles à la bonne pratique du dépistage des LPCC, étaient la difficulté à reconnaître les lésions et le manque de temps [18], [19], [21]. Devant ces difficultés diagnostiques, les études ont montré que les MG orientaient au moindre doute et ce rapidement le patient vers les dermatologues pour éviter les retards diagnostiques. Les lésions malignes étaient adressées aux dermatologues dans plus de 9 cas sur 10 [15], [20]. Cependant, étaient également adressées, souvent et à tort, les lésions bénignes. Ceci était expliqué par une incertitude face aux diagnostics différentiels bénins des LPCC et par la méconnaissance des thérapeutiques possibles [17], [21]. 3.2. Concordance diagnostique des MG et des dermatologues. Il existe une différence de concordance diagnostique entre les MG et les dermatologues. Celle-ci varie selon le type de pathologies cutanées [19], [22], [23]. Dans la thèse de M Yaiche Tibi, les dermatologues confirmaient les diagnostics des MG dans 62 % des cas pour les carcinomes cutanés contre 7,2 % des cas pour les mélanomes malins [19]. Une étude multicentrique française de 2004 montrait que les mélanomes diagnostiqués par les MG avaient une épaisseur supérieure à ceux diagnostiqués par les dermatologues [22]. Ces discordances diagnostiques étaient également présentes devant des lésions différentielles bénignes. Par exemple, les kératoses séborrhéiques étaient diagnostiquées comme telles dans 43 % des cas par les MG contre 75 % des cas par les dermatologues [23]. Des observations similaires ont été faites en Belgique et en Australie [24]–[26]. 3.3. Avis des dermatologues concernant les prises en charge dermatologiques des MG. Une étude réalisée par la DRESS en 2009 en France métropolitaine a recueilli l'avis des spécialistes sur l'évolution de leurs pratiques depuis la mise en place du parcours de soins coordonnés. Quarante-deux pour cent des dermatologues interrogés estimaient que les pratiques s'étaient détériorées. Soixante pour cent des dermatologues jugeaient les échanges avec les MG traitants plus nombreux mais à 50 % ils considéraient les courriers reçus moins informatifs. Enfin, près de la moitié des dermatologues estimaient que leurs actions de prévention étaient rendues plus difficiles [27]. 8 3.4. Confiance des patients envers les MG lors des consultations aux motifs dermatologiques. L'étude de la DRESS en 2009 indiquait que le taux de consultations « hors parcours » était plus important chez les dermatologues que chez les autres spécialistes (cardiologues, gastroentérologues, rhumatologues, ORL et psychiatres pour les patients de plus de 26 ans). Il s'agissait de plus d'une consultation sur trois (34 %). Ces patients « hors parcours » étaient ceux qui n'avaient pas déclaré de médecins traitants (MT) à la sécurité sociale, ceux qui consultaient sans recommandation médicale (ni du MT ni d'un autre médecin) et ceux qui avaient un motif ne relevant ni d'un suivi de maladie chronique ni d'une urgence. Parmi ces patients consultant des dermatologues hors du parcours de soins coordonnés, 63 % avaient déclaré savoir qu'ils devaient au préalable être adressés par leur MT. Parmi ces derniers, 72 % avaient déclaré vouloir gagner du temps, 82 % étaient prêts à être moins bien remboursés et 31 % pensaient à tort que leur mutuelle rembourserait les frais du « hors parcours », ce qui revenait à dire que 69 % savaient que des frais supplémentaires allaient être engendrés [27]. Une étude américaine apportait des conclusions similaires [28]. 4. Parcours actuel de formation en dermatologie et en cancérologie cutanée. Attentes des MG et internes de médecine générale (IMG). 4.1.Parcours actuel de formation en dermatologie au cours des études médicales. La formation dermatologique est principalement théorique pendant les trois cycles des études médicales. Pendant les trois premières années, elle concerne l'anatomopathologie, l'embryologie et la sémiologie. Pendant l'externat, une quinzaine d'items sur 362 au programme des épreuves classantes nationales (ECN) sont spécifiques à la dermatologie. L'item 299 « Tumeurs cutanées, épithéliales et mélaniques » traite des LPCC. Dans le cadre du diplôme d'études spécialisées (DES) de médecine générale de l'Océan Indien (MGOI), la formation théorique est constituée de la réalisation d'un portfolio et de cours en demi-groupes ou promotions entières. Le portfolio doit contenir des récits de situations complexes authentiques (RSCA). Ceux-ci représentent un exercice d'auto-évaluation et d'auto-formation à partir de difficultés ressenties lors des prises en charge réellement vécues par l'interne au cours de ses stages pratiques. Ainsi le développement des problématiques de dermatologie n'est pas systématique et dépend de chaque interne. Les cours obligatoires mettent en avant des sujets principalement transversaux. Ils sont réalisés et dispensés par des MG. Un cours théorique de 9 3 heures évoque l'atopie, l'asthme et l'eczéma. Il n'y a pas d'autres enseignements théoriques ou pratiques dédiés aux pathologies cutanées. La formation pratique à la dermatologie est variable selon les étudiants et fonction de leurs terrains de stage. Le passage dans le service de dermatologie pendant les deux premiers cycles dépend des disponibilités d'accueil. Ainsi tous les étudiants ne bénéficient pas de cette formation. Au cours du 3ème cycle, l'IMG doit respecter une maquette imposée. Six mois sont obligatoires dans un stage « validant adulte », un stage d'urgences, de gynécologie et/ou pédiatrie, un stage dans un centre hospitalier universitaire (CHU) et dans un stage ambulatoire chez le praticien de ville. Il reste ensuite un stage libre que l'IMG peut réaliser sans contrainte en hospitalier ou en ambulatoire. A La Réunion, il n'y a aucun terrain de stage de dermatologie ouvert aux IMG. Dans les services de médecine interne-dermatologie du CHU Nord et de maladies infectieuses du CHU Sud, l'accès aux consultations de dermatologie est possible pour les internes volontaires en stage dans ces services. Ces stages « validant adulte » accueillent 0 à 1 interne de médecine générale de l'Océan Indien (IMGOI) par semestre et 20 étudiants de premier cycle par an. 4.2. Formation jugée insuffisante. La formation en dermatologie est jugée insuffisante par les MG qui souhaitent se former davantage, particulièrement dans le dépistage des LPCC [15], [17], [18], [21], [29] Selon les déclarations des MG recueillies entre 2009 et 2011, concernant la détection précoce de LPCC, la formation initiale était critiquée et perfectible pour 9 médecins sur 10. Malgré tout, seul un médecin sur deux (53 %) avait complété sa formation dans ce domaine en participant à une formation médicale continue. Sur le fond, celle-ci devait concerner en priorité la « détection et le diagnostic ». Sur la forme, les MG attendaient majoritairement une formation basée sur des iconographies [16]. 4.3. Efficacité prouvée de la formation. De nombreuses études montraient une amélioration des connaissances et des compétences des MG formés au dépistage et au diagnostic des LPCC, et particulièrement des mélanomes. Le nombre de confirmations diagnostiques était majoré après formation [19], [23], [30]. L'analyse de la littérature rapportée par la Haute Autorité de santé (HAS) en 2006 montrait que les MG ayant reçu une formation à l'identification des mélanomes adressaient 5,6 fois plus 10 souvent leurs patients à un dermatologue (934 versus 166 ; p < 0,00001) et identifiaient 3 fois plus de lésions malignes (302 versus 91 ; p < 0,007) que les médecins non formés. Au total 10 mélanomes de patients adressés par les MG formés avaient été identifiés par les dermatologues contre 1 mélanome par les médecins non formés [30]. Les campagnes de formation apportaient également une amélioration de l'identification des sujets à risque de mélanomes [23]. Des études belges et australiennes apportaient les mêmes conclusions [24], [31]. En Australie, les MG de moins de 15 ans de pratique avaient, de manière significative, de moins bons résultats que les MG de plus de 25 ans de pratique. Après la formation, il n'y avait plus de différence de niveaux de connaissances entre ces deux groupes. La formation permettait une progression plus importante chez les jeunes médecins [31]. 4.4. Point de vue des IMG : leurs compétences, leurs avis et leurs attentes. Pourquoi les cibler dans la formation ? Les IMG présentent des lacunes dans leurs connaissances en matière de diagnostic et de prise en charge des lésions dermatologiques. Une thèse de 2013 montrait que ces carences étaient présentes chez les IMG en fin d'internat en Aquitaine. Les difficultés de diagnostics et de prises en charge ainsi que l'incertitude étaient plus importantes lorsqu'il s'agissait de pathologies cancéreuses. Concernant les lésions bénignes comme les kératoses séborrhéiques, le diagnostic n'était fait qu'à 18 % et les IMG orientaient les patients à tort vers les dermatologues dans 71 % des cas devant le relief et la pigmentation des lésions [32]. Les IMG émettent une opinion défavorable sur le parcours de formation en dermatologie et souhaitent se perfectionner [32], [33]. Un article publié en 2018 décrivait qu'en Ile de France, les IMG interrogés n'étaient pas égaux en termes de parcours de formation : 39 % d'entre eux étaient passés en dermatologie pendant leur externat et 55 % avaient bénéficié d'un enseignement de la dermatologie au cours de l'internat. Quatre-vingt-douze pour cent des IMG jugeaient leurs connaissances en dermatologie insuffisantes pour leur pratique future. La dermatologie arrivait en 5ème position des spécialités à perfectionner après la pédiatrie, la cardiologie, la pneumologie et la gynécologie. En termes de formation souhaitée : 73 % des IMG interrogés souhaitaient faire un stage d'une journée 11 avec un dermatologue de ville, 52 % souhaitaient un enseignement à distance par l'intermédiaire d'une photothèque et 84 % déclaraient être prêts à sacrifier une journée de travail pour suivre une formation de dermatologie [33]. Un argument supplémentaire incitait à améliorer prioritairement la formation initiale des étudiants en médecine. Dans plusieurs travaux, les MG voulant se former déclaraient manquer de temps [16], [18], [19], [21]. II- OBJECTIFS Au vu de l'augmentation de l'incidence des cancers cutanés à La Réunion, d'une formation initiale en dermatologie jugée insuffisante par les généralistes et leur souhait de se perfectionner prioritairement dans le dépistage des cancers de la peau, nous avons souhaité évaluer l'acceptabilité d'un outil de e-learning en dermatologie sur le dépistage des LPCC, par les IMGOI. L'objectif principal de notre étude était d'évaluer l'acceptabilité de l'outil d'auto-formation en ligne proposé par l'INCA concernant le dépistage des LPCC, par les IMGOI de 1ère et 2ème année. Les objectifs secondaires étaient de décrire le niveau initial de leurs connaissances sur le dépistage des LPCC et de décrire l'évolution de celui-ci après l'auto-formation proposée. 12 Acceptabilité par les internes de médecine générale de l'Océan Indien d'un outil d'auto-formation en ligne (e-learning) proposé par l'Institut national du cancer (INCA) sur le dépistage des lésions précancéreuses et cancéreuses cutanées Acceptability of an online training tool created by the French national institute of cancer (INCA) on precancerous skin lesions and skin cancers early detection by French students from the general medicine residency Cassam Chenaï C1, Beneteau S2, Vagner D3, Marimoutou C4, Leruste S5, Osdoit S6 (1) La Réunion (2) Unité de Soutien Méthodologique, Centre hospitalier universitaire (CHU) de La Réunion (3) CHU de La Réunion (4) Centre d'Investigation Clinique, INSERM 1410, CHU de La Réunion (5) Unité de formation et de recherches Santé de La Réunion (6) Service de médecine interne et de dermatologie, CHU de La Réunion Résumé Introduction : L'incidence des cancers cutanés est croissante à La Réunion. La formation initiale au dépistage de ces lésions est jugée insuffisante par de nombreux médecins généralistes et internes de médecine générale. L'objectif de notre étude était d'évaluer l'acceptabilité d'un outil d'auto-formation en ligne proposé par l'Institut national du cancer (INCA) concernant le dépistage des lésions précancéreuses et cancéreuses cutanées (LPCC), par les internes de médecine générale de l'Océan Indien (IMGOI) de 1ère et 2ème année. Matériels et méthodes : Cette étude descriptive, a inclus les IMGOI de 1ère et 2ème année. Le recueil de données a été réalisé sur 25 semaines entre mars et septembre 2019. Deux questionnaires composés de questions à choix multiples et de cas cliniques ont été envoyés par e-mail aux participants, avant et après la formation en ligne. L'outil de formation, validé par l'INCA et gratuitement accessible en ligne, contenait des cours, des photos et des cas cliniques. 13 La formation était jugée acceptable si au moins 70 % des inclus effectuaient au moins 70 % de la formation. Résultats : Sur 126 IMGOI inclus, 42 (33 %) ont participé au premier questionnaire, 13 (10 %) formés en ligne, ont répondu au deuxième questionnaire. Parmi eux, 4 IMGOI (3,2 % des inclus) ont fait plus de 70 % de la formation. Discussion : Selon le critère de jugement principal, notre étude a jugé cet outil de formation non acceptable par les IMGOI de 1ère et 2ème année. Néanmoins, notre travail a montré l'intérêt des participants pour un complément de formation sur le dépistage des LPCC, notamment via le e-learning. Mots clés : tumeurs cutanées ; dépistage précoce du cancer ; e-learning Abstract Introduction : The incidence of skin cancers has increased in Reunion island. The initial education in these lesions screening is insufficient according to many general practitioners and general practice residents. Our main objective was to assess the acceptability of an online education tool on skin cancers early detection, on the site of the French national institute of cancer (INCA), by first and second year students of the general medicine residency (GPR) at the French University of Reunion Island. Materials and methods : This descriptive study included the first and second year GPR. The data collection lasted 25 weeks from March to September 2019. Two questionnaires composed of multiple-choice questions and clinical cases were sent to participants by email before and after the online training. The training tool, validated by the INCA and freely accessible online, included courses, pictures and clinical cases. The training was deemed acceptable if at least 70% of the inclusives performed at least 70% of the training. Results: 42 (33%) out of 126 included GPR participated in the first questionnaire, 13 (10%) trained online and answered the second questionnaire. 4 GPR (3.2% of inclusives) of these 13 GPR did more than 70% of the training. Discussion : According to our main judgment criterion, this training tool has been considered as not acceptable by the included GPR. However, our work has shown the participants' interest in additional skin cancer screening training, especially in the e-learning format. Key words : skin neoplasms, cancer early detection, online education 14 INTRODUCTION En France, l'incidence des cancers cutanés a triplé en 15 ans [1]. A La Réunion, celle des mélanomes invasifs a été multipliée par 4 en 20 ans [2]. L'exposition solaire y est forte à extrême tout au long de l'année avec des indices ultraviolets (UV) variant entre 7 et 10 en hiver austral et dépassant 12 en été, allant jusqu'à 18 dans les hauteurs de l'Ile [3]–[5]. La densité des dermatologues sur l'Ile est plus faible que celle de la métropole. En effet, en 2017, il y avait sur l'Ile trois dermatologues contre 6 en métropole pour 100 000 habitants [6]– [8]. L'accès aux médecins généralistes (MG) est plus aisé : 95 % des Réunionnais y ont accès en moins de 10 minutes en voiture [9]. Par leur proximité avec les patients, les MG ont un rôle essentiel dans le dépistage des lésions précancéreuses et cancéreuses cutanées (LPCC). Ce rôle s'est renforcé depuis la mise en place du parcours coordonné des soins en 2004. De nombreuses études décrivent les difficultés ressenties par les MG lors des consultations aux motifs dermatologiques, représentant environ 4 % de leurs pratiques [10]. Ces incertitudes diagnostiques sont plus importantes face à des LPCC et particulièrement devant des lésions mélanocytaires. Plusieurs difficultés sont rapportées : lacunes des connaissances théoriques, incertitude diagnostique importante, outils cliniques insuffisamment utilisés dans l'identification des naevi et méconnaissance des possibilités thérapeutiques à proposer en soins primaires [10]–[18]. Le manque de formation initiale en dermatologie au cours des études médicales est fréquemment rapporté par les MG et les internes de médecine générale (IMG), qui sont demandeurs de plus de formations théoriques et pratiques en dermatologie, notamment pour le diagnostic des LPCC [19]–[21]. L'objectif de notre étude était d'évaluer l'acceptabilité par les IMG de la subdivision Océan Indien (IMGOI) de 1ère et 2ème année, de l'outil d'auto-formation en ligne (e-learning) proposé par Institut national du cancer (INCA), concernant le dépistage des LPCC. Les objectifs secondaires de notre travail étaient de décrire le niveau initial de connaissances de la population incluse, sur le dépistage des LPCC puis de décrire l'évolution du niveau de connaissances après la formation par e-learning pour en évaluer l'efficacité. 15 MATERIELS ET METHODES Format de l'étude Nous avons réalisé une étude descriptive avec recueil de données avant-après formation par e-learning. Tous les internes de 1ère et 2ème année inscrits au diplôme d'études spécialisées de médecine générale subdivision Océan Indien étaient inclus. Les IMGOI de 3ème année et les internes en inter-CHU étaient exclus. Le recueil de données a été réalisé sur 25 semaines entre mars et septembre 2019. Une déclaration simplifiée (numéro 2210184v0) a été réalisée auprès de la Commission nationale de l'informatique et des libertés (CNIL). Intervention Le recueil de données a été fait en 3 étapes (annexe 1). Un premier questionnaire (Q1) partagé en ligne, définissait d'abord le profil, le parcours et les attentes des participants via des questions à choix multiples (QCM). Puis, par des cas cliniques avec QCM, les participants étaient testés sur leurs connaissances en termes de dépistage et diagnostic des LPCC. A chaque QCM, les participants devaient cocher la ou les bonnes réponses et cocher ou non s'ils étaient sûrs de leurs réponses à la question. Ce Q1 était accessible pendant les 25 semaines (annexe 2). La deuxième étape était la phase d'auto-formation à distance en ligne (ou e-learning). Le lien vers l'outil de formation proposé par l'INCA fut envoyé 7 semaines après le lancement du Q1. La dernière étape était la diffusion du deuxième questionnaire (Q2) 4 mois et demi après la formation. Il contenait des QCM d'évaluation des critères d'acceptabilité de l'outil selon une échelle de Linkert et les mêmes cas cliniques que le Q1 (annexe 3). Les mêmes pseudonymes, créés par les étudiants, devaient être utilisés pour le Q1 et le Q2. Une correction était diffusée le jour de la clôture du recueil 7 semaines après la diffusion du Q2 (annexe 4). Critères de jugement principaux Pour répondre à l'objectif principal, l'outil de e-learning était jugé acceptable si au moins 70 % des IMGOI de 1ère et 2ème année effectuaient au moins 70 % de la formation. Le niveau initial des connaissances des IMGOI était évalué par leur taux moyen de bonnes réponses obtenu aux cas cliniques du Q1. La variation des taux moyens de bonnes réponses entre le Q1 et le Q2 était proposée pour juger de l'efficacité de l'outil. 16 Cas cliniques Les 11 cas cliniques contenus dans les questionnaires étaient présentés sous forme de QCM. Ils ont été élaborés à partir de photographies de patients (de phototypes 2 à 5) pris en charge au CHU Nord Réunion et ont été validés par deux dermatologues praticiens du CHU (annexe 2). Toutes les lésions cancéreuses ou suspectes de malignité sélectionnées pour les cas cliniques, ont bénéficié d'une confirmation histologique. Les photographies des lésions bénignes, n'avaient pas de confirmation histologique ont été revues avec deux praticiens hospitaliers de dermatologie pour validation des diagnostics cliniques. Outil de e-learning L'outil de formation en ligne, proposé gratuitement par l'INCA, a été mis en place dans le cadre du plan cancer. Il a été créé par un comité de 19 experts scientifiques pluridisciplinaires (dermatologues, MG, médecins du travail, infirmières et kinésithérapeutes). Il contenait 4 parcours guidés de formation au dépistage et au diagnostic des LPCC ainsi que des cas cliniques. La durée estimée de réalisation de la formation complète était de 3h10 (parcours guidés : 1h40, cas cliniques : 1h30). D'autres outils et liens complémentaires de formation étaient disponibles via le site [22]. Une autorisation de mentionner l'outil au cours de cette thèse a été accordée au préalable auprès du webmaster du site. Communication et diffusion Les Q1 et Q2 ont été réalisés sur l'outil de communication « Quizzyourself® ». Il a été demandé aux participants de les réaliser sans supports d'aide. Les questionnaires étaient accessibles via les ordinateurs, les tablettes et les smartphones. La diffusion des questionnaires était faite via les adresses e-mails universitaires des étudiants par le département universitaire de médecine générale ainsi que sur les réseaux sociaux des différents groupes d'internes de l'Océan Indien. Des e-mails ont également été envoyés au réseau de praticiens hospitaliers du CHU Nord et Sud de La Réunion pour promouvoir le travail et inciter leurs internes à participer. Deux promotions orales ont été faites en cours obligatoires des IMGOI. Analyse Les réponses des participants aux questionnaires recueillies sur « Quizzyourself® » ont été exportées sur Excel®. Les données ont été présentées en pourcentage de bonnes réponses, d'incertitude et de certitude justifiée. Les moyennes, les écarts-types et les médianes de ces données ont été collectés. Les tests de Kruskal-Wallis ont été utilisés pour comparer ces données. Les tests de Wilcoxon « Wilcoxon signed rank test with continuity correction » ont 17 été utilisés dans l'analyse appariée des données avant et après formation. Les analyses statistiques ont été réalisées sur le logiciel R® version 3.6.1 (2019-07-05). RESULTATS Acceptabilité de l'outil de e-learning Trois pour cent des IMGOI inclus ont réalisé plus de 70 % de la formation comprenant les 4 parcours et les cas cliniques (figure 1). Notre étude a jugé l'outil de e-learning de l'INCA non acceptable par les IMGOI de 1ère et 2ème année. IMGOI 1ère et 2ème année inclus n = 126 Non participants n = 84 Questionnaire 1 (Q1) pré-formation n = 42 Pertes de vue n = 29 Formation en E-learning INCA proposée Questionnaire 2 (Q2) post-formation n = 13* Ayant fait moins de 70% des parcours et des CC n=6 Ayant fait plus de 70% des parcours et moins de 70% des CC n=3 Ayant fait plus de 70% des parcours et des CC n=4 18 Figure 1. Diagramme de flux. IMGOI : internes de médecine générale Océan Indien ; INCA : Institut national du cancer ; Q1 : questionnaire 1 avant l'auto-formation par e-learning proposée par l'INCA ; Q2 : questionnaire 2 après l'auto-formation par e-learning proposée par l'INCA ; CC : cas cliniques * Parmi ces 13 IMGOI, 3 participants aux Q1 et Q2 n'avaient pas utilisé le même pseudonyme d'identification aux deux questionnaires. Ils ont été exclus de l'analyse de l'évolution des connaissances avant/après formation. Niveau initial de connaissances initiales des IMGOI avant la formation en e-learning Avant la formation, le taux moyen de bonnes réponses aux cas cliniques était de 60,7 % écart moyen (EM) = 7,7. Le taux moyen d'incertitude des participants était de 92 %. Pour toutes les pathologies confondues, le taux moyen de bonnes réponses aux questions de diagnostics était de 57,4 % (EM = 10,8). Indépendamment des diagnostics, le taux moyen de bonnes réponses aux questions de prises en charge (prélèvement à visée histologique ou orientation vers le dermatologue, justifiés) était de 66,7 % (EM = 17,5) (tableau I). Lorsque les participants cochaient qu'ils étaient sûrs de leurs réponses, leur certitude était justifiée dans 5,4 % des cas en moyenne (EM = 9,6). Tableau I. Taux moyens de bonnes réponses et d'incertitude dans les cas cliniques du Q1 (pré-formation), selon le type de pathologies. (n = 42) Taux moyens de bonnes réponses Taux moyens en % (écart moyen) d'incertitude en % (écart moyen) Totalité des Diagnostics† Prises en charge‡ 60,7 (7,7) 57,4 (10,8) 66,7 (17,5) 92 (14,2) 66 (13,3) 56,2 (18,3) 90,5 (29,7) 91,7 (18) 42,7 (13,3) 44,8 (18,6) 28,6 (45,7) 98,2 (8,5) 74,5 (11) 69,9 (13,8) 71 (22,9) 91,1 (16,4) questions Totalité des cas cliniques CBC CE Mélanomes* 19 Mélanomes 31,6 (13,3) 27,6 (13,8) 38,7 (21) à tort§ Q1 : questionnaire 1 avant l'auto-formation par e-learning proposée par l'Institut national du cancer ; CBC : carcinomes basocellulaires et leurs diagnostics différentiels ; CE : carcinomes épidermoïdes, lésions précancéreuses (kératoses actiniques) et leurs diagnostics différentiels ; * et leurs diagnostics différentiels † Questions sur les diagnostics des lésions ; ‡ Questions sur les prises en charge ; § Lésions mélanocytaires bénignes à tort orientées vers un prélèvement à visée histologique ou adressées au dermatologue Les IMGOI de 1er semestre avaient un taux d'incertitude de 90,5 % (EM = 18,8) pour un taux moyen de bonnes réponses à 63,3 % (EM = 6,9). Les IMGOI de 4ème semestre avaient un taux d'incertitude de 92,2 % (EM = 7,3) pour un taux moyen de bonnes réponses à 56,9 % (EM 8,3) (tableau II). Tableau II. Confiance ressentie, incertitude et taux de bonnes réponses des IMGOI avant la formation, selon leur ancienneté. (n = 42) Semestre du DES Confiance initiale* n (% d'effectifs) Total 1 2 3 4 n = 19 n=5 n = 10 n=8 Confiant(e) 3 (15,8) 0 (0) 3 (30) 0 (0) 6 (14,3) Moyennement 8 (42,1) 3 (60) 1 (10) 2 (25) 14 (33,3) 7 (36,8) 0 (0) 4 (40) 4 (50) 15 (35,7) 1 (5,3) 2 (40) 2 (20) 2 (25) 7 (16,7) n = 42 confiant(e) Pas confiant(e) Pas du tout confiant(e) Taux moyens d'incertitude 90,5 (15,6) 98,7 (2,8) 91,3 (18,4) 92,2 (7,3) 92 (14,2) en % (écart moyen)† Taux moyens de bonnes 63,3 (6,9) 58,9 (5,4) 61,8 (11,7) 56,9 (8,3) 60,7 (7,7) réponses en % (écart moyen) 20 † Kruskal-Wallis test ; p = 0,405 ‡ Kruskal-Wallis test ; p = 0,253 DES : diplôme d'études spécialisées ; IMGOI : interne de médecine générale de l'Océan Indien ; LPCC : lésions précancéreuses et cancéreuses cutanées ; Q1 : questionnaire 1 avant l'auto-formation par e-learning proposée par l'Institut national du cancer ; IQR : intervalle interquartile ; * ressentie pas les IMGOI dans le dépistage des LPCC avant le recueil Evolution du niveau de connaissances après la formation en e-learning 13 IMGOI ont testé l'outil de formation et ont répondu au Q2. L'étude de l'évolution des connaissances avant et après formation a pu être faite sur les 10 internes qui ont utilisé le même pseudonyme aux deux questionnaires. Le taux moyen de bonnes réponses avant formation était de 58,6 % (EM = 7,7) versus 61,3 % (EM = 4,1) après la formation. Le taux moyen de bonnes réponses aux questions de diagnostics était de 59 % (EM = 7,7) versus 51 % (EM = 5,2) après la formation. Le taux moyen de bonnes réponses aux questions de prises en charge passait de 62 % (EM = 17,5) à 84 % (EM = 15,8) après l'auto-formation. L'incertitude des participants passait de 95 % (EM = 13,8) à 82,5 % (EM = 21,2) en moyenne. La certitude était justifiée dans 3,8 % (EM = 9,9) dans le Q1 et dans 7,6 % (EM = 12,4) dans le Q2 (tableau III). Tableau III. Analyse appariée des résultats avant versus après l'auto-formation par elearning. (n = 10) Taux moyen en % (écart moyen) Total des cas cliniques CBC P value II Avant Après Bonnes réponses 58,9 (8) 61,3 (4,1) 0,307 Bons diagnostics 59 (7,7) 51 (5,2) 0,036 Bonnes prises en charge 62 (17,5) 84 (15,8) 0,020 Incertitude 95 (13,8) 82,5 (21,2) 0,104 Bonnes réponses 63,8 (10,9) 60 (11,5) 0,520 Bons diagnostics 58 (14,8) 42 (19,9) 0,089 Bonnes prises en charge 80 (42,2) 100 (0) 0,346 Incertitude 95 (15,8) 77,5 (27,5) 0,098 21 CE Bonnes réponses 40 (13,1) 44,2 (8,1) 0,446 Bons diagnostics 45,7 (17,6) 35,6 (7,5) 0,076 20 (42,2) 60 (51,6) 0,129 100 (0) 95,0 (10,5) 0,346 Bonnes réponses 73,1 (10,7) 76,9 (6,6) 0,396 Bons diagnostics 72,5 (7,9) 70 (8,7) 0,572 Diagnostics à tort † 28,3 (16,3) 29,7 (10,2) 0,887 Bonnes prises en charge 69,5 (19,1) 86,4 (17,6) 0,089 Prises en charge à tort ‡ 40 (21,1) 37,5 (13,2) 0,777 93,8 (15,9) 78,8 (25,7) 0,097 3,8 (9,9) 7,6 (12,4) 0,181 Bonnes prises en charge Incertitude Mélanomes* Incertitude Taux de certitude justifiée (total des cas cliniques) CBC : carcinomes basocellulaires et diagnostics différentiels ; CE : carcinomes épidermoïdes, lésions précancéreuses (kératoses actiniques) et diagnostics différentiels * et leurs diagnostics différentiels ; † Lésions mélanocytaires bénignes considérées à tort comme malignes ; ‡ Lésions mélanocytaires bénignes à tort orientées vers un prélèvement à visée histologique ou adressées au dermatologue § Lorsque le participant a coché « je suis sûr(e) de mes réponses à cette question », la certitude est justifiée lorsque le participant répond correctement à la question. II test de Wilcoxon « Wilcoxon signed rank test with continuity correction » Opinion des IMGOI sur la formation et leurs attentes Quarante-trois pour cent des IMGOI participants au Q1 (n = 18), avaient réalisé un stage de dermatologie au cours de l'externat. Quatre-vingt-cinq pour cent d'entre eux (n = 36) avaient été ou étaient en stage ambulatoire de niveau 1 de la maquette du diplôme d'études spécialisées (DES), 7 % (n = 3) des étudiants étaient passés ou étaient actuellement en stage de médecine interne-dermatologie du CHU Nord ou maladie infectieuse du CHU Sud et 2% d'entre eux (n = 1) était passé en consultation de dermatologie adulte ou pédiatrique. 22 Quatre-vingt-trois pour cent des IMGOI interrogés dans le Q1 (n = 35) considéraient qu'ils n'étaient pas bien ou pas du tout formés au dépistage des LPCC au cours du DES (annexe 5). Pour 59 % des IMGOI (n = 25) la notion de dépistage des LPCC n'a jamais été évoquée par le maître de stage ambulatoire (annexe 6). Lorsque ce dépistage était réalisé il se faisait principalement à la demande du patient (annexe 7). Les outils d'aide à la pratique dermatologique étaient utilisés par 62 % des IMGOI (n = 26). Il s'agissait de livres de dermatologie, de supports photographiques ou de ressources sur internet. Quatre-vingt-dix-sept pour cent des étudiants interrogés dans le Q1 (n = 41) n'avaient ni entendu parler ni utilisé l'outil de formation proposé par l'INCA. Quatre-vingt-dix-sept pour cent des IMGOI ayant participé au Q1, jugeaient nécessaire ou très nécessaire la mise en place d'une meilleure formation sur le dépistage des LPCC (annexe 8). Soixante-dix-huit pour cent des IMGOI interrogés étaient d'accord ou totalement d'accord avec la proposition de mettre en place des cours de dermatologie obligatoires durant leur formation de troisième cycle (annexe 9). Le e-learning était perçu comme un format d'apprentissage motivant ou très motivant par 69 % des IMGOI interrogés dans le Q2 (n = 9) (annexe 10). Cependant, 10 étudiants ont dit manquer de temps pour la formation, 5 manquer de motivation personnelle et 1 a jugé l'outil proposé inadapté. DISCUSSION Notre étude a jugé l'outil de e-learning de l'INCA non acceptable par les IMGOI de 1ère et 2ème année. Au vu du critère de jugement principal de notre étude, l'appréciation de ce module a été pénalisé par le faible taux initial de répondeurs au Q1 puis par la perte de vue importante entre les deux questionnaires. Dans un second temps, nous avons donc évalué l'acceptabilité de la formation par les 13 IMGOI ayant testé l'outil et répondu au Q2 [23]. Onze participants ont jugé cet outil acceptable (annexe 11). Dans notre travail, l'évaluation du niveau initial des connaissances des IMGOI participants au Q1, a mis en évidence des carences dans le diagnostic et dans la prise en charge de l'ensemble des LPCC. Nos résultats ont décrit, chez les internes, un réel manque de confiance dans leur gestion de ces pathologies. Les carcinomes épidermoïdes (CE) et les kératoses actiniques (KA) sont les lésions qui ont posé le plus de difficultés diagnostiques et surtout thérapeutiques. Dans son étude portant sur les MG, G. Thomas [13] montrait les mêmes résultats et les expliquait par une maîtrise 23 insuffisante de la sémiologie des KA, connue par seulement 45 % des MG interrogés. Dans ce travail les KA étaient majoritairement prises en charge par les spécialistes : 86 % des MG interrogés préféraient orienter d'emblée les patients porteurs de KA chez les dermatologues. Ces derniers en assuraient même le suivi dans 78 % des cas. Contrairement aux pays comme les Etats-Unis, l'Australie ou même du Royaume-Uni [24], peu de MG interrogés prenaient en charge les KA (14 %). Il l'expliquait par la méconnaissance des possibilités de prescription des topiques et par l'absence d'équipement (cryothérapie) dans les cabinets. Devant leur potentiel d'évolution maligne, un renforcement de la formation au diagnostic et à la prise en charge des KA, nous semble important. Nos résultats ont montré que, même si les IMGOI interrogés avaient des difficultés à diagnostiquer les carcinomes basocellulaires (CBC), ils avaient une prise en charge satisfaisante de ces lésions. L'étude de A. Dione [21], seul travail français à notre connaissance s'intéressant au diagnostic des LPCC chez les internes, convergeait vers nos constatations puisque, face aux CBC, le taux de diagnostics corrects était de 37 % pour un taux de prises en charge correctes de 85 %. Nous supposons que ces difficultés diagnostiques résident dans le fait que le CBC possède plusieurs présentations cliniques : ulcéré, nodulaire, sclérodermiforme, superficiel. En effet, dans le cas clinique 8 (annexe 2) contenant plusieurs formes de CBC, il existait une disparité des taux de bonnes réponses. Soixante-quatre pour cent des IMGOI participants reconnaissaient le CBC nodulaire, 55 % diagnostiquaient le CBC ulcéré et seuls 48 % d'entre eux identifiaient le CBC superficiel. Les CBC étant les cancers cutanés les plus fréquents, il nous semble important qu'ils soient mieux diagnostiqués. Néanmoins, les CBC sont correctement adressés aux dermatologues car nous supposons qu'au moindre doute, devant une lésion chronique, les internes préfèrent avoir une confirmation spécialisée. Les mélanomes semblent être les lésions les mieux diagnostiquées dans notre étude (70 % de mélanomes identifiés dans le Q1). Nos résultats sont similaires à ceux de A. Dione [21] où les internes identifiaient les mélanomes dans 67 % des cas contre respectivement 37 % et 27 % des CBC et des KA. Même si le taux de diagnostic des mélanomes a été meilleur que les autres LPCC, il est perfectible. En ce qui concerne les lésions bénignes, nous notons dans notre étude que, près de 30 % des lésions pigmentaires bénignes ont été considérées à tort comme malignes et ont été adressées pour avis spécialisé ou pour prélèvement à visée histologique. Des observations similaires ont été faites dans plusieurs études [14], [15], [17], [19], [25]. Dans la thèse de A. Dione, les internes ne diagnostiquaient les kératoses séborrhéiques que dans 18 % des cas, les confondant notamment avec des naevi dans 32 % des cas et avec des mélanomes dans 18 % des cas. Dans le travail de M. Yaiche Tibi [15], seulement 7 % des lésions pigmentées adressées aux 24 dermatologues étaient des mélanomes. En augmentant le nombre de patients adressés, les MG évalués dans cette thèse, multipliaient le nombre de mélanomes justement adressés. Selon nous, les adressages au moindre doute face à des lésions pigmentées engorgent certes les consultations dermatologiques, mais semblent plus prudents s'ils permettent de diagnostiquer précocement plus de mélanomes. L'incertitude diagnostique face aux lésions pigmentées était aussi très bien décrite dans l'étude de B. Belleudi. Devant une image de lésion maligne, les médecins l'ayant considéré comme bénigne adressaient, malgré tout, le patient chez le spécialiste dans 70 % des cas. En plus, d'améliorer la formation initiale et continue des médecins, une meilleure utilisation des outils diagnostiques (ABCDE et vilain petit canard) pourrait permettre d'augmenter le taux de bons diagnostics face à ces lésions pigmentées [15], [17]. L'évaluation des résultats des 10 IMGOI participants, avant et après l'auto-formation, nous a permis de faire des constats surprenants. Après la formation en e-learning, le taux moyen de bons diagnostics a baissé significativement. En revanche, elle a permis une amélioration significative du taux moyen de bonnes prises en charge. Autrement dit, les lésions malignes ont été plus souvent adressées aux dermatologues ou pour prélèvement histologique et les lésions bénignes ont bénéficié, à juste titre, d'une abstention thérapeutique ou d'une simple surveillance. L'étude des réponses individuelles des 10 participants au Q2 ne nous a pas permis d'attribuer cette baisse de connaissance diagnostique à une question ou à un étudiant en particulier. Dans la formation en e-learning de l'INCA, les cas cliniques insistaient davantage sur le caractère bénin ou malin des lésions et ainsi que sur les prises en charge (55 questions basées sur des iconographies) plutôt que sur l'identification précise des lésions (33 questions). Peut-être que l'outil, destiné aux médecins généralistes, avait pour objectif de s'attarder davantage sur le rôle premier du médecin de soins primaires face aux LPCC : dépister les lésions à risque de malignité et orienter les patients vers le dermatologue, dans des délais optimaux. Ces interprétations doivent être prises avec précaution devant le faible échantillon étudié. Beaucoup d'études ont décrit les difficultés ressenties par les MG et les IMG dans la prise en charge des LPCC [14]–[21], [25]–[27]. Ceux-ci l'attribuaient, en partie, à une formation initiale insuffisante. En plus d'évaluer localement le niveau initial des connaissances des IMGOI, nous avons souhaité dans notre travail, tester un outil concret déjà existant et validé pour améliorer cette formation au cours des études médicales. Le choix d'un format en e-learning nous a semblé intéressant pour former cette génération d'internes "connectés". Ce mode d'apprentissage permettait également d'éviter les déplacements des internes éparpillés sur La Réunion et Mayotte et de s'adapter aux disponibilités de chaque 25 étudiant. En médecine, à l'étranger, ce format d'apprentissage a été largement étudié [28]–[32]. En dermatologie, de nombreuses études ont montré l'efficacité du e-learning comparé à l'absence de formation ou en complément d'autres formats d'apprentissage [26], [27], [33]–[37]. A notre connaissance, aucune thèse française n'a testé le e-learning sur des internes de médecine générale pour renforcer la formation initiale en dermatologie. De nombreux sites internet d'aide à la pratique de la dermatologie sont disponibles gratuitement, parfois avec un accès professionnel sécurisé. Cependant ces sites ne sont pas adaptés à la formation initiale. Des outils d'auto-formation en ligne au dépistage des LPCC ont été créés mais ciblent les praticiens dans le cadre de la formation médicale continue (diplômes universitaires, développement professionnel continu) [38]–[41]. En dehors de l'outil de l'INCA, nous n'avons trouvé aucun autre support d'apprentissage en e-learning, gratuitement utilisable dans la formation initiale des internes. Sa création par le centre de référence des cancers en France, nous a conforté dans le choix de ce module. Concernant le dépistage des LPCC, une méta-analyse a comparé l'efficacité de différents formats d'apprentissages : cours, conférences, e-learning, brochures et association de formats d'apprentissages [42]. Plusieurs constatations ont été faites. Pour tous les formats de formation, leur efficacité était supérieure à l'absence de formation. L'association des formats d'apprentissages était plus efficace que l'utilisation d'un seul format. Enfin, l'assimilation des connaissances à long terme était favorisée par de longues périodes d'apprentissage et par la répétition lors de l'acquisition des informations. En ce sens, la « online spaced-education » peut être un axe à développer dans le e-learning [38], [43]–[47]. La principale faiblesse de notre étude a été le faible taux de participation aux questionnaires et à la formation, rendant l'échantillon étudié non représentatif des IMGOI de 1ère et 2ème année. Devant un nombre insuffisant de participants, notre travail n'a pas permis de comparer les résultats des IMGOI selon leur ancienneté. Le manque de temps a été la principale raison avancée par les IMGOI interrogés dans le Q2, pour expliquer leur réalisation incomplète de la formation. Aussi, nous pensons que les internes participants étaient les plus intéressés par le sujet, ce qui a constitué un biais de sélection. Dans l'étude de A. Boespflug testant l'efficacité et l'acceptabilité d'un module de e-learning d'éducation espacée dans le cadre du diplôme universitaire de dermoscopie, le taux de participation à la formation en e-learning, des dermatologues et des internes de dermatologie inscrits, était de 85 % avec une baisse du taux de participation à 76 % pendant les vacances. Dans cette étude, 92 % des participants trouvaient le module d'apprentissage extrêmement satisfaisant ou très satisfaisant et à 68 % ils estimaient 26 qu'un temps de formation de moins de 5 minutes par jour était acceptable [38]. Nous attribuons ces meilleurs taux de participation à une motivation plus importante dans le cadre d'une formation médicale choisie par les participants et payante. L'HAS décrivait, dans son analyse de la littérature sur le e-learning [48], que l'abandon de la formation par manque de motivation était fréquent et que les relances par e-mail contribuaient à une meilleure implication des participants. Malheureusement, notre communication auprès des IMGOI par les réseaux sociaux, la diffusion d'e-mails sur les adresses universitaires et les interventions en cours présentiels, n'a pas permis une participation suffisante. Ceci a largement pénalisé les conclusions de ce travail. Parmi les différentes voies de communication, la sollicitation des praticiens hospitaliers pour inciter leurs internes à répondre aux questionnaires, a été le moyen le plus efficace pour augmenter le taux de participation des IMGOI. D'autres canaux auraient pu permettre une meilleure diffusion du recueil de données, notamment via les maîtres de stages des universités (MSU), recevant les IMGOI en stage ambulatoire. Pour favoriser une meilleure adhésion à la formation en ligne et ainsi, homogénéiser la formation des IMGOI, le caractère « obligatoire » ou « validant » pourrait être un axe de réflexion. Nous avons volontairement exclu les IMGOI de 3ème année dans l'hypothèse que ceux-ci, pris dans leurs remplacements et leurs travaux de fin de cursus, seraient moins impliqués, ce qui entraînerait une perte de vue plus importante. Bien que l'effectif de participants, décroissant au fil des semestres (moins de participants en 4e semestre qu'en 1e semestre), concordait avec nos craintes, il s'agissait, tout de même, d'un biais de jugement. Les inter-CHU ont été exclus pour les mêmes raisons, à juste titre selon nous, devant la longueur de la mise en place du recueil de données. Une étude randomisée en groupes appariés formés/non formés aurait pu être réalisée mais, notre choix de format d'étude nous a semblé se rapprocher au plus des conditions réelles de formation à distance : les formés étaient les plus intéressés, les plus motivés et acceptant mieux l'outil proposé. CONCLUSION L'amélioration de la formation initiale au dépistage des LPCC est souhaitée par l'ensemble les généralistes, qu'ils soient internes ou praticiens. Les études ont montré que le e-learning était efficace et bien accueilli par les étudiants en médecine, en complément de la formation théorique magistrale et de la formation pratique auprès des dermatologues. Si l'acceptabilité du site de l'INCA n'a pas été validée dans notre étude, la plateforme « Système inter-universitaire dématérialisé d'évaluation » (SIDES) [49] pourrait être l'éventuel support d'un futur module 27 d'auto-formation en ligne. CONFLITS D'INTERETS : Aucun REFERENCES [1] INCA, Institut national du cancer. Epidémiologie des cancers cutanés - Détection précoce des cancers de la peau. 2019 mars. Disponible sur : https://www.ecancer.fr/Professionnels-de-sante/Depistage-et-detection-precoce/Detection-precoce-descancers-de-la-peau/Epidemiologie (consulté le 18/08/19) [2] Warocquier J, Miquel J, Chirpaz E, Beylot-Barry M, Sultan-Bichat N. Données épidémiologiques des mélanomes cutanés à la Réunion en 2015. Ann. Dermatol. Vénéréologie. 2016 déc;143(12):313-314 [3] OMS, Organisation mondiale de la santé. Le rayonnement ultraviolet. Disponible sur : http://www.who.int/uv/fr/ (consulté le 18/08/19) [4] OMS, Organisation mondiale de la santé. UV Index. Disponible sur : https://www.who.int/uv/intersunprogramme/activities/uv_index/fr/index3.html (consulté le 16/05/20) [5] Météo France La Réunion. Prévisions météos gratuites sur toutes les villes de La Réunion. Disponible sur : http://www.meteofrance.re/previsions-meteo-reunion/temps-pourles-prochains-jours/reunion (consulté le 16/05/20) [6] ARSOI, Agence régionale de santé océan indien. STATISS, études de statistiques et d'indicateurs de la santé et du social. 2016. Disponible sur : https://www.oceanindien.ars.sante.fr/system/files/2017-09/ARS_Statiss2016_HD.pdf (consulté le 18/08/19) [7] ARSOI, Agence régionale de santé océan indien. STATISS, études de statistiques et d'indicateurs de la santé et du social. 2017. Disponible sur : https://www.oceanindien.ars.sante.fr/system/files/2018-12/ARS_Statiss2017.pdf (consulté le 18/08/19) [8] DRESS, Direction de la recherche des études de l'évaluation et des statistiques. Densité de médecins par spécialité, modes d'exercice regroupés et zone d'inscription, Tableau 7. Disponible sur : http://www.data.drees.sante.gouv.fr/TableViewer/tableView.aspx?ReportId=3795 (consulté le déc. 04, 2019). [9] Besson L, Caliez F. Accès aux soins à La Réunion 84 000 Réunionnais à plus de 30 minutes des urgences. INSEE Analyses. 2016 nov;(19) [10] Letrilliart L, Supper I, Schuers M, Darmon D. ECOGEN : étude des Eléments de la 28 COnsultation de médecine GENérale. Exercer. 2014;25(114):148-57 [11] Ado Chatal A. Formation complémentaire de dermatologie en médecine générale : étude quantitative auprès des médecins généralistes d'Ile-et-Vilaine et des Côtes-d'Armor. Thèse de doctorat de médecine : université de Rennes. 2016 [12] INCA, Institut national du cancer. Porte A, Viguier J. Les médecins généralistes et la détection précoce des cancers de la peau, Synthèse de la vague 2 du baromètre. 2013 oct. Disponible sur : https://resodochn.typepad.fr/files/barometre-medecins-generalistes-et- detection-precoce-cancers-peau-2013.pdf (consulté le 08/02/19) [13] Thomas G, Martin L, Le Corre Y. Kératoses actiniques : connaissances, pratiques et attentes des médecins généralistes. Ann. Dermatol. Vénéréologie. 2016 déc;143(12)381 [14] Zimmerlé V et al. Évaluation des connaissances et de la prise en charge du mélanome par des médecins généralistes d'un département à très faible densité médicale. Ann. Dermatol. Vénéréologie. 2017 déc;144(12)309 [15] Yaiche Tibi M. Le dépistage précoce en cancérologie cutanée : évaluation des pratiques en médecine générale et analyse des besoins en formation des médecins généralistes du Val de Marne. Thèse de doctorat de médecine : université Paris Créteil (XII). 2013 [16] Chappuis P. Utilité de la dermoscopie pour le dépistage du mélanome en médecine générale : étude quantitative d'un échantillon de 425 médecins généralistes français. Thèse de doctorat de médecine : université Claude Bernard-Lyon 1. 2015 [17] Belleudi B. Place des médecins généralistes dans le dépistage des lésions cutanées malignes dans la région Provence Alpes Côte d'Azur. Thèse de doctorat de médecine : université de Marseille. 2018. [18] Durbec F, Vitry F, Granel-Brocard F. The role of circumstances of diagnosis and access to dermatological care in early diagnosis of cutaneous melanoma. Arch Dermatol. 2010;146(3):240-246 [19] Grange F et al. Évaluation d'une campagne de formation des médecins généralistes et des médecins du travail au dépistage du mélanome dans le Haut-Rhin. Annales de Dermatologie et de Vénéréologie. 2005 déc;132(12):956-61 [20] Aubert C. Diagnostics de consultation en médecine générale établis à partir de la CISP2 sur un échantillon de médecin généralistes en Haute Normandie. Thèse de doctorat de médecine : université de Rouen. 2012 [21] Dione A. État des lieux des compétences des Internes de Médecine Générale et concordance diagnostique dans la prise en charge des pathologies cutanées en soins de santé primaires. Thèse de doctorat de médecine : université de Bordeaux. 2013 [22] INCA, Institut national du cancer. Cancers de la peau. Disponible sur : 29 http://formation.e-cancer.fr/Professionnels-de-sante/Recommandations-et-outils-d-aide-a-lapratique/Cancers-de-la-peau) (consulté le 15/11/2017) [23] Lesenechal C. DERMATOLOGIC : Outil en ligne d'aide au diagnostic dermatologique pour les médecins généralistes. Thèse de doctorat de médecine : université Paris Diderot. 2016 [24] Halpern AC, Hanson LJ. Awareness of knowledge of and attitudes to nonmelanoma skin cancer (NMSC) and actinic keratosis (AK) among physicians. Int J Dermatol. 2004 Sep;43(9):638-42 [25] Brochez L, Verhaeghe E, Bleyen L, Naeyaert JM. Diagnostic ability of general practitioners and dermatologists in discriminating pigmented skin lesions. J Am Acad Dermatol. 2001 Jun;44(6):979-86 [26] Viguier M et al. Online Training on Skin Cancer Diagnosis in Rheumatologists: Results from a Nationwide Randomized Web-Based Survey. Journal pone. 2015 may;10(5) Disponible sur : https://doi.org/10.1371/journal.pone.0127564 (consulté le 24/04/2019) [27] Scaperotti M et al. Development and Evaluation of a Web-Based Dermatology Teaching Tool for Preclinical Medical Students. MedEdPORTAL. 2017;13 Disponible sur : https://www.mededportal.org/publication/10619/) (consulté le 24/11/19) [28] Cook DA, Levinson AJ, Garside S. Internet-Based Learning in the Health Professions. A Meta-analysis. JAMA.2008 Sept;300(10):1181-96 [29] Davis J, Crabb S, Rogers E, Zamora J, Khan K. Computer-based teaching is as good as face to face lecture-based teaching of evidence based medicine: a randomized controlled trial. Med Teach. 2008;30(3):302-7 [30] Cook DA et al. Instructional design variations in Internet‐based learning for health professions education: a systematic review and meta‐analysis. Academic Medicine 2010;85:909‐22 [31] Sinclair PM, Kable A, Levett-Jones T, Booth D. The effectiveness of Internet-based e- learning on clinician behaviour and patient outcomes : A systematic review. International Journal of Nursing Studies. 2016 May;57:70-81 [32] Vaona A et al. E-learning for health professionals. Cochrane Database Syst. Rev. 2018 Jan;1 Disponible sur : https://www.cochranelibrary.com/cdsr/doi/10.1002/14651858.CD011736.pub2/full (consulté le 12/11/2019) [33] Gerbert B et al. The effectiveness of an internet‐based tutorial in improving primary care physicians' skin cancer triage skills. Journal of Cancer Education. 2002;17(1):7-11 [34] Singh DG, Boudville N, Corderoy R, Ralston S, Tait CP. Impact on the dermatology educational experience of medical students with the introduction of online teaching support 30 modules to help address the reduction in clinical teaching. Australas J Dermatol. 2011 Nov;52(4):264-9 [35] Soirefmann M, Comparin C, Boza J, Wen CL, Cestari TF. Impact of a cybertutor in dermatological teaching. Int J Dermatol. 2013 Jun;52(6):722-7 [36] McCleskey PE. Clinic teaching made easy : a prospective study of the American Academy Of dermatology core curriculum in primary care learners. J Am Acad Dermatol. 2013 Aug;69(2):273-9 [37] Cipriano SD, Dybbro E, Boscardin CK, Shinkai K, Berger TG. Online learning in a dermatology clerkship : piloting the new American Academy of Dermatology Medical Student Core Curriculum. J Am Acad Dermatol. 2013 Aug;69(2):267-72 [38] Boespflug A, Guerra J, Dalle S, Thomas L. Enhancement of Customary Dermoscopy Education With Spaced Education e-Learning: A Prospective Controlled Trial. JAMA Dermatol. 2015 Aug;151(8):847-53 [39] Zaccaria F. Création d'un module d'e-learning pour les médecins généralistes dans le cadre du D.U de sensibilisation à la cancérologie cutanée. Thèse de doctorat de médecine : Université de Lyon. 2015 [40] Aubert-Wastiaux H et al. Création d'un site de e-learning sur le mélanome à l'intention des médecins généralistes et des dermatologues. Nouv Dermatol 2010 ;29 :381-85 [41] Réseau mélanome ouest. Évaluez, testez, améliorez vos connaissances - eLearning . 2018. Disponible sur : https://www.reseau-melanome-ouest.com/melanome/evaluez-testezameliorer-vos-connaissances-elearning.html (consulté le nov. 15, 2019) [42] Rourke L, Oberholtzer S, Chatterley T, Brassard A. Learning to Detect, Categorize, and Identify Skin Lesions. A Meta-analysis. JAMA Dermatol. 2015 Mar;151(3):293-301 [43] Kerfoot BP, DeWolf WC, Masser BA, Church PA, Federman DD. Spaced education improves the retention of clinical knowledge by medical students: a randomised controlled trial. Med Educ. 2007 Jan;41(1):23-31 [44] Kerfoot BP. Learning benefits of on-line spaced education persist for 2 years. J Urol. 2009 Jun; 181(6):2761-3 [45] Long A, Kerfoot BP, Chopra S, Shaw T. Online spaced education to supplement live courses. Med Educ. 2010 May; 44(5):519-20 [46] Shaw T, Long A, Chopra S, Kerfoot BP. Impact on clinical behavior of face-to-face continuing medical education blended with online spaced education: a randomized controlled trial. J Contin Educ Health Prof. 2011;31(2):103-8 [47] Kerfoot BP et al. An online spaced-education game to teach and assess medical students : a multi-institutional prospective trial. Acad Med. 2012 oct;87(10):1443-9 31 [48] HAS, Haute Autorité de santé. E-learning Guide de conception de formation ouverte et à distance (FOAD) dans le monde de la santé. 2015 Avril. Disponible sur : https://www.hassante.fr/upload/docs/application/pdf/2015-09/guide_e-learning_rapport_complet.pdf) (consulté le 01/02/2020 ) [49] UNESS.fr, Université Numérique En Santé et Sport.fr. Sides NG. Disponible sur https://www.uness.fr/plateformes-sides/sides-ng) (consulté le 24/11/2019 ) « SIDES NG | UNESS ». https://www.uness.fr/plateformes-sides/sides-ng (consulté le janv. 15, 2020). 32 DISCUSSION Notre étude a jugé l'outil de e-learning de l'INCA non acceptable par les IMGOI de 1ère et 2ème année. Au vu du critère de jugement principal de notre étude, l'appréciation de ce module a été pénalisé par le faible taux initial de répondeurs au premier questionnaire (Q1) puis par la perte de vue importante entre les deux questionnaires. Dans un second temps, nous avons donc évalué l'acceptabilité de la formation par les 13 IMGOI ayant testé l'outil et répondu au deuxième questionnaire (Q2) [34].Onze participants ont jugé cet outil acceptable (annexe 11). Dans notre travail, l'évaluation du niveau initial des connaissances des IMGOI participants au Q1, a mis en évidence des carences dans le diagnostic et dans la prise en charge de l'ensemble des LPCC. Nos résultats ont décrit, chez les internes, un réel manque de confiance dans leur gestion de ces pathologies. Les CE et les KA sont les lésions qui ont posé le plus de difficultés diagnostiques et surtout thérapeutiques. Dans son étude portant sur les MG, G. Thomas [17] montrait les mêmes résultats et les expliquait par une maîtrise insuffisante de la sémiologie des KA, connue par seulement 45 % des MG interrogés. Son travail montrait que les KA étaient majoritairement prises en charge par les spécialistes. En effet, 86 % des MG interrogés préféraient orienter d'emblée les patients porteurs de KA chez les dermatologues. Ces derniers en assuraient même le suivi dans 78 % des cas. Contrairement aux pays comme les Etats-Unis, l'Australie ou même du Royaume-Uni [35], peu de MG interrogés prenaient en charge les KA (14 %). Il l'expliquait par la méconnaissance des possibilités de prescription des topiques et par l'absence d'équipement (cryothérapie) dans les cabinets. Devant leur potentiel d'évolution maligne, un renforcement de la formation au diagnostic et à la prise en charge des KA, nous semble important. Nos résultats ont montré que, même si les IMGOI interrogés avaient des difficultés à diagnostiquer les CBC, ils avaient une prise en charge satisfaisante de ces lésions. L'étude de A. Dione [32], seul travail français à notre connaissance s'intéressant au diagnostic des LPCC chez les internes, convergeait vers nos constatations puisque, face aux CBC, le taux de diagnostics corrects était de 37 % pour un taux de prises en charge correctes de 85 %. Nous supposons que ces difficultés diagnostiques résident dans le fait que le CBC possède plusieurs présentations cliniques : ulcéré, nodulaire, sclérodermiforme, superficiel. En effet, dans le cas 33 clinique 8 (annexe 2) contenant plusieurs formes de CBC, il existait une disparité des taux de bonnes réponses. Soixante-quatre pour cent des IMGOI participants reconnaissaient le CBC nodulaire, 55 % diagnostiquaient le CBC ulcéré et seuls 48 % d'entre eux identifiaient le CBC superficiel. Les CBC étant les cancers cutanés les plus fréquents, il nous semble important qu'ils soient mieux diagnostiqués. Néanmoins, les CBC sont correctement adressés aux dermatologues car nous supposons qu'au moindre doute, devant une lésion chronique, les internes préfèrent avoir une confirmation spécialisée. Les mélanomes semblent être les lésions les mieux diagnostiquées dans notre étude (70 % de mélanomes identifiés dans le Q1). Nos résultats sont similaires à ceux de A. Dione [32] où les internes identifiaient les mélanomes dans 67 % des cas contre respectivement 37 % et 27 % des CBC et des KA. Même si le taux de diagnostic des mélanomes a été meilleur que les autres LPCC, il est perfectible. En ce qui concerne les lésions bénignes, nous notons dans notre étude que, près de 30 % des lésions pigmentaires bénignes ont été considérées à tort comme malignes et ont été adressées pour avis spécialisé ou pour prélèvement à visée histologique. Des observations similaires ont été faites dans plusieurs études [18]–[21], [23], [24]. Dans la thèse de A. Dione, les internes ne diagnostiquaient les kératoses séborrhéiques que dans 18 % des cas, les confondant notamment avec des naevi dans 32 % des cas et avec des mélanomes dans 18 % des cas. Dans le travail de M. Yaiche Tibi [19], seulement 7 % des lésions pigmentées adressées aux dermatologues étaient des mélanomes. En augmentant le nombre de patients adressés, les MG évalués dans cette thèse, multipliaient le nombre de mélanomes justement adressés. Selon nous, les adressages au moindre doute face à des lésions pigmentées engorgent certes les consultations dermatologiques, mais semblent plus prudents s'ils permettent de diagnostiquer précocement plus de mélanomes. L'incertitude diagnostique face aux lésions pigmentées était aussi très bien décrite dans l'étude de B. Belleudi. Devant une image de lésion maligne, les médecins l'ayant considérée comme bénigne adressaient, malgré tout, le patient chez le spécialiste dans 70 % des cas. En plus, d'améliorer la formation initiale et continue des médecins, une meilleure utilisation des outils diagnostiques (ABCDE et vilain petit canard) pourrait permettre d'augmenter le taux de bons diagnostics face à ces lésions pigmentées [19], [21]. L'utilisation plus fréquente de la dermoscopie en cabinet pourrait contribuer à améliorer les pratiques. P Chappuis montrait dans sa thèse que l'utilisation d'un dermoscope par les MG permettait de réduire significativement le nombre de biopsies des LPCC. Les utilisateurs de dermoscope se sentaient également plus à l'aise pour analyser les naevi [20]. L'évaluation des résultats des 10 IMGOI participants, avant et après l'auto-formation, nous a 34 permis de faire des constats surprenants. Après la formation en e-learning, le taux moyen de bons diagnostics a baissé. En revanche, elle a permis une amélioration significative du taux moyen de bonnes prises en charge. Autrement dit, les lésions malignes ont été plus souvent adressées aux dermatologues ou pour prélèvement histologique et les lésions bénignes ont bénéficié, à juste titre, d'une abstention thérapeutique ou d'une simple surveillance. L'étude des réponses individuelles des 10 participants au Q2 ne nous a pas permis d'attribuer cette baisse de connaissance diagnostique à une question ou à un étudiant en particulier. Dans la formation en e-learning de l'INCA, les cas cliniques insistaient davantage sur le caractère bénin ou malin des lésions et ainsi que sur les prises en charge (55 questions basées sur des iconographies) plutôt que sur l'identification précise des lésions (33 questions). Peut-être que l'outil, destiné aux médecins généralistes, avait pour objectif de s'attarder davantage sur le rôle premier du médecin de soins primaires face aux LPCC : dépister les lésions à risque de malignité et orienter les patients vers le dermatologue, dans des délais optimaux. Ces interprétations doivent être prises avec précaution devant le faible échantillon étudié. Beaucoup d'études ont décrit les difficultés ressenties par les MG et les IMG dans la prise en charge des LPCC [18]–[24], [29], [32], [36], [37]. Ceux-ci l'attribuaient, en partie, à une formation initiale insuffisante. En plus d'évaluer localement le niveau initial des connaissances des IMGOI, nous avons souhaité dans notre travail, tester un outil concret déjà existant et validé pour améliorer cette formation au cours des études médicales. Le choix d'un format en e-learning nous a semblé intéressant pour former cette génération d'internes "connectés". Ce mode d'apprentissage permettait également d'éviter les déplacements des internes éparpillés sur La Réunion et Mayotte et de s'adapter aux disponibilités de chaque étudiant. En médecine, à l'étranger, ce format d'apprentissage a été largement étudié [38]–[42]. En dermatologie, de nombreuses études ont montré l'efficacité du e-learning comparé à l'absence de formation ou en complément d'autres formats d'apprentissages [36], [37], [43], [44]–[47]. A notre connaissance, aucune thèse française n'a testé le e-learning sur des internes de médecine générale pour renforcer la formation initiale en dermatologie. De nombreux sites internet d'aide à la pratique de la dermatologie sont disponibles gratuitement, parfois avec un accès professionnel sécurisé. Cependant ces sites ne sont pas adaptés à la formation initiale. Des outils d'auto-formation en ligne au dépistage des LPCC ont été créés mais ciblent les praticiens dans le cadre de la formation médicale continue (diplômes universitaires, développement professionnel continu) [48]–[51]. En dehors de l'outil de l'INCA, nous n'avons trouvé aucun autre support d'apprentissage en e-learning, gratuitement utilisable 35 dans la formation initiale des internes. Sa création par le centre de référence des cancers en France, nous a conforté dans le choix de ce module. Concernant le dépistage des LPCC, une méta-analyse a comparé l'efficacité de différents formats d'apprentissages : cours, conférences, e-learning, brochures et association de formats d'apprentissages [52]. Plusieurs constatations ont été faites. Pour tous les formats de formation, leur efficacité était supérieure à l'absence de formation. L'association des formats d'apprentissages était plus efficace que l'utilisation d'un seul format. Enfin, l'assimilation des connaissances à long terme était favorisée par de longues périodes d'apprentissage et par la répétition lors de l'acquisition des informations. Basée sur ce dernier principe et s'intégrant dans le e-learning, la « online spaced education » ou éducation espacée, a montré sa supériorité dans la rétention des informations au long cours comparée à la formation ponctuelle [48], [53]–[56]. Par exemple, A Boespflug en a testé l'efficacité et l'acceptabilité dans le cadre du diplôme universitaire de dermatoscopie de l'université Claude Bernard Lyon 1 [48]. Il s'agissait de comparer deux groupes de participants appariés et randomisés ayant en commun des cours magistraux, des cours en petits groupes et une journée en consultation chez un dermatologue. Le groupe d'intervention bénéficiait, en plus, de cette « online spaced education ». Ce module d'éducation espacée était un système de courrier électronique interactif automatisé, développé par l'école de médecine d'Harvard. Il combinait les avantages de l'espacement et de « l'effet test » (hypothèse selon laquelle, apprendre par des tests est plus efficace que la simple lecture de cours). Trois questions par jour étaient envoyées à chaque participant. Une fois sa réponse donnée, qu'elle soit correcte ou incorrecte, il était redirigé vers la correction expliquée. La même question lui était posée 40 jours plus tard en cas de réponse correcte ou 14 jours plus tard en cas de réponse incorrecte. Lorsque le participant répondait correctement à la question deux fois d'affilée, celle-ci était supprimée. La formation, adaptative selon les capacités de chaque étudiant, se terminait une fois que toutes les questions du module étaient supprimées. Le groupe d'intervention a eu, au cours du post-test à 4 mois, de meilleurs résultats. Il est intéressant de noter que l'ajout d'une compétitivité entre les participants dans ce type de module a aussi permis d'améliorer l'acceptabilité de ce type de formation [57], [58]. La principale faiblesse de notre étude a été le faible taux de participation aux questionnaires et à la formation, rendant l'échantillon étudié non représentatif des IMGOI de 1ère et 2ème année. Devant un nombre insuffisant de participants, notre travail n'a pas permis de comparer les résultats des IMGOI selon leur ancienneté. Le manque de temps a été la principale raison 36 avancée par les IMGOI interrogés dans le Q2, pour expliquer leur réalisation incomplète de la formation. Aussi, nous pensons que les internes participants étaient les plus intéressés par le sujet, ce qui a constitué un biais de sélection. Dans l'étude de A. Boespflug testant l'efficacité et l'acceptabilité d'un module de e-learning d'éducation espacée dans le cadre du diplôme universitaire de dermoscopie, le taux de participation à la formation en e-learning, des dermatologues et des internes de dermatologie inscrits, était de 85 % avec une baisse du taux de participation à 76 % pendant les vacances. Dans cette étude, 92 % des participants trouvaient le module d'apprentissage extrêmement satisfaisant ou très satisfaisant et à 68% ils estimaient qu'un temps de formation de moins de 5 minutes par jour était acceptable. Nous attribuons ces meilleurs taux de participation à une motivation plus importante dans le cadre d'une formation médicale choisie par les participants et payante. L'HAS décrivait, dans son analyse de la littérature sur le e-learning [59], que l'abandon de la formation par manque de motivation était fréquent et que les relances par e-mail contribuaient à une meilleure implication des participants. Malheureusement, notre communication auprès des IMGOI et nos vingt relances par les réseaux sociaux, la diffusion d'e-mails sur les adresses universitaires et les interventions en cours présentiels, n'a pas permis une participation suffisante. Ceci a largement pénalisé les conclusions de ce travail. Parmi les différentes voies de communication, la sollicitation des praticiens hospitaliers pour inciter leurs internes à répondre aux questionnaires, a été le moyen le plus efficace pour augmenter le taux de participation des IMGOI. D'autres canaux auraient pu permettre une meilleure diffusion du recueil de données, notamment via les maîtres de stages des universités (MSU), recevant les IMGOI en stage ambulatoire. Pour favoriser une meilleure adhésion à la formation en ligne et ainsi, homogénéiser la formation des IMGOI, le caractère « obligatoire » ou « validant » pourrait être un axe de réflexion. Nous avons volontairement exclu les IMGOI de 3ème année dans l'hypothèse que ceux-ci, pris dans leurs remplacements et leurs travaux de fin de cursus, seraient moins impliqués, ce qui entraînerait une perte de vue plus importante. Bien que l'effectif de participants, décroissant au fil des semestres (moins de participants en 4ème semestre qu'en 1er semestre), concordait avec nos craintes, il s'agissait, tout de même, d'un biais de recrutement. Les inter-CHU ont été exclus pour les mêmes raisons, à juste titre selon nous, devant la longueur de la mise en place du recueil de données. Une étude randomisée en groupes appariés formés/non formés aurait pu être réalisée mais, notre choix de format d'étude nous a semblé se rapprocher au plus des conditions réelles de formation à distance : les formés étaient les plus intéressés, les plus motivés et acceptant mieux l'outil proposé. 37 PERSPECTIVES Limiter les MG à la simple orientation des pathologies vers d'autres spécialistes nous semble réducteur. Le MG doit pouvoir poser précisément les diagnostics, pouvoir débuter une prise en charge satisfaisante et orienter correctement selon le degré d'urgence. Aussi, il doit être capable de suivre les maladies chroniques de ses patients. Pour pouvoir assurer ces fonctions, les connaissances dans chaque domaine doivent être apprises lors d'une formation initiale optimale, appliquées grâce à des outils pratiques validés et, entretenues par des formations actualisées régulières. La dermatologie est souvent perçue par les internes de MG comme une spécialité clinique difficile, nécessitant une connaissance sémiologique fine et surtout un exercice régulier dans l'identification des lésions. L'amélioration de la formation initiale doit s'appuyer sur les observations faites dans les études françaises et internationales précédemment citées. L'association des différents formats d'apprentissages pourrait être envisagée. D'abord, il pourrait être mis en place des cours magistraux ou des cours en petits groupes de pairs auprès d'experts dermatologues. Des outils pédagogiques interactifs utilisés en cours, pourraient favoriser les échanges actifs entre les intervenants et les participants. Le e-learning pourrait compléter la formation théorique. Pour une meilleure efficacité, il se baserait sur les principes d'éducation espacée, la compétitivité, l'utilisation d'iconographies, de tests, et de jeux. Rendre ce module de formation validant pour l'obtention du DES pourrait être un axe de réflexion afin d'éviter les abandons (annexe 9). En plus de cette formation théorique, devant l'hétérogénéité des parcours pratiques de chaque étudiant, il pourrait être envisagé de mettre en place des stages chez les dermatologues de ville et d'organiser l'accès aux consultations hospitalières de dermatologie. L'outil de l'INCA temporairement indisponible pour cause de mise à jour, n'entre pas dans les critères de la « online spaced education » mais son contenu peut servir de modèle. La plateforme « Système inter-universitaire dématérialisé d'évaluation en santé » (SIDES) est une plate-forme informatique partagée par 37 facultés françaises de médecine autorisant à chacune d'elles, en complète autonomie, la réalisation de leurs examens sur tablettes numériques [60]. Selon le site, plus 45 000 étudiants et 12 000 enseignants y sont inscrits. Il recueille à ce jour 20 000 cas de dossiers cliniques progressifs. Utilisée surtout au cours du 2ème cycle, son application se répand au 3ème cycle, dans le cadre des DES de plusieurs spécialités. Actuellement, dans le cadre du DES de médecine générale de l'Océan indien (MGOI), la plateforme SIDES n'est pas encore développée. En utilisant notamment les iconographies de 38 patients locaux, les dermatologues et les MG de l'île pourraient réfléchir ensemble à la création d'une formation sur cette plateforme. En s'inspirant de la « online spaced education », une automatisation des relances pourrait y être associée. Tout comme dans d'autres spécialités, ce module de formation pourrait être validant dans le cadre du DES de MGOI. CONCLUSION L'amélioration de la formation initiale en dermatologie est souhaitée par l'ensemble des généralistes. A La Réunion, l'exposition solaire, l'épidémiologie et l'accès privilégié au MG plutôt qu'aux dermatologues font du dépistage des LPCC un axe prioritaire en matière de formation dermatologique. Si l'outil de e-learning proposé par l'INCA n'a pas montré une acceptabilité suffisante par les IMGOI interrogés, ils semblent néanmoins favorables à ce type de formation en ligne. La mise en place d'une approche théorique combinant plusieurs formats d'apprentissages et d'une approche pratique auprès d'experts pourraient être envisagées dans le cadre du DES de MG Océan Indien. 39 REFERENCES [1] OMS, Organisation mondiale de la santé. Le rayonnement ultraviolet. Disponible sur : http://www.who.int/uv/fr/ (consulté le 18/08/19) [2] OMS, Organisation mondiale de la santé. UV Index. Disponible sur : https://www.who.int/uv/intersunprogramme/activities/uv_index/fr/index3.html (consulté le 16/05/20) [3] Météo France La Réunion. Prévisions météos gratuites sur toutes les villes de La Réunion. Disponible sur : http://www.meteofrance.re/previsions-meteo-reunion/temps-pourles-prochains-jours/reunion (consulté le 16/05/20) [4] INCA, Institut national du cancer. Epidémiologie des cancers cutanés - Détection précoce des cancers de la peau. 2019 mars. Disponible sur : https://www.ecancer.fr/Professionnels-de-sante/Depistage-et-detection-precoce/Detection-precoce-descancers-de-la-peau/Epidemiologie (consulté le 18/08/19) [5] NIH, National cancer institute. Cancer Stat Facts : Melanoma of the Skin - Based on data from SEER 18 2009-2015. Disponible sur : https://seer.cancer.gov/statfacts/html/melan.html) (consulté le 31/ 01/2020) [6] PIES, plateforme d'information des études en santé. Le cancer : évolution à la Réunion jusqu'en 2011. 2013 sept. Disponible sur : https://www.ocean- indien.ars.sante.fr/sites/default/files/201701/PIES_n3_ARS_Cancer_versioncourte_BD1page%20%281%29.pdf (consulté le 18/08/19) [7] ORSOI, observatoire régional de la santé Océan Indien. Mélanome cutané à la Réunion. 2018 oct. Disponible sur : https://www.ors-ocean-indien.org/IMG/pdf/melanome_2008.pdf (consulté le 18/08/19) [8] Warocquier J, Miquel J, Chirpaz E, Beylot-Barry M, Sultan-Bichat N. Données épidémiologiques des mélanomes cutanés à la Réunion en 2015. Ann. Dermatol. Vénéréologie. 2016 déc;143(12):313-314 [9] Letrilliart L, Supper I, Schuers M, Darmon D. ECOGEN : étude des Eléments de la COnsultation de médecine GENérale. Exercer. 2014;25(114):148-57 [10] ARSOI, Agence régionale de santé océan indien. STATISS, études de statistiques et d'indicateurs de la santé et du social. 2016. Disponible sur : https://www.oceanindien.ars.sante.fr/system/files/2017-09/ARS_Statiss2016_HD.pdf (consulté le 18/08/19) [11] ARSOI, Agence régionale de santé océan indien. STATISS, études de statistiques et d'indicateurs de la santé et du social. 2017. Disponible sur : https://www.oceanindien.ars.sante.fr/system/files/2018-12/ARS_Statiss2017.pdf (consulté le 18/08/19) 40 [12] DRESS, Direction de la recherche des études de l'évaluation et des statistiques. Densité de médecins par spécialité, modes d'exercice regroupés et zone d'inscription, Tableau 7. Disponible sur : http://www.data.drees.sante.gouv.fr/TableViewer/tableView.aspx?ReportId=3795 (consulté le déc. 04, 2019). [13] Besson L, Caliez F. Accès aux soins à La Réunion 84 000 Réunionnais à plus de 30 minutes des urgences. INSEE Analyses. 2016 nov;(19) [14] DRESS, Direction de la recherche, des études, de l'évaluation et des statistiques. Millien C, Chaput H, Cavillon M. La moitié des rendez-vous sont obtenus en 2 jours chez le généraliste, en 52 jours chez l'ophtalmologiste. Etudes & Résultats. 2018 oct;(1085) Disponible sur : https://drees.solidarites-sante.gouv.fr/IMG/pdf/er1085-2.pdf (consulté le 18/08/19) [15] Ado Chatal A. Formation complémentaire de dermatologie en médecine générale : étude quantitative auprès des médecins généralistes d'Ile-et-Vilaine et des Côtes-d'Armor. Thèse de doctorat de médecine : université de Rennes. 2016 [16] INCA, Institut national du cancer. Porte A, Viguier J. Les médecins généralistes et la détection précoce des cancers de la peau, Synthèse de la vague 2 du baromètre. 2013 oct. Disponible sur : https://resodochn.typepad.fr/files/barometre-medecins-generalistes-et- detection-precoce-cancers-peau-2013.pdf (consulté le 08/02/19) [17] Thomas G, Martin L, Le Corre Y. Kératoses actiniques : connaissances, pratiques et attentes des médecins généralistes. Ann. Dermatol. Vénéréologie. 2016 déc;143(12)381 [18] Zimmerlé V et al. Évaluation des connaissances et de la prise en charge du mélanome par des médecins généralistes d'un département à très faible densité médicale. Ann. Dermatol. Vénéréologie. 2017 déc;144(12)309 [19] Yaiche Tibi M. Le dépistage précoce en cancérologie cutanée : évaluation des pratiques en médecine générale et analyse des besoins en formation des médecins généralistes du Val de Marne. Thèse de doctorat de médecine : université Paris Créteil (XII). 2013 [20] Chappuis P. Utilité de la dermoscopie pour le dépistage du mélanome en médecine générale : étude quantitative d'un échantillon de 425 médecins généralistes français. Thèse de doctorat de médecine : université Claude Bernard-Lyon 1. 2015 [21] Belleudi B. Place des médecins généralistes dans le dépistage des lésions cutanées malignes dans la région Provence Alpes Côte d'Azur. Thèse de doctorat de médecine : université de Marseille. 2018. [22] Durbec F, Vitry F, Granel-Brocard F. The role of circumstances of diagnosis and access to dermatological care in early diagnosis of cutaneous melanoma. Arch Dermatol. 2010;146(3):240-246 41 [23] Grange F et al. Évaluation d'une campagne de formation des médecins généralistes et des médecins du travail au dépistage du mélanome dans le Haut-Rhin. Annales de Dermatologie et de Vénéréologie. 2005 déc;132(12):956-61 [24] Brochez L, Verhaeghe E, Bleyen L, Naeyaert JM. Diagnostic ability of general practitioners and dermatologists in discriminating pigmented skin lesions. J Am Acad Dermatol. 2001 Jun;44(6):979-86 [25] Tran H, Chen K, Lim AC, Jabbour J, Shumack S. Assessing diagnostic skill in dermatology : a comparison between general practitioners and dermatologists. Australas J Dermatol. 2005 Nov;46(4):230-4 [26] Moreno G, Tran H, Chia AL, Lim A, Shumack S. Prospective study to assess general practitioners' dermatological diagnostic skills in a referral setting. Australas J Dermatol. 2007 May;48(2):77-82 [27] DRESS, Direction de la recherche, des études, de l'évaluation et des statistiques. Gouyon M. Spécialistes et patients face au parcours de soins coordonnés : comportements et opinions. Solidarité et Santé. 2009;(11) Disponible sur : https://drees.solidaritessante.gouv.fr/IMG/pdf/article200911.pdf) Consulté le 18/08/19 [28] Federman DG, Reid M, Feldman SR, Greenhoe J, Kirsner RS. The primary care provider and the care of skin disease: the patient's perspective. Arch Dermatol. 2001 Jan;137(1):25-9 [29] Aubert C. Diagnostics de consultation en médecine générale établis à partir de la CISP2 sur un échantillon de médecin généralistes en Haute Normandie. Thèse de doctorat de médecine : université de Rouen. 2012 [30] HAS, Haute Autorité de santé. Stratégie de diagnostic précoce du mélanome, recommandation en santé publique, rapport d'évaluation. 2006 Oct Disponible sur : http://www.hassante.fr/upload/docs/application/pdf/rapport_strategie_de_diagnostic_precoce_du_melanome. pdf) Consulté le 06/10/19 [31] Youl PH, Raasch BA, Janda M, Aitken JF. The effect of an educational programme to improve the skills of general practitioners in diagnosing melanocytic/pigmented lesions. Clin Exp Dermatol. 2007 Jul;32(4):365-70 [32] Dione A. État des lieux des compétences des Internes de Médecine Générale et concordance diagnostique dans la prise en charge des pathologies cutanées en soins de santé primaires. Thèse de doctorat de médecine : université de Bordeaux. 2013 [33] Rousset L, Azot A, Halioua B. Évaluation du niveau de connaissance et des demandes 42 de formation en dermatologie des internes en médecine générale. Annales de Dermatologie et de Vénéréologie. 2018 Déc;145(12 suppl):252-3 [34] Lesenechal C. DERMATOLOGIC : Outil en ligne d'aide au diagnostic dermatologique pour les médecins généralistes. Thèse de doctorat de médecine : université Paris Diderot. 2016 [35] Halpern AC, Hanson LJ. Awareness of knowledge of and attitudes to nonmelanoma skin cancer (NMSC) and actinic keratosis (AK) among physicians. Int J Dermatol. 2004 Sep;43(9):638-42 [36] Viguier M et al. Online Training on Skin Cancer Diagnosis in Rheumatologists: Results from a Nationwide Randomized Web-Based Survey. Journal pone. 2015 may;10(5) Disponible sur : https://doi.org/10.1371/journal.pone.0127564 (consulté le 24/04/2019) [37] Scaperotti M et al. Development and Evaluation of a Web-Based Dermatology Teaching Tool for Preclinical Medical Students. MedEdPORTAL. 2017;13 Disponible sur : https://www.mededportal.org/publication/10619/) (consulté le 24/11/19) [38] Cook DA, Levinson AJ, Garside S. Internet-Based Learning in the Health Professions. A Meta-analysis. JAMA.2008 Sept;300(10):1181-96 [39] Davis J, Crabb S, Rogers E, Zamora J, Khan K. Computer-based teaching is as good as face to face lecture-based teaching of evidence based medicine: a randomized controlled trial. Med Teach. 2008;30(3):302-7 [40] Cook DA et al. Instructional design variations in Internet‐based learning for health professions education: a systematic review and meta‐analysis. Academic Medicine 2010;85:909‐22 [41] Sinclair PM, Kable A, Levett-Jones T, Booth D. The effectiveness of Internet-based e- learning on clinician behaviour and patient outcomes : A systematic review. International Journal of Nursing Studies. 2016 May;57:70-81 [42] Vaona A et al. E-learning for health professionals. Cochrane Database Syst. Rev. 2018 Jan;1 Disponible sur : https://www.cochranelibrary.com/cdsr/doi/10.1002/14651858.CD011736.pub2/full (consulté le 12/11/2019) [43] Gerbert B et al. The effectiveness of an internet‐based tutorial in improving primary care physicians' skin cancer triage skills. Journal of Cancer Education. 2002;17(1):7-11 [44] Singh DG, Boudville N, Corderoy R, Ralston S, Tait CP. Impact on the dermatology educational experience of medical students with the introduction of online teaching support modules to help address the reduction in clinical teaching. Australas J Dermatol. 2011 Nov;52(4):264-9 [45] Soirefmann M, Comparin C, Boza J, Wen CL, Cestari TF. Impact of a cybertutor in 43 dermatological teaching. Int J Dermatol. 2013 Jun;52(6):722-7 [46] McCleskey PE. Clinic teaching made easy : a prospective study of the American Academy Of dermatology core curriculum in primary care learners. J Am Acad Dermatol. 2013 Aug;69(2):273-9 [47] Cipriano SD, Dybbro E, Boscardin CK, Shinkai K, Berger TG. Online learning in a dermatology clerkship : piloting the new American Academy of Dermatology Medical Student Core Curriculum. J Am Acad Dermatol. 2013 Aug;69(2):267-72 [48] Boespflug A, Guerra J, Dalle S, Thomas L. Enhancement of Customary Dermoscopy Education With Spaced Education e-Learning: A Prospective Controlled Trial. JAMA Dermatol. 2015 Aug;151(8):847-53 [49] Zaccaria F. Création d'un module d'e-learning pour les médecins généralistes dans le cadre du D.U de sensibilisation à la cancérologie cutanée. Thèse de doctorat de médecine : Université de Lyon. 2015 [50] Aubert-Wastiaux H et al. Création d'un site de e-learning sur le mélanome à l'intention des médecins généralistes et des dermatologues. Nouv Dermatol 2010 ;29 :381-85 [51] Réseau mélanome ouest. Évaluez, testez, améliorez vos connaissances - eLearning . 2018. Disponible sur : https://www.reseau-melanome-ouest.com/melanome/evaluez-testezameliorer-vos-connaissances-elearning.html (consulté le nov. 15, 2019) [52] Rourke L, Oberholtzer S, Chatterley T, Brassard A. Learning to Detect, Categorize, and Identify Skin Lesions. A Meta-analysis. JAMA Dermatol. 2015 Mar;151(3):293-301 [53] Kerfoot BP, DeWolf WC, Masser BA, Church PA, Federman DD. Spaced education improves the retention of clinical knowledge by medical students: a randomised controlled trial. Med Educ. 2007 Jan;41(1):23-31 [54] Kerfoot BP. Learning benefits of on-line spaced education persist for 2 years. J Urol. 2009 Jun; 181(6):2761-3 [55] Long A, Kerfoot BP, Chopra S, Shaw T. Online spaced education to supplement live courses. Med Educ. 2010 May; 44(5):519-20 [56] Shaw T, Long A, Chopra S, Kerfoot BP. Impact on clinical behavior of face-to-face continuing medical education blended with online spaced education: a randomized controlled trial. J Contin Educ Health Prof. 2011;31(2):103-8 [57] Kerfoot BP et al. An online spaced-education game to teach and assess medical students : a multi-institutional prospective trial. Acad Med. 2012 oct;87(10):1443-9 [58] Worm BS, Buch SV. Does Competition Work as a Motivating Factor in E-Learning? A Randomized Controlled Trial. Journal pone. 2014 Jan;9(1) Disponible https://doi.org/10.1371/journal.pone.0085434) (consulté le ligne le 21/11/2019) 44 sur : [59] HAS, Haute Autorité de santé. E-learning Guide de conception de formation ouverte et à distance (FOAD) dans le monde de la santé. 2015 Avril. Disponible sur : https://www.hassante.fr/upload/docs/application/pdf/2015-09/guide_e-learning_rapport_complet.pdf) (consulté le 01/02/2020 ) [60] UNESS.fr, Université Numérique En Santé et Sport.fr. Sides NG. Disponible sur https://www.uness.fr/plateformes-sides/sides-ng) (consulté le 24/11/2019 ) 45 ANNEXES Annexe 1 : Chronologie des étapes du recueil dans le temps. Q1 : questionnaire 1 ; Q2 : questionnaire 2 Annexe 2 : Questionnaire 1, avant formation - Quel SEMESTRE de votre internat effectuez-vous actuellement ? − 1er − 2ème − 3ème − 4ème - Parmi les affirmations suivantes, cochez celles qui vous concernent. − Au cours de l'EXTERNAT, j'ai effectué un stage en dermatologie − Au cours de l'INTERNAT, j'ai fait le stage ambulatoire de niveau 1 en cabinet de médecine générale − Au cours de l'INTERNAT, j'ai fait le stage ambulatoire SASPAS − Au cours de l'INTERNAT, j'ai fait un stage dans un service de médecine interne/dermatologie du CHU Nord ou Sud − Au cours de l'INTERNAT, je suis passé(e) en consultation de dermatologie (médecine adulte ou pédiatrique) - Concernant le dépistage des lésions précancéreuses et cancéreuses cutanées, comment évaluez-vous votre formation au cours de l'INTERNAT ? − Très bien formé(e) − Suffisamment formé(e) − Moyennement formé(e) − Insuffisamment formé(e) − Pas du tout formé(e) - Pour votre future pratique de médecin généraliste, pensez-vous qu'il soit nécessaire d'être mieux formé(e) au dépistage des lésions précancéreuses et cancéreuses cutanées ? − Très nécessaire − Nécessaire − Moyennement nécessaire − Pas nécessaire − Pas du tout nécessaire - Pensez-vous que des formations OBLIGATOIRES en dermatologie doivent être mises en place au cours de votre INTERNAT ? − Totalement d'accord − D'accord − Moyennement d'accord − Pas d'accord 46 − Pas du tout d'accord - Vous sentiriez-vous confiant(e) si vous deviez dépister SEUL(E) ces lésions précancéreuses et cancéreuses cutanées au cours d'une consultation ? − Très confiant(e) − Confiant(e) − Moyennement confiant(e) − Pas confiant(e) Pas du tout confiant(e) - Au cours des stages ambulatoires, avez-vous eu l'occasion d'assister ou de faire un dépistage ANNUEL cutané des lésions précancéreuses et cancéreuses ? − Oui, au moins une fois par semaine − Oui, au moins une fois par mois − Oui, 1 à 2 fois sur les 6 mois de stage − Non mais problématique évoquée oralement avec le maître de stage − Problématique JAMAIS évoquée au cours des stages - Si vous avez assisté ou fait un dépistage ANNUEL cutané de ces lésions au cours de vos stages ambulatoires, dans quelles circonstances cela a-t-il été fait ? − Au cours de la journée nationale de dépistage du cancer de la peau − A la demande du patient − Il s'agissait d'un sujet à risques (phototype clair, nombre important de naevus, exposition professionnelle, immunodépression) − Le patient avait des antécédents personnels ou familiaux de cancers cutanés − Ni fait ni assisté à un dépistage annuel cutané - Quels supports d'aide au dépistage des lésions précancéreuses et cancéreuses cutanées avez-vous déjà utilisés pour prendre en charge un patient au cours de votre INTERNAT ? − Site de l'institut national du cancer − PDF en ligne − Photographies google − Livres de dermatologie − Aucun − Autres à préciser - Connaissez-vous l'outil d'AUTO-FORMATION en ligne proposé par l'INSTITUT NATIONAL DU CANCER pour les médecins GÉNÉRALISTES sur http://formation.e-cancer.fr ? − Oui, déjà utilisé − Oui, déjà entendu parler mais jamais utilisé − Non, jamais entendu parler et jamais utilisé TESTEZ MAINTENANT VOS CONNAISSANCES AVEC LES CAS CLINIQUES SUIVANTS. Merci de prendre quelques minutes pour les effectuer sans utiliser de supports d'aide. CAS 1 : Homme de 48 ans, phototype II, VIH +, immunodéprimé. Présente depuis quelques mois ces lésions asymptomatiques au niveau du dos. 47 QUESTION 1 : Cochez les réponses qui vous semblent justes. − A : La lésion 1 évoque un MÉLANOME achromique. − B : La lésion 1 évoque un CARCINOME BASOCELLULAIRE superficiel. − C : La lésion 1 nécessite un avis spécialisé dermatologique. − D : La lésion 1 peut être prise en charge par son médecin traitant qui fera une surveillance simple et une réévaluation à 1 an. − E : Vous êtes sûr(e) de vos réponses à cette question. QUESTION 2 : Cochez les réponses qui vous semblent justes. − A : La lésion 2 évoque un CARCINOME BASOCELLULAIRE tatoué. − B : La lésion 2 évoque une lésion MELANOCYTAIRE atypique. − C : La lésion 2 évoque une KÉRATOSE ACTINIQUE. − D : La lésion 2 nécessite un avis dermatologique car la lésion est suspecte. − E : Vous êtes sûr(e) de vos réponses à cette question. Chez ce même patient immunodéprimé, une lésion est apparue sur le front et évolue depuis quelques mois : QUESTION 3 : Cochez les réponses qui vous semblent justes. − A : Cette lésion évoque un CARCINOME EPIDERMOIDE. − B : Cette lésion évoque un KÉRATOSE ACTINIQUE. − C : Cette lésion évoque un CARCINOME BASOCELLULAIRE ulcéré. − D : Vous êtes sûr(e) de vos réponses à cette question. Il s'agit bien d'un CARCINOME BASOCELLULAIRE ulcéré. QUESTION 4 : Cochez les réponses qui vous semblent justes. − A : Ce cancer est le plus fréquent des cancers cutanés. − B : Le risque de métastases est faible, son ablation assure sa guérison. − C : La lésion est rare et donne souvent des métastases. − D : Le caractère ULCÉRÉ de la lésion montre que le cancer est agressif. Il y a un risque plus élevé de métastases. − E : Vous êtes sûr(e) de vos réponses à cette question. 48 CAS 2 : Femme de 67 ans, phototype V, - Diabète type 2 insulino-requérant déséquilibré. Rétinopathie et neuropathie diabétiques. - HTA déséquilibrée malgré quadrithérapie. Lésion plantaire kératosique pigmentée stable depuis plusieurs mois. QUESTION 1 : Que nécessite cette patiente en priorité ? − A : Des soins podologiques devant l'hyperkératose (à risque de mal perforant plantaire). − B : Une échographie artérielle des membres inférieurs car la lésion évoque une étiologie vasculaire. − C : Un avis dermatologique pour prélèvement à visée histologique. Il s'agit d'un MÉLANOME acral-lentigineux. QUESTION 2 : Cochez les réponses qui vous semblent justes. − A : Sa gravité et son pronostic dépendent du critère ABCDE. − B : Sa gravité et son pronostic dépendent de la taille clinique de la lésion. − C : Sa gravité et son pronostic dépendent de l'épaisseur histologique de la lésion. − D : Sa gravité et son pronostic dépendent de l'indice de BRESLOW. − E : Vous êtes sûr(e) de vos réponses à cette question. CAS 3 : Homme de 79 ans, phototype II, sous chimiothérapie (Hydroxyurée) pour une leucémie myélo-monocytaire chronique depuis 4 ans. Apparition en plusieurs mois de lésions sur les zones photo-exposées. 49 QUESTION 1 : Cochez les réponses qui vous semblent justes. − A : Les lésions 1 et 2 évoquent des KÉRATOSES ACTINIQUES. − B : La lésion 3 évoque un CARCINOME BASOCELLULAIRE ulcéré. − C : La lésion 3 évoque un CARCINOME EPIDERMOIDE. − D : Cliniquement, la palpation des lésions 1 et 2 peut aider le médecin à poser l'indication d'une exérèse. − E : Vous êtes sûr(e) de vos réponses à cette question. Ce même patient immunodéprimé présente d'autres lésions sur des localisations photo-exposées, évoluant depuis plusieurs mois. QUESTION 2 : Cochez les réponses qui vous semblent justes. − A : Les lésions 1, 2, 3 et 4 doivent faire suspecter des CARCINOMES EPIDERMOIDES. − B : Les lésions 1, 2, 3 et 4 évoquent des différentes variantes cliniques de KERATOSES ACTINIQUES. − C : Les lésions 1, 2, 3 et 4 nécessitent d'être prélevées à visée histologique. − D : Seules les lésions 1 et 2 sont inquiétantes et doivent être prélevées à visée histologique car elles ont une base érythémateuse. − E : Vous êtes sûr(e) de vos réponses à cette question. CAS 4 : Homme de 69 ans, phototype III, présente une lésion sous palpébrale gauche évoluant depuis plusieurs années. 50 QUESTION 1 : Cochez les réponses qui vous semblent justes. − A : Cette lésion évoque un LENTIGO SOLAIRE. − B : Cette lésion évoque une KÉRATOSE SEBORRHEIQUE. − C : Cette lésion évoque un MELANOME DE DUBREUILH. − D : Vous êtes sûr(e) de vos réponses à cette question. Il s'agit d'un MELANOME DE DUBREUILH. QUESTION 2 : Cochez les réponses qui vous semblent justes. − A : C'est une forme de mélanome dont la localisation est principalement au niveau de la tête et du cou. − B : Il est caractérisé par une phase d'extension « HORIZONTALE » intra-épithéliale LONGUE (plus de 5 ans). − C : Il survient dans 80 % des cas chez les patients de plus de 60 ans. − D : Il a la particularité de ne pas nécessiter d'exérèse chirurgicale car il ne donne pas de métastase. − E : Vous êtes sûr(e) de vos réponses à cette question. CAS 5 : Lesquels de ces naevus semblent atypiques et nécessitent que les patients soient adressés à un dermatologue ? − − − − − A: 1 B:2 C:3 D:4 E : Vous êtes sûr(e) de vos réponses à cette question. 51 CAS 6 : Homme de 68 ans, phototype II, vivant à Madagascar, haut risque cardio-vasculaire, présente depuis 3 ans cette lésion unique sur la cuisse. Aspect érythémateux, squameux, non douloureux, non prurigineux. Extension centrifuge très lente. QUESTION 1 : Cochez les réponses qui vous semblent justes. − A : Cette lésion évoque un CARCINOME BASO-CELLULAIRE SUPERFICIEL. − B : Cette lésion évoque un CARCINOME EPIDERMOIDE IN SITU (BOWEN). − C : Cette lésion évoque un PSORIASIS. − D : Cette lésion évoque une DERMATOPHYTIE. − E : Vous êtes sûr(e) de vos réponses à cette question. − Il s'agit d'un CARCINOME EPIDERMOIDE IN-SITU (BOWEN). QUESTION 2 : Quels sont les FACTEURS ÉTIOLOGIQUES de cette maladie ? − A : Les irradiations solaires et les radiations ionisantes. − B : L'immunodépression : patients greffés ou sous traitements immunosuppresseurs. Par exemple anti-TNF ou azathioprine (IMUREL). − C : Les dermatoses chroniques. − D : L'exposition à l'arsenic. − E : Les infections à papillomavirus (pour les atteintes muqueuses). CAS 7 : Lesquelles de ces lésions sont suspectes d'être des MELANOMES ? 52 − − − − − A: 1 B:2 C:3 D:4 E : Vous êtes sûr(e) de vos réponses à cette question. CAS 8 : Lesquelles de ces lésions évoquent des CARCINOMES BASOCELLULAIRES ? − − − − − A: 1 B:2 C:3 D:4 E : Vous êtes sûr(e) de vos réponses à cette question. CAS 9 : Lésions évoluant depuis plusieurs mois. 1-Pouce, phototype II. 2-Cuir chevelu, phototype II. 3-Épaule droite, phototype III. 4-Front, phototype II. 53 Cochez les réponses qui vous semblent justes. − A : Les quatre lésions sont inquiétantes et nécessitent un prélèvement à visée histologique. − B : La lésion 3 pourrait CLINIQUEMENT être un KERATOACANTHOME. − C : La lésion 3 pourrait CLINIQUEMENT être un CARCINOME EPIDERMOIDE. − D : La lésion 2 est cliniquement bénigne. − E : Vous êtes sûr(e) de vos réponses à cette question. CAS 10 : Homme, 60 ans, phototype III. Lésion évoluant depuis plusieurs mois. Cochez les réponses qui vous semblent justes. − A : La lésion évoque une KERATOSE SEBORRHEIQUE. − B : La lésion évoque un NAEVUS PIGMENTAIRE. − C : La lésion évoque un MÉLANOME. − D : La lésion nécessite une exérèse à visée histologique pour confirmer le diagnostic. − E : Vous êtes sûr(e) de vos réponses à cette question. CAS 11 : 1- Phototype IV, stable sur des années. 2- Phototype III, antécédent de mélanome chez le père, lésion ayant saigné récemment. 3- Homme de 65 ans, phototype II, évoluant depuis des années. 4- Adolescente de 14 ans, phototype III. 54 Lesquelles de ces lésions nécessitent un avis dermatologique ? − A: 1 − B:2 − C:3 − D:4 − E : Vous êtes sûr(e) de vos réponses à cette question. − Annexe 3 : Questionnaire 2, après formation - Avez-vous participé au questionnaire N°1 avant de vous former en ligne sur le site de l'INCA ? Oui / Non - Vous êtes-vous inscrit(e) et connecté(e) au moins 1 fois sur le site de formation en ligne proposé par l'INCA ? Oui / Non - Au total, combien de temps avez-vous passé sur le site de l'INCA ? − Moins de 15 minutes − Moins de 30 minutes − Moins d'1 heure − Entre 1 et 2 heures − Plus de 2 heures - Sur la totalité des 4 parcours proposés, quel pourcentage de formation avez-vous effectué ? − Moins de 25 % − Entre 25 et 50 % − Entre 50 et 75% − Plus de 75 % − Plus de 100% - Sur les 6 catégories de cas cliniques proposées, quel pourcentage de formation avez-vous effectué ? − Moins de 25 % − Entre 25 et 50 % − Entre 50 et 75% − Plus de 75 % − Plus de 100% - Comment évaluez-vous votre motivation personnelle à vous former seul(e) sur ce type d'outil d'autoformation en ligne ? − Très peu motivé(e) − Peu motivé(e) − Moyennement motivé(e) − Motivé(e) − Très motivé(e) - Parmi ces justifications, quelles sont celles qui expliquent que vous n'ayez pas plus utilisé cet outil de formation ? − Manque de temps personnel − Manque d'intérêt pour la thématique de la formation − Manque de motivation personnelle − Sensation de déjà maîtriser le sujet − Outil de formation non satisfaisant - Comment évaluez-vous la facilité d'utilisation de cet outil (inscription, connexion, utilisation des parcours et des cas cliniques) ? − Très difficile − Difficile − Moyennement facile − Facile − Très facile - Avez-vous trouvé cet outil de formation agréable à utiliser (qualité de l'interface, modernité, couleurs, caractère ludique) ? 55 − Très désagréable − Désagréable − Moyennement agréable − Agréable − Très agréable - Comment évaluez-vous l'utilité de cette formation en ligne ? − Pas du tout utile − Pas utile − Moyennement utile − Utile − Très utile - Comment estimez-vous l'apport de la formation sur votre capacité à dépister les lésions précancéreuses et cancéreuses cutanées chez vos futurs patients ? − Je n'ai pas fait la formation − Je me sens MOINS A L'AISE − Je ne me sens PAS PLUS NI MOINS A L'AISE − Je me sens PLUS A L'AISE. − Je me sens BEAUCOUP PLUS A L'AISE. - Conseillerez-vous cette formation à vos co-internes ? − Pas du tout conseillée − Pas conseillée − Moyennement conseillée − Conseillée − Très conseillée - Pensez-vous réutiliser cet outil de formation en ligne en cas de doute sur vos pratiques futures ? Oui / Non EVALUEZ MAINTENANT VOTRE EVOLUTION APRES FORMATION EN EFFECTUANT, A NOUVEAU, LES CAS CLINIQUES DU QUESTIONNAIRE 1. (Annexe 2) Annexe 4 : Correction et cotation des cas cliniques Numéros des cas et des questions (Q) CAS 1 Q1 Réponses justes Cotations B 1pt / BD (si A=0*) EXPLICATIONS Il s'agit d'un carcinome basocellulaire (CBC) superficiel car : - Terrain : patient à risque (immunodéprimé, phototype clair), zone photoexposée. - Sémiologie : plaque rosée, bords surélevés, aspect perlé, présence de télangiectasies. 56 C Nécessite un avis dermatologique pour prélèvement à visée histologique 1pt / BP pour confirmer le diagnostic. (si D=0**) CAS 1 Q2 CAS 1 Q3 B 1pt / BD (si A ou C=0*) Il s'agit d'une lésion mélanocytaire atypique car : - Terrain - Sémiologie : pigmentaire, critères ABCDE (critères de malignité d'une lésion mélanocytaire : asymétrie, bords irréguliers, couleur inhomogène, diamètre > 6 mm, évolutivité) en faveur d'une atypie notamment par sa couleur inhomogène. D 1pt / BP Nécessite un avis dermatologique pour exérèse à visée histologique pour préciser le diagnostic. Tout naevus atypique doit faire redouter un mélanome et doit être pris en charge précocement. C 1pt / BD (si A ou B=0*) Il s'agit d'un CBC selon les critères cités ci-dessus. Le CBC peut prendre plusieurs formes : ulcéré, nodulaire, sclérodermiforme, superficiel. A Les CBC représentent 70 % des cancers cutanés. 57 CAS 1 Q4 1pt CAS 2 Q1 C 1pt / BP B 1pt (si A ou B=0**) Les CBC ont une évolution lente. Leur évolution est locale (pas de métastase). Leur ablation assure leur guérison. Plus l'exérèse sera précoce, moins elle sera mutilante. Tout patient sur lequel un CBC est suspecté, doit être adressé à un dermatologue. Selon les critères ABCDE, cette lésion pigmentaire évoque un mélanome (asymétrique, bords irréguliers, couleur inhomogène, diamètre > 6 mm, évolutive depuis plusieurs mois). De par sa localisation (extrémités), on parle de mélanome acrallentigineux. Certes le terrain de la patiente justifie des soins podologiques et un dépistage d'une AOMI, cependant ils ne feraient que retarder la prise en charge de ce mélanome à haut risque métastatique. En effet, cette lésion nécessite sans attendre une prise en charge par le dermatologue. Cette patiente, initialement suivie par son médecin traitant en ville, a malheureusement eu un retard diagnostique important en ayant, par erreur, bénéficié de la réponse A et B, au lieu de la réponse C. Ce n'est que plusieurs mois après, lors d'une hospitalisation à cause d'une décompensation de son diabète que cette lésion a interpellé les endocrinologues qui ont immédiatement demandé un avis dermatologique. CAS 2 Q2 CAS 3 Q1 C 1pt Le pronostic d'un mélanome est défini principalement par l'indice de Breslow correspondant à l'épaisseur histologique de la tumeur, exprimée en millimètre. D 1pt L'indice de Breslow est le nom donné à cette quantification de l'épaisseur histologique de la tumeur. A 1pt / BD Il s'agit de kératoses actiniques (KA), lésions précancéreuses des carcinomes épidermoïdes car : - Terrain : immunodéprimé, phototype clair, zone photo-exposée. - Sémiologie : lésion squameuse, croûteuse, jaunâtre, d'évolution chronique. C 1pt / BD (si B=0*) Il s'agit d'un carcinome épidermoïde (CE) car - Terrain - Sémiologie : lésion nodulaire, indurée, ulcérée, saignant facilement au contact. Le CE peut aussi prendre des formes bourgeonnantes ou de cornes kératosiques. 58 La lésion est en défaveur d'un CBC car absence d'aspect perlé et de télangiectasies. CAS 3 Q2 D 1pt / BP La palpation permet d'estimer l'infiltration locale d'une KA. Une KA très infiltrée incitera le spécialiste à prélever à visée histologique afin d'éliminer une cancérisation de la lésion. A 1pt / BD (si B=0*) Comme dit précédemment, l'infiltration clinique d'une KA est un bon prédicteur de sa cancérisation. Toutes ces lésions ont aspect très épaissi. Les cornes sont à considérer jusqu'à leur diagnostic histologique comme des CE. L'érythème à la base de la lésion n'est pas un argument de malignité. C Toutes ces lésions sont suspectes d'être en voie de cancérisation, une 1pt / BP histologique (biopsie ou exérèse d'emblée) est donc indispensable. (si D=0**) CAS 4 Q1 CAS 4 Q2 C 1pt / BD (si A ou B=0*) Il s'agit d'un mélanome de Dubreuilh (ou lentigo malin ou LMM : lentigo malignant mélanoma) - Ananomopathologie : prolifération anormale des mélanocytes. - Sémiologie : lésion pigmentée inhomogène, plane, contours irréguliers. - Prise en charge : prélèvement à visée histologique puis exérèse avec marges. A différencier du lentigo - Anatomopathologie : hyperplasie des mélanocytes. - Sémiologie : lésion bénigne pigmentée, homogène, à contours réguliers. ou irréguliers, accentuée par l'exposition solaire. - Prise en charge : surveillance simple. A 1pt Il est principalement situé au niveau de la tête et du cou, sur les zones photo-exposées. B 1pt L'évolution de cette lésion se fait en 2 phases : - On parle de mélanome de Dubreuilh lors de la phase d'extension « horizontale » intra-épithéliale. Son diamètre augmente et la lésion reste superficielle. Cette phase est lente (environ 5 ans). - On parle de mélanome invasif développé à partir d'un mélanome de Dubreuilh, quand une phase secondairement « verticale » apparait. L'extension de la lésion se fait alors en profondeur. A ce stade, le pronostic de la lésion devient défavorable car le risque de métastases augmente. Un prélèvement précoce permet de poser le diagnostic histologique en phase horizontale et améliore ainsi le pronostic du patient. Il permet également d'éliminer les diagnostics différentiels comme par exemple le lentigo. C Dans 80% cette lésion survient chez les patients de plus de 60 ans. 59 1pt CAS 5 A, B et C 1 pt par réponse = 3pts / BD Selon les critères ABCDE (A : asymétrie, B : bords irréguliers, C : couleur inhomogène, D : diamètre > 6mm, E : évolutivité), ces lésions sont dites atypiques et nécessitent un avis dermatologique. CAS 6 Q1 B 1pt / BD (Si A, C ou D=0*) Il s'agit d'une maladie de Bowen car - Terrain : âge, phototype clair, photo-exposition. - Sémiologie : plaque érythémateuse d'évolution lente, contours polylobées, à limites nettes avec collerette de desquamation en périphérie, surface squameuse grisâtre ou jaunâtre. Devant l'évolutivité longue, l'absence d'autre lésion et l'absence de prurit, cette lésion est en défaveur d'une dermatophytie ou d'un psoriasis. Il s'agit d'une forme de carcinome épidermoïde intra-épithéliale (in situ). - Epidémiologie : pic d'incidence à 70 ans ; 75 % sexe féminin. - Formes muqueuses ou unguéales. - Facteurs de risque : ci-dessous (CAS 6 Q2) - L'évolution est lente - Le pronostic est bon. Il existe néanmoins un risque de transformation en carcinome invasif (~10% des cas) - Le traitement de choix est l'exérèse chirurgicale. CAS 6 Q2 CAS 7 CAS 8 A 1pt Les irradiations solaires et les radiations ionisantes. B 1pt L'immunodépression : patients greffés ou sous traitements immunosuppresseurs. Par exemple anti-TNF ou azathioprine (IMUREL). C 1pt Les dermatoses chroniques. D 1pt L'exposition à l'arsenic. Elle peut être déclarée en maladie professionnelle. (Travaux pyro-métallurgiques, manipulation de pesticides arsenicaux, certains travaux dans la verrerie, l'électronique, le cuir) E 1pt Les infections à papillomavirus (pour les atteintes muqueuses). B 1pt / BD Selon les critères ABCDE, cette lésion est suspecte : asymétrie, bords irréguliers, couleur inhomogène. C 1pt / BD De même, les contours de la lésion semblent irréguliers et une asymétrie est présente. Sur la partie inférieure de la lésion, une inhomogénéité de couleur est visible. A noter : - la lésion 1 évoque une kératose séborrhéique : les bouchons cornés sont visibles à la surface. - la lésion unguéale 4 est un hématome sous unguéale. Son aspect en flammèches est caractéristique de la résorption de l'hématome. De plus, la matrice n'est pas touchée. A 1pt / BD Il s'agit d'un CBC de forme ulcérée. Sémiologie : érythémateux, perlé, avec présence de quelques télangiectasies, La région de l'aile du nez est une zone photo-exposée où se développe très fréquemment les CBC. B 1pt / BD Il s'agit d'un CBC de forme nodulaire. La sémiologie est ici plus évidente car les télangiectasies sont bien visibles. La lésion 3 (réponse C) : correspond à un naevus tubéreux (bénin). D 1pt / BD Il s'agit d'un CBC de forme superficielle. Les caractéristiques du CBC sont présentes : lésion érythémateuse, bords surélevés perlés, télangiectasies. 60 CAS 9 B 1pt / BD Seules les lésions 3 et 4 sont inquiétantes. Les lésions 1 sont des verrues péri unguéales. - induite par HPV - aspect exophytiques, localisées sur la farce dorsale des mains et des doigts, saillies charnues kératosiques, parfois sillonnées de crevasses à la surface. - nombre variable (quelques unes à plusieurs dizaines) et les lésions parfois confluentes. - les verrues péri unguéales et sous-unguéales sont souvent douloureuses si situées sous le bord libre distal ou latéral, décollant de son lit la tablette unguéale. Elles peuvent être multiples et confluentes autour de l'ongle. C 1pt / BD Les lésions 3 et 4 peuvent évoquer l'une et l'autre un carcinome épidermoïde (CE) ou un kératoacathome. Kératoacanthome - tumeur d'apparition et de croissance rapides. - organisation générale symétrique autour du cratère central kératosique : aspect de « tomate farcie ». - raccordement « en bec » de la tumeur à l'épiderme voisin, de part et d'autre de ce cratère. - la nature du kératoacanthome et sa parenté avec le CE font l'objet de discussions. (bénignité ou malignité ?) - la distinction histologique entre un kératoacanthome et un CE d'architecture cratériforme peut être difficile sur des biopsies ou des résections partielles et nécessite l'examen de la totalité de la lésion. Les lésions 3 et 4 doivent être prélevées à visée histologique. En revanche, les lésions 1 et 2 sont cliniquement bénignes donc ne nécessitent pas d'être prélevées à visée diagnostique. CAS 10 D 1pt / BD La lésion 2, par son aspect d'excroissances kératosiques filiformes, évoque une lésion bénigne. (papillome verruqueux) A 1pt / BD (si B ou C=0*) Il s'agit d'une kératose séborrhéique (KS). A gauche, à première vue, la lésion peut être suspecte car elle est asymétrique, a des bords irréguliers, et son diamètre est supérieur à 6 mm (non précisé dans l'énoncé). A droite le dermoscope permet de mettre en évidence les bouchons cornés avec cet aspect de comédons. La KS est une lésion tumorale épithéliale pigmentaire bénigne, située sur les régions séborrhéiques (visage, dos, poitrine, plis inguinaux ou sous mammaire). Elle peut prendre une forme lisse, verruqueuse, squameuse ou croûteuse. Cette lésion bénigne ne nécessite pas de prélèvement, son diagnostic est clinique. En cas de gêne esthétique, la cryothérapie ou l'électrocoagulation peuvent être proposées. Pour comparer, voici l'image au dermoscope d'un mélanome. 61 CAS 11 B 1pt / BD Seule la lésion 2 nécessite un avis dermatologique spécialisé. Selon les critères ABCDE, ce naevus est atypique : contours irréguliers, couleur inhomogène, asymétrie. A noter : Les lésions 1 évoquent des molluscum pendullum. - Il s'agit de fibromes mous pédiculés de couleur claire ou hyperpigmentée; - Le plus souvent au niveau du cou, des aisselles et de la région inguinale. - En cas d'irritation ou de gêne esthétique, un geste spécialisé peut être envisagé. La lésion 3 évoque un histiocyfibrome ou dermatofibrome, tumeur bénigne, très fréquente. - Due à une réaction histiocytaire. Elle est souvent réactionnelle à une piqûre d'insecte. - Unique ou multiple, elle est souvent située au niveau des membres inférieurs. - Sémiologie : . Aspect de pastille, papule ou nodule, taille entre 3 et 10 mm, parfois atrophique et déprimée. . Couleur : varie entre une couleur claire et brun foncé avec souvent un centre plus foncé que la périphérie, ce qui donne l'aspect d'un pourtour mal délimité. . Sa surface peut avoir un aspect quadrillé en écailles ou lors des lésions de rasage peut avoir un aspect cicatriciel ou croûteux. . à la palpation, la lésion est dure mais mobile par rapport au plan profond. . Il y a une phase d'accroissement mais la lésion finit par stagner. - Le diagnostic est clinique et la lésion ne nécessite aucune prise en charge sauf en cas de gêne esthétique. La lésion 4 évoque un naevus de Sutton ou halo-naevus, tumeur bénigne. - Due à un processus immunologique mixte (humoral ou cellulaire) qui conduit à une modification des naevi. - Dans 5 % des cas, il peut être associé à un vitiligo. Dans ce cas, un diabète de type 1 et une dysthyroïdie doivent être recherchés. - Touche principalement la population jeune : grands enfants, adolescents, jeunes adultes et autant les hommes que les femmes. - Dans 2/3 des cas, la lésion est unique. Elle est souvent située au niveau du tronc et notamment au niveau du dos. - Sémiologie : centre naevus pigmenté rouge brun maculo-papuleux d'une taille de 2 à 5 mm avec autour un halo clair de 1 à 5 mm au contour bien délimité. - Son évolution est typiquement en 3 stades : 62 . I : (plusieurs mois) : Apparition halo dépigmenté autour d'un naevus déjà présent. Parfois érythème transitoire avant la dépigmentation. . II (plusieurs mois à plusieurs années) : Disparition du naevus central . III (plusieurs mois à plusieurs années) : Repigmentation lente de la zone hypo-pigmentée. En cas de lésions multiples, elles peuvent coexister à des stades d'évolution différents. - Le diagnostic différentiel est le halo-mélanome qui est évoqué en cas d'asymétrie et de bords mal délimités. - Cette lésion ne nécessite aucun prélèvement. L'abstention thérapeutique est de mise. Le patient doit être rassuré sur son caractère bénin et régressif. Pt(s) = point(s) ; * 0 mis sur la cotation de diagnostic ; ** 0 mis sur la cotation de prise en charge BD = bon diagnostic ; BP = bonne prise en charge. Annexe 5 : Avis des IMGOI participants au Q1 (n = 42) sur la formation au dépistage des LPCC au cours du DES de MGOI 0 5 10 15 20 25 Pas du tout formé(e) Pas bien formé(e) Moyennement formé(e) Bien formé(e) Très bien formé(e) IMGOI Annexe 6 : Fréquence des dépistages de LPCC faits seuls par les IMGOI ou vus lors des consultations avec les maîtres de stage lors des stages ambulatoires. Q1 (n = 42) 0 5 10 15 Problématique JAMAIS évoquée au cours des stages Non mais problématique évoquée oralement avec le 1 à 2 fois sur les 6 mois de stage Au moins une fois par mois Au moins une fois par semaine IMGOI 63 20 25 30 Annexe 7 : Circonstances de ces dépistages faits ou vus avec les maîtres de stage Q1 (n=42) 0 5 10 15 20 25 30 35 Ni fait ni assisté à un dépistage cutané Antécédents personnels ou familiaux de cancers cutanés Sujet à risque (phototype clair, naevus importants, exposition A la demande du patient Journée nationale de dépistage du cancer de la peau IMGOI Annexe 8 : Avis des IMGOI participants au Q1 (n = 42) sur la nécessité d'une meilleure formation sur le dépistage des LPCC pour leur future pratique 0 5 10 15 20 25 30 Pas du tout nécessaire Pas nécessaire Moyennement nécessaire Nécessaire Très nécessaire IMGOI Annexe 9 : Avis des IMGOI participants au Q1 (n = 42) sur la mise en place de formations obligatoires de dermatologie au cours du DES de MGOI 0 5 10 Pas du tout d'accord Pas d'accord Moyennement d'accord D'accord Totalement d'accord IMGOI 64 15 20 25 Annexe 10 : Motivation personnelle des IMGOI interrogés dans le Q2 à s'auto-former seuls sur des outils de e-learning. (n=13) 0 2 4 6 8 10 Très motivé(e) Motivé(e) Moyennement motivé(e) Peu motivé(e) Très peu motivé(e) IMGOI Annexe 11 : Proposition d'une méthode alternative d'étude de l'acceptabilité de l'outil de l'INCA. Critères d'acceptabilité de l'outil de formation en ligne proposé par l'INCA. Critères d'acceptabilité* Participants (n=13) P1 P2 P3 P4 P5 P6 P7 P8 P9 P10 P11 P12 P13 Temps d'auto-formation sur 4 3 3 4 3 3 1 3 2 4 3 3 2 3 4 3 3 3 1 4 2 3 2 2 2 l'outil Pourcentage des parcours 1 faits Pourcentage des cas 0 4 3 1 3 4 0 0 0 1 1 1 0 Facilité d'utilisation 3 4 3 3 4 3 1 3 4 3 3 4 1 Agréable à utiliser 4 3 3 4 4 2 3 3 4 4 3 3 1 Utilité 4 4 4 4 3 3 3 3 3 4 4 4 3 Amélioration subjective des 3 3 3 3 3 3 2 3 3 3 2 3 3 4 3 4 3 3 3 4 4 4 3 4 1 cliniques faits capacités à dépister les LPCC Formation à conseiller aux 4 65 co-internes ? Réutilisation future en cas 4 4 0 4 4 4 4 4 4 4 4 4 0 32 26 30 30 28 18 27 26 30 25 28 13 de doute TOTAL de points (sur 36) 27 INCA : Institut national du cancer * La note de 0 à 4 dépendait de la réponse cochée par le participant au questionnaire 2 postformation. Une réponse cochée A était notée 0, une réponse E était notée 4 selon une échelle de Linkert d'acceptabilité croissante. Concernant la question de réutilisation future de l'outil : « oui » était notée 0 et « non » était notée 4. Ces participants auraient pu être répartis dans 3 groupes selon leur score total. Score total entre 0 et 12 : outil jugé comme non acceptable Score total entre 12 et 24 : outil jugé comme moyennement acceptable Score total entre 24 et 36 : outil jugé comme acceptable L'acceptabilité de l'outil aurait pu être défini selon l'effectif par groupe. Score total sur 36 [0-12] [12-24] [24-36] Nombre de participants 0 2 11 Annexe 12 : Cinq niveaux de risques sanitaires. IUV : indices UV 66 Annexe 13 : Recommandations selon les niveaux de risque d'exposition solaire. FPS : facteur de protection solaire 67 Annexe 14 : Comparaison des indices UV mondiaux (OMS). Lat : latitude; J : Janvier; F : Février; M : Mars; A : Avril; M : Mai; J : Juin; J : Juillet; A : Août; S : Septembre; O : Octobre; N : Novembre; D: Décembre; °N : degrés Nord; °S : degrés Sud 68 Annexe 15 : Taux d'Incidence Standardisé (TIS) du mélanome invasif à La Réunion, par sexe, de 1995 à 2015. [6] Annexe 16 : Captures d'écran de l'outil de formation proposé par l'INCA 69 70 71 SERMENT D'HIPPOCRATE Au moment d'être admise à exercer la médecine, je promets et je jure d'être fidèle aux lois de l'honneur et de la probité. Mon premier souci sera de rétablir, de préserver ou de promouvoir la santé dans tous ses éléments, physiques et mentaux, individuels et sociaux. Je respecterai toutes les personnes, leur autonomie et leur volonté, sans aucune discrimination selon leur état ou leurs convictions. J'interviendrai pour les protéger si elles sont affaiblies, vulnérables ou menacées dans leur intégrité ou leur dignité. Même sous la contrainte, je ne ferai pas usage de mes connaissances contre les lois de l'humanité. J'informerai les patients des décisions envisagées, de leurs raisons et de leurs conséquences. Je ne tromperai jamais leur confiance et n'exploiterai pas le pouvoir hérité des circonstances pour forcer les consciences. Je donnerai mes soins à l'indigent et à quiconque me les demandera. Je ne me laisserai pas influencer par la soif du gain ou la recherche de la gloire. Admise dans l'intimité des personnes, je tairai les secrets qui me seront confiés. Reçue à l'intérieur des maisons, je respecterai les secrets des foyers et ma conduite ne servira pas à corrompre les moeurs. Je ferai tout pour soulager les souffrances. Je ne prolongerai pas abusivement les agonies. Je ne provoquerai jamais la mort délibérément. Je préserverai l'indépendance nécessaire à l'accomplissement de ma mission. Je n'entreprendrai rien qui dépasse mes compétences. Je les entretiendrai et les perfectionnerai pour assurer au mieux les services qui me seront demandés. J'apporterai mon aide à mes confrères ainsi qu'à leurs familles dans l'adversité. Que les hommes et mes confrères m'accordent leur estime si je suis fidèle à mes promesses ; que je sois déshonorée et méprisée si j'y manque. 72 Acceptabilité par les internes de médecine générale de l'Océan Indien d'un outil d'auto-formation en ligne (e-learning) proposé par l'Institut national du cancer (INCA) sur le dépistage des lésions précancéreuses et cancéreuses cutanées Introduction : L'incidence des cancers cutanés est croissante à La Réunion. La formation initiale au dépistage de ces lésions est jugée insuffisante par de nombreux médecins généralistes et internes de médecine générale. L'objectif de notre étude était d'évaluer l'acceptabilité d'un outil d'auto-formation en ligne proposé par l'Institut national du cancer (INCA) concernant le dépistage des lésions précancéreuses et cancéreuses cutanées (LPCC), par les internes de médecine générale de l'Océan Indien (IMGOI) de 1ère et 2ème année. Matériels et méthodes : Cette étude descriptive a inclus les IMGOI de 1ère et 2ème année. Le recueil de données a été réalisé sur 25 semaines entre mars et septembre 2019. Deux questionnaires composés de questions à choix multiples et de cas cliniques ont été envoyés par e-mail aux participants, avant et après la formation en ligne. L'outil de formation, validé par l'INCA et gratuitement accessible en ligne, contenait des cours, des photos et des cas cliniques. La formation était jugée acceptable si au moins 70 % des inclus effectuaient au moins 70 % de la formation. Résultats : Sur 126 IMGOI inclus, 42 (33 %) ont participé au premier questionnaire, 13 (10 %) formés en ligne, ont répondu au deuxième questionnaire. Parmi eux, 4 IMGOI (3,2 % des inclus) ont fait plus de 70 % de la formation. Discussion : Selon le critère de jugement principal, notre étude a jugé cet outil de formation non acceptable par les IMGOI de 1ère et 2ème année. Néanmoins, notre travail a montré l'intérêt des participants pour un complément de formation sur le dépistage des LPCC, notamment via le e-learning. Acceptability of an online training tool created by the French national institute of cancer (INCA) on precancerous skin lesions and skin cancers early detection by French students from the general medicine residency Introduction : The incidence of skin cancers has increased in Reunion island. The initial education in these lesions screening is insufficient according to many general practitioners and general practice residents. Our main objective was to assess the acceptability of an online education tool on skin cancers early detection, on the site of the French national institute of cancer (INCA), by first and second year students of the general medicine residency (GPR) at the French University of Reunion Island. 73 Materials and methods : This descriptive study included the first and second year GPR. The data collection lasted 25 weeks from March to September 2019. Two questionnaires composed of multiple-choice questions and clinical cases were sent to participants by email before and after the online training. The training tool, validated by the INCA and freely accessible online, included courses, pictures and clinical cases. The training was deemed acceptable if at least 70% of the inclusives performed at least 70% of the training. Results: 42 (33%) out of 126 included GPR participated in the first questionnaire, 13 (10%) trained online and answered the second questionnaire. 4 GPR (3.2% of inclusives) of these 13 GPR did more than 70% of the training. Discussion : According to our main judgment criterion, this training tool has been considered as not acceptable by the included GPR. However, our work has shown the participants' interest in additional skin cancer screening training, especially in the e-learning format. MOTS-CLEFS Mots clés : tumeurs cutanées ; dépistage précoce du cancer ; e-learning KEY WORDS Key words : skin neoplasms, cancer early detection, online education DISCIPLINE Médecine Générale UNIVERSITE DE LA REUNION U.F.R SANTE http://www.univ-reunion.fr 74
{'path': '23/dumas.ccsd.cnrs.fr-dumas-02992262-document.txt'}
Analyse des mécanismes de recristallisation statique du tantale déformé à froid pour une modélisation en champ moyen Christophe Kerisit To cite this version: Christophe Kerisit. Analyse des mécanismes de recristallisation statique du tantale déformé à froid pour une modélisation en champ moyen. Autre. Ecole Nationale Supérieure des Mines de Paris, 2012. Français. NNT : 2012ENMP0087. pastel-00873188 HAL Id: pastel-00873188 https://pastel.archives-ouvertes.fr/pastel-00873188 Submitted on 15 Oct 2013 Ecole doctorale n° 364 : Sciences Fondamentales et Appliquées Doctorat ParisTech THÈSE pour obtenir le grade de docteur délivré par l'École nationale supérieure des mines de Paris Spécialité "Science et génie des matériaux " présentée et soutenue publiquement par Christophe KERISIT le 18 décembre 2012 Analyse des mécanismes de recristallisation statique du tantale déformé à froid pour une modélisation en champ moyen Directeurs de thèse : Nathalie BOZZOLO et Tony MONTESIN Co-encadrement de la thèse : Roland LOGE Jury M. Frank MONTHEILLET, Directeur de recherche, SMS, Mines de Saint-Etienne M. Thierry GROSDIDIER, Professeur, LEM3, Université de Lorraine, Metz M. André PINEAU, Professeur, Centre des Matériaux, Mines Paristech M. Hubert SCHAFF, Directeur R&D, Aubert & Duval M. Tony MONTESIN, Professeur, ICB, Université de Bourgogne Mme Nathalie BOZZOLO, Maître assistant, CEMEF, Mines Paristech Mme Valérie LLORCA, Docteur, chef de laboratoire, CEA/DAM Valduc M. Roland LOGE, Chargé de recherche, CEMEF, Mines Paristech Rapporteur Rapporteur Examinateur Examinateur Examinateur Examinateur Examinateur Examinateur T H E S MINES ParisTech Centre de mise en forme des matériaux Rue Claude Daunesse, CS 10207, 06904 Sophia Antipolis cedex E Remerciements Je souhaiterais tout d'abord remercier le CEA DAM Valduc, la région Bourgogne ainsi que MINES ParisTech pour m'avoir permis de réaliser ce travail. Ce projet de recherche a également été soutenu par l'Agence Nationale pour la Recheche (ANR) en faisant partie intégrante du projet THERMIDE. J'aimerais ensuite remercier mes encadrants, tant au CEMEF avec Roland Logé et Nathalie Bozzolo, qu'au CEA Valduc avec Valérie Llorca et Wilfried Geslin. Sans leurs compétences, leur passion pour la recherche permettant de répondre à des besoins industriels actuels et leur implication dans ce projet, mon travail n'aurait sans doute pas été le même. J'ai beaucoup appris à leurs côtés, autant d'un point de vue scientifique que personnel. Je leur en suis réellement reconnaissant. Je remercie également les membres du jury d'avoir accepté de juger mon travail. Merci à Dr. Frank Montheillet et Prof. Thierry Grosdidier d'avoir été rapporteur. Merci à Prof. André Pineau d'avoir présidé ce jury et à Hubert Schaff d'avoir apporté son regard « industriel » sur les résultats que j'ai obtenus au cours de ce travail. Je remercie Prof. Tony Montesin qui m'a suivi durant ces trois ans, notamment lors des réunions du projet THERMIDE. Merci à Suzanne Jacomet, Bernard Triger, Cyrille Colin, Gilbert Fiorrucci et à l'équipe MEA du CEMEF pour m'avoir formé aux différentes techniques de caractérisation des matériaux, et aidé dans la réalisation de toutes mes expériences. Merci à Eric Suzon, François Buy, José Farré, Rémy Besnard, Patrick Lointier ainsi que tout le Laboratoire de Déformation Plastique du CEA Valduc pour avoir suivi mon travail avec tant d'intérêt et pour avoir réalisé une partie des traitements thermiques nécessaires au bon déroulement de ce travail. Merci également à toutes les personnes du groupe MSR du CEMEF pour leur sympathie et pour leur contribution, de près ou de loin, à ce travail. Merci à Oscar, Ke et Pierre pour la partie modélisation en champ moyen de la recristallisation. Je tenais également à remercier Andréa et Ana Laura. Merci à Aurélien, François, Yann, Cyrielle, Théo, Seb, BenJ, Alice et Noémie pour ces trois années bien agréable sur la Côte d'Azur. J'ai également une pensée pour ceux qui depuis 7 ans et le début de l'école d'ingénieur sont toujours à mes côtés même si nous avons pris des chemins différents. Merci à Dinouz, Poupou, Nico et Guillaume pour leur soutien et pour m'avoir permis de m'évader du monde de la thèse assez régulièrement. Vous avez aussi contribué à votre manière à ce travail. Merci à ma famille de m'avoir soutenu sans forcément comprendre ce que je faisais. Merci de m'avoir donné la possibilité d'arriver jusque là. Enfin, un énorme merci à Edwige d'avoir été là à mes côtés pour me soutenir, pour partager avec moi tous les moments de doute mais aussi de satisfaction. Merci de m'avoir mis dans les meilleures conditions pour la rédaction de ce document, d'avoir écouté mes réflexions sur les microstructures au petit-déjeuner Merci pour tout. 4 TABLES DES MATIERES Table des matières TABLE DES MATIERES 5 INTRODUCTION GENERALE. 9 Contexte 10 I. 10 II. Matériau d'étude : le tantale en tôle épaisse Les évolutions microstructurales au cours d'un traitement thermique 1. Restauration statique 2. Recristallisation statique discontinue 3. Croissance de grains III. Objectifs de l'étude IV. 13 13 14 15 15 Démarche 16 PREMIERE PARTIE. 17 MODELISATION EN CHAMP MOYEN DES EVOLUTIONS MICROSTRUCTURALES AU COURS D'UN TRAITEMENT THERMIQUE Introduction 18 I. 19 19 20 20 21 21 21 22 23 Les différentes méthodes de modélisation de la recristallisation et de la croissance de grains L'approche originelle : modèle analytique Johnson-Mehl-Avrami-Kolmogorov (JMAK) Les approches probabilistes a. La méthode Monte Carlo b. La méthode de l'automate cellulaire 3. Les méthodes basées sur un maillage de la microstructure a. La méthode des vertex b. Méthodes à Champ de phase & Level-Set 4. Résumé 1. 2. II. 1. 2. 3. 4. Principe de la modélisation en champ moyen à deux milieux homogènes équivalents Description de la microstructure initiale a. Distribution de taille de grains 3D b. Distribution de densités de dislocations c. Construction de la microstructure représentative 3D Représentation des deux milieux homogènes équivalents Les équations d'évolution de base a. Migration des joints de grains b. Restauration c. Germination d. Interaction avec les milieux homogènes équivalents Implémentation numérique du modèle en champ moyen en conditions anisothermes 25 25 26 26 27 27 28 28 30 31 32 36 5 TABLES DES MATIERES 6 a. Gestion du pas de temps b. Algorithme 5. Récapitulatif et méthodes de détermination des paramètres du modèle a. Densité de dislocations de l'état initial b. Mobilité des joints de grains c. Densité de dislocations critique Synthèse DEUXIEME PARTIE. 36 37 37 38 38 39 40 41 LOI DE COMPORTEMENT DU TANTALE PUR ET DESCRIPTION DE L'ETAT DEFORME Introduction 42 I. Loi de comportement du tantale pur basée sur une densité de dislocations Le comportement plastique du tantale pur a. Contrainte d'écoulement à la transition élasto-plastique b. Ecrouissage du tantale 2. Modélisation du comportement basée sur une densité de dislocations a. Description du modèle b. Détermination des paramètres du modèle 42 42 42 45 46 46 49 Evaluation de la densité de dislocations équivalente par mesure de microdureté Vickers 1. La microdureté Vickers du tantale pur recristallisé a. Calcul de la dureté b. Cinématique de l'essai de dureté c. Nomenclature d. Influence du temps de maintien sur la microdureté du tantale pur recristallisé 2. Détermination de la relation dureté Vickers-densité de dislocations équivalente 57 58 59 59 60 60 61 1. II. III. 1. 2. 3. Description des microstructures de déformation dans le tantale Anisotropie de comportement plastique Hétérogénéités des microstructures intragranulaires Evolution de la microstructure aux grandes déformations Synthèse TROISIEME PARTIE. 63 63 65 69 72 75 CARACTERISATION DE LA RECRISTALLISATION STATIQUE ET DE LA CROISSANCE DE GRAINS DANS LE TANTALE PUR Introduction 76 I. La restauration, la recristallisation statique et la croissance de grains du tantale dans la littérature 1. Restauration statique 76 76 TABLES DES MATIERES 2. Recristallisation statique discontinue a. Influence des paramètres thermomécaniques du procédé b. La recristallisation à l'échelle granulaire c. Texture de recristallisation 3. Croissance de grains 4. Bilan II. 78 79 82 84 85 87 Etude de la recristallisation du tantale et identification d'une loi de restauration 88 1. Identification des paramètres de la loi de restauration du tantale 89 2. Observation et caractérisation de la recristallisation statique : traitements thermiques in situ couplés à la technique EBSD 90 a. Dispositif et procédure expérimentale 91 b. Analyse des microstructures de recuit par EBSD 92 c. Germination 93 d. Croissance des grains recristallisés dans le matériau déformé 95 e. Croissance de grains après la recristallisation 97 f. Estimation de la mobilité des joints de grains à 750°C 98 g. Observation de la recristallisation : surface vs volume 99 3. Déclenchement de la recristallisation et densité de dislocations équivalente critique 101 a. Caractérisation du gradient de densité de dislocations après déformation 103 b. Détermination de la courbe de densité de dislocations critique 105 4. Cinétiques de recristallisation du tantale pur et croissance de grains 109 a. Cinétique de recristallisation de référence à 1000°C 110 b. Influence de la température de recuit 111 c. Influence de la densité de dislocations initiale 112 d. Effet de la quantité de déformation 114 Synthèse QUATRIEME PARTIE. 116 119 MODELISATION DES EVOLUTIONS MICROSTRUCTURALES DU TANTALE AU COURS D'UN TRAITEMENT THERMIQUE Introduction 120 I. 120 120 122 123 124 1. 2. II. Description des microstructures initiales Microstructure initiale pour la croissance de grains Microstructures initiales pour la recristallisation a. Distribution de densités de dislocations b. Distribution de tailles de grains Simulation de traitements thermiques 126 1. Etude paramétrique du modèle de recristallisation 127 2. Identification des paramètres du modèle de recristallisation sur une microstructure proche des hypothèses de la modélisation 129 a. Identification de la mobilité aux faibles vitesses de migration a 1000°C 129 b. Identification des autres paramètres à 1000°C 130 c. Effet de la température sur les paramètres du modèle - Identification à 1100°C 134 7 8 TABLES DES MATIERES 3. III. Réponse du modèle au type de microstructure initiale a. Simulation d'un traitement thermique à 1000°C sur la microstructure 3 b. Simulation d'un traitement thermique à 1000°C sur la microstructure 2 136 136 137 Perspective d'amélioration de l'identification des paramètres et du modèle 1. Amélioration de l'identification des paramètres du modèle 2. Enrichissement de la base de données expérimentale 3. Perspectives d'amélioration du modèle de recristallisation statique 139 139 140 140 Synthèse CONCLUSION. 142 145 Synthèse 146 Perspectives 149 ANNEXES. 153 A1. Géométrie des éprouvettes utilisées lors des essais mécaniques 154 A2. Fichier matériau FORGE® du tantale pur pour la loi de comportement basée sur la densité de dislocations 156 A3. Protocole de préparation des échantillons de tantale pur pour une observation en EBSD 157 A4. Complément de l'étude expérimentale de mise en oeuvre de l'indentation Vickers sur tantale pur recristallisé 158 A5. Simulation de l'essai d'indentation Vickers 160 A6. Analyse quantitative des désorientations intragranulaires à partir des données EBSD 171 A7. Revue bibliographique des différents systèmes de chauffage in situ 172 A8. Méthode de mesure de la fraction recristallisée à partir de données EBSD 173 A9. Optimisation de la géométrie de l'essai double cône par simulation numérique 176 REFERENCES. 181 INTRODUCTION GENERALE. INTRODUCTION GENERALE 10 CONTEXTE La mise au point d'une gamme de fabrication et la garantie des propriétés en service sont des enjeux majeurs de l'industrie métallurgique. La connaissance de la microstructure en chaque point d'une pièce et tout au long de sa mise en forme permet de maîtriser les propriétés mécaniques finales. Pour des pièces de grandes séries réalisées dans un matériau commun, il est assez aisé de prélever des échantillons au cours du procédé pour connaître l'évolution de la microstructure. Il est ainsi possible, expérimentalement, d'optimiser le procédé et la pièce finale. Cela nécessite de nombreux essais et un savoir-faire qui demandent à la fois du temps et des moyens matériels et financiers. Pour des pièces de plus petite série, conçues dans des matériaux onéreux, il est plus difficile, voire impossible, de sacrifier une pièce à chaque étape de fabrication. Disposer de moyens numériques pour prédire la microstructure tout au long d'un procédé de fabrication est donc crucial pour connaître et optimiser les propriétés de la pièce finale, ainsi que pour réduire l'impact économique de la mise au point d'une gamme de mise en forme. Le travail réalisé durant cette thèse s'inscrit dans la cadre de la prédiction par simulation numérique de la microstructure au cours de la gamme de fabrication d'une pièce en tantale pur. La gamme de fabrication liée à ce travail est soumise à confidentialité. Le tantale, par sa grande ductilité à température ambiante, va permettre de réaliser des pièces de géométrie complexe en minimisant les risques de rupture. Les travaux présentés font directement suite aux travaux de thèse de (Houillon 2009). I. MATERIAU D'ETUDE : LE TANTALE EN TOLE EPAISSE Le tantale est un matériau rare de structure cristalline cubique centrée avec un paramètre de maille égal à 3,3 x 10-10 m. Il possède un haut point de fusion (2996 °C) et une forte densité (16650 kg.m-3). Comme pour tous les métaux, la déformation plastique à froid du tantale est due principalement au mouvement des dislocations sur des plans de glissement spécifiques à la structure cristalline. Pour la structure cubique centrée, il y a 3 familles de systèmes de glissement1 , et pour un total de 48 systèmes. Le vecteur de Burgers est égal à et a pour norme 2,86 x 10-10 m. Le tantale est très ductile à température am- biante. Lorsque la température augmente, les éléments comme l'hydrogène (à partir de 200°C), l'oxygène (à partir de 300°C), l'azote (à partir de 1100°C) ou le carbone (à partir de 1200°C) diffusent dans le tantale. La présence de ces atomes dans la maille cristalline fait chuter de manière notable sa ductilité tout en augmentant sa résistance. C'est pourquoi il est nécessaire d'effectuer les traitements thermiques dans un four sous vide secondaire. Dans cette étude, le matériau initial se présente sous la forme d'une tôle épaisse en tantale de haute pureté (> 99,95%). Une série de mesures de microdureté Vickers a été réalisée dans un plan contenant la direction normale à la tôle et donne une valeur de 91 ±2 HV0,3 (dans les conditions de la norme ISO 6507-1 avec un temps de maintien de 15 secondes). 1 Un système de glissement est défini par un plan de glissement et une direction de glissement. INTRODUCTION GENERALE Une analyse EBSD de la microstructure (figure i-1) a été effectuée sur le même plan que les mesures de microdureté. La tôle initiale présente une structure de grains assez grossière avec un diamètre moyen en nombre de 183 μm et en aire de 390 μm. Il est important de noter que malgré une zone d'analyse assez grande, le nombre de grains dans cette cartographie est faible (≈ 150 grains). On pressent alors que pour obtenir des données statistiquement représentatives il serait nécessaire d'analyser de très grandes zones, le problème étant d'avoir accès à de grandes zones déformées de manière homogène. La présence de joints de grains particuliers est un élément remarquable de cette microstructure. Il existe une proportion non négligeable de joints ayant une désorientation de 60° autour de l'axe <111>, joints que l'on peut apparenter à la configuration classique des macles dans un matériau de structure cubique face centrée. La forme et la configuration de ces joints de grains particuliers laisse penser à des macles de recuit qui se forment pendant la croissance de grains. Ce type de macles de recuit à déjà pu être observé dans d'autres matériaux de structure cubique centrée comme le fer (Simonsen 1960; Viltange 1975) ou le niobium (Wasilewski 1966). Dans la suite de cette étude, le caractère particulier de ces macles de recuit ne sera pas pris en compte. Figure i-1. Microstructure de la tôle initiale révélée par EBSD La figure i-2 montre la distribution réelle de tailles de grains en nombre extraite de la cartographie EBSD de la figure i-1. A cette distribution est superposé un modèle de distribution log-normale ayant la même moyenne et le même écart-type que la distribution réelle. Premièrement, on voit que les plus gros grains peuvent avoir une taille millimétrique. Deuxièmement, compte tenu de la statistique de cette cartographie, on peut estimer que la distribution réelle se rapproche d'une distribution log-normale. 11 12 INTRODUCTION GENERALE Figure i-2. Distribution réelle de taille des grains (diamètre) de la tôle initiale et comparaison avec une distribution log-normale Il ressort de cette observation que la microstructure de la tôle initiale est relativement hétérogène et présente des grains de taille millimétrique. Ce matériau initial va largement influencer la suite de l'étude car il sera notamment plus susceptible de créer des hétérogénéités de déformation propres à chaque échantillon et ainsi de générer des comportements spécifiques au cours de la recristallisation. Cette microstructure initiale peut donc générer une variabilité des résultats obtenus dans ces travaux, qu'il est difficile de quantifier. Remarque Dans cette étude, les résultats de travaux précédents (Houillon 2009) seront également utilisés et réexploités. Ces résultats ont été obtenus à partir d'un matériau initial légèrement différent. Ce matériau initial présentait une dureté Vickers de 82 ±2 HV0,3 et une taille de grains initiale moyenne en nombre de 48 μm (distribution de type log-normale). Pour obtenir la pièce souhaitée, la tôle initiale va subir plusieurs étapes de déformation au cours desquelles le matériau va stocker de l'énergie sous forme de dislocations. Il sera donc de plus en plus difficile de déformer la tôle sans risque de rupture. Des étapes de traitement thermique intermédiaire permettent de réduire l'énergie stockée dans le matériau par des modifications microstructurales, et ainsi de rétablir les propriétés mécaniques initiales ou d'ajuster ses propriétés pour arriver à celles souhaitées. Un traitement thermique est défini par cinq paramètres :  La vitesse de chauffage,  La température du palier de traitement,  La durée du palier de traitement,  La vitesse de refroidissement,  L'atmosphère dans laquelle est réalisé le traitement (vide secondaire pour le tantale). Ces paramètres ainsi que les conditions de déformation vont déterminer les évolutions microstructurales durant le traitement thermique. INTRODUCTION GENERALE II. LES EVOLUTIONS MICROSTRUCTURALES AU COURS D'UN TRAITEMENT THERMIQUE Au cours d'un traitement thermique, on peut observer trois phénomènes que sont la restauration, la recristallisation et la croissance de grains. Par opposition aux phénomènes ayant lieu au cours de la déformation et qualifiés de « dynamiques », les mécanismes décrits ici sont dits « statiques ». 1. Restauration statique La restauration statique consiste en une annihilation partielle des dislocations et en un réarrangement de celles-ci dans une structure en cellules. Cette structure est plus favorable énergétiquement car elle minimise l'énergie d'interaction entre dislocations. La restauration statique peut comporter différentes étapes (figure i-3) pour transformer une microstructure avec des dislocations enchevêtrées et distribuées uniformément en volume en une microstructure composée de cellules délimitées par des parois de dislocations. Le développement de la restauration va dépendre de la nature du matériau mais également de sa composition et de la température de traitement thermique. Elle va également être influencée par la microstructure issue de la déformation laquelle peut déjà avoir débuté le processus de restauration en conditions dynamiques. Le tantale est un matériau avec une énergie de défaut d'empilement assez élevée (41,4 mJ.m-2 (Wasilewski 1967)) qui va faciliter le mécanisme de restauration, et cela dès les étapes de déformation. Le matériau est donc sujet à la fois à de la restauration dynamique et à de la restauration statique. Figure i-3. Transformations de la microstructure au cours de la restauration statique (images extraites de (Humphreys & Hatherly 2004)) 13 14 INTRODUCTION GENERALE 2. Recristallisation statique discontinue La recristallisation discontinue est un processus de germination/croissance, c'est-à-dire que de nouveaux grains libres de dislocations vont apparaître et croître afin de régénérer la microstructure. Comme l'évoque Hutchinson (B. Hutchinson 1992), germination et croissance ne sont pas deux mécanismes réellement distincts. Un germe correspond à un petit élément de volume dans la matière qui a atteint les conditions pour croître dans la matrice déformée. Dans des conditions de température donnée, un germe est thermodynamiquement stable, c'est-àdire que la variation d'énergie libre volumique par rapport à son environnement doit être négative et supérieure en valeur absolue à la variation d'énergie libre de son interface . Cette condition thermodynamique dépend de la taille du germe potentiel ainsi que de la différence d'énergie stockée (densité de dislocations) entre le germe et son voisinage. De cette manière, la force motrice pour la migration de l'interface du germe est positive ce qui rend sa croissance possible. La deuxième condition pour qu'un germe puisse croître est que sa frontière doit avoir une mobilité importante. La mobilité de la frontière va fortement dépendre de la différence d'orientation de part et d'autre de celle-ci. L'angle de désorientation critique à partir duquel on peut considérer que la frontière sera suffisamment mobile est aux alentours de 15°. Si la frontière du germe n'a pas atteint cette désorientation limite lors de la déformation, il peut exister au début du traitement thermique un temps pendant lequel la structure va se réorganiser par restauration pour atteindre cette valeur de désorientation et diminuer la densité de dislocations interne au germe (et donc son énergie interne par rapport au voisinage). Ce temps est interprété comme un "temps d'incubation" pour la germination. La germination est par nature un régime transitoire. Dans la microstructure déformée, il existe de petits volumes de matière présentant les caractéristiques requises pour devenir des germes appelés « embryons ». Dès que toutes les conditions sont réunies, l'embryon devient un germe puis immédiatement un grain recristallisé qui va croître dans la matrice déformée. Un grain recristallisé contient très peu de dislocations. La force motrice de sa croissance est la consommation de l'énergie stockée dans la matrice déformée principalement sous forme de dislocations. Les différentes étapes de la recristallisation statique discontinue sont schématisées sur la figure i-4. Figure i-4. Schématisation du phénomène de recristallisation statique discontinue (images extraites de (Humphreys & Hatherly 2004)) INTRODUCTION GENERALE La germination va influencer de manière significative la microstructure de fin de recristallisation. En effet, plus la densité de germes est grande et plus les nouveaux grains recristallisés sont nombreux et entrent rapidement en contact en ayant consommé l'énergie de la matrice déformée. La taille de grains recristallisés est ainsi plus faible que dans le cas où la densité de germes est faible. La maîtrise du phénomène de recristallisation passe par la connaissance de l'effet des paramètres des procédés (conditions de déformation avant le traitement thermique, température et temps de traitement) sur les observables permettant de décrire la recristallisation: fraction volumique recristallisée et taille moyenne des grains recristallisés. 3. Croissance de grains Une fois la microstructure entièrement recristallisée, celle-ci continue d'évoluer. Les grains continuent à grossir afin de minimiser la surface totale de joints de grains. Cette phase appelée croissance de grains a une cinétique plus lente que la recristallisation. La force motrice pour la migration des joints de grains est liée à la courbure des joints de grains. Les grains les plus gros vont donc s'étendre aux dépens des plus petits grains, les premiers ayant généralement des formes concaves, alors que les seconds auront plutôt des formes convexes. III. OBJECTIFS DE L'ETUDE Le travail réalisé durant cette thèse se concentre sur la phase de traitement thermique pouvant intervenir dans la gamme de fabrication d'une pièce en tantale pur. L'objectif est double : 1/ Approfondir les connaissances sur les mécanismes d'évolution microstructurale dans le tantale au cours d'un traitement thermique. Cela implique principalement la recristallisation statique discontinue, et, dans une moindre mesure, la restauration et la croissance de grains. 2/ Prédire, pour une microstructure initiale donnée, la microstructure obtenue à l'issue d'un traitement thermique. 15 16 INTRODUCTION GENERALE IV. DEMARCHE Afin de prédire les microstructures en fin de traitements thermiques, nous avons choisi d'utiliser un modèle de recristallisation en champ moyen développé au CEMEF (Mines ParisTech). 1. Le modèle en champ moyen sera décrit dans son principe général dans la première partie de ce manuscrit. Les différents travaux réalisés au cours de cette thèse se sont articulés autour du modèle et se sont concentrés sur les moyens d'obtenir les données nécessaires à la simulation d'un traitement thermique. 2. La deuxième partie sera consacrée à la description de l'état déformé à travers une densité de dislocations équivalente qui sera évaluée par un essai de microdureté Vickers. Nous verrons également quel type de microstructure développe le tantale au cours de la déformation. 3. Après la description de l'état déformé, nous nous intéresserons à la caractérisation des évolutions microstructurales dans le tantale au cours d'un traitement thermique. L'attention sera portée particulièrement sur le déclenchement et la progression de la recristallisation en fonction des conditions de déformation et de traitement thermique. 4. La dernière partie sera focalisée sur l'adaptation et l'identification des paramètres du modèle de recristallisation en champ moyen dans le cas du tantale et à la confrontation des données obtenues en simulation avec les données expérimentales. 5. Enfin, nous conclurons sur les différents aspects abordés au cours de cette thèse pour dégager de ce travail les principales avancées ainsi que les perspectives d'amélioration concernant la prédiction des microstructures au cours d'un traitement thermique et plus largement d'une gamme de mise en forme. PREMIERE PARTIE. Modélisation en champ moyen des évolutions microstructurales au cours d'un traitement thermique 18 MODELISATION A CHAMP MOYEN DES EVOLUTIONS MICROSTRUCTURALES AU COURS D'UN TRAITEMENT THERMIQUE INTRODUCTION La prédiction des évolutions microstructurales au cours d'une gamme de mise en forme nécessite de modéliser les phénomènes susceptibles de se produire à cause de la déformation plastique, de l'énergie apportée ou retirée lors d'un traitement thermique (chauffage et refroidissement) ou encore à cause d'une combinaison de ces différents évènements. Lors d'un traitement thermique d'une pièce métallique, les phénomènes pouvant avoir lieu sont la restauration, la recristallisation statique et la croissance de grains. La modélisation des évolutions microstructurales que sont la recristallisation et la croissance de grains peut être utilisée à des fins différentes suivant que l'on se place d'un point de vue industriel (définition de gammes) ou d'un point de vue plus orienté vers la compréhension fine des phénomènes. Ces deux visions n'ont pas les mêmes attentes en terme de simulation des évolutions microstructurales, ce qui va conditionner les modèles utilisés dans un cas ou dans l'autre. D'un point de vue industriel, simuler les évolutions microstructurales implique de pouvoir prédire assez rapidement la microstructure de la pièce après traitement thermique, connaissant la microstructure de la pièce déformée avant le recuit. Cet état déformé peut être déterminé de deux manières, soit par une caractérisation expérimentale de la microstructure après déformation, soit par simulation de la gamme de mise en forme. Les pièces, généralement de grande taille, ayant subi une déformation hétérogène, la microstructure de l'état déformé sera décrite par des « zones quasi-homogènes », avec une taille de grains moyenne et une quantité de déformation affectées à chaque zone. L'objectif est globalement d'obtenir, pour chaque zone et en fonction du recuit, la taille de grains, la fraction recristallisée ou encore la texture. Les propriétés (principalement mécaniques) de la pièce dépendant en grande partie de ces paramètres microstructuraux, la modélisation permet ensuite d'adapter les conditions de déformation et/ou de traitement thermique afin d'obtenir les propriétés souhaitées. Du point du vue de la compréhension et de la description précise des phénomènes de recristallisation et de croissance de grains, l'objectif sera de décrire de manière explicite la microstructure à l'échelle du grain, ou de l'agrégat de grains, afin de rendre compte des hétérogénéités liées à la déformation ou à la nature des joints de grains. Ces modélisations permettent de bien retranscrire la réalité des évolutions microstructurales au cours d'un traitement thermique mais sont assez coûteuses en temps de calcul. Une modélisation à cette échelle peut valider ou invalider certaines hypothèses faites dans des modèles à moyenne ou grande échelle. Les modèles en « champ complet » sont ainsi intéressants pour étudier l'effet de certaines hypothèses sur la recristallisation ou de compléter certains points d'études correspondant à une caractérisation expérimentale qui est difficile ou impossible. Le premier point de ce chapitre sera consacré à un rapide état de l'art sur les méthodes de modélisation aujourd'hui disponibles et utilisées pour représenter la restauration, la recristallisation statique et la croissance de grains. Les grands types de modélisation seront décrits principalement en termes d'avantages et d'inconvénients et ce panorama permettra ainsi de positionner la modélisation en champ moyen vis-à-vis des attentes formulées. Le modèle en champ moyen à deux milieux homogènes équivalents fera l'objet du second point et sera décrit plus en détail. Le dernier point de ce chapitre s'attachera à proposer une stratégie d'identification des paramètres du modèle en champ moyen. MODELISATION A CHAMP MOYEN DES EVOLUTIONS MICROSTRUCTURALES AU COURS D'UN TRAITEMENT THERMIQUE I. LES DIFFERENTES METHODES DE MODELISATION DE LA RECRISTALLISATION ET DE LA CROISSANCE DE GRAINS Il existe principalement 3 grandes familles en dehors des modèles en champ moyen, de modèles pour la recristallisation statique discontinue et la croissance de grains. 1. L'approche originelle : Kolmogorov (JMAK) modèle analytique Johnson-Mehl-Avrami- La première approche utilisée pour décrire et quantifier les phénomènes basés sur le processus de germination/croissance a été développée à la fin des années 1930 (W. A. Johnson & Mehl 1939; Avrami 1939; Kolmogorov 1937). Ce modèle analytique et plutôt phénoménologique est connu sous le nom de modèle de Johnson-Mehl-Avrami-Kolmogorov (JMAK). Il est largement développé dans la littérature et notamment dans (Humphreys & Hatherly 2004). Le modèle JMAK est établi dans des conditions isothermes et suppose un état déformé homogène. Au moment où la recristallisation se déclenche, les germes supposés sphériques ou non (facteur de forme ) apparaissent à une vitesse de germination et croissent dans le matériau à une vitesse . Ainsi on peut suivre l'évolution de la fraction volumique recristallisée : Equation 1.1 Où d'Avrami. est une constante dépendant de , et de (équation 1.2), et est l'exposant Equation 1.2 Cette approche très simple considère que les vitesses de germination et de croissance sont constantes au cours de la recristallisation. Des améliorations ont été apportées au modèle en tentant de considérer une germination variable dans le temps, par exemple en « sites saturés » (Avrami 1939), c'est-à-dire avec une germination homogène mais immédiate (tous les germes commencent à croître dès l'instant initial). Cette modification du modèle initial montre que la loi de germination affecte l'exposant d'Avrami (tableau 1-1). On montre aussi que la dimensionnalité de la croissance joue sur la valeur de cet exposant. Tableau 1-1. Valeurs typiques de l'exposant d'Avrami n en fonction des conditions de germination et de la dimension de croissance considérée (Humphreys & Hatherly 2004) 3D 2D 1D Germination en sites saturés 3 2 1 Germination continue constante 4 3 2 La modélisation analytique de type JMAK est simple et permet de rendre compte rapidement d'une cinétique de recristallisation en conditions isothermes pour une microstructure simple et homogène. Cette approche ne considère pas la taille de grains ou encore la texture. La germination est aléatoirement distribuée en volume et ne rend pas compte de sites préférentiels potentiels pour l'apparition des nouveaux grains. 19 20 MODELISATION A CHAMP MOYEN DES EVOLUTIONS MICROSTRUCTURALES AU COURS D'UN TRAITEMENT THERMIQUE 2. Les approches probabilistes L'effort d'amélioration des modèles de recristallisation et de croissance de grains a principalement été porté sur la prise en compte des hétérogénéités de la microstructure. Ainsi, des méthodes décrivant la microstructure en 2D comme en 3D se sont développées (A D Rollett 1997). Les méthodes probabilistes de type Monte Carlo et Automate Cellulaire se basent sur une description (2D ou 3D) de la microstructure en grille régulière. Cette grille est composée de domaines géométriques d'orientation cristallographique donnée appelés « cellules ». Deux cellules sont considérées comme étant dans le même grain si leur désorientation ne dépasse pas la valeur seuil définie pour les joints de grains (A D Rollett 1997). Ainsi, un grain est décrit par un ensemble de cellules. A. LA METHODE MONTE CARLO Cette méthode a été appliquée dans un grand nombre d'études pour modéliser la recristallisation et la croissance de grains depuis leur développement dans les années 1980 (Srolovitz et al. 1983; Srolovitz et al. 1986; Srolovitz et al. 1988) jusqu'à plus récemment (Ivasishin et al. 2006; Chun et al. 2006; Montano-Zuniga et al. 2010). Chaque cellule de la grille régulière discrétisant la microstructure va évoluer à chaque pas de la simulation (Monte Carlo Step, MCS) suivant des règles probabilistes basées sur une minimisation de l'énergie de la cellule par rapport à son environnement (A D Rollett 1997). Les évolutions topologiques sont ainsi bien captées par le fait que les interfaces sont représentées par les faces des cellules. La représentation en grille régulière ainsi que l'application de règles simples à chaque pas de simulation, rend les méthodes de type Monte Carlo efficaces en termes de temps de calcul. Cependant, dans un souci de représentativité statistique, un nombre important de simulations doit être réalisé afin de compenser la nature probabiliste de la méthode Monte Carlo. Dans ce type de méthode, la germination en « sites saturés » peut simplement être réalisée en introduisant dans la microstructure initiale un certain nombre de germes aléatoirement distribués (A D Rollett 1997). La germination continue est simulée en introduisant des germes à intervalles de temps réguliers. La germination peut également être localisée au niveau des joints de grains et ainsi prendre en compte les hétérogénéités d'énergie stockée dans la microstructure déformée (Ivasishin et al. 2006). Dans des développements plus récents (Montano-Zuniga et al. 2010; Holm et al. 2003), la germination est modélisée par une croissance anormale de sous-grains. La méthode Monte Carlo présente deux principaux inconvénients. Le premier est lié au fait que l'évolution microstructurale se fait en fonction d'un pas de simulation (MCS). Il n'y a donc pas d'échelle de temps, ce qui rend difficile la comparaison avec les données expérimentales (A D Rollett 1997). Deuxièmement, les approches standard de type Monte Carlo ne permettent pas de rendre compte du caractère linéaire de la relation entre la vitesse de migration des joints de grains et la force motrice dans le cas de la recristallisation. Cette relation linéaire est uniquement vérifiée lors des simulations de croissance de grains (Ivasishin et al. 2006). MODELISATION A CHAMP MOYEN DES EVOLUTIONS MICROSTRUCTURALES AU COURS D'UN TRAITEMENT THERMIQUE B. LA METHODE DE L'AUTOMATE CELLULAIRE La méthode de l'automate cellulaire est également une méthode probabiliste mais elle s'appuie cette fois sur des règles représentant physiquement le phénomène considéré pour faire évoluer l'état des cellules représentant la microstructure (Raabe 1999). Le front de recristallisation est considéré comme irréversible et induit donc qu'une cellule non recristallisée va changer d'état si elle possède au moins une des cellules voisines dans l'état recristallisé. L'automate cellulaire est donc très efficace pour décrire l'évolution de la fraction recristallisée. Cependant, par cette méthode standard il n'est pas possible de prendre en compte la force motrice de migration des joints de grains due à leur courbure et à leur énergie (Anthony D Rollett & Raabe 2001). Des méthodes améliorées essaient cependant de prendre en compte cet effet de la courbure (Kugler & Turk 2006; Raghavan & Sahay 2009) et peuvent ainsi simuler en plus de la recristallisation, la croissance de grains. Dans les méthodes de l'automate cellulaire standard, la germination est déclenchée au début de la simulation (sites saturés). Un certain nombre de cellules, distribuées aléatoirement, sont déclarées comme recristallisées (A D Rollett 1997). Des évolutions de la méthode permettent de simuler la germination continue et de la localiser au niveau des joints de grains (Kugler & Turk 2006; Goetz & Seetharaman 1998). De même que pour la méthode Monte Carlo, une seule simulation en automate cellulaire ne suffit pas à obtenir un résultat statistiquement représentatif. Des améliorations notables ont été réalisées sur les méthodes Monte Carlo et de l'automate cellulaire afin de représenter tous les phénomènes ayant lieu pendant un traitement thermique. Une des voies d'amélioration étant même de combiner les deux méthodes pour en atténuer leurs inconvénients (Anthony D Rollett & Raabe 2001). 3. Les méthodes basées sur un maillage de la microstructure La dernière grande famille de méthodes de modélisation de la recristallisation statique et de la croissance de grains repose sur une description de la microstructure par un maillage. A. LA METHODE DES VERTEX Dans les méthodes dites « Vertex », les interfaces entre grains sont décrites par des noeuds placés aux points triples en 2D ou aux points quadruples en 3D et sur les joints de grains entre ces points (figure 1-1). L'idée de la méthode est de suivre les évolutions microstructurales par le suivi des mouvements de ces interfaces (Miodownik 2002; Le et al. 1999). Ces modèles permettent surtout de représenter la croissance de grains en 2D et 3D (Maurice & Humphreys 1998; Le et al. 1999; Weygand et al. 2001). Les méthodes Vertex ont ensuite été étendues à la modélisation de la recristallisation statique discontinue (Piękoś et al. 2008). Ces méthodes posent énormément de soucis lorsqu'il s'agit de gérer des événements topologiques tels que l'apparition ou la disparition d'un grain. La gestion des noeuds s'avère être un problème gérable en 2D mais très compliqué en 3D (Weygand et al. 2001; Syha & Weygand 2010). 21 22 MODELISATION A CHAMP MOYEN DES EVOLUTIONS MICROSTRUCTURALES AU COURS D'UN TRAITEMENT THERMIQUE   v γi μi κ Noeud au point triple Noeuds décrivant les joints de grains vitesse de déplacement du noeud énergie d'interface du joint de grain i mobilité du joint de grain i courbure locale au noeud Remarque : les énergies d'interface et les mobilités dépendent de la température T et de l'angle de désorientation θ Figure 1-1. Description d'un point triple et des joints de grains avoisinants par un modèle Vertex en 2D (Miodownik 2002) B. MÉTHODES À CHAMP DE PHASE & LEVEL-SET Les deux dernières méthodes présentées ici sont également utilisées pour modéliser la recristallisation statique discontinue et la croissance de grains (Zhao et al. 1996; Fan & L. Q. Chen 1997; Bernacki et al. 2009; Bernacki et al. 2011). Elles ont pour point commun de décrire la microstructure de manière implicite et de définir les interfaces par des fonctions. Dans la méthode à champ de phase, chaque grain est décrit par un champ de densité d'énergie libre et chaque joint de grains est décrit par une interface diffuse entre ces champs dans laquelle une fonction va varier entre 0 et 1 pour réaliser la transition entre chaque grain (Fan & L. Q. Chen 1997). Le joint de grains à proprement parler est défini comme une isovaleur de cette fonction de transition. La migration des joints de grains est pilotée simplement par la différence de densité d'énergie libre de part et d'autre du joint de grains (Miodownik 2002) et les évènements topologiques sont traités de manière naturelle par minimisation d'énergie (Miodownik 2002; Bernacki et al. 2009). La résolution des équations se fait en discrétisant à la fois l'espace (maillage) et le temps. Une des difficultés de cette méthode réside dans la bonne description des densités d'énergie libre afin qu'elles soient représentatives de la réalité physique du problème posé. De plus, cette méthode est pour l'instant très coûteuse en temps de calcul et a donc été peu développée en 3D (Moelans et al. 2009). Enfin, la modélisation de la germination reste difficile à mettre en place malgré des tentatives récentes (Takaki & Tomita 2010). De son côté, la méthode Level-Set se base sur un maillage éléments finis (figure 1-2) (Bernacki et al. 2009). En chaque noeud du maillage sont stockées des variables d'état permettant de décrire la microstructure en termes d'orientation cristallographique, d'énergie stockée, etc. Les interfaces sont définies par une fonction distance par rapport au joint de grains (Zhao et al. 1996). Un joint de grains correspond à une valeur nulle de cette fonction distance. Cette méthode a été employée afin de modéliser la recristallisation primaire en 2D et en 3D (Bernacki et al. 2009) avec différents types de germination en fonction du cas que l'on souhaite étudier. Le problème de la croissance de grains a été traité plus tard (Bernacki et al. 2011), permettant ainsi de modéliser entièrement les étapes successives de recristallisation et croissance de grains ayant lieu pendant un traitement thermique. Un des points demandant beaucoup d'attention dans ce type de méthodes est la réinitialisation des fonctions distance. Elle permet aujourd'hui, couplée à la méthode éléments finis de modéliser la recristallisation statique discontinue et la croissance de grains à l'échelle du grain. Elle permet aussi MODELISATION A CHAMP MOYEN DES EVOLUTIONS MICROSTRUCTURALES AU COURS D'UN TRAITEMENT THERMIQUE d'envisager la possibilité de déterminer l'état déformé à partir d'une simulation en plasticité cristalline et ainsi de coupler simulation de la déformation et simulation du traitement thermique (R E Logé et al. 2008). Figure 1-2. Exemple de microstructure 3D définie par la méthode Level-Set. Environ 200 grains sont modélisés et l'échelle indique la valeur de la fonction distance (bleu pour 0) (Bernacki et al. 2009) 4. Résumé Le tableau 1-2 résume les différentes caractéristiques, avantages et inconvénients de chaque méthode décrite ci-dessus. De ce panorama, il apparaît donc qu'en raison de la description simpliste de la recristallisation du modèle JMAK, les efforts se soient portés vers une description topologique de la microstructure et de ses hétérogénéités pour rendre compte de ces effets sur la recristallisation et la croissance de grains. Les méthodes présentées ci-dessus permettent d'étudier explicitement les phénomènes de recristallisation et/ou de croissance de grains à l'échelle du grain mais elles présentent encore des difficultés à représenter de manière fidèle et rapide les deux phénomènes en même temps. Afin de modéliser la recristallisation et la croissance de grains, nous avons donc choisi de nous concentrer sur une autre méthode de description de la microstructure grâce à un modèle en champ moyen. Cette méthode est intermédiaire entre une approche JMAK et les approches « topologiques ». Elle permet de représenter simplement la microstructure par des distributions de paramètres microstructuraux et des milieux homogènes équivalents (pas ou peu de topologie) tout en tenant compte des hétérogénéités de la microstructure. La modélisation en champ moyen apparaît donc comme une bonne alternative, avec des temps de calculs réduits, applicable dans un contexte industriel. 23 24 MODELISATION A CHAMP MOYEN DES EVOLUTIONS MICROSTRUCTURALES AU COURS D'UN TRAITEMENT THERMIQUE Tableau 1-2. Comparaison de différentes méthodes de modélisation de la recristallisation statique discontinue et de la croissance de grains Méthode Recristallisation statique discontinue Croissance de grains Avantages Modèle simple et rapide JMAK Monte Carlo Automate cellulaire Vertex Level-Set Champ de phase ++ + ++ - ++ + -- ++ + Méthode utilisant des règles simples Représentation explicite de la microstructure (topologie) Bonne gestion des évènements topologiques Prise en compte des hétérogénéités de la microstructure Représentation satisfaisante de la germination Méthode utilisant des règles physiques simples Représentation explicite de la microstructure (topologie) Bonne gestion des évènements topologiques Prise en compte des hétérogénéités de la microstructure Représentation satisfaisante de la germination Description explicite des interfaces par un maillage + ++ ++ Description de la microstructure et de ses hétérogénéités par un maillage (topologie) Représentation implicite des interfaces par une fonction distance Gestion simple des évènements topologiques Bonne gestion de la germination Description de la microstructure et de ses hétérogénéités par un maillage (topologie) Représentation implicite des interfaces par une fonction de transition Gestion simple des évènements topologiques Inconvénients Ne prend pas en compte la microstructure à proprement parler et ses hétérogénéités Pas d'échelle temporelle  comparaison difficile avec les données expérimentales en recristallisation Temps de simulation (représentativité statistique) Difficultés à prendre en compte la courbure des joints de grains dans la force motrice Temps de simulation (représentativité statistique) Gestion des évènements topologiques compliquée Modélisation de la germination difficile Pas de gradient d'énergie intragranulaire Extension en 3D trop complexe Réinitialisation des fonctions distances Temps de calcul Description des densités d'énergie Temps de calcul MODELISATION A CHAMP MOYEN DES EVOLUTIONS MICROSTRUCTURALES AU COURS D'UN TRAITEMENT THERMIQUE II. PRINCIPE DE LA MODELISATION EN CHAMP MOYEN A DEUX MILIEUX HOMOGENES EQUIVALENTS Le modèle choisi pour simuler et prédire la recristallisation statique discontinue et la croissance de grains dans le tantale est donc un modèle semi-analytique en champ moyen. Ce modèle se base en majeure partie sur un modèle de recristallisation dynamique précédemment développé au CEMEF (Mines ParisTECH) (Bernard et al. 2011) et seules quelques adaptations ont été réalisées pour le rendre utilisable en conditions statiques anisothermes. Un premier travail regroupant les modélisations dynamiques et statiques a été réalisé par Ke Huang dans sa thèse de doctorat (Ke Huang 2011). La microstructure est implicitement décrite par des distributions de tailles de grains et de densités de dislocations représentatives de l'énergie de déformation stockée dans le matériau. Ces deux grandeurs seront considérées comme des variables d'état, la densité de dislocations résultant elle-même des conditions thermomécaniques subies par le matériau. Dans un modèle en champ moyen, chaque grain représentatif interagit avec un milieu ayant les caractéristiques moyennes de la microstructure. Dans le cas de la modélisation des phénomènes dynamiques, toute la microstructure est continuellement déformée, et cela inclut également les grains recristallisés. La microstructure peut donc être représentée par un seul milieu homogène équivalent (Montheillet et al. 2009). Si la microstructure est homogène en terme de densité de dislocations, elle ne l'est par contre pas en terme de taille de grains, notamment à cause de l'apparition des nouveaux grains recristallisés. La nouveauté du modèle utilisé ici réside en la présence de deux milieux homogènes équivalents pour représenter à la fois les grains recristallisés (RX) et non recristallisés (NR). Grâce à ces deux milieux il est possible d'introduire des effets topologiques indirects (Bernard et al. 2011). Cette description est encore plus pertinente lorsque l'on souhaite décrire la recristallisation statique, la densité de dislocations étant très différente entre grains recristallisés et grains non recristallisés. La microstructure va évoluer par interactions entre chacun des grains représentatifs de la microstructure et ces deux milieux, selon des lois classiques de migration des joints de grains, de germination et de restauration. 1. Description de la microstructure initiale La microstructure initiale (3D) est discrétisée en un nombre fini de grains représentatifs G de la microstructure en termes de taille de grains r et de densité de dislocations . Chaque grain représentatif Gi est composé d'un nombre Ni de grains identiques considérés comme sphériques et caractérisés par un couple (ri,i) (figure 1-3). Chaque grain représentatif Gi est donc finalement décrit par un triplet (ri,i,Ni) où Ni représente un nombre de grains mais permet en fait de remonter à une fraction volumique. 25 26 MODELISATION A CHAMP MOYEN DES EVOLUTIONS MICROSTRUCTURALES AU COURS D'UN TRAITEMENT THERMIQUE Figure 1-3. Discrétisation de la microstructure en grains représentatifs dans l'espace (r,) (dans cet exemple, 49 grains représentatifs distincts) A. DISTRIBUTION DE TAILLE DE GRAINS 3D A partir de la taille de grains moyenne (diamètre moyen des grains en nombre et en trois dimensions), on construit une distribution des rayons des grains ayant pour valeur moyenne ( ). Cela permet de traduire l'hétérogénéité de taille de grains présente dans la microstructure. Cette distribution est, au choix, gaussienne ou lognormale, le but étant de représenter le plus physiquement possible une distribution réelle 3D de taille de grains. Pour calculer la distribution de taille de grains, il est nécessaire de fixer la plage sur laquelle la distribution sera définie. La plage de définition est délimitée par une borne inférieure qui est une fraction de la valeur moyenne (équation 1.3) et par une borne supérieure qui est un produit de la valeur moyenne (équation 1.4). Le facteur fg utilisé pour déterminer ces bornes est le même pour les deux extrémités. Equation 1.3 Equation 1.4 Cet intervalle de définition continu est ensuite discrétisé en mg catégories représentatives. Le poids de chaque catégorie est ensuite calculé suivant le type de distribution que l'on a choisi et l'on obtient ainsi une distribution 3D discrétisée de la taille de grains. B. DISTRIBUTION DE DENSITES DE DISLOCATIONS De la même manière que pour la taille de grains, on calcule une distribution gaussienne ou lognormale de la densité de dislocations à partir de la densité de dislocations moyenne représentative de la microstructure initiale. Cette distribution permet de représenter les hétérogénéités d'énergie stockée entre les différents grains représentatifs. Une plage de définition de la distribution de densité de dislocations est également fixée et les bornes de l'intervalle sont calculées comme suit à partir du facteur : MODELISATION A CHAMP MOYEN DES EVOLUTIONS MICROSTRUCTURALES AU COURS D'UN TRAITEMENT THERMIQUE Equation 1.5 Equation 1.6 Cette plage de définition est ensuite découpée en md catégories. C. CONSTRUCTION DE LA MICROSTRUCTURE REPRESENTATIVE 3D Pour construire la microstructure représentative en trois dimensions, les deux distributions précédentes sont combinées et le nombre de grains Ni dans chaque catégorie (ri, i) est déterminé à partir du poids Pg de ri dans la distribution de taille de grains et du poids Pd de i dans la distribution de densité de dislocations (équation 1.7). Equation 1.7 Le nombre de grains de chaque catégorie est ensuite normalisé pour s'assurer d'avoir un volume de la microstructure représentative égal à 1. La microstructure représentative est ainsi définie en 3D, elle est composée de catégories, toutes représentées par trois variables (ri,i,Ni) (figure 1-4). Figure 1-4. Microstructure représentative 3D utilisée par le modèle en champ moyen 2. Représentation des deux milieux homogènes équivalents L'idée de la modélisation en champ moyen est que chaque grain représentatif de la microstructure ne va pas interagir individuellement avec chacune des autres catégories de grains, mais avec un milieu homogène équivalent (MHE) à celles-ci. Dans le modèle développé au CEMEF (Bernard et al. 2011), chaque grain ne va pas interagir avec un seul MHE comme dans (Montheillet et al. 2009) mais avec deux MHE représen- 27 28 MODELISATION A CHAMP MOYEN DES EVOLUTIONS MICROSTRUCTURALES AU COURS D'UN TRAITEMENT THERMIQUE tatifs des grains non recristallisés (NR) et des grains recristallisés (RX) (figure 1-5). Chaque MHE est représenté par une densité de dislocations moyenne et une taille de grains moyenne. Figure 1-5. Représentation d'une microstructure partiellement recristallisée (à gauche) par deux milieux homogènes équivalents (à droite) 3. Les équations d'évolution de base Au cours de la simulation, les grains représentatifs de la microstructure vont évoluer selon 3 mécanismes élémentaires:  Migration des joints de grains,  Restauration,  Germination. Après une description de la modélisation des ces phénomènes, un dernier point concernera spécifiquement les interactions des grains représentatifs avec les milieux homogènes équivalents. A. MIGRATION DES JOINTS DE GRAINS La migration des joints de grains est due à la fois à la différence d'énergie volumique de part et d'autre du joint de grains et à l'énergie surfacique liée à la courbure locale du joint. La force motrice responsable de cette migration s'écrit donc (Humphreys & Hatherly 2004) : Equation 1.8 Où τ est l'énergie linéique moyenne des dislocations, γb est l'énergie surfacique moyenne des joints de grains, est la différence de densité de dislocations de part et d'autre du joint de grains et est la différence de courbure entre le grain considéré et son voisi- nage. Dans le cas de la modélisation en champ moyen, le concept de voisinage est remplacé par celui de milieu homogène équivalent. Les deux termes τ et γb sont estimés à partir des deux relations suivantes : Equation 1.9 MODELISATION A CHAMP MOYEN DES EVOLUTIONS MICROSTRUCTURALES AU COURS D'UN TRAITEMENT THERMIQUE Equation 1.10 Avec G le module de cisaillement élastique (en Pa) et b la norme du vecteur de Burgers (en m). La vitesse de migration des joints de grains est proportionnelle à cette force motrice : Equation 1.11 Où v est la vitesse de migration du joint de grains, m sa mobilité et la force motrice. Si la vitesse de migration est positive, le grain considéré va croître aux dépens du milieu homogène équivalent. Inversement si elle est négative, le grain rétrécit en taille. La mobilité d'un joint de grains dépend généralement de la température et de sa nature cristallographique (angle et axe de désorientation, plan cristallin). Cependant, le modèle n'ayant pas l'orientation cristallographique comme variable d'état, et cette dépendance étant souvent mal connue, nous ne la considérerons pas dans l'expression de la mobilité. Dans un métal pur, la mobilité est sensible aux impuretés présentes et notamment aux atomes en solution solide ségrégés aux abords des joints de grains (G Gottstein & Shvindlerman 1999). Même en très faible quantité, ces impuretés influencent significativement la vitesse de migration des joints de grains (D A Molodov et al. 1998). Selon la théorie de Cahn-Lücke-Stüwe (Cahn 1962; Lücke & Stüwe 1963), ces atomes en solution solide auraient un effet direct sur la mobilité d'un joint de grains suivant la vitesse de migration de celui-ci. Ils proposent une expression de la relation entre vitesse de migration v et force motrice :  Aux faibles vitesses de migration Equation 1.12  Aux fortes vitesses de migration Equation 1.13 Avec c0 la concentration des atomes en solution solide ségrégés aux joints de grains, m la mobilité intrinsèque des joints de grains, α et α' des constantes. On constate qu'aux fortes vitesses de migration, le second terme de l'équation 1.13 peut être négligé et on retrouve la relation classique entre vitesse de migration et force motrice. Dans le cas des faibles vitesses, l'équation 1.12 revient à dire que la mobilité des joints de grains change et devient égale à : Equation 1.14 La valeur de m' est donc inférieure à celle de m dans le régime des faibles vitesses de migration. Une difficulté réside dans la détermination du régime de vitesse de migration, la vitesse ne pouvant être calculée qu'en connaissant la mobilité. Nous avons donc choisi de diffé- 29 30 MODELISATION A CHAMP MOYEN DES EVOLUTIONS MICROSTRUCTURALES AU COURS D'UN TRAITEMENT THERMIQUE rencier les régimes, non pas par la vitesse de migration comme le veut la théorie de CahnLücke-Stüwe, mais par l'amplitude de la force motrice source de la migration des joints de grains (G Gottstein & Shvindlerman 1999). Une force motrice élevée entraîne généralement une migration rapide des joints de grains. Dans le modèle, nous introduisons donc un seuil en force motrice entre un grain et son environnement pour différencier les deux régimes de mobilité. Les vitesses élevées de migration des joints de grains étant généralement (mais pas uniquement) observées en recristallisation (force motrice liée à la densité de dislocations), nous noterons la mobilité aux fortes vitesses . De même, la mobilité aux faibles vitesses de migration sera notée car ces vitesses sont plutôt caractéristiques d'un régime de croissance de grains. En pratique, nous avons donc modifié le programme du modèle en champ moyen pour qu'il prenne en compte cette double mobilité qui serait attribuée à la présence d'atomes en solution solide au niveau des joints de grains. La dépendance en température de la mobilité s'écrit usuellement sous la forme d'une loi d'Arrhénius. Les deux mobilités et s'écrivent donc: Equation 1.15 Avec m0,i la constante de mobilité et Qm,i l'énergie d'activation de la migration des joints de grains pour le régime considéré, R la constante des gaz parfaits, T la température. Lorsqu'un joint va migrer, il va balayer la matrice déformée et laisser derrière lui un matériau avec une densité de dislocations très faible (0). Lors de l'augmentation de volume d'un grain, la densité de dislocations va donc diminuer en suivant l'équation suivante : Equation 1.16 B. RESTAURATION En raison de l'élévation de température, une partie des dislocations de l'état initial vont s'annihiler ou se réorganiser provoquant une diminution de l'énergie stockée dans les grains. La restauration peut être considérée soit à l'échelle locale soit à l'échelle macroscopique. Modéliser la restauration de manière locale revient à représenter directement la réorganisation des dislocations en une structure en cellules (Brechet et al. 2009) comme ce qui a pu être fait dans le cas de la modélisation de la recristallisation dynamique continue (Gourdet & Montheillet 2003). Dans notre cas, la microstructure n'est pas représentée avec autant de détails. Nous utiliserons donc une description macroscopique de la restauration qui entraîne une diminution globale de l'énergie stockée dans le matériau, cette énergie provenant de la densité de dislocations accumulée au cours de la déformation. Les lois de restauration sont le plus souvent établies de manière empirique et choisies, dans des conditions isothermes, sous la forme (Humphreys & Hatherly 2004) : Equation 1.17 Avec ρ la densité de dislocations, λ et m des constantes du modèle. L'annihilation et le mouvement des dislocations étant des phénomènes thermiquement activés, la dépendance à MODELISATION A CHAMP MOYEN DES EVOLUTIONS MICROSTRUCTURALES AU COURS D'UN TRAITEMENT THERMIQUE la température est introduite dans la relation (1.17) à travers une énergie d'activation pour le mouvement et l'annihilation des dislocations (Houillon 2009) : Equation 1.18 Où k est la constante de Boltzmann, T la température en Kelvin et Qr l'énergie d'activation du mouvement et de l'annihilation des dislocations. Une restauration complète du matériau (diminution de la densité de dislocations jusqu'à celle du matériau recristallisé) n'est possible que dans le cas des petites déformations plastiques (Masing & Raffelsieper 1950; Michalak & Paxton 1961). Sinon, pour des temps long, la densité de dislocations atteint une valeur asymptotique a priori supérieure à la valeur minimale . L'équation 1.18 est alors modifiée pour prendre en compte cet effet, et l'exposant est fixé à 2 (Houillon 2009) : Equation 1.19 Dans le modèle en recristallisation statique, la restauration ne s'applique donc qu'aux grains non recristallisés dont la densité de dislocations est supérieure à . C. GERMINATION Lorsque la densité de dislocations d'un grain représentatif est supérieure à la densité de dislocations critique , la germination est déclenchée et de nouveaux grains libres de dislocations sont créés. Il est généralement observé que plus l'échantillon est déformé et plus la recristallisation peut se déclencher à faible température. Ainsi, cette valeur critique sera exprimée en fonction de la température : Equation 1.20 Une fois cette densité de dislocations critique atteinte, le nombre de germes activés Ngermes est proportionnel au nombre total de sites potentiels pour l'apparition de nouveaux grains recristallisés. Si les nouveaux grains apparaissent de manière aléatoire et uniforme dans le volume, le nombre de sites potentiels sera proportionnel au volume total des grains pour lesquels . Si la germination se produit principalement aux joints de grains, la germination sera dite « en collier » et le volume total sera remplacé par la surface totale de joints de grains. Le nombre de germes activés par unité de temps pour une catégorie de grains Gi dépend de la taille de grains ri, de l'excès d'énergie stockée sous forme de dislocations par rapport à et donc du type de germination considéré (à travers un exposant q égal à 3 dans le cas d'une germination en volume et égal à 2 si la germination est en collier) : Equation 1.21 31 32 MODELISATION A CHAMP MOYEN DES EVOLUTIONS MICROSTRUCTURALES AU COURS D'UN TRAITEMENT THERMIQUE Où bg est une constante proche de 3 (Montheillet et al. 2009), Vcr le volume total ou Scr la surface totale des grains pour lesquels , Ni, ri et i le nombre de grains, la taille de grains et la densité de dislocations de la catégorie i. Le facteur de proportionnalité Kg dépend essentiellement de la température mais peut également dépendre du temps. En effet, un facteur constant dans le temps va permettre de simuler une germination continue. Au contraire, la germination en sites saturés pourra être modélisée avec Kg non nul uniquement au premier pas de temps durant lequel la germination apparaît. La taille des germes est calculée à partir d'une condition de stabilité d'un germe dans une matrice déformée pour laquelle : Equation 1.22 En considérant que , et un coefficient multiplicatif permettant de s'assurer de la stabilité du germe lorsqu'il apparaît, la taille du germe est donnée par : Equation 1.23 Les germes sont créés dans la microstructure représentative comme une nouvelle catégorie de grains avec une taille de grains initiale ru et une densité de dislocations égale à la densité de dislocations du matériau recristallisé, 0. Remarque Dans l'hypothèse d'une germination en sites saturés, un seul grain représentatif recristallisé est créé dans la microstructure. Une fois la recristallisation terminée, la microstructure sera donc représentée par ce seul grain qui interagira avec lui-même. La croissance de grains intervenant après la recristallisation ne pourra donc être simulée. D. INTERACTION AVEC LES MILIEUX HOMOGENES EQUIVALENTS Chacun des grains représentatifs va interagir à chaque incrément avec les deux milieux homogènes équivalents. Deux cas de figures se présentent, soit le grain considéré est recristallisé soit il ne l'est pas. Dans ces deux cas, on définit une fraction surfacique d'interface mobile entre le grain et le MHE pour lequel la force motrice est la plus importante (figure 1-6). C'est la cas des interfaces RX-NR. Les forces motrices pour un grain recristallisé s'écrivent, avec le milieu non recristallisé de taille de grains moyenne rav,NR et de densité de dislocations moyenne ρNR : Equation 1.24 Et avec le milieu recristallisé de taille de grains moyenne rav,RX et de densité de dislocations moyenne ρRX : MODELISATION A CHAMP MOYEN DES EVOLUTIONS MICROSTRUCTURALES AU COURS D'UN TRAITEMENT THERMIQUE Equation 1.25 Dans le cas de la recristallisation statique peuvent donc s'écrire : , les équations (1.24) et (1.25) Equation 1.26 Equation 1.27 Pour les grains non recristallisés : Equation 1.28 Equation 1.29 Figure 1-6. Définition (2D) des fractions surfaciques mobiles dans le cas d'un grain recristallisé (à gauche) et d'un grain non recristallisé (à droite) A partir de l'équation (1.11), les variations totales des volumes recristallisé aux dépends du MHE-NR ( ) et non recristallisé aux dépends du MHE-RX ( ) sur un incrément de temps sont données par : Equation 1.30 Equation 1.31 La fraction surfacique d'interface mobile représente la proportion d'interface d'un grain recristallisé en contact avec le milieu NR. Au début de la recristallisation, lorsque les nouveaux grains apparaissent et n'interagissent pas encore entre eux, est égale à 1. A partir 33 34 MODELISATION A CHAMP MOYEN DES EVOLUTIONS MICROSTRUCTURALES AU COURS D'UN TRAITEMENT THERMIQUE de la notion de volume recristallisé étendu définie par Avrami (Avrami 1939), qui ignore les interactions entre grains, on peut exprimer la variation réelle de volume recristallisé par : Equation 1.32 Avec X la fraction volumique de grains recristallisés. Ainsi, en comparant les équations (1.30) et (1.32), la fraction surfacique mobile évolue selon la loi suivante : Equation 1.33 Dans le cas d'une germination en collier, les grains recristallisés vont interagir plus vite que dans le cas d'une germination aléatoire en volume. La relation (1.33) a donc été modifiée (Bernard et al. 2011) pour prendre en compte le fait que décroît plus vite que : Equation 1.34 L'exposant n intervenant sur la fraction recristallisée est un paramètre difficile à obtenir, mais doit être inférieur à l'unité. Pour simplifier le problème, il est possible de considérer que les grains recristallisés vont entrer en contact tous en même temps, et qu'à ce moment là les grains non recristallisés seront tous complètement entourés de grains recristallisés. La fraction surfacique mobile sera donc approximée égale à 1 jusqu'à ce que deviennent égale à 1 (figure 1-7). Cette proportion d'interface entre un grain non recristallisé et le milieu RX est calculée à partir de et de la conservation du volume (1.35). Equation 1.35 Equation 1.36 croît de manière monotone jusqu'à atteindre 1. Ce paramètre est ensuite conservé constant et égal à 1 (ce qui correspond à des grains NR complètement entourés de grains RX) et un basculement s'opère. La fraction surfacique mobile décroît puisque les grains RX commencent à rentrer en contact. La décroissance est calculée à partir de l'équation : Equation 1.37 MODELISATION A CHAMP MOYEN DES EVOLUTIONS MICROSTRUCTURALES AU COURS D'UN TRAITEMENT THERMIQUE 1 Fraction d'interface mobile ou fraction recristallisée 0,9 0,8 0,7 γNR 0,6 γRX 0,5 X 0,4 0,3 0,2 0,1 0 Temps Figure 1-7. Evolutions des fractions d'interfaces mobiles au cours de la recristallisation Pour l'instant seules les interfaces RX-NR ont été considérées puisqu'étant les plus mobiles. Cependant, les interfaces entre grains et milieux de même type doivent également être prises en compte lors de l'évolution de la microstructure. En conditions statiques, la migration des interfaces entre grains recristallisés et le milieu RX sera uniquement entraînée par les effets capillaires. La variation de volume par grain représentatif lors d'un incrément de temps s'écrit (voir relations 1.30 et 1.31) : Equation 1.38 Equation 1.39 Dans un premier temps, seuls les grains pour lesquels ces interfaces peu mobiles vont entraîner une croissance seront considérés et un volume total « gagné » sera calculé pour les interfaces RX-RX ( ) et NR-NR ( ). Equation 1.40 Equation 1.41 Ce volume « gagné » est ensuite utilisé pour calculer le volume « perdu » par chaque grain représentatif pour lequel la force motrice tend à le faire décroître (équations 1.42 et 1.43). Ainsi, le volume est conservé. On note que les équations prennent en compte le fait que la décroissance sera d'autant plus importante que le terme sera grand en valeur absolue. Equation 1.42 35 36 MODELISATION A CHAMP MOYEN DES EVOLUTIONS MICROSTRUCTURALES AU COURS D'UN TRAITEMENT THERMIQUE Equation 1.43 Pour chaque grain représentatif, la variation de volume due à la migration des joints de grains s'écrit : Si , Equation 1.44 Si , Equation 1.45 A partir de cette gestion des différents volumes, le volume unitaire de la microstructure est conservé. 4. Implémentation numérique du modèle en champ moyen en conditions anisothermes La principale évolution par rapport au modèle dynamique décrit dans (Bernard et al. 2011) réside dans le caractère anisotherme des simulations de traitements thermiques. En effet, si l'on souhaite modéliser complètement les évolutions microstructurales, il est nécessaire de prendre en compte le chauffage et le refroidissement. A. GESTION DU PAS DE TEMPS Lors du chauffage ou du refroidissement, le pas de temps est automatiquement calculé à partir de la rampe de température considérée comme linéaire (1.46). Ce pas de temps est ajusté de manière à ce qu'entre deux incréments il y ait un écart maximum de température de 1°C. Equation 1.46 Avec la valeur absolue de la vitesse de chauffage ou de refroidissement. Lorsque le palier de température est atteint, la vitesse devient nulle et le pas de temps devient égal à . La valeur du pas de temps sur le palier est par défaut égal à 1s mais est modifiable par l'utilisateur. Ce pas de temps « thermique » peut être encore réduit selon le critère de disparition des grains représentatifs déjà présent dans le modèle dynamique. Dans le cas où un grain représentatif est en train de décroître, si le volume perdu avec le pas de temps initial est plus important que le volume disponible, le pas de temps initial est alors adapté. En considérant que la variation de volume est linéaire en fonction du temps, le pas de temps est recalculé pour générer une variation de volume égale au volume du grain qui disparaît. MODELISATION A CHAMP MOYEN DES EVOLUTIONS MICROSTRUCTURALES AU COURS D'UN TRAITEMENT THERMIQUE B. ALGORITHME La figure 1-8 présente un algorithme schématisé de la résolution du modèle de recristallisation et croissance de grains à partir du modèle en champ moyen à deux milieux homogènes équivalents. Initialisation de la microstructure Lecture des conditions (Ti , Tf, t) du TTH (palier, transitoire) Fin de la simulation OUI Séquence de TTH finie? NON Calcul du pas de temps « thermique »  t th Temps total de la phase atteint? OUI NON Migration des joints (calcul des fractions surfaciques mobiles) de grains et restauration T = T +  ti *Ṫ  t =  t –  ti Volumes négatifs? NON OUI Adaptation du pas de temps   ti  >  cr ? NON T = T +  ti *Ṫ  t =  t –  ti OUI Germination Actualisation de la fraction recristallisée X Actualisation des tailles de grains moyennes et de  av OUI   ti =  tth ? NON Figure 1-8. Algorithme schématisé de résolution du modèle en champ moyen 5. Récapitulatif et méthodes de détermination des paramètres du modèle Le modèle de recristallisation et croissance de grains proposé ci-dessus nécessite la détermination d'un certain nombre de paramètres spécifiques liés au matériau que l'on considère. Le tableau 1-3 résume les différents paramètres à déterminer et hypothèses qu'il est 37 38 MODELISATION A CHAMP MOYEN DES EVOLUTIONS MICROSTRUCTURALES AU COURS D'UN TRAITEMENT THERMIQUE nécessaire d'établir pour faire fonctionner le modèle. Différentes méthodes sont également proposées pour la détermination de ces inconnues. Tableau 1-3. Récapitulatif des paramètres et hypothèses liés au matériau pour simuler la recristallisation par le modèle en champ moyen (* renvoie à une description plus approfondie de la méthode de détermination, voir suite de la section 5) Microstructure initiale Paramètre ou hypothèse Symbole Densité de dislocations initiale (moyenne + distribution)  Taille de grains 3D (moyenne et distribution en nombre) Energie linéique moyenne des dislocations Energie surfacique moyenne des joints de grains Migration des joints de grains Densité de dislocations de l'état recristallisé Mobilité Restauration Germination τ γb 0 mReX ou GG : m0,ReX et Qm,ReX m0,GG et Qm,GG Seuil de transition entre les régimes de mobilité Type de loi Densité de dislocations critique cr Type de germination q Exposant de la loi de germination bg Constante de germination Kg - Méthodes de détermination * Microscopie optique et/ou EBSD (distribution) + conversion 2D/3D Littérature Littérature Littérature et/ou détermination à partir du comportement mécanique * Optimisation du modèle sur données expérimentales Littérature * Observation de la microstructure (optique et EBSD) Littérature (≈ 3 (Montheillet et al. 2009)) Optimisation du modèle sur données expérimentales La plupart des paramètres pourront être déterminés assez simplement à partir de la littérature ou d'observations de la microstructure. Pour certaines de ces grandeurs, nous proposons des méthodes expérimentales originales pour calibrer le modèle. A. DENSITE DE DISLOCATIONS DE L'ETAT INITIAL Alors que la taille de grains et sa distribution sont assez simples à obtenir par microscopie, la densité de dislocations de l'état initial est une grandeur plus complexe à mesurer expérimentalement. Nous proposons donc de l'évaluer à partir de mesures de microdureté Vickers en établissant une relation directe entre cette dureté et la densité de dislocations totale : Equation 1.47 Cette méthode sera décrite dans la deuxième partie de ce document. B. MOBILITE DES JOINTS DE GRAINS Cette grandeur est essentielle dans la modélisation de la recristallisation et de la croissance de grains. Dans le cas des métaux purs, nous avons vu qu'il était nécessaire de pouvoir MODELISATION A CHAMP MOYEN DES EVOLUTIONS MICROSTRUCTURALES AU COURS D'UN TRAITEMENT THERMIQUE distinguer deux mobilités suivant la vitesse de migration des joints de grains qui est directement reliée à la force motrice source de la migration. Dans le cas d'un matériau sans changement de phase, sans précipitation et dissolution de particules de seconde phase, la mobilité liée à la courbure locale des joints de grains pour une température donnée pourra être identifiée grâce à une expérience de croissances de grains. A cette même température, la mobilité aux vitesses de migration les plus élevées sera identifiée lors de la phase de recristallisation par comparaison entre les cinétiques expérimentales et celles obtenues par la simulation du traitement thermique. La dépendance en température de ces deux mobilités pourra être évaluée en réalisant ces mêmes expériences à des températures différentes. C. DENSITE DE DISLOCATIONS CRITIQUE Pour déterminer la densité de dislocations critique pour déclencher la recristallisation ainsi que sa dépendance en température, nous proposons de réaliser des essais mécaniques générant un gradient de déformation et donc de densité de dislocations. Ces échantillons déformés dont la densité de dislocations sera mesurée ou connue, seront ensuite recuits. La microstructure sera observée par microscopie pour définir à partir de quelle densité de dislocations on voit apparaître des grains recristallisés. En réalisant des traitements à plusieurs températures, on pourra ainsi déterminer la loi reliant la valeur de densité de dislocations critique et la température. Ces essais seront développés dans la troisième partie. 39 40 MODELISATION A CHAMP MOYEN DES EVOLUTIONS MICROSTRUCTURALES AU COURS D'UN TRAITEMENT THERMIQUE SYNTHESE Dans cette partie, nous avons pu justifier de l'intérêt d'utiliser un modèle semianalytique pour modéliser la recristallisation et la croissance de grains. Du panorama des modèles généralement utilisés, la modélisation en champ moyen apparaît comme un bon compromis permettant d'avoir des temps de simulation très courts tout en décrivant les hétérogénéités de la microstructure et leurs effets sur les évolutions microstructurales. Il sera ainsi possible de coupler cette modélisation à l'échelle dite mésoscopique à un code éléments finis (par exemple FORGE®) pour permettre de simuler la recristallisation statique discontinue et la croissance de grains à l'échelle d'une pièce industrielle. Le modèle en champ moyen utilisé et développé au CEMEF présente la nouveauté de modéliser l'environnement d'un grain représentatif par deux milieux homogènes équivalents représentant les grains non recristallisés et recristallisés. Il décrit les évolutions microstructurales par des mécanismes élémentaires que sont la migration des joints de grains, la germination et la restauration. Dans le cas des métaux purs et de la recristallisation statique, nous avons vu qu'il était nécessaire de pouvoir distinguer deux mobilités suivant la vitesse de migration des joints de grains qui est directement reliée à l'amplitude de la force motrice source de la migration. Le modèle initial a ainsi été modifié pour prendre en compte cet effet. L'implémentation numérique de ce modèle permet également une bonne gestion des pas de temps afin d'éviter des évolutions trop brusques de la microstructure. Pour bien modéliser la recristallisation et la croissance de grains, il est nécessaire d'identifier un certain nombre de paramètres et de faire des hypothèses sur les types de lois à utiliser en fonction du matériau considéré. La plupart de ces inconnues peuvent être déterminées par des méthodes classiques. Nous proposerons également dans la suite de ce document des méthodes expérimentales peu courantes pour identifier certains paramètres. Nous nous attarderons plus spécialement sur la densité de dislocations initiale, la mobilité des joints de grains, l'énergie seuil ou encore sur la densité de dislocations critique. Les parties suivantes sont dédiées à la recristallisation et la croissance de grains du tantale pur et à l'adaptation du modèle en champ moyen pour ce matériau. La deuxième partie sera consacrée à la caractérisation de l'état déformé en termes de densité de dislocations. Dans une troisième partie, nous nous attacherons à caractériser de manière expérimentale les mécanismes de recristallisation et de croissance de grains afin d'identifier les paramètres nécessaires au modèle et d'obtenir des données expérimentales avec lesquelles comparer les résultats de la modélisation. Enfin, la dernière partie sera consacrée à la modélisation du comportement en recristallisation du tantale et à l'évaluation de la pertinence du modèle. DEUXIEME PARTIE. Loi de comportement du tantale pur et description de l'état déformé 42 LOI DE COMPORTEMENT DU TANTALE PUR ET DESCRIPTION DE L'ETAT DEFORME INTRODUCTION Les évolutions microstructurales durant un traitement thermique vont largement dépendre de la microstructure de déformation. La description de cet état déformé est donc de première importance. Dans le modèle développé dans la partie 1, la microstructure est décrite par une distribution de tailles de grains et de densités de dislocations. L'évaluation des tailles de grains se fait de manière classique à partir d'observations de la microstructure de déformation par microscopie optique ou électronique. Les densités de dislocations peuvent, quant à elles, être déterminée soit par simulation de la déformation plastique soit par mesures expérimentales juste après la déformation. Expérimentalement, une solution consiste à réaliser la mesure d'une grandeur qui est influencée par la densité de dislocations : on parle de mesures indirectes. Dans cette deuxième partie, nous nous attacherons donc à ajuster une loi de comportement du tantale basée sur une densité de dislocations, qui a déjà été développée dans des travaux précédents (Buy 1996; Houillon 2009). Cette loi permettra de simuler la déformation plastique pour évaluer la densité de dislocations et sera également utilisée pour établir une mesure indirecte de celle-ci dans le tantale par une mesure de dureté Vickers. Nous examinerons enfin les microstructures de déformation à l'échelle du grain pour comprendre l'origine des hétérogénéités de microstructure intragranulaire dans ce matériau. I. LOI DE COMPORTEMENT DU TANTALE PUR BASEE SUR UNE DENSITE DE DISLOCATIONS 1. Le comportement plastique du tantale pur Le tantale pur est un matériau très ductile, dont le comportement dépend énormément des conditions thermomécaniques appliquées lors de la déformation. Pour identifier précisément une loi de comportement, il est important de pouvoir évaluer ces effets, notamment sur la contrainte à la transition élasto-plastique et sur l'écrouissage. Dans ce but, nous allons commencer par collecter et analyser les données de la littérature. A. CONTRAINTE D'ECOULEMENT A LA TRANSITION ELASTO-PLASTIQUE Nous allons tout d'abord nous intéresser à la contrainte élastique du tantale. Cette contrainte est définie comme la contrainte nécessaire pour passer d'un régime de déformation réversible (comportement élastique) à un régime irréversible (comportement plastique). En règle générale pour les métaux, la partie élastique du comportement d'un matériau est considérée comme linéaire. L'influence de la vitesse de déformation sur le comportement du tantale a été largement étudiée dans la littérature (Buy 1996; Fresnois 2001; Regazzoni 1983; Isbell et al. 1972; S. R. Chen & Gray III 1996; Hoge & Mukherjee 1977) et ceci pour différents modes de sollicitation simples : traction , compression et torsion. La figure 2-1 présente une compilation des contraintes d'écoulement de ces différentes études en fonction de la vitesse de déformation équivalente pour des essais réalisés à température ambiante. La contrainte d'écoulement aug- LOI DE COMPORTEMENT DU TANTALE PUR ET DESCRIPTION DE L'ETAT DEFORME mente avec la vitesse de déformation de 100 MPa à environ 550 MPa sur 8 décades (10 -5 s-1 – 103 s-1), soit une augmentation moyenne d'environ 55 MPa par décade. Le tantale est donc très visqueux à température ambiante. On constate également que ces données sont assez dispersées. Le tantale utilisé dans ces études, pouvant avoir des taux d'impureté légèrement différents, et le mode de sollicitation appliqué contribuent à cette dispersion. La méthode de détermination de la contrainte élastique est rarement indiquée, ce qui est également une source de dispersion dans les valeurs des différentes études. A partir de ces données, on peut calibrer une loi simple de type Norton-Hoff : Equation 2.1 Contrainte élastique σy (MPa) Avec KNH la consistance en MPa et mNH le coefficient de sensibilité à la vitesse de déformation. Les valeurs obtenues pour le tantale sont données dans le tableau 2-1. Pour comparaison, le coefficient de sensibilité à la vitesse de déformation du tantale à température ambiante ( ) est environ 4 à 5 fois supérieure à celui d'un acier IF à la même température (J. Jonas & Barnett 1997). 700 Compression 298 K (Buy, 1996) Compression 298 K (Chen & Gray, 1996) Compression 298 K (Hoge & Mukherjee, 1977) Compression 298 K (Isbell, 1972) Compression 298 K (Kapoor & Nemat Nasser, 2000) Torsion 298 K (Buy, 1996) Traction 298 K (Buy, 1996) Traction 298 K (Fresnois, 2001) Traction 298 K (Regazzoni, 1983) Norton Hoff 298 K Compression 900 K (Lassila, 2002) Compression 900K (Nemat Nasser & Kapoor, 2001) Norton Hoff 900 K 600 500 400 300 200 100 1E-05 1E-04 1E-03 1E-02 1E-01 0 1E+00 1E+01 1E+02 1E+03 1E+04 Vitesse de déformation équivalente (s-1) Figure 2-1. Evolution de la contrainte d'écoulement à la transition élasto-plastique en fonction de la vitesse de déformation équivalente (compilation de données de la littérature) à température ambiante Tableau 2-1. Paramètres de la loi de Norton-Hoff (2.1) identifiés pour le tantale pur à partir des données de la littérature Paramètre de la loi de Norton-Hoff Valeurs identifiées à température ambiante Valeurs identifiées à 900 K KNH 316 MPa 70 MPa mNH 0,081 0,145 La température va également entraîner une modification de la contrainte d'écoulement à la transition élasto-plastique. Malgré la difficulté de réalisation de ces essais (sous vide, secondaire si possible, pour des raisons d'oxydation), on peut néanmoins trouver dans la littérature des travaux se penchant sur cette dépendance de la contrainte d'écoulement à la température (Kapoor & Nemat-Nasser 2000; Nemat-Nasser & Kapoor 2001; Lassila et al. 2002; Hoge & Mukherjee 1977). Une série d'essais de compression à 900 K a été réalisée pour plusieurs vitesses de déformation de 0,0001 s-1 à environ 6000 s-1 (Kapoor & 43 LOI DE COMPORTEMENT DU TANTALE PUR ET DESCRIPTION DE L'ETAT DEFORME Nemat-Nasser 2000; Lassila et al. 2002) (figure 2-2). Les niveaux de contrainte diminuent évidemment avec l'augmentation de la température. La vitesse de déformation a toujours pour effet d'augmenter la contrainte d'écoulement. La sensibilité à la vitesse de déformation est augmentée avec la température, le coefficient mNH passant de 0,081 à 298 K à 0,145 à 900 K (sur la plage de vitesse de déformation équivalente 102 - 104 s-1). On retrouve ici l'équivalence temps / température, une augmentation de la vitesse de déformation ayant le même effet qu'une diminution de la température. A 900 K, la contrainte d'écoulement ne dépend plus de la vitesse de déformation lorsque celle-ci est comprise entre 10-4 et 10-1 s-1. La contrainte est alors égale à 100 MPa, niveau de contrainte qui est atteint à 10-5 s-1 à température ambiante. On retrouve cette notion de contrainte seuil lorsque l'on trace l'évolution de la contrainte d'écoulement en fonction de la température à vitesse de déformation constante (figure 2-2). On remarque également que la température à laquelle est atteinte cette contrainte seuil augmente avec la vitesse de déformation. Il existe donc, pour une vitesse de déformation donnée, une température au dessus de laquelle la contrainte d'écoulement à la transition élasto-plastique ne dépend plus de la température. On retrouve ici la notion de plateau athermique déjà évoquée pour le tantale (Buy et al. 1997). Le tableau 2-2 donne une estimation des températures auxquelles est atteinte cette contrainte athermique pour différentes vitesses de déformation. Conformément à l'équivalence des effets de température et de vitesse de déformation, le plateau athermique observé à haute température peut également être observé aux faibles vitesses de déformation (figure 2-1). 1200 0,0001 s-1 (Hoge, 1977) (Lassila, 2002) 0.1 s-1 (Lassila, 2002) 1000 Contrainte élastique σy (MPa) 44 3000 s-1 (Kapoor & Nemat Nasser, 2000) 800 600 400 200 0 0 100 200 300 400 500 600 700 800 900 1000 Température (K) Figure 2-2. Evolution de la contrainte d'écoulement en fonction de la température pour trois vitesses de déformation (compilation de données de la littérature) Tableau 2-2. Température seuil du plateau athermique pour trois vitesses de déformation -1 Vitesse de déformation (s ) Température du plateau athermique (K) Contrainte d'écoulement sur le plateau athermique -4 10 423 -1 10 650 100 MPa 3 3 x10 ≈ 2000 LOI DE COMPORTEMENT DU TANTALE PUR ET DESCRIPTION DE L'ETAT DEFORME B. ECROUISSAGE DU TANTALE L'écrouissage correspond à l'augmentation de la contrainte au cours de la déformation plastique. Dans le cas du tantale, cet écrouissage est de moins en moins important lorsque la vitesse de déformation augmente (figure 2-3.a), ce qui est un comportement assez inhabituel. L'écrouissage est même quasi nul lorsque cette vitesse est très élevée. L'effet de la température est moins clair mais il semble tout de même que l'écrouissage diminue lorsque la température augmente (figure 2-3.b). (a) (b) 250 180 0.0001 s-1 298 K 160 0.001 s-1 200 0.1 s-1 120 σ-σy (MPa) 150 σ-σy (MPa) 1000K 140 0.01 s-1 100 80 100 60 40 50 20 298 K 0,01 s-1 0 0 0 0,05 0,1 0,15 Déformation vraie 0,2 0,25 0,3 0 0,05 0,1 0,15 0,2 0,25 0,3 Déformation vraie Figure 2-3. Ecrouissage (différence entre la contrainte et la contrainte d'écoulement) du tantale pur (données extraites de (Kapoor & Nemat-Nasser 2000)) en fonction (a) de la vitesse de déformation à température ambiante (b) de la température à une vitesse de déformation de 0,01 s -1 Le phénomène important à noter dans le cas du tantale est la saturation de la contrainte aux grandes déformations. Dans le cas de déformations complexes en ECAE (Equal Channel Angle Extrusion) (Mathaudhu & Hartwig 2007) ou en « swaging » (Sandim et al. 2000), les auteurs observent une saturation de la dureté Vickers à des niveaux de déformation importants (> 2) (figure 2-4). Sur cette figure, on remarque que la dureté sature à des valeurs différentes. Cette observation ne peut être expliquée par les charges différentes utilisées pour la mesure de dureté Vickers, mais elle pourrait, en revanche, être liée à la différence de sollicitation mécanique (type de chargement et vitesse de déformation) entre les deux méthodes de déformation. L'écart existant déjà pour le matériau initial pourrait également être une source de cet écart sur la valeur de saturation de la dureté Cette saturation de la dureté est due à la restauration dynamique. Au cours de la déformation, les dislocations vont d'abord se multiplier avant de se réorganiser en cellules (Wei et al. 2003). A partir d'un certain niveau de déformation, la microstructure atteint un régime stationnaire, la contrainte et la dureté saturent. 45 LOI DE COMPORTEMENT DU TANTALE PUR ET DESCRIPTION DE L'ETAT DEFORME 250 200 Dureté Vickers 46 150 100 ECAP HV0.3 Cold swaging HV0.1 50 0 1 2 3 4 5 6 7 Déformation équivalente Figure 2-4. Saturation de la dureté après de fortes déformations pour deux types de sollicitation différents 2. Modélisation du comportement basée sur une densité de dislocations Afin de pouvoir prédire la densité de dislocations après déformation dans le tantale, nous allons utiliser les données de la littérature pour ajuster les paramètres d'une loi de comportement formulée avec la densité de dislocations comme variable interne. Des essais de compression uniaxiale et de torsion réalisés dans (Houillon 2009) seront réutilisés pour identifier cette loi. A. DESCRIPTION DU MODELE Le modèle de comportement utilisé depuis de nombreuses années au CEA DAM Valduc (Buy 1996; Farré & Buy 1999; Buy et al. 1997; Houillon 2009) s'appuie sur le formalisme proposé par Klepaczko (J. Klepaczko 1975). La contrainte est modélisée par deux composantes :  Une contrainte athermique qui dépend uniquement de la densité de dislocations  Une contrainte thermiquement activée correspondant au franchissement des obstacles à courte distance par les dislocations. Elle traduit les effets de la vitesse de déformation et de la température qui facilitent ou empêchent le franchissement de ces obstacles. La contrainte équivalente s'écrit donc sous la forme: Equation 2.2 Avec la contrainte athermique et la contrainte thermiquement activée (ou contrainte effective). Dans ce modèle, la contrainte athermique dépend d'une densité de dislocations qui sera exprimée en valeur relative vis-à-vis de la valeur minimale représentant l'état recristallisé. La densité de dislocations est donc ici une variable microstructurale représentative d'un état de contrainte macroscopique pour une microstructure donnée. Les valeurs de densité de dislocations identifiées seront donc dépendantes de la loi choisie pour les relier à la contrainte et également représentatives des effets de taille de grains, de composition chimique ou LOI DE COMPORTEMENT DU TANTALE PUR ET DESCRIPTION DE L'ETAT DEFORME d'anisotropie qui ont une influence sur le comportement mécanique et qui ne sont pas inclus dans le modèle. Il convient donc d'appeler cette variable interne « densité de dislocations équivalente », celle-ci pouvant différer significativement des densités réelles qui seraient mesurées, par exemple, par microscopie électronique en transmission. La grandeur relative est définie par : Equation 2.3 Avec la densité de dislocations équivalente du matériau recristallisé. Sauf indication contraire, le terme renverra toujours à cette valeur relative. Au cours de la déformation, la densité de dislocations équivalente va évoluer suivant (J. Klepaczko 1975) : Equation 2.4 Avec le facteur de multiplication des dislocations, le facteur d'annihilation des dislocations et ε la déformation équivalente. Il a été montré dans de précédents travaux que ne dépendait ni de la température (J. Klepaczko 1975) ni, dans le cas du tantale pur, de la vitesse de déformation (Buy 1996). peut donc être considéré comme une constante. Le facteur d'annihilation s'écrit lui sous la forme (Houillon 2009) : Equation 2.5 Où , et sont des constantes qui ont été identifiées (Tableau 2-3) dans les travaux de thèse de M. Houillon (Houillon 2009). Tableau 2-3. Valeurs des paramètres de la loi d'évolution de la densité de dislocations (Houillon 2009) -1 21 30 (K ) -0,00023 -1 (s ) 6 1,5 x 10 Usuellement, la contrainte mécanique due aux dislocations mobiles est exprimée par la relation : Equation 2.6 Avec α un facteur dépendant du mode de sollicitation (compris entre 0,2 et 0,5), M le facteur de Taylor moyen pour toutes les orientations cristallographiques (autour de 3 pour un métal cubique centré non texturé), μ le module de cisaillement, b la norme du vecteur de Burgers et ρ la densité de dislocations équivalente. Par analogie, la contrainte athermique du modèle ici présenté s'écrit : Equation 2.7 47 48 LOI DE COMPORTEMENT DU TANTALE PUR ET DESCRIPTION DE L'ETAT DEFORME Où est la constante athermique du modèle, homogène à une contrainte. La valeur de 120 MPa a été identifiée dans (Houillon 2009) (Tableau 2-4). Par comparaison des équations 2.6 et 2.7, cette constante peut s'écrire : Equation 2.8 Une fois cette constante athermique identifiée, on pourra estimer une valeur de la densité de dislocations équivalente du matériau recristallisé. La contrainte équivalente effective s'exprime par (Buy 1996) : Equation 2.9 Avec la contrainte effective à 0 K, k la constante de Boltzmann, T la température en K, l'énergie d'activation du franchissement des obstacles par les dislocations à 0 K et une constante du modèle. Les paramètres p et q traduisent les effets de géométrie des obstacles à franchir. Le tableau 2-4 regroupe les valeurs de tous ces paramètres identifiés dans les travaux de M. Houillon. Cette identification a été réalisée par minimisation globale de l'erreur entre les contraintes obtenues par la loi de comportement (comportant également l'écrouissage) et un jeu de courbes de comportement expérimentales issu d'essais de compression uniaxiale et de torsion à différentes vitesses de déformation équivalentes à température ambiante. Les paramètres p et q ont été fixés en s'appuyant sur les valeurs disponibles dans la littérature (Buy 1996). Tableau 2-4. Valeur des paramètres de la loi représentant la contrainte dans le tantale (Buy 1996; Houillon 2009) (MPa) 120 (MPa) 870 (J) -19 1 x10 -1 (s ) 6 1,5 x10 p 1 q 2 Au final, la loi décrivant la contrainte équivalente en fonction de paramètres microstructuraux et thermomécaniques s'écrit : Equation 2.10 Les paramètres de la loi d'évolution de la densité de dislocations (équations 2.4 et 2.5) s'ajoutant à ceux de cette loi d'évolution de la contrainte, la modélisation du comportement plastique du tantale requiert donc la détermination de 10 paramètres : , , , , p, q, , , et . Cette loi de comportement est théoriquement définie jusqu'à une vitesse de déformation équivalente maximale (ou si ). Cependant, elle a uniquement été validée à température ambiante pour des vitesses de déformation équivalentes comprises entre 10-4 et 102 s-1 dans les travaux de M. Houillon et de F. Buy (Buy 1996; Houillon 2009). LOI DE COMPORTEMENT DU TANTALE PUR ET DESCRIPTION DE L'ETAT DEFORME B. DETERMINATION DES PARAMETRES DU MODELE Les 10 paramètres du modèle de comportement ont été identifiés à partir d'essais de compression (Annexe A1) et de torsion sur tube (Houillon 2009). Les contraintes élastiques des essais de torsion ont été directement extraites des courbes contrainte-déformation présentées dans (Houillon 2009). L'analyse des résultats des essais de compression n'est pas aussi directe. En effet, les courbes force-déplacement des ces essais présentent un pic à la transition élastoplastique qui nécessitent de faire un choix dans la définition de la contrainte élastique et dans la nature du pic observé. Est-ce un durcissement dû à la présence d'atomes en solution au voisinage des dislocations, ou bien un adoucissement dû à une instabilité géométrique ? On fait ici le choix de considérer un adoucissement car il apparaît sur la courbe force-déplacement (figure 2-5) un point d'inflexion au cours de la déformation plastique qui, sinon, serait signe de deux régime d'écrouissage distincts. Nous avons donc corrigé chaque courbe de compression par la méthode suivante (illustrée sur la figure 2-5): 1. On considère que seul le début de la partie plastique de la courbe est influencé par l'adoucissement de la transition élasto-plastique (jusqu'au point d'inflexion). 2. On repère le point d'inflexion (partie plastique de la courbe expérimentale approchée par un polynôme de degré 3 puis celui-ci est dérivé deux fois). 3. On prolonge ensuite la courbe force-déplacement du point d'inflexion à la partie élastique en considérant une évolution linéaire avec une dérivée connue au point d'inflexion. En traitant les courbes de compression de cette manière, on réalise également un lissage des résultats qui nous servira par la suite dans l'optimisation des paramètres du modèle de comportement. L'ensemble des limites élastiques de ces essais de compression et de torsion réalisés à température ambiante sont conformes aux données récoltées dans la littérature (figure 2-6). 40 35 Partie non affectée par l'adoucissement Pic Force (kN) 30 25 Point d'inflexion 20 15 10 Courbe de compression brute prolongement linéaire 5 Courbe de compression traitée Partie élastique 0 0 1 2 3 4 5 6 7 Déplacement (mm) Figure 2-5. Méthode de traitement des courbes force-déplacement et de détermination de la limite élastique des essais de compression réalisés dans (Houillon 2009) 49 LOI DE COMPORTEMENT DU TANTALE PUR ET DESCRIPTION DE L'ETAT DEFORME 600 Données expérimentales de la littérature Compression M. Houillon 500 Contrainte élastique σy (MPa) Torsion M. Houillon 400 300 200 100 1E-05 1E-04 1E-03 1E-02 0 1E+00 1E-01 1E+01 1E+02 1E+03 1E+04 Vitesse de déformation équivalente (s-1) Figure 2-6. Comparaison des contraintes d'écoulement obtenues après analyse des essais de compression et de torsion réalisés lors des travaux de M. Houillon avec les données de la littérature Ce jeu de paramètres donne une bonne estimation de la contrainte d'écoulement à température ambiante (figure 2-7.b) mais rend moins bien compte des effets de température. D'une part, il ne permet pas de restituer correctement l'évolution de la contrainte avec la température pour une vitesse de déformation donnée (figure 2-7.a), de sorte que les températures auxquelles le palier athermique est atteint sont sous-estimées. D'autre part, la contrainte d'écoulement à 900K semble être bien restituée par le modèle seulement pour les fortes vitesses de déformations (figure 2-7.b). (a) (b) 1200 298K 900K 0.0001 s-1 Modèle 0.0001 s-1 (M. Houillon) 0.1 s-1 Modèle 0.1 s-1 (M. Houillon) 298K modèle 900 K modèle 600 500 Contrainte d'écoulement (MPa) 1000 Contrainte d'écoulement (MPa) 50 800 600 400 400 300 200 200 100 0 0 100 200 300 400 500 600 Température (K) 700 800 900 1000 1E-05 1E-04 1E-03 1E-02 1E-01 0 1E+00 1E+01 1E+02 1E+03 1E+04 Vitesse de déformation équivalente (s-1) Figure 2-7. Modélisation de la contrainte d'écoulement à partir des paramètres identifiés dans (Houillon 2009) (a) fonction de la température (b) fonction de la vitesse de déformation Nous nous proposons donc d'améliorer la modélisation du comportement plastique du tantale en prenant en compte dans l'identification des paramètres du modèle les données de la littérature. Ce travail permettra de valider que la loi utilisée permet de restituer un comportement mécanique moyen du tantale pur quel que soit sa provenance, et de mieux prendre en compte les effets de température. La prise en compte de ces effets thermiques pourra se révéler utile lors de la simulation de procédés de mise en forme en grande déformation induisant un auto-échauffement de la matière. LOI DE COMPORTEMENT DU TANTALE PUR ET DESCRIPTION DE L'ETAT DEFORME Nous allons tout d'abord nous intéresser à la transition élasto-plastique. La densité de dislocations équivalente relative est égale à 1, la déformation plastique macroscopique n'ayant pas encore débuté. La relation 2.10 devient : Equation 2.11 A partir des données expérimentales de la littérature présentées sur la figure 2.1, on voit que la contrainte sur le plateau athermique est environ de 100 MPa. Ainsi, la contrainte effective étant nulle sur ce plateau, on fixe la valeur de la constante athermique : En utilisant cette valeur dans la relation 2.8, on obtient une estimation de la densité de dislocations équivalente du tantale recristallisé (pour α =0,28 en compression (Farré & Buy 1999), b = 2,86 x10-10 m, μ = 69 GPa et M ≈ 3) : La prochaine étape va consister à déterminer les paramètres et à partir des températures de début du plateau athermique pour plusieurs vitesses de déformation. A la transition entre la zone thermiquement activée et le plateau athermique, la contrainte d'écoulement est égale à la constante athermique. Ainsi, Equation 2.12 D'où, Equation 2.13 Avec la température (en K) à laquelle est atteint le plateau athermique pour une vitesse de déformation . A partir des données estimées du tableau 2-2, on obtient : On peut, à partir de ces valeurs, construire la courbe donnant la température du palier athermique en fonction de la vitesse de déformation (figure 2-8). Cette température augmente lorsque la vitesse de déformation augmente et on remarque qu'à température ambiante la vitesse de déformation pour atteindre le plateau athermique est très faible (< 10-6 s-1). Lorsque l'on prolonge avec la loi de Norton-Hoff (équation 2.1) les données obtenues à 900 K pour les hautes vitesses (figure 2-1) vers les vitesses plus faibles, on atteint le palier athermique à environ 10 s-1. Cette valeur correspond bien à la valeur prédite à partir de la courbe de la figure 2-8 (environ 8,5 s-1). 51 LOI DE COMPORTEMENT DU TANTALE PUR ET DESCRIPTION DE L'ETAT DEFORME 3000 Température de fusion 2500 Température du palier athermique Tath (K) 52 2000 1500 1000 500 Température ambiante 1E-06 1E-05 1E-04 1E-03 1E-02 1E-01 0 1E+00 1E+01 1E+02 1E+03 1E+04 Vitesse de déformation équivalente (s-1) Figure 2-8. Température du palier athermique en fonction de la vitesse de déformation équivalente Une étude récente (Park et al. 2011) utilise la même modélisation de la contrainte effective. Les paramètres sont en revanche identifiés à partir des données en température et non en vitesse de déformation. La différence principale avec le jeu de paramètres établi par M. Houillon réside dans les valeurs de p et q. Les résultats obtenus montrent une bonne restitution de la contrainte effective en fonction de la température avec des valeurs de p = 0,3 et q = 1. Plusieurs valeurs de ces deux paramètres existant dans la littérature, nous les inclurons dans les paramètres du modèle qui restent à identifier. Pour ce qui nous concerne q, p et sont donc les trois paramètres variables dans l'identification du modèle de comportement pour représenter la contrainte élastique. Nous avons choisi d'optimiser la valeur de ces paramètres afin de minimiser, au sens des moindres carrés, l'écart entre l'ensemble des limites élastiques expérimentales regroupées sur la figure 2-1 et le modèle. Après optimisation, on obtient : Avec ce nouveau jeu de paramètres, on obtient les résultats présentés sur la figure 2-9. Tout d'abord, ces nouveaux paramètres permettent de mieux rendre compte de l'allure de l'évolution de la contrainte effective avec la température quelle que soit la vitesse de déformation (figure 2-9.a), même si les niveaux de contrainte ne sont pas respectés. Sur la figure 2-9.b, la contrainte d'écoulement calculée est correcte, en fonction de la vitesse de déformation et cela pour les deux températures (température ambiante et 900 K). Le nouveau jeu de paramètres (tableau 2-5) semble être un bon compromis entre la modélisation des effets de température et de vitesse de déformation et ceci pour des données provenant de différentes études sur du tantale pur avec des niveaux d'impuretés potentiellement différents. LOI DE COMPORTEMENT DU TANTALE PUR ET DESCRIPTION DE L'ETAT DEFORME (a) (b) 1200 700 900K 900 K modèle Contrainte d'écoulement (MPa) 1000 Contrainte d'écoulement (MPa) 298K 298K modèle 0.0001 s-1 0.1 s-1 3000 s-1 Modèle 0.0001 s-1 (nouveaux paramètres) Modèle 0.1 s-1 (nouveaux paramètres) Modèle 3000 s-1 (nouveaux paramètres) 800 600 400 600 500 400 300 200 200 100 0 0 100 200 300 400 500 600 700 800 900 1000 1E-05 1E-04 1E-03 1E-02 1E-01 0 1E+00 1E+01 1E+02 1E+03 1E+04 Vitesse de déformation équivalente (s-1) Température (K) Figure 2-9. Modélisation de la contrainte d'écoulement à partir des paramètres réidentifiés (a) fonction de la température (b) fonction de la vitesse de déformation Tableau 2-5. Nouveau jeu de paramètres pour la loi d'évolution de la contrainte utilisée dans le modèle de comportement du tantale pur Paramètres de la loi « contrainte » (MPa) (MPa) (J/at) -1 (s ) Nouvelles valeurs 100 1047 0,47 1,44 -19 1,28 x10 5 2,5 x10 Anciennes valeurs 120 870 1 2 -19 1 x10 6 1,5 x10 La loi décrivant la contrainte d'écoulement à la transition élasto-plastique étant maintenant établie, nous allons nous concentrer sur l'écrouissage et procéder à l'identification des paramètres des lois 2.4 et 2.5. Pour cela, nous allons nous baser sur les essais de compression réalisés dans la thèse de M. Houillon et décrits dans l'annexe A1. Sur les éprouvettes déformées, on observe une hétérogénéité de la dureté dans la hauteur de l'échantillon avec une dureté plus élevée au centre qu'au niveau des surfaces en contact avec les outils. Le frottement est responsable d'hétérogénéités de déformation non négligeables. De plus, ces essais ont été réalisés à vitesse de traverse constante, ce qui signifie que la vitesse de déformation moyenne est variable au cours du temps. La conversion des courbes force-déplacement en courbe contrainte-déformation à vitesse de déformation fixée serait donc incorrecte. Nous avons donc identifié les paramètres de la loi d'écrouissage par analyse inverse en utilisant le module d'optimisation du code utilisant la méthode des éléments finis Forge 2011®. Dans un premier temps, le facteur d'annihilation présentant lui aussi un palier athermique, nous avons décidé de modifier la forme de la loi du facteur d'annihilation par une autre forme de loi déjà utilisée pour le tantale (Farré et al. 2001). Cette nouvelle loi ressemble fortement à celle de la contrainte d'écoulement : Equation 2.14 Peu de données existent sur le facteur d'annihilation pour calibrer cette loi, et notamment pour calibrer la dépendance à la température. Selon (Farré et al. 2001), le plateau athermique à température ambiante concerne les vitesses inférieures à 5 x 10-2 s-1 (N.B. cette 53 LOI DE COMPORTEMENT DU TANTALE PUR ET DESCRIPTION DE L'ETAT DEFORME loi ne retranscrit pas correctement l'effet de la température. Le comportement mécanique étant caractérisé à température ambiante, nous choisissons tout de même de l'utiliser). Par ailleurs, le frottement en compression est évalué approximativement en comparant le bombé expérimental à un bombé obtenu par simulation numérique de l'essai sous Forge 2011®. On suppose ici que le bombé est uniquement dû à la géométrie du pion et au frottement. Par cette méthode, le coefficient de frottement (loi de Tresca, 2.15) entre le pion et les outils est estimé à 0,4 (comme évoqué dans (Houillon 2009)). Remarque – Loi de frottement de Tresca Equation 2.15 Avec la contrainte de cisaillement critique pour laquelle on déclenche le glissement relatif d'un corps par rapport à l'autre, le coefficient de frottement et la contrainte d'écoulement du corps le plus mou. L'optimisation consiste à déterminer les paramètres de la loi d'écrouissage en minimisant l'écart entre les courbes force-déplacement expérimentales et numériques. Le module d'optimisation de Forge 2011® se base sur un algorithme génétique pour déterminer les paramètres optimaux. La stratégie employée a été d'identifier en premier les coefficients et -1 à partir de l'essai de compression réalisé à 0,01 mm.s . On peut estimer la vitesse de déformation au début de l'essai comme étant de l'ordre de 10-3 s-1 ( ) et ainsi considérer cet essai comme étant sur le palier athermique du facteur d'annihilation. Après optimisation sur cet essai, la courbe force déplacement est très bien reproduite numériquement (figure 2-10) avec les paramètres suivant : 40 EXP 0,01 mm/s 35 SIMU 0,01 mm/s 30 25 Force (kN) 54 20 15 10 5 0 0 1 2 3 4 5 6 7 Course de compression (mm) -1 Figure 2-10. Comparaison de la simulation de l'essai de compression à 0,01 mm.s avec les données expérimentales et sont ensuite optimisés sur un essai hors du palier athermique. En l'absence de données expérimentales suffisantes, le paramètre d'activation pour l'annihilation des disloca- LOI DE COMPORTEMENT DU TANTALE PUR ET DESCRIPTION DE L'ETAT DEFORME 55 tions est choisi égal à 1 x 10-19 J/at (ordre de grandeur de , paramètre d'activation pour le franchissement des obstacles par les dislocations déterminé précédemment). En optimisant sur l'essai de compression à 1 mm.s-1 ( ), on obtient les paramètres suivant : Pour cet essai à 1 mm.s-1, la courbe numérique suit à nouveau bien la courbe expérimentale (figure 2-11). Mais de manière plus intéressante, les essais à 0,1 mm.s-1 et 10 mm.s-1 (figure 2-12) qui n'ont pas été utilisés pour l'identification des paramètres, révèlent aussi un bon accord entre simulation et données expérimentales. On peut noter que pour la vitesse la plus rapide, l'écart est toutefois plus important. Ceci peut être dû au fait qu'à cette vitesse l'autoéchauffement (pris en compte dans le calcul par la méthode des éléments finis) n'est pas négligeable et que la loi d'écrouissage est encore insuffisamment précise dans sa prise en compte des effets de température. 40 EXP 1 mm/s 35 SIMU 1 mm/s 30 Force (kN) 25 20 15 10 5 0 0 1 2 3 4 5 6 7 Course de compression (mm) -1 Figure 2-11. Comparaison de la simulation de l'essai de compression à 1 mm.s avec les données expérimentales 40 40 EXP 10 mm/s EXP 0,1 mm/s 35 SIMU 0,1 mm/s 30 30 25 25 Force (kN) Force (kN) 35 20 20 15 15 10 10 5 5 0 SIMU 10 mm/s 0 0 1 2 3 4 Course de compression (mm) 5 6 7 0 1 2 3 4 5 6 7 Course de compression Figure 2-12. Validation des paramètres identifiés par comparaison des simulations d'essais de compression (non utilisés pour l'identification) avec les données expérimentales Le nouveau jeu de paramètres ainsi identifié a également été utilisé pour modéliser des essais de torsion sur tube réalisés à la fois dans le régime statique et dans le régime dynamique (Houillon 2009). La figure 2-13 montre que le modèle surestime légèrement la con- 56 LOI DE COMPORTEMENT DU TANTALE PUR ET DESCRIPTION DE L'ETAT DEFORME trainte en torsion et cela pour toutes les vitesses de déformation. Néanmoins, le résultat apparaît satisfaisant et montre que la modélisation permet de reproduire le comportement mécanique pour différents modes de sollicitation. Il faut rappeler en outre que des essais en torsion mènent généralement à des contraintes d'écoulement inférieures à celles mesurées en compression, et ceci indépendamment du cas particulier du tantale (Jonhson & Cook 1983; Jaoul 2008). Figure 2-13. Modélisation du comportement mécanique en torsion (essais de torsion sur tubes (Houillon 2009)) En résumé A partir de données de la littérature et d'essais de compression uniaxiale (Houillon 2009), nous avons fait plusieurs observations sur le comportement plastique du tantale pur. Ce matériau est très visqueux à température ambiante avec un coefficient de sensibilité à la vitesse de déformation de 0,08. La contrainte d'écoulement à la transition élasto-plastique est typiquement d'environ 220 MPa à 0,01 s-1 et augmente d'environ 50 MPa par décade lorsque la vitesse de déformation augmente. On retrouve également l'équivalence vitesse de déformation-température classique puisque la contrainte d'écoulement diminue lorsque la température augmente. Le tantale pur présente, à vitesse de déformation constante, une température au delà de laquelle la contrainte atteint un seuil de 100 MPa et n'évolue plus. Ce phénomène est relié au fait qu'à partir d'une certaine température, le franchissement des obstacles par les dislocations est très facile et ne dépend plus de la température si celle-ci augmente. La température de ce plateau athermique augmente avec la vitesse de déformation. L'écrouissage du tantale pur est lui aussi un peu particulier. En effet, l'augmentation de la vitesse de déformation va diminuer l'écrouissage. L'effet de la température sur l'écrouissage est moins clair. On peut tout de même penser que l'écrouissage diminue lorsque la température augmente. Au cours de la déformation, en fonction de la température et de la vitesse de déformation, le tantale est sujet à la restauration dynamique. Ce phénomène lié à la déformation correspond à une annihilation et une réorganisation des dislocations en cellules. Plus la déformation augmente et mieux ces cellules seront définies jusqu'à atteindre un régime pour lequel les propriétés mécaniques du tantale pur saturent. On peut notamment atteindre un écrouissage nul aux hautes vitesses de déformation. LOI DE COMPORTEMENT DU TANTALE PUR ET DESCRIPTION DE L'ETAT DEFORME A partir de ces observations et des données sur le comportement plastique du tantale, un modèle de comportement basé sur une densité de dislocations équivalente a été réidentifié. Ce travail a permis d'améliorer la modélisation du comportement mécanique du tantale pur, notamment dans la prise en compte de la température par rapport aux études déjà réalisées au CEA DAM Valduc. Le nouveau jeu de paramètres est récapitulé dans le tableau 2-6. Tableau 2-6. Nouveau jeu de paramètres du modèle de comportement pour le tantale pur Paramètre (MPa) 100 Anciennes valeurs 120 (MPa) 1047 870 0,47 1 1,44 2 Contrainte d'écoulement (J/at) -1 (s ) Valeur réidentifiée -19 -19 1 x10 5 1,5 x10 1,28 x10 2,5 x10 21 24,5 Ecrouissage (J/at) -1 (s ) 6 1,6 - (loi différente) 11 - (loi différente) - (loi différente) -19 1 x10 8 2 x10 1,5 x10 6 Grâce à cette loi de comportement, nous disposons d'un moyen pour accéder à une densité de dislocations équivalente à partir de la mesure d'une contrainte. La suite de cette partie va être consacrée à établir une mesure expérimentale qui, grâce à cette loi, permettra d'accéder à la densité de dislocations. Le but final est d'obtenir une description de l'état déformé pour ensuite modéliser la recristallisation statique et la croissance de grains. II. EVALUATION DE LA DENSITE DE DISLOCATIONS EQUIVALENTE PAR MESURE DE MICRODURETE VICKERS Accéder expérimentalement à la densité de dislocations reste encore aujourd'hui très difficile. Les méthodes les plus courantes que sont la diffraction des rayons X et la microscopie électronique en transmission requièrent du matériel performant ainsi qu'une grande expertise pour extraire des mesures une densité de dislocations. Afin de rendre cette mesure plus simple et plus systématique dans le cas de la caractérisation d'une pièce industrielle, une relation entre microdureté Vickers (avec une charge de 300 gf) et densité de dislocations a été établie par (Houillon 2009). Cette relation est basée sur le lien qui existe entre la dureté Vickers (HV en MPa) et la contrainte d'écoulement (en MPa) à travers la relation de Tabor (Tabor 1951): Equation 2.16 Avec c la constante de Tabor ayant une valeur proche de 3 pour les métaux usuels. En associant à cette relation de Tabor, la loi de comportement basée sur la densité de dislocations 57 LOI DE COMPORTEMENT DU TANTALE PUR ET DESCRIPTION DE L'ETAT DEFORME équivalente, on obtient une estimation de la densité de dislocations équivalente à partir d'une mesure de dureté Vickers. Pour établir cette relation, l'indentation Vickers a été simulée numériquement à l'aide du code Forge 2011®. La dureté numérique résultant de la loi de comportement basée sur la densité de dislocations équivalente a ensuite été mise en relation avec la densité de dislocations initiale de l'échantillon numérique et ceci pour plusieurs valeurs initiales de la densité de dislocations (figure 2-14). 160 150 Dureté Vickers 300 gf numérique 58 140 130 120 110 100 90 80 0 1 2 3 4 5 6 7 8 9 Densité de dislocations équivalente relative Figure 2-14. Relation Dureté Vickers/densité de dislocations équivalente établie dans les travaux de (Houillon 2009) Cependant, on remarque que la dureté du tantale pur recristallisé (densité de dislocations équivalente de 1) prédite par cette relation est trop élevée par rapport à la dureté expérimentale (environ 82 HV0,3). De plus, lors de la détermination de cette relation, la cinématique réelle de l'indentation Vickers n'a pas été prise en compte. En effet, lors d'une mesure de dureté selon la norme ISO 6507-1, la mise en charge est instantanée, puis cette charge est maintenue pendant un temps compris entre 10 et 15 secondes. Dans l'analyse qui a été faite dans (Houillon 2009) pour estimer la densité de dislocations, ce temps de maintien n'a pas été pris en compte. De plus, la vitesse de l'indenteur a été considérée comme constante au cours de la mise en charge, avec une valeur de 33 μm.s-1 qui paraît éloignée d'une mise en charge instantanée. Dans la suite de cette partie, nous débuterons par une brève description de l'indentation Vickers et des points importants à retenir lorsque l'on souhaite utiliser un tel essai. Puis, nous déterminerons une nouvelle relation entre dureté Vickers (300gf) et densité de dislocations équivalente tenant compte de la cinématique réelle de l'indentation Vickers. 1. La microdureté Vickers du tantale pur recristallisé L'essai d'indentation consiste à faire pénétrer un indenteur dans un matériau sous une charge constante donnée. La dureté du matériau est calculée à partir de la taille de l'empreinte laissée par l'indenteur dans le matériau après la décharge. Le terme de microdureté (ou microindentation) renvoie à des valeurs de charge comprises entre 0.5 gf et 2 kgf. Il existe différentes échelles de dureté en fonction de la géométrie de l'indenteur. Il peut être sphérique (Brinell), conique, pyramidal à base triangle. Dans le cas de la dureté Vickers, LOI DE COMPORTEMENT DU TANTALE PUR ET DESCRIPTION DE L'ETAT DEFORME l'indenteur est une pyramide à base carrée en diamant. L'angle entre deux faces opposées de la pyramide est de 136° (figure 2-15). L'essai d'indentation Vickers suit la norme ISO 6507-1. A. CALCUL DE LA DURETE Dans le cas de l'indentation Vickers, l'empreinte laissée par l'indenteur est un carré (ou plus généralement un losange dans le cas d'une déformation anisotrope). On caractérise donc cette empreinte carrée par la longueur de sa diagonale (figure 2-15). Dans le cas où les deux diagonales ne sont pas identiques on donne une valeur de diagonale équivalente en faisant la moyenne des longueurs des deux diagonales. Figure 2-15. Géométrie de l'essai de dureté Vickers A partir de la force appliquée, de la taille de l'empreinte et de la géométrie de l'indenteur, on calcule la dureté Vickers du matériau par la formule suivante : Equation 2.17 Avec HV la dureté Vickers, F la charge appliquée (kgf ou N) et D la diagonale de l'empreinte (mm). La dureté est homogène à une contrainte, elle peut être exprimée en MPa si la force est exprimée en N. B. CINEMATIQUE DE L'ESSAI DE DURETE La microdureté Vickers est réalisée avec un microduromètre Buehler MicroMET 5124. Cette machine a deux cinématiques d'indentation suivant la charge employée. On sépare la cinématique des charges strictement supérieures à 25 gf à celle des charges inférieures ou égales à 25 gf. Dans le cas d'une charge de 300 gf, la mise en charge est réalisée par des masses mortes. L'indenteur approche la surface à une vitesse d'environ 60 μm.s-1 (la distance d'approche est calibrée par rapport à la mise au point réalisée sur la surface de l'échantillon). Une fois la surface atteinte, la mise en charge est réalisée à effort constant F. La vitesse d'indentation est alors libre. L'effort F est maintenu pendant un temps t, appelé temps de maintien (figure 2-16). Selon la norme, le temps de maintien est compris entre 10 et 15 s. Le microduromètre permet de faire varier ce temps de maintien entre 5 et 99 s. Figure 2-16. Evolution de la charge au cours d'une indentation Vickers réalisée avec une masse morte (F > 25 gf) 59 LOI DE COMPORTEMENT DU TANTALE PUR ET DESCRIPTION DE L'ETAT DEFORME C. NOMENCLATURE La dureté Vickers a une nomenclature bien précise selon la norme ISO 6507-1. Avec XXX la valeur de la dureté Vickers, F la valeur de la charge utilisée en kgf et t la valeur du temps de maintien (si hors de la plage préconisée dans la norme). Exemple Tantale recristallisé, charge de 300 gf avec un temps de maintien de 5 s D. INFLUENCE DU TEMPS DE MAINTIEN SUR LA MICRODURETE DU TANTALE PUR RECRISTALLISE La charge de référence choisie pour cette étude est 300 gf, ce qui correspond à un effort de 2,94 N. Pour cette charge et pour un temps de maintien de 5 s, la dureté du tantale pur recristallisé est de 87 HV0,3 /5. La figure 2-17 montre que ce temps de maintien a une influence significative sur la valeur de microdureté Vickers du tantale pur recristallisé. La dureté passe de 87 HV0,3 /5 à 77 HV0,3 /99. On remarque cependant l'existence d'un palier de dureté, à partir de 20 s. Cette forte dépendance au temps de maintien de la charge peut être attribuée à la forte viscosité du tantale à température ambiante. Lorsqu'on se trouve dans les conditions de la norme (entre 10 et 15 secondes), ce palier n'est pas encore atteint. Les normes sont généralement définies pour des matériaux très usités comme les aciers. Ces matériaux étant peu visqueux à température ambiante, un temps de maintien de 10 s environ doit être suffisant pour atteindre le palier observé pour le tantale au dessus de 20 s. Cette norme ne convient donc pas bien au tantale pur recristallisé pour une charge de 300 gf. Les dépendances de la dureté Vickers à la charge de l'essai et à la vitesse d'indentation sont détaillées dans l'annexe A4. 90 85 HV0,3 60 80 75 70 0 10 20 30 40 50 60 70 80 90 100 Temps de maintien (s) Figure 2-17. Influence du temps de maintien de la charge sur la microdureté Vickers du tantale pur (300 gf) LOI DE COMPORTEMENT DU TANTALE PUR ET DESCRIPTION DE L'ETAT DEFORME 2. Détermination de la relation dureté Vickers-densité de dislocations équivalente Compte tenu des résultats obtenus en simulation de l'indentation Vickers (annexe A5), il apparaît à ce stade difficile de développer la stratégie initialement prévue pour déterminer la relation entre dureté et densité de dislocations équivalente. En effet, les résultats de l'indentation numérique ne montrent pas un réel accord avec les données expérimentales même si les dépendances à la charge, au temps de maintien et à la vitesse d'indentation sont respectées. Ces simulations d'indentation ont en plus été réalisées à vitesse d'indentation constante, la cinématique réelle d'un essai de microdureté avec une charge de 300 gf s'avérant encore un verrou non résolu à ce stade. La solution envisagée pour contourner ce problème de simulation numérique de l'indentation consiste à établir une loi semi-expérimentale/semi-numérique à partir d'essais mécaniques réalisés sur du tantale pur et qui sont plus facilement simulables avec le logiciel Forge 2011®. Dans un premier temps, dans un pion utilisé pour déterminer le comportement mécanique en compression uniaxiale réalisée à 0,1 mm.s-1, on sait qu'il existe des gradients de déformation et donc de densité de dislocations. On réalise donc une série de mesures de dureté Vickers 300 gf le long de la hauteur de ce pion (figure 2-18.b) pour un temps de maintien de 5 s et un autre de 30 s. Ensuite, on utilise la simulation numérique de cet essai réalisée avec la loi de comportement basée sur la densité de dislocations équivalente pour en tirer les densités de dislocations équivalentes le long de cette même hauteur (figure 2-18.a). Ces deux grandeurs sont ensuite reliées par la position dans la hauteur du pion, ce qui nous donne une relation entre HV0,3 /5 ou /30 et la densité de dislocations équivalente (figure 2-18.c). Figure 2-18. Méthode détermination de la relation HV0,3/densité de dislocations équivalente 61 LOI DE COMPORTEMENT DU TANTALE PUR ET DESCRIPTION DE L'ETAT DEFORME Pour compléter ces données, on utilise également des couples HV0,3-densité de dislocations équivalente obtenus à partir d'un essai de compression sur éprouvette « double cône », détaillé dans l'annexe A9. La figure 2-19 présente l'ensemble des données recueillies pour les deux temps de maintien. On confirme ici l'importance de la prise en compte du temps de maintien dans l'établissement de cette relation entre dureté Vickers et densité de dislocations équivalente. L'effet de diminution de la dureté au cours du temps observé sur le tantale recristallisé est également présent pour du tantale déformé. 230 HV0,3 /5 210 HV0,3 /30 Puissance (HV0,3 /5) 190 Puissance (HV0,3 /30) 170 HV0,3 62 150 130 110 90 70 50 1 3 5 7 9 11 13 15 Densité de dislocations équivalente relative Figure 2-19. Relation entre HV0,3 /5 ou /30 et la densité de dislocations équivalente La dureté est directement liée à la contrainte à travers la relation de Tabor (2.16) et cette dernière est liée à la densité de dislocations équivalente par la loi de comportement que l'on a choisie (2.10). La contrainte dépendant de la racine carrée de la densité de dislocations équivalente, nous allons mettre la relation entre dureté et densité de dislocations sous la forme : Equation 2.18 A partir des données expérimentales (Figure 2-19), on identifie les paramètres a et b pour les deux temps de maintien, ce qui donne les relations suivantes : Equation 2.19 Equation 2.20 Ces deux équations (2-19 et 2-20) relient la dureté Vickers 300 gf à la densité de dislocations initialement présente dans le volume testé. On retrouve l'effet du temps de maintien sur la dureté Vickers (figure 2-19), lequel s'atténue légèrement pour les valeurs de densité de dislocations équivalente les plus importantes, ce qui semble cohérent. Malgré une stratégie initiale mise en défaut par la simulation numérique de l'indentation, une méthode semi-numérique / semi-expérimentale a été mise en place pour définir la corrélation existant entre dureté Vickers et densité de dislocations équivalente. Nous avons à présent deux relations permettant d'évaluer la densité de dislocations dans le tantale LOI DE COMPORTEMENT DU TANTALE PUR ET DESCRIPTION DE L'ETAT DEFORME à partir d'une mesure de dureté Vickers réalisée avec une charge de 300 gf pour un temps de maintien de soit 5 s soit 30 s. Il est à noter que les valeurs de temps de maintien sont hors des conditions définies par la norme ISO 6507-1. On prendra donc soin de spécifier le temps utilisé : HV0,3 /5 ou HV0,3/30. III. DESCRIPTION DES MICROSTRUCTURES DE DEFORMATION DANS LE TANTALE La densité de dislocations équivalente traduit l'état du matériau déformé à partir de la contrainte macroscopique qui le caractérise. Nous allons compléter cette approche mécanique par des observations en microscopie de microstructures de tantale ayant subi différentes conditions de déformation à température ambiante. Leur caractérisation permettra de montrer les spécificités des microstructures du tantale déformé à froid. 1. Anisotropie de comportement plastique Lors de la déformation plastique d'un polycristal, l'écrouissage est différent d'un grain à l'autre en fonction de l'orientation cristallographique et du type de sollicitation imposée. Cette hétérogénéité est mise en évidence dans un pion de tantale déformé en compression (déformation équivalente locale de 0,7 à une vitesse de déformation de l'ordre de 0,1 s-1) par le calcul des facteurs de Taylor (figure 2-20). Ce facteur nous renseigne sur l'activité des systèmes de glissement pendant la déformation. Un facteur de Taylor élevé indique une forte activité des systèmes de glissement et donc un écrouissage plus important que pour un grain présentant un facteur de Taylor plus faible. Figure 2-20. Cartographie des facteurs de Taylor d'un échantillon de Tantale déformé en compression La dépendance du comportement mécanique à l'orientation cristallographique d'un grain de tantale a été investiguée plus en détails dans (Vandermeer & Snyder 1979). Cette étude a été réalisée sur trois monocristaux d'orientations , et déformés à 80% par laminage à froid. Des mesures de dureté Vickers HV0,5 ont été réalisées au cours de la déformation pour estimer l'écrouissage de chaque monocristal et montrent que ceux-ci ont une réponse mécanique différente pour une même déformation 63 LOI DE COMPORTEMENT DU TANTALE PUR ET DESCRIPTION DE L'ETAT DEFORME (figure 2-21). Malgré une anisotropie peu marquée de la contrainte d'écoulement pour une déformation nulle, le monocristal atteint un niveau de contrainte plus important que les deux autres à la fin du laminage. 250 200 Dureté Vickers HV0,5 64 150 100 50 (001)[1-10] (112)[1-10] (111)[1-10] 0 0 20 40 60 80 Taux de réduction de l'épaisseur (%) Figure 2-21. Evolution de la dureté Vickers au cours de la déformation pour trois monocristaux de tantale déformés par laminage à froid (données extraites de (Vandermeer & Snyder 1979)) La différence d'écrouissage observée sur ces monocristaux va engendrer une dispersion de l'orientation cristallographique initiale (figure 2-22). Le monocristal d'orientation cristallographique est celui qui s'écrouit le plus et est également celui qui montre la plus grande dispersion de son orientation après déformation. Au contraire, le monocristal s'écrouissant moins, il a une orientation cristallographique peu dispersée après laminage. Ainsi, plus l'écrouissage est important et plus l'orientation se disperse. Figure 2-22. Figures de pole {200} de trois monocristaux de tantale pur après déformation par laminage à froid (Vandermeer & Snyder 1979) Cette dispersion est liée à la présence de dislocations qui provoquent des rotations locales du réseau cristallin et modifient donc l'orientation locale du grain. L'augmentation de la densité de dislocations va augmenter la dispersion de l'orientation cristallographique. Un bon marqueur de l'anisotropie de comportement plastique sera donc les désorientations intragranulaires qui seront estimée grâce au « Kernel Average Misorientation » (KAM) disponible dans le logiciel TSL OIM analysis et décrit dans l'annexe A6. LOI DE COMPORTEMENT DU TANTALE PUR ET DESCRIPTION DE L'ETAT DEFORME 2. Hétérogénéités des microstructures intragranulaires Nous avons évoqué précédemment que le comportement en plasticité du tantale était dépendant du type de sollicitation aussi bien que de l'orientation cristallographique. Un monocristal étant par définition sans grains voisins, la sollicitation mécanique pourra, dans de bonnes conditions de frottement, être considérée uniforme. Dans un polycristal, le voisinage de chacun des grains aura un impact direct sur tout ou une partie du grain en modifiant le tenseur local des vitesses de déformation. Ceci va engendrer des différences d'écrouissage au sein d'un même grain et donc des hétérogénéités des microstructures intragranulaires. La figure 223 présente les désorientations intragranulaires dans une microstructure d'un échantillon de tantale déformé par torsion jusqu'à une déformation équivalente de 0,64 à une vitesse de déformation de 0,05 s-1. On constate que ces désorientations sont hétérogènes à l'intérieur même d'un grain et que les désorientations les plus fortes se retrouvent au niveau des joints de grains et des points triples. Figure 2-23. Désorientations intragranulaires dans un polycristal de tantale déformé par torsion L'hétérogénéité de déformation intragranulaire va dépendre du niveau de déformation macroscopique équivalente et de la taille des grains. Sur la microstructure de la figure 2-23, on voit que les plus petits grains présentent déjà une microstructure intragranulaire plus homogène alors que les plus gros grains montrent de réelles différences d'écrouissage en fonction de la zone du grain considérée (figure 2-24). On imagine qu'à des niveaux plus faibles de déformation équivalente macroscopique, ces hétérogénéités seraient également visibles dans les plus petits grains. L'homogénéisation de l'écrouissage à l'intérieur d'un grain dépend également du changement de forme au cours de la déformation et notamment en torsion où les joints de grains ont tendance à se rapprocher. 65 LOI DE COMPORTEMENT DU TANTALE PUR ET DESCRIPTION DE L'ETAT DEFORME 66 Figure 2-24. Désorientations intragranulaires des grains de la microstructure de torsion (figure 2-23) ayant un diamètre équivalent supérieur à 200 μm L'augmentation des désorientations intragranulaires à proximité des joints de grains et des points triples dans un polycristal réside dans le fait qu'ils sont des lieux de fortes incompatibilités de déformation. Pour expliquer cette incompatibilité, certains auteurs de la littérature (Bolmaro et al. 1997; Mach et al. 2010) ont introduit la notion de co-rotation. Au cours de la déformation plastique, le mouvement des dislocations sur les plans de glissement induit une rotation de la maille cristalline. Due à l'anisotropie, cette rotation sera généralement différente entre un grain et son voisinage direct. Les grains d'un polycristal étant contraints, l'incompatibilité de déformation aux interfaces des grains sera d'autant plus grande que la rotation des grains voisins sera différente (angle de co-rotation élevé). Pour vérifier cette notion de co-rotation et son applicabilité pour le tantale, nous avons réalisé un essai de compression uniaxiale sur un oligocristal2 de tantale. L'oligocristal de tantale est un parallélépipède composé de 6 grains colonnaires (figure 2-25) extrait d'une plaque découpée dans un lingot. Cette plaque nous a généreusement été fournie par H.R.Z. Sandim de l'université de Sao Paulo au Brésil. Le repère macroscopique utilisé pour définir les orientations cristallographiques est également défini sur la figure 2-25. Pour éviter au maximum d'écrouir l'échantillon, il a été découpé à la scie à fil puis poli sur les 6 faces avant déformation. Le polissage a permis de réduire l'écrouissage superficiel et de diminuer le frottement avec les outils de compression. Une feuille de Téflon a été placée entre l'oligocristal et les outils de compression afin de réduire encore plus le frottement. Cet échantillon a été déformé en compression dans la direction Z jusqu'à une déformation vraie de 0,5 à une vitesse de déformation moyenne de 0,01 s-1. Les orientations ont été mesurées avant et après déformation par EBSD, après polissage selon le protocole détaillé dans l'annexe A3. Le tableau 2-9 recense les orientations moyennes mesurées avant et après déformation des 6 grains de l'oligocristal. Chaque mesure est réalisée loin des joints de grains pour considérer la microstructure indépendante du voisinage. 2 Echantillon possédant un faible nombre de grains de taille millimétrique LOI DE COMPORTEMENT DU TANTALE PUR ET DESCRIPTION DE L'ETAT DEFORME Tableau 2-7. Orientations cristallographiques moyennes des grains de l'oligocristal avant et après déformation Grain Orientation intiale (°,Euler,Bunge) Orientation finale (°,Euler,Bunge) 1 77 43 304 65 45 311 2 8 4 344 66 2 285 3 276 36 92 279 32 137 4 228 52 139 240 51 137 5 18 40 354 42 48 339 6 301 35 49 335 38 45 La figure 2-25 montre l'évolution de la géométrie de l'oligocristal entre l'état initial et celle après déformation. Le nombre de grains étant très faible et leur taille étant importante, on observe clairement que la déformation est très différente d'un grain à l'autre. On retrouve l'anisotropie de comportement déjà évoquée dans la section III.1 de cette partie. La surface libre de l'échantillon a une forme très perturbée par rapport au parallélépipède initial, les grains pouvant se déformer librement car non contraints par un voisinage. Figure 2-25. Oligocristal de tantale pur avant et après compression et repère de référence L'avantage de cette expérience réside dans la taille et dans le caractère colonnaire des grains de l'oligocristal. En effet, les cartographies réalisées à proximité des joints de grains seront considérées comme résultant uniquement du comportement des deux grains de part et d'autre du joint. Cette configuration apparaît idéale pour étudier l'effet de la co-rotation sur l'augmentation des désorientations intragranulaires aux joints de grains. Prenons pour exemple le grain 4 qui possède une interface avec chacun des 5 autres grains de l'échantillon. La figure 2-26 illustre l'augmentation de la désorientation intragranulaire au niveau des joints de grains. Chaque cartographie représente les gradients locaux d'orientation dans le grain 4 au voisinage de chaque autre grain. La cartographie des désorientations intragranulaires au centre du grain 4 est donnée comme référence. De chaque cartographie représentative d'une zone proche d'un joint de grains (figure 2-26), on extrait la valeur moyenne des gradients locaux d'orientation. Cette valeur est ensuite normalisée par le gradient d'orientation local moyen au centre du grain 4. La figure 2-27 représente ainsi l'augmentation relative des désorientations intragranulaires par rapport au centre du grain pour chacun des joints de grains (identifiés par le couple de grains de part et d'autre de la frontière). L'augmentation de la désorientation moyenne est différente à proximité de chacun des joints du grain 4 avec ses voisins. 67 LOI DE COMPORTEMENT DU TANTALE PUR ET DESCRIPTION DE L'ETAT DEFORME 45 μm 45 μm 5,05 /μm G5 G3 G4 G4 25 μm 20 μm Gradient local d'orientation G6 G2 45 μm G4 0 /μm Gradient local d'orientation à l'intérieur du grain 25 μm G4 G4 G4 G1 Figure 2-26. Cartographies des gradients locaux d'orientation au niveau des joints de grains dans le grain 4 3 Gradient local d'orientation moyen relatif 68 2,5 2 1,5 1 Gradient moyen au centre du grain 0,5 0 4-1 4-2 4-3 4-5 4-6 Joint de grains Figure 2-27. Influence des grains voisins sur les désorientations intragranulaires au voisinage des joints du grain 4 Le niveau de co-rotation est un angle représentatif de la rotation d'un grain par rapport à un autre, plus il est faible et plus les grains ont tendance à tourner de la même manière. La méthode de calcul du niveau de co-rotation est détaillée sur la figure 2-28. LOI DE COMPORTEMENT DU TANTALE PUR ET DESCRIPTION DE L'ETAT DEFORME Niveau de corotation = angle de désorientation Joint de grains La rotation du grain B est appliquée à l'orientation initiale du grain A Rotation du grain A soumis à la deformation Rotation du grain B soumis à la deformation Orientation initiale du grain A Orientation initiale du grain B Figure 2-28. Méthode de calcul du niveau de co-rotation En calculant le niveau de co-rotation pour chacun des couples de grains contenant le grain 4, on le compare ainsi à l'augmentation relative des désorientations intragranulaires au niveau de chaque joint de grains dans le grain 4 (figure2-29). Clairement, plus les deux grains de part et d'autre du joint de grains tournent de manière différente, plus l'incompatibilité de déformation est forte et plus les désorientations intragranulaires augmentent relativement au centre du grain. Gradient local d'orientation relatif 3 2,5 2 1,5 1 0,5 0 0 5 10 15 20 Niveau de corotation (°) Figure 2-29. Influence de la co-rotation sur l'augmentation relative des désorientations intragranulaires au niveau des joints de grains (grain 4) 3. Evolution de la microstructure aux grandes déformations Lorsque le niveau de déformation augmente à vitesse de déformation et température constante, on observe une saturation de la contrainte dans le tantale. Avec le modèle de comportement choisi dans ces travaux, cela se traduit par une saturation de la densité de dislocations équivalente qui laisserait à penser que la microstructure n'évolue plus. Dans le cas de la microstructure évoquée section III.2 ( ), la densité de dislocations équivalente relative est d'environ 6,2. Lorsqu'on augmente la déformation par un facteur 2 ( ), la densité de dislocation relative augmente peu (6,7) mais on peut tout de même voir des modifications au niveau de la microstructure (figure 2-30). Sur 69 LOI DE COMPORTEMENT DU TANTALE PUR ET DESCRIPTION DE L'ETAT DEFORME la figure 2-30.a, on voit toujours l'hétérogénéité des désorientations intragranulaires que l'on pouvait observer pour un niveau de déformation moins important. Cependant, lorsque l'on compare la distribution de ces désorientations avec la distribution de l'échantillon deux fois moins déformé (figure 2-30.b), on constate un léger déplacement du pic, un élargissement de la distribution et une désorientation maximum augmentée. Cette observation peut être le signe de la création de parois de dislocations générant des désorientations intragranulaires significatives et traduisant la formation d'une sous-structure en cellules délimitées par des parois de dislocations. (a) (b) 1,16°/μm 0,16 Niveau de déformation : 0,64 0,14 Niveau de déformation : 1,28 0,12 1 er voisin, pas de 1,44 μm 0,1 Fréquence 70 0,08 0,06 0,04 0,02 0 0 0°/μm Désorientations intragranulaires au 0,5 1 1,5 2 2,5 3 3,5 4 Désorientations intragranulaires (°/μm) 3 e voisin avec un pas de 1,44 μm Figure 2-30. (a) Cartographie des désorientations intragranulaires dans un échantillon de torsion (déformation de 1,28) (b) Distributions des désorientations intragranulaires pour deux niveaux de déformation ayant une densité de dislocation équivalente similaire Cette réorganisation des dislocations en une sous-structure en cellules est phénomène classique dans le tantale et assez largement observé dans les procédés induisant de fortes déformations (Vandermeer & Snyder 1979; Sandim et al. 1999; Sandim et al. 2000; Sandim et al. 2001; Wei et al. 2003; Mathaudhu & Hartwig 2006). Dans notre cas de torsion, la déformation augmentant encore ( ), on voit une fragmentation claire des grains (figure 231.a). Il est même difficile de reconnaître les grains initialement présents dans la microstructure non déformée. Dans ce cas, le processus de restauration dynamique a atteint des proportions telles que les sous-grains se sont transformés en grains. On retrouve d'ailleurs dans cette microstructure des preuves de restauration dynamique avec la présence de sous-joints de grains dans les grains ayant un diamètre équivalent supérieur à 1 μm (figure 2-31.b). LOI DE COMPORTEMENT DU TANTALE PUR ET DESCRIPTION DE L'ETAT DEFORME Figure 2-31. (a) Microstructure d'un échantillon de tantale déformé par torsion (3,5 de déformation) (b) désorientations intragranulaires dans les grains supérieurs à 1 μm Due à l'anisotropie de comportement et à l'hétérogénéité de l'écrouissage à l'intérieur même d'un grain, cette sous-structure générée par la restauration dynamique ne va pas se former de manière homogène dans la microstructure. La localisation de l'écrouissage aux joints de grains et aux points triples va favoriser la formation des sous-grains dans ces régions de la microstructure. En considérant la définition d'un germe de recristallisation, il est fort probable que les cellules formées au cours de la déformation soient des embryons de germes. La figure 2-32 montre, grâce à une image d'électrons rétrodiffusés d'un échantillon de tantale déformé en torsion, des cellules proches d'un joint de grains se retrouvant dans une configuration similaire à celle décrite dans certaines théories de la germination basée sur la croissance anormale de sous-grains (Holm et al. 2003; Brechet & Martin 2006). On comprend alors pourquoi le déclenchement de la recristallisation peut être facilité aux joints de grains et pourquoi plus la déformation augmente et plus la recristallisation sera rapide. Figure 2-32. (a) Sous-structure de déformation dans un échantillon de tantale déformé par torsion (Imagerie d'électrons rétrodiffusés) (b) Vue schématique du mécanisme de germination par croissance de sous-grains (Brechet & Martin 2006) 71 72 LOI DE COMPORTEMENT DU TANTALE PUR ET DESCRIPTION DE L'ETAT DEFORME SYNTHESE Dans cette deuxième partie, l'objectif principal était d'avoir un outil fiable permettant de décrire l'état déformé du tantale et notamment la densité de dislocations, pour alimenter la modélisation de la recristallisation. A partir de théories et de lois déjà existantes pour le tantale provenant de travaux précédents au CEA DAM Valduc, nous proposons de nouveaux paramètres afin d'améliorer la modélisation du comportement mécanique de ce matériau (tableau 2-8). Tableau 2-8. Tableau de synthèse de la loi de comportement choisie et identifiée pour le tantale Contrainte d'écoulement (MPa) 100 (MPa) 1047 0,47 1,44 (J/at) -1 (s ) -19 1,28 x10 2,5 x10 5 Ecrouissage 24,5 1,6 11 (J/at) -1 (s ) -19 1 x10 8 2 x10 Ce modèle permet de retranscrire l'évolution de la contrainte d'écoulement à la transition élastoplastique avec la température et la vitesse de déformation. Il permet également de bien reproduire l'écrouissage à température ambiante et donc de représenter la saturation des propriétés mécaniques. La modélisation du comportement mécanique permet d'avoir une description de la densité de dislocations équivalente en tout point d'une pièce par simulation numérique de la déformation plastique. Dans cette étude du comportement mécanique, nous avons pu estimer une densité de dislocations du matériau recristallisé à partir de considérations mécaniques. Cette valeur est très peu évoquée dans la littérature mais elle est essentielle dans la modélisation de la recristallisation par le modèle en champ moyen. On l'estime à : LOI DE COMPORTEMENT DU TANTALE PUR ET DESCRIPTION DE L'ETAT DEFORME Lorsque le calcul de la densité de dislocations équivalente n'est pas possible par simulation numérique, une mesure de microdureté Vickers représente une alternative expérimentale. Nous avons pu mettre en évidence que la dureté Vickers du tantale est fortement dépendante du temps de maintien : plus le temps de maintien augmente, et plus la dureté diminue, jusqu'à atteindre un palier de dureté. Nous avons établi une loi semi-expérimentale/seminumérique qui fait la corrélation entre des mesures de dureté Vickers à 300 gf réalisées sur un pion de compression et les densités de dislocations prédites par la simulation numérique de ce même essai de compression. Cette loi permettra à partir d'un essai de dureté Vickers avec une charge de 300 gf et un temps de maintien de 5 s de déterminer la densité de dislocations équivalente (équation 2.19). Une autre loi a été établie pour un temps de maintien de 30 s (équation 2.20). Equation 2.19 Equation 2.20 La description de la microstructure de l'état déformé est basée sur une seule densité de dislocations. Cette approche mécanique a été complétée par des observations en microscopie électronique à balayage de microstructures de tantale déformé. Ces observations nous ont permis de mettre en évidence l'anisotropie de comportement à l'échelle du grain. Cette anisotropie couplée aux hétérogénéités de la sollicitation mécanique à l'échelle locale, conduisent à des variations de l'écrouissage à l'intérieur même d'un grain. Certaines zones d'un grain, et plus particulièrement les zones où l'incompatibilité de déformation est la plus forte comme les joints de grains et les points triples, vont montrer de fortes désorientations intragranulaires après déformation. Conformément à la théorie de la co-rotation évoquée dans la littérature, nous avons mis en évidence que l'augmentation des désorientations intragranulaires au niveau des joints de grains est reliée au fait que les grains de part et d'autre du joint subissent une rotation différente sous l'effet de la déformation. Enfin, aux plus fortes déformations, nous avons pu voir le développement de la restauration dynamique formant une sous-structure composée de cellules délimitées par des parois de dislocations. Ce phénomène peut même conduire à la formation de nouveaux grains (recristallisation dynamique continue). Ces cellules semblent être des précurseurs de la germination de la recristallisation. A partir de cette observation de la microstructure, on peut penser que la distribution de densité de dislocations équivalente utilisée dans le modèle pourra décrire l'hétérogénéité de comportement (écrouissage) entre les grains après déformation. Cependant, il sera plus difficile de prendre en compte les hétérogénéités intragranulaires ainsi que la formation de la sous-structure en cellule. Dans la partie suivante, nous allons nous pencher sur les évolutions microstructurales dans le tantale pur au cours d'un traitement thermique qui suit une étape de déformation. Nous pourrons ainsi déterminer en quoi cette microstructure de déformation est importante et comment elle conditionne les modifications de la microstructure. 73 TROISIEME PARTIE. Caractérisation de la recristallisation statique et de la croissance de grains dans le tantale pur CARACTERISATION DE LA RECRISTALLISATION STATIQUE ET DE LA CROISSANCE DE GRAINS DANS LE TANTALE PUR 76 INTRODUCTION La première partie de ce manuscrit a été consacrée à la description du modèle qui sera utilisé pour simuler la recristallisation statique discontinue et la croissance de grains dans le tantale. L'utilisation de ce modèle requiert de définir au préalable un certain nombre de paramètres et/ou de phénomènes liés au matériau considéré. Dans cette optique, la seconde partie est focalisée sur la description de la microstructure de l'état déformé. Les variables microstructurales considérées sont la taille de grains et la densité de dislocations équivalente3 qui traduit l'énergie stockée dans le matériau au cours de la déformation. Cette troisième partie s'attache à décrire les phénomènes de recristallisation statique et de croissance de grains dans le tantale afin de déterminer une partie des paramètres ou hypothèses du modèle pour le cas du tantale. Ce travail permettra également de fournir des données expérimentales qui pourront être confrontées aux résultats de la simulation. Cette partie débute par une revue du phénomène de recristallisation du tantale dans la littérature avant de détailler la caractérisation expérimentale que nous avons pu réaliser afin de mieux maîtriser le phénomène de recristallisation statique. I. LA RESTAURATION, LA RECRISTALLISATION STATIQUE ET LA CROISSANCE DE GRAINS DU TANTALE DANS LA LITTERATURE En comparaison d'autres matériaux plus répandus dans le milieu industriel, la recristallisation et la croissance de grains dans le tantale ont été peu étudiées. Néanmoins, il apparaît tout de même que les différents travaux menés sur le tantale couvrent la majorité des aspects liés aux évolutions microstructurales au cours d'un traitement thermique. 1. Restauration statique La restauration statique correspond à un réarrangement et une annihilation partielle des défauts, principalement des dislocations, stockés dans le matériau pendant la déformation. C'est un phénomène thermiquement activé qui se produit avant que la recristallisation ne se déclenche. La restauration statique va se traduire par une diminution de l'énergie stockée. Dans le cas du tantale, ce phénomène a pu être caractérisé par des mesures de microdureté (Hupalo & Sandim 2001) qui ont par ailleurs été étudiées dans la deuxième partie, en tant que moyen d'évaluer l'énergie stockée dans un matériau. Des échantillons de tantale ont été déformés à trois niveaux de déformation, puis recuits à 4 températures entre 700 et 1000°C pour des temps de palier allant de 15 min à 2 h. A chaque temps de palier, des mesures de microdureté Vickers HV0,14 ont été réalisées dans les zones ne présentant pas de recristallisation. On peut ainsi avoir une idée des cinétiques de restauration dans le tantale et en tirer un certain nombre de conclusions. 3 Variable représentative de la microstructure dans la modélisation du comportement mécanique. Elle prend en compte la densité de dislocations totale, la taille de grains, les impuretés. 4 Essai d'indentation Vickers réalisé avec une charge de 0,1 kgf selon les conditions de la norme ISO 6507-1 CARACTERISATION DE LA RECRISTALLISATION STATIQUE ET DE LA CROISSANCE DE GRAINS DANS LE TANTALE PUR La restauration statique dépend de la température et du temps de recuit. Les données expérimentales sur la figure 3-1 montrent que la restauration entraîne une chute significative de la dureté dans les premières minutes du traitement thermique. Plus la température est élevée (pour un même état de déformation) et plus le phénomène de restauration diminue l'énergie stockée dans le matériau. Par la suite, pour des temps supérieurs à 15 min et quelle que soit la température, le phénomène est beaucoup plus lent. La dureté Vickers semble même tendre vers une valeur asymptotique. 150 700°C 800°C 900°C 1000°C 140 Dureté Vickers HV0,1 130 120 110 100 90 80 0 20 40 60 80 100 120 Temps de recuit (min) Figure 3-1. Evolution de la dureté Vickers HV0,1 du tantale en fonction du temps de recuit dans des zones en restauration pour une déformation équivalente de 1,3 (données extraites de (Hupalo & Sandim 2001)) La valeur asymptotique vers laquelle tend la dureté dépend de la température de recuit mais également de l'état microstructural issu de la déformation plastique. Le niveau de déformation seul ne permet pas de rendre compte de la microstructure. Il faut également prendre en compte la vitesse de déformation. Ne connaissant pas la vitesse de déformation, on la suppose identique pour tous les essais. La figure 3-2 présente l'évolution de la valeur de la dureté Vickers HV0,1 au bout de 2 h de recuit en fonction de la température pour trois niveaux de déformation. Cette valeur sera considérée comme proche de la valeur asymptotique de la dureté. Il est assez immédiat de constater que la valeur de dureté HV0,1 au bout de 2 h de recuit diminue fortement lorsque la température augmente. Pour les deux niveaux de déformation les plus faibles, la dureté évolue de la même manière et la différence de niveau de déformation n'est pas réellement significative. Pour le niveau de déformation le plus élevé, la pente d'évolution de la dureté en fonction de la température est plus élevée et permet finalement à la dureté « asymptotique » à 1000°C de devenir comparable à celles des deux autres niveaux. 77 CARACTERISATION DE LA RECRISTALLISATION STATIQUE ET DE LA CROISSANCE DE GRAINS DANS LE TANTALE PUR 130 ε = 1,3 125 ε = 2,8 120 ε= 5 115 Dureté Vickers HV0,1 78 110 105 100 95 90 85 80 600 650 700 750 800 850 900 950 1000 1050 1100 Température de recuit (°C) Figure 3-2. Valeur de la dureté Vickers HV0,1 au bout de 2 h de recuit en fonction de la température et de la déformation initiale (données extraites de (Hupalo & Sandim 2001)) Malheureusement, la valeur de la dureté Vickers HV0,1 du matériau avant déformation donnée dans ces travaux (Hupalo & Sandim 2001; Sandim et al. 2000) semble erronée. Dans le texte, il est évoqué une dureté de 66 HV5 alors que sur les figures apparaît une dureté de 66 HV0,1. La valeur la plus probable serait 66 HV5. On peut ainsi uniquement estimer une valeur de 85-86 HV0,1 pour le matériau initial à partir des mesures de dureté HV0,1 réalisées sur le matériau déformé puis recristallisé à 1100°C. En comparant les données des figures 3-1 et 3-2 à cette valeur hypothétique de dureté du matériau recristallisé, la restauration statique dans le tantale ne permet pas d'effacer complètement l'énergie stockée au cours de la déformation. Cette notion de valeur asymptotique de l'énergie stockée au cours de la restauration statique du tantale a également été évoquée dans d'autres travaux (Houillon 2009; Stüwe et al. 2002). Les données expérimentales extraites des travaux de (Hupalo & Sandim 2001) permettent également de dire que les premiers signes d'évolution de la microstructure apparaissent dès 600°C. Cela signifie que le temps passé au dessus de cette température est à prendre en compte si l'on veut suivre l'évolution de l'énergie stockée. Il est cependant assez rare que dans les études de recristallisation et de restauration menées sur le tantale, la vitesse de montée en température soit spécifiée. Sans cette donnée, les résultats deviennent plus difficiles à comparer car la restauration au cours du chauffage a en principe un effet sur la recristallisation (voir section I.2. de cette partie). 2. Recristallisation statique discontinue Dans la littérature, la recristallisation statique du tantale a été étudiée d'un point de vue macroscopique afin de déterminer les conditions de traitements thermomécaniques permettant de recristalliser le matériau. Nous verrons également qu'un effort important a été porté sur la compréhension des mécanismes locaux de recristallisation. Les différentes études ont été réalisées sur des échantillons de tantale pur (avec différents taux d'impuretés) déformés à froid par des procédés permettant de grandes déformations : CARACTERISATION DE LA RECRISTALLISATION STATIQUE ET DE LA CROISSANCE DE GRAINS DANS LE TANTALE PUR    ECAE (Equal Channel Angle Extrusion) (Hartwig et al. 2002; Mathaudhu & Hartwig 2006) « Swaging » (Hupalo & Sandim 2001; Sandim et al. 1999) qui consiste à réduire le diamètre d'un barreau par compression radiale. Laminage (Vandermeer & Snyder 1979; Raabe et al. 1994; Sandim et al. 2001; Sandim et al. 2005; Martorano et al. 2007) A. INFLUENCE DES PARAMETRES THERMOMECANIQUES DU PROCEDE Deux études portent particulièrement sur la caractérisation macroscopique de la recristallisation du tantale dans le cas de déformations obtenues par ECAE ((Hartwig et al. 2002), travaux complétés assez largement par la suite (Mathaudhu & Hartwig 2006)), et par « swaging » (Hupalo & Sandim 2001). Ces travaux utilisent la méthode de la microdureté Vickers pour caractériser la recristallisation en fonction de la température de recuit pour un temps de recuit donné. Ils se basent sur le fait que la fraction recristallisée augmentant, la dureté du matériau chute pour atteindre la dureté du matériau sans défauts lorsque qu'il sera 100% recristallisé. Cependant ces deux études ne sont pas strictement comparables, les temps de recuit ne sont pas les mêmes et la microdureté Vickers n'est pas réalisée avec la même charge. Les résultats les plus probants sont extraits de (Mathaudhu & Hartwig 2006) et sont présentés sur la figure 3-3. La courbe représente l'évolution de la dureté en fonction de la température pour des recuits de 90 min. La dureté évolue peu avant 600°C ce qui est le signe que la microstructure évolue peu ou pas. Au dessus de 1100°C, le matériau présente la dureté du tantale recristallisé sous une charge de 0,3 kgf et ceci quel que soit le niveau de déformation équivalente. Entre 800°C et 1100°C, la dureté chute brutalement, traduisant une modification significative de la microstructure, par recristallisation. Il n'est pas simple, à partir de ces courbes, de déterminer la température à laquelle la recristallisation va se déclencher car entre 600 et 800°C la diminution de dureté peut être due soit à la restauration, soit au début de la recristallisation. En revanche, il semble que la température pour laquelle, en 90 min, le tantale recristallise à 100%, dépend de la quantité de déformation. Plus la déformation équivalente va être élevée et plus la température de recristallisation totale sera faible. 250 ε = 1,15 230 ε = 2,3 210 ε = 4,6 Dureté Vickers HV0,3 190 170 150 130 ECAE Temps de recuit: 1h30 110 90 70 0 200 400 600 800 1000 1200 1400 Température (°C) Figure 3-3. Dureté Vickers HV0,3 du tantale déformé par ECAE après recuit de 90 min à différentes températures et pour trois niveaux de déformation (Mathaudhu & Hartwig 2006) 79 80 CARACTERISATION DE LA RECRISTALLISATION STATIQUE ET DE LA CROISSANCE DE GRAINS DANS LE TANTALE PUR Les travaux menés sur la recristallisation du tantale déformé par « swaging » (Hupalo & Sandim 2001) apportent quelques éléments supplémentaires en termes de cinétiques de recristallisation. Les informations qui sont données discriminent trois états de la microstructure en fonction du temps de recuit, de la température et de la déformation équivalente initiale : restauré, partiellement recristallisé et totalement recristallisé. Quelle que soit la déformation (dans la gamme considérée supérieure à 1,3), la recristallisation est complète pour une température de 1100°C à partir de 15 min de traitement. A partir de cette analyse qualitative de la recristallisation, on peut construire une « carte de recristallisation » pour chaque niveau de déformation (figure 3-4). On retrouve le fait que la recristallisation débute à température plus basse lorsque la déformation augmente. Il apparaît que la température de recristallisation totale ne diminue pas pour une déformation croissante. Du point de vue des paramètres du procédé, la recristallisation du tantale pur va également dépendre de la vitesse à laquelle le palier thermique est atteint (Beckenhauer et al. 1993). Pour un état de déformation donné, la température à partir de laquelle se déclenche la recristallisation diminue lorsque la vitesse de chauffage augmente (figure 3-5.a). Le fait que la recristallisation se déclenche plus tôt est lié à la diminution de l'énergie stockée par restauration qui est moindre lorsque le chauffage est rapide. Précédemment, nous avons pu voir que la restauration était active dès 600°C, il est donc intéressant de considérer ce problème en termes de temps passé au dessus de 600°C (figure 3-5.b). On observe bien sûr que plus le temps passé au dessus de 600°C est long, plus la recristallisation se déclenche tard. La baisse de la température de recristallisation est plus importante pour les temps faibles (vitesse de chauffage rapide) que pour les temps plus élevés. Cette observation est par ailleurs cohérente avec les données de la figure 3-1, montrant que la restauration est très active sur les 15 premières minutes de traitement. Des études similaires ont été réalisées sur l'aluminium (Attallah et al. 2010) et sur le molybdène (Primig et al. 2012) montrant bien l'influence de la restauration sur la recristallisation. D'autres travaux ont cherché à modéliser cette influence de la restauration sur la recristallisation (Stüwe et al. 2002; Brechet et al. 2009; Price 1989). Certains de ces auteurs suggèrent que la restauration pourrait également avoir pour effet de faciliter la recristallisation en aidant à la formation des germes. La température de début de recristallisation serait alors plus basse, ce que l'on n'observe pas ici. CARACTERISATION DE LA RECRISTALLISATION STATIQUE ET DE LA CROISSANCE DE GRAINS DANS LE TANTALE PUR εeq = 1,3 1100 RECRISTALLISATION TOTALE Zone d'incertitude Température de recuit (°C) 1000 RECRISTALLISATION PARTIELLE 900 Zone d'incertitude 800 RESTAURATION 700 15 30 45 60 75 90 105 120 90 105 120 90 105 120 Temps de recuit (min) εeq = 2,8 1100 RECRISTALLISATION TOTALE Zone d'incertitude Température de recuit (°C) 1000 RECRISTALLISATION PARTIELLE 900 800 Zone d'incertitude RESTAURATION 700 15 30 45 60 75 Temps de recuit (min) εeq = 5 1100 RECRISTALLISATION TOTALE Zone d'incertitude Température de recuit (°C) 1000 900 RECRISTALLISATION PARTIELLE 800 Zone d'incertitude RESTAURATION 700 15 30 45 60 75 Temps de recuit (min) Figure 3-4. "Cartes de recristallisation" pour différents niveaux de déformation (construites à partir de (Hupalo & Sandim 2001)) 81 CARACTERISATION DE LA RECRISTALLISATION STATIQUE ET DE LA CROISSANCE DE GRAINS DANS LE TANTALE PUR (a) (b) 1200 1200 Pour un état de déformation donné Pour un état de déformation donné Temprétaure de débute de recristallisation (°C) 1100 Température de début de recristallisation (°C) 82 1000 900 800 700 600 1 10 100 1000 10000 Vitesse de chauffage (°C/min) 1100 1000 900 800 700 600 0 20 40 60 80 100 120 140 Temps passé au dessus de 600°C (min) Figure 3-5. Effet de la vitesse de chauffage (a) et du temps passé au dessus de 600°C (b) sur la température de début de recristallisation (Beckenhauer et al. 1993) B. LA RECRISTALLISATION A L'ECHELLE GRANULAIRE L'observation en détails de la microstructure d'un échantillon de tantale recristallisé (Hupalo & Sandim 2001) montre très clairement que l'approche macroscopique supposant la recristallisation homogène est rapidement mise en défaut. Différentes observations montrent l'inhomogénéité de la microstructure du tantale recristallisé ou partiellement recristallisé :  Présence de grains restaurés subsistant dans une microstructure recristallisée quasi totalement (figure 3-6.a),  Différence notable de taille de grains par « régions » correspondant aux anciens grains déformés (figure 3-6.b). (a) (b) Grains recristallisés Grain restauré Figure 3-6. Inhomogénéités d'une microstructure recristallisée (micrographies MEB/BSE) (a) présence d'un grain restauré (grain inférieur) dans une structure recristallisée. A noter la différence de taille de grains au niveau de l'interface avec le grain restauré (Sandim et al. 2005) (b) hétérogénéité de taille de grains (Hupalo & Sandim 2001) Cette hétérogénéité de la microstructure recristallisée est due à l'hétérogénéité de la microstructure après déformation. Dans la partie 2, nous avons pu montrer que certains grains formaient une sous-structure de dislocations alors que d'autres présentaient plutôt une densité de dislocations uniforme. La formation de cette sous-structure est reliée à la stabilité de l'orientation cristallographique pendant la déformation considérée. Dans le tantale, la germination est favorisée par la présence de la sous-structure après déformation. Certains sousgrains, ou cellules, agiront en effet comme des germes potentiels pour la recristallisation (Sandim et al. 1999). Les grains présentant une sous-structure de déformation vont ainsi po- CARACTERISATION DE LA RECRISTALLISATION STATIQUE ET DE LA CROISSANCE DE GRAINS DANS LE TANTALE PUR tentiellement recristalliser alors que les autres grains seront plus enclins à restaurer. C'est ce qui a pu être observé par Vandermeer (Vandermeer & Snyder 1979) sur des monocristaux de tantale. Dans la microstructure recristallisée, de plus gros grains recristallisés peuvent être observés aux interfaces entre zones recristallisées et grains restaurés (figure 3-6.a). Les germes activés dans cette zone ont en fait cru dans le grain voisin restauré pour consommer l'énergie restante dans celui-ci (Sandim et al. 2005). Cependant, les grains d'orientations cristallographiques les plus stables pendant la déformation peuvent ne pas présenter suffisamment d'énergie stockée pour permettre le mouvement des joints des grains recristallisés à leur détriment. Ces grains se contentent donc de restaurer, et se retrouveront donc dans la microstructure finale de la pièce recuite même après un recuit à températures élevées (1400°C). A l'intérieur d'un grain pouvant recristalliser, il a été observé dans plusieurs travaux, principalement ceux de Sandim (Sandim et al. 2001; Hupalo & Sandim 2001; Sandim et al. 2005), que les premiers sites de germination se situent aux abords des joints de grains. Ceci n'a rien de surprenant étant donné que ces zones présentent de fortes perturbations des orientations cristallographiques avec des gradients forts impliquant une densité de dislocations localement plus élevée (Hirth 1972). Cependant, il a également été noté que des germes pouvaient apparaître au coeur des grains (Sandim et al. 2001). Ce phénomène a été rarement observé et pourrait résulter d'un effet de l'observation 2D d'une structure 3D. D'autres hétérogénéités de déformation telles que les bandes de déformation localisée et de cisaillement sont également des sites préférentiels pour la germination et pourraient également expliquer l'observation de germes au coeur des grains. Une fois le germe potentiel activé, s'en suit la phase de croissance qui va donner le grain recristallisé libre de dislocations. La force motrice de cette croissance est la consommation de l'énergie stockée dans la matrice déformée. Il a cependant été noté que la taille de grains après traitement thermique n'était pas homogène (figure 3-6.b) (Hupalo & Sandim 2001; Sandim et al. 2005), cependant cette hétérogénéité diminue lorsque la déformation précédent le traitement thermique augmente (figure 3-7). La taille de grains est reliée au nombre de germes localement activés. Lorsque le nombre de germes activés est localement important, les grains recristallisés entrent donc rapidement en contact ce qui limite leur croissance. La différence locale d'activation des germes peut être expliquée par l'hétérogénéité de microstructure intragranulaire à la fois entre le centre des grains et les joints de grains et entre grains d'orientations cristallographiques différentes. L'hétérogénéité de microstructure intragranulaire à l'état déformé diminue lorsque la déformation macroscopique augmente, la taille de grains recristallisés sera donc petite (grand nombre de germes activés) et relativement homogène. 83 CARACTERISATION DE LA RECRISTALLISATION STATIQUE ET DE LA CROISSANCE DE GRAINS DANS LE TANTALE PUR 12 ε = 1,15 ε = 2,3 10 ε = 4,6 8 % de grains 84 6 4 2 0 0 20 40 60 80 100 120 140 160 Taille de grains (μm) Figure 3-7. Distributions de taille de grains de microstructures recristallisées pour trois niveaux de déformation en ECAE (Mathaudhu & Hartwig 2006) C. TEXTURE DE RECRISTALLISATION La texture de recristallisation des matériaux de structure cubique centrée a principalement été caractérisée après une déformation en laminage (Humphreys & Hatherly 2004). C'est également le cas du tantale (Raabe et al. 1994; Sandim et al. 2001; Sandim et al. 2005; Briant et al. 2000) même si une tentative a également été faite après une déformation en forgeage (Briant et al. 2000). La texture de recristallisation peut se décrire assez simplement par deux fibres également utilisées pour décrire les textures de déformation dans les métaux de structure cubique centrée (Humphreys & Hatherly 2004) :  Fibre α : ensemble des orientations cristallographiques pour lesquelles la direction <110> est parallèle à la direction de laminage. Le long de cette fibre les orientations les plus remarquables en terme d'intensité sont {001}<110>, {112}<110>, {111}<110>.  Fibre γ : ensemble des orientations cristallographiques pour lesquelles la direction <111> est parallèle à la direction normale à la tôle laminée. Les composantes principales de cette fibre sont les orientations {111}<110>, {111}<112>, {111}<123>. Dans l'espace des angles d'Euler déterminés selon la convention proposée par Bunge (Bunge 1982), il est donc courant de représenter la fonction de distribution des orientations dans le plan (φ1, Φ, φ2 = 45°) dans lequel on retrouve les fibres α et γ (figure 3-8). CARACTERISATION DE LA RECRISTALLISATION STATIQUE ET DE LA CROISSANCE DE GRAINS DANS LE TANTALE PUR φ1 0° 90° φ2 = 45 (001)[110] Φ (112)[110] F i b r e Fibre γ (111)[110] (111)[121] (111)[011] (111)[112] α (110)[110] 90° Figure 3-8. Représentation des fibres α et γ dans la coupe à φ2 = 45° de l'espace des angles d'Euler (Humphreys & Hatherly 2004) La texture de recristallisation du tantale pour une déformation en laminage à froid présente les caractéristiques d'une texture de recristallisation classique après une déformation en laminage pour les métaux de structure cubique centrée. Sur la figure 3-9, on constate que l'intensité des orientations de la fibre α comprises entre {001}<110> et {112}<110> diminue alors que l'intensité des orientations de la fibre γ augmente. Cette texture de recristallisation a été expliquée dans le cas des aciers bas carbone par une germination préférentielle dans les grains d'orientation proche de celles de la fibre γ. En effet la germination de la recristallisation sera due à de la croissance anormale des sous-grains formés au cours de la déformation dans la fibre γ (Dillamore et al. 1967). {001} <110> {112} <110> 20 Fibre α {111} <110> {110} {111} <110> <110> 20 Fibre γ Après laminage (70 %) 1200°C-1h 1300°C - 1h 15 15 Intensité {111} <112> 1  0  2  45 10 10 5 5   55  2  45 0 0 0 30 60 Φ( ) 90 60 75 90 φ1 ( ) Figure 3-9. Texture de recristallisation dans du tantale déformé par laminage à froid puis recuit à deux températures pendant 1h (données extraites de (Raabe et al. 1994)) 3. Croissance de grains Très peu d'auteurs évoquent la croissance de grains après recristallisation complète du tantale (Hupalo & Sandim 2001; Mathaudhu & Hartwig 2006). Les données de la figure 3-10 traduisent l'évolution de la taille de grains à 1100°C d'une microstructure recristallisée à 100%. 85 CARACTERISATION DE LA RECRISTALLISATION STATIQUE ET DE LA CROISSANCE DE GRAINS DANS LE TANTALE PUR Cette figure permet également de montrer l'influence de la déformation avant recristallisation sur la cinétique de croissance de grains. Il est assez clair que quel que soit le niveau de déformation, la taille de grains moyenne va augmenter au cours du traitement thermique. La microstructure étant 100% recristallisée, la force motrice pour le mouvement des joints de grains est due à la courbure des joints de grains. Ainsi, les plus gros grains vont croître aux dépens des plus petits grains de leur voisinage. La figure 3-10 montre que le niveau de déformation avant recristallisation influence particulièrement la taille de grain moyenne en fin de recristallisation. Ce niveau de déformation influence également la distribution de taille de grains (figure 3-7). La cinétique de croissance des grains d'une microstructure recristallisée dépend à la fois de la taille moyenne des grains mais également de la distribution de ces tailles. En effet, on note sur la figure 3-10 que pour deux microstructures 100% recristallisées ayant la même taille de grains moyenne la cinétique de croissance est différente. Pour un même matériau, seule l'hétérogénéité de taille de grains est responsable d'un tel phénomène. Dans le cas d'une microstructure recristallisée hétérogène, les gros grains vont avoir plus de facilité à croître au départ aux dépens des petits grains, ce qui va accélérer la croissance de grains par rapport à un cas plus homogène. Une fois que tous les petits grains auront disparu, la taille moyenne des grains va augmenter plus lentement. On suspecte donc une microstructure moins homogène pour une déformation équivalente de 1,3 par rapport à l'échantillon déformé à 2,8. 250 ε = 1,3 Taille de grains moyenne (μm) 86 Température de recuit 1100°C ε = 2,8 200 ε= 5 150 microstructure 100% recristallisée 100 50 0 0 20 40 60 80 100 120 Temps de recuit (min) Figure 3-10. Croissance de grains d'échantillons en tantale 100% recristallisés à une température de 1100°C pour trois niveaux de déformation en « swaging » avant recristallisation (Hupalo & Sandim 2001) Il est surprenant de noter que la taille de grains augmente brutalement à partir de 60 min de traitement pour les deux niveaux de déformation les plus faibles. L'hétérogénéité de taille de grains ne peut pas expliquer l'augmentation brutale de cette taille de grains moyenne, puisqu'au bout de 60 min celle-ci a dû, au contraire, diminuer. On peut alors envisager une croissance anormale de certains grains dans la microstructure pour expliquer ce phénomène, par un mécanisme qu'il faudrait investiguer. La température du recuit va également influencer la cinétique de croissance de grains. La figure 3-11 met en évidence l'augmentation de la taille de grains d'une microstructure recristallisée lorsque la température augmente pour un même temps de recuit (ici 90 min). Les CARACTERISATION DE LA RECRISTALLISATION STATIQUE ET DE LA CROISSANCE DE GRAINS DANS LE TANTALE PUR traitements thermiques sont appliqués à des microstructures déformées et chaque taille de grains résulte de la recristallisation puis de la croissance de grains. L'étape de recristallisation de la microstructure étant réalisée à différentes températures, il est difficile d'attribuer la variation de taille de grains uniquement à la croissance de grains. En effet, pour une déformation donnée, la microstructure de départ pour la croissance de grains peut ne pas être la même en termes de taille de grains moyenne et de sa dispersion car elle dépend de la température du recuit. Un recuit à plus haute température entraîne en général une taille de grains plus petite en fin de recristallisation (la densité de germes augmente avec la température (Doherty et al. 1997)) et la cinétique de recristallisation est plus rapide. A durée de palier thermique constante, le temps laissé à la croissance de grains est alors plus grand et cette croissance est accélérée du fait de l'augmentation de la mobilité des joints de grains. La dispersion de la taille de grains en fin de recristallisation va favoriser le développement des gros grains aux dépens des très petits, ce qui va avoir pour effet de faire augmenter rapidement la taille de grains moyenne. Cet effet est exacerbé lorsque la température augmente et l'on observe, pour les niveaux de déformations les plus faibles, que la taille de grains moyenne augmente très significativement au dessus de 1200°C. Dans le cas du niveau de déformation le plus important, les microstructures intragranulaires étant plutôt homogènes, on peut supposer que la taille de grains en fin de recristallisation est peu dispersée. La croissance de grains sera donc plus progressive. 400 Temps de recuit 90 min ε = 1,15 Taille de grains moyenne (μm) 350 ε = 2,3 ε = 4,6 300 250 200 150 100 50 0 900 950 1000 1050 1100 1150 1200 1250 1300 1350 1400 Température de recuit (°C) Figure 3-11. Taille de grains d'échantillons de tantale recristallisés en fonction de la température de recuit (90 min) pour trois niveaux de déformation en ECAE avant recristallisation (Mathaudhu & Hartwig 2006) 4. Bilan La littérature existante sur les évolutions microstructurales du tantale pendant un traitement thermique est assez restreinte mais en explore tous les aspects (restauration statique, recristallisation statique discontinue et croissance de grains). Restauration Nous avons pu constater que la restauration était active dans le tantale à partir de 600°C. Cette restauration peut avoir une grande influence sur la recristallisation qui va suivre. 87 88 CARACTERISATION DE LA RECRISTALLISATION STATIQUE ET DE LA CROISSANCE DE GRAINS DANS LE TANTALE PUR Il est donc important de considérer pour tout traitement thermique le temps passé au dessus de 600°C. Recristallisation La recristallisation dans le tantale est un phénomène discontinu basé sur le processus de germination/croissance. Suivant le niveau de déformation et la vitesse de chauffage, elle se déclenche entre 700°C et 1100°C. Très peu de données sont disponibles sur les cinétiques, c'est-à-dire sur l'évolution de la fraction recristallisée en fonction du temps de recuit et de la température. On peut noter qu'à 1100°C la recristallisation totale d'une microstructure de tantale déformé en « cold swaging » se fait en moins de 15 min quel que soit le niveau de déformation équivalente (dans la gamme de déformation considérée > 1,3). La majorité des travaux ont montré que la recristallisation du tantale était très hétérogène à l'échelle de la microstructure. Le déclenchement de la recristallisation ainsi que la densité de germes vont énormément dépendre de l'orientation cristallographique du grain déformé et de son comportement induit pendant la déformation. La microstructure en fin de recristallisation présente donc des hétérogénéités en termes de taille de grains et il se peut que des grains non recristallisés subsistent dans la microstructure. La texture de recristallisation du tantale a principalement été caractérisée pour une déformation en laminage à froid. Elle présente les caractéristiques d'une texture de recristallisation classique après une déformation en laminage pour les métaux de structure cubique centrée avec une fibre γ renforcée et une fibre α affaiblie. Croissance de grains Les données disponibles de croissance de grains permettent de montrer que la vitesse d'augmentation de la taille moyenne des grains d'une microstructure entièrement recristallisée dépend du temps, de la température et de la distribution de taille de grains en fin de recristallisation. Si la taille de grains est homogène, la vitesse de croissance moyenne sera relativement constante en fonction du temps. II. ETUDE DE LA RECRISTALLISATION DU TANTALE ET IDENTIFICATION D'UNE LOI DE RESTAURATION Dans la suite de cette partie, nous allons compléter les données de la littérature par de nouvelles caractérisations de la recristallisation du tantale. Tout d'abord, étant donné la modification de la loi de conversion entre la dureté Vickers et la densité de dislocations équivalente (partie 2), la loi de restauration du tantale proposée dans (Houillon 2009) sera réidentifiée. Après avoir montré les phénomènes de recristallisation et de croissance de grains grâce à une technique innovante de traitement thermique in situ, nous allons nous focaliser sur l'évolution de la fraction recristallisée en fonction du temps dans la gamme de température 1000°C1100°C. L'intérêt sera d'évaluer l'influence des paramètres thermomécaniques sur la recristallisation et la croissance de grains et de produire un jeu de données expérimentales afin de calibrer puis de valider le modèle de recristallisation développé dans la première partie. CARACTERISATION DE LA RECRISTALLISATION STATIQUE ET DE LA CROISSANCE DE GRAINS DANS LE TANTALE PUR 1. Identification des paramètres de la loi de restauration du tantale La loi de restauration utilisée dans (Houillon 2009) présentée dans la partie 1 (équation 1.19) doit être réidentifiée car la loi de conversion dureté Vickers / densité de dislocations équivalente a été modifiée (voir partie 2 section II.2). Equation 1.19 Nous allons réutiliser les expériences réalisées par (Houillon 2009) pour identifier les paramètres de cette loi et convertir les niveaux de dureté en densité de dislocations équivalente à l'aide de la nouvelle relation de conversion. Quatre échantillons de compression présentant quatre niveaux de dureté différents sont traités à 600°C (palier de 45 min) et à 800°C (palier de 36 min) avec une pente de chauffage d'environ 20°C/min. Une mesure de dureté Vickers HV0,3 /5 est alors réalisée après traitement thermique. Dans ces gammes de température et pour ces échantillons, il n'y a pas de recristallisation. Le tableau 3-1 récapitule les traitements réalisés, les mesures de dureté Vickers et leurs conversions en densité de dislocations équivalente. Tableau 3- 1. Données expérimentales utilisées pour identifier les paramètres de la loi de restauration Echantillon Traitement thermique 1 2 3 4 600°C / 4440 s 600°C / 4440 s 800°C / 4500 s 800°C / 4500 s avant traitement HV0,3 /5 ρeq 177 20,9 170 17,3 163 14,3 160 13,1 après traitement ρeq HV0,3 /5 157 12 161 13,5 139 6,8 134 5,7 Les paramètres de la loi à identifier sont : λ, ρinf et Qr. Par minimisation de l'erreur au sens des moindres carrés, on obtient les valeurs suivantes : Des mesures à des temps intermédiaires seraient nécessaires pour valider notamment la forme de la loi de restauration. On peut néanmoins voir que cette loi prédit une activité significative de la restauration à partir d'environ 600°C (figure 3-12), observation cohérente avec les résultats de la littérature vus dans la section I.1 de cette partie. 89 CARACTERISATION DE LA RECRISTALLISATION STATIQUE ET DE LA CROISSANCE DE GRAINS DANS LE TANTALE PUR 16 Densité de dislocations équivalente relative 90 14 12 10 8 6 4 2 0 0 100 200 300 400 500 600 700 800 900 Température (°C) Figure 3-12. Evolution de la densité de dislocations par restauration statique en fonction de la température 2. Observation et caractérisation de la recristallisation statique : traitements thermiques in situ couplés à la technique EBSD Les évolutions microstructurales lors d'un traitement thermique sont le plus généralement étudiées d'un point de vue statistique à partir d'échantillons « volumiques » afin d'obtenir des cinétiques de recristallisation, des tailles de grains ou des textures en fonction des paramètres thermomécaniques. Dans cette étude sur la recristallisation du tantale, nous avons opté pour l'observation de l'évolution d'une zone donnée d'une section métallographique. Une platine chauffante a été réalisée au CEntre de Mise En Forme des matériaux à partir de celle développée par (Liao et al. 1998) pour être utilisée à l'intérieur de la chambre d'un Microscope Electronique à Balayage (MEB). L'échantillon monté sur la platine peut ainsi subir une série de traitements thermiques sous vide secondaire avec des rampes de températures contrôlées pouvant être très rapides (100°C/s) (Bozzolo et al. 2012). Après chaque traitement, les évolutions microstructurales sont mises en évidence grâce à la technique EBSD. Ce système de chauffage a permis d'atteindre des températures entre 750°C et 1030°C pour cette étude, et des températures similaires ont été utilisées dans d'autres études réalisées avec le même système sur un acier 304L (Ke Huang 2011), des alliages de Zirconium (Gaudout 2009) et déjà sur du tantale (Houillon 2009). Cette gamme de température est supérieure à celles décrites dans la littérature pour d'autres systèmes de chauffage similaires. De plus, les évolutions microstructurales de la plupart des métaux ayant un intérêt industriel interviennent à ces températures. Nous allons donc appliquer ce système à un échantillon de tantale déformé à froid afin d'observer la recristallisation et la croissance de grains. Cette expérience sera l'occasion de décrire comment il est possible d'analyser et quantifier la recristallisation par la technique EBSD. L'objectif sera également de voir dans quelle mesure il est possible d'extraire des données quantitatives utiles pour le modèle comme la mobilité des joints de grains ou la vitesse de germination. Cette technique étant plutôt nouvelle, nous essayerons également de mettre en lumière les artefacts possibles et d'évaluer leur influence sur l'analyse quantitative des méca- CARACTERISATION DE LA RECRISTALLISATION STATIQUE ET DE LA CROISSANCE DE GRAINS DANS LE TANTALE PUR nismes locaux de recristallisation et de croissance de grains. Ce travail a fait l'objet d'une publication soumise à « Journal of Microscopy – Oxford ». A. DISPOSITIF ET PROCEDURE EXPERIMENTALE Un échantillon de 3mm x 5mm d'une pièce en tantale de haute pureté sévèrement déformé à froid a été prélevé puis poli jusqu'à ce qu'il atteigne une épaisseur d'environ 300μm. L'échantillon a ensuite été attaqué pendant 45-60s dans une solution 1⁄4 HF + 3⁄4 HNO3 pour obtenir l'état de surface nécessaire à une analyse EBSD. Cette technique de préparation d'un échantillon de tantale pour une analyse EBSD avec une attaque à l'acide fluorhydrique est décrite dans l'annexe A3. Le système de chauffage (Bozzolo et al. 2012) est monté à l'intérieur de la chambre d'un microscope électronique à balayage XL30 ESEM équipé d'un système EBSD TSL-EDAX. La platine est alors positionnée afin que la surface analysée soit inclinée à 70° pour se placer dans les conditions d'acquisition des données en EBSD (figure 3-13). L'échantillon est soudé sur un ruban de tantale très fin (30 μm). Le ruban de tantale est chauffé par effet Joule, chauffant ainsi l'échantillon par conduction. La température est mesurée et contrôlée par deux thermocouples soudés sur la surface de l'échantillon. Figure 3-13. Vue schématique du dispositif de traitement thermique in situ D'après la revue bibliographique réalisée en annexe (annexe A7), ce système semble le plus adapté pour mettre en évidence de manière originale la recristallisation et la croissance de grains dans le tantale. Il va permettre d'atteindre les températures caractéristiques pour le déclenchement de la recristallisation du tantale (entre 800 et 1100°C). La vitesse de chauffage rapide permet également de ne pas perturber le déclenchement de la recristallisation par une restauration possible lors de la montée en température. L'échantillon de tantale a été soumis à 9 traitements thermiques (figure 3-14) successifs d'une température de 1030°C au départ pour déclencher la recristallisation, à une température de 750°C par la suite pour ralentir la cinétique de recristallisation et de croissance de grains, afin de pouvoir capter ces évolutions de la microstructure. Le temps de chaque traitement thermique a été ajusté en fonction des cinétiques propres à chaque évolution métallurgique. Entre chacun de ces traitements, la microstructure a été analysée par EBSD. 91 CARACTERISATION DE LA RECRISTALLISATION STATIQUE ET DE LA CROISSANCE DE GRAINS DANS LE TANTALE PUR 1200 2 1000 5 Température (°C) 92 800 5 10 20 (1) (2) (3) (4) (5 ) (6) 5 60 120 180 600 400 200 0 0 100 (7) 200 (8) 300 (9) 400 500 600 Temps (s) Figure 3-14. Séquence des traitements thermiques subis par l'échantillon de tantale sévèrement déformé à froid (le temps de chaque traitement est indiqué au dessus du palier et chaque étape de la séquence est identifiée par un chiffre entre parenthèses) B. ANALYSE DES MICROSTRUCTURES DE RECUIT PAR EBSD Dans le cas de cette expérience in situ, les mesures EBSD ont été réalisées avec un système TSL-EDAX. Les conditions d'acquisition de ces données ont été ajustées de manière à trouver un compromis entre la qualité des clichés de diffraction, la résolution spatiale et le temps d'acquisition. Le pas de mesure est de 2 μm pour une cartographie de 350 μm x 600 μm. Les cartographies ont ensuite été analysées avec le logiciel TSL OIM Data Analysis. Une désorientation minimale de 5° a été choisie pour définir les joints de grains et les pixels ayant une désorientation supérieure à 5° avec l'ensemble de leurs premiers voisins sont considérés comme mal indexés. Ces pixels ne seront pas pris en compte et apparaîtront en noir sur les cartographies EBSD, comme pour les points non indexés. Les grains recristallisés sont identifiés à partir de la méthode décrite dans l'annexe A8. Le premier résultat que l'on obtient grâce au système de recuit in situ couplé à l'analyse EBSD est l'observation quasi directe de la progression de la recristallisation et de la croissance de grains pour une microstructure locale donnée (figure 3-15). Sur cette figure, les phénomènes de germination et croissance peuvent clairement être observés entre l'étape 1 et l'étape 5. Les quatre étapes suivantes montrent la croissance de grains après recristallisation totale de la microstructure. Les différents stades identifiés sur cette figure vont être analysés plus en détails dans la suite. La surface analysée avec cette technique est petite en comparaison de surfaces nécessaires pour réaliser une analyse statistique de la recristallisation. Le comportement observé n'est donc pas représentatif du matériau en termes de taille de grains moyenne, de texture globale ou encore d'énergie stockée macroscopique. La technique de recuit in situ donne accès aux mécanismes locaux de recristallisation et de croissance de grains. Une cinétique de recristallisation représentative pourrait être mesurée uniquement si le nombre de grains était statistiquement représentatif du matériau dans la zone analysée. CARACTERISATION DE LA RECRISTALLISATION STATIQUE ET DE LA CROISSANCE DE GRAINS DANS LE TANTALE PUR Figure 3-15. Evolution de la microstructure pendant la séquence de traitement thermique (cartographies d'IQ [Image Quality] obtenues par l'analyse EBSD) C. GERMINATION La recristallisation statique discontinue est basée sur le processus de germination/croissance. Cependant, une distinction claire entre ces deux stades est difficile (B. Hutchinson 1992). La germination est définie comme l'instant auquel un petit élément de volume du matériau a atteint les conditions critiques pour croître dans la matrice déformée. Lorsqu'un nouveau grain recristallisé est identifié dans la microstructure, cela signifie qu'un germe a été « activé » et a crû. Cette phase transitoire qu'est la germination est ainsi indirectement observée par l'apparition de nouveaux grains dans la microstructure. Il est également bon de noter que cette analyse dépend également de la résolution spatiale de l'analyse EBSD. De nouveaux grains recristallisés pourront être détectés plus tôt si la résolution spatiale est plus élevée. La germination va principalement être observée à l'étape 1 de la séquence de traitements thermiques (étape 1 – figure 3-15) mais de nouveaux grains recristallisés vont également apparaître de manière continue jusqu'au stade 5 (figure 3-16.a). A partir du nombre de nouveaux grains apparus par unité de surface et de temps, on peut estimer un taux de germination par : Equation 3.1 Avec N le nombre de nouveaux grains apparus sur la surface observée S (350 μm x 600 μm) pendant un traitement thermique de temps t. Les évolutions temporelles du nombre de grains recristallisés et du taux de germination sont présentées figure 3-16. Le taux de germination la plus élevée correspond au premier traitement thermique réalisé à la plus haute tempé- 93 CARACTERISATION DE LA RECRISTALLISATION STATIQUE ET DE LA CROISSANCE DE GRAINS DANS LE TANTALE PUR rature (1030°C) (figure 3-16.a). A ce stade, le taux de germination est de 2,3 x 108 m-2.s-1. Dans les étapes suivantes, la diminution de température ainsi que la réduction du nombre de sites de germination potentiels entraîne une diminution du taux de germination (figure 3-16.b). Il est important de préciser que certains des grains observés sur la surface pourraient provenir de la croissance de grains recristallisés apparus plus tôt à une certaine distance sous la surface libre. Ce biais ne peut être évité qu'en réalisant une expérience 3D. (a) (b) 200 1,00E+09 3 160 5 4 2 140 7 6 1 9 8 Taux de germination (m -2.s-1) 180 Nombre de grains recristallisés 94 120 100 1 80 60 40 1,00E+08 2 3 1,00E+07 5 20 0 1,00E+06 0 50 100 150 200 250 300 350 400 450 0 5 10 Temps (s) 15 20 25 30 Temps (s) Figure 3-16. (a) Evolution du nombre de grains recristallisés pendant la séquence de traitements thermiques (b) Taux de germination estimé pour les étapes 1, 2, 3 et 5 Pour être activé à une température donnée, un germe doit remplir 2 conditions :  Etre suffisamment désorienté cristallographiquement par rapport à son voisinage direct,  Avoir un bilan énergétique favorable entre l'énergie d'interface créée et l'énergie stockée dans le voisinage qui est libérée lors de la croissance du germe (i.-e. avoir une taille critique). Lors du premier traitement thermique, les nouveaux grains sont apparus dans les zones présentant les plus fortes désorientations locales du réseau cristallin (figure 3-17). De fortes désorientations intragranulaires traduisent une forte énergie stockée et peuvent favoriser la formation de joints à grand angle de désorientation, avec une mobilité suffisante. Figure 3-17. Localisation des nouveaux grains recristallisés observés après un traitement thermique à 1030°C pendant 2 s. Les nouveaux grains (en blanc) sont repositionnés sur la cartographie des désorientations intragranulaires de l'état initial. CARACTERISATION DE LA RECRISTALLISATION STATIQUE ET DE LA CROISSANCE DE GRAINS DANS LE TANTALE PUR Lors de cette expérience de traitement thermique in situ, la germination apparaît comme continue. Ceci indique donc des temps d'incubation différents pour les différents germes (le temps d'incubation étant le temps nécessaire à un embryon pour atteindre les conditions critiques de croissance). La détermination d'une vraie cinétique de germination ne serait possible qu'en réalisant une séquence de traitements à température constante. Dans notre cas, la décroissance du nombre de germes activés au cours du temps n'est pas due uniquement à la réduction du nombre de sites potentiels de germination mais également à la diminution de la température de recuit. Une cinétique de germination pourrait également être perturbée par les grains ayant crû sous la surface mais cet artefact est directement lié à l'observation d'une microstructure en 2D. Cet effet pourrait être quantifié en réalisant une simulation 3D à champ complet de la recristallisation (Bernacki et al. 2009; Bernacki et al. 2011) pour évaluer la quantité de grains venant de sous la surface. Dans les travaux cités, seul un petit nombre de germes a été introduit dans la microstructure déformée. Des développements seraient nécessaires pour prendre en compte un nombre suffisant de grains recristallisés. D. CROISSANCE DES GRAINS RECRISTALLISES DANS LE MATERIAU DEFORME La différence de densité de dislocations entre un germe activé et son environnement est la source principale de force motrice pour la croissance des grains recristallisés dans la matrice déformée. Dans la séquence évoquée ici, ce phénomène peut être observé jusqu'au stade 5. Les nouveaux grains recristallisés croissent rapidement. Pour estimer la vitesse moyenne de migration des joints de grains pendant la recristallisation à 750°C, un ensemble aléatoire de 10 grains a été choisi dans la microstructure de l'étape 1. En supposant les grains comme des disques parfaits sur la section 2D observée, leur taille a été mesurée jusqu'à l'étape 5 qui est le stade final de la recristallisation. A partir de ces données, une vitesse moyenne de croissance du diamètre équivalent est calculée pour chacun de ces grains. La valeur moyenne de toutes ces vitesses donne une estimation de la vitesse moyenne d'augmentation du diamètre des grains recristallisés autour de 1.5 μm/s. Si on considère maintenant l'évolution du diamètre moyen de tous les grains recristallisés (figure 3-18) pendant la phase de recristallisation à 750°C (étapes 3 à 5), on retrouve une vitesse de croissance du diamètre moyen de l'ordre de 1.5 μm/s, ce qui donne une estimation de la vitesse moyenne de migration des joints de grains à 0.75 μm/s. Cette valeur correspond à la vitesse de la trace du joint de grains sur la surface 2D, elle sera donc supérieure à la vitesse de migration normale au joint de grains. 95 CARACTERISATION DE LA RECRISTALLISATION STATIQUE ET DE LA CROISSANCE DE GRAINS DANS LE TANTALE PUR 35 Diamètre équivalent moyen des grains recristallisés (μm) 96 30 6 4 25 20 8 7 9 5 3 15 10 5 0 0 50 100 150 200 250 300 350 400 450 Temps (s) Figure 3-18. Evolution de la taille moyenne des grains recristallisés (diamètre du cercle équivalent au grain) pendant la séquence de traitements thermiques. Seul les points obtenus à une température de 750°C sont considérés (étapes 3 à 9) A partir des cartographies EBSD, la migration des joints de grains peut être observée et reliée aux forces motrices locales. La figure 3-19 illustre la croissance des grains recristallisés pendant les étapes 3 à 5. Les cartographies de cette figure représentent la valeur du KAM par unité de longueur. Comme nous avons pu l'évoquer dans la deuxième partie de ce manuscrit, le KAM par unité de longueur peut être relié à la densité de dislocations géométriquement nécessaires avec donc une valeur faible pour les grains recristallisés ou les zones intragranulaires à faibles énergies stockées. Au cours de la recristallisation, la migration des joints de grains est principalement pilotée par la différence de densité de dislocations entre les grains voisins. La microstructure évoluera plus rapidement là où la densité de dislocations est forte comme montré pour les grains marqués d'un symbole vide. Dans les zones où le réseau cristallin est moins perturbé, les joints de grains stagnent (flèches blanches). La différence de migration le long d'un même joint de grains va donc entraîner des courbures locales importantes de ces interfaces. Cela aura pour effet d'augmenter la contribution des forces capillaires à la force motrice totale (Zhang et al. 2011; Martorano et al. 2007). 3 0 4 Gradient local d'orientation (°/μm) 5 0,83 Figure 3-19.Migration des joints de grains pendant la croissance des grains recristallisés des étapes 3 à 5. La microstructure est montrée en utilisant des cartographies du gradient de désorientations intragranulaires (KAM). CARACTERISATION DE LA RECRISTALLISATION STATIQUE ET DE LA CROISSANCE DE GRAINS DANS LE TANTALE PUR E. CROISSANCE DE GRAINS APRES LA RECRISTALLISATION Lorsque la microstructure est totalement recristallisée, s'en suit une phase de croissance des grains recristallisés (étapes 6 à 9 sur la figure 3-15). Comme prévu, les gros grains croissent aux dépens des plus petits pour minimiser la quantité totale de joints de grains. Une illustration de la migration de joints entre grains recristallisés lors du dernier traitement thermique est donnée figure 3-20. Ce phénomène va évidemment faire diminuer le nombre total de grains (figure 3-16.a). Figure 3-20. Disparition (*) et décroissance (**) de petits grains lors du traitement thermique 9 dans le régime de croissance de grains Lors de la croissance de grains, la vitesse d'augmentation du diamètre équivalent moyen des grains est 100 fois plus faible que celle précédemment calculée en régime de recristallisation. Cette vitesse moyenne est d'environ 0,015 μm/s. Le rapport des vitesses de migration des joints de grains entre les régimes de recristallisation et de croissance de grains est directement lié à la différence de force motrice responsable de cette migration. L'énergie stockée dans le matériau sous forme de dislocations est estimée par (Humphreys & Hatherly 2004) : Equation 3.2 Avec ρ la densité de dislocations moyenne, G le module de cisaillement (= 69 x 109 N.m-2) et b la norme du vecteur de Burgers (= 2,86 x 10-10 m). Une estimation de la densité de dislocations moyenne de l'état déformé peut être calculée à partir de la formule reliant la densité de dislocations géométriquement nécessaires (GND) à la désorientation intragranulaire θ (Kubin & Mortensen 2003) : Equation 3.3 Avec x le rayon du kernel (= 6 μm) et b la norme du vecteur de Burgers. θ est directement mesuré par la technique EBSD par le calcul du Kernel Average Misorientation (KAM, cf annexe A6). Pour cette microstructure initiale, la valeur moyenne de la distribution des désorientations intragranulaires est de 9 x 10-3 rad.μm-1. La densité moyenne de dislocations géométriquement nécessaire est donc d'environ 6 x 1013 m-2. Cette valeur de densité de dislocations 97 98 CARACTERISATION DE LA RECRISTALLISATION STATIQUE ET DE LA CROISSANCE DE GRAINS DANS LE TANTALE PUR paraît toutefois plus faible que la valeur attendue pour un état sévèrement déformé, ce qui n'est pas étonnant en raison de l'approche utilisée. Premièrement, cette analyse ne prend en compte que les dislocations géométriquement nécessaires (GND) et non la densité de dislocations totale incluant également les dislocations statistiquement stockée (SSD). Deuxièmement, l'analyse EBSD, telle qu'elle a été réalisée, ne permet pas de bien résoudre les zones les plus déformées de la microstructure. La valeur moyenne des désorientations intragranulaires est ainsi sous-estimée. La densité de dislocations ainsi calculée est donc une borne inférieure de la densité de dislocations totale. Dans la suite, nous considérerons une valeur moyenne de l'ordre de 1015 m-2 (Hosseini & Kazeminezhad 2009) pour l'état déformé et cette valeur donne une force motrice d'environ 3 x 106 N.m-2. Pour la croissance de grains, seuls les effets capillaires sont responsables du mouvement des joints de grains. La force motrice associée est donnée par (Humphreys & Hatherly 2004) : Equation 3.4 Avec l'énergie de surface moyenne des joints de grains (estimée à partir de l'équation (1.10) par Gb/48 = 0,41 J.m-2) et R le rayon de courbure moyen. Pour un rayon moyen des grains recristallisés de 15 μm, la force motrice est d'environ 3 x 104 N.m-2. A partir de ces calculs assez simples, on retrouve un rapport autour de 100 entre les forces motrices en recristallisation et en croissance de grains, qui correspond à l'ordre de grandeur du rapport des vitesses de migration des joints de grains observé dans le cas de cette expérience in situ. F. ESTIMATION DE LA MOBILITE DES JOINTS DE GRAINS A 750°C La vitesse moyenne de migration des joints de grains v est directement liée à la force motrice par la mobilité des joints de grains m (Humphreys & Hatherly 2004) : Equation 3.5 En utilisant les valeurs calculées de vitesse de migration et de force motrice dans le régime de croissance de grains, on obtient une mobilité moyenne m ≈ 1 x 10-13 m4.J-1.s-1 à 750°C. Afin de vérifier la cohérence de cette valeur de mobilité, nous allons la comparer avec une valeur théorique calculée à partir des données de la littérature. La mobilité s'exprime généralement à l'aide d'une loi d'Arrhénius avec une énergie d'activation Qm et un terme pré-exponentiel m0 (équation 1.15). L'énergie d'activation pour la migration des joints de grains est généralement considérée comme la moitié de l'énergie d'activation pour l'autodiffusion (Humphreys & Hatherly 2004). A partir des données de (Richards et al. 2003), l'énergie d'activation Qm pour le tantale est approximée à 180 kJ.mol-1. En ce qui concerne le terme pré-exponentiel, il s'exprime par (Stüwe et al. 2002) : Equation 3.6 Où V est le volume molaire (= 10,85 x10-6 m3.mol-1), b la norme du vecteur de Burgers et T la température. D0 est le coefficient d'autodiffusion que l'on peut calculer à partir de (Benard et al. 1969) : CARACTERISATION DE LA RECRISTALLISATION STATIQUE ET DE LA CROISSANCE DE GRAINS DANS LE TANTALE PUR Equation 3.7 Avec a le paramètre de maille (=0,33 nm) et ν la fréquence de Debye (généralement donnée autour de 1013 s-1 (Stüwe et al. 2002)). En utilisant la valeur D0 ≈ 0,07 cm2.s-1, la mobilité des joints de grains théorique à 750°C est de 2,2 x 10-14 m4.J-1.s-1, ce qui est assez proche de la valeur extraite de l'expérience de recuit in situ. Ces deux valeurs sont approximées et pourraient être discutées plus en détails, mais l'intérêt ici est de montrer que les mesures faites à partir de cette technique sont cohérentes avec les données de la littérature. De plus, la chimie du tantale pourrait jouer un rôle essentiel dans la valeur de la mobilité étant donné qu'une petite quantité d'éléments en solution solide peut facilement faire varier la mobilité d'un ordre de grandeur (Humphreys & Hatherly 2004). G. OBSERVATION DE LA RECRISTALLISATION : SURFACE VS VOLUME Le principe même de la technique de recuit in situ est d'observer les évolutions microstructurales sur une surface libre. Cependant, le fait d'introduire cette surface libre dans la microstructure peut potentiellement influencer le déroulement de la recristallisation et de la croissance de grains. Dans la littérature, plusieurs analyses ont été réalisées afin d'évaluer l'effet de la surface libre sur les évolutions métallurgiques. Deux méthodes ont été employées :  Comparaison des microstructures en surface et au coeur de l'échantillon « in situ »,  Comparaison de la microstructure en surface de l'échantillon in situ avec une microstructure à coeur d'un échantillon ayant subi le même traitement dans un four classique. De ces études, il ressort que les cinétiques de recristallisation et les tailles de grains finales sont similaires (Liao et al. 1998; Hurley & Humphreys 2004), ce qui confirme nos observations sur le tantale. Dans le cas de l'aluminium, les études ont également montré que la surface libre n'avait pas d'effet sur la migration des joints de grains (Lens et al. 2005; Y. Huang & Humphreys 1999). Néanmoins, certains auteurs ont tout de même noté certaines différences entre la microstructure en surface et celle à coeur sur un même échantillon dans le cas d'un acier sans interstitiels (IF steel) (Nakamichi et al. 2008). Ils suggèrent toutefois que les différences observées pourraient provenir d'un gradient de température dans l'épaisseur de l'échantillon. Afin de confirmer que la surface libre a peu d'effet sur les mécanismes de recristallisation et de croissance de grains dans le cas du tantale, l'échantillon ayant subi la séquence entière de traitements thermiques a été découpé perpendiculairement à la surface libre. La tranche a ensuite été polie pour une analyse EBSD. La figure 3-21 montre une comparaison des microstructures sur la surface et sur la tranche. Cet échantillon ne présente pas de différence significative entre la surface et le coeur avec une taille de grains similaire autour de 30 μm. Le système utilisé n'induit donc pas de gradient de température dans l'épaisseur de l'échantillon et la surface libre ne génère pas de force de freinage supplémentaire (gravage thermique des joints de grains) empêchant les grains de croître comme dans le volume. 99 100 CARACTERISATION DE LA RECRISTALLISATION STATIQUE ET DE LA CROISSANCE DE GRAINS DANS LE TANTALE PUR Vue de dessus- taille de grains moyenne 30μm Vue en coupe Vue de dessus Echantillon E C A H N T I L L O N Vue en coupe- taille de grains moyenne 30μm « four » (ruban de tantale soudé à l'échantillon) Figure 3-21. Observation de la microstructure dans une coupe perpendiculaire à la surface libre et comparaison avec la microstructure de la surface libre Grâce à ce système de chauffage in situ permettant d'atteindre une température de 1200°C à des vitesses de 100°C/s (en chauffage et refroidissement), nous avons pu observer et caractériser de manière originale la recristallisation statique et la croissance de grains dans le tantale. Les phénomènes observés sur la surface correspondent aux mécanismes connus d'évolution de la microstructure durant un traitement thermique. Cette technique n'induit pas de biais influençant de manière significative les résultats et il apparaît possible de déduire de cette expérience des données quantitatives comme la mobilité moyenne des joints de grains. En résumé, les faits établis et les grandeurs déterminées à partir de cette expérience sont les suivants :  Les nouveaux grains recristallisés apparaissent dans les zones présentant les plus fortes désorientations intragranulaires.  La germination est plutôt de type continu. Le nombre de germes diminue au cours du temps, les sites de germination devenant plus rares au fur et à mesure que la recristallisation progresse.  Pendant la recristallisation, les joints des grains recristallisés peuvent être fortement tortueux en raison des variations locales d'énergie stockée. Ces joints de grains se régularisent pendant la croissance de grains et deviennent plus rectilignes.  La mobilité moyenne, estimée en 2D, des joints de grains à 750°C est de l'ordre de 1 x 10-13 m4.J-1.s-1.  L'énergie d'activation de la migration des joints de grains estimée à partir des données de la littérature est Qm ≈ 180 kJ.mol-1.  Le terme pré-exponentiel de loi d'Arrhénius pour la mobilité peut être évalué à m0 ≈ 3,4 x 10-5 m4.J-1.s-1. En l'état, cette étude ne permet pas encore d'accéder à toutes les données nécessaires à la modélisation du phénomène de recristallisation. Cette technique ne permet notamment pas d'acquérir des données statistiquement représentatives du matériau comme les cinétiques de recristallisation. C'est pourquoi nous allons par la suite utiliser des techniques de traitements thermiques plus classiques pour caractériser la recristallisation. CARACTERISATION DE LA RECRISTALLISATION STATIQUE ET DE LA CROISSANCE DE GRAINS DANS LE TANTALE PUR 3. Déclenchement de la recristallisation et densité de dislocations équivalente critique La première étape de caractérisation de la recristallisation va consister à identifier les conditions thermomécaniques nécessaires pour déclencher la recristallisation statique du tantale. Depuis le début de cette étude, nous avons fait le choix de décrire la microstructure de l'état déformé par une densité de dislocations équivalente représentative à la fois de l'histoire de déformation et de vitesse de déformation. L'objectif est donc de déterminer, à une température donnée, pour quelle valeur critique de densité de dislocations équivalente le tantale recristallise et ainsi de définir une courbe de densité de dislocations équivalente critique en fonction de la température. La démarche mise en oeuvre pour établir cette courbe critique pour le déclenchement de la recristallisation est de réaliser des éprouvettes à gradient de densité de dislocations. Ces éprouvettes seront ensuite recuites à plusieurs températures et leurs microstructures seront observées pour déterminer à partir de quelle valeur de densité de dislocations équivalente apparaissent les grains recristallisés. L'idée est de partir d'un essai de compression uniaxiale simple et d'accentuer les hétérogénéités de déformation dues au frottement par une hétérogénéité due à la géométrie de l'éprouvette. Une première solution serait de remplacer l'éprouvette cylindrique classique par une éprouvette conique (Manonukul & Dunne 1999). Une fois déformée, cette éprouvette présente des gradients de déformations qui sont non monotones et fortement dépendant des conditions de frottement. Ces éprouvettes sont alors difficilement exploitables pour déterminer une densité de dislocations critiques. Pour pallier cela, le pion cylindrique classique peut être remplacé par une éprouvette « double cône » proposée par Weaver et Semiatin (Weaver & Semiatin 2007) pour étudier la recristallisation dynamique dans un super alliage base nickel. L'éprouvette se compose de deux cônes inversés séparés par une partie cylindrique (figure 322). Cet essai présente une répartition hétérogène mais concentrique de la déformation au niveau du plan perpendiculaire à l'axe de compression passant par le milieu de la partie cylindrique. Il induit donc un gradient de densité de dislocations entre le centre de l'éprouvette et le bord qui de plus ne dépend pas du frottement. Figure 3-22. Vue 3D de l'éprouvette "double cône" (a) de ses dimensions (b) et de la localisation du gradient de densité de dislocations que l'on souhaite exploiter après déformation (c) Nous avons optimisé cette éprouvette « double cône » (ou DECC pour « DoublE Cône Compression ») par simulation numérique basée sur la méthode des éléments finis afin de satisfaire deux critères principaux : 1. L'éprouvette doit pouvoir être usinée dans une tôle de 11 mm d'épaisseur 101 102 CARACTERISATION DE LA RECRISTALLISATION STATIQUE ET DE LA CROISSANCE DE GRAINS DANS LE TANTALE PUR 2. Le gradient de densité de dislocations équivalente doit être le plus fort possible, c'est-à-dire que le centre doit présenter une densité de dislocations la plus élevée possible alors que le bord de l'échantillon doit se déformer le moins possible. La méthode d'optimisation de cette géométrie est détaillée dans l'annexe A9. Les différents paramètres de la géométrie retenue sont définis sur la figure 3-23 et rassemblés dans le tableau 3-2. D d0 = 7 α DC h0 = 11 DR1 DR2 h h' Figure 3-23. Géométrie de l'éprouvette DECC optimisée Tableau 3-2.Paramètres de la géométrie choisie pour l'essai DECC Paramètre Valeur D (mm) 30,6 h (mm) 7 h' (mm) 2 α (°) 22,5 L'éprouvette ainsi dimensionnée permet d'obtenir, lorsqu'on la comprime de 4 mm, un gradient de densité de dislocations entre le centre et le bord de l'éprouvette (figure 3-24.a). On voit également sur la figure 3-24.b que la densité de dislocations est homogène dans la direction DC sur une bande d'environ 1 mm de largeur autour du plan médian. (a) (b) Densité de dislocations équivalente relative 10 DC 9 8 7 6 5 1 mm 4 3 2 1 Figure 3-24. (a) répartition de la densité de dislocations équivalente le long d'un rayon de l'éprouvette optimisée et déformée à 0.1 mm/s (b) Cartographie de la densité de dislocations équivalente dans le plan (DR1, DC) dans le cas d'un contact collant CARACTERISATION DE LA RECRISTALLISATION STATIQUE ET DE LA CROISSANCE DE GRAINS DANS LE TANTALE PUR A. CARACTERISATION DU GRADIENT DE DENSITE DE DISLOCATIONS APRES DEFORMATION Les essais ont été effectués à une vitesse de 0,1 mm/s et montrent une assez bonne corrélation avec la simulation numérique. La simulation de l'essai DECC permet de rendre compte de la courbe effort-déplacement (figure 3-25), et de la géométrie de l'éprouvette après déformation (au déchargement élastique près). On note également que la zone de contact entre les outils et l'éprouvette se déforme peu, ce qui confirme notre hypothèse de simulation d'un contact collant. 180 expérimental Simulation 160 140 Effort (kN) 120 100 80 60 40 20 0 0 0,5 1 1,5 2 2,5 3 3,5 4 4,5 Course de compression (mm) Figure 3-25. Evolution de l'effort dans l'axe de compression pour l'essai DECC à 0.1 mm/s (courbes expérimentales et numériques) Expérimentalement, le gradient de densité de dislocations peut être mis en évidence par des mesures de microdureté Vickers comme vu dans la partie 2. Grâce à la loi HDD établie précédemment, les mesures de microdureté sont converties en densités de dislocations équivalentes et comparées aux valeurs obtenues numériquement (figure 3-26). Les mesures expérimentales montrent une assez grande dispersion ainsi qu'une variabilité importante entre deux points proches le long du rayon. Cette variabilité est certainement liée à la taille des grains importante dans l'échantillon (une majorité des grains ont une taille supérieure à 100 μm). Les hétérogénéités de déformation sont détectables par la mesure de microdureté (taille moyenne de l'empreinte autour de 70 μm) qui devient ici une mesure quasi intragranulaire. La plupart des empreintes se retrouvent totalement à l'intérieur d'un grain ou alors sur un seul joint de grains. 103 CARACTERISATION DE LA RECRISTALLISATION STATIQUE ET DE LA CROISSANCE DE GRAINS DANS LE TANTALE PUR 160 Simulation de l'essai DECC Mesures expérimentales 150 140 130 HV 0,3 /5 104 120 110 100 90 80 0 2 4 6 8 10 12 14 16 18 rayon (mm) Figure 3-26. Evolution de la dureté Vickers (HV0.3 /5) le long d'un rayon de l'éprouvette DECC déformée à 0.1 mm/s et comparaison avec les valeurs de dureté numérique converties des densités de dislocations à partir de loi HDD Ce gradient d'énergie stockée lors de la déformation plastique peut également être caractérisé localement par une mesure des désorientations intragranulaires par EBSD. La figure 3-27 montre les cartographies de désorientations intragranulaires au centre, à mi-rayon et au bord de l'éprouvette DECC déformée ainsi que l'évolution de la valeur moyenne des désorientations intragranulaires (gradient local d'orientation en °/μm) le long du rayon. La préparation de surface par polissage induit des désorientations intragranulaires non représentatives de l'état de déformation du matériau. Sur la cartographie du bord de l'échantillon, on voit apparaître une rayure et des « spots » ayant de fortes désorientations intragranulaires provenant du polissage et qui augmentent artificiellement la valeur moyenne des désorientations dans une zone théoriquement peu déformée. Pour cette zone, on ne prendra pas en compte pour le calcul de la désorientation moyenne les points correspondant à cette rayure et à une partie des « spots ». La distribution sera seuillée à une valeur maximale de 0,2 °/μm. On note clairement une augmentation de la désorientation moyenne du bord vers le centre. Les hétérogénéités de déformation responsables de la variabilité des mesures de microdureté sont également bien visibles. Le voisinage des joints de grains présente souvent des désorientations locales plus importantes que le centre des grains. CARACTERISATION DE LA RECRISTALLISATION STATIQUE ET DE LA CROISSANCE DE GRAINS DANS LE TANTALE PUR Figure 3-27. Cartographies des désorientations intragranulaires obtenues par EBSD et évolution de la désorientation intragranulaire moyenne le long d'un rayon B. DETERMINATION DE LA COURBE DE DENSITE DE DISLOCATIONS CRITIQUE Après avoir généré grâce à l'essai DECC un gradient de densité de dislocations, l'éprouvette est recuite. Elle est ensuite découpée dans le plan (DC, DR1) et ce plan est poli selon le protocole défini dans l'annexe A3 pour une caractérisation par EBSD. La microstructure est observée le long de l'axe DR1 du centre jusqu'au bord de l'échantillon. Pour identifier la densité de dislocations critique, on identifie le rayon à partir duquel des grains recristallisés sont observés. Une première approche consiste à observer la microstructure en imagerie d'électrons rétrodiffusés. L'éprouvette étant en tantale pur, le contraste observé est principalement dû à l'orientation cristallographique et les grains recristallisés sont assez facilement identifiables. Une analyse de la microstructure par EBSD permet de compléter et d'affiner cette première observation. Une fois le rayon « critique » de recristallisation déterminé, il suffit de le reporter sur la courbe de répartition de la densité de dislocations équivalente en fonction du rayon après déformation. On obtient ainsi une densité de dislocations critique pour le déclenchement de la recristallisation. Si on répète l'opération pour plusieurs températures de recuit, on construit ainsi la courbe de densité de dislocations critique en fonction de la température. Pour établir cette courbe, trois éprouvettes déformées dans les mêmes conditions sont recuites à 900°C, 1000°C et 1050°C pendant 30 minutes avec une pente de chauffage d'environ 20°C/min. La figure 3-28 présente les microstructures observées en électrons rétrodiffusés pour les trois températures. Les limites de recristallisation sont indiquées par la barre rouge et le rayon de la zone recristallisée est également spécifié sur cette figure. 105 106 CARACTERISATION DE LA RECRISTALLISATION STATIQUE ET DE LA CROISSANCE DE GRAINS DANS LE TANTALE PUR Figure 3-28. Microstructure des éprouvettes DECC traitées à 900°C, 1000°C et 1050°C (imagerie BSE). La ligne pointillée rouge indique la limite de recristallisation avec la valeur du rayon correspondant. CARACTERISATION DE LA RECRISTALLISATION STATIQUE ET DE LA CROISSANCE DE GRAINS DANS LE TANTALE PUR Les rayons critiques de recristallisation sont donc :  0 mm à 900°C  3,2 mm à 1000°C  4,6 mm à 1050°C A 900°C, il est compliqué de donner une valeur de densité de dislocations équivalente critique étant donné que l'on n'observe pas clairement de recristallisation dans l'éprouvette DECC. Cependant, en analysant la zone centrale par EBSD, on retrouve de petits grains recristallisés au niveau des joints de grains (figure 3-29). Il est donc raisonnable de penser que la densité de dislocations critique à 900°C est légèrement supérieure à 9,5 (valeur de la densité de dislocations au centre de l'éprouvette). La distribution des désorientations intragranulaires dans la zone centrale a un écart-type relatif de 0,25. Or, d'après la relation 3.3, la densité de dislocations est reliée linéairement à l'angle de désorientation. On peut donc estimer que cet écart-type serait le même pour les densités de dislocations. La densité de dislocations maximale dans cette zone serait d'environ 10,5, ce qui correspondrait également à la densité de dislocations équivalente critique à 900°C. On retrouve l'évolution de la densité de dislocations critique en fonction de la température sur la figure 3-30. Figure 3-29. Présence de grains recristallisés dans la zone centrale de l'éprouvette traitée à 900°C Les recuits pour déterminer cette courbe de densités de dislocations critique sont réalisés avec une pente de chauffage d'environ 20°C/min. Le temps passé au dessus de 600°C est donc assez important (entre 15 min et 22 min 30 s) durant lequel la restauration est active. Cela signifie que la densité de dislocations à partir de laquelle s'est déclenchée la recristallisation est inférieure à la densité de dislocations évaluée dans l'état déformé. Il est donc nécessaire de corriger la courbe obtenue en utilisant la loi de restauration établie pour le tantale dans (Houillon 2009) et ré-identifiée dans la partie 2 de ce document. 107 CARACTERISATION DE LA RECRISTALLISATION STATIQUE ET DE LA CROISSANCE DE GRAINS DANS LE TANTALE PUR 11 Densité de dislocations équivalente relative critique 108 9 7 5 30' avant correction de la restauration 30' après correction de la restauration 3' avant correction restauration 3' après correction restauration Loi exponentielle 3 1 850 900 950 1000 1050 1100 Température de recuit (°C) Figure 3-30. Courbe de densités de dislocations critique pour le tantale pour un recuit effectué à 20°C/min avant et après correction de la restauration Ces courbes sont établies pour un temps de recuit de 30 min. Lorsque ce temps va diminuer, la densité de dislocations critique va augmenter. Les embryons ayant moins de temps pour atteindre les conditions critiques de croissance et devenir des germes, seuls les germes déjà présents dans la microstructure vont être activés. Un recuit d'une éprouvette DECC avec un temps de palier thermique court (3 min) montre qu'à 1000°C la zone centrale commence à peine à recristalliser (figure 3-31), la densité de dislocations critique (avant correction de la restauration) est donc d'environ 10,5. Après correction de la restauration, on trouve une valeur de 6,7, légèrement supérieure à la valeur obtenue pour 30 minutes de traitement qui est de 6,2 (figure 3-30). A 1000°C, la densité de dislocations critique ne paraît pas varier beaucoup en fonction du temps de palier. Figure 3-31. Début de recristallisation dans la zone centrale d'une éprouvette DECC déformée à 0,1 mm/s et recuite à 1000°C pendant 3 min (pente de 20°C/min) En vue d'une intégration de cette courbe de densité de dislocations critique pour le déclenchement de la recristallisation dans le modèle, on peut identifier une loi simple de type exponentielle (forme de loi classique pour les phénomènes thermiquement activés), Equation 3.8 CARACTERISATION DE LA RECRISTALLISATION STATIQUE ET DE LA CROISSANCE DE GRAINS DANS LE TANTALE PUR Avec T la température en Kelvin, les paramètres de la loi (3.8) ont pour valeurs : Cette loi est validée entre 900 °C et 1050°C. Cependant la forme de la loi étant assez classique, on la considérera extrapolable à des températures plus élevées. Lorsque la température est plus faible que 900°C, l'extrapolation est plus compliquée étant donné que la germination va devenir très peu probable (quasi nulle aux alentours de 600 °C) et que la loi utilisée ici ne représentera pas une augmentation très importante de la densité de dislocations critique. 4. Cinétiques de recristallisation du tantale pur et croissance de grains Une fois le seuil de déclenchement de la recristallisation déterminé, il est important de savoir comment progresse la fraction volumique de grains recristallisés au cours du temps et en fonction de la température. L'identification de cette fraction recristallisée dans la microstructure se faisant en règle générale à partir d'une observation 2D, la fraction recristallisée mesurée sera surfacique. La cinétique de recristallisation obtenue à partir de ces mesures est ensuite considérée comme identique à la cinétique 3D. Pour déterminer ces cinétiques, des éprouvettes seront recuites à l'aide d'un four Netzsch « haute vitesse » permettant d'atteindre des vitesses de chauffage très rapides (la vitesse moyenne atteinte lors des essais est d'environ 600 K.min-1). Le traitement se fait sous une légère surpression d'argon dans la chambre. La chambre du four est plusieurs fois successivement mise sous vide primaire et remplie d'argon (5 cycles) pour « nettoyer » le four de l'oxygène. Ce moyen de traitement permet une bonne maîtrise des conditions du traitement thermique, la mesure de température étant faite très proche de l'échantillon. A la fin du palier du traitement thermique, une valve est ouverte pour permettre une circulation d'argon dans la chambre afin d'accélérer le refroidissement de l'échantillon et ainsi éviter autant que possible toute évolution métallurgique. Deux exemples de courbes de températures pour des recuits à 1000°C et 1100°C sont montrés sur la figure 332. 1200 1000 Température (°C) 800 600 400 200 0 0 5 10 15 20 25 30 35 40 45 Temps (min) Figure 3-32. Courbes de température typiques des traitements réalisés avec le four Netzsch 109 CARACTERISATION DE LA RECRISTALLISATION STATIQUE ET DE LA CROISSANCE DE GRAINS DANS LE TANTALE PUR 110 Les échantillons sont obtenus par des essais de torsion (décrits en annexe A1) réalisés dans des conditions de déformation engendrant des microstructures différentes. Le tableau 33 donne les conditions de déformation ainsi que les densités de dislocations équivalentes maximales (en surface externe de l'éprouvette) en fin de déformation calculées à partir de la loi d'écrouissage (2.4) identifiée dans la partie 2. Tableau 3-3. Conditions de déformation en surface de la partie utile et densité de dislocations des microstructures initiales Déformation -1 Vitesse de déformation (s ) Densité de dislocations équivalente relative 0,64 0,5 6,2 1,28 0,5 6,7 3,5 0,05 9,5 Les échantillons prélevés sont des demi-cylindres d'un diamètre de 6 mm et d'une hauteur d'environ 4 mm. Une fois traités, un méplat d'environ 2 mm de largeur est réalisé sur la partie cylindrique et sur toute la hauteur de l'échantillon. Sur ce méplat, la microstructure a subi une déformation de 0,95 à 1 fois la déformation maximale5 pour une vitesse de déformation qui varie peu également (variation du même ordre que la déformation). La microstructure observée sur le méplat a donc subi une histoire thermomécanique quasi homogène. Le méplat est alors poli suivant le protocole décrit dans l'annexe A3 pour être observé par EBSD. Les fractions recristallisées sont déterminées à partir de la méthode du « Grain Orientation Spread » (seuil fixé à 1°). Les barres d'incertitude présentes sur les mesures de la fraction recristallisée traduisent les variations dues au choix du seuil de l'analyse GOS (entre 0,8° et 1,2° suivant la microstructure). A. CINETIQUE DE RECRISTALLISATION DE REFERENCE A 1000°C L'objectif de cette étude des cinétiques de recristallisation est d'évaluer l'effet des paramètres thermomécaniques comme la densité de dislocations équivalente initiale, la température et le temps de recuit ou encore la quantité de déformation. L'échantillon présentant une densité de dislocations équivalente relative de 6,2 a été traité à 1000°C pendant différentes durées de 2 min à 1 h. La cinétique de recristallisation établie servira de référence pour la suite de cette étude. La figure 3-33.a montre l'évolution de la fraction recristallisée en fonction du temps pour cet échantillon de référence. On constate clairement que la fraction recristallisée (X) augmente avec le temps pour atteindre 50% au bout d'une heure. La tendance de cette courbe peut également nous faire penser que l'échantillon ne recristallisera jamais à 100% même pour des temps très longs. Lorsque l'on considère la courbe de densité de dislocations critique déterminée précédemment, la valeur critique à 1000°C pour le tantale est d'environ 6,4 pour 30 min de recuit. La densité de dislocations déterminée dans l'échantillon est donc très proche de cette valeur seuil. On peut alors suggérer qu'une partie seulement de la distribution de densité de dislocations se trouvait au dessus de la valeur critique (étant donné la dispersion expérimentale de la densité de dislocations). Pendant que ces zones recristallisent, l'énergie stockée dans le reste de la microstructure réduit par restauration et ainsi la force motrice pour le mouvement du front de recristallisation diminue. Ceci peut expliquer que la cinétique soit assez lente et que la fraction recristallisée n'atteigne jamais 100%. 5 La déformation maximale se situe à la surface de la partie utile. CARACTERISATION DE LA RECRISTALLISATION STATIQUE ET DE LA CROISSANCE DE GRAINS DANS LE TANTALE PUR 111 Au cours de la recristallisation, la taille moyenne des grains recristallisés atteint environ 32 μm au bout de 2 min (figure 3-33.b). Lorsque le temps de recuit augmente, la taille de grains augmente lentement pour atteindre environ 36 μm au bout d'une heure. La progression de la recristallisation est donc plus vraisemblablement due à une augmentation du nombre de grains recristallisés qu'à la croissance des premiers. Cette observation est compatible avec l'hypothèse de germination continue et le fait que les germes ont différents temps d'incubation. Une fois la densité de dislocations devenue inférieure à la densité de dislocations critique par restauration ou parce que les zones les plus déformées ont déjà entièrement recristallisés, la germination s'arrête. Cela peut expliquer aussi la saturation de la fraction recristallisée autour de 50 %. (a) (b) 45 0,9 40 Diamètre moyen des grains recristallisés (μm) 1 0,8 Fraction recristallisée 0,7 0,6 0,5 0,4 0,3 0,2 0,1 0 0 10 20 30 Temps de recuit (min) 40 50 60 35 30 25 20 15 10 5 0 0 10 20 30 Temps de recuit (min) 40 50 60 Figure 3-33. Cinétique de recristallisation de référence à 1000°C et taille moyenne des grains recristallisés (densité de dislocations équivalente relative 6,2) B. INFLUENCE DE LA TEMPERATURE DE RECUIT Lorsque pour ce même échantillon (densité de dislocations de 6,2), on augmente la température de recuit à 1100°C, le seuil critique de déclenchement de la recristallisation est abaissé. Selon l'équation 3.8, on estime cette valeur à 5,2. Cette fois-ci, l'échantillon se trouve significativement au-dessus de la valeur critique, et la cinétique de recristallisation est accélérée (figure 3-34.a). Cette accélération de la cinétique est également une conséquence de la mobilité des joints de grains qui augmente lorsque la température augmente. On remarque cependant que la fraction recristallisée semble tendre vers une valeur autour de 75 %. Ceci peut également s'expliquer par une diminution par restauration de la force motrice pour la migration des interfaces et, comme pour la cinétique à 1000°C, par le fait que la densité de dislocations devienne inférieure au seuil de déclenchement de la germination. La taille de grains et son évolution sont, au contraire de la cinétique de recristallisation, très peu modifiées par une augmentation de la température (figure 3-34.b). On retrouve ici le fait que la germination est prépondérante sur les effets de mobilité de joints de grains dans la progression de la fraction recristallisée. CARACTERISATION DE LA RECRISTALLISATION STATIQUE ET DE LA CROISSANCE DE GRAINS DANS LE TANTALE PUR (a) (b) 1 45 1000°C référence 1100°C 40 Diamètre moyen des grains recristallisés (μm) 0,9 0,8 0,7 Fraction recristallisée 112 0,6 0,5 0,4 0,3 0,2 0,1 0 0 10 20 30 Temps de recuit (min) 40 50 60 35 30 25 20 15 1000°C 6,2 [0,64] 10 1100°C 6,2 [0,64] 5 0 0 10 20 30 Temps de recuit (min) 40 50 60 Figure 3-34. Influence de la température sur la cinétique de recristallisation et sur la taille moyenne des grains recristallisés (densité de dislocations initiale 6,2) C. INFLUENCE DE LA DENSITE DE DISLOCATIONS INITIALE En comparaison de la cinétique de référence établie à 1000°C, une augmentation de la densité de dislocations de l'échantillon déformé accélère notablement la cinétique de recristallisation (figure 3-35.a). Dès 15 min de traitement, la microstructure est totalement recristallisée. Avec la méthode du GOS, la fraction recristallisée maximale pour cet échantillon est de 90%. En observant la microstructure (figure 3-36), on peut vérifier sur base d'un critère de forme que tous les grains ou presque sont recristallisés. Les grains considérés comme non recristallisés sont en fait des regroupements de grains recristallisés ayant une orientation cristallographique proche comme on peut le voir sur la figure 3-36 (zoom). Les interfaces qui se créent entre les grains sont désorientées de moins de 5° et donc peu mobiles (orientation pinning) mais ceci engendre un « Grain Orientation Spread » supérieur à 1,2°. Dans ce cas, les barres d'incertitudes sont définies autrement : la fraction recristallisée se situe entre la valeur déterminée et 1. La taille moyenne des grains recristallisés est fortement diminuée par rapport à un échantillon moins déformé. On passe d'environ 32 μm en début de recristallisation pour l'échantillon de référence à 11 μm en fin de recristallisation pour l'échantillon ayant initialement une densité de dislocations équivalente de 9,5. Cette différence de taille de grains résulte d'une plus forte densité des germes activés lors du traitement thermique. La microstructure étant entièrement recristallisée dès 15 min, les grains entrent dans le régime de croissance de grains pour les traitements plus longs. Même après 3 h de traitement à 1000°C, la taille de grains moyenne n'a cependant pas évolué de manière significative et atteint seulement 13 μm. La vitesse moyenne de migration des joints de grains est alors estimée à 1 x 10 -4 μm/s. Cette faible vitesse de croissance de grains à 1000°C pourrait être liée à la proportion de joints de grains faiblement désorientés (entre 5° et 15°) (figure 3-37.a) qui ont une mobilité inférieure à des interfaces plus fortement désorientées. Il apparaît donc compliqué d'estimer une mobilité moyenne dans cette situation. CARACTERISATION DE LA RECRISTALLISATION STATIQUE ET DE LA CROISSANCE DE GRAINS DANS LE TANTALE PUR (a) (b) 45 0,9 40 Diamètre moyen des grains recristallisés (μm) 1 0,8 Fraction recristallisée 0,7 0,6 0,5 0,4 0,3 0,2 densité de dislocations équivalente 6,2 0,1 densité de dislocations équivalente 9,5 0 0 20 40 60 80 100 Temps de recuit (min) 120 140 160 180 1000°C 6,2 1000°C 9,5 35 30 25 20 15 10 5 0 0 20 40 60 80 100 Temps de recuit (min) 120 140 160 180 Figure 3-35. Influence de la densité de dislocations équivalente initiale sur la cinétique de recristallisation et sur la taille moyenne des grains recristallisés à 1000°C Figure 3-36. Microstructure de l'échantillon ayant la densité de dislocations initiale la plus élevée (9,5) et recuit à 1000°C pendant 15 min (cartographie d'orientation obtenue par EBSD) (a) (b) 0,05 0,05 0,04 0,04 Fréquence Fréquence Distribution de MacKenzie correspondant à une texture aléatoire 0,03 0,03 0,02 0,02 0,01 0,01 0 0 5,5 10,5 15,5 20,5 25,5 30,5 35,5 40,5 45,5 50,5 55,5 60,5 0 10 20 Angle de désorientation (°) 30 40 50 60 Angle de désorientation (°) Figure 3-37. Distribution des angles de désorientations entre deux pixels de la cartographie de l'échantillon recristallisé (densité de dislocations équivalente de 9,5) (a) uniquement au niveau des joints de grains (b) entre deux pixels pris aléatoirement dans la cartographie 70 113 CARACTERISATION DE LA RECRISTALLISATION STATIQUE ET DE LA CROISSANCE DE GRAINS DANS LE TANTALE PUR D. EFFET DE LA QUANTITE DE DEFORMATION Deux des trois échantillons ont été déformés dans les mêmes conditions de vitesse de déformation mais à deux niveaux de déformation (0,64 et 1,28), menant à des densités de dislocations équivalentes proches, respectivement 6,2 et 6,7. Cette faible différence provient du fait que la contrainte tend à saturer lorsque la déformation augmente. Malgré cela, on observe une accélération très nette de la cinétique de recristallisation pour l'échantillon déformé à 1,28 (figure 3-38.a). La principale différence entre ces deux échantillons est l'augmentation des sites potentiels de germination par la formation de la sous-structure au cours de la déformation. Dans les microstructures déformées, on observe un élargissement très clair de la distribution des désorientations intragranulaires lorsque la déformation augmente (figure 3-39) alors que le maximum ne se déplace pas beaucoup. Cette observation peut être le signe de la création de parois de dislocations générant des désorientations intragranulaires significatives et traduisant la formation de cellules de dislocations comme nous avons pu l'évoquer dans la partie 2. La description de la microstructure à une seule densité de dislocations équivalente montre ici ses limites. Vu que l'on s'appuie sur la contrainte pour en déduire la densité de dislocations équivalente, lorsque la déformation augmente, le modèle tend à faire saturer la densité de dislocations. Cependant, la sous-structure de dislocations se forme, devient de mieux en mieux définie et va donc influencer de plus en plus la recristallisation. Ce phénomène n'est donc pas pris en compte. On note également que pour cette nouvelle cinétique, la fraction recristallisée atteint 80% de fraction recristallisée dès 15 min de traitement pour ensuite ne plus évoluer de manière significative. La taille de grains moyenne de cet échantillon plus déformé est inférieure à celle de l'échantillon de référence (figure 3-38.b.). Pour un temps équivalent de 15 min, on passe d'environ 35 μm à 25 μm. La structure en cellules formée au cours de la déformation a augmenté légèrement la densité de germes, la taille de grains moyenne est donc logiquement inférieure. (a) (b) 45 0,9 40 Diamètre moyen des grains recristallisés (μm) 1 0,8 0,7 Fraction recristallisée 114 0,6 0,5 0,4 0,3 0,2 Déformation de 0,64 Déformation de 1,28 0,1 0 0 10 20 30 Temps de recuit (min) 40 50 60 35 30 25 20 15 1000°C 6,2 [0,64] 10 1000°C 6,7 [1,28] 5 0 0 10 20 30 Temps de recuit (min) 40 50 Figure 3-38.Influence de la quantité de déformation à niveau de densité de dislocations équivalent sur la cinétique de recristallisation et sur la taille moyenne des grains recristallisés à 1000°C 60 CARACTERISATION DE LA RECRISTALLISATION STATIQUE ET DE LA CROISSANCE DE GRAINS DANS LE TANTALE PUR 0,16 Niveau de déformation : 0,64 0,14 Niveau de déformation : 1,28 0,12 Fréquence 0,1 0,08 0,06 0,04 0,02 0 0 0,5 1 1,5 2 2,5 3 3,5 4 Désorientations intragranulaires (°/μm) Figure 3-39. Distributions des désorientations intragranulaires dans les microstructures déformées à 0,64 et 1,28. On peut donc retenir que :  La courbe de densité de dislocations critique prédit bien le déclenchement de la recristallisation.  Une augmentation de la température de 1000°C à 1100°C accélère la cinétique sans modifier la taille moyenne des grains recristallisés et avec un même type d'évolution au cours du temps.  Une augmentation significative de la densité de dislocations équivalente de 6,2 à 9,5 accélère énormément la cinétique de recristallisation. La taille de grains est fortement diminuée à cause de l'augmentation de la densité de germes.  Une augmentation de la quantité de déformation (de 0,64 à 1,28) accélère fortement la cinétique même si les densités de dislocations équivalentes dans les échantillons déformés sont proches. L'augmentation de la déformation entraîne la formation d'une sous-structure en cellules qui facilite la germination. La taille moyenne des grains recristallisés est, du coup, légèrement inférieure. En revanche, la croissance de grains après recristallisation n'a pas réellement pu être observée. A 1000°C, la croissance des grains est très lente. On observe une augmentation de 2 μm de la taille de grains moyenne en 2 h de traitement. Cette vitesse faible de migration des joints de grains peut être liée à la quantité non négligeable de joints de grains faiblement désorientés (5° à 15°) dans la microstructure. Une identification de la mobilité moyenne des joints de grains paraît difficile à partir de ces données. 115 116 CARACTERISATION DE LA RECRISTALLISATION STATIQUE ET DE LA CROISSANCE DE GRAINS DANS LE TANTALE PUR SYNTHESE Dans cette partie, nous avons abordé les aspects majeurs des évolutions microstructurales du tantale au cours d'un traitement thermique. Nous nous sommes basés à la fois sur une étude bibliographique et sur une caractérisation expérimentale de ces phénomènes afin d'en extraire des paramètres et des lois nécessaires à la modélisation qui va suivre. Nous avons pu voir que la restauration dans le tantale est un phénomène qu'il est difficile de négliger. La restauration est active dès 600°C et il est donc très important de prendre en compte la vitesse de chauffage lorsque l'on souhaite décrire la compétition entre restauration et recristallisation. En raison de la modification de la loi HDD, les paramètres de la loi de restauration ont été réidentifiés pour permettre de prendre en compte ce phénomène par la suite. Restauration λ = 0,78 ρinf = 4,1 -19 Qr = 1,29 x 10 J/at La recristallisation et la croissance de grains ont été directement observées par une méthode originale de traitement thermique in situ. Cette technique permet d'observer localement les mécanismes responsables de la régénération de la microstructure. Une étude approfondie de la technique a permis de la valider et de montrer que la surface libre n'influençait pas la migration des joints de grains. Une quantification de la mobilité moyenne des joints de grains est donc possible et on estime une valeur à 750°C de 1 x 10 -13 m4.J-1.s-1. Cette estimation est proche de la valeur de 7 x 10-13 m4.J-1.s-1 calculée à partir des paramètres physiques du tantale issus de la littérature. Type de germination Continue Au niveau des joints de grains Mobilité des joints de grains La recristallisation dans le tantale se déclenche à partir de 800°C pour des échantillons déformés à des niveaux de déformation d'environ 5. Cette variable mécanique n'étant pas suffisante pour décrire la microstructure, nous avons choisi de déterminer une densité de dislocations équivalente critique pour le déclenchement de la recristallisation. Un essai mécanique a ensuite été dimensionné à partir d'une géométrie existante afin de générer un gradient de densité de dislocations. Ces éprouvettes déformées sont par la suite recuites à différentes températures pour estimer une densité de dislocations équivalente critique en fonction de la température. Les valeurs critiques observées sont corrigées par la loi de restauration pour prendre en compte la pente de chauffage. On obtient ainsi une courbe de déclenchement de la recristallisation thermodépendante avec comme variable la densité de dislocations équivalente, établie pour une durée de traitement de 30 min. Même si cette courbe est dépendante du temps de palier (un palier plus long laisse le temps à certains germes de se former), une faible différence de densité de dislocations critique a été observée avec un traitement réalisé à 1000°C pendant 3 min (avec la même vitesse de chauffage). CARACTERISATION DE LA RECRISTALLISATION STATIQUE ET DE LA CROISSANCE DE GRAINS DANS LE TANTALE PUR Loi de déclenchement de la recristallisation Enfin, connaissant le déclenchement de la recristallisation, nous avons cherché à déterminer l'évolution de la fraction recristallisée au cours du temps, aspect manquant particulièrement dans la littérature. Plutôt que d'avoir un catalogue de cinétiques dans beaucoup de conditions différentes, cette étude s'est portée principalement sur l'évaluation de l'effet des paramètres thermomécaniques sur ces cinétiques. La température et l'augmentation de la densité de dislocations ont pour effet d'accélérer les cinétiques. Nous avons également pu constater que la cinétique de recristallisation et la microstructure recristallisée dépendaient énormément de la microstructure issue de la déformation :  Les hétérogénéités de déformation induisent des hétérogénéités dans la microstructure de recuit.  Les orientations cristallographiques les plus stables recristallisent difficilement.  Une augmentation de la quantité de déformation (de 0,64 à 1,28) accélère fortement la cinétique même si les densités de dislocations équivalentes dans les échantillons déformés sont proches. L'augmentation de la déformation entraîne la formation d'une sous-structure en cellules qui facilite la germination. La taille moyenne des grains recristallisés est donc légèrement inférieure. La germination apparaît comme un problème central dans le phénomène de recristallisation du tantale. En effet, les tailles de grains recristallisés atteignent très vite une valeur quasi stable alors que la fraction recristallisée évolue toujours. La progression de la recristallisation serait alors plutôt due à l'apparition de nouveaux grains qu'à la croissance de grains dans la matrice déformée. L'effet de l'augmentation du niveau de déformation sur le comportement en recristallisation est encore une autre preuve de l'effet de la germination sur la cinétique de recristallisation. Définir une loi de germination appropriée apparaît comme très important pour modéliser la recristallisation dans le tantale. A l'issue de la phase de recristallisation, nous n'avons pas observé clairement de croissance de grains à 1000°C. Cependant, dans la littérature, la croissance est observée dans des expériences réalisées à 1100°C. De plus, nous avons également pu constater à partir de ces données, que la cinétique de croissance de grains dépendait significativement de la distribution de taille de grains en fin de recristallisation. 117 QUATRIEME PARTIE. Modélisation des évolutions microstructurales du tantale au cours d'un traitement thermique 120 MODELISATION DES EVOLUTIONS MICROSTRUCTURALES DU TANTALE AU COURS D'UN TRAITEMENT THERMIQUE INTRODUCTION Un des deux objectifs fixés pour cette thèse est de fournir un modèle capable de simuler un traitement thermique pour prédire la microstructure recuite à partir d'une microstructure initiale. Nous allons appliquer la modélisation en champ moyen décrite dans la partie 1 pour prédire les microstructures obtenues après traitements thermiques. Les résultats des simulations seront comparés avec les données expérimentales obtenues en recristallisation dans la troisième partie de ce manuscrit, afin de valider les lois utilisées et d'identifier les paramètres du modèle. Dans le modèle, nous utiliserons le plus possible les données déterminées expérimentalement dans les parties précédentes, notamment pour la densité de dislocations du matériau recristallisé (partie 2, ), la loi de restauration (partie 3 section II.1, équation 1.19) et la densité de dislocations critique (partie 3, section II.3). Une attention particulière sera portée sur la description des microstructures initiales. A partir de ces microstructures déformées en torsion, nous allons simuler les traitements thermiques réalisés à 1000°C et 1100°C pour tenter de prédire les microstructures obtenues expérimentalement après recuit. I. DESCRIPTION DES MICROSTRUCTURES INITIALES La première étape consiste à bien décrire les microstructures initiales des traitements thermiques selon le modèle choisi. On rappelle ici que la microstructure représentative est décrite par une distribution de densités de dislocations et une distribution de tailles de grains. Les grains sont considérés sphériques et donc tridimensionnels. Le modèle est alimenté par une taille de grains moyenne et une densité de dislocations moyenne , ainsi que par la largeur des distributions, déterminées respectivement par les paramètres et . Dans la suite, nous distinguerons les microstructures initiales des traitements de croissance de grains, de celles des traitements thermiques de recristallisation. 1. Microstructure initiale pour la croissance de grains La microstructure initiale pour la croissance de grains a été obtenue en réalisant un traitement thermique à 1000°C sur une éprouvette déformée en torsion ( , . On obtient alors une microstructure complètement recristallisée avec des grains équiaxes (figure 4-1.a) ayant une taille moyenne en nombre en deux dimensions . La distribution de taille de grains de cette microstructure est présentée sur la figure 41.b et à laquelle correspond une valeur . La description de la microstructure pour modéliser la recristallisation nécessite des données en trois dimensions. Pour transformer la valeur de la taille de grains moyenne 2D en taille 3D, nous avons appliqué la méthode de Saltykov (Saltykov 1958) sur la distribution des diamètres de cercles équivalents. Par cette méthode, la taille de grains moyenne 3D en nombre est égale à . Le facteur de conversion entre les tailles moyennes 2D et 3D est donc égal à 0,82 pour cette microstructure. On note que ce facteur est ici inférieur à 1 mais que sa valeur est susceptible d'être modifiée en fonction de la microstructure que l'on considère (forme des grains et distribution de taille). Par MODELISATION DES EVOLUTIONS MICROSTRUCTURALES DU TANTALE AU COURS D'UN TRAITEMENT THERMIQUE cette transformation en trois dimensions, la distribution devient non symétrique par rapport à la moyenne et on ne peut plus décrire strictement la largeur de distribution avec une quantité unique (partie 1, équations 1.5 et 1.6). Il faudrait un nombre fixant la valeur minimale et un autre la valeur maximale. Ici, on considérera néanmoins la largeur de distribution identique à celle obtenue en 2D, qui est un compromis entre la prise en compte des gros grains et l'ajout de petits grains dans la distribution. La densité de dislocations de cette microstructure est celle déterminée pour le matériau recristallisé . Dans ce cas, la microstructure est décrite par cette seule valeur de densité de dislocations et non par une distribution. (a) r θ r (b) z 0,3 Histogramme 2D Valeurs discrètes 3D après correction de Saltykov Nombre de grains normalisé 0,25 0,2 0,15 0,1 0,05 0 5,5 7,5 9,5 11,5 13,5 15,5 17,5 19,5 21,5 23,5 25,5 27,5 29,5 Diamètre de cercle (ou sphère) équivalent(e) (μm) Figure 4-1. Microstructure initiale pour les traitements thermiques de croissance de grains (a) cartographie d'orientations obtenues par EBSD (b) distributions de tailles de grains en 2D et en 3D après correction de Saltykov 121 MODELISATION DES EVOLUTIONS MICROSTRUCTURALES DU TANTALE AU COURS D'UN TRAITEMENT THERMIQUE Remarque La définition d'une taille de grains requiert de fixer un angle de désorientation minimal pour définir un joint de grains. Dans notre cas nous avons choisi ce seuil à 5° pour bien décrire la microstructure que l'on observe effectivement. Des grains que l'on observe clairement sur une cartographie peuvent ne pas être détectés si le seuil est fixé à 15° (figure 4-2.a). Au regard de la mobilité des joints de grains notamment, cette valeur de 5° apparaît basse, les joints de grains étant généralement considérés très mobiles à partir d'un angle de 15° de désorientation. Cependant, la quantité de joints de grains ayant un angle de désorientation inférieur à 15° est plutôt faible par rapport à la quantité totale de joints de grains (figure 4-2.b). Le choix d'un angle de 5° ne devrait pas donc pas avoir un impact significatif sur les évolutions prédites de la microstructure au cours des traitements thermiques. (a) (b) 1 0,9 0,8 Fréquence cumulée 122 0,7 0,6 0,5 0,4 0,3 0,2 0,1 0 5 15 25 35 45 55 65 Angle de désorientation (°) r θ r z Zoom Figure 4-2. (a) Microstructure recristallisée avec un angle de désorientation seuil de détection des joints de grains à 15° (b) Diagramme des fréquences cumulées des désorientations des joints de grains dans la même microstructure 2. Microstructures initiales pour la recristallisation Comme nous avons pu le voir dans la partie 3 section II.4, trois types de microstructures ont été produites à partir d'essais de torsion pour établir des cinétiques de recristallisation. Ces trois microstructures ont été choisies pour leurs caractéristiques permettant de tester le modèle, et notamment l'influence de la description de la microstructure initiale. Les trois microstructures déformées ont été analysées par EBSD et sont présentées sur la figure 4-3. Ces microstructures sont également évoquées dans la partie 2, section III. La microstructure 1 a été choisie car elle se décrit de manière assez pertinente par des distributions de densités de dislocations et de tailles de grains telles que nécessaires dans le modèle en champ moyen utilisé. En effet, la morphologie des grains est assez proche de formes équiaxes et la distribution de densité de dislocations intragranulaires est approximable par une densité de dislocations moyenne. Les microstructures 2 et 3 sont plus éloignées du modèle de description de la microstructure et seront donc un bon test pour connaître les capacités du modèle en champ moyen à retranscrire les évolutions microstructurales de telles microstructures. La microstructure 3 est très fragmentée alors que la microstructure 2 est une microstructure intermédiaire, avec des grains allongés et des zones fragmentées. MODELISATION DES EVOLUTIONS MICROSTRUCTURALES DU TANTALE AU COURS D'UN TRAITEMENT THERMIQUE Figure 4-3. Microstructures initiales pour les traitements de recristallisation (à gauche, cartographies d'orientations et, à droite, cartographies dans lesquelles chaque grain a une seule couleur) A. DISTRIBUTION DE DENSITES DE DISLOCATIONS La densité de dislocations équivalente relative moyenne a été déterminée dans la troisième partie à partir de la loi de comportement basée sur la densité de dislocations. Le tableau 4-1 résume les valeurs absolues obtenues pour chacune des microstructures. La figure 4-4 montre les désorientations intragranulaires mesurées par EBSD dans chacune des microstructures, sous la forme de distributions du gradient local d'orientation. On constate que, lorsque 123 MODELISATION DES EVOLUTIONS MICROSTRUCTURALES DU TANTALE AU COURS D'UN TRAITEMENT THERMIQUE la déformation augmente, les gradients d'orientation locaux augmentent et semblent suivre une loi de type log-normale. Le paramètre de largeur de ces distributions est d'en moyenne 0,2. Interpréter le sens physique de ces distributions est néanmoins délicat, la distribution des gradients locaux d'orientation dépendant de nombreux paramètres de la mesure EBSD (résolution spatiale et angulaire, pas de mesure, préparation de la surface, ). Tableau 4-1. Densité de dislocations équivalente moyenne pour les trois microstructures issues des essais de torsion Déformation -1 Vitesse de déformation (s ) Densité de dislocations relative -2 Densité de dislocations absolue (m ) Microstructure 1 0,64 0,5 6,2 14 2,17 x 10 0,2 Microstructure 2 1,28 0,5 6,7 14 2,35 x 10 0,2 Microstructure 3 3,5 0,05 9,5 14 3,33 x 10 0,2 0,18 Microstructure 1 0,16 Microstructure 2 Microstructure 3 0,14 0,12 Fréquence 124 0,1 0,08 0,06 0,04 0,02 0 0,1 1 10 100 Gradient local d'orientation (°/μm) Figure 4-4. Désorientations intragranulaires dans chacune des microstructures 1, 2 et 3 La densité de dislocations géométriquement nécessaires étant liée de façon linéaire aux désorientations intragranulaires (équation 3.3), on supposera que la distribution des densités locales de dislocations suit également une loi log-normale avec un paramètre de largeur de distribution de 0,2. Cette distribution locale sera ensuite considérée comme la distribution des densités de dislocations à l'échelle granulaire. B. DISTRIBUTION DE TAILLES DE GRAINS Le modèle de recristallisation se base sur l'hypothèse que les grains sont des sphères. Dans le cas présent d'une déformation à froid, la forme des grains déformés peut être très éloignée d'une sphère. On voit d'ailleurs sur la figure 4-3 que les grains sont nettement allongés et ont plutôt une forme d'ellipsoïde. A partir des données EBSD, on accède à la surface de chacun des grains considérés dans la microstructure. Cette donnée brute est ensuite convertie en un diamètre de cercle équivalent (i-e de même surface) pour calculer ensuite un diamètre moyen des grains, en considérant donc ceux-ci comme des cercles, . Le tableau 4-2 regroupe ces tailles de grains équivalentes pour les trois microstructures. Cette méthode définit la taille de grains sur la base MODELISATION DES EVOLUTIONS MICROSTRUCTURALES DU TANTALE AU COURS D'UN TRAITEMENT THERMIQUE d'une hypothèse de forme des grains qui est assez éloignée de la morphologie réelle, et qui, de plus, est relative à des coupes en 2D de la microstructure. Comme pour la microstructure présentée précédemment dans la section I.1 de cette partie, on peut, en première approche, transformer la distribution des diamètres de cercles équivalents en 2D en une distribution de diamètres en 3D par la méthode de Saltykov. Les résultats (taille de grains moyenne , facteur de conversion 2D/3D et largeur des distributions) de cette transformation sont présentés dans le tableau 4-2. Cette méthode est contestable par le fait que les grains ne sont pas des sphères et que la statistique de la mesure EBSD (nombre de grains) ne permette pas d'être dans les conditions idéales pour appliquer la méthode de Saltykov. Dans le cas présent, pour décrire de la manière la mieux adaptée la microstructure initiale, il faut se rappeler l'importance des joints de grains pour la germination de la recristallisation. Ainsi, la taille de grains qui serait la plus pertinente serait celle permettant d'introduire dans le modèle de recristallisation la bonne quantité de joints de grains par unité de volume. Nous avons par conséquent choisi de déterminer une taille de grains sphériques équivalente à la densité de joints de grains mesurée. Nous allons réaliser cette analyse directement en 3D, ce qui suppose de faire quelques hypothèses :  Les grains sont approximés par des ellipsoïdes de révolution tels que la longueur de l'axe perpendiculaire au plan de mesure soit égale à la longueur du petit axe de l'ellipse dans le plan de mesure,  Tous les grains sont coupés à l'équateur (hypothèse forte),  Le facteur de forme ( ) est identique pour chaque grain. A partir de la mesure EBSD, on accède à la distribution de ces petits axes dans la microstructure et au facteur de forme moyen défini comme le rapport entre le petit axe et le grand axe de l'ellipse. On peut ainsi calculer la valeur ( ) du grand axe des ellipses pour chaque catégorie de la distribution des petits axes. Pour chaque ellipsoïde de petit axe , on calcule sa surface et son volume par : Equation 4.1 Equation 4.2 La densité de joints de grains pour une ellipse i est ensuite calculée à partir du rapport entre la surface et le volume (avec un facteur 1/2 puisque chaque joint de grains appartient à deux grains) : Equation 4.3 On obtient ainsi une distribution des densités de joints de grains dans la microstructure (avec une valeur moyenne en nombre ), distribution que l'on souhaite traduire en 125 126 MODELISATION DES EVOLUTIONS MICROSTRUCTURALES DU TANTALE AU COURS D'UN TRAITEMENT THERMIQUE distribution de diamètres de sphères équivalentes (au sens de la densité de joints de grains). En considérant l'équation 4.3 et en imposant que les grains sont maintenant des sphères, le diamètre équivalent pour chaque grain i est donné par : Equation 4.4 De cette distribution, on calcule la valeur moyenne (en nombre) du diamètre équivalent (au sens de la densité de joints de grains). A partir des valeurs minimale et maximale de la distribution des diamètres équivalents, on estime le paramètre de largeur de la distribution des tailles de grains équivalentes. Dans le cas d'une distribution nécessitant deux paramètres différents pour représenter les valeurs min et max à partir de la moyenne, on choisit ce paramètre comme compromis permettant de représenter au mieux la microstructure. Les tailles de grains obtenues selon les trois définitions décrites ci-dessus pour les microstructures 1,2 et 3 sont récapitulées dans le tableau 4-2. Tableau 4-2. Caractéristiques des distributions de taille de grains pour les trois microstructures suivant le mode de représentation des grains dans une microstructure déformée à froid (μm) (μm) Facteur de conversion 2D3D (μm) 2 -3 (μm .μm ) II. Microstructure 1 117 0,35 Microstructure 2 91 0,4 Microstructure 3 1,7 0,1 76 0,3 0,65 60 0,32 0,66 2,1 0,4 1,24 78 0,28 0,067 49 0,3 0,089 3 0,26 1,135 SIMULATION DE TRAITEMENTS THERMIQUES Expérimentalement, nous avons mis en oeuvre des vitesses de chauffage très rapides (600°C.min-1). Dans les simulations de traitement thermique servant à reproduire ces expériences, nous pourrons donc négliger cette phase de chauffage. Le traitement débutera à la température de palier. La phase de refroidissement étant rapide, elle sera également négligée. De plus, dans la plupart de nos expériences, le phénomène mis en jeu durant cette dernière phase est plutôt lent (croissance de grains) et ne modifie donc pas la microstructure de manière significative. Le pas de temps par défaut sera de 1 seconde et sera automatiquement réduit si nécessaire (voir conditions de division du pas de temps dans la partie 1, section II.4.a). La loi donnant la densité de dislocations critique pour le déclenchement de la recristallisation en fonction de la température a été déterminée dans la partie 3, équation 3.8. Nous considérerons les trois microstructures telles qu'elles ont été décrites à partir de la densité de joints de grains dans la section I de cette partie. Les paramètres restant à optimiser dans les différentes simulations sont donc les mobilités des joints de grains dans les deux régimes de vitesses de migration des joints de grains, MODELISATION DES EVOLUTIONS MICROSTRUCTURALES DU TANTALE AU COURS D'UN TRAITEMENT THERMIQUE dits de « recristallisation » (grande vitesse) et de « croissance de grains » (basse vitesse) et , le seuil de transition d'une valeur de mobilité à l'autre et la constante de germination Kg (équation 1.21). Pour identifier les paramètres du modèle, nous réaliserons une détermination basée sur deux observables : la fraction recristallisée et la taille de grains recristallisés. Ces données expérimentales sont issues des expériences décrites dans la partie 3, section II.4. Cependant, les tailles de grains recristallisés moyennes expérimentales sont des données 2D et il est par conséquent nécessaire de les convertir en 3D pour pouvoir les comparer avec les résultats des simulations. Les grains recristallisés étant plutôt équiaxes, on peut raisonnablement appliquer la méthode de Saltykov sur les distributions de tailles de grains recristallisés. Le facteur de conversion entre les tailles moyennes 2D et 3D s'est avérée être en moyenne de 0,75. Nous appliquerons ce facteur à toutes les données de taille de grains expérimentales recueillies dans la partie 3, section II.4. De plus, il existe expérimentalement une limite basse de la détection des grains qui dépend du pas de mesure choisi pour l'acquisition des cartographies EBSD. En pratique, on ne considère pas comme des grains les groupes de pixels voisins d'orientation cristallographique similaire ayant un nombre de pixels inférieur à trois. Le diamètre du cercle équivalent à la surface de trois pixels est, suivant le type de grille utilisée pour la cartographie EBSD, entre 1,15 et 2 fois la valeur du pas de mesure. On choisit le cas le plus critique de ne pas considérer les grains ayant un diamètre équivalent inférieur à 2 fois la valeur du pas de mesure. Généralement, lors de l'acquisition des cartographies EBSD, le pas de mesure est fixé de manière à représenter 1/10 de la taille moyenne des grains de la microstructure. Ainsi, un grain de taille inférieure à 2/10 de la taille de grains moyenne ne sera pas détecté et donc pas pris en compte dans la valeur moyenne expérimentale. Lors de l'analyse des résultats de la simulation, nous avons par conséquent choisi d'exclure de la moyenne les grains trop petits par rapport à un pas de mesure fictif calculé à partir de la taille de grains moyenne. Remarque Ce seuil de détection des grains montre clairement l'importance de l'échelle de mesure sur la détection des grains recristallisés et donc sur la détection du début de recristallisation. En effet, avec le critère considéré ici et en fonction de la taille de grains de la microstructure initiale, les grains recristallisés commencent à être détectés alors que la fraction recristallisée peut être significativement non nulle. Il peut donc exister en plus du temps d'incubation nécessaire aux embryons pour devenir des germes, un temps de détection des grains recristallisés lié à l'échelle de la mesure. 1. Etude paramétrique du modèle de recristallisation Pour déterminer les valeurs des paramètres du modèle, il est tout d'abord nécessaire de capter les effets de chacun des paramètres à identifier sur la cinétique de recristallisation. Pour cela, nous avons réalisé une étude paramétrique consistant à faire varier chacun des quatre paramètres en conservant les trois autres constants. Pour cela nous avons choisi une microstructure type avec une taille de grains moyenne de 50 μm (distribution log-normale, ) et une densité de dislocations moyenne de 5 x 1014 m-2 (supérieure à la densité de dislocations critique) avec une distribution log-normale resserrée ( ). La simulation de traitement thermique est effectuée à 1000°C pendant 1h. 127 MODELISATION DES EVOLUTIONS MICROSTRUCTURALES DU TANTALE AU COURS D'UN TRAITEMENT THERMIQUE La figure 4-5 montre l'influence de la mobilité des joints de grains dans les deux régimes, de la constante de germination et du seuil de force motrice entre les régimes de mobilité sur la cinétique de recristallisation (figure 4-5, gauche) et sur l'évolution de la taille de grains recristallisés moyenne (figure 4-5, droite). Les courbes de référence sont tracées en noir. • MOBILITÉ AUX FORTES VITESSES DE MIGRATION (M4.J-1. S-1) 18 16 Taille de grains moyenne recristallisée 3D (μm) 1 0,9 Fraction recristallisée 0,8 0,7 0,6 0,5 0,4 0,3 0,2 Mrex = 5e-14 0,1 Mrex = 5e-15 0 0 500 1000 1500 2000 2500 3000 3500 14 12 10 8 6 4 Mrex = 5e-14 Mrex = 5e-15 2 0 4000 0 500 1000 Temps de recuit (s) 1500 2000 2500 3000 3500 4000 Temps de recuit (s) • MOBILITÉ AUX FAIBLES VITESSES DE MIGRATION (M4.J-1. S-1) 18 16 Taille de grains moyenne recristallisée 3D (μm) 1 0,9 Fraction recristallisée 0,8 0,7 0,6 0,5 0,4 0,3 0,2 Mgg = 1e-15 Mgg = 1e-16 0,1 0 0 500 1000 1500 2000 2500 3000 3500 14 12 10 8 6 4 Mgg = 1e-15 Mgg = 1e-16 2 0 4000 0 500 1000 Temps de recuit (s) 1500 2000 2500 3000 3500 4000 Temps de recuit (s) • CONSTANTE DE GERMINATION (S-1) 18 16 Taille de grains moyenne recristallisée 3D (μm) 1 0,9 Fraction recristallisée 0,8 0,7 0,6 0,5 0,4 0,3 0,2 Kg = 1e8 Kg = 1e9 0,1 0 0 500 1000 1500 2000 2500 3000 3500 14 12 10 8 6 4 Kg = 1e8 Kg = 1e9 2 0 4000 0 500 1000 Temps de recuit (s) 1500 2000 2500 3000 3500 4000 Temps de recuit (s) • ENERGIE SEUIL POUR LE CHANGEMENT DE RÉGIME DE MOBILITÉ (J. M-3) 18 16 Taille de grains moyenne recristallisée 3D (μm) 1 0,9 0,8 Fraction recristallisée 128 0,7 0,6 0,5 0,4 0,3 0,2 Eth = 2,9e5 Eth = 3,9e5 0,1 0 0 500 1000 1500 2000 2500 Temps de recuit (s) 3000 3500 4000 14 12 10 8 6 4 Eth = 2,9e5 Eth = 3,9e5 2 0 0 500 1000 1500 2000 2500 3000 3500 4000 Temps de recuit (s) Figure 4-5. Influence des paramètres du modèle sur la cinétique de recristallisation et l'évolution de la taille de grains recristallisés moyenne (courbes de référence en noir) MODELISATION DES EVOLUTIONS MICROSTRUCTURALES DU TANTALE AU COURS D'UN TRAITEMENT THERMIQUE On peut tout d'abord noter que les conditions de référence permettent une recristallisation complète de la microstructure dès 1500 s de traitement thermique. Il s'en suit alors une phase de croissance des grains dans la microstructure recristallisée. Le pic observé au début de la courbe de la taille de grains moyenne est attribué à la germination. L'apparition des germes est continue tant qu'il reste des grains pour lesquels alors que la vitesse de migration des joints de grains diminue en raison de la diminution de l'énergie stockée (par restauration statique). Dans la moyenne en nombre, les petits grains prennent alors plus d'importance ce qui fait chuter la taille de grains recristallisés moyenne. Une fois que la germination s'arrête, cette taille moyenne peut à nouveau augmenter. Lorsque la mobilité mReX diminue d'un ordre de grandeur, on observe un ralentissement de la cinétique de recristallisation qui s'accompagne d'une diminution de la taille des grains recristallisés. Une variation de cette mobilité influence, comme attendu, la cinétique de recristallisation et non la phase de croissance de grains. De même, lorsque mGG diminue d'un ordre de grandeur, on n'observe pas d'effet sur la cinétique de recristallisation mais une stagnation de la taille des grains recristallisés dans la phase de croissance de grains. Lorsque la constante de germination augmente d'un ordre de grandeur, le nombre de germes apparaissant est plus grand, la fraction recristallisée augmente donc plus vite mais la taille moyenne des grains recristallisés est plus faible. La cinétique de croissance des grains recristallisés est ralentie car la fraction d'interfaces mobiles avec le milieu non recristallisé diminue plus vite. Enfin lorsque le seuil de transition entre les régimes de mobilité augmente, dans le cas d'une microstructure qui recristallise à 100%, ce paramètre a peu d'influence à la fois sur la cinétique de recristallisation et sur la croissance de grains. Ce paramètre prend toute son importance dans une microstructure partiellement recristallisée car il conduit notamment à une « saturation » de la fraction recristallisée. Les tendances obtenues lors de cette étude paramétrique sont tout à fait justifiées d'un point de vue physique. 2. Identification des paramètres du modèle de recristallisation sur une microstructure proche des hypothèses de la modélisation La microstructure 1 a été choisie car elle peut être raisonnablement approximée par des grains équiaxes et une densité de dislocations moyenne par grain, description appropriée au modèle en champ moyen utilisé. Nous allons donc considérer cette microstructure pour déterminer les paramètres du modèle. A. IDENTIFICATION DE LA MOBILITE AUX FAIBLES VITESSES DE MIGRATION A 1000°C Une stratégie classique consiste à évaluer la mobilité des joints de grains à partir d'une expérience où elle est le seul paramètre influent, c'est-à-dire à partir d'essais de croissance de grains pure. Nous allons donc utiliser ici les données obtenues en croissance de grains à 1000°C. Dans notre cas, deux mobilités sont à identifier mais nous supposerons que lors de cette expérience nous sommes dans un régime de vitesses de migration faibles, donc sous le seuil de transition entre les deux mobilités. sera donc le seul paramètre ayant un effet sur cette cinétique de croissance de grains. 129 MODELISATION DES EVOLUTIONS MICROSTRUCTURALES DU TANTALE AU COURS D'UN TRAITEMENT THERMIQUE La microstructure initiale est celle présentée sur la figure 4-1. A partir de cette microstructure, on simule un traitement thermique de 2 h 30 à 1000°C en faisant varier . On trouve : Cette valeur donne une prédiction satisfaisante de la taille de grains moyenne 3D au cours du temps (figure 4-6). La croissance de grains à 1000°C dans le tantale utilisé dans cette étude s'avère lente, ce qui conduit à une valeur de la mobilité faible. On remarque une diminution de la taille de grains au début du traitement thermique qui est due à la discrétisation de la microstructure et à la moyenne en nombre. En effet, à ce stade, aucun grain représentatif n'a disparu, le nombre de grains représentatifs est ainsi constant alors que la taille des petits grains diminue et celle des plus gros augmente. La moyenne étant calculée en nombre, les petits grains ont (individuellement) un poids aussi important que les gros, et comme ils sont plus nombreux, on observe une diminution de la taille de grains moyenne. 12 600 580 10 560 540 8 520 6 500 480 4 460 Taille de grains numérique Taille de grains expérimentale Nombre de grains représentatifs 2 440 420 0 0 2000 4000 Nombre de grains représentatifs Taille de grains moyenne recristallisée 3D (μm) 130 6000 8000 400 10000 Temps de recuit (s) Figure 4-6. Comparaison de la simulation d'un traitement thermique de croissance de grains à 1000°C avec les données expérimentales Ce sont ces expériences de croissance de grains qui ont motivé le recours à deux valeurs de mobilité selon le régime de force motrice. B. IDENTIFICATION DES AUTRES PARAMETRES A 1000°C Une fois la mobilité en croissance de grains à 1000°C fixée, il reste à déterminer trois paramètres pour cette température : , et . Pour cela, nous allons utiliser la cinétique de recristallisation expérimentale obtenue à 1000°C sur la microstructure 1. Cette microstructure sera décrite avec chacune des trois définitions de la taille de grains développées dans la partie 4, section I.2. En nous appuyant sur l'étude paramétrique réalisée précédemment, nous avons pu identifier un jeu de paramètres qui est récapitulé dans le tableau 4-3. Les résultats de la simulation correspondante (courbes noires) sont comparés aux données expérimentales (cercles rouges (fraction recristallisée) et bleus (taille de grains)) sur la figure 4-7. La simulation re- MODELISATION DES EVOLUTIONS MICROSTRUCTURALES DU TANTALE AU COURS D'UN TRAITEMENT THERMIQUE transcrit bien les données expérimentales et le jeu de paramètres retenu est un compromis entre la prédiction des deux observables. Tableau 4-3. Paramètres du modèle identifiés à 1000°C sur la microstructure 1 1000°C -14 6 x 10 -15 1,1 x 10 8 4 x 10 5 2,9 x 10 4 -1 -1 Mobilité (m .J .s ) 4 -1 -1 Mobilité (m .J .s ) -1 Constante de germination Kg (s ) -3 Seuil régime de mobilité (J.m ) (a) 1 Données expérimentales Description 'Densité de joints de grains' Description 'Sphère 3D' Description 'Cercle 2D' 0,9 Fraction recristallisée 0,8 0,7 0,6 0,5 0,4 0,3 0,2 0,1 0 0 500 1000 1500 2000 2500 3000 3500 4000 Temps de recuit (s) Taille de grains moyenne recristallisée 3D (μm) (b) 35 30 25 20 15 10 Données expérimentales Description 'Densité de joints de grains' Description 'Sphère 3D' Description 'Cercle 2D' 5 0 0 500 1000 1500 2000 2500 3000 3500 4000 Temps de recuit (s) Figure 4-7. Comparaison de la simulation d'un traitement thermique de 1 h à 1000°C de la microstructure 1 avec les données expérimentales pour différentes descriptions de la microstructure initiale Sur la figure 4-7.b, on voit une nette différence entre les cinétiques de croissance de grains simulées et celles obtenues expérimentalement, sur les temps les plus courts. La cinétique expérimentale montre que les grains recristallisés atteignent assez rapidement une taille d'environ 25 μm qui va peu évoluer au cours du recuit. Les nouveaux grains apparaissant aux joints de grains, ils vont croître rapidement jusqu'à ce qu'ils entrent en contact les uns avec les autres et/ou qu'ils atteignent des zones moins déformées de la microstructure initiale, comme le centre des anciens grains (figure 4-8). Numériquement, le modèle prend en compte la ren- 131 132 MODELISATION DES EVOLUTIONS MICROSTRUCTURALES DU TANTALE AU COURS D'UN TRAITEMENT THERMIQUE contre entre les germes, mais le principe même d'un modèle en champ moyen l'empêche de représenter strictement les hétérogénéités intragranulaires. On peut considérer qu'elles sont prises en compte dans la distribution de densités de dislocations, mais sans l'aspect topologique. La cinétique numérique représente alors une cinétique caractéristique d'une microstructure avec des grains déformés de manière homogène. Cette cinétique est plus lente au départ parce que les grains recristallisés interagissent avec un milieu homogène équivalent dont la densité de dislocations moyenne est plus faible que la valeur réelle aux abords des joints de grains. De la même manière, la vitesse de croissance des grains recristallisés serait surestimée numériquement en fin de croissance, car la valeur moyenne de la densité de dislocations du MHE est plus élevée que celle au centre des grains déformés. Cet effet est atténué par la restauration qui a tendance à diminuer la densité de dislocations moyenne des catégories de grains non recristallisés. La figure 4-7 montre également l'effet de la description de la microstructure initiale sur le résultat de la simulation de traitement thermique. La description basée sur la densité de joints de grains nous paraît la plus justifiée pour le cas présent d'une recristallisation par germination aux joints de grains, et sera donc conservée par la suite. Cependant, on remarque qu'une description basée sur des sphères issue d'une transformation par la méthode de Saltykov de l'histogramme des diamètres de cercles équivalents 2D, retranscrit quasiment à l'identique les évolutions de la fraction recristallisée et de la taille de grains au cours du traitement thermique. La description en 2D donne des cinétiques plus éloignées mais qui restent toutefois acceptables. Gradient d'énergie stockée du centre jusqu'aux abords des joints de grains Croissance rapide due à la forte différence d'énergie stockée GRAIN « RÉEL » SCHÉMATISÉ Grain déformé Germination Croissance Temps de traitement GRAIN REPRÉSENTATIF DU MODÈLE Energie stockée uniforme Faible différence d'énergie stockée Croissance modérée due à l'homogénéisation de l'énergie stockée Différence d'énergie stockée moyenne Forte différence d'énergie stockée Figure 4-8. Effet de la non prise en compte des hétérogénéités intragranulaires dans la modélisation de la microstructure Dans cette simulation de traitements thermiques, nous avons utilisé la densité de dislocations critique déterminée au bout de 30 min de traitement thermique à 1000°C sur une MODELISATION DES EVOLUTIONS MICROSTRUCTURALES DU TANTALE AU COURS D'UN TRAITEMENT THERMIQUE éprouvette DECC (partie 3, section II.3). Cette densité de dislocations critique prend donc en compte l'apparition de germes ayant nécessité jusqu'à 30 min de temps d'incubation avant de s'activer. Dans cette simulation, la germination commence dès le premier incrément, il serait donc plus juste d'utiliser une densité de dislocations critique déterminée pour une durée de palier thermique courte. Cette valeur serait représentative de l'énergie stockée nécessaire pour l'activation immédiate d'un germe. Pour une durée de palier thermique plus courte (3 minutes), la valeur critique de densité de dislocations à 1000°C est peu différente de celle obtenue à 30 min (6,7 contre 6,4 en valeur relative). La figure 4-9 montre que cette légère différence de valeur critique de déclenchement de la recristallisation n'entraîne pas de changement majeur dans la simulation. Logiquement, on observe une augmentation de la taille de grains due à la diminution du nombre de germes qu'accompagne une augmentation de la densité de dislocations critique (équation 1.21). D'après cette observation, nous pouvons supposer que, pour des températures supérieures à 1000°C, la différence de densité de dislocations critiques pour les temps longs et courts ne peut que diminuer. Pour des températures inférieures, il serait judicieux de vérifier si cette différence n'augmente pas au point d'avoir une influence significative sur les résultats de la simulation de traitement thermique. 1 (a) Données expérimentales 0,9 Densité de dislocations critique '30 min' Fraction recristallisée 0,8 Densité de dislocations critique '3 min' 0,7 0,6 0,5 0,4 0,3 0,2 0,1 0 0 500 1000 1500 2000 2500 3000 3500 4000 Temps de recuit (s) 35 Taille de grains moyenne recristallisée 3D (μm) (b) 30 25 20 15 10 Données expérimentales Densité de dislocations critique '30 min' 5 Densité de dislocations critique '3 min' 0 0 500 1000 1500 2000 2500 3000 3500 4000 Temps de recuit (s) Figure 4-9. Influence de la densité de dislocations critique sur la recristallisation 133 MODELISATION DES EVOLUTIONS MICROSTRUCTURALES DU TANTALE AU COURS D'UN TRAITEMENT THERMIQUE C. EFFET DE LA TEMPERATURE SUR LES PARAMETRES DU MODELE - IDENTIFICATION A 1100°C Tous les paramètres du modèle sont, a priori, fonction de la température, notamment , , et . Afin d'évaluer leur dépendance à la température, on reproduit le travail d'identification avec la cinétique de recristallisation expérimentale obtenue sur la microstructure 1 à 1100°C. Il manque à notre jeu de données expérimentales une expérience de croissance de grains à 1100°C pour fixer indépendamment des autres paramètres la valeur de . A cette température, quatre paramètres ( , , et ) sont alors à déterminer. Les valeurs des paramètres identifiés à 1100°C sont données dans le tableau 4-4 et les résultats de la simulation correspondante sont comparés aux données expérimentales sur la figure 4-10. On retrouve un bon accord entre les résultats obtenus par simulation et ceux obtenus expérimentalement, avec toutefois, à nouveau, une sous-estimation des tailles de grains recristallisés au début du traitement thermique (pour les mêmes raisons que celles évoquées précédemment). 1 (a) Simulation 0,9 Données expérimentales Fraction recristallisée 0,8 0,7 0,6 0,5 0,4 0,3 0,2 0,1 0 0 500 1000 1500 2000 2500 3000 3500 4000 Temps de recuit (s) 30 (b) Taille de grains moyenne recristallisée 3D (μm) 134 25 20 15 10 5 Simulation Données expérimentales 0 0 500 1000 1500 2000 2500 3000 3500 4000 Temps de recuit (s) Figure 4-10. Comparaison de la simulation d'un traitement thermique de 1 h à 1100°C de la microstructure 1 avec les données expérimentales MODELISATION DES EVOLUTIONS MICROSTRUCTURALES DU TANTALE AU COURS D'UN TRAITEMENT THERMIQUE Tableau 4-4. Paramètres du modèle identifiés à deux températures sur la microstructure 1 4 -1 -1 Mobilité (m .J .s ) 4 -1 -1 Mobilité (m .J .s ) -1 Constante de germination Kg (s ) -3 Seuil régime de mobilité (J.m ) 1000°C -14 6 x 10 -15 1,1 x 10 8 4 x 10 5 2,9 x 10 1100°C -14 18 x 10 -15 3 x 10 8 5 x 10 5 2,8 x 10 Le tableau 4-4 permet de comparer les valeurs des paramètres de mobilité et de germination pour les températures de 1000°C et 1100°C. On constate tout d'abord que les valeurs de mobilité obtenues aux deux températures sont cohérentes, la mobilité des joints de grains augmentant avec la température. A partir des valeurs de mobilité obtenues en simulation pour chaque régime, on peut identifier les paramètres m0,ReX, m0,GG et Qm,ReX, Qm,GG (équation 1.15) : Les énergies d'activation de la mobilité des joints de grains sont proches pour les deux régimes. Ce résultat est conforme à ce que l'on pouvait attendre. L'autodiffusion en volume étant le mécanisme impliqué dans la migration des joints de grains dans les deux régimes de vitesses de migration, l'énergie d'activation de la mobilité des joints de grains de la loi d'Arrhénius doit être sensiblement la même. Nous avons pu noter, grâce à l'équation 3.6 que le terme pré-exponentiel dépend lui aussi de la température. Dans l'identification réalisée ici, nous considérons que, sur la plage de 1000°C-1100°C, ce terme varie peu et qu'il peut donc être choisi constant. A partir des données de la littérature et de l'expression du terme pré-exponentiel de la loi de mobilité (partie 3, section II.2.f), on estime une autre valeur de à 1000°C (2,5 x 10-7 m4.J-1.s-1). On constate notamment que la valeur du terme (2,1 x 10-7 m4.J-1.s-1, mobilité la plus importante) identifiée ici est deux ordres de grandeurs inférieure. L'expression de la mobilité utilisée dans la partie 3 est valable pour un métal pur à 100%. La présence d'impuretés pourrait donc être à l'origine de cette différence. Malgré tout, les énergies d'activation pour la migration des joints de grains sont du même ordre de grandeur (160 kJ.mol-1 /146 kJ.mol-1 par rapport à 180 kJ.mol-1) ce qui correspond environ à la moitié de l'énergie d'activation de l'autodiffusion du tantale en volume (entre 360 kJ.mol-1 et 460 kJ.mol-1 (Neumann & Tuijn 2009)). Cela suggère que l'effet de la température est bien représenté par le modèle. Au final, la comparaison des valeurs de mobilité issues de différentes techniques ou méthodes demanderait un examen particulier, notamment pour s'assurer que les forces motrices utilisées pour déterminer celles-ci sont comparables (ex : définition et dimensionnalité de la taille de grains). Le dernier paramètre de mobilité que représente le seuil entre les régimes de recristallisation et de croissance de grains semble varier peu avec la température. Il est d'ailleurs assez difficile d'évaluer a priori la variation de ce paramètre en fonction de la température qui dé- 135 136 MODELISATION DES EVOLUTIONS MICROSTRUCTURALES DU TANTALE AU COURS D'UN TRAITEMENT THERMIQUE pend de la nature des atomes en solution, de leur vitesse de migration (dépendant également de la densité de dislocations) par rapport à la vitesse de migration des joints de grains. La constante de germination (tableau 4-4) semble également augmenter avec la température. Ce résultat est cohérent avec le fait que la formation d'un germe est pilotée par la restauration et la diffusion qui sont des phénomènes thermiquement activés. Une augmentation de la température facilite donc en principe la germination. L'effet n'est d'ailleurs pas uniquement porté par la constante de germination mais également par la diminution de la densité de dislocations critique (équation 1.21). 3. Réponse du modèle au type de microstructure initiale A. SIMULATION D'UN TRAITEMENT THERMIQUE A 1000°C SUR LA MICROSTRUCTURE 3 La microstructure 1 a été produite pour rester proche de la description de la microstructure faite dans le modèle. Cependant, comme nous avons pu le voir dans la partie 2 section III, aux grandes déformations la microstructure du tantale peut être complètement différente. C'est pourquoi nous avons choisi de simuler un traitement thermique sur la microstructure 3, issue de la fragmentation des grains pendant une déformation à froid. Dans un premier temps, la microstructure initiale a donc été modifiée selon la description faite dans le tableau 4-2 (distributions de tailles de grains équivalente à une densité de joints de grains et de densités de dislocations équivalentes). Le traitement thermique s'étend sur 30 min à une température de 1000°C. Les résultats obtenus en simulation sont présentés sur la figure 4-11 (courbes noires). La simulation de ce traitement thermique ne retranscrit pas correctement la microstructure de fin de recristallisation. Pour 30 min de recuit, la simulation prédit une fraction recristallisée correcte mais surestime la taille moyenne des grains recristallisés. Ce cas test présente toutefois la singularité d'avoir une taille de grains moyenne initiale petite et comparable à la taille des germes (de l'ordre de 1 μm). Le matériau a en effet développé au cours de la déformation une structure de dislocations en cellules très bien définie, à tel point que toutes ces cellules constituent des germes potentiels dès le début du traitement thermique. Une grande partie de ces cellules sont d'ailleurs fortement désorientées entre elles et peuvent donc être considérées comme des grains. Dans ce cas, il apparaît difficile de garder une modélisation de la recristallisation basée sur la germination telle que nous l'entendons habituellement, c'est-à-dire l'apparition de nouveaux grains recristallisés dans les grains de la microstructure déformée. La recristallisation va donc se produire par la croissance anormale de certains grains ou sous-grains ayant notamment une densité de dislocations plus faible que leur voisinage. Pour simuler cette recristallisation SANS germination, la distribution de tailles de grains reste la même que dans la simulation précédente AVEC germination. On suppose alors qu'une distribution de densité de dislocations, avec une valeur maximale inférieure à la valeur critique pour le déclenchement de la germination, est présente à l'intérieur des cellules/grains, contribuant à la force motrice pour la migration des joints de grains. On fixe cette valeur à 7,5 x 1013 m-2, avec un paramètre de largeur de distribution de 0,4. Cette modification de la distribution de densités de dislocations par rapport à celle déterminée à partir de la loi de comportement nous renseigne sur les limites de cette approche et sur la MODELISATION DES EVOLUTIONS MICROSTRUCTURALES DU TANTALE AU COURS D'UN TRAITEMENT THERMIQUE notion même de densité de dislocations équivalente. En effet, la densité de dislocations équivalente est représentative d'un état de contrainte, lequel, dans le cas d'une fragmentation de la microstructure, n'est plus uniquement dû à la présence de dislocations réparties uniformément mais résulte également de la taille des sous-grains ou grains formés. Il est donc logique que la valeur de densité de dislocations à l'intérieur des sous-grains soit inférieure à la valeur estimée à partir de la loi de comportement. Cette simulation (figure 4-11, courbes en tirets bleus) permet d'obtenir une taille de grains moyenne très proche de la taille de grains de 9,8 μm obtenue expérimentalement après 30 min de traitement thermique à 1000°C. La cinétique de recristallisation est également similaire à la cinétique AVEC germination. Néanmoins, il conviendrait de compléter notre jeu de données expérimentales pour valider cette cinétique en réalisant des traitements thermiques plus courts. (a) 1 0,9 Fraction recristallisée 0,8 0,7 0,6 0,5 0,4 0,3 0,2 Données expérimentales Simulation recristallisation 'AVEC germination' Simulation recristallisation 'SANS germination' 0,1 0 0 200 400 600 800 1000 1200 1400 1600 1800 2000 Temps de recuit (s) 14 Taille de grains moyenne recristallisée 3D (μm) (b) 12 10 8 6 4 Données expérimentales Simulation recristallisation 'AVEC germination' Simulation recristallisation 'SANS germination' 2 0 0 200 400 600 800 1000 1200 1400 1600 1800 2000 Temps de recuit (s) Figure 4-11. Comparaison de deux types de simulation de la recristallisation au cours d'un traitement thermique de 30 min à 1000°C de la microstructure 3 avec les données expérimentales B. SIMULATION D'UN TRAITEMENT THERMIQUE A 1000°C SUR LA MICROSTRUCTURE 2 Nous avons testé le modèle pour deux microstructures très différentes, typiques de faible et de très forte déformation. La microstructure 2 est une microstructure intermédiaire, 137 138 MODELISATION DES EVOLUTIONS MICROSTRUCTURALES DU TANTALE AU COURS D'UN TRAITEMENT THERMIQUE on y retrouve de gros grains allongés comme dans la microstructure 1. Certaines zones ne sont pas bien résolues dans les conditions d'acquisition choisies pour réaliser la cartographie EBSD, ce qui traduit de fortes désorientations intragranulaires voire même de fragmentation des grains faisant localement se rapprocher la microstructure 2 de la microstructure 3. Une simulation d'un traitement thermique de 1h à 1000°C a été effectuée pour la microstructure 2. Cette simulation permet une nouvelle fois de tester les capacités du modèle et du jeu de paramètres identifié à rendre compte de cinétiques expérimentales. Les résultats présentés sur la figure 4-13 montrent un mauvais accord entre la fraction recristallisée expérimentale et celle prédite par simulation. La taille de grains recristallisés est quant à elle assez bien prédite. La prise en compte de l'augmentation de la densité de joints de grains et de la légère augmentation de la densité de dislocations équivalente ne suffit pas à accélérer suffisamment la cinétique de germination. Par rapport à la microstructure 1, la microstructure 2 présente une densité de dislocations équivalente peu différente (2,35 x 1014 m-2 contre 2,17 x 1014 m-2) malgré une déformation équivalente deux fois plus élevée. Cependant, la cinétique de recristallisation de cet échantillon 2 est beaucoup plus rapide. Cette accélération de la cinétique pour une même température est attribuée à la germination qui serait largement facilitée dans la microstructure 2 grâce à la formation plus aboutie d'une sous-structure de dislocations ou à une fragmentation partielle des grains au cours de la déformation (voir partie 2, section III.3). Le modèle ne permet pas de représenter la cinétique de formation de cette sous-structure et donc l'effet de l'augmentation de la quantité de déformation sur la cinétique de recristallisation. On peut également noter qu'une augmentation de la constante de germination ne suffit pas à bien représenter les données expérimentales à la fois en termes de fraction recristallisée et de taille de grains recristallisés. Il est également possible que la germination ne soit plus, ici, limitée aux zones proches des joints de grains, ce qui remettrait en cause une des hypothèses du modèle utilisé. On voit en effet sur la figure 4-12, que certains grains présentent des désorientations intragranulaires importantes, plus uniquement aux abords des joints de grains, qui pourraient entraîner une germination au coeur des grains. 1,16°/μm 0°/μm Désorientations intragranulaires au 3 e voisin avec un pas de 1,44 μm Figure 4-12. Cartographie des désorientations intragranulaires dans la microstructure 2 MODELISATION DES EVOLUTIONS MICROSTRUCTURALES DU TANTALE AU COURS D'UN TRAITEMENT THERMIQUE (a) 1 0,9 Fraction recristallisée 0,8 0,7 0,6 0,5 0,4 0,3 0,2 Simulation 0,1 Données expérimentales 0 0 500 1000 1500 2000 2500 3000 3500 4000 Temps de recuit (s) 25 Taille de grains moyenne recristallisée 3D (μm) (b) 20 15 10 5 Simulation Données expérimentales 0 0 500 1000 1500 2000 2500 3000 3500 4000 Temps de recuit (s) Figure 4-13. Comparaison de la simulation d'un traitement thermique de 1 h à 1000°C de la microstructure 2 avec les données expérimentales III. PERSPECTIVE D'AMELIORATION DE L'IDENTIFICATION DES PARAMETRES ET DU MODELE La modélisation de la recristallisation montre des résultats encourageants pour des microstructures faiblement déformées (type microstructure 1) et très fortement déformées (type microstructure 3). Cependant, le modèle et les paramètres identifiés ne permettent pas de prédire l'évolution des microstructures intermédiaires. Afin de conforter les résultats obtenus et d'étendre la modélisation à tout type de microstructures, plusieurs voies complémentaires sont à envisager : réaliser une meilleure identification des paramètres du modèle, enrichir la base de données expérimentales et décrire plus fidèlement la complexité de la microstructure de déformation. 1. Amélioration de l'identification des paramètres du modèle L'estimation des paramètres de mobilité et de la constante de germination par une méthode « itérative » permet d'obtenir un premier jeu de paramètres qui n'est pas forcément 139 140 MODELISATION DES EVOLUTIONS MICROSTRUCTURALES DU TANTALE AU COURS D'UN TRAITEMENT THERMIQUE la solution optimale au problème. Différentes méthodes d'optimisation pourraient être couplées aux simulations de traitement thermique pour minimiser l'erreur entre les résultats numériques et expérimentaux. 2. Enrichissement de la base de données expérimentale Au cours du chapitre, nous avons pu noter un certain nombre d'expériences complémentaires qu'il serait essentiel de réaliser pour conforter les résultats obtenus :  Traitements thermiques de croissance de grains pure à 1100°C,  Traitements thermiques courts <30 min à 1000°C sur la microstructure 3 pour décrire la progression de la recristallisation. La présence de gros grains dans la microstructure dans son état de réception, lesquels vont générer des hétérogénéités au cours de la déformation, rend les résultats expérimentaux très spécifiques et parfois statistiquement non représentatifs du comportement moyen du tantale pur en recristallisation. L'identification des paramètres d'un modèle à champ « moyen » sur une telle microstructure peut donc engendrer des erreurs. L'idéal serait de confirmer les paramètres identifiés sur une microstructure du type microstructure 1 avec des grains plus petits (diamètre moyen de 50 μm environ) et homogènes. Enfin, les paramètres, notamment les valeurs de mobilité, peuvent être dépendants de l'approvisionnement et de la teneur du tantale en impuretés. Il serait donc nécessaire de vérifier l'influence de la composition exacte sur le jeu de paramètres identifié pour pouvoir, par la suite, appliquer celui-ci à n'importe quel approvisionnement. 3. Perspectives d'amélioration du modèle de recristallisation statique L'application du modèle en champ moyen sur des microstructures telles que celles utilisées dans ces travaux a permis de montrer la nécessité d'enrichir le modèle dans sa gestion de la phase de germination de la recristallisation, laquelle ressort comme un point essentiel à améliorer dans la modélisation de la recristallisation. A travers la germination, c'est en fait à une description plus fidèle de la complexité de la microstructure de déformation à laquelle il faut arriver. Il faut également bien comprendre le lien qui existe entre microstructure de déformation et germination pour établir des lois qui soient adaptées au problème de la recristallisation statique. Nous l'avons vu, une première étape dans la description de la microstructure de déformation consiste à bien choisir comment définir la taille de grains. En plus de l'analyse réalisée ici, d'autres méthodes pourraient être appliquées notamment pour transformer des ellipses 2D en ellipsoïdes 3D (méthode de type Saltykov sur des ellipses). La sous-structure de déformation qui se forme dans le tantale n'est pas du tout prise en compte dans le modèle, sauf lorsque la formation de celle-ci atteint un point où quasiment toutes les cellules sont devenues des grains (microstructure de type 3). Dans les cas intermédiaires où la sous-structure est en formation (microstructure mixte de type 2), la loi de germination actuelle ne permet pas de reproduire l'effet de la sous-structure en cellules de dislocations sur la germination. Une solution serait d'introduire de nouvelles variables d'état permettant de décrire cette sous-structure en termes de taille et de désorientation cristallographique MODELISATION DES EVOLUTIONS MICROSTRUCTURALES DU TANTALE AU COURS D'UN TRAITEMENT THERMIQUE (H Zurob et al. 2006; Brechet & Martin 2006). On peut imaginer de la même manière que pour la taille de grain, une distribution de tailles et de désorientations de cellules qui évoluerait avec la déformation, la restauration et la recristallisation. Dans ce cas, il faudrait adapter la loi de restauration pour qu'elle rende compte, de manière moyennée, de la sous-structure et de son évolution avec la température. La loi de germination serait ainsi basée sur l'activation des cellules ayant atteint les conditions critiques de germination (taille, désorientation, différence d'énergie stockée avec l'environnement). La détermination des distributions de taille et de désorientation de cellules demanderait un travail de caractérisation complet des sousstructures de déformation dans le tantale et la calibration de lois de restauration. Comme pour la densité de dislocations, on peut envisager deux voies : 1. La première voie consisterait à caractériser expérimentalement la microstructure après déformation (analyse EBSD), méthode probablement très coûteuse en temps et incompatible avec un usage industriel du modèle. 2. La deuxième solution serait de modéliser la formation de la sous-structure au cours de la déformation à partir de la modélisation en champ moyen en conditions dynamiques avec un enrichissement des variables d'état, pour rendre compte de la formation de la sous-structure. Il s'agirait donc d'établir des lois d'évolution de la taille de cellules et de leur désorientation en fonction de la déformation, de la vitesse de déformation et de la température. 141 142 MODELISATION DES EVOLUTIONS MICROSTRUCTURALES DU TANTALE AU COURS D'UN TRAITEMENT THERMIQUE SYNTHESE Le modèle en champ moyen présenté dans la première partie de ce manuscrit a été appliqué au tantale pur afin d'identifier les paramètres du modèle et de tester sa capacité à reproduire les évolutions microstructurales au cours d'un traitement thermique pour différents types de microstructures de déformation. La première étape consiste à définir une taille de grains. La déformation engendrant des grains non sphériques, nous avons défini une distribution de tailles de grains sphériques équivalentes à la densité de joints de grains mesurée expérimentalement dans la microstructure en faisant l'hypothèse de grains ellipsoïdaux de révolution. Cette modification permet de prendre en compte la quantité de joints de grains, donnée cruciale dans le cas d'une germination en collier. Elle permet aussi d'obtenir, en faisant quelques hypothèses simplificatrices, une distribution de tailles de grains en 3D, utilisable directement par le modèle de recristallisation. La microstructure 1 a été produite pour rester proche de la description de la microstructure faite dans le modèle. C'est donc sur cette microstructure que les simulations de traitements thermiques ont été réalisées pour identifier les paramètres du modèle. Une partie des paramètres ayant été fixés par des expériences spécifiques (densité de dislocations critique, loi de restauration), 4 d'entre eux ont nécessité une identification à partir d'expériences de recristallisation et de croissance de grains à 1000°C et 1100°C : , , et Ces simulations ont également permis de définir leur dépendance à la température (tableau 4-3, rappelé cidessous). Tableau 4-4. Paramètres du modèle identifiés pour le tantale pour deux températures 4 -1 -1 Mobilité (m .J .s ) 4 -1 -1 Mobilité (m .J .s ) -1 Constante de germination Kg (s ) -3 Seuil régime de mobilité (J.m ) 1000°C -14 6 x 10 -15 1,1 x 10 8 4 x 10 5 2,9 x 10 1100°C -14 18 x 10 -15 3 x 10 8 5 x 10 5 2,8 x 10 Si l'on admet que les mobilités suivent classiquement une loi d'Arrhénius avec un terme pré-exponentiel constant : Equation 1.15 Avec, Les conditions d'identification pourraient cependant être améliorées par l'utilisation d'une méthode objective d'optimisation et par un complément de données expérimentales. La microstructure 1 étant représentative d'une faible déformation, nous avons également testé le modèle sur une microstructure très fortement déformée (microstructure 3). Avec une description judicieuse de la microstructure initiale, le modèle prédit une fraction MODELISATION DES EVOLUTIONS MICROSTRUCTURALES DU TANTALE AU COURS D'UN TRAITEMENT THERMIQUE recristallisée et une taille de grains recristallisés moyenne proches des valeurs expérimentales. Un complément de données expérimentales serait ici également nécessaire pour décrire la progression de la recristallisation. Pour des microstructures mixtes (type microstructure 2) entre la microstructure 1 et la microstructure 3, le modèle ne permet pas encore de reproduire correctement les évolutions microstructurales au cours d'un traitement thermique. Cela met en avant la nécessité d'enrichir la description de la microstructure de déformation pour, notamment, bien gérer la phase de germination de la recristallisation. Aujourd'hui, le modèle de recristallisation en champ moyen permet, en considérant une description adéquate de la microstructure déformée, de simuler les traitements thermiques sur des microstructures faiblement ou très fortement déformées, mais nécessiterait donc une extension pour prédire les microstructures de recuit à partir de n'importe quel type de microstructure. 143 CONCLUSION. 146 CONCLUSION Le travail réalisé durant cette thèse porte sur la recristallisation statique du tantale pur, avec deux principaux objectifs: 1/ Approfondir la connaissance des mécanismes d'évolution microstructurale dans le tantale au cours d'un traitement thermique. Cela implique principalement la recristallisation statique discontinue, et, dans une moindre mesure, la restauration et la croissance de grains. 2/ Prédire la microstructure obtenue à l'issue d'un traitement thermique pour un échantillon en tantale pur en fonction de la microstructure initiale déformée et des conditions de mise en oeuvre du traitement thermique. SYNTHESE La prédiction des microstructures de recuit nécessite un modèle permettant de décrire les évolutions métallurgiques ayant lieu pendant un traitement thermique qui est défini par sa température et son temps de palier mais également par la vitesse de chauffage (vitesse de refroidissement négligée). Nous avons choisi d'utiliser un modèle semi-analytique en champ moyen pour représenter la recristallisation, la restauration et la croissance de grains. Un panorama des modèles existants nous a permis de justifier de l'intérêt d'une telle modélisation dans un contexte industriel. La modélisation en champ moyen permet d'avoir des temps de simulation courts tout en décrivant dans une certaine mesure les hétérogénéités de la microstructure et leurs effets sur les évolutions microstructurales. Pour rendre compte des spécificités du matériau et des mécanismes de la recristallisation statique, ce modèle, initialement formulé pour la recristallisation dynamique, a nécessité des modifications. Le modèle a notamment été adapté pour inclure une double mobilité représentant l'effet d'atomes en solution solide ségrégés aux joints de grains sur la migration de ceux-ci. Une mobilité correspond aux fortes vitesses de migration et la deuxième, plus faible, correspond aux vitesses de migration plus lentes. Le modèle choisi décrit la microstructure par la combinaison d'une distribution de densités de dislocations et d'une distribution de tailles de grains sphériques. Cette description de la microstructure correspond assez bien à des microstructures de tantale faiblement déformées. Dans ce cas, les grains présentent des formes plutôt ellipsoïdales et des dislocations à l'intérieur des grains qui paraissent localement réparties de manière relativement uniforme. La déformation plastique à froid engendrant des grains non sphériques, une bonne description de la microstructure nécessite un choix adapté de la définition de la taille de grains. Nous avons alors défini une taille de grains sphériques équivalente à une densité de joints de grains mesurée expérimentalement. Cette modification permet de prendre en compte la quantité de joints de grains, donnée cruciale dans le cas d'une germination aux joints de grains. A ce stade de déformation, le comportement mécanique du tantale est principalement dicté par la quantité de dislocations présente dans la microstructure. On définit ainsi une den- CONCLUSION sité de dislocations équivalente représentative d'un état de contrainte macroscopique, sachant que celui-ci peut, dans une moindre mesure, être influencé par d'autres facteurs (impuretés, taille de grains). Le lien entre la densité de dislocations équivalente et la contrainte macroscopique se fait à travers la loi de comportement. A partir de théories et de lois déjà existantes pour le tantale provenant de travaux réalisés précédemment au CEA DAM Valduc, nous proposons ici de nouveaux paramètres afin d'améliorer la modélisation, basée sur une densité de dislocations, du comportement mécanique du tantale. La modélisation du comportement mécanique permet d'avoir une description de la densité de dislocations équivalente en tout point d'une pièce lorsque l'on est en mesure de simuler la déformation plastique précédant le traitement thermique. Une mesure de microdureté Vickers sur la pièce déformée représente une alternative expérimentale à la précédente méthode. Nous avons déterminé une loi permettant de déterminer la densité de dislocations équivalente à partir d'un essai de dureté Vickers avec une charge de 300 gf. Les conditions de mise en oeuvre de l'indentation Vickers pour le tantale sont à prendre en compte. Nous avons pu mettre en évidence que la dureté Vickers est fortement dépendante du temps de maintien de la charge en raison du caractère visqueux du tantale à température ambiante. Ainsi la loi reliant dureté et densité de dislocations équivalente a été établie pour un temps de maintien de 5 s et pour un temps de 30 s qu'il serait judicieux d'utiliser à l'avenir pour s'affranchir de la variabilité associée à l'effet de viscosité. Cette vision mécanique a été confrontée à des observations de microstructures déformées. Ces observations nous ont permis de mettre en évidence l'anisotropie de comportement à l'échelle du grain. Cette anisotropie couplée aux hétérogénéités de la sollicitation mécanique à l'échelle locale, conduisent à des variations de la densité de dislocations locale à l'intérieur même d'un grain. Certaines zones d'un grain, et plus particulièrement les zones où l'incompatibilité de déformation est la plus forte comme les abords des joints de grains et des jonctions triples, montrent de plus fortes désorientations intragranulaires après déformation que le centre des grains. Conformément à la théorie de la co-rotation évoquée dans la littérature, nous avons mis en évidence, à partir d'une expérience réalisée sur un oligocristal de tantale, que l'augmentation des désorientations intragranulaires au niveau des joints de grains est reliée au fait que les grains de part et d'autre du joint subissent une rotation macroscopique différente sous l'effet de la déformation. Dans la perspective d'une modélisation prédictive des microstructures de recuit, il est nécessaire d'identifier les phénomènes impliqués dans les évolutions métallurgiques dans le tantale. 147 148 CONCLUSION Nous avons constaté que la restauration dans le tantale est un phénomène qu'il ne faut pas négliger. La restauration est active dès 600°C. Il est donc important de prendre en compte la vitesse de chauffage lorsque l'on souhaite décrire la compétition entre restauration et recristallisation. Dans le cas des microstructures faiblement déformées que l'on peut décrire à partir d'une densité de dislocations équivalente, une loi décrivant la diminution de la densité de dislocations équivalente par restauration a été proposée dans (Houillon 2009). Cette loi a été ajustée en utilisant la relation dureté-densité de dislocations équivalente établie ici. La recristallisation a été directement observée et caractérisée à différentes échelles sur des microstructures faiblement déformées. A l'échelle locale (traitement thermique in situ) :  les nouveaux grains recristallisés apparaissent dans les zones présentant les plus fortes désorientations intragranulaires, principalement le long des anciens joints de grains.  La germination est plutôt de type continu. La vitesse de germination diminue au cours du temps, les sites de germination devenant plus rares au fur et à mesure que la recristallisation progresse.  Pendant la recristallisation, les joints des grains recristallisés sont souvent tortueux en raison des variations locales d'énergie stockée. Ces joints de grains deviennent plus rectilignes pendant la croissance de grains. A l'échelle macroscopique, nous avons déterminé :  une loi décrivant le seuil critique de déclenchement de la recristallisation en fonction de la température grâce à des traitements thermiques sur des éprouvettes à gradient de densité de dislocations. La densité de dislocations critique apparaît comme peu dépendante de la durée du traitement thermique et, l'effet de la restauration étant corrigé, cette loi est indépendante de la vitesse de chauffage.  des cinétiques de recristallisation, aspect manquant particulièrement dans la littérature. Cette étude s'est portée principalement sur l'évaluation de l'effet des paramètres thermomécaniques. La température et l'augmentation de la densité de dislocations ont pour effet d'accélérer la cinétique. Nous avons également pu constater que les hétérogénéités de déformation induisent des hétérogénéités dans la microstructure de recuit. Ces cinétiques de recristallisation, associées à une cinétique de croissance de grains à 1000°C, ont ensuite permis de calibrer les paramètres du modèle de recristallisation dans des conditions favorables, notamment au niveau de la description de la microstructure. Un jeu de paramètres valable dans la gamme 1000°C-1100°C a été déterminé. L'évolution observée des paramètres en fonction de la température est tout à fait justifiée physiquement. CONCLUSION L'objectif de ce modèle est de prédire les microstructures de recuit à partir de n'importe quel type de microstructure initiale, incluant les microstructures très fortement déformées. A ces niveaux de déformation, la description de la microstructure initialement choisie n'est plus valable. Aux plus fortes déformations, nous avons pu voir une sous-structure composée de cellules délimitées par des parois de dislocations qui se développent par restauration dynamique. Ce phénomène peut même conduire à la formation de nouveaux grains (recristallisation dynamique continue). Ces cellules semblent être des précurseurs de la germination de la recristallisation. Lorsque ces cellules deviennent des grains, la germination comme on l'entend habituellement perd son sens. La recristallisation s'opère alors par la croissance des petits grains ayant une faible énergie volumique au détriment des autres qui auront, au départ, des densités de dislocations supérieures. En ce sens, on se rapproche d'un régime de recristallisation post-dynamique. Pour ce type de microstructure, la recristallisation est beaucoup plus rapide que pour les microstructures faiblement déformées. Ici, la description précédemment utilisée de la microstructure n'est plus valable. En effet, l'état de contrainte macroscopique du matériau est dû en majeure partie à la taille des cellules (ou grains), lesquelles contiennent une certaine densité de dislocations. La notion de densité de dislocations équivalente précédemment utilisée n'a donc plus beaucoup de sens. En utilisant une description adéquate de la microstructure de déformation (taille de grains très petite et une densité de dislocations inférieure à la valeur de déclenchement de la germination), nous avons pu simuler de manière correcte un traitement thermique sur cette microstructure. Enfin, on retrouve des microstructures intermédiaires, combinaison des deux microstructures précédentes. Ce type de microstructure présente des grains initialement présents dans la microstructure avant déformation, mais ceux-ci sont également en cours de formation d'une sous-structure en cellules de dislocations. Cette formation de la sous-structure est inhomogène car elle résulte des hétérogénéités de déformation. Pour ces microstructures, il est également difficile de conserver la notion de densité de dislocations équivalente étant donné que l'état de contrainte macroscopique peut être similaire à celui d'une microstructure moins déformée comme c'était le cas pour nos microstructures 1 et 2. Du point de vue de la recristallisation, une augmentation de la quantité de déformation accélère fortement la cinétique même si les densités de dislocations équivalentes dans les échantillons déformés sont proches. La modélisation standard de cette microstructure ne permet pas de simuler correctement un traitement thermique et nécessiterait une description mixte entre les microstructures faiblement et très fortement déformées. PERSPECTIVES Ce travail couvre le domaine des évolutions microstructurales au cours d'un traitement thermique de manière assez globale, depuis la description des microstructures à l'état déformé jusqu' à la prédiction des microstructures de recuit par simulation numérique d'un traite- 149 150 CONCLUSION ment thermique. Il ouvre des perspectives assez larges dans plusieurs des thèmes abordés afin d'améliorer encore la connaissance des mécanismes microstructuraux dans le tantale, de valider la mise en place du modèle en champ moyen pour obtenir des simulations prédictives et enfin de coupler le modèle à un logiciel de mise en forme basé sur la méthode des éléments finis. Ce couplage permettra notamment de simuler un traitement thermique sur une pièce entière. Une première utilisation de la modélisation a été réalisée sur des cinétiques de recristallisation obtenues à partir de microstructures spécifiques permettant de mettre en avant l'effet du type de microstructure sur la réponse du modèle. Pour un même type de microstructure, une validation sur un matériau avec de plus petits grains ainsi qu'une méthode de détermination des paramètres du modèle plus systématique devrait rendre le jeu de paramètres plus robuste. Des tests dans d'autres configurations de sollicitations mécaniques apporteraient également une vision plus large des conditions d'application du modèle, de son caractère prédictif et des améliorations à y apporter. A la vue des résultats obtenus, il apparaît que le point d'amélioration prioritaire du modèle est d'enrichir la description de la microstructure de déformation afin de mieux modéliser l'étape de germination, et notamment prendre en compte la sous-structure en cellules de dislocations qui se développe au cours de la déformation et qui joue un rôle majeur dans la formation des germes de recristallisation. Deux solutions peuvent être envisagées :  Adapter la loi de germination pour qu'elle dépende de la déformation équivalente cumulée, notamment au niveau du nombre de germes et de la cinétique de germination. Cette solution n'implique pas de modifications majeures du modèle, si ce n'est l'ajout du niveau de déformation équivalent macroscopique dans la description de la microstructure initiale. Il faudrait également prendre en compte l'évolution de la topologie de la germination. Les zones où apparaissent les nouveaux grains recristallisés dépendent également du niveau de déformation.  Modifier la modélisation de la microstructure pour inclure une description de la sous-structure avec, par exemple, une combinaison d'une distribution de taille de cellules et d'une distribution de désorientation des parois de cellules. Ces deux propositions de modifications du modèle supposent la caractérisation expérimentale de la sous-structure, de son évolution avec les conditions thermomécaniques et de son effet sur la germination de la recristallisation. Des traitements thermiques pourraient par exemple être réalisés sur des zones bien choisies de l'oligocristal déformé afin de caractériser de manière fine les mécanismes locaux de formation des germes et de développement des grains recristallisés à l'intérieur des grains ou au niveau des joints de grains (avec la technique de traitement thermique in situ par exemple). Ces expériences permettraient de compléter les connaissances déjà acquises sur les mécanismes d'évolution microstructurale dans le tantale. Dans la même optique, la loi de restauration apparaît à ce stade très importante. Dans un premier temps, des mesures complémentaires seraient à réaliser afin de valider la loi actuellement utilisée. Puis, il faudrait sûrement réfléchir à une loi plus adaptée, qui viendrait s'inscrire dans la logique de description de la sous-structure de déformation et donc de son évolution avec la température. CONCLUSION Un autre point qu'il serait intéressant d'approfondir est la mesure des densités de dislocations, donnée essentielle du modèle en champ moyen. Une estimation de la densité de dislocations a été proposée en réalisant une mesure de microdureté. On pourrait confronter les résultats à des mesures obtenues par d'autres techniques sur un même échantillon. La mesure de microdureté pourrait notamment venir compléter l'étude comparative actuellement menée par le GDR n°3436 « Recristallisation » sur un panel de techniques expérimentales déjà utilisées pour évaluer la densité de dislocations ou l'énergie stockée. La loi reliant dureté et densité de dislocations pourrait aussi être complétée par d'autres mesures permettant de juger des effets de la taille de grains ou des impuretés sur cette relation. Une extension de cette approche pourrait également être tentée pour décrire, à partir d'une mesure de microdureté, la sous-structure formée lors de la déformation. Cette sousstructure pourrait, par exemple, être représentée par deux densités de dislocations. Enfin, des améliorations restent à apporter si l'on veut établir la relation duretédensité de dislocations équivalente à partir de la méthode de simulation de l'indentation. Dans l'annexe A5, nous avons montré qu'il était tout à fait possible de simuler l'indentation Vickers du tantale pur à vitesse d'indentation constante. La simulation réagit de la même manière que l'expérience mais les niveaux de dureté numérique sont cependant un peu faibles. L'effet du temps de maintien serait mal pris en compte à cause d'une représentation imprécise de l'écrouissage du tantale aux faibles déformations. Des efforts seraient à fournir au niveau de la loi de comportement aux faibles déformations qui pourrait influencer de manière importante l'évolution de la dureté au cours du maintien de la charge. Une meilleure description de la transition élasto-plastique devrait permettre de lever ces difficultés mais la présence du pic de contrainte ne facilite pas ce travail. 151 ANNEXES. 154 ANNEXES ANNEXE A1 A1. GEOMETRIE DES EPROUVETTES UTILISEES LORS DES ESSAIS MECANIQUES Cette annexe décrit les géométries utilisées lors des essais de compression uniaxiale et de torsion sur éprouvette pleine et récapitule les conditions thermomécaniques dans lesquelles ces essais ont été réalisés. A. ESSAIS DE COMPRESSION UNIAXIALE On rappelle que les essais de compression ont été effectués lors des travaux de (Houillon 2009) mais largement réutilisés dans le cadre de cette thèse. La géométrie des pions de compression est présentée sur la figure A1-1. Ø 7 mm Z h = 11 mm Z = direction de compression Y X Figure A1-1. Géométrie des pions de compression Ces essais sont menés à température ambiante jusqu'à une déformation vraie suivant l'axe de compression d'environ 0,8. Lors de ces essais, la vitesse de déplacement de la traverse est constante (vitesse de déformation variable au cours de l'essai). Une pâte au cuivre est utilisée pour diminuer le frottement entre les outils et le pion de compression. Chaque essai est reproduit cinq fois pour s'assurer de la reproductibilité. Quatre essais sont menés à des vitesses de traverse de 0,01 mm.s-1, 0,1 mm.s-1, 1 mm.s-1 et 10 mm.s-1, correspondant respectivement à des vitesses de déformation de l'ordre de 10-3 s-1, 10-2 s-1, 10-1 s-1 et 1 s-1. B. ESSAIS DE TORSION SUR EPROUVETTE PLEINE Ces essais sont réalisés dans le but d'obtenir des microstructures déformées. Les échantillons sont ensuite traités thermiquement afin de caractériser la recristallisation. La géométrie de l'éprouvette de torsion est donnée sur la figure A1-2. Ces essais sont réalisés à température ambiante suivant les conditions regroupées dans le tableau A1-1. ANNEXES Figure A1-2. Géométrie des éprouvettes de torsion Tableau A1-1. Conditions mécaniques de déformation des éprouvettes de torsion utilisées pour obtenir les microstructures déformées Essai type 1 2 3 -1 0,64 1,28 3,5 (s ) 0,5 0,5 0,05 155 156 ANNEXES ANNEXE A2 A2. FICHIER MATERIAU FORGE® DU TANTALE PUR POUR LA LOI DE COMPORTEMENT BASEE SUR LA DENSITE DE DISLOCATIONS { Software= GLPre_V2.6 } LOIV INTG DISLO_TANT PAR MII PAR ka0 PAR ka1 PAR delta_G_k PAR ebp_sup_k PAR durete_a PAR durete_b PAR STRAIN_RATE PAR EQ_STRAIN PAR T_G_initiale ETA RHO_DISLO ETA DURETE_HV300 ETA Taille_GRAIN ETA DUR_HV300_HP ETA Ka FIN LOI { Supported_Software= FORGE2 FORGE3 } { Comments= Materiau: Ta Type_Calcul: cold forming Type_Mat: Tantalum } { Rheological_Units= mm-MPa } { Rheological_Data_as_Text= EVP LOIV SIG0 LOI_TANT PAR RHO_DISLO PAR SIGMA00 PAR SIGMA0S PAR MII PAR ka0 PAR ka1 PAR delta_G_k PAR ebp_sup_k PAR delta_G_0 PAR ebp_sup_0 PAR exp_p PAR exp_q FIN LOI =1 = 100 = 1047 = 24.5 = 1.6 = 11 = 1d-19 = 2d8 = 1.28d-19 = 2.5d5 = 0.47 = 1.44 !Elasticity coefficients YoungModulus PoissonCoeff } = EXIST = EXIST = EXIST = EXIST = EXIST = 27 = 69 = EXIST = EXIST = 75 = EXIST =0 =0 =0 =0 = 186000 = 0.35 { Thermal_Units= SI } { Thermal_Data_as_Text= !Thermal coefficients Specific Heat Density Conductivity Epsilon } = 153 = 16650 = 54.4 = 0.49 !Emissivity ANNEXES ANNEXE A3 A3. PROTOCOLE DE PREPARATION DES ECHANTILLONS DE TANTALE PUR POUR UNE OBSERVATION EN EBSD Recommandations générales: - Utiliser autant que possible des papiers abrasifs neufs, ou n'ayant servi qu'au polissage de tantale - Ne pas utiliser d'eau du robinet mais de l'eau distillée ou au moins filtrée - Vérifier l'état de la surface polie entre chaque papier - Polir longtemps (> 5 min) sur chaque papier abrasif, appui en automatique ~0,5 daN (équivalent en manuel : appui modéré) A. PROTOCOLE AVEC ACIDE FLUORHYDRIQUE (HF) (HOUILLON 2009) : 1. Polissage mécanique progressif jusqu'à un papier 4000 grains /mm2 lubrifié au savon liquide, environ deux minutes par papier. 2. Polisseuse vibrante avec alumine 0,02 μm sur drap Buehler Microcloth pendant 15 heures. 3. OPS sur polisseuse classique pendant 2' 30''. 4. Attaque de quelques minutes au coton imbibé de 3⁄4 HNO3 + 1⁄4 HF B. PROTOCOLE SANS ACIDE FLUORHYDRIQUE (HF): 1. 2. 3. 4. 5. Papier 1200 + eau + vitesse de rotation ~350 trs/min Papier 2400 + eau + vitesse de rotation ~350 trs/min Papier 4000 + eau + vitesse de rotation ~350 trs/min Solution diamantée 1 μm + vitesse de rotation ~150 trs/min OPS >15 min en plusieurs fois (jusqu'à grains visibles en microscopie optique) + vitesse de rotation ~150 trs/min Le protocole (b) a été établi durant ces travaux de thèse. Ce nouveau protocole présente l'avantage de ne plus nécessiter d'attaque chimique à l'acide fluorhydrique, méthode qui apparaissait jusqu'alors comme la seule solution pour révéler la microstructure et réaliser des analyses EBSD sur le tantale. Par rapport au protocole (a), il est également beaucoup plus rapide. Il et à signaler que l'utilisation d'une polisseuse automatique augmente considérablement le pourcentage de « bon polissage » en rendant celui-ci moins aléatoire (surtout au niveau de la force d'appui). 157 ANNEXES ANNEXE A4 A4. COMPLEMENT DE L'ETUDE EXPERIMENTALE DE MISE EN OEUVRE DE L'INDENTATION VICKERS SUR TANTALE PUR RECRISTALLISE L'essai de dureté Vickers est piloté par le temps de maintien de la charge, mais également par la valeur de la charge et la vitesse à laquelle l'indentation est réalisée. Nous avons vu que le temps de maintien a une influence significative sur la dureté Vickers du tantale pur recristallisé. Dans cette annexe, nous détaillons l'effet de la charge et de la vitesse d'indentation. A. INFLUENCE DE LA CHARGE Pour un temps de maintien donné, la dureté Vickers du tantale pur diminue lorsque la charge augmente. La figure A4-1 montre l'exemple de charges allant de 50 gf à 1 kgf pour deux temps de maintien, 5 et 30 secondes. Pour le temps de maintien le plus court, la dureté Vickers passe de 90 HV0,05 /5 à 83 HV1 /5. Lorsque l'on augmente le temps de maintien à 30 s pour les plus fortes charges, la valeur de dureté ne dépend quasiment plus de la charge. Pour la charge de 50 gf, un essai avec un temps de maintien de 99 s a également été réalisé et donne une dureté de 79 HV0,05 /99. De la même manière que pour le temps de maintien, on peut attribuer cette diminution de la dureté avec la charge à la viscosité du tantale pur à température ambiante. Pour une charge donnée, un temps de maintien suffisamment long permet d'atteindre un palier de dureté et ce palier ne semble pas dépendre de la charge. 100 Temps de maintien 5 s Temps de maintien 30 s Temps de maintien 99 s 95 90 Dureté Vickers 158 85 80 75 70 0 100 200 300 400 500 600 700 800 900 1000 Charge (gf) Figure A4-1. Influence de la charge sur la microdureté du tantale pur recristallisé (pour différentes durées de maintien de la charge) B. INFLUENCE DE LA VITESSE D'INDENTATION Pour évaluer l'influence de la vitesse d'indentation pendant la mise en charge, nous avons utilisé une charge de 25 gf permettant de piloter l'indenteur en vitesse. En effet, le microduromètre utilisé a deux cinématiques d'indentation suivant la charge employée. On sépare ANNEXES donc la cinématique des charges strictement supérieures à 25 gf (cf partie 2, section II.1.b) à celle des charges inférieures ou égales à 25 gf (figure A4-2). Les faibles charges sont contrôlées par électromagnétisme. Ici, la vitesse est donc imposée (1, 3, 10 ou 33 μm.s-1). La pointe Vickers descend jusqu'à la surface de l'échantillon puis l'indentation commence à vitesse contrôlée. Un capteur d'effort vient relever l'augmentation de l'effort jusqu'à atteindre la charge spécifiée pour l'essai. A partir de ce moment-là, on définit également un temps de maintien t qui est au minimum de 5 s et d'environ 10 s selon la norme. Figure A4-2. Evolution de la charge au cours d'une indentation Vickers réalisée à vitesse d'indentation constante (F ≤ 25 gf) Les deux vitesses extrêmes ont été choisies, 1 μm.s-1 et 33 μm.s-1. La figure A4-3 montre l'évolution de la dureté Vickers pour une charge de 25 gf en fonction du temps de maintien et ceci pour les deux vitesses de pénétration. On constate tout d'abord que l'augmentation de la vitesse d'indentation tend à augmenter la dureté pour un temps de maintien de 5 s (là encore des effets de viscosité peuvent jouer). Puis, en augmentant le temps de maintien, la dureté tend vers une même valeur pour les deux vitesses d'indentation (autour de 77 HV0,025). La vitesse d'indentation va influencer la cinétique pour arriver au palier de dureté, qui apparaît être le même quelque soit la vitesse d'indentation et la charge. 100 1 μm/s 33 μm/s 95 HV0,025 90 85 80 75 70 0 10 20 30 40 50 60 70 80 90 100 Temps de maintien (s) Figure A4-3. Influence de la vitesse d'indentation sur la microdureté Vickers (25 gf) 159 160 ANNEXES ANNEXE A5 A5. SIMULATION DE L'ESSAI D'INDENTATION VICKERS La stratégie d'identification de la relation entre dureté Vickers et densité de dislocations équivalente, telle qu'elle a été établie dans les travaux précédents, implique la simulation numérique de l'indentation. Avant d'établir cette relation à partir de la méthode définie dans la partie 2, section II.2, nous avons cherché à poursuivre cette stratégie, en ajoutant à la simulation numérique de l'indentation Vickers la prise en compte du temps de maintien et de la cinématique réelle de l'indenteur. Dans un premier temps, nous allons définir la simulation de l'indentation Vickers avec le logiciel Forge 2011®. Puis, nous estimerons quels effets ont les paramètres de la simulation sur le résultat de l'indentation (étude de sensibilité) dans le cas plus simple de l'indentation à vitesse constante. Enfin, nous verrons s'il est possible de bien représenter l'indentation Vickers réelle avec une charge de 300 gf et ainsi de déterminer la relation dureté-densité de dislocations équivalente. A. DEFINITION DE LA SIMULATION DE L'INDENTATION VICKERS La simulation de la microindentation Vickers fait appel à trois objets (figure A5-1) :  deux outils non déformables que sont l'indenteur et le plan d'appui,  un objet déformable qu'est l'échantillon, cylindre de hauteur hd et de rayon rd. Etant donné la symétrie du problème et dans un souci d'optimisation du nombre d'éléments finis et donc du temps de calcul, seul un huitième de la géométrie sera modélisé. Plan d'appui Indenteur Vickers Echantillon rd hd Figure A5-1. Objets de la simulation éléments finis de l'indentation Vickers Pour une indentation du tantale pur recristallisé avec une charge de 300 gf, la diagonale de l'empreinte est d'environ 80 μm en moyenne. La profondeur de cette empreinte est alors d'environ 11 μm, et on choisit de fixer la hauteur de l'échantillon numérique à 10 fois cette hauteur, soit hd = 110 μm. Le maillage de l'échantillon est constitué de plusieurs boîtes sphériques imbriquées permettant de raffiner le maillage dans la zone déformée par l'indenteur tout en assurant une augmentation progressive de cette taille jusqu'au bord de l'échantillon (figure A5-2). Lorsque l'on parlera par la suite de la taille de maille de l'échantillon, on fera uniquement référence à la ANNEXES taille des éléments les plus petits, dans la zone sous l'indenteur. Le comportement mécanique de l'échantillon est décrit par la loi définie dans la partie 2 de ce manuscrit (équation 2.4 et 2.10) et basée sur la densité de dislocations équivalente. Le fichier matériau utilisé dans Forge est donné en annexe A2. 20 μm 8 μm 5 μm 1 μm Taille de maille sous l'indenteur 1 μm ou 0,5 μm Figure A5-2. Maillage éléments finis de l'échantillon à indenter Dans un premier temps, l'indenteur sera piloté en vitesse à 1 μm.s-1 et simulera une charge de 300 gf. Cette configuration est la plus simple pour tester les capacités du logiciel et de la loi de comportement à bien représenter l'indentation Vickers. Une fois la charge de 300 gf atteinte à vitesse constante, Forge 2011® permet de maintenir cet effort pendant un temps donné. On peut ainsi simuler le temps de maintien. Cette cinématique représente la cinématique expérimentale illustrée en annexe A4 sur la figure A4-2. Une fois l'indentation réalisée, la longueur de la demi-diagonale est mesurée entre la pointe de l'indenteur et le dernier noeud de l'échantillon en contact avec la pyramide Vickers (figure A5-3). La taille de maille sur la surface de l'échantillon va donc jouer un rôle important sur la précision de la mesure de la diagonale. indenteur 1⁄2 diagonale échantillon Figure A5-3. Méthode de mesure de la demi-diagonale de l'empreinte laissée par l'indenteur Vickers Lors de ces simulations, on ne prend pas en compte le déchargement élastique qui apparaît, aux vues des tests numériques effectués, comme négligeable dans le cas de l'indentation du tantale. B. PARAMETRES INFLUENÇANT L'INDENTATION ET LA DURETE NUMERIQUE Les quatre paramètres, autres que la loi de comportement, susceptibles d'avoir une influence sur la simulation numérique de l'indentation sont :  Le rayon de l'échantillon ,  Le frottement entre l'indenteur et le tantale,  La taille de maille de l'échantillon sous l'indenteur,  Le pas de déformation maximal lors d'un incrément. 161 ANNEXES Pour évaluer l'influence de ces paramètres, on fait varier chacun d'entre eux en conservant les autres paramètres constants. Les résultats sont ensuite comparés en termes d'effort, de profondeur de pénétration et de dureté en fonction du temps de maintien. La taille du domaine que l'on va indenter est évidemment un paramètre important puisque l'on souhaite représenter un milieu semi infini. Pour évaluer l'influence du rayon de l'échantillon, trois rayons correspondant à 2,5 fois, 5 fois et 10 fois la demi diagonale (40 μm environ pour 87 HV0,3 /5) , sont testés. La figure A5-4 montre les résultats obtenus pour ces trois rayons et il est clair que le plus petit domaine influence grandement le résultat au niveau de la profondeur de pénétration et donc de la dureté Vickers. Les domaines 5 et 10 fois plus grand que la demi-diagonale donnent les mêmes résultats (les variations observées étant dues à des maillages non strictement identiques). Par la suite on choisira un domaine 10 fois plus grand que la demi-diagonale de l'empreinte, qui est une valeur classique pour s'affranchir des effets de bord. 3,5 90 3 85 x10 x2.5 x5 80 2,5 HV0,3 Force d'indentation (N) 162 2 75 70 1,5 65 1 x10 60 x2.5 0,5 55 x5 0 50 0 5 10 Profondeur d'indentation (μm) 15 20 0 10 20 30 40 50 60 70 80 90 100 Temps de maintien (s) Figure A5-4. Influence de la taille de l'échantillon sur l'indentation numérique Remarque Les « sauts » de dureté observés sur la courbe donnant la dureté en fonction du temps de maintien sont dus à la méthode de mesure de la diagonale et à la taille du maillage dans la zone du dernier noeud de contact entre l'indenteur et l'échantillon. En effet, le passage d'un noeud à l'autre entraîne une brusque variation de la longueur de la diagonale (figure A5-5). Figure A5-5. Passage d'un noeud à l'autre dans la zone de fin de contact entre l'indenteur et l'échantillon Le coefficient de frottement d'une loi de type Coulomb (cf. équation A5.1) utilisé dans les simulations de l'indentation Vickers est classiquement choisi à 0,16 (Antunes et al. 2006) (entre le diamant et la plupart des matériaux). Cependant, le tantale est connu pour « coller » énormément aux outils, notamment en usinage, ce coefficient de 0,16 apparaît donc faible pour notre cas. Le coefficient de frottement a donc été modifié dans les simulations d'indentation, dans lesquelles une loi de type Tresca (cf. partie 2 équation 2.15) a été utilisée. ANNEXES Trois valeurs représentatives de trois frottements différents ont été testées: 0,16 (faible), 0,5 (moyen) et 0,95 (fort quasi-collant). A la vue des résultats obtenus en simulation (figure A5-6), le frottement ne semble pas être un paramètre prépondérant dans l'indentation Vickers. N'ayant pas d'information expérimentale sur le frottement entre le tantale pur et la pointe Vickers en diamant, et compte tenu du fait que le tantale soit un matériau « collant », nous considèrerons par la suite un coefficient de frottement de Tresca de 0,5. 3,5 90 3 85 0.16 0.95 80 2,5 HV0,3 Force d'indentation (N) 0.5 2 75 70 1,5 65 1 0.5 60 0.16 0,5 55 0.95 0 50 0 5 10 Profondeur d'indentation (μm) 15 0 10 20 30 40 50 60 70 80 90 100 Temps de maintien (s) Figure A5-6. Effet du frottement sur l'indentation Vickers numérique Remarque – Loi de frottement de Coulomb Equation A5.1 Avec la contrainte cisaillement critique pour laquelle on déclenche le glissement relatif d'un corps par rapport à l'autre, le coefficient de frottement et la pression de contact. Les derniers paramètres que sont la taille de maille de l'échantillon et le pas de déformation maximale sont tous deux liés à la précision du calcul et des résultats. Deux tailles de mailles sous l'indenteur (1 μm et 0,5 μm) ont été choisies pour que le nombre d'éléments dans la diagonale soit suffisamment important. La taille de maille est un compromis entre le temps de calcul, la précision du calcul et la précision de la mesure de la diagonale. La taille de 1 μm permet d'avoir un temps de calcul raisonnable et d'obtenir des résultats satisfaisants. Malgré une bonne description de l'effort en fonction de la profondeur de pénétration, on constate tout de même que la dureté évolue par « palier » (cf zoom figure A5-7). Cette évolution est due à la précision de la mesure de la diagonale et aux sauts d'un noeud à l'autre (figure A5-5). Lorsque la taille de maille sous l'indenteur est de 0,5 μm, la dureté évolue de manière plus progressive car on augmente la précision de la mesure de la diagonale et on amoindrit l'effet des sauts de noeuds. Bien qu'une diminution de la taille de maille soit favorable à une évolution de dureté plus progressive, elle présente le fort inconvénient d'augmenter significativement le temps de calcul. L'effort étant décrit de la même manière pour les deux tailles de mailles, une taille de maille de 1 μm apparaît suffisante pour décrire l'indentation Vickers avec une charge de 300 gf. 163 1 85 ANNEXES 0, 80 HV0,3 75 3,5 70 90 65 1 μm 85 3 0,5 μm 60 80 2,5 75 HV0,3 Force d'indentation (N) 164 2 55 70 1,5 65 50 1 0,5 1 μm 60 0,5 μm 55 0 0 10 20 30 40 50 60 Temps de maintien (s) 50 0 5 10 Profondeur d'indentation (μm) 15 0 10 20 30 40 50 60 70 80 90 100 Temps de maintien (s) Figure A5-7. Effet de la taille de maille de l'échantillon (sous l'indenteur) sur l'indentation numérique Le pas de déformation maximal est défini comme la déformation équivalente maximale admissible sur l'échantillon en un incrément de calcul. Par défaut dans Forge 2011®, ce paramètre est fixé à 0,01. Il permet d'agir indirectement sur le pas de temps et d'avoir au cours d'une même simulation un pas de temps variable. Ceci s'avère très utile dans le cas de l'indentation pour laquelle il y a deux régimes bien distincts et nécessitant deux pas de temps différents. Le premier régime est la pénétration de l'indenteur dans le matériau jusqu'à atteindre la force spécifiée. Ce régime présente des incréments de déformation par unité de temps qui sont importants comparés au régime de maintien qui le suit. Le pas de temps va donc être plus faible pour le premier régime. Le pas de temps initial de la simulation peut être estimé à partir de la formule suivante (Transvalor 2011) : Equation A5.2 Avec le pas de temps (en s), la hauteur initiale de l'outil maître (ici l'indenteur), la vitesse initiale de l'outil maître et le pas de déformation. Le pas de déformation maximal ne modifie pas le résultat de l'indentation dans la gamme de pas de déformation maximal testée, i.-e. 0,01-0,001-0,0001 (figure A5-8). Les différences observées au niveau de la dureté sont principalement dues à un maillage qui n'est pas strictement identique entre la simulation réalisée avec un pas de 0,01 et celles faites avec les pas de 0,001 et 0,0001. On peut d'ailleurs noter que pour ces deux dernières simulations les résultats sont identiques, à maillage identique. 70 80 9 ANNEXES 3,5 90 3 85 0.001 0.0001 80 2,5 HV0,3 Force d'indentation (N) 0.01 2 75 70 1,5 65 1 0.01 60 0.001 0,5 55 0.0001 0 50 0 5 10 Profondeur d'indentation (μm) 15 0 10 20 30 40 50 60 70 80 90 100 Temps de maintien (s) Figure A5-8. Effet du pas de déformation maximal sur l'indentation numérique La taille du maillage et le pas de déformation maximal ne peuvent pas être fixés de manière définitive pour n'importe quelle simulation d'indentation. Leurs valeurs devront bien sûr être adaptées en fonction du problème (matériau, charge, géométrie, vitesse d'indentation, précision souhaitée). Dans le cas d'une indentation à 1 μm.s-1 avec une charge de 300 gf, un maillage de 1 μm sous l'indenteur et un pas de déformation maximal par défaut (0,01) sont suffisants pour bien représenter l'indentation du tantale. Dans la littérature, une étude prend en compte le défaut de pointe de l'indenteur (Antunes et al. 2007) mais dans le contexte de la nanoindentation. Ces défauts de pointe étant de l'ordre du dixième de micromètre, il est difficile de les modéliser en microdureté où les empreintes ont des diagonales de plusieurs dizaines de micromètres. L'échelle de la microdureté par rapport à celle du défaut laisse penser que celui-ci devrait avoir peu d'impact sur le résultat. Nous ne le prendrons donc pas en compte et considèrerons une pointe parfaite. C. ANALYSE DE L'INDENTATION NUMERIQUE ET COMPARAISON AVEC UN ESSAI D'INDENTATION INSTRUMENTE Une fois la simulation de l'indentation bien définie et l'effet des différents paramètres influents évalué, nous pouvons analyser plus en détail les résultats de l'indentation numérique et déterminer si celle-ci permet de bien représenter l'indentation expérimentale. Les données expérimentales acquises avec le microduromètre Buehler permettent uniquement de connaître la dureté après un temps de maintien donné. De plus, pour une charge de 300 gf, l'indentation ne se fait pas à vitesse constante, cas que l'on souhaite utiliser pour valider la simulation dans un premier temps. Nous avons donc utilisé une machine de microindentation instrumentée réalisée au CEMEF. Cette machine permet de relever la force et la profondeur de pénétration au cours de l'indentation mais ne permet pas le maintien sous charge constante. Un essai instrumenté a donc été réalisé sur un échantillon de tantale pur recristallisé pour une charge de 300 gf (2,94 N) à une vitesse de 1μm.s-1. On peut ainsi comparer strictement les résultats obtenus numériquement avec ceux obtenus avec cette machine instrumentée (figure A5-9). Sur cette figure, on montre que les résultats de la simulation numérique sont en très bon accord avec les données expérimentales recueillies dans la phase d'indentation à vitesse constante. La courbe effort-déplacement est très bien reproduite numériquement et la dureté résultante est ainsi quasiment identique (90 HV0,3 /0 expérimental contre 86 HV0,3 /0 numérique). L'erreur commise sur la dureté est tout à fait acceptable étant donné les différences qui peuvent exister entre les méthodes de mesure des diagonales numériques et expérimentales. 165 ANNEXES 3,5 Force d'indentation (N) 3 2,5 2 1,5 1 Expérimental 0,5 Simulation 0 0 5 10 15 Profondeur d'indentation (μm) Figure A5-9. Comparaison des résultats obtenus par indentation instrumentée et indentation numérique (300 gf, 1 μm.s-1) Précédemment dans l'annexe A4, nous avons pu constater expérimentalement (mesures sur le microduromètre) que, pour une charge donnée, la dureté sur le palier ne dépend pas de la vitesse d'indentation. Ainsi, que la mise en charge soit quasi instantanée ou à une vitesse constante de 1 μm.s-1, la dureté Vickers tend vers 77 HV0,3 lorsque la durée du maintien est suffisante. La dureté obtenue numériquement au bout de 30 s de maintien, 63 HV0,3 /30, apparaît donc comme trop faible. En réalisant une indentation numérique à 100 μm.s-1, on retrouve le fait que la dureté tend vers une valeur unique qui ne dépend pas de la charge d'indentation (figure A5-10). On remarque sur cette figure que le principal effet de la vitesse porte sur la dureté pour un temps de maintien nul : la dureté Vickers passe de 86 HV0,3 /0 à 108 HV0,3 /0 mais au bout de 5 secondes, les niveaux de dureté sont similaires. En augmentant le temps de maintien, on retrouve un palier (quasiment) indépendant de la vitesse d'indentation. Malheureusement, un essai instrumenté à cette vitesse de 100 μm.s-1 est impossible à réaliser dans l'état actuel de la machine, l'asservissement ne permettant pas d'atteindre l'effort de 2,94 N sans dépassement. 110 105 1 μm/s 100 100 μm/s 95 90 HV0,3 166 85 80 75 70 65 60 55 50 0 10 20 30 40 50 60 70 80 Temps de maintien (s) Figure A5-10. Effet de la vitesse sur l'indentation numérique 90 100 ANNEXES La différence de dureté observée à temps de maintien nul et pour deux vitesses différentes peut être attribuée à la viscosité du tantale à température ambiante. On retrouve d'ailleurs cette sensibilité au niveau expérimental, pour les faibles temps de maintien (annexe A4, figure A4-3). Pour évaluer la vitesse de déformation lors de l'essai d'indentation, nous avons placé un capteur numérique sur un noeud du maillage situé sur la surface de l'échantillon qui voit passer le front de déformation plastique. Les vitesses de déformation maximales lors de l'indentation sont très différentes entre les deux essais (figure A5-11). Elle atteint 0,2 s-1 au niveau du front de déformation plastique à la surface de l'échantillon dans le cas d'une indentation à 1 μm.s-1 et plus de 18 s-1 dans le cas d'une indentation à 100 μm.s-1. Dans la phase de maintien, la vitesse de déformation sous l'indenteur reste non nulle et identique quelle que soit la vitesse d'indentation initiale. Cette vitesse est de l'ordre de 0,0001 s-1. L'essai d'indentation explore ainsi toute la gamme de vitesses de déformation sur laquelle est définie la loi de comportement. Les vitesses minimales rencontrées lors de l'indentation peuvent même sortir de cet intervalle de définition, ce qui peut être préjudiciable à une modélisation qui se veut très précise. Vitesse de déformation à la surface de l'échantillon (s-1) 100 1 μm/s 10 100 μm/s 1 0 10 20 30 40 50 60 70 80 90 100 110 0,1 0,01 0,001 0,0001 0,00001 Temps (s) Figure A5-11. Vitesse de déformation locale d'un point de la surface l'échantillon voyant passer le front de déformation plastique lors de l'indentation numérique pour deux vitesses d'indentation Enfin, on vérifie numériquement que le palier de dureté ne dépend pas de la charge, comme observé expérimentalement (figure A5-12). On retrouve également qu'une diminution de la charge entraîne une augmentation de la dureté aux très faibles temps de maintien. 167 ANNEXES 100 0.3 kgf 95 90 0.025 kgf 85 Dureté Vickers 168 80 75 70 65 60 55 50 0 10 20 30 40 50 60 70 80 90 100 Temps de maintien (s) Figure A5-12. Effet de la charge sur l'indentation numérique à 1 μm.s-1 Les simulations réalisées à vitesse d'indentation constante ont permis de déterminer que la simulation numérique de l'indentation était correcte dans une phase d'indentation à vitesse constante. Elles ne permettent cependant pas de bien représenter la phase de maintien, la chute de dureté étant trop rapide et surestimée. Dans ce cas, la loi de comportement utilisée serait à mettre en cause : la diminution trop rapide de dureté, et vers des valeurs trop faibles, au cours du maintien, laisse penser que la transition élasto-plastique est modélisée avec un écrouissage trop faible. La loi de comportement a en effet été calibrée à partir de la valeur de limite élastique (avec des incertitudes liées au « crochet » observé expérimentalement dans cette zone (partie 2, section I.2.b)), et de l'évolution globale de l'écrouissage aux grandes déformations. Il se peut que l'écrouissage du matériau recristallisé soit plus important aux très faibles déformations, pour ensuite évoluer plus lentement. Passée cette zone des très faibles déformations, la loi de comportement identifiée devrait être plus fiable, ce qui veut dire que des essais de microdureté réalisés sur des matériaux écrouis devraient être en bien meilleur accord avec les simulations, pour autant que l'on ait identifié la valeur initiale de densité de dislocations à prendre en compte dans la simulation. D. SIMULATION DE L'ESSAI D'INDENTATION VICKERS A EFFORT CONSTANT Cependant, les simulations à vitesse constante ne sont pas représentatives de l'essai d'indentation réel pour une charge de 300 gf, lequel est effectué à effort constant. Nous avons donc modifié la simulation numérique de l'indentation pour se rapprocher de la cinématique réelle. La première étape consiste à introduire dans la simulation un outil fictif qui fera office d'outil maître, outil nécessaire à la définition d'une simulation dans Forge 2011®. Cet outil va permettre de définir le temps de la simulation qui correspondra donc au temps de maintien défini dans la norme. Ensuite, la vitesse de l'indenteur n'est plus imposée. On lui associe une masse 300 g et on vient le positionner directement en contact avec la surface de l'échantillon. Le pas de temps a été ici fixé à 10-6 s car, lors de cette simulation, la mise en charge est quasi instantanée et se fait en quelques millièmes de seconde. Cela entraîne des vitesses de déplacement de l'indenteur très importantes (figure A5-13). ANNEXES Vitesse de déplacement de l'indentaeur (mm/s) 2 0 0 0,001 0,002 0,003 0,004 0,005 -2 -4 -6 -8 -10 -12 Temps (s) Figure A5-13. Vitesse de déplacement de l'indenteur lors d'une simulation à effort imposé La principale conséquence de cette vitesse élevée est le dépassement de l'effort de consigne de manière assez importante (figure A5-14). En effet, le dépassement de l'effort revient à simuler une indentation avec une charge 2,5 fois plus importante. La taille de l'empreinte est en conséquence agrandie et ne correspond absolument pas à une empreinte pour une charge de 300 gf. De plus, pendant la phase de maintien, l'effort est très instable (figure A5-14). Cela laisse penser que la boucle de rétroaction mise en place dans le modèle éléments finis entre la vitesse de l'indenteur et la force résultante n'est pas bien calibrée (corrections trop importantes sur les vitesses). 9 8 Force d'indentation (N) 7 6 5 4 Effort consigne 3 2 1 0 0 0,001 0,002 0,003 0,004 0,005 Temps (s) Figure A5-14. Effort numérique résultant sur l'indenteur lors d'une simulation à effort imposé Cette simulation de l'indentation Vickers à effort imposé ne donne pas de résultats satisfaisants dans l'état actuel des choses. Avec une vitesse de 1 à 10 mm.s-1, les vitesses de déformations maximales sont plus importantes que dans les simulations à vitesse constante (environ 1000 s-1) et on se trouve dans un régime dynamique. Même une diminution importante du pas de temps ne permet pas d'éviter le comportement oscillatoire de l'indenteur. 169 170 ANNEXES Nous avons pu mettre en évidence que la dureté Vickers est fortement dépendante du temps de maintien pour le tantale : plus le temps de maintien augmente, et plus la dureté diminue, jusqu'à atteindre un palier de dureté. Ce palier est atteint à des temps de maintien différents suivant l'effort et la vitesse d'indentation, lorsque celle-ci est pilotable. Cependant, il apparaît que le palier dépend uniquement de l'échantillon indenté. Nous avons également montré qu'il était tout à fait possible de simuler l'indentation Vickers du tantale pur à vitesse d'indentation constante. La simulation réagit de la même manière que l'expérience mais les niveaux de dureté numérique sont cependant un peu faibles. L'effet du temps de maintien serait mal pris en compte à cause d'une représentation imprécise de l'écrouissage du tantale aux faibles déformations. De plus, à l'heure actuelle, il n'est pas possible de simuler une indentation à effort constant avec le logiciel Forge 2011®, qui correspondrait à la cinématique réelle d'une mesure de microdureté classique. Des améliorations restent à apporter si l'on veut établir la relation dureté-densité de dislocations équivalente par cette méthode de simulation de l'indentation. Des efforts sont à fournir au niveau de la simulation de l'indentation à effort constant mais également au niveau de la loi de comportement aux faibles déformations qui pourrait influencer de manière importante l'évolution de la dureté au cours du maintien de la charge. ANNEXES ANNEXE A6 A6. ANALYSE QUANTITATIVE DES DESORIENTATIONS INTRAGRANULAIRES A PARTIR DES DONNEES EBSD Les désorientations intragranulaires sont quantifiées grâce au « Kernel Average Misorientation » (KAM), grandeur définie et calculée dans le logiciel TSL OIM Analysis. Pour chaque pixel de la cartographie EBSD, on affecte donc une valeur représentative des rotations locales du réseau cristallin. Le KAM représente l'angle de désorientation moyen entre le pixel considéré et ses voisins situés à une certaine distance (équation A6-1), définie en nombre de voisins (figure A61). L'objectif étant de caractériser les désorientations intragranulaires, les angles de désorientation supérieurs à l'angle limite de définition d'un joint de grains sont exclus du calcul. Equation A6.1 Avec N le nombre de pixel voisins pour lesquels entre le pixel i du voisinage et le pixel central. 1er voisins 2nd voisins 3ème voisins 1er voisins , 2nd voisins l'angle de désorientation 3ème voisins Grille carrée Grille hexagonale Figure A6-1. Description du kernel en fonction du type de grille de la cartographie EBSD Au sein d'un cristal déformé présentant un gradient d'orientation, la désorientation entre deux points dépend de la distance entre ces points. Le KAM est ainsi fonction du rayon physique du kernel qui varie selon la taille du kernel en nombre de voisins et le pas de mesure EBSD. Il est donc difficile de comparer les désorientations intragranulaires de cartographies réalisées avec des pas différents. Nous décrirons alors les désorientations intragranulaires grâce à une valeur du KAM normalisée par le rayon du kernel permettant de réduire la dépendance à ce rayon de kernel. Ce KAM normalisé sera également appelé Gradient Local d'Orientation et s'exprimera en °.μm-1 (ou rad.μm-1). 171 172 ANNEXES ANNEXE A7 A7. REVUE BIBLIOGRAPHIQUE DES DIFFERENTS SYSTEMES DE CHAUFFAGE IN SITU Dans la littérature, il existe d'autres systèmes de chauffage in situ utilisés pour observer la recristallisation (Kiaei et al. 1997; Humphreys et al. 1996), la migration des joints de grains (Czubayko et al. 1998; Paul et al. 2006) et également les transformations de phases (Seward et al. 2004). La plupart de ces platines chauffantes sont intégrées dans la chambre d'un MEB même si il existe des systèmes adaptés à des microscopes optiques (Czubayko et al. 1998) ou laser (Yogo et al. 2010). Dans les systèmes intégrés à un MEB, les évolutions microstructurales sont suivies soit par imagerie d'électrons rétrodiffusés (BSE) (Vorhauer et al. 2008) soit par des mesures EBSD (Hurley & Humphreys 2004). La technique EBSD a pour avantage de produire des cartographies précises de l'orientation cristallographique et donc d'être plus quantitative. On retrouve également souvent une combinaison de ces deux techniques pour suivre l'évolution de la microstructure (Seward et al. 2002; Bestmann et al. 2005; Nakamichi et al. 2008). Peu de systèmes utilisent un chauffage par effet Joule (Liao et al. 1998; Vorhauer et al. 2008; Lens et al. 2005). La plupart des fours in situ sont basés sur le principe d'une sole chauffée sur laquelle l'échantillon est posé. L'échange de chaleur est réalisé par conduction entre la sole et l'échantillon (Kirch et al. 2008; Borthwick & Piazolo 2010; Piazolo et al. 2004). En fonction du système, l'échantillon peut avoir différentes tailles. L'aire de la surface observée est généralement de l'ordre du mm2 alors que l'épaisseur peut varier de 120 μm (Mattissen et al. 2004) à 2 mm (Yogo et al. 2010; Nakamichi et al. 2008). La valeur moyenne des épaisseurs rencontrées dans la littérature se trouve autour de 1 mm. Dans notre cas, l'échantillon soudé à la fine lamelle de Ta chauffée par effet Joule a une épaisseur de 300 μm pour s'assurer d'une faible inertie thermique, ce qui permet d'atteindre des vitesses de chauffage jusque 100°C/s. Lorsque le courant est coupé, on peut obtenir une vitesse de refroidissement du même ordre. Cette valeur est significativement plus élevée que celles reportées dans la littérature (de 0.2°C/s à 10°C/s, mais en général en dessous de 2°C/s) et justifie la méthode employée consistant à interrompre de manière périodique le traitement thermique afin de caractériser l'évolution de la microstructure (Humphreys et al. 1996; Kiaei et al. 1997). Les cartographies EBSD sont ainsi acquises à température ambiante. Une vraie caractérisation in situ en EBSD implique des cinétiques d'évolution de la microstructure suffisamment lentes (Hurley & Humphreys 2004). Lorsque la cinétique accélère, il reste l'imagerie en électrons rétrodiffusés (Seward et al. 2002), qui implique que les températures de traitements soient faibles. Dans le cas d'un matériau qui ne change pas de phase entre la température ambiante et la température de traitement, on préfèrera l'approche séquentielle avec des vitesses de chauffage et refroidissement suffisamment rapides pour éviter toute évolution de la microstructure pendant ces phases transitoires. La température maximale atteinte avec le système utilisé dans cette étude est de 1200°C. La gamme de températures généralement observée dans la littérature pour les autres platines chauffantes est entre 200°C et 600°C. Quelques travaux ont été menés autour de 900°C (Seward et al. 2004; Kirch et al. 2008) et de 1250°C (Yogo et al. 2010) mais cette dernière étude n'était pas réalisée dans la chambre d'un microscope électronique à balayage. ANNEXES ANNEXE A8 A8. METHODE DE MESURE DE LA FRACTION RECRISTALLISEE A PARTIR DE DONNEES EBSD Une microstructure de recuit à la particularité de présenter deux types bien distincts de grains :  Les grains recristallisés : libres de dislocations, ce qui induit de faibles désorientations intragranulaires.  Les grains issus de la microstructure de déformation (déformés ou restaurés : avec plus ou moins de défauts cristallins, induisant des désorientations intragranulaires modérées à élevées. Cette différence de densité de dislocations entre les deux types de grains va grandement influencer la qualité du cliché de diffraction. Ainsi les clichés des grains recristallisés seront de meilleure qualité que ceux des grains non recristallisés. Les cartographies en « IQ (Image Quality) », ou qualité du cliché de diffraction, sont donc un bon moyen de suivre la recristallisation d'une microstructure (Wilkinson & Dingley 1991; Krieger Lassen et al. 1994). A chaque pixel de la cartographie est associé un nombre représentatif de la qualité du cliché EBSD. Sur une échelle de gris, les points les plus sombres représentent les qualités de cliché les plus mauvaises. Nous avons vu dans la partie 2 portant sur la description de l'état déformé, que le gradient local d'orientation (Kernel Average Misorientation divisé par le rayon du kernel, annexe A6) était un moyen de représentation quantitative de la répartition de l'énergie stockée dans une microstructure révélée par EBSD. Ce paramètre étant local (échelle du pixel), il s'avère très utile dans la description des grains déformés, de leurs sous-structures et de leurs désorientations intragranulaires. En ce qui concerne les grains recristallisés, un indicateur local n'est pas adapté. Nous allons alors nous baser sur une grandeur définie à l'échelle du grain qu'est le « Grain Orientation Spread » (ou GOS) pour définir si un grain est recristallisé ou non. Le « Grain Orientation Spread » est calculé pour chacun des grains de la microstructure. Il correspond à la moyenne des angles de désorientation entre l'orientation de chaque pixel du grain et l'orientation moyenne du grain. Dans une microstructure partiellement recristallisée, les pixels constituant un grain recristallisé vont peu fluctuer autour de l'orientation moyenne, le GOS sera alors faible. Au contraire dans un grain déformé, les orientations locales peuvent fortement dévier de l'orientation moyenne du grain, le GOS sera alors élevé. On obtient ainsi une distribution de la valeur du GOS dont le profil dépend de l'avancement de la recristallisation (figure A8-1). 173 174 ANNEXES (a) 0 Grain Orientation Spread 15 Grains recristallisés (b) 1° 0.2 Grains non recristallisés Figure A8-1. (a) Exemple d'une microstructure partiellement recristallisée pour laquelle le GOS a été calculé pour chaque grain (b) Distribution correspondante des GOS Pour définir quels grains sont considérés comme recristallisés, il est nécessaire de définir un seuil du GOS. En observant la distribution des GOS sur la figure A8-1.b, on voit un pic très net pour les faibles valeurs qui correspond aux grains recristallisés. On peut définir le seuil à 1°, qui correspond par ailleurs à l'ordre de grandeur de la précision de la mesure d'orientation par la technique EBSD dans les conditions où elle a été mise en oeuvre. Cette valeur limite dépend des conditions d'acquisition des données EBSD, qui définit la précision de la mesure d'orientation. Elle dépend également de la microstructure analysée. En effet, des grains restaurés ou peu déformés présentent aussi une valeur de GOS faible. Il s'agira donc de bien choisir le seuil en fonction de tous ces paramètres. On peut définir une fourchette pour le seuil de définition des grains recristallisés entre 0,8° et 1,2° que l'on choisira selon le profil de la distribution des GOS et selon un contrôle visuel en observant les grains qui paraissent recristallisés dans la microstructure (critère morphologique principalement). La figure A8-2 montre ANNEXES la microstructure binarisée en grains recristallisés (en bleu) et grains non recristallisés (en rouge). La fraction surfacique de grains recristallisés est donc accessible à partir de cette analyse (sur la figure A8-2 environ 50%). GOS < 1° Grains recristallisés GOS > 1° Grains NON recristallisés Figure A8-2. Discrimination des grains recristallisés dans une microstructure partiellement recristallisée à l'aide du Grain Orientation Spread (seuil à 1°) 175 176 ANNEXES ANNEXE A9 A9. OPTIMISATION DE LA GEOMETRIE DE L'ESSAI DOUBLE CONE PAR SIMULATION NUMERIQUE La géométrie de l'éprouvette « double cône » (ou DECC pour « DoublE Cône Compression ») a été adaptée par simulation numérique basée sur la méthode des éléments finis à partir de la géométrie proposée par Semiatin (Weaver & Semiatin 2007), afin de satisfaire deux critères principaux : 1. L'éprouvette doit pouvoir être usinée dans une tôle de 11 mm d'épaisseur 2. Le gradient de densité de dislocations équivalente doit être le plus fort possible, c'està-dire que le centre doit présenter une densité de dislocations la plus élevée possible alors que le bord de l'échantillon doit se déformer le moins possible. En premier lieu, la géométrie de l'éprouvette originelle doit être modifiée pour satisfaire le premier critère. Une de ces dimensions doit être inférieure ou égale à 11 mm. Dans notre cas, le diamètre d0 de la surface en contact avec les outils est fixé à 7 mm (diamètre des pions de compression utilisés dans la thèse de M. Houillon (Houillon 2009)). Ainsi, pour conserver un maximum de possibilités de modification de cette géométrie, la hauteur h0 est fixée à 11 mm. La figure A9-1 présente la géométrie de l'éprouvette DECC que nous allons prendre en compte pour le départ de l'optimisation. Pour satisfaire le critère n°2 sur le gradient de densité de dislocations, quatre paramètres géométriques sont à optimiser : D, h, h' et α. Figure A9-1. Géométrie de départ de l'éprouvette "double cône" et définition du repère de référence. Les valeurs fixes sont en gris et les paramètres susceptibles d'évoluer sont en rouge Pour optimiser cette géométrie, l'essai DECC est simulé à l'aide du logiciel FORGE® en utilisant la loi de comportement basée sur la densité de dislocations équivalente détaillée dans la partie 2. Le problème étant axisymétrique, seulement 1/8 de la géométrie du « double cône » a été modélisé afin de réduire le temps de calcul. Les paramètres utilisés lors des simulations sont récapitulés dans le tableau A9-1. La grandeur à laquelle nous nous intéressons est la densité de dislocations équivalente le long de l'axe DR1 dont l'origine est placée au centre de l'éprouvette. Toutes les valeurs de densité de dislocations sont relatives (normalisées par rapport à la valeur du matériau recristallisé) et arrondies à 0,1 près. Les paramètres géométriques de l'éprouvette de départ sont donnés dans le tableau A9-2. ANNEXES Tableau A9-1. Paramètres de la simulation numérique de l'essai DECC Taille de maille Vitesse de déplacement de l'outil Température Frottement avec les outils Echange thermique avec l'air hair Echange thermique avec les outils hout (Houillon 2009) 0.25 mm 0.1 mm/s 20°C Collant -2 -1 10 W.m .K -2 -1 8500 W.m .K Tableau A9-2. Valeurs des paramètres géométriques de la simulation de départ Paramètre Valeur D (mm) 14 h (mm) 4 h' (mm) 3,5 α (°) 45 La figure A9-2 montre l'évolution de la densité de dislocations maximale et du gradient de densité entre le centre et le bord de l'éprouvette en fonction de la course de compression. La course de compression maximale est fixée à la valeur de h' pour éviter que la partie cylindrique externe de l'éprouvette ne soit déformée en compression. Avec cette géométrie de départ, l'écart de densité de dislocations présente un maximum pour une course de compression comprise entre 1,5 mm et 2 mm. Cependant pour cette dernière, la valeur de densité de dislocations au centre est d'environ 9,5. Il apparaît donc que la course optimale pour cette géométrie est de 2 mm. Figure A9-2. Densité de dislocations maximale et écart entre le centre et le bord de l'éprouvette en fonction de la course de compression Avec cette première conclusion, on peut d'ores et déjà modifier la géométrie en limitant la hauteur des cônes h' à 2mm et en augmentant en conséquence la hauteur de la partie cylindrique h à 7mm. L'augmentation de cette dernière dimension va également permettre de faciliter la découpe pour une observation dans le plan (DR1, DR2) et de rendre l'observation dans le plan (DR1, DC) moins sensible à l'écartement au plan médian. La modification de h ne modifie pas la densité de dislocations équivalente sur un rayon du plan médian (DR1) (figure A9-4). 177 178 ANNEXES Figure A9-3. Répartition de la densité de dislocations le long d'un rayon pour la géométrie initiale et pour la géométrie modifiée au niveau de la hauteur de la partie cylindrique Pour augmenter la différence de densité de dislocations équivalente entre le centre et le bord, la solution est de diminuer la déformation du bord de l'éprouvette pour y diminuer la valeur de la densité de dislocations. Pour ceci, nous pouvons en premier lieu augmenter la valeur du diamètre D tout en conservant la valeur de α = 45°. On observe très clairement sur la figure A9-4 que la valeur de densité de dislocations au centre reste inchangée alors que la valeur au bord diminue. Si on augmente encore la valeur du diamètre, la diminution de densité de dislocations n'est plus significative car elle évolue très lentement dans les zones peu déformées. La diminution de la densité de dislocations au bord de l'échantillon est principalement due à la différence de rayon entre la partie cylindrique et la base des parties coniques. On fixe alors cet écart à 7 mm. Figure A9-4. Répartition de la densité de dislocations le long d'un rayon en fonction du diamètre de la partie cylindrique Le dernier paramètre géométrique pouvant influencer le gradient de densité de dislocations est l'angle α. Une modification de cet angle implique également une modification du ANNEXES diamètre de la partie cylindrique. Sur la figure A9-5, les répartitions des densités de dislocations le long du rayon pour les trois angles considérés (22,5°, 45° et 67,5°) montrent que l'angle n'a pas d'influence sur l'écart de densité de dislocations. Par contre, l'angle le plus faible présente l'avantage d'augmenter le rayon de la partie cylindrique. L'évolution de la densité de dislocations équivalente sera donc plus progressive entre le centre et le bord facilitant ainsi la détection du seuil de recristallisation. Figure A9-5. Répartition de la densité de dislocations le long d'un rayon en fonction de l'angle α A partir des observations réalisées ci-dessus, on peut conclure que la nouvelle géométrie proposée par rapport à celle utilisée dans les travaux de Weaver et Semiatin permet d'augmenter l'écart de densité de dislocations entre le centre et le bord de l'éprouvette. Les différents paramètres de la géométrie permettent à la fois de jouer sur la distribution de densité de dislocations et de contrôler l'étendue de la zone qui sera analysée. Une zone assez grande permettra d'effectuer plus de mesures de dureté le long d'un rayon et également de mieux capter le seuil de densité de dislocations pour déclencher la recristallisation. La figure A9-6 illustre l'évolution de la géométrie depuis celle du départ de l'optimisation. Figure A9-6. Evolution de la géométrie de l'éprouvette DECC entre le début et la fin de l'optimisation 179 REFERENCES. 182 REFERENCES Antunes, J.M., Menezes, L.F. & Fernandes, J.V., 2007. Influence of Vickers tip imperfection on depth sensing indentation tests. International Journal of Solids and Structures, 44(9), pp.2732–2747. Antunes, J.M., Menezes, L.F. & Fernandes, J.V., 2006. Three-dimensional numerical simulation of Vickers indentation tests. International Journal of Solids and Structures, 43(3-4), pp.784–806. Attallah, M.M., Strangwood, M. & Davis, C.L., 2010. Influence of the heating rate on the initiation of primary recrystallization in a deformed Al-Mg alloy. Scripta Materialia, 63, pp.371–374. Avrami, M., 1939. Kinetics of Phase Change. I General Theory. Journal of chemical physics, 7(12), pp.1103–1112. Beckenhauer, D., Niessen, P. & Pick, R., 1993. Effect of the heating rate on the recrystallization temperature of tantalum. Journal of Materials Science Letters, 12, pp.449–450. Bénard, J. et al., 1969. Autodiffusion par lacunes. In M. et Cie, ed. Métallurgie générale. Paris, pp. 105– 107. Bernacki, M. et al., 2009. Finite element model of primary recrystallization in polycrystalline aggregates using a level set framework. Modelling and Simulation in Materials Science and Engineering, 17(6), p.064006. Bernacki, M., Logé, R E & Coupez, T., 2011. Level set framework for the finite-element modelling of recrystallization and grain growth in polycrystalline materials. Scripta Materialia, 64(6), pp.525– 528. Bernard, P. et al., 2011. A two-site mean field model of discontinuous dynamic recrystallization. Materials Science and Engineering A-Structural Materials Properties Microstructure and Processing, 528(24), pp.7357–7367. Bestmann, M. et al., 2005. Microstructural evolution during initial stages of static recovery and recrystallization: new insights from in-situ heating experiments combined with electron backscatter diffraction analysis. Journal of Structural Geology, 27, pp.447–457. Bolmaro, R.E., Lebensohn, R.A. & Brokmeier, H.G., 1997. Crystal spin in two-sites self consistent models: From kinematics to kinetics. Computational Materials Science, 9(1-2), pp.237–250. Borthwick, V.E. & Piazolo, S., 2010. Post-deformational annealing at the subgrain scale: Temperature dependent behaviour revealed by in-situ heating experiments on deformed single crystal halite. Journal of Structural Geology, 32, pp.982–996. Bozzolo, N., Jacomet, S. & Logé, R.E., 2012. Fast in-situ annealing stage coupled with EBSD: A suitable tool to observe quick recrystallization mechanisms. Materials Characterization, 70, pp.28–32. Bréchet, Y. & Martin, G., 2006. Nucleation problems in metallurgy of the solid state: recent developments and open questions. Comptes Rendus Physique, 7(9-10), pp.959–976. Bréchet, Y., Zurob, HS & Hutchinson, C., 2009. On the effect of pre-recovery on subsequent recrystallization. International Journal of Materials Research, 100, pp.1446–1448. Briant, C.L. et al., 2000. Recrystallization textures in tantalum sheet and wire. International Journal of Refractory Metals & Hard Materials, 18, pp.1–8. Bunge, H., 1982. Texture analysis in material science, London: Butterworths. REFERENCES Buy, F., 1996. Etude expérimentale et modélisation du comportement plastique d'un tantale. Prise en compte de la vitesse de déformation et de l'histoire du chargement. Thèse de doctorat. Université de Metz. Buy, F. et al., 1997. Evaluation of the parameters of a constitutive model for bcc metals based on thermal activation. Journal De Physique Iv, 7, pp.631–636. Cahn, J., 1962. The impurity-drag effect in grain boundary motion. Acta Metallurgica, 10(9), pp.789–798. Chen, S.R. & Gray III, G.T., 1996. Constitutive Behavior of Tantalum and Tantalum-Tungsten Alloys. Metallurgical and Materials Transactions A, 27A, pp.2994–3006. Chun, Y.B., Semiatin, S.L. & Hwang, S.K., 2006. Monte Carlo modeling of microstructure evolution during the static recrystallization of cold-rolled, commercial-purity titanium. Acta Materialia, 54(14), pp.3673–3689. Czubayko, U. et al., 1998. Influence of triple junctions on grain boundary motion. Acta Materialia, 46, pp.5863–5871. Dillamore, I., Smith, C. & Watson, T., 1967. Oriented Nucleation in the Formation of Annealing Textures in Iron. Materials Science and Technology, 1(1), pp.49–54. Doherty, R.D. et al., 1997. Current issues in recrystallization: a review. Materials Science and Engineering A-Structural Materials Properties Microstructure and Processing, 238, pp.219–274. Fan, D. & Chen, L.Q., 1997. Computer simulation of grain growth using a continuum field model. Acta Materialia, 45, pp.611–622. Farré, J. & Buy, F., 1999. Saturation des propriétés mécaniques à grandes déformations, Communication interne. Farré, J., Buy, F. & Llorca, F., 2001. Modèle EDD sur tantale pétri 3D Prise en compte de l'influence de la température et de la vitesse de déformation, Communication interne. Fresnois, S., 2001. Modélisation polycristalline du comportement mécanique du tantale. Application à la mise en forme par hydroformage. Thèse de doctorat. Ecole Centrale Paris. Gaudout, B., 2009. Modélisation des évolutions microstructurales et étude de la lubrification par film solide lors du filage à chaud d'alliages de zirconium. Thèse de doctorat. Mines ParisTech. Goetz, R.L. & Seetharaman, V., 1998. Static recrystallization kinetics with homogeneous and heterogeneous nucleation using a cellular automata model. Metallurgical and Materials Transactions A-Physical Metallurgy and Materials Science, 29, pp.2307–2321. Gottstein, G & Shvindlerman, L.S., 1999. Grain boundary migration in Metals: thermodynamics, kinetics, applications, CRC Press LLC. Gourdet, S. & Montheillet, F., 2003. A model of continuous dynamic recrystallization. Acta Materialia, 51(9), pp.2685–2699. Hartwig, K.T. et al., 2002. Hardness and microstructure changes in severely deformed and recrystallized tantalum. Ultrafine Grained Materials II, 2, pp.151–160. 183 184 REFERENCES Hirth, J.P., 1972. The influence of grain boundaries on mechanical properties. Metallurgical Transactions A-Physical Metallurgy and Materials Science, 3(12), pp.3047–3067. Hoge, K.G. & Mukherjee, A.K., 1977. The temperature and strain rate dependance of the flow stress of tantalum. Journal of Materials Science, 12, p.1666. Holm, E.A., Miodownik, M.A. & Rollett, A D, 2003. On abnormal subgrain growth and the origin of recrystallization nuclei. Acta Materialia, 51(9), pp.2701–2716. Hosseini, E. & Kazeminezhad, M., 2009. Dislocation structure and strength evolution of heavily deformed tantalum. International Journal of Refractory Metals & Hard Materials, 27, pp.605–610. Houillon, M., 2009. Modélisation du procédé de fluotournage du tantale et du traitement thermique associé. Thèse de doctorat. Mines ParisTech. Huang, Ke, 2011. Towards the modeling of recrystallization phenomena in multi-pass conditions Application to 304L steel. Thèse de doctorat. Mines ParisTech. Huang, Y. & Humphreys, F.J., 1999. Measurements of grain boundary mobility during recrystallization of a single-phase aluminium alloy. Acta Materialia, 47, pp.2259–2268. Humphreys, F.J. et al., 1996. Combined in situ SEM annealing and EBSD of deformed materials. Textures and Microstructures, 26-27, pp.281–301. Humphreys, F.J. & Hatherly, M., 2004. Recrystallization and related annealing phenomena 2nd editio., Elsevier Ltd. Hupalo, M.F. & Sandim, H.R.Z., 2001. The annealing behavior of oligocrystalline tantalum deformed by cold swaging. Materials Science and Engineering A-Structural Materials Properties Microstructure and Processing, 318, pp.216–223. Hurley, P.J. & Humphreys, F.J., 2004. A study of recrystallization in single-phase aluminium using in-situ annealing in the scanning electron microscope. Journal of Microscopy-Oxford, 213, pp.225–234. Hutchinson, B., 1992. Nucleation of recrystallization. Scripta Metallurgica et Materialia, 27, pp.1471– 1475. Isbell, W.M., Christman, D.R. & Babcock, S.G., 1972. Measurements of dynamic properties of materials, volume VI: tantalum, Warren, MI. Ivasishin, O.M. et al., 2006. A 3-D Monte-Carlo (Potts) model for recrystallization and grain growth in polycrystalline materials. Materials Science and Engineering A-Structural Materials Properties Microstructure and Processing, 433, pp.216–232. Jaoul, B., 2008. Etude de la plasticité et application aux métaux, Presses de l'école des mines de Paris. Johnson, W.A. & Mehl, R.F., 1939. Reaction kinetics in processes of nucleation and growth. Transactions of metallurgical Society of AIME, 135, p.416. Jonas, J. & Barnett, M., 1997. Influence of ferrite rolling temperature on microstructure and texture in deformed low C and IF steels. ISIJ International, 37(7), pp.697–705. REFERENCES Jonhson, G.R. & Cook, W.H., 1983. A constitutive model and data for metals subjected to large strains, high strain rates and high temperatures. In Proceedings of the 7th International Symposium on Ballistics. pp. 541–547. Kapoor, R. & Nemat-Nasser, S., 2000. Comparison between high and low strain-rate deformation of tantalum. Metallurgical and Materials Transactions A-Physical Metallurgy and Materials Science, 31, pp.815–823. Kiaei, M., Chiron, R. & Bacroix, B., 1997. Investigation of recrystallization mechanisms in steels during in situ annealing in a SEM. Scripta Materialia, 36, pp.659–666. Kirch, D.M. et al., 2008. Laser powered heating stage in a scanning electron microscope for microstructural investigations at elevated temperatures. Review of Scientific Instruments, 79. Klepaczko, J., 1975. Thermally activated flow and strain rate history for some polycrystalline fcc metals. Materials Science and Engineering, 18, pp.121–135. Kolmogorov, A., 1937. A statistical theory for the recrystallization of metals. Izv. Akad. nauk. USSR-SerMatemat, 1(3), p.355. Krieger Lassen, N.C., Juul Jensen, D. & Conradsen, K., 1994. Automatic recognition of deformed and recrystallized regions of partially recrystallized samples using electron backscattering patterns. Materials Science Forum, 157-162, pp.149–158. Kubin, L.P. & Mortensen, A., 2003. Geometrically necessary dislocations and strain-gradient plasticity: a few critical issues. Scripta Materialia, 48(2), pp.119–125. Kugler, G. & Turk, R., 2006. Study of the influence of initial microstructure topology on the kinetics of static recrystallization using a cellular automata model. Computational Materials Science, 37(3), pp.284–291. Lassila, D.H., Goldberg, A. & Becker, R., 2002. The Effect of Grain Boundaries on the Athermal Stress of Tantalum and Tantalum-Tungsten Alloys. Metallurgical and Materials Transactions A, 33A, pp.3457–3464. Le, J., Weygand, D. & Brechet, Y., 1999. Zener Pinning and grain growth: a two-dimensional vertex computer simulation. Acta Materialia, 47(3), pp.961–970. Lens, A., Maurice, C. & Driver, J.H., 2005. Grain boundary mobilities during recrystallization of Al-Mn alloys as measured by in situ annealing experiments. Materials Science and Engineering AStructural Materials Properties Microstructure and Processing, 403, pp.144–153. Liao, G.J., Le Gall, R. & Saindrenan, G., 1998. Experimental investigations into kinetics of recrystallisation of cold rolled nickel. Materials Science and Technology, 14, pp.411–416. Logé, R E et al., 2008. Linking plastic deformation to recrystallization in metals using digital microstructures. Philosophical Magazine, 88(30-32), pp.3691–3712. Lücke, K. & Stüwe, H.P., 1963. No Title. In L. Himmel, ed. Recovery and recrystallization in metals. Interscience publications, p. 171. Mach, J.C., Beaudoin, A.J. & Acharya, A., 2010. Continuity in the plastic strain rate and its influence on texture evolution. Journal of the Mechanics and Physics of Solids, 58(2), pp.105–128. 185 186 REFERENCES Manonukul, A. & Dunne, F.P.E., 1999. Initiation of dynamic recrystallization under inhomogeneous stress states in pure copper. Acta Materialia, 47, pp.4339–4354. Martorano, M.A. et al., 2007. Observations of grain boundary protrusions in static recrystallization of high-purity bcc metals. Scripta Materialia, 56, pp.903–906. Masing, G. & Raffelsieper, J., 1950. Mechanische Erholung von Aluminium-Einkristallen. Zeitschrift Fur Metallkunde, 41, p.65. Mathaudhu, S.N. & Hartwig, K.T., 2006. Grain refinement and recrystallization of heavily worked tantalum. Materials Science and Engineering A-Structural Materials Properties Microstructure and Processing, 426, pp.128–142. Mathaudhu, S.N. & Hartwig, K.T., 2007. Processing microstructure property relationships in severely deformed tantalum. Materials Science and Engineering A-Structural Materials Properties Microstructure and Processing, 463, pp.94–100. Mattissen, D. et al., 2004. In-situ investigation of grain boundary and triple junction kinetics in aluminium-10 p.p.m. magnesium. Journal of Microscopy-Oxford, 213, pp.257–261. Maurice, C. & Humphreys, F.J., 1998. 2-D and 3-D curvature driven vertex simulations of grain growth. In H. Weiland, B. Adams, & A. Rollett, eds. Grain Growth in Polycrystalline Materials III. pp. 81–90. Michalak, J.T. & Paxton, H.W., 1961. Some recovery characteristics of zone-melted iron. Transactions of metallurgical Society of AIME, 221, p.850. Miodownik, M.A., 2002. A review of microstructural computer models used to simulate grain growth and recrystallisation in aluminium alloys. Journal of Light Metals, 2(3), pp.125–135. Moelans, N., Wendler, F. & Nestler, B., 2009. Comparative study of two phase-field models for grain growth. Computational Materials Science, 46(2), pp.479–490. Molodov, D A et al., 1998. On the effect of purity and orientation on grain boundary motion. Acta Materialia, 46(2), pp.553–564. Montano-Zuniga, I.M. et al., 2010. Numerical simulation of recrystallization in BCC metals. Computational Materials Science, 49, pp.512–517. Montheillet, F., Lurdos, O. & Damamme, G., 2009. A grain scale approach for modeling steady-state discontinuous dynamic recrystallization. Acta Materialia, 57(5), pp.1602–1612. Nakamichi, H., Humphreys, F.J. & Brough, I., 2008. Recrystallization phenomena in an IF steel observed by in situ EBSD experiments. Journal of Microscopy, 230, pp.464–471. Nemat-Nasser, S. & Kapoor, R., 2001. Deformation behavior of tantalum and a tantalum tungsten alloy. International Journal of Plasticity, 17, pp.1351–1366. Neumann, G. & Tuijn, C., 2009. Self-diffusion and Impurity Diffusion in Pure Metals: handbook of experimental data, Elsevier Ltd. Park, C.H., Hong, S.-G. & Lee, C.S., 2011. A unified constitutive model for quasi-static flow responses of pure Ta and Ta–W alloys. Materials Science and Engineering A-Structural Materials Properties Microstructure and Processing, 528(3), pp.1154–1161. REFERENCES Paul, H. et al., 2006. Scanning electron microscopy and transmission electron microscopy in situ studies of grain boundary migration in cold-deformed aluminium bicrystals. Journal of Microscopy-Oxford, 223, pp.264–267. Piazolo, S. et al., 2004. The potential of combined in situ heating experiments and detailed EBSD analysis in the investigation of grain scale processes such as recrystallization and phase transformation. Materials Science Forum, 467-470, pp.1407–1412. Piękoś, K. et al., 2008. Generalized vertex model of recrystallization – Application to polycrystalline copper. Computational Materials Science, 42(4), pp.584–594. Price, C.W., 1989. Comments on the extent of simultaneous recovery during recrystallization and its effect on recrystallization kinetics. Scripta Metallurgica, 23(8), pp.1273–1276. Primig, S. et al., 2012. Influence of the heating rate on the recrystallization behavior of molybdenum. Materials Science and Engineering A-Structural Materials Properties Microstructure and Processing, 535, pp.316–324. Raabe, D., 1999. Introduction of a scalable three-dimensional cellular automaton with a probabilistic switching rule for the discrete mesoscale simulation of recrystallization phenomena. Philosophical Magazine, 79(10), pp.2339–2358. Raabe, D. et al., 1994. Texture and microstructure of rolled and annealed tantalum. Materials Science and Technology, 10, pp.299–305. Raghavan, S. & Sahay, S.S., 2009. Modeling the topological features during grain growth by cellular automaton. Computational Materials Science, 46(1), pp.92–99. Regazzoni, G., 1983. Comportement et ductilité du cuivre et du tantale purs dans le domaine de vitesse -4 3 -1 de déformation 10 - 3x1 s . Thèse de doctorat. Institut national polytechnique de Grenoble. Richards, D.W. et al., 2003. Annealing studies of pure and alloyed tantalum employing rocking curves. Advances in X-ray Analysis, 46, pp.285–290. Rollett, A D, 1997. Overview of modeling and simulation of recrystallization. Progress in Materials Science, 42, pp.79–99. Rollett, Anthony D & Raabe, D., 2001. A hybrid model for mesoscopic simulation of recrystallization. Computational Materials Science, 21, pp.69–78. Saltykov, S., 1958. Stereometric metallography, Moscow. Sandim, H.R.Z. et al., 1999. Grain subdivision and recrystallization in oligocrystalline tantalum during cold swaging and subsequent annealing. International Journal of Refractory Metals & Hard Materials, 17, pp.431–435. Sandim, H.R.Z. et al., 2005. Recrystallization of oligocrystalline tantalum deformed by cold rolling. Materials Science and Engineering A-Structural Materials Properties Microstructure and Processing, 392, pp.209–221. Sandim, H.R.Z., Martins, J.P. & Padilha, A.F., 2001. Orientation effects during grain subdivision and subsequent annealing in coarse-grained tantalum. Scripta Materialia, 45, pp.733–738. Sandim, H.R.Z., Mcqueen, H.J. & Blum, W., 2000. Microstructure of cold swaged tantalum at large strains. Scripta Materialia, 42, pp.151–156. 187 188 REFERENCES Seward, G.G.E. et al., 2002. High-temperature electron backscatter diffraction and scanning electron microscopy imaging techniques: In-situ investigations of dynamic processes. Scanning, 24, pp.232– 240. Seward, G.G.E. et al., 2004. In situ SEM-EBSD observations of the HCP to BCC phase transformation in commercially pure titanium. Acta Materialia, 52, pp.821–832. Simonsen, E., 1960. Twinning in iron. Acta Metallurgica, 8(11), pp.809–810. Srolovitz, D. et al., 1988. Computer simulation of recrystallization-II. Heterogeneous nucleation and growth. Acta Metallurgica, 36(8), pp.2115–2128. Srolovitz, D. et al., 1983. Grain growth in two dimensions. Scripta Metallurgica, 17(2), pp.241–246. Srolovitz, D., Grest, G. & Anderson, M., 1986. Computer simulation of recrystallization-I. Homogeneous nucleation and growth. Acta Metallurgica, 34(9), pp.1833–1845. Stüwe, H.P., Padilha, A.F. & Siciliano, F., 2002. Competition between recovery and recrystallization. Materials Science and Engineering A-Structural Materials Properties Microstructure and Processing, 333, pp.361–367. Syha, M. & Weygand, D., 2010. A generalized vertex dynamics model for grain growth in three dimensions. Modelling and Simulation in Materials Science and Engineering, 18(1), p.015010. Tabor, D., 1951. The hardness of metals, Oxford University Press. Takaki, T. & Tomita, Y., 2010. Static recrystallization simulations starting from predicted deformation microstructure by coupling multi-phase-field method and finite element method based on crystal plasticity. International Journal of Mechanical Sciences, 52(2), pp.320–328. Transvalor, 2011. Forge 2011 Documentation - Datafile Forge3v75. Vandermeer, R.A. & Snyder, W.B., 1979. Recovery and recrystallization in rolled tantalum single crystals. Metallurgical Transactions A-Physical Metallurgy and Materials Science, 10, pp.1031–1044. Viltange, M., 1975. Formation of annealing twins during recrystallization of high-purity iron. Comptes Rendus Hebdomadaires Des Séances De L'Academie Des Sciences Serie C, 280, pp.69–71. Vorhauer, A., Scheriau, S. & Pippan, R., 2008. In-situ annealing of severe plastic-deformed OFHC copper. Metallurgical and Materials Transactions a-Physical Metallurgy and Materials Science, 39A, pp.908–918. Wasilewski, R., 1966. Annealing twins and twin-boundary intersections in niobium. Acta Metallurgica, 14(3), pp.433–436. Wasilewski, R., 1967. BCC stacking fault energies. Scripta Metallurgica, 1(1), pp.45–47. Weaver, D.S. & Semiatin, S.L., 2007. Recrystallization and grain growth behavior of a nickel-base superalloy during multi-hit deformation. Scripta Materialia, 57, pp.1044–1047. Wei, Q. et al., 2003. Microstructure and mechanical properties of tantalum after equal channel angular extrusion (ECAE). Materials Science and Engineering A-Structural Materials Properties Microstructure and Processing, 358, pp.266–272. REFERENCES Weygand, D., Brechet, Y. & Lepinoux, J., 2001. A Vertex Simulation of Grain Growth in 2D and 3D. Advanced Engineering Materials, 3(1-2), pp.67–71. Wilkinson, A.J. & Dingley, D.J., 1991. Quantitative deformation studies using electron back scatter patterns. Acta Metallurgica and Materialia, 39(12), pp.3047–3055. Yogo, Y., Tanaka, K. & Nakanishi, K., 2010. In-situ Observation of Grain Growth and Recrystallization of Steel at High Temperature T. W. N. R. W. I. M. Chandra, ed. Materials Science Forum, 638-642, pp.1077–1082. Zhang, Y., Godfrey, A. & Jensen, Dorte Juul, 2011. Local boundary migration during recrystallization in pure aluminium. Scripta Materialia, 64(4), pp.331–334. Zhao, H. et al., 1996. A Variational Level Set Approach to Multiphase Motion. Journal of Computational Physics, 127, pp.179–195. Zurob, H, Brechet, Y. & Dunlop, J., 2006. Quantitative criterion for recrystallization nucleation in singlephase alloys: Prediction of critical strains and incubation times. Acta Materialia, 54(15), pp.3983– 3990. 189 Analyse des mécanismes de recristallisation statique du tantale déformé à froid pour une modélisation en champ moyen RESUME : L'objectif de ce travail est de prédire les évolutions microstructurales se produisant dans le tantale pur lors d'un traitement thermique en fonction de son état microstructural initial. La restauration, la recristallisation et la croissance de grains sont décrites à l'aide d'un modèle en champ moyen qui nécessite une description adéquate de la microstructure, en termes de distributions de tailles de grains et de densités de dislocations équivalentes. La densité de dislocation équivalente moyenne peut être évaluée par une simple mesure de dureté Vickers. L'établissement de la relation dureté-densité de dislocations nécessite l'utilisation d'une loi de comportement basée sur la densité de dislocations équivalente. Les évolutions microstructurales au cours d'un traitement thermique ont été observées et les paramètres pilotant ces phénomènes ont été identifiés à l'aide d'essais originaux comme l'observation in situ de la recristallisation ou l'utilisation d'essais à gradient de déformation pour déterminer le seuil de densité de dislocations équivalente pour déclencher la recristallisation. Des essais plus classiques ont permis d'obtenir des cinétiques de recristallisation dans la gamme 1000°C-1100°C pour différentes microstructures initiales. Les simulations des différents traitements thermiques à l'aide du modèle à champ moyen rendent bien compte des évolutions microstructurales en termes de fraction recristallisée et de taille des grains recristallisés pour des microstructures faiblement déformées ou fortement déformées et fragmentées, en utilisant une description adéquate du type de microstructure initiale. Le modèle devra en revanche être adapté pour traiter le cas de microstructures intermédiaires, en enrichissant non seulement la description de la microstructure initiale mais également celle de l'étape de germination des grains recristallisés. Il deviendra alors capable de prédire les évolutions de microstructures pour tout type de microstructure initiale de tantale. Mots clés : tantale, recristallisation statique, modélisation en champ moyen, comportement mécanique, densité de dislocations Analysis of static recrystallization mechanisms of cold-worked tantalum for mean-field modeling ABSTRACT : This study aims at predicting the microstructural evolution of pure tantalum during annealing according the initial microstructural state. Static recovery and discontinuous recrystallization as well as grain growth are described using a mean-field model requiring an appropriate description of the microstructure, using both equivalent dislocation densities and grain sizes distributions. The average equivalent dislocation density can be assessed from Vickers microhardness measurements. The calibration of such a relation between microhardness and dislocation density involves the use of a dislocation density-based constitutive law. Microstructural evolutions during annealing have been observed and control parameters of these phenomena have been determined using original tests such as in situ observation of the recrystallization process or the use of strain gradient samples to assess the critical dislocation density for the onset of recrystallization. More classical tests have been carried out to get recrystallization kinetics in the range 1000-1100°C for different initial microstructures. Simulations of annealing using the mean-field model adapted for tantalum match the experimental evolution of both recrystallized fraction and recrystallized grain size, in either weakly deformed or severely deformed and fragmented microstructures. On the other hand, the model needs to be further adapted for intermediate microstructures, with both a more elaborate description of the initial microstructure and of the nucleation stage of the recrystallized grains. It will then be suitable to predict evolutions of any initial tantalum microstructure during annealing. Keywords : tantalum, static recrystallization, mean-field modeling, mechanical behavior, dislocation density.
{'path': '63/pastel.archives-ouvertes.fr-pastel-00873188-document.txt'}
L'exercice d'un doctorat touchant au travail social : enjeux, défis et négociations Aurélien Carotenuto-Garot, Léo Farcy-Callon, Lydie Gibey et Wajdi Liman Publié dans : Rullac, S., Tabin, J-P., Frauenfelder, A., (dirs.), La fabrique du doctorat en travail social, Geneve, Presses de l'EHESP, 2018 Introduction : Chaque année, de plus en plus d'étudiants se tournent vers des modes de financement offrant des opportunités de thèses au-delà des contrats doctoraux. L'augmentation du nombre de Convention industrielle de formation par la recherche (CIFRE1) en sciences humaines et sociales en est un révélateur. Il existe également des thèses dans lesquelles des doctorants poursuivent leur recherche dans leur établissement employeur, avec parfois des possibilités de soutiens de la part de l'entreprise. Il apparaît que ces deux types de financements « alternatifs » - qui se caractérisent par le fait que des doctorants ont choisi de mener leurs recherches à partir de leur terrain professionnel – se développent, entre autre, au sein du travail social. En tant que doctorants-salariés intégrés au sein de dispositifs d'actions sociales, nous nous inscrivons tous les quatre entièrement dans cette optique. Aurélien Carotenuto-Garot est doctorant à l'Université Paris 8 Vincennes Saint-Denis (laboratoire Cresppa-GTM) et est dans ce cadre embauché en CIFRE au sein du Service intégré d'accueil et d'orientation du Vald'Oise (SIAO 95), piloté par l'association ESPERER 95. Léo Farcy-Callon est doctorant à l'Université Rennes 2 (Laboratoire ESO-Rennes), chercheur à l'ESPASS-IREIS et a été salarié à la Sauvegarde de l'enfance et de l'adolescence de la Drôme pendant trois ans dans le cadre d'un financement CIFRE. Lydie Gibey est psychologue clinicienne, directrice d'établissement médico-social à l'oeuvre Falret, Doctorante à l'IRTS Paris Île de France et l'ISCTE de Lisbonne. Wajdi Liman est éducateur spécialisé, enseignant à la FLEPES (Faculté libre d'études politiques et en économie solidaire) et doctorant à Paris 8 (Cresppa-GTM) en contrat CIFRE à la DASES de la Ville de Paris. Un poste de doctorant-salarié au sein des dispositifs d'actions sociales relève d'un contexte particulier. Dans ce chapitre, nous allons tenter d'en analyser les enjeux et principaux défis, à partir de nos 4 expérimentations individuelles. Dans un premier temps, nous expliciterons la complémentarité des enjeux - de l'embauche d'un doctorant-salarié - pour la recherche et le travail social. Dans un deuxième temps, nous verrons que la rencontre entre ces deux univers professionnels matérialise un ensemble de défis. Dans un troisième temps, nous mettrons en avant un outil d'importance afin de dépasser les difficultés mentionnées : mettre en place un espace d'échanges et de négociations entre le doctorant et l'employeur. 1 Il s'agit d'un instrument de politique publique de la recherche promu depuis 1981, et reposant sur un accord tripartite entre un(e) doctorant(e), un laboratoire de recherche et une entreprise (publique ou privée) ou une administration : http://www.anrt.asso.fr/fr/cifre-7843 1 1. Les enjeux d'une thèse touchant au travail social : Ouverture d'opportunités scientifiques et professionnelles Dans la configuration d'une embauche dans un dispositif d'action sociale, il convient de préciser comment le sujet de recherche se construit. Si certains sujets peuvent émerger d'une sensibilité scientifique du doctorant, les employeurs interviennent d'une manière ou d'une autre pour commander, initier ou orienter l'objet de la recherche. En fonction du cadre, les pouvoirs publics, des associations à vocation sociale, des écoles de formation en travail social ou des entreprises, interviennent dans le processus de formalisation de l'objet de recherche. Dans tous les cas, le doctorant se doit aussi de problématiser scientifiquement la question de recherche en lien avec son école doctorale, son laboratoire universitaire et son directeur de thèse. Le croisement de nos expériences montre que cette première rencontre entre la recherche et les acteurs du travail social créé un nouvel espace permettant de penser une fabrication commune entre l'activité scientifique du chercheur et les pratiques d'intervention des acteurs du travail social. Chacune des partis trouve son intérêt au développement d'un projet de doctorat. Pour les institutions employeuses, le développement d'une recherche est une plus-value en permettant à la fois d'intégrer une réflexion interne sur les pratiques et de rationaliser une politique d'innovation. Pour autant, cet effet de circularité relève-t-il d'un processus collaboratif homogène formant un consensus ou d'une forme de négociation d'un compromis formant une cote mal taillée ? C'est tout l'enjeu de l'entrée dans la recherche par le prisme d'un terrain professionnel employeur du chercheur. Pour les chercheurs, l'accès aux terrains est facile et facilité. Face à l'étendue de ce terrain, le chercheur doit même parfois faire un travail important et rigoureux de sélection des données et de concentration sur son objet de recherche : « nous avons alors accès au cosmos, mais ne devons pas perdre de vue que nous sommes là pour étudier une étoile2 ». Dès lors, la difficulté rencontrée se situe dans la définition du périmètre scientifique et spatiale de l'étude. Au sein de ce périmètre, le doctorant se sent parfois étranger : « le terrain est forcément un ailleurs parce qu'il nous met, plus que toute autre situation de recherche, dans la peau du chercheur et qu'il établit de fait une distance entre le chercheur et l'objet de recherche (). En même temps on ne se sent jamais plus étranger qu'à ce moment-là, car à notre identité se superpose celle du chercheur, face à un objet d'étude différent, autre par nature » (Bosredon, 2008, p.44). Le parcours doctoral ne permet pas seulement une accessibilité au terrain de recherche, il est aussi vecteur d'intégration au sein de communautés scientifiques et professionnelles. Concernant les espaces scientifiques, les séminaires, les congrès de recherches, les journées d'étude sont autant d'occasions de rencontres avec d'autres chercheurs, de différentes disciplines. L'intégration à une entreprise publique ou privée est également un vecteur d'intégration professionnelle pour le doctorant. En s'immergeant dans un monde de l'intervention, il se confronte à un ensemble de professionnels et évite ainsi l'isolement que l'université peut créer chez certains étudiants en thèse. Ces rencontres permettent quelques fois de mettre en place d'autres projets de recherche en parallèle de la thèse. Un doctorat peut également aboutir à des actions directes dans les institutions d'accueil. 2 Lydie Gibey lors de son intervention au forum international du travail social le 2 février 2017 2 L'ambition portée par la collaboration autour du doctorat est de pouvoir contribuer à produire des connaissances scientifiques tout en étant dans une recherche d'utilité pour le travail social (ses acteurs et ses usagers). Mener à bien ce double objectif représente un défi de taille pour les doctorants réalisant une thèse touchant au travail social. 2. La rencontre de deux univers professionnels : le défi d'une thèse scientifique touchant au travail social professionnel La recherche et le travail social ont un intérêt mutuel à mettre en place des thèses appliquées. Néanmoins, poussées à leur terme, ces motivations peuvent entrer en opposition, et ce pour plusieurs raisons. Tout d'abord, l'urgence est le quotidien de nombre de dispositifs sociaux. La rapidité à laquelle sont apportés le soutien et l'accompagnement social devient alors un enjeu d'importance pour les acteurs de l'insertion. A contrario, la recherche s'inscrit dans un temps long. La production de connaissances scientifiques n'est pas instantanée et c'est de ce fait qu'elle ne peut pas s'inscrire dans l'urgence. Les commandes de l'employeur s'inscrivent donc dans une temporalité d'immédiateté à laquelle la recherche ne peut pas répondre. Cette divergence de temporalité peut représenter une première source de contradiction entre les deux démarches. De plus, l'objectivation est au coeur de la démarche scientifique, ce qui nécessite de prendre en considération l'ensemble des faits observés et de les assembler entre eux en respectant une méthode d'analyse objectivante. Or, si certains des faits mis en avant ne s'inscrivent pas dans la politique de communication de l'employeur, une autre source de tension apparaît. D'un côté, le dispositif employeur peut craindre que les données présentées nuisent à son image, à la stratégie de communication mise en place et in fine à la capacité d'action de sa structure. Il est en effet fondamental pour une association de faire preuve de son utilité sociale (Hély, 2009), afin qu'elle puisse pérenniser son action. Dans ce cadre, la maitrise de sa politique de communication est donc centrale. De l'autre, le doctorant-salarié ne peut pas faire l'impasse sur les faits observés sans perdre de vue sa recherche d'objectivation et par voie de conséquence la scientificité de sa démarche. De fait, les rationalités (enjeux, moyens, et finalités) de la recherche et du travail social peuvent s'orienter dans des sens antagonistes. Notamment, à partir du moment où l'action du dispositif employeur prend le pas sur la liberté d'analyse du chercheur, et/ou que le savoir produit par le doctorant-salarié ne s'articule pas avec la stratégie de communication développée par le dispositif d'accueil du contrat salarial. En conséquence, nous constatons que la recherche et le travail social constituent deux univers fortement éloignés l'un de l'autre. Cette divergence de rationalité professionnelle peut générer un problème épistémologique pour les doctorants cherchant à unifier ces deux optiques. Effectivement, dans le contexte d'une embauche au sein d'un dispositif d'action sociale, le chercheur se doit de produire un « savoir utile » pour l'employeur. De facto, il devra concilier l'élaboration d'une pensée scientifique avec une fonction concrète dans l'organisation employeuse. « Tenir le cap épistémologique » - alliant ses nécessités académiques et ses obligations professionnelles - devient alors un défi fondamental, par lequel il devra possiblement effectuer des réajustements méthodologiques et théoriques d'importances (Dulaurans, 2012 ; Foli, Dulaurans, 2013 ; Brabant, 2013/1). Cette problématique épistémologique peut prendre d'autant plus d'ampleur lorsque l'employeur n'est pas dans l'optique d'intégrer une « recherche scientifique » au coeur de son action, mais davantage de développer une « recherche-vitrine » de son action. Du point de vue de l'employeur, l'enjeu sera alors moins de s'inscrire dans une démarche scientifique, que de mettre en avant des éléments donnant du crédit à l'image qu'il souhaite véhiculer du dispositif dont il est le 3 gestionnaire. En ceci, nous retrouvons clairement la démarche de publicisation et de recherche d'un public acclamatif que Jean-Louis Laville et Anne Salmon (2015) mettent en avant, en s'inspirant des analyses d'Harbermas. De fait, la finalité recherchée par certaines associations n'est pas de développer la raison et l'esprit critique du public, mais d'opter pour un « discours publicitaire » destiné à orienter la pensée de ce dernier dans un sens positif pour l'association. Dans ce type de contexte précis, la recherche risque donc de s'enchaîner aux seuls enjeux marketings et politiques. C'est dans cette optique que, par effet boomerang, le problème épistémologique peut également se poser vis-à-vis du milieu académique : comment faire preuve de suffisamment d'intégration professionnelle sans s'isoler académiquement ? Quelle est la frontière à partir de laquelle la volonté de produire un « savoir utile » pour l'employeur devient une menace pour la découverte de nouvelles connaissances viables scientifiquement ? Le doctorant intégré à un dispositif d'action sociale doit donc réaliser un « grand écart » entre deux univers - dont les enjeux, moyens, et finalités peuvent entrer en contradiction. Allier une démarche respectueuse de la dualité épistémologique à laquelle il s'expose prend alors la forme d'un véritable défi. Dès lors, dépasser cet obstacle revient à incarner un lien solide entre deux constellations professionnelles aux rationalités potentiellement divergentes. Pour ce faire, le doctorant doit personnifier diverses identités et les négocier dans le sens de l'enrichissement heuristique et pratique. 3. Dynamiques de négociation dans l'exercice du doctorat : L'exercice d'une thèse touchant au travail social consiste finalement à une rencontre entre des mondes sociaux aux histoires et cultures différentes. Comme nous l'avons vu, des défis épistémologiques naissent dans ce type de configuration de recherche. Au-delà de l'exercice de la thèse en tant que tel, il semble intéressant de regarder ce qu'il se passe en termes d'identité. Quelle identité institutionnelle porte-t-on lorsque l'on fait une thèse touchant au travail social ? Pour chacun des doctorants auteurs de cet article, expliquer la partie institutionnelle de la thèse peut représenter un travail de synthèse en tant que tel. En effet, la liste peut être longue et complexe : un rattachement à un laboratoire universitaire et à une école doctorale ; un contrat de travail avec un employeur public ou privé ; un rattachement à une école de formation en travail social pour certains ; s'ajoute à cela la participation à des séminaires ou autres espaces de réflexion ; voire pour certains des charges d'enseignement auprès d'autres universités ou écoles de formation en travail social. Cette complexité institutionnelle que représente un doctorat touchant à l'action sociale amène évidemment à une complexité identitaire du chercheur, qui est à la fois doctorant, salarié d'une organisation sociale (donc considéré comme un travailleur social, sans être forcément reconnu comme tel par les équipes d'intervention), voire, pour certains, formateur ou chargé de cours à l'université. Le doctorant est, dans l'exercice de sa thèse, à l'articulation de tous ces mondes sociaux. Il porte par conséquent une multiplicité d'identités. Sur ce point, l'approche proposée par Claude Dubar est éclairante. Il suppose que l'individu appartient à des collectifs multiples, variables et éphémères avec lesquels il adhère de manière plus ou moins importante (Dubar, 2000). Le fait de se définir comme travailleur social, chercheur ou autrement dépendra souvent des lieux où le doctorant doit se présenter. Selon les lieux et la culture du doctorant, un sentiment d'éloignement pourra se faire ressentir, les profils plus universitaires se sentant éloignés du langage et des usages du travail social, les profils travail social se sentant également à une certaine distance des sphères scientifique et de leurs moeurs. Un sentiment d'extériorité peut naître de cette confrontation entre deux mondes. Cette 4 perception tient à des écarts de pratiques, mais également à une distance idéologique. Les codes de langage et les habitudes vont être différents, tout comme les visions politiques de la recherche, comme nous l'avons vu au cours de cet article. En somme, lors de la rencontre entre travail social et recherche, c'est une philosophie de l'action qui se confronte à une idéologie du savoir. Faire un travail de thèse touchant au travail social consiste donc à jongler entre ces modes opératoires, afin de négocier une place à la croisée de ces mondes sociaux. En effet, il s'agit dans l'exercice du doctorat de faire coexister ses systèmes. Nous l'avons vu, la confrontation entre ces univers amène à un ensemble de difficultés d'ordre épistémologique, notamment une discordance des temporalités et des rationalités. La collaboration peut alors être vécue comme un défi. Cependant, le doctorant étant dans une posture où il est le porteur principal du projet de recherche, il est en quelque sorte responsable de sa réussite. Dès lors, réaliser une thèse touchant au travail social revient à faire aboutir individuellement une collaboration entre ces mondes. Afin de rendre la collaboration effective, le doctorant va aménager sa posture professionnelle pour tenter de concilier les préoccupations et les attentes de chacun. La réussite de cette phase de négociation matérialisant une dynamique d'acculturation aboutie entre des univers aux aspirations divergentes sur certains aspects. Au-delà des défis propres à l'exercice de l'enquête, les places tenues par le chercheur dans ses organisations de rattachement entrainent un ensemble de négociations et de recompositions identitaires. Nous avançons que ces mécanismes de négociation permettent, in fine, une stabilisation des relations de collaboration et l'émergence d'un système de régulation. Cette analyse est directement inspirée des approches sociologiques de la négociation mobilisées en sociologie du travail et des organisations. Le sociologue américain Anselm Strauss a particulièrement théorisé ce concept. Il définit la négociation comme un processus attaché aux expériences communes et aux organisations sociales, permettant que les relations soient préservées et qu'un ordre local soit stabilisé (Strauss, 1978). Ces jeux de négociation faciliteront ainsi l'enquête, mais pourront conduire les doctorants à éprouver un trouble identitaire. D'autant plus qu'il peut être perçu comme illégitime à la fois au sein des sphères académiques et parmi le travail social. Cependant, après un travail de socialisation et d'acculturation mutuelle, les effets des uns sur les autres se font ressentir. De ce partage, une meilleure connaissance entre les deux mondes s'opère. Ainsi, l'utilité pour le travail social et les intérêts scientifiques peuvent être - le temps de cette collaboration négociés par les parties pour aboutir à un consensus, un accord implicite et tacite entre les acteurs. Cet accord matérialise alors une meilleure connaissance partagée entre ces deux univers. Il s'agit entre autres de dépasser l'assignation qui peut nous être faite d'apporter des solutions immédiates, tout en s'accordant sur la réalisation et l'aboutissement d'un projet de long-terme, dont la finalité est la production d'un savoir scientifique appliqué. Au-delà des intérêts heuristiques que cette démarche représente pour le monde de la recherche, il s'agit donc également d'enrichir le travail social de modalités d'actions concrètes et utiles. Dès lors le doctorant participe à une production de savoirs scientifiques, tout en contribuant à la pensée de l'action du travail social. 5 Conclusion : Le point commun à l'ensemble de nos points de vue tient à ce que nous nous orientons dans une vision en accord avec la sociologie pragmatique de la critique développée par Boltanski [Laville, 2015]. En effet, nous nous inscrivons pleinement dans le cadre d'une démarche de type critique réformiste [Boltanski, 2015] du travail social, par laquelle la finalité de nos analyses scientifiques consiste à dépasser la réalité observée en proposant des modes d'action concrets (Genard, 2015). Comme nous l'avons vu, ce type de démarche partenariale se fonde sur des enjeux complémentaires pour le travail social et la recherche. Néanmoins, la mise en commun de ces deux univers professionnels peut confronter le doctorant à un ensemble de difficultés : des temporalités d'action et des rationalités professionnelles divergentes, ainsi qu'un dilemme épistémologique. Il ressort de nos différents récits d'expérience que favoriser une dynamique de négociation permet aux doctorants de faire face à ces différents défis, en favorisant l'évolution des postures professionnelles et idéologiques des chercheurs et des travailleurs sociaux. Par la négociation, le doctorant devient alors l'interprète permettant d'établir un lien solide entre ces deux mondes. En ceci, il s'agit d'un outil nécessaire à la réalisation des doctorats touchant au travail social, et à la convergence réussie de la recherche et du travail social. 6 Bibliographie : Boltanski L., (2015), « Situation de la critique », dans Frère B. (sous la direction de), Le tournant de la théorie critique. Paris, Edition Desclée de Brouwer. Bosredon P., (2008), « Choix et contraintes des terrains en sciences sociales », synthèse collective ESO, n° 27, mars, p. 41-53 Brabant J., (2013), « Peut-on faire de la recherche au sein d'une ONG ? », Genèses, n°90, p. 42-61. Dubar C., (2000), La crise des identités, L'interprétation d'une mutation, Paris, PUF. Dulaurans M., (2012), « Une recherche dans l'action : le cas d'une CIFRE en collectivité territoriale », Communication et organisation n°41, p. 195-210. Foli O., Dulaurans M., (2013), « Tenir le cap épistémologique en thèse CIFRE. Ajustements nécessaires et connaissances produites en contexte », Etudes de communication, n°40, p.5976. Genard J-L., (2015) « Sociologie critique, sociologie morale », dans, Frère B. (sous la direction de), Le tournant de la théorie critique. Paris, Edition Desclée de Brouwer. Hély M., (2009), Les métamorphoses du monde associatif, Paris, Edition PUF. Laville J-L., « Postface, La théorie critique : de l'impasse au renouveau », dans Frère B. (sous la direction de), Le tournant de la théorie critique. Paris, Edition Desclée de Brouwer. Laville J-L., Salmon A., « En guise de conclusion. Projet de démocratie limitée, théorie critique et pratiques associatives ». dans, Frère B. (sous la direction de), Le tournant de la théorie critique. Paris, Edition Desclée de Brouwer. Strauss A., (1978), Negotiations. Varieties, Contexts, Processes and Social Order, San Francisco, Jossey-Bass. Les auteurs : Aurélien Carotenuto-Garot est doctorant-chercheur en sociologie, au sein de l'Université Paris 8 Vincennes Saint-Denis. Par ce biais il est affilié au laboratoire Cresppa-GTM (UMRCNRS 7217). Dans le cadre d'un contrat CIFRE il est embauché par le SIAO 95 – piloté par l'association ESPERER 95 – depuis le 1er février 2015. Léo Farcy-Callon est doctorant en sociologie à l'Université Rennes 2, membre du laboratoire Espaces et sociétés (ESO-Rennes/UMR-CNRS 6590) et chercheur à l'ESPASS-IREIS. Il a été salarié de l'association Sauvegarde de l'enfance et de l'adolescence de la Drôme (Adsea 26) pendant trois ans dans le cadre d'un financement CIFRE. Lydie Gibey est directrice d'une Maison d'accueil spécialisée, à l'oeuvre Falret, et doctorante en travail social à l'IRTS Parmentier et l'ISCTE de Lisbonne. Après une carrière de psychologue clinicienne, elle suit la formation CAFDES et dirige des établissements sociaux et médico-sociaux. Wajdi Limam est enseignant-chercheur à la Faculté libre d'études politiques et en économie solidaire (FLEPES), il est doctorant en sociologie à l'Université Paris 8 Vincennes SaintDenis, au Cresppa-Gtm. Il est en contrat CIFRE auprès de la Direction de l'Action Sociale de l'Enfance et de la Santé (DASES) de Paris. 7
{'path': '59/halshs.archives-ouvertes.fr-halshs-02980435-document.txt'}
Les supra-commandements comme solution à la crise militaire du IIIe siècle de l'Empire romain sous Philippe l'Arabe et Gallien Hermann Amon To cite this version: Hermann Amon. Les supra-commandements comme solution à la crise militaire du IIIe siècle de l'Empire romain sous Philippe l'Arabe et Gallien. Archimède : archéologie et histoire ancienne, UMR7044 - Archimède, 2016, pp.206-217. hal-01587268 HAL Id: hal-01587268 https://hal.archives-ouvertes.fr/hal-01587268 Submitted on 13 Sep 2017 Archimède N°3 archéologie et histoire ancienne Automne 2016 DOSSIER THÉMATIQUE : Des fossés et des remparts. Enceintes et sites fortifiés du Rhin supérieur entre Protohistoire et Moyen Âge 2 Olivier Buchsenschutz Avant-propos. Des enceintes en terre anhistoriques à Google Earth 8 Lizzie Scholtus Histoire de la recherche dans le bassin de Saint-Dié-des-Vosges 20 Maxime Walter Les sites de hauteur du massif vosgien. Actualisation des données et modalités d'implantation 37 Jean-Jacques Schwien Chateaux et enceintes des Vosges du Nord. Topographie et longue durée 49 Anne-Marie Adam La palissade dans tous ses états : l'enclos du Britzgyberg (Illfurth, Haut-Rhin) et autres aménagements palissadés dans les habitats du premier âge du Fer 60 Clément Féliu L'enceinte inférieure du Frankenbourg (67) et les remparts à poteaux frontaux de la fin de l'âge du Fer dans l'espace du Rhin supérieur. Pour une révision de la typologie des Pfostenschlitzmauern 74 Jacky Koch et Thomas Fischbach Enceintes de hauteur en pierres et formes « primitives » de châteaux ? L'exemple du Bernstein 87 Adrien Vuillemin Les enceintes urbaines en moyenne Alsace (1200-1850) 102 Jean-François Piningre Les enceintes de l'âge du Bronze et du premier âge du Fer en Franche-Comté. Un bilan des recherches 124 Clément Féliu et Jean-Jacques Schwien Conclusion. Nouvelles perspectives sur les enceintes du Rhin supérieur Actualité de la recherche : Archéologie des réseaux 127 Claire Camberlein Les réseaux en archéologie : approche historiographique et interdisciplinaire 135 Thomas Hutin Lieux d'échanges et espaces publics en Gaule à La Tène finale 150 Steeve Gentner Économie du fer et voies de communication, de l'abattage du minerai à la distribution du métal : l'exemple du nord de la Forêt-Noire au Ve siècle av. J.-C. 169 Loup Bernard et Rémy Wassong Du Danemark au Fossé rhénan. Un siècle d'analyse des voies de communications protohistoriques : évolution des méthodes et mise en commun des données 184 Steeve Gentner et Rémy Wassong Conclusion. L'archéologie des réseaux : une thématique aux multiples facettes VARIA 187 Fábio VERGARA CERQUEIRA To march in phalanx, to jump with weights, to tread the grapes, to knead the bread. What is the aulos for? 206 Hermann Amon Les supra-commandements comme solution à la crise militaire du IIIe siècle de l'Empire romain sous Philippe l'Arabe et Gallien 218 Martina Bono Il processo di Cremuzio Cordo in Dio LVII, 24, 2-4 La CHRONIQUE D'Archimède 228 Frédéric Colin (éd.) La Chronique d'Archimède. Bilan des activités scientifiques 2015-2016 de l'unité mixte de recherche 7044 Retrouvez tous les articles de la revue Archimède sur http://archimede.unistra.fr/revue-archimede/ , REVUE RCHIMeDE Archéologie et histoire ancienne Les supra-commandements comme solution à la crise militaire du IIIe siècle de l'Empire romain sous Philippe l'Arabe et Gallien Hermann AMON Chercheur Associé au Réseau pour l'Étude de l'Antiquité tardive Université d'Ottawa hamon@uottawa.ca Résumé Au iiie siècle, l'intensification et la simultanéité des attaques germaniques et perses aux frontières de l'Empire romain conduit certains empereurs à mettre During the third century, intensification and simultaneity en place des supra-commandements dans le cadre de of germanic and persian attacks at the Roman Empire's leur stratégie de lutte contre les invasions. Ces supra- borders pushed some emperors to put in place supra- commandements étaient des structures de coordination provincial commands as part of their strategy against placées à la tête de plusieurs provinces dont la direction invasions. était confiée à un seul individu. Ils avaient pour objectif coordination structures with jurisdiction over many de faciliter une mutualisation des efforts militaires au provinces, and were led by a single individual. Their sein des principales régions menacées d'attaques. objective was to concert military efforts within main L'objectif de cet article est d'analyser leur impact dans areas subject to possible attacks. This paper examines le refoulement des invasions et the impact of these structures on repelling invasions and la réduction des coups d'État reducing political coups under sous les règnes de Philippe the reigns of Philip the Arab and l'Arabe et Gallien. Les supra- Gallienus. The supra-provincial commandements de Priscus, de commands of Priscus, Valerian Valérien le Jeune et d'Odenath the Mots-clés Supra-commandement, crise du IIIe siècle, invasions, coup d'État. These Younger supra-provincial and commands were Odenath Keywords de Palmyre serviront de cadre of Palmyra will be used as de référence. references. Supra-provincial commands, third century crisis, invasions, political coup. Article accepté après évaluation par deux experts selon le principe du double anonymat 206 Archimède Archéologie et histoire ancienne N°3. Automne 2016 - Varia - p. 206 à 217 Introduction la nature de ceux détenus par Pline le Jeune en Bithynie, Avidius Cassius et Iulius Priscus en Orient. La nou- L 'urgente nécessité d'assurer une coordination locale veauté de notre présente analyse se situe dans la mise des efforts de protection des régions menacées d'atta- en perspective des supra-commandements avec la crise ques par les ennemis extérieurs de l'empire, conduit cer- militaire aux frontières de l'empire au iiie siècle. L'objectif tains empereurs à mettre en place à partir de 235 des essentiel de cet article est d'évaluer leur impact dans la supra-commandements. Il faut entendre par supra-com- résolution de cette crise militaire et politique sous les mandements, des structures de coordination placées à la règnes de Philippe l'Arabe et Gallien et ce, à travers deux tête de plusieurs provinces dont la direction était confiée indicateurs que sont la diminution des invasions et la à un seul individu. Leur spécificité se situe non seulement réduction des Coups d'État. Les supra-commandements dans l'unique autorité de supervision sur les gouverneurs de Priscus, de Valérien le Jeune et d'Odenath serviront de provinces accordée à son détenteur mais également de cadre de référence à cet effet. Nous présenterons, dans leur fonction essentiellement militaire. En outre, ils pour chacun d'eux, le contexte de leur mise en place, résolvaient le dilemme qui se posait à certains empe- dans la mesure du possible leur contenu administratif ou reurs du politique et leur impact sur la diminution des attaques e iii siècle, qui était celui de leur nécessaire mais impossible présence sur plusieurs foyers de tension. aux frontières et des coups d'État. Cette réflexion sur les supra-commandements est pertinente à plus d'un titre puisqu'elle améliore notre connaissance des structures administratives qui résultèrent des assauts germaniques et perses aux frontières de l'empire au IIIe Philippe l'Arabe et le supra-commandement oriental siècle. Ils ont d'ailleurs fait l'objet de plusieurs articles qui se sont le plus souvent intéressés Philippe l'Arabe fut le premier empereur du IIIe siècle aux personnages qui les ont exercés et aux pouvoirs à mettre en place des supra-commandements. En effet, qu'ils détenaient. Il faut mentionner à cet égard l'arti- il prit le pouvoir en mars 244 à l'issue d'un coup d'État cle de Ronald Syme qui décrit les pouvoirs accordés à mené contre le jeune empereur Gordien III [6]. Après Avidius Cassius, commandant des provinces orientales son acclamation par les soldats, il négocia un accord sous le règne de Marc Aurèle [1]. Les articles de Simon de paix dans en vue de mettre fin à la guerre en cours Swain [2] et de David Potter [3] discutent quant à eux le avec les Perses [7]. Ce compromis politique, qui consti- contenu véritable des pouvoirs d'Odenath sur la base de tue l'épilogue du second conflit entre Romains et Perses, deux inscriptions honorifiques trouvées à Palmyre [4]. La comprenait le versement d'un tribut à ces derniers, en contribution de Frederik Vervaet [5] va plus loin que les contrepartie d'un retour sur le plan territorial aux fron- trois précédentes. Elle part d'une présentation générale tières de 238 [8]. Ainsi, les provinces d'Osrhoène et de des supra-commandements dans l'empire pour analyser Mésopotamie reconquises sous le commandement de [1] Syme 1984-1985, p. 217-222. [2] Swain 1993, p. 157-164. [3] Potter 1996, p. 271-285. [4] CIS II 3946 ; CIS II 3971. [5] Vervaet 2007, p. 125-140. 207 [6] Loriot 1975b, p. 789. [7] Zosime, I, 19, 1 ; Sapor dans ses Res Gestae Divi Saporis (RGDS) indique qu'il s'agissait d'un tribut annuel de 500 000 aurei. Il prétend même que Philippe devint dès lors son «tributaire», RGDS, I, 9. Voir également Pekàry 1961, p. 277-278. Les supra-commandements comme solution à la crise militaire du IIIe siècle de l'Empire romain sous Philippe l'Arabe et Gallien Timésithée furent préservées [9]. Dans le même temps, Les deux personnages en question sont Caius Iulius les Romains devaient renoncer au soutien diplomatique et Priscus et Sévérien [17]. Caius Iulius Priscus était le frère militaire qu'ils apportaient au royaume de Grande Armé- aîné de l'empereur Philippe [18]. Nous savons qu'il était nie. Ils laissaient ainsi le champ libre aux Perses contre membre de l'ordre équestre. L'ascension de Timésithée, Chosroês le Grand [10]. Il faut souligner que cette der- sous le règne de Gordien III, lui permit d'accéder aux nière clause n'aurait pas été incluse dans l'accord offi- hautes fonctions de la carrière équestre [19]. Il occupa la ciel. D'ailleurs Sapor dans ses Res Gestae fait état de la préfecture du prétoire à deux reprises ; d'abord comme volte-face de Philippe au sujet de l'Arménie [11]. S'ap- collègue de Timésithée entre 242 et 243 [20] sous le puyant certainement sur ce commentaire du souverain règne de Gordien III et durant les dernières années de perse, Zonaras indique que Philippe après s'être engagé règne de Philippe [21]. Après la prise de pouvoir de Phi- à céder l'Arménie et la Mésopotamie aux Iraniens, les lippe en mars 244, il reçut une large autorité sur les pro- aurait reconquises face à la pression de l'opinion publique vinces orientales. Quel type d'autorité exerçait Priscus romaine [12]. Cette version des faits n'est pas rapportée sur le supra-commandement oriental ? pas d'autres sources et nous n'avons aucune trace d'un Selon l es documents d'archive (cf. infra) : archives retour à l'état de guerre entre les deux parties. Il est provenant du Moyen Euphrate, Priscus était, au mois probable que ce commentaire de Sapor soit l'expression d'août 245, préfet de Mésopotamie tout en exerçant de son exaspération face à la lenteur du désengagement le « gouvernement consulaire » de la Syrie [22]. Une romain d'Arménie, lourd de conséquence pour l'équilibre dédicace latine de Timgad datant de 247-249 vient des forces dans la région [13]. compléter ses titres en mentionnant celui de Rector En tout état de cause, cet accord de paix fut célébré Orientis [23]. avec faste par les deux parties, Sapor se considérant Nous serions en présence d'une véritable entorse comme le tributaire de Philippe [14] et Philippe revê- à la pratique administrative si Priscus assurait le tant sans complexe les titres de PARTHICVS MAXIMVS et commandement direct des deux provinces. En effet, de PERSICVS MAXIMVS [15]. Cette revendication de la demeuré membre de l'ordre équestre, ce dernier ne pouvait victoire par les deux souverains confirmait sans l'ombre prétendre au commandement d'une province sénatoriale d'un doute la permanence de la tension aux frontières comme la Syrie - Coelé qui était administrativement des deux empires. C'est donc conscient de cette stabilité placée sous l'autorité d'un légat d'Auguste propréteur de précaire dans cette région hautement stratégique que rang consulaire [24]. En réalité, Priscus exerçait déjà le Philippe décida d'y créer un supra-commandement, qu'il commandement de la province équestre de Mésopotamie confia à son frère Priscus. C'est Zosime qui fait mention avant le 28 août 245 [25]. Philippe lui confia la direction de sa mise en place : de cette province stratégique après sa reconquête à « Il jugea nécessaire de confier les commandements les l'issue du conflit avec les Perses [26]. En plus de la plus élevés à ceux qui lui étaient les plus proches, mit Mésopotamie, il reçut le commandement intérimaire de son frère Priscus à la tête des légions de Syrie et confia à la province consulaire de Syrie-Coelé de la période allant son beau-frère Sévérien les forces stationnées en Mésie de décembre 244 à août 245 [27]. L'intérim de Pris- et en Macédoine » [16]. cus est confirmé par les mêmes documents d'archives [8] Loriot 1975a, p. 774. [9] La direction de la province de Mésopotamie fut plus tard confiée à Priscus. [10] Christol 2006, p. 100 ; Chaumont 1969, p. 41-46. [11] Maricq 1958, p. 308. [12] Zonaras, XII, 19. [13] Chaumont 1969, p. 44-47. [14] Maricq 1958, p. 308. [15] CIL III 4634 ; CIL III 10619 ; ILS 597. [16] Zosime, I, 19, 2. [17] Nous savons peu de choses sur Sévérien. Il serait le frère de Marcia Octacilia Severa, l'épouse de Philippe. Issu de la célèbre gens Otacilia, il aurait probablement gravi les échelons de la carrière sénatoriale avant d'obtenir le gouvernement de la province impériale de Mésie supérieure puis le second grand commandement qui couvrait les provinces danubiennes. Voir à ce propos Körner 2002, p. 63. [18] PIR2 IV 3, p. 254, n°488. CIL VI 1638 ; Körner 2002, p. 208 54-63 ; Pflaum 1960, p. 831-839 ; Feissel & Gascou 1995, p. 65-119 ; Howe 1942, p.106-111 ; Nasti 1993, p. 365-380 ; Nasti 1997, p. 281-290. [19] De Blois 1978-1979, p. 11-12. [20] Feissel & Gascou 1995, p. 81. [21] CIL III 14149 ; ILS 9005 ; Körner 2002, p. 55-57. [22] Feissel & Gascou 1995, p. 65-119 ; Körner 2002, p. 57. [23] Voir CIL III 14149 ; ILS 9005. C. Iul(io) Pr[i]sco, v{iro) em(inentissimo), fratr[i] et patru[o] d(ominorum) n[ostrorum) Philipporum Aug{ustorum) et praef{ecto) praet(orio) rectori(q]ue) Orientis, Trebonius Sossianus, p{rimi)p(ilaris), domo col(onia) Hel(iopoli), devotus numini majestati[q(ue)]eorum. [24] Lefebvre 2011, p. 114-115. [25] Feissel & Gascou 1995 p. 81. [26] Trout 1989, p. 228-229. [27] Feissel & Gascou 1995, p. 81. Priscus occupa le commandement intérimaire depuis huit mois avant la date d'août 245 ; Benoist 2000, p. 322-323. Les supra-commandements comme solution à la crise militaire du IIIe siècle de l'Empire romain sous Philippe l'Arabe et Gallien (cf. infra) : archive du Moyen-Euphrate puisqu'on y fait était du domaine militaire dont les finances publiques. En mention d'un certain Marcellus de rang perfectissime d'autres termes, il avait un droit de regard sur le proces- qui exerçait le même gouvernement intérimaire de la sus de collecte des impôts dans la région. En effet, selon province de Syrie-Coelé [28]. Ce dernier aurait occupé Zosime, Priscus se montra très rigide dans le recouvre- cette fonction intérimaire après le départ de Priscus, ment des impôts auprès des provinciaux [36]. Les finan- c'est-à-dire à partir d'août 245 [29]. Pendant cette ces publiques étaient en piteux état tout au long du règne période, Priscus combinait le commandement direct des de Philippe à cause notamment du tribut versé aux Perses deux provinces (la province équestre de Mésopotamie à l'issue du conflit oriental et des festivités organisées à et la province sénatoriale de Syrie) [30]. C'est proba- l'occasion du millénaire de Rome [37]. La crise militaire blement après cet intérim en Syrie qu'il fut honoré par aux frontières exigeait une mobilisation permanente de Philippe du titre de Rector Orientis. Ce titre consacrait ressources financières pour y faire face. L'inflexibilité fis- son supra-commandement oriental et lui conférait une cale de Priscus s'inscrivait donc dans cette recherche de autorité de supervision sur l'ensemble des provinces ressources financières additionnelles. Il est probable qu'il orientales en plus de son commandement direct sur la ait demandé aux gouverneurs de provinces de la région Mésopotamie [31]. Christian Körner suggère que ce titre d'user de techniques identiques à celles de Maximin le de Rector Orientis accordait à Priscus un commandement Thrace en Afrique proconsulaire [38]. Par voie de consé- direct sur l'ensemble des provinces orientales [32]. quence, il se serait donc mis à dos les dignitaires locaux Nous ne sommes pas de cet avis puisqu'aucune qui exprimèrent leur désaccord en soutenant Jotapien. évidence littéraire ou épigraphique ne permet de La création des supra-commandements s'inscrit dans la soutenir cette assertion. Nous pensons en revanche perspective de faciliter une coordination locale des opéra- que ce titre n'avait probablement pas de contenu tions militaires. En conséquence, Priscus avait principale- spécifique en matière de droit public mais sur le plan ment autorité pour définir et mettre en oeuvre la politique politique et sur la coordination des activités militaires, il de sécurisation de la frontière orientale [39]. octroyait à son détenteur une préséance sur les autres Analysons maintenant l'impact de ce supra-comman- gouverneurs de provinces. Celui-ci était l'homme de dement oriental sur les coups d'État et sur les atta- confiance de l'empereur dans la région et comme tel ques à la frontière sous le règne de Philippe. En ce qui avait une autorité de supervision sur l'ensemble des concerne les coups d'État, il faut souligner que la pres- forces militaires positionnées en Orient [33]. Le supra- sion fiscale exercée par Priscus fut à l'origine du coup commandement d'État de Jotapien [40]. de Priscus couvrait certainement les Syrie, la Mésopotamie, l'Osroène, la Palestine et « La situation était très troublée dans ce même temps : l'Arabie [34]. Quelles étaient les responsabilités de Pris- l'Orient, accablé par les levées des impôts et par le fait cus dans le cadre de son supra-commandement ? que Priscus qui avait la charge de gouverner les provin- On dispose malheureusement de peu d'informations sur ces dans cette région était insupportable à chacun, et le détail des attributions de Priscus. Nous savons grâce enclin par conséquent à fomenter des troubles, éleva au aux documents d'archives mentionnés plus haut qu'il pouvoir suprême Jotapien » [41]. administrait la justice à Antioche [35]. Il s'agit cepen- La population civile et les dignitaires locaux, excédés dant d'une attribution liée à son intérim de gouverneur par la brutalité de la collecte des impôts, se rebellèrent de Syrie-Coelé. Ses responsabilités sur le supra-com- contre l'autorité de Priscus et proclamèrent un certain mandement oriental couvraient assurément tout ce qui Jotapien comme empereur [42]. La région précise où [28] Feissel & Gascou 1995, p. 88. [29] Ibid., p. 92-93. [30] Eck 1992, p. 201 ; Badel & Beranger 1998, p. 190. [31] Vervaet 2007, p. 136-137 ; Christol 2006, p. 104 ; Benoist 2000, p. 322-323. [32] Körner 2002, p. 59. [33] Millar 1993, p. 156. [34] Potter 2004, p. 239. [35] Feissel & Gascou 1995, p. 72. [36] Zosime, I, 20, 2. [37] Potter 1990, p. 246 ; Pekáry 1961, p. 279. [38] Loriot 1975a, p. 681. 209 [39] Un pouvoir comparable sur l'Orient tout entier est prêté par Zosime, I, 60, 1, à Marcellinus, qui fut sous l'empereur Aurélien, en 272, à la fois préfet de Mésopotamie et gouverneur de l'Orient. [40] Ce coup d'État pourrait s'être déroulé en Cappadoce ou en Syrie. Voir à ce propos : Aurelius Victor, Liber de Caesaribus, XXIX, 2 ; Polemius Silvius Laterculus (Mommsen, Chronica minora, I, p. 521, l. 38 ; cf. Mommsen, Gesammelte Schriften, 7, p. 644); Zosime I, 20, 2 et I, 21, 2. Le coup d'État de Jotapien est aussi mentionné dans les Oracles Sibyllins, 13, 89-102. Voir, à ce propos, Potter 1990, p. 268273 ; Kettenhofen 1982, p. 84 ; Kienast 1990, p. 201. [41] Zosime, I, 20, 2. [42] Aurelius Victor, Liber de Caesaribus, XXIX, 2 ; Körner 2002, p. 280. Les supra-commandements comme solution à la crise militaire du IIIe siècle de l'Empire romain sous Philippe l'Arabe et Gallien se déroula cette proclamation ne nous est pas claire- tations évoquées plus haut, aurait garanti une certaine ment indiquée. Toutefois, il pourrait s'agir soit de la Syrie stabilité dans les provinces orientales sous la supervision soit de la Cappadoce. Probablement parti de Cappadoce de Priscus. entre la fin de 248 et le début de 249, ce coup d'État se En définitive, le bilan du supra-commandement de Pris- serait étendu à d'autres régions orientales dont la Syrie cus semble positif. Pour ce qui est des attaques aux fron- et la Mésopotamie [43]. Concernant l'auteur de ce mou- tières, on observe une pause dans les incursions perses. vement nous ne savons presque rien. Le témoignage Quant à la diminution des coups d'État, il est vrai que des auteurs anciens fournit très peu d'informations sur l'action de Priscus sur le plan fiscal fut à l'origine du coup le personnage. Zosime, qui mentionne ce coup d'État, d'État de Jotapien. Cependant, la rapide conclusion de ne fournit aucun renseignement sur l'identité de Jota- cette insurrection démontre l'efficacité d'une coordina- pien ou encore sur son statut social. Il indique seulement tion locale des actions militaires dans le but de faire face son nom. Dans une brève allusion, Aurelius Victor sou- à ce type de mouvement. Par ailleurs, au-delà de l'aspect ligne que Jotapien se faisait passer pour un descendant militaire, il faut souligner que l'action de Priscus contri- d'Alexandre le grand [44]. Se fondant sur cette affir- bua dans une certaine mesure à redynamiser le fonction- mation, Ronald Syme indique que le nom Iotapianus est nement administratif des provinces orientales profondé- semblable à ceux des reines Iotape I et II de la dynastie ment déstabilisées par les attaques répétées des voisins royale des Commagènes, reines qui prétendaient des- perses [49]. cendre d'Alexandre le Grand. Par conséquent, Iotapianus La crise militaire aux frontières de l'empire avec la multi- pourrait avoir appartenu à la famille royale de Comma- plication des fronts de combat rendait essentielle la mise gène [45]. Pour certains auteurs modernes, cette réfé- en place des supra-commandements. Après les règnes rence à Alexandre le Grand impliquerait également un de Trajan Dèce, Trébonien Galle et Émilien, c'est sous les rattachement à Sévère Alexandre [46]. En tout état de règnes de Valérien et de Gallien que vont réapparaître la cause, Jotapien était vraisemblablement un dignitaire structure des supra-commandements, particulièrement local qui bénéficiait de nombreux soutiens au sein de à travers la position de Valérien le Jeune dans l'Illyricum l'aristocratie orientale. Nous savons peu de choses sur et plus tard d'Odenath de Palmyre en Orient. l'issue de ce coup d'État. Seuls Zosime et Aurelius Victor fournissent quelques informations sur ce sujet. Selon Zosime, Jotapien aurait été battu sans grande difficulté. Il ne nous donne pas de détails sur les circonstances Gallien et la création du supra-commandement dans l'Illyricum et les auteurs de cette disparition. Aurelius Victor indique, quant à lui, qu'il fut assassiné par les soldats et sa tête apportée à Dèce [47]. L'absence de soutien mili- Après son coup d'État contre Émilien en septembre 253 [50], l'empereur Valérien décide d'associer son taire explique la rapide conclusion de son mouvement, fils Gallien au pouvoir. Ce choix stratégique de Valérien quelques mois après son déclenchement, grâce à une s'explique par son intime connaissance des enjeux poli- probable intervention de Priscus [48]. tiques et militaires de l'époque et sa reconnaissance de S'agissant des attaques aux frontières, les sources ne l'impossibilité pour un seul empereur de faire face aux font pas mention d'un regain de tension à la frontière attaques des ennemis extérieurs de l'empire [51]. Ainsi, orientale avec les Perses. L'accord de début de règne Gallien est d'abord élevé, en septembre 253, à la dignité entre Philippe et Sapor, malgré les différentes d'interpré- de Nobilissimus Caesar [52] par le Sénat, avant d'être [43] Körner 2002, p. 280 ; Potter 1990, p. 268-273. [44] Aurelius Victor, Liber de Caesaribus, XXIX, 2. [45] Syme 1971, p. 202 ; sur la dynastie des Commagènes, voir Sullivan 1977, p. 732-798 ; Potter 1990, p. 248. [46] Barbieri 1952, p. 405, 654 ; Hartmann 1982, p. 73 ; Potter 1990, p. 248 [47] Aurelius Victor, Liber de Caesaribus, XXIX, 2. [48] Körner 2002, p. 280. [49] Peachin 1991, p. 341. [50] Bray 1997, p. 41 ; Christol 1975, p. 808. [51] Valérien était issu de l'illustre famille sénatoriale des Licinii. Il aurait effectué une brillante carrière sénatoriale qui l'aurait amené à occuper plusieurs fonctions d'importance dont un consulat ordinaire en 238 et le gouvernement de 210 plusieurs provinces. Selon l'auteur de l'Histoire Auguste, il aurait même reçu les ambassades africaines qui venaient annoncer la proclamation de Gordien Ier. Plus tard, sous le règne de Dèce, il eut la responsabilité des affaires intérieures pendant l'expédition de l'empereur contre les Goths. Sous le bref règne de Trébonien Galle, il fut également envoyé en Rhétie dans le but de réorganiser les troupes aux frontières en prévision d'éventuelles campagnes militaires contre les germains dans les provinces danubiennes. SHA, Vita Gordianorum, 9, 7-8 ; Aurelius Victor, Liber de Caesaribus, XXXII, 2. [52] AE 1967, 584 ; Aurelius Victor, Liber de Caesaribus, XXXII, 3 ; Eutrope, IX, 6 ; Epitome de Caesaribus, XXXII, 2 ; Pflaum 1966-1967, p. 175-182 ; CIL VIII 10132 et CIL VIII 10141 ; Zaccaria, 1976, p. 343-361 ; Peachin 1988, p. 219-224. Les supra-commandements comme solution à la crise militaire du IIIe siècle de l'Empire romain sous Philippe l'Arabe et Gallien associé pleinement comme Auguste au début de 254 grand-père. Toutefois, il semble qu'à partir du début de pour créer un système avec deux empereurs [53]. Ils l'année 258, ses pouvoirs se soient accrus [63] puisque disposaient tous les deux des mêmes pouvoirs, par- son nom est mentionné aux côtés de ceux de son père et tageaient le Grand Pontificat et le titre de Père de la de son grand-père dans l'intitulé des constitutions impé- Patrie [54]. Toutefois, Valérien gardait une certaine riales [64]. Nous ne sommes pas en mesure de clarifier préséance sur son fils [55]. Sur le plan administratif, la véritable nature des pouvoirs détenus par Valérien deux secteurs d'action correspondant aux deux princi- le Jeune ou encore ses relations avec les gouverneurs paux foyers de tension étaient créés. Valérien s'occu- de province de l'Illyricum. À partir des milliaires décou- pait des provinces orientales et Gallien, des provinces verts [65], nous pouvons supposer qu'il supervisait les occidentales [56]. À côté de ce partage de responsabi- opérations militaires avec une armée unique à sa dis- lités entre les deux Augustes, Gallien décida d'effectuer position ainsi qu'un atelier monétaire particulier, celui un autre partage dans sa zone de responsabilité pour de Viminacium [66]. Il avait au sein de son état-major créer un supra-commandement dans l'Illyricum qu'il des généraux expérimentés tels qu'Ingenuus et Réga- confia à son fils aîné, Valérien II ou Valérien le Jeune. lien pour l'assister dans la coordination des opérations Ainsi, il éleva dans la seconde moitié de 256 au titre militaires sur le théâtre des opérations [67]. de César, Publius Licinius Cornelius Valerianus [57]. Quel fut l'impact de la création du supra-commande- Il était le fils de Gallien et de Cornelia Salonina [58]. ment dans l'Illyricum sur la diminution des coups d'État Dans quel contexte fut donc créé ce supra-commande- et l'arrêt des attaques germaniques dans cette région ? ment dans l'Illyricum ? En effet, l'Illyricum qui corres- Entre 258 et 259, la sécurité se détériora dans l'Il- pondait aux Pannonies, Mésies et à la Dalmatie faisait lyricum à l'occasion notamment de la mort de Valé- l'objet d'attaques répétées de Sarmates et de Carpes rien le Jeune [68] et des coups d'État d'Ingenuus et de depuis le règne de Philippe et Dèce [59]. Entre 254 et Régalien. Les circonstances réelles de la disparition de 255, Gallien y effectua une intense activité de redres- Valérien II nous sont inconnues. Il est probable, sur la sement qui permit de rétablir une certaine sécurité aux base du témoignage d'Aurelius Victor, qu'il ait perdu la frontières [60]. Ces succès militaires, qui furent l'objet vie au cours d'une opération militaire contre les ger- de la célébration de la cinquième victoire impériale des mains [69]. Par ailleurs, Pierre le Patrice fait état de Augustes [61], n'éloignaient pas pour autant les mena- la détérioration des rapports entre Ingenuus et Gallien ces d'attaques qui demeuraient persistantes. C'est donc du fait de la colère de l'impératrice Cornelia Salonina pour consolider les victoires de 255 remportées sur les qui rendait Ingenuus responsable de la mort de son germains que Gallien décida de créer en 256 un supra- fils [70]. Cette colère de Cornelia suggère l'hypothèse commandement qu'il confia à Valérien le Jeune. Cette que celui-là avait dans une certaine mesure failli à sa structure participait à la politique dynastique initiée par mission de protection du jeune César. Profitant du vide Valérien et qui se manifestait entre autres par la pré- politique laissé par cette disparition et prétextant de sence d'un membre de la famille impériale dans cha- la fermeture de l'atelier monétaire de Viminacium par que région sensible en vue d'assurer la coordination des Gallien, Ingenuus se fit acclamer empereur en 258 actions militaires sur le théâtre des opérations. L'instal- à Sirmium par les troupes basées en Pannonie infé- lation du jeune César en Illyricum doit se situer entre rieure [71]. Informé de cette situation, Gallien qui se août et septembre 256 [62]. trouvait en Gaule, alla affronter Ingenuus. Ce dernier Sur le plan protocolaire, Valérien le Jeune occupait une position subordonnée vis-à-vis de son père et de son [53] Christol 2006, p. 131. [54] Ibid., p. 132 ; CIL XVI 155 ; ILS 2010. [55] CIL XVI 155 ; ILS 2010 ; Christol 2006, p. 132 ; Bray 1997, p. 45. [56] Zosime, I, XXX, 1 ; Bray 1997, p. 45. [57] Peachin 1990, p. 38 ; Kienast 1990, p. 217-218 ; De Blois 1976, p. 24. [58] Zaccaria 1978, p. 59-155. [59] Demougeot 1969, p. 437-438. [60] Ibid., p. 439. [61] Christol 1997, p. 244-245 ; RIC V 1, 141; RIC IV 1, 17-19. [62] Christol 1997, p. 246. 211 fut défait au cours de la bataille décisive de Mursa, dans l'actuelle Croatie [72]. [63] Trois milliaires qui auraient été découverts dans la région de Vindobona attribuent le titre d'imperator à Valérien le Jeune. CIL III 4646, 4647, 4652. [64] CJ 5, 3, 5 = 9, 9, du 18 de mai 258. [65] Pflaum 1966, p. 538- 542 ; Id., 1966-1967 ; Christol 1975, p. 816. [66] Fitz 1966, p. 32-33. [67] Demougeot 1969, p. 444. [68] Aurelius Victor, Liber de Caesaribus, XXXIII, 2. [69] Aurelius Victor, Liber de Caesaribus, XXXIII, 2. [70] Pierre le Patrice, 192 ; Drinkwater 1987, p. 103. [71] Chastagnol, SHA, Triginta Tyranni, IX, 1. [72] Aurelius Victor, Liber de Caesaribus, XXXIII, 2. Les supra-commandements comme solution à la crise militaire du IIIe siècle de l'Empire romain sous Philippe l'Arabe et Gallien Après le départ de Gallien de la région, un autre coup politique dynastique. Toutefois, la jeunesse et l'inexpé- d'État fut déclenché par Régalien [73]. Cette insurrec- rience de Valérien le Jeune ne permit pas de contenir tion serait à situer entre l'été et l'automne 259, précisé- les ambitions de puissants et expérimentés généraux ment entre juillet et décembre 259 [74]. Selon l'auteur tels qu'Ingenuus et Régalien. Ces deux coups d'État de l'Histoire Auguste, certains soldats, mécontents du renforcèrent la profonde instabilité de cette région. Les rétablissement militaire effectué ar Gallien à l'issue de sa troupes romaines ne purent efficacement faire face aux victoire sur Ingenuus, se seraient ralliés à Régalien pour assauts répétés des Alamans, Sarmates et Roxolans, initier cette insurrection. qui avaient intensifié leurs attaques dans cette région « C'est ainsi que Regilianus qui exerçait un comman- en 257 [80]. dement militaire en Illyricum fut proclamé empereur ; il dut son élection aux Mésiens qui avaient été précédemment vaincus en même temps qu'Ingenuus et dont les familles avaient subi de cruels sévices de la part de Odenath de Palmyre et le supra-commandement oriental Gallien » [75]. À la différence d'Ingenuus, Régalien put battre mon- Après le supra-commandement en Illyricum, c'est en naie. Son monnayage se trouve essentiellement dans la Orient, avec la position d'Odenath, que l'on voit apparaî- région de Carnuntum en Pannonie supérieure [76]. On tre un autre supra-commandement, cette fois ci au cours le retrouve aussi au sud de la Drave et en Pannonie infé- du règne personnel de Gallien. rieure [77]. Il aurait assumé, en remplacement d'Inge- La capture de l'empereur Valérien par les Perses plon- nuus, le gouvernement des provinces danubiennes de gea les populations des provinces orientales dans un Pannonie et de Mésie [78]. Nous disposons de peu de profond désarroi [81]. En effet, dans le partage de res- sources d'informations sur les circonstances de la fin du ponsabilité de début de règne, Valérien coordonnait les mouvement de Régalien. Il est probable que son coup activités militaires dans cette région. Il a d'ailleurs été d'État se soit terminé après une attaque des Roxolans à l'origine de plusieurs succès militaires contre les Per- dans la région [79]. Qu'en est-il de l'impact de ce supra- ses [82]. Sa capture eut un impact négatif non seule- commandement dans la diminution des attaques aux ment sur les opérations militaires en cours dans la région frontières dans l'Illyricum ? mais également sur le moral des populations provincia- Censé consolider les conquêtes de Gallien entre 254 les. Il était important pour Gallien de consolider la pré- et 255 sur les germains, le supra-commandement de sence romaine dans le but non seulement de rassurer les l'Illyricum fut inefficace à cet égard. Valérien le Jeune Orientaux mais également de contenir l'expansion perse. fut rapidement tué au combat, ce qui ouvrit la porte aux Occupé par la pacification des provinces occidentales en coups d'État d'Ingenuus et de Régalien ainsi qu'à une proie aux attaques germaniques, Gallien n'avait d'autre guerre civile pour le rétablissement de l'autorité impé- choix que de renforcer la position politique d'Odenath riale. Il est évident que ces conflits internes affectèrent de Palmyre en créant de facto un supra-commandement grandement la stratégie de protection des frontières oriental. De plus, après la disparition de ses deux fils, face aux invasions. Les forces militaires prévues pour Gallien ne disposait plus de proches pour continuer la assurer la protection des frontières étaient désormais politique dynastique initiée par son père. Il est important mobilisées pour rétablir l'autorité impériale face aux dans l'analyse de ce supra-commandement de bien com- séditions, ce qui dans une certaine mesure favorisait prendre la position d'Odenath dans le contexte politique les attaques germaniques dans la région. de l'Orient romain au Le supra-commandement dans l'Illyricum s'inscrivait L'onomastique iiie siècle. officielle d'Odenath était Septimius siècle [83]. Ses dans la stratégie de partage de responsabilités entre les Odenathus. Il serait né au début du membres de la famille impériale. Il devait à terme favo- ascendants faisaient partie de ceux qui avaient reçu la riser une coordination efficace des opérations militaires citoyenneté romaine sous Septime Sévère. Sa famille dans l'empire en utilisant toutes les ressources d'une devrait donc être issue de la noblesse palmyrénienne [73] Aurelius Victor, Liber de Caesaribus, XXXIII, 2. [74] Fitz 1966, p. 44. [75] Chastagnol, SHA, Triginta Tyranni, X, 1. [76] Fitz 1976, p. 37. [77] Ibid., p. 47. [78] Ibid., p. 44. 212 e iii [79] Fitz 1966, p. 50 ; 61-63. [80] Demougeot 1969, p. 446. [81] Zosime, I, 37, 1. [82] Christol 2006, p. 133 ; RIC V 1, Valérien (Parthicus Maximus). [83] Michel Gawlikowski propose 220 comme date de sa naissance, voir Starcky & Gawlikowski 1985, p. 261. Les supra-commandements comme solution à la crise militaire du IIIe siècle de l'Empire romain sous Philippe l'Arabe et Gallien depuis plusieurs générations [84]. Il a longtemps existé tion élevée par la corporation des orfèvres de Palmyre une confusion sur les origines d'Odenath. En effet, le à Odenath : continuateur anonyme de Dion Cassius avait fait référence à deux Odenath, un ancien et un jeune. Cette information avait amené à croire qu'Odenath aurait été le fils d'un autre Odenath nommé Odenath l'Ancien. « Septimius Odainat, l'illustre consulaire, notre seigneur, élevé par la corporation des orfèvres » [94]. Il est probable qu'il ait reçu tous ces honneurs de Valérien qui se trouvait en Orient à cette période. Aujourd'hui, grâce à une inscription publiée par Michel En 260, les troupes romaines furent défaites et l'em- Gawlikowski, on est en mesure d'affirmer que Septimius pereur Valérien fut fait prisonnier par les Perses. Tou- Odenath était le fils de Septimius Hairan qui, lui-même, tefois, sur leur chemin de retour, ceux-ci furent stoppés était le fils de Waballath [85]. Odenath eut trois fils pour par Odenath. Plus tard, Odenath contribua à mettre fin lesquels nous avons des références épigraphiques et lit- au coup d'État de Macrien et de ses fils en Orient. En téraires [86]. Il s'agit d'Hérodien et d'Hairan issus d'un récompense de son rôle stratégique dans la lutte contre premier mariage, et de Septimius Waballathus, le fils de l'ennemi perse mais également dans le maintien de la sa seconde épouse Zénobie. Sous le règne de Philippe, il sécurité dans les provinces orientales de l'Empire, Ode- aurait été promu sénateur [87]. nath se vit offrir par Gallien le supra-commandement À partir de 252, Sapor renouvelle ses attaques en ter- oriental que l'on reconnaît dans les titres de dux Roma- ritoire romain, plaçant ainsi la cité de Palmyre dans une norum [95] puis de corrector totius Orientis [96]. C'est situation extrêmement délicate, puisqu'elle se trouvait ce que souligne Zonaras : à la frontière des deux empires [88]. Pour pallier l'ab- « Gallien envoya cependant Odenat chef des Palmy- sence de soutien énergique du pouvoir impérial romain réniens, contre Quintus fils puîné de Macrin qui s'était sous Trébonien Galle, Odenath se serait vu confier par la emparé de presque tout l'Orient. Mais la nouvelle de la population locale la charge d'exarque de Palmyre [89]. défaite de Macrin et de Macrien n'eut pas sitôt été répan- Cette fonction devait probablement comporter un impor- due que plusieurs villes secouèrent le joug de l'obéis- tant pan militaire, compte tenu du contexte dans lequel sance de Quintus et de Balliste. Odenat les attaqua près elle fut attribuée à Odenath. Udo Hartmann confirme d'Émèse, les vainquit, tua Balliste, et à son exemple, les l'attribution de cette magistrature par les Palmyréniens habitants tuèrent Quintus. L'Empereur récompensa la et non par l'empereur romain [90]. Odenath associa valeur et les services d'Odenat du commandement des son fils Hairan à cette magistrature exceptionnelle en troupes d'Orient, où il acquit beaucoup de gloire en com- créant ainsi une structure héréditaire [91]. Entre 257 battant diverses nations, et même les Perses » [97]. et 258, sous le règne conjoint des empereurs Valérien Il importe à ce stade de clarifier les deux titres attribués et Gallien, Odenath revêtit les titres de Vir Consularis et à Odenath. D'abord celui de dux Romanorum. Au de Legatus Augusti Propraetore provinciae Syriae Pho- cle, le titre de dux était donné à un membre de l'ordre nices [92]. L'octroi de ces titres à Odenath fait partie de équestre. Les attributions des duces étaient d'ordre à la pratique bien connue des empereurs de conférer des la fois militaire et administratif [98]. Cette montée en ornementa à certains personnages éminents. En effet, puissance des duces, au milieu du les ornementa sont des décorations attribuant à vie à origine dans le rôle croissant joué par les chevaliers dans un personnage des signes extérieurs d'une magistrature l'appareil de l'État depuis le milieu du qu'il a ou non déjà obtenue [93]. Dans le cas d'Ode- réforme administrative de Gallien vient consacrer à cet nath, l'octroi de ses titres impliquait qu'il était consi- égard un état de fait [100]. Ce titre démontre claire- déré comme ancien consul et à ce titre, gouverneur de ment le commandement militaire d'Odenath sur les trou- la province impériale de Syrie Phénicie dans laquelle pes romaines et palmyréniennes en Orient. Cependant, était incluse Palmyre. C'est ce que confirme une inscrip- il nous est impossible d'indiquer jusqu'où, sur le plan [84] Hartmann 2001, p. 88. [85] Starcky & Gawlikowski 1985, p. 257. [86] Ibid., p. 252-253. 213 siè- siècle, trouve son iie siècle [99]. La [93] Benoist 2000, p. 311, 320-321. [94] Starcky & Gawlikowski 1985, p. 58. [87] Ibid., p. 261. [88] Potter 1990, p. 291-293; Edwell 2007, p. 185. [89] Hartmann 2001, p. 92-93. [90] Ibid., p. 97. [91] Starcky & Gawlikowski 1985, p. 58. [92] Le Bohec 2009, p. 204. iiie iiie [95] Zonaras, XII, 23. [96] Potter 1996, p. 272. [97] Zonaras, XII, 24. [98] Southern 2001, p. 439. [99] Christol 1986, p. 46. [100] Ibid., p. 39-44. Les supra-commandements comme solution à la crise militaire du IIIe siècle de l'Empire romain sous Philippe l'Arabe et Gallien géographique, s'étendait cette autorité et si elle incluait empêche de clarifier la nature et l'étendue de cette auto- des attributions administratives. S'agissant du titre de rité attribuée à Odenath par Gallien. corrector, il faut indiquer que, sous l'empire, il était Le symbolisme politique de cette nouvelle fonction donné à des officiers sénatoriaux chargés par l'empereur attribuée à Odenath est fondamental puisqu'il permet de redresser les finances publiques de certaines citées de comprendre la distribution des pouvoirs dans l'em- orientales. Ces personnages étaient détenteurs de l'impe- pire à cette période. En effet, avec la capture de Valé- rium et étaient indépendants des gouverneurs de provin- rien, il était important pour le pouvoir central romain ces [101]. Ce statut de corrector d'Odenath est confirmé de combler le vide politique à travers la présence par une inscription en langue palmyrénienne datée de d'une forte autorité dans la région pour faire face aux 271 [102]. Il s'agit d'une inscription posthume accompa- assauts perses. La nouvelle position d'Odenath grâce gnant une statue érigée en l'honneur d'Odenath par le à ce supra-commandement se comprend donc dans le général palmyrénien Zabdas. À cette première inscription, contexte politique de maintien de l'équilibre des forces on ajoute pour les besoins de l'analyse le texte d'un mil- dans une région hautement stratégique pour l'empire. liaire érigé en l'honneur de Waballath. Sur la première, Quelles furent les conséquences de ce supra-comman- Odenath est commémoré en tant que mlk mlk' wmtqnn dement octroyé à Odenath dans le rétablissement de la dy mdnh' klh, ce qui correspond à Roi des rois et cor- paix en Orient ? rector totius Orientis [103]. Sur le second, Waballah est Pour ce qui est des coups d'État, il faut souligner présenté comme mlk mlk' w' pnrtht' dy mdnh' klh [104] qu'Odenath joua un rôle décisif dans la répression de ce qui correspond également au titre de Roi des rois avec la révolte de Macrien et de ses fils. En effet, Macrien, l'ajout du terme pnrtht' qui serait une variante du terme qui était le plus gradé des généraux de Valérien, décida mtqnn'. L'utilisation de deux différents termes pour tra- avec l'appui du préfet du prétoire Balliste de combler le duire le titre de corrector du terme palmyrénien pnrtht' vide institutionnel occasionné par la capture de Valé- dans l'inscription honorifique à Waballah, a donné lieu à de rien en faisant acclamer empereurs ses fils : Quietus et vifs débats entre les spécialistes [105]. Certains arguant Macrien le Jeune [110]. Ceux-ci furent reconnus dans que cela suggérait qu'Odenath avait une position diffé- plusieurs régions orientales, notamment en Syrie, en rente de son fils et que la traduction du terme palmyrénien Cappadoce et surtout en Égypte [111]. Des documents mdnh' par restitutor serait préférable à celle de corrector d'archives égyptiens indiquent que la première année puisqu'elle n'impliquait pas une position formelle dans de règne des deux empereurs serait à situer autour du la structure administrative romaine [106]. Au-delà de la 29 août 260 [112]. Macrien et son fils Macrien le Jeune, technicité des titres d'Odenath, il est indéniable que celui- qui tentaient de conquérir certaines provinces occiden- ci avait obtenu de Gallien une large autorité sur Palmyre tales, furent défaits par Aureolus dans l'Illyricum, ce mais aussi sur l'ensemble des provinces orientales [107]. dernier agissant au nom de l'empereur Gallien [113]. Nous ne sommes malheureusement pas en mesure de confirmer la nature réelle de cette autorité. Nous pensons Odenath quant à lui marcha contre Balliste et Quietus sur instruction de Gallien [114] et les assiégea dans qu'il faudrait en conséquence la rapprocher de celle accor- Émèse, capitale de la province de Syrie, où ils furent dée à Priscus par Philippe. Cette fonction n'avait pas de massacrés par la population locale [115]. L'action contenu en matière de droit public mais sur le plan poli- d'Odenath fut déterminante pour mettre fin au coup tique et militaire elle accordait à Odenath une autorité de d'État de Macrien. En ce qui concerne les invasions, supervision sur l'Orient romain [108]. Il importe de préci- Odenath fut particulièrement actif dans la protection ser que les gouverneurs des provinces continuaient d'être des provinces orientales contre les Perses particuliè- nommés par Gallien, ce qui confirme qu'Odenath n'avait rement après la capture de Valérien. En effet, il mena pas de commandement direct sur ces provinces [109]. deux importantes campagnes contre les Perses entre En tout état de cause, l'absence de sources d'information 262 et 268 [116]. [101] Jessen 1913, s. v. Helios, RE IV, 8, col. 1645-1655; Jacques & Scheid 2010, p. 269 ; Lefebvre 2011, p. 133-134. [102] Dodgeon & Lieu 1991, p. 88 notes 4, 7, 2. [103] CIS II 3946 ; Swain 1993, p. 157 ; Potter 1996, p. 272. [104] CIS II 3971 ; Masson 1974, p. 442. [105] Swain 1993, p. 157 ; Potter 1996, p. 272. [106] Swain 1993, p. 159-160. [107] Potter 1990, p. 390-394. [108] Potter 1996, p. 272. 214 [109] Pflaum 1953, p. 307-330. [110] Chastagnol, SHA, Triginta Tyranni, XII, 1-4. [111] Christol 2006, p. 144. [112] Christol 1975, p. 818. [113] Chastagnol, SHA, Triginta Tyranni, XII, 13 ; Zonaras, XII, 24. [114] Zonaras, XII, 24 ; Zosime, I, 39, 1. [115] Zonaras, XII, 24. [116] Le Bohec 2009, p. 205-206. Les supra-commandements comme solution à la crise militaire du IIIe siècle de l'Empire romain sous Philippe l'Arabe et Gallien La première, qui se déroula entre 262 et 263, eut un des Germains dans la région. Dans la même perspective, remarquable succès [117]. Le corps expéditionnaire Priscus puis Odenath reçurent successivement le supra- était composé de soldats romains et d'archers palmy- commandement oriental pour contenir les attaques per- réniens. Odenath libéra plusieurs cités sous domination ses en territoire romain. iranienne dont Carrhae et put reprendre le contrôle de La deuxième conclusion relève de la nature des supra- la Mésopotamie. Il atteignit même Ctésiphon, la capi- commandements et de l'autorité de leurs détenteurs. tale de l'empire perse [118]. Cette brillante campagne Sur la base des sources d'informations disponibles nous d'Odenath permit à Gallien de revêtir le titre de Persicus pouvons déduire que ces structures n'avaient pas un Maximus en 263 [119]. contenu administratif défini en matière de droit public. La seconde campagne d'Odenath fut menée autour de 267 [120]. Au cours de cette deuxième campagne, les Toutefois, elles conféraient à leur détenteur une pré- troupes palmyréniennes remportèrent d'importants suc- et une autorité de supervision des opérations militaires cès et se dirigeaient encore vers la capitale perse lors- dans la région concernée. Ils avaient pour mandat de qu'Odenath fut assassiné avec son fils Hérodien, entre le superviser la stratégie de lutte contre les attaques des 30 août 267 et le 29 avril 268 [121]. ennemis extérieurs aux frontières ; d'où leur création au Le supra-commandement oriental d'Odenath s'inscrit séance politique sur les autres gouverneurs de provinces sein des zones menacées d'attaques. dans la continuité de celui octroyé à Priscus sous Philippe La troisième conclusion touche l'identité des détenteurs l'Arabe. La présence de l'ennemi perse rendait nécessaire de ces supra-commandements. Pour la période analy- la consolidation de l'autorité romaine dans la région. sée, exception faite d'Odenath de Palmyre, ils étaient De plus, il venait combler le vide laissé par la capture issus de la famille impériale. Ce choix d'un membre de de l'empereur Valérien. Les compétences stratégiques la famille impériale garantissait la fidélité du détenteur et tactiques d'Odenath permirent de garantir la sécurité à l'empereur et limitait dans le même temps les risques tout en maintenant une certaine stabilité politique dans d'un coup d'État. l'Orient romain. Toutefois, l'octroi d'une si grande auto- En définitive, il faut souligner que les supra-comman- rité aux contours imprécis à un personnage extérieur à dements doivent être perçus comme une réponse des la famille impériale prépara la sécession palmyrénienne empereurs du iiie siècle à la multiplicité des foyers de ten- sous Waballath et Zénobie. sion et à leur impossible présence physique sur tous les théâtres d'opérations. Par ailleurs, ils démontrent, dans une certaine mesure, leur capacité à adapter les structu- Conclusion res administratives héritées du compromis augustéen aux nouvelles exigences politiques et militaires du moment. Trois conclusions sont à tirer de cette analyse des supracommandements sous les règnes de Philippe l'Arabe et Ils préfiguraient à cet égard, les transformations politiques et administratives de l'époque de Dioclétien.  Gallien. La première concerne le contexte de leur mise en place. L'instauration des supra-commandements participe de la stratégie de stabilisation des frontières orientale et occidentale grâce à l'établissement de structures décentralisées de coordination des opérations militaires. Ainsi, Valérien le Jeune fut installé dans l'Illyricum pour non seulement raffermir les conquêtes militaires de 255 mais également pour prévenir d'éventuelles attaques 215 [117] Hartmann 2001, p. 162-164. [118] Zosime, I, 39, 1-2 ; Chastagnol, SHA, Triginta Tyranni, XV, 3. [119] CIL VIII 22765 ; ILS 8923 ; Hartmann 2001, p. 68. [120] Le Bohec 2009, p. 206 ; Starcky & Gawlikowski 1985, p. 60. [120] Starcky & Gawlikowski 1985, p. 62. Les supra-commandements comme solution à la crise militaire du IIIe siècle de l'Empire romain sous Philippe l'Arabe et Gallien sources Sextus Aurelius Victor, Le Livre des Césars, texte traduit et commenté par Pierre Dufraigne, Les Belles Lettres, Paris, 1975. Pseudo Aurelius Victor, Abrégé des Césars, texte établi et commenté par Michel Festy, Les Belles Lettres, Paris, 1999. Histoire Auguste, texte traduit et commenté par André Chastagnol, Paris, 1994. Jean Zonaras, The History of Zonaras: From Alexander Severus to the Death of Theodosius the Great, traduit par Thomas Banchich & Eugene Lane, London, 2009. Zosime, Histoire Nouvelle, tome 1, livres I-II, texte traduit et établi par François Paschoud, Les Belles Lettres, Paris, 2000. Bibliographie Badel, Christophe & Bérenger, Agnès, 1998, L'Empire romain au iiie siècle après J.-C. (Regards sur l'histoire. Histoire ancienne), Paris. Barberi, Guido, 1952, L'albo senatorio da Settimio Severo a Carino. 193-285, Roma. Benoist, Stéphane, 2000, « Le prince et la société romaine d'Empire au iiie siècle : le cas des ornamenta », CCGG 11, p. 309329. Bérenger, Agnès, 2004, « Le contrôle des gouverneurs de province sous le Haut-Empire », Contrôler les agents du pouvoir, Limoges, p. 127-146. Bray, John, 1997, Gallienus: a study in reformist and sexual politics, Kent Town. Chaumont, Marie-Louise, 1969, Recherches sur l'histoire d'Arménie, de l'avènement des Sassanides à la conversion du royaume, Paris. Christol, Michel, 1975, « Les règnes de Valérien et Gallien (253-268) : Travaux d'ensemble, questions chronologiques », ANRW, II, 2, Berlin – New York, p. 803-827. Christol, Michel, 1976, « Une carrière équestre sous le règne de Gallien », Latomus 35, p. 866-874. Christol, Michel, 1997, « Les déplacements du collège impérial de 256 à 258 : Cologne, capitale impériale », CCGG 8, p. 243-253. Christol, Michel, 2006, L'Empire romain du iiie siècle : Histoire Politique (1re éd. 1997), Paris. Christol, Michel & Bourgeois, Ariane, 1973, « À propos d'un antoninianus inédit de Valérien le Jeune provenant du trésor de Chézelles (Indre) : la date d'ouverture de l'atelier de Cologne », Bulletin de la Société française de Numismatique 108, p. 415-418. De Blois, Lukas, 1978-1979, « The reign of the emperor Philip the Arabian », Talanta 10-11, p. 11-43. Demougeot, Emilienne, 1969, La formation de l'Europe et les invasions barbares, 1. Des origines germaniques à l'avènement de Dioclétien, Paris (Collection historique). Dodgeon, Michael H. & Lieu, Samuel N. C, 1991, The Roman Eastern Frontier and the Persian Wars (AD 226-363). A Documentary History, London. Drinkwater, John, 1987, The Gallic Empire. Separatism and Continuity in the North Western Provinces of the Roman Empire A.D. 260-274, Wiesbaden – Stuttgart. Edwell, Peter, 2008, Between Rome and Persia. The Middle Euphrates, Mesopotamia and Palmyra under Roman control, London. Feissel, Denis & Gascou, Jean, 1995, « Documents d'archives romains inédits du Moyen-Euphrate (iiie s. après J-C) », Journal des savants 1 (1), p. 65-119. Fitz, Jenö, 1965, « Tullius Menophilus », Acta Anta. Acad. 13, p. 433-440. Fitz, Jenö, 1966, Ingenuus et Régalien, Bruxelles (Collection Latomus 81). Hartman, Felix, 1982, Herrscherwechsel und Reichskrise: Untersuchungen zu den Ursachen und Konsequenzen der Herrscherwechsel im Imperium Romanum der Soldatenkaiserzeit (3. Jahrhundert n. Chr.), Frankfurt-am-Main. Hartmann, Udo, 2001, Das Palmyrenische Teilreich, Stuttgart. Howe, Laurence Lee, 1942, The Pretorian Prefect from Commodus to Diocletian (A.D. 180-304), Chicago. Jacques, François & Scheid, John, 2000, Rome et l'intégration de l'Empire, 1. Les structures de l'Empire (1re éd. 1990), Paris (Nouvelle Clio). Kettenhofen, Erich, 1982, Die römisch-persischen Kriege des 3. Jahrhunderts n. Chr.: nach der Inschrift Š a ̄ h puhrs I. an der Kaʻbe-ye Zartoš t (Š K Z), Wiesbaden. Kienast, Dietmar, 1990, Römische Kaisertabelle: Grundzüge einer römischen Kaiserchronologie, Darmstadt. Körner, Christian, 2002, Philippus Arabs. Ein Soldatenkaiser in der Tradition des antoninisch severischen Prinzipats, Berlin. Le Bohec, Yann, 2009, L'armée romaine dans la tourmente. Une nouvelle approche de la « crise du siècle », Paris – Monaco. Lefebvre, Sabine, 2011, L'administration de l'Empire romain : d'Auguste à Dioclétien, Paris. 216 Les supra-commandements comme solution à la crise militaire du IIIe siècle de l'Empire romain sous Philippe l'Arabe et Gallien Loriot, Xavier, 1975a, « Les premières années de la grande crise du iiie siècle. De l'avènement de Maximien de Thrace (235) à la mort de Gordien III (244) », ANRW, II, 2, Berlin – New York, p. 657-787. Loriot, Xavier, 1975b, « Chronologie du règne de Philippe l'Arabe (244-249 après J-C.) », ANRW, II, 2, Berlin – New York, p. 788-797. Loriot, Xavier, 1994, « Quelques antoniniens de Pacatien trouvés en Gaule », BSFN 49, p. 844-848. Loriot, Xavier & Nony, Daniel, 1997, La crise de l'empire romain (235-285), Paris (Collection U 225). Mason, Hugh J., 1974, Greek terms for Roman institutions: A Lexicon and Analysis, Toronto (American studies of papyrology 13). Maricq, André, 1958, « Res Gestae Divi Saporis », Syria 35, p. 295-360. Millar, Fergus, 1993, The Roman Near East 31 B.C.-337 A.D, Cambridge, MA. Nasti, Fara, 1993, « Un nuovo documento dalla Siria sulle competenze di governatori e procuratori in tema di interdetti », Index 21, p. 365-380. Nasti, Fara, 1997, « Il prefetto del pretorio di CIL VI 1638 (= D. 1331) e la sua carriera », ZPE 117, p. 281-290. Peachin, Michael, 1988, « Gallienus Caesar ? », ZPE 74, p. 219-224. Peachin, Michael, 1990, Roman imperial titulature and chronology, A.D. 235-284, Amsterdam. Peachin, Michael 1991, « Philip's Progress: From Mesopotamia to Rome in A.D. 244 », Historia 40 (3), p. 331-342. Pekàry, Thomas, 1961, « Le « tribut » aux Perses et les finances de Philippe l'Arabe », Syria 38, p. 275-283. Pflaum, Hans-Georg, 1960, Les carrières procuratoriennes équestres sous le Haut-Empire romain, Paris, 4 vol. Pflaum, Hans-Georg, 1966-1967, « P. Licinius Gallienus nobilissimus Caesar et Imp. M. Aurelius Numerianus nobilissimus Caesar Aug. à la lumière de deux nouveaux milliaires d'Oum el Bouaghi », Bull. Archéol. Algérienne 2, p. 175-182. Potter, David, 1990, Prophecy and History in the Crisis of the Roman Empire: A Historical Commentary on the Thirteenth Sibylline Oracle, London. Potter, David, 1996, « Palmyra and Rome: Odaenathus' Titulature and the Use of the Imperium Maius. », ZPE 113, p. 271-285. Potter, David, 2004, The Roman Empire at Bay: AD 180-395, London – New York (Routledge history of the ancient world). Rey-Coquais, Jean-Pierre, 1978, « Syrie romaine, de Pompée à Dioclétien », JRS 68, p. 44-73. Southern, Pat, 2008, Empress Zenobia: Palmyra's Rebel Queen, London. Starcky, Jean & Gawlikowski, Michel, 1985, Palmyre, Paris. Sullivan, Danielle, 1977, «The dynasty of Commagene», ANRW, II, 8, p. 732-798. Syme, Ronald, 1987, « Avidius Cassius: His rank, Age and Quality », dans Johannes Straub et al. (éd.), Bonner Historia Augusta Colloquium 1984/1985, Bonn (Antiquitas, Reihe 4, Beiträge zur Historia Augusta Forschung 19), p. 207-222. Swain, Simon, 1993, « "Greek into Palmyrene: Odaenathus as 'Corrector Totius Orientis'? », ZPE 99, p.157-164. Trout, Dennis E., 1989, « Victoria Redux and the First Year of the Reign of Philip the Arab » Chiron 19, p. 221-233. Vervaet, Frederik, 2007, « The Reappearance of the Supra-Provincial Commands in the Late Second and Early Third Centuries C.E.: Constitutional and Historical Considerations », dans Olivier Hekster, Gerda de Kleijn & Daniëlle Slootjes (éd.), Crises and the Roman Empire: Proceedings of the Seventh Workshop of the International Network Impact of Empire (Nijmegen, June 20-24, 2006), Leiden – Boston, p. 125-140. 217 Les supra-commandements comme solution à la crise militaire du IIIe siècle de l'Empire romain sous Philippe l'Arabe et Gallien
{'path': '38/hal.archives-ouvertes.fr-hal-01587268-document.txt'}
Résultats de 81 procédures de recanalisations fémoro-poplitées longues par la technique de safari au CHU de Caen Rachid Inaflas To cite this version: Rachid Inaflas. Résultats de 81 procédures de recanalisations fémoro-poplitées longues par la technique de safari au CHU de Caen. Médecine humaine et pathologie. 2019. dumas-02498599 HAL Id: dumas-02498599 https://dumas.ccsd.cnrs.fr/dumas-02498599 Submitted on 4 Mar 2020 UNIVERSITÉ de CAEN NORMANDIE ------- FACULTÉ de MÉDECINE Année 2018/2019 THÈSE POUR L'OBTENTION DU GRADE DE DOCTEUR EN MÉDECINE Présentée et soutenue publiquement le : 31/10/2019 par Mr INAFLAS RACHID Né le 17/04/1988 à ASNIÈRES SUR SEINE (92) : RESULTATS DE 81 PROCEDURES DE RECANALISATIONS FEMORO-POPLITEES LONGUES PAR LA TECHNIQUE DE SAFARI AU CHU DE CAEN Président : Monsieur le Professeur LUDOVIC BERGER Membres : Monsieur le Professeur ARNAUD ALVES Monsieur le Professeur SYLVAIN MOREAU Monsieur le Docteur OLIVIER COFFIN Directeur de thèse : Dr ETIENNE JOGUET U N I V E R S I T É D E CA E N * N O R M A ND I E UFR SANTÉ - FACULTE D E MED ECINE Année Universitaire 2018/2019 Doyen Professeur Emmanuel TOUZÉ Assesseurs Professeur Paul MILLIEZ (pédagogie) Professeur Guy LAUNOY (recherche) Professeur Sonia DOLLFUS & Professeur Evelyne EMERY (3ème cycle) Directrice administrative Madame Sarah CHEMTOB PROFESSEURS DES UNIVERSITÉS - PRATICIENS HOSPITALIERS M. AGOSTINI Denis Biophysique et médecine nucléaire M. AIDE Nicolas Biophysique et médecine nucléaire M. ALLOUCHE Stéphane Biochimie et biologie moléculaire M. ALVES Arnaud Chirurgie digestive M. AOUBA Achille Médecine interne M. BABIN Emmanuel Oto-Rhino-Laryngologie M. BÉNATEAU Hervé Chirurgie maxillo-faciale et stomatologie M. BENOIST Guillaume Gynécologie - Obstétrique M. BERGER Ludovic Chirurgie vasculaire M. BERGOT Emmanuel Pneumologie M. BIBEAU Frédéric Anatomie et cytologie pathologique Mme BRAZO Perrine Psychiatrie d'adultes M. BROUARD Jacques Pédiatrie M. BUSTANY Pierre Pharmacologie Mme CHAPON Françoise Histologie, Embryologie Mme CLIN-GODARD Bénédicte Médecine et santé au travail M. COQUEREL Antoine Pharmacologie M. DAO Manh Thông Hépatologie-Gastro-Entérologie M. DAMAJ Ghandi Laurent Hématologie M. DEFER Gilles Neurologie M. DELAMILLIEURE Pascal Psychiatrie d'adultes M. DENISE Pierre Physiologie M. DERLON Jean-Michel Éméritat jusqu'au 31/08/2020 Neurochirurgie Mme DOLLFUS Sonia Psychiatrie d'adultes M. DREYFUS Michel Gynécologie - Obstétrique M. DU CHEYRON Damien Réanimation médicale Mme ÉMERY Evelyne Neurochirurgie M. ESMAIL-BEYGUI Farzin Cardiologie Mme FAUVET Raffaèle Gynécologie – Obstétrique M. FISCHER Marc-Olivier Anesthésiologie – réanimation et médecine périopératoire M. GÉRARD Jean-Louis Anesthésiologie – réanimation et médecine périopératoire M. GUILLOIS Bernard Pédiatrie Mme GUITTET-BAUD Lydia Epidémiologie, économie de la santé et prévention M. HABRAND Jean-Louis Cancérologie option Radiothérapie M. HAMON Martial Cardiologie Mme HAMON Michèle Radiologie et imagerie médicale M. HANOUZ Jean-Luc Anesthésiologie – réanimation et médecine périopératoire M. HULET Christophe Chirurgie orthopédique et traumatologique M. HURAULT de LIGNY Bruno Éméritat jusqu'au 31/01/2020 Néphrologie M. ICARD Philippe Chirurgie thoracique et cardio-vasculaire M. JOIN-LAMBERT Olivier Bactériologie - Virologie Mme JOLY-LOBBEDEZ Florence Cancérologie M. JOUBERT Michael Endocrinologie Mme KOTTLER Marie-Laure Biochimie et biologie moléculaire M. LAUNOY Guy Epidémiologie, économie de la santé et prévention M. LE COUTOUR Xavier Epidémiologie, économie de la santé et prévention M. LE HELLO Simon Bactériologie-Virologie Mme LE MAUFF Brigitte Immunologie M. LEPORRIER Michel Éméritat jusqu'au 31/08/2020 Hématologie M. LEROY François Rééducation fonctionnelle M. LOBBEDEZ Thierry Néphrologie M. MANRIQUE Alain Biophysique et médecine nucléaire M. MARCÉLLI Christian Rhumatologie M. MARTINAUD Olivier Neurologie M. MAUREL Jean Chirurgie générale M. MILLIEZ Paul Cardiologie M. MOREAU Sylvain Anatomie/Oto-Rhino-Laryngologie M. MOUTEL Grégoire Médecine légale et droit de la santé M. NORMAND Hervé Physiologie M. PARIENTI Jean-Jacques Biostatistiques, info. médicale et tech. de communication M. PELAGE Jean-Pierre Radiologie et imagerie médicale Mme PIQUET Marie-Astrid Nutrition M. QUINTYN Jean-Claude Ophtalmologie M. RAVASSE Philippe Chirurgie infantile M. REZNIK Yves Endocrinologie M. ROD Julien Chirurgie infantile M. ROUPIE Eric Médecine d'urgence Mme THARIAT Juliette Radiothérapie M. TILLOU Xavier Urologie M. TOUZÉ Emmanuel Neurologie M. TROUSSARD Xavier Hématologie Mme VABRET Astrid Bactériologie - Virologie M. VERDON Renaud Maladies infectieuses Mme VERNEUIL Laurence Dermatologie M. VIADER Fausto Neurologie M. VIVIEN Denis Biologie cellulaire PROFESSEUR DES UNIVERSITÉS PROFESSEUR ASSOCIÉ DES UNIVERSITÉS A TEMPS PLEIN M. VABRET François Addictologie PROFESSEURS ASSOCIÉS DES UNIVERSITÉS A MI-TEMPS M. de la SAYETTE Vincent Neurologie Mme DOMPMARTIN-BLANCHÈRE Anne Dermatologie Mme LESCURE Pascale Gériatrie et biologie du vieillissement M. SABATIER Rémi Cardiologie LELEU Solveig Anglais PRCE Mme U N I V E R S I T É D E CA E N * N O R M A ND I E UFR SANTÉ - FACULTE D E MED ECINE Année Universitaire 2018 / 2019 Doyen Professeur Emmanuel TOUZÉ Assesseurs Professeur Paul MILLIEZ (pédagogie) Professeur Guy LAUNOY (recherche) Professeur Sonia DOLLFUS & Professeur Evelyne EMERY (3ème cycle) Directrice administrative Madame Sarah CHEMTOB MAITRES DE CONFERENCES DES UNIVERSITÉS - PRATICIENS HOSPITALIERS M. ALEXANDRE Joachim Pharmacologie clinique Mme BENHAÏM Annie Biologie cellulaire M. BESNARD Stéphane Physiologie Mme BONHOMME Julie Parasitologie et mycologie M. BOUVIER Nicolas Néphrologie M. COULBAULT Laurent Biochimie et Biologie moléculaire M. CREVEUIL Christian Biostatistiques, info. médicale et tech. de communication M. DE BOYSSON Hubert Médecine interne Mme DEBRUYNE Danièle Éméritat jusqu'au 31/08/2019 Pharmacologie fondamentale Mme DERLON-BOREL Annie Éméritat jusqu'au 31/08/2020 Hématologie Mme DINA Julia Bactériologie - Virologie Mme DUPONT Claire Pédiatrie M. ÉTARD Olivier Physiologie M. GABEREL Thomas Neurochirurgie M. GRUCHY Nicolas Génétique M. GUÉNOLÉ Fabian Pédopsychiatrie M. HITIER Martin Anatomie - ORL Chirurgie Cervico-faciale M. ISNARD Christophe Bactériologie Virologie M. LEGALLOIS Damien Cardiologie Mme LELONG-BOULOUARD Véronique Pharmacologie fondamentale Mme LEPORRIER Nathalie Éméritat jusqu'au 31/10/2020 Génétique Mme LEVALLET Guénaëlle Cytologie et Histologie M. LUBRANO Jean Chirurgie générale M. MITTRE Hervé Biologie cellulaire M. REPESSÉ Yohann Hématologie M. SESBOÜÉ Bruno Physiologie M. TOUTIRAIS Olivier Immunologie M. VEYSSIERE Alexis Chirurgie maxillo-faciale et stomatologie MAITRES DE CONFERENCES ASSOCIÉS DES UNIVERSITÉS A MI-TEMPS Mme ABBATE-LERAY Pascale Médecine générale M. COUETTE Pierre-André (fin 31/08/19) Médecine générale M. LE BAS François (fin 31/08/19) Médecine générale M. SAINMONT Nicolas (fin 31/08/19) Médecine générale Mme NOEL DE JAEGHER Sophie (fin 31/08/2021) Médecine générale Remerciements A monsieur le professeur Ludovic Berger : Tu me fais l'honneur de pré sider mon jury. Ton enseignement et ta rigueur resteront comme les fondements de ma formation. Je te remercie de ta disponibilité et de ton aide tout au long de la ré alisation de ce travail. Merci également de m'avoir permis de poursuivre mon apprentissage à tes côtés. A monsieur le docteur Etienne Joguet : Je te serai toujours reconnaissant d'avoir accepté de diriger ce travail et pour ta disponibilité pendant mes nombreux moments de doute. Merci é galement pour m'avoir fait partager toutes tes connaissances ; ce fut un plaisir et un honneur d'apprendre à tes cô té s, qui plus est dans la bonne humeur. Sois certain de mon amitié et de mon profond respect. A monsieur le docteur Olivier Coffin : Cher maitre, Tu m'as aidé pendant ces 5 derniè res anné es à mener à bien mon projet de devenir chirurgien vasculaire grâ ce à tes compé tences, ta rigueur et ton attention quotidienne à me transmettre tes valeurs chirurgicales. Je t'en remercie. Sois certain de mon amitié et de mon profond respect. A messieurs les professeurs Moreau et Alves : Vous me faites l'honneur de juger ce travail, veuillez trouver ici l'expression de mes sincè res remerciements et de mon profond respect. A l'ensemble de mes chefs Djelloul, Laura, Aurélien, Julie, Elise, Lucie, Claire et Jihenne : Merci à vous tous pour tout ce que vous m'avez appris durant ces 5 dernières années. Votre accueil chaleureux dans le service et votre disponibilité au quotidien m'ont permis de progresser. J'espère être à la hauteur de tout ce que vous m'avez appris, chacun à votre manière. A mes co-internes de spécialités Pauline, Hugues et Lucas : Merci pour ces bons moments passés ensemble ! A très bientôt au bloc opératoire !!!!! Aux autres chirurgiens croisés pendant mon parcous (Dr Korso, Dr Benabadji, Dr Plard, Pr Icard et tous les autres Merci pour vos enseignements et votre confiance A l'ensemble des praticiens des services de chirurgie cardiaque et de chirurgie thoracique du CHU de Caen : Merci pour votre formation et pour les bons moments passés ensemble au bloc. Au service de chirurgie vasculaire du Pr Julia de l'HEGP ainsi qu'a mes co-internes parisiens : Merci pour ce semestre enrichissant et formateur. Merci de m'avoir fait confiance, de m'avoir guidé dans mon apprentissage chirurgical. Un semestre inouabliable avec la super team d'interne. A toute l'équipe paramédicale du service et du bloc de chirurgie vasculaire de Caen : Merci pour votre soutien durant tout mon apprentissage. A ma famille et mes amis : Merci à mes parents, à ma soeur Fatima et à mes frères Bachir et Ahmed pour leur soutien sans faille, je leur dois tout et leur dédie cette thèse. Merci pour tout ce qu'ils ont su m'apporter, je leurs suis sincè rement reconnaissant. Merci à tous mes amis de Gennevilliers (Nordine, Abdel Karim, Fouad, Karim, Moutaz et Najib) et ceux rencontré s pendant mon internat. Enfin, un immense merci à ma femme Meriem pour son soutien et sa patience indéfectibles. Abréviations AOMI : artériopathie oblitérante des membres inférieurs TASC : « The Trans-Atlantic Inter-Society Consensus Document on Management of Peripheral Arterial Disease » SAFARI : « Subintimal Arterial Flossing with Antegrade–Retrograde Intervention » ICP : ischémie chronique permanente TLR : « target lésion revascularization » TER : « target extremity revascularization » HTA : hypertension artérielle IMC : indice de masse corporelle IRC : insuffisance rénale chronique AVC : accident vasculaire cérébral IEC : inhibiteur de l'enzyme de conversion ARA2 : antagonistes des récepteurs de l'angiotensine II IPS : index de pression systolique TEA : thromboendartériectomie AAP : antiagrègants plaquettaires IDM : infarctus du myocarde SCA : syndrome coronarien aigue IC : insuffisance cardiaque IVUS : « intravascular ultrasound » ASA : « american society of anesthésiologists » Table des matières I) Introduction 1 II) Généralités 2 A) Définitions 2 1) Rappel sur l'AOMI 2 2) Classification de Leriche et Fontaine et de Rutherford 2 3) Classification TASC II des lésions sous inguinales 3 4) Définitions des critères étudiés 4 B) La recanalisation sous-intimale 5 C) Technique de SAFARI 6 D) Variantes de la technique 6 1) La manoeuvre du « rendez vous » 6 2) La technique bidirectionnelle au ballon d'angioplastie 7 3) La CART technique (controlled antegrade and retrograde subintimal tracking). 7 E) Les systèmes de réentrés. 9 III) Matériel et méthode 10 A) Type d'étude 10 B) Critères d'inclusion et d'exclusion des patients. 10 1) Critères d'inclusion. 10 2) Critères d'exclusion. 10 C) Recueil de données 10 1) Les données épidémiologiques 12 2) Les données pré-opératoires 13 3) Les données opératoires 13 4) Les données post-opératoires et du suivi 14 D) Objectifs de l'étude 14 1) Objectif principal 14 2) Objectifs secondaires 14 E) Technique opératoire15 F) Analyse statistique 19 IV) Résultats 20 A) Caractéristiques de la population 20 B) Traitements pré-opératoires 22 C) Stade Rutherford 22 D) Localisation des lésions et classification TASC 24 E) Données per-opératoires 25 F) Données postopératoires et du suivi29 G) Analyse du suivi 31 1) Analyse des données du suivi 31 2) Analyse de sous groupes. 34 3) Comparaisons de l'IPS et du Rutherford pré et post opéraoire. 38 V) Discussion 40 A) Place de l'endovasculaire pour les lésions TASC C et D 40 B) Analyse de nos résultats 41 1) Perméabilité primaire des recanalisations fémoro-poplitée TASC C et D 41 2) Facteurs de risque indépendants de perte de perméabilité primaire 44 3) TLR et TER 48 4) Sauvetage de membre et cicatrisation 48 5) Mortalité durant le suivi 50 C) Analyse de la technique de SAFARI 50 1) Accès et complications 51 2) Fluoroscocopie et radioprotection 53 3) Technique de recanalisation et comparaison aux systèmes de réentrés 54 D) Limites de l'étude 57 VI) Conclusion 58 VII) Bibliographie 59 Tableaux et figures Figure 1. Classification de Leriche et Fontaine et de Rutherford 2 Figure 2. Classification TASC II pour les lésions sous-inguinales. 3 Figure 3. Recanalisation sous-intimale selon Bolia 5 Figure 4. Technique de SAFARI. Manoeuvre du rendez-vous 6 Figure 5. Technique bidirectionnelle au ballon d'angioplastie 7 Figure 6. Technique CART 8 Figure 7. Technique Reverse CART 8 Figure 8. Système de réentrée simple : Outback 9 Figure 9. Système de réentrée avec IVUS : Pioneer 9 Figure 10. Schéma descriptif de la technique de SAFARI 16 Figure 11. Schéma du téléphérique avec mise en place de stent 17 Figure 12. Hémostase endoluminale du point de ponction rétrograde 18 Figure 13 Flowchart de la population incluse 20 Figure 14 Répartition du score ASA dans la population 21 Figure 15. Localisation de l'accès antérograde dans la population 26 Figure 16. Perméabilité primaire durant le suivi 31 Figure 18. Mortalité durant le suivi 32 Figure 17. Perméabilité secondaire durant le suivi 35 Figure 19. Taux d'indemnité de TLR durant le suivi 32 Figure 20. Taux d'indemnité de TER durant le suivi 33 Figure 21. Perméabilité primaire en fonction du statut clinique 34 Figure 22. Perméabilité primaire en fonction du diabète 35 Figure 23. Perméabilité primaire en fonction de l'IRC 35 Figure 24. Perméabilité primaire en fonction de l'âge 36 Figure 25. Perméabilité primaire en fonction de longueur de la zone stentée 36 Figure 26. Perméabilité primaire en fonction du tabac 37 Figure 27. Perméabilité primaire en fonction du runoff 37 Figure 28. Comparaison entre l'IPS pre et post opératoire, au terme du suivi 39 Figure 29. Comparaison entre le Rutherford pré et post opératoire, au terme du suivi 39 I) Introduction Les techniques endovasculaires occupent aujourd'hui une place importante dans le traitement de l'artériopathie oblitérante des membres inférieurs (AOMI). Le consensus international transatlantique (TASC II), datant de 2007, recommande une prise en charge endovasculaire pour les lésions les moins sévères (TASC A et B) et chirurgicale par pontage pour les lésions fémoro-poplitées les plus sévères (TASC C et D).(1) En effet dans le cas d'une recanalisation sous-intimale pour une lésion longue, technique décrite par Bolia(2), il peut exister une impossibilité de franchissement ou de réentrée dans la lumière de l'artère en zone saine en aval de la lésion à traiter. Depuis 2007, deux évolutions majeures ont permis de proposer une prise en charge endovasculaire pour ces lésions les plus complexes surtout lorsqu'il s'agit de patient à risque sur le plan chirurgicale. Ces 2 évolutions sont : - les systèmes de réentrée (Pioneer,Outback) qui permettent comme leurs nom l'indique de réentrer dans la lumière après une recanalisation sous intimale. Ces systèmes s'avèrent néanmoins coûteux. - La technique de recanalisation par double abord antérograde et rétrograde dite de SAFARI qui est devenue l'alternative utilisée dans notre service. Afin d'apprécier les résultats de cette technique, nous avons donc colligé toutes les procédures endovasculaires ou hybrides ayant nécessité une recanalisation par double abord antérograde et rétrograde après échec de revascularisation par voie antérograde seule entre 2012 et 2017 dans notre service. L'objectif principal de cette étude était l'évaluation de la perméabilité primaire après traitement des lésions occlusives fémoro-poplitées longues par la technique de SAFARI. Les objectifs secondaires de cette étude étaient d'étudier la perméabilité secondaire, le devenir du membre traité ainsi que la sureté de la technique de SAFARI, notamment le devenir de l'artère de la jambe ponctionnée. 1 II) Généralités A) Définitions 1) Rappel sur l'AOMI L'artériopathie oblitérante des membres inférieurs (AOMI) est caractérisée par un rétrécissement du calibre des artères à destination des membres inférieurs, qui entraî ne une perte de charge hémodynamique, avec ou sans traduction clinique, dont le meilleur témoin est la chute de l'index de pression systolique (IPS). L'IPS est le rapport de la pression systolique à la cheville sur la pression systolique humérale, mesurée à l'aide d'une sonde Doppler. L'AOMI se présente sous deux formes : - l'ischémie d'effort, avec ou sans signe clinique (claudication), qui est chronique - l'ischémie chronique permanente qui est définie par l'association de douleurs de décubitus ou de troubles trophiques depuis au moins 15 jours avec une pression artérielle systolique inférieure à 50 mmHg à la cheville ou à 30 mmHg à l'orteil. 2) Classification de Leriche et Fontaine et de Rutherford Classification des différents stades de l'AOMI. Figure 1. Classification de Leriche et Fontaine et de Rutherford (EE: épreuve d'effort; PC: pression artérielle à la cheville; PO: Pression artérielle à l'hallux) 2 3) Classification TASC II des lésions sous inguinales La classification TASC II, tirée du consensus TASC 2007 (1) est la référence dans la description des lésions de l'axe fémoro-poplité. Figure 2. Classification TASC II pour les lésions sous-inguinales. 3 4) Définitions des critères étudiés La perméabilité primaire est définie par la perméabilité ininterrompue sans recours à une réintervention sur la zone traitée. La perméabilité secondaire : définie par la durée de perméabilité totale après un geste endovasculaire ou chirurgical sur sténose ou thrombose du geste de revascularisation initiale. Le sauvetage de membre est défini par l'absence d'amputation majeure réalisée sur le membre inférieur traité. L'amputation majeure étant définie par une amputation transfémorale ou trans-tibiale (l'amputation mineure étant définie par une amputation du pied : trans-métatarsienne, Chopart ou Lisfranc). Le TLR « target lesion revascularization » est définie par toute intervention chirurgicale ou endovasculaire réalisée sur la zone traitée, ainsi qu'1cm en amont ou en aval. Ce résultat est exprimé en « indemnité de TLR » qui correspond à l'absence de réintervention durant le suivi. Le TER « target extremity revascularization » est défini par toute intervention chirurgicale ou endovasculaire réalisée sur le membre traité en dehors de la zone traitée (par exemple une angioplastie iliaque externe chez un patient ayant eu une recanalisation fémoro-poplité par SAFARI sur le même membre). Ce résultat est exprimé en « indemnité de TER » qui correspond à l'absence de réintervention durant le suivi. Les complications locales sont définies par les complications qui surviennent au point de ponction rétrograde (jambier) durant tout le suivi. Il peut s'agir d'un hématome, d'une thrombose, d'une dissection, d'une fistule artério-veineuse, d'un faux anévrysme ou d'une infection locale. 4 B) La recanalisation sous-intimale Décrite en 1990 par Bolia, la recanalisation sous-intimale est une technique de revascularisation endovasculaire qui consiste à contourner une occlusion par la création et la dilatation d'un faux-chenal circulant dans l'espace sous-intimal débutant en amont de la lésion et réintégrant la lumière vasculaire native à son aval, lorsqu'une recanalisation intra-luminale classique n'est pas possible.(2) Figure 3. Recanalisation sous-intimale selon Bolia (3) La technique de recanalisation sous-intimale par voie antérograde classique peut s'avérer impossible du fait d'une impossibilité de réentrée dans la vraie lumière en aval de la lésion. Deux méthodes permettent de diminuer ce taux d'échec : la technique de double abord antérograde et rétrograde de SAFARI et les systèmes de réentrées endovasculaires avec aiguille intégrée. 5 C) Technique de SAFARI Dans notre service, nous avons opté pour la technique de double abord décrite par Spinosa en 2005, connue sous l'acronyme SAFARI (Subintimal Arterial Flossing with Antegrade-Retrograde Intervention). Cette technique nécessite un abord antérograde en amont et un abord rétrograde en aval de la lésion. L'abord rétrograde correspond à la ponction de manière rétrograde au flux artériel des artères de jambes ou de l'artère poplitée. Une recanalisation sous-intimale par voie rétrograde est donc réalisée. Le guide est récupéré en amont par une manoeuvre de rendez-vous. Le guide tendu en « téléphérique » permet ainsi de faciliter l'angioplastie au ballon de la lésion. Figure 4. Technique de SAFARI. Manoeuvre du rendez vous (4) D) Variantes de la technique 1) La manoeuvre du « rendez vous » La technique consiste en la rencontre de 2 guides ou sondes de part et d'autre de la lésion. Le guide de l'abord rétrograde est ensuite introduit dans la lumière de la sonde antérograde créant ainsi une recanalisation sous-intimale de la lésion. 6 2) La technique bidirectionnelle au ballon d'angioplastie Lorsque les 2 chenaux ne communiquent pas, 2 ballons d'angioplastie sont insérés de part et d'autre de la lésion en sous-intimale puis inflatés simultanément afin d'obtenir une communication et faciliter la manoeuvre de rendez vous. Figure 5. Technique bidirectionnelle au ballon d'angioplastie (5) 3) La CART technique (controlled antegrade and retrograde subintimal tracking). Cette technique est issue de la cardiologie interventionnelle. Elle consiste en la réalisation d'une inflation à l'aide d'un ballon dans l'une des extrémités de la lésion en sous-intimale. Lorsque l'inflation est sur la partie distale de la lésion, on parle de technique CART. Lorsqu'il s'agit de la partie proximale, on parle de la technique de r-CART(reverse-CART). Puis le guide est avancé dans l'espace sous-intimal par l'autre extrémité jusqu'au niveau de la zone élargie. La procédure est terminée soit par un seul accès, soit par double abord avec téléphérique après une manoeuvre du rendez vous. 7 Figure 6. Technique CART (6) Figure 7. Technique Reverse CART (6) 8 E) Les systèmes de réentrées. Pour les cas de réentrées complexes, une alternative est l'utilisation des systèmes de réentrées. Ce sont des dispositifs endovasculaires qui permettent à l'aide d'une aiguille de percer le flap de dissection et de pouvoir réintroduire le guide en aval de la lésion. La procédure est terminée de manière classique. Il existe 2 types de système de réentrée, les simples comme l'Outback® et les systèmes associés à une sonde d'échographie endovasculaire (IVUS) comme le Pioneer®. Figure 8. Système de réentrée simple : Outback Figure 9. Système de réentrée avec IVUS : Pioneer 9 III) Matériel et méthode A) Type d'étude Il s'agit d'une étude monocentrique, rétrospective réalisée sur les patients du service de chirurgie vasculaire du CHU de Caen de 2013 à 2016. B) Critères d'inclusion et d'exclusion des patients. 1) Critères d'inclusion. Les patients pris en charge pour une revascularisation sur une AOMI avec un échec par voie antérograde et traités par SAFARI ont été inclus. 2) Critères d'exclusion. Ont été exclus les patients suivants : - les patients en ischémie aiguë des membres inférieurs. - les patients traités par pontage fémoro-poplité ou fémoro-jambier plutôt que par SAFARI. - les patients ayant eu un SAFARI mais qui n'ont pas un minimum de données exploitables (pas de compte rendu opératoire). C) Recueil de données Les patients traités par SAFARI ont été retrouvés grâce à leur codage d'acte avec l'aide du DIM du CHU de Caen. Les codes demandés étaient les suivant : EDFA007 : Thromboendartériectomie iliofémorale, par abord inguinofémoral EEFA001 : Dilatation intraluminale de plusieurs artères du membre inférieur sans pose d'endoprothèse, par voie artérielle transcutanée 10 EEAF002 : Dilatation intraluminale d'une artère du membre inférieur avec dilatation intraluminale de l'artère iliaque commune et/ou de l'artère iliaque externe homolatérale avec pose d'endoprothèse, par voie artérielle transcutanée EEAF003 : Dilatation intraluminale d'une artère du membre inférieur sans pose d'endoprothèse, par voie artérielle transcutanée EEAF004 : Dilatation intraluminale d'une artère du membre inférieur avec pose d'endoprothèse, par voie artérielle transcutanée EEAF005 : Dilatation intraluminale d'une artère du membre inférieur avec dilatation intraluminale de l'artère iliaque commune et/ou de l'artère iliaque externe homolatérale sans pose d'endoprothèse, par voie artérielle transcutanée EEAF006 : Dilatation intraluminale de plusieurs artères du membre inférieur avec pose d' endoprothèse, par voie artérielle transcutanée EEPF001 : Recanalisation d'une artère du membre inférieur avec pose d'endoprothèse, par voie artérielle transcutanée EEPF002 : Recanalisation d'une artère du membre inférieur sans pose d'endoprothèse, par voie artérielle transcutanée EECA001 : Pontage artériel fémoro-poplité au-dessus de l'interligne articulaire du genou, par abord direct EECA008 : Pontage artériel fémoro-tibial ou fémoro-péronier sans collier veineux, par abord direct EECA010 : Pontage artériel fémoro-tibial ou fémoro-péronier avec collier veineux, par abord direct EECA012 : Pontage multiple étagé [séquentiel] ou bifurqué des artères des membres inférieurs, par abord direct NZFA002 : Amputation transtibiale 11 NZFA007 : Amputation transfémorale Les patients ou à défaut leur médecin traitant et angiologue ont été contactés par téléphone afin de récupérer les données de suivi. Le doppler de contrôle annuel était récupéré chez l'angiologue de chaque patient. Si ce dernier était trop ancien (> à 1an), un nouveau doppler était organisé afin de vérifier la perméabilité de l'axe revascularisé ainsi que la perméabilité de l'axe ponctionné. Les patients étaient questionnés sur leur état de santé globale, sur l'existence ou non d'une claudication artérielle ou d'une ischémie de repos et sur l'existence ou la persistance de troubles trophiques. Les revascularisations itératives sur le membre traité ont été colligées. Ils étaient également questionnés sur l'observance de la trithérapie médicamenteuse (AAP, statine et IEC) ainsi que sur la survenue de complications durant le suivi. Pour chaque patient, le dossier informatique du CHU de Caen (USV2) a été consulté afin d'en extraire les données nécessaires. Les données suivantes ont été colligées. 1) Les données épidémiologiques L'âge, le sexe, le score ASA et les facteurs de risque cardio-vasculaire : - hypertension artérielle (HTA) - diabète - dyslipidémie - tabagisme (actif ou sevré) Les comorbidités : - indice de masse corporel (IMC)>25 - insuffisance rénale chronique (IRC) - coronaropathie - accident vasculaire cérébrale (AVC) - pathologie pulmonaire 12 Le traitement pré-opératoire : - antiagrégant plaquettaire - anticoagulant - statine - inhibiteur de l'enzyme de conversion (IEC) ou antagonistes des récepteurs de l'angiotensine II (ARA2) 2) Les données pré-opératoires Les données pré-opératoires suivantes ont été recueillies : - le stade d'ischémie (d'effort ou de repos) - le stade de Rutherford - l'index de pression systolique (IPS) pré-opératoire. - classification TASC de la lésion, et sa localisation (fémorale superficielle, fémoropoplitée, poplitée ou jambière). 3) Les données opératoires Les données opératoires suivantes ont été recueillies : - durée d'intervention - gestes associés au SAFARI : thromboendartériectomie artérielle fémorale commune (TEA), angioplastie transluminale associé (iliaque ou jambière) ou amputation mineure - accès en amont de la lésion (fémorale homolatérale, fémorale controlatérale ou humérale) - nécessité ou non de mise en place de stents, nombre de stents et longueur des stents - artère ponctionnée en rétrograde - justification de la ponction (dissection ou franchissement impossible) - le succès technique : défini comme un succès de franchissement de la lésion avec un résultat angiographique satisfaisant après angioplastie (sténose inférieur à 30%) - « run off » : nombres d'axe de jambe perméables en fin de procédure - quantité de produit de contraste utilisé. 13 4) Les données post-opératoires et du suivi Les données post-opératoires suivantes ont été recueillies : - la durée de séjour hospitalier - les complications locales - les complications générales : infarctus du myocarde (IDM), AVC et ischémie aigue - la mortalité à J30 - la mortalité au décours du suivi - la durée moyenne de suivi - le taux de sauvetage de membre - le taux d'amputation mineure - le taux d'amputation majeure - resténose intra-stent: définie à l'écho-doppler par une réduction du chenal circulant de plus de 50% associée à un index de vélocité supérieur à 2,4 - thrombose intra-stent : définie par l'absence complète de signal doppler dans le stent - IPS post opératoire - cicatrisation ou non si le patient présentait un Rutherford 5 ou 6 initialement D) Objectifs de l'étude 1) Objectif principal L'objectif principal de cette étude était l'évaluation de la perméabilité primaire, définie comme la perméabilité ininterrompue sans recours à une réintervention sur le membre traité(7). 2) Objectifs secondaires Les objectifs d'évaluations secondaires étaient les suivants : - le taux de complication locale - perméabilité secondaire - le sauvetage de membre - le taux d'indemnité de TLR - le taux d'indemnité de TER 14 Des analyses en sous groupes de la perméabilité primaire ont également été réalisées. Les critères étudiés étaient les suivants : - le statut clinique (ischémie d'effort ou ischémie chronique permanente) - les données épidémiologiques suivantes : âge, diabète, tabagisme, IRC, - les données opératoires suivantes : run-off, longueur de la zone stentée E) Technique opératoire Les patients étaient installés en décubitus dorsal. Une anesthésie locale était réalisée au point de ponction d'accès antérograde (fémorale : homo ou controlatérale, humérale). Une anesthésie locale complémentaire était réalisée au point de ponction rétrograde jambier. Dans certains cas, l'anesthésie était générale ou locale potentialisée afin d'éviter les mouvements du patient ou lorsqu'une chirurgie hybride avec un geste de TEA fémorale était associé au traitement endovasculaire. Une tentative de revascularisation antérograde était d'abord tentée chez tous les malades, par ponction fémorale homolatérale ou controlatérale à la lésion. La technique de SAFARI était utilisée soit d'emblée en cours de procédure , soit une seconde intervention était programmée afin de réaliser cette technique. Une anticoagulation per-opératoire par héparine sodique à la dose de 0,5 mg/kg était réalisée. Une artériographie centrée sur la jambe était réalisée afin de repérer l'artère cible qui sera ponctionnée. Une anesthésie locale était réalisée au niveau du point de ponction. L'artère était ponctionnée par une aiguille 21 G Cook® sous « roadmaping » (cartographie angiographique) selon un angle de 60°. On cathétérise cette dernière de manière rétrograde avec un guide 0,018 ou 0,014 La recanalisation rétrograde sous-intimale était obtenue à l'aide d'une sonde de franchissement de 0,018. Par l'abord antérograde un cathéter de navigation et un guide étaient mis en place également dans la lésion en sous-intimale. Une fois que les 2 guides étaient en contact dans l'espace sous-intimal, le guide de l'abord rétrograde était récupéré dans la sonde proximale par une manoeuvre du rendez vous. 15 Figure 10. Schéma descriptif de la technique de SAFARI. (FC : fémorale commune; FP : fémorale profonde ; FS : fémorale superficielle; P : poplitée; TA : tibiale antérieure; Fib : fibulaire; TP : tibiale postérieure) Le guide récupéré par l'abord antérograde était fixé en distalité soit par une pince soit par un torqeur afin de le sécuriser et ne pas perdre le téléphérique. La suite de l'intervention consistait en une procédure standard comprenant une dilatation de la lésion à l'aide de ballon d'angioplastie, suivie de la mise en place de stents autoexpansibles en nitinol. L'utilisation de stent était motivée par les recommandations de bonne pratique à savoir : persistance après dilatation au ballon simple, d'une lésion supérieure à 50%, d'un recoil et/ou la présence d'une dissection résiduelle instable. 16 Figure 11. Schéma du téléphérique avec mise en place de stent (FC : fémorale commune; FP : fémorale profonde ; FS : fémorale superficielle; P : poplitée; TA : tibiale antérieure; Fib : fibulaire; TP : tibiale postérieure) Après avoir traité la lésion, le guide était retiré du bas vers le haut. Puis l'artère distale ponctionnée était cathétérisée de manière antérograde et on réalisait une dilatation endoluminale au niveau du point de ponction distal afin d'obtenir l'hémostase locale. En fin de procédure un pansement semi compressif était réalisé en regard du point de ponction distal. L'hémostase au point de ponction proximale était réalisée soit par un système de fermeture soit par une compression manuelle de 15 minutes suivie de la mise en place d'un pansement semi compressif. 17 Figure 12. Hémostase endoluminale du point de ponction rérograde (FC : fémorale commune; FP : fémorale profonde ; FS : fémorale superficielle; P : poplitée; TA : tibiale antérieure; Fib : fibulaire; TP : tibiale postérieure) En post-opératoire, selon le protocole du service durant cette période, les patients bénéficiaient d'une bi-antiagrégation pour une durée minimum de 3 mois. Les patients qui étaient sous anticoagulation curative restaient sous mono-antiagrégation plaquettaire au long cours. Les patients bénéficiaient d'un écho doppler de suivi à 1,3 et 6 mois puis tous les ans en l'absence d'évènement intercurrent. Les patients qui étaient au stade d'ischémie chronique permanente avec troubles trophiques étaient suivis de manière plus rapprochée. 18 F) Analyse statistique Les analyses statistiques descriptives et de suivi tardif ont été réalisées à l'aide d'Excel 2008 et de SAS (Statistical Analysis System). Les variables quantitatives continues ont été exprimées en moyenne. Les variables quantitatives discontinues ont été exprimées à l'aide de la médiane et des extrêmes. Les variables qualitatives ont été exprimées en pourcentage d'une population de référence. Les analyses tardives concernant la survie, les analyses de perméabilité et les analyses de perméabilité en sous groupes ont été réalisées selon la méthode de Kaplan Meier. Une valeur de p<0.05 était considérée comme statistiquement significative pour l'ensemble de ces comparaisons. 19 IV) Résultats A) Caractéristiques de la population Figure 13 Flowchart de la population incluse Entre le 1er octobre 2012 et 1er janvier 2017, 77 patients ont été inclus dans cette étude, avec 81 membres traités par SAFARI dont 2 échecs. L'âge moyen de notre population était de 80,4 +/- 9,3 ans. Le sexe masculin était plus important dans la cohorte : 44 hommes (57,2%) et 33 femmes (42,8%). Le score ASA était connu chez 59 patients et se répartissait ainsi : 2 chez 11 patients (14,3%), de 3 chez 46 patients (59,7%), de 4 chez 2 patients (2,6%) ; Il était inconnu chez 18 patients (23,4%) car n'ayant pas eu de consultation d'anesthésie. La répartition du score ASA dans la population est représentée dans la figure suivante. 20 Répartition du score ASA dans la population 23,4% 14,3% 2,6% ASA 2 ASA 3 ASA 4 59,7% Inconnu Figure 14 Répartition du score ASA dans la population Les principaux facteurs de risque étaient une HTA (n=61, 81,8%), un diabète (n=35, 45,5%) et une dyslipidémie (n=54, 70,1%) Les facteurs de risques cardiovasculaires et comorbidités sont résumés dans le tableau suivant. Facteurs de risques et N (%) comorbidités HTA 61 (81,8) Diabète 35 (45,5) Type I 6 (7,8) Type II 29 (37,7) Dyslipidémie 54 (70,1) Tabac 29 (37,7) Sevré 26 (33,8) Actif 3 (3,9) IMC>25 30 (38,9) IRC 18 (23,4) Coronaropathie 41 (53,2) AVC 11 (14,3) Pathologie pulmonaire 9 (11,7) Tableau 1. Facteurs de risques et comorbidités 21 B) Traitements pré-opératoires Dans la cohorte, 94,8 % des patients étaient traités par antiagrégant plaquettaire (AAP) en pré opératoire (n=73) Les autres traitements préopératoires sont résumés dans le tableau suivant. Traitements pré-opératoire N (%) AAP 73 (94,8) Mono-AAP 60 (77,9) Bi-AAP 13 (16,9) AVK 15 (19,5) Statine 52 (67,5) IEC/ARA 2 46 (59,7) Tableau 2. Traitement pré-opératoire C) Stade Rutherford Dans 31,2% des cas (24 patients), l'indication était une ischémie d'effort de type claudication artérielle, résistante au traitement médical optimal (Rutherford 3). Dans 68,8% des cas (53 patients), l'indication était une ischémie chronique permanente dont 16,3% au stade de douleurs de repos (Rutherford 4) et 54,5% au stade d'ischémie avec troubles trophiques (Rutherford 5 et 6). L'index de pression systolique moyen à la cheville en pré opératoire était de 0,55 +/0,18. La répartition de la cohorte en fonction du stade clinique de Rutherford ainsi que du type d'ischémie est résumée dans les tableaux suivants. 22 Stade Rutherford 31,2% 54,5% Stade 3 Stade 4 16,3% Stade 5 et 6 Figure 15. Stade de Rutherford de la population Clinique N(%) Type d'ischémie Effort 24 (31,2) Repos 53 (68,8) Avec troubles trophiques 42 (54,5) Sans troubles trophiques 11 (16,3) IPS pré-op (moyenne +/- SD) 0,55 +/- 0,18 Tableau 3. Statut clinique pré-opératoire 23 D) Localisation des lésions et classification TASC La majorité des patients de la cohorte présentaient des lésions longues TASC II D (n=66, 81,5%). Le tableau suivant résume la répartition des malades selon la classification TASC. Classification TASC 1% 17% B 82% C D Tableau 4. Classification TASC de la population Ces lésions intéressaient l'axe fémoro-poplité sur toute sa longueur (n=28, 34,6%) soit uniquement sur le segment poplitée (n=25, 30,9%). Pour 12 membres (14,8%) il s'agissait de lésions de la fémorale superficielle et pour 10 membres (12,3%) il s'agissait de lésions purement jambières. Les autres localisations mixtes sont résumées dans le tableau suivant. 24 Localisation des lésions Fémorale superficielle N (%) 12 (14,8) Poplitée 25 (30,9) Jambière 10 (12,3) Fémoro-poplitée 28 (34,6) Fémoro-poplitée et jambière 4 (4,9) Poplito-jambière 2 (2,5) Tableau 5. Localisation des lésions dans la population E) Données per-opératoires Le temps moyen de procédure était de 135,38 +/- 46,99 min. Les procédures associées à la recanalisation par SAFARI étaient : - soit une procédure endovasculaire (n=29, 35,8%) - soit une chirurgie hybride avec la réalisation d'une TEA fémorale commune (n=9, 11,1%) - soit une amputation mineure (n=9, 11,1%). Pour l'accès antérograde : - un accès percutané fémoral homolatéral a été réalisé dans 59,3% des cas - un accès percutané huméral a été réalisé dans 1 cas (1,2%) - un accès percutané fémoral controlatéral en cross-over a été réalisé dans 39,5% des cas. 25 Figure 16. Localisation de l'accès antérograde dans la population Les lésions ont été stentées dans 91,1% des cas (n=72). Le nombre moyen de stent par lésion traitée était de 1,9 +/- 0,79. La longueur de moyenne de stent était de 205,4 +/- 109,3 mm. Les diamètres de stent sont regroupés dans le tableau 7. Pour l'accès rétrograde : - l'artère tibiale antérieur était la plus ponctionnée des 3 artères de jambe (n=43, 54,4%). - l'artère tibiale postérieure a été ponctionnée 15 fois (19%). - l'artère fibulaire a été ponctionnée 20 fois (25,3%). - le tronc tibio-fibulaire (TTF) a été ponctionné 1 fois (1,3%). 26 Le SAFARI était justifié par une impossibilité de franchissement de la lésion dans 11 cas (13,9%) ou par une impossibilité de réentrée dans la vraie lumière (trajet de dissection sous-intimale) dans 68 cas (86,1%). Le succès technique du geste de revascularisation par double abord était dans cette série de 97,5% (n=79). Il y a eu 2 échecs liés à une impossibilité de ponction des artères de jambes du fait d'une calcification pariétale trop importante. Le lit d'aval (« run-off ») était constitué d'une artère de jambe dans 34,2% des cas, de deux artères dans 38% des cas et de trois artères dans 27,8% des cas. La quantité de produit de contraste utilisé pendant ces procédures était de 80,06 +/24,83 ml. Toutes les informations concernant les données per-opératoire sont regroupées dans le tableau suivant. 27 Données per-opératoires N (%) Temps d'intervention, min (moyenne+/SD) 135,38 +/- 46,99 Procédures associées Endovasculaire Dilatation iliaque Dilatation fémorale commune Dilatation artères de jambes 29 (35,8) 4 (4,9) 5 (6,2) 20 (24,6) Chirurgicale TEA fémorale commune 9 (11,1) 9 (11,1) Amputation Mineure Majeure 9 (11,1) 9 (11,1) 0 (0) Accès antérograde Fémoral homolatéral Huméral Fémoral controlatéral 48 (59,3) 1 (1,2) 32 (39,5) Lésions stentées Longueur de stent par lésion traité en mm (moyenne+/-SD) Nombres de stents par lésion traité (moyenne+/-SD) Diamètre des stents 3 mm 4 mm 5 mm 6 mm 7 mm 72 (91,1%) 205,4 +/- 109,3 1,9 +/- 0,79 2 (1,5) 6 (4,4) 45 (32,8) 82 (59,8) 2 (1,5) Accès rétrograde TA TP Fibulaire TTF 27 (34,2) 30 (38) 22 (27,8) 1 (1,3) Justification Echec de franchissement Echec de réentrée 11 (13,9) 68 (86,1) Succés technique 79 (97,5) Nombres d'artères de jambes (Runoff) 1 2 3 79 (100) 43 (54,4) 15 (19) 20 (25,3) Volume de PDC, ml (moyenne+/-SD) 80,06 +/- 24,83 Tableau 6. Données per-opératoire 28 F) Données postopératoires et du suivi La durée d'hospitalisation moyenne était de 5,94 +/- 9,04 jours et la médiane était de 2 jours. Le taux de complication locale à la suite de la ponction d'artère de jambe au décours du suivi était de 11,1%. Il s'agissait d'une fistule artério-veineuse jambière et de 8 thromboses. Le taux de complications générales était de 8,9% (4 SCA, 1AVC et 1 ischémie aigue de membre). Le taux de mortalité à 30 jours était de 6,5% (n=5). Il s'agissait de 2 infarctus du myocarde, d'un choc septique, d'un choc hémorragique sur un hématome de paroi abdominale, d'une insuffisance rénale aigue anurique associée à une anémie grave. La mortalité au décours du suivi a concerné 35 patients (45,5%). La durée moyenne de suivi était de 32,6 +/- 21,4 mois. Sur les 42 patients en stade de Rutherford 5 ou 6, 19 patients (45,2%) ont cicatrisé après le geste de revascularisation et 23 (54,8%) n'ont pas cicatrisé. L'IPS post op moyen était de 0,87+/- 0,17au décours du suivi. Au terme de l'étude nous avons eu 2 perdus de vus. Le taux de sauvetage de membre de notre population était de 96,1% (n=74). Cependant, une amputation mineure a été nécessaire dans 18,2% des cas (n=14) et une amputation majeure dans 2,6% des cas (n=2). Le taux de resténose intrastent était de 18,2% durant le suivi avec un délai moyen d'apparition de 12,7 +/- 7,6 mois. Quand au taux de thrombose intrastent, il était de 27,3% durant le suivi avec un délai moyen d'apparition 21,2 +/- 20,4 mois. . 29 Évènements post opératoire et du suivi N (%) Durée d'hospitalisation, jours (moyenne+/-SD) Durée d'hospitalisation, jours (médiane) Complications locales Complications majeures Décès J30 Mortalité (suivi) Causes de décès : AVC IDM IC Pneumopathie IR Autres 5,94 +/- 9,04 Suivi (mois) 32,6 +/- 21,4 Amputation : Mineure Majeure 14 (18,2) 2 (2,6) 2 9 (11,1) 7 (8,9) 5 (6,5) 36 (46,8) 4 (5,2) 2 (2,6) 5 (6,5) 2 (2,6) 3 (3,9) 20 (25,9) Resténose intra-stent (ISR) Delai (mois) 14 (18,2) 12,7 +/- 7,6 Thrombose intrastent Délai (mois) 12 (15,6) 17,5 +/- 13,8 Sauvetage de membre IPS post op 74 (96,1) 0,87 +/- 0,17 Cicatrisation Oui Non 19 (45,2%) 23 (54,8%) Tableau 7. Évènements post opératoire et du suivi 30 G) Analyse du suivi 1) Analyse des données du suivi Le taux de perméabilité primaire était à 1 an et à 5 ans respectivement de 71,8 +/5,7 % et 44,3 +/- 6,9 %. Figure 17. Perméabilité primaire durant le suivi Le taux de perméabilité secondaire était à 1 an et à 2 ans respectivement de 79,8 +/9,1% et 68,4 +/- 13,1%. Figure 18. Perméabilité secondaire durant le suivi 31 Le taux de mortalité était à 1 an et à 5 ans respectivement de 22,9 +/- 4,8 % et de 46,8 +/- 6,3 % . Figure 19. Mortalité durant le suivi Le taux d'indemnité de TLR était de 59,6 +/- 6,5% à 5 ans. La figure représente l'indemnité de TLR durant le suivi. Figure 20. Taux d'indemnité de TLR durant le suivi 32 Le taux d'indemnité de TER était de 75,8 +/- 5,7 % à 5 ans La figure représente l'indemnité de TER durant le suivi. Figure 21. Taux d'indemnité de TER durant le suivi 33 2) Analyse de sous groupes. La perméabilité primaire a été analysée en fonction de plusieurs paramètres. Le statut clinique et le diabète semblent influencer de façon significative la perméabilité. La perméabilité primaire était plus importante pour les patients au stade d'ischémie d'effort comparée aux patients au stade d'ischémie chronique permanente. (p=0,0019) Figure 22. Perméabilité primaire en fonction du statut clinique (1: claudication; 2 : ICP) Une analyse de ces 2 sous-groupes par un test de Khi 2 montre que : - les patients du groupe claudicants présentent un runoff plus important que les patients du groupe ischémie chronique et ce de manière significative (p=0,0010). - la longueur de la zone stentée était moins importante dans le sous groupe des patients claudicants comparé aux patients en ischémie chronique (p=0,0285). 34 La perméabilité primaire était significativement meilleure chez les patients non diabétiques (p=0,0213) Figure 23. Perméabilité primaire en fonction du diabète (0: pas de diabète; 1:diabète) Les autres analyses en sous groupe n'ont pas mis en évidence de facteur influençant de façon significative la perméabilité primaire. L'IRC n'influence pas la perméabilité primaire de manière significative. (p=0,055) Figure 24. Perméabilité primaire en fonction de l'IRC (0: pas d'IRC; 1:IRC) 35 L'âge n'influence pas la perméabilité primaire de manière significative. (p=0,6316) Figure 25. Perméabilité primaire en fonction de l'âge (bleue : moins de 80 ans, rouge : plus de 80 ans) La longueur de la zone stentée n'influence pas la perméabilité primaire de manière significative. (p=0,1382) Figure 26. Perméabilité primaire en fonction de longueur de la zone stentée (bleue : moins de 190 mm; rouge : plus de 190 mm) 36 Le tabagisme n'influence pas la perméabilité primaire de manière significative (p=0,1149) Figure 27. Perméabilité primaire en fonction du tabac (1: pas de tabac, 2 : tabagisme sevré) Le runoff n'influence pas la perméabilité primaire de manière significative. (p=0,1283) Figure 28. Perméabilité primaire en fonction du runoff (1:1 axe de jambe; 2 : 2 axes de jambe; 3 : 3 axes de jambes) 37 Analyse 1 an 5 ans Terme du suivi p PP 71,8% 44,3% _ _ PS 79,8% 68,4% _ Mortalité 22,9% 46,8% 46,8% _ TLR _ 59,6% 59,6% _ TER _ 75,8% 75,8% _ PP/Clinique _ _ _ 0,0019 PP/diabète _ _ _ 0,0213 PP/IRC _ _ _ 0,055 PP/âge _ _ _ 0,6316 PP/LS _ _ _ 0,1382 PP/tabac _ _ _ 0,1149 PP/runoff _ _ _ 0,1283 Tableau 8. Récapitulatif des différentes analyses du suivi (PP : perméabilité primaire; PS : perméabilité secondaire ; LS : longueur de la zone stentée) 3) Comparaisons de l'IPS et du Rutherford pré et post opératoire. En moyenne, l'IPS avait progressé de 0,32 point après revascularisation, au terme du suivi. (IC 95% [0,27 ; 0,37] ; p<0,0001). En moyenne, le score de Rutherford avait régressé de 2,79 points après revascularisation, au terme du suivi. (IC 95% [2,34 ; 3,24] ; p<0,0001) 38 Figure 29. Comparaison entre l'IPS pre et post opératoire, au terme du suivi Figure 30. Comparaison entre le Rutherford pré et post opératoire, au terme du suivi 39 V) Discussion A) Place de l'endovasculaire pour les lésions TASC C et D La prise en charge des lésions longues fémoro-poplitées TASC C et D a considérablement évolué ces dernières années. Selon le consensus TASC de 2007, la prise en charge de ce type de lésion doit être chirurgical.(1) Avec l'avènement des nouvelles techniques endovasculaires, le taux de succès des procédures de recanalisation longue est devenu très satisfaisant et de nombreux praticiens optent pour cette modalité en première intention. Elle permet le traitement de patients pour lesquels une chirurgie semble trop lourde. Toutefois, l'angioplastie transluminale simple au niveau de l'artère fémorale superficielle est associée à un taux élevé de resténose, de l'ordre de 40 à 60 % à un an. (8,9) L'implantation de stents a permis d'améliorer la perméabilité primaire à 1 an des revascularisations fémoropoplitées avec des valeurs qui oscillent autour de 70% selon les études.(9–12) Si la mise en place d'un stent peut être discutée dans les cas d'angioplastie pour sténose isolée, son indication est plus évidente dans les recanalisations. Le développement des stents en nitinol a permis d'améliorer la perméabilité primaire, avec des résultats proches du gold standard qui reste le pontage veineux pour les lésions TASC C et D.(13,14) Les résultats rapportés par l'étude BASIL(15) décrivaient cependant une tendance à la supériorité du pontage fémoro-poplité veineux en terme de survie sans amputation à partir de 2 ans. La recanalisation sous-intimale, décrite par Bolia(2) a permis de prendre en charge des lésions qui étaient jusqu'alors inaccessibles à un traitement endovasculaire classique. Cette technique nécessite le plus souvent la mise en place de stents sur toute l'étendue de la zone recanalisée afin d'obtenir un résultat artériographique satisfaisant. Il existe cependant des échecs de ces recanalisations longues TASC C et D par voie antérograde qui se situe autour de 20% dans la littérature. (16–18) De plus, cette façon de faire présente un risque majeur. 40 En effet, la zone d'artère saine en aval de l'occlusion est le siège des collatérales de réentrée. Si la recanalisation sous-intimale s'étend en regard ou au delà de celles-ci, elle entraîne un risque d'arrachement de l'intima en regard de ces artères collatérales et donc un risque de perte du réseau de suppléance. En cas d'échec de la procédure ou de thrombose des stents implantés, le risque d'ischémie aigue se majore. Ce manque de précision dans la réentrée est responsable du sacrifice de la collatéralité qui assure la vascularisation, à minima, de la jambe. Il peut également exister à distance de la procédure une hyperplasie myo-intimale résultante de la réaction de la paroi artérielle au stent (« shear-stress ») qui est un facteur de resténose et de rethrombose sur la zone traitée. (19) La thrombose intrastent s'accompagne alors d'un retour au statut clinique antérieur ou d'une aggravation avec ischémie aigue ou chronique. La technique SAFARI permet de réduire ce risque de lésion du réseau de suppléance en initiant une recanalisation par voie rétrograde au plus proche de la zone occluse. Le risque de lésion des artères collatérales est donc diminué. La mise en place de stent se limite par ailleurs strictement à la zone initialement occluse. Le SAFARI permet également de réduire le taux d'échec de recanalisation de ces lésions complexes. B) Analyse de nos résultats 1) Perméabilité primaire des recanalisations fémoro-poplitée TASC C et D On ne comparera pas la perméabilté des recanalisations par voie antérograde et rétrograde car ce sont des techniques complémentaires, la deuxième étant utilisée après échec de la première. Ceci explique l'absence d'étude prospective comparative dans la littérature. Dans notre étude le taux de perméabilité primaire à un an était satisfaisant (71,8 %). Les données sur la perméabilité primaire des autres études oscillent entre 27 et 69%.(20–23) Dans ces différentes études, la perméabilité primaire était toujours significativement meilleure dans le sous groupe des patients claudicants comparée aux patients en ischémie chronique permanente. 41 Nous observons également cela dans notre étude puisque la perméabilité primaire est significativement supérieure chez les patients claudicants. L'analyse de ces 2 groupes montre que les patients claudicants présentent un runoff plus important ainsi qu'une longueur de zone stentée (reflet de la longueur de la lésion) plus courte, et ce de manière significative. D'ailleurs, Soga(24)) et al en 2015 retrouvaient dans leur série une perméabilité primaire oscillant entre 66 et 83,2% en fonction de la longueur de la lésion. La proportion de patient en ischémie chronique était légèrement plus importante que celle des claudicants dans ces études ce qui peux expliquer une perméabilité plus faible que la notre. Nous avons mis en évidence dans notre étude que le diabète influence de façon péjorative la perméabilité. Malgré une proportion de malades diabétiques plus importante dans notre étude que dans d'autres (45,5% versus 29% cher Tisi(23) et 19% cher London(20)), la perméabilité primaire reste cependant meilleure dans notre série. Ce paradoxe s'explique probablement par le fait que nous avons dans notre cohorte une proportion de patients claudicants non négligeables (30,2%). Le taux de perméabilité primaire au terme du suivi était de 44,3% dans notre étude. Les suivis les plus longs que nous avons retrouvés dans la littérature sont ceux de Smith(22) et London(20) qui retrouvaient une perméabilité primaire respectivement de 25 et 46% à 36 mois. Plus récemment, Davaine et al dans l'étude STELLA(25) en 2014 retrouvaient une perméabilité primaire à 1 an de 68,6 % et de 65,1% à 30 mois. Cette étude concernait la prise en charge des lésions TASC C et D de manière antérograde classique. La conclusion de cette série prospective était que la prise en charge endovasculaire des lésions fémoro-poplitées de plus de 15 cm de longueurs était sûre et durable dans le temps. Les caractéristiques des malades de cette étude sont proches de ceux de la notre et nous conduisent à des conclusions similaires. 42 Pour ce qui est des études avec la technique de SAFARI, Chou et al(26) retrouvaient des taux de perméabilité primaire à un an extrêmement faible de l'ordre de 35% (dans le groupe CART technique et dans le groupe avec une approche conventionnelle rétrograde). Cependant il faut noter que dans cette étude la proportion de patient en ischémie chronique était de 86,2 % avec des longueurs de lésions de 24,3 cm en moyenne alors que dans notre série le taux de patient en ischémie chronique était de 68,8% et la longueur stentée moyenne était de 20,5 cm. De plus, le runoff n'était pas évalué dans cette étude. Dans la série de Hua(27), la perméabilité primaire à 1 an était quasiment similaire à la notre (75%), sur des lésions TASC C et D avec une longueur de lésion moyenne traitée de 25 +/- 12 cm ce qui est proche des caractéristiques de notre cohorte. Noory et al(28) observent une perméabilité primaire à 1 an de 45,1%. Ils ne décrivent pas le ratio entre les patients claudicants et en ischémie chronique dans leur étude. Younes et al(29) dans leur série décrivaient un taux de perméabilité primaire à 2 ans de 66,9% sachant que sa population étudiée se composait de 67% de claudicants. On constate donc bien dans cette analyse le lien étroit entre le statut clinique des patients et la longévité de la perméabilité primaire du geste de revascularisation. Etude Effectif Antérograde/SAFARI Succès PP à 1 an technique 2018 Brouillet(30) 209 Antérograde - 67% 2015 Soga(24) 691 Antérograde - 66-83,2% 2012STELLA(25) 62 Antérograde - 68,6% 2005 Smith(22) 48 Antérograde 82% 25-69% 2003 Lipsitz(21) 39 Antérograde 87% 63,8% 2002 Tisi(23) 148 Antérograde 85% 27% 1994 London(20) 200 Antérograde 80% 56% 2009 Noory(28) 56 SAFARI 98,2% 45,1% 2013 Hua(27) 38 SAFARI 100% 78,9% 2016 Chou(26) 121 SAFARI 84,3% 35% Notre étude 77 SAFARI 97,5% 71,8% Tableau 9. Perméabilité des recanalisations longues dans la littérature 43 2) Facteurs de risque indépendants de perte de perméabilité primaire Dans notre étude, le statut clinique (claudication et ICP) influence significativement la perméabilité primaire à 1 an (p=0,0019). Les patients présentant une claudication ont une perméabilité primaire significativement meilleure que les patients en ischémie chronique permanente. Cette constatation est retrouvée dans la littérature, notamment dans l'étude STELLA par Davaine et al(31) qui retrouvait une différence significative en terme de perméabilité primaire à 1 an entre les 2 groupes (p=0,017). L'analyse des 2 sous groupes a permis d'identifier 2 facteurs expliquant la différence de perméabilité dans notre étude. En effet dans le sous groupes des patients claudicants, le runoff était plus important que dans le sous groupe ischémie de repos (p=0,0010). La longueur de la zone stentée était moins importante dans le sous groupe des patients claudicants (p=0,0285). Ces constatations nous mènent donc à penser que le runoff et la longueur de la lésion influent sur la perméabilité primaire d'une recanalisation fémoropoplitée bien que l'analyse séparée de ces variables sur la population générale ne ressorte pas de manière significative. Le diabète influence également négativement la perméabilité primaire à un an (p=0,0213). Cette constatation est retrouvée dans la littérature, notamment Bakken(32) qui décrivait une diminution de la perméabilité primaire et un taux de resténose plus élevée chez les patients présentant un diabète insulinodépendant. La micro-angiopathie liée au diabète explique cette constatation du fait de l'altération du runoff. Ces résultats incitent donc à une surveillance plus étroite chez les patients diabétiques et en ischémie chronique permanente afin de ne pas méconnaitre une resténose qui mettrait en péril la perméabilité du geste de recanalisation. 44 Nous n'avons pas retrouvé d'autres facteurs influençant de façon significative la perméabilité. Même s'ils n'ont pas atteint le seuil de la significativité, 3 paramètres retiennent notre attention par leur potentielle influence sur la perméabilité. Cette constatation est valable pour : - les patients insuffisants rénaux chroniques (perméabilité primaire plus faible chez les patients présentant une IRC) (p=0,055) - la longueur de la zone stentée (supérieur à 190mm) (p=0,1382) - le runoff (p=0,1283) Matsumi(33) observait un taux de perméabilité primaire plus faible chez les patients hémodialysés (insuffisance rénale chronique terminale) traités pour une lésion occlusive fémorale superficielle. Mousnier(34) et Lazaris(35) retrouvaient une perméabilité primaire plus importante chez les patients présentant une lésion fémoro-poplité plus courte. En effet Lazaris(35) retrouvait une perméabilité primaire à 1 an de 66% chez les patients ayant une lésion inférieure à 30 cm tandis qu'elle était de 33% chez les patients présentant une lésion supérieur à 30 cm. Dans la littérature Keeling(36) et Lazaris(35) retrouvaient le run-off comme facteur influençant la perméabilité. Plus le nombre d'artère de jambe perméable est grand plus la perméabilité primaire augmente. Chez Lazaris(35), la perméabilité primaire à 1 an était de 81% chez les patients avec 2 ou 3 axes de jambes perméables tandis qu'elle était de 25% chez les patients avec un seul axe de jambe perméable. Nous n'avons pas pu colliger la taille des lésions dans notre étude cependant la longueur de la zone stentée est en quelque sorte le reflet de la taille de la lésion. Ces données incitent donc à une surveillance étroite des patients revascularisés et qui présentent un de ces 3 facteurs. 45 Pour ce qui est du tabac, bien qu'il s'agisse d'un facteur de risque de resténose reconnu dans la littérature, notre étude n'a pas pu montrer de différence en ce qui concerne la perméabilité primaire puisque seulement 3 patients de la cohorte présentaient un tabagisme actif. La majorité de la cohorte n'avait jamais eu de comportement addictif ou alors était sevrée avant la prise en charge. Le sexe et l'âge des patients n'ont également pas montré d'influence sur la perméabilité primaire ce qui est conforme aux données de la littératures. En effet, bien qu'il s'agisse de facteurs de risques cardiovasculaires reconnus, ils n'ont jamais été incriminés dans la resténose après mise en place de stent. 46 Le tableau suivant résume les études les plus importantes ou la technique de SAFARI était utilisée. Séries Effectif CL/ICP Artère (%) Lésion Succès Complica- PP à Sauveta- Suivi ponctio- techni- tion locale 1 an ge de (mois) nnée que N (%) (%) membre (%) Spinosa 21 NC 2005(54) 11 (%) FS 100 0 NC 90 (6mois) NC poplitées/ 10 jambieres Montero- 51 12/88 jambières P/BTK 86,3 1 (1,9) NC NC NC 56 NC poplitées FS 98,2 3(5,3) 45,1 NC NC 50 62/38 FS FS 96 6(12) NC NC 1 38 31,6/68,4 poplitées/ FS 100 (8)21 78,9 80 19 FS/P/ 78,4 1(1,96) NC 82,3 à 1 an 12 89 2(2) NC 64 à 1 an 8 85,3 1(0,5) NC NC 1 92,6 108(12,25) NC NC NC 84 48(4,1) NC NC NC 100 0 NC 100% 12,6 Baker 2008(16) Noory 2009(28) Schmidt 2012(65) Hua 2013(27) jambières (16 artères exposés) Ruzsa 51 0/100 jambières 2014(18) Sabri BTK 92 0/100 jambières 2015(48) Walker FS/P/BT K 197 32,5/67,5 jambières 2016(51) I/FS/P/ BTK Marma- 881 gkiolis méta- 2017(17) analyse Welling 1168 2018(53) méta- 31,3/68,7 jambières FS/P/ BTK 20,3/79,7 jambières FS/P/ BTK analyse Silvestro 41 0/100 2018(7) Notre poplitées/ FS/P jambières 77 31,2/61,8 jambières (1an) FS/P 97,5 9(11,1) étude 71,8 96,1% (terme du suivi) Tableau 10. Principales séries de recanalisation par la technique de SAFARI 47 32,6 3) TLR et TER Nos résultats témoignent d'un taux non négligeable de réintervention au niveau de la zone traitée (indemnité de TLR : 59,6%) au terme de l'étude. Le taux de réintervention à distance de la zone traitée était meilleur (indémnité de TER : 75,8%) au terme de l'étude. Dans deux cohortes prospectives étudiant l'efficacité du stenting long sur les lésions TASC C et D, le suivi sans reprise sur la zone traitée (indemnité de TLR) à 1 an etait de 68,2 % pour Bosiers(37) et de 81,1 % pour l'étude STELLA(25). Dans l'étude de Sultan(38) comparant le stenting sélectif versus les pontages pour des lésions TASC C et D, en terme de d'indemnité de TLR à 5 ans, le taux était de 85.9 %. Nous expliquons ce taux de TLR plus important comparé à la littérature par le fait que durant notre étude, les lésions occlusives étaient systématiquement stentées dans leurs intégralités après recanalisation. Ce stenting long bien que donnant un excellent résultat post opératoire immédiat, s'avère présenter des taux de thromboses à moyen terme très important souvent en rapport avec une hyperplasie myointimale plus intense et des fractures de stents comme le décrivait Scheinert(39)(perméabilité primaire à 1 an de 41,1 % dans le groupe stent fracturé). L'attitude généralement adoptée à présent consiste à favoriser les angioplasties prolongées pendant 3 minutes au ballon simple. Cette angioplastie est suivie par la mise en place de stents sur les zones de dissection instables ou de recoïl important. 4) Sauvetage de membre et cicatrisation Le taux de sauvetage de membre dans notre série était de 96,1%. Seuls 2 patients ont dû subir une amputation majeure durant tous le suivi. Hua(27) dans sa série avec des proportions similaires en terme de statut clinique (31,6% de claudicants et 68,4% d'ischémie chronique) retrouvait un taux de sauvetage de membre de 80%. Ruzsa(40) retrouvait un taux d'amputation majeure de 4,7% dans son étude sur un suivi à long terme de 47,5 mois avec également une population comparable du point de vue clinique à la notre (32,5% de claudicants et 67,5% d'ischémie chronique). Ces résultats confirment l'efficacité du traitement endovasculaire des lésions TASC C et D. 48 D'ailleurs Scali(41) ne retrouvait pas de différence significative en terme de survie sans amputation entre stenting primaire ou pontages fémoro-poplités pour 185 patients en ischémie critique, avec à 3 ans un taux estimé respectivement de 59 % contre 55 %. L'étude BASIL(15), retrouvait cependant une supériorité en terme de survie sans amputation après 2 ans dans le groupe pontage. Pour ce qui est de la cicatrisation, chez les patients au stade Rutherford 5 et 6, seuls 45,2% d'entre eux ont présenté une cicatrisation complète dans les suites de la revascularisation. En étudiant les patients qui n'ont pas cicatrisé, on se rend compte que 21 patients sur 23 sont décédés durant le suivi. Le processus de cicatrisation est lent et il s'agit de patients présentant le plus souvent de lourdes comorbidités notamment cardiaques. Sur les 23 patients présentant des troubles trophiques non cicatrisés, 15 présentaient une coronaropathie soit 65,2% contre 53,2% dans la population totale. Nous pensons donc que ces patients n'avaient pas le temps de cicatriser en partie du fait d'une mortalité précoce. De plus, plusieurs facteurs autres que la vascularisation peuvent influencer la cicatrisation (âge, dénutrition, diabète, décubitus prolongé chez les patients grabataires, plaie septique). Dans la littérature le critère de cicatrisation n'est pas fréquemment retrouvé. Ye(42) décrivait un taux de cicatrisation de 90% après revascularisation cependant les caractéristiques de la population n'étaient pas décrites. Lotfi(43) décrivait un taux de cicatrisation de 68,4% (13 patients sur 19 avec des troubles trophiques) avec une population présentant un taux de comorbidités important (88,8% de diabétique et 62,9% de cardiopathie ischémique). Nous pensons que le critère de cicatrisation, qui est multifactoriel, n'est pas objectif pour juger de notre technique de revascularisation. 49 5) Mortalité durant le suivi Dans notre série le taux de mortalité au décours du suivi était de 46,8%. Plusieurs raisons expliquent ce taux élevé de mortalité. En effet l'âge moyen de notre cohorte était de 80,4 ans. Dans notre population, 59,7% présentait un score ASA de 3 et 2,6% un score ASA de 4. Un nombre important de nos patients était en ischémie chronique de repos (68,8%). Robin(44) dans son étude sur la mortalité des patients âgés en postopératoire après séjour en réanimation retrouvait un taux de mortalité à 1 an de 46% chez une population ayant un âge de 86 ans et un score ASA de 3 en moyenne. Reinecke(45) montrait dans son travail rétrospectif sur 41882 patients des taux de mortalité à 4 ans de 37,7% chez les patients en stade Rutherford 4, 52,2% en stade Rutherford 5 et 63,5% en Rutherford 6. Ce taux élevé de mortalité s'explique donc par les caractéristiques de notre cohorte. D'autant plus que pour les patients les moins fragiles présentant une lésion TASC C et D, nous préférions réaliser d'emblée un traitement chirurgical classique par pontage fémoro-poplitée ou fémoro-jambier. Cela introduisait donc un biais de sélection de nos patients qui ont d'emblée un risque de mortalité à court terme élevé. La mortalité périopératoire à J30 était de 6,5% dans notre série. Aucun de ces décès n'était directement lié au geste chirurgicale. C) Analyse de la technique de SAFARI Cette technique nécessite une courbe d'apprentissage longue et pour certains auteurs(46), elle fait prendre un risque de lésions des artères de jambes ponctionnées surtout chez les patients avec un « run-off » pauvre. Ces éléments ne nous semblent malgré tout pas suffisant pour ne pas utiliser cette technique. 50 1) Accès et complications L'accés rétrograde se fait par 3 différentes modalités selon les équipes : - certains auteurs ont utilisé des introducteurs comme Wei et al(47) (introducteur de 4Fr) et Sabri et al(48) (introducteur de 3 Fr). - d'autres auteurs ont réalisé des recanalisations par ponction rétrograde seule, sans accès rétrograde avec mise en place d'un introducteur comme Raskin(49) avec sa série de 15 patients. Ce dernier avait un taux de complication nul et un taux de succès de 93%. L'utilisation d'introducteurs nous paraît cependant délétère pour l'intégrité de l'artére de jambe du fait de son faible diamètre bien que les taux de complications locales de ces auteurs restaient faible (4% chez Wei(47) et 2% cher Sabri(48)) - enfin la ponction sans introducteur, technique pour laquelle nous avons opté afin de réduire le traumatisme sur la paroi de l'artère. Notre excellent taux de succès technique de 97,5 % nous conforte dans l'idée que le support d'un introducteur n'est pas indispensable au geste de recanalisation rétrograde. A titre de comparaison, le risque d'occlusion de l'artère radiale en cardiologie interventionnelle, augmente de manière significative avec la taille de l'introducteur utilisé selon Honda(50), de 2,67% pour un 4 Fr à 11,8% pour un 5 Fr. A la place de l'introducteur, le cathéter de support nous permet une stabilité et une rigidité du guide afin de réaliser la recanalisation rétrograde. De plus la sonde traumatise de manière beaucoup moins importante l'artère puisque l'orifice d'entrée est moins large. Les calcifications des artères de jambes sont des repères radio opaques pouvant faciliter le guidage pour la ponction de l'artère sous fluoroscopie. Cependant dans certains cas, l'artère était tellement rigide qu'il était difficile, voir impossible de la ponctionner puis de la cathétériser. Ces calcifications majeures sont la cause de 2 échecs dans notre série. Cette constatation était retrouvée chez Walker et al(51) ou 6,6 % des ponctions ont échoués du fait calcifications « sévères » de l'artère ponctionnée. On peut s'aider de 2 aiguilles de ponctions, une pour piquer immédiatement à côté de l'artère afin de limiter sa mobilité. Une 2° aiguille est utilisée pour ponctionner l'artère. 51 L'hémostase du point de ponction était réalisée en 2 temps : - un temps endovasculaire en fin de procédure ou un ballon d'angioplastie était inflaté pendant 2 minutes en regard de l'orifice de ponction - un temps de compression manuel externe pendant 5 minutes avec réalisation d'un pansement semi compressif Dans la littérature, plusieurs autres techniques sont décrites dont la compression par un brassard à tension ou la mise en place de système de compression pneumatique utilisé habituellement en cardiologie pour les ponctions radiales.(7,52) Une méta-analyse des revascularisations par accès rétrograde de Marmagkiolis et al(17) de 2017 regroupant 10 études (dont 1 prospective), retrouvait un taux de complication locale de 12,25% sur 881 patients, principalement des dissections, sachant que le suivi moyen de ces études était plus court que le notre. En effet il s'agissait le plus souvent d'hématome avec une bonne évolution ou de dissections qui n'ont pas menacé la perméabilité de l'axe ponctionné. La méta-analyse de Welling et al(53) de 2018 regroupant 19 articles retrouvait quand à elle un taux de complications locales de 4,1 % sur 1168 patients. Dans ce travail, les principales complications locales étaient des perforations des axes ponctionnés (1,1%) ainsi que des hématomes (0,5%). Dans notre étude nous avons eu un taux de complications locales de 11% durant tout le suivi dont une seule durant les 30 premiers jours (1 fistule artério veineuse non compliquée). A noter que la définition des complications locales, n'incluait pas les thromboses de l'axe ponctionné durant le suivi dans les études de SAFARI de la littérature. Dans notre série, nous avons eu au décours de tout le suivi 8 thromboses d'axes ponctionnées sans que nous puissions préciser si elles étaient liées à l'évolution de l'artériopathie ou à la complication du geste. Seul un des patients présentant une thrombose de l'axe ponctionné à du subir une amputation majeure dans notre étude. L'indication de l'amputation était une surinfection de ces troubles trophiques de jambe responsable d'un sepsis. Bien que ce taux puisse paraître important, nous pensons que la ponction rétrograde peut être considérée comme une technique sûre du fait des faibles conséquences liées à ses complications. 52 Auteurs Introducteur Taille (oui/non) Taux de complications Spinosa et al(54) Oui 3 Fr 0% Noory et al(28) Oui 5/6 Fr 5,3% Sabri et al(48) Oui 3 Fr 2% Gandini et al(55) Oui 4 Fr Botti et al(56) Oui 4 Fr Montero et al(16) Oui (9 patients) 4 Fr 4% Non (36 patients) Hua et al(27) Non - 21% Ruzsa et al(18) Non - 2% Walker et al(51) Non - 0,5% Silvestro et al(7) Non - 0 Notre étude Non - 11,1% Tableau 11. Accès rétrograde et taux de complications dans la littérature 2) Fluoroscocopie et radioprotection L'artère était ponctionnée sous scopie après réalisation d'une injection de produit de contraste et d'une cartographie par voie antérograde (roadmaping). Cette technique s'avère peu optimale sur le plan de la radioprotection puisque l'opérateur se trouve directement sous le faisceau de rayon X. En effet lors de la ponction sous roadmaping, l'opérateur est très proche du tube à rayon X et ses mains sont directement dans le faisceau, sachant que le roadmaping délivre une dose de rayon plus importante. Nous n'avons pas pu colliger les doses de rayons X délivrées sur chaque intervention. Dans la littérature, aucune étude ne compare la dose de rayon reçu par l'opérateur durant une procédure de SAFARI par rapport à une recanalisation par voie antérograde classique. Des précautions particulières sont donc à prendre lors de la réalisation de la ponction rétrograde afin de recevoir la dose la plus faible de rayons. Une collimation restreinte au champ de ponction, une diminution du nombre d'image par seconde et le port de lunette plombée sont donc indispensables pour une radioprotection optimale. A la suite de cette étude, dans notre centre, plusieurs patients ont été ponctionnés sous écho-guidage ce qui nous paraît être une meilleure option, bien que la courbe d'apprentissage soit longue. 53 Gür et al(57) le démontraient parfaitement dans leur étude avec un taux de succès de ponctions écho-guidées de 100%. Le développement de robot pour des procédures endovasculaires (robot Magellan, Strasbourg) afin que l'opérateur soit à distance de la source de rayon X pourrait être à terme applicable à la technique de SAFARI.(58) 3) Technique de recanalisation et comparaison aux systèmes de réentrés Cette étude a permis d 'évaluer l'efficacité et la sûreté à long terme des recanalisations fémoro-poplitées complexes par la technique de SAFARI. L'alternative au SAFARI est l'utilisation des systèmes de réentrée.(59) Kitrou et al(60) rapportaient un taux de succès moyen de 90 % ainsi qu'un taux moyen de complications de 4,3 % dans sa revue de la littérature concernant le dispositif de réentrée Outback® (Cordis). De plus ce type de système permet une réentrée à 1 cm en moyenne de l'extrémité distale de la lésion, ce qui permet de préserver l'artère saine d'aval. Sur ce point Gandini et al(61) ont montré une supériorité des dispositifs de réentrée par rapport à une réentrée classique par voie antérograde ou par la technique de SAFARI. En effet, dans le groupe Outback®, 100% des patients ont eu une recanalisation à moins de 5 cm de la terminaison de la lésion contre 42,3% dans le groupe antérograde ou SAFARI. Nous n'avons pas pu mesurer la distance entre la terminaison de la lésion et la réentrée dans notre série. Dans notre pratique, nous avons initialement privilégié le résultat artériographique, même si pour cela nous devions réaliser une couverture complète de l'axe fémoro-poplité par des stents. Cette approche nous a paru par la suite délétère notamment du fait de la couverture des collatérales de réentrée. Elles assurent une perfusion de la jambe, très importante lors des thrombose intra stent afin d'éviter l'ischémie aigue grave. Par la suite, nous avons fait évoluer notre pratique notamment en réalisant une mise en place de stent plus parcimonieuse sur les dissections résiduelles ou sur les lésions hyper calcifiées avec un « recoil » de plus de 50% après angioplastie simple au ballon. 54 Les échecs des systèmes de réentrée sont communément attribués aux lésions calcifiées ne permettant pas la rupture du flap intimal par l'aiguille du dispositif.(61,62) Dans notre expérience, la technique de SAFARI permet de recanaliser des lésions très calcifiées. Un patient dans notre série présentait une lésion TASC B. Cependant cette dernière était un bourgeon calcaire infranchissable par voie antérograde. Le SAFARI nous a permis de traiter aisément cette lésion. Indépendamment de la consistance de la lésion, Saab(63) proposait une classification des différentes morphologies de lésions dont certaines serait plus facilement franchissable par voie rétrograde. En effet, pour Saab(63), les lésions présentant une concavité distale et une convexité proximale devraient être traitées initialement par la technique de SAFARI puisque elles présentent un taux d'échec important par voie antérograde (31% d'échec). Les échecs de SAFARI ont été dans notre série liés à la présence d'axes distaux hypercalcifiées ne permettant pas la ponction rétrograde dans 2 cas. Il s'agit, de notre point de vu, de la limite de cette technique. Certains auteurs décrivent une ponction d'artères plus proximales, qui sont plus souvent libres de calcifications de leurs parois. Silvestro(7) ponctionnait le tronc tibio-fibulaire ou la poplitée sous articulaire par voie antérieur dans sa série de 41 SAFARI avec 0% de complication à 1 an et 100% de succès technique. Fanelli(64), lui, ponctionnait la poplitée sus articulaire dans sa série de 26 patients avec également un taux de complication nul à 1 an et un taux de succès technique de 100%. Schmidt(65) ponctionnait la fémorale superficielle distale dans son étude sur 50 patients avec 6 complications locales (4 faux anévrysmes, un embol et une fistule artérioveineuse) Au vu de ces résultats, la ponction rétrograde d'une artère plus proximale en cas d'axes de jambes hypercalcifiés parait être une alternative sûr et techniquement faisable. Cependant d'un point de vu théorique, ces artères plus profondes anatomiquement sont difficiles à ponctionner et l'hémostase en fin de procédure semble aléatoire. 55 Certains auteurs comme Saravana(66) ou Airoldi(67) décrivaient l'abord des artères distales afin de pouvoir les ponctionner plus aisément. Ces abords chirurgicaux sont le plus souvent réalisés sur l'artère pédieuse ou sur la tibial postérieur rétro-malléolaire. Nous pensons que cette pratique peut s'avérer délétère notamment chez les patients en ischémie critique puisqu'il existe un risque de mauvaise cicatrisation plus important chez ces patients malgré la revascularisation. Par ailleurs cet abord chirurgical ne peut se réaliser qu'au cours d'une procédure sous anesthésie au bloc opératoire. Enfin, une artère hypercalcifiée restera difficilement ponctionnable malgré son exposition. Les partisans des systèmes de réentrées évoquent également le temps de procédures ainsi que le temps de scopie qui serait plus court pour le traitement de ces lésions longues. Ainsi Gandini et al(61) donnaient un temps de procédure moyen de 36.0+/- 9.4 min et un temps de fluoroscopie de 29.8 +/- 8.9 min sur des patients présentant des lésions TASC D. Montero-Baker et al(16) observaient un temps moyen de 36 minutes ce qui est comparable aux procédures avec systèmes de réentrée décrites précédemment. Dans notre série, le délai de procédure était en moyenne de 135,38 +/- 46,99 min. Hua et al(27) observaient des temps de procédures sensiblement identiques aux nôtres de l'ordre de 120,4 +/- 23,0 min. De notre point de vu, cet écart s'explique par 2 choses : - la réalisation de cette technique par des opérateurs en court d'apprentissage de la technique - la tentative de recanalisation antérograde qui pouvait être plus ou moins longue en fonction des différentes procédures. Enfin du point de vu économique, les systèmes de réentrés s'avèrent excessivement couteux (1800$ pour Outback® et 3100$ pour Pioneer® (système de réentrée associée à un doppler endovasculaire : système IVUS )). (68) Le SAFARI permet le traitement de ce type lésion complexe à moindre coût puisqu'il ne nécessite qu'une aiguille de 21G en plus de l'arsenal classique d'endovasculaire moderne. 56 D) Limites de l'étude Notre étude était rétrospective et observationnelle ce qui a limité la validité de nos résultats. Le faible effectif de patients de cette étude a induit une faible puissance des résultats et une impossibilité de réaliser une analyse multivariée. Certaines données n'ont pas pu être colligées dans notre étude notamment la longueur de la lésion ainsi que sa composition (athéromateuses, lésions calcifiées ou mixtes) et la dose de rayon délivrée pendant l'intervention. Par ailleurs un certains nombres de données manquantes sur des procédures de SAFARI ont conduit à leur exclusion de l'étude. Il existait également un biais de sélection car seul 3 chirurgiens dans notre équipe étaient formés à cette technique. De plus un certains nombres de patients n'ont pas pu avoir de doppler de contrôle dans les délais des recommandations du fait des difficultés de suivi de ces malades fragiles. Le taux de mortalité important a entrainé également un biais sur l'analyse de la perméabilité primaire à court et moyen terme. 57 VI) Conclusion En conclusion, la technique de SAFARI semble être, d'après cette étude, une technique fiable et sûre permettant de diminuer le taux d'échecs des procédures endovasculaires classiques pour les lésions longues fémoro-poplitées. De plus, son faible coût comparé aux systèmes de réentrée, en fait une technique accessible à tous les chirurgiens vasculaires. La maîtrise de cette technique nous semble indispensable dans l'arsenal thérapeutique du chirurgien vasculaire. Cette étude pose la question du recours à l'angioplastie sur les lésions TASC C et D : le succès technique est satisfaisant mais la perméabilité à long terme reste cependant inférieure aux résultats des pontages. Les résultats de ce type de traitement endovasculaire sur ces lésions devront être réévalués avec les nouveaux dispositifs, notamment les systèmes actifs. Il faudrait évaluer le taux d'irradiation de cette procédure à la fois sur le praticien et sur le patient qui constitue un frein à l'utilisation de cette technique. Il serait intéressant d'évaluer plus précisément le devenir de l'artère ponctionnée afin de confirmer la sécurité de cette technique notamment chez le patient claudicant. 58 VII) Bibliographie 1. Norgren L, Hiatt WR, Dormandy JA, Nehler MR, Harris KA, Fowkes FGR, et al. Inter-Society Consensus for the Management of Peripheral Arterial Disease (TASC II). J Vasc Surg. janv 2007;45 Suppl S:S5-67. 2. Bolia A, Miles KA, Brennan J, Bell PR. Percutaneous transluminal angioplasty of occlusions of the femoral and popliteal arteries by subintimal dissection. Cardiovasc Intervent Radiol. déc 1990;13(6):357‐ 63. 3. 4. Huel D. Prise en charge endovasculaire des lésions infrapoplitées. :2. Siddique A. Lets go on a SAFARI and Discover Novel Tactics. :47. 5. Brandão DF, Ferreira JRG, Mansilha A, Vaz AG. The arterial lesions in patients with critical limb ischemia. In 2012. 6. Dave B. Recanalization of Chronic Total Occlusion Lesions: A Critical Appraisal of Current Devices and Techniques. JCDR 7. Silvestro M, Palena LM, Manzi M, Gómez-Jabalera E, Vishwanath D, Casini A, et al. Anterolateral retrograde access to the distal popliteal artery and to the tibioperoneal trunk for recanalization of femoropopliteal chronic total occlusions. Journal of Vascular Surgery. déc 2018;68(6):1824‐ 32. 8. Muradin GSR, Bosch JL, Stijnen T, Hunink MGM. Balloon Dilation and Stent Implantation for Treatment of Femoropopliteal Arterial Disease: Meta-Analysis. Radiology. 1 oct 2001;221(1):137‐ 45. 9. Kasapis C, Henke PK, Chetcuti SJ, Koenig GC, Rectenwald JE, Krishnamurthy VN, et al. Routine stent implantation vs. percutaneous transluminal angioplasty in femoropopliteal artery disease: a meta-analysis of randomized controlled trials. Eur Heart J. janv 2009;30(1):44‐ 55. 10. Becquemin J-P, Favre J-P, Marzelle J, Nemoz C, Corsin C, Leizorovicz A. Systematic versus selective stent placement after superficial femoral artery balloon angioplasty: A multicenter prospective randomized study. Journal of Vascular Surgery. 1 mars 2003;37(3):487‐ 94. 11. Dick P, Wallner H, Sabeti S, Loewe C, Mlekusch W, Lammer J, et al. Balloon angioplasty versus stenting with nitinol stents in intermediate length superficial femoral artery lesions. Catheterization and Cardiovascular Interventions. 2009;74(7):1090‐ 5. 12. Laird JR, Katzen BT, Scheinert D, Lammer J, Carpenter J, Buchbinder M, et al. Nitinol stent implantation versus balloon angioplasty for lesions in the superficial femoral artery and proximal popliteal artery: twelve-month results from the RESILIENT randomized trial. Circ Cardiovasc Interv. 1 juin 2010;3(3):267‐ 76. 59 13. Duda SH, Bosiers M, Lammer J, Scheinert D, Zeller T, Oliva V, et al. DrugEluting and Bare Nitinol Stents for the Treatment of Atherosclerotic Lesions in the Superficial Femoral Artery: Long-Term Results from the SIROCCO Trial. J Endovasc Ther. 1 déc 2006;13(6):701‐ 10. 14. Schillinger M, Sabeti S, Loewe C, Dick P, Amighi J, Mlekusch W, et al. Balloon Angioplasty versus Implantation of Nitinol Stents in the Superficial Femoral Artery. New England Journal of Medicine. 4 mai 2006;354(18):1879‐ 88. 15. Adam DJ, Beard JD, Cleveland T, Bell J, Bradbury AW, Forbes JF, et al. Bypass versus angioplasty in severe ischaemia of the leg (BASIL): multicentre, randomised controlled trial. Lancet. 3 déc 2005;366(9501):1925‐ 34. 16. Montero-Baker M, Schmidt A, Bräunlich S, Ulrich M, Thieme M, Biamino G, et al. Retrograde approach for complex popliteal and tibioperoneal occlusions. J Endovasc Ther. oct 2008;15(5):594‐ 604. 17. Marmagkiolis K, Sardar P, Mustapha JA, Montero-Baker M, Charitakis K, Iliescu C, et al. Transpedal Access for the Management of Complex Peripheral Artery Disease. J Invasive Cardiol. déc 2017;29(12):425‐ 9. 18. Ruzsa Z, Nemes B, Bánsághi Z, Tóth K, Kuti F, Kudrnova S, et al. Transpedal access after failed anterograde recanalization of complex below-the-knee and femoropoliteal occlusions in critical limb ischemia: Transpedal Access after Failure Anterograde Recanalization. Catheterization and Cardiovascular Interventions. 1 mai 2014;83(6):997‐ 1007. 19. Schlager O, Zehetmayer S, Seidinger D, van der Loo B, Koppensteiner R. Wall shear stress in the stented superficial femoral artery in peripheral arterial disease. Atherosclerosis. mars 2014;233(1):76‐ 82. 20. London NJ, Srinivasan R, Naylor AR, Hartshorne T, Ratliff DA, Bell PR, et al. Subintimal angioplasty of femoropopliteal artery occlusions: the long-term results. Eur J Vasc Surg. mars 1994;8(2):148‐ 55. 21. Lipsitz EC, Ohki T, Veith FJ, Suggs WD, Wain RA, Cynamon J, et al. Does subintimal angioplasty have a role in the treatment of severe lower extremity ischemia? Journal of Vascular Surgery. févr 2003;37(2):386‐ 91. 22. Smith BM, Stechman M, Gibson M, Torrie EPH, Magee TR, Galland RB. Subintimal angioplasty for superficial femoral artery occlusion: poor patency in critical ischaemia. Ann R Coll Surg Engl. sept 2005;87(5):361‐ 5. 23. Tisi PV, Mirnezami A, Baker S, Tawn J, Parvin SD, Darke SG. Role of subintimal angioplasty in the treatment of chronic lower limb ischaemia. Eur J Vasc Endovasc Surg. nov 2002;24(5):417‐ 22. 24. Soga Y, Takahara M, Iida O, Suzuki K, Hirano K, Kawasaki D, et al. Relationship Between Primary Patency and Lesion Length Following Bare Nitinol Stent Placement for Femoropopliteal Disease. J Endovasc Ther. déc 2015;22(6):862‐ 7. 60 25. Davaine J-M, Quérat J, Guyomarch B, Costargent A, Chaillou P, Patra P, et al. Primary stenting of TASC C and D femoropopliteal lesions: results of the STELLA register at 30 months. Ann Vasc Surg. oct 2014;28(7):1686‐ 96. 26. Chou H-H, Huang H-L, Hsieh C-A, Jang S-J, Cheng S-T, Tsai S-C, et al. Outcomes of Endovascular Therapy With the Controlled Antegrade Retrograde Subintimal Tracking (CART) or Reverse CART Technique for Long Infrainguinal Occlusions. Journal of Endovascular Therapy. avr 2016;23(2):330‐ 8. 27. Hua WR, Yi MQ, Min TL, Feng SN, Xuan LZ, Xing J. Popliteal Versus Tibial Retrograde Access for Subintimal Arterial Flossing with Antegrade–Retrograde Intervention (SAFARI) Technique. European Journal of Vascular and Endovascular Surgery. août 2013;46(2):249‐ 54. 28. Noory E, Rastan A, Schwarzwälder U, Sixt S, Beschorner U, Bürgelin K, et al. Retrograde transpopliteal recanalization of chronic superficial femoral artery occlusion after failed re-entry during antegrade subintimal angioplasty. J Endovasc Ther. oct 2009;16(5):619‐ 23. 29. Younes HK, El-Sayed HF, Davies MG. Retrograde Transpopliteal Access Is Safe and Effective-It Should Be Added to the Vascular Surgeon's Portfolio. Annals of Vascular Surgery. févr 2015;29(2):260‐ 5. 30. Brouillet J, Deloose K, Goueffic Y, Poirier M, Midy D, Caradu C, et al. Primary stenting for TASC C and D femoropopliteal lesions: one-year results from a multicentric trial on 203 patients. J Cardiovasc Surg (Torino). juin 2018;59(3):392‐ 404. 31. Davaine J-M, Azéma L, Guyomarch B, Chaillou P, Costargent A, Patra P, et al. One-year clinical outcome after primary stenting for Trans-Atlantic Inter-Society Consensus (TASC) C and D femoropopliteal lesions (the STELLA « STEnting Long de L'Artère fémorale superficielle » cohort). Eur J Vasc Endovasc Surg. oct 2012;44(4):432‐ 41. 32. Bakken AM, Palchik E, Hart JP, Rhodes JM, Saad WE, Davies MG. Impact of diabetes mellitus on outcomes of superficial femoral artery endoluminal interventions. J Vasc Surg. nov 2007;46(5):946‐ 58; discussion 958. 33. Matsumi J, Tobita K, Shishido K, Mizuno S, Yamanaka F, Murakami M, et al. Comparison of long-term patency after endovascular therapy for superficial femoral artery occlusive disease between patients with and without hemodialysis. Catheter Cardiovasc Interv. mai 2016;87(6):1142‐ 8. 34. Mousnier A, Jean-Baptiste E, Sadaghianloo N, Declemy S, Brizzi S, HassenKhodja R. Subintimal recanalization of femoropopliteal occlusive lesions in patients with critical ischemia: 66 cases. Ann Vasc Surg. mai 2013;27(4):467‐ 73. 35. Lazaris AM, Salas C, Tsiamis AC, Vlachou PA, Bolia A, Fishwick G, et al. Factors Affecting Patency of Subintimal Infrainguinal Angioplasty in Patients with Critical Lower Limb Ischemia. European Journal of Vascular and Endovascular Surgery. déc 2006;32(6):668‐ 74. 61 36. Keeling AN, Khalidi K, Leong S, Given MF, McGrath FP, Athanasiou T, et al. Subintimal angioplasty: predictors of long-term success. J Vasc Interv Radiol. août 2009;20(8):1013‐ 22. 37. Bosiers M, Deloose K, Callaert J, Moreels N, Keirse K, Verbist J, et al. Results of the Protégé EverFlex 200-mm-long nitinol stent (ev3) in TASC C and D femoropopliteal lesions. J Vasc Surg. oct 2011;54(4):1042‐ 50. 38. Sultan S, Hynes N. Five-year Irish trial of CLI patients with TASC II type C/D lesions undergoing subintimal angioplasty or bypass surgery based on plaque echolucency. J Endovasc Ther. juin 2009;16(3):270‐ 83. 39. Scheinert D, Scheinert S, Sax J, Piorkowski C, Bräunlich S, Ulrich M, et al. Prevalence and clinical impact of stent fractures after femoropopliteal stenting. J Am Coll Cardiol. 18 janv 2005;45(2):312‐ 5. 40. Ruzsa Z, Wojtasik-Bakalarz J, Nyerges A, Rakowski T, Kleczynski P, Bartus S. Long-Term Follow-up After Retrograde Recanalization of Superficial Femoral Artery Chronic Total Occlusion. J Invasive Cardiol. oct 2017;29(10):336‐ 9. 41. Scali ST, Rzucidlo EM, Bjerke AA, Stone DH, Walsh DB, Goodney PP, et al. Long-term results of open and endovascular revascularization of superficial femoral artery occlusive disease. J Vasc Surg. sept 2011;54(3):714‐ 21. 42. Ye M, Zhang H, Huang X, Shi Y, Yao Q, Zhang L, et al. Retrograde popliteal approach for challenging occlusions of the femoral-popliteal arteries. Journal of Vascular Surgery. juill 2013;58(1):84‐ 9. 43. Lotfi U, Haggag M. Combined retrograde–antegrade arterial wiring: Peroneal artery can be a bridge to cross infrapopliteal Trans Atlantic Inter Society Consensus D lesions. Vascular. oct 2016;24(5):538‐ 44. 44. Robin M. Devenir à 1 an des patients âgés de 80 ans et plus, hospitalisés en réanimation chirurgicale. :93. 45. Reinecke H, Unrath M, Freisinger E, Bunzemeier H, Meyborg M, Lüders F, et al. Peripheral arterial disease and critical limb ischaemia: still poor outcomes and lack of guideline adherence. Eur Heart J. 14 avr 2015;36(15):932‐ 8. 46. Bosiers M, Deloose K, Callaert J. Anterograde or retrograde arterial access for diabetic limb revascularization. Seminars in Vascular Surgery. juin 2018;31(2‐ 4):76‐ 80. 47. Wei L-M, Zhu Y-Q, Zhang P-L, Lu H-T, Zhao J-G. Integrated application of antegrade and retrograde recanalization for femoral-popliteal artery chronic total occlusions: outcomes compared with antegrade recanalization. Quant Imaging Med Surg. juill 2018;8(6):568‐ 78. 48. Sabri SS, Hendricks N, Stone J, Tracci MC, Matsumoto AH, Angle JF. Retrograde Pedal Access Technique for Revascularization of Infrainguinal Arterial Occlusive Disease. Journal of Vascular and Interventional Radiology. janv 2015;26(1):29‐ 38. 62 49. Raskin D, Khaitovich B, Silverberg D, Halak M, Balan S, Rimon U. Primary Retrograde Dorsalis Pedis Artery Single Access for Revascularization of Chronic Total Occlusion in Patients with Critical Limb Ischemia. Journal of Vascular and Interventional Radiology 50. Honda T, Fujimoto K, Miyao Y, Koga H, Hirata Y. Access site-related complications after transradial catheterization can be reduced with smaller sheath size and statins. Cardiovasc Interv Ther. sept 2012;27(3):174‐ 80. 51. Walker CM, Mustapha J, Zeller T, Schmidt A, Montero-Baker M, Nanjundappa A, et al. Tibiopedal Access for Crossing of Infrainguinal Artery Occlusions. J Endovasc Ther. déc 2016;23(6):839‐ 46. 52. Kwan TW, Patel A, Parikh R, Auguste U, Rosero H, Huang Y, et al. Comparison of TR BandTM and VasoStatTM Hemostasis Devices following Transpedal Catheterization for Lower Extremity Revascularization for Peripheral Arterial Disease. J Interv Cardiol. août 2016;29(4):424‐ 30. 53. Welling RHA, Bakker OJ, Scheinert D, Moll FL, Hazenberg CE, Mustapha JA, et al. Below-the-Knee Retrograde Access for Peripheral Interventions: A Systematic Review. J Endovasc Ther. juin 2018;25(3):345‐ 52. 54. Spinosa DJ, Harthun NL, Bissonette EA, Cage D, Leung DA, Angle JF, et al. Subintimal Arterial Flossing with Antegrade–Retrograde Intervention (SAFARI) for Subintimal Recanalization to Treat Chronic Critical Limb Ischemia. Journal of Vascular and Interventional Radiology. janv 2005;16(1):37‐ 44. 55. Gandini R, Uccioli L, Spinelli A, Del Giudice C, Da Ros V, Volpi T, et al. Alternative techniques for treatment of complex below-the knee arterial occlusions in diabetic patients with critical limb ischemia. Cardiovasc Intervent Radiol. févr 2013;36(1):75‐ 83. 56. Botti CF, Ansel GM, Silver MJ, Barker BJ, South S. Percutaneous Retrograde Tibial Access in Limb Salvage. Journal of Endovascular Therapy. juin 2003;10(3):614‐ 8. 57. Gür S, Oğuzkurt L, Gürel K, Tekbaş G, Önder H. US-guided retrograde tibial artery puncture for recanalization of complex infrainguinal arterial occlusions. Diagn Interv Radiol. avr 2013;19(2):134‐ 40. 58. Thaveau F, Delannoy P, Malikov S, Alsac JM, St Lèbes B, Gouny P, et al. Le robot entre au bloc opératoire de chirurgie vasculaire. Journal des Maladies Vasculaires. 1 mars 2016;41(2):91‐ 2. 59. Bhatt H, Janzer S, George JC. Crossing techniques and devices in femoropopliteal chronic total occlusion intervention. Cardiovasc Revasc Med. déc 2017;18(8):623‐ 31. 63 60. Kitrou P, Parthipun A, Diamantopoulos A, Paraskevopoulos I, Karunanithy N, Katsanos K. Targeted True Lumen Re-Entry With the Outback Catheter: Accuracy, Success, and Complications in 100 Peripheral Chronic Total Occlusions and Systematic Review of the Literature. J Endovasc Ther. août 2015;22(4):538‐ 45. 61. Gandini R, Fabiano S, Spano S, Volpi T, Morosetti D, Chiaravalloti A, et al. Randomized control study of the outback LTD reentry catheter versus manual reentry for the treatment of chronic total occlusions in the superficial femoral artery. Catheter Cardiovasc Interv. 1 sept 2013;82(3):485‐ 92. 62. Shin SH, Baril D, Chaer R, Rhee R, Makaroun M, Marone L. Limitations of the Outback LTD re-entry device in femoropopliteal chronic total occlusions. J Vasc Surg. mai 2011;53(5):1260‐ 4. 63. Saab F, Jaff MR, Diaz-Sandoval LJ, Engen GD, McGoff TN, Adams G, et al. Chronic Total Occlusion Crossing Approach Based on Plaque Cap Morphology: The CTOP Classification. J Endovasc Ther. juin 2018;25(3):284‐ 91. 64. Fanelli F, Lucatelli P, Allegritti M, Corona M, Rossi P, Passariello R. Retrograde Popliteal Access in the Supine Patient for Recanalization of the Superficial Femoral Artery: Initial Results. Journal of Endovascular Therapy. août 2011;18(4):503‐ 9. 65. Schmidt A, Bausback Y, Piorkowski M, Werner M, Bräunlich S, Ulrich M, et al. Retrograde recanalization technique for use after failed antegrade angioplasty in chronic femoral artery occlusions. J Endovasc Ther. févr 2012;19(1):23‐ 9. 66. Saravana K, Tan YK, Kum S, Tang TY. The open retrograde approach as an alternative for failed percutaneous access for difficult below the knee chronic total occlusions-A case series. Int J Surg Case Rep. 2015;16:93‐ 8. 67. Airoldi F, Vitiello R, Losa S, Tavano D, Faglia E. Retrograde recanalization of the anterior tibial artery following surgical vessel exposure: a combined approach for single remaining infragenicular vessel. J Vasc Interv Radiol. juin 2010;21(6):949‐ 50. 68. Smith M, Pappy R, Hennebry TA. Re-Entry Devices in the Treatment of Peripheral Chronic Occlusions. Tex Heart Inst J. 2011;38(4):392‐ 7. 64 « Par délibération de son Conseil en date du 10 Novembre 1972, l'Université n'entend donner aucune approbation ni improbation aux opinions émises dans les thèses ou mémoires. Ces opinions doivent être considérées comme propres à leurs auteurs ». VU, le Président de Thèse VU, le Doyen de la Faculté VU et permis d'imprimer en référence à la délibération du Conseil d'Université en date du 14 Décembre 1973 Pour le Président de l'Université de CAEN et P.O Le Doyen ANNEE DE SOUTENANCE : 2019 NOM ET PRENOM DE L'AUTEUR : INAFLAS RACHID TITRE DE LA THESE : RESULTATS DE 81 PROCEDURES DE RECANALISATIONS FEMOROPOPLITEES LONGUES PAR LA TECHNIQUE DE SAFARI AU CHU DE CAEN. RESUME DE LA THESE EN FRANÇAIS : Introduction Il s'agit d'une étude rétrospective monocentrique observationnelle sur les résultats à long terme de la prise en charge endovasculaire des occlusions fémoro-poplitées TASC C et D par la technique de SAFARI. Matériel et méthode 81 procédures sur 77 patients de 80,4 ans en moyenne ont été réalisées entre octobre 2012 et janvier 2017 au CHU de Caen. Avant chaque procédure une tentative de recanalisation par voie antérograde a été réalisée. La ponction rétrograde a été réalisée sur un axe de jambe. La perméabilité primaire à 1 an et à 5 ans était le critère de jugement principal. Les critères secondaires étaient le succès technique, la perméabilité secondaire, le TLR, le TER, le taux de complication locale, la mortalité à 30 jours et globale, les évènements cardiovasculaires durant le suivi et le taux de sauvetage de membre. Résultats Sur 77 patients, 68,8% étaient en ischémie chronique permanente et 31,2% en ischémie d'effort. Le succès technique était de 97,5%. La perméabilité primaire à 1 an était de 71,8 % et 44,3 % à 5 ans. La perméabilité secondaire était de 79,8 % à 1an et 68,4 % à 2 ans. Le taux d'indemnité de TLR était de 59,6 % à 5 ans. Le taux d'indemnité de TER était de 75,8 % à 5 ans. La mortalité à J30 était de 7,8%. La mortalité au décours du suivi était de 46,8%. Le taux de complication locale était de 11,1%. Le taux d'évènement cardiovasculaire était de 8,9 %. Le taux de sauvetage de membre était de 96,1%. Conclusion Une recanalisation fémoro-poplitée longue échoue dans 20% des cas par voie antérograde. L'utilisation de la technique de SAFARI est faisable et sûre et peut modifier favorablement ce taux d'échec. MOTS CLES : Recanalisation fémorale, accès rétrograde, ischémie chronique permanente, double abord, angioplastie fémoro-poplitée, sous intimale, stent, recanalisation rétrograde. TITRE DE LA THESE EN ANGLAIS : RESULTS OF 81 EXTENSIVE FEMOROPOPLITEAL RECANALIZATION BY THE SAFARI TECHNIQUE AT CHU DE CAEN RESUME DE LA THESE EN ANGLAIS : Introduction This is a retrospective, monocentric, observational study of the long term outcome of endovascular management of TASC C and D femoropopliteal occlusions using the SAFARItechnique. Material and method 81 procedures over 77 patients of 80.4 years on average were conducted between October 2012 and January 2017 at CHU de Caen. Before each procedure, an anterograde recanalization attempt was made. The retrograde puncture was performed on below the knee vessels. The primary endpoint was primary patency at 1 and 5 years. Secondary endpoints were: procedural success, secondary patency, TLR, TER, local complication rate, 30 day and overall mortality, cardiovascular events during the followup and limb salvage rate. Results Of 77 patients, 68.8% was in permanent chronic ischemia and 31.2% with claudication. The procédural success rate was 9 7.5%. Primary patency at 1 year was 71.8% and 44.3% at 5 years. Secondary patency was 79,8% at 1 year and 68.4% at 2 years. TLR indemnity rate was 59,6% at 5 years. TER indemnity rate was 75.8% at 5 years. Mortality at 30 day was 7.8%. Mortality at followup was 46.8%. The local complication rate was 11.1%. The cardiovascular event rate was 8.9%. The salvage limb rate was 96.1%. Conclusion Long femoro popliteal recanalization fails in 20% of cases by anterograde access. The use of the SAFARI technique seems feasible, safe and can improve this failure rate. KEY WORDS : Fémoral recanalization, rétrograde acces, critical limb ischemia, double access, femoropopliteal angioplasty, subintimal, stent, retrograde recanalization.
{'path': '33/dumas.ccsd.cnrs.fr-dumas-02498599-document.txt'}
Comment ne pas construire un discours scientifique Note exploratoire sur les « épistémologies féministes » du point de vue Julie PATARIN-JOSSEC (Centre Émile Durkheim, Université de Bordeaux) Carnet Zilsel, 19 décembre 2015, http://zilsel.hypotheses.org/2343 Licence Creative Commons Cette oeuvre est mise à disposition selon les termes de la Licence Creative Commons Attribution - Pas d'Utilisation Commerciale Pas de Modification 4.0 International 2 Comment ne pas construire un discours scientifique Bien que plurielles1 et relatives à plusieurs courants des sciences sociales (des « studies », plus particulièrement : postcolonial studies, feminist studies, science studies, etc.), les « épistémologies féministes » se rassemblent en grande partie autour de la « théorie du point de vue situé » (standpoint theory). Cette dernière apparaît avec l'article « The Feminist Standpoint » que Nancy Hartsock (politologue) publie en 19832 dans un ouvrage collectif fondateur dirigé par Sandra Harding (philosophe) et Merrill Hintikka (philosophe et épouse de Jaakko Hintikka, avec qui elle coécrit plusieurs articles sur le logicisme wittgensteinien3)4. Comme l'appellation de la théorie pouvait le laisser entendre, Hartsock part de l'hypothèse marxiste que le point de vue des opprimés est le mieux positionné pour appréhender, rendre compte et changer la réalité sociale. Si l'on parle ainsi de « matérialisme » marxiste, c'est en raison de l'indissociation de la vie matérielle et de la perception des relations sociales que reprend la théorie féministe, perception ainsi « située » non seulement selon la classe sociale, mais également selon le genre – les deux renvoyant à une fragmentation des perceptions en fonction d'une expérience corporelle de classe rythmée par des évènements corporels marquants (comme l'enfantement pour les femmes) : celle des travailleurs pour Marx, celle des femmes pour Hartsock. En 1974, Dorothy Smith est la première à utiliser le terme de « point de vue » dans le sens des épistémologies féministes émergentes5 et, en réponse à un ouvrage que Sandra Harding publie en 19866 afin de questionner les conditions de développement d'une « science féministe », Donna Haraway (zoologiste de formation) avance la notion de « savoir situé »7, permettant d'outiller concrètement une théorie de critique sociale alors embryonnaire et aux aspirations épistémologiques. Émergeant dans un contexte 1 Dont des féministes et épistémologies féministes matérialistes, postcolonialistes, marxistes, néomarxistes, etc. 2 Hartsock, N., 1983, The Feminist Standpoint: Developing the Ground for a Specifically Feminist Historical Materialism, in Harding, S., & Hintikka, M., B., (eds.), Discovering Reality: Feminist Perspectives on Epistemology, Metaphysics, Methodology and Philosophy of Science. Dordrecht & Boston, D. Reidel. 3 Par exemple : Hintikka, J., & Hintikka, M., B., 1983, Some Remarks on (Wittgensteinian) Logical Form, Synthese, 56 (2):155-170 ; Hintikka, M., B., & Hintikka, J., 1988, Understanding Wittgenstein, Philosophy and Phenomenological Research, 49 (1): 171-177. 4 Jaakko Hintikka est également connu pour un ouvrage d'un tout autre registre, consacré la vie de son épouse (2014, Hän valitsi nimekseen Merrill Hintikka [She Chose Merrill Hintikka as Her Name], Helsinki, WSOY). L'on y apprend notamment que Merrill Hintikka eut une liaison avec le sénateur J. F. Kennedy lorsqu'elle était étudiante en 1959, suite à quoi elle changea son nom « Jane Merrill Bristow » pour Merrill Hintikka et consacra une grande partie de son travail au sexisme latent du langage (par exemple : Hintikka, M., B., & Hintikka, J., 1983, How Can Language Be Sexist? in Hintikka, M., B., & Harding, S., (eds.), op. cit.: 139-148. 5 Smith, D., 1974, Women's Perspective as a Radical Critique of Sociology, in Keller, E., F., & Longino, H., E., Feminism and Science. New York, Oxford University Press. 6 Harding, S., 1986, The Science Question in Feminism, Ithaca, Cornell University Press. 7 Haraway, D., 1988, Situated knowledges. The science question in feminism and the privilege of partial perspective, Feminist Studies, (14): 575-599. Comment ne pas construire un discours scientifique 3 d'effervescence sociale et de combats pour les droits civiques dans les États-Unis des années 1970, la théorie du point de vue a, depuis, infusé de nombreux sous-champs des sciences sociales (dont les cultural et subaltern studies). Certaines auteures comme Espinola8 et Hekman9 notent toutefois que l'heuristique de la théorie du point de vue se serait affaiblie au cours des années 1990, notamment sous le poids de la multiplication des tensions et divergences théoriques internes aux épistémologies féministes. En parallèle de la théorie du point de vue se développent en effet des cadres théoriques féministes ne partant pas du matérialisme marxiste et de sa conception d'un point de vue privilégié au changement social (ou épistémologique), tels que la théorie queer, visant à élargir l'éventail des identités de genre face à l'inadéquation des clivages binaires habituels10. Au sein même des théories féministes faisant usage des cadres d'analyse marxistes, les lectures en sont notablement hétérogènes (Beverley Skeggs reprend par exemple la distinction entre « valeur d'échange » et « valeur d'usage » dans la circulation des représentations genrées au sein des classes moyennes britanniques11). Malgré cette supposée perte de vitesse, la standpoint theory reste utilisée et est réajustée encore à ce jour12. Divergences et diversités de postures étant également à prendre en compte au sein même de la théorie du point de vue, il serait d'ailleurs impossible d'évoquer « une » théorie du point de vue unifiée. Arrive cependant un moment où nommer son objet semble nécessaire et où la cacophonie des versions individuelles d'une théorie ruine tout espoir de discussion. Cacophonie qui n'est certainement pas étrangère aux difficultés de définition d'une « science féministe », i.e. objectif que se sont données plusieurs des auteures dont j'utiliserai les textes par la suite (notamment Ruth Ginzberg, Sandra Harding et Helen Longino). Une théorie féministe parallèle, se réclamant du « nouveau matérialisme », ambitionne de répondre à certaines des difficultés conceptuelles et méthodiques que la théorie féministe du point de vue semble avoir rencontré depuis les années 1980 : le « réalisme agentiel » de la physicienne théoricienne/philosophe/« historienne de la conscience » Karen Barad à partir des années 199013. Rattachés par son auteure dans les courants du « féminisme poststructuraliste », du « réalisme spéculatif » – jamais je n'aurais pu trouver moi-même un qualificatif aussi adéquat –, ou encore du « nouveau matérialisme » – ne cherchez pas le rapport avec le matérialisme historique marxiste, il s'agit avant tout d'une approche anti-essentialiste de la matière14 –, le réalisme agentiel et son principe d' « intra-action » ont été forgés en vue de clore le débat entre construc- 8 Espinola, F., A., 2012, Subjectivité et connaissance : réflexions sur les épistémologies du 'point de vue', Cahiers du Genre, 2, (53) : 99-120. 9 Hekman, S., 1997. Truth and Method: Feminist Standpoint Theory Revisited, Signs, 22 (2). 10 Voir un ouvrage central dans l'assise de la théorie queer aux Etats-Unis : Sedgwick, E., K., 1990, Epistemology of the closet, Berkeley and Los Angeles, University of California Press. 11 Skeggs, B., 1997, Formations of Class and Gender: Becoming Respectable, London, Thousand Oaks and New Delhi, Sage. 12 Par exemple, Diop, C., « Epistémologie du point de vue situé à l'épreuve du terrain et de l'académie. Restitution d'un parcours de recherche », texte de 2eme journée transdisciplinaire "La méthode en sciences humaines et sociales : entre subjectivité et objectivité", LARHRA, Grenoble ; Harding, S., 2015, Objectivity and Diversity. Another Logic of Scientific Research, Chicago, University of Chicago Press. 13 Membre du Département d'Histoire de la conscience dirigé par Donna Haraway à l'Université de Santa Cruz (Californie). 14 Confer son profil sur Academia : https://ucsc.academia.edu/KarenBarad. 4 Comment ne pas construire un discours scientifique tivisme et réalisme15 ou tout du moins, de les rendre compatibles par un tour de baguette métaphorique. Disons-le d'emblée, il ne sera pas question d'évaluer (et encore moins) de juger de la pertinence ou du statut scientifique des idées portées et diffusées par la théorie du point de vue et les épistémologies féministes qui y sont liées. Un examen de ces énoncés et de leur évolution au gré des critiques ou du bien-fondé de la démarche de leurs auteures pourrait certainement permettre un tel travail, à l'aide d'ouvrages comme Constructing Social Theories d'Arthur Stinchcombe 16 , Laws and Symmetry de Bas Van Fraassen17 ou The Art of Social Theory de Richard Swedberg18 qui, bien que n'ayant pas été rédigés dans ce but, en donneraient aisément les armes. L'intérêt d'un exercice aussi normatif me semble cependant discutable. Cette note est exploratoire et reflète un point de vue encore à stabiliser sur la question. Mon intention ici sera donc de mettre en relief certaines implications d'énoncés tirés des théories féministes du point de vue et du réalisme agentiel sur des questionnements omniprésents dans les science studies (par exemple, les modalités de l'objectivité), ainsi que d'étudier la structure sociocognitive de ce qui semble constituer, encore aujourd'hui, l'heuristique de ces épistémologies féministes. La liste des auteures sur laquelle j'ai construit cette note peut ne pas être jugée représentative de la théorie du point de vue pour les initié(e)s. Ces auteures sont cependant celles dont les travaux m'ont suffisamment interrogée pour que j'en tente une utilisation dans mes propres recherches. L'étonnement ayant progressivement fait place à la perplexité, un examen des conditions de développement de ces textes et de leurs effets de style récurrents ont semblé être l'occasion de revenir sur certaines pratiques intellectuelles qu'il semble préférable d'éviter dès lors que l'on souhaite bâtir ses travaux sur un soubassement épistémologique fiable et résistant aux intempéries de la critique. De la même manière, il aurait tout autant été possible de centrer cet article-billet sur d'autres épistémologies féministes que celles identifiées ici sous la bannière des savoirs situés et du positionnement, telles que le black feminism et le féminisme matérialiste (où nous aurions par exemple retrouvé Elsa Dorlin) ou l'ecofeminism (dont Carolyn Merchant, pour ne citer qu'elle). Ces dernières n'en sont pas moins également indissociables du concept de savoir situé et de sa dialectique du corps que je décrirai dans la seconde partie (« Rhétorique »), d'après laquelle toute appréhension de la réalité sociale est le résultat d'une construction de significations du corps rendant ce dernier signifié au sein d'un cadre déterminé et déterminant pour un ensemble d'acteurs particuliers, partageant une conscience de classe sociale ou genrée. Une autre précision, encore. Si les auteures dont j'utiliserai les textes ressortent de formations hétéroclites (philosophie, science politique, zoologie), elles se retrouvent dans des universités bien cotées, de leur position de choix dans le champ académique ainsi qu'autour de leur engagement féministe militant. Sur la base de textes d'Helen Longino, Evelyn Fox Keller, Ruth Ginzberg, Katie King, Zoe Sofoulis, Nancy Hartsock, Karen Barad, Sandra Harding et Donna Haraway, je présenterai donc trois outils de persuasion me semblant caractéristiques de leur rhétorique : (1) une dialectique du corps, (2) l'analogie, (3) un appel à la balkanisation des savoirs. Cette rhétorique s'appuie avant tout sur la réification de processus sociaux tels que « la masculinité » – 15 Barad, K., 1999, Agential Realism. Feminist Interventions in Understanding Scientific Practices, in Biagoli, M., The Science Studies Reader, New York and London, Routledge. 16 Stinchcombe, A., L., 1968, Constructing Social Theory, Chicago, Chicago University Press. 17 Van Fraassen, B., 1989, Laws and Symmetry, Oxford, Clarendon Press. 18 Swedberg, R., 2014, The Art of Social Theory, Oxford and Princeton, Princeton University Press. Comment ne pas construire un discours scientifique 5 comme si la phrase de Simone de Beauvoir, inlassablement (re)citée au fil des années, ne pouvait lui être paraphrasée au même titre que la féminité : « On ne naît pas femme, on le devient » 19. Une relecture récente de Christine Delphy (notamment sur la division sexuelle du travail domestique20) m'aura d'ailleurs laissée à penser que la réification est partie prenante de l'assise des rhétoriques féministes : point de nuance ou de pluralité interne aux blocs socio-politico-identitaires, il y a (toutes) « les femmes » d'un côté, (tous) « les hommes » de l'autre, chacun étant reconnaissable par les activités qu'ils ont à charge (ou pas) au sein du ménage. À croire que la rhétorique des épistémologies féministes du point de vue perdrait en force de persuasion si le moindre compromis discursif était envisagé. Elle rend ainsi statique et monolithique une perception qui n'a pourtant de cesse d'être en mouvement21, délaissant l'« intelligence des processus en cours » au profit d'une réflexion sur l'antériorité des points de vue supposés les subir. Avant d'en arriver à l'analyse de leur rhétorique, dont les trois piliers permettront un retour sur certains débordements et difficultés du processus de recherche scientifique (dialectique entre sujet et objet et heuristique des binarismes, conséquences de l'analogie sur la recherche et nécessité du lien social dans la circulation des savoirs au sein de la communauté scientifique), il sera utile de retracer le cours de leur « trajectoire argumentative »22. Cette dernière se déploie depuis le combat politique et épistémologique à l'origine des concepts « d'objectivité partielle » et « de point de vue situé », jusqu'aux projets d'historiographie « from the below » en marge des postcolonial studies, en passant par les points communs que manifestent ces épistémologies féministes avec des courants d'analyse perspectivistes n'en finissant pas de croiser leurs concepts (et leurs lacunes). Combat, axiologie et occupation de l'espace social au sein de la communauté scientifique Lutter contre l'universalisme pour lutter contre la masculinité "The moral is simple: only partial perspective promises objective vision. All Western cultural narratives about objectivity are allegories of the ideologies governing the relations of what we call mind and body, distance and responsibility. Feminist objectivity is about limited location and situated knowledge, not about transcendence and splitting of subject and object. It allows us to become answerable for what we learn how to see" (Haraway, 1988, art. cit. : 583). Les épistémologies féministes sont certes plurielles, nombre d'entre elles se retrouvent néanmoins autour du concept de « savoirs situés » que théorise Donna Haraway dans son article de 1988. Concept indissociable de la théorie du point de vue situé, il devait permettre d'apporter un cadre théorique au féminisme des années soixante-dix, 19 Beauvoir (de), S., 1986, Le deuxième sexe, Tome I : Les faits et les mythes, Paris, Gallimard. Delphy, C., 2003, Par où attaquer le « partage inégal » du « travail ménager » ?, Nouvelles Questions Féministes, 22, (3) : 47-71. 21 Chateauraynaud, F., 1997, Vigilance et transformation. Présence corporelle et responsabilité dans la conduite des dispositifs techniques, Réseaux, 15, (85) : 101-127. 22 Chateauraynaud, F., 2014, Trajectoires argumentatives et constellations discursives. Exploration socio-informatique des futurs vus depuis le nanomonde, Réseaux, 6 (188) : 121-158. 20 6 Comment ne pas construire un discours scientifique « d'abord action sans théorie préalable » qui, après avoir fait « éclater sur un mode "insurrectionnel" les préjugés véhiculés par les théories dominantes au nom de l'objectivité », aura pu servir d'espace « de dialogue et de confrontation – constitutif d'un "nous" et au sein duquel se sont développées pas à pas au fil de l'action des théories au pluriel »23. Ce féminisme (au singulier dans le texte) fait donc « scandale en tant qu'"agir transformateur" » et prétend prouver par l'action la caducité d'un fait universellement établi : « la domination des hommes sur les femmes »24. Le lien entre objectivité et masculinité se forme donc dès la genèse du mouvement social et politique féministe. D'où l'importance, pour développer une pensée épistémologique féministe, de s'attaquer à ce que l'histoire des sciences qualifierait à tort d'« objectivité universelle », i.e. objectivité d'un point de vue masculiniste généralisé dont les schèmes de représentation du monde et de soi-même s'intègrent dans chaque corps, quel qu'en soit le genre. Ce que l'on aura consenti à reconnaitre comme « l'objectivité » ne serait ainsi pas universelle, mais résulterait d'une incarnation qui n'a pas laissé le choix aux incarnées et doit être déconstruite par les subjectivités qui la subissent. Tout l'enjeu consiste dès lors à ne plus se laisser agir par des « doctrines » qui contredisent et formatent leurs propres perceptions et leur expérience corporelle, en se créant une « doctrine de l'objectivité » qui ne soit plus « innocente »25. Cette objectivité féministe, non plus « située » d'après l'idéologie masculiniste, mais d'après une idéologie féministe, serait ainsi la condition nécessaire aux savoirs situés : « Feminist objectivity means quite simply situated knowledge ». Toute entreprise de situer cette idéologie masculiniste s'annonce difficile, dans la mesure où elle se compose de l'entièreté des valeurs et principes reproduits à travers l'histoire sans être passés au crible de la réflexivité et de la prise de conscience féministe. Cette idéologie ne serait donc pas seulement portée par des hommes, mais également par toute femme n'ayant pas eu les moyens de se sortir de son emprise cognitive. Même là, les valeurs et principes de l'idéologie masculiniste me semblent rester vagues, si ce n'est qu'ils participent à l'enlisement de la femme dominée par l'homme (par exemple, dans le maintien de la division du travail domestique via l'intériorisation de schèmes, ou dans la marginalisation des femmes vis à vis de la reconnaissance scientifique sous le poids de « l'effet Matilda »26). Le combat à l'origine des épistémologies féministes du point de vue est donc un combat contre « l'objectivité traditionnelle », cible à abattre dans une guerre contre la masculinité qui la porte. C'est ainsi qu'en dépit de leur pluralité, toutes épistémologies féministes manifestent un « scepticisme par rapport à la possibilité d'une théorie générale de la connaissance qui ne tienne aucunement compte du contexte social et du statut des sujets connaissant »27. En développant une théorie de l'objectivité féministe où les femmes peuvent devenir co-créatrices de leur vision du monde, les théoriciennes du point de vue féministe ambitionnent de prendre le contrôle de leur corps comme de leur esprit, pour ne plus devoir subir une vision de la réalité monolithique qui leur serait imposée par un point de vue « partial et pervers »28. Ne plus subir cette objectivité, supposément transcendante pour ces philosophes théoriciennes, équivaudrait donc à ne 23 Varikas, E., 2012, Françoise Collin. Philosophe et féministe, philosophe féministe (1928-2012), Cahiers du Genre, 2 (53) : 189-192. 24 Id. 25 Haraway, D., 1988, art. cit. 26 Rossiter, M., W., 1993, The Matthew Matilda Effect in Science, Social Studies of Science, 23 (2): 325-341. 27 Alcoff, L., & Potter, E. (eds.), 1993. Feminist Epistemologies. New York, Routledge. 28 Voir par exemple Hartsock, 1983, art. cit. et Hekman, S., 1997, Truth and Method: Feminist Standpoint Theory Revisited, Signs, 22 (2): 341-365. Comment ne pas construire un discours scientifique 7 plus subir la domination masculine et l'ensemble des représentations idéologiques qu'elle impose, jusque dans les corps des dominées. Combattre l'illusion d'une objectivité transcendante est également le moyen de prendre en considération la « subjectivité historique collective » des femmes et leurs perceptions « encorporées » de la réalité29. Cette subjectivité historique collective provient essentiellement du matérialisme historique de Marx, point de départ théorique des épistémologies féministes dans la mesure où l'un comme les autres partagent la réalité sociale entre une classe dominante et une classe opprimée au point de vue privilégié (car seule à même de donner une représentation fidèle de leurs rapports de lutte). Le lien logique entre Marx et la subjectivité n'est à ce propos pas explicite, mais tient sans nul doute du démantèlement de la vision « statocentriste » du pouvoir émergeant au cours des années 197030, et avec lui, de la multiplication de théories structuralistes prônant un pouvoir « décentralisé »31 et subjectivé accordant une voix aux subalternes32. Selon cette généalogie, la critique épistémologique ne devrait pas être dirigée envers une entité monolithique, tel qu'évite de le faire la critique politique du pouvoir décentralisé : si « la » Théorie critique semble s'être volatilisée sous le coup de prolifération du postmodernisme, les pensées critiques sont de plus en plus nombreuses, dont le féminisme queer visant à conférer une échappatoire aux dichotomies de la sexualité. Si l'on retrouve chez Marx comme chez les théoriciennes du point de vue une lutte de classes – sociales ou épistémiques – inégales (i.e. antagoniques), la théorie féministe entend cependant dépasser les dichotomies de classes. C'est justement parce que l'histoire des rapports inégaux entre les sexes (biologiques), ainsi qu'entre les genres (socialement construits) s'est répétée au cours du temps que le point de vue masculiniste est le point de vue dominant de la société (en tout temps et en tout lieu, précisonsle pour situer l'ampleur démesurée de la tâche féministe). Dès lors, il ne peut exister d'objectivité indépendante de tout point de vue dans la mesure où ce qui préexiste aux subjectivités est ce point de vue masculiniste, matérialisé par sa répétition dans l'histoire et généralisé dans l'exercice des relations de pouvoir entre sexes et entre genres. Si le résumé que je propose semble hors sol, il est alors représentatif de textes dénués d'illustrations empiriques. L'essentiel à saisir est que le point de vue opprimé féministe se développe dans l'idéologie masculiniste dont la représentation du monde et les manières d'en rendre compte sont qualifiées (à tort) d'objectives. Afin de ne plus dépendre de cette idéologie, la seule solution est de développer un point de vue qui soit résolument partiel et ne prétendant à aucune objectivité (l'objectivité non axiologique n'étant pas concevable). C'est là le principe de l'« objectivité partielle »33 ou, selon le concept de Sandra Harding, l'« objectivité forte »34, d'après lequel l'objectivité ne peut être atteinte qu'en prenant en compte la subjectivité des chercheuses. D'où une objectivité autant « partielle » que « forte », puisque l'on suppose que la conjugaison des subjectivités féminines (et seulement elles) pallieront l'idéologie masculiniste. Il ne s'agirait plus de produire un « décentrement » pour passer du sens commun à la connaissance objec29 Haraway, D., 2007, Savoirs situés, Manifeste Cyborg et Autres Essais, Paris, Exils Editeurs. Keucheyan, R., 2013, Hémisphère gauche. Une cartographie des nouvelles pensées critiques, Paris, Zones. 31 Id. 32 Spivak, G., C., Les subalternes peuvent-elles parler ?, Paris, Éditions Amsterdam, 2009. 33 Voir également Longino, H., E., 1979, Evidence and Hypothesis, Philosophy of Science, 46 (1): 3556 ; 1981, Scientific objectivity and feminist theorizing, Liberal Education, 67 (3): 33-41 ; 2002, The fate of knowledge, Princeton, Princeton University Press. 34 Harding, S., 2015, op. cit. 30 8 Comment ne pas construire un discours scientifique tivée (comme c'est le cas dans la « nébuleuse » postmoderne35), mais d'opérer un pas de côté pour passer d'un paradigme masculiniste – ou androcentriste – à un paradigme féministe – ou gynocentriste36 plus fidèle à la réalité des interrelations entre dominés et dominants37. Tout cela suppose évidemment que la cumulation de subjectivités pourrait produire de l'objectivité. Il ne semble donc pas être question de concevoir l'interrelation comme le primat d'une critique objectivante en permettant un décentrement de la subjectivité (confer la réflexivité bourdieusienne ou l'imperium spinoziste), mais de prétendre à l'universalisme d'une objectivité censée se dresser contre le principe même d'universalité. L'objectivité forte revient en effet à affirmer que l'objectivité ne préexiste pas plus aux subjectivités qu'elle leur est indépendante, puisque la réalité qu'elle permet d'appréhender est socialement construite par les points de vue. C'est là la première réduction opérée par les épistémologies féministes du point de vue : celle de l'objectivité en intersubjectivité (discussion que l'on retrouve aussi bien chez Jürgen Habermas que chez Karl-Otto Apel38 et certains auteurs pragmatiques39). Cette réduction montre d'autant plus une contradiction interne à la théorie du point de vue que le combat contre la transcendance de la réalité et la manière dont on la perçoit est envisagé comme la seule arme efficace contre un « ennemi » que même Donna Haraway a du mal à définir40. Car si la masculinité est omniprésente, jamais elle n'est circonscrite (et encore moins définie). D'où le concept de « masculinité abstraite » de Nancy Hartsock41 et la sensation que ces auteures en viennent finalement à dresser une sotériologie42, plus qu'une épistémologie ancrée dans le réel. Dans le meilleur des cas, dénaturer ainsi un paradigme ou un cadre interprétatif en entité sociale empirique confère à l'objectivité féministe qu'entendent développer Harding et Haraway un caractère d'« objectivité fantôme »43 ; dans le pire des cas, prendre pour acquis et réifier un processus social en le personnifiant de manière diffuse et abstraite leur fait courir le risque de faire passer l'objet de leur combat pour un homme – littéralement – de paille44. Quelle que soit la métaphore ou le scénario, le débat n'en demeure pas moins immobile45 (voire inexistant à moins d'en identifier les camps avec clarté). 35 Sokal, A., & Bricmont, J., 1999, Impostures intellectuelles, Paris, Odile Jacob. Ginzberg, 1987, art. cit. 37 Ce mouvement « de côté » se retrouve dans la Black Sociology chez Joyce Ladner (Howard University, D.C.), pour qui le combat pour les droits civiques et l'ère du « black power » montante aurait permis le passage d'un prisme « blanc » vers un prisme « noir » en sociologie, d'où une « mort de la sociologie blanche » (1998, The Death of White Sociology. Essays on Race and Culture, Baltimore, Black Classics Press). 38 Voir par exemple Apel, K-O., 1984, Understanding and Explanation: A Transcendental-Pragmatic Perspective, Cambridge, MIT Press. 39 Apel, K-O., & Peirce, C., S., 1981, From pragmatism to pragmatism, Amherst, University of Massachusetts Press ; Wilson, J., 1968, In Quest of a Community. Social Philosophy in the United States, 1860-1920, London, Oxford University Press. 40 Haraway, 1988, art. cit. : 577-578. 41 Hartsock, N., 1984, Money, Sex, and Power: An Essay on Domination and Community, Boston, Northeastern University Press. 42 Telle que l'anthropologue sri-lankais Gananath Obeyesekere la décrit au croisement de différentes cultures dans son ouvrage de 2002, Imagining Karma: Ethical Transformation in Amerindian, Buddhist, and Greek Rebirth, Oakland, University of California Press. 43 Lukacs, G., 1971, History and Class Consciousness. Studies in Marxist Dialectics, Cambridge, MIT Press : 83. 44 Dubois, M., 2002, Les enjeux philosophiques et sociologiques d'une redéfinition actionniste de la « construction sociale » des sciences, Revue européenne des sciences sociales, XL (124) : 190. 45 Termes repris par Michel Dubois (confer note précédente) à partir du titre de Doury, M., 1997, Le débat immobile. L'argumentation dans le débat médiatique sur les parasciences, Paris, Kimé. 36 Comment ne pas construire un discours scientifique 9 Je ne compte pas entamer dans cette note une « protestation contre la réification » et sa « méprisable inauthenticité »46, bien qu'à n'en pas douter, la « chosification » d'un phénomène créé son anomie (id.) et, qu'à matérialiser ce qui est de l'ordre du construit mouvant, du muable social et du processus continuel, ces théoriciennes parviennent à donner une fausse impression de volatilité à leur objet (impression résultant par ailleurs tout autant de leur manière même de concevoir l'objectivité). Développer les points de vue pour une justice épistémique : modus operandi par l'historiographie Le perspectivisme n'est pas une posture épistémologique récente et se trouve déjà dans les travaux de Kant, Nietzche47 et Montaigne, et avec elle, les motivations de l'adopter : limiter la suprématie d'un groupe d'individus sur le reste de la communauté intellectuelle. Dans les deux cas, l'hostilité envers une vérité absolue48 ou la séparation des points de vue pratique et théorique49 revendiquent le rejet d'une vérité transcendante pour mieux pallier les éventuels impérialismes épistémiques. Tout cela n'a guère changé depuis la philosophie du 19e siècle et se retrouve dans la quasi-totalité des courants ayant développé un « paradigme de la conscience des dominés »50 au sein des postcolonial science studies (selon Van Damme)51. Comptons à ce titre les subaltern studies qui, à l'instar des épistémologies féministes du point de vue, se sont développées sur la base d'un antagonisme dominant/dominé puisé dans l'oeuvre de Marx52 et témoignent d'une orientation intellectuelle aussi théorique que politique développée au tournant « postmoderniste » des années 1980. Intégrées dans les postcolonial studies (les sous-catégories n'en finissent plus), des croisements s'opèrent d'ailleurs entre subaltern et gender studies53, lesquels s'intègrent au combat des subalternes contre le paradigme nationaliste dominant dans l'Inde des années 198054. On peut en trouver une illustration par exemple chez Elsa Dorlin55, mais aussi dans la plupart des travaux de Saba Mahmood56 : au nom de leur subalternité respective, femmes et indiens partagent un même label participant à leur positionnement académique (tout comme les universités dont sont issues les auteures féministes de la théorie du point de vue, les figures de proue des théories de la subalternité rattachées à la prestigieuse université de Columbia 46 Adorno, T., 2003, La dialectique négative, Paris, Payot : 115. A ce propos, voir par exemple Welshon R., 2004, The Philosophy of Nietzsche, Montréal, McGillQueen's University Press, et Palmquist, S., R., 1993, Kant's System of Perspective : an Architectonic Interpretation of the Critical Philosophy, Lanham, University Press of America. 48 Nietzsche, F., 1967, The will to power, New York, Vintage Books. 49 Kant, E., 1980, Critique de la Raison Pure, Paris, Presses Universitaires de France. 50 Pouchepadass, J., 2000, Les Subaltern Studies ou la critique postcoloniale de la modernité, L'Homme, 156 : 161-186. 51 Van Damme, S., 2008, De la vie du laboratoire à la théorie du Cyborg. Trajectoires de l'anthropologie des sciences aux États-Unis (1979-2007), L'Homme, 3 (187-188) : 393-412. 52 Le terme « Subaltern Studies » est d'ailleurs repris aux Cahiers de prison d'Antonio Gramsci. 53 Pouchepadass, J., 2000, art. cit. 54 Voir également Chakrabarty, D., Subaltern Studies And Postcolonial Historiography, Nepantla: Views from South, 1 (1) : 9-32. 55 Dorlin, E., 2010, Les subalternes pourront-elles philosopher ?, in Marcel Gauchet, Pierre Nora (dir.), De quoi l'avenir intellectuel sera-t-il fait ? Enquêtes 1980/2010, Le Débat/Gallimard : 374-380. 56 Par exemple : Mahmood, S., 2001, Feminist Theory, Embodiment, and the Docile Agent: Some Reflections on the Egyptian Islamic Revival, Cultural Anthropology, 16, (2): 202–236. 47 10 Comment ne pas construire un discours scientifique ne sont pas rares, en dépit de l'imprécision notable de leur appartenance naire57). La force d'identification de ces étiquettes mouvantes et éphémères que sont les catégories et sous-catégories « studies » est pourtant grandement à relativiser. Plus il y a de spécialités, plus il y a de prétentions à un savoir particularisé, plus il y a de fragmentation de la réalité, plus il y a de dispersion cognitive et moins ces sous-catégories peuvent prendre racine dans les programmes d'enseignements ou dans les infrastructures institutionnalisées de recherche des départements universitaires. Dans le meilleur des scénarios, cela nuit à toute entreprise de communication, dans le pire, le contenu cognitif des théories auxquelles ces « studies » entendent se rattacher est tellement éparpillé qu'il se dilue et perd toute heuristique. Ces innombrables sous-catégories sont par ailleurs bien souvent mises en relation puisque les auteurs se revendiquant de l'une ou de l'autre ne peuvent se restreindre à une seule sous-catégorie. S'en suivent des enchevêtrements de sous-catégories inextricables à la lecture difficile, dont les postcolonial studies, imbriquées avec les feminist studies et leurs sous-catégories respectives – les feminist studies of science and technology, les postcolonial science and technology studies (auxquelles Sandra Harding consacre un ouvrage en 201158), les feminist poststructuralist studies of science, etc. – en livrent un exemple fort en céphalalgies. Pour chacun des deux courants, que la classe des opprimés développe un point de vue (ou que soient institutionnalisés leurs positionnements au sein du champ académique) ne suffit pas à aboutir à une « justice épistémique »59 : il convient également de passer par une réécriture de l'histoire. Se développe ainsi un courant historiographique « par le bas » (History from below) qui, dans sa production multiple (souvent microhistorique) sur le banal et le quotidien, peut servir d'appui à ces projets d'histoire sociale fondés sur l'antagonisme et la construction d'une classe « pour soi » en opposition à la classe des privilégiés60. Tel est précisément le projet de la science « gynocentriste » contrebalançant la science « mainstream » et masculiniste, que Ruth Ginzberg développe dans un article de la revue de philosophie des sciences féministe Hypatia en 1987. Il ne s'agit pas de remplacer un paradigme par un autre, mais de mettre en lumière un paradigme « gynocentriste » ayant existé en parallèle du paradigme masculiniste tout au long de l'histoire des sciences. Ce projet d'historiographie féministe doit alors répondre au besoin de la science (sociale comme naturelle) d'un « matérialisme historique spécifiquement féministe »61, qui soit « à l'opposé d'un empirisme excessif ou de l'effort positiviste en sciences sociales »62. Si l'hypothèse de départ n'est pas dénuée d'élégance 57 Dont Sudipta Kaviny (« spécialiste d'histoire intellectuelle »), Gayatin Spivak (littérature/histoire) ou Partha Chaterjee (anthropologie/histoire/théorie politique). 58 Harding, S., 2011 (ed.), The Postcolonial Science and Technology Studies Reader, Durham and London, Duke University Press. 59 À ce sujet, voir par exemple Bhargava, R., 2013, « Pour en finir avec l'injustice épistémique du colonialisme », Socio, 1 : 41-75. 60 C'est en prenant appui sur Gramsci que Ranajit Guha, figure de proue des Subaltern Studies, dresse l'opposition entre domination (matérielle ou en nombre des subalternes) et hégémonie (de l'élite culturelle). Cf. Guha, R., 1989, Dominance without Hegemony and its Historiography, in Guha, R., (ed.), Subaltern Studies VI, Delhi, Oxford University Press: 210-309. C'est là un autre moyen de se penser soi-même comme étant « son propre fondement », comme l'écrivait Sartre dans L'être et le néant. Essai d'ontologie phénoménologique (1943, Paris, Gallimard). C'est également ce que Frantz Fanon entreprend afin d'étudier l'esclavage par un regard détaché du poids de l'histoire et en rupture avec le passé de « ses ancêtres domestiqués » (1952, Peau noire, masques blancs, Paris, Editions du Seuil.). 61 Hartsock, N., 1983, art. cit. 62 Harding, S., 1987, The Method Question, Hypatia, 2 (3) : 21. Comment ne pas construire un discours scientifique 11 (que les épistémologies ont le don de diluer les problèmes de la recherche empirique dans des programmes philosophiques illusoires !), la situation échappe à tout contrôle théorique (et pratique) lorsque Ginzberg invite à un travail de « révision de l'histoire [des sciences] par un regard féministe » en prenant garde de ne pas restreindre la tâche historiographique aux seules activités « labélisées Science »63. Contrer l'objectivité universelle et transcendante requiert en effet selon ce point de vue une déconstruction de l'intégralité des savoirs véhiculés dans notre société, scientifiques comme non scientifiques. Car nous ne pourrions « commencer à conceptualiser une science non masculine [alors même que] notre histoire, notre langage, nos cadres conceptuels et notre littérature ont été générés par des hommes »64. Il faut donc se « doter d'une représentation féministe de l'humanité », avec d'autres « visages et d'autres gestuelles »65. Karen Barad développe pour cela une théorie féministe dite « de réalité agentielle » ou de « transmatérialité »66, visant à expliquer comment peuvent coexister plusieurs paradigmes scientifiques : existant entre le vivant et le non-vivant, entre l'animé et l'inanimé (ou en voie de l'être), Barad dresse une analogie entre processus cognitifs et processus météorologiques supposée démontrer l'obsolescence des dichotomies vivant/non vivant, corps/non-corps et pensée/matière, sous le prétexte qu'elles suivraient un cheminement chaotique et imprévisible, à l'image des éclairs67. Il ne s'agit donc plus de se positionner ici par rapport à un paradigme, mais par rapport à l'ensemble de la réalité « agençant » tout paradigme, tout temps, tout espace, tout vivant et tout nonvivant en même temps. Une telle réflexion donnerait le vertige si une analyse critique pouvait seulement en être retirée. La solution « chaotique » de Barad peut d'ailleurs être lue comme une solution de facilité où, face à des dualités réifiées (entre genres, réalités et épistémologies) et l'impossibilité de trier le bon grain de l'ivraie, l'on stipule gaiement que tout s'entremêle dans un maelstrom que nous ne pouvons prétendre contrôler. Un nouveau (énième ?) contre-sens des théories féministes du point de vue et du réalisme agentiel est dès lors à identifier, que je baptiserai pour l'occasion « régression du point de vue passif »68 : décriant la passivité des femmes quant aux représentations de la réalité que le « point de vue masculiniste » leur impose, elles n'en prônent pas moins un discours métaphorique (voire excessivement allégorique, quid de la personni63 Ginzberg, R., 1987, Uncovering gynocentric science, Hypatia, 2 (3): 90. Bleier, R. (ed.), 1986, Feminist approaches to science, Elmsford and New York, Pergamon : 15. 65 Haraway, 2007, op. cit. : 221-222 ; voir également Frye, M., 1983, The politics of reality: Essays in feminist theory, Trumansburg, Crossing Press ; Longino, H., E., 1983, Beyond "bad science", Science, technology and Human Values, 8 (1): 7-17. Malgré tout, Sandra Harding reste prudente quant aux modalités d'une "science féministe", autant en terme de méthode que de savoir véhiculés (1983, op. cit., 1987, art. cit.). 66 Barad, K., 1997, Meeting the Universe Halfway: Realism and Social Contructivism without Contradiction, in Hankinson, Nelson, L. & Nelson, J., Feminism, Science, and the Philosophy of Science, Dordrecht, Kluwer Press; 2007, Meeting the Universe halfway: Quantum physics and the entanglement of matter and meaning, Durham, Duke University ; 2015, Transmaterialities: Trans/Matter/Realities and Queer Political Imaginings, GLQ: A Journal of Lesbian and Gay Studies, 21 (2-3): 387-422. 67 "Branching expressions of prolonged longing, barely visible filamentary gestures, disjointed tentative luminous doodling each faint excitation of this desiring field is a contingent and suggestive inkling of the light show yet to come. No continuous path from sky to ground can satisfy its wild imaginings, its insistence on experimenting with different possible ways to connect, playing at all matter of errant wanderings in a virtual exploration of diverse forms of coupling and dis/connected alliance." (Barad, 2015, art. cit. : 387.) 68 Le lien avec la « régression de l'expérimentateur » de Collins n'est pas un effet de style. Cf. Collins, H., 1994, A strong confirmation of the experimenters' regress, Studies in History and Philosophy of Modern Physics, 25 (3): 493-503. 64 12 Comment ne pas construire un discours scientifique fication de la nature, de la matière, etc.) ventant la liberté épistémique par la perte de contrôle sur celle-ci. « Nous » les femmes (je m'étonne que ni Haraway, ni ses comparses n'usent de la majuscule) devrions nous libérer de la masculinité pour mieux sauter dans un autre fatalisme : celui de l'absence totale de contrôle sur la réalité matérielle. Il va sans dire qu'un fatalisme ne valant pas mieux que l'autre quels que soient les palabres, je dirai avec Karl Kraus qu'entre deux maux, je refuse de choisir69. À ambitions similaires, critiques transversales : apories du localisme et autres faiblesses explicatives Si les ambitions des subaltern et cultural studies sont similaires à celles des épistémologies féministes du point de vue, c'est également le cas des critiques qui leur sont imputables, dont l'usage de jargon et la sous-définition des termes centraux à leur échafaudage théorique70. Car, si le point de vue « androcentriste » ou « phalogocentriste » est omniprésent (d'autant plus chez Haraway, Keller, Longino et Ginzberg), jamais sa portée et ses principes ne sont plus explicités que ne l'est l'« encorporation » (dont, formée à la sociologie, désigne me semble-t-il un processus proche de l'habitus bourdieusien). Ces deux concepts sont pourtant centraux dans l'assise des savoirs situés et de leurs « points de vue », lesquels flottent, eux aussi, dans le brouillard des effets de style. Ces déboires discursifs se conjuguent aux apories de l'appréhension localiste des savoirs dont témoignent feminist science studies et postcolonial science studies. Le fait de replacer les productions scientifiques (des hommes et des scientifiques) en contexte (épistémique, technique, socioculturel, politique, métaphysique, etc.) se retrouve également dans l'approche constructiviste de la science. Les ethnographies de laboratoire en fournissent un exemple illustratif, puisqu'il y est question d'appréhender la science in statu nascendi par l'observation voire, comme dans le cas de Michael Lynch71, de l'immersion et de l'observation participante. Cette analyse ethnographique se fait parfois au détriment de la réalité sociale étudiée et du langage dans lequel elle s'exprime, comme cela est le cas dans l'approche de reconstruction sociologique des discours scientifiques chez Bruno Latour72. Ce localisme des activités scientifiques et des savoirs qu'elles produisent est également structurant des travaux d'anthropologues porteurs d'une anthropologie culturelle « postmoderne » (dont Geertz73). Dans les deux cas, le localisme se réfère à (1) la dépendance des savoirs produits aux instruments utilisés dans le processus, (2) du lieu de pratique observé (qu'il s'agisse d'un laboratoire de neurosciences ou d'un clan balinais). Pluralisme des points de vue et localisme se diffusent dans autant de courants des sciences sociales portés par une dialectique de la domination, des Feminist Studies aux Subaltern Studies, de la sociologie à l'anthropologie, en passant par la Black Sociology et les Science Studies. L'usage de concepts objectivés – car passés au crible de 69 « Entre deux maux, je refuse de choisir le moindre » Kraus, K., in Bourdieu, P., 1998, Contrefeux, Propos pour servir à la résistance contre l'invasion néolibérale, Paris, Raisons d'agir, : 16. 70 Pouchepadass, 2000, art. cit. 71 Lynch, M., 1985, Art and artifacts in laboratory science. A study of shop work and shop talk in a research laboratory, London, Routledge. 72 Latour, B., & Woolgar, S., 1988, La vie de laboratoire : la production des faits scientifiques, Paris, La Découverte. 73 Geertz, C., 1986, Savoir local, Savoir global. Les lieux du savoir, Paris, Presses Universitaires de France. Comment ne pas construire un discours scientifique 13 « l'oblitération par incorporation »74 – doit cependant permettre de « délocaliser » les savoirs, afin que ces derniers puissent dépasser les cadres interprétatifs pluriels relatifs aux expériences « subjectives collectives » (pour reprendre les termes d'Haraway). Il n'est évidemment pas question d'universaliser des cadres interprétatifs circonscrits et partiellement partagés (par exemple, une religion), mais d'attendre du savoir et de la réalité qu'ils n'y soient pas restreints. Le contraire reviendrait à réduire les sciences sociales au mieux, à un « sophisme cognitiviste »75, au pire, à une herméneutique du simulacre où l'on ne saurait distinguer l'acte simulé de l'acte réel76. Aucun prisme par lequel la perspective est amenée n'est par ailleurs une constante historique – c'est pour cela que le temps est, chez Foucault, pourvoyeur d'herméneutique77 –, tant et si bien que la « polarisation dans la structure sociale sous-jacente en vient à se refléter dans la polarisation des déclarations dans le domaine intellectuel et idéologique »78 . Tout comme une découverte scientifique, il dépend de certaines conditions sociales et émerge au cours de « conflits sociaux étroits » 79 . Il s'agit d'un processus entre l'expérience vécue par une collectivité puissante (nationale, ethnique, genrée, etc.) et le développement d'une contre-réponse (contre l'ethnocentrisme, par exemple). Là encore, les filtres théoriques visent à effectuer un travail de balance entre l'expérience subie et l'obtention d'une justice épistémique, autant que sociale. Dans le cas des subalternes comme dans celui des féministes, il aura par ailleurs été question de se dresser contre « l'élite qui s'arrogeait le privilège de les représenter »80. Les épistémologies féministes du point de vue ont cependant un apport incontestable dans l'étude des relations entre savoir et pouvoir – déjà au coeur des travaux du Foucault de l'Archéologie du savoir et de L'ordre du discours – et visent à donner de la profondeur à ce que l'on identifie par la suite comme rapports sociaux de pouvoir : l'oppression n'a pas lieu dans la lutte entre les corps, mais résulte de l'assimilation de cadres interprétatifs de la réalité imposés par un point de vue ou paradigme universalisé. C'est en cela que la Black Sociology aura dénoncé l'instrumentation de la sociologie (en tant que cadre de production et de circulation de savoirs) dans l'exercice d'une domination épistémique ethnocentrée. Robert Staples va jusqu'à opposer la white sociology (« science of oppression ») et la black sociology (« science of liberation »)81. Si la sociologie est un tel « instrument d'une idéologie raciste »82, c'est parce qu'elle diffuserait des valeurs et catégories sociales-raciales en faveur de la classe privilégiée, qu'elle reproduirait des savoirs faussement universels, et que son fonctionnement reposerait sur une structure sociale où ses institutions et systèmes de récompense se font en détriment de la classe des opprimés. Difficile de trouver pire science. 74 Merton, R. K., 1973, The Sociology of Science: Theoretical and Empirical Investigations, Chicago, University of Chicago Press. 75 Geertz, C., 1998, La description dense. Vers une théorie interprétative de la culture, Enquête, 6. 76 Id. 77 Confer son concept d'épistémè. Pour une définition particulièrement explicite, voir Foucault M., 2004, Des espaces autres, Empan, 2, (54) : 12-19. 78 Merton, R., K., 1972, Insiders and Outsiders: A chapter in the Sociology of Knowledge, American Journal of Sociology, 78 (1) : 9-47, : 17. 79 ibid. : 18. 80 Pouchepadass, 2000, art. cit. : 164. 81 Staples, R., 1973, What Is Black Sociology? Toward a Sociology of Black Liberation, in Ladner, J. (ed.), The Death of White Sociology, New York, Random House. 82 ibid. : 164-166. 14 Comment ne pas construire un discours scientifique Tout comme les auteures féministes sus-citées, les porteurs de la subalternité postcoloniale ont été accusés d'avoir ignoré les transformations du contexte social dans lequel leur courant avait pu prendre forme83. Entre 1982 et 2015 (date de parution du dernier ouvrage de Sandra Harding, consacré à l'objectivité forte), on ne peut ignorer les revendications que portaient les mouvements féministes dans les années 1970-1980 qui ont été intégrées au corpus juridique et légal des gouvernements occidentaux et ce, même si lois et moeurs n'évoluent pas de façon synchronique. L'expérience intersubjective de la « domination masculine » ne cesse en effet pas avec l'acquisition d'une reconnaissance publique et politique, ni avec l'inscription de droits et de prises en considération de leurs discours dans des textes de lois. Un grand nombre de combats sociaux sont inscrits dans la durée et les catégories sociales structurant les interrelations sont généralement lentes et surtout revêches à la transformation. Malgré cela, les années passées sur des campus prestigieux et isolés des transformations de la société, confèrent aux épistémologies du point de vue et à leurs savoirs situés un état de sclérose que certains sociologues prédisaient au constructivisme, dans le cas où celui-ci se transformerait en dogme 84 . D'une part, parce que leurs auteures s'enferment dans une tour d'ivoire scolastique (d'après Bourdieu, confer l'extrait des Méditations pascaliennes ci-après), autant coupée du monde social que du reste de la communauté scientifique (encore d'après Bourdieu, d'où un processus de décrochage cognitif avec la réalité autant qu'avec le reste de la communauté scientifique). Ensuite, parce que ces épistémologies se sont construites sur des luttes sociales réifiées, relatives à un contexte d'effervescence sociopolitique bien particulier (i.e. les États-Unis des années 1970, marquées par divers mouvements de lutte pour les droits civiques). Enfin, parce qu'elles se fondent sur le maintien de dualismes et l'élaboration de catégories n'apportant plus aucune eau au moulin scientifique : là où il y a mise en exergue d'« anomalies » dans le « paradigme » dominant (celui de l'objectivité traditionnelle, pour reprendre l'usage de Kuhn qu'en fait Ginzberg), il y a émulation. Et l'émulation est nécessaire au développement des connaissances. Il n'y a cependant guère plus d'avancée lorsqu'il s'agit de se bâtir une doctrine85 épistémologique ghettoïsée : l'on trébuche, d'abord, puis l'on finit par sombrer dans une régression de la recherche de la vérité ad vitam aeternam. Les dichotomies déconstruites par Harding86 font d'ailleurs place à des dualismes tout aussi restrictifs : il y a « l'engrossement du monde » par « l'oeil cyclopéen » d'un côté 87 , la « seconde naissance » ou « réorigination » 88 de l'autre ; « l'objectivité faible » versus « l'objectivité forte »89, « l'androcentrisme » ou « phalogocentrisme » dominant, face au « gynocentrisme » 90 dominé, les « innocent(e)s »91 subissant d'un côté, les responsabilisées et conscientes de l'autre la dichotomie continue d'aller bon train et s'appuie sur un lexique oscillant entre la métaphorisation ésotérique et le néologisme à outrance. 83 Pouchepadass, 2000, art. cit. Par exemple : Shinn, T., & Ragouet, P., 2005, Controverse sur la science. Pour une sociologie transversaliste de l'activité scientifique, Paris, Raisons d'agir ; Lemieux, 2012, art. cit. 85 Je reprends ici le terme à Haraway. 86 1987, art. cit. 87 Haraway, 1988, art. cit. et 2007, op. cit. 88 Sofoulis, Z., 1988, Through the lumen: Frankenstein and the optics of re-origination, PhD Thesis, Santa Cruz, University of California. 89 Harding, 2015, op. cit. 90 Ginzberg, 1987, art. cit. 91 Haraway, 1988, art. cit. 84 Comment ne pas construire un discours scientifique 15 Décrochage cognitif et enfermement scolastique Ce décrochage cognitif trouve une forme plus matérialisée dans ce que Bourdieu (afin de « situer » également sa posture : alors professeur au Collège de France, directeur du Centre de sociologie européenne à l'EHESS, passé autrefois par l'ENS) qualifie avec violement d'« enfermement scolastique »92. Nombre de théoriciennes féministes du point de vue ont réalisé leur thèse (voire continuent d'enseigner) dans ce que le sociologue identifie comme « la skholè faite institution » (dont Harvard et Yale), séparée de la cité et témoignant d'une « vie culturelle, artistique et politique qui leur est propre »93, en autarcie intellectuelle voire même académique (avec la publication régulière de leurs revues et de leurs maisons d'édition). Cette « coupure sociale et mentale », cette « élection scolaire » et cette « cohabitation prolongée d'un groupe très homogène socialement » ne font que renforcer les effets de « l'enfermement scolastique »94. (Il va sans dire que le réquisitoire de Bourdieu, utile et pertinent pour situer ces auteures dans mon propos, mais dont la justification manque entre les multiples ellipses et digressions des Méditations, pourrait parfaitement être adressé au Collège de France. Ce qu'a fait par exemple l'historienne Michelle Perrot95 à l'occasion de la publication de La domination masculine). L'idéaltype de ces campus isolés de la ville comme de « l'actualité et de la politique »96 est, pour Bourdieu, l'Université de Santa Cruz en Californie, celle-là même où Donna Haraway détient la Chaire d'Histoire de la conscience, où Katie King a soutenu sa thèse en 1987 et où Karen Barad enseigne les Feminist Studies. Le sociologue la décrit ainsi comme un « () archipel de collèges dispersés dans une forêt qui ne communiquent que par Internet, a été construite dans les années soixante, au sommet d'une colline, à proximité d'une station balnéaire pour retraités aisés, sans industries : comment ne pas croire que le capitalisme s'est dissous dans un « flux de signifiants détachés de leurs signifiés », que le monde est peuplé de « cyborgs », « cybernetics organisms », et que l'on est entré dans l'ère de « l'informatics of domination », lorsque l'on vit dans un petit paradis social et communicationnel, d'où toute trace de travail et d'exploitation a été effacée ? 97. Sept auteures sur neuf (en comptant également Judith Butler) ont donc réalisé leur thèse ou enseignent aujourd'hui sous le soleil californien, oscillant entre l'Université de Santa Cruz (Haraway, King, Sofoulis, Barad), l'Université de Californie de Los Angeles (Harding) et la prestigieuse Berkeley (Keller, Butler). Trois d'entre elles ont soutenu leur thèse à Yale – un de ces campus de l'entre-soi privilégié et coupé de la réalité sociale selon Bourdieu – (Haraway, MacKinnon et Butler), une à Harvard (Keller), une à la John Hopkins University (Longino). Sans évoquer la détention de la chaire de philosophie à Stanford de Longino ou le statut de Professeure émérite au MIT de Keller. Nous sommes donc bien loin des scientifiques féminines(istes) que ces auteures évo- 92 Bourdieu, P., (1997), 2003, Méditations pascaliennes, Paris, Editions du Seuil. Ibid. : 63. 94 Ibid. : 64. 95 Perrot, M., 1998, Bourdieu et le mâle absolu. Femmes, encore un effortOn peut adhérer aux thèses de Bourdieu et s'étonner du peu de crédit qu'il accorde au pouvoir de changement des féministes, Libération, 27 août. 96 Ibid. : 63. 97 Ibid. : 64. 93 16 Comment ne pas construire un discours scientifique quent dans leurs travaux (telles que Barbara McClintock98) et dont la reconnaissance par le système académique masculiniste et mainstream se fait attendre ou s'avère néfaste à l'identité des chercheuses99. Ce qui n'empêche pas Keller d'écrire qu'il « n'y a qu'une seule science », celle où le système de récompense de la science est effectif et où ce qui est récompensé est, ipso facto, reconnaissable comme « scientifique »100. En cela, elle n'a en effet pas tout à fait tort, et en fait elle-même partie. Selon Van Damme, l'éloignement des centres universitaires ne conduit pas les fondateurs des Cultural Studies101 à la « marginalisation académique » grâce à des publications régulières dans des revues actives telles que Past and Present ou History Workshop102. Les auteures sus-citées publient toutefois dans des revues bien précises et occupent des scènes de diffusion propres à leur entre-soi académique (telles que la revue Hypatia103, bien connue dans les cercles de philosophie féministe des sciences). Les épistémologues féministes du point de vue ne constituent donc pas une « communauté imaginée »104, qui rassemblerait des individus épars étrangers les uns aux autres et dont le lien de cohésion ne tiendrait qu'à un sentiment d'appartenance partagé : elles échangent régulièrement, corédigent des articles et des ouvrages voire se répondent les unes aux autres dans des séries successives de publications 105, codirigent des revues spécialisées, animent des colloques et dirigent les thèses de celles qui participeront par la suite à la production philosophique, sémantique et politique de cette communauté. Ce groupe d'auteures confirment ainsi que le positionnement épistémologique est (entre autres) une affaire de positionnement au sein du champ académique et d'occupation d'espaces sociaux qu'elles auront elles-mêmes circonscrits et construits. Tel est (à nouveau) le discours de Bourdieu, pour qui tout chercheur est avant tout situé « en un lieu de l'espace social d'abord, et en un lieu aussi de l'un de ces sousespaces que sont les champs scolastiques » ensuite106. Les « cerveaux » des chercheurs sont dès lors tout autant « nationalement programmés » que leur esprit n'est « façonné par et pour un champ universitaire »107, tout individu étant conséquemment « situé » au sein d'un espace de rapports sociaux de pouvoir et d'une communauté aux normes et valeurs bien définies, avant de l'être d'après une idéologie genrée diffuse. De la même 98 Keller, E., F., 1987, The gender/science system: or, is sex to gender as nature is to science?, Hypatia, 2 (3): 37-49. 99 Voir à nouveau l'étude du cas de Barbara McClintock dans Keller, 1987, art. cit. 100 Keller, E., F., 1985, Reflections on gender and science, New Haven, Yale University Press. 101 Qui optent pour de petites universités, contrairement aux auteures des épistémologies féministes des savoirs situés citées dans le billet. 102 Van Damme, S., 2004, Comprendre les Cultural Studies: une approche d'histoire des savoirs, Revue d'histoire moderne et contemporaine, 5 (51-4bis) : 48-58. 103 En début de chaque numéro, telle est la présentation qui en est faite au lecteur et à la lectrice béotien/ne : « Hypatia (Hy-pay-sha) était une philosophe, mathématicienne et astronome égyptienne, qui vécut toute sa vie à Alexandrie (environ 415-370 av. JC). JC. Elle dirigea l'école néoplatonicienne d'Alexandrie et était connue pour être une enseignante éloquente et inspirante. Le journal Hypatia est nommé en l'honneur de cette soeur et ancêtre. Son nom nous rappelle que, si encore bon nombre d'entre nous sommes les premières femmes philosophes de nos universités, nous ne sommes après tout pas les premières de l'histoire. » 104 Anderson, B., 1991, Imagined Communities: Reflections on the Origin and Spread of Nationalism, London & New York, Verso. 105 C'est par exemple le cas de l'article « Situated Knowledge » (1988, art. cit.) de Donna Haraway (central puisque théorise les bases des savoirs situés autour desquels se rassemblent les épistémologies féministes), que cette dernière avait écrit en réponse à un ouvrage de Sandra Harding (« The Science Question in Feminism », 1986, op. cit.). 106 Bourdieu, 1997, op. cit. : 47. 107 Ibid. : 49. Comment ne pas construire un discours scientifique 17 manière, Varikas écrit à propos de Françoise Collin (romancière et philosophe féministe belge) qu'« elle n'est jamais rentrée dans le moule académique, restant à l'écart des institutions philosophiques conservatrices et fermées aux femmes et, a fortiori, aux féministes »108. Collin n'en aura pas moins publié aux éditions du Seuil, Gallimard, Odile Jacob, et aura dirigé une collection (« Grif », comme ses Cahiers) aux Éditions de Minuit. Je serai reconnaissante à celui ou celle qui m'expliquera d'où vient cette représentation romantique de la production intellectuelle qui, à l'instar du mythe de l'artiste maudit, ne pourrait être riche et révolutionnaire qu'en contexte d'insurrection intellectuelle, hors tous murs académiques (ou qui pourrait se départir parfaitement de leur normativité)109. Rhétorique La dialectique du corps On l'aura compris suite à la première partie de cet article-billet, l'essentiel des outils de persuasion du discours des épistémologies féministes du point de vue situé se fonde sur le corps, conçu comme artefact social modelé par le paradigme masculiniste. Si l'être humain « est un animal pris dans les réseaux de signifiance qu'il a lui-même tissés »110, il lui reviendrait de les déconstruire (car à qui d'autre le demander ?) afin de se forger son propre « point de vue », à même de lui fournir une lecture du monde social en adéquation avec ses perceptions ; c'est selon cet axiome que les épistémologies féministes du point de vue appellent à un réajustement épistémique par les corps et les perceptions qu'ils génèrent. Pour Haraway, la science se construit en effet sur des systèmes perceptifs porteurs de l'idéologie masculiniste, ce qui aurait pour conséquence de dénaturer le corps et d'en faire un « Cyborg », mi-naturel, mi-artificiel. « Dénaturé », dans le sens où Haraway stipule que le corps humain n'a jamais rien eu de tout à fait « naturel » dans la mesure où il est construit de « prothèses » issues des constructions sociales (véhiculées par les idiomes de l'idéologie masculiniste). Ce sont d'ailleurs les difficultés de définition de ce qui est « naturel » et la différenciation avec ce qui ne l'est pas qui l'amène à développer son concept de Cyborg. Le propos d'Haraway est encore une fois très imagé et, avec la stylistique brumeuse et (volontairement ?) opaque qui la caractérise, elle explique comment ces systèmes perceptifs ou « prothèses signifiantes » résultent de « l'engrossement du monde » par le masculinisme111. C'est ce que Zoë Sofoulis appellera – également bien outillée dans sa verve – « l'oeil cannibale du plan extra-terrestre masculiniste pour une seconde naissance excrémentielle »112. Ce Cyborg est donc, au 108 Varikas, 2012, art. cit. Mythe que l'on aura retrouvé récemment chez Geoffroy de Lagasnerie (2011, Logique de la création, Paris, Fayard). Si ce dernier défend l'idée que certains des intellectuels les plus importants du XXe siècle (Foucault, Derrida, Deleuze, Bourdieu) ont dû s'affranchir du cadre universitaire et de son uniformatisation intellectuelle pour faire émerger leurs théories, cela est certainement sans lien avec le fait qu'il ait lui-même produit cette théorie au sein du cadre (prestigieux) de l'EHESS. 110 Geertz, 1998, art. cit. : 3. 111 Haraway, 1988, art. cit. : 581. 112 1988, op. cit. Sofoulis poursuit sa métaphore de « l'extraterrestrialisme » dans sa thèse (1988, op. cit.), en réalisant ce qu'Haraway qualifie de « psychanalyse de la culture science-fi en traitement à la technoscience » (1988, p. 297). Comme évoqué précédemment, les auteures s'adonnent régulièrement au dialogue entre leurs publications respectives. 109 18 Comment ne pas construire un discours scientifique passage, censé déconstruire les dichotomies entre maitrise et non maitrise du corps, objet et sujet, nature et culture. Ceci, afin de justifier l'oppression masculiniste que la théorie du point de vue situé entend pallier. C'est pour cette raison que, comme le rappelle Van Damme, Haraway définit le Cyborg comme un symbole d'espoir et d'émancipation : « la tradition du progrès – () tradition de la reproduction de soi à partir de la réflexion de l'autre – la relation entre organisme et machine a été une guerre de frontières. Les enjeux de cette guerre furent les territoires de la production, de la reproduction et de l'imagination»113. Pierre Bourdieu n'en dresse pas moins une critique brève mais acide à souhait dans ses Méditations pascaliennes : « () c'est sans doute le fétichisme typiquement scolastique du texte atomisé qui entraine nombre de ceux qui se rangent parmi les "postmodernes" à conférer à toutes les réalités culturelles, et au monde social lui-même, le statut de textes autosuffisants et auto-engendrés, justiciables d'une critique strictement interne : c'est le cas par exemple de certaine critique féministe qui tend à faire du corps féminin, de la condition féminine ou du statut inférieur de la femme, un pur produit de la construction sociale performative, et qui, oubliant qu'il ne suffit pas de changer le langage, ou la théorie, pour changer la réalité (), accorde sans examen à la critique textuelle une efficacité politique. Or, s'il est bon de rappeler que le genre, la nation, l'ethnie ou la race sont des constructions sociales, il est naïf, donc dangereux, de croire et de laisser croire qu'il suffit de "déconstruire" ces artefacts sociaux, dans une célébration purement performative de la "résistance", pour les détruire (). »114 Outre la naïveté de cette dialectique que pointe Bourdieu (disons-le, parfois avec un semblant de gratuité non explicité), elle repose également sur un double sens du corps : d'une part entendu comme un instrument dans les « techniques de pouvoir »115 entre paradigmes, d'autre part, comme l'intermédiaire entre les perceptions subjectives et la réalité. Dans le premier cas, l'on retrouve des idées déjà théorisées (pour ne citer qu'eux) chez Bourdieu116 ou Foucault, pour qui le corps sert à la reproduction du discours performatif des représentations sociales117. Le second sens que donnent au corps les épistémologies féministes du point de vue se retrouve notamment dans la phénoménologie de George Bataille ou de Merleau-Ponty, la Gestaltstheorie dont s'inspire Wittgenstein118, l'ethnométhodologie immersive de Lynch119, l'analyse de l'expertise de Collins 120 et Evans 121 , ainsi que dans la « sociologie de la perception » de Chateauraynaud122. Pour cette dernière, les perceptions permettent à l'individu de « jouer » 113 Haraway, D., 1991, Simians, Cyborgs, and Women: The Reinvention of Nature, New York, Routledge, traduit in Van Damme, 2008, art. cit. : 402. A sa suite, un nouveau sous-courant émerge sous le nom de Cyborg Anthropology, sous l'influence de Gary Downey, Joseph Dumit (dans la même équipe de recherche que Donna Haraway, en Histoire de la conscience à l'Université de Santa Cruz) et Sarah Williams. 114 Bourdieu, 1997, op. cit. : 157. 115 Lemieux, 2010, Le pari de l'universel, Annales. Histoire, Sciences Sociales, 6 : 1459. 116 Bourdieu, P., 1972, Esquisse d'une théorie de la pratique, précédé de Trois études d'ethnologie kabyle, Genève, Droz ; 1982, Ce que parler veut dire, Paris, Fayard. 117 Foucault, M., 1971, L'ordre du discours: Leçon inaugurale au Collège de France prononcée le 2 décembre 1970, Paris, Gallimard ; 1976, Histoire de la folie à l'âge classique, Paris, Gallimard. 118 Wittgenstein, L., 2004, op. cit. 119 1985, op. cit. 120 Collins, H., Interactional expertise as a third kind of knowledge, Phenomenology and the Cognitive Sciences, 3: 125-143. 121 Pat exemple, Collins, H., & Evans, R., 2007, Rethinking expertise, Chicago, University of Chicago Press. 122 1997, art. cit. Comment ne pas construire un discours scientifique 19 avec le dispositif technique qu'il utilise dans sa tâche, entre ce qu'imposent les manoeuvres de son protocole et la prise d'initiative de l'acteur ayant une connaissance suffisante (car répétée) de son travail. Le savoir est ici « situé » dans le sens de perceptions acquises et développées sur le moment au cours de l'interface entre l'homme et le dispositif qu'il manie : « l'engagement du corps permet de créer des prises ultimes » avec la réalité de la tâche à effectuer123. La sociologie dite « pragmatique » permet ainsi de dresser le lien logique – qu'il manque aux épistémologies féministes – entre les différents niveaux de l'action sociale (micro et macro) au coeur duquel le corps de l'acteur se trouve, entre la reproduction et le transport des normes institutionnelles et la réalisation en situation. Bref, elle « redonne leur place aux interactions entre les personnes et les choses »124 là où les épistémologies féministes du point de vue ou de la réalité agentielle (confer Barad) ne donnaient plus cours à la spécificité des unes ou des autres. Cette sociologie des perceptions pointe également le rôle des corps dans la constitution de perceptions communes ajustées « à l'état du monde »125, permettant aux interprétations d'acteurs divers de s'homogénéiser pour une compréhension cohérente de l'expérience partagée. Ce processus de constitution d'une intersubjectivité par les corps, où chaque individu en arrive à appréhender de manière relativement homogène la réalité à laquelle lui et ses pairs sont confrontés, se retrouve dans le processus de « seeing like », que décrit la sociologue des sciences Janet Vertesi126 : il n'est plus question ici de tenter un amalgame entre homme et machine au sein d'un même corps (comme c'était le cas du Cyborg), mais de voir comment l'interface entre l'homme et un dispositif technique robotisé peut amener le développement d'une « manière de voir » intersubjective de la réalité. Tout comme les perceptions pour Chateauraynaud, l'expérience du « voir comme » est le produit des différentes interactions intervenant au cours de l'expérience. Engager son corps dans l'action ne se résume donc pas « à l'alternative du raisonnement et de la sensation »127, et encore moins à la contextualisation des idées participant à la progression de la recherche scientifique : il s'agit, au-delà des volontés d'annuler les dichotomies (comme l'ambitionne le Cyborg), de produire une interprétation de la « réalité () confectionnée »128. La question que posent les épistémologies féministes du point de vue n'en reste pas moins la suivante : à quel point le corps est-il un outil cognitif maniable ? Comme l'avance Bourdieu, la principale limite de la dialectique corporelle des épistémologies féministes du point de vue est qu'elle ne peut remplir la fonction d'agent de production de la réalité qu'elles veulent lui voir porter : en tant que support matériel à la transmission de cadres interprétatifs de la réalité sociale, il ne pourrait être transformé en outil d'émancipation idéologique par un simple discours. Au mieux, cette théorisation des savoirs par le corps et les perceptions sont de l'ordre de ce que Rudolf Carnap désignait comme un « solipsisme méthodologique »129, où le langage comme les savoirs qu'il communique ne sauraient être réductibles à une expérience sensitive130. Le perspectivisme des savoirs situés n'en est évidemment pas réductible au sensationnalisme contre 123 Ibid. : 114. Id. 125 Id. 126 Vertesi, J., 2015, Seeing like a Rover: How Robots, Teams, and Images Craft Knowledge of Mars, Chicago, University of Chicago Press. 127 Chateauraynaud, 1997, art. cit. : 118. 128 Vertesi, 2015, op. cit. : 79. 129 Agassi, J., 1969, Privileged Access, Inquiry, 12 : 421. 130 Carnap, R., 1932, Die physikalische Sprache als Universalsprache der Wissenschaft, Erkenntnis, 2 : 432-465. 124 20 Comment ne pas construire un discours scientifique lequel le philosophe se dresse, bien que les deux aient en commun la certitude que toute connaissance réelle acquise par un individu provient de l'expérience subjective (c'est là le « malheur égocentrique », comme le rappelle Merton131). C'est là une idée amplement portée par le concept d'objectivité forte de Sandra Harding – même si, je me répète, l'intersubjectivité ne suffit pas à produire de l'objectivité. Elle produit cependant une appréhension collective politique de la réalité compte-tenu de l'affirmation idéologique des statuts sociaux sur lesquels repose toute logique d'Insiders et de l'imposition de leur point de vue moniste – quelle ironie – comme prévalant sur les points de vue alternatifs dans l'appréhension de la réalité. Cette interprétation politique de la réalité est commune à toute collectivité ambitionnant de réviser l'entièreté de l'histoire sociale et d'imposer comme un choix politique une vision de ce que la réalité est, a été et sera132. Exégèse météorologique et vertiges de l'analogie Devant les difficultés de définition d'une science et d'une méthode féministes133 et l'ajustement hardi des tentatives de paradigme « gynocentriste » de la théorie du point de vue situé, certains auteurs134ont proposé une théorie de réalisme agentiel, dont la maternité revient à Karen Barad. Détentrice d'une thèse en physique théorique et bien positionnée au sein du champ académique – co-directrice de formation à l'Université de Santa Cruz, aux recherches soutenues par des associations diverses et variées (National Science Foundation, Hughes Foundation, Irvine Foundation, Ford Foundation, National Endowment for the Humanities, etc.) –, son travail est qualifié de « naturalisme féministe » par Joseph Rouse135. Comme son nom l'indique, cette théorie conçoit la réalité comme un ensemble d'éléments aux ontologies imbriquées136 : de la même manière qu'aucun objet ne préexiste à « l'intra-action » dans laquelle il est impliqué, rien n'existe en étant séparé du reste de cet agencement, que l'on désigne par le terme générique de « réalité »137. Pour arriver à ses fins (phobosophiques ?138), toute la terminologie de l'épistémologie féministe ne tarde pas à y passer et, de la même manière qu'Haraway et King auront retranscrit l'histoire des sciences dans le langage des épistémologies féministes, ainsi en est-il de Barad vis-à-vis de la terminologie d'Haraway – voilà un bel exemple de la « structure superposée d'inférence et d'implication » 131 Merton, 1972, art. cit. Cf. Merton, 1972, art. cit. 133 Ginzberg, 1987, art. cit. ; Harding, 1987, art. cit., et 2015, op. cit. ; Keller, 1985 et 1987, art. cit. ; Keller, S., H., Longino H., E., & Waters, C., K., (eds.), 2006, Scientific Pluralism: Minnesota Studies in the Philosophy of Science XIX, Minneapolis, University of Minnesota Press. 134 Barad, K., 1997, art. cit., 2003, Posthumanist performativity: Toward an understanding of how matter comes to matter, Signs: Journal of Women in Culture and Society, 28 (3): 801-831, 2007, op. cit. ; Gergen, K., J., 1994, Realities and relationships: Soundings in social construction, Cambridge, Harvard University Press ; Gibson, J., J., 1979, The ecological approach to visual perception, Boston, Houghton Mifflin ; Sheets-Johnstone, M., (ed.) 1992, Giving the body its due, Albany, State University Press ; Shotter, J., 2014, Agential realism, social constructionism, and our living relations to our surroundings: Sensing similarities rather than seeing patterns, Theory and Psychology, 24 (3): 305-325. 135 Rouse, J., Feminism and naturalism, conference at Washington University and University of Missouri at St Louis in September 1999. 136 Barad, 2003, art. cit. 137 Shotter, 2014, op. cit. 138 Cf. Vincent Debierre, « Aurélien Barrau, phobosophe », Carnet Zilsel, 10 octobre 2015. 132 Comment ne pas construire un discours scientifique 21 qu'évoque Geertz139, le recodage jusqu'à plus soif, et jusqu'à perte totale du lien avec une réalité objective. Le discours devient dès lors délirant dans son sens étymologique, soit s'éloignant toujours un peu plus d'un centre commun aux différents discours. Car, le problème des épistémologies féministes étant l'hégémonie de la masculinité, si l'on supprime ce qui préexiste aux sujets, l'on supprime du même coup les hiérarchies et l'affaire semble entendue. Les « Cyborgs » d'Haraway140, qui gommaient supposément la différenciation entre naturel et artificiel afin d'expliquer la prégnance de la masculinité sur les corps, devraient donc être remplacés par des « posthumains »141 afin de radier toute différenciation entre les composants de la réalité agentielle (où l'on mêle sans vergogne le vivant, le non-vivant, les corps et les vides entre ces derniers). Le réalisme agentiel (dont je peine à voir la posture réaliste) et son principe d'« intra-action » riment donc avec entremêlement et lissage des relations socio-épistémiques telles que l'on peut les trouver dans la théorie de l'acteur-réseau. Notons au passage que l'intra-action n'apporte aucune innovation cognitive depuis l'« entre-définition » 142 ou la coproduction dont on trouve des prémisses de définitions chez Akrich143 ou Bijker et al.144. Là encore, ces détours abscons et lissages de la réalité aboutissent à l'évaporation de prises possibles sur le discours et à l'émulation qui aurait pu s'en suivre. Bien que sa théorie tirée de son background en physique théorique semble être un OVNI dans le paysage des théories féministes, il serait naïf de penser qu'elle n'est pas utilisée, étudiée145 ou critiquée et que son auteure n'est pas reconnue au sein du champ académique (co-directrice d'un parcours de l'Université de Santa Cruz et membre titulaire de son département d'Histoire de la conscience, dont le statut disciplinaire relativement fouillis ferait passer la section 72 du CNU pour moniste), ses travaux sont raisonnablement cités146 et ses interviews médiatisées vont bon train (la publicisation est encore bien ancrée dans les hexis féministes ayant pris racine dans des débats publics et politiques). La théorie féministe du point de vue stipulait qu'aucune subjectivité ne pouvait être indépendante de l'objectivité masculiniste. De là, il n'y avait qu'un pas à faire pour déduire la co-construction des subjectivités et de la réalité matérielle. Le réalisme agentiel est dès lors supposé outrepasser les binarismes prétendument stériles du débat transverse en sciences sociales, entre réalisme et constructivisme social. Dans une approche qui reconnaisse ainsi l'heuristique des distinctions dessinées entre sujet et objet, nature et culture, humain et non-humain et qui en examine les conséquences147, sa théorie de « nouveau matérialisme » et de « réalisme spéculatif » vise une reconnaissance « simultanée du matériel et du discursif »148. Inutile de préciser que cette solution contre la dichotomie n'est pas plus satisfaisante que ne pouvait l'être celle d'Haraway via son Cy139 1998, art. cit. : 4. 1997, art. cit., et 2007, op. cit. 141 Barad, K., 2003, art. cit. et 2007, op. cit., 2012, Nature's Queer Performativity (authorized version), Kvinder, Kon & Forskning / Women, Gender & Research, 1 (2): 25-53. 142 Latour, B., 1992, Aramis ou L'amour des techniques, Paris, La Découverte. 143 Akrich, M., 1989, La construction d'un système socio-technique. Esquisse pour une anthropologie des techniques, Anthropologie et Sociétés, 13, (2) : 31-54. 144 Bijker, W., E., Hughes, T.P., & al. (eds.), 1989, The Social Construction of Technological Systems, Cambridge, Massachusetts Institute of Technology Press. 145 Pour une explication du concept d' « intra-action » trois minutes montre en main, voir une vidéo réalisée par une étudiante de l'University of Georgia https://www.youtube.com/watch?v=v0SnstJoEec. 146 Le 28 novembre 2015, 2402 citations de son ouvrage Meeting the Universe Halfay, 2007, op. cit. 147 Barad, 1999, art. cit., 2007, op. cit. 148 Id. 140 22 Comment ne pas construire un discours scientifique borg. Quelle que soit la fragilité du propos, une technique de rhétorique largement répandue en sciences sociales (et critiquée en conséquences) permettrait de gonfler son assise théorique : l'analogie et les emprunts conceptuels faits aux sciences naturelles. Afin d'assoir sa théorie où tout et rien s'équivaut, entre les épistémologies du point de vue et les théories queer, Barad propose en effet de penser le genre comme la physique pense le champ électrique – i.e. comme un ensemble d'entités composites distribuées à travers l'espace et le temps sous le coup de forces d'attraction et de répulsion. Cette analogie du champ électrique l'amène rapidement à une enfilade léthargique de métaphores filées sur les éclairs, dont elle compare le processus (à la fois itératif et productif) à la construction de la réalité sociale. Barad n'est certes pas la seule à trouver l'inspiration dans la foudre et les éclairs. On trouve ainsi des théories moins potaches, notamment dans les postcolonial studies dont, par exemple, le galvanisme littéraire d'Achille Mbembe. L'idée est la suivante : si vérité et raison il y a, elles ne peuvent s'exprimer vraiment sans « embrasser la face ombreuse de la vie et, parfois, à revêtir le masque de la folie ». D'où l'emploi d'une écriture « par la foudre », « dissonante » et « blasphématoire », bref, « oser la profanation » en adoptant le langage de la folie dont les éclairs seraient représentatifs149. Chez Barad comme chez Mbembe, on accole le hasard et la violence incontrôlée aux processus sociaux pour mieux éviter d'en tenter une définition sérieuse. L'analogie et le recours à des outils théoriques de sciences naturelles en sciences sociales est une pratique bien répandue en dehors des cercles des épistémologies féministes et des « transréalités » galvaniques de Karen Barad – même si c'est à la lecture de cette dernière, ainsi que des textes d'Haraway, King ou Longino, que les biais de l'analogie m'ont semblé devoir faire l'objet d'une (re)mise au point. Outre l'analogie, les sciences sociales ont parfois été amenées à importer des méthodes et techniques des sciences naturelles (dont le contrôle statistique et les modèles mathématiques) et les transferts métaphoriques plus ou moins maitrisés semblent bien rôdés : expliquer les difficultés de définition du libre arbitre de l'être humain devient ainsi plus facile avec le recours aux « paradoxes quantiques » 150, idem pour le concept de « problème difficile » issu de la phénoménologie, qui ne peut – bien sûr – que gagner en clarté dès lors que l'on y lie le chat de Schrödinger151. Certes, Schrödinger lui-même aura mis en exergue le lien ténu entre « physique quantique et représentation du monde »152. Pour ce dernier, il ne s'agissait cependant pas de traduire la réalité sociale en formules mathématiques (comme s'y prête largement Raymond Boudon) ou de produire une physicalisation de processus sociaux (comme c'est le cas chez Karen Barad), mais simplement de démontrer la centralité de la science dans l'évolution des sociétés humaines et de la présenter comme une « part de l'effort déployé par les hommes en vue de saisir » ce qui les entoure dans leur quotidien153. 149 Mbembe Achille, 2014, Entretien par Luste Boulbina Seloua, Penser par éclairs et par la foudre, Rue Descartes, 4 (83) : 97-116. 150 Bitbol, M., (dir.), 2009, Théorie quantique et sciences humaines, Paris, CNRS Éditions. 151 Bitbol, M., 2000, Physique et philosophie de l'esprit, Paris, Flammarion. 152 Schrödinger, E., (1951) 1992, Physique quantique et représentation du monde, Paris, Editions du Seuil. 153 Id., préface : 21. Comme le fait de s'approprier les théories de la matière afin de les appliquer dans la compréhension de « notre propre corps ou [des] corps de nos amis, ou même celui de notre chat ou de notre chien » (1951 : 32). Le physicien précise cependant à quel point ces théories, qui permettent de rendre prévisibles les évolutions et comportements réactifs de la matière en physique, s'opposent rapidement à l'imprédictibilité des comportements d'individus doués d'une liberté d'action. Rien à voir, donc, avec les analogies sus-citées. Comment ne pas construire un discours scientifique 23 On s'aperçoit ainsi que, bien souvent, la physique quantique est perçue comme un label de légitimité scientifique et de puissance théorique, quand bien même l'analogie est douteuse – c'est d'ailleurs ce que conclut Jacques Bouveresse154. Comme Schrödinger, Gödel voit son théorème d'incomplétude promptement utilisé155 dans ce que Bouvveresse dénonce sous le terme de « littérarisme »156. Si le littérarisme n'accorde pas la profondeur au discours escomptée par son usager, mais l'enrobe de parures littéraires et le lisse par un trop-plein de métaphores, la science n'est pas une « façon de parler »157 – encore moins une manière d'écrire – et sa production n'est pas à légitimer par effets de style (ou par « fétichisme linguistique », comme dirait Bourdieu). À en croire ces critiques du « littérarisme », le recours à l'analogie cacherait un rejet de la critique, pourtant au coeur de la structure sociale de la science comme communauté de production de savoirs démocratique. Plus aucune opposition ou contradiction n'étant dès lors possible, l'émulation disparait de la science « oligarchique », « gouvernée par des lois du marché » intériorisées par les chercheurs et où les intellectuels dénoncent la critique en tant que pratique « inquisitoriale »158. Dans la mesure où elle empêche ainsi la critique et avorte l'émulation, l'analogie fait office d'échappatoire permettant de clore le débat avant même qu'il ne puisse s'ouvrir. Les discours scientifiques quittent dès lors le régime de la preuve pour se fondre dans un bric-à-brac de lyrisme et tout discours (aussi laxiste soit-il) semble « excusable » –pour la simple raison que l'argument critiquable est noyé à grand coup de fioritures. Sokal et Bricmont réalisent un réquisitoire similaire dans leurs Impostures Intellectuelles159, où les transferts abusifs de la terminologie des sciences naturelles vers l'analyse de la réalité sociale –auxquels s'adonnent certaines intellectuelles féministes160 – enfument l'esprit critique des scientifiques à coup de pastiches et d'assimilation entre axiomes mathématiques et positions politiques161. Toutefois, de la même manière que le « caractère évidemment littéraire et construit »162 n'empêche pas de donner des « effets de vérité »163 convaincants autant en ethnographie qu'en sociologie, il n'est pas question de se priver d'une technique de raisonnement pouvant, parfois, s'avérer fructueuse. C'est le cas du concept d'heuristique fractale qu'Andrew Abbott développe dans Chaos of Disciplines164, dont la structure (identique à la fractale de Newton ou de Mandelbrot), reproduit une organisation identique à chacun de ses niveaux165. Abbott explique d'ailleurs comment la lecture d'un article du physicien Kenneth Wilsons a contribué à faire évoluer sa réflexion 154 Bouveresse, J., 1999, Prodiges et vertiges de l'analogie, Paris, Liber. Sokal, A., & Bricmont, J., 1999, op. cit. 156 1999, op. cit. 157 Merton, R., K., 1963, Multiple discoveries as strategic research site, Sociology of Science : 375376. 158 Bouveresse, 1999, op. cit. : 136. 159 1999, op. cit. 160 Id. 161 Précisément ce dont se jouait Alain Sokal dans son article-canular (1996, Transgressing the Boundaries : Toward a Transformative Hermeneutics of Quantum Gravity, Social Text, 46-47 : 217-252), et qu'il reprend avec Bricmont (1999, op. cit.). 162 Baré, J-F., 1999, « Déconstruire » le « postmodernisme », L'Homme, 39, (151) : 272. 163 Rabinow, P., 1986, Representations are Social Facts: Modernity and Postmodernism in Anthropology, in Clifford, J. & Marcuse, G., (eds.) Writing Cultures: The Poetics and Poetry of Ethnography, Berkeley, University of California Press: 240. 164 Abbott, A., 2001, Chaos of Disciplines, Chicago, University of Chicago Press. 165 Le premier usage que le sociologue fait du concept de fractale à l'occasion d'une communication datant de 1986 : "Notes for a Theory of Disciplines" Unpublished paper, présenté le 25 septembre 1986 au Center for the Critical Analysis of Contemporary Culture, Rutgers University. 155 24 Comment ne pas construire un discours scientifique autour de ce concept, et comment il fut persuadé de l'heuristique de l'analogie grâce au Fractals everywhere du mathématicien Michael Barnsley166. Abbott n'en évoque pas moins lui aussi les risques de l'analogie, notamment lorsqu'il décrit des cas « d'emprunt » de concepts d'une discipline à une autre167 : si ces échanges de concepts (ou « vols réciproques ») permettent aux disciplines de se régénérer mutuellement et facilitent la communication entre les savoirs spécialisés (voire permettent la création de disciplines168), chaque discipline présente cependant une dynamique qui lui est propre, impliquant un langage, un mode de raisonnement, une histoire sociocognitive et des institutions participant à sa structure sociale. Par conséquent, chaque discipline (ou science) n'est pas apte à parler de ce qui est du ressort de la juridiction d'une homologue. Dans certains cas, l'analogie peut entamer la légitimité d'une des disciplines ou en modifier la structure169, si ce n'est menacer son devenir en tant que discipline autonome. Cette technique de persuasion par analogie, caractéristique de la théorie du « féminisme poststructuraliste » du réalisme agentiel de Karen Barad, produit ainsi une deuxième réduction, du savoir disciplinaire en simple outillage discursif. L'analogie s'est donc, en certaines circonstances, maintes fois avérée heuristique au cours de l'histoire des sciences humaines et sociales170, ayant notamment permis le développement du raisonnement formel en philosophie171. Elle constitue même un outil de production de sens commun autant que de connaissance scientifique selon Durkheim172 et permet d'éclairer des faits à une lumière nouvelle, même si celle-ci n'est efficace que sous certaines conditions pour Simmel173. Ces analogies ou travaux de similarités entre des phénomènes dont l'usage est amplement encouragé par les sociologues cités ciavant ne concernent cependant pas des emprunts interdisciplinaires, mais bien des phénomènes exclusivement relatifs au monde social. Il s'agira par exemple d'expliquer une crise financière en se référant à la Grande dépression ou le fonctionnement d'un gouvernement par celui d'un ménage. Il convient dès lors de pouvoir faire la différence entre l'analogie du raisonnement formel et la « fausse analogie »174, afin de différencier la technique cognitive heuristique de l'usage métaphorique à effet de style – davantage soumis à la spéculation d'une analogie possible entre deux phénomènes a priori incomparables, comme par exemple faire d'un fait social et d'un fait naturel des « lieux com- 166 Barnsley, M., F., 1988, Fractals Everywhere, San Diego, Academic Press. Le sociologue a également adapté les algorithmes d'alignement en sciences sociales à partir du filtrage par motif de l'ADN : Abbott, A., 1986, Notes for a Theory of Disciplines, Unpublished paper, presented 25 September 1986, Center for the Critical Analysis of Contemporary Culture, Rutgers University ; Abbott, A., and Hrycak, A., 1990, Measuring Resemblance in Social Sequences, American Journal of Sociology, I, 96: 144-85. 167 Abbott, A., 2001, op. cit. ; 2004, Methods of Discovery. Heuristics for the Social Sciences, New York and London, W. W. Norton & Compagny. 168 Voir par exemple Whitley, R., 2000, The Intellectual and Social Organization of the Sciences, Oxford, Oxford University Press. 169 2001, op. cit. : 153. 170 Swedberg, 2014, op. cit. : 82-89. 171 Weber, M., 1978, Economy and Society: An Outline of Interpretive Sociology, Berkeley, University of California Press. 172 Durkheim, E., 1978, Course in Sociology. Opening Lecture, in Traugott, M., (ed.), On Institutional Analysis, Chicago, Chicago University Press: 55-56. 173 Simmel, G., 1959, The Problem of Sociology, in Wolff, K., (ed.), Georg Simmel, 1858-1918, Columbus, Ohio State University Press: 336. 174 Wicksell, K., 1958, Selected Papers in Economic Theory, Cambridge, Harvard University Press : 57-58. Comment ne pas construire un discours scientifique 25 muns associés »175. Arrivés à ce stade de l'article-billet, il serait superflu de préciser à quelle catégorie appartiennent les techniques rhétoriques du réalisme agentiel et du « nouveau matérialisme » féministe. Scander les savoirs et rompre le lien social au sein de la communauté scientifique : Insiders et Outsiders Troisième pilier de la rhétorique des épistémologies féministes du point de vue : la dynamique Insiders/Outsiders176 rompant le flux de la circulation des savoirs au sein de la communauté scientifique. Pour Merton, le clivage de la société s'accompagne d'un clivage des prétentions à la vérité. Les groupes s'opposant au nom de leur expérience singulière forment ainsi des perspectives intellectuelles n'appartenant plus au même univers discursif et, plus nos positions sont campées, moins le point de vue de l'autre nous semble plausible. Il y a alors le risque de réduire les productions cognitives à leurs fondements sociaux et de réduire le travail scientifique à des analyses idéologiques réciproques. C'est le propos de Merton dans son article « Insiders, Outsiders »177, où le sociologue questionne le lien entre identité socioculturelle et pertinence épistémologique : doit-on être Afro-américain pour en comprendre la réalité sociale ? De la même manière, doit-être femme (voire féministe) pour comprendre la condition féminine ? L'expérience de la réalité sociale d'un individu dans la hiérarchie de signifiés est-elle nécessaire pour écrire sur la question ou entreprendre de l'étudier ? En bref, la connaissance passe-t-elle par l'expérience ou se peut-il que les phénomènes appréhendés au cours du travail scientifique détiennent une essence objective ? Je me garderai de tenter d'apporter des embryons de réponses à de tels questionnements, pour mieux rester focalisée sur les réponses qu'en donnent les théoriciennes du point de vue et de la réalité agentielle. N'évoluant pas dans une société idéale, ni une utopie d'émulation comme la décrit Thomas More178, chacun n'a pas un accès libre et direct à la vérité, quel que soit le domaine (science, religion, art), aussi bien dans l'espace public que privé. À la place, nous accédons tous à une vérité partielle et devons, pour le reste, faire confiance aux pairs. Or, les épistémologies féministes des savoirs situés rompent ce lien d'interdépendance et de confiance nécessaire à la progression du savoir et, ce faisant, créent leur propre anomie cognitive179. Dans un monde idéal, l'examen par les pairs et l'esprit critique du scientifique seraient exercés mutuellement et sans retenue non seulement entre collègues, mais au-delà des différenciations individuelles, entre mouvements intellectuels et courant théoriques. Ceci, pour ainsi faire varier les points de vue et postures épistémologiques et, potentiellement, parvenir à un savoir solide car (1) résistant aux intempéries des dichotomies, (2) résultant d'une entreprise collective au détriment de prismes réifiés. La science décrite par Merton dans cet article semble cependant bel et bien être dans le particularisme cognitif, où l'on troque la « confiance 175 Black, M., 1962, Models and Metaphors. Studies in Language and Philosophy, Ithaca, Cornell University Press. 176 A entendre dans le sens de « catégories au sein d'une structure sociale, et non comme () les possesseurs spécialement initiés d'informations ésotériques, () ou en tant que types sociopsychologiques marqués par l'aliénation, le déracinement ou la transgression de règles » (Merton, 1972, art. cit. : 22). 177 1972, art. cit. 178 More, T., (1516) 1987, L'Utopie ou le traité de la meilleure forme de gouvernement, Paris, Flammarion. 179 A ce sujet, voir Shapin, S., 1994, A social history of truth, Chicago, University of Chicago Press. 26 Comment ne pas construire un discours scientifique mutuelle » pour une « suspicion mutuelle »180. La vérité est dès lors particularisée et objet de propriété privée, devenant non plus une valeur échangée à travers la communauté scientifique, mais le produit d'un entre-soi restreint. Il y a la vérité des Insiders, face aux points de vue critiquables a priori de tous les autres Outsiders. La science n'est dès lors plus un forum, mais se change en une arène, où la pérennité va à celles et ceux qui parlent le plus fort. Cela dit, on ne peut nier la logique du raisonnement car, s'il n'y a plus de vérité à atteindre ou d'idées susceptibles d'être universelles, comme l'avancent les épistémologies du point de vue (entre autres courants théoriques), leur diffusion et leur partage à travers l'ensemble d'une communauté fragmentée n'a plus le moindre sens. Les épistémologies féministes issues de la théorie du point de vue témoignent de la forme la plus abrupte de doctrine d'Insider que Merton décrit, où un groupe détient l'accès monopolistique à un certain type de savoir181 : seules les femmes féministes ayant entamé leur « seconde naissance » en tant que « point de vue » libéré de la masculinité peuvent prétendre à la connaissance de la science féminine (ou féministe, les deux étant intervertis). Il va sans dire que la compréhension d'un phénomène ne peut se faire sans le remettre en perspective au sein d'un cadre d'action traversé de logiques sociales et politiques variées et souvent conflictuelles, ni sans l'éclairer à la lumière d'éléments de son histoire. C'est là la base de l'analyse sociologique. Le problème ici soulevé n'est donc aucunement de l'ordre d'une remise en question de la légitimité de la connaissance des croyances individuelles ou des réseaux sociaux (pour éviter toute l'ambiguïté du « contexte »182). Il est question de définir les limites de cette dynamique Insiders versus Outsiders, selon laquelle « les prolétariens sont les seuls à comprendre les prolétariens », idem pour les capitalistes, les catholiques, les juifs, les femmes, « et pour mettre fin à l'inventaire des prétentions à la connaissance socialement atomisées, () il s'en suivrait logiquement que seuls les sociologues seraient capables de comprendre leurs collègues sociologues »183. Les fondations de l'élitisme des doctrines d'Insiders peuvent être d'origines variées (genré, biologique, etc.), la rupture sociocognitive qui en résulte est la même. Plus encore, en produisant une doctrine d'Insiders autour de la production scientifique féminine, ses auteures reproduisent les attentes normatives que la société des années 1950 exerçait sur les femmes (comme sur les afro-américains, les indiens184, etc.) : étudier des problèmes de femmes. À l'époque, il s'agissait de faire une sociologie féminine des formes de vie matrimoniales et familiales, soit de l'emprise des cadres sociaux sur l'existence de la femme (au singulier). Ces préoccupations – indissociables des paradigmes déterministe et fonctionnaliste, à l'époque dominants en sociologie – ont aujourd'hui été délaissées au profit de préoccupations en phase avec le paradigme constructiviste, dont le corps des femmes (au pluriel) comme artefact social. Et, de la même manière que le combat épistémologique pour l'expertise incorporée s'avère correspondre aux attentes des cadres cognitifs contre lesquels ils s'insurgent, l'autonomie des points de vue féministes est à relativiser. Tentant de se construire pléthore de théories sous l'impulsion « d'une volonté subversive et libératrice à l'égard des orthodoxies en 180 1972, art. cit. : 11. Ibid. : 13. 182 Raynaud, D., 2006, Le contexte est-il un concept pertinent de l'explication sociologique ? L'Année Sociologique, 56 : 309-330. 183 Merton, 1972, art. cit. : 14. 184 Voir la première version du texte « Insiders, Outsiders », in Desai, A., R. (ed.), 1971, Essays on Modernization of Undeveloped Societies, Bombay, Thacker. 181 Comment ne pas construire un discours scientifique 27 place »185, il reste à établir à quel prix la « liberté » des épistémologies féministes s'est acquise : (1) une rupture du lien social dans la production des savoirs scientifiques (la division épistémique a beau être nécessaire dans la mesure où l'on ne peut être spécialiste de tout, point trop n'en faut) ; (2) des réductions diverses (de l'objectivité en intersubjectivité, des savoirs disciplinaires en outils de rhétorique, de l'activité scientifique en lutte de pouvoir entre corps sexuellement situés, etc.). Les conséquences de cette impulsion supposément « libertaire » auront structuré cette note exploratoire. Les guillemets s'imposent dans la mesure où, s'étant construites en opposition à des « orthodoxies », comment pourrions-nous dire que les épistémologies féministes des savoirs situés, de « l'objectivité forte », de la « réorigination »186, du gynocentrisme187, etc. sont véritablement autonomes et détachées de tout lien avec les dites-orthodoxies ? Car, in fine, « les oppositions consacrées finissent par apparaitre comme inscrites dans la nature des choses, alors même que le moindre examen critique () oblige à découvrir bien souvent que chacune des positions opposées n'a aucun contenu en dehors de la relation avec la position antagoniste dont elle n'est parfois que l'inversion rationalisée. »188. À force de combattre pour leur indépendance, ces épistémologies auront avant tout renforcé leur interdépendance à ce qu'elles identifient comme étant le « paradigme dominant » de la masculinité. * * * Sur la base d'un corpus de textes issus des théories féministes du point de vue et du réalisme agentiel, aux terminologies ésotériques et à la verve anti-critique, j'aurais tenté de mettre en exergue la manière dont certaines de leurs auteures appellent à une prise de conscience conjuguée au féminin, sans jamais expliciter les réalités contradictoires qui travaillent ces épistémologies. Dans ce maelstrom théorique où tout et son contraire donnent lieu à une infinité de possibilités, comment opérationnaliser tout cela ou, dit autrement, comment traduire le conceptuel en élément empirique ? Entre le choix de l'encastrement paradigmatique de Keller ou l'ubiquité anarchique de Barad (où tout s'entremêle en même temps d'une manière que nous ne pouvons pas contrôler), on ne sait que choisir. Et le faudrait-il, dans la mesure où, quelle que soit l'option choisie, les épistémologies féministes des savoirs situés n'aident pas à l'enquête sociologique comme ne le faisaient déjà la neutralité axiologique de Weber, la subjectivation de Foucault ou l'usage vigilant des biais dans la méthode de recherche de Devereux189 ? L'originalité de leurs discours est d'ailleurs à relativiser à de nombreux points de vue, tant dans leurs fondations théoriques que dans les outils de leur rhétorique. Pour ne prendre qu'un exemple, les théoriciennes féministes ne sont en effet ni les seules, ni les premières à concevoir la science sous des versants (d'engagements) politiques. Spinoza 185 Lemieux, C., 2012, Peut-on ne pas être constructiviste ?, Politix, 4 (100) : 172. Sofoulis, 1988, op. cit. 187 Ginzberg, 1987, art. cit. 188 Bourdieu, 1997, op. cit. : 146-147. 189 Selon Devereux, viser une analyse objective de ce qui est observé est impossible, voire contre-productif : aucune donnée recueillie lors de l'enquête n'étant indépendante de l'observation, la subjectivité n'est pas source d'erreur mais seul vecteur de données (voire de scientificité) possible. C'est ainsi en se distanciant des pratiques observées que l'ethnographe peut se « s'autoqualifier » de « savant » et maitriser (relativement) ses pulsions. Voir Devereux, G., 1980, De l'angoisse à la méthode dans les sciences du comportement, Paris, Flammarion. 186 28 Comment ne pas construire un discours scientifique parle déjà de « raison militante »190 et l'engagement comme moteur de production de connaissances objectives (car objectivées) plus que comme un frein structure des ouvrages comme Des sociologues sans qualité ?191 ou De l'angoisse à la méthode dans les sciences du comportement192. Il est évident que tout champ d'étude comme la sociologie est traversé de relations de pouvoir et de tensions idéologiques. Il est cependant naïf et non heuristique de penser que celles-ci n'ont à voir qu'avec la domination masculine. Fondées sur des contradictions, prônant des réductions non heuristiques (de la science, de l'objectivité, de la méthode d'enquête) et témoignant d'une rhétorique construite sur des pratiques posant problème(s) au fonctionnement de la communauté scientifique, ces épistémologies féministes ravivent et se nourrissent de nombre de débats scandant les sciences sociales : réalisme contre constructivisme, « transcendant contre situé »193, monisme contre pluralisme(s) « Autant de labels aux apparences de concepts »194 qui ne font que pointer des querelles de paradigmes ou d'appréhensions de la réalité sociale au détriment de la « vigilance épistémologique »195 de mise dans toute entreprise scientifique. Arrive cependant un moment où la progression des connaissances requiert de dépasser l'opposition lorsqu'elle est infructueuse. Dans le cas contraire, la science devient une arène où l'on particularise les ambitions au savoir et la science n'a plus qu'à se diluer dans l'éther de l'épistémologie sociale. En dépit de cette régression de la recherche de la vérité à n'en plus finir, les questionnements et difficultés méthodologiques restent les mêmes, quelle que soit la posture épistémologique défendue. Ainsi, si tout travail scientifique relève – d'une manière ou d'une autre – de « l'artisanat », se doit-on pour autant de « jeter tout projet de connaissance autonome avec l'eau du bain »196 relativiste ? Si mon point de vue reste en construction, j'aurais tendance à répondre prématurément par la négative. 190 Spinoza, B., (1677) 2002, Traité Politique, Paris, Le livre de poche. Naudier D., Simonet, N., (dir.), 2011, Des sociologues sans qualité ?, Paris, La Découverte. 192 Devereux, 1980, op. cit. 193 Abbott, 2004, op. cit. 194 Bourdieu, 1997, op. cit. : 146. 195 Fabiani, J.-L., 2003, Pour en finir avec la réalité unilinéaire. Le parcours méthodologique de Andrew Abbott, Annales. Histoire, Sciences Sociales, 3 (58) : 549-565. 196 Baré, 1999, art. cit. : 268. 191
{'path': '34/halshs.archives-ouvertes.fr-halshs-02304910-document.txt'}
Mise en oeuvre d'une méthodologie d'évaluation de la fiabilité pour les systèmes mécatroniques Naima Hammouda, Georges Habchi, Christine Barthod, Olivier Duverger To cite this version: Naima Hammouda, Georges Habchi, Christine Barthod, Olivier Duverger. Mise en oeuvre d'une méthodologie d'évaluation de la fiabilité pour les systèmes mécatroniques. 21ème Congrès Français de Mécanique, Aug 2013, Bordeaux, France. pp.1-6. hal-00873677 HAL Id: hal-00873677 http://hal.univ-smb.fr/hal-00873677 Submitted on 16 Oct 2013 21ème Congrès Français de Mécanique Bordeaux, 26 au 30 août 2013 Mise en oeuvre d'une méthodologie d'évaluation de la fiabilité pour les systèmes mécatroniques N. HAMMOUDAa, G. HABCHIa, C. BARTHODa, O. DUVERGERb a. Laboratoire SYMME, Université de Savoie - 74944 Annecy le Vieux Cedex France b. Pole Mécatronique, Transmissions et Capteur, CETIM - 74944 Annecy le Vieux Cedex France Résumé : La fiabilité est l'un des paramètres les plus importants de la sûreté de fonctionnement. Elle est abordée à chaque fois que l'on veut des systèmes fiables, disponibles et sûrs. En effet, la fiabilité agit sur la disponibilité et sur la sûreté des systèmes. Elle intervient tout au long du cycle de vie du produit ou du système (conception, fabrication, exploitation). L'objectif de cette communication est la mise en oeuvre d'une approche globale d'étude de fiabilité dédiée aux systèmes mécatroniques. Ces derniers sont des systèmes pluri–technologies et complexes intégrant plusieurs aspects : dynamique, hybride, reconfigurable et interactif. Abstract: Reliability is one of the most important parameters of dependability. It is addressed whenever we want reliable, available and safe systems. Indeed, reliability acts on the availability and security of systems. It must be considered throughout the overall life cycle of the product or system (design, manufacturing, operation). The objective of this communication is to build an overall approach of reliability for mechatronic systems since they are complex and multi-technology integrating several properties such as: dynamic, hybrid, reconfigurable, and interactive. Mots clefs : Méthodologie globale, fiabilité, système mécatronique, cycle en V, modélisation, simulation, analyses qualitative et quantitative. 1 Introduction L'apparition des systèmes mécatroniques depuis une vingtaine d'années peut être considérée comme une révolution pour le monde industriel. L'utilisation de ces systèmes s'est généralisée rapidement et influence actuellement la quasi-totalité des secteurs de l'industrie. Avant d'aborder « la fiabilité » qui est le thème central de cette communication, essayons de faire un tour d'horizons afin de cerner ce que la bibliographie entend par le terme « Mécatronique ». En effet, plusieurs définitions existent. Citons de manière non exhaustive les principales ; la définition du journal international Mechatronics, parue pour la première fois en 1991 : "Mechatronics in its fundamental form can be regarded as the fusion of mechanical and electrical disciplines in modern engineering process. It is a relatively new concept to the design of systems, devices and products aimed at achieving an optimal balance between basic mechanical structures and its overall control" [14] ; celle du journal international IEEE Transactions on Mechatronics, apparue en 1996 : "Mechatronics is the synergetic combination of mechanical engineering with electronics and intelligent computer control in the design and manufacturing of industrial products and processes"[13].; ou bien encore, celle choisie par l'IFAC Technical Committee on Mechatronic Systems, en 2000 : "Many technical processes and products in the area of mechanical and electrical engineering show an increasing integration of mechanics with electronics and information processing. This integration is between the components (hardware) and the information-driven function (software), resulting in integrated systems called mechatronic systems" [15]. 1 21ème Congrès Français de Mécanique Bordeaux, 26 au 30 août 2013 D'après la norme NF E-010, la mécatronique est définie comme une « démarche visant l'intégration en synergie de la mécanique, l'électronique, l'automatique et l'informatique dans la conception et la fabrication d'un produit en vue d'augmenter et/ou d'optimiser sa fonctionnalité » [12]. En termes de propriétés, la bibliographie souligne que les systèmes mécatroniques sont des systèmes complexes et pluri-technologies caractérisés par des aspects hybrides, dynamiques, interactifs et reconfigurables. Les systèmes hybrides sont des systèmes faisant intervenir explicitement et simultanément des phénomènes continus et d'évènements discrets [6]. Les systèmes dynamiques sont caractérisés par les relations fonctionnelles entre les composants qui les constituent. Si ces relations restent figées tout au long de la mission du système, le système sera dit statique. Si au contraire, ces relations changent au cours de la mission, le système sera dit dynamique [5]. Le caractère interactif d'un système est défini par l'existence d'interactions physiques et/ou fonctionnelles entre les composants du système. Enfin, les systèmes reconfigurables sont des systèmes capables de modifier leurs structures internes afin d'assurer la réalisation de la fonction [5]. Tous ces caractères doivent être pris en compte lors du développement de la méthodologie afin d'assurer la fiabilité de ces systèmes. L'un des problèmes majeurs rencontrés lors de la phase de conception des systèmes mécatroniques concerne l'évaluation de la fiabilité mais aussi l'approche selon laquelle cette fiabilité sera étudiée pour être évaluée. En effet, même si les méthodes existantes rattachées au domaine de la fiabilité sont nombreuses, elles concernent principalement les technologies électronique et mécanique (rarement le logiciel), et sont appliquées de manière indépendante à ces technologies sans tenir compte de l'intégration en synergie du produit mentionnée précédemment dans les définitions de la mécatronique. Durant ces dernières années, peu de travaux ont abordé cette thématique scientifique, citons les deux principales thèses qui ont traité de l'évaluation de la fiabilité des systèmes mécatroniques par A. Demri [1] et A. Mihalache [3]. A. Mihalache a développé une méthodologie d'évaluation de la fiabilité prévisionnelle, expérimentale et opérationnelle alors que A. Demri s'est intéressé uniquement à la fiabilité prévisionnelle en prenant en compte la dynamique de ces systèmes. Même si ces travaux sont importants pour la communauté scientifique, ils ont néanmoins ignoré les autres caractères tels que reconfigurable, hybride et interactif qui sont à notre sens des caractères essentiels et nécessaires à l'évaluation de la fiabilité des systèmes mécatroniques. A l'heure actuelle et malgré les travaux consentis depuis une dizaine d'années, il n'existe pas à notre connaissance d'approche permettant d'étudier la fiabilité d'un système mécatronique tout en prenant en considération l'ensemble des caractères mentionnés ainsi que les interactions générées entre les différentes parties technologiques. De plus, en raison de la complexité du domaine d'étude, les manques dans ce domaine sont nombreux et touchent plusieurs aspects : nombre croissant et éparpillement des méthodes, technologies nombreuses et différentes, plusieurs phases dans la vie du système, considération de l'aspect qualitatif et quantitatif, diversité des outils scientifiques disponibles, objectifs de l'étude, etc. C'est sur cette problématique que nous proposons une approche globale pour étudier la fiabilité des systèmes mécatroniques pendant la phase de conception tout en prenant en considération les différents caractères ainsi que les interactions entre les différentes technologies et les besoins du secteur industriel concerné. Le plan de cette communication est organisé comme suit. D'abord, nous présentons dans le paragraphe 2 la méthodologie proposée pour l'évaluation de la fiabilité prévisionnelle et dédiée aux systèmes mécatroniques. Ensuite, les paragraphes de 2.1 à 2.7 détaillent les différentes étapes de cette méthodologie. Enfin, dans le paragraphe 3 nous proposons une conclusion et des perspectives pour ce travail. 2 Méthodologie d'évaluation de la fiabilité prévisionnelle des systèmes mécatroniques Notre approche est d'abord déclinée selon le cycle en V utilisé dans le développement de nouveaux produits qui peuvent être mécatroniques comme le montre la figure 1.Les différentes phases de ce cycle (spécification, conception, réalisation, vérification et validation) sont adaptées à la thématique scientifique considérée à savoir la fiabilité et les différentes méthodes existantes sont rattachées aux phases du cycle en fonction du niveau de développement. Nous pouvons décliner sur ce schéma deux phases pendant lesquelles la fiabilité peut être évaluée mais de manière différente et en utilisant des techniques et méthodes différentes : la phase de conception pour la fiabilité prévisionnelle et la phase de fabrication pour la fiabilité expérimentale. En ce qui concerne ce travail 2 21ème Congrès Français de Mécanique Bordeaux, 26 au 30 août 2013 nous allons nous intéresser principalement à la phase de conception et décliner la méthodologie selon les différentes étapes descendantes du cycle en V. Figure1 : Méthodes de fiabilité utilisées durant le cycle en V. La figure 2 présente une schématisation simplifiée de la méthodologie sur laquelle nous nous appuyons avec ses principales étapes afin d'étudier la fiabilité prévisionnelle des systèmes mécatroniques. Figure 2 : Méthodologie globale pour déterminer la fiabilité prévisionnelle des systèmes mécatroniques. Afin de pouvoir déployer correctement la méthodologie proposée, dédiée aux systèmes mécatroniques et qui est fondée sur les caractéristiques intrinsèques des systèmes mécatroniques (dynamique, hybride, reconfigurable, interactif), il est absolument nécessaire de définir les éléments suivants : (i) le profil de mission, (ii) l'opinion des experts, (iii) l'analyse qualitative (analyses fonctionnelle et organique, analyse dysfonctionnelle, modélisations fonctionnelle et dysfonctionnelle), (iv) l'analyse quantitative (modélisation dynamique et simulation), (v) les différents niveaux qui doivent être traités : systèmes, sous-systèmes et composants. Nous décrivons dans les paragraphes suivants les principales étapes de cette méthodologie. 2.1 Analyses fonctionnelle et organique L'analyse fonctionnelle permet la description des modes de fonctionnement du système étudié et des soussystèmes identifiés ainsi que la connaissance de ses fonctions externes et internes à partir du profil de mission. L'analyse fonctionnelle est décomposée en deux parties : • • L'analyse fonctionnelle externe permet d'illustrer les relations entre le système et son milieu extérieur. L'analyse fonctionnelle interne a pour but de réaliser une décomposition arborescente du système en éléments. Elle décrit les fonctions du système mais aussi les relations entre les composants et par conséquent les interactions physiques entre les différentes entités du système. Elle doit également mettre en évidence les caractères hybride, dynamique et reconfigurable définis à ce niveau de l'analyse. Il existe plusieurs méthodes pour réaliser l'analyse fonctionnelle, notamment : APTE, SADT, FAST, arbre fonctionnel, UML, SysML etc. Elles sont toutes fondées sur l'expression du besoin du système et sa 3 21ème Congrès Français de Mécanique Bordeaux, 26 au 30 août 2013 spécification technique [2]. Pour l'étude des systèmes mécatroniques nous pouvons utiliser la méthode APTE pour l'analyse fonctionnelle externe qui permet d'illustrer les relations entre un système et son milieu extérieur. Après cette analyse, les fonctions internes au système ne sont pas déterminées et l'application d'une analyse fonctionnelle interne est nécessaire. Pour l'analyse fonctionnelle interne, la méthode SADT paraît adaptée pour au moins une raison, en particulier : cette méthode s'applique parfaitement aux systèmes pluri-technologies, c'est à dire qu'elle s'adapte aussi bien aux composants mécaniques et électroniques qu'au logiciel. Cependant elle ne prend pas en compte l'aspect dynamique. Aussi, il convient d'utiliser la méthode SART qui est une extension temps réel à l'analyse structurée. C'est une des méthodes les plus utilisées et elle permet de prendre en compte l'aspect dynamique, qui manque à la méthode SADT, d'un système mécatronique. D'autre part, depuis quelques temps, plusieurs améliorations sont apportées aux langages UML et SysML ce qui permet de traiter des systèmes mécatroniques en tenant compte, d'une part des différents caractères analysés précédemment et, d'autre part, des différents composants qui constituent le système [7]. Notre choix se porte cependant sur la méthode SART de manière préférentielle car elle permet une traduction ou une correspondance avec les réseaux de Petri [1]. L'analyse organique permet de définir l'architecture du système avec l'ensemble des organes et composants et de leurs interfaces pour répondre aux fonctions techniques attendues [8]. Les principales étapes pour la construction de l'architecture organique sont : • • • • 2.2 Recherche des composants permettant de remplir les fonctions du produit et satisfaisant les exigences. Constitution de la matrice fonctions/composants permettant de reporter les interactions fonctionnelles listées au niveau système et au niveau de chaque composant, au travers du regroupement en organes. Analyse des interactions organe/organe pour déterminer les interactions entre les différents organes constituants d'une architecture primaire issue de l'analyse morphologique. Représentation de l'architecture organique qui permet de visualiser l'emplacement des différents composants ou organes ainsi que leurs liaisons. Analyse dysfonctionnelle L'analyse dysfonctionnelle a pour objectif d'identifier les différents modes de défaillance et de dégradation des différents composants du système et d'en voir l'effet sur le système. De plus, elle permet d'évaluer les modes de défaillance les plus critiques. Pour effectuer l'analyse dysfonctionnelle, nous avons besoin des informations obtenues suite aux analyses fonctionnelle et organique. En d'autres termes, les sorties ou les résultats des analyses fonctionnelle et organique constituent les entrées ou les bases de l'analyse dysfonctionnelle. Les principales méthodes utilisées lors d'une analyse dysfonctionnelle sont : l'Analyse Préliminaire des Risques (APR), l'Analyse des Modes de Défaillance, de leurs Effets et de leurs Criticités (AMDEC), l'Analyse des Effets des Erreurs de logiciel (AEEL), les Arbres de Défaillances (AdD), etc. [3]. La majorité de ces méthodes s'appliquent uniquement pour la partie matérielle (composants mécaniques, électroniques, etc.). Une de ces méthodes d'analyse dysfonctionnelle (AMDE) possède un équivalent qui s'adapte parfaitement à la partie logicielle c'est l'AEEL. La combinaison de ces deux techniques (AMDE + AEEL) nous permet de traiter un système mécatronique en tenant compte de l'aspect pluri-technologie. Enfin, l'architecture du système mécatronique ayant été définie par l'analyse organique, des modes de défaillance issus des aspects hybride, dynamique, reconfigurable ou interactif pourront être identifiés lors de cette analyse. 2.3 Recueils d'informations Le dysfonctionnement du système est provoqué par la défaillance d'un ou plusieurs composants. Les systèmes mécatroniques sont des systèmes complexes qui regroupent différentes technologies. Il est donc nécessaire de déterminer la fiabilité des différents types de composants qui constituent le système mécatronique. Il existe plusieurs sources d'informations où est synthétisée toute la connaissance disponible sur les paramètres influençant la fiabilité des composants. Parmi les sources les plus utilisées nous citons : les recueils d'informations (FIDES, NPRD, modèle de Musa), les avis d'experts, la simulation Monte Carlo. 2.4 Modélisation qualitative La modélisation qualitative permet de construire, un modèle fonctionnel et dysfonctionnel et ainsi de 4 21ème Congrès Français de Mécanique Bordeaux, 26 au 30 août 2013 représenter le comportement du système durant son fonctionnement nominal et en présence de fautes. Les deux étapes des analyses fonctionnelle et organique et de l'analyse dysfonctionnelle sont nécessaires à la construction des modèles fonctionnels et dysfonctionnels. Les résultats de ces deux analyses constituent le point de départ dans la construction du modèle de fiabilité. Il existe plusieurs méthodes de modélisation des systèmes mécatroniques, nous pouvons citer : les RdP [5], les chaines de Markov [10], les réseaux bayésiens dynamiques (RBD) [11], les réseaux de neurones [9], etc. Les méthodes les plus adaptées à la modélisation et à l'analyse des systèmes mécatroniques sont les modèles à états-transitions tels que les graphes d'états (les graphes de Markov, les réseaux bayésiens) et les approches basées sur les réseaux de Petri [4]. Pour la modélisation des systèmes mécatroniques, nous pouvons utiliser les réseaux de Petri car ils permettent : • • • • • • • La modélisation d'un système mécatronique intégrant différentes technologies ; L'utilisation dans chaque étape du cycle de développement ; L'analyse du comportement fonctionnel et dysfonctionnel ; La modélisation de phénomènes continus et d'évènements discrets (aspect hybride) La prise en compte de l'aspect dynamique du système ; La modification de leurs structures internes (aspect reconfigurable) La spécification des interactions entre les composants. L'un des inconvénients des réseaux de Petri pourrait se limiter à son application dans le domaine industriel par manque d'utilisation. 2.5 Modélisation dynamique La modélisation dynamique constitue la première étape de l'analyse quantitative qui consiste à évaluer la probabilité d'apparition d'un évènement pouvant se produire sur un système. Cette modélisation consiste, d'une part, à construire un modèle (représentant le système avec ses interactions fonctionnelles et physiques) et qui prend en compte les différentes propriétés citées auparavant (dynamique, reconfigurable, interactif et hybride) du système mécatronique afin d'obtenir les variables physiques internes à partir d'un profil de mission ; d'autre part, de construire les lois de distribution de la fiabilité des composants constituant le système mécatronique si elles n'existent pas a priori [1]. Les modélisations dynamiques fonctionnelle et dysfonctionnelle du système, tenant compte du profil de mission, et les résultats de la modélisation qualitative fonctionnelle et dysfonctionnelle permettent de connaître les variables internes et les temps de fonctionnement de chaque composant. En cas d'absence de loi de distribution concernant la fiabilité des composants, les variables physiques internes obtenues seront utilisées comme données pour déterminer ces lois de distribution pour chaque technologie. Habituellement, pour les composants électroniques, la loi exponentielle est tout à fait adaptée pour représenter les défaillances. Pour les composants logiciels, le modèle de Musa peut être utilisé. Enfin, pour les composants mécaniques standards, la loi normale peut être appliquée dans certains cas de dégradation, et on peut utiliser les recueils de données (NPRD, AVCO, etc.). La loi de Weibull avec ses différentes extensions (2 ou 3 paramètres, composée, mixée) est très riche et peut être utilisée pour différentes technologies et pendant les différentes phases du cycle de vie du produit. 2.6 Simulation La simulation consiste à exécuter, c'est-à-dire à faire fonctionner pas à pas et événement par événement dans le temps, le modèle construit grâce à l'enchainement des différentes étapes citées précédemment afin d'estimer la fiabilité du système dans sa globalité et de détecter les différents modes de fonctionnement et de dysfonctionnement. La simulation permet aussi d'identifier les différents états de fonctionnement du système considérés dans le modèle : fonctionnement normal, fonctionnement dégradé (en présence de fautes), fonctionnement défaillant. 2.7 Analyse des résultats de simulation L'analyse des résultats de simulation consiste à évaluer les valeurs de fiabilité obtenues et de comparer ces valeurs par rapport aux objectifs définis lors de la phase de spécification afin d'améliorer la qualité du système du point de vue de la fiabilité. Aussi, cette analyse permettra de rechercher les lois ou modèles de fiabilité adaptés aux différents modes de défaillance et aux différents composants. 5 21ème Congrès Français de Mécanique Bordeaux, 26 au 30 août 2013 A l'aide de la méthode du maximum de vraisemblance (ou en utilisant des méthodes statistiques), nous pouvons déduire les paramètres des lois de distribution de la fiabilité car cette méthode consiste à évaluer la vraisemblance des observations, c'est-à-dire la probabilité d'avoir obtenu un certain nombre de défaillances. Nous supposons que l'utilisation de cette méthodologie avec toutes ses étapes et en intégrant les aspects caractérisant un système mécatronique devrait nous permettre de mettre en évidence des modes de défaillance dus aux spécificités de ces systèmes mais aussi une évaluation plus robuste de la fiabilité. 3 Conclusion et Perspectives Dans cet article, nous avons exposé la problématique liée à la fiabilité des systèmes mécatroniques et nous avons proposé une méthodologie globale dans le but de faire face aux problèmes engendrés par les spécificités de ces systèmes lors de l'étude de fiabilité pendant la phase de conception. Pour évaluer la fiabilité prévisionnelle d'un système mécatronique, il est nécessaire de le modéliser car le système n'existe pas à ce stade de développement et ne peut être testé physiquement. C'est pourquoi, la première partie de la méthodologie proposée est l'analyse qualitative qui fournit toutes les informations nécessaires sur le fonctionnement et le dysfonctionnement d'un système mécatronique. La deuxième partie de la méthodologie est l'analyse quantitative qui permet d'estimer et de quantifier la fiabilité de ce système mécatronique. En termes de perspectives, nous comptons valider cette méthodologie dans un délai proche à travers des exemples mécatroniques industriels. Ces exemples seront choisis en collaboration étroite avec notre partenaire le CETIM qui a des relations très privilégiées avec plusieurs entreprises travaillant dans le domaine. Aussi, nous comptons approfondir notre analyse sur des questions plus théoriques, afin de répondre en particulier à des problèmes de spécification et de modélisation par exemple, des interactions physiques ou fonctionnelles en termes de fiabilité et de l'influence du profil de mission sur les lois de distribution de la fiabilité des composants. Remerciements : Nous tenons à remercier l'APS (Assemblée des Pays de Savoie) et le CETIM qui financent ce travail dans le cadre d'une thèse de doctorat. Références [1] A. Demri ; Contribution à l'évaluation de la fiabilité d'un système mécatronique par modélisation fonctionnelle et dysfonctionnelle ; thèse de doctorat, Université d'Angers, 2009. [2] P. Lyonnet ; Ingénierie de la fiabilité ; Lavoisier, 2006. [3] A. Mihalache ; Modélisation et évaluation de la fiabilité des systèmes mécatroniques : application sur système embarqué ; thèse de doctorat, Université d'Angers, 2007. [4] M. Medjoudj ; Contribution à l'analyse des systèmes pilotés par calculateurs : Extraction de scenarios redoutés et vérification de contraintes temporelles ; thèse de doctorat, Université Paul Sabatier de Toulouse, 2006. [5] G. Moncelet ; Application des Réseaux de Petri à l'évaluation de la sûreté de fonctionnement des systèmes mécatroniques du monde automobile ; thèse de doctorat, Université Paul Sabatier de Toulouse, octobre 1998. [6] "Systèmes dynamiques hybrides", ouvrage collectif sous la direction de Janan Zaytoon, collection Hermès Science, ISBN 2-7462-0247-6, 2000. [7] P.A.Muller et N.Gaertner. Modélisation objet avec UML. Editions Eyrolles, 2001. [8] « Guide de conduite d'un projet mécatronique. Analyse fonctionnelle et organique », CETIM 2007. [9] S. Piechowiak ; Intelligence artificielle et diagnostic, Technique de l'ingénieur, page 20, décembre 2003. [10] A. Villemeur ; Sûreté de fonctionnement des systèmes industriels. Editions, 1988. [11] S. Verron. Diagnostic et surveillance des processus complexes par réseaux bayésiens. Thèse de doctorat, ISTIA Université d'Angers, 2007. [12] AFNOR. Mécatronique - vocabulaire. Norme NF E01-010, novembre 2008. [13] C. Commault, J.M. Dion, A. Perez, Disturbance rejection for structured systems. IEEE Transactions on Automatic Control, 36(7):884–887, juillet 1991. [14] R.W Daniel,, J.R. Hewit, Editorial. Mechatronics, 1(1): i–ii, 1991. [15] IFAC Technical Committees. Http: //tc.ifac-control.org/4/2/scope. 2009. 6
{'path': '62/hal.univ-smb.fr-hal-00873677-document.txt'}
Du criollo au compañero représentations de la citoyenneté cubaine Lorraine Karnoouh Sanchez Machado To cite this version: Lorraine Karnoouh Sanchez Machado. Du criollo au compañero représentations de la citoyenneté cubaine. GIS Réseau Amérique latine. Actes du 1er Congrès du GIS Amérique latine :Discours et pratiques de pouvoirs en Amérique latine, de la période précolombienneà nos jours, 3-4 novembre 2005, Université de La Rochelle, Nov 2005, La Rochelle, France. 11 p. halshs-00150801 HAL Id: halshs-00150801 https://halshs.archives-ouvertes.fr/halshs-00150801 Submitted on 31 May 2007 GIS Réseau Amérique latine. Actes du 1er Congrès du GIS Amérique latine : Discours et pratiques de pouvoirs en Amérique latine, de la période précolombienne à nos jours, 3-4 novembre 2005, Université de La Rochelle Du criollo au compañero Représentations de la citoyenneté cubaine Soy cubano, soy popular1 Lorraine Karnoouh Sanchez Machado 17 rue du Gers, 31400 Toulouse lorrainekasama@yahoo.fr Doctorante Université Paris 7 - Associée IRD C'est par l'équivalence entre l'identité cubaine et le fait d'être « du peuple » que nous entamons la réflexion sur les figures de la citoyenneté à Cuba. Ce slogan publicitaire bien connu à Cuba et pratiquement érigé en maxime nous semble en effet exprimer un aspect central du rapport entre identité nationale et rapport au peuple dans la Cuba contemporaine. Lorsque l'on parle de pouvoir, qu'il s'agisse de discours ou de pratiques, on se situe dans le champ du politique, où il est question d'agencements des rapports entre des individus dont on postule l'appartenance à un groupe, à une communauté relativement homogène. Cette organisation des liens qui unissent et régissent les individus au sein d'une communauté passe par un mode spécifique de répartition du pouvoir. Il est alors question des instances qui décident et mettent en oeuvre des mesures supposées aller dans le sens du bien commun. Se pose alors le problème de la légitimité des instances de pouvoir car leur action suppose l'acception et la reconnaissance par les membres de la communauté de son bien-fondé et/ou de la compétence de ceux qui la mettent en oeuvre. La citoyenneté constitue ainsi le statut qui définit le rapport de l'individu au pouvoir, en particulier au pouvoir d'État, dans le cadre de la modernité politique, c'est-àdire de l'imaginaire national2. Le lien de l'imaginaire national et de l'institution étatique au réel trouve son expression dans la figure du peuple en tant que système de représentations 1 Je suis Cubain, je suis populaire. Slogan publicitaire pour les cigarettes Popular. Anderson, Benedict, L'imaginaire national. Réflexion sur les origines et l'essor du nationalisme, La Découverte, Paris, 1996, 206 p. 2 1 [] d'une communauté qui se reconnaît par avance dans l'institution étatique, qui la reconnaît comme "sienne" face à d'autres Etats, et surtout inscrit ses luttes politiques dans son horizon : par exemple en formulant ses aspirations de réforme et de révolution sociale comme des projets de transformation de son "État" national3. Ce processus n'est donc pas propre à Cuba mais à l'accès à la modernité politique en particulier à travers la formation d'État-Nations. Cette conception politique moderne issue à la fois des Lumières, de la Révolution Française, de la pensée libérale anglaise et du romantisme allemand a largement influencé la pensée politique cubaine, tant par le biais de la réforme constitutionnelle en Espagne en 1812 que par l'intermédiaire de ses propres hommes de lettres. Le statut de colonie espagnole et surtout de dernière colonie à s'indépendantiser de l'Empire d'Espagne impose de resituer la réflexion à l'époque de la naissance de l'idée même d'indépendance de Cuba, avec ses implications concernant la conception de la citoyenneté. Partant d'une volonté d'autonomie de la part des créoles blancs de l'île, les transformations dans la configuration mondiale des rapports de forces (la prise de La Havane par les Anglais, l'Indépendance des Etats-Unis et la Révolution haïtienne)4, ainsi que les prémisses de la révolution industrielle formeront le cadre d'émergence des idées indépendantistes à Cuba. En effet, par son rôle tant dans l'Empire espagnol que dans le marché mondial, l'île de Cuba fut le théâtre de la mondialisation moderne. En nous appuyant sur des travaux réalisés sur la question raciale5 et sur des données recueillies sur le terrain entre 2000 et 2003 pour l'élaboration de notre thèse de Doctorat sur l'identité nationale cubaine, nous tenterons de construire une réflexion transversale sur l'évolution des représentations de la citoyenneté dans la société cubaine. Nous étudierons les passages et les superpositions entre les différentes figures de la 3 Balibar, Etienne, « La forme nation : histoire et idéologie » in Balibar, Etienne, Wallerstein, Immanuel, Race, nation, classe. Les identités ambiguës, La Découverte, Paris, 1997, p. 127. 4 De nombreux auteurs, sans distinction d'affiliation idéologique, se réfèrent à ces trois événements de l'histoire mondiale pour comprendre les transformations de la société cubaine : Herrera Rémi, « Aspects fondamentaux de l'histoire de Cuba : de la conquista à la révolution (1492-1958) » in Amin, Samir, Herrera, Rémi (prés.), Cuba révolutionnaire. Tome1. Histoire et culture, L'Harmattan, (Forum TiersMonde), 2003, p. 11-75., Opatrny, Josef, Antecedentes históricos de la formación de la nación cubana, Universidad Carolina, Praga, 1986, 254 p., Peréz, Cuba. Between Reform and Revolution, Oxford University Press, New York, Oxford, 1995, 539 p., Le Riverend, Julio, Historia económica de Cuba, Editorial Pueblo y Educación, La Habana, 1981, 662 p., Pino-Santo, Oscar, Historia de Cuba. Aspectos fundamentales, Editora Universitaria, (colección histórica), La Habana, 1964, 352 p. 5 Karnoouh, Lorraine, Cadre et enjeux de la construction d'une identité noire dans un espace social racialisé, le cas de Cuba, Diplôme d'Etudes Approfondies "Etudes des Sociétés Latino-américaines", Institut des Hautes Etudes d'Amérique Latine, Université de Paris III - Sorbonne Nouvelle, 1998-1999, 130 p. 2 citoyenneté cubaine en tant que statut identitaire légitime de rapport à la communauté politique de référence et au pouvoir. En effet, même s'il y a une rupture radicale entre la conception de la citoyenneté cubaine née de l'autonomisme du 19 e siècle et celle construite tout au long de la période républicaine pré- et post-révolutionnaire, on peut appréhender la seconde comme une production sociopolitique tentant de résoudre, au fil du temps, les apories de la première. Le choix de procéder à une analyse par "figure" repose sur l'étude de la transmission de l'identité nationale et des catégories de pensée dans l'éducation cubaine axée en grande partie sur la pédagogie des héros6 Du point de vue idéel et dans une large mesure matérielle, il y a réellement un passage d'une conception très exclusive à une vision intégrative de la citoyenneté. A partir de cette dichotomie idéale-typique, nous présenterons dans un premier temps le caractère exclusif de la figure protonationale de la citoyenneté cubaine pour aborder le passage à une conception unitaire, voire totalitaire, du citoyen afin de la mettre en question en observant dans quelle mesure cette citoyenneté englobante peut être, sous certains aspects, aussi excluante et surtout malmenée, à l'heure de l'entrée de Cuba dans l'ère de l'Economie-monde7. 1 – La figure du criollo ou la citoyenneté exclusive Le créolisme doit se comprendre dans la transformation de l'entreprise coloniale à Cuba. La construction d'un groupe social progressivement autonome et de l'idée de son autonomisation trouvaient leur fondement dans l'appropriation d'un territoire, distinct de celui de la Mère-patrie ainsi que dans l'élaboration progressive de pratiques et de discours sociaux propres, bientôt en conflit avec ceux de l'élite métropolitaine au pouvoir. Cette construction sociale passe d'abord par la constitution d'une oligarchie à La Havane, centre du commerce triangulaire et de toutes les convoitises tant politiques qu'économiques. Un processus de migration vers le pôle urbain8 au cours du 16e siècle constitue une des premières actions visant à occuper les positions de pouvoir attribuées 6 Karnoouh, Lorraine, "Cuba : la pédagogie des héros", Outre-Terre : Enseigner la nation. Géopolitique des manuels, n° 12, 2005, p. 301-312. 7 Expression empruntée à Immanuel Wallerstein. 8 Sont recensées depuis le 16e siècle de nombreuses maisons en pierre, témoins du processus d'installation et d'urbanisation de cette oligarchie, la construction de ce type d'habitation étant liée à la possession d'encomiendas d'indiens, selon l'ordonnance royale de 1534 (Instituto de Historia de Cuba, La Colonia. Evolución socioeconómica y formación nacional de los orígenes hasta 1867, t. 1, Editora Política, La Habana, 1994, p. 133). 3 par le cabildo pour exercer les fonctions exécutives de la Couronne9. Rapidement, la division entre pouvoir local émanant du cabildo et pouvoir central exercé par le Gouverneur de l'île, sera source de conflits d'intérêts opposant deux visions du monde qui allaient devenir inconciliables. Le développement d'une économie tabatière et sucrière allait sceller les divergences d'intérêts entre une métropole exigeant de ses hidalgos le gouvernement d'une colonie de service10 alors qu'était en train de naître une colonie d'exploitation. L'oligarchie havanaise sera ainsi la première expression de l'émergence d'une revendication identitaire distincte de la métropole et liée au contexte cubain, au sens géo-esthétique du terme. L'origine de cette attitude littéraire proto-nationaliste se trouve dans le poème de Silvestre de Balboa écrit à Puerto Príncipe en 1608. Espejo de Paciencia préfigure l'esthétisme créole dans l'éloge de la patria chiquita, et l'opposition fondatrice de l'indépendantisme cubain entre créole et péninsulaire. On en trouve aussi les traces dans l'oeuvre de José Martín Félix de Arrarte y Acosta (1701-1764). Cette oeuvre représente à la fois les positions et les représentations de cette oligarchie créole dans ses prétentions à la noblesse face au dénigrement métropolitain de la pureté du sang de ses membres, en raison de leur naissance et de leur enracinement déjà inexorable en terre havanaise. Dans La Llave del Mundo, Antemural de las Indias Occidentales. La Habana Descripta : Noticias de su Fundación, Aumentos y Estado11, Félix de Arrarte dépeint La Havane telle qu'elle ne sera plus après l'occupation anglaise. Il s'agit d'y présenter une image positive, voire merveilleuse de la créolité et de se réapproprier un passé noble fondé sur la limpieza de sangre12 , élément essentiel de l'hidalguía13 métropolitaine. Arrarte utilise pour ce faire un procédé classique de renversement de stigmates dont sont affublés les criollos. Cette image péjorative de l'oligarchie créole reprend tous les "défauts" supposés inhérents à la géographie (climat, végétation, faune, etc) et à la société de la colonie cubaine (esclavage, présence de "sous-hommes", pauvreté morale et religieuse, vices, etc.) pour les attribuer aux Espagnols nés sur les terres colonisées, supposés aussi porteurs de ces "tares". Le procédé littéraire consiste ensuite à retourner 9 Idem, p. 123. Moreno Fraginals, Manuel, Cuba/España. España/Cuba. Historia común, Grijalbo mondadori, (mitos bolsillos), Barcelona, 1995, p. 72. 11 1761. 12 Pureté de sang. 13 Noblesse d'Espagne. 10 4 cette image en sa faveur en envisageant d'une façon positive tous les traits négatifs énoncés plus haut, même ceux concernant les esclaves et la population de couleur. Cela ne fait sans doute pas de Félix de Arrarte un anti-esclavagiste mais un tel discours constituait pourtant, dans le contexte colonial, comme le rappelle le fameux historien cubain, Manuel Moreno Fraginals, les prémisses de la subversion autonomiste puis indépendantiste. Ce moment clef de la citoyenneté correspond à l'amorce du passage de l'altérité à l'identité, exprimé par Rafael Rojas14 pour qualifier cette étape de la construction de l'identité nationale cubaine. En excluant les travailleurs libres et les esclaves de quelque couleur que ce soit de cette définition de la citoyenneté, les Créoles havanais soutenaient l'idée d'un accroissement nécessaire des droits politiques afin de creuser l'écart entre ceux qui les possèdent et les autres. La naissance de l'idée d'une communauté politique de référence comme source d'émanation du statut de citoyen est fortement liée à la notion d'unité ou encore d'union nationale même si paradoxalement celle-ci se construit d'abord par l'exclusion de plus de la moitié des habitants de l'île : la population esclave. La société coloniale cubaine se caractérise par un haut degré de racialisation des rapports sociaux. La question de l'esclavage, et plus particulièrement de la place des hommes de couleurs dans la société nationale cubaine en formation, constitue à la fois une des lignes de scission les plus fortes du champ idéologique cubain et la source fondamentale de son ethnicité15. Pour accéder à la citoyenneté, la reconnaissance et l'accès au statut d'être humain des esclaves se pose donc comme un préalable nécessaire. 2 Citoyenneté et idéal unitaire Loin d'être une entreprise purement altruiste, l'abolition de l'esclavage doit être resituée dans le contexte de la révolution industrielle et de l'essor du capitalisme mondial, où le travail servile n'est plus rentable face à l'essor de ce qui constitue à l'époque les nouvelles technologies (le chemin de fer et le télégraphe en particulier). Pourtant l'abolition de l'institution d'asservissement légitime met sur la route toute une frange de la population qui, au sortir de la première guerre d'indépendance (Guerre des 14 Rojas, Rafael, "Del espíritu al cuerpo de la nación. Identidad y ciudadanía en la cultura política en Cuba", Estudios Sociológicos, XV, n° 43, 1997, p. 239. 15 Etienne Balibar répertorie deux modes de construction de l'ethnicité fictive, c'est-à-dire celle qui réalise le lien entre les individualités toutes différentes des êtres humains et l'unité de la personne collective qu'est la nation ou la patrie. Un de ces deux modes est la race, l'autre la langue. Voir Balibar, op. cit., p. 135. 5 Dix Ans 1868-1898), avait participé plus qu'à son tour à la lutte pour l'émancipation du pays et avait ainsi nourri des espoirs d'égalité dans cette nouvelle patrie rêvée. Il émane en effet, de la pratique et du discours sur les guerres d'indépendance (Guerre des Dix Ans, 1868-1898, Guerra Chiquita, 1869-1869, Guerre d'Indépendance, 1895-1898), un idéal d'union face à un ennemi commun. Le fait pour des soldats de toute couleur et de toute provenance de combattre sous le même drapeau ou encore de servir sous le commandement de Généraux de couleur, comme Antonio Maceo ou Flor Crombet, ont sans doute été des facteurs importants d'intégration. Le personnage historico-mythique qui représente cette union est la figure du mambí16, idéal combatif du nouveau Cubain "[] más que negro más que blanco más que mulato []17". Cet aphorisme de Martí résume à lui seul l'idéal du citoyen cubain. Dans les tranchées serait ainsi née une solidarité nationale et raciale. La Guerre des Dix Ans, aussi qualifiée de "crisol de la nación", creuset de la nation, où Noirs, Mulâtres et Blancs voire Chinois et Irlandais, marchaient sous les mêmes drapeaux, ceux de la Cuba Libre. Il y a ici le soubassement d'une nouvelle légitimité qui se construit à partir de représentations positives de l'homogénéité raciale (ethnicité fictive ou idiosyncrasie18) et nationale (nation idéale ou patrie19). Cette prédominance de l'homogénéité et de l'union dans le discours politique cubain est une constante que l'on retrouve tant durant la période républicaine que depuis la Révolution de 1959. Le contexte spécifique de Patrie en danger dans lequel Cuba se trouve peu ou prou toujours impliquée renforce la validité sociale d'une telle phraséologie unitaire. Nombreux sont les exemples de l'univocité de l'idéologie d'union nationale. L'interdiction du Parti indépendant de Couleur et le massacre en 1912 de ses membres20 constitue une triste illustration des marges dans lesquelles le citoyen cubain peut se mouvoir mais ne peut dépasser : celle de l'union sacrée. L'explication donnée dans le manuel d'Histoire de Julio Le Riverend est à cet égard révélatrice: 16 Terme qualifiant les soldats de l'Armée Libératrice durant les guerres d'indépendance cubaine. Martí, José, " Mi raza" in Obras completas, vol. 1, Editorial Lex, La Habana, 1946, p. 487. 18 Balibar, op. cit., p. 130. 19 Ibidem, p. 131. 20 Helg, Aline, Afrocuban protest : the Partido Independiente de Color, 1908-1912", Cuban Studies, n° 21, 1991, p. 101-121. 17 6 On pourrait affirmer que les causes de ce mouvement furent justes dans la mesure où l'on se souleva pour elles mais que la façon de faire fut incorrecte car la lutte contre la discrimination raciale ne pouvait émaner d'un seul groupe (qu'il soit blanc ou noir) mais être l'oeuvre de tout le peuple de Cuba.21 Pour cette raison, il ne peut y avoir d'action politique, ni de citoyenneté qui ne soit conçue dans le cadre d'une cause totale, globale, intégrale enfin, nationale. Le contexte républicain de frustration des velléités d'indépendance voit le thème de l'impérialisme imprégner le discours de la lutte légitime, la seule qui soit véritablement patriotique et aille dans le sens de l'avènement national. Ce moment socio-historique correspond à Cuba avec la réappropriation de la part de la gauche cubaine de l'esprit et de la lettre de Martí. Les chefs de file du mouvement communiste révolutionnaire, Carlos Baliño et Julio Antonio Mella se chargeront avec d'autres illustres figures de la lutte nationale, comme Antonio Guiteras et Rubén Martínez Villena, de trouver et d'exposer les points de liaison entre l'humanisme martinien et l'idéal socialiste22. De cette doctrine ainsi que des rangs des manifestations et défilés nombreux en cette période de troubles prérévolutionnaires (1933), allait naître une figure de citoyen cubain dont le devoir patriotique possède dorénavant une dimension hautement sociale. Ainsi le compañero23, solidaire et engagé, devient-il la figure de la citoyenneté participative même si ce terme n'est officialisé qu'après 195924. Largement reprise dans la phraséologie révolutionnaire des années 1950 ainsi que dans les discours de la "Révolution au pouvoir25", l'idée d'engagement (compromiso) et de participation à la cause de la Patrie et à celle du socialisme peut être illustrée dans le parallélisme des devises Patria o Muerte et Socialismo o Muerte, scandées lors des discours politiques. Dans la Cuba révolutionnaire, l'éducation au civisme occupe une place primordiale dans l'enseignement primaire et secondaire. La conception qui est transmise 21 « Podría afirmarse que las causas de este movimiento fueron justas en tanto en cuanto los alzados se movieron por ellas, pero que el procedimiento fue incorrecto porque la lucha contra la discriminación racial no podía ser exclusiva de un grupo (fueran blancos o fueran negros) sino obra de todo el pueblo de Cuba) in Le Riverend, Julio, La República, Editorial de Ciencias Sociales, La Habana, 1973, p 126. 22 Voir Ortiz, Jean, Julio Antonio Mella. L'ange rebelle. Aux origines du communisme cubain, l'Harmattan, (Publication de l'Equipe de Recherche de l'Université de Paris VIII/Histoire des Antilles Hispaniques), Paris, 1999, p. 44-52 et Rosales García, "Marxismo y tradición nacional en Rubén Martínez Villena", Marx Ahora, n° 9, 2000, sous presse. 23 Compagnon, camarade. 24 A ce moment, l'utilisation du terme d'adresse "señor" est prohibé dans les relations sociales cubaines. 25 Historia de Cuba, 9no grado, Editorial Pueblo y Educación, La Habana, 1991, p. 313. 7 aux pioneros est empreinte tant de responsabilité civique que de devoirs moraux. Elle consiste en : [] la instrucción del ciudadano y la orientación de su práctica a partir de los deberes y derechos que él mismo posee en una comunidad histórico–concreta, la que actúa como reguladora de la convivencia ciudadana, fundamentada legal y moralmente26. Il y a dans cette définition l'association entre le rapport de l'individu à l'État défini par un statut juridique et son lien à la nation régi par l'affectivité. L'enfant, citoyen en formation, est mis face aux exigences de la vie sociale dans toutes ses dimensions. Il doit apprendre à manier toute une série de rapports aussi conçus comme différents cercles de sociabilité, depuis la cellule familiale, père, mère et enfant, jusqu'à la famille élargie ou communauté civique27. La défense de la patrie telle qu'elle est définie dans le manuel d'éducation civique destiné aux élèves de l'enseignement primaire et secondaire est représentée par l'accomplissement par les enfants de leur devoir d'enfant, aimer la patrie et étudier28. Accomplir ses devoirs envers la patrie est alors synonyme d'être révolutionnaire : Cumplimos con la Patria, somos révolucionarios29. Cette devise est représentée à l'intérieur d'une fleur, chaque pétale correspondant à une de ses dimensions : saluer le drapeau, travailler au champ, aider les personnes âgées, aider les autres élèves dans le travail, participer au mouvement d'explorateurs30, préserver le matériel d'études, étudier (au centre), pratiquer des loisirs sportifs et culturels. Conclusion On se trouve ainsi en présence de deux aspects apparemment opposés de la citoyenneté tout au long de l'histoire cubaine : d'une part l'exclusivité du criollo blanc, élitiste, dont le rapport à l'Etat est défini par l'exercice de droits politiques, en particulier par l'exercice du pouvoir et d'autre part l'homogénéité englobante du compañero, responsable et altruiste, titulaire de droits sociaux, condition sine qua non de sa liberté politique au sein de la Révolution. Entre ces deux pôles s'est construite l'identité 26 Arias, Carmen Luisa, Rodriguez, Camilo, "Una ventana abierta a la comunidad: la enseñanza de la Educación cívica" ponencia presentada al evento internacional Pedagogía 97, p. 4 in Educación Cívica, 9no grado, Editorial Pueblo y Educación, La Habana, 2004, p. 27 Ibidem, p. 62 et Educación cívica, 5to grado, Editorial Pueblo y Educacion, La Habana, 2002, p. 1-15. 28 "Amor a la patria. Su defensa", Educación civique, Editorial Pueblo y Educación, La Habana, 2002, p; 40-54. 29 Ibidem, p. 53. 30 Classe verte d'apprentissage des rudiments du bivouac et de la survie. 8 citoyenne à Cuba. Si dans La historia me absolverá31 il n'est fait aucune référence à la question raciale, des documents antérieurs émanant du Mouvement du 26 juillet (M-26) parlent de "[] mettre fin à tout vestige de discrimination raciale32." L'adoption de la référence au marxisme-léninisme par la révolution cubaine entraîne le traitement de la question raciale en termes de classes. La résolution des inégalités sociales incluait donc celle des tensions raciales, notamment dans les domaines de l'éducation, de la santé et de l'accès au logement33. Si l'effectivité des transformations socio-raciales dans Cuba révolutionnaire a été démontrée par de nombreux auteurs, elle comporte pourtant des failles aggravées par le nouveau contexte socio-économique dans lequel se trouve Cuba depuis le début de la mise en place de la "Période Spéciale en Temps de Paix34". La figure du cubano rêvée par Martí et réalisée en partie dans la figure unitaire, tant du point de vue social que racial, de la citoyenneté cubaine se trouve mise à mal lorsque les failles inhérentes au système d'exigences sociales et politiques de la société cubaine et l'arrivée brutale de Cuba dans le monde globalisé questionnent la capacité de résistance du système de valeurs en vigueur jusqu'alors et celle des Cubains eux-mêmes. La persistance de préjugés raciaux dans différents domaines de la vie sociale35 et l'hémorragie migratoire constituent les principales blessures de la figure unitaire du compañero dévoué à la cause nationale révolutionnaire. Les pratiques exoticoéconomiques induites par le tourisme de masse dans l'île ont fait réapparaître dans certaines zones les fantômes de la période républicaine. La grande famille civique évoquée dans les manuels, se trouve fragmentée lorsque, parce que l'on est Cubain, on se voit refuser l'accès à la piscine ou au bar d'un hôtel de luxe, dans lequel quelques années auparavant, on pouvait encore boire un mojito pour quelques pesos. 31 Castro, Fidel, La Historia me absolverá, Ediciones políticas, La Habana, [1953] 1967, Año del Viet Nam Heróico, 73 p. 32 Manifesto n°1 del pueblo de Cuba, M-26-7, 1955, cité par De la Fuente, Alejandro, "Race, national discourse and politics in Cuba", Latin American perspectives, vol. 25, n° 3, mai 1998, p. 63, note 6. 33 Casal, Lourdes, Revolution and race : Blacks in contemporary Cuba, Latin American Program, working papers, The Wilson Center, Washington, 1979, 29 p. 34 Statut juridique décrété à partir de la rupture des liens entre Cuba et le CAME, trouvant son origine dans l'état d'urgence en cas d'invasion, et qui correspond à la légalisation de la détention de devises, libéralisation des marchés paysans, autorisation des investissements étrangers à hauteur de 49% dans les sociétés cubaines, développement du tourisme de masse. 35 Argyriadis, Kali, La religión à La Havane. Actualité des représentations et des pratiques cultuelles havanaises, Thèse de Doctorat en Anthropologie sociale et Ethnologie, EHESS, Paris, 1997, p. 41. 9 Quant aux fameuses "salidas del país", même s'il est aujourd'hui envisagé qu'elles puissent trouver leur légitimité dans une situation économique parfois intenable" ou tout simplement dans l'expression d'un choix personnel de vie, elles restent souvent une source de rupture radicale avec l'Etat, voire avec la communauté, même si on est loin des actes de reniement politiques et collectifs des années 1980 36. Ainsi, les images de l'unité et du sacrifice collectif au fondement de la conception contemporaine de la citoyenneté cubaine sont entamées par les nouvelles de ceux qui sont partis, entretenant à leur tour le mirage du rêve américain. Mais peut-être plus préoccupante encore est la dégradation de la situation de ceux qui restent, de ceux qui se voient confrontés presque quotidiennement à l'étranger, celui qui n'a pas les droits ni les devoirs des citoyens mais dont pourtant on dépend lorsque l'on est d'un pays du TiersMonde. La réduction des biens procurés par le livret de rationnement et l'impossibilité de fonctionner de certains services publics de base constituant les points forts de la révolution cubaine, comme la médecine et l'éducation, toujours à la merci du blocus américain, entament alors définitivement le sens d'une citoyenneté totale et unitaire. Dans ce contexte de remise en cause du fondement de la légitimité du régime révolutionnaire, il semble aujourd'hui que Cuba ait trouvé une sortie géopolitique à l'isolement dont elle souffrait depuis sa sortie du Conseil d'Assistance Economique Mutuelle et à l'essoufflement de la phraséologie de la Révolution. Les réussites cubaines font de nouvelles émules sur le continent latino-américain. Mais la nouvelle alternative bolivarienne pour les Amériques, du nom de l'année 2005 dans le calendrier révolutionnaire cubain, sera-t-elle aussi une alternative citoyenne ? 36 Ou plutôt il existe certains cas où celles-ci ne sont pas considérées comme une trahison à la patrie : le séjour avec un passeport spécial (missions), visa américain ou mariage. Il est en revanche impossible de concevoir le fait de quitter le pays comme un choix de vie où l'intérêt individuel passerait avant l'intérêt collectif, en particulier lorsqu'il s'agit de personnes de haut niveau professionnel, sans parler des cas extrêmes des médecins, journalistes et militaires dont le statut migratoire est particulièrement strict. 10 Discipline : sociologie Résumé: La conception de la citoyenneté cubaine s'articule autour de deux axes analysés ici en "figures". En effet, au cours de l'histoire politique moderne de Cuba, c'est-à-dire la construction dans l'île d'un Etat-Nation moderne indépendant, la question de la relation que l'individu allait entretenir avec cette nouvelle forme de pouvoir politique se posait de façon prégnante. Ainsi, de la figure du criollo, issu de l'oligarchie créole naissante et exclusive, à celle du compañero, totale et intégrative, on peut comprendre la façon dont se construit un rapport spécifique de l'individu à la communauté politique de référence. Pourtant, la situation contemporaine à Cuba met à jour des failles de cette vision totalement unitaire et univoque de la citoyenneté dont les raisons se trouvent tant dans les pressions politiques extérieures auxquelles a dû faire face la Révolution cubaine depuis son avènement en 1959 que dans la rigidité de l'ensemble des exigences sociales et politiques du système politique cubain. Mots-clefs : Cuba - citoyenneté - révolution - race – identité Resumen La concepción de la ciudadanía cubana se articula entorno a dos ejes fundamentales que aqui se analizarán en términos de "figuras". En el transcurso de la historia política moderna de Cuba, es decir la construcción en la isla de un Estado Nación, se impone la cuestión de la relación del individuo con esta nueva forma de poder político. De la figura exclusiva del criollo a la figura total e integrativa del compañero se estudiara el modo en el cual se construyó en Cuba la relación específica que une el individuo a la comunidad política de referencia. Por lo tanto la situación cubana contemporánea hace resaltar las fallas de esta concepción total unitaria de la ciudadanía, lo que ha sido consecuencias tanto de las presiones políticas externas que la revolución cubana debe enfrentar desde su comienzo en el 59 como de la rígidez del conjunto de exigencias sociales y políticas del sistema cubano. Palabras claves: Cuba - ciudadanía - revolución - raza - identidad 11
{'path': '53/halshs.archives-ouvertes.fr-halshs-00150801-document.txt'}
Développement d'une application informatique pour la gestion d'un parc d'appareils de mesure. BDD matériel CSE, manuel utilisateur. 2 volumes B. Bourget To cite this version: B. Bourget. Développement d'une application informatique pour la gestion d'un parc d'appareils de mesure. BDD matériel CSE, manuel utilisateur. 2 volumes. [Stage] Faculté d'Economie Appliquée. Université de la Méditerranée (Aix Marseille 2), Marseille, FRA. 2001, 163 p. hal-02825668 HAL Id: hal-02825668 https://hal.inrae.fr/hal-02825668 Submitted on 6 Jun 2020
{'path': '39/hal.inrae.fr-hal-02825668-document.txt'}
Bleu de méthylène et adrénaline, une association synergique pour le traitement du choc anaphylactique. Etude expérimentale prospective chez le rat Brown Norway Grégoire Barthel To cite this version: Grégoire Barthel. Bleu de méthylène et adrénaline, une association synergique pour le traitement du choc anaphylactique. Etude expérimentale prospective chez le rat Brown Norway. Sciences du Vivant [q-bio]. 2012. hal-01733609 HAL Id: hal-01733609 https://hal.univ-lorraine.fr/hal-01733609 Submitted on 14 Mar 2018 AVERTISSEMENT Ce document est le fruit d'un long travail approuvé par le jury de soutenance et mis à disposition de l'ensemble de la communauté universitaire élargie. Il est soumis à la propriété intellectuelle de l'auteur. Ceci implique une obligation de citation et de référencement lors de l'utilisation de ce document. D'autre part, toute contrefaçon, plagiat, reproduction encourt une poursuite pénale. illicite Contact : ddoc-thesesexercice-contact@univ-lorraine.fr LIENS Code de la Propriété Intellectuelle. articles L 122. 4 Code de la Propriété Intellectuelle. articles L 335.2- L 335.10 http://www.cfcopies.com/V2/leg/leg_droi.php http://www.culture.gouv.fr/culture/infos-pratiques/droits/protection.htm UNIVERSITÉ DE LORRAINE 2012 FACULTÉ DE MÉDECINE DE NANCY THÈSE pour obtenir le grade de DOCTEUR EN MÉDECINE Présentée et soutenue publiquement dans le cadre du troisième cycle de Médecine Spécialisée par Grégoire BARTHEL le 30 octobre 2012 BLEU DE MÉTHYLÈNE ET ADRÉNALINE, UNE ASSOCIATION SYNERGIQUE POUR LE TRAITEMENT DU CHOC ANAPHYLACTIQUE ÉTUDE EXPÉRIMENTALE PROSPECTIVE CHEZ LE RAT BROWN NORWAY Examinateurs de la thèse : M. le Professeur Paul‐Michel MERTES M. le Professeur Gérard AUDIBERT M. le Professeur Bruno LEVY M. le Professeur Hervé BOUAZIZ M. le Professeur Jean‐Marc MALINOVSKY Président Juge Juge Juge Juge UNIVERSITÉ DE LORRAINE 2012 FACULTÉ DE MÉDECINE DE NANCY THÈSE pour obtenir le grade de DOCTEUR EN MÉDECINE Présentée et soutenue publiquement dans le cadre du troisième cycle de Médecine Spécialisée par Grégoire BARTHEL le 30 octobre 2012 BLEU DE MÉTHYLÈNE ET ADRÉNALINE, UNE ASSOCIATION SYNERGIQUE POUR LE TRAITEMENT DU CHOC ANAPHYLACTIQUE ÉTUDE EXPÉRIMENTALE PROSPECTIVE CHEZ LE RAT BROWN NORWAY Examinateurs de la thèse : M. le Professeur Paul‐Michel MERTES M. le Professeur Gérard AUDIBERT M. le Professeur Bruno LEVY M. le Professeur Hervé BOUAZIZ M. le Professeur Jean‐Marc MALINOVSKY Président Juge Juge Juge Juge 1 UNIVERSITÉ DE LORRAINE FACULTÉ DE MÉDECINE DE NANCY Administrateur Provisoire de l'Université de Lorraine : Professeur Jean‐Pierre FINANCE Doyen de la Faculté de Médecine : Professeur Henry COUDANE Vice Doyen « Pédagogie » : Professeur Karine ANGIOI Vice Doyen Mission « sillon lorrain » : Professeur Annick BARBAUD Vice Doyen Mission « Campus » : Professeur Marie‐Christine BÉNÉ Vice Doyen Mission « Finances » : Professeur Marc BRAUN Vice Doyen Mission « Recherche » : Professeur Jean‐Louis GUÉANT Assesseurs : er ‐ 1 Cycle : ‐ « Première année commune aux études de santé (PACES) et universitarisation études para‐médicales » ème ‐ 2 Cycle : ème ‐3 Cycle : « DES Spécialités Médicales, Chirurgicales et Biologiques » « DES Spécialité Médecine Générale ‐ Filières professionnalisées : ‐ Formation Continue : ‐ Commission de Prospective : ‐ Recherche : ‐ Développement Professionnel Continu : Assesseurs Relations Internationales Professeur Bruno CHENUEL M. Christophe NÉMOS Professeur Marc DEBOUVERIE Professeur Jean‐Pierre BRONOWICKI Professeur Francis RAPHAËL M. Walter BLONDEL Professeur Hervé VESPIGNANI Professeur Pierre‐Edouard BOLLAERT Professeur Didier MAINARD Professeur Jean‐Dominique DE KORWIN Professeur Jacques HUBERT DOYENS HONORAIRES Professeur Adrien DUPREZ – Professeur Jean‐Bernard DUREUX Professeur Jacques ROLAND – Professeur Patrick NETTER ========== PROFESSEURS HONORAIRES Pierre ALEXANDRE – Jean‐Marie ANDRE ‐ Daniel ANTHOINE ‐ Alain BERTRAND ‐ Pierre BEY – Patrick BOISSEL Jacques BORRELLY ‐ Michel BOULANGE ‐ Jean‐Claude BURDIN ‐ Claude BURLET ‐ Daniel BURNEL Claude CHARDOT ‐ Jean‐Pierre CRANCE ‐ Gérard DEBRY ‐ Jean‐Pierre DELAGOUTTE ‐ Emile de LAVERGNE Jean‐Pierre DESCHAMPS ‐ Michel DUC ‐ Jean DUHEILLE ‐ Adrien DUPREZ ‐ Jean‐Bernard DUREUX ‐ Gérard FIEVE Jean FLOQUET ‐ Robert FRISCH ‐ Alain GAUCHER ‐ Pierre GAUCHER ‐ Hubert GERARD Jean‐Marie GILGENKRANTZ ‐ Simone GILGENKRANTZ ‐ Oliéro GUERCI ‐ Pierre HARTEMANN ‐ Claude HURIET Christian JANOT – Michèle KESSLER ‐ Jacques LACOSTE ‐ Henri LAMBERT ‐ Pierre LANDES ‐ Alain LARCAN Marie‐Claire LAXENAIRE ‐ Michel LAXENAIRE ‐ Jacques LECLERE ‐ Pierre LEDERLIN ‐ Bernard LEGRAS Michel MANCIAUX ‐ Jean‐Pierre MALLIÉ – Philippe MANGIN ‐ Pierre MATHIEU ‐ Denise MONERET‐VAUTRIN Pierre MONIN ‐ Pierre NABET ‐ Jean‐Pierre NICOLAS ‐ Pierre PAYSANT ‐ Francis PENIN ‐ Gilbert PERCEBOIS Claude PERRIN ‐ Guy PETIET ‐ Luc PICARD ‐ Michel PIERSON ‐ Jean‐Marie POLU – Jacques POUREL Jean PREVOT ‐ Antoine RASPILLER ‐ Michel RENARD ‐ Jacques ROLAND ‐ René‐Jean ROYER ‐ Daniel SCHMITT Michel SCHWEITZER – Claude SIMON ‐ Jean SOMMELET ‐ Danièle SOMMELET – Jean‐François STOLTZ Michel STRICKER ‐ Gilbert THIBAUT ‐ Augusta TREHEUX ‐ Hubert UFFHOLTZ ‐ Gérard VAILLANT ‐ Paul VERT Colette VIDAILHET ‐ Michel VIDAILHET ‐ Michel WAYOFF ‐ Michel WEBER ========== 2 PROFESSEURS DES UNIVERSITÉS PRATICIENS HOSPITALIERS (Disciplines du Conseil National des Universités) 42ème Section : MORPHOLOGIE ET MORPHOGENÈSE 1ère sous‐section : (Anatomie) Professeur Gilles GROSDIDIER Professeur Pierre LASCOMBES – Professeur Marc BRAUN 2ème sous‐section : (Cytologie et histologie) Professeur Bernard FOLIGUET 3ème sous‐section : (Anatomie et cytologie pathologiques) Professeur François PLENAT – Professeur Jean‐Michel VIGNAUD 43ème Section : BIOPHYSIQUE ET IMAGERIE MÉDICALE 1ère sous‐section : (Biophysique et médecine nucléaire) Professeur Gilles KARCHER – Professeur Pierre‐Yves MARIE – Professeur Pierre OLIVIER 2ème sous‐section : (Radiologie et imagerie médicale) Professeur Denis REGENT – Professeur Michel CLAUDON – Professeur Valérie CROISÉ‐LAURENT Professeur Serge BRACARD – Professeur Alain BLUM – Professeur Jacques FELBLINGER Professeur René ANXIONNAT 44ème Section : BIOCHIMIE, BIOLOGIE CELLULAIRE ET MOLÉCULAIRE, PHYSIOLOGIE ET NUTRITION 1ère sous‐section : (Biochimie et biologie moléculaire) Professeur Jean‐Louis GUÉANT – Professeur Jean‐Luc OLIVIER – Professeur Bernard NAMOUR 2ème sous‐section : (Physiologie) Professeur François MARCHAL – Professeur Bruno CHENUEL – Professeur Christian BEYAERT 3ème sous‐section : (Biologie Cellulaire) Professeur Ali DALLOUL 4ème sous‐section : (Nutrition) Professeur Olivier ZIEGLER – Professeur Didier QUILLIOT ‐ Professeur Rosa‐Maria RODRIGUEZ‐GUEANT 45ème Section : MICROBIOLOGIE, MALADIES TRANSMISSIBLES ET HYGIÈNE 1ère sous‐section : (Bactériologie – virologie ; hygiène hospitalière) Professeur Alain LE FAOU ‐ Professeur Alain LOZNIEWSKI 3ème sous‐section : (Maladies infectieuses ; maladies tropicales) Professeur Thierry MAY – Professeur Christian RABAUD 46ème Section : SANTÉ PUBLIQUE, ENVIRONNEMENT ET SOCIÉTÉ 1ère sous‐section : (Épidémiologie, économie de la santé et prévention) Professeur Philippe HARTEMANN – Professeur Serge BRIANÇON ‐ Professeur Francis GUILLEMIN Professeur Denis ZMIROU‐NAVIER – Professeur François ALLA 2ème sous‐section : (Médecine et santé au travail) Professeur Christophe PARIS 3ème sous‐section : (Médecine légale et droit de la santé) Professeur Henry COUDANE 4ème sous‐section : (Biostatistiques, informatique médicale et technologies de communication) Professeur François KOHLER – Professeur Éliane ALBUISSON 47ème Section : CANCÉROLOGIE, GÉNÉTIQUE, HÉMATOLOGIE, IMMUNOLOGIE 1ère sous‐section : (Hématologie ; transfusion) Professeur Thomas LECOMPTE – Professeur Pierre BORDIGONI Professeur Jean‐François STOLTZ – Professeur Pierre FEUGIER 2ème sous‐section : (Cancérologie ; radiothérapie) Professeur François GUILLEMIN – Professeur Thierry CONROY Professeur Didier PEIFFERT – Professeur Frédéric MARCHAL 3ème sous‐section : (Immunologie) Professeur Gilbert FAURE – Professeur Marie‐Christine BENE 4ème sous‐section : (Génétique) Professeur Philippe JONVEAUX – Professeur Bruno LEHEUP 3 48ème Section : ANESTHÉSIOLOGIE, RÉANIMATION, MÉDECINE D'URGENCE, PHARMACOLOGIE ET THÉRAPEUTIQUE 1ère sous‐section : (Anesthésiologie et réanimation chirurgicale ; médecine d'urgence) Professeur Claude MEISTELMAN – Professeur Hervé BOUAZIZ Professeur Paul‐Michel MERTES – Professeur Gérard AUDIBERT – Professeur Thomas FUCHS‐BUDER 2ème sous‐section : (Réanimation médicale ; médecine d'urgence) Professeur Alain GERARD ‐ Professeur Pierre‐Édouard BOLLAERT Professeur Bruno LÉVY – Professeur Sébastien GIBOT 3ème sous‐section : (Pharmacologie fondamentale ; pharmacologie clinique ; addictologie) Professeur Patrick NETTER – Professeur Pierre GILLET 4ème sous‐section : (Thérapeutique ; médecine d'urgence ; addictologie) Professeur François PAILLE – Professeur Gérard GAY – Professeur Faiez ZANNAD ‐ Professeur Patrick ROSSIGNOL 49ème Section : PATHOLOGIE NERVEUSE ET MUSCULAIRE, PATHOLOGIE MENTALE, HANDICAP et RÉÉDUCATION 1ère sous‐section : (Neurologie) Professeur Gérard BARROCHE – Professeur Hervé VESPIGNANI Professeur Xavier DUCROCQ – Professeur Marc DEBOUVERIE – Professeur Luc TAILLANDIER 2ème sous‐section : (Neurochirurgie) Professeur Jean‐Claude MARCHAL – Professeur Jean AUQUE – Professeur Olivier KLEIN Professeur Thierry CIVIT 3ème sous‐section : (Psychiatrie d'adultes ; addictologie) Professeur Jean‐Pierre KAHN – Professeur Raymund SCHWAN 4ème sous‐section : (Pédopsychiatrie ; addictologie) Professeur Daniel SIBERTIN‐BLANC – Professeur Bernard KABUTH 5ème sous‐section : (Médecine physique et de réadaptation) Professeur Jean PAYSANT 50ème Section : PATHOLOGIE OSTÉO‐ARTICULAIRE, DERMATOLOGIE et CHIRURGIE PLASTIQUE 1ère sous‐section : (Rhumatologie) Professeur Isabelle CHARY‐VALCKENAERE – Professeur Damien LOEUILLE 2ème sous‐section : (Chirurgie orthopédique et traumatologique) Professeur Daniel MOLE ‐ Professeur Didier MAINARD Professeur François SIRVEAUX – Professeur Laurent GALOIS 3ème sous‐section : (Dermato‐vénéréologie) Professeur Jean‐Luc SCHMUTZ – Professeur Annick BARBAUD 4ème sous‐section : (Chirurgie plastique, reconstructrice et esthétique ; brûlologie) Professeur François DAP – Professeur Gilles DAUTEL 51ème Section : PATHOLOGIE CARDIORESPIRATOIRE et VASCULAIRE 1ère sous‐section : (Pneumologie ; addictologie) Professeur Yves MARTINET – Professeur Jean‐François CHABOT – Professeur Ari CHAOUAT 2ème sous‐section : (Cardiologie) Professeur Etienne ALIOT – Professeur Yves JUILLIERE – Professeur Nicolas SADOUL Professeur Christian de CHILLOU 3ème sous‐section : (Chirurgie thoracique et cardiovasculaire) Professeur Jean‐Pierre VILLEMOT 4ème sous‐section : (Chirurgie vasculaire ; médecine vasculaire) Professeur Denis WAHL – Professeur Sergueï MALIKOV 52ème Section : MALADIES DES APPAREILS DIGESTIF et URINAIRE 1ère sous‐section : (Gastroentérologie ; hépatologie ; addictologie) Professeur Marc‐André BIGARD ‐ Professeur Jean‐Pierre BRONOWICKI – Professeur Laurent PEYRIN‐BIROULET 3ème sous‐section : (Néphrologie) Professeur Dominique HESTIN – Professeur Luc FRIMAT 4ème sous‐section : (Urologie) Professeur Jacques HUBERT – Professeur Pascal ESCHWEGE 4 53ème Section : MÉDECINE INTERNE, GÉRIATRIE et CHIRURGIE GÉNÉRALE ère 1 sous‐section : (Médecine interne ; gériatrie et biologie du vieillissement ; médecine générale ; addictologie) Professeur Jean‐Dominique DE KORWIN – Professeur Pierre KAMINSKY Professeur Athanase BENETOS ‐ Professeur Gisèle KANNY – Professeur Christine PERRET‐GUILLAUME 2ème sous‐section : (Chirurgie générale) Professeur Laurent BRESLER ‐ Professeur Laurent BRUNAUD – Professeur Ahmet AYAV 54ème Section : DÉVELOPPEMENT ET PATHOLOGIE DE L'ENFANT, GYNÉCOLOGIE‐OBSTÉTRIQUE, ENDOCRINOLOGIE ET REPRODUCTION 1ère sous‐section : (Pédiatrie) Professeur Jean‐Michel HASCOET ‐ Professeur Pascal CHASTAGNER Professeur François FEILLET ‐ Professeur Cyril SCHWEITZER – Professeur Emmanuel RAFFO 2ème sous‐section : (Chirurgie infantile) Professeur Michel SCHMITT – Professeur Pierre JOURNEAU – Professeur Jean‐Louis LEMELLE 3ème sous‐section : (Gynécologie‐obstétrique ; gynécologie médicale) Professeur Jean‐Louis BOUTROY ‐ Professeur Philippe JUDLIN – Professeur Patricia BARBARINO 4ème sous‐section : (Endocrinologie, diabète et maladies métaboliques ; gynécologie médicale) Professeur Georges WERYHA – Professeur Marc KLEIN – Professeur Bruno GUERCI 55ème Section : PATHOLOGIE DE LA TÊTE ET DU COU 1ère sous‐section : (Oto‐rhino‐laryngologie) Professeur Roger JANKOWSKI – Professeur Cécile PARIETTI‐WINKLER 2ème sous‐section : (Ophtalmologie) Professeur Jean‐Luc GEORGE – Professeur Jean‐Paul BERROD – Professeur Karine ANGIOI‐DUPREZ 3ème sous‐section : (Chirurgie maxillo‐faciale et stomatologie) Professeur Jean‐François CHASSAGNE – Professeur Etienne SIMON ========== PROFESSEURS DES UNIVERSITÉS 64ème Section : BIOCHIMIE ET BIOLOGIE MOLÉCULAIRE Professeur Sandrine BOSCHI‐MULLER PROFESSEURS DES UNIVERSITÉS DE MÉDECINE GÉNÉRALE Professeur Jean‐Marc BOIVIN ========== MAÎTRES DE CONFÉRENCES DES UNIVERSITÉS ‐ PRATICIENS HOSPITALIERS 42ème Section : MORPHOLOGIE ET MORPHOGENÈSE 1ère sous‐section : (Anatomie) Docteur Bruno GRIGNON – Docteur Thierry HAUMONT – Docteur Manuela PEREZ 2ème sous‐section : (Cytologie et histologie) Docteur Edouard BARRAT ‐ Docteur Françoise TOUATI – Docteur Chantal KOHLER 3ème sous‐section : (Anatomie et cytologie pathologiques) Docteur Aude BRESSENOT 43ème Section : BIOPHYSIQUE ET IMAGERIE MÉDICALE 1ère sous‐section : (Biophysique et médecine nucléaire) Docteur Marie‐Hélène LAURENS – Docteur Jean‐Claude MAYER Docteur Pierre THOUVENOT – Docteur Jean‐Marie ESCANYE 2ème sous‐section : (Radiologie et imagerie médicale) Docteur Damien MANDRY 44ème Section : BIOCHIMIE, BIOLOGIE CELLULAIRE ET MOLÉCULAIRE, PHYSIOLOGIE ET NUTRITION 1ère sous‐section : (Biochimie et biologie moléculaire) Docteur Jean STRACZEK – Docteur Sophie FREMONT Docteur Isabelle GASTIN – Docteur Marc MERTEN – Docteur Catherine MALAPLATE‐ARMAND 5 Docteur Shyue‐Fang BATTAGLIA 3ème sous‐section : (Biologie Cellulaire) Docteur Véronique DECOT‐MAILLERET 45ème Section : MICROBIOLOGIE, MALADIES TRANSMISSIBLES ET HYGIÈNE 1ère sous‐section : (Bactériologie – Virologie ; hygiène hospitalière) Docteur Francine MORY – Docteur Véronique VENARD – Docteur Hélène JEULIN 2ème sous‐section : (Parasitologie et mycologie) Docteur Nelly CONTET‐AUDONNEAU – Madame Marie MACHOUART 46ème Section : SANTÉ PUBLIQUE, ENVIRONNEMENT ET SOCIÉTÉ 1ère sous‐section : (Epidémiologie, économie de la santé et prévention) Docteur Alexis HAUTEMANIÈRE – Docteur Frédérique CLAUDOT – Docteur Cédric BAUMANN 2ème sous‐section (Médecine et Santé au Travail) Docteur Isabelle THAON 3ème sous‐section (Médecine légale et droit de la santé) Docteur Laurent MARTRILLE 4ère sous‐section : (Biostatistiques, informatique médicale et technologies de communication Docteur Nicolas JAY 47ème Section : CANCÉROLOGIE, GÉNÉTIQUE, HÉMATOLOGIE, IMMUNOLOGIE 2ème sous‐section : (Cancérologie ; radiothérapie : cancérologie (type mixte : biologique) Docteur Lina BOLOTINE 3ème sous‐section : (Immunologie) Docteur Marcelo DE CARVALHO BITTENCOURT 4ème sous‐section : (Génétique) Docteur Christophe PHILIPPE – Docteur Céline BONNET 48ème Section : ANESTHÉSIOLOGIE, RÉANIMATION, MÉDECINE D'URGENCE, PHARMACOLOGIE ET THÉRAPEUTIQUE 3ème sous‐section : (Pharmacologie fondamentale ; pharmacologie clinique) Docteur Françoise LAPICQUE – Docteur Marie‐José ROYER‐MORROT – Docteur Nicolas GAMBIER 50ème Section : RHUMATOLOGIE 1ère sous‐section : (Rhumatologie) Docteur Anne‐Christine RAT 3ème sous‐section : (Dermato‐vénéréologie) Docteur Anne‐Claire BURSZTEJN 53ème Section : MÉDECINE INTERNE, GÉRIATRIE et CHIRURGIE GÉNÉRALE ère 1 sous‐section : (Médecine interne ; gériatrie et biologie du vieillissement ; médecine générale ; addictologie) Docteur Laure JOLY 54ème Section : DÉVELOPPEMENT ET PATHOLOGIE DE L'ENFANT, GYNÉCOLOGIE‐OBSTÉTRIQUE, ENDOCRINOLOGIE ET REPRODUCTION 3ème sous‐section : Docteur Olivier MOREL 5ème sous‐section : (Biologie et médecine du développement et de la reproduction ; gynécologie médicale) Docteur Jean‐Louis CORDONNIER ========== MAÎTRE DE CONFÉRENCE DES UNIVERSITÉS DE MÉDECINE GÉNÉRALE Docteur Elisabeth STEYER ========== MAÎTRES DE CONFÉRENCES 5ème section : SCIENCE ÉCONOMIE GÉNÉRALE Monsieur Vincent LHUILLIER 6 40ème section : SCIENCES DU MÉDICAMENT Monsieur Jean‐François COLLIN 60ème section : MÉCANIQUE, GÉNIE MÉCANIQUE ET GÉNIE CIVILE Monsieur Alain DURAND 61ème section : GÉNIE INFORMATIQUE, AUTOMATIQUE ET TRAITEMENT DU SIGNAL Monsieur Jean REBSTOCK – Monsieur Walter BLONDEL 64ème section : BIOCHIMIE ET BIOLOGIE MOLÉCULAIRE Mademoiselle Marie‐Claire LANHERS – Monsieur Pascal REBOUL – Mr Nick RAMALANJAONA 65ème section : BIOLOGIE CELLULAIRE Mademoiselle Françoise DREYFUSS – Monsieur Jean‐Louis GELLY Madame Ketsia HESS – Monsieur Hervé MEMBRE – Monsieur Christophe NEMOS ‐ Madame Natalia DE ISLA Madame Nathalie MERCIER 66ème section : PHYSIOLOGIE Monsieur Nguyen TRAN 67ème section : BIOLOGIE DES POPULATIONS ET ÉCOLOGIE Madame Nadine MUSSE PROFESSEURS ASSOCIÉS Médecine Générale Professeur associé Francis RAPHAEL MAÎTRES DE CONFÉRENCES ASSOCIÉS Médecine Générale Docteur Jean‐Louis ADAM Docteur Paolo DI PATRIZIO Docteur Sophie SIEGRIST Docteur Arnaud MASSON ======== PROFESSEURS ÉMÉRITES Professeur Jean‐Marie ANDRÉ ‐ Professeur Daniel ANTHOINE ‐ Professeur Pierre BEY – Professeur Patrick BOISSEL Professeur Jean‐Pierre DELAGOUTTE – Professeur Jean‐Marie GILGENKRANTZ Professeur Simone GILGENKRANTZ ‐ Professeur Michèle KESSLER ‐ Professeur Henri LAMBERT Professeur Alain LARCAN ‐ Professeur Denise MONERET‐VAUTRIN – Professeur Pierre MONIN Professeur Jean‐Pierre NICOLAS ‐ Professeur Luc PICARD ‐ Professeur Michel PIERSON Professeur Jacques POUREL – Professeur Jean‐François STOLTZ ‐ Professeur Michel STRICKER Professeur Gilbert THIBAUT ‐ Professeur Hubert UFFHOLTZ – Professeur Paul VERT Professeur Colette VIDAILHET ‐ Professeur Michel VIDAILHET DOCTEURS HONORIS CAUSA Professeur Norman SHUMWAY (1972) Université de Stanford, Californie (U.S.A) Professeur Paul MICHIELSEN (1979) Université Catholique, Louvain (Belgique) Professeur Charles A. BERRY (1982) Centre de Médecine Préventive, Houston (U.S.A) Harry J. BUNCKE (1989) Université de Californie, San Francisco (U.S.A) Professeur Daniel G. BICHET (2001) Université de Montréal (Canada) Professeur Brian BURCHELL (2007) Université de Dundee (Royaume Uni) Professeur Pierre‐Marie GALETTI (1982) Brown University, Providence (U.S.A) Professeur Mamish Nisbet MUNRO (1982) Massachusetts Institute of Technology (U.S.A) Professeur Mashaki KASHIWARA (1996) Research Institute for Mathematical Sciences de Kyoto (JAPON) Professeur Théodore H. SCHIEBLER (1989) Institut d'Anatomie de Würtzburg (R.F.A) Professeur Maria DELIVORIA‐PAPADOPOULOS (1996) Université de Pennsylvanie (U.S.A) Professeur Ralph GRÄSBECK (1996) Université d'Helsinki (FINLANDE) Professeur James STEICHEN (1997) Université d'Indianapolis (U.S.A) Professeur Duong Quang TRUNG (1997) Centre Universitaire de Formation et de Perfectionnement des Professionnels de Santé d'Hô Chi Minh‐Ville (VIÊTNAM) Professeur Marc LEVENSTON (2005) Institute of Technology, Atlanta (USA) Professeur Mildred T. STAHLMAN (1982) Vanderbilt University, Nashville (U.S.A) 7 Avant‐Propos Cette thèse a été rédigée sous forme d'article, soumis et accepté par Critical Care Medicine le 16 juin 2012 (référence : CCMED‐D‐12‐ 00033R2) avec pour titre : Methylene blue and epinephrine, a synergetic association for anaphylactic shock treatment 8 Dédicaces A notre Maître et Président de thèse, Monsieur le Professeur Paul‐Michel MERTES, Professeur d'Anesthésiologie‐Réanimation Chirurgicale. Nous vous remercions de la confiance que vous nous avez accordée en nous confiant ce travail de recherche. Nous vous remercions de nous faire l'honneur de présider cette thèse et de juger ce travail. Nous avons beaucoup appris à votre contact. Votre enthousiasme et votre passion pour la recherche nous ont permis de persévérer dans les moments de doute. Votre sens clinique enraciné dans la physiopathologie et allié à l'outil échographique nous ont permis d'appréhender et d'apprécier l'Anesthésie‐Réanimation comme une spécialité dynamique et innovante permettant une amélioration continue de sa pratique. Vous nous avez initiés à la production scientifique, et nous sommes heureux d'avoir pu bénéficier de votre expertise. Nous nous réjouissons de poursuivre avec vous l'exploration de cette thématique de recherche. 9 A notre Maître et Juge, Monsieur le Professeur Gérard AUDIBERT, Professeur d'Anesthésiologie‐Réanimation Chirurgicale. Nous apprécions l'honneur que vous nous faites en jugeant ce travail. Nous vous remercions de votre implication dans les différentes étapes de ce travail, de la paillasse à l'écriture du papier en passant par l'analyse des échantillons et la présentation de notre travail aux congrès. Nous avons apprécié votre disponibilité et votre enthousiasme. Nous vous remercions de nous accueillir pendant au moins deux ans dans votre équipe. 10 A notre Maître et Juge, Monsieur le Professeur Bruno LEVY, Professeur de Réanimation Médicale. Nous apprécions l'honneur que vous nous faites en jugeant ce travail. Nous vous remercions de nous avoir accueillis dans votre laboratoire, de votre aide dans l'élaboration du protocole et la relecture et la correction de l'article. Soyez assurés de notre reconnaissance. 11 A notre Maître et Juge, Monsieur le Professeur Hervé BOUAZIZ, Professeur d'Anesthésiologie‐Réanimation Chirurgicale. Nous sommes heureux que vous nous fassiez l'honneur de juger ce travail. Nous avons été très satisfaits de notre passage dans les différents sites d'anesthésie loco‐régionale dont vous avez la responsabilité. Nous vous sommes reconnaissants de la qualité de vos cours centrés sur la pratique clinique (en particulier ceux sur l'échographie et la gestion des complications en ALR). Nous avons apprécié votre sollicitude et votre bienveillance. Nous nous vous remercions de nous accueillir pendant au moins deux ans dans votre service. 12 A notre Maître et Juge, Monsieur le professeur Jean‐Marc MALINOVSKY, Professeur d'Anesthésiologie‐Réanimation Chirurgicale. Nous vous remercions de l'honneur que vous nous faîtes en jugeant ce travail. Nous vous remercions de votre implication fidèle dans ce travail de recherche, dans toutes les étapes de sa réalisation : critiques et compréhension des résultats, correction des travaux d'écriture et répétition des présentations. Soyez assurés de notre reconnaissance. 13 A mes collègues de l'hôpital, A tous les médecins, infirmières, infirmières‐anesthésistes, sages‐femmes, aides‐ soignants, brancardiers, ASH, que j'ai côtoyé dans les services d'anesthésie‐réanimation, de réanimation et l'ensemble des services médico‐chirurgicaux au cours de mon internat. Merci à l'équipe d'anesthésie du Centre Hospitalier Régional Bel‐Air de Thionville (Drs Fritz, Berens, Colombo, Brugerolle, Kwan‐Ning, Mansard, Wilmet), de m'avoir initié à l'anesthésie au sein de votre bloc polyvalent. Merci au Pr Favier, au Drs Pernod, Plancade, Nadaud et Landy et à l'équipe de la réanimation de l'Hôpital d'Instruction des Armées Legouest, de m'avoir initié aux gestes techniques et à l'échographie. Merci aux équipes de Tête et Cou (Drs Masson, Torrens, Issenhuth, Girard, Bauman, Luckner, Per, Frent, Brezeanu, Rosu, Aissa, Bertrand, Taron, Marchand, Belut, Cornet, Giorgi, Bur, Lichnewsky, Pop, Bousquet, Herbain) de COT‐ATOL (Drs Heck, Pourel, Lambert, Marchand, Lichnewsky Lambert, Chalot, Beley, Boudour), de Chirurgie C (Drs Junke, Fossard, Ancel, Dupays, Guidat, Vivin, Leclercq, Rabarijaona, Rubin, Schmartz, Reut, Vasilescu, Hoff, Rocq, de CGU (Drs Boulanger, Fuhrer, Houot, Lerintiu, Guibert, Laurent) et de Chirurgie Cardiaque (Clavey, Mattei , Hottier, Hubert, Delolme, Hirschi, Parlanti, Stancu, Kara) du Centre Hospitalier Universitaire de Nancy, de l'Hôpital Belle‐Isle (Drs Caremelle, Cloez, Graff, Haessler, Hassenforder, Pierron, Robert, Tresse), de la Maternité Régionale Universitaire de Nancy (Drs Boileau, Baka, Barthelet, Vial, Savoye, Michel) du Centre Emile Gallé (Drs Burdin, Chastel, Robaux, Gervais, Mekler, Diarra, George). Merci pour vos exemples de rigueur et de m'avoir fait confiance. Aux professeurs Meistelman, Fuchs‐Buder, merci de votre accueil dans votre service, merci pour votre implication pédagogique. Aux professeurs Bollaert et Gibot, aux docteurs Nace, Cravoisy, Barraud et Conrad, Tatopoulos et Lemoine et à l'équipe de la Réanimation Médicale Polyvalente merci pour votre enseignement et un merci spécial à Marie et Alexandre d'avoir contribué à mon épanouissement personnel Aux docteurs Charpentier, Garric et Welfringer, et à l'équipe de Réanimation chirurgicale merci pour votre accueil et pour les nuits passés ensemble, merci de m'avoir aidé à développer rigueur et efficacité pour la prise en charge des polytraumatisés. Au Dr Richard Jacson, d'Epinal, qui lors de mon stage infirmier en deuxième année, m'a interpellé par son plaidoyer en faveur de l'anesthésie‐réanimation, discipline riche et diversifiée, prenant en charge globalement le patient. Merci à tous d'avoir contribué à forger le médecin et l'homme que je suis aujourd'hui. Avec vous j'ai appris à aimer travailler en équipe, merci de l'ambiance toujours amicale et souvent détendue que vous avez su entretenir. A tous les patients que j'ai été amené à prendre en charge et qui m'ont permis petit à petit d'acquérir de l'expérience. 14 A mes collègues du laboratoire, A Chantal et Feng sans qui ce travail n'aurait pas été possible. J'ai été très heureux de « travailler » avec vous, qui avez été toujours de bonne humeur, disponible et de bon conseil. A Olivier Collange, Simon Thornton, au Professeur Dan Longrois, merci d'avoir contribué à valoriser ce travail. Merci également à Marc, Maud et Youcef, Nacira, Charlène, Khodor, Amir, Gilles, Julie pour vos conseils et l'ambiance détendue. Merci au Dr Clothilde Latarche pour son aide précieuse pour les statistiques et à toutes les personnes que j'ai connu pendant mon année d'internat de Santé Publique qui m'ont permis par leur enthousiasme (en particulier Paul) d'entrouvrir la porte du domaine de la recherche. Merci François pour ton aide logistique 15 A ma famille, A ma fille, Léopoldine, merci d'avoir fait de moi un papa. Merci pour tes sourires et ton babillage en espérant que tu sois plus loquace que ton père. Je t'aime, ma fille. A ma femme, Servane, merci d'avoir fait de moi le plus heureux des maris. Merci pour ton soutien pendant cette année studieuse où l'accouchement le plus difficile pour toi a été celui de ma thèse et de mon mémoire. Merci pour ta douceur et ton amour fidèles. Avec toi, je ne suis plus du tout timide. Je t'aime, ma femme. A mes parents, merci de m'avoir donné la vie et tout votre amour. Merci pour votre exemple de couple et de parents. Vous n'avez pas réussi à me dissuader de persévérer dans le choix de la médecine malgré vos gardes et vos week‐ends d'astreinte. Recevez toute ma reconnaissance et mon amour. A mes frères et à ma soeur, vous comptez pour moi et vous savez que vous pourrez toujours compter sur moi. Pierre‐Yves, petit frère de 18 mois de moins que moi, mais thèsé un an avant, bien que tu sois devenu chirurgien, tu as su rester simple et attentif à ceux qui t'entourent. Merci pour tous ces moments que nous avons partagés ensemble. Nous avons vécu des crises ensemble, merci pour ton soutien indéfectible. Gautier, tu as de grandes qualités qui n'attendent que courage, confiance en toi et persévérance pour s'épanouir complètement. Ton humour est une force et un exemple pour moi. En tant que grand frère j'ai pu garder avec toi mon âme d'enfant. Emeline, merci pour toutes tes petites attentions pour moi, Servane et Léopoldine. L'humour est aussi une de tes grandes qualités, nécessaire pour faire front à trois grands frères. Ton grand coeur devrait tenir bon face à un petit ECN de rien du tout. L'expression des sentiments n'est pas mon fort, mais soyez assurés de mon amour fraternel, mon dévouement pour vous en est le témoin. A marraine Simone et Jean‐Marie, ma tatie Michelle, Véronique, Frédéric, Guillaume et ma filleule Hélène, Dominique, William et Léa, Michel, Dominique, Anne‐Pauline, Marine et Domitille, à ma belle famille, Michel, Catherine, Donat et Oriane, merci pour tout ce que vous avez fait pour moi. Aux disparus toujours trop tôt auxquels je ne pense pas toujours assez : mes grands‐ parents, Michel, madame Martin. 16 A mes amis, De la première heure, Jean‐Sébastien, Jean‐Baptiste, Maël et Christophe, j'étais bien timide à l'époque, j'ai pu me construire avec vous et devenir moins sage. Aux amis de la fac, Annick, Mélanie et Mayo, Cédric, Jean‐Noël, Siavoche, Vincent, Jean‐ Baptiste, Alexandre et Asaël vous qui m'avez dévergondé (après la P1) malgré ma timidité, vous m'avez tellement apporté A mes compagnons d'internat, Barbara, Christian, David, Julien Nadaud, Alexandre Lai, Alice, Claude, Grégory, Aurélien, Sébastien Daval, Delphine, Alia, Philippe, Gilles, Julien Deguis, Régis, Olivier Untereiner, Mickaël, Arcadius, Nicolas Ducrocq, Alexandre Grosjean, Erika, Laurène, Sylvain, Cristina, Pierre, Cyril, Jean‐Louis, Cyril, Marc, Olivier Breton, Sébastien Mory, Sébastien Brua, Thomas et tous les internes et ACC du DAR Central‐Brabois. Vous avez été des amis, appuis, confidents, des confrères au sens plein. 17 Serment "Au moment d'être admis à exercer la médecine, je promets et je jure d'être fidèle aux lois de l'honneur et de la probité. Mon premier souci sera de rétablir, de préserver ou de promouvoir la santé dans tous ses éléments, physiques et mentaux, individuels et sociaux. Je respecterai toutes les personnes, leur autonomie et leur volonté, sans aucune discrimination selon leur état ou leurs convictions. J'interviendrai pour les protéger si elles sont affaiblies, vulnérables ou menacées dans leur intégrité ou leur dignité. Même sous la contrainte, je ne ferai pas usage de mes connaissances contre les lois de l'humanité. J'informerai les patients des décisions envisagées, de leurs raisons et de leurs conséquences. Je ne tromperai jamais leur confiance et n'exploiterai pas le pouvoir hérité des circonstances pour forcer les consciences. Je donnerai mes soins à l'indigent et à quiconque me les demandera. Je ne me laisserai pas influencer par la soif du gain ou la recherche de la gloire. Admis dans l'intimité des personnes, je tairai les secrets qui me sont confiés. Reçu à l'intérieur des maisons, je respecterai les secrets des foyers et ma conduite ne servira pas à corrompre les moeurs. Je ferai tout pour soulager les souffrances. Je ne prolongerai pas abusivement les agonies. Je ne provoquerai jamais la mort délibérément. Je préserverai l'indépendance nécessaire à l'accomplissement de ma mission. Je n'entreprendrai rien qui dépasse mes compétences. Je les entretiendrai et les perfectionnerai pour assurer au mieux les services qui me seront demandés. J'apporterai mon aide à mes confrères ainsi qu'à leurs familles dans l'adversité. Que les hommes et mes confrères m'accordent leur estime si je suis fidèle à mes promesses ; que je sois déshonoré et méprisé si j'y manque". 18 Table des matières Abréviations utilisées : 20 1. Introduction : 21 2. Matériels et méthodes : 23 2.1. Soins apportés aux animaux : 23 2.2. Protocole de sensibilisation : 23 2.3. Mise en condition de l'animal : 23 2.4. Protocole spécifique pour l'étude du muscle squelettique : 24 2.5. Protocole spécifique pour l'étude du cerveau 24 2.6. Induction du choc anaphylactique et administration des traitements : 25 2.7. Western Blot : 26 2.8. Analyses statistiques : 26 3. Résultats : 27 3.1 Données hémodynamiques systémiques : 29 3.2 Effets des différents traitements sur la physiologie cérébrale : 29 3.3 Effets des différents traitements sur la physiologie musculaire : 32 3.4 Evolution des paramètres biochimiques sanguins : 33 3.5 Expression de la caspase 3 activée et d'HIF-1α au niveau du cortex cérébral :. 34 4. Discussion : 35 4.1. Résultats principaux : 35 4.2. Choix, dose, effets du bleu de méthylène : 35 4.3. Place du bleu de méthylène dans la modulation de la voie du NO : 36 4.4. Effets de l'adrénaline : 37 4.5. Effets de l'association bleu de méthylène-adrénaline : 37 4.6. Discordance entre la correction de la PAM et du DC : 38 4.7. Limites de l'étude : 39 4.8. Perspectives : 39 5. Conclusion : 41 Bibliographie : 42 Annexes : 47 Annexe 1 : Schéma des différents mécanismes moléculaires potentiellement impliqués dans la vasorelaxation induite par le NO 47 Annexe 2 : Schéma général des voies de signalisation des catécholamines et du NO pour la régulation de la contractilité la cellule musculaire lisse 48 19 Abréviations utilisées : AD : adrénaline AD‐BM : association adrénaline et bleu de méthylène AMPc : adénosine monophosphate cyclique BM : bleu de méthylène CA : choc anaphylactique CON : contrôle DC : débit cardiaque DSC : débit sanguin cérébral GMPc : guanosine monophosphate cyclique HIF‐1α : facteur induit par l'hypoxie L‐NAME : NG‐nitro‐L‐arginine‐methyl ester NO : monoxyde d'azote NOSn : NO synthase neuronale OVA : ovalbumine PAM : pression artérielle moyenne PtiO2c : pression partielle en oxygène cérébrale PtiO2m : pression partielle en oxygène musculaire RLPc : ratio lactate/pyruvate interstitiel cérébral RLPm : ratio lactate/pyruvate interstitiel musculaire UP : unité de perfusion UA : unité arbitraire 20 1. Introduction : Le choc anaphylactique (CA) est une complication péri‐opératoire à laquelle l'anesthésiste‐réanimateur est confronté plusieurs fois dans sa carrière, sa prévalence mondiale est de 1 à 9 pour 10 000 anesthésies générales [1]. Le CA est une réaction brutale, potentiellement létale, appartenant aux réactions d'hypersensibilité immédiate pour lequel deux mécanismes physiopathologiques très différents existent : les HSI non allergiques et les HSI allergiques (de nature immunologique), souvent plus sévères sur le plan clinique. Par conséquent sa reconnaissance et son traitement rapides sont des enjeux importants pour l'anesthésiste‐réanimateur. Au cours de l'anesthésie, ce choc induit une mortalité de l'ordre de 3 à 10% [2, 3] et peut être aussi responsable de sévères morbidités (anoxie cérébrale). L'adrénaline (AD), traitement vasopresseur de référence, peut échouer à restaurer rapidement une perfusion d'organe adéquate ou même être complètement inefficace. Dans ce cas on parle alors de choc réfractaire aux catécholamines, dont les mécanismes restent inconnus [4, 5]. Le choc anaphylactique est classifié habituellement parmi les chocs distributifs. Il se caractérise par une hypovolémie résultant d'une augmentation très importante de la perméabilité capillaire et par une hypotension artérielle secondaire à une vasodilatation excessive. Des études récentes apportent des données supplémentaires sur la physiopathologie de l'anaphylaxie la rendant plus complexe qu'un choc purement distributif. Une diminution de la contractilité myocardique, une augmentation de la pression veineuse dans les territoires splanchnique et portale ainsi qu'au niveau pulmonaire et une diminution sévère de la pression de perfusion au niveau du muscle squelettique ont été démontrées [6‐11]. Les conséquences de l'anaphylaxie sur la perfusion et le métabolisme cérébraux restent à déterminer. Leur prise en compte est incontournable pour établir des stratégies et des objectifs thérapeutiques [12]. Les effets du CA sur les fonctions d'organes mentionnées ci‐dessus sont la conséquence de la libération explosive de médiateurs comme l'histamine, le PAF, les leucotriènes, le TNF‐ α [13, 14] qui activent de multiples voies de signalisation cellulaires. Celles‐ci incluent, entre autres, celle du monoxyde d'azote (NO) [15]. Malgré l'effet dépresseur myocardique documenté du NO [16] et les bénéfices potentiels liés à son inhibition, les effets de l'inhibition pharmacologique de la voie du NO sur la survie immédiate dans le CA restent contradictoires. Ils varient selon les modèles expérimentaux, les espèces animales et les inhibiteurs de la voie du NO utilisés [17‐19]. L'inhibition de la voie du NO pourrait avoir des effets bénéfiques sur certains organes (par exemple le coeur) et délétères sur d'autres (par exemple le cerveau). Par ailleurs, les interactions entre l'adrénaline et les différents agents pharmacologiques inhibant la voie du NO n'ont pas été étudiées de façon approfondie, et en particulier l'administration de bleu de méthylène en curatif dans un modèle de choc anaphylactique expérimental n'avait été étudiée que chez le lapin [18]. Le bleu de méthylène (BM) est un agent pharmacologique connu pour inhiber un des effecteurs finals du NO : la guanylate cyclase (annexe 1). 21 Ainsi l'objectif de notre étude était de déterminer le rôle bénéfique ou délétère du BM seul ou en association avec l'AD, sur la survie immédiate, l'hémodynamique, la disponibilité tissulaire en oxygène et les perturbations métaboliques, et en particulier sur les conséquences cérébrales, dans un modèle de choc anaphylactique médié par les IgE chez le rat anesthésié. Puisque les conséquences à long‐terme des traitements ne pouvaient être évaluées à cause de la lourdeur des procédures chirurgicales nécessaires à notre expérimentation, l'expression de la caspase‐3 activée et d'HIF‐1α était utilisée comme des marqueurs des lésions retardées induites par le choc anaphylactique au niveau du cortex cérébral. 22 2. Matériels et méthodes : 2.1. Soins apportés aux animaux : Les procédures de l'animalerie, les soins apportés aux animaux et les protocoles expérimentaux étaient conformes à la directive du conseil des communautés européennes du 24 novembre 1986 (86/609/CEE) et aux recommandations du comité d'éthique de l'INSERM. Des rats Brown Norway (Janvier, Le Genest‐St‐Isle, France) de 10 semaines, pesant entre 250 et 300g étaient utilisés pour cette expérimentation après une période d'acclimatation de 7 jours après réception. Ils étaient hébergés dans notre animalerie dans des conditions contrôlées (température 22‐24°C, humidité 55‐60%, cycles jour‐nuit de 12 heures). Les animaux avaient un libre accès à la nourriture et à l'eau. 2.2. Protocole de sensibilisation : Après la semaine d'acclimatation, à J0, J4 et J14, les rats étaient sensibilisés par une injection sous‐cutanée d'1 mg d'ovalbumine grade VI (Sigma‐Aldrich, Saint‐Quentin Fallavier, France) et de 4 mg d'hydroxyde d'aluminium, en adjuvant (Sigma, St Louis, USA) dilués dans 1ml de sérum salé isotonique. Ce protocole avait déjà été mis en place dans notre unité de recherche [20]. 2.3. Mise en condition de l'animal : La procédure chirurgicale était réalisée 21 jours après le début de la sensibilisation. En décubitus dorsal, une anesthésie générale en ventilation spontanée était induite dans une chambre d'inhalation avec une fraction inspirée d'isoflurane à 3% en oxygène pur ; elle était entretenue avec une fraction inspirée à 1%. La trachée était canulée pour la mise en place d'une ventilation assistée contrôlée en oxygène pur par un respirateur dédié à la ventilation des rongeurs (Harvard rodent respirator, modèle 683, Harvard Apparatus, Cambridge, USA). Les variations interindividuelles de poids des rats étant faibles, il a été possible de déterminer des paramètres ventilatoires fixes permettant d'obtenir des paramètres gazométriques conformes à la physiologie du rat (PaCO2 entre 35 et 45 mm Hg) sans avoir recours à des gaz du sang itératifs, ayant un impact sur la volémie des rats. Le volume courant était réglé à 3 ml et la fréquence respiratoire à 60/min. La température rectale était monitorée et maintenue à 38 ± 0.5°C tout au long de l'expérimentation grâce à une lampe chauffante. Un cathéter (DI : 0,58 mm, DE : 0,96 mm, Biotrol Diagnostic, Chennevrières Les Louvres, France) était inséré dans la veine fémorale gauche pour l'administration des différents traitements et la perfusion de sérum salé isotonique au débit de 10 ml.kg‐1.h‐1 afin de compenser les besoins physiologiques de base et le jeûne. Un autre cathéter était inséré dans l'artère fémorale gauche pour le monitorage de la pression artérielle. La pression artérielle moyenne était enregistrée en continu grâce à un capteur de pression préalablement calibré (DA‐100, Biopac Systems, Northborough, USA). Le métabolisme cérébral et musculaire squelettique était étudié de façon séparée au cours de deux séries d'expérimentation indépendantes. 23 2.4. Protocole spécifique pour l'étude du muscle squelettique : Un cathéter‐thermistance était inséré dans le ventricule gauche via l'artère carotide gauche pour la mesure discontinue du débit cardiaque par thermodilution (bolus froid) grâce à l'interface Cardiomax III connectée à un ordinateur (Cardiomax III, Colombus Instrument, USA). La peau au niveau du cou était refermée par des agrafes afin d'éviter les mobilisations du cathéter. Une électrode à oxygène flexible pré‐étalonnée (sonde de Clark, diamètre : 0,5 mm, aire de sensibilité : 4mm2, LICOX CC1.R, Integra NeuroSciences, France) était introduite, grâce à un cathéter veineux 20G servant de guide, dans le muscle quadriceps droit. Elle était connectée au moniteur LICOX CMP pour la mesure de la pression tissulaire musculaire en oxygène (mPtiO2, mm Hg). Une sonde de microdialyse, linéaire et flexible, était implantée grâce à un introducteur dans le muscle quadriceps gauche comme décrit précédemment [8]. C'était une sonde CMA 20 Elite, membrane en polyarylethersulfone, de longueur 10 mm, de diamètre 0,5 mm, avec un seuil de perméabilité à 20 kDa (CMA/Microdialysis AB, Stockholm, Suède). A température ambiante, la sonde était perfusée par du Ringer sans lactate stérile (soluté de perfusion CMA T1, composition : Na+ 147 mmol/L, K+ 4 mmol/L, Ca2+ 2,3 mmol/L, Cl‐ 155,6 mmol/L). La sonde était connectée à une microseringue de 2,5 ml (CMA/106) montée sur une pompe à microinjection (CMA 107, Microdialysis Pump), le débit de perfusion était de 2 μl/min. Les sondes étaient réutilisées à 5 reprises. Une période d'équilibration des échanges de 30 minutes était nécessaire avant de débuter le recueil des échantillons. Les échantillons de microdialysats étaient collectés toutes les 10 minutes dans des microtubes (CMA), le recueil débutant 10 minutes avant l'induction du choc et se poursuivant jusqu'à la fin de l'expérimentation. Durant l'expérimentation les microtubes étaient placés dans la glace et ensuite conservés à – 20°C. Le lactate, le glucose, le pyruvate et le glutamate interstitiels étaient dosés par un analyseur dédié (CMA 600). La période d'équilibration de la sonde de microdialyse de 30 minutes coïncidait avec la phase de stabilisation de l'animal après la chirurgie. 2.5. Protocole spécifique pour l'étude du cerveau : En décubitus ventral, l'animal était installé dans un cadre de stéréotaxie afin d'insérer les sondes cérébrales au travers de trous de trépan réalisés avec un mini‐foret. Les coordonnées de stéréotaxie ont été déterminées grâce à un atlas stéréotaxique du cerveau du rat blanc [21]. Une électrode à oxygène flexible pré‐étalonnée (LICOX CC1.R, Integra NeuroSciences, France) était insérée au niveau de l'hippocampe (4,6 mm en avant et 2 mm latéralement de la fontanelle lambda, à une profondeur de 3 mm) pour la mesure de la pression tissulaire cérébrale en oxygène (PtiO2c, mmHg). Cette sonde a été réutilisée environ 7 fois. Avant chaque utilisation, elle était vérifiée et jugée opérationnelle si, après avoir été plongée 5 min dans du sérum physiologique dans lequel bullait de l'oxygène, la PtiO2 atteignait 400 mmHg. Les sondes étaient conservées dans du sérum physiologique au réfrigérateur. Le débit sanguin cérébral (DSC) était mesuré au niveau cortical (en unité arbitraire : unité de perfusion (UP)) par une sonde‐aiguille doppler‐laser (sonde 411, diamètre 450 μm, PERIFLUX systems ; constante de temps, 3). Elle était connectée au moniteur Periflux PF 5010 (PERIMED AB, Stockholm, Suède). Elle était insérée dans le cortex cérébral droit, 2 mm en avant de l'électrode à oxygène. La sonde doppler‐laser était étalonnée chaque jour avant le début des expérimentations avec une solution délivrée par le constructeur. 24 Une sonde de microdialyse, de conception adaptée au système nerveux central était implantée grâce à un introducteur dans le striatum, 7,3 mm en avant, 4 mm latéralement de la fontanelle lambda à une profondeur de 6 mm. C'était une sonde CMA/12, membrane en polyarylethersulfone de longueur 3 mm, diamètre 0,5 mm, seuil de perméabilité à 20 kDa (CMA/Microdialysis AB, Stockholm, Suède). Le protocole concernant l'utilisation de la sonde, le recueil et le dosage des microdialysats était similaire au protocole suivi pour l'étude du muscle, seul le soluté de perfusion différait (soluté spécifique pour le système nerveux central, CMA CNS, composition : Na+ 147 mmol/L, K+ 2,7 mmol/L, Ca2+ 1,2 mmol/L, Mg2+ 0,85 mmol/L, Cl‐ 153,8 mmol/L). 2.6. Induction du choc anaphylactique et administration des traitements : Après une période de stabilisation de 30 minutes, un choc anaphylactique était induit par l'administration intraveineuse d'1 mg d'ovalbumine (T0). Les animaux avaient été randomisés au préalable en 5 groupes. Le choc n'était pas induit dans le groupe contrôle (groupe CON), l'ovalbumine était remplacée par du sérum physiologique. Les animaux ne recevaient pas de traitement dans le groupe ovalbumine (groupe OVA), seulement du bleu de méthylène (groupe BM), seulement de l'adrénaline (groupe AD) ou l'association des 2 traitements (groupe AD‐BM). Les traitements n'étaient pas administrés en aveugle. Un bolus unique de bleu de méthylène (Sigma, Saint‐Louis, USA) de 3mg/kg était injecté 3 minutes après l'induction du choc (T3). Les doses d'adrénaline avaient été déterminées lors d'un précédent travail de notre équipe [22]. Le premier bolus d'adrénaline de 2,5 μg était injecté à T3 et un second à T5, une perfusion continue d'adrénaline à 10 μg.kg‐1.min‐1 était débutée immédiatement après le premier bolus. Lorsque les deux traitements étaient associés, le bolus de BM était administré immédiatement après celui d'AD. Tous les rats ont reçu au total la même quantité de sérum physiologique. La pression artérielle moyenne (PAM), le débit sanguin cérébral (DSC), la PtiO2 cérébrale et musculaire (PtiO2c et PtiO2m) étaient recueillis à différents instants dans le temps : T0 (avant l'induction du choc), T 1 minute, T 2,5, T 5, T 7,5, T 10, T 12,5, T 15, T 17,5, T 20 puis toutes les 5 minutes jusqu'à la fin de l'expérimentation. 0,5 ml de sang artériel était prélevé avant l'induction du choc et 1 ml à la fin du protocole. Les gaz du sang, la natrémie, la lactatémie, l'hémoglobinémie, la glycémie étaient dosés par un automate dédié à la biologie décentralisée. Les concentrations plasmatiques en nitrites et nitrates n'ont été mesurées qu'à la fin du protocole afin de limiter la déperdition sanguine, 0,5 ml de sang était centrifugé (4000 rpm pendant 15 min à 4°C) et le plasma stocké à ‐80°C. Avant le dosage, les échantillons étaient déprotéinisés par ultrafiltration (VIVASPIN 500, membrane polyethersulfone, 5000 MWCO, Sigma‐Aldrich, St Louis, USA) : 15 min à 13000 rpm à 4°C. A partir d'échantillons dilués, la concentration de nitrite était mesurée par spectrophotométrie grâce à la réaction de Griess. Une deuxième série de dosages était réalisée après réduction du nitrate en nitrite par la nitrate réductase, une concentration totale de nitrite était ainsi obtenue, la concentration de nitrate était déduite par la différence de concentration entre ces deux dosages (trousse ELISA, PARAMETERTM, KGE001, R&D systems, Abingdon, Angleterre). A la fin du protocole, 60 minutes après l'induction du choc et après recueil des échantillons sanguins, les animaux étaient euthanasiés, par une dose létale de thiopental. Les tissus cérébraux corticaux étaient rapidement prélevés et immédiatement plongés dans l'azote liquide et conservés à ‐80°C. 25 2.7. Western Blot : Les cortex cérébraux ont été homogénéisés rapidement grâce à des microbilles (Tissue‐ Lyser II, Qiagen, Courtaboeuf, France) dans un tampon de lyse (PhosphosafeTM, Novagen, Merck Biosciences, Nottingham, Angleterre). La concentration en protéines des échantillons était dosée selon la méthode de Bradford (Pierce, ThermoScientific, Brebières, France). 20 μg d'extraits de protéines étaient déposés sur un gel de polyacrylamide (Bis‐Tris 4‐ 12% Criterion XT, BioRad, Marne‐la‐Coquette, France) et séparés selon leur taille par électrophorèse. Puis le transfert était effectué sur une membrane en PVDF (polyfluorure de vinylidène, Millipore, Saint‐Quentin en Yvelines, France). Les sites de fixation aspécifiques de la membrane étaient saturés (2 heures) par du lait écrémé en poudre à 5% dilué dans du TBS‐T (Tris‐HCL contenant 0,1% de Tween 20). Les membranes étaient incubées toute la nuit à 4°C avec les anticorps primaires dirigés contre les protéines à doser HIF‐1α (1:2000; Abcam, Paris, France), caspase 3 clivée (1:1000; Cell Signaling, Ozyme, Saint‐Quentin en Yvelines, France) et la β‐actine qui était utilisée comme témoin du dépôt des protéines et pour la normalisation des quantifications. Après 6 lavages de 5 minutes au TBS‐T 0,1%, les membranes étaient incubées à température ambiante pendant une heure avec l'anticorps secondaire IgG (1 :2000, Cell Signaling, Ozyme, St. Quentin Fallavier, France) conjugué à la peroxidase de raifort (horseradish peroxidase‐conjugated (HRP)). Finalement, les membranes étaient lavées de nouveau 6 fois 5 minutes avec du TBS‐T 0,1%. L'acquisition et la quantification des signaux des anticorps fixés se faisaient par densitométrie à l'aide de l'imageur LAS‐4000 (FSVT, Courbevoie, France) et du logiciel Multi‐ Gauge (LifeScience, Fujifilm, France). Après les analyses densitométriques, les valeurs de densité optique étaient exprimées en unités arbitraires (UA). 2.8. Analyses statistiques : Les résultats sont exprimés, sauf mention contraire, tels que : moyenne ± ESM. Les différences intra‐groupe et inter‐groupes étaient testées par une analyse de la variance pour mesures répétées à 1 et 2 facteurs à l'aide du logiciel Staview® (SAS Institute Inc., Cary, Caroline du Nord, Etats‐Unis). Pour la comparaison des traitements, une ANOVA à 2 facteurs était utilisée pour les données recueillies à partir de la 5ème minute (premier point de recueil des données après le début des traitements à T 3 minutes). Quand une interaction significative était détectée entre les groupes par l'ANOVA, une analyse post‐hoc 2 à 2 des groupes était réalisée par un test de Fisher. Les différences statistiques étaient considérées comme significatives si p < 0,05. 26 3. Résultats : Soixante rats Brown‐Norway sensibilisés à l'ovalbumine (274 ± 4 g) étaient randomisés en 5 groupes (n = 12 par groupe) entre les groupes CON (pas de choc), OVA (pas de traitement), BM, AD et AD‐BM. Comme tous les animaux du groupe OVA étaient morts au bout de 15 minutes, les données de la microdialyse, de la biologie moléculaire et de la biochimie plasmatique n'étaient pas exploitables pour ce groupe. Les paramètres de l'hémodynamique et du métabolisme musculaires et cérébraux restaient stables chez les animaux contrôles pendant toute la période d'expérimentation. Tableau 1. Evolution des concentrations interstitielles cérébrales en lactate, pyruvate et glucose (n = 6 rats/groupe). Molécule Intervalles CON BM AD AD‐BM De temps (min) Lactate (mM) T‐10 to T0 0,32 ± 0,07 0,20 ± 0,04 0,34 ± 0,14 0,27 ± 0,04 T0 to T10 0,23 ± 0,05 0,23 ± 0,04 0,32 ± 0,08 0,23 ± 0,01 b T10 to T20 0,30 ± 0,05 0,59 ± 0,11 0,40 ± 0,02 0,43 ± 0,06 b T20 to T30 0,25 ± 0,02 0,55 ± 0,12 0,40 ± 0,04 0,47 ± 0,10 b T30 to T40 0,24 ± 0,02 0,50 ± 0,13 0,36 ± 0,04 0,33 ± 0,08 T40 to T50 0,24 ± 0,03 0,50 ± 0,14 0,31 ± 0,01 0,36 ± 0,08 T50 to T60 0,24 ± 0,03 0,39 ± 0,12 0,27 ± 0,03 0,31 ± 0,06 Pyruvate (mM) T‐10 to T0 0,020 ± 0,003 0,012 ± 0,004 0,011 ± 0,003 0,015 ± 0,004 T0 to T10 0,017 ± 0,002 0,015 ± 0,003 0,011 ± 0,002 0,012 ± 0,002 T10 to T20 0,017 ± 0,001 0,014 ± 0,004 0,012 ± 0,003 0,023 ± 0,006 T20 to T30 0,016 ± 0,002 0,014 ± 0,003 0,011 ± 0,003 0,022 ± 0,005 T30 to T40 0,016 ± 0,002 0,014 ± 0,003 0,012 ± 0,003 0,016 ± 0,004 T40 to T50 0,017 ± 0,001 0,007 ± 0,002b 0,010 ± 0,003 0,017 ± 0,005a T50 to T60 0,016 ± 0,002 0,008 ± 0,003 0,010 ± 0,003 0,010 ± 0,003 Glucose (mM) T‐10 to T0 0,22 ± 0,03 0,21 ± 0,06 0,23 ± 0,07 0,26 ± 0,05 T0 to T10 0,25 ± 0,09 0,17 ± 0,05 0,26 ± 0,05 0,25 ± 0,03 b T10 to T20 0,35 ± 0,09 0,071 ± 0,03 0,23 ± 0,01 0,28 ± 0,04ba T20 to T30 0,23 ± 0,08 0,11 ± 0,05 0,23 ± 0,04 0,30 ± 0,05a T30 toT40 0,23 ± 0,05 0,11 ± 0,05 0,30 ± 0,03a 0,34 ± 0,05a T40 to T50 0,27 ± 0,04 0,13 ± 0,05 0,28 ± 0,04a 0,38 ± 0,06a T50 to T60 0,25 ± 0,03 0,11 ± 0,06 0,31 ± 0,03a 0,28 ± 0,07a L'instant 0 (T0) correspond à l'injection d'ovalbumine. Les résultats sont exprimés tels que : moyenne ± ESM. ap ≤ 0,05 vs le groupe BM, bp ≤ 0,05 vs le groupe CON. 27 Pression artérielle moyenne A 125 § PAM (mmHg) 100 * * * 75 * * * * * ** * * * * * * 50 25 0 0 5 10 * * * * * + * * * * * * * * * * * * 15 * * * 20 & * * * * * * * * 25 30 35 40 45 50 55 60 Temps (minutes) CON OVA BM AD AD-BM Débit Cardiaque B 125 DC (mL/min) 100 75 # 50 25 * * * * * * 0 0 5 10 15 20 25 30 35 40 45 50 55 60 Temps (minutes) Figure 1. Evolution de la pression artérielle moyenne (PAM) (A, n = 12 rats/groupe) et du débit cardiaque (DC) (B, n=6 rats/groupe) dans les groupes Ovalbumine (OVA), Contrôle (CON), Bleu de Méthylène (BM), Adrénaline (AD) et Adrénaline associée au Bleu de Méthylène (AD‐BM). ↑ correspond à l'injection d'ovalbumine et ↑ au début du traitement. Les résultats sont exprimés tels que : moyenne ± ESM. *p ≤ 0,05 versus le groupe CON, +p ≤ 0,05 différences inter‐groupes AD‐BM versus BM, &p ≤ 0,05 différences inter‐groupes AD versus BM, §p ≤ 0,05 différences inter‐groupes AD‐BM versus AD, #p ≤ 0,05 différences inter‐groupes AD‐BM ou AD ou BM versus CON. 28 3.1 Données hémodynamiques systémiques : L'évolution au cours du temps des profils hémodynamiques (PAM et DC) était différente selon les groupes (figure 1). L'état hémodynamique des animaux restait stable tout au long de la période d'expérimentation dans le groupe CON, alors que l'injection d'ovalbumine induisait de façon constante et similaire une rapide et importante diminution de la PAM et du DC dans les autres groupes. En l'absence de traitement, les animaux étaient tous morts au bout de 15 minutes après une sévère chute du DC et de la PAM, alors que les animaux traités survivaient jusqu'à la fin de l'expérimentation. Le BM seul permettait de stabiliser la PAM mais à des valeurs basses (30 mmHg). Dans le groupe AD la PAM réaugmentait progressivement pour atteindre 70% de sa valeur basale à la fin de l'expérimentation et dans le groupe AD‐BM elle était complètement restaurée à partir de la 30ème minute. Les trois traitements amélioraient le DC par rapport au groupe OVA. Après sa diminution initiale, le DC restait stable mais à des valeurs basses dans le groupe BM. L'adrénaline seule ou en association avec le BM restaurait partiellement le DC à 26% et 31%, respectivement, de ses valeurs basales, mais sans différence significative entre les 3 groupes traités. 3.2 Effets des différents traitements sur la physiologie cérébrale : Sans traitement, une rapide et importante diminution du DSC cortical et de la PtiO2c survenait après l'induction du choc (figures 2A et 2B). Une diminution similaire du DSC se constituait dans les groupes traités jusqu'à 12,5 minutes après l'induction du choc. Puis le DSC se stabilisait à des valeurs basses dans le groupe BM, il passait de 106 ± 2 à 22 ± 3 UP (unité de perfusion) alors que l'AD seule ou en association avec le BM le restaurait partiellement (respectivement à 55% et 77% de sa valeur basale, figure 2A). Après l'induction du choc, une baisse significative de la PtiO2c se constituait initialement dans chaque groupe traité. Dans une seconde phase, contrairement aux autres groupes traités, la disponibilité en oxygène continuait de diminuer légèrement avec le temps dans le groupe BM jusqu'à passer sous le seuil d'ischémie cérébrale (PtiO2c < 20 mmHg) à partir de la 25ème minute. Ce passage en ischémie cérébrale identifié par la PtiO2c était corroboré par la microdialyse cérébrale qui montrait la diminution des concentrations en glucose (tableau 1), l'augmentation progressive du ratio lactate/pyruvate (RLP, figure 2C) et la libération de glutamate (figure 2D) au niveau interstitiel dans le striatum. L'adrénaline seule ou en association avec le BM permettait une récupération progressive de la disponibilité en oxygène, à 79% de sa valeur basale pour le groupe AD et quasi complète pour le groupe AD‐BM (92% de sa valeur basale, figure 2B). Les données de la microdialyse étaient concordantes, elles montraient une relative stabilité de la concentration interstitielle en glucose et du RLP (figure 2C) et l'absence de libération de glutamate reflétées par une augmentation modérée du glucose interstitiel (tableau 1) et une diminution du glutamate (figure 2D). 29 Débit Sanguin Cérébral A B PtiO2 cérébrale 60 125 50 * 75 * * * * * * * * * * * * ** * * * * * * * * * * * * * 50 25 0 0 5 10 15 * * * * * * * + & * * * * * * * * 25 30 35 40 45 50 55 60 PtiO2c (mmHg) DSC (UP) 100 40 * * * * * * * * * * ** * * *** * * * * * * * * * * * * * * 30 20 10 * * * * * * * * * 30 35 * + * * * 50 55 60 0 20 0 5 10 15 Temps (minutes) C * * 20 25 40 45 Temps (minutes) Ratio Lactate/Pyruvate cérébral D Glutamate interstitiel cérébral 30 150 * * 90 RLPc * * 60 * * * 30 + * 0 Glutamate c (M) 120 20 * 10 0 T -10-0 T 0-10 T 10-20 T 20-30 T 30-40 T 40-50 Intervalles de temps (minutes) T 50-60 T -10-0 T 0-10 T 10-20 T 20-30 T 30-40 T 40-50 T 50-60 Intervalles de temps (minutes) Figure 2. Evolution du débit sanguin cérébral cortical (DSC) (A), de la pression partielle en oxygène dans l'hippocampe (PtiO2c) (B), du ratio lactate/pyruvate interstitiel (RLPc) (C) et du glutamate interstitiel (Glutamate c) (D) dans le striatum dans les groupes Ovalbumine (OVA), Contrôle (CON), Bleu de Méthylène (BM), Adrénaline (AD) et Adrénaline associée au Bleu de Méthylène (AD‐BM), n = 6 rats par groupe. ↑ correspond au début du traitement, la ligne pointillée représente le seuil ischémique. En raison du débit de microdialyse, les échantillons étaient collectés toutes les 10 minutes à partir de 10 minutes avant l'induction du choc (T0). Comme les rats OVA mourraient dans les 15 premières minutes, les résultats de microdialyse n'ont pas été analysés. Les résultats sont exprimés tels que : moyenne ± ESM. *p ≤ 0,05 versus le groupe CON, +p ≤ 0,05 différences inter‐groupes AD‐BM versus BM, &p ≤ 0,05 différences inter‐groupes AD versus BM. 30 PtiO2 musculaire A 50 PtiO2 m (mmHg) 40 30 # 20 10 0 0 5 10 15 20 25 30 35 40 45 50 55 60 Temps (minutes) B Ratio Lactate/Pyruvate musculaire 150 RLP m 100 # 50 0 T -10-0 T 0-10 T 10-20 T 20-30 T 30-40 T 40-50 T 50-60 Intervalles de temps (minutes) Figure 3. Evolution de la pression partielle en oxygène musculaire (PtiO2m) (A) et du ratio lactate/pyruvate interstitiel musculaire (RLPc) (B) dans les groupes Ovalbumine (OVA), Contrôle (CON), Bleu de Méthylène (BM), Adrénaline (AD) et Adrénaline associée au Bleu de Méthylène (AD‐BM), n=6 rats par groupe. ↑ correspond au début du traitement. En raison du débit de microdialyse, les échantillons étaient collectés toutes les 10 minutes à partir de 10 minutes avant l'induction du choc (T0). Comme les rats OVA mourraient dans les 15 premières minutes, les résultats de microdialyse n'ont pas été analysés. Les résultats sont exprimés tels que : moyenne ± ESM. #p ≤ 0,05 différences inter‐groupes entre les groupes AD‐BM ou AD ou BM et le groupe CON. 31 3.3 Effets des différents traitements sur la physiologie musculaire : Le profil d'évolution de la PtiO2 musculaire au cours du temps était similaire entre tous les groupes traités. Sa valeur de base était d'environ 40 mmHg. Après l'induction du choc, une diminution rapide et prolongée de la PtiO2m était observée, elle se stabilisait finalement à des valeurs basses. Aucun traitement ne permettait de restaurer, même partiellement, la disponibilité en oxygène ; à la 60ème minute elle était à 2.7 ± 1,5 mmHg dans le groupe AD, 3,7 ± 2,0 mmHg dans le groupe AD‐BM et à 1,1 ± 1,0 mmHg dans le groupe BM. Il n'existait pas d'effet statistiquement différent entre les différents traitements (figure 3A). Les concentrations interstitielles de lactate musculaire augmentaient progressivement au cours du temps tandis que celles de pyruvate diminuaient progressivement sans différence statistiquement significative entre les groupes traités (tableau 2). Une augmentation progressive du RLP interstitiel musculaire était observée dans tous les groupes traités. Cette augmentation était significativement plus importante dans les groupes BM et AD par rapport au groupe CON (figure 3B). A la fin de l'expérimentation le RLP était le moins élevé dans le groupe AD‐BM mais sans différence statistiquement significative par rapport aux 2 autres groupes traités. Tableau 2. Evolution des concentrations interstitielles en lactate et en pyruvate au niveau du muscle squelettique (n = 6 rats/groupe). Molécule Lactate (mM) Pyruvate (mM) Intervalle CON de temps (min) T‐10 to T0 0,37 ± 0,04 BM AD AD‐BM 0,38 ± 0,12 0,69 ± 0,14 1,13 ± 0,17b,a T0 toT10 0,42 ± 0,03 0,47 ± 0,13 0,63 ± 0,12 0,98 ± 0,16c,a T10 to T20 0,48 ± 0,05 0,79 ± 0,13 0,92 ± 0,13 1,63 ± 0,22c,b,a T20 to T30 0,43 ± 0,05 1,20 ± 0,18c 1,64 ± 0,22c 2,13 ± 0,22c,a T30 to T40 0,47 ± 0,04 1,72 ± 0,29c 2,59 ± 0,41c 2,29 ± 0,25c T40 to T50 0,46 ± 0,04 1,91 ± 0,31c 2,35 ± 0,32c 2,26 ± 0,25c T50 to T60 0,48 ± 0,04 2,46 ± 0,53c 2,70 ± 0,39c 2,35 ± 0,56c T‐10 to T0 0,028 ± 0,003 0,047 ± 0,011 0,056 ± 0,014 0,078 ± 0,012 T0 to T10 0,036 ± 0,004 0,052 ± 0,013 0,055 ± 0,011 0,070 ± 0,013c T10 to T20 0,036 ± 0,010 0,049 ± 0,011 0,056 ± 0,011 0,073 ± 0,010c T20 to T30 0,037 ± 0,006 0,043 ± 0,012 0,056 ± 0,007 0,075 ± 0,012c T30 to T40 0,043 ± 0,006 0,057 ± 0,021 0,053 ± 0,007 0,068 ± 0,010 T40 to T50 0,045 ± 0,005 0,043 ± 0,012 0,051 ± 0,008 0,057 ± 0,009 T50 to T60 0,044 ± 0,004 0,033 ± 0,005 0,041 ± 0,010 0,055 ± 0,007a L'instant 0 (T0) correspond à l'injection d'ovalbumine. Les résultats sont exprimés tels que : moyenne ± ESM. ap ≤ 0,05 vs le groupe BM, bp ≤ 0,05 vs le groupe AD, cp ≤ 0,05 vs le groupe CON. 32 3.4 Evolution des paramètres biochimiques sanguins : L'évolution au cours du temps des principaux paramètres biochimiques sanguins est résumée dans le tableau 3. Il n'existait pas de différence statistique entres les 5 groupes avant l'induction du choc anaphylactique (T0). Les données concernant le groupe OVA ne sont reportées en raison de la mort de tous les animaux au bout de 15 minutes empêchant le recueil des échantillons et la comparaison avec les autres groupes. 60 minutes après le début du choc, les seules différences statistiquement significatives entre les groupes concernent la PaCO2, les concentrations plasmatiques en nitrite et nitrate. Quel que soit le traitement, le choc anaphylactique était responsable d'une sévère acidose lactique et d'une hémoconcentration (hémoglobinémie passant de 12,1 ± 0,3 à 14,6 ± 0,4 g/dL). Tableau 3. Paramètres biochimiques plasmatiques, gazométriques et acido‐basiques (n = 12 rats/groupe). Paramètres pH Pco2 (mmHg) Po2 (mmHg) HCO3 (mmol.L‐1) Lactate (mmol.L‐1) Hb (g.dl‐1) Glucose (mmol.L‐1) Na (mmol.L‐1) Temps (min) T0 T60 T0 T60 T0 T60 T0 T60 T0 T60 T0 T60 T0 T60 T0 T60 T60 CON BM AD AD‐BM 7,44 ± 0,02 7,44 ± 0,02 27,2 ± 1,7 29,3 ± 1,4a 254,5 ± 18,3 272,2 ± 12,0 17,8 ± 0,7 19,4 ± 0,6 2,7 ± 0,2 3,2 ± 0,3 12,3 ± 0,4 12,0 ± 0,3 13,6 ± 0,4 10,1 ± 0,5 137,2 ± 1,2 137,0 ± 0,6 2,4 ± 0,8 7,41 ± 0,02 7,16 ± 0,07c,d 28,5 ± 1,7 17,0 ± 2,0c,d 283,3 ± 19,4 289,5 ± 39,2 18,3 ± 0,7 7,0 ± 1,7c,d 2,5 ± 0,2 8,3 ± 0,8c,d 12,1 ± 0,3 14,6 ± 0,4d 12,1 ± 1,2 11,8 ± 1,5 137,8 ± 0,9 138,9 ± 1,9 4,1 ± 1,4 7,42 ± 0,01 7,17 ± 0,04c,d 29,9 ± 1,1 27,0 ± 4,0a 294,0 ± 12,4 287,4 ± 28,2 19,3 ± 0,5 9,1 ± 0,7c,d 2,6 ± 0,3 7,0 ± 0,5c,d 12,9 ± 0,2 14,9 ± 0,5d 12,5 ± 0,7 13,8 ± 1,6 136,4 ± 0,5 137,9 ± 1,0 4,1 ± 0,9 7,42 ± 0,01 7,09 ± 0,04c,d 30,2 ± 1,2 31,8 ± 4,3a 269,3 ± 15,3 228,8 ± 31,1 18,9 ± 0,4 9,2 ± 1,0c,d 2,7 ± 0,2 7,6 ± 0,7c,d 12,5 ± 0,2 15,2 ± 0,5d 14,2 ± 1,1 15,7 ± 2,0c 136,6 ± 0,6 131,4 ± 1,4 8,7 ± 1,5a,b,c Nitrite (μmol.L‐1) Nitrate T60 28,4 ± 1,7 22,4 ± 2,5c 28,0 ± 1,6a 31,7 ± 1,7a ‐1 (μmol.L ) L'instant 0 (T0) correspond à l'injection d'ovalbumine. Les résultats sont exprimés tels que : moyenne ± ESM. Afin d'éviter une spoliation sanguine trop importante avant l'induction du choc, les concentrations de nitrite et de nitrate n'ont été mesurées qu'à la fin de l'expérimentation ap ≤ 0,05 vs le groupe BM, bp ≤ 0,05 vs le groupe AD, cp ≤ 0,05 vs le groupe CON, dp ≤ 0,05 T60 vs T0. 33 3.5 Expression de la caspase 3 activée et d'HIF‐1α au niveau du cortex cérébral : 60 minutes après l'induction du choc anaphylactique, l'expression de la caspase 3 activée était significativement augmentée au niveau du cortex cérébral dans les groupes BM et AD par rapport au groupe AD‐BM. Il n'existait pas de différence significative pour l'expression de cette protéine entre les groupes AD‐BM et le groupe contrôle non choqué (figure 4). Les différences d'expression d'HIF‐1α n'étaient pas significatives entre les 3 groupes traités et le groupe CON. HIF‐1α était surexprimé dans les groupes BM et AD, son expression dans le groupe AD‐BM était comparable à celle du groupe CON (figure 4). 250 Densité optique (% vs contrôle) # Caspase 3 + HIF-1 & 200 § 150 100 50 Caspase 3 -actine D D -B M A A M B N O C D -B M D A A M B C O N 0 Hif-1 -actine Figure 4. Expression de la caspase 3 activée et d'HIF‐1α au niveau du cortex cérébral dans les groupes Ovalbumine (OVA), Contrôle (CON), Bleu de Méthylène (BM), Adrénaline (AD) et Adrénaline associée au Bleu de Méthylène (AD‐BM), n = 6 rats par groupe. Les rats OVA mourraient dans les 15 premières minutes, les tissus n'ont pas été utilisés. +p ≤ 0,05 différences inter‐groupes AD‐BM versus BM, &p ≤ 0,05 différences inter‐groupes AD versus BM, §p ≤ 0,05 différences inter‐groupes AD‐BM versus AD, #p ≤ 0,05 différences inter‐groupes BM versus CON. 34 4. Discussion : 4.1. Résultats principaux : A notre connaissance, notre travail est le premier décrivant les conséquences hautement délétères du choc anaphylactique sur le cerveau et leurs atténuations par trois différents traitements qui sont utilisés habituellement (adrénaline) ou potentiellement transposables (bleu de méthylène) chez l'homme en cas de CA. En situation physiologique, la circulation cérébrale est finement régulée afin de fournir un débit sanguin adéquat dans les différentes régions du cerveau [23‐26]. Le maintien du débit sanguin cérébral au cours d'une hypotension artérielle, quelle que soit son origine, est essentielle à l'homéostasie de l'organisme et pour la prévention de lésions cérébrales irréversibles. Il est supposé, mais pas démontré, que même dans les états de CA sévères, la perfusion cérébrale est maintenue [12]. En parallèle, une sévère diminution du débit sanguin régional est attendue au niveau du muscle squelettique. Nos résultats démontrent que dans le CA non‐traité, la sévère chute du DC empêche toute redistribution de débit sanguin au cerveau, confirmée par la chute du DSC, et entraînant une hypoxie et des perturbations métaboliques cérébrales sévères (fig. 1B, 2A). Concernant les interventions pharmacologiques pouvant atténuer la diminution du DSC et de ses conséquences cérébrales néfastes, les principaux résultats de notre étude étaient les suivants : (i) dans ce modèle de CA létal, l'administration de BM seul allongeait la durée de survie, mais n'empêchait pas la constitution de lésions neuronales, attestées par la libération majeure de glutamate. Celle‐ci était probablement le résultat de la faible amélioration des paramètres hémodynamiques et de la perfusion tissulaire. Par conséquent, le BM ne peut pas être recommandé en monothérapie. (ii) L'adrénaline, catécholamine recommandée pour le traitement du CA, restaurait partiellement les paramètres hémodynamiques systémiques et la perfusion cérébrale prévenant ainsi l'excito‐toxicité induite par le glutamate. (iii) L'association AD‐BM, exactement comme l'AD seule, évitait l'excito‐toxicité neuronale et avait un effet additif sur les variables hémodynamiques et sur la prévention de l'ischémie cérébrale et de l'apoptose neuronale comparée aux traitements administrés individuellement. (iv) Aucun traitement ne restaurait significativement le DC, ni n'empêchait la survenue de l'ischémie du compartiment musculaire et d'une extravasation microvasculaire. 4.2. Choix, dose, effets du bleu de méthylène : Une raison fondamentale de l'étude de l'effet du BM dans le CA repose sur le fait que le BM a montré un potentiel effet thérapeutique dans les chocs vasoplégiques réfractaires aux catécholamines associés au sepsis ou au syndrome de réponse inflammatoire systémique survenant dans des contextes cliniques variés, y compris la chirurgie cardiaque [27‐29]. De plus, plusieurs cas cliniques rapportés publiés soutiennent l'intérêt clinique de l'utilisation du BM dans le CA. Dans la plupart des cas, le BM était administré, soit en bolus, soit en perfusion continue en association avec l'AD [15]. Dans notre étude, nous avons administré un bolus unique de 3 mg/kg de BM, une dose similaire aux doses thérapeutiques considérées comme efficaces, non‐ nocives et utilisées dans d'autres types d'hypotension artérielle réfractaire [30‐32]. Bien que 35 des doses de 5 à 7,5 mg/kg soient habituellement bien tolérées [15], l'utilisation d'une dose de 4 mg/kg maximum a été recommandée [33], la dose létale 50 chez le mouton était estimée à 40 mg/kg [34]. Dans notre étude, un bolus unique de BM améliorait significativement la durée de survie, mais en stabilisant les paramètres hémodynamiques à des valeurs basses par rapport à celles du départ. Ces résultats sont en accord avec ceux publiés par d'autres équipes [18]. Au cours de notre expérimentation, le traitement par BM seul ne prévenait la survenue, ni d'une ischémie cérébrale, attestée par la chute de PtiO2c, ni de lésions neuronales, démontrées par la libération massive de glutamate (microdialyse in situ). Bien qu'ayant une traduction clinique insuffisante, ces résultats soulignent clairement l'intérêt de la modulation de la voie du NO et de l'utilisation du BM pour le traitement du CA sévère, comme le suggéraient d'autres équipes [18, 35]. 4.3. Place du bleu de méthylène dans la modulation de la voie du NO : Par ailleurs plusieurs études conduites chez différents espèces animales ont confirmé que le NO est un médiateur impliqué de façon importante dans l'anaphylaxie. De bénéfiques à délétères, les effets de la modulation de la voie du NO sur l'état hémodynamique, la dysfonction d'organe et la survie restent cependant incertains. Les études menées chez la souris ont rapporté des effets bénéfiques après l'administration de NG‐nitro‐L‐arginine‐methyl ester (L‐NAME, un inhibiteur non‐sélectif des isoformes de la NO synthase) à la fois sur l'hypotension artérielle et la survie [15, 17, 36]. Une étude a démontré l'implication plus particulière de la NO synthase endothéliale dans l'anaphylaxie chez cette espèce [14]. Le BM, quant à lui, ne limitait que partiellement le choc induit par le PAF [14] et ne prévenait pas l'hypotension artérielle du CA à l'ovalbumine [19], suggérant qu'une partie des effets du NO seraient médiés par des mécanismes indépendants de l'activation de la guanylate cyclase soluble (annexe 1). Les études conduites chez le lapin ont rapporté que l'utilisation de L‐NAME entraînait une diminution de la survie par la survenue d'un bronchospasme aggravé et d'une altération plus sévère de la fonction cardiaque [37]. Des résultats similaires étaient observés chez le chien au cours de l'anaphylaxie médiée par les IgE, où le L‐NAME corrigeait la vasodilatation et l'hémoconcentration mais n'améliorait pas la fonction cardiaque [38]. Cela avait été aussi rapporté par notre équipe avec le même modèle d'anaphylaxie chez le rat Brown Norway que pour la présente étude. Nous avions montré que l'inhibition non‐ sélective de la NO synthase (L‐NAME) combinée aux blocages des récepteurs à l'histamine et à la sérotonine atténuait l'hypotension artérielle induite par l'ovalbumine mais n'améliorait pas la survie [20]. Dans une autre étude, le 7‐nitroindazole, un inhibiteur partiellement sélectif de la NO synthase neuronale atténuait l'hypotension artérielle au cours du CA chez le rat alors que le L‐NAME et l'aminoguanidine (inhibiteur partiellement sélectif de la NO synthase inductible) restaient sans effet [39]. Enfin, comme observé dans notre étude présente, une amélioration de la PAM et une survie prolongée étaient rapportées avec l'utilisation du BM au cours de l'anaphylaxie expérimentale chez le lapin [18]. Les différences observées pourraient être dues en partie à des spécificités d'espèce. Il est probable, même si cela reste à démontrer, que l'importance de la dysfonction cardiaque soit différente en fonction des modèles de CA et puisse interférer dans l'interprétation de ces résultats. En extrapolant à partir des modèles expérimentaux de sepsis et des études chez 36 l'homme, on peut postuler qu'en présence d'une dysfonction myocardique sévère, les inhibiteurs de la NO synthase pourraient diminuer la survie par une altération surajoutée de la fonction ventriculaire droite secondaire à une augmentation de la post‐charge ventriculaire droite [40]. D'un point de vue clinique, tous ces résultats n'incitent pas à l'utilisation du BM seul pour le traitement du CA, principalement à cause de son efficacité limitée. Quant aux inhibiteurs spécifiques des isoformes de la NO synthase, ils ne sont pas disponibles pour la pratique clinique. 4.4. Effets de l'adrénaline : Comme attendu, l'AD, traitement de référence du CA, restaurait partiellement les paramètres hémodynamiques systémiques et la perfusion cérébrale. Ceci permettait de prévenir l'ischémie cérébrale et l'excito‐toxicité induite par le glutamate, comme le montraient nos résultats de microdialyse cérébrale. Cependant, l'AD ne permettait pas de normaliser la disponibilité cérébrale en oxygène et n'empêchait pas l'augmentation significative de l'expression de la caspase 3 et la tendance à l'augmentation de celle d'HIF‐1α. Cette augmentation de l'expression d'HIF‐1α n'atteignait pas une significativité statistique probablement en raison du prélèvement des tissus à une phase très précoce dans notre étude [41]. 4.5. Effets de l'association bleu de méthylène‐adrénaline : Dans ce modèle d'anaphylaxie létale, un résultat intéressant était l'efficacité significativement supérieure de l'association d'AD et de BM par rapport à l'AD seule. Malgré l'absence de normalisation du débit cardiaque, cette association permettait de restaurer la PAM, le DSC et la disponibilité cérébrale en oxygène. Elle permettait aussi d'éviter l'augmentation du RLP et du glutamate interstitiels cérébraux ainsi que la surexpression de caspase 3 et d'HIF‐1α. Ces résultats soutenaient l'absence d'ischémie cérébrale sévère. Plusieurs hypothèses pourraient expliquer l'effet synergique constaté. En dehors des effets hémodynamiques directs respectifs des molécules utilisées, il existe des interactions classiquement décrites entre le NO et les catécholamines. La voie du NO intervient dans l'hyporéactivité vasculaire au cours du choc anaphylactique, de manière indépendante de l'AMPc, en faisant intervenir la guanosine monophosphate cyclique (GMPc) (annexe 2). Il existe un rétrocontrôle entre les catécholamines (via l'AMPc) et la voie du NO. L'AMPc inhibe la NO synthase inductible et la production de NO. Celui‐ci diminue quant à lui, la libération et l'activité biologique des catécholamines. L'inhibition non spécifique des NO synthases (NOS) ou de la NOS neuronale (NOSn) augmente la libération des catécholamines au niveau surrénal chez le chien [42‐44]. D'autres facteurs, directement liés à l'administration concomitante du BM et de l'AD pourraient être aussi impliqués. Concernant le traitement par BM seul, la discordance, entre l'amélioration de la survie et l'absence de reperfusion tissulaire significative et de correction des anomalies métaboliques pourrait être liée à des effets du BM indépendant de la voie du NO. Après administration systémique, le BM s'accumule rapidement et de façon importante dans le système nerveux [45]. Il a été utilisé comme agent neuroprotecteur dans les encéphalopathies induites par les médicaments, les démences et les troubles maniaco‐dépressifs [41, 46, 47]. De plus le BM présentait des propriétés prometteuses de cardio et de neuroprotection dans un modèle expérimental d'arrêt cardiaque. Il était efficace à la fois pour diminuer les conséquences du syndrome d'ischémie‐reperfusion et pour augmenter la survie à court‐terme après la 37 récupération d'une activité circulatoire spontanée [48, 49]. Le bleu de méthylène exerce un effet neuroprotecteur par la régulation de l'expression de la guanylate cyclase et par divers processus biologiques allant de l'inhibition de l'apoptose avec la restauration des mécanismes de traduction jusqu'à la reprise du trafic fonctionnel intracellulaire et l'activation de gènes de réparation/régénération cérébrales aussi bien que l'induction de protéines neuroprotectrices essentielles [50]. 4.6. Discordance entre la correction de la PAM et du DC : Un autre résultat important de notre étude concerne la discordance entre la correction de l'hypotension artérielle et la persistance d'un DC très bas après traitement du CA. Les conséquences de cette discordance étaient illustrées par la persistance d'une hypoxie musculaire et cérébrale et par leurs conséquences métaboliques délétères (augmentation du RLP et de la libération de glutamate). Pour la pratique clinique, cette observation suggère qu'en l'absence de monitorage du DC, la correction partielle ou complète de l'hypotension artérielle ne permet pas de présager d'une amélioration parallèle du DC, celui‐ci pouvant rester, malgré tout, bas. A plus forte raison dans les cas de CA réfractaire au traitement conventionnel où la restauration de la PAM est très insuffisante, le DC pourrait rester très bas et exposer les patients à un risque de lésions cérébrales sévères. Cet état de choc réfractaire pourrait être expliqué, soit par une hypovolémie sévère (démontrée dans notre étude par l'hémoconcentration), une cause possible chez les patients sans cardiopathie préexistante, soit par une dysfonction cardiaque aigüe sévère [4]. L'hypovolémie efficace qui se constitue au cours du choc anaphylactique est entraînée par la vasodilatation et l'extravasation liquidienne (augmentation de la perméabilité vasculaire) induites par les médiateurs de l'anaphylaxie. La dysfonction cardiaque est démontrée chez l'homme et le chien, mais le retentissement est variable et la distinction difficile entre une dysfonction primitive ou secondaire à la chute du retour veineux, à la vasoconstriction pulmonaire et à l'ischémie myocardique [13]. D'autres traitements, en dehors de l'adrénaline, devraient être entrepris dans ces situations. 38 4.7. Limites de l'étude : Dans cette étude, nous n'avons pas observé de variation conséquente des concentrations plasmatiques de nitrite en fonction des différents traitements administrés. Ces résultats sont en accord avec ceux d'études précédentes. La production de NO a pu être détectée grâce à une électrode spécifique au niveau tissulaire dans un modèle d'anaphylaxie systémique chez le lapin [37], mais pas au niveau plasmatique [18]. L'absence d'augmentation des concentrations plasmatiques en nitrate était également rapportée dans un modèle de CA induit par le composé 48‐80 chez le cochon [27]. Des résultats similaires ont été obtenus chez l'homme, chez qui l'augmentation de la production de NO était détectée dans l'air exhalé [51], alors qu'aucune augmentation significative des niveaux de NO n'était détectée dans le plasma [52]. L'ensemble de ces données suggèrent que la production de NO peut être mesurée au niveau tissulaire mais pas au niveau plasmatique. Une autre limite potentielle est l'absence d'expansion volémique à proprement parler. Elle se limitait à l'injection d'un bolus d'1 ml de sérum physiologique suivie d'une perfusion continue à 10 ml.kg‐1.h‐1. Nous avions choisi de ne pas réaliser d'expansion volémique massive afin de ne pas interférer sur l'étude de l'effet propre de chacun des différents traitements et pour ne pas avoir à multiplier le nombre de groupes. D'autres études sont nécessaires pour identifier les mécanismes expliquant les effets bénéfiques potentiels de l'association AD‐BM. Bien que le recours au BM dans les cas de CA réfractaires au traitement conventionnel ne puisse pas être recommandé formellement, son utilisation pourrait être reconsidérée dans certaines situations critiques. 4.8. Perspectives : L'expansion volémique en association à l'adrénaline est le traitement recommandé du choc anaphylactique [1]. D'autres études sont nécessaires pour juger de la persistance de l'effet bénéfique additif du BM lorsqu'on l'associe à une expansion volémique. Le type de soluté de remplissage pourrait avoir aussi un impact sur l'efficacité de la réanimation de ce choc. Cette question a fait l'objet d'un autre travail (en cours de publication) de notre équipe, avec le même modèle létal de choc anaphylactique que pour cette étude. Les animaux étaient randomisés en cinq groupes : un groupe non‐traité, un autre recevant de l'adrénaline sans remplissage vasculaire, un autre de l'adrénaline et du sérum salé isotonique, un autre de l'adrénaline et de l'hydroxyethylamidon et le dernier de l'adrénaline avec l'association hydroxyethylamidon‐sérum salé hypertonique. Nous avons conclu que la solution d'hydroxyethylamidon était le soluté le plus efficace en association avec l'adrénaline pour restaurer le débit cardiaque et le seul permettant de restaurer la disponibilité en oxygène et de préserver le métabolisme aérobie au niveau d'un compartiment adaptatif (le muscle squelettique). L'association hydroxyethylamidon‐sérum salé hypertonique, malgré sa durée d'administration la plus courte et son fort pouvoir osmotique (pouvant potentiellement contrecarrer l'extravasation liquidienne massive) ne montrait qu'une efficacité très relative, probablement liée au faible volume administré et à l'augmentation de la perméabilité capillaire. L'expansion volémique n'est qu'un traitement symptomatique de l'hypovolémie efficace, l'évaluation de traitements spécifiques visant à corriger l'hyperperméabilité capillaire pourrait être intéressante, en ciblant les aquaporines par exemple [53]. 39 Dans l'optique de prolonger la survie et ainsi d'évaluer les effets des traitements à plus long terme sur les organes nobles, une autre perspective de ce travail serait d'améliorer le traitement du choc anaphylactique en associant l'expansion volémique (sérum salé isotonique ou hydroxyethylamidon) à un vasoconstricteur (adrénaline, vasopressine) et à un agent pharmacologique inhibant les conséquences des cascades d'activation cellulaires induites par les médiateurs de l'anaphylaxie (inhibiteur des tyrosines kinases [14, 54] ou du PAF [55] ou des récepteurs à l'histamine [55, 56]). Chez la souris non anesthésiée, le choc induit par l'administration de PAF dépend de la production de NO par la NOSe phosphorylée et non pas par la NOSi. La NOSe peut être activé directement par phosphorylation, sans liaison du complexe calcium‐calmoduline, par la voie PI3K/Akt. Cette voie est activée par des tyrosines kinases, des protéines G couplées aux récepteurs ou par des forces mécaniques (shear stress). La même équipe a démontré, toujours chez la souris non anesthésiée, avec un modèle de choc anaphylactique par sensibilisation au BSA ou à l'ovalbumine, la même implication de la NOSe et de PI3K, au niveau de différents paramètres : l'hypotension artérielle, l'hypothermie et la perméabilité vasculaire induites par le choc. Dans ce modèle de choc anaphylactique, les auteurs ont démontré l'implication supplémentaire d'Akt. Une fois activé, PI3K génère du phosphatidylinositol 3, 4, 5‐trisphosphate (PIP3), responsable du recrutement et de l'activation d'Akt (protéine kinase B), lui‐même activant plusieurs voies de transduction du signal dont la NOSe [14]. 40 5. Conclusion : Nos résultats suggèrent que l'association bleu de méthylène‐adrénaline, mais pas le bleu de méthylène en monothérapie pourrait avoir des effets bénéfiques dans le choc anaphylactique sévère. Seule l'association bleu de méthylène‐adrénaline permettait de prévenir l'apoptose neuronale. Les mécanismes responsables de ces effets restent à identifier. D'autres études sont nécessaires pour confirmer ces résultats en y associant l'expansion volémique. Par ailleurs, concernant la prise en charge thérapeutique du choc anaphylactique, la dissociation entre la correction de la pression artérielle moyenne et le maintien d'un débit cardiaque très bas expose le sujet à un risque persistant d'hypoperfusion systémique et neurologique. En effet, malgré les mécanismes d'autorégulation du débit sanguin cérébral, l'ischémie, l'hypoxie et les dysfonctionnements métaboliques cérébraux sont aussi des caractéristiques majeures du choc anaphylactique. 41 Bibliographie : 1. Mertes PM, Laxenaire MC, Lienhart A, Aberer W, Ring J, Pichler WJ, et al. Reducing the risk of anaphylaxis during anaesthesia: guidelines for clinical practice. J Investig Allergol Clin Immunol. 2005; 15(2): 91-101. 2. Currie M, Webb RK, Williamson JA, Russell WJ, Mackay P. The Australian Incident Monitoring Study. Clinical anaphylaxis: an analysis of 2000 incident reports. Anaesthesia and intensive care. 1993; 21(5): 621-5. 3. Mitsuhata H, Matsumoto S, Hasegawa J. [The epidemiology and clinical features of anaphylactic and anaphylactoid reactions in the perioperative period in Japan]. Masui The Japanese journal of anesthesiology. 1992; 41(10): 1664-9. 4. Brown SG. Cardiovascular aspects of anaphylaxis: implications for treatment and diagnosis. Current opinion in allergy and clinical immunology. 2005; 5(4): 359-64. 5. Kemp SF, Lockey RF. Anaphylaxis: a review of causes and mechanisms. The Journal of allergy and clinical immunology. 2002; 110(3): 341-8. 6. Correa E, Mink S, Unruh H, Kepron W. Left ventricular contractility is depressed in IgEmediated anaphylactic shock in dogs. The American journal of physiology. 1991; 260(3 Pt 2): H744-51. 7. Cui S, Shibamoto T, Zhang W, Takano H, Kurata Y. Venous resistance increases during rat anaphylactic shock. Shock. 2008; 29(6): 733-9. 8. Dewachter P, Jouan-Hureaux V, Franck P, Menu P, de Talance N, Zannad F, et al. Anaphylactic shock: a form of distributive shock without inhibition of oxygen consumption. Anesthesiology. 2005; 103(1): 40-9. 9. Karasawa N, Shibamoto T, Cui S, Takano H, Kurata Y, Tsuchida H. Hepatic presinusoidal vessels contract in anaphylactic hypotension in rabbits. Acta Physiol (Oxf). 2007; 189(1): 15-22. 10. Liu W, Takano H, Shibamoto T, Cui S, Zhao ZS, Zhang W, et al. Involvement of splanchnic vascular bed in anaphylactic hypotension in anesthetized BALB/c mice. American journal of physiology Regulatory, integrative and comparative physiology. 2007; 293(5): R194753. 11. Miyahara T, Shibamoto T, Wang HG, Koyama S. Role of circulating blood components and thromboxane in anaphylactic vasoconstriction in isolated canine lungs. J Appl Physiol. 1997; 83(5): 1508-16. 12. Czosnyka M, Brady K, Reinhard M, Smielewski P, Steiner LA. Monitoring of cerebrovascular autoregulation: facts, myths, and missing links. Neurocritical care. 2009; 10(3): 373-86. 13. Brown SG. Anaphylaxis: clinical concepts and research priorities. Emergency medicine Australasia : EMA. 2006; 18(2): 155-69. 14. Cauwels A, Janssen B, Buys E, Sips P, Brouckaert P. Anaphylactic shock depends on PI3K and eNOS-derived NO. The Journal of clinical investigation. 2006; 116(8): 2244-51. 42 15. Evora PR, Simon MR. Role of nitric oxide production in anaphylaxis and its relevance for the treatment of anaphylactic hypotension with methylene blue. Annals of allergy, asthma & immunology : official publication of the American College of Allergy, Asthma, & Immunology. 2007; 99(4): 306-13. 16. Joe EK, Schussheim AE, Longrois D, Maki T, Kelly RA, Smith TW, et al. Regulation of cardiac myocyte contractile function by inducible nitric oxide synthase (iNOS): mechanisms of contractile depression by nitric oxide. Journal of molecular and cellular cardiology. 1998; 30(2): 303-15. 17. Amir S, English AM. An inhibitor of nitric oxide production, NG-nitro-L-arginine-methyl ester, improves survival in anaphylactic shock. European journal of pharmacology. 1991; 203(1): 125-7. 18. Buzato MA, Viaro F, Piccinato CE, Evora PR. The use of methylene blue in the treatment of anaphylactic shock induced by compound 48/80: experimental studies in rabbits. Shock. 2005; 23(6): 582-7. 19. Takano H, Liu W, Zhao Z, Cui S, Zhang W, Shibamoto T. N(G)-nitro-L-arginine methyl ester, but not methylene blue, attenuates anaphylactic hypotension in anesthetized mice. Journal of pharmacological sciences. 2007; 104(3): 212-7. 20. Bellou A, Lambert H, Gillois P, Montemont C, Gerard P, Vauthier E, et al. Constitutive nitric oxide synthase inhibition combined with histamine and serotonin receptor blockade improves the initial ovalbumin-induced arterial hypotension but decreases the survival time in brown norway rats anaphylactic shock. Shock. 2003; 19(1): 71-8. 21. Albe-Fessard D, Stutinsky F, Libouban S. Atlas stéréotaxique du diencéphale du rat blanc. 2. éd. revue et corr. ed. Paris,: Centre national de la recherche scientifique; 1971. 22. Dewachter P, Raeth-Fries I, Jouan-Hureaux V, Menu P, Vigneron C, Longrois D, et al. A comparison of epinephrine only, arginine vasopressin only, and epinephrine followed by arginine vasopressin on the survival rate in a rat model of anaphylactic shock. Anesthesiology. 2007; 106(5): 977-83. 23. Andresen J, Shafi NI, Bryan RM, Jr. Endothelial influences on cerebrovascular tone. J Appl Physiol. 2006; 100(1): 318-27. 24. Buerk DG, Ances BM, Greenberg JH, Detre JA. Temporal dynamics of brain tissue nitric oxide during functional forepaw stimulation in rats. NeuroImage. 2003; 18(1): 1-9. 25. Iadecola C. Neurovascular regulation in the normal brain and in Alzheimer's disease. Nature reviews Neuroscience. 2004; 5(5): 347-60. 26. Rosengarten B, Wolff S, Klatt S, Schermuly RT. Effects of inducible nitric oxide synthase inhibition or norepinephrine on the neurovascular coupling in an endotoxic rat shock model. Crit Care. 2009; 13(4): R139. 27. Evora PR, Viaro F. The guanylyl cyclase inhibition by MB as vasoplegic circulatory shock therapeutical target. Current drug targets. 2006; 7(9): 1195-204. 28. Levin RL, Degrange MA, Bruno GF, Del Mazo CD, Taborda DJ, Griotti JJ, et al. Methylene blue reduces mortality and morbidity in vasoplegic patients after cardiac surgery. The Annals of thoracic surgery. 2004; 77(2): 496-9. 43 29. Mora-Ordonez JM, Sanchez-Llorente F, Galeas-Lopez JL, Hernandez Sierra B, PrietoPalomino MA, Vera-Almazan A. [Use of methylene blue in the treatment of vasoplegic syndrome of post-operative heart surgery]. Medicina intensiva / Sociedad Espanola de Medicina Intensiva y Unidades Coronarias. 2006; 30(6): 293-6. 30. Donati A, Conti G, Loggi S, Munch C, Coltrinari R, Pelaia P, et al. Does methylene blue administration to septic shock patients affect vascular permeability and blood volume? Critical care medicine. 2002; 30(10): 2271-7. 31. Maslow AD, Stearns G, Butala P, Schwartz CS, Gough J, Singh AK. The hemodynamic effects of methylene blue when administered at the onset of cardiopulmonary bypass. Anesthesia and analgesia. 2006; 103(1): 2-8, table of contents. 32. Sparicio D, Landoni G, Zangrillo A. Angiotensin-converting enzyme inhibitors predispose to hypotension refractory to norepinephrine but responsive to methylene blue. The Journal of thoracic and cardiovascular surgery. 2004; 127(2): 608. 33. Martindale SJ, Stedeford JC. Neurological sequelae following methylene blue injection for parathyroidectomy. Anaesthesia. 2003; 58(10): 1041-2. 34. Burrows GE. Methylene blue: effects and disposition in sheep. Journal of veterinary pharmacology and therapeutics. 1984; 7(3): 225-31. 35. Menardi AC, Capellini VK, Celotto AC, Albuquerque AA, Viaro F, Vicente WV, et al. Methylene blue administration in the compound 48/80-induced anaphylactic shock: hemodynamic study in pigs. Acta cirurgica brasileira / Sociedade Brasileira para Desenvolvimento Pesquisa em Cirurgia. 2011; 26(6): 481-9. 36. Osada S, Ichiki H, Oku H, Ishiguro K, Kunitomo M, Semma M. Participation of nitric oxide in mouse anaphylactic hypotension. European journal of pharmacology. 1994; 252(3): 347-50. 37. Mitsuhata H, Saitoh J, Hasome N, Takeuchi H, Horiguchi Y, Shimizu R. Nitric oxide synthase inhibition is detrimental to cardiac function and promotes bronchospasm in anaphylaxis in rabbits. Shock. 1995; 4(2): 143-8. 38. Mitsuhata H, Takeuchi H, Saitoh J, Hasome N, Horiguchi Y, Shimizu R. An inhibitor of nitric oxide synthase, N omega-nitro-L-arginine-methyl ester, attenuates hypotension but does not improve cardiac depression in anaphylaxis in dogs. Shock. 1995; 3(6): 447-53; discussion 54. 39. Zhang W, Shibamoto T, Cui S, Takano H, Kurata Y. 7-nitroindazole, but not L-NAME or aminoguanidine, attenuates anaphylactic hypotension in conscious rats. Shock. 2009; 31(2): 2016. 40. Ndrepepa G, Schomig A, Kastrati A. Lack of benefit from nitric oxide synthase inhibition in patients with cardiogenic shock: looking for the reasons. JAMA : the journal of the American Medical Association. 2007; 297(15): 1711-3. 41. Wainwright M, Crossley KB. Methylene Blue--a therapeutic dye for all seasons? J Chemother. 2002; 14(5): 431-43. 42. Barnes RD, Ward LE, Frank KP, Tyce GM, Hunter LW, Rorie DK. Nitric oxide modulates evoked catecholamine release from canine adrenal medulla. Neuroscience. 2001; 104(4): 116573. 44 43. Kolo LL, Westfall TC, Macarthur H. Nitric oxide decreases the biological activity of norepinephrine resulting in altered vascular tone in the rat mesenteric arterial bed. American journal of physiology Heart and circulatory physiology. 2004; 286(1): H296-303. 44. Ward LE, Hunter LW, Grabau CE, Tyce GM, Rorie DK. Nitric oxide reduces basal efflux of catecholamines from perfused dog adrenal glands. Journal of the autonomic nervous system. 1996; 61(3): 235-42. 45. Peter C, Hongwan D, Kupfer A, Lauterburg BH. Pharmacokinetics and organ distribution of intravenous and oral methylene blue. European journal of clinical pharmacology. 2000; 56(3): 247-50. 46. Kupfer A, Aeschlimann C, Cerny T. Methylene blue and the neurotoxic mechanisms of ifosfamide encephalopathy. European journal of clinical pharmacology. 1996; 50(4): 249-52. 47. Naylor GJ, Martin B, Hopwood SE, Watson Y. A two-year double-blind crossover trial of the prophylactic effect of methylene blue in manic-depressive psychosis. Biological psychiatry. 1986; 21(10): 915-20. 48. Miclescu A, Basu S, Wiklund L. Cardio-cerebral and metabolic effects of methylene blue in hypertonic sodium lactate during experimental cardiopulmonary resuscitation. Resuscitation. 2007; 75(1): 88-97. 49. Wiklund L, Basu S, Miclescu A, Wiklund P, Ronquist G, Sharma HS. Neuro- and cardioprotective effects of blockade of nitric oxide action by administration of methylene blue. Annals of the New York Academy of Sciences. 2007; 1122: 231-44. 50. Martijn C, Wiklund L. Effect of methylene blue on the genomic response to reperfusion injury induced by cardiac arrest and cardiopulmonary resuscitation in porcine brain. BMC medical genomics. 2010; 3: 27. 51. Rolla G, Nebiolo F, Guida G, Heffler E, Bommarito L, Bergia R. Level of exhaled nitric oxide during human anaphylaxis. Annals of allergy, asthma & immunology : official publication of the American College of Allergy, Asthma, & Immunology. 2006; 97(2): 264-5. 52. Gupta A, Lin RY, Pesola GR, Bakalchuk L, Curry A, Lee H-s, et al. Nitric Oxide Levels in Patients with Acute Allergic Reactions. Internet Journal of Asthma, Allergy and Immunology. 2003; 3(1). 53. Wang W, Zheng M. Nuclear factor kappa B pathway down-regulates aquaporin 5 in the nasal mucosa of rats with allergic rhinitis. Eur Arch Otorhinolaryngol. 2011; 268(1): 73-81. 54. Kang NI, Yoon HY, Kim HA, Kim KJ, Han MK, Lee YR, et al. Protein kinase CK2/PTEN pathway plays a key role in platelet-activating factor-mediated murine anaphylactic shock. J Immunol. 2011; 186(11): 6625-32. 55. Arias K, Baig M, Colangelo M, Chu D, Walker T, Goncharova S, et al. Concurrent blockade of platelet-activating factor and histamine prevents life-threatening peanut-induced anaphylactic reactions. The Journal of allergy and clinical immunology. 2009; 124(2): 307-14, 14 e1-2. 56. Chrusch C, Sharma S, Unruh H, Bautista E, Duke K, Becker A, et al. Histamine H3 receptor blockade improves cardiac function in canine anaphylaxis. American journal of respiratory and critical care medicine. 1999; 160(4): 1142-9. 45 57. Abraham MA, Hesketh RP. Reaction engineering for pollution prevention. 1st ed. Amsterdam ; New York: Elsevier; 2000. 58. Landry DW, Oliver JA. The pathogenesis of vasodilatory shock. The New England journal of medicine. 2001; 345(8): 588-95. 46 Annexes : Annexe 1 : Schéma des différents mécanismes moléculaires potentiellement impliqués dans la vasorelaxation induite par le NO [57]. 47 Annexe 2 : Schéma général des voies de signalisation des catécholamines et du NO pour la régulation de la contractilité la cellule musculaire lisse [58]. 48 VU NANCY, le 28 septembre 2012 NANCY, le 28 septembre 2012 Le Président de Thèse Le Doyen de la Faculté de Médecine Professeur P-M. MERTES Professeur H. COUDANE AUTORISE À SOUTENIR ET À IMPRIMER LA THÈSE 5041 NANCY, le 5 octobre 2012 LE PRÉSIDENT DE L'UNIVERSITÉ DE LORRAINE Professeur P. MUTZENHARDT 49 RÉSUMÉ DE LA THÈSE : CONTEXTE : L'hypotension sévère au cours du choc anaphylactique (CA) peut être réfractaire à l'adrénaline (AD) et compromettre l'oxygénation et le métabolisme cérébraux et ainsi contribuer à la morbi‐mortalité de cette pathologie. Cet état réfractaire à l'AD pourrait être corrigé par les inhibiteurs de la voie du NO comme le bleu de méthylène (BM). L'objectif de ce travail était de comparer les effets systémiques et régionaux (muscle et cerveau) de l'AD et du BM, administrés seuls ou en association dans un modèle murin de CA. MATÉRIEL ET MÉTHODE : Après sensibilisation à l'ovalbumine (OVA), un choc anaphylactique était induit par injection intraveineuse. Les animaux (n=60) recevaient, soit du sérum physiologique (groupe OVA), soit 3 mg/kg de bleu de méthylène en bolus (groupe BM), soit de l'adrénaline (groupe AD), soit l'association des deux traitements (groupe AD‐BM). Des rats contrôles ne recevaient pas d'OVA (groupe CON). La pression artérielle moyenne (PAM), le débit cardiaque (DC), le débit sanguin cérébral (DSC), la pression partielle en oxygène musculaire (PtiO2m) et cérébrale (PtiO2c) et le ratio lactate/pyruvate interstitiel musculaire (RLPm) et cérébral (RLPc) étaient mesurés. L'expression de la caspase 3 activée et d'HIF‐1α était mesurée dans le cortex cérébral par western‐blot. RÉSULTATS : Sans traitement, les rats mourraient au bout de 15 minutes d'une chute sévère du DC et de la PAM, alors que les rats traités survivaient jusqu'à la fin de l'expérimentation. Le BM seul, augmentait la durée de survie, mais sans restaurer l'état hémodynamique, ni la perfusion tissulaire et sans prévenir la souffrance neuronale. L'AD restaurait partiellement l'état hémodynamique et la perfusion cérébrale prévenant l'excito‐toxicité induite par le glutamate. Par rapport à l'AD seule, l'association AD‐BM évitait l'excito‐toxicité neuronale et avait un effet additif à la fois sur les paramètres hémodynamiques et pour la prévention de l'ischémie cérébrale. Aucun traitement ne restaurait significativement le DC, ni n'empêchait l'ischémie musculaire et l'extravasation capillaire. CONCLUSION: Le CA induit de sévères perturbations du DSC malgré la correction de l'hypotension artérielle. L'AD doit être encore considérée comme l'agent vasoconstricteur de première intention pour le traitement du choc anaphylactique. L'association AD‐BM était le traitement le plus efficace pour prévenir l'ischémie cérébrale et pourrait être utile dans les CA réfractaires à l'AD. TITRE EN ANGLAIS : METHYLENE BLUE AND EPINEPHRINE, A SYNERGETIC ASSOCIATION FOR ANAPHYLACTIC SHOCK TREATMENT. THÈSE : MÉDECINE SPÉCIALISÉE – 2012 MOTS‐CLEFS : bleu de méthylène, adrénaline, monoxyde d'azote, anaphylaxie, microdialyse, circulation cérébrale, ischémie. INTITULÉ ET ADRESSE DE L'UFR : UNIVERSITÉ DE LORRAINE Faculté de Médecine de Nancy 9, avenue de la Forêt de Haye 54505 VANDOEUVRE LES NANCY cedex
{'path': '14/hal.univ-lorraine.fr-hal-01733609-document.txt'}
Fiabilité du logiciel : de la collecte des données à l'évaluation probabiliste Karama Kanoun, Mohamed Kaâniche, Jean-Claude Laprie To cite this version: Karama Kanoun, Mohamed Kaâniche, Jean-Claude Laprie. Fiabilité du logiciel : de la collecte des données à l'évaluation probabiliste. Revue des Sciences et Technologies de l'Information - Série TSI : Technique et Science Informatiques, Lavoisier, 1997, 16 (7), pp.865-895. hal-01212188 HAL Id: hal-01212188 https://hal.archives-ouvertes.fr/hal-01212188 Submitted on 6 Oct 2015 Fiabilité du logiciel : de la collecte des données à l'évaluation probabiliste Karama Kanoun, Mohamed Kaâniche et Jean-Claude Laprie LAAS - CNRS 7, Avenue du Colonel Roche 31077 Toulouse Cedex (France) e-mail : kanoun@laas.fr RESUME. Cet article présente une méthode d'analyse et d'évaluation de la fiabilité du logiciel basée sur le traitement des données de défaillance recueillies sur le logiciel en développement ou en exploitation. Cette méthode est progressive : elle débute par un filtrage des données collectées, se poursuit par des partitionnements des données retenues en fonction de certains critères (sévérité des défaillances, localisation des fautes, etc.), afin de permettre des analyses descriptives, des analyses de tendance et des évaluations probabilistes. L'accent est mis sur le traitement des données en temps réel pour permettre un retour d'expérience rapide. L'intérêt de la méthode est montré à travers son application à des données réelles. Sa mise en oeuvre est facilitée par un outil : SoRel dont les caractéristiques sont présentées. ABSTRACT. This article presents a method for software reliability analysis and evaluation based on processing failure data collected on the software during development or in operation. This method is progressive: filtering of the collected data, partitioning of the retained data into subsets according to some criteria (failure severity, fault location, etc.), to perform descriptive analyses, trend analyses and probabilistic evaluations. Emphasis is put on processing of the data in real time to enable early field feedback. The benefits of this method are shown through its application to real data. To make it easier to process failure data, we developed a tool, SoRel, which is presented in the last section. MOTS-CLES : Fiabilité du logiciel, croissance de fiabilité, traitement de données. KEY WORDS: Software reliability, reliability growth, failure data processing. 1. Introduction L'objectif d'un fournisseur de logiciel est de développer un logiciel fiable, dans les meilleurs délais et facilement maintenable. Afin d'atteindre cet objectif, il doit être capable de a) contrôler efficacement les différentes activités du développement, b) gérer le passage d'une phase à la suivante afin de maîtriser les délais de livraison, c) prévoir le moment où un certain niveau de fiabilité serait atteint (ou, du moins, vérifier si le logiciel satisfait les contraintes de sûreté de fonctionnement 1 éventuellement fixées par le client), et d) s'assurer que le logiciel est facilement maintenable afin de réduire les efforts de maintenance. L'utilisateur est intéressé par un logiciel fiable, livré à temps et à un coût raisonnable. La méthode d'analyse et d'évaluation de la fiabilité du logiciel que nous avons développée aide à atteindre au mieux ces objectifs ; elle permet de mieux satisfaire les besoins du fournisseur et de l'utilisateur en adoptant alternativement le point de vue de l'un et de l'autre. Bien souvent (si ce n'est pas dans la majorité des expériences publiées, ou simplement rapportées) l'évaluation de la fiabilité du logiciel s'est limitée à l'application d'un ou plusieurs modèles de croissance de fiabilité aux données collectées. Et bien souvent, les résultats étaient décourageants car ils étaient de façon évidente non réalistes. Ceci est dû essentiellement à l'absence de méthode rigoureuse de traitement des données collectées. Il s'avère donc nécessaire de suivre une méthode globale d'analyse des données avant l'évaluation de la fiabilité afin de s'assurer à chaque étape de l'étude de a) la validité des données recueillies, b) la cohérence de celles qui sont retenues et c) l'applicabilité des modèles de croissance de fiabilité. La méthode présentée dans cet article est basée sur le traitement de données de défaillance collectées sur le logiciel durant le développement ou l'exploitation. Elle est constituée de plusieurs étapes allant du filtrage des données collectées à la quantification. Nous mettons l'accent sur le traitement en temps réel dans un environnement contrôlé. L'analyse de la tendance constitue une étape fondamentale et originale : les indicateurs de tendance aident à contrôler la progression du processus de développement en temps réel et permettent ainsi un retour d'expérience rapide. Cette méthode résulte de notre expérience d'une dizaine d'années relative au traitement des données de fiabilité du logiciel ; elle a ainsi évolué tout au long de cette période et s'est concrétisée par le développement d'un outil logiciel, SoRel, facilitant le traitement des données. L'article est divisé en sept parties. La deuxième partie donne une vue d'ensemble de la méthode. Les troisième, quatrième et cinquième parties s'intéressent respectivement aux statistiques descriptives, à l'analyse de la tendance et à l'application des modèles de croissance de fiabilité. La sixième partie montre l'intérêt de la méthode à travers le traitement des données d'un système réel. Enfin, la dernière partie présente l'outil SoRel. 2. Présentation de la méthode L'étude de fiabilité est basée sur l'analyse et le traitement des données de défaillance collectées sur le logiciel. La collecte de données doit être clairement définie depuis le début en précisant explicitement ses objectifs, son organisation, le type de données à collecter, le rôle des intervenants, etc. Il est important qu'elle soit effectuée correctement car la pertinence des résultats dépend de la qualité de ces données. Nous nous intéressons principalement au traitement des données1. Dans cette partie, nous analysons les objectifs d'une étude de fiabilité, et nous donnons 1 De nombreuses publications traitent de la définition de la collecte de données et des problèmes liés à cette collecte, on peut consulter par exemple [BAS 84, COM 89] 2 une vue globale de la méthode de traitement. Les activités des différentes étapes sont plus détaillées dans les parties suivantes. 2.1. Objectifs d'une étude de fiabilité Les objectifs d'une étude de fiabilité sont directement liés au point de vue considéré (celui du fournisseur ou de l'utilisateur) et à la phase du cycle de vie concernée. Ces objectifs sont généralement exprimés en terme de mesures. Quand le logiciel est en développement, ces mesures concernent : • l'évolution de la tendance (croissance / décroissance de fiabilité) en réponse à l'effort de test afin de contrôler ces activités, • l'estimation prévisionnelle du nombre de défaillances afin de planifier l'effort nécessaire (en termes de durée de test et d'effectif de l'équipe de test). Quand le logiciel est en opération, deux types de mesures sont intéressants selon le point de vue considéré : • du point de vue de l'utilisateur : le temps jusqu'à défaillance ou le taux de défaillance afin d'évaluer la fiabilité du système prenant en compte les défaillances du matériel et celles du logiciel, • du point de vue du fournisseur : estimation du nombre de défaillances en provenance de tous les utilisateurs (ou du nombre de corrections à effectuer) afin d'estimer l'effort de maintenance nécessaire pour répondre aux sollicitations. Ces objectifs déterminent le type de données à collecter et les traitements à effectuer sur ces données. Deux catégories de données peuvent être recueillies : a) des données caractérisant certains attributs du produit analysé, de son processus de production et de son environnement d'utilisation (taille du logiciel, langage, fonctions, version utilisée, méthodes de vérification et de validation appliquées, profil de test, etc.), et b) des données relatives aux défaillances et modifications (date d'occurrence, nature des défaillances, conséquences, type de fautes, localisation des fautes, etc.). Généralement, ces informations sont indiquées sur des rapports de défaillance et de correction. 2.2. Vue d'ensemble La figure 1 résume les différentes opérations qui peuvent être effectuées sur les données collectées et les types de résultats attendus. Les données recueillis doivent faire l'objet d'une analyse préliminaire approfondie qui vise étudier leur validité éventuellement écarter toutes les données qui ne sont pas pertinentes pour l'étude de fiabilité menée ; un filtrage est souvent nécessaire afin de ne garder que les données qui sont relatives au logiciel. En fonction des objectifs de l'étude, les analyses et évaluations de la fiabilité peuvent être conduites sur l'ensemble des données retenu ou sur des sous ensembles obtenus par partitionnement permettant des analyses plus fines. Trois types de traitement peuvent être effectués sur ces données : des analyses descriptives, l'analyse de la tendance et l'application de modèles de croissance de fiabilité. 3 • Les analyses descriptives sont basées sur des statistiques concernant par exemple la densité de fautes, le nombre de fautes par version, des analyses combinées portant sur la localisation des fautes et les conséquences des défaillances, etc. Ces analyses sont généralement de nature qualitative et ne conduisent pas à des évaluations quantitatives de la fiabilité du logiciel. Cependant elles sont très utiles car elles fournissent des indicateurs permettant de mieux comprendre les mécanismes de création et d'élimination des fautes et d'analyser de façon comparative la qualité du produit en cours de développement et de son processus de production par rapport à des produits antérieurs. • L'analyse de la tendance permet de suivre l'évolution dans le temps des mesures caractéristiques de la fiabilité du logiciel, par exemple le temps jusqu'à occurrence d'une défaillance ou le nombre de défaillances. Elle constitue un moyen puissant pour contrôler la progression du développement et apprécier l'efficacité des procédures de test d'une part, et d'autre part elle permet de guider l'application des modèles de croissance de fiabilité et d'améliorer les prévisions par l'identification des sous ensembles des données pour lesquels les hypothèses des modèles choisis sont vérifiées. • L'application d'un ou de plusieurs modèles de croissance de fiabilité permet d'obtenir des prévisions des mesures probabilistes de la fiabilité du logiciel à partir des données observées. Dans la suite du papier, nous présentons plus en détail les différentes étapes de la méthode en mettant l'accent plus particulièrement sur l'analyse de la tendance et l'application des modèles de croissance de fiabilité. Données collectées Filtrage Données du logiciel OBJECTIFS Partitionnement et Mise en forme Sévérité Cycle de vie Composants ••• Analyses descriptives STATISTIQUES DESCRIPTIVES Analyse de la tendance Application de modèles de croissance de fiabilité EVOLUTION DE FIABILITE MESURES DE FIABILITE Figure 1. Étapes successives d'une étude de fiabilité 4 Notons enfin que la particularité de notre approche par rapport aux travaux publiés dans le domaine réside dans sa progression et dans l'intégration de différentes techniques complémentaires pour le suivi et l'évaluation de la fiabilité du logiciel. Les travaux publiés s'intéressent généralement à une ou deux étapes de la méthode globale que nous suivons. A titre indicatif, on peut trouver des exemples d'analyses descriptives dans [BAS 84, IYE 82, TRO 86]. Les tests de tendances sont étudiés dans [ASC 84, COX 66, GAU 90]. La définition et l'application des modèles de croissance de fiabilité sont discutées dans plusieurs publications et ouvrages tels que [MUS 87, XIE 91] par exemple. Par rapport à nos travaux antérieurs, des applications pratiques de toutes ou partie(s) des étapes de la méthode sont effectuées [KAA 90, KAN 91, KAN 87]. Le rôle des analyses de tendance est étudié plus en détail dans [KAN 94, KAN 95]. SoRel est présenté dans [KAN 92]. 3. Filtrage, partitionnement et analyses descriptives des données Les opérations relatives au filtrage, au partitionnement des données et aux analyses descriptives sont étroitement liées a) au système considéré et à la nature de l'application, b) à la collecte de données, c) aux fonctions du logiciel et à sa structure, d) aux objectifs de l'analyse, etc. Ces opérations ne sont pas nécessaires pour toute étude de fiabilité, par exemple la répartition des données en sous ensembles et les analyses descriptives peuvent ne pas être effectuées en fonction du niveau de détail recherché. Le filtrage des données est nécessaire afin de ne garder que les données relatives au logiciel. Généralement les données collectées incluent également des rapports correspondant à des données non cohérentes, à des défaillances du matériel, à des données dupliquées (rapports liés à la même défaillance), etc. Ces rapports doivent être éliminés afin de ne garder que ceux concernant les fautes activées durant l'exécution du logiciel ayant conduit à défaillance et celles détectées durant l'analyse statique (relecture des spécifications, inspection de code). Les rapports dupliqués ne doivent pas être confondus avec les rapports relatifs à ce qui est communément appelé "redécouvertes" qui sont liés à la même faute (correspondant à des défaillances résultant de l'activation de la même faute). Ces derniers doivent être gardés car ils correspondent effectivement à des défaillances du logiciel distinctes ayant eu lieu sur la même installation ou sur des installations différentes : en fonction de leur nombre, elles peuvent influencer la fiabilité du système. Le filtrage des données est généralement très fastidieux et peut prendre beaucoup de temps : en plus d'une bonne connaissance du système, du logiciel et de la collecte des données, il est parfois nécessaire d'interroger les personnes impliquées dans le test et la collecte. Le rapport entre le nombre de données retenues après filtrage et le nombre total de données (observé sur des systèmes que nous avons analysés [KAA 90] ou analysés par d'autres auteurs [BAS 84, LAR 94, LEV 90]) est d'environ 50%. Cette étape est essentielle car la qualité des résultats repose sur la qualité des données retenues ; elle doit être effectuée minutieusement. A partir des rapports de défaillance retenus, on crée des fichiers représentant les données sous deux formes possibles : temps jusqu'à défaillance ou nombre de défaillances par unité de temps. Le choix entre une forme ou l'autre est 5 généralement guidé par l'objectif de l'étude (évaluation de la fiabilité en exploitation, suivi du développement et planification de la maintenance) et de la phase du cycle de vie concernée. L'utilisation des données sous la forme nombre de défaillances par unité de temps (ou intensité de défaillance) réduit l'impact des fluctuations locales sur la fiabilité du logiciel. Le choix de l'unité de temps dépend de l'utilisation du système et du nombre de défaillances observées sur la période concernée ; elle peut être différente pour des phases distinctes (dans ce cas, les données doivent impérativement être considérées séparément pour chaque phase). Le partitionnement des données en sous ensembles permet d'effectuer des analyses plus complètes. Plusieurs partitionnements peuvent être effectués selon par exemple : la sévérité des défaillances, la localisation des fautes, la phase du cycle de vie ou le type d'installation (quand le logiciel est installé sur plusieurs systèmes avec des profils d'utilisation différents). L'application des modèles de croissance de fiabilité aux défaillances les plus critiques permet d'évaluer le taux de défaillance relatif aux conséquences les plus sévères. La répartition en fonction de la localisation des fautes permet de mesurer l'influence de chaque composant (ou des composants les plus significatifs) sur le taux de défaillance global du logiciel. Ainsi l'accent sera mis sur les composants les moins fiables lors de la maintenance du logiciel ou lors de l'introduction de nouvelles versions. Les analyses descriptives consistent à effectuer une synthèse des phénomènes observés sous forme de graphiques ou de corrélations afin d'identifier les tendances les plus significatives. Elles peuvent correspondre à des analyses simples telles que : la densité de fautes des différents composants ou la typologie des fautes, ou à des analyses combinées telles que la relation entre a) la localisation des fautes et leur sévérité ou b) les conditions d'occurrence des défaillances et leur sévérité, et c) la densité de fautes et la taille des composants. Ces analyses sont très utiles et les résultats correspondants sont souvent exploités par les compagnies qui ont un processus de développement contrôlé afin d'améliorer la qualité du logiciel [GRA 87], [ROS 89]. L'accumulation et l'analyse d'informations relatives à plusieurs projets, produits et versions permet d'avoir une meilleure connaissance du produit et d'analyser l'impact du processus de développement sur le produit. 4. Analyse de la tendance Les variations de la fiabilité (croissance, décroissance ou stabilisation) peuvent être analysées grâce à l'application des tests de tendance. Ces tests sont de nature statistique et fournissent des indicateurs de fiabilité. La présentation des tests de tendance est suivie par une discussion sur leur applicabilité en temps réel et par l'examen de quelques exemples de résultats. 4.1. Tests de tendance Il existe un certain nombre de tests de tendance dont l'application permet de déterminer si le logiciel est en croissance ou en décroissance de fiabilité. On peut citer trois tests graphiques très simples qui consistent à tracer l'évolution a) des 6 temps jusqu'à défaillance, b) du nombre cumulé de défaillances, et c) de l'intensité de défaillance (nombre de défaillances par unité de temps). La tendance est déduite empiriquement à partir de la lecture des courbes. Les tests analytiques permettent de quantifier cette tendance. Parmi ces tests, notre choix porte sur le test de Laplace [GAU 90, KAN 94]. En effet des études antérieures ont montré sa supériorité par rapport à d'autres tests tels que les tests de Kendall ou de Spearman [GAU 90]. Quand les données sont sous forme temps jusqu'à défaillances, le facteur de Laplace à l'instant T est donné par : u(T) = 1 N(T) i T ∑ ∑ θj - 2 N(T) i=1 j=1 1 12 N(T) où θj est le temps jusqu'à occurrence de la défaillance j calculé depuis la relance du logiciel après la défaillance j-1, et N[T] est le nombre total de défaillances observées dans [0,T]. Quand les données sont sous la forme intensité de défaillance (avec n(i), le nombre de défaillances pendant l'unité de temps i), l'expression de ce facteur est : T u(k) = Erreur ! L'utilisation pratique qui en est faite dans le contexte de la croissance de fiabilité est la suivante : • les valeurs négatives indiquent une intensité de défaillance décroissante (croissance de fiabilité), • les valeurs positives suggèrent une intensité de défaillance croissante (décroissance de fiabilité), • les valeurs oscillant entre -2 et +2 indiquent une fiabilité stabilisée (la fiabilité n'est ni croissante ni décroissante). Ces valeurs pratiques sont déduites des niveaux de signification associés au test statistique d'une distribution Normale. A titre indicatif, pour un niveau de signification de 5% : |u(k)| < 1,96 indique une fiabilité stabilisée. 4.2. Tendance locale et globale A l'origine, le test de Laplace a été développé pour identifier la tendance globale sur un intervalle de temps ainsi que les changements globaux de la tendance (points où le facteur s'annule). La relation entre le facteur de subadditivité et le facteur de Laplace que nous avons montrée dans [KAN 94] a révélé que ce dernier est également capable de détecter les points de changements locaux de tendance : ils sont déterminés par les points de changement de tendance de la courbe représentant le facteur de Laplace (point TL1 et TL2 de la figure 2-a qui donne un exemple d'évolution de ce facteur). Si on effectue un changement de l'origine des temps à partir de TL1, ce facteur devient négatif à partir de TL1 comme indiqué sur la figure 2-b. Notons qu'un changement de l'origine du temps n'entraîne pas une simple translation de la courbe (due à la présence de la variable temps dans le dénominateur) : la non prise en compte des données entre 0 et TL1 renforce les 7 variations locales et amplifie les variations du facteur de Laplace, sans déplacer toutefois les points de changements locaux de tendance. Ceci sera illustré sur des données réelles dans la partie 6. De façon pratique l'évolution du facteur de Laplace peut être interprétée comme suit : • les valeurs négatives (respectivement positives) du facteur de Laplace sur un intervalle de temps indiquent une croissance (respectivement décroissance de fiabilité) globale sur cet intervalle, • les valeurs décroissantes (respectivement croissantes) sur un sous intervalle indiquent une croissance de fiabilité (respectivement une décroissance de fiabilité) locale sur ce sous intervalle. La figure 3 résume quelques situations typiques de l'évolution du facteur de Laplace et montre le lien entre le nombre cumulé de défaillances, l'intensité de défaillance et le facteur de Laplace. Dans la pratique, nous utilisons le facteur de Laplace comme indicateur de tendance, considérant à la fois son signe et son sens de variation car il permet d'identifier aisément à la fois les tendances locale et globale. 4.3. Comment utiliser les résultats de l'analyse de tendance ? Le rôle des tests de tendance est d'attirer l'attention sur des problèmes ou anomalies qui, sans leur utilisation, pourraient être ressentis beaucoup plus tard, voire trop tard, ce qui permet de trouver des solutions à ces problèmes assez rapidement. Il est clair que ces tests ne donnent pas directement la solution au problème et ne peuvent en aucun cas remplacer l'interprétation des personnes en charge du développement ou de l'exploitation. Des exemples d'utilisation des résultats de tests de tendance sont donnés dans ce qui suit. TENDANCE GLOBALE Décroissance Croissance u(k) Changements locaux de tendance k TL1 Décroissance fiabilité TG TL2 Croissance fiabilité TENDANCE LOCALE -a- 8 Décroissance fiabilité u(k) CROISSANCE GLOBALE TL1 TL2 Croissance fiabilité k Décroissance fiabilité -b- Figure 2. Facteur de Laplace et changements de tendance Nb cumulé de défaillances N(k) A Intensité de défaillance n(k) k Facteur de Laplace u(k) n(k) N(k) u(k) N(k) u(k) n(k) C k k k B k k k k k TL TL TL N(k) TG u(k) n(k) k D k k A : Croissance de fiabilité B : Décroissance de fiabilité C : Croissance de fiabilité suivie de Décroissance de fiabilité D : Fiabilité stabilisée Figure 3. Lien entre différents indicateurs de tendance Une décroissance de fiabilité au début d'une nouvelle activité telle que a) une nouvelle phase du cycle de vie, b) changement des jeux de test à l'intérieur d'une 9 même phase ou c) ajout de nouveaux utilisateurs, ou d) activation du système avec un profil d'utilisation différent, etc., est généralement attendue et peut être considérée comme normale si elle ne dure pas trop longtemps (cf. [KEN 92] par exemple). La décroissance de fiabilité peut aussi résulter de fautes de régression. La recherche de la cause de cette décroissance pourrait éventuellement révéler des lacunes dans le processus de développement et aider à réorienter le cas échéant l'activité de test. Une telle analyse peut aussi conduire à décider de réécrire la partie du logiciel dont la fiabilité ne cesse de décroître (le nombre de fautes activées par unité de temps ne fait que croître). Une croissance de fiabilité faisant suite à une décroissance de fiabilité indique qu'après correction des premières fautes, l'activité de test correspondante révèle de moins en moins de fautes. Une croissance de fiabilité brutale et de durée relativement longue peut aussi résulter d'un ralentissement de l'activité de test ; elle peut aussi être due au fait que les défaillances ne sont pas enregistrées sur cette période de temps. Il est recommandé de bien analyser les raisons de ces changements. Une fiabilité stabilisée avec très peu de défaillances indique que l'activité en cours a atteint ses limites : l'application des tests correspondants ne révèle plus que peu de fautes et les corrections introduites n'ont plus d'effets perceptibles. Ceci suggère de passer à la phase suivante ou de livrer le logiciel si on estime que le test arrive à sa fin. De façon générale un ensemble de tests doit être appliqué aussi longtemps qu'il continue à entraîner une croissance de fiabilité et peut être arrêté à partir du moment où une fiabilité stabilisée est atteinte. Le fait que la fiabilité stabilisée ne soit pas atteinte pourrait contribuer à la décision de continuer à tester le logiciel plutôt que de le livrer. Notons enfin que l'analyse de la tendance permet aussi de guider le choix d'un modèle de croissance de fiabilité afin d'évaluer les mesures recherchées comme nous le verrons dans la partie suivante. 5. Modèles de croissance de fiabilité Un grand nombre de modèles a été développé depuis une trentaine d'années2, cependant leur utilisation pratique a révélé qu'aucun modèle ne donne des résultats meilleurs que les autres pour tout ensemble de données collectées et dans n'importe quelles conditions. L'un des objectifs de notre approche est d'aider ces modèles à donner de meilleurs résultats. Dans cette partie nous analysons la pertinence des résultats issus des modèles de croissance de fiabilité en fonction de la phase du cycle de vie et montrons comment on peut utiliser conjointement les tests de tendance et les modèles de croissance de fiabilité. Toutefois, afin de faciliter la compréhension des résultats de l'application des modèles de croissance de fiabilité aux données réelles traitées dans la partie 6, nous donnons à la figure 4 l'expression de l'intensité de défaillance ou du taux de défaillance associés aux modèles qui seront appliqués à ces données. 2 Le lecteur peut trouver plus de détails sur les modèles de croissance de fiabilité et les problèmes liés à leur mise en oeuvre pratique dans les références [MUS 87] ou [XIE 91]. 10 Modèle Allure de h(t) ou λ(t) Hyperexponentiel (HE) [LAP 91] h(t) ωζsupe-ζsupt+ πζinfe-ζinft h(t) = ωe-ζ t + πe-ζ t sup t inf Exponentiel (EXP) [GOE 79] h(t) h(t) = N φ exp-φt t Forme de S (SS) [OHB 84] h(t) h(t) = N φ2 t exp-φt t Figure 4. Modèles utilisés par la suite 5.1. Pertinence des résultats des modèles de croissance de fiabilité L'application des modèles de croissance de fiabilité aux données collectées sur un système permet d'évaluer les mesures de fiabilité telles que le taux de défaillance, l'intensité de défaillance ou le nombre cumulé de défaillances. La pertinence des résultats varie considérablement avec la phase du cycle de vie considérée : • Durant les premières phase du développement, les résultats ne sont généralement pas significatifs : les temps jusqu'à défaillance observés sont de l'ordre de quelques minutes à quelques heures, les estimations obtenues ne peuvent être que du même ordre de grandeur ou supérieures d'un ordre de grandeur ; elles sont donc (fort heureusement) loin de ce qui est espéré en vie opérationnelle. De plus, bien souvent, le profil d'exécution est différent du profil opérationnel. Dans ce cas, la validation du logiciel peut être guidée par l'analyse de la tendance comme nous l'avons vu dans la partie précédente. Les estimations peuvent néanmoins servir pour estimer l'effort de test nécessaire pour effectuer les corrections correspondantes. Cependant, étant donné la fréquence de changement des conditions d'utilisation, on ne peut espérer que des estimations à court terme. • Durant les dernières phases de la validation, quand le logiciel devient plus fiable, les temps jusqu'à défaillance deviennent plus grands et les résultats des modèles plus convaincants, plus particulièrement quand le logiciel est activé selon un profil d'exécution proche du profil opérationnel. Cependant, un très petit nombre de défaillances peut rendre les données de défaillance inexploitables par les modèles de croissance de fiabilité. • En exploitation, quand le logiciel est installé sur plusieurs systèmes, les résultats sont généralement très significatifs car nous disposons de véritables données statistiques (voir par exemple [ADA 84] pour des systèmes d'exploitation, [KAN 11 87] pour des autocommutateurs téléphoniques ou [LAR 94] pour des applications nucléaires). 5.2. Modèles de croissance de fiabilité et tendance L'application des modèles de fiabilité sans traitement préalable peut mener à des résultats non réalistes quand les données collectées suivent une tendance différente de celle supposée par les modèles. A l'inverse, quand les modèles sont appliqués à des données ayant la même tendance que celle correspondant à leurs hypothèses, les résultats sont considérablement améliorés [KAN 87, KAN 93]. Du fait que les modèles existants ne permettent de modéliser que deux types de situations : a) intensité de défaillance décroissante (croissance de fiabilité) et b) intensité croissante puis décroissante (décroissance suivie de croissance), il est essentiel d'appliquer les modèles de croissance de fiabilité sur des sous-ensembles de données pour lesquels la tendance est en accord avec les hypothèses de modélisation. Ces sous-ensembles sont identifiés grâce à l'analyse de tendance. En fait les modèles de croissance de fiabilité peuvent être appliqués de la façon suivante : • zone de croissance de fiabilité (figure 3, situation A) : n'importe quel modèle modélisant la croissance de fiabilité uniquement peut être appliqué, • zone de décroissance suivie de croissance (figure 3, situation C) : un modèle en forme de S (S-Shaped) peut être appliqué, • zone de fiabilité stabilisée (figure 3, situation D), un modèle à taux constant est suffisant (processus de Poisson homogène). 5.3. Modèles de croissance de fiabilité et tendance en temps réel Les modèles peuvent être appliqués de façon rétrospective (l'objectif est d'évaluer les mesures de fiabilité sur la période de temps passée à partir des données collectées) ou de façon prévisionnelle (l'objectif est alors de prévoir le comportement du logiciel pour une période future). Dans ce dernier cas, les prévisions sont aussi basées sur les observations effectuées sur le système et on ne peut se servir que des informations disponibles au moment de l'évaluation. Il est donc très important de s'assurer de la validité des résultats ou du moins de s'assurer que les résultats ne sont pas aberrants sur la période d'observation (validité rétrospective). L'analyse de la tendance permet dans ce cas de bien choisir la période de temps passée sur la quelle le modèle sera appliqué ainsi que le modèle à appliquer. En général, on peut avoir confiance dans les résultats d'un modèle aussi longtemps que les conditions d'utilisation du système restent globalement inchangées (pas de changements majeurs dans la stratégie de test ou dans les spécifications, pas d'introduction de nouveaux utilisateurs avec des profils d'utilisation significativement différents des autres). Néanmoins même dans ces situations, une décroissance de fiabilité peut avoir lieu. Dans un premier temps, on peut considérer qu'elle résulte de fluctuations locales dues aux aléas des occurrences des défaillances, et qu'elle va disparaître prochainement ; on continue donc à avoir confiance dans les résultats des évaluations. Si la fiabilité continue à décroître de façon significative, on ne peut plus faire confiance aux résultats des prévisions ; il 12 faut attendre qu'il y ait à nouveau croissance de fiabilité, faire une nouvelle partition des données et effectuer de nouvelles prévisions. Si les conditions d'utilisation changent, une attention toute particulière doit être portée aux changements de tendance qui peuvent en résulter et qui peuvent entraîner des prévisions erronées. L'application des tests de tendance est d'une grande aide : • si aucun changement de tendance n'est perçu, on continue à avoir confiance dans les résultats, • si, au contraire, une décroissance de fiabilité se fait sentir, il faut attendre qu'il y ait à nouveau croissance de fiabilité, faire une partition des données et effectuer de nouvelles prévisions. 6. Étude d'un cas réel Afin d'illustrer certains aspects de la méthode, nous considérons les données collectées sur le logiciel d'un autocommutateur téléphonique observé pendant une période couvrant la fin de la validation et le début de la vie opérationnelle. L'autocommutateur permet le raccordement de 4096 abonnés. Le logiciel a été développé selon un processus développement en cascade ("Waterfall model") ; il est écrit en langage Assembleur. Les données relatives à l'activation et à l'élimination des fautes dans le logiciel ont été répertoriées dans des rapports de défaillance (RD). Le filtrage des informations contenues dans ces rapports a permis de retenir les seuls rapports qui sont utiles pour l'étude de la fiabilité du logiciel. Pendant la période considérée (32 unités de temps), 210 RDs ont été retenus : 73 RDs pendant la fin de la validation (8 unités de temps) et 137 RDs pendant le début de la vie opérationnelle (24 unités de temps). Il est à noter que le nombre de systèmes (autocommutateurs) mis en service durant la vie opérationnelle à augmenté progressivement et a atteint le nombre de 42 à la fin de la période considérée. Nous ne pouvons malheureusement pas, par manque de place, illustrer toutes les étapes de la méthode que nous avons présentées dans les parties précédentes. Nous nous limitons à l'analyse de la tendance appliquée à toutes les données collectées et l'évaluation de la fiabilité du logiciel en vie opérationnelle. Outre l'évaluation de la fiabilité opérationnelle du logiciel et de ses composants, nous évaluons les mesures relatives à la prévision de l'effort de maintenance nécessaire pour la correction des fautes du logiciel. 6.1. Décomposition du logiciel Le logiciel est structuré en modules élémentaires. Ces modules peuvent être regroupés en quatre composants correspondant aux principales fonctions mises en oeuvre : • Téléphonie : traitement local d'appels et taxation. • Défense : tests en ligne, mesures de trafic, supervision des alarmes. • Interface-périphériques : communication et gestion des interfaces avec les périphériques locaux (mémoires de masse, terminaux et panneaux d'alarmes). 13 • Interface-joncteurs : gestion des signaux acoustiques et des échanges avec les organes extérieurs (contrôle des joncteurs d'entrée/sortie, et des canaux numériques). Les données collectées peuvent être ainsi regroupées en sous ensembles de données conformément à cette décomposition. La figure 5 donne la taille (en kilooctets) et le nombre de corrections effectuées sur chacun de ces composants durant la vie opérationnelle. Il à noter que la somme des corrections effectuées sur l'ensemble des composants (146) est supérieure au nombre de corrections effectuées sur le logiciel global durant la vie opérationnelle (137). Ceci s'explique par le fait que 11 RDs ont conduit à la correction de plusieurs composants à la fois illustrant ainsi la non indépendance totale des différents composants vis-à-vis de l'occurrence des défaillances. Cependant, il faut noter que cette dépendance est relativement faible (environ 10% des RDs correspondent à ce cas). Téléphonie Défense Interface-périphériques Interface-joncteurs Total Taille (kilo-octets) 75 103 115 42 335 Nombre de corrections 40 47 41 18 146 Figure 5. Taille des composants et nombre de corrections effectuées en opération 6.2. Analyse de la tendance La figure 6-a donne les valeurs du facteur de Laplace calculées à partir de toutes les données collectées et en considérant l'ensemble des systèmes mis en service pour ce qui concerne la vie opérationnelle. On peut remarquer qu'il y a eu une décroissance de fiabilité entre les unités de temps 4 et 6. Cette décroissance résulte du changement du type de tests appliqués pendant cette période de la validation conduisant à l'activation de nouvelles parties du logiciel. On peut noter également que le logiciel a été installé sur les sites opérationnels avant d'observer une croissance significative de sa fiabilité. Cependant, on peut remarquer qu'il y a eu globalement une tendance de croissance de fiabilité durant la vie opérationnelle. La figure 6-b montre l'évolution du facteur de Laplace en considérant les données relevées pendant la vie opérationnelle uniquement, permettant ainsi de révéler des fluctuations locales de la tendance durant la période couvrant les unités de temps 14 à 24. Ces fluctuations sont difficiles à percevoir à partir de la figure 6. Ces résultats confirment ainsi que l'élimination d'une partie des données qui sont à l'origine d'une décroissance de fiabilité (c'est-à-dire correspondant à une valeur positive du facteur de Laplace) a) conduit à des valeurs négatives du facteur de Laplace et b) amplifie les fluctuations locales de la tendance (cf. §. 4-2). Les fluctuations relatives à la période 14-24 sont dues à la mise en service progressive de 40 nouveaux systèmes durant cette période. Afin d'analyser l'évolution de la fiabilité telle qu'elle est perçue par un système moyen, on peut considérer les intensités de défaillance divisées par le nombre de 14 systèmes en service et appliquer le test de Laplace aux données obtenues. Les résultats sont donnés sur la figure 7 : la courbe obtenue est plus lisse que celle de la figure 6-b et les fluctuations locales ont disparu. Notons que les variations observées entre les unités de temps 14 et 17 sont dues à la mise en service de 6 nouveaux systèmes. u(k) 6 4 2 Unité de temps 0 -2 2 4 6 8 10 12 14 16 18 20 22 24 26 28 30 32 -4 -6 Validation Opération -8 -a- validation et opération u(k) 2 Unité de temps 0 -2 9 11 13 15 17 19 21 23 25 27 29 31 -4 -6 Opération -8 -b- opération uniquement Figure 6. Facteurs de Laplace pour tous les systèmes u(k) 2 Unité de temps 0 -2 9 11 13 15 17 19 21 23 25 27 29 31 -4 -6 -8 -10 -12 Opération Figure 7. Facteur de Laplace pour un système moyen On peut noter à partir de la figure 7 que la croissance de fiabilité du logiciel est maintenue pendant la vie opérationnelle et tend à être monotone à partir de l'unité de temps 17. Ce comportement a été observé également pour les quatre composants du logiciel (en considérant un système moyen aussi) comme l'illustre la figure 8. Cette figure révèle aussi des fluctuations locales de tendance pour tous les composants durant la période 14-16, et surtout pour le composant "Interface-joncteurs" 15 6.3. Application de modèles de croissance de fiabilité Nous adoptons d'abord le point de vue de l'utilisateur en évaluant l'intensité de défaillance et le taux de défaillance résiduel du logiciel en opération à partir des données relatives à un système moyen. Ensuite, nous adoptons le point de vue du fournisseur en évaluant le nombre moyen de défaillances estimé pour une période future et pour l'ensemble des systèmes en service, dans un objectif de planification de l'effort de maintenance. 6.3.1. Taux de défaillance résiduels du logiciel global et de ses composants Les résultats de l'analyse de tendance présentés dans la figure 7 montrent une croissance de fiabilité monotone durant les 15 dernières unités de temps. Ces résultats permettent de guider l'application des modèles de croissance de fiabilité ; ils suggèrent le choix d'un modèle qui décrit une croissance de fiabilité monotone (c'est-à-dire à intensité de défaillance décroissante). L'intensité de défaillance et le taux de défaillance résiduel du logiciel sont évalués à partir du modèle hyperexponentiel (HE) qui est le seul modèle qui permet d'évaluer cette mesure. Le modèle HE est appliqué au logiciel global et à ses composants durant les 15 dernières unités de temps. Les intensités de défaillance estimées par le modèle HE pour chacun des composants et les intensités de défaillance observées sont présentées sur la figure 9. La figure 10 donne les valeurs des taux de défaillance résiduels correspondants estimés par HE : Interface-périphériques est le composant le moins fiable et Téléphonie est le composant le plus fiable. Afin d'apprécier la validité des résultats fournis par le modèle, nous présentons également sur la figure 10 les valeurs moyennes du taux de défaillance calculées directement à partir des données observées durant les 10 dernières unités de temps. On peut remarquer que les valeurs observées sont légèrement supérieures aux valeurs estimées par le modèle, ce qui est normal étant donné que le modèle estime le comportement du logiciel quand il atteint un régime stabilisé. Cependant, on constate que les deux valeurs sont très proches pour les composants Défense et Interface-périphériques ; on peut en conclure que ces deux composants ont pratiquement atteint leur régime stabilisé pendant les 10 dernières unités de temps alors que la fiabilité des composants Téléphonie et Interface-périphériques a continué à évoluer pendant cette période. On peut noter que les différents composants ont des comportements différents : l'amélioration de la fiabilité des composants "Téléphonie" et "Interfaces-joncteurs" est plus rapide que celle des deux autres composants ; de plus ces composants possèdent relativement les intensités de défaillance les plus élevées pendant les premières unités de temps de la période considérée. Les composants "Défense" et "Interface-périphériques" sont caractérisés par des intensités de défaillance plus faibles (c'est-à-dire une meilleure fiabilité) au début ; cependant l'amélioration de leur fiabilité a été plus lente pendant les périodes suivantes ce qui explique le fait que vers la fin de cette période ils ont été moins fiables que les deux autres composants. La figure 11 présente les résultats fournis par l'application directe du modèle hyperexponentiel aux données relatives au logiciel global. 16 Les figures 9 et 11 suscitent les commentaires suivants : • L'évaluation de l'intensité de défaillance du logiciel global uniquement ne permet pas d'observer l'évolution des intensités de défaillance des composants et masque de ce fait cette évolution. • Le taux de défaillance résiduel estimé à partir de l'application directe du modèle HE à toutes les données (5,7 10-5/h) est du même ordre de grandeur que celui obtenu par la sommation des intensités résiduelles des composants estimées (5,3 105/h) bien que les composants ne soient pas totalement stochastiquement indépendants vis-à-vis de l'occurrence des défaillances. • On peut penser que le taux de défaillance résiduel estimé pour le logiciel étudié est relativement élevé si on le compare à d'autres logiciels de télécommunication (de l'ordre de 10-6/h). Cependant, il faut remarquer que toutes les défaillances observées du logiciel ont été considérées dans cette analyse, quelle que soit leur sévérité. Le taux estimé inclut donc aussi bien des défaillances dont les conséquences sont mineures que des défaillances ayant des conséquences plus graves. Malheureusement, les informations concernant la sévérité des défaillances n'ont pas été systématiquement incluses dans les relevés de défaillance ce qui nous a empêché d'évaluer la fiabilité du logiciel en tenant compte des conséquences des défaillances. 6.3.2. Planification de l'effort de maintenance Nous adoptons dans ce paragraphe le point de vue du fournisseur (plus précisément celui du responsable de la maintenance) dans un objectif de planification de l'effort de maintenance nécessaire pour la correction des fautes résiduelles qui pourraient être activées pendant la vie opérationnelle. Dans cet objectif, nous considérons toutes les défaillances relevées à partir de tous les systèmes en service; les données considérées sont celles de la figure 6-b. 17 u(k) 1 -1 1 Unité de temps 11 13 15 17 19 21 23 25 27 29 31 observé estimé par HE 0,8 0,6 0,4 -3 0,2 -5 0 17 -7 Unité de temps 19 21 u(k) 1 -1 23 25 29 31 1 Unité de temps 11 13 15 17 19 21 23 25 27 29 31 0,8 0,6 0,4 -3 0,2 -5 0 17 -7 Unité de temps 19 21 Défense u(k) 1 -1 23 25 27 29 31 Défense Unité de temps 11 13 15 17 19 21 23 25 27 29 31 1 0,8 0,6 0,4 -3 0,2 -5 0 17 -7 Unité de temps 19 21 23 25 27 29 31 Interface-périphériques Interface-périphériques 1 u(k) 1 -1 27 Téléphonie Téléphonie Unité de temps 11 13 15 17 19 21 23 25 27 29 31 0,8 0,6 0,4 -3 0,2 -5 0 17 -7 Unité de temps 19 21 23 25 27 29 31 Interface-joncteurs Interface-joncteurs Figure 8. Facteurs de Laplace Figure 9. Intensités de défaillance Taux résiduel estimé par HE Taux moyen observé (10 dernières unités de temps) Téléphonie 1,2 10-6/h 1,0 10-5/h Défense 1,4 10-5/h 1,6 10-5/h Interface-périphériques 2,9 10-5/h 3,7 10-5/h Interface-joncteurs 8,5 10-6/h 2,0 10-6/h Figure 10. Taux de défaillance moyens observés et résiduels estimés par HE 18 Intensité de défaillance 2,5 observé estimé par HE 2 Taux de défaillance 1,5 Observé (10 dernières unités de temps) 7,4 10 5 /h Estimé 1 5,7 10 - 5 /h 0,5 Unité de temps 0 17 19 21 23 25 27 29 31 Figure 11. Intensités de défaillance observées et estimées par HE La figure 6-b montre que le logiciel a manifesté une croissance de fiabilité globale sur toute la période opérationnelle. Ceci suggère le choix d'un modèle de croissance de fiabilité qui modélise une intensité de défaillance décroissante : les modèles HE et le modèle exponentiel (EXP) appartiennent à cette catégorie. La figure 12 présente les résultats d'application de ces modèles en utilisant les données correspondant à la vie opérationnelle. En plus de ces deux modèles, nous avons appliqué le modèle en forme de S (SS) afin de comparer les résultats des différents modèles et d'illustrer l'intérêt de faire une analyse de tendance avant toute application de modèle. Nombre cumulé de défaillances HE 230 EXP 210 190 170 SS 150 130 prévision 110 observé 90 70 Unité de temps 9 11 13 15 17 19 21 23 25 27 Nb défaillances EXP HE SS Observées de 20 à 32 33 37 9 34 29 31 Figure 12. Nombre cumulé de défaillances en opération estimé à partir de [9 - 20] 19 Pour obtenir les résultats de la figure 12, nous avons utilisé les données correspondant à la moitié de la période considérée (unités de temps 9 à 19) pour estimer les paramètres des modèles, et évaluer de façon prévisionnelle le nombre cumulé de défaillances qui pourraient être observées durant les périodes suivantes. La figure 12 montre, de façon non surprenante, que les modèles HE et EXP fournissent des résultats qui sont proches des valeurs observées alors que les résultats de SS sont trop optimistes. Les prévisions du nombre cumulé de défaillances pendant la période 20-32 sont égales à 37 et 33, pour HE et EXP respectivement, et uniquement 9 pour SS ; ces valeurs sont à comparer avec 34 qui est le nombre de défaillances observées pendant cette période. Les mauvais résultats obtenus à partir du modèle SS ne sont pas surprenants compte tenu du fait que, durant la période considérée, les hypothèses de ce modèle ne sont pas satisfaites. En effet, ce modèle modélise une intensité de défaillance qui est initialement croissante (décroissance de fiabilité) et qui décroît par la suite (croissance de fiabilité). La figure 6-a suggère l'application du modèle SS en utilisant les données collectées dès le début de la période d'observation afin d'intégrer le changement de tendance qui a eu lieu pendant la période couvrant les unités de temps 5 à 9 afin de satisfaire les hypothèses du modèle. Les résultats sont donnés sur la figure 13 et on peut observer une nette amélioration des prévisions fournies par le modèle. Nombre cumulé de défaillances 200 160 SS 120 prévision 80 observé 40 Unité de temps 0 1 3 5 7 9 11 13 15 17 19 21 23 25 27 29 31 Nb défaillances SS Observées de 20 à 32 40 34 Figure 13. Nombre cumulé de défaillances estimé par SS à partir de [1 -20] L'exemple ci-dessus montre que l'utilisation des tests de tendance peut améliorer de façon significative les résultats des modèles si ceux-ci sont appliqués à des données qui représentent un comportement cohérent avec leurs hypothèses. De plus, si ce critère est respecté, on peut appliquer plusieurs modèles en considérant des périodes de temps différentes et obtenir des résultats équivalents. 20 7. SoRel : outil d'analyse et d'évaluation de la fiabilité du logiciel Afin de faciliter la mise en oeuvre de la méthode, nous avons développé SoRel qui est un outil d'aide à l'analyse de la tendance et à l'évaluation de la fiabilité du logiciel. Il est constitué de deux modules permettant a) l'exécution de tests de tendance (TENDANCE), et b) l'application de modèles de croissance de fiabilité (MODÈLES). Les données traitées par SoRel peuvent être soit sous la forme temps jusqu'à défaillances, soit sous la forme nombre de défaillances par unité de temps. SoRel est mis en oeuvre sur un Macintosh II-xx possédant un co-processeur arithmétique. Il est doté d'une interface homme-machine conviviale utilisant en particulier les facilités de multi-fenêtrage et d'interactivité du Macintosh. Le programme propose à l'utilisateur un ensemble de tests de tendance et de modèles de croissance de fiabilité. Néanmoins, SoRel est développé de façon modulaire ce qui permet d'introduire facilement de nouveaux tests de tendance ou modèles de croissance sans modifier de façon significative la structure du programme. Le programme est écrit en Pascal (5 000 lignes de code source) ; le code objet occupe environ 250 kilo-octets. Les deux modules (TENDANCE et MODÈLES) utilisent les mêmes fichiers en entrée qui peuvent être créés et modifiés par n'importe quel logiciel de traitement de texte ou éditeur graphique. Les résultats numériques d'exécution sont affichés directement sur l'écran pendant l'exécution et peuvent être représentés, sur demande de l'utilisateur, sous forme de courbes. Ces résultats sont sauvegardés sous la forme de fichiers ASCII et peuvent être utilisés par d'autres applications Macintosh (Excel en particulier) afin de comparer les résultats obtenus à partir de différentes applications de modèle par exemple. 7.1. Le module "TENDANCE" SoRel permet d'exécuter plusieurs tests de tendance. Le choix d'un test de tendance en fonction du type de données de défaillance est effectué à l'aide de fenêtres sous forme de menus ou d'options à sélectionner comme illustré sur les figures 14 et 15. Le choix d'un fichier de données en entrée sur un disque peut être effectué de façon automatique en parcourant l'arborescence du disque (cf. figure 16) : il n'est pas indispensable que le fichier d'entrée soit dans le même dossier que celui de l'application. Les tests de tendance peuvent être appliqués à toutes les données du fichier d'entrée ou bien uniquement à un sous-ensemble. SoRel propose aux utilisateurs de choisir de façon interactive, par le biais d'une fenêtre affichée à l'écran, le sousensemble des données auquel le test doit être appliqué (cf. figure 17). La figure 18 présente un exemple de résultats graphiques fournis par "TENDANCE". Les résultats sont stockés sous forme de fichiers et peuvent être utilisés par d'autres applications. 21 Figure 14. Choix d'un test de tendance Figure 15. Choix du type de données Figure 16. Sélection du fichier d'entrée 22 Figure 17. Définition du sous-ensemble des données d'entrée Figure 18. Résultats graphiques fournis par "TENDANCE" 7.2. Le module "MODÈLE" L'utilisateur sélectionne le modèle (Figure 19) le mieux adapté aux sousensembles de données selon le résultat des tests de tendance et également en fonction des mesures qui correspondent aux objectifs de l'étude de fiabilité. Il doit indiquer le type des données d'entrée ainsi que la mesure qu'il cherche à évaluer (cf. figure 20), il doit ensuite fournir un certain nombre d'éléments d'information en fonction du modèle choisi (cf. figure 21). 23 Figure 19. Choix du modèle Figure 20. Choix du type des données d'entrée et de la mesure à évaluer La zone PS, destinée à l'initialisation des paramètres du modèle, est nécessaire quand l'estimation de ces paramètres est effectuée par la méthode d'optimisation numérique de Powell. L'utilisateur doit fournir dans ce cas des valeurs initiales des paramètres qui se rapprochent de l'optimum. La zone DP, destinée au partitionnement des données, permet à l'utilisateur a) de choisir le sous-ensemble de données qui servira à l'estimation des paramètres du modèle, et b) l'intervalle de temps pour lequel il cherche à obtenir des prévisions. Le programme laisse également à l'utilisateur le choix d'utiliser ou non une fenêtre glissante pour calibrer le modèle (zone C). Dans le cas où cette option est validée, l'utilisateur doit fixer la taille de la fenêtre souhaitée ou bien utiliser la valeur par défaut qui est égale à 20. Dans ce cas, l'estimation des paramètres est basée sur les 20 dernières données du fichier d'entrée et non pas sur toutes les données comme c'est le cas lors d'une utilisation classique sans fenêtre. Enfin, la zone V, permet de fixer la période pour laquelle les critères de validation des résultats du modèle sont évalués. Cette période ne doit pas être nécessairement égale à la période de prévision. La commande "Set options" permet d'ajuster certains paramètres (fixés par défaut) spécifiques de la 24 procédure d'optimisation numérique utilisée pour l'estimation des paramètres des modèles, tels que le nombre maximal d'itérations, les critères de convergence, etc. PS DP C V Figure 21. Initialisation des paramètres nécessaires à l'application des modèles Les courbes correspondant aux résultats des évaluations sont affichées à la demande de l'utilisateur ; un exemple de courbes est donné à la figure 22. Les critères de validation des résultats des modèles sont fournis conjointement avec les résultats numériques. Figure 22. Résultats graphiques 8. Conclusion Nous avons présenté une méthode et un outil permettant de mener des analyses et des évaluations de la fiabilité du logiciel basés sur des données collectées sur le système. Nous avons développé les différentes étapes de la méthode en mettant l'accent sur les objectifs et les résultats de chacune de ces étapes. Nous avons 25 également illustré certains aspects de notre approche sur des données collectées sur un système réel. Par ailleurs, nous avons appliqué la méthode proposée avec succès à plusieurs cas réels dont une synthèse est présentée sur la figure 23. Système Langage Taille Durée Phases # Syst. # RD et/ou RC E10-B Assembleur 100 k-oct 3 ans Val. / Op. 1400 58 RD / 136 RC ESS1 Assembleur 300 k-oct 27 mois Val. / Op. 15 465 RD/RC ESS2 Assembleur 350 k-oct 32 mois Val. / Op. 42 210 RD/RC ESS3 Assembleur 420 k-oct 47 mois 37 212 RD/RC 815 k-Li 68 mois Val. / Op. ESS4 CHILL Equip. Tél. PLM-86 ST variés 5 105 inst. 16 mois -- 4 ans Equip. Tél. : équipement de Télécommunications Val. : validation RD : rapport de défaillance Op. 146 3063 RD/RC Val. 4 2150 RD Op. 1 414 RD ST : Station de travail Op. : opération RC: rapport de correction Figure 23. Caractéristiques de quelques logiciels étudiés Les logiciels ESS1, ESS2 et ESS3 correspondent à trois générations successives d'un même produit. Les études comparatives effectuées dans [KAA 93] pour les deux premiers, et dans [KAA 94] pour l'ensemble des trois, ont permis en plus d'analyser l'influence du processus de développement sur l'évolution de la fiabilité des générations3. 3 Ces études comparatives de plusieurs générations s'insèrent dans une approche plus générale : l'approche produit-processus introduite dans 26 Les applications présentées à la figure 23, conduites pendant une dizaine d'années et facilitées par l'utilisation de SoRel, nous ont permis d'améliorer notre méthode au fur et à mesure des applications. Au vu des résultats obtenus et forts de notre expérience cumulée, nous estimons que notre méthode a atteint un niveau de maturité suffisant qui permet de l'intégrer dans les programmes de contrôle de qualité du logiciel dans les milieux industriels. [LAP 92] . 27 Bibliographie [ADA 84] N. ADAMS, "Optimizing Preventive Service of Software Products", IBM Journal of Research and Development, 28 (1), pp. 2-14, 1984. [ASC 84] H. ASCHER et H. FEINGOLD, Repairable Systems Reliability: Modeling, Inference, Misconceptions and Their Causes, Vol. 7, 1984. [BAS 84] V. R. BASILI et D. M. WEISS, "A Methodology for Collecting Valid Software Engineering Data", IEEE Transactions on Software Engineering, 10 (6), pp. 728-738, 1984. [COM 89] P. COMER, "Reliability Data Collection and the Software Data Library", dans Actes 6th EUREDATA Conf., pp. 824-839, Sienna, Italy, 1989. [COX 66] D. R. COX et P. A. W. LEWIS, The Statistical Analysis of Series of Events, Monographs on Applied Probability and Statistics, Chapman and Hall, London, 1966. [GAU 90] O. GAUDOIN, Outils statistiques pour l'évaluation de la Fiabilité des logiciels, Thèse de Doctorat, Université Joseph Fourier, Grenoble 1, 1990. [GOE 79] A. L. GOEL et K. OKUMOTO, "Time-Dependent Error Detection Rate Model for Software and Other Performance Measures", IEEE Trans. on Reliability, R-28, pp. 206211, 1979. [GRA 87] R. B. GRADY et D. L. CASWELL, Software Metrics: Establishing a Company-Wide Program, Prentice-Hall, Inc., Englewood Cliffs, New Jersey, USA, 1987. [IYE 82] R. IYER, S. E. BUTNER et E. J. Mcluskey, "A Statistical Failure/Load Relationship: Results of a Multicomputer Study", IEEE Trans. on Computers, C-31 (4), pp. 697-706, 1982. [KAA 90] M. KAANICHE, K. KANOUN et S. METGE, "Analyse des défaillances et suivi de la validation du logiciel d'un équipement de télécommunication", Annales des télécommunications, 45 (11-12), pp. 657-670, 1990. [KAA 93] M. KAANICHE et K. KANOUN, "Software Failure Data Analysis of two Successive Generations of a Switching System", dans Actes 12th Int. Conf. on Computer Safety, Reliability and Security (SAFECOMP'93), pp. 230-239, Poznan-Kiekrz, Poland, 1993. [KAA 94] K. KAANICHE, K. KANOUN, M. Cukier et M. Bastos Martini, "Software Reliability Analysis of Three Successive Generations of a Switching System", dans Actes First European Conference on Dependable Computing (EDCC-1), pp. 473-490, Berlin, Germany, 1994. [KAN 87] K. KANOUN et T. SABOURIN, "Analyse des Défaillances et Evaluation de la Sûreté de Fonctionnement du Logiciel d'un Autocommutateur Téléphonique", Technique et Science Informatique, 6 (4), pp. 287-304, 1987. [KAN 91] K. KANOUN, M. BASTOS MARTINI et J. MOREIRA de SOUZA, "A Method for Software Reliability Analysis and Prediction-Application to The TROPICO-R Switching System", IEEE Trans. Software Engineering, SE-17 (4), pp. 334-344, 1991. [KAN 92] K. KANOUN, M. KAANICHE, J.-C. LAPRIE et S. METGE, "SoRel : outil d'analyse et d'évaluation de la fiabilité du logiciel à partir de données statistiques de défaillance", dans Actes 8ème Colloque de Fiabilité et de Maintenabilité, pp. 422-431, Grenoble, France, 1992. [KAN 93] K. KANOUN, M. KAANICHE et J.-C. LAPRIE, "Experience in Software Reliability: From Data Collection to Quantitative Evaluation", dans Actes 4th Int. Symp. on Software Reliability Engineering (ISSRE'93), pp. 234-245, Denver, CO, USA, 1993. [KAN 94] K. KANOUN et J.-C. LAPRIE, "Software Reliability Trend Analyses: from Theoretical To Practical Considerations", IEEE Transactions on Software Engineering, 20 (9), pp. 740-747, 1994. [KAN 95] K. KANOUN et J.-C. LAPRIE, "Trend Analysis", dans Software Reliability Engineering Handbook, (M. Lyu, Ed.), Ch. 10, Mc Graw Hill, 1995. 28 [KEN 92] G. Q. KENNEY et M. A. VOUK, "Measuring the Field Quality of Wide-Distribution Commercial Software", dans Actes 3rd Int. Symp. on Software Reliability Engineering (ISSRE'92), pp. 351-357, Raleigh, NC, USA, 1992. [LAP 91] J.-C. LAPRIE, K. KANOUN, C. BEOUNES et M. KAANICHE, "The KAT (KnowledgeAction-Transformation) Approach to the Modeling and Evaluation of Reliability and Availability Growth", IEEE Trans. Software Engineering, SE-17 (4), pp. 370-382, 1991. [LAP 92] J.-C. LAPRIE, "For a Product-in-a Process Approach to Software Reliability Evaluation", dans Actes 3rd Int. Symp. on Software Reliability Engineering, pp. 134139, Raleigh, NC, USA, 1992. [LAR 94] A. LARYD, "Operating Experience of Software in Programmable Equipment Used in ABB Atom Nuclear I&C Applications", dans Actes IAEA, Technical Committee Meeting, pp. 1-12, Helsinki, Finland, 1994. [LEV 90] Y. LEVENDEL, "Reliability Analysis of Large Software Systems: Defects Data Modeling", IEEE Trans. Software Engineering, SE-16 (2), pp. 141-152, 1990. [MUS 87] J. D. MUSA, A. IANNINO et K. OKUMOTO, Software Reliability: Measurement, Prediction, Application, Computer Science Series, McGraw-Hill, New-York, 1987. [OHB 84] M. OHBA, "Software Reliability Analysis Models", IBM Journal of Research and Development, 21 (4), pp. 428-443, 1984. [ROS 89] N. ROSS, "The Collection and Use of Data for Monitoring Software Projects", dans Measurement for Software Control and Assurance, (B. A. Kitchenham and B. Littlewood, Ed.), pp. 125-154, Elsevier Applied Science, London and New York, 1989. [TRO 86] R. TROY et Y. ROMAIN, "A Statistical Methodology for the Study of the Software Failure Process and Its Application to the ARGOS Center", IEEE Trans. on Software Engineering, SE-12 (9), pp. 968-978, 1986. [XIE 91] M. XIE, Software Reliability Modeling, World-Scientific, Singapore, 1991. 29
{'path': '28/hal.archives-ouvertes.fr-hal-01212188-document.txt'}
Les Technologies de l'Information Geographique : Aubaine ou obstacle pour produire ensemble des donnees sur le territoire ? Matthieu Noucher, Marie-Hélène de Sède-Marceau, Golay François, Pornon Henri To cite this version: Matthieu Noucher, Marie-Hélène de Sède-Marceau, Golay François, Pornon Henri. Les Technologies de l'Information Geographique : Aubaine ou obstacle pour produire ensemble des donnees sur le territoire ?. Conférence OPDE 2006 (Les Outils pour Décider Ensemble), Nov 2006, Paris, France. pp.15. halshs-00647050 HAL Id: halshs-00647050 https://halshs.archives-ouvertes.fr/halshs-00647050 Submitted on 1 Dec 2011 [ OPDE 2006 ] Les Outils Pour Décider Ensemble Paris Dauphine, les 2 et 3 novembre 2006 Les Technologies de l'Information Géographique : Aubaine ou obstacle pour produire ensemble des données sur le territoire ? Matthieu Noucher (*) IETI Consultants / Ecole Polytechnique Fédérale de Lausanne Marie-Hélène de Sède - Marceau Université de Franche Comté François Golay Ecole Polytechnique Fédérale de Lausanne Henri Pornon IETI Consultants (*) IETI Consultants 9 rue Lacretelle F-71000 Mâcon matthieu.noucher@ieti.fr Tél : 03.85.21.91.91 Fax : 03.85.21.91.92 Mots clés : données géographiques, co-production, communauté, consensus, 1 Les Technologies de l'Information Géographique : Aubaine ou obstacle pour produire ensemble des données sur le territoire ? Résumé : Le déploiement des Systèmes d'Information Géographiques dans les collectivités, les administrations ou les entreprises se révèle être un véritable catalyseur de l'ouverture interorganisationnelles. Ainsi, la création de partenariats autour de l'information géographique est en forte croissance depuis plusieurs années. Initiées généralement pour acquérir à frais partagés des référentiels cartographiques, les dynamiques partenariales tentent de diversifier leurs champs d'action : elles s'intéressent désormais à la mise en place de plate-forme d'échange voire de co-production des données géographiques. A travers ces initiatives, les acteurs du territoire passent ainsi d'une logique du « décider seul avec les données des autres » à un premier niveau de « décider ensemble » puisqu'ils tentent de produire à plusieurs des représentations cartographiques du territoire. Nous proposons ici de présenter le contexte de ces partenariats d'un genre nouveau puisqu'ils s'orientent davantage vers des communautés de pratique (CDP) que vers des infrastructures de données spatiales (IDS) plus classiques. Nous étudierons ensuite le processus de coproduction de données au regard des théories des CDP et tenterons d'analyser le rôle des technologies de l'information géographique. Face aux lacunes qui sont alors mises en évidence, l'exposé propose quelques pistes de réflexion qui pourront conduire à la recherche d'un nouveau paradigme : le consensus différencié. 2 1. Introduction Cet article s'inscrit dans le cadre plus large d'une thèse1 sur le rôle de la donnée géographique comme support de la coopération entre les acteurs du territoire. Les cadres socio-cognitifs de cette recherche nous permettent d'observer les partenariats autour de l'Information Géographique sous un angle différent des questions traditionnellement évoquées (aspects juridiques, technologiques ou institutionnels). Les dynamiques partenariales tentent, actuellement, de diversifier leurs champs d'action : du simple achat de référentiels cartographiques à frais partagés, elles s'intéressent désormais à la mise en place de plateforme d'échange voire de co-production des données géographiques. Les acteurs du territoire passent ainsi d'une logique du « décider seul avec les données des autres » à un premier niveau de « décider ensemble » puisque, sans s'inscrire pleinement dans une logique de projet commun, ils décident à plusieurs les représentations cartographiques qui serviront leurs projets individuels. Nous nous focaliserons sur la situation de co-production des données et sur le rôle des technologies de l'information géographique dans cette nouvelle approche collective du territoire. L'exposé présente rapidement le contexte actuel des dynamiques partenariales autour de l'information géographique (2) en l'organisant dans une typologie qui fait ressortir deux grandes logiques d'action : les infrastructures de données spatiales et les communautés de pratique. Les concepts théoriques de cette dernière sont ensuite développés (3) et le rôle des technologies de l'information géographique y est analysé (4). Face aux lacunes qui sont alors mises en évidence, l'exposé propose quelques pistes de réflexion (5) qui pourraient conduire à la recherche d'un nouveau paradigme : le consensus différencié (6). 2. Les SIG : catalyseurs de l'ouverture inter-organisationnelle. 2.1. Du déploiement intra-organisationnel aux pratiques inter-organisationnelles. Les Systèmes d'Information Géographique se sont progressivement démocratisés coïncidant avec l'arrivée de la micro-informatique et de l'Internet. Leur utilisation s'est banalisée et leur développement a touché de multiples domaines. Ce déploiement intra-organisationnel a 1 Cette thèse est encadrée par les laboratoires LaSIG de l'EPFL et THEMA de l'Université de Franche-Comté et par le société IETI Consultants, via une convention CIFRE. 3 rapidement dévoilé ses limites. Au-delà des perspectives sectorielles (POS, PLH) les approches intégrées (SCOT et autres schémas directeurs) du territoire ont montré la nécessité de croiser des sources d'informations d'origines diverses. Les SIG sont un bon catalyseur de l'ouverture inter-organisationnelle, en ce sens qu'ils questionnent, par leur seul déploiement, les organisations sur leurs relations avec d'éventuelles autres organisations partenaires. Le développement des technologies de l'information géographique a donc logiquement généré une croissance continue (et en voie d'accélération) de dispositifs inter-organisationnels variés tant dans leurs niveaux de formalisation que dans les acteurs et les échelles impliqués. 2.2. Une prise de conscience collective à tous les échelons du territoire. Progressivement, le domaine de l'information géographique prend conscience de ces nécessités de partage, d'échange et de diffusion. [PORNON 1998] explique que les raisons des partenariats peuvent être variées : « Acquisition de données géographiques à frais partagés, échanges de données, participation financière à l'acquisition d'outils ». Les dispositifs institutionnels ayant pour objectif de mobiliser les organisations autour de partenariat se sont multipliés à tous les échelons du territoire. Au niveau continental, le projet INSPIRE se met petit à petit en place pour les données environnementales de l'Union Européenne. Aux USA, le site http://geodata.gov rassemble données, métadonnées et services géographiques des structures publiques nord-américaines et s'inscrit ainsi parfaitement dans la stratégie d'e-government de l'administration américaine. Il existe des infrastructures de données spatiales dans un grand nombre de pays. A l'échelon régional, de multiples structures ont vu le jour en France, dont la plus emblématique est sans doute le Centre Régional de l'Information Géographique de la région Provence-Alpes-Côted'Azur (CRIGE PACA). Au niveau départemental, diverses initiatives ont été lancées dans le cadre des Comités Départementaux de l'Information Géographique. A l'échelle locale, des partenariats sont menés pour répondre aux besoins des entités issues des lois de décentralisation : communautés de communes, communautés d'agglomération, communautés urbaines, pays Enfin, on trouve parfois des initiatives à une échelle infra-communale comme c'est le cas au Canada où une infrastructure de données géographiques à but 4 académique a été créée sur le campus de l'Université Laval couvrant seulement une partie de la ville de Québec. Cependant, si de nombreuses initiatives sont prises, elles n'aboutissent pas forcément à des succès car les partenariats inter-organisationnels sont fragiles. Les expériences vécues en Nouvelle Calédonie (dans le cadre du projet RETIGéo – Réseau d'Echange et de Traitement de l'Information Géographique – qui réunit l'ensemble des Directions du Gouvernement de Nouvelle Calédonie) laissent à penser que les initiatives de participation sont toutes motivées par des intérêts différents qu'il est difficile, surtout sur le long terme, de canaliser et de fédérer. Dans le cadre de projets intra mais aussi inter organisationnels [PORNON, 1997] a bien montré que les réactions de chacun sont menées de façon rationnelle par rapport à la stratégie de chaque acteur et de son organisation. En plus des intérêts personnels de chacun des acteurs, il faut gérer (si du moins c'est possible) les intérêts de chacune des organisations ou plutôt la perception des intérêts de chacune des organisations par les différents acteurs. On se rend alors compte que parfois ces perceptions sont différentes voire divergentes au sein de la même structure, du même service. Dans le cadre de projet inter-organisationnel, on ajoute un niveau de complexité puisqu'on observe un minimum d'interdépendance entre les organisations. C'est d'ailleurs le niveau de contrainte décisionnelle qui nous permet de distinguer l'inter et l'intra organisationnel. Ainsi, l'absence de contrainte décisionnelle défini et complexifie les relations inter-organisationnelles. Parce que les données géographiques coûtent chères, parce que les acteurs qui travaillent sur le même territoire ou la même thématique sont nombreux mais aussi pour répondre aux objectifs de transversalité assignés aux SIG, la mutualisation de l'information géographique est devenue un élément central du déploiement des SIG dans les organisations. Pour pallier aux échecs précédemment cités, les nouvelles relations entre les organisations qui sont générées sont progressivement intégrées dans des cadres coopératifs. Ces derniers prennent des formes et des appellations variées. 2.3. IDG, club, cluster et autres concepts jargonnants Le seul exemple de la région Rhône Alpes suffit à avoir une idée de cette profusion d'initiatives : on y trouve notamment des partenariats locaux entre communes et 5 intercommunalités et entre intercommunalités voisines. Des conventions d'échange de données sont mises en place entre intercommunalités et exploitants de réseau ou association de randonneurs par exemple. Il existe également des infrastructures de données géographiques départementales (La Régie de Gestion des Données des deux Savoie en est un bon exemple) mais aussi des pôles régionaux entre services de l'Etat ou encore des initiatives régionales ouvertes à tous comme le Cluster Rhône-Alpes. Cette liste non exhaustive ne s'intéresse qu'aux partenariats territoriaux dont la donnée géographique constitue le coeur de cible. Nous aurions pu évoquer également les partenariats thématiques dont les enjeux renvoient souvent à des problématiques d'échange ou de co-production de données géographiques (Les SIE – Systèmes d'Information sur l'Eau – en sont un bon exemple). L'objectif de notre recherche n'est pas de faire un tour d'horizon des formules existantes ou encore de passer en revue tous les néologismes qui s'y rattachent. Nous préférons tenter de catégoriser ces différentes notions en fonction de leurs objectifs opérationnels plutôt que d'étudier l'étymologie de chacune de ces appellations. Cette catégorisation nous permet d'ailleurs de dégager les deux logiques évoquées dans le paragraphe suivant. 2.4. Des infrastructures de données spatiales aux communautés de pratique Après avoir étudié plusieurs initiatives de mutualisation de l'information géographique, nous sommes en mesure de distinguer cinq grands objectifs opérationnels : l'acquisition à frais partagés, le catalogage, l'échange de données, la diffusion et enfin, la co-production. On peut alors dégager deux logiques d'action [NOUCHER, 2006]. Figure 1 : Différents objectifs opérationnels pour différentes logiques de mutualisation. 6 La première se rapproche de la notion d'infrastructure de données spatiales (IDS). Elle correspond à un premier niveau d'action collective sur le territoire. [DOUGLAS, 2001] la définit comme une collection de « technologies appropriées, de politiques et de dispositions institutionnelles, qui facilitent la mise à disposition et l'accès aux données spatiales. » Audelà des aspects techniques plusieurs auteurs soulignent que pour développer une IDS et la rendre fonctionnelle, il faut aussi un cadre institutionnel et organisationnel qui définisse clairement les acteurs, leurs fonctions et responsabilités, les bases juridiques et une politique de financement et de tarification. Nous retiendrons de ces initiatives partenariales proches des IDS qu'elles favorisent l'organisation de la production (éviter les redondances) et de la diffusion (faciliter l'accès) des données géographiques. Elles s'orientent donc vers des principes à la fois institutionnels (politiques) et technologiques (normes) pour faciliter la logique du « décider seul avec les données des autres ». D'autres dynamiques se focalisent davantage sur les dimensions liées à la pratique. Elles essayent de favoriser le sentiment d'appartenance à des communautés d'acteurs, des réseaux d'utilisateurs pour développer une culture de l'information géographique. La notion de communautés de pratique (CDP) vise, ainsi, à rapprocher les acteurs pour agir collectivement. La nécessité du « décider ensemble » tente donc de s'exprimer pleinement dans cette dernière logique d'action dont nous allons rappeler brièvement les concepts théoriques. 3. La théorie des communautés de pratique appliquée aux métiers du territoire. 3.1. Origine et définition de la notion de Communauté De Pratique. Les métiers liés aux territoires entraînent les acteurs (urbanistes, agronomes, géomètres, naturalistes, gestionnaires de réseaux) dans la poursuite de toutes sortes de projets guidés par des visions territoriales fortement marquées. Leurs modèles cognitifs du territoire (devrait-on dire des territoires ?) sont, en effet, ancrés dans leur culture professionnelle. Au fur et à mesure que les projets des acteurs s'élaborent et que l'engagement dans leur réalisation s'amplifie, ils s'adaptent aux autres partenaires et au contexte ambiant, en d'autres termes, « ils apprennent » selon l'expression de [WENGER, 1998] qui poursuit : « après un certain temps, cet apprentissage collectif produit des pratiques qui reflètent à la fois l'évolution de nos plans et les relations sociales qui s'ensuivent. Ces pratiques deviennent 7 alors le propre d'une communauté et contribuent à la transformer en entreprise commune. » Les communautés en question sont alors appelées des communautés de pratique. 3.2. Principales composantes des Communautés De Pratique. En associant la dimension communautaire à la pratique, il se dégage trois dimensions fondamentales. Premièrement, l'engagement mutuel suppose que la pratique n'existe que parce que des individus s'engagent dans des actions dont le sens est négocié entre eux. Deuxièmement, l'entreprise commune est le résultat d'un processus collectif de négociation qui reflète la complexité de l'engagement mutuel. Troisièmement, le répertoire partagé comprend « des routines, des mots, des outils, des procédures, des histoires, des gestes, des symboles, des styles, des actions ou des concepts créées par la communauté, adoptés au cours de son existence et devenus partie intégrante de la pratique » [WENGER, 1998]. 3.3. Communauté de pratique et technologie de l'information géographique. Au regard de la théorie des Communautés de Pratique, les projets de géomatique à envergure inter-organisationnelle peuvent aussi être considérés comme des projets ayant pour vocation de générer des communautés de pratique. L'organisation doit ici être comprise dans le sens de [CROZIER et FRIEDBERG, 1977] à savoir comme « une forme repérable où ont lieu des actions collectives ». Actions collectives qui mettent en scène des « individus ou groupes d'individus » qui peuvent donc appartenir indifféremment à des entités institutionnelles (administratives, financières) différentes ou à la même entité. L'exemple suivant est tiré d'une expérience d'accompagnement méthodologique réalisé auprès d'un grand groupe international qui souhaitait équiper tous ces centres régionaux et nationaux d'un même système d'information géographique. Mettant en évidence la spécificité thématique de son métier, ce gestionnaire de réseaux ne souhaitait pas acheter un logiciel standard du marché mais plutôt adapter un noyau SIG en faisant développer des fonctionnalités métier. La première étape était donc de réaliser un cahier des charges fonctionnels qui définissent les fonctionnalités métier attendues. Fonctionnalités qui ellesmêmes ne peuvent être définies qu'en s'appuyant sur un modèle de données clairement établi. Si tous les acteurs étaient alors d'accord pour considérer l'objet géographique TRONCON 8 comme l'entité centrale sur laquelle les cartographies des accessoires et des ouvrages de génie civil devaient se rattacher, aucune définition de cet objet ne concordait. Bien que membres d'une même organisation (au sens économique du terme), des divergences entre les acteurs sont donc rapidement apparues. Elles mettaient en exergue des modèles cognitifs territoriaux différents car comme l'explique [MAJOR, 1999] : « Le territoire peut se définir non seulement comme un espace de ressources mais aussi comme un espace où se négocient l'identité des acteurs et leur légitimité. » Le tableau suivant résume les différentes définitions de ce même objet en fonction des approches territoriales qui sont préconisées par les acteurs. Au-delà d'une culture d'entreprise partagée, largement mis en avant par les responsables de ce projet, qui y accolait une ambition fédératrice, ce sont ici les cultures métier qui s'expriment et qui font naître des divergences. On fait alors ici le constat déjà évoqué par, [FEYT, 2004] : « en voulant jouer un rôle intégrateur, les technologies de l'information géographique ont en fait contribué à souligner, révéler ou exacerber des différences dans les manières qu'ont les métiers du territoire d'appréhender et de modéliser l'espace en se référant à un système de valeurs, à une culture-métier spécifique ». APPROCHE TERRITORIALE DEFINITION DE LA NOTION DE « TRONCON » Approche commerciale Ensemble du réseau situé entre un point de production et un point de livraison (= zonage client). Approche réglementaire Ensemble du réseau soumis à un arrêté réglementaire. Approche financière Unité de découpage financier du réseau. Approche gestionnaire Ensemble des canalisations en état de fonctionnement. Approche technique Un tronçon correspond à une canalisation. Approche technique française Tronçon = Canalisation = regroupement de tubes (tube aller + tube retour) Approche technique polonaise Tronçon = Canalisation = tube isolé. Un tronçon se délimité par une soudure entre deux tubes. 9 Malgré l'appartenance à une même compagnie, les différences entre les futurs utilisateurs du SIG sont nombreuses et complexes : thématique mais aussi formation, formalisme, niveau d'échelle ou encore nationalité. Face à cette mosaïque de profils, reflet de la complexité territoriale, l'enjeu principal consiste, toujours selon [FEYT, 2004], à déterminer : « en quoi et comment cet éparpillement potentiellement stratégique peut ou pourrait permettre aux technologies de l'information géographique de jouer un rôle particulier dans le tissage d'un lien opérationnel entre des « culture-métiers » dont l'ensemble des acteurs professionnels et territoriaux reconnaissent et déplorent la segmentation, sans pour autant vraiment savoir comment y remédier. » Les communautés de pratique peuvent alors être perçues comme l'endroit (réel ou virtuel) où le tissage du lien opérationnel entre les culture-métiers est possible. Elles favorisent en effet l'apprentissage collectif en encourageant le développement de nouvelles pratiques partagées par tous. Les sciences sociales de l'apprentissage considèrent celui-ci comme une participation où se négocient les significations relatives à l'action. La notion de négociation de sens défendue par ce courant de pensée relève donc d'une perspective étroitement incorporée à la pratique. Ainsi, [CHANAL, 2000] précise qu'il faut comprendre le terme négocier dans ces deux sens habituels : « dans le sens de « négocier un prix » (c'est la dimension sociale) et dans celui de « négocier un virage » (c'est la dimension pratique liée au savoir-faire). La définition des modèles de données validée par tous les membres de la société gestionnaire de réseau s'est ainsi construite dans la négociation. Un groupe de travail a été désigné pour définir une notion de TRONCON unanimement partagée. Ce processus s'est appuyé sur une démarche par itération qui a permis d'initialiser, d'affiner puis de finaliser un dictionnaire de données complet. Les itérations ont toutes donné lieu à des négociations dans lesquelles s'exprimaient à la fois l'expertise du terrain et le positionnement stratégique de chacun des acteurs. 4. L'instrumentation limitée des communautés de pratique. 4.1. Omniprésence des TIG dans les discours mais sous-utilisation dans les faits. Si les Infrastructures de Données Spatiales s'appuient largement sur les technologies de l'information géographique (par exemple, les géoservices qui favorisent l'interopérabilité entre les serveurs de données), les Communautés De Pratique sont, en revanche, faiblement 10 instrumentées. On observe, en fait, une situation paradoxale. D'une part, les Technologies de l'Information Géographique sont omniprésentes dans le discours des acteurs alors que, d'autre part, elles sont relativement absentes des phases d'interaction entre ces acteurs. Prenons l'exemple d'un groupe de travail d'une dynamique partenariale que nous observons dans le cadre de nos recherche. Ce groupe de travail se réunit tous les deux mois pour construire collectivement une nomenclature urbaine sur des « territoires à enjeux » d'une région française. Alors que la sémantique (la définition des postes de la nomenclature) semble constituer le coeur du travail, dès la première réunion, les acteurs ignorent les usages (la finalité) de la production pour se focaliser sur des dimensions techniques. On parle très rapidement de format de données, de type de base de données, de logiciels SIG L'amélioration d'anciens éléments appuyés par une réflexion sur les outils permet d'obtenir des résultats concrets plus rapides et donne l'impression d'une production active. La focalisation sur les outils dans le discours des acteurs occulte donc tout le travail de conceptualisation : c'est seulement après deux réunions et 8H de discussion, qu'on commence à s'interroger sur la notion de « territoire à enjeux » qui est pourtant la finalité du projet. On peut alors s'interroger sur la plus value de connaissance territoriale qui sortira d'une telle démarche. S'il est omniprésent dans les discours, le SIG est en revanche absent comme support à la discussion. Les travaux sur les données géographiques sont effectués par les membres du groupe entre chaque réunion. Cette dernière ne donne alors lieu qu'à la présentation des résultats (et non des méthodes) par l'intermédiaire de carte papier. Le SIG est donc encore loin de constituer un support interactif et dynamique de concertation autour des enjeux territoriaux. 4.2. A la recherche du plus petit dénominateur commun. [MAJOR et GOLAY, 2004] ont mis en exergue l'éclatement des métiers du territoire via une analyse lexicale des contextes de concertation. Face à cette diversité des modèles cognitifs territoriaux, on peut s'interroger sur les chances qu'ont les thématiciens de produire ensemble des données géographiques. Pour tenter de faire dialoguer ces différentes cultures-métier, on favorise bien souvent des logiques de compromis. Pour harmoniser les productions cartographiques ou pour créer une synthèse des visions territoriales de chacun des acteurs, on 11 tend à chercher le plus petit dénominateur commun. Si nous revenons à notre exemple du groupe de travail nomenclature urbaine, un tour de table des acteurs permet d'identifier les postes de légende communs qui fourniront ainsi un socle cartographique partagé par tous. Là encore, on peut s'interroger sur la plus value de connaissance territoriale qui émergera de telles actions. Les approches globalisantes, qui tentent de fondre dans un même moule l'ensemble des visions, sont tout à fait discutables. Nous devons éviter ce que [CHRISMAN, 2000] appelle « la camisole de force » que sont les solutions SIG génériques. Elles n'autorisent pas les formes alternatives de représentation du territoire qui constituent pourtant l'intérêt des échanges inter-organisationnels. 5. Vers un nouveau rôle des Technologies de l'Information Géographique ? 5.1. Articuler Infrastructure de Données Spatiales et Communauté De Pratique La question de l'articulation entre les deux logiques d'action précédemment évoquées se pose également. Les technologies de l'information géographique ne peuvent-elles pas s'envisager comme des passerelles entre Infrastructure de Données Spatiales et Communauté de Pratique ? Le tableau suivant présente les grandes caractéristiques de chacune des principes de mutualisation précédemment évoquées : Logiques d'action INFRASTRUCTURE DE DONNEES COMMUNAUTE DE PRATIQUE Objectifs Opérationnels Principes de base Diffusion Catalogue Mise à disposition au meilleur niveau de production Tout public / professionnels Site Web de téléchargement, Géoportail Echange Co-production Apprentissage collectif, confrontation entre experts Communautés métier Plate-forme collaborative, Groupware Interopérabilité - GeoServices Réseau de contacts Statistiques de téléchargement Enquête sur les usages Destinataires Outils Principal levier d'action Evaluation Passerelle Rôle des Technologies de l'Information Géographique ? Il permet d'une part, d'envisager les TIG comme un médiateur entre les deux logiques d'action et, d'autre part, de souligner leur faible présence dans le domaine des communautés de pratique. 12 5.2. Supporter les Communautés De Pratique Dans la perspective du développement d'une dynamique communautaire, il semble pertinent de supporter les CDP en essayant de favoriser la mise en place des composants-clés que nous avons précédemment évoqués. Ainsi, l'animation des dynamiques doit chercher à développer des entreprises communes, des engagements mutuels et des répertoires partagés. En approfondissant les notions théoriques qui se cachent derrière ces concepts on peut alors trouver quelques leviers d'action. [WENGER, 1998] dans la lignée de [LATOUR, 1989] ou encore [HARVEY, 1996], nous explique, par exemple, que l'engagement mutuel doit demeurer fondamentalement ambigu pour que la communauté de pratique puisse pleinement se développer. L'ambiguïté ne correspond pas à une lacune sur le plan du sens. Il s'agit plutôt d'une condition de négociabilité qui permet la construction de significations. Le rôle de pivot des structures partenariales et des géomaticiens qui les animent, mais aussi des outils SIG qui en sont le support technologique consiste alors à mettre en place les meilleures conditions de négociation possibles. Les outils technologiques ont également un rôle à jouer dans le design inter-organisationnel. L'accès à des répertoires partagés peut, par exemple, s'appuyer sur les outils collaboratifs. Ces derniers sont déjà largement utilisés dans les projets thématiques. Leur utilisation est encore très limitée dans les projets de mutualisation de l'information géographique. 5.3. Révéler les différences plutôt que d'unifier les représentations L'idée qu'on puisse obtenir une perception intégrée du territoire en empilant et superposant des couches dans un SIG (métaphore du SIG mille-feuilles) est probablement une double illusion, en premier lieu, parce que des couches thématiques superposées ne constituent pas une description cohérente du territoire (elles occultent les interactions entre les domaines), en second lieu parce qu'il n'est pas certain que le spécialiste en aménagement du territoire puisse interpréter tout seul les informations du forestier, de l'économiste, de l'urbaniste. 13 Que peut-on alors demander au SIG ? Il peut aider les divers experts du territoire à confronter leurs approches, voire à développer des réflexions inter-thématiques. On passe alors de l'idée d'un SIG destiné à unifier la vision du territoire à celle d'un SIG permettant de partager et confronter des visions du territoire, donc de construire des visions partagées du territoire dans des approches inter-thématiques ou pluridisciplinaires [PORNON, 2006]. 6. Conclusion : d'une logique de compromis à la recherche d'un consensus différencié ? Le territoire est un construit humain. Le consensus différencié a pour objectif de partir d'un porté à connaissance des différences entre les acteurs pour faciliter leur compréhension des différentes constructions territoriales. La mise en évidence des différences permettra aux acteurs territoriaux d'enrichir leur compréhension des phénomènes spatiaux. Ainsi, par un affinage progressif et systématique des visions métier du territoire, on favorise la découverte des typages cognitifs des acteurs. On les aide à comprendre et à légitimer les actions de leurs partenaires mais aussi leurs propres actions. Cette mise en exergue plutôt que de lisser, d'harmoniser, d'unifier les résultats comme peut le faire le compromis, tente de faire ressortir les différences pour qu'il en sorte une plus value acceptable par tous. Ainsi selon [HABERMAS, 2003] : « Ce n'est qu'en tant que participant à un dialogue inclusif visant un consensus, que nous sommes amenés à exercer la vertu cognitive d'empathie, eu égard à nos différences réciproques qui se manifestent dans la perception d'une situation commune. Nous sommes supposés apprendre la façon dont chacun des participants, à partir de leur propre perspective, procéderait dans le contexte d'une universalisation de tous les intérêts concernés. » L'apprentissage collectif prôné par les Communautés De Pratique abonde en ce sens. Nous proposons alors que les technologies de l'information géographiques accompagnent le mouvement de fond du « décider seul avec les données des autres » vers le « décider ensemble ». En dépassant les logiques de compromis, les TIG doivent se redéfinir comme un support technique aux Communautés de Pratique inscrite dans une perspective d'apprentissage collectif et dans une logique de consensus différencié. Les travaux de recherche que nous menons actuellement visent à approfondir cette réflexion en s'intéressant aux interactions possibles entre les modèles cognitifs des acteurs du territoire. 14 Bibliographie : [CHANAL, 2000] Valérie Chanal, Communauté de pratique et management par projet : à propos de l'ouvrage de Wenger, Management, vol. 3 No 1, 2000, 1-30. [CHRISMAN, 2000] Nicolas Chrisman, Building GIS without foundations : ontology from a social pratice perspective, Abstract of GISciences 2000, Savannah, Octobre 2000. [CROZIER et FRIEDBERG, 1977] Michel Crozier et Erhard Friedberg, L'acteur et le système : les contraintes de l'action collective, Seuil, Paris, 1977. [DOUGLAS, 2001] D. Nebert Douglas (éditeur), Developing Spatial Data Infrastructures : The SDI cookbook, version 2.0, janvier 2004. [FEYT, 2004] Grégoire Feyt, Les métiers du territoire face aux technologies de l'information géographique :Babel et esperanto, In ROCHE Stéphane et CARON Claude (dir.), Aspects organisationnels des SIG, Hermès,Traité IGAT, série Géomatique, 2004. [HABERMAS, 2003] Jurgen Habermas, L'éthique de la discussion et la question de vérité, Grasset, Paris, 2003. [HARVEY, 1996] Fancis Harvey, Geographic Information Integration and GIS overlay, Thèse de doctorat de Geographie, Université de Washington, 1996. [LATOUR, 1989] Bruno Latour, La science en action, La Découverte, 1989. [MAJOR, 1999] Wladimir Major, Approche de la concertation territoriale par l'analyse systémique et l'analyse lexicale du discours des acteurs. Perspectives d'application aux systèmes d'information géographique. Thèse de doctorat de l'Ecole Polytechnique Fédérale de Lausanne,1999. [MAJOR et GOLAY, 2004] Wladimir Major et François Golay, SIG, cognition et métiers, sous la direction de Roche S. et Caron C., Hermès, 2004. [NOUCHER, 2006] Matthieu Noucher, Mutualisation de l'information géographique : infrastructure de données spatiales ou communauté de pratique ?, GéoEvénement, Paris, 2006. [PORNON, 1997] Henri Pornon, Géomatique et organisation, contradictions et intégration des projets d'acteurs, Thèse de doctorat de l'Ecole Polytechnique Fédérale de Lausanne,1997. [PORNON, 1998] Henri Pornon, Partenariats relatifs à la géomatique et aux SIG : Proposition d'une typologie et d'une grille d'évaluation, IETI Consultants – CERTU, Lyon 1998. [PORNON, 2006] Henri Pornon, La transversalité ou le deuxième âge des SIG : mythes et réalités, GéoEvénement, Paris, 2006. [WENGER, 1998] Etienne Wenger, Communities of Pratices : learning, meaning and identity, Cambridge University Press, 1998. 15
{'path': '12/halshs.archives-ouvertes.fr-halshs-00647050-document.txt'}
Intégration des facteurs humains dans le retour d'expérience Habib Hadj-Mabrouk To cite this version: Habib Hadj-Mabrouk. Intégration des facteurs humains dans le retour d'expérience. 16ème Congrès "Lambda Mu", Maîtrise des risques et sûreté de fonctionnement_LM16, IMdR: Institut pour la Maîtrise des Risques, Oct 2008, Avignon, France. pp.1-6. hal-03024530 HAL Id: hal-03024530 https://hal.archives-ouvertes.fr/hal-03024530 Submitted on 4 Jun 2021 INTEGRATION DES FACTEURS HUMAINS DANS LE RETOUR D'EXPERIENCE Habib HADJ-MABROUK Chargé de recherche -HDR INRETS 2 av du Général Malleret-Joinville 94114 Arcueil Cedex, France E-Mail : mabrouk@inrets.fr Résumé Inspiré des travaux de Reason, Rasmussen, Van Eslande et soutenue par quelques exemples d'application issus du domaine de la sécurité ferroviaire, l'approche d'analyse de l'erreur humaine proposée pour améliorer le processus du retour d'expérience des systèmes de transports ferroviaires, fait intervenir trois niveaux complémentaires : ƒ Le premier niveau d'analyse contextuelle (avant l'accident) permet d'étudier les différents facteurs favorisant la production de l'erreur humaine à l'origine de l'accident. Ces facteurs sont relatifs à l'opérateur humain, à son environnement de travail, au système ainsi qu'aux diverses interactions de l'homme avec le système et l'environnement ; ƒ Le deuxième niveau d'analyse cognitive (pendant l'accident) vise à identifier les erreurs humaines relatives au processus cognitif humain mis en jeu face à une situation d'insécurité donnée; ƒ Le troisième niveau d'analyse comportementale (après l'accident) s'attache a évaluer les conséquences d'une action erronée en termes de dommage sur l'homme, sur l'environnement et sur le système. ƒ Introduction Afin de répondre aux exigences exprimées par la nouvelle réglementation nationale en matière de sécurité ferroviaire, et en vue de respecter les mesures d'harmonisation recommandées par la nouvelle directive concernant la sécurité des chemins de fer communautaires, les organismes nationaux, les gestionnaires d'infrastructure et les professionnels du secteur ferroviaire doivent désormais disposer d'une démarche méthodologique commune de retour d'expérience (Rex). Par ailleurs, bien que la prise en compte des facteurs humains dans le processus du Rex ferroviaire tend à devenir une nouvelle priorité, les procédures sont loin d'être systématiques et les méthodologies demeurent incertaines. En effet, malgré l'intérêt indéniable des approches de classification de l'erreur humaine, leur mise en oeuvre dans le domaine des transports ferroviaires, et notamment dans le processus de Rex, demeure difficile. Ces modèles théoriques, parfois trop détaillés, ne sont pas destinés à une application industrielle et se heurtent à un problème d'exploitation. Pour appréhender ces problèmes et tenter de cerner ainsi les principales lacunes du Rex notamment l'absence d'une méthodologie globale standardisée et les difficultés d'intégrer les facteurs humains, notre contribution porte sur l'élaboration d'une démarche rigoureuse du Rex centrée sur les facteurs humains. L'objectif est également d'optimiser la place de l'homme dans la sécurité des systèmes de transports en pleine connaissance de ses capacités mais aussi de ses limites. La démarche mise en oeuvre s'articule autour de deux parties. La première partie propose une approche globale du déroulement de Rex qui fait intervenir cinq grandes phases : collecte des données, analyse des données, stockage des données, exploitation des données et proposition de recommandations. L'accent sera mis sur l'importance des données relatives à l'opérateur humain dans le bon déroulement du Rex. La seconde partie présente une approche d'analyse de l'erreur humaine centrée sur le déroulement d'un accident (en amont, pendant et en aval). L'objectif est d'extraire et d'identifier les principaux concepts relatifs à l'opérateur humain qu'il faut prendre en compte dès la phase de collecte des données. Inspiré des travaux de Reason, Rasmussen, Van Eslande et soutenue par quelques exemples d'application issus du domaine de la sécurité ferroviaire, l'approche d'analyse de l'erreur humaine proposée pour améliorer le niveau de sécurité des systèmes de transports ferroviaires, fait intervenir trois niveaux complémentaires : ƒ ƒ Le premier niveau d'analyse contextuelle (avant l'accident) permet d'étudier les différents facteurs favorisant la production de l'erreur humaine à l'origine de l'accident. Ces facteurs sont relatifs à l'opérateur humain, à son environnement de travail, au système ainsi qu'aux diverses interactions de l'homme avec le système et l'environnement ; Le deuxième niveau d'analyse cognitive (pendant l'accident) vise à identifier les erreurs humaines relatives au processus cognitif humain mis en jeu face à une situation d'insécurité donnée; Le troisième niveau d'analyse comportementale (après l'accident) s'attache a évaluer les conséquences d'une action erronée en termes de dommage sur l'homme, sur l'environnement et sur le système. 1. Approche globale du processus du Rex Inspirée des travaux de Joing (1991), de Sablier et Vittumi (1995) et de Dominati et al. (1996), l'approche globale du Rex que nous proposons est fondé sur cinq grands principes (figure 22) : « connaître », « comprendre », « archiver », « apprendre » et « recommander ». (5) (1) Conna"tre Recommander Ev ̧nement dÕinsˇcuritˇ Comprendre Apprendre (4 ) (2) Archiver (3 ) Figure 1 : les cinq principes du Rex Ces cinq principes complémentaires et itératifs correspondent respectivement aux cinq grandes phases : la collecte des données, leur analyse et traitement, leur stockage et mémorisation, leur exploitation et utilisation et les recommandations de sécurité qui en résultent (figure 2). 16me Congrès de Maîtrise des Risques et de Sûreté de Fonctionnement - Avignon 6-10 octobre 2008 - communication 1C-3 page 1/6 1.1. Collecte des données Cette première phase qui répond au premier principe connaître consiste à recueillir le maximum de données, à s'intéresser à toutes les anomalies rencontrées et à faire appel à diverses ressources de recherche d'informations. La collecte des données correspond à une investigation approfondie de tout événement contraire à la sécurité (dysfonctionnement, incident, quasiaccident ou accident). Il s'agit de rechercher et recueillir tous les éléments tant descriptifs qu'explicatifs ayant conduit à cet événement (les faits de l'occurrence, les circonstances, les causes, les conséquences, ). La collecte concerne ainsi les données relatives à l'opérateur humain, à son environnement interne et externe, au système technique, à l'organisation du travail, aux procédures et aux éventuelles interactions. Les recommandations visent la réduction de niveau de risque (probabilité/gravité) grâce à des mesures de prévention (afin de minimiser l'occurrence de survenue de l'événement) et des mesures de protection (en vue d'affaiblir la gravité de ses conséquences). Ces recommandations sont en réalité la finalité et l'objectif initial du processus de Rex pour améliorer le niveau de sécurité. Elles ont pour but l'action sur les facteurs humains, les aspects techniques, l'environnement, l'organisation, la réglementation, les procédures, la documentation, etc. Ces recommandations sont à entreprendre sur le plan local (au niveau de l'entreprise) pour assurer un meilleur management et gestion de la sécurité, sur le plan général (au niveau de la direction du transport) pour faire évoluer le système de sécurité ainsi que sur le plan national (au niveau du dispositif de communication) pour garantir une bonne communication des résultats du retour d'expérience. 1.2. Analyse des données Cette phase du processus de Rex vise l'analyse profonde des insuffisances du système global, des circonstances, du déroulement, des mécanismes et des causes de l'événement redouté. Elle permet de reconstituer la chronologie des faits, d'établir les scénarios à risques et d'évaluer les conséquences réelles ou potentielles. Cette phase qui répond au principe comprendre ne doit pas se limiter à l'analyse des causes premières apparentes mais à établir, par exemple, un arbre des causes des dysfonctionnements permettant de mieux cerner les mécanismes générateurs des événements affectant la sécurité. Néanmoins, la phase d'analyse des données peut être concomitante à celle de la collecte des données (analyse à chaud) faisant appel à différents experts du domaine sur le terrain, comme elle peut être réalisée « à froid » après stockage des données et ceci grâce à une commission d'analyse souvent permanente et interne à l'entreprise ou arbitraire composée après l'événement. 1.3. Stockage des données Cette phase répondant au principe archiver s'attache à mémoriser les données collectées et analysées dans une base de données grâce, souvent, à un système informatique. Lors de cette phase, une attention particulière doit être portée sur les possibilités d'exploitation réelle de la base. En effet, la constitution de cette base ne doit pas se limiter à l'accumulation de l'exhaustivité des données avec une grande précision, mais à permettre surtout la possibilité de leur utilisation ultérieure. Cette base de données doit garantir, outre l'analyse épidémiologique statistique et descriptive des données, une étude clinique qualitative et explicative des véritables mécanismes ayant conduit à l'événement. Elle doit assurer également la recherche des éventuelles similitudes entre des événements de même nature afin d'identifier les scénarios types d'accidents ou incidents. 1.4. Exploitation des données Cette phase du processus de Rex consiste à utiliser et interpréter les résultats issus des différents traitements de la base de données. L'objectif principal est d'extraire l'événement réellement prédictif, de prendre en considération les cas isolés et de prédire ou d'imaginer les futurs scénarios d'accidents ou évènements indésirables. La mise en oeuvre de cette phase nécessité généralement le recours à des techniques d'analyse de données et d'intelligence artificielle, notamment les méthodes d'apprentissage symbolique automatique (Hadj Mabrouk 1996 et 1998). Cette phase répond au principe apprendre qui consiste à tirer des enseignements de l'expérience vécue pour éviter le retour d'une telle situation contraire à la sécurité. Accident / Incident Collecte Connaître des données Analyse Traitement Comprendre Stockage Mémorisation Archiver Exploitation Utilisation Apprendre Recommandations Recommander Système ( réduire niveau derisque) Mesures de Prévention Mesures de Protection ( minimiser l'occurrence) ( affaiblir la gravité) Homme Env ironnement Organisation Procédures Figure 2 : Articulation des différentes étapes de déroulement du Rex (Hadj-Mabrouk 2004) La question de données comme le confirme Gilbert C. (2001) a été toujours considérée comme essentielle dans la mise en oeuvre du Rex. Si bien que la collecte de données est une phase primordiale et déterminante dans le bon fonctionnement du processus de Rex. La performance de ce dernier est étroitement lié à la nature et à la qualité des données collectées. Dans la suite de ce chapitre, l'accent sera mis sur l'étude des données relatives à l'opérateur humain, et notamment sur l'analyse de l'erreur humaine dans le processus de Rex. 2. Intégration de l'erreur humaine dans le Rex Pour bien positionner notre démarche de prise en compte de l'erreur humaine dans le processus Rex, il nous semble judicieux de préciser quelques notions relatifs au facteur humain, à l'erreur humaine et à l'accident. 1.5. Recommandations C'est la phase ultime de la démarche de Rex dont la performance dépend de la qualité et de la fiabilité des étapes précédentes. Elle répond au principe recommander qui consiste à définir et identifier les mesures adéquates pour limiter la reproduction d'un événement d'insécurité. Il s'agit de mieux tirer profit des enseignements de l'expérience acquise pour améliorer la sécurité. Le terme « facteurs humains » est un concept trop vague pour être clairement explicité. Il correspond selon Amalberti et Mosneron-Dupin (1997) à l'ensemble des connaissances sur l'opérateur humain et des méthodes visant l'adéquation entre l'opérateur humain et son travail. Les recherches sur les facteurs humains sont souvent orientées sur l'analyse du comportement humain en termes de performance, de fiabilité ou d'erreur 16me Congrès de Maîtrise des Risques et de Sûreté de Fonctionnement - Avignon 6-10 octobre 2008 - communication 1C-3 page 2/6 humaine. Elles visent l'étude des possibilités et des contraintes spécifiques à l'opérateur en vue d'améliorer la performance et la sécurité du système socio-technique. Selon Keravel (1995), l'analyse des facteurs humains correspond davantage à l'étude des paramètres à surveiller et modifier pour maîtriser la fiabilité humaine. Oudiz (1990) souligne que l'analyse de la fiabilité humaine, dans le cadre du retour d'expérience, s'effectue à posteriori. Elle consiste à analyser les incidents ou accidents afin de déterminer les causes de dysfonctionnement humain et d'identifier les moyens de les prévenir (in Van Esland 1997). Concernant le concept « accident », ce dernier est considéré comme le résultat d'un événement ou d'un enchaînement d'événements non désirés susceptibles d'occasionner des dommages sur l'homme, sur le système et/ou sur l'environnement. C'est un phénomène complexe qui peut difficilement s'expliquer par l'intervention d'une seule et simple variable. Il est généralement le résultat d'une suite d'événements indésirables incluant les actions de l'opérateur humain. Toutefois, l'erreur humaine constitue le plus souvent un lien de la séquence d'événements et non de son origine. C'est un résultat néfaste de la succession aléatoire de faits dans l'enchaînement desquels la présence d'erreur est possible mais non systématique (Risk 1981, Rasmussen 1990, Ranney 1994 et Neboit 1996 in Van Esland 1997). En effet, l'accident n'est pas lié directement à l'erreur de l'opérateur, il est plutôt lié aux conditions dans lesquelles une erreur humaine a pu survenir, puis par une suite d'événements conduisant à l'accident par défaut de protection adaptée. L'accident est toujours symptomatique d'une ou plusieurs mauvaises défenses permanentes ou ponctuelles du système dans son ensemble et non d'une erreur particulière. Ce qui rend l'accident peut probable, ce n'est pas tant que les erreurs responsables des accidents soient elles-mêmes peu probables, mais plutôt que les circonstances exactes pour qu'elles aient des conséquences graves sont, elles, très peu probables (Lecomte 1993, Amalberti 1996 et Amalberti et Mosneron-Dupin 1997). 2.2. Description détaillée de l'approche proposée 2.2.1. En amont de l'accident (Analyse contextuelle) L'analyse contextuelle de l'erreur humaine, en amont de l'accident, consiste à étudier les différentes conditions de travail (caractéristiques de la situation, caractéristiques de la tâche, ) favorisant sa production. Considérant l'opérateur humain dans son environnement de travail et face au système, ce premier niveau d'analyse permet de déterminer les facteurs locaux déclenchant l'erreur ainsi que les interactions entre les circonstances internes et externes. Le but de cette phase consiste à identifier les différentes interactions que subit l'homme avec son environnement du travail, avec les autres opérateurs et avec le système. Ce niveau d'analyse nécessite donc l'étude des trois principales composantes d'un système socio-technique (Homme, Système, Environnement) ainsi que leurs interactions. Où ? Quand ? Qui ? En amont de l'accident Analyse contextuelle / situationnelle z z z Caractéristiques de la situation Caractéristiques de la tâche Facteurs locaux Comment ? Analyse cognitive / conceptuelle Pendant l'accident z Niveau d'activité de l'homme (automatismes / Règles / connaissances) z Étapes de traitement de l'information (perception--> action) Quoi ? 2.1. Principe général de l'approche proposée La méthode que nous proposons est inspirée des travaux de Reason qui évoque trois niveaux de classification des erreurs humaines (comportemental, contextuel et conceptuel) correspondant à trois questions que l'on peut se poser sur les erreurs humaines (quoi ? où ? comment ?). Elle est également inspirée des travaux de Rasmussen relatifs au fonctionnement cognitif de l'homme et de Van Eslande relatifs aux scénarios types d'accidents. Centrée sur le déroulement d'un accident potentiel et appuyée par quelques exemples issus du domaine de la sécurité ferroviaire, cette méthode s'articule autour de trois niveaux complémentaires d'analyse de l'erreur humaine et reprend les trois niveaux suggérés par Reason : le niveau contextuel (en amont de l'accident), le niveau conceptuel cognitif (pendant l'accident), et le niveau comportemental (en aval de l'accident) (figure 3). En pratique, l'analyse de l'accident passe d'abord par l'étude globale de l'environnement et de la situation du travail des opérateurs (en amont de l'accident) et répond ainsi aux questions où ? quand ? et qui ? (type d'opérateur impliqué). La seconde étape d'analyse consiste à étudier la démarche cognitive mise en oeuvre face à une situation donnée et répond ainsi à la question comment ? (pendant l'accident). Cette démarche débouche souvent sur une action en termes d'accomplissement d'une tâche. La dernière phase (en aval de l'accident) étudie les conséquences d'une action erronée en termes de dommage sur l'homme, sur l'environnement et sur le système et répond ainsi à la question quoi ?. Ainsi, à travers les deux premières étapes de l'approche proposée, on peut identifier les différentes erreurs humaines potentielles ainsi que leurs éventuelles interactions. C'est pour cette raison que l'approche proposée sera focalisée uniquement sur les deux premières phases d'analyse afin de déterminer les différents facteurs impliqués dans la production des erreurs humaines potentielles à l'origine de l'accident. L'objectif est de prendre en compte l'ensemble de ces facteurs dans la phase de collecte de données après accident ou incident ferroviaire. Analyse comportementale En aval de l'accident z z Conséquences observables de l'erreur Caractéristique formelles de l'erreur Figure 3 Approche d'intégration des facteurs humains dans l'analyse des scénarios (Hadj-Mabrouk 2004) 2.2.1. 1. L'opérateur Humain Dans un premier temps, il s'agit d'identifier les différents types d'opérateurs impliqués ainsi que les facteurs altérants la performance humaine. Les opérateurs humains impliqués dans le secteur des transports sont variables en fonction du domaine. Dans le domaine ferroviaire, par exemple, les acteurs sont principalement le personnel de maintenance et le personnel d'exploitation. Les erreurs humaines d'exploitation concernent notamment l'opérateur au PCC et l'agent de conduite. Les erreurs potentielles de l'opérateur au PCC sont souvent relatives au non-respect des procédures, d'accostage, d'initialisation, d'évacuation ou de conduite. Les erreurs potentielles de l'opérateur de conduite se répartissent généralement en deux grandes classes : le non-respect de la signalisation (franchissement de signal d'arrêt, non-respect des feux) et l'erreur de commande ou de manoeuvre (freinage intempestif ou brusque, non-respect de la consigne de vitesse, ouverture prématurée ou intempestive des portes, etc) (Hadj Mabrouk et al. 2001). Dans le cadre de cette première analyse contextuelle et situationnelle de l'erreur humaine, il est également nécessaire d'identifier les principaux facteurs altérants la performance humaine. Ces facteurs peuvent, en effet, influencer de façon directe ou indirecte, le processus cognitif élaboré par l'opérateur 16me Congrès de Maîtrise des Risques et de Sûreté de Fonctionnement - Avignon 6-10 octobre 2008 - communication 1C-3 page 3/6 lors de son activité. L'objectif est de recenser les facteurs physiques, physiologiques, psychologiques, sociaux, chronobiologiques, comportementaux ou professionnels qui favorisent l'erreur humaine. Les facteurs recensés dans la figure 4 sont inspirés des travaux réalisés dans le domaine de la sécurité aérienne (Circulaire OACI 1993). Figure 4 : Principaux facteurs altérant la performance humaine Facteurs physiques - incapacités sensorielles (vision, audition, illusion) - incapacités motrices - etc Facteurs physiologiques - état de santé - nutrition - sommeil - fatigue Facteurs psychologiques - personnalité : panique, stress - humeur - état émotif Facteurs comportementaux - style de vie : activités nocturnes - habitudes : alcool, médicaments, drogues, etc - ennui – distraction - appréhension - confiance - panique – stress Facteurs professionnels - formation - connaissances - expérience Facteurs sociologiques - problème familial - mauvais environnement social - visiteur, inspecteur, instructeur - structure de l'équipe Facteurs chronobiologiques - typologie circadienne du sommeil : matin / soir - horaires de meilleures performances : matin / soir Facteurs de baisse de vigilance - les fluctuations rythmiques de la vigilance (circadiennes, ultradiennes) - les troubles de sommeil la privation de sommeil la fragmentation de sommeil la désynchronisation les pathologies du sommeil (Narcolepsie, Syndrome d'Apnées de Sommeil) - l'ingestion d'alcool - la prise de médicaments psychotropes (antidépresseurs, anxiolytiques, etc) 2.2.1.2. Le Système Au niveau système, il convient d'identifier, pour chaque type d'équipements, la liste d'erreurs humaines potentielles. Le résultat de cette étude permet au concepteur de prendre en compte, dès la première phase de développement du système (spécification), l'ensemble des erreurs humaines potentielles relatives à chaque type d'équipement (figure 28) et susceptibles de mettre en défaut la sécurité du système. L'objectif consiste donc à intégrer, dès les phases de spécification et de conception du système, les mesures adéquates pour rattraper, tolérer, réduire ou supprimer certaines erreurs humaines. Dans le domaine du transport ferroviaire, on distingue généralement trois types d'équipements : les équipements de sécurité (ou critiques), de surveillance et de disponibilité (ou fonctionnels). Les équipements de sécurité ont pour objectif de remplacer les opérateurs d'exploitation du système ou de faciliter les tâches qui leur sont confiées. Les systèmes de contrôle des équipements de freinage d'urgence, les systèmes d'anti-collision et les systèmes d'élaboration de consignes de vitesse en sont des exemples issus du domaine des transports guidés. Les équipements de surveillance permettent de centraliser les informations et de mieux organiser les actions d'interventions correctives ou préventives sur le système. Ils contribuent à l'amélioration du niveau de sécurité du système mais ils n'empêchent pas la survenue des accidents potentiels. Le système de supervision du service des quais et de traitement des alertes radio sont deux exemples d'équipements de surveillance. Les équipements fonctionnels assurent généralement la disponibilité du système. Le système d'asservissement de trains et le système de localisation des trains en sont deux exemples. Toujours dans le cadre de la première phase d'analyse contextuelle (en amont de l'accident) et afin de tendre vers l'exhaustivité, il est indispensable d'analyser et de recenser les erreurs humaines potentielles en fonction des modes de conduite du système. Dans le domaine des transports ferroviaires guidés, on distingue généralement deux grands modes d'exploitation : les modes nominaux et les modes dégradés. Les modes d'exploitation nominaux, comportent plusieurs modes de conduite : la Conduite Automatique Intégrale sans agent de conduite, la Conduite en Pilotage Automatique avec agent de conduite (erreur de commande des portes et de départ du train), la Conduite Manuelle Contrôlée (erreurs de traction, erreurs de freinage) et la Conduite Manuelle Libre avec agent de conduite (erreur de conduite). Les modes d'exploitation dégradés concernent la Conduite Manuelle en Marche à Vue (non respect de l'espacement), la Conduite Manuelle avec Signalisation Auxiliaire (non respect d'une signalisation latérale) et la Conduite Manuelle de Secours (erreur de commande des portes et de départ du train). Les modes d'exploitation dégradés peuvent assurer des fonctionnements comme l'accostage, le scindage ou les services provisoires (Hadj-Mabrouk H. et al. 1998). 2.2.1. 3. L'Environnement Outre les erreurs humaines relatives aux opérateurs humains et aux système, il convient également de recenser les différents facteurs environnementaux susceptibles d'influencer le bon déroulement de l'activité humaine et notamment l'exécution de la tâche prescrite (de supervision, de surveillance, de conduite, de diagnostic, ). On peut distinguer deux types de dangers provoqués par l'environnement interne du travail (facteurs ambiants) et l'environnement externe (facteurs météorologiques) (figure 29). L'identification de ces facteurs environnementaux permet de concevoir et de mettre en oeuvre des dispositions ergonomiques préventives adéquates. La prise en compte de ces facteurs dès la conception garantit une réduction des erreurs humaines lors de l'exploitation du système. 2.2.1. 4. Les interactions L'analyse contextuelle de l'erreur humaine potentielle doit également mettre l'accent sur les différents facteurs d'interactions entre les opérateurs humains, entre l'homme et le système ou entre l'homme et son environnement interne et externe (figure 30). L'anlyse des interactions entre l'opérateur et le système permet à l'ergonome concepteur de prendre en considération les problèmes liés aux caractéristiques du travail (charge, poste, horaires, ), à celles de la tâche prescrite (nombre, durée, temps, force, connaissances, ) et à celles de l'interface Homme-Machine. 2.2.2. Pendant l'accident (Analyse cognitive) La deuxième phase d'analyse et d'évaluation de l'erreur humaine concerne le processus cognitif mis en jeu lors de déroulement de l'accident (comment ?). L'analyse cognitive de l'erreur humaine, dans ce contexte, consiste à étudier les mécanismes cognitifs impliqués dans la production de l'erreur à l'origine de l'accident. Elle tente de savoir comment le processus cognitif de l'opérateur humain, compte tenu de l'analyse contextuelle en amont, a aboutit à une action erronée génératrice d'accident. A ce niveau, les erreurs humaines peuvent être classées de deux manières différentes et complémentaire, soit en se référant aux trois niveaux hiérarchiques de l'activité de l'homme (basé sur les automatismes, sur les règles ou sur les connaissances) soit relativement aux différentes étapes de traitement de l'informationn, de raisonnement humain ou de prise de décision. En s'inspirant des différents modèles conceptuels de traitement de l'information (notamment de Rasmussen et de Rouse), la figure 5 présente, au travers un modèle simplifié mais qui se prète mieux à une application industrielle, quelques exemples d'erreur humaine (dans les transports ferroviaires) relatives aux différentes phases de traitement de l'information ou de résolution de problème. La figure 6 récapitule le modèle Rasmussen et Reason et illustre quelques exemples d'erreur humaine (issus des transports ferroviaires) liées au mode de fonctionnement humain basé sur 16me Congrès de Maîtrise des Risques et de Sûreté de Fonctionnement - Avignon 6-10 octobre 2008 - communication 1C-3 page 4/6 les automatismes, sur les règles ou sur les connaissances. Néanmoins, il faut noter qu'une même erreur potentielle de l'opérateur (comme l'erreur d'aiguillage : reception sur voie occupée) peut être relative, non seulement à une ou plusieurs étapes fonctionnelles de résolution d'un problème face à une situation donnée, mais également à un ou plusieurs niveaux d'activités du fonctionnement humain. En effet, la réalité du terrain des systèmes dynamiques prouve que face à une situation critique, tout le processus cognitif de l'opérateur est sollicité de manière synchrone et qu'il est très difficile de rattacher une erreur humaine à une phase précise et déterminée du raisonnement. conduct eur ne commande pas le freinage à la v ue d'un train cible Percepti on Interp rétati on franchissement d'un signal d'arrêt conduct eur ne réduit pas s a vitesse en fonctio n de sa distance de visibi lit é mauvaise inte rprétation de la situation des véhicules en lig ne Analy se Diagnostic autorisation d'iti néraire n on compatib le mémorisati on à tort d'itinéraire incompati ble sur deux pilot ages automatiq ues redondants télécommande envoyée inopinément par l'opérateur au PCC Planification Décis ion erreur d'aiguillage : récepti on sur voie o ccupée remi se intempestive de laH aute Tension sur une sectio n en cours d'évacuation aiguill age mal positi onné Exécu tion Action erreur d'aiguillage : récepti on sur voie o ccupée autorisation d'iti néraire n on compatib le Erreurs humaines relatives au mode de fonctionnement humain Figure 5 Exemples d'erreurs humaines relatives aux étapes de traitement de l'information (Hadj-Mabrouk 2004) Basé sur les Connaissances - Fautes limitation des ressources rationalité limitée connaissances incomplètes connaissances incorrectes mauvaise interprétation de la situation des véhicules en ligne autorisation d'itinéraire non compatible erreur d'aiguillage : réception sur voie occupée télécommande envoyée inopinément par l'opérateur du PCC remise intempestive de la HT sur une section en cours d'évacuation reinitialisation intempestive erreur sur le sens de la marche de l'opérateur de conduite (ADC) l'ADC ne commande pas le freinage à la vue d'un train cible l'ADC ne réduit pas sa vitesse en fonction de la distance de visibilité ouverture inopinée et intempestive ou du côté voie des portes etc Basé sur les Règles - Fautes défaut de disponibilité des règles rappel incorrecte des procédures mauvaise classification des situations application des règles incorrectes Basé sur les Automatismes - Ratés, Lapsus manque d'attention attention excessive comportement cohérent au mauvais endroit / moment autorisation d'itinéraire non compatible erreur d'aiguillage : réception sur voie occupée télécommande envoyée inopinément par l'opérateur du PCC reinitialisation intempestive l'ADC ne respecte pas les procédures de conduite manuelle erreur sur le sens de la marche l'ADC ne commande pas le freinage à la vue d'un train cible l'ADC ne respecte pas les feux l'ADC ne respecte pas les consignes de vitesse l'ADC franchit les signaux d'arrêt distance d'arrêt trop longue freinage tardif ou insuffisant ou nul ouverture inopinée, intempestive ou du côté voie des portes etc erreur sur le sens de la marche l'ADC ne commande pas le freinage à la vue d'un train cible freinage intempestif ou brusque ralentissement trop faible distance d'arrêt trop longue ouverture inopinée, intempestive ou du côté voie des portes mauvaise interprétation de la situation des véhicules en ligne aiguillage mal positionné oubli d'objet sur la voie après travaux etc Figure 6. Exemples d'erreurs humaines relatives aux niveaux d'activités de l'opérateur éléments de réponses à ce problème nous avons proposé une approche méthodologique du Rex qui prend en compte les facteurs humains dès la première phase de collecte de données. Afin de répondre aux exigences exprimées par la réglementation nationale en matière de sécurité ferroviaire, et en vue de respecter les mesures d'harmonisation recommandées par le projet de directive concernant la sécurité des chemins de fer communautaires, notre contribution s'est concrétisée par la proposition d'une approche méthodologique du Rex centrée sur l'analyse de l'erreur humaine dans l'accident. Dans la première partie de ce cet article, notre contribution a portée sur l'élaboration d'une approche globale du processus de Rex qui s'articule autour de cinq principales étapes (collecte des données, leur analyse et traitement, leur stockage et mémorisation, leur exploitation et utilisation et les recommandations qui en résultent). Cette approche a mis l'accent sur la place capitale de la collecte de données dans la mise en oeuvre et le bon déroulement du processus de Rex. La fiabilité de ce dernier est étroitement lié à la qualité et à la nature des données collectées. La seconde partie a été focalisée sur l'étude des données relatives à l'opérateur humain en vue de les intégrer dans le processus de Rex. Inspirée des travaux de Reason, de Rasmussen et de Van Eslande, l'approche d'analyse de l'erreur humaine qu'on a proposé fait intervenir trois niveaux complémentaires : ƒ Le premier niveau d'analyse contextuelle (avant l'accident) permet d'étudier les différents facteurs favorisant la production de l'erreur humaine à l'origine de l'accident. Ces facteurs sont relatifs à l'opérateur humain, à son environnement de travail, au système ainsi qu'aux diverses interactions de l'homme avec le système et l'environnement ; ƒ Le deuxième niveau d'analyse cognitive (pendant l'accident) vise à identifier les erreurs humaines relatives au processus cognitif humain mis en jeu face à une situation d'insécurité donnée; ƒ Le troisième niveau d'analyse comportementale (après l'accident) s'attache à évaluer les conséquences d'une action erronée en termes de dommage sur l'homme, sur l'environnement et sur le système. La faisabilité de cette approche a été démontrée à travers quelques exemples réels issus du domaine de la sécurité ferroviaire. Le principal apport de cette approche réside dans l'identification des principaux concepts relatifs notamment à l'opérateur humain, à prendre en compte dès la phase de collecte des données. Elle permet également de préciser, à chaque niveau d'analyse, une liste d'erreurs humaines potentielles qui contribuent à l'occurrence des accidents ferroviaires et qu'il faut prendre en considération dans le retour d'expérience pour améliorer le niveau de sécurité des nouveaux systèmes de transports. Néanmoins, cette démarche nécessite sa mise en oeuvre dans des conditions industrielles réelles, afin de valider et, le cas échéant, d'améliorer ce qui demeure une proposition. Références 1. AMALBERTI R. et MOSNERON-DUPIN F. (1997), Facteurs humains et fiabilité : Quelles démarches pratiques ? Editions Octarès ; 1997 ; 136p 2. DOMINATI A., BONNEAU A. et LEWKOWITCH-ORLANDI A. (1996) SACRE : une base de données sur les incidents du parc nucléaire d'EDF au service du retour d'expérience facteur humain. Colloque national de fiabilité et maintenabilité λμ n° 10, octobre 1996 3. GILBERT C. (2001) ; Retours d'expérience : le poids des contraintes, Annales des mines, avril 2001, 9-24 4. HADJ-MABROUK H. (1996) Méthodes et outils d'aide aux analyses de sécurité dans le domaine des transports terrestres guidés ; Revue Routes et Transports, MontréalQuébec, vol. 26, n° 2, pp 22-32, Été 1996. 5. HADJ-MABROUK H. (1996) Projet FACTHUS : prise en compte des facteurs humains dans le développement des projets industriels ; Convention INRETS/DTT, rapport n° Conclusion Le système actuel de retour d'expérience est confronté à plusieurs obstacles et limites dont les plus important sont les problèmes liés à l'analyse des facteurs humains. Il est dans l'ensemble déficient et demeure encore limité à une dimension technique. En effet, même si les méthodes disponibles actuellement sont satisfaisantes et ont fait leurs preuves pour analyser et exploiter les incidents de nature technologique, il n'en est pas de même pour les incidents impliquant une défaillance humaine. Bien que la prise en compte des facteurs humains dans le processus du retour d'expérience ferroviaire tend à devenir une nouvelle priorité, les procédures sont loin d'être systématiques et les méthodologies demeurent incertaines. Pour apporter des 16me Congrès de Maîtrise des Risques et de Sûreté de Fonctionnement - Avignon 6-10 octobre 2008 - communication 1C-3 page 5/6 ESTAS/A-96-65, diffusion restreinte, 73 p, Arcueil, décembre 1996. 6. HADJ-MABROUK H. (1996), La nécessité de prendre en compte l'erreur humaine dans l'analyse de sécurité et le développement des systèmes de transports guidés, L'erreur humaine : question de point de vue ? (Cambon De Lavette B. et Neboit M.), Ed Octarès, 1996, p 85 7. HADJ-MABROUK H. et DOGUI M. (1999); Approche d'intégration des facteurs humains dans la sécurité des transports ferroviaires guidés, Revue Générale des Chemins de Fer, Éditions ELSEVIER, Paris n°11, novembre 1999 pp1734. 8. HADJ-MABROUK A. (1999); Chronobiologie de la vigilance et des performances appliquée au domaine des transports terrestres ; Thèse de médecine, 1999, Fac de médecine de Sousse-Tunisie 9. HADJ-MABROUK H. HADJ-MABROUK A et DOGUI M. (2001); Sécurité ferroviaire et facteurs humains, apport de la chronobiologie de la vigilance, collections INRETS, synthèse n° 38, 136 p, juillet 2001 10. HADJ-MABROUK A. HADJ-MABROUK H et DOGUI M. (2001); Approche d'application de la chronobiologie de la vigilance dans la sécurité ferroviaire, colloque vigilance Toulouse , 15 et 16 novembre 2001 11. HADJ-MABROUK A. HADJ-MABROUK H et DOGUI M.(2002); Chronobiologie de la vigilance, approche d'application dans la sécurité routière, revue Recherche Transport Sécurité n° 73 , 2002 12. HADJ-MABROUK A. HADJ-MABROUK H. (2004) ; Approche d'intégration de l'erreur humaine dans le retour d'expérience, ouvrage dans la collections INRETS, synthèse n° 43, 104p. 13. VAN ESLANDE P. (2000) ; L'erreur humaine dans les scénarios d'accident : cause ou conséquence ? ; RTS n° 66 ; Mars 2000 14. JOING M. (1991) ; Le retour d'expérience à la SNCF. Colloque « la sécurité des transports collectifs » décembre 1991, Paris, pp 178-180 15. KERAVEL F. (1995), L'analyse des facteurs humains dans la gestion des risques ferroviaires, la contribution du Centre d'Etudes de Sécurité ; SNCF-Inf. Méd. n° 184, 1995, 2-9 16. REASON J. (1990), L'erreur Universitaires de France ; 1990 humaine ; Presses 17. SABLIER P. et VITTUMI H. (1995). Le retour d'expérience appliqué à la sécurité ; la mise en oeuvre de la direction du transport à la SNCF. Revue Générale des Chemins de Fer, juin 1995, pp 5-10 16me Congrès de Maîtrise des Risques et de Sûreté de Fonctionnement - Avignon 6-10 octobre 2008 - communication 1C-3 page 6/6 INTEGRATION DES FACTEURS HUMAINS DANS LE RETOUR D'EXPERIENCE Habib HADJ-MABROUK INRETS 2 av du Général Malleret-Joinville 94114 Arcueil Cedex, France E-mail : mabrouk@inrets.fr Résumé Inspiré des travaux de Reason, Rasmussen, Van Eslande et soutenue par quelques exemples d'application issus du domaine de la sécurité ferroviaire, l'approche d'analyse de l'erreur humaine proposée pour améliorer le processus du retour d'expérience des systèmes de transports ferroviaires, fait intervenir trois niveaux complémentaires : ƒ Le premier niveau d'analyse contextuelle (avant l'accident) permet d'étudier les différents facteurs favorisant la production de l'erreur humaine à l'origine de l'accident. Ces facteurs sont relatifs à l'opérateur humain, à son environnement de travail, au système ainsi qu'aux diverses interactions de l'homme avec le système et l'environnement ; ƒ Le deuxième niveau d'analyse cognitive (pendant l'accident) vise à identifier les erreurs humaines relatives au processus cognitif humain mis en jeu face à une situation d'insécurité donnée; ƒ Le troisième niveau d'analyse comportementale (après l'accident) s'attache a évaluer les conséquences d'une action erronée en termes de dommage sur l'homme, sur l'environnement et sur le système. Contexte de la recherche Méthode développée Le terme « facteurs humains » est un concept trop vague pour être clairement explicité. Il correspond selon Amalberti et Mosneron-Dupin (1997) à l'ensemble des connaissances sur l'opérateur humain et des méthodes visant l'adéquation entre l'opérateur humain et son travail. Les recherches sur les facteurs humains sont souvent orientées sur l'analyse du comportement humain en termes de performance, de fiabilité ou d'erreur humaine. Elles visent l'étude des possibilités et des contraintes spécifiques à l'opérateur en vue d'améliorer la performance et la sécurité du système socio-technique. Selon Keravel (1995), l'analyse des facteurs humains correspond davantage à l'étude des paramètres à surveiller et modifier pour maîtriser la fiabilité humaine. Oudiz (1990) souligne que l'analyse de la fiabilité humaine, dans le cadre du retour d'expérience, s'effectue à posteriori. Elle consiste à analyser les incidents ou accidents afin de déterminer les causes de dysfonctionnement humain et d'identifier les moyens de les prévenir (in Van Esland 1997). Par conséquent, afin de répondre aux exigences exprimées par la nouvelle réglementation nationale en matière de sécurité ferroviaire, et en vue de respecter les mesures d'harmonisation recommandées par la nouvelle directive concernant la sécurité des chemins de fer communautaires, les organismes nationaux, les gestionnaires d'infrastructure et les professionnels du secteur ferroviaire doivent désormais disposer d'une démarche méthodologique commune de retour d'expérience (Rex). Par ailleurs, bien que la prise en compte des facteurs humains dans le processus du Rex ferroviaire tend à devenir une nouvelle priorité, les procédures sont loin d'être systématiques et les méthodologies demeurent incertaines. En effet, malgré l'intérêt indéniable des approches de classification de l'erreur humaine, leur mise en oeuvre dans le domaine des transports ferroviaires, et notamment dans le processus de Rex, demeure difficile. Ces modèles théoriques, parfois trop détaillés, ne sont pas destinés à une application industrielle et se heurtent à un problème d'exploitation. La démarche mise en oeuvre s'articule autour de deux parties. La première partie propose une approche globale du déroulement de Rex qui fait intervenir cinq grandes phases : collecte des données, analyse des données, stockage des données, exploitation des données et proposition de recommandations. L'accent sera mis sur l'importance des données relatives à l'opérateur humain dans le bon déroulement du Rex. La seconde partie présente une approche d'analyse de l'erreur humaine centrée sur le déroulement d'un accident (en amont, pendant et en aval). L'objectif est d'extraire et d'identifier les principaux concepts relatifs à l'opérateur humain qu'il faut prendre en compte dès la phase de collecte des données. Pour appréhender ces problèmes et tenter de cerner ainsi les principales lacunes du Rex notamment l'absence d'une méthodologie globale standardisée et les difficultés d'intégrer les facteurs humains, notre contribution porte sur l'élaboration d'une démarche rigoureuse du Rex centrée sur les facteurs humains. L'objectif est également d'optimiser la place de l'homme dans la sécurité des systèmes de transports en pleine connaissance de ses capacités mais aussi de ses limites. En pratique, l'analyse de l'accident passe d'abord par l'étude globale de l'environnement et de la situation du travail des opérateurs (en amont de l'accident) et répond ainsi aux questions où ? quand ? et qui ? (type d'opérateur impliqué). La seconde étape d'analyse consiste à étudier la démarche cognitive mise en oeuvre face à une situation donnée et répond ainsi à la question comment ? (pendant l'accident). Cette démarche débouche souvent sur une action en termes d'accomplissement d'une tâche. La dernière phase (en aval de l'accident) étudie les conséquences d'une action erronée en termes de dommage sur l'homme, sur l'environnement et sur le système et répond ainsi à la question quoi ?. Ainsi, à travers ses étapes de l'approche proposée, on peut identifier les différentes erreurs humaines potentielles ainsi que leurs éventuelles interactions. Inspiré des travaux de Reason, Rasmussen, Van Eslande et soutenue par quelques exemples d'application issus du domaine de la sécurité ferroviaire, l'approche d'analyse de l'erreur humaine proposée pour améliorer le niveau de sécurité des systèmes de transports ferroviaires, fait intervenir trois niveaux complémentaires : ƒ ƒ ƒ Le premier niveau d'analyse contextuelle (avant l'accident) permet d'étudier les différents facteurs favorisant la production de l'erreur humaine à l'origine de l'accident. Ces facteurs sont relatifs à l'opérateur humain, à son environnement de travail, au système ainsi qu'aux diverses interactions de l'homme avec le système et l'environnement ; Le deuxième niveau d'analyse cognitive (pendant l'accident) vise à identifier les erreurs humaines relatives au processus cognitif humain mis en jeu face à une situation d'insécurité donnée; Le troisième niveau d'analyse comportementale (après l'accident) s'attache a évaluer les conséquences d'une action erronée en termes de dommage sur l'homme, sur l'environnement et sur le système. 16me Congrès de Maîtrise des Risques et de Sûreté de Fonctionnement - Avignon 6-10 octobre 2008 - présentation 1C-3 page 1/1
{'path': '65/hal.archives-ouvertes.fr-hal-03024530-document.txt'}
Apprentissage interactif de règles d'extraction d'information textuelle Sondes Bannour To cite this version: Sondes Bannour. Apprentissage interactif de règles d'extraction d'information textuelle. Apprentissage [cs.LG]. Université Sorbonne Paris Cité, 2015. Français. NNT : 2015USPCD113. tel-02180540 HAL Id: tel-02180540 https://tel.archives-ouvertes.fr/tel-02180540 Submitted on 11 Jul 2019 École Doctorale Galilée Thèse de doctorat Discipline : Informatique présentée par Sondes Bannour Apprentissage interactif de règles d'extraction d'information textuelle dirigée par Henry Soldano encadrée par Laurent Audibert M. Laurent Audibert M. Jean-Gabriel Ganascia Mme Adeline Nazarenko Mme Claire Nédellec Mme Pascale Sébillot M. Henry Soldano Université Paris 13 UPMC Université Paris 13 MaIAGE-INRA IRISA/INSA de Rennes Université Paris 13 encadrant examinateur examinatrice rapportrice rapportrice directeur 2 Université Paris 13 Ecole Doctorale Galilée 99 avenue Jean-Baptiste Clément 93430 Villetaneuse Remerciements Je tiens à remercier, en premier lieu, Laurent Audibert, mon encadrant, et Henry Soldano, mon directeur de thèse, pour la confiance et la liberté qu'ils m'ont accordées, pour m'avoir guidée dans les moments de doute et pour m'avoir apporté les moyens d'arriver au bout de ce long et difficile chemin. Je tiens aussi à remercier particulièrement Adeline Nazarenko pour m'avoir accueillie au sein de l'équipe RCLN (Représentation des Connaissances et Langage Naturel) et pour avoir pris sur son temps chaque fois que je sollicitais ses précieux conseils. J'adresse une pensée particulière à ma soeur et confidente Ines qui égayait mes journées au LIPN, à Haïfa pour son amitié et ses conseils précieux et à mes amies Sarra, Nouha, Leila, Aïcha, Hanène, Ines et Nada pour tous les moments de bonheur et de solidarité que nous avons partagés au LIPN. Un immense merci à mon époux Sami et à ma petite Sarah qui illuminent chacun de mes jours. Je remercie enfin mes parents et mes soeurs pour leur amour et leur soutien. Résumé L'Extraction d'Information est une discipline qui a émergé du Traitement Automatique des Langues afin de proposer des analyses fines d'un texte écrit en langage naturel et d'améliorer la recherche d'informations spécifiques. Les techniques d'extraction d'information ont énormément évolué durant les deux dernières décennies. Les premiers systèmes d'extraction d'information étaient des systèmes à base de règles écrites manuellement. L'écriture manuelle des règles étant devenue une tâche fastidieuse, des algorithmes d'apprentissage automatique de règles ont été développés. Ces algorithmes nécessitent cependant la rédaction d'un guide d'annotation détaillé, puis l'annotation manuelle d'une grande quantité d'exemples d'entraînement. Pour minimiser l'effort humain requis dans les deux familles d'approches de mise au point de règles, nous avons proposé, dans ce travail de thèse, une approche hybride qui combine les deux en un seul système interactif qui procède en plusieurs itérations. Ce système que nous avons nommé IRIES permet à l'utilisateur de travailler de manière duale sur les règles d'extraction d'information et les exemples d'apprentissage. Pour mettre en place l'approche proposée, nous avons proposé une chaîne d'annotation linguistique du texte et l'utilisation d'un langage de règles expressif pour la compréhensibilité et la généricité des règles écrites ou inférées, une stratégie d'apprentissage sur un corpus réduit pour ne pas discriminer les exemples positifs non encore annotés à une itération donnée, la mise en place d'un concordancier pour l'écriture de règles prospectives et la mise en place d'un module d'apprentissage actif (IAL4Sets) pour une sélection intelligente d'exemples. Ces propositions ont été mises en place et évaluées sur deux corpus : le corpus de BioNLP-ST 2013 et le corpus SyntSem. Une étude de différentes combinaisons de traits linguistiques utilisés dans les expressions des règles a permis de voir l'impact de ces traits sur les performances des règles. L'apprentissage sur un corpus réduit a permis un gain considérable en temps d'apprentissage sans dégradation de performances. Enfin, le module d'apprentissage actif proposé (IAL4Sets) a permis d'améliorer les performances de l'apprentissage actif de base de l'algorithme WHISK grâce à l'introduction de la notion de distance ou de similarité distributionnelle qui permet de proposer à l'utilisateur des exemples sémantiquement proches des exemples positifs déjà couverts. Table des matières Table des figures 11 Liste des tableaux 15 1 Introduction 19 1.1 Contexte et motivations . . . . . . . . . . . . . . . . . . . . . . . . . 19 1.2 Contributions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 1.3 Organisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 2 Extraction d'information 2.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2 Architecture type d'un système d'extraction d'information . . 2.3 Tâches d'extraction d'information . . . . . . . . . . . . . . . . 2.4 Évaluation en extraction d'information . . . . . . . . . . . . . 2.4.1 Campagnes d'évaluation . . . . . . . . . . . . . . . . . 2.4.2 Fonctions de mesure de performance . . . . . . . . . . 2.5 Rôle des informations linguistiques en extraction d'information 2.6 Approches d'extraction d'information à base de règles . . . . . 2.6.1 Formalismes de règles . . . . . . . . . . . . . . . . . . . 2.6.2 Stratégies de résolution de conflits entre les règles . . . 2.6.3 Apprentissage de règles d'extraction d'information . . . 2.7 Approches d'extraction d'information statistiques . . . . . . . 2.7.1 Modèles de Markov Cachés . . . . . . . . . . . . . . . . 2.7.2 Modèles d'Entropie Maximale . . . . . . . . . . . . . . 2.7.3 Champs Aléatoires Conditionnels . . . . . . . . . . . . 2.7.4 Séparateurs à Vaste Marge . . . . . . . . . . . . . . . . 2.8 Extraction d'information et ontologies . . . . . . . . . . . . . 2.8.1 Extraction d'information guidée par les ontologies . . . 2.8.2 Architecture d'un système OBIE . . . . . . . . . . . . 2.9 Extraction d'information ouverte (OIE) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 23 24 25 26 26 28 29 30 31 34 35 40 40 42 43 43 44 45 47 48 3 Extraction d'information interactive 3.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2 Systèmes d'extraction d'information entraînés de manière interactive . 3.3 Systèmes d'extraction d'information basés sur l'apprentissage actif . . 3.3.1 Apprentissage actif . . . . . . . . . . . . . . . . . . . . . . . . 3.3.2 Exemples de systèmes interactifs utilisant l'apprentissage actif 51 51 52 53 53 54 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 Table des matières 3.4 3.5 3.6 Systèmes d'extraction d'information dotés d'interfaces de visualisation 57 Systèmes d'aide au développement d'extracteurs d'information à base de règles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58 Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63 4 Outillage 4.1 Gestion de l'information non structurée . . . . . . 4.2 Apache UIMA : un standard OASIS . . . . . . . . 4.2.1 Analysis Engines (AEs) . . . . . . . . . . 4.2.2 Common Analysis Structure (CAS) . . . . 4.2.3 Développement d'applications avec UIMA 4.3 Apache UIMA Ruta . . . . . . . . . . . . . . . . 4.3.1 Le langage Ruta : Concepts de base . . . . 4.3.2 Écriture des règles Ruta . . . . . . . . . . 4.3.3 Application des règles Ruta : Ruta Engine 4.4 Apache UIMA Ruta TextRuler . . . . . . . . . . . 4.4.1 Algorithmes d'apprentissage de règles . . . 4.4.2 Interface TextRuler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 Problématique : interaction dans l'apprentissage de règles d'extraction d'information 5.1 Placer l'utilisateur au centre du système . . . . . . . . . . . . . . . . 5.2 Propriétés clés d'un système interactif . . . . . . . . . . . . . . . . . . 5.2.1 Compréhensibilité des règles . . . . . . . . . . . . . . . . . . . 5.2.2 Généricité/généralité des règles . . . . . . . . . . . . . . . . . 5.2.3 Stabilité des règles . . . . . . . . . . . . . . . . . . . . . . . . 5.2.4 Sélection d'exemples . . . . . . . . . . . . . . . . . . . . . . . 5.2.5 Temps d'apprentissage . . . . . . . . . . . . . . . . . . . . . . 5.3 Corpus de travail . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.3.1 Corpus BB BioNLP-ST 2013 . . . . . . . . . . . . . . . . . . . 5.3.2 Corpus SyntSem . . . . . . . . . . . . . . . . . . . . . . . . . 67 67 68 69 70 70 71 71 72 75 75 77 79 83 83 84 84 86 87 87 88 89 89 90 6 Proposition : une approche interactive d'apprentissage de règles d'extraction d'information 93 6.1 Processus hybride, interactif et itératif . . . . . . . . . . . . . . . . . 93 6.2 Stratégies proposées pour la compréhensibilité et la généricité des règles 99 6.2.1 Une chaîne d'annotation du texte . . . . . . . . . . . . . . . . 99 6.2.2 Un langage de règles expressif . . . . . . . . . . . . . . . . . . 100 6.3 Choix d'un algorithme d'apprentissage de règles : WHISK basé sur Ruta (WHISKR ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101 6.4 Stratégies proposées pour la construction de l'ensemble des règles . . 103 6.4.1 Réduction de l'espace de recherche de règles : réduction de la fenêtre de mots autour du terme cible à la phrase . . . . . . . 103 6.4.2 Apprentissage sur un corpus réduit . . . . . . . . . . . . . . . 106 6.4.3 Effet sur les performances et le temps d'apprentissage . . . . . 109 6.5 Stratégies proposées pour mettre en place la sélection d'exemples . . 110 6.5.1 Un concordancier pour écrire des règles prospectives . . . . . . 110 9 Table des matières 6.5.2 Un module d'apprentissage actif . . . . . . . . . . . . . . . . . 111 7 IRIES : un système interactif d'apprentissage de règles d'extraction d'information 123 7.1 Architecture du système IRIES . . . . . . . . . . . . . . . . . . . . . 123 7.2 Préparation des corpus : une chaine d'annotation basée sur UIMA . . 125 7.3 Développement du système IRIES . . . . . . . . . . . . . . . . . . . . 129 7.3.1 Réutilisation du système TextRuler . . . . . . . . . . . . . . . 129 7.3.2 WHISKR Ext : une extension de WHISKR . . . . . . . . . . . . 130 7.3.3 Mise en oeuvre de la sélection d'exemples . . . . . . . . . . . . 134 7.4 Interface du système IRIES . . . . . . . . . . . . . . . . . . . . . . . 138 8 Expérimentations 8.1 Fonctions de mesure de performances utilisées . . . . . . . . . . . . 8.2 Rôle des informations linguistiques dans les performances des règles 8.2.1 Cas d'usage 1 : apprentissage des habitats de bactéries . . . 8.2.2 Cas d'usage 2 : désambiguïsation lexicale . . . . . . . . . . . 8.3 Évaluation du gain en temps d'apprentissage . . . . . . . . . . . . . 8.4 Apports des modules d'apprentissage actif proposés . . . . . . . . . 8.4.1 Comparaison des modules IAL4Sets, IAL3Sets et Baseline . 8.4.2 Rôle de l'ensemble TSEP dans l'amélioration de l'apprentissage actif . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.5 Etude expérimentale de la stabilité des règles . . . . . . . . . . . . . 8.5.1 Expérience 1 : ajout d'exemples d'apprentissage . . . . . . . 8.5.2 Expérience 2 : écriture de règles . . . . . . . . . . . . . . . . . . . . . . . 143 143 144 144 150 153 156 156 . . . . 162 168 169 172 9 Conclusion et Perspectives 179 9.1 Rappel des objectifs . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179 9.2 Bilan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180 9.3 Perspectives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181 Bibliographie 185 Table des figures 2.1 2.2 2.3 3.1 3.2 3.3 3.4 3.5 3.6 3.7 3.8 4.1 4.2 4.3 4.4 6.1 6.2 6.3 6.4 6.5 6.6 Exemples d'informations extraites à partir d'un article de journal à propos d'une catastrophe naturelle. . . . . . . . . . . . . . . . . . . . 23 Architecture type d'un système d'extraction d'information. Schéma tiré de (Appelt, 1999). . . . . . . . . . . . . . . . . . . . . . . . . . . 24 Architecture générale d'un système OBIE(Wimalasuriya & Dou, 2010). 47 Modèle du système I2 E2 (Cardie & Pierce, 1998). . . . . . . . . . . . Interface utilisateur pour la saisie des coordonnées d'un contact (Kristjansson, Culotta, Viola, & McCallum, 2004). . . . . . . . . . . . . . . Architecture du système IDEX (Eichler, Hemsen, Löckelt, Neumann, & Reithinger, 2008). . . . . . . . . . . . . . . . . . . . . . . . . . . . Architecture d'IdexVisor (Eichler et al., 2008). . . . . . . . . . . . . . Processus de développement d'un extracteur d'information dans WizIE (Li, Chiticariu, Yang, Reiss, & Carreno-fuentes, 2012). . . . . . . Phase de développement des règles dans WizIE (Li et al., 2012) : (A) développement et (B) test. . . . . . . . . . . . . . . . . . . . . . . . . La vue « sentence view » de Propminer (Akbik, Konomi, & Melnikov, 2013) où les deux premières étapes du workflow sont exécutées. . . . La vue corpus view de Propminer (Akbik et al., 2013) où les règles d'extraction sont modifiées et évaluées. . . . . . . . . . . . . . . . . . Fonctionnement général d'une application utilisant UIMA. Schéma tiré de la documentation Apache UIMA. . . . . . . . . . . . . . . . Exemple d'un script Ruta. . . . . . . . . . . . . . . . . . . . . . . . La hiérarchie des annotations de base dans le langage Ruta. Schéma tiré de la documentation Apache UIMA Ruta. . . . . . . . . . . . . L'interface de TextRuler. Schéma tiré de la documentation Apache UIMA Ruta. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Processus hybride, interactif et itératif d'apprentissage de règles d'extraction d'information. . . . . . . . . . . . . . . . . . . . . . . . . . Scénario 1 : première itération. . . . . . . . . . . . . . . . . . . . . Scénario 2 : annotation des exemples couverts. . . . . . . . . . . . . Scénario 3 : prospection et annotation de nouveaux exemples. . . . Scénario 4 : travail sur les règles. . . . . . . . . . . . . . . . . . . . Interface de travail pour la production de règles d'EI de manière interactive et itérative. . . . . . . . . . . . . . . . . . . . . . . . . . . 52 55 57 58 59 60 62 63 . 71 . 72 . 73 . 80 . . . . . 94 96 96 97 97 . 98 12 Table des figures 6.7 6.8 6.9 6.10 6.11 6.12 6.13 6.14 6.15 6.16 6.17 Chaine d'annotation du texte proposée. . . . . . . . . . . . . . . . . Extrait du corpus BB BioNLP-ST 2013. . . . . . . . . . . . . . . . Règles qui décrivent la cible. . . . . . . . . . . . . . . . . . . . . . . Règles qui décrivent le contexte gauche de la cible. . . . . . . . . . . Règles qui décrivent le contexte droit de la cible. . . . . . . . . . . . Règles qui décrivent le contexte droit de la cible sans sortir des limites de la phrase. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Extrait du corpus BB BioNLP-ST 2013. . . . . . . . . . . . . . . . Algorithme de construction des généralisations minimales de règles. Algorithme de construction de l'ensemble TSEP. . . . . . . . . . . . Algorithme du module d'apprentissage actif IAL4Sets. . . . . . . . Algorithme du module d'apprentissage actif IAL3Sets. . . . . . . . 7.1 7.2 7.3 7.4 Architecture du système IRIES. . . . . . . . . . . . . . . . . . . . . Type System UIMA non retenu. . . . . . . . . . . . . . . . . . . . . Type System UIMA utilisé. . . . . . . . . . . . . . . . . . . . . . . . Mise en place de la chaine d'annotation proposée dans la plateforme UIMA. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.5 Modèle de processus de TextRuler (Kluegl, Atzmueller, Hermann, & Puppe, 2009). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.6 Diagramme des classes principales de TextRuler. . . . . . . . . . . . 7.7 Principales classes modifiées dans TextRuler. . . . . . . . . . . . . . 7.8 RMatcher : un concordancier basé sur Ruta. . . . . . . . . . . . . . 7.9 Classes implémentées pour mettre en place RMatcher. . . . . . . . . 7.10 Classes implémentées pour mettre en place le module d'apprentissage actif. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.11 Interface du système IRIES. . . . . . . . . . . . . . . . . . . . . . . 8.1 Précision et rappel de WHISKLemPos en fontion du nombre d'exemples d'entraînement. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.2 Lexie majoritaire du mot « compagnie ». . . . . . . . . . . . . . . . 8.3 Lexie majoritaire du mot « organe ». . . . . . . . . . . . . . . . . . 8.4 Précision, rappel et F-mesure de WHISKMot CR en fonction du nombre d'exemples proposés à l'utilisateur par les modules d'apprentissage actif Baseline, IAL4Sets et IAL3Sets. . . . . . . . . . . . . . . . . . 8.5 Précision, rappel et F-mesure de WHISKLemPos CR en fonction du nombre d'exemples proposés à l'utilisateur par les modules d'apprentissage actif Baseline, IAL4Sets et IAL3Sets. . . . . . . . . . . . . . 8.6 Nombre d'exemples positifs couverts par WHISKMot CR en fonction du nombre d'exemples proposés à l'utilisateur par les modules d'apprentissage actif Baseline, IAL4Sets et IAL3Sets. . . . . . . . . . . . 8.7 Nombre d'exemples positifs couverts par WHISKLemPos CR en fonction du nombre d'exemples proposés à l'utilisateur par les modules d'apprentissage actif Baseline, IAL4Sets et IAL3Sets. . . . . . . . . 8.8 Texte 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.9 Texte 2. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.10 Texte 3. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100 104 104 105 105 . . . . . . 106 108 115 118 119 120 . 124 . 126 . 126 . 128 . . . . . 130 131 133 135 136 . 137 . 139 . 148 . 150 . 151 . 158 . 159 . 160 . . . . 160 170 170 170 Table des figures 8.11 8.12 8.13 8.14 13 8.18 Règles produites par WHISKLemPos en apprenant sur Texte 1. . . . Règles produites par WHISKLemPos en apprenant sur Texte 2. . . . Règles produites par WHISKLemPos en apprenant sur Texte 3. . . . Règles produites par WHISKLemPos en apprenant sur Texte 1 et Texte 2. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Règles produites par WHISKLemPos en apprenant sur Texte 1 et Texte 3. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Règles produites par WHISKLemPos en apprenant sur Texte 2 et Texte 3. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Règles produites par WHISKMotLemPos en apprenant sur l'ensemble du corpus. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Texte 4. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.1 Méthodologie de production d'une extension d'une ontologie . . . . . 182 8.15 8.16 8.17 . 171 . 171 . 171 . 171 . 171 . 171 . 174 . 175 Liste des tableaux 4.1 Description des annotations de base dans le langage Ruta. . . . . . . 74 4.2 Description des paramètres de configuration de Ruta Engine. . . . . . 77 5.1 Aperçu sur les données fournies pour la sous-tâche 1 du BB BioNLPST 2013. E représente les données d'entraînement et D les données de développement. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90 5.2 Statistiques sur les noms ambigus dans le corpus SyntSem. . . . . . . 91 6.1 Evaluation qualitative de (LP)2 R , WHISKR et RAPIERR dans (Kluegl, Atzmueller, Hermann, & Puppe, 2009). (1=faible, 10=très bien). . . . 103 8.1 Performances de certaines versions de WHISKR Ext sur les données de développement. vp correspond au nombre d'annotations de catégories d'habitats prédites correctement dans le corpus de développement. P, R et F correspondent respectivement aux valeurs de précision, rappel et F-mesure sur les données de développement et R3 et F3 correspondent aux valeurs de rappel et F-mesure pour les catégories sur lesquelles les différentes versions de WHISKR Ext utilisées ont été entraînées. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145 8.2 Performances de WHISKMot , WHISKLem , WHISKLemPos et WHISKMotLemPos . vp correspond au nombre d'annotations d'habitats prédites correctement dans le corpus de développement. P correspond à la valeur de précision sur les données de développement et R20 et F20 correspondent respectivement aux valeurs de rappel et F-mesure pour les catégories sur lesquelles les différentes versions de WHISKR Ext utilisées ont été entraînées. . . . . . . . . . . . . . . . . . . . . . . . . . . 149 8.3 Statistiques sur les mots à extraire. . . . . . . . . . . . . . . . . . . . 150 8.4 Performances moyennes des versions de WHISKR Ext utilisées dans la tâche d'apprentissage de la lexie majoritaire du mot « compagnie ». vp correspond au nombre moyen d'annotations prédites correctement dans le corpus de test. P, R et F correspondent respectivement aux valeurs moyennes de précision, rappel et F-mesure sur les données de test. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151 16 Liste des tableaux 8.5 8.6 8.7 8.8 8.9 8.10 8.11 8.12 8.13 8.14 8.15 8.16 8.17 8.18 Performances moyennes des versions de WHISKR Ext utilisées dans la tâche d'apprentissage de la lexie majoritaire du mot « organe ». vp correspond au nombre moyen d'annotations prédites correctement dans le corpus de test. P, R et F correspondent respectivement aux valeurs moyennes de précision, rappel et F-mesure sur les données de test. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151 Temps d'apprentissage moyen et performances moyennes de WHISKMot , WHISKLem , WHISKLemPos et MotLemPos dans l'expérience 1. P correspond à la valeur moyenne de précision sur le corpus de test et R20 et F20 correspondent respectivement aux valeurs moyennes de rappel et de F-mesure pour les catégories sur lesquelles les différentes versions de WHISKR Ext utilisées ont été entraînées. . . . . . . . . . . . . . . 154 Temps d'apprentissage moyen et performances moyennes de WHISKMot P , WHISKLem P , WHISKLemPos P et MotLemPos P dans l'expérience 2. P correspond à la valeur moyenne de précision sur le corpus de test et R20 et F20 correspondent respectivement aux valeurs moyennes de rappel et de F-mesure pour les catégories sur lesquelles les différentes versions de WHISKR Ext utilisées ont été entraînées. . . . . . . . . . . 154 Temps d'apprentissage moyen et performances moyennes de WHISKMot CR , WHISKLem CR , WHISKLemPos CR et MotLemPos CR dans l'expérience 3. P correspond à la valeur moyenne de précision sur le corpus de test et R20 et F20 correspondent respectivement aux valeurs moyennes de rappel et de F-mesure pour les catégories sur lesquelles les différentes versions de WHISKR Ext utilisées ont été entraînées. . . . . . . . . . . 155 Gain en temps d'apprentissage (GTA) dans l'expérience 2 par rapport à l'expérience 1 pour les algorithmes WHISKMot P , WHISKLem P , WHISKLemPos P et WHISKMotLemPos P . . . . . . . . . . . . . . . . . . . 155 Gain en temps d'apprentissage (GTA) dans l'expérience 3 par rapport aux expériences 1 et 2 pour les algorithmes WHISKMot CR , WHISKLem CR , WHISKLemPos CR et WHISKLemPos CR . . . . . . . . . . . . . . . . . . . 156 Itération 0 du test. nEPC représente le nombre d'exemples positifs couverts dans l'ensemble d'apprentissage. . . . . . . . . . . . . . . . . 163 Itération 1 du test. nEPC représente le nombre d'exemples positifs couverts dans l'ensemble d'apprentissage. . . . . . . . . . . . . . . . . 163 Itération 2 du test. nEPC représente le nombre d'exemples positifs couverts dans l'ensemble d'apprentissage. . . . . . . . . . . . . . . . . 164 Itération 46 du test. nEPC représente le nombre d'exemples positifs couverts dans l'ensemble d'apprentissage. . . . . . . . . . . . . . . . . 165 Itération 47 du test. nEPC représente le nombre d'exemples positifs couverts dans l'ensemble d'apprentissage. . . . . . . . . . . . . . . . . 165 Itération 62 du test. nEPC représente le nombre d'exemples positifs couverts dans l'ensemble d'apprentissage. . . . . . . . . . . . . . . . . 166 Itération 114 du test. nEPC représente le nombre d'exemples positifs couverts dans l'ensemble d'apprentissage. . . . . . . . . . . . . . . . . 167 Répartition des exemples positifs couverts dans l'ensemble d'entraînement dans le cadre du test réalisé. . . . . . . . . . . . . . . . . . . 167 Liste des tableaux 17 8.19 Vraie répartition des exemples positifs couverts dans l'ensemble d'apprentissage dans le cadre du test réalisé. . . . . . . . . . . . . . . . . 168 Chapitre 1 Introduction 1.1 Contexte et motivations Internet a connu un essor fulgurant dans les années 1990. Très vite, la quantité d'information disponible sur le réseau est devenue très importante, mais son hétérogénéité et son manque de structuration rendait l'accès à cette information très difficile. L'Extraction d'Information (EI), une discipline du Traitement Automatique des Langues (TAL), a alors vu le jour afin de proposer des analyses fines d'un texte écrit en langage naturel et d'améliorer la recherche d'informations spécifiques. Une tâche d'extraction d'information consiste, en effet, à prendre en entrée du texte non structuré écrit en langage naturel, à en extraire des entités et des évènements, pour en produire des données non ambigües dans un format structuré (template, formulaire, etc.), qui sont soit présentées directement à l'utilisateur soit stockées pour des traitements ultérieurs (indexation dans des applications de recherche d'information, etc.). Les travaux dans ce domaine se sont développés grâce aux campagnes MUC (Message Understanding Conferences) qui ont défini un cadre à cette discipline en précisant les différentes tâches qu'elle comporte et en proposant des protocoles d'évaluation associés à ces tâches. Les techniques d'extraction d'information ont énormément évolué durant les deux dernières décennies. Les premiers systèmes d'extraction d'information étaient des systèmes à base de règles écrites manuellement par des experts. L'écriture manuelle des règles étant devenue une tâche fastidieuse, des algorithmes d'apprentissage automatique de règles ont été développés (Aitken, 2002 ; Califf & Mooney, 1998 ; Ciravegna, 2001 ; Riloff, 1996 ; S. Soderland, Cardie, & Mooney, 1999). D'autres techniques ont ensuite vu le jour comme l'apprentissage statistique et les techniques de construction de grammaires car les algorithmes d'apprentissage de règles ont été jugés fragiles face au bruit dans les textes non structurés. Malgré la diversité des techniques d'extraction d'information, les approches à base de règles écrites manuellement et les approches à base d'apprentissage automatique (apprentissage de règles et apprentissage statistique) continuent à être utilisées en parallèle. En effet, chacune de ces familles d'approches possède ses avantages et ses inconvénients. Les approches à base de règles écrites manuellement sont généralement précises et flexibles mais nécessitent une expertise du domaine d'étude ainsi que des compétences techniques et linguistiques importantes pour l'écriture de 20 Chapitre 1. Introduction patrons assez robustes. Ces approches sont également coûteuses à adapter à de nouveaux domaines. Les approches à base d'apprentissage, d'un autre coté, obtiennent des performances comparables aux approches à base de règles écrites manuellement, avec habituellement une précision inférieure mais un meilleur rappel. Cependant, ces approches nécessitent la rédaction d'un guide d'annotation détaillé, puis l'annotation d'une grande quantité d'exemples d'entrainement afin de pouvoir mettre en oeuvre des techniques d'apprentissage. Actuellement, alors que les systèmes à base de règles, écrites manuellement ou inférées de manière automatique, dominent le monde industriel, les recherches académiques semblent plutôt se pencher du côté des approches statistiques (Chiticariu, Li, & Reiss, 2013). Les systèmes d'extraction d'information sont généralement coûteux à mettre en place pour des utilisateurs qui ne disposent pas d'une quantité suffisante de données d'apprentissage annotées ou qui ne sont pas des experts en ingénierie de connaissances. Des systèmes d'extraction d'information interactifs ont donc vu le jour d'une part pour réduire ce coût et d'autre part pour permettre à l'utilisateur d'investiguer les erreurs faites par le système d'extraction d'information et de les corriger. L'extraction d'information interactive a créé de nouveaux besoins dans les systèmes d'extraction d'information (Kristjansson et al., 2004). Pour faciliter l'expérience des utilisateurs, un système d'extraction d'information interactif doit pouvoir attribuer des indices de confiance aux valeurs des champs extraits et prendre en considération de manière optimale les corrections de l'utilisateur. Même si les approches à base de règles sont moins adaptées au paradigme d'extraction d'information interactive que les approches statistiques car elles ne peuvent ni estimer la confiance ni incorporer de manière naturelle les annotations et les corrections de l'utilisateur, des travaux montrent qu'il est tout à fait possible d'introduire la notion de confiance dans des systèmes d'extraction d'information à base de règles sans pour autant utiliser les méthodes conventionnelles d'estimation de confiance tirées de l'état de l'art de l'apprentissage actif (S. Soderland et al., 1999 ; Thompson, Califf, & Mooney, 1999 ; T. Wu & Pottenger, 2005). L'interaction avec l'utilisateur dans ces systèmes à base de règles peut se faire de différentes manières. Certains travaux se contentent d'entraîner de manière interactive le système d'extraction d'information (Cardie & Pierce, 1998). D'autres disposent d'une interface interactive qui guide l'utilisateur dans la construction du système d'extraction d'information mais ne disposent pas d'un module d'apprentissage automatique (Li et al., 2012), ce qui les rend coûteux en termes d'effort humain. D'autres permettent à un utilisateur initié de développer un extracteur d'information de bout en bout mais ne disposent pas d'un module qui facilite le choix des exemples à annoter par l'utilisateur (Akbik et al., 2013). Un besoin de développer un système d'EI interactif générique qui permet de guider l'utilisateur aussi bien dans l'écriture des règles que dans le choix des exemples à annoter pour inférer les règles se fait ressentir. Un tel système fonctionnerait idéalement avec n'importe quel langage de règles et n'importe quel algorithme d'apprentissage de règles. Cependant, l'absence de langage de règles standard (Chiticariu et al., 2013) et d'algorithmes d'apprentissage de règles qui s'appuient sur des langages standard complique l'interaction de l'utilisateur avec le système d'EI dans la mesure où il faut soit maîtriser le langage de règles utilisé par l'algorithme d'apprentissage de règles, soit adapter l'algorithme d'apprentissage de règles au langage de règles maîtrisé par 1.2. Contributions 21 l'utilisateur. Le système TextRuler (Kluegl, Atzmueller, Hermann, & Puppe, 2009) est, par exemple, un système de développement semi-automatique d'applications d'EI à base de règles contenant des implémentations d'algorithmes d'apprentissage de règles de la littérature adaptées au langage Ruta. 1.2 Contributions Nous nous intéressons, dans ce travail, aux approches à base de règles car les règles sont plus faciles à manipuler et à interpréter par un être humain. Ainsi, nous proposons une approche d'EI à base de règles qui a l'avantage d'être : - hybride dans la mesure où elle combine une approche d'EI à base de règles écrites manuellement et une approche d'EI à base d'apprentissage de règles permettant ainsi à l'utilisateur de choisir l'opération qu'il juge la plus adaptée entre l'annotation d'exemples d'apprentissage et l'écriture de règles ; - interactive dans la mesure où l'utilisateur interagit avec le module d'apprentissage de règles en lui communiquant un feedback sur la pertinence des règles inférées (soit en annotant les exemples couverts par ces règles soit en modifiant les règles elles-mêmes) ; - itérative car elle nécessite plusieurs itérations pour une construction progressive de la base des règles de manière à minimiser l'effort humain requis. L'approche interactive que nous proposons permet à l'utilisateur d'assurer la généricité des règles et de contenir leur complexité. Pour assurer ses objectifs, l'approche proposée doit lever certains verrous liés aux propriétés suivantes. - La compréhensibilité des règles : pour pouvoir modifier et améliorer des règles existantes, l'utilisateur a besoin de comprendre les règles qui doivent avoir une expression symbolique, être assez courtes, être en nombre réduit et s'appuyer sur des termes intuitifs. - La généricité des règles : pour être générique, une règle doit reposer sur des annotations textuelles elles mêmes génériques. La généricité des règles améliore leur compréhensibilité dans la mesure où elle permet d'obtenir des expressions de règles plus courtes et un ensemble de règles plus réduit. - La stabilité des règles : le module d'apprentissage doit prendre en compte les règles écrites ou modifiées par l'utilisateur et essayer de les étendre sans modifier complètement leurs expressions pour permettre à l'utilisateur de suivre l'évolution des règles au fil des itérations et de garder le contrôle sur leur complexité. - La sélection d'exemples : un module de sélection d'exemples pertinents permet à l'utilisateur d'annoter moins d'exemples. - Le temps d'apprentissage : pour pouvoir interagir avec le module d'apprentissage, l'utilisateur ne doit pas attendre longtemps avant d'avoir une réponse de l'algorithme. Le système qui met en place cette approche s'appelle IRIES. IRIES étend l'interface de visualisation du système TextRuler (Kluegl, Atzmueller, Hermann, & Puppe, 2009) et l'algorithme WHISK basé sur le langage Ruta implémenté dans TextRuler. Il contient des modules qui lui permettent de répondre aux spécifications de l'approche proposée : une chaîne d'annotation linguistique et un langage de règles 22 Chapitre 1. Introduction expressif pour la compréhensibilité et la généricité des règles d'EI écrites ou inférées, une stratégie d'apprentissage sur un corpus réduit qui permet de ne pas considérer comme négatifs les exemples positifs non encore annotés par l'utilisateur à une itération donnée et de réduire le temps d'apprentissage, un concordancier pour pouvoir écrire des règles prospectives et réduire son espace de travail et enfin, deux versions d'un module d'apprentissage actif (IAL4Sets et IAL3Sets) pour une sélection intelligente des exemples à annoter. Les modules proposés ont été mis en place et évalués sur deux corpus : le corpus de BioNLP-ST 2013 et le corpus SyntSem. 1.3 Organisation Nous organisons notre rapport de la manière suivante : Le chapitre 2 est consacré à l'état de l'art en EI. Après une brève présentation de ce qu'est l'EI, des tâches d'EI et de l'évaluation en EI, ce chapitre décrit les approches d'EI : les approches à base de règles (écrites manuellement ou inférées automatiquement) et les approches statistiques, en mettant l'accent sur les approches à base de règles. Nous clôturons ce chapitre par la présentation des nouvelles tendances en EI, à savoir l'utilisation des ontologies et le paradigme de l'extraction d'information ouverte. Dans le chapitre 3, nous faisons la lumière sur l'extraction d'information interactive, un paradigme qui a vu le jour pour permettre à l'utilisateur de comprendre, d'explorer et d'améliorer les résultats des systèmes d'extraction d'information. Nous décrivons, dans ce chapitre, 4 types de systèmes d'EI interactifs : les systèmes entraînés de manière interactive, les systèmes basés sur l'apprentissage actif, les systèmes dotés d'interfaces de visualisation et les systèmes d'aide au développement d'extracteurs d'information à base de règles. Ce chapitre montre qu'il est nécessaire de combiner les avantages de plusieurs systèmes interactifs existants. Le chapitre 4 décrit la plateforme UIMA choisie pour mettre en place la chaîne d'annotation linguistique des corpus d'étude, le langage Ruta choisi pour écrire et induire des règles d'EI et la plateforme TextRuler utilisée dans l'approche proposée. Le chapitre 5 présente la problématique, explicite les objectifs et détaille les enjeux de ce travail. Nous présentons dans ce chapitre les propriétés caractéristiques d'un système d'EI interactif : la compréhensibilité des règles, la généricité des règles, la stabilité des règles, la sélection d'exemples et le temps d'apprentissage. Le chapitre 5 présente également les corpus utilisés pour évaluer l'approche proposée dans ce travail : le corpus de BioNLP-ST 2013 et le corpus SyntSem. Le chapitre 6 détaille les différentes méthodes et stratégies proposées dans ce travail pour mettre en place l'approche interactive d'apprentissage de règles d'EI. Les détails de leur mise en oeuvre et leur implémentation figurent dans le chapitre 7. Le chapitre 8 contient la description de toutes les expérimentations réalisées dans le cadre de ce travail pour valider les différentes propositions. Le chapitre 9 clôture ce rapport en dressant un bilan du travail réalisé et en donnant quelques perspectives. Chapitre 2 Extraction d'information Nous présentons dans ce chapitre un état de l'art autour de l'extraction d'information (EI). Avant d'être interactive, l'approche que nous mettons en place dans ce travail est une approche d'EI. Par conséquent, il est primordial de comprendre ce qu'est l'EI, en quoi consistent les tâches d'EI, de quoi est composé un système d'EI type, comment on évalue les systèmes d'EI et surtout quelles sont les différentes approches d'EI, leurs avantages et leurs inconvénients. Nous tâchons, dans ce chapitre, d'éclaircir ces différents points. 2.1 Définition L'extraction d'information (EI) est un sous-domaine du Traitement Automatique des Langues (TAL) qui a pour but d'identifier dans des textes relatifs à un domaine spécifique un ensemble de concepts prédéfinis pour en produire des données non ambigües dans un format structuré (template, formulaire, etc.). Autrement dit, l'EI permet de dériver des informations structurées à partir de données non structurées. Considérons un exemple d'extraction d'information à propos d'une catastrophe naturelle : Xynthia, une violente tempête a traversé la France le 28 février entre 0h et 17h. Le dernier bilan national fait état de 53 morts, 7 blessés graves et 72 blessés plus légèrement. Au total, plus de 500 000 personnes ont été sinistrées à des degrés divers. Champ à remplir TYPE SOUS-TYPE LIEU NOMBRE DE MORTS NOMBRE DE BLESSÉS DATE Valeur Catastrophe naturelle Tempête France 53 79 le 28 février entre 0h et 17h Figure 2.1 – Exemples d'informations extraites à partir d'un article de journal à propos d'une catastrophe naturelle. 24 Chapitre 2. Extraction d'information La figure 2.1 montre un extrait d'un article de journal qui parle d'une catastrophe naturelle et les informations structurées dérivées de cet extrait sous forme de paires champ-valeur. Les champs correspondent aux attributs à remplir dans le formulaire cible et les valeurs aux segments de texte extraits pour remplir les champs. 2.2 Architecture type d'un système d'extraction d'information D'après Appelt (1999), un système d'EI typique contient un ensemble de phases pour assurer une tokenisation des données d'entrée, une analyse lexicale et morphologique, une analyse syntaxique de base et une identification des informations relatives à l'application en question (voir figure 2.2). Figure 2.2 – Architecture type d'un système d'extraction d'information. Schéma tiré de (Appelt, 1999). Certaines phases peuvent ne pas être nécessaires à certaines applications. En plus des modules principaux figurant dans la partie gauche de la figure, certains systèmes d'EI comportent des modules supplémentaires (partie droite de la figure) selon les besoins de l'application. Tokenisation - Elle permet de segmenter le texte d'entrée en unités appelées tokens et de les classer selon leur type (mots écrits en majuscules, mots écrits en miniscules, mots contenant un trait d'union, signes de ponctuation, nombres, etc.). Analyse lexicale et morphologique - Elle permet d'extraire à partir des tokens des informations morphologiques comme la forme canonique des mots (le lemme) et les parties de discours (nom, verbe, adjectif, etc.). Une désambiguïsation est réalisée pour certains mots qui sont ambigus face à certaines catégories morphologiques. 2.3. Tâches d'extraction d'information 25 Analyse syntaxique - Elle a pour but d'identifier la structure syntaxique du document analysé. La plupart des systèmes d'EI réalisent une analyse superficielle de certains fragments de texte mais certains n'en font pas. Les systèmes d'EI s'intéressent à des informations spécifiques dans le texte et ignorent les portions de texte qu'ils ne jugent pas pertinentes pour leur tâche. Il est, par conséquent, inutile d'analyser ces portions. Analyse spécifique au domaine - Ce module est le coeur de tout système d'EI. Les modules précédents permettent de préparer le texte pour l'analyse de domaine. Ce module permet de remplir des templates ou formulaires qui sont généralement construits sous forme de paires attribut-valeur ou champvaleur. Les templates sont, en effet, des collections de champs ou d'attributs qui doivent être remplis chacun par une ou plusieurs valeurs. Les champs d'un template peuvent, par exemple, être remplis par des dates, des noms d'organisations, etc. Le système d'EI que nous proposons dans ce travail ne contient pas de module d'analyse syntaxique. Nous nous contentons donc des modules de tokenisation, d'analyse lexicale et morphologique et d'analyse spécifique au domaine. 2.3 Tâches d'extraction d'information L'EI a comme but l'identification dans un texte écrit en langage naturel des instances d'une classe particulière d'entités, de relations ou d'évènements ainsi que l'extraction de leurs propriétés. Les informations extraites sont ensuite stockées dans des structures prédéfinies par l'utilisateur (formulaire, template, etc.) contenant un ensemble de champs ou d'attributs qui sont instanciés par le système d'EI. Les tâches classiques d'EI sont les suivantes. Reconnaissance d'entités nommées (REN) – La REN est la plus simple et la plus fiable des tâches d'EI. Les systèmes de REN permettent d'identifier les entités nommées comme les personnes, les organisations, les dates, les montants, etc. Les tâches de REN peuvent être accomplies avec une précision de 95%. Étant donné que les annotateurs humains n'atteignent pas un niveau de précision égal à 100%, nous pouvons dire que les tâches de REN atteignent des niveaux de performances humaines. L'inconvénient majeur des systèmes de REN réside dans leur dépendance vis-à-vis du domaine étudié. Le changement du domaine d'étude implique le plus souvent des changements majeurs. Résolution de coréférence (CO) – Cette tâche permet d'identifier toutes les mentions de la même entité. Les mentions en question sont soit des entités identifiées par la tâche de REN, soit des références anaphoriques à ces entités. « GIT » et « gastrointestinal tract » sont, par exemple, deux mentions d'une même entité. La CO est d'une grande utilité pour la tâche d'extraction d'évènements car elle permet d'associer des informations descriptives dispersées dans les textes aux entités auxquelles elles réfèrent. Contrairement à la tâche de REN, la CO est une tâche accomplie avec des valeurs de précision 26 Chapitre 2. Extraction d'information faibles surtout quand il s'agit de résoudre des références anaphoriques. Elle est également dépendante du domaine d'étude. Extraction de relations (ER) – Elle permet de détecter les relations entre les entités identifiées dans le texte. Même s'il existe généralement beaucoup de relations intéressantes dans un texte, les relations à extraire dans une tâche donnée sont prédéfinies et font partie intégrante des spécifications de la tâche. « EmployéDe » peut être, par exemple, une relation entre une personne et une organisation. L'extraction de relations est une tâche qui dépend peu du domaine et peut atteindre environ 75% de précision (Cunningham, 2005). Extraction d'évènements (EE) – Cette tâche permet d'identifier des évènements dans un texte non structuré et de les exprimer de manière structurée. Elle inclut l'extraction de plusieurs entités et les relations entre elles. L'extraction d'informations à propos d'une attaque terroriste, par exemple, implique l'identification des acteurs, des victimes, du nombre de blessés/tués, des armes utilisées et du lieu de l'attaque. Dans le programme ACE, le successeur des campagnes MUCs, les systèmes d'EI n'extraient généralement pas des templates du type de ceux des MUCs. Toutes les tâches sont, en effet, confondues dans une seule tâche (Doddington et al., 2004). L'augmentation de l'utilisation des ontologies et du web des données a conduit à une nouvelle définition des entités au regard de ces ressources dans les systèmes d'EI. Le terme « annotation sémantique » est parfois utilisé pour désigner l'annotation du texte avec des sémantiques définies dans des ressources externes comme les ontologies. Ce processus est également appelé l'extraction d'information basée sur les ontologies (Bontcheva, Tablan, Maynard, & Cunningham, 2004) (voir section 2.8). Avec le développement des réseaux sociaux et l'attractivité des informations qu'ils diffusent, une nouvelle génération d'extraction d'information a vu le jour : l'extraction d'information ouverte (Open Information Extraction, OIE) (Banko, Cafarella, Soderland, Broadhead, & Etzioni, 2007). Ce type d'extraction d'information ne présente pas les mêmes objectifs et défis que l'EI classique (voir section 2.9). Nous ne visons pas, dans ce travail, une tâche particulière d'EI, le but étant de proposer une approche générique d'extraction d'information interactive qui peut s'appliquer dans le cadre de n'importe quelle tâche d'extraction d'information. Il suffit pour cela d'adapter le module d'EI à la tâche cible. 2.4 2.4.1 Évaluation en extraction d'information Campagnes d'évaluation La recherche dans le domaine de l'EI a souvent été suivie et évaluée à travers une série de campagnes d'évaluation sponsorisées par le gouvernement des États-Unis. Au milieu des années 80, il y a eu plusieurs tentatives pour extraire des informations à partir de journaux (DeJong, 1982) et de rapports médicaux (Sager, Friedman, & Lyman, 1987) mais l'évaluation était limitée, surtout quand il s'agissait de comparer des systèmes entre eux car il était difficile de dire quel progrès avait été fait. 2.4. Évaluation en extraction d'information 27 Pour mieux évaluer le progrès, la DARPA (agence de projets de recherche avancés dans le domaine de la défense) a initié une série de campagnes d'évaluation (MUCs) 1 . Ces campagnes ont été lancées dans le but de coordonner les différents groupes de recherche qui cherchaient à améliorer les techniques d'EI et de recherche d'information (Grishman, 1996). Les MUCs ont défini plusieurs tâches d'EI et ont invité la communauté scientifique à adapter leurs systèmes à ces tâches. Elles fournissaient aux participants une description détaillée des tâches à accomplir, des données d'apprentissage et une période de temps limitée (de 1 à 6 mois) pour adapter leurs systèmes. Durant la phase de test, chaque participant reçoit un nouvel ensemble de documents de test, applique son système d'EI sur ces documents et renvoie les templates remplis aux organisateurs de la MUC. Les résultats sont ensuite comparés à des templates remplis manuellement par des annotateurs humains. Les deux premières MUCs (1987-1989) se sont concentrées sur l'analyse automatique de messages militaires contenant des informations textuelles sur les batailles navales où le template à remplir contenait 10 champs (attributs). La MUC-3 (Lehnert, Cardie, Fisher, Riloff, & Williams, 1991) s'est intéressée à l'extraction à partir d'articles de presse des informations concernant des activités terroristes, des fondations internationales, des évènements de succession de gestion d'entreprises et des lancements de missiles et de véhicules spatiaux. Les structures des templates à remplir s'est complexifiée au fil du temps. À partir de MUC-5, la structure imbriquée des templates et l'EI multilingue ont été introduites. Les dernières MUCs ont défini plusieurs sous-tâches d'EI dans le but de faciliter l'évaluation et l'identification de sous-composants d'EI utilisables immédiatement. Les tâches d'EI génériques définies dans MUC-7 (1998) ont fourni progressivement des informations de haut niveau sur les textes. Le programme ACE 2 lancé en 1999 dans la continuité des campagnes MUCs a comme but l'aide au développement de techniques d'extraction automatique de contenu pour le traitement automatique du langage naturel dans le texte depuis différentes sources (Doddington et al., 2004). Ce programme a défini de nouvelles tâches d'EI plus complexes centrées autour de l'extraction d'entités, de relations et d'évènements (voir section 2.3). La complexité de ces tâches est due essentiellement à: - la considération de différentes sources d'information (journaux, pages web, groupes de discussion, etc.) et de la qualité des données d'entrée (transcriptions de conversations téléphoniques par exemple) ; - l'introduction de types d'entités plus fins (aménagements, entités géopolitiques, etc.), de structures de templates et de types de relations ; - l'élargissement de la portée des tâches d'EI de base. La tâche classique de REN a, par exemple, été convertie en tâche de détection et de suivi d'entités qui permet de détecter toutes les mentions d'entités dans le texte qu'elles soient nommées, nominales ou pronominales. Le programme ACE a été assisté par le consortium de données linguistiques 3 (LDC) qui a permis de fournir des manuels d'annotation, des corpus et d'autres 1. http://www-nlpir.nist.gov/related_projects/muc/ 2. http://www.itl.nist.gov/iad/mig/tests/ace/ 3. https://www.ldc.upenn.edu/ 28 Chapitre 2. Extraction d'information ressources linguistiques qui ont été utilisés pour évaluer les systèmes d'EI d'une manière similaire à celle utilisée dans les campagnes MUCs. Des efforts ont été faits pour préparer les données pour des langues, autres que l'Anglais, comme l'Espagnol, le Chinois et l'Arabe. MUC et ACE sont d'une grande importance dans le domaine d'EI. Ils ont fourni un ensemble de corpus disponibles à la communauté scientifique pour évaluer les systèmes et les approches d'EI. Les systèmes et approches d'EI ont également été évaluées de manière plus élargie. La conférence CONLL a, par exemple, organisé des compétitions (shared tasks) autour des tâches de REN indépendantes du langage 4 . La conférence TAC 5 dédie également depuis 2009 une tâche appelée KBP (peuplement de bases de données) à l'évaluation des tâches centrées autour de la découverte d'informations sur les entités (extraction des attributs des entités) dans les corpus et leur incorporation dans une base de données. D'autres tâches liées à l'extraction d'information ont été évaluées dans Senseval 6 dont le but est d'évaluer les systèmes d'analyse sémantique. 2.4.2 Fonctions de mesure de performance La précision et le rappel sont des mesures adoptées par la communauté de recherche d'information pour évaluer la sortie d'un système d'EI. Elles permettent de mesurer l'efficacité du système d'un point de vue utilisateur. Autrement dit, elles permettent de déterminer jusqu'à quel point le système produit toutes les sorties appropriées (rappel) et seulement les sorties appropriées (précision). La précision et le rappel peuvent ainsi être perçus comme des mesures d'exhaustivité et d'exactitude. Pour définir ces mesures de manière formelle, nous posons les notations suivantes. - GS : le nombre total de champs à remplir au regard d'un corpus de référence annoté qui représente un gold-standard. - C : le nombre de champs remplis correctement dans la réponse du système. - I : le nombre de champs remplis incorrectement dans la réponse du système. On dit qu'un champ ou un attribut est rempli de manière incorrecte s'il ne correspond à aucun champ du gold-standard ou si la valeur qui lui est attribuée est incorrecte. La précision et le rappel sont donc définis comme suit : P récision = C C +I Rappel = C GS Pour évaluer de manière plus approfondie les performances des systèmes d'EI, la précision et la rappel sont souvent calculés pour chaque type de champ séparément. La F-mesure définie par la formule suivante est la moyenne harmonique pondérée de la précision et du rappel. (- 2 + 1) ◊ précision ◊ rappel F ≠ mesure = (- 2 ◊ précision) + rappel 4. http://www.clips.ua.ac.be/conll2002/ner/ 5. http://www.nist.gov/tac/ 6. http://www.senseval.org/ 2.5. Rôle des informations linguistiques en extraction d'information 29 où - est une valeur positive. Elle est égale à 1 quand le même poids est attribué aux deux mesures et inférieure à 1 quand la précision est privilégiée. D'autres mesures sont également utilisées dans la littérature pour évaluer les systèmes d'EI comme la mesure SER (Slot Error Rate) (Makhoul, Kubala, Schwartz, & Weischedel, 1999). SER = I +M GS où M représente le nombre de champs dans le gold-standard qui ne correspondent à aucun champ dans la réponse du système d'extraction d'information. La mesure SER représente le rapport entre le nombre total d'erreurs dans l'extraction des champs et le nombre total des champs dans le corpus de référence. Nous réutilisons, dans ce travail, les fonctions précision, rappel et F-mesure pour évaluer le module d'EI proposé dans le cadre de notre approche interactive. 2.5 Rôle des informations linguistiques en extraction d'information Les informations linguistiques peuvent jouer un rôle très important dans l'identification de contenus pertinents. L'analyse linguistique offre, en effet, des informations supplémentaires qui permettent de caractériser les données extraites ainsi que leurs contextes. Plusieurs faits sont caractérisés par une certaine structure syntaxique, par des propriétés morphologiques ou représentés par des entités nommées. Pour pouvoir les identifier, des informations sur leurs propriétés linguistiques sont donc essentielles. La quantité et les types d'informations linguistiques utilisées diffèrent d'un système d'EI à un autre. Dans le système BWI (Freitag & Kushmerick, 2000), un système d'EI à base de règles utilisé dans plusieurs tâches conventionnelles d'EI, les auteurs utilisent uniquement des informations de capitalisation, un asterisque et un gazetier (gazetteer) pour généraliser. Le système RAPIER (Califf & Mooney, 2003), un autre système à base de règles d'EI évalué sur des annonces d'emploi et des annonces de séminaires, utilise une méthodologie plus linguistique : il permet aux patrons d'exprimer des contraintes sur les mots, les étiquettes morpho-syntaxiques et les classes sémantiques attribuées aux cibles à extraire et aux éléments de contexte. Ciravegna (2001, 2003) montre, à travers l'algorithme (LP)2 , le rôle très important des informations linguistiques dans le processus d'induction de règles d'EI. (LP)2 utilise des informations linguistiques pour généraliser sur les formes fléchies des mots (expression exacte). Il utilise des informations morphologiques pour résoudre le problème de dispersion de données, des informations morpho-syntaxiques pour généraliser sur les catégories lexicales et un module de reconnaissance d'entités nommées pour généraliser sur certaines classes sémantiques définies par l'utilisateur. Le concepteur de l'algorithme oppose plusieurs versions de son algorithme basées sur différentes combinaisons d'informations linguistiques et montre expérimentalement sur des tâches d'EI concernant des annonces de séminaires et des annonces d'emploi que plus on ajoute des informations linguistiques, meilleures sont les performances. 30 Chapitre 2. Extraction d'information Opposé à certains systèmes de l'état de l'art qui le précèdent, (LP)2 a été classé premier sur ces tâches. Pour extraire des informations (nom, dosage, mode, fréquence, durée, raison) sur les médicaments utilisés par des patients à partir de leurs rapports médicaux, Spasic, Sarafraz, Keane, et Nenadic (2010) utilisent une approche à base de règles s'appuyant sur les informations morphologiques, lexicales et syntaxiques de la cible à extraire (segmentation en mots et en phrases, étiquetage morphosyntaxique, analyse syntaxique). Leur système a obtenu la meilleure F-mesure pour les champs durée et raison dans le cadre du challenge i2b2 2009. Le rôle des informations linguistiques a également été étudié dans des travaux relatifs à la Reconnaissance d'Entités Nommées (REN). Les informations morphologiques (capitalisation, digitalisation, formation des mots) ont largement été utilisées dans le domaine de la presse (Bikel, Schwartz, & Weischedel, 1999 ; Chieu & Ng, 2002 ; G. Zhou & Su, 2002) et dans le domaine biomédical (Collier, Nobata, & Tsujii, 2000 ; Gaizauskas, Demetriou, & Humphreys, 2000 ; Kazama, Makino, Ohta, & Tsujii, 2002 ; Nigel, Collier, & ichi Tsujii, 1999 ; Takeuchi & Collier, 2002). Dans le domaine de la presse, ces informations ont été jugées très utiles pour détecter les frontières des entités. Elles ont, en revanche, été jugées beaucoup moins utiles dans le domaine biomédical. L'étiquetage morpho-syntaxique a été jugé non utile dans le domaine de la presse car l'utilisation des étiquettes morpho-syntaxiques s'est avérée incompatible avec l'utilisation d'autres informations plus fiables (capitalisation) pour la détection des frontières des entités (Bikel et al., 1999 ; G. Zhou & Su, 2002). Dans le domaine biomédical, même si la plupart des entités sont écrites en miniscules et par conséquent, les informations de capitalisation ne sont pas trop pertinentes, l'étiquetage morpho-syntaxique n'apporte aucune amélioration significative (Collier et al., 2000 ; Takeuchi & Collier, 2002). La lemmatisation a fait l'étude de plusieurs travaux (Brunet, s. d. ; Xu & Croft, 1998) mais il ne semble pas y avoir des conclusions claires à son sujet. Dans certains travaux, elle permet d'améliorer les résultats (M. P. Jones & Martin, 1997) et dans d'autres elle n'améliore pas voire dégrade les résultats (Bilotti, Katz, & Lin, 2004). Il est vrai que la lemmatisation présente l'avantage de réduire le nombre de formes à considérér et d'augmenter le nombre d'occurrences de chaque forme mais elle peut également entraîner une perte d'informations en remplaçant un mot par son lemme. Lemaire (2008), par exemple, pense que cette perte d'informations est préjudiciable aux algorithmes qui utilisent le contexte des mots puisque ce dernier n'est pas le même selon les formes. Il recommande donc d'être prudent dans l'utilisation de la lemmatisation quand les mots du corpus sont étudiés en fonction de leur contexte. Nous évaluons, dans ce travail, l'impact de l'étiquetage morpho-syntaxique et de la lemmatisation sur les performances des règles inférées. 2.6 Approches d'extraction d'information à base de règles Les méthodes d'EI peuvent être présentées de plusieurs manières. Sarawagi (2008) oppose, par exemple, d'un côté, les approches à base de règles écrites manuellement 2.6. Approches d'extraction d'information à base de règles 31 aux approches à base d'apprentissage artificiel et, d'un autre côté, les approches à base de règles, qu'elles soient écrites manuellement ou apprises, aux approches à base d'apprentissage statistique. Reeve et Han (2005) rejoignent Sarawagi (2008) sur la première classification tandis que Hobbs et Riloff (2010) la rejoignent sur la deuxième classification. Siefkes et Siniakov (2005) distinguent trois types d'approches d'EI : les approches à base de règles, les approches basées sur la connaissance et les approches statistiques. Ils les comparent en s'appuyant sur le type de la tâche d'EI, le type du texte traité, les différentes propriétés et annotations considérées et le niveau d'annotation du texte exigé. Jiang (2012) et Grishman (2012), eux, classent les approches d'EI selon la tâche à accomplir, en approches pour l'extraction d'entités et en approches pour l'extraction de relations. Dans ce chapitre, nous avons choisi de distinguer les approches à base de règles des approches à base d'apprentissage statistique tout en mettant l'accent sur les approches à base de règles qui nous intéressent dans ce travail. Les premiers systèmes d'EI utilisent une approche d'ingénierie de connaissances (Appelt, 1999) où la création des connaissances linguistiques sous forme de règles ou de patrons est réalisée par des experts humains qui inspectent les corpus en se fiant à leur intuition. Ce procédé est généralement exécuté de manière itérative en commençant par un petit ensemble de règles d'extraction testées sur le corpus qui sont ensuite étendues jusqu'à ce qu'un bon compromis entre la précision et le rappel soit trouvé. La plupart des anciens systèmes d'EI souffrent d'un inconvénient majeur : ils sont monolingues et difficilement adaptables à de nouveaux scénarios. Ils ont cependant montré que des techniques de TAL relativement simples peuvent suffire pour résoudre certaines tâches d'EI. Des recherches menées vers la fin des années 90 et au début du 21e siècle ont fait émerger des systèmes d'EI modulaires capables de traiter de manière robuste et efficace de grandes masses de données dans une multitude de langues. Plusieurs parmi ces systèmes s'appuient sur des règles et utilisent un méchanisme de patternmatching pour identifier dans le texte des éléments qui ont une certaine signification sémantique vis-à-vis de la tâche d'EI. Ces règles spécifiques au domaine sont comprises plus facilement quand elles sont écrites de manière déclarative. Des langages pour écrire des règles ont donc émergé. 2.6.1 Formalismes de règles Plusieurs formalismes ont été développés pour permettre d'écrire des règles d'extraction d'information. Nous pouvons par exemple citer : - le langage CSPL (Common Pattern Specification Language) de Hobbs, Bear, Israel, et Tyson (1993) qui représente l'une des premières tentatives pour formaliser un langage de règles ; - les éléments de patrons dans RAPIER (Califf & Mooney, 1998) ; - les expressions régulières dans le système WHISK (S. Soderland et al., 1999) ; - les expressions SQL comme dans Avatar (Jayram, Krishnamurthy, Raghavan, Vaithyanathan, & Zhu, 2006 ; Reiss, Raghavan, Krishnamurthy, Zhu, & Vaithyanathan, 2008) ; - les expressions Datalog comme dans DBLife (Shen, Doan, Naughton, & Ra- 32 Chapitre 2. Extraction d'information makrishnan, 2007) ; - le langage JAPE (Java Annotations Pattern Engine) de Cunningham, Maynard, et Tablan (2000), dérivé de CSPL et introduit dans la plateforme GATE (Cunningham, 2002) afin d'extraire des informations en s'appuyant sur les annotations produites par cette plateforme ; - ou encore plus récemment le langage Ruta (Atzmueller, Kluegl, & Puppe, 2008 ; Kluegl, Atzmueller, & Puppe, 2009) qui est en quelque sorte le pendant de JAPE pour la plateforme UIMA (Ferrucci & Lally, 2004). Plusieurs langages d'extraction d'information déclaratifs dans la communauté des bases de données ont été développés comme AQL (Chiticariu, Krishnamurthy, et al., 2010 ; Li, Reiss, & Chiticariu, 2011), xLog (Shen et al., 2007), des extensions de SQL (Jain, Ipeirotis, & Gravano, 2009 ; Wang, Michelakis, Franklin, Garofalakis, & Hellerstein, 2010). Ces langages ont montré que des formalismes d'extraction d'information à base de règles sont possibles (Fagin, Kimelfeld, Reiss, & Vansummeren, 2013). Ils restent cependant peu connus dans la communauté de TAL. Chiticariu et al. (2013) pensent qu'il est temps d'établir un langage de règles standard pour l'EI qui s'inspire des propositions et des expériences des 30 dernières années. Pour ce faire, les chercheurs doivent répondre aux questions suivantes : - quel est le modèle de données approprié pour exploiter le texte, les annotations du texte et leurs propriétés ? - peut-on établir un langage de règles déclaratif standard extensible qui permettra de traiter des données dans ce modèle avec un ensemble de constructions suffisamment expressives pour résoudre la plupart des tâches d'EI rencontrées ? Les auteurs s'inspirent, dans leur article nommé « Rule-based information extraction is dead ! Long live rule-based information extraction systems ! », du succès de SQL dans la communauté de bases de données pour proposer des instructions pour réduire l'écart entre le monde industriel où les systèmes d'EI à base de règles dominent et le monde académique où ces systèmes ont été délaissés au profit des systèmes à base d'apprentissage statistique. Sarawagi (2008) propose une définition générique d'une règle d'extraction qui est la suivante : Patron contextuel ae Action Le patron contextuel est constitué d'une ou plusieurs expressions régulières définies en s'appuyant sur les propriétés des tokens dans le texte ainsi que leurs contextes. L'action permet de décrire les différents types de marquage dans le texte : - l'étiquetage d'une séquence de tokens ; - l'étiquetage d'une entité ; - l'insertion d'une étiquette de début et de fin à une entité ; - l'attribution de multiples étiquettes à une entité ; - l'étiquetage simultané de plusieurs entités ; - l'étiquetage de relations en repérant les entités impliquées dans la relation à étiqueter, etc. Dans certains langages évolués comme JAPE et Ruta, la partie action de la règle peut accéder aux différentes propriétés utilisées dans le patron contextuel et 2.6. Approches d'extraction d'information à base de règles 33 s'en servir pour ajouter de nouvelles propriétés au fragment de texte annoté qui, elles-mêmes, vont servir à d'autres règles par la suite. JAPE Le langage JAPE (Java Annotation Patterns Engine) (Cunningham et al., 2000) est une version du langage CSPL (Hobbs et al., 1993). Il fournit un transducteur à états finis sur les annotations qui s'appuie sur des expressions régulières. La grammaire JAPE consiste en un ensemble de phases dont chacune est composée d'un ensemble de règles sous forme patron/action. Les phases s'exécutent séquentiellement et forment une cascade de transducteurs à états finis sur les annotations fournies par la plateforme GATE (Cunningham, 2002). La partie gauche des règles (Left-Hand-Side, LHS) décrit un patron d'annotation et la partie droite (Right-Hand-Side, RHS) contient des instructions de manipulation d'annotations. La RHS peut référer à des annotations couvertes par la LHS à travers des étiquettes associées aux éléments du patron. Considérons l'exemple suivant : 1 Phase: Jobtitle 2 Input: Lookup 3 Options: control= appelt bebug= true 4 5 Rule: Jobtitle1 6 ( 7 {Lookup.MajorType == jobtitle} 8 ( 9 {Lookup.MajorType == jobtitle} 10 )? 11 ) 12 :jobtitle 13 --> 14 :jobtitle.JobTitle = {rule = "JobTitle1"} La LHS est la partie qui précède le signe –-> et la RHS est la partie qui le suit. La LHS spécifie un patron à appliquer sur un texte annoté avec la plateforme GATE alors que la RHS spécifie l'action à exécuter sur le texte couvert par le patron. Dans l'exemple donné, une règle nommée Jobtitle1 (ligne 5) cherche des correspondances dans un texte contenant des annotations de type Lookup avec un attribut MajorType égal à jobtitle (ligne 7), suivi optionnellement par un texte annoté avec le type Lookup avec un attribut MajorType égal à jobtitle (ligne 9). Une fois un segment de texte couvert par la règle est identifié, cette dernière lui attribue l'étiquette ou le label jobtitle (ligne 12). Dans la RHS, on trouve une référence au segment de texte concerné par le label jobtitle dans la LHS. Une annotation de type JobTitle est attribuée à ce segment de texte (ligne 14). Dans la grammaire JAPE, on commence par donner un nom de phase à la grammaire (Phase: Jobtitle (ligne 1), par exemple). Les grammaires JAPE peuvent être cascadées, chaque grammaire étant ainsi considérée comme une phase. Le nom 34 Chapitre 2. Extraction d'information de phase fait partie du nom de la classe Java pour les actions RHS compilées 7 . Une liste des types d'annotation utilisés dans la grammaire est également fournie. Dans le cas de l'exemple fourni précédemment, Input: Lookup (ligne 2) signifie que seul le type d'annotation Lookup est utilisé dans la LHS. Si aucune annotation n'est définie, toutes les annotations sont considérées. Plusieurs options peuvent également être utilisées : - Le contrôle (control) – Cette option définit la méthode de mise en correspondance de la règle (appelt dans l'exemple fourni). - Le débogage (debug) – Quand cette option est fixée à vrai (true), si la grammaire est utilisée dans un mode appelt et s'il y a plus d'une correspondance, les conflits sont affichés sur la sortie standard. Une large panoplie de fonctionnalités peuvent être utilisées avec JAPE, ce qui en fait un système puissant. Ruta Le langage Ruta (anciennement appelé TextMarker (Atzmueller et al., 2008 ; Kluegl, Atzmueller, & Puppe, 2009)) est un langage de script générique qui ressemble au langage JAPE (Cunningham et al., 2000) mais qui repose sur la plateforme UIMA (Ferrucci & Lally, 2004) plutôt que GATE (Cunningham, 2002). Selon les expériences de certains utilisateurs, il est plus complet que JAPE qui est l'un des langages de règles les plus connus. Ce langage est détaillé dans la section 4.3. 2.6.2 Stratégies de résolution de conflits entre les règles Les systèmes d'EI à base de règles reposent sur une base de règles pouvant avoir des recouvrements. D'où la nécessité de résoudre les conflits entre ces différentes règles. Plusieurs stratégies sont proposées dans la littérature pour résoudre le problème des conflits entre les règles dans un système d'EI à base de règles (Sarawagi, 2008). Ces stratégies sont généralement non standardisées et impliquent plusieurs heuristiques et la gestion d'exceptions. Nous pouvons citer dans cette section quelques pratiques communes : Règles non ordonnées – Une stratégie commune consiste à considérer les règles comme une collection de disjonctions. Chaque règle s'applique indépendamment des autres. Il y a conflit quand deux segments de texte différents qui se chevauchent sont couverts par deux règles différentes. Dans ce cas, plusieurs politiques de résolution de conflits peuvent s'appliquer comme le fait de favoriser la règle qui couvre le segment de texte le plus long (c'est le cas dans GATE (Cunningham, 2002)), ou la fusion des segments de texte qui se chevauchent dans le cas où les règles correspondantes partagent la même action. L'avantage majeur de cette méthode d'organisation des règles est la flexibilité offerte à l'utilisateur pour définir ses règles sans se soucier des éventuels conflits avec les règles existantes. 7. Le nom de phase doit contenir uniquement des caractères alphanumériques et des tirets bas et ne doit pas commencer par un nombre. 2.6. Approches d'extraction d'information à base de règles 35 Règles organisées comme un ensemble ordonné – Il s'agit, dans cette stratégie, de définir un ordre de priorité entre les différentes règles. Dans le cas d'un conflit entre deux règles, la règle la plus prioritaire est favorisée (Maynard, Tablan, Ursu, Cunningham, & Wilks, 2001). Dans les systèmes d'apprentissage de règles d'EI, la priorité entre les règles est fixée en s'appuyant sur la précision et la couverture des règles sur les données d'entraînement. Une pratique commune consiste à ordonner les règles dans l'ordre décroissant de la précision de la règle sur l'ensemble d'entraînement. L'un des avantages de cette stratégie est qu'elle permet de définir de nouvelles règles sur la base des actions de règles antérieures. Règles exprimées à l'aide d'automates à états finis – Les deux formes de règles présentées précédemment peuvent être exprimées sous forme d'un automate déterministe à états finis. Cependant, au moment de la définition des règles, l'utilisateur est dispensé des détails de la formation de l'automate. Parfois, l'utilisateur souhaite définir explicitement l'automate complet pour contrôler la séquence des déclenchements des règles. C'est la stratégie adoptée, par exemple, dans Softmealy (Hsu & Dung, 1998) où chaque entité est représentée par un noeud dans un transducteur à états finis. Les noeuds sont connectés entre eux par des arêtes orientées. chaque arête est associée à une règle en s'appuyant sur les tokens qui doivent être satisfaits pour que l'arête soit sélectionnée. Par conséquent, chaque déclenchement d'une règle doit correspondre à un chemin dans le transducteur à états finis. Aussi longtemps qu'il existe un seul chemin entre un état de départ et un état final pour chaque séquence de tokens, il n'y a pas d'ambiguïté concernant l'ordre des déclenchements des règles. Cependant, pour augmenter le rappel, Softmealy permet le déclenchement de plusieurs règles dans un noeud. Il est donc nécessaire de rédiger manuellement un ensemble de décisions pour arbitrer entre elles. La politique de résolution de conflits que nous utiliserons pour organiser notre ensemble de règles dépendra beaucoup de l'algorithme d'apprentissage de règles que nous réutiliserons car l'algorithme d'apprentissage de règles peut avoir sa politique propre. 2.6.3 Apprentissage de règles d'extraction d'information Dans un système d'EI à base de règles, les règles sont souvent écrites par un expert du domaine. Cependant, ces règles peuvent être apprises de manière automatique à partir d'exemples grâce à des algorithmes d'apprentissage de règles. Les approches d'apprentissage de règles regroupent les méthodes d'apprentissage inductives qui permettent d'acquérir des règles à partir de documents d'entraînement. Les règles apprises sont soit des règles single-slot qui permettent d'extraire des fragments de texte correspondant à un seul champ du template à remplir, soit des règles multi-slot capables d'extraire des fragments de texte correspondant à tous les champs du template à remplir. Il existe plusieurs critères pour classer les algorithmes d'apprentissage de règles. Turmo, Ageno, et Català (2006) proposent, par exemple, comme critères le degré 36 Chapitre 2. Extraction d'information de supervision, le type des règles apprises, le type du document d'entraînement, le paradigme d'apprentissage et la stratégie d'apprentissage. Hobbs et Riloff (2010) utilisent le degré de supervision comme critère principal. Sarawagi (2008), quant à elle, classe les algorithmes d'apprentissage de règles en deux catégories : les algorithmes ascendants et les algorithmes descendants. Nous nous appuyons, dans ce chapitre, sur le degré de supervision comme critère de classification. Algorithmes d'apprentissage supervisé de règles d'extraction d'information On dit qu'une méthode d'apprentissage de règles est supervisée quand elle requiert une intervention humaine pendant le processus d'apprentissage. Cette intervention consiste généralement à fournir des exemples d'entraînement. Ces exemples peuvent être fournis au début du processus dans la phase de prétraitement ou de manière dynamique dans un processus en ligne. Les méthodes d'apprentissage de règles supervisées visent à réduire l'ingénierie requise pour développer un système d'EI adaptable à de nouveaux domaines, en proposant à un utilisateur, qui a un minimum de connaissances sur le domaine étudié, d'annoter des documents d'entraînement au lieu d'effectuer le travail complexe d'écriture de règles à la main. Les algorithmes d'apprentissage de règles suspervisés peuvent utiliser plusieurs stratégies d'apprentissage comme l'élimination de candidats (PALKA (Kim & Moldovan, 1995)), la force brute (TIMES (Chai, Biermann, & Guinn, 1999)), des heuristiques de généralisation (l'algorithme de Basili, Pazienza, et Vindigni (2000)) ou de spécialisation (AutoSlog (Riloff, 1993) et AutoSlog-TS (Riloff, 1996)) (Hobbs & Riloff, 2010) mais la plus commune est la couverture. Plusieurs systèmes d'EI s'appuient sur des algorithmes couvrants (séparer et conquérir) (Fürnkranz, 1999), effectuant une forme d'apprentisage inductif. Ces systèmes exigent le plus souvent une structure prédéfinie de la cible à extraire. À part l'algorithme WHISK (S. Soderland et al., 1999) qui utilise une technique d'apprentissage actif, ils requièrent généralement des corpus d'apprentissage complètement annotés où tous les fragments de texte qui correspondent à un champ de la structure cible sont marqués. Après l'apprentissage de règles couvrant une partie de ces instances d'apprentissage, ces algorithmes suppriment (séparent) ces instances de l'ensemble d'apprentissage et continuent d'apprendre des règles qui couvrent (conquièrent) certaines des instances restantes jusqu'à ce que toutes les instances d'apprentissage ou presque soient couvertes. La définition d'une instance et des propriétés utilisées dépendent de l'algorithme utilisé. Parmi les algorithmes couvrants, nous pouvons citer Crystal (S. Soderland, Fisher, Aseltine, & Lehnert, 1995 ; S. G. Soderland, 1997), WHISK (S. Soderland et al., 1999) et (LP)2 (Ciravegna, 2001, 2003). Dans cette section, nous décrivons deux algorithmes d'apprentissage de règles d'EI qui ont fait leurs preuves : WHISK qui adopte une stratégie de couverture descendante et (LP )2 qui adopte une stratégie de couverture ascendante. WHISK est un système d'apprentissage de règles d'EI conçu pour travailler sur des textes non structurés comme ceux qu'on trouve dans les journaux et les 2.6. Approches d'extraction d'information à base de règles 37 livres, des textes semi-structurés comme ceux qu'on trouve sur le web et des textes structurés. WHISK est capable d'apprendre aussi bien des règles single-slot que des règles multi-slot sous forme d'expressions régulières. Les patrons des règles de WHISK peuvent contenir du texte, des classes de caractères (chiffre, nombre, etc.) et le caractère « * » qui permet de sauter des caractères jusqu'à ce que la partie suivante du patron trouve une correspondance dans le texte. Des classes sémantiques de termes équivalents peuvent être définies par l'utilisateur et utilisées dans les règles. La classe Bdrm, par exemple, dans la règle qui suit correspond aux différentes formes et abbréviations du terme Bedroom dans les annonces de location qui correspondent aux données d'apprentissage. ID::2 Pattern:: *(Digit)~»Bdrm*'$'(Number) Output:: Rental {Bedrooms $1}{Price $2} Les parenthèses délimitent les segments à extraire. La partie Output indique quels champs remplir avec les segments extraits. La règle précédente extrait deux champs : le nombre de chambres et leur prix dans une annonce de location. WHISK utilise un algorithme couvrant descendant. Il commence par construire la règle la plus générale et la spécialise par la suite. Pour évaluer la qualité des e+1 règles, WHISK utilise un Laplacien défini comme : Laplacien = n+1 où n représente le nombre d'extractions de la règle et e le nombre d'erreurs parmi les extractions. En cas d'égalité de Laplacien entre deux règles, la règle la plus générale est utilisée. Les règles de WHISK peuvent ne pas être optimales car WHISK adopte une méthode de descente en gradient (hill climbing). En effet, en spécialisant les règles, l'algorithme ajoute les termes un par un alors que parfois l'ajout de deux termes permet de créer une règle plus fiable. Bien éviemment, si WHISK ajoute le mauvais terme, il rate la règle la plus fiable mais il continue à ajouter des termes jusqu'à ce que la règle obtienne de bons résultats sur l'ensemble d'apprentissage. Une telle règle est plus limitée que la règle optimale car elle a tendance à avoir une faible couverture sur des instances non vues. Pour ne pas faire de surapprentissage, WHISK utilise un seuil de Laplacien pour arrêter l'expansion d'une règle (pré-élagage). Une étape de post-élagage est également utilisée pour éliminer les règles qui ont une mauvaise couverture sur l'ensemble d'apprentissage. Pour réduire le nombre d'exemples d'apprentissage à étiqueter à l'avance par l'utilisateur, WHISK utilise une technique d'apprentissage actif. Il alterne le processus d'annotation avec l'apprentissage. À chaque itération, il propose à l'utilisateur un ensemble d'instances à étiqueter pour remplir les champs à extraire et induit par la suite un ensemble de règles à partir de l'ensemble d'apprentissage étendu. Les règles de WHISK n'utilisent ni des niveaux de confiance ni des schémas de vote pour sélectionner des instances à annoter. Le système propose des exemples à annoter à l'utilisateur parmi les 3 ensembles d'exemples suivants : 1. Instances couvertes par des règles existantes (pour améliorer la précision des règles) ; 2. Instances qui représentent des near misses couvertes par des généralisations minimales des règles existantes (pour améliorer le rappel des règles) ; 38 Chapitre 2. Extraction d'information 3. Instances non couvertes par aucune règle (pour vérifier s'il reste des règles à découvrir). La proportion des instances à tirer au hasard parmi ces trois ensembles peut être définie par l'utilisateur. Par défaut, elle est égale à un tiers de chaque ensemble. (LP)2 apprend des règles qui ajoutent des étiquettes ou des balises SGML/XML au texte. Il s'appuie sur des règles d'annotation qui insèrent uniquement une balise (de début ou de fin) dans le texte. Autrement dit, chaque règle d'annotation se charge de reconnaître soit le début soit la fin d'un segment de texte qui correspond à un champ à extraire et non de reconnaître ou d'annoter le segment en entier en une seule fois comme la plupart des systèmes. Les règles d'annotation de (LP)2 sont inférées de manière ascendante à partir d'un corpus d'apprentissage étiqueté manuellement. L'algorithme commence par construire une règle initiale qui couvre une instance. Les k meilleures généralisations de chaque règle initiale sont stockées dans un ensemble appelé « ensemble des meilleures règles ». Étant donné que (LP)2 est un algorithme couvrant, les exemples d'apprentissage couverts par une règle appartenant à cet ensemble sont supprimés de l'ensemble d'apprentissage. (LP)2 procède en 4 étapes : 1. Les règles d'annotation appartenant à l'ensemble des meilleures règles sont appliquées. 2. Des règles contextuelles sont appliquées au texte résultant. Il s'agit de règles dont la fiabilité n'était pas suffisante pour faire partie des meilleures règles, mais qui ont de meilleures performances quand elles sont restreintes aux étiquettes insérées dans la première étape (par exemple, une règle qui insère une balise de fin peut être appliquée étant donné qu'une balise de début correspondante a été insérée quelques mots avant). 3. Des règles de correction sont appliquées. Elles n'ont pas pour but d'ajouter ou de supprimer des étiquettes mais plutôt de changer la position d'une étiquette en la déplaçant de quelques mots en avant ou en arrière. 4. Enfin, les étiquettes invalides (balise non fermée par exemple) sont supprimées dans une étape de validation. (LP)2 est utilisé dans le système Amilcare (Ciravegna, Dingli, Wilks, & Petrelli, 2002) où la quantité des informations linguistiques utilisées peut être ajustée de manière dynamique. L'algorithme induit, tout d'abord, des règles qui n'utilisent aucune information linguistique. Ensuite, il itère en ajoutant des informations linguistiques (fournies par des composants tiers) et s'arrête quand l'efficacité des règles générées ne s'améliore plus. La quantité convenable d'informations linguistiques est apprise pour chaque type de champ à extraire séparément (reconnaître le nom d'une personne, par exemple, peut demander plus d'informations linguistiques que reconnaître une date). Apprentissage peu supervisé de règles d'extraction d'information Les techniques d'apprentissage de règles supervisées ont permis de réduire l'effort humain requis pour la création d'un système d'EI adaptable à un nouveau domaine. 2.6. Approches d'extraction d'information à base de règles 39 Cependant, l'annotation manuelle des exemples d'entraînement peut être coûteuse en temps. Pour contourner ces inconvénients, plusieurs méthodes qui visent la réduction du degré de supervision des algorithmes d'apprentissage de règles ont vu le jour. Parmi ces méthodes, nous pouvons par exemple citer le bootstrapping (Brin, 1999 ; Yangarber, 2001, 2003). Il s'agit, en effet, d'un apprentissage qui se base sur un ensemble d'exemples graines (seed examples) ou de patrons graines (seed patterns) à partir duquel il aquiert des conditions contextuelles qui vont permettre d'annoter, par la suite, de nouveaux exemples qui, eux-mêmes, vont permettre d'appendre de nouvelles conditions contextuelles et ainsi de suite. Nous décrivons, dans cette section, deux algorithmes d'apprentissage peu supervisé de règles d'EI : AutoSlog-TS de Riloff (1996) et Ex-Disco de Yangarber, Grishman, Tapanainen, et Huttunen (2000). AutoSlog-TS (Riloff, 1996) est une extension d'AutoSlog (Riloff, 1993). Il nécessite uniquement un corpus pré-classé au regard de la pertinence de chaque document par rapport à la tâche d'intérêt. Il génère des patrons d'extraction pour chaque syntagme nominal dans le corpus d'apprentissage en utilisant des heuristiques. Il évalue ensuite les patrons d'extraction en analysant le corpus une deuxième fois et en générant des statistiques de pertinence pour chaque patron. AutoSlog-TS procède en deux étapes. Dans la première étape, un analyseur de phrases identifie les syntagmes nominaux. Pour chaque syntagme nominal, les règles heuristiques génèrent un patron d'extraction. AutoSlog-TS utilise l'ensemble des règles heuristiques utilisées par AutoSlog plus deux autres. Dans la deuxième étape, le corpus d'apprentissage est traité une deuxième fois en utilisant les nouveaux patrons d'extraction. L'analyseur de phrases active tous les patrons applicables dans chaque phrase. Des statistiques de pertinence (taux de pertinence) pour chaque patron sont ensuite calculées. Ex-Disco (Yangarber et al., 2000) applique une technique de bootstrapping mutuel. Il s'appuie sur l'hypothèse que la présence de documents pertinents annonce de bons patrons et les bons patrons peuvent trouver de bons documents. Étant donné un corpus non annoté et quelques patrons graines, l'ensemble des documents est divisé en un ensemble de documents pertinents contenant au moins une instance de patron et un ensemble de documents non pertinents ne contenant aucun patron graine. Des patrons candidats sont générés à partir des clauses dans les documents et classés en corrélation avec les documents pertinents. Le meilleur patron est ajouté à l'ensemble des patrons et chaque document est reclassé en utilisant le nouvel ensemble de patrons. Le document en entier est encore divisé en documents pertinents et documents non pertinents et le système continue à itérer. 40 2.7 Chapitre 2. Extraction d'information Approches d'extraction d'information statistiques Les approches statistiques sont plus récentes dans le domaine d'EI. Elles permettent de construire un modèle, appelé également classifieur, capable d'attribuer automatiquement les classes aux éléments du texte. Sarawagi (2008) trouve que les approches à base de règles, qu'elles soient écrites à la main ou inférées automatiquement, sont plus faciles à interpréter et à développer et plus utiles dans des domaines où l'intervention humaine est disponible et nécessaire alors que les approches statistiques sont plus robustes face au bruit dans des textes non structurés et plus utiles dans des textes comme les transcriptions de parole, les blogs, etc. Plusieurs approches d'EI exploitent de plus en plus des méthodes d'apprentissage statistique bien connues mais qui n'étaient pas conçues initialement pour des tâches d'EI. Ces méthodes peuvent être divisées en deux catégories. La première catégorie regroupe les méthodes génératives. Le Modèle de Markov Caché (Hidden Markov Model, HMM) est l'un des classifieurs basés sur un modèle génératif les plus utilisés pour la reconnaissance d'entités nommées (REN). La deuxième catégorie regroupe les méthodes discriminantes. Les classifieurs discriminants qui modélisent directement la distribution à posteriori des attributs donnés d'une classe d'étiquettes comme les Séparateurs à Vaste Marge (Support Vector Machines, SVM) (Isozaki & Kazawa, 2002) et le modèle d'Entropie Maximale (Maximum Entropy, ME) pour la REN (Chieu & Ng, 2003) obtiennent généralement des résultats meilleurs que les classifieurs basés sur les modèles génératifs. Plus récemment, les Champs Conditionnels Aléatoires (Conditional Random Fields, CRF) (McCallum & Li, 2003 ; Peng, Feng, & McCallum, 2004) qui sont des classifieurs discriminants ont été proposés pour les problèmes d'étiquetage de séquences. Nous donnons, dans cette section, une description brève de ces différentes méthodes. 2.7.1 Modèles de Markov Cachés Les modèles de Markov cachés (HMM) sont des modèles génératifs qui s'appuient sur l'estimation de la probabilité de génération de l'observation à partir de l'état courant étant donné l'état précédent. Les HMM ont été introduits par Baum et Petrie (1966) puis repris par Rabiner (1989) pour des traitements acoustiques. Dans les processus markoviens, l'évolution d'un état et à un instant t vers l'état et+1 à l'instant t + 1 ne dépend que de l'état courant et . Autrement dit, le futur est indépendant du passé connaissant le présent. Dans le cas d'un HMM, la chaine de Markov n'est pas observable : on peut observer seulement les variables aléatoires reliées à la chaine. Plusieurs travaux se sont appuyés sur l'apprentissage de différentes variantes de HMM pour l'extraction de fragments pertinents à partir des documents disponibles sur le web. Les HMM ont largement été appliqués à différentes tâches de TAL (étiquetage morpho-syntaxique, reconnaissance d'entités nommées, reconnaissance de la parole) et plus récemment à des tâches d'EI. Les HMM fournissent des outils probabilistes efficaces et robustes. Néanmoins, ils nécessitent une connaissance à 2.7. Approches d'extraction d'information statistiques 41 priori de la structure du modèle (le nombre des états et des transitions entre les états). Leek (1997) est l'un des premiers à avoir introduit les HMM dans des tâches d'EI. Il construit manuellement une architecture spécifique de HMM pour l'extraction d'informations dans des corpus biomédicaux. Zaragoza et Gallinari (1998) utilisent un HMM pour extraire des informations dans un corpus de journaux financiers. L'extraction se fait en deux étapes. Dans la première étape, un classifieur à base de réseaux de neurones multi-couches est appliqué aux phrases pour repérer celles qui sont susceptibles de contenir de l'information pertinente. Dans la deuxième étape, un HMM permet l'identification précise de l'information à l'intérieur des phrases sélectionnées. Freitag et Mccallum (1999) utilisent les HMM pour extraire des informations dans un corpus d'annonces de séminaires. Ils proposent une méthodologie dans laquelle un HMM séparé est construit manuellement pour chaque champ à extraire. La structure du HMM modélise les préfixe et suffixe immédiats ainsi que la structure interne de chaque champ. Pour chaque HMM, les probabilités de transition d'état et d'émission de mot sont apprises à partir des données annotées. Dans une extension de cette approche (Freitag & McCallum, s. d.), la même tâche d'EI est reprise mais en se focalisant sur l'apprentissage d'une structure de HMM pour chaque champ à partir de données d'apprentissage spécifiques et limitées. Démarrant avec un modèle simple, un processus de hill climbing est lancé dans l'espace des structures possibles à chaque étape en appliquant les 7 opérations possibles définies (division d'états, ajout d'états, etc.) sur le modèle et en sélectionnant la structure qui obtient le meilleur score comme prochain modèle. Les résultats expérimentaux montrent que cette approche est plus performante que l'ancienne. Seymore, Mccallum, et Rosenfeld (1999) explorent l'utilisation des HMM dans des tâches d'EI en se focalisant sur comment apprendre la structure du modèle à partir des données et comment utiliser au mieux les données étiquetées et non étiquetées. Ils introduisent le concept des « données étiquetées à distance » (distantly labeled data) qui sont des données étiquetées provenant d'un autre domaine dont les étiquettes se chevauchent partiellement avec celles du domaine cible. Ils prouvent qu'un modèle construit manuellement qui contient plusieurs états par champ extrait est plus performant qu'un modèle avec un seul état par champ. D'autres approches utilisent non seulement les mots mais aussi des attributs additionnels attachés aux mots (étiquettes morpho-syntaxiques, capitalisation, position dans le document, etc.) et des attributs relatifs aux séquences de mots (longueur, indentation, nombre de caractères blancs, etc.). C'est le cas de l'approche présentée par McCallum, Freitag, et Pereira (2000) dans laquelle la tâche de la segmentation des questions fréquemment posées en leurs constituants est accomplie. L'approche introduit le modèle de Markov à entropie maximale (Maximum Entropy Markov Model, MEMM), un modèle à états finis à probabilité conditionnelle dans lequel les paramètres du modèle HMM génératif sont remplacés par une seule fonction qui combine les paramètres de transition et d'émission. Ray et Craven (2001) sont les premiers à avoir utilisé les HMM dans des tâches d'EI à partir du texte non structuré pour extraire des relations n-aires (multi-slot). Ils explorent une approche qui tente d'incorporer les informations sur la structure 42 Chapitre 2. Extraction d'information grammaticale des phrases dans les architectures de HMM. Les états dans le HMM représentent des segments annotés d'une phrase (déjà analysée syntaxiquement). Les auteurs adoptent une méthode d'apprentissage qui maximise la probabilité d'attribuer les bonnes étiquettes aux différentes parties des phrases traitées au lieu de maximiser la vraisemblance des phrases elles-mêmes. Skounakis, Craven, et Ray (2003) étendent le travail de Ray et Craven (2001) en définissant les modèles de Markov cachés hiérarchiques (Hierarchical Hidden Markov Models, HHMM), des HMM avec plus qu'un niveau d'états. Ces modèles sont utilisés pour définir une représentation grammaticale multi-niveaux plus riche des phrases. Les HHMM ont ensuite été étendus pour y introduire des informations de contexte. L'un des inconvénients des HMM consiste dans le fait que ce modèle génératif fait des hypothèses indépendantes sur ses observations en limitant les connaissances que peuvent fournir les observations antérieures et futures. 2.7.2 Modèles d'Entropie Maximale Le principe de l'entropie maximale (ME) dit que parmi toutes les distributions qui satisfont des contraintes sur les attributs, il faut choisir la distribution avec la plus grande entropie puisqu'elle fait le moins d'hypothèses à propos des données et a, par conséquent, une meilleure capacité de généralisation sur les données non vues. Les modèles de ME estiment des probabilités en essayant de faire le moins d'hypothèses possibles, autres que les contraintes imposées. Ils peuvent facilement combiner plusieurs attributs. Ces attributs peuvent être assez complexes et permettent d'exploiter des connaissances à priori concernant le type d'informations susceptibles d'être importantes pour la classification. La ME est largement utilisée dans les tâches de TAL et de fouille de données comme l'étiquetage morpho-syntaxique, la reconnaissance d'entités nommées et l'extraction de relations. Comme McCallum et al. (2000), Chieu (2002) utilise le modèle de ME mais au lieu de s'appuyer sur des modèles de Markov, il utilise une approche basée sur la classification. Il développe deux techniques : l'une pour une extraction d'information single-slot sur du texte semi-structuré (annonces de séminaires) et l'autre pour une extraction d'information multi-slot sur du texte non structuré (sur la succession de gestion). L'auteur utilise la ME pour classer les mots en champs. Le mot qui précède et le mot qui suit le mot étiqueté dans l'ensemble d'apprentissage sont utilisés pour la classification. Pour limiter le problème de la séquence de classes inadmissibles, une probabilité de transition est définie entre les classes de mots, ensuite l'algorithme Viterbi (Viterbi, 1967) est appliqué pour sélectionner la séquence de classes de mots qui obtient la meilleure probabilité. Dans la tâche multi-slot, la ME est utilisée pour classer les relations entre les champs à extraire en relations positives (existantes) et relations négatives (non existantes). Kambhatla (2004) utilise le modèle de ME pour prédire le type de relation entre chaque paire d'entités dans chaque phrase. Cette tâche de prédiction est modélisée comme un problème de classification avec jusqu'à deux classes pour chaque soustype de relation défini par la campagne ACE (la plupart des relations ne sont pas symétriques) et une classe supplémentaire au cas où il n'existe aucune relation entre les deux entités. Le modèle de ME est entraîné en utilisant des combinaisons d'attri- 2.7. Approches d'extraction d'information statistiques 43 buts lexicaux, sémantiques et syntaxiques. Il permet une extension facile du nombre et du type des attributs considérés. 2.7.3 Champs Aléatoires Conditionnels Le modèle des champs aléatoires conditionnels (CRF) (Lafferty, McCallum, & Pereira, 2001) est un modèle graphique linéaire non dirigé qui représente un cadre probabiliste discriminant utilisé pour la segmentation et l'étiquetage des données séquentielles. Les CRF modélisent directement la distribution conditionnelle d'une variable cible étant donné la variable observée. Autrement dit, aucune ressource de modélisation n'est gaspillée dans la modélisation de structures de corrélation complexes dans les séquences observées. Comme les HMM, les CRF permettent de prédire l'étiquette d'une séquence en incorporant l'aspect temporel. L'avantage que présentent les CRF par rapport aux modèles markoviens classiques consiste dans le fait de prendre en compte le problème du biais des étiquettes. En effet, les transitions des états ne dépendent pas seulement des états concernant la transition (états voisins) mais aussi des états du modèle global. D'autre part, les CRF peuvent prendre plusieurs paramètres en entrée (attributs des éléments d'entrée comme la position syntaxique des mots dans un texte). Ceci permet d'utiliser plusieurs niveaux hiérarchiques d'étiquetage. Dans la littérature, le modèle de CRF est considéré comme le système de reconnaissance d'entités nommées supervisé qui produit les meilleurs résultats dans les tâches de REN classiques (McCallum & Li, 2003 ; Peng et al., 2004), dans les tâches de REN dans les textes biomédicaux (Settles, 2004) et dans plusieurs langues autres que l'Anglais comme le Bengali (Ekbal & Bandyopadhyay, 2008). Aramaki, Eiji and Imai, Takeshi and Miyo, Kengo and Ohe, Kazuhiko (2006) ont participé au challenge i2b2 2006 avec un système d'anonymisation qui s'appuie sur le CRF. Les meilleurs résultats dans ce challenge ont été obtenus par Wellner et al. (2007) qui combinent deux outils : l'un basé sur les CRF (Carafe) et l'autre sur les HMM (LingPipe). Gardner et Xiong (2008) ont mis en place un système nommé « Hide » pour anonymiser 4 catégories de termes : les noms, les âges, les dates et les identifiants numériques. Ce système a été conçu comme un système de REN qui s'appuie sur des CRF. Plusieurs modifications ont été apportées aux CRF pour prendre en considération les dépendances non locales (Krishnan & Manning, 2006) ou un contexte plus large que les données d'apprentissage (Du, Zhang, Yan, Cui, & Chen, 2010). 2.7.4 Séparateurs à Vaste Marge Les séparateurs à vaste marge (SVM) sont largement utilisés dans les problèmes de classification. Cependant, plusieurs travaux ont tenté de les appliquer à des tâches d'EI. Pour ce faire, il faut représenter le problème d'EI comme un problème de classification. Une fois le problème transformé, plusieurs méthodes d'apprentissage peuvent être appliquées. 44 Chapitre 2. Extraction d'information Les SVM sont à la base des classifieurs discriminants à deux classes. Cependant, ils peuvent être étendus pour être utilisés dans des problèmes multi-classes. Le principe de base des SVM repose sur le fait que l'algorithme cherche à calculer l'hyperplan qui sépare le mieux un espace en 2 classes (Vapnik, 1995). L'algorithme intègre généralement une fonction noyau qui permet de transposer un espace de données dans un autre espace linéairement séparable. Une optimisation est réalisée pour maximiser la distance entre l'hyperplan séparateur et les points les plus proches de chaque classe (Wisniewski & Gallinari, 2007). Les données se retrouvent ainsi le plus loin possible de l'hyperplan. Sun, Naing, Lim, et Lam (2003) ont été les premiers à avoir utilisé les SVM dans des tâches d'EI. Pour permettre la prise en considération de plus d'informations de contexte dans l'apprentissage de patrons d'extraction, les auteurs proposent de modéliser les informations de contenu et de contexte de l'entité à extraire comme un ensemble d'attributs. Un modèle de classification est ensuite construit pour chaque catégorie d'entités en utilisant les SVM. Une approche similaire est utilisée dans le système ELIE (Finn & Kushmerick, 2004). Cette approche considère l'identification des positions de début et de fin d'un fragment comme des tâches de classification de tokens distinctes. Le système étudie également la contribution de différents ensembles d'attributs dans ses performances. Ekbal et Bandyopadhyay (2008) ont développé un système de REN à base de SVM pour les langues indienne et Bengali. 2.8 Extraction d'information et ontologies La détection et l'extraction d'informations pertinentes dans les documents textuels dépend du degré de compréhension de ces ressources. Le rôle de la sémantique dans l'EI est souvent limité à un simple étiquetage sémantique superficiel. L'analyse sémantique est considérée plus comme un moyen de désambiguïser des phases syntaxiques que comme un moyen de construire une interprétation conceptuelle. La plupart des systèmes d'EI qui incluent une anlayse sémantique n'exploitent réellement qu'une petite partie des connaissances du domaine et des connaissances fournies par les tâches d'EI, autrement dit les entités nommées. Cependant, le besoin croissant d'adapter les applications d'EI à des domaines complexes qui demandent une compréhension plus profonde des textes pousse vers l'utilisation de ressources sémantiques plus sophistiquées et, entre autres, vers les ontologies considérées comme des modèles conceptuels. Les ontologies permettent de modéliser et de formaliser les connaissances d'un domaine dans un langage lisible par une machine. Une ontologie est définie comme « une spécification formelle et explicite d'une conceptualisation » (Gruber, 1993 ; Studer, Benjamins, & Fensel, 1998). Il s'agit, en effet, d'un modèle abstrait (conceptualisation) qui permet d'identifier des concepts pertinents de manière explicite pour représenter un phénomène donné. Ce modèle doit être interprétable par une machine (formel). Les ontologies fournissent des connaissances riches sur lesquelles on peut fonder la compréhension du texte et permettent d'extraire des informations pertinentes. Ceci permet de construire des systèmes d'EI plus flexibles et plus adaptatifs. L'apparition du web sémantique (Berners-Lee, Hendler, & Lassila, 2001) a permis 2.8. Extraction d'information et ontologies 45 le développement d'ontologies dans plusieurs domaines. De nos jours, des milliers d'ontologies de domaine sont disponibles gratuitement sur le web (Ding et al., 2004). Des ontologies polyvalentes bien détaillées ont également été développées (WordNet par exemple (Fellbaum, Christiane, 1998)). Nédellec et Nazarenko (2005) pensent que l'EI et les ontologies sont impliquées dans deux tâches reliées : - L'ontologie est utilisée pour l'EI – L'EI a besoin des ontologies comme une partie du processus de compréhension pour extraire des informations pertinentes. - L'EI est utilisée pour peupler et améliorer l'ontologie – Les textes sont des sources de connaissances utiles pour concevoir et enrichir les ontologies. Ces tâches peuvent être combinées dans un processus cyclique. Les ontologies sont utilisées pour interpréter le texte et en extraire des informations et l'EI permet d'extraire des nouvelles connaissances à partir du texte pour les intégrer dans l'ontologie. Que les connaissances ontologiques soient utilisées pour interpréter du langage naturel ou pour exploiter les textes pour créer ou mettre à jour les ontologies, dans les deux cas, l'ontologie doit être liée à des phénomènes linguistiques. Plusieurs systèmes d'EI traditionnels ont tenté de définir des règles d'extraction qui permettent cet ancrage. Dans des systèmes d'EI plus puissants, les connaissances ontologiques sont déclarées de manière plus explicite dans les règles qui permettent de réduire l'écart entre le niveau des mots et l'interprétation du texte. L'ontologie n'est donc pas un modèle purement conceptuel, elle représente un modèle associé à un vocabulaire et une grammaire spécifique au domaine. Ce vocabulaire et cette grammaire sont considérés, dans les systèmes d'EI, comme une partie de l'ontologie même quand ils sont intégrés dans les règles d'extraction. La complexité de l'ancrage linguistique des connaissances ontologiques est un problème bien connu. Un concept peut, en effet, être exprimé avec différents termes dont certains peuvent être ambigus. 2.8.1 Extraction d'information guidée par les ontologies L'évolution des outils de TAL, permettant d'analyser les textes de plus en plus finement et le développement de modèles sémantiques permettant de représenter plusieurs domaines, a permis l'émergence d'une nouvelle génération d'outils d'EI que sont les outils OBIE (Ontology-Based Information Extraction) (Wimalasuriya & Dou, 2010). En effet, Nédellec, Nazarenko, et Bossy (2009) montrent que l'EI est une activité du TAL basée sur les ontologies et explicitent les différentes étapes nécessaires pour les tâches d'EI : reconnaissance des entités nommées, analyse des termes, typage sémantique et identification des relations spécifiques. L'EI basée sur les ontologies est donc naturellement devenue une nouvelle approche de l'EI. Les systèmes d'EI basés sur les ontologies ou guidés par les ontologies sont des systèmes qui s'appuient sur des ontologies prédéfinies dans une ou plusieurs étapes du processus d'EI. Contrairement aux systèmes d'EI traditionnels, ceux qui sont basés sur les ontologies sont capables d'exprimer leurs sorties dans les termes d'une ontologie formelle pré-existante. Ces systèmes utilisent généralement des ontologies de domaine. Cependant, un système est considéré comme indépendant du domaine 46 Chapitre 2. Extraction d'information s'il fonctionne sans modification sur des ontologies qui couvrent plusieurs domaines. Wimalasuriya et Dou (2010) définissent un système OBIE comme un système qui « traite du texte non structuré et semi-structuré à travers un mécanisme guidé par des ontologies afin d'extraire certains types d'informations et présente les résultats en utilisant des ontologies ». Selon eux, un système OBIE doit avoir les propriétés suivantes : - Traiter des textes non structurés ou semi-structurés écrits en langage naturel – L'OBIE est un sous-domaine de l'EI qui, elle-même, est un sous-doamine du TAL. Il est, par conséquent, raisonnable de se limiter aux textes écrits en langage naturel comme textes d'entrée. Ces textes peuvent être non structurés (fichiers textuels) ou semi-structurés (pages web utilisant un certain template comme les pages Wikipédia). - Présenter la sortie en utilisant les ontologies – Li et Bontcheva (2007) considèrent que le fait d'utiliser une ontologie formelle comme l'une des entrées du système et en même temps comme sortie cible est l'une des caractéristiques qui distinguent un système OBIE des systèmes d'EI traditionnels. Cependant, certains systèmes construisent eux-mêmes l'ontologie qu'ils utilisent ensuite dans le processus d'EI. Pour ne pas empêcher que ces systèmes soient considérés comme des systèmes OBIE, il est plus raisonnable de garder la contrainte uniquement sur la sortie du système qui doit s'exprimer en termes d'ontologies. - Utiliser un processus d'EI guidé par une ontologie – Dans les systèmes OBIE, le processus d'EI est guidé par une ontologie pour extraire des classes, des propriétés et des instances. Autrement dit, aucun nouveau processus d'EI n'est inventé mais un processus existant est adapté pour identifier des composants de l'ontologie. Les auteurs expliquent que le terme OBIE est récent mais que les travaux dans ce domaine ont débuté bien avant son apparition et insistent sur le rôle primordial des ontologies dans un processus d'EI. Ils précisent également que ce processus consiste à créer du contenu sémantique, élément essentiel au développement du web sémantique, et peut permettre d'améliorer la qualité des ontologies elles-mêmes. Le module d'EI peut soit faire partie de l'ontologie soit être indépendant. Selon certains, les extracteurs d'informations doivent être considérés comme une partie de l'ontologie quand des règles linguistiques sont utilisées comme technique d'apprentissage (Buitelaar, Cimiano, Haase, & Sintek, 2009 ; Embley, 2004 ; Maedche, Neumann, & Staab, 2003 ; Yildiz & Miksch, 2007). Cette technique repose, en effet, sur des expressions régulières qui indiquent la présence de concepts ontologiques dans le texte. Wimalasuriya et Dou (2010) penchent plutôt pour l'utilisation des extracteurs d'informations comme modules à part pour deux raisons. D'un coté, les règles linguistiques peuvent contenir des erreurs et rendre l'ontologie moins formelle et d'un autre coté, il est difficile d'argumenter le choix d'inclure les extracteurs d'information à base de règles dans les ontologies et d'exclure ceux basés sur d'autres techniques des ontologies. Il est également important de mentionner que le terme Ontology-Driven Information Extraction est utilisé à la place d'OBIE dans certaines publications (McDowell, 2006 ; F. Wu, Hoffmann, & Weld, 2008). Ce terme est souvent synonyme du terme 2.8. Extraction d'information et ontologies 47 OBIE. Cependant, Yildiz et Miksch (2007) font la distinction entre les deux termes et considèrent que les systèmes d'EI guidés par les ontologies sont guidés par une ontologie alors que l'ontologie n'est qu'un composant de plus dans les systèmes OBIE. Nous sommes de l'avis de Wimalasuriya et Dou (2010) qui pensent que cette distinction ne doit pas être faite. 2.8.2 Architecture d'un système OBIE Bien que les détails d'implémentation diffèrent d'un système OBIE à un autre, Wimalasuriya et Dou (2010) décèlent une architecture commune entre les systèmes OBIE composée des modules suivants (voir figure 2.3). Figure 2.3 – Architecture générale d'un système OBIE(Wimalasuriya & Dou, 2010). - Un générateur d'ontologies qui permet de construire une ontologie, éventuellement à partir d'une ontologie existante. Ce composant peut être absent dans le cas de l'utilisation d'une ontologie préexistante. - Un éditeur d'ontologies permettant à un expert du domaine d'éditer les ontologies ou de les valider. - Un lexique sémantique utilisé pour une langue donnée afin d'assister la génération d'ontologies, comme par exemple WordNet (Miller, 1995) pour l'Anglais. Certains systèmes OBIE utilisent ce lexique à la place de l'ontologie. - Un module de prétraitement pour convertir le texte au format d'entrée du module d'EI. - Un module d'EI qui alimente la base de connaissances ou de données avec les informations extraites du texte en se basant sur une ontologie ou un lexique 48 Chapitre 2. Extraction d'information sémantique. Les informations extraites peuvent être représentées en utilisant un langage de définition d'ontologies comme le OWL. L'expert du domaine peut intervenir pour valider les informations extraites. Un module OBIE peut faire partie d'un système de question-réponse qui utilise les informations extraites par le module OBIE pour répondre aux requêtes de l'utilisateur. Nous notons que l'OBIE est similaire à l'annotation sémantique. En effet, les annotations sont des métadonnées spécifiques qui lient des entités apparaissant dans des ressources aux concepts de domaine modélisés dans une ontologie. Notre but n'étant pas d'extraire simplement des entités nommées ou des relations définies dans des tâches d'EI mais plutôt d'extraire des concepts plus généraux qui peuvent provenir d'une ontolgie ou d'un modèle sémantique quelconque, nous pouvons nous inscrire dans le cadre des systèmes OBIE même si nous nous occupons essentiellement dans ce travail du module de prétraitement et du module d'EI. Nous pensons comme Wimalasuriya et Dou (2010) que le module d'EI doit être indépendant de l'ontologie ou du modèle sémantique utilisé pour garder le coté formel de ces modèles et ne pas percuter les erreurs qui peuvent être faites par exemple au niveau des règles d'EI sur eux. La base de règles que nous construisons dans ce travail peut donc constituer une extension du modèle sémantique utilisé qui en soit indépendante (Ma, Audibert, & Nazarenko, 2009). 2.9 Extraction d'information ouverte (OIE) Dans les deux dernières décennies, nous avons noté une évolution des systèmes d'EI, de systèmes monolingues, dépendants du domaine, basés sur la connaissance vers des systèmes multilingues, entraînables qui utilisent des techniques d'apprentissage peu supervisées (Piskorski & Yangarber, 2013). Le paradigme d'extraction d'information ouverte (Open Information Extraction, OIE) (Banko et al., 2007 ; Etzioni, Banko, Soderland, & Weld, 2008) a été introduit pour faciliter la découverte de relations dans les textes indépendamment du domaine et le passage à l'échelle des gros corpus hétérogènes tels que le web. Contrairement aux systèmes d'EI traditionnels où les relations d'intérêt doivent être spécifiées à l'avance, les systèmes d'OIE prennent en entrée uniquement un corpus textuel sans aucune connaissance ou spécification des relations d'intérêt et produit un ensemble de relations extraites. L'un des exemples les plus représentatifs des systèmes d'OIE est le système TextRunner (Yates et al., 2007). TextRunner apprend tout d'abord un modèle général de la manière dont sont exprimées les relations dans un langage particulier en utilisant un CRF. Il parcourt ensuite chaque phrase du corpus et utilise le modèle construit pour attribuer à chaque mot des étiquettes qui dénotent le début/fin d'une entité ou d'une chaine de caractères représentant une relation. Le modèle utilise uniquement des attributs linguistiques de bas niveau comme les étiquettes morpho-syntaxiques, capitalisation, etc., ce qui est attrayant dans le sens où il permet de traiter la diversité de genre et différents langages. Pour chaque phrase, le système retourne un ou plusieurs triplets qui représentent chacun une relation binaire entre deux entités (par exemple, (Paris, CapitaleDe, France)) avec une probabilité de l'exactitude du triplet (relation) qui s'appuie sur des informations liées à la fréquence du triplet sur 2.9. Extraction d'information ouverte (OIE) 49 le web. Une évaluation du système TextRunner (Banko & Etzioni, 2008) révèle qu'il atteint en moyenne une précision de 75%. Banko et Etzioni (2008) comparent TextRunner à un algorithme d'extraction de relations traditionnel basé sur le même modèle CRF mais qui a été entraîné sur des données étiquetées manuellement et qui utilise des attributs lexicaux plus riches. Des expérimentations sur l'extraction de relations comme « les aquisitions d'entreprises » ou « les inventeurs de produits » ont montré que les deux systèmes obtiennent des valeurs de précision comparables (environ 75%), mais le système d'EI traditionnel obtient un rappel largement meilleur (60% contre 20% pour le système d'OIE). Piskorski et Yangarber (2013) pensent que dans le cas où le rappel est privéligié dans le contexte d'extraction de relations binaires, l'utilisation d'un système d'extraction de relations traditionnel est de loin plus efficace même si les systèmes d'OIE peuvent réduire la quantité de données d'apprentissage étiquetées manuellement. Si, en revanche, la précision est privilégiée et le nombre de relations à extraire est grand, un système d'OIE peut potentiellement être une bonne alternative. Les auteurs citent également 3 erreurs que font souvent les premiers systèmes d'OIE comme TextRunner : - des extractions incohérentes (la relation extraite n'a aucun sens) ; - des extractions non informatives (des informations cruciales omises) ; - des arguments incorrects. Des travaux plus récents ont introduit plus d'heuristiques pour améliorer la qualité des relations extraites (Etzioni, Fader, Christensen, Soderland, & Mausam, 2011 ; Fader, Soderland, & Etzioni, 2011). Fader et al. (2011) proposent, par exemple, les deux heuristiques suivantes : - Une relation multi-mots doit commencer par un verbe, finir par une préposition et être une séquence de mots contigus dans une phrase. - Une relation binaire doit apparaître avec au moins un nombre minimum de paires d'arguments dans un grand corpus. Ces deux heuristiques ont permis d'obtenir de meilleurs résultats. L'utilisation des systèmes d'OIE a beaucoup augmenté ces dernières années pour des besoins de passage à l'échelle et d'indépendance vis à vis du domaine. Cependant, dans des domaines comme le domaine médical, le besoin d'applications d'EI d'une précision extrême se fait encore ressentir. Nous nous inscrivons dans le cadre de ces applications qui ne cherchent pas à extraire toute relation possible dans les corpus mais plutôt des concepts et des relations bien spécifiques à un domaine donné. Conclusion Nous avons établi dans ce chapitre un état de l'art autour de l'extraction d'information (EI) en nous focalisant sur les approches d'EI. Notre but étant de mettre en place une approche interactive d'apprentissage de règles d'extraction d'information, nous avons mis l'accent sur les approches d'EI à base de règles. Mêmes si les approches statistiques sont plus récentes dans le domaine d'EI, les approches à base de règles continuent à être utilisées car elles sont faciles à interpréter et à développer. Elles sont également appréciées dans les systèmes qui demandent une intervention de l'utilisateur car il est plus facile pour l'utilisateur de comprendre des 50 Chapitre 2. Extraction d'information règles symboliques que les sorties d'un algorithme statistique. Tout comme les systèmes d'EI basés sur les ontologies (OBIE), nous cherchons à extraire des concepts et des relations définies dans des modèles sémantiques comme les ontologies tout en assurant l'indépendance entre le module d'EI proposé et le modèle sémantique utilisé pour garder la cohérence et le coté formel de ce dernier. Contrairement aux systèmes d'extraction d'information ouverte qui visent à extraire tout type de relations qui peuvent être extraites à partir de gros corpus comme le web, nous cherchons à extraire des informations spécifiques à un domaine donné comme le font les systèmes d'EI traditionnels. Nous faisons la lumière, dans le chapitre qui suit, sur l'EI interactive et l'intérêt de ce type d'extraction d'information. Chapitre 3 Extraction d'information interactive Les systèmes d'extraction d'information (EI) ont largement été déployés pour extraire des informations structurées à partir de données non structurées. Plusieurs de ces systèmes ont atteint de très bonnes performances. Cependant, ces systèmes sont généralement coûteux à mettre en place pour des utilisateurs qui ne disposent pas d'une quantité suffisante de données d'apprentissage annotées ou qui ne sont pas des experts en ingénierie de connaissances. Des systèmes d'EI interactifs ont vu le jour d'une part pour réduire ce coût et d'autre part pour permettre à l'utilisateur d'investiguer les erreurs faites par le système d'EI et de les corriger. Nous définissons dans ce chapitre l'EI interactive et nous expliquons la différence entre différents types de systèmes d'EI interactifs en détaillant le fonctionnement de certains systèmes à titre d'exemples. 3.1 Définition Même s'il n'existe pas de définition formelle de l'extraction d'information interactive, nous pouvons dire qu'il s'agit d'un paradigme qui a pour but d'aider l'utilisateur à mener à bien une tâche d'EI tout en l'impliquant dans le processus d'extraction. L'interaction entre l'utilisateur et le système d'EI peut se faire de différentes manières. Dans certains travaux, elle se limite à un entraînement interactif d'un système d'EI (Cardie & Pierce, 1998 ; Caruana, Hodor, & Rosenberg, 2000). Dans d'autres systèmes, elle se fait à travers des interfaces qui facilitent la visualisation des résultats et la détection et l'investigation d'éventuelles erreurs (Eichler et al., 2008 ; Sarma, Jain, & Srivastava, 2010). Dans les systèmes d'EI interactifs, il est important de connaître les scores de confiance attribués aux champs extraits pour pouvoir corriger d'éventuelles erreurs. Certains travaux se sont donc intéressés aux méthodes d'estimation de confiance utilisées dans les méthodes d' apprentissage actif (Culotta, Kristjansson, McCallum, & Viola, 2006 ; Kristjansson et al., 2004 ; Probst & Ghani, 2007). Les systèmes d'aide au développement d'extracteurs d'information à base de règles (Akbik et al., 2013 ; Li et al., 2012) représentent une nouvelle génération de systèmes d'EI interactifs. Ils définissent des workflows plus complets qui guident l'utilisateur étape par étape depuis l'annotation des exemples 52 Chapitre 3. Extraction d'information interactive jusqu'à la livraison et le déploiement du système. Nous détaillons ces 4 types de systèmes interactifs dans les sections qui suivent. 3.2 Systèmes d'extraction d'information entraînés de manière interactive Pour construire des bases de règles d'EI pour un domaine donné, les anciens systèmes d'EI requièrent un effort manuel énorme pour l'écriture des règles et sont par conséquent coûteux à mettre en place en termes de temps. L'apparition des méthodes d'apprentissage de règles d'EI a permis de réduire l'effort humain requis dans l'écriture des règles mais pas de réduire le coût de la mise en place des systèmes d'EI car ces méthodes requièrent des corpus annotés pour chaque tâche d'EI. Certains travaux proposent de réduire ce coût d'annotation de corpus en faisant coopérer l'utilisateur et le système d'EI. Cette coopération se traduit par une annotation interactive et progressive des exemples d'apprentissage. Le système I2 E2 (Interactive Information Extraction Environment) (Cardie & Pierce, 1998) est l'un des systèmes qui permet une annotation interactive des exemples d'apprentissage. La figure 3.1 schématise l'approche générale de ce système. Figure 3.1 – Modèle du système I2 E2 (Cardie & Pierce, 1998). L'utilisateur initie le processus d'entraînement. Il entre ensuite dans une boucle d'apprentissage interactif avec le système (analyseur (parser) et module d'apprentissage de règles (pattern learner)). Les flèches numérotées sur la figure 3.1 correspondent aux étapes suivantes : 1. L'utilisateur annote des instances d'un certain concept et les ajoute à la base des exemples d'apprentissage. 2. Quand l'utilisateur le décide, le module d'apprentissage commence à induire des patrons à partir des exemples fournis dans la base des exemples. 3. L'analyseur collecte les instances candidates couvertes par les patrons appris dans le corpus d'apprentissage. 4. Les instances candidates sont présentées à l'utilisateur pour révision. Ce dernier rejette les instances incorrectes et accepte les instances correctes. Il fournit ainsi au système des exemples positifs et des exemples négatifs à un coût relativement bas. 3.3. Systèmes d'extraction d'information basés sur l'apprentissage actif 53 5. Le module d'apprentissage de règles se sert des instances positives et négatives pour adapter sa base de patrons. Il garde, en définitive, l'ensemble des règles qui maximise le nombre d'instances positives couvertes et minimise le nombre d'instances négatives couvertes. L'utilisateur peut ne pas réviser toutes les instances candidates. Sa stratégie peut varier d'une simple utilisation du système comme un outil d'annotation (répétition continue de l'étape 1) jusqu'à la révision d'une seule instance à la fois en guidant le système à travers la modification d'un seul patron et en utilisant le module d'apprentissage de règles pour trouver autant d'instances positives additionnelles que possible (boucle sur les étapes 2, 3, 4 et 5). La stratégie la plus efficace se situe entre ces deux stratégies extrêmes. Le processus prend fin quand l'utilisateur est satisfait des performances du système ou quand la précision des patrons est maximisée sur un corpus de test annoté. Le système I2 E2 s'appuie sur 3 concepts clés : la capacité de l'analyseur à trouver rapidement des instances d'un patron candidat, la capacité de l'utilisateur à juger leur pertinence et la capacité du module d'apprentissage de règles à adapter les patrons candidats pour se conformer aux besoins de l'utilisateur. 3.3 Systèmes d'extraction d'information basés sur l'apprentissage actif L'apprentissage actif est une approche qui inclut l'utilisateur dans la boucle d'apprentissage. Il est utilisé pour soutenir les méthodes d'apprentissage supervisées en extraction d'information et mettre en place par conséquent des approches hybrides de construction de systèmes d'EI. L'utilisateur reste impliqué dans le processus d'ingénierie de connaissances mais de manière moins directe en étant guidé par le module d'apprentissage. Nous expliquons plus en détails dans cette section ce qu'est l'apprentissage actif et nous donnons quelques exemples de systèmes d'EI interactifs qui utilisent soit l'apprentissage actif soit les méthodes d'estimation de confiance tirées de l'état de l'art des méthodes d'apprentissage actif. 3.3.1 Apprentissage actif L'apprentissage actif est un domaine de l'apprentissage artificiel qui a pour but de réduire la quantité d'exemples d'apprentissage à annoter par l'utilisateur en participant « activement » dans le processus d'apprentissage. L'idée est que l'annotateur fournit au départ un petit ensemble d'exemples sur la base desquels le module d'apprentissage décide quels exemples, parmi un grand ensemble d'exemples candidats, annoter ensuite pour maximiser le gain. Intuitivement, ceci signifie la sélection des exemples à propos desquels le module d'apprentissage a le moins de certitude. Ces exemples sont en effet les exemples dont le module d'apprentissage peut bénéficier le plus étant donné que l'utilisateur n'est prêt à consacrer qu'une durée de temps limitée à l'annotation d'exemples. Ceci peut également être vu d'une autre manière : le module d'apprentissage tire moins de bénéfices si l'annotateur fournit des exemples qui se ressemblent et des informations redondantes. 54 Chapitre 3. Extraction d'information interactive Étant donné que le rôle de l'apprentissage actif consiste à sélectionner les exemples à annoter par l'utilisateur qui sont susceptibles d'être informatifs et d'améliorer la précision du modèle, la question qui se pose est : comment décider quels sont les exemples les plus informatifs ? On distingue deux types d'approches standard de selective sampling ou d'échantillonnage sélectif (Cohn, Atlas, & Ladner, 1994). 1. Approches fondées sur la certitude (certainty-based approaches) (Lewis & Catlett, 1994) : le système est entraîné sur un petit ensemble d'exemples annotés pour apprendre un classifieur initial. Le système examine ensuite les exemples non annotés et attribue des scores de confiance aux annotations prédites pour ces exemples. Les k exemples qui ont les scores de confiance les plus bas sont ensuite présentés à l'utilisateur pour annotation et réapprentissage. Plusieurs méthodes d'attribution de scores de confiance existent. La plupart d'entre elles tentent d'estimer la probabilité qu'un classifieur disposant de données d'apprentissage antérieures arrive à classer correctement un nouvel exemple. 2. Approches fondées sur un comité (committee-based approaches) (Dagan & Engelson, 1995) : un comité de classifieurs est créé à partir d'un petit ensemble d'exemples annotés. Chaque membre de ce comité essaie ensuite d'étiqueter des exemples supplémentaires. Les exemples dont l'annotation entraîne le plus de désaccord entre les membres du comité sont présentés à l'utilisateur pour annotation et réapprentissage. Un comité diversifié qui dispose de données d'apprentissage antérieures produit le plus grand désaccord sur les exemples dont l'étiquette est la plus incertaine au regard des classifieurs possibles qui peuvent être obtenus en apprenant sur ces données. Même si les deux méthodes d'échantillonnage sélectif citées sont les plus utilisées dans la littérature, des chercheurs à l'instar de S. Soderland et al. (1999) ont utilisé des méthodes moins courantes mais qui peuvent être tout aussi performantes. Plusieurs systèmes d'EI qui utilisent l'apprentissage actif ont montré que cette approche permet de réduire le nombre d'exemples d'apprentissage à annoter par l'utilisateur (Muslea, Minton, & Knoblock, 2000 ; Probst & Ghani, 2007 ; Thompson et al., 1999). (Settles, 2009) et (Olsson, 2009) donnent un état d'art plus détaillé sur l'apprentissage actif. 3.3.2 Exemples de systèmes interactifs utilisant l'apprentissage actif Nous présentons dans cette section quelques systèmes d'EI qui utilisent l'apprentissage actif et qui mettent en avant le caractère interactif de ce dernier. (Kristjansson et al., 2004) proposent un système d'EI à base de Champs Aléatoires Conditionnels (CRF). Ce système a deux particularités : il introduit une plateforme d'EI interactive et deux nouveaux algorithmes d'estimation de la confiance attribuée aux champs dans le cadre de l'apprentissage actif avec les CRF. La plateforme interactive inclut une interface utilisateur qui surligne le label attribué à chaque champ du document non structuré et signale les labels qui ont un score de confiance bas. Cette interface permet également la correction rapide en utilisant un 3.3. Systèmes d'extraction d'information basés sur l'apprentissage actif 55 mécanisme de glisser-déposer et la propagation des corrections de champs de manière à ce qu'une seule correction puisse corriger plusieurs erreurs. Les algorithmes d'estimation de confiance introduits permettent d'incorporer les contraintes dans le processus de décodage Viterbi. Ces contraintes proviennent soit des corrections des champs incorrects, soit des nouveaux labels ajoutés par l'utilisateur aux champs. La figure 3.2 présente l'interface utilisateur qui facilite l'EI interactive. Les champs à peupler figurent dans la partie gauche et le texte source est introduit par l'utilisateur dans la partie droite. Figure 3.2 – Interface utilisateur pour la saisie des coordonnées d'un contact (Kristjansson et al., 2004). Le système d'EI extrait des segments de texte à partir du texte non structuré et remplit les champs correspondants. Les aspects les plus importants de l'interface utilisateur sont les suivants. - Elle affiche une aide visuelle qui permet à l'utilisateur de vérifier rapidement la justesse des champs extraits. Chaque type d'information est surligné par une couleur distincte (par exemple, les informations téléphoniques sont surlignées en bleu et les adresses électroniques en jaune). - Elle permet une correction rapide. Les segments de texte peuvent, par exemple, être facilement regroupés et traités par blocs. - Elle attire l'attention de l'utilisateur sur les champs qui ont un faible score de confiance. De plus, dans la partie droite, des alternatives peuvent être 56 Chapitre 3. Extraction d'information interactive surlignées dans le texte. Pour estimer la confiance d'un champ extrait par le CRF, les auteurs utilisent une technique nommée Constrained Forward Backward (Culotta & McCallum, 2004). Cet algorithme calcule la probabilité pour que chaque séquence vérifie un ensemble de contraintes. Chaque contrainte peut être soit positive soit négative. Dans le cadre d'un remplissage interactif d'un formulaire, les contraintes correspondent à un champ extrait automatiquement. Les contraintes positives spécifient les mots étiquetés à l'intérieur du champ et les contraintes négatives spécifient les frontières du champ. Pour évaluer la performance de leur système d'EI interactif, les auteurs proposent une mesure appelée ENUA (Expected Number of User Actions) qui représente le nombre des actions utilisateur attendues. Ils montrent que cette mesure peut être diminuée d'environ 14% par rapport à un remplissage manuel de tous les champs grâce à la technique de propagation de corrections. Ils montrent également que les prédictions de scores de confiance faibles peuvent augmenter l'efficacité d'un annotateur humain et réduire l'erreur d'environ 56%. La plupart des travaux sur l'apprentissage actif se sont souvent concentrés sur l'amélioration des algorithmes et des mesures pour la sélection de l'exemple suivant à étiqueter par l'utilisateur. Ils ont, cependant, souvent négligé le temps mis entre les itérations de l'apprentissage actif, ce qui provoque des temps d'attente longs entre les interactions pour l'utilisateur. (Probst & Ghani, 2007) s'intéressent à l'aspect interactif de l'apprentissage actif. Ils proposent un outil interactif qui a pour but de rendre le processus d'extraction plus efficace et moins coûteux. Cet outil se compose de deux parties : la première partie consiste en un classifieur semi supervisé (non interactif) (CoEM avec Naive Bayes) qui permet d'extraire un ensemble de paires attribut-valeur à partir de données de descriptions de produits sportifs (Probst & Ghani, 2007). La deuxième partie consiste en un outil dont se sert l'utilisateur pour fournir un feedback et améliorer la précision de l'extraction. Nous nous intéressons dans cette section à la deuxième partie du système. Quand CoEM est utilisé comme le classifieur semi-supervisé (R. Jones, Ghani, Mitchell, & Riloff, 2003 ; Muslea, Minton, & Knoblock, 2002) dans la phase d'apprentissage actif, la précision d'extraction obtenue est bonne mais le temps d'attente pour l'utilisateur est extrêmement long. Pour rendre la phase d'apprentissage actif plus rapide sans dégrader la précision, les auteurs proposent une approximation rapide de CoEM avec Naive Bayes qui peut prendre en compte le retour de l'utilisateur presque instantanément et qui peut fonctionner avec n'importe quelle stratégie d'apprentissage actif. Les résultats expérimentaux sur des données de produits sportifs montrent que l'algorithme proposé atteint des performances (précision, rappel et Fmesure) comparables à celles obtenues par l'algorithme original (CoEM avec Naive Bayes) mais tout en étant plus rapide. Le système d'EI obtenu est pratique et minimise le temps d'attente de l'utilisateur. Les auteurs pensent que la combinaison de l'apprentissage actif et de l'apprentissage semi-supervisé peut avoir d' énormes implications pratiques mais le problème du temps d'attente long peut être un obstacle dans plusieurs applications réelles. Ils considèrent leur travail comme une étape vers la construction de systèmes d'EI pratiques. 3.4. Systèmes d'extraction d'information dotés d'interfaces de visualisation 3.4 57 Systèmes d'extraction d'information dotés d'interfaces de visualisation Plusieurs travaux sur les techniques de visualisation d'information interactives comme dans (Heer, Card, & Landay, 2005) ont motivé l'apparition des systèmes d'EI dotés d'interfaces de visualisation et d'investigation des informations extraites. Le système d'EI dynamique interactif IDEX (Eichler et al., 2008) intègre par exemple une interface nommée IdexVisor qui permet une exploration interactive de l'espace d'extraction. IdexVisor permet à l'utilisateur d'accéder à différentes visualisations des données extraites et de naviguer à travers l'espace des données de manière flexible et dynamique. La figure 3.3 montre les composants principaux du système IDEX. Ce dernier est composé de deux parties principales : IdexExtractor responsable de l'EI et IdexVisor qui constitue l'interface graphique de l'utilisateur. Figure 3.3 – Architecture du système IDEX (Eichler et al., 2008). Le processus d'EI dans IDEX commence par l'envoi d'informations pertinentes à propos d'un sujet ou d'un domaine sous forme de requêtes utilisateur sur le web. Les documents retrouvés sont traités par les composants principaux d'EI qui réalisent une extraction d'entités nommées et une identification et un clustering des relations d'intérêt. L'information extraite ainsi que son contexte textuel et linguistique sont stockés dans différentes tables SQL qui sont maintenues par un serveur SQLDB. Les tables constituent une entrée pour le système IdexVisor qui crée dynamiquement différentes représentations visuelles des données dans les tables pour permettre une recherche flexible et une exploration des entités par l'utilisateur. Nous nous intéressons dans cette section au système IdexVisor. En utilisant l'interface IdexVisor, l'utilisateur peut accéder à différentes visualisations des données extraites et naviguer à travers l'espace des données de manière flexible et dynamique. IdexVisor est une application indépendante. Elle peut être configurée dynamiquement au regard de la structure du modèle de la base de données en utilisant une configuration déclarative basée sur XML. L'interface est placée entre l'utilisateur et le serveur de base de données MySQL. IdexVisor suit l'approche MVC (Model View Controller) illustrée dans la figure 3.4. Les résultats d'IdexExtractor sont disponibles sous forme de tables. Chaque table représente un aspect des données extraites. La configuration de l'interface spécifie 58 Chapitre 3. Extraction d'information interactive Figure 3.4 – Architecture d'IdexVisor (Eichler et al., 2008). des méta-informations à propos de la partie des données qui doit être utilisée. Grâce à la vue (View), les données sélectionnées ainsi que les informations additionnelles peuvent être visualisées. En utilisant le contrôleur (Controller), l'utilisateur peut naviguer à travers les données sélectionnées. Il peut chercher des informations spécifiques ou formuler des requêtes au moteur de recherche. La visualisation offre un ensemble de perspectives qui offrent différents points de vue sur des sous ensembles de données accessibles à travers des onglets séparés dans l'interface (GUI ). IdexVisor a été évalué par 7 utilisateurs. Ils reportent que la commutation entre les perspectives est lourde et que les bénéfices ne sont pas évidents. I4E (Interactive Investigation of Iterative Information Extraction) (Sarma et al., 2010) est une autre approche développée pour une investigation interactive postextraction pour les systèmes d'EI interactifs. Cette investigation repose sur 3 phases importantes : l'explication des résultats d'extraction, le diagnostic des composants erronnés potentiels et la réparation des résultats extraits (en réparant leurs composants). L'efficacité de I4E a été démontrée à travers une évaluation expérimentale détaillée sur 6 ensembles de données réelles obtenues à partir d'un corpus web de 500 millions de documents. Les algorithmes de I4E ont permis d'identifier et de réparer un système d'extraction avec un retour utilisateur minimal. 3.5 Systèmes d'aide au développement d'extracteurs d'information à base de règles Dans le milieu industriel, il y a un besoin croissant de développer des systèmes d'EI à base de règles (Chiticariu et al., 2013). En effet, les systèmes à base d'apprentissage statistique pourraient permettre d'obtenir de meilleures performances mais le besoin de comprendre et d'interpréter les résultats obtenus pousse aujourd'hui vers un retour aux systèmes à base de règles. Pour réduire le coût de mise en place de tels systèmes, on doit permettre à des développeurs avec des connaissances générales en informatique de manipuler de tels systèmes. Des travaux sur l'amélioration des processus de création de règles dans les systèmes d'EI se sont concentrés sur l'assistance de l'utilisateur dans l'utilisation des techniques d'apprentissage artificiel comme la pré-génération d'expressions régulières (Brauer, Rieger, Mocan, & Barczynski, 2011) ou la suggestion de patrons (Li, Chu, Blohm, Zhu, & Ho, 2011). Pour améliorer la convivialité, des systèmes qui proposent des environnements pour gui- 3.5. Systèmes d'aide au développement d'extracteurs d'information à base de règles 59 der l'utilisateur dans le développement d'extracteurs d'information ont vu le jour. Nous pouvons citer parmi ces systèmes WizIE (Li et al., 2012) et Propminer (Akbik et al., 2013). WizIE (Li et al., 2012) est un environnement de développement d'applications d'EI qui a pour but de permettre aux développeurs disposant de peu ou ne disposant pas de connaissances linguistiques d'écrire des règles d'EI de bonne qualité. WizIE permet de guider les développeurs d'extracteurs d'information, étape par étape, à travers un processus de développement qui s'appuie sur des bonnes pratiques synthétisées à partir des expériences de développeurs experts. WizIE permet également de réduire l'effort manuel requis dans le développement des tâches d'EI clés en offrant une investigation automatique des résultats et une fonctionnalité de découverte de règles. Le processus de développement dans WizIE se compose de 5 phases comme le montre la figure 3.5. Figure 3.5 – Processus de développement d'un extracteur d'information dans WizIE (Li et al., 2012). Analyse de la tâche : WizIE demande explicitement à l'utilisateur de sélectionner et d'examiner manuellement un petit nombre de documents exemples, d'identifier et d'étiqueter les fragments d'intérêt dans ces documents et de détecter les indices qui permettent d'identifier de tels fragments. La définition et le contexte des tâches d'EI sont capturés par une structure d'arbre appelée « plan d'extraction ». Les noeuds feuilles dans un plan d'extraction correspondent à des tâches d'EI atomiques alors que les autres noeuds correspondent à des tâches de plus haut niveau qui peuvent s'appuyer sur une ou plusieurs tâches atomiques. Développement des règles : une fois les tâches d'EI définies, WizIE guide le développeur dans l'écriture des règles en s'appuyant sur des bonnes pratiques. La figure 3.6 montre une capture d'écran de la phase de développement de règles. Le panneau de la tâche d'EI à gauche fournit des informations et des conseils pour le développement de règles, alors que le panneau du plan d'extraction à droite guide le développement des règles pour chaque tâche d'EI. Comme le montre la figure 3.6, les types de règles associées à chaque noeud peuvent être de 3 catégories : les attributs de base, la génération de candidats et le filtrage et la consolidation. Cette catégorisation est basée sur les meilleures pratiques de développement de règles (Chiticariu, Li, Raghavan, & Reiss, 2010). Le 60 Chapitre 3. Extraction d'information interactive Figure 3.6 – Phase de développement des règles dans WizIE (Li et al., 2012) : (A) développement et (B) test. développeur peut créer des règles soit directement dans l'éditeur de règles soit à travers l'assistant « Create statement » accessible à partir du noeud « Statements » de chaque label dans le plan d'extraction. Une fois que le développeur a complété une itération de développement de règles, WizIE le guide dans le test et le raffinage de l'extracteur comme le montre la figure 3.6 (B). WizIE fournit également une suite d'outils sophistiqués pour l'investigation automatique des résultats et la découverte de règles, ce qui le différencie des environnements de développement d'applications d'EI conventionnels. En effet, quand l'utilisateur clique sur un résultat extrait, le « provenance viewer » fournit une explication complète de comment ce résultat a été produit par l'extracteur, sous forme d'un graphe qui montre la séquence des règles ainsi que les fragments de texte responsables de ce résultat. Ces explications permettent au développeur, par exemple, de comprendre pourquoi un faux positif est généré par le système et d'identifier les règles problématiques qui peuvent être affinées pour corriger l'erreur. Les indices contextuels négatifs peuvent être utiles pour la création de règles qui filtrent les faux positifs. Les indices positifs, en revanche, sont utiles pour la création de règles qui séparent les correspondances ambigües et les correspondances précises. Le composant de découverte de patrons de WizIE facilite la découverte automatique des indices en cherchant dans les données disponibles des patrons communs dans des contextes spécifiques (Li, Chu, et al., 2011). WizIE permet également la découverte de patrons d'expressions régulières. Le générateur d'expressions régulières prend comme entrée des exemples de mentions 3.5. Systèmes d'aide au développement d'extracteurs d'information à base de règles 61 et suggère des expressions régulières qui capturent ces exemples en variant des plus spécifiques (grande précision) aux plus générales (grande couverture). Réglage de la performance : une fois le développeur satisfait de la qualité de l'extracteur, WizIE le guide dans la mesure et le réglage de la performance d'exécution de l'extracteur pour préparer son déploiement dans un environnement de production. Le composant de profilage (profiler) observe l'exécution de l'extracteur sur une collection de données sur une période de temps et enregistre le pourcentage de temps mis pour exécuter chaque règle. Après le profilage, WizIE affiche les 25 règles et opérations qui consomment le plus de temps ainsi que le débit (quantité de données traitée par unité de temps). En s'appuyant sur ces informations, le développeur peut régler à la main les parties critiques de l'extracteur, relancer le composant de profilage et valider une augmentation du débit. Le développeur répète le processus jusqu'à ce qu'il soit content des performances de l'extracteur. Livraison et déploiement : une fois satisfait de la qualité des résultats et de la performance d'exécution, le développeur est guidé par WizIE à travers un processus d'exportation de l'extracteur sous forme d'exécutable compilé. L'exécutable généré peut être imbriqué dans une application en utilisant une interface API Java. WizIE a été évalué par 14 participants. Les résultats montrent que WizIE constitue un pas vers le développement d'extracteurs par des développeurs novices en extraction d'information. Propminer (Akbik et al., 2013) est un outil et un workflow conçu pour permettre à des utilisateurs initiés d'explorer interactivement l'effet et l'expressivité de la création de règles d'EI à partir d'arbres d'analyse syntaxique. Propminer implémente un workflow constitué de 5 étapes. Annoter : les utilisateurs commencent par construire une phrase type pour un type d'information désiré. Cette phrase constitue un exemple qui exprime la relation cible. Dans cette phrase, l'utilisateur annote les mots qui appartiennent à la relation en leur associant les rôles sujet, prédicat et objet. La figure 3.7 montre la vue « sentence view » de Propminer avec une phrase exemple saisie et annotée dans la partie supérieure et la phrase analysée syntaxiquement dans le panneau du centre. Générer : Propminer génère une règle à partir d'une phrase annotée en déterminant l'arbre minimal qui connecte tous les mots étiquetés comme sujet, prédicat et objet dans l'arbre de dépendances. La règle est composée de cet arbre minimal plus les contraintes exprimées dans les étiquettes morpho-syntaxiques et les valeurs lexicales des mots impliqués. Les règles sont formulées comme des requêtes sur une base de données dans laquelle sont stockées les phrases analysées syntaxiquement sous formes de graphes : les noeuds représentent les mots et les arcs représentent les dépendances. L'étiquette morpho-syntaxique et la valeur lexicale du mot sont stockées dans chaque noeud comme attributs. 62 Chapitre 3. Extraction d'information interactive Figure 3.7 – La vue « sentence view » de Propminer (Akbik et al., 2013) où les deux premières étapes du workflow sont exécutées. Une règle Propminer (requête) se compose essentiellement de 3 parties : une clause SELECT qui détermine les champs à retourner par la requête, une clause FROM qui exprime le chemin du sous graphe qui doit être couvert par la règle et qui spécifie quels noeuds du sous graphe correspondent aux champs de la clause SELECT et une clause WHERE où des restrictions sur les attributs des mots du sous arbre sont définies. Généraliser : la règle générée dans la deuxième étape est spécifique à la phrase annotée. Elle n'est capable de trouver que les instances de relations semblables à celles de la phrase type. L'utilisateur généralise dans cette étape la règle à l'aide de suggestions faites par Propminer. La généralisation des règles se fait essentiellement en supprimant ou modifiant les contraintes sur les attributs des mots dans la clause WHERE. Évaluer : chaque règle créée par l'utilisateur est évaluée dans la vue corpus view de Propminer représentée dans la figure 3.8. Cette vue montre un échantillon des résultats d'extraction de la règle dans une table. L'utilisateur peut naviguer dans la table et consulter dans chaque ligne les informations extraites ainsi que la phrase à partir de laquelle les informations ont été extraites. Après chaque modification, les résultats d'extraction de l'état courant de la règle sont affichés pour aider l'utilisateur. Si l'utilisateur juge que l'information extraite est bonne, il peut marquer le fait comme correct. 3.6. Discussion 63 Figure 3.8 – La vue corpus view de Propminer (Akbik et al., 2013) où les règles d'extraction sont modifiées et évaluées. Stocker : si l'utilisateur est satisfait de la règle d'extraction, il peut l'attribuer à une relation et la stocker dans l'ensemble des règles. Il peut répéter le processus avec une autre phrase pour trouver davantage de patrons pour la relation cible. En répétant le workflow, l'ensemble des règles se construit progressivement tout comme l'ensemble des résultats d'évaluation. Les résultats d'évaluation sont utilisés pour aider l'utilisateur à trouver des nouvelles phrases qui peuvent être pertinentes par rapport à la relation cible. Pour éviter les conflits avec des relations existantes, l'ensemble total des règles est appliqué à chaque phrase faisant l'objet d'un workflow. Les évaluateurs du système Propminer trouvent que la nature interactive de l'outil aide à comprendre les règles d'EI. 3.6 Discussion D'après Kristjansson et al. (2004), l'extraction d'information interactive crée de nouveaux besoins dans les systèmes d'EI. Pour faciliter l'expérience des utilisateurs, un système d'EI interactif doit afficher les champs dont l'indice de confiance est faible et prendre en considération de manière optimale les corrections de l'utilisateur. Plusieurs approches d'EI statistiques sont compatibles avec ce paradigme. Les classifieurs à base d'Entropie Maximale permettent l'introduction d'attributs arbitraires et d'estimer la confiance dans les décisions. Les Champs Aléatoires Conditionnels qui représentent une généralisation à la fois des modèles à Entropie Maximale et des modèles de Markov Cachés capturent les dépendances entre les labels, peuvent estimer la confiance dans ces labels et disposent d'un chemin naturel pour propager de manière optimale les corrections de l'utilisateur. 64 Chapitre 3. Extraction d'information interactive Les approches d'ingénierie les plus communes en EI consistent à construire un ensemble d'expressions régulières qui permettent d'extraire les champs cibles. Kristjansson et al. (2004) pensent que les expressions régulières ne sont pas adaptées au paradigme d'extraction d'information interactive car elles ne peuvent ni estimer la confiance ni incorporer de manière naturelle les annotations et les corrections de l'utilisateur. Des travaux à l'instar de ceux menés par S. Soderland et al. (1999), Thompson et al. (1999), T. Wu et Pottenger (2005) montrent cependant qu'il est tout à fait possible d'introduire la notion de confiance dans des systèmes d'EI à base de règles sans pour autant utiliser les méthodes classiques d'estimation de confiance qui proviennent de l'état de l'art de l'apprentissage actif. De nos jours, il y a même une tendance à revenir à ces systèmes à base de règles surtout dans le milieu industriel car les règles sont beaucoup plus compréhensibles pour l'utilisateur que les sorties d'un système d' apprentissage statistique. Des systèmes d'EI interactifs à base de règles ont donc vu le jour. Le système I2 E2 (Cardie & Pierce, 1998) s'occupe seulement d'entraîner de manière interactive l'algorithme d'apprentissage de règles. Le système WizIE (Li et al., 2012) dispose d'une interface interactive qui guide l'utilisateur étape par étape dans la construction du système d'EI mais ne dispose pas d'un module d'apprentissage automatique, ce qui le rend coûteux en termes d'effort humain. Le système Propminer (Akbik et al., 2013) définit un workflow plus complet qui permet à un utilisateur initié de développer un extracteur d'information de bout en bout mais ne dispose pas d'un module qui facilite le choix des exemples à annoter par l'utilisateur. Nous cherchons, dans ce travail, à mettre en place une approche générique d'apprentissage interactif de règles d'EI qui réunit les avantages de plusieurs systèmes d'EI interactifs comme l'entraînement interactif du système, l'utilisation d'une inetrface de visualisation des résultats, l'utilisation d'un langage de règles expressif pour pouvoir obtenir des règles compréhensibles et la prise en compte des annotations et des corrections de l'utilisateur. Une description plus détaillée des propriétés clés qui doivent caractériser le système que nous cherchons à mettre en place figure dans le chapitre 5. Conclusion Les systèmes d'extraction d'information interactifs ont vu le jour d'une part pour réduire le coût de l'écriture manuelle de règles ou l'annotation d'exemples d'apprentissage et d'autre part pour permettre à l'utilisateur d'investiguer les erreurs faites par le système d'EI et de les corriger. Nous avons essayé de définir, dans ce chapitre, ce qu'est l'EI interactive et nous avons distingué 4 catégories de systèmes d'EI interactifs. Les systèmes entraînés de manière interactive permettent une annotation interactive et progressive des exemples d'apprentissage. Les systèmes à base d'apprentissage actif permettent d'estimer les scores de confiance dans les champs extraits et de souligner à l'utilisateur les champs dont le score de confiance est le plus bas afin de les annoter ou les corriger. Les systèmes dotés d'une interface de visualisation ou d'investigation permettent une vérification visuelle de l'exactitude des champs extraits et une correction des erreurs. Les systèmes d'aide au développement d'extracteurs d'information à base de règles définissent des workflows plus 3.6. Discussion 65 ou moins complets qui guident l'utilisateur étape par étape depuis l'annotation des exemples jusqu'à la livraison et le déploiement du système. Le système que nous cherchons à mettre en place, dans ce travail, est un combinaison de ces 4 types de systèmes interactifs. Les propriétés qui doivent le caractériser sont détaillées dans le chapitre 5. Nous nous intéressons dans le chapitre 4 à l'environnement technique qui nous permettra de mettre en place notre approche. Chapitre 4 Outillage Dans une tâche d'extraction d'information (EI), l'environnement technique joue un rôle très important dans l'optimalité des résultats. Dans les systèmes d'EI à base de règles, par exemple, le langage dans lequel sont écrites ou inférées les règles, l'algorithme utilisé pour inférer les règles s'il s'agit d'un apprentissage de règles ainsi que les annotations sur lesquelles les règles s'appuient sont des facteurs qui peuvent avoir un impact important sur les performances de ces dernières. L'approche que nous mettons en place dans ce travail étant basée sur des règles d'EI écrites manuellement et sur des règles également inférées de manière automatique, nous présentons, dans ce chapitre, nos choix concernant la plateforme utilisée pour prétraiter les corpus, le langage de règles que nous utilisons pour écrire les règles d'EI et l'algorithme d'apprentissage de règles dont nous nous servons pour inférer les règles. 4.1 Gestion de l'information non structurée L'information non structurée représente une source d'information disponible, large et qui ne cesse d'évoluer. Très vite, la quantité d'informations disponibles sur le réseau est devenue très importante, mais son hétérogéïnité et son manque de structuration ont rendu l'accès à cette information très difficile. Une application ou une plateforme de gestion d'informations non structurées (Unstructured Information Management, UIM) est généralement une application capable d'analyser de grands volumes d'informations non structurées (texte, audio, vidéo, images) afin de découvrir, d'organiser et de fournir aux clients finaux des connaissances exploitables stockées dans des formats structurés (template, formulaire, etc.) pour des traitements ultérieurs (indexation dans des applications de recherche d'information par exemple). Pour analyser du contenu non structuré, les applications UIM utilisent différentes technologies comme le traitement du langage naturel, la recherche d'information, l'apprentissage artificiel, les ontologies, le raisonnement automatique, etc. Plusieurs outils s'appuyant sur ces technologies ont été développés de manière indépendante en utilisant différentes techniques et interfaces. Cependant, l'intégration de ces outils pour construire le pont entre le monde du non structuré et le monde du structuré est souvent très coûteuse. 68 Chapitre 4. Outillage Es-salihe et Bond (2006) ont étudié et comparé 3 frameworks qui regroupent plusieurs technologies de traitement d'informations non structurées : UIMA (Unstructured Information Management Architecture) Ferrucci et Lally (2004), GATE (General Architecture of Text Engineering) Cunningham (2002) et OpenNLP 1 (Open Natural Language Processing). Ils ont conclu que les trois projets sont forts intéressants et que chacun des trois a ses avantages et ses inconvénients. OpenNLP ne dispose pas d'une architecture générale mais peut être vu comme un ensemble d'implémentations de techniques de traitement automatique de langage naturel qui peuvent être intégrées dans d'autres applications. UIMA et GATE, d'un autre côté, peuvent être considérés comme des projets complémentaires : GATE a été développé dans un milieu de recherche académique et contient donc beaucoup d'implémentations de techniques et d'algorithmes robustes tandis que UIMA provient d'un milieu plutôt industriel et répond plus au besoin de déploiement distribué et à large échelle. UIMA présente également l'avantage de travailler sur toute source de documents (texte, audio, vidéo, image, etc.). Bank et Schierle (2012) donnent un aperçu sur les architectures de gestion du langage naturel les plus courantes (TIPSTER (Grishman, 1996), Ellogon (Petasis, Karkaletsis, Paliouras, Androutsopoulos, & Spyropoulos, 2002), GATE et Heart of Gold (Schäfer, 2006)) ainsi que leurs avantages et leurs inconvénients et les opposent à la première architecture standardisée UIMA. Ils concluent qu'actuellement UIMA peut être considérée comme l'architecture la plus évoluée et la plus complète et encouragent la communauté scientifique à étendre la norme OASIS avec les normes linguistiques pour permettre un meilleur échange entre les chercheurs, ce qui augmenterait la réutilisabilité et la qualité du code. Dans ce travail, UIMA semble la meilleure alternative car il s'agit d'un projet plus maintenu, bien documenté (des manuels détaillés), soutenu par une communauté très active (une multitude de blogs et de listes de diffusion où on peut poser ses questions et recevoir une réponse rapide) et qui ne cesse d'être amélioré et mis à jour du fait de l'augmentation du nombre de ses adhérents. UIMA présente également un avantage majeur : l'utilisation d'un Type system qui définit les types utilisés pour annoter le texte ainsi que leurs propriétés. Ceci assure une interopérabilité entre les différents composants d'une chaîne d'annotation. 4.2 Apache UIMA : un standard OASIS UIMA est un framework de traitement des données non structurées d'abord lancé par IBM et dont l'architecture a été normalisée par l'OASIS le 19 Mars 2009. Le code source d'une implémentation de référence de ce framework a été mis à disposition d'abord sur SourceForge, ensuite sur le site Internet de la fondation Apache 2 . Nous présentons, dans cette section, les notions de base concernant le framework Apache UIMA que nous avons tirées de la documentation fournie par la fondation Apache 3 . L'objectif d'UIMA est de décrire les étapes de traitement d'un document non 1. http://opennlp.apache.org/ 2. http://uima.apache.org/ 3. https://uima.apache.org/documentation.html 4.2. Apache UIMA : un standard OASIS 69 structuré (texte, image, vidéo, etc.), pour en extraire de façon automatique des informations structurées. Ce framework qui prend en compte de nombreuses problématiques de façon native (réutilisation de composants, déploiement distribué, la gestion des erreurs, etc.) permet de spécifier les interfaces de composants, les structures de données, les patrons de conception et la démarche de développement pour créer, décrire, détecter, agréger et déployer des capacités d'analyse multimodale. UIMA fournit un environnement d'exécution dans lequel les développeurs peuvent intégrer leurs implémentations de composants UIMA pour construire et déployer des applications, ainsi qu'un kit de développement qui inclut une implémentation Java de l'architecture et du framework UIMA. Ce kit inclut aussi un ensemble de plugins Eclipse qui facilitent le développement avec UIMA. Dans les sections qui suivent, nous définissons les éléments de base caractérisant le framework UIMA. 4.2.1 Analysis Engines (AEs) L'architecture UIMA s'appuie sur des composants de base appelés Analysis Engines (AEs). Les AEs permettent d'analyser un document et d'en extraire des attributs sous forme de méta-données décrivant soit le document en entier soit des régions particulières du document. Ces attributs descriptifs sont appelés des Analysis Results (ARs). Dans un document textuel, le mot span est utilisé pour désigner une séquence de caractères. Si nous considérons, par exemple, le document textuel identifié par le nom BTID-10080 contenant le span "human gastrointestinal tract" à la position 50, un AE chargé de détecter les habitats de bactéries dans le texte devrait produire comme AR l'énoncé suivant : Le span qui s'étend de la position 50 à la position 78 dans le document BTID-10080 représente un habitat de bactéries. Le terme habitat de bactéries désigne ce qu'on appelle en UIMA un type. Les types caractérisent, en effet, les différents types d'ARs que peuvent produire les AEs. Les algorithmes qui permettent d'analyser les documents et d'enregistrer les ARs sont implémentés dans des composants appelés annotateurs. Les annotateurs sont encapsulés dans les AEs pour ajouter l'infrastructure nécessaire à leur composition et leur déploiement dans le framework UIMA. Les composants de base UIMA dont les AEs et les annotateurs sont réutilisés pour créer n'importe quel composant. Ils se composent essentiellement de deux parties. - La partie déclarative contient des méta-données qui décrivent le composant, son identité, sa structure et son comportement. Elle est représentée par un fichier XML. - La partie code contient l'implémentation de l'algorithme encapsulé par le composant dans un langage de programmation comme Java. On appelle un AE primitif (AE) un AE qui encapsule un seul annotateur et donc qui effectue une tâche unitaire comme la segmentation en mots, la lemmatisation, etc. Un AE complexe ou agrégat (AAE) est un AE qui contient une collection d'AEs primitifs ou agrégats. 70 Chapitre 4. Outillage 4.2.2 Common Analysis Structure (CAS) Un Common analysis Structure (CAS) est défini au sein de l'architecture UIMA pour permettre aux annotateurs de représenter et de partager leurs ARs. Il s'agit donc du point central des échanges entre les composants. Le CAS contient le document original, ses méta-données (annotations) et des interfaces qui permettent d'accéder aux données. Un CAS est une structure de données pour représenter des objets, des propriétés et des valeurs. L'organisation du CAS est définie par un Type System (TS). UIMA fournit des types de base pour constituer le TS. Ces types de base peuvent être étendus pour aboutir à un TS plus riche. Un TS est spécifique à un domaine ou à une application, et les types dans un TS peuvent être organisés sous la forme d'une taxonomie. 4.2.3 Développement d'applications avec UIMA Plusieurs applications de gestion d'informations non structurées sont amenées à analyser des collections entières de documents et à exploiter les résultats d'analyse de différentes manières, mais une application de base utilisant UIMA doit généralement suivre un schéma de fonctionnement décrit par les étapes suivantes : 1. la connexion à une source physique de documents ; 2. la sélection d'un document à analyser ; 3. l'initialisation du CAS avec le document sélectionné ; 4. l'envoi du CAS à un AE sélectionné ; 5. le traitement du CAS résultant ; 6. retour à l'étape 2 jusqu'à ce que la collection de documents soit traitée en entier ; 7. procéder à n'importe quel traitement final après l'analyse de tous les documents. La figure 4.1 montre le fonctionnement général d'une application utilisant UIMA. Pour assurer ce fonctionnement, l'architecture UIMA définit d'autres composants de base dont les principaux sont les suivants. Le CAS initialyzer – Il est propre à un format de documents sources et permet de préparer et d'ajouter des documents au CAS Le Collection Reader – Il se connecte à une source de documents et itère sur la collection pour initialiser les objets CAS avant l'analyse Le CAS Consumer – Les CAS Consumers interviennent à la fin de la chaîne de traitement pour traiter les résultats d'analyse stockés dans le CAS final et les rendre exploitables par d'autres applications comme l'indexation des résultats pour un moteur de recherche ou l'alimentation d'une base de données par exemple. Le Collection Processing Engine (CPE) – Il s'agit d'un composant agrégat qui décrit une chaîne de traitement en partant d'un Collection Reader, en 4.3. Apache UIMA Ruta 71 Figure 4.1 – Fonctionnement général d'une application utilisant UIMA. Schéma tiré de la documentation Apache UIMA. passant par un ensemble d'AEs et en finissant par les CAS Consumers. Ce composant est décrit par un fichier XML (un descripteur) déclaratif qui pointe vers les différents composants de la chaîne et spécifie le flux qui circule entre eux. Le Collection Processing Manager (CPM) – Ce composant se charge de déployer et d'exécuter les descripteurs XML des CPEs. Il permet de gérer les objets CAS, de reprendre en cas d'incident, de créer les fichiers journaux et de gérer les performances. Pour plus de détails, se référer au tutoriel complet (UIMA Tutorial Developers' guides) 4 . 4.3 Apache UIMA Ruta Nous donnons, dans cette section, des notions de base concernant le langage Ruta que nous avons tirées de la documentation fournie par la fondation Apache 5 . 4.3.1 Le langage Ruta : Concepts de base Ruta est un langage de règles impératif étendu avec des éléments de script. Il a été adopté par la fondation Apache UIMA pour soutenir le développement d'applications d'analyse de texte dans UIMA. Une règle Ruta définit un patron d'annotations avec des conditions supplémentaires. Si ce patron s'applique, alors les actions de la règle sont effectuées sur les annotations couvertes. Comme l'écriture des règles (voir section 4.3.2) est une tâche fastidieuse et source d'erreurs manuelles, un UIMA Ruta Workbench a été développé pour faciliter l'écri4. uima.apache.org/d/uimaj-2.6.0/tutorials_and_users_guides.pdf 5. https://uima.apache.org/d/ruta-current/tools.ruta.book.html 72 Chapitre 4. Outillage ture de règles en fournissant autant d'outillage que possible. Cela comprend, par exemple, la vérification de la syntaxe et l'auto-complétion, ce qui rend le développement moins sujet aux erreurs. Parfois, il est aussi nécessaire de déboguer les règles parce qu'elles ne se comportent pas comme prévu. Dans ce cas, la explanation perspective offre une vue qui détaille le processus d'application des règles. Certains outils comme la Query view peuvent également utiliser les règles Ruta comme des requêtes pour interroger des documents annotés. UIMA Ruta s'intègre parfaitement avec Apache UIMA. En effet, les règles Ruta sont appliquées à l'aide d'un AE générique (Ruta Engine) (voir section 4.3.3) et par conséquent les scripts de règles Ruta peuvent facilement être ajoutés aux chaînes de traitement UIMA. UIMA Ruta permet également d'importer et d'utiliser d'autres composants UIMA comme les AEs et les TSs. Les règles UIMA Ruta peuvent se référer à n'importe quel type défini dans un TS importé, et l'UIMA Ruta Workbench génère un TS contenant tous les types qui ont été définis dans un script de règles Ruta. 4.3.2 Écriture des règles Ruta Avant d'être appliquées sur un document, respectivement sur un CAS, les règles Ruta sont toujours regroupées dans un fichier de script. Toutefois, un fichier de script Ruta contient non seulement des règles, mais aussi d'autres déclarations (voir figure 4.2). Figure 4.2 – Exemple d'un script Ruta. Chaque fichier de script commence, tout d'abord, par une déclaration de package, suivie par une liste d'importations optionnelles, suivie par la partie commune qui constitue le corps du script et qui contient les règles et les déclarations de types ou de blocs. Annotations de base Le système UIMA Ruta utilise un tokenizer évolué pour créer dans un premier temps un ensemble d'annotations de base. La figure 4.3 montre la hiérarchie formée par ces annotations (types). Le type ALL est la racine de la hiérarchie. Il forme, avec les types d'annotation ANY, WS, W, PM et SENTENCEEND, un ensemble de types abstraits. Cela signifie qu'ils ne sont pas réellement créés par l'analyseur lexical. Les feuilles de la hiérarchie sont créées par l'analyseur lexical. Chaque feuille correspond à un type propre, mais aussi hérite de l'un des types d'annotation abstraits figurant plus haut dans la hiérarchie. 4.3. Apache UIMA Ruta 73 Figure 4.3 – La hiérarchie des annotations de base dans le langage Ruta. Schéma tiré de la documentation Apache UIMA Ruta. Chaque unité de texte dans un document d'entrée appartient à exactement un de ces types d'annotations feuilles. Les différents types de la hiérarchie sont décrits plus en détails dans la table 4.1. Ces annotations sont créées, par défaut, dans tous les documents concernés par l'application d'un script Ruta. Toutefois, l'utilisateur peut choisir d'ignorer ces annotations en paramétrant son Ruta Engine convenablement (voir section 4.3.3) et se contenter d'utiliser ses propres types pour inférer des règles. Syntaxe des règles Une règle Ruta est composée d'une séquence d'éléments de règles. Un élément de règle est essentiellement constitué de quatre parties. - Une condition de correspondance : il s'agit généralement d'un type d'annotation par lequel l'élément de règle est mis en correspondance avec le fragment de texte couvert. - Un quantificateur optionnel : il spécifie combien de fois l'élément de règle peut s'appliquer et s'il doit obligatoirement s'appliquer. - Une liste de conditions : elle spécifie des contraintes supplémentaires que le texte ou les annotations identifiées doivent remplir. - Une liste d'actions : elle définit les conséquences de la règle. Elle crée souvent de nouvelles annotations ou modifie des annotations existantes. Voici un exemple de règle Ruta : étant donné un Type System UIMA qui contient le type SPACE (espace) et Token (avec une propriété lemma qui contient la forme lemmatisée du mot en question), le règle suivante peut être utilisée pour reconnaître 74 Chapitre 4. Outillage Annotation ALL ANY Père ALL Description Le père de tous les autres types Toutes les annotations à part celles dont le type est MARKUP W ANY Tous les mots PM ANY Tous les signes de ponctuation WS ANY Tous les caractères blancs SENTENCEEND PM Tous les signes de ponctuation qui indiquent une fin de phrase MARKUP ALL Les éléments HTML et XML NBSP ANY Espace insécable AMP ANY Caractère typographique ou symbôle & BREAK WS Caractère de retour à la ligne SPACE WS Espace COLON PM Deux-points ( :) COMMA PM Virgule PERIOD SENTENCEEND Point EXCLAMATION SENTENCEEND Point d'exclamation SEMICOLON PM Point-virgule ( ;) QUESTION SENTENCEEND Point d'interrogation SW W Mot en miniscules CW W Mot commençant par une majuscule CAP W Mot en majuscules NUM ANY Séquence de chiffres SPECIAL ANY Tout autre symbôle Table 4.1 – Description des annotations de base dans le langage Ruta. 4.4. Apache UIMA Ruta TextRuler 75 le terme human body : Token{REGEXP("human")} SPACE Token{FEATURE("lemma","body") -> MARK(BacteriaHabitat,1,2,3)}; Cette règle peut être lue de la manière suivante : si on trouve un Token dont l'expression est human suivi par un espace suivi par un Token dont le lemme est body alors on crée une annotation appelée BacteriaHabitat qui couvre les expressions identifiées par les trois éléments de la règle. Le langage Ruta est d'une grande expressivité et offre beaucoup d'actions possibles (autres que la création de nouvelles annotations) comme la suppression d'annotations, l'attribution d'un score à une annotation, le filtrage d'annotations, etc. Si on spécifie, par exemple, dans notre script Ruta qu'on veut filtrer l'annotation SPACE, la règle suivante qui a une expression plus simple permettrait d'identifier les mêmes expressions couvertes par la règle précédente. Token{REGEXP("human")} Token{FEATURE("lemma","body") -> MARK(BacteriaHabitat,1,2)}; Il est important de mentionner que, sauf indication contraire, une règle UIMA Ruta commence normalement par chercher une correspondance au premier élément de la règle. Le premier élément cherche les positions possibles pour sa condition de correspondance, ensuite avise l'élément de règle suivant pour continuer le processus d'appariement. C'est pour cette raison que l'écriture de règles qui contiennent en premier élément un quantificateur optionnel est déconseillée et revient à ignorer l'attribut optionnel du quantificateur. Une description formelle et détaillée de la syntaxe du langage Ruta figure dans la documentation fournie par Apache UIMA Ruta disponible à l'adresse http:// uima.apache.org/ruta.html. 4.3.3 Application des règles Ruta : Ruta Engine Ruta Engine est le plus important AE dans le langage UIMA Ruta dans la mesure où il est responsable de l'application des règles UIMA Ruta sur un CAS donné. Il s'agit d'un AE générique qui doit être configuré en utilisant les paramètres de configuration résumés dans la table 4.2. Ruta Engine peut être configuré et lancé soit en utilisant des interfaces UIMA soit directement à partir d'un code en Java par exemple. Cette deuxième alternative peut être plus intéressante dans la mesure où l'application d'un script Ruta devient plus automatique et plus transparente. 4.4 Apache UIMA Ruta TextRuler Le système TextRuler (Kluegl, Atzmueller, Hermann, & Puppe, 2009) est un système de développement semi-automatique d'applications d'EI à base de règles s'appuyant sur le langage Ruta. 76 Chapitre 4. Outillage Paramètre mainScript Description Nom (contenant l'espace de noms complet) du script qui sera interprété et exécuté par l'AE scriptEncoding Encodage de tous les fichiers de script UIMA Ruta scriptPaths Liste des chemins absolus des répertoires qui contiennent les fichiers de script nécessaires comme le mainScript descriptorPaths Liste des chemins absolus des répertoires qui contiennent les fichiers de descripteurs nécessaires comme les TSs resourcePaths Liste des chemins absolus des répertoires qui contiennent les fichiers de ressources nécessaires comme la liste des mots additionalScripts Liste des noms (contenant l'espace de noms complet) des scripts supplémentaires qui peuvent être appelés additionalEngines Liste des noms (contenant l'espace de noms complet) des AEs supplémentaires qui peuvent être appelés par les règles Ruta additionalUimafitEngines Liste des noms (contenant l'espace de noms complet) des uimaFIT AEs supplémentaires qui peuvent être appelés par les règles Ruta additionalEngineLoaders Liste des noms des classes qui sont en mesure d'effectuer des tâches supplémentaires lors du chargement d'AE externes additionalExtensions Liste des classes pour les extensions supplémentaires du langage UIMA Ruta comme les conditions de propriété reloadScript Option pour initialiser le script de règles chaque fois que l'AE traite un CAS seeders Liste des noms des classes qui fournissent des annotations supplémentaires avant l'exécution des règles defaultFilteredTypes Liste des noms complets des types d'annotation qui sont invisibles par défaut (filtrés) removeBasics Option pour supprimer toutes les annotations de base de Ruta après l'exécution du script de règles strictImports Option pour limiter la résolution des noms de types courts à ceux figurant dans les TSs déclarés dynamicAnchoring Option pour permettre au processus d'appariement de règles de commencer à n'importe quel élément de règle lowMemoryProfile Option pour réduire la consommation de mémoire lors du traitement d'un grand CAS simpleGreedyForComposedOption pour activer un processus d'inférence différent pour les éléments des règles composés 4.4. Apache UIMA Ruta TextRuler debug debugWithMatches debugOnlyFor profile statistics createdBy 77 Option pour ajouter des informations de débogage au CAS Option pour ajouter des informations concernant les correspondances des règles au CAS Liste d'identifiants de règles. Si fournie, alors les informations de débogage sont créées uniquement pour ces règles Option pour ajouter des informations de profiling au CAS Option pour ajouter les statistiques des conditions et des actions au CAS Option pour ajouter des informations supplémentaires, quelle règle a créé une annotation Table 4.2 – Description des paramètres de configuration de Ruta Engine. 4.4.1 Algorithmes d'apprentissage de règles Le système TextRuler correspondant à la version 2.0.0 de Ruta (anciennement appelé TextMarker) contient les implémentations des algorithmes (LP)2 (Ciravegna, 2001, 2003) ((LP)2 R ), WHISK (S. Soderland et al., 1999) (WHISKR ), RAPIER (Califf & Mooney, 2003) (RAPIERR ), BWI (Freitag & Kushmerick, 2000) (BWIR ) et WIEN (Kushmerick, Weld, & Doorenbos, 1997) (WIENR ) adaptés au langage Ruta. À partir de la version 2.0.1 de Ruta, TextRuler ne contient plus les implémentations des algorithmes RAPIER, BWI et WIEN qui ont laissé la place aux algorithmes TraBal (Eckstein, Kluegl, & Puppe, 2011) et KEP. (LP)2 R Cet algorithme implémente les idées publiées dans (Ciravegna, 2003) mais s'appuie sur le langage Ruta. (LP)2 R apprend des règles distinctes pour le début et la fin d'un segment de texte qui représente un exemple d'apprentissage. Ces règles sont ensuite combinées dans le but d'identifier l'annotation cible. La stratégie d'apprentissage utilisée par cet algorithme couvrant est une stratégie ascendante. Il commence par créer une instance spécifique d'une graine avec une fenêtre de contexte de w tokens à gauche et à droite de la limite cible (limite gauche ou droite de l'annotation cible) et recherche ensuite la meilleure généralisation possible. Des règles contextuelles supplémentaires sont induites dans le but d'identifier les limites manquantes. L'implémentation actuelle de l'algorithme n'inclut pas les règles de correction prévues dans l'algorithme (LP)2 de base. TextRuler propose deux versions de cet algorithme : (LP)2 R (version naïve) est une implémentation simple de (LP)2 avec une expressivité limitée concernant les règles Ruta résultantes. (LP)2 textsubscriptR (version optimisée) est une version améliorée avec une approche de programmation dynamique qui fournit souvent de meilleurs résultats. Les paramètres qui peuvent être fixés par l'utilisateur sont : 78 Chapitre 4. Outillage - la taille de la fenêtre de contexte (à gauche et à droite) ; - la taille de la liste des meilleures règles ; - le nombre minimum d'exemples positifs qui doivent être couverts par une règle ; - le taux d'erreur maximum ; - la taille de la liste des règles contextuelles. WHISKR Cet algorithme implémente les idées publiées dans (S. Soderland et al., 1999) mais s'appuie sur le langage Ruta. WHISKR utilise une méthode multi-slot pour apprendre des règles et traite trois types de documents textuels : structurés, semi structurés et non structurés. Les règles multi-slot ou single-slot qu'il apprend sont similaires à des expressions régulières. Cependant, l'implémentation actuelle de l'algorithme n'inclut que les règles singleslot. Cet algorithme couvrant descendant commence avec la règle la plus générale et la spécialise en ajoutant des termes jusqu'à ce qu'elle ne fasse plus d'erreurs sur l'ensemble d'apprentissage. TextRuler propose deux versions de cet algorithme : WHISKR (token) est une implémentation naïve qui s'appuie sur les tokens annotés par le langage Ruta. WHISKR (générique) est une implémentation améliorée capable d'utiliser les annotations disponibles dans le corpus (celles ajoutées par un utilisateur par exemple). Les paramètres qui peuvent être fixés par l'utilisateur sont : - la taille de la fenêtre de contexte (à gauche et à droite) ; - le taux d'erreur maximum. TraBal Cet algorithme est implémentation des idées publiées dans (Eckstein et al., 2011). Trabal induit des règles qui tentent de corriger des erreurs d'annotation en s'appuyant sur deux ensembles de documents : un ensemble de documents gold standard et un ensemble de documents annotés avec le même texte qui contiennent éventuellement des annotations erronées, pour lesquelles des règles de correction doivent être apprises. L'algorithme compare, tout d'abord, les deux ensembles de documents et identifie les erreurs présentes. Ensuite, des règles sont induites et étendues pour chaque erreur. Ce processus peut être itéré afin d'éliminer progressivement toutes les erreurs. Les paramètres qui peuvent être fixés par l'utilisateur sont : - le nombre d'itérations de l'algorithme ; - le nombre de règles de base à inférer pour un exemple ; - le nombre de règles optimisées à inférer pour un exemple ; - le nombre maximum d'itérations pour optimiser les règles ; - le taux d'erreur maximum. KEP Le nom de l'algorithme KEP (patrons d'ingénierie de connaissances) est dérivé de l'idée que les humains utilisent différents patrons d'ingénierie pour écrire des règles d'annotation. Cet algorithme implémente des méthodes simples d'induction 4.4. Apache UIMA Ruta TextRuler 79 de règles pour certains patrons, telles que la détection de limite ou la restriction de la fenêtre basée sur les annotations. Les résultats sont ensuite combinés de manière à tirer profit de la combinaison de différents types de règles induites. Comme les règles simples sont construites selon la façon dont les humains écrivent les règles d'annotation, l'ensemble des règles résultant devrait ressembler à un ensemble de règles écrites manuellement. En outre, en exploitant la synergie des patrons, des solutions pour certaines annotations sont beaucoup plus simples. Les paramètres qui peuvent être fixés par l'utilisateur sont : - le nombre maximum des règles d'expansion ; - le nombre maximum des règles d'annotation. 4.4.2 Interface TextRuler La figure 4.4 représente la vue TextRuler dans la perspective UIMA Ruta d'un projet Apache UIMA Ruta (pour plus de détails concernant la création d'un projet Apache UIMA Ruta dans Eclipse, se référer à la documentation fournie par Apache). L'interface TextRuler est composée de 4 parties. - La barre d'outils : contient des boutons pour lancer (bouton vert) et arrêter (bouton rouge) le processus d'apprentissage et un bouton (bleu) qui permet de configurer les différents algorithmes d'induction de règles. - La partie supérieure de la vue : contient des champs textuels pour définir l'ensemble des documents utilisés. Training Data pointe vers le chemin absolu du répertoire contenant les documents gold standard (les documents d'apprentissage). Additional Data pointe vers le chemin absolu du répertoire contenant des documents supplémentaires qui peuvent être utilisés par les algorithmes d'apprentissage. Pour l'instant, seul l'algorithme TraBal a besoin de ces documents. Test Data n'est pas encore disponible. Enfin, Preprocess Script pointe vers le chemin absolu du script UIMA Ruta contenant tous les types nécessaires et qui peut être appliqué sur les documents avant le lancement de l'algorithme pour ajouter des annotations utiles pour l'apprentissage. La phase du prétraitement peut néanmoins être ignorée. - La partie centrale de la vue : Information Types contient la liste des annotations (types) cibles qui doivent être induits et Filtered Feature Types contient la liste des types à filtrer dans l'induction des règles. - La partie inférieure de la vue : contient la liste des algorithmes d'induction de règles disponibles. Les algorithmes cochés sont tous lancés quand le bouton de lancement dans la barre d'outils est pressé. - La partie droite de la vue : Quand les algorithmes d'induction de règles sont lancés, leurs résultats (l'ensemble des règles apprises) sont affichés dans la partie droite de la vue où un onglet portant le nom de l'algorithme suivi du mot Results est créé pour chaque algorithme. Un exemple d'utilisation de TextRuler est disponible dans la documentation Apache UIMA Ruta. Figure 4.4 – L'interface de TextRuler. Schéma tiré de la documentation Apache UIMA Ruta. 80 Chapitre 4. Outillage 4.4. Apache UIMA Ruta TextRuler 81 Conclusion Nous avons présenté, dans ce chapitre, nos choix concernant la plateforme de gestion de contenus non structurés et le langage de règles d'EI à utiliser. La plateforme UIMA semble convenir le mieux pour annoter le texte de départ car non seulement elle offre plus de fonctionnalités que ses concurrentes (standardisation, parallélisation, gestion des ressources, etc.) mais aussi parce que c'est un projet actif qui continue à être maintenu et amélioré. Le langage Ruta est un langage de règles d'une grande expressivité qui s'appuie sur UIMA et qui a été jugé par plusieurs utilisateurs plus complet que le langage JAPE, un des langages les plus connus et intégré à la plateforme GATE. Le système TextRuler est un système de développement d'applications d'EI à base de règles s'appuyant sur le langage Ruta. Il s'agit de l'un des premiers systèmes à fournir aux utilisateurs des algorithmes d'apprentissage de règles qui utilisent des langages de règles communs et familiers aux ingénieurs de connaissance. Même si les implémentations courantes de ces algorithmes ne sont pas optimisées et parfois incomplètes, elles peuvent être améliorées et étendues de manière à devenir intéressantes. L'algorithme WHISKR , par exemple, semble être un bon candidat dans un système interactif d'apprentissage de règles car les règles qu'il produit sont simples, compréhensibles et facilement extensibles par un être humain. L'ajout de fonctionnalités, comme la prise en compte des propriétés des annotations, à cet algorithme permettrait d'améliorer ses performances. Nous expliquons de manière détaillée, dans le chapitre suivant, les problématiques posées dans ce travail, ce qui permettra de guider davantage nos choix concernant l'environnement technique. Chapitre 5 Problématique : interaction dans l'apprentissage de règles d'extraction d'information Comme nous l'avons mentionné dans le chapitre 2, il existe deux principales familles d'approches d'extraction d'information (EI) : les approches à base de règles écrites manuellement et les approches à base d'apprentissage artificiel. Les deux familles d'approches nécessitent un effort manuel non négligeable que ce soit pour écrire les règles ou pour annoter les exemples d'apprentissage. Quelques systèmes interactifs ont été proposés (voir chapitre 3) pour permettre à l'utilisateur d'intervenir dans des processus d'EI automatiques. Néanmoins, cette intervention est souvent limitée à une sélection d'exemples d'apprentissage ou à une correction de quelques erreurs. Nous pensons qu'un système interactif qui combine les deux approches d'EI permettrait de réduire considérablement l'effort manuel requis. Ce système doit, en revanche, assurer un certain nombre d'objectifs et avoir un certain nombre de propriétés clés. Après l'explicitation des différents objectifs du système que nous voulons mettre en place et la définition du profil de l'utilisateur visé dans la première section de ce chapitre, nous détaillons dans la deuxième section les différentes propriétés clés que doit avoir ce système pour lever un certain nombre de verrous. La troisième section est réservée à la présentation des corpus que nous utilisons tout au long de ce travail pour valider notre approche. 5.1 Placer l'utilisateur au centre du système Un système interactif d'apprentissage de règles d'EI est un système qui nécessite une coopération de l'utilisateur et de l'algorithme d'apprentissage dans le but de réduire au maximum l'effort humain requis dans l'écriture manuelle de règles et dans l'annotation des exemples d'apprentissage. Pour ce faire, ce système doit permettre : - une communication aisée entre l'utilisateur et le module d'apprentissage de règles ; 84 Chapitre 5. Problématique : interaction dans l'apprentissage de règles d'extraction d'information - une liberté pour l'utilisateur de choisir l'action à effectuer pour faire évoluer le système entre l'annotation d'exemples d'apprentissage, l'écriture de règles d'EI et la modification de règles existantes ; - une exploration facile des exemples ; - une aide pour identifier les bons exemples à annoter ; - un test aisé des règles écrites ou inférées automatiquement et une navigation facile dans les exemples qu'elles couvrent. Nous ne ciblons pas, dans ce travail, un profil particulier d'utilisateur. Nous voulons que notre système puisse être utilisé par différents profils d'utilisateurs. Cependant le domaine ciblé peut jouer beaucoup sur le profil d'utilisateur qui peut utiliser le système. Pour des domaines qui nécessitent des connaissances métier (extraction d'informations à propos de gènes . . . ), la présence d'un expert de domaine est nécessaire. Cet expert peut soit utiliser le système seul soit coopérer avec un ingénieur de connaissances ou un informaticien. Dans le premier cas, il peut se contenter d'annoter des exemples et de valider/invalider les exemples couverts par des règles inférées. Il peut également être assisté dans l'annotation des exemples : le système peut contenir un module d'apprentissage actif qui propose à l'expert des exemples à annoter à chaque itération. Dans le deuxième cas, l'ingénieur de connaissances se charge de traduire en règles les connaissances métier fournies par un expert (annotation d'exemples). Il peut également modifier/ajuster des règles inférées en s'appuyant sur les statuts donnés par l'expert de domaine aux exemples couverts par les règles inférées. Pour des domaines qui ne nécessitent, en revanche, pas ou peu de connaissances métier (extraction d'opinions à propos d'un produit, extraction d'informations à propos de conférences, extraction d'informations à propos de contacts mail, . . . ), un utilisateur qui a des connaissances générales en informatique (capable de comprendre la syntaxe des règles) serait capable de travailler à la fois sur les règles et l'annotation des exemples. Il s'agit du profil d'utilisateur qui tirera le plus de bénéfices d'un système interactif d'EI. C'est donc à ce profil d'utilisateur que nous nous référons dans ce travail. 5.2 Propriétés d'un système interactif d'apprentissage de règles d'extraction d'information Pour assurer ses objectifs, un système interactif d'apprentissage de règles d'EI doit se caractériser par des propriétés clés. 5.2.1 Compréhensibilité des règles Contrairement à la plupart des techniques d'apprentissage connexionnistes telles que les réseaux de neurones qui sont considérés comme des techniques difficilement interprétables car la connaissance acquise est dissimulée dans un grand nombre de connexions et n'est pas transparente pour l'utilisateur, les techniques d'apprentissage symboliques comme l'induction de règles sont généralement considérées comme 5.2. Propriétés clés d'un système interactif 85 des techniques compréhensibles car les connaissances apprises sont souvent exprimées sous forme de règles de production facilement interprétables par l'utilisateur (Z.-H. Zhou & Jiang, 2003). Heller, Veltink, Rijkhoff, Rutten, et Andrews (1993) comparent une technique d'induction de règles à une technique basée sur les réseaux de neurones sur une tâche de reconstruction des modèles d'activation des muscles lors de la marche normale à partir de données cinématiques. Ils remarquent que les règles produites par l'apprentissage inductif sont à la fois explicites et compréhensibles alors que celles provenant du réseau de neurones sont implicites et pas facilement interprétables par un humain. Dans les projets de fouille de données temps réel, les données sont souvent imprécises et peuvent contenir des erreurs ou des valeurs manquantes, ce qui rend impossible la création de modèles avec des performances suffisantes pour les systèmes entièrement automatisés. Dans ces cas, les prédictions doivent être analysées et ajustées manuellement. Étant donné que l'analyse de ces prédictions nécessite des modèles compréhensibles, les modèles opaques ne pourraient pas être analysés. Pour contourner cet inconvénient, les chercheurs ont développé des techniques d'extraction de règles qui tentent d'extraire des règles compréhensibles à partir de modèles opaques, tout en conservant une précision suffisante (Huysmans, Baesens, & Vanthienen, 2006). La compréhensibilité des règles est un critère important quand on cherche à évaluer des techniques d'extraction ou d'apprentissage de règles. Cependant, étant donné la nature subjective de ce critère, il est difficile de le décrire de manière expérimentale ou de le mesurer indépendamment de l'utilisateur. Dans les techniques d'extraction de règles, la compréhensibilité des règles est souvent évaluée au regard de la taille des règles sachant que la taille d'une règle peut être calculée de différentes manières. Sönströd, Johansson, et König (2007) pensent, en revanche, que la compréhensibilité des règles doit être décomposée en deux mesures. Interprétabilité : le modèle doit exprimer les conditions de la même manière que l'humain a tendance à les exprimer. Concision : le modèle doit classer autant d'instances que possible avec peu de conditions. Dans les techniques d'apprentissage ou d'induction de règles, la compréhensibilité des règles n'a pas été définie de manière claire car les règles symboliques sont réputées être compréhensibles par nature. Nous pensons, cependant, que cette compréhensibilité est très liée à l'expressivité et l'intuitivité du langage dans lequel elles sont exprimées. Pour être compréhensibles, nous pensons que les règles d'EI doivent : Avoir une expression symbolique – Contrairement à l'apprentissage statistique, l'apprentissage symbolique a l'avantage de produire généralement une sortie lisible par un être humain. Être assez courtes – Pour ne pas avoir une expression trop complexe, les règles doivent avoir une expression courte pour pouvoir être facilement lues par un être humain. 86 Chapitre 5. Problématique : interaction dans l'apprentissage de règles d'extraction d'information Être en nombre réduit – Plus l'ensemble des règles dont on dispose est réduit, plus il est facile pour l'utilisateur de l'explorer. Utiliser des termes intuitifs – Les éléments constituant les règles doivent être écrits dans des termes similaires à ceux qu'aurait utilisés l'utilisateur. Les règles exprimées à l'aide de vocabulaires de la logique, par exemple, sont des règles faciles à interpréter par l'utilisateur. 5.2.2 Généricité/généralité des règles La compréhensibilité et la généricité/généralité des règles sont deux critères étroitement liés dans la mesure où la généricité implique : - Des expressions de règles plus courtes – Plus les règles sont génériques, moins elles contiennent des conditions spécifiques et plus elles sont courtes. - Un ensemble de règles réduit – Plus les règles sont génériques, plus elles sont capables de généraliser sur l'ensemble d'exemples d'apprentissage et donc moins de règles sont nécessaires pour couvrir cet ensemble. Dans les systèmes d'EI à base de règles, tous les travaux s'accordent sur le fait que des règles trop spécifiques qui ont une faible couverture posent un problème dans la mesure où elles entraînent un risque de surapprentissge. Pour éviter ce problème, ces règles doivent être généralisées, c'est à dire avoir une expression plus générique et couvrir plus d'exemples. La généricité des règles permet, en effet, d'améliorer les performances en augmentant la couverture des règles et par conséquent de diminuer le nombre total des règles, un facteur très important dans un système interactif où l'utilisateur a besoin d'examiner l'ensemble des règles. Prenons les trois patrons suivants écrits dans le langage Ruta : 1-Token{REGEXP("base")} Token{REGEXP("de")} Token{REGEXP("données")}; 2-Token{FEATURE("lemma","base")} Token{FEATURE("lemma","de")} Token{FEATURE("lemma","donnée")}; 3-Term{{FEATURE("lemma","base de données")}; Le premier patron permet de reconnaître uniquement le terme « base de données » mais pas ses variations (Base de données, bases de données, etc.). Le second est plus générique car il reconnaît toutes les variations du terme. Le troisième patron est encore plus générique car il permet de détecter des termes comme « BD » lemmatisés « base de données » par un extracteur de termes. En effet, pour être générique, une règle doit pouvoir reposer sur des annotations elles mêmes génériques, ce qui implique que le texte d'entrée doit être bien préparé avant qu'on puisse construire et apprendre des règles dessus. Il faut cependant noter que la généricité peut impliquer un temps d'apprentissage plus long dans la mesure où il faut tester plus de règles (des règles s'appuyant sur les différentes annotations linguistiques disponibles dans le texte par exemple). Il faut donc trouver le bon compromis entre la généricité et le temps d'apprentissage. 5.2. Propriétés clés d'un système interactif 5.2.3 87 Stabilité des règles Dans un système interactif d'apprentissage de règles, l'utilisateur examine les règles inférées par l'algorithme d'apprentissage. Il peut se rendre compte que ces règles ne couvrent pas certains exemples qui lui semblent évidents ou au contraire font quelques erreurs. Dans ces cas, il est amené soit à écrire des règles qui ont pour but de chercher des exemples omis, soit à corriger quelques règles existantes. L'algorithme d'apprentissage prendra en compte ces modifications dans l'itération suivante et produira un nouvel ensemble de règles. Toutefois, ce nouvel ensemble peut ne pas contenir les règles que l'utilisateur a écrites ou modifiées. Ceci peut constituer un problème pour l'utilisateur qui aimerait que l'algorithme d'apprentissage garde ses règles parce qu'il les trouve satisfaisantes et compréhensibles. L'algorithme d'apprentissage doit donc prendre en compte les règles écrites ou modifiées par l'utilisateur et essayer de les étendre sans pour autant modifier complètement leurs expressions. Ceci permettrait à l'utilisateur de suivre l'évolution de ses règles au fil des itérations et de garder le contrôle sur leur complexité. Cet enjeu dépend beaucoup de l'algorithme d'apprentissage utilisé car certains algorithmes sont stables par nature. En effet, lorsqu'on leur fournit de nouveaux exemples, ces algorithmes peuvent procéder de deux manières. - Si les exemples fournis ressemblent à des exemples déjà couverts : l'algorithme essaie de modifier des règles existantes pour prendre en compte les nouveaux exemples. L'expression des nouvelles règles ne diffère généralement pas beaucoup de celle des anciennes. - Si les exemples fournis ne ressemblent pas aux exemples déjà couverts : l'algorithme infère de nouvelles règles pour couvrir les nouveaux exemples. Il est cependant à noter que la stabilité des règles n'assure pas forcément les meilleures performances car les règles écrites par l'utilisateur peuvent être non optimales, très spécifiques et faire beaucoup d'erreurs sur de nouvelles données. L'utilsateur est donc parfois amené à choisir entre stabilité et performances. 5.2.4 Sélection d'exemples Dans un système interactif d'apprentissage de règles, le but étant de réduire au maximum le nombre d'exemples à annoter manuellement, un processus de sélection d'exemples pertinents semble indispensable pour permettre à l'utilisateur d'annoter moins d'exemples. La mise en place de la sélection d'exemples peut se faire à deux niveaux pour répondre à deux besoins différents. Réduire l'espace de travail : l'utilisateur reconnaît des exemples correspondant à des mots clés pertinents. Au lieu de parcourir tout le corpus à la recherche de ces exemples, il doit pouvoir écrire des règles prospectives qui vont lui permettre de les trouver. Les exemples couverts par ces règles constituent un espace de travail réduit pour l'utilisateur. Il peut sélectionner parmi ces exemples couverts ceux qui l'intéressent et les annoter. Favoriser une convergence rapide de l'algorithme d'apprentissage : pour améliorer le rappel de son système, l'utilisateur doit fournir plus d'exemples 88 Chapitre 5. Problématique : interaction dans l'apprentissage de règles d'extraction d'information à l'algorithme d'apprentissage. Néanmoins, ces exemples ne sont pas faciles à trouver et l'utilisateur peut avoir du mal à les repérer. Il doit donc pouvoir accéder facilement aux exemples les plus pertinents dans le texte non couverts par les règles dont il dispose en vue de les étiqueter. L'apprentissage actif est une solution qui a été proposée par plusieurs études dans la littérature pour résoudre le problème de sélection d'exemples. Muslea et al. (2000) ; Probst et Ghani (2007) ; Thompson et al. (1999) ont montré que l'apprentissage actif permet de réduire de manière significative le nombre d'exemples annotés manuellement. Finn et Kushmerick (2003) ont étudié plusieurs stratégies d'apprentissage actif qui peuvent être appliquées dans des tâches d'EI et ont montré que plusieurs d'entre elles ont donné des résultats nettement meilleurs qu'une stratégie de sélection aléatoire d'exemples. 5.2.5 Temps d'apprentissage Même si les systèmes d'EI à base de règles sont considérés comme des systèmes lents, il n'y a jamais eu véritablement d'évaluation expérimentale de ces systèmes en termes de temps. Dans un système interactif, le facteur temps est très important car pour pouvoir interagir avec l'algorithme d'apprentissage, l'utilisateur ne doit pas attendre longtemps avant d'avoir une réponse de l'algorithme. Autrement dit, l'apprentissage de règles doit se faire de manière assez rapide. Il est difficile d'assurer cette rapidité car elle dépend de beaucoup de facteurs comme : Le temps d'exécution des règles – Le temps que met le moteur d'application des règles pour tester une règle sur le texte diffère d'un langage de règles à un autre et dépend beaucoup de la manière avec laquelle est implémenté le langage de règles. La taille du corpus – Plus la taille du corpus est grande et plus le test des règles sur le corpus est lent. Le nombre total des règles à évaluer dans l'espace de recherche de règles – pour pouvoir sélectionner les règles les plus performantes, l'algorithme d'apprentissage de règles commence par construire un espace de recherche de règles qui contient un certain nombre de règles à évaluer et comparer entre elles. Le nombre de ces règles dépend de trois facteurs. - L'expression des exemples d'apprentissage : plus les exemples sont différents les uns des autres et plus il est difficile de trouver des règles capables de généraliser sur ces exemples. Il faut donc plus de règles pour couvrir des exemples qui s'expriment de manières différentes. - La richesse des annotations dans le texte : pour pouvoir sélectionner les meilleures règles, l'algorithme d'apprentissage doit tester toutes les règles possibles. Autrement dit, il doit tester les règles qui s'appuient sur les différentes annotations disponibles dans le texte. Par conséquent, plus il y a d'annotations dans le texte et plus le nombre de règles à tester est élevé. - La taille du contexte à considérer pour apprendre une règle : pour pouvoir désambiguïser certains exemples ou réduire le taux d'erreur de certaines règles, l'algorithme d'apprentissage de règles utilise des éléments de 5.3. Corpus de travail 89 contexte dans l'expression des règles. Plus la taille de ce contexte (fenêtre de mots) est grande (par exemple les 5 mots qui précèdent et suivent l'exemple en question) et plus il y a des règles à tester. En optimisant l'un ou plusieurs de ces facteurs, l'utilisateur peut réduire le temps d'apprentissage de règles. Nous ne devons cependant pas perdre de vue que les mesures à prendre pour réduire ce temps ne doivent pas dégrader les performances. Dans le cas contraire, l'utilisateur doit trouver le bon compromis entre performances et temps d'apprentissage. 5.3 Corpus de travail Pour évaluer et valider notre approche interactive d'apprentissage de règles d'EI, nous utilisons essentiellement deux corpus : le corpus Bacteria Biotope (BB) de BioNLP-ST 2013 et le corpus SyntSem. 5.3.1 Corpus BB BioNLP-ST 2013 Le corpus BB BioNLP est un ensemble de documents qui décrivent de manière générale des espèces de bactéries. Chaque document est centré autour d'une espèce, un genre ou une famille de bactéries ; il contient des informations générales sur leur classification, écologie et intérêt pour les activités humaines. Ces documents ont été extraits à partir de plus de 20 sites Web publics. Parmi les 2040 documents constituant le corpus, 85 ont été sélectionnés au hasard pour le challenge BioNLP-ST 2013. Les documents ont été annotés en mode double aveugle par les bioinformaticiens de l'équipe Bibliome du laboratoire MIG à l'Institut National de Recherche Agronomique (INRA) en utilisant l'éditeur AlvisAE (Papazian, Bossy, & Nédellec, 2012). Le corpus que nous considérons dans ce travail est le corpus fourni dans le cadre de la sous-tâche 1 du BB BioNLP-ST (Bossy, Golik, Ratkovic, Bessières, & Nédellec, 2013) dont le but est de détecter, dans le texte, les habitats de bactéries et leur associer une ou plusieurs catégories à partir de l'ontologie OntoBiotope 1 fournie pour la tâche. Ce corpus est composé de 3 ensembles de données : un ensemble d'entraînement (52 documents), un ensemble de développement (26 documents) et un ensemble de test (27 documents). Concernant les ensembles d'enraînement et de développement, des documents contenant des annotations manuelles d'habitats de bactéries et des catégories qui leur sont associées ont été fournis. Chaque habitat est au moins associé à une catégorie. Les annotations de référence n'ont, en revanche, pas été fournies pour les données de test. La seule manière d'évaluer les prédictions d'un algorithme sur ces dernières est de faire une soumission sur l' adressse web du service d'évaluation de la tâche 2 . La table 5.1 donne une vue plus détaillée sur les données d'entraînement (E) et de développement (D) fournies par la tâche. 1. http://bibliome.jouy.inra.fr/MEM-OntoBiotope/OntoBiotope_BioNLP-ST13.obo 2. http://genome.jouy.inra.fr/~rbossy/cgi-bin/bionlp-eval/BB.cgi 90 Chapitre 5. Problématique : interaction dans l'apprentissage de règles d'extraction d'information E D EfiD Nombre de catégories 333 274 491 Nombre d'habitats 934 611 1545 Nombre d'annotations 948 626 1574 Nombre de catégories avec 1 Annotation 182 179 272 Nombre de catégories avec 2 Annotations 66 41 86 Nombre de catégories avec Ø 3 Annotations 85 54 133 Nombre de catégories dans l'ontologie OntoBiotope : 1756 Table 5.1 – Aperçu sur les données fournies pour la sous-tâche 1 du BB BioNLP-ST 2013. E représente les données d'entraînement et D les données de développement. La table 5.1 montre que parmi les 1756 catégories qui figurent dans l'ontologie OntoBiotope, uniquement 333 d'entre elles apparaîssent dans les données d'entraînement. Il existe 934 habitats de bactéries dans les données d'entraînement correspondant à 948 annotations qui réfèrent chacune à au moins une catégorie dans l'ontologie OntoBiotope (un habitat est parfois rattaché à plus qu'une catégorie). Parmi les 333 catégories figurant dans les données d'entraînement, 182 possèdent une seule occurrence (annotation), 66 possèdent deux occurrences et 85 possèdent plus que deux occurrences. En examinant de près la table 5.1, nous pouvons déduire que l'échantillon de données fourni est trop petit pour conduire à un bon rappel pour un algorithme d'apprentissage s'appuyant uniquement sur cet échantillon : - 158 (491 ≠ 333) des 274 catégories (58%) figurant dans les données de développement n'apparaîssent pas dans les données d'entraînement. - Les catégories qui apparaîssent dans les données d'entraînement représentent 19% (333/1756) du nombre de catégories figurant dans l'ontologie OntoBiotope. Celles qui apparaîssent dans les données de développement représentent 16% (274/1756) et enfin, celles qui apparaîssent dans l'union des données d'entraînement et de développement représentent 28% (491/1756)). - Il est clairement difficile pour un algorithme d'apprentissage d'apprendre (généraliser) à partir d'un seul exemple. Ceci est le cas pour 55% (272/491) des catégories si on considère à la fois les données d'entraînement et de développement. - Si nous considérons qu'il faut au moins 3 exemples pour pouvoir appliquer un algorithme d'apprentissage, uniquement 27% (133/491) des catégories présentes dans les données d'entraînement ou de développement sont concernées. Cela veut dire que la couverture de l'ontologie est inférieure à 8% (133/1756). 5.3.2 Corpus SyntSem Le deuxième corpus sur lequel nous avons travaillé est un corpus qui a été constitué dans le cadre du projet SyntSem. Il s'agit d'un corpus de plus de 6 millions de mots composé de textes variés qui représentent un large échantillon de la langue française issus de 5 thèmes : journaux, sciences humaines, périodiques, textes littéraires 91 5.3. Corpus de travail et textes institutionnels européens. Ce corpus est étiqueté morpho-syntaxiquement, lemmatisé et comporte un étiquetage syntaxique et sémantique peu profond. L'étiquetage sémantique concerne essentiellement 60 mots polysémiques (20 noms, 20 verbes et 20 adjectifs). Les occurrences de ces mots dans le corpus (53 796) ont été étiquetés en se basant sur un dictionnaire distributionnel Reymond (2001). La table 5.2 décrit les 20 noms ploysémiques figurant dans le corpus. Nom Barrage Chef Communication Compagnie Concentration Constitution Degré Détention Économie Formation Lancement Observation Organe Passage Pied Restauration Solution Station Suspension Vol Nombre de lexies 5 11 13 12 6 6 18 2 10 9 5 3 6 19 62 5 4 8 5 10 Nombre total d'exemples 92 1133 1703 412 246 422 507 112 930 1528 138 572 366 600 960 104 880 266 110 278 Nombre d'exemples de la lexie majoritaire 70 861 691 294 111 211 297 81 457 579 110 492 140 222 361 45 821 85 68 112 Table 5.2 – Statistiques sur les noms ambigus dans le corpus SyntSem. Dans le cadre de ce travail, nous utiliserons ce corpus pour extraire le sens ou la lexie majoritaire de quelques noms en les considérant comme des concepts à part à annoter. Conclusion Convaincus par les multiples avantages d'une approche interactive d'apprentissage de règles dans le cadre d'une tâche d'EI, nous avons présenté dans ce chapitre les différents objectifs ainsi que les différentes propriétes qui doivent caractériser une telle approche et les corpus que nous avons considérés dans ce travail pour la valider. Un système interactif qui s'appuie sur cette approche doit permettre une communication aisée entre le module d'apprentissage de règles et l'utilisateur en facilitant à ce dernier le travail à la fois sur les exemples d'apprentissage et sur les règles 92 Chapitre 5. Problématique : interaction dans l'apprentissage de règles d'extraction d'information d'EI. Sachant que les domaines ciblés dans ce travail ne nécessitent pas forcément des connaissances métier, un utilisateur informaticien peut interagir avec le module d'apprentissage de règles à travers deux moyens : les règles d'EI et les exemples d'apprentissage. Ceci n'empêche pas que le système interactif peut être utilisé dans domaines qui nécessitent des connaissances métier mais une coopération avec un expert de domaine est nécessaire dans ce cas. Pour pouvoir interpréter le résultat d'un apprentissage de règles, l'utilisateur doit pouvoir comprendre les règles inférées. Ces règles doivent également être peu nombreuses et donc avoir des expressions assez génériques pour pouvoir être facilement consultées par l'utilisateur. Pour pouvoir suivre l'évolution de l'ensemble des règles construit au fur et à mesure que le système avance dans la tâche d'EI dont il se charge, les règles inférées ou écrites ne doivent pas changer complètement d'une itération à une autre et assurer une certaine stabilité à l'ensemble total des règles. Concernant les exemples d'apprentissage, le système interactif d'apprentissage de règles doit contenir un module de sélection d'exemples. Ce module permet à l'utilisateur à la fois de chercher des exemples à travers l'écriture de règles prospectives et d'annoter des exemples proposés par un module intelligent qui permettrait de réduire au maximum le nombre d'exemples à annoter et favoriser ainsi une convergence rapide de l'apprentissage. Pour mener à bien une tâche d'EI, l'utilisateur ne doit pas attendre longtemps la réponse de l'algorithme d'apprentissage à chaque fois qu'il le lance. Le temps d'apprentissage peut être réduit de diffrentes manières à condition de ne pas dégrader les performances du système. Les deux corpus présentés dans ce chapitre permettront d'évaluer les différents modules proposés dans ce travail. Nous présentons dans le chapitre suivant nos différentes propositions pour mettre en place l'approche interactive d'apprentissage de règles. Chapitre 6 Proposition : une approche interactive d'apprentissage de règles d'extraction d'information Nous proposons dans ce chapitre une méthodologie permettant une extraction interactive d'informations dans des documents textuels. La particularité de l'approche présentée est de combiner une approche d'extraction d'information (EI) à base de règles écrites manuellement à une approche à base d'apprentissage artificiel, permettant ainsi d'assister l'utilisateur à travers un processus interactif et itératif où il est possible de travailler de manière duale sur les règles d'EI ainsi que sur des exemples d'apprentissage. 6.1 Processus hybride, interactif et itératif Comme nous l'avons mentionné dans le chapitre 2, il existe deux principales familles d'approches d'EI à base de règles : les approches à base de règles écrites manuellement et les approches à base d'apprentissage artificiel. Les deux familles d'approches nécessitent un effort manuel non négligeable que ce soit pour écrire les règles ou pour annoter les exemples d'apprentissage. Afin de réduire au maximum cet effort manuel, nous proposons une méthode hybride, interactive et itérative qui permet à l'utilisateur ou à l'ingénieur des connaissances de communiquer avec le module d'apprentissage de règles dans le but d'arriver plus rapidement à effectuer la tâche d'EI cible. La figure 6.1 illustre cette méthode. Le caractère hybride de l'approche que nous proposons est dû à la combinaison des deux approches d'EI à base de règles. Cette combinaison peut être intéressante dans la mesure où elle donne à l'utilisateur la possibilité de choisir l'opération qu'il juge nécessaire entre l'annotation d'exemples d'apprentissage et l'écriture de règles. Néanmoins, le choix de l'opération à effectuer ne peut être judicieux que s'il prend en compte certains critères comme la réponse du module d'apprentissage. L'intérêt de l'hybridité de la méthode ne peut, par conséquent, avoir du sens que dans un processus interactif où l'utilisateur peut communiquer avec le module d'apprentissage afin de choisir la bonne opération à effectuer. Cette communication peut également nécessiter plusieurs interactions pour mener à bien la tâche à effectuer, Chapitre 6. Proposition : une approche interactive d'apprentissage 94 de règles d'extraction d'information Figure 6.1 – Processus hybride, interactif et itératif d'apprentissage de règles d'extraction d'information. 6.1. Processus hybride, interactif et itératif 95 d'où la nécessité de l'itérativité de l'approche. Nous appelons interaction l'intervention de l'utilisateur pour effectuer l'une des opérations élémentaires suivantes : - écrire des règles pour chercher des exemples dans le texte ; - écrire des règles ou modifier des règles existantes (écrites ou inférées) dans l'ensemble des règles ; - tester des règles ; - annoter des exemples. Ces opérations élémentaires s'inscrivent dans des scénarios plus complexes que nous appelons itérations et qui ont tous pour but de fournir un ensemble d'exemples d'apprentissage au module d'apprentissage permettant d'inférer de bonnes règles. Une itération peut donc contenir plusieurs interactions mais contient exactement une application du module d'apprentissage. Elle commence par un apprentissage automatique de règles à partir de l'ensemble d'entraînement à disposition et finit par un remaniement de l'ensemble d'entraînement pour préparer l'itération suivante. La première itération constitue une exception dans la mesure où elle commence par la préparation d'un premier ensemble d'entraînement. Il est à noter que même si l'utilisateur peut introduire de nouvelles règles ou modifier des règles inférées par le module d'apprentissage, et à moins d'être sûr que les règles écrites ou modifiées ne font pas d'erreurs et couvrent les exemples sans ambiguité, il est préférable d'écrire manuellement des règles uniquement dans le but de chercher des exemples qui seront utilisés pour inférer un nouvel ensemble de règles plus cohérent. En effet, l'utilisateur ne peut pas garantir les performances des règles qu'il écrit manuellement mais peut valider ou invalider les exemples qu'elles couvrent et donc fournir un nouvel ensemble d'exemples d'apprentissage. Voici 4 scénarios possibles qui peuvent se dérouler dans le cadre d'une itération du processus proposé. Scénario 1 : ce scénario peut se dérouler dans le cadre d'une première itération du processus global. L'utilisateur commence par annoter un ensemble d'exemples d'apprentissage qui sera utilisé par le module d'apprentissage pour inférer un ensemble de règles et le proposer à l'utilisateur. Ce scénario est décrit par la figure 6.2. Scénario 2 : l'utilisateur examine les exemples couverts par les règles inférées par le module d'apprentissage, étend l'ensemble d'entraînement en conséquence (en validant et invalidant des exemples couverts) et relance l'apprentissage sur l'ensemble total des exemples d'apprentissage. Ce scénario est décrit par la figure 6.3. Scénario 3 : l'utilisateur écrit des règles prospectives pour chercher des exemples en s'appuyant sur des mots clés pertinents. Il les teste sur son corpus, annote les exemples qu'elles couvrent et relance le module d'apprentissage sur l'ensemble total des exemples d'apprentissage. Ce scénario est décrit par la figure 6.4. Scénario 4 : en examinant les règles inférées par le module d'apprentissage, l'utilisateur se rend compte que certaines d'entre elles sont trop spécifiques ou trop générales. Il les modifie, examine les exemples qu'elles couvrent, met à jour son ensemble d'entraînement et relance le module d'apprentissage. Ce scénario est décrit par la figure 6.5. Pour pouvoir interagir facilement avec le module d'apprentissage, l'utilisateur doit avoir une vue constante sur les ensembles suivants. Chapitre 6. Proposition : une approche interactive d'apprentissage 96 de règles d'extraction d'information Figure 6.2 – Scénario 1 : première itération. Figure 6.3 – Scénario 2 : annotation des exemples couverts. 6.1. Processus hybride, interactif et itératif Figure 6.4 – Scénario 3 : prospection et annotation de nouveaux exemples. Figure 6.5 – Scénario 4 : travail sur les règles. 97 Chapitre 6. Proposition : une approche interactive d'apprentissage 98 de règles d'extraction d'information - L'ensemble des exemples couverts par l'ensemble des règles : l'utilisateur doit avoir une idée sur la couverture de ses règles pour pouvoir corriger quelques erreurs ou chercher des exemples manquants. - L'ensemble des exemples annotés non couverts par l'ensemble des règles : l'ensemble des règles inférées par le module d'apprentissage peuvent ne pas couvrir tous les exemples annotés positivement par l'utilisateur. Ce dernier doit avoir une idée sur ces exemples pour pouvoir soit écrire des règles qui les couvrent soit annoter davantage d'exemples qui leur ressemblent. À terme, cet ensemble ne doit contenir que des exemples négatifs. - L'ensemble des règles écrites et inférées : l'utilisateur doit pouvoir examiner la totalité de l'ensemble des règles à une itération donnée pour pouvoir le modifier ou l'étendre. La figure 6.6 propose un exemple d'interface permettant de faciliter le processus itératif et interactif. Figure 6.6 – Interface de travail pour la production de règles d'EI de manière interactive et itérative. Cette interface permet à l'utilisateur d'agir à la fois sur l'intension (les règles elles-mêmes) et sur l'extension (les exemples décrits par les règles) afin d'aboutir à un ensemble de règles d'EI satisfaisant. Ainsi, à chaque itération, l'utilisateur ou l'ingénieur des connaissances, conformément au schéma du processus proposé (voir figure 6.1), a la possibilité : - d'écrire ou de modifier manuellement les règles d'EI ; - d'étiqueter positivement (+) ou négativement (-) des portions de textes qui constituent respectivement une bonne illustration de l'élément que l'on cherche 6.2. Stratégies proposées pour la compréhensibilité et la généricité des règles 99 à décrire par les règles d'EI (étiquette +), ou au contraire un contre-exemple (étiquette -), un exemple non étiqueté étant un exemple dont le statut est indéterminé. A chaque itération, un nouvel ensemble de règles est automatiquement inféré en utilisant des techniques d'apprentissage à partir d'exemples. Pour pouvoir mettre en place le processus hybride, interactif et itératif proposé, nous devons d'abord résoudre les points suivants : - Pour pouvoir communiquer avec le module d'apprentissage de règles, l'utilisateur doit pouvoir comprendre les règles inférées par ce dernier. Ces règles ne doivent également pas être trop nombreuses pour que l'utilisateur puisse les consulter dans un temps raisonnable. - Dans un système interactif d'apprentissage de règles, les exemples d'apprentissage sont annotés de manière progressive. À une itération donnée, les règles construites ne doivent donc pas considérer tous les exemples non encore annotés comme négatifs car certains peuvent être positifs. - Une certaine stabilité doit être assurée à l'ensemble des règles. En effet, les règles écrites par l'utilisateur ou inférées par le module d'apprentissage de règles ne doivent pas subir de grosses modifications d'une itération à une autre afin de pouvoir suivre l'évolution de l'ensemble des règles. - Dans un système interactif d'apprentissage de règles, l'utilisateur est amené à annoter les exemples d'apprentissage de manière progressive. Ces exemples sont parfois évidents à trouver et parfois le sont beaucoup moins. La mise en place d'un module qui aide l'utilisateur à trouver les bons exemples à annoter s'avère indispensable dans un système où on cherche à réduire au maximum l'effort humain tout en cherchant à tirer profit de son expertise. Pour résoudre ces contraintes, nous avons proposé des méthodes et des stratégies qui tiennent compte des propriétés clés d'un système interactif énoncées dans la section 5.2. 6.2 Stratégies proposées pour la compréhensibilité et la généricité des règles Nous pensons que des règles d'EI exprimées dans un langage de règles accessible et s'appuyant sur des annotations textuelles riches et génériques permettent de construire des règles compréhensibles et génériques. 6.2.1 Une chaîne d'annotation du texte Les règles d'EI sont d'autant plus générales et concises qu'elles peuvent s'appuyer sur des niveaux d'annotation complexes (étiquetage morpho-syntaxique, entités nommées, termes, analyse syntaxique, etc.). C'est la raison pour laquelle il est important de traiter préalablement le corpus en utilisant une plateforme d'annotation linguistique avant de travailler sur les règles d'EI. La chaîne d'annotation du texte que nous proposons dans ce travail (voir figure 6.7) se compose de 3 modules : Chapitre 6. Proposition : une approche interactive d'apprentissage 100 de règles d'extraction d'information Figure 6.7 – Chaine d'annotation du texte proposée. - un module de segmentation en mots et en phrases qui permet de découper le texte en mots et phrases sachant que le mot est la plus petite unité linguistique considérée dans le texte ; - un module de lemmatisation et d'étiquetage morpho-syntaxique qui repose sur le module précédent et permet d'attribuer à chaque mot du texte un lemme (la forme canonique du mot) et une étiquette morpho-syntaxique qui contient des informations sur les parties du discours (nom, verbe, adjectif, adverbe . . . ) ; - un module d'étiquetage terminologique qui permet d'identifier des termes candidats dans le texte en s'appuyant sur un extracteur de termes. Une fois le texte annoté, nous pouvons faire en sorte que les règles d'EI construites ou inférées à partir du texte se basent dans leur expression sur les différentes annotations posées (lemme, étiquette morpho-syntaxique, terme, etc.). Cependant, la compréhensibilité de ces règles dépend beaucoup de l'expressivité du langage utilisé pour écrire ces règles ou les inférer et de sa manière d'exploiter les différentes annotations posées dans le texte. 6.2.2 Un langage de règles expressif Une étude des différents langages de règles utilisés dans la littérature (voir chapitre 2) a révélé que les langages les plus récents JAPE et Ruta sont parmi les plus génériques, les plus expressifs et les plus complets. Selon les expériences de certains utilisateurs, Ruta est plus complet que JAPE. Une description plus détaillée de ce langage figure dans la section 4.3. Nous avons choisi d'utiliser, dans ce travail, le langage Ruta et nous montrons dans cette section comment écrire des règles dans ce langage. L'expression des règles dans le langage Ruta dépend des mentions des annotations avec lesquelles le texte est annoté. Appliquons la chaine d'annotation décrite dans la section précédente sur notre texte d'entrée. Nous supposons que les annotations 6.3. Choix d'un algorithme d'apprentissage de règles : WHISK basé sur Ruta (WHISKR ) 101 résultantes correspondent aux mentions suivantes. - Token : il s'agit du type de base. Il est attribué à chaque mot du texte et possède deux propriétés : le lemme (lemma) et l'étiquette morpho-syntaxique (postag). - Term : ce type ou cette annotation est attribuée à chaque segment de texte reconnu comme étant un terme par un extracteur de termes. Elle possède les mêmes propriétés qu'un Token, à savoir un lemme (termLemma) et une étiquette morpho-syntaxique (termPostag). Tenant compte de toutes ces informations et en supposant que tous les caractères blancs sont filtrés, les règles suivantes peuvent être utilisées pour reconnaître, par exemple, le terme human body : 1-Token{REGEXP("human")} Token{REGEXP("body")}->MARKONCE(HumanBody,1,2)}; 2-Token{FEATURE("lemma","human")} Token{FEATURE("lemma","body") ->MARKONCE(HumanBody,1,2)}; 3-Term{REGEXP("human body")} ->MARKONCE(HumanBody)}; 4-Term{{FEATURE("termLemma","human body")} ->MARKONCE(HumanBody)}; La première règle se lit de la manière suivante : si on trouve un mot dont l'expression exacte est human suivi d'un mot dont l'expression exacte est body, on crée une annotation de type HumanBody qui couvre les deux mots. La deuxième règle est plus générique que la première dans la mesure où elle permet de reconnaître toutes les variations du terme human body (human body, Human body, human bodies, Human bodies). La troisième règle n'est pas plus générique que la première règles car elle permet de reconnaître les mêmes expressions (on suppose bien évidemment que toutes les expressions human body sont reconnues comme étant des termes). Cependant, l'exécution de cette règle est plus rapide car étant donné que les termes sont moins nombreux que les mots dans un texte, un parcours des termes à la recherche d'un terme spécifique est plus rapide qu'un parcours de tous les mots du texte. Les termes peuvent aussi contenir des unités composées comme le terme human body. Au lieu de faire un parcours à la recherche de chaque mot composant le terme, un seul parcours des termes peut être fait à la recherche de l'expression complexe du terme. La quatrième règle est la plus générique car elle réunit les avantages de la deuxième et de la troisième règle et permet, en plus, de reconnaître, par exemple, des acronymes du terme human body reconnus par l'extracteur de termes. Indépendamment de la généricité, les quatre règles sont claires, lisibles et compréhensibles par un utilisateur. En effet, pour pouvoir interpréter ces règles, il suffit de connaître des notions de base sur la syntaxe du langage Ruta et bien évidemment les mentions des annotations avec lesquelles le texte est annoté. 6.3 Choix d'un algorithme d'apprentissage de règles : WHISK basé sur Ruta (WHISKR) Dans un système d'EI à base de règles, les règles d'EI sont généralement écrites par un expert du domaine. Ces règles peuvent être également apprises en utilisant Chapitre 6. Proposition : une approche interactive d'apprentissage 102 de règles d'extraction d'information des algorithmes d'apprentissage à base de règles. Toutefois, nous avons remarqué que les langages utilisés par les humains pour écrire leurs règles ne sont souvent pas les mêmes que ceux utilisés par les algorithmes d'apprentissage. Ceci constitue un handicap quand il s'agit de mixer les deux modes de production de règles dans un seul système : soit l'humain doit comprendre le langage utilisé par l'algorithme d'apprentissage et ce n'est pas la moindre des tâches car ces langages sont souvent mal documentés, soit c'est à l'algorithme d'apprentissage d'utiliser un langage de règles standard et des efforts ont commencé à être déployés dans ce sens. Le système TextRuler (Kluegl, Atzmueller, Hermann, & Puppe, 2009), par exemple, est un système de développement semi-automatique d'applications d'EI à base de règles qui contient des implémentations de certains algorithmes comme (LP)2 (Ciravegna, 2001, 2003), WHISK (S. Soderland et al., 1999), RAPIER (Califf & Mooney, 2003), BWI (Freitag & Kushmerick, 2000) et WIEN (Kushmerick et al., 1997) adaptés au langage Ruta. Même si les implémentations, dans leur état actuel, contiennent des erreurs, sont non optimisées et parfois incomplètes, elles peuvent être étendues de manière à devenir intéressantes. Kluegl, Atzmueller, Hermann, et Puppe (2009) ont évalué les trois algorithmes (LP)2 R , WHISKR et RAPIERR sur une tâche d'extraction des gros titres pour les diagnostics, les thérapies et les examens dans des lettres de décharges médicales. Ces algorithmes ont été comparés sur la base des critères suivants. La compréhensibilité des règles – La compréhensibilité des règles apprises est essentielle pour l'introspection, la sélection et l'écriture de nouvelles règles. L'extensibilité des règles – L'ingénieur de la connaissance doit être en mesure d'étendre et d'optimiser les règles proposées en adaptant et en généralisant les éléments de langage et leurs propriétés utilisées. Un transfert des règles à d'autres domaines et la possibilité de les améliorer par un humain sont notés. L'intégrabilité des règles – Les règles apprises doivent pouvoir s'intégrer dans l'ensemble des règles existant. Ce critère mesure la simplicité de l'intégration et la transférabilité des règles. L'utilisation des propriétés – L'utilisation des propriétés attribuées aux différentes unités lexicales est d'un grand intérêt quand on cherche à produire des règles performantes. Le résultat et les performances – Le temps d'apprentissage et le nombre des règles apprises doivent être raisonnables. La vitesse d'extraction et la précision des règles dans le domaine cible sont également notées. Les résultats de cette comparaison figurent dans la table 6.1. En regardant les trois premiers critères, nous pouvons remarquer que WHISKR dépasse les deux autres algorithmes. Autrement dit, les règles qu'il produit sont beaucoup plus compréhensibles et extensibles que celles produites par les deux autres algorithmes. Cependant, le fait qu'il n'exploite pas les propriétés des annotations fait qu'il obtient des résultats qui ne sont pas bons comparés à ceux obtenus par (LP)2 R qui exploite les propriétés des annotations. En examinant de près l'implémentation de l'algorithme WHISKR , nous avons découvert que cette dernière peut être améliorée de manière à permettre d'exploiter les propriétés des annotations. D'un autre 6.4. Stratégies proposées pour la construction de l'ensemble des règles 103 Compréhensibilité Extensibilité Intégrabilité Utilisation des propriétés Résultat, performances Total (LP)2 R 6 6 6 9 9 36 WHISKR 8 7 8 2 3 28 RAPIERR 6 5 7 2 1 21 Table 6.1 – Evaluation qualitative de (LP)2 R , WHISKR et RAPIERR dans (Kluegl, Atzmueller, Hermann, & Puppe, 2009). (1=faible, 10=très bien). coté, (LP)2 R infère trois types de règles : les règles d'annotation, les règles contextuelles et les règles de correction. Les règles d'annotation sont elles-mêmes divisées en règles de délimitation gauche et des règles de délimitation droite et elles sont totalement indépendantes. Ceci constitue un inconvénient majeur dans un système qui interagit avec l'utilisateur car ce dernier devrait manipuler tous ces types de règles. WHISKR (WHISK basé sur Ruta) produit, en revanche, un seul type de règles, ce qui en fait un bon candidat dans un système interactif d'apprentissage de règles d'EI. Pour toutes ces raisons, nous avons choisi de travailler avec l'algorithme WHISKR . Une description détaillée de l'algorithme WHISK et de son implémentation dans TextRuler (WHISKR ) figurent respectivement dans les sections 2.6 et 4.4.1. Nous utiliserons, dans ce travail, notre propre version étendue de cet algorithme détaillée dans la section 7.3.2. 6.4 Stratégies proposées pour la construction de l'ensemble des règles 6.4.1 Réduction de l'espace de recherche de règles : réduction de la fenêtre de mots autour du terme cible à la phrase Afin de sélectionner la règle la plus performante, un algorithme d'apprentissage de règles doit d'abord tester et comparer un ensemble de règles qui constitue son espace de recherche de règles. Nous avons remarqué que la plupart des algorithmes d'apprentissage de règles d'EI comme (LP)2 et WHISK considèrent une fenêtre de mots autour du terme cible comme contexte d'apprentissage. Ce contexte est fixé à l'avance par l'utilisateur. Pour l'algorithme WHISKR par exemple, ce contexte est fixé par défaut à 5. Autrement dit, l'algorithme considère les 5 mots qui précèdent et les 5 mots qui suivent le terme cible lors de la création de l'ensemble des règles à tester. Prenons un exemple concret. Considérons l'extrait de texte de la figure 6.8. En supposant que la règle la plus générale retenue par l'algorithme WHISKR étendu avec la lemmatisation et l'étiquetage morpho-syntaxique (voir section 7.3.2) Chapitre 6. Proposition : une approche interactive d'apprentissage 104 de règles d'extraction d'information Figure 6.8 – Extrait du corpus BB BioNLP-ST 2013. est Token{->MARKONCE(Habitat)}; les règles testées qui étendent cette règle pour essayer d'extraire le premier terme intracellular sont représentées dans les figures 6.9, 6.10 et 6.11. Pour des questions de simplicité, nous ne considérons pas dans cet exemple les règles qui s'appuient sur les termes mais uniquement celles qui s'appuient sur les Tokens. L'ensemble des règles testées peut être divisé en trois sous ensembles : l'ensemble des règles qui décrivent la cible (figure 6.9), l'ensemble des règles qui décrivent le contexte gauche de la cible (figure 6.10) et l'ensemble des règles qui décrivent le contexte droit de la cible (figure 6.11). - Token{REGEXP("intracellular")->MARKONCE(Habitat)}; - Token{FEATURE("lemma", "intracellular")->MARKONCE(Habitat)}; - Token{FEATURE("postag", "JJ")->MARKONCE(Habitat)}; Figure 6.9 – Règles qui décrivent la cible. Supposons que a est le nombre d'attributs ou propriétés (expression exacte, lemme, étiquette morpho-syntaxique) à considérer pour un mot du texte et c est le nombre de mots à considérer à gauche et à droite du terme cible. Dans notre exemple, a vaut 3 car nous évaluons à la fois les règles qui s'appuient sur les expressions exactes des mots, celles qui s'appuient sur leurs lemmes et celles qui s'appuient sur leurs étiquettes morpho-syntaxiques et c vaut 5 car l'algorithme WHISKR considère, par défaut, 5 mots de part et d'autre du terme cible. Le terme cible étant composé d'un seul mot dans notre exemple, il y a donc 3 (a) règles qui le décrivent. Concernant les règles de contexte gauche et les règles de contexte droit, en plus des règles les plus génériques (au nombre de 2), il y a a règles pour chaque mot de contexte (c mots). Il y a donc 2 + a ú c = 17 règles à tester pour chacun des contextes gauche et droit. 6.4. Stratégies proposées pour la construction de l'ensemble des règles 105 - Token # Token{->MARKONCE(Habitat)}; Token{REGEXP("to")} # Token{->MARKONCE(Habitat)}; Token{FEATURE("lemma", "to")} # Token{->MARKONCE(Habitat)}; Token{FEATURE("postag", "TO")} # Token{->MARKONCE(Habitat)}; Token{REGEXP("mechanisms")} # Token{->MARKONCE(Habitat)}; Token{FEATURE("lemma", "mechanism")} # Token{->MARKONCE(Habitat)}; Token{FEATURE("postag", "NN")} # Token{->MARKONCE(Habitat)}; Token{REGEXP("find")} # Token{->MARKONCE(Habitat)}; Token{FEATURE("lemma", "find")} # Token{->MARKONCE(Habitat)}; Token{FEATURE("postag", "VBP")} # Token{->MARKONCE(Habitat)}; Token{REGEXP("in")} # Token{->MARKONCE(Habitat)}; Token{FEATURE("lemma", "in")} # Token{->MARKONCE(Habitat)}; Token{FEATURE("postag", "IN")} # Token{->MARKONCE(Habitat)}; Token Token{->MARKONCE(Habitat)}; Token{REGEXP("other")} Token{->MARKONCE(Habitat)}; Token{FEATURE("lemma", "other")} Token{->MARKONCE(Habitat)}; Token{FEATURE("postag", "JJ")} Token{->MARKONCE(Habitat)}; Figure 6.10 – Règles qui décrivent le contexte gauche de la cible. - Token{->MARKONCE(Habitat)} Token{->MARKONCE(Habitat)} Token{->MARKONCE(Habitat)} Token{->MARKONCE(Habitat)} Token{->MARKONCE(Habitat)} Token{->MARKONCE(Habitat)} Token{->MARKONCE(Habitat)} Token{->MARKONCE(Habitat)} Token{->MARKONCE(Habitat)} Token{->MARKONCE(Habitat)} Token{->MARKONCE(Habitat)} Token{->MARKONCE(Habitat)} Token{->MARKONCE(Habitat)} Token{->MARKONCE(Habitat)} Token{->MARKONCE(Habitat)} Token{->MARKONCE(Habitat)} Token{->MARKONCE(Habitat)} Token; Token{REGEXP("bacteria")}; Token{FEATURE("lemma", "bacterium")}; Token{FEATURE("postag", "NN")}; # Token; # Token{REGEXP(".")}; # Token{FEATURE("lemma", ".")}; # Token{FEATURE("postag", ".")}; # Token{REGEXP("This")}; # Token{FEATURE("lemma", "this")}; # Token{FEATURE("postag", "DT")}; # Token{REGEXP("will")}; # Token{FEATURE("lemma", "will")}; # Token{FEATURE("postag", "MD")}; # Token{REGEXP("ultimately")}; # Token{FEATURE("lemma", "ultimate")}; # Token{FEATURE("postag", "RB")}; Figure 6.11 – Règles qui décrivent le contexte droit de la cible. Chapitre 6. Proposition : une approche interactive d'apprentissage 106 de règles d'extraction d'information Lors de la construction de son espace de règles, l'algorithme WHISKR considère une fenêtre de mots autour du terme cible indépendamment des limites de la phrase. La question que nous nous sommes donc posée est : est-il vraiment utile de sortir des limites de la phrase ? Plusieurs travaux dans la littérature se sont intéressés à la taille optimale de la fenêtre de contexte à considérer quand on cherche à désambiguïser un mot polysémique ou à mesurer une similarité distributionnelle. Plusieurs d'entre eux encouragent l'utilisation de contextes locaux courts (1 à 3 mots de part et d'autre du terme ou mot cible) (Choueka & Lusignan, 1985 ; Yarowsky, 1993) et certains recommandent de ne pas sortir de la phrase (Audibert, 2003). Nous trouvons plus prudent d'arrêter le contexte aux frontières de la phrase car les corpus de travail peuvent être construits de manière à supprimer ou déplacer certaines parties. Dans ce cas, sortir des limites des phrases peut impliquer l'utilisation d'informations de voisinage entre des phrases qui ne sont pas voisines à la base. Nous décidons, par conséquent, d'utiliser les mots de la phrase apparaissant de part et d'autre du terme cible comme contexte à condition de ne pas dépasser 5 mots de chaque côté. Quand les phrases sont longues, l'algorithme d'apprentissage aura au pire le même nombre de règles à tester. Sur notre exemple, l'ensemble des règles de contexte droit se réduirait à l'ensemble présenté dans la figure 6.12. - Token{->MARKONCE(Habitat)} Token{->MARKONCE(Habitat)} Token{->MARKONCE(Habitat)} Token{->MARKONCE(Habitat)} Token{->MARKONCE(Habitat)} Token{->MARKONCE(Habitat)} Token{->MARKONCE(Habitat)} Token{->MARKONCE(Habitat)} Token; Token{REGEXP("bacteria")}; Token{FEATURE("lemma", "bacterium")}; Token{FEATURE("postag", "NN")}; # Token; # Token{REGEXP(".")}; # Token{FEATURE("lemma", ".")}; # Token{FEATURE("postag", ".")}; Figure 6.12 – Règles qui décrivent le contexte droit de la cible sans sortir des limites de la phrase. 3 mots ont été supprimés du contexte droit du terme cible. Par conséquent, 9 (3 ú a) règles ont été supprimées en total. L'expérience décrite dans la section 8.3 montre que la réduction de la fenêtre de contexte autour du terme cible à la phrase permet de réduire le temps d'apprentissage. 6.4.2 Apprentissage sur un corpus réduit La construction de l'ensemble des règles pour une tâche d'EI dans un système interactif d'apprentissage de règles est un travail collaboratif entre l'utilisateur et le module d'apprentissage. Les règles que l'utilisateur introduit dans l'ensemble des règles sont généralement des règles qu'il a pris soin de tester sur tout le corpus. Les règles inférées de manière automatique, en revanche, ignorent le statut des exemples non encore annotés par l'utilisateur à une itération donnée et posent, par conséquent, beaucoup de problèmes : 6.4. Stratégies proposées pour la construction de l'ensemble des règles 107 - Elles sont très spécifiques et tendent à faire du surapprentissage. En effet, les règles générales faisant partie de l'espace de recherche de règles de l'algorithme d'apprentissage font beaucoup d'erreurs quand elles sont évaluées sur l'ensemble du corpus car elles considèrent comme négatifs tous les exemples positifs non annotés par l'utilisateur. Elles sont donc spécifiées jusqu'à coller aux exemples d'apprentissage. Nous remarquons également que parfois même les versions spécifiques des règles font beaucoup d'erreurs et ne peuvent être gardées, ce qui fait que certains exemples annotés par l'utilisateur se retrouvent sans règles qui les couvrent. - Elles ralentissent le travail d'annotation d'exemples par l'utilisateur car elles ont un faible rappel. En effet, ces règles couvrent généralement uniquement les exemples à partir desquels elles ont été construites. Elles ne couvrent donc pas de nouveaux exemples que l'utilisateur peut consulter et annoter. - Elles perturbent l'utilisateur car elles sont nombreuses et sont vouées à être remplacées par un petit nombre de règles plus génériques dans l'ensemble final des règles quand l'utilisateur aurait annoté beaucoup plus d'exemples. Prenons un exemple. Le terme « human » dans le corpus d'apprentissage BB BioNLP-ST 2013 (dans le cadre d'une validation croisée 10 fois, il s'agit de 9/10 du corpus (ensemble d'entraînement et ensemble de développement)) est considéré comme un habitat de bactéries dans 95 cas sur 98. Pour couvrir ces 95 exemples positifs, l'algorithme WHISKR étendu avec la lemmatisation et l'étiquetage morphosyntaxique (voir section 7.3.2) construit la règle générique : Token{FEATURE("lemma", "human")->MARKONCE(Habitat)}; Supposons qu'à une itération donnée du processus interactif et itératif d'apprentissage de règles d'EI, l'algorithme d'apprentissage ne dispose, pour le terme human, que des exemples annotés dans l'extrait de corpus représenté dans la figure 6.13. Les règles que l'algorithme infère sont les suivantes : 1-Token{FEATURE("lemma","pneumonia")} Token{FEATURE("lemma","infection")} # Token{FEATURE("lemma", "human")->MARKONCE(Habitat)}; 2-Token{FEATURE("lemma","important")} Token{FEATURE("lemma","human") ->MARKONCE(Habitat)}; Ces règles couvrent uniquement les deux derniers exemples. Nous obtenons donc deux règles spécifiques qui couvrent exactement 2 exemples à la place d'une règle générique qui couvre 95 exemples. L'algorithme d'apprentissage n'arrive pas à trouver des règles fiables qui couvrent les trois autres exemples qui se retrouvent donc non couverts. Pour résoudre ce problème, nous proposons que l'évaluation des règles faisant partie de l'espace de recherche de règles de l'algorithme d'apprentissage se fasse uniquement sur les phrases contenant des exemples annotés positivement par l'utilisateur. Nous suggérons donc que l'apprentissage se fasse, en quelque sorte, sur un corpus réduit composé uniquement de ces phrases. Si ces phrases contiennent des exemples positifs non encore annotés par l'utilisateur, ils seront ignorés. La réduction du contexte autour du terme cible à la phrase s'accorde bien avec le fait d'apprendre sur un corpus réduit dans la mesure où, dans ce dernier, les phrases Chapitre 6. Proposition : une approche interactive d'apprentissage 108 de règles d'extraction d'information Figure 6.13 – Extrait du corpus BB BioNLP-ST 2013. 6.4. Stratégies proposées pour la construction de l'ensemble des règles 109 qui avoisinent la phrase qui contient le terme cible ne l'avoisinent pas forcément dans le corpus d'origine. Reprenons l'exemple précédent et essayons, cette fois, d'apprendre uniquement sur les phrases qui contiennent des exemples annotés positivement par l'utilisateur. Voici les règles construites par l'algorithme d'apprentissage pour couvrir les exemples de l'extrait textuel représenté dans la figure 6.8. Token{FEATURE("lemma", "human")->MARKONCE(Habitat)}; En apprenant sur un corpus réduit composé uniquement des phrases contenant des exemples annotés positivement par l'utilisateur, l'algorithme a inféré la même règle que celle obtenue en apprenant sur l'ensemble du corpus quand tous les exemples sont annotés. 6.4.3 Effet sur les performances et le temps d'apprentissage La réduction de l'espace de recherche de règles et par la suite l'apprentissage sur un corpus réduit permettent certes de ne pas considérer tous les exemples non encore annotés par l'utilisateur comme négatifs, mais quel effet ont ces stratégies sur les performances et sur le temps d'apprentissage ? Comme nous l'avons mentionné dans la section 5.2.5, le temps d'apprentissage est un facteur important dans un système interactif où l'utilisateur a besoin d'une réponse relativement rapide. Ce facteur dépend, en effet, de trois paramètres : - la rapidité du moteur d'exécution des règles ; - la taille de l'espace de recherche de règles de l'algorithme d'apprentissage de règles ; - la taille du corpus d'apprentissage. L'exécution des règles étant non transparente à l'utilisateur, pour réduire le temps d'apprentissage, il suffit de réduire l'espace de recherche des règles de l'algorithme d'apprentissage de règles ou de réduire le corpus d'apprentissage. Pour un algorithme d'apprentissage de règles d'EI, la taille de l'espace de recherche des règles pour l'extraction d'un terme cible dépend de deux facteurs : - le nombre des annotations et des propriétés des annotations à considérer dans le texte ; - la taille du contexte d'apprentissage. Pour le premier facteur, une étude expérimentale qui a pour but de comparer les différentes combinaisons de traits linguistiques (expression exacte, lemme, étiquette morpho-syntaxique) afin de déterminer les combinaisons qui mènent vers l'ensemble de règles le plus performant figure dans la section 8.2. Des travaux sur l'apprentissage de règles (Ciravegna, 2003 ; Freitag & Kushmerick, 2000) montrent que le temps d'apprentissage augmente de manière exponentielle avec l'augmentation de la taille de la fenêtre de contexte. Si nous nous basons sur ces constatations, nous pouvons dire que la réduction du contexte autour du terme cible à la phrase permettrait de réduire le temps d'apprentissage. D'un autre coté, l'apprentissage sur un corpus réduit implique la réduction du corpus d'apprentissage (l'un des facteurs impactant le temps d'apprentissage) et par conséquent la réduction du temps d'apprentissage. Chapitre 6. Proposition : une approche interactive d'apprentissage 110 de règles d'extraction d'information Nous pensons que l'apprentissage sur un corpus réduit permettra, d'un côté, de baisser légèrement les valeurs de précision des règles et, d'un autre côté, d'augmenter légèrement leurs valeurs de rappel. En effet, les règles devraient être moins précises car elles sont testées uniquement sur un échantillon du corpus où elles ne font pas beaucoup d'erreurs. Elles devraient, en revanche, avoir un meilleur rappel car si les règles les plus génériques ne font pas beaucoup d'erreurs sur l'échantillon consulté du corpus, ce sont les règles que l'algorithme d'apprentissage gardera. Une étude expérimentale qui évalue la différence entre les trois versions de l'algorithme d'apprentissage figure dans la section 8.3. Elle compare l'ancienne version de l'algorithme d'apprentissage, celle qui considère la phrase comme contexte d'apprentissage et celle qui apprend sur un corpus réduit, en termes de précision, rappel, F-mesure et temps d'apprentissage. Elle montre que les deux dernières versions, et surtout celle qui permet d'apprendre sur un corpus réduit, réduisent de manière significative le temps d'apprentissage sans dégrader la F-mesure. 6.5 Stratégies proposées pour mettre en place la sélection d'exemples Comme nous l'avons expliqué dans la section 5.2.4, la sélection d'exemples est nécessaire dans un système interactif d'apprentissage de règles d'EI où l'utilisateur a besoin d'annoter des exemples d'apprentissage de manière progressive. Cette sélection d'exemples intervient à deux niveaux du système interactif pour répondre à deux besoins différents : - chercher des exemples en s'appuyant sur des mots clés dont dispose l'utilisateur ; - chercher des exemples pertinents à annoter de manière à favoriser une convergence rapide de l'algorithme d'apprentissage de règles. Pour chacun de ces besoins, une solution peut être adoptée : - un concordancier pour écrire des règles prospectives ; - un module d'apprentissage actif pour une sélection intelligente d'exemples. 6.5.1 Un concordancier pour écrire des règles prospectives Un concordancier est un outil qui permet à un utilisateur d'écrire des règles dans un langage de règles quelconque et d'afficher les exemples qu'elles couvrent ainsi que leurs contextes gauche et droite (par exemple les 100 caractères qui précèdent et qui suivent l'exemple couvert). Dans le cadre d'un système interactif d'apprentissage de règles d'EI, un concordancier est d'une grande utilité dans la mesure où il permet à l'utilisateur d'écrire des règles prospectives. Une règle prospective est, en effet, une règle qui a uniquement pour but de chercher des exemples dans le texte en se basant sur des mots clés dont dispose l'utilisateur. Il ne s'agit pas d'une règle qui sera gardée dans l'ensemble final des règles mais plutôt d'un moyen pour l'utilisateur de réduire son espace de travail. L'affichage des exemples couverts par une règle prospective permet à l'utilisateur de naviguer dans ces exemples, d'en distinguer les bons des mauvais et de 6.5. Stratégies proposées pour mettre en place la sélection d'exemples 111 les annoter. Les règles prospectives permettent à l'utilisateur non seulement de sélectionner des exemples dans le texte mais aussi de le faire de manière rapide car au lieu de parcourir tout le corpus à la recherche de mots clés, des règles prospectives qui s'appuient sur ces mots clés permettent de présenter à l'utilisateur un espace de travail réduit qui représente la couverture de ces règles. 6.5.2 Un module d'apprentissage actif Dans un système interactif d'apprentissage de règles d'EI, l'utilisateur est amené à fournir, de manière progressive, des exemples d'apprentissage à l'algorithme d'induction de règles afin d'améliorer les performances de son système. Cependant, ce travail d'annotation peut s'avérer fastidieux surtout si les exemples à annoter ne sont pas intuitifs. L'apprentissage actif permet, selon plusieurs études, de réduire le nombre total des exemples que l'utilisateur est amené à annoter pour atteindre les performances optimales du système en proposant des exemples sélectionnés de manière intelligente qui permettrait une convergence plus rapide de l'algorithme d'apprentissage. Plusieurs méthodes qui permettent de mettre en place l'apprentissage actif en EI existent dans la littérature (voir section 3.3.2). Nous proposons, dans ce travail, deux modules d'apprentissage actif génériques indépendants de tout algorithme d'apprentissage de règles (IAL4Sets (section 6.5.2) et IAL3Sets (section 6.5.2)) qui étendent le module proposé par les concepteurs de l'algorithme WHISK pour rendre ce dernier interactif (S. Soderland et al., 1999) (voir section 2.6). Il est à noter que le module interactif de WHISK n'a pas été implémenté dans l'algorithme WHISKR . Sachant que ce module est indépendant de WHISK et peut fonctionner avec d'autres algorithmes d'apprentissage de règles, nous l'avons implémenté et utilisé comme Baseline pour évaluer l'apport de notre module d'apprentissage actif dans la section 8.4. Comme nous l'avons mentionné dans la section 2.6, l'algorithme WHISK alterne le processus d'annotation d'exemples avec le processus d'apprentissage. À chaque itération, il propose à l'utilisateur un ensemble d'instances à annoter et induit par la suite un ensemble de règles à partir de l'ensemble d'apprentissage étendu. Les règles de WHISK n'utilisent ni des niveaux de confiance ni des schémas de vote pour sélectionner des instances à annoter. Le système propose des exemples à annoter à l'utilisateur parmi 3 ensembles d'exemples. Nous rappelons ces 3 ensembles et nous leur attribuons les notations suivantes : - Ensemble CnA – c'est l'ensemble des exemples couverts par des règles existantes non encore annotés par l'utilisateur. - Ensemble NM – c'est l'ensemble des exemples couverts par des généralisations minimales de règles existantes (near misses). - Ensemble R – c'est le reste des exemples non couverts et non annotés par l'utilisateur. Dans notre cas l'ensemble R est constitué de tous les mots du corpus et de tous les termes extraits par un extracteur de termes à partir du corpus non couverts et non annotés. La définition de l'ensemble NM telle qu'elle a été faite dans le module interactif de l'algorithme WHISK n'est pas claire dans la mesure où elle ne spécifie pas ce que Chapitre 6. Proposition : une approche interactive d'apprentissage 112 de règles d'extraction d'information c'est une généralisation minimale d'une règle dans le langage de WHISK. De plus, l'algorithme WHISKR que nous avons choisi d'étendre par la suite n'utilise pas le même langage que WHISK mais plutôt le langage Ruta. Une définition claire de ce que c'est qu'une généralisation minimale d'une règle dans le langage Ruta s'avère donc nécessaire. Avant donc de présenter les modules d'apprentissage actif proposés, nous tenons à expliquer comment l'ensemble NM est construit. Construction de l'ensemble NM nous commençons par poser les définitions suivantes : - Nous appelons item chaque condition de la règle y compris la condition de correspondance. Prenons la règle suivante comme exemple : Token{FEATURE("lemma","human")->MARKONCE(Habitat)} # Token{FEATURE("postag","VBZ")} # Token{FEATURE("postag","CC")}; Cette règle contient 5 items : 1-Token{FEATURE("lemma","human")}; 2-#; 3-Token{FEATURE("postag","VBZ")}; 4-#; 5-Token{FEATURE("postag","CC")}. - Nous qualifions un item de spécifique si une condition spécifique est attribuée à son annotation correspondante et de générique si aucune condition n'est attribuée à son annotation correspondante. Si nous prenons la même règle précédente, les items 1, 3 et 5 sont spécifiques car des conditions (lemma, postag, postag) sont attribuées à leur annotation (Token). Les items 2 et 4 (#) sont des jokers qui peuvent représenter n'importe quel nombre d'éléments, ils font une catégorie à part. Prenons une deuxième règle comme exemple : Token Token{REGEXP("tsetse")->MARKONCE(Habitat, 2, 3)} Token{FEATURE("lemma","fly")} Token; Dans cette règle, les items 1 et 4 sont génériques car aucune condition n'est attribuée à leur annotation (Token) alors que les items 2 et 3 sont spécifiques car des conditions (REGEXP (expression exacte), lemma) sont attribuées à leur annotation (Token). - Nous appelons filler d'une règle l'ensemble des items qui correspondent à la cible à extraire. Prenons par exemple les deux règles suivantes : 1-Token{FEATURE("lemma","tick")->MARKONCE(Habitat)}; 2-Token Token{FEATURE("lemma","tsetse")->MARKONCE(Habitat, 2, 3)} Token{FEATURE("lemma","fly")} Token; Dans la première règle, le filler est composé d'un seul item : Token{FEATURE("lemma","tick")} Dans la deuxième règle, le filler contient, en revanche, deux items et il est le suivant : Token{FEATURE("lemma","tsetse")} Token{FEATURE("lemma","fly")} car l'action de la règle ->MARKONCE(Habitat, 2, 3) 6.5. Stratégies proposées pour mettre en place la sélection d'exemples 113 porte sur ces deux items. - Nous appelons contexte d'une règle l'ensemble total des items la constituant dépourvu des items composant le filler. Pour les deux règles précédentes, la taille du contexte est égale à 0 pour la première règle et 2 pour la deuxième règle. La généralisation d'un item spécifique se fait en supprimant toute condition attribuée à son annotation. Prenons, par exemple, les trois items suivants : 1-Token{FEATURE("lemma","tick")} 2-Token{REGEXP("tick")} 3-Token{FEATURE("postag","NNS")} Leur généralisation correspond à l'item Token. Pour qu'une règle admette une ou plusieurs généralisations minimales, elle doit satisfaire un ensemble de conditions parmi les 3 ensembles de conditions suivants. - Le filler est composé d'un seul item qui est spécifique et il y a au moins un item spécifique dans son contexte : l'idée ici est de garder le filler intact et de généraliser en généralisant à chaque fois l'un des items spécifiques du contexte. - Le filler est composé d'un seul item qui est générique et il y a au moins 3 items spécifiques dans son contexte : il s'agit ici de généraliser en généralisant à chaque fois l'un des items spécifiques du contexte. - le filler contient plus qu'un item et la règle contient au moins 3 items spécifiques (y compris ceux composant le filler) : les généralisations peuvent se faire en généralisant à chaque fois l'un des items spécifiques de la règle. Pour plus de détails, se référer à l'algorithme de construction des généralisations minimales des règles de la figure 6.14. Pour mieux comprendre l'algorithme présenté, appuyons nous sur quelques exemples. Considérons l'ensemble des règles suivant : 1- Token{FEATURE("lemma","intracellular")->MARKONCE(Habitat)}; 2- Token{FEATURE("lemma","food")->MARKONCE(Habitat)} # Token{FEATURE("lemma", "contaminated")}; 3- Token{->MARKONCE(Habitat)} Token{REGEXP("rhizosphere")}; 4- Token{FEATURE("lemma","when")} Token{->MARKONCE(Habitat)} Token{FEATURE("postag","VBD")}; 5- Token{FEATURE("lemma","soil")->MARKONCE(Habitat,1,2)} Token{FEATURE("lemma","environment")} Token; 6- Token{FEATURE("postag","JJ")->MARKONCE(Habitat,1,2)} Token{FEATURE("lemma","fly")} Token; 7- Token{FEATURE("postag","IN")} Token{FEATURE("lemma","the")} Token{->MARKONCE(Habitat,3,4)} Token{FEATURE("lemma","cell")} Token # Token{FEATURE("lemma","male")}; Dans la première règle, la taille du contexte est nulle donc la règle n'admet aucune généralisation minimale. Dans la deuxième règle, le contexte n'est pas vide et le filler est spécifique et composé d'un seul item. Comme le contexte contient un item spécifique, cette règle admet une généralisation minimale qui est la suivante : Chapitre 6. Proposition : une approche interactive d'apprentissage 114 de règles d'extraction d'information ConstruireReglesNearMisses (ReglesExistantes,ReglesNearMisses) Pour règle r dans ReglesExistantes faire | compteur = 0 | Si taille(filler(r)) = 1 faire | | Si filler(r) est spécifique et filler(r) != # faire | | | Pour item it dans contexte(r) faire | | | | Si it est spécifique | | | | | generaliserRegle(r,r2,it) | | | | | ajouter(r2,ReglesNearMisses) | | | | Fin si | | | Fin pour | | Sinon | | | Si taille(contexte) >= 3 faire | | | | Pour item it dans contexte(r) faire | | | | | Si it est spécifique | | | | | | compteur <-- compteur + 1 | | | | | Fin si | | | | Fin pour | | | | Si compteur >=3 | | | | | Pour item it dans contexte(r) faire | | | | | | Si it est spécifique | | | | | | | generaliserRegle(r,r2,it) | | | | | | | ajouter(r2,ReglesNearMisses) | | | | | | Fin si | | | | | Fin pour | | | | Fin si | | | Fin si | | Fin si | Sinon | | Pour item it dans filler(r) faire | | | Si it est spécifique | | | | compteur <-- compteur + 1 | | | Fin si | | Fin pour | | Pour item it dans contexte(r) faire | | | Si it est spécifique | | | | compteur <-- compteur + 1 | | | Fin si | | Fin pour | | Si compteur >=3 | | | Pour item it dans filler(r) faire | | | | Si it est spécifique | | | | | generaliserRegle(r,r2,it) | | | | | ajouter(r2,ReglesNearMisses) | | | | Fin si | | | Fin pour | | | Pour item it dans contexte(r) faire | | | | Si it est spécifique | | | | | generaliserRegle(r,r2,it) | | | | | ajouter(r2,ReglesNearMisses) | | | | Fin si | | | Fin pour | | Fin si | Fin si Fin pour 6.5. Stratégies proposées pour mettre en place la sélection d'exemples 115 Avec generaliserRegle(r,r2,it) it2 <-- generaliserItem(it) r2 <-- construireRegle(r,it,it2) //remplacer it par it2 dans la règle Figure 6.14 – Algorithme de construction des généralisations minimales de règles. Token{FEATURE("lemma","food")->MARKONCE(Habitat)} # Token; Cette règle peut bien évidemment ramener des exemples négatifs mais surtout des exemples positifs car elle dispose d'une information centrale qui est le lemme de la cible à extraire. Les erreurs que la règle peut faire sont donc uniquement des termes qui ont le même lemme que la cible mais dont le sens est autre. Ces termes sont intéressants à regarder car ils peuvent constituer des bons contre exemples. Dans les troisième et quatrième règles, le filler est générique et composé d'un seul item et la taille du contexte est inférieure à 3 donc les deux règles n'admettent pas de généralisations minimales. En effet, si nous ne posons pas de contraintes sur la taille du contexte et sur le nombre d'items spécifiques, la quatrième règle, par exemple, admettrait les deux généralisations minimales suivantes : 1-Token Token{->MARKONCE(Habitat)} Token{FEATURE("postag","VBD")}; 2-Token{FEATURE("lemma","when")} Token{->MARKONCE(Habitat)} Token; Ces règles sont trop générales et peuvent couvrir des termes qui n'ont aucun lien avec le terme cible. Dans les cinquième et sixième règles, le filler est composé de deux items et le nombre des items spécifiques dans l'ensemble contexte-filler est inférieur à 3 donc les deux règles n'admettent pas de généralisations minimales. En effet, sans la contrainte sur le nombre d'items spécifiques dans l'ensemble contexte-filler, la cinquième règle aurait admis comme généralisations minimales : 1-Token{->MARKONCE(Habitat,1,2)} Token{FEATURE("lemma","environment")} Token; 2-Token{FEATURE("lemma","soil")->MARKONCE(Habitat,1,2)} Token Token; et la sixième aurait admis comme généralisations minimales : 1-Token{->MARKONCE(Habitat,1,2)} Token{FEATURE("lemma","fly")} Token; 2-Token{FEATURE("postag","JJ")->MARKONCE(Habitat,1,2)} Token Token; Avec une contrainte sur un seul item, même si l'item fait partie de l'expression de la cible, ces règles restent trop générales et ramènent beaucoup d'exemples négatifs. Concernant la dernière règle, le filler est composé de deux items et le nombre d'items spécifiques dans l'ensemble filler-contexte est 4 donc elle admet les généralisations minimales suivantes : Chapitre 6. Proposition : une approche interactive d'apprentissage 116 de règles d'extraction d'information 1-Token Token{FEATURE("lemma","the")} Token{->MARKONCE(Habitat,3,4)} Token{FEATURE("lemma","cell")} Token # Token{FEATURE("lemma","male")}; 2-Token{FEATURE("postag","IN")} Token Token{->MARKONCE(Habitat,3,4)} Token{FEATURE("lemma","cell")} Token # Token{FEATURE("lemma","male")}; 3-Token{FEATURE("postag","IN")} Token{FEATURE("lemma","the")} Token{->MARKONCE(Habitat,3,4)} Token Token # Token{FEATURE("lemma","male")}; 4-Token{FEATURE("postag","IN")} Token{FEATURE("lemma","the")} Token{->MARKONCE(Habitat,3,4)} Token{FEATURE("lemma","cell")} Token # Token; Avec 3 items spécifiques, ces règles restent assez spécifiques et ne font pas beaucoup d'erreurs. Après la construction des généralisations minimales des règles existantes, l'ensemble NM (near misses) peut être construit. Il s'agit, en effet, des exemples couverts par des généralisations minimales de règles existantes non couverts par des règles existantes. IAL4Sets Nous avons établi, dans un travail préalable (Bannour, Audibert, & Nazarenko, 2011), une étude de mesures de similarité entre des termes tels qu'ils peuvent être extraits par un extracteur de termes, en s'appuyant sur l'hypothèse distributionnelle selon laquelle des termes sémantiquement proches tendent à apparaître dans des contextes similaires. Les mesures de similarités étudiées combinent des fonctions de poids et des mesures de similarité élémentaires. Nous avons redéfini, dans un premier temps, la notion d'analyse distributionnelle habituellement appliquée sur des mots pour la combiner à une analyse terminologique et prendre en compte les unités composées. Cela a impliqué une adaptation des fonctions de poids et de la notion de contexte. Nous avons présenté ensuite une étude méthodique de différentes combinaisons de fonctions de poids et de mesures de similarité. Certaines ont produit des résultats convaincants. La combinaison poids-mesure qui a donné les meilleurs résultats est TTEST-COSINUS. En s'appuyant sur les résultats de cette étude et sur l'intuition que les termes sémantiquement proches des termes couverts par des règles existantes jugés comme positifs peuvent être des termes synonymes ou liés (dénotent un concept fils, père ou frère), nous avons eu l'idée de proposer à l'utilisateur ce genre de termes à annoter. Nous avons également remarqué que lorsque les exemples d'apprentissage ont des expressions très différentes, si l'ensemble de départ annoté par l'utilisateur pour lancer la première itération de l'algorithme d'apprentissage contient toutes ces expressions, les deux premiers ensembles parmi lesquels WHISK propose des exemples à annoter à l'utilisateur (CnA et NM ) suffisent pour retrouver rapidement les exemples non annotés. Cependant, si les exemples de départ ne contiennent qu'une partie des expressions possibles pour un exemple d'apprentissage, il faut attendre que ces exemples soient proposés dans le troisième ensemble de WHISK (R). Cet ensemble contient un très grand nombre d'exemples, ce qui mène à un temps plus long pour atteindre les performances optimales du système. D'où l'idée de proposer cet ensemble 6.5. Stratégies proposées pour mettre en place la sélection d'exemples 117 supplémentaire qui contient des exemples proches des exemples positifs couverts sans obligatoirement avoir les mêmes expressions, ce qui peut accélérer l'extraction des exemples dont les expressions ne font pas partie de celles annotées au départ. Nous appelons cet ensemble TSEP (Termes les plus Similaires aux Exemples Positifs couverts). Pour expliquer la méthode de construction de l'ensemble TSEP, nous posons les notations suivantes. - termesPosCouverts : il s'agit de la liste des termes couverts par des règles existantes jugés comme positifs et reconnus par l'extracteur de termes en tant que tels. - nbTermesPosCouverts : il s'agit de la taille de la liste termesPosCouverts. - similairesTermePosCouvert(t) : il s'agit de la liste complète des termes extraits par l'extracteur des termes ordonnés par similarité décroissante par rapport au terme t. - termesAProposer : il s'agit de la liste des termes sélectionnés pour être proposés à l'utilisateur pour annotation dans l'ensemble TSEP. - nbTermesAProposer : il s'agit du nombre de termes à proposer à l'utilisateur dans l'ensemble TSEP dans le cadre d'une itération. Pour construire l'ensemble TSEP, nous procédons comme suit : - une matrice de similarité est construite en calculant la similarité entre chaque paire de termes extraits par un extracteur de termes (les valeurs de similarité sont calculées en utilisant la mesure TTEST-COSINUS) - pour chaque terme couvert par des règles existantes annoté positivement t, la liste des termes extraits par un extracteur de termes est ordonnée par valeurs de similarité décroissantes par rapport au terme t (construction de la liste similairesTermePosCouvert(t)) - si nbTermesPosCouverts >= nbTermesAProposer - sélectionner au hasard nbTermesAProposer termes parmi les termes couverts annotés positivement - pour chaque terme couvert annoté positivement sélectionné t, sélectionner le premier terme de la liste similairesTermePosCouvert(t) (le terme le plus similaire au terme t) et l'ajouter à l'ensemble TSEP Sinon - pour chaque terme t couvert annoté positivement, sélectionner à partir de similairesTermePosCouvert(t) les (nbTermesAProposer / nbTermesPosCouverts) premiers termes et les ajouter à l'ensemble TSEP - s'il reste des termes à proposer à l'utilisateur, les sélectionner à partir de la liste similairesTermePosCouvert(t) d'un terme t couvert annoté positivement choisi au hasard et les ajouter à l'ensemble TSEP L'algorithme présenté dans la figure 6.15 donne plus de détails sur la méthode de construction de l'ensemble TSEP. Après la proposition des termes sélectionnés à l'utilisateur, les listes des termes similaires aux termes positifs couverts sont mises à jour en supprimant tous les termes qui ont été proposés. Après avoir explicité comment l'ensemble TSEP est construit, nous expliquons Chapitre 6. Proposition : une approche interactive d'apprentissage 118 de règles d'extraction d'information selectionnerTermes(termesPosCouverts,termesAProposer,nbTermesAProposer) Si nbTermesAProposer < nbTermesPosCouverts faire | choisir au hasard nbTermesAProposer termes à partir de | termesPosCouverts | Pour chaque terme t choisi faire | | plusSimilaire(t,t2,similairesTermePosCouvert(t),termesAProposer) | | ajouter (t2,termesAPoposer) | Fin pour Sinon | n <-- nbTermesAProposer/nbTermesPosCouverts | Pour chaque terme t choisi faire | | nPlusSimilaires(t,tList,n,similairesTermePosCouvert(t) | | ,termesAProposer) | | ajouter (tList,termesAProposer) | Fin pour Fin si. Avec plusSimilaire(t,t2,similairesTermePosCouvert(t),termesAProposer) compteur <-- 0 trouve <-- false Tant que compteur < taille(similairesTermePosCouvert(t)) et non(trouve) faire | Si termesAProposer ne contient pas | similairesTermePosCouvert(t)[compteur] faire | | t2 <-- similairesTermePosCouvert(t)[compteur] | Sinon | | compteur <-- compteur + 1 | Fin si Fin tant que. et nPlusSimilaires(t,tList,n,similairesTermePosCouvert(t),termesAProposer) compt <-- 0 compt2 <-- 0 Tant que compt<taille(similairesTermePosCouvert(t)) et compt2<n faire | Si termesAProposer ne contient pas | similairesTermePosCouvert(t)[compteur] faire | | ajouter(similairesTermePosCouvert(t)[compteur],tList) | | compt2 <-- compt2 + 1 | Fin si | compt <-- compt + 1 Fin tant que. Figure 6.15 – Algorithme de construction de l'ensemble TSEP. 6.5. Stratégies proposées pour mettre en place la sélection d'exemples 119 le principe du module d'apprentissage actif proposé IAL4Sets. Ce module permet, en effet, de proposer des exemples à annoter à l'utilisateur équitablement à partir de 4 ensembles : CnA, NM, TSEP et R (voir l'algorithme plus en détail dans la figure 6.16). Les ensembles CnA, NM et R sont les mêmes ensembles proposés dans le module interactif de l'algorithme WHISK. Annotation de k exemples par l'utilisateur Déroulement de l'algorithme d'apprentissage des règles à partir des exemples annotés Test des règles inférées sur le corpus de test Calcul des performances (précision, rappel et F-mesure) Pour i de 1 à n faire | Proposer à l'utilisateur k/4 exemples de l'ensemble CnA | Proposer à l'utilisateur k/4 exemples de l'ensemble NM | Proposer à l'utilisateur k/4 exemples de l'ensemble TSEP | Proposer à l'utilisateur k/4 exemples de l'ensemble R | Annotation des k exemples par l'utilisateur | Ajout des k exemples annotés à l'ensemble total des exemples annotés | Déroulement de l'algorithme d'apprentissage des règles sur | l'ensemble total des exemples annotés | Test des règles inférées sur le corpus de test | Calcul des performances (précision, rappel et F-mesure) Fin pour. Avec - n est le nombre d'itérations nécessaires pour atteindre des performances qui satisfont l'utilisateur; - k est le nombre d'exemples proposés à l'utilisateur à chaque itération. Il est fixé par l'utilisateur. Figure 6.16 – Algorithme du module d'apprentissage actif IAL4Sets. IAL3Sets En examinant de manière approfondie la liste des termes extraits par un extracteur de termes sur le corpus BB BioNLP-ST 2013, nous avons remarqué que la plupart des exemples positifs annotés sur ce corpus sont reconnus en tant que termes. En se basant sur ces observations, nous avons eu l'idée de proposer une deuxième version d'un module d'apprentissage actif qui exclut l'ensemble R. Cet algorithme que nous nommons IAL3Sets permet donc de proposer à l'utilisateur équitablement des exemples à annoter à partir des 3 ensembles CnA, NM et TSEP (voir l'algorithme présenté dans la figure 6.17). Certes cet algorithme n'est pas complet dans le sens où il existe une minorité d'exemples positifs que l'extracteur de termes ne reconnait pas (ces exemples ne seront jamais retrouvés) mais nous pensons qu'il permettra une convergence plus rapide de l'apprentissage. Chapitre 6. Proposition : une approche interactive d'apprentissage 120 de règles d'extraction d'information Annotation de k exemples par l'utilisateur Déroulement de l'algorithme d'apprentissage de règles à partir des exemples annotés Test des règles inférées sur le corpus de test Calcul des performances (précision, rappel et F-mesure) Pour i de 1 à n faire | Proposer à l'utilisateur k/3 exemples de l'ensemble CnA | Proposer à l'utilisateur k/3 exemples de l'ensemble NM | Proposer à l'utilisateur k/3 exemples de l'ensemble TSEP | Annotation des k exemples par l'utilisateur | Ajout des k exemples annotés à l'ensemble total des exemples annotés | Déroulement de l'algorithme d'apprentissage de règles sur | l'ensemble total des exemples annotés | Test des règles inférées sur le corpus de test | Calcul des performances (précision, rappel et F-mesure) Fin pour. Figure 6.17 – Algorithme du module d'apprentissage actif IAL3Sets. Une évaluation détaillée des deux modules d'apprentissage actif que nous avons proposés (IAL4Sets et IAL3Sets) figure dans la section 8.4. Conclusion Nous avons proposé, dans ce chapitre, une approche interactive d'apprentissage de règles d'EI. Cette approche repose sur un processus hybride qui combine l'écriture manuelle des règles d'EI et l'annotation d'exemples d'apprentissage pour inférer de manière automatique des règles, ce qui donne à l'utilisateur la liberté de choisir l'opération qu'il juge la plus convenable à un instant donné. Ce processus est interactif pour permettre une communication entre l'utilisateur et le module d'apprentissage automatique de règles dans le but de réduire au maximum l'effort manuel requis pour mener à bien une tâche d'EI. Il est également itératif pour permettre une construction progressive de l'ensemble des règles d'EI, ce qui offre à l'utilisateur une meilleure compréhension du système lui facilitant la prise de la bonne décision concernant l'opération à effectuer à chaque itération. Pour pouvoir être mise en place, l'approche que nous proposons doit satisfaire un certain nombre de contraintes et respecter certaines propriétés clés que nous avons déjà énumérées dans le chapitre précédent. Nous avons donc proposé des stratégies et des méthodes qui permettent d'assurer ces contraintes. Pour la compréhensibilité et la généricité des règles, nous avons proposé d'utiliser le langage de règles Ruta qui est un langage expressif, générique et accessible et de prétraiter le corpus de travail avec une chaîne d'annotation qui a pour rôle d'étiqueter le texte avec des annotations génériques (lemme, étiquette morpho-syntaxique, terme) sur lesquelles s'appuie l'expression des règles dans le langage Ruta. Pour plus de prudence et parce que plusieurs travaux encouragent l'utilisation 6.5. Stratégies proposées pour mettre en place la sélection d'exemples 121 de fenêtres de contexte courtes, nous avons proposé de réduire l'espace de recherche des règles pour l'algorithme d'apprentissage en ne considérant que les mots faisant partie de la phrase qui contient l'exemple cible. Pour ne pas considérer comme négatifs les exemples positifs non encore annotés par l'utilisateur dans un système où l'annotation des exemples se fait de manière progressive, nous avons proposé d'apprendre, à chaque itération, sur un corpus réduit composé uniquement des phrases contenant des exemples annotés positivement par l'utilisateur. Enfin, pour permettre une sélection aisée des exemples d'apprentissage par l'utilisateur, nous avons proposé deux solutions pour deux buts différents. La première solution consiste à mettre en place un concordancier pour écrire des règles prospectives qui ont pour but de permettre à l'utilisateur de chercher des exemples en s'appuyant sur des mots clés dont il dispose et de réduire ainsi son espace de travail aux exemples couverts par ses règles prospectives lui facilitant l'évaluation de ces exemples et leur annotation. La deuxième solution, quant à elle, consiste à mettre en place un module d'apprentissage actif qui a pour but de proposer à l'utilisateur de manière progressive des exemples sélectionnés d'une manière intelligente qui favorise une convergence plus rapide de l'algorithme d'apprentissage vers la solution optimale. Les deux modules d'apprentisssage actif que nous avons proposés (IAL4Sets et IAL3Sets) étendent le module interactif de base de l'algorithme WHISK. Étant donné que nous avons choisi de nous appuyer sur l'algorithme WHISKR pour la mise en place et l'évaluation de notre approche, nous y avons introduit le module d'apprentissage actif de base conçu pour l'algorithme WHISK qui sera utilisé comme Baseline dans l'évaluation de nos modules d'apprentissage actif. Le développement ainsi que l'évaluation des différentes méthodes et stratégies que nous proposons dans le cadre de l'approche conçue dans ce chapitre sont détaillés dans les chapitres 7 et 8 qui suivent. Chapitre 7 IRIES : un système interactif d'apprentissage de règles d'extraction d'information Nous avons proposé dans le chapitre précédent une approche interactive d'apprentissage de règles d'extraction d'information (EI) ainsi que des méthodes et des stratégies qui permettent d'assurer les propriétés qui doivent caractériser une telle approche. Nous décrivons dans ce chapitre le système IRIES qui met en oeuvre cette approche ainsi que les étapes techniques qui ont permis de le mettre en place. 7.1 Architecture du système IRIES Comme le montre la figure 7.1, le système IRIES (Interactive Rule based Information Extraction System) que nous avons mis en place est composé de 3 modules : - Un concordancier – il permet à l'utilisateur d'écrire des règles prospectives pour chercher des exemples particuliers dans le texte, tester des règles inférées par le module d'apprentissage ou modifiées par l'utilisateur et d'annoter les exemples couverts par les règles testées. L'annotation d'exemples dans le concordancier agit sur l'ensemble d'exemples d'apprentissage en l'étendant avec de nouveaux exemples ou en modifiant le statut de certains exemples. - Un module d'apprentissage de règles d'EI – ce module encapsule un alogrithme d'apprentissage de règles et permet d'inférer des règles d'EI ou d'annotation à partir d'exemples d'apprentissage pour un concept cible donné. Les règles inférées sont consultées par l'utilisateur et peuvent être modifiées par ce dernier et testées dans le concordancier. - Un module d'apprentissage actif – ce module permet de proposer à l'utilisateur, de manière itérative, des exemples à annoter. Ces exemples sont sélectionnés d'une manière intelligente afin de permettre une convergence rapide du système vers les performances optimales. L'utilisateur répond en annotant les exemples proposés, ce qui permet au module d'apprentissage actif de mettre à jour l'ensemble des exemples d'apprentissage et d'appeler le module d'apprentissage de règles. Figure 7.1 – Architecture du système IRIES. Chapitre 7. IRIES : un système interactif d'apprentissage de règles 124 d'extraction d'information 7.2. Préparation des corpus : une chaine d'annotation basée sur UIMA 125 Il est à noter que l'appel au module d'apprentissage de règles peut s'effectuer soit en appelant le module d'apprentissage actif qui fait lui même un appel au module d'apprentissage de règles soit en appelant directement le module d'apprentissage de règles si l'utilisateur se passe de l'aide du module actif à un moment donné. L'ensemble de règles final contient des règles apprises, des règles écrites par l'utilisateur et jugées bonnes et des règles inférées modifiées par l'utilisateur dont la version modifiée s'avère plus performante. Appliquées sur le corpus d'entrée, les règles finales permettent d'annoter dans le texte les segments de texte qui décrivent les concepts cibles. Les concepts cibles à annoter peuvent provenir d'une ontologie ou tout simplement être des concepts communs. Afin de produire des règles compréhensibles, génériques et performantes, IRIES prend en entrée un corpus prétraité. Nous présentons en détails dans la section suivante la chaine de traitements appliquée au texte initial pour le préparer. 7.2 Préparation des corpus : une chaine d'annotation basée sur UIMA La chaine d'annotation décrite dans le chapitre précédent permet d'étiqueter le texte d'entrée avec des annotations qui apparaissent dans l'expression des règles écrites ou inférées. Plus ces annotations sont intuitives, plus les règles sont compréhensibles et plus elles sont génériques, plus les règles sont génériques. Pour mettre en place cette chaine d'annotation, nous choisissons d'utiliser le framework UIMA (Ferrucci & Lally, 2004) (voir section 4.1. Pour découper le texte en mots et en phrases, nous mettons en place un algorithme qui s'appuie sur les patrons du langage Java (package java.util.regex). Concernant la lemmatisation, l'étiquetage morpho-syntaxique et l'étiquetage terminologique, nous développons des modules qui encapsulent des outils externes. Prenons, par exemple, nos deux corpus de travail. Pour le corpus BB BioNLP-ST 2013, les outils externes utilisés sont : - Bioc (Liu, Christiansen, Baumgartner, & Verspoor, 2012 ; Smith, Rindflesch, & Wilbur, 2004) – Il permet à la fois la segmentation du texte en tokens, la lemmatisation et l'étiquetage morpho-syntaxique. - BioYaTeA (Golik, Bossy, Ratkovic, & Claire, 2013) – Cet outil permet l'extraction des termes dans un texte. Il s'agit d'une version étendue de l'extracteur de termes YaTeA (Hamon & Aubin, 2006) adaptée au domaine biomédical. Concernant le corpus SyntSem, les outils externes utilisés sont : - TreeTagger (Schmid, 1994) – Cet outil permet la lemmatisation et l'étiquetage morpho-syntaxique des mots dans un texte - YaTeA (Hamon & Aubin, 2006) – Cet outil permet d'identifier des termes candidats dans le texte en se basant sur une désambiguisation endogène. Pour définir l'ensemble des types utilisés pour annoter le texte, nous avons hésité entre les deux Types Systems schématisés dans les figures 7.2 et 7.3. Dans le Type System schématisé dans la figure 7.3, les unités linguistiques sont concentrées dans les types Token attribué à chaque mot du texte et Sentence attri- Chapitre 7. IRIES : un système interactif d'apprentissage de règles 126 d'extraction d'information Figure 7.2 – Type System UIMA non retenu. Figure 7.3 – Type System UIMA utilisé. 7.2. Préparation des corpus : une chaine d'annotation basée sur UIMA 127 bué à chaque phrase du texte. Nous caractérisons le type Token par deux propriétés supplémentaires : lemma et postag. lemma contient la forme lemmatisée et postag l'étiquette morpho-syntaxique attribuées par un outil externe (TreeTagger ou Bioc) au Token en question. Dans le Type System schématisé dans la figure 7.2, en revanche, à part le type Sentence, il existe 3 types linguistiques qui délimitent la même unité qui est le mot : Token, Lemma, et POSTag. Lemma et POSTag sont caractérisés respectivement par les propriétés lemma et postag qui contiennent la forme lemmatisée et l'étiquette morpho-syntaxique attribuées par le module de lemmatisation et d'étiquetage morpho-syntaxique au Token en question. Nous considérons, en revanche, dans les deux cas le terme (Term) comme une unité sémantique et non linguistique et nous la caractérisons par les mêmes propriétés qu'un Token dans le Type System schématisé dans la figure 7.3 (termLemma et termPostag) dont les valeurs sont fournies par l'extracteur de termes. Comme nous l'avons déjà mentionné dans le chapitre précédent, l'expression des règles d'EI dépend beaucoup de comment sont exprimées les annotations dans le texte. Prenons un exemple qui explique la différence d'expression des règles dans le langage Ruta en utilisant à chaque fois l'un des Type Systems proposés. Supposons que nous voulions écrire une règle qui traduit la phrase suivante : si on trouve un nom suivi d'un mot dont l'expression est « de » suivi d'un mot lemmatisé « donnée », on annote le tout avec l'annotation « BaseDeDonnées ». En s'appuyant sur le Type System schématisé dans la figure 7.2, la règle s'écrit comme suit : POSTag{FEATURE("postag","NN")} Token{REGEXP("de")} Lemma{FEATURE("lemma","donnée") ->MARKONCE(BaseDeDonnées,1,3)}; Alors qu'en s'appuyant sur le Type System schématisé dans la figure 7.3, la règle s'écrit comme suit : Token{FEATURE("postag","NN")} Token{REGEXP("de")} Token{FEATURE("lemma","donnée") ->MARKONCE(BaseDeDonnées,1,3)}; La deuxième règle est plus intuitive car au final les termes que la règle cherche à couvrir sont des Tokens avec à chaque fois une contrainte spécifique. La première règle aurait un sens si les annotations POSTag et Lemma étaient des annotations indépendantes de l'annotation Token et avaient des offsets différents de ceux délimitant les annotations de type Token mais ce n'est pas le cas. En effet, les 3 types Token, Lemma et POSTag couvrent exactement les mêmes offsets et désignent tous les mots du texte d'où l'intérêt d'avoir un seul type pour désigner un mot (Token) et des propriétés intuitives pour le caractériser (lemma et postag comme propriétés de Token). Nous optons, par conséquent, pour l'utilisation du deuxième Type System (figure 7.3). La figure 7.4 explique en détails la mise en place dans la plateforme UIMA de la chaine d'annotation que nous proposons avec les différentes communications entre les modules. Dans la plateforme UIMA, un module ou une classe (Annotator) ne peut pas être exécuté directement mais à travers un AE qui l'appelle. Chapitre 7. IRIES : un système interactif d'apprentissage de règles 128 d'extraction d'information Figure 7.4 – Mise en place de la chaine d'annotation proposée dans la plateforme UIMA. 7.3. Développement du système IRIES 129 Au départ, le CAS contient uniquement le texte initial. Nous faisons appel au TokenAnalysisEngine appelant à son tour le module de segmentation en mots et en phrases qui alimente le CAS avec les annotations de type Token et de type Sentence (phrases). Étant appelé en exécutant le moteur LemPosAnalysisEngine, le module de lemmatisation et d'étiquetage morpho-syntaxique prend en entrée les annotations de type Token récupérées du CAS, fait un appel à l'outil externe qui prend en entrée le fichier des mots généré par le module de segmentation en mots et en phrases et génère un fichier contenant la même liste des mots en ajoutant leurs informations sur les parties de discours et leurs lemmes, ensuite enrichit les annotations de type Token dans le CAS avec les propriétés postag et lemma. Le module d'étiquetage terminologique appelé par TermAnalysisEngine encapsule un outil externe qui prend en entrée le fichier généré par le module de lemmatisation et d'étiquetage morpho-syntaxique, génère une liste de termes candidats et alimente le CAS avec des annotations de type Term. Pour pouvoir apprendre des règles d'EI ou d'annotation sur le corpus, il faut également annoter des exemples d'apprentissage. Ces exemples sont déportés et fournis dans des documents à part. Cependant pour pouvoir exploiter ces exemples, ils doivent être traduits en annotations UIMA intégrées au corpus car le langage Ruta dans lequel les règles sont inférées s'appuie sur des annotations UIMA. Pour ce faire, nous développons un module qui permet de transformer les exemples d'apprentissage déportés en annotations UIMA. Ce module appelé par le moteur LExamplesAnalysisEngine alimente le CAS avec les exemples d'apprentissage. L'appel de l'AggregateAnalysisEngine qui aggrège tous les AEs pemet l'exécution de toute la chaine d'annotation. Après la préparation du corpus de travail, nous passons au développement des différents modules composant le système IRIES. 7.3 Développement du système IRIES Le système IRIES étant composé de 3 modules de base, nous détaillons, dans cette section la mise en place de ces modules en tenant compte des différentes méthodes et stratégies proposées dans le chapitre 6. 7.3.1 Réutilisation du système TextRuler IRIES est, en effet, une extension du système TextRuler (Kluegl, Atzmueller, Hermann, & Puppe, 2009), un framework de développement semi-automatique d'applications d'EI basées sur des règles Ruta. TextRuler partage le même processus itératif décrit par notre méthode (voir figure 7.5) mais l'aspect interactif est absent. Textruler est un framework générique dans le sens où il contient des implémentations de plusieurs algorithmes d'apprentissage de règles adaptés au langage Ruta et l'utilisateur peut choisir d'utiliser n'importe lequel d'entre eux, voire plusieurs en parallèle. Il est également facile à étendre dans le sens où l'utilisateur peut implémenter ses propres algorithmes en se basant sur des classes génériques fournies dans le système TextRuler et les rajouter à ce dernier. Une description plus détaillée du système TextRuler figure dans le chapitre 4. Chapitre 7. IRIES : un système interactif d'apprentissage de règles 130 d'extraction d'information Figure 7.5 – Modèle de processus de TextRuler (Kluegl, Atzmueller, Hermann, & Puppe, 2009). Pour mettre en place notre approche interactive d'apprentissage de règles d'EI, nous apportons des modifications et des extensions au système TextRuler dont les principales classes (implémentées en Java) sont représentées dans la figure 7.6. Sont excluses du diagramme schématisé dans la figure 7.6 les classes graphiques, les classes de communication entre les classes de base et les classes graphiques et les classes représentant les autres algorithmes d'apprentissage de règles implémentés dans TextRuler (autres que WHISK) pour des raisons de simplification. Les classes schématisées en bleu sont des classes que nous modifions pour nos propres besoins. Elles seront détaillées ainsi que les classes que nous rajoutons dans les sections qui suivent. La classe Whisk dans TextRuler correspond à l'implémentation de WHISKR . 7.3.2 WHISKR Ext : une extension de WHISKR Le module d'apprentissage de règles d'EI contenu dans le système IRIES encapsule l'algorithme WHISKR Ext . WHISKR Ext est, en effet, une extension de l'algorithme WHISKR avec lequel nous avons choisi de travailler. Nous développons cette extension pour deux raisons : - étendre les règles de WHISKR pour prendre en compte les informations linguistiques attribuées aux Tokens ; - modifier WHISKR pour tenir compte de certaines contraintes nécessaires pour la mise en place d'un système interactif. Il est à noter que les modifications que nous apportons à l'algorithme WHISKR peuvent être faites sur n'importe quel algorithme d'apprentissage de règles. D'ailleurs, on peut tout à fait créer une classe générique qui représente un algorithme d'apprentissage de règles respectant les contraintes que doit satisfaire un système interactif de laquelle hérite n'importe quel algorithme d'apprentissage de règles utilisé (la classe TextRulerBasicLearner par exemple dans le diagramme de la figure 7.6). La figure 7.7 représente les classes de TextRuler que nous modifions pour obtenir l'algorithme WHISKR Ext . Les attributs et fonctions coloriés en rouge sont des 7.3. Développement du système IRIES Figure 7.6 – Diagramme des classes principales de TextRuler. 131 Chapitre 7. IRIES : un système interactif d'apprentissage de règles 132 d'extraction d'information attributs et fonctions que nous modifions et ceux coloriés en vert sont des attributs et fonctions que nous ajoutons. La version initiale de WHISKR souffre d'un inconvénient majeur : les règles qu'il apprend considèrent uniquement l'expression exacte des mots. Voici un exemple de règle inférée par cette version initiale de WHISKR : Token{REGEXP("human")-->MARKONCE(BacteriaHabitat)}; Cette règle permet d'annoter chaque mot du texte dont l'expression est human avec le concept « Habitat de bactéries ». Elle n'est, cependant, pas capable d'identifier les expressions humans, Human ou encore Humans qui devraient également être annotées. Les règles apprises par la version initiale de WHISKR étant limitées aux expressions exactes des mots, nous étendons l'implémentation de l'algorithme de manière à rendre les règles capables de s'appuyer sur les étiquettes linguistiques des mots (lemmes et étiquettes morpho-syntaxiques) et donc d'exploiter la richesse du langage Ruta. Nous appelons la version initiale de WHISKR WHISKMot puisqu'elle s'appuie uniquement sur l'expression exacte des mots et nous distinguons les versions suivantes de notre algorithme WHISKR Ext . - WHISKLem : il s'agit d'une version de WHISKR qui s'appuie sur les formes lemmatisées des mots - WHISKPos : il s'agit d'une version de WHISKR qui s'appuie sur les étiquettes morpho-syntaxiques des mots - WHISKMotLem : il s'agit d'une version de WHISKR qui s'appuie sur expressions exactes et les formes lemmatisées des mots - WHISKMotPos : il s'agit d'une version de WHISKR qui s'appuie sur les expressions exactes et les étiquettes morpho-syntaxiques des mots - WHISKLemPos : il s'agit d'une version de WHISKR qui s'appuie sur les formes lemmatisées et les étiquettes morpho-syntaxiques des mots - WHISKMotLemPos : il s'agit d'une version de WHISKR qui s'appuie sur les expressions exactes, les formes lemmatisées et les étiquettes morpho-syntaxiques des mots. Un étude expérimentale qui figure dans la section 8.2 permet d'évaluer et de comparer entre elles ces différentes versions étendues de WHISKR dans le but d'expliciter l'effet d'un prétraitement linguistique sur les performances d'un algorithme d'apprentissage de règles d'EI et particulièrement l'algorithme WHISKMot . Les attributs et les classes que nous ajoutons à l'implémentation de base sont les suivants. - CONSIDERED_FEATURES dans la classe Whisk : cet attribut contient la liste des propriétés dont l'algorithme d'apprentissage doit tenir compte quand il parcourt les annotations. Dans notre cas, nous considérons les propriétés lemma et postag de l'annotation Token. - hideFeature et activeFeature dans la classe WhiskRuleItem : ces attributs permettent de vérifier si une certaine propriété est activée (apparaît dans les expressions des règles) ou non activée. 7.3. Développement du système IRIES Figure 7.7 – Principales classes modifiées dans TextRuler. 133 Chapitre 7. IRIES : un système interactif d'apprentissage de règles 134 d'extraction d'information - isHideFeature(), setHideFeature(), activateFeature() et deactivateFeature() dans la classe WhiskRuleItem : ces fonctions permettent de récupérer ou de modifier l'état d'une propriété et d'activer ou désactiver une propriété. - getActivatedFeatures() dans la classe WhiskRuleItem : cette fonction permet de récupérer la liste des propriétés qui peuvent apparaître dans l'expression des règles. La prise en compte des informations linguistiques n'est pas la seule extension que nous apportons à l'algorithme WHISKR . Afin de ne pas discriminer les exemples non encore annotés par l'utilisateur à un stade donné de l'apprentissage interactif de règles, nous avons proposé dans la section 6.4 d'apprendre sur un corpus réduit composé uniquement des phrases annotées par l'utilisateur, ce qui a impliqué la réduction du contexte à examiner lors de l'apprentissage d'un exemple cible à la phrase. Afin de mettre en place ces stratégies, nous apportons d'autres modifications sur la version initiale de WHISKR . Concernant les versions de WHISKR Ext qui réduisent le contexte d'apprentissage à la phrase et qui apprennent sur un corpus réduit, nous adoptons respectivement les notations WHISK_ P et WHISK_ CR avec : _ oe {M ot, Lem, P os, M otLem, M otP os, LemP os, M otLemP os} est la combinaison d'étiquettes linguistiques utilisées. Une étude expérimentale qui figure dans la section 8.3 permet d'évaluer le gain en temps d'apprentissage que réalisent ces nouvelles versions étendues de WHISKR par rapport aux versions qui apprennent sur la totalité du corpus d'apprentissage sans pour autant dégrader les performances. Le reste des attributs et fonctions coloriés en vert dans la figure 7.7 et qui ne concernent pas l'ajout des traits linguistiques sont des attributs et des fonctions que nous implémentons pour mettre en place ces stratégies d'apprentissage sur un corpus réduit et de modification de la taille de fenêtre de contexte d'apprentissage. La fonction createTrainCAS(), par exemple, permet de créer le CAS d'apprentissage qui est une version réduite du CAS correspondant aux phrases consultées par l'utilisateur. La fonction testRulesOnDocumentSetRestricted(), elle, permet de tester les règles construites dans l'espace de recherche de règles de l'algorithme d'apprentissage uniquement sur les phrases contenant des exemples annotés positivement par l'utilisateur. Les attributs et les fonction coloriés en rouge dans la figure 7.7 sont des attributs et des fonctions que nous modifions pour prendre en compte les nouveaux attributs et fonctions ajoutés. 7.3.3 Mise en oeuvre de la sélection d'exemples Pour mettre en oeuvre la sélection d'exemples dans un système interactif d'apprentissage de règles d'EI, nous avons proposé dans la section 6.5 la mise en place d'un concordancier et d'un module d'apprentissage actif. Ces deux modules sont les deux principaux composants de l'architecture du système IRIES décrite dans la section 7.1. 7.3. Développement du système IRIES 135 RMatcher : un concordancier basé sur Ruta RMatcher (Rule Matcher) est le concordancier que nous implémentons pour permettre à l'utilisateur d'écrire des règles prospectives dans le langage Ruta. Figure 7.8 – RMatcher : un concordancier basé sur Ruta. Comme le montre la figure 7.8, RMatcher prend en entrée un corpus préparé avec la plateforme UIMA (Training Data) et un Type system (Type System) qui contient les types avec lesquels le corpus est annoté et dont se sert l'utilisateur pour écrire ses règles (Ruta rules). Après l'écriture de ses règles dans le langage Ruta, l'utilisateur appuie sur le bouton en face des règles (bouton violet) pour les appliquer sur le corpus. RMatcher applique les règles sur le corpus et affiche les termes couverts par ces règles ainsi que leurs contextes gauche et droit. Les règles de l'utilisateur ne contiennent pas d'action car elles ont pour but d'afficher les exemples couverts et non de les annoter. La figure 7.9 montre le diagramme de classes de RMatcher. Ce diagramme est composé des classes suivantes. - DataProcess : cette classe permet de récupérer le corpus d'entrée et ses annotations. - FinalCas : cette classe permet d'alimenter le CAS sur lequel sont appliquées les règles de l'utilisateur avec les annotations du corpus d'entrée et les annotations de base de Ruta. - PatternHandler : cette classe permet d'appliquer les règles de l'utilisateur sur le corpus d'entrée. Chapitre 7. IRIES : un système interactif d'apprentissage de règles 136 d'extraction d'information Figure 7.9 – Classes implémentées pour mettre en place RMatcher. 7.3. Développement du système IRIES 137 - Context : cette classe permet de définir le contexte d'un exemple couvert par une règle. - ResultElement : cette classe permet de déterminer, pour un exemple couvert par une règle, ses offsets de début et de fin et son contexte gauche et droit. - RMatcher : c'est la classe qui permet de faire le lien entre toutes les autres classes et d'exécuter le traitement à faire à partir du moment où l'utilisateur appuie sur le bouton de lancement. Développement d'un module d'apprentissage actif Nous avons proposé dans la section 6.5.2 deux modules d'apprentissage actif (IAL4Sets et IAL3Sets) qui étendent le module Baseline correspondant au module interactif conçu pour l'algorithme WHISK de base. Nous implémentons ces trois modules dont les classes sont schématisées dans la figure 7.10. Figure 7.10 – Classes implémentées pour mettre en place le module d'apprentissage actif. Commentons les principaux attributs et fonctions de ces classes. L'attribut proposedExamplesSetSize correspond au nombre d'exemples à proposer à l'utilisateur à chaque itération pour annotation. La fonction proposeTags() permet de proposer des exemples à partir des ensembles concernés pour chaque module d'apprentissage Chapitre 7. IRIES : un système interactif d'apprentissage de règles 138 d'extraction d'information actif (CnA, NM, TSEP et R pour IAL4Sets par exemple). La fonction buildNearMissRules() permet de construire les règles qui couvrent les Near Misses des règles existantes (l'ensemble NM ). La fonction Run() permet de lancer l'algorithme d'apprentissage. La fonction pickTerms() dans les classes IAL4Sets et IAL3Sets permet de sélectionner les exemples à proposer de l'ensemble TSEP. L'attribut termsMap dans ces mêmes classes représente une map qui contient, pour chaque terme extrait par un extracteur de termes, la liste des termes ordonnée par ordre décroissant de similarité par rapport au terme en question. 7.4 Interface du système IRIES L'interface du système IRIES que nous proposons est présentée dans la figure 7.11. Figure 7.11 – Interface du système IRIES. 7.4. Interface du système IRIES 139 Chapitre 7. IRIES : un système interactif d'apprentissage de règles 140 d'extraction d'information Cette interface est composée de 5 parties : - Les données d'entrée – Elles comprennent le corpus d'apprentissage préparé avec la plateforme UIMA (.xmi), le Type System qui contient les types avec lesquels le corpus est annoté et le script Ruta de prétraitement. Le script de prétraitement peut être vide comme il peut contenir des règles que l'utilisateur a écrites à l'avance pour annoter des exemples en s'appuyant sur des mots clés dont il dispose. - Les concepts à extraire et les types d'annotations à filtrer –Les types d'annotations à filtrer sont les types à ne pas considérer dans les expressions des règles (les espaces blancs et les balises html par exemple). Les concepts à extraire sont traités l'un après l'autre. - Le concordancier – Pour intégrer le concordancier dans l'interface du système IRIES, nous ajoutons un champ devant les exemples couverts par les règles testées (Tag) pour donner la possibilité à l'utilisateur de les annoter. Une vue sur les exemples annotés non couverts par les règles est également ajoutée au concordancier. - Les algorithmes d'apprentissage à tester – IRIES peut fonctionner avec n'importe quel algorithme d'apprentissage de règles basé sur Ruta. Pour choisir l'algorithme à utiliser pour l'apprentissage de règles, il suffit de le cocher. Pour paramétrer les différents algorithmes avant de les tester, il faut appuyer sur le bouton représenté par des engrenages bleus. - Les résultats d'apprentissage sont affichés sur la partie droite de l'interface. Les algorithmes d'apprentissage actif que nous avons implémentés dans ce travail (IAL4Sets et IAL3Sets) ne sont pas encore intégrés dans l'interface graphique d'IRIES. Pour l'instant, les seuls exemples que l'utilisateur peut annoter à travers l'interface d'IRIES sont les exemples couverts par des règles existantes (inférées ou écrites) et les exemples couverts par des règles prospectives. Conclusion Nous avons présenté dans le chapitre précédent les différents modules proposés pour mettre en place notre approche interactive d'EI. Nous décrivons dans ce chapitre le système IRIES qui met en oeuvre les différents modules proposés. IRIES prend en entrée des concepts à extraire et un corpus préparé et fournit un ensemble de règles qui permettront d'annoter les concepts cibles dans le corpus. Pour préparer le corpus, nous avons mis en place une chaîne d'annotation basée sur UIMA tout en prenant le soin de définir un Type System qui assure une bonne expressivité et intuitivité des règles. IRIES est composé de 3 modules : un concordancier (RMatcher) qui permet à l'utilisateur d'écrire des règles prospectives dans le langage Ruta, un algorithme d'apprentissage de règles (WHISKR Ext ) pour inférer les règles d'EI et un module d'apprentissage actif (IAL4Sets ou IAL3Sets) qui propose à l'utilisateur des exemples pertinents à annoter. Nous avons présenté dans ce chapitre les détails d'implémentation de ces modules. L'interface du système IRIES étend celle de TextRuler mais n'est pas encore complètement achevée car le module d'apprentissage actif n'a pas encore été intégré dans cette dernière. Nous présentons dans le chapitre qui suit 7.4. Interface du système IRIES une étude expérimentale qui permet d'évaluer les différents modules proposés. 141 Chapitre 8 Expérimentations Nous présentons dans ce chapitre une étude expérimentale qui a pour but l'évaluation des différentes propositions détaillées dans les chapitres 6 et 7. Nous n'avons pas fait de propositions pour assurer la stabilité des règles dans ce travail. Nous présentons, en revanche, une étude expérimentale dans ce chapitre qui permet de le justifier. 8.1 Fonctions de mesure de performances utilisées Pour évaluer quantitativement certaines de nos contributions, nous utilisons des fonctions de mesure de performances classiques très utilisées dans le domaine d'extraction d'information (EI) qui sont la précision, le rappel et la F-mesure (voir section 2.4.2). Nous rappelons ces fonctions et nous les exprimons dans ces termes : Précision (P) – Cette fonction permet de détermnier la proportion des exemples positifs couverts parmi l'ensemble total des exemples couverts par l'ensemble des règles produites par notre algorithme d'apprentissage de règles vp P = vp + f p avec : - vp= nombre d'exemples positifs couverts ; - f p= nombre de mauvais exemples couverts. Rappel (R) – Cette fonction permet de déterminer la proportion des exemples positifs couverts parmi l'ensemble total des exemples positifs qui doivent être couverts par l'ensemble de règles produites par notre algorithme d'apprentissage de règles vp R= vp + f n avec : - f n= nombre d'exemples positifs non couverts F-mesure (F) – Cette fonction permet de trouver un bon compromis entre le rappel et la précision 144 Chapitre 8. Expérimentations 2◊P ◊R P +R Les fonctions Rn et Fn sont des fonctions que nous avons dérivées de R et F et dont les expressions sont les suivantes : F = Rn = vp vp + f nn Fn = 2 ◊ P ◊ Rn P + Rn avec f nn = nombre d'exemples positifs non couverts et dont la fréquence est au moins égale à n. Ces fonctions sont utiles pour évaluer l'apprentissage des concepts qui sont représentés par des exemples qui ont une certaine fréquence. En effet, dans quelques corpus, on ne peut apprendre certains concepts que lorsqu'ils disposent d'un nombre minimum d'exemples. Il est donc important de pouvoir évaluer l'apprentissage uniquement sur les concepts qui possèdent suffisamment d'exemples d'apprentissage. 8.2 Rôle des informations linguistiques dans les performances des règles Les langages de règles récents comme JAPE ou Ruta donnent à l'utilisateur la possibilité d'exploiter la richesse des annotations qui peuvent être disponibles dans les textes pour exprimer ses règles. Ces annotations sont des informations qui peuvent être de nature linguistique comme la lemmatisation et l'étiquetage morphosyntaxique ou de nature sémantique comme l'étiquetage terminologique et l'étiquetage des entités nommées. Elles permettraient, selon plusieurs chercheurs, d'obtenir des règles d'EI plus expressives, plus génériques et plus performantes. Après avoir montré dans le chapitre 6 l'intérêt de ces informations dans l'expressivité et la généricité des règles, nous nous intéressons dans cette section à leur effet sur les performances des règles d'EI. Les informations que nous considérons sont linguistiques et comprennent la lemmatisation et l'étiquetage morpho-syntaxique. 8.2.1 Cas d'usage 1 : apprentissage des habitats de bactéries Dans le cadre de la sous-tâche 1 du BB BioNLP-ST 2013 (Bossy et al., 2013) dont le but est de détecter, dans le texte, les habitats de bactéries et leur associer une ou plusieurs catégories à partir de l'ontologie OntoBiotope 1 fournie pour la tâche, nous avons tenté d'apprendre directement les catégories d'habitats de bactéries à partir du texte en utilisant différentes versions de notre algorithme WHISKR Ext . Deux expériences ont été réalisées dans ce contexte. Expérience 1 Nous avons entraîné, dans cette expérience, quelques versions de notre algorithme WHISKR Ext (WHISKLem , WHISKPos , WHISKMotLem , WHISKMotPos , WHISKLemPos et WHISKMotLemPos ) sur les catégories qui disposent de 3 exemples ou plus, c'est 1. http://bibliome.jouy.inra.fr/MEM-OntoBiotope/OntoBiotope_BioNLP-ST13.obo 8.2. Rôle des informations linguistiques dans les performances des règles 145 à dire sur 634 exemples parmi les 948 exemples des données d'entraînement. Ces catégories comptent pour 308 occurrences parmi les 626 annotations de référence dans les données de développement. Par conséquent, la valeur de rappel maximale (colonne R dans la table 8.1) que notre algorithme peut atteindre ne peut pas dépasser 49%. Les versions de WHISKR Ext qui utilisent un contexte d'apprentissage réduit à la phrase et celles qui permettent d'apprendre sur un corpus réduit ne sont pas considérées dans cette section. Elles font l'objet d'une autre expérience qui figure dans la section 8.3. La table 8.1 montre les résultats donnés par les différentes versions de WHISKR Ext utilisées (sur les données de développement) en considérant différentes combinaisons de traits linguistiques (Expression exacte des mots (Mot), lemme (Lem), postag (Pos)), comparés à ceux donnés par la version initiale de WHISKR (première ligne). La colonne vp correspond au nombre d'annotations de catégories d'habitats prédites correctement dans le corpus de développement (si un habitat est prédit avec la mauvaise catégorie, il est considéré comme une mauvaise prédiction). La colonne Nb de règles représente le nombre total de règles d'EI construites sur le corpus d'entraînement. Version de WHISKR Ext WHISKMot (initial) WHISKLem WHISKPos WHISKMotLem WHISKMotPos WHISKLemPos WHISKMotLemPos Nb de règles 291 273 83 269 277 266 267 vp 160 156 0 174 164 178 180 P 78% 76% 0% 75% 78% 78% 77% R 26% 25% 0% 28% 26% 28% 29% F 38% 37% 0% 41% 38% 42% 42% R3 52% 51% 0% 56% 53% 58% 58% F3 62% 61% 0% 64% 63% 66% 66% Table 8.1 – Performances de certaines versions de WHISKR Ext sur les données de développement. vp correspond au nombre d'annotations de catégories d'habitats prédites correctement dans le corpus de développement. P, R et F correspondent respectivement aux valeurs de précision, rappel et F-mesure sur les données de développement et R3 et F3 correspondent aux valeurs de rappel et F-mesure pour les catégories sur lesquelles les différentes versions de WHISKR Ext utilisées ont été entraînées. Il est important de mentionner que P, R et F sont utiles pour avoir une idée sur le comportement de l'algorithme sur d'autres données de test. Cependant, P, R3 et F3 permettent de mieux évaluer les performanaces des différentes versions de l'algorithme. En effet, comme P, R3 et F3 concernent uniquement les catégories sur lesquelles l'algorithme a été entraîné (catégories qui sont représentées par au moins 3 exemples), la valeur maximale que R3 peut atteindre est 1 et non 0.49 comme pour R. Nous pouvons remarquer à partir de la table 8.1 que l'utilisation de WHISKLem n'améliore pas les performances. Au contraire, elle dégrade les résultats (61% de Fmesure contre 62% pour WHISKMot ). En effet, l'apprentissage des catégories d'ha- 146 Chapitre 8. Expérimentations bitats de bactéries de manière indépendante implique que chaque catégorie dispose de peu d'exemples d'apprentissage (3 exemples pour la plupart d'entre elles). Ceci explique l'incapacité de WHISKLem de généraliser sur ces exemples. Prenons un exemple concret : pour la catégorie MBTO:00001188 représentée par 5 exemples (leaves, leaves, citrus leaf, leaf, leaf ) dans les données d'entraînement, WHISKMot obtient 67% de F-mesure et donne les règles suivantes : 1-Token{REGEXP("leaves")->MARKONCE(MBTO00001188)}; 2-Token{->MARKONCE(MBTO00001188, 1, 2)} Token Token{REGEXP("miner")}; 3-Token{REGEXP("oryzae")} # Token{REGEXP("leaf")->MARKONCE(MBTO00001188)}; WHISKLem donne, en revanche, uniquement la règle Token{->MARKONCE(MBTO00001188,1,2)} Token Token{FEATURE("lemma","miner")}; Cette règle couvre uniquement l'exemple citrus leaf. En effet, en essayant de couvrir les 4 autres exemples, WHISKLem trouve la règle suivante : Token{FEATURE("lemma","leaf")->MARKONCE(MBTO00001188)}; Cette règle couvre bien les 4 autres exemples mais couvre aussi le mot leaf dans l'exemple citrus leaf, ce qui est une erreur. L'algorithme essaie donc d'étendre cette règle. Voici la trace de l'extension de cette règle. L'algorithme trouve 6 extensions possibles qui ne font pas d'erreurs (n = 0) sur les données d'entraînement mais ne les garde pas car elles sont plus mauvaises que la règle de départ selon la fonction de préférence de l'algorithme (Laplacien). La meilleure extension que l'algorithme retient est donc : Token # Token{FEATURE("lemma","leaf")->MARKONCE(MBTO00001188)}; 8.2. Rôle des informations linguistiques dans les performances des règles 147 Comme cette règle a les mêmes performances que la règle de départ qui ne peut être acceptée à cause de son score qui dépasse la limite autorisée (Laplacien>0.1), elle n'est pas gardée. Par conséquent, l'algorithme ne garde aucune règle pour les 4 exemples dont le lemme est leaf. L'unique règle qu'il garde (pour le 5eme exemple) n'a aucune correspondance dans les données de développement. WHISKLem obtient donc 0% de F-mesure pour la catégorie MBTO:00001188. Pour d'autres catégories qui disposent de plus d'exemples d'entraînement, l'algorithme WHISKLem obtient de meilleurs résultats (pour MBTO:00001402 (74 exemples d'apprentissage), il obtient 94% de F-mesure contre 91% pour WHISKMot ). Les règles résultant de WHISKPos sont souvent trop générales. Elles font, par conséquent, beaucoup d'erreurs. En essayant de les étendre, elles deviennent trop spécifiques et font du surapprentissage. Ce sont les raisons pour lesquelles ces règles obtiennent de très mauvais résultats. Les règles basées uniquement sur des informations d'étiquetage morpho-syntaxique ne peuvent en aucun cas être utilisées dans nos tâches d'EI. Nous pouvons également remarquer à partir de la table 8.1 que le fait de combiner deux traits linguistiques ou plus améliore les résultats. Les meilleures performances ont été atteintes par WHISKLemPos qui a augmenté la F-mesure de 4 points. Dans le cadre de notre participation à la la sous-tâche 1 du BB BioNLP-ST 2013 (Bossy et al., 2013), nous avons mis en place une approche d'annotation sémantique au regard d'ontologies qui combine une méthode de projection d'une ontologie et un algorithme d'apprentissage de règles d'EI (Bannour, Audibert, & Soldano, 2013). Cette approche dans laquelle nous avons utilisé l'algorithme WHISKMot comme algorithme d'apprentissage de règles nous a permis d'être classés premiers sur cette tâche 2 . Le fait de remplacer WHISKMot par WHISKLemPos dans cette approche nous a permis d'améliorer davantage les résultats en diminuant la mesure SER sur laquelle les participants ont été évalués de 4.5 points. Si nous prenons le même exemple précédent, nous remarquons que le fait d'ajouter les étiquettes morpho-syntaxiques a permis à WHISKLemPos d'obtenir 71% de F-mesure (contre 0% pour WHISKLem ). Les règles apprises par WHISKLemPos sont les suivantes : 1-Token{FEATURE("postag","VBP")} # Token{FEATURE("lemma","leaf") ->MARKONCE(MBTO00001188)}; 2-Token{FEATURE("postag","VBG")} # Token{FEATURE("lemma","leaf") ->MARKONCE(MBTO00001188)}; 3-Token{->MARKONCE(MBTO00001188,1,2)} Token Token{FEATURE("lemma","miner")}; Les deux premières règles sont, en effet, deux extensions de l'ancienne règle non prise : Token{FEATURE("lemma","leaf")->MARKONCE(MBTO00001188)}; Elles ont été gardées car leurs scores (selon la fonction de préférence de l'algorithme) sont meilleurs que la règle initiale. 2. http://2013.bionlp-st.org/tasks/bacteria-biotopes 148 Chapitre 8. Expérimentations Nous pouvons aussi remarquer à partir de la table 8.1 que la lemmatisation permet d'obtenir des règles génériques et donc de réduire le nombre total des règles inférées par l'algorithme d'apprentissage de règles. WHISKLem induit 18 règles de moins que WHISKMot qui représente la version la plus précise (78% de précision) et aussi celle qui induit le nombre le plus élevé de règles. Pour la même précision que WHISKMot , WHISKLemPos infère moins de règles (25 règles de moins que WHISKMot ). Nous notons également que le fait de combiner les étiquettes morphosyntaxiques à une autre information linguistique permet d'améliorer la généricité des règles et réduit par conséquent le nombre total de règles induites. WHISKMotPos infère 14 règles de moins que WHISKMot et WHISKLemPos infère 7 règles de moins que WHISKLem . La figure 8.1 montre les valeurs de précision et de rappel obtenues par l'algorithme WHISKLemPos en fonction du nombre d'exemples d'entraînement. Figure 8.1 – Précision et rappel de WHISKLemPos en fontion du nombre d'exemples d'entraînement. Ces valeurs sont très bruitées. Afin de pouvoir schématiser leurs courbes d'estimation, nous avons harmonisé les données en utilisant la méthode statistique LOESS (Cleveland, 1979). Nous pouvons observer à partir des courbes que WHISKLemPos atteint de bonnes valeurs de précision et de rappel en dessus de 40 exemples. Malheureusement, les données d'entraînement contiennent une seule catégorie avec plus de 40 exemples et le nombre moyen d'exemples pour les catégories qui disposent de plus de 3 exemples est 7.5. Ceci explique, en effet, pourquoi le rappel (R3 ) n'est pas élevé dans la table 8.1. Cette première expérience a, en effet, été réalisée en suivant une méthode de validation simple étant donné que l'apprentissage s'est fait sur une partie (>60%) du corpus total (corpus d'entraînement) et le test sur le reste du corpus (corpus de développement). Pour confirmer ces résultats, nous avons réalisé une deuxième expérimentation. 8.2. Rôle des informations linguistiques dans les performances des règles 149 Expérience 2 Contrairement à la première expérience où il s'agissait d'apprendre les catégories d'habitats de bactéries une par une, cette deuxième expérience vise l'apprentissage du concept générique Habitat en considérant uniquement les habitats de bactéries dont les catégories sont représentées par au moins 20 exemples dans le texte (471 parmi 948 exemples) aussi bien dans l'apprentissage que dans le test (d'où les mentions R20 et F20 pour le rappel et la F-mesure dans la table 8.2). Sont évalués dans cette deuxième expérience les versions de WHISKR Ext suivantes : WHISKMot , WHISKLem , WHISKLemPos et WHISKMotLemPos . Pour pouvoir apprendre sur la totalité des exemples d'apprentissage, nous avons utilisé un processus de validation croisée 10 fois. La validation croisée 10 fois consiste à diviser le copus total en 10 échantillons, sélectionner un des 10 échantillons comme ensemble de test et utiliser les 9 échantillons qui restent comme ensemble d'apprentissage. Cette opération est répétée 10 fois pour que chaque échantillon soit utilisé une fois comme ensemble de test. Les performances sont calculées en faisant la moyenne des performances obtenues lors des 10 tests. La table 8.2 représente les performances moyennes résultant de cette deuxième expérience réalisée. Version de WHISKR Ext WHISKMot (initial) WHISKLem WHISKLemPos WHISKMotLemPos Nombre de règles 97.5 96.1 95.2 96.9 vp 29.2 30 30 31.6 P 85% 85% 85% 84% R20 62% 64% 64% 67% F20 71% 73% 73% 75% Table 8.2 – Performances de WHISKMot , WHISKLem , WHISKLemPos et WHISKMotLemPos . vp correspond au nombre d'annotations d'habitats prédites correctement dans le corpus de développement. P correspond à la valeur de précision sur les données de développement et R20 et F20 correspondent respectivement aux valeurs de rappel et F-mesure pour les catégories sur lesquelles les différentes versions de WHISKR Ext utilisées ont été entraînées. Nous remarquons d'après cette expérience que le problème de WHISKLem rencontré lors de la première expérience a été résolu dans la mesure où on dispose d'au moins 20 exemples pour chaque catégorie d'habitat de bactéries considérée dans l'ensemble d'apprentissage. Il obtient les mêmes performances que WHISKLemPos . La différence entre les performances de WHISKMot et celles de WHISKLemPos , en revanche, n'est plus aussi claire que dans la première expérience. Même si F20 de WHISKLemPos reste un peu supérieure à celle de WHISKMot , nous ne pouvons pas dire que WHISKLemPos est meilleur que WHISKMot . Un t-test qui montre que la différence de F-mesure entre les deux algorithmes à un degré de confiance égal à 90% n'est pas significative. En effet, pour les catégories bien représentées dans le corpus (disposant d'au moins 20 exemples), toutes les versions de WHISKR Ext fonctionnent correctement, ce qui explique leurs performances proches. Elles induisent également presque le même nombre de règles. 150 8.2.2 Chapitre 8. Expérimentations Cas d'usage 2 : désambiguïsation lexicale La désambiguïsation lexicale est la tâche qui consiste à choisir la bonne significaion d'un mot polysémique dans un contexte donné. Nous considérons, dans ce travail, que la désambiguïsation lexicale peut être une tâche particulière d'EI. En effet, il s'agit de repérer, dans le texte, un seul mot mais qui peut avoir plusieurs sens. Pour un mot donné, nous cherchons à annoter uniquement le sens (lexie) majoritaire. Ceci constitue un défi pour un algorithme d'EI car plusieurs contre exemples s'expriment de la même manière que les exemples d'apprentissage, ce qui rend la tâche d'apprentissage plus délicate. La table 8.3 donne quelques statistiques sur les deux mots du corpus SyntSem sur lesquels portent nos expérimentations. Mot Compagnie Organe Nombre de lexies 12 6 Nombre total d'exemples 412 366 Nombre d'exemples de la lexie majoritaire 294 140 Table 8.3 – Statistiques sur les mots à extraire. - Compagnie : il s'agit d'annoter dans le texte 294 parmi 412 occurrences du mot « compagnie » dont le sens est décrit dans la figure 8.2. Figure 8.2 – Lexie majoritaire du mot « compagnie ». - Organe : il s'agit d'annoter dans le texte 140 parmi 366 occurrences du mot « organe » dont le sens est décrit dans la figure 8.3. Nous réalisons donc deux expérimentations : la première a comme but l'apprentissage de la lexie majoritaire du mot « compagnie » et la deuxième vise l'apprentissage de la lexie majoritaire du mot « organe ». Les deux expérimentations sont effectuées en suivant un processus de validation croisée 10 fois pour les versions suivantes de WHISKR Ext : WHISKMot (initial), WHISKLem , WHISKPos , WHISKMotLem , WHISKMotPos , WHISKLemPos et WHISKMotLemPos . Les tables 8.4 et 8.5 présentent les performances moyennes obtenues respectivement dans la première et la deuxième expérimentation. Dans la première expérimentation où il s'agit de reconnaître la lexie majoritaire du mot « compagnie » représentée par 71% du nombre d'exemples qui représentent 8.2. Rôle des informations linguistiques dans les performances des règles 151 Figure 8.3 – Lexie majoritaire du mot « organe ». Version de WHISKR Ext WHISKMot (initial) WHISKLem WHISKPos WHISKMotLem WHISKMotPos WHISKLemPos WHISKMotLemPos Nombre de règles 41.1 40 125 34.1 32 27.6 27.9 vp 25.2 26.9 2.9 26.7 26 28.1 27.7 P 89% 79% 25% 83% 88% 84% 85% R 85% 91% 1% 91% 89% 96% 94% F 86% 83% 14% 86% 87% 88% 88% Table 8.4 – Performances moyennes des versions de WHISKR Ext utilisées dans la tâche d'apprentissage de la lexie majoritaire du mot « compagnie ». vp correspond au nombre moyen d'annotations prédites correctement dans le corpus de test. P, R et F correspondent respectivement aux valeurs moyennes de précision, rappel et F-mesure sur les données de test. Version de WHISKR Ext WHISKMot (initial) WHISKLem WHISKPos WHISKMotLem WHISKMotPos WHISKLemPos WHISKMotLemPos Nombre de règles 58.4 51.8 71.5 54.1 56.4 51.1 55.8 vp 6.1 6.2 0.5 7.5 6.7 7.8 7.2 P 71% 72% 11% 67% 66% 69% 66% R 53% 54% 4% 63% 53% 66% 75% F 50% 52% 5% 54% 50% 60% 63% Table 8.5 – Performances moyennes des versions de WHISKR Ext utilisées dans la tâche d'apprentissage de la lexie majoritaire du mot « organe ». vp correspond au nombre moyen d'annotations prédites correctement dans le corpus de test. P, R et F correspondent respectivement aux valeurs moyennes de précision, rappel et F-mesure sur les données de test. 152 Chapitre 8. Expérimentations le concept en général, conformément aux résultats des expérimentations sur l'apprentissage des habitats de bactéries, les différentes versions étendues de WHISKR se comportent de la même manière et WHISKLemPos obtient la meilleure F-mesure (à égalité avec WHISKMotLemPos ) même si elle ne dépasse celle de WHISKMot que de deux points en F-mesure. Pour vérifier si ces résultats sont significatifs, nous avons calculé les scores t-test relatifs à la F-mesure (paired t-test) pour pouvoir comparer deux à deux entre elles les différentes versions de WHISKR Ext testées. Le t-test révèle, dans la première expérimentation, les assertions suivantes : - WHISKPos est moins performant que toutes les autres versions de WHISKR Ext testées avec un niveau de confiance égal à 100% ; - WHISKMot est plus performant que WHISKLem avec un niveau de confiance égal à 90% ; - WHISKLemPos est plus performant que WHISKLem avec un niveau de confiance égal à 90%. Dans la deuxième expérimentation où il s'agit de reconnaître la lexie majoritaire du mot « organe » représentée par 38% du nombre d'exemples qui représentent le concept en général, en revanche, les différents algorithmes testés peinent à distinguer la lexie majoritaire du mot « organe » des autres lexies, ce qui explique les valeurs relativement faibles de F-mesure (63% au meilleur des cas obtenue par WHISKMotLemPos ). Même si WHISKLemPos n'obtient pas les meilleures performances dans cette expérimentation, il dépasse largement WHISKMot (10 points de plus en F-mesure). Le t-test relatif à la F-mesure réalisé également pour cette deuxième expérimentation, révèle les assertions suivantes : - WHISKPos est moins performant que toutes les autres versions de WHISKR Ext testées avec un niveau de confiance égal à 100% ; - à part WHISKLemPos , WHISKMotLemPos est meilleur que toutes les autres versions de WHISKR Ext testées avec un niveau de confiance supérieur à 90%. Concernant le nombre de règles inférées, WHISKLemPos induit le moins de règles respectivement dans les expérimentations 1 et 2 avec respectivement environ 14 règles et 7 règles de moins que WHISKMot . À part l'élimination de WHISKPos , le calcul des scores t-test dans les deux expérimentations ne donne pas les mêmes conclusions. Nous pouvons remarquer d'après les expérimentations réalisées dans cette section que : - Plus on ajoute des traits linguistiques aux règles, plus elles sont générales (meilleur rappel) et plus elles sont performantes par conséquent (meilleure F-mesure). - WHISKLemPos a toujours un rappel nettement supérieur à celui de WHISKMot à valeurs de précision proches, ce qui fait de lui la bonne version de WHISKR Ext à utiliser quand on cherche à privilégier le rappel. - WHISKMot obtient les meilleures valeurs de précision, ce qui fait de lui la bonne version de WHISKR Ext quand on cherche à privilégier la précision. Ceci est compréhensible car WHISKMot cherche les formes exactes des mots à extraire, ce qui diminue le risque d'erreur. 8.3. Évaluation du gain en temps d'apprentissage 8.3 153 Réduction de la fenêtre de contexte à la phrase et apprentissage sur un corpus réduit : évaluation du gain en temps d'apprentissage De nos jours, on parle moins du facteur temps dans l'évaluation des algorithmes d'apprentissage car le matériel informatique évolue tellement rapidement (loi de Moore) que les problèmes de lenteur diagnostiqués aujourd'hui ne le seront plus dans quelques années. Cependant, il est important de mentionner que les algorithmes d'apprentissage de règles peuvent être lents. Cette lenteur est souvent liée au langage dans lequel sont apprises les règles et aux mécanismes d'application/test de ces règles. Le facteur temps d'apprentissage est très important dans notre travail car il s'agit d'un système interactif où l'utilisateur ne devrait pas attendre longtemps la réponse du module d'apprentissage de règles. Comme la rapidité de l'apprentissage de règles dépend surtout du temps mis pour tester les règles (la construction des règles est relativement rapide), il est important que le langage de règles soit optimisé. Le langage Ruta, étant un langage récent, possède encore une grande marge de progression. Les deux dernières versions du langage (2.2.1 et 2.2.0) sont d'ailleurs 3 à 17 fois plus rapides que les premières versions. Les stratégies de réduction de la fenêtre d'apprentissage à la phrase et d'apprentissage sur un corpus réduit que nous avons proposées dans le chapitre 6 pour construire nos règles d'EI permettent, en effet, de réduire davantage et significativement le temps d'apprentissage de règles sans dégrader les performances. Pour évaluer ce gain en temps d'apprentissage, nous avons réalisé les trois expériences suivantes. Expérience 1 : elle consiste à apprendre, dans le corpus BB BioNLP-ST 2013, les habitats de bactéries restreints à ceux dont les catégories sont représentées par au moins 20 exemples (471 exemples en total) en utilisant un processus de validation croisée 10 fois. Pour construire les règles, nous forçons l'algorithme d'apprentissage de règles à utiliser une fenêtre d'apprentissage égale à 5 (fenêtre d'apprentisage par défaut pour l'algorithme WHISKR ). Autrement dit, pour construire son espace de recherche de règles, l'algorithme d'apprentissage peut explorer jusqu'à 5 mots avant et 5 mots après le terme cible à extraire. Expérience 2 : elle consiste à reproduire l'expérience 1 mais en ne gardant dans le fenêtre d'apprentissage que les mots contenus dans la phrase si la fenêtre dépasse la phrase. Expérience 3 : elle consiste à reproduire l'expérience 2 mais au lieu d'apprendre sur tout le corpus d'apprentissage, on apprend uniquement sur les phrases qui contiennent des exemples positifs. Autrement dit, l'algorithme d'apprentissage évalue les règles construites dans son espace de recherche de règles uniquement sur les phrases qui contiennent des exemples positifs. En effet, dans une itération donnée du processus d'apprentissage interactif de règles d'EI, l'utilisateur peut disposer d'un petit ensemble d'apprentissage et ne veut pas que l'algorithme d'apprentissage discrimine le reste des exemples en 154 Chapitre 8. Expérimentations les considérant tous comme négatifs alors qu'ils peuvent contenir des positifs. Dans ce cas, l'une des solutions que nous avons proposées dans le chapitre 6 est l'apprentissage sur un corpus réduit qui comprend uniquement les phrases vues par l'utilisateur. Pour évaluer l'apport de cette stratégie, nous nous positionnons, dans cette expérience, dans le cas où l'utilisateur a annoté toutes les phrases qui contiennent des exemples positifs. Nous avons réalisé ces 3 expériences en utilisant les quatre algorithmes WHISKMot , WHISKLem ,WHISKLemPos et WHISKMotLemPos , leurs versions s'appuyant sur un contexte d'apprentissage réduit à la phrase et leurs versions permettant d'apprendre sur un corpus réduit. Les résultats en termes de temps d'apprentissage, précision, rappel et F-mesure sont notés dans les tables 8.6, 8.7 et 8.8. Notons que les valeurs présentées dans ces tables sont des valeurs moyennes (moyenne des 10 tests réalisés lors du processus de valisation croisée 10 fois). Version de WHISKR Ext WHISKMot (initial) WHISKLem WHISKLemPos WHISKMotLemPos Temps d'apprentissage 05h43m56s 05h36m17s 05h03m58s 07h51m34s P 85% 85% 85% 84% R20 64% 65% 65% 67% F20 72% 73% 73% 75% Table 8.6 – Temps d'apprentissage moyen et performances moyennes de WHISKMot , WHISKLem , WHISKLemPos et MotLemPos dans l'expérience 1. P correspond à la valeur moyenne de précision sur le corpus de test et R20 et F20 correspondent respectivement aux valeurs moyennes de rappel et de F-mesure pour les catégories sur lesquelles les différentes versions de WHISKR Ext utilisées ont été entraînées. Version de WHISKR Ext WHISKMot P (initial) WHISKLem P WHISKLemPos P WHISKMotLemPos P Temps d'apprentissage 05h03m36s 04h21m39s 04h29m28s 06h40m40s P 85% 85% 85% 84% R20 62% 64% 64% 67% F20 71% 73% 73% 75% Table 8.7 – Temps d'apprentissage moyen et performances moyennes de WHISKMot P , WHISKLem P , WHISKLemPos P et MotLemPos P dans l'expérience 2. P correspond à la valeur moyenne de précision sur le corpus de test et R20 et F20 correspondent respectivement aux valeurs moyennes de rappel et de F-mesure pour les catégories sur lesquelles les différentes versions de WHISKR Ext utilisées ont été entraînées. Nous observons un léger gain dans le temps d'apprentissage entre l'expérience 1 (table 8.6) et l'expérience 2 (table 8.7). Ce gain est évalué à 15% en moyenne (voir colonne GTA dans la table 8.9) et s'accompagne d'un maintien des mêmes performances. En effet, même si les valeurs de rappel baissent légèrement, ce qui est tout à fait compréhensible étant donné qu'on réduit l'espace de recherche de règles 155 8.3. Évaluation du gain en temps d'apprentissage Version de WHISKR Ext WHISKMot CR (initial) WHISKLem CR WHISKLemPos CR WHISKMotLemPos CR Temps d'apprentissage 00h49m05s 00h45m46s 00h57m09s 01h28m33s P 79% 78% 78% 76% R20 68% 70% 70% 71% F20 72% 73% 73% 73% Table 8.8 – Temps d'apprentissage moyen et performances moyennes de WHISKMot CR , WHISKLem CR , WHISKLemPos CR et MotLemPos CR dans l'expérience 3. P correspond à la valeur moyenne de précision sur le corpus de test et R20 et F20 correspondent respectivement aux valeurs moyennes de rappel et de F-mesure pour les catégories sur lesquelles les différentes versions de WHISKR Ext utilisées ont été entraînées. en réduisant la fenêtre d'apprentissage, cette faible baisse n'affecte pas la F-mesure qui reste pratiquement inchangée. Version de WHISKR Ext WHISKMot P (initial) WHISKLem P WHISKLemPos P WHISKMotLemPos P Moyenne GTA/expérience 1 11.73% 22.19% 11.35% 15.03% 15.07% Table 8.9 – Gain en temps d'apprentissage (GTA) dans l'expérience 2 par rapport à l'expérience 1 pour les algorithmes WHISKMot P , WHISKLem P , WHISKLemPos P et WHISKMotLemPos P . Concernant le corpus BB BioNLP-ST 2013 qui contient 1466 phrases dont 340 contiennent des exemples concernés par les expériences 1, 2 et 3, nous pouvons dire qu'en apprenant, dans l'expérience 3, sur uniquement 23% des phrases du corpus, nous avons pu gagner environ 84% en temps d'apprentissage par rapport à l'expérience 1, ce qui constitue un gain considérable d'autant que la F-mesure reste inchangée. Cette expérience a permis, en effet, de rééquilibrer les valeurs de précision et de rappel sans perdre en F-mesure. La précision a baissé, en moyenne, d'environ 7 points. Ceci s'explique par le fait qu'en évaluant ses règles sur un échantillon du corpus, l'algorithme d'apprentissage ignore les exemples négatifs que ces dernières peuvent couvrir, d'où le manque de précision de ces règles. Le rappel, en revanche, s'est élevé, en moyenne, de 6 points. En effet, comme WHISK commence par les règles les plus générales pour les spécifier par la suite, les règles construites sur un petit échantillon du corpus ont tendance a être génériques car elles font peu d'erreurs sur cet échantillon. 156 Chapitre 8. Expérimentations Version de WHISKR Ext WHISKMot CR (initial) WHISKLem CR WHISKLemPos CR WHISKMotLemPos CR Moyenne GTA/expérience 1 85.73% 86.39% 81.20% 81.22% 83.63% GTA/expérience 2 83.83% 82.51% 78.79% 77.90% 80.76% Table 8.10 – Gain en temps d'apprentissage (GTA) dans l'expérience 3 par rapport aux expériences 1 et 2 pour les algorithmes WHISKMot CR , WHISKLem CR , WHISKLemPos CR et WHISKLemPos CR . 8.4 Apports des modules d'apprentissage actif proposés L'apprentissage actif est le pilier de notre approche interactive car pour réduire au maximum l'effort humain dans une telle approche, l'utilisateur doit être guidé notamment dans le choix des exemples à annoter pour ne pas avoir à annoter tout le corpus. Nous avons donc proposé, dans le chapitre 6, deux modules d'apprentissage actif (IAL4Sets et IAL3Sets) qui étendent le module interactif proposé dans la conception de base de l'algorithme WHISK. 8.4.1 Comparaison des modules IAL4Sets, IAL3Sets et Baseline Pour évaluer l'apport de nos modules par rapport à celui de WHISK (nous avons implémenté le module interactif de base dans WHISKR et l'avons considéré comme Baseline), nous avons réalisé une expérience qui consiste à apprendre, dans le corpus BB BioNLP-ST 2013, les habitats de bactéries restreints à ceux dont les catégories sont représentées par au moins 20 exemples (471 exemples en total) en utilisant un processus de validation croisée 10 fois. L'apprentissage se fait de manière progressive et itérative. À chaque itération, les actions suivantes sont exécutées : - Apprentissage sur les phrases contenant des exemples annotés positivement (corpus réduit) ; - Application des règles inférées sur le corpus d'apprentissage pour construire l'ensemble des exemples à annoter. Ces exemples sont ensuite proposés à l'utilisateur (oracle) ; - Annotation des exemples proposés et mise à jour des phrases contenant des exemples annotés positivement ; Ces actions sont répétées autant de fois que l'utilisateur le souhaite. À chaque itération, les performances d'apprentissage sont calculées sur le corpus de test. L'utilisateur met généralement fin au processus quand les performances deviennent stationnaires. Pour construire les règles, nous paramétrons l'algorithme d'apprentissage de règles de manière à utiliser une fenêtre d'apprentissage égale à 5 (fenêtre d'appren- 8.4. Apports des modules d'apprentissage actif proposés 157 tisage par défaut pour l'algorithme WHISKR ) mais en ne gardant dans le fenêtre d'apprentissage que les mots contenus dans la phrase si la fenêtre dépasse la phrase. Nous menons cette expérience sur WHISKMot CR et WHISKLemPos CR . Chacun de ces algorithmes a été testé à la fois avec nos modules d'apprentissage actif (IAL4Sets et IAL3Sets) et celui de base (Baseline). Pour pouvoir comparer nos modules d'apprentissage actif à celui de base, nous les obligeons, à chaque test élémentaire (parmi les 10 tests du processus de validation croisée 10 fois), à démarrer avec le même ensemble d'apprentissage de départ, et ceci pour tous les algorithmes d'apprentissage testés. Les 3 modules d'apprentissage actif ont été testés sur 200 itérations en proposant, à chaque itération, à l'utilisateur 25 exemples à annoter. Ceci correspond au total à 5000 exemples proposés à l'utilisateur à partir d'un corpus d'entrée qui compte 29466 mots. À partir des résultats de cette expérience, nous avons réalisé, pour chaque algorithme d'apprentissage de règles testé, deux figures : - une figure qui représente les performances (précision, rappel et F-mesure) de l'algorithme d'apprentissage concerné en fonction du nombre d'exemples à annoter proposés à l'utilisateur, à chaque fois, par l'un des modules d'apprentissage actif (Baseline, IAL4Sets et IAL3Sets) (voir figures 8.4 et 8.5) ; - une figure qui présente le nombre d'exemples positifs annotés en fonction du nombre d'exemples proposés à l'utilisateur, à chaque fois, par l'un des modules d'apprentissage actif (Baseline, IAL4Sets et IAL3Sets) (voir figures 8.6 et 8.7). Nous remarquons d'après les courbes 8.4 et 8.5 que quelque soit la version de WHISKR Ext utilisée, nos deux modules d'apprentissage actif obtiennent des performances meilleures que le module Baseline. Tout en ayant des valeurs de précision presque égales, les modules IAL3Sets et IAL4Sets obtiennent des valeurs de rappel significativement plus élevées que celles du module Baseline entrainant des valeurs plus élevées de F-mesure également. Considérons, par exemple, la figure 8.5 qui présente les performances obtenues par l'algorithme WHISKLemPos CR . Au bout de 5000 exemples proposés à l'utilisateur, le module d'apprentissage actif Baseline obtient une valeur de rappel égale à 0.66, une valeur que notre module IAL3Sets atteint uniquement au bout de 2925 exemples proposés à l'utilisateur. Ceci montre que IAL3Sets converge de manière significativement plus rapide que le Baseline. Au bout de 5000 exemples proposés à l'utilisateur, IAL3Sets atteint une valeur de rappel égale à 0.71. Ces constatations se confirment dans les figures 8.6 et 8.7. Par exemple, dans la figure 8.7 qui représente le nombre d'exemples positifs couverts par l'algorithme d'apprentissage WHISKLemPos en fonction des exemples proposés par les modules d'apprentissage actif Baseline, IAL3Sets et IAL4Sets, Baseline arrive à couvrir, en moyenne, 320 exemples positifs au bout de 5000 exemples proposés à l'utilisateur. Ce nombre d'exemples positifs est couvert par le module IAL3Sets seulement au bout de 2850 exemples proposés à l'utilisateur. En proposant à l'utilisateur 5000 exemples, IAL3Sets couvre, en revanche, en moyenne 349 exemples, ce qui correspond à environ 82% des exemples qui peuvent être couverts (424 exemples peuvent être couverts dans l'ensemble d'apprentissage). Ce nombre d'exemples positifs couverts dans l'ensemble d'apprentissage permet d'obtenir, en moyenne, une valeur de 158 Chapitre 8. Expérimentations Figure 8.4 – Précision, rappel et F-mesure de WHISKMot CR en fonction du nombre d'exemples proposés à l'utilisateur par les modules d'apprentissage actif Baseline, IAL4Sets et IAL3Sets. 8.4. Apports des modules d'apprentissage actif proposés 159 Figure 8.5 – Précision, rappel et F-mesure de WHISKLemPos CR en fonction du nombre d'exemples proposés à l'utilisateur par les modules d'apprentissage actif Baseline, IAL4Sets et IAL3Sets. 160 Chapitre 8. Expérimentations Figure 8.6 – Nombre d'exemples positifs couverts par WHISKMot CR en fonction du nombre d'exemples proposés à l'utilisateur par les modules d'apprentissage actif Baseline, IAL4Sets et IAL3Sets. Figure 8.7 – Nombre d'exemples positifs couverts par WHISKLemPos CR en fonction du nombre d'exemples proposés à l'utilisateur par les modules d'apprentissage actif Baseline, IAL4Sets et IAL3Sets. 8.4. Apports des modules d'apprentissage actif proposés 161 rappel égale à 0.71, une valeur de précision égale à 0.82 et une valeur de F-mesure égale à 0.76 (voir figure 8.5) sur l'ensemble de test. Sachant que les valeurs de précision, rappel et F-mesure moyennes obtenues par WHISKLemPos dans les expériences 2 et 3 décrites dans la section précédente sont les suivantes. - Expérience 2 : précision = 0.85 ; rappel = 0.64 ; F-mesure = 0.73 - Expérience 3 : précision = 0.78 ; rappel = 0.70 ; F-mesure = 0.73 nous pouvons remarquer que WHISKLemPos CR utilisé dans le cadre de l'apprentissage actif assuré par le module IAL4Sets où il ne s'agit ni d'apprendre sur tout le corpus d'apprentissage (expérience 2) ni d'apprendre uniquement sur les phrases qui contiennent des exemples positifs (expérience 3) mais plutôt d'apprendre sur les phrases qui contiennent des exemples annotés par l'utilisateur au fur et à mesure des itérations, obtient une F-mesure meilleure que celles obtenues dans les expériences 2 et 3. Il obtient, en effet, une valeur de précision proche de la meilleure des deux expériences 2 et 3 et une valeur de rappel supérieure à celles obtenues dans les deux expériences. Ce phénomène est aussi vrai pour tous les autres algorithmes et quelque soit le module d'apprentissage actif utilisé. Ceci montre que le fait d'apprendre sur un corpus réduit, permet non seulement, de réduire le temps d'apprentissage mais également d'améliorer les performances : les règles apprises sont plus précises que celles obtenues en apprenant uniquement sur les phrases contenant des exemples positifs (expérience 3) car les phrases sur lesquelles ces règles ont été évaluées sont supérieures, en nombre, à celles contenant des exemples positifs (phrases consultées par l'utilisateur au fur et à mesure des itérations pour annoter les exemples proposés par le module d'apprentissage actif) et plus génériques que celles obtenues en apprenant sur le corpus en entier (expérience 2) car l'algorithme WHISK est un algorithme descendant qui commence par construire la règle la plus générale pour la spécifier par la suite pour corriger les éventuelles erreurs de la règle. Comme les règles construites sur un échantillon du corpus font moins d'erreurs, les règles gardées sur cet échantillon sont plus génériques que celles qui auraient été gardées pour tout le corpus. Nous remarquons également à partir des figures 8.4, 8.5, 8.6 et 8.7 que les courbes corespondant au module IAL3Sets proposé montent plus rapidement au cours des premières itérations et finissent par rejoindre voir descendre sous celles qui correspondent au module IAL4Sets. Si nous regardons, par exemple, la figure 8.7, nous pouvons noter, par exemple, qu'au bout de 1125 exemples proposés à l'utilisateur, IAL3Sets couvre en moyenne 280 exemples positifs alors que IAL4Sets couvre 265 exemples à ce stade. IAL4Sets n'atteint les 280 exemples positifs couverts qu'au bout de 1500 exemples annotés par l'utilisateur. Au bout d'environ 2150 exemples annotés par l'utilisateur, les deux modules couvrent, à 2 ou 3 exemples près, le même nombre d'exemples positifs. Ces résultats peuvent s'expliquer par les faits suivants : - La suppression de l'ensemble R qui représente le reste des exemples du corpus permet de proposer plus d'exemples des 3 autres ensembles, à savoir l'ensemble des exemples couverts par des règles existantes non annotés par l'utilisateur (CnA), l'ensemble des near misses des règles existantes (NM ) et l'ensemble des exemples les plus proches sémantiquement des exemples couverts par des règles existantes (TSEP). Ces trois ensembles permettent de 162 Chapitre 8. Expérimentations retrouver d'une manière rapide les exemples les plus évidents et le fait d'augmenter le nombre d'exemples à annoter parmi ces trois ensembles permet une augmentation plus rapide des performances. - Une fois les exemples les plus triviaux couverts, les exemples les plus rares sont difficiles à trouver dans les trois premiers ensembles. Le fait de supprimer le quatrième ensemble (l'ensemble R), peut entraîner le fait que ces exemples ne soient jamais retrouvés. Ceci peut expliquer les performances les moins bonnes obtenues par IAL3Sets comparées à celles obtenues par IAL4Sets à partir d'un certain seuil. Nous retenons de l'expérimentation menée dans cette section que notre module d'apprentissage IAL4Sets obtient les meilleures performances quelque soit la version de WHISKR Ext utilisée. Ceci est dû à l'ajout de l'ensemble TSEP aux ensembles parmi lesquels le module d'apprentissage actif propose des exemples à annoter à l'utilisateur. 8.4.2 Rôle de l'ensemble TSEP dans l'amélioration de l'apprentissage actif L'ensemble TSEP que nous avons introduit dans nos modules d'apprentissage actif permet d'ajouter un volet sémantique au module Baseline dont la recherche d'exemples se limite à ceux qui ressemblent aux exemples couverts (CnA et NM ) sinon au hasard (R). L'ensemble TSEP permet de récupérer des exemples qui ne ressemblent pas aux exemples couverts mais qui y sont liés par une mesure de similarité distributionnelle que nous avons pris le soin de concevoir, de mettre en place et de tester sur différents scénarios. Prenons un exemple concret qui illustre le rôle de l'ensemble TSEP dans la convergence rapide de l'apprentissage actif. Considérons l'un des tests de l'expérience menée dans la sous section précédente. L'algorithme considéré dans ce test est WHISKLemPos CR et les deux modules d'apprentissage actif à comparer sont Baseline et IAL4Sets. Pour pouvoir interpréter les résultats de ce test, nous appelons nEPC le nombre d'exemples positifs couverts dans l'ensemble d'apprentissage (9 ensembles sur 10 dans le cadre d'une validation croisée 10 fois (424 exemples) dans lesquels l'annotation d'exemples se fait de manière incrémentale). Nous rappelons les notations suivantes. - CnA : ce sont les exemples couverts par les règles existantes et non encore annotés par l'utilisateur. - NM : ce sont les near misses des règles existantes. - TSEP : ce sont les termes similaires aux exemples positifs couverts par les règles existantes. - R : il s'agit du reste des exemples non annotés par l'utilisateur. Nous démarrons l'itération 0 du test avec l'ensemble d'exemples décrit dans la table 8.11. Ces exemples ont été choisis de manière aléatoire parmi l'ensemble total des exemples d'apprentissage. Nous pouvons remarquer d'après ces exemples que le concept Habitat de bactéries s'exprime de manières très différentes dans le corpus. Les performances initiales 163 8.4. Apports des modules d'apprentissage actif proposés person Human Human soil micro-organism micro-organism humans tsetse intestinal 25 nEPC Exemples positifs fournis à l'algorithme d'apprentissage au départ plants intracellular plant intestinal tract opportunistic feeders plants cells microorganisms foodborn cell human human humans human soil cells 48% précision Performances sur le corpus de test rappel 28% 35% F-mesure Table 8.11 – Itération 0 du test. nEPC représente le nombre d'exemples positifs couverts dans l'ensemble d'apprentissage. atteintes par WHISKLemPos CR à partir des 25 exemples sélectionnés correspondent à une valeur de précision égale à 48%, une valeur de rappel égale à 28% et une valeur de F-mesure égale à 35%. Dans les itérations suivantes, l'intervention de l'utilisateur pour annoter les exemples proposés par l'un ou l'autre des modules d'apprentissage actif Baseline et IAL4Sets est simulée. Si un exemple proposé figure dans l'ensemble total des exemples positifs dont nous disposons à l'avance, il est annoté comme positif sinon il est annoté comme négatif. Exemples à annoter Baseline NM R plants B. plant , plant is plants dioxygenases plant therefore plant respiratory humans virulence plant will CnA cells Humans photographs humans soil humans cell similar cell Performances sur le corpus de test nEPC précision rappel F-mesure 38 40% 32% 36% proposés à l'utilisateur IAL4Sets CnA NM TSEP soil cell intestinal tract human plant tsetse cells plant microorganisms species cells Human cells human wall are plant intracellular soil nEPC 36 R ) and are of as the Performances sur le corpus de test précision rappel F-mesure 67% 42% 52% Table 8.12 – Itération 1 du test. nEPC représente le nombre d'exemples positifs couverts dans l'ensemble d'apprentissage. Dans la première itération du test (voir table 8.12), nous remarquons que, pour les deux modules, à part les exemples proposés dans l'ensemble R qui sont tous annotés comme négatifs, les autres exemples sont tous pertinents même s'ils sont annotés comme négatifs. En effet, ces derniers sont des exemples qui ont presque les mêmes expressions que les exemples de départ. Parmi ces exemples, certains sont annotés comme négatifs car ils sont soit des homographes qui ont d'autres sens soit des mots qui s'emploient dans des contextes semblables mais qui sont différents. Ces exemples sont généralement utiles à l'amélioration de la précision des règles existantes. Pour le module IAL4Sets par exemple, la précision passe de 28% à 67%. Le module IAL4Sets obtient des performances meilleures que le module Baseline sur cette première itération même si Baseline couvre plus d'exemples positifs sur le 164 Chapitre 8. Expérimentations corpus d'apprentissage (38 exemples contre 36 exemples pour le module IAL4Sets). Ceci est dû essentiellement au manque de précision de certaines règles construites dans le cadre de Baseline qui font beaucoup d'erreurs (précision égale à 40% sur le corpus de test). En effet, nous remarquons que les exemples positifs introduits dans la première itération par le module Baseline concernent uniquement les formes cell, human, et plant. Les règles construites sur les autres formes se basent majoritairement sur un seul exemple (exemple de départ) d'où le problème de surapprentissage surtout que les règles sont évaluées uniquement sur la portion de corpus consultée par l'utilisateur (très petite aux premières itérations). Les exemples positifs introduits, en revanche, par le module IAL4Sets dans la première itération sont plus variés et concernent plus de formes (soil, human, plant, cell, intestinal tract, microoganism, intracellular) d'où la meilleure précision et le meilleur rappel. Cette variété d'exemples est due essentiellement à leur provenance de trois sources d'exemples pertinents différentes (cnA, NM et TSEP). TSEP fournit des exemples très pertinents aux premières itérations car les termes qui ont les mêmes formes que les exemples positifs couverts se retrouvent en haut des listes des termes les plus similaires à ces derniers. Le groupe d'exemples NM fournit des exemples majoritairement pertinents car des généralisations minimales de règles qui font du surapprentissage permettent de récupérer des exemples pertinents. Exemples à annoter Baseline CnA NM R cell soil about the humans chromosone cell soil of sulfide-rich plant fifth human plant bodies efficient soil proton humans cells . opportunistic pathogens soil and cell Performances sur le corpus de test nEPC précision rappel F-mesure 45 37% 28% 32% proposés à l'utilisateur IAL4Sets CnA NM TSEP humans soil cell wall humans human Burkhorderia plant cell plant intracellular cells human intracellularly cell intestinal intracellular soil tsetse fly target 46 nEPC R from it a which , while Performances sur le corpus de test précision rappel F-mesure 77% 51% 61% Table 8.13 – Itération 2 du test. nEPC représente le nombre d'exemples positifs couverts dans l'ensemble d'apprentissage. Dans l'itération 2 du test (voir table 8.13), nous notons les mêmes phénomènes observés dans la première itération. Toutefois, nous remarquons que le module IAL4Sets commence à proposer, dans l'ensemble TSEP, des exemples qui diffèrent des exemples de départ comme le terme tsetse fly récupéré dans la liste des termes les plus similaires à l'exemple positif tsetse. Ce terme n'a pas été trouvé par le module Baseline au bout de 200 itérations, ce qui confirme nos intuitions par rapport à l'ajout de l'ensemble TSEP. Nous remarquons également que l'écart en performances se creuse davantage entre les deux modules d'apprentissage actif (61% de F-mesure pour notre module IAL4Sets contre 32% pour le module Baseline) car la qualité des exemples proposés par IAL4Sets est meilleure que celle des exemples proposés par Baseline et permet de produire des règles de meilleure qualité qui permettent à leur tour de couvrir des exemples plus pertinents. 8.4. Apports des modules d'apprentissage actif proposés 165 Exemples à annoter proposés à l'utilisateur Baseline IAL4Sets CnA NM R CnA NM TSEP R leading are . diseases effect ( for The Chlorobi sugar Maudlin these an serogroups environment intracellular breakdown of / implicated 91E135 data limited the ability is of / reactions blood since recurrentis evolution a genes catalase of the this contaminating presence extra C. to reduction in cell blood by scolopes year Performances sur le corpus de test Performances sur le corpus de test nEPC précision rappel F-mesure nEPC précision rappel F-mesure 234 96% 49% 65% 239 76% 66% 70% Table 8.14 – Itération 46 du test. nEPC représente le nombre d'exemples positifs couverts dans l'ensemble d'apprentissage. Exemples à annoter proposés à l'utilisateur Baseline IAL4Sets CnA NM R CnA NM TSEP R strains GIT those blood systems blood . organism industry thaliana blood mycobacteria recent or in Detecting . blood auspices type III into of has comparison blood sequences severe ( I : cyanobacterial blood Bordetella polychlorinatred of biphenyl and order BPDOs extra-intestinal as of Marenda times first true insect of endosymbiont of involved a being Performances sur le corpus de test Performances sur le corpus de test nEPC précision rappel F-mesure nEPC précision rappel F-mesure 234 96% 49% 65% 243 76% 66% 70% Table 8.15 – Itération 47 du test. nEPC représente le nombre d'exemples positifs couverts dans l'ensemble d'apprentissage. 166 Chapitre 8. Expérimentations Dans des itérations plus éloignées comme les itérations 46 (voir table 8.14) et 47 (voir table 8.15), nous remarquons que le module Baseline a épuisé tous les exemples qu'il peut proposer dans le cadre des ensembles CnA et NM et compte désormais uniquement sur des exemples tirés au hasard dans l'ensemble R. En effet, tous les exemples couverts par les règles existantes dans l'ensemble d'entraînement, ont été évalués d'où la très bonne précision des règles. Toutefois, la valeur du rappel sur le corpus de test est faible (49%) car Baseline peine à trouver les exemples qui diffèrent des exemples de départ et qui ne peuvent être proposés que dans l'ensemble R. IAL4Sets, en revanche, continue à proposer ce genre d'exemples comme blood dans l'itération 46 qui permettent de construire de nouvelles règles qui couvrent de nouveaux exemples (ensemble CnA dans l'itération 47), ce qui explique la meilleure valeur de rappel (66%). L'exemple blood récupéré dans la liste des termes les plus proches sémantiquement du terme tsetse fly n'a toujours pas été retrouvé par le module Baseline après 200 itérations. C'est également le cas pour l'exemple soil environments récupéré dans la liste des termes les plus proches du terme microorganism (voir table 8.16). Exemples à annoter proposés à l'utilisateur Baseline IAL4Sets CnA NM R CnA NM TSEP R . toward species animal causaive the agents it causes , animals harmless , stomach alkaline reactions , DNA soil environcontains ments capacity T. . genomes sequence penetrating to discovered such establishes acids commonly penicillin homologues of al. cell culture to system as mats the resistance species for resistance . sp. Burkhordelia strains free are This Performances sur le corpus de test Performances sur le corpus de test nEPC précision rappel F-mesure nEPC précision rappel F-mesure 242 96% 49% 65% 260 74% 68% 71% Table 8.16 – Itération 62 du test. nEPC représente le nombre d'exemples positifs couverts dans l'ensemble d'apprentissage. Au bout de 114 itérations (2850 exemples proposés), la tendance ne change pas (voir table 8.17). Autrement dit, l'ensemble TSEP continue à proposer des exemples pertinents (microbial) que le module Baseline ne retrouve pas car il compte uniquement sur le hasard en comptant sur l'ensemble R qui contient beaucoup d'exemples et par conséquent les chances de tirer un exemple positif peu fréquent sont très faibles. En examinant en détail l'ensemble des 200 itérations du test réalisé, nous résumons les statistiques qui en ressortent dans la table 8.18. Au bout de 200 itérations, le module Baseline couvre 290 exemples positifs (68% des exemples positifs qui doivent être couverts) dans l'ensemble d'apprentissage qui compte 424 exemmples contre 322 exemples (76% des exemples positifs qui doivent être couverts) pour le module IAL4Sets. Sans compter les 25 exemples positifs de 167 8.4. Apports des modules d'apprentissage actif proposés Exemples à annoter proposés à l'utilisateur Baseline IAL4Sets CnA NM R CnA NM TSEP R : is economic nitrogen possible be It is , antibiotics IV secretion proteolytic system W. abscessus however sugar representative shown to disease ) structure major in water and A Similarity AB type toxin S. orale curvus also attraction microbial , delivery transport , contrary accompanying the symptoms group strain for products indeed veins , Strain ATCC 35469T Performances sur le corpus de test Performances sur le corpus de test nEPC précision rappel F-mesure nEPC précision rappel F-mesure 252 96% 51% 67% 282 74% 68% 71% Table 8.17 – Itération 114 du test. nEPC représente le nombre d'exemples positifs couverts dans l'ensemble d'apprentissage. Exemples positifs couverts dans l'ensemble d'entraînement Total CnA 129 Baseline NM 122 265 R 14 CnA 186 IAL4Sets NM TSEP 74 37 R 0 297 Table 8.18 – Répartition des exemples positifs couverts dans l'ensemble d'entraînement dans le cadre du test réalisé. départ, ils couvrent respectivement 265 et 297 exemples positifs. Les 32 exemples non couverts par le module Baseline (8% des exemples positifs qui doivent être couverts) sont essentiellement des exemples proposés par l'ensemble TSEP dans le module IAL4Sets comme nous l'avons illustré à travers les différentes itérations du test analysées auparavant. En regardant en détail la répartition des exemples positifs couverts dans l'ensemble d'apprentissage, nous constatons que : - pour le module Baseline, 49% des exemples sont retrouvés par l'ensemble CnA, 46% des exemples sont retrouvés par l'ensemble NM et 5% des exemples sont retrouvés par l'ensemble R ; - pour le module IAL4Sets, 63% des exemples sont retrouvés par l'ensemble CnA, 25% des exemples sont retrouvés par l'ensemble NM, 12% des exemples sont retrouvés par l'ensemble TSEP et 0% des exemples sont retrouvés par l'ensemble R. À première vue, l'ensemble R paraît ne pas contribuer de manière significative dans les résultats obtenus par le module Baseline et pareillement les ensembles R et TSEP pour le module IAL4Sets. Seulement, nous savons qu'un nouvel exemple reconnu dans l'ensemble R ou TSEP permet de construire une nouvelle règle qui couvre de nouveaux exemples ou dont les généralisations minimales couvrent de nouveaux exemples. Autrement dit, certains des exemples retrouvés dans les ensembles CnA ou NM sont en réalité retrouvés par les ensembles R ou TSEP. La comptabilisation de ces exemples nous a permis de dégager de nouvelles statistiques résumées dans la table 8.19. 168 Chapitre 8. Expérimentations Exemples positifs couverts dans l'ensemble d'apprentissage Total CnA 92 Baseline NM 115 265 R 58 CnA 149 IAL4Sets NM TSEP 57 91 R 0 297 Table 8.19 – Vraie répartition des exemples positifs couverts dans l'ensemble d'apprentissage dans le cadre du test réalisé. La répartition des exemples positifs couverts dans l'ensemble d'apprentissage devient donc : - pour le module Baseline, 35% des exemples sont retrouvés par l'ensemble CnA, 43% des exemples sont retrouvés par l'ensemble NM et 22% des exemples sont retrouvés par l'ensemble R ; - pour le module IAL4Sets, 50% des exemples sont retrouvés par l'ensemble CnA, 19% des exemples sont retrouvés par l'ensemble NM, 31% des exemples sont retrouvés par l'ensemble TSEP et 0% des exemples sont retrouvés par l'ensemble R. Nous pouvons constater, d'après les nouveaux chiffres, que l'ensemble R joue un rôle très important dans le module Baseline. Il a permis, dans le cadre du test réalisé, de retrouver plus que le cinquième (22%) de l'ensemble total des exemples positifs couverts. Les exemples retrouvés par l'ensemble R n'auraient pas pu être retrouvés par les ensembles CnA et NM car depuis la 25eme itération, le module Baseline compte uniquement sur les exemples proposés dans l'ensemble R. Pour le module IAL4Sets, l'ensemble TSEP joue un rôle important dans la mesure où il permet de retrouver 31% des exemples positifs couverts alors que l'ensemble R ne permet de trouver aucun exemple. En effet, la plupart des exemples positifs qui doivent normalement figurer dans l'ensemble R se retrouvent dans l'ensemble TSEP car ils sont proches d'exemples positifs déjà couverts d'où la suppression de ces exemples de l'ensemble R. La différence avec le module Baseline réside dans le fait que TSEP permet de retrouver rapidement les exemples non retrouvés dans CnA et NM alors que l'ensemble R dans Baseline s'appuie sur un tirage aléatoire d'exemples qui peut donc nécéssiter la consultation de tous les mots du corpus pour retrouver les exemples non retrouvés par CnA et NM. 8.5 Etude expérimentale de la stabilité des règles Comme nous l'avons déjà mentionné dans les chapitres 5 et 6, la stabilité des règles est un critère très important à considérer dans un système interactif d'apprentissage de règles d'EI afin d'éviter : - Un changement complet de l'ensemble des règles produites par le module d'apprentissage d'une itération à une autre. Un tel changement peut déconcerter l'utilisateur et lui faire perdre le fil de l'évolution de l'ensemble des règles. - La non prise en compte des règles écrites par l'utilisateur par le module d'apprentissage. L'utilisateur juge que certaines règles qu'il écrit sont pertinentes et ne veut pas les voir disparaître dans les itérations qui suivent. 8.5. Etude expérimentale de la stabilité des règles 169 Pour étudier les deux points cités, nous avons réalisés deux expériences qui sont détaillées dans les deux sous sections qui suivent. 8.5.1 Expérience 1 : ajout d'exemples d'apprentissage Cette expérience a pour but de vérifier si l'ajout d'exemples d'apprentissage change ou non complètement l'ancien ensemble de règles. Description Il s'agit toujours d'apprendre, en utilisant l'algorithme WHISKLemPos , les habitats de bactéries dont les catégories possèdent 20 ou plus d'instances dans le corpus BB BioNLP-ST 2013. Seulement, pour des raisons de simplification, nous avons sélectionné 3 textes (voir figures 8.8, 8.9 et 8.10) sur lequels nous avons réalisé les 6 tests suivants. test 1 : apprendre seulement sur Texte 1 test 2 : apprendre seulement sur Texte 2 test 3 : apprendre seulement sur Texte 3 test 1-2 : apprendre sur Texte 1 et Texte 2 test 1-3 : apprendre sur Texte 1 et Texte 3 test 2-3 : apprendre sur Texte 2 et Texte 3 Ces tests ont comme but de vérifier si en apprenant sur une combinaison de corpus d'apprentissage, les règles résultant de l'apprentissage sur chacun des corpus seul se conservent ou pas. Les termes surlignés dans les textes utilisés correspondent à des exemples d'apprentissage positifs. Résultats Les ensembles de règles produits par WHISKLemPos dans le cadre de ces tests figurent respectivement dans les figures 8.11, 8.12, 8.13, 8.14, 8.15 et 8.16. Si nous regardons Texte 1 et Texte 2, nous pouvons remarquer que les seuls exemples dans Texte 2 qui ressemblent à ceux de Texte 1 sont les exemples dont le lemme est animal. Tous les autres exemples représentent de nouvelles formes. Pour assurer la stabilité, par exemple, de l'ensemble des règles produites en apprenant sur Texte 1, nous devons voir des nouvelles règles apparaître pour couvrir les nouvelles formes d'exemples introduites et des modifications mineures sur certaines règles pour couvrir des exemples ressemblant à ceux couverts par ces règles. En examinant les ensembles de règles résultant de l'apprentissage sur Texte 1 (figure 8.11), sur Texte 2 (figure 8.12) et sur Texte 1 et Texte 2 (figure 8.14), nous pouvons constater la stabilité a été assurée car l'ensemble de règles résultant de l'apprentissage sur Texte 1 et Texte 2 est tout simplement une combinaison des deux ensembles résultant de l'apprentissage respectivement sur Texte 1 et Texte 2 avec la mise en facteur de la règle qui permet de couvrir les exemples qui se ressemblent : 170 Chapitre 8. Expérimentations Figure 8.8 – Texte 1. Figure 8.9 – Texte 2. Figure 8.10 – Texte 3. 8.5. Etude expérimentale de la stabilité des règles 171 Figure 8.11 – Règles produites par WHISKLemPos en apprenant sur Texte 1. Figure 8.12 – Règles produites par WHISKLemPos en apprenant sur Texte 2. Figure 8.13 – Règles produites par WHISKLemPos en apprenant sur Texte 3. Figure 8.14 – Règles produites par WHISKLemPos en apprenant sur Texte 1 et Texte 2. Figure 8.15 – Règles produites par WHISKLemPos en apprenant sur Texte 1 et Texte 3. Figure 8.16 – Règles produites par WHISKLemPos en apprenant sur Texte 2 et Texte 3. 172 Chapitre 8. Expérimentations Token{FEATURE("lemma", "animal")->MARKONCE(Habitat)}; Cette règle n'a pas été modifiée car elle permet de couvrir les nouveaux exemples introduits sans faire d'erreurs. Pour l'apprentissage sur Texte 1 (voir figure 8.11), sur Texte 3 (voir figure 8.13) et sur Texte 1 et Texte 3 (voir figure 8.15), nous avons le même scénario avec une petite différence. La règle qui couvre les trois exemples dont le lemme est cell dans Texte 1 et qui est la suivante : Token{FEATURE("lemma", "cell")->MARKONCE(Habitat)}; couvre un exemple négatif dans Texte 3. En apprenant donc sur Texte 1 et Texte 3, cette règle a été remplacée par les deux règles suivantes : 1-Token{FEATURE("lemma","host")} Token{FEATURE("lemma","cell") ->MARKONCE(Habitat)}; 2-Token{FEATURE("lemma", "cell")->MARKONCE(Habitat)} # Token{FEATURE("lemma", "pathway")}; Ces deux règles sont des spécifications de l'ancienne règle. Elles gardent le même contenu et y ajoutent un élément de contexte gauche pour la première et un élément de contexte droite pour la deuxième. Autrement dit, il n'y a pas de modification majeure dans l'ensemble de règles. Nous pouvons donc conclure que la stabilité a aussi été assurée pour ces tests. Pour les règles résultant de l'apprentissage sur Texte 2 (figure 8.12), sur Texte 3 (figure 8.13) et sur Texte 2 et Texte 3 (figure 8.16), la stabilité est assurée exactement de la même manière que pour les tests d'apprentissage sur Texte 1, sur Texte 2 et sur Texte 1 et Texte 2. 8.5.2 Expérience 2 : écriture de règles Dans un système interactif d'apprentissage de règles d'EI, l'utilisateur est amené à écrire des règles pour deux buts différents : - Chercher des exemples dans le texte. On parle, dans ce cas, de règles prospectives. - Enrichir ou modifier l'ensemble de règles. Les règles écrites, dans ce cas, par l'utilisateur sont jugées assez pertinentes par ce dernier et souhaite que le module d'apprentissage les conserve si elles font leurs preuves ou les améliore sans pour autant les supprimer si elles font des erreurs. Nous nous intéressons bien évidemment, dans cette section, au deuxième type de règles. Description Le test que nous effectuons dans le cadre de cette expérience consiste à demander à un utilisateur qui a un minimum de connaissances en termes de biotopes de bactéries, d'énoncer des règles qui lui semblent évidentes que nous traduisons en 8.5. Etude expérimentale de la stabilité des règles 173 langage Ruta. Pour imposer le moins possible de contraintes, nous avons donné la liberté à l'utilisateur d'utiliser n'importe quelles formes de mots (expressions exactes, lemmes, étiquettes morpho-syntaxiques). Nous vérifions par la suite l'existence de ces règles ou de versions modifiées de ces règles dans l'ensemble des règles inférées par l'algorithme WHISKMotLemPos . Résultats En consultant de manière non approfondie quelques textes du corpus BB BioNLPST 2013, l'utilisateur énonce des règles dont quelques unes sont traduites par : 1-Token{FEATURE("lemma", "tsetse")} Token{FEATURE("lemma", "fly") ->MARKONCE(Habitat,1,2)}; 2-Token{FEATURE("lemma", "insect")->MARKONCE(Habitat)}; 3-Token{FEATURE("lemma", "intestine")->MARKONCE(Habitat)}; 4-Token{FEATURE("lemma", "animal")->MARKONCE(Habitat)}; 5-Token{FEATURE("lemma", "human")->MARKONCE(Habitat)}; Ces règles ont du sens car quand on parle de mouches, d'insectes, d'animaux, d'intestins ou d'humains dans des textes qui parlent de biotopes de bactéries, c'est généralement pour faire référence à des hotes potentiels ou des lieux de prolifération de bactéries. Nous remarquons également que les règles que les utilisateurs ont tendance à écrire sont généralement des règles génériques car ils ont tendance à penser au cas général et non aux cas particuliers qui sont plus rares dans des textes de domaine. La figure 8.17 montre l'ensemble de règles produites par WHISKMotLemPos en apprenant sur l'ensemble du corpus. Concernant la première règle de l'utilisateur, nous remarquons qu'il existe une règle plus spécifique que cette dernière dans cet ensemble et qui est la suivante : Token{REGEXP("bacteria")} # Token{FEATURE("lemma", "tsetse") ->MARKONCE(Habitat, 3, 4)} Token{FEATURE("lemma", "fly")}; En effet, la règle de l'utilisateur n'a pas été gardée telle quelle car elle fait des erreurs. Elle permet, par exemple, d'annoter tsetse fly dans le terme blood-sucking tsetse fly qui figure dans le texte présenté dans la figure 8.18 comme exemple positf alors que c'est le terme en entier qui doit être annoté comme exemple positif. D'où l'inférence d'une règle plus spécifique. D'autres règles, en revanche, ont été inférées pour couvrir d'autres exemples relatifs aux tsetse flies auxquels il n'est pas intuitif de penser comme tsetse host cell, tsetse midgut, tsetse midgut and haemolymph, tsetse immune system, gut of the tsetse fly ou encore les termes tsetse et fly utilisés parfois seuls. La deuxième règle de l'utilisateur est générique et fait des erreurs comme par exemple la couverture du terme insects dans dead insects ou le terme insect dans haemolymph of the insect. Ces termes complexes doivent, en effet, être annotés en entier comme des exemples positifs. La règle de l'utilisateur a donc été remplacée dans l'ensemble des règles apprises par WHISKMotLemPos par les règles suivantes : 174 Chapitre 8. Expérimentations Figure 8.17 – Règles produites par WHISKMotLemPos en apprenant sur l'ensemble du corpus. 8.5. Etude expérimentale de la stabilité des règles 175 Figure 8.18 – Texte 4. 1-Token{REGEXP("insect")->MARKONCE(Habitat)}; 2-Token{FEATURE("lemma","insect")->MARKONCE(Habitat)} # Token{FEATURE("lemma","human")}; 3-Token{FEATURE("lemma","insect")->MARKONCE(Habitat)} # Token{REGEXP("In")}; La première règle permet de couvrir tous les mots insect au singulier car il n'y a pas d'erreurs sur ces mots. Les deuxième et troisième règles sont des versions plus spécifiques de la règle de l'utilisateur qui ne couvrent pas les erreurs faites par cette dernière. D'autres règles qui couvrent des termes complexes relatifs aux insectes ont été apprises à part. La troisième règle de l'utilisateur a également remplacée par une règle plus spécifique qui fait moins d'erreurs et qui est la suivante : Token{FEATURE("lemma","intestine")->MARKONCE(Habitat)} # Token{FEATURE("lemma","many")}; Pour couvrir des termes plus complexes comme animal intestines ou small intestines qui font partie des exemples que l'utilisateur cherche à couvrir, d'autres règles ont été inférées. 1-Token{FEATURE("lemma","animal")->MARKONCE(Habitat)} # Token{FEATURE("lemma","death")}; 2-Token{REGEXP("bacteria")} # Token{FEATURE("lemma","animal") ->MARKONCE(Habitat)}; 176 Chapitre 8. Expérimentations 3-Token{FEATURE("postag","DT")} # Token{REGEXP("animal") ->MARKONCE(Habitat)}; 4-Token{FEATURE("lemma", ",")} # Token{FEATURE("lemma", "animal") ->MARKONCE(Habitat)} # Token{FEATURE("lemma", "find")}; 5-Token{FEATURE("lemma","animal")->MARKONCE(Habitat)} # Token{REGEXP("diseases")}; 6-Token{FEATURE("lemma", "for")} # Token{FEATURE("lemma", "animal") ->MARKONCE(Habitat)} # Token{FEATURE("lemma", "strain")}; 7-Token{FEATURE("lemma","plant")} # Token{FEATURE("lemma","animal") ->MARKONCE(Habitat)}; 8-Token{FEATURE("lemma","into")} # Token{FEATURE("lemma","animal") ->MARKONCE(Habitat)}; 9-Token{REGEXP("tract")} # Token{FEATURE("lemma","animal") ->MARKONCE(Habitat)}; 10-Token{FEATURE("lemma",",")} # Token{FEATURE("lemma","animal") ->MARKONCE(Habitat)} # Token{FEATURE("lemma","have")} # Token{FEATURE("lemma","in")}; Le terme animal est un terme très fréquent dans le corpus. Il est aussi bien utilisé dans des termes simples (animal, animals) que dans des termes complexes (animal intestines, respiratory tract of animals, intestinal tract of animals, etc.). Dans un corpus beaucoup plus volumineux, la règle de l'utilisateur aurait été gardée comme telle car le nombre d'erreurs qu'elle ferait serait négligeable devant le nombre d'exemples positifs qu'elle couvre. Seulement, dans notre corpus cette règles fait beaucoup d'erreurs. Le nombre élevé des versions spécifiques de cette règle apprises par WHISKMotLemPos s'explique par les différentes manières d'emploi du terme et l'absence d'un contexte commun à ces emplois. Nous remarquons que la cinquième règle de l'utilisateur a été gardée comme telle. En effet, malgré les erreurs que cette règle fait, c'est négligeable devant les exemples positifs qu'elle couvre (3 négatifs pour 95 positifs) sachant que l'algorithme WHISKMotLemPos tel que nous l'avons paramétré autorise 1 négatif pour 20 positifs. Pour conclure, nous remarquons qu'aucune des règles de l'utilisateur n'a été ignorée. Elles ont été soit gardées comme telles soient améliorées en en créant des versions plus spécifiques et plus précises. Nous pouvons constater, d'après les deux expériences réalisées, que la stabilité des règles est intrinsèquement assurée par l'algorithme WHISK que ce soit dans le cas où l'utilisateur ajoute de nouveaux exemples ou dans le cas où il introduit des règles. Nous pensons que cette stabilité est due aux facteurs suivants : - L'algorithme WHISKMotLemPos favorise les règles qui couvrent le plus d'exemples positifs. Dans le cadre de cette politique, pour chaque nouvel exemple introduit, l'algorithme essaie de le couvrir en favorisant les règles qui couvrent également d'autres exemples. Par conséquent, si cet exemple ressemble à des exemples déjà couverts, il risque d'apprendre la même règle qui couvrait ces derniers ou une version un peu plus spécifique mais pas complètement différente. Si, en revanche, le nouvel exemple ne ressemble à aucun autre exemple couvert, l'algorithme apprend une nouvelle règle qui couvre uniquement cet exemple. 8.5. Etude expérimentale de la stabilité des règles 177 - De la même manière que l'algorithme WHISK, l'utilisateur, par son esprit synthétique, essaie d'introduire des règles qui couvrent beaucoup d'exemples positifs et non un seul exemple particulier. C'est la raison pour laquelle ses règles s'expriment d'une manière très proche pour ne pas dire similaire à celle des règles apprises. Conclusion Nous avons présenté dans ce chapitre une étude expérimentale (sur les corpus BioNLP-ST 2013 et SyntSem) qui a pour but d'évaluer les différentes propositions détaillées dans les deux chapitres précédents. Une étude de différentes combinaisons d'informations linguistiques utilisées dans l'expression des règles inférées par nos différentes versions étendues de WHISKR ont permis d'évaluer l'impact de ces informations sur les performances des règles et sur leur nombre. En effet, l'utilisation de l'expression exacte des mots dans les règles (WHISKMot ) a permis d'obtenir les meilleures valeurs de précision alors que l'utilisation à la fois des lemmes et des étiquettes morpho-syntaxiques (WHISKLemPos ) a permis d'obtenir les meilleures valeurs de rappel ainsi que le nombre le plus réduit de règles. L'utilisation de la stratégie d'apprentissage sur un corpus réduit a permis non seulement la non discrimination des exemples positifs non encore annotés par l'utilisateur à une itération donnée mais aussi un gain considérable dans le temps d'apprentissage. Le module d'apprentissage actif proposé (IAL4Sets) a également permis d'améliorer significativement les performances du module d'apprentissage de base de l'algorithme WHISK grâce à l'introduction de la notion de similarité distributionnelle qui permet de proposer à l'utilisateur des exemples sémantiquement proches des exemples positifs déjà couverts. Même si nous n'avons pas fait de propositions pour assurer la stabilité de l'ensemble des règles, nous avons montré expérimentalement dans ce chapitre que ni l'ajout de nouveaux exemples ni l'écriture de nouvelles règles ne cause des modifications majeures sur les règles. Ceci est essentiellement dû à la stabilité intrinsèque de l'algorithme WHISK. Chapitre 9 Conclusion et Perspectives 9.1 Rappel des objectifs L'Extraction d'Information (EI) est une technologie émergente du Traitement Automatique du Langage (TAL) qui consiste à traiter du texte non structuré écrit en langage naturel afin d'en extraire des informations et des faits spécifiques et de les stocker dans des templates ou des bases de données pour des traitements ultérieurs. Les techniques d'EI peuvent être divisées en techniques à base de règles et techniques à base d'apprentissage statistique. D'un côté, les techniques à base d'apprentissage statistique sont actuellement plus utilisées dans le monde académique pour leur robustesse face au bruit dans les données non structurées. D'un autre côté, les techniques à base de règles dominent le monde industriel car les règles sont plus faciles à manipuler et à interpréter par un être humain et par conséquent plus faciles à investiguer pour corriger d'éventuelles erreurs. De nos jours, nous observons également l'apparition de plus en plus de systèmes d'EI interactifs. Cela répond à un double objectif. Le premier consiste à réduire le coût de mise en place de systèmes d'EI quand on ne dispose pas d'une quantité suffisante de données d'apprentissage annotées ou de l'expertise nécessaire en ingénierie de connaissances. Le deuxième consiste à permettre à l'utilisateur d'investiguer les erreurs faites par le système d'EI et de les corriger. Notre travail s'inscrit dans le cadre de l'extraction d'information interactive à base de règles. Notre objectif consistait à produire une approche générique itérative interactive d'EI à base de règles pour permettre à l'utilisateur de travailler à la fois sur les règles d'EI et les exemples d'apprentissage tout en minimisant au maximum l'effort humain requis. Étant donné que l'utilisateur est amené à écrire des règles et lire et modifier des règles inférées, le langage de règles utilisé par l'utilisateur et le module d'apprentissage de règles doit être le même. Nous avons donc décidé d'utiliser le langage Ruta et d'étendre la version de l'algorithme WHISK basée sur Ruta implémentée dans le système TextRuler (WHISKR ) pour l'adapter à nos besoins. 180 9.2 Chapitre 9. Conclusion et Perspectives Bilan Nous avons commencé, dans ce travail, par déterminer les spécifications et les enjeux de notre approche. Pour pouvoir écrire ou modifier des règles, l'utilisateur a besoin de comprendre ces règles qui doivent être facilement interprétables. Les règles doivent également avoir des expressions assez génériques pour ne pas faire de surapprentissage, pour avoir des expressions moins complexes et pour être moins nombreuses. L'utilisateur a également besoin de suivre l'évolution des règles qu'il écrit ou modifie au fil des itérations, d'où la nécessité d'assurer une certaine stabilité de l'ensemble des règles pour garantir l'absence de modifications majeures des règles d'une itération à une autre. Pour pouvoir interagir avec le module d'apprentissage de règles, l'utilisateur ne doit pas attendre longtemps la réponse de ce dernier. Autrement dit, l'apprentissage de règles doit se faire d'une manière assez rapide. Pour répondre aux spécifications et aux besoins de l'approche proposée, nous proposons : - Une chaîne d'annotation linguistique et un langage de règles expressif – Le choix des annotations avec lesquelles annoter le texte de départ ainsi que le langage dans lequel écrire et inférer les règles joue un rôle très important dans la compréhensibilité et la généricité des règles. - Une stratégie d'apprentissage sur un corpus réduit – Cette stratégie cherche à éviter la discrimination des exemples positifs non encore annotés par l'utilisateur à une itération donnée du processus d'apprentissage interactif. Elle permet également de réduire le temps d'apprentissage. - Un concordancier – Cet outil permet à l'utilisateur d'écrire des règles prospectives, une règle prospective étant une règle qui a uniquement pour but de chercher des exemples dans le texte en s'appuyant sur des mots clés dont dispose l'utilisateur. Un concordancier est d'une grande utilité dans une approche interactive dans la mesure où il permet à l'utilisateur de réduire son espace de recherche d'exemples à l'ensemble des exemples couverts par les règles prospectives qu'il écrit. - Un module d'apprentissage actif (IAL4Sets) – Ce module étend le module d'apprentisage actif de l'algorithme WHISK en lui ajoutant des notions de distance ou de similarité distributionnelle qui permet de proposer à l'utilisateur des exemples sémantiquement proches des exemples positifs déjà couverts. Le système IRIES dans lequel nous avons mis en place les différents modules proposés étend l'interface de visualisation du système TextRuler et l'algorithme WHISK adapté au langage Ruta (WHISKR ) implémenté dans TextRuler. Les modules composant le système IRIES ont été évalués sur deux corpus : le corpus de BioNLP-ST 2013 et le corpus SyntSem. Une étude de différentes combinaisons d'informations linguistiques utilisées dans l'expression des règles inférées par nos différentes versions étendues de WHISKR a permis d'évaluer l'impact de ces informations sur les performances des règles (précision, rappel et F-mesure) ainsi que sur la taille de l'ensemble des règles. Alors que l'utilisation de l'expression exacte des mots (WHISKMot ) a permis d'obtenir les meilleures valeurs de précision, la combinaison des lemmes avec les étiquettes morpho-syntaxiques (WHISKLemPos ) 9.3. Perspectives 181 a permis d'obtenir les meilleures valeurs de rappel ainsi que le nombre le plus réduit de règles inférées. La stratégie d'apprentissage sur un corpus réduit a permis un gain considérable dans le temps d'apprentissage sans dégrader les performances. En apprenant sur environ un quart des phrases du corpus BioNLP-ST 2013, nous avons pu réduire le temps d'apprentissage d'environ quatre cinquièmes sans dégrader les performances. Enfin, le module d'apprentissage actif proposé (IAL4Sets) a permis d'améliorer significativement les performances de l'apprentissage actif de base de l'algorithme WHISK (Baseline) grâce à la notion de similarité distributionnelle que nous avons introduite et qui permet de proposer à l'utilisateur des exemples sémantiquement proches des exemples positifs déjà couverts. L'algorithme WHISK étant intrinsèquement stable, nous n'avons pas proposé dans ce travail un module qui assure la stabilité des règles. Cependant, nous avons mené deux expérimentations qui ont conclu que l'ajout d'exemples d'apprentissage ou de règles par l'utilisateur ne modifie pas complètement l'ensemble total des règles. Les modifications apportées, si elles ont lieu, se résument à des généralisations ou spécifications de certaines règles ou à l'ajout de nouvelles règles, ce qui n'affecte pas la stabilité de l'ensemble total des règles. 9.3 Perspectives Une étude théorique sur la stabilité de l'ensemble de règles produit par des algorithmes d'apprentissage de règles d'EI doit être menée de manière rigoureuse pour juger de la légitimité de cette question de stabilité sachant qu'elle n'a jamais été évoquée jusque-là dans des travaux d'apprentissage de règles. Si cette étude révèle l'existence d'algorithmes d'apprentissage de règles non intrinsèquement stables, des pistes de modules assurant la stabilité des règles peuvent être trouvées du côté de l'apprentissage incrémental. En effet, un algorithme d'apprentissage incrémental, comme l'a défini Polikar et al. (2001), doit répondre aux critères suivants : - il doit être capable d'apprendre des connaissances supplémentaires à partir de nouvelles données ; - il ne doit pas nécessiter l'accès aux données d'origine utilisées pour apprendre le classifieur actuel ; - il doit préserver les connaissances déjà acquises ; - il doit être capable d'apprendre de nouvelles classes susceptibles d'être introduites avec de nouvelles données. Ces critères semblent s'accorder avec ce que nous attendons de notre apprentissage de règles. Cependant, l'utilisation de l'apprentissage incrémental ne doit pas être systématique. En effet, l'utilisateur doit avoir le choix entre appliquer l'apprentissage incrémental ou ne pas l'appliquer selon qu'il est satisfait de l'ensemble des règles d'extraction d'information courant ou non. - Si l'ensemble des règles le satisfait, il choisit d'appliquer l'apprentissage incrémental car il ne veut pas que l'algorithme d'apprentissage réapprenne à chaque itération des nouvelles règles à partir de zéro mais plutôt qu'il garde les anciennes règles et leur ajoute de nouvelles connaissances à partir des nouveaux exemples étiquetés. 182 Chapitre 9. Conclusion et Perspectives - Si l'ensemble des règles ne le satisfait pas, il ne choisit pas d'appliquer l'apprentissage incrémental car les règles inférées de zéro peuvent avoir des expressions moins complexes. Nous nous sommes focalisée dans ce travail sur la mise en place des piliers d'une approche d'apprentissage interactif de règles d'EI générique. Nous avons pris le soin de les évaluer un par un séparément mais l'évaluation de l'approche globale reste à faire. De nouvelles métriques à l'instar de ENUA (Expected Number of User Actions) (Kristjansson et al., 2004) doivent, en effet, être définies pour mesurer le taux de l'intervention humaine ou le taux d'effort humain économisé. Notre approche peut être appliquée dans le cadre de l'annotation sémantique et plus spécifiquement l'annotation sémantique au regard d'ontologies où il est question, par exemple, d'étendre les ontologies par une base de règles d'extraction d'information (Ma et al., 2009). Cette base de règles peut être constituée en s'appuyant sur notre méthode interactive, les règles de la base étant associées aux éléments de l'ontologie (aussi bien les concepts que les relations). En effet, l'annotation sémantique au regard d'ontologies repose généralement sur des ontologies enrichies de connaissances linguistiques et lexicales qui permettent de mettre en correspondance des éléments de l'ontologie avec des fragments de texte. L'enrichissement de l'ontologie par ce type de connaissances pose problème car la taille de l'ontologie peut augmenter fortement, ce qui rend son utilisation plus difficile. Pour résoudre ce problème, Ma et al. (2009) ont proposé de construire une extension qui soit indépendante de l'ontologie et qui permet de faire le lien entre l'ontologie et le texte à annoter au regard de cette ontologie. Cette extension est, en effet, une base de règles d'EI dont les règles peuvent être construites en utilisant notre approche interactive. La figure 9.1 illustre la méthodologie de constitution de l'extension : Figure 9.1 – Méthodologie de production d'une extension d'une ontologie 1. Les différents éléments de l'ontologie (concepts, rôles, etc.) sont traités successivement de manière à venir alimenter l'extension de l'ontologie de manière incrémentale (paquetage Production d'une extension pour l'annotation sémantique sur la figure 9.1). 9.3. Perspectives 183 2. Chaque ensemble de règles d'annotation d'un élément de l'ontologie est construit de manière itérative et interactive, jusqu'à aboutir à un ensemble couvrant de manière satisfaisante les portions de texte qui doivent être mises en correspondance avec l'élément de l'ontologie traité (paquetage Apprentissage interactif de règles sur la figure 9.1). Un utilisateur intervient à chaque itération en travaillant de manière duale sur les règles d'annotation (intension) ainsi que sur des exemples d'annotation (extension). La généricité de notre approche fait qu'elle peut annoter n'importe quelle cible (un concept, une entité nommée, une relation, etc.). Seulement, dans une ontologie les différents éléments sont reliés entre eux. Cette hiérarchie doit donc être exploitée au mieux afin d'établir un certain ordre et une certaine structure entre les différentes règles d'extraction d'information. Certaines questions doivent par conséquent être traitées : - quelle relation doit exister entre une règle qui annote un concept et une autre qui annote son fils ? - quelle relation doit exister entre une règle qui annote un concept et une autre qui annote une instance de ce concept ? - quelle relation doit exister entre une règle qui annote une relation entre deux concepts et les règles qui annotent les concepts impliqués ? - etc. Notre approche peut donc être évaluée dans sa globalité dans le cadre de l'annotation sémantique au regard d'ontologies. Avoir dans un même ensemble de règles des règles qui dénotent des concepts différents soulève une autre problématique qui est le conflit qui peut survenir entre ces règles. En effet, on parle de conflit quand deux segments de texte qui se chevauchent sont couverts par deux règles différentes. Plusieurs stratégies de résolution de ce genre de conflits existent dans la littérature (voir section 2.6.2). Nous préconisons la considération des règles comme une collection non ordonnée où les règles s'appliquent indépendamment les unes des autres car cette méthode d'organisation offre à l'utilisateur plus de flexibilité dans la définition des règles sans souci des éventuels recouvrements avec les règles existantes. Dans ce cas de figure, deux solutions peuvent être adoptées pour résoudre les conflits entre les règles : - favoriser la règle qui couvre le segment de texte le plus long (c'est le cas dans GATE (Cunningham, 2002)) ; - fusionner les segments de texte qui se chevauchent si leurs règles correspondantes paratagent la même action ou utiliser des politiques plus sophistiquées comme celle définie dans (Reiss et al., 2008) sinon. Dans un système interactif, nous pouvons tout à fait développer un module qui identifie les règles conflictuelles et les présente à l'utilisateur laissant à ce dernier le choix de l'action à mener pour résoudre le conflit. En effet, l'utilisateur peut avoir recours à différentes politiques de résolution de conflits selon la nature du conflit rencontré à chaque étape. Bibliographie Aitken, S. (2002). Learning Information Extraction Rules : An Inductive Logic Programming approach. In Proceedings of ECAI 2002 (European Conference on Artificial Intelligence) (pp. 355–359). Akbik, A., Konomi, O., & Melnikov, M. (2013). Propminer : A Workflow for Interactive Information Extraction and Exploration using Dependency Trees. In ACL (Conference System Demonstrations) (pp. 157–162). Appelt, D. E. (1999). Introduction to Information Extraction. AI Commun., 12 , 161–172. Aramaki, Eiji and Imai, Takeshi and Miyo, Kengo and Ohe, Kazuhiko. (2006). Automatic deidentification by using sentence features and label consistency. In i2b2 Workshop on Challenges in Natural Language Processing for Clinical Data (pp. 10–11). Atzmueller, M., Kluegl, P., & Puppe, F. (2008). Rule-Based Information Extraction for Structured Data Acquisition using TextMarker. In LWA-2008 (Special Track on Knowledge Discovery and Machine Learning) (pp. 1–7). Audibert, L. (2003). Etude des critères de désambiguïsation sémantique automatique : résultats sur les cooccurrences. In Actes de taln'2013 (pp. 35–44). Bank, M., & Schierle, M. (2012). A Survey of Text Mining Architectures and the UIMA Standard. In LREC (pp. 3479–3486). Banko, M., Cafarella, M. J., Soderland, S., Broadhead, M., & Etzioni, O. (2007). Open Information Extraction from the Web. In Proceedings of the 20th International Joint Conference on Artifical Intelligence (pp. 2670–2676). Banko, M., & Etzioni, O. (2008). The Tradeoffs Between Open and Traditional Relation Extraction. In ACL-HLT (pp. 28–36). Bannour, S., Audibert, L., & Nazarenko, A. (2011). Mesures de similarité distributionnelle entre termes. In 22es journées francophones d'ingénierie des connaissances (IC2011) (pp. 523–538). Bannour, S., Audibert, L., & Soldano, H. (2013). Ontology-based semantic annotation : an automatic hybrid rule-based method. In Proceedings of BioNLP Shared Task 2013 Workshop. Basili, R., Pazienza, M. T., & Vindigni, M. (2000). Corpus-driven learning of Event Recognition Rules. In Proceedings ECAI Workshop on Machine Learning for Information Extraction. Baum, L. E., & Petrie, T. (1966). Statistical inference for probabilistic functions of finite state Markov chains. Annals of Mathematical Statistics, 37 , 1554–1563. Berners-Lee, T., Hendler, J., & Lassila, O. (2001). The Semantic Web. Scientific American, 284 , 34–43. 186 Bibliographie Bikel, D. M., Schwartz, R., & Weischedel, R. M. (1999). An algorithm that learns what&lsquo ;s in a name. Mach. Learn., 34 (1-3), 211–231. Bilotti, M. W., Katz, B., & Lin, J. (2004). What works better for question answering : Stemming or morphological query expansion. In Proceedings of the information retrieval for question answering (ir4qa) workshop at sigir (pp. 1–3). Bontcheva, K., Tablan, V., Maynard, D., & Cunningham, H. (2004). Evolving GATE to Meet New Challenges in Language Engineering. Nat. Lang. Eng., 10 , 349–373. Bossy, R., Golik, W., Ratkovic, Z., Bessières, P., & Nédellec, C. (2013). BioNLP Shared Task 2013 - An overview of the Bacteria Biotope Task. In Proceedings of BioNLP Shared Task 2013 Workshop. Brauer, F., Rieger, R., Mocan, A., & Barczynski, W. M. (2011). Enabling Information Extraction by Inference of Regular Expressions from Sample Entities. In Proceedings of the 20th ACM International Conference on Information and Knowledge Management (pp. 1285–1294). Brin, S. (1999). Extracting Patterns and Relations from the World Wide Web. In Selected papers from the International Workshop on The World Wide Web and Databases (pp. 172–183). Brunet, E. (s. d.). Le lemme comme on lâaime Buitelaar, P., Cimiano, P., Haase, P., & Sintek, M. (2009). Towards Linguistically Grounded Ontologies. In Proceedings of the 6th European Semantic Web Conference on The Semantic Web : Research and Applications (pp. 111–125). Califf, M. E., & Mooney, R. J. (1998). Relational Learning of Pattern-Match Rules for Information Extraction. In Working Notes of AAAI Spring Symposium on Applying Machine Learning to Discourse Processing (pp. 6–11). Califf, M. E., & Mooney, R. J. (2003). Bottom-up relational learning of pattern matching rules for information extraction. J. Mach. Learn. Res., 4 , 177–210. Cardie, C., & Pierce, D. (1998). Proposal for an Interactive Environment for Information Extraction (Rapport technique). Caruana, R., Hodor, P., & Rosenberg, J. (2000). High precision information extraction. In KDD-2000 Workshop on Text Mining. Chai, J. Y., Biermann, A. W., & Guinn, C. I. (1999). Two dimensional generalization in information extraction. In Proceedings of the sixteenth national conference on Artificial intelligence and the eleventh Innovative applications of artificial intelligence conference (pp. 431–438). Chieu, H. L. (2002). Named entity recognition : a maximum entropy approach using global information. In Proceedings of COLING02 (pp. 190–196). Chieu, H. L., & Ng, H. T. (2002). Named entity recognition : A maximum entropy approach using global information. In Coling. Chieu, H. L., & Ng, H. T. (2003). Named Entity Recognition with a Maximum Entropy Approach. In Proceedings of CoNLL-2003 (pp. 160–163). Chiticariu, L., Krishnamurthy, R., Li, Y., Raghavan, S., Reiss, F. R., & Vaithyanathan, S. (2010). SystemT : An Algebraic Approach to Declarative Information Extraction. In Proceedings of the 48th Annual Meeting of the Association for Computational Linguistics (pp. 128–137). Bibliographie 187 Chiticariu, L., Li, Y., Raghavan, S., & Reiss, F. (2010). Enterprise information extraction : recent developments and open challenges. In Proceedings of the ACM SIGMOD International Conference on Management of Data (pp. 1257– 1258). Chiticariu, L., Li, Y., & Reiss, F. R. (2013). Rule-Based Information Extraction is Dead ! Long Live Rule-Based Information Extraction Systems ! In EMNLP (pp. 827–832). Choueka, Y., & Lusignan, S. (1985). Disambiguation by short contexts. Computers and the Humanities, 19 (3), 147–157. Ciravegna, F. (2001). (LP)2, an Adaptive Algorithm for Information Extraction from Web-related Texts. In Proceedings of the IJCAI-2001 Workshop on Adaptive Text Extraction and Mining. Ciravegna, F. (2003). (LP)2 : Rule Induction for Information Extraction Using Linguistic Constraints (Rapport technique). Ciravegna, F., Dingli, A., Wilks, Y., & Petrelli, D. (2002). Amilcare : adaptive information extraction for document annotation. In SIGIR (pp. 367–368). Cleveland, W. S. (1979). Robust Locally Weighted Regression and Smoothing Scatterplots. Journal of the American Statistical Association, 74 , 829–836. Cohn, D., Atlas, L., & Ladner, R. (1994). Improving Generalization with Active Learning. Mach. Learn., 15 , 201–221. Collier, N., Nobata, C., & Tsujii, J. I. (2000). Extracting the names of genes and gene products with a hidden Markov model. In Proceedings of the 18th conference on computational linguistics - volume 1 (pp. 201–207). Culotta, A., Kristjansson, T. T., McCallum, A., & Viola, P. A. (2006). Corrective feedback and persistent learning for information extraction. Artif. Intell., 170 , 1101–1122. Culotta, A., & McCallum, A. (2004). Confidence Estimation for Information Extraction. In Proceedings of HLT-NAACL 2004 : Short Papers (pp. 109–112). Cunningham, H. (2002). GATE, a General Architecture for Text Engineering. Computers and the Humanities, 36 , 223–254. Cunningham, H. (2005). Information Extraction, Automatic. Encyclopedia of Language and Linguistics, 2nd Edition. Cunningham, H., Maynard, D., & Tablan, V. (2000). JAPE : a Java Annotation Patterns Engine (Second Edition) (Rapport technique). Sheffield, Department of Computer Science. Dagan, I., & Engelson, S. P. (1995). Committee-Based Sampling For Training Probabilistic Classifiers. In Proceedings of the Twelfth International Conference on Machine Learning (pp. 150–157). DeJong, G. (1982). An Overview of the FRUMP System. In Strategies for Natural Language Processing (pp. 149–176). Ding, L., Finin, T., Joshi, A., Pan, R., Cost, R. S., Peng, Y., . . . Sachs, J. (2004). Swoogle : A Search and Metadata Engine for the Semantic Web. In Proceedings of the Thirteenth ACM International Conference on Information and Knowledge Management (pp. 652–659). Doddington, G. R., Mitchell, A., Przybocki, M. A., Ramshaw, L. A., Strassel, S., & Weischedel, R. M. (2004). The Automatic Content Extraction (ACE) Program 188 Bibliographie - Tasks, Data, and Evaluation. In LREC. Du, J., Zhang, Z., Yan, J., Cui, Y., & Chen, Z. (2010). Using Search Session Context for Named Entity Recognition in Query. In Proceedings of the 33rd International ACM SIGIR Conference on Research and Development in Information Retrieval (pp. 765–766). Eckstein, B., Kluegl, P., & Puppe, F. (2011). Towards Learning Error-Driven Transformations for Information Extraction. In Proceedings of the LWA 2011 - Learning, Knowledge, Adaptation. Eichler, K., Hemsen, H., Löckelt, M., Neumann, G., & Reithinger, N. (2008). Interactive Dynamic Information Extraction. In KI (pp. 54–61). Ekbal, A., & Bandyopadhyay, S. (2008). Improving the Performance of a NER System by Post-processing and Voting. In Proceedings of the 2008 Joint IAPR International Workshop on Structural, Syntactic, and Statistical Pattern Recognition (pp. 831–841). Embley, D. W. (2004). Toward Semantic Understanding : An Approach Based on Information Extraction Ontologies. In Proceedings of the 15th Australasian Database Conference (pp. 3–12). Es-salihe, M., & Bond, S. (2006). Étude des frameworks UIMA, GATE et OpenNLP. Consulté sur http://www.crim.ca/fr/r-d/technologie _internet/documents/Etude-UIMA-GATE-OpenNLP.pdf Etzioni, O., Banko, M., Soderland, S., & Weld, D. S. (2008). Open Information Extraction from the Web. Commun. ACM , 51 , 68–74. Etzioni, O., Fader, A., Christensen, J., Soderland, S., & Mausam, M. (2011). Open Information Extraction : The Second Generation. In Proceedings of the Twenty-Second International Joint Conference on Artificial Intelligence (pp. 3–10). Fader, A., Soderland, S., & Etzioni, O. (2011). Identifying Relations for Open Information Extraction. In Proceedings of the Conference on Empirical Methods in Natural Language Processing (pp. 1535–1545). Fagin, R., Kimelfeld, B., Reiss, F., & Vansummeren, S. (2013). Spanners : A Formal Framework for Information Extraction. In Proceedings of the 32Nd Symposium on Principles of Database Systems (pp. 37–48). Fellbaum, Christiane. (1998). WordNet An Electronic Lexical Database. Ferrucci, D., & Lally, A. (2004). UIMA : an architectural approach to unstructured information processing in the corporate research environment. Nat. Lang. Eng., 10 , 327–348. Finn, A., & Kushmerick, N. (2003). Active learning selection strategies for information extraction. In Proceedings of the Workshop on Adaptive Text Extraction and Mining. held in conjunction with ECML. Finn, A., & Kushmerick, N. (2004). Multi-level Boundary Classification for Information Extraction. In ECML'04 (pp. 111–122). Freitag, D., & Kushmerick, N. (2000). Boosted Wrapper Induction. In AAAI/IAAI (pp. 577–583). Freitag, D., & McCallum, A. (s. d.). In AAAI/IAAI (pp. 584–589). Freitag, D., & Mccallum, A. K. (1999). Information Extraction with HMMs and Bibliographie 189 Shrinkage. In Proceedings of the AAAI-99 Workshop on Machine Learning for Information Extraction (pp. 31–36). Fürnkranz, J. (1999). Separate-and-Conquer Rule Learning. Artif. Intell. Rev., 13 , 3–54. Gaizauskas, R., Demetriou, G., & Humphreys, K. (2000). Term recognition and classification in biological science journal articles. In Proc. of the computional terminology for medical and biological applications workshop of the 2 nd international conference on nlp (pp. 37–44). Gardner, J. J., & Xiong, L. (2008). HIDE : An Integrated System for Health Information DE-identification. In Proceedings of the Twenty-First IEEE International Symposium on Computer-Based Medical Systems (pp. 254–259). Golik, W., Bossy, R., Ratkovic, Z., & Claire, N. (2013). Improving Term Extraction with Linguistic Analysis in the Biomedical Domain. Proceedings of the 14th International Conference on Intelligent Text Processing and Computational Linguistics (CICLing'13), Special Issue of the journal Research in Computing Science, 24–30. Grishman, R. (1996). The TIPSTER Text Phase II Architecture Design, Version 2.2 (Rapport technique). New York University. Grishman, R. (2012). Information Extraction :Capabilities and Challenges. Gruber, T. R. (1993). A Translation Approach to Portable Ontology Specifications. Knowledge Acquisition, 5 , 199–220. Hamon, T., & Aubin, S. (2006). Improving Term Extraction with Terminological Resources. In FinTAL '06 (pp. 380–387). Heer, J., Card, S. K., & Landay, J. A. (2005). Prefuse : A Toolkit for Interactive Information Visualization. In Proceedings of the SIGCHI Conference on Human Factors in Computing Systems (pp. 421–430). Heller, B. W., Veltink, P. H., Rijkhoff, N. J., Rutten, W. L., & Andrews, B. J. (1993). Reconstructing muscle activation during normal walking : a comparison of symbolic and connectionist machine learning techniques. Biological Cybernetics, 69 , 327–335. Hobbs, J. R., Bear, J., Israel, D., & Tyson, M. (1993). FASTUS : A finite-state processor for information extraction from real-world text. In (pp. 1172–1178). Hobbs, J. R., & Riloff, E. (2010). Information Extraction. In Handbook of Natural Language Processing, Second Edition. Hsu, C.-N., & Dung, M.-T. (1998). Generating finite-state transducers for semistructured data extraction from the Web. Inf. Syst., 23 , 521–538. Huysmans, J., Baesens, B., & Vanthienen, J. (2006). Using Rule Extraction to Improve the Comprehensibility of Predictive Models (Rapport technique). KU Leuven. Isozaki, H., & Kazawa, H. (2002). Efficient Support Vector Classifiers for Named Entity Recognition. In Proceedings of the 19th International Conference on Computational Linguistics (COLING'02) (pp. 390–396). Jain, A., Ipeirotis, P., & Gravano, L. (2009). Building Query Optimizers for Information Extraction : The SQoUT Project. SIGMOD Rec., 37 , 28–34. Jayram, T. S., Krishnamurthy, R., Raghavan, S., Vaithyanathan, S., & Zhu, H. (2006). Avatar Information Extraction System. IEEE Data Eng. Bull., 29 , 190 Bibliographie 40–48. Jiang, J. (2012). Information Extraction from Text. In Mining Text Data (pp. 11–41). Jones, M. P., & Martin, J. H. (1997). Contextual spelling correction using latent semantic analysis. In Proceedings of the fifth conference on applied natural language processing (pp. 166–173). Jones, R., Ghani, R., Mitchell, T., & Riloff, E. (2003). Active Learning for Information Extraction with Multiple View Feature Sets. In Proceedings of the ECML2004 workshop on Adaptive Text Extraction and Mining (ATEM-2003). Kambhatla, N. (2004). Combining Lexical, Syntactic, and Semantic Features with Maximum Entropy Models for Extracting Relations. In Proceedings of the ACL 2004 on Interactive Poster and Demonstration Sessions. Kazama, J., Makino, T., Ohta, Y., & Tsujii, J. (2002). Tuning support vector machines for biomedical named entity recognition. In Proceedings of the acl02 workshop on natural language processing in the biomedical domain - volume 3 (pp. 1–8). Kim, J.-T., & Moldovan, D. I. (1995). Acquisition of Linguistic Patterns for Knowledge-Based Information Extraction. IEEE Trans. on Knowl. and Data Eng., 7 , 713–724. Kluegl, P., Atzmueller, M., Hermann, T., & Puppe, F. (2009). A Framework for Semi-Automatic Development of Rule-based Information Extraction Applications. In Proc. LWA 2009 (KDML - Special Track on Knowledge Discovery and Machine Learning) (pp. 56–59). Kluegl, P., Atzmueller, M., & Puppe, F. (2009). TextMarker : A Tool for Rule-Based Information Extraction . In Proceedings of the Biennial GSCL Conference 2009, 2nd UIMA@GSCL Workshop (pp. 233–240). Krishnan, V., & Manning, C. D. (2006). An Effective Two-Stage Model for Exploiting Non-Local Dependencies in Named Entity Recognition. In Proceedings of the 21st International Conference on Computational Linguistics and 44th Annual Meeting of the Association for Computational Linguistics (pp. 1121– 1128). Kristjansson, T., Culotta, A., Viola, P., & McCallum, A. (2004). Interactive Information Extraction with Constrained Conditional Random Fields. In Proceedings of the 19th National Conference on Artifical Intelligence (pp. 412–418). Kushmerick, N., Weld, D., & Doorenbos, B. (1997). Wrapper induction for information extraction. In Proc. Int. Joint Conf. Artificial Intelligence. Lafferty, J. D., McCallum, A., & Pereira, F. C. N. (2001). Conditional Random Fields : Probabilistic Models for Segmenting and Labeling Sequence Data. In Proceedings of the Eighteenth International Conference on Machine Learning (pp. 282–289). Leek, T. (1997). Information Extraction Using Hidden Markov Models (Mémoire de Master non publié). UC San Diego. Lehnert, W. G., Cardie, C., Fisher, D., Riloff, E., & Williams, R. (1991). University of Massachusetts : description of the CIRCUS system as used for MUC-3. In MUC (pp. 223–233). Lemaire, B. (2008). Limites de la lemmatisation pour l'extraction de significations. Bibliographie 191 In 9e Journées internationales d'Analyse Statistique des Données Textuelles (pp. 725–732). Lewis, D. D., & Catlett, J. (1994). Heterogeneous uncertainty sampling for supervised learning. In Proceedings of ICML-94, 11th International Conference on Machine Learning (pp. 148–156). Li, Y., & Bontcheva, K. (2007). Hierarchical, Perceptron-like Learning for Ontologybased Information Extraction. In Proceedings of the 16th International Conference on World Wide Web (pp. 777–786). Li, Y., Chiticariu, L., Yang, H., Reiss, F. R., & Carreno-fuentes, A. (2012). WizIE : A Best Practices Guided Development Environment for Information Extraction. In Proceedings of the ACL 2012 System Demonstrations (pp. 109–114). Li, Y., Chu, V., Blohm, S., Zhu, H., & Ho, H. (2011). Facilitating Pattern Discovery for Relation Extraction with Semantic-signature-based Clustering. In Proceedings of the 20th ACM International Conference on Information and Knowledge Management (pp. 1415–1424). Li, Y., Reiss, F., & Chiticariu, L. (2011). SystemT : A Declarative Information Extraction System. In ACL (System Demonstrations) (pp. 109–114). Liu, H., Christiansen, T., Baumgartner, W. A., & Verspoor, K. (2012). BioLemmatizer : a lemmatization tool for morphological processing of biomedical text. Journal of biomedical semantics, 3 . Ma, Y., Audibert, L., & Nazarenko, A. (2009). Ontologies étendues pour l'annotation sémantique. In 20es Journées Francophones d'Ingénierie des Connaissances (pp. 205–216). Maedche, A., Neumann, G., & Staab, S. (2003). Intelligent Exploration of the Web. In (pp. 345–359). Makhoul, J., Kubala, F., Schwartz, R., & Weischedel, R. (1999). Performance Measures For Information Extraction. In Proceedings of DARPA Broadcast News Workshop (pp. 249–252). Maynard, D., Tablan, V., Ursu, C., Cunningham, H., & Wilks, Y. (2001). Named Entity Recognition from Diverse Text Types. In Proceedings of the Recent Advances in Natural Language Processing 2001 Conference (pp. 257–274). McCallum, A., Freitag, D., & Pereira, F. C. N. (2000). Maximum Entropy Markov Models for Information Extraction and Segmentation. In Proceedings of the Seventeenth International Conference on Machine Learning (pp. 591–598). McCallum, A., & Li, W. (2003). Early Results for Named Entity Recognition with Conditional Random Fields, Feature Induction and Web-enhanced Lexicons. In Proceedings of the Seventh Conference on Natural Language Learning at HLT-NAACL 2003 (pp. 188–191). McDowell, L. (2006). Ontology-driven information extraction with ontosyphon. In International Semantic Web Conference. Miller, G. A. (1995). WordNet : a lexical database for English. Commun. ACM , 38 , 39–41. Muslea, I., Minton, S., & Knoblock, C. A. (2000). Selective Sampling With Redundant Views. In AAAI/IAAI (pp. 621–626). Muslea, I., Minton, S., & Knoblock, C. A. (2002). Active + Semi-supervised Learning = Robust Multi-View Learning. In Proceedings of the Nineteenth International 192 Bibliographie Conference on Machine Learning (pp. 435–442). Nédellec, C., & Nazarenko, A. (2005). Ontology and Information Extraction : a necessary symbiosis. In Ontology Design and Population (pp. 155–170). Nédellec, C., Nazarenko, A., & Bossy, R. (2009). Information Extraction. In Handbook on Ontologies (pp. 663–685). Nigel, C. N., Collier, N., & ichi Tsujii, J. (1999). Automatic term identification and classification in biology texts. In Proc. of the 5th nlprs (pp. 369–374). Olsson, F. (2009). A literature survey of active machine learning in the context of natural language processing (Rapport technique). Papazian, F., Bossy, R., & Nédellec, C. (2012). AlvisAE : A Collaborative Web Text Annotation Editor for Knowledge Acquisition. In Proceedings of the Sixth Linguistic Annotation Workshop (pp. 149–152). Peng, F., Feng, F., & McCallum, A. (2004). Chinese Segmentation and New Word Detection Using Conditional Random Fields. In Proceedings of the 20th International Conference on Computational Linguistics. Petasis, G., Karkaletsis, V., Paliouras, G., Androutsopoulos, I., & Spyropoulos, C. D. (2002). Ellogon : A New Text Engineering Platform. In Proceedings of the 3rd International Conference on Language Resources and Evaluation (LREC 2002) (pp. 72–78). Piskorski, J., & Yangarber, R. (2013). Information Extraction : Past, Present and Future. In Multi-source, Multilingual Information Extraction and Summarization (pp. 23–49). Polikar, R., Udpa, L., Udpa, S., Member, S., Member, S., & Honavar, V. (2001). Learn++ : An Incremental Learning Algorithm for Supervised Neural Networks. IEEE Transactions on System, Man and Cybernetics (C), Special Issue on Knowledge Management, 31 , 497–508. Probst, K., & Ghani, R. (2007). Towards 'Interactive' Active Learning in Multi-view Feature Sets for Information Extraction. In Proceedings of the 18th European conference on Machine Learning (pp. 683–690). Rabiner, L. (1989). A tutorial on hidden Markov models and selected applications inspeech recognition. , 77 , 257–286. Ray, S., & Craven, M. (2001). Representing Sentence Structure in Hidden Markov Models for Information Extraction. In Proceedings of the 17th International Joint Conference on Artificial Intelligence (pp. 1273–1279). Reeve, L., & Han, H. (2005). Survey of semantic annotation platforms. In Proceedings of the 2005 ACM symposium on Applied computing (pp. 1634–1638). Reiss, F., Raghavan, S., Krishnamurthy, R., Zhu, H., & Vaithyanathan, S. (2008). An Algebraic Approach to Rule-Based Information Extraction. In Proceedings of the 2008 IEEE 24th International Conference on Data Engineering (pp. 933–942). Reymond, D. (2001). Dictionnaires distributionnels et étiquetage lexical de corpus. In Actes des 3e Rencontres des Étudiants Chercheurs en Informatique pour le Traitement Automatique des Langues (pp. 473–482). Riloff, E. (1993). Automatically constructing a dictionary for information extraction tasks. In Proceedings of the eleventh national conference on Artificial intelligence (pp. 811–816). Bibliographie 193 Riloff, E. (1996). Automatically generating extraction patterns from untagged text. In Proceedings of the thirteenth national conference on Artificial intelligence (pp. 1044–1049). Sager, N., Friedman, C., & Lyman, M. S. (1987). Medical Language Processing : Computer Management of Narrative Data. Sarawagi, S. (2008). Information Extraction. Found. Trends databases, 1 , 261–377. Sarma, A. D., Jain, A., & Srivastava, D. (2010). I4E : interactive investigation of iterative information extraction. In SIGMOD Conference (pp. 795–806). Schäfer, U. (2006). Middleware for Creating and Combining Multi-dimensional NLP Markup. In Proceedings of the 5th Workshop on NLP and XML : MultiDimensional Markup in Natural Language Processing (pp. 81–84). Schmid, H. (1994). Probabilistic Part-of-Speech Tagging Using Decision Trees. In International Conference on New Methods in Language Processing (pp. 44– 49). Settles, B. (2004). Biomedical Named Entity Recognition Using Conditional Random Fields and Rich Feature Sets. In Proceedings of the International Joint Workshop on Natural Language Processing in Biomedicine and Its Applications (pp. 104–107). Settles, B. (2009). Active Learning Literature Survey (Computer Sciences Technical Report). University of Wisconsin–Madison. Seymore, K., Mccallum, A., & Rosenfeld, R. (1999). Learning Hidden Markov Model Structure for Information Extraction. In AAAI 99 Workshop on Machine Learning for Information Extraction (pp. 37–42). Shen, W., Doan, A., Naughton, J. F., & Ramakrishnan, R. (2007). Declarative Information Extraction Using Datalog with Embedded Extraction Predicates. In Proceedings of the 33rd International Conference on Very Large Data Bases (pp. 1033–1044). Siefkes, C., & Siniakov, P. (2005). An Overview and Classification of Adaptive Approaches to Information Extraction. , 3730 , 172–212. Skounakis, M., Craven, M., & Ray, S. (2003). Hierarchical Hidden Markov Models for Information Extraction. In Proceedings of the 18th International Joint Conference on Artificial Intelligence (pp. 427–433). Smith, L., Rindflesch, T., & Wilbur, W. J. (2004). MedPost : a part-of-speech tagger for bioMedical text. Bioinformatics (Oxford, England), 20 , 2320–2321. Soderland, S., Cardie, C., & Mooney, R. (1999). Learning Information Extraction Rules for Semi-structured and Free Text. In Machine Learning (pp. 233–272). Soderland, S., Fisher, D., Aseltine, J., & Lehnert, W. (1995). CRYSTAL Inducing a Conceptual Dictionary. In Proceedings of the 14th International Joint Conference on Artificial Intelligence (pp. 1314–1319). Soderland, S. G. (1997). Learning Text Analysis Rules for Domain-specific Natural Language Processing (Thèse de doctorat non publiée). Sönströd, C., Johansson, U., & König, R. (2007). Towards a Unified View on Concept Description. In DMIN (pp. 59–65). Spasic, I., Sarafraz, F., Keane, J. A., & Nenadic, G. (2010). Medication information extraction with linguistic pattern matching and semantic rules. JAMIA, 17 , 532–535. 194 Bibliographie Studer, R., Benjamins, V. R., & Fensel, D. (1998). Knowledge Engineering : Principles and Methods. Data Knowl. Eng., 25 , 161–197. Sun, A., Naing, M.-M., Lim, E.-P., & Lam, W. (2003). Using support vector machines for terrorism information extraction. In ISI'03 : Proceedings of the 1st NSF/NIJ conference on Intelligence and security informatics (pp. 1–12). Takeuchi, K., & Collier, N. (2002). Use of support vector machines in extended named entity recognition. In Proceedings of the 6th conference on natural language learning - volume 20 (pp. 1–7). Thompson, C., Califf, M., & Mooney, R. (1999). Active Learning for Natural Language Parsing and Information Extraction. In Proceedings of the International Conference on Machine Learning (pp. 406–414). Turmo, J., Ageno, A., & Català, N. (2006). Adaptive information extraction. ACM Comput. Surv., 38 . Vapnik, V. N. (1995). The Nature of Statistical Learning Theory. Viterbi, A. J. (1967). Error Bounds for Convolutional Codes and an Asymptotically Optimum Decoding Algorithm. IEEE Transactions on Information Theory, IT-13 , 260–269. Wang, D. Z., Michelakis, E., Franklin, M. J., Garofalakis, M. N., & Hellerstein, J. M. (2010). Probabilistic declarative information extraction. In ICDE (pp. 173–176). Wellner, B., Huyck, M., Mardis, S., Aberdeen, J., Morgan, A., Peshkin, L., . . . Hirschman, L. (2007). Rapidly retargetable approaches to de-identification in medical records. Journal of the American Medical Informatics Association : JAMIA, 14 , 564–573. Wimalasuriya, D. C., & Dou, D. (2010). Ontology-based information extraction : An introduction and a survey of current approaches. J. Inf. Sci., 36 , 306–323. Wisniewski, G., & Gallinari, P. (2007). Relaxation Labeling for Selecting and Exploiting Efficiently Non-local Dependencies in Sequence Labeling. In PKDD (Vol. 4702, pp. 312–323). Wu, F., Hoffmann, R., & Weld, D. S. (2008). Information Extraction from Wikipedia : Moving Down the Long Tail. In Proceedings of the 14th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining (pp. 731– 739). Wu, T., & Pottenger, W. M. (2005). A Semi-Supervised Active Learning Algorithm for Information Extraction from Textual Data. JASIST , 56 , 258–271. Xu, J., & Croft, W. B. (1998). Corpus-based stemming using cooccurrence of word variants. ACM Trans. Inf. Syst., 16 (1), 61–81. Yangarber, R. (2001). Scenario Customization for Information Extraction (Thèse de doctorat non publiée). New York University. Yangarber, R. (2003). Counter-training in discovery of semantic patterns. In Proceedings of the 41st Annual Meeting on Association for Computational Linguistics (pp. 343–350). Yangarber, R., Grishman, R., Tapanainen, P., & Huttunen, S. (2000). Automatic acquisition of domain knowledge for Information Extraction. In Proceedings of the 18th conference on Computational linguistics (pp. 940–946). Yarowsky, D. (1993). One sense per collocation. In Proceedings of the workshop on Bibliographie 195 human language technology (pp. 266–271). Yates, A., Banko, M., Broadhead, M., Cafarella, M. J., Etzioni, O., & Soderland, S. (2007). TextRunner : Open Information Extraction on the Web. In Proceedings of Human Language Technologies : The Annual Conference of the North American Chapter of the Association for Computational Linguistics : Demonstrations (pp. 25–26). Yildiz, B., & Miksch, S. (2007). ontoX - A Method for Ontology-Driven Information Extraction. In ICCSA (3) (pp. 660–673). Zaragoza, H., & Gallinari, P. (1998). Coupled Hierarchical IR and Stochastic Models for Surface Information Extraction. In BCS-IRSG Annual Colloquium on IR Research. BCS. Zhou, G., & Su, J. (2002). Named entity recognition using an hmm-based chunk tagger. In Proceedings of the 40th annual meeting on association for computational linguistics (pp. 473–480). Zhou, Z.-H., & Jiang, Y. (2003). Medical diagnosis with C4.5 rule preceded by artificial neural network ensemble. IEEE Transactions on Information Technology in Biomedicine, 7 , 37–42.
{'path': '46/tel.archives-ouvertes.fr-tel-02180540-document.txt'}
Analyse archéologique et approches paléoenvironnementales : l'exemple du port de Kition-Bamboula (Larnaca, Chypre) Jean-Christophe Sourisseau, Jean-Philippe Goiran, Christophe Morhange To cite this version: Jean-Christophe Sourisseau, Jean-Philippe Goiran, Christophe Morhange. Analyse archéologique et approches paléoenvironnementales : l'exemple du port de Kition-Bamboula (Larnaca, Chypre). Cahiers du Centre d'Etudes Chypriotes, Association Centre d'Etudes Chypriotes, 2003, 33 (1), pp.253 - 272. 10.3406/cchyp.2003.1439. halshs-01856933 HAL Id: halshs-01856933 https://halshs.archives-ouvertes.fr/halshs-01856933 Submitted on 10 Feb 2021 Distributed under a Creative Commons Attribution - NonCommercial - NoDerivatives| 4.0 International License Cahiers du Centre d'Etudes Chypriotes Analyse archéologique et approches paléoenvironnementales : l'exemple du port de Kition-Bamboula (Larnaca, Chypre) Jean-Christophe Sourisseau, Jean Philippe Goiran, Christophe Morhange Résumé De récentes études géomorphologiques sur différents ports de la Méditerranée ont mis en évidence l'évolution dynamique des littoraux de l'Antiquité à nos jours. On examine ici le cas de l'antique Kition, moderne Larnaca : les études menées par la mission française révèlent des changements importants entre la période antique (du début du premier millénaire à l'époque impériale), pendant laquelle les ports de Kathari et Bamboula disposaient d'un accès direct à la mer, et l'époque médiévale, qui voit la formation d'une lagune presque fermée, enfin les colmatages du XIXe s. suivis des grands travaux d'urbanisme du XIXe ; la ligne de côte, désormais artificielle, s'est alors fortement éloignée des sites antiques. Citer ce document / Cite this document : Sourisseau Jean-Christophe, Goiran Jean Philippe, Morhange Christophe. Analyse archéologique et approches paléoenvironnementales : l'exemple du port de Kition-Bamboula (Larnaca, Chypre). In: Cahiers du Centre d'Etudes Chypriotes. Volume 33, 2003. pp. 253-272; doi : https://doi.org/10.3406/cchyp.2003.1439 https://www.persee.fr/doc/cchyp_0761-8271_2003_num_33_1_1439 Fichier pdf généré le 15/05/2018 Cahier du Centre d'Études Chypriotes 33, 2003 ANALYSE ARCHÉOLOGIQUE ET APPROCHES PALÉOENVIRONNEMENTALES L'exemple du port de Kition-Bamboula (Larnaca, Chypre) * Jean-Christophe SOURISSEAU, Jean-Philippe GOIRAN et Christophe MORHANGE : Résumé. De récentes études géomorphologiques sur différents ports de la Méditerranée ont mis en évidence l'évolution dynamique des littoraux de l'Antiquité à nos jours. On examine ici le cas de l'antique Kition, moderne Larnaca les études menées par la mission française révèlent des changements importants entre la période antique (du début du premier millénaire à l'époque impériale), pendant laquelle les ports de Kathari et Bamboula disposaient d'un accès direct à la mer, et l'époque médiévale, qui voit la formation d'une lagune presque fermée, enfin les colmatages du XIXe s. suivis des grands travaux d'urbanisme du XIXe ; la ligne de côte, désormais artificielle, s'est alors fortement éloignée des sites antiques. L'intérêt des archéologues et des historiens pour les ports antiques relève d'une démarche déjà ancienne. Il suffit pour s'en convaincre de consulter la recension bibliographique thématique éditée par D. J. Blackmann en 1982 mise à jour pour la Grèce en 1997 par le même auteur. À partir du XIXe siècle, les prestigieux ensembles d'Ostie, de Carthage, du Pirée ou d'Alexandrie, pour ne citer que les plus célèbres, ont fait l'objet de descriptions et parfois de restitutions architecturales plus ou moins pertinentes 2. Toutefois, le regard qu'on a porté à l'époque sur les ports est généralement resté très superficiel. Les méthodes d'approches utilisées combinaient l'observation de la topographie moderne et des restes architecturaux conservés avec l'analyse des textes anciens et des sources iconographiques d'une interprétation souvent délicate3. A mais revue * S'il tout (CCEC avait autant 32,été2002), d'achevé enthousiasme offert à temps, en hommage quecetnous article àvoudrions Marguerite aurait été lui Y publié dédier on. C'est dansdonc cette le numéro contribution. avec unprécédent peu de retard, de la 1. Publiée en deux parties distinctes : Blackmann 1982a et 1982b. 2. Il faut signaler par exemple la publication récente de bonnes reproductions des «envois de Rome» de l'architecte français Pierre-Joseph Garrez (1802-1852) dont une partie du travail a porté, en 1834, sur le port de Trajan à Ostie (Italia Antiqua 2002, p. 393397). 3. Sur ces aspects voir Blackmann 1982a, p. 79-85. 254 CCEC 33, 2003 l'exception de quelques tentatives anciennes d'ampleur limitée, la fouille des ports à proprement parler est un phénomène récent. Parmi les travaux pionniers d'envergure, l'opération d'archéologie préventive (alors qualifiée de sauvetage) sur le secteur portuaire de la Bourse à Marseille fait presque aujourd'hui figure de mythe fondateur, malgré les difficultés techniques et méthodologiques rencontrées par les fouilleurs 4. Depuis, des travaux en divers points de la Méditerranée, en particulier à Carthage 5, à Phalasarna 6, à Lattes7, à Cumes 8, à Caesarea 9 ou de nouveau à Marseille 10, ont permis d'engager une véritable réflexion méthodologique visant à appréhender au mieux les milieux portuaires antiques et à surmonter les difficultés à la fois techniques et conceptuelles importantes que posent de telles opérations de fouille. L'un des acquis principaux de ces diverses expériences a été la prise de conscience par les chercheurs de la grande mobilité des paysages côtiers aménagés, dont les ports sont un des éléments structurants primordiaux. Si l'idée d'une dynamique des paysages littoraux, aménagés ou non, fait partie intégrante de la réflexion des géographes et des géomorphologues depuis de nombreuses années, les archéologues et les historiens qui entretiennent généralement une vision plus statique de la sédimentation d'un site, ne prennent en compte ces contraintes que depuis peu. Aborder un port antique oblige aujourd'hui à admettre l'idée que par nature les ports sont installés au point de contact de deux milieux bien caractérisés à un moment donné et seulement à un moment donné : les domaines terrestre et maritime. Il s'agit en effet d'une marge en perpétuelle évolution du fait non seulement de dynamiques naturelles (évolution du niveau relatif de la mer, érosion continentale et de la bordure côtière due aux courants marins et aux vagues, activité tectonique qui soulève ou affaisse le substrat, etc.) mais aussi du fait de l'activité humaine directement liée aux aménagements portuaires et à l'urbanisation qui se développe souvent à leurs abords. Il en résulte un phénomène plus ou moins dynamique de dégradation des paléoenvironnements côtiers qui se traduit en particulier par un transport de matériaux des parties hautes vers les zones déprimées, notamment les bassins portuaires. L'histoire des ports apparaît donc comme une adaptation perpétuelle de l'homme à un milieu en cours de dégradation 4. Sur les conditions de la fouille et les choix méthodologiques adoptés, on consultera la note de M. Euzénnat (1992). Sur le port, dans ce secteur, voir le travail de R. Guéry (1992) et surtout la remise en perspective de ces découvertes au regard des travaux récents dans Hesnard 1994, 1995, 1999 et dans Hesnard et al. 2001. 5. Hurst 1992, 1993 et 1994 (avec la bibliographie antérieure). 6. Frost 1997 (avec la bibliographie antérieure). 7. Garcia, Vallet (dir.) 2002. 8. En dernier lieu, voir : Morhange et al. 2002 et Stefaniuk et al. 2003 (avec la bibliographie antérieure). 9. Reinhardt et al. 1998. 10. Pour les fouilles récentes des secteurs dits des places Jules-Verne et VilleneuveBargemon, voir Hesnard 1994, 1995, 1999, Hermary et al. 1999 et Hesnard et al. 2001. 11. Voir Morhange (dir.) 2000. J.-C. SOURISSEAU, J. -P. GOIRAN, C. MORHANGE, PORT DE KITION 255 Compte tenu de ces conditions et de la spécificité des contextes géographiques choisis par les anciens, les ports antiques nous sont parvenus sous la forme de sites aux configurations diverses. Toutefois, une tendance au confinement, dictée par le rôle fondamental d'abri côtier des ports, a généré une série assez importante de sites archéologiques qui se caractérise par des bassins portuaires colmatés par des apports sédimentaires d'origine continentale. C'est le cas de Marseille, de Carthage, de Lattes ou de Kition. Éloignés de la ligne de côte actuelle, ils ont scellé une stratigraphie témoignant de ce comblement plus ou moins progressif depuis les premières fréquentations jusqu'à l'abandon définitif du rôle portuaire du secteur considéré. Une telle spécificité de l'objet archéologique ne facilite pas la lecture des données nécessaires à la restitution d'une histoire du port. C'est pourquoi il a fallu non seulement se poser des questions nouvelles mais surtout croiser les approches de disciplines différentes pour tenter d'y répondre. Les principaux résultats obtenus à Kition -Bamboula ont été en partie publiés mais sous la forme de travaux destinés plus spécifiquement à la communauté des géomorphologues et des géographes 12. Il nous est apparu important de présenter ici un bref bilan de ces travaux dans une optique résolument historique et archéologique. Ceci pour montrer que la fouille des ports, aussi spécifique soit-elle, s'intègre naturellement dans une approche archéologique classique et que le recours à d'autres disciplines du domaine des géosciences ne répond ni à une mode ni à une dérive scientiste mais bien à la nécessité d'élaborer les outils adaptés à une situation complexe. PROBLÉMATIQUE ET MÉTHODOLOGIE Situation des fouilles du port de Kition -Bamboula La fouille de la mission française de Kition -Bamboula, dirigée depuis 1976 par M. Yon, s'étend sur un assez vaste terrain protégé de l'urbanisation croissante de ce secteur de la ville de Larnaca (Fig. 2), à environ 400 mètres de la côte actuelle 13. L'intérêt des membres de la mission s'est tout d'abord porté sur la colline d'une hauteur de moins de dix mètres constituée artificiellement depuis l'Antiquité par l'accumulation de remblais 14. C'est en élargissant les investigations vers la partie basse, au nord du 12. Voir Morhange étal. 1999 et 2000. 13. Pour un résumé des principaux résultats, voir la synthèse d'Y. Calvet (1993), ainsi que les chroniques de fouilles régulièrement publiées dans le BCH (liste complète et pagination, voir Yon 2000, p. 115). Quatre volumes de la publication du site sont parus : Calvet 1982, Salles 1983, Yon, Caubet 1985 et Salles 1993 ; le cinquième est sous presse : Yon 2004. On ajoutera à cette liste quelques travaux récemment publiés : Calvet 2002 et Yon 2002. 14. Accumulation volontaire, probablement pour supporter la construction d'un fortin (Moyen Âge ?) : sur cette question, voir Yon 2002. 256 CCEC 33, 2003 terrain, que furent mises au jour, dans un second temps, des installations portuaires militaires particulièrement bien conservées 15. Les questionnements archéologiques Si l'objectif premier des membres de la mission était la compréhension et la restitution architecturale des hangars abritant les navires de guerre des rois de Kition, il est rapidement apparu intéressant de tenter de replacer cet ensemble monumental dans une topographie portuaire plus générale qui nous était pratiquement inconnue. A cette échelle d'analyse élargie, il convenait de savoir quelles étaient les principales caractéristiques du bassin qui accueillait ces neoria (forme, dimensions, profondeur). Compte tenu de son enclavement dans la terre ferme, à environ 400 mètres de la ligne de côte actuelle, comment ce bassin pouvait-il être en relation avec la mer ? Fallait-il envisager un bassin fermé communiquant avec le large par un chenal aménagé 16, c'està-dire un cothon 17, sur le modèle de Carthage (circulaire), de Motyé-Mozia 18 ou de Mahdia (rectangulaire) 19 ? Cette installation était-elle, comme à Carthage, une création artificielle, creusée de main d'hommes (Virgile, Enéide, I, 427 ; Appien, Libyca, VIII, 96) ou s'était-elle adaptée à une configuration naturelle favorable ? Autant de questions auxquelles il semblait difficile de répondre au regard de la topographie actuelle et au moyen des méthodes classiques de l'archéologie, qui plus est en milieu urbain dense. L'approche méthodologique choisie Si la partie haute de l'ensemble architectural a pu être explorée de manière traditionnelle, les fouilleurs ont été gênés dans la partie basse, au nord, par la présence d'une nappe phréatique permanente dont l'altitude moyenne, supérieure au niveau de la mer, recouvrait largement les vestiges archéologiques 20. Compte tenu de cette configuration particulière du terrain et des problématiques développées, la collecte des données de terrain a été réalisée suivant une double approche : des sondages archéologiques classiques de dimensions réduites et des carottages. Les sondages effectués exclusivement sur le site de Kition -Bamboula l'ont été en fonction de questionnements relatifs à l'organisation des structures construites des neoria et de la stratigraphie en relation avec ces constructions. Des prélèvements de sédiments au sein des couches fouillées ont été effectués afin de disposer d'un référentiel précis qui 15. Pour un bilan récent, voir Yon 2000 (avec la bibliographie antérieure). 16. Hypothèse retenue par K. Nicolaou 1976. 17. Sur la définition du cothon et les exemples de ports correspondant à ce modèle, voir Carayon à paraître. 18. Isserlin 1971 et 1974 ; Fama 1995. 19. Lezine 1965 ; Zaouali 1999 ; Fantar 1999. 20. Cette situation s'explique assez facilement car le substrat géologique local, constitué de marnes imperméables, empêche les eaux de ruissellement de s'évacuer par le bas, et les sédiments archéologiques accumulés du comblement portuaires font rétention, empêchant leur évacuation rapide par la mer. J.-C. SOURISSEAU, J.-P. GOIRAN, C. MORHANGE, PORT DE KITION 257 puisse être mis en relation avec la stratigraphie archéologique. En termes structurels, la fouille par sondages suivant une méthode archéologique classique parfois rendue difficile par la présence de l'eau de la nappe phréatique a donné des résultats satisfaisants puisque le plan des structures portuaires a pu être restitué (Fig. 1 et 3). Toutefois la présence de la nappe phréatique a en partie limité la lecture des couches inférieures attestant du comblement ancien du bassin. L'approche chronologique de l'histoire du site sur la longue durée n'a pu être obtenue que par une série de carottages21 dont les enseignements ne se limitent pas au strict domaine de l'approche géomorphologique. ANALYSE DES CAROTTAGES Au total, 17 carottages ont été réalisés : 11 sur le site de Kition-Bamboula et 6 dans un environnement plus large (Fig. 1 et 6 a) 22 . Le prélèvement de colonnes sédimentaires devait nous permettre d'acquérir une meilleure connaissance des paléoenvironnements et des processus de sédimentation. Ces dépôts fossiles ont été comparés à un référentiel sédimentologique dans l'actuel qui tient compte de la diversité des milieux de sédimentation. Les datations au radiocarbone 23 sont en cours de calibration et seront modulées par le calcul de l'âge de l'eau de mer 24. Les dates proposées dans cet article constituent une mise à jour des données précédemment publiées 25. - Dans le bassin portuaire de Bamboula Tous les carottages réalisés dans le bassin portuaire livrent une stratigraphie identique d'une colonne à l'autre, composée de cinq unités sédimentaires distinctes. Pour l'illustrer, présentons brièvement les résultats obtenus sur la carotte C VI (Fig. 4) 26. Unité sédimentaire A = milieu marin protégé Cette unité basale se compose d'une alternance de passées de posidonies et de vases. Les macrorestes végétaux associent des fibres et des rhizomes issus des herbiers de posidonies qui se développent dans l'étage infralittoral de Méditerranée. Ces passées se 21. Grâce au soutien technique du Cyprus Geological Survey que nous tenons à remercier. 22. Le carottier utilisé est de type rotatif, avec un diamètre de trousse coupante de 10 cm. Les carottes sont divisées en plusieurs unités stratigraphiques homogènes qui tiennent compte de la couleur du sédiment (code Muriseli), de la texture générale, de la granulométrie (Folk, Ward 1957) et du contenu macro et microfaunistique. Toutes les altitudes ont été calées par rapport au zéro marin biologique obtenu par la limite supérieure des biocénoses de l'étage infralittoral (Pérès, Picard 1964 ; Laborel, Laborel-Deguen 1994), sachant que le marnage actuel est compris entre 25 et 40 cm (Heikell 1993). 23. Les datations au radiocarbone sont effectuées par Chr. Oberlin du laboratoire de l'Université Lyon 1. 24. Pour une application de la méthode, voir Goiran 2001. 25. Morhange et al. 1999 et 2000. 26. Pour une description plus détaillée des résultats obtenus en laboratoire, voir Morhange et al. 2000. 258 CCEC 33, 2003 mettent en place en hiver lors de la défloraison des herbiers 27. Les datations au radiocarbone réalisées sur ces phanérogames indiquent 3000 + 50 BP pour le niveau inférieur - soit 900 à 750 av. J.-C. -, et 2100 ± 50 BP - soit 100 à 300 apr. J.-C. pour le niveau supérieur 28. La fraction sédimentaire grossière (ballast) est composée de macrorestes végétaux et de quelques tessons de céramiques non roulés qui attestent une présence humaine. La fraction sableuse présente des courbes granulométriques concaves qui indiquent un mode calme. L'indice de Skewness indique un enrichissement en sables fins 29 . La fraction limono-argileuse représente plus de 75% du poids total à sec du sédiment. La macrofaune se compose de trois principaux assemblages (Pérès, Picard, 1964). L'assemblage le plus représenté se développe sur des fonds marins vaso-sableux (Abra tenuis, Venerupis aureus). Le deuxième correspond à l'herbier de posidonies (Bittium reticulatum). Le dernier rassemble des espèces euryhalines et eurytherme caractéristiques des environnements lagunaires (Cerastoderma glaucum, C. lamarkii). Ces associations traduisent un milieu marin ouvert évoluant progressivement vers un milieu plus protégé. Unité sédimentaire Β = lagune Le changement de faciès est brutal. Aux vases organiques noires à passées de posidonies succèdent des sables coquilliers riches en microfaune. Les tessons de céramique sont toujours présents mais de taille trop réduite pour être déterminés. La fraction limono-argileuse, toujours abondante, indique un mode de sédimentation calme. L'assemblage macrofaunistique en place caractérise un milieu lagunaire (Cyclope sp., Diplodonta rotundata). Le second assemblage regroupe des coquillages juvéniles remaniés du domaine marin (B. reticulatum). Ces espèces marines n'ont pas pu se développer dans un milieu lagunaire. Leur présence signale que les communications avec la mer sont toujours possibles. L'ostracofaune se compose à 98% de Cyprideis torosa qui traduit le confinement du milieu. Unité sédimentaire C = lac salé L'unité C montre une concentration importante de cristaux de gypse. A sa base, on obtient une date radiocarbone de 1600 ± 40 BP soit les VIIIe et IXe apr. J.-C. 30 L'excellent état de conservation et la morphologie des rosettes de gypse suggère une cristallisation in situ sous une faible tranche d'eau. Le stock macrofaunistique est absent, en revanche l'ostracofaune est caractérisée par 94% de Cyprideis torosa. Il s'agit d'une espèce euryhaline et eurytherme, tolérante aux changements écologiques du milieu. 27. Molinier, Picard 1952. 28. Les données de cette analyse 14 C sont consultables au laboratoire de Lyon 1 sous le code (Ly 7986) pour le niveau inférieur et (Ly 7987) pour le niveau supérieur. 29. Folk, Ward 1957. 30. (Ly 745 OxA). J.-C. SOURISSEAU, J. -P. GOIRAN, C. MORHANGE, PORT DE KITION 259 Unité sédimentaìre D = lagune Il s'agit d'un faciès sablo-vaseux riche en tessons de céramique (non déterminables). La granulométrie de la fraction sableuse montre des courbes cumulatives linéaires, typiques des dépôts peu triés. L'indice de Skewness indique un enrichissement en sables fins. La macrofaune regroupe deux espèces : l'une est caractéristique des eaux saumâtres (Hydrobia ventrosa) l'autre, remaniée, provient des herbiers de posidonie (B. reîiculatum) . L'ostracofaune est représentée principalement par C. torosa (70%) et A. woodwardii (11%). Ces derniers témoignent d'une réouverture du milieu et d'une communication épisodique avec la mer. La présence de charophytes indique des apports d'eau douce. Le milieu lagunaire semble soumis à deux types d'influences, l'une marine et l'autre fluviale. Unité sédimentaìre E L'unité se compose de vases sableuses médiocrement triées. Des courbes cumulatives linéaires ou concaves et des enrichissements en sables fins sont typiques d'un mode calme. La macrofaune marine est absente. Des gastéropodes pulmonés font leur apparition. Cette macrofaune continentale se compose de Helicellinae, Theba pisana, Cochlicella acuta, caractéristique de la strate herbacée littorale de Méditerranée. Les ostracodes d'eau douce représentent 40% des assemblages (4% pour C. torosa et 9% pour A. woodwardii et Urocythereis sp.). Les charophytes sont très abondants. La partie supérieure de la carotte correspond à des remblais lors des opérations de bonification des marécages côtiers par l'administration britannique au XIXe siècle. - En dehors du bassin portuaire Les carottages réalisés en dehors de l'aire portuaire ont permis de restituer la configuration et l'évolution des formes du paysage à une échelle plus large 31 . Deux éléments principaux du paléopaysage ont ainsi été révélés. Un large et épais cordon de galets se situe immédiatement à l'est du site de Yàûon-Bamboula. Il repose sur des niveaux de posidonies datés de 2600 ± 60 BP - soit 520 à 230 av. J.-C. 32 Au nord du site de Kition -Bamboula et à proximité du site de Kathari, une vaste baie marine s'ouvre vers le nord-est. La présence d'un domaine marin dans cette zone est antérieure ou contemporaine de 4300 ± 50 BP - soit 2600 à 2300 av. J.-C. 33 Ce milieu semble se transformer progressivement en un chapelet de lagunes coalescentes protégées des influences marines par le cordon de galets. Le terme ultime du comblement sédimentaìre correspond à des marécages côtiers d'eau douce. 31. Morhange et al. 2000 32. (Ly 8607). 33. (Ly 8608). 260 CCEC 33, 2003 Essai de reconstitution des paléopaysages antiques et médiévaux d'après les données de l'analyse paléoenvironnementale (Fig. 5) Trois grandes étapes successives caractérisent l'évolution des paléoenvironnements côtiers. Première période : 3000 à 2100 BP, soit du début du Ier millénaire av. J.-C. aux IIe-IVe s. apr. J.-C. Au cours de cette époque, des sédiments fins, riches en passées de posidonies, se déposent dans un fond de baie protégé. La présence d'un vaste herbier de posidonies limite l'influence des houles et des courants. Les assemblages de macro et microfaune observés dans le port de Kition -Bamboula marquent le début d'un confinement progressif du milieu 34. A partir de 2600 BP (entre le VIe et le IIIe s. av. J.-C.), un cordon de galets se met en place sur les herbiers de posidonies et progresse rapidement en direction du nord-est. À l'arrière de ce cordon, un milieu lagunaire commence à se former. C'est dans un contexte de lagune semi-ouverte que le port de guerre de Kition est implanté à l'époque classique. Plus au nord, les secteurs côtiers de Kathari et de Lichines s'ouvrent sur une large baie marine également protégée par un cordon de galets discontinu. Deuxième période : 2100 à 1600 BP, soit des IIIe-IVe s. apr. J.-C. aux VIIIe-IXe s. apr. J.-C. Le secteur de Bamboula est toujours en communication avec la mer, probablement par l'intermédiaire de graus traversant le cordon de galets. Les faunes lagunaires et la persistance d'une abondante fraction limono-argileuse indiquent une protection de plus en plus accrue du milieu. Le paysage devait ressembler à une lagune semi-fermée en connexion avec la mer. Troisième période : après 1600 BP, soit après les VIIIe-IXe s. apr. J.-C. Le paysage change radicalement, la lagune s'est transformée en sebkha littorale où prédominent les précipitations de gypse. Ce milieu est déconnecté du domaine marin. Les apports d'eau occasionnels devaient être dus aux pluies, aux oueds ou à la mer lors de tempêtes. Le paysage de cette époque était probablement semblable à celui du lac Salé Tekke d'aujourd'hui ou de certaines lagunes sursalées du sud de la Sicile 35. DONNÉES PALÉOENVIRONNEMENTALES ET QUESTIONNEMENTS ARCHÉOLOGIQUES : QUELQUES ÉLÉMENTS DE RÉFLEXION L'analyse des carottages, on l'a vu, permet de restituer une évolution relativement précise du paysage portuaire de Kition. Néanmoins, ces données peuvent être complétées 34. Guelorget, Pertuisot 1983. 35. Dongarrà et al. 1985. J.-C. SOURISSEAU, J.-P. GOIRAN, C. MORHANGE, PORT DE KITION 261 par certaines observations effectuées lors des sondages classiques et doivent être confrontées aux questionnements archéologiques formulés au préalable. Reprenons notre question du départ : le port de Kition -Bamboula est-il un cothon, au sens où en l'entend à Carthage ? 36 Un bassin artificiel ? Les carottages effectués montrent clairement que le colmatage progressif du bassin est amorcé bien avant la période classique. Les datations radiocarbones évoquent pour la base du corps sédimentaire en question (unité sédimentaire A) une date autour de 3000 BP (vers le début du Ier millénaire av. J.-C.). Un sondage réalisé en 1996 37 (Fig. 1 ), illustre à propos cette occupation ancienne avec la découverte, sous le niveau du sol de la partie basse des rampes de halage d'époque classique, d'une couche de comblement de nature marine qui contenait un riche mobilier céramique de la fin du XIIIe s. av. J.C. 38. Il est donc bien établi que les Kitiens de la fin du IIe millénaire avant notre ère fréquentaient déjà cet abri côtier et qu'il n'a pas été creusé à l'occasion de l'installation de l'arsenal chypro-phénicien. Forme et dimensions du bassin Depuis les premiers travaux de la mission française dans la partie ouest du site, on sait qu'il existe une limite topographique assez nette et à peu près rectiligne qui sépare un secteur d'occupation urbaine (Bronze Récent et Chypro-Géométrique I) reposant sur le substrat rocheux légèrement en pente et une zone déprimée où le substrat n'a jamais pu être atteint par les fouilleurs 39. On sait aujourd'hui que cette banquette rocheuse constituait la limite ouest du bassin portuaire. Au sud, la construction des neoria a imposé une limite rectiligne perpendiculaire à ce premier axe. Des traces de réaménagements de la topographie antérieure, nécessaires à l'installation de l'ensemble architectural, ont pu être observées à plusieurs endroits 40. Toutefois ces travaux d'adaptation semblent avoir été d'ampleur limitée, le site ayant probablement été choisi pour sa configuration favorable. Faute de fouilles, la limite nord du bassin est plus difficile à envisager. Toutefois, la topographie actuelle évoque un bassin assez étroit puisqu'à une cinquantaine de mètres au nord de la limite basse des neoria , le terrain actuel marque un talus très net à la base duquel a été installée l'actuelle rue E.-Gjerstad (Fig. 1). Cette restitution topographique 36. Voir supra, note 16. 37. Sondage I 1 1/3 et 4. 38. Ce matériel céramique est en partie publié dans Yon 2000, p. 112. 39. Voir plans et données topographiques dans Yon, Caubet 1985, p. 7, 9-14 (sondage L-N 13). 40. Les rampes de halage d'époque classique ont été, dans certains cas, installées après que des couches d'occupation marine antérieures ont été en partie déblayées (observations effectuées dans le sondage I 1 1/3 et 4). L'installation du mur ouest des neoria a également nécessité des travaux d'adaptation de la topographie par apport de remblais dans la partie haute et par creusement des couches plus anciennes dans la partie basse. 262 CCEC 33, 2003 hypothétique trouve une confirmation dans la lecture d'un document dont la finalité première était l'étude de la structure sédimentologique du bassin. Lors des campagnes de terrain, six carottages alignés suivant un axe nord/sud ont été pratiqués au coeur du bassin 41. Les données recueillies ont permis l'élaboration d'une coupe partielle mais assez précise de la sédimentation accumulée qui fait apparaître, en outre, le profil du substrat (Fig. 6). On sait par ailleurs où se situait la limite basse des hangars depuis la découverte de la base Loc. 818 (Fig. 3) et l'on suppose que la ligne de rivage venait effleurer cette structure 42 . En replaçant l'ensemble de ces éléments dans la coupe nordsud on voit apparaître la largeur maximale du bassin, entre l'extrémité de la base Loc 818 et la carotte Cil, soit environ 50 mètres. Toutefois, à l'échelle du bassin, cette distance doit être considérée comme un minimum car la coupe a été effectuée dans un secteur proche du fond de l'anse naturelle, à l'ouest. Il est possible que, vers l'est, cette distance soit plus importante, comme le suggère la topographie actuelle. On peut donc proposer une hypothèse de restitution d'un troisième côté ouvrant légèrement le bassin vers le nord-est, ce qui lui donnerait ainsi une forme plutôt trapézoïdale que rectangulaire. Le même document (Fig. 6) nous informe également sur une caractéristique rarement soulignée : la profondeur du bassin. Nous connaissons en effet le niveau moyen du plan d'eau à l'époque classique, ainsi que la position et le profil du substrat. La carotte CI, au coeur du bassin, nous permet d'évaluer la profondeur maximale, avec environ 2,5 mètres. Les carottes CVI, CIV et CIII, plus proches des rives nord et sud, montrent que la colonne d'eau maximale ne pouvait dépasser 2 mètres. Pour obtenir une évaluation plus juste de la profondeur du bassin à l'époque classique, il faut tenir compte du fait que, depuis plusieurs siècles déjà, des sédiments s'accumulent dans le fond de ce bassin, sous la forme de vase compacte. Le fond du bassin à l'époque de l'installation des neoria n'est donc pas constitué par la surface du substrat, mais par le niveau supérieur d'une couche de vase dont l'épaisseur ne nous est pas connue avec précision. La profondeur maximale du bassin ne devait donc pas dépasser 2 mètres, voire un peu moins, lors de la mise en service des hangars à vocation militaire. Par la suite, le colmatage progressif mais inexorable du bassin a dû rapidement faire diminuer la hauteur de la colonne d'eau jusqu'à, peut-être, poser des problèmes de circulation et de manoeuvre. Enfin, comment ce complexe s'ouvrait-il sur la mer ? Existait-il une limite est, c'est-à-dire un quatrième côté fermant le bassin et le protégeant des dangers du large ? La fouille n'a rien montré de tel, mais elle ne le pouvait guère puisque, dans ce secteur, l'extension des terrains archéologiques est assez limitée, à tel point que même la limite est des hangars ne nous est pas connue. En revanche, les données stratigraphiques nous 41. Pour la localisation de ces carottes, voir la figure 1 (carottes CV, CVI, CI, CIV, CIII et CII). 42. La fouille a révélé l'existence d'un haut de plage en place au pied de la base Loc. 818 ce qui indique que le niveau de l'eau à l'époque classique se situait aux environs du niveau altimétrique 0 du cadastre actuel. J.-C. SOURISSEAU, J.-P. GOIRAN, C. MORHANGE, PORT DE KITION 263 livrent des éléments suffisamment explicites permettant de repousser cette éventualité. À l'époque classique, le bassin à vocation militaire de Bamboula est largement ouvert sur une lagune en formation protégée du large par un cordon de galet. Des graus, situés plus au nord, permettaient une circulation entre la haute mer et la façade maritime abritée de la cité. Il est donc impossible d'envisager l'existence d'un quatrième coté fermant le bassin. Dans ces conditions, l'hypothèse du chenal de sortie ne peut plus être retenue non plus. Le modèle du cothon, sous-jacent dans la proposition de restitution topographique de K. Nikolaou en 1976 (Fig. 7), ne semble plus acceptable aujourd'hui. En revanche, la configuration portuaire caractérisée par une puissante protection naturelle constituée par un cordon de galets ne semble pas incompatible avec la mention de Strabon d'un port fermé (Géogr. XIV, 6, 3). Tout est question d'échelle et de point de vue dans l'interpré¬ tation de ce passage. En plus de protéger la côte des tempêtes, le cordon de galet pouvait également jouer le rôle d'une « fortification maritime » dont les portes étaient les graus. L'ensemble ou seulement une partie de la façade maritime de Kition pouvait donc apparaître « fermée » par cet obstacle naturel infranchissable (Fig. 7). Les propos de Strabon semblent indiquer un point de vue maritime de la perception du port de Kition, un regard de marin conscient des contraintes strictes en matière d'accès à la côte dans ce secteur. C'est à des arguments de natures diverses qu'il a fallu faire appel pour être en mesure de proposer une restitution des principales caractéristiques du bassin portuaire qui, à l'époque classique, va accueillir une partie de la flotte de guerre des rois de Kition. Le choix s'est porté sur une petite baie déjà fréquentée par le passé et qui présentait l'avantage, à ce moment précis, d'être suffisamment protégée de la haute mer, à l'Est, par un cordon de galets parallèle à la côte. Le site offrant une configuration avantageuse, le bassin de forme trapézoïdal a été doté, sur la rive sud, de hangars d'une longueur d'environ 40 mètres accueillant des navires de guerre d'une taille à peine inférieure 43. La largeur restituée du bassin (50 mètres) était donc à peine suffisante pour que puissent s'effectuer les manoeuvres d'entrée et de sortie des trières, tout particulièrement celles qui étaient parquées dans les loges situées à l'ouest des neoria. La profondeur modeste du bassin (2 mètres ou moins) confirme le faible tirant d'eau de bateaux de guerre tels que les trières d'époque classique. Le démantèlement de ces infrastructures militaires, vers la fin du IVe s. av. J.-C., a été mis en relation avec la conquête de l'île par Ptolémée, en insistant sur sa volonté de faire disparaître les signes symboliques de la puissance du pouvoir précédent 44. Le colmatage du bassin se poursuivant inexorablement, il est possible que Ptolémée ait trouvé un arsenal difficilement utilisable du fait de la dégradation des conditions d'accès et de navigabilité. Le geste symbolique du souverain lagide est incontestable, sa valeur stratégique et militaire pourrait être discutée. 43. Yon 2000. 44. Yon 2000. 264 CCEC 33, 2003 CONCLUSION Les études relatives aux paléoenvironnements trouvent aujourd'hui leur place dans une véritable géoarchéologie 45 dont l'objet d'étude est avant tout le sédiment, c'est-àdire la matière qui entoure l'objet archéologique au sens traditionnel du terme. Ces intérêts apparemment divergents entre archéologues et environnementalistes ont longtemps entretenu un cloisonnement entre deux mondes de la recherche aux vocations finalement assez voisines. Qu'ils s'intéressent aux objets ou aux sédiments, tous veulent reconstruire une histoire. L'étude des ports antiques, avec ses fortes spécificités et ses problèmes insurmontables les uns sans les autres, constitue une expérience de dialogue réussie dans bien des cas. L'expérience du port de Kition montrera aux archéologues et aux historiens, nous l'espérons, que ce type d'approche est susceptible de produire des questionnements et des informations d'ordre historique, même si les objets d'étude et les techniques mises en oeuvre paraissent encore inhabituels. J.-C. S. : Université de Provence Centre Camille-Jullian-UMR 6573 MMSH, Aix-en Provence J.-P. G. : Archéorient-UMR 5133 Maison de l'Orient Université Lyon 2-CNRS C. M. : IUF CEREGE-UMR 6635 Université Aix-Marseille I BIBLIOGRAPHIE Blackmann (D.J.), 1982, «Ancient harbours in the Mediterranean. Part 1 », IJNA 11, 2, p. 79-104. Blackmann (D.J.), 1982, «Ancient harbours in the Mediterranean. Part 2 », IJNA 11, 3, p. 185-211. Blackmann (D.J.), 1997, «Archaeology in Greece 1996-1997 », Archaeological Reports for 1996-1997 , p. 1-127. Calvet (Y.), 1982, Kition-Bamboula I, Les timbres amphoriques, Paris. Calvet (Y.), 1993, « Kition. Travaux de la mission française / French mission », dans Kinyras, L'archéologie française à Chypre / French archaeology in Cyprus, Lyon, p. 107-138. Calvet (Y.), 2002, « La fondation d'un sanctuaire phénicien à KitionBamboula », Hommage à Marguerite Yon, CCEC 32, p. 173-183. Carayon (N.) à paraître, « Le cothon ou port artificiel creusé. Essai de définition », dans Chr. Morhange, J.-Ph. Goiran, N. Marriner (éd.), Mediterranean Coastal Geoarchaeology, Aix-en-Provence (.Méditerranée , 2005 (1-2). Dongarrà (G.), Azzaro (E.), Bellanca (Α.), Macaluso (Α.), Parello (F.), Badalamenti (F.), 1985, «Caratteris¬ tiche geochimiche di alcuni laghi ipersalini della Rendiconti delleSicilia Società Sud-Orientale Italiana di », Mineralogia et Petrologia 40, p. 317332. 45. Pour une réflexion sur le concept, voir Leveau 1995 et Goiran, Morhange 2001-2003. J.-C. SOURISSEAU, J.-P. GOIRAN, J.-C. MORHANGE, PORT DE KITION Euzennat (M.), 1992, « Marseille et son passé. Historique des découvertes », dans Marseille grecque et la Gaule, Actes du colloque de Marseille 1990 (Études Massaliètes 3), Lattes-Aix-en-Provence, p. 65-69. Fama (M.L.), 1995, «Il porto di Mozia », Sicilia Archeologica, 28, p. 171-180. Fantar (M. H.), 1999, « Villes-ports de Byzacène avant la conquête romaine », dans La Méditerranée : l'homme et la mer, Tunis ( Cahiers du CERES, série géographique, 21), p. 13-51. Folk (R.L.), Ward (W.C.), 1957, « Brazos river bar: a study in the significance of grain size parameters », Journal of Sedimentary Petrology 27, 1, p. 3-26. Frost (F.J.), 1997, «Tectonics and History at Phalasarna », dans S. Swiny, R.L. Hohlfelder, H. Wylde swiny (éd.), Res Maritimae. Cyprus and the Eastern Mediterranean from Prehistory to Late Antiquity, Atlanta, p. 107-115. Garcia (D.), Vallet (L.) (dir.), 2002, L'espace portuaire de Lattes antique {Lattara 15), Lattes. GOIRAN (J.-Ph.), 2001, Recherches géomor¬ phologiques sur le littoral d'Alexandrie en Egypte. Paléopaysages et évolution des milieux portuaires antiques. Thèse, Université de Provence, Aix-Marseille I (dir. M. Provansal et Chr. Morhange). Goiran (J.-Ph.), Morhange (Chr.), 2001 [2003], « Géoarchéologie des ports antiques de Méditerranée, problématiques et études de cas », Topoi 1 1 , p. 645-667. Guelorget (O.), Perthuisot (J.-P.), 1983, Le domaine paralique, expressions géologiques, biologiques et économiques du confinement, Travaux du Laboratoire de Géologie de l'E.N.S. 16, Paris. Guéry (R.), 1992, «Le port antique de Marseille », dans Marseille grecque et la Gaule, Actes du colloque de Marseille 1990 ( Études Massaliètes 3), Lattes/Aixen-Provence, p. 109-121. Heikell (R.), 1993, Turkish Waters Pilot, a yatchman's guide to the Aegean and Mediterranean coasts of Turkey with the island of Cyprus, Londres. 265 Hermary (Α.), Hesnard (Α.), Tréziny (H.), 1999, Marseille grecque. La cité phocéenne (600-49 av. J.-C.), Paris. Hesnard (Α.), 1994, « Une nouvelle fouille du port de Marseille, Place Jules-Verne », CRAI, p. 195-216. Hesnard (Α.), 1995, « Les ports antiques de Marseille, Place Jules-Verne », Journal of Roman Archaeology 8, p. 65-77 . Hesnard (Α.), 1999, «Le port», dans A. HEsnard, M. Moliner, Fr. Conche, M. Bouiron (dir.), Parcours de villes. Marseille : 10 ans d'archéologie, 2600 ans d'histoire, Marseille, p. 17-76. Hesnard (Α.), Bernardi (Ph.), Morel (Chr.), 2001, « La topographie du port de Marseille de la fondation de la cité à la fin du Moyen Age », dans Marseille. Trames et paysages urbains de Gyptis au Roi René, Actes du colloque de Marseille, 1999 (Études Massaliètes 7), Aix-enProvence, p. 159-202. Hurst (H.), 1992, « L'îlot de l'Amirauté, le port circulaire et l'avenue Bourguiba », dans A. En nabli (dir.), Pour sauver Carthage. Exploration et conservation de la cité punique, romaine et byzantine, Tunis, p. 79-94. Hurst (H.), 1993, «Le port militaire de Carthage », dans Marine antique, Les Dossiers dArchéologie 183, p. 42-51. Hurst (H.), 1994, Excavations at Carthage, the British Mission, II, 1, The circular Harbour, North Side, Oxford. Isserlin (B.S.J.), 1971, « New lights on the cothon at Motya », Antiquity 45, p. 178-186. Isserlin (B.S.J.), 1974, «The Cothon of Motya : Phoenician harbor works », Archaeology 27, 3, p. 188-194. Italia Antiqua 2002, Italia antiqua. Envois de dans et Romeledes monde architectes méditerranéen français aux en Italie XIXe et XXe siècles, Paris. Laborel (J.), Laborel-Deguen (F.), 1994, « Biological indicators of relative sealevel variations and of co-seismic displacements in the Mediterranean region », J. Coast. Res. 10 (2), p. 395415. Leveau (Ph.), 1995, « Géoarchéologie, géostrophique et géographie historique. À 266 propos des approches naturalistes et historiques du site de Marseille antique », dans Morhange (Chr.) (dir.), Les origines de Marseille, environnement et archéo¬ logie, Méditerranée 82 (3.4), p. 25-32. LÉZINE (Α.), 1965, Mahdiya. Recherche d'archéologie islamique, Paris. Mounier (R.), Picard (J.), 1952, Recherches sur les herbiers de Phanéro¬ games marines du littoral méditerranéen français, Annales de l'Institut Océanographique, Paris. Morhange (Chr.), Goiran (J.-Ph.), Bourcier (M.), Carbonel (P.), Kabouche (B.), Le Campion (J.), Prone (Α.), Pyatt (F. Β.), Rouchy (J.-M.), Sourisseau (J.-Chr.), Yon (M.), 1999, « 3000 ans de modifications des environnements littoraux à KitionBamboula (Larnaca, Chypre, Méditerranée orientale) », Quaternaire 10 (2-3), p. 133-149. Morhange (Chr.), Goiran (J.-Ph.), Bourcier (M.), Carbonel (P.), Le Campion (J.), Rouchy (J.-M.), Yon (M.), 2000, « Recent Holocene paleoenvironmental evolution and coastline changes of Kition, Larnaca, Cyprus, Mediterranean Sea », Marine Geology 170, p. 205-230. Morhange (Chr.), Vecchi (L.), Stefaniuk (L.), Goiran (J.-Ph.), Bui Thi Mai, Bourcier (M.), Carbonel (P.), Damant (Α.), Gasse (F.), Oberlin (C), 2002, " II problema della localizzazione del porto greco antico di Cuma : nuovi metodi e risultati preliminari ", dans Β. d'Agosti¬ no, A. d'Andrea (éd.), COMA. Nuove forme di intervento per lo studio del sito antico , Naples, p. 153-165. Morhange (Chr.) (dir.), 2000, Ports antiques et paléoenvironnements litto¬ raux, (Méditerranée, Revue géographique des pays méditerranéens 94, 1-2), Aix-enProvence. NlCOLAOU (K.), 1976, The Historical Topography of Kition, Göteborg (SIMA 153). Pérès (J.-M.), Picard (J.), 1964, Nouveau manuel de bionomie benthique de la mer Méditerranée, (Recueil des Travaux de la Station Marine d'Endoume 31, 47). CCEC 33, 2003 Reinhardt (E.G.), Patterson (R.T.), Blenkinsop (J.), Raban (Α.), 1998, « Paleoenvironmental evolution of the inner basin of the ancient hard rock at Caesarea Maritima, Israel ; foraminifère and Sr isotopie evidence», Revue Paléobiol., 17-1, p. 1-21. Salles (J.-Fr.), 1983, Kition-Bamboula II, Les égouts de la ville classique, Paris. Salles (J.-Fr.) (dir.), 1993, KitionBamboula, IV : Les niveaux hellénis¬ tiques, Paris. Stefaniuk (L.), Brun (J.-P.), Munzi (P.), Morhange (Chr.), 2003, « L'evoluzione dell'ambiente nei Campi Flegrei e le sue implicazioni le ricerche del storiche Centre: ilJean-Bérard caso di Cuma nellae laguna di Licola », dans Ambiente e paesaggio nella Magna Grecia (Atti del quarantaduesimo convegno di studi sulla Magna Grecia, Taranto, 5-8 ottobre 2002), Naples, p. 397-435. Yon (M.), 1993, «Le port de guerre de Kition », dans Marine antique, Les Dossiers d'Archéologie 183, p. 40-41. Yon (M.), 1995, «Kition et la mer à l'époque classique et hellénistique », dans Cyprus and the Sea (Symposium, Nicosia 1993), Nicosie, p. 119-130. Y ON (M.), 2000, « Les hangars du port chypro-phénicien de Kition. Campagnes 1996-1998 (mission française de KitionBamboula) », Syria 77, p. 95-116. Yon (M.), 2002, «The Acropolis that never was. A Myth to be destroyed», RDAC, p. 127-138. Yon(M.), 2004, Kition-Bamboula, V : Kition dans les textes : Testimonia et corpus épigraphique, Paris. YON (M.), Caubet (Α.), 1985, KitionBamboula II, Le sondage L-N 13, Bronze Récent et Géométrique I, Paris. Yon (M.), Callot (Ο.), Salles (J.-Fr.), 1996, « Neosoikoi in Kition, Cyprus», dans Tropis, IV ( Symposium " Ship Construction in Antiquity Athens 1991), p. 597-607. Zaouali (L.), 1999, « Mahdia, port et arsenal », dans La Méditerranée : l'homme et la mer, Tunis (Cahiers du CERES, série géographique, 21), p. 219239. J.-C. SOURISSEAU, J.-P. GOIRAN, J.-C. MORHANGE, PORT DE KITION 267 16 »I. c.«t I C.VI BASS i Ν DU PORT 117 citerne TERRASSE tiitrnt KITÌON-&AM&OULA 30 w. Figure 1. Plan schématique de la zone fouillée dans le secteur de Kition-Bamboula (état 1998), avec emplacement (d'après Yon des sondages 2000, p. 96). (S) et des carottages (C) CCEC 33, 2003 268 Cap Saint-André Cap Kormakiti KYRENIA • NICOSIE _ Cap Arnaut .SALAMINE FAMAGOUSTE 'WKIÊÊÊÊÊÊÊÊmWBm. KITION LARNACA PAPHOS ì LIMASSOL Cap Gata 0 10 20 30 VDumas, CCJ/CNRS, 2004 Figure 2. Localisation. m Figure 3. Plan schématique de la partie orientale des neoria de Kition (d'après Yon 2000, p. 97). 40 50km J.-C. SOURISSEAU, J.-P. GOIRAN, J.-C. MORHANGE, PORT DE ΚΓΓΙΟΝ ssnbjuopuejd S0JJIUILUBJOJ 9P% sejjjUjujBJOj sap snbypads aiisjaAin ' senbiisjunej sasseiqwassv saieuoqjeo (uoijonjjsep)sp % (ebeidwoo) ssdÄss θρ % 269 Figure 4. Résultats de l'analyse de la carotte CVI, Kition-B ambouL*, Larnaca, Chypre. CCEC 33, 2003 270 Bamboula F - XXe = Remblaiements siècle ap. J.-C. et urbanisation Artificialisation du trait de côte Bonification Urbanisation Larnaca Herbiers de posidonies Lagune résiduelle Larnaca E - XIXe siècle ap. J.-C. = colmatage final de la lagune (Dozon, 1881) Marécage côtier La Scala Herbiers posidonies de Apports deau douce D - Epoques médiévale et moderne Bamboula = Remise en eau de - la dépréssion littorale, lagune en cours de colmatage Herbiers de posidonies B' t Montée relative du niveau marin ? Grau Soulèvement tectonique ? Port B-Du lle-IVes. ap. J.-C. romain ? au Vllle-IXes. ap. J.-C. = Lagune ouverte Bamboula A - Du début Kathari du Ier millénaire av. J.-C Port mycénien au lle-IVe s. ap. J.-C. puis phénicien = Milieu marin Bamboula protégé Cordon littoral lagune > _ Herbiers de posidonies Vase de décantation ei dépôts de posidonies Herbiers de posidonies Figure 5. Évolution de la dynamique littorale du site de Kition, Larnaca, Chypre. J.-C. SOURISSEAU, J.-P. GOIRAN, J.-C. MORHANGE, PORT DE KITION 271 a. Carottier, Larnaca, 1997. 2.5 m 2-\ cv evi CI CIV CHI +3mCII Niveau marin moyen 1996 bloc, Loc. 81 8 ΙΞΐϋ I Ε3 b. ■ Remblais Dépôt Coupe organique postérieurs Figure nord-sud richeà 6.en l'occupation posidonies Carottages du bassin portuaire 21 portuaire à24 Larnaca, 27. .I Vase Substrat de30compacte Kition marneux Chypre. 33 -Bamboula. gris 36pléistocène clair39 42 [H3 45Sable48gris mètres 272 CCEC 33, 2003 HYPOTHÈSE NIKOLAOU 1976 l PORT DE COMMERCE / |\ - \j ΚΙΤΙΟΝΛγ* 4 ο firniss L Grau hvoothéthiae ìmh f VrXA VA ΓΤ\\ phénlcienÊttt XnFmtt~hé >Hk7 - τ®- TTs/NI ì Y\7\aI1Av\ \ \ - F / Iι νA MARINA -Jj jff 0 500 m de NOUVELLE restitutionHYPOTHÈSE du paléopaysage à l'époque classique tarin. PORT DE COMMERCE 12 -Kathari /\ phénicien Port\ * ■7 raitM Wae \verscôfej 180i (quaternaire Substrat] »ffde tilfif* |§|||$ί COntimMmrnJ côrdorM ga/efs. MARINA /y 500 m P. Pentsch Figure 7. Hypothèses de restitution du paléopaysage portuaire de Kition à l'époque classique. En haut, hypothèse de K. Nikolaou (1976) : port enclavé avec un chenal de communication. En bas, proposition d'une nouvelle hypothèse.
{'path': '32/halshs.archives-ouvertes.fr-halshs-01856933-document.txt'}
Financiarisation du risque pandémique : l'emprunt obligataire pandémique Emmanuel Okamba To cite this version: Emmanuel Okamba. Financiarisation du risque pandémique : l'emprunt obligataire pandémique. 2021. hal-03454689 HAL Id: hal-03454689 https://hal.archives-ouvertes.fr/hal-03454689 Preprint submitted on 29 Nov 2021 Financiarisation du risque pandémique : l'emprunt obligataire pandémique Emmanuel OKAMBA Maître de Conférences HDR en Sciences de Gestion Université Gustave Eiffel, Paris-Est UFR Sciences Économiques et Gestion 5 Bld Descartes, Champs/Marne 77454 Marne La Vallée Cedex 02 okamba@univ-mlv.fr Résumé La financiarisation du risque sanitaire conduit à l'émergence de l'emprunt obligataire pandémique. La capacité de cet outil à couvrir le risque sanitaire dépend du degré de maîtrise de l'aléa moral dans la coordination du cycle d'atténuation du choc à court terme, financé par des mesures de stabilisation et du cycle d'investissement, lié à la vitesse à laquelle le système retourne à son équilibre après ce choc, financé par des mesures structurelles. Mots clés Obligation sociale, risque sanitaire, résilience économique, aléa moral Abstract The financialisation of health risk has led to the emergence of social and solidarity bond loans. The ability of this tool to cover health risk depends on the degree of control of moral hazard in the coordination of the short-term shock mitigation cycle, financed by stabilization measures and the investment cycle linked to the speed at which the system returns to equilibrium after this shock, financed by structural measures. Keywords Social obligation, health risk, economic resilience, moral hazard Introduction La financiarisation du risque sanitaire a conduit la Banque Mondiale (BM) à créer l'emprunt obligataire pandémique ou Pandemic-Bond pour couvrir le risque pandémique des pays confrontés à la défaillance de leur système de santé, afin de leur permettre de retrouver leur capacité à emprunter et à créer de la richesse. Ce produit financier constitue une innovation de la finance sociale et solidaire, pour améliorer la capacité de résilience du système de santé. Les marchés financiers disposent désormais d'un outil leur permettant de participer à la lutte contre les risques systémiques liés aux graves épidémies, de répondre à une demande financière urgente et de contribuer à l'amélioration de la capacité de résilience économique des États. Les premiers Pandemic-Bond ont été émis le 23 mars 2017 par la BM, pour couvrir le risque sanitaire née des épidémies de pathogènes émergents, notamment celui du virus Ébola, qui avait fait plus de 10 000 morts dans le monde en 2014. Plus de 400 millions $ d'obligations émises, rémunérées entre 6 % et 11 % par an, ont attiré plusieurs investisseurs privés, alors qu'ils ont augmenté la dette des emprunteurs dont la structure financière s'est profondément fragilisée par ce risque sanitaire. En Europe, ces obligations s'appellent les Corona-Bond. Ce sont des produits issus de la mutualisation des dettes des 27 membres de l'Union Européenne liées à la couverture du Covid-19, susceptibles d'être converties en un fonds commun de relance économique. Elles sont encore au centre des débats d'ordre éthique entre les membres, liés à leur capacité à améliorer la résilience économique des États. Après avoir présenté l'état de l'art de l'éthique de la financiarisation du risque sanitaire, nous analyserons la capacité de l'emprunt obligataire social et solidaire à améliorer la résilience économique des États dans leurs stratégies de couverture du risque pandémique du Covid-19 aux USA, en Europe et en Afrique, avant de conclure. Pour cela, nous nous baserons sur l'analyse des statistiques des rapports de 2017 à 2020 des organisations gouvernementales (Banque Mondiale, OCDE, Banque Centrale Européenne, Organisation Mondiale de la Santé, CNUCED et autres) et non gouvernementales (Banque Rothschild et Co, Natixis,). 2 I- Les dimensions éthiques de l'emprunt obligataire social et solidaire Les Pandemic-Bond se réfèrent aux Cat-Bonds, obligations environnementales, créées par la BM pour protéger les États contre le risque de catastrophe naturelle et améliorer leur résilience économique. Du latin resilientia, de resiliens, qui signifie « le fait de rebondir », la résilience désigne la résistance d'un matériau aux chocs. Cette définition a été étendue à la capacité d'un corps, d'un organisme, d'une espèce, d'un système, d'une structure à surmonter une altération de son environnement. En économie, la résilience est la capacité d'un système à revenir sur la trajectoire de la croissance après avoir encaissé un choc. Selon Duval, Vogel (2008), elle comprend deux dimensions : le degré d'atténuation des chocs qui est maîtrisé par des mesures de stabilisation et la vitesse à laquelle l'économie retourne à l'équilibre après un choc, qui est maîtrisé par des mesures d'ordre structurel. Le rapport des dépenses structurelles sur les dépenses de stabilisation donne la capacité de résilience du système. Le système est résilient lorsque cette capacité est supérieure ou égale à 50%. Les chocs mondiaux comme le terrorisme de masse, l'éclatement de la bulle boursière, l'apparition des scandales financiers liés à la gouvernance d'entreprise, les pandémies liés aux virus émergents et tant d'autres situations susceptibles de générer un manque à gagner aux États, sont des facteurs de synchronisation des fluctuations cycliques (conjoncturels et structurels) de l'activité économique. Ils montrent la capacité du cadre institutionnel et politique de chaque État à amortir l'impact initial des risques et à diminuer la persistance de l'écart de richesse qui en découle par la mutualisation de leurs dettes liées à la couverture du risque. I-1- La prise en charge du risque pandémique : En l'absence des risques sanitaires, selon le rapport de l'OMS (2019), les dépenses en santé d'un pays sont assumées à 51% en moyenne par les administrations publiques et à plus de 35% par les individus sous forme de dépenses directes. La France, premier membre de l'OCDE dont les dépenses publiques et privées de santé représentent 8,8% du PIB, est suivie par l'Allemagne 8,1% et des USA 8,5% quand la moyenne de l'OCDE entre 2015 et 2017 n'est que 5,7% du PIB (Encadré 1). Les frais d'hospitalisation en France sont pris en charge à 80 % par l'État (Assurance maladie) et les 20 % restants ainsi que les éventuels frais en plus (chambre individuelle, télévision) sont 3 remboursés par l'assurance privée (complémentaire santé), suivant le forfait journalier de 20 € par jour restant. En cas d'hospitalisation de Covid-19, l'assuré est pris en charge à 100% par l'État. Les examens réalisés par les laboratoires privés au domicile des patients sont facturés à 54 € dont 60 % du total sont pris en charge par l'État et les 40% restant sont à la charge de l'assurance privée du patient. L'assuré justifiant d'une incapacité de travail par un arrêt de travail médical, bénéficie d'une indemnité journalière pour 20 jours dès le premier jour d'arrêt, complétée par une participation de l'employeur. Si l'incapacité de l'assuré dépasse 90 jours, la part de l'employeur ne s'élève qu'à 66% du salaire brute. Encadré 1 : Évolution des dépenses de santé en % du PIB de 2015-2017 Source : https://www.oecd.org/fr/social/soc/OCDE2019-Le-point-sur-les-depenses-sociales.pdf Les vaccins sont quasiment pris en charge par les États partout dans le monde. Le vaccin de Johnson & Johnson est pris une seule dose avec une efficacité établie à 66%, contre 85% face aux formes graves de Covid-19. Le laboratoire Pfizer/BioNTech propose un vaccin avec deux doses pour une efficace à plus de 95%. Le produit doit être maintenu dans un lieu où la température avoisine les -70°c à -80°c. Moderna propose un vaccin avec une conservation moins contraignante pour une efficacité de 95%. Quant à AstraZeneca, le vaccin est efficace à 76% contre 70% pour les cas symptomatiques. Le Spoutnik V est un vaccin d'origine 4 Russe qui affiche une efficacité de 79,4% contre 91,6% pour sa version en deux doses. Les vaccins chinois (Sinovac, Sinopharm et CanSino) ont une efficacité de 79%. Dans la guerre économique que se livrent les laboratoires, les vaccins Russes et Chinois ne sont pas reconnus par les pays occidentaux. En mars 2019, la France comptait 43 millions d'assurés du régime général de la sécurité sociale sur une population de 66,99 millions d'habitants, soit un taux de couverture sociale de 64,19%. Ce taux avoisine les 92% aux USA où, la couverture sociale est assurée par les assurances privées. Le coût d'une hospitalisation en raison du coronavirus y est estimé à 73 000 $, alors que plus de 27 millions sur les 329, 56 millions d'américains, soit 8% de la population ne possèdent pas d'assurance santé. I-2- La dissymétrie du risque : Dans l'Union Européenne, la mutualisation des dettes liées au Covid-19 est soutenue par les États les plus impactés qui souffraient déjà des déficits budgétaires chroniques. Elle est rejetée par les membres les moins impactés qui présentent une situation budgétaire équilibrée. Quant aux USA, ils remettent en cause le multilatéralisme des organisations onusiennes, en se retirant de l'OMS, qui aurait organisée l'asymétrie informationnelle sur la gravité de la pandémie du Covid-19 avec la complicité de la Chine. Cette asymétrie informationnelle aurait conduit à l'impréparation des autorités américaines et à leur indécision, faisant des USA, les principales victimes de cette pandémie avec plus de 25 000 décès au 14 avril 2020. Or, les USA sont les principaux contributeurs financeurs de l'OMS avec 22% du total du budget de cette organisation, loin devant la Chine (7,9%), l'Allemagne (6,3%), la France (4,8%) et le Royaume Uni (4,4%). D'après le rapport de l'OCDE (2020), au niveau mondial, le choc pandémique se traduira par un déficit public de l'ordre de 1,5% du PIB en 2020, alors qu'une croissance de 2,6% était attendue. Ce déficit sera de 4,7 du PIB contre une croissance de 1,2% initialement prévue en Europe. Aux USA, le déficit atteindra 3,4% du PIB contre une croissance de 1,5% prévue. En Chine, le déficit sera de 1% contre une croissance positive de 5,9% prévue et en Afrique Subsaharienne, il sera de 0,2% contre une croissance de 3% prévue (Encadré n°2). Ces différentes attitudes des européens et des américains qui tendent à remettre en cause le cadre institutionnel de leurs unions, sont l'expression de la dissymétrie des risques liée aux comportements opportunistes des cocontractants. 5 La première attitude est liée à l'anti-sélection (Holmström, 1979) qui décrit le fait que la mutualisation des déficits est plus avantageuse pour les États dont le risque sanitaire est plus important. La seconde attitude caractérise l'aléa moral, selon lequel, les États dont le risque crédit est élevé profiteraient sans effort de la situation plus favorable des États plus vertueux qui respectent les règles de l'équilibre budgétaire institutionnel et qui ont un risque de crédit faible. Encadré 2 : Impact du Covid-19 sur la croissance économique mondiale en 2020 D'après OCDE (2020) Par conséquent, l'État endetté aura tendance à augmenter sa prise de risque, en investissant moins dans son système de santé, par rapport à la situation où il supporterait entièrement les conséquences négatives. Ce risque inhérent à l'exécution de tout contrat imparfait (Jensen et Meckling, 1976), se manifeste lors du changement de comportement d'un cocontractant qui devient contraire à l'intérêt général ou aux intérêts des autres parties au contrat, par rapport à la situation qui prévalait avant la conclusion du contrat. Il divise les membres de l'Union Européenne entre eux et les américains avec les autres puissances économiques, tout en limitant la solidarité financière et la résilience des États face à un risque financier majeur. I-3- La contrainte incitative : L'aléa moral trouve sa résolution dans une contrainte incitative, dans laquelle le principal (la BM, BCE, FED,) dans le rôle de l'assureur, propose un contrat aux agents (États victimes du risque pandémique) dans lequel, seront mentionnés le niveau d'indemnisation et le niveau d'effort optimaux acceptables. Deux solutions sont possibles : la création d'une créance prioritaire sur le Trésor Public au niveau national de chaque agent endetté dont le système de santé est défaillant face au risque pandémique, ou la création d'une dette perpétuelle au niveau du principal. 6 La première qui repose essentiellement sur une politique de stabilisation économique, consiste à responsabiliser davantage l'État impacté par le risque sanitaire en demandant à son Parlement, de modifier sa législation nationale en réponse à la crise pour conférer aux obligations liées à cette crise, le caractère d'une créance prioritaire sur le Trésor Public. Le Parlement Grec avait adopté une loi dans ce sens en 2012 pour faciliter la restructuration de sa dette souveraine de 206 milliards € d'obligations d'État. La validité juridique de cette mesure résiste à toutes les contestations devant les tribunaux européens et permet à la Grèce de retrouver le chemin de la croissance économique en passant de -7,3% du PIB en 2012 à 1,8% du PIB en 2019, après avoir reçu un prêt de 189 milliards € sur trois ans du FMI et de la zone euro et engagé des réformes structurelles pour réduire son déficit public de 13,6 % du PIB en 2009 à 2,6 % en 2014. Cette solution est adoptée par les USA, avec la création des titres de créance prioritaire sur le Trésor des États pour financier les conséquences du risque sanitaire liées au Covid-19. La Réserve Fédérale Américaine (FED) a lancé un plan de 600 milliards $ pour soutenir les entreprises en rachetant leurs dettes liées au Covid-19 et de 2 300 milliards $ de prêts destinés aux collectivités locales et aux PME. La capacité de résilience qui en résulte est faible de : 600 milliards $/2300 milliards = 26,85%. Les États européens qui accuseront un recul du PIB de 7,5% en 2020 contre une hausse de 1,1% en 2019 et 4,7% en 2021, l'ont également adopté pour couvrir le risque sanitaire du Covi-19 de 540 milliards €. Il est financé à 37,03% par la Banque Européenne d'Investissement (BEI) pour soutenir l'investissement des entreprises, à 44,44% par le Mécanisme Européen de Stabilité (MES) pour des prêts du fonds de secours pour la zone euro et à 18,53% par la Commission Européenne pour soutenir les plans nationaux de chômage partiel, sans l'activation des réformes institutionnelles d'austérité économique. Au total plus de 62,97% de ce fonds concernent le financement des mesures à court terme contre 37,03% de mesures à long terme. Soit une capacité de résilience de 80% = 240 milliards $/300 milliards $. La deuxième solution qui repose sur un ajustement structurel de l'économie, permet au principal d'acheter directement la dette aux États impactés et de les stocker en une dette perpétuelle à taux d'intérêt négatif. La BCE avait déjà utilisé cette solution à deux reprises. 7 D'abord par les emprunts de long terme, lors de la crise des liquidités de 2007-2008 dans le cadre des opérations de sauvetage des banques qui représentent plus de 15 % du stock des dettes des États de la zone Euro. Ensuite, de mars 2015 à décembre 2018, la BCE pour faire face au risque de déflation, avait acheté des titres tous les mois sur les marchés financiers pour 2 600 milliards €, afin de soutenir la zone euro. Maintenant, la BCE envisage d'acheter la totalité des dettes publiques et privées nouvelles émises, et à monétiser complétement les déficits publics liés à la crise du Covid-19 pour 750 milliards € au taux d'intérêt de -0,75%. Ce plan vise à soulager les banques en les incitant à maintenir et à relancer leurs prêts aux ménages et aux entreprises, et ainsi à soutenir la production et l'emploi. Dans ce contexte, l'emprunt à taux d'intérêt négatif permet à l'investisseur d'acheter une obligation plus chère que sa valeur faciale et d'être remboursé d'un montant inférieur à celui qu'il a prêté. Par contre, dans le mécanisme de la dette perpétuelle à taux négatif, les États membres endettés retrouvent rapidement leur capacité de financement, alors que leur dette rachetée fonde progressivement, sous l'effet de l'inflation. Ce produit qui est apparu depuis le moyen-âge, distribue des coupons fixes ou variables qui offrent des rendements supérieurs aux taux offerts par les obligations classiques. Il intéresse l'investisseur en quête de cash-flow rapide et important. Le remboursement du capital investi pourrait n'avoir lieu qu'au moment de la liquidation de la société émettrice, de sorte que l'investisseur qui a fait preuve de solidarité, n'a pas la certitude d'être remboursé par l'émetteur de son vivant. Dans les pays en voie de développement, les institutions gouvernementales associent l'Aide Publique au Développement à l'émission des obligations sociales et solidaires pour couvrir le risque pandémique. En Afrique, où les ensembles économiques et monétaires régionaux limitent en moyenne le déficit public des États à environ 70% des PIB, la Commission Économique pour l'Afrique estime les besoins de financement du risque sanitaire lié à la pandémie du Covid-19 pour les 54 États à 144 milliards, une perte de 20 millions d'emplois et une forte augmentation de la dette. Les ressources mobilisées pour rétablir la solidarité financière internationale et la résilience économique s'élèvent à 168 milliards $. Soit un excèdent de 24 milliards $ environ. 8 Les principaux bailleurs institutionnels sont: le G20 (150 milliards $), l'Union Européenne (14,3 milliards $), l'Agence Française du Développement (1,8 millions $ destiné à l'Afrique francophone), la BEAC (14,6 millions $), la BOAD (219,5 millions $), la BADEA (13,4 millions $) et la BAD (3 milliards $). L'apport de la BAD est un emprunt obligataire social et solidaire d'un coupon de 0,75%, à échéance de 3 ans pour un carnet d'ordres de plus de 4,6 milliards $. Soit une capacité de résilience quasi inexistante de : 3 milliards $/151 milliards $ = 1,99%. Or, la BAD utilise ce produit depuis 2017, avec son obligation sociale inaugurale de 500 millions € à 7 ans jusqu'au 15/02/28, qui a permis de lever 2 milliards $ par des émissions libellées en Euros et en Couronnes norvégiennes durant ces trois dernières années. Le 16 mai 2018, elle avait déjà émis avec succès une obligation sociale pour 1,25 milliard € avec une échéance à 10 ans, pour un coupon à 0,875% par an à maturité le 24 mai 2028, au prix d'émission de 98,938% et pour un de rendement de 0,987%. Les principaux investisseurs sont: les Banques et institutions officielles (53%) en 2020 contre 33% en 2018, les trésoreries de banques (27%) en 2020 contre 29% en 2018, les gestionnaires d'actifs (20%) en 2020 contre 38% en 2018. Ils proviennent d'Europe (37%) en 2020 contre 63% en 2018, des Amériques (36%) contre 12% en 2018, d'Asie (17%) contre 15% en 2018, d'Afrique et moyen orient 8% contre 8% en 2018. Loin du pic de la pandémie, les très fragiles systèmes de santé des 45 pays atteints en Afrique sont déstabilisés. Ils ont déjà enregistré 1170 infections dont 42,31% en Égypte, 31,37% en Algérie, 23,50% au Maroc et 19,40% en Tunisie. En Afrique Noire, le Burkina Faso en compte 15,38%, le Ghana 11,62% et le Sénégal 8,97%. Sur les 90 décès constatés, 23,33% sont en Égypte et également en Algérie, 6,6% en Tunisie et également au Maroc, 4,44% au Burkina Faso et également au Ghana 4,44%. Dans l'élan de la solidarité financière internationale, l'Afrique qui compte en 2020 une dette de 365 milliards $ (équivalent à 56% du PIB contre 38% du PIB en 2008) dont 236 milliards de dette extérieure, a obtenu de ses grands créanciers du Club de Paris, du G20 et de la Chine qui en détient 61,44%, un moratoire d'un an sur 22 milliards $ de dette à rembourser en 2020 des 76 pays les plus pauvres du monde dont 40 pays d'Afrique. La BM a décidé, quant à elle, d'un moratoire d'un an de 13,2 milliards $, alors que le FMI propose le report de 6 mois du 9 service de la dette de 500 millions $ pour 25 pays africains les plus pauvres et les plus vulnérables. Pour la dette privée, il appartient à chaque créancier de réduire, d'effacer ou de reporter l'échéance de paiement. L'Union Africaine qui attendait de ces grands créanciers, l'annulation de la totalité de la dette extérieure de l'Afrique, constate les limites de la solidarité financière internationale en situation d'asymétrie informationnelle. Ainsi, les obligations sociales et solidaires font du risque sanitaire un nouveau domaine de création de richesse des investisseurs des pays développés. II- Les pratiques des obligations sociales et solidaires et leurs limites Les obligations sociales et solidaires se distinguent par leurs caractéristiques intrinsèques et par leur rentabilité. II-1- Les caractéristiques intrinsèques : Ces produits intéressent l'investisseur engagé socialement et l'investisseur cherchant un seul retour financier rapide et important. Ils concernent un ou plusieurs problèmes sociaux et bénéficient à une population ciblée. Les obligations sociales sont un levier pour réaliser, mettre en valeur et communiquer sur des missions à fort impact social. Elles offrent un rendement similaire à celui des instruments financiers à taux fixe conventionnels. Pour un émetteur donné, la même solvabilité offre le même risque de crédit et donc le même rendement financier. L'équilibre des portefeuilles des investisseurs dans ce type d'obligations repose donc sur le niveau de liquidité. Deux catégories se distinguent : Social bond et le Pandemic-Bond. Le « Social Bond » ou l'obligation sociale proprement dite, renvoie à un cadre de référence non contraignant mis au point par un Comité exécutif dont l'Association Internationale des Marchés de Capitaux (ICMA) assure le Secrétariat des Social Bonds Principles (SBP). Quatre types de produits se distinguent dont : - l'obligation sociale classique investie dans des projets sociaux est un titre de créance ordinaire, conforme aux SBP, avec possibilité de recours contre l'émetteur ; - l'obligation sociale garantie par les revenus : titre obligataire sans possibilité de recours contre l'émetteur, sur lequel l'exposition de l'investisseur se limite aux flux de trésorerie gagés émanant de l'émetteur, redevances, taxes, et autres et dont le produit de l'émission peut être investi dans des projets sociaux liés entre eux ou non ; 10 - l'obligation spécifique à un projet social : titre obligataire conforme aux SBP, destiné à financer un ou plusieurs projets sociaux pouvant comporter des risques auxquels l'investisseur est directement exposé, avec ou sans possibilité de recours contre l'émetteur ; - l'obligation sociale titrisée, sécurisée ou adossée à des actifs : est un titre obligataire adossé à un ou plusieurs projets sociaux plus spécifiques, des titres garantis par des créances hypothécaires, et autres instruments. Les flux dérivés des actifs sont la source prioritaire de remboursement. Ce type d'emprunt obligataire comprend, par exemple, les obligations sécurisées adossées à des logements sociaux, des hôpitaux, des écoles. Leur volume mondial d'émissions des obligations sociales est passé de 0,6 Milliard $ en 2012 à 4,3 Milliards en 2018 après le pic de 7,9 Milliards $ en 2017 (Encadré 3). Les émetteurs sont majoritairement issus du secteur public national et supranational (77%), et le secteur privé ne s'y intéresse progressivement que depuis 2017 (23%) pour les banques et entreprises. Ils proviennent essentiellement des Pays-Bas (5,5 Milliards $) et de l'Espagne (3,5 Milliards $). Encadré 3 : Évolution des obligations sociales de 2012 à 2018 (en Milliards $) Volume Statut Pays Source : Natixis, Green & Sustainable Hub, Market Data (au 31/05/2018). 11 Les annexes 1 et 2 montrent que sur les 26 obligations sociales émises entre 2012 et 2018, celles concernant les projets de logement abordable représentent 25,93%, 22,22% la création d'emplois, l'accès aux services de base 18,52%, le développement socio-économique 16,67% et la sécurité alimentaire 5,5%. La maturité à moyenne terme (1 à 10 ans) représente 88,46% et la mature à long terme (supérieur à 10 ans) représente 11,54%. La valeur du coupon est à 53,87% supérieur à 1, à 42,31% inférieure à 1 et à 3,82% égale à 1. L'évaluation des opportunités d'investissement est la notation sociale de l'obligation sur 3 critères : le secteur social et géographique visé, les caractéristiques de l'objectif social et la transparence (reporting et clarté de l'impact). Le Social Advisory Panel impose un maximum de 25% d'investissements C3 et C4 et un minimum de 15% d'investissements dans des obligations classées A. En revanche, il n'y a pas de limite supérieure pour investir dans des obligations spécifiquement sociales. Quant au Pandemic-Bond, il fonctionne comme une assurance dans laquelle, l'émetteur vend des obligations à des investisseurs qui perçoivent un coupon annuel. Si les critères caractérisant une pandémie sont observés, les investisseurs perdent une partie ou la totalité de leurs apports initiaux. L'équivalent de cette somme est alors envoyé aux pays les plus touchés par la crise sanitaire. Par conséquent, l'investisseur bénéficie d'un fonds d'urgence à partir des investissements privés dont le coût du risque est déplacé sur les marchés financiers. Les 75 pays ou membres éligibles au Pandemic-Bond de la Banque Mondiale peuvent obtenir une aide financière en cas de pandémie ; alors que les investisseurs bénéficient d'un placement attractif dans un environnement de taux bas. Le mécanisme déclencheur de l'indemnisation de ce produit, inclut un délai de carence de 84 jours entre le premier rapport de situation de l'Organisation Mondiale de la Santé et le premier versement des indemnités. Les fonds sont débloqués dès que la pandémie atteint plus de 20 morts dans un pays qui rencontre des difficultés de son système de santé dans la couverture du risque sanitaire et la maîtrise des déficits liés à la contraction de son économie. Cependant, la date de départ de l'épidémie du Covid-19 est le 17 novembre 2019 dans la ville de Wuhan en Chine. L'OMS a déclaré l'état d'urgence de santé publique de portée 12 internationale de cette épidémie, le 30 janvier 2020 et, l'état de pandémie du Covid-19, le 11 mars 2020. Ces déclarations se sont accompagnées des mesures de protection pour prévenir la saturation des services de soins intensifs dans les hôpitaux et le renforcement de l'hygiène préventive. Cette pandémie provoque des annulations en série de manifestations sportives et culturelles sur toute la planète pour freiner la formation de nouveaux foyers de contagion, la fermeture des frontières de nombreux pays, et un krach boursier du fait des incertitudes et des craintes qu'elle fait peser sur l'économie mondiale. Plusieurs variants préoccupants du SARSCoV-2 se multiplient dans les différentes régions du monde. Le dernier Variant Préoccupant (VOC) est l'Omicron B.1.1.529, détecté le 25 novembre 2021, en Afrique du Sud. Il se caractérise par une compétitivité accrue par rapport aux autres Variants, notamment le VOC Alpha. Il est plus transmissible que les virus historiques (environ 2 fois plus) et que les VOC Alpha (environ 40 à 60% plus transmissible), Beta (environ 60%) et Gamma (environ 30%). En Afrique du Sud, le nombre de nouveaux cas quotidiens a été multiplié par dix en trois semaines, rendant nécessaire le renforcement des mesures de protection depuis le 27 novembre dans le monde et l'injection de la troisième dose de vaccin pour toute personne de plus de 18 ans comme en France. Encadré n° 3 bis: Les Variants de la Covid-19 https://www.who.int/fr/activities/tracking-SARS-CoV-2-variants Cependant, pour émettre les Pandemic-Bond, la Banque Mondiale exige que la pandémie ait atteint un seuil critique de décès, une certaine vitesse de propagation et provoqué une forte contraction de l'activité économique dans un pays. Ce dernier doit déclarer l'état d'urgence sanitaire et mettre en place des structures de gestion et de pilotage du risque pandémique telles que : une coordination nationale de gestion de la pandémie, une Task-force sur son impact économique et social, un Comité national de riposte et un collège d'experts. Ces structures s'accompagnent de mesures de distanciation sociale comme la fermeture des 13 frontières, le confinement des populations, la mise en quarantaine des personnes à risque et l'instauration d'un couvre-feu. Les investisseurs privés sont intéressés à prêter et à investir dans les obligations sociales et solidaires dans l'espoir que les institutions gouvernementales garantissent les remboursements de leurs débiteurs défaillants. Ces critères nécessitent un outil de mesure du risque sanitaire susceptible de faire émerger un marché de l'intelligence épidémique contrôlable par les agences de notation des virus et des capacités de réponse des États à réguler le risque pandémique. Ils ouvrent un nouveau domaine de l'assurabilité. En effet, la note d'un État quantifie l'impact économique de l'anxiété de ses citoyens face à une pandémie et donne un signal au marché financier qui émettra des obligations sociales et solidaires pour couvrir le risque à la fois sanitaire et économique qui en résulte. En l'absence d'une telle note, l'indice boursier peut servir de repère. L'indice de 100 signifie que les investisseurs ne modifient pas leurs allocations à long terme en actifs risqués. Ainsi, le 19 février 2020, l'indice boursier mondial MSCI tous pays perdait 9,2 % alors que le Covid-19, centré en Chine, dépassait les 60 000 cas confirmés et plus de 1 360 décès, et que plus de 45 pays étaient déjà touchés. En France, du 19 février au 20 mars, l'indice boursier du CAC 40 a chuté de plus de 2 200 points, soit un recul de 37 %, même si cette chute est relativement faible par rapport à celle de la bulle internet liée aux attentats de 2001 des USA (65%) et à celle de la crise financière de 2007-2008 (59%). Le dernier indice de confiance des investisseurs de State Street Corporation a valeur de note des États. Il montre en mars 2020, une lecture mondiale de 74,5, contre 78,5 en février. Pour l'Europe, cet indice a chuté de 15 points à 95,6 pendant qu'il recule dans le nord-américain de 2,9 points à 67,8. Pour la région Asie-Pacifique, la lecture de la confiance s'est améliorée de 8,7 points à 94,5. Cette notation est liée au nombre des décès du Covid-19 où, nous pouvons observer que sur les 95 718 décès et 1 601 018 cas d'infections dans 192 pays du monde au 9 avril 2020, l'Europe compte 71,73% de décès et 52,95% cas, les États-Unis et le Canada 14,22% décès et 27,64% des cas, l'Asie 6,05% de décès et 9,39%, le Moyen-Orient 5,62% de décès et 6,15% de cas, l'Amérique latine et les Caraïbes 1,68% de décès et 2,61% , l'Afrique 0,63% de décès et 0,72% de cas, et l'Océanie 0,06% et 0,53% de cas. La Chine compte 4,76% de décès et 6,40% de cas. Avec un indice de contagiosité très élevé de 1,5 à 5,5, le Covid-19 a un taux de 14 mortalité faible de l'ordre de 2 à 4%, contrairement à Ébola où ce taux est de 50%, au MERSCOV (34%) et au SRAS-COV (9,6%) (Encadré 4). II-2- La rentabilité : Après l'annonce du plan contre le Covid-19 des USA, le 10 avril 2020, l'indice boursier de Dow Jones est monté de 1,22 % et le Nasdaq de 0,77 %, Francfort (+2,24 %) a gagné près de 11 % sur l'ensemble de la semaine pour ramener à 20 % sa perte depuis janvier. Paris (CAC40) enregistre une hausse de +1,44 %, Londres +2,15 %, Madrid +1,71 % et Milan +1,39 %. Encadré 4 : Taux de mortalité et reproduction des virus pandémiques Pendant ce temps, le nouvel endettement direct et indirect des États lié au Covid-19 évolue proportionnellement au nombre de décès qu'ils enregistrent. Le rapport de la Banque Rothschild et Co (2020), montre que pour l'Europe, le continent le plus impacté, cet endettement représente plus de 7,8% du PIB, suivie des USA et du Canada (7,5%), de l'AsiePacifique (3,2%), du Moyen Orient et de l'Afrique du Nord (6,7%), de l'Amérique Latine (2,9%) et de l'Afrique Sub-Saharienne (1,7%) (Encadré 5). Le mécanisme de garantie et passifs contingents est plus important en Europe avec 5,6% du PIB en Europe, en Asie (3%) et aux USA et Canada (2,1%). Par contre, le stimulus budgétaire financé par endettement est plus important au Moyen-Orient et Afrique du Nord (6,7%), aux USA (6,5%), en Europe (3,8%), en Amérique Latine (3%) et en Afrique Sub-Saharienne (1,7%). Le G20 a mobilisé 5 000 milliards $ et le FMI près de 1 000 milliards $ pour aider les États dont les systèmes de santé sont défaillants ainsi que leurs victimes du risque sanitaire du Covid-19. La BM a levé 320 millions $ de Pandemic-Bond auprès d'investisseurs privés comme le gestionnaire d'actifs Amundi (groupe Crédit Agricole), Baillie Gifford et Stone 15 Ridge Asset Management et les fonds de pension néerlandais gérés par APG et PGGM, en émettant deux catégories d'obligations. Encadré 5 : Taille moyenne des mesures de soutien contre le Covid-19 adoptées à l'international La première, appelée tranche A de 225 millions $, permet aux investisseurs de ne perdre que 16,67% de leur capital en cas d'épidémie, alors qu'ils bénéficient d'un taux d'intérêt de 6,5%. La tranche B porte sur 95 millions $, au taux d'intérêt de 11% est plus risquée. En cas de pandémie, les investisseurs peuvent perdre la totalité du capital investi dès que le seuil de 250 morts est atteint dans un pays. Le délai de carence de 84 jours de la BM a été atteint le 23 mars 2020 avec plus de 14 700 morts et plus de 336 360 cas d'infection dans le monde (BM, 2020). Mais la BM a introduit un délai supplémentaire de deux semaines et demi, soit le 9 avril, pour déclencher les indemnisations. La Chine, l'Iran et la Corée du Sud qui ont rapidement dépassé le seuil des 20 morts, ont été exclus des pays bénéficiaires comme l'était la République Démocratique du Congo en 2018, exposé au décès de 2 260 personnes pendant l'épidémie d'Ébola, faute de transparence des informations. Au 12 avril 2020, plus de 17 pays sur les 192 atteints par la 16 pandémie ont déjà dépassé le seuil de 250 décès, alors que la maladie n'a pas encore atteint son pic dans plusieurs pays. Le taux de sinistre, mesuré par le nombre de décès sur le nombre de décès constituant le seuil du sinistre qui déclenche l'indemnisation (Encadré n°6), est critique lorsqu'il est supérieur ou égal à 1. Encadré n°6 : Les pays ayant atteint un taux de sinistre critique du Covid-19 au 9 avril 2020 N° Pays Infections Décès 1 Angleterre 84 279,00 10 612,00 2 Iran 71 686,00 4 474,00 3 USA 545 934,00 21 474,00 4 Italie 156 363,00 19 899,00 5 Espagne 166 019,00 16 972,00 6 Chine 82 052,00 3 339,00 7 Allemagne 126 656,00 2 908,00 8 France 132 591,00 14 393,00 9 Portugal 16 585,00 504,00 10 Turquie 56 956,00 1 198,00 11 Belgique 29 647,00 3 600,00 12 Hollande 25 587,00 2 737,00 13 Brasil 21 065,00 1 144,00 14 Suisse 25 407,00 1 106,00 15 Suède 10 483,00 899,00 16 Canada 23 738,00 674,00 17 Australie 13 945,00 350,00 Taux de sinistre= Décès/250 212,24 89,48 85,90 79,60 67,89 66,78 58,16 57,57 25,20 23,96 14,40 10,95 4,58 4,42 3,60 2,70 1,40 D'après : https://www.linternaute.com/actualite/guide-vie-quotidienne/2486227-coronavirus-dans-le-monde-terrible-bilan-aux-etats-unis-lepoint-en-italie-espagne-angleterre/ La BM indemnise les États victimes sur 15 mois, à travers son package de Pandemic Emergency Purchase Programme comprenant plus de 318 projets dans 60 pays pour 160 milliards $ dont 30% en Afrique où 90% des États ont des systèmes de santé très défaillants, 13,33% dans chacune des sous régions (Asie du Sud, Asie de l'Est et Pacifique, Europe et Asie Centrale, Moyen Orient et Afrique du Nord), 11,67% Amérique Latine et Caraïbe et 5,01% ailleurs. Cet investissement est très rentable pour les souscripteurs de la tranche A, car la perte des 16,67% du capital investi sera largement compensée par le total des taux d'intérêt 17 perçus depuis 2017, environ 96 millions. Par contre, sur le marché secondaire, les obligations de la tranche A s'échangeront à 84% de leur valeur faciale, contre 14% pour celles de la tranche B. Les Pandemic bonds qui se négocient de gré à gré sur le marché financier mondial, ont déjà permis à la BM de débloquer plus de 132,5 millions $ et de verser plus de 96 millions $ d'intérêt versés aux investisseurs, alors que la mutualisation des dettes des États liées au Covid-19 ne trouve pas de solution satisfaisante dans les pays développés. Conclusion Les risques pandémiques montrent les limites des systèmes de gestion de santé des États et révèlent la fragilité des équilibres macro et micro économiques des pays. La financiarisation du risque sanitaire se heurte à l'aléa moral qui limite la solidarité financière et les capacités de résilience économique des États. L'emprunt obligataire pandémique, innovation de la finance sociale et solidaire ne favorise la solidarité et la résilience économique que si le problème structurel de l'aléa moral est résolu à travers le rachat des titres de dettes des États et des acteurs financiers par la Banque Centrale. Dans ce contexte, l'emprunt obligataire perpétuel à taux négatif permettant de limiter la nervosité des marchés financiers et la prédation des ordres d'achat et de vente en bourses des traders, est une solution satisfaisante. A condition que les États développent une gestion et un pilotage responsable et inclusive du risque sanitaire. Bibliographie Duval R., Vogel L. (2008) : Résilience économique aux chocs : Le rôle des politiques structurelles, Revue économique de l'OCDE 2008/1 n° 44, pages 211 à 251 Jensen M., Meckling W. (1976): "Theory of the firm: Managerial behavior, agency costs, and capital structure", Journal of Financial Economics, Vol 3, pp305–360 Holmström B. (1979): "Moral Hazard and Observability", Bell Journal of Economics, Vol 10, pp74-91 « Coronavirus : l'OMS inquiète pour les pays qui ne sont pas prêts à faire face à l'épidémie », Le Monde.fr, 31 janvier 2020. Sitographie https://datanalytics.worldbank.org/covid-dashboard/ https://www.data.gouv.fr/fr/datasets/coronavirus-covid19-evolution-par-pays-et-dans-lemonde-maj-quotidienne/ « WORLD Tracking coronavirus : Map, data and timeline (mis à jour en temps réel) » [archive], sur www.bnonews.com. 18 Annexe 1 : Listes des obligations sociales émises entre 2012 et 2018 référencées par Natixis. Source : Natixis, Green & Sustainable Hub, Market Data (au 31/05/18) 19 Annexe 2 : Les projets éligibles aux obligations sociales référencées par Natixis 20 Source : Natixis, Green & Sustainable Hub, Market Data (au 31/05/18) 21
{'path': '33/hal.archives-ouvertes.fr-hal-03454689-document.txt'}
Estimation de régularité locale Rémi Servien To cite this version: Rémi Servien. Estimation de régularité locale. Statistiques [math.ST]. Université Montpellier II Sciences et Techniques du Languedoc, 2010. Français. tel-00730491 HAL Id: tel-00730491 https://tel.archives-ouvertes.fr/tel-00730491 Submitted on 10 Sep 2012 U N I V E R S I T É MONTPELLIER II –SCIENCES ET TECHNIQUES DU LANGUEDOC– T H È S E pour obtenir le grade de DOCTEUR DE L'UNIVERSITÉ MONTPELLIER II Discipline Ecole Doctorale Formation Doctorale : Mathématiques appliquées : Information, Structures, Systèmes : Biostatistique Estimation de régularité locale par Rémi SERVIEN Soutenue publiquement et obtenue avec mention très honorable le 12/03/2010 devant le jury composé de : C. ABRAHAM Professeur, SupAgro Montpellier Examinateur A. BERLINET Professeur, Université Montpellier II Directeur de Thèse G. BIAU Professeur, Université Paris VI A. MAS Professeur, Université Montpellier II Président Examinateur B. PELLETIER Professeur, Université Rennes II Rapporteur P. SARDA Rapporteur Professeur, Université Toulouse III Remerciements Pendant la majeure partie de ma thèse, j'attendais avec impatience ce moment libérateur où j'écrirais les remerciements. Pour n'importe quel doctorant débutant cette étape marque en effet la fin de la rédaction et une grosse marche supplémentaire gravie vers le doctorat. Et même si on se rend compte, au fur et à mesure de l'avancée de notre travail, que l'obtention de la thèse n'est qu'une étape supplémentaire franchie et non une fin en soi, ce n'est pas sans émotions que je me lance dans cette tâche en m'excusant par avance d'éventuels oublis. Je tiens tout d'abord à exprimer toute ma gratitude à Alain Berlinet qui m'a accompagné, aidé et corrigé tout au long de cette thèse. Il m'a appris à la fois la rigueur scientifique et l'ouverture d'esprit et je reste impressionné par l'étendue de ces connaissances, tant théoriques qu'appliquées. J'espère que notre collaboration ne s'arrêtera pas avec cette thèse. Merci infiniment à Bruno Pelletier et Pascal Sarda qui m'ont fait l'honneur d'accepter de rapporter cette thèse, malgré un emploi du temps que je devine chargé. Je remercie de même Christophe Abraham, Gérard Biau et André Mas qui ont spontanément accepté de participer à mon jury. Je remercie également l'ensemble des membres du département de Mathématiques, et particulièrement les gens avec qui j'ai collaboré pour mes vacations comme Christian Lavergne, Catherine Trottier ou Cyrille Joutard, ainsi que Nicolas Molinari avec qui j'ai fait mon monitorat-conseil au sein du CHU de Nı̂mes. J'adresses mes plus sincères remerciements à Pierre Cartigny et l'ensemble de l'UMR ASB du campus ENSAM-INRA de Montpellier. J'ai eu la chance de travailler dans des conditions privilégiées et j'ai pu rencontrer là-bas des gens formidables avec qui j'ai pu nouer des liens solides. Je remercie également le CNRS et la région Languedoc-Roussilon qui ont financé cette thèse. Sur un plan plus personnel, je commencerai avec une pensée particulière pour les doctorants, ATER et Maı̂tres de conférences avec qui j'ai tissé de forts liens d'amitié. Je me suis demandé si une avalanche de prénoms était ici nécessaire. Je pense qu'elle l'est donc à Soffana, Guillaume, Olivier, Benoı̂t, Hilde, Gwladys, Elamine, Julien, Khader, Kevin, Leslie, Ahmad, Chady, Nadia, Romain, Rémy, Afaf, Chloé, Véra, Virginie, Guillemette etc Merci. Il aura bien mérité un paragraphe pour lui tout seul, mon co-bureau pendant ces 3 ans de travail, Thomas. Pour tes corrections (à part l'orthographe), tes réponses à la fameuse question bête du vendredi soir, tous nos échanges en général, le screenquizz (dont je remercie également les participants pour leur aide précieuse comme heffy, vaudou, worm, magnum, bebert, mimo, boule, Forest, Heart, mast, node, syd, Gilles, grbill ), Michel Delpech et les mongolfières (du plus au moins sérieux), un grand merci. Je n'aurais pas pu arriver là sans l'amour que me portent mes parents et sans la totale liberté qu'ils m'ont laissé dans mes études malgré mes changements de direction. Merci Maman, Papa mais je n'oublie pas non plus mes grands-parents ainsi que Benja et Manon. Je souhaite également remercier tous mes amis qui n'ont pas encore été cités notamment le GRC dans son ensemble, les Insaliens ou les Gruissannais. Je remercie plus particulièrement ceux qui ne m'ont pas trop invité à des soirées, me laissant du temps pour travailler, ainsi que ceux qui assisteront à ma soutenance sans y comprendre un traı̂tre mot. Et, enfin, comment ne pas finir en remerciant Christelle. Pour avoir su m'épauler pendant les moments difficiles et m'avoir apporté du bonheur au quotidien, je te remercie du fond du coeur. Table des matières Introduction générale 1.1 Cadre général . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2 Normalité asymptotique d'estimateurs de la densité . . . . . 1.3 Estimation du mode pour des densités non continues . . . . 1.4 Estimateurs de l'indice de régularité utilisant des estimateurs de la fonction de répartition . . . . . . . . . . . . . . . . . . Bibliographie de l'Introduction . . . . . . . . . . . . . . . . . . . . . . 1 1 7 9 . 10 . 12 I Normalité asymptotique d'estimateurs de la densité 15 1.1 1.2 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 Estimateur des kn -plus proches voisins . . . . . . . . . . . . . 20 1.2.1 Définition de l'estimateur . . . . . . . . . . . . . . . . 20 1.2.2 Conditions Nécessaires et Suffisantes de Normalité Asymptotique . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 1.3 Nouvelle définition pour l'indice de régularité . . . . . . . . . . 25 1.3.1 Fonctions de répartition C 1 . . . . . . . . . . . . . . . 25 1.3.2 Densité C 0 . . . . . . . . . . . . . . . . . . . . . . . . . 28 1.3.3 Discontinuité du second ordre . . . . . . . . . . . . . . 30 1.3.4 Nouvelle définition . . . . . . . . . . . . . . . . . . . . 31 1.4 Application à l'estimateur des kn -plus proches voisins . . . . . 32 1.5 L'histogramme . . . . . . . . . . . . . . . . . . . . . . . . . . 33 1.5.1 Construction de l'estimateur . . . . . . . . . . . . . . . 33 1.5.2 Résultat sur la Normalité Asymptotique . . . . . . . . 34 1.6 Simulations . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 1.6.1 Indice de régularité . . . . . . . . . . . . . . . . . . . . 35 1.6.2 Estimation de la densité . . . . . . . . . . . . . . . . . 39 Bibliographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41 i II Estimation du mode pour des densités non continues 43 1.1 1.2 Introduction . . . . . . . . . . . . . . . . . . . . . . . . Convergence . . . . . . . . . . . . . . . . . . . . . . . . 1.2.1 Hypothèses et Notations . . . . . . . . . . . . . 1.2.2 Convergence de θn . . . . . . . . . . . . . . . . 1.2.3 Vitesse de convergence de θn . . . . . . . . . . . 1.2.4 Lien entre l'indice de pic et l'indice de régularité 1.3 Preuves . . . . . . . . . . . . . . . . . . . . . . . . . . 1.4 Simulations . . . . . . . . . . . . . . . . . . . . . . . . 1.4.1 Étude de f . . . . . . . . . . . . . . . . . . . . 1.4.2 Calcul du mode . . . . . . . . . . . . . . . . . . 1.4.3 Étude du point x = 0 . . . . . . . . . . . . . . . 1.4.4 Vérification des hypothèses . . . . . . . . . . . . 1.4.5 Résultats . . . . . . . . . . . . . . . . . . . . . Bibliographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 47 47 49 49 51 52 54 54 55 56 56 56 62 III Estimateurs de l'indice de régularité utilisant des estimateurs de la fonction de répartition 63 1 Estimateurs de l'indice de régularité 1.1 Introduction . . . . . . . . . . . . . . . . . . . . . 1.2 Résultats de convergence . . . . . . . . . . . . . . 1.2.1 L'estimateur empirique . . . . . . . . . . . 1.3 Preuves . . . . . . . . . . . . . . . . . . . . . . . 1.4 Simulations . . . . . . . . . . . . . . . . . . . . . 1.4.1 Estimateur des kn -plus proches voisins . . 1.4.2 Comparaison des estimateurs de l'indice de Bibliographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . régularité . . . . . . . . . . . . . . 65 65 67 67 68 71 71 77 85 2 Estimation de la fonction de répartition : revue bibliographique 87 2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87 2.2 Un estimateur naturel : la fonction de répartition empirique . 89 2.3 Estimateurs par lissage local . . . . . . . . . . . . . . . . . . . 94 2.4 Estimateur à noyau . . . . . . . . . . . . . . . . . . . . . . . . 95 2.5 Estimateurs splines . . . . . . . . . . . . . . . . . . . . . . . . 97 2.6 Les Support Vector Machines . . . . . . . . . . . . . . . . . . 98 2.7 Le level-crossing . . . . . . . . . . . . . . . . . . . . . . . . . . 99 2.8 Les Systèmes de Fonctions Itérées . . . . . . . . . . . . . . . . 100 ii 2.9 D'autres estimateurs . 2.10 Fonction de répartition 2.11 Données biaisées . . . 2.12 Conclusion . . . . . . . 2.13 Simulations . . . . . . Bibliographie . . . . . . . . . . . . . . . . conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Conclusion et perspectives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102 103 105 107 107 115 117 iii Introduction générale Le sujet principal de cette thèse est lié au problème général de dérivation des mesures (Rudin [15], Dudley [8]). Il trouve ses motivations dans l'étude de problèmes d'estimation quand les conditions de régularité habituelles ne sont pas vérifiées. En effet, de nombreux théorèmes de convergence font intervenir des hypothèses de continuité qui ne sont en pratique pas toujours satisfaites. Nous utilisons donc des conditions moins contraignantes permettant de plus d'étudier la régularité de la densité associée à la mesure considérée. Un paramètre αx appelé indice de régularité apparaı̂t lorsqu'on essaie d'étudier localement le comportement d'une fonction de densité dérivée d'une mesure quelconque. Ce paramètre de régularité étant fortement local, son estimation est difficile. Nous nous attacherons dans cette thèse à étudier certains problèmes d'estimation non paramétrique où cet indice intervient et à trouver différents estimateurs convergents de αx . 1.1 Cadre général Pour d ≥ 1, définissons B(Rd ) le champ borélien de Rd . Nous considérons μ une mesure de probabilité sur (Rd , B(Rd )). Notons λ la mesure de Lebesgue sur Rd muni d'une norme notée ||.||. Soit x un point de Rd , δ un réel positif et Bδ (x) la boule ouverte de centre x et de rayon δ. Afin de mesurer le comportement local de μ(Bδ (x)) par rapport à λ(Bδ (x)) nous pouvons considérer le quotient de ces deux mesures. Ainsi, si pour x fixé la limite suivante μ(Bδ (x)) δ→0 λ(Bδ (x)) f (x) = lim (1.1) existe, alors x est appelé point de Lebesgue de la mesure μ. Si μ est absolument continue par rapport à λ nous pouvons sélectionner parmi toutes les densités 1 Introduction générale obtenues à partir de μ, une densité particulière f , qui satisfait (1.1) en tout point où cette limite existe. Il est important de noter que la notion de point de Lebesgue est plus large que la notion de continuité. Elle permet donc d'élargir certains résultats en diminuant les contraintes sur les fonctions à estimer. Dans ce contexte, Berlinet et Levallois [4] définissent un point ρrégulier de la mesure μ comme un point de Lebesgue x de μ tel que μ(Bδ (x)) − f (x) ≤ ρ(δ), λ(Bδ (x)) (1.2) où ρ est une fonction mesurable telle que limδ↓0 ρ(δ) = 0. Par exemple, si d = 1 et si la mesure μ a une densité f avec une dérivée f ′ bornée par une constante quelconque Cx dans le voisinage de x, alors nous avons ρ(δ) = Cx δ et x est ρ-régulier. Il est aussi clair que, si f est une fonction localement hölderienne en x avec un exposant αx , cela implique ρ(δ) = Cx /(αx + 1)δ αx . De plus, il est possible de trouver des exemples de mesures ρ-régulières mais avec un mauvais comportement local de la densité, comme des discontinuités du second ordre. Par exemple la fonction f1 (Figure 1.1), définie pour x ∈ [−1, 1] 6= 0 par p |x| − cos(1/x) + 2x sin(1/x) + 2 , f1 (x) = c avec c = 4 + 4/3 + 2 sin(1). Pour cette densité, 0 est un point où nous n'avons ni limite à droite ni limite à gauche. Il est cependant possible de démontrer que le rapport entre μ1 la mesure associée à f1 et λ vaut 2/c en 0. Par conséquent, 0 est bien un point de Lebesgue de μ1 . Pour d'autres exemples, nous renvoyons le lecteur à l'article de Berlinet et Levallois [4]. Précisons que la fonction ρ de (1.2) n'est pas unique et dépend de la norme choisie sur Rd . Il est par ailleurs possible d'aller plus loin que la relation (1.2) et de considérer qu'en x, point de Lebesgue de la mesure μ, nous ayons μ(Bδ (x)) = f (x) + Cx δ αx + o(δ αx ) quand δ ↓ 0, λ(Bδ (x)) (1.3) où Cx est une constante différente de 0 et αx un nombre réel strictement positif que nous appellerons indice de régularité. Ces constantes sont alors 2 1.1 Cadre général 0.2 0.3 0.4 0.5 0.6 uniques et, trivialement, cette relation implique la ρ-régularité en x avec ρ(δ) ∼ Cx δ αx . Cette relation définissant l'indice de régularité joue un rôle central tout au long de cette thèse. −1.0 −0.5 0.0 0.5 1.0 Figure 1.1 – Graphique de la densité f1 . Notons que l'indice αx reflète le degré de régularité de la mesure μ par rapport à la mesure de Lebesgue λ. En effet, plus αx sera grand, plus la dérivée de μ sera lisse autour du point x. En reprenant rapidement l'exemple de la fonction f1 précédente, nous avions remarqué que 0 était bien un point de Lebesgue de μ. Il est également possible de démontrer que son indice de régularité vaut 1/2. La connaissance de cet indice est intéressante en pratique pour étudier le comportement local de la mesure. En effet, il nous donne d'importantes indications sur le caractère plus ou moins lisse d'une mesure autour du point 3 Introduction générale x. Il est important de noter que αx existe dans le cas d'une densité non nécessairement continue, ceci nous garantissant un large cadre de travail. Il intervient également dans différents problèmes d'estimation intimement liés au caractère lisse ou non lisse de la mesure. Nous pouvons citer notamment l'estimation du nombre optimal de voisins pour l'estimateur des kn -plus proches voisins de la densité que nous développons ci-dessous. Un problème souvent rencontré en statistique est l'estimation d'une densité f ou de sa mesure de probabilité μ (à valeurs dans Rd ) à partir d'un échantillon de variables aléatoires réelles X1 , , Xn indépendantes et identiquement distribuées (i.i.d.) et de même loi μ. Un estimateur de la densité simple et facile à mettre en oeuvre est l'estimateur des kn -plus proches voisins défini de la façon suivante. Soit (kn )n≥1 une suite d'entiers positifs, l'estimateur des kn -plus proches voisins de f au point x est alors fkn (x) = kn , nλ(B kn (x)) où B kn (x) est la plus petite boule fermée de centre x contenant au moins kn points de l'échantillon. L'entier kn joue donc le rôle d'un paramètre de lissage. Plus explicitement, plus kn sera grand plus fkn sera lisse. En analyse discriminante, Fix and Hodges [9] ont introduit la règle de classification basée sur les plus proches voisins (voir aussi plus récemment Devroye, Györfi et Lugosi [7]). Son application à l'estimation de la densité fut étudiée par la suite par Loftsgaarden et Quesenberry [10] et Moore et Yackel [11]. Pour une introduction complète sur le sujet, nous renvoyons le lecteur au livre de Bosq et Lecoutre [5] ainsi qu'à l'article de Berlinet et Levallois [4]. Le choix du nombre de voisins kn est un problème difficile, d'autant plus si la densité à estimer est non lisse. Dans ce cas, van Es [16] a obtenu des résultats pour le choix de la fenêtre de l'estimateur à noyau en utilisant la validation croisée. Beirlant, Berlinet et Biau [3] ont présenté une approche nouvelle en optimi4 1.1 Cadre général sant l'erreur quadratique moyenne ∆n (x) = E (fkn (x) − f (x))2 , où l'espérance se calcule sur l'échantillon X1 , , Xn . La valeur de kn minimisant ∆n (x) en un point de Lebesgue x vérifiant (1.3) est alors kn∗ = !d/(d+2αx ) 2α /d dVd x 2+2αx /d f (x) n2αx /(d+2αx ) , 2 2αx Cx où Vd est le volume de la boule unité de dimension d et Cx et αx les constantes de l'égalité (1.3). Nous remarquons que kn∗ augmente avec αx , ce qui n'est pas surprenant du fait du lien entre αx et la mesure de probabilité. Dans le même article, Beirlant, Berlinet et Biau proposent un estimateur (a) fkn pour minimiser le biais de l'estimateur des kn -plus proches voisins. Cet estimateur est de la forme (a) fkn (x) = fkn (x) − g(αx , d, fkn (x)), g étant une fonction facile à calculer lorsque ses paramètres sont connus. L'indice de régularité αx tient une part importante dans ce terme correctif qui améliore sensiblement l'estimation de la densité comme nous pouvons le voir sur l'exemple de la Figure 1.2 ci-dessous. (a) L'estimation fkn (0) est ici meilleure et beaucoup moins dépendante du choix du nombre de voisins kn que l'estimation classique fkn (0). Cependant, l'estimateur de αx proposé dans cet article et utilisé dans cette estimation (a) (pour αx dans fkn (0) nous choisissons la médiane de son estimation pour des valeurs de kn entre 150 et 500) reste insatisfaisant au point de vue des simulations, comme nous le verrons en détail dans le troisième chapitre de cette thèse. Il est en effet très sensible à la valeur de kn choisie. Un meilleur (a) estimateur de αx permettrait donc d'augmenter l'efficacité de fkn sans condition de continuité nécessaire. 5 0.6 0.8 1.0 Introduction générale ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● 0.4 ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● 0.2 ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● 0.0 ● 0 200 400 600 800 1000 kn (a) Figure 1.2 – Estimations de la densité f (x) = 0.5 exp(|x|) en x = 0 par fkn (trait plein) et fkn (en pointillés) pour n = 1000. L'indice de régularité tient donc une place importante dans ce problème d'estimation fonctionnelle. Il nous fournit également d'importantes indications sur le comportement d'une mesure autour d'un point de Lebesgue. Afin de l'étudier, nous avons décider de structurer notre travail en trois parties. La première partie, intitulée Normalité asymptotique d'estimateurs de la densité, nous permettra d'étudier un nouveau problème d'estimation fonctionnelle où l'indice de régularité intervient. En effet, nous étudions les lois asymptotiques de l'estimateur des kn -plus proches voisins de la densité et de l'histogramme. Nous remarquons que l'indice de régularité apparaı̂t dans ces problèmes. Dans la seconde partie, qui se nomme Estimateur du mode de densités non continues, nous définissons un estimateur du mode ne nécessitant pas de conditions de continuité sur la densité étudiée. Nous examinons également 6 1.2 Normalité asymptotique d'estimateurs de la densité comment l'indice de régularité intervient dans cette problématique. Nous nous attachons dans la troisième partie, intitulée Estimateurs de l'indice de régularité à l'aide d'estimateurs de la fonction de répartition, à obtenir différents estimateurs de l'indice de régularité. Cette partie se divise en deux chapitres. Le premier est consacré à l'obtention et la comparaison de plusieurs estimateurs de l'indice de régularité en utilisant des estimateurs de la fonction de répartition. Dans le deuxième, nous réalisons une revue bibliographique sur les différents estimateurs de la fonction de répartition afin que la classe d'estimateurs de l'indice de régularité soit potentiellement la plus large possible. 1.2 Normalité asymptotique d'estimateurs de la densité En notant Bn (x) = B(x, Rn (x)) la plus petite boule fermée de centre x contenant au moins kn points de l'échantillon, Berlinet et Levallois [4] démontrent le résultat suivant : sous les conditions de convergence de fkn kn = ∞, n→∞ n→∞ n si x est un point ρ-régulier de la mesure μ avec f (x) > 0, alors la condition p P kn ρ(Rn (x)) → 0 lim kn = ∞ et lim lorsque n tend vers l'infini implique la convergence en distribution de la variable aléatoire p fk (x) − f (x) Tn (x) = kn n f (x) vers une loi N (0, 1). Ils obtiennent ensuite comme corollaire de ce résultat que sous les conditions de convergence évoquées précédemment et si de plus la densité f est lipschitzienne d'ordre α > 0 alors la condition 1+1/2α lim n→∞ kn n 7 =0 Introduction générale implique la convergence en distribution de Tn (x) vers une loi N (0, 1). Une bonne estimation de l'indice de régularité est donc primordiale afin d'obtenir la vérification des conditions et, par conséquent, la normalité asymptotique de Tn (x). En effet, comme nous pourrons le remarquer sur un exemple, en ne tenant pas compte de la spécificité de la mesure étudiée et de son indice de régularité il est possible de commettre une importante erreur d'estimation de la densité. Nous nous attachons tout d'abord dans ce chapitre à élargir les résultats de Berlinet et Levallois [4] sur l'estimateur des kn -plus proches voisins. Nous obtenons une condition nécessaire et suffisante à la normalité asymptotique de la loi limite de Tn (x) ainsi que l'expression de cette loi. Puis, après l'étude de différents exemples, nous donnons une nouvelle définition moins contraignante de l'indice de régularité. Nous définissons l'ensemble Ex par Ex = n α ≥ 0 tel que ∃C > 0, ∃λ0 > 0, tels que ∀I ∈ Ix vérifiant λ(I) < λ0 o μ(I) on ait − f (x) ≤ Cλ(I)α λ(I) où Ix est un ensemble d'intervalles contenant x. S'il existe un réel αx vérifiant αx = sup Ex alors αx sera l'indice de régularité de la mesure μ au point x. A l'aide de cette définition, nous obtenons une condition suffisante pour la normalité asymptotique de Tn (x). Cette nouvelle définition n'utilisant pas de développements de boules centrées en x, le point d'estimation, elle nous permet également d'étudier un estimateur de la densité tel que l'histogramme. En notant fh (x) l'estimateur de la densité par la méthode de l'histogramme, nous énonçons des conditions suffisantes pour obtenir la normalité asymptotique de Hn (x) = p fh (x) − f (x) nhn p . f (x) Enfin, nous testons nos résultats sur des données simulées. 8 1.3 Estimation du mode pour des densités non continues 1.3 Estimation du mode pour des densités non continues Considérons une mesure de probabilité μ dans Rd à partir de laquelle nous obtenons une densité f . Nous nous intéressons au problème de l'estimation du mode θ de f à partir d'un échantillon i.i.d. Sn = {X1 , . . . , Xn } distribué selon μ. Formellement, le mode d'une densité est l'argument où la densité est maximisée, c'est-à-dire la valeur pour laquelle on approche le plus (voire on atteint) la borne supérieure essentielle de f . Ce problème a suscité une littérature considérable (Parzen [13], Nadaraya [12], Devroye [6]) comme nous pourrons le voir plus en détails dans l'introduction de cette seconde partie. Néanmoins, tous les estimateurs nécessitent des conditions de régularité forte, au minimum la continuité autour du mode θ. Ainsi, pour tout x ∈ Rd , on définit l'estimateur à noyau de la densité fhn (Akaike[2], Rosenblatt [14], Parzen [13]) par   n x − Xi 1 X , k fhn (x) = nhdn i=1 hn où k est un noyau et hn la fenêtre de lissage strictement supérieure à 0 et telle que hn tend vers 0 quand n tend vers l'infini. Abraham, Biau et Cadre [1] définissent un estimateur θn du mode par θn ∈ arg max(fhn ), Sn plus précisément,   θn ∈ x ∈ Sn : fhn (x) = max fhn (Xi ) . 1≤i≤n Cet estimateur converge alors presque sûrement vers le mode θ si f est continue autour du mode. Ils obtiennent ensuite une bonne vitesse de convergence et un intervalle de confiance asymptotique. En nous appuyant sur leurs travaux, nous démontrons la convergence de θn sous des conditions ne portant pas sur la régularité de la densité f . Nous montrons ensuite que ces conditions sont vérifiées pour θ ∈ V où V est un intervalle où tout point est un point ρ-régulier. Nous obtenons également des intervalles de confiance asymptotiques sous certaines hypothèses supplémentaires, qui sont vérifiées pour θ 9 Introduction générale appartenant à un intervalle de points de Lebesgue admettant un indice de régularité. Enfin, nous terminons ce chapitre par une étude pratique sur des données simulées. 1.4 Estimateurs de l'indice de régularité utilisant des estimateurs de la fonction de répartition Nous avons pu remarquer que l'indice de régularité intervient dans différents problèmes d'estimation non paramétrique. Cependant, il est difficile à estimer et le seul estimateur disponible à notre connaissance est celui de Beirlant, Berlinet et Biau [3] qui utilise l'estimateur des kn -plus proches voisins de la densité. Ils définissent leur estimateur ᾱn,x , quelque soit τ > 1, par ᾱn,x = f⌊τ 2 kn ⌋ (x) − f⌊τ kn ⌋ (x) d log , log τ f⌊τ kn ⌋ (x) − f⌊kn ⌋ (x) si [f⌊τ 2 kn ⌋ (x) − f⌊τ kn ⌋ (x)]/[f⌊ τ kn ⌋(x) − f⌊kn ⌋ (x)] > 1 et ᾱn,x = 0 sinon, ⌊.⌋ étant la fonction partie entière. Ils obtiennent la convergence en probabilité et la normalité asymptotique de cet estimateur. Cependant, les simulations s'avèrent perfectibles. En nous appuyant sur cet article, nous déterminons dans la troisième partie différents estimateurs de l'indice de régularité en utilisant des estimateurs de la fonction de répartition. Ainsi, nous obtenons un nouvel estimateur convergent, sous certaines hypothèses, de l'indice de régularité φn,τ 2 δn (x) − φn,τ δn (x) d αn,x = log , log τ φn,τ δn (x) − φn,δn (x) où φn,δn (x) = μn (Bδn (x)) λ(Bδn (x)) avec μn la mesure empirique. Comme pour l'estimateur de Beirlant, Berlinet et Biau, cet estimateur prendra la valeur 0 si le quotient à l'intérieur du logarithme est inférieur à 1. Lors des simulations, nous utiliserons également un estimateur α̂n,x qui est obtenu en lissant la fonction de répartition empirique 10 1.4 Estimateurs de l'indice de régularité utilisant des estimateurs de la fonction de répartition par un estimateur à noyau. Un estimateur convergent de la fonction de répartition peut donner, sous les conditions adéquates, un estimateur convergent de l'indice de régularité. Nous réalisons par conséquent une large revue bibliographique des estimateurs de la fonction de répartition dans le second chapitre de la deuxième partie. Ce travail a fait l'objet d'un article à paraı̂tre dans le Journal de la Société Française de Statistique. 11 Bibliographie [1] C. Abraham, G. Biau, and B. Cadre. Simple estimation of the mode of a multivariate density. The Canadian Journal of Statistics, pages 23–34, 2003. [2] H. Akaike. An approximation to the density function. Annals of the Institute of Statistical Mathematics, 6 :127–132, 1954. [3] J. Beirlant, A. Berlinet, and G. Biau. Higher order estimation at lebesgue points. Annals of the Institute of Statistical Mathematics, 60 :651–677, 2008. [4] A. Berlinet and S. Levallois. Higher order analysis at lebesgue points. In M. Puri, editor, G. G. Roussas Festschrift - Asymptotics in Statistics and Probability, pages 1–16. 2000. [5] D. Bosq and J.-P. Lecoutre. Théorie de l'Estimation Fonctionnelle. Economica, 1987. [6] L. Devroye. Recursive estimation of the mode of a multivariate density. The Canadian Journal of Statistics, 7 :159–167, 1979. [7] L. Devroye, L. Györfi, and G. Lugosi. A Probabilistic Theory of Pattern Recognition. Springer-Verlag, New-York, 1996. [8] R. Dudley. Real Analysis and Probability. Chapman and Hall, New-York, 1989. [9] E. Fix and J. J. Hodges. Discriminatory analysis, nonparametric discrimination : consistency properties. USAF School of Aviation Medicine, 1951. [10] D. Loftsgaarden and C. Quesenberry. A nonparametric estimate of a multivariate density function. The Annals of Mathematical Statistics, pages 1049–1051, 1965. [11] D. Moore and J. Yackel. Large sample properties of nearest neighbour density function estimates. In S. Gupta and D. Moore, editors, Statistical Decision Theory and Related Topics II. Academic Press, New-York, 1977. 13 BIBLIOGRAPHIE [12] E. Nadaraya. On non-parametric estimates of density functions an regression curves. Theory of Probability and its Application, 10 :186–190, 1965. [13] E. Parzen. On the estimation of a probability density and mode. The Annals of Mathematical Statistics, 33 :1065–1076, 1962. [14] M. Rosenblatt. Remarks on some non-parametric estimates of a density function. The Annals of Mathematical Statistics, 27 :832–837, 1956. [15] W. Rudin. Real and Complex Analysis. McGraw-Hill, New York, 1987. [16] C. van Es. Asymptotics for least squares cross-validation bandwidths in nonsmooth cases. The Annals of Statistics, pages 1647–1657, 1992. 14 Première partie Normalité asymptotique d'estimateurs de la densité 15 Normalité asymptotique d'estimateurs de la densité 1.1 Introduction Nous commençons ce chapitre en rappelant certaines définitions importantes aperçues lors de l'introduction. Nous considérons μ une mesure de probabilité sur (Rd , B(Rd )), x un point de Rd , δ un réel positif et Bδ (x) la boule ouverte de centre x et de rayon δ. Si pour x fixé la limite suivante μ(Bδ (x)) δ→0 λ(Bδ (x)) f (x) = lim (1.4) existe, alors x est appelé un point de Lebesgue de la mesure μ. Dans ce contexte, Berlinet et Levallois [2] définissent un point ρ-régulier de la mesure μ comme un point de Lebesgue x qui vérifie μ(Bδ (x)) − f (x) ≤ ρ(δ), λ(Bδ (x)) (1.5) où ρ est une fonction mesurable telle que limδ→0 ρ(δ) = 0. Cette définition est ensuite utilisée dans l'étude de fkn , l'estimateur des kn plus proches voisins de la densité. En notant Bn (x) = B(x, Rn (x)) la plus petite boule fermée de centre x contenant au moins kn points de l'échantillon, ils démontrent le théorème suivant : Théorème 1.1.1 (Berlinet et Levallois [2]) Sous les conditions de convergence de fkn lim kn = ∞ n→∞ et 17 kn = ∞, n→∞ n lim si x est un point ρ-régulier de la mesure μ avec f (x) > 0, alors la condition p P kn ρ(Rn (x)) → 0 lorsque n tend vers l'infini implique la convergence en distribution de la variable aléatoire p fk (x) − f (x) Tn (x) = kn n f (x) vers une loi N (0, 1). Ils obtiennent ensuite comme corollaire de ce résultat que sous les conditions de convergence du Théorème 1.1.1 et si de plus la densité f est lipschitzienne d'ordre α > 0 alors la condition 1+1/2α lim n→∞ kn n =0 (1.6) implique la convergence en distribution de Tn (x) vers une loi N (0, 1). Ils proposent ensuite de considérer la densité f0 suivante, définie pour x ∈ [−0.5, 0.5], √ 2 p + |x|. f0 (x) = 1 − 3 Pour 0 < t < y < 0.5 nous avons 1 f0 (t) − f0 (y) = (t − y) √ 2 ǫ où ǫ ∈ (x, y) alors que pour y > 0 nous avons √ f0 (0) − f0 (y) = − y. La densité f0 est donc lipschitzienne sur [−0.5, 0.5] d'ordre 1/2 en 0 et 1 partout ailleurs. Ceci implique donc la ρ-régularité en tout point x ∈ [−0.5, 0.5] avec  Cx δ pour x 6= 0 ρ(δ) = 1/2 Cx δ pour x = 0. Si l'on prend α = 1 dans la condition (1.6) nous obtenons alors la condition 3/2 kn = 0. lim n→∞ n 18 1.1 Introduction 0.0 0.1 0.2 0.3 0.4 x=−0.25 x=−0.125 x=0 x=0.125 x=0.25 −2 0 2 4 6 (a) n = 1000 0.0 0.1 0.2 0.3 0.4 x=−0.25 x=−0.125 x=0 x=0.125 x=0.25 −2 0 2 4 6 (b) n = 10000 Figure √ 1.3 – Estimations de la densité de Tn (x) en différents points x avec kn = n. 19 √ Ainsi, en choisissant kn = n, nous vérifions la condition précédente et obtenons les estimations de la Figure 1.3, par la méthode du noyau, pour les densités des statistiques Tn (x) estimées en différents points x. Nous remarquons donc que, pour x 6= 0, la distribution de Tn (x) a la forme générale de la loi N (0, 1). Cependant, pour x = 0, nous en sommes très éloignés. En effet, comme nous avons α0 = 1/2, la condition (1.6) n'est pas √ vérifiée en 0 pour kn = n. En ne tenant pas compte de la spécificité de cette mesure et du changement brutal de l'indice de régularité, nous commettons une importante erreur sur l'estimation de f0 en 0 due à un choix inadapté pour kn . Une bonne estimation de l'indice de régularité est donc nécessaire en tout point de définition de la densité afin de déterminer avec précision le nombre de voisins kn à utiliser et la loi limite de l'estimateur. Nous obtenons dans la suite de cette partie une condition nécessaire et suffisante pour la normalité asymptotique de l'estimateur des kn -plus proches voisins de la densité et mettons en avant l'importance de l'indice de régularité dans cette loi limite. 1.2 1.2.1 Estimateur des kn-plus proches voisins Définition de l'estimateur Soit {kn , n ≥ 1} une suite d'entiers strictement positifs, nous rappelons que l'on définit l'estimateur des kn -plus proches voisins de la densité par fkn (x) = kn  nλ B kn (x) où B kn (x) = B (x, Rn (x)) est la plus petite boule fermée de centre x contenant au moins kn points de l'échantillon. L'entier kn jouera donc un rôle crucial à la manière de la fenêtre hn pour l'estimateur à noyau : si kn est choisi trop grand l'estimateur sera trop lisse et inversement dans le cas contraire. En analyse discriminante, Fix et Hodges [5] ont introduit la règle de classification basée sur les kn -plus proches voisins (voir également Devroye, Györfi et Lugosi [4] sur ce sujet). L'application de cette règle à l'estimation de la densité est due à Loftsgaarden et Quesenberry [7] en tout point où la densité 20 1.2 Estimateur des kn -plus proches voisins est positive et continue. Ils démontrent également la convergence en probabilité de leur estimateur, en tout point de Lebesgue x, sous les hypothèses suivantes kn = 0. (1.7) lim kn = ∞ ; lim n→∞ n→∞ n Par la suite, Moore et Yackel [8] ont obtenu le résultat asymptotique suivant p kn fkn (x) − f (x) L → N (0, 1) f (x) si f est continue et à dérivées bornées dans un voisinage de x avec f (x) > 0 et en ajoutant la condition kn =0 n→∞ n2/3 lim aux conditions (1.7). Puis, nous avons vu que Berlinet et Levallois [2] ont utilisé la définition de ρ-régularité pour obtenir le même résultat de normalité asymptotique mais pour une densité f positive dans un voisinage de x, sous les conditions (1.7) et 1+1/2α lim n→∞ kn n = 0, lorsque nous avons ρ(δ) = Cδ α . Comme nous l'avons remarqué dans l'introduction générale de cette thèse il est cependant possible de supposer qu'une relation plus précise que la ρ-régularité a lieu. Ainsi, il est possible de considérer qu'en x point de Lebesgue de la mesure μ nous ayons μ(Bδ (x)) = f (x) + Cx δ αx + o(δ αx ) quand δ ↓ 0, λ(Bδ (x)) (1.8) où Cx est une constante différente de 0 et αx un nombre réel strictement positif que nous appelons indice de régularité. Ces constantes sont alors uniques et il est clair que cette relation implique la ρ-régularité avec ρ(δ) = Cx δ αx . Cet indice joue un rôle primordial dans les résultats qui suivent. 21 1.2.2 Conditions Nécessaires et Suffisantes de Normalité Asymptotique Théorème 1.2.1 Si x est un point de Lebesgue où (1.8) est vérifié avec f (x) > 0, et sous les conditions (1.7), la variable aléatoire Tn (x) = p fkn (x) − f (x) kn f (x) converge en loi si et seulement si la suite 1+1/2αx kn n ! a une limite finie κ. Lorsque cette condition est vérifiée, la loi asymptotique de Tn (x) est  αx +1 ! 1 Cx καx ,1 . N 2αx f (x) Preuve : La démonstration de ce théorème découle immédiatement des Lemmes 1.2.3 et 1.2.4 ci-dessous.  Dans les preuves des lemmes ci-dessous, nous utilisons la décomposition suivante de Tn (x) : Tn (x) = an (bn + cn ) où kn nμ(Bn (x))   p 1 μ(Bn (x)) = kn − f (x) f (x) λ(Bn (x))   n kn − μ(Bn (x)) = √ kn n an = bn et cn Cette décomposition a été introduite par Moore et Yackel [8] qui ont prouvé le lemme suivant : 22 1.2 Estimateur des kn -plus proches voisins Lemme 1.2.1 Dans la décomposition précédente de Tn (x), on a, sous les conditions de convergence (1.7), P an → 1 L cn → N (0, 1). et Nous énonçons maintenant les lemmes permettant d'établir le théorème. Lemme 1.2.2 Sous les conditions de convergence (1.7) et si (1.8) est vérifée, nous avons  αx +1  α x 1 1 Cx n √ bn = α . lim n→∞ kn 2 x f (x) kn Preuve : De (1.8) il résulte que la fonction Φ(δ) =   μ(Bδ (x)) 1 − f (x) αx λ(Bδ (x)) δ est telle que lim Φ(δ) = Cx . δ→0+ En introduisant cette fonction Φ dans l'expression de bn , on obtient bn = Φ(Rn ) et  n kn α x  2nRn kn α x 1 √ bn = Φ(Rn ) kn  α +1/2 kn x 1 2αx f (x) nαx 2nRn kn α x 1 2αx f (x) . Or, sous les conditions (1.7), nous avons P Rn → 0 et kn P = fkn (x) → f (x). 2nRn On en déduit que P Φ(Rn ) → Cx et la conclusion du lemme en découle. 23  Lemme 1.2.3 (Condition suffisante) Sous les hypothèses du Théorème 1.2.1, si 1+1/2αx kn lim n→∞ n =κ alors p fkn (x) − f (x) kn f (x)     αx +1 1 Cx καx ,1 . est de loi asymptotique N 2αx f (x) Tn (x) = Preuve : Les hypothèses et le Lemme 1.2.2 entraı̂nent que  αx +1 Cx καx 1 en probabilité lim bn = αx n→∞ 2 f (x) et le Lemme 1.2.1 permet de conclure.  Lemme 1.2.4 (Condition nécessaire)  1+1/2αx  n'est pas Sous les hypothèses du Théorème 1.2.1, si la suite kn n convergente alors la variable aléatoire Tn (x) = ne converge pas en loi. p fkn (x) − f (x) kn f (x) Preuve :   1+1/2αx   1+1/2αx kq(n) kn n'est pas bornée, alors il existe une sous-suite Si la suite n q(n) qui tend vers l'infini donc ∀M > 0, P bq(n) > M  → 1 n→∞ et (bn ), comme par conséquent (Tn ), ne converge pas en loi.  1+1/2α x kn Si la suite est bornée et non convergente alors il est possible d'exn traire deux sous-suites convergeant vers des limites différentes l1 et l2 . Par application du Lemme 1.2.1, les sous-suites correspondantes de (Tn ) convergent en loi respectivement vers N (l1 , 1) et N (l2 , 1). (Zn ) ne converge donc pas en loi.  24 1.3 Nouvelle définition pour l'indice de régularité 1.3 Nouvelle définition régularité pour l'indice de Beaucoup d'estimateurs de la densité requièrent un développement pour un rapport de mesures d'ensembles non centrés au point d'estimation x et n'étant pas forcément des boules. La première définition (1.8) est donc inutilisable dans ces cas précis. De plus, il est également intéressant de définir une nouvelle notion qui soit intermédiaire entre la définition de l'indice de régularité et la ρ-régularité. Par exemple, si on considère la densité 2 − cos(1/x) + 2x sin(1/x) c définie sur R pour x ∈ [−1, 1]\0 avec c = 4 + 2 sin 1 et μ1 sa mesure de probabilité associée. La fonction de répartition F1 associée à la densité f1 est  pour x < −1  0 1/2 + (2x + x2 sin(1/x))/c pour − 1 ≤ x ≤ 1 F1 (x) =  1 pour x > 1. f1 (x) = Cette densité est différentiable en tout point de [−1, 1] sauf en 0 où elle n'a ni limite à droite ni limite à gauche. On a cependant 2 F1 (h) − F1 (−h) = . h→0 2h c lim 0 est donc un point de Lebesgue de μ1 et, en posant f1 (0) = 2/c, la discontinuité du second ordre est toujours présente. Maintenant,   1 1 μ1 ([−h, h]) − f1 (0) = h sin 2h c h et en tout point de [−1, 1] nous avons ρ-régularité avec ρ(δ) = δ/c alors qu'en 0 nous n'avons pas d'indice de régularité. Afin de fixer une nouvelle définition englobant le maximum de cas, nous allons étudier quelques exemples. 1.3.1 Fonctions de répartition C 1 Lemme 1.3.1 Soit F une fonction de répartition C 1 et admettant F (2) bornée par Cx > 0 sur un voisinage I de x dans R. Si nous notons μ la mesure de 25 probabilité associée et f sa densité, on a alors, pour tout ε > 0, μ(I) Cx − f (x) ≤ λ(I). λ(I) 2 Preuve : En utilisant un développement limité en x − h1 avec h1 > 0 nous avons, F (x − h1 ) = F (x) − h1 F ′ (x) + h21 (2) − F (c ) 2 avec c− ∈ [x − h1 , x[. Avec le même type de développement en x + h2 avec h2 > 0 et avec I = [x − h1 , x + h2 ], on obtient μ(I) = λ(I)F ′ (x) +  1  2 (2) + h2 F (c ) − h21 F (2) (c− ) 2 avec c+ ∈ ]x, x + h2 ]. Finalement, comme F ′ (x) = f (x) et F (2) bornée par Cx > 0, on a Cx μ(I) − f (x) ≤ λ(I). λ(I) 2  Selon les cas, il sera bien entendu possible d'obtenir des inégalités avec des puissances de λ(I) plus grandes. Exemple 1 : la Loi Normale Nous considérons la loi Normale N (0, 1) définie sur R avec f2 sa densité, μ2 la mesure de probabilité associée et F2 sa fonction de répartition donnée par    x F2 (x) = 0.5 ∗ 1 + erf √ 2 avec ∞ 2 X x2i+1 erf(x) = √ . (−1)i (2i + 1)i! π i=0 Nous choisissons h1 et g1 deux entiers positifs avec 0 ∈ I = [−h1 , g1 ] et λ(I) < λ0 . On a alors      g1 1 −h1 erf √ F2 (g1 ) − F2 (−h1 ) = √ − erf √ π 2 2 ∞ 2i+1 2i+1 X g + h1 1 (−1)i √ 12i+1 . = √ π i=0 2 (2i + 1)i! 26 1.3 Nouvelle définition pour l'indice de régularité On obtient alors ∞ X 1 g 2i+1 + h2i+1 μ2 (I) 1 =√ +√ (−1)i √ 12i+1 1 . λ(I) π(g1 + h1 ) i=1 2π 2 (2i + 1)i! Comme f2 (0) = √1 , 2π nous avons ∞ 2i+1 X + h12i+1 μ2 (I) 1 i g1 . (−1) √ 2i+1 − f2 (0) = √ λ(I) π(g1 + h1 ) i=1 2 (2i + 1)i! Clairement, le terme général de cette série est de la forme (−1)i vi où (vi ) désigne une suite décroissante de nombres positifs convergeants vers 0. C'est donc une série alternée convergente et son premier terme nous donne un majorant en valeur absolue (Lelong-Ferand et Arnaudiès [6]). On a donc g13 + h31 1 μ2 (I) − f2 (0) ≤ √ √  λ(I) π(g1 + h1 ) 3 2 3 et finalement, comme (g13 + h31 )/(g1 + h1 )3 < 1, λ(I)2 μ2 (I) (g1 + h1 )2 √ = √ . − f2 (0) ≤ λ(I) 6 2π 6 2π Exemple 2 : la Loi Cauchy Nous considérons la loi de Cauchy de paramètre a = 1 définie sur R avec f3 sa densité, μ3 la mesure de probabilité associée et F3 sa fonction de répartition qui vaut 1 1 F3 (x) = arctan(x) + π 2 avec ∞ X (−1)i x2i+1 arctan(x) = . 2i + 1 i=0 Nous choisissons h1 et g1 deux entiers positifs avec 0 ∈ I = [−h1 , g1 ] et λ(I) < λ0 . On a alors ∞  1 X (−1)i 2i+1 g1 + h12i+1 F3 (g1 ) − F3 (−h1 ) = √ π i=0 2i + 1 27 ce qui nous donne ∞ X (−1)i  1 1 μ3 (I) g12i+1 + h12i+1 . = +√ λ(I) π πλ(I) i=1 2i + 1 Avec les mêmes arguments que dans l'exemple précédent cette série est une série alternée convergente et son premier terme nous donne un majorant en valeur absolue. On a donc, comme f3 (0) = 1/π et en utilisant la même démonstration que précédemment, 1 μ3 (I) − f3 (0) ≤ λ(I)2 . λ(I) 3π Exemple 3 : Fonction exponentielle Nous considérons la densité f4 qui est définie sur [−1, 1] par f4 (x) = exp x e − e−1 et sa mesure associée μ4 . Nous choisissons h1 et g1 deux entiers positifs avec 0 ∈ I = [−h1 , g1 ] et λ(I) < λ0 . On a alors   g12 h21 μ4 (I) 1 2 2 g1 + = + o(g1 ) − (−h1 + + o(h1 )) , λ(I) λ(I)(e − e−1 ) 2 2 et, avec f4 (0) = (e − e−1 )−1 , 1 μ4 (I) − f4 (0) ≤ λ(I) λ(I)(e − e−1 )  |g12 − h21 | + o(g12 − h21 ) 2  . En utilisant le fait que g12 − h21 < λ(I)2 , on obtient finalement, pour tout ε > 0, 1+ε μ4 (I) − f4 (0) ≤ λ(I). λ(I) 2(e − e−1 ) 1.3.2 Densité C 0 Densité lipschitzienne d'ordre α Lemme 1.3.2 Soit h une densité quelconque lipschitzienne en un point x de R telle que, pour tout t, |h(x) − h(t)| ≤ Cx |x − t|α , 28 1.3 Nouvelle définition pour l'indice de régularité et μh sa mesure associée. On a alors, pour tout intervalle I de mesure non nulle contenant x, μh (I) − h(x) ≤ Cx λ(I)α . λ(I) Preuve : En écrivant μh (I) = Z h(t)dt = I Z I (h(x) − h(t)) dt + λ(I)h(x) et en utilisant le fait que h soit lipschitzienne en x, on obtient Z μh (I) Cx |x − t|α dt − h(x) ≤ λ(I) λ(I) I et |x − t| ≤ λ(I) nous donne le résultat final. Exemple 4 : Reprenons la densité  √ 2 p + |x| 3 définie sur R pour x ∈ [−1/2, 1/2] et μ0 sa mesure de probabilité que nous avons déjà étudiée dans l'introduction de cette partie. En x = 0, la densité est continue mais non dérivable mais il est possible de démontrer qu'elle est 1 -lipschitzienne. Nous avons 2  pour x < −1/2,   0  √  p 2 2 F0 (x) = 1/2 + 1 − 3 x + 3 x |x| pour − 1/2 ≤ x ≤ 1/2,   1 pour x > 1/2. f0 (x) = 1 − Nous choisissons h1 et g1 deux entiers positifs avec 0 ∈ I = [−h1 , g1 ] et λ(I) < λ0 . On a alors √ 3/2 3/2 2 2 g1 + h1 μ0 (I) = 1− + λ(I) 3 3 (g1 + h1 ) √ 3/2 3/2 2 2 g1 + h1 = 1− λ(I)1/2 + 3 3 (g1 + h1 )3/2 d'où, comme f0 (0) = 1 − √ 2 , 3 μ0 (I) 2 − f0 (0) ≤ λ(I)1/2 . λ(I) 3 29 Exemple 5 : Soit la densité f5 (x) = 0.5 exp(−|x|) définie sur R pour x ∈ [−1, 1] et μ5 sa mesure de probabilité. En x = 0, la densité est continue mais non dérivable et elle est 1-lipschitzienne. En utilisant le développement de la fonction exponentielle sous forme de série et le même type d'argument qu'à l'Exemple 1 sur les séries alternées, on arrive à λ(I) μ5 (I) − f5 (x) ≤ . λ(I) 4 Nous retrouvons donc les indices annoncés par le Lemme 1.3.2. 1.3.3 Discontinuité du second ordre Nous pouvons revenir à la densité f1 pour laquelle nous avons   0 1/2 + (2x + x2 sin(1/x))/c F1 (x) =  1 pour x < −1, pour − 1 ≤ x ≤ 1, pour x > 1. Nous choisissons h1 et g1 deux entiers positifs avec 0 ∈ I = [−h1 , g1 ] et λ(I) < λ0 . On a alors 2 g 2 sin(1/g1 ) + h21 sin(1/h1 ) μ1 (I) = + 1 λ(I) c cλ(I) et en posant f1 (0) = 2/c (qui est la limite du rapport des mesures de boules), on obtient μ1 (I) 1 g 2 + h21 − f1 (0) ≤ 1 ≤ λ(I). λ(I) cλ(I) c Ces résultats nous poussent donc à envisager une nouvelle définition pour l'indice de régularité qui permettrait d'englober également les mesures comme la mesure μ1 . 30 1.3 Nouvelle définition pour l'indice de régularité 1.3.4 Nouvelle définition Les exemples ci-dessus nous amènent à considérer la nouvelle définition suivante. Soit μ une mesure de probabilité différentiable en un point de Lebesgue x de R de densité f (x). On définit l'ensemble Ex par n Ex = α ≥ 0 tel que ∃C > 0, ∃λ0 > 0, tels que ∀I ∈ Ix vérifiant λ(I) < λ0 o α − f (x) ≤ Cλ(I) on ait μ(I) λ(I) où Ix est l'ensemble des intervalles contenant x. S'il existe un réel αx vérifiant αx = sup Ex (1.9) alors αx sera l'indice de régularité de la mesure μ au point x. Si sup Ex = +∞ alors nous aurons αx = +∞. Nous donnons ci-dessous un exemple de ce cas particulier. Soit une densité quelconque d constante sur un intervalle I de mesure non nulle et μd sa mesure associée. Alors, pour tout point x ∈ I, il est possible de vérifier que Z d(t)dt = d(x).λ(I) μd (I) = I ce qui nous donne μd (I) − d(x) = 0. λ(I) Nous nous trouvons alors dans le cas où αx = +∞. L'indice de régularité augmentant avec la régularité de la mesure, il n'est pas étonnant que, dans le cas d'une densité constante sur un intervalle, on trouve αx = +∞ comme ici. A l'aide de cette nouvelle définition, nous pouvons définir un indice de régularité dans chacun des exemples vus précédemment notamment pour la mesure μ1 ce qui n'est pas le cas avec la première définition. Cette nouvelle définition peut donc nous permettre d'élargir certains résultats à des mesures dont le développement ne permet pas d'obtenir un indice de régularité exact. 31 Elle peut également être utilisée pour des estimateurs de la densité n'utilisant pas des développements de boules centrées en x, le point d'estimation, comme par exemple l'histogramme. 1.4 Application à l'estimateur des kn-plus proches voisins En utilisant la nouvelle définition pour l'indice de régularité, nous énonçons un théorème sur la normalité asymptotique de l'estimateur des kn -plus proches voisins. Théorème 1.4.1 Si x est un point de Lebesgue où (1.9) est vérifié avec f (x) > 0 et αx ∈ Ex , et sous les conditions (1.7), la condition supplémentaire 1+1/2αx lim kn n n→∞ =0 implique la convergence asymptotique de la variable aléatoire Tn (x) = p fkn (x) − f (x) kn f (x) vers une loi N (0, 1). Ce théorème nous permet d'élargir nos résultats précédents à des classes de mesures ρ-régulières mais n'admettant pas de développement exact du rapport des mesures de boules, comme par exemple la mesure μ1 . Preuve : Il est clair que la condition (1.9) avec αx ∈ Ex implique la ρ-régularité en x avec ρ(δ) = Cx δ αx . D'après le Théorème 1.1.1, la condition p P kn ρ(Rn (x)) → 0 implique la normalité asymptotique de Tn (x). Or, nous avons 1/2+αx p Cx kn kn ρ(Rn (x)) = 2αx nαx  λ(Bn (x)) μ(Bn (x)) 32 α x  nμ(Bn (x)) kn α x . 1.5 L'histogramme Et, comme an = nμ(Bn (x)) P →1 kn P et, pour f (x) > 0 et Rn (x) → 0 (Loftsgaarden et Quesenberry [7]), alors λ(Bn (x)) P → f (x)−1 , μ(Bn (x)) ce qui permet de conclure. 1.5 1.5.1  L'histogramme Construction de l'estimateur L'histogramme est un estimateur de la densité très simple à mettre en oeuvre. Pour le définir, nous avons besoin de séparer notre espace de manière régulière et nous supposons donc qu'il existe une suite Pn = {Πnq ; q ∈ N} de partitions équilibrées de R en boréliens, c'est-à-dire vérifiant lim sup diam(πnq ) = 0 et n q lim sup(βn /γn ) < ∞ avec γn = inf q λ(Πnq ) et βn = supq λ(Πnq ). Dans R, on construit une suite d'intervalles Πnq = [(q − 1)hn , qhn [, q ∈ Z, où hn est un nombre réel positif dépendant de n. L'histogramme s'écrit alors νnq fh (x) = nhn avec x ∈ Πnq , νnq étant le nombre de points dans la qème cellule et q ∈ Z. La fonction fh est donc constante sur chacun des éléments de la partition. Afin d'assurer la convergence de fh vers f , il est donc nécessaire que les partitions deviennent de plus en plus fines. Cet estimateur est alors convergent en moyenne quadratique sous les conditions suivantes dans R (Bosq et Lecoutre [3]) lim hn = 0 et lim nhn = +∞. (1.10) n→∞ n→∞ 33 1.5.2 Résultat sur la Normalité Asymptotique Théorème 1.5.1 Si x est un point de Lebesgue où (1.9) est vérifié avec f (x) > 0 et αx ∈ Ex , et sous les conditions (1.10), la condition supplémentaire lim nhn2αx +1 = 0 n→∞ implique la convergence asymptotique de la variable aléatoire p fh (x) − f (x) Hn (x) = nhn p f (x) vers une loi N (0, 1). Preuve : Nous avons s Hn (x) = Rn (x) avec μ(Πnq ) 1 p hn f (x) p Rn (x) = nhn (fh (x) − f (x)) s hn . μ(Πnq ) Comme x est un point de Lebesgue où f (x) > 0, le Lemme 1.5.1 nous donne le résultat.  Nous allons maintenant énoncer les lemmes permettant d'établir le théorème. Lemme 1.5.1 Nous avons, sous les hypothèses du Théorème 1.5.1, L Rn (x) → N (0, 1). Preuve : En posant Sn (x) = et p Pn (x) = nhn s νnq − nμ(Πnq ) p nμ(Πnq ) hn μ(Πnq )   μ(Πnq ) − f (x) hn un développement rapide nous permet de vérifier que Rn (x) = Sn (x) + Pn (x), les Lemmes 1.5.2 et 1.5.3 permettent alors de conclure. 34  1.6 Simulations Lemme 1.5.2 Sous les hypothèses du Théorème 1.5.1, nous avons L Sn (x) → N (0, 1). Preuve : La variable aléatoire νnq suit une loi binomiale de paramètres n et μ(Πnq ) et donc, par le Théorème Central Limite pour la loi binomiale, on obtient le résultat du lemme.  Lemme 1.5.3 Sous les hypothèses du Théorème 1.5.1, nous avons Pn (x) → 0. Preuve : D'après la définition de Pn (x) et la relation (1.9), nous avons, si αx ∈ Ex et dès que hn < λ0 , √ αx +1 nh Cx |Pn (x)| ≤ p n μ(Πnq ) et comme x est un point de Lebesgue nous obtenons √ αx +1/2 nhn Cx p . |Pn (x)| ≤ f (x) Or, comme f (x) > 0 et limn→∞ nhn2αx +1 = 0, nous obtenons finalement le résultat.  1.6 1.6.1 Simulations Indice de régularité Afin de calibrer le plus précisément possible les différents paramètres des estimateurs de la densité ci-dessus, il est tout d'abord nécessaire d'obtenir une bonne estimation de l'indice de régularité de la mesure μ étudiée. Pour cela, nous utilisons l'estimateur ᾱn,x défini par Berlaint, Berlinet et Biau [1] qui utilise l'estimateur des kn -plus proches voisins de la densité qui est étudié en détails dans la troisième partie de cette thèse et qui est défini quelque soit τ > 1, par f⌊τ 2 kn ⌋ (x) − f⌊τ kn ⌋ (x) 1 log , ᾱn,x = log τ f⌊τ kn ⌋ (x) − f⌊kn ⌋ (x) 35 si [f⌊τ 2 kn ⌋ (x) − f⌊τ kn ⌋ (x)]/[f⌊τ kn ⌋ (x) − f⌊kn ⌋ (x)] > 1 et ᾱn,x = 0 sinon. Nous ferons également appel aux estimateurs de l'indice de régularité utilisant les estimateurs de la fonction de répartition que nous étudions dans la dernière partie de cette thèse et qui sont définis, quelque soit τ > 1, par αn,x = φn,τ 2 δn (x) − φn,τ δn (x) 1 log , log τ φn,τ δn (x) − φn,δn (x) où φn,δn (x) = μn (Bδn (x)) λ(Bδn (x)) avec μn la mesure empirique, et α̂n,x = φ̂n,τ 2 δn (x) − φ̂n,τ δn (x) 1 log , log τ φ̂n,τ δn (x) − φ̂n,δn (x) où φ̂n,δ (x) = μ̂n (Bδ (x)) λ(Bδ (x)) avec μ̂n la mesure associée à l'estimateur à noyau de la densité. Comme pour l'estimateur de Beirlant, Berlinet et Biau, ces estimateurs prendront la valeur 0 si le quotient à l'intérieur du logarithme est inférieur à 1. Notons que les conditions pour obtenir un estimateur convergent de l'indice de régularité sur l'estimateur des kn -plus proches voisins sont kn lim =0 n→∞ n α +1/2 et kn x lim n→∞ n αx = +∞. Nous pouvons remarquer que la deuxième condition est en contradiction avec les hypothèses des Théorèmes 1.2.1 et 1.4.1. Nous avons en effet besoin d'un nombre kn de voisins plus importants lors de l'estimation de l'indice de régularité que lors du chapitre précédent. Cela s'explique par la nature même de cet estimateur de l'indice de régularité. Il joue en effet sur les différences entre plusieurs estimations fkn avec différents kn . Plus ces différences seront marquées (avec un kn "grand"), plus l'estimateur de l'indice de régularité s'approchera de sa valeur réelle. 36 1.6 Simulations L'indice de régularité αx étant inconnu la deuxième condition n'est pas utilisable en l'état. On peut par contre montrer qu'elle est vérifiée si kn log n = +∞. n→∞ n lim Cela nous amène donc à considérer des suites d'entiers kn telles que, lorsque n → ∞, n << kn << n. log n Pour les estimateurs utilisant les estimations de la fonction de répartition, nous utilisons également différentes valeurs de δn vérifiant les conditions de convergence de l'estimateur (voir Proposition 1.2.1 dans la troisième partie) et prenons l'estimation médiane pour l'estimation de l'indice de régularité. Concernant la fenêtre de l'estimateur à noyau, nous choisissons hn = Sn n−1/5 ≈ 0.09n−1/5 , pour des raisons qui seront détaillées dans la troisième partie. Nous choisissons de tester nos différents estimateurs sur la densité f0 définie sur [−0.5, 0.5] par √ 2 p f0 (x) = 1 − + |x| 3 et dont l'indice de régularité vaut  1 pour x 6= 0 1/2 pour x = 0. Pour chaque taille d'échantillon nous simulons une dizaine d'échantillons. Afin d'éliminer certaines valeurs extrêmes, nous retiendrons la médiane de la dizaine d'estimations de l'indice de régularité. Nous obtenons alors les résultats rassemblés dans les Tableaux 1.1 et 1.2 ci-dessous. Même s'ils donnent une approximation relativement correcte, les différents estimateurs ont tendance à surestimer la valeur de l'indice de régularité. Néanmoins, les différentes estimations au point 0 sont inférieures aux autres. De plus, l'estimateur des plus proches voisins réussit à s'en approcher de manière très intéressante. Nous pouvons également noter que les estimations s'améliorent logiquement avec l'augmentation de n. Afin d'obtenir encore 37 plus de précisions, il serait intéressant d'aller au delà du million de points mais les temps de calcul seraient alors encore plus longs (plusieurs jours). x kn −0.25 −0.125 0 0.125 0.25 Estimateurs ppv n = (log nn)1/3 kn = √log kn n 1.93 1.99 1.63 1.66 0.67 0.78 1.42 1.43 1.85 1.96 = (log nn)3/4 2.08 1.70 0.87 1.57 1.9 Estimateurs de la f.d.r. Empirique Noyau 1.95 1.92 1.91 1.74 1.70 1.35 2.00 1.88 1.99 1.91 TABLEAU 1.1 – Estimations de αx pour la densité f0 pour n = 500000. x kn −0.25 −0.125 0 0.125 0.25 Estimateurs ppv n kn = √log kn n 1.86 1.23 0.65 1.44 1.90 n (log n)1/3 = 1.84 1.34 0.36 1.25 1.82 n (log n)3/4 = 1.80 1.31 0.71 1.32 1.91 Estimateurs de la f.d.r. Empirique Noyau 2.05 1.90 1.88 1.59 1.30 1.29 1.95 1.62 2.00 1.94 TABLEAU 1.2 – Estimations de αx pour la densité f0 pour n = 1000000. L'estimateur des kn -plus proches voisins s'avère donc meilleur. Par conséquent, nous choisissons la médiane des estimations obtenues pour cet estimateur, pour les différentes valeurs de kn , comme estimation de l'indice de régularité. Ces valeurs sont contenues dans le Tableau 1.3 et seront celles que nous utilisons dans la section suivante. x = −0.25 x = −0.125 x = 0 x = 0.125 x = 0.25 n = 500000 1.99 1.70 0.87 1.57 1.9 n = 1000000 1.85 1.34 0.71 1.44 1.9 TABLEAU 1.3 – Estimations de αx pour la densité f0 . 38 1.6 Simulations 1.6.2 Estimation de la densité Nous traitons dans cette partie des jeux de données de taille 1 million avec les estimations de l'indice de régularité du Tableau 1.3. Nous obtenons des intervalles de confiance à 99% pour les estimations de la densité f0 à l'aide des théorèmes de normalité asymptotique obtenus précédemment. Chaque borne de l'intervalle de confiance sera la médiane des bornes obtenues pour une quinzaine d'échantillons de même taille. Estimateur des kn -plus proches voisins Pour l'estimateur des plus proches voisins, nous avons obtenu que les conditions 1+1/2αx kn kn = 0 et lim =0 lim kn = ∞ , lim n→∞ n→∞ n→∞ n n impliquent la convergence de Zn vers une loi N (0, 1). Ceci nous permet donc de définir des intervalles de confiance pour l'estimation de la densité f0 . Les estimations de l'indice de régularité situées ci-dessus nous permettent de choisir des suites kn vérifiant les conditions de convergence. Nous obtenons alors qu'au point 0 il nous faut kn << n0.63 alors qu'aux autres kn << n3/4 suffit. L'approximation donnée par l'estimateur de l'indice de régularité est relativement bonne car les vraies conditions sur les suites kn sont respectivement kn << n1/2 en 0 et kn << n2/3 aux autres points. Ceci nous donne les résultats du Tableau 1.4 suivant les valeurs de kn . 1/3 kn = n kn = n2/5 kn = n0.64 f0 (x) x = −0.25 x = −0.125 x=0 x = 0.125 x = 0.25 [0.74 ;1.25] [0.72 ;1.22] [0.34 ;0.55] [0.63,1.06] [0.75 ;1.28] [0.90 ;1.32] [0.66 ;0.96] [0.37 ;0.53] [0.65,0.94] [0.95 ;1.39] [1.02 ;1.05] [0.85 ;0.87] [0.55 ;0.56] [0.85 ;0.88] [1.02 ;1.05] 1.03 0.88 0.53 0.88 1.03 TABLEAU 1.4 – Intervalles de confiances pour f0 (x) à partir de l'estimateur des plus proches voisins. Toutes les estimations des intervalles de confiance contiennent f0 (x) sauf une. Cette erreur est obtenue lorsque la suite kn ne converge pas de manière 39 à vérifier les hypothèses de convergence, que ce soit avec la vraie valeur de l'indice de régularité ou avec son estimation. Nous avons donc ici un nouvel exemple de l'importance de l'indice de régularité dans le choix du nombre de voisins kn . Histogramme Pour l'histogramme, les conditions d'obtention de la normalité asymptotique sont lim hn = 0 , n→∞ lim nhn = +∞ n→∞ et x +1 lim nh2α = 0. n n→∞ En respectant ces conditions, nous obtenons le Tableau 1.5. −0.35 hn = n hn = n−0.4 hn = n−2/3 f0 (x) x = −0.25 x = −0.125 x=0 x = 0.125 x = 0.25 [1.02 ;1.08] [0.83 ;0.88] [0.48 ;0.51] [0.81 ;0.85] [0.99 ;1.05] [1.01 ;1.09] [0.82 ;0.89] [0.47 ;0.53] [0.81 ;0.86] [0.99 ;1.05] [0.76 ;1.16] [0.71 ;1.15] [0.25 ;0.55] [0.61 ;1.04] [0.75 ;1.16] 1.03 0.88 0.53 0.88 1.03 TABLEAU 1.5 – Intervalles de confiances pour f0 (x) à partir de l'histogramme Pour des valeurs de hn trop petites, l'estimation perd en précision et l'intervalle de confiance grandit. De la même manière, pour hn = n−0.35 les conditions de convergence ne sont pas vérifiées au point 0 et f0 (0) n'est pas dans notre intervalle de confiance. L'erreur est cependant corrigée pour hn = n−0.4 . Pourtant ceci vérifie les conditions de convergence avec l'estimation de l'indice de régularité mais pas avec sa vraie valeur. 40 Bibliographie [1] J. Beirlant, A. Berlinet, and G. Biau. Higher order estimation at lebesgue points. Annals of the Institute of Statistical Mathematics, 60 :651–677, 2008. [2] A. Berlinet and S. Levallois. Higher order analysis at lebesgue points. In M. Puri, editor, G. G. Roussas Festschrift - Asymptotics in Statistics and Probability, pages 1–16. 2000. [3] D. Bosq and J.-P. Lecoutre. Théorie de l'Estimation Fonctionnelle. Economica, 1987. [4] L. Devroye, L. Györfi, and G. Lugosi. A probabilistic theory of pattern recognition. Springer-Verlag, New-York, 1998. [5] E. Fix and J. J. Hodges. Discriminatory analysis, nonparametric discrimination : consistency properties. USAF School of Aviation Medicine, 1951. [6] J. Lelong-Ferrand and J. Arnaudiès. Cours de Mathématiques - Analyse, volume 2. Dunod, Paris, 1977. [7] D. Loftsgaarden and C. Quesenberry. A nonparametric estimate of a multivariate density function. The Annals of Mathematical Statistics, pages 1049–1051, 1965. [8] D. Moore and J. Yackel. Large sample properties of nearest neighbour density function estimates. In S. Gupta and D. Moore, editors, Statistical Decision Theory and Related Topics II. Academic Press, New-York, 1977. 41 Deuxième partie Estimation du mode pour des densités non continues 43 Estimation du mode pour des densités non continues 1.1 Introduction L'estimation du mode d'une densité de probabilité inconnue a suscité récemment une littérature considérable. Ce phénomène est principalement du aux récents progrès en informatique. En effet, l'augmentation continue des puissances de calcul a rendu possible l'expérimentation de nouvelles méthodologies que nous abordons dans la suite de cette partie. Considérons une mesure de probabilité μ dans Rd à partir de laquelle nous obtenons une densité f . Nous nous intéressons au problème de l'estimation du mode θ de f à partir d'un échantillon i.i.d. Sn = {X1 , . . . , Xn } distribué selon μ. Formellement, le mode d'une densité est l'argument où la densité est maximisée, c'est-à-dire la valeur pour laquelle on approche le plus (voire on atteint) la borne supérieure essentielle de f . Soient K un noyau, c'est-à-dire une densité de probabilité, et hn une fenêtre qui tend vers 0 lorsque n tend vers l'infini. L'estimateur à noyau de la densité (Rosenblatt [15], Parzen [12], Devroye [5]) est alors donné par   n X 1 x − X i fˆn (x) = , x ∈ Rd . K nhdn i=1 hn A partir de cet estimateur fˆn de f , un estimateur naturel du mode est alors θ̂n ∈ arg max(fˆn ). Rd Cet estimateur du mode fut introduit sur R par Parzen [12] qui démontra sa convergence en probabilité sous l'hypothèse de la continuité uniforme de 45 f . Ce résultat a été par la suite étendu à Rd par Yamato [19]. Nadaraya [11] sur R puis Van Ryzin [17] sur Rd établirent par la suite la convergence presque sûre de θ̂n toujours sous l'hypothèse de continuité uniforme de f . Parzen [12] a également établi la normalité asymptotique de θ̂n sur R sous la condition que f soit deux fois différentiable. Konakov [8] et Samanta [16] en ont ensuite donné une version multivariée. Eddy ([6] et [7]) a amélioré le résultat de Parzen en obtenant la loi limite de (θ̂n − θ) sous des conditions moins restrictives sur le choix du noyau K mais sous l'hypothèse que f ait une quatrième dérivée bornée et absolument continue. Tous ces estimateurs font intervenir des conditions globales sur la régularité de la densité f . Romano [14] s'est affranchi de ce problème en obtenant la convergence presque sûre et la loi limite de θ̂n en supposant que f était continue uniquement dans un voisinage du mode θ. Plus récemment, Vieu [18] a montré, sous les hypothèses supplémentaires que f soit de classe C k (k ≥ 2), que θ̂n convergeait vers θ à la vitesse ( (k−1)/(2k+1) ) log n . O n Ce résultat a été récemment amélioré par Leclerc et Pierre-Loti-Viaud [9] qui ont obtenu la vitesse ( (k−1)/(2k+1) ) log log n O n et conjecturent que c'est la vitesse presque sûre exacte. Mokkadem et Pelletier [10] obtiennent également des résultats intéressants en modifiant les hypothèses sur la fenêtre hn . Néanmoins cet estimateur présente certains inconvénients. En effet, il faut tout d'abord calculer fˆn puis son argument maximum sur l'ensemble du domaine de définition. En pratique, un tel calcul est impossible. Il faut alors choisir une grille de manière plus ou moins arbitraire. Ce substitut est généralement efficace mais souffre de sa dépendance au choix de la grille. Ainsi, une grille choisie trop éparse dans les zones de fortes densités peut conduire à une très mauvaise estimation du mode. De plus, la taille de la grille augmente avec la dimension d de la densité f et peut rendre rapidement les calculs inextricables. 46 1.2 Convergence Afin de remédier à ces différents problèmes, Devroye [4] a défini et étudié d'autres estimateurs du mode. Il définit tout d'abord un estimateur récursif à l'aide de fˆn et obtient sa convergence presque sûre si f est de Lipschitz. Puis il considère l'estimateur θn suivant θn ∈ arg max(fˆn ). Sn Comme les points de l'échantillon Sn sont naturellement concentrés dans les zones de forte densité, Sn peut être vu comme la grille naturelle la mieux adaptée à l'estimation du mode. De plus, contrairement à θ̂n , il ne nécessite qu'un nombre fini d'opérations. Devroye obtient la convergence en probabilité de cet estimateur si f est uniformément continue. Par la suite, Abraham, Biau et Cadre [1] se sont affranchis de cette condition globale en démontrant la convergence presque sûre de θn en supposant la continuité de f uniquement autour du mode θ. Malheureusement, un certain nombre de densités ne vérifie pas cette dernière condition. Il est possible d'en retrouver notamment dans des domaines tels que l'illumination, l'analyse de contours, l'analyse d'images ou la spectrométrie. Nous étudions de telles densités dans la partie Simulations. C'est pourquoi nous définissons et étudions dans ce chapitre un estimateur du mode sans conditions de continuité sur la densité f . 1.2 1.2.1 Convergence Hypothèses et Notations Nous munissons Rd de la norme euclidienne ||.||. Dans toute la suite nous notons supp(K) le support compact du noyau K et nous supposons qu'il existe a un réel positif tel que supp(K) ⊂ B(0, a) où B(0, a) est la boule fermée de centre 0 et de rayon a. De plus, afin d'utiliser certains résultats de Pollard [13], nous prenons K de forme M (||.||), où M 47 est une fonction non croissante sur R+ . Pour tout ε > 0, nous définissons l'ensemble de niveau ε de la fonction f par  A(ε) = x ∈ Rd : f (x) > f (θ) − ε . De plus, nous notons diam A(ε) le diamètre de A(ε) défini par diam A(ε) = sup{||x − y|| : x ∈ A(ε), y ∈ A(ε)}. Soit à présent μ une mesure de probabilité sur (Rd , B(Rd )), nous rappellons que x est un point de Lebesgue de la mesure μ si lim+ δ→0 μ(B(x, δ)) = f (x), λ(B(x, δ)) existe où λ est la mesure de Lebesgue et B(x, δ) la boule ouverte de centre x et de rayon δ. Nous avons vu qu'il est alors possible d'aller plus loin que cette définition. Si x est un point de Lebesgue, Berlinet et Levallois [2] le définissent comme un point ρ-régulier de la mesure μ s'il satisfait μ(B(x, δ)) − f (x) ≤ ρ(δ), λ(B(x, δ)) (1.11) où ρ est une fonction mesurable telle que limδ→0 ρ(δ) = 0. Nous supposons en outre qu'il existe δ0 suffisament petit pour assurer inf B(θ,δ0 ) (f ) > 0. Pour finir, pour toute fonction g et tout ensemble V ⊂ Rd , nous notons ||g||∞ = sup ||g(x)|| et ||g||V = sup ||g(x)||. V Rd On introduit les Hypothèses : A1 diam A(ε) → 0 quand ε → 0 ; A2 ∀ε > 0, P{X ∈ A(ε)} > 0 ; A3 ∃V0 avec θ ∈ V0 tel que ||E(fˆn ) − f ||V0 → 0 48 1.2 Convergence 1.2.2 Convergence de θn Théorème 1.2.1 Si la densité f de la mesure de probabilité μ est telle que A1, A2 et A3 sont vérifiées, alors, si hn → 0 et nhdn / log n → +∞, nous avons θn → θ p.s. Remarques : 1. Une rapide analyse du Lemme 1 d'Abraham, Biau et Cadre [1] nous montre que, pour toute fonction g : Rd → R, nous avons A1 ⇔ ∀δ > 0, sup (g) < g(θ). B(θ,δ)c 2. f est continue sur un voisinage quelconque W de θ ⇒ A2 et A3. Il est intéressant de noter que, par exemple sur R, W peut être de type [θ, δ] ou [δ, θ]. 3. Si θ est un point de Lebesgue alors la condition A2 est vérifiée. 4. Si K est uniforme sur B(0, a), s'il existe une fonction ρ et un voisinage V de θ tel que tout point de V soit un point de Lebesgue ρ-régulier alors la condition A3 est vérifiée. Nous avons donc étendu les résultats d'Abraham, Biau et Cadre [1] en affaiblissant l'hypothèse de continuité de f autour de son mode θ. De plus, le problème 1 de la page 94 de Bosq et Lecoutre [3] nous permet d'étendre la Remarque 4 à tous les noyaux de Parzen-Rosenblatt pair et à variation bornée. 1.2.3 Vitesse de convergence de θn Supposons que pour un réel κ > 0, nous ayons l'inégalité suivante 0 < lim inf ε→0 diam A(ε) diam A(ε) ≤ lim sup < ∞. κ ε εκ ε→0 (1.12) Dans ce cas, κ est appelé l'indice de pic de f . Cet indice mesure le degré de "lissage" de la densité f . Plus concrètement, plus la densité f sera "pointue" 49 autour de son mode θ, plus l'indice de pic sera grand. Nous étudions dans la section suivante la relation existante entre l'indice de pic et l'indice de régularité. Dans cette section, nous supposerons que f admet un indice de pic κ et que lim inf ε→0 λ{A(ε)} > 0. {diam A(ε)}d (1.13) Sans perdre de généralités, nous pouvons également admettre qu'il existe ε0 suffisament petit pour que nous ayons la propriété suivante : P1 Il existe L > 0 tel que diam A(ε) ≤ Lεκ pour ε ≤ ε0 . Nous pouvons remarquer rapidement que P1 ⇒ A1. Nous introduisons deux hypothèses supplémentaires afin de déterminer la vitesse de convergence de notre estimateur. Nous introduisons donc les Hypothèses : Il existe des nombres réels c > 0 et β > 0 tels que et A4 κβ ≤ 1 A5 ||E(fˆn ) − f ||B(θ,δ0 ) ≤ chβn . Théorème 1.2.2 Supposons que (1.12), (1.13), A4 et A5 soient vérifiés avec 2 (log n) 2β+d . hn = 1 n 2β+d Alors, pour tout p > 0, on a 2 h κ P ||θ − θn || ≥ {a + (16c) L} (log n) 2β+d i κβ n 2β+d 1 =o p , n où L est la constante définie dans P1 . Nous pouvons donc noter que la vitesse de convergence de θn vers θ augmente avec κ. 50 1.3 Convergence 1.2.4 Lien entre l'indice de pic et l'indice de régularité Nous admettons qu'une relation plus précise que (1.11) existe en x : μ(B(x, δ)) (1.14) = f (x) + Cx δ αx + o(δ αx ) as δ ↓ 0, λ(B(x, δ)) où Cx est une constante différente de 0 et αx un nombre réel strictement positif. αx est alors appellé l'indice de régularité et contrôle le degré de régularité de la mesure symétrique de μ par rapport à la mesure de Lebesgue λ. En fait, le paramètre κ semble être dans la plupart des cas l'inverse de l'indice de régularité de la mesure associée à la densité inconnue f . Par exemple, dans le cas particulier où d = 1, nous avons Si A1 est vérifiée, et si la densité f satisfait f (x) = f (θ) + ap |x − θ|p + o(|x − θ|p ) quand |x − θ| ↓ 0, (1.15) où p > 0 et ap < 0, alors, au point θ, la densité f a un indice de pic κ, la mesure associée a un indice de régularité αθ et nous obtenons finalement 1 1 = . κ= αθ p Afin de comprendre ça, il faut noter que si la mesure associée à f a un indice de régularité αθ en θ alors f (θ + δ) − f (θ) est d'ordre δ αθ ce qui implique que f (θ + ε1/αθ ) − f (θ) est d'ordre ε. Par conséquent, D(ε) est d'ordre ε1/αθ et f a un indice de pic 1/αθ en son mode θ. Donc, un estimateur convergent de αθ est suffisant pour estimer l'indice de pic κ. Remarque : 5. Si K est uniforme sur B(0, a), s'il existe un voisinage W de θ tel que, ∀x ∈ V , μ(B(x, δ)) = f (x) + Cδ α + R(x, δ) lorsque δ ↓ 0, λ(B(x, δ)) avec 1 et sup |R(x, δ)| = o(δ α ), κ x∈V alors les conditions A4 et A5 sont vérifiées pour les réels α≤ c = Caα + 1 et β = α. 51 1.3 Preuves Preuve du Théorème 1.2.1. Soit 0 < ε < f (θ), alors n o P f (θ) − max f ≥ ε = [1 − P {X ∈ A(ε) ∩ B(θ, δ)}]n , Sn ∩B(θ,δ) pour plus de détails nous renvoyons le lecteur à Abraham, Biau et Cadre [1] qui ont étudié le cas continu. A l'aide du lemme de Borel-Cantelli et de A2, nous obtenons ∀δ > 0, max f → f (θ) lorsque n → ∞. Sn ∩V (δ) Avec ce résultat et la Remarque 1 nous pouvons maintenant prouver le Théorème 1 comme Abraham, Biau et Cadre [1], la condition A3 remplaçant le recours au lemme de Bochner.  Preuve de la Remarque 2. Soit ε > 0, par continuité sur W , il existe 0 < h0 ≤ δ0 tel que pour h ∈ Rd with ||h|| ≤ h0 , f (θ) − f (θ + h) < ε. Cela implique W ⊂ A(ε) et, par conséquent, P {X ∈ A(ε)} > P {X ∈ W }. Nous pouvons voir que le terme de droite de cette inégalité est positif dès que λ{W } > 0, inf W f > 0 et f continue sur W .  La condition A3 se démontre quant à elle par une simple application du lemme de Bochner.  Preuve de la Remarque 3. Supposons que A2 ne soit pas vérifiée, nous avons ∃ε1 > 0, P{X ∈ / A(ε1 )} = 1, qui nous donne ∃ε1 > 0, ∀x ∈ Rd , f (x) ≤ f (θ) − ε1 p.s. 52 1.3 Preuves par la définition de A(ε). Ceci nous mène à μ(B(x, δ)) = λ(B(x, δ)) R θ+δ θ−δ f (t)dλ(t) 2δ R θ+δ (f (θ) − ε1 )dλ(t) 2δ ≤ f (θ) − ε1 avec probabilité un. ≤ θ−δ Mais comme 0 < ε1 , lim+ δ→0 μ(B(θ, δ)) < f (θ) p.s. λ(B(θ, δ)) et θ n'est pas un point de Lebesgue.  Preuve de la Remarque 4. Pour tout x ∈ V , Z 1 f (x − hn t)dt E fˆn (x) = λ(B(0, a)) B(0,a) μ(B(x, hn a)) = λ(B(x, hn a)) donc E fˆn (x) − f (x) V ≤ ρ(hn a) puisque x est un point de Lebesgue ρ-régulier. Comme hn tend vers 0 et que  limδ→0+ ρ(δ) = 0, alors la condition A3 est satisfaite. Preuve de la Remarque 5. La condition A4 est bien vérifiée. D'autre part, pour tout x ∈ V , nous avons μ(B(x, hn a)) λ(B(x, hn a)) = f (x) + C (ahn )α + R(x, hn a). E fˆn (x) = Ceci nous donne, pour n assez grand, E fˆn (x) − f (x) V ≤ (Caα + 1) hαn 53 ce qui achève la preuve.  Preuve du Théorème 1.2.2. Remplacer V par B(θ, δ0 ) dans la preuve d'Abraham, Biau et Cadre [1] nous donne le résultat avec la même démonstration.  1.4 Simulations Nous allons étudier sur un exemple les diverses performances de θn . Pour cela, nous choisissons une mesure (et la densité associée) qui vérifie nos hypothèses sans qu'il y ait continuité autour du mode. A savoir que le mode se trouve en un point de Lebesgue non continu. Soit k = 2/3 + sin 1 et f définie sur [0, 1] par f (0) = 3/k et      √ 1 1 1 2 − 2 x − cos + 2x sin f (x) = k x x si x ∈ [0, 1] dont la représentation graphique est la Figure 1.4. En 0 nous n'avons pas de limite à droite et une discontinuité du second ordre. Nous montrons cependant par la suite que 0 est un point de Lebesgue de la mesure μf associée à la densité f . 1.4.1 Étude de f Nous avons Z 0 1   1 1 4 3/2 1 2 = 1. f (x)dx = 2x − x + x sin k 3 x 0 Il suffit maintenant d'étudier soigneusement la fonction p(u) = 2 sin(u) − cos u u pour montrer que la fonction f est toujours positive ou nulle. Par conséquent, la fonction f est bien une densité. 54 f(x) 0.5 1.0 1.5 2.0 1.4 Simulations 0.0 0.2 0.4 0.6 0.8 1.0 x Figure 1.4 – Représentation graphique de la densité f . 1.4.2 Calcul du mode Pour q ∈ N, soit tq = 1 . (2q + 1)π La suite (tq ) décroit strictement vers 0 et vérifie 3 2 3 = . −p q→+∞ k k (2q + 1)πk lim f (tq ) = lim q→+∞ Comme f est continue sur ]0, 1], on en déduit que la borne supérieure essentielle de f est supérieure ou égale à 3/k. Pour montrer que la borne supérieure essentielle est 3/k il suffit maintenant de montrer que 3/k est un majorant de f . Or, nous avons √ 2 − 2 x + 1 + 2x f (x) ≤ k en majorant simplement le cosinus et le sinus par 1 et √ 3 − 2 x + 2x 3 ≤ k k 55 pour tout x ∈ [0, 1]. Par conséquent, 3/k est bien la borne supérieure essentielle de la densité f et elle est atteinte en 0. 1.4.3 Étude du point x = 0 Nous avons μf [0, δ] 2 4 δ = − δ 1/2 + sin λ[0, δ] k 3k k   1 x et 0 est donc bien un point de Lebesgue de la mesure μf avec 2/k comme valeur pour la dérivée à droite de la mesure. De plus, la relation (1.14) est vérifiée avec 4 α0 = 1/2 et C0 = − . 3k 1.4.4 Vérification des hypothèses Il est possible de démontrer qu'en prenant ε0 suffisamment petit on a, pour 0 < ε < ε0 , diam A(ε) < diam B(ε) = diam {x ∈ [0, 1] : x < k 2 ε2 } < k 2 ε2 . Ceci nous permet de vérifier immédiatement la propriété P1 avec L = k 2 et κ = 2. Nous pouvons ainsi remarquer que nous obtenons bien α0 = κ−1 = 1/2. Les hypothèses (1.12), (1.13), A4 et A5 sont par conséquent également vérifiées à l'aide des différentes remarques. 1.4.5 Résultats Nous simulons des échantillons de taille n tirés à partir de la densité f et étudions les résultats obtenus pour notre estimateur θn défini plus haut. Cette densité a été choisie de telle sorte que l'extremum local atteint par f en x ≈ 0.4 perturbe notre estimateur du mode. En effet, si notre estimation n'est pas assez précise, cette caractéristique de f a toutes les chances d'induire θn en erreur, c'est pourquoi nous choisissons hn = n−1/2 afin que fˆn 56 1.4 Simulations ne soit pas trop lissée. De plus, le fait que le mode se trouve sur un bord du domaine de définition rajoute une difficulté supplémentaire, les effets de bords dus à l'estimateur à noyau étant bien connus. 0.05 0.10 0.15 0.20 θn 0.25 0.30 0.35 0.40 Pour chaque n, nous simulons une cinquantaine d'échantillons et calculons à chaque fois θn . La Figure 1.5 représente la médiane de ces θn et nous donnons, à la Figure 1.6, certains box-plots pour des valeurs de n. 0 100 200 300 400 500 n Figure 1.5 – θn en fonction de n pour la densité f avec hn = n−0.5 . Notons que notre estimateur θn converge vers θ = 0. Cependant cette convergence est relativement lente et il faut n = 500k points pour obtenir une médiane des θn valant environ 0.04. Ceci s'explique par la forme de la densité et par ses multiples oscillations lorsque x est proche de 0. Toutefois, notre estimateur converge clairement et nous pouvons supposer qu'en augmentant le nombre de points, l'estimation θn ne ferait que se rapprocher de θ. 57 0.5 0.4 0.3 0.1 0.2 θ^n n=1k n=100k n=350k n=500k Figure 1.6 – Box-plots basés sur une cinquantaine d'estimations de θn en fonction de n pour la densité f avec hn = n−0.5 . Toutes les hypothèses étant vérifiées, il est également intéressant d'étudier l'application du Théorème 1.2.2 à cet exemple. Nous avons ici a = 1 −4 + 3k c = 3k L = k2 κ = 2 β = 1/2. 58 1.4 Simulations En prenant 2 hn = (log n) 2β+d 1 n 2β+d comme dans le Théorème 1.2.2, l'estimateur à noyau est bien trop lisse et on obtient θn ≈ 0.4 même avec 500 000 points dans l'échantillon. Afin d'obtenir des intervalles de confiance asymptotiques exploitables pour cet exemple plus de travail serait donc nécessaire. 59 60 Bibliographie [1] C. Abraham, G. Biau, and B. Cadre. Simple estimation of the mode of a multivariate density. The Canadian Journal of Statistics, pages 23–34, 2003. [2] A. Berlinet and S. Levallois. Higher order analysis at lebesgue points. In M. Puri, editor, G. G. Roussas Festschrift - Asymptotics in Statistics and Probability, pages 1–16. 2000. [3] D. Bosq and J.-P. Lecoutre. Théorie de l'Estimation Fonctionnelle. Economica, 1987. [4] L. Devroye. Recursive estimation of the mode of a multivariate density. The Canadian Journal of Statistics, 7 :159–167, 1979. [5] L. Devroye. A Course in Density Estimation. Birkhäuser, Boston, 1987. [6] W. Eddy. Optimum kernel estimates of the mode. The Annals of Statistics, 8 :870–882, 1980. [7] W. Eddy. The asymptotic distributions of kernel estimators of the mode. Probability Theory and Related Fields, 59 :279–290, 1982. [8] V. Konakov. On asymptotic normality of the sample mode of multivariate distributions. Theory of Probability and its Applications, 18 :836– 842, 1973. [9] J. Leclerc and D. Pierre-Loti-Viaud. Vitesse de convergence presque sûre de l'estimateur à noyau du mode. Comptes Rendus de l'Académie de Sciences de Paris, 331 :637–640, 2000. [10] A. Mokkadem and M. Pelletier. The law of the iterated logarithm for the multivariate kernel mode estimator. ESAIM Probability and Statistics, 7 :1–21, 2003. [11] E. Nadaraya. On non-parametric estimates of density functions an regression curves. Theory of Probability and its Application, 10 :186–190, 1965. [12] E. Parzen. On the estimation of a probability density and mode. The Annals of Mathematical Statistics, 33 :1065–1076, 1962. 61 BIBLIOGRAPHIE [13] D. Pollard. Convergence of Stochastic Processes. Springer, New-York, 1984. [14] J. Romano. On weak convergence and optimality of kernel density estimates of the mode. The Annals of Statistics, 16 :629–647, 1988. [15] M. Rosenblatt. Remarks on some non-parametric estimates of a density function. The Annals of Mathematical Statistics, 27 :832–837, 1956. [16] M. Samanta. Non-parametric estimation of the mode of a multivariate density. South African Statistical Journal, 7 :109–117, 1973. [17] J. Van Ryzin. On strong consistency of density estimates. The Annals of Mathematical Statistics, 40 :1765–1772, 1969. [18] P. Vieu. A note on density mode estimation. Statistics & Probability Letters, 26 :297–307, 1996. [19] H. Yamato. Sequential estimation of a continuous probability density function and mode. Bulletin on Mathematical Statistics, 14 :1–12, 1971. 62 Troisième partie Estimateurs de l'indice de régularité utilisant des estimateurs de la fonction de répartition 63 Chapitre 1 Estimateurs de l'indice de régularité 1.1 Introduction Soient B(Rd ) le σ-champ borélien de Rd , d ≥ 1 et μ une mesure de probabilité sur (Rd , B(Rd )). Nous notons λ la mesure de Lebesgue sur Rd et nous munissons Rd d'une norme notée ||.||. Pour x un point quelconque de Rd , nous notons Bδ (x) la boule ouverte de centre x et de rayon δ un réel strictement positif. Afin d'étudier le comportement local de μ(Bδ (x)) par rapport à λ(Bδ (x)) il est naturel de considérer le quotient de ces deux quantités. Si, pour x fixé, la limite suivante μ(Bδ (x)) δ→0 λ(Bδ (x)) f (x) = lim (1.1) existe, alors x est appelé point de Lebesgue de la mesure μ. Si μ est absolument continue par rapport à λ, alors le théorème de Radon-Nykodim nous dit que μ et f coincident λ-presque partout. De plus, dans ce cas, il est possible de sélectionner parmi toutes les densités issues de μ une densité particulière, toujours notée f , satisfaisant (1.1) en tout point où la limite existe. Dans ce contexte, Berlinet and Levallois [3] définissent un point ρ-régulier de la mesure μ comme un point de Lebesgue x de μ vérifiant μ(Bδ (x)) − f (x) ≤ ρ(δ), λ(Bδ (x)) où ρ est une fonction mesurable telle que limδ↓0 ρ(δ) = 0. 65 (1.2) Estimateurs de l'indice de régularité Nous pouvons aisément remarquer que la fonction ρ dans (1.2) n'est pas unique et dépend notamment de la norme choisie sur Rd . Néanmoins, il est possible de vouloir aller plus loin que cette relation en essayant notamment de caractériser la vitesse de convergence du rapport des mesures de boules vers la valeur de la dérivée de la mesure. Pour cela, nous supposons dans la suite qu'une relation plus précise que (1.2) intervient en x point de Lebesgue, à savoir μ(Bδ (x)) (1.3) = f (x) + Cx δ αx + o(δ αx ) quand δ ↓ 0, λ(Bδ (x)) où Cx est une constante différente de 0 et αx un réel strictement positif. L'indice αx est un indice de régularité qui contrôle le degré de régularité de la dérivée symétrique de μ par rapport à λ. L'objectif de ce chapitre est d'obtenir des estimateurs convergents de l'indice αx à partir d'un échantillon d'observations dans Rd . Un premier estimateur de l'indice de régularité a été donné par Beirlant, Berlinet et Biau [2]. Ce dernier fait intervenir l'estimateur des kn -plus proches voisins de la densité que nous notons fkn . Ils définissent en effet ᾱn,x quelque soit τ > 1 par f⌊τ 2 kn ⌋ (x) − f⌊τ kn ⌋ (x) d log , (1.4) ᾱx = log τ f⌊τ kn ⌋ (x) − f⌊kn ⌋ (x) si [f⌊τ 2 kn ⌋ (x) − f⌊τ kn ⌋ (x)]/[f⌊τ kn ⌋ (x) − f⌊kn ⌋ (x)] > 1 et ᾱn,x = 0 sinon. Ils obtiennent la convergence en probabilité de cet estimateur ainsi que sa normalité asymptotique. Néanmoins, lors des simulations, il s'avère peu stable et améliorable. Ils prouvent également le résultat suivant. Proposition 1.1.1 Soit x ∈ Rd un point de Lebesgue de μ satisfaisant la condition (1.3). Alors, pour tout τ > 1, φτ 2 δ (x) − φτ δ (x) = τ αx , δ→0 φτ δ (x) − φδ (x) lim où nous notons φδ (x) = μ(Bδ (x)) . λ(Bδ (x)) Une idée naturelle pour déterminer un estimateur de μ(Bδ (x)) est alors d'utiliser des estimateurs connus de la fonction de répartition. Nous adaptons 66 1.2 Résultats de convergence donc, dans la suite de ce chapitre, cette proposition avec des estimateurs de la fonction de répartition dont nous avons réalisé une synthèse bibliographique dans Servien [8]. Cette synthèse est ici reproduite dans le deuxième chapitre de cette partie. 1.2 Résultats de convergence Afin d'estimer l'indice de régularité αx , nous considérons un échantillon (Xi )1≤i≤n de variables i.i.d. définies sur un espace probabiliste (Ω, A, P) et tirées à partir d'une mesure de probabilité μ. 1.2.1 L'estimateur empirique L'estimateur le plus naturel de la fonction de répartition est l'estimateur empirique Fn défini par n Fn (x) = où IA =  1X I(Xi ≤x) n i=1 1 si x ∈ A 0 sinon. Cet estimateur est extrêmement simple à mettre en oeuvre car il ne fait intervenir aucun paramètre extérieur. Il reste cependant discontinu en de nombreux points ce qui peut poser certains problèmes, notamment ici en terme de précision locale de l'estimateur. Pour cette raison, nous testerons également dans la partie Simulations de ce chapitre un estimateur de l'indice de régularité utilisant une version lissée (par un noyau) de l'estimateur empirique. Nous renvoyons le lecteur au chapitre suivant pour de plus amples informations sur les différentes caractéristiques de ces estimateurs de la fonction de répartition. Soit μn la mesure empirique associée à l'échantillon (Xi )1≤i≤n . Nous avons alors la proposition suivante. 67 Estimateurs de l'indice de régularité Proposition 1.2.1 Soit x ∈ Rd un point de Lebesgue de μ qui satisfait la condition (1.3). Alors, sous les conditions lim δn = 0 n→∞ et lim nδnd+2αx = +∞ n→∞ et, pour tout τ > 1, nous avons φn,τ 2 δn (x) − φn,τ δn (x) = τ αx n→∞ φn,τ δn (x) − φn,δn (x) lim où φn,δn (x) = en probabilité , μn (Bδn (x)) . λ(Bδn (x)) Beirlant, Berlinet et Biau [2] obtiennent cette forme de convergence avec leur estimateur des kn -plus proches voisins sous la condition α +d/2 kn x lim n→∞ n αx = +∞ sur le nombre de voisins kn . Ils utilisent l'estimateur de la densité f⌊kn ⌋ (x) en lieu et place de φn,δn (x). En modifiant les hypothèses sur la vitesse de convergence de δn vers 0, il est également possible de prouver la convergence presque complète de cet estimateur. Proposition 1.2.2 Soit x ∈ Rd un point de Lebesgue de la mesure μ satisfaisant la condition (1.3). Alors, sous les conditions 2(d+α ) lim δn = 0 n→∞ et x nδn =∞ lim n→∞ log n et, pour tout τ > 1, nous avons φn,τ 2 δn (x) − φn,τ δn (x) = τ αx n→∞ φn,τ δn (x) − φn,δn (x) lim 1.3 p.co. Preuves Afin de prouver la Proposition 1.2.1 nous avons besoin du résultat suivant. 68 1.3 Preuves Lemme 1.3.1 Sous (1.1) et pour tout τ > 1, nous avons  avec δn → 0 L2 ⇒ Rn (x) → 1 d+2αx nδn → +∞ Rn (x) = φn,τ δn (x) − φn,δn (x) . φτ δn (x) − φδn (x) De plus, la condition  δn → 0 nδnd+2αx → +∞ L2 L2 est nécessaire si f (x) > 0 et si An (x) → 0 ou Bn (x) → 0 où An (x) = φn,δn (x) − φδn (x) φn,τ δn (x) − φτ δn (x) et Bn (x) = . φτ δn (x) − φδn (x) φτ δn (x) − φδn (x) Preuve du Lemme 1.3.1. Tout d'abord, nous avons n 1X μn (Bδn (x)) = 1{Xi ∈Bδn (x)} n i=1 et nμn (Bδn (x)) ∼ B(n, μ(Bδn (x))), d'où  E(μn (Bδn (x))) = μ(Bδn (x)) −1 V (μn (Bδn (x))) = n μ(Bδn (x))(1 − μ(Bδn (x))). D'autre part, nous utilisons par la suite la décomposition suivante Rn (x) = 1 + An (x) − Bn (x). Or E(Bn (x)2 ) = 1 μ(Bδn (x)) (1 − μ(Bδn (x))) 2α x λ(Bδn (x)) nλ(Bδn (x))δn (Cx (τ αx − 1) + o(1))2 nous donne E(Bn (x)2 ) → 0 sous les conditions du lemme. En utilisant une démonstration similaire, nous obtenons E(An (x)2 ) → 0 sous les mêmes conditions ce qui achève la preuve.  69 Estimateurs de l'indice de régularité Preuve de la Proposition 1.2.1. En remplaçant δn par τ δn dans Rn (x), nous obtenons φn,τ 2 δn (x) − φn,τ δn (x) L2 →1 φτ 2 δn (x) − φτ δn (x) sous les hypothèses du Lemme 1.3.1. De plus, comme nous avons Sn (x) = φn,τ 2 δn (x) − φn,τ δn (x) φτ 2 δn (x) − φτ δn (x) φn,τ 2 δn (x) − φn,τ δn (x) = φn,τ δn (x) − φn,δn (x) φτ δn (x) − φδn (x) φτ 2 δn (x) − φτ δn (x) −1  φn,τ δn (x) − φn,δn (x) ∗ φτ δn (x) − φδn (x) φτ 2 δn (x) − φτ δn (x) Sn (x) = . φτ δn (x) − φδn (x) Rn (x) il suffit d'utiliser le Lemme 1.3.1 et la Proposition 1.1.1 pour conclure.  Preuve de la Proposition 1.2.2. L'inégalité d'Hoeffding appliquée à une loi Binômiale nous donne, ∀t > 0,   P |μn (Bδn (x)) − μ(Bδn (x))| ≥ t ≤ 2 exp −2nt2 . En prenant t = ελ(Bδn (x)) |φτ δn (x) − φδn (x)| = ελ(Bδn (x)) |Cx δnαx (τ αx − 1) + o(δnαx )| , nous obtenons, ∀ε > 0,  P (|Bn (x)| ≥ ε) ≤ 2 exp −2n [ελ(Bδn (x))(Cx δnαx (τ αx − 1) + o(δnαx ))]2 . Par le lemme de Borel-Cantelli, nous avons p.co. Bn (x) → 0 si ∞ X n=1  exp −2n [ελ(Bδn (x))(Cx δnαx (τ αx − 1) + o(δnαx ))]2 < ∞. Or ceci est vrai s'il existe a > 1 tel que  1 exp −2n [ελ(Bδn (x))(Cx δnαx (τ αx − 1) + o(δnαx ))]2 < a . n 70 1.4 Simulations Ceci revient à −2nεCx2 δn2(d+αx ) [(τ αx − 1) + o(δnαx )]2 + a log n < 0 qui est impliqué par la condition log n/nδn2(d+αx ) → 0. Finalement, avec le même développement que dans le Lemme 1.3.1 nous prouvons φn,τ δn (x) − φn,δn (x) p.co. → 1. Rn (x) = φτ δn (x) − φδn (x) En remplaçant δn par τ δn dans Rn (x), nous obtenons Sn (x) = φn,τ 2 δn (x) − φn,τ δn (x) p.co. → 1 φτ 2 δn (x) − φτ δn (x) sous les mêmes hypothèses. De plus, comme nous avons φn,τ 2 δn (x) − φn,τ δn (x) φτ 2 δn (x) − φτ δn (x) Sn (x) , = . φn,τ δn (x) − φn,δn (x) φτ δn (x) − φδn (x) Rn (x) l'utilisation de la Proposition 1.1.1 suffit pour conclure. 1.4 1.4.1  Simulations Estimateur des kn -plus proches voisins Comme nous avons pu le voir précédemment, Beirlant, Berlinet et Biau [2] ont présenté un estimateur de l'indice de régularité αx faisant intervenir l'estimateur des kn -plus proches voisins de la densité à partir d'un échantillon de variables aléatoires réelles X1 , , Xn indépendantes et identiquement distribuées dans Rd et de même loi μ. A l'aide de cet estimateur ils définissent ᾱn,x , quelque soit τ > 1, par ᾱn,x = f⌊τ 2 kn ⌋ (x) − f⌊τ kn ⌋ (x) d log log τ f⌊τ kn ⌋ (x) − f⌊kn ⌋ (x) 71 (1.5) Estimateurs de l'indice de régularité si [f⌊τ 2 kn ⌋ (x)−f⌊τ kn ⌋ (x)]/[f⌊τ kn ⌋ (x)−f⌊kn ⌋ (x)] > 1 et ᾱn,x = 0 sinon. Nous pouvons noter que l'on obtient une estimation effective de l'indice de régularité pour des valeurs de kn comprises entre 1 et ⌊n/τ 2 ⌋. Cet estimateur est convergent en probabilité sous les conditions suivantes α +d/2 kn x kn = ∞. = ∞ et lim lim kn = ∞, lim n→∞ n→∞ n→∞ n n αx Nous avons remarqué dans l'introduction générale de cette thèse que l'estimation de l'indice de régularité peut permettre d'améliorer l'estimation de la (a) densité. En effet, il intervient dans l'expression d'un estimateur modifié fkn des kn -plus proches voisins de la densité qui s'est avéré moins dépendant du choix du nombre de voisins kn que l'estimateur usuel fkn . Nous testons tout d'abord l'estimateur ᾱn,x sur une densité de loi Normale N (0, 1). En x = 0, un rapide calcul permet de montrer que α0 = 2. Nous obtenons alors les graphiques regroupés dans les Figures 1.1 et 1.2 ci-dessous. L'estimation de l'indice de régularité s'avère donc délicate même si un palier proche de la vraie valeur α0 peut être observé pour des bonnes valeurs de kn . Ces simulations mettent en lumière la nécessité d'avoir un échantillon de √ grande taille. D'autre part, le choix τ = 2 semble être plus judicieux même si l'influence de ce paramètre sur le résultat final n'est pas prépondérante. Il est en effet possible de s'assurer sur des exemples que pour des valeurs de τ ≤ 2, les résultats restent sensiblement identiques. Nous nous intéressons maintenant à la densité f1 définie pour t ∈ R par f1 (t) = 1 exp(−|t|). 2 Cette densité est continue mais pas différentiable en 0 et on peut obtenir facilement 1 δ μ(Bδ (0)) = − + o(δ) lorsque δ ↓ 0. λ(Bδ (0)) 2 4 Par conséquent, nous avons α0 = 1. Nous obtenons alors les graphiques des √ Figures 1.3 et 1.4 ci-dessous, pour différentes valeurs de n et τ = 2. 72 0 1 2 3 4 1.4 Simulations 0 1000 2000 3000 4000 5000 2000 2500 kn √ 2 0 1 2 3 4 (a) τ = 0 500 1000 1500 kn (b) τ = 2 Figure 1.1 – Premier quartile (pointillés forts en bas), médiane (en gras), moyenne et troisième quartile (pointillés forts en haut) pour ᾱn,0 pour 100 échantillons de taille 10000 de loi N (0, 1) et différentes valeurs de τ . Le trait plein horizontal est la vraie valeur de α0 . 73 0 1 2 3 4 Estimateurs de l'indice de régularité 0 10000 20000 30000 40000 50000 20000 25000 kn √ 2 0 1 2 3 4 (a) τ = 0 5000 10000 15000 kn (b) τ = 2 Figure 1.2 – Premier quartile (pointillés forts en bas), médiane (en gras), moyenne et troisième quartile (pointillés forts en haut) pour ᾱn,0 pour 100 échantillons de taille 100000 de loi N (0, 1) et différentes valeurs de τ . Le trait plein horizontal est la vraie valeur de α0 . 74 0.0 0.5 1.0 1.5 2.0 2.5 3.0 1.4 Simulations 0 100 200 300 400 500 4000 5000 kn 0.0 0.5 1.0 1.5 2.0 2.5 3.0 (a) n = 1000 0 1000 2000 3000 kn (b) n = 10000 Figure 1.3 – Premier quartile (pointillés forts en bas), médiane (en gras), moyenne et troisième quartile (pointillés forts en haut) pour ᾱn,0 pour 100 échantillons de densité f1 pour différentes valeurs de n. Le trait plein horizontal est la vraie valeur de α0 . 75 0.0 0.5 1.0 1.5 2.0 2.5 3.0 Estimateurs de l'indice de régularité 0 5000 10000 15000 20000 25000 40000 50000 kn 0.0 0.5 1.0 1.5 2.0 2.5 3.0 (a) n = 50000 0 10000 20000 30000 kn (b) n = 100000 Figure 1.4 – Premier quartile (pointillés forts en bas), médiane (en gras), moyenne et troisième quartile (pointillés forts en haut) pour ᾱn,0 pour 100 échantillons de densité f1 pour différentes valeurs de n. Le trait plein horizontal est la vraie valeur de α0 . 76 1.4 Simulations Ces figures se rapprochent de celles obtenues précédemment. Elles mettent également en lumière l'importance d'un échantillon de grande taille et permettent d'approcher la valeur de α0 pour de bonnes valeurs de kn . Comme nous l'avons remarqué précédemment, Beirlant, Berlinet et Biau [2] (a) définissent également un nouvel estimateur fkn faisant intervenir fkn et l'indice de régularité αx . Ce nouvel estimateur s'avère moins dépendant du nombre de voisins kn . Néanmoins, si nous essayons de remplacer fkn par (a) fkn dans l'équation (1.5) le nouvel estimateur de l'indice de régularité ainsi obtenu s'avère très peu performant. Ceci est du au fait que ᾱn,x utilise les différentes erreurs d'estimation de fkn selon les valeurs de kn alors que le (a) terme correctif introduit dans fkn permet de les corriger. Dans cet article, ils démontrent également la normalité asymptotique de cet estimateur de l'indice de régularité. Nous pouvons vérifier cette normalité sur les graphiques de la Figure 1.5 qui sont réalisés en x = 0 pour la densité f1 . Nous observons bien une forte réduction de la variance pour des grands échantillons renforçant l'idée de la prépondérance de la taille de l'échantillon. 1.4.2 Comparaison des estimateurs de l'indice de régularité Dans cette partie, nous notons respectivement αn et α̂n les estimateurs de l'indice de régularité utilisant respectivement la fonction de répartition empirique et l'estimateur à noyau de la fonction de répartition. Nous prenons pour la fenêtre de l'estimateur à noyau hn = Sn n−1/5 (Bosq et Lecoutre [4]), de légères variations de hn n'ayant qu'une influence minime sur les résultats. Nous comparons les différentes performances des estimateurs ᾱn , αn et α̂n pour différentes densités et différentes tailles d'échantillon. Nous commençons ici aussi par tester nos estimateurs sur la densité de la loi Normale centrée réduite. Nous rappelons qu'en x = 0, nous avons α0 = 2. 77 0.15 Density 0.00 0.00 0.05 0.05 0.10 0.10 Density 0.15 0.20 0.20 0.25 Estimateurs de l'indice de régularité −5 0 5 10 15 20 −5 0 5 ^n − α α 10 15 ^n − α α (b) n = 10000 2 Density 0 0.0 0.5 1 1.0 Density 1.5 3 2.0 4 (a) n = 1000 −0.5 0.0 0.5 1.0 −0.2 0.0 0.2 ^n − α α 0.4 0.6 ^n − α α (c) n = 100000 (d) n = 200000 Figure 1.5 – Histogrammes de 100 valeurs de ᾱn − α pour kn = n/4 et différentes tailles d'échantillon Concernant le choix de δn , la Propositions 1.2.1 nous donne par exemple −1 −1 n d+2αx << δn << (log n) d+2αx . Il est intéressant de noter que plus αx est petit, plus δn peut l'être. Nous obtenons alors les résultats des Figures 1.6 et 1.7. Nous remarquons donc que α̂n produit un très bon estimateur de l'indice 78 1.4 Simulations de régularité quelles que soient les valeurs de n. Pour αn , en revanche, nous avons besoin de plus d'observations mais l'estimation est également très correcte. Il est possible qu'à cause de l'irrégularité de la fonction de répartition empirique, αn nécessite une plus grande taille d'échantillon que α̂n pour arriver à une bonne estimation de l'indice de régularité. Nous étudions maintenant les performances de ces estimateurs pour une mesure moins lisse. Nous choisissons la densité f1 définie plus haut dans ce chapitre. En x = 0, nous avons α0 = 1 et nous obtenons les résultats des Figures 1.8 et 1.9. Nous avons une surévaluation de l'indice de régularité pour de petites valeurs de δn . Néanmoins, les estimations restent assez correctes bien que nécessitant une grande taille d'échantillon n. Il paraı̂t donc logique, lorsque nous utiliserons (comme dans le chapitre Simulations de la première partie de cette thèse) ces estimateurs sur un seul jeu de données, d'en prendre la médiane obtenue pour différentes valeurs de δn . Cependant, les simulations de la première partie de cette thèse, pour une mesure où l'indice de régularité vaut 1/2 en x = 0 et 1 partout ailleurs, nous donnent des résultats relativement mauvais comparativement à l'estimateur ᾱn,x . Les estimateurs αn et α̂n chutent eux aussi progressivement en se rapprochant de x = 0 mais les estimations obtenues restent assez éloignées de la vraie valeur. Nos estimateurs nous donnent donc de bonnes approximations pour l'indice de régularité mais, au niveau des quelques simulations présentées, ils s'avèrent un peu moins performants que l'estimateur défini par Beirlant, Berlinet et Biau. Ils peuvent cependant constituer une alternative intéressante et nous permettre d'affiner l'estimation de l'indice de régularité. Un éventail de simulations plus large permettrait néanmoins d'affiner la comparaison. 79 2 0 1 ^n α 3 4 Estimateurs de l'indice de régularité 0.40 0.45 0.50 0.55 0.60 0.65 δ 2 0 1 ^n α 3 4 (a) n = 1000 0.30 0.35 0.40 0.45 0.50 0.55 0.60 0.65 δ (b) n = 10000 Figure 1.6 – Médiane des estimateurs αn (pointillés) et α̂n (trait plein) en fonction de δ, basée sur 100 simulations d'échantillons de taille n pour la loi Normale centrée réduite. 80 2 0 1 ^n α 3 4 1.4 Simulations 0.3 0.4 0.5 0.6 δ 2 0 1 ^n α 3 4 (a) n = 50000 0.2 0.3 0.4 0.5 0.6 δ (b) n = 100000 Figure 1.7 – Médiane des estimateurs αn (pointillés) et α̂n (trait plein) en fonction de δ, basée sur 100 simulations d'échantillons de taille n pour la loi Normale centrée réduite. 81 2 0 1 ^n α 3 4 Estimateurs de l'indice de régularité 0.25 0.30 0.35 0.40 0.45 0.50 δ 2 0 1 ^n α 3 4 (a) n = 1000 0.15 0.20 0.25 0.30 0.35 0.40 0.45 δ (b) n = 10000 Figure 1.8 – Médiane des estimateurs αn (pointillés) et α̂n (trait plein) en fonction de δ, basée sur 100 simulations d'échantillons de taille n pour la mesure de densité f1 . 82 2 0 1 ^n α 3 4 1.4 Simulations 0.10 0.15 0.20 0.25 0.30 0.35 0.40 0.45 0.35 0.40 0.45 δ 2 0 1 ^n α 3 4 (a) n = 50000 0.10 0.15 0.20 0.25 0.30 δ (b) n = 100000 Figure 1.9 – Médiane des estimateurs αn (pointillés) et α̂n (trait plein) en fonction de δ, basée sur 100 simulations d'échantillons de taille n pour la mesure de densité f1 . 83 Estimateurs de l'indice de régularité 84 Bibliographie [1] H. Akaike. An approximation to the density function. Annals of the Institute of Statistical Mathematics, 6 :127–132, 1954. [2] J. Beirlant, A. Berlinet, and G. Biau. Higher order estimation at lebesgue points. Annals of the Institute of Statistical Mathematics, 60 :651–677, 2008. [3] A. Berlinet and S. Levallois. Higher order analysis at lebesgue points. In M. Puri, editor, G. G. Roussas Festschrift - Asymptotics in Statistics and Probability, pages 1–16. 2000. [4] D. Bosq and J.-P. Lecoutre. Théorie de l'Estimation Fonctionnelle. Economica, 1987. [5] G. Hardy and M. Riesz. The General Theory of Dirichlet's Series. Cambridge University Press, 1952. [6] E. Parzen. On the estimation of a probability density and mode. The Annals of Mathematical Statistics, 33 :1065–1076, 1962. [7] M. Rosenblatt. Remarks on some non-parametric estimates of a density function. The Annals of Mathematical Statistics, 27 :832–837, 1956. [8] R. Servien. Estimation de la fonction de répartition : revue bibliographique. Journal de la Société Frana̧ise de Statistique, 150 :84–104, 2009. 85 Chapitre 2 Estimation de la fonction de répartition : revue bibliographique Ce chapitre a fait l'objet d'un article accepté dans le Journal de la Société Française de Statistique, Volume 150, numéro 2, pp.84-104, 2009. 2.1 Introduction Un problème récurrent en statistique est celui de l'estimation d'une densité f ou d'une fonction de répartition F à partir d'un échantillon de variables aléatoires réelles X1 , X2 , . . . , Xn indépendantes et de même loi inconnue. Les fonctions f et F , tout comme la fonction caractéristique, décrivent complètement la loi de probabilité des observations et en connaı̂tre une estimation convenable permet de résoudre nombre de problèmes statistiques. Cette estimation tient donc naturellement une place importante dans l'étude de nombreux phénomènes de nature aléatoire. Elle peut être menée, sous des hypothèses restrictives, à l'aide de techniques paramétriques comme la méthode des moments ou celle du maximum de vraisemblance. Les approches non paramétriques que nous privilégions ici sont plus flexibles et constituent toujours un complément utile, même lorsque certains modèles paramétriques semblent s'imposer. Même si les fonctions de répartition et de densité caractérisent toutes les deux la loi de probabilité d'une variable, la densité a un net avantage sur 87 Estimation de la fonction de répartition : revue bibliographique le plan visuel. Elle permet d'avoir un aperçu très rapide des principales caractéristiques de la distribution (pics, creux, asymétries, . . . ), ce qui explique le volume important de littérature qui lui est consacré. La fonction de répartition contient bien sûr cette information mais de manière moins visible. Néanmoins c'est en terme de comportement local de la fonction de répartition que s'explique le plus facilement le comportement des estimateurs fonctionnels (vitesse de convergence, normalité asymptotique) et c'est finalement par un estimateur de la fonction de répartition que l'on passe pour estimer des probabilités d'ensembles : la probabilité qu'une variable se cantonne dans un intervalle donné ou qu'une observation au moins d'un nouvel échantillon dépasse un seuil fixé. Lorsqu'on veut donner une borne inférieure pour la probabilité qu'un paramètre θ inconnu appartienne à un intervalle de la forme [θn − ε, θn + ε], où θn est un estimateur de θ, on a en fait besoin d'un estimateur de la fonction de répartition de θn . Il est vrai que l'on peut souvent passer d'un estimateur de f à un estimateur de F par intégration et d'un estimateur de F à un estimateur de f par dérivation. Néanmoins une particularité est à souligner : c'est l'existence de la fonction de répartition empirique Fn , fonction de répartition de la loi empirique associée à l'échantillon. Il n'y a bien sûr pas d'équivalent pour la densité, ce qui différencie la nature de chacun des deux problèmes d'estimation. Il est important de noter que la fonction de répartition empirique ne fait appel à aucune structure algébrique ou topologique mais seulement à des notions ensemblistes et que les techniques d'estimation ne sont pas autre chose que des techniques de régularisation de cette référence empirique dont la donnée est équivalente à celle de l'échantillon. Cette dernière remarque conduit donc à collecter en premier lieu les principaux résultats disponibles sur la fonction de répartition empirique. Ils constituent l'entrée en matière de la présente revue bibliographique. Puis nous passerons dans les sections suivantes à des estimateurs introduits plus spécifiquement pour la fonction de répartition. La section 2.3 sera consacrée au lissage local, dont un exemple bien connu est le lissage polynômial local. La méthode de lissage local décrite permet de donner un cadre général à l'estimation de fonctionnelles de la fonction de répartition et de leurs dérivées. Un cas particulier est la méthode du noyau dont l'application à la fonction 88 2.2 Un estimateur naturel : la fonction de répartition empirique de répartition est abordée dans la section 2.4. Les estimateurs à noyau sont, avec les estimateurs splines décrits en section 2.5, les méthodes de lissage les plus communément utilisées dans les logiciels statistiques. Les sections suivantes abordent des approches plus récentes : les Support Vector Machines (S.V.M.) dans la section 2.6, le level-crossing dans la section 2.7 et les Systèmes de Fonctions Itérées (I.F.S.) dans la section 2.8. Nous mentionnons rapidement en section 2.9 quelques méthodes développées pour la densité et utilisables par intégration, comme celle des fonctions orthogonales, particulièrement celles des ondelettes. La section 2.10 traite du cas de la fonction de répartition d'une loi conditionnelle. Enfin, la prise en compte d'un biais éventuel sur les données est abordée en section 2.11. 2.2 Un estimateur naturel : la fonction de répartition empirique La fonction de répartition empirique sera notée n 1X I]−∞,x] (Xi ) Fn (x) = n i=1 où IA (x) =  1 si x ∈ A 0 sinon. Afin de passer en revue quelques résultats importants concernant cette fonc√ tion, nous notons Zn (x) = n(Fn (x) − F (x)) et définissons les statistiques suivantes Dn+ = sup Zn (x), x∈R Dn− = sup(−Zn (x)) et x∈R Dn = sup |Zn (x)|. x∈R Kolmogorov [63] et Smirnov [88] introduisent et étudient ces trois statistiques et démontrent que leur distribution ne dépend pas de F . En outre, à l'aide des théorèmes de Donsker [32] et Doob [33, 34], il est prouvé que les statistiques Dn+ et Dn− ont la même loi et que nous avons les résultats asymptotiques suivants : lim P (Dn− > λ) = exp(−2λ2 ), n→∞ 89 Estimation de la fonction de répartition : revue bibliographique lim P (Dn > λ) = 2 n→∞ ∞ X (−1)k+1 exp(−2k 2 λ2 ). k=1 Par la suite, Dvoretzky, Kiefer et Wolfowitz [35] déterminent une borne de la forme P (Dn− > λ) ≤ C exp(−2λ2 ), où C est une constante indéterminée. L'ensemble de cette démarche et de ces résultats sont analysés dans Hennequin et Tortrat [56]. Pour des propriétés liées aux statistiques d'ordre et de rang on pourra consulter le livre de Caperaa et Van Cutsem [20]. De nombreux auteurs essayent ensuite de trouver la meilleure constante C dans l'inégalité précédente. Devroye et Wise [30], Shorack et Wellner [86] ou Hu [58] font peu à peu diminuer cette constante. Finalement, Massart [68] démontre qu'il est possible de prendre C = 1 pourvu que lim P (Dn− > λ) = exp(−2λ2 ) ≤ 1/2. n→+∞ Il montre aussi que, quel que soit λ, P (Dn > λ) ≤ 2 exp(−2λ2 ), et que ces bornes ne peuvent plus être améliorées, ces inéquations étant valides que F soit continue ou pas. D'autre part, le théorème de Glivenko-Cantelli nous donne la convergence uniforme presque sûre de Fn vers F c'est-à-dire sup |Fn (x) − F (x)| → 0 p.s. x∈R Pour des variables dépendantes (plus précisément φ-mélangeantes), ce résultat est amélioré plus tard par Collomb, Hassani, Sarda et Vieu [24] en convergence presque complète sous certaines hypothèses, notamment l'uniforme continuité de f . Fn est également l'estimateur non paramétrique du maximum de vraisemblance (Kiefer et Wolfowitz [62], Efron et Tibshirani [37]) et, en général, une transformée t(F ) a pour estimateur du maximum de vraisemblance t(Fn ). D'autre part, parmi les estimateurs sans biais de F (x), Fn (x) est également 90 2.2 Un estimateur naturel : la fonction de répartition empirique l'unique estimateur de variance minimale (Yamato [102], Lehmann [66]). Cette dernière vaut par ailleurs F (x) (1 − F (x)) /n. Yamato [102] élargit les recherches à une famille de fonctions englobant Fn . Il étudie les fonctions du type n 1X ∗ Wn (x − Xj ) Fn (x) = n j=1 où Wn est une fonction de répartition connue. Il démontre que, en tout point de continuité x de F , Fn∗ (x) est asymptotiquement non biaisé et P [ sup −∞<x<∞ |Fn∗ (x) − F (x)| → 0] = 1 si et seulement si Wn → e0 avec e0 (x) =  1 si x ≥ 0 0 sinon. Il obtient de plus la convergence vers une loi normale N (0, 1) de la distribution de √ n[F (x) − EFn (x)] p n . F (x)[1 − F (x)] Pour évaluer l'écart entre F et son estimateur, plusieurs autres critères peuvent être utilisés. Ainsi, Devroye et Györfi [28] choisissent comme critère la variation totale V qui se définit comme suit entre deux mesures de probabilité μ et ν V (μ, ν) = sup |μ(A) − ν(A)|, A avec le supremum calculé sur tous les boréliens A, et l'entropie relative I telle que X μ(Aj ) I(μ, ν) = sup μ(Aj ) log ν(Aj ) {Aj } j où le supremum est pris sur l'ensemble des partitions finies en boréliens mesurables {Aj } de R. Au sens de ces critères, Fn est un mauvais estimateur. En effet, ils obtiennent V (μ, μn ) = 1 et I(μ, μn ) = ∞ pour des mesures nonatomiques. Mais ils démontrent ensuite la non-existence de bons estimateurs Fn∗ , de mesure associée μ∗n , tels que V (μ, μ∗n ) → 0 ou I(μ, μ∗n ) → 0, 91 Estimation de la fonction de répartition : revue bibliographique qui rend ces critères non adaptés. Aggarwal [2] introduit le problème consistant à déterminer le meilleur estimateur invariant de F , au sens des transformations monotones, avec la fonction de perte Z L(F, a) = {F (t) − a(t)}2 h(F (t))dF (t). L'éventuelle admissibilité, c'est-à-dire la minimisation de L, et minimaxité de l'estimateur sont également des questions importantes. Dans le cas particulier de fonction de perte de Cramér-von Mises, où h(t) = t−1 (1 − t)−1 , Fn est le meilleur estimateur invariant. Aggarwal [2], Brown [18] et Yu [103] démontrent la non admissibilité de Fn pour h(t) = tα (1 − t)β , α, β ≥ −1 alors qu'il est admissible pour Z L(F, a) = {F (t) − a(t)}2 F (t)α (1 − F (t))β dW (t), avec −1 ≤ α, β ≤ 1 et W une mesure finie (Cohen et Kuo [23]). Dvoretzky, Kiefer et Wolfowitz [35] et Phadia [76] prouvent que Fn est asymptotiquement minimax pour une grande variété de fonctions de pertes. Néanmoins, pour celle de Kolmogorov-Smirnov, Friedman, Gelman et Phadia [49] déterminent le meilleur estimateur invariant de F . Celui-ci est une fonction en escalier différente de Fn . D'autres fonctions en escalier ont également été étudiées. Ainsi, si F est continue sur [0, 1], nous savons qu'il existe un estimateur F ̃n linéaire par √ morceaux et tel que la distribution de n[F ̃n (x) − F (x)] converge faiblement vers un pont brownien B(x) connu (Billingsley [14]). Beran [7] s'appuie sur ce résultat pour définir un nouvel estimateur F̂n tel que  H(x) si supx |F ̃n (x) − H(x)| ≤ n−1/4 F̂n = F ̃n (x) sinon, où H est une fonction de répartition quelconque sur [0, 1]. Il obtient alors que, √ hormis le cas trivial où la distribution de l'échantillon est H, n[F̂n (x)−F (x)] converge vers B(x). De plus, il démontre que tout estimateur F̂n régulier peut être représenté comme une convolution d'un pont brownien avec une autre fonction de répartition de C[0, 1] dépendant uniquement de la densité f . 92 2.3 Un estimateur naturel : la fonction de répartition empirique La fonction de répartition empirique ne tient pas compte d'une éventuelle information que nous pouvons avoir sur la fonction à estimer. Modarres [69] utilise une possible symétrie pour bâtir un nouvel estimateur à partir de Fn : 1 F̂ s (x) = (Fn (x) + 1 − Fn (−x)) pour x < 0 2 et démontre que cet estimateur est l'estimateur du maximum de vraisemblance sous une hypothèse de symétrie. Il bâtit ensuite un nouvel estimateur F̂ aux en utilisant de l'information amenée par une covariable Y . Un échantillon auxiliaire (Yi )1≤i≤m avec m >> n permet de connaı̂tre la fonction de répartition empirique de la variable Y . En collectant ensuite un échantillon Zi = (Xi , Yi )1≤i≤n et en maximisant sa vraisemblance, il obtient l'estimateur F̂ aux . Cet estimateur est relativement simple et ne fait intervenir qu'un comptage des Xi dans certaines zones. En croisant les 2 modèles, il obtient l'estimateur F̂ h suivant 1 F̂ h (x) = (F̂ aux (x) + 1 − F̂ aux (−x)) pour x < 0, 2 montre sa normalité asymptotique et étudie ses propriétés. Il faut noter que cet estimateur ne maximise pas la vraisemblance de ce modèle et ne s'avère pas robuste envers l'hypothèse de symétrie. Enfin, il montre sur des simulations une amélioration du biais et de l'efficacité relativement à la fonction de répartition empirique. L'estimateur de Grenander [53] est également obtenu directement à partir de la fonction de répartition empirique. Il est défini comme le plus petit majorant concave de Fn . Pour une fonction Fn de support réel [a, b], FGr est la plus petite fonction concave telle que FGr (t) ≥ Fn (t) et FGr (a) = 0 , FGr (b) = 1. Mais cet estimateur, bien qu'étant défini à partir de la fonction de répartition et sans aucun paramètre supplémentaire, est beaucoup plus souvent dérivé pour estimer une densité f qu'utilisé directement pour déterminer F . Dans le cas où la densité f est monotone, fGr l'est également et maximise la vraisemblance. Pour une étude plus approfondie de fGr nous renvoyons le lecteur à Devroye [27]. 93 Estimation de la fonction de répartition : revue bibliographique 2.3 Estimateurs par lissage local Afin d'obtenir une estimation plus régulière de la fonction de répartition, Berlinet [8] puis Lejeune et Sarda [67] lissent la fonction de répartition empirique dans différents espaces. Lejeune et Sarda utilisent la régression polynômiale locale. La minimisation de la norme pondérée L2 débouche sur des choix optimaux que l'on retrouve parmi les estimateurs à noyaux décrits en section 2.4. Ce résultat est ensuite élargi par Abdous, Berlinet et Hengartner [1] qui proposent d'estimer différentes fonctionnelles φ(x, F ) de la fonction F au point x. Pour cela ils substituent φ(x, Fn ) à φ(x, F ) et, dans le cas où φ(x, F ) a r dérivées continues, choisissent de minimiser le critère suivant   Z r o2 X 1 ak z−x n J(a0 , , ar ; x) = φ(z, Fn ) − K (z − x)k dz. h h k! k=0 Les dérivées successives de φ(x, F ) sont estimées par les â0 (x), â1 (x), , âr (x) minimisant le critère J(a0 , , ar ; x) au point x. Une expression explicite est ensuite obtenue à l'aide d'une fonction K, une densité sur [-1,1], et Q0 (z), , Qn (z) une base orthonormale de L2 (K) de l'espace Pr des polynômes de degré au moins r. On définit ! r m X d K(u) Qk (w) K [m,r] (u) = Qk (u) dwm w=0 k=0 et on obtient alors le minimiseur â0 (x), â1 (x), , âr (x) par   Z 1 z−x [m,r] âm = m+1 φn (z)K dz. h h En considérant l'estimateur (m) θ̂n,h (x) = 1 hm+1 Z ∞ φ(z, Fn )K −∞ [m,r]  z−x h  dz de θ(m) (x) = φ(m) (x, F ), ils démontrent ensuite sous certaines conditions (m) que θ̂n,h (x) converge p.s. vers φ(m) (x, F ). Berlinet [9] et Berlinet et ThomasAgnan [11] élargissent ce résultat à un espace V de Hilbert à noyau reproduisant à la place de Pr . L'estimation de la projection ΠV (F ) de F sur V est alors déterminée par les équations 94 2.4 Estimateur à noyau Fx (hv) = et m h Fx(m) (hv) Z = Z ΠV (F (x + h.))(u)K(u, v)K0 (u)dλ(u) ΠV (F (x + h.))(u) dm K(u, v) K0 (u)dλ(u) dv m où K0 est un noyau et K le noyau reproduisant de V . 2.4 Estimateur à noyau L'estimateur à noyau de la densité n 1 X f ̃n (x) = k nh i=1  x − Xi h  , avec un noyau k intégrable et d'intégrale 1 et une fenêtre h > 0, est un estimateur non paramétrique bien connu de f (x) introduit par Akaike [3], Rosenblatt [80] et Parzen [74]. La littérature qu'il a suscitée est considérable. Dans le présent paragraphe nous nous limitons à ses applications orientées vers l'estimation de la fonction de répartition. On définit l'estimateur F̃n à noyau de F par   n 1X x − Xi F̃n (x) = , K n i=1 h où K(x) = Z x k(y)dy. −∞ Ses propriétés sont connues depuis longtemps, par exemple sa convergence uniforme vers F avec f continue (Nadaraya [72], Winter [98], Yamato [102]) puis sans conditions sur f (Singh, Gasser et Prasad, [87]) ou sa normalité asymptotique (Watson et Leadbetter, [97]). Winter [99] démontre aussi qu'il vérifie la propriété de Chung-Smirnov, c'est-à-dire ) ( (1/2) 2n sup |F̃n (t) − F (t)| ≤ 1 lim sup log log n −∞<t<∞ n→∞ avec probabilité 1. Azzalini [4] trouve une expression asymptotique pour l'erreur quadratique moyenne ou M.S.E. (E(F̃n (x) − F (x))2 ) et détermine la 95 Estimation de la fonction de répartition : revue bibliographique fenêtre asymptotiquement optimale permettant d'avoir un M.S.E. plus faible que pour Fn . Reiss [77] prouve que l'inefficacité relative asymptotique de Fn par rapport à F̃n tend rapidement vers l'infini quand la taille de l'échantillon augmente avec un choix approprié de noyau, par exemple   5 2 9 1 − x I[−1,1] (x), k(x) = 8 3 et certaines conditions vérifiées notamment lorsque le support de k est borné et Z ∞ tk(t)K(t)dt > 0. (2.1) −∞ Falk [39] donne ensuite une solution complète à ce problème en établissant la représentation de l'inefficacité relative de Fn par rapport à F̃n sous les conditions ci-dessus notamment lorsque le support de k est borné. Le nombre R ψ(k) = 2k(x)K(x)xdx est introduit par Falk [40] comme une mesure de la performance asymptotique du noyau k. Mais il démontre qu'aucun noyau de R carré intégrable ne minimise ψ. Il utilise alors le nombre φ(k) = k(x)2 dx défini par Epanechnikov [38] comme une mesure de la performance du noyau en estimation de la densité. Au sens de φ, le noyau d'Epanechnikov suivant k(x) = (3/4)(1 − x2 )I(|x|≤1) . est le meilleur mais les noyaux gaussiens ou uniformes ont des performances très proches. En utilisant le critére ψ le noyau d'Epanechnikov est alors de loin le meilleur des trois. Falk [40] montre ensuite que cette inefficacité relative s'applique aussi aux estimateurs des quantiles qn de Fn par rapport aux quantiles q̃n de F̃n . Enfin, Golubev et Levit [51] donnent les conditions permettant de trouver un estimateur minimax du second ordre pour la fonction de perte carrée R L(F, a) = (F (t) − a(t))2 dF (t). Au sens de l'erreur quadratique moyenne intégrée ou I.M.S.E., le meilleur noyau est le noyau uniforme bien que les performances d'autres noyaux (Epanechnikov, normal, triangulaire) ne soient, en pratique, que légèrement moins 96 2.5 Estimateurs splines bonnes (Jones [61]). Il est intéressant de noter que ce ne sera pas le meilleur noyau dans le cadre d'estimation de la densité. L'expression asymptotique de l'I.M.S.E. est également étudiée par Swanepoel [93]. Pour une fonction f continue, il prouve que le meilleur noyau est le noyau uniforme k(x) = (1/2ω)I[−ω,ω] (x) pour une constante arbitraire ω > 0 (ce qui démontre que les critères de Falk pour définir un noyau optimal ne sont en fait pas adaptés à la fonction de répartition) alors que, pour f discontinue en un nombre fini de points, c'est le noyau exponentiel k(x) = (c/2) exp(−c|x|) pour une constante arbitraire c > 0. F̃n est ici aussi plus efficace que Fn pour hn = o(n−1/2 ) sous la condition (2.1). Néanmoins, F̃n ne fournit pas toujours une meilleure estimation que Fn . En effet, dans le cas d'une fonction F uniformément lipschitzienne Fernholz [45] obtient que √ n||F̃n − Fn ||∞ → 0 p.s. √ √ et que n||F̃n − F ||∞ et n||F̃n − F ||∞ ont la même distribution asymptotique. De plus, Shirahata et Chu [85] démontrent que sous certaines hyR∞ pothèses sur F , l'erreur quadratique intégrée (I.S.E.) ( −∞ (F̃n (x)−F (x))2 dF (x)) de F̃n est presque sûrement supérieure à celle de Fn . 2.5 Estimateurs splines Les méthodes splines connaissent un large spectre d'applications de par la simplicité de leur mise en oeuvre, de la régularité des courbes obtenues et de la multiplicité des conditions que l'on peut imposer aux solutions. Néanmoins, les fonctions à estimer doivent obéir à certaines conditions de régularité et le nombre d'observations doit être suffisament grand pour éviter les phénomènes classiques de sur ou sous-lissage. Pour plus de précision sur le sujet on pourra se référer à Besse et Thomas-Agnan [13], Wahba [96] ou Green et Silverman [52]. Berlinet [8] utilise des splines cubiques pour lisser la fonction de répartition empirique et obtenir un estimateur uniformément asymptotiquement sans biais de la fonction de répartition. Les splines cubiques sont ici définies comme 97 Estimation de la fonction de répartition : revue bibliographique un polynôme de degré au plus 3 interpolant la fonction de répartition empirique sur l'ensemble des points de l'échantillon Sn avec certaines conditions aux limites. Une approche différente est étudiée par Restle [78] qui définit l'estimateur Fsp de F sous forme d'une spline naturelle cubique en définissant les valeurs de Fsp aux points X1 , , Xn par −1 Fsp = I + αW−1 K Fn où α est le paramètre de lissage, la matrice W contient des poids et la matrice aléatoire K ne dépend que des écarts Hi = Ti+1 − Ti de l'échantillon. A cause des conditions de continuité imposées aux splines naturelles cubiques, les valeurs aux points T1 , , Tn caractérisent la fonction Fsp complètement. Cet estimateur possède une erreur quadratique intégrée de l'ordre de Op (n−1 ) et le supremum de la différence absolue de F et Fsp est de l'ordre de Op (n−1/4 ). De plus, la probabilité que cet estimateur soit monotone tend vers 1. 2.6 Les Support Vector Machines L'idée originale des Support Vector Machines (S.V.M.) est publiée par Vapnik [94] puis reprise dans Burges [19], Schölkopf, Burges et Smola [83], Schölkopf et Smola [84] et plus récemment dans Vapnik et Kotz [95]. Ces dernières années ont vu une explosion du nombre de travaux exploitant la méthode des S.V.M. dont le but premier est de résoudre certains problèmes de classification. Elle est basée sur l'utilisation de fonctions dites noyaux qui permettent une séparation optimale (sans problème d'optimum local) des points observés X1 , , Xn en différentes catégories. Afin de remédier au problème de l'absence de séparateur linéaire, l'idée des S.V.M. est de reconsidérer le problème dans un espace de dimension supérieure. Dans ce nouvel espace, il existe un séparateur linéaire qui permet de classer au mieux les points observés dans les groupes qui conviennent. On peut ensuite projeter le séparateur linéaire dans l'espace d'origine pour visualiser le résultat de la classification. Le changement d'espace se fait au moyen d'une fonction symétrique k(., .) répondant au critère de Mercer, c'est à dire telle que, pour 1 ≤ i, j ≤ n, (k(Xi , Xj ))i,j 98 2.7 Le level-crossing est une matrice définie positive. Ce critère autorise un changement "dans les deux sens" ce qui permet à partir de l'expression de l'hyperplan dans l'espace de dimension plus élevé de classer les éléments dans l'espace de description initial. Afin d'utiliser les S.V.M., le problème d'estimation de la densité est vu comme le problème suivant : on choisit tout d'abord un ensemble de densités f (x, α) où α est l'ensemble des paramètres à déterminer. La résolution du problème Z x f (t, α)dt = F (x) −∞ revient donc à résoudre le problème inverse Af (., α) = F (., α) où A est une application linéaire de l'espace de Hilbert des fonctions f (., α) dans celui des fonctions F (., α). L'estimation de la densité est donc maintenant traduite en un problème inverse qui se résout en utilisant Fn pour estimer F . On peut alors utiliser les S.V.M. pour estimer la densité de différentes manières (Schölkopf, Burges et Smola [83]). Mohamed et Farag [71] choisissent tout d'abord de coupler l'approche S.V.M. et la théorie de champ moyen (qui permet des approximations efficaces). Puis ils incorporent l'algorithme EM à l'approche précédente (Mohamed, El-Baz et Farag [70]). Les estimateurs de f (x) et F (x) sont alors f ̄n∗ (x) = n X ωi k(x, Xi ) et F̄n∗ (x) = i=1 n X ωi K(x, Xi ) i=1 où k est un noyau vérifiant certaines propriétés (Vapnik [94]) dérivé de K et ωi obtenus dans Mohamed, El-Baz et Farag [70]. L'algorithme EM est ensuite utilisé pour trouver les paramètres optimaux pour le noyau, ici la matrice de covariance pour un noyau gaussien, et permet un gain substantiel (notamment en terme de distance de Levy) par rapport à la première approche où on utilise les paramètres ad-hoc. 2.7 Le level-crossing Le level-crossing, passage à niveau en français, est défini dans Leadbetter [65]. Si nous notons X(1) , X(2) , , X(n) les statistiques d'ordre de l'échantillon 99 Estimation de la fonction de répartition : revue bibliographique X1 , X2 , , Xn et prenons x ∈ R alors on dit que l'intervalle [X(j) , X(k) ) "croise" le niveau x si et seulement si x ∈ [X(j) , X(k) ), 1 ≤ j ≤ k < n. Il est ensuite possible de définir une fonction rn (x) comptant le nombre de "croisements" se produisant au niveau x à partir d'un échantillon de départ {Xi , i = 1, , n}. L'espérance de cette fonction rn (x) s'exprime en fonction de F (x). Huang et Brill [59] appliquent le level-crossing à l'estimation de la fonction de répartition. L'estimateur obtenu diffère de la fonction de répartition empirique qui donne un poids équivalent de 1/n à chaque valeur de l'échantillon. Ils essayent d'améliorer l'efficacité en faisant varier les poids des observations. Des poids moins importants sont attribués aux données situées dans les queues de l'échantillon. Le nouvel estimateur est alors défini par Fˆn∗ (x) = n X i=1 avec pn,i = I(−∞,x] (X(i) )pn,i , n ≥ 2,  h  1 1 − √ n−2 2 n(n−1)  √ 1 , n(n−1) i , pour i = 1, n, pour i = 2, , n − 1. Nous remarquons que les valeurs X(1) et X(n) ont moins de poids que les valeurs centrales de l'échantillon. Ils obtiennent tout d'abord o n P lim sup |Fˆn∗ (x) − F (x)| = 0 = 1 n→∞ −∞<x<∞ et démontrent ensuite que pour toute fonction F continue, il existe un nombre réel zn ∈ (0, 21 ), tel que l'efficacité de leur estimateur par rapport à Fn est plus grande que 1 sur les intervalles ouverts (0, zn ) et (1−zn , 1). Ces résultats théoriques sont ensuite complétés par des simulations sur lesquelles le levelcrossing donne de meilleures estimations que la fonction de répartition empirique. 2.8 Les Systèmes de Fonctions Itérées Les systèmes de fonctions itérées (I.F.S.), introduits dans Barnsley et Demko [6], sont principalement utilisés pour la modélisation de fractales. 100 2.9 Les Systèmes de Fonctions Itérées Cette théorie est entièrement basée sur la propriété d'invariance par changement d'échelle. Ainsi une application à l'approximation de fonction est récemment proposée dans Forte et Vrscay [48]. Le principe est le suivant : on suppose que ω est une fonction contractante d'un espace métrique M dans lui-même. Le théorème du point fixe nous donne ensuite l'existence et l'unicité d'un point fixe x′ dans M tel que ω(x′ ) = x′ . De plus, pour tout point de départ x0 , la suite de points (xn ) définie par xn+1 = ω(xn ) converge vers x′ lorsque n tend vers l'infini. C'est pourquoi x′ est appelé attracteur de l'I.F.S. On peut maintenant supposer qu'il existe n fonctions contractantes ωi , i = 1, . . . , n, dans M . Chacune de ces fonctions ωi a son propre point fixe x′i et si on applique une de ces fonctions, par exemple ωl , alors la suite (xn ) converge vers le point fixe x′l . Ce sont ces résultats que Iacus et La Torre [60] utilisent en interprétant l'estimation de F comme la recherche du point fixe d'une famille de fonctions contractantes sur un espace métrique complet. Le problème se définit alors à l'aide de N fonctions affines ω et d'un vecteur de paramètres p. Pour une famille donnée W , le résultat dépend uniquement du choix de p. Il faut donc maintenant déterminer p en résolvant un problème d'optimisation quadratique sous contraintes. Cette approche est appelée approche inverse. Ils démontrent qu'une fois la famille de fonctions choisie le problème inverse revient à résoudre un problème quadratique dépendant uniquement des moments non centrés de l'échantillon. Le choix pi = 1/N nous permet d'obtenir une version lissée de la fonction de répartition empirique et, par conséquent, de bonnes propriétés asymptotiques et cela même si le support de la loi n'est pas compact. Différentes simulations sur des fonctions bêta sont testées et l'I.F.S. apparaı̂t comme plus efficace que les fonctions de répartition empiriques ou à noyaux en terme d'erreur quadratique moyenne ou de norme infinie. Cette méthode est notamment très performante dans les cas de données manquantes ou de petits échantillons mais nécessite une fonction à support compact ou au moins une connaissance du support. 101 Estimation de la fonction de répartition : revue bibliographique 2.9 D'autres estimateurs Comme il a été dit précédemment tout estimateur de la densité fournit par intégration un estimateur de la fonction de répartition. Nous évoquons donc dans le présent paragraphe quelques familles importantes de tels estimateurs qui n'ont pas été mentionnées auparavant. Nous resterons volontairement succincts, le nombre de références sur le sujet concernant l'estimation de la densité étant considérable. Les premiers travaux traitant de manière unifiée des estimateurs de la densité et des conditions de leur convergence sont ceux de Foldes et Revesz [47] et Bleuez et Bosq [15, 16]. Ces auteurs ont considéré la famille des estimateurs de la densité de la forme n 1X fn (t) = Kr(n) (Xj , t), n j=1 où (Kr (x, t), r ∈ I) est une famille de fonctions réelles mesurables et I une partie non bornée de R+ . Cette famille contient les estimateurs à noyaux vus précédemment et ceux utilisant la méthode des fonctions orthogonales qui correspond au choix r X Kr (x, t) = ei (x)ei (t), i=0 r ∈ N et où les ei forment une base de hilbertienne de L2 (R). Elle englobe également les histogrammes, de nombreux estimateurs basés sur des partitions (Bosq et Lecoutre [17], Berlinet et Biau [10]) et les estimateurs par ondelettes. La théorie des ondelettes s'est développée au milieu des années 80 et est très utilisée dans de nombreux domaines (analyse harmonique, traitement du signal, compression d'images, statistique fonctionnelle). Son succès est du à son adaptativité aux données et à sa facilité d'implémentation. Une ondelette est une onde "localisée". Lorsqu'on décompose une fonction en séries de Fourier, on la décompose en fait en fréquence. La décomposition en ondelettes ajoute une dimension, la décomposition est double : fréquentielle et spatiale. On décompose en effet une fonction comme une somme d'oscillations de fréquences précises se produisant à un endroit précis. La construction d'une base d'ondelettes dans un espace convenable permet d'estimer une fonction 102 2.10 Fonction de répartition conditionnelle si on sait estimer ses coordonnées dans la base choisie. On peut citer comme références Donoho, Johnstone, Kerkyacharian et Picard [31], Härdle, Kerkyacharian, Picard et Tsybakov [55] ou Herrick, Nason et Silverman [57]. Mais la plupart sont appliquées à l'estimation de la densité et il n'existe pas, à notre connaissance, d'application visant à obtenir des propriétés spécifiques d'estimateurs de la fonction de répartition. Nous pouvons aussi évoquer brièvement une approche statistique différente : l'approche bayésienne. Dans la perspective bayésienne un état de connaissance initial est traduit par une loi de probabilité a priori sur les paramètres du modèle choisi. Le théorème de Bayes permet de passer ensuite à une loi dite a posteriori sur les paramètres conditionnellement aux données observées. Cette approche est notamment développée en détails dans Robert [79] et Bernardo et Smith [12]. Son application à l'estimation de la fonction de répartition, sous différents modèles, est évoquée dans Korwar et Hollander [64], Susarla et Van Ryzin [92] et Pantazopoulos, Pappis, Fifis, Costopoulos, Vaughan et Gasparini [73]. En statistique non paramétrique la construction des estimateurs bayésiens est souvent difficile. On pourra consulter Bosq et Lecoutre [17] au sujet de l'utilisation d'un processus de Dirichlet comme loi a priori. L'estimateur résultant a des propriétés asymptotiques analogues à celles de la fonction de répartition empirique. Enfin, les méthodes combinatoires, développées par Devroye et Lugosi [29], apportent un regard nouveau sur le choix efficace d'estimateurs non paramétriques et sont applicables aux estimateurs de la fonction de répartition. 2.10 Fonction de répartition conditionnelle Lorsque les données sont disponibles sous la forme de couples (Xi , Yi )1≤i≤n , on peut chercher à estimer la fonction de répartition conditionnelle π(y|x) = P (Yi ≤ y|Xi = x). Roussas [81] définit son estimateur basé sur l'estimateur à noyau par Z y qn (x, y ′ )/pn (x) πG (y|x) = −∞ 103 Estimation de la fonction de répartition : revue bibliographique où n 1 X K pn (x) = nh i=1  x − Xi h  n 1 X et qn (x, y ) = K nh i=1 ′  x − Xi h1/2  K  y ′ − Yi h1/2  Sous certaines hypothèses fortes, il démontre sa convergence en probabilité ainsi que celle de ses quantiles (voir aussi Samanta [82]). Stone [89] définit lui un estimateur de type π̂n (A|X) = n X Wni (X)IA (Yi ) i=1 où Wni est une fonction de poids propre à chaque Xi . Il obtient la consistance de l'estimateur sous certaines conditions sur les fonctions de poids. En s'appuyant sur ce travail, Cleveland [22] définit l'estimation polynômiale locale. L'idée sous-jacente est en fait un simple développement de Taylor : soit x et y fixés et supposons que la fonction qui à z associe π(y|z) est suffisament régulière dans un voisinage de x. Alors, par une approximation de Taylor, π(y|z) ≈ π(y|x) + (z − x)π (1) (y|x) + + (z − x)p π (p) (y|x) p! où π (v) (y|x) est la v ème dérivée de π(y|z) par rapport à z, évaluée en x. Nous approximons donc localement π(y|z) par un polynôme de degré p en (z − x). Fan [41, 42] et Fan et Gijbels [43, 44] montrent que cet estimateur présente plusieurs avantages sur les autres méthodes de régression (comme celle du noyau de Gasser et Müller [50]) : elle contourne la principale difficulté des estimateurs à noyaux classiques en corrigeant automatiquement les effets de bord tout en conservant les propriétés d'optimalité théorique. Il est à noter que Ferrigno et Ducharme [46] construisent un test permettant de rejeter (ou de valider) un modèle en fonction de sa "distance" à l'estimateur polynômial local. Stute [90, 91] définit lui un estimateur de type plus-proche-voisins   n Fn (x) − Fn (Xi ) 1 X Yi K πn (y|x) = nh i=1 h où K est un noyau. Sous certaines conditions, il obtient sa normalité asymptotique et celle de ses quantiles. 104 . 2.11 Données biaisées Hall, Wolff et Yao [54] proposent deux méthodes différentes pour estimer cette fonction. Ils définissent ainsi un estimateur à noyau adapté (qui sera équivalent à un estimateur localement linéaire) et un estimateur faisant intervenir un modèle logistique. L'estimateur à noyau se définit par  Pn Xi −x i=1 I(Yi ≤y) pi (x)K h  , π̃(y|x) = Pn Xi −x i=1 pi (x)K h où K est un noyau de fenêtre h et pi , pour 1 ≤ i ≤ n, des poids uniquement définis par plusieurs équations. Le modèle logistique général pour P (x) = π(y|x) admettant r − 1 dérivées continues est de la forme L(x, b) = A(x, b)/{1 + A(x, b)}, où A(., b) est une fonction non-négative dépendant du vecteur de paramètres b = (b1 , , br ) représentant P (x) et ses r − 1 dérivées. On peut noter qu'il est possible de trouver des fonctions A relativement simples. Ce modèle amène à l'estimateur π̂(y|x) = L(0, b̂xy ) où b̂xy minimise la fonction   n X Xi − x 2 . R(b; x, y) = {I(Yi ≤y) − L(Xi − x, b)} K h i=1 Ces deux estimateurs font intervenir un noyau K. Ils seront consistants selon le choix toujours délicat de la fenêtre h. Il est aussi possible d'estimer F en utilisant Fn et les techniques classiques de régression dans le modèle Fn (Xi ) = F (Xi ) + εi , i = 1, , n. En utilisant un estimateur localement linéaire de même type que celui décrit ci-dessus, Cheng et Peng [21]) déterminent un estimateur ayant une moyenne d'erreur quadratique intégrée plus petite que l'estimateur à noyau classique. 2.11 Données biaisées En pratique, il peut arriver qu'observer directement la variable X de densité f soit impossible mais qu'on puisse, par contre, observer une variable Y à 105 Estimation de la fonction de répartition : revue bibliographique travers un échantillon Y1 , , Yn et possédant la densité g(y) = w(y)f (y)/μ(f ) où w(x) va être la fonction de biais et μ(f ) = Ef {w(X)} = 1/Eg {w−1 (Y )}. On rencontre également cette situation dans le cas de données manquantes (Berlinet et Thomas-Agnan [11]). Dans ce qui suit on suppose que la fonction w(x) est connue, intégrable et que ∀x, 0 < c1 < w(x) < c2 < ∞. Patil, Rao et Zelen [75] référencent les différentes propriétés de ces fonctions biaisées pour laquelle Cox [25] propose la distribution suivante : F̃co (x) = μ̂n−1 n X l=1 avec μ̂ = w−1 (Yl )I(Yl ≤x) , 1 n−1 Pn l=1 w−1 (Yl ) . Cet estimateur est celui du maximum de vraisemblance dans le cadre nonparamétrique, il est asymptotiquement efficace et est un estimateur minimax du premier ordre. Efromovitch [36] modifie l'estimateur de Cox et propose le suivant : J √ X F̃e (x) = x + 2 θ̂j (πj)−1 sin(πjx), j=1 où n √ X θ̂j = n−1 2μ̂ w−1 (Yl ) cos(πjYl ), l=1 ce qui est l'estimateur moyen de Cox pour θj , et J une constante calculable, fonction de n. Il obtient |E{F̃e (x)} − F (x)| ≤ √ o(1) n log(n) et la normalité asymptotique de son estimateur qui est de plus un estimateur minimax du second ordre en x. 106 2.13 Conclusion 2.12 Conclusion L'estimateur le plus simple, la fonction de répartition empirique a de bonnes propriétés de convergence mais possède certains inconvénients comme celui de ne pas prendre en compte une éventuelle information supplémentaire ou bien le fait d'être une fonction en escalier. Dès que l'on restreint quelque peu le modèle envisagé pour les données il existe des estimateurs qui sont préférables à la fonction de répartition empirique. Néanmoins l'existence de ce premier estimateur, au contraire de ce qui se passe pour la densité, donne des facilités quant à l'utilisation de méthodes de lissage. Les méthodes d'estimation que nous avons passées en revue fournissent en général une fonction qui possède les propriétés caractérisant une fonction de répartition sauf parfois en ce qui concerne la masse totale (limx→+∞ F (x) = 1), ce qui est facilement corrigé, ou bien en ce qui concerne la croissance. On peut alors penser à appliquer certaines méthodes d'estimation de fonctions monotones (Delecroix, Simioni et Thomas-Agnan [26]), la régression ou les splines isotoniques (Barlow, Bartholomew, Brewner et Brunk [5] et Wegman et Wright [101]) afin de garantir la croissance de l'estimateur. 2.13 Simulations Nous testons certaines des méthodes présentées ci-dessus sur des échantillons de tailles différentes. Les différents estimateurs sont explicités dans la bibliographie citée ci-dessus sauf l'estimateur par splines monotones qui provient d'un package développé par Stephan Ellner à partir de l'article de Wood [100]. Nous pouvons remarquer assez logiquement l'importance de la taille de l'échantillon mais aussi, comme annoncé par les auteurs de cette méthode, la meilleure estimation de l'estimateur I.F.S. dans le cas de petits échantillons (efficacité confirmée dans le cas d'échantillons avec des valeurs manquantes). Nous n'utiliserons cependant pas ou très peu cette caractéristique du fait du grand nombre d'observations dont nous avons besoin pour estimer l'indice de régularité en règle générale. 107 1.0 1.0 Estimation de la fonction de répartition : revue bibliographique 0.2 0.4 y 0.6 0.8 IFS Noyau Empirique Splines Monotones Level−crossing 0.0 0.0 0.2 0.4 y 0.6 0.8 IFS Noyau Empirique Splines Monotones Level−crossing −1.5 −1.0 −0.5 0.0 0.5 1.0 −3 −2 −1 x 0 1 2 x (b) n = 100 1.0 1.0 (a) n = 15 0.8 IFS Noyau Empirique Splines Monotones Level−crossing y 0.0 0.0 0.2 0.2 0.4 0.4 y 0.6 0.6 0.8 IFS Noyau Empirique Splines Monotones Level−crossing −3 −2 −1 0 1 2 3 −4 x −2 0 2 4 x (c) n = 1000 (d) n = 10000 Figure 2.1 – Estimations de la fonction de répartition d'une N(0,1) en pointillés pour différentes méthodes et différentes tailles d'échantillon n 108 Bibliographie [1] B. Abdous, A. Berlinet, and N. Hengartner. A general theory for kernel estimation of smooth functionals of the distribution function and their derivatives. Revue Roumaine de Mathématiques Pures et Appliquées, 48 :217–232, 2003. [2] O. Aggarwal. Some minimax invariant procedures for estimating a cumulative distribution function. The Annals of Mathematical Statistics, 26 :450–462, 1955. [3] H. Akaike. An approximation to the density function. Annals of the Institute of Statistical Mathematics, 6 :127–132, 1954. [4] A. Azzalini. A note on the estimation of a distribution function and quantiles by a kernel method. Biometrika, 68 :326–328, 1981. [5] R. Barlow, D. Bartholomew, J. Brewner, and H. Brunk. Statistical inferences under order restrictions. Wiley, New-York, 1972. [6] M. Barnsley and S. Demko. Iterated function systems and the global construction of fractals. Proceedings of the Royal Society of London. Series A, Mathematical and Physical Sciences, 399 :243–275, 1985. [7] R. Beran. Estimating a distribution function. The Annals of Statistics, 5 :400–404, 1977. [8] A. Berlinet. Convergence des estimateurs splines de la densité. Publications de l'Institut de Statistique de l'Université de Paris, 26 :1–16, 1981. [9] A. Berlinet. Reproducing kernels and finite order kernels. In G. Roussas, editor, Nonparametric Functional Estimation and Related Topics. Klüwer Academic Publishers, Dordrecht, 1991. [10] A. Berlinet and G. Biau. Estimation de densité et prise de décision. In R. Lengellé, editor, Décision et Reconnaissance de Formes en Signal. Hermes, Paris, 2002. [11] A. Berlinet and C. Thomas-Agnan. Reproducing Kernel Hilbert Spaces in Probability and Statistics. Klüwer, Boston, 2004. 109 BIBLIOGRAPHIE [12] J. Bernardo and A. Smith. Bayesian Theory. Wiley, New-York, 1994. [13] P. Besse and C. Thomas-Agnan. Le lissage par fonctions splines en statistique : revue bibliographique. Statistique et Analyse des données, 14 :55–83, 1989. [14] P. Billingsley. Convergence of Probability Measures. Wiley, New-York, 1968. [15] J. Bleuez and D. Bosq. Conditions nécessaires et suffisantes de convergence pour une classe d'estimateurs de la densité. Comptes rendus de l'Académie des Sciences de Paris Série A, 282 :63–66, 1976. [16] J. Bleuez and D. Bosq. Conditions nécessaires et suffisantes de convergence pour une classe d'estimateurs de la densité par la méthode des fonctions orthogonales. Comptes rendus de l'Académie des Sciences de Paris Série A, 282 :1023–1026, 1976. [17] D. Bosq and J.-P. Lecoutre. Théorie de l'Estimation Fonctionnelle. Economica, 1987. [18] L. Brown. Admissibility in discrete and continuous invariant nonparametric estimation problems, and in their multinomial analogs. The Annals of Statistics, 16 :1567–1593, 1988. [19] C. Burges. A tutorial on support vector machines for pattern recognition. Data mining and knowledge discovery, 2 :1–47, 1998. [20] P. Caperaa and B. Van Cutsem. Méthodes et modèles en statistique non paramétrique. Bordas, Paris, 1988. [21] M.-Y. Cheng and L. Peng. Regression modelling for nonparametric estimation of distribution and quantiles functions. Statistica Sinica, 12 :1043–1060, 2002. [22] W. Cleveland. Robust locally weighted regression and smoothing scatterplots. Journal of the American Statistical Association, 74 :829–836, 1979. [23] M. Cohen and L. Kuo. The admissibility of the empirical distribution function. The Annals of Statistics, 13 :262–271, 1985. [24] G. Collomb, S. Hassani, P. Sarda, and P. Vieu. Estimation non paramétrique de la fonction de hasard pour des observations dépendantes. Statistique et Analyse des Données, 10 :42–49, 1985. [25] D. Cox. Some sampling problems in technology. In N. L. Johnson and H. Smith, editors, New Developments in Survey Sampling. Wiley, New-York, 1969. 110 BIBLIOGRAPHIE [26] M. Delecroix, M. Simioni, and C. Thomas-Agnan. Functional estimation under shape constraints. Journal of Nonparametrics Statistics, 6 :69–89, 1996. [27] L. Devroye. A Course in Density Estimation. Birkhäuser, Boston, 1987. [28] L. Devroye and L. Györfi. Distribution and density estimation. CISM Courses and Lectures, 434 :221–270, 2002. [29] L. Devroye and G. Lugosi. Combinatorial Methods in Density Estimation. Springer, New-York, 2001. [30] L. Devroye and G. Wise. On the recovery of discrete probability densities from imperfect measurements. Journal of the Franklin Institute, 307 :1–20, 1979. [31] D. Donoho, I. Johnstone, G. Kerkyacharian, and D. Picard. Density estimation by wavelet thresholding. The Annals of Statistics, 24 :508– 539, 1996. [32] M. Donsker. Justification and extension of Doob's heuristic approach to the Kolmogorov-Smirnov theorems. The Annals of Mathematical Statistics, 23 :277–281, 1952. [33] J. Doob. Heuristic approach to the kolmogorov-smirnov theorm. The Annals of Mathematical Statistics, 20 :393–403, 1949. [34] J. Doob. Stochastic processes. Wiley, New-York, 1953. [35] A. Dvoretzky, J. Kiefer, and J. Wolfowitz. Asymptotic minimax character of the sample distribution function and of the classical multinomial estimator. The Annals of Mathematical Statistics, 33 :642–669, 1956. [36] S. Efromovich. Distribution estimation for biased data. Journal of Statistical Planning and Inference, 124 :1–43, 2004. [37] B. Efron and R. Tibshirani. An introduction to the Bootstrap. Chapman & Hall, London, 1993. [38] A. Epanechnikov. Nonparametric estimation of a multivariate probability density. Theory of Probability and its Applications, 14 :153–158, 1969. [39] M. Falk. Relative efficiency and deficiency of kernel type estimators of smooth distribution functions. Statistica Neerlandica, 37 :73–83, 1983. [40] M. Falk. Relative deficiency of kernel type estimators of quantiles. The Annals of Statistics, 12 :261–268, 1984. [41] J. Fan. Design-adaptive nonparametric regression. Journal of the American Statistical Association, 87 :998–1004, 1992. 111 BIBLIOGRAPHIE [42] J. Fan. Local linear regression smoothers and their minimax efficiencies. The Annals of Statistics, 21 :196–216, 1993. [43] J. Fan and I. Gijbels. Variable bandwidth and local linear regression smoothers. The Annals of Statistics, 20 :2008–2036, 1992. [44] J. Fan and I. Gijbels. Local polynomial modelling and its applications. Chapman & Hall, London, 1996. [45] L. Fernholz. Almost sure convergence of smoothed empirical distribution functions. Scandinavian Journal of Statistics, 18 :255–262, 1991. [46] S. Ferrigno and G. Ducharme. A global test of goodness-of-fit for the conditional distribution function. Comptes Rendus Mathématiques de l'Académie des Sciences de Paris, 341 :313–316, 2005. [47] A. Foldes and P. Revesz. A general method for density estimation. Studia Scientiarum Mathematicarum, 9 :81–92, 1974. [48] B. Forte and E. Vrscay. Solving the inverse problem for function/image approximation using iterated function systems. Fractals, 2 :325–334, 1995. [49] Y. Friedman, A. Gelman, and E. Phadia. Best invariant estimation of a distribution function under the Kolmogorov-Smirnov loss function. The Annals of Statistics, 16 :1254–1261, 1988. [50] T. Gasser and H. Müller. Estimating regression function and their derivatives by the kernel method. Scandinavian Journal of Statistics, 3 :171–185, 1984. [51] G. Golubev and B. Levit. Distribution function estimation : adaptive smoothing. Mathematical Methods of Statistic, 5 :383–403, 1996. [52] P. Green and B. Silverman. Nonparametric Regression and Generalized Linear Models. A Roughness Penalty Approach. Chapman & Hall, London, 1994. [53] U. Grenander. On the theory of mortality measurement part II. Skandinavisk Aktuarietidskrift, 39 :125–153, 1956. [54] P. Hall, R. Wolff, and Q. Yao. Methods for estimating a conditional distribution function. Journal of the American Statistical Association, 94 :154–163, 1999. [55] W. Härdle, G. Kerkyacharian, D. Picard, and A. Tsybakov. Wavelets, approximation and statisticals applications. Lecture Notes in Statististics, 129, 1999. [56] P. Hennequin and A. Tortrat. Théorie des Probabilités et Quelques applications. Masson, Paris, 1965. 112 BIBLIOGRAPHIE [57] D. Herrick, G. Nason, and B. Silverman. Some new methods for wavelet density estimation. Sankhya, A63 :394–411, 2001. [58] I. Hu. A uniform bound for the tail probability of Kolmogorov-Smirnov statistics. The Annals of Statistics, 13 :811–826, 1985. [59] M. Huang and P. Brill. A distribution estimation method based on level crossings. Journal of Statistical Planning and Inference, 124 :45– 62, 2004. [60] S. Iacus and D. La Torre. A comparative simulation study on the IFS distribution function estimator. Nonlinear Analysis : Real World Applications, 6 :858–873, 2005. [61] M. Jones. The performance of kernel density functions in kernel distribution function estimation. Statistics and Probability Letters, 9 :129– 132, 1990. [62] J. Kiefer and J. Wolfowitz. Consistency of the maximum likelihood estimator in the presence of infinitely many nuisance parameters. The Annals of Mathematical Statistics, 27 :887–906, 1956. [63] A. Kolmogorov. Sulla determinazione empirica di una legge de distribuzione. Giornale dell'Instituto Italiano degli Attuari, 4 :83–91, 1933. [64] R. Korwar and M. Hollander. Empirical Bayes estimation of a distribution function. The Annals of Statistics, 4 :581–588, 1976. [65] M. Leadbetter. Point processes generated by level crossings. In P. Lewis, editor, Stochastic Point processes : Statistical Analysis, Theory and Applications. Wiley-Interscience, New-York, 1972. [66] E. Lehmann. Theory of Point Estimation. Wiley, New-York, 1983. [67] M. Lejeune and P. Sarda. Smooth estimators of distribution and density functions. Computational Statistics and Data Analysis, 14 :457–471, 1992. [68] P. Massart. The tight constant in the Dvoretzky-Kiefer-Wolfowitz inequality. The Annals of Probability, 18 :1269–1283, 1990. [69] R. Modarres. Efficient nonparametric estimation of a distribution function. Computational Statistics and Data Analysis, 39 :75–95, 2002. [70] R. Mohamed, A. El-Baz, and A. Farag. Probability density estimation using advanced support vector machines and the EM algorithm. International Journal of Signal Processing, 1 :260–264, 2004. [71] R. Mohamed and A. Farag. Mean field theory for density estimation using support vector machines. Seventh International Conference on Information Fusion, Stockholm, pages 495–501, 2004. 113 BIBLIOGRAPHIE [72] E. Nadaraya. Some new estimates for distribution function. Theory of Probability and its Application, 9 :497–500, 1964. [73] S. Pantazopoulos, C. Pappis, T. Fifis, C. Costopoulos, J. Vaughan, and M. Gasparini. Nonparametric Bayes estimation of a distribution function with truncated data. Journal of Statistical Planning and Inference, 55 :361–369, 1996. [74] E. Parzen. On the estimation of a probability density and mode. The Annals of Mathematical Statistics, 33 :1065–1076, 1962. [75] G. Patil, C. Rao, and M. Zelen. Weighted distribution. In N. L. Johnson and S. Kotz, editors, Encyclopedia of Statistical Sciences. Wiley, NewYork, 1988. [76] E. Phadia. Minimax estimation of a cumulative distribution function. The Annals of Statistics, 1 :1149–1157, 1973. [77] R.-D. Reiss. Nonparametric estimation of smooth distribution functions. Scandinavian Journal of Statistics, 8 :116–119, 1981. [78] E. Restle. Estimating cumulative distributions by spline smoothing. PhD thesis, Ecole Polytechnique Fédérale de Lausanne, 2001. [79] C. Robert. L'Analyse Statistique Bayésienne. Economica, Paris, 1992. [80] M. Rosenblatt. Remarks on some non-parametric estimates of a density function. The Annals of Mathematical Statistics, 27 :832–837, 1956. [81] G. Roussas. Nonparametric estimation of the transition distribution function of a Markov process. The Annals of Mathematical Statistics, 40 :1386–1400, 1969. [82] M. Samanta. Non-parametric estimation of conditional quantiles. Statistics and Probability Letters, 7 :407–412, 1989. [83] B. Schölkopf, C. Burges, and A. Smola. Advances in Kernel methods. Support vector learning. MIT Press, 1999. [84] B. Schölkopf and A. Smola. Learning With Kernels : Support Vector Machines, Regularization, Optimization and Beyond. MIT Press, 2002. [85] S. Shirahata and I.-S. Chu. Integrated squared error of kernel-type estimator of distribution function. Annals of the Institute of Statistical Mathematics, 44 :579–591, 1992. [86] G. Shorack and J. Wellner. Empirical Processes with Applications to Statistics. Wiley, New-York, 1986. [87] R. S. Singh, T. Gasser, and B. Prasad. Nonparametric estimates of distributions functions. Communication in Statistics - Theory and Methods, 12 :2095–2108, 1983. 114 BIBLIOGRAPHIE [88] N. Smirnov. Approximate laws of distribution of random variables from empirical data. Uspekhi Matematicheskikh Nauk, 10 :179–206, 1944. [89] C. Stone. Consistent nonparametric regression. The Annals of Statistics, 5 :595–645, 1977. [90] W. Stute. Asymptotic normality of nearest neighbor regression function estimates. The Annals of Statistics, 12 :917–926, 1984. [91] W. Stute. Conditionnal empirical processes. The Annals of Statistics, 14 :638–647, 1986. [92] V. Susarla and J. Van Ryzin. Empirical Bayes estimation of a distribution (survival) function from right censored observations. The Annals of Statistics, 6 :740–754, 1978. [93] J. Swanepoel. Mean integrated squared error properties and optimal kernels when estimating a distribution function. Communication in Statistics - Theory and Methods, 17 :3785–379, 1988. [94] V. Vapnik. The nature of statistical learning theory. Springer Verlag, New-York, 1995. [95] V. Vapnik and S. Kotz. Estimation on dependences based on empirical data. Springer Verlag, New-York, 2006. [96] G. Wahba. Spline models for observational data. Society for Industrial and Applied Mathematics (SIAM), Philadelphia, 1990. [97] G. Watson and M. Leadbetter. Hazard analysis II. Sankhya, 26 :101– 116, 1964. [98] B. Winter. Strong uniform consistency of integrals of density estimators. The Canadian Journal of Statistics, 1 :247–253, 1973. [99] B. Winter. Convergence rate of perturbed empirical distribution functions. Journal of Applied Probability, 16 :163–173, 1979. [100] S. Wood. Monotonic smoothing splines fitted by cross validation. SIAM Journal on Scientific Computing, 15 :1126–1133, 1994. [101] I. Wright and E. Wegman. Isotonic, convex and related splines. The Annals of Statistics, 8 :1023–1035, 1980. [102] H. Yamato. Uniform convergence of an estimator of a distribution function. Bulletin on Mathematical Statistics, 15 :69–78, 1973. [103] Q. Yu. Inadmissibility of the empirical distribution function in continuous invariant problems. The Annals of Statistics, 17 :1347–1359, 1989. 115 Conclusion et perspectives Dans ce travail de thèse, nous nous sommes attachés à étudier l'indice de régularité d'une mesure de probabilité. Nous avons pu voir que cet indice intervient dans différents problèmes d'estimation fonctionnelle. Mais sa définition étant relativement récente, ses propriétés sont encore méconnues et il est probable qu'il apparaisse dans d'autres problèmes. Il se pourrait par exemple qu'il puisse expliquer certains problèmes liés à la vitesse de convergence de différents estimateurs. Dans la première partie de ce travail, nous avons déterminé des conditions nécessaires et suffisantes pour l'obtention d'une loi asymptotique pour l'estimateur des kn -plus proches voisins de la densité. Cependant, beaucoup d'estimateurs de la densité requièrent un développement pour un rapport de mesures d'ensembles non centrés au point d'estimation x et n'étant pas forcément des boules. Nous avons donc adapté la définition de l'indice de régularité. A l'aide de cette nouvelle définition, nous avons obtenu des conditions suffisantes pour la normalité asymptotique de l'estimateur des kn -plus proches voisins ou pour l'histogramme. S'agissant de la recherche future, il serait intéressant de déterminer la loi asymptotique d'autres estimateurs de la densité, comme par exemple l'estimateur B.S.E. ou celui de Barron, en utilisant la nouvelle définition de l'indice de régularité. Dans la deuxième partie, nous affaiblissons les hypothèses impliquant la convergence de l'estimateur du mode d'une densité quelconque f défini par Abraham, Biau et Cadre (2003) notamment l'hypothèse sur la continuité de la densité f autour du mode θ. Nous déterminons également un intervalle de confiance asymptotique dépendant de différentes constantes. Une pro117 Conclusion et perspectives chaine étape importante sera de définir des estimateurs convergents de ces constantes sous les hypothèses de notre théorème, plus explicitement sans utiliser la continuité autour du mode. Il serait également utile de réaliser une analyse de sensibilité de notre estimateur par rapport à la fenêtre de l'estimateur à noyau. De plus, il serait intéressant de l'appliquer à des données réelles présentant des discontinuités, par exemple dans le domaine de l'illumination ou de la spectrométrie. Enfin, la dernière partie de cette thèse a permi de définir un nouvel estimateur convergent de l'indice de régularité utilisant l'estimateur empirique de la fonction de répartition. Cependant, les simulations sur cet estimateur, ainsi que sur un autre utilisant l'estimateur à noyau, ne donnent pas de meilleurs résultats que l'estimateur défini par Beirlant, Berlinet et Biau (2008). Nous avons également réalisé une revue bibliographique sur les différents estimateurs de la fonction de répartition ce qui ouvre un certain nombre de perspectives intéressantes. En particulier, un travail futur serait de déterminer une condition sur un estimateur de la fonction de répartition quelconque donnant un estimateur de l'indice de régularité convergent. Cela nous donnerait alors une large classe d'estimateurs de l'indice de régularité. Un certain nombre des estimateurs de la fonction de répartition ayant été implémenté, un package pourrait alors être créé et mis à la disposition de la communauté scientifique. 118 Résumé L'objectif de cette thèse est d'étudier le comportement local d'une mesure de probabilité, notamment au travers d'un indice de régularité locale. Dans la première partie, nous établissons la normalité asymptotique de l'estimateur des kn plus proches voisins de la densité et de l'histogramme. Dans la deuxième, nous définissons un estimateur du mode sous des hypothèses affaiblies. Nous montrons que l'indice de régularité intervient dans ces deux problèmes. Enfin, nous construisons dans une troisième partie différents estimateurs pour l'indice de régularité à partir d'estimateurs de la fonction de répartition, dont nous réalisons une revue bibliographique. Mots-clefs : Indice de régularité locale, Mesure de probabilité, Estimation non paramétrique, Estimation du mode, Estimateurs de la fonction de répartition, Normalité asymptotique, Estimateur des kn plus proches voisins de la densité. Abstract The goal of this thesis is to study the local behavior of a probability measure, using a local regularity index. In first part, we establish the asymptotic normality of the nearest neighbor density estimate and of the histogram. In the second one, we define a mode estimator under weakened hypothesis. We show that the regularity index interferes in this two problems. Finally, we construct in third part various estimators of the regularity index. The thesis ends with a review on distribution function estimators. Keywords : Local regularity index, Probability measure, Nonparametric estimation, Mode estimators, Distribution function estimators, Asymptotic normality, Nearest neighbor estimate.
{'path': '21/tel.archives-ouvertes.fr-tel-00730491-document.txt'}
Etude expérimentale de la fissuration et de la rupture des roches par émission acoustique : application à l'étude de la sismogénèse Philippe Sala To cite this version: Philippe Sala. Etude expérimentale de la fissuration et de la rupture des roches par émission acoustique : application à l'étude de la sismogénèse. Géologie appliquée. Universite Scientifique et Médicale de Grenoble, 1982. Français. tel-00744057 HAL Id: tel-00744057 https://tel.archives-ouvertes.fr/tel-00744057 Submitted on 22 Oct 2012
{'path': '14/tel.archives-ouvertes.fr-tel-00744057-document.txt'}
Les ESLO, du portrait sonore au paysage digital Olivier Baude, Céline Dugua To cite this version: Olivier Baude, Céline Dugua. Les ESLO, du portrait sonore au paysage digital. Corpus, Bases, Corpus, Langage - UMR 7320, 2017. halshs-01679544 HAL Id: halshs-01679544 https://halshs.archives-ouvertes.fr/halshs-01679544 Submitted on 16 Jan 2018 Corpus de f r ançai s parlé et f r ançais parl é des corpus Numéro coordonné et présenté par Mathieu AVANZI, Marie-José BÉGUELIN et Federica DIÉMOZ Les ESLO, du portrait sonore au paysage digital Olivier BAUDE & Céline DUGUA Laboratoire Ligérien de Linguistique, UMR 7270 Les Enquêtes sociolinguistiques à Orléans (dorénavant ESLO) forment un grand corpus oral de plusieurs millions de mots. Ce corpus a été réalisé à deux époques importantes de la linguistique contemporaine. La première enquête (ESLO1), élaborée à la fin des années soixante, accompagne la naissance d'une sociolinguistique urbaine fondée sur un grand corpus d'enquêtes, et la seconde (ESLO2), commencée au début des années 2000, a profité du tournant numérique produit par les Digital Humanities en sciences humaines et sociales. Résolument ancrées dans le courant de la sociolinguistique et de la linguistique variationniste, les ESLO forment le socle d'études sur le français parlé à Orléans dans une perspective qui place les données au coeur d'études sur la nature sociale de la langue. Cet article vise à décrire le travail réalisé depuis une dizaine d'années par l'équipe du projet des ESLO en le confrontant à ses cadres théoriques et méthodologiques. Après avoir abordé brièvement l'ancrage sociolinguistique du statut des données et le périmètre du français parlé, nous présenterons le travail réalisé afin de faire de ces corpus un « objet scien- tifique disponible » et situé. 1. Sociolinguistique et corpus La notion de corpus croise différentes approches parfois relativement éloignées selon qu'on se situe dans une perspective de linguistique de terrain ou de linguistique informatisée. Elle prend néanmoins un sens bien plus défini dans le cadre du programme de la sociolinguistique tel qu'il a été établi dans la seconde moitié du vingtième siècle. O. BAUDE, C. DUGUA 1.1 Nature sociale de la langue La sociolinguistique s'est fondée sur une relecture pertinente de définition même de l'objet de la linguistique et sur la volonté de couvrir l'ensemble du domaine. Pour Labov, la sociolinguistique n'est pas une des branches de la linguistique, et pas davantage une discipline interdisciplinaire : c'est d'abord la linguistique, toute la linguistique – mais la linguistique remise sur ses pieds. Elle se fonde sur l'ambition de remplir dans sa totalité le programme que la linguistique se donne dans sa définition moderne – et de l'outrepasser du seul fait de ne pas réduire son objet. (Encrevé, 1976 : 9) Dans cette perspective, la sociolinguistique définit la langue comme étant partie prise et partie prenante d'un social qui ne peut se réduire à un trésor collectif. Si le social est divisé et lieu de luttes et d'enjeux qui le structurent, la langue en porte, dans sa nature même, les caractéristiques qui font de la variation le principe même de celle-ci : Une partie fondamentale des variations présentées par les paroles individuelles est elle aussi « instituée socialement », et par là même gouvernée par des règles : elle fait partie du système de la langue. Elle trouve normalement sa place dans la « linguistique interne » telle que la définit le CLG : « Est interne tout ce qui concerne le système et les règles [] est interne tout ce qui change le système à un degré quelconque ». (Encrevé, 1976 : 11-12) Cette conception de la variation comme composante inhérente de la langue a une incidence directe sur la définition de l'objet d'étude sur lequel les linguistes doivent se pencher. Si les variations linguistiques sont à étudier au sein du domaine de la linguistique interne, la langue est bien le lieu où productions linguistiques et marché linguistique sont étroitement liés selon une « grammaire de la réception » qui situe la langue, comme le faisait déjà Saussure, dans le circuit de la parole : Ainsi la langue d'un sujet, contrairement au sujet commun, ce n'est pas la langue qu'il parle, c'est la langue qu'il entend. Or que reçoit l'oreille d'un sujet parlant : très précisément ce que la sociolinguistique veut enregistrer et que la linguistique actuelle refuse d'écouter, les multiples paroles dont l'ensemble hétérogène arrivera à former la langue de la communauté. (Encrevé, 1976 : 7) Ainsi, la communauté linguistique doit être saisie en tant qu'organisation concrète structurée et structurante des dynamiques sociales. C'est bien au coeur de celles-ci, plutôt que dans une recherche illusoire d'une langue stabilisée au sein d'une communauté homogène, qu'il faut aller observer la langue afin d'obtenir l'adéquation observationnelle première que Chomsky lui-même réclamait. Au total, c'est dans le caractère intrinsèquement social de la langue, dans l'intimité du lien entre langue et communauté linguistique socialement qualifiée que Weinreich, Labov et Herzog (1968) voient la source première et le moteur du changement linguistique. La communauté linguistique, rappellent-ils, est une organisation sociale concrète. Elle est donc, ex definitio, profondément hétérogène, divisée, hiérarchisée, structurée par des dynamiques sociales antagoniques. La variation et l'hétérogénéité linguistique d'une part, la variation et l'hétérogénéité sociale de l'autre, ne sont alors que les deux aspects du même réel social. C'est ainsi parce qu'il n'existe jamais de communauté homogène parfaitement stable qu'il n'existe jamais de langue homogène parfaitement invariante et stable. (Laks, 2013 : 41) Là encore, la langue ne peut se définir en dehors d'un réel social qu'il convient d'appréhender pour toute étude sur la langue. Selon Bourdieu, l'expression linguistique résulte d'une produc- tion émanant d'un habitus linguistique confronté à un marché linguistique (Bourdieu 1984 : 121). Il en découle que l'acqui- sition du langage met en jeu des intériorisations socialement réglées. Ainsi, comme le souligne Encrevé : Aussi la grammaticalité est-elle toujours de nature sociale quant à son origine concrète pour un O. BAUDE, C. DUGUA sujet : elle est toujours reçue et acquise assortie de sanctions sociales, dont la nature et l'importance varient avec le marché de la langue en cause – corrections, reprises, réprimandes dans la famille ; rire, moquerie de la part des égaux pour les dialectes dominés ; sanctions du marché scolaire, du marché matrimonial, du marché du travail pour les dialectes dominants. (Encrevé, 1976 : 7-8) Il est alors aisé de concevoir le changement linguistique comme un processus résultant d'une lutte au sein de l'hétérogénéité des pratiques linguistiques évaluées socialement. La boucle est bouclée, de l'acquisition du langage au changement linguis- tique, la sociolinguistique offre un cadre théorique où la nature sociale de la langue est maintenant clairement définie. Cette définition de l'objet de la linguistique par la sociolinguistique se concrétise en premier lieu, et de manière centrale, autour de la question des données. 1.2 Sociolinguistique et données En effet, définir la langue comme un fait social, nécessite de l'observer comme une pratique socialement située. C'est donc au sein même de l'activité sociale qu'elle devient appréhendable : Partie structurée d'un tout qu'elle structure, la langue, en effet, n'est jamais « donnée ». Les « données » de la langue dans son usage quotidien, telle que veut l'étudier Labov, ne sont « produites » qu'au terme d'un long chemin d'aveuglette où se construit pas à pas une science de l'enquête linguistique qui est la première conquête de la sociolinguistique. (Encrevé, 1976 : 13) Pour la sociolinguistique, il ne s'agit pas d'une simple question méthodologique qui déterminerait l'observation des données comme une étape préliminaire à l'analyse scientifique, bien au contraire la définition même des données et des conditions de leur production sont au coeur du travail du linguiste. La pre- mière incidence concerne le périmètre des données linguis- tiques. Comme le souligne Laks (2013), on ne peut concevoir d'analyser des données linguistiques orphelines de l'habitus du locuteur et du marché qui structure ses productions : Observer la variation dans sa systématicité et rendre compte de l'hétérogénéité comme étant structurée impose évidemment d'adopter une méthodologie adéquate. On sait en effet que décontextualisée, l'observation détruit la systématicité des phénomènes variables et les fait paraitre erratiques. Observer les faits linguistiques hors de l'écosystème social qui les conditionne détruit en effet tout ce que la pratique doit précisément à son caractère pratique. C'est la raison pour laquelle l'analyse de la variation systémique commence nécessairement par une réflexion critique sur les observables. (Laks, 2013 : 36) Dans les années soixante-dix, la réflexion sur la place des données a entraîné une véritable science de l'enquête linguis- tique pour laquelle les avancées de la sociologie à la même époque, depuis Bourdieu, Chamboredon et Passeron en 1968 jusqu'à Beaud et Weber en 1997, ont été déterminantes en ce domaine. Parallèlement et parfois simultanément à l'apport de la sociologie de l'enquête, la naissance du domaine de l'analyse de conversations et les études sur les données « naturelles » ou plus justement sur les données issues de « situations non pro- voquées par le chercheur » sont également des éléments essen- tiels du développement de la science de l'enquête linguistique. Enfin, le troisième domaine constitutif de cette démarche méthodologique et théorique provient de la linguistique de corpus dans son versant « informatique et traitement automatique du langage ». 1.3 Données et posture du chercheur Dans cette perspective, la place des données devient prédominante, et le travail du linguiste ne peut s'affranchir d'une démarche réflexive sur la méthodologie de constitution et d'exploitation des données. Il lui revient alors de rendre explicite ses motivations scientifiques, sa méthodologie de collecte, la description des données et le traitement de celles-ci (Habert, 2005). C'est alors une véritable posture qui se profile O. BAUDE, C. DUGUA sur la base d'une confrontation scientifique qui doit rendre possible la disponibilité des données, y compris pour un retour évaluatif ou contrastif, leur interopérabilité et leur description fine. En outre cette posture ne peut s'affranchir d'une réflexion éthique et juridique (Baude, 2006) sur les données, les locuteurs et le terrain non exempts d'enjeux sociaux. Il s'agit donc de définir une conception de la sociolinguistique et par-delà de la linguistique, à partir de la relation de cette discipline aux données, nécessairement variationnistes et situées. Ceci nécessite que le linguiste sache ce qu'il fait (Gadet, 2007), dans la continuité d'une évolution méthodo- logique et théorique d'une science de l'enquête à une science du corpus. Les Enquêtes sociolinguistiques à Orléans, qui se concrétisent par un ensemble de deux corpus réalisés à quarante années d'intervalle, offrent l'opportunité d'évaluer, à partir de projets concrets, le cadre de ce positionnement. 2. Le français ordinaire 2.1 La recherche du français parlé ESLO1 a pour origine un projet à finalité didactique. L'équipe constituée à la fin des années soixante autour de Michel Blanc avait comme objectif de réaliser une méthode d'enseignement audiovisuelle du français langue seconde à partir de documents authentiques. Celui-ci est clairement défini dans un court article paru en 1971 (Blanc & Biggs). À « une époque où le rôle essentiel de la langue parlée dans l'enseignement d'une langue étrangère » venait d'être acquis, il a fallu « constituer un en- semble cohérent de matériaux vivants, rassemblés de manière systématique » valable « à la fois pour l'application pédago- gique et pour la recherche sur la langue parlée ». Partant du constat qu'une collection ordonnée de documents de ce type n'était pas disponible, l'équipe a entrepris de collecter un vaste corpus représentatif du français parlé à partir d'une enquête ciblée sur une ville « moyenne » française exempte de carac- téristiques trop marquées. La démarche a d'emblée été résolument ancrée dans le champ de la sociolinguistique et la variation fut au coeur du travail de définition de la représentativité du corpus : Selon nous une recherche sociolinguistique impliquait une étude de la langue dans sa diversité plutôt que comme un tout homogène et figé. En effet, même si on étudie un état de langue à un moment précis de l'histoire, il n'empêche qu'il offre une variété à plusieurs niveaux : différences entre les générations, différences dialectales entre communautés, différences entre les milieux sociaux, différences liées aux conditions de production du discours. (Blanc & Biggs, 1971 :16) Cette prise en compte de la diversité n'exclut pas, bien au contraire, la recherche d'une langue partagée par une communauté linguistique. C'est ainsi que le projet s'est orienté vers la réalisation du portrait sonore de la ville d'Orléans. Il s'agissait d'observer et de capter à un moment précis, dans un lieu restreint, la dynamique des pratiques linguistiques parta- gées par les habitants d'une cité. Le corpus est donc constitué d'une collection d'entretiens de locuteurs socialement situés et catégorisés, mais aussi d'enregistrements variés donnant accès au « français parlé dans une ville moyenne par la population de la ville à une époque précise » (Blanc & Biggs, 1971). 2.2 La découverte du français entendu La grande originalité pour l'époque et le parti pris très fort choisi par l'équipe ont été de définir les pratiques linguistiques communes non pas par les productions de locuteurs types mais par l'hétérogénéité des pratiques linguistiques entendues dans la ville. Comme le soulignent Blanc & Biggs, « C'est une communauté d'auditeurs qui est construite, autant qu'une communauté de locuteurs, à notre connaissance pour la première fois en France [] On ne cherche pas "cet individu mythique, l'Orléanais moyen" » (Blanc & Biggs, 1971 : 23). On est ici dans la même perspective de la sociolinguistique que celle défendue par Encrevé, quelques années plus tard, quand il reprend l'affirmation de Saussure selon laquelle la langue O. BAUDE, C. DUGUA comme objet de la linguistique se situe dans le circuit de la parole, pour préciser immédiatement que pour Saussure la langue est entièrement, et exclusivement, du côté de l'audition, de la réception : on peut la (la langue) localiser dans la partie déterminée du circuit (de parole) où une image auditive vient s'associer à un concept ; c'est par le fonctionnement des facultés réceptives et coordinatives que se forment chez les sujets parlants des empreintes qui arrivent à être sensiblement les mêmes pour tous. Ces deux points sont manifestement reliés : seule l'audition met le sujet en contact avec la masse parlante. Ainsi la langue d'un sujet, contrairement au jugement commun, ce n'est pas la langue qu'il parle, c'est la langue qu'il entend. (Encrevé, 1977 : 6) Nous le verrons dans le chapitre consacré à l'architecture des corpus des ESLO, ce cadre théorique et ses incidences méthodologiques apportent une très forte identité à l'ensemble du projet. 2.3 La linguistique du français parlé d'ESLO1 à ESLO2 Entre les deux enquêtes ESLO1 et ESLO2, la linguistique française a bénéficié des très précieux travaux de BlancheBenveniste et de l'école du GARS sur la description du français parlé. Ces études, principalement grammaticales, ont incontestablement marqué le champ de la discipline. Or, comme ces travaux du GARS reposent essentiellement sur l'analyse de corpus, on peut s'attendre à une avancée importante sur la description du français parlé et, simultanément, sur la méthodologie de corpus entre les années soixante et les années deux mille dix. Si l'avancée a été majeure et déterminante pour les travaux sur la syntaxe du français, elle n'a apporté qu'une contribution très faible à la linguistique de corpus ou plus exactement à la linguistique sur corpus. La relation relativement distante entretenue entre les travaux du GARS et la sociolinguistique explique ce rendez-vous manqué. Quatre disciplines vont avoir une incidence plus forte dans la même période sur les corpus de français parlé. Dis- cipline compagne, la sociologie va opérer un lourd travail sur le recueil des données et sur la méthodologie d'entretien qui reste une part importante des corpus oraux. Parallèlement, la linguistique de l'interaction et plus particulièrement l'Analyse de conversations va se développer très fortement et proposer une nouvelle approche du recueil de données « non provoquées par le chercheur ». Ensuite, le domaine de l'acquisition du langage fournira une méthodologie très rigoureuse de grandes bases de données partagées (volet français du programme CHILDES, notamment pour ce qui concerne l'adoption d'un format et d'un codage communs (MacWhinney, 2000)) de corpus de productions d'enfants. Enfin, la recherche en technologies de la parole, de la reconnaissance à la synthèse en passant par la traduction repose sur le traitement de données orales massives. La reprise du projet ESLO1 par l'équipe du CORAL (devenue LLL), en 2004, avec comme perspective de rendre disponible l'intégralité du corpus1 et d'en constituer un nou- veau, devait nécessairement tenir compte des avancées apportées par ces disciplines. Un bref bilan de l'impact de celles-ci révèle la qualité du travail précurseur des auteurs d'ESLO1 et facilite la reprise du projet avec une forte continuité, même si plusieurs choix sont caractéristiques de l'évolution d'ESLO2. Outre le soin apporté à la technique de conduite d'entretiens, les principales évolutions concernent l'intérêt ac- cru pour assurer une représentation de l'hétérogénéité du panel de locuteurs et des situations enregistrées (cf. chapitre sur l'architecture du corpus en infra) et pour la description des langues en contact avec le français. 2.4 Conserver et diffuser le français ordinaire Le bouleversement le plus fort concerne un élément peu fré- quent jusqu'à très récemment dans les projets sur les corpus de français parlé : celui de la conservation et de la diffusion. Pourtant, sur ce point aussi, ESLO1 était totalement précurseur. 1 Un travail remarquable avait déjà été réalisé dans le cadre du projet ELILAP-ELICOP : ELILAP 1980-1983, puis LANCOM 1993-2001 (voir Mertens, 2002). O. BAUDE, C. DUGUA Alors que, dix ans auparavant, les responsables du Français fondamental effaçaient les enregistrements réalisés dans le cadre de ce projet d'ampleur internationale (Abouda & Baude, 2007), les auteurs d'ESLO1 décidaient d'apporter un soin particulier au catalogage de leurs enregistrements afin d'en assurer la meilleure diffusion. Ainsi, un des six objectifs d'ESLO1 était de : préparer et publier un catalogue descriptif et analytique des documents sonores et écrits, afin de les rendre disponibles aux chercheurs, notamment dans les domaines de la linguistique, de la sociologie et de la pédagogie des langues. (Lonergan, Kay & Ross, 1974 : 2) Cette volonté affichée dès l'origine du projet aura une forte incidence sur son développement. Elle porte la marque d'une relation particulière aux données et au rôle de leur exploitation partagée dans la constitution d'un savoir collectif. C'est également une reconnaissance de la légitimité de la langue parlée comme objet scientifique et patrimonial. L'ESLO deviendra alors une référence sous le nom du Corpus d'Orléans et voya- gera de la France à l'Angleterre, des Pays-Bas à la Belgique, au gré des nombreux travaux de chercheurs dans une discipline en plein développement. 3. Le corpus des ESLO 3.1 Un très grand corpus Le corpus des ESLO2 a comme objectif d'être un très grand corpus de français parlé constitué de plusieurs centaines d'heures d'enregistrements afin d'atteindre une masse de 10 millions de mots. Il est composé du corpus ESLO1, qui est un corpus clos, réalisé entre 1968 et 1971, et qui comprend 470 enregistrements d'une durée totale de 318 heures, ce qui représenterait, selon l'estimation de l'époque, 4,5 millions de mots3. 2 Cf. Baude & Dugua, 2011. 3 Environ 70 % du corpus présente une qualité acoustique suffisante pour une transcription. Le corpus ESLO2, en cours de réalisation, affiche un objectif de plus de six millions de mots pour 450 heures d'enregistrements. Réunis dans une même base de données comprenant les enregistrements, leur transcription orthographique et les métadonnées décrivant les documents, le contexte d'enregistrement et les locuteurs, le corpus des ESLO est actuellement le plus grand corpus de français parlé disponible pour la recherche en linguistique. L'objectif du projet n'est pas de produire un corpus représentatif, mais d'offrir un réservoir de corpus conçu dans un souci de représentativité des pratiques linguistiques d'une communauté d'auditeurs dans une ville donnée, à des moments distincts. La constitution d'un sous-corpus d'études à partir de ces données reste à la charge du chercheur dans une démarche où la sélection des données est une étape fondamentale de l'analyse. Il revient alors aux auteurs des ESLO de rendre disponibles les données tout en les situant à la fois dans le cadre de leur contexte de production par les locuteurs et de celui de production par l'équipe scientifique, y compris dans ses aspects et contraintes technologiques. Il ne s'agit donc pas de produire un corpus de masse de données sans en préciser l'architecture et les cadres théoriques qui la conditionnent. 3.2 Architecture du corpus La composition du corpus a subi une évolution sensible entre ESLO1 et ESLO2. Comme nous l'avons indiqué, le corpus ESLO1 correspond déjà à une prise en charge des variations linguistiques selon différents axes. Cette recherche de la variation s'est concrétisée par une architecture qui, en donnant une place centrale aux entretiens en face-à-face, a néanmoins intégré sept autres modules dédiés à la diversité des situations de production de discours : – Interviews sur questionnaires (interviews en face-à-face sur des questionnaires standardisés, avec un échantillon statistique aléatoire, choisi d'après la liste INSEE du O. BAUDE, C. DUGUA – – – – – – – recensement de la population 1968). 157 enregistrements, 182,5 heures. Opérations sur le vif : contacts (prises de contact, reprises de contact, ouverture et clôture des entretiens enregistrés à l'insu du témoin). 55 enregistrements, 12,5 heures. Opérations sur le vif : témoins en situations sociales ou professionnelles (enregistrements de témoins INSEE dans des situations sociales ou professionnelles, faits en l'ab- sence des chercheurs). 16 enregistrements, 14,5 heures. Communications téléphoniques. 50 enregistrements, 2,15 heures. Interviews sur mesure (entretiens avec des individus choisis selon leur rôle dans la « microsociété » orléanaise). 45 enregistrements, 48,33 heures. Conférences-débats (conférences-débats ou discussions à plusieurs participants, les dernières comportant souvent des témoins INSEE). 26 enregistrements, 34,15 heures. Enregistrements divers (enregistrements divers comportant des témoins inconnus, visites d'atelier, marchés, magasins, etc.). 84 enregistrements, 14,33 heures. CMPP (interviews au Centre médico-psychopédagogique, parents d'élèves et assistante sociale). 37 enregistrements, 10 heures. L'ensemble de ces modules est décrit dans le catalogue original (Lonergan, 1974 : 1) et présenté sur le site de diffusion du corpus ESLO4. L'architecture va considérablement évoluer dans le cadre du corpus ESLO25 afin de prendre en compte l'avancée méthodologique et théorique réalisée entre 1968 et 2008. Par exemple, l'évolution technologique a une forte incidence sur la collecte des corpus oraux. Si les auteurs d'ESLO1 se félicitaient de disposer de matériel d'enregistrement peu volumineux (de la taille d'une petite valise), et léger (à peine 7 kg), l'équipe d'ESLO2 dispose d'un matériel numérique offrant les possi- bilités d'équiper des locuteurs de micro-cravates HF pour une 4 5 http://eslo.huma-num.fr/ http://eslo.huma-num.fr/index.php/pagecorpus/pagepresentationcorpus qualité d'enregistrement de tout premier ordre. Ainsi, pour l'un des modules qui consiste à enregistrer l'intégralité de ce qu'une personne entend pendant 24 heures, les locuteurs sont équipés d'un micro les accompagnant dans toutes les activités de la vie quotidienne, de la toilette à la soirée entre amis en passant par l'activité professionnelle et les conversations familiales. Cette évolution technologique s'accompagne d'un engouement fort pour la captation d'enregistrements les plus diversifiés dans des situations non provoquées par le chercheur selon les objectifs de l'Analyse de conversations. L'objectif de dresser un portrait sonore ne peut donc se résumer à la collecte d'entretiens selon un échantillonnage sociologique. Il convient également d'élaborer une architecture de corpus qui permet de rendre compte de la diversité des situations de production et d'audition. Force est de constater qu'ESLO1 était balbutiant sur cet aspect. Si les entretiens ont été réalisés avec beaucoup de rigueur, les autres types d'enregistrements sont très souvent de très mauvaise qualité et correspondent à des objectifs peu maîtrisés. La tentative d'enre- gistrer la même personne dans diverses situations s'est réduite à de simples tests sur quelques locuteurs. ESLO2 a donc comme ambition de présenter une forte évolution de la méthodologie de collecte de situations variées et représentatives des pratiques d'une communauté. C'est toute l'architecture du corpus qui doit être mo- difiée afin de prendre en compte une grande diversité de situ- ations de productions linguistiques tout en les situant au sein d'un marché linguistique plus général. Le premier effet de ce changement est de pondérer la place des entretiens par rapport à d'autres types d'enregistrements. Les graphiques suivants qui expriment en nombre d'heures et en pourcentage la place de chacun des modules pour les deux corpus, rendent compte de ce changement. O. BAUDE, C. DUGUA Figure 1. ESLO1 Figure 2. ESLO2 3.3 Catégorisation des modules L'architecture d'un corpus ne peut se résumer au pourcentage des genres, styles ou situations représentées. Elle nécessite également une réflexion sur la pertinence de ces catégories au sein d'une structure globale. Ainsi, assurer la collecte de la diversité des pratiques linguistiques répond à un objectif d'enquête sociolinguistique et de description linguistique. Le conditionnement en corpus numérique du résultat de cette collecte nécessite un travail de catégorisation des modules constituant l'architecture du corpus. Cette catégorisation se doit d'être explicite et disponible à des fins de traitement des données. La classification habituelle dans les corpus de français parlé repose sur une opposition simpliste entre discours public et discours privé décrivant le niveau de formalité des énoncés. Ainsi, le Corpus de référence du français parlé, réalisé par Claire Blanche Benveniste et l'équipe DELIC à partir de 1998, repose sur une structure en trois modules : parole privée, parole professionnelle et parole publique. Cette distinction est assez rudimentaire si on se réfère aux travaux de l'analyse de conversations ou même à la description des registres de langue (Koch & Oesterreicher, 2001). Le corpus ESLO2 est l'occasion de tenter une description des registres, styles ou types de situation en partant des caractéristiques a priori et, a posteriori, des différents modules. Chaque module est décrit a priori, c'est-à-dire avant la collecte et non sur la base d'une analyse du contenu, selon les critères suivants : – – – Degré de planification du discours (en opposant le registre « spontané » de la conversation ordinaire à celui de conférences où le discours est écrit), Degré d'interactivité (du monologue au dialogue et autres conversations relevant d'un travail conséquent d'interaction), Degré de distance sociale entre les interactants (à partir des critères traditionnels de la sociologie : âge, sexe, niveau d'études, profession), O. BAUDE, C. DUGUA – – Degré de convergence (de la polémique au consensus), Degré de formalité du cadre (au sens de Goffman, chaque situation pouvant se définir selon un cadre social impli- quant des statuts, rôles et comportements langagiers). Chacun de ces critères est évalué sur une échelle de 0 à 10, et le module peut être visualisé selon la forme obtenue par un graphique en radar : Figure 3. Les différents modules constitutifs de l'architecture ESLO2 Cette démarche permet de décrire l'architecture du corpus en affinant une prise en compte des axes traditionnels qui situent un contexte de production de discours selon le degré de formalisme de la situation sociale d'une part et le degré de planification de l'énoncé d'autre part. Figrue 4. Les différents discours selon les axes classiques Cette représentation de l'architecture du corpus répond à deux objectifs. Premièrement, il s'agit de définir avec précisions les différents modules qui composent le corpus complet en situant les situations enregistrées selon les critères de la sociologie et de la pragmatique. Cela répond à une conception des pratiques linguistiques comme relevant systématiquement d'un contexte, qui n'est autre qu'un marché linguistique au sein duquel les locuteurs mobilisent des comportements langagiers dans un but d'interaction. Deuxièmement, l'évaluation des modules selon différents critères permet un travail réflexif sur une définition a priori et un constat a posteriori à partir des données précises de la situation enregistrée. Ainsi, si le module « entretien » répond globalement à une définition selon les critères présentés, celleci va être pondérée pour chaque entretien. L'évaluation de la distance sociale et du degré d'interactivité peut par exemple être très différente d'un entretien à l'autre et déboucher sur une représentation proche d'une conversation ordinaire dans un cas ou d'un discours public ou médiatique dans un autre. In fine, cette réflexion sur l'architecture du corpus permet de concevoir ESLO2 comme un corpus ouvert sans pour O. BAUDE, C. DUGUA autant le réduire à un empilement, opportuniste et sans fin, d'enregistrements variés. 3.4 État du corpus L'ensemble des enregistrements est maintenant numérique. L'intégralité des enregistrements ESLO1 a été numérisée dans le cadre du dépôt du fonds à la Bibliothèque nationale de France. ESLO2 est nativement collecté en numérique à l'aide de différents matériels selon les contraintes des modules6. Si ESLO1 est un corpus clos, la collecte d'ESLO2 continue à la date de la rédaction de cet article. Tous les enregistrements sont catalogués et indexés (cf. chapitre suivant), et la transcription de l'intégralité des cor- pus est en cours. Les opérations de formatage, catalogage et transcription sont excessivement lourdes, ce qui explique le peu de corpus d'envergure disponibles. Face à cette difficulté, les chercheurs se replient souvent vers un usage du corpus restreint à leur recherche. La particularité forte du projet des ESLO est au contraire de maintenir un objectif scientifique clairement identifié tout en attribuant au corpus une valeur patrimoniale et scientifique qui dépasse le cadre du projet initial. Il en résulte un vaste chantier de traitement du corpus qui sera détaillé dans la dernière partie de cet article. Nous pouvons néanmoins faire état de l'avancement de ces opérations. Ainsi, au 1er mai 2015, le corpus des ESLO est composé de : Enregistrements Nb. Heures Transcrits Nb. Heures ESLO1 468 318 336 274 ESLO2 590 266 583 259 1 058 584 919 533 TOTAL Figure 5. Composition d'ESLO 6 Principalement : enregistreurs Marantz PMD 661 MKII + micro-cravates AKG C417L, TASCAM DR100, Edirol R09 : http://eslo.huma-num.fr/ index.php/pagemethodologie?id=70. 4. Un corpus pour les humanités numériques 4.1 Le temps des humanités numériques Le projet de diffusion des ESLO au début des années 2000 est contemporain de la mutation des sciences humaines et sociales dans ce qu'on appelle dorénavant le tournant des Digitals Humanities ou humanités numériques, voire humanités digitales (Le Deuff, 2014)7. Les discussions sur ce que sont les humanités numériques sont vives, et la définition reste très ouverte. Il ne s'agit pas d'entrer ici dans une vaste discussion sur la pertinence d'une approche en termes de naissance d'une discipline, d'une trans-discipline ou d'une appropriation d'outils numériques par des disciplines traditionnelles, nous nous contente- rons de constater que la linguistique est en première ligne d'un questionnement sur les conditions de constitution, de diffusion et de partage d'un savoir transformé par le croisement de l'informatique, du numérique et des arts et lettres, au sein des sciences humaines et sociales. Ces grands principes ont été définis dans le Manifeste des Digital Humanities8. D'une manière plus concrète encore, nous présentons ici les principales caractéristiques qui inscrivent le projet des ESLO dans cette approche des corpus en sciences humaines et sociales. Le soin apporté à la diffusion d'ESLO1, en 1974, en réalisant un « catalogue descriptif et analytique des documents sonores et écrits, afin de les rendre disponibles aux chercheurs (Lonergan, 1974 : 2) » peut être interprété comme la première pierre posée dans l'édifice d'un corpus qui dépasse les enjeux de l'étude des auteurs. La seconde pierre viendra de l'équipe de Piet Mertens et du projet ELICOP, quelque trente ans plus tard, en rendant accessible une partie du corpus après un lourd travail de normalisation des conventions de transcription et même d'annotations morphosyntaxiques contenues dans des balises au format SGML. Ce travail s'appuie sur les perspectives dressées par la linguistique de corpus telle qu'elle est définie par Habert, 7 8 Le Deuff, O. (dir.) (2014). Le temps des humanités digitales, la mutation des sciences humaines et sociales. http://tcp.hypotheses.org/318 O. BAUDE, C. DUGUA Nazarenko & Salem en 1997, mais n'est pas encore directement orienté vers un traitement d'ensemble. C'est à partir de 2004, avec la numérisation d'ESLO1 et le souhait de rendre le corpus intégralement disponible pour des usages scientifiques mais aussi culturels, que l'édifice s'ancrera définitivement dans les humanités numériques. 4.2 L'interopérabilité et l'archivage La question de la réutilisation d'un corpus n'est pas anodine et ne va pas de soi. Il ne s'agit pas ici d'affirmer que toute recherche linguistique doit s'appuyer sur un corpus et que tout corpus peut être réutilisé pour d'autres recherches. Rien n'est moins sûr, mais, dans le cas des ESLO, c'est un parti pris affirmé par les différents auteurs du projet. Le périmètre du projet est de fait vaste, il s'agit de produire le portrait sonore d'une ville en faisant l'hypothèse que le corpus produit peut être utile à diverses recherches en linguistique, sociologie, histoire, didactique, et acquiert ainsi une dimension patrimoniale qui a également pour effet de légitimer le français tel qu'il est parlé dans sa très grande diversité. L'objectif affirmé est donc de disposer de données répondant à un critère d'interopérabilité. Celui-ci se concrétise à différents niveaux. Premièrement, les enregistrements sont conservés dans un format numérique selon les recommandations d'une struc- ture internationale, l'International Association of Sound and Audiovisual Archive9. Deuxièmement, les documents sont systématiquement accompagnés de métadonnées descriptives. Le choix retenu est celui du format DUBLIN-CORE Open Language Archives Community10. Il s'agit d'un choix minimal qui a été repris dans le cas de diffusions liées à d'autres objectifs. Ainsi, le format CMDI11 est celui utilisé dans la perspective européenne CLARIN, le format EAD12 par la BNF pour l'intégration à son 9 http://www.iasa-web.org/ : Wave, stéréo, 16 bits, 44100 Hz. 10 http://www.language-archives.org/OLAC/metadata.html 11 http://www.clarin.eu/content/component-metadata 12 http://www.bnf.fr/fr/professionnels/formats_catalogage/a.f_ead.html catalogue Archives et Manuscrits, et l'EDM dans le cadre de la bibliothèque européenne Europeana13. Troisièmement, les enregistrements sont transcrits et synchronisés avec le signal sonore selon des conventions minimales14 répondant à un format interopérable. Le format choisi est un format XML qui est ensuite repris pour un enrichissement en TEI (TEIML15). Les transcriptions sont segmentées en unités prosodiquement, syntaxiquement et sémantiquement cohérentes afin d'assurer une synchronisation à l'aide de jalons temporels fréquents. La transcription proposée repose sur des conventions minimales. À ce stade, il s'agit de répondre à un simple objectif de navigation dans le corpus. Pour toute analyse ultérieure, une reprise de la transcription avec des conventions répondant aux cadres théoriques du chercheur est indispensable. L'ensemble de ces choix permet l'utilisation d'un service d'archivage. Expérimenté dans le cadre du projet pilote sur l'archivage de l'oral par le TGE ADONIS puis poursuivi par la TGIR HUM-NUM, les données (enregistrements, transcriptions et métadonnées) sont confiées à la plateforme Cocoon16, qui en assure le stockage sécurisé sur la grille Huma-Num hébergée au centre de calcul de l'IN2P3. Pendant cette phase, Cocoon assure des services de contrôle de la qualité des données puis verse les données au Centre informatique national de l'enseignement supérieur pour une conservation intermédiaire, avant de rejoindre les Archives nationales pour un archivage définitif. Parallèlement, les bandes magnétiques originales ont été confiées au service sonore du département de l'audiovisuel de la BNF. Les opérations d'archivage sont également l'occasion d'attribuer un identifiant unique et pérenne à tous les documents constitutifs du corpus. 13 14 15 16 http://pro.europeana.eu/share-your-data/data-guidelines/edm-documentation http://eslo.huma-num.fr/index.php/pagemethodologie?id=71 Norme ISO/CD 24624 en cours d'élaboration. http://cocoon.huma-num.fr/exist/crdo/ O. BAUDE, C. DUGUA 4.3 Les aspects juridiques La diffusion du corpus est bien évidemment liée à des aspects juridiques. Sur ce point, le projet a bénéficié du travail diffusé par le Guide des bonnes pratiques 200617. Le choix de l'équipe a été d'apporter beaucoup d'attention à une démarche éthique en recueillant le consentement éclairé de toutes les personnes enregistrées18. Les enregistre- ments et les transcriptions sont également anonymisés et les données personnelles conservées dans une base de données séparée. Les données sont diffusées sous licence Creatives Commons19 (BY NC SA : Attribution, pas d'utilisation commerciale et partage dans les mêmes conditions) : le titulaire des droits autorise l'exploitation de l'oeuvre originale à des fins non commerciales, ainsi que la création d'oeuvres dérivées, à condition qu'elles soient distribuées sous une licence identique à celle qui régit l'oeuvre originale. 4.4 Le signalement et la diffusion La conservation des données étant assurée à différents niveaux (stockage sécurisé, conservation intermédiaire et archivage pérenne), et les aspects juridiques ouverts à une large diffusion, il faut en assurer l'accès pour différents usages. Sur ce point, le soin apporté à l'interopérabilité devient crucial. Les données ESLO sont accessibles sur un site dédié au projet20, géré par l'équipe du Laboratoire ligérien de linguistique et hébergé sur la grille Huma-Num. Le site, réalisé à l'aide du CMS Joomla et intégrant une application, a été conçu en trois parties : – 17 18 19 20 Une interface « back office » qui permet la gestion du corpus. Cette interface permet, à l'aide de formulaires, de renseigner les métadonnées et dispose de fonctionnalités pour attribuer aléatoirement les identifiants anonymes, Baude et al., 2006. http://eslo.huma-num.fr/index.php/pagemethodologie?id=69 http://creativecommons.fr/licences/les-6-licences/ http://eslo.huma-num.fr/ – transférer les fichiers sonores et les transcriptions sur la plateforme Cocoon et pour accéder à une base de données mysql qui contient les transcriptions et les métadonnées. Une interface d'accès aux corpus avec des outils spéci- fiques. L'accès aux corpus se fait par une recherche des documents dans leur intégralité, sous la forme d'un cata- logue ou par la recherche d'une chaîne de caractères au sein des transcriptions. Un outil de requête permet de croiser les critères de recherche sur les transcriptions avec les informations sur les documents et les locuteurs. Un second outil offre la possibilité d'écouter l'enregistrement synchronisé sur le signal. Enfin, l'ensemble des documents est téléchargeable directement soit pour tout utilisateur du site soit pour un utilisateur ayant signé une convention lorsqu'il y a des restrictions juridiques. – La dernière fonctionnalité du site est d'offrir un contenu éditorial principalement orienté vers les documents méthodologiques : conventions et guides de transcriptions, documents techniques et juridiques, documents scientifiques. Cette diffusion du corpus par un site spécifique répond principalement aux objectifs du Laboratoire ligérien de linguistique. La gestion des données, selon de bonnes pratiques d'interopérabilité et d'archivage, permet un signalement et une diffusion beaucoup plus large. Ainsi, la plateforme Cocoon propose un entrepôt exposant les métadonnées en Open Archive Initiative. Le corpus des ESLO est donc signalé par tout instrument reposant sur un moissonnage en OAI. C'est notamment le cas de la plateforme ISIDORE21, qui permet la recherche et l'accès aux données numériques en sciences humaines et sociales. Au 1er mai 2015, une recherche sur ESLO dans le moteur d'ISIDORE apporte 2 001 réponses, soit l'ensemble des documents disponibles à ce moment-là dans la collection ESLO de l'entrepôt Cocoon. 21 http://www.rechercheisidore.fr/ O. BAUDE, C. DUGUA Comme ESLO existe également sous la forme de bandes magnétiques originales conservées et décrites par la BNF, le corpus est également signalé dans ses catalogues. Enfin, le corpus des ESLO a été naturellement intégré à l'EQUIPEX ORTOLANG22 dont l'objectif est de gérer une « infrastructure en réseau offrant un réservoir de données (corpus, lexiques, dictionnaires, etc.) et d'outils sur la langue et son traitement clairement disponibles et documentés ». 4.5 Le web de données Les réflexions sur la structuration des données et des métadonnées et la gestion de la diffusion du corpus des ESLO permettent un travail exploratoire dans le cadre du web de données (ou web sémantique). Cette étape concrétise la volonté de construire un corpus réutilisable pour une grande variété d'usages. Le web de données vise à publier des données structurées sur le web, afin de les relier entre elles et donc d'enrichir un réseau d'informations. Elle nécessite l'utilisation, dans un format spécifique, de vocabulaires, référentiels et ontologies facilitant le liage des données. Nous pouvons citer quelques exemples d'expérimentations en cours auxquelles participe ESLO : – – – – la plateforme ISIDORE, qui repose sur les principes du web de données, data.bnf.fr, le projet qui donne accès aux données contenues dans ses catalogues et dans Gallica, le programme Sémantisation du Corpus de la parole du ministère de la Culture, le projet « Cabinet de curiosités des langues de France », réalisé dans le cadre de l'appel à propositions « services culturels innovants du ministère de la Culture ». Ces différents projets sont trop récents pour en tirer un premier bilan. Un seul exemple peut néanmoins démontrer l'intérêt de rendre un corpus disponible selon les pratiques en vigueur dans le domaine du web de données. Une recherche sur le terme « abattoirs » permet, par l'outil data.bnf.fr, de signaler, d'écouter et de télécharger l'enregistrement d'ESLO consacré à 22 https://www.ortolang.fr/ l'entretien d'un boucher d'Orléans, et la même requête sur ISIDORE permet de trouver une correspondance entre cet enregistrement et un entretien sur le même thème réalisé par des sociologues à Toulouse, dans les années 1960. 5. Conclusion Le corpus des ESLO a été réalisé par des linguistes et il a donné lieu à de très nombreux travaux en linguistique. Après les différentes recherches en phonologie, syntaxe, prosodie, lexique, et autres domaines engendrés par ESLO1, l'équipe d'ESLO2 réalise différentes études directement issues d'une analyse du corpus ou fondées sur une comparaison avec d'autres corpus23. À partir d'ESLO1, une méthode d'apprentissage des langues particulièrement innovante24 a été réalisée et des travaux sont en cours de réflexion dans le cadre d'un usage didactique du corpus ESLO2. On peut donc considérer que l'objectif d'obtenir un portrait sonore d'une communauté d'auditeurs d'une même ville est une source importante d'études linguistiques et d'applica- tions liées. Il convient néanmoins d'être prudent, ce portrait sonore ne peut se résumer à des enregistrements divers et variés sans un cadre théorique qui fait de la linguistique de corpus une discipline qui doit entendre autant si ce n'est plus, la sociolinguistique que la linguistique outillée par l'informatique. Le tournant des humanités numériques est l'occasion de repenser cette définition de la linguistique sur corpus afin de définir une véritable science des données linguistiques. Face à ce défi, le linguiste doit maîtriser l'ensemble de la chaîne qui le conduit à travailler, exploiter et diffuser ces données collectées qui ne lui sont jamais « données ». Il est aussi important qu'il prenne conscience que cette science relève d'un domaine au sein duquel il n'est pas le seul acteur. 23 Comme, par exemple, les travaux sur la liaison dans ESLO, PFC et d'autres corpus (Baude et Dugua, 2015). 24 Biggs & Dalwood (1976). O. BAUDE, C. DUGUA Bibliographie Site ESLO : http://eslo.huma-num.fr Abouda L. & Baude O. (2009). « Du français fondamental aux ESLO », in Bruxelles, Mondada, Simon, Traverso (éd.) Grand corpus de français parlé, Bilan historique et perspectives de recherche. Cahiers de linguistique, Revue de sociolinguistique et de sociologie de la langue française 33/2, Louvain : EME, 131-146. Abouda L. & Baude O. (2007). « Constituer et exploiter un grand corpus oral, choix et enjeux théoriques : le cas des ESLO », in actes du colloque Corpus en lettres et sciences sociales, Des documents numériques à l'interprétation. Colloque d'Albi, Langages et signification, juin 2006, Presses universitaires de Toulouse : 161-168. Baude O. & Bergounioux G. (à paraître). « L'ESLO : une enquête en son temps », in Linguistique de corpus : une étude de cas, La recette de l'omelette, dans l'enquête sociolinguistique à Orléans (ESLO). Paris : Champion. Baude O. & Lacheret A. (à paraître). « The collection of data for the Rhapsodie Treebank : typological criteria and ethical issues », in A. Lacheret, S. Kahane & P. Pietrandrea (éd.) Rhapsodie : a Prosodic and Syntactic Treebank for Spoken French, coll. Studies in Corpus Linguistics. Amsterdam : Benjamins. Baude O. & Dugua C. (2011). « (Re)faire le corpus d'Orléans quarante ans après : quoi de neuf, linguiste ? », Corpus 10 : 99-118. Baude O. & Dugua C. (2015). « Usage de la liaison dans le corpus des ESLOs : vers de nouveaux (z) ouvrages de référence ? », in Dostie & Hedermann (éd.) La dia- variation en français actuel. Bern : Peter Lang, 349-371. Baude O. (coord.) (2006). Corpus oraux, guide des bonnes pratiques. Paris et Orléans : Éditions du CNRS et Presses universitaires d'Orléans. Beaud S. & Weber F. (1997). Guide de l'enquête de terrain : produire et analyser des données ethnographiques. Paris : La Découverte. Bergounioux G., Baraduc J. & Dumont C. (1992). « L'étude sociolinguistique sur Orléans (1966-1991) : 25 ans d'his- toire d'un corpus », Langue française 93 : 74-93. Biggs P. & Dalwood M. (1976). Les Orléanais ont la parole : Teaching Guide and Tapescript. Londres : Longman (Livre du maître). Biggs P. & Dalwood M. (1976). Les Orléanais ont la parole. Londres : Longman (Livre de l'élève). Blanc M. & Biggs P. (1971). « L'enquête sociolinguistique sur le français parlé à Orléans », Le français dans le monde 85 : 16-25. Blanche-Benveniste C. et al. (1990). Français parlé. Études grammaticales. Paris : CNRS. Bourdieu P., Chamboredon J.-C. & Passeron J.-C. (1968). Le Métier de sociologue. Paris : Mouton de Gruyter/Bordas. Bourdieu P. (1984). « Le marché linguistique », Questions de sociologie. Paris : Editions de Minuit. De Jong D. (1988). Sociolinguistic aspects of French Liaison, Academisch proefschrift. Amsterdam : Vrije Universiteit Amsterdam. Équipe DELIC (2004). Autour du Corpus de référence du français parlé (= Recherches sur le français parlé n° 18). Aix-Marseille : Publications de l'université de Provence. Encrevé P. (1976). « Présentation », in W. Labov, Sociolinguistique. Paris : Éditions de Minuit. Encrevé P. (1977). Linguistique et sociolinguistique. Langue française 34. Eshkol-Taravella I., Baude O., Maurel D., Hriba L., Dugua C. & Tellier I. (2012). « Un grand corpus oral "disponible" : le corpus d'Orléans 1968-2012 », Ressources linguistiques libres, Traitement automatique des langues 52/3 : 17-46. O. BAUDE, C. DUGUA Gadet F. (2007). La variation sociale en français. 2e édition. Paris : Ophrys. Habert B., Nazarenko A. & Salem A. (1997). Les Linguistiques de corpus. Paris : Armand Colin. Habert B. (2005). Instruments et ressources électroniques pour le français. Gap, Paris : Ophrys. Jacobson M. & Baude O. (2012). « Corpus de la parole : collecte, catalogage, conservation et diffusion des ressources orales sur le français et les langues de France », Ressources linguistiques libres, Traitement automatique des langues 52/3 : 47-69. Koch P. & Oesterreicher W. (2001). « Langage oral et langage écrit », in Lexicon der Romanistischen Linguistik, tome 12. Tübingen : Max Niemeyer, 584-627. Laks B. (2013). « Why is there variation instead of nothing », Language Sciences 39 : 31-53. Labov W. (1976). Sociolinguistique. Paris : Éditions de Minuit. Le Deuff O. (dir.) (2014). Le Temps des humanités digitales. Limoges : FYP éditions. Lonergan J., Kay J. & Ross J. (1974). Étude sociolinguistique sur Orléans, catalogue des enregistrements. Colchester : Multigraphié. MacWhinney B. (2000). The CHILDES Project : Tools for Analyzing Talk. 3rd Edition. Mahwah, NJ : Lawrence Erlbaum Associates. Mertens P. (2002). « Les corpus de français parlé ELICOP : consultation et exploitation », in J. Binon et al. (éd.) Tableaux vivants. Opstellen over taal-en-onderwijs aangeboden aan Mark Debrock. Leuven : Universitaire Pers. Mullineaux A. & Blanc M. (1982). « The problems of classifying the population sample in the socio-linguistic survey of Orléans (1969) in terms of socio-economic, social and educational categories », Review of Applied Linguistics 55 : 3-37.
{'path': '33/halshs.archives-ouvertes.fr-halshs-01679544-document.txt'}
Inscrire la production forestière dans le fonctionnement de l'écosystème M. Bruciamacchie To cite this version: M. Bruciamacchie. Inscrire la production forestière dans le fonctionnement de l'écosystème. Forêt Méditerranéenne, 2015, XXXVI (4), pp.393-396. hal-03556651 HAL Id: hal-03556651 https://hal.archives-ouvertes.fr/hal-03556651 Submitted on 4 Feb 2022 Concilier nature et systèmes productifs en forêt méditerranéenne Le regard du forestier Inscrire la production forestière dans le fonctionnement de l'écosystème par Max BRUCIAMACCHIE Quelle stratégie le forestier peut-il mettre en oeuvre pour concilier nature et forêt ? Max Bruciamacchie nous propose deux voies possibles : une première où les enjeux écologiques sont intégrés sous forme de contraintes, une autre qui vise à inscrire au maximum la production forestière dans les cycles naturels. Dans laquelle s'inscrit la forêt méditerranéenne, caractérisée par une faible productivité, une très grande biodiversité et où la multifonctionnalité est une réalité plus forte que dans d'autres régions ? forêt méditerranéenne Préambule La question de la compatibilité de la production forestière avec les autres fonctions (protection des biens et des personnes, des espèces et des milieux, demande sociale) n'est pas nouvelle. Elle renvoie à une question plus générale de la pertinence de la multifonctionnalité préconisée par la loi forestière de 2001, mais aussi auparavant par les instructions de notre ministère de tutelle (DERF, 1993). Bien que récurrente, la question reste d'actualité car les demandes évoluent, les contextes changent, des oppositions réapparaissent, et cela aussi bien en France qu'à l'étranger (SCHÜTZ, 2003). Les interrogations actuelles sur les changements globaux ou sur la satisfaction des besoins énergétiques, le besoin de réponses pour des contextes stationnels précis, obligent à vérifier continuellement que certains principes généraux ou stratégies restent valables. Les stratégies possibles Pour concilier nature et systèmes productifs en forêt, deux stratégies sont possibles. Dans la première, le lien entre production forestière et cycles naturels est localement faible, les différentes fonctions sont spatialisées : ici l'accueil du public constitue la fonction principale de la forêt, là c'est la protection de certaines espèces, ailleurs la production de bois. Cette stratégie est majoritaire à l'échelle de la planète. Elle conduit (ou peut conduire) à une artificialisation de plus en plus poussée des espaces forestiers : pour compenser les surfaces réservées aux autres fonctions, la forêt de production utilise de plus en plus d'intrants. La ligniculture t. XXXVI, n° 4, décembre 2015 393 Concilier nature et systèmes productifs en forêt méditerranéenne 1 - Notion utilisée par les phytosociologues (Cortes, 1985). 2 - La forte utilisation de la futaie régulière durant le XXe siècle en Allemagne avait conduit progressivement à une perte de résistance des peuplements, si bien qu'entre 1953 et 1962, dans les forêts publiques du Bade Wurtemberg, 61 à 96 % de la possibilité a été récoltée sous forme de chablis, bris de glace ou neige, et qu'en 1980 en Allemagne les produits accidentels ont dépassé très souvent la possibilité retenue. peut être considérée comme une forme extrême de cette stratégie. Elle repose sur l'amélioration génétique, les travaux préparatoires à la plantation, la mécanisation des entretiens et de l'exploitation, éventuellement la fertilisation et les traitements phytosanitaires. Cette recherche d'efficacité partielle dans chacune des étapes de la production est déjà présente dans les filières sciage ou pâte à papier mais est également en train de se développer dans celle du bois énergie. Dans cette première stratégie, les enjeux écologiques sont intégrés sous forme de contraintes (conservation d'arbres sur pied, de corridors le long des cours d'eau, de bois morts au sol, d'îlots de vieux bois, etc), la multifonctionnalité n'étant recherchée qu'à une échelle dépassant souvent très largement celle de la propriété. La seconde stratégie vise à inscrire au maximum la production forestière dans les cycles naturels. Elle s'inscrit dans le courant de pensée lié à la futaie irrégulière. Ce traitement sylvicole apparu au milieu du XIXe siècle en Allemagne cherche à minimiser les intrants par une utilisation aussi forte que possible de la dynamique naturelle, à produire en altérant le moins possible la naturalité (Cf. encadré) de l'écosystème forêt. Il oblige à intégrer dans les cycles de production les perturbations anthropiques ou biotiques : vents, parasites, variations du marché, etc. Cette démarche conduit à affecter une valeur à la fonctionnalité des sols, à Naturalité La conférence de Rio (1992) a consacré la notion de biodiversité mais lorsque l'on essaie de la quantifier, on va assez rapidement se poser la question de la naturalité des espèces, de la quantité d'habitats ou de micro-habitats naturellement présents dans un écosystème. La naturalité repose sur l'observation d'écosystèmes considérés en équilibre (naturalité biologique) ou bien qui évoluent naturellement vers un état d'équilibre (naturalité anthropique). La naturalité peut être représentée sous forme d'un gradient évoluant de l'artificialité vers un degré élevé de similitude avec un état « naturel » supposé. L'homme va modifier ces états pour répondre à une demande sociale ou économique et forcément diminuer la naturalité. S'intéresser à la naturalité conduit à évaluer chaque intervention en terme d'impacts sur le fonctionnement de l'écosystème. On glisse alors vers la notion de plasticité (parmi les différentes solutions techniques quelles sont celles qui, suite à une intervention, permettront de retrouver un certain niveau de naturalité ?) que l'on peut également décliner en résilience si les indicateurs sont plutôt écologiques, on réservera alors le terme de plasticité aux indicateurs plutôt économiques. Etudier la naturalité cela revient à mesurer les conséquences de chaque action et non pas à ne rien faire. La prise en compte de la naturalité dans la gestion ordinaire peut permettre de diminuer le nombre de réserves intégrales ou d'îlots de sénescence nécessaires pour assurer une bonne circulation des espèces. 394 attribuer une valeur microclimatique aux peuplements. Par sa présence un peuplement modifie le climat local (en particulier sous couvert forestier, réduction des écarts de température et augmentation de l'humidité relative) et permet de maîtriser la végétation concurrente. Les coupes rases réduisent à néant tout le travail de facilitation 1 réalisé par les tiges présentes dans des peuplements clairs. Cet inconvénient vient s'ajouter à ceux liés aux impacts paysagers, à l'acceptation sociale et aux inconvénients écologiques. Pour GAYER (1905), la sylviculture doit avant tout soigner l'écosystème forêt. Chaque arbre, ou chaque cépée, est un cas particulier dont il convient de valoriser les potentialités (producteur d'argent, éducateur, stabilisateur), d'améliorer la vitalité. C'est une sylviculture qui s'inspire du fonctionnement naturel de l'écosystème pour limiter les coûts de production, qui souhaite utiliser toutes les essences potentiellement présentes (prime aux essences minoritaires) pour diminuer les risques. Il est bon de rappeler qu'aux origines du traitement irrégulier, le besoin de connaissance sur le fonctionnement des écosystèmes forestiers se justifiait avant tout pour des raisons économiques (BRUCIAMACCHIE et al, 2005) 2. Principe de l'actualisation : le coût du temps En 1849 un forestier allemand, Faustmann, établit le principe de l'actualisation qui sert de base à tous les calculs économiques sur l'ensemble de notre planète. Selon ce principe, il n'est pas possible de comparer des flux financiers (y compris ceux exprimés en euros constants) qui interviendraient à des dates différentes, sauf à utiliser des coefficients intégrant ce fameux taux d'actualisation. En pratique, ce principe rend des dépenses ou une baisse des recettes sur le court terme très difficiles à compenser par des recettes ultérieures. Ainsi avec un taux d'actualisation de 3%, une dépense de 1000 € représentera 1 344 € au bout de 10 ans ou bien 19 219 € au bout de 100 ans. Réciproquement, avec un taux d'actualisation de 3%, une tranche de 1000 € d'investissement ne sera justifiée que si la recette escomptée au bout de 100 ans est de 19 219 €. Des concepts aux pratiques Les conséquences sont simples : – l'utilisation de la dynamique naturelle doit être favorisée car elle permet de limiter les dépenses ; – des dépenses peuvent être plus facilement justifiées lorsqu'elles entraînent une amélioration du capital producteur, or la gestion de la qualité permet d'améliorer beaucoup plus les recettes que l'augmentation de la production volume. Ainsi, sauf augmentation très forte du coût de l'énergie, et dès que les conditions de croissance le permettent, la production de bois énergie sera le plus souvent subordonnée à celle de bois d'oeuvre. – les pertes en capital (sacrifices d'exploitabilité, déficit d'éclaircies, tassement des sols, etc.) doivent être intégrées aux choix de gestion. Contexte méditerranéen : des différences mais aussi des similitudes Parmi les principes ou stratégies évoqués précédemment, la zone méditerranéenne ne peut pas échapper à celui de l'actualisation. En accord avec ce principe, la faible valeur des produits bois augmente le besoin de maîtriser les investissements. Hors subvention, il sera par conséquent très difficile de justifier une plantation en plein. La multifonctionnalité y est une réalité plus forte que dans d'autres régions : les propriétés foncières ont plus souvent une partie agricole et une partie forestière mais aussi des stades de transitions sous forme de prébois voire de trufficulture. La variabilité stationnelle intra-parcelle est souvent très forte et la problématique de la gestion des risques plus fréquente. Par ailleurs, les différences concernant le niveau de connaissance en sylviculture ou le dynamisme de la filière peuvent être plus ou moins fortes selon les étages de végétation. Les forêts du supraméditerranéen mais aussi du mésoméditerranéen supérieur, dès que le bilan hydrique n'est pas trop défavorable et les perturbations moins fréquentes, présentent de nombreuses similitudes avec les forêts sous d'autres climats. Les feuillus (principalement chêne pubescent et rouvre mais aussi chêne vert), sont principalement exploités sous forme de bois de chauffage. Des filières plus nobles de valorisation sont souvent à reconstruire. Les propriétaires ne sont pas forcément convaincus de l'intérêt qu'ils auraient à améliorer leur patrimoine en adoptant, lorsque les conditions de sols ne sont pas trop limitantes, une sylviculture autre que le taillis simple. Ces efforts de conviction, de construction ou de reconstruction de filière ne sont pas spécifiques à la région 4. Le décalage entre l'industriel qui est obligé de se spécialiser dans certains types de produits et le producteur forestier qui doit faire avec une production de qualité et d'essences différentes, oblige à surmonter des difficultés qui ne se limitent pas au contexte méditerranéen. L'étage du mésoméditerranéen inférieur soulèvent plus de questions. Les forêts présentes se caractérisent en moyenne par une faible à très faible productivité mais aussi une très grande variabilité des conditions de croissance au sein d'une même parcelle, une origine souvent récente, une faible part de l'accroissement récolté. La valeur microclimatique des peuplements y est encore plus forte : elle pousse à éviter des prélèvements trop forts. Or parmi les essences majoritairement présentes, le pin d'Alep mais aussi le chêne vert sont exploités principalement pour la filière pâte à papier et/ou celle de l'énergie. Le cas du pin d'Alep est très intéressant. Sa sylviculture historique consiste bien souvent en une simple récolte et au mieux en des éclaircies peu nombreuses suivies d'une coupe d'ensemencement ou directement d'une coupe définitive. Elle ne permet guère une amélioration qualitative des peuplements, une adaptation à la diversité stationnelle intra-parcellaire. Sur les meilleures stations le pin d'Alep peut être considéré comme un outil de facilitation pour l'installation d'essences feuillus post-pionnières, mais il peut également être, dans le cas d'individus de meilleure qualité, essence principale avec comme finalité la volonté d'augmenter la proportion de grumes dans le volume commercialisé. Les tentatives actuelles de réhabiliter le pin d'Alep comme bois d'oeuvre vont dans ce sens. 4 - D'autres régions cherchent également à mieux valoriser leur ressource. C'est le cas par exemple des piedmonts de Belledonne où des associations ou des syndicats de propriétaires cherchent à modifier la sylviculture de type minier du châtaignier. La problématique du hêtre à coeur rouge dans le quart-nordest est un autre exemple d'une importance spatiale, économique et écologique beaucoup plus grande. La nouvelle charte du PNR des Vosges du Nord (http://www.blog.parcvosges-nord.fr) essaie d'y répondre autrement que par une forte diminution des diamètres d'exploitabilité et par une plus grande utilisation en bois de feu. Conclusion Les écosystèmes forestiers méditerranéens se caractérisent par une très grande biodiversité, par une ressource bois actuellement peu exploitée et, lorsque c'est le cas, pour 395 Concilier nature et systèmes productifs en forêt méditerranéenne Max BRUCIAMACCHIE Professeur d'aménagement forestier AgroParisTech ENGREF Département SESG 14, rue Girardet 54042 NANCY Cedex max.bruciamacchie@ agroparistech.fr une production de masse peu valorisante pour le propriétaire. Cette situation peut sembler compatible avec la première stratégie évoquée ci-dessus : un ensemble d'îlots de vieux bois avec des statuts de protection plus ou moins forts, une faible part de la surface exploitée principalement sous forme de taillis simple, le reste en hors sylviculture. L'arrivée de très gros acteurs de l'énergie risque d'accentuer les inconvénients de cette stratégie en particulier l'acceptation sociale et les impacts écologiques en plus des inconvénients liés à la spatialisation. La seconde stratégie n'est actuellement que très peu mise en oeuvre. Elle permettrait de valoriser la forte variabilité de stations et de peuplements qui rendent illusoire toute recherche d'homogénéisation de la production. Plutôt que d'aller vers une massification de la récolte par le biais d'une augmentation des surfaces coupées à blanc, elle peut conduire à des prélèvements au moins aussi importants tout en améliorant le capital producteur. Elle est conditionnée par la mise en place de marchés qui au moins au départ seront de niche. Enfin, aussi bien en terme de coûts publics que privés, les transformations d'essence comme moyen de faire face aux changements climatiques, déjà peu justifiables dans d'autres régions, le sont encore moins dans le contexte méditerranéen. M.B. Bibliographie M. Bruciamacchie et B. d. Turckheim : La futaie irrégulière : Théorie et pratique de la sylviculture irrégulière, continue et proche de la nature. Edisud, 2005. C. Cortes : Etude comparative de la stratégie de développement de deux espèces recolonisatrices des landes Agrostis curtisii Kerguelen et Molinia coerula Moench. Thèse de doctorat, université de Rennes I, 1985. DERF : note du 28/01/93. Rap. tech., Ministère de l'Agriculture, 1993. K. Gayer : Sylviculture. 1905. J.-P. Schütz : Quo vadis multifonctionnalité ? ou réaction au rapport galileo : notre politique forestière est-elle en train de perdre les pédales ? Journal Forestier Suisse, 154:143–148, 2003. Résumé La question de la compatibilité de la fonction économique avec les autres reste d'actualité. Pour y répondre deux stratégies sont possibles. La première revient à spécialiser l'espace : en zone méditerranéenne se pourrait être 10% de la surface sous forme d'îlots de vieux bois, quelques dizaines de pourcentage exploités principalement sous forme de taillis simple, le reste en hors sylviculture. L'arrivée de très gros acteurs de l'énergie risque d'accentuer les inconvénients de cette stratégie. La seconde cherche à inscrire au maximum la production forestière dans les cycles naturels afin de valoriser la forte variabilité de stations et de peuplements. Elle est conditionnée par la mise en place de marchés qui, au moins au départ, seront de niche. Summary Integrating forestry production into the functioning of an ecosystem The compatibility of a forest's economic function with its other roles continues to be a current issue. By way of response, two strategies have emerged. The first involves making areas specialized: in the Mediterranean region, this might mean devoting 10% of total area to isolated patches of old trees, a few tens of percent given over to simple coppicing, the remainder with no silvicultural management. The arrival of very big stakeholders from the energy sector is likely to worsen the drawbacks of this strategy. The second strategy seeks to integrate the cycles of wood production as much as possible into the natural cycles so as to get the greatest advantage out of the variability existing between one site or stand and another. This second strategy is dependent on building markets which, at least in the beginning, are bound to be niches. 396 forêt méditerranéenne t. XXXVI, n° 4, décembre 2015
{'path': '04/hal.archives-ouvertes.fr-hal-03556651-document.txt'}
ECOLE DE SAGES-FEMMES UFR de médecine et des sciences de la santé BREST MEMOIRE DE FIN D'ETUDES ANNEE 2015-2016 Le toucher soignant dans l'accompagnement à l'allaitement maternel en maternité : vécu des mères allaitantes et alternatives Etude qualitative auprès de 9 mères allaitantes au CHRU de Brest du 1er août 2015 au 31 janvier 2016 Présenté et soutenu par : Elodie MORLIER Née le 08 mars 1981 Directeur de mémoire : Docteur GREMMO-FEGER REMERCIEMENTS Je remercie tout particulièrement : Le Docteur GREMMO-FEGER, expert de ce mémoire, pour sa confiance, son soutien et le partage de son savoir. Madame JUBIL, guidante et conseillère méthodologique de ce travail, mais aussi l'ensemble de l'équipe enseignante de l'école de Sages-Femmes de Brest, pour leur soutien, leurs conseils, l'écoute et la disponibilité qu'elles ont toutes su m'apporter au cours de ces dernières années. Les mères qui ont accepté de prendre le temps de témoigner. Mes amies, Emilie, Camille et Manon, pour avoir écouté et compris mes difficultés, pour avoir été là, tout simplement, à chaque instant. Mes enfants, Lou et Lily, à l'origine de ma vocation de sage-femme, sans qui je ne serais pas là aujourd'hui. ENGAGEMENT DE NON PLAGIAT Je soussignée Elodie MORLIER assure avoir pris connaissance de la charte anti-plagiat de l'Université de Bretagne Occidentale. Je déclare être pleinement consciente que le plagiat total ou partiel de documents publiés sous différentes formes, y compris sur internet, constitue une violation des droits d'auteur ainsi qu'une fraude caractérisée. Je m'engage à citer toutes les sources que j'ai utilisées pour rédiger ce travail. Signature : 2 SOMMAIRE I. INTRODUCTION 4 II. MATERIEL ET METHODES 5 1. ETUDE 5 2. POPULATION 5 3. OUTILS 6 III. RESULTATS 7 1. PRESENTATION DE LA POPULATION 7 2. ANALYSE DES ENTRETIENS 7 Indifférence ou corps-objet ? 7 Un apprentissage nécessaire et une aide à la prise en charge des difficultés 9 Informations et alternatives 12 IV. DISCUSSION 14 Indifférence ou corps-objet ? 14 Un apprentissage nécessaire et une aide à la prise en charge des difficultés 15 Informations et alternatives 17 V. CONCLUSION 19 BIBLIOGRAPHIE21 ANNEXE : GUIDE D'ENTRETIEN24 3 I. INTRODUCTION L'allaitement maternel (AM) est le mode d'alimentation le mieux adapté pour la croissance et le développement du nourrisson (1), il diminue de façon significative le risque de contracter une infection gastro-intestinale, respiratoire ou ORL (2,3,4), de même que le risque de mort subite du nourrisson (5). A plus long terme, il joue aussi un rôle dans la prévention de l'obésité et du diabète chez l'enfant (6,7,8). Il apporte également des bénéfices pour les mères tels que la diminution des cancers du sein (9) et de l'ovaire (10), ainsi que le risque de développer de l'hypertension artérielle (11) et du diabète (12). Ainsi, l'OMS recommande d'allaiter exclusivement les nourrissons jusqu'à 6 mois, et de poursuivre au-delà de la diversification, c'est-à-dire jusqu'à deux ans, voire plus (13). En France, le Programme national Nutrition Santé (PNNS) fait les mêmes recommandations (14). Malgré cela, l'enquête de périnatalité de 2010 montre que les taux d'initiation à l'allaitement en France sont les plus bas d'Europe, soit 69% (15, 16, 17). L'étude Epifane publiée en 2014 montre des taux d'initiation légèrement supérieurs, soit 74%, avec une durée médiane de 15 semaines. A 3 mois, seuls 40% des enfants sont encore allaités, et à 6 mois, ce taux baisse à 25% (18). Ces faibles taux sont expliqués par plusieurs raisons. D'abord, de nombreuses mères ne souhaitent pas d'emblée allaiter et expliquent leur choix par des raisons multiples : représentations culturelles, représentation du corps, douleur, fatigue, reprise du travail, place du père, accès à des préparations lactées de qualité satisfaisante pour la santé des nourrissons, (19, 20, 21). Ensuite, pour celles qui choisissent l'AM, les obstacles sont nombreux : douleur, fatigue, perception d'une insuffisance de production lactée, bébé qui a du mal à téter, critiques de l'entourage(22). Les jeunes mères sont particulièrement sensibles, bouleversées émotionnellement par la grossesse, la naissance et les besoins du nouveau-né, ce qui explique que les paroles des soignants soient perçues, malgré eux, aussi bien comme soutenantes, que comme culpabilisantes (23). Les conseils donnés sont souvent contradictoires, ce qui remet en cause la crédibilité des soignants, et la confiance capacité des mères dans leur capacité à allaiter (24). 4 L'apprentissage actuel de l'allaitement en maternité s'est développé autour du toucher par les professionnels, ou « hands-on approach », pour pallier aux effets sédatifs des antalgiques utilisés lors de l'accouchement. En effet, les mères et leur nouveau-nés étaient perçus comme incapables d'initier l'allaitement par eux-mêmes et nécessitant une intervention manuelle de professionnels « experts » pour « attacher » le bébé au sein (25). Les études sur le vécu des mères du toucher par le personnel soignant lors des premières « mises au sein » sont peu nombreuses mais tendent à montrer que ces dernières sont perçues de manière négative (26,27). L'objectif principal de cette étude est d'évaluer la perception par un échantillon de mères du toucher par les soignants lors de l'accompagnement à l'allaitement maternel en salle de naissance et à la maternité. Les objectifs secondaires sont d'une part d'évaluer les connaissances des mères sur le toucher dans la relation soignant-soigné en amont de l'accouchement, et d'autre part d'évaluer la nécessité d'une modification et de l'information donnée lors de la grossesse, et de la prise en charge dans les premiers jours du post-partum. II. MATERIEL ET METHODES 1. Etude Une étude qualitative a été menée par le biais d'entretiens semi-directifs du 3 au 9 août 2015 et du 25 au 27 janvier 2016 au CHRU de Brest, maternité de niveau III, non labellisée Initiative Hôpital Ami des Bébés (IHAB) mais mettant en oeuvre les recommandations pratiques à la base de cette démarche (28). 2. Population Critères d'inclusion Mères allaitantes, parlant et comprenant le français, de singletons nés à terme et en bonne santé. Recrutement Le recrutement a eu lieu en maternité du 3 au 9 août 2015, et du 25 au 27 janvier 2016 auprès de patientes à J2 minimum du post-partum, pour permettre une réponse avec un minimum de recul nécessaire par rapport au nombre d'intervention des professionnels. 5 Toutes les patientes répondant aux critères d'inclusion ont été sollicitées et ont répondu favorablement mais, pour des raisons de faisabilité, seules 9 ont pu être interrogées. 3. Outils Au préalable, un recueil de données personnelles a été effectué à l'aide du dossier de chaque patiente. Après explications données aux patientes sur les conditions d'entretien et obtention de leur accord, les propos échangés ont été enregistrés et retranscrits littéralement de façon anonyme. Cinq thèmes ont été abordés, via un guide d'entretien (en annexe) : - Perception émotionnelle et morale du toucher dans la relation soignant-soigné - Perception physique du toucher dans la relation soignant-soigné - Vécu et prise en charge par le toucher lors des difficultés d'allaitement - Connaissance des femmes antérieures à l'accouchement à propos du toucher dans la relation soignant-soigné - Souhaits rétrospectifs et futurs 6 III. RESULTATS 1. Présentation de la population Age Statut civil Madame A. 34 Mariée Madame B. 36 En couple Madame C. 41 Mariée Madame D. 37 Pacsée Métier Employée agricole Chargée de projet Aidesoignante Travailleur social Madame E. 29 En couple Madame F. 28 En couple Technicienne Durée des Voie Gestité Nb d'AM Durée précédents d'accouche Parité précédents entretien AM ment 2 mois 1/2 BEP/CAP Roumaine G5/P3 2 Césarienne 8 min 12 mois et + AVB BAC+5 Française G4/P1 0 0 24 min spatules Française CAP G3P1 0 0 Césarienne 14 min Algérienne AVB BAC Française G1P1 0 0 16 min ventouse IDE Niveau d'étude Origine Culture BAC+3 Française G2P2 1 15 jours AVB 12 min BAC+3 Française G1P1 0 0 AVB ventouse spatules 17 min Madame G. 25 En couple Etudiante master BAC+4 Française Maoraise G2P2 1 8 mois AVB 6 min Madame H. 30 En couple IDE BAC+3 Française G1P1 0 0 AVB 14 min Madame I. En couple Serveuse BEP/CAP Française G1P1 0 0 AVB 16 min 33 2. Analyse des entretiens Les mots-clés, expressions ou idées communes aux entretiens ont permis d'organiser les résultats en trois thèmes d'étude : - Indifférence ou corps-objet ? - Un apprentissage nécessaire et une aide à la prise en charge des difficultés - Informations et alternatives Les dénominations « personnel soignant » et « professionnels » incluent indifféremment les sages-femmes ou les auxiliaires de puériculture, sauf si spécification précise. Indifférence ou corps-objet ? Le toucher par le soignant lors de l'accompagnement à l'allaitement maternel est perçu différemment par les mères, que ce soit au niveau émotionnel ou physique. Deux d'entre elles n'ont pas porté de considération à leurs ressentis : « J'ai pas fait attention », « Rien de spécial », « Ça ne m'a rien fait du tout ». Elles répondent laconiquement aux questions et montrent une apparente indifférence. 7 Les sept autres disent être globalement satisfaites de l'accompagnement par le toucher mais cinq d'entre elles évoquent un état d'esprit particulier propre à la maternité. Ainsi, Madame B. est mitigée : « J'ai trouvé ça plutôt pas mal » « C'est jamais super non plus de se faire presser le téton ». Elle fait le lien avec la fonction sexualisée du sein : « C'est pas une sensation commune, on se fait assez rarement peloter les seins comme ça » tout en la distinguant nettement de sa fonction nourricière prédominante les premiers jours suivant l'accouchement : « C'est différent de la vie de tous les jours [] où on pose une main sur vous, ça peut être pris comme quelque chose qui vient dans la sphère privée, [] c'est plus les mêmes règles qui s'appliquent ». Elle explique ce clivage par un changement de son mode de pensée : « On est tellement en mode accueil du bébé », « On se met en mode maternité », « Je pense qu'on fait sans même s'en rendre compte ». Madame C. fait le parallèle avec l'accouchement et son obligation à faire abstraction du toucher par les professionnels : « Pendant toute la durée du travail, ils ont pas arrêté, donc après finalement, on se laisse aller, [] on s'abandonne », « Toutes les heures, toutes les demi-heures, toucher vaginal pour savoir où en était le travail, donc au bout d'un moment, on n'y prête plus attention, on laisse tomber cette pudeur qu'on peut avoir [] donc moi j'ai pas pris en compte cette dimension du toucher, la place qu'elle pouvait avoir, ou si elle pouvait me déranger ou pas, puisque c'était à bon escient ». S'y ajoute le sentiment d'avoir une obligation comportementale de « bon patient » par rapport à la sphère médicale : « On est dans un CHU, à l'hôpital, on est obligé de toucher pour voir où ça en est ». Madame D. se dit « plutôt très satisfaite » de sa prise en charge en faisant le même constat que Madame B. et Madame C. : « Ça m'a pas gênée du tout, du tout. Bon, c'est vrai qu'après c'est peut-être suite à l'accouchement [] où au niveau pudeur en fait y a plus rien, y a plus de filtre, [] on se dit que c'est logique puisqu'il faut donner à manger à son enfant. », « Je suis quelqu'un de très pudique à la base et j'aime pas qu'on me touche, et là ça me dérange pas du tout, je pense que c'est pour mon enfant, [] si on le faisait pas, je pense qu'on n'y arriverait peut-être pas non plus ». Elle fait la distinction entre la parenthèse de la maternité et « l'après » : « Après, peut-être que dans un mois ça me gênerait qu'on vienne me retoucher la poitrine pour me ré-expliquer», « C'est vraiment au niveau de la naissance », « Même dans un mois [] j'aurais plus de mal à ce qu'on me touche la poitrine je pense que maintenant », « C'est terminé en fait le côté accouchement. Après c'est autre chose. Si par exemple j'étais en difficulté, qu'on me remontre, j'aurais plus de mal, ça me toucherait plus, alors que là c'est vraiment à part », « J'aurais pas le même affect [] ce serait très différent je pense ». 8 Madame F. s'est sentie aidée à se servir du sein comme un outil à fonction physiologique nourricière : « Je suis pas quelqu'un de pudique, ça me dérange pas qu'on me touche, [] je voyais plus une aide, et en fait j'étais plus du tout dans le rapport que les seins peuvent avoir en rapport avec la séduction, [] je le voyais plus comme une autre partie de mon corps, un bras, une cuisse, c'était là pour aider mon bébé ». Madame I. dit que ça ne lui fait rien et se met à distance d'elle-même et de ses ressentis : « C'est normal », « C'est médical », « Faut le faire », « C'est plus pour bébé que c'est important, pour moi c'est rien tout ça ». Au niveau physique, l'une des mères s'est dite plus surprise par la sensation tactile de son bébé sur le sein que par le toucher du personnel soignant : « C'est plus le bébé en fait, quand il touche la poitrine, que ça nous fait une drôle de sensation ». La douleur en a gêné une autre, mais pas le fait qu'on utilise le toucher : « Y a eu quelques fois où, dans le but d'aider la tétée, c'était peut-être un peu plus violent, [], j'étais mal à l'aise parce que ça me faisait mal, mais jamais je me suis sentie un peu malmenée, ou quelque chose où j'aurais vraiment été pas du tout à l'aise », « C'est le fait de presser le sein », « Je me crispais, et j'étais moins à l'aise ». Un apprentissage nécessaire et une aide à la prise en charge des difficultés Les deux mères semblant indifférentes au toucher sont les seules qui n'ont rencontré aucune difficulté pour allaiter. L'une d'elle souligne tout de même : « J'accepte les gestes [] pour mieux soigner ou bien mieux aider, [] pour apprendre ». Pour les sept autres mères, l'initiation à l'allaitement semble plus complexe. Elles évoquent toutes leur manque d'expérience et la nécessité d'un apprentissage à l'allaitement pour répondre aux besoins de leur nouveau-né. Cette dépendance au corps médical est dans l'ensemble bien acceptée car l'aide apportée par les soignants est multiple, bénéfique, et le consentement systématiquement demandé. Ainsi, Madame B. avait conscience des possibles difficultés de démarrage de l'allaitement abordées en cours de préparation à la naissance : « Il faut que les seins le veuillent bien, il faut que la maman ça aille bien, il faut que le bébé aussi tète bien, c'est une certaine alchimie à trouver », elle manque de modèle : « J'ai personne autour de moi qui a déjà allaité et qui peut me guider ». En l'absence d'expérience, et face aux difficultés rencontrées, elle accepte l'intrusion des soignants dans sa sphère intime : « On a bien conscience qu'on est en 9 apprentissage et qu'il faut en passer par là ». Elle souligne cependant l'approche respectueuse des professionnels par leurs demandes d'autorisation systématiques avant chaque toucher : « Ce qui m'a marquée, c'est qu'on m'a toujours, toujours demandé si j'étais OK ». Elle apprécie la disponibilité, la proximité, le soutien et les encouragements du personnel soignant. Elle perçoit le toucher « comme un exercice pratique » et marque là encore la dissociation entre le corps et l'esprit : « C'était presque plus mes seins, on se met en mode travaux dirigés ». Madame C. a un retard de montée laiteuse. Elle exprime des sentiments d'obligation de faire abstraction de ses besoins propres, d'assumer ses choix, et d'accepter un incontournable apprentissage par le toucher : « On est obligé, on a choisi, il faut être guidé », pour le bien de son enfant : « C'est désarmant parce qu'on a envie de nourrir son enfant et on a aucune solution [] c'est désolant au plus profond de soi ». Le toucher lui semble indissociable de l'écoute et du soutien apporté par l'équipe : le personnel a répondu par « les massages, les appuis, la position », ce qui lui a permis de « pouvoir reproduire les gestes avec la même énergie, la même force, en appuyant, ou en guidant, ou en tenant, ou en dirigeant l'enfant », ce qu'elle a trouvé positif. Elle complète : « Ça m'a presque soulagée parce qu'elles avaient les mains froides ». Elle s'est sentie « rassurée, guidée », « accompagnée », « écoutée ». Madame D. met également l'accent sur l'apprentissage nécessaire de l'allaitement : « C'est vraiment dans le but de nous montrer, de nous apprendre », « Je trouve que c'était bien amené et ça m'a pas dérangée du tout, au contraire » et la douleur est telle lors des tétées qu'elle encourage le personnel à l'aider par le toucher : « J'étais en difficulté donc ouais c'était : allezy, touchez ! ». Elle pense en retirer un bénéfice immédiat : « C'est vraiment un accompagnement, qui efface les difficultés ». Cependant, pour elle, la demande systématique d'accès à sa poitrine par les professionnels ne lui semble pas nécessaire : « C'est tellement logique quand on est dans une démarche d'apprentissage », « C'est même logique qu'ils le fassent sans me demander puisque j'ai déjà dit oui une première fois », même si elle admet qu'on « pourrait s'offusquer » de ne pas le faire. Madame E. dit également s'être adaptée à un apprentissage obligatoire : « Je me suis dit que ça faisait partie du processus parce que nous on est un peu novice, on sait pas trop comment il faut faire ». Elle fait part de la douleur provoquée lors de l'initiation à l'allaitement : « C'est surtout quand le bébé prend le sein et qu'il commence à téter, c'est assez douloureux, ça m'amène des décharges électriques ». Cette douleur, exacerbée par la fatigue, la fait balancer entre découragement et volonté de poursuivre : « C'est pas évident avec la fatigue après l'accouchement, on a l'impression qu'on va pas y arriver, [] on essaie de s'accrocher, [] j'ai de la chance parce que mon bébé il est assez efficace au niveau de la succion, c'est 10 juste moi, un travail à faire sur moi, sur accepter que ça fasse un petit peu mal ». Ainsi, le personnel lui a montré comment il fallait qu'elle « pince un petit peu le sein » pour aider son bébé à bien l'attraper et lui a conseillé les téterelles. Pour madame F. « l'accroche au sein ne se fait pas », son bébé « n'arrive pas à téter » et finit par perdre patience : « C'est un peu un cercle vicieux, moi je me crispe aussi parce que j'arrive pas à bien le positionner, lui il s'énerve, il bat des pieds, des bras, et la tête dans tous les sens, et du coup ça n'avance pas ». Le personnel a tenté plusieurs approches par le toucher, telles que l'expression manuelle : « Déjà bien positionner, ensuite approcher la tête, approcher le sein, presser le sein essayer de faire sortir un peu de colostrum, pour stimuler l'odorat du bébé ». Les bouts de sein lui ont été proposés, puis le dispositif d'aide à l'allaitement (DAL) au sein, sans succès. Son bébé est finalement allaité avec le DAL au doigt, et Madame F. tire son lait malgré ses réticences initiales : « Avant d'allaiter, avant d'être enceinte, j'étais pas spécialement pro-allaitement, [] les tire-laits ça me paraissait complètement industriel, enfin ça me faisait penser à l'industrie agro-alimentaire, du coup je me disais : « Oh la la, je me vois vraiment pas faire ça ! » ; et puis au final, en essayant, je me suis dit : « Oh bin si, au final, c'est pas mal ! », enfin ça permet quand même d'avoir le bénéfice du lait maternel sans l'énervement qu'on peut avoir quand ça marche pas ». Madame H. évoque le fait qu'elle soit novice, la douleur, l'attente de la montée de lait, le fait d'être responsable à part entière de la prise ou de la perte de poids de son enfant, et la frustration qui en résulte. L'aide apportée par le personnel lui a été bénéfique, que ce soit au niveau moral : « Elles ont été formidables, que ce soit la nuit, le jour, [] elles sont douces, elles prennent le temps de conseiller » ou physique : « Elles m'ont montré en appuyant sur le sein que justement mon bébé déglutissait beaucoup mieux et que ça stimulait (la lactation) », et pour elle aussi « certaines ont les mains froides et (elle) doit avouer que ça fait du bien sur le sein ! ». Le toucher soignant représente à ses yeux « une aide et un apprentissage » à partir du moment où elle a « donné (son) consentement ». Elle souligne en effet : « A chaque fois qu'on a dû me toucher la poitrine, le personnel m'a toujours demandé l'autorisation avant [] et le fait qu'ils le fassent, naturellement, ça m'a mis à l'aise parce que je donnais mon aval, et du coup ça s'est bien passé [] j'ai vraiment pris ça comme une aide, et pas comme une invasion ou une violation de mon corps ». Elle insiste fortement sur l'importance et la légitimité de cette demande systématique des professionnels : « Le fait que la personne demande, ouais c'est important, parce que c'est une zone quand mêmeintime ». Madame I. a « les tétons un petit peu trop petits ou trop raccourcis », et un bébé qui se fatigue vite au sein. Elle a enchaîné les téterelles, puis le DAL. Le personnel lui fait de l'expression 11 manuelle, ce qui, « comme (elle est) un peu sensible, reste un peu gênant » mais lui permet d'apprendre. Elle se sent soutenue par le corps médical, mais, elle, est gênée par les mains froides de certaines intervenantes. Informations et alternatives Avant l'accouchement, aucune des mères interrogées n'a bénéficié d'information concernant le toucher que pourrait être amené à pratiquer le personnel pour les accompagner dans leur allaitement, qu'elles aient ou non assisté à des cours de préparation à la parentalité. Leurs avis divergent sur l'utilité d'une telle information. Ainsi, Madame B. ne voit pas l'intérêt d'aborder ce sujet lors de telles séances : « Pour moi, on arrive dans une bulle [], c'est un truc un peu à part, ça m'a pas choquée ». De même que Madame H. pour qui l'essentiel est qu'au « moment où elles viennent nous aider, elles demandent le consentement, tout simplement », « pour moi c'est quelque chose de pratique, sur le terrain ». Pour Madame I. « ça parait logique » de ne pas recevoir d'informations en amont, « ça fait partie d'un tout, d'un accouchement, ça va avec ». Alors que Madame D. dit à plusieurs reprises n'avoir pas été « dérangée » ni « gênée » par l'accompagnement tactile en maternité, et même avoir trouvé cela « indispensable pour l'apprentissage », elle pense qu'avoir reçu cette information en amont aurait pu la décourager d'essayer, car elle s'attendait déjà à devoir subir un certain nombre d'actes agressifs autour de l'accouchement : « Ça m'aurait peut-être refroidie de le savoir enfin après j'avais vraiment envie d'allaiter donc je l'aurais quand même fait de toutes façons, mais ça m'aurait peut-être un petit peu à l'avance gênée, en me disant : « Ça suffit pas que ce soit le bas, même dans les seins, on a l'impression à un moment de la grossesse que notre corps nous appartient plus, que c'est juste un un nidon sait qu'il y a l'utérus, qu'il y aura l'épisio sans doute, [], si en plus on se dit : « On va nous attaquer les seins aussi ! », ça commence à faire beaucoup ! Alors que ça semble logique en même temps mais on s'y fait progressivement au cours de la grossesse, on a pas besoin de rajouter autre chose ». Madame F. quant à elle juge que « ça aurait pu être pas mal de le dire » en séance de préparation ou lors de l'entretien individuel précoce, car elle pense que pour « certaines personnes, ça peut peut-être être compliqué ». Comme Madame D., même si lors de son séjour elle n'a « pas du tout trouvé (le toucher) intrusif », elle suppose qu'il pourrait être pris 12 comme une agression, ou du moins quelque chose de désagréable à subir, et que l'absence d'information à ce sujet en amont de l'accouchement serait intentionnelle : « C'est peut-être pour pas décourager les gens non plus ». Aucune des mères interrogées ne semble non plus connaître d'alternatives au toucher dans l'accompagnement à l'initiation de l'allaitement. Madame D. est « persuadée que le toucher est indispensable » car « on voit comment la sagefemme ou l'auxiliaire touche le sein donc après on refait de la même façon, [] on visualise, on intègre au fur et à mesure » ; elle ajoute : « Elles m'auraient expliqué sans me toucher, j'aurais pas réussi à le faire », « y aurait pas eu le toucher, je pense que j'aurais peut-être lâché l'affaire ». Tout comme Madame F., Madame C. ne « connait pas d'autres façons d'apprendre que le toucher » : « pour tout on est obligé de toucher, de manipuler pour pouvoir apprendre », « une lecture, des fascicules » ne lui auraient pas permis d'appréhender toutes les dimensions « d'énergie, [] de force, de pression qu'on peut avoir pour faire sortir le lait ». Madame H. dit également sa satisfaction d'avoir été bien guidée, réconfortée, encouragée, et argumente en faveur de l'apprentissage tactile : « C'est important, de toutes façons, dans le domaine médical ou paramédical, le toucher, pour moi ça fait partie du métier ». Madame I. exprime également la nécessité d'un apprentissage tactile car elle n'en connaît pas d'autres. Elle déplore simplement les conseils contradictoires des différents membres du personnel : « Tout le monde a pas la même façon de faire non plus, des fois c'est un petit peu déstabilisant parce qu'on pense bien faire, et puis vous avez une autre sage-femme qui dit : « Ah non, non, faut faire comme ça », [] on me disait qu'il fallait tout le temps que je mette mon doigt (sur le sein) pour que bébé respire, la fois d'après on me dit non », mais elle conclut : « Après chacun a ses petites méthodes aussi, puis on prend ce qui est bon, enfin ce qui nous convient à nous et à bébé ». Madame E. dit que l'apprentissage « s'est fait assez naturellement » mais « trouve quand même qu'(elle) est un petit peu livré(e) à (elle)-même ». En fait, elle « n'ose pas appeler », a « peur de déranger », se dit « qu'il faut qu'(elle) y arrive toute seule ». Madame B. se souvient : « La sage-femme nous racontait l'histoire, pendant un cours (de préparation à la naissance), d'une femelle gorille, dans un zoo [] comme quoi il a fallu quand 13 même montrer à cette petite femelle gorille comment on allaitait », et elle convient qu'on « a tous besoin d'un modèle, de mimer [] pour apprendre », mais sans faire le lien avec le fait que cette femelle gorille n'ait pas été touchée mais avait pu apprendre à allaiter simplement en observant une autre mère, humaine, allaiter (29). Elle exprime également sa satisfaction mais déplore le changement fréquent d'interlocuteur. De plus, elle compare son séjour à une « bulle », et constate que se décentrer de ses difficultés peut être bénéfique : « Là je suis sortie pour la première fois depuis deux jours de la chambre. Ouah ! Y a un monde à l'extérieur, j'avais oublié ! » « Le simple fait de descendre, de prendre l'air deux secondes [] ça m'a fait du bien ! [] c'était plus détendu », cela lui a permis de prendre du recul, « de voir le reste qui continue à tourner ». Elle suggère : « Peut-être que d'autres rencontres, avec d'autres qui mamans qui galèrent aussi, ça pourrait être intéressant ». IV. DISCUSSION Indifférence ou corps-objet ? Dans une étude publiée en 2015 par Suvilehto et al. (30), 1368 participants Européens ont été invités à indiquer les parties de leur corps dont ils permettaient l'accès au toucher que ce soit à leur partenaire, à leurs amis, aux membres de leur famille, ou à des étrangers. Ceci a permis d'établir une cartographie du corps humain corrélant les zones du corps accessibles au toucher d'une part, à la relation émotionnelle existant entre les participants et les membres de leur réseau social d'autre part. Comme l'étude le présumait, plus les membres du réseau social sont proches émotionnellement, plus le toucher est perçu comme plaisant, et plus les membres du réseau sont autorisés à avoir accès à une large partie du corps humain. Ainsi, seul le partenaire sexuel peut toucher l'ensemble du corps, incluant les zones génitales, dites zones « taboues », tandis qu'un étranger ne sera autorisé qu'à toucher les mains. Ainsi, on s'attend à ce que le toucher des soignants, qui sont étrangers aux mères, soit rejeté par ces dernières, ou considéré comme déplaisant, comme ce qui a été montré chez les mères allaitantes suédoises via deux études : l'une qualitative, menée par Weimers et al. en 2001 (26), et l'autre quantitative, menée par Cato et al. en 2014 (27). Ceci entre en contradiction avec les réponses collectées en entretien. En effet, deux mères disent n'avoir rien ressenti, ni physiquement, ni émotionnellement. Peut-être ressentent-elles réellement de l'indifférence face au toucher. Mais on peut aussi légitimement se demander s'il existe un biais lié à la façon dont est conduit l'entretien, s'il existe de la réserve, de la défense, 14 un problème d'expression, un manque de confiance ou une passivité par rapport au monde médical. De même d'autres biais sont envisageables tels qu'une préoccupation autre, une réponse éducationnelle ou culturelle (l'une des mères est Roumaine, l'autre originaire de Mayotte), le fait qu'elles aient déjà mené avec succès des allaitements longs (supérieurs à 6 mois) et qu'elles aient peut-être une aisance leur permettant de ne pas connaître de difficulté d'initiation à l'allaitement et de moins solliciter le personnel. Peut-être cette apparente indifférence rejoint-elle le processus de mise à distance du corps, de dissociation du corps et de l'esprit évoqué plus ou moins consciemment par les sept autres mères. Ce processus, qui va plus loin que la simple opposition entre fonction sexualisée et fonction nourricière du sein maternel, est décrit par Winnicott (31) comme la « préoccupation maternelle primaire », c'est-à-dire un état psychique transitoire « schizoïde au cours duquel un des aspects de la personnalité prend temporairement le dessus », permettant ainsi à la mère de faire abstraction de ses besoins et de ses affects pour adapter son comportement aux besoins de son nouveau-né. Cette « maladie normale », ce conditionnement biologique et psychologique, débuterait dès la fin de grossesse pour permettre à l'établissement du « moi » du bébé de reposer sur un « sentiment continu d'exister » suffisant, en d'autres termes pour permettre la survie et le bon développement d'un nouvel être totalement dépendant. Cette « fugue » psychique régresserait ensuite dans les premières semaines du post-partum pour permettre à l'enfant l'accès à l'autonomie via la frustration. On peut se demander si ce clivage est amorcé par la femme elle-même ou s'il pourrait l'être par le corps médical, car l'une des mères semble avoir lutté pour repousser cette échéance de l'intrusion du toucher dans sa sphère intime, en amont de l'allaitement maternel, avant d'abandonner, et de finalement ne même plus s'autoriser à percevoir, à sentir le toucher. On peut également s'interroger sur le début exact de ce processus, et jusqu'à quand il se produit. Ainsi, les entretiens auraient peutêtre produit des réponses différentes à quelques semaines ou quelques mois de distance de l'accouchement. C'est d'ailleurs un point qui diffère vis-à-vis des études de Weimers et de Cato car ces dernières ont été menées respectivement durant les six premiers mois du postpartum, et à six mois du post-partum, même si Weimers souligne également cette perception du corps par les mères allaitantes, et plus précisément des seins, comme des objets. Un apprentissage nécessaire et une aide à la prise en charge des difficultés La majorité des mères interrogées exprime le manque d'expérience et la nécessité d'un apprentissage à l'allaitement. Cette dépendance « technique » au corps médical est exacerbée par de multiples facteurs : la fragilité psychologique des mères en état de « préoccupation maternelle primaire » et le fait que la zone corporelle concernée soit une 15 « zone taboue » selon Suvilehto (30); le sens aigu de responsabilité vis-à-vis des besoins de leur nouveau-né, et donc de leur santé et de leur survie ; la fatigue ; la douleur, la frustration et la perte de confiance en soi engendrées par les difficultés d'initiation de l'allaitement Tout ceci place les mères allaitantes dans une situation de particulière vulnérabilité psychique et physique, à laquelle, dans cette étude, le personnel soignant semble répondre de façon adéquate. Sur le plan émotionnel, toutes les mères font l'éloge de la bienveillance du personnel : elles évoquent tour à tour les notions de soutien, d'accompagnement, d'aide, de disponibilité, d'écoute, de réassurance, d'encouragement, de guidance, de conseil. Sur le plan physique, le toucher a essentiellement consisté en des repositionnements des mères et de leur enfant, ainsi qu'en de l'expression manuelle. Les mères expriment ce toucher comme un « exercice pratique », des « travaux dirigés ». Ceci leur a en effet permis de reproduire et intégrer la gestuelle, la force et l'énergie nécessaires à mettre en oeuvre, notamment lors de l'expression manuelle. Certaines soulignent la douceur des intervenantes et le soulagement ressenti, d'autres l'exacerbation d'une douleur préexistante. L'accompagnement par le toucher des soignants est bien accepté par les patientes grâce à la demande systématique de consentement. Pour certaines, cette demande est absolument fondamentale. Ceci corrobore l'étude de Weimers (26), dans laquelle le toucher est vécu par les mères comme inattendu, brutal, déplaisant, et comme une violation de leur intégrité, dans la mesure où le toucher n'est précédé ni d'explications, ni de demande de consentement. Ainsi toutes les mères interrogées auraient mieux vécu cette intrusion en ayant disposé de cette information en amont pour pouvoir donner leur accord. Par ailleurs, dans cette même étude, deux points diffèrent de celle-ci et sont à prendre en compte pour expliquer la vulnérabilité et l'expression des sentiments négatifs des mères. D'une part, le fait que les nouveau-nés sélectionnés étaient prématurés ou malades, et temporairement séparés de leur mère, ce qui ne leur a pas permis de profiter des effets bénéfiques du peau-à-peau ni d'une initiation optimale de l'allaitement maternel, induisant probablement un recours plus élevé aux interventions tactiles ultérieures du personnel. En effet, la plupart a été nourri autrement qu'au sein car trop immature ou hypotonique pour téter. D'autre part, l'absence totale de respect de la pudeur des mères, dans la mesure où elles 16 devaient allaiter dans une pièce partagée par cinq bébés et leurs parents, au sein de l'unité de soins intensifs néonataux. A contrario, dans la présente étude, tous les nouveau-nés sont nés à terme et en bonne santé, n'ayant ainsi pas été séparés de leur mère ou très brièvement : tous les nouveau-nés des accouchées voie basse ont bénéficié de deux heures de peau-à-peau immédiatement en salle de naissance avec leur mère, tandis qu'il a été différé d'environ une heure pour ceux des mères césarisées. Le protocole au CHRU de Brest veut que ces derniers puissent bénéficier de peau-à-peau avec leur père si leur mère se trouve encore au bloc opératoire ou sous effet de l'anesthésie en salle de réveil. Il n'y a pas d'information disponible à ce sujet concernant les deux patientes césarisées de cette étude. De plus, lors de leur séjour en maternité, toutes les mères ont séjourné en chambre simple, avec un accompagnement à l'allaitement préservant leur pudeur. Informations et alternatives Avant l'accouchement, aucune des mères interrogées n'a bénéficié d'information concernant le toucher que pourrait être amené à pratiquer le personnel pour les accompagner dans leur allaitement, qu'elles aient ou non assisté à des cours de préparation à la parentalité. Il paraît difficile d'évaluer l'intérêt d'aborder ce sujet en amont de la naissance, dans la mesure où seule une mère trouverait cela judicieux ; la plupart des autres mères considèrent que cela ne leur serait d'aucune utilité, ou que le point essentiel est la demande de consentement au moment opportun. Certaines y voient même le risque de se décourager à l'avance en imaginant les gestes désagréables qu'elles pourraient avoir à subir, car elles s'attendaient déjà à devoir subir un certain nombre d'actes agressifs autour de l'accouchement. Dans l'étude de Cato (27) incluant 879 femmes, le toucher des soignants lors de la première tétée a été 2,3 fois plus souvent associé à une mauvaise expérience de l'initiation à l'allaitement, après ajustement sur des facteurs confondants comme l'âge, la parité, l'indice de masse corporelle (IMC), l'expérience de la naissance, le lieu de la première tétée et la présence d'un évènement stressant dans les six mois précédant. Quand bien même la totalité des mères de la présente étude se dit satisfaite de cette prise en charge, il n'en reste pas moins que plusieurs biais subsistent, comme la faible puissance, et le fait que les mères n'aient pas été interrogées à nouveau à distance de l'accouchement et de l'état de « préoccupation maternelle primaire » qui y est associé. De plus, elles voient toutes dans le toucher la seule méthode possible d'apprentissage de l'allaitement, sans autre 17 alternative. Elles n'ont pas confiance en leurs capacités à apprendre autrement. Pourtant l'une d'elle évoque l'histoire de Malaika, femelle gorille du zoo de Toledo, qui a réussi à allaiter son petit simplement en observant et mimant une femme allaitant son enfant (29). Au vu du champ lexical autour de l'intrusion évoqué lors des entretiens et des résultats des études précédemment citées (26,27,30), il convient de s'interroger sur la pertinence du toucher et ses alternatives. En effet, on peut également reprocher à l'approche par le toucher (« hands-on ») le fait de maintenir la dépendance des mères au corps médical. Ainsi, en Angleterre, la démarche IHAB (BFHI UNICEF) préconise aux professionnels d'apprendre aux mères à mettre elles-mêmes leur bébé au sein, sans l'aide du toucher, mais avec des explications orales et des supports visuels (dépliants avec photos explicatives, utilisation de poupée et sein artificiel), afin qu'elles acquièrent plus rapidement l'autonomie et la confiance en leurs capacités pour permettre une poursuite optimale de l'allaitement (32). Cette technique dite du « hands-off », a montré une augmentation du taux d'allaitement à deux et six semaines du post partum, ainsi qu'une diminution de la perception d'insuffisance de production lactée (33). Dans l'étude de Weimers (26), aucune mère n'imaginait d'alternatives au toucher, mais après leur avoir suggéré l'approche visuelle avec comme modèle une poupée et un sein artificiel, 9 mères sur 10 ont révélé qu'elles auraient préféré cette approche. De plus, avec des durées d'hospitalisation de plus en plus courtes en maternité, il pourrait être intéressant d'évaluer la pertinence et la faisabilité d'une telle technique dans les maternités françaises. En parallèle de cette approche sans le toucher, deux modèles d'initiation à l'allaitement ont été développés ces dernières années, centrés sur le mélange de comportements acquis et innés des deux partenaires de la dyade mère-enfant : le « biological nurturing », et le « babyled, mother-guided breastfeeding » (25). Le « biological nurturing », développé par Suzanne Colson (34,35), est une approche neurobiologique de l'allaitement basé sur l'observation que certaines positions sont plus à même de favoriser l'expression des comportements innés des nouveau-nés et les instincts maternels permettant un allaitement efficace. Une position semi-inclinée de la mère permet en effet à la gravité de placer le nouveau-né ventre à ventre contre sa mère, sans restriction de mobilité, mais de façon à ce qu'il puisse être suffisamment stabilisé mais pour coordonner et optimiser ses réflexes (mouvements des bras, mouvements de redressement et de balancement de la tête, fouissement) et ainsi prendre le sein par lui-même. 18 Dans le « baby-led, mother-guided breastfeeding », développé par Christina Smillie (36), c'est le nouveau-né qui est à l'initiative de l'allaitement par ses réflexes et comportements tandis que sa mère l'encourage par la voix, le toucher, le regard. Dans ces deux approches, le rôle des soignants est de procurer aux couples mères-enfants un environnement sécure, calme et rassurant, permettant leurs interactions. Ils doivent éviter d'intervenir ou de corriger les postures prises naturellement par l'un ou l'autre des partenaires, mais peuvent jouer le rôle d'interprètes bienveillants des comportements des nouveau-nés auprès de leur mère, et ainsi renforcer la confiance des mères en leur capacité à répondre de façon autonome aux besoins de leur enfant. Au vu des difficultés rencontrées par sept mères sur neuf dans mon étude, on peut se demander s'il ne serait pas judicieux d'introduire ces deux dernières approches dès la salle de naissance, et de hiérarchiser ensuite les interventions en cas d'échec : d'abord les explications verbales et visuelles via l'utilisation d'une poupée et d'un sein artificiel ou de photos, puis, en dernier recours, l'approche par le toucher. Il n'a pas été non plus évoqué la solution possible d'apposition des mains des soignants sur celles des mères pour les guider. Il serait intéressant de mener une étude évaluant les effets de ces différentes prises en charge. V. CONCLUSION En fin de grossesse, et dans la période du post-partum, les mères présentent un état de vulnérabilité psychique programmé pour répondre aux besoins de leur nouveau-né. Cette étude a montré que le personnel soignant était présent et bienveillant dans l'accompagnement à l'initiation de l'allaitement maternel, et qu'il offrait une aide précieuse lors des difficultés. Cependant le vécu du toucher par les professionnels reste flou : il semble bien admis, en grande partie grâce à l'approche respectueuse et au recueil systématique du consentement, mais une notion d'intrusion de la sphère intime des patientes ainsi que de manque de confiance en leurs capacités reste perceptible. Ainsi, il convient de rester prudent face au pouvoir du corps médical, et de ne pas « faire à la place » des mères, mais au contraire de leur permettre de faire par elles-mêmes, afin d'améliorer leur confiance en elles et ainsi d'augmenter la durée de l'allaitement. Différentes approches ont été proposées pour initier l'allaitement, comme le « biological nurturing » ou le « baby-led, mother-guided breastfeeding », laissant une plus grande part d'autonomie au couple mère-enfant, et centrées sur les réflexes et les capacités innées du nouveau-né. Ceci implique pour les professionnels la capacité à être patient et à prendre sur 19 soi pour ne pas intervenir directement trop vite, ainsi qu'à se faire l'interprète des comportements spécifiques des nouveau-nés. Une approche intermédiaire consisterait à observer les couples mères-enfant et à leur enseigner les positions d'allaitement et de bonne prise du sein via des supports visuels et auditifs, ce qui implique là encore une grande disponibilité du personnel et des capacités pédagogiques. Enfin, en cas de difficultés non résolues par ces approches, le toucher peut s'avérer une aide précieuse pour apporter un support kinesthésique, toujours avec l'accord des patientes. 20 BIBLIOGRAPHIE 1. World Health Organization. Breastfeeding. www.who.int/topics/breastfeeding/en/ 2. Collaborative WHO. Study team on the Role of Breastfeeding on the Prevention of Infant Mortality. Effect of breastfeeding on infant and child mortality due to infectious diseases in less developed countries: a pooled analysis. Lancet. 2000; 355:451-455 3. WHO. Horta B., Victoria C. Short-term effects of breastfeeding. A systematic review on the benefits of breastfeeding on diarrhoea and pneumonia mortality. 2013 4. Uhari M., Mäntysaari K., Niemelä M A meta-analytic review of the risk factors for acute otitis media. Clin Infect Dis. 1996 June; 22(6): 1079-1083 5. Hauck F., Thompson J., Tanabe K., Moon R., Vennemann M. Breastfeeding and reduced risk of sudden infant death syndrome: a meta-analysis. Pediatrics. 2011 July; 128(1): 103-110. 6. Yan J., Liu L., Zhu Y., Huang G., Wang PP. The association between breastfeeding and childhood obesity: a meta-analysis. BMC Public Health. 2014 Dec 13;14:1267. 7. Patelarou E., Girvalaki C., Brokalaki H., Patelarou A., Androulaki Z., Vardavas C. Current evidence on the associations of breastfeeding, infant formula, and cow's milk introduction with type 1 diabetes mellitus: a systematic review. Nutr Rev. 2012 Sep;70(9):509-519. 8. Owen C., Martin R., Whincup P., Smith G., Cook D. Does breastfeeding influence risk of type 2 diabetes in later life? A quantitative analysis of published evidence. Am J Clin Nutr. 2006 November; 84(5): 1043-1054 9. Collaborative Group on Hormonal factors in Breast Cancer and breast-feeding. Collaborative reanalysis of individual data from 47 epidemiological studies in 30 countries, including 50302 women with breast cancer and 96973 women without the disease. Lancet 2002;360:187-95 10. Li DP., Du C., Zhang ZM., Li GX., Yu ZF., Wang X., Li PF., Cheng C., Liu YP., Zhao YS. Breastfeeding and ovarian cancer risk: a systematic review and meta-analysis of 40 epidemiological studies. Asian Pac J Cancer Prev. 2014;15(12):4829-4837. 11. Lupton SJ., Chiu CL., Lujic S., Hennessy A., Lind JM. Association between parity and breastfeeding with maternal high blood pressure. Am J Obstet Gynecol. 2013 Jun;208(6):454.e1-7. 12. Jäger S., Jacobs S., Kröger J., Fritsche A., Schienkiewitz A., Rubin D., Boeing H., Schulze MB. Breast-feeding and maternal risk of type 2 diabetes: a prospective study and meta-analysis. Diabetologia. 2014 Jul;57(7):1355-1365. 21 13. Kramer M., Kakuma R. Optimal duration of exclusive breastfeeding. Cochrane Database of Systematic Reviews 2012, Issue 8. 14. Hercberg S., Chat-Yung S., Chauliac M. The French National Nutrition and Health Program: 2001-2006-2010. Int J Public Health. 2008;53(2):68-77. 15. Blondel B., Kermarrec M. Enquête nationale périnatale 2010. Les naissances en 2010 et leur évolution depuis 2003. 2011 16. Vilain A Enquête nationale périnatale 2010. Les maternités en 2010 et leur évolution depuis 2003. 2011 17. Cattaneo A., Yngve A., Koletzko B., Guzman LR. Protection, promotion and support of breast-feeding in Europe: current situation. Promotion of Breastfeeding in Europe project. Public Health Nutr. 2005 Feb;8(1):39-46. 18. Salanave B., De Launay C., Boudet-Berquier J., Castetbon K. Durée de l'allaitement maternel en France (Épifane 2012-2013). Institut de veille sanitaire (INVS). 19. Capponi I., Roland F. Allaitement maternel : liberté individuelle sous influences. Devenir 2/2013 (Vol. 25), p. 117-136 20. Guigui G. Connaissances et méconnaissances des mères sur l'allaitement. Devenir 3/2007 (Vol. 19), p. 261-297 21. Gremmo-Feger G Allaitement maternel: l'insuffisance de lait est un mythe culturellement construit. Conaître. Spirale n°27. 2003. 22. Delamaire C. L'allaitement maternel : vécu et opinions des mères en 2009. La santé de l'homme. 2010;(409):50-1. 23. Hinsliff-Smith K., Spencer R., Walsh D. Realities,difficulties, and outcomes for mothers choosing to breastfeed : primigravid mothers experiences in the early post partum period (6-8 weeks). Midwifery. 2014 Jan; 30(1):14-19 24. Hauck YL., Graham-Smith C., McInerney J., Kay S. Western Australian women's perceptions of conflicting advice around breast feeding. Midwifery. 2011 Oct; 27(5):156-162. 25. Schafer R., Genna CW. Physiologic breastfeeding: a contemporary approach to breastfeeding initiation. J Midwifery Womens Health. 2015; 60:546-553. 26. Weimers L., Svensson K., Dumas L., Navér L., Wahlberg V. Hands-on approach during breastfeeding support in a neonatal intensive care unit: a qualitative study of Swedish mothers' experiences. Int Breastfeed J. 2006; 1: 20 27. Cato K., Sylvén SM., Skalkidou A., Rubertsson C. Experience of the first breastfeeding session in association with the use of the hands-on approach by healthcare professionals: a population-based Swedish study. Breastfeed Med. 2014 JulAug;9(6):294-300. 22 28. http://amis-des-bebes.fr/pdf/documents-reference/Donnees-scientifiques-10conditions.pdf 29. Marrisson B. Woman shows gorilla art of nursing a baby. Toledo blade. 12 nov. 1987. 30. Suvilehto JT., Glerean E., Dunbar RI., Hari R., Nummenmaa L. Topography of social touching depends on emotional bonds between humans. Proc Natl Acad Sci U S A. 2015 Nov 10;112(45):13811-6. 31. Winnicott DW. La mère suffisamment bonne. Paris : Payot ; 2006, 123 p. 32. http://www.unicef.org.uk/BabyFriendly/Resources/Guidance-for-HealthProfessionals/Forms-and-checklists/Practical-skills-review-forms/ 33. Ingram J., Johnson D., Greenwood R. Breastfeeding in Bristol: teaching good positioning, and support from fathers and families. Midwifery 2002 ; 18,87-101. 34. Colson SD., Meek JH., Hawdon JM. Optimal positions for the release of primitive neonatal reflexes stimulating breastfeeding. Early Hum Dev. 2008; 84(7):441-449. 35. Gremmo-Féger G. Allaitement maternel: quoi de neuf en 2015? 45èmes journées de la Société Française de Médecine Périnatale 36. Smillie CM. How infants learn to feed : a neurobehavioral model. In: Genna CW., ed. Supporting suckling skills in breastfeeding infants. 2nd ed. Burlington, MA : Jones & Bartlett learning ; 2013 :83-104. 23 ANNEXE : GUIDE D'ENTRETIEN - Perception émotionnelle et morale du toucher dans la relation soignant-soigné. o Comment s'est passée la première tétée en salle de naissance ? o Parfois les soignants utilisent le toucher pour l'apprentissage de l'allaitement. Si vous y avez été confrontée, qu'avez-vous ressenti moralement, émotionnellement? o - - - Qu'avez-vous ressenti lors des tétées suivantes en maternité ? Perception physique du toucher dans la relation soignant-soigné. o Qu'avez-vous ressenti physiquement lors de cette première tétée? o Et lors des suivantes ? Prise en charge par le toucher et vécu lors des difficultés d'allaitement. o Avez-vous rencontré des difficultés pour allaiter ? Si oui, lesquelles ? o Quels gestes ont accompagné les réponses des soignants à ces difficultés? o Qu'avez-vous ressenti à ce moment-là? o Ces gestes ont-ils permis de résoudre ces difficultés ? Connaissances des femmes antérieures à l'accouchement à propos du toucher dans la relation-soigné. o Quelles étaient vos connaissances, quelles informations avez-vous reçu pendant la grossesse à propos de la place du toucher dans l'accompagnement à l'allaitement ? - Souhaits rétrospectifs et futurs. o Rétrospectivement, qu'auriez-vous voulu changer dans cette approche ? o Quels seraient vos souhaits pour un prochain allaitement ? 24 RESUME Objectifs : Evaluer la perception par un échantillon de mères du toucher par les soignants lors de l'accompagnement à l'allaitement maternel en salle de naissance et à la maternité. Evaluer les connaissances des mères sur ce toucher en amont de l'accouchement et la nécessité d'une modification et de l'information donnée lors de la grossesse et de la prise en charge en maternité. Matériel et méthode : Une étude qualitative a été réalisée par entretiens semi-directifs auprès de neuf mères allaitantes au CHRU de Brest entre août 2015 et janvier 2016. Résultats : Les mères allaitantes semblent faire abstraction de leurs propres besoins et ressentis au bénéfice de leur enfant : elles dissocient leur corps de leur esprit et éludent la perception qu'elles peuvent avoir du toucher de leurs seins par les professionnels. Elles se disent satisfaites de ce mode de prise en charge : elles y voient un mode d'apprentissage indispensable sans alternative possible, et une aide en cas de difficulté. Elles n'ont reçu aucune information à propos du toucher par les professionnels en pré-natal. Conclusion : La vulnérabilité psychique des mères est majorée par la responsabilité qu'elles ont engagé de nourrir leur enfant au sein et par leur dépendance au corps médical pour y parvenir. Les professionnels doivent poursuivre leur soutien moral et s'ouvrir aux nouvelles prises en charges « hands-off » de l'allaitement pour leur permettre de gagner en confiance en leurs capacités à allaiter leur enfant de façon autonome. Le toucher reste une aide précieuse en cas de difficultés, mais s'ils sont amenés à l'utiliser, il est indispensable de continuer à en expliquer les raisons aux mères et de recueillir leur consentement au préalable. 25
{'path': '37/dumas.ccsd.cnrs.fr-dumas-01560107-document.txt'}
"L'horizon d'Aton", exactement ? Luc Gabolde To cite this version: Luc Gabolde. "L'horizon d'Aton", exactement ?. Verba Manent. Recueil d'études dédiées à Dimitri Meeks., Université Paul-Valéry Montpellier III, p. 145-157, 2009, Cahiers de l'ENiM 2. halshs00751771 HAL Id: halshs-00751771 https://halshs.archives-ouvertes.fr/halshs-00751771 Submitted on 21 Jun 2018 CENiM 2 Cahi e r s« Égy pt eNi l o t i quee tMé di t e r r ané e nne » Université Paul Valéry (Montpellier III) – CNRS UMR 5140 « Archéologie des Sociétés Méditerranéennes » Équipe « Égypte Nilotique et Méditerranéenne » Cahiers de l'ENiM (CENiM) 2 Verba manent Recueil d'études dédiées à Dimitri Meeks par ses collègues et amis Textes réunis et édités par Isabelle Régen et Frédéric Servajean * Montpellier, 2009 Table des matières Volume 1 Avant-Propos I Bibliographie de Dimitri Meeks III Hartwig Altenmüller Acht Fragmente von Mumienbinden der Tascheritentnaret aus Abusir el Meleq . 1 Sydney H. Aufrère Les alphabets dits « égyptiens » et « cophtes » de Fournier le Jeune (1766) et la « guerre des polices » au XVIIIe siècle. En marge de la redécouverte de l'écriture hiératique 29 Ladislav Bare‡ A case of proofreading in Ancient Egypt? 51 Edward Brovarski Gardiner Sign List Aa 31 57 Vivienne Gae Callender A Magical Amulet, with a Life Insurance Policy 63 Laurent Coulon Les épithètes autobiographiques formées sur skm 71 Didier Devauchelle et Ghislaine Widmer Un brouillon de requête au stratège (Ostracon Ifao Edfou D 632) 83 Khaled El-Enany À propos de quelques emplois de stp.n-X dans les cartouches royaux 99 Åke Engsheden Un Mendésien en Dalécarlie (Statue ZAE 74 de la collection Zorn) 113 Marguerite Erroux-Morfin Du lait-blanc à l'orgeat de souchet 125 Christine Favard-Meeks Les couronnes d'Andjéty et le temple de Behbeit el-Hagara 137 Luc Gabolde « "L'horizon d'Aton", exactement ? » 145 Marc Gabolde Égyptien ‡dÌ, grec ojinovmeli et mevlitith" latin mulsum, grec d'Égypte stavgma : la même ivresse ? 159 François Gaudard Le P. Berlin 8278 et ses fragments. Un « nouveau » texte démotique comprenant des noms de lettres 165 Jean-Claude Grenier Parthénios ? 171 Ivan Guermeur Les monuments d'Ounnefer, fils de Djedbastetiouefânkh, contemporain de Nectanébo Ier 177 Nadine Guilhou Une variante graphique dans la pyramide de Téti, formule 688 201 Ben Haring Requests from the Greatest Gods. The Right Doorjamb of Sennedjem's Burial Chamber 207 Antoine Hermary Samos et l'Égypte au VIe s. av. J.-C. Le témoignage d'un petit sphinx en bronze 219 Volume 2 Anthony Leahy A mysterious fragment and a monumental hinge. Necho II and Psammetichus II once again 227 Christian Leblanc Nehy, prince et premier rapporteur du roi. Deux nouveaux documents relatifs au vice-roi de Nubie, sous le règne de Thoutmosis III 241 Guy Lecuyot Quelques vases Bès sortis des sables de Saqqâra 253 Christian Leitz Thot als Ichneumon in der Unterwelt. Der Hymnus im Grab des Amonmose (TT 373) 265 Geoffrey T. Martin Protecting Pharaoh. Three Unpublished Magical Figures 277 Bernard Mathieu Le « Livre de Nout » du chancelier Ânou. « Nouvelles » versions de Textes des Pyramides 295 Jean-Pierre Pätznick Encore et toujours l'Horus « Nâr-mer » ? Vers une nouvelle approche de la lecture et de l'interprétation de ce nom d'Horus 307 Patrice Pomey Vers un renouveau des études de nautique égyptienne 325 Lilian Postel Quand réapparaît la forme ms(w).n ? Réflexions sur la formule de filiation maternelle à la fin du Moyen Empire 331 Joachim Friedrich Quack Ein Fragment einer Liste mit Naturerscheinungen. Papyrus Berlin 23055 355 Stephen Quirke Contexts for the Lahun Lists 363 Isabelle Régen À propos du sens de qrs « enterrer » 387 Alessandro Roccati Un'iscrizione „firmata" della XXVI dinastia 401 Frédéric Servajean Des poissons, des babouins et des crocodiles 405 Christophe Thiers Les « quatre Ka » du démiurge (à Tôd) 425 Michel Valloggia Un compendium tardif du Livre des Morts 439 Pierre Zignani Une culture sismique dans l'architecture des pharaons. De Djéser à la période gréco-romaine 455 « " L'horizon d'Aton ", exactement ? » Luc Gabolde C' est un grand plaisir pour moi que de dédier à D. Meeks – qui n'ignore assurément pas à quel point, en matière de lexicographie peut-être plus qu'ailleurs, l'interdisciplinarité est souvent féconde – cette courte note qui relève moins de la lexicographie et de la théologie que de l'astronomie. Lorsque Akhenaton quitta Thèbes pour fonder sur le site de l'actuelle Tell el-Amarna sa nouvelle capitale, intégralement vouée à son dieu solaire Aton, il lui donna le nom de "≈t-'Itn « Horizon d'Aton ». Assurément, le choix du nom de la ville autant que celui du site où elle fut implantée ne furent pas déterminés au hasard, et ces deux données, qui méritent d'être examinées avec attention, ont déjà fait l'objet d'un certain nombre de commentaires 1. Le choix du nom "≈t-'Itn À côté évidemment du nom de l'aspect visible donné à sa divinité, Aton, « le globe solaire » 2, c'est-à-dire le soleil en tant qu'astre observable, l'élément le plus révélateur du nom donné par Akhenaton à sa nouvelle capitale est le mot "≈t, que l'on traduit traditionnellement par « horizon ». La notion égyptienne « d'horizon », "≈t, a déjà été explorée de manière extensive, quoique l'on puisse toujours espérer lui ajouter quelques précisions sémantiques. Après H. Brugsch, qui avait posé dès 1867 une première définition précise (« Désignation du point du ciel où le soleil se lève ou bien se couche après avoir accompli son voyage diurne ») encore globalement valide aujourd'hui 3, Ch. Kuentz 4 avait établi, dans une étude pénétrante mais aujourd'hui ancienne, que le mot avait apparemment évolué de la valeur d'Orient (point où se 1 C. ALDRED, « The Horizon of the Aten », JEA 62, 1976, p. 184. Aldred remarque que l'entrée du Ouady Gebel Aboul Feda forme une échancrure et que le soleil lorsqu'il s'y lève peut adopter la forme du signe Akhet. Par là, il suppose donc que ce peut être l'origine du nom de la ville. Il suggère enfin qu'il faille établir un lien entre cette Akhet et la tombe royale (mais sans en inférer qu'il puisse s'agir de l'entrée ou de la sortie de la Douat). Il ne fait pas non plus de lien entre l'axe des temples et le point où se lève le soleil. Voir encore Chr. CANNUYER, « Akhet-Aton : anti-Thèbes ou sanctuaire du globe », GM 85, 1985, p. 7-11, R.A. WELLS, « The Amarna M, X, K Boundary Stelae Date : A Modern Calendar Equivalent », SAK 14, 1987, p. 313-333. 2 Ce n'est pas le lieu ici de discuter de la nature du dieu d'Akhenaton ; on consultera utilement sur ce sujet M. GABOLDE, D'Akhenaton à Toutânkhamon, Collection de l'Institut d'Archéologie et d'Histoire de l'Antiquité 3, Lyon, Paris, 1998, p. 16-17, avec la bibliographie afférente, J. A SSMANN, Egyptian Solar Religion in the New Kingdom. Re, Amun and the Crisis of Polytheism, StudEg, Londres, New York, 1995, p. 67-101 : chapitre III « The Phenomenology of the Solar Journey », et id., LÄ I, 1973, col. 526-540, s.v. Aton. 3 H. BRUGSCH , Hieroglyphisch-demotisches Wörterbuch I, 1867, p. 112-113. 4 Ch. KUENTZ, « Autour d'une conception égyptienne méconnue : l'Akhit ou soi-disant horizon », BIFAO 17, 1920, p. 121-190. 146 Luc Gabolde lève le soleil à l'Est) à Orient et Couchant, qu'il désignait aussi toute la plage parcourue par le soleil à son lever ou à son coucher du solstice d'hiver au solstice d'été, enfin que, considéré par les Anciens comme un territoire, l'horizon était une région peuplée, mais toujours plus reculée, « bornes insaisissables et toujours plus fuyantes du monde ». Mentionnons encore, dans cette voie, J. Assmann qui rappelait en 1980 que l'horizon-"≈t pour l'ancien Égyptien n'était pas une ligne mais le point précis où se lève ou bien où se couche le soleil, mais aussi un territoire et un accès à l'au-delà 5. Avec E. Hornung, apparaît, associée à l'horizon, la notion d'interface entre le monde des vivants et celui des morts : « À l'Horizon, (en égyptien akhet, « clairière ») se rencontrent l'ici-bas et l'au-delà ; le soleil passe d'un domaine à l'autre et c'est là que le défunt descend dans le royaume des morts. [] car les temples sont des zones de raccordement entre ce monde-ci et le royaume de l'au-delà » 6. J.P. Allen précisait utilement en 1988 à la fois la définition de l'espace géographique de l'horizon-akhet, et la signification même du mot akhet (dans les contextes liés à la Douat) : « Il est clair, aussi bien par les textes que par les illustrations qui les accompagnent, que l'entrée et la sortie de la Douat ne se trouvent pas précisément à l'horizon visible, là où le ciel semble toucher la terre. Elles se trouvent plutôt quelque part au-dessous du point de rencontre entre le ciel et la terre. C'est ce qui explique pourquoi le ciel reste lumineux après le coucher du soleil et le devient avant son lever : le soleil ne se « repose pas de la vie dans la Douat » avant d'avoir atteint « sa deuxième heure de grossesse » et il naît quelque deux heures avant le lever effectif. Dans l'espace de temps compris entre sa naissance et le lever, le soleil « devient à nouveau efficient (akh) », et le même phénomène se produit entre le coucher et la conception. Ce processus se déroule dans le « lieu de devenir efficient », la Akhet. Dans les pyramides de l'Ancien Empire, le défunt est envisagé comme se levant de la Douat (la chambre du sarcophage), et progressant à travers la Akhet (l'antichambre), avant de poindre de la pyramide, dans la lumière du jour, avec le soleil » 7. On doit enfin à K. Jansen-Winkeln un réexamen récent et novateur de la notion d'Akhet 8. Reprenant, discutant et prolongeant les précédentes recherches, et plus particulièrement les réflexions de Allen, il est parvenu, d'une part, à la conclusion – convaincante – que la racine "≈ du mot "≈t, qui se rattache au sens d'être ou devenir « efficace », est – et est toujours demeurée – distincte de la racine (μ)"≈ « être lumineux » et, d'autre part, a estimé que le mot "≈t désignait la zone d'espace-temps où, à l'aube, le soleil commençait à être perceptible et à faire ressentir ses effets et ce, jusqu'au lever du soleil ou bien, au crépuscule, lorsque sa lumière et sa chaleur continuaient à être ressenties à partir de son coucher, alors même qu'il avait cessé d'être visible. Il est encore utile de souligner ici un aspect fondamental du concept d'« horizon » "≈t : c'est, visuellement, le point où le soleil (ou tout autre astre) se trouve en contact 5 J. ASSMANN, LÄ III, 1980, col. 3-7, s.v. Horizont. E. HORNUNG, L'esprit du temps des pharaons, Munich, 1989, p. 115, et aussi p. 120. Cette idée se trouvait déjà chez C. De Wit, infra, n. 10. 7 J.P. A LLEN , Genesis in Egypt, YES 2, New Haven, 1988, p. 6. 8 K. JANSEN-WINKELN, « "Horizont" und "Verklärtheit" » : zur Bedeutung der Wurzel "≈ », SAK 23, 1996, p. 201-215. 6 « "L'horizon d'Aton", exactement ? » 147 avec la terre à son lever ou à son coucher (raison pour laquelle on distingue parfois deux "≈t, l'un oriental et l'autre occidental). C'est donc le lieu symbolique d'échange entre le céleste et le terrestre, entre le divin et l'humain. Pour cette raison, le naos d'un temple, lieu permanent de l'épiphanie divine, est considéré comme un "≈t c'est dire le lieu où, sur terre, la divinité peut se manifester 9. L'"≈t est ainsi une sorte de sas, de point de jonction entre l'ici-bas et l'au-delà, en conséquence de quoi, il peut aussi être un accès vers la Douat et le royaume des morts 10. Un texte de Kom-Ombo rassemble ces éléments théologiques de manière formidablement synthétique : l'horizon, c'est l'endroit où le dieu, assimilé au soleil se lève, le lieu où le dieu apparaît, c'est le pylône entre les môles duquel l'astre diurne émerge, c'est, par là, aussi le sanctuaire du temple et, pour finir, c'est le lieu où l'astre se couche, assimilé à l'entrée de la douat et à l'accès au séjour d'Osiris 11 : [L'horizon ?] de Sobek dont la forme est réjouissante, qui illumine Ombos lorsqu'il s'y lève avec les siens qui sont debout (lors) des fêtes avec sortie en procession. Ils en sortent et ils y entrent lors de leur fête de navigation car c'est le pylône du lieu (de) l'entrée et de la sortie d'un horizon vers un (autre) horizon pour faire vivre Osiris, le dieu de Beg, pour contenter les gisants dans la butte cachée. 9 Wb I, 17 n'a pas précisément relevé ce sens, que l'on rencontre néanmoins dès Sésostris III : stèle de Sobekemheb trouvée à Bouhen, W. HELCK, Historisch-Biographische Texte der 2. Zwischenzeit und neue Texte der 18. Dynastie, KÄT 6, Wiesbaden, 1975, p. 81, n° 118 = W.B. BARNS, Kush 2, 1954, p. 19 = Khartoum N° 5320 ; on le retrouve sous Thoutmosis III : Texte de la Jeunesse, Urk. IV, 157,14 (voir Fr. DAUMAS, « Sur deux chants liturgiques des mammisis de Dendara », RdE 8, 1951, p. 41-42, n. 5) ; à l'époque tardive : J.-M. KRUCHTEN, Les annales des prêtres de Karnak (XXIe-XXIIIe dynasties), OLA 32, Louvain, 1989, p. 190-192, statue de Nespakachouty (CGC 42232), dos, col. 2-4 ; G. LEGRAIN , Statues et statuettes de rois et de particuliers III, CGC, Le Caire, 1914, p. 80 ; B. JANOWSKI, « Der Tempel als Kosmos », Studies J. Assmann, Egypt – Temple of the whole World. Numen Book Series, SHR 97, Leyde, 2003, p. 176 ; id., Rettungsgewissheit und Epiphanie des Heils, Wissenschaftlische Monographien zum AT & NT 59, 1989, p. 150 ; R.B. FINNESTAD, Image of the World and Symbol of the Creator, Studies in Oriental Religion 10, Wiesbaden, 1985, p. 9. Voir aussi J.C. DARNELL, « Two Notes on Marginal Inscriptions at Medinet Habu », dans B. Bryan, D. Lorton (éd.), Essays in Egyptology in Honor of Hans Goedicke, San Antonio, 1994, p. 39-55, spécialement p. 40-42 ; H. BRUNNER, « Die Sonnenbahn in ägyptischen Tempeln », Archaeologie und altes Testament. Festschrift K. Galling, Tübingen, 1970, p. 27-34 ; et E. GRAEFE, « Der Sonnenaufgang zwischen den Pylontürmen », OLP 14, 1983, p. 55-79. Enfin, on relèvera les mentions récoltées par D. MEEKS, Anlex I, 77.0078 ("≈t nt ƒ©m : la partie la plus reculée du temple pour Hatchepsout), II, 78.0072 (« sanctuaire », dans Dendara VIII), III, 79.0042 (pour désigner un temple, dans les KRI II). 10 Pour C. de Wit (Le rôle et le sens du lion dans l'Égypte ancienne, Leyde, 1951, p. 73), c'était le lieu « où il y a transition entre la mort et la vie, là où notre monde touche à l'au-delà ». Voir aussi J.P. ALLEN, Genesis in Egypt, p. 6. 11 Signalé à mon attention par M. Gabolde, voir KO n° 83, 1, et. A. GUTBUB , BdE 47/1, 1973, p. 268 et n. lm-n, p. 273-275. 148 Luc Gabolde L'orientation des édifices cultuels L'implantation d'un édifice en un lieu précis et la détermination de son axe relèvent du fait religieux le plus élémentaire, comme l'avait bien mis en lumière M. Éliade 12. La volonté d'implanter rigoureusement les édifices sacrés sur des points cardinaux à l'aide de visées sur des corps astronomiques est avérée pour les pyramides, notamment celle de Khéops 13, le grand temple d'Amon-Rê à Karnak qui visait le point où se lève le soleil au solstice d'hiver 14, le temple de Dendara, aligné exactement sur la perpendiculaire à l'azimut du lever de Sirius/Sothis 15, etc. 16. Elle trouve un écho dans certaines phases du rituel de fondation des temples qui mentionnent, pour les exemples explicites fournis par les temples ptolémaïques (plus spécialement Edfou, dont l'orientation nord-sud est assez originale), une orientation vers la Grande Ourse, ce qui signifie, apparemment, vers le Nord 17. Orientation du petit temple d'Aton Le petit temple d'Aton à Amarna est sans doute le plus ancien édifice cultuel à avoir été édifié sur le site de la nouvelle capitale d'Amenhotep IV 18. Il est manifeste, malgré des assertions contraires – inexactes mais tenaces 19 – qu'il n'a pas été orienté sur le centre de l'échancrure que forme sur l'horizon l'entrée du Ouadi royal (où à certains moments de l'année effectivement il arrive au soleil de se lever mais ceci 12 M. ÉLIADE, Le sacré et le profane, Paris, 1995, p. 26, et p. 28-38. mémoire, les écarts par rapport au Nord des côtés ouest et est de la Grande Pyramide sont de 2'30" ouest pour le côté ouest et de 5'30" ouest pour le côté est et donc de 3' entre ces deux côtés (S. CLARKE, R. ENGELBACH, Ancient Egyptian Construction and Architecture, réed. New York, 1990, p. 68) ; voir encore G. GOYON, « Nouvelles observations relatives à l'orientation de la pyramide de Khéops », RdE 22, 1970, p. 87. 14 L. GABOLDE, Le « grand château d'Amon » de Sésostris Ier à Karnak, MAIBL 17, 1998, § 201-205. 15 S. CAUVILLE, avec la participation de É. A UBOURG , P. D ELEUZE, A. LECLER, « Le temple d'Isis à Dendera », BSFE 123, 1992, p. 31-48, plus spécialement p. 41 et n. 5 ; voir encore É. AUBOURG, « La date de conception du zodiaque du temple d'Hathor à Dendara », BIFAO 95, 1995, p. 1. 16 Recensement des orientations des temples d'Égypte dans M. SHALTOUT, J.A. BELMONTE, « On the Orientation of Ancient Egyptian Temples : (1) Upper Egypt and Lower Nubia », JHA 36, 2005, p. 273-298 ; J.A. BELMONTE, M. SHALTOUT, « On the Orientation of Ancient Egyptian Temples : (2) New Experiments at the Oases of the Western Desert », JHA 37, 2006, p. 173-192 ; M. SHALTOUT, J.A. BELMONTE, M. FEKRI, « On the Orientation of Ancient Egyptian Temples : (3) Key Points at Lower Egypt and Siwa Oasis, Part I », JHA 38, 2007, p. 141-160 ; J.A. BELMONTE, M. SHALTOUT, M. FEKRI, « On the Orientation of Ancient Egyptian Temples : (4) Epilogue in Serabit el Khadem and Overview », JHA 39, 2008, p. 181-211. Ajoutons le cas un peu particulier du temple d'Abou-Simbel : si son orientation à l'est ne vise pas un point très particulier de l'horizon, il se trouve en revanche que le soleil y pénètre bien dans l'axe deux fois par an à des dates symétriquement disposées de part et d'autre du solstice d'hiver. Ce phénomène n'était pas ignoré des anciens comme permet de s'en rendre compte un texte du temple (KRI II, 749,1) : 13 Pour , « Il a réalisé des monuments grandioses et parfaits, pour l'éternité, (placés) dans l'axe de l'horizon du ciel (= du point du jour) ». 17 Voir Z. ABA, L'orientation astronomique dans l'ancienne Égypte et la précession de l'axe du monde, Prague, 1953, p. 17. 18 M.D.S. MALLINSON , « Investigation of the Small Aten Temple », dans B. Kemp (éd.), Amarna Reports V, EES, Occasional Publications 6, 1989, p. 115-142. 19 R.A. WELLS, « The Amarna M, X, K Boundary Stelae Date : A Modern Calendar Equivalent », SAK 14, 1987, p. 313-333. « "L'horizon d'Aton", exactement ? » 149 dépend aussi de la place de l'observateur), mais vise un point situé nettement plus au sud (comme cela apparaît ici sur les fig. 1-2-3) . Si les bâtisseurs d'Akhenaton et le roi lui-même ont choisi d'aligner l'azimut du futur temple en visant bien au contraire un endroit en apparence très quelconque du relief oriental [fig. 1-2-3], il est plus que vraisemblable que c'est parce que c'est là qu'était apparu un corps céleste majeur, selon le parallèle qu'offrent Dendara et Karnak, corps céleste qui ne peut avoir été autre que le soleil Aton lui-même, compte tenu de la théologie monothéiste et solaire d'Akhenaton. Fig. 1. Le petit temple d'Aton. Vue prise dans l'axe. À l'arrière, l'échancrure de l'entrée du Ouadi royal, nettement décalée vers le nord. Il est donc plus que probable que c'est dans l'azimut du petit temple d'Aton que le soleil était apparu au moment où s'était déroulée la cérémonie de fondation de l'édifice ; c'est, du moins, une hypothèse que nous souhaiterions éprouver ici. Fig. 2. Situation du Soleil dans l'axe du petit temple d'Aton, vue prise le 19 février 2005 à 5h46' (heure locale) du matin. 150 Luc Gabolde L'azimut exact du petit temple d'Aton, tant en raison de la ruine de l'édifice que du manque de données topographiques précises, n'est pas établi avec une totale certitude et varie – en fonction des méthodes employées pour le déterminer dont j'ai pu disposer 20 – de la manière suivante : a) En se calant sur l'orientation des plans topographiques du site réalisés par l'équipe de Barry Kemp. Les résultats vont alors de 107° 28' à 107° 29' et, il faut le relever, ils forment un groupe de mesures qui s'éloignent notablement des autres données rassemblées ici. b) À partir de la photo prise le 19 février 2005 à 6h46 37'' [fig. 2] et en se fondant sur la position astronomique du soleil calculée par le logiciel Voyager 4, on obtient des azimuts allant de 104° 12' 19'' à 104° 25' 35'', selon les méthodes de calcul et les hypothèses de travail adoptées. Fig. 3. Lignes de fuite dans l'axe du petit temple d'Aton montrant le point relativement quelconque de la falaise orientale qu'il vise. c) À l'aide des relevés GPS (basse définition) effectués sur le terrain et en s'aidant de la photo [fig. 3]. On obtient alors 102° 37' 12''. d) Par l'entremise du logiciel Google EarthTM [fig. 4] : axe, 104° 3' 50,4'' ; mur nord du temple, 104° 34' 58,86'' ; mur sud du temple, 104° 17' 19,77'; moyenne des trois mesures, 104° 18' 43,01''. 20 Mes remerciements vont à B.J. Kemp qui a manifesté tout son intérêt pour ces recherches que j'ai pu mener en 2005 au cours d'une mission à Tell el-Amarna. « "L'horizon d'Aton", exactement ? » 151 Fig. 4. Azimut de l'axe et des murs nord et sud du petit temple d'Aton (à partir d'une image du logiciel Google-EarthTM). La fondation du petit temple d'Aton d'après les stèles frontières de Tell elAmarna Le petit temple d'Aton étant très probablement, ainsi qu'on l'a déjà évoqué, le plus ancien sanctuaire du site, c'est sans aucun doute le lieu où se déroula la première adoration matutinale du disque à Amarna, célébration qui fut enregistrée dans la première proclamation, celle de l'an V, gravée sur les stèles X et K 21 : An de règne V, mois IV de peret, 13e jour () () En ce jour, alors qu'On (= le Roi) était dans l'Horizon [du disque], Sa Majesté [apparut] sur le grand char d'électrum, tel le disque-Aton lorsqu'il se lève dans son horizon et emplit la terre de [l'am]our [que dispense continuellement le] disque-Aton. Se mettre en route [sur la voie parfaite en direction de] 22, « l'Horizon-du-disque » 23, 21 M. SANDMAN, TTA, p. 103, 7, et l'édition récente avec rectification de la date initiale : W. MURNANE, Ch. VAN SICLEN, The Boundary Stelae of Akhenaten, StudEg, Londres, New York, 1993, p. 35, et p. 48, n. a : « Regnal year 5, IV peret 13 » au lieu de l'an V, 4e jour du 4e mois de Peret lu par M. Sandman. 22 Restitué avec le passage similaire de la proclamation de l'an VI (W. MURNANE, Ch. VAN SICLEN , op. cit., p. 87). La préposition r, « vers », a ici le sens précis de « en direction de », « en s'orientant vers ». 23 Ici, il faut comprendre "≈t-'Itn comme le lieu physique d'apparition du disque solaire sur la falaise, le point du jour, plutôt que comme la ville. Le roi se trouvant déjà à Akhet-Aten, comme cela est 152 Luc Gabolde Sa place de la première fois, qu'Il a créé pour Lui-même, afin qu'Il puisse s'y coucher quotidiennement. Que son fils Ouâenrê Lui fasse un mémorial grandiose, qu'il fonde pour Lui Son horizon, [dans lequel le circuit solaire] vient à l'existence, (et où) Luimême est admiré dans l'allégresse 24. Il est important de relever que le texte fait clairement allusion aux rites de fondation (« qu'il fonde (au cordeau) pour lui son horizon »), dont on sait qu'ils consistaient à déterminer astronomiquement l'axe majeur des édifices cultuels que l'on mettait en chantier par des visées et l'implantation de jalons 25. Ceci est d'autant plus certain que, pour entériner ce choix primordial, le roi s'est rendu un an plus tard, en l'an VI, le mois IV de peret, le 13e jour, exactement au même emplacement (stèles A, Q, R, S et U seconde proclamation) 26. Or, les anciens savaient d'expérience qu'à un an d'intervalle, le soleil se lèverait, à quelques secondes d'arc près, exactement au même endroit que trois cent soixante-cinq jours plus tôt et c'est donc pour observer le même phénomène – à savoir, le lever du soleil dans l'axe du temple, comme nous le supposons – que Sa Majesté s'était déplacée en l'an VI sur le site du petit temple d'Aton, comme, du reste le texte de ces dernières stèles le confirme, toujours avec de claires allusions aux rituels de fondation : An de règne VI, mois IV de peret, 13e jour » () Jour où apparut Sa Majesté sur son grand char (plaqué) d'électrum, tel le disque-Aton lorsqu'il se lève dans l'horizon et emplit la terre de son amour. Se mettre en route sur la voie parfaite en direction de « l'Horizon-du-disque-Aton » constitué lors de la précisé au début du texte, il ne fait aucun sens de comprendre qu'il va vers Akhet-Aten, qui doit en l'occurrence désigner autre chose. 24 Pour la restitution des lacunes, voir la seconde proclamation des stèles S, Q, U et R, M. SANDMAN , op. cit., p. 122-123, et W. MURNANE, Ch. VAN SICLEN, op. cit., p. 86-87. 25 P. MONTET, « Le rituel de fondation des temples égyptiens », Kêmi 17, 1964, p. 78-85, et Z. ABA , op. cit., p. 42. Le texte d'E. II, 31 est assez représentatif de la manière dont est décrit le procédé : « Je prends le jalon et j'empoigne le manche du maillet ; j'empoigne le cordeau avec Séchat. J'ai tourné ma vue d'après le mouvement des étoiles et j'ai fait entrer mon regard dans (l'astérisme) de Ms≈tyw (la Grande Ourse). Le dieu indicateur du temps (Thot) était debout à côté de son Merkhet. J'ai établi les quatre angles du temple ». 26 W. MURNANE, Ch. VAN SICLEN, op. cit., p. 86-87, et p. 15, n. g. « "L'horizon d'Aton", exactement ? » 153 première occasion de le découvrir qu'avait effectuée Sa Majesté, vie, prospérité, santé, afin de le fonder (au cordeau) en qualité de mémorial voué au disque-Aton conformément à ce qu'avait ordonné Son père, le vivant Horus du double horizon, exalté dans l'horizon en Sa nature (nom) de lumière-solaire qui émane du disquesolaire-Aton, doué de vie éternellement, afin de réaliser pour Lui un monument à l'intérieur (du périmètre délimité au cordeau). Que le roi fasse ici une allusion appuyée à la cérémonie de fondation originelle de l'édifice (« fonder (au cordeau) en qualité de mémorial (voué) au disque-Aton »), un an plus tôt, avec la découverte du point où se levait le soleil qui avait déterminé l'axe du temple et qui le signalait encore, bien entendu, un an plus tard, ne me paraît pas douteux. D'autant moins que les logiciels astronomiques qui permettent d'envisager diverses hypothèses sur l'azimut du point où se levait le soleil à l'Orient un 13e jour du mois IV de peret, en déclinant selon les hypothèses de chronologies longues ou courtes, donnent, ainsi qu'on va le voir, des résultats plutôt proches des données affichées cidessus au § 3. Où le soleil se levait-il à Amarna à la date consignée sur les stèles frontières ? On a pu, grâce à la date de correspondance entre le lever héliaque de Sirius en calendrier égyptien et le calendrier julien fournie par Censorinus 27, caler les jours et les mois du calendrier égyptien ancien dans les calendriers modernes ou antiques (julien et grégorien) et donc retrouver rétrospectivement quand tombait un 13e jour du mois IV de peret. Pour le choix des années correspondant aux ans V et VI d'Akhénaton, on est confronté au colossal problème des dates absolues, problème qui n'a pas encore de solution définitive et que nous n'allons pas affronter ici. Retenons que le calage chronologique des dix-sept années du règne d'Akhenaton varie entre des dates plutôt hautes (–1358 à –1341 ou –1347 à –1330, selon Cl. Vandersleyen 28, –1354 à –1337 selon J. von Beckerath 29) et d'autres plutôt basses (–1339 à –1325 selon W. Helck 30), celles publiées récemment dans un ouvrage de synthèse sur les questions astronomiques, l'encadrant entre –1352 et –1335 31. Toutefois, les nouveaux résultats obtenus dans le calage des chronologies égyptiennes et 27 CENSORINUS, De die Natali XVIII, 10 et XXI, 11-12 ; voir R. K RAUSS, « Egyptian Sirius/Sothic Dates, and the Question of the Sothis-Based Lunar Calendar », dans E. Hornung et al. (éd.), Ancient Egyptian Chronology, HdO 83, 2006, p. 442. 28 Cl. VANDERSLEYEN , L'Égypte et la Vallée du Nil II, Paris, 1995, p. 409. 29 J. VON BECKERATH , Chronologie des ägyptischen Neuen Reiches, HÄB 39, Hildesheim, 1994, p. 106 et p. 118 (accession au trône d'Akhenaton : probablement octobre 1355 av. J.-C., donc février an V = 1351 av. J.-C.) 30 W. HELCK, « Was kann die Ägyptologie wirklich zum Problem der absoluten Chronologie in der Bronzezeit beitragen ? Chronologische Annäherungswerte in der 18. Dynastie », dans P. Åström (éd.), High, Middle or Low (Acts of an International Colloquium on Absolute Chronology Held at the University of Gothenburg 20th - 22nd August 1987, Gothenburg), SMAP 1, Göteborg, 1987, p. 18-26 (règne d'Akhenaton : 1340-1324 av. J.-C. ; an V = 1335 av. J.-C.). 31 R. KRAUSS, D. WARBURTON, dans E. Hornung et al. (éd.), Ancient Egyptian Chronology, p. 492. 154 Luc Gabolde assyriennes amèneraient à considérer une chronologie basse comme plus vraisemblable 32. L'adoption d'une chronologie haute ou basse a pour conséquence de déplacer – légèrement – le point où se lève le soleil sur la falaise orientale le 13e jour du mois IV de peret : – Si l'on prend, par exemple, une chronologie haute où l'an V d'Akhenaton = 1351 av. J.-C. (–1350), alors, cette année-là, le 13e jour du mois IV de peret tombe un 22 février (en calendrier grégorien absolu, soit le 6 mars en calendrier julien) ; ce jour là, le bord supérieur soleil est apparu sur l'horizon oriental 33 à 102° 3' 17,9'' et il était totalement levé, reproduisant le signe "≈t, à un azimut légèrement plus méridional de 102° 22' 51,8''. – Si l'on se cale plus près de nous dans le temps et que l'on prend par exemple an V d'Akhenaton = 1335 av. J.-C. (–1334), alors, cette année là, le 13e jour du mois IV de peret tombe un 19 février grégorien (2 mars julien) ; ce jour là, le soleil est apparu sur l'horizon oriental à 103° 36' 42,2'' et, lorsqu'il émerge , il est alors à un azimut de totalement de la falaise, reproduisant le signe 103° 56' 30''. Ces résultats sont assez troublants, toutes hypothèses chronologiques confondues. D'une part, il faut bien admettre qu'ils ne correspondent pas exactement aux données (certes imprécises) dont nous disposons sur l'orientation axiale du petit temple d'Aton, si l'on retient les valeurs médianes (aux alentours de 104° 3' 50,4''–104° 34' 58,86'', ce qui donne des différences allant d'environ 7,20' au mieux à 2° 31' 41'' au pire, ce qui est beaucoup dans ce dernier cas). On se trouve encore aux franges de la « fourchette » large d'incertitude sur l'orientation réelle du temple d'Aton (107° 29' – 102° 37' 12''). D'autre part, force est de constater que ces résultats n'en sont pas non plus considérablement éloignés et donc que, dans tous les cas de figures, le petit temple d'Aton se trouvait bien orienté, à quelques minutes, voire quelques degrés d'arc près, sur le point où se levait le soleil le 13e jour du mois IV de peret des ans V (et VI) d'Akhenaton. Le soleil a même pu se lever exactement dans l'axe si la chronologie basse est retenue, si c'est le soleil totalement visible, générant la forme sur l'horizon, qui était retenu et si le véritable axe du petit temple est orienté à 103° 56' 30'', c'est-à-dire à peine plus de 7' 20'' d'écart par rapport à la « fourchette » 32 R. STEMPEL, « Identification of Nibhururiya and the Synchronism in the Egyptian and Hittite Chronology in the Light of Newly Reconstructed Hittite Text », GM 213, 2007, p. 97 ; J.L. MILLER, « Amarna Age Chronology and the Identity of Nibhururiya in the Light of a Newly Reconstructed Hittite Text », AltForsch 34/2, 2007, p. 252-293. Par ailleurs, la réduction semble-t-il impérative de la longueur du règne d'Horemheb à moins de 15 années imposerait un tel abaissement de la chronologie (voir J. VAN DIJK, « New Evidence on the Length of the Reign of Horemheb » : http://www.rhodes.aegean.gr/tms/congress%20site/Abstracts.pdf, p. 263). 33 Cet horizon oriental forme un angle de 1°14' 28,37'' avec l'horizontale lorsque l'on se trouve dans le petit temple d'Aton. La réfraction pour cette hauteur (le centre de l'astre étant plus bas d'un demi diamètre solaire) vaut environ 0,26'. Pour les amateurs de calculs astronomiques, je fournis ici les autres données que j'ai utilisées pour les calculs : longitude du petit temple d'Aton : 30° 53' 43'' est ; latitude du petit temple d'Aton : 27° 38' 44'' nord ; altitude : 50 m au-dessus du niveau de la mer. « "L'horizon d'Aton", exactement ? » 155 médiane (104° 3' 50,4''–104° 34' 58,86''), et à l'intérieur de la « fourchette » extrême (107° 29' – 102° 37' 12''). Un relief du tombeau royal d'Akhenaton à Amarna vient faire écho à cette supposition. Sur le mur A de la salle alpha, le roi est représenté officiant dans la première cour du temple d'Aton, tourné vers le soleil levant, l'astre diurne apparaissant à l'arrière du temple et émergeant du sommet de la falaise et formant un gigantesque signe "≈t 34. Conclusions Nous nous trouvons en présence de convergences qui ont peu de chances de relever du pur hasard, compte tenu de l'importance de la notion d'"≈t dans la pensée égyptienne et dans l'univers mental d'Akhenaton, importance qui apparaît de manière toute particulière dans le fait que sa nouvelle capitale fut spécifiquement nommée "≈t-'Itn. Je crois donc que l'on peut proposer comme extrêmement vraisemblable que le petit temple d'Aton ait été implanté en s'orientant sur le point où se levait le soleil au jour de sa fondation, très probablement le 13e jour du mois IV de peret de l'an V. Cette hypothèse ne pourra, toutefois, être définitivement validée que si l'on peut disposer à l'avenir de données plus précises et plus fiables sur l'orientation exacte du petit temple d'Aton, et, par ailleurs, que si l'on parvient à caler de manière plus précise en chronologie absolue les dates du règne d'Akhenaton. Pour finir, deux remarques supplémentaires méritent d'être faites. En premier lieu, il me semble fécond de mettre en parallèles les deux divinités Amon et Aton, ainsi que les deux temples, celui d'Amon-Rê à Karnak de celui d'Aton à Tell el-Amarna. Il y a longtemps P. Barguet avait déjà proposé d'établir un parallèle, du point de vue de la disposition fonctionnelle et liturgique des espaces, entre le grand temple d'Aton à Tell el-Amarna et le temple de Karnak 35. L'expérience peut être, avec profit, poussée plus avant. Aton et Amon sont fondamentalement des divinités solaires, mais ce sont des frères ennemis et on peut considérer qu'Aton s'est en partie défini en se démarquant d'Amon. Aton est un dieu visible, Amon est, par définition, le Caché ; le sanctuaire d'Aton est un espace à ciel ouvert alors que le sanctuaire d'Amon à Karnak (l'Akhmenou) est retiré, secret, avec un accès complexe et restreint. Amon est anthropomorphe, Aton n'a comme aspect que le disque solaire rayonnant, Amon a une famille et s'insère dans une mythologie, Aton est seul, solitaire et réellement unique. Amon est créateur du monde, Aton entretient la vie dans le monde sans que la question des origines ou de l'eschatologie ne se pose ; Amon parle au roi, Aton est muet. Amon a un clergé pléthorique, tandis qu'Aton n'a au départ qu'un prophète : Akhénaton. 34 G.T. MARTIN, The Royal Tomb at el-'Amarna II. The Reliefs, Inscriptions, and Architecture = The Rock Tombs of el-'Amarna 7 = ExcMem 39, Londres, 1989, pl. 34, 37. La représentation du mur opposé, le mur C de la même salle (pl. 47), quasi identique à celle de la paroi A, figurerait, selon G.T. Martin (p. 33-35), le coucher du soleil. Il met en avant l'absence des animaux s'ébrouant au réveil dans cette seconde scène. La position de l'horizon à l'arrière du temple est dans ce cas pour le moins surprenante. 35 P. BARGUET, « Note sur le grand temple d'Aton à el-Amarna », RdE 28, 1976, p. 148-151. 156 Luc Gabolde On peut ajouter désormais que les temples de Karnak et de Tell el-Amarna ont tous deux été orientés sur un point où se lève le soleil, mais à des dates bien distinctes : à Karnak, il s'agissait du solstice d'hiver, d'une date cosmique qui marque le départ d'un nouveau cycle d'allongement des jours, tandis qu'à Amarna, il s'agissait d'une date royale, la date de la première adoration du disque sur le site par Akhenaton en personne. En second lieu, il convient peut-être de revenir sur le fait déjà évoqué que l'horizon Akhet est un accès la Douat, à l'au-delà (voir ci-dessus les citations de E. Hornung et J.P. Allen). En effet, si l'on prolonge l'axe du petit temple d'Aton, on se rend compte qu'il vient, loin à l'ouest, passer sur la tombe royale [fig. 5]. On est en droit, dès lors, de se demander s'il n'y aurait pas eu là une volonté d'assimiler la tombe royale au lieu de renaissance du soleil, garant de la résurrection du souverain dans le mystérieux au-delà amarnien 36. La suggestion n'est pas gratuite car l'iconographie de la tombe royale montre une insistance particulière à célébrer d'une part l'émergence du soleil et d'autre part sa course diurne, avec l'évolution du disque solaire dans le ciel 37. Certes, l'hypothèse n'est pas véritablement démontrable, faute de textes explicites, mais elle ne me paraît pas aberrante. Fig. 5. Ligne de prolongation de l'axe du petit temple d'Aton qui passe au-dessus de l'ouverture de la tombe royale (d'après Google-EarthTM). * ** 36 Voir M. GABOLDE, op. cit., p. 19-21. Noter que le devenir solaire du roi fait partie de la conception traditionnelle exposée sur les parois des tombes royales de Thèbes avec le Livre de l'Amdouat, les Litanies de Rê, etc. 37 G.T. MARTIN , op. cit., pl. 34, 37, 47, et p. 228-232, p. 233-235, pour le soleil émergeant de l'horizon, et pl. 29-30 et p. 25-26, ainsi que la pl. 12A, instructive en ce qu'elle montre comment la lumière du soleil pourrait pénétrer quasiment jusqu'au fond du tombeau. 157 « "L'horizon d'Aton", exactement ? » Alors que ce travail se trouvait sous presses, j'ai pu obtenir, grâce à H. Fenwick, les coordonnées des angles du petit temple d'Aton dans le repère de la « red belt » du Survey of Egypt 38 : Angle nord-ouest x= 604527,6463 y= 549092,0977 Angle sud-ouest x= 604501,4740 y= 548990,4205 Angle sud-est x= 604682,5718 y= 548945,3297 Angle nord-est x= 604708,4455 y= 549046,4337 L'azimut des côtés nord et sud du temple peut en être déduit : Côté nord 104° 10' 29'' Côté sud 103° 58' 54'' Moyenne cotés Nord et Sud 104° 04' 41'' Un nouveau correctif doit être introduit ici. Le repère orthonormé de la carte du Survey of Egypt a son origine au point 31° Est et 30° Nord, et, plus on s'éloigne de ce point moins le nord du carroyage est en correspondance avec le nord vrai. Le calcul de la convergence des méridiens dans un système Mercator, projection de Gauss, est donné par l'équation suivante :  = latitude du lieu (petit temple d'Aton à Amarna : 27° 38' 44'' nord).  = méridien d'origine (31° Est)  = méridien du lieu (petit temple d'Aton à Amarna : 30° 53' 43'' est)  = angle de convergence des méridiens = ArcTan (Sin  * Tan ( - ))  = 0° 2' 54,93'' pour le petit temple d'Aton à Tell el-Amarna, à soustraire des données précédentes. L'azimut du petit temple d'Aton par rapport au nord géographique vrai s'établit donc comme suit : Côté nord 104° 7' 33,68'' Côté sud 103° 55' 58,63'' Moyenne côtés nord et sud 104° 01' 46,16'' Ces résultats sont tout à fait compatibles avec ce qui est attendu dans l'hypothèse exposée plus haut d'une chronologie basse, et d'une orientation sur le disque solaire dégagé de la falaise, formant le signe-akhet. 38 http://digitalmapofegypt.blogspot.com/ ou http://2.bp.blogspot.com/_bDd-fnU7vkM/SO89GTjf4rI/AAAAAAAAACs/8Be2ae6EqNQ/s1600h/Grid.jpg.
{'path': '46/halshs.archives-ouvertes.fr-halshs-00751771-document.txt'}
Le goût de la lecture et le partage d'opinions concernant le roman sur le forum Ados.fr Lucile Azam To cite this version: Lucile Azam. Le goût de la lecture et le partage d'opinions concernant le roman sur le forum Ados.fr. Education. 2016. dumas-01702930 HAL Id: dumas-01702930 https://dumas.ccsd.cnrs.fr/dumas-01702930 Submitted on 7 Feb 2018 Distributed under a Creative Commons Attribution - NonCommercial - NoDerivatives| 4.0 International License Master Métiers de l'Éducation, de l'Enseignement et de la Formation Mention Parcours 2nd degré Documentation MEMOIRE Le goût de la lecture et le partage d'opinions concernant le roman sur le forum Ados.fr Lucile Azam Co-dirigé par : Gilles Sahut et André Tricot Membres du jury de soutenance -Gilles Sahut, docteur en sciences de l'information et de la communication -André Tricot, professeur d'université en psychologie Soutenu le 25/05/2016 Année universitaire 2015-2016 1 sur 57 Remerciements Je remercie toutes les personnes qui ont pu m'aidée lors de ce travail. Je tiens d'abord à remercier Monsieur Gilles Sahut, qui m'a accompagnée tout au long de la réalisation de ce mémoire avec ses précieux conseils et sa disponibilité. Je remercie également tous les formateurs de l'ESPE qui m'ont accompagnée durant ces deux années de master. Merci à Monsieur Frédéric Imbert, professeur-documentaliste au collège Albert Camus de Villemur-sur-Tarn, pour m'avoir accompagnée dans ma formation tout au long de cette année de stage. Enfin, je souhaite remercier mes proches, ma famille, sans qui rien n'aurait été possible, ainsi que mes amis, qui m'ont offert un soutien indispensable et m'ont encouragée lors de la réalisation de ce mémoire. 2 sur 57 Résumé Cette étude a pour but de mieux connaître les goûts des jeunes (entre 12 et 18 ans) en matière de lecture, plus particulièrement de romans, à travers leurs échanges sur un forum de discussion du site Ados.fr. Ce forum de discussion est une sphère réservée aux adolescents a priori sans regard porté par les adultes sur leurs messages et leurs goûts. Leurs propos sont singuliers et authentiques. Cette analyse a un enjeu scientifique, car leurs opinions sont peu étudiées. Pour répondre à notre objectif, nous analysons la section portant sur le roman en utilisant une méthode quantitative, qui permet de dresser la typologie des demandes les plus formulées sur le forum, et une méthode qualitative, qui permet de constater quels sont les critères énoncés. Les résultats de ce travail montrent qu'il y a quatre types de demandes récurantes. Egalement, ce public formule des critères d'appréciation, positifs et négatifs, tels que les thématiques abordées par le livre, le genre littéraire, les personnages, le style d'écriture, les émotions, les adaptations cinématographiques, le niveau de lecture ou encore le nombre de pages. Ces résultats éclairent la pratique du professeur-documentaliste, qui peut s'appuyer sur ces conclusions afin de guider sa politique d'acquisition de fictions ou encore mettre en place des projets d'incitation à la lecture. Mots clés : lecture / roman / goûts de lecture / forum de discussion / adolescent 3 sur 57 Table des matières Remerciements 2 Résumé 3 Table des figures 7 Introduction 8 Partie 1 : Etat de la question 10 1.1 Les jeunes et la lecture 10 1.1.1 Le rapport à la lecture 10 1.1.2 Malgré une baisse de la lecture, les jeunes continuent de lire 10 1.2 Les lectures des jeunes : s'intéresser aux goûts des jeunes 12 1.2.1 Les pratiques de lecture chez les jeunes : fréquence et goût de lire 12 1.2.2 Les sujets qui intéressent les jeunes dans leurs lectures 13 1.2.3 Les goûts des adolescents : séries, heroic-fantasy, humour et chick lit 13 1.2.4 L'évolution des goûts littéraires des adolescents : disparition de titres liés à l'enfance et apparition du poids scolaire 14 1.3 La construction d'un parcours de lecture 14 1.3.1 La notion de réseaux de lecture 14 1.3.2 La « sociabilité littéraire » 15 1.3.3 L'influence des pairs dans les choix de lecture 16 1.3.4 Lecture et discussion 16 1.4 Les forums de discussion : un outil pour explorer les attentes des jeunes sur la lecture 16 1.4.1 Les forums de discussion : les spécificités 17 1.4.2 La dimension publique des forums et la formation des opinions 18 1.4.3 Le forum de discussion comme conversation 18 4 sur 57 1.4.4 La présence des jeunes sur les forums de discussion 19 1.4.5 Les activités des jeunes fréquentant les forums de discussion 19 1.5 Le jugement en ligne des amateurs 20 1.5.1 Portrait et motivations des évaluateurs en ligne 20 1.5.2 L'évaluation positive 21 1.5.3 Succès d'une oeuvre et critique en ligne 21 1.5.4 Le succès des « booktubeurs » 21 1.6 Les forums de discussion : analyser le discours de réception des lecteurs 22 Partie 2 : Méthodologie 24 1. Le corpus analysé 24 1.1 Le site Ados.fr 24 1.2 Délimitation du corpus 24 2. Dispositif d'observation 25 2.2 Procédure d'analyse 26 Partie 3 : Résultats 28 1. Analyse quantitative 28 1.1 Typologie des demandes : quatre types de demandes formulées par les participants 2. Analyse qualitative 28 33 2.1 Les goûts qui apparaissent le plus chez le public fréquentant le forum de discussion 33 2.1.1 Les thèmes que les jeunes recherchent dans leurs lectures 33 2.1.2 Les genres littéraires qu'ils souhaitent lire : fantastique, fantasy, science-fiction et réalisme 35 2.1.3 La lecture de séries 35 2.2 Les critères d'appréciation formulés par les jeunes 36 2.2.1 Les critères positifs 36 2.2.2 Les critères négatifs 38 2.2.3 L'évaluation positive est majoritaire 39 5 sur 57 2.3 Le réseau de lecture et la place des pairs dans le forum de discussion Partie 4 : Discussion 40 41 1. Résultats obtenus : analyse quantitative 41 1.1 Plusieurs types de demandes concernant la lecture 41 1.2 L'intérêt pour la lecture 42 2. Résultats obtenus : analyse qualitative 43 2.1 Les goûts de lecture : thèmes, genres littéraires et séries 43 2.2 Les motivations des participants 44 2.3 Les critères positifs 45 2.4 L'évaluation positive est majoritaire 45 2.4 Le réseau de lecture et l'influence des pairs 46 Partie 5 : Implications professionnelles 1. Diversifier l'offre fiction du fonds documentaire 47 47 2. Des demandes formulées par les jeunes sur le forum de discussion similaires à celles formulées au CDI 48 3. Intégrer la pratique du forum de discussion au sein d'un projet scolaire 49 Conclusion 51 Bibliographie 52 Annexes 56 Annexe 1 : Analyse quantitative 56 Annexe 2 : Analyse qualitative 57 6 sur 57 Table des figures Figure 1 : Typologie des demandes formulées par les participants sur le forum Ados.fr 31 Figure 2 : Les raisons pour lesquelles les participants recherchent des conseils de lecture 33 Figure 3 : Fils de discussion ayant le plus grand nombre de vues 34 Figure 4 : Fils de discussion ayant le plus grand nombre de réponses 35 Figure 5 : La place de l'évaluation positive dans les messages du forum 39 7 sur 57 Introduction Si la lecture chez les jeunes est généralement présentée comme étant une pratique qui décroit, l'enquête du Ministère de la Culture et de la Communication (2008) prouve que les jeunes lisent, certes, moins qu'auparavant, mais que cette baisse est également présente chez les générations antérieures. Elle n'est pas propre à la jeunesse. À l'heure du web participatif, également appelé web 2.0, les internautes ont la possibilité d'écrire plus facilement sur le web. Ce web social se caractérise par des blogs, des réseaux sociaux numériques, des sites de type wiki, et des forums de discussion, permettant à des internautes de se rencontrer et de communiquer entre eux. Ainsi, le web apparaît comme un outil permettant d'encourager des pratiques culturelles (Octobre, 2009). Les technologies de la communication, et plus particulièrement les forums de discussion, permettent à des anonymes d'échanger autour de contenus culturels. Les 12-18 ans, l'objet de cette étude, ont des pratiques culturelles propres à leur âge. C'est ce que Donnat (2008) définit par la notion de culture juvénile. À l'heure actuelle, de nombreuses études existent concernant les pratiques de lecture des jeunes, mais peu se sont intéressées aux opinions de la jeunesse. Sur ces forums, les adolescents expriment leurs goûts, posent des questions ou demandent des conseils. Etudier ce lieu d'échange permet d'analyser ce discours et mieux comprendre les jeunes. La question qui dirige cette étude est la suivante : quels sont les goûts qu'ils formulent en matière de romans ? Autrement dit, à travers l'analyse de messages postés sur un forum de discussion, nous tenterons de connaître les différents aspects qui intéressent les jeunes dans la lecture. Plus précisément, nous souhaitons savoir pour quelles raisons fréquentent-ils le forum lors de leurs recherches de lecture ? Quels sont les goûts qui apparaissent le plus chez ce public (les thèmes et genres littéraires préférés) ? Quels sont leurs critères d'appréciation d'un roman ? Et quels sont leurs qualifications négatives ? Enfin, nous essaierons de percevoir quelle semble être la place de leurs pairs dans les discussions. Pour répondre à ce questionnement, nous allons utiliser, dans un premier temps, une analyse quantitative, afin de connaître les types de demandes sur le forum, puis une analyse 8 sur 57 qualitative, dans laquelle il sera question des critères d'appréciation énoncés par les participants. D'abord, nous présenterons l'état de la question permettant de faire un bilan des travaux déjà réalisés sur les pratiques lecture ainsi que l'utilisation des forums de discussion. Puis, nous présenterons le dispositif méthodologique mis à l'oeuvre. Ensuite, nous dresserons les résultats de l'analyse avant de les interpréter. Enfin, nous verrons quelles implications professionnelles peuvent être tirées de cette étude. 9 sur 57 Partie 1 : Etat de la question Il sera question dans cette partie des différents travaux portant sur les jeunes et leurs pratiques de lecture, leurs goûts et leurs parcours en tant que lecteur. Puis, nous verrons comment sont définis les forums de discussion et quels sont leurs spécificités, pour enfin nous intéresser aux travaux évoquant le jugement en ligne. 1.1 Les jeunes et la lecture 1.1.1 Le rapport à la lecture Lire peut être un acte difficile. C'est ce que souligne Petit (2002), anthropologue, spécialiste de la lecture et du rapport au livre, dan l'Eloge de la lecture (2002). Lire des livres peut s'avérer risqué lors de l'adolescence, car il s'agit d'une activité isolée, qui est contraire aux « valeurs propres à la culture du groupe ». Or, comme le rappelle la définition de la culture juvénile par Donnat (2008), l'individu adolescent se tourne vers des activités orientées vers le groupe de pairs. Petit rappelle également la crainte de l'intériorité chez les garçons. Ces derniers ressentent une certaine méfiance par rapport aux livres, notamment dans les milieux populaires, où pour les garçons, s'afficher en train de lire pourrait se traduire par une mise à l'écart, un rejet de la part du reste du groupe. La place des technologies d'information et de communication peuvent permettre aux jeunes de lever cette crainte, de s'exprimer plus librement, car anonymement. Malgré le constat souligné par Petit (2002) concernant la difficulté de lire pouvant être liée à la période adolescente, intéressons-nous maintenant aux pratiques culturelles des jeunes, en particulier aux pratiques de lecture. Les jeunes sont-ils des lecteurs ? 1.1.2 Malgré une baisse de la lecture, les jeunes continuent de lire Dans l'enquête du Ministère de la culture et de la communication en 2008, Donnat souligne que la lecture de livres, et plus largement de documents imprimés, est en recul, mais cette baisse n'est pas propre aux jeunes. Il s'agit d'un phénomène intergénérationnel. Certes, les jeunes de la décennie 1990 lisaient plus que les jeunes en 2008, toutefois, il est important 10 sur 57 de relever que ce sont les plus jeunes, les 10-14 ans, qui lisent le plus, par rapport à leurs ainés, les 15 – 24 ans (Octobre, 2009). Cette baisse n'est pas nouvelle. Elle est constatée depuis les années 1970. Ce n'est donc pas, contrairement à certaines idées reçues, le développement d'internet qui serait à l'origine de cette baisse. Dans un article, Octobre (2009), sociologue et spécialiste de la jeunesse, indique que la jeune génération (10 – 24 ans) est née « dans un monde dominé par les médias ». Les jeunes d'aujourd'hui ont grandi avec l'évolution des technologies de l'information et de la communication. Octobre (2009) remarque une prééminence des usages des technologies de l'information et de la communication chez ce public. Toutefois, cette utilisation n'empêche pas les autres pratiques culturelles. En effet, pour l'ensemble des activités culturelles, les jeunes restent le public majoritaire. Internet apparaît alors comme un outil permettant de développer son goût pour la culture. En 1993, Baudelot, Cartier et Détrez menaient une enquête auprès d'élèves âgés de 14 à 17 ans, en les interrogeant sur leurs pratiques culturelles, notamment sur leurs pratiques de lecture. Parmi ce que lisent les adolescents, nous trouvons des auteurs classiques, des récits d'aventure ou sentimentaux ainsi que des auteurs « classicisés » par le collège. Mais des différences existent parmi les lecteurs : l'origine sociale des élèves, leur réussite scolaire et surtout le sexe. En effet, l'étude montre qu'au collège, les filles lisent plus que les garçons. Une deuxième enquête a été menée par Détrez entre 2002 et 2008. Cette enquête permet de voir les changements dans les pratiques de lecture, quinze ans plus tard. Détrez (2011) dresse le constat suivant : les jeunes lisent moins qu'avant, mais ils sont toujours attirés par la lecture. Entre les interrogations de la première à la deuxième enquête, les pratiques de lecture baissent. Pourtant, Détrez (2011) souligne le fait que la lecture reste une activité importante aux yeux des adolescents : lire le soir par exemple ou se prêter des livres entre copains. Lorsqu'il est demandé aux adolescents si une activité culturelle leur manquerait s'ils ne pouvaient plus la pratiquer, les chiffres montrent que la lecture apparaît comme une activité importante : « Ainsi, la télévision, que 78,5 % des enfants regardent tous les jours à 15 ans, manquerait beaucoup à 34 % des téléspectateurs. Pour la lecture de livres, au contraire, si 14 % des enfants déclarent lire 11 sur 57 tous les jours, 39,5 % de ceux qui lisent au moins une fois par mois ne peuvent imaginer ne plus lire » (Détrez, 2011). 1.2 Les lectures des jeunes : s'intéresser aux goûts des jeunes Malgré la baisse tendancielle de la lecture, les jeunes restent des lecteurs. La culture juvénile se définit par des comportements et goûts culturels spécifiques, en regard du monde des adultes (Donnat, 2008). Ainsi, les lectures des adolescents sont elles aussi spécifiques. Perier (2007), chercheur en sciences de l'éducation, s'est intéressé dans une enquête à l'inflexion dans les pratiques de lecture qui s'amorce au collège. Dans cette étude, Perier s'interroge sur la modification du rapport à la lecture lors de l'entrée dans adolescence. Il a fait passer un questionnaire portant sur les pratiques et goûts de lecture auprès de collégiens et de lycéens. 1.2.1 Les pratiques de lecture chez les jeunes : fréquence et goût de lire Concernant la fréquence de lecture, l'enquête de Perier (2007) souligne que les adolescents se représentent comme des lecteurs. En effet, 48 % des élèves de 6e, 46 % en 5e, 50 % en 4e, 49 % en 3e et 43 % en seconde générale répondent lire « tous les jours ou presque ». Un décrochage est repéré chez les élèves inscrits en lycée professionnel (30 % seulement des élèves en BEP se disent lecteurs réguliers). Au collège, le goût de lire persiste. C'est ce que démontre l'étude de Perier (2007). Majoritairement, ce sont les élèves de 6ème qui disent aimer « beaucoup » lire (32%), contre 23% en 5ème. De la 6ème à la 3ème, le pourcentage d'élèves qui disent aimer « assez » lire est stable (de 43 à 46%). Concernant la lecture personnelle des adolescents, c'est-à-dire la lecture non scolaire, Perier (2007) démontre que la lecture personnelle est constituée de genres qui ne relèvent pas toujours des canons de la littérature consacrée. Ainsi, Les jeunes s'intéressent notamment à des formes plus ordinaires telles que la bande dessinée et les magazines (Perier, 2007). Toutefois, Patureau (1992) affirmait il y a plus de vingt ans que, même si les jeunes variaient 12 sur 57 leurs lectures en s'intéressant à d'autres formes, ils ne délaissaient pas pour autant la forme plus « légitime » qu'incarne le roman. Cela semble toujours le cas, car selon l'enquête menée par Perier (2007), la lecture de roman est la forme qui attire 46 % des lecteurs (de la 6ème à la 2de), après la lecture de revues, magazines et bandes dessinées. 1.2.2 Les sujets qui intéressent les jeunes dans leurs lectures Les adolescents accordent une importance aux oeuvres ayant pour thématique des sujets les préoccupant tels que la sexualité, la toxicomanie, la déviance ou les conflits familiaux (Perier, 2007). Ils apprécient également des genres littéraires qualifiés parfois de populaires, tels que la science-fiction ou l'épouvante (Perier, 2007). Perier rappelle également que dans les enquêtes sur la lecture, certaines références appréciées par la culture juvénile seraient ignorées. Cette ignorance serait liée au fait que ces oeuvres, appréciées par les jeunes, ne renvoient pas à une certaine légitimité. 1.2.3 Les goûts des adolescents : séries, heroic-fantasy, humour et chick lit Dans un article publié dans le BBF, Détrez (2011) compare les résultats des deux enquêtes, celle débutée en 1993 et la seconde en 2002. Les deux enquêtes demandaient le titre du dernier livre lu, hors bandes dessinées et titres lus dans le cadre de l'école. Détrez (2011) souligne la variété des réponses des adolescents. Elle insiste sur le contraste dans les réponses entre la première et la deuxième enquête. Dans la première, les réponses sont plutôt orientées vers des titres classiques (Germinal, La Gloire de mon père, Le Horla, par exemple), alors que dans la deuxième, il est important de noter l'importance des séries (Harry Potter, Eragon, Le Monde de Narnia). En effet, Détrez et Octobre, en s'appuyant sur les chiffres du Ministère de la Culture et de la Communication de 2010, insistent sur le goût des adolescents pour les séries, comme par exemple Harry Potter, qui en est l'emblème. Les lecteurs adolescents aiment retrouver le même personnage, voire aiment pouvoir grandir avec lui, au fil des tomes. Ainsi, on retrouve de plus en plus sur le marché éditorial des séries qui déploient l'aventure d'un héros (Tara Duncan, Twilight, La Guerre de Clans). Détrez (2011) remarque l'engouement des adolescents pour l'heroic-fantasy, notamment grâce à l'adaptation cinématographique du Seigneur des anneaux, et l'attrait pour 13 sur 57 les oeuvres qui circulent entre les différents médias (télévision, cinéma), comme par exemple Grand galop ou Gossip girl, qui sont des séries télévisées, et qui semblent plus attirer les adolescents que la littérature classique, comme c'était le cas quinze ans plutôt. Au goût pour les séries, Détrez et Octobre (2011) ajoutent deux genres appréciés par les adolescents. Il s'agit des romans qui font peur et des romans qui font rire. Enfin, la chick lit, littérature populaire, écrite par des femmes, à destination d'un lectorat féminin et parlant de femmes, souvent perçue comme une sous-littérature, rencontre pourtant un véritable succès (Hache-Bissette, 2012). Hache-Bissette parle d'un « nouvel avatar du roman sentimental ». De nombreuses catégories découlent de ce genre, et notamment la chick lit pour ados, avec des personnages plus jeunes, auxquels les lectrices semblent pouvoir s'identifier. Cette littérature féminine se caractérise par un style humoristique et léger. 1.2.4 L'évolution des goûts littéraires des adolescents : disparition de titres liés à l'enfance et apparition du poids scolaire Entre 11 et 17 ans, des évolutions dans les goûts littéraires des jeunes sont perceptibles. C'est ce que notent Détrez et Octobre (2011) dans un article. Les titres qui caractérisaient l'enfance (Le Club des cinq, Astérix) ou les titres rattachés à des programmes télévisuels (Sabrina, Charmed, Grand Galop) disparaissent des lectures citées par les jeunes entre 13 et 15 ans. Concernant la littérature classique, son apparition est remarquable dès l'âge de 15 ans. Elle semble être le signe de l'imposition scolaire. 1.3 La construction d'un parcours de lecture 1.3.1 La notion de réseaux de lecture Le lecteur n'est pas seul : il est influencé par des prescriptions de lecture (les médias, l'Ecole, la famille ou les pairs). Robine (2005), sociologue de la lecture, parle de réseaux de lecture. Elle précise que les réseaux de lecture d'un individu résultent d'une longue maturation. 14 sur 57 Le jeune lecteur hérite de son passé à la fois familial, c'est-à-dire des lectures qu'il a pu ou non rencontrer au sein de son foyer, et du passé scolaire, dans lequel, que ce soit dans le premier ou le second degrés, l'individu est inscrit dans un processus de lecture encadrée. Et enfin, un parcours personnel, ce parcours de lecture est qualifiée par Robine (2005) de lecture débridée : il s'agit d'un réseau informel et spontané. Il correspond aux lectures effectuées à titre personnel, à la différence du réseau institutionnel, celui de la classe ou du Centre de Documentation et d'Information (CDI) qui est constitué de lectures prescrites ou régulées. Ce réseau institutionnel constitue un bagage de références culturelles, selon Robine (2005). Ce qui nous intéresse particulièrement ici est le réseau spontané et informel, dans lequel les lectures sont portées par des sociabilités. Ce sont des lectures partagées avec les pairs. Robine (2005) précise que ce qui motive ces lectures, ce sont des préoccupations intimes. Ces questionnements étant des sujets personnels et intimes pour les adolescents, les sources de prescriptions sont alors multiples, et ne s'inscrivent pas dans le réseau institutionnel. Les adolescents vont plutôt se conseiller entre pairs pour ce genre de lecture, au lieu de demander conseil à la bibliothèque ou à leur enseignant. Avec les technologies de l'information et de la communication, le réseau de lecture de type informel s'accentue, car les jeunes peuvent ainsi échanger plus facilement et de façon anonyme sur leurs lectures. 1.3.2 La « sociabilité littéraire » Internet est aujourd'hui un outil de prescription littéraire et de légitimation des oeuvres (Octobre, 2009). Les adolescents se conseillent entre pairs, comme c'est le cas sur des blogs spécialisés dans la lecture et les forums de discussion. Les différentes formes de sociabilités littéraires sur internet sont abordées par Sagnet (2010), directrice de la publication de la revue Lecture Jeune. Elle s'intéresse aux blogs, forums et sites sur lesquels les adolescents parlent de leurs intérêts culturels, et en particulier de leurs lectures. Pour Sagnet, partager ses lectures en ligne permet de se reconnaître parmi une communauté de goûts. Les individus recherchent via ces échanges en ligne de la convivialité et le moyen de partager leurs émotions de lecture. Elle souligne que grâce aux discussions avec les pairs, le parcours de lecteur se construit et le goût littéraire de l'adolescent s'affirme. Sagnet prend l'exemple du forum « Romans » sur le site Ados.fr. Elle insiste sur le fait qu'ici, les participants viennent échanger leurs avis sur leurs lectures mais viennent surtout chercher des conseils de lecture. Les adolescents définissent 15 sur 57 leurs goûts, leurs principales attentes et citent souvent les titres qu'ils ont apprécié pour guider les autres participants. 1.3.3 L'influence des pairs dans les choix de lecture Lors de l'adolescence, les préférences de lecture se construisent au sein d'un entre-soi adolescent, avec les pairs, s'inscrivant dans la définition de la « culture juvénile » élaborée par Donnat (2008). Dans son enquête, Perier (2007) s'intéresse aux modalités de choix de lecture selon le niveaux scolaire. Il en résulte qu'au collège, l'influence des pairs est très présente et se renforce à partir de la 5ème (de 35% en 6ème à 43% en 5ème). Cette influence est bien plus importante que celles de la famille ou du professeur. 1.3.4 Lecture et discussion La lecture fait partie intégrante de notre quotidien. Elle est également, notamment par l'intermédiaire de l'objet livre, ce qui nous permet de communiquer avec autrui. En effet, c'est un sujet de discussion. Les lecteurs apprécient pourvoir communiquer avec leurs pairs sur ce qu'ils ont lu. Par la médiation du livre, « une communication immédiate ou différée s'établit » (Horellou- Lafarge, Segré, 2007). Avec Internet, les lecteurs ont accès à de nouveaux modes d'échange. La circulation du livre et de leurs opinions littéraires sont facilités. 1.4 Les forums de discussion : un outil pour explorer les attentes des jeunes sur la lecture Les réseaux d'adolescents lecteurs sur internet se sont développés, d'abord avec les forums de discussion et les blogs au début des années 2000, puis avec les réseaux sociaux numériques. Actuellement, c'est de plus en plus de « booktubeurs » que nous rencontrons sur internet. Il s'agit de jeunes parlant de leurs lectures dans des vidéos publiées sur la plateforme Youtube. Ce phénomène suscite un vif intérêt, comme en témoigne d'ailleurs une formation proposée par Lecture Jeunesse en mai 2016 sur les réseaux d'ados lecteurs sur internet, avec pour objectifs d'apprendre à repérer les sites et les réseaux de lecteurs et de comprendre et 16 sur 57 analyser ces pratiques. Ainsi, le forum de discussion apparaît comme l'un des outils permettant d'analyser les pratiques de lecture des adolescents. 1.4.1 Les forums de discussion : les spécificités Le forum de discussion est un outil de communication asynchrone. Si l'on se réfère à la définition du Journal Officiel de la République Française (1999), le forum de discussion est : « un service permettant l'échange et la discussion sur un thème donné : chaque utilisateur peut lire à tout moment les interventions de tous les autres et apporter sa propre contribution sous forme d'article ». Mangenot (2004) rappelle les différentes études menées par des chercheurs en sciences du langage ou en sciences de l'information et de la communication (Anis, 1998 / Marcoccia, 1998 / Beaudoin et Velkovska, 1999 ) et portant sur la communication par forum. Il souligne trois propriétés essentielles retenues par ces chercheurs : les dimensions écrite, asynchrone et publique des échanges. À ces trois particularités, Mangenot y ajoute le caractère structuré des échanges. Cette idée est reprise par Marcoccia (2004), qui, en observant le fonctionnement d'un forum, a déduit différents modes de structuration des échanges. Il souligne une structuration récurrente, dans laquelle l'on trouve la liste de toutes les interventions, selon trois critères, tels que le classement par date, par sujet et par émetteur. Marcoccia (1998), maître de conférence en sciences de l'information et de la communication, insiste sur la dimension publique des échanges : « dans un forum de discussion, il est impossible de sélectionner un destinataire. Toute intervention est « publique », lisible par tous les participants au forum, même si elle se présente comme la réaction à une intervention initiative particulière. L'aparté est impossible : le polylogue est la forme habituelle du forum et le multi-adressage en est la norme » (p.15). 17 sur 57 1.4.2 La dimension publique des forums et la formation des opinions Cette dimension publique est également présente chez Dalgren (2000), qui travaille notamment sur les médias numériques et la démocratie. Il évoque un mode de communication interactif, dans lequel une pluralité d'utilisateurs s'adresse à une autre pluralité d'utilisateurs (many-to-many). C'est le cas des forums Usenet (un système en réseau de forums créé en 1979 et encore utilisé aujourd'hui) et des autres espaces dédiés à la conversation en ligne. Dans cette situation de communication, les individus entrent en contact pour parler, mais également « pour faire des choses ensemble » (Dalgren, 2000). Avec internet, on trouve une « myriade de mini-espaces publics spécialisés et d'espaces publics alternatifs » (Dalgren, 2000). Dahlgren évoque le processus de formation des opinions au sein des espaces de communication en ligne, notamment en ce qui concerne les activités citoyennes. 1.4.3 Le forum de discussion comme conversation Marcoccia (2004) constate lors de son analyse d'un forum le risque d'une digression thématique, qui se construit progressivement, lorsque qu'un émetteur introduit un nouveau développement thématique par rapport au message précédent. Il parle alors de « décomposition thématique » se caractérisant par un éparpillement, souvent présent dans les forums de discussion politiques. Dans ses travaux, Marcoccia (2004) souligne la difficulté à définir les discussions que l'on trouve sur les forums comme une conversation. Son premier argument est celui de l'impossibilité d'identifier « l'unité du cadre participatif d'un forum », car il y a en effet de nombreux participants, certains qui arrivent dans le forum, d'autres qui s'en vont. Son second argument concerne la durée de la discussion. Marcoccia (2004) souligne que la dimension temporelle dans les échanges qui ont lieu dans un forum n'est pas celle que nous connaissons dans une conversion de vive voix, puisque les participants peuvent répondre à un message longtemps après la première production du message. Ainsi, Marcoccia parle de « documents numériques dynamiques ». 18 sur 57 1.4.4 La présence des jeunes sur les forums de discussion Les jeunes sont très présents en ligne. C'est ce que démontrent Madden, Ford et Miller (2007) qui soulignent l'attachement des jeunes au web. Les jeunes considèrent le web comme une ressource documentaire très utile, qui parvient même à supplanter l'entourage humain, avant privilégié comme source d'information. Marcoccia cite les travaux de Puustinen (2009), qui souligne que les forums sont utilisés pour l'entraide scolaire en ligne. Mais, majoritairement, les jeunes utilisent Internet pour communiquer. C'est l'utilisation qu'en font 63 % des 12-14 ans, 81 % des 15-17 ans et 93 % des 18-22 ans (Marcoccia, 2010). Si le forum de discussion n'est pas l'outil le plus utilisé par les jeunes, il correspond toutefois à un usage inscrit dans les pratiques adolescentes (Marcoccia, 2010). 1.4.5 Les activités des jeunes fréquentant les forums de discussion Les participants d'un forum de discussion se retrouvent en ligne, notamment dans l'intérêt de retrouver un groupe. Dans un forum de discussion, les participants se regroupent dans des fils de discussion selon des centres d'intérêts communs, et pas par des relations sociales. Marcoccia (2010) indique que le forum permet de constituer un groupe qui semble plus accessible que ce que le serait un groupe dans la vie réelle. Marcoccia (2010) analyse les pratiques d'écriture des adolescents dans les forums de discussion. Il travaille sur un corpus constitué de fils de discussion des forums du site Ados.fr. En utilisant la méthode de l'analyse de discours médiatisés par ordinateur, il relève différents types d'activités propres au forum de discussion : -le soutien et l'entraide entre les participants, -la confrontation d'opinions. La confrontation d'opinions donne souvent lieu à une argumentation. Le forum de discussion est un espace de débat et d'argumentation (Marcoccia, 2010). Cela est permis en particulier grâce à l'anonymat des participants qui facilite l'expression de leurs opinions, le caractère public qui rend possible la diffusion des opinions et l'échange écrit qui permet de développer l'argumentation. Le partage d'affinités est également recherché par les jeunes participants. Les 19 sur 57 affinités apparaissent lorsque les participants échangent des opinions positives sur un même sujet. Ce partage participe à la création de communauté dans le forum. Sur un forum de discussion, des jeunes qui n'oseraient pas s'exprimer face à un groupe d'individus seront probablement plus enclin à la discussion en ligne via un forum pour échanger leurs opinions. En effet, Dalgren (2000) souligne que les communications en ligne, qui sont centrées sur du texte, et se caractérisent donc par une absence de répliques auditives ou visuelles (pour ce qui concerne les forums de discussion). Ainsi, pour reprendre les termes de Dahlgren (2000) : «l'anonymat sur l'internet facilite la tromperie () en même temps, l'absence des marqueurs sociaux traditionnels, qui caractérise l'interaction sur le net, peut permettre à des voix, qui n'auraient pas pu s'exprimer autrement, de se faire entendre ». 1.5 Le jugement en ligne des amateurs Il existe une multiplicité de dispositifs permettant de publier une évaluation en ligne : blogs, réseaux sociaux, forums, sites de vente ou d'information sur les produits. Depuis peu, les sciences humaines et sociales s'intéressent au jugement en ligne des amateurs, longtemps étudié par les chercheurs en marketing. Pasquier (2014) souligne que c'est surtout du côté du marketing que les études sont le plus nombreuses, car il y a des enjeux importants, tels que la connaissance des opinions des consommateurs. Aujourd'hui, les sciences de l'information et de la communication se penchent de plus en plus sur la question du jugement en ligne. Ces études portent sur des domaines divers, tels que la cuisine, les restaurants, les films et séries. 1.5.1 Portrait et motivations des évaluateurs en ligne Concernant les évaluateurs sur internet, Pasquier montre la difficulté à dresser un portrait de ces évaluateurs en ligne, tant les dispositifs d'évaluation sont divers, tout comme les effectifs des participants et leurs profils. Toutefois, les motivations des évaluateurs sont plus faciles à identifier. D'abord, Pasquier identifie une gratification personnelle, le plaisir de s'exprimer et celui d'écrire. Elle rappelle aussi qu'il existe une certaine dynamique relationnelle par rapport aux autres participants. Elle cite à ce propos les travaux d'Hennig20 sur 57 Thurau et al. (2004) qui ont relevé diverses motivations, via une étude par questionnaire. Les évaluateurs en ligne rechercheraient l'attention d'autrui, afin de montrer sa compétence, d'affirmer sa supériorité, de donner l'impression d'avoir davantage d'informations que les autres, et de les aider à faire leur choix. Si l'on s'intéresse au profil des évaluateurs sur internet, qui sont très nombreux, il est important de noter que la participation est inégale. Pasquier souligne que ce milieu là n'échappe pas à la loi de puissance, régissant le Web 2.0. Autrement dit, il existe un déséquilibre dans cette pratique, entre un petit nombre de participants très actifs face à un grand nombre qui n'intervient que ponctuellement. 1.5.2 L'évaluation positive L'évaluation positive est plus présente que l'évaluation négative. Pasquier (2014) note que l'effet de l'anonymat propre à l'évaluation en ligne pourrait permettre aux évaluateurs de formuler des jugements sévères. Or, elle montre que les internautes interviennent plus souvent pour écrire une recommandation, c'est-à-dire une critique positive, plutôt que pour sanctionner. Cela semble être une constante de l'évaluation sur le web. 1.5.3 Succès d'une oeuvre et critique en ligne Le lien entre le succès d'une oeuvre et la critique en ligne semble fragile. Pasquier rappelle que d'autres facteurs interviennent : par exemple la présence d'une star dans le casting ou encore la promotion du film. Pasquier cite à ce propos les travaux de Cameron (1995) soulignant que la corrélation entre les critiques et les ventes serait liée au fait que plus les dépenses de promotion sont élevées, plus la critique se mobiliserait. 1.5.4 Le succès des « booktubeurs » Autre forme d'évaluation en ligne par les amateurs, il est important de souligner le succès que connaissent les « booktubeurs ». Les « booktubeurs » sont des jeunes passionnés de lecture, qui parlent de livres dans des vidéos postées sur internet. Dans ces vidéos, ils réalisent des critiques amateurs et font la promotion du livre. Cette communauté vient des 21 sur 57 Etats-Unis et a émergé en 2011-2012. En France, ce phénomène est arrivé en 2013. Les vidéos les plus célèbres tournent en moyenne autour de 10 000 vues. C'est une communauté majoritairement féminine et jeune (15-25 ans). Les « booktubeurs » deviennent des prescripteurs. En effet, leurs vidéos influencent la communauté de lecteurs qui les regardent. Auproux (2015), journaliste à Livres Hebdo, démontre qu'il est difficile de quantifier l'impact qu'ont ces vidéos sur les ventes. Les éditeurs n'ignorent pas leur potentiel commercial. Certains établissent des contacts avec les « booktubeurs », par exemple en leur envoyant gratuitement des romans. 1.6 Les forums de discussion : analyser le discours de réception des lecteurs Bigey (2011), maître de conférence en sciences de l'information et de la communication, s'intéresse aux forums de discussion traitant de la littérature populaire. Elle considère le forum de discussion comme un outil permettant d'étudier les représentations de la littérature, de la lecture et de ces pratiques. Elle s'intéresse aux lecteurs, à ce qu'ils disent de leurs lectures et donc à la réception des oeuvres. À travers une analyse de la réception par les forums de discussion, elle repère des pratiques de lecture en comparant différents forums (Les-romantiques.com, un forum de discussion dédié à une forme de littérature, la romance, et le forum de discussion Yahoo France), tous deux dédiés à la littérature populaire. Elle tire les conclusions suivantes : les critiques qui concernent la qualité littéraire sont très peu présentes dans le forum Yahoo, à la différence du forum Les-romantiques.com, dans lequel la notion de qualité des personnages et du texte est souvent évoquée. D'après son analyse, elle constate également que pour les participants de ces deux forums, la lecture renvoie aux notions d'évasion, d'apprentissage et de plaisir. Enfin, elle souligne que sont plus rarement citées « les contraintes liées à la lecture », mais elle souligne quelques « rares liens aux lectures scolaires imposées ». 22 sur 57 Ainsi, les différents travaux montrent que les jeunes sont des lecteurs, malgré la baisse de la lecture. Toutefois, cette baisse, qui n'est pas propre au public jeune mais qui concerne l'ensemble des générations, n'est pas directement liée à l'apparition d'Internet. Comme le souligne Octobre (2009), Internet devient un outil permettant de développer certaines formes d'activités culturelles. Enfin, ces travaux indiquent les goûts des jeunes, leurs pratiques de lecture ainsi que la fréquentation des forums de discussion. Mais, l'état de la question nous montre qu'il y a peu de travaux portant directement sur le discours formulé par les jeunes sur la lecture. Il apparaît donc important de traiter ce sujet, et en particulier d'analyser l'expression des jeunes sur un forum. En s'exprimant sur un forum de discussion, les participants semblent s'exprimer plus sincèrement que face à un adulte. Ainsi, nous voulons savoir quels sont les goûts des jeunes formulés sur les forums de discussion. 23 sur 57 Partie 2 : Méthodologie Nous nous intéresserons ici à la méthode employée lors de l'analyse du forum. Après avoir présenté le corpus étudié, il sera question du choix du dispositif d'observation. 1. Le corpus analysé 1.1 Le site Ados.fr Le corpus étudié pour analyser les écrits des adolescents est extrait du forum « Livres » du site Ados.fr. En décembre 2012, c'est le 32ème site français le plus visité, selon le classement CybereStat, avec 1 052 207 visiteurs par mois. Le site Ados.fr appartient au groupe Lagardère. Il est composé de plusieurs rubriques à destination des adolescents : musique, cinéma, gaming, tv et séries, style, livres ainsi qu'une rubrique forums. La partie forum est divisée en différentes catégories : « forum actu, forum télé, forum musique, forum ciné, forum livres bd, forum beauté mode, forum people, forum santé, forum love, forum sport, forum multimédia, forum 100% filles ». Nous y retrouvons les différents sujets qui constituent la culture juvénile. Chacun des forums est divisé en sous forum. Pour le forum livres, nous pouvons distinguer une catégorie « vos lectures », avec des sous catégories : « Bandes Dessinées, Mangas, Romans, Devoirs sujets révisions, Twilight ». Une seconde catégorie « vos écrits » est destinée aux échanges concernant les créations littéraires des adolescents. 1.2 Délimitation du corpus Notre corpus est extrait de la sous catégorie « Romans ». Il s'agit du forum qui contient un nombre de messages élevé (69 745, le 12 février 2016). Cette catégorie est la catégorie la plus fréquentée du forum « Livres » par les adolescents. Le roman attire 46 % des lecteurs de la 6ème à la 2nde (Perier, 2007). De plus, comme le montre le nombre de messages de cette catégorie, il s'agit d'un sujet qui semble intéresser particulièrement les participants de ce forum. 24 sur 57 Le corpus est constitué de fils de discussion sur une période de six mois. Le message de réponse le plus vieux étant une réponse datant du 5 août 2015, et la réponse la plus récente date du 12 février 2016, soit 60 fils de discussion, composé au total de 775 messages. Le critère de choix de la période de six mois pour constituer le corpus a été celui du nombre de fils de discussion, qui permet de croiser un nombre relativement important d'interventions sur le forum. Avant de débuter l'analyse des fils de discussion, nous avions délimité un corpus sur une période d'un an, soit 108 fils de discussion. Toutefois, nous avons du revoir cette délimitation lors de l'analyse. En effet, analyser un forum de discussion demande du temps. Nous avons donc décidé d'analyser moins de fils de discussion. Cela a était possible puisque le nombre de messages reste important. 2. Dispositif d'observation Concernant le choix du dispositif d'observation, il s'agit d'une analyse de contenu, plus précisément d'une analyse thématique de messages d'un forum. D'abord, précisons, comme le rappelle Dépelteau (2010) que l'analyse de contenu ne vise pas à porter un jugement de valeur sur l'objet étudié, mais tend à connaître de manière objective ce que le messager étudié a voulu exprimer. Analyser des messages d'un dispositif en ligne tel que le forum de discussion possède l'avantage de l'absence du biais lié à la présence du chercheur, à la différence de l'entretien, dans lequel l'individu interviewé peut, malgré lui, répondre afin de correspondre aux attentes du chercheur, notamment avec un public jeune, et particulièrement lorsqu'il s'agit d'élèves. Ils peuvent être influencés par le poids scolaire. À la différence d'élèves dans un cadre scolaire, les participants du forum semblent écrire de manière plus sincère par rapport à des propos qu'ils pourraient tenir face à un adulte. C'est ce que rappelle Marcoccia (2004) qui considère le forum de discussion comme un corpus idéal pour l'analyse des conversations et l'analyse du discours. En effet, il parle de l'authenticité des échanges. Le biais que peut produire la présence du chercheur n'existe pas puisqu'il est absent, à la différence d'un enregistrement lors d'un entretien. Toutefois, ce dispositif revêt certaines limites. D'abord, nous devons avoir conscience que le discours analysé est celui de jeunes fréquentant les forums sur la lecture : il semblerait donc qu'ils soient déjà sensibilisés à la lecture et 25 sur 57 apprécient lire. Il ne s'agit pas de tous les jeunes. À cela, Marcoccia (2004) souligne deux autres limites. Celle de l'archivage des messages, dont ont connaissance les participants. En effet, ils ont conscience que ce qu'ils écrivent va être conservé en ligne. Il peut y avoir une certaine réticence dans l'écriture. Enfin, Marcoccia (2004) remarque le problème du point de vue de l'établissement du corpus : un corpus n'a ni début ni fin, cela pose donc le problème de sa clôture. Lors de l'analyse d'un forum, il ne faut pas oublier que nous n'avons accès qu'à une partie des échanges. Des échanges ont eu lieu avant l'observation et d'autres auront lieu après. 2.2 Procédure d'analyse Le dispositif d'observation choisi s'inscrit dans une démarche inductive, puisque nous avons mené une observation indirecte. Il s'agit de l'analyse de messages écrits par des jeunes fréquentant le forum Ados.fr. Pour mener cette analyse, nous avons croisé les méthodes quantitative et qualitative, en procédant à une analyse thématique en deux temps. D'abord, nous avons réalisé une typologie des demandes formulées par les participants du forum, à partir des messages ouvrant les fils de discussion. Pour dresser cette typologie, nous avons catégorisé les types de demandes émanant des messages ouvrant les fils de discussion (voir annexe 1). Puis, une fois cette typologie dressée, nous avons pu établir une catégorisation des critères d'appréciation formulés par les participants. Pour cela, une grille d'analyse a été construite, en se basant sur des éléments issus de l'état de la question ainsi que sur le corpus de fils de discussion, c'est-à-dire les messages du forum de discussion. Cette grille était constituée de différents éléments (voir annexe 2) : -titre du fil de discussion, date et auteur -contexte de la demande -titres appréciés par l'auteur du fil de discussion -critères de préférences formulés : thématique / genre littéraire / classique / série / critères concernant les personnages / niveau de lecture du livre / niveau de lecture du participant / émotion recherchée -critères relevant de l'influence du poids scolaire : prescription d'un professeur / oeuvre étudiée en classe -aspect matériel -critères positifs 26 sur 57 -critères négatifs -autres commentaires Il a alors été question de s'intéresser aux occurrences les plus fréquentes parmi les catégories de critères émis par les individus. 27 sur 57 Partie 3 : Résultats Nous répondrons au questionnement de départ en deux parties. Dans un premier temps, nous traiterons les résultats de l'analyse quantitative, puis ceux de l'analyse qualitative. 1. Analyse quantitative 1.1 Typologie des demandes : quatre types de demandes formulées par les participants Afin de dresser une typologie des demandes formulées sur le forum « Romans », nous avons étudié le type de demandes formulées par les participants, dans les messages ouvrant les fils de discussion. La catégorisation des demandes formulées nous a permis de distinguer quatre types de demandes : -la recherche d'un conseil de lecture, -la recherche d'informations concernant un titre, -la confrontation d'opinions, -la création (aspect concernant l'écriture ou la publication d'écrit). Ainsi, il apparait que parmi les fils de discussion du corpus, 53% concernent des demandes en matière de conseils de lecture, comme c'est le cas dans l'exemple 1. Parmi les messages concernant la demande de conseils, il est important de relever la formulation des internautes. Soit il s'agit d'une simple question, soit le participant complète sa demande en citant des thèmes ou genres qu'il souhaite lire, et parfois avec des titres déjà lus et appréciés (voir exemple 2). Exemple 1 : YuuFashion : « Je voudrais acheter un livre mais j'aimerais que vous me conseillez, quels livre vous ont plus à vous » (posté le 7 mai 2010) Exemple 2 : 28 sur 57 Lelabroow : « Bonjour j'aimerais si possible que vous m'aidiez a trouver un livre a lire car je viens de finir "la face cachée de Margo" de John Green et je n'ai pas encore trouvé autre chose à lire :/ Si ça peut vous aider j'adore toute la série des Epreuves de James Dashner (le Labyrinthe, la Terre Brulée, etc), j'aime beaucoup "Qui es tu Alaska?" De John Green et d'autres livres de ce genre. Si vous savez quoi me conseiller allez y! » (posté le 1/07/2015) La recherche de conseils de lecture suscite le plus d'intérêt, puisque parmi les dix fils de discussion les plus lus, sept concernent les recherches de conseils de lecture. Il en est de même parmi les dix fils de discussion suscitant le plus de réponses (voir figure 3 et 4). La recherche d'informations sur un titre concerne 12% des fils de discussion du corpus. Dans ce cas, le participant a besoin d'une information telle que le titre d'un livre à partir d'un résumé (exemple 2) dont il se souvient ou bien à partir d'un aspect matériel tel que la couleur de la couverture de la collection de livres (exemple 4). Exemple 3 : Minihihii : « Bonsoir, Je souhaiterais retrouver le titre d'un livre que j'ai lu il y a très longtemps, mais voilà, je ne me souviens que de l'histoire ; j'ai beau faire des recherches sur Internet, j'ai l'impression qu'il n'existe plus. Alors voilà, l'histoire est relativement macabre : Un frère recherche sa soeur qui a disparu. Tout le monde doute qu'elle se soit faite kidnappée. Alors le frère enquête tout seul, puisque sa mère, anéantie par la disparition de sa fille, est tombée dans la drogue, et est obligée de supporter un "très méchant copain riche" (pour ne pas être vulgaire), pour survivre. Ils vivent dans un endroit miteux. Je me souviens plus comment par contre, mais le frère retrouve le corps de sa soeur dans un puits. » (posté le 5 décembre 2015) Exemple 4 : Brutaldeath : « Bonjour, je cherche une vieille collection de livres jeunesse epouvante-fantastique parue dans les 29 sur 57 années 90. Je lisais ça a l'école secondaire. Il me semble qu'il y avait du bleu sur la couverture, mais je ne crois pas que ce soit la collection peur bleue. » (posté le 3 décembre 2015) La confrontation d'opinions, autrement dit lorsque le participant demande des avis sur un titre et tente de susciter un débat concernent 17% des demandes. Exemple 5 : Angedesnuages : « Dites moi si vous aimer Hungers Games. Perso j'adore !!! » (posté le 29/11/2015) Exemple 6 : ZephiraEgo : « Bonsoir ! Je voulais savoir si des gens avaient lu ce livre et leurs avis sur celui-ci ! Personnellement je l'ai adoré, je trouve que l'intrigue est bien montée et que Jal, le personnage a un charisme fou ! De plus il n'y a aucun personnage qui est laissé à l'écart du moins parmi ceux qui sont important dans l'histoire ! Pour ma part il y'en a dont j'aurai aimé connaitre l'histoire plus en détail comme le Ka du village qui m'a beaucoup déplu mais pas mal intrigué ». (posté le 20/12/2015) Ce que nous avons appelé « création » concerne les messages ayant comme sujet un écrit de fiction réalisé par le participant ou l'un de ses proches (exemple 7) ou bien un sujet traitant de la manière dont publier un livre (exemple 8). Dans le corpus étudié, 15% des fils de discussion y sont consacrés. Ce sujet suscite un intérêt important comme le souligne l'analyse des titres de fils de discussion, puisque le fil « Comment publier un livre ? » arrive en troisième position des fils de discussion les plus consultés (avec 15 503 vues) et en première position des fils ayant le plus grand nombre de réponses (291 réponses). (voir figures 3 et 4). Exemple 7 : Quentgataga : « Salut tout le monde ! Aujourd'hui je poste ici pour vous partager le synopsis d'un petit roman que je suis en train d'écrire. C'est un roman d'anticipation, qui sera basé sur une intrigue prenante et plusieurs sous30 sur 57 intrigues dans cette même intrigue Un peu à la Guillaume Musso pour ceux qui connaissent. Le voici : () » (posté le 12/12/2015) Exemple 8 : Profil supprimé : « j'ai écrit un livre et je veux le publier mais je sais pas quoi faire pour le publier! donner moi des conseils! please help me! » (posté le 22/07/2007) Enfin, 3% des demandes ne rentrent dans aucune des catégories, puisqu'elles ne traitent pas du sujet que nous étudions (ces demandes traitent la recherche d'une série TV en version originale ou encore la présentation d'un jeu vidéo en ligne). Figure 1 : Typologie des demandes formulées par les participants sur le forum Ados.fr Conseils de lecture Création Hors sujet 12 % Confrontation d'opinions Recherche d'informations 3% 15 % 53 % 17 % 1.2 Les raisons pour lesquelles les participants recherchent des conseils de lecture Dans cette typologie des demandes où nous avons pu constater que le conseil de lecture était la demande la plus présente, il est intéressant également de noter les raisons de 31 sur 57 cette recherche de conseils. Nous avons alors distingué quatre raisons pour lesquelles le participant a besoin d'un conseil de lecture : -le participant ne sait pas quoi lire, -le participant ne se considère pas comme lecteur ou bien comme un faible lecteur mais il souhaite lire, -le participant recherche un livre pour les vacances, -le participant recherche un conseil afin d'acheter un livre. La majorité des demandes révèle que les participants demandant des conseils sont des lecteurs qui n'ont pas d'idées de lecture, puisque cette catégorie concerne 66% des demandes étudiées. C'est le cas dans l'exemple 9 où le participant dit ne plus rien avoir à lire. Exemple 9 : Flojhutch : « Bonjour, Je fais appel à vous car j'ai besoin de vos conseils ! Auriez-vous lu une trilogie ou des romans à plusieurs tomes qui vous ont vraiment plus et que vous conseilliez ? Je n'en ai plus à lire et j'aime beaucoup avoir une suite à mon roman ! » (posté le 30/04/2014) Moins présent que la simple demande d'un participant qui n'a pas d'idée, 13% des participants précisent qu'ils sont de faibles lecteurs et qu'ils souhaitent lire. C'est le cas pour les exemples 10 et 11. Exemple 10 : Enjoyer : « Tout est dans le titre, auriez-vous des romans à me proposer ? Ca fait longtemps que je ne lis plus, et j'en ai envie » (Posté le 7/11/2015) Exemple 11 : Bereponey : « Bonjour à tous, Voilà j'ai 14 ans et les seules choses que je me résumé à lire jusqu'à peu de temps était des magazines people. » (Posté le 12/08/2015) D'autres recherchent des conseils pour leurs lectures pendant les vacances, c'est le cas pour 13% d'entre eux. Enfin, 9% des demandes évoquent un conseil en vu d'acheter un livre. 32 sur 57 Figure 2 : Les raisons pour lesquelles les participants recherchent des conseils de lecture Ne sait pas quoi lire Ne se considère pas comme lecteur mais souhaite lire Recherche un livre pour les vacances Recherche un conseil afin d'acheter un livre 9% 13 % 13 % 66 % 2. Analyse qualitative Parmi la totalité des messages analysés, 223 nous ont permis d'analyser les thématiques et genres littéraires que les participants disent apprécier et rechercher dans leurs lectures. 2.1 Les goûts qui apparaissent le plus chez le public fréquentant le forum de discussion 2.1.1 Les thèmes que les jeunes recherchent dans leurs lectures L'analyse des messages postés par les participants sur le forum Ados.fr nous a permis de dresser une liste de thèmes que les jeunes disent apprécier dans leurs lectures. Les thèmes qui sont le plus souvent formulés par les participants sont ceux de l'amour, qui apparaît le plus souvent (sur 223 messages dans lesquels sont formulés des thèmes appréciés, l'amour apparaît chez 33 participants), les vampires (formulés par 13 participants), l'adolescence (formulé par 11 participants), l'humour (formulé par 11 participants) et l'amitié (formulé par 6 participants). 33 sur 57 De plus, l'analyse des titres de fils de discussion les plus lus et ceux suscitant le plus grand nombre de réponses montre que le thème de l'amour apparaît comme un thème primordial dans le choix de lecture des jeunes, par exemple, le fil de discussion « Je recherche un roman d'amour pour ado », posté le 15 septembre 2013 a 16 636 vues et 29 réponses, ce qui en fait l'un des fils les plus consultés de la catégorie « Roman » du forum Ados.fr. Figure 3 : Fils de discussion ayant le plus grand nombre de vues Titre du fil de discussion et date de création Nombre de vues (> 1000) 1 « Livres pour ado fille » (8/08/2011) 27 882 2 « Je cherche un roman d'amour pour ado » (15/09/2013) 16 636 3 « Comment publier un livre » (22/07/2007) 15 503 4 « Est-ce que « Une Impériale Affliction » existe ? » (20/07/2014) 12 112 5 « Recherche histoire d'amour prof élève » (28/02/2010) 9566 6 « Livre bien pour ados » 23/11/2012 4358 7 « Des livres comme Musso, ça existe ? » (28/06/2011) 4278 8 « Conseils trilogie (ou roman à plusieurs tomes) bien ? (30/04/2014) 3294 9 « Conseil lecture » (3/07/2012) 1818 10 « Je veux un livre fun à lire » (30/04/2013) 1174 34 sur 57 Figure 4 : Fils de discussion ayant le plus grand nombre de réponses Titre du fil de discussion et date de création Nombre de réponses 1 « Comment publier un livre ? » (22/07/2007) 291 2 « Le Royaume de Ga'hoole / Le Royaume des Loups « (24/01/2015) 113 3 « Livres pour ado fille » (8/08/2011) 72 4 « Conseil lecture » (3/07/2012) 34 5 « Je cherche un roman d'amour pour ado » (15/09/2013) 29 6 « Conseils trilogie (ou roman à plusieurs tomes) bien ? (30/04/2014) 19 7 « Livre bien pour ados » 23/11/2012 19 8 « Le Journal d'Aurélie Laflamme » (23/07/2012) 18 9 « Je veux un livre fun à lire » (30/04/2013) 16 10 « Conseillez-moi un livre qui » (7/05/2010) 14 2.1.2 Les genres littéraires qu'ils souhaitent lire : fantastique, fantasy, science-fiction et réalisme Si la distinction entre thématiques abordées par un livre et genres littéraires semble confuse chez les participants, l'analyse des messages a permis de souligner des genres appréciés par les lecteurs fréquentant le forum. Parmi eux, les genres revenant le plus souvent (c'est-à-dire formulés par les internautes dans leurs messages) sont la littérature fantastique, la fantasy et la science-fiction ainsi que ses sous-genres comme la dystopie puis vient enfin la littérature réaliste. 2.1.3 La lecture de séries L'analyse du corpus nous a également permis de constater que la lecture de séries est appréciée chez les jeunes. En effet, c'est un aspect qui revient souvent dans les propos formulés par les participants, qui apprécient, comme le démontre l'exemple 12, pouvoir lire la suite d'un roman. Sur les 60 fils de discussion du corpus, 28 évoquent les séries (conseils de 35 sur 57 lecture de série, avis sur certaines séries). Parmi ces 28 fils de discussion, c'est 98 messages sur 318 qui parlent de séries. Exemple 12: Flojhutch «Auriez-vous lu une trilogie ou des romans à plusieurs tomes qui vous ont vraiment plus et que vous conseilliez ? Je n'en ai plus à lire et j'aime beaucoup avoir une suite à mon roman ! » (posté le 30/04/2014) Enfin, la présence d'un fil de discussion dédié à la lecture de séries « Conseils trilogie (ou roman à plusieurs tomes) bien ? » parmi les fils les plus consultés (avec 3294 vues) et ayant un grand nombre de réponses (19) souligne l'importance accordée à ce type de lecture par les participants. 2.2 Les critères d'appréciation formulés par les jeunes 2.2.1 Les critères positifs L'analyse des messages du corpus, via l'utilisation d'une grille d'analyse (voir annexe 2), nous a permis de catégoriser les critères positifs et les critères négatifs des participants. L'élaboration des différentes catégories s'est fondée sur les notions importantes de l'état de la question ainsi que les éléments qui se sont révélés significatifs dans notre corpus. Parmi les 60 fils de discussion constituant le corpus, 35 d'entre eux nous ont permis d'analyser les critères d'appréciation. Ainsi, les éléments qui apparaissent dans les critères d'appréciation positifs sont, par ordre d'importance : -l'absence d'argumentation dans le choix, mais usage seulement d'un adjectif qualificatif (« super », « génial », « bien »,) Exemple 13 : egm75 : « Le premier tome est super. Faudrait que je lise la suite d'ailleurs » (posté le 21/10/2012) 36 sur 57 -l'identification aux personnages C'est le cas dans l'exemple 14 : XxAurExX : « Ce qui est génial dans ce roman c'est que tu te "retrouves" dans ce personnage : Aurélie Laflamme ». (posté le 4/08/2013) Ou encore l'exemple 15 : Jesuisunefillequiparlebeaucoup :« Il y a une autre série de livres : Le journal d'un coup de foudre. Celle-ci je l'ai adooooré. Il y a 3 tomes mais vraiment on se met bien dans la peau du personnage. » (posté le 23/11/2013) -le genre littéraire fantastique Exemple 16 : Lydie_Buff : « Je recommence a lire et je m'intéresse plus a la mythologie et au fantastique » (posté le 20/07/2015) -l'amour -le niveau de lecture : facile -l'adaptation cinématographique Exemple 17 : Nahyrah : « en plus, il y a même le film ! () il est vraiment génial, je ne vais pas te mentir il y a beaucoup moins d'indications dans le film que dans le livre mais c'est vraiment pour avoir une image des choses » (posté le 15/10/2013) -l'humour -l'histoire est prenante -l'importance des émotions -le genre réaliste -la construction de l'intrigue -l'influence des pairs : conseil des amis -le style d'écriture -des critères particuliers concernant les personnages -le nombre de pages élevé -le nombre de pages faible 37 sur 57 -le niveau de lecture : compliqué -le changement d'opinion suite à la lecture Exemple 18 : Petite_chipie : « Tu termines le roman, tu le poses sur ta table de nuit et là, tu commences vraiment à réfléchir. Et je me suis rendue compte que ce que je pensais avant pouvait être remis en question, et c'est ça je trouve, qui est génial. En tout cas, ce roman ne m'a pas laissée indifférente. » (posté le 12/12/2015) 2.2.2 Les critères négatifs Les critères négatifs, moins nombreux, sont les suivants : -l'adaptation cinématographique décevante Exemple 19 : DreamBird8 : « Et l'adaptation du film vis à vis des livres est vraiment, vraiment bizarre. Il y a énormément d'incohérences. » (posté le 14/02/2015) -le style d'écriture Exemple 20 : JulietteSW : « Contrairement à beaucoup de personnes, j'ai absolument détesté éternel d'alyson noel J'ai lu les deux premiers tomes, parce que j'étais sans arrêts sur la route et que j'avais rien à faire d'autre. Mais j'ai pas du tout accroché. L'histoire est pas mal, mais c'est de la façon qu'elle est écrite. Tout ce passe si vite, rien est décrit, et je n'aime pas vraiment le style d'écriture. » (posté le 25/11/2013) -le genre littéraire fantastique -l'amour Exemple 21 : Yoshilementalist : « Ouh là avec de l'amour C'est généralement le genre de romans que je ne lis guère » (posté le 28/06/2015) -l'aspect commercial 38 sur 57 Exemple 22 : Misanthropisme : « Pour être honnête je ne suis pas fan de John Green. J'ai lu tous ses livres probablement pour faire comme tout le monde, parce que je pensais que c'était cool d'être un mouton Mais en fait je trouve ça un peu commercial, kitsch, irréel, avec le recul bien sûr avant je trouvais ça génial » (posté le 12/09/2015) -l'érotisme -le nombre de pages : faible -le niveau de lecture : facile -le genre réaliste 2.2.3 L'évaluation positive est majoritaire Il est important de souligner que le jugement porté par les internautes est majoritairement positif : 78% de critères sont positifs, contre 22 % de critères négatifs. Figure 5 : La place de l'évaluation positive dans les messages du forum Critères positifs Critères négatifs 22 % 78 % 39 sur 57 2.3 Le réseau de lecture et la place des pairs dans le forum de discussion En analysant les messages du forum de discussion, il apparaît donc que les participants le fréquentent pour trouver des réponses (conseil de lecture, confrontation d'opinions, information sur un titre, conseil ou aide à propos d'une création). Ainsi, la place des pairs est importante. En effet, il semble que les participants décident de fréquenter ce site pour avoir des réponses à leurs questions, plus que leur entourage (familial ou scolaire), puisque les participants du forum peuvent être assimilés à leurs pairs (puisqu'il s'agit d'un forum fréquenté a priori par des adolescents). 40 sur 57 Partie 4 : Discussion L'objet de notre travail est de cerner le discours que portent les jeunes sur la lecture, en analysant un corpus constitué de messages d'un forum de discussion (Ados.fr). Ainsi, nous nous sommes intéressés aux types de demandes qu'ils formulent sur le forum, aux raisons pour lesquelles ils recherchent des conseils de lecture, à leurs goûts et enfin aux critères d'appréciation formulés par rapport aux romans. Avant de discuter nos résultats, précisons les limites méthodologiques. D'abord, il faut souligner la limite concernant le public étudié. En effet il s'agit d'un public a priori adolescent qui fréquente un forum sur la lecture. Ces jeunes là semblent déjà motivés par la lecture. Il ne s'agit donc pas d'un échantillon reflétant l'ensemble de la population jeune, mais d'adolescents ayant envie de lire et, qui de plus sont à l'aise avec l'outil informatique, puisqu'ils sont inscrits sur un forum en ligne. Par ailleurs, ce type d'analyse rend difficile l'étude des participants, notamment concernant le genre ou l'âge, qui n'est précisé que rarement dans les messages. Le forum de discussion permettant aux internautes l'anonymat rend difficile l'identification des participants. 1. Résultats obtenus : analyse quantitative 1.1 Plusieurs types de demandes concernant la lecture Suite à l'analyse du corpus, plusieurs résultats émergent. D'abord, le premier résultat concerne la typologie des demandes formulées par les participants sur le forum. Quatre types de demandes apparaissent : -la recherche d'un conseil de lecture, -la recherche d'informations concernant un titre, -la confrontation d'opinions, -la création (aspect concernant l'écriture ou la publication d'écrit). 41 sur 57 Ces différents types de demandes font écho aux travaux de Marcoccia (2010) qui, lors d'une analyse des pratiques d'écriture des adolescents dans les forums de discussion constate différentes activités propres au forum de discussion. Parmi ces activités, Marcoccia évoque le soutien et l'entraide entre participants, puis la confrontation d'opinions. Dans notre étude, le besoin d'un conseil de lecture, qui est le type de demande la plus importante (53%), la création (15%) et la recherche d'information (12%) peuvent être comparables à l'activité d'entraide soulignée par Marcoccia. En effet, les participants recherchant un conseil ou une information par rapport à un livre demandent une aide auprès des internautes. C'est également le cas pour les participants formulant des demandes concernant la création. Ainsi, via le forum de discussion, les internautes s'entraident. Notre étude révèle également la présence de messages dédiés à la confrontation d'opinions (17% des types de demandes). Cet aspect est aussi constaté par Marcoccia, qui souligne que le forum de discussion est un lieu de débat et d'argumentation. C'est le cas dans un des fils de discussion du corpus étudié, fil datant du 23/07/2012, dans lequel le sujet est Le Journal d'Aurélie Laflamme, d'India Desjardins. La demande de départ concernait les avis que les participants avaient sur ce titre. Les messages du fil évoluent autour de la question de la traduction, puisque l'oeuvre originale a été publiée en français québécois. Exemple : Flashbacks : « Je me demande ça donne quoi traduit en France. D'ailleurs c'est vachement discriminatoire, on traduit pas vos livre ici, on les lit comme ils sont avec les expressions françaises. » (posté le 8/02/2013) Enfin, la confrontation d'opinions est une constante des forums de discussion. Dahlgren (2000) l'évoquaient déjà dans le processus de formation des opinions à propos de citoyens discutant de politique en ligne. 1.2 L'intérêt pour la lecture Cette diversité des demandes, bien que la demande de conseil soit majoritaire, montre un certain intérêt pour la lecture chez le public fréquentant ce forum de discussion. En effet, si l'enquête de Donnat (2008) indique que la lecture de livres est en recul, cette baisse n'est pas une particularité des jeunes. Octobre (2009) rappelle que ce sont les 10-14 ans qui lisent le 42 sur 57 plus. Nous pouvons souligner, via l'analyse du forum de discussion, que certains jeunes ont un véritable intérêt pour la lecture. Ainsi, il est intéressant d'établir un lien entre ce constat et celui indiqué par Octobre, mettant en avant que la jeunesse (10-24 ans) est née dans « un monde dominé par les médias », mais que ces médias, et notamment Internet ne sont pas un frein aux pratiques culturelles. En effet, comme l'illustre le forum de discussion, Internet devient un outil permettant de développer l'intérêt pour la culture, puisque les jeunes viennent fréquenter cet espace pour rechercher des conseils ou des informations concernant la lecture, également pour y débattre et enfin pour y diffuser leurs créations. 2. Résultats obtenus : analyse qualitative 2.1 Les goûts de lecture : thèmes, genres littéraires et séries L'analyse des catégories de thèmes formulés dans les messages du corpus révèle que les jeunes apprécient particulièrement les livres traitant de l'amour, des vampires, de l'adolescence, de l'amitié ainsi que les livres humoristiques. Cela vient confirmer ce que disent les études précédentes, notamment celle de Perier (2007), qui indique que les adolescents aiment lire des titres qui ont pour thématiques des sujets les préoccupant. Dans notre étude, l'influence du poids scolaire sur le choix des lectures n'est pas visible. Nous pouvons supposer qu'un jeune choisi de fréquenter un forum de discussion, plutôt que de s'adresser à son entourage (famille, enseignants), afin notamment d'éviter des lectures scolaires, et ainsi d'avoir accès à des titres reflétant la culture juvénile. L'analyse des messages du corpus a permis de souligner les genres appréciés par les lecteurs fréquentant le forum. Certains genres sont formulés à plusieurs reprises par les participants. Il s'agit de la littérature fantastique, de la fantasy (genre littéraire de l'imaginaire, présentant des éléments irrationnels issus le plus souvent d'un aspect mythique ; de plus, l'utilisation de la magie y est fréquente et enfin, à la différence du fantastique, le surnaturel y est accepté, parfois utilisé afin de définir les règles du monde imaginaire), de la science-fiction, et plus particulièrement la dystopie (un sous-genre de la science-fiction, imaginant une société basée sur les craintes humaines). C'est d'ailleurs ce qu'indique l'enquête de Perier (2007) qui signale que le public adolescent apprécie la lecture de genres 43 sur 57 littéraires dits populaires, comme la science-fiction ou la fantasy. Détrez (2011) souligne l'engouement des jeunes pour l'heroic-fantasy, notamment depuis l'adaptation cinématographie du Seigneur des Anneaux, qui a révélé ce genre littéraire au grand public. Le corpus étudié comporte de nombreuses références à des titres issus de la fantasy (La PasseMiroir de Christelle Dabos, Le Pacte des MarchOmbres de Pierre Bottero,) En dernier apparait le genre réaliste, qui est aimé de certains lecteurs mais semble moins apprécié que les genres cités précédemment. De plus, l'appétence pour les romans traitant de sujets comme l'amour se confirme dans notre corpus. En effet, la thématique de l'amour est centrale dans les demandes formulées sur le forum. C'est également l'un des critères positifs formulés par les participants. Ce type de romans, ayant pour sujet l'amour à l'adolescence, peut être rapprochée de la chick lit, cette littérature écrite par des femmes pour des femmes et traitant d'histoires féminines, souvent d'amour sur un ton humoristique, rencontre un véritable succès auprès des lectrices, comme le rappelle Hache-Bissette (2012). L'analyse des messages a montré l'importance de la lecture de séries chez les jeunes. Ce constat a été souligné par Détrez (2011) lors d'une étude comparative entre les résultats d'une enquête réalisée en 1993 et les résultats d'une seconde enquête datant de 2002. Elle remarque un contraste entre ces deux enquêtes : en 2002, les titres qui apparaissent dans les réponses sont majoritairement des titres de séries (comme Harry Potter, Eragon, Le Monde de Narnia), alors qu'en 1993, les réponses des adolescents étaient plus orientées vers des titres classiques. Aujourd'hui, le marché éditorial offre une variété de séries répondant aux critères des adolescents, comme le souhait de retrouver le même personnage au fil des tomes, de grandir avec lui et de s'y identifier. En effet, notre corpus révèle que les lecteurs fréquentant le forum de discussion apprécient des oeuvres mettant en scène des personnages auxquels ils peuvent s'identifier. 2.2 Les motivations des participants Notre analyse s'intéresse à l'expression des participants par rapport à la lecture. Il s'agit donc d'une évaluation en ligne concernant la lecture. Les motivations des évaluateurs en ligne ont été étudié par Pasquier (2014), qui note l'importance de la gratification personnelle et du 44 sur 57 plaisir de s'exprimer chez les internautes qui évaluent un objet en ligne. Les travaux d'Hennig-Thurau et al. (2004), qui mettent en avant les motivations des internautes qui évaluent sur internet, révèlent que les évaluateurs en ligne rechercheraient notamment à montrer leurs compétences, affirmer leur supériorité, donner l'impression d'avoir davantage d'informations que les autres, ou les aider à faire leur choix. Ainsi, les participants d'un forum de discussion semblent vouloir se sentir utiles auprès des autres internautes, comme par exemple en leur faisant par de leurs avis à propos d'un livre. L'expression des jeunes sur un forum de discussion consacré à la lecture semblerait donc leur permettre de faire valoir leurs compétences en matière de lecture (donner un conseil de lecture à autrui, donner son avis sur un livre, faire connaître sa propre création littéraire via le forum de discussion). 2.3 Les critères positifs Bigey (2011), dans son étude comparative de deux forums, met en évidence que sur l'un des deux, la qualité des personnages et du texte est souvent évoquée. Notre analyse révèle que les adolescents formulent des critères spécifiques à propos des personnages, comme la possibilité d'identification. Si la qualité du texte est quant à elle, peu évoquée, elle apparaît de temps en temps. Dans notre corpus les jeunes formulent parfois des jugements sur le style d'écriture. De plus, l'analyse de Bigey indique que les participants élaborent une définition de la lecture qui correspond aux notions d'évasion, d'apprentissage et de plaisir. Cette vision de la lecture, en particulier l'évasion et le plaisir, semble être partagée par les adolescents, qui viennent sur le forum pour trouver de nouvelles lectures dans le cadre de leurs loisirs. 2.4 L'évaluation positive est majoritaire L'analyse des messages du corpus révèle que le jugement porté par les internautes sur des romans est majoritairement positif (78% de positif, 23% de négatif). Ce résultat confirme l'étude de Pasquier (2014), qui constate que, en ligne, l'évaluation positive est plus présente que l'évaluation négative. En effet, elle souligne que les internautes s'exprimant afin de donner une évaluation interviennent le plus souvent pour écrire une recommandation, autrement dit une critique positive. 45 sur 57 2.4 Le réseau de lecture et l'influence des pairs En analysant les messages, il apparaît que les participants fréquentent le forum pour trouver des réponses (conseils de lecture, confrontation d'opinions, information sur un titre, conseil ou aide à propos d'une création). Ainsi, la place des pairs est importante. Rappelons cette importance lors de l'adolescence, notamment dans la construction d'une « culture juvénile », définition élaborée par Donnat (2008), culture qui se construit au sein d'un entresoi adolescent. L'enquête de Perier (2007) met d'ailleurs en avant l'influence des pairs, qui est plus importante que celles de la famille ou du professeur. Il semble que les jeunes fréquentant les forums accordent une certaine importance aux conseils donnés par les participants, étant assimilés comme leurs pairs, puisqu'il s'agit d'un forum destiné aux adolescents. De plus, l'analyse du corpus montre que les participants se tournent volontiers vers d'autres internautes, qui semblent être leurs pairs, pour échanger autour de la lecture. En effet, le lecteur, qu'il soit adolescent ou adulte, n'est pas seul, puisqu'il est influencé par des prescripteurs, qu'ils s'agissent de médias, de l'Ecole, de la famille ou des pairs. C'est à ce propos que Robine (2005) parle de réseaux de lecture. Elle précise en évoquant plus particulièrement un réseau spontané et informel, propre aux adolescents, pour lesquels les lectures sont partagées avec les pairs. Comme l'indiquent nos résultats, les adolescents sont intéressés par des sujets qui les concernent. Ainsi, la prescription entre pairs apparaît plus facile et plus appropriée pour les adolescents que la prescription institutionnelle par exemple. Le forum de discussion favoriserait le réseau de lecture de type informel. Ces échanges via l'utilisation du forum rappelle également la notion de « sociabilité littéraire », abordée par Sagnet (2010). Autrement dit, le partage des lectures en ligne permettrait de se reconnaître parmi une communauté de goûts. Ces discussions en ligne permettraient ainsi aux adolescents de se construire en tant que lecteur, via l'échange avec autrui, et de construire également son goût littéraire. C'est ce que nous retrouvons dans le forum « Romans » d'Ados.fr, où les adolescents viennent chercher des conseils, des informations sur des titres ou encore échanger leurs avis. 46 sur 57 Partie 5 : Implications professionnelles Ce travail de recherche nous permet de mieux percevoir les types de demandes des jeunes ainsi que leurs critères d'appréciation d'un roman. Cette étude, qui s'intéresse donc au discours que portent les jeunes sur la lecture, permet un apport de connaissances et ainsi une réflexion sur les pratiques et la profession de professeur-documentaliste. Le professeurdocumentaliste a notamment une mission d'ouverture culturelle comme le rappelle le Référentiel de compétences professionnelles des métiers du professorat et de l'éducation (Ministère de l'Education nationale, 2013), dans lequel il est mentionné que le professeurdocumentaliste doit « mettre en place des projets qui stimulent l'intérêt pour la lecture ». Ainsi, la connaissance du discours que portent les jeunes sur leur lecture est importante pour le professeur-documentaliste. 1. Diversifier l'offre fiction du fonds documentaire Les résultats de notre analyse permettent d'éclairer le travail du professeurdocumentaliste, notamment en matière de gestion du fonds documentaire. Ainsi, la question de l'offre à proposer aux élèves se pose. Le professeur-documentaliste devrait-il proposer une offre correspondant majoritairement aux goûts des élèves ou bien proposer une offre constituée de titres peu fréquentés par les élèves, autrement dit permettre un élargissement des goûts des élèves ? Rappelons que le rôle de l'éducateur, comme le souligne l'étymologie latine est de « faire sortir, d'élever ». Il semble alors que la mission du professeurdocumentaliste est d'amener les non lecteurs vers la lecture, et, concernant les élèves déjà lecteurs, de parvenir à les amener vers des lectures qu'ils ne liraient pas au premier abord. Il peut s'agir de lectures un peu plus difficiles que ce qu'ils lisent déjà ou des lectures considérées de meilleure qualité. Toutefois, cette notion de qualité littéraire suggère une réflexion sur les propres goûts et pratiques du professionnel. Cette notion n'est-elle pas subjective ? De plus, en matière de gestion du fonds fiction, si les résultats de notre analyse révèlent que les participants apprécient des lectures d'oeuvres considérées comme faciles, il peut être intéressant, pour le professeur-documentaliste, de jouer sur la proximité des oeuvres 47 sur 57 appréciées par les jeunes avec des oeuvres plus difficiles. En effet, la mission du professeurdocumentaliste serait là de faire le lien entre ces oeuvres. De manière concrète, nous pouvons imaginer la réalisation d'une sélection, par exemple en disposant une table dédiée à une thématique appréciée par les élèves. Cette sélection serait composée de titres que les élèves ont l'habitude de fréquenter, mais parmi lesquels seraient disposés d'autres ouvrages, moins fréquentés par les élèves, mais se rapprochant de la thématique choisie. 2. Des demandes formulées par les jeunes sur le forum de discussion similaires à celles formulées au CDI Les résultats de notre analyse révèlent la présence de jeunes en situation de demande sur le forum de discussion. La typologie des demandes que nous avons établie est composée de 4 catégories : le conseil de lecture, la confrontation d'opinions, la création et la recherche d'informations. Ces différentes demandes se retrouvent dans la pratique du professeurdocumentaliste. J'ai pu en effet, lors de mon année de stage, constater ces différentes catégories dans les demandes des élèves fréquentant le CDI. Revenons sur les différents éléments rencontrés dans les messages du forum de discussion : d'abord, le conseil de lecture, demande présente en majorité sur le forum de discussion, est fréquente sur le terrain : des élèves lecteurs, ou parfois même faibles voire non lecteurs, sollicitent le professeurdocumentaliste afin d'obtenir un conseil approprié. Pour répondre à ce besoin, le professeurdocumentaliste questionne l'élève sur les thématiques qu'il souhaite que le livre aborde, sur le genre littéraire, les livres qu'il a lu ou encore sur son niveau de lecture (est-ce qu'il lit souvent ? Jamais ?). Cette pratique de conseil, fréquente dans notre pratique, peut rappeler celle rencontrée dans le corpus de messages. La confrontation d'opinions est également un aspect que connaît le professeur-documentaliste puisqu'elle est rencontrée dans des activités d'ouverture sur la lecture, tels que lors des clubs lecture. En effet, dans ce genre d'activité, le professeur-documentaliste met les élèves en situation de confrontation d'opinions, puisqu'ils vont devoir émettre un avis sur leur lecture. Au sein d'un groupe d'élèves, les élèves vont être confrontés à différentes opinions sur un livre. À propos de la création, elle peut aussi être présente lors de ces activités liées au club lecture (par exemple, il peut être demandé aux élèves de réaliser un écrit en lien avec la thématique du club). De plus, j'ai rencontré dans ma pratique professionnelle plusieurs collégiens qui m'ont fait part de leurs activités de créations 48 sur 57 littéraires. Enfin, la recherche d'informations, par exemple la recherche d'un titre de livre à partir d'un résumé ou des souvenirs de lecture de l'élève, est un élément rencontré par le professionnel, puisqu'il arrive que les élèves demandent au professeur-documentaliste de l'aide dans cette recherche. Il est intéressant de constater que la présence des jeunes sur un forum de discussion spécialisé dans la lecture de romans peut être mis en lien avec la fréquentation des élèves au CDI. 3. Intégrer la pratique du forum de discussion au sein d'un projet scolaire Nous pouvons alors imaginer d'institutionnaliser cette pratique du forum de discussion à l'échelle de l'établissement. Il peut être intéressant de créer un dispositif d'incitation à la lecture via la création d'un forum de discussion au sein de l'établissement. Ce forum peut venir compléter un club lecture plus traditionnel (sous forme de rencontres entre les élèves et le professeur-documentaliste). Ce forum, dédié à la lecture, est animé par des élèves et le professeur-documentaliste, ainsi que des professeurs qui souhaiteraient participer au projet. Les adultes ont un rôle de modérateur, afin d'éviter les débordements auxquels pourraient se livrer les élèves, mais aussi et surtout d'animateur du forum afin de lancer des sujets de discussion ou de répondre aux demandes des élèves. Les élèves eux aussi sont incités à l'animation du forum : lancer des sujets de discussion et répondre aux demandes des autres élèves. Ce projet de création d'un forum revêt plusieurs points positifs. D'abord, il est un moyen de créer une communauté de lecteurs au sein de l'établissement. De plus, étant un outil permettant de compléter un projet de type club lecture, il permet de continuer à communiquer sur les lectures en dehors du temps consacré au club. Il permet donc de développer les points abordés par les élèves lors du club ou d'aborder d'autres sujets. Il est également un moyen pour élargir la communauté de lecteurs : cet outil peut inciter des élèves ne fréquentant pas le club, pour diverses raisons (contraintes de temps, timidité et crainte de s'exprimer face à un groupe d'élèves), à venir s'exprimer sur leur lecture ou à poser des questions. Par ailleurs, la pratique encadrée du forum de discussion permet de développer des compétences comme l'usage du forum de discussion et donc la publication en ligne, il favorise l'apprentissage du bon usage du forum chez les élèves (respect de l'orthographe, respect de l'expéditeur et du 49 sur 57 destinataire, apprentissage de la liberté d'expression). Toutefois, nous pouvons nous demander si le fait d'institutionnaliser cette pratique au sein d'un établissement et donc en y intégrant des adultes, de plus des professeurs, ne risquerait-il pas de décourager certains jeunes, en retirant au forum de discussion son côté informel et l'idée d'entre-soi adolescent ? Une dernière question se pose, celle de la pratique des clubs lecture au CDI. La logique des clubs attirent le plus souvent des élèves déjà sensibilisés à la lecture. Afin d'encourager les pratiques de lecture chez des élèves qui lisent peu ou pas, l'usage du forum de discussion en tant qu'outil pour attirer les élèves non lecteurs ne semble pas être la solution. En effet, le forum de discussion peut attirer des élèves, mais des élèves qui sont, en majorité, déjà attirés par la lecture. Comme le montre nos résultats, des élèves faibles ou non lecteurs fréquentent le forum pour y trouver des conseils, mais leur présence reste marginale. Il peut alors être judicieux d'imaginer ce projet lecture en lien avec un professeur de français par exemple, et de travailler avec toute une classe, en ajoutant à l'aspect plus classique des échanges autour de la lecture en classe ou au CDI l'usage du forum de discussion. 50 sur 57 Conclusion Cette étude portant sur les goûts des jeunes, plus particulièrement sur les romans, permet de connaître ce qu'aiment les adolescents, du moins, ceux fréquentant le forum de discussion. En effet, cette étude s'appuie sur une analyse thématique de messages issus d'un forum dédié à la lecture. Les résultats indiquent que les jeunes fréquentent le forum de discussion pour trouver de l'aide et majoritairement des conseils de lecture. L'outil internet vient compléter les prescripteurs plus traditionnels, qui étaient l'entourage familial, l'école et les amis. Cette étude indique également les thématiques et genres littéraires que les jeunes recherchent. Ainsi, les sujets les préoccupant reviennent fréquemment (l'amour, l'adolescence). Les résultats de cette étude confirment également que les jeunes apprécient les genres littéraires tels que le fantastique, la fantasy et la science-fiction. Ils mettent également en avant le goût des lectrices pour des titres que nous pouvons classer dans la chick-lit. Enfin, la lecture de séries romanesques est souvent citée par les participants. Concernant les critères d'appréciation formulés par les participants, cette étude souligne les différentes catégories de critères. Les critères positifs sont généralement majoritaires dans leurs messages. Ce travail de recherche vient compléter les travaux réalisés jusqu'ici concernant les jeunes et la lecture. En effet, si de nombreux travaux existent concernant leurs pratiques de lecture, celui-ci apporte des connaissances à propos du discours des jeunes sur la lecture. Sur le plan professionnel, cette étude permet d'éclairer les pratiques du professeur-documentaliste, et de tout professionnel sensible aux goûts de lecture des jeunes, afin de conseiller, de diversifier le fonds documentaire ou de mener des projets d'incitation à la lecture. Enfin, il serait intéressant de compléter ce travail de recherche dans le futur. Certains aspects n'ont pas pu être étudiés, comme par exemple le genre des participants du forum, afin de pouvoir dresser un portrait des internautes. Il serait également judicieux de mener une étude comparative entre les réponses des pairs internautes et celles données dans un domaine institutionnel, comme le CDI, car leurs interlocuteurs et leurs réponses ne sont probablement pas les mêmes. 51 sur 57 Bibliographie AUPROUX, Agathe et GEORGES Pierre (2015). Booktubeurs : Les nouveaux amis du livre. Livres Hebdo, n°1044, p.20-23. BIGEY, Magali (2011). Forums de discussion et réception de la lecture. In : YASRI- LABRIQUE, Eléonore (dir.). Les forums de discussion : agoras du XXIème siècle ? : Théories, enjeux et pratiques discursives. Paris : Editions l'Harmattan, p. 229-245. CHAPELAIN, Brigitte (2014). La communication, la dimension longtemps oubliée de la littérature. Hermès, La revue. [en ligne], n°70. [Consulté le 10 janvier 2015]. Disponible sur Internet : http://www.cairn.info/resume.php?ID_ARTICLE=HERM_070_0144 DAHLGREN, Peter (2000). L'espace public et l'internet : structure, espace et communication. Réseaux, n°100, p.157-186. DEPELTEAU, François (2010). La démarche d'une recherche en sciences humaines : De la question de départ à la communication des résultats. Bruxelles : Editions De Boeck université. DETREZ, Christine (2011). Les adolescents et la lecture, quinze ans après. Bulletin des Bibliothèques de France. [en ligne], n°5, p.32-35. [consulté le 07 février 2016]. Disponible sur le Web : http://bbf.enssib.fr/consulter/bbf-2011-05-0032-005 DETREZ, Christine et OCTOBRE, Sylvie (2011). De Titeuf aux séries à succès : trajectoires de lecteurs de la fin de l'enfance à la grande adolescence. In : EVANS, Christophe (dir.). Lectures et lecteurs à l'heure d'Internet : livre, presse, bibliothèques. Paris : Editions du Cercle de la librairie, p.61 – 85. DONNAT, Olivier (2008). Culture juvénile et effets de génération. Lecture jeune, n°125, p. 10-13. 52 sur 57 DONNAT, Olivier (2009). Les pratiques culturelles des Français à l'ère numérique. Culture études, vol. 5, no 5, p. 1-12. HACHE-BISSETTE, Françoise (2012). La Chick lit : romance du XXIème siècle ? Le Temps des médias. [en ligne], n°19, p.101-115 [Consulté le 20/04/2016]. Disponible à l'adresse : http://www.cairn.info/revue-le-temps-des-médias-2012-2-page-101.htm HORELLOU-LAFARGE Chantal, SEGRE Monique (2007). Sociologie de la lecture. Paris : éditions La Découverte. Journal Officiel de la République Française (16 mars 1999). Vocabulaire de l'informatique et de l'internet. [en ligne], [Consulté le 25/04/2016]. Disponible à l'adresse : http:// www.education.gouv.fr/bo/1999/14/encart.htm MADDEN, Andrew D., FORD, Nigel J. & MILLER David (2007). Information resources used by children at an English secondary school: Perceived and actual levels of usefulness. Journal of Documentation, vol. 63, no 3, p. 340-358. MANGENOT, François (2004). Analyse sémio-pragmatique des forums pédagogiques sur Internet. In : SALAÜN Jean-Michel et VANDENDORPE, Christian (coord.), Les défis de la publication sur le Web : hyperlectures, cybertextes et méta-éditions, Villeurbanne : Presses de L'ENSSIB, p. 103-123. MARCOCCIA, Michel (1998). La normalisation des comportements communicatifs sur Internet : étude sociopragmatique de la netiquette. In Communication, société et Internet. Université Bretagne-Sud, 10-11 septembre 1998, Paris : L'Harmattan, p.15-22. 53 sur 57 MARCOCCIA, Michel (2004). L'analyse conversationnelle des forums de discussion : questionnements méthodologiques. Les Carnets du Cediscor. [en ligne], n°8, p.23-37 [Consulté le 28/12/2015]. Disponible à l'adresse : http://cediscor.revues.org/220 MARCOCCIA, Michel (2010). Les forums de discussion d'adolescents : pratiques d'écritures et compétences communicatives. Revue française de linguistique appliquée. [en ligne], vol.XV, n°2, p.23-37 [Consulté le 28/12/2015]. Disponible à l'adresse : http://www.cairn.info/ article.php? ID_ARTICLE=RFLA_152_0139&DocId=156188&hits=9307+9305+9302+9298+9292+9290 + Médiamétrie-eStat (2013). La fréquentation des sites internet : Classement CybereStat des sites souscripteurs de l'étude Médiamétrie-eStat. [en ligne], [Consulté le 2/02/2015]. Disponible à l'adresse : http://www.mediametrie-estat.com/wp-content/uploads/ 2013/01/2013-01-07_Cdp-CybereStat_D%C3%A9cembre.pdf MESSIN, Audrey (2008). La culture de l'écran : usages ordinaires d'Internet. Lecture jeune, n°126, p.8-12. Ministère de l'Education Nationale et Direction générale de l'enseignement scolaire (2013). Référentiel de compétences professionnelles des métiers du professorat et de l'éducation. [en ligne], [Consulté le 25/04/2016]. Disponible à l'adresse : http://www.education.gouv.fr/ pid25535/bulletin_officiel.html?cid_bo=73066 OCTOBRE, Sylvie (2009). Pratiques culturelles chez les jeunes et institutions de transmission : un choc de cultures ? In : Culture prospective. [en ligne], vol.1, p.1-8 [Consulté le 13/02/2016]. Disponible à l'adresse : www.cairn.info/revue-culture-prospective-2009-1-page-1.htm. OCTOBRE, Sylvie (2014). Deux pouces et des neurones : les cultures juvéniles de l'ère médiatique à l'ère numérique. Paris : Ministère de la Culture – DEPS. PATUREAU, Frédérique. (1992). Les pratiques culturelles des jeunes. Paris : La Documentation française. 54 sur 57 PERIER, Pierre (2007). La lecture à l'épreuve de l'adolescence : le rôle des CDI des collèges et lycées. In : Revue française de pédagogie [En ligne], n°158 [consulté le 24 janvier 2016]. Disponible à l'adresse : http://rfp.revues.org/446 PETIT, Michèle (2002). Eloge de la lecture : La construction de soi. Paris : Belin. QUINCHE, Florence (2008). Les forums pour adolescents : spécificités communicationnelles. In. CORROY, Laurence (dir.). Les jeunes et les médias : les raisons du succès. Paris : Vuibert. p. 151-170. ROBINE, Nicole (2005). Les réseaux de lecture des adolescents. Lecture Jeune, n°116, p. 31-39. SAGNET, Hélène (2010). Les sociabilités littéraires des adolescents sur internet. Lecture Jeune, n°133, p.25-28. 55 sur 57 Annexes Annexe 1 : Analyse quantitative Grille d'analyse n°1 : Déterminer la nature de la demande dans les messages Titre et date de création du fil de discussion Nombre de fois où le message a été lu Nombre de réponses Nature de la demande : -Conseil de lecture -Recherche d'informations -Confrontation d'opinions -Création 56 sur 57 Annexe 2 : Analyse qualitative Grille d'analyse n°2 : Catégorisation des critères formulés par les participants Catégorisation Titre du fil de discussion + auteur du fil + date Contexte de la demande Titres appréciés / conseillés Critères de préférence formulés par les participants Thématique Genre littéraire Classique Série Critères concernant les personnages Niveau de lecture du livre Niveau de lecture du participant Emotion recherchée Critères relevant de l'influence du pois scolaire : -prescription d'un professeur -oeuvre étudiée dans le cadre scolaire Aspect matériel Critères positifs Critères négatifs Autres commentaires 57 sur 57
{'path': '11/dumas.ccsd.cnrs.fr-dumas-01702930-document.txt'}
Impact sur la qualité de vie d'un programme d'éducation thérapeutique chez des patients diabétiques de type 2 dans le Vaucluse Émilie Perrot, Violette Mathivet To cite this version: Émilie Perrot, Violette Mathivet. Impact sur la qualité de vie d'un programme d'éducation thérapeutique chez des patients diabétiques de type 2 dans le Vaucluse. Sciences du Vivant [q-bio]. 2020. dumas-03028363 HAL Id: dumas-03028363 https://dumas.ccsd.cnrs.fr/dumas-03028363 Submitted on 27 Nov 2020 Impact sur la qualité de vie d'un programme d'éducation thérapeutique chez des patients diabétiques de type 2 dans le Vaucluse T H È S E E N B I N Ô M E Présentée et publiquement soutenue devant LA FACULTÉ DES SCIENCES MÉDICALES ET PARAMÉDICALES DE MARSEILLE Le 20 Novembre 2020 Par Madame Violette MATHIVET Née le 13 novembre 1992 à Grenoble (38) Et par Madame Emilie PERROT Née le 02 novembre 1992 à Lyon 2ème (69) Pour obtenir le grade de Docteur en Médecine D.E.S. de MÉDECINE GÉNÉRALE Membres du Jury de la Thèse : Monsieur le Professeur DARMON Patrice Président Madame le Docteur CARRIER Hélène Co-directeur Monsieur le Docteur (MCA) BONNET Pierre-André Co-directeur Monsieur le Docteur (MCA) THERY Didier Assesseur Monsieur le Docteur (MCA) BARGIER Jacques Assesseur Impact sur la qualité de vie d'un programme d'éducation thérapeutique chez des patients diabétiques de type 2 dans le Vaucluse T H È S E E N B I N Ô M E Présentée et publiquement soutenue devant LA FACULTÉ DES SCIENCES MÉDICALES ET PARAMÉDICALES DE MARSEILLE Le 20 Novembre 2020 Par Madame Violette MATHIVET Née le 13 novembre 1992 à Grenoble (38) Et par Madame Emilie PERROT Née le 02 novembre 1992 à Lyon 2ème (69) Pour obtenir le grade de Docteur en Médecine D.E.S. de MÉDECINE GÉNÉRALE Membres du Jury de la Thèse : Monsieur le Professeur DARMON Patrice Président Madame le Docteur CARRIER Hélène Co-directeur Monsieur le Docteur (MCA) BONNET Pierre-André Co-directeur Monsieur le Docteur (MCA) THERY Didier Assesseur Monsieur le Docteur (MCA) BARGIER Jacques Assesseur FACULTÉ DES SCIENCES MÉDICALES & PARAMÉDICALES Doyen Vice-Doyen aux affaires générales Vice-Doyen aux professions paramédicales Conseiller : : : : Pr. Georges LEONETTI Pr. Patrick DESSI Pr. Philippe BERBIS Pr. Patrick VILLANI : : : : : : Pr. Kathia CHAUMOITRE Pr. Jean-Louis MEGE Pr. Justin MICHEL Pr. Stéphane BERDAH Pr. Jean-Noël ARGENSON Pr. Pascal ADALIAN : : : : : Pr. Pierre LE COZ Pr. Stéphane RANQUE Pr. Véronique VITTON Pr. Frédéric CASTINETTI Dr. Thomas GRAILLON Assesseurs :       aux études à la recherche à l'unité mixte de formation continue en santé pour le secteur NORD Groupements Hospitaliers de territoire aux masters Chargés de mission :      sciences humaines et sociales relations internationales DU/DIU DPC, disciplines médicales & biologiques DPC, disciplines chirurgicales ÉCOLE DE MEDECINE Directeur : Pr. Jean-Michel VITON Chargés de mission  PACES – Post-PACES  DFGSM  DFASM  DFASM  Préparation aux ECN  DES spécialités  DES stages hospitaliers  DES MG  Démographie médicale  Etudiant : : : : : : : : : : Pr. Régis GUIEU Pr. Anne-Laure PELISSIER Pr. Marie-Aleth RICHARD Pr. Marc BARTHET Dr Aurélie DAUMAS Pr. Pierre-Edouard FOURNIER Pr. Benjamin BLONDEL Pr. Christophe BARTOLI Dr. Noémie RESSEGUIER Elise DOMINJON Cabinet du Doyen – 25.02. 2020 (GL/HB) ÉCOLE DE DE MAIEUTIQUE Directrice : Madame Carole ZAKARIAN Chargés de mission  1er cycle  2ème cycle : : Madame Estelle BOISSIER Madame Cécile NINA ÉCOLE DES SCIENCES DE LA RÉADAPTATION Directeur : Monsieur Philippe SAUVAGEON Chargés de mission  Masso- kinésithérapie 1er cycle  Masso-kinésithérapie 2ème cycle  Mutualisation des enseignements : : : Madame Béatrice CAORS Madame Joannie HENRY Madame Géraldine DEPRES ÉCOLE DES SCIENCES INFIRMIERES Directeur : Monsieur Sébastien COLSON Chargés de mission  Chargée de mission  Chargé de mission : : Madame Sandrine MAYEN RODRIGUES Monsieur Christophe ROMAN Cabinet du Doyen – 25.02. 2020 (GL/HB) PROFESSEURS HONORAIRES MM AGOSTINI Serge ALDIGHIERI René ALESSANDRINI Pierre ALLIEZ Bernard AQUARON Robert ARGEME Maxime ASSADOURIAN Robert AUFFRAY Jean-Pierre AUTILLO-TOUATI Amapola AZORIN Jean-Michel BAILLE Yves BARDOT Jacques BARDOT André BERARD Pierre BERGOIN Maurice BERLAND Yvon BERNARD Dominique BERNARD Jean-Louis BERNARD Pierre-Marie BERTRAND Edmond BISSET Jean-Pierre BLANC Bernard BLANC Jean-Louis BOLLINI Gérard BONGRAND Pierre BONNEAU Henri BONNOIT Jean BORY Michel BOTTA Alain BOURGEADE Augustin BOUVENOT Gilles BOUYALA Jean-Marie BREMOND Georges BRICOT René BRUNET Christian BUREAU Henri CAMBOULIVES Jean CANNONI Maurice CARTOUZOU Guy CAU Pierre CHABOT Jean-Michel CHAMLIAN Albert CHARPIN Denis CHARREL Michel CHAUVEL Patrick CHOUX Maurice CIANFARANI François CLAVERIE Jean-Michel CLEMENT Robert COMBALBERT André CONTE-DEVOLX Bernard CORRIOL Jacques COULANGE Christian DALMAS Henri DE MICO Philippe DESSEIN Alain DELARQUE Alain DEVIN Robert DEVRED Philippe DJIANE Pierre DONNET Vincent DUCASSOU Jacques DUFOUR Michel DUMON Henri ENJALBERT Alain DRH Campus Timone MM FAVRE Roger FIECHI Marius FARNARIER Georges FIGARELLA Jacques FONTES Michel FRANCES Yves FRANCOIS Georges FUENTES Pierre GABRIEL Bernard GALINIER Louis GALLAIS Hervé GAMERRE Marc GARCIN Michel GARNIER Jean-Marc GAUTHIER André GERARD Raymond GEROLAMI-SANTANDREA André GIUDICELLI Roger GIUDICELLI Sébastien GOUDARD Alain GOUIN François GRILLO Jean-Marie GRISOLI François GROULIER Pierre HADIDA/SAYAG Jacqueline HASSOUN Jacques HEIM Marc HOUEL Jean HUGUET Jean-François JAQUET Philippe JAMMES Yves JOUVE Paulette JUHAN Claude JUIN Pierre KAPHAN Gérard KASBARIAN Michel KLEISBAUER Jean-Pierre LACHARD Jean LAFFARGUE Pierre LAUGIER René LE TREUT Yves LEVY Samuel LOUCHET Edmond LOUIS René LUCIANI Jean-Marie MAGALON Guy MAGNAN Jacques MALLAN- MANCINI Josette MALMEJAC Claude MARANINCHI Dominique MARTIN Claude MATTEI Jean-François MERCIER Claude METGE Paul MICHOTEY Georges MILLET Yves MIRANDA François MONFORT Gérard MONGES André MONGIN Maurice MONTIES Jean-Raoul NAZARIAN Serge NICOLI René MAJ 01.09.2019 MM NOIRCLERC Michel OLMER Michel OREHEK Jean PAPY Jean-Jacques PAULIN Raymond PELOUX Yves PENAUD Antony PENE Pierre PIANA Lucien PICAUD Robert PIGNOL Fernand POGGI Louis POITOUT Dominique PONCET Michel POUGET Jean PRIVAT Yvan QUILICHINI Francis RANQUE Jacques RANQUE Philippe RICHAUD Christian RIDINGS Bernard ROCHAT Hervé ROHNER Jean-Jacques ROUX Hubert ROUX Michel RUFO Marcel SAHEL José SALAMON Georges SALDUCCI Jacques SAN MARCO Jean-Louis SANKALE Marc SARACCO Jacques SASTRE Bernard SCHIANO Alain SCOTTO Jean-Claude SEBAHOUN Gérard SERMENT Gérard SOULAYROL René STAHL André TAMALET Jacques TARANGER-CHARPIN Colette THOMASSIN Jean-Marc UNAL Daniel VAGUE Philippe VAGUE/JUHAN Irène VANUXEM Paul VERVLOET Daniel VIALETTES Bernard WEILLER Pierre-Jean DRH Campus Timone MAJ 01.09.2019 EMERITAT 2008 M. le Professeur Mme le Professeur M. le Professeur M. le Professeur M. le Professeur LEVY Samuel JUHAN-VAGUE Irène PONCET Michel KASBARIAN Michel ROBERTOUX Pierre 31/08/2011 31/08/2011 31/08/2011 31/08/2011 31/08/2011 2009 M. le Professeur M. le Professeur DJIANE Pierre VERVLOET Daniel 31/08/2011 31/08/2012 2010 M. le Professeur MAGNAN Jacques 31/12/2014 2011 M. le Professeur M. le Professeur M. le Professeur DI MARINO Vincent MARTIN Pierre METRAS Dominique 31/08/2015 31/08/2015 31/08/2015 2012 M. le Professeur M. le Professeur M. le Professeur M. le Professeur M. le Professeur M. le Professeur M. le Professeur AUBANIAC Jean-Manuel BOUVENOT Gilles CAMBOULIVES Jean FAVRE Roger MATTEI Jean-François OLIVER Charles VERVLOET Daniel 31/08/2015 31/08/2015 31/08/2015 31/08/2015 31/08/2015 31/08/2015 31/08/2015 M. M. M. M. M. M. M. M. 2013 le Professeur le Professeur le Professeur le Professeur le Professeur le Professeur le Professeur le Professeur BRANCHEREAU Alain CARAYON Pierre COZZONE Patrick DELMONT Jean HENRY Jean-François LE GUICHAOUA Marie-Roberte RUFO Marcel SEBAHOUN Gérard 31/08/2016 31/08/2016 31/08/2016 31/08/2016 31/08/2016 31/08/2016 31/08/2016 31/08/2016 M. M. M. M. M. 2014 le Professeur le Professeur le Professeur le Professeur le Professeur FUENTES Pierre GAMERRE Marc MAGALON Guy PERAGUT Jean-Claude WEILLER Pierre-Jean 31/08/2017 31/08/2017 31/08/2017 31/08/2017 31/08/2017 M. M. M. M. M. M. 2015 le Professeur le Professeur le Professeur le Professeur le Professeur le Professeur COULANGE Christian COURAND François FAVRE Roger MATTEI Jean-François OLIVER Charles VERVLOET Daniel 31/08/2018 31/08/2018 31/08/2016 31/08/2016 31/08/2016 31/08/2016 DRH Campus Timone MAJ 01.09.2019 M. M. M. M. M. M. M. M. M. M. M. M. M. 2016 le Professeur le Professeur le Professeur le Professeur le Professeur le Professeur le Professeur le Professeur le Professeur le Professeur le Professeur le Professeur le Professeur BONGRAND Pierre BOUVENOT Gilles BRUNET Christian CAU Pierre COZZONE Patrick FAVRE Roger FONTES Michel JAMMES Yves NAZARIAN Serge OLIVER Charles POITOUT Dominique SEBAHOUN Gérard VIALETTES Bernard 31/08/2019 31/08/2017 31/08/2019 31/08/2019 31/08/2017 31/08/2017 31/08/2019 31/08/2019 31/08/2019 31/08/2017 31/08/2019 31/08/2017 31/08/2019 M. M. M. M. M. M. M. M. 2017 le Professeur le Professeur le Professeur le Professeur le Professeur le Professeur le Professeur le Professeur ALESSANDRINI Pierre BOUVENOT Gilles CHAUVEL Patrick COZZONE Pierre DELMONT Jean FAVRE Roger OLIVER Charles SEBBAHOUN Gérard 31/08/2020 31/08/2018 31/08/2020 31/08/2018 31/08/2018 31/08/2018 31/08/2018 31/08/2018 M. M. M. M. M. M. 2018 le Professeur le Professeur le Professeur le Professeur le Professeur le Professeur MARANINCHI Dominique BOUVENOT Gilles COZZONE Pierre DELMONT Jean FAVRE Roger OLIVER Charles 31/08/2021 31/08/2019 31/08/2019 31/08/2019 31/08/2019 31/08/2019 M. M. M. M. M. M. M. M. M. M. M. M. M. 2019 le Professeur le Professeur le Professeur le Professeur le Professeur le Professeur le Professeur le Professeur le Professeur le Professeur le Professeur le Professeur le Professeur BERLAND Yvon CHARPIN Denis CLAVERIE Jean-Michel FRANCES Yves CAU Pierre COZZONE Patrick DELMONT Jean FAVRE Roger FONTES Michel MAGALON Guy NAZARIAN Serge OLIVER Charles WEILLER Pierre-Jean 31/08/2022 31/08/2022 31/08/2022 31/08/2022 31/08/2020 31/08/2020 31/08/2020 31/08/2020 31/08/2020 31/08/2020 31/08/2020 31/08/2020 31/08/2020 DRH Campus Timone MAJ 01.09.2019 PROFESSEURS DES UNIVERSITES-PRATICIENS HOSPITALIERS AGOSTINI FERRANDES Aubert ALBANESE Jacques ALIMI Yves AMABILE Philippe AMBROSI Pierre ANDRE Nicolas ARGENSON Jean-Noël ASTOUL Philippe ATTARIAN Shahram AUDOUIN Bertrand AUQUIER Pascal AVIERINOS Jean-François AZULAY Jean-Philippe BAILLY Daniel BARLESI Fabrice BARLIER-SETTI Anne BARTHET Marc BARTOLI Christophe BARTOLI Jean-Michel BARTOLI Michel BARTOLOMEI Fabrice BASTIDE Cyrille BENSOUSSAN Laurent BERBIS Philippe BERDAH Stéphane BERNARD Jean-Paul Retraite au 25/11/2019 BEROUD Christophe BERTUCCI François BLAISE Didier BLIN Olivier BLONDEL Benjamin BONIN/GUILLAUME Sylvie BONELLO Laurent BONNET Jean-Louis CHOSSEGROS Cyrille COLLART Frédéric COSTELLO Régis COURBIERE Blandine COWEN Didier CRAVELLO Ludovic CUISSET Thomas CURVALE Georges Surnombre DA FONSECA David DAHAN-ALCARAZ Laetitia DANIEL Laurent DARMON Patrice D'ERCOLE Claude D'JOURNO Xavier DEHARO Jean-Claude DELAPORTE Emmanuel DELPERO Jean-Robert Surnombre DENIS Danièle DISDIER Patrick DODDOLI Christophe DRANCOURT Michel DUBUS Jean-Christophe DUFFAUD Florence DUFOUR Henry DURAND Jean-Marc DUSSOL Bertrand EBBO Mikaël EUSEBIO Alexandre FAKHRY Nicolas FAUGERE Gérard Surnombre FELICIAN Olvier FENOLLAR Florence FIGARELLA/BRANGER Dominique FLECHER Xavier FOURNIER Pierre-Edouard BOTTA/FRIDLUND Danielle Surnombre BOUBLI Léon Surnombre FRANCESCHI Frédéric FUENTES Stéphane BOUFI Mourad GABERT Jean BOYER Laurent GABORIT Bénédicte BREGEON Fabienne GAINNIER Marc BRETELLE Florence GARCIA Stéphane BROUQUI Philippe GARIBOLDI Vlad BRUDER Nicolas GAUDART Jean BRUE Thierry GAUDY-MARQUESTE Caroline BRUNET Philippe GENTILE Stéphanie BURTEY Stéphane GERBEAUX Patrick CARCOPINO-TUSOLI Xavier GEROLAMI/SANTANDREA René CASANOVA Dominique GILBERT/ALESSI Marie-Christine CASTINETTI Frédéric GIORGI Roch CECCALDI Mathieu CHAGNAUD Christophe GIOVANNI Antoine CHAMBOST Hervé GIRARD Nadine CHAMPSAUR Pierre GIRAUD/CHABROL Brigitte GONCALVES Anthony CHANEZ Pascal CHARAFFE-JAUFFRET Emmanuelle GRANEL/REY Brigitte CHARREL Rémi GRANVAL Philippe CHAUMOITRE Kathia GREILLIER Laurent GRIMAUD Jean-Charles CHIARONI Jacques CHINOT Olivier GROB Jean-Jacques DRH Campus Timone GUEDJ Eric GUIEU Régis GUIS Sandrine GUYE Maxime GUYOT Laurent GUYS Jean-Michel Surnombre HABIB Gilbert HARDWIGSEN Jean HARLE Jean-Robert HOFFART Louis Disponibilité HOUVENAEGHEL Gilles JACQUIER Alexis JOURDE-CHICHE Noémie JOUVE Jean-Luc KAPLANSKI Gilles KARSENTY Gilles KERBAUL François Détachement KRAHN Martin LAFFORGUE Pierre LAGIER Jean-Christophe LAMBAUDIE Eric LANÇON Christophe LA SCOLA Bernard LAUNAY Franck LAVIEILLE Jean-Pierre LE CORROLLER Thomas LECHEVALLIER Eric LEGRE Régis LEHUCHER-MICHEL Marie-Pascale LEONE Marc LEONETTI Georges LEPIDI Hubert LEVY Nicolas MACE Loïc MAGNAN Pierre-Edouard MANCINI Julien MATONTI Frédéric Disponibilité MEGE Jean-Louis MERROT Thierry METZLER/GUILLEMAIN Catherine MEYER/DUTOUR Anne MICCALEF/ROLL Joëlle MICHEL Fabrice MICHEL Gérard MICHEL Justin MICHELET Pierre MILH Mathieu MILLION Matthieu MOAL Valérie MORANGE Pierre-Emmanuel MOULIN Guy MOUTARDIER Vincent MUNDLER Olivier Surnombre NAUDIN Jean NICOLAS DE LAMBALLERIE Xavier NICOLLAS Richard OLIVE Daniel OUAFIK L'Houcine OVAERT-REGGIO Caroline MAJ 01.09.2019 PAGANELLI Franck PANUEL Michel PAPAZIAN Laurent PAROLA Philippe PARRATTE Sébastien Disponibilité ROCH Antoine ROCHWERGER Richard ROLL Patrice ROSSI Dominique ROSSI Pascal ROUDIER Jean SALAS Sébastien PELISSIER-ALICOT Anne-Laure PELLETIER Jean SAMBUC Roland Surnombre PERRIN Jeanne SARLES Jacques PETIT Philippe SARLES/PHILIP Nicole PHAM Thao PIERCECCHI/MARTI Marie-Dominique SARLON-BARTOLI Gabrielle SCAVARDA Didier PIQUET Philippe SCHLEINITZ Nicolas PIRRO Nicolas SEBAG Frédéric POINSO François SEITZ Jean-François RACCAH Denis SIELEZNEFF Igor RANQUE Stéphane SIMON Nicolas RAOULT Didier STEIN Andréas REGIS Jean TAIEB David REYNAUD/GAUBERT Martine THIRION Xavier REYNAUD Rachel RICHARD/LALLEMAND Marie-Aleth THOMAS Pascal THUNY Franck ROCHE Pierre-Hugues TREBUCHON-DA FONSECA Agnès TRIGLIA Jean-Michel TROPIANO Patrick TSIMARATOS Michel TURRINI Olivier VALERO René VAROQUAUX Arthur Damien VELLY Lionel VEY Norbert VIDAL Vincent VIENS Patrice VILLANI Patrick VITON Jean-Michel VITTON Véronique VIEHWEGER Heide Elke VIVIER Eric XERRI Luc PROFESSEUR DES UNIVERSITES ADALIAN Pascal AGHABABIAN Valérie BELIN Pascal CHABANNON Christian CHABRIERE Eric FERON François LE COZ Pierre LEVASSEUR Anthony RANJEVA Jean-Philippe SOBOL Hagay PROFESSEUR CERTIFIE BRANDENBURGER Chantal PRAG TANTI-HARDOUIN Nicolas PROFESSEUR DES UNIVERSITES MEDECINE GENERALE GENTILE Gaëtan PROFESSEUR ASSOCIE DE MEDECINE GENERALE A MI-TEMPS ADNOT Sébastien FILIPPI Simon PROFESSEUR ASSOCIE DES UNIVERSITES (disciplines médicales) LOUIS-BORRIONE Claude DRH Campus Timone MAJ 01.09.2019 MAITRE DE CONFERENCES DES UNIVERSITES - PRATICIEN HOSPITALIER DEVILLIER Raynier DUBOURG Grégory DUCONSEIL Pauline DUFOUR Jean-Charles ELDIN Carole FABRE Alexandre FAURE Alice FOLETTI Jean-Marc FOUILLOUX Virginie FRANKEL Diane FROMONOT Julien GASTALDI Marguerite GELSI/BOYER Véronique GIUSIANO Bernard GIUSIANO COURCAMBECK Sophie GONZALEZ Jean-Michel GOURIET Frédérique GRAILLON Thomas GUERIN Carole GUENOUN MEYSSIGNAC Daphné GUIDON Catherine GUIVARCH Jokthan HAUTIER/KRAHN Aurélie HRAIECH Sami KASPI-PEZZOLI Elise L'OLLIVIER Coralie LABIT-BOUVIER Corinne LAFAGE/POCHITALOFF-HUVALE Marina AHERFI Sarah ANGELAKIS Emmanouil ATLAN Catherine (disponibilité) (disponibilité) BARTHELEMY Pierre BEGE Thierry BELIARD Sophie BENYAMINE Audrey BERGE-LEFRANC Jean-Louis BERTRAND Baptiste BEYER-BERJOT Laura BIRNBAUM David BONINI Francesca BOUCRAUT Joseph BOULAMERY Audrey BOULLU/CIOCCA Sandrine BOUSSEN Salah Michel BUFFAT Christophe CAMILLERI Serge CARRON Romain CASSAGNE Carole CERMOLACCE Michel CHAUDET Hervé CHRETIEN Anne-Sophie COZE Carole CUNY Thomas DADOUN Frédéric (disponibilité) DALES Jean-Philippe DAUMAS Aurélie DEGEORGES/VITTE Joëlle DELLIAUX Stéphane DESPLAT/JEGO Sophie LAGIER Aude (disponibilité) LAGOUANELLE/SIMEONI Marie-Claude LEVY/MOZZICONACCI Annie LOOSVELD Marie MAAROUF Adil MACAGNO Nicolas MAUES DE PAULA André MOTTOLA GHIGO Giovanna NGUYEN PHONG Karine NINOVE Laetitia NOUGAIREDE Antoine OLLIVIER Matthieu PAULMYER/LACROIX Odile PESENTI Sébastien RADULESCO Thomas RESSEGUIER Noémie ROBERT Philippe ROMANET Pauline SABATIER Renaud SARI-MINODIER Irène SAVEANU Alexandru SECQ Véronique (disponibilité) STELLMANN Jan-Patrick SUCHON Pierre TABOURET Emeline TOGA Caroline TOGA Isabelle TOMASINI Pascale TOSELLO Barthélémy TROUSSE Delphine TUCHTAN-TORRENTS Lucile VELY Frédéric VION-DURY Jean ZATTARA/CANNONI Hélène MAITRES DE CONFERENCES DES UNIVERSITES (mono-appartenants) ABU ZAINEH Mohammad DEGIOANNI/SALLE Anna BARBACARU/PERLES T. A. DESNUES Benoît BERLAND/BENHAIM Caroline BOUCAULT/GARROUSTE Françoise BOYER Sylvie COLSON Sébastien MARANINCHI Marie MERHEJ/CHAUVEAU Vicky MINVIELLE/DEVICTOR Bénédicte POGGI Marjorie POUGET Benoît RUEL Jérôme THOLLON Lionel THIRION Sylvie VERNA Emeline MAITRE DE CONFERENCES DES UNIVERSITES DE MEDECINE GENERALE CASANOVA Ludovic MAITRES DE CONFERENCES ASSOCIES DE MEDECINE GENERALE à MI-TEMPS BARGIER Jacques BONNET Pierre-André CALVET-MONTREDON Céline JANCZEWSKI Aurélie NUSSILI Nicolas ROUSSEAU-DURAND Raphaëlle THIERY Didier (nomination au 01/10/2019) MAITRE DE CONFERENCES ASSOCIE à MI-TEMPS DRH Campus Timone BOURRIQUEN Maryline EVANS-VIALLAT Catherine LUCAS Guillaume MATHIEU Marion MAYENS-RODRIGUES Sandrine MELLINAS Marie REVIS Joana ROMAN Christophe TRINQUET Laure MAJ 01.09.2019 PROFESSEURS DES UNIVERSITES et MAITRES DE CONFERENCES DES UNIVERSITES - PRATICIENS HOSPITALIERS PROFESSEURS ASSOCIES, MAITRES DE CONFERENCES DES UNIVERSITES mono-appartenants ANATOMIE 4201 ANTHROPOLOGIE 20 ADALIAN Pascal (PR) CHAMPSAUR Pierre (PU-PH) LE CORROLLER Thomas (PU-PH) PIRRO Nicolas (PU-PH) GUENOUN-MEYSSIGNAC Daphné (MCU-PH) LAGIER Aude (MCU-PH) disponibilité THOLLON Lionel (MCF) (60ème section) ANATOMIE ET CYTOLOGIE PATHOLOGIQUES 4203 CHARAFE/JAUFFRET Emmanuelle (PU-PH) DANIEL Laurent (PU-PH) FIGARELLA/BRANGER Dominique (PU-PH) GARCIA Stéphane (PU-PH) XERRI Luc (PU-PH) DALES Jean-Philippe (MCU-PH) GIUSIANO COURCAMBECK Sophie (MCU PH) LABIT/BOUVIER Corinne (MCU-PH) MAUES DE PAULA André (MCU-PH) SECQ Véronique (MCU-PH) DEGIOANNI/SALLE Anna (MCF) POUGET Benoît (MCF) VERNA Emeline (MCF) BACTERIOLOGIE-VIROLOGIE ; HYGIENE HOSPITALIERE 4501 CHARREL Rémi (PU PH) DRANCOURT Michel (PU-PH) FENOLLAR Florence (PU-PH) FOURNIER Pierre-Edouard (PU-PH) NICOLAS DE LAMBALLERIE Xavier (PU-PH) LA SCOLA Bernard (PU-PH) RAOULT Didier (PU-PH) AHERFI Sarah (MCU-PH) ANGELAKIS Emmanouil (MCU-PH) disponibilité DUBOURG Grégory (MCU-PH) GOURIET Frédérique (MCU-PH) NOUGAIREDE Antoine (MCU-PH) NINOVE Laetitia (MCU-PH) CHABRIERE Eric (PR) (64ème section) LEVASSEUR Anthony (PR) (64ème section) DESNUES Benoit (MCF) ( 65ème section ) MERHEJ/CHAUVEAU Vicky (MCF) (87ème section) BIOCHIMIE ET BIOLOGIE MOLECULAIRE 4401 ANESTHESIOLOGIE ET REANIMATION CHIRURGICALE ; MEDECINE URGENCE 4801 ALBANESE Jacques (PU-PH) BRUDER Nicolas (PU-PH) LEONE Marc (PU-PH) MICHEL Fabrice (PU-PH) VELLY Lionel (PU-PH) BARLIER/SETTI Anne (PU-PH) GABERT Jean (PU-PH) GUIEU Régis (PU-PH) OUAFIK L'Houcine (PU-PH) BUFFAT Christophe (MCU-PH) FROMONOT Julien (MCU-PH) MOTTOLA GHIGO Giovanna (MCU-PH) ROMANET Pauline (MCU-PH) SAVEANU Alexandru (MCU-PH) BOUSSEN Salah Michel (MCU-PH) GUIDON Catherine (MCU-PH) ANGLAIS 11 BRANDENBURGER Chantal (PRCE) BIOLOGIE ET MEDECINE DU DEVELOPPEMENT ET DE LA REPRODUCTION ; GYNECOLOGIE MEDICALE 5405 METZLER/GUILLEMAIN Catherine (PU-PH) PERRIN Jeanne (PU-PH) BIOPHYSIQUE ET MEDECINE NUCLEAIRE 4301 GUEDJ Eric (PU-PH) GUYE Maxime (PU-PH) MUNDLER Olivier (PU-PH) Surnombre TAIEB David (PU-PH) BELIN Pascal (PR) (69ème section) RANJEVA Jean-Philippe (PR) (69ème section) CAMMILLERI Serge (MCU-PH) VION-DURY Jean (MCU-PH) BARBACARU/PERLES Téodora Adriana (MCF) (69ème section) BIOSTATISTIQUES, INFORMATIQUE MEDICALE ET TECHNOLOGIES DE COMMUNICATION 4604 GAUDART Jean (PU-PH) GIORGI Roch (PU-PH) MANCINI Julien (PU-PH) BIOLOGIE CELLULAIRE 4403 ROLL Patrice (PU-PH) FRANKEL Diane (MCU-PH) GASTALDI Marguerite (MCU-PH) KASPI-PEZZOLI Elise (MCU-PH) LEVY-MOZZICONNACCI Annie (MCU-PH) CARDIOLOGIE 5102 AVIERINOS Jean-François (PU-PH) BONELLO Laurent (PU PH) BONNET Jean-Louis (PU-PH) CUISSET Thomas (PU-PH) DEHARO Jean-Claude (PU-PH) FRANCESCHI Frédéric (PU-PH) HABIB Gilbert (PU-PH) PAGANELLI Franck (PU-PH) THUNY Franck (PU-PH) CHIRURGIE VISCERALE ET DIGESTIVE 5202 BERDAH Stéphane (PU-PH) DELPERO Jean-Robert (PU-PH) Surnombre HARDWIGSEN Jean (PU-PH) MOUTARDIER Vincent (PU-PH) SEBAG Frédéric (PU-PH) SIELEZNEFF Igor (PU-PH) TURRINI Olivier (PU-PH) BEGE Thierry (MCU-PH) BEYER-BERJOT Laura (MCU-PH) BIRNBAUM David (MCU-PH) DUCONSEIL Pauline (MCU-PH) GUERIN Carole (MCU-PH) CHAUDET Hervé (MCU-PH) DUFOUR Jean-Charles (MCU-PH) GIUSIANO Bernard (MCU-PH) ABU ZAINEH Mohammad (MCF) (5ème section) BOYER Sylvie (MCF) (5ème section) DRH Campus Timone MAJ 01.09.2019 CHIRURGIE ORTHOPEDIQUE ET TRAUMATOLOGIQUE 5002 ARGENSON Jean-Noël (PU-PH) BLONDEL Benjamin (PU-PH) CURVALE Georges (PU-PH) Surnombre FLECHER Xavier (PU PH) PARRATTE Sébastien (PU-PH) Disponibilité ROCHWERGER Richard (PU-PH) TROPIANO Patrick (PU-PH) OLLIVIER Matthieu (MCU-PH) CHIRURGIE INFANTILE 5402 GUYS Jean-Michel (PU-PH) Surnombre JOUVE Jean-Luc (PU-PH) LAUNAY Franck (PU-PH) MERROT Thierry (PU-PH) VIEHWEGER Heide Elke (PU-PH) FAURE Alice (MCU PH) PESENTI Sébastien (MCU-PH) LOUIS-BORRIONE Claude (PR associé des Universités) CANCEROLOGIE ; RADIOTHERAPIE 4702 CHIRURGIE MAXILLO-FACIALE ET STOMATOLOGIE 5503 BERTUCCI François (PU-PH) CHINOT Olivier (PU-PH) COWEN Didier (PU-PH) DUFFAUD Florence (PU-PH) GONCALVES Anthony PU-PH) HOUVENAEGHEL Gilles (PU-PH) LAMBAUDIE Eric (PU-PH) SALAS Sébastien (PU-PH) CHOSSEGROS Cyrille (PU-PH) GUYOT Laurent (PU-PH) FOLETTI Jean-Marc (MCU-PH) CHIRURGIE PLASTIQUE, RECONSTRUCTRICE ET ESTHETIQUE ; BRÛLOLOGIE 5004 VIENS Patrice (PU-PH) SABATIER Renaud (MCU-PH) CASANOVA Dominique (PU-PH) LEGRE Régis (PU-PH) TABOURET Emeline (MCU-PH) CHIRURGIE THORACIQUE ET CARDIOVASCULAIRE 5103 COLLART Frédéric (PU-PH) D'JOURNO Xavier (PU-PH) DODDOLI Christophe (PU-PH) GARIBOLDI Vlad (PU-PH) MACE Loïc (PU-PH) THOMAS Pascal (PU-PH) BERTRAND Baptiste (MCU-PH) HAUTIER/KRAHN Aurélie (MCU-PH) EPIDEMIOLOGIE, ECONOMIE DE LA SANTE ET PREVENTION 4601 FOUILLOUX Virginie (MCU-PH) TROUSSE Delphine (MCU-PH) CHIRURGIE VASCULAIRE ; MEDECINE VASCULAIRE 5104 ALIMI Yves (PU-PH) AMABILE Philippe (PU-PH) BARTOLI Michel (PU-PH) BOUFI Mourad (PU-PH) MAGNAN Pierre-Edouard (PU-PH) PIQUET Philippe (PU-PH) SARLON-BARTOLI Gabrielle (PU PH) AUQUIER Pascal (PU-PH) BERBIS Julie (PU-PH) BOYER Laurent (PU-PH) GENTILE Stéphanie (PU-PH) SAMBUC Roland (PU-PH) Surnombre THIRION Xavier (PU-PH) LAGOUANELLE/SIMEONI Marie-Claude (MCU-PH) RESSEGUIER Noémie (MCU-PH) MINVIELLE/DEVICTOR Bénédicte (MCF)(06ème section) TANTI-HARDOUIN Nicolas (PRAG) HISTOLOGIE, EMBRYOLOGIE ET CYTOGENETIQUE 4202 LEPIDI Hubert (PU-PH) PAULMYER/LACROIX Odile (MCU-PH) DERMATOLOGIE - VENEREOLOGIE 5003 BERBIS Philippe (PU-PH) DELAPORTE Emmanuel (PU-PH) GAUDY/MARQUESTE Caroline (PU-PH) GROB Jean-Jacques (PU-PH) RICHARD/LALLEMAND Marie-Aleth (PU-PH) DUSI COLSON Sébastien (MCF) BOURRIQUEN Maryline (MAST) EVANS-VIALLAT Catherine (MAST) LUCAS Guillaume (MAST) MAYEN-RODRIGUES Sandrine (MAST) MELLINAS Marie (MAST) ROMAN Christophe (MAST) TRINQUET Laure (MAST) ENDOCRINOLOGIE, DIABETE ET MALADIES METABOLIQUES ; GYNECOLOGIE MEDICALE 5404 BRUE Thierry (PU-PH) CASTINETTI Frédéric (PU-PH) CUNY Thomas (MCU PH) DRH Campus Timone GASTROENTEROLOGIE ; HEPATOLOGIE ; ADDICTOLOGIE 5201 BARTHET Marc (PU-PH) BERNARD Jean-Paul (PU-PH) Retraite au 25/11/2019 BOTTA-FRIDLUND Danielle (PU-PH) Surnombre DAHAN-ALCARAZ Laetitia (PU-PH) GEROLAMI-SANTANDREA René (PU-PH) GRANDVAL Philippe (PU-PH) GRIMAUD Jean-Charles (PU-PH) SEITZ Jean-François (PU-PH) VITTON Véronique (PU-PH) GONZALEZ Jean-Michel (MCU-PH) GENETIQUE 4704 BEROUD Christophe (PU-PH) KRAHN Martin (PU-PH) LEVY Nicolas (PU-PH) SARLES/PHILIP Nicole (PU-PH) NGYUEN Karine (MCU-PH) TOGA Caroline (MCU-PH) ZATTARA/CANNONI Hélène (MCU-PH) GYNECOLOGIE-OBSTETRIQUE ; GYNECOLOGIE MEDICALE 5403 AGOSTINI Aubert (PU-PH) BOUBLI Léon (PU-PH) Surnombre BRETELLE Florence (PU-PH) CARCOPINO-TUSOLI Xavier (PU-PH) COURBIERE Blandine (PU-PH) CRAVELLO Ludovic (PU-PH) D'ERCOLE Claude (PU-PH) MAJ 01.09.2019 IMMUNOLOGIE 4703 KAPLANSKI Gilles (PU-PH) MEGE Jean-Louis (PU-PH) OLIVE Daniel (PU-PH) VIVIER Eric (PU-PH) FERON François (PR) (69ème section) BOUCRAUT Joseph (MCU-PH) CHRETIEN Anne-Sophie (MCU PH) DEGEORGES/VITTE Joëlle (MCU-PH) DESPLAT/JEGO Sophie (MCU-PH) ROBERT Philippe (MCU-PH) VELY Frédéric (MCU-PH) HEMATOLOGIE ; TRANSFUSION 4701 BLAISE Didier (PU-PH) COSTELLO Régis (PU-PH) CHIARONI Jacques (PU-PH) GILBERT/ALESSI Marie-Christine (PU-PH) MORANGE Pierre-Emmanuel (PU-PH) VEY Norbert (PU-PH) DEVILLIER Raynier (MCU PH) GELSI/BOYER Véronique (MCU-PH) LAFAGE/POCHITALOFF-HUVALE Marina (MCU-PH) LOOSVELD Marie (MCU-PH) SUCHON Pierre (MCU-PH) POGGI Marjorie (MCF) (64ème section) BOUCAULT/GARROUSTE Françoise (MCF) 65ème section) MEDECINE LEGALE ET DROIT DE LA SANTE 4603 MALADIES INFECTIEUSES ; MALADIES TROPICALES 4503 BROUQUI Philippe (PU-PH) LAGIER Jean-Christophe (PU-PH) MILLION Matthieu (PU-PH) PAROLA Philippe (PU-PH) STEIN Andréas (PU-PH) BARTOLI Christophe (PU-PH) LEONETTI Georges (PU-PH) PELISSIER-ALICOT Anne-Laure (PU-PH) PIERCECCHI-MARTI Marie-Dominique (PU-PH) TUCHTAN-TORRENTS Lucile (MCU-PH) BERLAND/BENHAIM Caroline (MCF) (1ère section) ELDIN Carole (MCU-PH) MEDECINE INTERNE ; GERIATRIE ET BIOLOGIE DU VIEILLISSEMENT ; ADDICTOLOGIE 5301 BONIN/GUILLAUME Sylvie (PU-PH) DISDIER Patrick (PU-PH) DURAND Jean-Marc (PU-PH) EBBO Mikaël (PU-PH) GRANEL/REY Brigitte (PU-PH) HARLE Jean-Robert (PU-PH) ROSSI Pascal (PU-PH) SCHLEINITZ Nicolas (PU-PH) MEDECINE PHYSIQUE ET DE READAPTATION 4905 BENSOUSSAN Laurent (PU-PH) VITON Jean-Michel (PU-PH) MEDECINE ET SANTE AU TRAVAIL 4602 LEHUCHER/MICHEL Marie-Pascale (PU-PH) BERGE-LEFRANC Jean-Louis (MCU-PH) SARI/MINODIER Irène (MCU-PH) BENYAMINE Audrey (MCU-PH) MEDECINE D'URGENCE 4805 MEDECINE GENERALE 5303 GENTILE Gaëtan (PR Méd. Gén. Temps plein) CASANOVA Ludovic (MCF Méd. Gén. Temps plein) KERBAUL François (PU-PH) détachement MICHELET Pierre (PU-PH) ADNOT Sébastien (PR associé Méd. Gén. à mi-temps) FILIPPI Simon (PR associé Méd. Gén. à mi-temps) BARGIER Jacques (MCF associé Méd. Gén. À mi-temps) BONNET Pierre-André (MCF associé Méd. Gén à mi-temps) CALVET-MONTREDON Céline (MCF associé Méd. Gén. à temps plein) JANCZEWSKI Aurélie (MCF associé Méd. Gén. À mi-temps) NUSSLI Nicolas (MCF associé Méd. Gén. à mi-temps) ROUSSEAU-DURAND Raphaëlle (MCF associé Méd. Gén. à mi-temps) THERY Didier (MCF associé Méd. Gén. à mi-temps) (nomination au 01/10/2019) NEPHROLOGIE 5203 BRUNET Philippe (PU-PH) BURTEY Stépahne (PU-PH) DUSSOL Bertrand (PU-PH) JOURDE CHICHE Noémie (PU PH) MOAL Valérie (PU-PH) NUTRITION 4404 DARMON Patrice (PU-PH) RACCAH Denis (PU-PH) VALERO René (PU-PH) ATLAN Catherine (MCU-PH) disponibilité BELIARD Sophie (MCU-PH) MARANINCHI Marie (MCF) (66ème section) NEUROCHIRURGIE 4902 DUFOUR Henry (PU-PH) FUENTES Stéphane (PU-PH) REGIS Jean (PU-PH) ROCHE Pierre-Hugues (PU-PH) SCAVARDA Didier (PU-PH) CARRON Romain (MCU PH) GRAILLON Thomas (MCU PH) NEUROLOGIE 4901 ONCOLOGIE 65 (BIOLOGIE CELLULAIRE) CHABANNON Christian (PR) (66ème section) SOBOL Hagay (PR) (65ème section) DRH Campus Timone ATTARIAN Sharham (PU PH) AUDOIN Bertrand (PU-PH) AZULAY Jean-Philippe (PU-PH) CECCALDI Mathieu (PU-PH) EUSEBIO Alexandre (PU-PH) FELICIAN Olivier (PU-PH) PELLETIER Jean (PU-PH) MAAROUF Adil (MCU-PH) MAJ 01.09.2019 OPHTALMOLOGIE 5502 DENIS Danièle (PU-PH) HOFFART Louis (PU-PH) Disponibilité MATONTI Frédéric (PU-PH) Disponibilité PEDOPSYCHIATRIE; ADDICTOLOGIE 4904 DA FONSECA David (PU-PH) POINSO François (PU-PH) GUIVARCH Jokthan (MCU-PH) OTO-RHINO-LARYNGOLOGIE 5501 PHARMACOLOGIE FONDAMENTALE PHARMACOLOGIE CLINIQUE; ADDICTOLOGIE 4803 DESSI Patrick (PU-PH) FAKHRY Nicolas (PU-PH) GIOVANNI Antoine (PU-PH) LAVIEILLE Jean-Pierre (PU-PH) MICHEL Justin (PU-PH) NICOLLAS Richard (PU-PH) TRIGLIA Jean-Michel (PU-PH) BLIN Olivier (PU-PH) FAUGERE Gérard (PU-PH) Surnombre MICALLEF/ROLL Joëlle (PU-PH) SIMON Nicolas (PU-PH) BOULAMERY Audrey (MCU-PH) RADULESCO Thomas (MCU-PH) REVIS Joana (MAST) (Orthophonie) (7ème Section) PARASITOLOGIE ET MYCOLOGIE 4502 PHILOSPHIE 17 RANQUE Stéphane (PU-PH) LE COZ Pierre (PR) (17ème section) CASSAGNE Carole (MCU-PH) L'OLLIVIER Coralie (MCU-PH) TOGA Isabelle (MCU-PH) MATHIEU Marion (MAST) PEDIATRIE 5401 ANDRE Nicolas (PU-PH) CHAMBOST Hervé (PU-PH) DUBUS Jean-Christophe (PU-PH) GIRAUD/CHABROL Brigitte (PU-PH) MICHEL Gérard (PU-PH) MILH Mathieu (PU-PH) OVAERT Caroline (PU-PH) REYNAUD Rachel (PU-PH) SARLES Jacques (PU-PH) TSIMARATOS Michel (PU-PH) COZE Carole (MCU-PH) FABRE Alexandre (MCU-PH) TOSELLO Barthélémy (MCU-PH) PSYCHIATRIE D'ADULTES ; ADDICTOLOGIE 4903 PHYSIOLOGIE 4402 BARTOLOMEI Fabrice (PU-PH) BREGEON Fabienne (PU-PH) GABORIT Bénédicte (PU-PH) MEYER/DUTOUR Anne (PU-PH) TREBUCHON/DA FONSECA Agnès (PU-PH) BARTHELEMY Pierre (MCU-PH) BONINI Francesca (MCU-PH) BOULLU/CIOCCA Sandrine (MCU-PH) DADOUN Frédéric (MCU-PH) (disponibilité) DELLIAUX Stéphane (MCU-PH) RUEL Jérôme (MCF) (69ème section) THIRION Sylvie (MCF) (66ème section) BAILLY Daniel (PU-PH) LANÇON Christophe (PU-PH) NAUDIN Jean (PU-PH) CERMOLACCE Michel (MCU-PH) PSYCHOLOGIE - PSYCHOLOGIE CLINIQUE, PCYCHOLOGIE SOCIALE 16 AGHABABIAN Valérie (PR) PNEUMOLOGIE; ADDICTOLOGIE 5101 RADIOLOGIE ET IMAGERIE MEDICALE 4302 BARTOLI Jean-Michel (PU-PH) CHAGNAUD Christophe (PU-PH) CHAUMOITRE Kathia (PU-PH) GIRARD Nadine (PU-PH) JACQUIER Alexis (PU-PH) MOULIN Guy (PU-PH) PANUEL Michel (PU-PH) PETIT Philippe (PU-PH) VAROQUAUX Arthur Damien (PU-PH) VIDAL Vincent (PU-PH) ASTOUL Philippe (PU-PH) BARLESI Fabrice (PU-PH) CHANEZ Pascal (PU-PH) GREILLIER Laurent (PU PH) REYNAUD/GAUBERT Martine (PU-PH) TOMASINI Pascale (MCU-PH) STELLMANN Jan-Patrick (MCU-PH) REANIMATION MEDICALE ; MEDECINE URGENCE 4802 GAINNIER Marc (PU-PH) GERBEAUX Patrick (PU-PH) PAPAZIAN Laurent (PU-PH) ROCH Antoine (PU-PH) THERAPEUTIQUE; MEDECINE D'URGENCE; ADDICTOLOGIE 4804 AMBROSI Pierre (PU-PH) VILLANI Patrick (PU-PH) DAUMAS Aurélie (MCU-PH) HRAIECH Sami (MCU-PH) RHUMATOLOGIE 5001 GUIS Sandrine (PU-PH) LAFFORGUE Pierre (PU-PH) PHAM Thao (PU-PH) ROUDIER Jean (PU-PH) DRH Campus Timone UROLOGIE 5204 BASTIDE Cyrille (PU-PH) KARSENTY Gilles (PU-PH) LECHEVALLIER Eric (PU-PH) ROSSI Dominique (PU-PH) MAJ 01.09.2019 Remerciements de Violette Merci au Professeur Patrice Darmon de nous avoir fait l'honneur d'accepter de présider notre jury. Merci au Dr Didier Thery et au Dr Jacques Bargier pour votre participation en tant que membres de notre jury. Merci de l'intérêt que vous avez témoigné à notre travail. Merci à nos directeurs de thèse, le Dr Hélène Carrier et le Dr Pierre-André Bonnet pour votre accompagnement et vos précieux conseils. Merci à tous les intervenants qui ont accompagné et permis le bon déroulement de notre travail. Merci à Emilie Moreau, diététicienne et coordinatrice du programme de nous avoir tenues informées en temps et en heure du planning des ateliers, pour ta bienfaisance tout au long de notre travail. Merci à Diana Ferranti, statisticienne pour son savoir-faire et sa réactivité. Merci à Janet Bayfield, administratrice de la Health Psychology Research Unit (HPRU) à l'Université de Londres pour sa gentillesse et son aide. Merci aux secrétaires des MSP de Vedène, Saint-Saturnin et Avignon pour avoir réceptionné et gardé précieusement nos questionnaires quand nous ne pouvions nous en charger. Merci à tous les participants du programme pour avoir pris le temps de répondre à nos questionnaires, merci pour votre disponibilité et votre implication. Merci à mes parents, à mon frère, à mes grands-parents, à Micha et au reste de ma famille pour votre présence, votre soutien et votre fierté durant ces dix longues années de médecine. C'est à moi de prendre soin de vous maintenant. Merci à mes amis rencontrés durant ces années de médecine pour vos inspirations. Merci à mes autres amis pour votre réconfort à chaque instant ! Enfin, merci à toi Emi d'avoir partagé cette aventure. Merci pour ta motivation et ta douceur de vivre, je ne pouvais pas espérer meilleure cothésarde. A nous la belle vie ! Remerciements d'Emilie A notre président de jury, Monsieur le Professeur Patrice DARMON, Je vous remercie de nous faire l'honneur de présider notre jury de thèse et d'avoir accepté d'évaluer notre travail. A Monsieur le Docteur Didier THERY et Monsieur le Docteur Jacques BARGIER, Je vous remercie de l'intérêt que vous portez à ce travail et de l'apport de vos connaissances au jugement de cette thèse. A Monsieur le Docteur Pierre-André BONNET et Madame le Docteur Hélène CARRIER, je vous remercie de nous avoir proposé ce sujet de thèse que vous avez codirigé, de nous avoir soutenu tout au long de ce travail, merci pour vos nombreux conseils et relectures. A tous les intervenants du programme d'éducation thérapeutique du Pôle Santé Centre Ouest Vaucluse et aux secrétaires des MSP, merci pour votre disponibilité et votre aide dans la collecte de nos données, et plus particulièrement à Emilie MOREAU, diététicienne, qui nous a été d'une aide précieuse. Aux patients participant au programme d'ETP, merci d'avoir accepté d'intégrer notre étude. A Diana FERRANTI, pour nous avoir accompagner dans nos analyses statistiques. Au Professeur Claire BRADLEY et à sa secrétaire Janet BAYFIELD, merci de nous avoir autorisé à utiliser l'échelle ADDQoL. A tous les médecins que j'ai rencontrés lors de mes années de formation, merci pour tout le savoir que vous m'avez transmis. A Violette, la meilleure des co-thésarde. Merci pour tous ces moments de travail qui n'auraient pas pu mieux se passer. A notre belle amitié qui ne fait que commencer. A mes parents, vous m'avez soutenu tout au long de mes études, je n'aurais jamais pu y arriver sans vous. Merci pour les valeurs que vous m'avez transmises, pour notre belle famille que vous avez su faire grandir. Avec tout mon amour. A Adri, Marine, So, Tim, et Paulo, merci de m'avoir accompagné et d'avoir participé à mon épanouissement hors-médecine, merci de faire partie de notre belle fratrie. A bonne-ma, merci pour les nombreux évènements en famille que tu as organisés, renforçant les liens familiaux si importants à mon bonheur. A bon-papa parti trop tôt. A papi et matité, merci pour votre soutien et admiration dans mon choix d'être médecin. A tous mes cousins, en particulier Roxane, Romane et Clara, merci pour tous ces moments de fous rires, que notre enfance insouciante perdure. A Bé et Nini, mes soeurs de lait, merci pour votre si belle amitié, à nos rêves d'enfant. A Laeti et Mama, merci votre présence et votre complicité. A nos années de lycées, de p1, non sans fous rires, et à toutes les années d'après où on a su garder cette amitié malgré la distance. A Marjo, à notre stage-vacances Thaïlandais où notre belle amitié a commencée. A tous mes amis rencontrés en Argentine pendant ma troisième année de médecine, merci pour ce semestre incroyable, qué buena onda ! A ma bande de copains de Lyon de l'externat, merci pour ces soirées, vacances et summerchallenge qui ont égayés nos années d'études. Merci particulièrement à Yohan, Antoine, Guigui et Anne pour ce beau voyage Kirghiz post internat, rakhmat ! Et merci à Manon, pour notre choix de ville d'internat, le meilleur ! A tous les copains rencontrés pendant l'internat : merci pour tous les moments passés ensemble à découvrir cette belle région, à La Ciotat, à Toulon, Gap et Marseille. Ces 3 ans ont été de belles années et ça c'est grâce à vous. A Greg, coloc et co-interne en or ; Mathou, Béné et Manon « mes coups de coeur marseillais » ; Lulu, pour ton côté rêveur si touchant ; Flo, pour tes fous rires garantis ; Gaeliz et Mathias, pour toutes les bières bues à refaire le monde ; Adri, pour nos échanges espagnols ; Seb, Louis, Clarisse, Elsa, Sophie et Céline pour notre coloc au 26 cours Lieutaud. Et enfin à mon Xav, merci pour ton soutien au cours de ce travail, ton ambition qui me fait grandir, ta joie de vivre. Merci pour tout ce que tu m'apportes au quotidien. Table des matières Abréviations 2 I. Introduction 3 1. Épidémiologie du diabète 3 2. Maladie chronique et qualité de vie 4 3. Éducation thérapeutique 5 a. Définition 5 b. Encadrement légal de l'éducation thérapeutique 5 c. L'offre d'éducation thérapeutique 6 d. Présentation du programme d'éducation thérapeutique : "Vivez à fond avec votre diabète" 6 4. II. III. IV. V. Objectif de l'étude 7 Matériels et méthodes 7 1. Design de l'étude 7 2. Population étudiée 7 3. Critères de jugement 8 4. L'échelle de qualité de vie ADDQoL : Audit of Diabetes Dependent Quality of Life 8 5. Recueil des données 9 6. Interprétation de l'échelle ADDQoL 10 7. Analyse des données 11 Résultats 11 1. Analyses descriptives - Caractéristiques de la population étudiée 12 2. Analyses statistiques 14 Discussion 17 1. Résultats principaux 17 2. Forces et faiblesses de l'étude 18 3. Comparaison avec la littérature 19 4. Implications pour la pratique et la recherche 21 Conclusion 22 Références 23 Annexes 25 Annexe 1 : Consentement 25 Annexe 2 : Echelle ADDQoL 26 Annexe 3 : Lettre d'information destinée aux patients 32 Annexe 4 : Résultats des analyses des 19 items de l'échelle ADDQoL 33 Annexe 5 : Commentaires libres des patients 34 Résumé 36 Abstract 37 1 Abréviations ADDQoL : Audit of Diabetes Dependent Quality of Life ADO : Anti-diabétiques Oraux ARS : Agences Régionales de Santé ASALEE : Action de SAnté Libérale En Equipe AWI : Average Weighted Impact (= impact moyen pondéré) ETP : Education Thérapeutique du Patient GLP1 : Analogues du Glucagon-Like Peptide 1 HAS : Haute Autorité de Santé HbA1c : Hémoglobine glyquée HCSP : Haut Conseil de la Santé Publique HPST : Hôpital Patient Santé Territoires IMC : Indice de Masse Corporelle INSERM : Institut National de la Recherche et de la Santé Médicale MSP : Maison de Santé Pluriprofessionnelle OMS : Organisation Mondiale de la Santé T0 : Avant ou au début des ateliers d'éducation thérapeutique T3 : 3 mois après la fin des ateliers d'éducation thérapeutique 2 I. Introduction 1. Épidémiologie du diabète Le diabète est une maladie chronique qui affectait 3,5 millions d'adultes en France et 463 millions d'adultes dans le monde en 2019, soit 9,3% de la population entre 20 et 79 ans. La prévalence a triplé dans le monde en 20 ans et semble encore s'aggraver selon les prévisions pour 2045 (figure 1) (1). Ces données ne prennent pas en compte les malades qui s'ignorent, soit environ 20 à 30% des adultes diabétiques d'après l'Institut National de la Recherche et de la Santé Médical (INSERM) (2). Figure 1 : prévalence du diabète (en million) chez les adultes (20-79 ans) dans le monde de 2000 à 2045 (Fédération internationale du diabète, 2019) L'augmentation de la prévalence semble principalement due aux modifications de nos modes de vie (mauvaise alimentation, sédentarité) entraînant un accroissement du nombre de personnes en surpoids et obèses, ainsi qu'au vieillissement de la population (2). L'incidence de la maladie est en effet beaucoup plus importante chez les personnes âgées puisqu'elle atteint 24% des plus de 75 ans (3). 3 La mortalité due au diabète est probablement sous-estimée car ce sont les complications de la maladie qui sont responsables des décès. En 2019 en France, le diabète était imputable à 18 655 décès chez les adultes. Au niveau économique, dix pour cent des dépenses mondiales de santé sont consacrées au diabète. Ces données montrent à quel point le diabète est un enjeu majeur pour la population, les soignants et le système de santé. Des outils de prévention pour diminuer l'épidémie et ses complications s'avèrent indispensables. 2. Maladie chronique et qualité de vie Comme toute maladie chronique, le diabète est une maladie contraignante qui oblige le patient et son entourage à s'investir dans la prise en charge de la maladie pour contrôler au mieux son évolution et prévenir ses complications. Le concept de "fardeau de traitement" correspond à la perception par le patient des répercussions de sa prise en charge médicale sur son bien-être et sa qualité de vie (4). Cela se traduit par des préoccupations quotidiennes quant au choix des repas, aux prises des médicaments, au suivi médical et à la prévention ou la gestion des complications. En moyenne, les patients diabétiques de type 2 consacrent deux heures par jour à leurs soins (5). En France, 38% des patients atteints de maladie chronique estiment leur "fardeau du traitement" inacceptable (4). On comprend donc que les maladies chroniques et notamment le diabète (6) altèrent la qualité de vie des malades (7) (8). L'Organisation Mondiale de la Santé (OMS) a défini en 1993 la qualité de vie comme « la perception qu'a un individu de sa place dans l'existence, dans le contexte de la culture et du système de valeur dans lequel il vit, en relation avec ses objectifs et ses attentes, ses normes et ses inquiétudes » (9). La qualité de vie est donc une notion subjective, complexe, qui tient compte de l'individu dans sa globalité. C'est une notion qualitative, que l'on peut néanmoins explorer de façon quantitative par le biais de questionnaires validés. De nombreuses échelles étudient la qualité de vie. Les plus modernes se basent sur la perception qu'ont les patients de leur santé et sont spécifiques d'une maladie. 4 3. Éducation thérapeutique a. Définition Certaines pistes ont été développées en vue d'améliorer la qualité de vie des patients atteints de maladies chroniques. Il s'agit notamment des programmes d'éducation thérapeutique (ETP) qui ont déjà montré leur efficacité dans des maladies comme l'asthme (10) ou le diabète de type 1 (11). Selon la définition de l'OMS-Europe de 1996, les programmes d'éducation thérapeutique "visent à aider les patients à acquérir ou maintenir les compétences dont ils ont besoin pour gérer au mieux leur vie avec une maladie chronique. Leur but est, entre autres, d'améliorer la qualité de vie des patients" (12) (13). L'OMS considère les programmes d'ETP comme un moyen "d'acquérir des compétences pour l'autogestion de la maladie et du traitement, mais aussi le soutien dans le domaine psychologique" (14). En somme, les programmes d'ETP ont pour objectifs de développer les capacités des patients à se prendre en charge et à décider pour eux-mêmes. C'est une approche centrée sur le malade plutôt que sur la maladie. Ils visent à rendre le patient acteur de sa maladie, à ce qu'il acquière une meilleure compréhension de ses traitements et des règles hygiéno-diététiques, ceci devant permettre de diminuer les complications liées à sa maladie, et ainsi le coût lié à sa santé (15). Selon la logique développée par le Pr André Grimaldi, diabétologue émérite à l'Hôpital de la Pitié-Salpêtrière : « Éduquer, c'est soigner ; soigner, c'est éduquer » (16). b. Encadrement légal de l'éducation thérapeutique Les programmes d'ETP existent depuis les années 70, mais leur déploiement par le ministère de la santé débute en 2007 et ils sont encadrés par la loi Hôpital Patient Santé Territoires (HPST) en 2009. Ils sont financés par les Agences Régionales de Santé (ARS) et autorisés pour une durée de 4 ans renouvelable. Tous les patients ayant une maladie chronique, quel que soit leur âge et l'ancienneté de leur maladie, peuvent bénéficier de programmes d'ETP, avec leur entourage si ils le souhaitent (17). Ils sont effectués de manière individuelle ou collective et sont encadrés par une équipe pluriprofessionnelle dont au moins un médecin et deux autres professionnels de santé. Ils doivent être conformes à un cahier des charges validé par l'ARS du territoire concerné. 5 c. L'offre d'éducation thérapeutique Les programmes d'ETP pour les patients diabétiques sont les plus nombreux et représentent environ 30% de l'offre globale d'ETP en France (16). D'après un rapport de la Haute Autorité de Santé (HAS) de 2018 évaluant l'efficacité et l'efficience des programmes d'ETP sur les maladies chroniques, les ateliers d'ETP seraient principalement dispensés à l'hôpital. En 2014, seulement 3,9% des programmes étaient réalisés en ville (17). Plus précisément, en région Provence-Alpes-Côtes d'Azur (PACA) en 2012 sur 52 programmes diabète autorisés, 19 % sont dispensés en ville (16). Il est intéressant dans le cas du diabète de type 2, majoritairement traité en ville, de mettre en place des actions d'éducation thérapeutique ambulatoire qui soient intégrées au mieux dans le quotidien des patients. Par exemple, un programme d'ETP mis en place dans une Maison de Santé Pluriprofessionnelle (MSP) dont l'action est intégrée à la pratique des médecins traitants, permettrait au patient de bénéficier, même après la fin des ateliers, d'un accompagnement dans la durée par les mêmes acteurs de santé, ce qui ne peut être le cas avec un programme hospitalier (16). d. Présentation du programme d'éducation thérapeutique : "Vivez à fond avec votre diabète" Le programme d'ETP "Vivez à fond avec votre diabète" mis en place en 2016 s'adresse aux patients diabétiques de type 2 de plus de 18 ans. Il est proposé par le Pôle Santé Centre Ouest Vaucluse et s'organise au sein des MSP de Vedène, Saint-Saturnin-lèsAvignon, Avignon et Sorgue. La participation au programme est proposée par des médecins généralistes ou d'autres professionnels de santé des MSP. Des brochures en libre-service sont également présentes dans les salles d'attente des MSP. Les patients participant au programme bénéficient d'un entretien individuel avec une diététicienne pour établir un bilan éducatif partagé. Des informations sur leur vie personnelle (âge, profession, situation familiale), leur maladie (ancienneté, traitements, complications, comorbidités) ainsi que des données clinico-biologiques (poids, taille, tour de taille, hémoglobine glyquée (HbA1c)) sont recueillies. Mais il s'agit surtout d'un entretien ouvert permettant au patient de s'exprimer librement et de faire part de ses attentes et objectifs vis à vis du programme et de sa maladie. Le bilan éducatif partagé permet de mettre en oeuvre un projet éducatif personnalisé. 6 Les patients participent ensuite à des ateliers en petits groupes (de 2 à 6 patients), seuls ou accompagnés par une personne de leur choix. Les ateliers, au nombre de six, sont répartis sur quelques semaines de la manière suivante :  « Mon diabète » animé par un médecin ou une infirmière  « Mon alimentation » animé par une diététicienne en deux ateliers différents  « Moi et le sport » animé par un kinésithérapeute ou une éducatrice sportive  « Prendre soin de mes pieds » animé par un podologue  « Mon traitement » animé par un pharmacien ou une infirmière Les patients signent un consentement (annexe 1) lors de leur inscription au programme précisant que leurs données personnelles peuvent être utilisées à des fins de recherche, que leur participation est volontaire, anonyme et qu'ils peuvent se retirer de l'étude à tout moment sans conséquence sur leur prise en charge médicale future. 4. Objectif de l'étude L'objectif de notre étude était d'évaluer l'impact sur la qualité de vie du programme d'ETP ambulatoire "Vivez à fond avec votre diabète" mis en place par le Pôle de Santé Centre Ouest Vaucluse chez des patients diabétiques de type 2. II. Matériels et méthodes 1. Design de l'étude Nous avons réalisé une étude quantitative analytique rétrospective. 2. Population étudiée Tous les patients participant aux ateliers d'ETP entre avril 2019 et juin 2020 ont été contactés pour participer à notre étude. Les patients présentant des troubles cognitifs ne leur permettant pas de répondre au questionnaire ont été exclus. Les patients qui participaient à moins de cinq ateliers sur six, ou qui ne remplissaient pas le second questionnaire (refus ou perdu de vue) étaient exclus de l'analyse. 7 3. Critères de jugement Le critère de jugement principal était la différence de la moyenne du score global composite de l'échelle Audit of Diabetes Dependent Quality of Life (ADDQoL), c'est à dire la moyenne de l'average weighted impact (AWI) avant le programme (T0) et 3 mois après la fin du programme d'ETP (T3). Nous avons choisi la durée de 3 mois puisque l'HbA1c, qui était l'un des critères de jugement secondaires, est dosée tous les 3 mois. Les critères de jugements secondaires étaient l'évaluation de l'évolution de certains paramètres avant et à 3 mois du programme d'ETP :  Le poids  L'indice de masse corporel (IMC)  Le tour de taille  L'hémoglobine glyquée (HbA1c)  Les 21 questions de l'échelle ADDQoL (19 items et 2 questions générales) 4. L'échelle de qualité de vie ADDQoL : Audit of Diabetes Dependent Quality of Life L'échelle ADDQoL (annexe 2) est une échelle de qualité de vie spécifique au diabète développée au Royaume-Uni en 1994 par le Pr C. Bradley et al (18). C'est l'échelle la plus traduite et validée pour les patients diabétiques, y compris en français (19). La réalisation de cette échelle s'est appuyée sur la méthode d'interview individuelle SEIQoL (Schedule for the Evaluation of Individual Quality of Life - Programme d'évaluation de la qualité de vie individuelle) qui permet " le libre choix par la personne malade des domaines importants pour sa qualité de vie" (20). Elle a été développée à partir d'une revue des questionnaires existants et sur un ensemble d'entretiens réalisés avec des soignants et avec douze patients diabétiques. Elle est adaptée aux patients adultes diabétiques de type 1 et de type 2. Sa validité et sa reproductibilité ont été évaluées par une étude Australienne sur près de 4 000 patients diabétiques (21). L'échelle s'organise en 19 items relatifs à des domaines de la vie, chaque item se déclinant en deux parties : la première partie s'intéresse à l'impact du diabète sur le domaine étudié, la deuxième partie évalue l'importance accordée par le patient au 8 domaine en question. Le produit des deux parties donne un score qui traduit la perception qu'a le patient de l'impact du diabète sur un aspect précis de sa vie. Deux questions sur la qualité de vie générale et la qualité de vie que le patient penserait avoir s'il n'avait pas de diabète viennent s'ajouter au début du questionnaire. Tous les items n'ont pas le même poids et sont pondérés selon l'importance du problème lié à la maladie selon le patient. Cinq items sont optionnels (activité professionnelle, vacances, relations familiales, relations amoureuses et vie sexuelle), c'est à dire que le patient choisit si c'est un item applicable à sa vie. Si ce n'est pas le cas, il n'y répondra pas et la question sera exclue du score final. A la fin du questionnaire, une zone de texte était proposée pour laisser le patient s'exprimer librement sur sa qualité de vie. Une licence d'autorisation (numéro CB1103) a été obtenue auprès du service du Pr Bradley pour l'utilisation de l'échelle ADDQoL. Ce questionnaire était intégré dans les éléments du programme dans une démarche d'auto-évaluation et pourra servir notamment à l'évaluation quadriennale demandée par l'ARS pour tous les programmes d'ETP. 5. Recueil des données Les patients étaient contactés au début des ateliers (T0). Une lettre d'information leur expliquant les modalités de l'étude (annexe 3) ainsi qu'un premier questionnaire ADDQoL (format papier ou lien GoogleForm) leur étaient distribués. L'anonymisation des données était respectée car les patients étaient identifiés par les deux premières lettres de leur nom suivi de la première lettre de leur prénom ainsi que par leur date de naissance. Les caractéristiques socio-démographiques et les données biomédicales (poids, IMC, tour de taille, HbA1c, comorbidités, traitements) à T0 de la population étaient issues des données du bilan éducatif partagé. Trois mois après la fin des ateliers (T3), les patients étaient à nouveau contactés pour remplir le deuxième questionnaire ADDQoL et devaient également nous transmettre les valeurs récentes de leur poids, de leur tour de taille et de leur hémoglobine glyquée. 9 A la fin du deuxième questionnaire (T3) nous demandions aux patients de nous indiquer les éventuelles modifications de leur mode de vie (alimentation et activité physique) depuis la fin des ateliers. Ces informations recueillies en texte libre n'ont pas fait l'objet d'une analyse scientifique. 6. Interprétation de l'échelle ADDQoL Les données du questionnaire ADDQoL ont été interprétées selon la méthode recommandée par le service du Pr C. Bradley de sorte que chaque item était représenté par une valeur numérique (22). Un premier item sur la qualité de vie en général était coté de -3 à +3, et un second item imaginant la qualité de vie sans diabète était coté de -3 à +1. Plus le score était faible, plus la qualité de vie était mauvaise. Les 19 items qui suivaient abordaient différents domaines de la vie. Chaque item était divisé en deux parties a) et b) correspondant respectivement à l'impact du diabète sur le domaine (de -3 à +1) et l'importance de ce domaine (de 0 à +3) (Tableau 1). Tableau 1 : Exemple de la cotation de l'item 18 concernant le domaine de l'alimentation Item 18 a) Si je n'avais pas de diabète ma liberté de manger ce que je veux, quand je veux, serait : Nettement plus grande Bien plus grande Un peu plus grande Identique Moins grande -3 -2 -1 0 1 b) Ma liberté de manger ce que je veux, quand je veux, c'est : Très important Important Un peu important Pas important du tout 3 2 1 0 Le produit des deux sous-groupes a) et b) permettait d'obtenir un score pondéré pour chaque item (de -9 à +3). La moyenne de ces scores, appelée AWI pour "average weighted impact" (de -9 à +3) a été calculée à T0 et à T3 pour chaque patient. 10 7. Analyse des données L'analyse statistique des données par test apparié a été réalisée avec l'aide d'une statisticienne qui travaille en partenariat avec le syndicat des étudiants en médecine générale de la Faculté d'Aix-Marseille. Nous avons comparé la moyenne de l'AWI ainsi que la moyenne du poids, de l'IMC, du tour de taille et de l'HbA1c de l'ensemble des participants à T0 et à T3 en utilisant le test de Wilcoxon. Le seuil de significativité a été établi à p < 0,05. Nous avons utilisé ce même test pour comparer la moyenne des 21 questions de l'échelle ADDQoL (les deux questions sur la qualité de vie générale avec et sans diabète et les 19 items par domaine) à T0 et à T3. Pour ces données, le seuil de significativité a été établi par le fait que le résultat trouvé (test value) était inférieur à la valeur seuil (critical value), elle-même dépendante du risque alpha fixé à 0,05. Cette évaluation de la significativité des différences a été choisie du fait de la petite taille de l'effectif des participants. En effet, dans ces conditions, ce calcul était plus robuste que l'utilisation de la valeur p classiquement utilisée. L'association entre la qualité de vie initiale (AWI à T0) et les caractéristiques des participants a été recherchée à l'aide d'un test du Chi2 (analyse univariée), pour lequel le seuil de significativité a été établi à p < 0,05. III. Résultats Entre avril 2019 et juin 2020, vingt-trois patients ont été inscrits aux ateliers d'ETP « Vivez à fond avec votre diabète » au sein des MSP de Vedène, Saint-Saturnin-lèsAvignon, Avignon et Sorgue. Ils étaient tous volontaires pour participer à notre étude. Tous les ateliers d'ETP à Sorgue ont été annulés à cause de l'épidémie de COVID-19. Cinq patients étaient inscrits et ont dû être exclus. Deux autres patients ont refusé de répondre au deuxième questionnaire et ont également été exclus (figure 2). 11 Figure 2 : Diagramme de flux Patients participant aux ateliers d'ETP volontaires pour participer à notre étude (n=23) Patients dont les ateliers ont été annulés à cause de la COVID-19 (n=5) Patients perdus de vue (n=2) Patients inclus dans l'analyse (n=16) 1. Analyses descriptives - Caractéristiques de la population étudiée Les caractéristiques des participants sont décrites dans le tableau 2. Parmi les seize patients inclus, 50% étaient des femmes. La moyenne d'âge était de 64,8 ans et 75% d'entre eux étaient retraités. Ils étaient 75% à avoir des comorbidités cardiovasculaires comme de la tension artérielle et 44% des comorbidités orthopédiques pouvant avoir un impact sur leur activité physique. Parmi les participants, 81% étaient sous anti-diabétiques oraux (ADO). Seulement deux d'entre eux étaient sous règles hygiéno-diététiques seules et plus de la moitié bénéficiaient d'un traitement injectable (par insuline ou GLP1). Le diagnostic de leur diabète datait de moins d'un an pour 37,5% d'entre eux. Seulement un quart des patients étaient suivis par un endocrinologue. Trois patients sur seize avaient des complications liées au diabète telles qu'une néphropathie ou une rétinopathie. Les comorbidités cardio-vasculaires n'ont pas été prises en compte dans les complications cardio-vasculaires dues au diabète car elles pouvaient être liées à une autre étiologie. Tous les patients participaient pour la première fois à un programme d'éducation thérapeutique. 12 Tableau 2: Caractéristiques de la population des participants au programme d'ETP Données socio-démographiques (N=16) Sexe Féminin 8 (50) Masculin 8 (50) Age (moyenne en année et déviation standard) Situation familiale Nombre d'enfants Situation professionnelle Type d'emploi (actuel ou avant la retraite) Ancienneté du diabète 10 (62,5) Célibataire, divorcé ou veuf 6 (37,5) 0 2 (12,5) 1 3 (18,75) 2 7 (43,75) >2 4 (25) Retraité 12 (75) Actif 2 (12,5) Sans emploi 2 (12,5) Agriculteur exploitant 0 Artisan, commerçant, chef d'entreprise 0 Profession intermédiaire 1 (6,25) Cadre et profession intellectuelle 3 (18,75) Employé 10 (62,5) Ouvrier 0 < 1 an 6 (37,5) 1-10 ans 4 (25) > 10 ans 6 (37,5) 4 (25) Rétinopathie, néphropathie Traitements ETP 64 ,8 ± 7,8 Marié Suivi par un endocrinologue Complications et comorbidités n (%) 3 (19) Tabac 2 (12,5) Comorbidités cardio-vasculaires 12 (75) Comorbidités orthopédiques 7 (44) Cancer 2 (12,5) Règles hygiéno-diététiques seules 2 (12,5) Antidiabétiques oraux 13 (81) GLP1 3 (19) Insuline 6 (37,5) Participants aux 6 ateliers d'ETP 14 (87,5) Première participation à un programme d'ETP 16 (100) 13 2. Analyses statistiques Il n'y a pas eu d'amélioration statistiquement significative de la moyenne de l'AWI entre T0 et T3 (critère de jugement principal) (test value = 58 > critical value = 29). En revanche, le poids, l'IMC, le tour de taille et l'HbA1c (critères de jugement secondaires) se sont améliorés de manière statistiquement significative entre T0 et T3 (p < 0,05). Il en est de même pour la moyenne de la qualité de vie générale (test value = 16 < critical value = 29) et celle sans diabète (test value = 24 < critical value = 29) (tableau 3). Les patients ont perdu en moyenne 2,62 kg entre T0 et T3 (de 88,39 kg à 85,77 kg ; p < 0,05). La moyenne de l'IMC a diminué entre T0 et T3 (de 31,48 kg/m2 à 30,53 kg/m2 ; p < 0,05). La moyenne du tour de taille à T0 était de 114,9 cm et a diminué à 110,6 cm à T3 (p < 0,05). Ces données concernent uniquement quatorze patients puisque deux femmes n'ont pas voulu mesurer leur tour de taille à T3. L'HbA1c était de 7,56% en moyenne à T0 et de 6,9% à T3, donc a baissé de 0,66%. Il s'agit d'une baisse statistiquement significative (p < 0,05). 14 Tableau 3 : Données clinico-biologiques et scores de qualité de vie avant et après le programme d'ETP (à T0 et à T3 ; test de Wilcoxon) T0 moyenne (écart-type) T3 moyenne (écart-type) Différence statistiquement significative Moyenne de l'AWI -1,69 (1,48) -1,86 (2,07) Non* Qualité de vie générale 0,88 (0,62) 0,88 (0,81) Oui** Qualité de vie sans diabète -1,69 (0,79) -1,13 (1,59) Oui** Poids (kg) 88,39 (20,97) 85,77 (19,90) Oui*** IMC (kg/m2) 31,48 (5,89) 30,53 (5,30) Oui*** Tour de taille (cm) 114,9 (9,22) 110,6 (9,73) Oui*** HbA1c (%) 7,56 (1,47) 6,9 (0,72) Oui*** *critical value > test value **critical value < test value ***p-value < 0,05 15 L'item 2 du questionnaire portant sur l'activité professionnelle a été exclu des analyses du fait d'un très faible taux de réponse à l'item (item optionnel). L'analyse des 18 items restant a montré que quatre domaines de la vie s'améliorent significativement. Il s'agit de la confiance en soi (item 11), la motivation (item 12), le sentiment sur l'avenir (item 14) et les conditions de vie (item 16) (annexe 4). La figure 3 représente les moyennes des 18 items. Plus les résultats s'écartent du centre (proche de 0) meilleure est la qualité de vie. L'item 18 sur la liberté de manger est l'item le plus sévèrement jugé par les patients et ne s'améliore pas à T3. Figure 3 : comparaison des moyennes des 18 items à T0 et à T3 Item 19 : liberté de boire Item 18 : liberté de manger Item 17 : dépendance aux autres Item 16 : conditions de vie Item 15 : situation financière Item 14 : sentiment sur l'avenir Item 1 : loisirs 0 ‐0,5 ‐1 ‐1,5 ‐2 ‐2,5 ‐3 ‐3,5 ‐4 ‐4,5 ‐5 Item 3 : déplacements Item 4 : vacances Item 5 : physiquement Item 6 : famille, parents proches T0 T3 Item 7 : amis Item 8 : relation proche Item 13 : réaction des Item 9 : vie sexuelle autres envers moi Item 10 : apparence Item 12 : motivation physique Item 11 : confiance en soi 16 En analyse univariée, plus le diabète est ancien, plus la qualité de vie initiale (AWI à T0) est mauvaise (p = 0,021). De même, un indice de masse corporelle initial élevé tend à s'associer avec une plus mauvaise qualité de vie, mais de façon non significative (p = 0,077) (tableau 4). Tableau 4 : comparaison de l'AWI à T0 avec les critères clinico-biologiques (test du Chi-2) p-value IV. IMC 0,077 Tour de taille 0,204 HbA1c 0,991 Age 0,247 Sexe 0,494 Ancienneté du diabète 0,021 Marié 0,871 Traité par insuline 0,786 Discussion 1. Résultats principaux La « qualité de vie générale » et la « qualité de vie générale sans diabète » du questionnaire ADDQoL se sont améliorées après la participation au programme. Cependant, notre étude n'a pas permis de mettre en évidence d'amélioration de la qualité de vie globale chez les patients ayant participé au programme d'ETP d'après le résultat de l'analyse de la moyenne du score global de qualité de vie (AWI) à T0 et à T3. De plus, en analysant chaque item du questionnaire, on constate que quatre domaines de la vie sur dix-huit étudiés se sont améliorés de manière significative à la suite du programme. Il s'agissait de la confiance en soi, la motivation, le sentiment sur l'avenir et les conditions de vie. Par ailleurs, nous avons montré que la participation des patients diabétiques au programme d'ETP a été bénéfique sur leur poids, leur IMC, leur tour de taille ainsi que leur hémoglobine glyquée. 17 2. Forces et faiblesses de l'étude Notre étude a permis d'évaluer l'évolution de la qualité de vie sur une période donnée. Nous avons fait le choix d'utiliser l'auto-questionnaire ADDQoL qui est spécifique des patients diabétiques, validé et reproductible. Nous avons inclus tous les patients participant au programme et n'avons eu que deux perdus de vue. Il n'y a donc pas eu d'échantillonnage mais une inclusion exhaustive de la population concernée par l'étude. Les patients ont quasiment tous participé aux six ateliers proposés. La population étudiée était homogène. La seule différence initiale qui pouvait influencer sur la qualité de vie de nos patients, était l'ancienneté du diabète. La majorité des patients (deux tiers) avait un diabète depuis moins de 10 ans. Leur qualité de vie initiale était meilleure comme nous l'avons démontré, avec potentiellement une marge d'amélioration plus faible. Nous avons eu une bonne adhésion des patients à notre étude qui se sont montrés arrangeants et disponibles pour répondre à nos questionnaires. Malgré un recrutement pendant plus d'un an, notre étude a eu un faible effectif puisque seulement 16 patients ont participé pleinement au programme. On peut s'interroger sur les difficultés pour les soignants à inclure des patients dans ce type de programme (manque d'informations et méconnaissance de l'éducation thérapeutique par les patients et les soignants, difficultés pour se libérer du temps dans la vie active des patients, présentation insuffisante des programmes par les soignants ou inadaptation des programmes pour certains patients ne parlant pas français par exemple) (16). Par ailleurs, des ateliers ont dû être suspendus à cause de la situation sanitaire du printemps 2020 liée à la COVID-19, ce qui a contribué au faible recrutement de patients dans notre étude. Bien que validé et reproductible, le questionnaire ADDQoL a pu être difficile à remplir. Une des questions était d'imaginer sa vie sans diabète. La formulation de certains énoncés était parfois compliquée, avec des doubles négations. Par ailleurs, certains patients remplissaient des items en disant que leur vie sans diabète serait moins bonne : erreur de compréhension de la question ou réelle réponse ? Enfin, la longueur du questionnaire (environ 15 minutes) a également pu contribuer à un manque de fiabilité des réponses par lassitude. 18 Des facteurs ont pu contribuer à des modifications de la qualité de vie durant la période entre les deux questionnaires, constituant un biais. Par exemple, quatre des patients ont vécu en confinement dû à la COVID-19 durant cette période. D'autres patients avaient des comorbidités à l'origine de problèmes de santé aigus durant l'étude (problèmes cardiaques, cancer, fractures) qui semblaient impacter davantage leur qualité de vie que le diabète (annexe 5). 3. Comparaison avec la littérature Plusieurs études montrant une réduction significative des critères clinico-biologiques après un programme d'ETP viennent appuyer nos résultats. Une étude sur 130 patients a montré une baisse de 0,5% de l'HbA1c trois mois après un programme d'ETP dans un centre hospitalier à Lausanne (23). Suite à un programme en ambulatoire mis en place par l'assurance maladie, une étude sur près de 3 000 patients diabétiques de type 2 a montré une baisse significative à un an de l'HbA1c (- 0,11%), du poids (- 1,1 kg) et du tour de taille (- 0,9 cm) (24). Une étude menée à Limoges en 2016 sur 29 patients diabétiques participant à un programme d'ETP au sein d'un réseau de santé hospitalier et ambulatoire a montré une amélioration à six mois de leur qualité de vie évaluée selon le score AWI de l'échelle ADDQoL (25). Cependant, la qualité de vie initiale des patients (moyenne de l'AWI à T0) était moins bonne que celles de nos patients (respectivement -2,21 et -1,69). Pouvons-nous conclure à une marge d'amélioration plus grande dans cette étude ? Hormis cette étude hospitalo-ambulatoire, peu d'études évaluant la qualité de vie selon une échelle spécifique du diabète telle que l'ADDQoL après un programme d'ETP ont été menées en France. On peut citer une étude menée sur 91 patients en Saône et Loire en 2016 sur un programme d'ETP en ambulatoire montrant une amélioration de la qualité de vie (selon le questionnaire SF-36) des patients à un an (26). A l'étranger, des études évaluant des programmes d'ETP ambulatoires ont montré une amélioration de qualité de vie des patients diabétiques dans certains domaines seulement et n'ont pas utilisé d'échelle spécifique du diabète. 19 Par exemple, une étude menée en Arabie Saoudite en 2016 chez 99 patients diabétiques de type 2 a étudié la qualité de vie des patients (selon l'échelle RAND-36) avant et cinq mois après leur participation à un programme psychoéducatif ambulatoire sur quatre semaines. Quatre concepts de la vie sur les huit étudiés étaient améliorés de manière significative (limitation d'activité dû à des problèmes émotionnels, énergie / fatigue, bien-être émotionnel et santé générale) (27). Une autre étude contrôlée randomisée menée en Iran en 2011 chez 90 femmes diabétiques de type 2 en ambulatoire s'est intéressée à la qualité de vie (à l'aide de l'échelle WHOQOL-BREF) et a ainsi montré une amélioration des domaines physiques, psychologiques et sociaux de la qualité de vie mais pas du domaine environnemental trois mois après la fin d'un programme d'éducation thérapeutique mené sur quatre semaines (28). Même si l'échelle ADDQoL semble être la plus performante pour évaluer la qualité de vie des patients diabétiques, la présence d'items optionnels peut constituer un biais non intentionnel dans les résultats. Dans une étude australienne menée sur 3 951 patients, seulement 29% des personnes interrogées avaient répondu entièrement au questionnaire (c'est-à-dire qu'elles avaient répondu être concernées par les items optionnels) (21). Dans notre étude se sont ajoutées à cela des données manquantes du questionnaire car certaines réponses étaient incomplètes (5,9% des items). Cela a pu conduire à un manque de fiabilité du score final AWI pouvant expliquer la discordance entre les résultats sur la qualité de vie générale avec et sans diabète, et la moyenne de l'AWI. D'autre part, les difficultés à mettre en évidence une amélioration de la qualité de vie globale chez les patients diabétiques de type 2 après leur participation à un programme d'ETP peuvent s'expliquer par le fait que ces programmes sont organisés sur une courte durée. Il semblerait plus adapté aux patients diabétiques si les actions d'ETP étaient intégrées dans l'acte de soin (16). Enfin, une étude qualitative réalisée en 2017 sur ce même programme d'ETP « Vivez à fond avec votre diabète » permet d'avancer d'autres bénéfices du programme qui viennent compléter notre analyse. D'après cette étude, le programme aurait permis aux patients de prendre conscience de leur maladie, de sa gravité et de l'importance de leur traitement (29). Au vu des commentaires libres des patients à la fin du questionnaire (annexe 5a), les patients étaient effectivement satisfaits du programme d'ETP, cela leur a permis de mieux connaître leur maladie et de mieux vivre avec. 20 4. Implications pour la pratique et la recherche Parmi les domaines s'étant améliorés après le programme d'ETP, il y a la motivation, la confiance en soi et le sentiment sur l'avenir. Cela pourrait avoir une influence bénéfique sur l'acceptation et la gestion par les patients de leur diabète. D'ailleurs, d'après les commentaires libres des patients 3 mois après la fin du programme d'ETP (annexe 5b), certains patients déclarent avoir fait plus d'activité physique et avoir modifié leur alimentation. Par ailleurs, la liberté de manger est l'item qui a été jugé le plus sévèrement par les patients à T0 et ne s'est pas amélioré à T3. D'après l'étude qualitative sur ce même programme, l'alimentation est l'une des principales raisons de la participation des patients au programme d'ETP et plusieurs patients avaient modifié leur alimentation dans les suites du programme (29). Selon les commentaires des patients de notre étude (annexe 5) nous pouvons faire le même constat bien que ces modifications ne semblent pas avoir eu d'impact positif sur leur qualité de vie. La « prise de conscience » à ce sujet a-t-elle eu un effet délétère ? Les patients ont-ils répondu trop « tôt » au deuxième questionnaire ? Ce travail constitue un point de départ qui pourrait être poursuivi auprès des prochains patients réalisant ce programme, ce qui permettrait d'avoir des données plus fiables sur un plus grand effectif. De plus, il pourrait être intéressant de reproduire cette étude avec un groupe contrôle de patients diabétiques de type 2 ne participant pas au programme d'ETP. On peut imaginer que la qualité de vie des patients diabétiques se détériore avec le temps (intensification du traitement, apparition de complications), cela permettrait de supprimer ce biais. Il serait intéressant également d'étudier les mêmes paramètres (données de l'échelle ADDQoL et données clinico-biologiques) à distance des ateliers d'ETP afin de révéler si le programme a un bénéfice à long terme. D'autres paramètres pouvant être modifiés par le programme d'ETP pourraient aussi être étudiés, tels que l'observance des traitements ou l'apparition de complications par exemple. Nous espérons que ce travail permettra de valoriser les programmes d'éducation thérapeutique ambulatoires pour les maladies chroniques, et en particulier pour le diabète, en encourageant les professionnels de santé à se former à l'éducation thérapeutique et à proposer ces programmes aux patients. 21 Enfin, il apparaît important que se développe d'autres types d'actions d'éducation thérapeutique qui soient plus intégrées à la pratique des professionnels de premier recours, notamment le médecin traitant, comme le souligne le Haut Conseil de la Santé Publique (HCSP) (16). Il semble en effet préférable pour les diabétiques de type 2 d'organiser des actions d'éducation thérapeutique ambulatoires par des infirmières intégrées au cabinet des médecins comme les infirmières ASALEE (Action de SAnté Libérale En Equipe). Elles permettront ainsi de dispenser leurs actions d'ETP auprès de nombreux patients et de les accompagner dans la durée (16). V. Conclusion Cette étude a pu montrer que le programme d'ETP "Vivez à fond avec votre diabète" mis en place dans le Vaucluse avait un impact bénéfique sur la santé des patients, notamment sur les valeurs clinico-biologiques et sur l'estimation de leur qualité de vie générale avec et sans diabète. Nous n'avons malheureusement pas pu montrer d'amélioration de la moyenne de l'AWI du questionnaire ADDQoL qui représente une estimation de la qualité de vie spécifique de chaque patient et qui semble donc plus intéressante. Cependant l'éducation thérapeutique reste un levier d'amélioration de l'état de santé des patients atteints de maladies chroniques et doit continuer à se développer. Il serait intéressant de poursuivre une analyse de ce programme d'ETP en incluant plus de patients et à plus long terme. 22 Références 1. Fédération internationale du diabète. Atlas du diabète 9ème édition. 2019. 2. Inserm. Diabète de type 2 - Un trouble du métabolisme principalement lié au mode de vie. Inserm - La science pour la santé. 3. Fédération Française des Diabétiques. Les chiffres du diabète en France. 4. Tran V-T, Montori VM, Ravaud P. Is My Patient Overwhelmed? Determining Thresholds for Acceptable Burden of Treatment Using Data From the ComPaRe e-Cohort. Mayo Found Med Educ Res. mars 2020;95(3):504 12. 5. Russell LB, Suh D-C, Safford MA. Time requirements for diabetes selfmanagement: too much for many? J Fam Pract. janv 2005;54(1):52 6. 6. Bousyf B, Karrou M, Latrech H. Qualité de vie des diabétiques au CHU Mohammed VI d'Oujda : à propos de 135 cas. Ann Endocrinol. 1 sept 2018;79(4):476 7. 7. El Kholy M. Concept de la maladie chronique. Rev Mal Respir. juill 2014;6(3):281 3. 8. Yao A, Hué A, Danho J, Koffi-Dago P, Sanogo M, Traoré M, et al. Évaluation de la qualité de vie (QDV) des patients diabétiques de type 2 au CHU de Yopougon, Abidjan, Côte d'Ivoire. Médecine Mal Métaboliques. 1 juin 2019;13(4):369 74. 9. Haute Autorité de Santé. Évaluation des technologies de santé à la HAS : place de la qualité de vie. 2018. 10. Perriot J, Marchandise F, Doly-Kuchcik L, Merson F. Résultats de l'évaluation quadriennale (2011–2015) d'un programme d'éducation thérapeutique (ETP) pour patients asthmatiques adultes. Rev Mal Respir. janv 2017;34(S):A189 90. 11. Toti F, Sokoli E, Gjeta L, Cuku H, Bejtja G. L'effet de l'éducation thérapeutique sur la qualité de vie et équilibre métabolique dans un groupe de patients diabétiques albanais. Diabetes Metab. mars 2011;37(1S1):A55. 12. Obésité. Éducation thérapeutique du patient Définition, finalités et organisation. Obésité. juin 2007;8:39 43. 13. Ministère de la santé, de la jeunesse, des sports et de la vie associative. Plan 2007-2011 - Amélioration de la qualité de vie des personnes atteintes de maladies chroniques. 2007. 14. Ruiz J. L'éducation thérapeutique du patient diabétique revisitée. Rev Médicale Suisse. 2014;10(433):1241 4. 15. Jaffiol C, Corvol P, Basdevant A, Bertin É, Reach G, Bringer J, et al. L'éducation thérapeutique du patient (ETP), une pièce maîtresse pour répondre aux nouveaux besoins de la médecine. Bull Académie Natl Médecine. déc 2013;197(9):1747 81. 23 16. Jourdain-Menninger D, Lecoq G, Morel A. Evaluation de la prise en charge du diabète - Tome I rapport. Inspection générale des affaires sociales; 2012. 17. Haute Autorité de Santé. Éducation thérapeutique du patient (ETP) - Évaluation de l'efficacité et de l'efficience dans les maladies chroniques - Actualisation de l'analyse de la littérature. 2018. 18. Bradley C, Todd C, Gorton T, Symonds E, Martin A, Plowright R. The development of an individualized questionnaire measure of perceived impact of diabetes on quality of life: the ADDQoL. Qual Life Res. janv 1999;8(1 2):79 91. 19. Achhab YE, Berraho M, Rhazi KE, Chikri M, Nejjari C. Quelles sont les échelles de mesure de la qualité de vie liée à la santé spécifiques aux diabétiques les plus pertinents dans la recherche clinique ? mai 2009;57(S1):22. 20. Atelier de l'évaluation. Education thérapeutique du patient : SEIQoL, un outil de mesure de la qualité de vie perçue. 21. Ostini R, Dower J, Donald M. The Audit of Diabetes-Dependent Quality of Life 19 (ADDQoL): feasibility, reliability and validity in a population-based sample of Australian adults. Qual Life Res Int J Qual Life Asp Treat Care Rehabil. oct 2012;21(8):1471 7. 22. Bradley C. ADDQoL User Guidelines. Health Psychology Research; 2016. 23. Eminian S, Nguyen S, Gana K, Ruiz J. Quels sont les bénéfices d'un cours d'éducation au diabète, pour le patient et pour le médecin ? Médecine Mal Métaboliques. sept 2011;5(4):431 5. 24. Vincent I, Vanhems E, Lessellier D, Texerot L, Fagot-Campagna A, Ronflé E, et al. Impact à 1 an du programme national d'éducation thérapeutique destiné aux patients diabétiques de type 2, proposé dans les Centres d'examens de santé de l'Assurance Maladie. Diabetes Metab. mars 2016;42(S1):A33. 25. Mohsen M. Impact d'un programme de soins d'éducation thérapeutique sur la qualité de vie de patients diabétiques de type 2. Université de Limoges; 2016. 26. Galea R. Evolution de la qualité de vie des patients diabétiques de type II après éducation thérapeutique. Etude des déterminants physiques, sociaux et mentaux de cette évolution, en ambulatoire, sur une population bourguignonne. Université de Dijon; 2016. 27. Mahmoud SS, Mahdy MHE, Mahfouz MS, Nada IS, Aqeeli AA, Darbi MAA, et al. Effects of a Psychoeducational Program on Hemoglobin A1c Level and HealthRelated Quality of Life in Patients with Type 2 Diabetes Mellitus, Jazan, Saudi Arabia. BioMed Res Int. mai 2018;2018. 28. Didarloo A, Shojaeizadeh D, Alizadeh M. Impact of Educational Intervention Based on Interactive Approaches on Beliefs, Behavior, Hemoglobin A1c, and Quality of Life in Diabetic Women. Int J Prev Med. févr 2016;7. 29. Sallier C. Exploration du vécu de la participation à un programme ambulatoire d'éducation thérapeutique. Université d'Aix-Marseille; 2018. 24 Annexes Annexe 1 : Consentement 25 Annexe 2 : Echelle ADDQoL 26 27 28 29 30 31 Annexe 3 : Lettre d'information destinée aux patients Madame, Monsieur, Nous vous proposons de participer à une étude de recherche clinique dans le cadre de notre thèse de médecine générale. Cette lettre d'information vous détaille en quoi consiste cette étude. Le contexte : le diabète de type 2 est une maladie chronique qui a un retentissement sur la qualité de vie des patients. L'éducation thérapeutique est une approche permettant au patient de mieux comprendre sa maladie et d'acquérir des compétences lui permettant de mieux vivre avec. Le but de notre étude : évaluation de l'impact sur votre qualité de vie de votre participation à un programme d'éducation thérapeutique destiné à des patients diabétiques de type 2. Le déroulement de l'étude : le programme d'éducation thérapeutique auquel vous participez se déroule en six ateliers répartis sur plusieurs semaines. Nous interviendrons auprès de vous au début et à la fin de tous les ateliers en vous invitant à répondre à un questionnaire de qualité de vie. Il s'agira du même questionnaire que vous remplirez avant et 3 mois après le programme. Par ailleurs, nous prendrons connaissance des paramètres cliniques (poids, indice de masse corporel, tour de taille) et biologiques (hémoglobine glyquée) enregistrés dans le cadre du programme, puis au moment du second questionnaire. Nous ne ferons pas de nouvelles mesures, ni de prises de sang. Le cadre confidentiel et réglementaire : Vos données personnelles seront traitées de façon anonyme. Vous pouvez à tout moment interrompre votre participation à cette étude sans avoir à vous justifier. Les informations vous concernant pourront alors être conservées et utilisées pour notre étude sauf si vous vous y opposez. Votre participation au programme d'éducation thérapeutique ne sera en aucun cas impactée, vous pourrez toujours bénéficier des ateliers proposés et avec la même attention de la part de l'équipe soignante. Merci de votre participation. Violette MATHIVET (violette.mathivet@hotmail.fr, 06 88 33 15 08) Emilie PERROT (emilie.perrot@hotmail.fr, 06 52 82 44 11) Internes de médecine générale à la faculté Aix Marseille 32 Annexe 4 : Résultats des analyses des 19 items de l'échelle ADDQoL Item 1 : loisirs T0 moyenne (écart-type) T3 moyenne (écart-type) Amélioration (Oui/Non) Test statistiquement significatif (Oui/Non)* -2,06 (2,67) -1,27 (1,83) Oui Non Item 2 : activité professionnelle Non analysé car peu de données (la majorité des patients sont à la retraite) Item 3 : déplacements -1,25 (2,18) -1,44 (2,16) Non Non Item 4 : vacances -2,4 (2,56) -2,13 (2,72) Oui Non Item 5 : physiquement -1,56 (2,42) -1,8 (2,78) Non Non Item 6 : famille, parents proches -2,13 (2,42) -1,87 (2,86) Oui Non -1 (1,56) -1,77 (3,00) Non Non Item 8 : relation proche -1,25 (1,66) -2 (2,66) Non Non Item 9 : vie sexuelle -1,2 (1,93) -2,31 (3,52) Non Non Item 10 : apparence physique -1,43 (1,95) -2,07 (3,00) Non Non Item 11 : confiance en soi -1,57 (2,82) -1,5 (2,80) Oui Oui Item 12 : motivation -2,13 (3,29) -1,53 (2,85) Oui Oui Item 13 : réaction des autres envers moi -1,07 (2,34) -1,25 (3,07) Non Non Item 14 : sentiment sur l'avenir -2,6 (2,92) -1,56 (2,50) Oui Oui Item 15 : situation financière -0,43 (1,16) -1,07 (2,46) Non Non Item 16 : conditions de vie -2,14 (2,18) -1,38 (2,42) Oui Oui Item 17 : dépendance aux autres -0,93 (1,77) -1,31 (2,39) Non Non Item 18 : liberté de manger -4,21 (2,94) -4,75 (3,42) Non Non Item 19 : liberté de boire -2,07 (1,86) -2,5 (3,03) Non Non Item 7 : amis *Oui : critical value < test value / Non : critical value > test value 33 Annexe 5 : Commentaires libres des patients a. À la fin du questionnaire ADDQoL Si le diabète, sa prise en charge médicale (incluant les traitements médicamenteux, les consultations et l'alimentation) et ses complications éventuelles affectent votre qualité de vie d'une autre façon que celle évoquée dans le questionnaire, veuillez l'indiquer ci-dessous : "A ce stade de ma découverte du diabète, je souhaite faire le nécessaire pour que ma vie au jour le jour reste gérable." "J'aimerais que mes pieds soient mieux soignés." "Les piqûres font mal. Ne pas pouvoir manger ce que je veux." "J'aurais l'esprit libre." "Changement de mode de vie qui entraîne des ressentis comme de la frustration, de la colère, une difficulté à gérer mes émotions." "Ce n'est pas marrant mais il faut faire avec." "Si je n'avais pas eu de diabète mon médecin référent ne se serait pas braqué uniquement sur cette maladie et aurait peut-être détecté d'autres maladies encore plus graves. Exemple : mon contrôle du PSA pendant des années." "Le plus gênant c'est le nombre de comprimés." "J'ai envie de ne rien faire à cause du diabète, je me renferme, je suis plus fatiguée. "Je tenais à remercier tous les bénévoles médecins, nutritionnistes, kinés, podologues, pharmaciens, pour les bons moments passés ensemble dans les ateliers qui ont répondus à mes questions, à refaire, merci beaucoup." "La sensibilisation m'a apportée beaucoup. Le personnel est très bien." "Informations sur la maladie bien prise en charge grâce aux ateliers organisés à Vedène. Merci à tous." 34 b. A la fin du deuxième questionnaire Indiquez les éventuelles modifications de votre mode de vie (alimentation, activité physique), ou de vos traitements depuis la fin des ateliers : "Mon alimentation est plus rigoureuse. Je fais de la natation." "A la suite des ateliers, je me suis mis à faire un peu plus d'exercices, Pilates et marche douce. Les ateliers m'ont apporté beaucoup. Réponses aux questions au niveau de l'alimentation. Bravo à tous les intervenants." "Pas d'alcool depuis plus de 5 ans, presque pas de viande - moins de deux fois par semaine. Phlébite actuellement. Vélo électrique sinon." "Le diabète passe pour moi, en deuxième plan actuellement. Problème cardiaque (non lié au diabète), malformation aortique à priori génétique : opération indispensable sûrement cette année. Donc : boire, manger, courir, on verra APRÈS." "Stop metformine (Insuffisance rénale), poursuite repaglinide 3 fois par jour, introduction d'insuline lente 18 UI/jour, diminution portion et sel ; ajout contrôle HGT matin, marche 1 x par semaine depuis 1 an." "Pas de changement de traitement. Je fais des cours de cuisine ; je fais de la gym douce/aquagym post cure anti-douleurs (faite pendant 3 semaines, perte de 3 kg), je fais parfois attention à ce que je mange, mais l'insuline me fait grossir." "Régime alimentaire et sport, stop metformine, repaglinide en si besoin." 35 Résumé Contexte : Le diabète est une maladie qui atteint 463 millions d'adultes dans le monde en 2019. C'est une maladie chronique qui altère la qualité de vie des patients. Des programmes d'éducation thérapeutique (ETP) notamment ambulatoires se développent en France afin d'aider les malades dans la prise en charge de leur maladie avec pour objectif final l'amélioration de leur qualité de vie. Objectif : Evaluer l'impact du programme d'ETP ambulatoire « Vivez à fond avec votre diabète », mis en place par le Pôle Santé Centre Ouest Vaucluse, sur la qualité de vie et les données clinico-biologiques tels que le poids, l'indice de masse corporelle (IMC), le tour de taille et l'hémoglobine glyquée (HbA1c) chez les patients diabétiques de type 2 qui y participent. Méthode : Il s'agit d'une étude quantitative analytique rétrospective incluant une population de 16 patients diabétiques ayant participé aux ateliers du programme d'ETP d'avril 2019 à juin 2020. Nous avons étudié leur qualité de vie selon l'échelle ADDQoL et des données clinico-biologiques avant et 3 mois après leur participation au programme. Résultats : La qualité de vie générale avec et sans diabète s'est améliorée de manière significative après le programme d'ETP, tout comme le poids, l'IMC, le tour de taille et l'HbA1c. Certains domaines de la vie tels que « la motivation » ou « le sentiment sur l'avenir » se sont également améliorés. En revanche, nous ne pouvons pas conclure à une amélioration de la qualité de vie globale, mesurée à partir de la moyenne des 19 items de l'échelle ADDQoL. Conclusion : Cette étude a montré un impact favorable sur le poids, l'IMC, le tour de taille et l'HbA1c des patients diabétiques qui ont participé au programme d'ETP. Bien que la qualité de vie générale avec et sans diabète ait été améliorée, une étude reste à poursuivre pour démontrer l'efficacité de ce programme sur la qualité de vie globale. Mots clés : Diabète / Education thérapeutique du patient / Médecine ambulatoire / Qualité de vie / ADDQoL 36 Abstract Background: Diabetes is a disease which has affected 463 million adults worldwide in 2019. It is a chronic disease that affects the quality of life of its patients. Therapeutic patient education (TPE), particularly outpatient, are spreading in France to help patients managing their pathology and their ultimate goal is to improve quality of life. Objective: To assess the impact of the ambulatory TPE program "Vivez à fond avec votre diabète" set up by the West Vaucluse Health Center on quality of life and clinicalbiological data such as weight, body mass index (BMI), waist circumference and glycated hemoglobin (HbA1c) in type 2 diabetic patients involved. Method: This is a retrospective quantitative analytical study including a population of 16 diabetic patients who participated to the TPE program from April 2019 to June 2020. We studied their quality of life evaluated by the ADDQoL scale and clinical-biological data before and after their participation to the TPE program. Results: The overall quality of life with and without diabetes improved significantly after the TPE program, as did weight, BMI, waist circumference and HbA1c. Some areas of life such as "motivation" or "feeling for the future" have also improved. By contrast, the overall quality of life (measured from the average of the 19 items of the ADDQoL questionnaire) cannot be prouved. Conclusion: This study showed a favorable impact on the weight, BMI, waist circumference and HbA1c of diabetic patients who participated to the TPE program. Although the general quality of life with and without diabetes has improved, a study remains to be continued to demonstrate the effectiveness of this program on the overall quality of life. Keywords: Diabetes / Therapeutic patient education / Outpatient Medicine / Quality of Life / ADDQoL 37 SERMENT D'HIPPOCRATE Au moment d'être admise à exercer la médecine, je promets et je jure d'être fidèle aux lois de l'honneur et de la probité. Mon premier souci sera de rétablir, de préserver ou de promouvoir la santé dans tous ses éléments, physiques et mentaux, individuels et sociaux. Je respecterai toutes les personnes, leur autonomie et leur volonté, sans aucune discrimination selon leur état ou leurs convictions. J'interviendrai pour les protéger si elles sont affaiblies, vulnérables ou menacées dans leur intégrité ou leur dignité. Même sous la contrainte, je ne ferai pas usage de mes connaissances contre les lois de l'humanité. J'informerai les patients des décisions envisagées, de leurs raisons et de leurs conséquences. Je ne tromperai jamais leur confiance et n'exploiterai pas le pouvoir hérité des circonstances pour forcer les consciences. Je donnerai mes soins à l'indigent et à quiconque me les demandera. Je ne me laisserai pas influencer par la soif du gain ou la recherche de la gloire. Admise dans l'intimité des personnes, je tairai les secrets qui me seront confiés. Reçue à l'intérieur des maisons, je respecterai les secrets des foyers et ma conduite ne servira pas à corrompre les moeurs. Je ferai tout pour soulager les souffrances. Je ne prolongerai pas abusivement les agonies. Je ne provoquerai jamais la mort délibérément. Je préserverai l'indépendance nécessaire à l'accomplissement de ma mission. Je n'entreprendrai rien qui dépasse mes compétences. Je les entretiendrai et les perfectionnerai pour assurer au mieux les services qui me seront demandés. J'apporterai mon aide à mes confrères ainsi qu'à leurs familles dans l'adversité. Que les hommes et mes confrères m'accordent leur estime si je suis fidèle à mes promesses ; que je sois déshonorée et méprisée si j'y manque. Résumé Contexte : Le diabète est une maladie qui atteint 463 millions d'adultes dans le monde en 2019. C'est une maladie chronique qui altère la qualité de vie des patients. Des programmes d'éducation thérapeutique (ETP) notamment ambulatoires se développent en France afin d'aider les malades dans la prise en charge de leur maladie avec pour objectif final l'amélioration de leur qualité de vie. Objectif : Evaluer l'impact du programme d'ETP ambulatoire « Vivez à fond avec votre diabète », mis en place par le Pôle Santé Centre Ouest Vaucluse, sur la qualité de vie et les données clinicobiologiques tels que le poids, l'indice de masse corporelle (IMC), le tour de taille et l'hémoglobine glyquée (HbA1c) chez les patients diabétiques de type 2 qui y participent. Méthode : Il s'agit d'une étude quantitative analytique rétrospective incluant une population de 16 patients diabétiques ayant participé aux ateliers du programme d'ETP d'avril 2019 à juin 2020. Nous avons étudié leur qualité de vie selon l'échelle ADDQoL et des données clinico-biologiques avant et 3 mois après leur participation au programme. Résultats : La qualité de vie générale avec et sans diabète s'est améliorée de manière significative après le programme d'ETP, tout comme le poids, l'IMC, le tour de taille et l'HbA1c. Certains domaines de la vie tels que « la motivation » ou « le sentiment sur l'avenir » se sont également améliorés. En revanche, nous ne pouvons pas conclure à une amélioration de la qualité de vie globale, mesurée à partir de la moyenne des 19 items de l'échelle ADDQoL. Conclusion : Cette étude a montré un impact favorable sur le poids, l'IMC, le tour de taille et l'HbA1c des patients diabétiques qui ont participé au programme d'ETP. Bien que la qualité de vie générale avec et sans diabète ait été améliorée, une étude reste à poursuivre pour démontrer l'efficacité de ce programme sur la qualité de vie globale. Mots-clés : Diabète / Education thérapeutique du patient / Médecine ambulatoire / Qualité de vie / ADDQoL. Abstract Background: Diabetes is a disease which has affected 463 million adults worldwide in 2019. It is a chronic disease that affects the quality of life of its patients. Therapeutic patient education (TPE), particularly outpatient, are spreading in France to help patients managing their pathology and their ultimate goal is to improve quality of life. Objective: To assess the impact of the ambulatory TPE program "Vivez à fond avec votre diabète" set up by the West Vaucluse Health Center on quality of life and clinical-biological data such as weight, body mass index (BMI), waist circumference and glycated hemoglobin (HbA1c) in type 2 diabetic patients involved. Method: This is a retrospective quantitative analytical study including a population of 16 diabetic patients who participated to the TPE program from April 2019 to June 2020. We studied their quality of life evaluated by the ADDQoL scale and clinical-biological data before and after their participation to the TPE program. Results: The overall quality of life with and without diabetes improved significantly after the TPE program, as did weight, BMI, waist circumference and HbA1c. Some areas of life such as "motivation" or "feeling for the future" have also improved. By contrast, the overall quality of life (measured from the average of the 19 items of the ADDQoL questionnaire) cannot be prouved. Conclusion: This study showed a favorable impact on the weight, BMI, waist circumference and HbA1c of diabetic patients who participated to the TPE program. Although the general quality of life with and without diabetes has improved, a study remains to be continued to demonstrate the effectiveness of this program on the overall quality of life. Keywords: Diabetes / Therapeutic patient education / Outpatient Medicine / Quality of Life / ADDQoL.
{'path': '16/dumas.ccsd.cnrs.fr-dumas-03028363-document.txt'}
Le Diagnostic Environnemental de la Mobilité 2006 Consommation énergétique, émissions de gaz à effet de serre et de polluants locaux de l'air : quel est l'impact des transports et des déplacements ? A. Dupont, Laurent Hivert, N. Merle, B. Quetelard To cite this version: A. Dupont, Laurent Hivert, N. Merle, B. Quetelard. Le Diagnostic Environnemental de la Mobilité 2006 Consommation énergétique, émissions de gaz à effet de serre et de polluants locaux de l'air : quel est l'impact des transports et des déplacements ?. 2009, 149p. hal-00544425 HAL Id: hal-00544425 https://hal.archives-ouvertes.fr/hal-00544425 Submitted on 8 Dec 2010 Agence de l'Environnement et de la Maî Maîtrise de l'Énergie 'Énergie Délégation NordNord-Pas de Calais Le Diagnostic Environnemental de la Mobilité 2006 Consommation énergétique, émissions de gaz à effet de serre et de polluants locaux de l'air : quel est l'impact des transports et des déplacements ? Département Villes et Territoires Département Économie et Sociologie des Transports Novembre 2009 Sommaire Fiche bibliographique4 Introduction 5 1 Contexte et problématique d'un DEM 8 1.1 Le périmètre d'étude 8 1.2 L'enquête ménages déplacements de 2006 10 1.2.1 Méthode 10 1.2.2 Principaux résultats de mobilité 11 1.2.3 Le parc de véhicules 13 1.3 Les polluants atmosphériques du transport routier 21 1.3.1 Liens entre la composition de l'atmosphère et l'effet de serre 21 1.3.2 Les émissions du secteur « transports » 25 1.4 Description de l'outil DEED 28 1.4.1 Diagnostics Énergie Environnement des Déplacements (DEED) : description méthodologique 30 1.4.2 Du DEED classique au bilan élargi 37 2 Bilan environnemental global des transports39 2.1 Trafics pris en compte 39 2.2 Les données de trafic 41 2.2.1 Déplacements de voyageurs 41 2.2.2 Transport de marchandises 43 2.2.3 Transport aérien 45 2.3 Les facteurs d'émission 46 2.3.1 Déplacements de voyageurs 46 2.3.2 Transport de marchandises 48 2.4 Résultats globaux 53 2.5 Poids des différents postes 54 2.5.1 Déplacements de personnes 55 2.5.2 Transport de marchandises 56 2.6 Le transport aérien 57 3 Les déplacements des résidents (DEED interne)59 3.1 Bilan global 59 3.1.1 Bilan global 59 Diagnostic Environnemental de la Mobilité 2006 1 3.1.2 3.1.3 3.1.4 Bilan par déplacement 62 Bilan par kilomètre 63 Bilan global de la voiture particulière 65 3.2 Les caractéristiques du déplacement 69 3.2.1 Le mode de transport 69 3.2.2 Poids des différents modes 70 3.2.3 Poids des motifs 71 3.2.4 Poids des tranches horaires 72 3.2.5 Distances et vitesses 74 3.3 Déterminants socio-économiques 76 3.3.1 Structure des ménages 78 3.3.2 Position dans le cycle de vie 80 3.3.3 Catégorie sociale des actifs 83 3.3.4 Niveau d'instruction 86 3.3.5 Niveau de revenus 88 3.4 Le rôle des structures urbaines 90 3.4.1 Type de liaison, portée des déplacements et poids des types de liaisons 91 3.4.2 Distance domicile-travail 93 3.4.3 Densité de la zone de résidence 94 3.4.4 Les zones « moins » et les zones « plus » 98 3.4.5 Type de zone de résidence 99 4 Un DEED prospectif 2020 : prise en compte des objectifs du PDU103 4.1 Rappel des objectifs pris en compte 103 4.1.1 Objectifs à long terme (2030-2050) 103 4.1.2 Objectifs 2020 testés 104 4.2 Méthodologie 106 4.3 Résultats 107 4.3.1 Les polluants locaux 109 4.3.2 Les gaz à effet de serre 109 4.3.3 Les consommations énergétiques 109 4.4 Objectifs internationaux de réduction : où en est-on ? 110 4.4.1 Rappel des objectifs 110 4.4.2 Méthode de calcul 110 4.4.3 Résultats 111 Conclusion113 Annexe 1 : Pollution atmosphérique d'origine automobile et santé117 Diagnostic Environnemental de la Mobilité 2006 2 Annexe 2 : Gaz à effet de serre et réchauffement climatique119 Annexe 3 : Différence attendue entre le DEM et le Bilan carbone : le poids de la partie des déplacements d'échange réalisés en dehors de la communauté urbaine de Lille 126 Annexe 4 : découpage en secteurs utilisés pour l'ED 2006 127 Annexe 5 : statistiques et tableaux de résultats128 Annexe 6 : cartes de la géographie des émissions et de leur évolution 135 Liste des acronymes141 Références bibliographiques143 Liste des figures 145 Liste des tableaux 147 Diagnostic Environnemental de la Mobilité 2006 3 Fiche bibliographique 1 Organismes auteurs INRETS / DEST (Département Économie et Sociologie des Transports) CETE Nord Picardie / Département Villes et Territoires / Groupe Déplacements 2 Titre Diagnostic Environnemental de la Mobilité 1987 / 1998 / 2006 de la Communauté Urbaine de Lille 3 Sous-titre 4 Langue Consommation énergétique, émissions de gaz à effets de serre et de polluants Français locaux de l'air : quel est l'impact des transports et des déplacements ? 5 Auteur(s) Ariane DUPONT / Laurent HIVERT (INRETS) Nicolas MERLE / Bernard QUETELARD (CETE Nord Picardie) 6 Nom adresse financeur 7 N° contrat Lille Métropole Communauté Urbaine – 1, rue du Ballon BP 749 F08-11 59034 LILLE CEDEX Co-financement ADEME et Région Nord-Pas-de-Calais 8 Date de publication Novembre 2009 9 Résumé La communauté urbaine de Lille a confié à l'INRETS-DEST et au CETE Nord Picardie une étude portant sur l'impact environnemental au niveau local des transports en termes de consommation énergétique, d'émissions de gaz à effet de serre (GES) et de polluants locaux de l'air. Cette recherche intègre et complète l'approche « Diagnostics-Énergie-Environnement-Déplacements » (réalisée notamment avec le logiciel DEED développé par l'INRETS pour l'ADEME), qui propose une estimation de ces impacts sur les seuls déplacements internes des résidents à partir des Enquêtes Ménages Déplacements. Le DEM élargit le calcul en prenant en compte tous les types de transport sur la communauté urbaine de Lille : interne, échange et transit - voyageurs et marchandises. Premier constat : entre 1998 et 2006, les émissions de GES du transport sont en hausse de 5%, accompagnant une légère hausse de la consommation d'énergie (+2%). Alors que les émissions des voyageurs stagnent (par effet d'une baisse de la mobilité automobile interne conjuguée à une hausse des déplacements d'échange et de transit), celles des marchandises augmentent fortement, de +21%. Côté marchandises, la route représente 98% des émissions pour 84% des flux. La mobilité automobile interne des habitants de la communauté urbaine représente 54% de l'ensemble des déplacements, mais 74% de leurs kilomètres parcourus et 93% des émissions (notamment parce qu'un km parcouru en voiture est quatre fois plus émetteur que le même km parcouru en transports collectifs). Par comparaison, les transports en commun qui assurent 9% des déplacements et 17% des distances parcourues ne contribuent qu'à 5% des émissions de GES. La localisation résidentielle influe beaucoup sur les consommations et les émissions des déplacements quotidiens, notamment par le biais de la densité résidentielle et de la mixité des fonctions : un résident des centres urbains, denses et équipés en services et commerces de proximité, peut émettre jusqu'à trois fois moins de GES pour se déplacer qu'un résident des zones péri-urbaines de l'agglomération. Concernant les émissions de polluants locaux, elles sont en forte baisse sur cette même période (1998-2006), grâce aux normes de limitation de la pollution automobile de plus en plus sévère : de –35% pour les oxydes d'azote à –62% pour le monoxyde de carbone et 56% pour les composés organiques volatils. Cette baisse s'est même accélérée par rapport à la décennie précédente pour les oxydes d'azote. Avec les filtres à particules, la baisse est aussi remarquable pour les particules (-36%) qui avaient pourtant été multipliées par 4 lors de la décennie précédente à cause de la très forte diésélisation du parc automobile. Et pour demain ? La contribution aux objectifs de réduction des émissions de GES fixés par la France (facteur 4) passe par la mise en place de mesures fortes visant à progresser vers une mobilité et une organisation spatiale moins dépendante de l'automobile. 10 Mots clés Transports, déplacements, émissions de gaz à effet de serre, émissions de polluants locaux, communauté urbaine de Lille, enquêtes ménages déplacements 11 Nombre de pages 12 Bibliographie Oui 150 Diagnostic Environnemental de la Mobilité 2006 4 Introduction La réduction des émissions de gaz à effet de serre (GES) est devenue un des enjeux environnementaux majeurs de notre époque, notamment de par la gravité des conséquences attendues sur le climat. La France s'est engagée à participer à cette réduction, dès 1997 en signant le protocole de Kyoto qui prévoit pour notre pays une stabilisation des émissions en 2010 au niveau de celles de 1990, et plus vigoureusement début 2003 en visant pour 2050 une division par 41 des niveaux d'émission de GES par rapport à 1990. Cet objectif est ambitieux et toutes les voies de réduction possibles sont à explorer, aussi bien par les progrès technologiques (qui ne suffiront sans doute pas), par de nouvelles réglementations que par les modifications des comportements individuels (qui seront donc indispensables), [Pillot D. et al., 2004]. Comme l'indiquent les bilans réalisés par le CITEPA2, le domaine des transports est indéniablement aujourd'hui l'un des plus préoccupants du point de vue des émissions de GES, compte tenu de sa forte contribution au bilan national (il y contribue pour plus d'un quart) et de son évolution dangereusement croissante (+21% depuis 1990), [CITEPA, 2007]. C'est donc l'un de ceux pour lesquels des solutions devraient être prioritairement trouvées. Sans parler de la nécessité de suivre et de maîtriser les pollutions locales, si les questions de changement climatique se posent au niveau planétaire, il n'en reste pas moins vrai qu'une partie importante des consommations et émissions liées au transport concernent l'urbain : la mise en place de mesures visant à modérer les trafics et favoriser les reports modaux pour économiser l'énergie et réduire les émissions doit être envisagée au niveau local ou régional : le « penser globalement et agir localement » guide théorie et action dans l'écologie scientifique, tout comme dans le jeu de go. Afin d'identifier les enjeux, leviers et marges de manoeuvre que l'on peut dégager localement et d'envisager les possibles réductions de ces émissions de GES, et notamment de gaz carbonique, le diagnostic de la situation actuelle et de son évolution passée doit être établi. Dans ce cadre et pour répondre à ces enjeux, le Département d'Économie et de Sociologie des Transports (DEST) de l'INRETS a réalisé, au cours des années 1994-1998 à la demande de l'ADEME, une série d'études consacrées à l'analyse des consommations énergétiques et des émissions polluantes dues à la mobilité quotidienne des personnes au sein de leur agglomération de résidence. Le concept utilisé, le « Budget Énergie Environnement des Déplacements » (BEED), devenu par la suite « Diagnostic Énergie Environnement des Déplacements » (DEED), consiste à évaluer, pour un individu ou un ménage, l'énergie consommée et les volumes de gaz ou de substances polluantes émis au cours de tous ses déplacements pendant une journée de semaine ordinaire. La méthode DEED permet à l'échelle de la région urbaine de cadrer les consommations et émissions de polluants et de gaz à effet de serre dû aux transports mais également de rendre compte de différenciations entre catégories d'individus et de ménages3. 1 En France l'objectif d'un facteur 4 est retenu dans la loi d'orientation sur l'énergie 2005. Centre Interprofessionnel Technique d'Études de la Pollution atmosphérique. La plupart des bilans et études attribuent désormais au secteur des transports plus d'un quart à près d'un tiers des émissions à effet de serre. 3 Selon leurs caractéristiques socio-économiques (revenus, professions catégories sociales), démographiques (taille et structure des ménages) et géographiques (localisation des lieux de résidence dans les différentes zones de la région urbaines considérées), ainsi que selon la position dans le cycle de vie (sexe, âge et statut d'activité) pour les individus, telles que ces caractéristiques sont appréhendées dans les enquêtes déplacements. 2 Diagnostic Environnemental de la Mobilité 2006 5 Ainsi, cette approche « DEED » [Gallez, Hivert, 1998] se différencie des méthodes d'ingénierie et d'inventaire classiques par une analyse détaillée de la relation entre l'urbanisme, la mobilité quotidienne des résidents, ses déterminants et ses impacts énergétiques et environnementaux. Elle permet notamment de répondre à des questions du type : « Qui consomme et qui pollue ? » en rapportant la dépense énergétique et les émissions aux caractéristiques socio-économiques des individus et aux localisations résidentielles. Les études menées sur quatre grandes régions urbaines françaises (Grenoble, Lille, l'Île-deFrance et Bordeaux) dans le cadre de conventions d'aide à la recherche avec l'ADEME ont prouvé la faisabilité de la méthode d'estimation et d'analyse à partir de l'observation de la mobilité quotidienne par enquête ménages déplacements (EMD) (cf. guide méthodologique [CERTU, 1998 et 2008]), et permis d'identifier les facteurs qui expliquent la structure du bilan énergie-émissions. L'outil a également été testé en simulation, afin d'évaluer les impacts d'un changement durable des comportements de mobilité individuels, comme le transfert de certains déplacements de la voiture particulière vers des modes plus respectueux de l'environnement. Le modèle DEED a donc été utilisé sur l'arrondissement de Lille sur la base de l'enquête ménages déplacements de 1987 [Gallez, 1996] dans un premier temps en 1996, puis réactualisé en 2002 avec l'enquête de 1998 [Quételard, 2002], permettant notamment de juger des évolutions décennales [Noppe et al., 2003]. L'ADEME a depuis opérationnalisé l'outil en développant le logiciel DEED [ADEME et al., 2002] dont la vocation est d'effectuer automatiquement les calculs du DEED sur la base des fichiers d'enquêtes ménages déplacements et des équations de COPERT 3, modèle issu du programme de recherche européen MEET [INRETS et al., 1999] sur les émissions polluantes du transport routier. La présente étude se base sur cet outil pour le calcul du DEED dit « interne »4 sur le périmètre de la communauté urbaine de Lille pour 3 années de référence : 1987, 1998 et 2006. Elle propose aussi un « calcul élargi » permettant de déboucher sur un diagnostic environnemental de la mobilité global des consommations énergétiques et émissions polluantes des transports sur le périmètre de la communauté urbaine de Lille : ce bilan global intègre les déplacements d'échange et de transit des voyageurs ainsi que le transport de marchandises. Compte tenu des données disponibles, l'inventaire complet n'est réalisé qu'aux années de référence 1998 et 2006. 4 car il correspond à la mobilité interne au périmètre communautaire des résidents de ce périmètre. Diagnostic Environnemental de la Mobilité 2006 6 Le rapport se compose de quatre parties : - la première présente le contexte et la méthodologie de notre nouvelle étude DEED sur le site lillois ; après avoir décrit le contexte local (la mobilité, la dernière enquête et le parc de véhicules des ménages), elle décrit successivement le panorama des émissions à prendre en compte dans le secteur des transports et la méthodologie des DEED dans le détail ; - la seconde partie traite du diagnostic environnemental global de la mobilité de la Communauté ; après avoir décrit les trafics pris en compte et les facteurs d'émissions qui leur sont appliqués, elle quantifie les poids relatifs des différents trafics dans le bilan d'ensemble ; - la troisième partie est consacrée au « DEED classique » : elle analyse les consommations et émissions de la mobilité quotidienne interne des résidents en fonction de ses principaux déterminants ; - la quatrième partie enfin traite de la prospective à l'horizon 2020, apportant une quantification des effets des objectifs du PDU, en tenant également compte des évolutions technologiques envisageables, principalement sur le parc des automobiles des ménages. Diagnostic Environnemental de la Mobilité 2006 7 1 Contexte et problématique d'un DEM 1.1 Le périmètre d'étude Le diagnostic réalisé pour la présente étude porte sur le territoire de la communauté urbaine de Lille (LMCU), qui constitue le périmètre de transport urbain de l'agglomération lilloise. Il comporte 85 communes pour une population totale de 1 107 861 habitants en 2006. Les principales villes le constituant sont : - Lille : 226 014 habitants - Roubaix : 97 952 habitants - Tourcoing : 92 357 habitants - Villeneuve d'Ascq : 61 151 habitants Deux unités urbaines le composent : celle de Lille et celle d'Armentières, pôle secondaire du territoire de 24 836 habitants. La carte suivante présente le découpage communal du territoire, la zone agglomérée (grisée), les deux lignes de métro (1 en jaune, 2 en rouge) et les deux lignes de tramway (en vert). Figure 1 : carte de Lille Métropole Communauté Urbaine (LMCU) Diagnostic Environnemental de la Mobilité 2006 8 Les études DEED précédentes portaient sur le périmètre de l'arrondissement territorial de Lille. Ce territoire compte 124 communes (39 de plus que LMCU) et 1 200 799 habitants en 2006 (8% de plus que dans LMCU). La carte suivante illustre la géographie de l'arrondissement par rapport à celle de la communauté urbaine de Lille : Figure 2 : périmètre de la communauté urbaine de Lille et de l'arrondissement de Lille Diagnostic Environnemental de la Mobilité 2006 9 1.2 L'enquête ménages déplacements de 2006 1.2.1 Méthode Comme celles de 1987 et de 1998, l'enquête a été réalisée selon la méthodologie nationale des « enquêtes ménages déplacements » définie par le CERTU (Centre d'Études sur les Réseaux, les Transports, l'Urbanisme et les constructions publiques) [CERTU, 1998 et 2008]. Toutefois, c'est la méthode dite « rénovée » qui a été utilisée dans l'édition de 2006 : • les enquêtes ont été réalisées au domicile des personnes enquêtées, par des enquêteurs spécialement formés ; • une ou deux personnes âgées d'au moins 5 ans, habitant dans le logement ont été interrogées (une seule personne interrogée si le ménage n'en comporte qu'une ou deux, deux personnes dès que la taille du ménage excède deux) ; ce point constitue la particularité de la méthode « rénovée »5 ; • tous les déplacements, réalisés la veille du jour d'enquête par chaque personne enquêtée, ont été recensés. Les caractéristiques de ces déplacements, avec leurs motifs, leurs modes6, leurs zones géographiques et leurs heures de départ et d'arrivée ont été relevées de manière précise et tous les modes de déplacement ont été pris en compte, y compris la marche à pied. Cette photographie précise de la mobilité quotidienne dans la communauté urbaine est à comparer à celles fournies par les enquêtes précédentes. 8 990 habitants représentatifs de la population des 85 communes de Lille métropole ont été interrogés, à leur domicile, sur leurs déplacements entre janvier 2006 et juin 2006. Les ménages retenus sont issus : • d'un tirage aléatoire, sur 57 secteurs géographiques découpant la communauté urbaine, réalisé dans les listes de logements de la Direction Générale des Impôts ; • d'un échantillon de 41 ménages d'étudiants habitant en résidence universitaire. Au total, 36 244 déplacements ont été recensés (voir le schéma descriptif de l'échantillonnage ci-après). 5 Ce point de méthode a son importance ; en particulier, il convient de souligner que cette méthode rénovée ne permet pas de réaliser de sommations exhaustives (budgets distance, temps, énergie, émissions) sur l'ensemble des membres du ménage : les budgets estimés par les DEED le seront uniquement à la personne, et non pas au ménage. 6 Ainsi que leurs caractéristiques techniques lorsqu'il s'agit de véhicules particuliers. Diagnostic Environnemental de la Mobilité 2006 10 Description de l'échantillon de l'enquête déplacements réalisée dans la communauté urbaine de Lille en 2006 457 353 ménages pas de distinction possible entre ménages « internes » et ménages « non internes » du fait de l'utilisation de la méthode rénovée 1 092 538 personnes dont 1 009 628 de 5 ans et plus 889 590 personnes « internes » 88% 120 038 personnes « non internes » 12% 4 107 519 déplacements 3 840 364 déplacements « internes » 93% 267 155 déplacements « non internes » 7% 1.2.2 Principaux résultats de mobilité En 2006, un habitant de la Métropole réalise en moyenne 3,76 déplacements par jour (hors vacances, week-ends et jours fériés). 4.00 3.76 3.47 2.48 Ainsi, après une augmentation régulière de 1965 à 1998, le nombre moyen de déplacements par jour et par habitant de la Métropole (« la mobilité ») baisse en 2006. 2.74 La mobilité de 2006 reste néanmoins supérieure à celle qui était observée en 1987. 1965 1976 1987 1998 2006 Figure 3 : évolution de la mobilité tous modes de 1965 à 2006 source : EMD successives de la métropole lilloise Diagnostic Environnemental de la Mobilité 2006 11 Les évolutions par mode de cette mobilité quotidienne sont détaillées dans les deux figures suivantes. EVOLUTION DE LA MOBILITE 4,00 3,47 3,76 0.08 0.08 0.06 1.20 1.15 0.11 0.05 0.08 0.03 0.19 0.54 1.19 0.23 0.06 0.03 0.65 1.36 1987 0.32 0.51 1.73 1.59 1998 2006 Voiture conducteur Deux roues motorisés Vélo Autres Voiture passager TCU (Transpole) Marche Figure 4 : évolution des mobilités entre les trois dernières enquêtes source : EMD successives de la métropole lilloise EVOLUTION DES MOBILITES PAR MODE +40% +27% +25% +21% +20% +15% +5% +0% Voiture conducteur Voiture passager -7.5% T otal voiture -12% Deux roues motorisés T CU (T ranspole) Vélo Marche Autres -1% T ous modes -6% -7% -22% -21% -36% 1998/1987 -24% -31% 2006/1998 Figure 5 : évolution des parts modales entre les trois dernières enquêtes source : EMD successives de la métropole lilloise Diagnostic Environnemental de la Mobilité 2006 12 L'année 2006 marque, sur plusieurs points, une nette rupture des évolutions observées jusqu'ici aussi bien dans la métropole lilloise que dans les autres agglomérations françaises : • baisse sensible de la mobilité en voiture (-12%) depuis 1998 alors que celle-ci avait augmenté de 25% sur la période précédente (1987 – 1998), • forte baisse de l'usage de la voiture en tant que passager (-22%) nettement supérieure à la baisse de l'usage de la voiture en tant que conducteur (-7,5%) ce qui a pour conséquence une poursuite de la baisse du taux d'occupation des voitures, • baisse de l'usage des deux-roues motorisés (-7%) sensiblement plus faible que celle observée précédemment (-36%), • forte croissance de l'usage du réseau Transpole (+40%), • poursuite de la baisse de l'usage du vélo (-21%), • quasi stabilité de la marche (-1%). Et en rapportant aux distances parcourues D'une enquête à l'autre entre 1998 et 2006, la longueur moyenne des déplacements (en distance à vol d'oiseau, comme en distance parcourue) augmente légèrement (+4%) avec une augmentation un peu plus élevée pour les déplacements réalisés en voiture comme conducteur (+7%), compensant la baisse notable du nombre de déplacements en voiture. En conséquence comme l'indique notamment la plaquette de premiers résultats de l'enquête [LMCU, 2006], le trafic automobile interne à la Communauté urbaine et généré par ses habitants s'est stabilisé sur la période ; l'objectif du PDU qui visait la stabilisation du trafic automobile généré par les habitants de Lille Métropole a donc été atteint. L'analyse des résultats de la mobilité et de ses impacts environnementaux en fonction de différents déterminants des déplacements, des individus et des ménages sera présentée dans la troisième partie du rapport. 1.2.3 Le parc de véhicules Dans ce paragraphe, la présentation concerne essentiellement le parc automobile des ménages, tel qu'il est appréhendé au travers de l'enquête ménages déplacements. Après avoir brièvement rappelé ce qu'ont été, notamment depuis les trois dernières éditions de l'EMD de Lille, les évolutions des réglementations en matière de normes d'émissions polluantes et autres évolutions technologiques notables concernant le parc automobile national (cf. § 1.3, repères chronologiques), nous donnerons une idée synthétique de la structure du parc local, en la comparant à celle du parc France entière, connue à partir d'une source exogène. Au sujet des évolutions technologiques, il est important de souligner que, la durée de vie du parc automobile s'allongeant (notamment à cause de sa diésélisation), il faut désormais envisager une durée de rotation de l'ordre de 25 ans (alors qu'on évoquait encore il y a peu des durées de vie plutôt de l'ordre de 15 ans), voire plus, pour renouveler entièrement le parc. L'effet des durcissements des normes sur les émissions et consommations de l'ensemble du parc est donc progressif : quelques années pour être significatif, 25 ans pour être total. Évolution des normes d'émissions : CO, HC, NOx et particules Depuis 1971, l'Union Européenne réglemente les émissions des véhicules routiers par l'élaboration de normes « Euro » : pour un grand nombre de polluants, des directives successives fixent les limites maximales d'émissions de polluants autorisées à l'échappement, pour l'ensemble des véhicules routiers (véhicules légers et lourds), lors de l'homologation des Diagnostic Environnemental de la Mobilité 2006 13 véhicules neufs en fonction de leur type de carburant. Schématiquement, ces seuils sont abaissés tous les quatre ou cinq ans comme l'indique le tableau – simplifié – ci-dessous, le durcissement des normes visant à améliorer la qualité de l'air. Normes Essence CO HC NOx HC+NOx Diesel CO NOx HC+NOx Ps Euro 1 1993 Euro 2 Euro 3 1996 2000 émissions maximum en g/km 2,72 (4,05) 2,20 (3,28) 2,30 0,20 0,15 0,97 0,50 émissions maximum en g/km 2,72 1,00 0,64 0,50 0,97 0,90 0,56 0,14 0,10 0,05 Tableau 1 : évolution des normes « Euro » Euro 4 2005 1,00 0,10 0,08 0,50 0,25 0,30 0,025 NB : Valeurs extrapolées entre parenthèses, pour tenir compte des mesures à froid à partir d'Euro 3 Source : Ademe Guide de lecture et exemples : Euro 3, applicable depuis 2000, fixe à 0,05 g/km la limite des rejets de particules pour les voitures particulières (Diesel) entre 0 et 80 000 km et à 0,06 g/km au-delà. Les conditions de mesure changent à partir de cette norme Euro 3, les mesures étant désormais faites moteur à froid et non plus à chaud. La norme Euro 4 automobile, entrant en vigueur au 1er janvier 2005, abaisse ces seuils respectivement à 0,025 et 0,03 g/km. Tous les véhicules produits après 2005 émettent globalement deux fois moins de polluants que ceux soumis à Euro 3, la norme précédente. Et évolution des émissions de CO2, depuis la fin des années 90 Le durcissement de ces normes successives a mis l'accent sur les émissions maximales de polluants nocifs. Réglementation et efforts des constructeurs ont permis de déboucher sur des réductions drastiques. Dans le même temps, les consommations de carburant diminuaient, mais sans doute pas avec la même ampleur, et le problème du rejet de CO2 est apparu de plus en plus crucial (tout le carbone introduit au réservoir devant être réémis à l'échappement), cf. § 1.4. En 1998, l'ACEA7 a donc conclu un accord volontaire avec la Commission Européenne, dans lequel les constructeurs implantés dans l'UE s'engageaient à réduire les émissions moyennes de CO2 de leurs voitures neuves de 25% en 2008 par rapport au niveau de 1995 (140 g/km attendus en 2008 contre 186 g/km en 1995), puis à les abaisser de 35% supplémentaires pour atteindre 120 g/km vers 20128. 7 Association des Constructeurs Européens d'Automobiles. Finalement, ce seuil ne sera certainement pas atteint : en 2002, les moyennes européennes pour les ventes de voitures neuves s'élèvent à 164 g/km, et elles sont encore de 149 g/km en 2006. Le succès sur le marché des véhicules des voitures plus puissantes, plus lourdes et plus consommatrices (monospaces, break, mais aussi des 4*4) freine nettement la baisse escomptée. Ainsi, le rapport ACEA de fin 2007, qui fournit les statistiques les plus récentes dans l'UE27, indique qu'en 2007, 10% des ventes faisaient moins de 120 gCO2/km mais que les « tous terrains » réalisaient dans le même temps 9,9% des ventes (conte 3,5% en 1998, et en hausse de 22% par rapport à 2006), de sorte que fin 2007, les émissions de CO2 des voitures représentent 12% du total des émissions européennes. En 2008, la négociation (Etats membres, parlement et commission) d'une nouvelle 8 Diagnostic Environnemental de la Mobilité 2006 14 En outre, afin d'orienter les consommateurs vers des achats de véhicules moins polluants, l'étiquetage énergie/CO2 des véhicules particulier neufs devient obligatoire dans tous les lieux de vente à partir de mai 2006 (en application d'une directive européenne de fin 1999 et prévue par le Plan climat, l'étiquette est analogue à celle des appareils électroménagers, avec des codes couleur pour différents seuils d'émissions9 de CO2). Figure 6 : l'étiquette énergie/CO2 Source Ademe La mesure sera en outre complétée en juillet de la même année (2006)10 par l'imposition d'une taxe additionnelle pour les véhicules neufs (et d'occasion postérieurs au 1er juin 2004) les plus polluants, avec deux taux différents en fonction de leurs émissions unitaires de CO2 11. On se reportera enfin au § 1.34 une description synthétique d'autres éléments d'évolution technologiques (sur les moteurs, carburants, pots catalytiques, etc.). Évolution du prix des carburants Le panorama du contexte européen et national ne serait pas complet si nous ne mentionnions pas aussi, ne serait-ce que brièvement, l'évolution du prix final des carburants à la pompe, qui semble influencer significativement les niveaux de mobilité. Pour des éléments plus détaillés sur l'adaptation des ménages aux épisodes de hausse du prix des carburants depuis 1999-2000 et jusque 2006-2007, on se reportera à [Hivert et al., 2005, 2007] et [Kemel, 2008]. réglementation européenne aboutira à un compromis en retrait significatif par rapport au 1er accord, avec un objectif plus modeste de 130g d'ici 2015 (et une entrée progressive dans le dispositif en 2012, 2013 et 2014) et un objectif, plus hypothétique, de 95g pour 2020 9 De vert foncé pour la classe A (les plus faibles émissions, soit moins de 100 g/km) à rouge pour la classe G (les plus fortes émissions, soit plus de 250 g/km). 10 En même temps que l'instauration de la taxe de solidarité sur les billets d'avion. 11 2 euros par gramme entre 200 et 250 gCO2/km, 4 euros par gramme au delà. Diagnostic Environnemental de la Mobilité 2006 15 Figure 7 : évolution du prix des carburants Source : [Beauvais, 2007, 2008] Au niveau de l'évolution du coût d'usage des automobiles au cours de la période couverte par les trois dernières EMD, le graphique ci-dessus représente donc l'évolution depuis 1970 du prix du carburant, en monnaie constante et en tenant compte des consommations de gazole et d'essence afin de rendre compte de la diésélisation croissante du parc (c'est à dire qu'il s'agit d'un carburant composite, qui contient de plus en plus de gazole au cours du temps) : - entre 1987 et 1998, le carburant est resté relativement stable, oscillant faiblement entre les bornes de 90 et 100 centimes d'euros par litre ; - une hausse rapide du prix du pétrole (1er avertissement ?) entre 1999 et 2000 augmente très provisoirement (car il redescend vers 100 dès l'année suivante) le carburant vers des valeurs d'environ 110 centimes par litre ; - entre 90 et 100, le carburant y reste à nouveau jusqu'en 2003 ; - mais l'évolution du prix du baril débouche sur une période d'augmentation quasi continue sur plusieurs années12 à partir de 2004, pour s'approcher du niveau des 120 centimes en 200613. Parc automobile Lillois : quelles spécificités par rapport au parc national ? L'EMD recueille des renseignements sur les automobiles des ménages, permettant de reconstituer le volume et la structure du parc automobile local. En particulier pour chaque véhicule, les caractéristiques qui s'avèrent cruciales pour l'estimation des consommations et émissions (selon une version un peu simplifiée la nomenclature MEET, cf. description de l'outil et du logiciel DEED) sont recueillies dans l'édition de 2006, alors que certaines devaient être simulées dans les éditions précédentes : - le type de carburant rend compte de la motorisation (diesel ou non) ; - la puissance fiscale permet d'approcher la cylindrée (en trois tranches, avec les deux seuils de 1400 cm3 et 2000 cm3) ; - l'année de mise en circulation permet de reconstituer des tranches d'âge. 12 Configuration à laquelle on n'avait pas assisté depuis de nombreuses années avant de connaître la nouvelle flambée du 1er semestre 2008 qui ramène le carburant à sa valeur issue du second choc pétrolier, mais aujourd'hui dans un contexte où nous sommes devenus nettement plus dépendants de l'automobile. 13 Diagnostic Environnemental de la Mobilité 2006 16 Confrontant le parc issu de cette enquête à celui fourni par une autre source statistique nationale (le panel « ParcAuto » de TNS-Sofres décrit dans l'encadré ci-dessous), ce paragraphe nous permet de juger à la fois de la représentativité du parc EMD et des spécificités du parc local. Présentation de la source « Parc Auto » Extrait de : Observation en continu du comportement automobile des ménages et de la structure du parc (L. Hivert, 1999). Depuis 1983, la base de donnée « Parc Auto », regroupant l'ensemble des vagues annuelles de l'enquête de TNS-Sofres, a été exploitée par l'INRETS et financée par l'ADEME, puis par la DSCR, le CCFA et la FFSA, et plus récemment par le SOeS puis l'INRETS. Succédant à la série interrompue des enquêtes INSEE de conjoncture auprès des ménages (1972-1994), « Parc Auto » s'avère être l'une des plus solides sources d'observation en continu du parc et des comportements automobiles des ménages. Maintenue et mise au point en grande partie par l'INRETS, la Base se compose de vagues annuelles d'interrogation, au cours desquelles 10 000 ménages panélistes (taux de retour des questionnaires de l'ordre de 60 à 70% ; environ 3/4 présents d'une année sur l'autre pour les années les plus récentes), représentatifs de la France entière (grâce à cinq critère de redressement pondérant les ménages répondants afin de conserver la représentativité nationale) décrivent (trois voitures au maximum peuvent être décrites) le parc automobile dont ils disposent à la fois en termes d'équipement (volume et structure en termes de caractéristiques technologiques) et d'usage (kilométrages, consommation de carburant, conducteurs) au cours des douze mois écoulés. Des renseignements - comportement, opinions - sont également collectés auprès des utilisateurs principaux des véhicules. Le parc décrit est celui des voitures à disposition des ménages. Il couvre l'ensemble des véhicules que l'on peut conduire avec un permis B et comporte donc, outre les voitures particulières, 4 à 5% d'utilitaires légers (soit plus du tiers des véhicules de cette catégorie). Ce dispositif permanent constitue une source importante d'observation de la structure du marché (neuf et occasion) et du parc français, ainsi que des comportements des ménages vis-à-vis de l'automobile, à la fois en coupe instantanée et en évolution dynamique. Ceux-ci sont décrits et analysés à l'aide d'indicateurs globaux (taux d'équipement et volume du parc, gamme et puissance, kilométrages et consommations, types d'usage et d'usagers) mais aussi grâce au suivi désagrégé des véhicules présents dans plusieurs vagues successives, afin d'obtenir des estimations fiables des kilométrages annuels et des consommations déclarées, mais aussi de réaliser des analyses longitudinales, notamment d'évolution de comportement selon différentes transitions comportementales, comme l'effet des déménagements ou l'adaptation à la hausse des prix des carburants par exemple. Diagnostic Environnemental de la Mobilité 2006 17 Il importe ici de bien préciser les éléments concernant la représentativité géographique de la source ParcAuto : - les échantillons annuels ont une taille l'ordre de 6 à 7000 observations en valeurs brutes ; il s'agit des questionnaires retournés par les ménages répondants (sur 10 000 questionnaires initialement envoyés) ; - même si la région de résidence fait partie des cinq critères de redressement destinés à assurer la représentativité nationale des résultats, la taille de l'échantillon répondant ne permet finalement pas de garantir la représentativité au niveau régional, notamment dès lors que l'on souhaite croiser plusieurs variables. La source panélisée nationale est donc un outil de connaissance du parc français (équipement, usage), et non pas de connaissance fine des parcs locaux ou même régionaux14. Cela étant dit, la confrontation des deux sources (EMD et ParcAuto, vu à différentes échelles), en coupe en 2006, puis en évolution pour les années des précédentes EMD, fournit un cadrage permettant incontestablement de mieux qualifier le parc automobile local. Les principaux résultats de cette comparaison sont résumés dans les deux tableaux commentés ci-après. 2006 ménages (millions) parc (millions véh.) ménages équipés (%men) taux de motorisation (veh/men) taux de diésélisation (%parc) % 2-3 CV % 4-5 CV % 6-7 CV % 8 CV et + %parc de moins de 5 ans âge moyen < 1993, ECE pré-EURO 93-96 Euro I 97-99 Euro II 00-04 Euro III 05-06 Euro IV Parc Auto 2006 à différentes échelles EMD France agglos Région NP Départ 59 Lille 2006 entière millionnaires 25,473 32,376 83% 1,271 53% 0% 42% 46% 11% 36% 7,9 16% 16% 18% 35% 15% 1,554 1,951 82% 1,255 56% 0% 45% 46% 9% 33% 8,1 18% 14% 20% 34% 15% 0,976 1,200 80% 1,230 54% 0% 46% 43% 11% 34% 8,2 21% 13% 19% 32% 16% 1,382 1,433 74% 1,037 46% 0% 47% 45% 8% 42% 6,7 11% 11% 19% 39% 19% 0,457 0,491 74% 1,074 49% 1% 47% 43% 10% 31% 8,4 16% 19% 19% 37% 9% Tableau 2 : comparaison du parc automobile des ménages dans deux sources statistiques en 2006 Source : Calculs INRETS&CETE sur l'EMD (LMCU) 2006 et ParcAuto 2006 (panel ParcAuto TNS-Sofres, pour INRETS-ADEME-CCFA-FFSA-DSCR) Différentes caractéristiques concernant l'équipement et la structure du parc des ménages sont ici éditées (nombre moyen de véhicules par ménage, part du diesel, répartition en puissances fiscales, âge du parc en moyenne et répartition selon les normes d'émissions15) pour le parc automobile des ménages, au niveau France entière, pour la région Nord-Pas-de-Calais, pour le 14 Il n'est donc pas question ici, pour des raisons de significativité des résultats, d'éditer et de commenter des statistiques issues de ParcAuto pour l'agglomération ou la région urbaine de Lille elle-même. 15 Type de carburant, puissance/cylindrée et tranche d'âge du véhicule étant les trois variables les plus discriminantes pour déterminer les coefficients d'émissions des véhicules. Diagnostic Environnemental de la Mobilité 2006 18 département du Nord ainsi que pour l'ensemble des trois agglomérations millionnaires (Lille, Lyon, Marseille). De cette vision en coupe instantanée en 2006, on peut dégager plusieurs éléments notables : - concernant le taux d'équipement automobile, la région et le département du Nord semblent très proches des valeurs France entière, aux alentours de 1,25 voiture par ménage ; mais l'équipement dans la Communauté est plutôt celui d'une grande région urbaine dense, puisque la valeur moyenne observée dans l'EMD (1,074) apparaît en retrait, bien plus proche de celle des trois plus grosses agglomérations françaises (1,037) et qu'un quart des habitants de la Métropole appartiennent à un ménage qui n'a pas de voiture ; - le taux de diesel y est aussi relativement comparable, plus bas « en ville » que sur l'ensemble de la région ; il en va de même pour la répartition en tranches de chevaux fiscaux (pourcentage de 4-5 CV un peu plus fort que pour l'ensemble de la France, pourcentage de 6-7 un plus faible) ; - c'est sur l'âge des voitures que la région, le département, mais encore plus Lille, semblent se distinguer, avec une part de « moins de 5 ans » à 31% (contre 36% France entière et 42% pour les agglos millionnaires), un âge moyen qui approche 8 ans et demi (significativement différent des 7,9 ans France entière), et un pyramide des âges tirée vers les plus anciennes normes (pré Euro et Euro I) et comportant bien moins de véhicules Euro IV (9% contre 15% France entière). Du point de vue de la compatibilité des sources, on peut souligner que les résultats fournis par l'EMD 2006 semblent confortés par la statistique nationale pour la même vague annuelle, le parc des voitures des ménages de la Communauté urbaine16 ayant finalement, à l'exception de l'âge des véhicules, des caractéristiques proches de celles du parc de l'ensemble des trois agglomérations millionnaires. Les tendances à retenir pour le parc de véhicules de 2006 sont donc résumées à grands traits dans l'encadré suivant. Quelques grandes tendances pour le parc automobile lillois en 2006 * 1 ménage sur 4 est non équipé sur le territoire communautaire (contre un peu moins d'un sur cinq France entière) ; * On compte à peine plus d'une voiture par ménage (1,07 contre 1,27 France entière) ; * A peine moins d'une voiture sur deux est un Diesel (49% contre 53%) ; * On compte un peu plus de voitures de faible puissance (48% ont moins de 6 CV, contre 42% France entière ; * L'âge moyen des voitures avoisine 8,5 ans (environ 6 mois de plus que la France entière) ; 7 voitures sur 10 ont plus de 5 ans (dont la moitié ont plus de 10 ans). Ce dernier trait semble l'un des plus caractéristiques : le parc à Lille semble plutôt plus âgé et donc moins renouvelé) qu'ailleurs et l'on compte moins de véhicules répondant aux normes d'émissions les plus récentes. On peut aussi en conclure, à l'inverse, que le parc local pourrait être plus sensible aux mesures les plus récentes d'aide au renouvellement (bonus-malus, primes à la casse et au remplacement, etc.) et que ce qui apparaît pour l'heure comme un désavantage du point de vue du respect de l'environnement semble aussi montrer de plus grandes « potentialités » à venir, et donc de marges de manoeuvre de progression pour les prochains bilans énergie-émissions 16 Mais aussi le nombre de ménages équipés et le nombre moyen de voitures par ménage Diagnostic Environnemental de la Mobilité 2006 19 Considérant la structure du parc en évolution et rapportant le parc EMD à l'ensemble du parc national Sofres, on obtient les résultats complémentaires ci-dessous qui nous renseignent sur les évolutions passées ménages (millions) parc (millions véh.) ménages équipés (%men) taux de motorisation (veh/men) taux de diésélisation (%parc) % 2-3 CV % 4-5 CV % 6-7 CV % 8 CV et + %parc de moins de 5 ans âge moyen < 1993, ECE pré-EURO 93-96 Euro I 97-99 Euro II 00-04 Euro III 05-06 Euro IV Parc Auto France entière 1987 1998 2006 20,870 23,570 25,480 20,900 26,750 32,200 75,3% 80,0% 82,6% 1,020 1,147 1,264 10% 34% 53% 6% 1% 0% 33% 39% 42% 48% 50% 46% 14% 10% 11% 48% 43% 36% 6,1 6,9 7,9 100% 52% 16% 0% 32% 16% 0% 16% 18% 0% 0% 35% 0% 0% 15% EMD Lille, voitures décrites 1987 1998 2006 0,375 0,428 0,457 0,359 0,457 0,491 70,9% 74,2% 74,2% 0,957 1,068 1,074 7% 33% 49% 5% / 1% 36% / 47% 44% / 43% 16% / 10% 49% / 31% 5,8 / 8,4 100% / 16% 0% / 19% 0% / 19% 0% 0% 37% 0% 0% 9% Tableau 3 : comparaison du parc des ménages dans les deux sources statistiques : évolutions 1987, 1998 et 2006 Source : Calculs INRETS&CETE sur les EMD (LMCU) et les vagues annuelles ParcAuto (panel ParcAuto TNS-Sofres, pour INRETS-ADEME-CCFA-FFSA-DSCR)17 Schématiquement, par rapport aux moyennes nationales : - les ménages semblent moins équipés, mais l'écart est grandissant (le pourcentage de ménages équipés était inférieur à celui de la France de 4% en 1987, puis de 6% en 1998, et il l'est de 8% en 2008) ; ni la part de ménages équipés ni le taux de motorisation par ménage n'ont d'ailleurs fortement augmenté sur la dernière période18 ; - la progression du Diesel semble presque aussi forte que pour la France entière, mais la diésélisation reste en retrait ; on note en fait des évolutions quasiment parallèles ; en 1997, 1998 et 1999, 39% des mises en circulation étaient des Diesels, et ce taux monte à 65% en 2005, 2006 (contre respectivement des taux de 42% puis 70% pour la France entière ; - cause ou effet, ce « retard » à la diésélisation semble corrélé au fait que le parc paraît un peu plus vieillissant au fil de ces années d'observation, comme en attestent les parts Euro I, II et III pour 2006 ; on peut toutefois noter qu'en 1987 le parc local semblait légèrement moins âgé (moyenne et tranche de moins de 5 ans) que le parc national. Au total, le parc local présente l'image d'un parc un peu moins puissant, un peu vieillissant et donc un peu moins diésélisé que la moyenne française, pour des ménages sensiblement moins 17 lors de l'EMD de 1998, le type de carburant a été renseigné, mais pas les variables d'âge et de puissance (alors simulées dans les estimations DEED). 18 Rapporté au nombre de personnes, [LMCU, 2006] nous indique cependant une progression sensible du nombre de voitures dans la métropole, avec 427 voitures pour 1000 habitants en 2006, contre 399 en 1998, soit une progression de 7%. Diagnostic Environnemental de la Mobilité 2006 20 motorisés qu'ailleurs en France (mais comme dans les grandes villes). Son renouvellement vers des « véhicules plus propres » semble encore à venir.!! 1.3 Les polluants atmosphériques du transport routier Le secteur du transport génère deux types d'émissions de gaz dans l'atmosphère : ! les polluants atmosphériques locaux (le monoxyde de carbone CO, les composés organiques volatiles COV, les oxydes d'azotes NOx, et les particules Ps) ; ! les gaz à effet de serre (GES, comme le CO2, le méthane CH4, etc.). Ces deux types d'émissions se différencient par l'échelle spatiale et temporelle de leurs impacts, et leurs conséquences sur la santé humaine et l'environnement. Les premiers sont directement nocifs pour les individus de la zone où ils sont émis (troubles respiratoires notamment) et pour la faune et la flore locale. Ces gaz ont un impact à l'échelle locale et régionale, et leurs effets se font sentir à court et moyen terme19. Les seconds participent au réchauffement climatique global par le phénomène de l'effet de serre. Leur nocivité est plus difficile à percevoir20 car leur échelle est planétaire et leurs effets se feront sentir de manière indirecte, c'est-à-dire par les conséquences des changements climatiques qui sont échelonnées dans le temps et dont l'ampleur sera connue et vécue sur le long terme. 1.3.1 Liens entre la composition de l'atmosphère et l'effet de serre Le réchauffement climatique présent et à venir est le fait de l'augmentation des émissions de gaz à effet de serre et de leur concentration dans l'atmosphère. Ces gaz opèrent comme une chape de plomb en empêchant les rayons du soleil de se rediriger hors de l'atmosphère. En effet, les gaz dit « à effet de serre » possèdent la propriété de capter une partie du rayonnement infrarouge émis par la Terre et de réémettre une partie de ce rayonnement en direction de celle-ci, induisant un effet "cocotte-minute" avec une augmentation de la température, en particulier à la surface terrestre. 1.3.1.1 L'effet de serre Les variations climatiques et les perturbations de températures ne sont pas toutes liées à la teneur en gaz à effet de serre dans l'atmosphère mais également à la modification des paramètres de l'orbite terrestre, à la dérive des plaques à l'activité volcanique. Le lien entre la présence de gaz à pouvoir réchauffant dans l'atmosphère et la température à la surface du globe est un phénomène naturel et sans cet effet de serre, la température à la surface de la terre sera en moyenne de -19°C et non de + 15°C. La teneur en gaz à effet de serre dans l'atmosphère évolue dans le temps, notamment sous l'effet de l'action anthropique. 19 L'ensemble de ces polluants contribue à la dégradation de la qualité de l'air au niveau local. A des degrés divers, ils ont tous des effets néfastes avérés sur la santé ; certains hydrocarbures et Composés organiques volatiles (COV, notamment le benzène) sont les plus préoccupants du point de vue sanitaire. En outre, CO, NOx et COV évoluent chimiquement dans la troposphère sous l'effet du rayonnement solaire et son à l'origine d'une pollution photochimique, caractérisée par la production d'ozone et d'autres espèces dangereuses pour la santé et l'environnement. Malgré les baisses notables d'émissions de CO et COV, les teneurs en ozone croissent régulièrement dans les couches basses de l'atmosphère (notamment en Europe). L'ozone se distingue des principaux autres polluants associés au transport en ce qu'il se distribue sur de larges échelles géographiques, et participe aussi à l'effet de serre [Noppe et al., 2003]. 20 Ainsi, par exemple et hormis le fait qu'il participe au réchauffement global, le CO2 est a priori sans effet sur la santé humaine. Diagnostic Environnemental de la Mobilité 2006 21 1.3.1.2 Concentration des GES dans l'atmosphère et réchauffement climatique Le problème est la concentration en gaz à pouvoir réchauffant dans l'atmosphère ; la question de cette concentration se pose en termes de stock et non de flux. En effet, les gaz émis sont stockés en couche autour de la planète et mettent un nombre d'années important à se dissoudre (cf. encadré « L'atmosphère se renouvelle-t-elle ? » en annexe 2). Comme nous venons de le mentionner, les émissions de gaz à effet de serre sont un phénomène naturel, lié aux interactions entre rayonnement du soleil, biomasse, circulation de l'air et strates de l'atmosphère. Toutefois, l'activité humaine et animale émet, elle aussi, des gaz à effet de serre. Il faut par conséquent distinguer d'une part les gaz à effet de serre non artificiels et d'autre part ceux liés à l'activité industrielle, soit : - les GES non artificiels - Vapeur d'eau (H2O) - Dioxyde de carbone (CO2) - Méthane (CH4) - Protoxyde d'azote (N2O) - Ozone (O3) - les autres GES liés à l'activité industrielle (gaz fluorés) - Dichlorodifluorométhane (CFC-12) - Chlorodifluorométhane (HCFC-22) - Tétrafluorure de carbone (CF4) - Hexafluorure de soufre (SF6) Les gaz à effet de serre représentent seulement 0.04 % des gaz de l'atmosphère mais ils déterminent la température à la surface terrestre. Composition des gaz de l'athmosphère GES Divers 0,04% 1% Oxygène 21% Azote Oxygène Gaz à effet de serre Divers Azote 78% Figure 8 : composition des gaz de l'atmosphère Source : [GIEC 2007] Diagnostic Environnemental de la Mobilité 2006 22 La vapeur d'eau est à l'origine de 55% de l'effet de serre. Les gaz à effet de serre se composent essentiellement de dioxyde de carbone21 (à plus de 99%), mais également de méthane, de protoxyde d'azote et d'ozone, dans les proportions ci-dessous. Dioxyde de carbone 99,45% Méthane 0,46% Protoxyde d'azote 0,083% Ozone 0,0026% Tableau 4 : poids des GES présents dans l'atmosphère Source : [GIEC 2007] 21 Voir aussi « Le cycle du Carbone », en annexe. Diagnostic Environnemental de la Mobilité 2006 23 1.3.1.3 Le potentiel de réchauffement des gaz à effet de serre et les équivalences Le Potentiel de réchauffement global (PRG) est utilisé pour quantifier, sur une période donnée (au-delà de laquelle les effets résiduels sont négligés), la contribution relative de chaque GES, comparativement à celle du dioxyde de carbone, sur le réchauffement global en se basant sur son pouvoir radiatif ; il permet donc de comparer les différents GES22 entre eux (précisions sur les PRG, estimations et controverses : cf. Annexe 2). Exemples de valeurs de PRG : les valeurs de PRG retenues dans notre travail sont indiquées dans le prochain paragraphe. Pour estimer le potentiel de réchauffement global (PRG) de chaque GES, on rapporte, sur la même période, l'effet radiatif du gaz à celui du CO2. Prenons l'exemple du méthane, on a les potentiels suivants sur un siècle : - pour le dioxyde CO2, PRG =1, et - pour le méthane CH4, PRG = 23, [GIEC, 2001, 2007]. C'est-à-dire, qu'une tonne de CH4 réchauffe comme 23 tonnes de CO2, mais il y en a 216 fois moins dans l'atmosphère et l'on estime sa durée de vie à environ 12 ans (contre 120 ans au protoxyde d'azote). Son pouvoir réchauffant est environ 23 fois plus fort que le CO2; dans les calculs, 1 tonne de méthane « vaudra » donc environ 23 tonnes d'« équivalent CO2 » (eqCO2). Pour le bilan lillois 2006 qui nous concerne ici, dans une optique d'estimation de l'effet de serre, au delà de la contribution des polluants atmosphériques locaux, il a été convenu de privilégier l'estimation de l'équivalent CO2. Le dioxyde de carbone étant le principal gaz à effet de serre, les émissions des autres gaz à effet de serre sont rapportées à celles du CO2 afin de pouvoir les comparer - pour les additionner. Contrairement à ce que nous avions pratiqué dans les estimations DEED à partir des deux EMD précédentes ([Gallez, 1996] et [Quételard, 2002]), l'outil logiciel de l'ADEME nous offre cette fois-ci, au-delà des émissions locales déjà évoquées, la possibilité d'estimer un équivalent CO223 par la prise en compte cumulée des trois principaux gaz à effet de serre : le dioxyde de carbone CO2, le méthane CH4 et le protoxyde d'azote N2O, et de leurs pouvoirs de réchauffement globaux respectifs24 sous la forme : EqCO2 = CO2 + 21 * CH4 + 310 * N2O C'est cette formule qui, au-delà des différentes estimations (sorties du logiciel ADEME pour le DEED « classique » ou reconstituées par notre équipe à partir de coefficients d'émissions, notamment pour les émissions des poids lourds dans le cas du trafic de marchandises intégré dans l'estimation du DEED « élargi », cf. chapitre 2), sera utilisée dans toute la suite de ce rapport pour évaluer les masses d'eq-CO2. Soulignons enfin que des développements plus détaillés sur les effets constatés et causes des changements climatiques figurent également en annexe 2. 22 ou mélange de GES : la masse de CO2-équivalent du mélange est estimée par la somme de leurs PRG pondérée par les masses ; le PRG associé est estimé par la moyenne des PRG pondérée par les masses. 23 également appelé CO2 ultime. 24 aux valeurs où ils étaient lors des développements des logiciels ADEME IMPACT puis DEED. Diagnostic Environnemental de la Mobilité 2006 24 1.3.2 Les émissions du secteur « transports » Quelques constats à l'échelle globale Le secteur du transport représente, à l'échelle mondiale, 13% des émissions des GES - si l'on excepte les émissions de CO2 liées à la consommation de carburant mais que l'on tient compte de l'exploitation des forêts, de la combustion de la biomasse, de l'utilisation des sols. Ce chiffre augmente à 23% lorsque l'on prend en compte les émissions des GES provenant de la combustion de carburant au niveau mondial. Et pour la zone OCDE, les émissions imputables au secteur des transports s'élève à 30% de l'ensemble (incluant les GES provenant de la combustion de carburant). Au sein du secteur transports au niveau mondial, le secteur routier est le secteur le plus contributeur, avec 75% des émissions mondiales de transport, contre 11,5% pour le transport aérien et 10,3% pour le transport maritime. La croissance des émissions est très soutenue depuis 1970, mais s'intensifie depuis 1990, notamment dans les régions qui connaissent une croissance économique forte et un impressionnant déploiement industriel. Ainsi, entre 1990 et 2005, les émissions de GES dues au transport ont augmenté : - de 22,3% dans l'UE 15 (de 44,7% pour les nouveaux états membres de l'UE), - de 28,7% en Amérique du Nord, - de 32,3% pour les membres asiatiques de l'OCDE. Quelques constats à l'échelle nationale Au niveau national, la part du transport dans la répartition sectorielle des émissions totales de gaz à effet de serre est passée de 21% en 1990 à 26% en 2006 (source : [CITEPA, 2007] pour la synthèse CCNUCC/CRF en décembre 2007). Il s'agit du secteur en plus forte croissance sur cette période. Tableau 5 : contribution des types de sources aux émissions de GES, France (métropole et Outremer) 2006 – PRG et Parts du CO2 et du CH4 (*) hors trafic maritime et aérien internationaux L'énergie avec 72,4% des émissions en termes de PRG hors UTCF25 occupe en 2006 le 1er rang des catégories de sources émettrices de GES en France devant l'agriculture, 17,4% du 25 UTCF : Utilisation des Terres, leurs Changements et la Forêt. Diagnostic Environnemental de la Mobilité 2006 25 PRG ; viennent ensuite les procédés industriels, 7,4% et les déchets 2,5%. Depuis 1990, la contribution de l'énergie augmente alors que la contribution de tous les autres secteurs baisse. Parmi les faits marquants, il faut souligner, depuis 1990, une augmentation soutenue des émissions du transport avec toutefois une légère baisse depuis 2005 (de 1 à 2%). La croissance des émissions, limitées au seul CO2 sur la période 1990-2005, est importante avec un taux de +3,3% pour le volume total. En 2006, les rejets de CO2 sont imputables pour 95% à la consommation d'énergie fossile. C'est pourquoi le transport, notamment en raison de la part prépondérante du routier, pèse de façon importante dans la répartition des sources émettrices de CO2 pur : le transport représente 34% des émissions devant le secteur résidentiel/tertiaire et l'agriculture (25%), la combustion dans l'industrie manufacturière (19%) et l'industrie de l'énergie (16%). Quelques constats à l'échelle locale Au plan local, on peut noter que le secteur des transports est responsable de 17% des émissions de gaz à effet de serre de la région Nord-Pas-de-Calais (contre 26% au niveau national). Ici comme ailleurs, on remarque que ce secteur est en forte croissance, c'est même le seul qui croît avec le secteur « résidentiel, tertiaire, institutionnel, commercial » (source : Plan Climat Nord-Pas-de-Calais – état des lieux 2008). Le bilan carbone de la Communauté urbaine de Lille, récemment établi selon la méthodologie ADEME à l'échelle d'un territoire26, montre l'importance du secteur des transports dans les émissions de gaz à effet de serre : 43 % du total (source : Bilan carbone LMCU). Bilan carbone de la communauté urbaine de Lille 2008 5% 1% 2% 14% 5% Énergie dans l'industrie Énergie dans le tertiaire 7% 10% Énergie dans l'habitat Transport de marchandises Déplacements terrestres de personnes Déplacements aériens de personnes Fabrication des véhicules 20% Constructions et Travaux publics 19% Agriculture Gestion des déchets 16% Figure 9 : poids des secteurs d'activité dans le bilan carbone de LMCU Source : bilan carbone LMCU Au sein de ces émissions transport, les marchandises comptent pour un peu plus d'un tiers (37%) lorsque l'on inclut le transport aérien de personnes et pour près de la moitié (44%) lorsqu'on l'exclut. 26 http://www2.ademe.fr/servlet/KBaseShow?sort=-1&cid=96&m=3&catid=15730 Diagnostic Environnemental de la Mobilité 2006 26 Il faut remarquer que les émissions hors territoire sont comptabilisées dans la méthode Bilan Carbone, alors qu'elles ne le sont pas dans le DEM, qui ne somme les émissions qu'à l'intérieur du périmètre communautaire. Cela explique notamment pourquoi les marchandises ont un poids supérieur (cf. estimation et graphique en annexe 3) dans le Bilan Carbone (44% ci-dessus, contre 29% dans l'estimation DEM présentée dans la partie 2 du rapport) : en effet, la partie du transport, depuis leur origine ou jusqu'à leur destination souvent extérieures, réalisée hors du territoire communautaire y est beaucoup plus importante que pour les voyageurs. L'annexe 3 présente des résultats du DEM comparés aux émissions du trafic d'échange réalisé en dehors du territoire de la communauté urbaine, qui représente 77% du trafic d'échange total pour les voyageurs et 84% pour les marchandises. Diagnostic Environnemental de la Mobilité 2006 27 1.4 Description de l'outil DEED Avant de décrire spécifiquement le concept et l'outil DEED, nous faisons dans l'encadré cidessous un bref rappel chronologique, afin de montrer dans quel contexte historique cette méthodologie est née et a été progressivement développée. Quelques points de repère chronologiques sur la prise en compte de la préoccupation énergétique et environnementale en France • Les années 70-80 : deux décennies « énergie », d'un choc pétrolier à l'autre puis au contre-choc 1974 : Création de l'AEE (Agence pour les Économies d'Énergie), après le 1er choc ; 1976-1978 : Plusieurs campagnes lancées par l'AEE auprès de la population (« En France, on n'a pas de pétrole, mai on a des idées » puis la « chasse au gaspi ») ; apparition de bilans énergétiques régionaux (CEREN27), et de références d'études et de publications sur le thème de l'énergie et la ville ; 1982 : Par fusion de l'AEE avec le Commissariat à l'énergie solaire, la Mission chaleur et le Comité géothermie, est créée l'AFME (Agence Française de la Maîtrise de l'Énergie) ; 1981-1984 : du côté de la recherche en économie des transports, suite au second choc pétrolier, l'IRT, sur financement AFME, invente le concept de « budget-énergie-transport » (BET, ancêtre du DEED, alors comptabilisé uniquement en litres de supercarburant consommés par jour) pour étudier, de façon expérimentale dans sept agglomérations françaises à partir de leurs enquêtes déplacements, des différenciations significatives28 en matière de formation de la dépense énergétique de la mobilité quotidienne tous modes [IRT et al., 1984], [Orfeuil, 1986] ; l'accent est alors mis sur la distance des déplacements, paramètre de la mobilité plutôt négligé jusqu'alors ; 1989 : les travaux de deux chercheurs australiens, Newman et Kenworthy collectent et analysent des données (1960-1980) sur 32 métropoles du monde et « mettent en évidence » le rôle capital de la densité résidentielle dans la formation de la consommation énergétique des transports [Newman, Kenworthy, 1989] ; leurs travaux reçoivent un accueil favorable, ont un grand retentissement, mais suscitent aussi rapidement de nombreuses critiques techniques et fondamentales 29. Cette année est aussi celle de l'apparition de l'essence sans plomb ; • Les années 1990 : la décennie « émissions polluantes et qualité de l'air » A la préoccupation des économies d'énergie vient rapidement s'ajouter celle de la réduction des émissions polluantes Trois normes d'émission successives voient le jour au cours de cette décennie. 1990 : l'AQA (Agence pour la Qualité de l'Air) et l'ANRED (Agence Nationale pour la Récupération et l'Elimination des Déchets) rejoignent l'AFME dans la création de l'ADEME (Agence de l'Environnement et de la Maîtrise de l'Energie) 1992 : Création de la MIES (Mission interministérielle de l'Effet de Serre) 1993 : du point de vue des évolutions technologiques et de la réglementation des émissions sur la route : généralisation du pot catalytique 3 voies, et apparition de la norme « Euro 1 » (cf. § 1.1.3) 27 Centre d'Etudes et de Recherches Economiques sur l'Energie Entre catégories sociales, entre types d'activités et de motifs de déplacements, mais aussi entre lieux de résidences des ménages enquêtés : le BET souligne l'importance des localisations (ville-centre, banlieue, périphérie, densités, mais aussi distances à parcourir, et niveaux de dessertes en transports collectifs) au sein de la région urbaine. 29 Entre autres, de façon schématique, sur le degré de finesse et la comparabilité des données agrégées recueillies, sur la définition et le périmètre de « la ville », sur l'absence d'autres déterminants importants de mobilité (prix, revenus, modes de vie), sur la « tautologie » de la courbe mise en évidence, et, in fine, sur les débouchers de ce travail : ces observations doivent-elles conduire à faire une recommandation de « densifier le tissu urbain pour réduire la motorisation ? ». Les travaux de cette équipe australienne seront à nouveau développés au cours de la décennie suivante [Newman, Kenworthy, 1999]. 28 Diagnostic Environnemental de la Mobilité 2006 28 1994-1998 : à l'Inrets, sur financement ADEME, les travaux BET sont repris et élargis (on adjoint des budgets-émissions de polluants à l'ancienne dimension énergétique) pour aboutir au Budget-énergieenvironnement des déplacements (BEED, et DEED pour les diagnostics décrits ci-dessous) qui, toujours sur la base d'une EMD, inventorie mais aussi analyse les consommations et émissions des déplacements quotidiens des résidents d'une région urbaine ; l'accent est à nouveau mis sur les distances et les localisations ; estimer les émissions polluantes implique de tenir précisément compte des caractéristiques des véhicules utilisés mais aussi des vitesses et conditions de circulations. Au cours de la même période, la LAURE30 inscrit un objectif de diminution du trafic automobile, instaure les PDU (Plans de Déplacements Urbains, avec un volet environnemental) et les PRQA (Plans Régionaux de la Qualité de l' Air). « Euro2 » est la nouvelle norme pour les émissions. En fin de période, 1998 est aussi marquée par l'accord volontaire décidé entre l'Europe et l'ACEA (cf. § 1.1.3) ; • Depuis 2000 : les années « effet de serre et climat » Depuis que les progrès technologiques ont permis de réduire drastiquement les émissions de polluants locaux, le principal problème qui subsiste sur le long terme est celui de la réduction des émissions de GES, dans le cadre de la lutte contre le changement climatique. Si des objectifs de réduction existaient déjà sur le plan international depuis quelques années31, le PNLCC32, visant à respecter l'engagement pris par la France à Kyoto, est adopté en janvier 2000. 2000 : apparition de la norme « Euro 3 » ; interdiction à la vente de l'essence plombée, remplacée par le Super ARS (anti-récession de soupapes). C'est à partir de 2000 que LET utilise la méthodologie DEED (comparant Lyon à d'autres agglomérations, parmi ses indicateurs de mobilité durable). 2002 : l'Inrets et le CETE Nord-Picardie revisitent les DEED, sur la base de l'enquête-ménages de 1998 en évolution par rapport à celle de 1987 [Quételard, 2002] ; l'outil de recherche DEED est opérationnalisé en un logiciel ADEME (premiers développements d'une version bêta) ; 2004 : constatant une mise en oeuvre insuffisante du PNLCC, le Gouvernement renforce son plan d'action avec le Plan Climat 2004, afin d'atteindre, voire dépasser les objectifs de Kyoto. 2005 : la volonté de réduire d'un facteur 4 les émissions de GES à l'horizon 2050 est inscrite dans la loi d'orientation sur l'énergie, débattue en 2004, promulguée en 2005. Nouvelle norme « Euro 4 » ; 2006 : Avec plus de 38% en 2006, le secteur des transports routiers reste le principal contributeur des émissions de CO2 en France, selon l'ADEME. Le Gouvernement adopte de nouvelles mesures, en faisant apposer (mai) une étiquette CO2 sur les véhicules neufs, et levant (juillet) une taxe supplémentaire pour les véhicules neufs les plus polluants (> 200 gCO2/km). L'ADEME adopte la méthode du Bilan Carbone pour les entreprises et les collectivités ; afin de mieux appréhender l'exhaustivité des bilans, l'Inrets et le CEREN développent, depuis 2004, et appliquent une méthode intersectorielle « logement + transport » permettant d'élaborer et de cartographier un bilan énergieémissions de CO2 au niveau d'une région urbaine, [Hivert et al., 2006], tandis que LET, LTMU et CIRED développent à la même époque le Projet national Ethel (Energie-Transport-HabitatEnvironnement-Localisations). A l'Inrets, les travaux de recherche s'orientent vers une intégration de l'ensemble des flux (voyageurs et marchandises) dans l'élaboration de bilans d'émissions de GES. 2007 : le Grenelle Environnement se déroule sur juillet-octobre ; entre autres mesures, il préconise une contribution climat/énergie, la création éventuelle de cette taxe carbone devant être étudiée en 2008 ; 2008 : le prix du pétrole flambe au 1er semestre, puis chute au 2d. Dans l'esprit du Grenelle, un bonusmalus écologique (écopastille) est introduit à l'achat des automobiles, afin d'orienter les acquéreurs vers des modèles plus sobres en carbone. L'Inrets et le CETE NP revisitent et élargissent (cf. infra) le DEED Lillois, objet du présent rapport, à partir de la dernière EMD de 2006. 30 Loi sur l'Air et l'Utilisation Rationnelle de l'Energie, de décembre 1996. Le protocole de Kyoto, pour une maîtrise des émissions de GES à l'horizon 2010, date de 1997. La MIES avait été créée en 1992, et le 1er programme d'action avait été défini en 1993, revu en 1995 et 1997, afin de réaliser l'objectif contenu dans la Convention Cadre des Nations Unies sur le Changement Climatique (CCNUCC, Convention Climat à Rio en 1992) : stabiliser en 2000 des émissions à leur niveau de 1990. 32 Plan national de Lutte contre le Changement Climatique 31 Diagnostic Environnemental de la Mobilité 2006 29 Au delà de cette description historique, nous décrivons ci-après les aspects méthodologiques de l'outil DEED, tel qu'il a pu être opérationnalisé dans le logiciel ADEME (cf. [Gallez et al., 1998], [Quételard, 2002] et [ADEME et al., 2002]). 1.4.1 Diagnostics Énergie Environnement des Déplacements (DEED) : description méthodologique Afin d'identifier les enjeux, leviers et marges de manoeuvre et d'envisager les possibles réductions de consommations d'énergie, d'émissions de polluants et de GES, le diagnostic de la situation actuelle et de son évolution passée doit être réalisé. Depuis 1994, pour répondre à cette préoccupation et à la demande de l'ADEME, l'INRETS a réalisé, dans le prolongement de ses travaux « Budgets-Énergie-Transport » (BET) des années 80, une série d'études (« DEED : diagnostics énergie environnement des déplacements »33) consacrées à l'analyse des consommations énergétiques et des émissions polluantes dues à la mobilité quotidienne des personnes au sein de leur région urbaine de résidence. L'objectif était d'adjoindre aux études BET la dimension « environnement-pollution » antérieurement absente. Ainsi, en développant et en affinant la méthodologie de 1994 à 1998, l'INRETS a réalisé le DEED de quatre agglomérations françaises : Grenoble, l'Île-de-France, Lille et Bordeaux, dans l'ordre chronologique à partir des dernières EMD disponibles à l'époque. En 2002, LMCU, en partenariat avec la région Nord-Pas-de-Calais et l'ADEME, demandait au CETE (avec le soutien scientifique de l'équipe INRETS) de revisiter son DEED à partir de la dernière enquête ménages de 1998. Cette série de cinq études a prouvé la faisabilité de la méthodologie DEED34. Dans le même temps, la méthodologie mise au point dans cet outil de recherche devait déboucher sur le logiciel DEED de l'ADEME. Cadrage pour l'effet de serre dû aux transports, l'élaboration du bilan énergie-émissions à l'échelle de la région urbaine selon la méthode DEED (« diagnostics énergie environnement des déplacements ») permet également de rendre compte de différenciations entre catégories d'individus et de ménages, selon leurs caractéristiques (socio-économiques, démographiques et géographiques, cf. encadré détaillé ci-après). Schématiquement, la mise en oeuvre pratique d'une étude « DEED » se structure de la manière suivante : 1. une étape de récupération des données les plus désagrégées (déplacements et trajets unimodaux) issues de l'EMD, 2. une étape de mise en forme des données (phase importante d'apurement et de vérification de cohérence des distances et des vitesses en fonction des modes de déplacement) et d'élaboration de variables supplémentaires, 33 initialement « Budgets-Energie-Environnement des Déplacements » celle-ci a également été testée afin de simuler des politiques de transport (évaluer les impacts d'un changement durable des comportements de mobilité individuels, changement de structure du parc automobile des ménages, autres états possibles du trafic, comme la modification de la répartition modale de la mobilité par le transfert de certains déplacements de la voiture particulière vers des modes plus respectueux de l'environnement. 34 Diagnostic Environnemental de la Mobilité 2006 30 3. une étape de calcul des consommations énergétiques et des émissions de polluants de chaque déplacement, à partir de coefficients appropriés, 4. une étape de constitution des sommations par individu et ménage, 5. une étape d'analyses à partir de résultats standardisés croisant caractéristiques des personnes et des ménages avec leurs émissions et consommations. Diagnostic Environnemental de la Mobilité 2006 31 Méthodologie des DEED : une loupe pour l'inventaire et le diagnostic de détail Le concept utilisé, le Diagnostic Énergie Environnement des Déplacements (DEED), consiste à évaluer, pour un individu ou un ménage, l'énergie consommée et les volumes de polluants émis au cours de ses déplacements pendant une journée de semaine ordinaire. Cette approche se différencie des méthodes d'ingénierie et d'inventaire classiques par une analyse détaillée de la relation entre urbanisme, mobilité quotidienne des résidents et impacts énergétiques et environnementaux. Elle permet de rendre compte de différenciations entre catégories d'individus et de ménages, notamment de répondre à des questions du type : « Qui consomme et qui pollue ? Où ? », en rapportant la dépense énergétique et les émissions à leurs caractéristiques socio-économiques (revenus, professions catégories sociales), démographiques (taille et structure des ménages) et géographiques (localisation des lieux de résidence dans les différentes zones de la région urbaines considérées), ainsi que selon la position dans le cycle de vie (sexe, âge et statut d'activité) pour les individus, telles que ces caractéristiques sont appréhendées dans les enquêtes déplacements. Là aussi il y a des redites avec ce que l'on présente au début. Pratiquement, la méthode du DEED s'appuie sur les EMD pour estimer et inventorier la consommation et les émissions de chaque déplacement renseigné, en fonction de sa longueur, de sa vitesse et du (ou des) mode(s) de transport utilisé(s), et de coefficients de consommation et émissions, issus de la méthodologie préconisée dans le projet MEET, qui a abouti au modèle Copert3, harmonisant les facteurs d'émission des transports au niveau européen. Cinq polluants (les principaux polluants atmosphériques émis par les véhicules) sont retenus dans la méthode DEED : le CO2, le CO, les COV, NOx et particules Ps. Ces quantités sont estimées simultanément avec la consommation d'énergie, grâce à l'équation du bilan carbone (cf. encadré au §1.2.1). La réalisation d'une étude DEED nécessite la connaissance de la longueur (ou portée) de chaque déplacement. Seuls les déplacements internes à l'aire d'études, réalisés par ses habitants, sont pris en compte dans la méthode DEED. Comme les longueurs ne sont pas recensées au moment de l'enquête, elles sont calculées a posteriori en fonction des origines et destinations des déplacements, ainsi que des modes de transport empruntés. Ces quantités (grammes-équivalent-pétrole35 et grammes de polluants estimés au niveau désagrégé le plus fin, c'est à dire pour chaque déplacement – ou même trajet unimodal au sein d'un déplacement dans les cas des EMD les plus récentes) sont ensuite sommées par individu puis par ménage résident dans le périmètre de l'EMD (une région urbaine, une agglomération, un arrondissement, etc.) ; ces sommations constituent un "Budget-Énergie-Environnement des Déplacements" (B.E.E.D.), composé d'un "Budget-Énergie-Transport" ou dépense énergétique quotidienne (évalué en "grammeséquivalent-pétrole") et d'un "Budget-Environnement", indiquant les volumes émis (en grammes) pour chacun des cinq gaz et polluants considérés. Ces budgets représentent, par individu et par jour, la consommation énergétique et les émissions totales de ses déplacements au sein de sa région urbaine de résidence ; on peut les décliner en fonction de leurs déterminants socio-économiques, démographiques et géographiques. Les analyses permises font du DEED un outil d'analyse original, reliant l'évaluation environnementale aux caractéristiques des individus ainsi qu'à leurs comportements de mobilité, replacés dans leur contexte spatial, afin de mieux apprécier le lien entre choix urbanistiques, mode de fonctionnement des systèmes de transport et pratiques de mobilité. Enfin, par une dernière sommation, la méthode quantifie le bilan journalier de la consommation et des émissions à l'échelle de tout le périmètre d'étude. 35 Unité de consommation couramment utilisée en transport, notée "gep". On rappelle qu'un litre de super équivaut à 750 gep, tandis qu'un litre de gazole en représente 840. Diagnostic Environnemental de la Mobilité 2006 32 1.4.1.1 Distances La réalisation d'une étude DEED nécessite la reconstitution36 des distances entre origines et destinations des déplacements (repérées par centroïdes des zones choisies pour échantillonner l'enquête comme dans le cas de Lille). Un soin particulier doit être apporté à l'estimation réaliste des distances dans le cas de déplacements "intrazones", i.e. dont l'origine et la destination sont dans la même zone. La confrontation des distances et durées de déplacement permet de vérifier le « réalisme » des vitesses inférées. 1.4.1.2 Polluants retenus Un large spectre de polluants, regroupant les principaux polluants atmosphériques routiers, sont retenus dans la méthode DEED (CO2, CO, COV, NOx et Ps, cf. encadré ci-dessus et début du §1.3). Ils sont estimés simultanément grâce à l'équation permettant de vérifier le bilan carbone (« tout le carbone introduit doit être ré-émis »). Cette équation relie ces émissions et la consommation énergétique : le bouclage permet de déduire l'une des valeurs (ici le CO2) des autres. Ils regroupent : - les gaz à effet de serre (GES) (en traduisant le CH4 et le N2O en équivalent-CO2) ; - les polluants locaux, aux effets néfastes avérés sur les personnes exposées à l'échelle de la région urbaine (cf. encadré page suivante). 1.4.1.3 Coefficients de consommation et émissions, variables d'entrée retenues Sans entrer dans le détail de leur description, notons que les équations permettant d'estimer la consommation d'énergie et les émissions polluantes sont différenciées selon les modes de transport empruntés lors des déplacements. Outre l'année d'enquête, les variables prises en compte intègrent : • la classe technologique du véhicule pour les modes automobiles, ie. les caractéristiques du mode ou véhicule utilisé (notamment d'une des voitures du ménage), principalement le type de carburant, la tranche d'âge et la tranche de cylindrée de ce véhicules (pour tenir compte des différentes normes d'émissions), selon les catégories de la nomenclature Copert37 ; • toujours pour la voiture, la vitesse en km/heure, rapport entre la distance moyenne parcourue et la durée moyenne du déplacement38, bordée par les limites d'apurement; uniquement pour la voiture je pense 36 notamment à l'aide des modèles d'estimation de trafic, éventuellement différents pour la voiture et les transports collectifs. 37 NB : au sujet des modèles d'émission, il convient de souligner que la recherche en est désormais à une étape ultérieure, avec la base de données Artemis (Assessment and Reliability of Transport Emission Models and Inventory Systems) de mesure des émissions des véhicules dans différentes situations (nouveau projet pluriannuel européen débuté en 2000), mais aussi avec Copert 4 (Université de Théssalonique), nouvelle formulation du modèle Copert (modèle continu fonction de la vitesse moyenne), partie des méthodes d'inventaire d'émissions Corinair. Le travail demandé par LMCU imposait toutefois l'utilisation du logiciel DEED de l'ADEME, et par voie de conséquence la version 3 du modèle Copert. 38 En fonction des différents modes, ces vitesses moyennes estimées à partir de l'EMD varient entre 4 km/h à pied et 29 km/h en deux roues de plus de 50 cm3; au milieu du spectre, les vitesses sont de 13 km/h pour les transports en commun et par exemple 23 km/h pour le mode voiture conducteur. En automobile, la vitesse s'avère dépendante de la distance du déplacement, de sa tranche horaire, et dans une moindre mesure de sa localisation géographique (par rapport aux centres). Diagnostic Environnemental de la Mobilité 2006 33 • la (part de la) distance parcourue à froid pour les modes automobiles39, pour déterminer surconsommation et surémissions à froid ; • et enfin la distance parcourue en kilomètres (un facteur correctif, dépendant de la portée des déplacements, permet de prendre en compte la sinuosité et la densité du réseau d'infrastructures , afin d'obtenir des distances plus réalistes que la distance à vol d'oiseau); ainsi qu'un paramètre d'occupation pour les modes collectifs et d'une fonction de répartition pour les principales combinaisons multimodales; l'horaire du déplacement enfin est utilisé pour différencier des coefficients d'émissions pointe/creux pour les bus, et pour ajouter une surconsommation liée aux phares ; • • En dehors de l'automobile, les émissions polluantes sont établies à partir de la distance parcourue et de coefficients d'émissions unitaires. Pour l'automobile, l'émission prend en compte la surémission liée au départ à froid (dépendant de la distance) et multiplie la distance du déplacement par des taux d'émissions unitaires qui dépendent fortement de la vitesse du véhicule (fonctions de plusieurs puissances) et prennent en compte l'équipement en pot catalytique. 39 Les véhicules utilisés sont décrits dans l'EMD en termes de type de carburant (essence/diesel), année de mise en circulation et puissance fiscale; motorisation, tranche d'âge et tranches de cylindrée sont alors reconstituées. Diagnostic Environnemental de la Mobilité 2006 34 Effets des polluants locaux sur la santé La présence de ces substances polluantes dans l'atmosphère contribue à la dégradation de la qualité de l'air à l'échelle des villes et des régions. A des degrés divers, tous ces polluants ont des effets néfastes sur la santé. Leur nocivité est avérée depuis de nombreuses années : - le monoxyde de carbone (CO), , est un gaz asphyxiant qui, à de fortes concentrations, agit au niveau de l'hémoglobine en empêchant, par sa fixation, le transport de l'oxygène dans le sang ; - les oxydes d'azote (NOX) sont principalement constitués de deux gaz. Le monoxyde d'azote (NO), le plus abondant mais d'une durée de vie assez courte, provoque des cyanoses. Le dioxyde d'azote (NO2 ) affecte les voies respiratoires et peut provoquer des intoxications aiguës en cas d'exposition à des concentrations élevées ; - les hydrocarbures ou composés organiques volatils (COV)40 regroupent des polluants tels que les aldéhydes, le benzène, le toluène, etc., dont plusieurs sont cancérogènes ; on les considère généralement comme les plus préoccupants du point de vue sanitaire ; - les particules totales en suspension (TSP) incluent une grande hétérogénéité de matières aéroportées (aérosols, fumées, cendres, pollen, brouillard), sans considération de leur nature chimique. Les particules dont le diamètre est inférieur à 10 microns peuvent pénétrer profondément dans l'appareil respiratoire, à l'instar de celles rejetées par les moteurs diesel. En outre, CO, NOx et COV évoluent chimiquement sous l'effet du rayonnement solaire et sont à l'origine d'une pollution photochimique, caractérisée par la production d'ozone et d'autres espèces dangereuses pour la santé et l'environnement. Malgré les baisses notables d'émissions de CO et COV, les teneurs en ozone croissent régulièrement dans les basses couches de l'atmosphère, notamment en Europe. L'ozone se distingue des principaux autres polluants associés au transport en ce qu'il se distribue sur de larges échelles géographiques, et participe aussi à l'effet de serre. A l'heure actuelle, les effets sanitaires de ces polluants locaux, pour des concentrations désormais bien plus faibles que voici quelques décennies (comme par exemple 10 fois moins de CO dans l'air qu'il y a 30 ans), ne peuvent être mis en évidence que grâce à des études sur de très vastes populations. Les résultats les plus récents permettent d'établir des relations dose-effet en distinguant : - les effets à court terme, suivant de quelques jours des augmentations minimes des teneurs journalières de certains de ces polluants. Sont ainsi étudiés la mortalité cardio-pulmonaire, les épisodes bronchiques aigus et les crises d'asthme, en suivant particulièrement des groupes à risque connus (nourrissons et jeunes enfants, personnes âgées, insuffisants respiratoires ou cardiaques) ; - et les effets à long terme, résultant d'effets cumulatifs sur une longue période, qui observent les effets d'augmentation de concentrations en moyennes annuelles, avec apparition de cancers, notamment pulmonaires, et l'installation de maladies chroniques, comme la bronchite chronique. Connaissant l'exposition de la population, ces relations dose-effet permettent de calculer un nombre de cas de ces maladies attribuables à la pollution atmosphérique. Finalement, la surveillance épidémiologique, sur un grand nombre de villes en France et en Europe, met en évidence les effets sur la santé (court et long terme) de la pollution atmosphérique urbaine, dont une moitié environ (part en baisse) est attribuable au trafic routier. Les risques sont « faibles » au niveau individuel, mais, compte tenu de l'importance des populations exposées, les cas attribuables à cette pollution représentent des effectifs non négligeables. Pour plus de détail, on se reportera à l'annexe 1 du présent rapport sur le lien entre pollution atmosphérique des transports et santé. 40 Appellation issue d'un arrêté ministériel daté du 1er mars 1993. Diagnostic Environnemental de la Mobilité 2006 35 1.4.1.4 Moyennes et distribution des budgets individuels, Principaux indicateurs utilisés Les quantités par déplacement sont sommées par individu, ménage, zone ou finalement région. La dépense d'énergie et les émissions polluantes dues aux déplacements des personnes varient finalement en fonction de deux éléments principaux : • la distance parcourue de manière sensiblement proportionnelle, • le mode de transport utilisé qui détermine la quantité d'énergie consommée et de polluants émis au kilomètre parcouru. Nous appuyons aussi les analyses des DEED sur des indicateurs synthétiques associés à ces deux dimensions clés des comportements individuels de mobilité : • le budget-distance (DIST) décrit la distance journalière parcourue par chaque individu ou chaque ménage pour ses déplacements internes à la zone d'enquête, • le budget-temps (DUREE) donne la durée journalière que chaque individu ou chaque ménage consacre à ses déplacements internes à la zone d'enquête, • la répartition modale permet d'évaluer la part des différents modes (agrégats modaux) de transport dans le budget-distance ; cinq catégories ont été distinguées dans le cas général : o les modes de proximité non polluants (MPROX) : marche à pied et vélo, o les deux roues motorisées (DRM), o les transports en commun (TC) qu'ils soient urbains ou interurbains, o les modes de type « voiture conducteur » (VPC) : voitures, véhicules utilitaires comme conducteur et taxis, o les modes passagers (VPP) limités à la voiture en tant que passager. La consommation kilométrique (BET/DIST), calculée à partir du rapport entre le Budget Énergie Transport (BET) et le budget-distance, donne la consommation moyenne d'énergie au kilomètre parcouru ; elle est mesurée en gep/km. 1.4.1.5 Sommation au zonage, représentation géographique des budgets Dès lors qu'elles sont estimées au niveau désagrégé le plus fin des déplacements, consommations et émissions peuvent être sommées au niveau des individus, des ménages qui les regroupent, des zones qui accueillent leur résidence, etc (et de tout autre regroupement, comme certaines analyses par mode, motif, etc que nous avons déjà pratiquées dans un passé récent). La sommation peut donc être rapportée sans difficulté au niveau des zones, communes ou regroupements de communes de résidence, permettant une représentation géographique (ou cartographie) détaillée. NB : il s'agit bien de rapporter les quantités consommées et émises aux seules zones d'habitation des ménages qui se sont déplacés. Concernant spécifiquement le secteur des transports, il faut insister sur le fait que cette répartition géographique ne correspond pas à la réelle répartition des émissions dans l'espace (qui dans d'autres contextes s'avère utile, par Diagnostic Environnemental de la Mobilité 2006 36 exemple pour passer des émissions aux concentrations, ou dans le calcul d'exposition des populations aux émissions plus "locales")41. Il importe également de préciser à ce stade deux autres types de limitation notables, que l'usage des EMD, source statistique pourtant incontournable, impose à la cartographie des consommations et émissions liée à la mobilité des résidents : • le périmètre d'enquête (ou zone géographique; ici l'arrondissement de Lille) est malheureusement indépassable, et généralement fixe dans le temps, d'une enquête à l'autre, alors qu'il est pourtant bien rare que ce périmètre englobe l'ensemble de la zone périurbaine sur laquelle "l'étalement" se développe au cours du temps ; • la taille des échantillons des EMD (de l'ordre de quelques milliers d'observations de ménages, certes choisies avec un plan de sondage minutieux, mais censées représenter des centaines de milliers ou des millions de ménages) débouche en outre immanquablement sur une bien faible représentativité de ces observations au niveau spatial le plus fin pour la représentativité des flux entre zones d'origines et de destinations. Un paradoxe est donc attaché à la notion de "finesse" attendue du zonage auquel on rapporte ces émissions pour obtenir leur représentation cartographique (en un mot, plus le zonage est fin et moins les résultats sont représentatifs; et réciproquement, moins il est fin et plus les résultats sont fiables et robustes). Un compromis est obligatoirement nécessaire sur la taille des zones - regroupant souvent plusieurs communes - afin de concilier les objectifs de "finesse" espérée et de "robustesse" souhaitable des résultats 1.4.2 Du DEED classique au bilan élargi Rappelons également que dans le cadre du « DEED classique » l'EMD ne nous permet d'estimer les impacts environnementaux que pour les déplacements journaliers dont on connaît ou reconstitue la longueur, c'est à dire que pour celles des mobilités quotidiennes des résidents qui sont internes au périmètre de l'enquête. En un mot, le DEED42, comme l'enquête-ménages, n'est initialement centré que sur les déplacements voyageurs internes. Il apparaît pourtant souhaitable de pouvoir compléter cette estimation environnementale par la prise en compte exhaustive de toutes les catégories de trafics en présence. Comme précisé dans la plaquette de premiers résultats de l'EMD : « Il faut remarquer que l'EMD ne permet pas de connaître le trafic de transit et d'échange venant de l'extérieur de la métropole ni le trafic de marchandises qui représentent environ 30% du trafic total sur la métropole lilloise. L'enquête « cordon » prévue en 2007 donnera ces informations », [LMCU, 2006]. 41 Ce n'est qu'au prix d'un travail bien plus important que la méthode des DEED, couplée avec le module de plus court chemin d'un modèle d'affectation de trafic peut permettre de rapporter les émissions aux zones traversées par les déplacements. Mais tel n'est pas notre sujet. 42 bilan sur le territoires et analyses désagrégées des mobilités et de leurs impacts environnementaux, en fonction de leurs différents déterminants, en tenant compte des évolutions technologiques et des évolutions de comportements. Diagnostic Environnemental de la Mobilité 2006 37 Formellement, un diagnostic environnement de la mobilité global doit viser l'estimation globale des quantités de gaz à effet se serre (GES), ou de CO2 , émises par le secteur des transports dans une région urbaine. Il nécessite a priori de prendre en compte : • l'ensemble des déplacements réalisés par les membres des ménages y résident (que ces déplacements soient ou non réalisés au sein de la région urbaine de résidence), qu'ils le soient dans les espaces du quotidien, ou sur de plus longues distances, en week-end, en vacances, etc.; • l'ensemble des déplacements d'autres personnes y séjournant ou traversant cette même zone urbaine; • mais aussi les transports de marchandises (locaux ou en transit), de déchets, ainsi que les déplacements engendrés par différents services (de santé, de police, etc.) dans cette zone. La partie 2 ci-après détaille sources, méthodes et résultats de cet exercice de diagnostic élargi à l'ensemble des trafics (échange, transit, marchandises43, par tous les modes et pas seulement routiers) qui concernent LMCU. Dans toute la suite, nous dénommerons « Diagnostic Environnemental de la Mobilité » (DEM) ce « DEED élargi » qui offre une photographie de la situation des déplacements et de leurs impacts environnementaux sur le territoire communautaire. 43 Livraisons de marchandises en ville, échange et transit des poids lourds. Diagnostic Environnemental de la Mobilité 2006 38 2 Bilan environnemental global des transports Rappelons en introduction que le DEED dit « interne » ne calcule que les consommations énergétiques et émissions de polluants liées aux déplacements internes des résidents du périmètre communautaire. Il ne donne donc qu'une vision partielle des émissions des transports sur le territoire. Les résultats de ce DEED interne - analyses détaillées en fonction des principaux déterminants de la mobilité- seront décrits dans la troisième partie. Le bilan environnemental global vise à donner une vision complète en étendant le calcul à l'ensemble des trafics concernant le territoire de la communauté urbaine de Lille. Contrairement au DEED « interne », sa seule vocation est d'établir les poids respectifs des différents modes ou types de trafic dans les émissions totales et de mesurer leur évolution dans le temps, non d'analyser les différents déterminants de la formation de la dépense énergétique et des émissions des transports. Formellement, ce bilan global, qui n'a pas encore fait l'objet d'une standardisation méthodologique comme le DEED « interne », se construit en 4 étapes : " Recensement des trafics à prendre en compte ; " Recueil des données de trafic ; " Recherche des facteurs d'émission ; " Calcul des consommations énergétiques et émissions polluantes. Les différents paragraphes de cette partie suivent ce schéma. 2.1 Trafics pris en compte Le tableau suivant recense les différents trafics pris en compte dans le calcul global des consommations et émissions polluantes du transport sur le territoire communautaire. Il distingue notamment : # le type de transport : voyageurs ou marchandises ; # la catégorie de déplacements : interne, échange ou transit ; o trafic interne : origine et destination dans le périmètre d'étude; o trafic d'échange : depuis le périmètre vers l'extérieur ou depuis l'extérieur vers le périmètre ; o trafic de transit : déplacement traversant le périmètre sans s'y arrêter. # le mode de transport : voiture particulière, deux-roues motorisés, modes de transports collectifs pour les voyageurs ; route, fer et voie d'eau pour les marchandises. Le tableau reprend aussi la source de la donnée mobilisée ainsi que l'unité dans laquelle elle s'exprime : Diagnostic Environnemental de la Mobilité 2006 39 Type de transport Catégorie de déplacements Interne Voyageurs Échange Transit Interne Marchandises Échange Transit Mode de transport Source utilisée Unité VP résidents Enquête déplacements Véhicules*km VP non résidents Enquête déplacements Véhicules*km VP non recensés Modèle de trafic Véhicules*km Autres modes Enquête déplacements Voyageurs*km VP Enquête cordon Véhicules*km Train Horaires SNCF Véhicules*km Car Enquête cordon Véhicules*km VP Enquête cordon Véhicules*km Train Horaires SNCF Véhicules*km Car Enquête cordon Véhicules*km Routier PL Modèle Freturb Véhicules*km Routier VUL Modèle Freturb Véhicules*km Ferroviaire Compte marchandises Tonnes*km Fluvial Compte marchandises Tonnes*km Routier PL Enquête cordon Véhicules*km Routier VUL Enquête déplacements Véhicules*km Ferroviaire Compte marchandises Tonnes*km Fluvial Compte marchandises Tonnes*km Routier PL Enquête cordon Véhicules*km Routier VUL Enquête déplacements Véhicules*km Ferroviaire Compte marchandises Fluvial Compte marchandises Tableau 6 : sources de données mobilisées Tonnes*km Tonnes*km VP : Voiture Particulière PL : Poids Lourd VUL : Véhicule Utilitaire Léger Les sources de données peuvent être hétérogènes, à la fois concernant le mode de recueil, l'unité dans laquelle elles se présentent ainsi que l'année de collecte. Le paragraphe suivant détaille les données recueillies et méthodes employées pour homogénéiser ces données. Diagnostic Environnemental de la Mobilité 2006 40 2.2 Les données de trafic 2.2.1 Déplacements de voyageurs 2.2.1.1 Voiture particulière Les déplacements internes des résidents sont recensés par l'enquête ménages déplacements. Les non résidents de l'aire d'étude peuvent effectuer aussi des déplacements internes. Leur volume et les distances parcourues sont estimés par deux moyens : # déplacements VP des non résidents : estimation d'un ratio de déplacements internes réalisés par les non résidents grâce à l'enquête grand territoire qui recense les déplacements des résidents de l'aire métropolitaine lilloise élargie aux territoires frontaliers belges de Flandre et de Wallonie. Trois déplacements d'échange entrants des non résidents génèrent un déplacement interne, ce déplacement ayant une longueur moyenne de 6 km ; le trafic total généré par ces déplacements est d'environ 500 000 km en 2006. # déplacements VP non recensés : certains déplacements ne sont pas recensés dans l'enquête déplacements. Il s'agit essentiellement des : o déplacements de marchandises o déplacements de tournée des professionnels (taxis par exemple) o La modélisation des déplacements permet d'estimer l'écart entre le trafic généré par les déplacements recensés dans l'enquête et le trafic total à partir de comptages routiers notamment. Ce coefficient est d'1,19. Lorsque l'on soustrait de ce total les déplacements non recensés mais calculés par ailleurs (marchandises par le modèle FRETURB et interne des non résidents par l'enquête grands territoires), le coefficient de calage des déplacements non recensés est de 6,7% Le trafic routier des voyageurs non recensé s'élève donc à environ 650 000 km en 2006. Les déplacements d'échange et de transit, qu'ils soient réalisés ou non par des résidents, sont estimés grâce aux enquêtes cordons de 1998 et 2007. Ces enquêtes permettent d'estimer, aux points d'entrée et de sortie du périmètre d'étude, les origines et destinations des trafics d'échange et de transit des voitures et poids lourds en circulation. Elles portent sur un jour moyen ouvrable représentatif de semaine (mardi ou jeudi) hors ponts et vacances scolaires. Les résultats poste par poste permettent de constituer des matrices origine/destination de ces déplacements. L'utilisation d'un modèle d'affectation permet de répartir le trafic d'échange et de transit sur le réseau routier modélisé de l'agglomération et de reconstituer ainsi des itinéraires, et donc des distances, proches de la réalité. Le logiciel utilisé sur l'agglomération lilloise est EMME/2. Il permet une sortie de résultats en unité véhicule*km, produit des trafics sur chaque section du réseau par la longueur du tronçon. Diagnostic Environnemental de la Mobilité 2006 41 Une autre approche, moins précise, consisterait à évaluer la distance moyenne d'un déplacement d'échange et de transit et de les multiplier par le nombre de déplacements interceptés aux points d'enquêtes. Redressement des données d'enquêtes cordon : Les enquêtes cordon n'interceptent pas la totalité des trafics, car un certain nombre de voiries secondaires ne sont pas enquêtées, essentiellement pour des raisons de coût. Ce trafic a pu être estimé grâce à des données de comptages automatiques à 7% du trafic enquêté. Par ailleurs, le périmètre de l'enquête (arrondissement de Lille) correspond à un territoire supérieur à celui de la communauté urbaine de Lille. Une partie du trafic d'échange et de transit relativement à l'arrondissement a du être reclassée relativement à la communauté urbaine. Les résultats tiennent compte de cet écart. 2.2.1.2 Train Les trafics voyageurs de train sont estimés sur la base du CD des horaires disponible auprès de la SNCF. Le CD fournit l'exhaustivité des services de trains voyageurs sur une période de 6 mois. La période choisie est celle du 10 décembre 2006 au 7 juillet 2007. La donnée fournie est donc la distance parcourue par les trains voyageurs sur le territoire de la communauté urbaine de Lille, selon deux croisements : • le type de déplacement : interne, échange ou transit. Un train s'arrêtant à Lille Europe sans que cette gare ne soit son terminus est compté en échange, la donnée passager par passager n'étant pas accessible ; • le type de train : TER, grandes lignes (Corail, ) ou grande vitesse (TGV, Eurostar, Thalys). Les tableaux de résultats, en JMA et en JMO, sont les suivants : Trafics JMA TGV/Eurostar/Thalys Grandes lignes/Corail TER TOTAL Échange 1 855 391 5 985 8 231 Transit 1 380 44 0 1 424 Trafics JMO TGV/Eurostar/Thalys Grandes lignes/Corail TER TOTAL Échange 1 947 390 6 928 9 265 Transit 1 505 46 1 1 552 Tableau 7 : trains*kilomètres (voyageurs) réalisés dans LMCU (JMA et JMO) Source : SNCF – CD des horaires 2.2.1.3 Car Cette catégorie exclut les lignes régulières dont les déplacements sont déjà comptabilisés dans le DEED « interne ». Il s'agit donc de comptabiliser les distances parcourues par les cars de tourisme, cars scolaires (ex : déplacements de visites ), etc. La source utilisée est l'enquête cordon, qui fournit des comptages de cars sur l'ensemble des points d'enquête. Les points retenus sont ceux situés sur le réseau autoroutier, de manière à Diagnostic Environnemental de la Mobilité 2006 42 exclure les cars de lignes régulières, et en faisant l'hypothèse que ce type de déplacements utilise très majoritairement le réseau primaire autoroutier. Une distance forfaitaire de parcours sur le territoire communautaire est ensuite retenue. Cette valeur, de 15 km, correspond approximativement au rayon de la communauté urbaine, moyennant ainsi des déplacements plus courts et d'autres plus longs incluant des arrêts et des trajets non directs. Un car en transit, compté en 2 points, sera donc comptabilisé pour 30 km. La répartition entre l'échange et le transit est elle aussi forfaitaire, faute de données plus précises. Elle est fixée à 80 % d'échange et 20 % de transit. Par comparaison, la même répartition concernant le trafic des véhicules particuliers est de 90% / 10%. Il est donc supposé que la part de transit des cars de tourisme dans l'agglomération est supérieure à celle des voitures. Les résultats sont les suivants : o distances parcourues par les cars en échange (JMO) : 6 264 km o distances parcourues par les cars en transit (JMO) : 1 566 km 2.2.2 Transport de marchandises 2.2.2.1 Mode routier Deux sources sont utilisées pour le mode routier, selon que le trafic considéré soit interne ou externe : Trafic interne Le fret routier lié à la logistique urbaine a été estimé en 2000 par le modèle « Freturb ». Freturb est un modèle de simulation de transport de marchandises en ville dont le modèle de génération s'appuie sur des ratios de livraison/enlèvement par catégorie d'emploi. Le modèle a été calé grâce à de nombreuses enquêtes auprès des établissements générant du transport de marchandises. Les données fournies en sortie permettent une distinction entre 3 types de véhicules : ! Véhicules Utilitaires Légers (VUL) ; ! Poids Lourds (PL) porteurs constitués d'un véhicule sans remorque ; ! Poids Lourds (PL) articulés constitués d'un véhicule tracteur et d'une ou plusieurs remorques. Le modèle est construit à partir de données dont l'année de référence est 2000. Une actualisation aux années 1998 et 2006 est donc nécessaire. La variable emploi, explicatrice de la génération de fret urbain, a été utilisée. Le site de l'INSEE fournit par zone d'emploi, l'emploi total selon 5 grandes catégories depuis l'année 1998. A partir des résultats du modèle de 2000, des ratios de mouvements de marchandises par catégorie d'emploi ont été recalculés et affectés ensuite aux emplois des années 1998 et 2006. Cette méthode permet d'estimer une hausse entre 1998 et 2000 de 2% du trafic de marchandises, et une nouvelle hausse de 2% entre 2000 et 2006. Diagnostic Environnemental de la Mobilité 2006 43 Le tableau ci-dessous reprend les éléments de calcul et hypothèses effectués. Emploi 1998 Emploi 2000 Emploi 2006 Ratios de mouvements par semaine Mouvements 1998 par semaine Mouvements 2000 par semaine Mouvements 2006 par semaine Évolution 1998/2000 Évolution 2006/2000 Agriculture 2 579 2 417 2 818 Industrie 75 116 72 606 55 935 Construc. 20 117 20 849 24 102 Commerce 69 461 70 939 74 262 Services 278 871 287 604 309 485 Total 446 144 454 415 466 602 0.1 1 1 4.2 0.5 / 258 75 116 20 117 291 736 139 436 526 663 242 72 606 20 849 297 944 143 802 535 443 282 55 935 24 102 311 900 154 743 546 962 7% 17% 3% -23% -4% 16% -2% 5% -3% 8% -2% 2% Tableau 8 : mouvements de marchandises internes LMCU par grands secteurs Source : modèle FRETURB Trafic externe Ce trafic, qui inclut l'échange et le transit, est estimé, comme pour les véhicules légers, par l'enquête cordon et une affectation de matrices sur le réseau modélisé de l'agglomération lilloise. 2.2.2.2 Mode ferroviaire Les données utilisées pour le transport ferroviaire de marchandises sont issues d'une étude datant de 2000 intitulée « compte marchandises » et portant sur le territoire de l'arrondissement territorial de Lille. Cette étude, à laquelle le lecteur pourra se référer, fournit la répartition du trafic de marchandises par le mode ferré selon les 3 types de trafic : interne, échange et transit. Les résultats sont les suivants : " Trafic interne : 658 tonnes*km " Trafic d'échange : 213 051 tonnes*km " Trafic de transit : 1 789 310 tonnes*km Compte tenu de la difficulté de mobiliser des données plus récentes et du poids de ce mode dans les émissions totales, le travail d'actualisation de la donnée n'a pas été réalisé. 2.2.2.3 Mode fluvial Le compte marchandises fournit les mêmes indicateurs de trafic que pour le mode ferroviaire : " Trafic interne : 6 093 tonnes*km " Trafic d'échange : 246 164 tonnes*km " Trafic de transit : 255 664 tonnes*km Comme pour le trafic ferroviaire, les valeurs 1998 et 2006 n'ont pas été calculées, la valeur du compte marchandises a été affectée à ces deux années de référence. Diagnostic Environnemental de la Mobilité 2006 44 2.2.3 Transport aérien Les données de transport aérien détaillées ne sont pas connues. La DGAC, qui a mené une étude de calcul des émissions du cycle LTO (Landing and TakeOff), nous a fourni le nombre total de mouvements commerciaux : o 1998 : 20 058 mouvements o 2006 : 16 935 mouvements Diagnostic Environnemental de la Mobilité 2006 45 2.3 Les facteurs d'émission Le mode de calcul des consommations énergétiques et émissions polluantes diffère largement dans le DEED dit « interne » et le reste des trafics pris compte. L'approche sur le DEED interne est très fine, le calcul effectué déplacement par déplacement selon les caractéristiques du véhicule utilisé (année de mise en circulation, type de motorisation et puissance fiscale) et du déplacement effectué (mode, vitesse, distance). Pour les autres trafics, le calcul se fait par l'usage de facteurs d'émissions agrégés qui ne tiennent pas compte d'autant de variables. En ce sens, la méthode se rapproche de celle du bilan carbone TM de l'ADEME. Comme le paragraphe précédent, celui-ci sera décomposé en déplacements de voyageurs et transport de marchandises. 2.3.1 Déplacements de voyageurs 2.3.1.1 Voiture particulière Le calcul pour la voiture particulière utilise des sources issues de la méthodologie COPERT 3 croisées avec des données issue de la modélisation du trafic de l'agglomération lilloise. Le principe est d'utiliser les résultats du DEED dit « interne », détaillé dans la partie 3 du rapport, en faisant appel à une clé de passage pour convertir des facteurs d'émission du trafic interne en facteurs d'émission des trafics d'échange et de transit. Cette clé est construite à partir du logiciel IMPACT_DEED utilisé dans la construction du DEED « interne ». Ce logiciel fournit des données de consommation énergétique et d'émissions polluantes selon 5 caractéristiques : • trois liées au véhicule : année de mise en circulation, type d'énergie, puissance fiscale. Lorsque l'une des données est manquante le logiciel fait appel à des caractéristiques moyennes du parc national l'année considérée ; • deux liées au déplacement : vitesse et distance. La distance permet notamment de prendre en compte les surconsommations et surémissions à froid du véhicule. Ce sont ces deux dernières caractéristiques que l'on fait varier pour estimer le rapport entre les émissions des trafics internes, d'échange et de transit. En l'absence de données précises de parcs de véhicules, on fait l'hypothèse que les parcs de ces différents trafics ne sont pas suffisamment différents pour que cela joue de façon importante sur les facteurs d'émission. La vitesse moyenne des différents trafics est estimée par le modèle de trafic de l'agglomération lilloise. • Interne : 38 km/h • Echange : 55 km/h • Transit : 76 km/h La distance de prise en compte de surémission du moteur froid est de 4 km. Sur un déplacement interne de distance moyenne 5,7 km, cette distance est de 3 km, de nombreux déplacements étant inférieurs à 4 km. Pour l'échange, environ un déplacement sur deux a son origine dans la communauté urbaine de Lille, la distance moyenne parcourue à froid est donc de 2 km. Pour le transit, elle est négligeable. Diagnostic Environnemental de la Mobilité 2006 46 Ces hypothèses étant prises, le logiciel IMPACT_DEED fournit les coefficients de passages entre les facteurs d'émission relatifs au trafic interne et ceux relatifs au trafic d'échange d'une part et les facteurs d'émission relatifs au trafic interne et ceux relatifs au trafic de transit d'autre part, repris dans le tableau ci-dessous : Passage Interne/Echange Conso CO NOX COV PM CO2 EqCO2 0,74 0,39 0,78 0,47 0,54 0,75 0,74 Passage Interne/Transit 0,63 0,12 0,71 0,17 0,46 0,64 0,64 Tableau 9 : coefficients de passage des facteurs d'émission (interne, échange, transit) Source :CETE-Inrets Les facteurs d'émission du trafic interne sont estimés en retenant le facteur d'émission moyen calculé dans le DEED « interne ». En utilisant les coefficients de passage ci-dessus, on obtient, pour les trois catégories de trafic en 1998 et 2006 les facteurs d'émission suivants : Conso CO NOX PS COV (gep) (g) (g) (g) (g) Trafic interne 1998 80 13,6 1,0 0,08 1,4 Trafic d'échange 1998 59 5,3 0,8 0,04 0,8 Trafic de transit 1998 50 1,6 0,7 0,01 0,7 Trafic interne 2006 73 4,8 0,6 0,06 0,5 Trafic d'échange 2006 54 1,9 0,5 0,03 0,3 Trafic de transit 2006 46 0,6 0,4 0,01 0,2 Tableau 10 : facteurs d'émission par type de trafic CO2 (g) 224 168 143 205 154 131 EqCO2 (g) 234 173 149 216 160 138 Source : calcul CETE-Inrets 2.3.1.2 Train Les facteurs d'émission du transport ferroviaire de voyageurs ont été estimés grâce aux données récupérées sur le matériel roulant utilisé par la SNCF pour différents types de trafic (régional, grandes lignes et grande vitesse) : Facteur d'émission (g éq.CO2/km) TGV/Eurostar/Thalys 193 Grandes lignes/Corail 385 TER 612 Tableau 11 : facteur d'émission des trains Source : SNCF 2.3.1.3 Car Le facteur d'émission du car est issu du tableur de facteurs d'émission agrégés de COPERT 3. Ce tableur fournit pour l'ensemble des polluants de l'air et la consommation énergétique des facteurs kilométriques. Ils sont disponibles de 5 ans en 5 ans entre 1970 et 2025. L'année de référence choisie est 2005 pour les données de l'enquête cordon 2007. Les facteurs d'émission agrégés distinguent le type de route selon 3 catégories : ! urbaine ; Diagnostic Environnemental de la Mobilité 2006 47 ! routière ; ! autoroutière. Le modèle de trafic permet d'estimer la part du trafic externe de voyageurs réalisé sur ces différents réseaux. Il se répartit en 75% autoroutes et 25% urbain. Le facteur d'émission global est donc calculé par une combinaison linéaire de ces facteurs d'émission. Le tableau suivant liste par polluant le facteur retenu : Facteurs d'émission du car Conso CO NOX COV PM CO2 EqCO2 244 1,5 5,3 3,5 0,14 753 764 2.3.1.4 Transport aérien La DGAC nous a transmis les résultats d'une étude portant sur les 50 principaux aéroports français. Les résultats sont disponibles aux deux années de référence du DEM : 1998 et 2006. Le calcul porte ici sur le cycle LTO (Landing and Take-Off) que le schéma suivant résume : Figure 10 : cycle LTO (atterrissage, décollage) Source : DGAC Le calcul est désagrégé, pour chaque polluant, par type d'avion, et pour chaque phase du cycle. Le paragraphe 2.4 présente quelques grands résultats de cette étude et les comparent aux autres trafics pris en compte dans le DEM. 2.3.2 Transport de marchandises 2.3.2.1 Mode routier Les facteurs d'émissions du transport routier de marchandises sont calculés à partir de données de COPERT 3. Toutefois, un certain nombre d'opérations intermédiaires sont nécessaires pour faire correspondre les facteurs d'émission de COPERT 3 avec les données de transport mobilisables par les différentes enquêtes (cordon pour le trafic externe, freturb pour le trafic interne). Pour rappel, les enquêtes fournissent des kilomètres parcourus par 4 types de véhicules : • VUL ; • PL porteur ; Diagnostic Environnemental de la Mobilité 2006 48 • PL articulés ; • PL trains routiers ; COPERT 3 fournit des facteurs d'émissions agrégés selon 5 types de véhicules : • VUL ; • PL de PTAC 3,5 t à 7,5 t ; • PL de PTAC 7,5 t à 16 t ; • PL de PTAC 16 t à 32 t ; • PL de PTAC supérieur à 32 t. Une correspondance entre les 2 nomenclatures s'est donc avérée nécessaire. Elle a été construite à la fois à dire d'experts, selon la connaissance des différents types de poids lourds et en s'appuyant sur des données fournies par l'enquête TRM (Transport Routier de Marchandises) de 2006. Le tableau suivant présente les combinaisons linéaires retenues : Porteur Articulé (urbain) Semiremorque 0% Train routier VUL 9% 0% 0% PTAC 3,5 t à 7,5 t 17 % 0% 0% 0% PTAC 7,5 t à 16 t 51 % 0% 70 % 0% PTAC 16 t à 32 t 23 % 80 % 25 % 0% PTAC > 32 t 0% 20 % 5% 100 % Tableau 12 : table de correspondance des nomenclatures de type de véhicules de transport de marchandises routiers Source : calcul CETE-Inrets à partir de l'enquête TRM Un deuxième niveau d'agrégation est nécessaire, car les facteurs d'émissions agrégés sont disponibles selon 3 types de réseaux : urbain, routier et autoroutier. Diagnostic Environnemental de la Mobilité 2006 49 Une correspondance est donc à construire entre les types de trafic (interne, échange, transit) et les types de réseaux. Le modèle de trafic de l'agglomération nous a permis de répartir le trafic d'échange selon ces 3 catégories de circulation. Les trafics internes et de transit sont affectés par simplification totalement à des circulations respectivement urbaine et autoroutière : Interne Échange Transit Urbain 100 % 11 % 0% Routier 0% 15 % 0% Autoroutier 0% 74 % 100% Tableau 13 : table de correspondance type de trafic – type de réseaux Source : calcul CETE Inrets Ces deux niveaux d'agrégation permettent de définir les facteurs d'émission, polluant par polluant, pour chaque type de véhicule selon le type de trafic : Conso CO (gep/km) (g/km) VUL 121 1.9 Interne Porteur 250 4.0 Articulé 408 4.3 VUL 104 1.4 Porteur 175 1.9 Échange Articulé 211 2.1 Train routier 326 2.0 VUL 108 1.3 Porteur 168 1.6 Transit Articulé 199 1.7 Train routier 297 1.6 FE 1995 NOX (g/km) 3.0 9.6 17.5 1.8 5.0 6.2 11.9 1.7 4.3 5.3 10.1 COV (g/km) 0.3 2.5 2.6 1.3 3.6 4.4 7.9 1.7 4.3 5.3 10.1 PM (g/km) 0.48 0.92 1.23 0.27 0.27 0.33 0.71 0.15 0.14 0.17 0.33 CO2 (g/km) 375 767 1263 318 535 644 995 329 510 607 901 EqCO2 (g/km) 381 778 1276 324 544 654 1006 335 520 617 912 Conso CO NOX COV PM CO2 EqCO2 (gep/km) (g/km) (g/km) (g/km) (g/km) (g/km) (g/km) VUL 113 1.0 1.7 0.3 0.21 352 358 Interne Porteur 249 2.0 5.0 1.6 0.41 772 782 Articulé 408 1.9 7.1 1.2 0.35 1274 1285 VUL 96 0.8 1.3 1.0 0.12 295 301 Porteur 174 1.1 2.9 2.2 0.12 538 548 Échange Articulé 211 1.2 3.6 2.7 0.14 651 661 Train routier 326 1.1 5.5 3.7 0.21 1009 1019 VUL 99 0.8 1.3 1.3 0.09 305 311 Porteur 167 0.9 2.6 2.6 0.06 514 524 Transit Articulé 199 1.0 3.1 3.1 0.07 615 625 Train routier 297 1.0 4.7 4.7 0.10 918 928 Tableau 14 : facteurs d'émissions des véhicules de transport routier de marchandises FE 2005 Source : calcul CETE-Inrets Diagnostic Environnemental de la Mobilité 2006 50 Notons que l'équivalent CO2 n'est pas directement accessible dans le tableau des facteurs d'émission. Il est à recalculer de la même façon que pour le DEED des déplacements internes, par la prise en compte de trois gaz (dioxyde de carbone – CO2, méthane – CH4 et protoxyde d'azote – N2O) et de leurs pouvoirs de réchauffement globaux respectifs (cf. 1.3.1.3) : EqCO2 = CO2 + 21 * CH4 + 310 * N2O 2.3.2.2 Mode ferroviaire Le transport ferré de marchandises représente 14% du trafic total de marchandises (tonnes*km) en 1998 pour descendre à 13% en 2006. La démarche du DEED élargi est d'intégrer dans le bilan énergétique et environnemental de la LMCU des trafics ferrés de marchandises bien que la quasi-totalité du volume de marchandises, soit 82% en 1998 et 84% en 2006, soit transportée par la route. Les facteurs déterminants du bilan pour le transport ferré de marchandises sont le type d'alimentation énergétique (diesel ou électrique, et dans ce dernier cas, la source de la production d'électricité qui alimente le réseau), la charge (ici train entier ou wagons). Nous avons pris les facteurs d'émission et de consommation énergétique qui ont été harmonisés en termes de charge (retour à vide compris) avec d'autres modes de transport de marchandises. C'est pourquoi nous avons retenu les indicateurs définis par l'étude menée pour le compte de l'ADEME en 2002 par le cabinet EXPLICIT. Trains entier électrique Trains entier diesel Total trains entiers Transport combiné électrique Transport combiné diesel Total transport combiné Wagons isolés électriques Wagons isolés diesel Total Wagons isolés Conso unitaire gep / t*km 3.20 13.84 4.68 4.52 14.08 4.65 6.28 25.45 8.71 émission unitaire CO2 g / t*km 43.44 6.07 44.21 0.60 79.87 10.12 Tableau 15 : facteurs d'émissions et de consommation unitaires par type de train Source : cabinet EXPLICIT pour ADEME 2.3.2.3 Mode fluvial Le transport fluvial en Nord-Picardie est plus que modeste, ne représentant que 2% du trafic total (transit et échange compris) de marchandises (en tonnes*km) de la région en 1998 et 3% en 2006. Pour disposer d'un bilan environnemental complet des activités du transport sur la LMCU, il faut inclure les consommations d'énergie et les émissions d'éq-CO2 de ces flux même marginaux. Les différentes études sur les consommations sur les différents modes de transport se limitent à l'évaluation de l'impact en termes d'émissions de GES et de consommation de carburants, et n'incluent pas les émissions de polluants locaux. C'est pourquoi nous avons du nous limiter à la consommation énergétique et aux facteurs d'émission éq-CO2 pour le DEED élargi. Diagnostic Environnemental de la Mobilité 2006 51 Trois facteurs sont déterminants pour le bilan environnemental du secteur fluvial : le type de carburant (fuel)44, les caractéristiques technologiques des véhicules et le taux de charge. L'ADEME a commandé en 2006 une étude synthétisant les différentes méthodes permettant de dresser le bilan environnemental et énergétique du secteur fluvial. La comparaison des différentes méthodologies devant permettre de s'entendre sur les facteurs d'émission à utiliser pour des comparaisons en termes de consommation énergétique et d'émissions de GES avec d'autres modes de transport de marchandises. Les différentes études menées par Enerdata et Explicit ont essayé d'établir des comparatifs d'une part entre les facteurs d'émissions de GES et d'autre par les niveaux d'émission de GES entre les différents modes de transport de marchandises, notamment pour le transport sur moyenne et longue distance. La méthodologie pour établir le bilan du mode fluvial a consisté dans les deux cas à récolter des collectes de données pour des trajets en conditions réelles (incluant par conséquent une part du trajet à vide) sur différents bassins. Les données collectées dans le cadre du projet d'études EXPLICIT résultent de face à face avec les opérationnels du secteur fluvial et par conséquent permettent de définir des facteurs d'émissions en conditions réelles. De part la spécificité de la collecte des données, l'étude EXPLICIT offre des informations sur le secteur fluvial plus variées et plus nombreuses que celle fournies notamment par Enerdata ou Eurostat, en ce qui concerne les bassins de circulation et les bateaux considérés. Finalement, compte tenu de la faible part de ce trafic dans le bilan global, nous avons retenu les facteurs d'émission moyens fournis par l'étude explicit : 11 ,96 gep/t*km pour la consommation énergétique et 37,68 g-éq.CO2/t*km pour les émissions de GES. REFERENCES • EXPLICIT-ADEME, Evaluations des efficacités énergétiques et environnementales des modes de transports, 2000. • EXPLICIT-ADEME, Actualisation des efficacités énergétiques et environnementales des modes de transports, décembre 2002. (Etude réalisée par le cabinet d'études EXPLICIT pour l'ADEME régionale de Picardie). • EXPLICIT, Etude du bilan énergétique et des émissions polluantes dues aux transports en Aquitaine-Année de référence 2005, Décembre 2008, (Etude réalisée pour le compte de la DRE Aquitaine) • ENERDATA, Efficacité énergétique des modes de transports, 2002. (Etude réalisé pour le Ministère du développement durable-MEEDAAT). • ADEME, Etude sur le niveau de consommation de carburant des unités fluviales françaises, Janvier 2006 (Etude réalisé par TL§Associés). • ADEME, Efficacités énergétique et environnementale des modes de transportSynthèse publique, Janvier 2008 (Etude réalisé pour le compte de l'ADEME par DELOITTE, Coordination technique Eric Vidalenc). 44 Les différents types de carburant utilisés par les différents modes de transport ont des pouvoirs énergétiques différents et leur combustion se traduit par des volumes d'émissions de gaz à effet et d'émissions locaux de serre différents. Diagnostic Environnemental de la Mobilité 2006 52 2.4 Résultats globaux Les résultats complets, décomposés par type de transport (voyageurs/marchandises), type de trafic (interne/échange/transit) et mode de transport sont annexés au présent rapport. Cette partie reprend les résultats importants, en valeur absolue et en évolution : Conso. CO2 EqCO2 CO NOX COV PM (tep) (t) (t) (t) (t) (t) (t) 1 448 4 090 4 237 164 25.0 24.4 1.83 1998 1 482 4 258 4 430 62 16.2 10.8 1.18 2006 Tableau 16 : consommations et émission journalières en 1998 et 2006 Source : calcul CETE-Inrets Evolution 2006/1998 des consomations énergétiques et émissions polluantes du transport (LMCU) 10% +2% +4% +5% CO2 GES 0% -10% Consommation énergétique CO NOx COV PM -20% -30% -35% -40% -36% -50% -56% -60% -62% -70% Figure 11 : évolution 1998-2006 des émissions et consommations Source : calcul CETE-Inrets Les évolutions sont très marquées selon le type de polluant : Les émissions de gaz à effet de serre et la consommation énergétique sont en légère hausse sur les 8 dernières années, de respectivement +5% et +2%. Ce résultat confirme la part de plus en plus importante des émissions de gaz à effet de serre du secteur des transports. Au niveau national et régional, les résultats vont dans le même sens. Pour rappel, les émissions de GES du secteur des transports représentent 26% du total national en 2005, et leur valeur est en hausse de 22% entre 1990 et 2005 (+27% en Nord-Pasde-Calais), dans un contexte de baisse de 5% du total des émissions françaises. En estimant par interpolation les émissions totales de GES en 1990 des transports sur le périmètre communautaire, on constate une croissance de ces émissions de 45% entre 1990 et 2006. Diagnostic Environnemental de la Mobilité 2006 53 Les polluants locaux sont tous orientés au contraire à la baisse : de –35% pour les NOx à -62% pour le monoxyde de carbone. 2.5 Poids des différents postes Le bilan est fortement contrasté par type de transport : 1998 2006 Évolution 98-06 Total 4 237 4 430 5% Voyageurs (t-éqCO2) 3 159 3 128 -1% Marchandises (t-éqCO2) 1 077 1 302 21% Tableau 17 : émissions journalières de GES voyageurs et marchandises Source : calcul CETE-Inrets Part des trafics voyageurs/marchandises dans les émissions de GES (LMCU 2006) Evolution 1998-2006 des émisions de GES des trafics voyageurs/marchandises (LMCU 2006) 25% +21% 20% 29% Voyageurs Marchandises 15% 10% 5% +5% -1% 0% 71% -5% Total Voyageurs Marchandises Figure 12 : répartition et évolution des émissions de GES Tous trafics Source : calcul CETE-Inrets Le trafic de voyageurs représente 71% des émissions de GES des transports en 2006. Ces émissions sont stables par rapport à 1998. Le trafic de marchandises, qui représente près de 30% des émissions en 2006, est lui en forte hausse de 26% sur 8 ans. Sa part a donc fortement augmenté dans le bilan global, de 25% en 1998 à 29% en 2006. Diagnostic Environnemental de la Mobilité 2006 54 2.5.1 Déplacements de personnes 2.5.1.1 Répartition par type de trafic Au sein des déplacements de personne, les évolutions sont là aussi fortement contrastées selon le type de trafic considéré : Total voyageurs (t-éqCO2) Voyageurs interne (t-éqCO2) Voyageurs échange (t-éqCO2) Voyageurs transit (t-éqCO2) 1998 3 159 2 515 573 71 2006 3 128 2 334 710 84 Évolution 98-06 -1% -7% +24% +19% Figure 13 : émissions de GES selon le type de trafic - voyageurs Source : calcul CETE-Inrets Répartition par type de trafic des émissions de gaz à effet de serre du transport de voyageurs (LMCU 2006) Evolution 1998-2006 des émisions de GES des différents trafics voyageurs (LMCU 2006) 30% 3% +24% 25% +19% 20% 23% Interne 15% Echange 10% Transit 5% 0% -1% -7% Total voyageurs Voyageurs interne -5% 74% -10% Voyageurs échange Voyageurs transit Figure 14 : répartition et évolution des émissions de GES du transport de voyageurs Source : calcul CETE-Inrets Les émissions de GES des déplacements internes des résidents sont en baisse de 7% entre 1998 et 2006. Ce résultat s'explique par deux phénomènes : " " La stabilisation du trafic interne des résidents LMCU entre 1998 et 2006, pour la 1ère fois observée sur une période entre deux enquêtes déplacements à Lille Les progrès technologiques des véhicules, combinés à un renouvellement du parc Entre 1987 et 1998, les progrès technologiques, déjà observés, n'avaient pu compenser la forte progression du trafic automobile. Les deux autres types de trafic sont toutefois en forte hausse (respectivement +30% et +29% pour l'échange et le transit), ce qui explique une hausse élevée des émissions de GES (respectivement +24% et +19%). La part de ces deux trafics étant minoritaires (26% en 2006), l'évolution globale est stable. Notons toutefois que la part de l'échange dans les émissions passe de 18% en 1998 à 23% en 2006 (hausse de 25% en valeur relative). Diagnostic Environnemental de la Mobilité 2006 55 2.5.1.2 Les modes de transport La voiture représente en 2006 79% des kilomètres parcourus par les voyageurs au sein du périmètre communautaire, part en légère baisse par rapport à 81%. Très majoritaire dans les trafics, elle l'est encore plus dans les émissions polluantes : • 95% des émissions de GES ; • 96% des émissions de CO ; • 92% des émissions de NOx ; • 91% des émissions de COV ; • 94% des émissions de particules. A l'inverse, les transports collectifs représentent 15% des trafics mais seulement 4% des émissions de GES notamment. Les modes doux ont une part modale de 5% (en kilomètres parcourus) et sont totalement non émetteurs. 2.5.2 Transport de marchandises 2.5.2.1 Répartition par type de trafic Pour les marchandises aussi, l'évolution est très différente selon les types de trafic : Total marchandises (t-éqCO2) Marchandises interne (t-éqCO2) Marchandises échange (t-éqCO2) Marchandises transit (t-éqCO2) 1998 2006 Évolution 98-06 1 077 428 338 311 1 302 439 441 421 +21% +3% +31% +35% Tableau 18 : émissions de GES selon le type de trafic- marchandises Source : calcul CETE-Inrets Répartition par type de trafic des émissions de gaz à effet de serre du transport de marchandises (LMCU 2006) Evolution 1998-2006 des émisions de GES des différents trafics marchandises (LMCU 2006) 40% +35% 35% +31% 30% 32% 34% Interne Echange Transit 25% +21% 20% 15% 10% 5% +3% 0% Total Marchandises Marchandises Marchandises marchandises interne échange transit 34% Figure 15 : répartition et évolution des émissions de GES du transport de marchandises Source : calcul CETE-Inrets Les émissions de GES du transport de marchandises 2006 sont à peu près réparties en 3 tiers égaux, mais ces parts évoluent : Diagnostic Environnemental de la Mobilité 2006 56 Le trafic interne a peu progressé sur la période, les émissions de GES suivent cette tendance (+3%). A l'inverse, les trafics externes de marchandises explosent (+14% pour l'échange PL, +31% pour le transit et triplement du trafic des VUL en échange) et les émissions encore plus (respectivement +31% et +35% pour l'échange et le transit). Les facteurs d'émission kilométriques des PL sont ainsi en légère hausse sur cette période, contrairement à ce qui est observé pour les véhicules particuliers. La part des émissions du trafic externe (échange+transit) augmente donc fortement entre 1998 et 2006, de 60% à 66%. 2.5.2.2 Les modes de transport La prépondérance du mode routier est ici encore plus importante : 84% du trafic en 2006 (en hausse par rapport à 1998 de 2 points), et 97% des émissions de gaz à effet de serre. 2.6 Le transport aérien Les tableaux de résultats des émissions du cycle LTO sont les suivants : Mouvements Consommation (tep) GES (t) NOx (t) CO (t) HC (t) 1998 20 058 2 750 8 764 32 18 2.5 2006 16 935 3 279 10 450 41 24 3.2 Évolution relative -16% 19% 19% 27% 33% 25% Tableau 19 : émissions et consommation du trafic aérien Source : calcul CETE-Inrets d'après DGAC Malgré une forte baisse du trafic commercial (-16% entre 1998 et 2006), toutes les émissions polluantes sont orientées à la hausse : plus modérée pour la consommation énergétique et les GES (+19%), plus marquée pour les polluants locaux (jusqu'à +33% pour le CO). Les évolutions sont donc très différentes de celles constatées pour les trafics routiers notamment (baisse des polluants locaux, légère hausse des GES). Le tableau suivant met les émissions du transport aérien de passagers au regard de celles des autres trafics pris en compte dans le DEM (tous modes terrestres et fluvial pour les passagers et marchandises) : 1998 Consommation énergétique 0.6% CO2 0.7% EqCO2 0.7% Diagnostic Environnemental de la Mobilité 2006 2006 0.7% 0.8% 0.8% 57 NOx CO HC 0.4% 0.0% 0.0% 0.8% 0.1% 0.1% Tableau 20 : part du trafic aérien dans les émissions et consommation Source : calcul CETE-Inrets d'après DGAC La part du transport aérien ne dépasse jamais 1%. Toutefois, la part de ce transport est en légère hausse pour les GES (de 0,7% en 1998 à 0,8% en 2006) mais double pour les NOx par exemple (0,4% à 0,8%). Diagnostic Environnemental de la Mobilité 2006 58 3 Les déplacements des résidents (DEED interne) Les analyses de cette troisième partie portent spécifiquement sur la mobilité interne au périmètre communautaire des résidents, telle qu'elle a pu être observée lors des enquêtes ménages déplacements successives de 1987, 1998 et 2006. Elles constituent le DEED dit « interne » ou « classique » et succèdent aux résultats publiés dans [Gallez, 1996] et [Quételard, 2002]. La consommation énergétique et les émissions polluantes de chaque déplacement recensé dans l'EMD45 ont ici été (ré-)estimées de façon totalement homogène en utilisant la méthode « stabilisée » par le logiciel de l'ADEME, DEED interfacé IMPACT46. C'est pourquoi les estimations présentées sur les EMD précédentes peuvent légèrement différer de celles qui avaient été publiées en 1996 et 2002 dans les travaux antérieurs. Le changement de périmètre d'étude (arrondissement dans les travaux antérieurs, communauté urbaine de Lille aujourd'hui) est aussi à l'origine des écarts que l'on pourra constater entre l'ancienne et la présente étude. Le premier chapitre établit le bilan global à l'échelle du périmètre communautaire, les bilans unitaires par déplacement et par kilomètre avec un zoom particulier sur la voiture particulière. Le second chapitre s'intéresse aux caractéristiques « physiques » des déplacements euxmêmes (mode, motifs, tranches horaires, distances et vitesses), le troisième aux déterminants socio-économiques et démographiques de la mobilité quotidienne (structure et revenus des ménages, position dans le cycle de vie, catégorie sociale et niveau d'instruction des individus). Enfin, le quatrième chapitre, centré sur les déterminants géographiques, met en évidence le rôle des structures urbaines dans la formation de la consommation énergétique et des émissions polluantes des transports des individus au quotidien. 3.1 Bilan global 3.1.1 Bilan global Récapitulons tout d'abord, à titre de cadrage général, la part que représente ce DEED interne dans le diagnostic environnement global (DEM) de 2006, présenté dans la partie précédente : - en tenant compte de tous les types de trafics recensés, les mobilités de voyageurs sont responsables de 87,5% de l'ensemble de près de 17,2 M véh*km (seule unité permettant de comparer les trafics voyageurs et marchandises) parcourus sur le territoire communautaire ; - ce trafic de 15 M véh*km correspond en fait à 24,3 M voy*km, dont 68% (16,57 M voy*km) sont composés de déplacements internes, c'est à dire dont l'origine et la destination sont incluses dans le territoire LMCU ; 45 La dernière édition de 2006 et en rétropolant les deux dernières de 1998 et 1987. C'est à dire en utilisant le modèle d'émissions copert3, comme cela nous était imposé. On ne s'étonnera donc pas, dans ces conditions, que les estimations des consommations et émissions des déplacements diffèrent des deux études précédentes sus-mentionnées. En amont de ces impacts, il faut également souligner que les nombres de déplacements, de kilomètres parcourues et d'heures passées diffèrent également, puisque l'étude et l'enquête précédentes portaient sur tout l'arrondissement de Lille, alors que l'actuelle (à partir de l'ED 2006 et en restreignant les EMD précédentes) ne porte que sur le territoire de la seule communauté 46 Diagnostic Environnemental de la Mobilité 2006 59 - le paragraphe 2.2.1.1 nous a également montré qu'une petite part (1,14 M, soit 6,9%, évalués grâce à l'enquête grand territoire et à la modélisation) de ce trafic interne peut être le fait de non résidents ou de déplacements non recensés dans l'EMD ; - in fine, le nombre de voyageurs*kilomètres considérés dans le DEED interne s'élève à 15,43 M voy*km (soit 63,4% de l'ensemble des trafics voyageurs internes recensés dans le DEM 2006) ; on note que ces 15,43 M de km parcourus sont générés par 3,84 M déplacements recueillis dans la dernière EMD, qui représentent la mobilité quotidienne interne des résidents de LMCU. Cette Enquête Déplacements de 2006 a mis en évidence, pour la première fois depuis les années soixante-dix, une baisse de la mobilité (en nombre de déplacements)47, se traduisant par une quasi stabilité du trafic automobile (+0,6% en kilomètres) des résidents de la communauté urbaine de Lille entre les deux dernière enquêtes à l'intérieur du territoire communautaire, [LMCU, 2008]. Le bilan global du DEED (cf. tableau ci-dessous) indique quelles sont les conséquences de ce trafic stabilisé en termes d'impacts énergie-émissions ; son estimation pour les trois années d'enquête permet également de rendre compte des évolutions observées. DEED LMCU : le diagnostic territorial de la mobilité interne des résidents Bilan DEED LMCU Déplacements (M) Distance (M km) Durée (M heures) %Dist modes doux %Dist 2R motorisés %Dist VP passager %Dist VP conducteur %Dist TC Vitesse Consommation (TEP) Émission CO2 (t) Émission EqCO2 (t) Émission CO (t) Émission COV (t) Émission NOx (t) Émission PS (t) 1987 3,38 11,83 0,78 9% 1% 19% 56% 13% 15,2 679 1644 1686 267 25,6 13,2 0,29 1998 4,04 15,34 0,97 7% 1% 19% 59% 13% 15,8 779 2170 2268 128 14,5 10,5 0,86 2006 3,84 15,43 1,23 8% 1% 16% 58% 17% 12,6 707 1982 2088 45 4,9 6,3 0,60 1998/1987 2006/1998 2006/1987 +19,4% -4,9% +13,5% +29,6% +0,6% +30,4% +24,8% +26,2% +57,4% +1,2% +4,0% +5,3% -27,6% +5,0% -24,0% +30,0% -16,4% +8,6% +36,2% -0,6% +35,4% +25,9% +31,2% +65,1% +3,9% -20,3% -17,2% +14,7% -9,2% +4,1% +32,0% -8,7% +20,6% +34,5% -7,9% +23,8% -52,2% -64,4% -83,0% -43,5% -66,2% -80,9% -20,3% -40,3% -52,4% +201,3% -29,7% +111,7% Tableau 21 : DEED LMCU : le diagnostic territorial de la mobilité interne des résidents Source : estimation CETE-INRETS, logiciel DEED sur les EMD 1987, 1998 et 2006 Concernant la mobilité interne des résidents à l'échelle de l'ensemble du territoire, on observe des évolutions nettement contrastées selon les deux périodes (1987-1998 et 19982006) : - un léger recul (-5%) du nombre de déplacements, après une forte croissance en première période (près de 20%), se traduisant également par un coup d'arrêt à la forte croissance des budgets-distances enregistrée lors de la première période ; - en ce qui concerne les distances parcourues (cf. annexe statistique n°5), on note un ralentissement de la croissance de la longueur moyenne des déplacements : 8,6% sur la première période, 5,7% sur la seconde ; 47 3,76 déplacements par personne et par jour en 2006, contre 4,00 en 1998, mais 3,47 en 1987. Voir aussi les totaux en millions dans le tableau du bilan global. Diagnostic Environnemental de la Mobilité 2006 60 - les temps passés dans les transports semblent, quant à eux, toujours en forte augmentation (les 26% de la seconde période succèdent aux 25% de la première) ; des changements assez profonds dans la répartition modale des km parcourus ; la seconde période se caractérise surtout par la très nette progression de la part des TC (+31%, après +26% en première période), puis par une croissance sensible des parts des modes doux (+4%) et des deux roues motorisés (+5%), au détriment du mode voiture particulière, avec une décroissance marquée du mode passager (-16%). Cette évolution des budgets-distances et de leur répartition modale aboutit schématiquement aux évolutions suivantes pour le total du DEED à l'échelle territoriale. Évolutions du DEED Sur l'ensemble des deux décennies 1987-20006, le nombre de déplacements a augmenté de 13,5%, ce qui correspond à un accroissement de 30,4% des distances parcourues48 (dont un accroissement de 35,4% des distances parcourues en voiture conducteur, cf. bilan spécifique VP, §3.1.4). Les évolutions des impacts qui en découlent sont les suivantes : - malgré l'augmentation des voy*km parcourus en voiture, une augmentation de l'énergie consommée pour se déplacer limitée à 4,1%, car la progression la plus notable (+65%) s'observe pour les kilomètres parcourus en transports collectifs ; - tandis que les émissions de CO, de COV et de NOx ont fortement diminué (respectivement de -83%, -81% et -52%), l'émission de CO2 a augmenté de plus de 20%, aboutissant à une augmentation des émissions de GES approchant 24% en eqCO2, et les émissions de particules ont finalement augmenté de plus de 110%, malgré un rattrapage important en seconde période (plus de 200% sur la première période de 1987 à 1998). Pour la seule dernière période 1998-2006, comme déjà mentionné en présentant le DEM (partie 2), la stabilisation du trafic voyageur interne des résidents (+0,6%), à laquelle s'ajoute l'amélioration progressive des rendements des moteurs, entraîne une légère diminution des consommations énergétiques et des émissions : - on observe ainsi -9% d'énergie consommée, - quasiment -8% pour les émissions de GES49, induites par ces déplacements (en évolution sur cette période, on compte en fait -7,9% d'eqCO2, contre -8,7% pour le CO2 seul), - et une forte baisse pour chacune des émissions des polluants locaux (de -30% pour les particules à -65% et -66% pour le CO et les COV, en passant par -40% pour les NOx). De fait, la stabilisation de ce trafic interne a permis, au cours de la dernière période, de profiter à plein des progrès technologiques des motorisations50, comme le montrent également les bilans unitaires par déplacement, par kilomètre et le bilan spécifique de la voiture particulière, dans les paragraphes suivants. Ce DEED dans lequel figurent tous les déplacements internes des résidents appelle enfin deux remarques complémentaires sur l'évolution des caractéristiques de la mobilité. - « De plus en plus seuls en voiture » : du côté des voitures, en rapportant le nombre de kilomètres parcourus en tant que passager à ceux qui sont parcourus en tant que conducteur, on obtient le tableau ci-dessous (grille de lecture : en 1987, pour 100 km 48 A comparer à la stabilité de ce kilométrage sur la dernière période 1998-2006. c'est à dire l'équivalent-CO2 estimé en tenant compte du méthane et du protoxyde d'azote, selon la formule indiquée au §1.2.1. 50 D'ailleurs, le poids toujours largement prédominant du trafic interne (81% en 1998 et 79% en 2006 dans l'ensemble voyageurs) explique la stabilité globale des émissions de GES des déplacements de voyageurs, alors que les trafics d'échange et de transit ont notablement augmenté (cf. partie 2). On rappelle que la valeur de -7% indiquée dans la partie 2 (DEM) pour les GES du trafic interne tient compte du trafic interne non résident. 49 Diagnostic Environnemental de la Mobilité 2006 61 réalisés en tant que conducteur, on compte 33,5 km effectués en tant que passager), recouvrant nécessairement une baisse notable du taux d'occupation des voitures. Qui plus est, le phénomène, d'ailleurs confirmé par la baisse observée du motif « accompagnement », semble s'accélérer au cours du temps, puisque ce ratio baisse de 4,6% au cours de la première période, puis de 15,9% au cours de la seconde. ratio (km pass)/(km cond) 1987 1,34 1998 1,32 2006 1,27 Tableau 22 : taux d'occupation des voitures Sources : EMD LMCU - « Mais prenant le temps de réapprendre la lenteur ? » : du fait des évolutions notables en vingt ans dans la répartition des kilomètres parcourus en fonction de leur mode et de leur vitesse51 (notamment avec : forte baisse des 2 roues motorisés, qui étaient les plus rapides avec 19 km/h, émergence sensible des modes doux, du côté de 4 km/h, poursuite de la forte hausse des TC à environ 11 km/h, au détriment de la voiture) mais aussi de la baisse légère de la vitesse des déplacements réalisés en voiture (en 1987, les déplacement en voiture conducteur étaient effectués à 23,5 km/h en moyenne, ils ne le sont plus qu'à 21,4 km/h en 2006), la vitesse moyenne des déplacements (tous modes) qui avait légèrement progressé de 15,2 à 15,8 km/h en première période, semble avoir baissé de 6% en seconde période, pour s'établir à 14,8 km/h en 200652. Finalement, ce gros plan sur les déplacements internes des résidents présente l'aspect d'un ensemble de moins en moins polluant, mais dont la contribution dans l'ensemble du DEM reste très élevée : - Les moyens de transport utilisés, les distances parcourues53 avec chacun d'entre eux conditionnent les émissions polluantes des déplacements, qui peuvent aussi varier au cours de la journée et notamment avec les motifs de déplacements ; - Mais les pratiques de déplacements, et donc les impacts environnementaux énergieémissions54, sont également étroitement liées à l'âge, au niveau de vie et à la position dans le cycle de vie des individus, ainsi qu'aux localisations résidentielles de leurs ménages. C'est donc en fonction des caractéristiques des déplacements eux-mêmes, puis aussi des caractéristiques socio-économiques, démographiques et géographiques des ménages et des individus qui les composent que ce DEED classique à l'échelle du territoire communautaire sera décliné dans la suite de cette partie du rapport. 3.1.2 Bilan par déplacement Le bilan 2006 par déplacement se présente de la façon suivante. Parcourant 4 km en un peu plus de 19 mn le déplacement moyen a une vitesse de 12,6 km/h. Avec 3,76 déplacements par personne et par jour, nous nous attendons donc à trouver, pour les moyennes individuelles, un 51 cf. §3.1.3 ci-dessous pour l'estimation des vitesses par mode NB : l'estimation de ces vitesses « apparentes » ou « synthétiques » est assez sommaire, puisqu'elle ne repose en effet que sur le rapport, pour chaque déplacement, de la distance totale et de la durée déclarée (souvent avec un arrondi non négligeable). 53 En soulignant notamment que les kilomètres effectués en voiture sont bien évidemment, parmi l'ensemble, ceux dont le poids est le plus déterminant (d'où un paragraphe spécifiquement dédié au diagnostic automobile). 54 ainsi que l'ont aussi déjà montré tous les diagnostics DEED précédemment réalisés 52 Diagnostic Environnemental de la Mobilité 2006 62 budget-distance de l'ordre de 15 km/jour pour un budget-temps qui s'établit désormais à 72 mn/jour (contre un peu plus de 16 km et 60 mn en 1998). Sur le territoire communautaire, la distance moyenne par déplacement était déjà de 3,8 km en 1998, contre 3,5 km en 1987. En moyenne en 2006, ce déplacement consomme à peu près ! de litre de super carburant et émet un peu plus de 500 g de GES. Le paragraphe 3.2.1 indiquera comment ces valeurs moyennes se déclinent en fonction du mode principal du déplacement. Emissions par déplacement Moyenne tous modes Conso. (gep) 184 CO2 (g) 516 EqCO2 (g) 544 Effectif 3 840 364 CO (g) 11,8 Distance (km) Durée (mn) 4,0 19,2 NOX (g) 1,6 COV (g) 1,3 PM (g) 0,16 Tableau 23 : consommation et émissions par déplacement en 2006 Source : estimation CETE-INRETS, logiciel DEED sur les EMD 1987, 1998 et 2006 3.1.3 Bilan par kilomètre Le bilan unitaire (ou au kilomètre) de ces déplacements en fonction de leur mode principal s'établit comme suit. Comme on l'a vu, les évolutions notables de la répartition modale (en km) débouchent immanquablement sur une variation importante de la vitesse moyenne du déplacement « tous modes » d'une EMD à l'autre. Émissions par déplacement VP conducteur VP passager Voiture particulière Deux-roues motorisés Transports collectifs Modes doux Autres modes Moyenne tous modes Émissions par déplacement VP conducteur VP passager Voiture particulière Deux-roues motorisés Transports collectifs Modes doux Autres modes Moyenne tous modes Conso. (gep) 73 0 57 27 16 0 75 46 Effectif 1 574 129 513 725 2 087 854 26 390 358 255 1 345 340 22 525 3 840 364 CO2 (g) 205 0 162 68 40 0 222 128 Distance (km) 5,7 4,7 5,4 5,0 7,3 0,9 6,4 4,0 EqCO2 (g) 216 0 171 72 42 0 227 135 Durée (mn) 19,6 18,2 19,3 15,6 39,0 12,9 69,9 19,2 Vitesse (km/h) 17,4 15,4 16,9 19,1 11,2 4,1 5,5 12,6 CO (g) NOX (g) COV (g) PM (g) 4,8 0,0 3,8 8,6 0,4 0,0 1,0 2,9 0,6 0,0 0,5 0,1 0,2 0,0 1,1 0,4 0,5 0,0 0,4 3,0 0,1 0,0 0,1 0,3 0,06 0,00 0,05 0,00 0,01 0,00 0,10 0,04 Tableau 24 : consommation et émissions par kilomètre selon le mode en 2006 Source : estimation CETE-INRETS, logiciel DEED sur les EMD 1987, 1998 et 2006 En 2006, la dépense énergétique moyenne par déplacement s'élève à 46 gep/km (soit environ 0,061 litres de super au km), mais elle est naturellement bien plus élevée pour les déplacements en voiture conducteur (73 gep ou 0,093 litres) que pour les déplacements en Diagnostic Environnemental de la Mobilité 2006 63 transports collectifs (16 gep ou 0,021 litres), cette dernière étant assez nettement inférieure à celle observée pour les deux-roues motorisés (27 gep ou 0,036 litres)55. L'écart estimé en 2006 entre les modes « voiture conducteur » et « transports collectifs » varie grandement selon les polluants comme le montre le tableau suivant. 2006 VP / TC Conso. (gep) 4,53 CO2 (g) 5,07 EqCO2 (g) 5,19 CO (g) 11,96 NOX (g) COV (g) 3,82 4,97 PM (g) 6,03 Tableau 25 : écart 2006 entre les modes « voiture conducteur » et « transports collectifs » Source : estimation CETE-INRETS, logiciel DEED sur les EMD 1987, 1998 et 2006 - Guide de lecture : 1 km en VP conducteur consomme (resp. émet en eqCO2) 4,53 (resp. 5,19) fois plus que 1 km en TC L'écart est très élevé pour le monoxyde de carbone (12 fois plus pour 1 km VP que pour 1 km TC), puis un peu moins pour les particules (6 fois), de l'ordre de 5 fois pour la consommation, le dioxyde de carbone, les GES et les composés organiques volatiles, et enfin un peu plus faible (mais toujours significativement important) pour les oxydes d'azote avec un peu moins de 4 fois. En considérant les quatre grands agrégats modaux (VP dans son ensemble incluant les modes conducteur et passager, TC, 2R motorisés et modes doux), il faut souligner que les profils d'émissions unitaires par mode sont effectivement très différenciés par polluant, en comparant ci-dessous les deux exemples des émissions kilométriques de GES et de COV (avec une mention particulière pour les COV des deux roues). Emissions de GES par voyageur*km selon le mode de transport (2006) 180 160 140 120 100 80 60 40 20 0 Voiture particulière Deux-roues motorisés Transports collectifs Modes doux Figure 16 : émissions de GES par voyageur*km en 2006 selon le mode Source : estimation CETE-INRETS, logiciel DEED sur les EMD 1987, 1998 et 2006 1 km en 2Roues émet des GES comme 0,42 km en VP ; 1 km en TC émet comme 0,25 km en VP. Au kilomètre parcouru, la voiture est le mode qui émet le plus de GES, puisqu'une voiture parcourant 1 km génère en moyenne 216 g de GES. Rapporté au voyageur * km (c'est à dire à l'individu, et en prenant en compte la présence éventuelle de passagers dans les voitures), la 55 Les valeurs unitaires indiquées dans [Quételard, 2002] étaient respectivement les suivantes : moyenne (50), VP Conducteur (78), TC (25) et deux-roues motorisés (28). Diagnostic Environnemental de la Mobilité 2006 64 valeur reste élevée avec 172 g de GES. En comparaison, l'émission des deux-roues motorisés est de 72g de GES par voyageur*km, et celle des transports collectifs de 42g56. Bien évidemment, au kilomètre comme au bilan total, le mode automobile s'avère de loin le plus énergivore et le plus émetteur, à la fois en termes de GES et de polluants locaux. Il faut cependant noter ici une exception : les deux roues motorisés sont une source très importante d'émissions de composés organiques volatiles. En effet au sein du total DEED 2006, motos, scooters et autres cyclomoteurs contribuent à 8% des émissions de composés organiques volatiles, en dépit d'une très faible part modale (0,7% en nombre de déplacements et 0,9% des distances parcourues). Et, au niveau kilométrique, un voyageur*km effectué en deux-roues motorisés émet en moyenne six fois plus57 de composés organiques volatiles qu'un voyageur*km réalisé en tant que conducteur automobile (alors qu'il émet aussi trois fois moins de GES). Au paragraphe suivant, nous décrivons le bilan spécifique de l'automobile. Emissions de COV par voyageur*km selon le mode de transport (2006) 3.5 3.0 2.5 2.0 1.5 1.0 0.5 0.0 Voiture particulière Deux-roues motorisés Transports collectifs Modes doux Figure 17 : émissions de COV par voyageur*km selon le mode de transport en 2006 Source : estimation CETE-INRETS, logiciel DEED sur les EMD 1987, 1998 et 2006 1 km en 2 Roues motorisé émet 7,5 fois plus de COV qu'1 km en VP ; et 1 km en TC 4 fois moins qu'1 km en VP. 3.1.4 Bilan global de la voiture particulière Les modes routiers demeurent les principaux responsables de l'ensemble des émissions, y compris émissions de GES, liées aux transports en milieu urbain58. C'est également vrai pour le trafic interne de voyageurs, puisque l'essentiel des émissions et consommations provient de la voiture particulière (en tant que conducteur et passager) et les variations observées au cours du temps découlent des évolutions concernant le parc automobile (évolutions de structure et de technologie des motorisations) et son intensité d'usage (kilomètres parcourus par les individus et ménages) : 56 Cette dernière valeur cache de fortes disparités : le métro et le tramway, alimentés par l'énergie électrique, ont des émissions de GES très faibles, alors que l'émission unitaire du bus est de 100g par voyageur*km. 57 Et même de l'ordre de 8 fois plus de COV pour les 2R motorisés que pour le mode automobile considéré globalement, en incluant les passagers. 58 A rajouter si cela ne l'a pas été dans la partie 2 DEM : Pour les voyageurs, comme pour les marchandises, la route est le mode très largement majoritaire. Au total, la voiture (conducteurs et passagers) représente 79% des flux de trafic de voyageurs (voyageurs*km) en 2006, part en légère baisse par rapport à 1998 (81%). Sa contribution aux émissions polluantes est encore plus forte : elle pèse pour 95% des émissions de GES, et pour des parts variant de 91% (composés organiques volatils) à 96% (monoxyde de carbone) pour les émissions de polluants locaux dues aux transports. Diagnostic Environnemental de la Mobilité 2006 65 - les progrès techniques (pot catalytique, filtre à particules) permettent de diminuer les consommations et émissions polluantes unitaires des voitures ; ces progrès ont été largement accélérés par l'instauration et la sévérisation progressive de normes européennes fixant les seuils maximums d'émissions à l'échappement (seuils abaissés tous les 4 ou 5 ans, cf. tableau des normes au §1.1.3); - ces avancées n'avaient pas été suffisantes pour compenser la forte hausse du trafic enregistrée de 1987 à 1998 (augmentation des déplacements, mais aussi allongement des distances parcourues en moyenne par déplacement) ; en revanche, la stabilisation ultérieure du trafic automobile interne de 1998 à 2006 permet de profiter à plein des améliorations technologiques. Les valeurs obtenues pour l'établissement du bilan global (cf. §3.1.1 et annexe statistique) permettent d'ailleurs de précisément rendre compte de ces hausses de trafic. Sur l'ensemble de la période 1987-2006, on note les évolutions suivantes pour les déplacements VP : - pour le mode VP conducteur, les voy*km ont augmenté de 35,4%, alors que le nombre de déplacements n'augmentait « que » de 21,8%, ce qui traduit un allongement de la distance parcourue par déplacement de 11,2% ; pour le mode VP passager, les voy*km ont augmenté de 8,6%, alors que le nombre de déplacements diminuait de 1,5%, d'où un allongement de distance par déplacement de 10,2% ; au total, pour l'ensemble des deux modes conducteur et passager, les voy*km ont augmenté de 28,7%, alors que le nombre de déplacement évoluait avec +15,1%, d'où finalement un allongement de la distance parcourue par déplacement automobile qui s'établit à 11,8%. Les estimations chiffrées des impacts énergie-émissions par déplacement automobile (déplacement VP interne d'un résident, en moyenne) sont les suivantes pour les trois EMD successives. Elles montrent clairement les gros progrès accomplis pour le CO, les NOx et les COV et, à l'opposé, l'effort « encore à réaliser » pour le CO2 et le problème spécifique « particules » posé par le dynamisme de la diésélisation du parc. VP interne 1987 1998 2006 Conso. (gep) 622 722 651 CO2 (g) 1 493 2 014 1 835 EqCO2 (g) 1 532 2 108 1 937 CO (g) 255 122 43 NOX (g) 11,7 9,3 5,7 COV (g) 23,2 13,0 4,2 PM (g) 0,20 0,76 0,56 Tableau 26 : consommations et émissions par déplacement en 1987, 1998 et 2006 Source : estimation CETE-INRETS, logiciel DEED sur les EMD 1987, 1998 et 2006 Toutefois, si la consommation énergétique des déplacements internes en voiture des résidents a baissé entre 1998 et 2006 (-10%, pour une distance équivalente, cf. ci -dessous), elle reste supérieure en 2006 à son niveau de 1987 (+5%), avec 651 grammes-équivalent-pétrole en valeur finale (soit près de 0,88 litre de super). On notera à ce propos que le déplacement moyen réalisé en voiture en tant que conducteur (resp. passager) a une longueur moyenne de 5,7 (resp. 4,7) km en 2006, contre 5,6 (resp. 4,6) km en 1998 et 4,8 (resp. 4,0) km en 1987 : la forte croissance enregistrée entre 1987 et 1998 était, au moins en partie, liée à cet allongement notable des distances, que l'on n'observe plus sur la dernière période. Diagnostic Environnemental de la Mobilité 2006 66 Evolution entre 1987 et 2006 des consommations énergétiques et émissions de CO2 et GES des déplacements VP internes des résidents 150 Consommation énergétique 100 Gaz à effet de serre 50 0 1987 1998 2006 Figure 18 : évolution (1987-2006) des consommations et émissions de GES par déplacement Source : estimation CETE-INRETS, logiciel DEED sur les EMD 1987, 1998 et 2006 Les émissions de gaz à effet de serre suivent la même tendance, avec une augmentation encore plus forte entre 1987 et 1998 (+38%), période durant laquelle les progrès technologiques des moteurs ont porté essentiellement sur les polluants locaux (NOx, COV notamment), en négligeant plutôt le CO259. Evolution entre 1987 et 2006 des émissions de CO, NOx et COV des déplacements VP internes des résidents 150 CO 100 NOx COV 50 0 1987 1998 2006 Figure 19 : évolution (1987-2006) des consommations et émissions de CO, NOx et COV par déplacement Source : estimation CETE-INRETS, logiciel DEED sur les EMD 1987, 1998 et 2006 À l'exception des particules, les émissions de polluants locaux sont, de manière continue, en forte baisse depuis 1987 : - 50% pour les NOx sur 20 ans, et une diminution supérieure à 80% pour le monoxyde de carbone et les composés organiques volatils. A l'inverse, il faut mentionner l'évolution spécifique des émissions de particules de ces déplacements automobiles internes, comme indiqué dans la figure suivante. Après avoir connu une très importante hausse, de près de 300%, entre 1987 et 1998, en raison d'une forte « diésélisation » du parc (cf. § 1.1.3), ces émissions ont en effet diminué d'environ 25%, entre 59 De fait, en valeur numérique, l'émission de GES en g d'eqCO2 était de l'ordre de 2,5 fois la consommation (en gep) en 1987, tandis qu'elle est plutôt de l'ordre de 3 fois cette consommation en 1998 et 2006. Diagnostic Environnemental de la Mobilité 2006 67 1998 et 2006, grâce à l'introduction systématique des filtres à particules, et alors même que la part de diesel dans le parc continuait d'augmenter sur un rythme soutenu60. Evolution entre 1987 et 2006 des émissions de particules des déplacements VP internes des résidents 400 350 300 250 Particules 200 150 100 50 0 1987 1998 2006 Figure 20 : évolution (1987-2006) des émissions de particules par déplacement Source : estimation CETE-INRETS, logiciel DEED sur les EMD 1987, 1998 et 2006 Poids de la voiture dans les émissions de gaz à effet de serre comparé au nombre de déplacements et aux distances parcourues 100% 7% 90% 80% 26% 46% 70% 60% 50% 93% 40% 30% 74% Autres modes 54% 20% Voiture 10% 0% Nombre de déplacements Distances parcourues Emissions de gaz à effet de serre Figure 21 : part de la voiture dans le bilan de la mobilité interne des résidents. Source : estimations CETE-INRETS, logiciel DEED sur EMD 2006 60 Rappel : entre 1987 et 1998, de 10 à 34% (puis à 53% en 2006) de l'ensemble du parc automobile à disposition des ménages au niveau France entière et, à Lille, de 7 à 33% (puis un peu plus de 49% en 2006), cf. §1.1.3. Diagnostic Environnemental de la Mobilité 2006 68 Schématiquement enfin, le poids de la voiture dans l'ensemble du DEED interne 2006 peut être résumé dans la figure suivante : La voiture : elle réalise 54% des déplacements, permet de parcourir 74% des distances (en 55% des temps passés dans les transports), mais contribue de ce fait à 93% des émissions de GES de cette mobilité interne des résidents. Ce constat prend tout son sens lorsqu'on le met en regard de l'impact des modes doux dont la part modale atteint 35% en volume, 8% en distances parcourues et qui sont totalement non polluants. En détaillant ces valeurs de 2006 selon les émissions, la voiture représente : 92% de l'ensemble de la consommation énergétique, et 87% de l'ensemble des COV émis, 90% de l'ensemble des NOx, 93% de l'ensemble du CO2, de l'eqCO2 et des particules et jusqu'à 95% de l'ensemble du CO émis (cf. annexe statistique). On pourra également se reporter au §3.2.5 pour des estimations par tranches de distance. 3.2 Les caractéristiques du déplacement 3.2.1 Le mode de transport Le thème des modes a déjà partiellement été abordé, en évoquant le poids spécifique de l'automobile dans le bilan d'ensemble (§3.1.4), ainsi que dans celui du bilan kilométrique (§3.1.3 avec les émissions unitaires VP, TC et deux roues motorisés). Émissions unitaires, distances parcourues et éventuellement vitesse par mode se combinent pour aboutir à un bilan par mode nettement différencié comme indiqué dans le tableau suivant des valeurs moyennes par déplacement. Émissions par déplacement VP conducteur VP passager Voiture particulière Deux-roues motorisés Transports collectifs Modes doux Autres modes Moyenne tous modes Émissions par déplacement VP conducteur VP passager Voiture particulière Deux-roues motorisés Transports collectifs Modes doux Autres modes Moyenne tous modes Conso. (gep) 413 0 312 134 117 0 483 184 Effectif 1 574 129 513 725 2 087 854 26 390 358 255 1 345 340 22 525 3 840 364 CO2 (g) 1 166 0 879 338 294 0 1 420 516 Distance (km) 5,7 4,7 5,4 5,0 7,3 0,9 6,4 4,0 EqCO2 (g) 1 231 0 928 357 303 0 1 452 544 Durée (mn) 19,6 18,2 19,3 15,6 39,0 12,9 69,9 19,2 Vitesse (km/h) 17,4 15,4 16,9 19,1 11,2 4,1 5,5 12,6 CO (g) NOX (g) COV (g) PM (g) 27,4 0,0 20,7 43,1 2,9 0,0 6,3 11,8 3,6 0,0 2,7 0,6 1,2 0,0 7,2 1,6 2,7 0,0 2,0 14,8 0,7 0,0 1,0 1,3 0,36 0,00 0,27 0,00 0,08 0,00 0,61 0,16 Tableau 27 : consommations et émissions par déplacement en 2006 Source : estimations CETE-INRETS, logiciel DEED sur EMD 2006 Ainsi par exemple, un déplacement effectué au volant d'une voiture (5,7 km) consomme 413 gep (0,55 litres de super) et rejette 1231 g de GES, tandis qu'un déplacement réalisé en transports collectifs (7,3 km) consomme, lui, 117 gep (0,16 litres) et rejette 303 g de GES. Diagnostic Environnemental de la Mobilité 2006 69 3.2.2 Poids des différents modes Le graphique de la fin du paragraphe 3.1 indiquait le poids de la voiture particulière dans ce diagnostic DEED. Les graphiques ci-dessous présentent les estimations analogues pour les transports collectifs, les deux roues motorisés et les modes doux. On peut aisément constater, comparativement à leur importance relative dans la mobilité (en nombre et en distance), que les modes sont très inégaux en matière d'émissions (ici de GES). Poids des TC dans les émissions de gaz à effet de serre comparé au nombre de déplacements et aux distances parcourues 100% 90% 80% 70% 60% 50% 91% 83% 95% 40% Autres modes 30% 20% 10% 0% 9% Nombre de déplacements 17% 5% Distances parcourues Emissions de gaz à effet de serre TC Figure 22 : poids des transports collectifs dans les émissions de GES en 2006 Source : estimations CETE-INRETS, logiciel DEED sur EMD 2006 Poids des modes doux dans les émissions de gaz à effet de serre comparé au nombre de déplacements et aux distances parcourues 100% 90% 80% 70% 65% 60% 92% 50% 100% Autres modes 40% 30% 20% Modes doux 35% 10% 0% Nombre de déplacements 8% 0% Distances parcourues Emissions de gaz à effet de serre Figure 23 : poids des modes doux dans les émissions de GES en 2006 Source : estimations CETE-INRETS, logiciel DEED sur EMD 2006 Ils soulignent le très net avantage des modes de proximité, puis des solutions de transport collectif, par opposition aux modes individuels motorisés, dont les deux roues déjà mentionnés à la fin du §3.1.3. Diagnostic Environnemental de la Mobilité 2006 70 Poids des 2-roues motorisés dans les émissions de composés organiques volatils comparé au nombre de déplacements et aux distances parcourues 100% 90% 80% 70% 60% 99% 50% 99% 92% 40% Autres modes 30% 20% 8% 10% 0.7% 0.9% Nombre de déplacements Distances parcourues 0% 2-roues motorisés Emissions de COV Figure 24 : poids des deux-roues motorisés dans les émissions de COV en 2006 Source : estimations CETE-INRETS, logiciel DEED sur EMD 2006 3.2.3 Poids des motifs Les personnes actives sont évidemment les plus émettrices de GES (cf. §3.3) pour les analyses des budgets individuels. Les déplacements liés au travail sont les principaux générateurs de pollution. Les trajets liés au lieu de travail représentent en effet 20% du total des déplacements réalisés par les résidents de la communauté urbaine de Lille, mais 34 % des distances parcourues et 40% des émissions de gaz à effet de serre, de NOx et de particules. Les déplacements réalisés pour aller travailler sont en effet plus longs que les autres, et plus souvent réalisés en voiture (80% contre 56%). Les déplacements pour les études contribuent dans une moindre mesure aux émissions polluantes. En effet, le motif « études » (de l'école à l'université) représente 14% des déplacements, mais seulement 4% des émissions de GES, en raison de moindres distances parcourues, mais aussi d'un recours important aux modes doux et aux transports collectifs, voire parfois à l'accompagnement. Considérés ensemble, les motifs « travail » et « études » contribuent à 33% des déplacements, 45% des distances, 42% des durées, 44% de l'énergie consommée sur l'ensemble du DEED et 44% des émissions de GES, ainsi que des parts un peu plus variables pour les autres polluants, de 38% (CO) à 46% (NOx). Le motif qui vient directement après est « loisirs/affaires personnelles », avec un petit tiers des déplacements et 29% des distances parcourues, mais aussi un quart de l'énergie consommée et des émissions de GES. Avec tout juste un peu moins d'un cinquième des déplacements, le motif « achat » concourre à 15% des distances parcourues ; sa consommation d'énergie et ses émissions sont aussi du même ordre (15% de l'ensemble). L'accompagnement, qui s'effectue souvent en voiture, est aussi une source importante d'émissions, puisqu'il représente 15% des déplacements, 12% des distances parcourues et 17% des émissions de GES. Au sein de ce motif, c'est l'accompagnement des scolaires qui représente la part la plus notable. Diagnostic Environnemental de la Mobilité 2006 71 Poids des motifs dans les émissions polluantes (2006) 100% 90% 80% 70% 60% 50% 40% 30% 20% 10% 0% Nom bre dé pla . Tra va il Dista nce Etude s Ga z à e ffe t de se rre Acha ts CO NOx COV Loisirs / Affa ire s pe rsonne lle s Pa rticule s Accom pa gne m e nt Figure 25 : poids des motifs dans les émissions en 2006 Source : estimations CETE-INRETS, logiciel DEED sur EMD 2006 3.2.4 Poids des tranches horaires La répartition horaire des émissions de polluants est directement liée à celle du trafic routier : son évolution horaire suit en effet celle des déplacements faits en voiture. Les graphiques cidessous illustrent la répartition horaire de NOx et de GES. Cette répartition horaire permet notamment d'identifier les périodes de fortes émissions, qui précèdent en général les périodes de fortes concentrations des polluants dans l'air. Cette analyse par tranches horaires confirme à nouveau l'impact notable du motif travail, principal constituant des pointes de circulation et donc d'émissions polluantes, en début et fin de journée, comme en atteste l'analyse des NOx, principal marqueur de l'automobile61. La localisation des lieux de travail et d'études par rapport au domicile et aux infrastructures de transport les reliant est donc un levier prépondérant pour agir sur la diminution globale des émissions de gaz à effet de serre. Répartition horaire des émissions de NOx sur la journée (2006) 12% 10% 8% 6% 4% 2% 61 24 h 22 h 20 h 18 h 16 h 14 h 12 h 10 h 8h 6h 4h 2h 0h 0% même sil faut souligner que les mêmes constats subsistent pour les autres polluants locaux. Diagnostic Environnemental de la Mobilité 2006 72 Répartition horaire des émissions de GES sur la journée (2006) 12% 10% 8% 6% 4% 2% 24 h 22 h 20 h 18 h 16 h 14 h 12 h 10 h 8h 6h 4h 2h 0h 0% Figure 26 : répartition horaire des émissions de GES et de NOx en 2006 Source : estimations CETE-INRETS, logiciel DEED sur EMD 2006 Diagnostic Environnemental de la Mobilité 2006 73 3.2.5 Distances et vitesses Outre les caractéristiques des véhicules (âge, puissance et type de carburant), les vitesses de déplacements s'avèrent être un élément déterminant des coefficients d'émissions unitaires, au moins dans le cas des modes automobiles (VP, taxi). Une fois ces coefficients unitaire fixés, c'est la distance du déplacement, comme multiplicateur, permet de déboucher sur les valeurs finales de consommation et d'émissions. Les deux variables 'distance' et 'vitesse' sont donc ici cruciales, au moins pour les consommations et émissions des véhicules particuliers62. Le tableau ci-dessous présente, pour 2006, les consommations et émissions des déplacements en voiture conducteur selon la classe de distance. 2006 Effectif Dist. Durée Vitesse < 2 km 2 à 4 km 4 à 6 km 6 à 8 km 8 à 10 km 10 à 15 km 15 à 20 km > 20 km Ensemble 451 620 383 181 215 630 140 065 106 401 156 721 74 662 45 849 1 574 129 1,3 2,9 4,9 7,0 8,9 12,2 17,2 23,9 5,7 8,5 12,8 17,1 19,4 20,7 25,1 31,7 33,2 16,0 8,9 13,7 17,2 21,5 25,8 29,1 32,5 43,3 21,4 Cons/ km 119 98 85 74 68 63 57 50 73 CO2/ km 329 274 238 208 191 179 162 143 205 CO/ km 12,1 9,3 6,7 4,9 3,7 3,1 2,3 1,6 4,8 COV/ km 1,13 0,90 0,65 0,47 0,36 0,30 0,25 0,18 0,47 NOx/ km 0,80 0,79 0,72 0,63 0,61 0,57 0,57 0,52 0,63 PS/ km 0,111 0,110 0,080 0,066 0,058 0,045 0,040 0,032 0,063 Tableau 28 : consommations et émissions des déplacements en voiture conducteur selon la classe de distance Source : estimations CETE-INRETS, logiciel DEED sur EMD 2006 Ces estimations indiquent clairement qu'émissions et consommations unitaires (i.e. au kilomètre) décroissent fortement avec la longueur du déplacement, cf. aussi graphique ciaprès présentant l'exemple de la consommation énergétique au kilomètre en fonction des tranches de longueur de déplacement. Des décroissances analogues s'observent pour l'ensemble des rejets polluants. Deux raisons peuvent expliquer ces variations : - d'une part le fait que les facteurs d'émissions unitaires décroissent sensiblement avec la vitesse ; - et d'autre part le poids des surconsommations et surémissions à froid pénalisant plus fortement les déplacements courts. 62 Qui plus est, on peut même remarquer que la distance intervient à la fois comme facteur multiplicatif et comme argument (via la vitesse) des fonctions qui déterminent les coefficients unitaires. Diagnostic Environnemental de la Mobilité 2006 74 Figure 27 : consommations unitaires des voitures par tranche de distance Source : estimations CETE-INRETS, logiciel DEED sur EMD 2006 Mais, au delà des ces aspects techniques de la « mise en équation » et de l'estimation, il convient de souligner à quel point l'éloignement puis la vitesse jouent un rôle-clé dans toutes les études de ce type et dans les évolutions des mobilités elles-mêmes (cf. aussi §3.4 sur le rôle des structures urbaines, à propos des distances aux centres, des distances domicile-travail, etc.). Au cours des quinze dernières années du 20e siècle, la diffusion de l'automobile et l'étalement urbain (à la fois dans sa dimension morphologique par accroissement ou expansion de la « tâche » urbaine63 et dans sa dimension fonctionnelle par la distanciation progressive des lieux de résidences et d'emplois64) ont en effet transformé les pratiques de mobilité, qui sont, de ce fait, devenues plus consommatrices et plus polluantes. La raréfaction du modèle "habiter et travailler dans la même commune" a dès lors progressivement conduit à une augmentation sensible des distances parcourues au quotidien, tournant toujours un peu plus les individus vers l'automobile65; et au fur et à mesure que l'usage de modes rapides progresse en part modale (qu'il s'agisse de nombre de déplacements ou de distances parcourues), force est de constater un accroissement global des vitesses, y compris de l'indicateur « vitesse moyenne » de l'ensemble de la mobilité observée. Selon le mode d'aménagement de l'espace, schématiquement dans les cas concentriques et radiaux autour d'un pôle central unique (car le diagnostic est plutôt à nuancer dans les cas multipolaires), les effets de ces deux facteurs se renforcent, ou se compensent dans les DEED : 63 qui peut présenter un aspect notablement différent selon que « la ville » se construit de façon concentrique autour d'un pôle unique ou qu'elle apparaisse d'emblée comme multipolaire, comme c'est ici le cas avec les centre de Lille, de Roubaix et de Tourcoing 64 Les lieux d'habitation et d'emplois peuvent en effet s'écarter ou s'étaler, mais ni toujours aux mêmes rythmes, ni toujours aux mêmes endroits 65 cause et effet à la fois, car c'est bien la voiture qui permet de conquérir l'espace et de progresser en vitesse, tandis qu'elle s'avère de plus en plus incontournable, car sans alternative modale crédible, pertinente ou rentable, au fur et à mesure qu'elle « urbanise » les zones de plus en plus éloignées De fait, plus on réside loin des centres, plus on parcourt de kilomètres, et plus c'est en voiture. Voir aussi le §3.4 sur le rôle des structures urbaines à ce sujet. Diagnostic Environnemental de la Mobilité 2006 75 - - au centre, difficultés de stationnement et de circulation peuvent limiter l'usage de l'automobile, au profit des modes doux, marche et vélo, et de l'usage des transports collectifs ; ici, les surconsommations et surémissions liées à la congestion peuvent souvent être compensées par faibles distances ; en proche banlieue, une offre collective, même importante, ne suffit plus toujours à limiter l'usage de la voiture ; les rocades de contournement concentrent circulations automobiles et congestion ; consommations et émissions unitaires sont maximales ; et au delà, dans les zones périurbaines, l'usage de l'automobile devient massif ; les gains de vitesse, la rareté de la congestion et le moindre impact des départs à froid compensent partiellement l'allongement des distances. 3.3 Déterminants socio-économiques Au delà du bilan global présenté au §3.1, ce sont, conformément à la méthodologie DEED, les budgets individuels66, quantités d'énergie consommée et de polluants émis par individu et par jour en regard des budgets distance et temps, qui, en moyenne et pour différentes catégories de résidents, vont être déclinés dans les paragraphes suivants en fonction des déterminants de leur mobilité quotidienne, au sein de leur espace de résidence, le territoire de LMCU. Au regard de l'estimation issue de l'ED 2006 pour les quelques 890 000 individus n'étant pas sortis du périmètre le jour d'enquête, sont ré-estimés les budgets correspondants aux éditions antérieures de l'enquête ménages déplacements. Les résultats sont les suivants. Budgets individuels moyens Déplacements par jour Budget-distance (km) dont VPC dont TCU dont VPP dont Marche dont Vélo dont 2RM dont autre Budget-temps (mn) Vitesse Consommation (BET en gep) eqCO2 (g) CO (g) COV (g) NOx (g) PS (g) 1987 3,73 12,8 55% 11% 20% 8% 2% 1% 3% 52 14,8 724 1794 287 27,6 14,0 0,29 1998 4,13 15,3 56% 12% 20% 7% 1% 1% 4% 60 15,3 759 2201 130 14,6 10,3 0,81 2006 3,77 15,8 56% 16% 16% 7% 1% 1% 3% 65 14,6 705 2084 47 5,1 6,4 0,61 1998/1987 2006/1998 2006/1987 11% -9% 1% 20% 3% 23% 23% 3% 27% 29% 44% 86% 20% -17% 0% 1% 8% 9% -25% -17% -38% -26% -7% -32% 23% -26% -9% 15% 8% 25% 4% -5% -1% 5% -7% -3% 23% -5% 16% -55% -64% -84% -47% -65% -82% -27% -38% -55% 183% -25% 113% Tableau 29 : budgets individuels moyens pour la mobilité interne des résidents Source : estimations CETE et INRETS, logiciel DEED sur les EMD de 1987, 1998 et 2006 On rappelle que la limitation au périmètre communautaire67, ainsi que l'utilisation de la méthode du logiciel DEED68, ont pour conséquence que ces budgets individuels moyens 66 67 Les BEED, selon leur appellation initiale et non à l'arrondissement Diagnostic Environnemental de la Mobilité 2006 76 diffèrent nécessairement sensiblement de ceux qui avaient été publiés lors des études précédentes en 1996 et 2002. Budgets individuels moyens 2006 : la journée transports d'un habitant de LMCU En 2006, le résident « interne »69 effectue en moyenne 3,77 déplacements par jour, en parcourant près de 16 km en à peine plus d'une heure. Pour réaliser ces déplacements, il a consommé 705 gep (soit 0,94 litres de super) et rejeté des quantités très variables des différents polluants, d'environ 2 kg de CO2 à 0,6 g de particules, en passant par une cinquantaine de g de CO et 5 à 6 g de COV et de NOx. Sous nos hypothèses de calcul, on estime dès lors à 2084 g ses émissions de gaz à effet de serre. Les évolutions de ces budgets au cours des deux périodes appellent les commentaires suivants (plusieurs des remarques qui avaient pu être faites dès la présentation du bilan total au §1 se retrouvent bien évidemment au niveau des budgets quotidiens moyens) : - même si le nombre moyen de déplacements par individu et par jour en 2006 apparaît en retrait par rapport à 1998, il reste légèrement supérieur à celui de 1987 ; - le budget-distance (tous déplacements internes par résident) n'a que peu augmenté sur la dernière période, par rapport au bond 'automobile' qu'il avait pu faire entre 1987 et 199870 ; - parmi ces distances réalisées quotidiennement, c'est la part des transports collectifs qui a le plus augmenté, au détriment des autres (passager et 2 roues notamment) ; - dès lors, en fonction des vitesses moyennes des différents modes71, il n'est pas surprenant que le budget-temps quotidien de transport continue d'augmenter légèrement, tandis que l'indicateur moyen de vitesse72 amorce une décroissance sensible en seconde période, alors que durant la première c'est l'augmentation de la part de la voiture qui l'avait fait croître ; - on retrouve enfin également ici une forte baisse de la distance parcourue au quotidien en tant que passager d'une voiture, confirmant les éléments déjà mentionnés sur la baisse sensible des motifs d'accompagnement ; - les évolutions des impacts énergie-émissions moyens de cette mobilité sont marqués par deux phénomènes essentiels. D'une part, les notables progrès technologiques réalisés sur les moteurs au cours de ces deux décennies aboutissent à une diminution drastique des émissions de polluants nocifs (à l'exception notable des particules, et ayant plutôt négligé le CO2 et les GES). Et d'autre part, l'évolution de la mobilité elle-même, et surtout de sa structure modale avec l'augmentation remarquable de la part des TC, débouche, au prix de temps passés dans les transports légèrement mais significativement supérieurs, sur une diminution sensible de la consommation d'énergie et des émissions de GES. 68 notamment avec les coefficients de copert3 et des hypothèses (départ à froid notamment) définitivement standardisées, qui peuvent différer de celles qui avaient été prises dans les versions successives de l'outil de recherche. 69 C'est à dire qui n'est pas sorti du périmètre communautaire au cours du jour d'enquête. Seuls les personnes de 5 ans ou plus sont prises en compte 70 Pour cette mobilité interne des résidents quine sont pas sortis du périmètre, on note toutefois plutôt une légère croissance du budget-distance que la stabilisation du trafic qui caractérisait l'ensemble 71 de l'ordre de 11 km/h pour les TC, contre 15 à 20 km/h pour l'ensemble des modes automobiles et 2 roues motorisés, cf. §3.2.1 72 le simple ratio du budget-distance sur le budget-temps, en km/h Diagnostic Environnemental de la Mobilité 2006 77 La seconde période montre un réel infléchissement, plutôt prometteur y compris du point de vue de l'effet de serre, au regard de la première qui était marquée par des évolutions très préoccupantes, pour le pas dire catastrophiques pour la mobilité et son bilan environnemental. La suite de ce §3.3 présente les différenciations observables de ces budgets par rapport à la moyenne en fonction des principales caractéristiques individuelles, démographiques et socio-économiques, qui les influencent ou les déterminent. C'est principalement le budget quotidien d'émission de GES (en grammes d'eqCO2) qui sera analysé dans toute la suite de ce chapitre. Rappel : à cause de la forme de l'enquête en 2006, ce sont exclusivement les budgets individuels (et non les budgets ménage) qui sont exploités ici. 3.3.1 Structure des ménages Le niveau des émissions individuelles (gramme éq-CO2 par jour ouvrable) est fortement déterminé par la taille et la structure du ménage : ainsi le passage de 1 à 2 personnes induit une augmentation nette du niveau d'émissions individuelles, avec un saut de plus de 30% du budget-émission de GES, augmentation qui se poursuit avec la présence d'un ou deux enfants dans le ménage. Les personne seules (35% des ménages, mais environ 16% des individus considérés ici) sont souvent des personnes âgées qui se déplacent moins et qui sont peu motorisées. Année 2006 Budget EqCO2 1-Personne seule 1 588 2-Couple sans enfant 2 341 3-Couple 1 ou 2 enfants 2 627 4-Famille nombreuse 1 656 5-Famille mono parentale -3 enfants 1 957 6-Famille mono parentale +2 enfants 1 055 Ensemble 2 084 Tableau 30 : émissions de GES par ménage selon leur type en 2006 Source : estimations CETE-INRETS, logiciel DEED sur EMD 2006 Mais au-delà, lorsque la taille du ménage est supérieure à 5 personnes, la tendance s'inverse. Dans ce dernier cas, on peut parler « d'économies d'échelle » avec un taux d'occupation des véhicules à pleine capacité, mais aussi parce que le recours aux modes doux et aux solutions collectives, notamment des scolaires, fait baisser la moyenne pour aboutir presque mécaniquement à une réduction du budget, qui est ici estimé au niveau de l'individu. On note d'ailleurs qu'en ne considérant que le nombre de personnes, et pas le détail de la structure du ménage, les budgets individuels croissent jusqu'à un maximum pour 3 personnes dans le foyer (correspondant en fait souvent aux couples avec 1 ou 2 enfants), puis décroissent au-delà. Plus d'un cinquième du budget-distance est réalisé en transport collectif dans les familles nombreuses, le record s'établissant à 33% (d'une distance certes un peu faible de 11km) dans les familles monoparentales, souvent moins motorisées, et où les enfants pèsent d'un poids plus important dans les budgets individuels moyens. En évolution, le niveau des émissions a diminué entre 1998 et 2006 mais la répartition reste la même avec l'influence déterminante de la présence des enfants sur les comportements de Diagnostic Environnemental de la Mobilité 2006 78 mobilité et par conséquent sur le niveau de consommation énergétique et d'émissions de gaz à effet de serre. Taille du ménage 1 personne 2 personnes 3 personnes 4 personnes 5 personnes 6 personnes 7 personnes et plus Ensemble 1998 1 674 2 447 2 751 2 367 2 036 1 695 1 002 2 201 2006 1 588 2 317 2 578 2 311 1 879 1 361 1 142 2 084 Tableau 31 : : émissions individuelles de GES selon la taille du ménage en 1998 et 2006 Source : estimations CETE-INRETS, logiciel DEED sur EMD 1998 et 2006 3 000 2 500 2 000 1998 1 500 2006 1 000 500 0 A-UNE PERSONNE B-DEUX PERSONNES C-TROIS PERSONNES D-QUATRE PERSONNES E-CINQ PERSONNES F-SIX PERSONNES G-SEPT Ensemble PERSONNES ET PLUS Figure 28 : émissions individuelles de GES selon la taille du ménage en 1998 et 2006 Source : estimations CETE-INRETS, logiciel DEED sur EMD 1998 et 2006 Outre la taille et la structure du ménage, le taux d'équipement en voitures du ménage (qui lui est d'ailleurs fortement corrélé) détermine pour beaucoup la dépense énergétique et les émissions de l'individu : c'est chez parmi les ménages multi-motorisés que se retrouvent les individus les plus émetteurs, essentiellement car ils parcourent les plus grandes distances journalières tous modes confondus mais également en voiture particulière (71% des distances parcourues par les ménages ayant 3VP et plus le sont en voiture particulière). Le budgetdistance, et sa part voiture, croissent nettement avec le nombre de voitures du ménage (et le kilométrage parcouru en TC suit assez naturellement l'évolution inverse). Diagnostic Environnemental de la Mobilité 2006 79 Voitures à disposition dans le ménage 0 VP 1 VP 2 VP 3 VP et plus (2 VP et plus) Total 0 VP 1 VP 2 VP 3 VP et plus (2 VP et plus) Total Effectifs Effectifs Budget Budget Budget Budget ménages personnes conso EqCO2 CO HC 117 908 169 462 75 183 2 0,6 208 414 381 100 678 2 000 49 5,2 113 802 287 003 1 031 3 068 66 7,1 17 230 52 024 1 164 3 464 70 7,8 131 032 339 028 1 051 3 129 67 7,2 457 353 889 590 705 2 084 47 5,1 Effectifs Effectifs Km Total Km VPC Km VPP Km 2RM ménages personnes 117 908 169 462 8,7 0,1 1,3 0,1 208 414 381 100 14,6 8,2 2,3 0,1 113 802 287 003 20,2 13,7 3,2 0,1 17 230 52 024 23,4 16,4 4,0 0,4 131 032 339 028 20,7 14,1 3,3 0,2 457 353 889 590 15,8 8,9 2,5 0,1 Budget NOx 0,6 5,9 9,6 10,5 9,7 6,4 Km TC 5,1 2,5 2,0 1,9 2,0 2,8 Budget PM 0,04 0,60 0,88 1,06 0,91 0,61 Km MD 2,2 1,3 0,8 0,6 0,8 1,3 Tableau 32 : consommations et émissions individuelles selon la motorisation du ménage en 2006 Source : estimations CETE-INRETS, logiciel DEED sur EMD 2006 Le nombre d'actifs du ménage est également un facteur déterminant du niveau d'émissions, puisque l'activité induit des déplacements pendulaires réguliers et par conséquent un accroissement des budgets temps et distance par rapport à un individu qui n'est pas dans la vie active. Le budget énergie-émissions de la personne active sera par ailleurs fortement influencé par le recours à une voiture particulière ou non pour ses trajets domicile-travail, qui peuvent s'enchaîner avec d'autres déplacements dans la journée sans que le choix modal initial puisse être remis en cause. 3.3.2 Position dans le cycle de vie On sait que les comportements en matière de mobilité sont très liés à l'âge. Les personnes qui émettent le plus de GES appartiennent aux catégories d'âge comprises entre 25 et 64 ans, avec des niveaux d'émission supérieur à 3000 g pour les 25-49 ans, et un maximum de 3650 g pour les 35-49 ans (qui réalisent les " de leurs 21,5 km quotidiens au volant d'une voiture). Les enfants et adolescents de moins de 17 ans ont les plus faibles émissions (parcourant 9 km dont la moitié comme passager en voiture, mais dont aussi 29% en TC) et c'est le passage à 18 ans qui marque le premier saut avec souvent soit l'entrée dans la vie active soit avec un engagement dans une formation dispensée à une plus grande distance que le lycée. On note d'ailleurs qu'en moyenne cet âge qui correspond aussi au passage du permis fait évoluer le kilométrage en voiture conducteur de 0 km avant (jusqu'à 17 ans) à 6,2 km (pour un total de 19,3 km tous modes) pour la tranche 18-24 ans73 73 En notant d'ailleurs que ce km VP conducteur continue de croître jusqu'à son maximum à 50 ans, et ne redescendra sous la valeur de 6,2 km qu'au delà de 65 ans. Diagnostic Environnemental de la Mobilité 2006 80 1-5 à 17 ans 2-18 à 24 ans 3-25 à 34 ans 4-35 à 49 ans 5-50 à 64 ans 6-65 ans et + Ensemble Effectifs personnes 184 064 106 564 144 436 187 236 146 756 120 534 889 590 Budget conso 68 568 1 014 1 225 907 377 705 Budget EqCO2 193 1 641 3 015 3 647 2 674 1 100 2 084 Tableau 33 : consommations et émissions individuelles selon l'âge en 2006 Source : estimations CETE-INRETS, logiciel DEED sur EMD 2006 NB : on rappelle à ce propos [LMCU, 2006] que l'analyse par tranches d'âges de la baisse de la mobilité observée en 2006 résulte d'une modification des comportements des habitants et non pas un effet de l'évolution de la pyramide des âges. Il est nécessaire d'affiner l'analyse en se concentrant sur la position du cycle de vie, qui est définie par un croisement de l'âge, du sexe et de l'occupation principale. Il apparaît clairement que les déterminants sont à rechercher dans l'activité d'une part et dans l'appartenance au genre féminin ou masculin, appartenance qui reflète des caractéristiques de mobilité différentes. 1-Homme 2-Femme 3-Ensemble Effectifs 401 959 487 631 889 590 1-Homme 2-Femme 3-Ensemble Effectifs 401 959 487 631 889 590 Budget conso 832 601 705 Budget EqCO2 2 468 1 767 2 084 Km Total Km VPC 17,5 10,7 14,4 7,4 15,8 8,9 Budget CO 51 43 47 Budget HC 6,0 4,3 5,1 Budget NOx 8,1 5,0 6,4 Budget PM 0,83 0,43 0,61 Km VPP 2,0 3,0 2,5 Km 2RM 0,3 0,0 0,1 Km TC 3,0 2,7 2,8 Km MD 1,2 1,3 1,3 Tableau 34 : consommations et émissions individuelles selon le sexe en 2006 Source : estimations CETE-INRETS, logiciel DEED sur EMD 2006 Les différences de niveau d'émission entre hommes et femmes s'expliquent principalement par les distances parcourues, 21,5% plus longues dans le cas des hommes, et par le choix du mode de transport (voiture particulière plus souvent choisie par les hommes, avec 61% contre 51% des distances réalisées en tant que conducteur, mais en notant que ces parts de distance font quasiment jeu égal si l'on comptabilise avec les km parcourus en tant que passager : 73% chez les hommes, contre 72% chez les femmes). Elles peuvent aussi s'expliquer partiellement par le choix de la voiture, dans les cas des ménages motorisés. En effet, les femmes utilisent le véhicule principal du ménage moins souvent que leur conjoint, véhicule qui est le souvent le plus récent et le moins émetteur et bien souvent elles utilisent un véhicule de type familial pour accompagner les enfants, véhicule lourd et fortement émetteur. Ce facteur est à croiser avec celui de l'activité. L'entrée dans la vie active induit des déplacements plus fréquents, plus longs et mobilisant des moyens de transport plus consommateurs d'énergie et par conséquent plus émetteurs. Diagnostic Environnemental de la Mobilité 2006 81 Position dans le cycle de vie 1-Homme actif 2-Femme active 3-Femme au foyer 4-Scolaire /étudiant <18 5-Scolaire /étudiant >=18 6-Retraites 7-Chômeurs Ensemble 1998 5 044 3 588 1 324 180 1 967 1 252 1 730 2 201 2006 4 451 3 364 1 303 188 1 182 1 334 1 480 2 084 Tableau 35 : émissions de GES selon la position dans le cycle de vie en 1998 et 2006 Source : estimations CETE-INRETS, logiciel DEED sur EMD 1998 et 2006 6 000 5 000 4 000 1998 3 000 2006 2 000 1 000 0 1-Homme actif 2-Femme 3-Femme au 4-Scolaire 5-Scolaire 6-Retraites 7-Chomeurs Ensemble active foyer /etudiant /etudiant <18 >=18 Figure 29 : émissions de GES selon la position dans le cycle de vie en 1998 et 2006 Source : estimations CETE-INRETS, logiciel DEED sur EMD 1998 et 2006 En évolution d'une enquête à l'autre, on note une baisse sensible des émissions pour l'ensemble des catégories, à l'exception des retraités. Toutefois, les actifs sont les plus importants émetteurs de gaz à effet de serre, les hommes arrivant assez nettement devant les femmes (+ 30 %), parce qu'ils parcourent les plus longues distances pour se rendre sur leur lieu de travail et qu'ils utilisent plus la voiture. À l'inverse, les personnes sans activité professionnelle émettent, elles, environ trois fois moins de GES que les actifs. Cela s'explique assez largement par le poids des déplacements domicile-travail dans les émissions polluantes. Les actifs contribuent également de manière importante à l'émission des polluants locaux. Au travers de cet angle d'analyse s'affirme d'une part le poids prépondérant des trajets domicile-travail dans le bilan en termes d'émissions polluantes des individus, et d'autre part le recours notable à la voiture individuelle pour ce type de déplacement. Ce dernier graphique présente les émissions individuelles de GES selon la position dans le cycle de vie en répartissant de façon différente les émissions du mode voiture : le DEED affecte par défaut les émissions en totalité au mode conducteur et rien au mode passager. Cette approche est difficilement applicable au cas des scolaires par exemple qui génèrent des déplacements d'accompagnement en voiture et dont on affecte les pollutions entièrement à l'accompagnant. Diagnostic Environnemental de la Mobilité 2006 82 Le calcul réaffectant au passager la même valeur qu'au conducteur rééquilibre légèrement les émissions individuelles (baisse des actifs et hausse des scolaires), mais les écarts restent importants entre catégories. Emissions individuelles quotidiennes de GES selon la position dans le cycle de vie (en g) 4 000 3 500 3 000 2 500 2 000 1 500 1 000 500 0 Hom m e a ctif Fe m m e a ctive Fe m m e a u Scola ire / foye r Etudia nt <18 a ns Scola ire / Etudia nt >=18 a ns Re tra ité s Chôm e urs Figure 30 : émissions de GES selon la position dans le cycle de vie en 2006 Source : estimations CETE-INRETS, logiciel DEED sur EMD 2006 3.3.3 Catégorie sociale des actifs Au-delà de la position dans le cycle de vie, les comportements de mobilité, et par conséquent les dépenses énergétiques et les émissions afférentes aux déplacements, sont également nettement différenciés selon les catégories socio-professionnelles. PCS 1-Employés 2-Ouvriers 3-Cadres 4-Etudiants 5-Elèves 6-Chômeurs 7-inactifs 8-Autres 1998 2 399 2 401 4 299 2 155 314 949 997 2 116 2006 2 415 2 288 3 793 1 363 373 1 488 695 1 650 Tableau 36 : évolution du budget individuel quotidien d'émission de GES selon la PCS Source : estimations CETE-INRETS, logiciel DEED sur EMD 1998 et 2006 Diagnostic Environnemental de la Mobilité 2006 83 Effectifs Km Total Km VPC Km VPP Km 2RM personnes 217 527 16,3 10,3 2,1 0,1 134 595 14,4 9,2 1,8 0,2 217 527 22,3 17,8 1,5 0,2 48 514 19,2 5,4 2,0 0,0 220 233 10,4 0,6 4,5 0,1 6 477 14,2 5,1 2,3 0,0 37 923 7,8 2,5 2,4 0,0 889 590 15,8 8,9 2,5 0,1 1-Employés 2-Ouvriers 3-Cadres 4-Etudiants 5-Elèves 6-Chômeurs 7-Inactifs Ensemble Effectifs personnes 217 527 134 595 217 527 48 514 220 233 6 477 37 923 889 590 1-Employés 2-Ouvriers 3-Cadres 4-Etudiants 5-Elèves 6-Chômeurs 7-Inactifs Ensemble Budget conso 819 768 1 276 483 131 514 239 705 Budget EqCO2 2 415 2 288 3 793 1 363 373 1 488 695 2 084 Budget CO 61 59 73 36 6 60 19 47 Budget HC 6,2 6,9 7,3 4,2 1,3 7,5 2,0 5,1 Km TC 2,4 1,6 1,8 10,0 3,6 5,7 1,3 2,8 Km MD 1,2 1,2 0,9 1,8 1,5 1,0 1,5 1,3 Budget NOx 7,1 7,6 11,2 4,7 1,3 6,0 1,7 6,4 Budget PM 0,69 0,87 1,03 0,36 0,08 0,86 0,17 0,61 Tableau 37 : budget individuel quotidien des consommations et émissions selon la PCS Source : estimations CETE-INRETS, logiciel DEED sur EMD 2006 Du point de vue du budget-énergie-transport, un cadre consomme 1276 gep (soit 1,7 litres de super) par jour, en parcourant 22,3 km dont 79,5% en tant que conducteur. Par opposition, un ouvrier (resp. un employé) consomme 768 gep, soit 1,02 litres de super (resp. 819 gep ou 1,09 litres) en parcourant au quotidien 14,4 km (resp. 16,3 km) dont 64% (resp. 63%) en voiture conducteur. La tertiarisation des activités économiques dans la région urbaine de Lille se révèle à travers le DEED. Ces activités se sont localisées dans les zones périphériques de la région et ont profité à l'emploi des employés et des cadres. Ce sont les cadres qui émettent le plus de GES et de polluants atmosphériques locaux en raison de leur choix de l'automobile pour leurs déplacements et de budgets-distance plus élevés (cf infra 3.4). Ainsi, malgré une démocratisation de la voiture maintenant avérée, les différences sociales, quoiqu'en léger recul au cours du temps74, restent marquées quant à l'équipement et à l'usage des véhicules motorisés. Toutefois on notera : 74 • Une baisse des émissions entre 1998 et 2006 pour l'ensemble des catégories à l'exception des employés et des chômeurs ; • Pour ces derniers, l'augmentation des émissions polluantes est très importante et marquée en raison d'une mobilité accrue. Un cadre consomme 1,6 fois plus qu'une employé, contre 1,8 fois plus en 1987 Diagnostic Environnemental de la Mobilité 2006 84 5 000 4 500 4 000 3 500 3 000 1998 2 500 2006 2 000 1 500 1 000 500 0 1-Employes 2-Ouvriers 3-Cadres 4-Etudiants 5-Eleves 6-Chomeurs 7-inactifs 8-Autres Ensemble Figure 31 : évolution des budgets individuels quotidiens des consommations et émissions selon la PCS Source : estimations CETE-INRETS, logiciel DEED sur EMD 1998 et 2006 Pour une compréhension plus fine de la corrélation très forte entre niveau d'émission et professions catégories sociales (PCS) - les cadres ayant le niveau le plus élevé d'émissions - il faut croiser la catégorie socio-professionnelle et l'équipement automobile : 1-Employés 2-Ouvriers 3-Cadres 4-Etudiants 5-Elèves 6-Chômeurs 7-Inactifs Ensemble 0 VP 1 VP 2 VP 46 643 21% 35 012 26% 17 714 8% 20 884 43% 32 450 15% 1 953 30% 13 044 34% 169 462 19% 97 536 45% 63 594 47% 94 204 43% 15 641 32% 85 832 39% 3 459 53% 17 579 46% 381 100 43% 63 925 29% 30 159 22% 89 234 41% 8 179 17% 87 178 40% 641 10% 6 216 16% 287 003 32% 3 VP et plus 9 423 4% 5 830 4% 16 374 8% 3 810 8% 14 774 7% 424 7% 1 084 3% 52 024 6% (2 VP et plus) 73 348 34% 35 989 27% 105 609 49% 11 989 25% 101 952 46% 1 065 16% 7 300 19% 339 027 38% Total 217 527 100% 134 595 100% 217 527 100% 48 514 100% 220 233 100% 6 477 100% 37 923 100% 889 590 100% Tableau 38 : budgets individuels quotidiens des consommations et émissions selon la PCS et la motorisation du ménage Source : estimations CETE-INRETS, logiciel DEED sur EMD 2006 L'élément déterminant et le plus explicatif apparaît être non seulement l'accès au véhicule particulier mais surtout la multi-motorisation, les cadres étant la catégorie dont le niveau d'équipement automobile est le plus important. Cette multi-motorisation induit apparemment un recours plus systématique à l'usage de la voiture particulière. Cependant, l'analyse doit être nuancée en fonction de la localité de résidence car la motorisation ne s'explique pas uniquement et de manière réductrice par la PCS, mais également par une « dépendance » accrue à l'automobile dans le cas d'une résidence dans une zone mal desservie entre transports en commun (cf. §3.4). Diagnostic Environnemental de la Mobilité 2006 85 Les résultats de ce budget émission de GES en fonction des PCS et des localisations résidentielles sont les suivants. 1-Lille 1-Employés 2-Ouvriers 3-Cadres 4-Etudiants 5-Elèves 6-Chômeurs 7-Inactifs Ensemble GES 1 308 1 698 2 700 742 380 1 353 147 1 382 Effectif 34 738 13 377 36 220 22 287 28 254 801 4 755 141 248 2-Roubaix Tourcoing GES Effectif 2 135 31 279 1 922 36 098 3 503 25 174 1 511 3 290 211 44 310 2 268 2 245 297 11 553 1 605 155 141 3-Banlieue de Lille GES Effectif 2 380 90 041 2 467 42 273 3 728 91 059 1 499 15 665 413 76 590 1 158 1 363 886 11 875 2 203 331 114 4-Banlieue de Roubaix Tcoing GES Effectif 3 151 42 665 2 412 27 070 4 570 43 099 2 748 5 387 328 46 260 987 1 908 1 345 6 529 2 521 173 689 5-Reste LMCU GES 3 423 2 937 4 669 3 361 618 0 907 2 740 Effectif 18 804 15 777 21 975 1 885 24 819 160 3 211 88 398 Ensemble GES 2 415 2 288 3 793 1 363 373 1 488 695 2 084 Tableau 39 : budgets individuels quotidiens des consommations et émissions selon la PCS et le lieu de résidence Source : estimations CETE-INRETS, logiciel DEED sur EMD 2006 Quelles que soient les PCS considérés, ce sont les résidents de Lille qui ont les niveaux d'émission les plus faibles et les habitants des franges urbaines (banlieue de Lille mais surtout la banlieue de Roubaix-Tourcoing et « reste LMCU ») qui ont les niveaux de pollution les plus élevés. Le facteur de la localisation résidentielle est par conséquent le plus déterminant ; en se concentrant sur une zone particulière cependant, les déterminants sociologiques ou socio-économiques semblent à nouveau jouer à plein leur rôle différenciateur, et l'on retrouve une corrélation positive forte entre niveau d'émission élevé et PCS supérieure (et intensité de l'usage de la voiture). 3.3.4 Niveau d'instruction La relation entre niveau d'études et émissions de gaz à effet de serre est quasiment linéaire : plus les individus sont diplômés, plus ils utilisent la voiture et plus ils participent au changement climatique et à la détérioration de la qualité de l'air. On aurait pu penser que les personnes les plus instruites seraient les plus à même de prendre conscience et de se responsabiliser face aux problématiques environnementales. Ce n'est pas le cas puisqu'en raison d'une forte motorisation et d'un usage important de la voiture, ce sont elles qui consomment et émettent le plus de polluants au cours de leurs déplacements. Emissions individuelles quotidiennes de GES selon le niveau d'études (en g) 4 000 3 500 3 000 2 500 2 000 1 500 1 000 500 0 Pas d'études Primaire Secondaire jusqu'en 3ème Secondaire jusqu'au bac Supérieur Figure 32 : émissions individuelles quotidiens de GES selon le niveau d'études Diagnostic Environnemental de la Mobilité 2006 86 Effectif 217 527 134 595 217 527 48 514 220 233 6 477 37 923 889 590 Source : estimations CETE-INRETS, logiciel DEED sur EMD 2006 Niveau d'études 1-Pas d'études 2-Primaire 3-Secondaire jusqu'en 3eme 4-Secondaire jusqu'au bac 5-Superieur 6-Autre-Indetermine Ensemble 1998 710 1 218 2 418 3 696 4 516 714 2 201 2006 754 945 1 907 2 805 3 798 534 2 084 Tableau 40 : évolution des émissions individuelles quotidiens de GES selon le niveau d'études Source : estimations CETE-INRETS, logiciel DEED sur EMD 1998 et 2006 Comme nous l'avons vu au niveau du bilan DEED global, le niveau des émissions a baissé entre 1998 et 2006. En 2006 comme en 1998 il existe une corrélation positive forte entre budgets distance, consommation énergétique et niveau d'études. Mais pour avoir une vision plus juste de cette corrélation, il faut se concentrer sur la population en âge d'occuper un emploi afin d'exclure les retraités (dont le niveau d'instruction est plus bas que les générations actuelles) et la population susceptible d'être encore en formation. On remarque d'ailleurs que niveau d'études est lui-même très dépendant de l'âge : plus de 40 % des personnes n'ayant pas été scolarisées où s'étant arrêté en primaire ont plus de 60 ans, contre 14 % en moyenne de la population. Ce phénomène devrait donc s'atténuer avec le changement de génération. 1-Pas d'études 2-Primaire 3-Secondaire jusqu'en 3eme 4-Secondaire jusqu'au bac 5-Superieur Ensemble 1-Pas d'études 2-Primaire 3-Secondaire jusqu'en 3eme 4-Secondaire jusqu'au bac 5-Superieur Ensemble Effectifs personnes 4 063 10 252 63 752 78 014 107 870 267 201 Effectifs personnes 4 063 10 252 63 752 78 014 107 870 267 201 Budget conso 280 556 865 1 222 1 463 1 187 Budget EqCO2 841 1 632 2 559 3 641 4 364 3 532 Budget CO 7 41 66 78 79 73 Budget HC 1,7 4,1 7,4 8,5 7,9 7,7 Budget NOx 3,0 4,5 8,8 11,5 12,8 10,9 Km Total Km VPC Km VPP Km 2RM Km TC 16,9 13,2 15,4 21,6 25,3 0,3 3,5 6,0 10,5 15,6 20,6 0,1 8,6 1,9 1,7 1,8 1,6 0,0 0,1 0,0 0,1 0,1 0,3 0,0 3,6 3,4 1,6 2,6 1,9 0,1 Budget PM 0,50 0,50 0,97 1,21 1,25 1,13 Km MD 1,1 1,7 1,2 1,0 0,8 0,0 Tableau 41 : émissions individuelles quotidiens de GES selon le niveau d'études (personnes de 30 à 50 ans) Source : estimations CETE-INRETS, logiciel DEED sur EMD 2006 En se concentrant sur les personnes entre 30 et 50 ans, on peut observer que la consommation énergétique liée aux déplacements augmente fortement avec le niveau d'instruction et la corrélation positive forte entre niveau élevé d'émissions et niveau d'études supérieures est confirmée, et les personnes ayant le plus d'instruction sont les plus émettrices et celle qui ont Diagnostic Environnemental de la Mobilité 2006 87 le comportement le plus polluant (alors que l'on pourrait croire qu'elles sont le plus à même de comprendre les mécanismes et les impacts de la pollution). On notera également qu'il existe indubitablement une corrélation forte entre ce niveau d'instruction et le niveau de revenu, dont l'analyse fait l'objet du paragraphe suivant. 3.3.5 Niveau de revenus La quantité individuelle moyenne de GES émise par jour selon la classe de revenus mensuels par unité de consommation du ménage75 est éloquente. Dans les ménages dont le revenu mensuel par UC est inférieur à 1 000 #, les émissions individuelles moyennes de GES sont de l'ordre de 1700 g. Cette valeur est deux fois plus importante pour les revenus de la tranche 2 000 # à 3 000 #. Au-delà de 3000 #, l'augmentation par rapport à la tranche précédente est moins forte. Comme les personnes ayant fait des études longues sont en général celles disposant des revenus les plus élevés, la convergence des deux analyses n'est guère étonnante. Emissions individuelles quotidiennes de GES selon les revenus du ménage(en g) 4 000 3 500 3 000 2 500 2 000 1 500 1 000 500 0 < 1000 ! 1000 à 2000 ! 2000 à 3000 ! > 3000 ! Figure 33 : émissions individuelles quotidiennes de GES selon les revenus du ménage Source : estimations CETE-INRETS, logiciel DEED sur EMD 2006 Ainsi, ce sont les individus appartenant à un ménage disposant d'un revenu mensuel supérieur à 3 000 euros par unité de consommation qui ont le plus haut niveau d'émissions ; toutefois, il a à noter que ce budget quotidien d'émission de GES a fortement diminué entre 1998 et 2006 pour les individus appartenant à cette catégorie de revenus. Revenu ménage par UC 1-< 1000 # 2-1000 à 2000 # 3-2000 à 3000 # 4-> 3000 # Ensemble 1998 1 913 3 243 3 982 5 539 2 201 2006 1 514 2 726 3 473 3 758 2 084 Tableau 42 : évolution 1998-2006 des émissions individuelles quotidiennes de GES selon les revenus du ménage 75 Système de pondération attribuant un coefficient à chaque membre du ménage et permettant de comparer les niveaux de vie de ménages de tailles ou de compositions différentes. Avec cette pondération, le nombre de personnes est ramené à un nombre d'unités de consommation (UC) (valeurs : 1 UC pour le premier adulte du ménage ; 0,5 UC pour les autres personnes de 14 ans ou plus et 0,3 UC pour les enfants de moins de 14 ans). Diagnostic Environnemental de la Mobilité 2006 88 Source : estimations CETE-INRETS, logiciel DEED sur EMD 1998 et 2006 On notera que les individus appartenant à la classe la plus aisée et la plus émettrice représentent une part marginale de l'ensemble de la population de la LMCU, même si elle est en hausse depuis 1998, traduisant une nette amélioration des niveaux de revenus dans la région : Pourcentage d'individus appartenant à chaque classe de revenus. 1-< 1000 # 2-1000 à 2000 # 3-2000 à 3000 # 4-> 3000 # 1998 58,7% 20,1% 3,3% 0,9% 2006 43,3% 23,2% 6,1% 1,0% Tableau 43 : répartition de la population selon les classes de revenus Source : estimations CETE-INRETS, logiciel DEED sur EMD 1998 et 2006 Le budget environnemental des résidents de la région lilloise est fortement corrélé au niveau de biens, mais cette corrélation est expliquée par le lien entre niveau de revenus et motorisation, mais aussi entre niveau de revenu et comportement de mobilité, ce dernier étant fortement déterminé par l'occupation d'un emploi : 1-< 1000 # 2-1000 à 2000 # 3-2000 à 3000 # 4-> 3000 # Ensemble 1-< 1000 # 2-1000 à 2000 # 3-2000 à 3000 # 4-> 3000 # Ensemble Effectifs personnes 149 496 94 159 28 662 5 188 277 506 Effectifs personnes 149 496 94 159 28 662 5 188 277 506 Budget conso 1 326 1 389 1 523 1 523 1 371 Budget EqCO2 3 950 4 134 4 520 4 502 4 082 Budget CO 86 88 82 62 86 Budget HC 9,3 9,5 8,4 5,4 9,2 Km Total Km VPC Km VPP Km 2RM 23,0 24,8 27,7 26,3 24,1 17,4 19,6 22,2 22,2 18,7 2,0 1,4 2,1 1,9 1,8 0,2 0,3 0,5 0,3 0,3 Budget NOx 12,3 13,0 13,3 11,7 12,6 Km TC 2,1 2,5 1,9 1,1 2,2 Budget PM 1,27 1,14 1,27 1,18 1,23 Km MD 0,8 0,9 0,9 0,7 0,8 Tableau 44 : émissions et consommations individuelles quotidiennes selon le revenu Source : estimations CETE-INRETS, logiciel DEED sur EMD 2006 Le rapport de quantités d'éq-CO2 émises pour une même tranche de revenus entre un individu actif et l'individu moyen varie quasiment dans un rapport de 1 à 2. On retrouve le poids déterminant du facteur travail et des déplacements engendrés par le fait d'être actif dans le budget énergie-environnement des individus. Dans la première catégorie (<1000 euros) pourtant, le rapport est le plus élevé car on y compte de nombreux retraités, qui ont, de manière quasi tautologique, des budgets temps et distances moindres que les actifs. Revenu/UC 1-< 1000 # 2-1000 à 2000 # 3-2000 à 3000 # 4-> 3000 # Actif à temps plein Budget EqCO2 3 950 4 134 4 520 4 502 Diagnostic Environnemental de la Mobilité 2006 Individu moyen Budget EqCO2 1 726 2 726 3 473 3 758 ratio 2,3 1,5 1,3 1,2 89 Ensemble 4 082 2 084 2,0 Tableau 45 : émissions de GES des actifs comparés à la moyenne selon le revenu Source : estimations CETE-INRETS, logiciel DEED sur EMD 2006 Les distances parcourues par les individus, notamment pour les trajets domicile–travail, sont contingentes des structures urbaines, qui seront analysées dans la partie suivante. 3.4 Le rôle des structures urbaines Les impacts environnementaux par déplacement, mais aussi par individu, c'est à dire par sommation dans les budgets individuels, sont aussi fortement dépendants de données géographiques, qu'il s'agisse de la distribution des lieux d'origine et de destination des déplacements, c'est à dire de la distribution des flux, ou aussi de la répartition spatiale des lieux de résidence. Des premières recherches sur les budgets-énergie-transports au début des années 8076 jusqu'aux DEED les plus récents, en passant notamment par les travaux de Newman et Kenworthy au cours des années 9077, nombre de recherches se sont penchées sur le lien entre les localisations résidentielles (et donc l'éloignement par rapport au(x) centre(s), les densités et formes urbaines, types de tissus et types de dessertes, etc.) et la formation de la dépense énergétique consacrée à se déplacer. On peut résumer en quelques points essentiels les résultats sur les déterminants géographiques que l'ensemble de ces travaux ont pu mettre en évidence : - la distance est nécessairement à considérer : alors que c'était un paramètre de la mobilité presque négligé jusqu'à alors78, l'estimation des impacts énergétiques et environnementaux impose de mettre l'accent sur la distance de déplacement (on a déjà vu précédemment le rôle-clé joué par les distances et les vitesses) ; elle joue bien évidemment un rôle fondamental dans la distribution des flux de déplacements entre zones ; - le système des localisations et distances forme un déterminant fort : plus on réside loin du centre79, ou de son emploi, plus on parcourt de kilomètres, et plus c'est en voiture – et bien évidemment, plus on consomme et on émet80 Autrement dit, l'étalement urbain, dans ses deux dimensions mentionnées au §3.2.5, génère des accroissements de consommation et d'émissions. Chaque étude DEED, voire chaque étude de mobilité permet de le vérifier ; - la densité de la zone de résidence est également un facteur déterminant : l'ensemble de ces études l'ont également montré. Les DEED, en particulier, indiquent qu'au sein d'une même région urbaine de résidence, on trouve fréquemment un rapport de 1 à 2 voire de 1 à 3 dans la consommation quotidienne d'énergie entre un résident de la ville-centre et un résident des zones les moins denses (et souvent aussi des périphéries les plus éloignées)81. 76 [IRT et. Al, 1984] et [Orfeuil, 1986], déjà cités §1.3. [Newman, Kenworthy, 1989], également §1.3, sur le rôle capital de la densité d'habitat urbaine dans la formation de la dépense énergétique des transports, dans 32 grandes métropoles du monde. 78 Les mobilités n'étant traditionnellement comptabilisées qu'en nombres de déplacements. 79 Du centre ou des centres, dans le cas des régions urbaines multipolaires 80 et cela entre directement en conflit avec toutes les tentatives, y compris législatives, de modération des trafics automobiles. 81 C'est sur la base d'une EMD, et avec des estimations comparables que ces écarts peuvent être constatés. Il n'en va pas nécessairement de même des recueils qu'avaient effectué Newman et Kentworthy lors de leurs 77 Diagnostic Environnemental de la Mobilité 2006 90 On notera d'ailleurs à ce propos que les effets des deux déterminants « distance au centre » et « densité résidentielle » peuvent être partiellement différents82 Le rôle de ces différents paramètres dans la formation des budgets individuels est détaillé dans les paragraphes ci-après. 3.4.1 Type de liaison, portée des déplacements et poids des types de liaisons Avant de poursuivre l'analyse des budgets individuels selon leurs déterminants spatiaux, revenons un instant à la distribution spatiale de l'ensemble des 3,8 millions de déplacements internes, c'est à dire à la distribution des flux. Fondé sur une logique "centre/1ère couronne/2e couronne" (concentrique, mais avec deux pôles denses), le découpage du territoire en cinq zones, datant de 1996, est celui qui est utilisé comme découpage de "présentation" du Plan de Déplacement Urbains (PDU). Il distingue deux villes centres, Lille et Roubaix-Tourcoing, puis deux banlieues associées, celle de Lille et celle de Roubaix-Tourcoing et enfin le reste du territoire communautaire constitué par les zones les plus périphériques et périurbaines. En fonction de ces différentes zones, le bilan global présenté au §3.1.1 se répartit comme indiqué dans les tableau ci-après qui appelle les remarques suivantes. Ensemble des flux Déplts internes L-L L-BL L-RT L-BRT/RLMCU RT-RT RT-BRT RT-BL/RLMCU BAN-BAN BAN interne Total Effectif déplacements (Millions) 0,54 0,38 0,04 0,07 0,45 0,22 0,09 0,22 1,83 3,84 Distance totale (M km) 0,83 2,24 0,69 1,18 0,78 1,06 1,30 2,62 4,73 15,43 Total EqCO2 (M t) 71 294 69 131 104 188 167 360 703 2086 EqCO2/km (g/km) 85 131 100 111 134 178 128 137 149 135 EqCO2/déplt (g/déplt) 131 779 1589 1748 233 858 1907 1632 384 543 Tableau 46 : émissions de GES selon le type de liaison Source : estimations CETE-INRETS, logiciel DEED sur EMD 2006 Abréviations : L = Lille ; BL = banlieue de Lille ; RT = Roubaix-Tourcoing ; BRT = banlieue de RoubaixTourcoing ; RLMCU = reste du territoire communautaire ; BAN = banlieue ; BAN-BAN = liaison mettant en jeu deux banlieues, par opposition aux échanges de banlieue internes. Avec 1,83 millions de déplacements les échanges internes à une même zone de banlieue représentent près d'un déplacement sur deux (48% de l'effectif total) ; cependant ces déplacements sont courts, puisqu'ils ne constituent « que » 31% des distances parcourues (avec 2,6 km par déplacement); ils sont également responsables de plus d'un tiers (34%) des GES émis, avec une émission unitaire relativement forte (quasiment 150g/km), premiers travaux. C'est d'ailleurs notamment sur le point de la comparabilité d'indicateurs agrégés entre métropoles qu'ils ont été en partie critiqués. 82 On notera que pour différentes raisons (aménités, niveaux et qualité de desserte), ni les deux variables, ni leurs effets, ne sont parfaitement substituables l'un à l'autre : ils sont partiellement corrélés, mais non identiques, comme peut d'ailleurs en attester l'exemple les Villes Nouvelles en Ile-de-France (un précédent DEED a montré qu'à égale distance de Paris, ces communes avaient de bien meilleures performances que leurs voisines, en raison de la densité de résidences et d'emplois et bien évidemment d'une desserte en transports collectifs rapides fortement renforcée). Diagnostic Environnemental de la Mobilité 2006 91 indiquant qu'ils sont souvent réalisés dans des modes peu économes, sans doute par manque d'alternative. On notera également que certains des déplacements sont encore plus émetteurs : pour les échanges entre Roubaix-Tourcoing et sa banlieue (6% de l'effectif, 7% des distances et 9% des GES, pour des déplacements de 4,8 km en moyenne), on atteint la valeur unitaire de 178 g/km de GES pour ces véritables « liaisons dangereuses ». A l'opposé du spectre, les déplacements internes à la ville de Lille (les seconds plus nombreux par ordre d'importance, avec 14% de l'ensemble), sont également courts (5% de l'ensemble et 1,5 km en moyenne), mais visiblement réalisés dans des modes moins énergivores et émetteurs, puisqu'ils comptent pour 3% de l'ensemble de l'eqCO2 émis et sont caractérisés par une émission unitaire de 85g/km (et une émission de 131g/déplacement en moyenne). Viennent ensuite : - les échanges internes à Roubaix-Tourcoing : 12% des effectifs, 5% des distances parcourues et des GES émis : d'une portée moyenne de 1,7km, ils émettent 134g d'eqCO2 par km ; - et les échanges entre Lille et sa banlieue, avec des ordres de grandeurs du même ordre : 10% de l'effectif total et 131g d'eqCO2 au kilomètre ; pour ces derniers, on notera cependant une contribution nettement plus importantes à l'ensemble des km parcours (15%) et à l'émission de GES (14%), liée à une portée significativement différente de près de 6 km par déplacement. Il convient enfin de souligner le rôle particulier joué par les « longs » déplacements, même si leurs effectifs sont peu nombreux : de Lille à Roubaix-Tourcoing, ou à sa banlieue, mais aussi au reste du territoire de la communauté, comme de Roubaix-Tourcoing à la banlieue de Lille ou au reste de la communauté (5% de l'effectif total pour ces trois liaisons), la portée moyenne des déplacements est de l'ordre de 15 à 16 km. Dès lors, ils représentent 20% de l'ensemble des distances parcourues, mais « seulement » 17% de l'ensemble des GES émis. Leurs émissions unitaires de GES (respectivement 100, 111 et 128 g/km) apparaissent comme relativement faibles par rapport à d'autres, sans doute à cause de la longueur même des déplacements : alors que certains sont sans doute ( ?) réalisés en TC, les autres sont effectués en voiture, mais avec un dizaine de kilomètres parcourus moteur chaud. Les liaisons vues du côté de leur longueur De fait, d'une manière générale, il convient de remarquer que la répartition des flux est très contrastée en termes de portée des déplacements (tous déplacements internes du bilan DEED classique) et d'émission de GES (et donc de choix modal) : - 28% de ces déplacements ont une portée de moins de 1 km ; parmi ceux-là, près de 6 sur 10 sont des échanges à l'intérieur d'une même banlieue et près d'un sur 4 est interne à la ville-centre de Lille ; c'est en banlieue et en interne à Roubaix-Tourcoing que les émissions unitaires de GES sont ici les plus élevées avec 75 à 82g/km ; par grandes masses cependant, ce sont les liaisons internes de banlieues qui concentrent 68% de l'eqCO2 total ; - 46% des déplacements ont une portée comprise entre 1 et 5 km ; un sur deux est interne à une banlieue (avec 53% de l'eqCO2 total) et trois sur dix sont internes aux villes centre (respectivement 16% pour Lille et 14% pour Roubaix-Tourcoing, mais seulement 21% de la masse totale de GES émise) ; les émissions unitaires de GES maximales sont atteintes Diagnostic Environnemental de la Mobilité 2006 92 entre Roubaix-Tourcoing et soit Lille (248g/km) soit la banlieue de Roubaix-Tourcoing (201g/km) ; - 15% des déplacements ont une portée comprise entre 5 et 10 km ; un tiers d'entre eux sont des échanges internes d'une banlieue, tandis qu'un autre tiers est constitué de liaison entre Lille et sa banlieue ; les émissions unitaires maximales sont ici atteintes sur les mêmes OD, avec respectivement 196 et 175g/km ; en masse totale, les liaisons entre Lille et sa banlieue (28% des GES) font presque jeu égal avec les liaisons internes de banlieue (33%) ; - 11% enfin ont une portée supérieure à 10 km ; ce sont ici les échanges entre banlieues qui deviennent majoritaires (27% non internes et 18% internes en nombre de déplacements, et 31% en masse de GES émise) avec des émissions unitaires de GES de l'ordre de 130 à 135g/km (mais celles des flux de Lille ou de ceux qui joignent Roubaix-Tourcoing à sa banlieue sont du même ordre). 3.4.2 Distance domicile-travail L'analyse en fonction des distances domicile-travail fait également apparaître des résultats fortement différenciés. On trouve, comme le montre le graphique ci-dessous, une relation quasi-linéaire entre l'augmentation des distances du trajet domicile-travail et l'augmentation des niveaux d'émission. Emissions individuelles de GES (en g) selon la distance domicile-travail 8 000 6 906 7 000 6 000 4 769 5 000 5 159 4 061 4 000 3 036 3 000 2 262 2 000 1 000 870 0 1-<2km 2-2à4km 3-4à6km 4-6à8km 5-8à10km 6-10à15km 7->15km Figure 34 : émissions individuelles de GES selon la distance entre le domicile et le lieu de travail Source : estimations CETE-INRETS, logiciel DEED sur EMD 2006 Ce résultat n'est guère étonnant étant donné que le bilan énergétique et environnemental est très fortement dépendant de la distance parcourue, mais aussi de la vitesse et du mode principal pour le déplacement. Ces éléments sont déterminés conjointement par la localisation du lieu de résidence, par celle du lieu de travail et la desserte en transports en commun. Le tableau ci-dessous indique les valeurs obtenues en termes de budgets quotidiens d'émission de GES entre les zones de résidences et différentes zones d'emploi. Diagnostic Environnemental de la Mobilité 2006 93 Résidence \ Lieu de travail Lille Rbaix Tourcg Banl. de Lille 1 002 4 811 2 573 4 024 4 944 2 215 3 380 983 5 513 3 580 5 815 2 283 1 979 4 992 2 121 4 541 5 446 2 637 Budgets GES 1-Lille 2-Roubaix Tourcoing 3-Banlieue de Lille 4-Banlieue de Rbx Tcg 5-Reste LMCU Ensemble Banl. Reste Reste Reste de Rbx Arrond périmè LMCU Tourcg . tre 3 658 3 319 4 405 1 719 5 900 2 423 6 013 4 447 5 043 6 718 1 490 2 532 4 319 0 355 0 2 840 1 550 0 0 0 0 5 945 5 945 Wallo nie Ensem ble 0 1 317 2 013 0 610 1 037 1 382 1 605 2 203 2 521 2 740 2 084 Tableau 47 : émissions individuelles de GES selon le lieu de résidence et le lieu de travail Source : estimations CETE-INRETS, logiciel DEED sur EMD 2006 On constate que les liaisons intra-zones pour Lille et pour Roubaix-Tourcoing sont peu émettrices. De même, les trajets entre un centre urbain et sa plus proche banlieue sont moins émetteurs que ceux mettant en jeu les zones péri-urbaines les plus éloignées, les niveaux les plus élevés étant atteints pour les liaisons entre la banlieue de Roubaix-Tourcoing et le reste de la Métropole. On notera à cette occasion le rôle fondamental que joue l'accessibilité à un réseau de transport public dans le choix modal des individus. Ou aussi, par opposition, le rôle que joue « la dépendance automobile » par défaut d'alternative : L'éloignement entre la zone de résidence et celle de l'emploi aboutit donc à des résultats assez analogues à ceux qu'indique l'éloignement aux centres Ici encore, plus on réside loin (de son emploi), plus on parcourt de kilomètres, et plus c'est en voiture et plus on émet. 3.4.3 Densité de la zone de résidence La localisation résidentielle, la densité d'habitat et la mixité des fonctions sont trois facteurs déterminants pour expliquer les différences de pollutions générées par les habitants dans leurs déplacements. Le nombre d'habitants au mètre carré dans chacun des secteurs83 et les quantités d'émissions individuelles moyennes de gaz à effet de serre des résidents se révèlent directement corrélées : les plus fortes émissions sont constatées sur les territoires les moins peuplés, et inversement, comme toutes les autres études DEED l'ont également confirmé Densité et mixité fonctionnelle favorisent notamment les déplacements de proximité, plus facilement réalisés à pied, et la mise en place de systèmes de transports collectifs efficaces et donc attractifs. A l'inverse, faute d'alternatives collectives pertinentes ou « rentables », la nécessité de s'équiper en voiture et l'allongement des distances parcourues par les individus souvent automobilistes pour accéder aux lieux d'activités, aux équipements et aux différents services, en un mot aux aménités de la région urbaine qu'ils ne trouvent pas à proximité de leur lieu de résidence, explique en partie, l'importance des rejets de polluants, au fur et à mesure que les lieux de résidence s'éloignent des zones les plus denses et les mieux pourvues en infrastructures de transports en commun. L'étalement urbain et ses corollaires (densité faible et moindre présence d'équipements structurants, attracteurs, services et commerces, et finalement ségrégation spatiale et manque 83 suivant le découpage en 57 zones, plus ou moins éloignées des centres les plus denses, de la communauté urbaine de Lille utilisé pour la réalisation de l'enquête ménages déplacements. Diagnostic Environnemental de la Mobilité 2006 94 d'alternatives modales) sont à l'origine d'un usage démultiplié de la voiture, surtout hors centre ville, autrement dit d'une « dépendance » accrue à l'automobile84. Au total, l'étalement urbain rend les différents secteurs très inégaux en matière d'offres modales et d'alternatives à la voiture. C'est finalement un facteur d'accroissement des longueurs de déplacements, de l'usage de la voiture et donc des consommations d'énergie et émissions. Les résultats contrastés en matière de consommation d'énergie et d'émissions de la mobilité quotidienne sont particulièrement éloquents en fonction de la densité résidentielle, selon que l'on réside en centre-ville, dans la proche banlieue ou des les zones les plus éloignées de l'agglomération. La confrontation des deux cartes ci-dessous est également marquante : celle des émissions individuelles de GES semble être le négatif de celle de la densité de population par secteur. Figure 35 : densité de population par secteur de l'ED 2006 84 On note d'ailleurs, comme souligné dans la plaquette de synthèse de l'ED 2006, que le taux de motorisation, en hausse, apparaît lui aussi fortement différencié selon les secteurs de résidences (de l'ordre de 0,31 à 0,34 véhicules par personne dans les secteurs urbains denses (Lille et Roubaix), mais pouvant atteindre 0,56 dans les secteurs périurbains), et que c'est également dans les secteurs les moins denses et les plus éloignés que la mobilité voiture a le moins baissé entre les deux dernières enquêtes de 1998 et 2006 (et qu'à l'inverse, ce n'est que dans les centres, Lille et Roubaix, que l'on note des baisses de mobilité voiture (en nombre) dépassant 20%), [LMCU, 2006 Diagnostic Environnemental de la Mobilité 2006 95 Source : EMD 2006 Figure 36 : émissions individuelles de GES selon la zone de résidence Source : estimations CETE-INRETS, logiciel DEED sur EMD 2006 Le graphique ci-dessous représente le budget-énergie-transport individuel (en gep par individu et par jour) estimé en 2006 en fonction de la densité du secteur de résidence (en habitants au kilomètre carré) du ménage auquel il appartient. La décroissance exponentielle de la courbe lissant le nuage de points est bien l'analogue de celle que nous avions trouvé dans toutes les études DEED précédentes et rappelle (mais pour des estimations comparables entre différentes zones d'une même région urbaine) l'allure qu'a également la fameuse courbe de Newman et Kenworthy, comparant 32 métropoles du monde en 1989, afin de souligner le rôle essentiel de la densité urbaine dans la consommation d'énergie. On note cependant une variance importante (une forte dispersion du nuage de points) autour de cette courbe d'ajustement. Diagnostic Environnemental de la Mobilité 2006 96 Figure 37 : émissions individuelles de GES selon la densité du secteur Source : estimations CETE-INRETS, logiciel DEED sur EMD 2006 Dans le même esprit, et en regroupant les densités des secteurs (en habitants par hectare) par tranches85, le graphique ci-dessous représente l'émission individuelle quotidienne de GES (le budget-émission GES ou eqCO2 par jour en grammes). La décroissance y apparaît très sensible, pour des intervalles de densité discriminant fortement les secteurs du périmètre d'étude. Figure 38 : émissions individuelles de GES selon la classe de densité du secteur de résidence Source : estimations CETE-INRETS, logiciel DEED sur EMD 2006 85 à partir d'un regroupement quasiment homogène par tranches de 10 secteurs, mais en regroupant les deux dernières tranches les plus denses les villes centres qui fournissent des résultats peu différents Diagnostic Environnemental de la Mobilité 2006 97 3.4.4 Les zones « moins » et les zones « plus » Ce mode de représentation a été adopté par la communauté urbaine de Lille lors de son exploitation des résultats de l'enquête déplacements en 2006. Elle met en évidence, pour un indicateur donné, les 6 secteurs de l'enquêtes qui présentent les 6 valeurs supérieurs de l'indicateur (zones « moins » ) et les 6 secteurs aux 6 valeurs supérieures (zones « plus »). La première carte ci-dessous présente le résultat sur l'indicateur « budget individuel GES » : Figure 39 : budgets individuels d'émissions de GES : zones « moins » et zones « plus » Source : estimations CETE-INRETS, logiciel DEED sur EMD 2006 Les 6 zones « moins » sont situées dans les centres urbains de Lille et Roubaix. Ces deux secteurs géographiques présentent des caractéristiques similaires : concentration importante des activités (emploi, habitat, commerces, services), réseaux modes doux développés (aménagements cyclables, zones piétonnes), contraintes de stationnement automobile, bonne desserte en transports collectifs. A Roubaix, les caractéristiques sociales de la population renforcent cet état de fait : les populations précaires sont plus économes en GES car moins motorisées (voir paragraphe précédent). A l'inverse, les zones « plus » sont marquées par une dispersion de l'habitat, de l'emploi, des services et des commerces, une plus forte dépendance à l'automobile et une desserte TC de qualité insuffisante pour assurer un usage plus fort des modes collectifs. Pour les autres polluants, la classification peut différer légèrement, mais les zones centrales de Lille sont systématiquement présentent dans la classe zones « moins ». Les zones « plus » sont très majoritairement situées en banlieue ou dans le périurbain. Diagnostic Environnemental de la Mobilité 2006 98 Le tableau suivant propose une synthèse des classifications zones « moins » et zones « plus » avec les paramètres moyens par type et en moyenne sur l'agglomération : Budget conso Budget EqCO2 Budget CO Budget HC Budget NOx Budget PM 1-2-3-6- 1-2-3-6- 1-2-3-6- 1-2-3-6- 1-2-3-9- 1-2-3-1530-31 30-31 30-31 30-31 30-31 30-35 Moyenne budget zones "moins" 336 975 17.5 1.9 3.0 0.31 42-44-45- 24-42-44- 8-14-36- 14-36-42- 44-51-53- 24-25-26Numéro zones "plus" 53-55-57 45-53-57 45-46-51 44-51-55 54-55-57 45-53-57 Moyenne budget zones "plus" 1 037 3 077 73.0 8.0 10.1 0.96 Rapport zones + / zones 3.1 3.2 4.2 4.3 3.4 3.1 Moyenne budget LMCU 705 2 084 46.8 5.1 6.4 0.61 Numéro zones "moins" Tableau 48 : budgets individuels d'émissions de GES : zones « moins » et zones « plus » Source : estimations CETE-INRETS, logiciel DEED sur EMD 2006 L'annexe 4 présente une carte de la communauté urbaine de Lille sur laquelle figure le découpage en secteurs et leurs numéros. Un habitant des zones « moins » émet 2 fois moins de GES que la moyenne, 3 fois moins qu'un habitant des zones « plus ». Le rapport entre les valeurs des zones « plus » et des zones « moins » varie de 3,1 à 4,3 selon les polluants. 3.4.5 Type de zone de résidence Les budgets individuels 2006 se déclinent de la façon suivante entre les cinq zones de résidence. C'est sans surprise que l'on découvre que le budget-énergie-transport et le budget d'émission de GES croissent notablement avec l'éloignement aux centres urbains et au fur et à mesure que les densités décroissent. Diagnostic Environnemental de la Mobilité 2006 99 Secteur 141 248 155 141 331 114 Budget conso 478 541 745 Budget EqCO2 1 382 1 605 2 203 Budget CO 31 38 50 Budget HC 3,3 4,3 5,4 Budget NOx 4,2 5,0 6,6 Budget PM 0,44 0,53 0,66 173 689 853 2 521 57 6,1 7,5 0,67 88 398 889 590 2 740 2 084 53 47 6,2 5,1 141 248 155 141 331 114 917 705 Km Total 13,2 12,4 16,0 0,72 0,61 Km MD 2,1 1,3 1,1 173 689 88 398 889 590 Population 1-Lille 2-Roubaix Tourcoing 3-Banlieue de Lille 4-Banlieue de Roubaix Tourcoing 5-Reste LMCU Ensemble Secteur Population 1-Lille 2-Roubaix Tourcoing 3-Banlieue de Lille 4-Banlieue de Roubaix Tourcoing 5-Reste LMCU Ensemble 5,5 6,3 9,3 1,2 1,9 2,7 0,1 0,0 0,1 9,3 6,4 Km TC 4,3 2,7 2,6 17,5 11,2 3,1 0,2 2,0 0,9 21,7 15,8 12,8 8,9 3,9 2,5 0,4 0,1 3,1 2,8 1,2 1,3 Km VPC Km VPP Km 2RM Tableau 49 : consommations et émissions individuelles selon le lieu de résidence Source : estimations CETE-INRETS, logiciel DEED sur EMD 2006 Les habitants des zones les plus éloignées des centres-villes sont ainsi ceux qui génèrent le plus de rejets polluants dans leurs déplacements : un résident du centre de Lille émet environ deux fois moins de GES pour se déplacer qu'un résident d'une des zones périurbaines. En 2006, les trois quarts des émissions des GES sont dus aux deux tiers des résidents qui habitent dans des zones de banlieue ou périurbaines. Et en évolution, par rapport aux deux enquêtes précédentes : ZONE DE RESIDENCE 1-Lille 2-Roubaix Tourcoing 3-Banlieue de Lille 4-Banlieue de Roubaix Tourcoing 5-Reste LMCU Ensemble 1987 1 322 1 458 1 950 2 128 1 880 1 794 1998 1 481 1 570 2 374 2 764 2 677 2 201 2006 1 382 1 605 2 203 2 521 2 740 2 084 2006/1987 5% 10% 13% 18% 46% 16% 1998/1987 12% 8% 22% 30% 42% 23% 2006/1998 -7% 2% -7% -9% 2% -5% Tableau 50 : évolution 1998-2006 des émissions individuelles de GES selon le lieu de résidence Source : estimations CETE-INRETS, logiciel DEED sur EMD 1998 et 2006 Ce phénomène est en train de s'accentuer, comme le montrent les évolutions des émissions depuis 1987, notamment en fonction de l'allongement des distances et de l'usage démultiplié de la voiture dès lors qu'on s'éloigne des centre-villes. Le périurbain est le secteur où les émissions individuelles de GES ont le plus augmenté, de 46%, alors qu'elles ne sont qu'en légère hausse dans les centres urbains (+ 10% à Roubaix/Tourcoing et + 5% à Lille). L'écart entre les périurbains et les urbains, déjà présent en 1987, s'accroît fortement depuis 20 ans. Diagnostic Environnemental de la Mobilité 2006 100 Figure 40 : émissions individuelles de GES selon le lieu de résidence en 2006 Source : estimations CETE-INRETS, logiciel DEED sur EMD 2006 Diagnostic Environnemental de la Mobilité 2006 101 Figure 41 : évolution 1987-2006 des émissions individuelles de GES selon le lieu de résidence Source : estimations CETE-INRETS, logiciel DEED sur EMD 1987 et 2006 L'annexe 6 reprend l'ensemble des cartes d'émissions individuelles de GES selon ce découpage en 5 secteurs : # LMCU 1987 # LMCU 1998 # LMCU 2006 # Evolution 1998/1987 # Evolution 2006/1998 # Evolution 2006/1987 Diagnostic Environnemental de la Mobilité 2006 102 4 Un DEED prospectif 2020 : prise en compte des objectifs du PDU Dans le cadre de la révision du PDU, un exercice prospectif sur l'évolution de la mobilité dans la communauté urbaine de Lille a été réalisé et des objectifs ont été proposés à long terme (2030-2050) et à plus court terme (2020, horizon du PDU). La méthode DEED a été utilisée pour évaluer l'impact de ces objectifs sur les consommations énergétiques et les émissions polluantes liés aux déplacements des résidents LMCU. 4.1 Rappel des objectifs pris en compte Les objectifs proposés pour 2020 s'inscrivent dans une perspective plus lointaine (2050) prenant en compte : o une logique « plan climat » qui vise à une réduction importante des circulations et des rejets de gaz à effet de serre ; o une logique d'anticipation d'une grave crise énergétique (anticipation puisque l'hypothèse est émise que cette crise, si elle a lieu, ne s'établirait qu'après 2020) qui entraînerait un renchérissement brutal du coût des carburants et en particulier une crise de l'accès aux déplacements. 4.1.1 Objectifs à long terme (2030-2050) Le premier objectif est le maintien de la mobilité (en nombre de déplacements par jour et par personne) tous modes à son niveau actuel, objectif fort compte tenu du renchérissement prévisible du coût des déplacements. Par mode, les objectifs proposés sont les suivants : o 50% de déplacements réalisés à pied (40%) ou en vélo (10%) ; o 30% de déplacements réalisés en voiture ou en deux-roues motorisés ; o 20% de déplacements réalisés en transports collectifs. Diagnostic Environnemental de la Mobilité 2006 103 4.1.2 Objectifs 2020 testés Continuer à se déplacer pour mener des activités : maintenir la mobilité quotidienne des habitants de LMCU aux alentours de 3,70 déplacements par jour et par personne. Diminuer la portée des déplacements (ville dense, mixité fonctionnelle, ) : Ces objectifs sont formulés ci-dessous en 4 classes de portée des déplacements. Figure 42 : objectifs de répartition des déplacements par classe de longueur Source CETE pour LMCU Diagnostic Environnemental de la Mobilité 2006 104 Des objectifs particuliers selon la portée, le territoire et sa desserte en transports collectifs : selon la classe de portée des déplacements considérée, les différents modes de déplacements sont plus ou moins adaptés. Chaque mode de déplacement a son domaine de pertinence en terme de portée. Les principales ambitions et objectifs par classe de portée des déplacements sont synthétisées dans le schéma suivant. Figure 43 : objectifs de répartition modale par classe de distance Source CETE pour LMCU Figure 44 : les objectifs de mobilité urbaine à horizon 2020 : Synthèse Source CETE pour LMCU Les objectifs de mobilité urbaine à horizon 2020, qui découlent du travail explicité jusqu'ici, sont illustrés ci-dessus en les comparant à la situation actuelle et à la situation de référence 2020, en valeur absolue et en parts modales. Les évolutions globales proposées entre 2006 et 2020 sont donc les suivantes : - maintien de la mobilité globale à 3,7 déplacements par jour et par habitant, - croissance de 6% de l'usage de la Marche à pied, - croissance de 66% de l'usage des transports collectifs, Diagnostic Environnemental de la Mobilité 2006 105 - croissance de 150% de l'usage du vélo, - baisse de 20% de l'usage de la voiture avec légère augmentation du taux d'occupation des véhicules de 2%. 4.2 Méthodologie Les objectifs du PDU sont donc déclinés par mode, par classe de longueur de déplacement et par type de relation. Chaque déplacement recueilli lors de l'enquête déplacements de 2006 appartient à une « classe » définie par son mode, sa longueur et son type de relation. Le nombre de déplacements 2006 de chaque classe est connu. Les objectifs indiquent pour chacune des classes le nombre de déplacements que l'on se fixe à l'horizon 2020. Le poids affecté à chaque déplacement est corrigé par le rapport entre le nombre de déplacements objectif 2020 et le nombre de déplacements observé 2006 de la classe à laquelle il appartient. Ce nouveau fichier déplacements « 2020 » est alors entré dans le logiciel DEED ce qui permet de calculer les consommations énergétiques et les émissions de polluants qui en résulte. Deux calculs sont effectués : - l'un en conservant les caractéristiques 2006 des véhicules ce qui permet de mettre en évidence les effets de l'atteinte des objectifs du PDU en matière de déplacements sans évolution technologique - l'autre en utilisant le véhicule moyen de 2020 tel qu'il apparaît dans le logiciel Impact, cf. encadré ci-dessous. Un troisième calcul est effectué : - déplacements 2006 avec véhicule moyen 2020 ce qui permet de mettre en évidence, les effets des progrès technologiques seuls. Diagnostic Environnemental de la Mobilité 2006 106 Évolution prospective du parc de véhicule : quel véhicule moyen pour 2020 ? Pour les logiciels Impact et Deed, comme pour le présent exercice prospectif 2020, la composition précise du parc des véhicules86 a été déterminée par l'inrets [Hugrel, Joumard, 2004] pour toutes les grandes familles du parc français (voitures particulières, véhicules utilitaires légers, poids lourds, deux-roues selon la nomenclature Copert87). Dans la lignée des thèses de C. Gallez puis de B. Bourdeau à l'inrets, mais utilisant également les données plus actualisées de la source « Parc Auto » déjà mentionnée, le modèle mis au point par l'inrets fournit88 une image prospective89 des structures du parc automobile roulant et statique, ainsi que des coefficients d'émissions agrégés (Copert III MEET), introduits dans Impact, et donc utilisés ici pour cette phase prospective à l'horizon 2020. Compte tenu du peu de spécificité géographique notable du parc local, mais aussi des incertitudes qui peuvent peser sur l'avenir, il apparaît inutile de tenter de reconstituer une prospective spécialement adaptée à l'aire locale. On se réfère donc ici aux données nationales de « parc roulant » élaborées par l'Inrets et intégrées au logiciel Impact. 4.3 Résultats 1987 1998 2006 Ménages DEED 290 592 287 270 350 804 Personnes DEED 728 301 752 159 797 442 Dépla DEED 3 382 765 4 037 772 3 840 364 Distances (km) 11 833 283 15 341 642 15 427 367 Durées (heures) 778 991 971 825 1 039 887 Consommations (tep) 679 779 707 CO2 (t) 1 644 2 170 1 982 EqCO2( t) 1 686 2 268 2 088 CO (t) 267 128 45 COV (t) 26 14 4.9 NOX (t) 13 11 6.3 PS (t) 0.29 0.86 0.60 Déplacements Objectifs Objectifs 2006 2020 2020 véhicules véhicules véhicules 2020 2006 2020 350 804 797 442 3 840 365 15 427 374 1 039 919 588 1 375 1 471 14 1.4 3.8 0.40 801 500 801 500 3 802 505 3 802 505 14 854 701 14 854 701 1 080 521 1 080 521 594 497 1 657 1 158 1 746 1 236 37 12 4.0 1.2 5.7 3.3 0.52 0.33 Tableau 51 : impact en volume des objectifs de mobilité 2020 sur les consommations et émissions Source : estimations CETE-INRETS, logiciel DEED Nota : l'évolution de la population de 2006 à 2020 (+0,5%) est obtenue à partir des projections réalisées par l'INSEE pour LMCU à partir du modèle Omphale 86 En termes de « parc statique » où les parts réfèrent à un nombre de véhicules existants, mais aussi en termes de « parc roulant » (ou de « structure de trafic ») où les parts de chaque classe se rapportent aux véhicules x km, ce qui équivaut à leurs différents taux de présence sur voirie. 87 c'est à dire en tenant compte pour les VP et 2RM : des types de carburant et cylindrées, pour les VUL et PL : du type de carburant et du tonnage. 88 A partir de données d'immatriculations, de lois de survie et de onctions d'utlisation des véhicules. 89 valeurs tous les cinq ans, de 1970 à 2025. Diagnostic Environnemental de la Mobilité 2006 107 Ménages DEED Personnes DEED Dépla DEED Distances Durées Consommations CO2 EqCO2 CO COV NOX PS Évolution 87/06 Évolution 1987/1998 21% 9% 14% 30% 33% 4% 21% 24% -83% -81% -52% 112% -1% 3% 19% 30% 25% 15% 32% 34% -52% -44% -20% 202% Déplacements 2006 Objectifs véhicules Objectifs 2020 2020 2020 véhicules véhicules Effet 2006 2020 technologie Effet PDU Tous effets Évolution Évolution Évolution Évolution 2006/2020 2006/2020 2006/2020 1998/2006 22% 6% -5% 1% 7% -9% -9% -8% -64% -66% -40% -30% 0% 0% 0% -17% -31% -30% -69% -71% -39% -35% -1% -4% 4% -16% -16% -16% -19% -19% -10% -14% -1% -4% 4% -30% -42% -41% -74% -75% -48% -46% Tableau 52 : impact en évolution des objectifs de mobilité 2020 sur les consommations et émissions Source : estimations CETE-INRETS, logiciel DEED Evolution des consommations et émissions (base 100 en 1987) 350 300 250 200 150 100 50 0 1987 1998 Consommations (tep) 2006 EqCO2( t) 2006 véhi 2020 CO (t) 2020 véhi 2006 COV (t) NOX (t) 2020 véhi 2020 PS (t) Figure 45 : évolutions des consommations et émissions rapportées à une base 100 en 1987. Source : estimations CETE-INRETS, logiciel DEED Le graphique ci-dessus montre bien les évolutions et les effets respectifs des progrès technologiques et de l'atteinte des objectifs du PDU. On voit aussi que la situation peut être assez différente selon que l'on observe les consommations, les émissions de gaz à effet de serre ou les polluants locaux. Diagnostic Environnemental de la Mobilité 2006 108 4.3.1 Les polluants locaux Globalement, pour tous les polluants locaux étudiés, les progrès technologiques apparaissent nettement plus déterminants que l'atteinte des objectifs du PDU (dans un rapport de 1 à 3 ou 4). Toutefois, l'impact du PDU est loin d'être négligeable. • Les émissions de monoxyde de carbone et de composés organiques volatils suivent des évolutions quasi-identiques. L'atteinte des objectifs du PDU combinée aux progrès technologiques font qu'en 2020, ces émissions deviennent vraiment marginales (4% à 5% du niveau de 1987). • Les évolutions des émissions d'oxydes d'azote sont du même type mais leur niveau reste relativement élevé (25% du niveau de 1987). • Les émissions de particules évoluent de façons très différentes et resteraient en 2020, effets PDU et technologiques confondus, supérieures à ce qu'elles étaient en 1987. Elles seraient cependant divisées par presque 3 par rapport à la pointe de 1998. L'effet de l'atteinte des objectifs du PDU est inférieur aux effets des progrès technologiques mais pèse plus que pour les autres polluants locaux (rapport de 1 à 2,5). 4.3.2 Les gaz à effet de serre Si les progrès technologiques pèsent plus que l'atteinte des objectifs du PDU dans la réduction des émissions de gaz à effet de serre, le poids de l'impact du PDU est plus élevé que pour les polluants locaux (rapport de 1 à 2). Les seuls progrès technologiques permettraient de ramener les émissions de GES de 2020 à 87% de ce qu'elles étaient en 1987 (baisse de 30% par rapport à 2006). L'atteinte des objectifs du PDU permettrait de les ramener à un niveau un peu supérieur à celui de 1987 (104% mais en baisse de 16% par rapport à 2006). Le cumul technologie plus PDU permet de ramener ces émissions à 73% de leur niveau de 1987. 4.3.3 Les consommations énergétiques Les gains de consommation énergétique liés aux progrès technologiques et aux atteintes des objectifs du PDU sont du même ordre (baisses de 12% par rapport à 1987 et de 16% par rapport à 2006). Tous effets cumulés, la consommation énergétique serait ramenée à 73% de son niveau de 1987 (baisse de 30% par rapport à 2006). On voit donc bien que, si pour les polluants locaux, les progrès technologiques peuvent encore apparaître décisifs dans les réductions des émissions à venir, pour les GES et surtout pour la consommation énergétique les progrès technologiques ne règlent pas tout et qu'ils doivent s'accompagner d'une politique de réduction de l'usage des modes de transport les plus polluants (et donc nécessairement d'une politique d'orientation des comportements). Diagnostic Environnemental de la Mobilité 2006 109 4.4 Objectifs internationaux de réduction : où en est-on ? Ce paragraphe vise à mettre en perspective les évolutions prospectives des émissions de GES du secteur des transports de la communauté urbaine de Lille par rapport aux objectifs internationaux. 4.4.1 Rappel des objectifs Au niveau mondial, les derniers objectifs de réduction des émissions ont été établis dans le cadre du protocole de Kyoto en 1997 et fixaient un objectif global de réduction des émissions de 5,2% pour les 38 pays industrialisés signataires entre 1990 et la période 2010/2012. En Europe, l'objectif global est de 8%, objectif décliné pays par pays ce qui se traduit pour la France par la stabilisation des émissions sur cette période. La conférence de Copenhague, fin 2009, fixera de nouveaux objectifs qui prendront le relais du protocole de Kyoto. Au niveau européen, le paquet « climat-énergie » adopté en 2008 fixe un objectif de réduction des émissions de GES de 20% d'ici 2020 par rapport à leur niveau de 1990. Cette valeur pourra être portée à 30% en cas d'accord international plus large. La France s'est dotée, depuis 2004, d'un objectif de division par 4 de ses émissions d'ici 2050 par rapport à 1990 (le « facteur 4 »). La région Nord-Pas-de-Calais a adopté cet objectif au niveau régional dans le cadre du lancement d'un plan climat Nord-Pas-de-Calais, associant l'État, la Région, les Départements du Nord et du Pas-de-Calais et l'ADEME. 4.4.2 Méthode de calcul La comparaison aux objectifs de réduction des émissions de GES nécessite d'estimer la valeur de l'année référence : 1990. Le DEM a permis de calculer les émissions : # du trafic interne des résidents en 1987 # de l'ensemble des trafics à l'intérieur du périmètre en 1998 et 2006 Pour le trafic interne des résidents, la valeur 1990 est obtenue par interpolation entre les deux valeurs connues. Pour les autres types de trafic (marchandises comme échange/transit voyageurs), on fait l'hypothèse que le rapport entre trafic interne et les autres trafics évolue de la même façon sur la période 1998 à 2006 et sur la période 1990 à 1998. En projection 2020, trois estimations différentes ont été réalisées : Le 1er, « 2020 progrès seuls », reprend la simulation de projection de la structure du parc de véhicules 2020 et suppose la stabilité de l'ensemble des trafics. Le 2ème « 2020 décroissance externe » prend l'hypothèse de l'atteinte des objectifs PDU fixés aux déplacements internes des résidents et une évolution similaire des autres trafics (échange/transit voyageurs, et l'ensemble des trafics de marchandises) Enfin, le 3ème, « 2020 croissance externe » combine atteinte des objectifs PDU et poursuite de la croissance des émissions des autres trafics sur le même rythme qu'entre 1998 et 2006. Diagnostic Environnemental de la Mobilité 2006 110 4.4.3 Résultats Le tableau suivant reprend l'ensemble des résultats : 1987 1990 1998 EqCO2 DEED interne 1 686 EqCO2 complément EqCO2 DEED total Rapport DEED total/interne Taux d'évolution / 1990 1 845 1 173 3 018 1.64 2 268 1 933 4 201 1.85 39% 2020 2020 2020 progrès décrois. crois. seuls externe externe 2 086 1 449 1 220 1 220 2 288 1 589 1 338 2 122 4 374 3 038 2 558 3 342 2.10 2.10 2.74 45% 1% -15% 11% 2006 Tableau 53 : évolutions des émissions de GES selon différents scenarii Source : estimations CETE-INRETS, logiciel DEED Les principaux résultats sont présentés dans le graphique suivant : Prospectives d'évolution des émissions de GES du transport - LMCU Emissions de GES (t-éq.CO2) 5 000 Scénario progrès technologiques seuls 4 000 Scénario décroissance tous trafics 3 000 Scénario croissance externe / marchandises 2 000 1 000 Objectif facteur 4 0 1990 2006 2020 2050 Figure 46 : prospectives d'évolution des émissions de GES Source : estimations CETE-INRETS, logiciel DEED Le premier enseignement réside dans l'évolution 1990 à 2006 des émissions de GES des transports sur le périmètre communautaire : +45%. La tendance n'est donc pas à la réduction des émissions, même si la hausse s'est très fortement ralentie ces dernières années (+39% entre 1990 et 1998, puis +5% entre 1998 et 2006). L'objectif du facteur 4 (division par 4 des émissions 2050 par rapport à 1990) obligerait donc à réaliser un objectif « facteur 6 » par rapport à l'année 2006. Le scénario qui mesure les seuls effets des progrès technologiques attendus permettrait un retour du niveau des émissions 2020 à celui de 1990. Il est donc insuffisant pour atteindre les objectifs de baisse européens à cette échéance. Diagnostic Environnemental de la Mobilité 2006 111 Combinée à une décroissance des trafics, tous types confondus, la baisse atteindrait 15% et se rapprocherait du niveau souhaité. À l'inverse, si les efforts de réduction de la mobilité automobile ne portent que sur les déplacements internes, et que les trafics externes et de marchandises continuent à croître, alors la valeur 2020 sera de 11% supérieure à celle de 1990. La nécessité d'une prise en charge large (y compris hors périmètre) et globale des questions de mobilité est donc primordiale. Diagnostic Environnemental de la Mobilité 2006 112 Conclusion Plusieurs enseignements peuvent être tirés à l'issue de ce travail sur la région urbaine de Lille. Le premier est de nature méthodologique. En mobilisant des sources de données nombreuses90, nous avons pu montrer la faisabilité d'une méthode de diagnostic environnemental exhaustif de la mobilité, le DEM, prolongeant les précédents DEED en les élargissant à l'ensemble des trafics, de voyageurs comme de marchandises, internes comme d'échange ou de transit, impactant le territoire de la communauté urbaine. Ce diagnostic fournit une photographie de la situation actuelle concernant, à l'intérieur du périmètre de LMCU91, l'ensemble des déplacements et leurs impacts92 en termes de consommation énergétique et d'émissions polluantes, gaz à effet de serre et polluants locaux. Tout en s'inscrivant dans un contexte mondial, le bilan global ainsi dressé peut alimenter les deux démarches du plan climat territorial et de révision du PDU. Intégrant la méthode DEED, le DEM permet enfin, au delà des sommations globales, de réaliser différentes analyses détaillées et comparatives, désagrégées dans l'espace (selon les caractéristiques géographiques à l'intérieur du périmètre et de leurs interactions avec les déterminants sociaux, démographiques et économiques) et dans le temps (EMD successives et évolutions de déterminants). Les seconds enseignements tiennent aux résultats, en évolution rétrospective comme en simulation prospective, auxquels nous avons pu parvenir au cours de ce travail, que ce soit sur le DEM, diagnostic global, ou sur sa déclinaison à la mobilité interne des résidents, le DEED. Concernant le diagnostic exhaustif DEM, nous pouvons résumer ces éléments à grands traits. - l'évolution de 1998 à 2006 nous montre un panorama très contrasté selon les différents polluants. Alors que la consommation d'énergie de l'ensemble des déplacements est apparue quasi stable (+2%) entre ces deux années, les émissions de GES affichent une légère hausse (+5%) tandis que des diminutions importantes peuvent être observées pour les polluants locaux (baisses de l'ordre d'un tiers pour les oxydes d'azote et les particules, mais pouvant dépasser la moitié pour le monoxyde de carbone et les composés organiques volatils) - contrasté selon les polluants, le diagnostic en évolution l'est aussi nettement selon les différents trafics en cause. En prenant comme indicateur les émissions de GES, le premier contraste distingue, par grandes masses, voyageurs et marchandises : alors que, en raison des progrès technologiques sur les véhicules particuliers et de la stabilisation du trafic interne, les émissions de GES du trafic voyageurs sont stables, nous avons pu observer que celles dues au transport de marchandises sont en nette progression (+21%, en passant de 25% de l'ensemble en 1998 à 29% en 2006). 90 les enquêtes ménages déplacements successives de 1987, 1998 et 2006, les enquêtes cordons de 1998 et 2007, mais aussi des données issues de modèles de trafic, du modèle FRETURB et du compte marchandises, ainsi que des sources exogènes, notamment pour la validation et l'étude de la spécificité du parc automobile local 91 Par opposition à la méthode du bilan carbone territorial qui, sommant les émissions de GES de différents secteurs, comptabilise en particulier celles des trafics d'échange depuis leur origine ou jusqu'à leur destination, qu'elle soit ou non incluse dans le périmètre communautaire qui est aussi celui de l'enquête déplacements. 92 les mêmes, en gep et en grammes, que ceux balayés précédemment par la méthode DEED, en y incluant un ensemble « effet de serre » ou équivalent-CO2, tenant compte aux côtés du CO2 du CH4 et du N2O respectivement pondérés par leur PRG, comme le permet désormais le logiciel de l'ADEME. Diagnostic Environnemental de la Mobilité 2006 113 - Contraste encore pour les voyageurs entre les différents types de trafic. Du fait de la stabilisation du trafic interne qui permet de bénéficier à plein des progrès technologiques des véhicules, les émissions de ce trafic diminuent (-7%) alors que les émissions des trafics d'échange et de transit sont en forte hausse (respectivement +24% et +19%). Cependant, le poids du trafic interne dans les émissions de GES reste prépondérant (74% contre 23% pour l'échange et 3% pour le transit). - Pour les marchandises, la contribution aux émissions de GES des trois types de trafic est équivalente mais la forte hausse de ces émissions (+21%) vient surtout des trafics d'échange (+31%) et de transit (+36%), celles du trafic interne étant quasi stables (+3%). - Pour les voyageurs comme pour les marchandises, le trafic routier est le principal responsable des émissions polluantes : o Pour les voyageurs, la route pèse pour 95% dans les émissions de GES alors qu'elle ne représente que 75% des trafics o Pour les marchandises, la route pèse pour 98% dans les émissions de GES alors qu'elle ne représente que 84% des trafics Concernant les déplacements internes des habitants de LMCU, les principaux enseignements peuvent se résumer ainsi. - Si, ces déplacements sont de moins en moins polluants, ils continuent de peser fortement sur les bilans globaux. Des différences sensibles sont constatées selon que l'on observe l'un ou l'autre polluant ou les consommations. - Pour les consommations énergétiques et les émissions de GES, la période 1998-2006 marque une baisse sensible (respectivement –7% et –8%) alors que de fortes hausses avaient été observées entre 1987 et 1998. Les émissions de GES restent, en 2006, légèrement supérieures à ce qu'elles étaient en 1997 alors que les consommations de 2006 sont plus élevées de 5% comparées à celles de 1997. - Les émissions de polluants locaux hors particules poursuivent leur baisse (par rapport à 1987, -50% pour les oxydes d'azote, -80% pour le monoxyde de carbone et les composés organiques volatils. - Le cas des particules est particulier : après 300 % de hausse des émissions entre 1987 et 1998 en raison du développement des moteurs diesel (un tiers du parc en 1998 contre 10 % en 1987), on enregistre une diminution de 25 % entre 1998 et 2006 en dépit de la poursuite de la diésélisation du parc automobile (moitié du parc en 2006). Ces émissions restent près de 3 fois supérieures en 2006 à ce qu'elles étaient en 1987. - Toutes ces évolutions s'expliquent par les évolutions technologiques (pot catalytique, filtre à particules) largement imposées par l'instauration de normes européennes sur les polluants atmosphériques locaux de plus en plus contraignantes mais aussi par la stabilisation du trafic automobile généré par les résidents de LMCU (baisse de la mobilité automobile compensée par une légère croissance de la longueur moyenne des déplacements automobiles). - Les modes de déplacements participent de manières très inégales aux émissions polluantes. La voiture est toujours le mode le plus polluant (54% des déplacements, 74% des distances parcourues, 93% des émissions de GES). Au voyageur*kilomètre, la voiture émet près de 3 fois plus de GES qu'un deux roues motorisés et plus de 4 fois plus que le transport collectif. Ces différences se retrouvent pour tous les polluants Diagnostic Environnemental de la Mobilité 2006 114 sauf pour les COV : les deux roues motorisés émettent près de 8 fois plus de COV au voyageur*kilomètre que les voitures - Les transports en commun sont des modes bien plus économes en consommation énergétique et en émissions polluantes (9% des déplacements, 17% des distances parcourues, 5% des émissions de GES). Les modes doux (marche et vélo) ne contribuent ni aux consommations ni aux émissions polluantes (35% des déplacements, 8% des distances parcourues, 0% des émissions de GES). - Si le poids des déplacements de ou vers le lieu de travail est aujourd'hui très minoritaire (20% des déplacements), ils pèsent bien plus lourdement dans les bilans énergétiques et dans les émissions polluantes. Ils sont en effet deux fois plus longs que les autres déplacements et réalisés bien plus souvent (80%) en voiture. Ils représentent ainsi 34% des distances parcourues et 40% des émissions de GES, de NOx et de particules. - La contribution des déplacements de ou vers le lieu d'études est bien moindre (14% des déplacements, 4% des émissions de GES) mais ce constat est à pondérer par la contribution des déplacements d'accompagnement souvent liés à l'école : 15% des déplacements, 12% des distances parcourues, 17% des émissions de GES). - Nos consommations et émissions polluantes sont directement liées à notre position dans le cycle de vie. Les actifs sont les plus gros consommateurs d'énergie et émetteurs de pollutions : ils émettent 3 fois plus de GES que les personnes sans activité professionnelle. Parmi les actifs, les hommes émettent 30 % de plus de GES que les femmes car ils parcourent les plus longues distances et utilisent davantage leur voiture. - Niveau d'instruction, niveau de vie et émissions polluantes sont étroitement corrélés. Plus ces niveaux sont élevés et plus les émissions de GES sont fortes en raison essentiellement des kilomètres parcourus en voiture. Les personnes les plus à même de comprendre les impacts environnementaux de leurs comportements sont aussi celles qui polluent le plus ! - La localisation géographique des habitants est déterminante et montre bien les effets néfastes de la périurbanisation. On observe d'abord une forte corrélation entre densité d'habitat, mixité des fonctions et émissions individuelles de GES des résidents : la cartes des densités est sensiblement le négatif de la carte des émissions de GES. Plus les lieux de résidence s'éloignent des centres et plus les émissions augmentent en raison surtout d'une dépendance accrue à la voiture. Les centres urbains denses et compacts, mixant les fonctions, bien desservis par les transports collectifs, favorisent les distances courtes praticables à pied ainsi que l'usage des TC. A l'inverse, habiter une zone périurbaine impose aux résidents de parcourir des distances plus longues et à recourir davantage à l'automobile, faute d'alternative. - Un résident périurbain émet 2 fois plus de GES qu'un résident du centre de Lille pour se déplacer et le phénomène s'accentue au cours du temps : les émissions moyennes des périurbains ont augmenté de 46 % en 20 ans de 1987 à 2006, celle des Lillois de 5 % seulement. - Mais quels sont les enjeux pour les prochaines décennies (2020, 2050) ? 1. La double problématique locale et globale des émissions polluantes rend incontournable des actions sur plusieurs fronts, si l'on veut à la fois obtenir des Diagnostic Environnemental de la Mobilité 2006 115 résultats à l'échelle de la métropole lilloise et respecter les engagements nationaux et les accords internationaux en vue de protéger la planète. 2. La forte diminution des rejets de polluants locaux va se poursuivre du fait de normes de plus en plus contraignantes. Cependant les effets de ces normes ne joueront pas à plein avant un délai d'une vingtaine d'années, compte tenu de la durée du renouvellement du parc automobile. Même les émissions de particules encore supérieures en 2006 à ce qu'elles étaient en 1987 devraient se réduire fortement avec la généralisation progressive des filtres à particules. 3. La situation est bien différente pour les émissions de gaz à effet de serre dues aux transports sur le territoire communautaire : les estimations réalisées montrent une progression de 45 % entre 1990, année de référence des différents objectifs de réduction de GES, et 2006. Si l'on se limite au seul secteur des transports, l'atteinte des objectifs fixés imposerait de diviser par six les émissions de GES du transport sur le périmètre communautaire par rapport à la situation de 2006. Le facteur 4 de 1990 (à l'horizon 2050) devient donc un facteur 6 relativement à l'année 2006. En 2020, les effets attendus du renouvellement du parc automobile ancien par des véhicules neufs moins polluants permettraient seulement de revenir au niveau de 1990, si les trafics routiers se stabilisaient à leur niveau de 2006 à cette échéance. Les avancées techniques ne suffiront donc pas pour que les émissions de GES du seul secteur transport atteignent les objectifs de baisse de 20 % à 30 % en 2020 par rapport à 1990, de 50 % en 2030 puis de 75 % en 2050. Une telle diminution ne pourra être obtenue sans actions politiques fortes visant à réduire la dépendance automobile par une meilleure organisation spatiale et à favoriser le recours à des modes alternatifs moins polluants (modes doux et transports collectifs). Cela suppose également un indispensable changement des mentalités et des comportements individuels et collectifs en faveur d'une attitude éco-responsable. L'éco-mobilité implique la nécessité de repenser les façons de se déplacer. Diagnostic Environnemental de la Mobilité 2006 116 Annexe 1 : Pollution atmosphérique d'origine automobile et santé Mireille Chiron, INRETS-UMRESTTE Unité mixte de recherche épidémiologique et de surveillance Transport Travail Environnement (Inrets - Lyon 1 - InVS) Malgré le grand nombre de substances émises par les pots d'échappement de nos automobiles, il est possible, en utilisant comme indicateurs quelques polluants mesurés en routine par les réseaux de surveillance, d'établir des relations dose-effet entre les teneurs atmosphériques de ces polluants et plusieurs effets sur la santé ou indicateurs d'activité sanitaire. On distingue les effets à court terme de la pollution, qui suivent les teneurs journalières des polluants avec des délais de quelques jours au plus, et les effets à long terme résultant d'effets cumulatifs. Dans la première catégorie sont particulièrement étudiés la mortalité cardio-pulmonaire, les épisodes bronchiques aigus et les crises d'asthme. On dispose en France d'une surveillance épidémiologique permanente sur 9 villes, effectuée par l'institut de veille sanitaire. De plus une surveillance européenne est en place concernant 26 villes dans 12 pays. La grande puissance de ces études permet la mise en évidence de risques relatifs de l'ordre de 1,01 pour la mortalité totale les lendemains de jours avec un excès de 10 μg/m3 de l'un des indicateurs de pollution (SO2, NO2, O3, particules totales) en moyenne journalière. Les risques sont plus élevés pour des effets plus légers, par exemple les appels à SOS médecin augmentent de 3% pour chaque augmentation de 10 μg/m3 de PM10. Ils sont plus élevés pour les particules les plus fines : 6% pour chaque augmentation de 10 μg/m3 de PM2,5 (particules de moins de 2,5μ de diamètre) en moyenne journalière93. Il existe des groupes à risque connus tels que les nourrissons et jeunes enfants, les personnes âgées, les insuffisants respiratoires ou cardiaques. Lorsqu'on étudie les effets à long terme, qui sont l'addition des effets court terme cumulés sur une longue période et des effets réellement cumulatifs (cancers, installation d'une maladie chronique dont principalement la bronchite chronique), les augmentations de risque sont nettement plus importantes. Par exemple une augmentation de 10 μg/m3 de PM10 en moyenne annuelle a été associée à une augmentation de 9% des bronchites chroniques dans une cohorte américaine de non-fumeurs 94 dès les années 80. Ces résultats se sont beaucoup affinés depuis, montrant par exemple l'influence particulière des plus fines particules (PM2,5), et les effets de la pollution sur l'incidence des cancers pulmonaires. Une étude française sur 7 villes a également mis en évidence le lien à long terme entre exposition à la pollution atmosphérique et mortalité95. Une grande part (de l'ordre de la moitié) de cette exposition à la pollution générale est attribuable au trafic routier. D'autres études se sont cependant attelées à mesurer l'effet propre de la source trafic, en mesurant par exemple l'effet de la proximité des domiciles au trafic sur l'incidence de certaines maladies aiguës ou chroniques. On met ainsi en évidence l'hétérogénéité des expositions, même à 93 Chardon et Lefranc 2005. http://www.ors-idf.org Abbey DE , Mills PK , Petersen FF , Beeson WL Long-term ambient concentrations of total suspended particulates and oxidants as related to incidence of chronic disease in California Seventh-Day Adventists. Environ Health Perspect, 94: 43-50 1991 95 Filleul L, Rondeau V, Vandentorren S, Le Moual N, Cantagrel A, Annesi-Maesano I, Charpin D,Declercq C, Neukirch F, Paris C, Vervloet D, Brochard P, Tessier JF, Kauffmann F, Baldi I. Twenty five year mortality and air pollution: results from the French PAARC survey. Occup Environ Med, Volume:62 Issue:7, Page:45360 Year:2005 94 Diagnostic Environnemental de la Mobilité 2006 117 l'intérieur d'une même ville. Un risque relatif de 1, 5 est par exemple associé au fait de résider à proximité d'une voie à fort trafic pour la mortalité générale (1,9 pour les morts cardiovasculaires)96. Les relations dose-effet ainsi établies par l'observation épidémiologique permettent, par la méthode de l'Évaluation quantitative du risque sanitaire, de calculer un nombre de cas attribuables à la pollution atmosphérique pour une population, pour peu que l'on ait une connaissance de son exposition (distribution de la population) et des incidences de base des événements de santé. Ainsi a-t-on pu évaluer à plusieurs milliers le nombre de décès et d'hospitalisations cardio-vasculaires et à plusieurs dizaines de milliers le nombre de bronchites aiguës ou de crises d'asthme attribuables à la pollution particulaire en France en l'an 2000. Une façon plus positive de présenter ces mêmes risques attribuables est de calculer les améliorations sanitaires qui pourraient être obtenues par telle ou telle action de réduction de la pollution. Ainsi Apheis (étude européenne) a calculé les gains d'espérance de vie moyenne (à 30 ans) dans l'hypothèse où les concentrations annuelles moyennes de PM2,5 seraient maintenues à 15g/m3 dans 23 villes européennes 97. Ces gains seraient maximums à Bucarest (2,3 ans) ou Tel Aviv (1,8 ans) qui sont les plus polluées. Dans les villes françaises l'espérance de vie moyenne à l'âge de 30 ans serait augmentée de 0,1 ou 0,2 années selon les villes. En conclusion l'épidémiologie a mis en évidence les effets sur la santé (par des mécanismes de court et long terme) de la pollution atmosphérique urbaine « de fond » principalement issue du trafic, ainsi que de la pollution « de proximité » issue du trafic routier. Les risques individuels sont « faibles », mais les populations exposées étant importantes, les cas attribuables représentent donc des effectifs non négligeables, représentant une part de l'ordre de quelques centièmes des décès cardio-vasculaires par exemple. Il n'est pas exclu que l'augmentation continue de l'espérance de vie soit en partie attribuable à la baisse observée de la pollution atmosphérique urbaine, obtenue grâce à la réglementation des émissions des véhicules. La part du trafic dans la pollution urbaine est d'ailleurs en décroissance. 96 Hoek G, Brunekreef B, Goldbohm S, Fischer P, van den Brandt PA. Association between mortality and indicators of traffic-related air pollution in the Netherlands: a cohort study. Lancet 2002; 360: 1203–09. 97 Medina S., Boldo E., Saklad M., Niciu E.M., Krzyzanowski M., Frank F., Cambra K., Muecke H.G., Zorilla B., Atkinson R., Le Tertre A., Forsberg B. and the contribution memberss of the APHEIS group. APHEIS Health Impact Assement of Air Pollution and Communications Strategy. Third year report. Institut de Veille Sanitaire, Saint-Maurice June 2005; 232 pages. APHEIS Third year report(bis). Diagnostic Environnemental de la Mobilité 2006 118 Annexe 2 : Gaz à effet de serre et réchauffement climatique L'atmosphère se renouvelle-t-elle ? d'après [Baruch, 2008] La durée de vie des molécules dans l'atmosphère dépend de leur réactivité chimique. Les gaz inertes comme l'argon ou le néon sont des résidus de l'atmosphère primitive. Ils résident dans l'atmosphère depuis plus de 4,5 milliards d'années et y resteront tant que l'atmosphère subsistera. Ce n'est pas le cas des gaz réactifs. Ils sont souvent dérivés du carbone, de l'azote ou du soufre. Mais le plus réactif est le radical hydroxyle (OH), issu de l'ionisation de l'eau, qui se recombine avec l'hydrogène ionisé en quelques secondes. Les oxydes d'azote et de soufre retombent sous forme de dépôts secs ou évoluent chimiquement en quelques jours. Se forment alors des acides sulfuriques et nitriques dont la teneur détermine le caractère acide de l'air et des pluies. Le séjour des autres composants dans l'atmosphère se compte en général en années (douze ans pour le méthane, cent ans pour le dioxyde de carbone), voire en milliers d'années pour l'oxygène et en millions d'années pour l'azote. Cependant, localement, l'air se renouvelle assez vite à cause des mouvements atmosphériques. Poussée par les alizés ou les vents d'ouest, une molécule effectue le tour de la Terre en seulement un mois. Le cycle annuel du carbone Le carbone est à l'origine des gaz à effet de serre et suivre son cycle permet de savoir ce qui sera rejeté dans l'atmosphère et qui sera alors stocké, et pouvant engendrer l'effet « cocotte minute ». Charles David Keeling (Institut Océanographique Scripps de la Jolla, Californie) a mis en place la mesure de la concentration de dioxyde de carbone dans l'atmosphère, et a effectué ses mesures sur une période de 47 ans, soit de 1958 à 2005. Ces recherches ont abouti à deux résultats : 1/ elles montrent un accroissement ininterrompu sur 50 ans du taux de concentration dans l'atmosphère ; 2/ l'identification du cycle annuel du carbone, variable d'une à l'autre - le cycle annuel étant principalement déterminé par le cycle annuel de croissance et de décomposition de la végétation à la surface terrestre. Le potentiel d'absorption du carbone se situe dans l'hémisphère Nord qui abrite la majeure partie des forêts d'arbres à feuilles caduques. Les experts du climat s'accordent à penser qu'en prenant simultanément en compte le cycle de vie et la répartition de la végétation, environ 8 % du dioxyde de carbone de l'atmosphère est absorbé puis rejeté par la végétation chaque année. Les travaux du physicien Freeman Dyson [Dyson, 2007] soulignent que la reforestation (type et répartition à la surface du globe) de végétation est un enjeu clé des stratégies de lutte contre l'effet de serre. Parallèlement, la préservation de la flore et des éléments phytomarins représentent également un enjeu du cycle du carbone et du maintien de puits de carbone, puits mis en danger par une acidification de l'eau liée aux carburants utilisés par le transport maritime. Le tableau ci-dessous indique en Giga-tonnes les masses de carbone émis et absorbées annuellement. Diagnostic Environnemental de la Mobilité 2006 119 source de carbone carbone fossile déforestation dégradation de matière organique Cycle du Carbone (Gt / an) masse de C masse de C émise/an absorbée/an puits de C ~5 océans 2,5 2 reforestation 2 (?) 110 photosynthèse 110 bilan C émis 2,5 0 0 Tableau 54 : cycle du carbone Source : [GIEC] A. Le potentiel de réchauffement global (PRG) L'estimation du PRG d'un gaz dépend : - de la période considérée pour le calcul des effets radiatifs98, puisque ce PRG correspond à la quantité de rayonnement infrarouge que ce gaz capte et renvoie vers la terre sur cette période99 ; - et des scénarios d'évolution des diverses concentrations atmosphériques, puisque la contribution instantanée au réchauffement de ce gaz (son forçage radiatif, exprimé en W/m2) est fonction de sa concentration dans l'atmosphère. C'est notamment parce que les concentrations varient dans le temps que les valeurs de PRG, fournies par le GIEC (Groupe d'experts intergouvernemental sur l'évolution du climat)100, ont légèrement changé au fil de ses rapports successifs (1996, 2001, 2007). En pratique et par convention, la période de temps la plus fréquemment utilisée par les autorités est de 100 ans, car la durée de vie du CO2 dans l'atmosphère est estimée à environ 100 ans. Son PRG à 100 ans vaut 1, c'est la référence. Pour compter le potentiel de réchauffement global (PRG) de chaque GES, on rapporte, sur la période, l'effet radiatif du gaz à celui du CO2. Il existe des controverses et des incertitudes quant à l'estimation du PRG des gaz à effet de serre- expliquant ainsi les différentes valeurs que l'on peut trouver pour les PRG et les durées de vie des GES dans l'atmosphère. Les controverses trouvent souvent leur origine dans : - la prise en compte ou non des potentiels indirects de réchauffement associés à l'appauvrissement de la couche d'ozone, - la valeur donnée à la durée de vie dans l'atmosphère des GES, valeur réactualisée suite aux investigations scientifiques en cours. 98 souvent plutôt plus courte que la durée de vie (sa période d'activité) du gaz dans l'atmosphère- certains gaz, tel le perfluorométhane, sont quasiment indestructibles. L'estimation de la durée de vie dans l'atmosphère pour les autres GES est plus complexe, notamment quand la durée de vie a un horizon temporel long. 99 la période considérée pour le calcul des effets est très importante (et doit être rappelée dès lors qu'on fournit des valeurs de PRG) : puisque les vitesses d'élimination progressives au cours du temps sont très diverses et que les effets postérieurs à cette période sont ignorés, alors les valeurs chiffrées d'un PRG peuvent être fortement différentes selon la période choisie. Les calculs sont complexes (et les valeurs pas toujours exactes, car la vitesse d'élimination n'est parfois pas connue précisément) : les effets radiatifs de différents gaz ne sont pas proportionnels à leur concentration ; à cause de l'instabilité des gaz, les PRG diminuent plus ou moins rapidement avec le temps : un gaz rapidement éliminé dans l'atmosphère peut avoir un effet initial important mais qui décroît rapidement (ex : le méthane a un PRG de 23 sur un siècle, mais de 62 sur 20 ans – valeurs de 2001, alors que celles de 2007 sont respectivement de 25 et 72, [GIEC, 2007]). 100 La dénomination anglaise du GIEC est l'IPCC (Intergovernmental Panel on Climate Change). Ce groupe d'experts a été établi en 1998 à l'initiative conjointe de l'Organisation Météorologique Mondiale (OMM) et du Programme des Nations Unies pour l'Environnement (PNUE). Diagnostic Environnemental de la Mobilité 2006 120 De nombreuses incertitudes pèsent encore sur les degrés de « forçage radiatif direct » et de «forçage radiatif indirect ». Les équivalences en CO2 du pouvoir réchauffant des différents gaz à effet de serre sont réévaluées sous l'effet de nouvelles mesures de leur teneur dans l'atmosphère, tant par leur passé (extractions de nouvelles carottes glacières) et présentes (observations sur les 8 stations d'observation en différents points de la Planète, dont le point de référence est le point Barrow au pôle Sud). Émissions, gaz à effet de serre et équivalent CO2 Directement issue de l'approche préconisée dans le projet MEET101, la méthodologie DEED (cf. description de l'outil, Partie 1) estime les consommations et émissions102 en distinguant clairement les émissions de CO2 « pur » (ou « réel ») de celles des autres gaz, notamment de celles des GES. Il est à noter dans ce cas que la quantité de CO2 émise n'est pas estimée par un simple coefficient de passage à partir de la seule consommation d'énergie des différents véhicules, mais simultanément avec les polluants carbonés (CO, COV et Ps), grâce à l'équation équilibrant le bilan carbone (précisant que tout le carbone introduit via le carburant, doit être réémis), cf. encadré méthodologique ci-après. Il existe également une autre équivalence, moins souvent utilisée. Sachant que la combustion d'une tonne de Carbone correspond à l'émission d'une tonne de CO2, on utilise aussi parfois l'équivalent-carbone103. Puisque un kg de CO2 contient 0,2727 kg de C, on obtient : Eq-Carbone = PRG * 0,2727 101 qui, avec la version 3 du modèle Copert a abouti à l'harmonisation au niveau européen des facteurs d'émission de différentes espèces à la sortie des pots d'échappement des véhicules de transport, cf. [INRETS et al., 1999]. 102 notamment des polluants atmosphériques locaux mentionnés au début du § 1.2. 103 Compte tenu des masses moléculaires respectives (12 g/mole pour C, contre 44,01 g/mole pour CO2 , soit un rapport arrondi de 3,67 entre les deux), on peut passer des masses d'eq-carbone aux masses d'eq-CO2 en les multipliant par ce facteur de 3,67. Diagnostic Environnemental de la Mobilité 2006 121 Remarque méthodologique importante Les émissions de CO2 estimées par la méthode COPERT dans le secteur transport sont basées sur du « CO2 réel » et non sur du « CO2 ultime » ou « équivalent CO2 » La consommation d'énergie et les émissions de CO2 sont estimées dans DEED en accord avec la méthodologie MEET-COPERT. Ainsi, la consommation d'énergie (Cons), les émissions de CO2 « réelles » sont estimées conjointement avec les émissions de CO, COV, NOx et Ps, en respectant l'équation chimique du bilan carbone (1) (qui traduit, en tenant compte des masses molaires, que tout le carbone « entré » doit « ressortir ») : Cons/(12.011+1.008*r) = CO2/44.011 + CO/28.011 + COV/16.043 + Ps/12.011 (1) où r = 1,8 pour l'essence et r = 2 pour le diesel Cons exprimée en grammes-équivalent-pétrole, CO2, CO, COV, Ps en grammes Il faut noter que cette méthode d'estimation n'est pas a priori adaptée à la problématique « effet de serre ». Elle diffère de celle qui est recommandée dans le PNLCCC (basée sur la méthodologie GIEC (IPCC Corinair) pour les inventaires de gaz à effet de serre) qui comptabilise et convertit en CO2 dit "ultime" tout le carbone émis sous différentes formes chimiques (CO, CH4, COVNM, etc. à quelques exceptions près). Contrairement à (1), adopter cette convention (recommandée pour les problématiques "effet de serre") conduit à une relation d'apparence plus simple, reliant le CO2 ultime à la consommation par la formule : CO2 = a * Cons (2) où a = 3,1833 pour l'essence (resp. a = 3,1376 pour le diesel), CO2 est exprimé en grammes-équivalent-CO2, et Cons en grammes de carburant104 B. Les effets constatés des changements climatiques Le gaz carbonique additionnel libéré par les activités humaines serait responsable de 55% de l'accroissement de l'effet de serre. Le GIEC, notamment dans son quatrième rapport, montre que les émissions de gaz à effet de serre d'origine anthropogénique auraient augmenté, notamment sur la période récente, soit plus de 70 % entre 1970 et 2004 en passant de 28.7 Gt eq-CO2 à 49 Gt eq-CO2. Ces concentrations ne cessent de croître à un rythme très soutenu. Le niveau actuel des concentrations de dioxyde de carbone dans l'atmosphère est supérieur au niveau de concentration qui peut être jugé comme acceptable et qui a prévalu jusqu'à l'ère industrielle, soit un niveau compris entre 180et 300 ppm. Ainsi, les concentrations de CO2 dans l'atmosphère sont passées d'une valeur de 280 parties par million (ppm) lors de la période pré-industrielle à 315 ppm en 1958 pour atteindre 385 ppm en 2008. 104 Ces deux estimations ne peuvent pas facilement se déduire a priori l'une de l'autre (par exemple simplement parce que dériver le "CO2 ultime" de Cons estimée avec (1) implique d'utiliser un coefficient multiplicatif dépendant du temps, notamment pour tenir compte de l'augmentation de la diésélisation). Notons cependant que si l'on excepte les HFC de l'évaluation, le « CO2 réel » dans (1) est plutôt une bonne approximation de la contribution réelle à l'effet de serre, bien que sous-estimant légèrement les émissions de carbone, comparativement au « CO2 ultime ». Ainsi, par exemple selon nos estimations : l'EqCO2 est de 1,5% supérieur au CO2 pour l'ensemble du trafic PL ; et sur l'ensemble du DEED interne (estimation sur la mobilité quotidienne interne des résidents), il est supérieur au CO2 de 2,6% en 1987, 4,5% en 1998 et 5,4% en 2006. Diagnostic Environnemental de la Mobilité 2006 122 Figure 47 : évolutions des gaz à effet de serre à partir des données des carottes de glace et de mesures récentes Source : [GIEC, 2007] Comme le souligne le 4ème rapport synthétique du GIEC sur le Bilan 2007 des changements climatiques, cette forte augmentation des concentrations des gaz à effets de serre dans l'atmosphère se traduit dès à présent par des changements climatiques et des modifications des systèmes naturels locaux (cf. figure suivante) : diminution du manteau neigeux, diminution des zones couvertes par la glace aux pôles, augmentation des températures moyennes, élévation du niveau des eaux dans certaines zones côtières, migration avancée dans le temps des espèces animales et végétales consécutives au caractère hâtif des phénomènes printaniers, etc. La collecte de données relatives au changement climatique et à la concentration de CO2 et plus largement de GES dans l'atmosphère est une entreprise récente (depuis 1970 pour les premiers et 1958 pour les seconds). Les constatations avancées pour les quarante dernières années comportent un degré d'incertitude faible. Toutefois, le degré de confiance pour les constatations relatives aux périodes précédentes s'accroît avec le développement des recherches actuelles en climatologie et météorologie (carottes glacières). Diagnostic Environnemental de la Mobilité 2006 123 Année Figure 48 : variations de la température et du niveau de la mer à l'échelle du globe et de la couverture neigeuse dans l'hémisphère Nord Source : [GIEC, 2007] C. Les causes des changements climatiques Rappelons que les émissions de GES ont deux origines : - le fonctionnement du système climatique et la composition de l'atmosphère elle-même (et donc des interactions entre la troposphère, la stratosphère, la mésosphère, la thermosphère et l'exosphère) ; des activités humaines elles-mêmes. Ce sont ces émissions qui ont crû considérablement depuis l'ère industrielle, générées principalement par la production d'énergie, le transport et l'industrie (bâtiment-résidentiel et bâtiment commercial), l'agriculture, et la forêt (y compris déforestation) ayant connu un taux de croissance moindre. Les causes de l'évolution récente du climat seraient imputables à l'augmentation des GES d'origine anthropique (ou anthropogénique), comme l'indique la figure suivante. Diagnostic Environnemental de la Mobilité 2006 124 Figure 49 : émissions mondiales de gaz à effet de serre anthropiques (source : [GIEC, 2007]) a) Émissions annuelles de GES anthropiques dans le monde, 1970–2004.5. b) Parts respectives des différents GES anthropiques dans les émissions totales de 2004, en équivalent-CO2. c) Contribution des différents secteurs aux émissions totales de GES anthropiques en 2004, en équivalent-CO2. (La foresterie inclut le déboisement). Si les émissions de GES continuent de croître à ce rythme soutenu, leurs concentrations dans l'atmosphère auront doublé d'ici la fin de notre siècle pour atteindre des niveaux compris entre 660-790 ppm de CO2. A ce niveau de concentration, les températures auront augmenté en moyenne de 6 ̊C ; cette augmentation provoquera de profondes modifications des écosystèmes. Ces bouleversements, déjà amorcés, auront des conséquences importantes et significatives sur la santé de l'homme et la biodiversité, l'approvisionnement en eau, les cultures vivrières et l'élevage, les sécheresses mais engendreront également des fortes intempéries et des inondations, notamment dans les zones côtières. Certains dommages pourraient être irréversibles, notamment pour la biodiversité. Le GIEC recommande une stabilisation des concentrations de CO2 à un niveau avoisinant les 450 ppm, car à ce niveau, l'augmentation de la température à la surface du globe serait limitée à 2 ̊C, limitant ainsi l'étendue des dommages engendrés par le réchauffement. Les trajectoires de croissance des émissions actuelles sont loin de permettre d'atteindre cet objectif105. En effet, il faudrait réduire de 75% (facteur 4) les niveaux d'émission actuels d'ici 2050. 105 Le GIEC (GIEC, Rapport de Synthèse, 2007) a établi plusieurs scenarii de trajectoire des émissions d'eq-CO2 afin de stabiliser la concentration des GES dans l'atmosphère à son niveau de 2000, les réductions des niveaux d'émissions allant de -85 % à -50 % à l'horizon 2015, de -60 % à -30 % à l'horizon 2020. Diagnostic Environnemental de la Mobilité 2006 125 Annexe 3 : Différence attendue entre le DEM et le Bilan carbone : le poids de la partie des déplacements d'échange réalisés en dehors de la communauté urbaine de Lille La part du secteur transports dans le bilan des émissions sur le territoire communautaire par le Bilan Carbone territorial et par le DEM n'est pas équivalente en raison que ces deux méthodologies aboutissent à des deux estimations qui ne sont vraiment pas de même nature. Il n'est donc pas surprenant dans ces conditions que le bilan carbone diffère amplement du DEM, et c'est bien en raison des émissions hors territoire comptabilisées dans cette première méthode (le Bilan Carbone) qu'il en est ainsi. Au total, le Bilan Carbone territorial comptabilise 16,6 ktonnes de GES émis par jour par les transports, dont 73% sont émis hors territoire et donc non comptabilisés dans le DEM, selon notre méthodologie. Contrairement au bilan carbone, le DEM ne prend en compte que la partie des déplacements effectuée sur le territoire communautaire. Pour évaluer la contribution globale des déplacements au changement climatique mondial, il convient de considérer ces déplacements sur toute leur longueur, y compris la partie réalisée en dehors du territoire. Ainsi, concernant les déplacements routiers de voyageurs en échange avec le territoire communautaire, le DEM n'intègre que les 10,5 kilomètres parcourus sur le territoire pour calculer les émissions de GES et de polluants qu'ils génèrent, alors que la longueur totale de ces déplacements est de 49 kilomètres. De même, pour les déplacements routiers de marchandise, le DEM n'intègre que les 16 kilomètres parcourus sur le territoire alors que la longueur totale de ces déplacements est de 107 kilomètres. Emissions de GES sur le territoire LMCU et hors territoire 3 500 ? 3 000 Tonnes 2 500 2 000 Hors territoire 1 500 LMCU 1 000 500 0 Voyageurs interne Voyageurs échange Marchandises interne Marchandises échange Figure 50 : émissions de GES sur le territoire LMCU et hors territoire LMCU Source : CETE-Inrets Les émissions de GES associées sont alors plus de 2 fois plus élevées que celles identifiées dans le DEM. De plus, pour le trafic marchandises en échange, les chiffres présentés ici ne portent que sur le parcours pour entrer ou sortir de LMCU : il faudrait ajouter dans de nombreux cas, la manière dont la marchandise a été acheminée avant ou après ce trajet ( ? du graphique). Une attention particulière est donc à accorder aux déplacements d'échange et à leurs impacts. Diagnostic Environnemental de la Mobilité 2006 126 Annexe 4 : découpage en secteurs utilisés pour l'ED 2006 Halluin Halluin 49 49 Wervicq Wervicq Bousbecque Bousbecque Comines Comines Warneton Warneton 43 Roncq Roncq43 52 52 Neuville Neuville en-Ferrain en-Ferrain Linselles Linselles Deulemont Deulemont Armentières Armentières 50 50 44 44 Quesnoy Quesnoy sur-Deule sur-Deule Frelinghien Frelinghien 37 37 36 36 Bondues Bondues 25 25 Tourcoing Tourcoing 35 35 39 39 41 41 38 38 Mouvaux Mouvaux Wambrechies Wambrechies 32 32 42 42 Houplines Houplines Wattrelos Wattrelos 31 31 30 30 Roubaix Roubaix 40 40 Marquette 34 Verlinghem Marquette 46 Croix 34 Leers Verlinghem 46 45 45 Leers Croix 33 33 Marcq-en lez-Lille lez-Lille Marcq-en 47 47 Lys-lez-Lannoy Lys-lez-Lannoy Perenchies Perenchies Baroeul Baroeul Wasquehal Erquinghem-Lys Erquinghem-Lys 21 21 Wasquehal Lannoy Lannoy Lompret Lompret Saint-André Saint-André 23 Toufflers 23 Toufflers Premesques Premesques 13 13 LaMadeleine Madeleine Hem Hem La 28 28 Lambersart 17 17 Sailly-lez Capinghem Capinghem 15 15 Lambersart 48 48 Sailly-lez Mons-en Mons-en Ennetieres Ennetieres 11 11 18 18 44 Lomme Lomme Lannoy Lannoy Baroeul Baroeul Forest Forest en-Weppes en-Weppes 11 14 14 Villeneuve Villeneuve sur-Marque 88 Englos Englos sur-Marque Willems Willems 33 Lille 53 53 12 12 Lille 22 10 10 d'Ascq d'Ascq Sequedin Sequedin 7 7 6 6 Escobecques Escobecques Hellem Hellemm m mes es es 27 27 Hellem Hellem m es Tressin Tressin Hallennes-lez Hallennes-lez 57 57 29 29 55 Loos Loos 9 9 Lezennes Lezennes Chereng Chereng Haubourdin Haubourdin 20 Baisieux 20 Baisieux Erquinghem-le-Sec Erquinghem-le-Sec Haubourdin Haubourdin Anstaing Anstaing Ronchin Ronchin 16 16 Beaucamps Beaucamps 19 19 Ligny Gruson Gruson Fournes Fournes Ligny 26 26 Emmerin Emmerin Faches Faches Sainghin-en Sainghin-en Santes Santes Lesquin Lesquin en-Weppes en-Weppes Thumesnil Thumesnil Mélantois Bouvines Bouvines Mélantois Herlies Herlies Wattignies Wattignies Houplin Houplin 56 56 Templemars Templemars Wavrin Wavrin 55 55 Ancoisne Ancoisne Péronne-en Wicres Wicres Fretin Fretin Péronne-en Vendeville Noyelles Noyelles 22 22 Vendeville Mélantois Mélantois Illies Illies les-Seclin les-Seclin Sainghin-en Sainghin-en 54 54 Weppes Weppes 24 24 Marquillies Marquillies Don Don Seclin Seclin Marcq-en-b Marcq-en-b La LaBassée Bassée Hantay Hantay Salomé Salomé La LaChapelle Chapelle d'Armentières d'Armentières 51 51 Wasquehal Wasquehal Lom Lompret pret 23 23 Saint-andr Saint-andr 13 13 La La Madeleine Madeleine Lam Lambersart bersart 28 28 17 17 15 15 11 11 44 Lom Lomm mee 18 18 Mons-en Mons-en Baroeul Baroeul 11 14 14 88 Sequedin Sequedin 33 77 Lille Lille 22 10 10 66 Villeneuve Villeneuve 12 12 Hellem Hellemm mes es 55 99 20 20 Lezennes Lezennes Loos Loos 16 16 Ronchin Ronchin Haubourdin Haubourdin 19 19 26 26 Figure 51 : découpage en secteurs utilisés pour l'ED 2006 Em Emm merin erin Lesquin Lesquin Wattignies Wattignies Diagnostic Environnemental de la Mobilité 2006 127 Annexe 5 : statistiques et tableaux de résultats 1987 1998 2006 Déplacements DEED 3 382 765 4 037 772 3 840 364 % Total 96% 93% 93% Personnes DEED 865 175 864 353 889 590 % Total 93% 86% 88% Ménages DEED 321 211 318 373 % Total 86% 74% Distances (km) 11 833 283 15 341 642 15 427 367 Durées (heures) 778 991 971 825 1 039 887 Consommations (tep) 679 779 706 CO2 (t) 1 644 2 170 1 980 EqCO2( t) 1 686 2 268 2 086 CO (t) 267 128 45 COV (t) 26 14 5 NOX (t) 13 11 6 PS (t) 0.29 0.86 0.62 Evol 98/87 Evol 06/98 Evol 06/87 19% -3% 0% -8% -1% -13% 30% 25% 15% 32% 34% -52% -44% -20% 202% -5% 0% 3% 3% 14% -3% 3% -5% 1% 7% -9% -9% -8% -64% -67% -39% -29% 30% 33% 4% 20% 24% -83% -81% -51% 116% Tableau 55 : résultats généraux (budgets totaux) du DEED Source : estimations CETE-INRETS, logiciel DEED sur EMD 1987, 1998 et 2006 Consommation (gep) CO2 (g) CO (g) COV (g) NOX (g) PS (g) 1987 1998 2006 57 139 23 2.2 1.1 0.02 51 141 8 0.9 0.7 0.06 46 128 3 0.3 0.4 0.04 Evol 98/87 Evol 06/98 Evol 06/87 -12% 2% -63% -56% -39% 133% -10% -9% -65% -67% -39% -29% -20% -8% -87% -86% -63% 65% Tableau 56 : résultats généraux (budgets kilométriques) du DEED Source : estimations CETE-INRETS, logiciel DEED sur EMD 1987, 1998 et 2006 Consommation (gep) CO2 (g) CO (g) COV (g) NOX (g) PS (g) Distances (km) Durées (minutes) Vitesse (km/h) 1987 1998 2006 201 486 79 7.6 3.9 0.08 3.5 13.8 15.2 193 537 32 3.6 2.6 0.21 3.8 14.4 15.8 184 515 12 1.3 1.7 0.16 4.0 16.2 14.8 Evol 98/87 Evol 06/98 Evol 06/87 -4% 11% -60% -53% -33% 153% 9% 5% 4% -5% -4% -63% -65% -36% -25% 6% 13% -6% -8% 6% -85% -83% -57% 90% 15% 18% -2% Tableau 57 : résultats généraux (budgets par déplacement) du DEED Source : estimations CETE-INRETS, logiciel DEED sur EMD 1987, 1998 et 2006 Diagnostic Environnemental de la Mobilité 2006 128 M1-VPC M2-VPP M3-TC M4-2RM M5-Mproxi M6-Autres Ensemble Nombre 38% 15% 7% 1% 38% 1% 3 382 765 Conso. 92% 0% 6% 1% 0% 2% 679 CO2 91% 0% 6% 1% 0% 2% 1 644 CO 96% 0% 3% 1% 0% 1% 267 COV 90% 0% 3% 6% 0% 1% 26 NOX 89% 0% 9% 0% 0% 2% 13 PS 68% 0% 23% 0% 0% 9% 0.29 Dist. 56% 19% 13% 1% 9% 1% Durée 36% 14% 15% 1% 33% 1% 11 833 283 778 991 Tableau 58 : part de chaque mode dans le bilan global 1987 Source : estimations CETE-INRETS, logiciel DEED sur EMD 1987 M1-VPC M2-VPP M3-TC M4-2RM M5-Mproxi M6-Autres Ensemble Nombre 42% 16% 7% 1% 34% 1% 4 037 772 Conso. 93% 0% 5% 1% 0% 2% 779 CO2 93% 0% 5% 0% 0% 2% 2 170 CO 96% 0% 2% 2% 0% 1% 128 COV 90% 0% 3% 7% 0% 1% 14 NOX 88% 0% 9% 0% 0% 3% 11 PS 89% 0% 7% 0% 0% 4% 0.86 Dist 59% 19% 13% 1% 7% 1% Durée 42% 14% 16% 1% 27% 1% 15 341 642 971 825 Tableau 59 : part de chaque mode dans le bilan global 1998 Source : estimations CETE-INRETS, logiciel DEED sur EMD 1998 M1-VPC M2-VPP M3-TC M4-2RM M5-Mproxi M6-Autres Ensemble Nombre 41% 13% 9% 1% 35% 1% 3 840 364 Conso. 92% 0% 6% 0% 0% 2% 706 CO2 93% 0% 5% 0% 0% 2% 1 980 CO 95% 0% 2% 2% 0% 0% 45 COV 88% 0% 3% 8% 0% 0% 5 NOX 88% 0% 9% 0% 0% 3% 6 PS 92% 0% 6% 0% 0% 2% 0.62 Dist 58% 16% 17% 1% 8% 1% Durée 40% 12% 18% 1% 27% 1% 15 427 367 1 039 887 Tableau 60 : part de chaque mode dans le bilan global 2006 Source : estimations CETE-INRETS, logiciel DEED sur EMD 2006 VP conducteur VP passager Voiture particulière Deux-roues motorisés Transports collectifs Modes doux Autres modes Moyenne tous modes Conso. (gep) 73 0 57 27 16 0 75 46 CO2 (g) 205 0 162 68 40 0 222 128 EqCO2 (g) 216 0 171 72 42 0 227 135 CO (g) 4.8 0.0 3.8 8.6 0.4 0.0 1.0 2.9 NOX (g) 0.6 0.0 0.5 0.1 0.2 0.0 1.1 0.4 COV (g) 0.5 0.0 0.4 3.0 0.1 0.0 0.1 0.3 PM (g) 0.06 0.00 0.05 0.00 0.01 0.00 0.10 0.04 Tableau 61 : émissions kilométriques selon le mode de transport en 2006 Source : estimations CETE-INRETS, logiciel DEED sur EMD 2006 Diagnostic Environnemental de la Mobilité 2006 129 Mobilité 1987 1998 2006 Totale 3.73 4.13 3.77 11% -9% 1% VPC 1.38 1.64 1.49 19% -9% 8% VPP 0.58 0.68 0.51 17% -25% -12% TC 0.26 0.29 0.37 10% 27% 40% 2RM 0.05 0.03 0.02 -38% -23% -52% MProxi 1.43 1.46 1.36 2% -7% -5% Autres 0.02 0.03 0.02 24% -19% 0% Totale 12.8 15.3 15.8 20% 3% 23% VPC 7.0 8.6 8.9 24% 3% 28% VPP 2.5 3.0 2.5 21% -16% 2% TCU Distance Autres TC Evol 98/87 Evol 06/98 Evol 06/87 1.4 1.8 2.6 34% 43% 90% 0.41 0.30 0.20 -27% -32% -51% 2RM 0.19 0.14 0.13 -30% -1% -31% Vélo 0.24 0.18 0.15 -25% -19% -39% Autres 0.13 0.20 0.13 55% -32% 5% Marche 1.03 1.04 1.12 1% 7% 9% 52 14.9 724 1 794 287 28 14 0.29 60 15.3 759 2 201 130 15 10 0.81 65 14.5 705 2 084 47 5 6 0.61 17% 3% 5% 23% -55% -47% -27% 182% 8% -5% -7% -5% -64% -65% -38% -25% 26% -2% -3% 16% -84% -82% -55% 112% Budget temps Vitesse Budget conso Budget EqCO2 Budget CO Budget COV Budget NOX Budget PS Tableau 62 : mobilités individuelles, budgets distances, consommations et émissions de GES et polluants 1987, 1998 et 2006 Source : estimations CETE-INRETS, logiciel DEED sur EMD 1987, 1998 et 2006 Diagnostic Environnemental de la Mobilité 2006 130 1-Consommation et émissions et par déplacement selon le mode de transport Mode Nombre M01-Passager métro M02-Passager SNCF M03-Transport employeur M04-Transports scolaires M05-Passager autocar M06-Passager tramway M07-Passager bus urbain M08-Taxi M09-Camionette, camion M10-Autre mode M11-Conducteur VP M12-Passager VP M13-2-roues (> 50 cm3) M14-2-roues (< 50 cm3) M15-Bicyclette M16-Marche à pied Ensemble 251 113 4 367 1 858 12 602 1 774 13 965 72 576 1 959 14 488 6 078 1 574 129 513 725 14 057 12 333 65 232 1 280 108 3 840 364 Conso CO2 EqCO2 CO COV NOX (gep) (g) (g) (g) (g) (g) 98 80 207 201 251 78 161 429 692 0 413 0 197 61 0 0 184 221 156 620 600 753 162 481 1448 2012 0 1166 0 506 147 0 0 515 231 164 629 606 759 169 514 1505 2054 0 1231 0 533 156 0 0 544 3 2 2 2 2 3 2 6 9 0 27 0 59 25 0 0 12 0 0 1 1 1 0 1 1 1 0 3 0 14 16 0 0 1 0.6 0.4 4.6 5.0 6.4 0.4 5.0 4.8 10.6 0.0 3.6 0.0 1.0 0.1 0.0 0.0 1.7 PS (g) Dist Durée Vit. (km) (min) (km/h) 0.06 0.04 0.23 0.26 0.33 0.05 0.24 0.54 0.88 0.00 0.36 0.00 0.00 0.00 0.00 0.00 0.16 7.9 16.8 8.9 6.5 6.8 6.4 4.7 6.8 7.7 3.2 5.7 4.7 6.1 3.7 2.1 0.8 4.0 32.4 50.2 20.2 32.9 36.9 33.4 29.5 18.9 52.8 16.7 16.0 14.7 13.8 13.2 19.2 12.3 16.2 2-Consommation et émissions et par kilomètre parcouru selon le mode de transport Vit. Conso CO2 EqCO2 CO COV NOX PS Mode Nombre (km/h (gep) (g) (g) (g) (g) (g) (g) ) M01-Passager métro 251 113 M02-Passager SNCF 4 367 M03-Transport employeur 1 858 M04-Transports scolaires 12 602 M05-Passager autocar 1 774 M06-Passager tramway 13 965 M07-Passager bus urbain 72 576 M08-Taxi 1 959 M09-Camionette, camion 14 488 M10-Autre mode 6 078 M11-Conducteur VP 1 574 129 M12-Passager VP 513 725 M13-2-roues (> 50 cm3) 14 057 M14-2-roues (< 50 cm3) 12 333 M15-Bicyclette 65 232 M16-Marche à pied 1 280 108 Ensemble 3 840 364 12 5 23 31 37 12 35 63 90 0 73 0 32 17 0 0 46 28 9 70 92 111 25 103 214 263 0 205 0 83 40 0 0 128 29 10 71 93 112 26 110 222 268 0 216 0 87 42 0 0 135 0.4 0.1 0.2 0.3 0.3 0.4 0.4 0.8 1.2 0.0 4.8 0.0 9.6 6.9 0.0 0.0 2.9 0.0 0.0 0.1 0.2 0.2 0.0 0.2 0.1 0.2 0.0 0.5 0.0 2.3 4.3 0.0 0.0 0.3 0.1 0.0 0.5 0.8 0.9 0.1 1.1 0.7 1.4 0.0 0.6 0.0 0.2 0.0 0.0 0.0 0.4 0.0 0.0 0.0 0.0 0.0 0.0 0.1 0.1 0.1 0.0 0.1 0.0 0.0 0.0 0.0 0.0 0.0 14.7 20.2 26.4 11.9 11.0 11.5 9.5 21.5 8.7 11.6 21.4 19.1 26.8 16.8 6.6 4.0 14.8 Tableau 63: consommation et émissions par déplacement et par kilomètre parcouru selon le mode de transport détaillé Source : estimations CETE-INRETS, logiciel DEED sur EMD 2006 Diagnostic Environnemental de la Mobilité 2006 131 14.7 20.2 26.4 11.9 11.0 11.5 9.5 21.5 8.7 11.6 21.4 19.1 26.8 16.8 6.6 4.0 14.8 1-Voitures à disposition dans le ménage Effectifs Effectifs Budget Budget Budget Budget Budget Budget ménages personnes conso EqCO2 CO HC NOx PM 0 VP 117 908 169 462 75 183 2 0.6 0.6 0.04 1 VP 208 414 381 100 678 2 000 49 5.2 5.9 0.60 2 VP 113 802 287 003 1 031 3 068 66 7.1 9.6 0.88 3 VP et plus 17 230 52 024 1 164 3 464 70 7.8 10.5 1.06 (2 VP et plus) 131 032 339 028 1 051 3 129 67 7.2 9.7 0.91 Total 457 353 889 590 705 2 084 47 5.1 6.4 0.61 Km Total 8.7 14.6 20.2 23.4 20.7 15.8 Km VPC 0.1 8.2 13.7 16.4 14.1 8.9 Km VPP 1.3 2.3 3.2 4.0 3.3 2.5 Km 2RM 0.1 0.1 0.1 0.4 0.2 0.1 Km TC 5.1 2.5 2.0 1.9 2.0 2.8 Km MD 2.2 1.3 0.8 0.6 0.8 1.3 Effectifs Effectifs Budget Budget Budget Budget Budget Budget ménages personnes conso EqCO2 CO HC NOx PM 1-Pas d'études / 19 404 255 754 17 2.1 2.4 0.41 2-Primaire / 75 214 321 945 25 2.7 2.8 0.29 3-Secondaire jusqu'en 3eme / 171 073 646 1 907 50 5.5 6.1 0.65 4-Secondaire jusqu'au bac / 175 887 945 2 805 63 6.9 8.7 0.88 5-Superieur / 217 330 1 279 3 798 78 7.9 11.1 1.01 Ensemble / 889 590 705 2 084 47 5.1 6.4 0.61 Km Total 9.2 8.4 12.9 18.5 23.2 15.8 Km VPC 2.5 3.7 7.8 11.9 17.8 8.9 Km VPP 2.7 2.1 1.9 2.3 1.8 2.5 Km 2RM 0.0 0.0 0.1 0.1 0.3 0.1 Km TC 2.5 1.2 1.6 2.9 2.3 2.8 Km MD 1.5 1.3 1.3 1.1 1.0 1.3 2bis-Niveau d'instruction personnes de 30 à 50 ans Effectifs Effectifs Budget Budget Budget Budget Budget Budget ménages personnes conso EqCO2 CO HC NOx PM 1-Pas d' études / 4 063 280 841 7 1.7 3.0 0.50 2-Primaire / 10 252 556 1 632 41 4.1 4.5 0.50 3-Secondaire jusqu'en 3eme / 63 752 865 2 559 66 7.4 8.8 0.97 4-Secondaire jusqu'au bac / 78 014 1 222 3 641 78 8.5 11.5 1.21 5-Superieur / 107 870 1 463 4 364 79 7.9 12.8 1.25 Ensemble / 267 201 1 187 3 532 73 7.7 10.9 1.13 Km Total 16.9 13.2 15.4 21.6 25.3 0.3 Km VPC 3.5 6.0 10.5 15.6 20.6 0.1 Km VPP 8.6 1.9 1.7 1.8 1.6 0.0 Km 2RM 0.1 0.0 0.1 0.1 0.3 0.0 Km TC 3.6 3.4 1.6 2.6 1.9 0.1 Km MD 1.1 1.7 1.2 1.0 0.8 0.0 2-Niveau d'instruction Tableau 64 : variables explicatives (socio-démographie : 1/3) Source : estimations CETE-INRETS, logiciel DEED sur EMD 2006 3-Revenus par UC Effectifs Effectifs Budget Budget Budget Budget Budget Budget ménages personnes conso EqCO2 CO HC NOx PM 294 055 620 247 585 1 726 40 4.5 5.4 0.54 119 104 206 566 919 2 726 60 6.4 8.3 0.74 37 522 54 233 1 176 3 473 68 6.6 9.5 0.87 6 673 8 543 1 271 3 758 65 5.3 8.7 0.85 457 353 889 590 705 2 084 47 5.1 6.4 0.61 Km Total 14.0 18.9 23.4 21.2 15.8 Km VPC 7.0 12.4 16.5 17.4 8.9 Km VPP 2.5 2.6 3.2 1.8 2.5 Km 2RM 0.1 0.2 0.3 0.2 0.1 Km TC 3.0 2.6 2.3 0.8 2.8 Km MD 1.4 1.0 1.0 1.0 1.3 3bis-Revenus par UC actifs ayant un emploi à temps plein Effectifs Effectifs Budget Budget Budget Budget Budget Budget ménages personnes conso EqCO2 CO HC NOx PM 1-< 1000 ! / 149 496 1 326 3 950 86 9.3 12.3 1.27 2-1000 à 2000 ! / 94 159 1 389 4 134 88 9.5 13.0 1.14 3-2000 à 3000 ! / 28 662 1 523 4 520 82 8.4 13.3 1.27 4-> 3000 ! / 5 188 1 523 4 502 62 5.4 11.7 1.18 Ensemble / 277 506 1 371 4 082 86 9.2 12.6 1.23 Km Total 23.0 24.8 27.7 26.3 24.1 Km VPC 17.4 19.6 22.2 22.2 18.7 Km VPP 2.0 1.4 2.1 1.9 1.8 Km 2RM 0.2 0.3 0.5 0.3 0.3 Km TC 2.1 2.5 1.9 1.1 2.2 Km MD 0.8 0.9 0.9 0.7 0.8 Km Total 16.3 14.4 22.3 19.2 10.4 14.2 7.8 15.8 Km VPC 10.3 9.2 17.8 5.4 0.6 5.1 2.5 8.9 Km VPP 2.1 1.8 1.5 2.0 4.5 2.3 2.4 2.5 Km 2RM 0.1 0.2 0.2 0.0 0.1 0.0 0.0 0.1 Km TC 2.4 1.6 1.8 10.0 3.6 5.7 1.3 2.8 Km MD 1.2 1.2 0.9 1.8 1.5 1.0 1.5 1.3 1-< 1000 ! 2-1000 à 2000 ! 3-2000 à 3000 ! 4-> 3000 ! Ensemble 4-PCS 1-Employés 2-Ouvriers 3-Cadres 4-Etudiants 5-Elèves 6-Chômeurs 7-Inactifs Ensemble Effectifs Effectifs Budget Budget Budget Budget Budget Budget ménages personnes conso EqCO2 CO HC NOx PM / 217 527 819 2 415 61 6.2 7.1 0.69 / 134 595 768 2 288 59 6.9 7.6 0.87 / 217 527 1 276 3 793 73 7.3 11.2 1.03 / 48 514 483 1 363 36 4.2 4.7 0.36 / 220 233 131 373 6 1.3 1.3 0.08 / 6 477 514 1 488 60 7.5 6.0 0.86 / 37 923 239 695 19 2.0 1.7 0.17 / 889 590 705 2 084 47 5.1 6.4 0.61 Tableau 65 : variables explicatives (socio-démographie : 2/3) Source : estimations CETE-INRETS, logiciel DEED sur EMD 2006 Diagnostic Environnemental de la Mobilité 2006 133 4bis-Budget GES selon PCS et zone de résidence 1-Lille GES 1-Employés 1 308 2-Ouvriers 1 698 3-Cadres 2 700 4-Etudiants 742 5-Elèves 380 6-Chômeurs 1 353 7-Inactifs 147 Ensemble 1 382 4ter-PCS et équipement auto 1-Employés 2-Ouvriers 3-Cadres 4-Etudiants 5-Elèves 6-Chômeurs 7-Inactifs Ensemble 2-Roubaix Tourcoing Effectif 34 738 13 377 36 220 22 287 28 254 801 4 755 141 248 GES 2 135 1 922 3 503 1 511 211 2 268 297 1 605 0 VP 1 VP 2 VP 46 643 21% 35 012 26% 17 714 8% 20 884 43% 32 450 15% 1 953 30% 13 044 34% 169 462 19% 97 536 45% 63 594 47% 94 204 43% 15 641 32% 85 832 39% 3 459 53% 17 579 46% 381 100 43% 63 925 29% 30 159 22% 89 234 41% 8 179 17% 87 178 40% 641 10% 6 216 16% 287 003 32% 3-Banlieue de Lille Effectif 31 279 36 098 25 174 3 290 44 310 2 245 11 553 155 141 GES 2 380 2 467 3 728 1 499 413 1 158 886 2 203 3 VP et plus 9 423 4% 5 830 4% 16 374 8% 3 810 8% 14 774 7% 424 7% 1 084 3% 52 024 6% (2 VP et plus) 73 348 34% 35 989 27% 105 609 49% 11 989 25% 101 952 46% 1 065 16% 7 300 19% 339 027 38% Effectif 90 041 42 273 91 059 15 665 76 590 1 363 11 875 331 114 4-Banlieue de Roubaix Tcoing GES Effectif 3 151 42 665 2 412 27 070 4 570 43 099 2 748 5 387 328 46 260 987 1 908 1 345 6 529 2 521 173 689 5-Reste LMCU GES 3 423 2 937 4 669 3 361 618 0 907 2 740 Effectif 18 804 15 777 21 975 1 885 24 819 160 3 211 88 398 Ensemble GES 2 415 2 288 3 793 1 363 373 1 488 695 2 084 Effectif 217 527 134 595 217 527 48 514 220 233 6 477 37 923 889 590 Total 217 527 100% 134 595 100% 217 527 100% 48 514 100% 220 233 100% 6 477 100% 37 923 100% 889 590 100% Tableau 66 : variables explicatives (socio-démographie : 3/3) Source : estimations CETE-INRETS, logiciel DEED sur EMD 2006 Diagnostic Environnemental de la Mobilité 2006 134 Annexe 6 : cartes de la géographie des émissions et de leur évolution Figure 52 : émissions individuelles de GES selon le lieu de résidence en 1987 Source : estimations CETE-INRETS, logiciel DEED sur EMD 1987 Figure 53 : émissions individuelles de GES selon le lieu de résidence en 1998 Source : estimations CETE-INRETS, logiciel DEED sur EMD 1998 Diagnostic Environnemental de la Mobilité 2006 136 Figure 54 : émissions individuelles de GES selon le lieu de résidence en 2006 Source : estimations CETE-INRETS, logiciel DEED sur EMD 2006 Diagnostic Environnemental de la Mobilité 2006 137 Figure 55 : évolution 1987-1998 des émissions individuelles de GES selon le lieu de résidence Source : estimations CETE-INRETS, logiciel DEED sur EMD 1987 et 1998 Diagnostic Environnemental de la Mobilité 2006 138 Figure 56 : évolution 1998-2006 des émissions individuelles de GES selon le lieu de résidence Source : estimations CETE-INRETS, logiciel DEED sur EMD 1998 et 2006 Diagnostic Environnemental de la Mobilité 2006 139 Figure 57 : évolution 1987-2006 des émissions individuelles de GES selon le lieu de résidence Source : estimations CETE-INRETS, logiciel DEED sur EMD 1987 et 2006 Diagnostic Environnemental de la Mobilité 2006 140 Liste des acronymes ACEA : Association des Constructeurs Européens d'Automobiles ADEME : Agence de l'Environnement et de la Maîtrise de l'Energie AEE : Agence pour les économies d'énergie AFME : Agence Française de la Maîtrise de l'Energie ANRED : Agence nationale pour la récupération des déchets AQA : Agence pour la qualité de l'air ARS : anti-récession de soupapes AUTh : Aristotle University of Thessaloniki BEED : Budget énergie environnement des déplacements BET : Budget énergie transport CCNUCC : Convention Cadre des Nations Unies sur le Changement Climatique CD : compact disc CEREN : Centre d'études et de recherches économiques sur l'énergie (GIE) CETE : Centre d'études techniques de l'Equipement CETE NP : CETE Nord-Picardie CH4 : méthane CIRED : Centre international de recherche sur l'environnement et le développement (UMR 8568) CITEPA : Centre Interprofessionnel Technique d'Etudes de la Pollution atmosphérique CO : monoxyde de carbone CO2 : dioxyde de carbone Conso : consommation (d'énergie, de carburant) COV : composés organiques volatiles COPERT : Computer programme to calculate emissions from road transport CRF : Common reporting format (CCNUCC) DEM : Diagnostic environnemental de la mobilité (bilan environnemental global des transports) DEED : Diagnostic énergie environnement des déplacements DEST : Département d'économie et de sociologie des transports DG VII : Direction Générale VII en charge de la politique communautaire en matière de transports DTU : Danmarks Tekniske Universitet EEAT : environment energy assessment of trips (en anglais pour DEED) EMD : Enquête ménages déplacements EqCO2, Eq-CO2 : équivalent CO2 Ethel : Energie-Transport-Habitat-Environnement-Localisations, projet de recherche national g, G : gramme g/km : gramme par kilomètre gep, Gep : gramme-équivalent-pétrole gep/km : gramme-équivalent-pétrole par kilomètre GES : gaz à effet de serre GIE : Groupement d'intérêt économique GIEC : Groupe d'experts intergouvernemental sur l'évolution du climat (en anglais IPCC) GRRT : pôle de recherche sur les transports du Nord-Pas-de-Calais HC : hydrocarbures IM-Trans : bureau d'études INRETS : Institut national de recherche sur les transports et leur sécurité IPCC : Intergovernmental Panel on Climate Change IPPC : Integrated pollution prevention and control IRT : Institut de recherche sur les transports, ancêtre de l'INRETS ITTG : Innovation technologique dans les transports guidés km, Km : kilomètre LAURE : Loi sur l'air et l'utilisation rationnelle de l'énergie LET : Laboratoire d'économie des transports, UMR Université Lyon 2 – ENTPE (UMR 5593) LMCU : Lille Métropole Communauté Urbaine LTMU : Laboratoire Théorie des Mutations Urbaines (ancienne UMR 7136) MEDDATT : Ministère de l'Écologie, de l'Énergie, du Développement durable et de l'Aménagement du territoire MEET : Methodologies to Estimate Emissions from Transport, projet européen Diagnostic Environnemental de la Mobilité 2006 141 MIES : Mission Interministérielle de l'Effet de Serre N2O : protoxyde d'azote NOx : oxydes d'azote OCDE : Organisation de coopération et de développement économiques PDU : Plan de déplacements urbain PFI-EEST : Plateforme intégratrice « Energie Effet de Serre et Transports, à l'INRETS PL : poids lourd PM : particules PNLCC : Plan national de lutte contre le changement climatique PRQA : Plan régional de la qualité de l'air PS : particules PTAC : Poids total autorisé en charge TER : train express régional TGV : train à grande vitesse TILT : Technological Innovations for Land Transportation, colloque des 20 ans u GRRT TNS-Sofres : Taylor Nelson Sofres, Société française d'études par sondages TRL : Transport Research Laboratory, UK. TRM : transport routier de marchandises (enquête) TÜV : Rheinland Group UE : Union Européenne UTCF : Utilisation des Terres, leur Changement et la Forêt v*k, veh*km : véhicule * kilomètre Voy*k, voy*km : voyageur * kilomètre VP : voiture particulière, véhicule particulier VUL : véhicule utilitaire léger Diagnostic Environnemental de la Mobilité 2006 142 Références bibliographiques ADEME, IM-Trans, INRETS (2002) « Logiciel DEED : Diagnostic Energie Environnement des Déplacements, Présentation et analyse fonctionnelle du logiciel », réalisée par l'ADEME avec le concours de l'INRETS et d'IM Trans. Voir aussi http://www2.ademe.fr/servlet/KBaseShow?sort=-1&cid=96&m=3&catid=13711 ADEME (2006) « Étude sur le niveau de consommation de carburant des unités fluviales françaises », Etude réalisé par TL§Associés, Janvier 2006. ADEME (2008) « Efficacités énergétique et environnementale des modes de transport, Synthèse publique », Étude réalisé pour le compte de l'ADEME par DELOITTE, Coordination technique Eric Vidalenc, Janvier 2008. Baruch J.O. (2008) « L'atmosphère en 8 questions », en collaboration avec Planton S. (Météo-France) et Marty B. (Centre de recherches pétrographiques et géochimiques de Nancy), Les dossiers de la Recherche, n° 31, mai. Beauvais J.M. (2007) « Prix des carburants : évolution 1970-2005 », Conférence de presse de la FNAUT du 11 mai 2007. Beauvais J.M. et E.T.I.c.S. (2008) « Signal-prix et arbitrages de court, moyen et long termes », Rapport final ADEME-PREDIT, 3 septembre. CERTU (1998) « L'enquête ménages déplacements "Méthode standard" », guide méthodologique. CERTU (2008) « L'enquête ménages déplacements "Méthode standard" », nouveau guide, mai. CITEPA (2007), « Inventaire des émissions de gaz à effet de serre en France au titre de la convention cadre des nations unies sur les changements climatiques », Rapport national d'inventaire et Synthèse CCNUCC/CRF, MEDDATT-CITEPA, actualisé en décembre 2007 pour CCNUCC. Dyson F. (2007) " The Scientist as Rebel", New York Review books Collection. ENERDATA (2002) « Efficacité énergétique des modes de transports », Etude réalisé pour le Ministère du développement durabel-MEEDAAT. EXPLICIT-ADEME (2000) « Evaluations des efficacités énergétiques et environnementales des modes de transports ». EXPLICIT-ADEME (2002) « Actualisation des efficacités énergétiques et environnementales des modes de transports », Étude réalisée par le cabinet d'études EXPLICIT pour l'ADEME régionale de Picardie décembre 2002. EXPLICIT (2008) « Etude du bilan énergétique et des émissions polluantes dues aux transports en Aquitaine, Année de référence 2005 », Etude réalisée pour le compte de la DRE Aquitaine, Décembre 2008. Gallez C. et Hivert L. (1995) « Qui pollue où ? Analyses de terrain des consommations d'énergie et des émissions polluantes de la mobilité urbaine », article dans la revue Transports Urbains, pp. 15-23, N° 89 octobre-décembre 1995. Gallez C. (1996) « Budgets Energie-Environnement des Déplacements (BEED) dans l'arrondissement de Lille », Rapport de Convention ADEME/INRETS N° 690-9306-RB, août 1996. Gallez C., Hivert L. et Polacchini A.R. (1997) « Environment energy budget of trips (EEBT) : a new approach to assess the environmental impacts of urban mobility », Communication au 4e Colloque international « Transport et pollution de l'air », Avignon, 9-13 juin 1997, 8 pages, pp 326-334 des actes publiés dans « International Journal of Vehicle Design, The Journal of Vehicle Engineering and Components », Volume 20, Nos. 1-4, 1998, Inderscience Enterprises Ltd, GB, ISSN 0143-3369. Gallez C. et Hivert L. (1998) « BEED : mode d'emploi, Synthèse méthodologique pour les études « budgeténergie-environnement des déplacements », Rapport de convention ADEME-INRETS n° 690-9306-RB, 85 pages. GIEC (2007) « Bilan 2007 des changements climatiques. » Contribution des Groupes de travail I, II et III au quatrième Rapport d'évaluation du Groupe d'experts intergouvernemental sur l'évolution du climat [Équipe de rédaction principale, Pachauri, R.K. et Reisinger, A. (publié sous la direction de~). GIEC, Genève, Suisse, 103 pages. Hivert L. et Morcheoine A. (1998) « Habiter au vert et polluer les citadins : un essai d'évaluation », article de la Revue Transports N°388, mars-avril 1998, pp. 98-107. Hivert L., Madre J.-L., Papon F. et Rizet C. (2005), dossier « hausse du prix du pétrole, quels impacts sur les comportements ? », Axes Numéro 11, lettre mensuelle de l'INRETS, 3 pages, novembre, http://www.inrets.fr/infos/lettre/pdf/Axes11.pdf. Hivert L., Lecouvey F., Madre J.L., Bourriot F. (2006) Bilan gaz à effet de serre de l'étalement urbain, Rapport en cotraitance CEREN-INRETS sur convention pour MEDAD/DAEI/SESP, INRETS, Arcueil. Hivert L. (2007) « A trans-sectoral approach to estimate the incidence of urban sprawl on the greenhouse effect : transport and housing CO2 emissions analysed by residential location for households living in Diagnostic Environnemental de la Mobilité 2006 143 French large urban areas », Communication to the 11th WCTR 2007 – june 24-28, University of California, Berkeley, USA, 28 juin, 24 pages. Hivert L. (2007) « Hausse du prix des carburants : quels impacts sur les comportements », Fiche d'actualité scientifique (FAS), Contribution de l'inrets au Grenelle de l'Environnement, novembre, http://www.inrets.fr/infos/grenelle-envt/fas/Axe3-3.pdf Hugrel C., Joumard R. (2004) « Transport routier - Parc, usage et émissions des véhicules en France de 1970 à 2025 », Rapport de convention pour l'ADEME N° 01 03 035, Rapport INRETS-LTE N° 0420. (et tableur « transport routier, parc et facteurs agrégés d 'émission des véhicules en France de 1970 à 2025 »). INRETS, AUTh, TRL, TÜV, DTU (1999) MEET, « Methodology for calculating transport emissions and energy consumption », European Communities, DG VII,. Luxembourg, rapport commun, 362 p. IRT, CETUR, STU (1984) « Maîtriser l'espace et l'énergie », STU Paris. IMTrans (2003) « Mission d'assistance à la Maîtrise d'Ouvrage ADEME/IMTrans pour le développement du logiciel DEED : Diagnostic Energie Environnement Transport », Rapport final pour l'ADEME, septembre. Kemel E. (2008) « Infuence de la hausse récente des prix des carburants sur la consommation automobile des ménages, analyse portant sur la France entière sur la période 1999-2006 », Mémoire de TFE ENTPE puis Master Transports-Espace-Réseaux, Université Lyon 2, (encadré par Hivert L.), septembre, 124 pages. LMCU (2006) « Enquête sur les déplacements des habitants de Lille Métropole, EMD 2006 », plaquette de Premiers résultats au 13 Novembre 2006, Aménagement et Cadre de vie, Déplacements Urbains et Qualité des Espaces Publics. LMCU (2008) « Enquête déplacements 2006, Territoire Lille Métropole, résumé », plaquette de Novembre 2008, Aménagement & cadre de vie. Newman P., Kenworthy J. (1989) « Cities and automobile dependence : an international sourcebook », Gower Technical, Aldershot, Royaume-Uni. Newman P., Kenworthy J.R. (1999) « Sustainability and cities : overcoming automobile dependence », Island Press, Washington D.C. Noppe J., Quételard B., Hivert L. (2003) Diagnostic énergie environnement des déplacements (environment energy budget of trips) sur l'agglomération Lilloise, Communication au colloque TILT, 20e anniversaire du GRRT, Lille, décembre 2003,13 pages. Orfeuil J.P. (1984) « Les budgets énergie Transport : un concept, une pratique, des résultats », Recherche Transports Sécurité (RTS, revue de l'INRETS), n° 2, pp. 23-29, Inrets. Pillot D., Philipps-Bertin C. et Hugrel C., Dir. (2004) « Projet de Plate-forme intégratrice : Effet de serre et transport, proposition et évaluation des moyens de réduction », document INRETS à destination de la Direction Scientifique, mai 2004. Quételard B. (2002) « Diagnostic Énergie-Environnement des Déplacements dans l'arrondissement de Lille », document provisoire, CETE Nord-Picardie pour Lille Métropole Communauté Urbaine, Région Nord-Pas de Calais, ADEME, septembre 2002. Van Dan Vender K., Crist P. (2008) "Policy Instruments to limit negative environmental impacts from increased international transport-an economic perspective", Working Paper from JCMT for OECD and ITF, contribution to the Global Forum on Transport and Environment in a Globalising World, Guadalajara, Mexico, 2008 (10-12 November). Diagnostic Environnemental de la Mobilité 2006 144 Liste des figures Figure 1 : carte de Lille Métropole Communauté Urbaine (LMCU) 8 Figure 2 : périmètre de la communauté urbaine de Lille et de l'arrondissement de Lille 9 Figure 3 : évolution de la mobilité tous modes de 1965 à 2006 11 Figure 4 : évolution des mobilités entre les trois dernières enquêtes 12 Figure 5 : évolution des parts modales entre les trois dernières enquêtes 12 Figure 6 : l'étiquette énergie/CO2 15 Figure 7 : évolution du prix des carburants 16 Figure 8 : composition des gaz de l'atmosphère 22 Figure 9 : poids des secteurs d'activité dans le bilan carbone de LMCU 26 Figure 10 : cycle LTO (atterrissage, décollage) 48 Figure 11 : évolution 1998-2006 des émissions et consommations 53 Figure 12 : répartition et évolution des émissions de GES Tous trafics 54 Figure 13 : émissions de GES selon le type de trafic - voyageurs 55 Figure 14 : répartition et évolution des émissions de GES du transport de voyageurs 55 Figure 15 : répartition et évolution des émissions de GES du transport de marchandises 56 Figure 16 : émissions de GES par voyageur*km en 2006 selon le mode 64 Figure 17 : émissions de COV par voyageur*km selon le mode de transport en 2006 65 Figure 18 : évolution (1987-2006) des consommations et émissions de GES par déplacement 67 Figure 19 : évolution (1987-2006) des consommations et émissions de CO, NOx et COV par déplacement 67 Figure 20 : évolution (1987-2006) des émissions de particules par déplacement 68 Figure 21 : part de la voiture dans le bilan de la mobilité interne des résidents. 68 Figure 22 : poids des transports collectifs dans les émissions de GES en 2006 70 Figure 23 : poids des modes doux dans les émissions de GES en 2006 70 Figure 24 : poids des deux-roues motorisés dans les émissions de COV en 2006 71 Figure 25 : poids des motifs dans les émissions en 2006 72 Figure 26 : répartition horaire des émissions de GES et de NOx en 2006 73 Figure 27 : consommations unitaires des voitures par tranche de distance 75 Figure 28 : émissions individuelles de GES selon la taille du ménage en 1998 et 2006 79 Figure 29 : émissions de GES selon la position dans le cycle de vie en 1998 et 2006 82 Figure 30 : émissions de GES selon la position dans le cycle de vie en 2006 83 Figure 31 : évolution des budgets individuels quotidiens des consommations et émissions selon la PCS 85 Figure 32 : émissions individuelles quotidiens de GES selon le niveau d'études 86 Figure 33 : émissions individuelles quotidiennes de GES selon les revenus du ménage 88 Figure 34 : émissions individuelles de GES selon la distance entre le domicile et le lieu de travail 93 Figure 35 : densité de population par secteur de l'ED 2006 95 Figure 36 : émissions individuelles de GES selon la zone de résidence 96 Figure 37 : émissions individuelles de GES selon la densité du secteur 97 Figure 38 : émissions individuelles de GES selon la classe de densité du secteur de résidence 97 Figure 39 : budgets individuels d'émissions de GES : zones « moins » et zones « plus » 98 Figure 40 : émissions individuelles de GES selon le lieu de résidence en 2006 101 Figure 41 : évolution 1987-2006 des émissions individuelles de GES selon le lieu de résidence 102 Diagnostic Environnemental de la Mobilité 2006 145 Figure 42 : objectifs de répartition des déplacements par classe de longueur 104 Figure 43 : objectifs de répartition modale par classe de distance 105 Figure 44 : les objectifs de mobilité urbaine à horizon 2020 : Synthèse 105 Figure 45 : évolutions des consommations et émissions rapportées à une base 100 en 1987. 108 Figure 46 : prospectives d'évolution des émissions de GES 111 Figure 47 : évolutions des gaz à effet de serre à partir des données des carottes de glace et de mesures récentes 123 Figure 48 : variations de la température et du niveau de la mer à l'échelle du globe et de la couverture neigeuse dans l'hémisphère Nord 124 Figure 49 : émissions mondiales de gaz à effet de serre anthropiques 125 Figure 50 : émissions de GES sur le territoire LMCU et hors territoire LMCU 126 Figure 51 : découpage en secteurs utilisés pour l'ED 2006 127 Figure 52 : émissions individuelles de GES selon le lieu de résidence en 1987 135 Figure 53 : émissions individuelles de GES selon le lieu de résidence en 1998 136 Figure 54 : émissions individuelles de GES selon le lieu de résidence en 2006 137 Figure 55 : évolution 1987-1998 des émissions individuelles de GES selon le lieu de résidence 138 Figure 56 : évolution 1998-2006 des émissions individuelles de GES selon le lieu de résidence 139 Figure 57 : évolution 1987-2006 des émissions individuelles de GES selon le lieu de résidence 140 Diagnostic Environnemental de la Mobilité 2006 146 Liste des tableaux Tableau 1 : évolution des normes « Euro » 14 Tableau 2 : comparaison du parc automobile des ménages 18 Tableau 3 : comparaison du parc des ménages dans les deux sources statistiques : 20 Tableau 4 : poids des GES présents dans l'atmosphère 23 Tableau 5 : contribution des types de sources aux émissions de GES, 25 Tableau 6 : sources de données mobilisées 40 Tableau 7 : trains*kilomètres (voyageurs) réalisés dans LMCU (JMA et JMO) 42 Tableau 8 : mouvements de marchandises internes LMCU par grands secteurs 44 Tableau 9 : coefficients de passage des facteurs d'émission (interne, échange, transit) 47 Tableau 10 : facteurs d'émission par type de trafic 47 Tableau 11 : facteur d'émission des trains 47 Tableau 12 : table de correspondance des nomenclatures de type de véhicules de transport de marchandises routiers 49 Tableau 13 : table de correspondance type de trafic – type de réseaux 50 Tableau 14 : facteurs d'émissions des véhicules de transport routier de marchandises 50 Tableau 15 : facteurs d'émissions et de consommation unitaires par type de train 51 Tableau 16 : consommations et émission journalières en 1998 et 2006 53 Tableau 17 : émissions journalières de GES voyageurs et marchandises 54 Tableau 18 : émissions de GES selon le type de trafic- marchandises 56 Tableau 19 : émissions et consommation du trafic aérien 57 Tableau 20 : part du trafic aérien dans les émissions et consommation 58 Tableau 21 : DEED LMCU : le diagnostic territorial de la mobilité interne des résidents 60 Tableau 22 : taux d'occupation des voitures 62 Tableau 23 : consommation et émissions par déplacement en 2006 63 Tableau 24 : consommation et émissions par kilomètre selon le mode en 2006 63 Tableau 25 : écart 2006 entre les modes « voiture conducteur » et « transports collectifs » 64 Tableau 26 : consommations et émissions par déplacement en 1987, 1998 et 2006 66 Tableau 27 : consommations et émissions par déplacement en 2006 69 Tableau 28 : consommations et émissions des déplacements en voiture conducteur selon la classe de distance 74 Tableau 29 : budgets individuels moyens pour la mobilité interne des résidents 76 Tableau 30 : émissions de GES par ménage selon leur type en 2006 78 Tableau 31 : : émissions individuelles de GES selon la taille du ménage en 1998 et 2006 79 Tableau 32 : consommations et émissions individuelles selon la motorisation du ménage en 2006 80 Tableau 33 : consommations et émissions individuelles selon l'âge en 2006 81 Tableau 34 : consommations et émissions individuelles selon le sexe en 2006 81 Tableau 35 : émissions de GES selon la position dans le cycle de vie en 1998 et 2006 82 Tableau 36 : évolution du budget individuel quotidien d'émission de GES selon la PCS 83 Tableau 37 : budget individuel quotidien des consommations et émissions selon la PCS 84 Tableau 38 : budgets individuels quotidiens des consommations et émissions selon la PCS et la motorisation du ménage 85 Tableau 39 : budgets individuels quotidiens des consommations et émissions selon la PCS et le lieu de résidence 86 Tableau 40 : évolution des émissions individuelles quotidiens de GES selon le niveau d'études 87 Diagnostic Environnemental de la Mobilité 2006 147 Tableau 41 : émissions individuelles quotidiens de GES selon le niveau d'études (personnes de 30 à 50 ans) 87 Tableau 42 : évolution 1998-2006 des émissions individuelles quotidiennes de GES selon les revenus du ménage 88 Tableau 43 : répartition de la population selon les classes de revenus 89 Tableau 44 : émissions et consommations individuelles quotidiennes selon le revenu 89 Tableau 45 : émissions de GES des actifs comparés à la moyenne selon le revenu 90 Tableau 46 : émissions de GES selon le type de liaison 91 Tableau 47 : émissions individuelles de GES selon le lieu de résidence et le lieu de travail 94 Tableau 48 : budgets individuels d'émissions de GES : zones « moins » et zones « plus » 99 Tableau 49 : consommations et émissions individuelles selon le lieu de résidence 100 Tableau 50 : évolution 1998-2006 des émissions individuelles de GES selon le lieu de résidence 100 Tableau 51 : impact en volume des objectifs de mobilité 2020 sur les consommations et émissions 107 Tableau 52 : impact en évolution des objectifs de mobilité 2020 sur les consommations et émissions 108 Tableau 53 : évolutions des émissions de GES selon différents scenarii 111 Tableau 54 : cycle du carbone 120 Tableau 55 : résultats généraux (budgets totaux) du DEED 128 Tableau 56 : résultats généraux (budgets kilométriques) du DEED 128 Tableau 57 : résultats généraux (budgets par déplacement) du DEED 128 Tableau 58 : part de chaque mode dans le bilan global 1987 129 Tableau 59 : part de chaque mode dans le bilan global 1998 129 Tableau 60 : part de chaque mode dans le bilan global 2006 129 Tableau 61 : émissions kilométriques selon le mode de transport en 2006 129 Tableau 62 : mobilités individuelles, budgets distances, consommations et émissions de GES et polluants 1987, 1998 et 2006 130 Tableau 63: consommation et émissions par déplacement et par kilomètre parcouru selon le mode de transport détaillé 131 Tableau 64 : variables explicatives (socio-démographie : 1/3) 132 Tableau 65 : variables explicatives (socio-démographie : 2/3) 133 Tableau 66 : variables explicatives (socio-démographie : 3/3) 134 Diagnostic Environnemental de la Mobilité 2006 148
{'path': '35/hal.archives-ouvertes.fr-hal-00544425-document.txt'}
" Une trace qui attend, aux aguets " : Beuys, Deligny et le dessin Jean-Philippe Antoine To cite this version: Jean-Philippe Antoine. " Une trace qui attend, aux aguets " : Beuys, Deligny et le dessin. Beuys, Deligny et le dessin : une "conversation entre les choses", Nov 2009, Barcelone, Espagne. halshs00595158 HAL Id: halshs-00595158 https://halshs.archives-ouvertes.fr/halshs-00595158 Submitted on 23 May 2011 1 « Une trace qui attend, aux aguets » : Beuys, Deligny et le dessin I. 1. Tout d'abord un aveu : ma tentative de mettre en résonance réciproque les pensées de Joseph Beuys et de Fernand Deligny a son point de départ dans Beuys. Je n'ai découvert l'oeuvre de Deligny que tardivement, grâce à l'édition remarquable de ses Oeuvres publiée il y a trois ans par Sandra Alvarez. Mais cette asymétrie originelle n'a fait qu'intensifier le sentiment d'une étrange rencontre entre les deux oeuvres, rencontre qui s'accroche à la notion, ou plus exactement à l'activité, du dessin. Chez chacun de ces deux penseurs/artistes, le dessin acquiert en effet un rôle fondamental, qui se lie à la question de la genèse du langage verbal, et de ses rapports avec l'activité de penser. Ce lieu commun s'établit à partir d'expériences très différentes. Le dessin représente pour Beuys un investissement précoce, et habituelle, vite constant : pratiquée en il s'agit voyageant, en d'une bavardant activité ou en discutant, aussi bien que seul dans l'atelier. Elle inclut croquis, diagrammes, partitions pour des actions, inscrits sur les supports les plus accidentels, aussi bien que des dessins plus traditionnellement achevés. Accumulés dans des tiroirs et des boîtes, semés dans des carnets, donnés, ces milliers de résidus forment l'archive principale de l'activité de Beuys, son « matériau de base », et comme une réserve où l'artiste a puisé sans jamais se priver. Chez Deligny la réflexion sur le dessin a une localisation d'apparence plus l'établissement étroite. Elle progressif, à découle partir principalement de 1969, dans de la communauté qu'il a fondée dans les Cévennes, d'une pratique : celle de tracer, soit sur le moment, soit de mémoire, des cartes des itinéraires coutumiers des enfants autistes 2 qu'accompagnent les éducateurs. Ou plutôt elle découle avant même cela, de la prise en compte de ces itinéraires, et de leur capacité à former territoire : un territoire hors- langage. Chez l'un comme chez l'autre, l'activité du dessin, que condense le geste de tracer, est conçue comme mise en branle qui conduit à penser. Elle entame un processus d'accès au signe qui s'ébroue à l'orée du langage verbal. Mais elle sera aussi, en aval de la parole, le résidu inassignable qui hante une pensée verbaux discursive et trop vite bien-communicants. identifiée Oublieuse de à des la signes dimension diagrammatique qui continue de la hanter, cette pensée est aussi oublieuse de la main qui la porte. 1. 2. commencerai pensée Pour par explorer exposer beuysienne - ce les pensée lieu tenants du commun et dessin du dessin, aboutissants aux sens à je de la la fois subjectif et objectif de l'expression. Le concept de dessin emporte pour Beuys une définition extraordinairement large, qui remet en question les limites courantes de la l'artiste en est pratique un artistique. premier exemple: La production collages, de résidus, fragments, marques fugitives y abondent. Leur appartenance aux genres reconnus du dessin est loin d'aller de soi. Quant aux modèles qui les informent, ils embrassent le territoire entier de l'art, de la préhistoire jusqu'à la modernité du premier XXe siècle, et débordent les frontières du métier traditionnel. Ayant cessé d'être défini par l'emploi de techniques et de matériaux prédéterminés, le terme de dessin caractérise maintenant l'événement singulier qu'est l'alliance d'un geste de dénotation avec son enregistrement dans une empreinte matérielle. S'étendant à toute forme de trace ou de marque gestuelle exécutée sur un support, il désigne en général la capacité qu'a un geste de déclarer un ensemble de relations, 3 une ressemblance ou une analogie, entendus au sens le plus vaste : Il n'y a rien de plus élémentaire que le dessin. Quand je montre à quelqu'un le chemin et que je lui indique sur un bout de papier le tracé des rues, eh bien, je dessine. Au fond dessiner, n'est-ce pas, ce n'est rien d'autre que faire un plan, ou visualiser quelque chose, un ensemble de relations spatiales ou tout simplement un rapport de grandeurs. () On ne doit jamais dire : celui-là il sait dessiner, et moi je ne sais pas. Ce n'est pas du tout ça. Tout homme peut dessiner, bien sûr qu'il peut dessiner, tant qu'il a des mains. Et même s'il n'a pas de mains, il peut dessiner avec les pieds1. Àu coeur de l'activité du dessin, se trouve l'invention d'un diagramme. En conséquence, le geste d'écrire appartient lui aussi à la catégorie : Nous avons parlé de la parole, écrire par exemple, c'est aussi dessiner. Si on regarde juste un peu ce que fait la main, ces drôles de formes, c'est aussi du dessin. C'est pourquoi je dis que tout homme est un dessinateur, en ce sens qu'il représente quelque chose; tout homme représente, les uns davantage, les autres moins; cela dépend bien sûr de la décision que l'on a prise pour son métier. Mais le dessin apparaît de toute façon dans la vie consciente2. La variété imprévisible du dessin, tout comme celle des secteurs de l'activité humaine où il trouve à s'employer, pourrait sembler interdire de l'unifier sous un concept. Mais l'activité de dessiner, envisagée du point de vue de son processus, désigne pourtant bien une zone spécifique : celle où les choses parviennent au langage, par le biais d'un geste d'écriture – un graphe - qui prolonge leur perception, et dont elles sont le premier moteur. 1 Joseph Beuys-Volker Harlan, Qu'est-ce que l'art? cit., p.49. 2 Ibid., p. 50-51. (Je souligne). 4 2. 1. C'est dans une conversation avec Heiner Bastian et Jeannot Simmen, que Beuys énonce ce qui pour lui constitue la condition d'exercice du dessin, à savoir le caractère réel des relations entre les choses : Je crois aussi que les choses ont entre elles et réciproquement des liaisons vraiment tout à fait réelles, et qu'elles sont en conversation les unes avec les autres, aussi hétérogènes que soient les choses, et souvent les formes, et ce à quoi elles s'adressent3. La possibilité du dessin prend naissance dans l'existence réelle de la relation dont il assume la re-présentation. Qu'il dénote une fleur ou bien une idée, il s'intéresse toujours à la réalité de son objet. Cette réalité inclut le réseau de circonstances présente où comme elle une se livre, et l'objet lui-même constellation de circonstances se et un diagramme de forces, en relation avec le reste des forces qui l'entourent, y compris celles de l'individu qui veut dessiner. Ce sont ces diagrammes de forces que le dessin aura pour tâche d'enregistrer et de fixer, pour donner à leur réalité une forme visible. Ces caractéristiques expliquent que Beuys formule presque simultanément deux contradictoires. Le énoncés premier qui pourraient affirme la passer pour nécessité, pour démarrer le processus, qu'un objet singulier se déclare : Je ne m'asseois [pour dessiner] que si une nécessité existe, si une chose quelconque se déclare. Si rien ne se déclare, alors je ne dessine pas. C'est-à-dire si un objet qui veut se représenter s'affirme quelque part, s'il dit : je veux, je dois être représenté maintenant, parce que c'est nécessaire que je sois représenté, alors c'est là que je me mets à dessiner4. Le second énoncé affirme la présence nécessaire, au départ de ce même processus, d'une multiplicité 3 Joseph Beuys. Zeichnungen, p. 40. (Je souligne) 4 Ibid., p. 38. chaotique à 5 organiser. Chaque chose singulière se présente comme une multiplicité, singulières, tout comme qu'elle les entretient relations, avec ce elles qui aussi l'entoure. Si elles diffèrent en lieu, en temps, en forme et en disposition, ces multiplicités produit de jeux sont de de même forces niveau, réels. Ceci car elles amène sont deux le traits supplémentaires. 2. 2. Beuys attribue aux choses une capacité à se déclarer indépendante de toute décision consciente du dessinateur. Les objets affirment un "droit à la représentation", que leur "volonté" tente d'imposer à la personne qui dessine – quelque chose comme ce que Deligny nommera, à partir d'une tout autre problématique, "quémande". Cette processus personnification par lequel un des objets dessinateur semble décide un déni d'appliquer du son attention et son savoir-faire à tel objet plutôt qu'à tel autre. Beuys revendique pourtant une part active pour le dessinateur, par-delà la passivité qu'implique l'acceptation des "volontés" travail que de l'objet. réclame le C'est dessin a que, déjà paradoxalement, démarré, avec le la nécessité de réorganiser "l'ensemble des circonstances de [la] vie" du dessinateur, en amont du geste de dessiner. La quémande de telle ou telle chose, qui "veut" parvenir à la représentation, même si elle est source de ce qui pousse à dessiner, n'a en effet jamais pour résultat direct un dessin. Elle est plutôt l'événement grâce auquel une chose, à savoir une certaine constellation de relations, s'impose à l'attention, déclare son caractère réel, et rend visibles les réseaux complexes qui lui donnent forme. La force par laquelle cette chose s'impose à la volonté va alors déclencher chez le dessinateur un contre-travail de mobilisation, garant de la mise en découvre oeuvre d'une lui-même "logique comme réelle". constellation Le ou dessinateur complexe se de 6 relations, qui exerce une force ou une résistance à l'égard d'autres individus individué réels. d'expériences Il qui, se elles découvre comme aussi, croisement réclament de "se représenter". Dans chaque tentative de dessiner, achevée ou non, la confrontation avec les choses occupe donc le premier rang, le dessinateur étant lui-même une de ces choses réelles qui se confrontent les unes aux autres. C'est là que prend sens, dans le discours de Beuys, la personnalisation des objets et des relations. Perçus comme ayant le pouvoir de "se déclarer", de "vouloir", ou même d'entretenir des "conversations" les uns avec les autres, ces "personnes composées de personnes" imposent la force de leur individualité à d'autres "personnes" réelles, elles aussi capables de volonté : les dessinateurs. On le voit, l'ambition pour le dessin de représenter quelque chose de réel passe avant tout par le respect de la façon dont un objet s'impose de lui-même, et soudain, à l'attention. Elle passe surtout par un travail portant sur la logique propre du matériau d'expérience de l'individu qui dessine. D'où l'importance du dessin comme lieu de passage vers la langue. 3. 1. Beuys insiste à maintes reprises sur l'importance du dessin comme lieu d'accès des choses au langage, et cela alors qu'il décrit ces mêmes choses comme déjà engagées, avant toute intervention humaine, dans quelque chose qui vaut comme une conversation. C'est que le lieu du dessin est double. On l'a vu, "rien de plus élémentaire que le dessin". Il embrasse tout geste de la main qui dénote ou évoque quelque chose, qui rapproche deux objets quelconques, pourvu que ce geste induise définition résonne quoi, une trace peircienne immédiatement qualité, matérielle. de l'icône, avec individu le Je qui propos existant ou rappellerai dans de loi, ici la sa généralité Beuys: "N'importe est l'icône de 7 quelque chose, pourvu qu'il ressemble à cette chose et soit utilisé comme signe de cette chose5." Dessiner, c'est pénétrer, avec n'importe quel instrument ou matériau, dans la dimension iconique; et cela parce que toute trace gestuelle prend en charge des ressemblances, y compris avec des choses inconnues ou invisibles. Dessiner, c'est en effet fixer une certaine constellation de qualités. En tant qu'elles prennent corps ici et maintenant dans le dessin, elles possèdent une consistance réelle. Mais en tant que qualités, elles manifestent des potentialités nomades. Ces caractéristiques font alors du dessin beaucoup plus que le lieu où se détermine une ressemblance déterminée : il devient le lieu de ressemblances à venir et à inventer. En ce sens on parlera légitimement, à propos du déclenchement de l'impulsion à dessiner, de déclaration d'un objet. Des qualités s'avancent, disposées en une certaine constellation, ou forme. Elles entrent en relation avec des instances de même qualité appartenant à d'autres objets. Cette circulation de ressemblances et de différences locales forme ce que Beuys nomme un "langage d'images" (Bildersprache)6. Qu'"un objet se déclare" ne signifie alors rien, sinon qu'une ressemblance perçues. potentielle Pour acquérir se laisse une repérer consistance dans les choses réelle, cette ressemblance devra en passer par l'opération du dessin. 3. 2. On voit poindre ici un deuxième caractère du dessin. Parce qu'il est trace, empreinte, il produit la ressemblance sous forme de quelque chose qui était déjà là, qu'il semble re-présenter a posteriori. Aussi tout signe dessiné est-il à la fois icône et indice : icône des constellations dont il 5 6 Voir supra, chapitre 2, p. 33. Voir l'entretien avec Hans van der Grinten, op. cit., L'expression souligne la dimension iconique du langage dessiné. p. 21. 8 présente le diagramme; indice des gestes qui l'ont bâti, dont sa matérialité conserve l'empreinte. L'attention portée à ces aspects explique l'importance qu'ont pour Beuys les matériaux qu'il utilise. Leur variété, leurs qualités, enfin les objets et les activités extra- artistiques auxquels ils renvoient sont partie intégrante de l'information diffusée : Je veux dire, il n'y a pour l'homme, tant qu'il est homme, absolument aucune autre possibilité de s'exprimer par rapport à autrui si ce n'est par un processus de substances. Même quand je parle, j'ai besoin de ma glotte, de mes os, d'ondes sonores, j'ai besoin par exemple de la substance de l'air : vous avez absolument besoin d'une membrane dans l'oreille sinon vous n'entendriez pas du tout ce que je dis. Il n'y a pas d'autre possibilité de transmission si ce n'est par une empreinte qu'on laisse dans un certain matériau7. Ce commentaire de Beuys amène à considérer un dernier aspect du dessin combinaison : la résistance d'indice et d'icône "matérielle" oppose à toute que cette absorption achevée dans la symbolisation. Antérieur à l'entrée dans le symbolique qu'il annonce, le dessin ne devient en effet jamais pleinement symbole. Il incarne une dimension archaïque du langage : le moment où l'articulation des relations apparaît dans les matériaux et la réalité du monde, mais où sa formulation n'est pas (encore) assujettie à des lois générales symboliques. Le caractère inchoatif du dessin ne se relie donc pas à l'émergence d'un objet perçu dans sa prétendue essence muette, prélangagière. Il concerne plutôt l'apparition de la relation sous forme d'une singularité saisie comme telle. 4. 1. Ici se laisse repérer un premier lieu de résonance entre la pensée beuysienne du dessin et celle de Deligny. Pour 7 Joseph Beuys-Volker Harlan, Qu'est-ce que l'art? cit., p. 112 (Je souligne). Ce texte ne porte pas spécifiquement sur le dessin. 9 le cerner, je partirai des deux infinitifs, tracer et tramer, qui orientent la collaborateurs, pratique, de développée fabriquer des par cartes Deligny des et ses trajets des enfants autistes avec lesquels ils vivaient, en réponse à des observations dont le champ nous amène du côté des problématiques ailleurs isolées par Beuys. Cette trouvaille concerne en effet l'activité – l'agir – d'individus autistes qui sont des enfants au sens original et le plus littéral du mot : des êtres-qui-ne-parlent-pas. Ils sont hors-langage, et on ne peut pas même dire que le langage leur « manque ». Ils n' « y » sont tout simplement pas. Or cette position « hors-langage » implique l'absence d'accès au symbole, au signe, en tant que (a) son usage est de convention ; (b) il déclare un sujet, communiquant et auteur de projets pensés. Pour les usagers de la langue que nous sommes habituellement, cette situation est trop aisément résorbable en pur constat d'un défaut ou d'un manque. Or, de ce horslangue quelque chose va surgir qui, sans jamais atteindre au signe symbolique, s'affecte d'un sens – et j'emploie ici le mot sens dans sa dimension la plus orientante et orientée. Les trajets des enfants, lorsqu'ils accompagnent les adultes et accomplissent les tâches coutumières dont l'exercice régit la communauté, ces trajets s'ornent de détours ou de stations « inutiles » : quelque chose là s'est laissé repérer, qui provoque ce que Deligny nomme un agir -- par opposition à un faire nécessairement déterminé par un projet, c'est-à-dire par un vouloir qui a partie liée avec le langage, autrement dit partie liée avec l'emprise mimétique qui unit entre eux les signes symboliques. Cet agir est sans sujet. Il se déclenche à partir d'une rencontre avec des choses qui, cessant du même coup d'être entièrement choses, deviennent repères, et font chevêtre. Je reprends ici une expression de Deligny, qui annexe un terme de 10 charpenterie médiévale : emboîte soliveaux les « pièce du de bois plancher » dans laquelle (Littré). Chevêtre on est aussi un nom ancien pour licou ou licol. Le terme désigne donc à la fois un lien et une marque de domestication animale. Ce sont ces lieux-chevêtres que vont repérer à leur tour les cartes dessinées sur des calques et superposées en transparence par Deligny et ses collaborateurs : des gestes circonstanciés – tourner sur soi-même, manipuler méticuleusement une chose, s'asseoir, se coucher là, etc. – viennent s'inscrire dans le cours des itinéraires coutumiers réitérés jour après jour. Les cartes enregistrent ces occasionnelles boucles d'ornement. À la fois action et lieu, celles-ci ne sont « en rien nécessaires et [] n'expriment rien, ne représentent rien. » (A, 160) Elles sont les marques et traces d'un pur agir. 4. 2. Avant de revenir sur le mode d'enregistrement ou de construction que déploient ces dessins, arrêtons-nous un instant sur ce qui s'y enregistre, et comment. Ce qui en effet va permettre la tâche - elle-même répétée - d'établir ces cartes, c'est d'abord d'avoir repéré dans la durée coutumière ornements les inutiles, lieux et activités moments pures où qui surgissent nouent ces ensemble quelque chose. C'est ensuite d'avoir repéré ces lieux comme des régularités, i. e. comme quelque chose qui, mis en branle par tel individu réitération (et en telles par circonstances, enregistrement de se ces découvre par réitérations) appartenir à un commun déjà repéré par d'autres. Aucun surcodage symbolique, aucune langue, ne commande le surgissement de ce « commun ». Il n'existe que de s'être laissé repérer, i. e. voir et revoir, jusqu'à susciter une initiative, un agir, grâce à ce que Deligny nomme ailleurs une quémande. Et ce commun repéré se met en relation avec des ornements et trajets autrefois parcourus – ce que révèle telle ou telle coïncidence, ou comparaison avec des cartes 11 anciennes. L'émergence de ce commun suggère ainsi une relation aux lieux solidement nouée, car nouée par autre chose que l'intention d'un sujet. Il suggère encore son caractère fossile – et à ce titre archaïque. 5. 1. On touche ici à plusieurs zones d'ambiguïté repérées déjà dans les propos de Beuys. Le chevêtre noue en effet ensemble - il « enchevêtre » - des choses qui ne sont pas - ou pas encore - signes, et qui ne le seront jamais complètement. Aussi Deligny va-t-il tantôt insister sur la différence insistante du chevêtre (et de l'orné) d'avec le signe ou symbole, tantôt le désigner comme ce qui continue de hanter la parole. C'est d'abord la différence d'avec le symbole qu'indique l'usage du mot repère – un terme de métier qui lui aussi désigne une marque spatiale de caractère linéaire. Et c'est elle qu'on entendra dans le propos suivant : Il n'y a pas, dans l'univers où repérer fonctionne sans qu'intervienne le pérorer, de chose quelque, comme on dirait qu'il y a quelqu'un. La chose quelque, c'est déjà de l'objet, tranché du reste, de tout le reste de par le fait d'être nommable. (A, 199) Le chevêtre noue quelque chose, mais ce quelque chose ne devient pas des choses quelques, déterminées car nommables. Les chevêtres sont des là où les lignes d'erre se recoupent, s'entrecroisent, dans l'espace et à travers le temps (A, 141). Ce quelque chose qui n'est pas encore une chose quelque, c'est la marque d'un commencement. Les choses s'y nouent entre elles à partir d'un relier inséparable de l'agir qui signale leur existence. Cet agir est le fait d'un individu, même s'il n'est pas (encore) celui d'un sujet. Il prélude à la parole, ne serait-ce que par l'emploi du corps qui s'y découvre. Chantonner, par exemple, met en jeu déjà tout ce qui, dans le 12 corps, permettra de parler. Et cet agir ne se résoud pas en langage. Il se refuse à quitter les choses nouées et l'éclat épiphanique des coïncidences qu'il y découvre. La tentative d'une saisie directement symbolique de ces « constellations fugaces, instables » serait structurellement vouée à l'échec, et Deligny insiste à l'occasion sur l'écueil auquel se heurte un tel usage du langage. La manière dont des choses au départ quelconques, coutumières, se laissent repérer comme nouées suscitent, par la cette marque manière de doit l'agir répété commander qu'elles le mode d'enregistrement qui s'en saisit. Le tracer, geste qui ne fait pas de lui-même appel à une loi de représentation symbolique, va alors venir ici relayer l'agir, et le porter jusqu'au seuil des signes, en faisant advenir quelque chose comme un signeseuil, pour emprunter une expression à Joseph Beuys. 5. 2. C'est en rapport avec le langage et la production des choses que Beuys fait intervenir la notion de signe-seuil (« Schwellenzeichen »). Mais langage exemple ici pris en de manière significative, précède toute le institution conventionnelle de la langue. C'est celui, créateur, de la divinité : On peut remonter à plus loin encore en posant la question : « Comment le monde est-il arrivé ? » Il y a ce que j'appelle certains « signes-seuils », ou bien Par exemple, dans l'Évangile selon Saint-Jean, il est dit : « Au commencement était le Verbe ». Dans le sens de ce concept, le mot est le logos. Que fait le logos ? Il commence le processus d'évolution. Comment, de ce mot ou de ce que j'appelle aussi un « signe-seuil », va finalement advenir de la matière ? Comment va advenir de cela un homme vraiment vivant ? La notion catégories du de signe-seuil, langage humain. on Elle le voit, désigne, en déborde les amont, une capacité à "faire monde" indépendante des "mots de la tribu" auxquels elle prélude. 13 Il est à cet égard intéressant d'observer que la catégorie de signe-seuil a pour pendant symétrique chez Beuys celle de contre-image (Gegenbild), qui, elle, renvoie à un après-coup, par le biais de la persistance d'ouverture anticipatrice seuil branche se rétinienne. qu'implique directement le sur La concept un dimension de signe- après-coup qui insiste/persiste, court-circuitant l'éternisation des symboles sur quoi repose la communication ordinaire. 5. 3. Deligny insiste de même sur le caractère d'avancée, d'ouverture vers le signe qui s'attache aux chevêtres, même chez les êtres de langage que nous sommes habituellement : A l'orée de cette espèce-ci, qui est nôtre, sans foi ni loi, quelque chose fait signe qui prélude à ce que la parole advenue fera de nous. (O, 717) Ou encore : Quand je dis « ce qui persiste à préluder », je n'entends pas préluder comme précéder. L'origine du langage : quelque chose persiste à préluder, maintenant, de façon permanente, alors que nous avons l'usage invétéré du langage. (O, 931, je souligne) Ce qui continue de préluder, c'est cet agir sans projet, ce repérer que le dessin, qui est avant tout trace – et trace en train de se faire – , prend en charge pour l'enregistrer à une autre échelle. Une fois délivrée de l'obligation de fabriquer des contours clôturant précisément des objets, une fois délivrée, donc, de l'obligation de représenter, la « trace de geste » retrouve en effet des puissances oubliées. Elle réacquiert la capacité de rendre compte d'une « toute autre matière », non-objectale, vis-à-vis de laquelle elle fonctionne comme « appareil à repérer », et non plus comme l'ordinaire « appareil à langage » ou « appareil à parler ». C'est ce compte-rendu que les gestes de « Janmari autiste » déploient, en un tracer qui jamais ne se résout en un tracé, écriture », même à la s'il manière constitue dont le déjà « l'amorce chantonner d'une constitue un 14 embrayage potentiel vers la parole. Gazouiller, c'est en effet tracer et tramer : Ce que j'ai sans cesse devant les yeux, outre la fenêtre qui m'éclaire, c'est, au mur, un tracer de Janmari, autiste, et réfractaire à ce que propose la mémoire ethnique, si bien que je ne sais jamais s'il s'agit d'un tracé ou d'un tracer. La différence est considérable. Si c'est d'un tracer qu'il s'agit, il n'y aurait donc pas une once de représenté, ce que je crois. (A, 129-130) Du tracer au tracé, « la différence est considérable ». Elle sépare un geste qui, chez les autistes qui l' « agissent », ne devient pas signe, d'un autre qui, lui, le devient : la trace réalisée, et son devenir-signe, écriture, chez ceux qui, non contents de « repérer », « pérorent ». La question se pose alors : dans quelle mesure l'activité de tracer/tramer, apparemment commune aux enfants autistes et aux adultes présents autour d'eux, du point de vue des gestes exécutés, manifeste-t-elle réellement quelque chose de commun aux uns et aux autres ? Tracé et tracer ont-ils réellement quelque chose en commun ? Et quoi ? Pour tenter de répondre à cette question, je voudrais amener deux séquences filmées : Ici exposition de deux séquences de film en succession.( Chacune dure environ 4 mn) : 1. Ce gamin là (séquence entre 1H14 :50 et 1h 19 :10 [74 :50 mn et 79 :10 mn][Jacques Lin ?] dessine, tandis que Janmari fait la vaisselle. Puis Janmari « dessine » en même temps que [Jacques Lin ?], il taille un crayon (JL aussi, un peu après),commentaire FD : « Le langage fait toujours défaut » -> « cette pierre à permettre » 2. Eurasienstab (séquence entre 11 :43 et 15 :43.) Beuys enduit l'arrière de son genou de margarine, promène le bâton eurasien près des angles supérieurs des poutres, il fait des signaux de la main, debout, écrit une inscription au sol, repromène le bâton près de l'ampoule lumineuse, refait des gestes-signaux,à demi-caché derrière une poutre, repromène le bâton, commence à défaire l'installation en remballant le bâton 15 6. 1. La séquence de Ce gamin-là en est la démonstration : le tracer autiste résiste à son assimilation au dessin, si on envisage celui-ci comme un signe élaboré et une écriture signifiante – et c'est le lieu de rappeler ici combien le mot même de dessin a eu à voir, historiquement, par le biais de l'étymologie, avec la volonté ; avec l'établissement d'un but, d'un dessein – donc combien il a à voir avec le faire, et avec l'établissement de « projets pensés ». Beuys signalait, après tant d'autres, cette connexion entre dessin et volonté. Mais c'était, on l'a vu, pour placer la volonté du côté d'une quémande des choses, tout autant ou plus que du côté de l'être qui dessine. La question se pose alors de dessiner, l'existence qui d'un persiste et commun, repéré insiste, jusque dans dans l'acte des de tracés écrits trop vite perçus comme de purs signes, annulés par la compréhension qui s'y attache. Autrement dit, si le dessin n'est pas entièrement langue, n'existe-t-il pas un commun d'espèce qui, exceptionnellement pour nous, êtres parlants [« l'homme-que-nous-sommes »], ne dépend pas de la langue, puisqu'il continue d'en être le seuil ? Un commun d'espèce dont les traces, à la fois tacites et manifestes, se laissent repérer dans l'activité de dessiner, et, plus particulièrement, dans ce qui, en elle, résiste à une appréhension sémiotique ? Dire que le commun est liminaire rappellerait qu'il est initial, primordial, et toujours/déjà éliminé, « chassé hors du seuil » nous dit le dictionnaire qui ajoute à propos du verbe éliminer : « écarter, faire disparaître à la suite d'un choix. » (A, 216) C'est à la capture de ce commun liminaire, et trop vite éliminé, qu'une activité de dessin redevenue attentive à la quémande des choses, peut se vouer – le voeu se distinguant ici de la volonté et du projet par son renoncement justement au vouloir conscient, et par sa mise en flottaison parmi les choses coutumières. 16 6. 2. Il me paraît que c'est bien ce dessin primordial que met en scène Eurasienstab. Entendons-nous : il ne s'agit pas ici de jouer aux "primitifs", en feignant de croire qu'on s'est soudain magiquement transporté au commencement-musicald'avant-la-langue. Il s'agit plutôt de (re)trouver, à partir de la situation ordinaire de domination des symboles dans laquelle nous vivons, la dimension potentielle que recèle un jeu ouvert des gestes. Le dessin, trajet vers la langue qui prend corps avant la consolidation de symboles achevés, et qui existe comme une dimension propre, n'est en effet aujourd'hui accessible que comme une langue d'après les symboles. Travaillant avec les symboles, il doit d'abord les casser pour ensuite les refluidifier, et retrouver sa mission première : celle d'un commencement orientant, qui procède à une une institution asymbolique du sens. D'où la vigilance que nécessite le redéploiement de la dimension inchoative : J'essaie de garder le caractère langagier [du dessin] dans la plus grande fluidité et mobilité possibles, pour dépasser l'usurpation de la langue par le développement culturel et la rationalité. () C'est cet élargissement de la langue qui me fait m'intéresser au dessin8. D'où, aussi, le caractère archéologique de la démarche beuysienne. Elle s'attache à retrouver un fossile, qu'il s'agira de rendre à nouveau manifeste sans cautionner pour autant une attitude régressive. Pourvu qu'ils soient autorisés à faire empreinte (comme ici avec le film), les gestes accomplis, dans leur capacité de saisir la relation au moment où elle s'invente, restaurent le plan élémentaire où se défont les limitations qui ont marqué l'histoire moderne du dessin. Celui-ci y redevient pensable en 8 Ibid., p. 20-21 (Traduction modifiée. Je souligne). 17 général comme l'effectuation de traces qui font signal, non pas parce qu'elles appartiennent à des registres encodés par avance, mais parce qu'elles savent produire, à partir d'un nombre réduit de gestes coutumiers, un acheminement vers le signe qui ne se confond pas avec l' "acheminement vers la parole", mais fait place à l'image, en tant que direction propre de pensée. 6. 3. Deligny met lui aussi l'accent sur cette dimension inchoative du dessin, et sur sa capacité à cerner un agir dénué de projet, car encore étranger à la langue. Il montre par ailleurs, on l'a vu, l'insistance de cette dimension dans le présent moderne, et l'impossibilité de réduire ce moment archaïque à un autrefois définitivement dépassé : J'ai écrit que si l'insconscient est ce qui insiste, le commun est ce qui persiste. Aujourd'hui j'écrirai que le commun est ce qui prélimine, bien que ce verbe n'y soit pas, dans le dictionnaire; ce qui voudrait dire que repérer/agir précède, et non pas dans le temps comme on pourrait le croire, mais dans le moindre moment, la "place" étant toujours/déjà cédée au bonhomme qui n'y peut rien que se faire croire ce à quoi il croit, y compris qu'à partir de l'un, le commun pourrait se faire jour, ce qui n'arrive jamais9. Dans un texte qui oppose la « conception cartographique » de Deligny psychanalyse », à la Gilles « conception Deleuze archéologique caractérise cette de la dernière comme liant profondément « l'inconscient à la mémoire », par opposition aux « milieux » et aux « devenirs » circonstanciés que repèrent et composent les cartes : d'une carte à l'autre, il ne s'agit pas de la recherche d'une origine, mais d'une évaluation des déplacements. () Ce n'est pas seulement une inversion de sens, mais une différence de nature : l'inconscient n'a plus affaire à des personnes et des objets, mais à des trajets et des devenirs ; ce n'est plus un inconscient de commémoration, 9 « Quand le bonhomme n'y est pas » », A, 216 (je souligne). 18 mais de mobilisation, dont les objets s'envolent qu'ils ne restent enfouis dans la terre10. plus Il serait tentant d'installer Beuys et Deligny de part et d'autre de cette ligne de démarcation : Beuys l'archéologue, soucieux du souvenir, de l'exploration de ses strates et de ses effets sur la psyché ; Deligny le cartographe, occupé à repérer et à enregistrer « les choses d'oubli et les lieux de passages11 ». proposition La a tentation son est quotient d'autant de plus vérité, grande pour peu que la qu'on privilégie chez Beuys ses discours, plutôt que ce que déclare sa pratique plastique. Je préfère marquer ici l'insistance, chez l'un et chez l'autre artistes, discours, y d'un agir compris qui continue aujourd'hui de chez préluder les au êtres « hyperparlants », communicants, et commémorateurs, qu'on nous somme d'être sous peine d'être punis. Je préfère conclure, enfin, sur la dimension politique que revêt cette exploration du dessin, et plus précisément du geste de tracer. Le commun qu'il tente de dégager, depuis le coutumier auquel il ne s'identifie pas, même s'il y habite, est en effet une arme à déployer contre les puissances de « l'inconscient de commémoration », et contre les « sujets » auxquels il s'adresse, qu'il prétend dresser. Il est bien cet « inconscient de mobilisation » que laissent repérer les trajets réitérés, ornés, des enfants, de ceux qui ne parlent pas. Il est bien, enfin (et je laisserai ainsi le dernier mot à Deligny), cette mémoire réfractaire à la domestication symbolique, quelque peu aberrante et qui se laisse frapper par ce qui ne veut rien 10 Gilles Deleuze, « Ce que les enfants disent », Critique et clinique, Editions de Minuit, Paris, 1993, p. 83-84. 11 Ibid., p. 87. 19 dire, si on empreinte12. 12 « Camérer », O., 1744. entend par frappe ce choc qui fait
{'path': '55/halshs.archives-ouvertes.fr-halshs-00595158-document.txt'}
MÈRE PORTEUSE ET DROITS DE L'ENFANT François Giraud To cite this version: François Giraud. MÈRE PORTEUSE ET DROITS DE L'ENFANT. 2016. hal-01329458v3 HAL Id: hal-01329458 https://hal.archives-ouvertes.fr/hal-01329458v3 Submitted on 18 Jun 2016 MERE PORTEUSE ET DROITS DE L'ENFANT François Giraud: juriste, membre statutaire et Responsable au « Laboratoire de Sociologie Juridique de l'Université Paris II », de la recherche Droit et Santé. ----------- Corrigé, actualisé et republié par Joëlle Godallier 1 TABLE DES MATIERES 1. Une mère porteuse garde l'enfant et l'argent. 2. Qu'est-ce qu'une mère porteuse ? 3. Comment devient-on mère porteuse ? 4. Maternité pour autrui et droit. 5. Les motivations d'une femme stérile. 6. Le « système » du docteur Geller. 7. Légiférer ? 8. Le dossier de la mère de substitution et de l'insémination artificielle. 9. La maternité de substitution et la procréation assistée aux U.S.A. et en Europe du Nord. 10. Annexes. 11. Bibliographie. 2 INTRODUCTION En 1982, alors tout jeune chercheur au Laboratoire de Sociologie Juridique de Paris II, je me vois confier par François Terré la responsabilité d'un contrat de recherche en droit comparé portant sur la PMA. C'était l'époque où le docteur Sacha Geller { Marseille et le docteur Richard Levine aux Etats Unis, par leurs pratiques, déchainaient les passions sur le sujet brûlant des naissances par mère porteuse. Je proposais à François Terré le concept de « gestation pour le compte d'autrui » pour qualifier la maternité de substitution (en référence bien entendu à la gestion pour le compte d'autrui bien connue des civilistes) Il accepta et très vite il fut dénommé plus simplement « gestation pour autrui » actuellement GPA. La recherche que je menais alors, avec une équipe de doctorants de François Terré, au cours des années 80 en Europe et aux Etats Unis se voulait d'une neutralité irréprochable sur ce sujet aussi « clivant ». Ce qui n'est pas toujours aisé, les chercheurs le savent. Un rapport de recherche, des articles et deux ouvrages sur les mères porteuses ont été publiés au cours et { l'issue de cette recherche. L'un d'entre eux 1« Mère porteuse et droits de l'enfant » édité en 1987 à Paris est épuisé depuis longtemps.Il m'a souvent été demandé de le publier { nouveau, notamment lorsque le sujet est revenu dans l'actualité plus de 15 ans après. Le voici tel quel, légèrement actualisé. Les problématiques chères aux sociologues étant quasiment les mêmes aujourd'hui. J'en profite pour rendre hommage { Jean Carbonnier, François Terré et Jacqueline CostaLascoux que j'ai eu la chance inespérée { l'époque d'avoir comme maîtres de recherche. L'autre « Mères porteuses, oui ou non ? » Sacha Geller, Ed. Frison-Roche, juin 1990 1 3 1 UNE MERE PORTEUSE GARDE L'ENFANT ET L'ARGENT. Paris, 20 décembre 1985 (AFP) – une mère porteuse, inséminée par le docteur Sacha Geller, a gardé l'enfant « commandé » par un couple, ainsi que la somme de 25000 F qui lui avait été versée la jeune femme d'une trentaine d'années qui s'était proposée pour porter un enfant et le donner ensuite à un couple stérile avait déjà un enfant de sept ans, et vivait séparée de son mari. C'est, enceinte de six mois, qu'elle a annoncé au couple qu'elle comptait garder l'enfant qui a aujourd'hui quatre mois. « C'est son droit le plus absolu de garder l'enfant, mais si elle avait été honnête, elle aurait rendu les 25000 F que lui avait versé le couple », estime le docteur Geller. « Cette femme avait mis une condition à sa candidature, explique-t-il. Elle avait demandé que le couple vive sa grossesse avec elle et la soutienne durant cette période. Cela m'a paru louable et je l'ai présentée { ce couple avec lequel elle a ensuite traité directement, sans passer par moi. Arguant des problèmes financiers, elle a demandé que l'argent lui soit versé en avance et le couple a accepté ». « Cela devait bien finir par arriver », commente la presse. En fait, que s'était-il réellement passé ? Faire partager la grossesseet verser un acompte de 25000 F. A la fin de l'année 1984, une jeune femme se présente au cabinet du docteur Geller { Marseille pour lui proposer sa candidature comme mère porteuse. Le contrat s'est établi très rapidement, trop peut-être. Le docteur Geller, sa femme et la jeune candidate déjeunent ensemble et en parlent plus longuement. On contacte le couple stérile par téléphone. La jeune femme veut connaitre ce couple, elle désire « faire partager sa grossesse » ; le docteur Geller ne s'y oppose pas, ni le couple, bien que l'un comme l'autre aurait préféré le respect de l'anonymat, mais cette démarche leur semblait sincère. Le couple accepte de verser un acompte de 25000 F (la moitié de la somme prévue) à cette femme qui portera pour eux un enfant. L'accord est conclu. Puis vint l'époque d'une médiatisation extrême du « prêt de l'utérus » ; le mensuel Parents publie les noms et les photos des mères porteuses, ce qui déplait à la jeune femme. Il s'ensuit un climat de méfiance. Est-ce la raison pour laquelle cette mère porteuse décide dès le mois de juin de garder l'enfant ? Celui-ci est au mis, elle maintient sa décision. Fin décembre, l'affaire est révélée { la presse. Cette femme, séparée de son mari, voulait-elle un deuxième enfant ? Mais pourquoi alors conserver les 25000 F et « salir » quelque peu l'usage qu'elle fit de son droit le plus inviolable qui est celui de garder son enfant ? Le couple « escroqué », s'est contenté de déclarer : « que cet enfant soit le plus heureux possible ! ». Ils ont depuis, bénéficié des services d'une autre mère porteuse. Peu importent les véritables motivations de cette jeune femme ; 4 Comment une telle situation a-t-elle pu se produire ? Quels sont les droits et les obligations d'une mère porteuse ? Ceux du couple stérile ? Le « prêt d'utérus » est-il vraiment une solution pour ce dernier ? La science doit-elle offrir, puis la loi garantir, un « droit { l'enfant », un « droit à être parent » ? D'autres solutions ne sont-elles pas envisageables ? Une mère porteuse aux yeux bleus. « Sarah, la femme d'Abraham, ne lui avait pas donné d'enfant. Elle avait une servante égyptienne, nommée Hagar. Sarah dit à Abraham : le seigneur ne m'a pas permis d'avoir des enfants, vas vers une servante et peut-être par elle aurais-je un enfant et Hagar donna un fils à Abraham. » Ces phrases extraites de la Genèse sont souvent citées dans les documents distribués par les centres de mères porteuses des U.S.A, qui proposent { leur clientèle d'obtenir un enfant par prêt d'utérus. En 1978, le docteur Richard Levin met en place à Louisville (Kentucky) un tel centre 2, lequel s'informatise très rapidement et lorsqu'un couple demande au docteur Levin une mère porteuse aux yeux bleus, jouant du piano et diplômée de Harvard, il suffit à ce dernier de presser sur quelques touches de son terminal, d'attendre quelques secondes et les noms apparaissent ! La transaction fait l'objet d'un contrat 3qui se négocie entre les conseils respectifs du couple demandeur et de la mère de remplacement. Très vite l'idée gagne l'Europe. A Londres, l'association « Miracle program Inc » (créée en avril 1983 par Mrs Harriet Blanksield) est une agence spécialisée dans la recherche des mères porteuses. Pour une somme de 16000 £, cette agence met en rapport des couples qui ne peuvent pas avoir d'enfants du fait de la stérilité de la femme, avec des mères porteuses. Les parents potentiels prennent d'abord contact avec l'agence, qui recherche ensuite une femme dont les caractéristiques physiques se rapprochent le plus possible de celles de la femme stérile. À aucun moment, la mère porteuse ne rencontre le couple. Elle signe, dès la conception, un contrat par lequel elle s'oblige { abandonner l'enfant à sa naissance. Sur les 16000 £4 versés par le couple, la mère porteuse en reçoit 6500, le reste revenant { l'agence. En France, le docteur Geller, gynécologue de Marseille, qui s'est fait connaitre par son combat pour la pilule anticonceptionnelle, puis pour l'avortement libre, est président du C.E.F.E.R. (Centre d'Exploration Fonctionnelle et d'Etude de la Reproduction), banque de sperme pratiquant depuis une dizaine d'années l'insémination artificielle. 2 Surrogate Parenting Associates. Voir infra en « dossier » 4 Une livre sterling correspond à 8.33 Francs. 3 5 Il lance l'idée d'une structure « non lucrative » permettant d'organiser la maternité de substitution excluant tout marchandage et refusant le bénévolat. A plusieurs reprises nous nous sommes longuement entretenus avec lui : « le hasard a voulu que le Club de gynécologie de Marseille, dont je suis le secrétaire général, organise une séance de formation continue sur la fécondation in vitro, à laquelle participait le professeur Salat-Baroux, de la maternité de Tenon à Paris, un des pionniers de la fécondation in vitro en France. C'est l{ que j'ai pris conscience du faible rendement de cette technique. Quelques chiffres pour vous donner une idée : il y a en France chaque année, 8000 interventions pour stérilité tubaire. La microchirurgie permet d'en guérir statistiquement 30% environ. Restent 70% des cas qui pourraient théoriquement bénéficier de la fécondation in vitro. Or le rendement de cette technique en France, actuellement, varie selon les équipes de 3 { 10%. C'est-à-dire que sur les 70% restant après microchirurgie, 7, au mieux, pourraient être « récupérées » par la fécondation in vitro ! 30+7=37. Restent donc 63% des cas pour lesquels la science médicale la plus sophistiquée, comme la fécondation in vitro, ne peut rien ! 63% de 8 0000 = 5 040 « Ainsi, chaque année, plus de 5 000 femmes « restent sur le carreau », si j'ose dire, ceci rien que dans le cas des stérilités d'origine tubaire. A quoi s'ajoutent les cas de stérilité d'origine ovarienne, comme par exemple la ménopause précoce (s'il n'y a pas d'ovocyte, on ne peut le féconder), et les cas de stérilité d'origine utérine (s'il n'y a pas d'utérus, comme après l'hystérectomie, il faut bien en trouver un autre) « Ayant ainsi pris conscience de l'incapacité où se trouvait la fécondation in vitro de résoudre le problème des stérilités féminines irréversibles, j'ai pensé { la maternité de substitution. Toutefois, il m'apparait que l'approche commerciale du problème, si elle pouvait se comprendre aux U.S.A. n'était cependant pas adaptée { notre contexte culturel. Il fallait donc réfléchir au problème et trouver une formule qui puisse être applicable chez nous » La procréation artificielle en France Et la médecine du désir. Quelle est la situation de la procréation artificielle, appelée également procréation assistée en France et { l'étranger ? La pratique est ancienne, mais en France, l'insémination artificielle s'est développée surtout depuis 19455. Cependant l'ouverture du premier C.E.C.O.S. (Centre d'Etude et de Conservation du Sperme) en 1973 { l'hôpital de Bicêtre et ses premiers résultats prometteurs : plus de 16 000 enfants sont déjà nés par insémination artificielle en France6, celle du C.E.F.E.R. de Marseille que nous venons d'évoquer, lequel décide de rémunérer modestement le donneur, donneront lieu aux plus vives polémiques quant au développement de la procréation artificielle. Les éléments de ces polémiques s'ordonnaient déjà autour de la « médecine du désir » : le médecin doit-il offrir toutes les possibilités de la 5 En 1957, la fédération française des gynécologues-obstétriciens indiquent que certains gynécologues pratiquent l'insémination artificielle (I.A.) (ils sont très peu nombreux) et ont recours à des donneurs célibataires payés. 6 Voir pp.93 et 97 chiffres C.E.C.O.S. et C.E.F.E.R. 6 science à son patient sans en vérifier la nécessité réelle et sinon qui est juge de cette nécessité ? Du droit de l'enfant, bien au-del{ de l'aspect purement juridique de ce droit : le droit de naître, le droit d'avoir une mère, un père ; du problème de la rétribution du donneur, des moyens de garantir l'anonymat de ce dernier, de la sélection biologique et sociologique de ce donneur et les risques de glissement vers l'eugénisme, de l'insémination artificielle des femmes célibataires, voire de la demande des couples homosexuels. Le premier bébé-éprouvette. La naissance de Louise Brown en Grande Bretagne par fécondation in vitro le 16 juillet 1978 sera une première mondiale. C'est { l'occasion de la première française in vitro Amandine le 24 février 1982 { l'hôpital Antoine Béclère de Clamart que l'on parlera de FIVETE (Fécondation In Vitro et Transfert d'Embryon). « La méthode de fécondation in vitro permet { des couples stériles d'avoir un enfant et elle est réservée en principe { ceux pour lesquels il n'existe pas d'autre procédé. Elle consiste à prélever des ovules dans l'ovaire et { leur faire rencontrer des spermatozoïdes du conjoint en éprouvette ; dans des conditions appropriées, nous obtenons la fécondation et le tout début du développement (deux jours maximum), avant de replacer l'embryon dans l'utérus de la femme qui a produit l'ovule », précise Jacques Testart7, dont l'équipe avait réalisé la naissance d'Amandine. En France le seuil du millier de naissances par FIVETE est déj{ atteint. La naissance de Zoé à Melbourne, en Australie, le 11 avril 1984, { partir d'un embryon congelé, suivie par la naissance dans les mêmes conditions de deux jumelles le 25 février 1985, si elles n'apportent pas de complications juridiques supplémentaires, accroissent le problème moral par le taux de destruction de l'embryon qu'elles supposent. Le don d'ovule La fécondation in vitro avec don d'ovule est pratiquée de façon régulière au centre des professeurs Edwards et Steptoe à Bourn Hall près de Cambridge (Grande Bretagne) 8, depuis la naissance de Louise Brown ce centre a donné la vie à 700 enfants par fécondation in vitro dont 60 d'entre eux, après don d'ovule. Cette technique est également utilisée en Australie notamment par l'équipe médicale du Queen Elisabeth Hospital d'Adélaïde(professeur Warren Jones et docteur Chritopher Chen), laquelle a réussi pour la première fois une fécondation in vitro avec un ovule conservé par congélation le 18 décembre 1985. Un pouvoir sans limite donné au médecin 7 8 In projet n°193, oct.1985 Le professeur Edwards nous a déclaré qu'il n'excluait pas le recours au « prêt d'utérus avec transfert d'embryon » 7 Les débats, souvent passionnés, sont loin de cesser, ces techniques en « déplaçant dans le temps et l'espace » l'acte de procréation, en faisant intervenir éventuellement un tiers dans le processus (don de sperme, don d'ovule, don d'embryon, prêt d'utérus) ne vont-elles pas donner un pouvoir illimité au médecin ? Au technicien de laboratoire, ne risquent-elles pas de bouleverser la structure familiale ? Par la sélection des embryons, ne va-t-on pas tout droit vers l'eugénisme ? « Le médecin est un homme comme un autre ». Nous avons posé ces questions au docteur Farber, président de l'Association Médicale Mondiale et vice-présidentde l'Ordre des Médecins de Belgique : « Lorsque le médecin est consulté par un couple pour un problème de stérilité, il vient voir d'abord et avant tout un technicien dépositaire d'un monopole. Seul un médecin dans nos pays est habilité { extraire l'ovule d'un ovaire par laparoscopie. Le couple ne vient pas demander au médecin une opinion juridique, philosophique ou religieuse. Bien sûr, le médecin est un homme comme un autre, mais il ne peut certainement pas imposer sa conception de la morale ou de la religion aux patients qui viennent le consulter, il doit éviter tout abus de pouvoir. Tout au plus, peut-on admettre ce que le français appelle la clause de conscience. Le médecin peut dire : je refuse d'accomplir tel ou tel acte que vous me demandez parce que, non seulement, je suis catholique, mais je suis en plus prosélyte. « Tout ce qu'on peut dire ce n'est pas « je désire vous empêcher de commettre un pêché » mais bien « je vous donne l'adresse d'un confrère qui ne pense pas comme moi » ». « Supposons qu'une femme jeune ait perdu sa matrice dans une intervention chirurgicale. Elle a des ovaires superbes et son partenaire est particulièrement bien équipé. Ils disent au médecin : nous désirons avoir un enfant et nous avons appris l'existence du transfert d'embryons, nous vous présentons une dame qui consent { porter le fruit de l'union de nos gamètes le temps qu'ils soient viables. « Que doit faire le médecin ? S'assurer du consentement éclairé de tout le monde. Il ne lui incombe pas de demander { la mère porteuse qu'elle est la somme qu'elle touche, pas plus qu'il ne demande au mari le montant de la dot de sa femme. Ce qui me parait aberrant c'est de voir des tierces personnes pontifier sur un sujet qui ne les concerne pas, { l'aide d'arguments de midinettes. Par exemple, celui qui consiste { parler de l'attachement biologique qu'éprouve une mère pour l'enfant qu'elle a porté. Dans nos hôpitaux près de 10% des jeunes mères demandent { abandonner l'enfant qu'elles ont mis au monde. «Dans les pays où l'interruption volontaire de grossesse est autorisée par la loi, près de la moitié des femmes enceintes se débarrassent de l'enfant qu'elles portent dans leur sein. « Le médecin a pour devoir de s'assurer de la volonté réfléchie du patient et non pas de lui imposer ses opinions. Pour ce qui concerne le droit et le statut de l'enfant ainsi procrée, je vous assure que les médecins ne feraient pas grand-chose pour aider leurs patients s'ils attentaient patiemment des dispositions législatives adéquates chaque fois qu'un progrès scientifique intervient. Dans nos pays de droit romain, il faut ajouter la préoccupation tatillonne du texte et le respect insensé pour la forme et non pas pour le fond. « En fait, la consultation chez le médecin se passe en toute confiance. Le médecin est tenu au secret le plus strict et il n'est pas question non plus pour le médecin de torturer ses 8 patients pour leur extorquer une identité qu'ils veulent cacher ou un statut juridique qu'ils ne désirent pas faire connaitre ». « L'ignorance en biologie est stupéfiante ». «Il faut constater que notre société manque de tolérance vis-à-vis des faits qu'elle ne comprend pas bien. La vulgarisation scientifique trahit la vérité. Il est difficile de faire comprendre au public qu'une mère porteuse n'exerce quasi certainement aucune influence sur l'avenir biologique de l'enfant déterminé par des facteurs génétiques. L'ignorance de nos populations en matière biologie est stupéfiante ! Nos croyances remontent au moyen âge et aux romains !! « Au point de vue héréditaire, l'influence du père ou de la mère est minime ou quasi inexistante. Dans la loterie génétique, nous avons plus de chance de ressembler à un ancêtre d'il y a plusieurs centaines de générations qu'{ l'un ou l'autre des parents. Il est tragique de constater parfois même à quel point on affirme des ressemblances alors qu'il s'agit d'un enfant qui ne comporte aucun gène, ni du père ni de la mère. Cela est tellement vrai que lorsqu'on fait des typages précis, on est surpris de voir qu'il y a, en tout cas dans notre pays, plus de 20% de cocus ! ». Les enfants juifs qui refusaient de quitter la famille qui les avaient sauvés. - Que devient la structure familiale ? « Je ne comprends pas bien la différence entre l'adoption et le principe de la mère porteuse.Des liens sentimentaux peuvent ou non naître même entre nourrices et mères d'accueil et enfants placés par le juge. On a connu de vrais drames dans ces cas. Pourtant la famille d'accueil n'avait rien { voir sur le plan génétique avec les parents biologiques. Ainsi des enfants juifs ont refusé après la guerre de quitterles familles qui les avaient sauvés pour retourner chez leurs parents réels. Le médecin n'a pas { imposer sa propre conception de la famille à ses patients. Il y a autant de femmes qui abandonnent l'enfant qu'elles portent ou ont porté dans leur ventre que de femmes qui considèrent que l'enfant adopté est leur propre enfant ». - La lutte contre la stérilité peut-elle masquer la recherche d'un enfant parfait ? « Si l'on pouvait déj{ améliorer la nature en supprimant la plupart des malformations congénitales ou d'insuffisances chimiques qu'elle nous impose { notre naissance,cela serait un progrès immense. « Par exemple, si nous pouvions enlever sur les chromosomes l'endroit (le gène) qui code le défaut génétique du diabète, on empêcherait cette maladie de passer d'une génération { l'autre. Mais on n'en est pas encore l{.Nous ne connaissons pas encore l'endroit qui détermine que Lollobrigida est belle et Einstein intelligent » « La mère de Hitler était peut-être une brave femme ?» 9 « Mélanger les oeufs de l'un et le sperme de l'autre ne garantit pas un rejeton qui aurait les deux qualités. La mère de Hitler était peut-être une brave femme et lorsqu'on parle de famille de musiciens, comme chez J.S. Bach, on oublie qu'on rencontrait { son domicile plus de violoncelles et d'épinettes que partout ailleurs, ce qui facilitait la vocation. «On peut déjà déterminer si un foetus est hémophile ou pas, puisque chez les hémophiles seuls les mâles expriment la tare qui existe cependant dans les deux sexes. Dès lors, en examinant un foetus provenant d'un père ou d'une mère hémophile, on peut éliminer les foetus porteurs de chromosomes (males) et ne réimplanter que les femelles en évitant ainsi de mettre au monde un enfant atteint d'une maladie aussi grave et aussi terrifiante ». 2 QU'EST- QU'UNE MERE PORTEUSE ? De quelle mère porteuse parlons-nous ? Celle, baptisée par abus de langage « vraie mère porteuse » (elles le sont toutes), s'en tient strictement au prêt de son utérus. La génitrice est inséminée avec le sperme de l'époux de la femme stérile ; cinq jours après la fécondation de l'oeuf, celui-ci est transplanté dans l'utérus de la mère porteuse. Le docteur John Buster qui a réalisé ces transplantations au centre médical de l'université de Los Angeles n'a malheureusement pas obtenu un taux de réussite supérieur { 5% pour un projet qui selon l'agence Reuter a coûté plus de 3 millions de dollars. L'autre mère porteuse, qui cumule cette fonction avec celle de donneuse d'ovule, a une longueur d'avance. Il s'agit, rappelons-le, d'une femme qui porte un enfant pour un couple stérile après avoir été inséminée artificiellement par le sperme du mari de la femme stérile. L'insertion de l'enfant dans la famille s'effectue en trois temps ; la mère porteuse donne naissance { l'enfant sans établir sa maternité (« accouchement sous X »), le mari de la femme stérile, le père biologique, reconnait l'enfant puis sa femme engage une procédure d'adoption de l'enfant du conjoint. Des incidents juridiques qui peuvent se cumuler. En faisant intervenir une mère porteuse, laquelle durant le temps d'une grossesse va se retrouver au service du couple (connu d'elle ou anonyme), la naissance par maternité de substitution multiplie les problèmes que le sociologue, le psychologue et le juriste peuvent glaner { l'étude des multiples techniques de procréation artificielle :  L'acte d'insémination artificielle et ses conséquences en matière de responsabilité médicale. 10          Eventuellement le don de sperme, d'ovule ou d'embryon et le délicat problème des termes de l'accord passé avec le donneur ou la donneuse. Celui de la sélection de ces cellules, de leur « propriété » notamment s'il y a lieu { congélation, puis décès du donneur, de la femme qui a donné l'ovule ou l'embryon ou de celle qui l'a reçu ou de la receveuse. « la gestation pour le compte d'autrui » ou « maternitépour autrui » : incidents en cours de grossesse (grossesse extra-utérine, décision d'avorter, décès de la femme stérile, malformation de l'enfant { la naissance). Un accord même illicite peut-il prévoir tous ces événements ? L'immixtion d'un tiers dans le processus de procréation ; incidences psychologiques sur le couple, sur l'enfant. L'indemnisation de la mère porteuse : quand la somme doit-elle être versée ? L'anonymat : comment le garantir ? une grossesse peut-elle se partager ? « l'accouchement sous X » par la mère porteuse peut être difficile à vivre par cette dernière. De même il faut envisager la reconnaissance d'un enfant naturel ou adultérin et l'engagement qu'il représente poue le père notamment si la mère porteuse décide de garder l'enfant. Enfin la procédure d'adoption engagée par la femme stérile dont les résultats pourraient être aléatoires, notamment si la situation matrimoniale du couple évoluait en cours de grossesse. La première mère porteuse française. On le voit, un grand nombre d'incidents potentiels planent sue le déroulement d'une maternité de substitution. Or le prêt d'utérus connait un développement encore limité, mais réel en France9. La naissance d'Isabelle, en avril 1985, mise au monde par Patricia (première mère porteuse en France), a relancé une polémique très vive tant sur le prêt d'utérus que sur sa rétribution. L'argumentation nous est maintenant bien connue : Les partisans du prêt d'utérus, dont les membres de l'association Sainte Sarah qui regroupe des couples stériles, considèrent que c'est le seul moyen(les autres étant épuisés) pour un couple dont la femme est stérile, d'avoir un enfant ;d'autres par le fait de porter un enfant pour une autre femme peut être perçu comme un acte de générosité et de solidarité, et s'il est des risque lors de la grossesse, la générosité n'en est que plus grande. Ils invoquent la libre disposition de son corps, la liberté individuelle et rappellent à ceux qui craignent l'intrusion d'un tiers dans leurs liens matrimoniaux, qu'ils peuventtout simplement renoncer à une intervention. Quant aux rapports mère/enfant in utero, ils insistent sur le fait que peu de choses véritables sont réellement connues.De toute façon, une telle rupture ne serait pas un 9 Plus de 100 naissances par l'intermédiaire de l'association « Alma-mater » du Dr Geller et plus de 1 000 couples stériles présélectionnés en attente. 11 argument de premier ordreface { la volonté pour une mère d'adopter un enfant, au surplus dont le conjoint est le père biologique. Enfin l'indemnité forfaitaire versée { la mère porteuse représente le dédommagement des contraintes supposées par le prêt d'utérus ; elle est la compensation de la renonciation par la mère porteuse { ses droits sur l'enfant. Les adversaires de la maternité de substitution (église catholique, comité jean Bernard, ordre des médecins), soit refusent toute intervention de tierce personne dans la procréation du couple et donc excluent le prêt d'utérus, soit considèrent que la contribution de la mère porteuse est beaucoup plus intime et personnelle que celle du donneur de sperme dans l'insémination artificielle. L'utérus comme incubateur Pour tous ceux-l{ la maternité de substitution utilise l'utérus comme matériel (un incubateur) dont on tire un profit financier, lequel suppose l'existence d'un contrat dégradant pour l'enfant qui aura ainsi été « acheté » à sa mère. La mère porteuse doit-elle être rétribuée ? Nous avons évoqué ces différents arguments avec le docteur Geller : « Le problème crucial était celui de l'attitude { adopter envers la mère porteuse, dite « mère d'accueil ». En fait ce problème ne comporte que trois solutions, à savoir le marchandage, le bénévolat et l'indemnisation forfaitaire. «Le marchandage » { l'américainene paraissait pas adapté à notre contexte culturel. Quant au « bénévolat » il paraissait irréaliste. En effet, on ne trouve déj{ pas de sperme si l'on n'indemnise pas, si peu que soit le donneur. Alors vous pensez, pour une grossesse ! Le don de sperme s'expédie en quelques minutes, la grossesse dure neuf mois. «On risque donc de ne trouver personne. Et si l'on ne trouve personne, que se passera-t-il ? Il y aura le marché noir, naturellement. Marché noir encore plus détestable que le marché ouvert { l'américaine, car il pénalise les plus démunis. Idéal en théorie, le bénévolat ne peut donc pas, malheureusement, constituer une solution pratique du prêt d'utérus ». « L'enfant doit sortir des lois du marché » « Restait « l'indemnité forfaitaire ». C'est la solution que nous avons choisi. Pour nous, en effet, l'enfant n'a pas de prix. Il ne vaut pas 50 000, 100 000 ou 200 000 F, il n'a pas de prix. Surtout pour un tel couple qui donnerait sa chemise, si j'ose dire, pour avoir un enfant ! « Et s'il n'a pas de prix, il faut le sortir des lois du marché. C'est-à-dire de la loi de l'offre et de la demande. C'est ce qui permet de faire précisément l'indemnisation forfaitaire. En supprimant les tractations entourant le prêt d'utérus, l'indemnisation forfaitaire met véritablement cet acte « hors commerce ». - Mais n'est-ce pas l{ le prix de l'enfant ? 12 «Pas du tout, c'est le juste dédommagement des contraintes entrainées par le prêt d'utérus. Ces contraintes ne sont pas négligeables ! Il faut passer des examens, il faut subir des inséminations, il faut porter la grossesse et il faut accoucher, ce qui, comme chacun sait, n'est pas une partie de plaisir ! Contraintes importantes, donc il est normal de les indemniser. Ne pas le faire serait injuste : toute peine mérite salaire non seulement ce serait injuste, mais ce serait une erreur au plan psychologique. « Voici en effet un couple qui reçoit un cadeau merveilleux, cet enfant tant désiré, et qui ne pourrait rien donner en échange ? Quand on vous fait un cadeau, vous en faites un autre en échange. Dans toutes les cultures, les ethnologues nous l'ont appris, le don appelle un contredon qui équilibre et permet de s'en libérer. « L'indemnité forfaitaire a pour nous également la signification d'un contre-don permettant au couple d'exprimer sa gratitude { la mère porteuse pour le cadeau « inestimable » qui lui est fait. Grace { l'indemnisation forfaitaire, le prêt d'utérus devient ainsi l'occasion d'une gratification réciproque, il est replacé dans un climat de générosité et d'entraide féminine qui nous a conduit { l'appeler ˮ l'offrande utérineˮ ». - Pourquoi vous êtes-vous arrêté à la somme de 50 000 F ? « Une fois adapté le principe de l'indemnisation forfaitaire, il fallait bien fixer le montant. Il fallait que celui-ci fut suffisant pour lever les réticences légitimes, mais non excessif pour ne pas susciter des vocations indésirables de porteuses. » « 4.62 F de l'heure » « Nous nous sommes arrêtés à la somme de 50 000 F parce que ça représentait 5 000 F par mois (soit un peu plus que le S.M.I.C.) pendant les dix mois (neuf mois de grossesse +un mois de post partum) que dure au minimum l'opération. « En réalité, cela fait moins que ça. En toute rigueur en effet, il faut compter également le temps requis pour l'étude préalable de la fécondité (au moins un ou deux cycles) et les cycles d'insémination. Si l'on estime { cinq mois, ce qui est minimum, cette période pré-gravidique, la somme de 50 000 F doit être étalée, non pas sur dix mais sur quinze mois. Ce qui donne exactement 3 333.33 F par mois ou encore 4.62 F de l'heure, soit six { sept fois moins qu'une femme de ménage. Est-ce trop cher payé ? » - Il n'en reste pas moins que la somme de 50 000 F n'est pas { la portée de tous les couples ! « Effectivement, bien que calculée au plus juste, cette somme peut représenter une charge excessive pour les couples { revenus modestes. C'est pourquoi d'ailleurs nous avons proposé le remboursement par la sécurité sociale, ce qui aurait en outre l'avantage de couper court { toute possibilité de trafic. « En favorisant la politique de natalité engagée par le gouvernement, le prêt d'utérus profite { la Nation toute entière. Il serait donc juste qu'il soit supporté par la collectivité dans son ensemble. On peut même calculer que le cout social de l'enfant ainsi obtenu serait nettement moindre que pour la fécondation in vitro. » 13 - Comment cela ? « Selon le professeur Lansac de Tours, le cout social d'une fécondation in vitro est estimé { 132 000 F. le cout d'une grossesse après insémination artificielle entre 17 000 et 30 000 F selon les investigations qu'elle a comportées. Or ici, comme il s'agit par hypothèse de femmes fécondes, les investigations sont réduites au minimum, d'où un cout social que l'on peut estimer à 17 000 F. si l'on ajoute le montant de l'indemnisation forfaitaire, soit 50 000 F, on arrive à un total de 67 000 F10, soit sensiblement la moitié du cout social d'une fécondation in vitro. » Nous avons posé au professeur René Frydman11 la question du cout de la F.I.V. voici ce qu'il nous a répondu : « Il est bien difficile de répondre à votre question car la fécondation in vitro en tant que telle n'a toujours pas de cotisation { la sécurité sociale, de même que le transfert de l'oeuf. Une partie des actes biologiques et médicaux n'est pas officiellement reconnue. D'autre part la question du cout est abordée différemment en fonction du payeur. « A savoir la société (sécurité sociale) ou bien l'individu. Le cout du prix journée n'est pas le même dans un service de l'assistance publique que dans un hôpital général, sans parler du secteur privé. « Quoi qu'il en soit et malgré toutes ces imprécisions, le prix d'une tentative de fécondation in vitro revient de 6 000 à 12 000 F, en fonction des examens et des prestations qui ont été nécessaires pour sa réalisation. La totalité de cette somme est remboursée par la sécurité sociale chez les patientes prises à 100%, une partie reste à leur charge pour les patientes qui seraient sous le secteur privé. « Si l'on veut ramener le prix d'une naissance, il faut tenir compte du pourcentage de succès qui avoisine actuellement les 15%, par tentative. Afin de ne pas défavoriser la fécondation in vitro par rapport aux autres types de traitement de la stérilité, il faudrait faire une étude identique en ce qui concerne les interventions microchirurgicales ou les traitements médicaux de la stérilité, et essayer d'évaluer non pas la seule fécondation in vitro mais l'ensemble des dépenses de santé engagées dans le processus du traitement de la stérilité. Etude qui permettrait de mettre en évidence la nécessité d'une prévention. » 3 COMMENT DEVIENT-ON MERE PORTEUSE ? 10 En fait selon l'association ALMA-MATER elle-même, le cout d'une naissance par mère porteuse est plus élevé, il faut ajouter l'instruction médicale du dossier (750 F), la gestion du dossier (7 500 F), l'insertion annonce (300 F), l'assurance vie (1 000 F), le déplacement (2 000 F), la congélation/ décongélation (255 F), la maintenance (500 F), le bilan hormonal mère porteuse (1 002 F), le monitorage hormonal (1 173 F), le monitorage échographique ovulation ( 900 F), I.A. (525 F), le bilan psy (175 F), conseil génétique (103 F), caryotype B200 (340 F), les frais de justice et avocat pour adoption (7 à 10 000 F). 11 Maternité Antoine Béclère, Clamart. 14 Cependant quelles peuvent bien être les motivations de ces mères porteuses puisque justement, le docteur Geller le dit lui-même, ce n'est pas pour elles « une partie de plaisir » ; nous sommes allés retrouver l'une d'entre elles dans la région de Nancy. La trentaine, mariée, quatre enfants. Elle a répondu à toutes nos questions. - Quelles sont vos motivations ? « C'est un altruisme un peu poussé, un désir de partage, mais il faut qu'il y est un retour, une contrepartie. Partager la grossesse de cette femme, ce n'est pas simple. » - Vous avez-vous-même connue plusieurs grossesses, et vous pensez que cela peut se partager ? « Bien sûr. Pas avec n'importe qui. Par exemple le mari partage la grossesse avec sa femme, bien sûr c'est son enfant pour cette femme, ce sera son enfant. Peu importe que ce ne soient pas ses ovules, cela n'exclue pas une compréhension profonde entre deux femmes. » « C'est leur enfant » - Après la naissance, maintenez-vous des contacts avec le couple ? « Je ne pense pas, enfin il ne faut pas que les parents se sentent obligés, c'est leur enfant. Mais s'ils veulent donner des nouvelles de temps en temps, ils sont libres. Certains liens peuvent avoir été créés, notamment s'il y a eu quelques difficultés pendant la grossesse. » - La mère porteuse doit-elle avoir un rôle dans la vie de l'enfant ? « A priori non, a posteriori, il risque d'y en avoir. Un certain nombre d'évènements graves peuvent arriver dans la vie de l'enfant, ou même dès la grossesse. Le couple peut décéder. Si le père décède, il ne risque pas d'y avoir trop de problème, car la mère pourra toujours s'en occuper. Si les deux parents décèdent, lorsque l'enfant a trois ou quatre ans, est-ce un enfant qui sera pris en charge par la D.A.S.S. ? Moi ça me ferait mal au coeur, j'aime autant le récupérer. Il faut donc prévoir les solutions. » - Et si l'enfant veut vous rencontrer ? « Je pense qu'un jour ou l'autre il viendra frapper { ma porte. C'est pour cela qu'il faut que les parents gardent l'adresse. » - Cela ne vous surprendrait pas et à la limite, vous le souhaitez ? « Je ne sais pas si je le souhaite. Mes enfants le souhaitent ! Moi je ne le sais pas, car il y aura quand même un déchirement à la naissance, ce sera quand même génétiquement troublant. C'est pour cela que je ne veux pas de liens trop étroits.» « Il risque de créer une mère imaginaire » - Vous aurez toujours l'idée qu'il y a quelque part une partie de vous, quelqu'un qui vous ressemblera peut être ? 15 « Si l'enfant le demande, il faut qu'il puisse me voir. Les enfants adoptés n'ont ni père ni mère, toute leur vie, ils cherchent leurs racines. Un enfant né de père inconnu, en général en veut à sa mère de ne pas lui dire qui est son père. « L'enfant viendra me voir, il aura été élevé pendant dix, douze, quinze ans d'amour et de soins je pense que lui-même mettra les choses { leur juste valeur. Cette m'a porté mais ce n'est pas ma mère. Tandis que s'il n'arrive pas { me retrouver, il risque de créer une mère imaginaire. Il pourrait peut-être y avoir un problème si par exemple l'enfant s'entendait très mal avec sa mère. « Mais il saura toujours que ses parents sont ses parents, d'ailleurs le père est génétiquement son père ! Et puis on peut supposer que les couples ayant recours à ce procédé sont de toute manière, plein d'amour et d'affection. » « Mon mari vient d'une famille de sept enfants et nous en avons quatre » - Comment votre décision d'être mère porteuse a-t-elle été ressentie par votre mari,vos enfants, votre famille, votre voisinage ? « Mon mari a senti que c'était quelque chose que je voulais faire, que j'étais très décidée. Il a soulevé les problèmes qu'il pourrait y avoir, les problèmes pratiques, si l'enfant est handicapé Il tenait quand même que le père soit du même milieu que le sien, je crois que c'est l{ quelque chose de viscéral, c'est comme ça ! « Sinon { part cela, le fait du partage, le fait de donner un enfant mon mari vient d'une famille de sept enfants et nous en avons quatre, alors « Les deux petits ne réaliseront pas bien. Les deux grands sont pleinement conscients de ce que cela représente. La première réaction était : « on va rendre service aux gens qui ne peuvent pas avoir d'enfant ». La deuxième réaction c'était : « tu te rends compte qu'il va y avoir un bébé qui va peser dans ton ventre comme nous et qu'on ne va pas voir. Est-ce que plus tard, il voudra bien nous rencontrer ? » Enfin un enfant, c'est assez égocentrique, { part la petite déception de voir maman partir { la clinique » - Et vous ne craignez pas qu'ils aient la crainte après d'être aussi abandonnés ? « Non, pas du tout ! » - Allez-vous le dire aux plus jeunes ? « Effectivement je vais leur dire, elles sauront que j'ai un bébé dans le ventre, mais pour elles ce sera tellement normal que maman fasse un bébé. « C'est une question de confiance, je pense qu'il faut une femme qui soit très équilibrée, elle ne doit pas non plus forcément être mariée, mais elle doit déjà avoir eu un enfant pour savoir à quoi elle s'engage. » - Pensez-vous avoir des points communs avec les autres mères porteuses ? « Le point commun est la motivation, le partage de la maternité, le reste est très différent. Il y en a qui ne veulent pas entendre parler de la famille d'accueil, ni avant, ni pendant, ni après { mon avis, c'est dangereux, c'est une preuve qu'elles n'assument pas complètement. » 16 « Des gens parlent d'adultère déguisé » - Comment réagit votre entourage familial ? « La famille est très partagée mais c'est plutôt négatif à cause de la religion. Concevoir un enfant pour quelqu'un d'autre, ça ne passe pas toujours bien les gens me trouvent courageuse mais inconsciente. Lorsque les journaux ont parlé de moi, ça a très vite fait le tour du village depuis je suis regardée comme une bête curieuse ! « J'ai accepté de témoigner pour les journaux. Le point de départ, c'est Patricia. Lorsque j'en ai entendu parler, je me suis dit : ˮChapeau ! Elle a le courage de le faire et je vais le faire aussi, mais j'ai besoin d'en parler, pour qu'ils sachent qu'il y a des femmes qui veulent le faire.ˮ je suis sûre qu'il y a des maris qui se sont fait faire des gosses par la servante parce que leur femme était stérile ; ils n'ont pas toujours répudié leur femme il y a des gens qui parlent d'adultère déguisé ! «Moi je suis pour la franchise et l'honnêteté, si cela se fait, autant que ça se sache, que les esprits se réveillent. Ça peut donner le courage de le faire parce qu'il y en a peut-être qui aimerait le faire, mais qui ne veulent pas que cela se sache » « Comme pour l'adoption » - Si l'on découvre avant la naissance que l'enfant est anormal, que faites-vous ? « Les problèmes que l'on cherche { soulever se retrouvent dans les grossesses naturelles ou dans une adoption. « De toute façon, j'aurai résolu le problème avant avec les parents, en accord avec eux, je ferai ce que je ferai pour les miens. Je me ferai avorter, sauf si eux sont prêts { l'accueillir. C'est pour cela que je veux absolument connaitre le couple. Si un enfant naît anormal et qu'on n'a pas pu le prévoir, l{ j'exige que les parents le prennent quand même, ils doivent prendre ce risque. » - Pourquoi ne le feriez-vous pas gratuitement ? « On ne peut pas considérer que ce soit rentable. C'est généreux mais je ne le ferai pas pour rien. Si je voulais vraiment gagner de l'argent, j'irai travailler. 5 000 F par mois, c'est ce que je gagnais lorsque je travaillais. Et puis, vis-à-vis de mes enfants, il faut compenser d'une certaine manière. » « L'acte n'est pas sali parce qu'il y a l'argent » « Mais peu importe si une femme le fait pour de l'argent, l'essentiel c'est de le faire. L'acte n'est pas Sali parce qu'il y a de l'argent. Les mères porteuses ont les motivations qu'elles veulent. Si j'étais stérile, j'accepterai qu'on me fasse un enfant pour de l'argent, j'irai jusque-là. Mais j'aimerai partager la grossesse. « C'est facile de partager sa grossesse lorsqu'on est enceinte, on a envie d'en parler { tout le monde, on a pratiquement toutes envie d'en parler quand on est enceinte. C'est plus difficile pour une femme qui sait qu'elle ne fera jamais d'enfant, d'accepter de faire la démarche, d'en parler, d'écouter. » 17 «Ils n'ont pas { exiger quoique ce soit mais ils peuvent choisir» « Et si certaines femmes stériles n'acceptent pas d'en parler, c'est qu'elles veulent l'enfant quand il arrive et c'est tout, car ça remue le couteau dans la plaie. « Dans mon cas personnel, c'est une grossesse que je n'ai pas envie de faire partager aux autresmais je n'ai pas envie de la vivre toute seule. « Il y a des couples qui accepteraient n'importe quelle femme porteuse et puis qui voudront une grande blonde, une petite brune, pourquoi pas ? En principe, ils n'ont pas { exiger quoi que ce soit, mais s'ils peuvent choisirLe risque, c'est que les agences douteuses se créent. Cependant avant de réglementer, il faudrait attendre pour voir comment cela se passe. En attendant, il faut avoir confiance. » Cette mère porteuse désirant établir des contacts durant la grossesse avec le couple stérile (ce qui permet selon elle, de résoudre certaines difficultés pouvant à tout moment survenir) est assez réticente quant à une intervention immédiate du législateur. Mais justement en l'état actuel du droit, quels incidents juridiques peuvent se créer { l'occasion d'une naissance par mère de substitution ? 4 MATERNITE POUR AUTRUI ET DROIT. En l'état actuel du droit, quels incidents juridiques peuvent se créer { l'occasion d'une naissance par mère de substitution ? Filiation et droit successoral. Le couple demandeur est marié12. L'enfant abandonné par la mère porteuse est reconnu par le mari de la mère demanderesse, l'enfant est adultérin. Si cette reconnaissance n'est pas suivie d'une adoption par la mère demanderesse (ou si cette procédure échoue)13 des incidents sont possibles en droit successoral (art.760 et 915 du C civil), s'il existe des enfants légitimes.La mère porteuse revient sur sa décision d'abandon14. Le conjoint de la mère demanderesse qui a reconnu l'enfant devient le père naturel ˮsans droit de gardeˮmais obligation alimentaire. La procédure d'adoption engagée par la mère demanderesse aboutit { un rejet de la requête par le juge qui vérifie la légalité et l'opportunité de l'adoption (l'opportunité étant 12 Il est nécessaire que le couple demandeur soit marié pour une adoption plénière. L'adoption par la femme nonmariée effacerait les liens qui unissent le père et l'enfant. 13 Notamment si le couple demandeur se sépare ou divorce 14 Si la mère « accouche sous X, elle peut, sans formalité, revenir sur sa décision par simple déclaration auprès de la D.A.S.S. pendant un délai de trois mois. Au-delà de ce délai et si une autre filiation n'est pas établie, elle peut procéder à une reconnaissance et cela toute sa vie 18 identifiée { l'intérêt de l'enfant sans référence aux autres intérêts concevables : intérêt de la famille par le sang, des parents de l'adoptant, de l'adoptant lui-même). Hypothèse d'école aujourd'hui, éventualité demain si le prêt d'utérus se développe { grande échelle15 ! Responsabilité civile. L'accord passé entre le couple et la mère porteuse n'a aucune force obligatoire. Si au terme de l'article 1134 du Code civil les conventions tiennent lieu de loi à ceux qui les ont faites, c'est « à condition qu'elles soient légalement formées. or notre droit continue { tenir pour l'ordre public le principe sacré, hérité de la déclaration de 1789, qui proclame l'intégrité, l'intangibilité de la personne humaine » rappelait Jacqueline Rubellin-Devichi16 qui précisait : « l'honneur et la gloire du droit français est de laisser le corps humain en dehors du champ contractuella protection de la mère porteuse passe par la non-reconnaissance, au plan juridique, de la convention passée avec le couple demandeur. Il faut qu'elle reste libre de garder son enfant. Il y aura toujours les tribunaux pour faire droit, éventuellement, aux revendications du père { propos de l'autorité parental sur l'enfant.17 ». On peut distinguer un certain nombre de contrats licites :  Ceux qui ne portent pas atteinte à la conservation de la personne : - contrat de transfusion sanguine - contrat du don de sperme - contrat de nourrice  Contrats relatifs à certains actes portant atteinte à la conservation de la personne (conditions rigoureuses) légitimés par les fins curatives poursuivies : - contrat chirurgical - contrat de prélèvement d'organe (L.22-12-76). Ainsi :  La mère porteuse peut garder l'enfant, si elle le souhaite, ou plus exactement faire établir sa maternité.  Le couple demandeur ne peut exiger l'enfant ou dommages et intérêts (autre forme de contrainte, plus insidieuse mais aussi forte selon l'état de nécessité où se trouve la mère).  L'enfant né anormal est rattaché, volontairement ou sur action en recherche, { son véritable père et à savéritable mère : il n'est pas pensable dansnotre droit de prétendre « refuser » sa paternité ou sa maternité. L'enfant peut seulement « être remis volontairement » suivant la nouvelle appellation, { l'Aide Sociale { l'Enfance (L.84-422 du 6-6-1984). 15 Nous savons que les magistrats demandent toujours l'avis des enfants légitimes, s'il en existe. J. Rubellin-Devichi, colloque «Génétique, Procréation et Droit », Paris 18-19 janvier 1985 17 J. Rubellin-Devichi, « Entretiens Juridiques », Lyon, 16 et 17 octobre 1986. 16 19 En l'état actuel des débats portant sue le prêt d'utérus quelques points rassemblant, semble-t-il, le plus large consensus peuvent dès à présent, être soulignés :   La nullité du contrat passé entre la mère porteuse et le couple demandeur. Ce qui a pour effet de conférer à la mère porteuse une entière liberté de choix sur le sort de l'enfant. L'interdiction de toute activité d'intermédiaire, individuelle ou association, directement ou indirectement lucrative. Sur ce deuxième point, qui soulève une difficulté de qualification juridique de la notion d'intermédiaire, il nous faut apporter un certain nombre de précisions sur l'art. 353.1au Code pénal utilisé souvent abusivement dès que l'on aborde le prêt d'utérus ! L'art. 353.1du Code pénal est-il applicable ? Sera puni de 10 jours { 6 mois d'emprisonnement et de 500 F { 20 000 F d'amende : 1. Quiconque aura, dans un esprit de lucre, provoqué les parents ou l'un deux { abandonner leur enfant né ou à naitre. 2. Toute personne qui aura fait souscrire ou tenté de faire souscrire, par les futurs parents de l'un d'eux, un acte aux termes duquel ils s'engagent { abandonner l'enfant { naitre, qui aura détenu un tel acte, en aura fait usage ou tenté d'en faire usage. 3. Quiconque aura, dans un esprit de lucre, apporté ou tenté d'apporter son entremise pour faire recueillir ou adopter un enfant. Examinons d'emblée l'alinéa 3 : « dans un esprit de lucreapporter ou tenter d'apporter son entremise ». Pour le médecin ou le gynécologue, c'est l'acte médical qui est rémunéré ; il n'y a pas « entremise pour recueillir » mais ACTES POUR CONCEVOIR L'ENFANT !! Ainsi ce texte, texte de droit pénal et qui doit s'interpréter restrictivement, ne peut s'appliquer aux médecins et aux gynécologues. Cela vise essentiellement les intermédiaires qui recrutent les candidats (« je vais vous trouver un enfant ») mais le médecin qui intervient et fait payer son intervention, ne reçoit rien des futurs parents ni de la mère porteuse. Plus complexe est l'interprétation de l'alinéa 2 et de son application éventuelle { une association de mères porteuses. Nous devons rappeler le principe d'interprétation stricte des textes d'incrimination, préciser que cet article 353.1 résulte d'une ordonnance de 1958, que celle-ci n'a donc pas donné lieu { des débats parlementaires ({ l'époque plusieurs affaires d'abandon d'enfant avaient défrayées la chronique). Les mères porteuses s'engagent-elles par écrit { l'abandon ? Si oui, le §2 pourrait s'appliquer ! 20 Ainsi de tels actes ne doivent pas être détenus ni par l'association, ni par le médecin.18 L'association des mères porteuses fait-elle commerce de ses activités ? Ces activités doivent rester dans le cadre de celle d'une association sans but lucratif et l'association doit s'abstenir de recevoir des témoignages de reconnaissance de la part des couples stériles. L'activité de certaines officines pourrait cependant faire l'objet de poursuites pour escroquerie. Nous pensons par exemple, à telle association parisienne qui exige des couples candidats le versement de « droit d'entrée » au montant illimité sans garantir à ceux-ci qu'ils seront mis en rapport avec une mère porteuse. Ainsi une telle association en faisant croire à l'existence d'un pouvoir imaginaire (l'adhérent pense qu'avec le prix du droit d'entrée qu'il a versé, on va lui trouver une mère porteuse !) -S'il y a 1 000 adhérents, il n'y aura pas 1 000 mères porteuses !!- fait naitre l'espérance d'un succès (la naissance d'un enfant par mère de substitution) en se faisant remettre des fonds. Il faut noter que les sommes « librement versées » ne représentent pas une cotisation annuelle. 5 LES MOTIVATIONS D'UNE FEMME STERILE. Autre acteur de la maternité pour autrui : le couple stérile demandeur, couple qui se retrouve souvent { l'issue d'une longue bataille menée pour combler leur désir d'enfant. Pour certains d'entre eux, ce combat qui les mène du gynécologue { l'hôpital, de l'hôpital au centre de fécondation in vitro, puis vers les associations spécialisées dans le recrutement d'enfants du tiers monde « à adoptera » peut durer jusqu'{ dix ans. En ayant recours au prêt d'utérus, c'est bien souvent « la dernière chance » pour ces couples (Qui sont maintenant plusieurs milliers en France) et la femme stérile doit envisager de recevoir un enfant de son mari mis au monde par une mère porteuse. Mme Jaubert, qui demeure en région parisienne, est l'une d'entre elles : - Une mère porteuse va bientôt vous donner l'enfant qu'elle porte. Mais remontons un peu { l'origine de votre histoire. « J'ai d'abord vécu une première union dont j'ai eu deux enfants, un garçon et une fille. Puis j'ai eu un problème de trompes, une stérilité tubaire. J'ai divorcé en 1972 et j'ai rencontré mon second mari en 1974. On a voulu un enfant tous les deux. A parti de ce moment-l{, j'ai 18 Cependant les magistrats du Tribunal administratif de Strasbourg dans leur décision du 17-6-1986 (voir en annexe), sans la nommer directement, semble retenir la complicité de l'association de mères porteuses dans l'incitation à l'abandon d'un enfant. 21 commencé à subir des examens. Je me suis rendue compte que je ne pouvais plus avoir d'enfant. J'ai été opérée une première fois en 1975 par le docteur Palmer, spécialiste qui m'a fait une plastie tubaire. Ça n'a pas marché. J'ai continué en 1977, il m'a fait une opération un peu particulière. Il m'a implanté un ovaire dans la cavité utérine (puisqu'il n'y avait pas de trompe) pour tenter de faire se rencontrer l'ovule et le spermatozoïde et qu'il y ait grossesse. Mais ça n'a pas marché non plus ! À la suite de cela, il m'a dirigée vers l'Angleterre pour la fécondation in vitro. J'avais réussi { obtenir un rendez-vous. Cependant, à Sèvres, le docteur Cohencommençait à mettre en place un centre de fécondation in vitro ; j'ai donc été suivie { Sèvres mais sans succès. Le seul ovaire qui me restait était polykystique, c'est assez grave et j'ai dû arrêter toutes tentatives : Ma stérilité étant totale». - Tout cela s'est fait sur dix ans sans interruption. La fécondation in vitro avec don d'ovule aurait-elle marché ? «Tout se fait en même temps. Quand je tentais la fécondation in vitro, j'ai demandé le don d'ovule. Le docteur Cohen m'avait conseillé d'écrire { M. Badinter. Ce que j'ai fait ; j'ai écrit aussi à Simone Veil et à tous ceux à qui je pouvais écrire ! Ça ne se faisait pas en France. Maintenant, tout part d'un seul coup. Mon dossier avec les mères porteuses était engagé. La naissance va avoir lieu dans quelques jours ! » - Auriez-vous préféré que les tentatives de fécondation in vitro aboutissent ? « Bien sûr, c'est évident ! Seulement à partir du moment où une jeune femme acceptait de porter un enfant pour moi, il y avait beaucoup de chance de réussite. Les résultats de la fécondation in vitro ne sont pas spectaculaires ! Cela fait plus de dix ans que je me fais traiter pour avoir un enfant avec mon mari. » - Vous auriez pu avoir un enfant relié génétiquement à son père et à sa mère et là, ce n'est pas le cas. « Cela ne me gêne pas du tout. En 1978-1979, j'avais engagé des démarches pour adopter un enfant. Il y avait une possibilité d'adopter un petit colombien. Mon mari n'a pas voulu. C'était trop compliqué. » « Le désir d'avoir un enfant { deux. » - le fait que cet enfant soit lié génétiquement { votre mari, c'est très important ? « Bien sûr, c'est très important ! Est-ce qu'on veut un enfant vraiment pour l'enfant ou est-ce le besoin de materner ? Moi ce n'est pas du tout ça. C'est vraiment le désir, comme pour tous les couples, d'avoir un enfant { deux. La vie se déroule dans cet ordre-là. » - Le désir d'enfant a toujours existé, mais n'est-il pas soudain amplifié par le développement de la procréation artificielle ? « Je ne crois pas. Ça n'amplifie pas le désir mais ça le réveille ! Vous arrivez { un stade où l'on vous dit : c'est terminé. Mais dès qu'il y a espoir, ça repart. C'est pour tout comme ça. Qu'est-ce 22 qui aident les grands malades à guérir ? C'est l'espoir. Dès que vous avez un espoir, vous repartez. J'ai continué la fécondation in vitro en même temps que je prenais contact avec le docteur Geller. Je l'ai entendu { la radio en octobre 1983. Je n'avais pas encore subi ma dernière opération. Cohen m'a libérée l'ovaire polykystique pour une fécondation in vitro, l'intervention a eu lieu en novembre (opération dont je me remets difficilement). Ainsi j'ai essayé d'avoir un enfant moi-même avant d'avoir recours { une autre femme. » « Elle porte l'enfant pour moi, c'est mon enfant » - Quelles sont vos relations avec cette femme ? « Merveilleuses ! Je ne la vois pas régulièrement, parce qu'elle est loin mais je l'ai au téléphone. Je ne sais pas si tous les cas sont comme le nôtre mais c'est vraiment une relation merveilleuse. On se substitue totalement, elle fait vraiment cette maternité pour moi. Elle porte l'enfant pour moi, c'est mon enfant. » - Est-ce vraiment un don de sa part ? N'y a-t-il pas un intérêt quelconque pour elle ? « Peut-être au départ, mais l'évolution est formidable. Quand on a appris la nouvelle avec mon mari, on a pleuré. C'était quelque chose de vraiment extraordinaire ! J'étais pour l'anonymat parce que c'est difficile d'élever des enfants avec une tierce personne. Quand vous avez un noyau familial bien constitué, que tout va bien c'est formidable. Donc on était pour l'anonymat total. Et puis quand j'ai appris que l'insémination artificielle avait réussi, je n'ai pas pu faire autrement que de lui écrire. Je lui ai écrit ce que je ressentais. Les couples que je côtoie craignent de connaitre la mère porteuse. Ils veulent l'enfant pour eux, ils ne veulent pas le partager. Mais souvent, ils évoluent. Je lui ai donc écrit et je lui ai demandé son numéro de téléphone. Je sais où la joindre mais pas elle. » « Ce n'est pas un ventre » - Vous l'avez rencontrée ? « On s'est vu deux fois. La première fois c'était dur, on s'est vu pour une échographie. C'était très émouvant, elle était enceinte de cinq mois et demi. A ce moment-là, ça devenait vraiment réel. Mon mari ne la rencontrera qu'{ l'accouchement parce qu'il y a le don de l'enfant. Mais actuellement il ne souhaite pas la rencontrer. C'est plus un problème de femme, problème de maternité. Il est un peu gêné, c'est normal, mais il a beaucoup de respect et de reconnaissance. Je me suis dit au début qu'il faut vivre cette grossesse complètement. Aussi je la vis en même temps qu'elle et mon souci majeur, c'est que cela se passe bien. Elle en fait beaucoup plus que pour les siens. Elle voudrait qu'il soit beau. Je lui dis qu'il ne faut pas en faire plus ! le souci numéro un, c'est que tout se passe bien. J'ai une profonde sympathie pour elle. Ce n'est pas un ventre. » - Et après la naissance ? « Ça me parait difficile d'élever un enfant en maintenant les contacts avec elle mais ça va être très difficile de couper ! Elle veut partir tout de suite de la clinique, elle ne veut pas rester. Ça va être un moment très difficile, j'y pense beaucoup » 23 « Elle s'en va et je reste » - A l'accouchement, vous serez présents vous et votre mari ? « Oui, surtout moi. Elle me laisse la place. Elle s'en va et je reste. Je sais qu'il y a des couples qui ne souhaitent pas cela. Moi, je trouverai ça anormal de ne ^pas accompagner la grossesse. C'est long, il faut la vivre ! » - On évoque souvent la relation mère/enfant durant les neuf mois de grossesse. Pour vous est-ce une réalité ? « Non, pour moi, non. Quand j'attendais mon premier enfant, j'avais dix-neuf ans. On n'avait aucune connaissance, je ne savais pas comment j'étais fichue { l'intérieur, je ne savais pas ce que c'était qu'un accouchement. C'était tabou, { l'école on n'en parlait pas !ça a bien gigoté à un moment mais cela n'a rien d'une relation ; c'était le mystère total. « Quand j'attendais ma fille, je ne la voulais pas, cela ne m'a pas empêché de l'avoir. Et le jour où je l'ai vue. C'est { son premier cri que j'ai réalisé que je ne pourrais pas l'abandonner. Mais si l'interruption de grossesse avait existé, elle ne serait pas néecar { l'époque je rencontrais des difficultés énormes de couple. « L'enfant que cette femme porte pour nous, doit être très heureux (ils l'appellent le petit parigot). C'est le septième enfant qu'elle porte et c'est la première qu'elle porte un enfant pour quelqu'un d'autre. Elle et son mari adorent les enfants. Je ne pense pas que beaucoup de femmes le feraient plusieurs fois. Par exemple, Patricia19 l'a fait une seule fois et elle en est très heureuse. Mais elle ne veut pas recommencer. Non, ou peut-être pour une soeur ou une amie c'est quelque chose qu'on fait comme ça. » « On a confiance » - Avez-vous pensé aux incidents qui pourraient arriver ? « Oui, à tous ! On ne pense pas { l'enfant anormal, ça je vous arrête tout de suite ! C'est d'ailleurs la première chose que l'on nous dit. C'est pour tous les couples la même chose. On a la possibilité de la garder ou de ne pas le garder. De toute façon, on prend l'enfant en charge. Il est hors de question d'aller dire { cette femme qu'elle a fait un enfant horrible et qu'on lui laisse ! « Le gros souci que j'ai eu au début, c'est qu'elle ne me le donne pas. Je n'ai pas eu besoin de lui dire pour qu'elle le sente. Elle a su que j'étais très angoissée et elle a complètement dédramatisé. Son mari est très moral, très croyant. On a confiance. Pour un couple qui n'a pas d'enfant, la stérilité est dramatique. Cette solution, c'est vraiment merveilleux. Je découvre le malheur des autres. Moi, c'est venu plus tard et j'ai eu deux beaux enfants. Mais pour certaines femmes c'est horrible, elles le vivent très mal. Ce qui est formidable, ce sont les couples qui tiennent longtemps et qui sont passés { travers tout cela. Ce n'est pas drôle. J'ai été anesthésiée dix fois. » 19 Comment cela se passe-t-il avec votre famille, vos amis, votre entourage ? Première mère porteuse. 24 « Ça se passe bien. Je l'ai dit tout de suite { mes parents. Ma soeur est enchantée, mon frère trouve ça formidable. Dans mon entourage, j'en ai très peu parlé. C'est un milieu bancaire, un peu fermé. Mais tout le monde le sait. Et petit à petit, on vient me voir. Il est hors de question que je simule. J'ai trouvé la nourrice, elle sait comment va naitre cet enfant. Elle trouve ça très bien. Petit à petit, ça passe. « Nos enfants sont très contents. Ma fille attend cela pour pouvoir jouer { la poupée. Il n'y a pas du tout de problème dans le noyau familial que nous formons. Ça va être la fête. Les gens trouvent cela formidable. Les gens que l'on côtoie ont connu notre lutte pendant dix ans. En ce moment, on attend. On a vécu ça tout doucement, progressivement. Les premières semaines, on vivait le développement de l'embryon petit à petit. C'était très long, maintenant ça va vite ! » - Envisagez-vous de parler de tout cela { l'enfant ? « Je ne sais pas. Mon mari n'y tient pas. Moi, je ne sais pas. Pas petit ; je crois qu'il faut qu'il soit en âge de comprendre. Et puis je compte beaucoup sur l'évolution de la science qui va faire des tas de bébés de toutes les façons. Il y aura des histoires d'ovules. Je crois que ce sera très facile d'expliquer { un enfant qu'il a été porté par une autre femme. Au rythme où vont les choses, les enfants connaitront ces dons d'ovules, ces possibilités nouvelles de faire des enfants. Ça fait partie des choses que l'on ne peut pas dire{ l'avance. Vous voyez, je voulais l'anonymat et puis le coeur est l{, les sentiments sont l{. » - Avez-vous à un moment ou un autre, pensé à cet enfant comme à un enfant adultérin ? « Non. J'ai trop côtoyé le milieu hospitalier pour savoir qu'une insémination artificielle ce n'est pas ça. Je sais qu'il y a des hommes qui sont préoccupés par ça. Ils craignent pour leur femme. Mais mon mari n'est peut-être pas { l'aise parce qu'il a imposé { cette femme une insémination. C'est un grand timide. Moi, elle me fait un cadeau merveilleux. Je voulais un enfant avec cet homme-l{. J'ai même pensé { lui rendre sa liberté pour qu'il ait un enfant. J'aime tellement la famille et les enfants que je n'arrivais pas { comprendre qu'il reste sans enfants. Maintenant, ça y est et il le vit intensément. » - La rétribution de la mère porteuse vous parait-elle justifiée ? « Totalement. Il faut fixer des barrières sinon il y a des couples qui ne pourraient pas assumer. C'est rien du tout par rapport { ce qu'elles doivent faire. La rétribution me parait dérisoire. On vous fait un cadeau qui n'a pas de prix, vous avez aussitôt envie d'en faire un. L{, c'est un cadeau qui n'a pas de prix. On ne peut pas faire la même chose, on ne peut pas rendre un enfant. » « Les rêves restent intacts » - Ça rend la chose plus claire ? « Je trouve ça normal. Ça serait anormal de ne pas donner d'argent. Evidemment, il ne faut pas tomber dans le système américain, qui devient un commerce. 25 « Ce n'est pas seulement neuf mois de sa vie qu'elle donne, c'est énorme. C'est beaucoup plus. 50 000 F c'est dérisoire. L'acte de générosité existe. Il ne faut pas parler de commerce ou d'argent. Il y en qui peuvent le faire pour l'argent, pour nous ce n'est pas le cas. « Si une mère porteuse le fait pour de l'argent et que le couple ne le sait pas, les rêves restent intacts. C'est pourquoi une structure intermédiaire doit garantir l'anonymat si les gens le désirent. » - Avez-vous établi un contrat avec la mère porteuse ? « Non, c'est basé sur la confiance. De toute façon un contrat ne serait pas légal. « A la naissance, il y a accouchement sous X, reconnaissance du père et adoption de la mère dans un délai de six mois, c'est long. » - Pensez-vous que cette procédure devrait être réformée ? « Oui, je pense qu'{ partir du moment où une femme accepte de faire un enfant pour une autre il faut que cela se fasse dans les meilleures conditions. « Cette femme doit déjà avoir un enfant, elle doit être comblée en tant que mère. On pourrait imaginer une grossesse adoptive, ce serait une garantie et la mère porteuse et pour le couple. Mon mari a fait une reconnaissance { la mairie, mais moi, je n'ai aucun statut. « La mère porteuse accouche sous X, elle perd ses prestations postnatales, son congé de maternité si elle travaille. « De mon côté, je vais accueillir un enfant { la maison, je n'ai droit { aucun congé. Pour l'instant la sécurité sociale ne peut rien, ce qui fait que j'ai eu trois mois sans solde. « De toute façon, les naissances par mères porteuses vont avoir lieu. Si on ne prévoit rien, on risque de mal le faire. Il faut un intermédiaire pour faire respecter l'anonymat dans l'insémination artificielle. Il faut que la mère porteuse soit sûre d'obtenir cette indemnité. Au début, on a passé des annonces dans le journal Libération ; on a eu des gamines qui avaient besoin d'argent, des étudiantes. Une jeune femme ne peut pas découvrir une maternité et donner l'enfant. » - Les femmes célibataires stériles ont-elles, selon vous, le droit d'avoir recours { une mère porteuse ? « Pourquoi pas. Mais je suis un peu rétro dans ce domaine, je crois qu'un enfant évolue mieux entre un père et une mère. » _________________________________ 6 LE « SYSTEME » DU DOCTEUR GELLER. Pour offrir aux couples stériles les services d'une mère porteuse, le docteur Geller a dû s'adapter { la législation telle qu'elle est, même s'il n'est pas avare de diverses propositions de réforme. 26 « Le premier devoir du médecin, c'est de répondre { la détresse. La détresse de la femme enceinte a été prise en considération par la loi pour justifier son droit { l'avortement. Pourquoi la détresse de la femme stérile ne serait-elle pas prise en compte pour justifier son droit { l'enfant ? » Nous précise-t-il immédiatement. - Mais ce droit { l'enfant n'est inscrit nulle part, ne serait-ce pas d'ailleurs considérer cet enfant comme une chose ? « Disons alors droit à la procréation. Une femme fertile a la possibilité actuellement de ne pas avoir d'enfant si elle n'en désire pas. Inversement, une femme stérile qui le désire devrait pouvoir avoir un enfant, si c'est techniquement possible. Un homme stérile peut cependant goûter les joies de la paternité grâce à l »insémination artificielle. Pourquoi une femme stérile n'aurait-elle pas les mêmes droits ? » « Assortir la mère porteuse à la mère sociale » - Un certain nombre de problèmes juridiques ne semblent pas résolus, cependant votre structure est prête à fonctionner et un certain nombre de naissances ont déjà eu lieu. Comment procédez-vous à la sélection des mères porteuses ? Que faites-vous lorsque des couples demandent un type bien précis de mère porteuse concernant parexemple, son âge, son aspect physique ou son niveau socioculturel ? « Nous procédons comme pour les dons de sperme. C'est nous qui sélectionnons les donneurs, pas les couples. Nous essayons simplement, dans la mesure du possible, d'assortir les caractéristiques physiques du donneur à celles du mari dans le cas du don de sperme, et surtout d'éviter qu'il y est trop de dissemblances. C'est ainsi qu'on évitera naturellement de prendre un donneur blanc pour un couple de noirs, et réciproquement. De même, pour les mères porteuses, nous essayons d'assortir dans la mesure du possible la mère porteuse { la mère sociale, mais il n'est pas question que le couple choisisse sa porteuse sur catalogue, comme cela peut parfois se passer aux U.S.A. » - Exigez-vous du couple demandeur qu'il soit marié ? « Pas du tout. Le mariage est devenu tellement obsolète. Chez les jeunes, il n'y a, parait-il, pas plus de 43% de couples qui sont mariés. Cela risque d'ailleurs de poser des problèmes pour le processus d'adoption plénière qui termine, vous le savez, le prêt d'utérus, l'adoption étant alors plus difficile { obtenir si le couple n'est pas marié. Mais c'est au législateur de s'en occuper, pas à moi. » « Il n'y a pas de contrat » - Vous n'ignorez pas les faiblesses juridiques, plutôt qu'un véritable vide juridique d'ailleurs, dont sont entourées les transactions comme celles que vous pratiquez avecle prêt d'utérus ? 27 « Il n'y a pas de transaction dans la formule que nous proposons. Il n'y a d'ailleurs aucun contrat. La mère porteuse est totalement libre de garder son enfant. Bien plus, même si elle l'a donné à la naissance, elle a encore trois mois pour se raviser et le reprendre. » - Si donc la mère porteuse refuse de rendre l'enfant, vous vous en lavez les mains ? « Non, bien sûr. Mais c'est un risque { prendre par le couple qui en est informé. Ce risque est d'ailleurs faible. L'expérience montre en effet que la mère porteuse ne considère pas cet enfant comme étant véritablement le sien. Elle n'a donc pas le sentiment de l'abandonner, mais plutôt de le rendre { son père et { sa famille véritable. De plus, les femmes qui s'engagent dans cette aventure ont généralement déjà fait leur plein d'enfants, et n'en désirent pas davantage. Enfin, la perspective de perdre les avantages matériels liés au prêt d'utérus, limite encore sans doute ce risque. Au total, l'expérience des U.S.A. montre que cette éventualité se produit dans moins de 1% des cas. » « Qui vous dit que l'enfant anormal ne sera pas aimé ? » - Et si l'enfant est anormal ? «L{ encore c'est un risque { prendre par le couple. Lorsqu'un enfant anormal arrive dans une famille, on ne le jette pas { la poubelle. Qui vous dit qu'il ne sera pas aimé ? « Le risque est d'ailleurs trop faible. En effet, le graphisme de l'incidence des malformations en fonction de l'âge { la forme d'une courbe en U avec une incidence élevée aux deux extrémités de la vie génitale, avant vingt ans et après quarante ans, et un plancher entre ces deux âges, ce qui est précisément la tranche d'âge des mères porteuses. A cette époque de la vie, l'incidence du mongolisme, la plus redoutée des malformations congénitales est de 1/2 000 environ. Faut-il pénaliser 1 999 couples pour éviter un seul cas de mongolisme ? « Rien n'empêche d'ailleurs de pratiquer éventuellement une amniocentèse de vérification si le couple en question est particulièrement sensibilisé à ce problème. » Une neutralité bienveillante. Les premières naissances par mères porteuses qui ont eu lieu en 1985 l'ont été dans la plus grande confusion administrative et juridique. Le gouvernement comme l'administration ont souvent hésité entre une interdiction { l'efficacité improbable et une neutralité bienveillante. Le docteur Geller nous raconte la bataille qu'il a menée et qu'il mène toujours avec ces institutions pour faire admettre son projet de structure organisée de prêt d'utérus. -Justement, { la suite de votre conférence de presse, le Secrétariat d'Etat à la Santé avait envisagé de prendre des dispositions pour mettre fin à cette pratique. Où en sont vos relations avec le Secrétariat d'Etat ? « Je vous rappelle que l'association ˮMères d'accueilˮ a été déclarée le 8 septembre 1983. Nous avons présenté notre philosophie du prêt d'utérus, c'est-à-dire une approche non commerciale de cette pratique. Approche dont le principe avait été exposé dans la plaquette ˮMères d'accueil, un espoir pour les couples sans enfantsˮ. 28 « Dès le 10 octobre, j'avais adressé cette plaquette au Secrétariat d'Etat, avec une invitation pour la conférence de presse. C'est dire combien j'ai été surpris de la réaction véritablement explosive du Secrétariat d'Etat { cette conférence, d'autant plus que le Secrétariat d'Etat ne s'était pas manifesté le moins du monde { la création antérieure de l'A.N.I.A.S. 20formule commerciale la plus détestable de cette pratique21. Il se trouve qu'{ cette époque les P.etT étaient en grève { Marseille. J'ai donc pensé que le Secrétariat d'Etat n'avait pas reçu mon courrier, ce qui s'est d'ailleurs avéré exact et j'ai demandé et obtenu, un rendez-vous avec le professeur Roux, Directeur General de la Santé, que j'avais pu faire toucher par des amis communs, pour dissiper ce que je pensais être un regrettable malentendu. « Au cours de cette entrevue, qui a eu lieu le 8 novembre, et au cours de laquelle le professeur Roux s'est montré apparemment très compréhensif, je me suis spontanément engagé, alors que rien ne m'y obligeait, { ne pas mettre en route de prêt d'utérus sans avoir le feu vert de la Santé. « En outre, j'ai présenté au professeur Roux un projet symboliquement appelé S.A.R.A. (Service d'Aide { la Reproduction Assistée), par lequel nous mettions { la disposition de la Santé des locaux, qui sont les nôtres, pour y installer une antenne médico-administrative. C'est une antenne qui instruirait les demandes de prêt d'utérus. Si ces demandes pouvaient être honorées par une adoption, le processus s'arrêtait l{. Si, en revanche, il apparaissait que seul le prêt d'utérus pouvait résoudre le problème, alors le dossier nous était confié { cet effet. Une fois le prêt d'utérus réalisé, le dossier retournait auprès de l'antenne médico-administrative de la Santé pour la réalisation de l'adoption plénière qui termine le prêt d'utérus. Ainsi la Santé gardait-elle le contrôle total de tous les prêts d'utérus éventuellement réalisés via le C.E.F.E.R. Peut-on être plus honnête ? « Une estimation chiffrée de ce projet, qui se montait à 170 000 F environ, soit à peine le coût social d'une seule fécondation in vitro, a été adressée au professeur Roux le 30 novembre 1983. Pas de réponse, ni même d'accusé de réception. « Le 30 janvier 1984, alors que 149 dossiers avaient été instruits, par moi personnellement, sans qu'il en est coûté un centime aux intéressés, j'ai écrit au professeur Roux pour lui demander de bien vouloir nous préciser sa position, quelle qu'elle fût, par une lettre officielle dont je puisse faire état auprès des couples qui nous sollicitaient. Toujours pas de réponse ! 20 21 Association Nationale pour l'Insémination Artificielle par Substitution. Voir infra, fiche de demande d'adhésion. 29 FICHE DE DEMANDE D'ADHESION A.N.I.A.S. ANNEE MADAME NOM : PRENOMS : NOM DE JEUNE FILLE : DATE ET LIEU DE NAISSANCE : SITUATION DE FAMILLE : PROFESSION : ENTREPRISE : ADRESSE : TELEPHONE : POSTE : SIGNATURE : MONSIEUR NOM : PRENOMS : NOM DE JEUNE FILLE : DATE ET LIEU DE NAISSANCE : SITUATION DE FAMILLE : PROFESSION : ENTREPRISE : ADRESSE : TELEPHONE : POSTE : SIGNATURE : DROIT D'ENTREE OBLIGATOIRE FIXE 600,00 F APRES ACQUITTEMENT DU DROIT D'ENTREE 30 MEMBRE BIENFAITEUR MEMBRE DE SOUTIEN MEMBRE FONDATEUR MEMBRE D'HONNEUR 1 500,00 F 5 000,00 F 10 000,00 F PLUS DE 10 000,00 F A VOTRE APPRECIATION Signature des conjoints.Suivi de « LU ET APPROUVE » P.S. joindre deux photos d'identité, photocopie de la carte d'identité ou du passeport des conjoints certifiée conforme et 10 timbres pour la correspondance. ETABLIR DEUX CHEQUES DIFFERENTS : UN POUR LE DROIT D'ENTREE ET UN AUTRE POUR MEMBRE AU CHOIX « Le 12 mars 1984, n'ayant toujours rien reçu, j'ai adressé au Secrétariat d'Etat un lot de 50 dossiers dont l'instruction complète avait montré qu'ils pouvaient bénéficier d'un prêt d'utérus. Les dossiers étaient accompagnés d'une lettre personnelle des couples concernés, demandant eux-mêmes au ministre de bien vouloir nous accorder son feu vert. « A ce jour, je n'ai pas encore reçu de réponse. « Puis j'ai été amené { prendre mes responsabilités, ceci dans un cas très précis de détresse particulièrement dramatique. Je l'ai fait { titre strictement personnel, sans passer par l'association dans la solitude de mon cabinet, en mon âme et conscience, et { titre tout { fait bénévole, ainsi que je m'en suis expliqué dans une lettre au professeur Roux, au professeur Jean Bernard (Président du Comité National d'Ethique) et au professeur Louis René (Président de la Section Ethique du Conseil National de l'Ordre des Médecins) ». Un feu orange du ministre de la Justice. Entre-temps, le professeur Roux, dans une lettre du 20 aout 1984, s'appuyant sur une analyse juridique effectuée à sa demande par le ministère de la Justice et selon laquelle l'Association « Mères d'accueil » pouvait être considérée comme ayant un objet illicite, a suggéré au docteur Geller de la dissoudre. Bien que ne partageant absolument pas cette analyse, le docteur Geller a procédé à cette dissolution, intervenue le 16 septembre 1984, ceci «dans l'espoir de la reprise d'un dialogue ». Le 2 octobre 1984, il a écrit au professeur Roux pour lui rappeler que le nécessaire avait été fait et qu'il se tenait { sa disposition pour reprendre le problème. Pas de réponse. Après la position négative prise le 31 octobre 1984 par le Conseil National d'Ethique sur le prêt d'utérus, le docteur Geller a écrit à nouveau au professeur Roux le 13 novembre pour 31 solliciter un rendez-vous à trois : Docteur Geller, professeur Roux et Mme Georgina Dufoix, devenue ministre de la Solidarité Nationale. Le docteur Geller a procédé ensuite { l'insémination de deux autres mères porteuses, considérant notamment que les déclarations du ministre de la Justice { l'occasion du colloque Génétique, Procréation et Droit (18 et 19 janvier 1985) lui donnaient une sorte de feu orange. Les deux mères porteuses font partie de l'association « Les Cigognes », association de mères porteuses constituée au début de l'année et dont le siège se trouve { Strasbourg. « Le corps médical est représenté par le C.E.F.E.R., les mères porteuses par l'association « les cigognes », les mères stériles par « Sainte Sarah ». Il nous faut donc une quatrième structure, trait d'union avec les trois autres qui s'occuperait de la comptabilité, servirait d'intermédiaire pour les indemnités versées aux mères porteuses et veillerait à tous les aspects éthiques, juridiques et pratiques ». La première naissance par mère porteuse Avril 1985 : Patricia met au monde (accouchement sous X) Isabelle dans une clinique de Montpellier qui est immédiatement donnée au couple demandeur résidant dans le nord de la France. Patricia reçoit 50 000 F et un pendentif en cadeau. Le père reconnait l'enfant et sa femme entame une procédure d'adoption. -Les mères porteuses, qui sont-elles ? « Autant qu'on puisse en juger, notamment { travers leur correspondance, ce sont des femmes très maternelles, qui s'accomplissent dans la maternité. Elles en éprouvent beaucoup de joie et voudraient la faire partager à celles qui malheureusement en sont privées » Nous explique le docteur Geller.    PATRICIA, le 11 janvier 1984 : « J'ai la joie d'avoir un adorable bébé de neuf mois ; j'aimerais proposer ma candidature comme mère d'accueil pour faire connaitre la même joie à un couple stérile ». NADINE, le 5 janvier 1984 : « je suis une jeune femme de vingt-cinq ans, ma fille a neuf mois. Je serais désireuse de venir en aide à des femmes qui désirent devenir maman comme moi mais qui n'en ont pas la possibilité je serais très heureuse de savoir qu'une jeune femme connaisse comme moi l'immense joie d'être la maman d'un petit être tout { elle ». MARIE-CLAIRE, le 21 décembre 1983 : « J'ai mis un certain temps avant de reprendre contact avec votre association mais la décision que j'avais { prendre devait être mûrement réfléchie. Noël vient de passer et j'ai eu tant de joie de jouer les pères-noël avec ma fille de dix-huit mois que si je peux contribuer à apporter cette gaité, ce bonheur qu'est un enfant, { un couple qui malheureusement ne peut en avoir, ce sera de tout coeur ». 32 «Le Times du 30 septembre 1984, { propos d'une mère porteuse (Valérie) cite parmi les motivations les plus souvent avancées : ˮje suis heureuse d'être enceinteˮ et ˮune pulsion irrésistible { faire partager la joie maternelleˮ. Vous le voyez, c'est le même profil. Les deux expériences se regroupent parfaitement » exprime le docteur Geller. « L'enfant imaginaire et l'éclosion du sentiment maternel » - Mais comment ces femmes si maternelles peuvent-elles abandonner l'enfant qu'elles portent ? « Pour le comprendre, il faut faire appel { l'enfant imaginaire des psychanalystes : c'est l'enfant qui est fantasmé par la femme lorsqu' 'elle devient enceinte. Il est dit imaginaire (bien qu'il existe en fait !) parce qu'elle ne peut pas se le représenter concrètement. Normalement la future mère s'investit dans cet enfant qu'elle a désiré, qu'elle a eu avec celui qu'elle aime. Elle le pare de toutes les qualités et s'apprête { l'accueillir avec ferveur. Cet enfant imaginaire participe ainsi { l'éclosion du sentiment maternel. « Mais c'est bien différent pour la mère porteuse ; pour la bonne raison qu'elle ne ressent pas cet enfant comme étant véritablement le sien. En effet, elle ne l'a pas désiré, elle ne l'a pas fait avec l'homme qu'elle aime. Ce n'est pas son enfant. C'est ce qu'elles disent toutes ! Interviewée par le journal « le Méridional », Patricia dit : «C'est un enfant, ce n'est pas mon enfantje ne suis pas la mère. La mère, c'est celle qu'il appellera maman ». « Dans l'interview du magazine « Parents », elle imagine un dialogue avec l'enfant devenu grand : elle lui dirait, qu'elle l'a porté mais qu'elle n'est pas sa mère. Sa mère c'est celle qui l'a pris dans ses bras. « Même chose pour les porteuses américaines : « Cet enfant n'est pas le mien, dit Jill, et il ne le sera pas davantage lorsqu'il sera né »22. « Comme ce n'est pas leur enfant, elles n'ont pas le sentiment de les abandonner, mais plutôt de les rendre à leurs parents véritables. « Je n'ai rien abandonné, dit Elisabeth Kane la première mère porteuse américaine, car rien ne m'appartenait. Je n'ai fait que rendre { son père et sa famille un enfant que j'ai porté pour eux, mais qui n'était pas le mien »23 « Ainsi tous ces témoignages concordent : les mères porteuses ne perçoivent pas l'enfant qu'elles portent comme étant véritablement le leur. Elles ne s'investissent donc pas dans cet enfant. Autrement dit, elles n'élaborent pas l'enfant imaginaire des psychanalystes. » « Je le porterai normalement » « En revanche, et c'est ce qui est intéressant, il semble que cet enfant imaginaire soit édifié par celle qui attend l'enfant, bien qu'elle ne l'ait pas porté. C'est ce qui apparait en tout cas { travers les lettres de ces patientes : « La mère d'accueil le portera physiquement, nous écrit l'une d'elles, mais moi je le porterai moralement » ; « Lorsque vous m'apprendrez que l'insémination a réussi, nous écrit une autre, je porterai cet enfant jour après jour, comme s'il était dans mon ventre ». Ainsi, il y aurait au cours du prêt d'utérus une sorte de transfert de l'enfant imaginaire. Il ne serait pas édifié par la mère porteuse, bien qu'elle ait porté 22 23 Robert Clarke, « les enfants de la science », Stock, p. 123 Locus cit., p. 112 33 physiquement l'enfant, mais par celle qui l'attend, bien que celle-ci ne l'ait pas porté physiquement. « Et c'est chez elle, on peut le présumer, qu'il se produira ses effets bénéfiques quant { l'éveil du sentiment maternel. Par ailleurs, c'est cette même femme qui va recevoir l'enfant réel des psychanalystes. C'est-à-dire l'enfant en chair et en os qui, { la naissance, succède { l'enfant imaginaire, et avec lequel elle va nouer des relations de maternage. Ces relations dyadiques, comme disent les spécialistes, où la mère agit sur l'enfant et l'enfant sur la mère, si importantes pour l'établissement du lien maternel authentique. Si l'on ajoute à cela que, bien avant la grossesse, cette même femme a été habitée (ô combien !) par le désir d'enfant, autre composante essentielle du sentiment maternel, on est amené { conclure que c'est elle la vraie mère. Comme dit Patricia : «La mère, c'est celle qui aime, pas celle qui porte ». » - Vous ne pouvez pas nier le rapport privilégié entre la mère et l'enfant au cours de la grossesse. « Certes, et c'est ce qui fait toute la problématique du prêt d'utérus. Porter un enfant, c'est valorisant pour une femme, et peut être encore davantage quand on le porte pour quelqu'un d'autre. C'est d'ailleurs ce qui contribuera sans doute { faire reconsidérer le problème de l'anonymat dans le prêt d'utérus. » « Une sorte de marraine » - Comment cela ? « Eh bien, la véritable gratification de la mère porteuse c'est de pouvoir se rendre compte de la qualité, si j'ose dire, de l'enfant qu'elle fait, et du bonheur qu'elle apporte. D'où le désir exprimé par les porteuses, du moins celles qui sont animées de cet état d'esprit, de voir la future mère partager leur grossesse, d'avoir plus tard des nouvelles de l'enfant, de son suivi, de son développement. Ce qui parait difficilement compatible avec le maintien d'un anonymat total.Peut-être la mère porteuse sera-t-elle un jour considérée comme une sorte de marraine, une deuxième maman qui s'intéresse { l'enfant mais qui ne le capte pas ». « Dé commercialiser le P.D.U. » - Vous avez proposé l'adoption in utero. Pourquoi ? Il est difficile pour un juriste de concevoir l'adoption pour un enfant qui n'est pas encore né (voire { l'état de projet) ? « Ce qui m'a guidé, c'est le risque d'une reprise de l'enfant par la mère porteuse. Il m'a semblé que ce serait affreux pour le couple, après tout ce qu'il a fait pour avoir cet enfant. D'où l'idée de faire partir les délais d'adoption, non pas de la date de l'accouchement, mais de celle de la fécondation, laquelle est ici justement connue avec précision. Il est vrai que, pour le juriste, l'enfant n'acquiert une personnalité juridique qu'après la naissance. Mais on admet, dans certains cas, que le foetus peut être doté d'une personnalité juridique si c'est son intérêt. C'est le fameux adage : « infans pro nato habetur » Qui permet { un foetus de recevoir in utero une donation ou un héritage, { condition de naitre vivant. Il me semble qu'il serait facile d'étendre l'application de ce principe au prêt d'utérus. En effet, c'est l'intérêt évident de cet enfant d'être 34 adopté, et cela mettrait le couple { l'abri d'un revirement intempestif de la mère porteuse, laquelle aurait néanmoins largement le temps de se déterminer en toute liberté ! »24 Et les droits de l'enfant ? - Que sait-on des rapports entre le foetus et la mère qui le porte ? « Une des objections majeures { l'encontre du prêt d'utérus est représentée par les relations intimes qui se nouent entre la mère et l'enfant qu'elle porte. Relations, qui si l'on en croit certains, seraient fondamentales pour l'avenir psychologiques de l'enfant. Moi, je veux bien, mais je note que ces relations intimes sont rompues également dans l'adoption, (ce qui n'empêche pas les mères adoptantes de s'accomplir dans la maternité) et qu'elles ont bien existé en revanche, ces relations intimes ! Dans le cas des mères qui martyrisent leurs enfants, ce qui ne les empêche pas de les martyriser ! « On peut en déduire que ces relations intimes, sans préjuger de leur nature, ne sont ni nécessaires ni suffisantes pour l'établissement d'un lien maternel de qualité. Mais qu'en est-il exactement de ces relations ? On a beaucoup insisté sur les aptitudes auditives du foetus qui serait capable de réagir en particulier { la voix de la mère. Si l'on en croit les spécialistes de ces problèmes25 : « non seulement le foetus ne peut pas discriminer les sons mais l'intensité utile pour que les sons puissent parvenir { son oreille risquerait d'en altérer le dispositif récepteur sensible ». Quoiqu'en pensent certains, il semblerait que le foetus soit bel et bien sourd. Comme il est aussi aveugle et muet, on voit qu'il parait bien difficile de communiquer avec lui, du moins in utero. Tout change, en revanche, après la naissance. On assiste alors à un réveil sensoriel tout à fait remarquable. L'enfant devient capable de réagir { l'odeur, au contact, { la voix de sa mère, ou plus précisément de celle qui s'occupe de lui, même si elle ne l'a pas porté. Ce qui est le cas de la mère sociale dans le prêt d'utérus. En effet, l'enfant lui est apporté au berceau, elle va pouvoir ainsi nouer les interrelations de maternage si importantes, on le sait, pour l'établissement d'un lien maternel de qualité. « Si on ajoute à cela que, bien avant la grossesse, cette même femme a été habitée par le désir d'enfant (autre composante capitale du lien maternel), on peut en conclure que si l'enfant issu du prêt d'utérus n'est pas l'enfant du ventre pour reprendre l'expression de Françoise Dolto, il est en tout cas l'enfant du coeur ! Alors, peut-on le refuser ? » « On rembourse bien l'avortement » - Vous avez également proposé la grossesse adoptive. Qu'en est-il exactement, et pourquoi ? «Cette notion s'inscrit dans notre optique de la décommercialisation du prêt d'utérus. La façon la plus sûre de décommercialiser le prêt d'utérus, pensons-nous, c'est de le faire rembourser par la Sécurité Sociale. On rembourse bien l'avortement qui ne rapporte cependant rien { l'Etat, au contraire, puisqu'il le prive de futurs contribuables. L'avortement est même payé par ceux, qui comme les catholiques, y sont opposés par conviction religieuse. 24 Cette affirmation du Dr Geller est contestable. En effet, la mère porteuse a ou n'a pas la liberté de garder son enfant ! 25 Voir J. Creff, « la pratique médicale », 1983, 29, pp. 43-45 35 Le prêt d'utérus profiterait { la nation toute entière. Il serait donc normal qu'il fut supporté par la solidarité nationale dans son ensemble. Sur le plan pratique, nous proposons que la future mère porteuse, qui sollicite un échantillon de sperme auprès de la banque, consente en même temps { l'adoption de l'enfant issu de cette insémination. Ce consentement ouvrirait droit { une allocation spéciale dite de grossesse adoptive couvrant la période d'insémination, la grossesse, l'accouchement et le post-partum. Plus souple que l'indemnisation forfaitaire, cette formule permettrait { la fois de couper court { tout trafic et d'ouvrir l'accès au prêt d'utérus { tous, même aux plus démunis. Que souhaiter de mieux ? » Nous ne partageons pas ce point de vue du docteur Geller. Nous avons vu combien il est fondamental que la mère porteuse conserve,JUSQU'A LA NAISSANCE INCLUSE, l'entière liberté de garder son enfant. Une telle pratique (la grossesse adoptive) serait inévitablement la voie ouverte à de véritables mises en fiche des mères porteuses et donnerait des pouvoirs considérables à des agences qui sont et seront loin, cela va sans dire, d'être toute pleines de scrupules !! PROJET DE PROPOSITION DE LOI DU DR GELLER (Document C.E.F.E.R.) (Voir nos extrêmes réserves en page précédente) Art. 1 L'insémination artificielle d'une volontaire, dite « mère d'accueil », peut être réalisée pour permettre { un couple dont la femme est irrémédiablement stérile d'avoir un enfant. Art. 2 L'infertilité de la femme doit être médicalement prouvée, ainsi que la fertilité de son partenaire. Art. 3 La mère d'accueil doit être âgée de dix-huit ans au moins et de trente-cinq ans au plus. Sa fécondabilité doit être établie. 36 Art. 4 En même temps que la demande d'insémination présentée { la banque de sperme, la future mère d'accueil, consent { l'adoption de l'enfant issu de cette insémination, au cas où celle-ci serait suivie de succès. Les délais d'adoption commencent { courir { partir de la date de la constatation de la grossesse. Art. 5 le consentement { l'adoption ainsi formulé ouvre droit pour la mère d'accueil { une allocation spécifique dite de « grossesse adoptive», correspondant respectivement à la période d'insémination, { la grossesse, { l'accouchement et au post-partum, dont le montant sera fixé par les décrets d'application. _________________________ 7 LEGIFERER ? Cette insécurité qui pèse sur le devenir de l'enfant concerne en fait toutes les techniques de procréation artificielle et notamment, celles qui font appel à un donneur de sperme, une donneuse d'ovule, une donneuse d'embryon ou une mère porteuse. Cet enfant doit-il bénéficier d'un statut protecteur particulier ? Ce couple stérile qui demande à la technique médicale d'intervenir pour combler son désir d'enfant, doit-il se voir imposer par la loi un certain nombre d'obligations particulières. De l'interdiction du désaveu par le père stérile { l'obligation pour la femme stérile de prendre l'enfant en charge quel que soit son état. On rappellera le jugement rendu par le tribunal de Nice 26 qui a reconnu le droit d'un père qui avait formellement consenti { l'insémination artificielle de sa femme avec donneur, { désavouer l'enfant et ceci en conformité avec l'art. 312 du Code civil. Ce cas est reté exceptionnel dans l'histoire de la procréation artificielle. En effet, dans une grande majorité des cas, pour ne pas dire dans l'intégralité, le mari est impliqué dans cette insémination et manifeste dès les premiers entretiens et examens sa volonté de voir procréer un enfant par cette technique et de le considérer comme son enfant. Le sénateur Caillavet propose, comme c'est le cas aux Pays Bas, au Portugal, au Canada, dans certains états des U.S.A., par modification de l'article 312, d'interdire le désaveu par le père qui a consenti { l'insémination artificielle avec donneur. Solution qui semble juste. Cependant certains juristes y voient le risque d'imposer une paternité non souhaitée. Dans ce cas, l'ouverture d'une action { fin de subsides ne serait-elle pas plus conforme à la 26 T.G.I. Nice, rev ; trim. Dr. Civ. 1977.743. 37 réalité ? D'autres souhaitent qu'une telle modification (interdisant le désaveu) trouve une contrepartie pour la femme stérile du couple demandeur, ainsi que le propose le professeur D. Parker (G.B.) { propos du droit américain sur le prêt d'utérus : « un autre problème inhérent aux contrats de « location d'utérus » conclus dans les Etats (tels le Michigan) dotés de dispositions légales sur l'insémination artificielle avec donneur (I.A.D.) sur son épouse, l'enfant en résultant est censé être l'enfant légitime du couple. Il est probable qu'au moment de l'adoption de cette loi, l'éventualité des accords de maternité de remplacement n'ait même pas été imaginée, mais quelle que soit la position adoptée { l'égard de la grossesse de substitution, il faut reconnaitre que son but est de donner un enfant à un homme qui n'est pas le mari de la mère et pourtant c'est ce mari qui est légalement censé être le père de l'enfant. Pourquoi ne pas envisager la même attitude { l'égard des femmes stériles qui sont obligées de recourir à des mères porteuses pour porter leur enfant ?». Table Ronde Internationale, Ivry, 7-8-9 novembre 1985 8 LE« DOSSIER DE LA MERE DE SUBSTITUTION ET DE L'INSEMINATION ARTIFICIELLE »QUE NOUS PROPOSONS CI-APRES COMPRENDUN CERTAIN NOMBRE DE DOCUMENTS SELECTIONNES, TEXTES DE LOI, REFERENCES, PRISES DE POSITION, INTERVIEWS, CONTRATS ET DONNEES CHIFFREESRECUEILLIS EN EUROPE ET AUX U.S.A. De nombreux colloques ont été organisés autour de la procréation assistée : o o o o o o o o o o o Colloque « Génétique, Procréation et Droit », Paris, 18-19 janvier1983. Entretiens de Nanterre, Paris 8-9 mars 1983. Colloque « Génétique et Droit », Conféd. Synd. des Avocats, Paris, 4mai 1983. 7°Congrès Mondial de Droit Médical, Association Médicale Mondiale, Gand (Belgique), 19-22 aout 1983. Journée « un enfant pour une autre », Bourges, 23 octobre 1983. Table Ronde Internationale, C.N.R.S., Ivry, 7-8-9 novembre 1983. Colloque « Procréation, Génétique et Droit », Institut Suisse de Droit Comparé, Lausanne, 29-30 novembre 1983. Journée « Autour de l'enfant », C.N.R.S. université de Lyon 3, Lyon, 29 mai 1986. Congrès International de Droit de Bioéthique, Hasting Center, Sienne, 23-28 juin 1986. Les Entretiens Juridiques, Lyon, 16-17 octobre 1986. Les Entretiens de Rachi, Paris,7-8 mars 1987. 38 o La Fabrique du Corps Humain et les Droits de l'Homme, Centre Georges Pompidou, B.I.P., Paris, 12 mars – 9 avril 1987. Médecins, gynécologues, sociologues, juristes, philosophes, moralistesy ont fait entendre leur voix. Les échanges, plutôt que les polémiques, qui ont eu lieu ont été déterminants et ont marqué certainement le début d'une prise de conscience en Europe des nouveaux enjeux de la procréation assistée et d'une rapide évolution de l'opinion. Au moyen de brefs extraits nous livrons certaines des interventions parmi les plus significatives. L'aspect épars des sujets évoqués est certainement le miroir de la multiplicité des données qui concernent la transmission de la vie, l'enfant, la parenté et la liberté individuelle. AU COLLOQUE « GENETIQUE, PROCREATION ET DROIT » Extraits E. Papiernik (professeur de gynécologie obstétrique Paris-sud) : - Le désir d'enfant est souvent dissocié du désir de fonder une famille. - Une filiation atypique est souvent très lourde { porter pour l'enfant, quelle que soit la société. - Dans la pratique des laboratoires, on est { peu près sûr du caractère fécondant de l'oeuf { la différence de ce qui peut se passer avec la procréation naturelle où l'imaginaire joue un grand rôle. - Motivation des mères porteuses ? - Trois hypothèses : . Indifférence (quel effet sur le développement de l'enfant ?) . La mère porteuse se prend au jeu et devient une vraie mère ayant investi . Partage de maternité, convivialitéutopie ! J. Isambert (Hautes Etudes, C.N.R.S.) : - Avant de trancher, il faut déterminer qui est concerné. - D'un point de vue biomédical, les F.I.V. c'est la pointe de la recherche { la différence de la mère de substitution. - S'il est fait appel au généticien / médecin, c'est dans le premier cas en tant que chercheur (fécondation in vitro, congélation embryon) dans le deuxième cas (mère porteuse) une assistance médicale. -Banalisation du lien biologique (mode de transmission du caractère héréditaire) à laquelle s'ajoute une conviction concurrente (conviction très forte mais non explicite). Sont concernés : . Médecins et chercheurs 39 . Avocats, associations et institutions . Magistrats . Clients -Une société pluraliste implique l'existence d'une sphère d'activité privée incluse dans le pacte implicite avec autrui. - Que savons-nous des dommages psychologiques subis par un enfant, par le fait d'avoir une mère génitrice distincte de sa mère adoptive et jusqu'{ quel point ce dommage est ou non contrebalancé par le fait d'être fortement désiré ? PERE GENITEUR PERE ADOPTIF MERE GENITRICE MERE GESTATRICE MERE EDUCATRICE - L'ARGENT ? Que critique-t-on ? Le fait que l'argent soit mêlé { l'affaire, ce qui exclut une indemnisation ? Le fait que la production d'en enfant soit assimilée { un travail rémunéré ? Devons-nous craindre l'établissement d'un marché livré aux fluctuations de l'offre et de la demande ? La question n'a jamais été posée d'institutions correspondant, mutatis mutandis aux C.E.C.O.S. On peut penser que la fièvre retombant, la question pourra être remplacée dans un autre contexte. Non seulement, il sera peut être possible de concevoir ou même d'expérimenter des organismes intermédiaires offrant un maximum de garanties, mais encore d'élargir le problème posé au rapport possible entre couples stériles et femmes fécondes. Assouplissement de la législation sur l'adoption (avant la naissance), une entente entre les parties rentrant en ligne de compte dans le jugement d'adoption. -Sondage ELLE : le motif le plus fréquent au refus d'être mère porteuse est la peur de s'attacher { l'enfant donc le risque psychologique. -Le demi-patrimoine du père est-il déterminant ? - On peut concevoir d'éviter l'interruption volontaire de grossesse, en confiant l'enfant { un couple demandeur. J. Rubellin-Devichi (professeur de droit, Lyon) : - Le législateur devrait s'abstenir en matière de procréation assistée sue des points qui nous divisent radicalement. Effets inexistants d'une loi inutile pour des techniques applicables en dehors de tous centres reconnus. Ce qui ne veut pas dire que l'on doit se désintéresser des mères porteuses, « système normatif de remplacement » (J. Carbonnier). o Comité Warnock → droit anglais : les cas d'espèces. o Comité national d'éthique → droit français : généralités. - Le contrat couple d'accueil/ mère porteuse n'est pas un véritable contrat et c'est bien ainsi. La mère porteuse sait qu'elle peut toujours garder l'enfant, l'absence de contrat protège la mère porteuse. -On ne peut faire entendre raison au couple demandeur 'l'adoption ne serait les décourager). -La filiation de l'enfant { naitre peut être établie simplement. - Liberté de la recherche scientifique. 40 - L'enfant issu de mère porteuse a un père. Jean Cohen (gynécologue, accoucheur, Hôpital de Sèvres) Fécondation in vitro : - Déplacement dans l'espace de la procréation : aucun problème. - Déplacement dans le temps : il faut limiter à cinq ans la congélation. - I.A.D27. , don d'ovocyte, mère porteuse → procréation de remplacement : même demande sur le plan sociologique et psychologique. - La société accepte déjà le remboursement par la Sécurité Sociale de l'I.A.D. - Une loi ne serait que contraignante (préméditée). - L'argent ne doit pas être un problème absolu. Les anciens donneurs interrogés se souviennent à peine des sommes reçues ! M. Gobert (professeur de droit Paris II) : -Pourquoi une telle requête du public ? Il y a un besoin d'affection, un resserrement de la famille sur elle-même « famille appartement ». - On ne peut pas attendre qu'une loi soit acceptée par tout le monde pour la voter sinon la loi de 1972 sur la filiation n'aurait jamais été votée ! - Le Comité National d'Ethique n'émane pas du législateur or la décision lui revient même s'il doit renvoyer la balle. - Absence de contrat : êtes-vous sûr de protéger la mère porteuse en cas de naissance anormal ? - Il y a une contradiction entre le fait de souhaiter que l'enfant soit pris en charge le plus tôt possible par ses parents et de ne pas comprendre que des couples refusent un enfant anormal. - Consentement éclairé : la mère porteuse face à ses responsabilités. - Le législateur a bien admis un seul rapport maternel ou paternel, car on ne peut mettre un gendarme derrière toute femme qui refuse que son enfant ait un rapport avec son père. Révérend Père Thévenot : (En réaction { l'intervention de Cohen) - On se dirige vers une morale de l'intention qui n'analyse pas les retombées objectives. - Don de sperme ≠ don d'enfant. - Il y a une dysfonction relationnelle et biologique.28 Raymond Forni (Président de la Commission des Lois à l'Assemblée Nationale) : - Il ne faut pas exclure le législateur. - La responsabilité du médecin est trop importante. - la mise en place du Comité d'Ethique, nécessaire, est une réponse insuffisante. 27 28 Insémination Artificielle avec Donneur. Lire infra, extraits de l'intervention du Père Thévenot. 41 - Ce n'est pas aux C.E.C.O.S. de décider, mais au législateur de trancher ; par exemple insémination post-mortem. - Je suis personnellement opposé { l'insémination de femme seule. Ghislaine Toutain (Député de Paris) : - La loi devra se garder d'aller trop au fond des choses et d'émettre des interdits sans appel non accepté par une fraction importante du corps social → loi inappliquée. - Je suis favorable { l'I.A.D. de mère célibataire. Daniel Callahan (Directeur Hastings Center, New York, U.S.A.): - Il y a une étonnante plasticité du psychisme humain, il ne faut pas avoir d'attitude catégorique. L'institution du mariage aux U.S.A. tient le coup car il y a un respect des minorités culturelles. - Il y a un risque de banalisation de la maternité (Sommes énormes gagnées en période de chômage) Françoise Dolto (Psychanalyste) : - La mère porteuse ne prostitue pas plus son corps que la nourrice ne prostitue son lait. - Il ne faut pas pénaliser, ne pas donner de notion de bien ou de mal. La mère en prison ? Jacques Testart (I.N.S.E.R.M.). Hôpital A. Béclère-Clamart. - Fécondation in vitro : - Le problème des embryons surnuméraires n'est pas résolu. - Tant que la congélation d'embryon n'a pas de statut, ils disparaissent. Je demande la conservation de ces embryons !29 J. Hamburger (Académie de Médecine) : - Le problème de l'accès { la fécondation in vitro est le coût. - Il ne faut pas qu'il y est commerce, la France s'est enorgueillie en interdisant les activités lucratives en matière de don d'organes, de transplantations - Il n'y a pas de logique scientifique, la science ne peut faire état de sa solitude. - Risque de prostitution des mères porteuses en période de chômage. 29 Jacques Testart nous a précisé depuis que la congélation résout en partie le problème des embryons surnuméraires : « tant que le couple ne les a pas abandonnés il n'y a pas d'embryons surnuméraires. A condition d'autoriser l'autoconservation et le don volontaire des oeufs abandonnés à un autre couple ». 42 F. Laborie (C.N.R.S.) : - Il y a une autre logique, que la logique scientifique, de la mère porteuse - Elle n'abandonnera pas l'enfant, elle le donne. Quant { l'argent, c'est l'échange dans notre société. René Diatkine (Psychanalyste) : - La gratuité des mères porteuse ne peut être absolue des moyens détournés seraient utilisés. Michel Serres (Philosophe) : - Problème de la rémunération, nous ne savons pas ce qu'est l'argent (Mythes grecs, morale indo-européenne), le corps humain coupé en morceaux on le retrouve dans Platon, argent substitut de l'organe coupé. - La dot, le salaire : passé anthropologique extrêmement lointain. - Deux sortes de logiques : logique du don, volens nolens nous y sommes ; logique de la grâce, pas de remboursement (ce qui aurait ma préférence, mais je ne serais pas scandalisé par la rémunération). J. Carbonnier (Paris II) : - On entend qu'il faut légiférer mais surtout ne légiférez pas ! - L'effort de novation demandé au juriste est le même que celui demandé { Bonaparte avec l'adoption. - Le rapprochement avec l'adoption est constant. - Les filiations à moitié biologiques seraient plus acceptables « vérité biologique/primat théorique » mais le droit reconnait également les conséquences de la VOLONTE. - Mariage, reconnaissance de l'enfant naturel. - Il y a un élément consolidateur : le temps qui permet l'application de la possession d'état qui peut donner certaines solutions mais notre société est impatiente. - Filiation adultérine sans adultère ? - Il n'y a pas d'obstacles dans notre droit pour l'établissement d'une filiation qui soit d'origine biologique et / ou volontariste. - l'autonomie de la volonté : l'état des personnes est le lege lata d'ordre public. On pourrait concevoir que le lege ferenda ce caractère d'ordre public soit atténué. - les intérêts individuels, moraux, affectifs. L'intérêt que j'ai aujourd'hui peut évoluer demain : qui a intérêt ?→ l'intérêt de l'enfant { naitre. Le porte-parole de l'intérêt des incapables : parents, Etat. - Pouvons-nous faire abstraction des intérêts collectifs ? - Démographie. - Santé publique. - L'intérêt social (caractère plus impalpable). - Droit de la filiation : en reliant l'enfant aux parents : un droit traditionnel peut tolérer des hérésies (le problème étant le nombre d'hérétiques !) ; l'enfant naturel s'est intégré dans ce droit de manière très lente. 43 - Il faut calmer l'horreur du vide juridique, on oublie que pour le droit commun, le contrat liant les mères porteuses au couple demandeur est nul. - L'insécurité juridique (affaire de Créteil)30 ; insémination post-mortem. - Autres mode de régulation ; raisonnabilité morale au niveau jurisprudentiel, « celui qui aura agi raisonnablement ». - Création d'une loi ? Quelle application ? Exemple : Consentement { l'I.A.D. Erreur(Dol), violence ? La gratuité peut être imposée par la loi, mais les dons ? Il y a une limite { l'application des lois pénales : l'opportunité des poursuites. De plus, il y a de la pression des chercheurs, de la recherche scientifique, passionnée. - Légiférer c'est consacrer, la législation est une matière expérimentale. - En matière de naissance par mère porteuse, il y a trop peu d'expériences en l'état pour fonder une intervention législative permissive ou répressive. - L'anonymat (I.A.D.) qui semblait acquis est remis en cause (U.S.A., Suède). Il faut qu'une situation appelant l'intervention du législateur soit légitimement mûre. JOURNEE « UN ENFANT POUR UNE AUTRE » BOURGES, le 23 octobre 1985 Intervention du professeur Soulayrol (pédopsychiatre) La solitude du ventre « L'enfant a une personnalité que l'on doit respecter à partir même de sa naissance, à partir même du projet que l'on fait sur l'enfant. C'est peut-être { partir du projet d'enfant qu'il y a déj{ une altération dans l'idée de mère porteuse qui me parait tout { fait grave, puisqu'on a l'intention de le donner « LES PSYCHIATRES NE SONT PAS DES MORALISTES « Le docteur Geller ne considère que la détresse de la mère stérile, de la mère receveuse : veillons alors, lorsqu'on touche aux sources de la vie, de ne pas créer d'autres souffrances et ayons l'humilité de proposer que toute certitude soit éliminée de ce débatun pédopsychiatre doit donc se préparer { recueillir l'angoisse et la culpabilité surtout, qui peut naitre chez chacun des partenaires d'une telle situation même dans son aspect le plus idyllique où l'on peut imaginer que le contrat a été parfaitement rempli, que l'enfant est dans sa famille heureuse, comblée et qu'il n'y a aucun conflit entre mère porteuse et mère receveuse Une mère oblative « La mère est en fait une mère adoptive, mais elle est seule adoptante. Ce qui risque d'ailleurs de l'isoler du soutien de son mari en cas de trouble relationnel sue elle, converge la projection des pulsions agressives ou oedipiennes, pulsions qui préservent en revanche la mère porteuse sous la forme du bon objet idéalisé puisque celle-ci est une mère oblative qui est tout 30 Affaire Corinne Parpalais : laquelle, on s'en souvient, a obtenu en justice les paillettes du sperme déposées au C.E.C.O.S. de son mari défunt. 44 à fait concélébrée dans le milieu familial et comment lui interdire ({ la mère porteuse) le face à face avec le visage de son bébé. Comment lui interdire de se préoccuper de ce qui va venir ? Et après quand la fête de la nativité commence chez les autres, que va-t-elle devenir avec la solitude de son ventre vide et de ses seins inutilement gonflés ? S'il est possible que des couples stériles aient recours { la pratique du prêt d'utérusc'est pour la mère porteuse que je plaide, mais aussi les enfants de cette mère porteuse, le mari de cette mère porteuse Ce qu'il faut, c'est que l'enfant ne comble pas le désir d'avoir pour soi un enfant. C'est-à-dire que l'enfant doit être considéré comme un être en plein développement et qui existe comme être, comme sujet et non pas comme objet dès la naissance et dans l'intention surtout, dans l'intention que l'on donne { ces mères d'avoir un enfant pour une autre. » LA MATERNITE POUR AUTRUI CONFRONTEE A LA MORALE RELIGIEUSE P. Xavier Thévenot, théologien moraliste, professeur à l'Institut Catholique de Paris 31: « Il est possible d'assumer l'absence d'enfant » « Deux croyances sont erronées : a) Il existe un droit absolu { l'enfant. Ce principe conduit { un risque majeur d'irrespect de l'enfant { naitre, par sa survalorisation. Or la vérité est qu'il existe seulement un droit { tenter de guérir les stérilités par des moyens éthiquement bons. b) La stérilité définitive est une tare humiliante et une épreuve qui empêche définitivement d'accéder { la joie de vivre et { la réalisation de soi. Or l'existence des personnes stériles montre l'évidence qu'il est possible d'assumer (au moins dans un grand nombre de cas) peu { peu l'absence d'enfant par une vie sociale pleine de sens et de « fécondité » relationnelle « Les théologiens catholiques sont aussi sensibles au risque inhérent à toute dissociation excessive entre le biologique et le psychique, entre le corporel et le rationnel. L'acte habituel de procréation lie indissolublement la parenté corporelle et la parenté relationnelle. « Les théologiens catholiques estiment unanimement, à ma connaissance, que le recours à une mère de substitution n'est pas conforme { une saine éthiqueIl n'est pas du tout sûr que cette 31 Colloque « Génétique, Procréation et Droit », Paris, 18-19 janvier 1985 45 pratique n'ait pas des effets nocifs sur l'enfant { naitre, en raison des échanges psychosomatiques entre la mère et l'enfant pendant la gestation. Comme le fait remarquer P. Verspieren, l'enfant est traité par la mère porteuse comme un moyen de parvenir { ses fins personnelles et non pas comme une fin en elle-même. Ce qui est contraire au principe de respect de tout être humain. Au objecte souvent aux théologiens catholiques le fait que des femmes du peuple d'Israël, dont l'histoire est racontée dans l'Ancien Testament, ont recours { cette méthode. Il y a dans cette objection une utilisation fallacieuse de l'Ecriture qui ne tient pas compte du principe directeur expliqué ci-dessus, selon lequel, la Bible n'est pas un livre de recettes éthiques mais une source d'inspiration pour la morale qui exige tout un travail herméneutique. Sinon, dans la logique d'une interprétation fondamentaliste, il faudrait affirmer que le meurtre des premiers nés des ennemis est chose excellente ou encore qu'il ne faut pas faire la transfusion sanguine ! « Une réforme de l'adoption au plan mondial » « Peut être encore plus que le donneur de sperme dans l'I.A.D., la mère donneuse d'enfant, en raison du long vécu de la gestation, est amenée à vivre fortement la disjonction de la parenté biologique et de la parenté relationnelle. « Elle est donc amenée { agir { l'encontre du lien indissoluble entre corps et esprit, dont il a été dit qu'il était fondateur de l'équilibre personnel et social. On peut donc se demander si la mère porteuse est elle-même respectée dans son être de femme par une telle pratique. « C'est aussi résoudre le problème de l'absence d'enfant pas de mauvais moyens. Ne vaudrait-il pas mieux se pencher, comme le suggère J. Testart, sur une réforme de l'adoption au plan mondial ? » Patrick Verspieren, jésuite, directeur de la revue « ETUDES » Il condamne le prêt d'utérus et se demande : « Quels fins poursuit donc cette femme qui, délibérément, se décide simultanément à porter en elle-même, dans son propre corps, un enfant tout en le mettant { distance le bénéfice recherché peut consister dans le plaisir d'être enceinte, sans pour autant engager l'avenir et porter ensuite les charges et le poids de l'éducation ou dans la satisfaction narcissique de pouvoir se dire qu'un couple lui devra ses plus grandes joies et restera donc, même s'il est inconnu, son obligé « L'enfant aura ainsi été utilisé comme moyen pour satisfaire de telles fins, puis confié à d'autres, une fois obtenues les satisfactions recherchées. Or, selon Kant, pour être morale, toute action se doit de traiter autrui, même lorsqu'on attend quelque chose de lui, comme un sujet qui a sa fin, en lui-même et jamais seulement comme un moyen sous couvert de générosité (et c'est la paradoxe), la dignité reconnue { tout être humain par les Droits de l'Homme est, de fait, récusée par la pratique de la maternité de substitution. L'enfant, délibérément procrée, porté pendant neuf mois sans être reconnu dans sa singularité est destiné dès le départ { être abandonné, n'est pas traité comme une fin en lui-même. Sa dignité d'être humain n'est, en fait, pas reconnue. » 46 Patrick Verspieren poursuit son plaidoyer pour l'enfant { naitre par un certain nombre d'arguments rencontrés, par ailleurs, dans notre recherche : « La maternité de substitution réduit la gestation à une pure fonction de production, de fabrication et lui retire toute valeur symbolique. La société qui accepterait une telle pratique se rendrait coupable d'une dégradation du sens du corps humain « Les futurs parents commanditent la procréation d'un enfant sans engager leur propre responsabilité ; cela devient manifeste lorsqu'ils refusent le « produit de la gestation » pour raison de malformation congénitale l'enfant une fois né sera mis dans une situation bien difficile si, en fin de compte, la mère qui l'a porté ne se résout pas { l'abandonner ou si le couple commanditaire renonce { son projet (pour raison de divorce, de décès de l'un des conjoints). Exposant l'enfant { ce risque, la maternité de substitution manifeste que ce n'est pas l'intérêt de l'enfant qui prime en la matière ». R.P. Georges Durand, théologien32 « Il y a (et c'est un élément éthique) un désir inconditionnel d'enfant. Dans un monde si sensibilisé aux caractères éthiques, 50% des couples stériles acceptent des enfants éthiquement, culturellement différents. Qu'un obstacle psychologique aussi considérable (quand on sait ce que représente ce type de lien affectif qu'est la maternité) soit tenu pour négligence, met en lumière la puissance du désir d'enfant. Sur ce point précis, j'exhorte le docteur Geller { verser au dossier les extraits de lettres de ces couples stériles. J'interroge les consciences : un tel désir doit-il être frustré ? « La situation des nourrices » « je constate la disproportion énorme qui existe entre ce phénomène ponctuel, très réduit, de cette maternité spéciale ou indirecte, et la masse énorme des maternités qui, au cours de l'histoire, se sont déroulées sans la moindre préoccupation psychologique, sans la moindre égard pour l'intérêt de l'enfant qui venait au monde comme un petit esclave en puissance. A la fois souci et remède : une bouche de plus { nourrir, des mains pour travailler dès l'âge de raison Françoise Dolto fait une remarque très pertinente : elle critique les catholiques qui se scandalisent au sujet des mères porteuses, alors qu'ils ont trouvé tout { fait normal la situation des nourrices, psychologiquement ancêtres de nos mères porteuses « Je me contenterai de signaler le caractère dynamique de la morale. Le tabou, l'interdit qui semblent être les ressorts de la conscience religieuse, ne sont en réalité que la face négative de la proposition éthique. La vie morale, pas plus que la vie proprement biologique, ne se définissent que par la négation 32 Journée « Un enfant pour une autre », Bourges, 23 octobre 1983 47 « La pension allouée à la mère ? Je trouve qu'elle est parfaitement équitable et raisonnable, j'ajoute que cette indemnité relève de la justice, même si, subjectivement, la mère porteuse se situe dans l'ordre du don. » Richard Wertenschlag, Grand Rabbin de Lyon.33 « Le procédé des mères porteuses est condamnable, même si la mère de substitution est célibataire. De telles méthodes procèdent d'un esprit de dévergondage, la femme devant être consacrée à son mari dans les liens sacrés de l'union conjugale. Les intentions mercantiles dans le prêt d'utérus se rapprochent de l'attitude des péripatéticiennes. Reste le problème de l'identité de l'enfant, { qui se rattache-t-il, à la mère donneuse, à la mère porteuse ou les deux à la fois ? Si, selon la tradition juive, c'est la mère qui enfante, qui est la véritable mère ? Celle qui donne l'ovule, lui donne aussi son identité religieuse. » Yves Cruvellier, Pasteur de l'Eglise Réformée de France34 « Plusieurs risques sont liés à la procréation artificielle : - Abstraction du corps (le biologique prend le pas sur le corporel) - Désintégration du temps = refus d'une histoire risquée ? - Désintégration sociale (lévirat social, anonyme et institutionnel) A titre d'exemple, oui { une FIVETE { partir du sperme et de l'ovule d'un couple « constitué », et non { un enfant qui serait le produit de la fécondation d'un ovule de Mme Z { partir du sperme de M.N, porté par Mme X et récupéré par M. et Mme Y. » LE NON AU PRET D'UTERUS DU COMITE NATIONAL D'ETHIQUE Avis sur les problèmes éthiques nés des techniques de reproduction artificielle35 Saisi de différentes questions éthiques nées du recours à certaines techniques de reproduction artificielle, le Comité Consultatif National d'Ethique a évoqué un ensemble de problèmes suscités par l'infécondité. Les propositions qui suivent n'ont pas pour ambition de faire le tour de ces questions mais seulement de préciser quelques-unes des données d'un débat scientifique et éthique encore à peine ébauché dans la société française. Le Comité a, en outre, jugé nécessaire et possible, de prendre position sur un point précis et limité.  Dans les sociétés modernes, l'infécondité fait l'objet de thérapeutiques. Il n'est pas question, parce qu'il ne s'agit pas d'une maladie, de refuser le traitement ou de récuser le progrès. Ces patients ont le droit d'être traités et de demander l'entier concours de 33 Entretiens juridiques de Lyon, 16-17 octobre 1986 Entretiens juridiques de Lyon 16-17 octobre 1986 35 Extraits concernant le recours à une mère porteuse de l'avis du comité consultatif national d'éthique pour les sciences de la vie et de la santé public en 1984. 34 48  leur médecin. Mais ce concours implique dorénavant le recours de plus en plus fréquent à des techniques de reproduction artificielle. Provoquer une naissance par ces techniques est un acte qui suscite des interrogations éthiques.Elles ne viennent pas d'un a priori { l'égard de ce qui est artificiel. Le fait nouveau, pour lequel la société n'a pas encore de réponse, est qu'en dissociant différentes étapes du processus de reproduction, les nouvelles techniques obligent à considérer séparément l'intérêt des patients, parents potentiels et celui du futur enfant. Nos habitudes nous ont, jusqu'{ présent, conduits { nous immiscer le moins possible dans cette liberté des libertés, qu'est la décision d'un couple d'avoir ou non un enfant. Tout est organisé, pensé, comme si les parents, avec leur médecin pour lesconseiller, étaient seuls face aux décisions à prendre. Les nouvelles techniques ouvrent un champ inconnu. La procréation, acte complexe, est dissociée, cet acte, jusqu'{ maintenant décidé et accompli de concert par un homme et une femme, conduit { son terme par l'association de l'embryon et de cette femme, peut ne pas être décidé ensemble et en même temps. Des tiers interviennent : donneurs de sperme et d'ovocyte, femme qui se prête { la gestation de l'embryon, médecins et intermédiaires qui, à divers titres, suivent cette naissance pendant un temps parfois long. Il ne s'agit plus de soigner mais de susciter une naissance. C'est au médecin, le plus souvent, qu'est alors posée une question qu'il ne peut résoudre seul. Il ne s'agit plus de soigner. Il s'agit de susciter une naissance. Est-ce que toute personne a le droit, dans toutes les conditions, d'avoir un enfant ? L'intérêt de ce futur enfant est alors un des critères de réponse. Il conduit { s'interroger non seulement sur le droit des individus d'être parents, mais aussi sur les relations entre celui ou celle qui participe { la reproduction et ceux qui élèveront l'enfant. Jusqu'au moment où la question devient : A-t-on le droit de donner un enfant ? L'enfant ne risque-t-il pas d'être traité comme un moyen et non comme une fin en luimême ? En outre, l'embryon accède { une brève période d'existence pendant laquelle il n'a, jusqu'{ présent, aucun statut. Une mise en cause du statut familial.  La gravité des questions posées rappelle au Comité quel est le champ de sa mission. Elle a pour point d'appui la science et la recherche et sa composition en fait une institution d'abord faite pour se prononcer sur des questions proprement scientifiques. L'expérience de ses membres ne l'habilite que partiellement { trancher les questions (où il n'y a encore que peu de recherches et au contraire beaucoup d'interrogations éthiques et sociales) qui viennent d'être évoquées. Ces interrogations mettent directement en cause la manière dont la société française conçoit le statut social. Le Comité d'Ethique en est venu { penser que ce débat sur l'intérêt du futur enfant et le droit des parents devrait être mené selon une procédure plus ouverte 49 et qui organise de façon plus solennelle la consultation et l'audition de tous les secteurs d'opinion. Les citoyens dans leur diversité devraient y être associés. A l'image de ce qui a pu être fait { l'étranger, cette vaste consultation publique contribuerait à faire mûrir les idées sur le sujet, et cette ouverture répond à un souci d'éthique. Elle demande { l'évidence des moyens administratifs d'une autre dimension que ceux auxquels le Comité a recouru jusqu'{ présent. Si ces moyens lui étaient donnés, le Comité serait prêt { assumer la charge d'organiser et d'animer cette consultation.  La société française se donnerait ainsi les moyens et le temps d'une réflexion nécessaire. mais il est, d'ores et déj{ certain que les opérations et recherches qui découlent des techniques de reproduction artificielle ne doivent plus être menées qu'au sein d'équipes agréées et sans but lucratif. Cet agreement devrait être délivré sur l'avis du Comité d'Ethique compétent : il impliquerait aussi, en contrepartie, que les équipes contribuent à l'effort commun d'information scientifique et de recherche qu'entraine le recours aux nouvelles techniques de reproduction artificielle.  Dans ce contexte qui devrait permettre { la société française d'aborder sereinement des problèmes qui divisent les consciences, la question qui a été posée au Comité à propos du recours aux mères de substitution appelle une réponse immédiate. Ce terme tout comme ceux de mères porteuses ou prêt d'utérus, entend désigner, sans doute improprement, la pratique suivante : Un couple qui désire un enfant s'adresse (le plus naturellement par l'intermédiaire d'une équipe médicale) à une femme qui accepte de concevoir un enfant par insémination artificielle du sperme du mari du couple stérile, de le porter et de la mettre au monde. Cette femme, qui porte jusqu'{ terme l'enfant issu de la fécondation d'un de ses ovules, est naturellement la mère de cet enfant, mais elle le donne dès sa naissance à ceux qui se définiront alors comme ses parents. Trois agents interviennent dans le processus de reproduction : un ovule, un spermatozoïde, un utérus. Dans le cas ici en cause, qu'il conviendrait d'appeler mère donneuse, le spermatozoïde vient du mari du couple stérile, l'ovule et l'utérus sont ceux de la mère donneuse. Cette situation est toute différente, de celle où le spermatozoïde vient du mari du couple stérile, l'ovule de l'épouse du couple stérile qui ne peut porter un enfant où seul l'utérus appartient { la femme extérieure au couple et d'un embryon dont le patrimoine génétique est entièrement celui du couple stérile. Dans le premier cas, l'enfant a une seule mère, celle qui est qualifiée de mère donneuse. Dans le second cas, l'enfant a une mère ovulaire et une mère utérine. Le présent avis n'entend se prononcer que sur le premier cas. Le second, qui ne s'est pas encore présenté en pratique en France, doit être envisagé avec l'ensemble des problèmes liés à la fécondation in vitro. Une pratique illicite. 50 Cette solution au problème de l'infécondité n'est pas liée { des développements techniques nouveaux, mais est nouveau le fait qu'interviennent des tiers : la femme que se prête à l'opération ; l'intermédiaire qui l'organise et la suit pendant plusieurs mois. Le recours { cette pratique est, en l'état du droit, illicite. Elle réalise la cession d'n enfant. Un tel contrat ou engagement est nul par son objet, et est contracté en fraude à la loi relative { l'adoption. Celle-ci suppose, en effet, une décision d'un juge qui se prononce en fonction de l'intérêt de l'enfant et qui apprécie l'opportunité après enquête, sous sa pleine responsabilité. Il ne serait donc pas tenu de faire droit à la demande d'adoption d'une femme qui souhaiterait élever un enfant conçu et porté par une autre femme. De plus, l'intermédiaire, médical ou non, de l'opération pourrait, pour avoir provoqué { l'abandon d'enfant, être jugé coupable de délit prévu par l'article 353-1 du Code pénal. Il ne faut pas changer de loi. Telle est la loi, et il ne faut pas la changer. Le Comité souhaite au contraire persuader toutes les personnes qui ont manifesté leur intérêt pour cette méthode, de ne pas chercher à y recourir. Des risques pour tous ceux qui y participent. En effet, la pratique qui vient d'être envisagée, s'agissant d'un acte grave qui consiste { susciter une naissance, entraîne des risques pour tous ceux qui en toute bonne foi y participent. La femme qui envisage de donner son enfant, peut être exploitée matériellement et psychologiquement. Il est déj{ inacceptable qu'une telle opération puisse être lucrative. De plus, aucune règle d'organisation satisfaisante ne parait de nature, même s'il n'était pas question d'argent, à garantir le sérieux des intermédiaires. Aucune sécurité sur la bonne fin de l'opération ne peut être assurée aux candidats parents. Enfin, et en toute humilité devant un problème encore mal cerné par la science, il parait clair que la question centrale, celle de l'intérêt de ce futur enfant n'est pas résolue. Personne ne peut donner une assurance suffisante que l'idée de susciter une naissance avec, dès l'origine, l'intention de séparer l'enfant de la mère qui l'aura porté, de sa mère comme il a été dit, répond { l'intérêt de cet enfant. C'est tout autre chose que de trouver une famille pour un enfant abandonné. La société est alors placée devant un fait accompli sur lequel elle n'a pas { s'interroger. Elle accueille l'enfant, elle permet son adoption et l'on peut constater { la lumière de l'expérience, combien de problèmes ont été heureusement résolus et sont susceptibles de l'être mieux encore. L'enfant ainsi pris en charge, a toutes ses chances. Rien ne permet d'affirmer, en l'état de nos connaissances, qu'il en irait de même d'un enfant qui, de volonté délibérée, serait conçu dans le seul but d'être donné par sa mère dès la naissance. Le Comité propose, dans ces conditions, de « continuer à appliquer la législation actuelle et donc de ne pas prendre les textes nécessaires pour rendre licite une manière de répondre à 51 l'infécondité qui contient en puissance une insécurité pour l'enfant, pour les parents qui souhaitent une naissance, pour la femme qui met au monde l'enfant et pour les personnes qui s'entremettent dans ces opérations. » LES CHIFFRES DE L'INSEMINATION ARTIFICIELLE EN FRANCE FEDERATION NATIONALE DES C.E.C.O.S. Mode de recrutement des donneurs : 1978 1979 1980 1981 1982 1983 1984 Démarche personnelle 68 121 87 167 237 178 294 Adressés par un couple demandeur Vasectomies 283 233 247 300 310 257 202 68 77 89 123 161 192 213 Adressés par un gynécologue Relation parmi le corps médical 16 23 23 43 50 33 59 37 36 27 39 13 18 13 Autres 63 70 43 33 40 54 31 537 561 518 707 811 736 812 342 324 349 464 569 518 590 1978 1979 1980 1981 1982 1983 1984 Nombre total des donneurs s'étant présentés aux CECOS Nombre de donneurs acceptés I.A.D : Nombre de demandeurs d'I.A.D. 52 1re demande 2 280 2 154 2 741 2 957 3 021 3 024 2 978 671 782 2ème – 3ème demandes > 300 > 400 > 400 Nombre de cycles d'I.A.D. 14 376 17 813 22 491 24 253 27 384 Nombre de paillettes utilisées Nombre de fécondations RESULTATS Pourcentage de paillettes/grossesses Pourcentage de grossesses/cycles 16 836 22 050 29 701 37 858 43 542 43 279 30 113 722 867 1 141 1 503 1 609 1 760 1 933 23% 24.5% 26% 25.1% 27% 25.7% 25.6% 7.9% 9.4% 7.1% 7.2% 7.1% Autoconservations : Vasectomies Traitement stérilisant TOTAL 1980 1981 1982 1983 1984 264 363 627 262 373 633 392 437 829 471/421 565/368 1 036 582/313 654/437 1 236 LES DOCUMENTS DES BANQUES DE SPERME : C.E.C.O.S. ET C.E.F.E.R. C.E.C.O.S. : Fédération des Centres d'Etudes et Conservation du Sperme. Présidée par le professeur David Elle est la première Banque de sperme en France et assure 90% de l'activité totale. C.E.F.E.R. : Centre d'Exploitation Fonctionnelle et d'Etude de la Reproduction humaine. A Marseille, présidée par le docteur Geller. 53       Les chiffres Fiches donneur sperme C.E.C.O.S. Protocole médecin/C.E.F.E.R. et fiches de renseignements. Règlement intérieur banque de sperme C.E.C.O.S. Contrat de conservation de sperme C.E.C.O.S. Décharge et responsabilité C.E.C.O.S. C.E.C.O.S. FICHE DE DONNEUR DE SPERME. N° D.S. NOM Prénoms : Profession : Adresse : tél : Adressé par : DATES AGES 1ère visite au centre : Naissance du sujet : Naissance des enfants : Dons de sperme : 54 Caryotype : BW : Groupe sanguin : RESULTATS Taille : Cheveux : Yeux : Peau : BANQUE DE SPERME DU C.E.F.E.R. (Marseille) Bilan de 10 années d'activité  Nombre de médecins inséminateurs - Habituels 58 - Occasionnels 40 (moins de 5 patientes traitées) 98  Nombre de femmes inséminées - Age des femmes inséminées 21 à 44 ans - Age des femmes ayant obtenu une grossesse 21 à 42 ans 1 275  Nombre de grossesses obtenues 289 soit 22.6%  Nombre de cycles inséminés Pour obtenir 289 grossesses 1 475 En moyenne 6 à 7 cycles pour obtenir une grossesse (de1 à 18 mois) 55  Nombre d'abandons (Encours d'insémination artificielle) 210 sur 1 275 =16.4%  Nombre de fausses couches 41 sur 289 = 14.1%  Nombre de femmes Envisageant une deuxième grossesse 48 sur 289 = 16.6% C.E.C.O.S. Renseignements concernant un donneur. Date de naissance : (J.M.A.) Année de naissance de la conjointe : Pays d'origine : Profession : Exposition importante ou longue à des : Substances toxiques non ⧠ oui ⧠ Si oui, lesquelles Irradiations non⧠ oui ⧠ DESCENDANCE DU DONNEUR : Nombre d'enfants nés vivants : garçons ⧠ filles ⧠ Nombre d'enfants mort-nés : garçons ⧠ filles ⧠ Causes de mortinatalité : Nombre de prématurés : Nombre d'avortements spontanés : A-T-ON NOTION DANS SES ANTECEDENTS FAMILIAUX : D'une(ou plusieurs) malformation(s) congénitale(s) non ⧠ D'une (ou plusieurs) maladie(s) génétique(s) non ⧠ Dans les deux cas, si oui, préciser oui ⧠ oui ⧠ LE SUJET A-T-IL EU : Une tuberculose grave non ⧠ oui ⧠ Une syphilis non ⧠ oui ⧠ Une hépatite infectieuse non ⧠ oui ⧠ Une intervention chirurgicale non ⧠ oui ⧠ Si oui, laquelle 56 Une infection génito-urinaire non ⧠ oui ⧠ Une varicocèle non ⧠ oui ⧠ Une orchite non ⧠ oui ⧠ A-T-IL EU UNE ANOMALIE De la puberté non ⧠ oui ⧠ Si oui, laquelle De la descente testiculaire non ⧠ oui ⧠ Si oui, laquelle DANS LES DEUX DERNIERES ANNEES A-T-IL : Consulter un médecin non ⧠ oui ⧠ Si, oui ; pourquoi Pris habituellement un (des) médicament(s) non ⧠ oui ⧠ Si oui, lesquels CARACTERISTIQUES PHYSIQUES Taille : Poids : Téguments : blancs pales ⧠ blancs mats ⧠ Blanc colorés ⧠ jaunes ⧠ Cheveux : blonds ⧠ bruns ⧠ Châtains ⧠ noirs ⧠ Yeux : bleus ⧠ clairs ⧠ Gris-vert ⧠ et foncés ⧠ Marron ⧠ Groupe sanguin O ⧠ A ⧠ Rhésus négatif B ⧠ Rhésus positif AB ⧠ Autres systèmes, préciser Particularité éventuelle noirs ⧠ roux ⧠ ⧠ ⧠ L'EXAMEN PHYSIQUE Révèle-t-il un signe anormal non ⧠ oui ⧠ Si oui, lequel Tension : max Et min. BW. : Négatif ⧠ positif ⧠ Caryotype normal non ⧠ oui ⧠ Fréquence habituelle des rapports sexuels Nombre moyen par mois ⧠⧠ Rempli le 19 Par 57 C.E.C.O.S. FICHE DONNEUR – ELIMINATION POUR L'INSEMINATION Date : (J.M.A.) Après le premier bilan le donneur était-il utilisable pour l'insémination ? (non= 0, oui = 1) Nombre d'éjaculats congelés Dont nombre utilisable pour l'insémination RAISONS DE L'ELIMINATION : - Descendance du donneur =1 - Ses antécédents familiaux =2 - Etat de santé personnel =3 - Risques exogènes =4 - Explorations complémentaires =5 - Examens de sperme non satisfaisants =6 - Incidents de procréation I.A.D. =7 - Nombre d'enfants par I.A.D. atteignant le seuil =8 - Epuisement du stock =9 - Autres =0 Le donneur continuera-t-il a donner des éjaculats à des fins scientifiques ? (non = 0, oui = 1) Chaque case doit être remplie – quand un renseignement manque, mettre un X. C.E.F.E.R. Marseille DOCUMENTS La banque fournit :  Une fiche de renseignements concernant la femme (fiche verte)  Une fiche de renseignements concernant le conjoint (fiche blanche)  Une fiche gynécologique (fiche rose)  Une fiche dite « fiche F.M. » Les fiches de renseignements, verte et blanche, ont pour objet de préciser les caractéristiques morphologiques du couple en cause, ce qui permet d'orienter le choix du matériel biologique le plus approprié au cas considéré. Elles doivent être remplies et signées par les intéressés qui doivent les retourner au C.E.F.E.R. avant la mise en route des séances. 58 La fiche gynécologique a pour objet de recueillir un minimum de renseignements sur le cas soumis, cci en vue d'une exploitation statistique ultérieure. Cette fiche est remplie par le praticien lui-même, également avant le début des séances. Le fiche « F.M. » : une fiche F.M. correspond à un cycle de traitement. Elle doit être remplie à chaque séance par le praticien inséminateur afin de recueillir les renseignements cliniques les jours où sont pratiquées les F.M. C.E.F.E.R. Marseille Nom du médecin traitant : FICHE DE RENSEIGNEMENTS (À remettre { l'intéressé en lui demandant de la retourner au C.E.F.E.R.) NOM : Prénom : Age : Poids :Taille : RACE : B⧠ N⧠ J⧠ TEINT : Clair ⧠ Foncé ⧠ CHEVEUX : blonds ⧠ Noirs ⧠ châtains ⧠ roux ⧠ YEUX : bleus ⧠ gris-vert ⧠ bruns ⧠ marron ⧠ Et Clairs ⧠ foncés ⧠ 59 GROUPE SANGUIN : A ⧠ B ⧠ AB ⧠ O ⧠ RHESUS + ⧠ REHESUS - ⧠ Je soussignée, Madame certifie avoir fourni les renseignements ci-dessus en vue d'une Fertilisation Médicale que je désire Date : Signature ADRESSE : C.E.F.E.R. Marseille Tampon du médecin FICHE GYNECOLOGIQUE (À remplir et à retourner au C.E.F.E.R.) NOM : Age : Prénom : Dr : Poids :Taille : STERILITE : primaire ⧠ secondaire ⧠ Depuis : SPERME : azoo ⧠ oligo ⧠ asthéno ⧠ LES TROMPES : 60 Perméables ⧠ non perméables ⧠ non étudiées ⧠ CYCLE : court ⧠ irrégulier ⧠ normal ⧠ COURBE THERMIQUE : Diphasique ⧠ monophasique ⧠ long ⧠ atypique ⧠ EXPLORATIONS ANTERIEURES : Exploration simple En P.L. ⧠ épreuve dynamique ⧠ Test S.L.I.C. ⧠ test S.F.I.C. ⧠ Test CD/DXM ⧠ néant ⧠ Date des D.R. : Signature du médecin traitant. FERTILISATION MEDICALE PROTOCOLE C.E.F.E.R. Marseille a) Bilan préalable. Destiné { s'assurer qu'il s'agit bien d'une stérilité irréversible d'origine masculine et que la patiente est elle-même fécondable.  Spermogramme  Hystérographie  Courbe thermique (3cycles)  Eventuellement examens hormonaux appropriés. b) Avant de commencer les séances :  Faire remplir la fiche verte par la patiente  Faire remplir la fiche blanche par le partenaire  La fiche gynécologique (fiche rose) où sont consignées en particulier les données du bilan préalable, doit être remplie par le médecin lui-même. c) Avant chaque séance : 61   Prévenir le centre du jour et, si possible, de l'heure approximative de la séance. Rédiger une ordonnance identifiée spécifiant le nombre de doses prescrites. d) Après chaque séance :  Remplir la fiche F.M.  Noter sur la courbe thermique les dates des séances.  Rédiger la prescription pour la ou les séances du cycle suivant. e) Pour la délivrance des paillettes : La patiente devra présenter impérativement :  L'ordonnance identifiée, mentionnant le nombre de doses désirées.  La fiche F.M. correctement remplie.  La courbe thermique, avec mention des dates des séances antérieures. f) En cas de grossesse :  Avertir le C.E.F.E.R.  Surveiller la grossesse, cliniquement et biologiquement si possible.  Informer le Centre de sa terminaison et de son résultat (une fiche spéciale sera adressée à cet effet). TECHNIQUE A MOMENT    MATERIEL    Le jour du point bas avant la montée thermique parait le plus favorable. En pratique, commencer un peu avant la date prévue pour ce jour d'après les courbes thermiques antérieures. Poursuivre { raison d'une I.A. tous les jours ou tous les deux jours jusqu'{ l'apparition du plateau thermique. Pistolet à insémination Cupule plastique Paillettes livrées dans bouteille thermos avec azote liquide. PROCEDURE  Extraire les paillettes du thermos.  Les laisser cinq minutes au moins à la température ambiante. Pendant ce temps : 62  Installer la patiente an position gynécologique, avec Trendelenburg léger.  Mettre en place le spéculum. Bien exposer le col.  Noter l'aspect du col et de la glaire (pour le consigner sur la fiche I.A.)  Si besoin nettoyer le col avec un coton sec. Préparer le pistolet :  Retirer le mandrin à mi-course.  Introduire dans le canon la paillette choisie (par son extrémité non colorée) jusqu'{ la butée.  Sélectionner l'extrémité colorée qui dépasse.  Revêtir le pistolet de la gaine en plastique et la maintenir en position par l'anneau prévu { cet effet. Instillation :  Placer le canon du pistolet ainsi armé au niveau de l'orifice externe du col, de telle sorte qu'il baigne dans la glaire.  Pousser le mandrin très lentement, jusqu'{ la fin de sa course, en maintenant le pistolet au niveau de l'orifice cervical.  Toutes ces manoeuvres doivent être très douces. Eviter de faire saigner.  Pratiquer de même pour les paillettes suivantes s'il y a lieu. Après l'instillation :  Recouvrir le col avec la cupule plastique.  Retirer le spéculum.  Le lendemain, faire retirer la cupule par la patiente ou, au mieux, la retirer soi-même, ce qui permet de vérifier la présence de spermatozoïdes mobiles dans la glaire et, au besoin, de pratiquer une nouvelle I.A. _________________________________ C.E.C.O.S. REGLEMENT INTERIEUR DU CENTRE D'ETUDE ET DE CONSERVATION DU SPERME DE CAEN (Banque de sperme)       Le don de sperme est rigoureusement anonyme et confidentiel. Il est bénévole. Le donneur doit être marié et n'avoir procrée que des enfants sains. Il doit être âgé de moins de quarante-cinq ans. Le consentement de son épouse est nécessaire. Le secret médical le plus strict protégera l'identité du donneur et celle du couple receveur. 63   Les dossiers médicaux correspondants seront détruits après usage et ne seront donc pas archivés. La femme à inséminer doit : a) Remettre au médecin un consentement écrit des époux. b) Remplir les conditions ci-dessous : o Elle doit être majeure, capable et mariée. o La stérilité de son mari doit être établie et incurable. o L'impossibilité de procréer doit avoir une cause médicale. o Le désir d'avoir un enfant doit être stable et persistant. o Les futurs parents doivent remplir les conditions nécessaires { l'éducation et { l'entretien de l'enfant. o Le médecin doit vérifier l'identité des intéressés et se faire présenter leur livret de famille. C.E.C.O.S. AUTOCONSERVATION DE SPERME (Conditions de réalisation et de réutilisation)     La conservation de sperme est assurée pour une durée de dix ans (compte tenu du recul actuel de notre activité). Une somme de 250 francs est demandée pour l'ensemble des congélations (s'il y avait éventuellement réutilisation des paillettes conservées, cette somme serait considérée comme arrhes et déduites du coût de la réutilisation). Au début de chaque année une somme de 100 francs vous sera demandée pour couvrir les frais de maintenance de la congélation. Tout changement d'adresse doit être signalé au C.E.C.O.S. 64   Le sperme conservé dans le cadre des autoconservations ne peut être réutilisé que par le dépositaire présent et consentant. Le centre décline toute responsabilité quant à la conservation de la qualité fécondante du sperme après la décongélation. Je soussigné : NOM Prénoms : Adresse : Date de naissance : N° de sécurité sociale : Nom et adresse de la caisse de sécurité sociale : Certifie avoir pris connaissance des conditions ci-dessus et dégage la responsabilité du Centre pour tout incident pouvant intervenir lors de la conservation du sperme. LU et APPROUVE Fait { Le Signature : C.E.C.O.S. DECHARGE DE RESPONSABILITES Nous soussignés : LE MARI NOM : Prénom : Né le : A : L'EPOUSE NOM : Prénom : Née le : A : Mariés le : à : Domiciliés à : I. DECLARONS : a) Avoir demandé spontanément au C.E.C.O.S. de mettre à notre disposition des doses de sperme humain conservé. Ces doses seront délivrées au docteur Domicilié { Qui a donné son accord, afin qu'il réalise sur la personne de Madame Née : Une insémination artificielle. 65 b) Avoir été informé que le don de sperme est anonyme pour le couple receveur, et que la destination du sperme recueilli est inconnu du donneur. En conséquence, nous nous engageons à ne pas effectuer ou faire effectuer de recherche de paternité, d'autant plus que le système de classement des doses de sperme conservé ne retient que les caractéristiques biologiques du sperme destiné { l'insémination. II. RECONNAISSONS AVOIR PRIS NOTRE DECISION EN PLEINE LIBERTE ET DEGAGEONS :  Le médecin inséminateur,  Le C.E.C.O.S. Aquitaine,  Le Centre Hospitalier régional et le Centre Hospitalo-Universitaire, De toute responsabilité quant aux conséquences de l'acte demandé. Fait à :, Le Le mari L'épouse Faire précéder chaque signature de la mention manuscrite « lu et accepté». 9 LA MATERNITE DE SUBSTITUTIONET LA PROCREATION ASSISTEE AUX U.S.A. ET EN EUROPE DU NORD DEUX PROPOSITIONS DE LOIS AMERICAINES Aux U.S.A., où le phénomène des mères porteuses s'est rapidement développé depuis la création du Centre du docteur R. Levin, les propositions de réformes législatives visant tantôt { interdire, tantôt { libéraliser ou { encadrer le prêt d'utérus, et de toute façon { dessein de protéger, tant les fondements de la famille que la sphère d'intimité de la vie privée, se sont multipliées. Nous donnerons deux exemples de ces propositions l'une de l'Etat de New York et l'autre de Californie. Pour le barreau de New York, « c'est { l'avocat ou au conseil d'estimer si le contrat de maternité pour autrui pour lequel il est sollicité est légal ou non. S'il estime que le contrat est légal mais seulement annulable ou qu'il ne pourrait être rendu exécutoire, il doit en aviser le client et l'informer des risques encourus et notamment de la possibilité pour la mère porteuse d'annuler unilatéralement ses engagements » et le Barreau précise que la mère porteuse et le père biologique doivent avoir chacun un avocat différent. 66 Ce risque avait été pris par les époux Stern. Mme Whitehead, mère de deux enfants, avait signé un contrat de mère porteuse de 10 000$ dans une agence New-yorkaise avec le couple Stern aux termes desquels elle s'était engagée { leur remettre l'enfant { la naissance. Ce qu'elle fit sans réticence, { tel point que les Stern lui confièrent l'enfant « à titre provisoire et pour sa santé morale ». Après une course poursuite en Floride avec détective privé, l'enfant fut remis aux Stern par les autorités locales en exécution d'un jugement leur accordant la garde provisoire. Le tribunal de Hackensak (New Jersey) a rejeté la requête de Mme Whitehead ne lui attribuant qu'un droit de visite de deux heures hebdomadaires (jugement du 10 aout 1986). Mme Whitehead a fait appel de cette décision mais le juge Sorkow de la Cour d'Hackensak a confirmé ce jugement le 31 mars 1987 en VALIDANT LE CONTRAT PASSE ENTRE LES STERN ET MADAME WHITEHEAD créant ainsi un précédent. (La Cour Suprême pourrait être amenée à se prononcer.) La première est intitulée « Subrogate Parenting Agreements ». Elle vise surtout { protéger le couple demandeur d'enfant. Elle prévoit que le contrat passé entre la mère porteuse et les parents, doit contenir un certain nombre de clauses, faute de quoi, l'enfant ne sera pas reconnu comme celui du père naturel. Ainsi un tel contrat doit prévoir :       La déclaration par laquelle le père naturel assume ses droits et responsabilités pour l'enfant { naitre et cela SANS TENIR COMPTE DE L'ETAT DE CET ENFANT. Pour le cas où le père naturel est marié, la déclaration écrite de sa femme précisant qu'elle a CONNAISSANCE DU FAIT que le sperme de son mari sera utilisé pour l'insémination artificielle de la mère porteuse. Une clause exigeant que la mère porteuse renonce à tous ses droits et responsabilités en tant que mère de l'enfant et les cède au père naturel et { sa femme, à la naissance. Si la mère porteuse est mariée, une clause exigera que son mari produise une déclaration écrite indiquant qu'il a eu connaissance de l'insémination artificielle de sa femme. Une clause exigeant que la mère porteuse prenne l'enfant en charge si la justice décide que l'homme qui a passé le contrat de substitution n'est pas le père naturel de l'enfant. Enfin, une clause résolutoire applicable pour le cas où la mère porteuse refuserait de se soumettre à tous les examens médicaux de grossesse. Se soumettre à des examens de sang. La proposition de loi prévoit également que 24 heures au plus tard après la naissance, le père naturel, la mère porteuse, le mari de la mère porteuse (si celle-ci est mariée) et 67 l'enfant, devront se soumettre { des examens de sang et de tissus afin d'établir la paternité de l'enfant. Une telle clause aurait été bien aux parents adoptifs de Michaela. On se souvient qu'en 1981, un couple allemand qui ne peut avoir d'enfant, fait appel { une mère de substitution. L'insémination artificielle se passe bien et au bout de neuf mois nait la petite Michaela qui est immédiatement confiée aux parents demandeurs. Le coût de l'opération est de 27 000 D.M (soit environ 70 000 F) et 3 000 D.M (environ 10 000 F) pour l'intermédiaire. Cependant, un an plus tard, { l'occasion d'un examen de sang, on découvre que Michaela est le fruit d'un rapport sexuel normal entre la mère porteuse et son mari qui avait eu lieu quelques jours avant l'insémination artificielle. Les parents de Michaela crient { l'escroquerieet décident de porter plainte pour nonrespect du contrat. La première juridiction saisie de l'affaire, déclare la plainte irrecevable. Les contrats passés avec une mère porteuse ne sont en effet pas reconnus. Mais les plaignants font appel et le Tribunal de Hamm (Westphalie) décide que cette plainte doit être prise en considération. Les juges d'appel ne contestent pas l'aspect immoral des accords passés entre les deux parties (Michaela ayant, selon eux, été « commandée comme une marchandise au prix d'une voiture de classe moyenne », mais en l'absence d'une loi précisant les conditions de la location du ventre, ils estiment qu'il y a bien à statuer sur le contrat existant qui serait « commercial comme un autre ». Ainsi, la plainte des parents doit donc être examinée comme un « accident de fabrication » et il y aurait pour la mère porteuse « enrichissement injustifié ». Notion juridique qui n'est pas sans nous rappeler celle de notre droit, de « l'enrichissement sans cause », art. 1376 Code civil. La mère porteuse doit être majeure et le contrat doit être passé devant notaire. L'acte de naissance porte le nom du père naturel et de sa femme, s'il est marié, mais aucune déclaration concernant la mère porteuse. L'anonymat peut être préservé puisque le texte prévoit que l'enfant à sa majorité, ne peut obtenir le nom et l'adresse de la mère porteuse que si cette dernière ne s'y est pas opposée par écrit. Valider le contrat par un tribunal. Une autre proposition de loi a été présentée { l'Assemblée de l'Etat de Californie. Très différente de celle de l'Etat de New York qui interdisait tout dédommagement monétaire { la mère porteuse, celle-ci non seulement l'envisage mais le rend obligatoire : « une compensation monétaire raisonnable devra être payée par le couple ». Réservant le recours à la maternité de substitution aux seuls couples stériles, elle prévoit que les candidates devront faire valider leur contrat par un tribunal. Outre la preuve de la stérilité de la femme, le dossier présenté au tribunal, apportera la preuve de l'examen médical de la mère porteuse et du mari, la preuve de la majorité de la mère porteuse, du mariage du couple stérile et que ce dernier et la mère porteuse ont eu recours { des avocats différents et que, selon l'avis de chaque avocat, le consentement des différentes parties au contrat est libre. 68 Enfin la preuve devra être établie que le couple stérile est en mesure de s'occuper de l'enfant. Le contrat, proprement dit, devra comprendre un certain nombre de clauses obligatoires : o La mère porteuse accepte de renoncer à tout droit de parenté et à toute garde de l'enfant, immédiatement après la naissance et accepte l'adoption de l'enfant par le couple demandeur. o Une COMPENSATION MONETAIRE devra être payée par le couple demandeur. o Le couple stérile doit accepter la garde de l'enfant immédiatement après la naissance o Un jugement d'adoption par la femme et un autre affirmant la paternité du mari, doivent intervenir dans les quarante-cinq jours suivant la naissance. ________________________________ UN ARRET FAVORABLE AUX MERES PORTEUSES DE LA COUR SUPREME DU KENTUCKY Le docteur Levin, directeur du Surrogate Parenting Associates36 de Louisville (Kentucky) est { l'initiative de plus de 350 naissances par prêt d'utérus. Quand il nous a reçus, la Cour Suprême du Kentucky venait de rendre un arrêt favorable à ses activités : fruit d'une longue bataille judiciaire qui opposait le docteur Levin aux autorités gouvernementales. Cet arrêt rejette l'assimilation du prêt d'utérus à une vente d'enfant. Pour les hauts magistrats, il s'agit pour la mère porteuse de venir en aide { un couple stérile qui souhaite réaliser un projet d'enfant, situation analogue au donneur dans l'insémination artificielle. Quant au consentement de la mère porteuse, il est, pour la Cour, protégé par le fait que lors de la réalisation de l'accord, elle n'est pas enceinte. Situation différente d'une femme qui au cours d'une grossesse indésirée n'aurait d'autre alternative que l'I.V.G. ou de la cession de son enfant. Nous publions les principaux attendus de cet arrêt ainsi que, sous forme de résumé, les clauses du contrat que fait passer le docteur Levin à ses clients. Le coût global pour un couple qui désire obtenir un enfant par l'intermédiaire du centre du docteur Levin oscille entre 15 000 et 30 000 $ selon le montant de l'indemnité versée à la mère porteuse, celui des honoraires des avocats, de l'assurance, du coût des examens médicaux et biologiques et surtout des transports de la mère porteuse et du couple. 37 36 SPA : Surrogate Parenting Associates. Crée en 1976. Le Surrogate Parenting Associates refuse les candidatures des mères porteuses qui ne sont pas déjà mère d'au moins un enfant, qui ont eu recours à l'avortement, qui ont un enfant décédé, celles qui ont un niveau d'éducation particulièrement bas, («Elles doivent savoir à quoi elles s'engagent ») et enfin les candidates indigentes. « En cas de litige, il faut un moyen de pression »nous a confié le docteur Levin, «on ne peut poursuivre quelqu'un qui n'a pas d'argent ». 37 69 SUPREME COURT OF KENTUCKY 85-SC-421-DG COUR SUPRÊME DE L'ETAT DU KENTUCKY Arrêt du 12 décembre 1985: Surrogate Parenting Associates Inc. contre Etat du Kentucky. On review from Court of Appeals n° 84-CA-136-MR (Franklin Circuit Court – N° 81-CI0429) Commonwealth of Kentucky, David Armstrong, Attorney General OPINION OF THE COURT BY JUSTICE LEIBSON, reversing: In March 1981, the Attorney General, acting pursuant to KRS 271A.470, instituted proceedings against Surrogate Parenting Associates, Inc. (SPA), a Kentucky corporation, seeking to revoke SPA's corporate charter on grounds of abuse and misuse of its corporate powers detrimental to the interest and welfare of the state and its citizens. The suit alleges that SPA's surrogate parenting procedure is in violation of the following Kentucky statutes: A) KRS 199.590 (2), which prohibits sale, purchase or procurement for sale or purchase rights of « any child for purpose of adoption »; B) KRS 199.601 (2), which prohibits filing a petition for volontary termination of parental rights « prior to fixe (5) days after the birth of a child »; and C) KRS 199.500 (5), which specifies that a « consent for adoption » shall not « be held valid if such consent for adoption is given prior to the fifht day after the birth of the child. » The case was decided on the basis of a « Stipulation of Facts » setting out SPA's manner of doing business. Franklin Circuit Court held that SPA's activities were not illegal and not on abuse of corporate powers, and dismissed the complaint. The Court of Appeals reversed. Having accepted discretionary review, we reverse the Court of Appeals and affirm the judgement of Franklin Circuit Court. SPA operates a medical clinic which assists infertile couples in obtaining a child biologically-related to the husband (the biological father) through artificial insemination or a « surrogate mother ». The contract for conception and delivery is between the biological father and the surrogate mother. The arrangement contemplates that after delivery of the child the parental right of the surrogate mother will be terminated, leaving the biological father with custody. The husband of the surrogate mother, if there is one, also agrees to give up any claim to the child. The paternity of the biological father is confirmed by new methods of genetic testing with almost complete scientific certainty. The wife of the biological father, if there is one, is not party to these contractual arrangements. Of course, after entry of a judgment terminating the parental rights of the 70 surrogate mother, the wife of the biological can avail herself of the legal procedure available for adoption by a stepparent. KRS 199.470 (4) (a). Before being artificially inseminated, the prospective surrogate mother agrees with the prospective father that she will voluntarily terminate all parental rights subsequent to the birth, thereby extinguisching any rights she might have to participate in any subsequent adoptive proceeding by the biological father's wife. The surrogate mother receives a fee from the biological father, part of which is paid before delivery of the child and the remainder of which is paid after entry of a judgment terminating the parental rights of the surrogate mother. In addition, the father assumes responsability for medical, hospital, travel, laboratory and other necessary expenses of the pregnancy. Each party must be represented by independent counsel, and the father's counsel is to prepare all agreements and documents in connection with the surrogate parenting process. The biological father pays the attorneys' fees. SPA and its president, Richard M.Levin, M.D., are paid a fee by the biological father for selection and artificial insemination of the surrogate mother, for obstetrical care and testing during pregnancy, and for actual delivery. {} The question for us to decide is one of statutory interpretation: has the legislature spoken? The fundamental question is whether SPA's involment in the surrogate parenting procedure should be construed as participation in the buying and sellong of babies as prohibited by KRS199.590. We conclued that it does not, that there are fundamental differences between the surrogate parenting procedure in which SPA participate and the buying and selling of children as prohibited by KRS 199.590 (2) which place this surrogate parenting procedure beyond the purview of present legislation. {} The central fact in the surrogate parenting procedure is that the agreement to bear the child is entered into before conception. The essential considerations for the surrogate mother when she agrees to the surrogate parenting procedure are not avoiding the consequences of an unwanted pregnancy or fear of the financial burden of child rearing. On the contrary, the essential consideration is to assist a person or couple who desperately want a child but are unable to conceive one in the customary manner to achieve a biologically related offspring. The process is not biologically different from the reverse situation where the husband is infertile and the wife conceives by artificial insemination. No one suggests that where the husband is infertile and conception is induced by artificial insemination of the wife that the participants involved, the biological father, the physicians involved who care for the mother and deliver the child, or the attorneys who arranged the procedure, have violated the statutes now in place. Although this is tampering with nature in the same manner as the surrogate parenting procedure here involved, we recognize "the decision whether or not to beget or bear a child is as the very heartof constitutionally protected choices". Carey v. Population services, Int'l, 431 U.S. 678, 97 S.Ct. 2010, 52 L.Ed.2d 675 (1977). When KRS 199.590 was amended in 1984 the following language was added: 71 "Nothing in the section shall be construed to prohibit in vitro fertilization means the process whereby an egg is removed from a woman, then fertilized in a receptacle by the sperm of the husband of the woman in whose womb the fertilizes egg will thereafter be implanted". The Attorney General contends that by including this in vitro fertilization procedure in the statute while leaving out the surrogate parenting procedure presently under consideration, the legislature was legislating against surrogate parenting. We do not divine any such hidden meanings. All we can derive from this language is that the legislature has expressed itself about one procedure for medically assisted conception while remaining silent on others. To this extent the legislature puts its stamp of approval on tampering with nature in the interest of assisting a childless couple to conceive. The "in vitro" fertilization procedure sanctioned by the statute and the surrogate parenting procedure as described in the Stipulation of Facts are similar in that both enable a childless couple ta have a baby biologically related to one of them when they could not do so otherwise. The fact that the statute now expressly sanctions one way of doing this does not rule out other ways by implication. In an area so fundamental as medically assisting a childless couple ta have a child, such a prohibition should not be implied. As stated in the circuit court opinion: any "Because of the existence of a legal relationship between the father and the child, dealing between the father and the surrogate mother in regard to the child cannot properly be characterized as an adoption". As between the biological father, who is both contractually acknowledged and scientifically confirmed, and the biological mother, if there is no subsequent termination of the mother's parental rights, the only legal question between the parties would relate to which biological parent should have custody, KRS 403.270 prepares for a resolution of this dilemma by stating: "The court shall determine custody in accordance with the best interest of the child and equal consideration shall be given to each parent". SPA has freely acknowledged that the initial contractual arrangements regarding the mother's surrender of custody and determination of parental rights are voidable. The surrogate mother's consent given before five days following birth of the baby is no more legally binding than the decision of an unwed mother during her pregnancy that she will put her baby up for adoption. The five days consent feature in the termination of parental rights statute (KRS 199.601(2)) and in the consent to adoption statute (KRS 199.500(5)) take precedente over the parties contractual commitments, meaning that the surrogate mother is free to change her mind. The policy of the voluntary termination statute and the consent to adoption statute is to preserve to the mother her right of choice regardless of decisions made before the birth of the child. The policy is not violated by the existence of the contractual arrangements previously made. The policy of these statutes is carries out because the law gives the mother the opportunity to reconsider her decision to fulfil the role as surrogate mother and refuse to perform the voluntary termination procedure. Should she elect to do so, the situation would be no differend than had she never entered into the procedure. She would be in the same 72 position vis-à-vis the child and the biological father as any other mother with a child born out of wedlock. The parental rights and obligations between the biological father and mother, and the obligations they owe to the child, would then be the rights and obligations imposed by pertinent statutes rather than the obligations imposed by the contract no vitiated. Kentucky has taken the position that custody contracts are voidable not illegal and void. In Edleson v. Edleson, Ky., 200 S.W. 625 (1918), we held that, while the court is not compelled to enforce such a contract because the statutory rights are pre-emptive, such a contract is not per se illegal. The surrogate mother who changes her mind before going through with her contractual obligation stands in the same legal position as a woman who conceives without benefit of contractual obligations. She has forfeited her rights to whatever fees the contract provided, but both the mother, child and biological father now have the statutory rights and obligations as exist in the absence of contract. The advances of biological science have carried us forward, willingly or otherwise into a new era of genetics. In there are social and ethical problems in the solutions offers, these are problems of public policy that belong in the legislative domain, not in the judicial, under our constitutional doctrine of separation of powers. Ky. Const., Sections 27 and 28. It is only when a proposed solution violates individual constitutional rights that the courts have a place in the controversy. But that is not the question here because the threshold question is whether the legislation on the books declares the procedure impermissible. Short of such legislation it is not for the courts to cut off solutions offered by science. In Bedinger v. Graybill's Executor & Trustee, Ky., 302 S.W.2d 594 (1957), we considered and rejected a request that the court, under the guise of legislative "interpretation" hold that an adoption by a husband of his wife, making her his heir at law, violated Kentucky "public policy" notwithstanding statutory language which addressed the subject and failed to forbid the arrangement challenged. We stated: "The courts are bound by statutory law as written and cannot write into it an exception that the legislature did not make" 302 at 599. We have consistently held that our Kentucky Constitution empowers the legislative branch but not the judicial branch, of government to articulate public policy regarding health and welfare. Wooden v. Goheen, Ky. 255 S.W. 2d 1000 (1953) and Walters v. Bindner, Ky. 435 S.W. 2d 464 (1968). The questions of whether and how new medical services of the type offered by SPAoffend public policy and should be prohibited by legislation are addressed to the legislature, not the courts. The courts should not shrink from the benefits to be derived from science in solving these problems simply because they may lead to legal complications. The legal complications are not insolvable. Indeed, we have no reasonto believe that the surrogate parenting procedure in which SPA participates will not, in most instances, proceed routinely to the conclusion desired by all the parties at the outset – a woman who can bear children assisting a childless couple to fulfil their desire for a biologically-related child. We agree with the trial court that if there is a judgment to be made outlawing such a procedure, it is a matter for the legislature. The surrogate parenting procedure as outlined 73 in the Stipulation of Facts is not foreclosed by legislation now on the books. The judgment of the Court of Appeals is reversed. The judgment of the trial court is affirmed. Stephens, CJ, Aker, Gant and Leibson, JJ., concur. Stephenson, J., concurs in results only. Vance, J., dissents by separate opinion. Wintersheimer J, dissents by separate opinion. PRINCIPAUX ELEMENTS D'UN CONTRAT DE MATERNITE DE SUBSTITUTION NORD-AMERICAIN Le contrat de maternité de substitution est passé entre la « mère de substitution » et, le cas échéant, son mari et d'autre part le « père biologique ». 1. Consentement { l'insémination artificielle. La « mère de substitution » consent à être inséminée artificiellement avec le sperme du « père biologique » sous la direction médicale du docteur. 74 Le mari de la « mère de substitution » (si elle est mariée) consent à ce que son épouse soit inséminée artificiellement. 2. Examens médicaux avant insémination. La « mère de substitution » accepte de subir une évaluation complète tant physique que génétique sous la direction et la surveillance du docteur Et ceci afin de déterminer si son état de santé physique et moral permet de procéder à une insémination artificielle. Le « père biologique » subira une évaluation complète sur le plan physique et génétique La « mère de substitution » et, le cas échéant, son mari acceptent de subir des examens psychiatriques et psychologiques Le »père biologique » paiera le coût des dits examens dont les résultats, sans identification possible du patient, lui seront communiqués. 3. Contre-indications médicales et annulation du contrat. Dans l'hypothèse où la » »mère de substitution » ne peut être inséminée artificiellementl'accord est résilié de plein droit. 4. Acceptation de risque. La « mère de substitution »et, le cas échéant, son mari, acceptent d'assumer, en connaissance de leur étendue, tous les risques éventuels y compris fatals, liés à la conception, { la grossesse, { l'accouchement et au post-partum (les risques sont énumérés dans un document annexe). 5. Acceptation de responsabilité. Le »père biologique » accepte la responsabilité juridique du ou des enfants né(s) par ce procédé - { la condition que les résultats d'un examen médical ayant le plus haut degré de certitude n'invalide la paternité du « père biologique ». Le «père biologique » déclare qu'il a été prévenu des risques d'anomalies infantiles exposées dans un document annexe. 6. Surveillance médicale durant la grossesse. La « mère de substitution » accepte de suivre toutes les instructions médicales que pourrait lui donner le docteur elle s'engage { ne pas fumer, ne pas boire de boissons alcoolisées, ne pas utiliser de drogues illégales elle accepte de subir différents examens prénatals. 7. Frais et dommages intérêts. Le « père biologique » accepte de prendre en charge certains frais encourus par la « mère de substitution » (frais médicaux jusqu'{ huit semaines après l'accouchement, déplacements, logement, garde d'enfant). 8. Garde et droit parentaux. Les parties s'engagent { prendre des dispositions quant aux prérogatives attachées { la garde et aux droits parentaux dans le meilleur des intérêts de l'enfant { naitre. 75 9. Assistance économique à la « mère de substitution ». Le « père biologique » s'engage { aider la « mère de substitution » et le cas échéant son mari, à exécuter le contrat (absence occasionnelle de la « mère de substitution » de son domicile, renonciation { certaines offres d'emploi, un changement dans les habitudes quotidiennes, de nombreux déplacements, l'acceptation des risques médicaux dus { la grossesse, les restrictions physiques et l'inconfort). L'aide apportée par le « père biologique » s'accomplira sous la forme d'une prise en charge partielle des conséquences économiques de ces événements. De plus le « père biologique » consent à procurer une aide financière laquelle permettra à la « mère de substitution » de maintenir son cadre vie habituel. 10. Examen de paternité. A la naissance de l'enfant, celui-ci, la « mère de substitution », et le cas échéant son mari, subiront un examen comparatif de sang afin de vérifier la paternité de l'enfant. Dans le cas où les examens de sang infirmeraient la paternité du « père biologique », Ce dernier se verra libéré de toutes ses obligations et devoirs prévus au présent contrat et il se verra restituer par la « mère de substitution » ou éventuellement son mari, toute somme d'argent qui aurait été versée { elle-même ou à son mari pour son exécution. 11. Fausse-couche et mortinaissance. Dans le cas où il y aurait fausse-couche, enfant mort-né, mort de l'enfant, avortement après le quatrième mois de grossesse ou qu'il n'aurait pas survécu pour une autre cause, la « mère de substitution » recevra la somme de En sus du remboursement des autres frais, { la condition que l'examen de paternité ait été effectué et la paternité du « père biologique » vérifiée. Dans le cas où l'un des évènements immédiatement susmentionnés adviendrait, ce contrat serait résilié de plein droit. 12. Assurance. Le « père biologique » souscrira une assurance sur la vie au bénéficiaire de la « mère de substitution » et payable à un bénéficiaire désigné par celle-ci. De plus le « père biologique » souscrira une assurance sur la vie dont l'enfant sera le bénéficiaire. 13. Clause résolutoire. Dans le cas où l'une des parties renoncerait par leurs actes, abstention, négligence ou tout autre comportement, au projet d'enfant et { ces conséquences, le contrat sera considéré comme nul ainsi que tous les actes auxquels il aurait donné lieu. 14. Préservation de l'anonymat. Les parties s'engagent { prendre toutes mesures nécessaires pour préserver l'anonymat souhaité par l'une ou l'autre. 15. Publicité. 76 Les parties s'engagent à ne communiquer à qui que ce soit aucune information qui permettrait la découverte de l'identité des parties ou de celle de l'enfant. La « mère de substitution » et le cas échéant son mari, s'engagent { ne donner aucun entretien ni à ne faire aucune déclaration concernant l'objet du présent contratsans le consentement écrit de l'avocat du « père biologique ». 16. La désignation par le « père biologique » d'un tuteur. En cas de décès du « père biologique », l'épouse de ce dernier sera considérée comme son ayant droit eu égard { l'enfant pour l'ensemble des clauses du contrat. Dans le cas où le « père biologique » et son épouse viendraient à décéder avant la naissance de l'enfant, la « mère de substitution » sera libre e faire valoir ses droits parentaux tels qu'ils sont prévus par la loi en vigueur. Dans ce cas, toutes les sommes d'argent mentionnées, exception faite des sommes qui auraient déj{ été versées à la « mère de substitution » seront versées aux héritiers du « père biologique ». Dans le cas où la garde de l'enfant ne serait pas définitivement établie, selon les dispositions du contrat, les parties expriment leur volonté que l'enfant soit placé, si toutefois un tel placement peut-être effectué, conformément aux dispositions législatives et réglementaires en vigueur, sous la garde temporaire du docteur Dans l'attente du prononcé d'un placement définitif. 17. Représentation par avocat. Les parties affirment qu'elles n'ont pas pour intention d'acheter, de vendre ou de se voir céder ou substituer un enfant, mais qu'elles sont guidées par l'unique dessein de permettre au »père biologique » d'engendrer un enfant lui étant lié. 18. Préservation de l'anonymat. Le « père biologique » reconnait qu'il existe un endroit sur l'une des pages du contrat laissé disponible pour la signature de la « mère de substitution » et le cas échéant celle de son mari, et qu'afin de préserver l'anonymat, il s'engage { ne jamais prendre connaissance de ces signatures, bien qu'il soit dans son intention de se lier par ce contrat auquel il reconnait le caractère obligatoire et exécutoire. La « mère de substitution » et le cas échéant son mari reconnaissent (Idem). ________________________________ La femme stérile, pourtant intéressée au premier chef, n'apparait pas au contrat. En effet, afin de ne pas encourir le risque d'être qualifié de « vente d'enfant » et les différents intervenants { l'exécution de l'accord d'y avoir incité la mère porteuse, l'accord s'effectue 77 entre le mari et la mère stérile, père biologique de l'enfant et la mère porteuse dénommée « mère de substitution » au contrat.38 Le père n'achète pas son propre enfant ce n'est qu'une fois le contrat intégralement exécuté que la femme stérile ayant respecté les délais légaux de la législation compétente, se fera connaitre et engagera une procédure d'adoption de l'enfant de son mari.39 Ainsi, l'enfant intégrera sa nouvelle famille, celle qui le désirait à la conception, durant la grossesse et à la naissance. Les rédacteurs ont eu la volonté de préserver les intérêts de la mère porteuse en prévoyant le plus grand nombre d'incidents et de « modification du cadre de vie » (n°7 et 9) encourus par une maternité, ceux du « père biologique » et donc du couple stérile (surveillance médicale durant la grossesse, n°6 et examen de paternité n°10). Les droits de l'enfant { naitre et principalement son droit { avoir des parents sont préservés par une clause concernant l'assurance vie contractée par le « père biologique » (n°12) et par celles concernant le droit de garde et l'éventuelle désignation d'un tuteur (n° 5, 8 et 16). Cependant nous devons noter que les différents incidents encourus durant l'exécution d'un te contrat ne se résolvent qu'en dommages et intérêts. Il est vrai qu'il semble difficile d'évoquer une réparation intégrale du préjudice, lorsqu'{ sa naissance, un enfant conçu { l'aide d'une technique de procréation artificielle se retrouve sans parents du fait du décès du couple demandeur. En revanche, et concernant les risques physiques et psychologiques encourus du fait d'une maternité, les rédacteurs ont cherché à multiplier les examens scientifiques préventifs afin de limiter au maximum ces risques. L'inconvénient est de multiplier les intervenants { l'exécution du contrat et d'encourir un autre risque, celui de la dilution des responsabilités (gynécologues, avocats, médecins, psychologues, psychiatres, assureurs). Pour préserver l'anonymat en rigueur, les parties (le « père biologique » et « la mère de substitution) s'engagent mutuellement l'un envers l'autre sans se connaitre, sinon au travers de leurs avocats respectifs. LA PROCREATION ARTIFICIELLE ENSUEDE ET LA NOUVELLE LOI. La nouvelle loi portant sur la levée de l'anonymat du donneur de sperme, donne { l'enfant issu d'une insémination artificielle avec donneur et ayant atteint la majorité, le droit de consulter les archives de l'hôpital où s'est effectuée l'insémination (lesquelles doivent conserver pendant une durée de soixante-dix ans les informations concernant l'identité du donneur de sperme). Ce texte n'ouvre aucune action en recherche de paternité. Il ne s'agit 38 La partie « inconnue » est représentée par son avocat et deux témoins sont présents à la signature. En France : la demande en adoption n'a plus à être formée conjointement par les deux parents depuis que la loi du 22.12.1986 prévoit que l'adoption plénière de l'enfant du conjoint laisse subsister sa filiation d'origine à l'égart de celui-ci et de sa famille d'origine. 39 78 que d'une simple information confidentielle, de toute façon subordonnée à la révélation des conditions de sa naissance { l'enfant par ses parents. Cette possibilité a provoqué un net ralentissement, voire dans certains cas l'arrêt immédiat, de toute activité d'insémination artificielle avec donneur dans les hôpitaux (quatre cents dans le privé) qui les pratiquaient depuis une quinzaine d'années, après une chute catastrophique du nombre des donneurs (la loi est applicable depuis le 1er mars 1985). Un recul. Nous verrons dans quelle circonstances et pourquoi cette loi a été votée. Il n'en reste pas moins, que la Suède marque ainsi le recul après une évolution pourtant régulière en faveur de la procréation artificielle. De plus, la Suède se retrouve ainsi en opposition avec le rapport Warnock (juillet 1984) 40 qui acquiert une autorité croissante auprès des comités d'éthiques occidentaux. Ce dernier, admet l'I.A.D. pour vaincre la stérilité de même que le don d'ovule et le don d'embryon dans le but de réaliser une F.I.V.E.T.E. : « we consider that egg donation es ethically acceptable where the donnor has been properly counselled and in fully aware of the risks »(idem pour le don d'embryon), alors qu'il est en revanche réticent quant au recours au prêt d'utérus, du moins très sévère quant à son organisation (bien que des opinions dissidentes publiées demandent le maintien de l'assistance du gynécologue pour le couple qui a pris le risque d'avoir utilisé les services d'une mère porteuse).41 Que devient la lutte contre la stérilité ? De plus, par les conséquences de l'application de cette loi, les hôpitaux et banques de sperme suédois ne peuvent plus répondre aux demandes des couples dont le mari ou la femme pourrait transmettre une maladie héréditaire grave et qui ont cependant pris la décision d'avoir un enfant. En effet ce risque de transmission de maladie héréditaire est une des indications de l'insémination artificielle avec donneur ou du don d'ovule. Les centres de procréation artificielle suédois ne pratiquant pas de F.I.V.T.E. avec don d'ovule, ni de don d'embryon, ni le prêt d'utérus, la lutte contre les effets de la stérilité qui reste un objectif des autorités suédoises, y compris en mettent à la disposition des couples désirant un enfant, les moyens les plus sophistiqués, ne l'est, qu'{ condition explicite que la structure biparentale de la famille ne soit en aucune manière remise en cause par 40 Le rapport Warnock prévoit dans ses recommandations concernant l'I.A.D. « qu'à l'âge de dix-huit ans, l'enfant issu d'une I.A.D, puisse avoir accès aux informations concernant les origines ethnique du donneur et sa santé génétique » mais précise bien qu'en aucun cas cet enfant, même informé sur les circonstances de sa anissance, ne pourra avoir connaissance de l'identité de son père génétique, aucun lien de droit ne devra être établi entre ce dernier et l'enfant. 41 Nous avons déjà indiqué à propos de l'immixtion d'une tierce personne dans le processus de procréation que celle d'une mère porteuse par sa gestation et l'insécurité qu'elle fait peser quant à l'abandon (refus de remettre l'enfant au couple ou rétractation dans les délais légaux) est d'un autre poids que celle de la donneuse d'ovule, d'embryon, ou du donneur de sperme. Il faut préciser cependant, que les combinaisons en matière de procréation artificielle sont multiples, que les mères porteuses doivent, elles-mêmes, être catégorisées selon qu'il y ait ou non transfert d'embryon, elles sont mères porteuses ou mères donneuses et le point de vue éthique peut alors être différent. 79 l'IMMIXTION D'UNE TIERCE PERSONNE (donneur de sperme, donneuse d'ovule, donneuse d'embryon, mère porteuse), dans le processus de procréation. Cette attitude semble correspondre à la conception suédoise dans ce domaine qui souhaiterait voir coexister la nécessaire lutte contre la stérilité et ses effets, les droits de l'enfant { naitre et l'éthique médicale. Un couple stable. Les réglementations suédoises et norvégiennes, par arrêtés ministériels, exigent que le couple candidat à la fécondation in vitro, soit un couple stable. Pour l'éthique suédoise, il n'y a pas de différence entre la fécondation in vitro pour un couple stable et une intervention chirurgicale sur une femme victime de stérilité tubaire. Le consentement écrit du mari est requis et un temps de réflexion est donné au couple stérile demandeur, utilisé pour analyser leur désir d'enfant, l'éventualité d'une vie de couple sans enfant, les possibilités (très exceptionnelles) d'adoption ou encire l'existence d'autres possibilités de procréation artificielle. De toute façon si la décision est prise de procéder à une fécondation in vitro, une assistance psychologique du couple est organisée jusqu'{ la naissance de l'enfant. Autre obstacle pour ce couple (qui lui n'est pas spécifiquement suédois), l'argent : Chaque tentative de fécondation in vitro coûte entre 10 000 et 15 000 couronnes suédoises42, la femme n'étant que rarement enceinte dès la première tentative, le coût global pour le couple est assez considérable. Une quinzaine d'enfants sont nés en Suède des suites d'une fécondation in vitro. Les gynécologues qui pratiquaient les inséminations artificielles avec donneur et fécondation in vitro dans les hôpitaux et banques de sperme se sont battus en vain contre le vote de cette loi (voir les entretiens correspondants). Le tourisme des couples stériles. Depuis son entrée en vigueur, les couples stériles demandeurs d'insémination artificielle avec donneur, doivent désormais présenter leur candidature dans les centres équivalents au Danemark, en Norvège, en Finlande ou en Grande Bretagne, pays qui n'ont pas manifesté la volonté de s'aligner sur la position suédoise et pour lesquels l'anonymat du donneur reste la règle.43 Pourrait-elle avoir des conséquences similaires { celle d'un moratoire (on pense au moratoire de Berg sur les manipulations génétiques aux U.S.A) et donner l'occasion d'ouvrir un large débat sur des questions éthiquement délicates concernant les droits de l'enfant { naitre ? A la lecture des entretiens que nous publions, et notamment celui réalisé avec le professeur Kjessler, gynécologue et spécialiste des questions d'éthique auprès du corps médical suédois, cela n'apparait pas. Les inséminations artificielles avec donneur sont pratiquées en Suède depuis une cinquantaine d'années. Jusqu'en 1977, le code de la famille prévoyait que le mari qui 42 Une couronne suédoise est égale à 1 franc Ils leur restent également la possibilité d'avoir recours au circuit clandestin, lequel n'offre que très peu de garanties sur l'origine du sperme ! 43 80 acceptait pour sa femme une insémination artificielle avec donneur, était considéré comme le père de l'enfant, même s'il n'était pas le père biologique. Cette règle ne visait pas expressément les inséminations artificielles avec donneur mais était une règle à portée plus générale visant { consolider la parenté de celui qui avait accepté d'être le père d'un enfant alors qu'il n'était pas le père biologique. Le code suédois de la famille fut réformé en 1977 et cette règle s'en trouva retirée. A cette époque, le nombre de naissances d'enfants issus d'insémination artificielle avec donneur, était supérieur à deux cents par année. Les arrière-pensées d'une loi. En 1981, un homme marié désavoua l'enfant de sa femme né des suites d'une insémination artificielle avec donneur. Après deux années de procédure, en 1983, la Cour Suprême lui donna raison. L'anonymat du donneur étant une règle { l'époque en Suède, cette décision judiciaire eut pour conséquence, de laisser un enfant sans père. L'opinion publique, relayée par la presse, fut scandalisée des suites de cette affaire pour l'enfant. Or le gouvernement avait dès décembre 1981, chargé une commission d'experts de faire des propositions concernant les inséminations artificielles et un rapport intitulé « les enfants conçus par insémination artificielle » fut publié en septembre 1983. Il contenait un certain nombre de propositions législatives. La nouvelle loi. En juin 1984, le gouvernement déposait un projet de loi sur les inséminations artificielles (voir texte de loi infra). Il reprend l'essentiel des propositions du rapport en excluant cependant l'exigence d'un examen psychologique du couple demandeur par les autorités sanitaires et sociales et en conférant au seul médecin inséminateur la tâche d'apprécier l'équilibre psycho-social du couple. D'autre part, le projet de loi réintroduisait l'interdiction du désaveu de paternité pour le père non biologique qui a accepté l'insémination mais, cette fois, par un texte visant particulièrement l'insémination artificielle avec donneur. Le désarroi de l'enfant sans père. C'est essentiellement en faisant tomber la règle de l'anonymat du donneur que cette loi prend toute sa portée, tentant par-l{, de répondre au désarroi de l'enfant sans père. Dans son alinéa 4, elle prévoit, en effet, « qu'un enfant issu d'I.A.D a le droit, pourvu qu'il ait atteint la majorité, d'obtenir les informations concernant le donneur de sperme, lesquelles sont conservées dans les archives de l'hôpital. Les autorités gérant ces archives doivent assister l'enfant, sur sa demande, dans ses recherches ». L'alinéa 5 prévoit que le médecin ou toute personne impliquée dans l'insémination artificielle, doit communiquer au tribunal qui lui en ferait la demande, ces informations. Ainsi est levée la barrière, pourtant solide, dans les pays d'Europe du Nord, du secret médical. Nous avons fait état des conséquences immédiates (chute du nombre des donneurs et cessation des activités de certains centres d'insémination artificielle avec donneur), de cette loi, alors que son application pour révéler { l'enfant l'identité du donneur pourrait s'avérer difficile. En effet, les résultats d'une enquête menée en Suède, montrent que 97% des couples candidats { l'insémination artificielle avec donneur, considèrent que cet acte 81 doit rester une affaire confidentielle entre le médecin et eux-mêmes, et qu'ils n'ont pas l'intention de révéler les conditions de sa naissance { l'enfant (enquête réalisée par l'hôpital universitaire de Lund). Les origines d'un spermatozoïde. Nous verrons d'autre part que l'entretien que nous a accordé le professeur Kjessler, que celui-ci critique sévèrement la comparaison établie par ceux qui ont défendu cette loi entre la situation de l'enfant issu d'une insémination artificielle avec donneur et l'enfant adopté « ce dernier est informé par son état-civil de son adoption, s'il est issu, ce qui est de plus en plus le cas, d'une communauté étrangère, il est légitime qu'il puisse connaitre ses origines, situation qui n'a rien { voir avec les origines d'un spermatozoïde » Quel statut pour le père biologique ? La loi sur l'insémination artificielle (voir texte infra), en permettant de révéler { l'enfant ayant atteint la majorité, l'identité de son père biologique, ne précise pas quel statut est ainsi donné à ce dernier. On doit semble-t-il écarter toute analyse qui, pour étayer une conception restrictive des conséquences de l'application de cette loi, établirait une relation avec ce que notre droit administratif qualifie de droit d'accès au dossier. L'information qui est donnée { l'enfant va au-del{ du mode d'individualisation d'une personne, au-del{ d'un dossier médical, elle lui donne l'identité de son véritable père. D'ailleurs, si l'alinéa 4 prévoit l'obtention d'informations sur le donneur de sperme, l'alinéa 5 oblige { toute personne étant impliquée dans l'insémination artificielle avec donneur de fournir sur requête de tribunal, toutes les informations archivées concernant l'insémination « in a case concerning the paternity of a child ». Ainsi, l'identité du donneur pourrait être utilisée par un tribunal pour la filiation de l'enfant en cas de contentieux. Cette information changerait-elle de nature lorsqu'elle est obtenue par les voies extrajudiciaires et par l'enfant ? Il est vrai qu'en exigeant la majorité pour l'enfant qui établira cette demande, le législateur suédois a ainsi manifesté sa volonté d'éviter tous conflits relatifs { l'autorité parentale. Cependant un certain nombre de droits et d'obligations entre ascendants et descendants survivent à la majorité de ces derniers. Si dans son esprit cette loi a voulu donner { l'enfant issu d'insémination artificielle avec donneur, la possibilité de connaitre ses origines, ses racines, ses parents véritables, elle ne définit pas le statut de celui-ci. Quid de l'obligation alimentaire entre ascendants et descendants ?Du devoir de respect ? De la prohibition du mariage ? De l'immunité familiale du droit pénal ? Du parricide ? Un père de secours ? Le père biologique légalement reconnu, a-t-il un statut hybride ou intermédiaire entre le père naturel absent, le père ayant consenti { l'adoption plénière (le don de sperme incluet-il ce consentement sans délai de rétraction ?) et le père déchu de ses droits ? La loi suédoise, en restant silencieuse sur ce point, marque par-là probablement sa principale faiblesse : l'incertitude qui pèse sur le donneur, sur son devenir, silence qui ne serait être meublé par la jurisprudence, dix-huit années et neuf mois devant au moins 82 s'écouler avant que la première identité ne soit révélée et que naisse éventuellement un premier conflit appelant les juges à répondre à cette angoissante question pour le donneur. Le père biologique est-il un père de secours ou une simple représentation incarnée des origines de l'enfant offerte par la loi à son intention ? --------------------Le professeur Kjessler de l'hôpital universitaire de Linköping, chargé des problèmes d'éthique auprès du corps médical suédois, évoque pour nous les conséquences immédiates en Suède de l'application de cette nouvelle loi : « Tout cela se faisait en privé { l'hôpital » « Nous avions une organisation, quatre centres de fertilisation, mais depuis l'entrée en vigueur de cette loi, nous ne pratiquons plus les inséminations artificielles avec donneur. Depuis une quinzaine d'années que nous les pratiquions, il n'y avait aucune controverse { ce sujet. « L'insémination artificielle avec donneur résulte d'une décision prise par le couple stérile et par le médecin. C'était au médecin de trouver le donneur, lequel restait complètement anonyme. Il n'y avait rien d'inscrit dans les registres officiels, tout cela se faisait en privé { l'hôpital. » - Est-ce que le donneur est payé pour cela ? « Il n'est pas payé. Il reçoit une petite indemnité, disons 50 couronnes44 pour son déplacement, pour compenser une heure de travail. Cette indemnité n'est pas la contrepartie du don. » - Dans quelles circonstances cette loi sur l'insémination artificielle a été votée ? « La Suède est un petit pays, peuplé de 8.5 millions d'habitants. Au début nous étions quelques 800 gynécologues parmi lesquels une vingtaine seulement étaient entrainés à cette technique. Les réglementations même informelles étaient respectées très strictement et d'une manière homogène. Les donneurs, nous les connaissions bien, personnellement très bien. La conscience professionnelle faisait le reste. « Dans les années 50, il y avait eu un premier projet de loi sur les inséminations. Mais les discussions préliminaires ont soulevé des problèmes d'une telle importance que l'on a décidé qu'il était préférable de rester sans loi. Les choses évoluent doucement. Sans loi nous n'avions pas de problème et enfin pourquoi créer des problèmes qui n'existent pas ? « En 1978, nous avons été confronté à ce cas : un couple demande une insémination artificielle avec donneur, tout se passe normalement. Il n'y a pas eu de grossesse { la première tentative. Le couple se querelle car le mari ne voulait pas que sa femme subisse ce type de traitement. Pour des raisons qu'on ignore, la femme n'a pas informé le médecin de cette querelle et { continuer à suivre le traitement, elle devient enceinte. Alors le père dit « je ne veux pas être le père », il désavoue l'enfant. L'enfant était orphelin de père ! » 44 150 couronnes à Lund et Malmö. 83 « Pendant le traitement le père est dans la salle » « L'opinion publique trouvait cela scandaleux qu'un enfant puisse soudain ne pas avoir deux parents. Le moyen le plus simple ; un contrat légal qui puisse contraindre le père à respecter son engagement. « Habituellement, le père est dans la salle et suit tout le traitement car, pour des raisons psychologiques, je pense que c'est bien. J'ai toujours fait comme cela. Ce qui aurait été le plus simple, c'est de dire au père : si vous acceptez cette paternité, vous l'acceptez pour toujours. Mais cela n'a pas été. Cette question a été rapprochée de l'adoption. Les enfants adoptés doivent savoir qu'ils sont adoptés, le droit de savoir qui sont leurs parents. Connaitre ses racines fait partie des droits de l'homme et le droit de l'enfant { naitre est devenu un sujet intéressant de discussion dans ce pays. « Nous avons discuté pour essayer de savoir quel est le statut du patient, de la mère, du foetus et dans le cas où les intérêts se croisent, lequel est supérieur, celui de la mère ou du foetus ? La mère peut-elle être considérée dans n'importe quel cas comme le contenant ? « La société, par exemple, doit-elle forcer la mère à se soigner parce qu'elle est alcoolique, droguée, que cela a des conséquences sur la santé du foetus et, que la patiente n'a pas le droit de traiter son corps comme elle le veut parce qu'elle traite quelqu'un d'autre qui lui n'a ni le droit ni la possibilité ni la force de se défendre ? « C'est pour cette raison que la société doit prendre soin de la mère, et cela a entrainé de longues discussions. Nous n'avons pas voté de loi parce que nous avons considéré que cela était en fonction de chaque cas. Nous pouvons avoir un entretien avec la mère et lui dire de reconsidérer sa situation au regard de la majorité des mères qui ont le même problème. Nous ne nous sommes pas vraiment sentis capables d'élaborer une loi valable pour tous, mais nous avons un médiateur légal45 approuvé par le Comité d'Ethique dont le rôle est de protéger les droits de l'enfant { naitre. Après un an de travail, le Comité d'Ethique, qui se compose de moralistes et de médecins qui n'ont que de vagues notions de ce que c'est (ils étaient issus du Parlement toutes opinions politiques confrontées) a déclaré : « nous avons le sentiment que l'insémination artificielle avec donneur est très proche de l'adoption. Ainsi les procédures de l'adoption devraient être étendues aux enfants issus de l'insémination artificielle avec donneur. » Ce qui est totalement faux ! Car les enfants adoptés n'ont pas de parents biologiques mais une famille, et les enfants par insémination artificielle avec donneur ont une mère comme parent génétique : c'est leur mère. « Ce sont deux choses absolument différentes (ces gens ne rencontrent jamais les patients, les professionnels sont d'un avis tout { fait différent). Ils ont décidé ainsi que le lieu de l'insémination et l'identité du donneur devaient être enregistrés, que l'enfant { l'âge de ses dix-huit ans pourra avoir le droit de savoir qui est le père biologique et le droit d'entrer en contact avec lui. En revanche, le donneur n'a pas le droit de savoir s'il a un enfant. » - Est-ce que les parents connaitront l'identité du donneur ? « Non, les parents ne sauront pas, seulement l'enfant pourra savoir. Mais il faut bien comprendre : c'est la situation d'une femme aussi normale que n'importe quelle autre, qui a la chance d'être tombée amoureuse d'un homme stérile, mais qui autrement est aussi bon et 45 Ombudsman. 84 mauvais que n'importe quel autre. Maintenant si cette femme sort, va au restaurant, rencontre un homme et tombe enceinte, personne, jamais ne lui demandera des comptes. Mais dans le cas où elle coïte avec son mari stérile, soudain la société s'en mêle. Les professionnels sont pour l'anonymat. Avec cette loi, quand l'enfant aura dix-huit ans, il va s'interroger sur la réalité de sa filiation, sur la nature de son père biologique, social, celui qui l'aime et celui qui est sur le papier et nous ne connaissons pas l'impact psychologique de tous ces problèmes. C'est une pensée et une ambition bonne que de croire que tout le monde a le droit de connaitre ses origines génétiques. « Mais qui réellement connait ses origines ? Beaucoup croient les connaitre et sont très heureux comme ça. Elles sont importantes, mais ce qu'il y a de plus important, c'est l'identité que l'on peut avoir. Que s'est-il passé quand j'étais enfant, dans quelle atmosphère ai-je grandi ? « Le principe a beaucoup d'importance. Nous pensons qu'il existe un risque d'infliger un trouble important { la psychologie de l'enfant, du donneur et des parents ainsi que de troubler leurs différentes relations. Après les débats { l'Assemblée, les députés ont voté en conscience et hors parti, que le donneur ne sera plus anonyme, que son identité sera conservée dans les registres de l'hôpital pendant soixante-dix ans { partir du jour de l'insémination. Donc l'enfant a le droit de savoir qu'il a été procrée par ce type de traitement et le droit de savoir qui est son père et d'aller le voir. L'enfant pourra exercer son droit pendant cinquante-deux ans. » - est-ce que les enfants de l'enfant issu par insémination artificielle avec donneur auront le droit de connaitre l'identité de leur grand-père ? « Non, ce n'est pas dit dans la loi, celle-ci bénéficie seulement { l'enfant procrée par insémination artificielle avec donneur. » - Si les parents de cet enfant ne lui ont pas dit qu'il est né par insémination artificielle avec donneur, quelle est la possibilité pour l'enfant de le savoir ? « Aucune, bien sûr, aucune ! » - Quel est le véritable intérêt de la loi ? « Il n'est dit nulle part que les parents sont absolument tenus de révéler les origine de l'enfant. C'est une mesure d'incitation. Car une des raisons principales de cette loi, c'est que la société ne pouvait légaliser le secret : « la société doit aller toujours dans le sens de l'ouverture, et c'est être malhonnête que de ne pas dire la vérité ». C'est une sorte d'exercice mental pour amateur de pur esprit. Depuis le 1er mars 1985, il n'y a eu, je pense, aucune concertation avec le milieu médical qui traite des couples stériles. « Nous avons l'obligation légale d'enregistrer le donneur, mais nous ne sommes pas obligés de continuer à faire des inséminations artificielles avec donneur dont le nombre aujourd'hui est zéro. Et de l'autre côté, il n'y a plus de donneur qui accepte aujourd'hui que quelqu'un puisse entre en contact avec lui, car il sera fiché et on peut imaginer qu'il sera dans une situation complètement différente et engagé dans d'autres relations. » - Si l'enfant va voir son père génétique, peut-il lui demander des subsides ? 85 « Non, c'est juste pour le voir. » - Le père peut refuser ? « Comment peut-il nier sa paternité biologique ? Pour le donneur, cette loi c'est incertitude. » - depuis la nouvelle loi, quel est le nombre de donneurs ? « Il est tombé { zéro et les gens vont { l'étranger, en Norvège, au Danemark, aux Pays Bas et peut-être en France. Le plus étonnant c'est qu'un pays ait décidé de faire quelque chose, comme si nous étions les seuls au monde. « Au début, on pensait que l'origine de l'enfant devait être écrite non seulement dans les registres de l'hôpital, mais aussi { l'état civil. Les parents génétiques y seraient désignéspour être reliés { l'enfant. Mais si cela avait été, l'officier d'état civil aurait envoyé des lettres pendant soixante-dix ans pour à tous ces gens qui ont une petite étoile comme les juifs au temps des nazis, qu'ils ont le droit de connaitre leurs origines génétiques. Mais cela n'a pas été voté. » - Que se passe-t-il pour les autres méthodes de procréation, fécondation in vitro, mères porteuses ? « En ce qui concerne les fécondations in vitro, les programmes continuent, nous avons beaucoup de conférences et de débats sur ce sujet et aucune loi n'a encore été votée. Le médiateur dont je vous ai parlé, est chargé de bâtir cette loi. Les fécondations in vitro 46 sont acceptées mais pas les mères porteuses. « Je pense que l'opinion, comme le milieu médical, ne l'accepte pas. Je suis personnellement contre, comme la plupart de mes collègues. J'en connais seulement un qui a pratiqué le prêt d'utérus dans un cas très précis. Je pense que les risques psychologiques sont trop pesants. Nous ne pouvons pas prévoir les dérapages possibles. Quand une femme devient enceinte, vous ne pouvez pas prédire ce qui va se passer. Elle a le droit et peut très bien garder cet enfant. Il y a trop de choses que nous ignorons et qui ne sont pas prévisibles. « Vous ne pouvez pas aller au-devant de problèmes psychologiques qui n'existent pas. Si une femme réclame son enfant, vous ne pouvez pas lui retirer par la force et, dans ce cas, le mari de la femme stérile est privé de cet enfant. Il y a d'autres problèmes : exemple, le cas anglais où un enfant est né très handicapé et personne n'en voulait. De tels risques sont trop importants, trop éloignés des belles choses et de ce que connaissent les autres couples. » - Il n'y a pas de mère porteuse en Suède ? « Non, pas que nous sachions, mais cela peut se faire sans le recours de moyens sophistiqués. Cela était beaucoup plus pratiqué dans le temps où la propriété devait rester dans la famille. La maternité pour autrui n'est pas acceptée. » -------------------------- 46 Uniquement avec l'ovule de la mère. 86 Le docteur Bo-Fjällbrant, chef du service de fécondation in vitro de l'hôpital de Linköping et responsable de la banque de sperme, précise les conditions dans lesquelles sont pratiquées les inséminations artificielles avec donneur : - Voyez-vous les couples avant l'insémination ? « Oui, nous avons une discussion avec eux pendant une heure et demie et ce n'est pas la première fois que ce couple voit un médecin ». - Pouvez-vous refuser une I.A.D. ou seulement persuader les parents de ne pas avoir d'enfant ? « Les gens n'ont pas un droit { ce traitement, ils ne peuvent pas venir et exiger ce traitement, c'est toujours le médecin qui prend la décision finale et endosse la responsabilité. » - Si un couple de mathématiciens veut du sperme de mathématicien ? « Ils n'ont pas le droit de connaitre l'origine du sperme. » - Y a-t-il une sélection du sperme ? « Nous choisissons le donneur en fonction de critères tels que la couleur des yeux, des cheveux, dans l'espoir que l'enfant ressemblera { ses parents. Ce sont les seuls critères de sélection, car nous n'avons pas beaucoup de donneur. Je suis content quand j'en ai un avec des yeux bruns ! » - Y a-t-il une limitation du nombre de dons par donneur ? « Nous avons un donneur qui a treize enfants ! Cependant, ce n'est pas rigoureux, si la famille veut d'autres enfants avec le même donneur, nous l'utilisons { nouveau. » - Dans le cas d'un enfant anormal, quelle est votre responsabilité ? « Nous ne sommes pas responsables légalement. » - C'est pourtant vous qui procédez { la sélection des donneurs ? « Bien sûr, nous les sélectionnons, nous leur demandons s'ils sont porteurs de maladies héréditaires, et nous faisons des tests en laboratoire. Il y a un risque sur 1 000 d'avoir une trisomie 21, nous le savons. Mais jamais nous ne pourrons être considérés comme responsables. La seule chose qu'on puisse faire, c'est de procéder { un maximum d'examens biologiques. » - Quel est le type de contrat passé entre le médecin et le couple ? « Il n'y a pas de contrat parce qu'il n'y a pas de valeur en jeu. » - Le coût de l'opération ? « La médecine est gratuite en Suède. » 87 - Est-ce que vous inséminez une femme non mariée ? « Seulement des couples stables ou mariés. Nous savons qu'ils sont stables car nous les avons déj{ vus et nous n'avons pas besoin de documents qui prouvent la cohabitation. » - Quel est le délai moyen entre la première insémination et la naissance ? « Deux ans. » - Quel est le coût de l'insémination artificielle avec donneur ? « Difficile à exprimer précisément, car tout est inclus dans les charges globales de l'hôpital, mais le coût réel n'est pas élevé. » - Pratiquez-vous l'insémination post-mortem ? « Non, cela pose trop de problèmes. Nous n'avons pas l'autorisation. » - Pour les lesbiennes ? « Non, car elles ne sont pas mariées et ne vivent pas d'une façon qu'on puisse considérer comme proche du modèle traditionnel. » - Est-ce qu'en Suède, l'insémination artificielle avec donneur a été comparée { l'adultère ? « Non, jamais dans une opinion officielle. » - Acceptez-vous une insémination artificielle avec donneur si le mari n'est pas stérilemais porteur de tares génétiques ? « C'est une excellente raison pour faire des inséminations artificielles avec donneur. » EUGENISME POSITIF ET EUGENISME NEGATIF. - peut-on comparer cette conception à de l'eugénisme ? « Vous ne saurez pas si vous aurez des enfants normaux mais vous saurez qu'ils ne sont pas atteints de telles tares spécifiques. Il y a deux eugénismes : un eugénisme positif qui tendrait à créer un homme nouveau (les nazis) mais notre patrimoine génétique étant le produit de l'histoire de millions d'années, il va de soi que l'on ne saurait agir substantiellement sur ce dernier en une seule génération. De plus les problèmes moraux { cet égard seraient loin d'être réglés. En revanche, il existe un eugénisme négatif, il s'agit d'éviter qu'une maladie héréditaire connue ne se transmettre { l'enfant. Nous optons pour la deuxième. » - La nouvelle loi peut-elle avoir pour conséquence des pratiques clandestines ? 88 « L'insémination artificielle avec donneur se fait seulement { l'hôpital et si vous souhaitez l'aide d'un médecin vous devez suivre la loi. Mais tout le monde techniquement peur agir clandestinement. » ----------------------Le professeur Mats Ahlgren, chef du service de fécondation in vitro de l'hôpital de Lund et responsable de la banque de sperme, est catégorique : « Depuis que l'on a fait cette loi sur l'anonymat, l'insémination artificielle n'existe plus dans ce centre. Je n'ai pas pu continuer c'est une situation qui sera difficile pour l'enfant d'avoir, { dix-huit ans, ce contact avec le donneur. « Beaucoup de couples ne désirent pas cette information. Je trouve cela plus naturel d'ailleurs. Il y a beaucoup d'enfants qui ne connaissent pas le père biologique parce que la femme n'a jamais rien dit. C'est ma philosophie et environ 97% des couples ont la même opinion que moi. Ce ne sont pas des couples qui ont décidé cette loi dans le Parlement. » - L'opinion suédoise est-elle favorable à cette loi ? « Les couples ne désirent pas donner leur opinion. Cette loi, c'est l'opinion du Parlement, des bureaucrates. On a voulu construire une loi de vérité. » - Lorsque l'enfant ira voir son père génétique, celui-ci peut l'accepter et le prendre chez lui ? « Je n'ai pas trouvé un donneur qui désire cela. » - Donc, le but de la loi, c'est que l'enfant connaisse la vérité. Mais le père génétique n'a pas d'obligation vis-à-vis de l'enfant ? « Non, il y a seulement une obligation pour le médecin de tenir le registre pendant soixantedix ans. Ceux qui ont fait cette loi, ont pensé que la meilleure chose était de prendre connaissance de ses racines génétiques. Mais je ne suis pas d'accord. Ils ont discuté en comparant avec l'adoption, mais c'est quelque chose de complètement différent parce que les enfants adoptés sont connus par tout l'environnement. On sait que tel enfant a été adopté. Cet enfant adopté n'est pas tant intéressé par ses origines génétiques que son milieu ethnique d'origine. C'est un malentendu, on ne peut pas comparer ces deux situations. » « L'enfant a besoin de certitudes » - Les parents sont-ils obligés de dire la vérité aux enfants ? « Dans la nouvelle loi, il n'y a pas d'obligation pour les parents et c'est bien. Mais il est dit dans les travaux préparatoires de la loi que les médecins devraient avoir une attitude ouverte, pour recommander aux parents de dire la vérité aux enfants. Il est précisé que les aides sociales devront assister les enfants troublés par cette vérité. C'est encore évidemment paradoxal ! 89 « L'enfant a besoin de certitudes, de sécurité ; celles-ci ne s'accordent pas toujours avec la vérité biologique. Dans les couples modernes, c'est souvent le cas. Il y a un couple, un ou deux enfants, c'est la famille moderne. Pour les enfants, c'est difficile d'accepter un nouveau père. » - Le père génétique ne pourra-t-il jamais devenir le père social ? « Il y a toujours des exceptions. Si le père social meurt et que le père génétique l'adopte. » - En fait, le législateur n'a-t-il pas voulu faire cesser les inséminations artificielles avec donneur, faire machine arrière ? « Oui, sans doute. » - Est-ce que vous attendez une modification de la loi ? Il semble que de nombreux médecins soient contre ? « Nous faisons notre mieux pour la combattre. Nous avons fait beaucoup de déclarations contre elle dans les journaux, à la radio. Mais cela prendra du temps pour changer la loi. De toute façon, maintenant, mes couples de patients sont envoyés au Danemark. » - Sélectionnez-vous les donneurs, notamment afin de faire ressembler l'enfant { ses parents ? « Oui, même la nouvelle loi le conseille (taille, couleur des yeux, cheveux). » - Et l'adoption ? « L'adoption aujourd'hui se fait { l'étranger car il n'y a plus d'enfants suédois { adopter { cause de l'avortement. Il y a 33 000 avortements par an. » - N'avez-vous jamais suggéré à une femme qui voulait avorter de garder son enfant pour un couple stérile ? « Vous devriez dire cela aux travailleurs sociaux ou aux hommes politiques. C'est la femme qui doit décider cela, mais ce n'est pas facile de mettre au monde un enfant et de l'abandonner après. C'est contre la nature, le mieux c'est de ne pas être enceinte. Il y a une bonne médecine préventive pour cela. » - Est-ce que vous pratiquez l'insémination post-mortem ? « J'ai entendu parler de cela, il est question de sperme d'un homme mort ! On ne peut pas devenir père, alors que l'on est déj{ mort, cela ne marche pas. Il y aurait trop de problèmes juridiques. » « Des couples plus stables que les autres » - Est-ce que les recours aux méthodes artificielles de procréation peuvent parfois entrainer un divorce au sein du couple ? 90 « Il est établi que les couples qui en sont arrivés à souhaiter une insémination artificielle sont plus stables que les autres. Le nombre de divorce est bas. Mais il y a surement certains cas. J'ai connu un couple que j'ai soigné qui a, par la suite, divorcé. L'homme avait deux garçons par insémination artificielle avec donneur et il se conduisait comme le vrai père, même après le divorce. Ce n'est pas un problème pour eux, ils ont accepté leur stérilité. Le sperme qu'ils obtiennent de quelqu'un d'autre, remplace celui qu'ils n'ont pas eux-mêmes, c'est ainsi qu'ils le conçoivent. Ils pensent qu'ils ont une famille comme les autres. Ils oublient sauf quand ils me rencontrent. Si c'est une situation difficile pour eux, alors je leur conseille de ne pas avoir recours à cette méthode. Je pense à un cas où le mari avait été dans un hôpital psychiatrique pour avoir commis un crime sexuel, on l'avait castré. » - Votre opinion sur le prêt d'utérus et les mères porteuses ? « C'est vraiment aller contre la nature, et puis cela pose beaucoup de problèmes de tous ordres. » - Quel est le pouvoir du secret médical face à la loi ? « Je suis obligé maintenant de garder la liste des donneurs et répondre aux enfants cherchant leurs origines depuis la nouvelle loi. » - Y a-t-il un moyen de détourner la loi, avec les gynécologues privés ? « Ce n'est, bien sûr, pas difficile, mais la vérité se saura un jour et le médecin risque jusqu'{ six mois de prison. Tout ce que l'on fait en privé est plus facile. Mais en Suède, les gynécologues privés sont de moins en moins nombreux (comme en Grande Bretagne). Je pense qu'en France, cela serait difficile d'avoir une telle loi avec tant de médecins privés. » - Y a-t-il un contrat ? « Non, nous n'avons pas besoin de document pour cela, juste une négociation reproduite sue papier libre entre le médecin et le couple. » - Quelles sont vos préoccupations depuis l'arrêt des inséminations artificielles avec donneur ? « Vous savez, ce n'était pas les inséminations artificielles avec donneur qui remplissaient mon emploi du temps. Je leur consacrais seulement trois heures par semaine. Alors, ces trois heures, je les utilise pour les autres patients. De toute façon, les inséminations artificielles avec conjoint continuent à se pratiquer. » - Pratiquez-vous la congélation de spermes ? Des ovules ? « Non, car en fait les résultats sont meilleurs avec le sperme frais et il faut un équipement spécial. Nous ne pouvons pas congeler du sperme humain comme du sperme de taureau. Vous avez un taux de fertilité plus bas avec du sperme congelé. En revanche vous pouvez refaire l'opération plusieurs fois, tous les deux jours et mieux couvrir la période. De toute façon, cela est trop coûteux. 91 « J'ai du sperme dans mon labo que j'utilise pour des tests de compatibilité. Mais il faut un donneur (je le paie 150 couronnes). A Linköping, l'hôpital donne l'argent aux médecins qui le remettent aux donneurs. » - Acceptez-vous l'insémination artificielle avec donneur quand le mari n'est pas stérile mais détenteur de malformations génétiques ? « Oui, je crois que dans certains cas, l'insémination artificielle avec donneur est une bonne indication. » - Acceptez-vous les couples non mariés ? « Je n'ai accepté que des couples mariés. Parce que selon la loi suédoise, dans un couple marié, on ne se pose pas la question de savoir qui est le père ou la mère. S'ils ne sont pas mariés, la loi prévoit que les autorités sociales doivent chercher qui est le père véritable. » - Quelle est la position officielle de l'Eglise ? « Elle n'accepte pas l'insémination artificielle, mais elle ne peut rien faire pratiquement, car les gens ne viennent pas lui raconter qu'ils ont eu une insémination artificielle. Il n'y a que 5% de croyants en Suède. Quand vous naissez, vous appartenez { l'Eglise de l'Etat, mais vous pouvez la quitter. Il y a beaucoup d'autres Eglises. J'entends par croyants, ceux qui vont régulièrement { l'église toutes les semaines. » - Que pensez-vous de l'insémination artificielle des lesbiennes ? « C'est aller contre la nature des choses. » ____________________________________ LA LOI SUEDOISE DU 1er MARS 1985. Art. 1 L'insémination est définie comme étant l'introduction artificielle de sperme dans les voies vaginales d'une femme. Art. 2 Il ne peut y avoir insémination que lorsque la femme est mariée ou cohabite avec un homme dans les conditions similaires au mariage. Le consentement écrit du mari ou du compagnon est obligatoire. 92 Art. 3 Une insémination avec du sperme provenant d'un autre homme que le mari ou le compagnon ne peut être pratiquée que dans un hôpital public, sous la surveillance d'un médecin spécialiste de gynécologie et d'obstétrique. Le médecin doit rechercher qu'il convient de pratiquer une insémination eu égard à la situation médicale, psychologique et sociale du couple. L'I.A.D. ne peut être pratiquée que s'il est probable que l'enfant { naitre grandira dans de bonnes conditions. Si une insémination est refusée, le couple peut demander au Conseil national de la Santé et de la Protection Sociale de réexaminer son cas. La décision du Conseil est sans appel. Le médecin sélectionne un donneur de sperme approprié. Des informations concernant le donneur doivent être consignées dans un registre ad hoc à conserver pendant au moins soixante-dix ans. Art. 4 Un enfant conçu par insémination artificielle avec donneur conformément { l'art. 3 a le droit, { condition d'avoir atteint une majorité suffisante, d'être informé de ce qui figure dans le registre ad hoc de l'hôpital au sujet du donneur de sperme. Le Conseil local de la protection sociale doit aider l'enfant qui le demande { obtenir les informations. Art. 5 Si, { l'occasion d'une action en justice concernant la paternité d'un enfant, le tribunal a besoin d'avoir accès aux informations qui existent au sujet d'une insémination artificielle avec donneur, le responsable de cette dernière ou toute autre personne ayant accès aux informations, est tenu de les remettre au tribunal, à sa demande. Art. 6 Il est interdit d'importer en Suède du sperme congelé sans l'autorisation du Conseil national de la Santé et de la Protection sociale. Art. 7 Quiconque pratique, de manière habituelle ou pour en tirer profit, des inséminations contraires à la présente loi ou, pour les mêmes motifs, propose du sperme à inséminer, est passible d'une peine d'amende ou d'emprisonnement de six mois au maximum. _____________________________ DES RESPONSABLES DE BANQUES DE SPERME EN BELGIQUE NOUS DONNENT LEUR OPINION SUR LES MERES PORTEUSES. 93 Professeur Leroy 47: COMME POUR UN DON D'ORGANE. « Ce qui me choque le plus c'est l'aspect commercial, mais je ne suis pas contre le principe. Il faut essayer de clarifier les choses. Une grossesse comporte toujours une part de risque pour la santé et sur les motivations des mères porteuses. On ne peut analyser ce la de la même façon qu'un don d'organe, car la décision une fois prise, déclenche un processus qui durera neuf mois et la mère porteuse risque de changer d'opinion. » Professeur Schoysman48 : CE DEVRAIT ETRE UN DON GRACIEUX. « C'est l'aspect commercial qui me heurte. Je ne suis pas prêt d'en faire mais prêt à écouter. L'argument : « { partir du moment où il y a un paiement c'est fini. S'il n'y a pas d'argent, il y a un lien moral dont on peut difficilement se libérer », est défendable. C'est l'argument du docteur Geller, théorie du contre-don (idem pour le don du sperme, l'indemnisation coupe court { toute demande quant { l'usage de celui-ci). « Ce devrait être un don gracieux, sauf pour les frais d'hôpital. Sur cette question, l'avis des hommes et des femmes est très différent. Il semble qu'on demande trop peu l'avis des femmes. « J'ai fait un sondage parmi des étudiantes. 1/10 ne l'envisagent pas, mais ne l'écartent pas. 50% sont favorables { l'anonymat, les autres préféreraient choisir une amie proche ou un membre de la famille. « On a vu dans certains couples, la femme fermer les yeux pour que le mari insémine naturellement une amie, pour adopter par la suite l'enfant sans I.A.D. il y a adultère, plus risque que la mère porteuse parte avec le mari. « Les femmes qui ont des enfants seraient sans doute, à mon avis, plus favorables au rôle de mère porteuse. Mais dans ce domaine, il n'y a pas de réponse standard, ce type de problème est individuel et cela va { l'encontre d'une législation. « Il y a deux attitudes : celle du dogme qui est un rocher et celle de l'éthique qui est un problème personnel. Pour moi, c'est un problème d'éthique. Je mets en opposition l'abandon dans l'adoption et la masturbation { la base de l'I.A.D. dans la balance. Je ne pense pas qu'il soit nécessaire de préciser ce qui pèse le plus lourd. « En ce qui concerne les rapports intra-utérins, il n'y a aucune preuve biologique qu'il y ait un apport moral entre l'enveloppe porteuse et le foetus. » - Les causes de la stérilité ont-elles changé ? « Une plus grande permissivité sexuelle entraine certaines lésions que l'n ne voyait pas il y a vingt ans, les maladies sexuellement transmissibles (M.S.T.) sont plus nombreuses et plus complexes. » 47 Chef du service de F.I.V. de l'hôpital Saint-Pierre de Bruxelles. Le centre du professeur Schoysman à Bruxelles a donné naissance à plus de 1 000 enfants par I.A.D. (sur 2 000 en Belgique), c'est également la premier centre pour les F.I.V. 48 94 HESITATIONS BRITANIQUES Extraits concernant le prêt d'utérus de l'avis rendu Par la Commission Warnock49 Opinions dissidentes de deux membres de la Commission50 Loi britannique sur le prêt d'utérus Du 16 juillet 1985. « Surrogacy Arrangements Act » LA POSITION DE LA COMMISSION D'ENQUETE. La question de la « grossesse de substitution » nous a posé les plus graves problèmes que nous ayons rencontrés. Les avis que nous avons recueillis comportaient une série de points de vue très tranchés et ceci se retrouvait parmi nous. Les objections morales et sociales contre la « grossesse de substitution » ont fortement pesé sur nous. Tout d'abord nous sommes tous convenus que le recours { cette pratique { des seules fins de convenance personnelle, c'est-à-dire lorsqu'une femme est physiquement capable de porter un enfant mais ne souhaite pas subir une grossesse, est totalement inacceptable du point de vue éthique. Que des individus en traitent d'autres comme des moyens pour parvenir à leurs propres fins, même si les conséquences en sont souhaitables, doit être rejeté par la morale. Cette manière d'agir, d'une personne avec une autre, relève positivement de l'exploitation lorsque les intérêts financiers sont en jeu. C'est donc l'exploitation commerciale de la « grossesse de substitution » qui nous a, en premier lieu (mais non exclusivement) préoccupés Un sérieux risque d'exploitation commerciale. nous avons examiné si le droit pénal devait avoir un rôle { jouer dans le contrôle de la pratique de la « grossesse de substitution » et avons conclu par l'affirmative. Nous reconnaissons qu'il existe un sérieux risque d'exploitation commerciale de cette pratique et celui-ci serait difficile { prévenir sans l'aide du droit pénal. Nous avons discuté pour savoir si un service limité, à but non lucratif, soumis à autorisation et contrôle, qui proposerait des « grossesses de substitution » pourrait avoir un rôle utile, mais la majorité est convenue que l'existence d'un tel service serait en lui-même un encouragement au développement de la pratique. Nous recommandons la mise en place d'une législation qui rende passible de poursuites pénales la création ou activité au 49 L'intégralité du « rapport Warnock » a fait l'objet d'une traduction par les services de la Documentation française sous le titre « Fécondation et Embryologie humaines » (Ed. Documentation française) dont nous publions quelques extraits. 50 Dr David Davies, directeur du Dartington North Devon Trust, Dr Wendy Greengross, membre du Royal College of Obstetricians and Gynaecologists. 95 Royaume-Uni d'agences dont le but comprend le recrutement de femmes en vue d'une « grossesse de substitution » ou de couples qui souhaitent utiliser les services d'une mère porteuse. Cette législation devrait être assez large pour couvrir les organismes à but tant lucratif que non lucratif. Nous recommandons en outre que cette législation soit assez large pour rendre passibles de poursuites pénales les actes des membres des professions libérales et d'autres personnes qui aident en toute connaissance de cause { provoquer une « grossesse de substitution ». Des contrats illégaux. Nous n'envisageons pas que cette législation rende passibles de poursuites pénales les personnes privées qui concluent des arrangements en vue d'une « grossesse de substitution », car nous sommes soucieux d'éviter que les enfants naissent de mères coupables d'un délit. Nous reconnaissons cependant qu'il continuera { y avoir des accords pour des « grossesses de substitution » qui seront conclus à titre privé. Tout en considérant que les termes de la plupart des accords, si ce n'est de la totalité, seraient légalement non exécutoires en droit. Nous estimons que la position de principe devrait être clairement exprimée par la loi. Nous recommandons qu'il soit prévu par la loi que tous les accords en vue d'une « grossesse de substitution » soient des contrats illégaux qui ne peuvent par conséquent être exécutés par les tribunaux. Assouplir la législation sur l'adoption. Nous savons bien que la « grossesse de substitution » tout comme le don d'ovocyte et d'embryon, peut soulever la question de savoir qui est la vraie mère, la mère génétique ou la » mère de substitution »il reste le cas possible où l'ovocyte ou l'embryon n'ont pas été donnés, mais fournis par la mère ou les parents qui demandent le service avec l'intention d'élever l'enfant qui naitra. Si notre recommandation est acceptée, ces cas ont peu de chance de se produire car le praticien qui ferait le traitement, prendrait le risque de commettre un délit. Cependant, pour lever tout doute, nous estimons que la législation proposée devrait être suffisamment large pour couvrir ce cas. Si l'expérience montre que ceci entraine une injustice pour les enfants qui vivent avec leur mère génétique plutôt qu'avec la mère qui les a portés, la solution est, { notre avis, d'assouplir la législation sur l'adoption afin de permettre à la mère génétique de les adopter. ___________________________ OPINION DISSIDENTE : LA GROSSESSE DE SUBSTITUTION. Un dernier recours pour certains couples. 96 Dans les paragraphes suivants, nous exprimons notre désaccord par rapport à certaines positions adoptées par la Commission d'enquête concernant le problème de la « grossesse de substitution ». Nous estimons qu'il existe des cas rares où cette technique pourrait représenter un dernier recours pour certains couples. Dans ces circonstances, les gynécologues devraient avoir la possibilité de suggérer à leurs patients une « grossesse de substitution ». Mais dans l'intérêt de toutes les personnes concernées et notamment de l'enfant qui peut être engendré, nous pensons qu'une attention et un contrôle stricts sont nécessaires nous voulons dire clairement que nous partageons avec nos collègues la plupart des préoccupations qu'ils ont exprimées. La pratique des « mères de substitution » pourrait soulever des problèmes sérieux et notre propos n'est pas les nier. De même nous pensons qu'il est extrêmement important que les personnes ayant l'intention de s'engager d'une façon ou d'une autre dans ce processus soient tout à fait conscientes des complications éventuelles. Refuser la « grossesse de substitution » pour convenance personnelle. Nous sommes entièrement d'accord avec nos collègues lorsqu'il s'agit de refuser la « grossesse de substitution » pour convenance personnelle. Nous convenons également que le droit pénal devrait interdire l'activité des organismes { but lucratif dans ce domaine, bien que nos motifs soient à ce sujet, quelque peu différents de ceux de nos collègues. A notre avis, la question de l'exploitation de la « mère de substitution » et le fait qu'elle soit traitée par d'autres comme un moyen pour leurs propres fins, n'est pas un problème moral aussi clair que l'affirment nos confrères. Mais par ailleurs, nous sommes fermement convaincus que les grandes difficultés personnelles, juridiques et sociales que soulève la « grossesse de substitution », sont presque analogues { celles que suscitent l'adoption et le placement, et qu'il ne peut être question d'activité commerciale dans ce domaine tout comme il ne peut y avoir place pour les organismes d'adoption { but lucratif. La demande continuera sous une forme ou sous une autre. Quoique nous puissionsrecommander, nous en tant que Commission, la demande continuera sous une forme ou une autre et pourra même s'accroître. Une partie de cette demande pourrait bien être irréfléchie et mal venue mais il y a incontestablement des couples qui, pour des raisons médicales, se tourneront en dernier recours vers la solution d'une « grossesse de substitution ». Par leurs recommandations, nos collègues empêcheraient les gynécologues d'offrir toute aide { ces couples. De ce fait, les couples pourraient abandonner tout espoir d'avoir un enfant, ou prendre des risques supplémentaires comme ceux de nouvelles fausses couches, ou encore décider de s'engager dans quelque arrangement « à l'amiable ». Cette dernière possibilité, à savoir que les couples en arrivent à conclure eux-mêmes des arrangements, est particulièrement peu satisfaisante. Car ces « accords » ne bénéficieraient pas des services de conseil et d'assistance médicale indispensables et ne permettraient pas l'anonymat que la Commission a recommandé pour protéger toutes les parties contre les complications juridiques et affectives que peuvent entraîner les traitements se stérilité. Examiner toute demande d'agrément. 97 Ayant évalué les risques que comporte chaque solution dans ce débat très serré, nous sommes parvenus à la conclusion que refuser complètement toute possibilité de « grossesse de substitution » pour pallier la stérilité serait une erreur. Mais nous sommes préoccupés par la manière dont celle-ci pourrait être offerte. Nous pensons que l'organisme de contrôle devrait inclure la « grossesse de substitution » dans son champ de compétence. Ces arrangements comprendraient la mise en relation du couple demandeur et de la « mère de substitution », et l'information nécessaire afin que les implications juridiques et personnelles de cette pratique soient bien comprises. Les seuls organismes qui pourraient être agréés seraient ceux qui disposent d'un personnel compétent en matière d'aide { l'enfance et qui n'ont aucun but commercial. Les organismes chargés de l'adoption et du placement ou tout nouvel organisme pourvu du personnel adéquat, pourraient demander leur agrément. Nous ne demandons pas que l'autorité de contrôle crée elle-même une institution { cette fin mais seulement qu'elle ait le pouvoir d'examiner toute demande d'agrément proposée par un organisme de ce type. Seul un gynécologue pourrait adresser un couple à un organisme agréé. A notre avis, l'existence d'un organisme agréé ne devrait pas avoir pour effet de frapper d'illégalité tout arrangement en vue d'une « grossesse de substitution » conclu en dehors de cet organisme car il est naturellement peu souhaitable que la conception et la naissance d'un enfant soient entachées d'une quelconque illégalité. Par ailleurs, toute personne (y compris un médecin) qui conclurait des arrangementsde cette nature pour un couple sans y être autorisée commettrait un délit, qu'elle ait agi par profit ou non. Nous reconnaissons que l'acquisition du statut parental par le couple demandeur pose des problèmes. Nous pensons que si des mesures sont prises pour réglementer la « grossesse de substitution » par la voie de l'agrément, une forme de procédure d'adoption devrait être proposée aux couples. En vertu de la législation actuelle, le processus de l'adoption ne doit comporter aucune transaction financière. Néanmoins la plupart des « mères de substitution » s'attendront { être rémunérées pour leurs services. A notre avis, une telle rémunération ne devrait pas être un obstacle { l'adoption de l'enfant par le couple demandeur. Si nos propositions sont acceptées, nous estimons qu'il ne faudrait pas prendre des mesures prévoyant que tous les arrangements en vue d'une « grossesse de substitution » sont des contrats illégaux. Pour le moment, s'ils le souhaitent, les tribunaux devraient être libres d'examiner chaque cas individuel en toute objectivité. Nous ne pensons pas que l'opinion du public soit tout { fait arrêtée sur cette question, qui n'est venue que récemment, l'an dernier tout au plus, au premier plan de l'actualité. Nous croyons donc qu'il est prématuré de prendre une décision dans un sens ou dans l'autre. Nous souhaitons avoir la possibilité dans quelques années { venir d'analyser l'état de la demande, de voir si un organisme peut se charger d'y faire face, et si les conséquences en sont ou non acceptables. Nous demandons seulement de laisser une porte entrouverte pour que cette pratique puisse être mieux évaluée. Wendy Greengross, David Davies. _________________________________ 98 Un certain nombre de médecins britanniques et notamment des responsables de centre de procréation nous ont fait part du véritable marchandage qui a eu lieu au sein de la Commission Warnock. Les termes en étaient, en substance, les suivants : « Le problème des expérimentations sur l'embryon est trop délicat. Nous préférons donner la priorité { l'interdiction des intermédiaires pour les naissances par mère porteuse, laquelle reçut une appréciable majorité du Comité et fut suivi d'une loi. En revanche, le seuil limite des « quatorze jours » pour pratiques des expérimentations sur l'embryon, qualifié de « nouvel absolutisme religieux » par le professeur Edwards, ne reçut pas la même adhésion et est toujours en attente au Parlement ________________________ LA LOI ANGLAISE SUE LES MERES PORTEUSES. Cette loi britannique sur le prêt d'utérus du 16 juillet 1985 est inspirée du rapport Warnock de juillet 1984. Elle se veut cependant plus libérale. En précisant qu'elle exclut de toutes poursuites pénales la mère porteuse et le couple demandeur, elle vise à réprimer les intermédiaires qui dans un but lucratif, mettraient en rapport une mère porteuse et un couple demandeur. Ainsi les sommes d'argent versées directement par le couple à la mère porteuse ne sont pas retenues comme élément du caractère lucratif de l'activité d'intermédiaire (« payment does not include payment to or for the benefit of the surrogate mother or prospective surrogate mother »). Elle réprime l'incitation au prêt d'utérus. Une personne est considérée comme exerçant cette activité dans un but lucratif si elle reçoit un paiement ou si elle exerce en vue d'un paiement { un tiers. Elle interdit d'autre part toute publicité et toute annonce de presse écrite et parlée visant à recruter une mère porteuse ou à mettre en relation cette dernière avec un couple demandeur. ______________________________ 99 SURROGACY ARRANGEMENTS ACT 1985 1985 Chapter 45 An act to regulate certain activities in connection with arrangements made with a view to women carrying children as surrogate mothers (16th July 1985). 1. (1) The following provisions shall have effect for the interpretation of this Act. Meaning of « surrogate mother », « Surrogacy arrangement » and other terms. (2) « Surrogate mother » means a women who carries a child in pursuance of an arrangement. a) made before she began to carry the child, b) made with a view to nay child carried in pursuance of it being handed over to, and parental rights being exercised (So far as practicable) by, another person or other persons. (3)An arrangement is a surrogacy if, were a woman to whom the arrangement relates to carry a child in pursuance of it, she would be a surrogate mother. (4) In determining whether an arrangement is made with such a view as is mentioned in subsection (2) above regard may be had to the circumstances as a whole (and, in particular, where there is a promise or understanding that any payment will or may be made to the woman or for her benefit in respect of the carrying of any child in pursuance of the arrangement, to that promise or understanding). (5) An arrangement may be regarded as made with such a view through subject to conditions relating to the handing over of any child. (6) A woman who carries a child is to treated for the purposes of subsection (2) (a) above as beginning to carry it at the time of the insemination or, as the case may be, embryon insertion that results in her carrying the child. (7) « Body of persons » means a body of persons corporate or unincorporate. (8) « Payment » means payment in money or money's worth. (9) This Act applies to arrangements whether or not they are lawful and whether or not they are enforceable by or against any of the persons making them. Negotiating surrogacy arrangements on a commercial basis, etc. 2. (1) No person shall on a commercial basis do any of the following acts in the United Kingdom, that is : a) Initiate or take part in any negotiations with a view to the making of a surrogacy arrangement, b) Offer or agree to negotiate the making of a surrogacy arrangement or, c) Compile any information with a view to its use in making, or negotiating the making of, surrogacy arrangements, and no person shall in the United Kingdom know-ingly cause another to do any of those acts on a commercial basis (2) A person who contravenes subsection (1) above is guilty of an offence, but it is not a contravention of that subsection: a) For a woman with a view to becoming a surrogate mother herself, to do any act mentioned in that subsection or to cause such an act to be done, or 100 b) For any person, with a view to a surrogate mother carrying a child for him, to do such an act or to cause such an act to be done. (3) For the purposes of this section, a person does an act on a commercial basis (subject to subsection (4) below), if: a) Any payment is at any time received by himself or another in respect of it, or b) He does it with a view to any payment received by himself or another in respect of making, or negotiating or facilitating the making of any surrogacy arrangement. In this subsection « payment » does not include payment to or the benefit of a surrogate mother or prospective surrogate mother. (4) In proceedings against a person for an offence under subsection (1) above, he is not to be treated as doing an act on a commercial basis by reason of any payment received by another in respect of the act if it is proved that: a) In a case where the payment was received before he did the act, he did not do the act knowing or having reasonable cause to suspect that any payment had been received in respect of the act ; and b) In any other case, he did not do the act with a view to any payment being received in respect of it. (5) Where: a) A person acting on behalf of a body of persons takes any part in negotiating or facilitating the making of a surrogacy arrangement in the united Kingdom, and b) Negotiating or facilitating the making of surrogacy arrangements is an activity of the body. - A woman who carries a child in pursuance of the arrangement, - The person or persons for whom she carries it, or - Any person connected with the woman or with the body is guilty of an offence. For the purposes of this subsection, a payment received by a person connected with a body is to be treated as received by the body. (6) In proceedings against a body for an offence under subsection (5) above, it is a defence to prove that the payment concerned was not made in respect of the arrangement mentioned in paragraph (a) of that subsection. (7) A person who in the United Kingdom takes part in the management or control: a) Of any body of persons, or b) Of any of the activities of any body of persons, is guilty of an offence if the activity of the body concerned. (8) The activity referred to in subsection (7) above is negotiating or facilitating the making of surrogacy arrangements in the United Kingdom, being: a) Arrangements the making of which is negotiated or facilitated on a commercial basis, or b)Arrangements in the case of which payments are received (or treated for the purposes of subsection (5) above as received) by the body concerned in contravention of subsection (5) above. (9) In proceeding against a person for an offence under subsection (7) above, it is a defense to prove that he neither knew nor had reasonable cause to suspect that the activity described in subsection (8) above was an activity of the body concerned; and for the purposes of such proceedings any arrangements falling within 101 subsection (8) (b) above shall be disregarded if it is proved that the payment concerned was not made in respect of the arrangement. Advertisements about surrogacy. 3 (1) This sections applies to any advertisement containing an indication (however expressed) : a) That any person is or may be willing to enter into a surrogacy arrangement or to negotiate or facilitate the making of a surrogacy arrangement, or b) That any person is looking for a woman willing to become a surrogate mother or for persons wanting a woman to carry a child as a surrogate mother. (2) Where a newspaper or periodical containing an advertisement to which this section applies in published in the United Kingdom, any proprietor, editor or publisher of the newspaper or periodical is guilty of an offence. (3) Where an advertisement to which this section applies is conveyed by means of a telecommunication system so as to be seen or heard (or both) in the United Kingdom, any person who in the United Kingdom causes it to be so conveyed knowing it to contain such an indication as is mentioned in subsection (1) above is guilty of an offence. (4) A person who publishes or causes to be published in the United Kingdom an advertisement to which this section applies (not being an advertisement contained in a newspaper or periodical or conveyed by means of a telecommunication system) in guilty of an offence. (5) A person who distributes or causes to be distributed in the United Kingdom an advertisement to which this section applies (not being an advertisement contained in a newspaper or periodical published outside the United Kingdom or an advertisement conveyed by means of a telecommunication system) knowing it to contain such an indication as in mentioned in subsection (1) above is guilty of an offence. (6) In this section "telecommunication system" has the same meaning as in the telecommunications Act 1984. 4 (1) A person guilty of an offence under this Act shall be Offences. Liable on summary conviction : a) In the case of an offence under section 2 to a fine not exceeding level 5 on the standard scale or to imprisonment for a term not exceeding 3 months or both, b) In the case of an offence under section 3 to a fine not exceeding level 5 on the standard scale. In the subsection "the standard scale" has the meaning given by section 75 of the Criminal Justice act 1982. (2) No proceedings for an offence under this Act shall be instituted: a) In England and Wales, except by or with the consent of the Director of Public Prosecutions; and c) In Northern Ireland, except by or with the consent of the Director of Public Prosecutions for northers Ireland. 102 (3) Where an offence under this Act committed by a body corporate is proved to have been committed with the consent or connivance of, or to be attributable to any neglect on the part of, any director, manager, secretary or other similar officer of the body corporate or any person who was purporting to act in any such capacity, he as well as the body corporate is guilty of the offence and is liable to be proceeded against and punished accordingly. (4) Where the affairs of a body corporate are managed by its members, subsection (3) above shall apply in relation to the acts and defaults of a member in connection with his functions of management as if were a director of the body corporate. (5) In any proceedings for an offence under section 2 of this Act, proof of things done or of words written, spoken or published (whether or not in the presence of any party to the proceedings) by any person taking part in the management or control of a body of persons or of any of the activities of the body, or by any person doing any of the acts mentioned in subsection (1) (a) to (c) of that section on behalf of the body, shall be admissible as evidence of activities of the body. (6) In relation to an offence under this Act, section 127 (1) of the Magistrates Courts Act 1980 (information must be laid within six months of commission of offence), section 331 (1) of the Criminal Procedure (Scotland) Act 1975 (proceedings must be commenced within that time) and Article 19 (1) of the Magistrates Courts (Northern Ireland) Order 1981 (complaint must be made within that time) shall have effect as if for the reference to six months there were substituted a reference to two years. 5 (1) This Act may be cited as the Surrogacy Arrangements Act 1985. (2) This Act extends to Northern Ireland. PERSPECTIVES 103 « Les français disent ouimais { la procréation artificielle », titrait le journal « le Monde » du 23 juillet 1985. De congrès en colloques, déclarations et communiqués s'accumulent et les opinions diverses, qu'ils reflètent, sont elles-mêmes évolutives. La complexité du sujet désarme parfois celui ou celle qui prend position. Nous ne nous retrouvons pas dans le cadre des grands débats nationaux à caractère référendaire sur l'application de peine de mort ou la liberté d'avorter. Il s'agit de donner un avis sur l'application de techniques dont certaines sont d'une grande complexité scientifique et de toute façon, les unes et les autres sont d'une très grande diversité dans leurs implications psychologiques, sociologiques et juridiques (peut-on mettre en parallèle l'insémination artificielle avec conjoint, la F.I.V.E.T.E. avec don d'ovule et le prêt d'utérus ?). Les politiques, les leaders et relais d'opinion ne s'y sont d'ailleurs pas trompés, les clivages classiques (que l'on pouvait encore cerner lors des débats sur la peine capitale ou ceux concernant l'I.V.G.) disparaissent. Chacun donne son opinion, mais on ne parle pas toujours des mêmes choses. Raymond Forni, président de la Commission des Lois (P.S) s'oppose { l'insémination artificielle des femmes célibataires ; Edgard Faure, sénateur centriste, se déclare favorable au prêt d'utérus51 , le sénateur Henri Caillavet veut limiter l'insémination artificielle postmortem durant une période n'excédant pas trois ans depuis le décès du mari et propose, par ailleurs dans le cas des mères porteuses, que la procédure d'adoption puisse commencer au stade embryonnaire.52 Une évolution rapide de l'opinion. Les enquêtes d'opinion se succèdent et les résultats sont contradictoires : - 54% des française se déclarent opposées au principe des mères porteuses (E.O.P., IPSOS-ELLE, novembre 1984) 35 % y sont favorables, mais si l'on se limite aux femmes les plus jeunes (âge de procréer) les chiffres tendent { s'inverser. Qui est concerné ? La population toute entière et la conception qu'elle a de la famille ? Ou bien s'agit-il de libertés individuelles et de connaitre les intentions et les motivations des femmes en âge de procréer ? Les résultats en dépendent. Six mois plus tard, 63 % des français interrogés par la SOFRES pour le compte du « Monde » et de «France Inter », déclarent que ces progrès de la médecine (l'ensemble des nouvelles techniques de procréation y compris le prêt d'utérus) sont plutôt positifs. 51 « La liberté d'avorter doit conduire à celle d'engendrer ». Le Monde, 19 avril 1985. Journée « Une mère pour une autre », Bourges, 23 octobre 1985. 52 104 Evolution notable de l'opinion certes, mais dans la complète confusion. De plus, la notion de « progrès de la médecine » ne peut que difficilement être appréhendée en termes de négativité, sauf dans les classes d'âge les plus avancées. Encore une fois, le fait de regrouper ces différentes procréations artificielles ne représente pas un grand intérêt et { l'évidence aucun pour la sociologie juridique. « Y aurait-il une éthique à la majorité des voix ? », ironisait le professeur Terré 53à propos de la façon dont sont prises les recommandations du Comité Jean Bernard. Nous avons vu que ni la stérilité ni la procréation artificielle ne sont en soi un fait nouveau. Ce qui l'est, c'est d'une part, l'organisation sociale de ces techniques, leur développement, leur multiplicité et leur utilisation par les couples stériles qui n'acceptent plus une fatalité alors même qu'ils sont informés des réels progrès scientifiques dont bénéficient ces techniques. Enfin le contexte de ces évolutions est celui d'une société qui a complétement intégré le contrôle des naissances.La procréation artificielle ou procréation assistée est un sujet vaste au développement extrêmement rapide. Pour simplifier, nous distinguons les techniques qui ne sont qu'un déplacement dans le temps et l'espace de la fécondation dans le cadre d'un couple victime de stérilité, des techniques qui font intervenir un tiers dans la procréation (donneur de sperme, donneuse d'ovule ou embryon, mère porteuse). L'enjeu éthique n'est pas le même. Nous distinguons également les techniques qui ne nécessitent qu'une seule insémination artificielle et éventuellement la conservation du sperme (insémination artificielle avec conjoint, insémination artificielle avec donneur et prêt d'utérus), que l'on qualifierait de techniques de procréation artificielle « douces », des techniques qui nécessitent l'utilisation d'équipements sophistiqués (fécondation in vitro avec ou sans don d'ovule, don d'embryon) beaucoup plus éprouvantes pour la femme stérile et pour la donneuse. Nous pouvons également distinguer selon le type de stérilité (ovarienne, tubaire, utérine, azoospermie) chaque technique ayant ses « indications » bien qu'elle ne traite pas le handicap de stérilité. Il s'agit de permettre { un couple stérile d'avoir un enfant et non de le rendre apte à procréer. Un taux acceptable de réussite. Enfin , il apparait nécessaire de classifier par l'offre et de distinguer les techniques qui offrent un taux acceptable de réussite pour le couple stérile de celles qui, si elles représentent des prouesses techniques remarquables,ont encore un taux d'échec très important et ne peuvent que décourager les demandeurs. Dans la première catégorie se situe l'insémination artificielle avec conjoint et l'insémination avec donneur (cf. annexes chiffres C.E.S.O.S., C.E.F.E.R.) et le prêt d'utérus. 53 Colloque « Procréation artificielle, Génétique et Droit ». Lausanne, 29 et 30 novembre 1985 105 En revanche, c'est dans la seconde catégorie que l'on trouve la fécondation in vitro dont le meilleur taux de réussite en France (dans le meilleur centre) est de 10 %. On peut mettre en rapport soit le nombre de débuts de grossesse et celui des tentatives (ce que font généralement les centres afin de présenter des taux approchant pour certains les 20 %), soit, et c'est bien sûr celui qui intéressera les couples, le nombre de naissance effectives avec le nombre de tentatives. Et le taux en est bien entendu substantivement diminué ! L'enquête que nous avons menée auprès des couples ayant tenté la fécondation in vitro, les épreuves que doivent subir les femmes stériles pour essayer, après plusieurs tentatives, de réussir une procréation par fécondation in vitro, nous incite à inclure un cout « psychologique » au coût financier particulièrement élevé (une F.I.V.E.T.E coûte entre 100 et 150 000 F54). Ce faible taux de réussite peut nous amener à établir une comparaison, quant à la satisfaction de la demande du couple, avec la pratique contemporaine de l'adoption dont on connait le taux extrêmement modeste (environ 4 { 5 % selon les sources) des réponses positivesaux multiples candidatures. « Droit { l'enfant », « Droits de l'enfant » et « Droit à être parents ». La prise en compte des intérêts de l'enfant doit guider tous travaux éthiques et juridiques sur la procréation artificielle. Cet enfant a-t-il le droit de connaitre ses origines ? Le droit d'avoir une mère et un père ? Ou plus dramatiquement a-t-il un intérêt à naitre ? En revanche, le droit à être parent peut-il se substituer { la notion plus contestée d'un droit { l'enfant ? En effet, alors que dans l'adoption il s'agit d'intégrer dans une famille un enfant déj{ né, la procréation artificielle en permettant { un couple stérile d'avoir un enfant, met au monde ce dernier avec une participation plus ou moins importante de la science. Cet enfant doit-il donc bénéficier d'une protection particulière ? Doit-on se diriger vers une responsabilisation, { l'aide éventuelle de la règle de droit, de ceux qui décident et concourent à cette naissance ? Et notamment l'interdiction de désaveu de paternité par le mari de la femme qui a consenti { l'insémination artificielle avec donneur 55(règle en vigueur aux Pays Bas, en Suède, au France, au Canada, dans une trentaine des Etats d'Amérique, en Europe de l'Est) devraitelle s'élargir { l'interdiction pour le couple qui a désiré un enfant par procréation artificielle de le refuser à la naissance sous un prétexte quelconque ? Ou bien une obligation alimentaire ou un autre type de lien de droit restant à définir doit-il se substituer à cette paternité et maternité juridiquement imposées ? 54 Ce coût devrait cependant tendre à diminuer dans les années à venir si l'on en croit le professeur Jacques Testart (in « l'oeuf transparent », éd. Flammarion, 1986, p.188) en tenant compte de l'allégement des actes médicaux, de la quasi suppression de l'hospitalisation, de la perspectives d'une plus grande efficacité par cycle de traitement (Cryo préservation des embryons) et de la « révision fondamentale dans les modalités de surveillance du cycle FIVETE, révision qui permet d'éliminer dosages hormonaux et échographies ovariennes, tout en planifiant longtemps à l'avance la date de l'intervention ». 55 A l'instar de la pratique suédoise pourquoi ne pas exiger la présence du mari stérile lors de l'insémination de sa femme ? 106 Nous avons vu que l'expérience sur la levée de l'anonymat du donneur de sperme en Suède en 1985 a eu pour conséquence la chute sinon la fin des activités de l'insémination artificielle avec donneur et ne peut représenter un « modèle ». De même, doit-on convenir que la solution préconisée par le rapport Warnock en Grande Bretagne, lequel prévoit un accès aux seuls renseignements génétiques sur le donneur par l'enfant { sa majorité, s'inscrit dans l'élaboration d'un statut protecteur de ce dernier ? En axant ce dossier plus particulièrement sur le prêt d'utérus, nous avons voulu réunir le plus grand nombre de difficultés rencontrées dans l'application des techniques de procréation artificielle. L'insémination artificielle, la gestation effectuée par une femme extérieure au couple (immixtion d'un tiers dans la procréation artificielle), « l'accouchement sous X », la reconnaissance d'un enfant adultérin ou naturel, puis l'adoption. De plus les réticences constatées par ailleurs face { l'insémination artificielle avec donneur, { la F.I.V.E.T.E, au don d'ovule, au don d'embryon se retrouvent ici particulièrement exacerbées. Une réalité sociologique. Nous avons vu que le prêt d'utérus connait un développement encore limité en France, mais qu'il devient une réalité sociologique rendant peut être sinon obsolète du moins insuffisant l'avis du Comité Jean Bernard d'octobre 1984 (voir documents) qui recommandait son interdiction56 par les Pouvoirs publics. Lesquels, on le sait, ont par la suite, donné une sorte de feu orange { l'expérience. Des instruments de réflexion. Une évaluation la plus précise possible des risques véritables encourus, notamment pour les droits de l'enfant, des techniques réellement appliquées, des projets, nous semble être d'une nécessité impérieuse pour tous ceux qui sont amenés à réfléchir sur la procréation artificielle et éventuellement, { prendre des décisions. Nous nous arrêtons { l'orée du débat purement éthique en l'encourageant par l'information qu'elle peut lui livrer. « La sociologie juridique connait la séparation radicale, propre aux sciences expérimentales, entre l'observateur et la matière observée. Et si le droit est Dieu pour le dogmaticien, la sociologue, lui, s'impose de pratiquer l'athéisme méthodologique ». 57 Certains proposent de faire « une expérience » et de confier à une association la tâche de mettre en place une structure permettant la réalisation de maternités de substitution sous le contrôle des ministères de la Santé et de la Justice et ceci pour un temps et un nombre de naissances déterminés. A la fin de la période prévue, les responsables rendent leurs conclusions à un « Comité Sages ». Le législateur suivra ou ne suivra pas. Toutefois ne serait-ce pas là une caution gouvernementale apportée à telle ou telle association et à une technique au demeurant toujours contestée ? 56 Le Comité après avoir évoqué la « liberté des libertés qui est la décision d'un couple d'avoir ou non un enfant » souhaite « persuader toutes les personnes qui ont manifesté leur intérêt pour cette méthode de ne pas chercher à y recourir » et propose de « continuer à appliquer la législation actuelle et donc de ne pas prendre les textes nécessaires pour rendre licite le prêt d'utérus ». 57 Jean Carbonnier, in « Sociologie Juridique », P.U.F. 107 La valeur d'une telle « expérience » dépend essentiellement de la volonté politique d'en tirer toutes les conséquences quel qu'elles soient. La réponse à la question éternellement posée au juriste : « faut-il légiférer, » ne saurait s'ébaucher sans une connaissance véritable de la procréation artificielle « dans les faits » : Les couples stériles reçoivent-ils une réponse { leur désir d'enfant et que leur propose-ton ? Ce désir d'enfant doit-il être satisfait à tous prix ? Comment les centres de procréation médicalement assistée appliquent leurs propres règlements ? Si notre système de droit à les capacités de gérer un certain nombre de situation nouvellement créées, d'autres ne sont pas réglées (statut des embryons, surnuméraires, adoption de l'embryon, anonymat, rétribution du donneur, de la mère porteuse, l'insémination artificielle post-mortem, celle d'une femme célibataire). Ici et là des propositions du Sénat, des communications de professeurs de droit circulent, mais le juriste piétine et le technicien de la procréation artificielle déculpabilisé car il a demandé { plusieurs reprises que l'on légifère (avec peut être un désir secret qu'on ne se hâte pas trop !), poursuit son oeuvre. Le juriste, le législateur, n'interviendront-ils que pour distribuer des interdits parfaitement inefficaces, tant les convictions sont profondes et le désir légitimé ? Ni l'interdiction, ni l'institutionnalisation des techniques de procréation artificielle faisant appel { un tiers ne sont { l'ordre du jour. En revanche, la sauvegarde de certains principes fondamentaux tel celui qui laisse toute liberté { la mère porteuse de garder l'enfant { la naissance parallèlement { la prise en compte d'une évolution rapide des comportements des individus dans leur volonté de combler leur désir 'enfant, semble être le cadre dans lequel les autorités gouvernementales prendront prochainement les décisions qui lui incombent. ___________________________________ 10 ANNEXES 108 LES MERES PORTEUSES ONT-ELLES LE DROIT DE S'ASSOCIER ? La décision du Tribunal Administratif de Strasbourg Nous publions la décision rendue par le Tribunal Administratif de Strasbourg le 17 juin 1986 laquelle confirme l'interdiction d'inscription sur le registre des associations prononce par le Préfet { l'encontre de l'association de mères porteuses « Les Cigognes » et n'a pas suivi en ce sens les conclusions du Commissaire de Gouvernement que nous publions également. Ce dernier semble s'en tenir { l'objet de l'association qui est de « mettre en oeuvre tous les moyens susceptibles de concourir à la défense des intérêts moraux et matériels des mères de substitution, de promouvoir et valoriser sur le plan moral cette démarche, de rechercher et diffuser les informations dans ce domaine ». Cependant pour les juges administratifs, l'association « les cigognes » se constitue nécessairement en intermédiaire et cette activité comporte l'existence d'un acte d'engagement même verbal de la mère porteuse. L'association a fait appel de cette décision devant le Conseil d'Etat. Par-delà les enjeux immédiats de cette décision, le débat porte sur la condamnation de la maternité de substitution, la qualification d'intermédiaire entre mère porteuse et le couple stérile, la notion d' »abandon d'enfant » en concurrence avec celle de « participation à un projet d'enfant du tiers { la procréation assistée »58. _______________________________ TRIBUNAL ADMINISTRATIF DE STRASBOURG 17 JUIN 1986 Association « LES CIGOGNES » Ministre de l'Intérieur Commissaire de la République du Bas Rhin Opposition { l'inscription au registre des associations. Vu, enregistrée au greffe le 24 avril 1985, la requête présentée par l'Association « Les Cigognes », dont le siège social est à Strasbourg, 287, route de Colmar, et représentée par sa Présidente, Mme Patricia L., et en tant que de besoin par Mme L., demeurant, agissant en qualité de Présidente de l'Association « Les Cigognes » et tendant { l'annulation de la décision du 1er mars 1985 par laquelle le Commissaire de la République du Bas-Rhin a fait opposition, en application des dispositions de l'article 61 du Code civil local, { l'inscription 58 Toutefois cette dernière notion que certains ont comparée à celle de la participation du volontaire sain en matière d'expérimentation de médicament, n'exige-t-elle pas une vertu curative des techniques de procréation assistée ? 109 au registre des Associations, des statuts de l'Association « Les Cigognes » à Strasbourg, par les moyens :   Que l'article 353-1 du Code pénal n'est pas applicable { l'objet poursuivi par l'association, dès lors qu'il vise l'exposition et le délaissement d'enfants, { savoir agissements des oeuvres et des personnes privées ayant été amenées à provoquer des abandons d'enfants pour satisfaire ensuite les demandes d'adoption qui leur étaient faites ; que le « prêt d'utérus » se situe hors de ce domaine très précis ; Qu'il est inexact d'estimer que l'Association « Les Cigognes » tend à organiser la conclusion de contrats nuls au regard de l'article 1128 du code civil, dans la mesure où l'indemnisation forfaitaire envisagée pour la mère porteuse n'est pas le prix de l'enfant mais dédommage celle-ci des contraintes qui lui sont imposées ; Vu, enregistrée le 23 aout 1985, les observations présentées par le Ministre des Affaires Sociales et de la Solidarité Nationale et exposant :       Que l'opération, que l'association vise { promouvoir, parait devoir être réalisée au moyen d'une convention entre la femme, ou le couple stérile, et la mère porteuse en vertu de laquelle cette dernière s'engage { « abandonner l'enfant { naitre » tandis que la femme ou le couple stérile, s'engage { le recueillir ; que cette activité serait de nature à caractériser le délit ou la complicité du délit prévu { l'article 353-1 du code pénal ; Qu'une convention constitutive d'une infraction ne peut être, du point de vue civil, considérée que comme nulle et de nullité absolue ; Qu'en vertu de l'article 311-9 du même code dispose qu'il n'y a que les choses qui sont dans le commerce qui puissent être l'objet de convention ; que tel n'est pas le cas d'un enfant ; Que la nature et les justifications des sommes versées à la mère porteuse sont inopérantes au regard de la nullité absolue de la convention, contraire à la loi civile et à la loi pénale Que la loi sur l'adoption ne peut justifier, par analogie, de telles pratiques qui auraient au contraire pour conséquence de tourner cette législation, dans la mesure où elle a pour but de faire adopter des enfants déjà nés et dépourvus de parents, mais non de favoriser la conception d'enfants dans le seul but de les faire adopter ensuite Que l'alinéa 2 de l'article 61 du code civil local permet { l'autorité administrative de s'opposer { l'inscription lorsque l'association, d'après les règles du droit public sur le droit d'association, est illicite ou peut être interdite, ou lorsqu'elle fournit un but politique, social-politique ou religieux ; or le caractère illicite de l'Association « Les Cigognes » est démontré ; Vu, enregistré le 10 septembre 1985, le mémoire en défense présenté par le ministre de l'Intérieur et le da Décentralisation et tendant au rejet de la requête, par les moyens : 110    Que l'article 61 du code civil local confère { l'autorité administrative un pouvoir d'appréciation qui se définit généralement par rapport { la notion d'ordre public ; Que, contrairement { ce que soutient l'association requérante, les poursuites correctionnelles prévues { l'article 353-1 du code pénal ne sont nullement subordonnées { l'infraction d'exposition ou de délaissement d'enfants, ni limitées aux seules personnes ayant été amenées à provoquer des abandons d'enfants pour ensuite satisfaire les demandes d'adoption qui leurs étaient faites ; que l'activité de l'association est proscrite par les dispositions de l'article 353-1, 2 de ce code ; Que l'article 6 du code civil dispose qu' »on ne peut déroger, par des conventions particulières, aux lois qui intéressent l'ordre public et les bonnes moeurs » ; que, pour l'application de l'article 1128 du code civil, il convient de définir la chose hors du commerce juridique comme celle dont le transfert des droits est interdit par l'ordre public, la morale ou les motifs particuliers ; qu'il, est constant que les droits de la personne humaine sont hors du commerce ; qu'en l'état actuel du droit civil français, seule la femme qui engendre, en l'occurrence la mère porteuse, détient les droits de la mère légitime sur l'enfant né ou { naitre ; Vu, enregistré le 21 octobre 1985, le mémoire en réponse présenté pour l'Association « Les Cigognes » et tendant aux mêmes fins que sa requête par les mêmes moyens et par les motifs :    Que la décision du Conseil constitutionnel du 16 juillet 1971, selon laquelle, à l'exception des mesures susceptibles d'être prises { l'égard de catégories particulières d'associations, la constitution d'une association, alors même qu'elle paraitrait entachée de nullité ou aurait un objet illicite, ne peut être soumise par sa validité { l'intervention préalable de l'autorité administrative ou même de l'autorité judiciaire, s'impose en l'espèce ; que le préfet ne peut faire usage des pouvoirs que lui confère l'article 61 du code civil pour des motifs étrangers aux nécessités de l'ordre public Que l'Association Nationale de l'Insémination Artificielle par Substitution n'a fait l'objet d'aucune interdiction de la part des pouvoirs publics ; qu'il apparait opportun de déclarer la décision présentement attaquée entachée d'une erreur de droit ; Qu'{ titre subsidiaire, l'article 353-1 du code pénal peut être invoqué { l'encontre d'une association qui poursuit un but non lucratif ; qu'il n'y a pas de contrat au sens civiliste du terme ; que l'indemnisation forfaitaire de la mère de substitution est justifiée, soustrait l'opération aux lois du marché et la place hors du commerce ; qu'aucun texte n'interdit actuellement le prêt d'utérus ; Vu, enregistrées le 21 octobre 1985, les observations du Garde des Sceaux, ministre de la Justice, qui déclare s'associer au mémoire déposé par le ministre de l'Intérieur et de la Décentralisation ; 111 Vu, enregistré le 20 janvier 1986, le mémoire en réplique présenté par le ministre de l'Intérieur et de la Décentralisation e confirmant ses conclusions tendant au rejet de la requête, par les mêmes moyens et par les mêmes motifs :       Que l'appréciation portée par l'autorité judiciaire, notamment sur le respect par l'association des lois pénales, de l'ordre public et des bonnes moeurs, ne lie pas l'autorité administrative ; Que l'article 61 du code civil vise également le cas où l'association, quel que soit son but, est illicite d'après les règles du droit public sur le droit d'association ou peut être interdite ; que tel est bien le cas en l'occurrence ; Que la condition de l'esprit de lucre ait motivé les actions réprimées n'est pas exigée dans le cas visé { l'article 353-1, 2 du code pénal ; Qu'il existe bien en l'espèce, et l'association le reconnait, un accord passé, tacite ou moral ; que ceci suffit { l'existence d'un véritable contrat ; que la possibilité d'une éventuelle résiliation par la mère porteuse ne peut conduire { nier l'existence de l'accord consensuel d'origine ; Que les activités en cause ne sauraient relever de l'hypothèse d'amitié dans lesquelles les règles de droit ne pourraient être appliquées ; Que l'ordre public et la morale interdisent le transfert de droits sur la personne humaine ; VU la décision attaquée ; VU les autres pièces produites et jointes au dossier ; Vu les notes du greffe constatant la communication aux parties des requêtes, mémoires et pièces susvisés ; Vu les pièces et notes du greffe constatant que les parties ont été convoquées { l'audience ; Vu la loi du 28 pluviôse an VII, article 4 ; VU le code des tribunaux administratifs ; VU le code général des impôts ; VU le décret n° 65-29 du 11 janvier 1965 ; VU le code civil ; VU le code pénal ; VU la loi du 1er juin 1924 ; VU le code civil local ; VU la loi locale du 19 avril 1908 sur les associations ; Après avoir entendu { l'audience sue les associations : - Mlle Heers, conseiller, en son rapport ; - M. Kintz, Commissaire du Gouvernement, en ses conclusions ; Après avoir délibéré conformément à la loi :  Considérant que, par la requête susvisée, l'Association « Les Cigognes » demande l'annulation de la décision en date du 1er mars 1985 par laquelle le Commissaire de la République du Bas-Rhin a fait opposition à son inscription au registre des associations ; 112  Considérant que l'article 7 de la loi du 1er juin 1924 mettant en vigueur la législation civile française dans les départements du Haut-Rhin, du Bas-Rhin et de la Moselle a maintenu en application dans ces départements les dispositions du droit local relatives aux associations ; qu'en vertu desdites dispositions, les associations acquièrent la capacité juridique définie par ces dispositions par leur inscription à un registre tenu par le Tribunal d'Instance ;  Considérant qu'aux termes des dispositions du deuxième alinéa de l'article 61 du code civil local, lesquelles sont toujours en vigueur : « l'autorité administrative peut élever opposition contre l'inscription lorsque l'association, d'après les règles du droit public sur le droit d'association, est illicite ou peut être interdite ou lorsqu'elle poursuit un but politique, social-politique ou religieux » ; qu'aux termes de la loi local du 19 avril 1908 sur les associations : « tous les nationaux ont le droit de former des associations et de se réunir pourvu que leur but ne soit pas contraire aux lois pénales. Ce droit n'est soumis { aucune autre restriction de police que celles qui sont contenues dans la présente loi et dans d'autres lois » ; Qu'en vertu de ces textes, la liberté d'association est subordonnée notamment au respect des lois pénales ;  Considérant que, pour faire opposition, en application des dispositions sus rappelées du code civil local maintenues en vigueur par la loi susvisée du 1er juin 1924, relatives { l'inscription au registre des associations { Strasbourg des statuts de l'association dite « Les Cigognes », le Commissaire de la République du département du Bas-Rhin s'est fondé sur les dispositions de l'article 353-1 du code pénal réprimant l'incitation { l'abandon d'enfant et également sur celles de l'article 1128 du code civil relatives aux choses qui peuvent faire l'objet de conventions, ainsi que sur celles de la législation sur l'adoption dont le but est de faire adopter des enfants déjà nés et dépourvus de parents ;  Considérant qu'aux termes de l'article 353-1 du code pénal : « sera puni : 1) quiconque aura, dans un esprit de lucre, provoqué les parents ou l'un d'eux { abandonner leur enfant né ou à naitre ; 2) toute personne qui aura fait souscrire ou tenté de faire souscrire, par les futurs parents ou l'un d'eux, un acte aux termes duquel ils s'engagent { abandonner l'enfant { naitre, qui aura détenu un tel acte, en aura fait usage ou tenté d'en faire usage ; 3) quiconque aura, dans un esprit de lucre, apporté ou tenté d'apporter son entremise pour faire recueillir ou adopter un enfant » ;  Considérant qu'aux termes de ses statuts, l'association dite « Les Cigognes » a pour objet : 1) la défense des intérêts moraux et matériels des femmes qui se proposent d'aider une femme stérile en portant pour elle sa grossesse, 2) la promotion et la valorisation morale de cette démarche, 3) la recherche et la diffusion d'informations dans ce domaine 113 4) la mise en oeuvre de tous moyens susceptibles de concourir directement ou indirectement aux objets définis ci-dessus, ainsi qu'{ ceux qui pourraient apparaitre similaires ou connexes, appropriés aux objets définis ci-dessus ; QU'AINSI, PAR SON OBJET, L'ASSOCIATION, NECESSAIREMENT, SE CONSTITUE EN INTERMEDIAIRE ENTRE LA FEMME STERILE ET LA MERE DE SUBSTITUTION QUI S'ENGAGE A ABANDONNER L'ENFANT QU'ELLE PORTE, DES SA NAISSANCE, EN FAVEUR DE LA FEMME STERILE ; QUE CETTE ACTIVITE D'INTERMEDIAIRE COMPORTE NECESSAIREMENT L'EXISTENCE D'UN ACTE D'ENGAGEMENT, MEME S'IL EST SEULEMENT VERBAL OU MORAL. ; Que, dès lors, l'association dite « Les Cigognes » n'est pas fondée à soutenir que le Commissaire de la République du Bas-Rhin, en invoquant les dispositions de l'article 353-1, 2 du code pénal pour s'opposer { l'inscription au registre des associations de l'association dite « Les Cigognes » a excédé les pouvoirs qui sont les siens ; que, par suite, sa requête doit être rejetée. DECIDE ARTICLE 1er : la requête de l'Association « les Cigognes » est rejetée. ARTICLE 2 : le présent jugement sera notifié { l'Association dite « Les Cigognes », représentée par Madame L., Au ministre de l'Intérieur, Au Garde de Sceaux, ministre de la Justice, Au ministre des Affaires Sociales et Au Commissaire de la République du Bas-Rhin ___________________________ TRIBUNAL ADMINISTRATIF DE STRASBOURG BAS-RHIN – HAUT-RHIN – MOSELLE Le Commissaire du Gouvernement Association 'Les Cigognes » Le 12 juin 1986 114 En droit général, la constitution d'association ne peut être soumise pour sa validité { l'intervention préalable de l'autorité administrative ou même de l'autorité judiciaire. C'est ce qu'a rappelé, par une décision célèbre du 16 juillet 1971, le Conseil constitutionnel dans un considérant de principe ainsi formulé : « Considérant qu'au nombre des principes fondamentaux reconnus par les lois de la République et solennellement réaffirmés par le Préambule de la Constitution, il y a lieu de ranger le principe de la liberté d'association, que ce principe est { la base des dispositions générales de la loi du 1er juillet 1901 relative au contrat d'association ; qu'en vertu de ce principe, les associations se constituent librement et peuvent être rendues publiques sous la seule réserve du dépôt d'une déclaration préalable ; qu'ainsi, { l'exception des mesure susceptibles d'être prises { l'égard de catégories particulières d'associations, la constitution d'associations, alors même qu'elles paraitraient entachées de nullité ou auraient un objet illicite ne peut être soumise pour sa validité { l'intervention préalable de l'autorité administrative ou même de l'autorité judiciaire. » ∞∞∞∞ En droit local, il en va différemment. En effet, une association qui a son siège en AlsaceMoselle, doit subir, avant son inscription au registre des associations tenu par le tribunal d'instance un double examen : d'abord par le tribunal lui-même et ensuite par l'autorité administrative qui, en application de l'article 61 du code civil local, maintenu en vigueur par la loi du 1er juin 1924 : « peut élever opposition contre l'inscription lorsque l'association est illicite ou peut être interdite, d'après les règles du droit public des associations ou lorsqu'elle poursuit un but politique, social-politique ou religieux ». Ce double contrôle peut s'exercer sur les mêmes objets, aucune disposition n'attribuant une compétence spécifique { l'autorité judiciaire ou { l'autorité administrative. ∞∞∞∞ C'est ainsi que par la décision du 1er mars 1985, intervenue dans le délai de six semaines dont dispose l'administration pour prendre position, le Préfet du Bas-Rhin a fait connaitre au juge du Tribunal d'Instance de Strasbourg qu'il faisait opposition { l'inscription au registre des associations des statuts de l'association dite « Les Cigognes ». Cette association, créée par sept personnes conformément { l'article 56 du code civil local et dont curieusement une seule est domiciliée en Alsace-Moselle, s »engageait, par l'article 2 de ses statuts { s'abstenir de toutes activités politiques, et avait pour objet : 115 1 La défense des intérêts moraux et matériels des femmes qui se proposent d'aider une femme stérile en portant pour elle sa grossesse. 2 La promotion et la valorisation morale de cette démarche 3 La recherche et la diffusion d'informations dans ce domaine. 4 La mise en oeuvre de tous moyens susceptibles de concourir directement ou indirectement aux objets définis ci-dessus, ainsi qu'{ ceux qui pourraient apparaitre similaires ou connexes, appropriés aux objets définis ci-dessus. Le Préfet du Bas-Rhin a estimé, quant à lui que « la législation française rend la pratique des « locations d'utérus » illicite et passible de poursuites correctionnelles en vertu de l'article 353-1 du code pénal pour incitation { l'abandon d'enfant. « Par ailleurs, je considère cette association comme irrégulière également au point de vue civil. Elle tend en effet { organiser la conclusion de contrats mis au regard de l'article 1128 du code civil, puisqu'en vertu de cet article, seules les choses qui sont dans le commerce peuvent faire l'objet de conventions ; elle a aussi pour conséquence de tourner la législation sur l'adoption dans la mesure où cette institution a pour but de faire adopter des enfants déj{ nés et dépourvus de parents, mais non, de favoriser la conception d'enfant dans le seul but de les faire ensuite adopter ». ∞∞∞∞ Il n'est pas sans intérêt de constater que le Journal Officiel du 1er juillet 1983 rendait public la déclaration { la préfecture de police de Paris de l'Association Nationale de l'Insémination Artificielle par Substitution (A.N.I.A.S.) ayant pour objet : « Diffuser les progrès de la recherche médicale et paramédicale contre la stérilité et lutter pour que les femmes et les hommes stériles puissent assurer volontairement leur descendance ; lutter pour la reconnaissance des mères pas substitution et prendre en considération les conséquences sociales et culturelles ; agir pour la reconnaissance des droits des pères célibataires ». Il est vrai, nous l'avons dit, que la législation n'est pas la même dans les deux cas. Nous rappellerons, pour mémoire, que la capacité juridique des associations inscrites de droit local est beaucoup plus étendue que la capacité des associations déclarées de la loi de 1901, puisqu'elles peuvent recevoir des dons et legs, et surtout acquérir et posséder des immeubles autres que ceux qui sont nécessaires à la poursuite de leur but statutaire, alors que, dans le cadre de la loi 1901, même les associations reconnues d'utilité publique ne peuvent, sauf disposition particulière, posséder ou acquérir que les immeubles nécessaires au but qu'elles se proposent. ∞∞∞∞ 116 Par ailleurs, vous ne vous avancez pas en terrain inconnu puisque le Conseil d'Etat par un arrêt de Section du 25 juillet 1980 (ministre de l'Intérieur c/Eglise évangélique baptiste de Colmar) avec les conclusions de M. Galabert (A.J.D.A. de 1981 p. 207) a été amené à confirmer une jurisprudence antérieure de votre tribunal. Il en ressort que l'article 61 n'est pas incompatible avec notre constitution pour les raisons suivantes :  Le Conseil d'Etat répugne traditionnellement { se prononcer sur la constitutionnalité d'une disposition législative ;  La loi du 1er juillet 1901 sur les associations en droit général qui est un des fondements de la décision de 1971 du Conseil Constitutionnel n'a jamais été applicable en Alsace-Moselle ;  Une association inscrite, en droit local, à la même capacité juridique qu'une association reconnue d'utilité publique en vieille France, or l'obtention de ce label requiert des conditions et des obligations qui n'ont jamais été regardées comme portant atteinte { la liberté d'association. ∞∞∞∞ Comme nous l'avons exposé au départ, l'article 61 du code civil dont l'application ne saurait être mise en doute, malgré les critiques qui lui ont été adressées (cf. Notamment l'article du professeur Grosclaude à la R.D.P. de 1972 : « un vestige législatif ; les limitations à la liberté d'association en Alsace et en Lorraine »), distingue deux sortes d'associations :  Celles qui sont illicites ou qui peuvent être interdites d'après les règles du droit public des associations ;  Celles qui poursuivent un but politique, social-politique ou religieux. La jurisprudence précitée avait pour objet de limiter l'arbitraire préfectoral en exigeant dans cette seconde hypothèse, et malgré le silence du texte, des motifs tirés de l'ordre public pour justifier une opposition { l'inscription. Cette exigence n'est pas utile pour les associations de la première catégorie car le législateur, dès l'origine, avait posé des limites au bon vouloir de l'administration. Rajouter les limitations nouvelles tirées de l'ordre public { la liberté déj{ réglementée pour ces associations-là serait paradoxal. Nous estimons par conséquent que toute discussion relative au respect de l'ordre public est à écarter dans le cas qui nous occupe. Mais qu'appelle-t-on droit public des associations ? Nous ne pouvons invoquer le droit général : en effet, le principe de toute liberté associative posé par le Conseil Constitutionnel, outre qu'il empêcherait toute action du Préfet, n'est pas applicable en Alsace-Moselle, conformément à la jurisprudence citée. Reste un seul texte, la Loi d'Empire du 19 avril 1908 sur les associations qui dispose : 117 « Article 1 – Tous les nationaux de l'Empire, ont le droit de former des associations et de se réunir pourvu que leur but ne soit pas contraire aux lois pénales. Ce droit n'est soumis { aucune restriction de police que celles qui sont contenues dans la présente loi et dans d'autres lois d'Empire Article 2 – Une association dont le but est contraire aux lois pénales, peut être dissoute » Autrement dit, l'article 61 du code civil local renvoie au droit public des associations qui, en Alsace-Moselle, se limite au respect des lois pénales. Nous estimons, par suite, que toute discussion relative au respect des règles du code civil est à écarter. Le Préfet, nous l'avons vu, s'est fondé sur les dispositions de l'article 353-1 du code pénal. Selon ce texte, dans sa rédaction résultant de l'ordonnance n° 58.1298 du 23 décembre 1958 : « Sera puni de dix jours { six mois d'emprisonnement et de 500 { 20 000 F d'amende : 1) Quiconque aura, dans un esprit de lucre provoqué les parents ou l'un d'eux { abandonner leur enfant né ou à naitre ; 2) Toute personne qui aura fait souscrire, par les futurs parents ou l'un deux, un acte aux termes duquel ils s'engagent { abandonner l'enfant { naitre, qui aura détenu un tel acte, en aura fait usage ou tenté d'en faire usage ; 3) Quiconque aura, dans un esprit de lucre, apporté ou tenté d'apporter son entremise pour faire recueillir ou adopter un enfant. » ∞∞∞∞ Le droit pénal s'interprète très strictement ; il y a donc lieu de comparer les statuts de l'association aux dispositions sus-dénoncées. L'association « Les Cigognes » est une association sans but lucratif. Il est pour le moins hardi de prétendre, à la lecture des statuts, qu'un esprit de lucre figure dans son objet. N'ayant eu, jusqu'{ présent, aucune activité, l'association n'a pu provoquer un abandon d'enfant né ou { naitre, ni faire souscrire ou tenter de faire souscrire par les futurs parents un acte aux termes duquel ils s'engagent { abandonner l'enfant { naitre, ni détenir un tel acte, ni apporter ou tenter d'apporter dans un esprit de lucre son entremise. Quel est l'objet de l'association ? mettre en oeuvre tous les moyens susceptibles de concourir à la défense des intérêts moraux et matériels des mères de substitution, de promouvoir et de valoriser sur le plan moral cette démarche, de rechercher et diffuser les informations dans ce domaine ; Nous sommes loin, { mon avis, des dispositions de l'article 353-10 du code pénal ! Si d'aventure, l'association, ultérieurement, contrevenait aux lois pénales, elle pourrait bien évidemment être dissoute mais ce n'est pas le moment d'évoquer cette hypothèse qui n'est qu'éventuelle. 118 Ainsi donc, si vous nous suivez, vous jugerez que le Préfet, pour s'opposer { l'inscription de l'association, ne pouvait qu'invoquer les lois pénales, { l'exclusion de toutes autres, mais que celle qui sont avancées, ne sont pas susceptibles de s'appliquer en l'espèce eu égard { la rédaction peut-être habile des statuts. Agissant de la sorte, vous éviterez deux écueils sur le plan pratique. Le premier, celui d'éviter de vous transformer en juge pénal devant statuer avant toute exécution de faits éventuellement litigieux, même si, en principe, cette tâche incombe bien { l'administration, puis au juge administratif. Le second n'est peut-être pas très glorieux, mais il est, croyons-nous, empreint d'un sage réalisme que le juge administratif ne méconnait pas ordinairement. C'est d'éviter de prononcer ce qui est considéré, à tort ou à raison, comme une condamnation du recours aux mères de substitution. Il s'agit, en effet, d'une technique médicale que la loi française ignore pour l'instant. Ce procédé fait l'objet, sur le plan moral, des plus grandes interrogations. C'est ainsi que plusieurs colloques se sont tenus en 1985 : citons celui consacré à « Génétique, Procréation et Droit » (Actes Sud, Nyssen, éditeur) les 18 et 19 janvier 1985 sous la présidence du Garde des Sceaux ou bien le 15 novembre suivant, toujours à Paris, « Biologie, Morale et Droit ». ∞∞∞∞ La commission juridique et des droits des citoyens du Parlement Européen a procédé, en 1986, { des auditions d'experts sur les problèmes éthiques et juridiques de la génétique humaine. Le Conseil de l'Europe, lui-même, se préoccupe de ces questions puisqu'il a créé un comité ad hoc d'experts sur les progrès des sciences bio-médicales. Le Comité des ministres du Conseil de l'Europe a, d'une manière exceptionnelle, décidé de lever le caractère confidentiel des textes provisoirement rédigés par ce comité, conscient du fait (dit la brochure distribuée le 5 mars 1986 par les services du Conseil de l'Europe) que ce problème est un problème de société sue lequel les différents courants d'opinion dans les Etats membres sont partagés. Enfin, nous pouvons préciser que le Royaume-Uni a adopté le 16 juillet 1985 une loi relative au contrat de prêt d'utérus et qui réglemente certaines activités liées aux dispositions prises en vue de faire porter des enfants par des mères de substitution, et qui se contente d'ériger en infraction le fait, pour des intermédiaires rémunérés et des agences spécialisées, de rechercher, négocier et conclure des contrats concernant des mères porteuses de substitution. ∞∞∞∞ 119 Devant tout ce questionnement, nous nous garderons bien d'esquisser une réponse précise. Mais la solution de pure technique juridique que nous vous suggérons permettrait précisément de ne pas trancher prématurément. Pour l'ensemble de ces raisons, nous concluons { l'annulation de la décision attaquée. _________________________________________________________________________________________________________ Décision du Conseil d'Etat rendu le 22 janvier 1988 CONSEIL D'ETAT Décision du 22 janvier 1988 Conseil d'Etat statuant au contentieux N° 80936 Assemblée Association "Les Cigognes" M Bouchet, Rapporteur M Stirn, Commissaire du gouvernement M Long, Président Lecture du 22 Janvier 1988 REPUBLIQUE FRANCAISE AU NOM DU PEUPLE FRANCAIS Vu la requête sommaire et le mémoire complémentaire enregistrés les 4 août 1986 et 4 décembre 1986 au secrétariat du Contentieux du Conseil d'Etat, présentés pour l'association "LES CIGOGNES", dont le siège social est 287, route de Colmar à Strasbourg-Meinan (67100), agissant par sa présidente Mme Patricia Lavisse, et tendant à ce que le Conseil d'Etat : 1°) annule le jugement du 17 juin 1986 par lequel le tribunal administratif de Strasbourg a rejeté sa demande tendant à l'annulation de la décision du 1er mars 1985 du commissaire de la République du Bas-Rhin faisant opposition, en application des dispositions de l'article 61 du code civil local, à l'inscription de ladite association au registre des associations ; 2°) annule cette décision ; Vu les autres pièces du dossier ; Vu le code pénal, notamment en son article 353-1 ; 120 Vu la loi du 1er juillet 1901 ; Vu la loi du 1er juin 1924 ; Vu le code civil local et la loi locale du 19 avril 1908 sur les associations ; Vu le code des tribunaux administratifs ; Vu l'ordonnance du 31 juillet 1945 et le décret du 30 septembre 1953 ; Vu la loi du 30 décembre 1977 ; Après avoir entendu : - le rapport de M Bouchet, Conseiller d'Etat, - les observations de la SCP Rouvière, Lepitre, Boutet, avocat de L'ASSOCIATION "LES CIGOGNES", - les conclusions de M Stirn, Commissaire du gouvernement ; Considérant que l'article 7 de la loi du 1er juin 1924, mettant en vigueur la législation civile française dans les départements du Haut-Rhin, du Bas-Rhin et de la Moselle, a maintenu en application dans ces départements les articles 21 à 79 du code civil local "ainsi que toutes autres dispositions sur les associations" ; Considérant que, selon l'article 21 du code précité, les associations acquièrent la "capacité de jouissance des droits" par l'inscription au registre tenu à cet effet par le tribunal d'instance ; qu'en vertu de l'article 61, l'autorité administrative, représentée par le préfet, commissaire de la République, peut s'opposer à cette inscription notamment "lorsque l'association, d'après les règles du droit public sur le droit d'association, est illicite ou peut être interdite" ; Considérant que le maintien en vigueur de la législation locale sur les associations procède de la volonté du législateur ; que si, postérieurement à la loi précitée du 1er juin 1924, les préambules des constitutions des 27 octobre 1946 et 4 octobre 1958 ont réaffirmé les principes fondamentaux reconnus par les lois de la République, au nombre desquels figure la liberté d'association, cette réaffirmation n'a pas eu pour effet d'abroger implicitement les dispositions de ladite loi ; Considérant qu'il résulte des dispositions combinées de l'article 61 précité du code civil local et des articles 1 et 2 de la loi locale du 19 avril 1908 sur les associations , qui autorisent la formation des associations "pourvu que leur but ne soit pas contraire aux lois pénales", que l'illicéité d'une association, sur laquelle le représentant de l'Etat peut se fonder pour s'opposer à l'inscription de ladite association doit être appréciée au regard des seules règles du droit public constituées par les lois pénales ; Considérant qu'aux termes de l'article 353-1 du code pénal : "Sera puni 1°) Quiconque aura, dans un esprit de lucre, provoqué les parents ou l'un d'eux à abandonner leur enfant né ou à naître ; 2°) Toute personne qui aurait fait souscrire ou tenté de faire souscrire, par les futurs parents ou l'un deux, un acte aux termes duquel ils s'engagent à abandonner l'enfant à naître, qui aura détenu un tel acte, en aura fait usage ou tenté d'en faire usage ; 3°) Quiconque aura, dans un esprit de lucre, apporté ou tenté d'apporter son entremise pour faire recueillir ou adopter un enfant" ; Considérant qu'aux termes de l'article 2 de ses statuts, l'association dite "LES CIGOGNES" a pour objet : "1°) la défense des intérêts moraux et matériels des femmes qui se proposent d'aider une femme stérile en portant pour elle sa grossesse ; 2°) la promotion et la valorisation morale de cette démarche ; 3°) la recherche et la diffusion d'informations dans ce domaine ; 4°) la mise en oeuvre de tous moyens susceptibles de concourir directement ou indirectement aux objets définis ci-dessus" ; Considérant qu'il ressort du texte même de cet article que l'association n'a pas, contrairement à ses allégations, un objet limité à la seule défense des intérêts de ses membres, mais qu'elle s'est constituée également, comme l'a relevé le commissaire de la République, "afin de promouvoir et mettre en oeuvre l'activité des mères de substitution" ; qu'il résulte en outre des pièces du dossier que l'association fait partie d'un ensemble comprenant également une association de couples stériles dite Sainte-Sarah, une "banque de sperme" dénommée "CEFER", dont le rôle est notamment de "sélectionner" les futures mères avant de réaliser leur insémination, et une "structure intermédiaire de gestion" dénommée Alma Mater, chargée de gérer "les problèmes pratiques, notamment comptables" en recevant en dépôt la "compensation financière" à verser à la mère "lorsque tout est terminé", en vertu du "contrat sui generis" que constituerait le "prêt d'utérus" ; Considérant que l'association requérante a ainsi pour objet de favoriser le développement et de permettre la réalisation de pratiques selon lesquelles une femme accepte de concevoir un enfant par insémination artificielle en vue de céder, dès sa naissance, l'enfant qu'elle aura ainsi conçu, porté et mis au monde à une autre femme ou à un couple ; que de telles pratiques comportent nécessairement un acte, quelle qu'en soit la forme, aux termes duquel l'un des parents s'engage à abandonner un enfant à naître ; que dès lors, en se fondant sur les dispositions de l'article 353-1-2° du code pénal, pour s'opposer par décision du 1er mars 1985 à l'inscription de l'Association "LES CIGOGNES", le préfet, commissaire de la République du Bas-Rhin n'a pas excédé les pouvoirs qu'il tient des dispositions législatives précitées ; qu'il s'ensuit que ladite association n'est pas fondée à soutenir que c'est à tort que, 121 par le jugement attaqué, qui est suffisamment motivé, le tribunal administratif de Strasbourg a rejeté sa demande tendant à l'annulation de cette décision ; DECIDE : Article ler : La requête de l'Association "LES CIGOGNES" est rejetée. Article 2 : La présente décision sera notifiée à l'Association "LES CIGOGNES", au Garde des sceaux, ministre de la justice, au ministre de l'intérieur et au ministre des affaires sociales et de l'emploi. Publication : Publié au Recueil Lebon Recours : Recours pour excès de pouvoir Décision attaquée : Tribunal administratif de Strasbourg, 17 juin 1986, confirmation Deux ans plus tard, sur le terrain judiciaire, la cour d'appel de Paris ayant rendu le 15 juin 1990 un arrêt inattendu et favorable à un couple stérile qui avait eu recours au docteur Geller et { l'association « Alma mater », le parquet fit immédiatement un pourvoi en cassation dans l'intérêt de la loi. Arrêt rendu en assemblée plénière par la Cour de Cassation le 31 mai 1991 dans l' «intérêt de la loi » Cour de cassation Assemblée plénière Audience publique du 31 mai 1991 N° de pourvoi: 90-20105 Publié au bulletin Premier président : M. Drai, président Rapporteur : Mme Giannotti, M. Chartier, conseiller apporteur Premier avocat général : M. Dontenwille, avocat général REPUBLIQUE FRANCAISE AU NOM DU PEUPLE FRANCAIS . 122 Sur le pourvoi dans l'intérêt de la loi formé par M. le Procureur général près la Cour de Cassation : Vu les articles 6 et 1128 du Code civil, ensemble l'article 353 du même Code ; Attendu que, la convention par laquelle une femme s'engage, fût-ce à titre gratuit, à concevoir et à porter un enfant pour l'abandonner à sa naissance contrevient tant au principe d'ordre public de l'indisponibilité du corps humain qu'à celui de l'indisponibilité de l'état des personnes ; Attendu selon l'arrêt infirmatif attaqué que Mme X, épouse de M. Y, étant atteinte d'une stérilité irréversible, son mari a donné son sperme à une autre femme qui, inséminée artificiellement, a porté et mis au monde l'enfant ainsi conçu ; qu'à sa naissance, cet enfant a été déclaré comme étant né de Y, sans indication de filiation maternelle ; Attendu que, pour prononcer l'adoption plénière de l'enfant par Mme Y, l'arrêt retient qu'en l'état actuel des pratiques scientifiques et des moeurs, la méthode de la maternité substituée doit être considérée comme licite et non contraire à l'ordre public, et que cette adoption est conforme à l'intérêt de l'enfant, qui a été accueilli et élevé au foyer de M. et Mme Y pratiquement depuis sa naissance ; Qu'en statuant ainsi, alors que cette adoption n'était que l'ultime phase d'un processus d'ensemble destiné à permettre à un couple l'accueil à son foyer d'un enfant, conçu en exécution d'un contrat tendant à l'abandon à sa naissance par sa mère, et que, portant atteinte aux principes de l'indisponibilité du corps humain et de l'état des personnes, ce processus constituait un détournement de l'institution de l'adoption, la cour d'appel a violé les textes susvisés ; PAR CES MOTIFS : CASSE ET ANNULE, mais seulement dans l'intérêt de la loi et sans renvoi, l'arrêt rendu le 15 juin 1990 par la cour d'appel de Paris. REQUETE DE M. LE PROCUREUR GENERAL PRES LA COUR DE CASSATION. Le Procureur général près la Cour de Cassation a l'honneur d'exposer : - Que, par jugement du 28 juin 1989, le tribunal de grande instance de Paris a rejeté la requête présentée par Mme X, épouse Y, tendant à l'adoption plénière de l'enfant Z déclarée comme étant née de M. Y, mari de la requérante, sans indication de filiation maternelle ; - Que, pour ne pas faire droit à cette requête, les premiers juges ont retenu que les époux Y, pour remédier à la stérilité de leur couple, avaient eu recours à l'association Alma Mater, aujourd'hui dissoute, l'enfant étant né d'une mère de substitution qui l'a abandonné à la naissance, pratique déclarée illicite ; - Que sur appel de Mme Y, la première chambre civile, section C, de la cour d'appel de Paris, a, par arrêt du 15 juin 1990, infirmé la décision entreprise et prononcé l'adoption plénière sollicitée par la requérante ; - Qu'au soutien de leur décision devenue définitive, les juges du second degré ont tiré de nos principes généraux relatifs à la filiation, des règles d'ordre public concernant les contrats et de certaines conventions ou déclarations internationales, des conclusions contraires à celles auxquelles était parvenue votre première chambre civile de la Cour de Cassation qui, dans un cas de figure pratiquement identique, a, par arrêt du 13 décembre 1989 (association Alma Mater contre procureur général Aix-enProvence) reconnu le caractère illicite de la maternité pour autrui et les associations qui s'efforcent de la promouvoir ; - Qu'il importe en cette matière particulièrement sensible, qui touche à un délicat problème de société et d'éthique, que soit mis fin à des divergences jurisprudentielles majeures et que la sécurité juridique soit assurée. PAR CES MOTIFS : Vu l'article 17 de la loi du 3 juillet 1967 relative à la Cour de Cassation ; Requiert qu'il plaise à la Cour de Cassation ; CASSE ET ANNULE, sans renvoi et dans le seul intérêt de la loi l'arrêt rendu le 15 juin 1990 par la cour d'appel de Paris ayant fait droit à la requête en adoption plénière présentée par Mme X, épouse Y 123 Publication : Bulletin 1991 A.P. N° 4 p. 5 Décision attaquée : Cour d'appel de Paris, du 15 juin 1990 11 BIBLIOGRAPHIE                               H. CAILLAVET, « La Semence et la loi », in Le Monde, 19 juin 1985. J. CARBONNIER, « Droit civil, Introduction – Les personnes », 15ème éd., 1984. Comité WARNOCK, « Fécondation et Embryologie Humaine », La Documentation Française, 1985. K. COTTON, « For love and money », London, Dorling Mindersley éd. 1985. G. DELAISI DE PARCEVAL et ALAN JANAUD, « L'Enfant { tout prix », Seuil, 1983. G. DELAISI DE PARCEVAL, « Entendre la stérilité », in Projet, 1985, n° 195, pp.115 et s. E. DELEURY, « Le corps humain, personnalité juridique et famille en droit canadien », in Travaux ass. H. CAPITANT, 57, 1975. M. D'ONORIO, « biographie morale et droit », Rapport introductif VI, coll. Juristes Catho. 15-17 novembre 1985, JCP 1986-11, 3261. F. DREIFUSS-NETTER, « Le désir d'enfant face au droit pénal », Rev. Sciences Crim., 1986, p. 275. E. FAURE, « au nom de quoi le fer rouge ? », in Le Monde, 19 avril 1985. R. FRYDMAN, « L'irrésistible désir de naissance », P.U.F., 1986. H. FULCHIRON, « autorité parentale et parents désunis », C.N.R.S., Lyon, 1985, p. 192. S. GELLER, « Mère porteuse, un projet de réglementation » in Le Quotidien de Médecin, 6 octobre 1986. F. GIRAUD, « Droit et procréation artificielle », in Regard sur l'actualité, La Documentation Française, n° 177, janvier 1986. « Les mères porteuses ont-elles le droit de s'associer ? » in Le Monde, 16 octobre 1986. « Maternité de substitution : quel contrat ? », Communication. Colloque Sienne, 23-28 juin 1986 (Hasting Center). M. GOBERT, « Les incidences juridiques du progrès des sciences biologiques et médicales sur le droit des personnes », in Actes du Colloque « Génétique, procréation et droit », Paris, Actes Sus, 1985. Ph. GRANET, « Ethique médicale et F.I.V. », in Bioéthique et désir d'enfant, Dialogue, 1er février 1985. HER MAJESTY'S STATIONELY OFFICE, « Report of the committee of inquiry into common fertilisation and embryology », London, 1984. P. JOUANET et R. FRYDMAN, « Les procréations artificielles » in Le Monde, 13 mai 1985. N. KEANE, « The surrogate Parenting contract », Clinical research institue of Montréal, 1985. C. LABRUSSE, « Aspects juridiques de la maternité de substitution », Paris, com. Consult. Nat. éth. 23 octobre 1984. M-G. LIBAUDIERE, « Un acte d'amour », éd. La Table Ronde, 1984. L. MELENNEC, « Traité de droit médical », tome 2, éd. Maloine, Paris, 1982. M. NOLIN, « Réflexions juridiques sur le phénomène des femmes porteuses d'enfants », éd. Y. Blais, inc. Montréal, 1986. Richard N. OSTLING, « Technology and the womb », in « Time », 23 mars 1987. J. PENNEAU « La responsabilité médicale », Paris, 1977. J. RUBELLIN –DEVICHI, « La gestation pour le compte d'autrui », D 1984, ch. P. 147. SOFRES, Enquête, « Les français face aux nouveaux moyens de procréer », in Le Monde, 22 juillet 1985. J. TESTART, « L'oeuf transparent », éd. Flammarion, 1986. VAN HOFTEN E.L., « Surrogate motherhood in California legislatives proposals », 1981/5, 18 San Diego L Rev. 341. Vers la procréatique, Projet n° 195, 1984. WALLIS, « The new origins of life », Time, n° 9, 1984. 124  WEEKEND ATLANTA JOURNAL, « Surrogate's friends testify she's a loving mother », 7 février 1987. 125
{'path': '61/hal.archives-ouvertes.fr-hal-01329458-document.txt'}
Evolution temporelle du champ magnétique lunaire Camille Lepaulard To cite this version: Camille Lepaulard. Evolution temporelle du champ magnétique lunaire. Planète et Univers [physics]. Aix-Marseille Université, 2018. Français. tel-02135982 HAL Id: tel-02135982 https://hal.archives-ouvertes.fr/tel-02135982 Submitted on 21 May 2019 UNIVERSITE D'AIX-MARSEILLE ED 251 – Sciences de l'environnement CEREGE / UMR 7330 Thèse présentée pour obtenir le grade universitaire de docteur Spécialité : Géosciences de l'environnement Camille LEPAULARD Evolution temporelle du champ magnétique lunaire Temporal evolution of the lunar magnetic field Soutenue le 28/11/2018 devant le jury : Mme France LAGROIX Mme Sonia TIKOO Mme Mireille PERRIN M. Pierre ROCHETTE M. Mark WIECZOREK M. Jérôme GATTACCECA IPGP, CNRS, Paris Rutgers University, N.J, USA CEREGE, CNRS, Aix-en-Pce CEREGE, AMU, Aix-en-Pce OCA, CNRS, Nice CEREGE, CNRS, Aix-en-Pce Rapporteur Rapporteur Examinatrice Examinateur Examinateur Directeur de thèse Numéro national de thèse/suffixe local : 2018AIXM0414/039ED251 « That's one small step for man, one giant leap for mankind » Neil Amstrong July 21th, 1969 Evolution temporelle du champ magnétique lunaire 1 2 Evolution temporelle du champ magnétique lunaire Remerciements Remerciements Je crois que le fait d'écrire mes remerciements me fait enfin prendre conscience que ma thèse prend fin. Le temps est passé si vite que je suis déjà nostalgique que cette aventure prenne fin et de quitter ce laboratoire. Je crois que les pages qui suivront contiendront le plus grand nombre de « merci » jamais lu en dehors d'une thèse, donc merci au lecteur qui aura pris le temps de lire ces remerciements. Je souhaite remercier toutes les personnes qui ont participé de près ou de loin à mes travaux de thèse durant ces trois années et que j'aurai omis de mentionner (ne m'en voulez pas, j'ai fait une liste pourtant). Mes touts premiers remerciements vont aux astronautes des missions Apollo, et à toute l'équipe derrière ces missions, qui ont permis le retour des échantillons lunaires sur Terre, et qui ont constitué le coeur de ma thèse. Sachez également que nous célébrons cette année 2018 les 60 ans de la NASA, institut à l'origine de ces missions (merci !). Je ne pourrais continuer mes remerciements sans mentionner mon directeur de thèse, Jérôme Gattacceca, sans qui tout ceci n'aurait eu lieu. Merci pour ta confiance, ta patience, tes conseils, ta bonne humeur, tes nombreuses corrections d'articles, de manuscrit, de PowerPoint (et ce n'est pas fini !). Merci de m'avoir formé pendant 3 ans, d'avoir mesuré pour moi 2 échantillons au MIT et de m'avoir confié ces bouts de Lune (je crois que je ne réaliserai jamais vraiment avoir tenu des roches Apollo dans ma main, via un gant). Je te remercie de m'avoir permis de voyager autant pendant ces 3 années (Houston, la NouvelleOrléans, Münster, Rutgers, Cargèse, Toulouse, Grenoble), ce fut de super moments et de belles opportunités. Je me rappellerai toujours cette journée où tu m'as dit que l'on irait à la NASA pour analyser les échantillons lunaires, comme si tu me parlais de la météo. Aller à la NASA fut l'un des moments les plus inoubliables et remarquables de ces 3 ans. Merci 1 969 fois (les initiées comprendront). Je tiens également à remercier mes deux rapporteurs, Sonia Tikoo et France Lagroix, qui ont accepté de relire et de juger avec attention ce manuscrit. Merci aux autres membres de mon jury de thèse Mireille Perrin, Mark Wieczorek et Pierre Rochette d'avoir accepté de faire partie de ce jury, de juger et critiquer mon travail, mais aussi pour leurs conseils à l'issue de cette soutenance. Mes analyses au laboratoire n'auraient été aussi efficaces sans l'aide de François Demory. Merci de m'avoir expliqué maintes fois le fonctionnement des appareils, de m'avoir conseillé, écouté et d'avoir relu mon travail. Merci pour ces nombreuses pauses café qui vont me manquer et pour ces moments de rigolades. Merci également à Yoann Quesnel et Minoru Uehara pour leurs collaborations, leurs conseils. Merci à Gwenaël Hervé pour ses conseils, ses relectures, nos discussions. Merci à Quentin Simon pour nos discussions à la Nouvelle Orléans et dans les couloirs du labo. Encore merci à Pierre Rochette qui, je me rappelle en fin de stage de Licence 3, m'avait dit : « tu reviendras en thèse ». Je n'aurais jamais cru boucler la Evolution temporelle du champ magnétique 3 Remerciements boucle au CEREGE. Merci à Nicolas Thouveny et à toute l'équipe de magnétisme de m'avoir accueillie au laboratoire. Je souhaite remercier l'Université Aix Marseille et l'ANR MagLune pour les financements de ma thèse. Un grand merci au personnel administratif (Aurore, Isabelle, Noémie, Patricia, Hadja, Hajer) pour leur aide au long de ces trois ans. Merci également à Bertrand Devouard et Julien Longerey pour m'avoir aidé à réaliser les cartes des échantillons au MEB, merci à Thibaut de Garidel-Thoron et Corinne Sonzogni de m'avoir faite participer à la fête de la science, ce fut une super expérience. Encore merci à Sonia Tikoo pour son très bon accueil dans son laboratoire de magnétisme à Rutgers et nos discussions sur les échantillons de Lune. Merci de m'avoir fait découvrir les environs et de m'avoir donné envie de revenir. Merci à Ryan Zeigler et Andréa Mosie pour leur accueil au Johnson Space Center, (la NASA), le prêt des échantillons Apollo, l'accès à la salle de stockage des échantillons et la visite du JSC. Ma thèse a été associée à l'ANR Maglune, ce qui m'a permis de rencontrer une fois par an les autres membres de cette ANR. Merci à Mark Wieczorek pour sa participation dans mon comité de thèse, en plus d'être dans mon jury ; merci à David Cébron pour ses conseils sur la dynamo lunaire et les éclaircissements apportés à ce propos et pour cette collaboration d'article. Merci à Ben Weiss pour son aide et pour la datation indirecte des échantillons. Merci également à Joana Oliveira et Mathieu Laneuville pour nos discussions lors des réunions MagLune (Joana, mon chat va toujours aussi bien). Lors de ma seconde année de thèse, j'ai pu faire un contrat de valorisation scientifique. Merci à Frank Torre pour cette année originale, à Fy Raveloarisoa et Ana Torquet pour le côté administratif et logistique. Grâce à ce projet, j'ai pu participer aux cordées de la réussite à Barcelonnette. Merci à Olivier Bellier pour cette jolie collaboration, à Fabrice Jestin pour le logement à Séolane et aux enseignants du lycée de Barcelonnette pour leur participation à ce projet. Au cours de ces 3 ans, j'ai croisé la route de nombreuses personnes. Merci à Christina Verhagen de ta visite chez nous et de ta bonne humeur, vivement que l'on se revoit. Un grand merci à Cécile Cournède, 1ère initiatrice au magnétisme, encadrante de mon 1er stage de Licence 3 au CEREGE. Merci pour tous tes conseils, nos discussions depuis 5 ans (déjà !) et de m'avoir transmis ce truc qui a fait que je ne me suis jamais vue faire autre chose que du magnétisme depuis ce printemps 2013. J'ai hâte de te revoir de nouveau. Merci à Myriam Kars que j'ai rencontré à l'AGU, française au Japon et qui a vécut à 5 min de chez moi. Merci pour tes conseils et pour ces moments très sympa à NOLA. Ne faisant plus partie du CEREGE, je peux remercier Amandine Sartégou ici. Un grand merci pour notre collaboration aux cordées et nos ballades à Barcelonnette (et arrêts à la fromagerie, au parc animalier de Serre Ponçons et la rencontre avec Dakota), nos visites à NOLA et la découverte du Jazz, des 4 Evolution temporelle du champ magnétique Remerciements spécialités créoles, du brunch-Jazz, des beignets, du Bayou, du Mississippi, du fameux meeting AGU, de l'alligator, du French Quarter et j'en passe. Je tiens à remercier mes co-bureaux passés et actuels : Nicolas (le plus ancien) jamais stressé (j'ai presque stressé pour toi), qui m'a supporté ces 3 années mais on aura bien rigolé ; Gabrielle, ATER de passage pendant 1 an au bureau et Brina pour ton soutien « entre filles » dans cette équipe très masculine, on aura aussi bien rigolé. Merci à Lisa, petite nouvelle arrivée début Octobre avec qui j'ai bien rigolé en cette fin de thèse. Nous avons reformé le bureau de filles pendant 2 mois ! Merci de ta gentillesse et de ton soutien. Merci aux doctorants qui ont partagé de près ou de loin ces 3 années de thèse : Amandine et Marie avec qui j'ai fait ces 3 ans (courage pour la fin), pour nos soirées, nos sorties cinéma, nos visites de la région, nos discussions et soutien mutuel (surtout au yoga), nos rigolades (« il faut rafraîchir les maquignons »). Ce fut 3 années riches en émotions mais rendues très agréables surtout grâce à vous 2. On aura formé un super trio et vous m'avez soutenue comme jamais ! Merci aussi à Frank, Céline, Hamed qui ont déjà fini. Jonathan, Benjamin, Nicolu, Clément, Agathe, Sébastien, Solène qui finissent bientôt (si, si, ça passe vite) et Didier (déjà permanent). Je voudrais remercier mes amies de toujours Anaïse, Clarisse, Sylviane pour leur soutien depuis toujours (le lycée mais c'est tout comme). Ce fut dur de ne plus se voir aussi souvent durant ces 3 ans mais vous avez toujours été là et je vous en remercie. Merci à Chloé que l'on voit pour nos visites à Paris ou sur Tours à Noël, à Marseille quand c'est toi qui viens. Merci à Steph et Laure pour votre soutien, nos rigolades, nos soirées, nos longues discussions même si vous êtes parties loin voire revenues. Merci à ma famille pour votre soutien de près ou de loin, les relectures de dernière minute (il en reste encore !) ; à ma bellefamille pour leur soutien et leur aide ; à mon chat Kaori pour ses câlins et ses conversations en miaou (je parle officiellement 3 langues). Enfin je remercie mon futur époux, Guillaume, pour tout. Ton soutien, ton amour, tout ce qui a été et sera. Merci. Evolution temporelle du champ magnétique 5 Remerciements 6 Evolution temporelle du champ magnétique Résumé Résumé Il est établi que la Lune a eu par le passé un champ généré par une dynamo interne. Cependant, les mécanismes à l'origine et permettant le maintien de la dynamo sont encore mal connus. La durée de ce champ magnétique est encore débattue. Mon travail de thèse a consisté tout d'abord à une caractérisation magnétique (aimantation naturelle et susceptibilité magnétique) d'une grande partie de la collection Apollo avec l'étude des masses principales de 161 roches. Le contrôle de la susceptibilité magnétique par la lithologie via l'incorporation du métal météoritique a été confirmé. Le rapport aimantation naturelle sur susceptibilité a été utilisé comme indicateur grossier de la paléointensité. Ces résultats, cohérents avec les deux grandes époques du champ magnétique lunaire (époque de fort champ avant ~3.5 Ga et champ de quelques μT seulement ensuite), ont permis de faire une sélection d'échantillons pour des analyses paléomagnétiques détaillées en laboratoire qui ont constitué la seconde partie de mon travail. J'ai étudié en laboratoire l'aimantation naturelle de 25 échantillons Apollo et 2 météorites lunaires. Différentes techniques ont permis d'obtenir 8 valeurs de paléointensités (entre 1 et 47 μT) et 7 limites supérieures de paléointensités (entre 10 et 30 μT), pour des roches d'âge varié. Ces données ont été couplées aux âges radiométriques (existants et nouvellement acquis) pour retracer l'évolution du champ de surface lunaire au cours du temps. Les résultats corroborent l'existence d'une période de champ fort entre 4 et 3.5 Ga et prolonge cette période jusqu'à environ 3 Ga. Les paléointensités > 1 μT que nous obtenons à 1 Ga et jusqu'à et 0.5 Ga indiquent un arrêt très tardif de la dynamo. D'autre part, quelques paléointensités <10 μT sont également obtenues dans l'époque de champ fort, suggérant une valeur de champ moyen plus faible que proposé précédemment dans la littérature. Cette étude permet ainsi de mieux contraindre l'évolution temporelle du champ magnétique lunaire. Evolution temporelle du champ magnétique 7 Résumé 8 Evolution temporelle du champ magnétique Résumé Abstract It is admitted that the Moon used to have a magnetic field, generated by an internal dynamo. However, the mechanisms responsible for the dynamo and its preservation are still poorly known today. The lifetime of the magnetic field is also debated. My thesis was focused first on the magnetic characterization (natural magnetization and magnetic susceptibility) of a large part of the Apollo collection, with the study of 161 main masses of Apollo rocks. Control of the magnetic susceptibility by the lithology was confirmed, caused by the incorporation of meteoritic metal into the rock. In the second part, i used the ratio of the natural magnetization to the magnetic susceptibility to obtain an approximate indicator of paleointensity. Results of this ratio were coherent with the two major epochs determined in the lunar magnetic field (high field epoch before ~3.5 Ga and a weak field epoch after) and allowed me to select samples for detailed paleomagnetic analyses in another part of my thesis. Then, I studied in laboratory the natural magnetization of 25 Apollo samples and 2 lunar meteorites. Different methods were used to obtain 8 paleointensities values (between 1 and 47 μT) and 7 upper limits of paleointensity (between 10 and 30 μT), at different times of the magnetic field evolution. These data were coupled with radiometric ages to trace the evolution of the lunar surface field over time. These results corroborate the existence of a strong field epoch between 4 and 3.5 Ga and extend this epoch until ~3 Ga. Paleointensities of values > 1 μT obtained at 1 Ga and until 0.5 Ga indicates a very late interruption of the dynamo. On the other hand, weak paleointensities were obtained in the high field epoch, suggesting a value of average field lower than previously proposed in literature. This study allows to better constrain the temporal evolution of the lunar magnetic field. Evolution temporelle du champ magnétique 9 Résumé 10 Evolution temporelle du champ magnétique Tables Table des matières Remerciements 3 Résumé 7 Table des matières 11 Table des figures 13 Table des tableaux 15 Introduction générale 17 Chapitre 1 : La Lune, notre satellite 21 1.1 1.1.1 1.1.2 1.1.3 1.2 1.2.1 1.2.2 1.2.3 1.2.4 1.3 1.3.1 1.3.2 1.3.3 L'exploration lunaire 21 Observations et explorations 21 Retour d'échantillons 22 Les missions Apollo 25 La Lune aujourd'hui 26 Caractéristiques générales 26 Structure interne 26 Structure externe 28 Géologie et classification 30 Evolution de la Lune 34 Formation et différenciation de la Lune 34 Chronologie de la surface lunaire 35 Discussion sur la stratigraphie 37 Chapitre 2 : Le champ magnétique lunaire 41 2.1 2.2 2.2.1 2.2.2 2.2.3 2.3 2.3.1 2.3.2 2.4 2.5 Généralités 41 Origine du champ magnétique lunaire 44 Champ magnétique par dynamo 44 Champ magnétique par impacts 45 Champ magnétique crustal 45 Mécanismes à l'origine de la dynamo lunaire 47 Origine mécanique 47 Origine convective 48 Evolution du champ magnétique et incertitudes 49 Conclusion 55 Chapitre 3 : Matériel d'étude et méthodes en magnétisme 57 3.1 3.1.1 3.1.2 3.1.3 3.1.4 3.2 3.2.1 3.2.2 Échantillons lunaires 57 Description des échantillons analysés au Johnson Space Center 58 Description des échantillons analysés en laboratoire 59 Datation des échantillons 60 Préparation des échantillons en laboratoire 61 Magnétisme des roches lunaires 62 Propriétés magnétiques de l'atome à la roche 62 Minéraux magnétiques lunaires 64 Evolution temporelle du champ magnétique lunaire 11 Tables 3.2.3 3.3 3.3.1 3.3.2 3.3.3 3.3.4 3.3.5 3.3.6 3.4 3.4.1 3.4.2 3.4.3 3.4.4 Etude du magnétisme des roches lunaires 67 Aimantation rémanente naturelle des roches 68 Aimantation thermorémanente 68 Aimantation rémanente de choc 68 Aimantation rémanente visqueuse 69 Aimantation rémanente chimique 69 Aimantation gyro- rémanente 69 Aimantation rémanente isotherme 70 Détermination des paléointensités 70 Evaluation de la qualité des échantillons 70 Protocoles R et REM' 70 Protocoles de Thellier-Thellier 71 Cas des échantillons sans composante stable 75 Chapitre 4 : A survey of the Natural Remanent Magnetisation and the magnetic susceptibility of Apollo whole rocks 79 Article 82 Chapitre 5 : Nouvelle évolution du champ magnétique lunaire 123 5.1 Cas des météorites 123 5.2 Etude des échantillons lunaires 127 Article 128 Conclusion générale 161 Bibliographie 163 Annexes 175 12 Evolution temporelle du champ magnétique lunaire Tables Table des figures Figure 1.1 : Carte de la face visible de la Lune avec localisation des sites d'alunissages des missions Apollo, Luna, Surveyor et Lunokhod. p.24 Figure 1.2 : Hypothèse actuelle de structure interne lunaire. p.28 Figure 1.3 : Exemple de l'activité volcanique au sein d'un bassin d'impact. p.29 Figure 1.4 : Différents types de roches lunaires, classés selon leur source géologique. p.30 Figure 1.5 : Relation entre la température d'équilibre melt-clast et le taux de fusion de la roche, après un impact. p.32 Figure 1.6 : Coupe schématique d'un cratère d'impact montrant la localisation possible des différents types de brèches p.32 Figure 1.7 : Interprétation possible de la différenciation de la Lune à 4.4 et 3 Ga. p.35 Figure 1.8 : Grandes étapes de l'évolution de la Lune. p.36 Figure 2.1 : Les composantes du champ magnétique. p.41 Figure 2.2 : Modèle en harmoniques sphériques du champ magnétique total à 30 km de la surface p.46 Figure 2.3 : Compilation des données de paléointensités de la littérature. p.49 Figure 2.4 : Bilan des divers mécanismes permettant le maintien de la dynamo dans le temps, associés aux données récentes de paléointensités. p.51 Figure 3.1 : Présentation des conditions de mesures au JSC. p.59 Figure 3.2 : Répartition des masses des roches Apollo analysées selon leur lithologie. p.60 Figure 3.3 : Exemple de découpe de la brèche de régolithe 10018. p.62 Figure 3.4 : Préparation d'un échantillon pour analyse. p.63 Figure 3.5 : Répartition des domaines dans une particule avec le champ généré en bleu et le spin en rouge. p.64 Figure 3.6 : Différents types d'alignement des spins dans le ferromagnétisme sensu largo. p.65 Figure 3.7 : Observation de lames minces de certains échantillons Apollo au microscope optique. . p.66 Figure 3.8 : Cycle d'hystérésis de l'échantillon 10018 après correction de la pente. p.68 Figure 3.9 : Description du protocole de désaimantation thermique IZZI pour l'estimation de paléointensités. p.72 Figure 3.10 : Système de chauffe sous oxygène contrôlé installé sur le four de paléointensité. p.73 Figure 3.11 : Calibration du flux de gaz utilisé dans la désaimantation thermique sous atmosphère contrôlée. p.74 Evolution temporelle du champ magnétique lunaire 13 Tables Figure 4.1 : ß (avec les barres d'erreur) en fonction de l'âge des roches étudiées. p.81 Figure 5.1 : Résultats paléomagnétiques pour les météorites LAP02205 (a) et NWA10782 (b). p.124 Figure 5.2 : Résultats des paléointensités des météorites LAP02205 (a) et NWA10782 (b). p.125 Figure 5.3 : Evolution du champ magnétique (paléointensités) en fonction du temps (Ga) et des mécanismes de dynamo associés. p.127 14 Evolution temporelle du champ magnétique lunaire Tables Table des tableaux Tableau 1.1 : Détail des missions avec retour d'échantillons. p.23 Tableau 1.2 : Unités stratigraphiques depuis la formation de la Lune avec chronologie des bassins d'impact majeurs, des cratères d'impact principaux et du volcanisme avec formation des mers. p.36 Tableau 2.1 : Récapitulatif des différents types de dynamo lunaire. p.48 Tableau 2.2 : Récapitulatif des données de paléointensités de la littérature et leurs âges respectifs. p.43 Tableau 3.1 : Mélanges de gaz utilisés pour les expériences de désaimantation de roches lunaires. . p.75 Tableau 5.1 : Données magnétiques des deux météorites LAP05505 et NWA10782. p.123 Evolution temporelle du champ magnétique lunaire 15 Tables 16 Evolution temporelle du champ magnétique lunaire Introduction générale Introduction générale La Lune a toujours fasciné les hommes, de part sa proximité avec la Terre, sa surface étrangement blanche et cratérisée mais aussi de part les phénomènes naturels qu'elle engendre sur la Terre. Longtemps inscrite dans le folklore médiéval, la Lune a ensuite suscité l'intérêt scientifique et est rapidement devenue le principal objectif spatial à atteindre dès le début de la guerre froide. Les premières données acquises lors des missions lunaires spatiales, dans les années 60, ont notamment montré que, contrairement à la Terre, la Lune ne possédait pas de champ magnétique global mais uniquement un faible champ crustal. Dès le retour des échantillons Apollo, les analyses paléomagnétiques préliminaires réalisées sur les roches lunaires ont montré que certains échantillons avaient enregistré des paléointensités significatives (plusieurs dizaines de μT), indiquant l'existence d'un ancien champ magnétique lunaire. Dès lors, de nombreuses études ont eu lieu afin de comprendre l'origine de ce champ magnétique passé mais aussi de comprendre comment et pourquoi il a prit fin. De nombreuses hypothèses ont été formulées dans la littérature afin de comprendre l'origine de ce champ magnétique, ainsi que les processus permettant son maintien. Ce champ était-il engendré par des impacts d'astéroïdes ? Une dynamo lunaire a-t-elle fonctionné, comme pour la Terre ? Si les données acquises ont permis de retracer l'évolution globale du champ magnétique lunaire en fonction du temps, les mécanismes proposés restent insuffisants pour expliquer cette évolution. De plus, le manque de données à certaines époques ne permet pas de contraindre avec exactitude l'évolution du champ au cours du temps, en particulier son arrêt. Les enjeux de ce travail de thèse sont donc d'acquérir de nouvelles données de paléointensités afin de mieux comprendre l'évolution du champ magnétique lunaire au cours du temps. Cela permettra ainsi de mieux comprendre quels mécanismes étaient à l'origine de ce champ magnétique. Pour cela, un descriptif sur les caractéristiques générales de la Lune est fait dans le premier chapitre afin de comprendre sa géologie, sa stratigraphie et sa structure interne. Les missions Apollo sont décrites afin de situer la lithologie et l'origine géographique des échantillons lunaires rapportés sur Terre. La formation et la différenciation de la Lune seront abordées afin de comprendre comment la Lune est devenue telle que nous la connaissons aujourd'hui. Les notions de champ magnétique sont abordées dans le Chapitre 2. Après un bref rappel sur le champ magnétique terrestre et les domaines d'application de son étude, le champ magnétique lunaire est abordé. L'origine du champ magnétique lunaire est détaillée ainsi que les mécanismes possibles qui pourraient avoir alimenté une dynamo lunaire. Un bilan sur les données de la littérature est réalisé afin de comprendre l'évolution temporelle du champ magnétique lunaire et les incertitudes que nous avons encore. Evolution temporelle du champ magnétique lunaire 17 Introduction générale Pour répondre à la problématique, deux études ont été réalisées, sur deux jeux d'échantillons. Les échantillons analysés dans ce travail sont décrits dans le Chapitre 3. Ce chapitre introduit les notions de base du magnétisme des roches et notamment l'aimantation naturelle rémanente des roches lunaires. Les minéraux magnétiques des roches lunaires et leurs caractéristiques sont décrits. Puis les méthodes de déterminations de paléointensités sont présentées à la fin de ce chapitre. Le Chapitre 4 est consacré au descriptif de la première étude, qui a consisté en l'analyse de l'aimantation rémanente naturelle et de la susceptibilité magnétique de 161 roches Apollo stockées dans le Lunar Sample Facility au Johnson Space Center (NASA, Houston, USA). Cette analyse a permis de tester un critère de détermination grossière de paléointensités et de sélectionner neuf échantillons pour des analyses détaillées en laboratoire. Les deux instruments de mesures développés spécialement pour ces analyses sont présentés. Après un résumé détaillé de l'étude, ce chapitre est ensuite présenté sous la forme d'un article, soumis à Physics of the Earth and Planetary Interiors. Le Chapitre 5 est lui consacré à la seconde étude de cette thèse. Deux météorites sont analysées en détail dans une première partie afin de montrer l'intérêt et la validité de l'étude magnétique de météorites lunaires puis la seconde partie porte sur l'étude en laboratoire de vingt-cinq roches lunaires de la collection Apollo, dont les neuf échantillons sélectionnés à partir de l'étude précédente. L'analyse de ces échantillons a permis d'obtenir treize valeurs de paléointensités et six valeurs de limite supérieure. Les autres échantillons n'ont pas donné de résultats. Après un résumé détaillé de l'étude, cette partie est présentée sous la forme d'un article, en cours de préparation pour Earth and Planetary Science Letters. 18 Evolution temporelle du champ magnétique lunaire Chapitre Premier La Lune, notre satellite Descente de l'astronaute Buzz Aldrin sur la surface lunaire, le 16 Juillet 1969 Copyright © Lunar and Planetary Institute Evolution temporelle du champ magnétique lunaire 19 20 Evolution temporelle du champ magnétique lunaire Chapitre 1 : La Lune, notre satellite Chapitre 1 La Lune, notre satellite Ce premier chapitre présente les différents aspects de la Lune. De son observation à son exploration avec retours d'échantillons, les missions Apollo et Luna y sont également détaillées. Sa géologie, sa structure interne et externe et sa stratigraphie y sont décrites. Un retour sur sa formation et sa différenciation est fait pour comprendre comment la Lune est devenue telle que nous la connaissons aujourd'hui. 1.1 L'exploration lunaire 1.1.1 Observations et exploration Les premières observations lunaires remontent au XVII siècle, avec les scientifiques Thomas Harriot (1609) puis Galilée (1610) qui firent les premiers dessins lunaires à partir d'observations à l'oeil nu puis à la lunette astronomique (Neal, 2009). Cette cartographie primitive, appelée Sélénologie, permit de détailler avec précision les mers et les continents lunaires. Une des oeuvres les plus célèbres est l'ouvrage Sidereus Nuncius, publiée par Galilée en 1610 qui sera suivie par la publication de Almagestum Novum (traité de sélénographie) de Riccioli et Grimaldi en 1651. Ce dernier pose alors les fondements de la nomenclature lunaire. Il faudra attendre le XXème siècle et les premiers satellites pour analyser et étudier la surface lunaire, notamment la face cachée de la Lune avec la mission soviétique Luna 3 en 1959. Ces missions avaient pour but de répondre aux questions longtemps débattues : Existeil de la vie sur la Lune ? ; Quelle est la nature des roches en surface ? La sonde Luna 1, envoyée par l'URSS en 1959, marque la première étape de la conquête lunaire en passant à 5 995 km de sa surface (Neal, 2009). Ses missions étaient variées ; on pourra retenir comme mission la mesure des champs magnétiques de la Lune et de la Terre (Shelton et al., 1969). Ces mesures ont ainsi montré une absence de champ magnétique lunaire global actuel. Suivront ainsi entre 1959 et 1969 une succession de missions spatiales (missions de mises en orbite autour de la Lune et d'alunissages de modules) menées par l'URSS (Luna, Zond) et par les EtatsUnis (Pioneer, Ranger, Surveyor, Lunar Orbiter, Apollo 1,6-10). C'est à partir de 1969, avec la mission Apollo 11, que l'exploration lunaire prend un autre tournant : le retour d'échantillons est possible grâce à l'envoi d'astronautes sur la surface lunaire (Table 1.1). Des mesures en surface ont été réalisées au cours de la mission Apollo 16 (déploiement d'un magnétomètre portable, d'un sismomètre passif et d'un équipement de flux de chaleur). Le rover lunaire apporté avec la mission Apollo 17 a permis le déplacement des astronautes sur plusieurs kilomètres (contre 100 m lors de la mission Apollo 11) afin de récolter diverses séquences de roches (110.5 kg de roche rapportés lors de cette mission). D'autres missions lunaires se succèdent, sans retour d'échantillons, avec l'implication du Japon (missions Hiten, Hayabusa, SELENE) dès 1990, de la Chine (missions AsiaSat, Chang'E) dès 1997 et de l'Inde (mission Chandrayaan) en 2008. e Evolution temporelle du champ magnétique lunaire 21 1 1 Chapitre 1 : La Lune, notre satellite 1.1.2 Retour d'échantillons L'étude des caractéristiques de la Lune en laboratoire se fait de manière directe (analyses d'échantillons) et de manière indirecte (données par satellites – Lunar Reconnaissance Orbiter, GRAIL, Chang'E, SMART-1, Kaguya, Chandrayaan-1). Les échantillons proviennent de deux sources principales : les météorites lunaires (environ 230 kg répertoriés pour ~140 météorites, la plus massive NWA 11787 faisant 23.5 kg) et les échantillons prélevés sur la surface lunaire (de quelques grammes à plusieurs kilogrammes). Les météorites lunaires ont principalement été découvertes lors d'expéditions privées dans les déserts chauds (68% dans les déserts Nord Africains) et en Antarctique par des équipes scientifiques (6%). Le prélèvement d'échantillons lunaires (voir détail Table 1.1) devient possible avec le début des missions Luna (16, 20 et 24, 1970-1976) et Apollo (11 à 17, 1969-1972); totalisant 320 g et 380 kg respectivement d'échantillons de lithologies et tailles différentes (Heiken et al., 1991). Mission Apollo 11 Apollo 12 Luna 16 Apollo 14 Apollo 15 Luna 20 Apollo 16 Apollo 17 Luna 24 Localisation Mare Tranquilitatis Oceanus Procellarum Mare Fecunditatis Fra Mauro (Mare Imbrium) Hadley Rille/ Monts Appenine Apollonius Highlands Descartes Highlands Mare Serenitatis Mare Crisium Masse (kg) 21.6 34.3 0.1 42.3 77.3 0.03 95.7 110.5 0.17 Date de mission Juillet 1969 Novembre 1969 Septembre 1970 Février 1971 Août 1971 Février 1972 Avril 1972 Décembre 1972 Août 1976 Lithologies Basaltes et Highlands Basaltes Brèches Basaltes et Highlands Brèches Basaltes et brèches Tableau 1.1 : Détail des missions avec retour d'échantillons. D'après Fuller et Cisowski (1987) et Heiken et al. (1991). De futures missions avec retour d'échantillons sont programmées par la Chine, à partir de 2018. La mission Chang'E-5, troisième étape du Programme d'Exploration Lunaire Chinois, prévoit un alunissage près du Mont Rümker (situé près de Mare Imbrium) qui, de par sa géologie complexe, est un site idéal pour un nouveau retour d'échantillons (le retour d'environ 2 kg de régolithes est prévu) et pour la réalisation d'une nouvelle carte géologique. Cette zone est également intéressante de par la présence de dômes basaltiques jeunes, indiquant une activité volcanique possible jusqu'à l'Eratosthène (2-1 Ga) (Zhao et al., 2017). Les échantillons rapportés de la Lune ne proviennent que de la face visible de la Lune, comme illustré en Figure 1.1, et de son pourtour équatorial, zone la plus facilement accessible et la mieux documentée (Heiken et al., 1991). Ils ont été numérotés selon la mission dont ils proviennent. Pour les missions Apollo, la numérotation débute par 10 pour Apollo 11 ; 12 - Apollo 12 ; 14 - Apollo 14 ; 15 - Apollo 15 ; 6 - Apollo 16 et 7 - Apollo 17. Pour les missions Luna, les deux premiers nombres correspondent à la mission : 16 pour Luna 16 ; 20 - Luna 20 et 24 - Luna 24 (Heiken et al., 1991). 22 Evolution temporelle du champ magnétique lunaire Chapitre 1 : La Lune, notre satellite Figure 1.1 : Carte de la face visible de la Lune avec localisation des sites d'alunissages des missions Apollo, Luna, Surveyor et Lunokhod (Lunar landing site chart, Lunar and Planetary Institute, 1967). 1.1.3 Les missions Apollo Les météorites ayant été l'unique source d'échantillons extra-terrestres pendant longtemps, il avait été supposé que la Lune était elle-même un corps primitif condensé à partir de la nébuleuse solaire. Les missions Apollo 6 à 10 ont surtout consisté en des vols en orbite autour de la Lune, avec des mesures de champ magnétique à distance par exemple. Des tests sur les modalités de futurs alunissages ont été faits (Apollo 10) mais aucun retour d'échantillons n'a eu lieu. La diversité des roches rapportées par les missions Apollo 11, 12, 14, 15, 16 et 17 a permis de prouver que la Lune n'était pas un corps primitif mais un corps évolué ayant subi de grands bombardements météoritiques (> 3.8 Ga) ainsi que des transformations internes (différenciation, volcanisme, sismicité) (Heiken et al., 1991). Site Apollo 11 Le module de la mission Apollo 11 s'est posé au sud-ouest du bassin Mare Tranquillitatis dans une zone relativement plate. Ce bassin est essentiellement composé d'anciennes laves Evolution temporelle du champ magnétique lunaire 23 1 1 Chapitre 1 : La Lune, notre satellite basaltiques (de 3,88 à 3,57 Ga) riches en titane. Des éjectas des highlands environnants (situés à 40 km du bord du cratère) sont retrouvés dans le bassin d'impact. Site Apollo 12 Ce site d'alunissage est localisé dans le bassin Oceanus Procellarum, à 180 m de celui du module Surveyor 3. Cette région se compose de basaltes plus cratérisés que ceux trouvés sur le site Apollo 11. Les échantillons récoltés montrent au moins trois groupes de basaltes de composition différente datés entre 3,29 et 3,08 Ga par les méthodes isotopiques. Les basaltes KREEP (voir partie 1.2.4 pour une définition) ont pu être récoltés lors de cette mission et sont sombres et riches en verre volcanique. Site Apollo 14 Cette mission s'est située au nord de la région du cratère Fra Mauro dans les highlands. De part sa localisation, des éjectas du bassin Imbrium ont pu être rapportés. Les roches récoltées sont essentiellement des brèches (voir détails dans la partie 1.4) polymictes fragmentées, des impacts melt breccia et des brèches à composition basaltiques ou riches en KREEP. Ces brèches se seraient formées entre 3,9 et 3,8 Ga. Site Apollo 15 Ce site est dans la région de Hadley Rille dans le bassin Mare Imbrium. Ce site a surtout été choisi pour échantillonner les monts et highlands qui forment l'anneau du bassin Imbrium ainsi que les basaltes de Palus Putredinis. Les basaltes collectés sont issus de deux groupes minéralogiques (riches en quartz ; riches en olivine) mais datés de la même période (3,3 Ga). Les roches récoltées des highlands sont plus diversifiées : anorthosites, roches plutoniques riches en magnésium, impact melt et granulites. Deux autres matériaux ont été découverts : un basalte alumineux riche en KREEP ; et du verre volcanique vert de composition ultramafique. Site Apollo 16 Cette mission s'est localisée près du cratère Descartes et des plaines de Cayley, dans les highlands afin d'en étudier la morphologie. Les échantillons rapportés sont des brèches polymictes, des impact melts et de rares anorthosites. Les dépôts d'éjectas de brèches localisées au niveau du site semblent provenir du bassin d'impact Nectaris (3.92 Ga). Site Apollo 17 Le dernier module Apollo s'est posé dans la vallée Taurus-Littrow, près de la bordure du bassin Serenitatis. Il a été montré que la vallée est composée de basaltes riches en titane datés de 3,8 à 3,7 Ga. Le fond de la vallée est également recouvert d'une couche de dépôts noirs datés à 3,64 Ga, riches en fragments pyroclastiques noirs et oranges. Le massif qui surplombe la vallée est composé d'impact melt breccia (daté à 3,87 Ga) et de roches plutoniques. Les brèches semblent refléter l'âge du bassin Serenitatis mais leur origine n'est pas connue. 24 Evolution temporelle du champ magnétique lunaire Chapitre 1 : La Lune, notre satellite 1.2 1 La Lune aujourd'hui 1.2.1 Caractéristiques générales La Lune est l'unique satellite naturel de la Terre. D'un rayon 6 fois inférieur à celui de la Terre (1 738 km), elle est le cinquième plus grand satellite de notre système solaire. Dépourvue d'atmosphère, sa température de surface varie entre 107 et -153°C. Elle évolue à une distance moyenne de 384 467 km de la Terre, ce qui induit une influence gravitationnelle sur la Terre par des marées par exemple. Cette influence est réciproque. Les effets de marées provoquent un ralentissement de la rotation terrestre, qui induit un éloignement progressif de la Lune, de quelques centimètres par an, afin de maintenir le moment angulaire du système Terre-Lune constant (Heiken et al., 1991). C'est au cours des missions spatiales vers la Lune qu'un traité de l'espace a été signé le 10 Octobre 1967, afin de considérer la Lune comme un espace international. 1.2.2 Structure interne La structure interne de la Lune a pu être caractérisée grâce aux échantillons des missions Apollo et Luna ; mais aussi grâce à l'analyse des données géophysiques récoltées par les satellites (données GRAIL, LLR, LOLA, Kaguya). Sa structure interne (Figure 1.2) est semblable aux planètes terrestres différenciées : une croûte, un manteau et un noyau (externe et interne). La croûte La croûte lunaire est complexe. Son épaisseur et sa composition varient latéralement et verticalement. La partie supérieure de la croûte se compose principalement d'anorthosites tandis que la partie inférieure serait plutôt de composition noritique à troctolitique (Arai et al., 2008 ). Wieczorek et Zuber (2001a) montrent grâce aux données géophysiques que la croûte supérieure est composée de 88 ± 4 % de plagioclases (qui correspond à 29-32 wt.% Al O ) tandis que la croûte inférieure, plus mafique, se compose de 65 ± 8% de plagioclases (soit 1825 wt.%). Ces teneurs sont cohérentes avec l'hypothèse d'une croûte formée par cumulas de matière, en flottaison sur le magma océanique lunaire. Yan et al. (2015) estime l'épaisseur moyenne de la croûte entre 30 et 50 km, à partir de l'analyse des données de topographie (LRO). L'analyse des données GRAIL a permis de déduire la densité moyenne des highlands de la croûte, qui est estimée vers 2250 ± 18 kg.m . Ces faibles densités, bien inférieures à celles utilisées pour les anorthosites crustales dans les modèles géophysiques (2800 et 2900 kg.m habituellement), semblent causées par de nombreuses fractures de la roche et par les brèches en surface (Wieczorek et al., 2013). De plus, la porosité moyenne de la croûte est estimée à 12% mais varie régionalement de 4 à 21%, en raison des impacts par exemple (Wieczorek et al., 2013). Ces deux facteurs (densité et porosité) ont ainsi permis de proposer une croûte lunaire non plus de 50 km mais plutôt de 34-43 km (Wieczorek et al., 2013). 2 3 -3 -3 Les analyses sismiques ont montré que les highlands sont les zones les plus épaisses, jusqu'à 110 km d'épaisseur, et les bassins d'impacts les plus fins (< 5 km) (Ishihara et al., 2009). La croûte est aussi asymétrique entre sa face visible et sa face cachée, les highlands de la face cachée étant en moyenne 10-15 km plus épais que ceux de la face visible (Wood, 1973). Une discontinuité sismique a pu être observée vers 20 km de profondeur, au niveau des sites Apollo 12, 14 et 16. En effet, la vitesse des ondes sismiques augmente progressivement de la Evolution temporelle du champ magnétique lunaire 25 1 Chapitre 1 : La Lune, notre satellite surface jusqu'à 20 km puis reste constante jusqu'à la base de la croûte. Cette caractéristique serait le résultat d'un changement de composition pétrologique (Wieczorek et al., 2006). Le manteau Les analyses géophysiques sur les sites Apollo ont permis de mettre en évidence une stratification du manteau. Il n'y aurait pas de couche franche de transition entre la base de la croûte et le manteau (Matsuyama et al., 2016) mais une discontinuité majeure a été montrée par la sismique entre 500 et 560 km de profondeur (Wieczorek et al., 2006). La forte atténuation des ondes sismiques vers la base du manteau solide et silicaté suggère la présence d'une couche de manteau partiellement fondue d'une centaine de kilomètres d'épaisseur à 1000 km de profondeur. Cette zone marque la limite avec le noyau externe. (Wieczorek et al., 2006 ; Weber et al., 2011 ; Matsuyama et al., 2016). Le noyau Les caractéristiques principales du noyau sont connues grâce aux contraintes de masse, de moment d'inertie, de facteur de qualité de la dissipation tidale, sismiques et de champ magnétique récoltées ces dernières années (Matsuyama et al., 2016). Les rayons précis et les compositions chimiques sont encore mal contraints. Noyau externe La présence d'un noyau externe liquide a été montrée grâce à la réflexion des ondes sismiques qui ont été enregistrées sur la Lune lors des missions Apollo. Ce noyau dense liquide serait composé de fer, de silicates riches en titane, de soufre et de nickel (Wieczorek et al., 2006). Les concentrations en éléments sidérophiles du manteau et retrouvés dans les roches Apollo permettent d'estimer l'abondance en nickel du noyau par exemple, qui est estimée entre 8.3 et 55 wt% selon les études (Wieczorek et al., 2006). Son rayon est estimé entre 380 ± 40 km (Garcia et al., 2011) et 330 ± 20 km (Weber et al., 2011). Noyau interne Le noyau interne de la Lune a été mis en évidence suite à l'analyse des données sismiques récoltées lors des missions Apollo. Weber et al. (2011) propose une composition mixte de fer et de soufre (6-8 wt % de soufre), d'après les modélisations de dynamo lunaire et l'analyse des données sismiques. Righter et al. (2017) utilise les données géochimiques (température, pression) pour estimer la proportion de soufre et de carbone contenue dans ce noyau, en plus du fer et du nickel. Il en résulte qu'une proportion de 0.5 wt% de soufre et 0.375 w% de carbone (pour un liquidus estimé à 1550°C et un solidus estimé à 1250°C) est la plus probable pour correspondre avec les données géochimiques et géophysiques. Ces taux ont été pris d'après les proportions de soufre et carbone trouvées dans les verres des roches Apollo. Le rayon du noyau solide est estimé entre 240 ± 10 km (Weber et al., 2011) et 140 ± 20 km (Laneuville et al., 2014), ce qui représente 40 à 70% du noyau total. 26 Evolution temporelle du champ magnétique lunaire Chapitre 1 : La Lune, notre satellite Face visible Nearside Manteau Farside Face cachée Shallow Moonquakes supérieur ? A15 Deep Moonquake Source Region Croûte anorthositique Anorthositic Crust Manteau inférieur ~587-km radius partiellement fondu Zone of Partial Melt (rayon ~587 km) (Lower Mantle) ~350-km radius Noyau externe liquide (rayon ~350Core km) Fluid Outer A12/14 A16 Manteau moyen Middle Mantle Noyau interne solidifié ~160-km radius 17% du noyau cristallisé Solid Inner Core (rayon10% ~160of km) (assuming the core has crystallized) ? Discontinuité (~560 km) 560 km Discontinuity Upper Mantle South Pole-Aitken Basin Bassin pôle sud Aitken Figure 1.2 : Hypothèse actuelle de structure interne lunaire. La discontinuité est supposée à 560 km de profondeur ici. De même, les rayons proposés ici sont moyennés de la littérature (d'après Wieczorek et al., 2006). Les points noirs sont les séismes profonds et les blancs les séismes superficiels. A15, A12/14 et A16 correspondent aux localisations des sites Apollo (15, 12, 14 et 16 respectivement). Modifié d'après Wieczorek et al. (2006). 1.2.3 Structure externe La surface lunaire est composée de cratères d'impacts plus ou moins érodés, d'étendues volcaniques (appelées mers) et de reliefs (formés par les highlands). Elle est recouverte d'une couche de fines particules, qui compose le sol lunaire. Trois autres processus sculptent sa surface : les impacts hypervéloces, le volcanisme et l'activité tectonique. Les impacts hypervéloces C'est le processus de surface lunaire dominant. Les structures d'impacts sont divisées en 3 groupes : cratère simple, cratère complexe et bassin d'impact. Ainsi, les roches en surface et celles excavées lors d'un impact ont subi des transformations pétrographiques, physiques et chimiques. Ce sont les bassins d'impact qui ont modelé la majorité de la topographie de la Lune. La plupart de ces anciens bassins d'impact ont été recouverts par les laves basaltiques, formant les mers actuelles (Mare Imbrium, Oceanus Procellarum pour ne citer qu'eux) (Heiken et al., 1991). Le volcanisme La source de ce volcanisme provient de la fusion des roches mantelliques associées ou non à des roches de la croûte. Cette source est formée à 150-200 km de profondeur pour Evolution temporelle du champ magnétique lunaire 27 1 1 Chapitre 1 : La Lune, notre satellite une température supérieure à 1100°C. Les laves ont recouvert 17 % de la surface lunaire, particulièrement les bassins d'impact (Head, 1976). Ce sont des laves basaltiques de faible viscosité, remontées en surface par des fractures, qui ont rempli successivement ces bassins (Figure 1.3). Par exemple, le bassin Imbrium s'est rempli sur 500 Ma, formant Mare Imbrium. Le volcanisme lunaire a été actif entre ~3.9 et ~1.2 Ga mais l'essentiel de l'activité volcanique a pris fin vers 3 Ga. L'étude de ces basaltes permet de comprendre la composition du manteau lunaire dont ils sont issus (Heiken et al., 1991). Grabens Grabens Coulées de lavesCoulées successives de laves successives Dikes intrusifs Dikes intrusifs Croûte Manteau Croûte Manteau Figure 1.3 : Exemple de l'activité volcanique au sein d'un bassin d'impact. Coupe schématique d'un bassin d'impact recouvert de coulées volcaniques et illustrant la localisation des cheminées volcaniques, la croûte et le manteau lunaire. Chaque coulée de lave (numérotées de I à III selon leur chronologie) est remontée depuis le manteau jusqu'à la croûte, formant des dikes (en noirs) puis des grabens en surface. Ce schéma témoigne de trois épisodes de volcanisme. Modifié d'après Heiken et al. (1991). L'activité tectonique Divers types de déformations tectoniques sont visibles sur la Lune: des failles, des plis et des chaînes de montagne près de la surface. L'analyse de ces structures permet de comprendre la structure interne de la Lune, son évolution mais aussi ses propriétés mécaniques et thermiques. Les forces externes à l'origine de l'activité tectonique lunaire proviennent des impacts de météorites et des forces tidales (générées par le champ de gravité de la Terre). Les forces internes à l'origine de cette activité sont les contraintes thermiques et les intrusions volcaniques (Heiken et al., 1991). 1.2.4 Géologie et classification La compréhension de la structure interne de la Lune s'est considérablement améliorée grâce au retour et à l'analyse d'échantillons lunaires rapportés des missions Apollo et Luna. La Lune est formée de 3 grands groupes géologiques : les roches ignées 28 Evolution temporelle du champ magnétique lunaire Chapitre 1 : La Lune, notre satellite (volcaniques et plutoniques), les brèches et le sol lunaire, que nous détaillerons ci-dessous. Elles proviennent de trois sources géologiques (Figure 1.4) : formées à partir des impacts (les brèches) ; formées à partir des séries magmatiques (les roches volcaniques et certaines plutoniques) ou formées à partir de l'océan magmatique primitif lunaire (les roches plutoniques). Roches lunaires Sources Océan magma2que primi2f Croûte inférieure Manteau mafique Mg-suite Séries magma2ques Anorthosites Alkali-suite urKREEP Basaltes KREEP Roches d'impact Brèches Basaltes Roches fondues Roches pyroclas2ques Figure 1.4 : Différents types de roches lunaires, classés selon leur source géologique. Les roches en vert correspondent aux roches plutoniques, en bleu les roches d'impact et en rouge les roches volcaniques. Les roches Mg-suite sont des roches riches en magnésium (norites, gabbros, troctolites, dunites, etc) et les Alkali-suite les roches riches en sodium (anorthosites alcalines par exemple). Modifié d'après Kring et al. (2012). Le sol lunaire Le sol lunaire est issu de débris non consolidés et fragmentés (granulométrie 40 à 800 μm) de roches basaltiques et anorthositiques qui couvrent la surface (Heiken et al., 1991). Sa composition chimique varie grandement selon la composition des roches mères dont il est issu. Le sol se compose de 0.5% de fer métallique et de moins de 2% de composants météoritiques. Ce taux de fer est supérieur à celui contenu dans les basaltes mais il reste similaire à la teneur en fer métallique des brèches de régolithes. Il existe deux types de sols lunaires, classés selon leur teneur en fer Fe : les sols des mers basaltiques et les sols des Highlands. Ces derniers possèdent des particules de fer (> 100 μm) ayant pour source principale le fer météoritique (Fuller et Cisowski, 1987). 2+ Les roches ignées Les roches volcaniques Les basaltes lunaires sont issus du manteau et recouvrent 17% de la surface. Ils ont notamment rempli les bassins d'impact, formant les mers actuelles. Ces basaltes sont souvent classés selon leur composition minéralogique (basalte à olivine, à ilménite, etc). Celle-ci est semblable à celle des basaltes terrestres ; elle dépend de la viscosité et de la température de la lave dont ils proviennent. Leur composition chimique dépend directement de la composition chimique des laves (basaltes KREEP, roches pyroclastiques et basaltes classiques notés « mare basalts ») à partir desquelles ils ont cristallisé. Certaines éruptions étaient de type « firefountain », formant les verres volcaniques et les dépôts pyroclastiques dont la majorité sont Evolution temporelle du champ magnétique lunaire 29 1 1 Chapitre 1 : La Lune, notre satellite issus de la fin de l'Imbrien entre 3.2 et 3.7 Ga. Les basaltes KREEP sont des basaltes riches en potassium (K), éléments rares (REE) et en phosphore (P). Ils proviennent de sources profondes du manteau et ont été mis en évidence lors de la mission Apollo 11 (Heiken et al., 1991). Les roches plutoniques Ces roches ignées forment les highlands. Elles ont été relativement peu modifiées par les impacts météoritiques survenus sur la surface lunaire. Ces roches sont classées en trois groupes principaux en fonction de leur composition chimique : les anorthosites ferreuses, les roches riches en magnésium et les autres roches. ● Anorthosites ferreuses : ce type de roche est le plus commun des roches ignées des highlands. Elles sont blanches ou de couleur claire de par leur forte teneur en plagioclases riches en calcium et aluminium. Elles contiennent en plus faible proportion des pyroxènes et olivines. Leur granulométrie grossière indique une formation près de la surface avec un refroidissement lent. Étant en général des roches très bréchifiées, l'origine géographique des anorthosites est souvent difficile à identifier. La majorité des anorthosites lunaires collectées ont été rapportées lors de la mission Apollo 16 (Heiken et al., 1991). ● Roches riches en magnésium : ces roches sont enrichies en magnésium et se distinguent par leurs minéraux majeurs avec une forte proportion d'olivines, de feldspaths plagioclases et de pyroxènes qui constituent 99% de la roche. Il s'agit de norites et de gabbros (enrichies en pyroxènes et plagioclases), de troctolites (riches en olivines et plagioclases) et de dunites (riches en olivines). La plupart de ces roches sont bréchiques et proviennent de la cristallisation d'un magma mafique dans la croûte primitive lunaire (Heiken et al., 1991). ● Autres types : ce groupe représente les roches ignées présentes en minorité sur la Lune, comme les granites, les urKREEP ou les anorthosites alcalines. Ces dernières contiennent 85% de plagioclases enrichis en sodium (contrairement aux anorthosites ferreuses), le reste étant du pyroxène. Les granites, de texture fine, sont enrichis en feldspath potassique mais ne contiennent pas de minéraux hydratés (comme le mica ou l'amphibole), contrairement aux granites terrestres. Les urKREEP (le préfixe « ur- » signifie « primitif ») sont des roches riches en éléments incompatibles. Ils sont issus de la cristallisation du dernier pour cent de magma restant de l'océan magmatique primitif (voir détails sur la différenciation lunaire partie 1.3.1). Ils seraient présents sous forme de patchs de 2 km d'épaisseur entre la croûte et le manteau mais n'ont jamais été échantillonnés jusqu'à présent (Heiken et al., 1991). Les brèches Les brèches d'impact sont, à l'origine, des roches ignées ou d'anciennes brèches qui ont été modifiées suite à un ou plusieurs impacts météoritiques. Les clastes peuvent être des fragments de roche ignée, des fragments de brèches ou des fragments métamorphisés par choc ou fondus de ces derniers. La matrice a une texture fine et se décline en trois types : matrice fondue solidifiée (glassy ou crystalline), matrice clastique (fragmental) ou un mélange des deux métamorphisé. Sous ces conditions, les systèmes isotopiques utilisés pour les datations de ces brèches peuvent être remis à zéro. Ces roches contiennent également des débris météoritiques, ce qui permet de les différencier des autres types de roches. La quantité de matériel fondu et la température d'équilibre entre les clasts et le matériel fondu permettent de caractériser les brèches, comme le détaille la Figure 1.5. 30 Evolution temporelle du champ magnétique lunaire Lunar Rocks 241 Chapitre 1 : La Lune, notre satellite 1 Température d'équilibre melt – clasts (°C) GAZEUX et Dimict breccia Fragmental et Regolith breccia Glassy melt breccia EFFRITAGE FRACTURES AMBIANT Taux de fusion iniEale (%) Fig. 6.39. Generalized scheme showing the relations between petrographically distinct impact breccias Figure 1.5: Relation la température d'équilibre melt-clast et le taux de originally fusion depresent la roche, produced and lithified entre in a single impact event as a function of the amount of melt and après the equilibrium temperature attained between clasts and melt (figure modified from Simonds et al., 1976). un impact. La texture des brèches obtenues est contrôlée par l'équilibre thermique entre les clastsThe et la textures of resulting breccias are assumed to be controlled by the initial process of rapid thermal equilibration roche fondue. La localisation des liquidus, solidus et des autres transformations peut varier avec between clasts and the enclosing melt. Subsequent cooling rates will have some, but much less, effect on la matrix textures. in which breccias occur on the diagram are approximate, and the locations of composition de Fields la roche mère. different Modifiée d'après Heiken et al., 1991. liquidus, solidus, and other transformation boundaries will vary with bulk composition. Dimict breccias, granulitic breccias, and regolith breccias do not plot as classes on this diagram. Regolith breccias could be classified as glassy melt breccias or fragmental breccias, but they differ in that they are commonly lithified from Elles sont classées en by deux catégories : les brèches seule lithologie loose fragments of lunar soil an impact event that is separate frommonomictes (and later than) (une those that produced the assemblage of fragments. Similarly, lithification of granulitic breccias is usually the result of recrystallization impactée) et les brèches polymictes (plusieurs lithologies de roches impactées), d'après la long assembly of the fragments. Dimict breccias can be considered a special case of crystalline melt 242after Lunar Sourcebook classification la plus communément utilisée de Heiken et al., (1991). Leur répartition au sein breccias. d'un cratère d'impact est illustrée ci-dessous, sur la Figure 1.6. Bordure du cratère (1981) identified such genetically-related melt 10% are olivine and pyroxene (Minkin et al., 1977). fragments in breccia 67016, as did Marvin et al. Fragments of cataclastic anorthosite make up about Mélange de12% Glassy of et this rock, granulites about 8%, and Pic (1987) in breccia 67015. impact central Fragmental The Apollo 16 fragmental breccias consist mainly of melts about 8%. Couches d'Impact melt breccias breccias etHowever, de de clast-poor impact melts plagioclase feldspar. They contain three dominant the et Apollo 16 fragmental breccias are not par:cules fondues types of rock fragments: (1) cataclastic anorthosite, (2) all the same. Sample 67015 contains a more diverse granulitic breccia, and (3) fragment-rich feldspathic assemblage of fragments, including (1) anorthositic Fragmental breccias impact-melt rocks (James, 1981; Stöffler et al., 1981, norites that are related to ferroan anorthosites and (2) 1985; R. Warner et al., 1976a; and others). The less aluminous KREEPy impact melts (Marvin and Fragmental breccias impact-melt clasts are dark, while the anorthosites Lindstrom, 1983; Marvin et al., 1987; see section 6.3). and granulites are light colored. Stöffler et al. (1985) studied the modal and textural The impact-melt clasts have significant variations in characteristics of many of these Apollo 16 fragmental mineral and chemical composition. In sample 67455, breccias from North Ray Crater and found that the a fairly typical specimen, half the mineral grains relative proportions of different rock types in the lithic larger than 40 μm are plagioclase and about fragments vary Monomict breccias Dimict breccias Fig. 6.40. Cross-section of an ideal lunar crater showing the relations of different polymict breccia types and possible monomict breccias to the geological environment of the crater du (adapted frommagnétique Stöffler, 1981). Numbers Evolution temporelle champ lunaire indicate actual lunar samples that are examples of the different breccia types. In reality, most lunar polymict breccias are the result of a series of impacts, and in almost all cases the target for each new breccia-producing impact is already a polymict breccia. 31 1 Chapitre 1 : La Lune, notre satellite Figure 1.6: Coupe schématique d'un cratère d'impact montrant la localisation possible des différents types de brèches, modifié d'après Stöffler et al., 1981. Les brèches monomictes Ces brèches sont plutôt rares car elles ne sont composées que d'une seule roche mère ignée, qui s'est cassée et déformée (Warren et Wasson, 1980). Ne s'étant pas mélangés avec d'autres types de roches, ses clastes peuvent conserver leur texture originelle. Ces roches sont donc utiles pour témoigner de la formation de la croûte lunaire. Les brèches polymictes Elles sont divisées en 7 sous-groupes, en fonction de leur texture et de leur degré de cristallisation. ● Les fragmental breccia : ces brèches sont composées de clastes (anciennes brèches, roche ignée, minéral) dans une matrice composée de fragments fins de cette même roche (ex : 67975). Ces clastes sont souvent angulaires et de taille millimétrique. Des fragmental breccia ont été collectées sur les sites des missions Apollo 14, 16 et 17. ● Les glassy melt breccia : Ces brèches possèdent des clastes pris dans une matrice fondue qui n'a pas cristallisé et implique donc un refroidissement rapide de la roche (ex : 60095). ● Les impact melt breccia : ces roches sont similaires aux glassy melt breccia mais la matrice a refroidi plus lentement, formant une roche cristallisée (matrice et clasts). Le nombre de clastes dans ces roches varie de quelques-uns à plus de 50% de la roche (ex : 14169). Ce sont en majorité des clastes de plagioclases ; les pyroxènes, olivines ou fragments de roches étant minoritaires. La majorité des matériaux composant ces brèches d'impact ont été totalement fondus pendant leurs formations. ● Les clast-poor impact melt breccia : ces brèches présentent une texture similaire à celle des laves car elles sont peu riches en clastes. La présence d'éléments météoritiques dans ces brèches les différencie des laves. La plupart de ces brèches sont datées à 3.9 Ga, ce qui coïncide avec la période de la formation des grands bassins d'impacts. ● Les granulitic impact melt breccia : ces brèches sont des roches cristallines qui proviennent de la recristallisation d'anciennes brèches, soumises à de hautes températures (1000°C) sur de longues périodes de temps. ● Les dimict breccia : ce sont des brèches composées de deux lithologies distinctes, combinées en une roche (ex : 61015). Les deux lithologies étant mutuellement intrusives, la brèche formée se compose alors de veines de roches sombres et claires. La roche sombre est généralement de l'impact melt breccia et la roche claire de l'anorthosite. L'équivalent sur Terre est la pseudotachylite (Heiken et al., 1991). ● Les regolith breccia : ces brèches ont été lithifiées par choc, c'est-à-dire compactées et indurées suite au passage des ondes de choc dans le sol lunaire après un impact (Heiken et al., 1991). Elles sont ainsi formées en subsurface (ex : 10018) et reflètent les propriétés du sol à partir duquel elles sont formées (Fuller et Cisowski, 1987). Ces brèches ont une texture globale qui varie de friable à cohérente, selon leurs degrés de lithification (Heiken et al., 1991). Pour la suite de ces travaux de thèse, nous avons regroupé les lithologies des brèches en 3 sous-groupes seulement à partir des descriptions et des catégories décrites ci-dessus: les impact melt breccia, les dimict breccia et les regolith breccia. Les roches plutoniques sont 32 Evolution temporelle du champ magnétique lunaire Chapitre 1 : La Lune, notre satellite regroupées sous l'appellation de roches feldspathiques. Les roches fondues non bréchifiées sont appelées impact melt rock. 1.3 Evolution de la Lune 1.3.1 Formation et différenciation de la Lune Formation Le système Terre-Lune se serait formé à 4421.5 ± 4.5 Ma (Connelly et al., 2016), soit 62 Ma après la formation du Système solaire (Touboul et al., 2007). L'hypothèse la plus probable serait que la Lune soit le résultat de la collision d'un impacteur de la taille de Mars (nommé Theia) avec la Terre primitive qui ne faisait que 70% de sa taille actuelle (Hartmann and Davis, 1975). Cette théorie de l'impact unique (Benz et al., 1986 ; Cameron, 1997 ; Palme, 2004) est attestée par des modèles récents de la structure interne lunaire (Matsuyama et al., 2016). Les débris de l'impacteur se seraient accrétés afin de former la proto-Lune qui serait composée à 80% du manteau de l'impacteur (Canup et al., 2001, 2013). Cette hypothèse n'explique cependant pas totalement la présence de certains éléments isotopiques terrestres retrouvés sur la Lune (Matsuyama et al., 2016). D'autres auteurs (Citron et al., 2014 ; Rufu et al., 2017) ont testé l'hypothèse d'une collision de la proto-Terre par de petits impacteurs successifs, grâce à des simulations d'impacts, arrachant successivement des morceaux du manteau primitif terrestre. Les débris, essentiellement d'origine terrestres, se seraient accrétés au fil des impacts, par gravité, pour former la proto-Lune. Différenciation Suite à l'accrétion de la proto-Lune, les éléments lourds auraient migré au centre de la Lune pour former le noyau tandis qu'un océan magmatique se serait formé entre 200 et 1000 km d'épaisseur (Kring et al., 2012). Cet océan s'est ensuite cristallisé par étapes afin de former la croûte d'anorthosites et le manteau. La présence des basaltes KREEP et des highlands en surface indique la présence d'au moins deux sources magmatiques lors de cette différenciation lunaire. Plusieurs hypothèses sont avancées pour expliquer la chronologie exacte de cette différenciation qui est encore débattue (voir Wieczorek et al., 2006 ; Kring et al., 2012 pour détails). Les éléments légers du manteau primitifs auraient formé en surface la croûte anorthositique primaire (couche appelée « FAN » pour ferroan anorthosites). Les roches plutoniques auraient cristallisé les unes après les autres, surplombant un manteau primitif (Figure 1.7a) (Kring et al., 2012). Les résidus de magma issus de la cristallisation de l'océan magmatique auraient ainsi donné les basaltes urKREEP qui formeraient une couche à la base de la croûte. Les données isotopiques du plomb proposent un événement magmatique majeur vers 4376 ± 18 Ma, âge moyen possible de la formation des urKREEP et des FAN (Snape et al., 2016). A partir de 3 Ga, le volcanisme lunaire et les impacts auraient contribué aux variations d'épaisseur de la croûte et aux différences de lithologies retrouvées entre la face cachée et la face visible. La couche des urKREEP serait alors sous forme de patchs à la base de la croûte (Figure 1.7b) (Kring et al., 2012). Walker (1983) propose comme autre hypothèse la formation de ce complexe croûte/manteau supérieur par la cristallisation successive de mélanges magmatiques plus ou moins fondus. Evolution temporelle du champ magnétique lunaire 33 1 1 Chapitre 1 : La Lune, notre satellite a) Lune à ~4.4 Ga b) Lune à ~3 Ga Face visible 65 km Face cachée Croûte anorthosiCque (FeO ~4.5 wt.%) 1738 km Manteau primiCf Manteau appauvri 40-50 km Croûte N.I Noyau Augm. Fe Augm. Fe 90 km N.E Basaltes (FeO ~15-22 wt.%) Couche supposée urKREEP Manteau urKREEP résiduel 40 km Bassin Pôle Sud Aitken Figure 1.7 : Interprétation possible de la différenciation de la Lune à 4.4 et 3 Ga. a) Structure interne FIGURE 3.22 vers Cross sections the Moon. (a) Depiction of lunar interior around après la cristallisation de l'océan magmatique 4.4 Ga.of Les séquences minéralogiques dans la 4.4 Ga, just after m ocean crystallization. A thin urKREEP layer lies between the crust and mantle. (b) Depiction of croûte et le manteau sont représentées. Le manteau primitif serait composé de matériaux fondus et interior around 3 Ga, near the end of mare basaltic volcanism. non Notice the asymmetry of the lunar c material,enunknown extent of urKREEP layer (adapted from McCallum, le noyau encore petit. Une couche enrichie KREEP primitif (urKREEP) marquerait la limite2001). croûtemanteau. b) Structure interne vers 3 Ga.Given La face visible et la face cachée ont des épaisseurs de croûte the high uncertainties that exist concerning the KREEPy material (origin, extent, différentes. Le noyau interne solide (N.I) se distingue duofnoyau liquidewould (N.E). Modifié d'après representative samples KREEPexterne and urKREEP provide invaluable insight regarding the ac of the lunar magma ocean theory and the bulk Moon, as it represents the last liquid to solidify. G Kring et al. (2012). truth data are also needed to provide more accurate global estimates of incompatible element abun that have only been derived so far from orbital data. In addition, heat producing elements existing KREEP material may have had a large effect on lunar volcanic processes. For such reasons, it recommended targetGa, areasaprès with high signatures important information ab La formation du noyau lunaire highly est estimée versto 4.1 la KREEP formation de tolagain croûte extent and composition of the urKREEP layer, and target deep impact basins that could potentially s anorthositique à 4.4 Ga, par la migration des éléments lourds non cristallisés vers le centre de pristine urKREEP. la Lune (Runcorn, 1996). FIGURE 3.22 Cross sections of the Moon. (a) Depiction of lunar interior around 4.4 Ga, just after magma 1.3.2 debetween la surface lunaire ocean crystallization. A thin Chronologie urKREEP layer lies the crust and mantle. (b) Depiction of lunar interior around 3 Ga, near the end of mare basaltic volcanism. Notice the asymmetry of the lunar crustal La chronologie surface2001). de la Lune est basée sur material, unknown extent of urKREEP layer (adaptedde fromlaMcCallum, la datation isotopique des échantillons lunaires issus des missions Apollo et Luna. L'analyse des cratères a également Given the high uncertainties that exist concerning the KREEPy material (origin, extent, etc.), permis de déterminer sa chronologie : étude de la stratigraphie des cratères (principe de representative samples of KREEP and urKREEP would provide invaluable insight regarding the accuracy 158 recoupement) ; étude de la distribution (taille et fréquence) des impacts selon l'unité of the lunar magma ocean theory and the bulk Moon, as it represents the last liquid to solidify. Ground truth data are also needed to provide more accurate global estimates of incompatible element abundances stratigraphique (datation relative) ; et étude du degré de dégradation des cratères. that have only been derived so far from orbital data. In addition, heat producing elements existing within LaaLune comporte grandes unitésFor stratigraphiques (du plus ancien au plus récent) : KREEP material may have had large effect on lunar 5volcanic processes. such reasons, it is thus highly recommendedPré-Nectarien, to target areas with Nectarien, high KREEP signatures to gain important information about the Imbrien, Erathosténien et Copernicien. Elles ont été définies à extent and composition of the urKREEP layer, and target deep impact basins that could potentially sample partir des âges de formation des grands bassins d'impacts. Dix-neuf grandes mers lunaires, pristine urKREEP. anciens bassins d'impacts remplis par les laves basaltiques, sont répertoriées (Table 1.2). La répartition des différents types de roches sur la surface lunaire et les unités stratigraphiques associées est présentée sur les deux cartes géologiques lunaires en Annexe 1. 158 34 Evolution temporelle du champ magnétique lunaire Chapitre 1 : La Lune, notre satellite Système Copernicien Age Bassins d'impact (Ga) principaux Diamètres Volcanisme bassins (km) actuel Aucun 0.1 1.1 Aucun 3.15 3.2 3.22 3.3 Schrödinger 3.41 Imbrien Nectarien PréNectarien 3.58 3.72 Orientale 3.74 3.75 3.8 3.85 3.85 Imbrium 3.87 Serenitatis, Crisium Humorum Nectaris 3.92 Nectaris 3.92 Grimaldi Schiller-Zucchius Smythii, Nubium Fecunditatis, Tranquillitatis 3.7 Australe 4.3 Aitken, Procellarum 4.42 Formations principales Tycho Tycho Flots de Lichtenberg Copernic Copernic Flots jeunes Imbrium Surveyor Oceanus Procellarum Eratosthène 0.8 Eratosthéni en Cratères d'impact principaux Mare Crisium Sharp, Atlas Flots vieux Imbrium Humboldt Mare Fecunditatis Archimède Mare Tranquillitatis jeune Platon Sinus iridum Mare Nectaris Piccolomini Mare Serenitatis Arzachel, Cassini Mare Australe, Mare Tranquilitatis vieux Pétavius Maupertuis 312 900 1160 920 / 740 825 340 340 740 / 690 Helevius Formation Apennine Bench Formation Fra Mauro Formation Cayley Formation Bailly, Clavius Gauss début du volcanisme Longomontanus 909 / 700 603 2500 / > 3000 Ptolémée Hipparchus Maginus Descartes Formation Janssen Deslandres Formation de la Lune Tableau 1.2 : Unités stratigraphiques depuis la formation de la Lune avec chronologie des bassins d'impact majeurs, des cratères d'impact principaux et du volcanisme avec formation des mers. Adapté d'après Spudis (1993) ; Stöffler et Ryder (2001) ; Stöffler et al. (2006) et Hiesinger et al. (2011). Les grandes étapes de formation et d'évolution de la Lune peuvent être synthétisées selon l'âge d'occurrence (Figure 1.8) : formation et différenciation ; épisodes volcaniques ; champ de dynamo ; formation des grands bassin d'impacts. 1.3.3 Discussion sur la stratigraphie Le faible nombre d'échantillons (en terme de quantité et de diversité) ne permet pas de dater avec précision chaque étage stratigraphique. La limite entre le pré-Nectarien et le Nectarien est généralement admise à 3.92 Ga avec la formation du bassin Nectaris. Mais d'autres études placent la limite à 4.1 Ga (Neukum et Ivanov, 1994) ou 4.2 Ga (Wilhelms et al., 1987). La limite entre le Nectarien et l'Imbrien inférieur est également discutée dans la Evolution temporelle du champ magnétique lunaire 35 1 1 Chapitre 1 : La Lune, notre satellite littérature. Elle transite entre 3.92 (Neukum et Ivanov, 1994) et 3.85 Ga (Wilhelms et al., 1987) et entre 3.85 et 3.77 Ga pour Stöffler et Ryder (2001). Puis la transition Erathosténien-Copernicien varie entre 1.5 Ga (Neukum et Ivanov, 1994), 1.1 Ga (Wilhelms et al., 1987) et 0.8 Ga (Stöffler et Ryder, 2001). Stöffler et al (2006) propose une nouvelle échelle de temps pour la stratigraphie lunaire, en incluant les nouvelles datations de certains cratères et des données de la littérature. Les âges de certains bassins d'impacts sont encore débattus et difficilement datables, comme le discute Hiesinger et al. (2011). Figure 1.8 (page suivante) : Grandes étapes de l'évolution de la Lune. Les âges associés à chaque étape sont indiqués par leur couleur. En gris, les différents étages de la stratigraphie lunaire ; en violet, période de la formation et différenciation lunaire ; en vert, la présence d'un champ de dynamo ; en rouge, la période de flux et d'éruptions volcaniques ; en bleu, la formation des bassins d'impact ; en orange, les âges des roches rapportées lors des missions Apollo. Certaines époques du champ de dynamo ne sont pas connues, et indiquées par des traits en pointillé. Le champ faible de dynamo est contrait par les données récentes de littérature (Cournède et al., 2012 ; Tikoo et al., 2012,2014,2017 ; Wang et al., 2017) 36 Evolution temporelle du champ magnétique lunaire Forma&on du système solaire 4.568 4.25 4 3.88 3 3.56 3.29 3.9 3.6 3.08 3.8 3.3 Flux de volcanisme lunaire Grands bassins d'impact ? Champ fort de dynamo Apollo 16 Apollo 17 Apollo 12 3.2 Apollo 15 Imbrien Apollo 11 Apollo 14 Pré-Nectarien N 4.42 4.3 Forma&on & différencia&on Lune 3.92 3.85 2 Erup&ons épisodiques ? Erathosténien 1.5 1.2 1 ? ? 0 0 Copernicien Champ faible de dynamo 1 Temps (Ga) Temps (Ga) Chapitre 1 : La Lune, notre satellite 1 Evolution temporelle du champ magnétique lunaire 37 1 38 Chapitre 1 : La Lune, notre satellite Evolution temporelle du champ magnétique lunaire Chapitre Deux Le champ magnétique lunaire Image schématique de l'intérieur de la Lune et de ses lignes de champ Copyright © Evolution temporelle du champ magnétique lunaire 39 40 Evolution temporelle du champ magnétique lunaire Chapitre 2 : Le champ magnétique lunaire 2 Chapitre 2 Le champ magnétique lunaire Ce chapitre rappelle tout d'abord des notions sur le champ magnétique dont le magnétique terrestre est présenté comme cas général. Dans une seconde partie, l'origine du champ magnétique lunaire est détaillée ainsi que les mécanismes qui pourraient avoir alimenté la dynamo lunaire. Puis une partie sur l'évolution du champ magnétique lunaire permettra de comprendre quelles connaissances et incertitudes nous avons sur ce champ magnétique. 2.1 Généralités Le champ magnétique terrestre est généralement assimilé à un champ dipolaire (mais des composantes de champ non dipolaire s'additionnent à ce champ dipolaire) situé au centre de la planète. Le vecteur champ magnétique ! se décompose en tout point de l'espace en 3 composantes : Bx (orientée Nord-Sud), By (orientée Est-Ouest) et Bz (d'orientation verticale, positive vers le centre de la planète). Plus généralement, on décrit le champ magnétique en terme d'intensité B et de direction. La direction se divise en déclinaison D (angle entre le Nord géographique et la direction de la composante horizontale positive) et en inclinaison I (par rapport à l'horizontal, positive vers l'intérieur de la planète), comme l'illustre la Figure 2.1. N Bx Composante horizontale D By E I B Bz Z Figure 2.1 : Les composantes du champ magnétique. Sur Terre, le champ magnétique n'est pas stable dans le temps, il peut s'inverser. Actuellement, le champ magnétique est normal (inclinaison du champ magnétique négative dans l'hémisphère Sud et positive dans l'hémisphère Nord), la dernière inversion datant de Evolution temporelle du champ magnétique lunaire 41 2 Chapitre 2 : Le champ magnétique lunaire 772,5 ± 3,5 ka et correspond à la limite Matuyama-Brunhes (Simon et al., 2017). En paléomagnétisme plus spécifiquement, si l'échantillon analysé est orienté, il est possible de retrouver la direction et l'intensité du champ magnétique ambiant au moment où l'échantillon a enregistré ce champ. Dans le cas des roches lunaires, seule l'intensité du champ passé peut être retrouvée car le matériel lunaire (météorite ou roches Apollo) n'ont pu être orientés lors de leur échantillonnage. Cependant, des méthodes pour retrouver la paléohorizontale (à partir de la foliation magnétique de l'échantillon) et donc le paléopôle de l'échantillon ont été développées (Potter et al., 2011) et utilisées, notamment dans les études de Potter et al. (2011) ou de Cournède et al. (2012). La Terre possède un champ magnétique global et est le premier corps planétaire dont les composantes du champ magnétique ont pu être analysées en détail. Que ce soit à l'aide de satellites en orbite autour de la Terre et des observatoires au sol pour des mesures directes et en continue ; ou par des mesures indirectes sur du matériel géologique (coulées volcaniques, sédiments lacustres et marins) et archéologique (terres cuites) ; les évolutions temporelle, directionnelles et d'intensité du champ magnétique peuvent être retracées. Ses champs d'application sont très diverses (variété du matériel d'étude, du lieu géographique étudié et de la période temporelle analysée). L'archéomagnétisme est utilisé, par exemple, dans la datation de certains matériaux (grâce à des courbes de référence de variation du champ magnétique au cours du temps) et s'utilise dans la reconstruction de modèles de variation du champ magnétique (composante directionnelle et d'intensité) (Hervé et al., 2017). En paléomagnétisme, l'étude du champ magnétique permet de reconstruire le mouvement des structures géologiques (à l'échelle locale comme à l'échelle d'une plaque tectonique) ; d'étudier les variations du champ magnétique terrestre (excursions, inversions du champ) au cours des temps géologiques ; ou de dater des évènements géologiques (comme les cratères d'impacts ou des coulées volcaniques). En préliminaire de ce travail de thèse, j'ai par exemple mené une étude paléomagnétique pour dater la structure d'impact de Tunnunik, dans le grand Nord canadien (Lepaulard et al. 2019, en Annexe 2) L'origine du champ magnétique terrestre est connue, il est généré par une dynamo. Des études se concentrent sur l'évolution de ce champ magnétique afin de comprendre les variations de directions du champ (excursions) et l'âge du début de la dynamo terrestre. Biggin et al. (2015) a notamment montré de franches variations de l'intensité du champ sur de différentes périodes temporelles (par exemple, de grandes variations du moment dipolaire ont été notées sur de petites échelles de temps, de 2,5 à 1,3 Ma). Par ailleurs, les variations du Moment Dipolaire Virtuel terrestre témoignent d'une variation d'un facteur 6 sur ces derniers 100 Ma (eg., Biggin et al. 2015), ce qui implique des changements dans le cycle thermique du noyau. D'autres études se concentrent sur l'âge du début de la dynamo terrestre. Tarduno et al. (2010) montre la présence d'un champ magnétique entre 18 et 28 μT vers 3,4-3,45 Ga (en Afrique du Sud avec le craton Kaapvaal). Associés aux données de paléochamps de l'étude de Tarduno et al. (2007), ces résultats indiquent la présence d'une magnétosphère viable tôt dans l'histoire de la Terre et un suggèrent un début de fonctionnement de la dynamo terrestre dès 3,9 Ga. 42 Evolution temporelle du champ magnétique lunaire Chapitre 2 : Le champ magnétique lunaire 2 La compréhension de l'évolution du champ magnétique terrestre et de son mécanisme (dynamo) permet de faire une analogie pour les autres systèmes planétaires qui ont (comme Mercure, Jupiter ou Saturne) ou ont eu (comme la Lune ou Mars) un champ magnétique global. Dans le cas de la Lune, les mécanismes à l'origine de ce champ magnétique sont encore mal connus, ainsi que l'âge de son arrêt. 2.2 Origine du champ magnétique lunaire Actuellement, la Lune ne possède plus de champ magnétique global, comme l'ont attesté, dès 1959, les données obtenues par le magnétomètre installé sur la sonde Luna 2. Cependant, les analyses paléomagnétiques préliminaires des échantillons Apollo 11 puis Apollo 12 et 15 ont montré que certains échantillons avaient enregistré des paléointensités de allant jusqu'à 100 μT, indiquant l'existence d'un ancien champ magnétique lunaire (Banerjee et al., 1974b ; Stephenson et al., 1974 ; Collinson et al., 1977). De plus, les mesures satellitaires en orbite autour de la Lune (Clémentine, Lunar Prospector, Kaguya) ont montré la présence d'un champ crustal résiduel en surface. Ce champ n'est pas homogène sur la surface. Les mécanismes à l'origine du champ magnétique lunaire et des anomalies magnétiques restes discutés : généré par une dynamo, par les successions d'impacts météoritiques ? 2.2.1 Champ magnétique par dynamo Le principe de la dynamo repose sur la conversion d'une énergie cinétique en énergie magnétique et électrique par les processus d'induction. Sous des conditions de réchauffement par la radioactivité ou la différenciation chimique, le noyau liquide externe de la Lune peut passer dans un état turbulent et le fer liquide contenu dans le noyau peut entrer en mouvement (convection). Le mouvement du fer (énergie cinétique) va induire des courants électriques qui vont générer un champ magnétique. Pour que ce système soit autoentretenu et que le champ magnétique perdure, il faut qu'il y ait suffisamment d'énergie dans le noyau pour maintenir ces mouvements de convection. L'élément indispensable pour générer une dynamo est la présence d'une zone fluide, conductrice et en perpétuel mouvement non uniforme (Stevenson et al., 1983). Si le noyau liquide est entièrement cristallisé, les mouvements de convection et l'apport d'énergie magnétique pour l'entretien du champ magnétique s'effondrent. L'existence d'une dynamo lunaire nécessite donc la présence d'un noyau externe métallique liquide. 2.2.2 Champ magnétique par impacts Il est également possible d'aimanter une roche par un impact (Cisowski et al., 1975), générant une aimantation de choc (Cf. Chapitre 3). En effet, certaines roches Apollo ayant enregistré de fortes intensités de champ magnétique (40-95 μT, Gattacceca et al., 2010a) présentent des indices de choc suite à un impact (Cisowski et al., 1975). L'étude de Gattacceca et al. (2010a) montre notamment que l'aimantation rémanente maximale pouvant être enregistrée par les roches lunaires lors d'un chocs de basse pression (< 10 GPa) n'excède pas 1/3 d'une aimantation acquise par refroidissement thermique sous un même champ ambiant. Cependant, d'autres roches Apollo ont aussi enregistré des intensités de champ Evolution temporelle du champ magnétique lunaire 43 2 Chapitre 2 : Le champ magnétique lunaire magnétique du même ordre de grandeur mais sans traces d'impact, ce qui implique que les impacts seuls ne peuvent expliquer l'aimantation acquise dans toutes les roches. Hood et Artemieva (2008) ont montré qu'il y avait une augmentation transitoire du champ magnétique en surface après un impact, expliquant la présence d'anomalies magnétiques dans les bassins d'impact. En effet, la croûte lunaire n'est pas aimantée de façon homogène (Mitchell et al., 2008), des variations de champ magnétique ont été enregistrées sur la surface par les satellites (missions Lunar Prospector, Kaguya) et des anomalies magnétiques sont retrouvées dans certains bassins d'impact (Crisium) ou aux antipodes des grands bassins d'impact (Imbrium, Serenitatis, Crisium, Orientale) (Hood et al., 2001 ; Langlais et al., 2010). Hood et Huang (1991) ont montré qu'un grand impact pouvait générer un nuage de plasma qui serait capable d'amplifier localement le champ magnétique ambiant à l'antipode de l'impact. Les roches aux alentours de cet antipode pourraient alors s'aimanter par choc (SRM) (Gattacceca et al., 2010a) après la convergence des ondes sismiques depuis l'impact vers l'antipode (Hood et Huang, 1991 ; Wieczorek et al., 2001b). 2.2.3 Champ magnétique crustal La croûte lunaire possède un champ rémanent comme l'ont montré les données satellitaires acquises par les magnétomètres (entre 10 et 45 km d'altitude) lors des missions Clémentine puis plus récemment, Lunar Prospector et Kaguya. Les données de Lunar Prospector (Figure 2.2) et de Kaguya montrent un champ magnétique total majoritairement autour de 2 nT (Tsunakawa et al., 2015). Certaines zones présentent des intensités de champs magnétiques anormalement fortes (jusqu'à 20 nT) ou anormalement faibles (< 0,1 nT). La répartition de ces anomalies apparait très hétérogène (Mitchell et al., 2008) : certaines se concentrent dans les bassins d'impact (comme Moscoviense, Mendel–Rydberg, Humboldtianum et Crisium, Hood et al., 2011), d'autres aux antipodes de ces bassins (comme les bassins Orientale et Imbrium, Hood et al., 2001) et d'autres sans liens avec ces bassins. Certains cratères présentent deux anomalies de champ en périphérie et non pas une centrale, comme Mare Crisium (Baek et al., 2017). Deux grandes zones de champ faibles ont été identifiés : une sur la face visible qui englobe le bassin Mare Imbrium et une au nord-est de la face cachée dans les highlands. La première anomalie peut être liée à la désaimantation partielle du bassin et des environs par l'onde de choc générée lors de l'impact Imbrium (Mitchell et al., 2008). Quelques anomalies fortes sont liées aux processus magmatiques, comme la portion nord-ouest du bassin Sud Aitken dont l'anomalie serait due à la présence de dikes magmatiques qui auraient refroidis en présence d'un champ magnétique global (Purucker et al., 2012). Cependant, la plupart des anomalies magnétiques n'ont pas de lien avec la topographie de surface (impacts) ou la géologie et sont répartis aléatoirement sur la surface. Leur origine est donc incertaine. Des études récentes tentent de retrouver les sources d'aimantation (profondeur, taille, intensité) des anomalies locales de la croûte, à partir de modèles d'inversion, afin de trouver leur origine (Carley et al., 2012 ; Wieczorek et al., 2017). Wieczorek et al. (2017) trouve que la source des aimantations crustales est située entre la surface et 25 km de profondeur. Bien que quelques aimantations crustales puissent être associées avec des dépôts d'impacts près de la surface (Hood, 1981), la majorité des aimantations est localisée à plus 10 km de profondeur. Ces aimantations ne peuvent être issues de magmatismes intrusifs dus à l'absence de volcanisme dans ces régions. Ces aimantations seraient issues de matériaux crustaux aimantés sous un champ magnétique 44 Evolution temporelle du champ magnétique lunaire Chapitre 2 : Le champ magnétique lunaire 2 global qui auraient refroidis moins de 100 Ma après la formation de la croûte (Arkani-Hamed et Boutin, 1017). Figure 2.2 : Modèle en harmoniques sphériques du champ magnétique total à 30 km de la surface, d'après les données Lunar Prospector. La carte obtenue par modélisation est couplée avec des données de topographie lunaire (généré par Y.Quesnel). 2.3 Mécanismes à l'origine de la dynamo lunaire Le champ magnétique lunaire aurait été le plus probablement généré par une dynamo, de part sa durée dans le temps et avec d'aussi fortes intensités. Le manque de données directes de l'intérieur de la Lune et le manque de connaissances de l'évolution thermique de la Lune font que les mécanismes à l'origine et permettant le maintien de cette dynamo sont encore mal connus. Deux origines sont possibles (Table 2.1) pour la dynamo lunaire : une origine mécanique (par la précession ou les impacts) et une origine convective (convection thermique pure – sèche ou hydratée et convection thermochimique). 2.3.1 Origine mécanique 2.3.1.1 Précession La précession ne peut exister sans la présence d'un noyau liquide lunaire, qui a été montré par les données sismiques lors des missions Apollo (Wieczorek et al., 2006). La précession est le changement de l'axe de rotation de la Lune, sous l'influence de la Terre. Elle entraine alors un mouvement différentiel entre la base du manteau solide et le noyau liquide de la Lune. Ce mouvement conduit à un brassage mécanique (convection) en continu de ce noyau liquide qui permet de générer une dynamo. Les modèles de précession montrent qu'un champ magnétique peut être généré par la précession, en continu pendant plus de 1 Evolution temporelle du champ magnétique lunaire 45 2 Chapitre 2 : Le champ magnétique lunaire Ga, avec un champ de surface d'environ 1 μT (Dwyer et al., 2011). Dwyer et al. (2011) montre également par modélisations de dynamo que la précession lunaire a fonctionné sur la période 4,2 – 2,7 Ga, quand la distance Terre-Lune était inférieure ou égale à 48 fois le rayon de la Terre. Selon le modèle d'évolution orbitale terrestre choisi, cette distance est proposée atteinte à 1,8 Ga sous certaines conditions (e.g Dwyer et al., 2011). Weiss et al. (2014) propose que, sous certaines conditions, la précession pourrait perdurer jusqu'à 0,6 Ga mais les modèles ne l'ont pas encore montré. 2.3.1.2 Impacts La dynamo lunaire peut aussi être générée par des impacts d'astéroïdes. S'ils sont de forte amplitude, l'onde de choc provoquera une distorsion tidale au niveau de la limite manteau inférieur – noyau liquide et donc générera des mouvements de matière dans le noyau liquide. Ces mouvements internes peuvent générer une dynamo lunaire temporaire, sur des périodes étalées entre 2000 et 8000 ans (Le Bars et al., 2011) et générer des champs de l'ordre quelques micro-teslas. Les grands bassins d'impact du pré-Nectarien et du Nectarien (décrits dans le Chapitre 1) auraient pu alimenter cette dynamo temporairement, comme le suggèrent les grandes anomalies magnétiques situées au centre des bassins (voir partie 2.2.3). Par exemple, un cratère de 700 km de diamètre pourrait fournir un champ de surface de l'ordre de 0,2 à 4 μT (Le Bars et al., 2011). Le dernier bassin d'impact suffisamment important pour générer une dynamo lunaire est survenu à 3,7 Ga, et marque la date de l'arrêt de la génération d'une dynamo par les impacts. 2.3.2 Origine convective Il existe deux types de convection : convection thermique uniquement ou convection thermochimique, qui fait intervenir la cristallisation du noyau interne solide. Le champ magnétique produit par convection est relativement stable mais de faible valeur (quelques μT). 2.3.2.1 Convection thermique Les mouvements de convection sont générés par des instabilités thermiques provenant d'une différence thermique entre la base et la surface du noyau liquide lunaire. Ce gradient thermique se concentre sous forme de flux de chaleur. Ce flux de chaleur provient du noyau liquide et en s'évacuant hors du noyau, se retrouve contrôlé par le comportement thermique du manteau inférieur ; le flux total sera assez fort ou non pour provoquer des mouvements de convection. On parle de convection thermique pure quand la cristallisation du noyau n'est pas prise en compte (Nimmo et al., 2007). L'intensité du champ magnétique et sa longévité dépendent directement de l'intensité du flux de chaleur et de l'épaisseur de la cellule de convection (Konrad and Spohn, 1997; Laneuville et al., 2013). Convection avec couche thermique Stegman et al. (2003) suggère qu'une couche dite thermique entre le manteau et le noyau a pu retarder le début de la convection, limitant la quantité de chaleur libérée par le noyau. Les modèles d'évolution thermique de la Lune proposent une convection du noyau suffisante pour générer une dynamo entre 4,2 et 3,5 Ga. 46 Evolution temporelle du champ magnétique lunaire Chapitre 2 : Le champ magnétique lunaire 2 Convection thermique pure Pour ce type de convection thermique pure, les modèles de l'évolution thermique proposent un refroidissement monotone de la limite noyau – manteau, induisant une persistance de la dynamo entre la période 4,3 et 4,1 Ga seulement (Konrad et Spohn., 1997 ; Laneuville et al., 2013). Convection thermique hydratée Un autre type de convection thermique est proposé par Evans et al. (2014), qui suggère un enrichissement en eau dans le manteau inférieur (40 ppm). Cet enrichissement aurait un rôle de catalyseur du flux de chaleur du noyau vers le manteau et réduirait sa viscosité. Les modélisations de ce type de convection donnent une dynamo plus longue, qui pourrait persister jusqu'à 2,5 Ga. 2.3.2.2 Convection thermochimique La convection thermique peut être renforcée ou modifiée par une convection chimique, suite à la cristallisation du fer dans le noyau liquide. Le liquide résiduel est alors enrichi en éléments légers qui migrent vers la limite noyau- manteau inférieur. Cette cristallisation peut générer un champ de surface de 0,3 μT et dure plusieurs milliards d'années. La présence de 6-8 % en masse de soufre dans le noyau induirait la présence d'un noyau solide de 120-160 km et une persistance de dynamo jusqu'à 1 Ga (Laneuville et al., 2014). Origine de la dynamo Origine mécanique Précession Impacts * Origine convective thermique avec couche thermique thermique pure thermique hydratée thermo-chimique Période de fonctionnement (Ga) Intensités en surface (μT) 4.2-2.7 4.2-3.7 1 Quelques μT 4.2-3.5 Quelques μT 4.3-4.1 4.2-2.5 4.2-1 Quelques μT Quelques μT <1 Table 2.1 : Récapitulatif des différents mécanismes pouvant être à l'origine d'une dynamo lunaire. *La dynamo par impacts, signalée par une étoile, fonctionne par intermittence et sur de très courtes périodes suite à un grand impact. Evolution temporelle du champ magnétique lunaire 47 2 Chapitre 2 : Le champ magnétique lunaire 2.4 Evolution du champ magnétique et incertitudes Les premiers résultats des données paléomagnétiques, d'âges compris entre 4,2 et 1 Ga, ont montré la présence d'un ancien champ magnétique lunaire (e.g., Runcorn, 1973 ; Strangway et al., 1973 ; Dyal et al., 1974 ; Stephenson et al., 1976 ; Banerjee et al., 1976a,1977 ; Daily et Dyal, 1979 ; Cisowski, 1983 ; Collinson, 1993 ; Fuller, 1998), qui a pu être généré par des impacts ou une dynamo. La dynamo lunaire est le mécanisme le plus probable à l'origine du champ magnétique, en terme de durée et d'intensité du champ. Cependant, les modèles utilisant les données paléomagnétiques contraignent encore mal l'évolution du champ magnétique lunaire. C'est l'acquisition de données paléomagnétiques qui va permettre d'enrichir les modèles de dynamo et donc de mieux contraindre la durée de ce champ magnétique et les mécanismes à l'origine de ce champ. Dès le retour des échantillons Apollo, de nombreuses études paléomagnétiques ont été réalisées afin de déterminer la paléointensité enregistrée par ces roches (Banerjee et al., 1974,1976b; Fuller, 1974 ; Stephenson et al., 1974,1977 ; Collinson et Stephenson, 1976 ; Sugiura et al., 1979 entre autres). Ces données ont été compilées (données en gris, Figure 2.3) dans les synthèses de Cisowski (1982) puis Fuller et Cisowski (1987) afin de mieux comprendre l'évolution du champ magnétique lunaire. Une nouvelle vague d'analyses (Lawrence et al., 2008 ; Garrick-Bethell et al., 2009; Cournède et al., 2012; Shea et al., 2012; Tikoo et al., 2012, 2014, 2017; Garrick-Bethell and Weiss, 2013; Suavet et al., 2013; Wang et al., 2017) de ces échantillons est survenue au début des années 2000 (données en bleu, Figure 2.3). Ce nouveau jeu de données est synthétisé dans Weiss et al. (2014) notamment. Au total, c'est une centaine de données de paléointensités (Figure 2.3, Table 2.2) qui ont été acquises depuis ces 40 dernières années, données étalées principalement dans la période entre 4 et 3 Ga. Deux grandes époques se distinguent (Fuller et Cisowski, 1987) : une époque avant 3,5 Ga appelée « époque de champ fort » (High Field Epoch, HFE) et une après 3,5 Ga, appelée « époque de champ faible » (Weak Field Epoch, WFE). 48 Evolution temporelle du champ magnétique lunaire Chapitre 2 : Le champ magnétique lunaire 2 Figure 2.3 : Compilation des données de paléointensités de la littérature. En gris, les données anciennes (avant 2000) issues de Fuller et Cisowski. (1987) ; en bleu les données récentes (après 2000) compilées à partir des données rassemblées dans Weiss et Tikoo. (2014) ; Tikoo et al. (2017), Wang et al. (2017). Le principal problème des données anciennes de paléointensités (en gris sur la Figure 2.3) est qu'elles ont été acquises par des méthodes parfois peu adaptées aux échantillons lunaires (chauffes en utilisant de la poudre de titane, Suguira et al., 1980 ; chauffes sous vide, Collinson et al., 1973; Dunn and Fuller, 1972; Fuller et al., 1979; Gose et al., 1973; Hoffman et al., 1979; Larson, 1978) ou en cours de développement (Gose et al., 1973). Les phénomènes de choc dans les roches ont commencé à être analysés dans la littérature mais restent mal compris (Cisowski et al., 1975). De plus, l'âge radiométrique des âges ne correspond pas forcément à l'âge de l'acquisition de l'aimantation ; âge qui est contrôlé par datation sur les échantillons récents (voir détails Chapitre 3). Ces données doivent être triées et utilisées avec précaution. C'est pourquoi elles ne seront pas utilisées dans la suite de ce travail. Evolution temporelle du champ magnétique lunaire 49 R ES E A RC H | R E V IE W 2 Chapitre 2 : Le champ magnétique lunaire EA H EEA |ARC R EH V IE|| WR R R ES E A RC H | RREES V IE WRC RES ES RC H REEV VIE IEW R ES E A RCavons H | R Edonc V IE W vu dans la partie précédente Nous les mécanismes pouvant générer une E S Echamp A R C H | magnétique. REVIEW dynamo et donc Run Chaque mécanisme pris individuellement ne peut EV VIE WES E A RC H | R E VIE W R ES E A RC H | R of anoth RE IER W o of Si another geologic associatio of expliquer la longue| durée du champ magnétique enregistré dans les roches lunaires. l'on of another geologic association wit ern farsi eli ern farside anomalies: They er ern farside anomalies: They lie on of another geologic ass regarde les données récentes du paléomagnétisme, les mécanismes à l'origine de la edge dynamo edge of t eT of the vast South Pole-A ed ern farside anomalies: edge of of the vast South Pole-Aitken of an ofofanother another geologic associatio another geologic associat geologic associatio lunaire peuvent être répartis selon leur âge (Figure 2.4) : the large th the largest known impact crat th edge of the vast South the largest known impact crater on ernldl ern farside anomalies: They ernfarside farside anomalies: They ern anomalies: They This the largest known impa This discovery has led to This discovery has led to two edgel edge of the vast South Pole-A edge of the vast South Pole edge of the vast South Pole-A Convection This discovery has these fo for these anomalies asfor alternat fo for these anomalies as alternatives t thermochimique the the largest known impact cra thelargest largest known impact cr the known impact crat for these anomalies as al plasma f p plasma fields hypothesis. Both pl plasma fields hypothesis. Both prop Th fieldshas hypothesis Thisplasma discovery has ledto t This discovery led This discovery has led to er than etr erfor than reflecting locally high er er than reflecting locally high Bpal eranomalies than reflecting local for these as Précession for these anomalies altern for these anomalies asasalternat alterna manifest manifestation of materials with loca m manifestation materials with m manifestation of materia bis plasma fields hypothesis. Both plasm plasma fieldsof hypothesis. Bot plasma fields hypothesis. Both that were in magnetized in thatthat were magnetized a dynamo f that were were magnetized in a dyna th th 1000 er high er th thanreflecting reflectinglocally locally hi ererthan than reflecting locally hig of these(71) proposals (71) of these proposals identifies th ofmanifestation these proposals (71) identif o of of these of materials wit manifestation materials w man manifestation ofof materials wit with the inferred with the the inferred locations oflocat <4.0 with inferred locations ow w with the that magnetized in thatwere were magnetized adyn dy that were magnetized ininaathat dyn dikes located within the dikes located within the SPA (Fig. 3). dikes located within the SPA (F di d dikes loc of these proposals (71) identi these proposals (71)identi iden great vertical(71) thickness of th ofofthese proposals great vertical thickness (30 km) o great vertical thickness (30 gr gkoo great ver enables them to produc with the inferred locations with the inferred locations with with thetoinferred locations 100 enables themthem produce the strong alies despite the weak NR enables to produce the en et dikes within the SPA (F enables dikeslocated located within the SPA dike dikes located within the SPA (F aliesalies despite theThe weak NRMNRM ofproposa typical despite the second weak ofal atkk great vertical thickness (30 alies desp great vertical thickness (30 grea great vertical thickness (30 TheThe second the proposal anomalies(72) are emp in th second proposal (72) enables them to produce the enables them to produce th The enab enablesejecta them to the produce thes impact mel the anomalies are and in expected alies despite the weak NRM of t the anomalies are in the exp th th alies despite the weak NRM o alies the anom alies despite the weak NRM of impactor (Fig. 3). The ejecta and impact melt derived fr 10 The second proposal (72) ejecta and impact melt deriv ej The second proposal (72 e proposal is that typica Th The second proposal (72) ejecta an impactor (Fig. 3). The key advan the are in the exp which far F impactor (Fig. are 3). The key a im theanomalies are inmore the ex im the the anomalies are in the exp impacto proposal isanomalies that typical chondriti 4 times that of m and 10 ejecta and impact melt deri proposal is that typical chon pr ejecta and impact melt de p eject andmore impact melt deri proposa whichejecta are far Fe-rich, have feldspathic rocks, respe impactor (Fig. 3). The key 4 are far more Fe-rich, impactor (Fig. 3). The key w imp w impactor (Fig. 3). The key which a times that of mare basalts andwhich 10 osition of relatively thin proposal is that typical chon 4a proposal is that typical ch times that of mare ba and 104 rocks, an prop proposal is that typical cho feldspathic respectively. Th 1 and 10 to thousands of meters which are far more Fe-rich which arerocks, far more Fe-ric feldspathic respectivel fe whic which are far more Fe-rich fe have fundamen osition of relatively thin layers (perh 4should that offeldspath mare ba and 1010 4 4times times that of mare and osition of relatively thin layers netic properties on the and times that of mare b and 10 ooss to thousands of meters thick) ofos osition feldspathic rocks, respectivel Fig. 6. Paleointensity measurements of the lunar magnetic field using modern methods andto estithat from more recen feldspathic rocks, respectiv thousands of meters thick felds to feldspathic rocks, respective should have as fundamentally enhanc to to osition ofofrelatively thin layers mated lifetimes of various lunar dynamos. Each point represents measurements of a single Apollo count for most of thous the oth osition relatively thin laye should have fundamentally en ositi sh osition of relatively thin layer netic properties on the surface. SPA sh should sample. Circles represent actual paleointensities, downward arrows represent upper limits on paleoalies. However, thusthick farh totothousands ofofmeters 0.1 6. Paleointensity thousands meters Fig. measurements of the lunar magnetic field using modern methods and estitothic th netic properties onindicating the surface. ne tofrom thousands of meters thick as that more recent impacts, c n intensity, and right arrows represent upper limits on age. Green and blue points were measured using the identified that netic pro should have fundamentally e should have fundamentally Fig. 6. Paleointensity measurements of the Each lunar magnetic field using modern methods and estimated lifetimesIRM of various lunar dynamos. point represents measurements of a single Apollo Fig. 6. Paleointensity Paleointensity measurements of thelimits lunar magnetic field using methods and estishou asshould that from more recent impa have fundamentally ec count for most ofestithe other isolated as Fig. 6. measurements of the lunar magnetic field using modern methods and estimethods, respectively, thelunar upper were derived from the ARMmodern method. afr (top ~30 cm) of the so Fig.and 6. Thellier-Thellier Paleointensity measurements ofand the magnetic field using modern methods and netic properties on the surface as that netic properties on the surfac sample. Circles of represent actual downward represent upper limits on paleomated lifetimes various lunar dynamos. Each point represents measurements ofbox a single Apollo mated lifetimes of various lunar dynamos. Each point represents measurements of aathus single Apollo netic Note the datum atpaleointensities, <7 Ma at the of extreme rightlunar of arrows the dynamos. figure.The shaded green encompasses the mean alies. However, no evidence netic properties on the surface count for most of the other isol co region isfar anomalously ir mated lifetimes various Each point represents measurements of single Apollo co Fig. 6. 6. Paleointensity Paleointensity measurements of the lunar magnetic field using modern methods and estimated lifetimes of various lunar dynamos. Each point represents measurements of as aassingle Apollo that from more recent imp count for Fig. measurements of the lunar magnetic field using modern methods and estithat from more recent im paleointensity value for the period 3.56 to 4.25 Ga (central green line) and its estimated 2 SD uncertainty intensity, and right arrows actual represent upper limits on age. Green and blue points were measured using the Fig. 6. Paleointensity measurements of the lunar magnetic field using modern methods and estiFig. 6. Paleointensity measurements of the lunar magnetic field using modern methods and estisample. Circles represent paleointensities, downward arrows represent upper limits on paleoBoth of these new pr sample. Circles represent actual paleointensities, downward arrows represent upper limits on paleoidentified indicating that at least the as th as that from more recent imp alies. However, thus far no evid al sample. Circles represent actual paleointensities, downward arrows represent upper limits on paleoa mated lifetimes of various lunar dynamos. Each point represents measurements of a single Apollo count for most of the other isois sample. Circles represent actual paleointensities, downward arrows represent upper limits on paleoalies. Ho lifetimes ofand various lunar dynamos. Each point represents measurements of amethod. single Apollo (upper lower lines) (see table S6). The paleointensity value for 76535 (leftmost green point) is measured count for most the other fields rather than IRMmated andand Thellier-Thellier methods, respectively, and the upper limits were from the ARM mated lifetimes of lunar dynamos. Each point represents measurements of anamo single Apollo mated lifetimes of various lunar dynamos. Each point represents measurements of aand single Apollo intensity, right arrows represent upper limits onvarious age. Green and bluederived points were measured using the (top ~30 cm) of the southern fars intensity, and right arrows represent upper limits on age. Green blue points were using the count for most ofof the other iso identified indicating that atcoun lea id intensity, and right arrows represent upper limits on age. Green and blue points were measured using the 0.01 sample. Circles represent actual paleointensities, downward arrows represent upper limits on paleoid alies. However, thus far no evi intensity, and right arrows represent upper limits on age. Green and blue points were measured using the currently not well constrained due to spurious demagnetization effects. Vertical dashed lines show sample. Circles represent actual paleointensities, downward arrows represent upper limits on paleoidentified the magnetic anomalie alies. However, thus far no e Note the datum at <7 Ma at the extreme right of the figure.The shaded green box encompasses the mean sample. Circles represent actual paleointensities, downward arrows represent upper limits on paleosample. Circles represent actual paleointensities, downward arrows represent upper limits on paleoregion is anomalously iron metal-ri IRM and Thellier-Thellier methods, respectively, and the upper limits were derived from the ARM method. alies IRM and Thellier-Thellier methods, respectively, and the upper limits were derived from the ARM method. alies. However, thus far no evi (top ~30 cm) of the southern (t(t IRM and Thellier-Thellier methods, respectively, and the upper limits were derived from the ARM method. intensity, and right arrows represent upper limits on age. Green and blue points were measured using the identified indicating that at lea estimated maximum lifetimes of various proposed lunar dynamo mechanisms: purely thermal convection a dynamo comes from IRM and Thellier-Thellier methods, respectively, and the upper limits were derived from the ARM method. intensity, and right arrows represent upper limits on age. Green and blue points were measured using the (top ~30 identified indicating that at lt paleointensity value for the period 3.56 to 4.25 Ga (central green line) and its estimated 2 SD uncertainty intensity, and right arrows represent upper limits on age. Green and blue points were measured using the Both of these new proposals req intensity, and right arrows represent upper limits on age. Green and blue points were measured using the iden Note the atin <7a Ma the extreme right of<7 the figure.The shaded green themethod. mean identified indicating that at lea Note the datum datum at <7 Ma atthe the extreme right ofbox theencompasses figure.The shaded green box encompasses the mean region isofanomalously iron me re Note the at Ma at the extreme right of the figure.The shaded green box encompasses the mean IRMdatum and Thellier-Thellier methods, respectively, and upper limits were derived from thegreen ARM dry at mantle (with and without an early thermal blanket surrounding the core); impact-driven mantle re many anomalies with (top ~30 cm) of the souther Note the datum at <7 Ma at the extreme right of the figure.The shaded box encompasses the mean IRM and Thellier-Thellier methods, respectively, and the upper limits were derived from the ARM method. (upper and lower lines) (see table S6). The paleointensity value fortoand 76535 (leftmost green point) is derived region is (topthe ~30 cm) ofthe the southe IRM and Thellier-Thellier methods, respectively, and the from upper limits were from ARM method. namo fields rather than plasma fiel IRM Thellier-Thellier methods, respectively, and the upper limits were derived the ARM method. (top paleointensity for period 3.56 to 4.25 Gafor (central green itsGa estimated 2green SD uncertainty (top ~30 cm) of souther paleointensity value for the period 3.56 4.25 Ga (central line) and its 2 SD uncertainty rotational changes, purely thermal convection in3.56 aline) wet precession; and thermochemical core Both of these new Nectarian (i.e., proposal ~3.85 to 3 Noteand thevalue datum atthe <7 Ma at the extreme right of the figure.The shaded green box encompasses the mean paleointensity value the period tomantle; 4.25 (central green line) and its estimated estimated 2 SD uncertainty is anomalously iron mm Note the datum at <7 <7 Ma Ma at the extreme right ofMa the figure.The shaded green box encompasses the mean paleointensity value for the period 3.56 to 4.25shaded Ga (central green line)green and its estimated 2region SD uncertainty currently not well constrained due to spurious demagnetization effects. Vertical dashed lines show region is anomalously iron Both o the magnetic anomalies. Yet more Note the datum at <7 at the extreme right of the figure.The shaded green box encompasses the mean Note the datum at at the extreme right of the figure.The green box encompasses the mean regio convection driven by core crystallization. The horizontal line shows the maximum lunar surface field as region is anomalously iron m (upper and lower lines) (see table S6). The paleointensity value for 76535 (leftmost point) is (upper and lower lines) (see table S6). The paleointensity value for 76535 (leftmost green point) is pre-Nectarian (i.e., mor namo fields rather than plasm na paleointensity value for (upper the period 3.56 to 4.25 Ga (see (central green line) andpaleointensity its estimated 2value SD uncertainty and lower lines) table S6). The for 76535 (leftmost green point) is Both of these new proposa n paleointensity value for the period 3.56 to 4.25lunar Ga (central green line) and its(central estimated 2SD SD uncertainty estimated lifetimes of various proposed dynamo mechanisms: purely thermal (upper and lower lines) (see table S6). The paleointensity value for 76535 (leftmost green point) is 0.001 Both these new propos aVertical dynamo from the recent id from Eq. 2.to The lifetimes of the precession and thermochemical dynamos are highly namo fie paleointensity value for the period 3.56 to 4.25 Ga green line) and itsuncertain. estimated 2comes SD paleointensity value for the period 3.56 to 4.25 Ga (central green line) and its estimated 2convection uncertainty (Fig. 3) (74–76). These Bo Both ofofuncertainty these new proposa currently notmaximum wellestimated constrained due spurious demagnetization effects. Vertical dashed lines show currently not well constrained due to spurious demagnetization effects. dashed lines show the magnetic anomalies. Yet m (upper and lower lines) (see table S6). The paleointensity value for 76535 (leftmost green point) is th namo fields rather than plasm currently not well constrained due to spurious demagnetization effects. Vertical dashed lines show th and lower lines) (see table S6). The paleointensity value for is 76535 (leftmost green point) is in a (upper dry mantle (with and without an early thermal blanket surrounding the core); impact-driven mantle Paleointensity data set is S6). from (14, 18, 50,(see 59–61, 63, 66) and also1.5 listed in table S6. namo fields rather than plas 4.5 4 3.5 3 2.5 2 1 0.5 0 currently not well constrained due to spurious demagnetization effects. Vertical dashed lines show of many anomalies within the inte tized any existing NRM (upper and lower lines) table S6). The paleointensity value for 76535 (leftmost green point) is (upper and lower lines) (see table The paleointensity value for 76535 (leftmost green point) is the mag nam namo fields rather than plasm estimated maximum lifetimes of various proposed lunar dynamo mechanisms: thermal convection estimated maximum lifetimes of various various proposed lunar dynamo mechanisms: thermal convection currently not well constrained due to spurious demagnetization effects.purely Vertical dashed lines show purely a dynamo comes from the rec a the magnetic anomalies. Yet estimated maximum lifetimes of proposed lunar dynamo mechanisms: purely thermal convection a currently not estimated well constrained duenot to well spurious demagnetization effects. Vertical dashed lines show rotational changes, purely thermal convection in constrained a wet mantle; precession; and thermochemical core sheets that should have the magnetic anomalies. Ye Nectarian (i.e., ~3.85 to 3.92 Ga)the bas lifetimes of various proposed lunar dynamo mechanisms: purely thermal convection Fig. 6.in Paleointensity measurements the lunar magnetic field using modern methods and es currently due tomechanisms: spurious demagnetization effects. Vertical dashed lines show currently well due to spurious demagnetization effects. Vertical dashed lines show a dynam Age (Ga) m magnetic anomalies. Yet a dry mantle not (with andconstrained without an early thermal blanket surrounding the core); impact-driven mantle inmaximum dry mantle (withof and without an early early thermal blanket surrounding the core); impact-driven mantle estimated maximum lifetimes of mantle various proposed lunar dynamo purely thermal convection ofathe many anomalies within the of dynamo comes from the rec in aa dry (with without an thermal blanket surrounding thepre-Nectarian core); impact-driven mantle cite Curie point tothe amb persisted in lunar asurrounding weakened state (surface field of toin be able to power avarious dynamo this and late in history or estimated maximum lifetimes of proposed lunar dynamo mechanisms: purely thermal convection convection driven by core crystallization. The horizontal line shows the maximum lunar surface field as a dynamo comes from (i.e., more than ~3.9 estimated maximum lifetimes of various proposed dynamo mechanisms: purely thermal convection a dry mantle (with and without an early thermal blanket the core); impact-driven mantle estimated maximum lifetimes ofconvection various proposed lunar dynamo mechanisms: purely thermalprecession; convection a dy of many a dynamo comes from the re rotational changes, purely thermal in a wet mantle; precession; and thermochemical core in a dry mantle (with and without an early thermal blanket surrounding the core); impact-driven mantle rotational changes, purely thermal convection in a wet mantle; and thermochemical core Nectarian (i.e., ~3.85 to 3.92 Ga of many anomalies within th N mated lifetimes of various lunar dynamos. Each point represents measurements ofanomalies a mantle single Apo peratures far more slo ~2 mT) until sometime after 3.3 Ga. (Figs. 4 and 6).without rotational changes, purely thermal convection in acore); wethighly mantle; precession; and thermochemical core N in aa: dry mantle (with and an early thermal blanket surrounding the impact-driven mantle estimated from Eq. 2. The lifetimes of the precession andblanket thermochemical dynamos are uncertain. of many within t (Fig. 3) (74–76). These impacts Figure 2.4 Bilan des divers mécanismes permettant lemantle; maintien de lacore); dynamo dans leand temps, associés in a dry mantle (with and without an early thermal blanket surrounding the core); impact-driven in dry mantle (with and without an early thermal surrounding the impact-driven mantle rotational changes, purely thermal convection inprecession; amaximum wet mantle; precession; core oflike m of many anomalies within th Nectaria rotational changes, thermal convection in acrystallization. wet and thermochemical core convection driven by corepurely crystallization. The horizontal line shows the lunar surface field asthermochemical convection driven by core core crystallization. The horizontal line shows the maximum lunar surface field as Nectarian (i.e., ~3.85 to 3.92 G These results confirm some Apollo-era concluthicknesses, over athan per pre-Nectarian (i.e., more pr convection driven by The horizontal line shows the maximum lunar surface field as Paleointensity data set is from (14, 18, 50, 59–61, 63, 66) and is also listed in table S6. rotational changes, purely thermal convection in a wet mantle; precession; and thermochemical core p tized any existing NRM, producing Nectarian (i.e., ~3.85 to 3.92 sample. Circles represent actual paleointensities, downward arrows represent upper limits on pale The global context of crustal magnetism rotational changes, purely thermal convection in a wet mantle; precession; and thermochemical core rotational changes, purely thermal convection in a wet mantle; precession; and thermochemical core convection driven by core crystallization. The horizontal line shows the maximum lunar surface field as Nect Nectarian (i.e., ~3.85 to 3.92 G aux estimated données récentes (dès 2009) de paléointensités. Les cercles : valeurs AF ; les losanges : valeurs convection driven by core crystallization. The horizontal line shows the maximum lunar surface field as pre-Nect any impact-generated sions and refute others. Modern paleomagnetic from Eq. 2. The lifetimes of the precession and thermochemical dynamos arethermochemical highly uncertain.dynamos estimated from Eq. 2.The The lifetimes ofshows the precession precession and are highly pre-Nectarian (i.e., more than (Fig. 3) should (74–76). These impact (F estimated from Eq. 2. lifetimes the and thermochemical dynamos are highly uncertain. uncertain. convection driven by core core crystallization. The horizontal lineof thehorizontal maximum lunar surface field as (F sheets that have cooled fro pre-Nectarian (i.e.,as more tha convection driven by core The line the maximum lunar surface field convection driven crystallization. The horizontal line shows the lunar surface field as central basin anomalie Coincident with these new paleointensity exmeasurements have now demonstrated that aalso pre-N estimated from Eq.50, 2. lifetimes ofcrystallization. the precession and thermochemical dynamos are highly uncertain. pre-Nectarian (i.e., more than estimated from Eq. 2. The lifetimes ofThe the precession and thermochemical dynamos areshows highly uncertain. (Fig. 3)tiz ( Paleointensity data setEq. isby from (14, 18, 59–61, 63, and is listed inmaximum table S6. (Fig. 3) (74–76). These impac Paleointensity data set is66) from (14, 18, 50, 59–61, 63, 66) and is also listed in table S6. tized any existing NRM, prod intensity, and right arrows represent upper limits on age. Green and blue points were measured using thermiques ; les rectangles : limites supérieures (voir explications Chapitre 3). La zone grisée Paleointensity data set is from (14, 18, 50, 59–61, 63, 66) and is also listed in table S6. estimated from 2. The lifetimes of the precession and thermochemical dynamos are highly uncertain. cite Curie point to ambient lunar persisted in a weakened state (surface field of to beestimated able to power a dynamo this late in history tit (Fig. 3) (74–76). These impa field like that expecte periments, there have also been important recore dynamo likely existed on the Moon at least estimated from Eq. 2. The lifetimes of the precession and thermochemical dynamos are highly uncertain. from Eq. 2. The lifetimes of the precession and thermochemical dynamos are highly uncertain. (Fig. (Fig. 3) (74–76). These impac PaleointensityPaleointensity data set is from (14,set 18, 50, 59–61, is also listed table S6. listed in table S6. sheets data is from (14,63, 18,66) 50,and 59–61, 63, 66) in and is also tized any existing NRM, prod tized any that should have coole sh Paleointensity set is from (14, 18, 50, 59–61, 63, 66)and and also listedafter in table S6. peratures more slowly (given ~2 mT) until 3.3aux Ga.the (Figs. 4 àand cent investigations of lunar crustal during the Nectarian an asdata far back inchamp time (14, as 4.25 Ga, in contradiction to 18, tized any existing NRM, pro sh la 6). l'époque de fort. Les pointillés gris correspondent dates de finfar de IRMcorrespond and Thellier-Thellier methods, respectively, the upper limits were derived from the ARM metho Paleointensity data set is from (14, 50, 59–61, 63, 66) and is also probables listed in magnetic table S6. Paleointensity data set is from 18, 50, 59–61, 63, 66) and isissometime also listed in table S6. tized tized any existing NRM, prod sheets that should have coole sheets th 4 cite Curie point to ambient persisted in a in weakened (surface field of thicknesses, to beThese able to power dynamo in history ci persisted in aa weakened state (surface field of tothis be able to power a dynamo dynamo this late lateanomalies. in historyAsstate discussed above, a key finding However, once again, thea hypothesis of able alate lateto origin (i.e., after 4.0 Ga). results confirm some Apollo-era concluover ashould period of shee >10 sheets that have coo cltl persisted in weakened state (surface field of to be power a this history sheets that should have coole −1 chaque mécanisme. Modifié d'après Cournède et al. (2012), Suavet et al. (2013), Weiss et Tikoo. cite Curie point tomthe ambient persisted in a the weakened state (surface field of theafter toand be able toOn power a dynamo this late in history The global context of crustal magnetism cite Curi persisted in a weakened state (surface field of to be able to power a dynamo this late in history Note the datum at <7 Ma at the extreme right of the figure.The shaded green box encompasses me peratures far more slowly (g ~2 mT) until sometime after 3.3 Ga. (Figs. 4 6). ) exceed sities (~1 A from Apollo-era measurements was disthe other hand, modern measurements have pe ~2 mT) until sometime 3.3 Ga. (Figs. 4 and 6). any impact-generated field. Ther sions and refute others.aModern paleomagnetic cite3.3 Curie point to ambient persisted in ahistory weakenedpersisted state (surface fieldof of after to be able to power dynamo this late in history history p ~2 mT) until Ga.far (Figs. andlate 6).power cite in asometime weakened state (surface field to be4this able to a dynamo this insometime cite Curie point to ambient persisted in aconcluweakened state (surface field to be able to power peratures more slowly (g ~2 mT) until 3.3 Ga. (Figs. 4etand 6). covery of intense magnetic anomalies, endogenous lun confirmed the existence ofconcluain high-field (mean of late perature ~2several mT)after until sometime after 3.3thicknesses, Ga. (Figs. 4a dynamo and 6). These results confirm some Apollo-era over a of period of These results confirm some Apollo-era th (2014), Tikoo al. (2017), Wang etresults al. (2017). central basinknown anomalies likely req Coincident with new paleointensity exmeasurements have now demonstrated that a 4.25 peratures farmore more slowly ~2 mT)(central until these sometime after 3.3 Ga. (Figs. 44value and 6). These confirm some Apollo-era conclupaleointensity for the period 3.56 to Ga green line) and its estimated 2 SD uncertain th pera ~2 mT) until sometime after 3.3 Ga. (Figs. 4 and 6). peratures far slowly ( ~2 mT) until sometime after 3.3 Ga. (Figs. and 6). These results confirm some Apollo-era concluthicknesses, over a period of including those on the southern farside, that flect the addition of Fe~77 mT from six samples) epoch lasting from at The global context of crustal magnetism The global context of crustal magnetism These results confirm some Apollo-era concluthicknes impact-generated field. sions refute others. Modern sions and refute others. Modern paleomagnetic Theimportant global context ofany crustal magnetism field like that expected aan periments, therecontext have alsoofbeen recoreand dynamo likely existed on thepaleomagnetic Moon at least These results confirm some Apollo-era conclu-recognized thicknesses, over afrom period The global crustal magnetism aoc sions and refute others. Modern paleomagnetic apparently require crustal materials with NRM It has been suggested least 3.85 to 3.56 Ga, as originally These results confirm some Apollo-era concluthick These results confirm some Apollo-era concluthicknesses, over a period any impact-generated field. sions and refute others. Modern paleomagnetic The global context of crustal magnetism (uppermeasurements and lower lines) (see table S6). The paleointensity value for 76535 (leftmost green point) The global context of crustal magnetism any imp sions and refute others. Modern paleomagnetic central basin anomalies Coincident with these new paleointensity exhave demonstrated that a now ce cent investigations of thea crustal magnetic during the Nectarian and expre-Necta as far back in time asnow 4.25 Ga, in contradiction towe Coincident with these new paleointensity measurements have now demonstrated that alunar any impact-generated field sions and refute others. Modern paleomagnetic The global context of crustal magnetism The context of crustal magnetism lack of anomalies anomalies in th larger than that of paleointensity nearly all known Apollo during thenow Apollo era. However, now see thatglobal c Coincident with these new paleointensity ex- likel measurements have demonstrated L'arrêt d'une dynamo est lathat plus probable mais l'âge exact de any sions and refute others. Modern paleomagnetic central basin likel any impact-generated field sions andprogressif refute others. Modern paleomagnetic Coincident with these new exmeasurements have demonstrated that a l'hypothèse field like that expected from periments, there have also been important recore dynamo likely existed on the Moon at least anomalies. As discussed above, a key finding However, once again, the inferred the hypothesis of a late origin (i.e., after 4.0 Ga). central Coincident with these new paleointensity exmeasurements have now demonstrated that a fie periments, there have also been important recore dynamo likely existed on the Moon at least central basin anomalies lik Coincident with these new paleointensity exmeasurements have now demonstrated that a samples (35). Global magnetic field mapsnew from sins (<1 nT at the surf the dynamocore subsequently declined precipitously currently not well constrained due to spurious demagnetization effects. Vertical dashed lines sho fib periments, there have also been important redynamo likely existed on the Moon at least cent Coincident with these paleointensity exmeasurements have now demonstrated that a field like thatanomalies expected like from there have also important recoreest dynamo likely existed on the Moon(Weiss atthat leasta et periments, central basin Coincident with these newbeen paleointensity exmeasurements havemal now demonstrated sonasarrêt encore modélisé al., 2014). De plus, les incertitudes liées à−1Nectarian ) exceed what ispreach sities (~1 Athe m from the Apollo-era measurements was important the disOn hand, modern measurements have cent investigations of the lunar crustal magnetic during and far the backother in time as 4.25 Ga, infar contradiction to field lik thethere Lunar Prospector spacecraft, which only becentral impact melt laye tocore <∼4 mT byas 3.2 Ga. In particular, modern analyperiments, there have also been important redynamo likely existed on the Moon at least cent investigations of the lunar crustal magnetic du back in time as 4.25 Ga, in contradiction to field like that expected fro periments, have also been recore dynamo likely existed on the Moon at least cent investigations ofpurely the lunar crustal magnetic d as core far in time asleast 4.25 inthe contradiction to investigations of the lunar crustal magnetic during the−3 Nectarian andindic preas fardynamo back inses time asexisted 4.25 Ga, in contradiction to Ga,cent field periments, there have also beenthermal important redynamo likely existed on Moon atdynamo least field like that expected from periments, there have also been important recore likely onback the Moon at −1 estimated maximum lifetimes of various proposed lunar mechanisms: convecti A lunar m ) may ~10 came available 6anomalies. years (8,of 29, 68), have now of samples 3.3 Gacontradiction younger that covery of investigations several intense anomalies, known endogenous materials the of4.25 athe high-field (mean anomalies. As discussed above, aago key finding However, again, the inf theconfirmed hypothesis late origin (i.e., after 4.0 l'intérieur de laofexistence Lune et àthe son évolution thermique ne permettent pas encore de prédire avec As discussed above, aaonce key finding H hypothesis ofGa). aoflate late origin (i.e., after 4.0 Ga).ofmagnetic cent investigations the lunar crustal magnetic during th far back in time asor 4.25 Ga, insuggest toAs cent the lunar crustal magnetic during the Nectarian and pr as back inaas time as Ga, in tocontradiction anomalies. As discussed above, key finding H hypothesis of a origin (i.e., after 4.0 Ga). anomalies. discussed above, a key finding However, once again, the inf thefar hypothesis of a late origin (i.e., after 4.0 Ga). cent investigations of the lunar crustal magnetic duri as far back in time as 4.25 Ga, in contradiction to cent investigations of the lunar crustal magnetic during the Nectarian and pre as far back in time as 4.25 Ga, in contradiction to −1 active by the confirmed the unique size and intensity of the addition or all epoch of thethe Apollo-era paleointensity analyincluding those on the southern farside, that flect the of−1)Fe-rich impacto mT from six most samples) lasting from atmodern exceed what sities (~1no A longer m from the4.0 Apollo-era measurements was the disOn~77 thethe other hand, modern measurements have si from the Apollo-era measurements was the disOn other hand, measurements have anomalies. As discussed above, a key finding However, once again, the i hypothesis ofand a late origin (i.e., after 4.0 Ga). anomalies. As discussed above, a key finding However the hypothesis of a late origin (i.e., after Ga). in aprécision dry mantle (with without an early thermal blanket surrounding the core); impact-driven man la fin de la dynamo lunaire. De plus, l'absence de données entre 3 et 1,5 Ga rend la ) exceed what sities (~1 A m from the Apollo-era measurements was the disOn the other hand, modern measurements have si from the was the dis-Ga). On thehypothesis other hand, have anomalies. As discussed above, a(i.e., key finding How the of amodern lateapparently origin (i.e.,require after 4.0 Ga). anomalies. As discussed above, a Apollo-era key finding However, once again, the in the hypothesis of a as late origin (i.e., after 4.0 Ga). southern farside anomalies and theirmeasurements spatial after ~3.85 H ses Ga, from this late epoch, which ranged up measurements to apcrustal materials with NRM Itknown has been suggested (29) that leastOn 3.85 to 3.56 recognized covery of the several intense magnetic anomalies, endogenous lunar mat confirmed the existence of aoriginally high-field (mean ofupper wha sities (~1 Aconsistent m−1−1) exceed from Apollo-era measurements was theintense disthe other hand, modern measurements have covery of several magnetic anomalies, kn confirmed the existence of acovery high-field (mean ofwith sities (~1 from the Apollo-era measurements was the disOn the other hand, modern measurements have of several intense magnetic anomalies, known endogenous lunar ma confirmed the existence of a high-field (mean of correlation antipodes of four, or perhaps not with th parent values of 20 mT, are only limits on sitie from the Apollo-era measurements was the disOn the other hand, modern measurements have covery of several intense magnetic anomalies, k confirmed the existence of a high-field (mean of ) exceed what sities (~1 A m from the Apollo-era measurements was the disOn the other hand, modern measurements have compréhension de la transition HFE-1.5 Gaoflarger difficile. rotational changes, purely thermal convection inalasting athose wet mantle; precession; and thermochemical co lack ofknown anomalies in the centers of than that of nearly all known Apollo the Apollo era. However, we now see that including on the southern farside, that flect the addition ofofthat Fe-rich im ~77during mTconfirmed from samples) epoch lasting from at covery of several intense magnetic anomalies, endogenous lunarpa m the existence of amT high-field (mean including those on the southern farside, fle ~77 from six samples) epoch from at covery several intense magnetic anomalies, known confirmed the existence of a high-field (mean of dynamo from even five (69), the eight basins. the lunar field therefore do not require those on southern farside, that flect thecore addition Fe-rich im ~77 mT six from six samples) epoch lasting from at covery ofyoungest several intense magnetic anomalies, know confirmed the existence ofepoch aincluding high-field (mean oftheofof covery ofGlobal several intense magnetic anomalies, known endogenous lunar ma confirmed the existence of aand high-field (mean ofsamples including those on theHowsouthern farside, that fle ~77 mT from six samples) lasting from at (35). magnetic field maps from sins (<1 nT at the surface, sugges the dynamo subsequently declined precipitously including those on the southern farside, that flect the addition offlect Fe-rich ~77 mT from six samples) epoch lasting from atas apparently require crustal materials with NRM It has been suggested (29) least 3.85 to 3.56 Ga, as originally recognized apparently require crustal materials with NRM least 3.85 to 3.56 Ga, originally recognized ever, the acquisition of the first high-resolution 3.56 to 3.85 Ga (Imbria dynamo at this time. Finally, a recent analysis convection driven by core crystallization. The horizontal line shows the maximum lunar surface field including those on the southern farside, that the ~77 mT from six samples) epoch lasting from at apparently require crustal materials with NRM It has been suggested (29) least 3.85 to 3.56 Ga, as originally recognized those onthat the southern that flect ~77 mT from sixfrom samples) epoch lasting fromspacecraft, including those onatthe including southern farside, flect thefarside, addition of Fe-rich im ~77mT mTbyfrom six In samples) epoch lasting apparently require crustal materials with NRM least 3.85 to 3.56 Ga,atas originally recognized the Lunar Prospector which only becentral impact melt layer has an N to <∼4 3.2toof Ga. particular, modern analyglobal topography data in 1993 by the Clemenbasalts above). In a potentially very young lunar sample (66) apparently require crustal materials with NRM It has been(see suggested (29 least 3.85 3.56 Ga,However, as originally recognized lack of anomalies in the larger than that of nearly all known Apollo during the Apollo era. However, we now see that laf larger than that of nearly all known Apollo during the Apollo era. However, we now see that apparently require crustal with NRM Itcente has least 3.85 3.56 Ga, as originally recognized of anomalies in the cent larger that of nearly all known Apollo during the Apollo era. we now see that −3lack −1 apparently require crustal materials with NRM It least 3.85 to 3.56 Ga, as originally recognized apparently require crustal materials with NRM Itm has been suggested (29) least 3.85 to 3.56 Ga, asto originally recognized la larger than that ofmaterials nearly all known Apollo during the Apollo era. However, wethan now see that estimated from Eq. 2. The lifetimes of the precession and thermochemical dynamos are highly uncerta A ) may indicate that the ~10 came available 6 years ago (8, 29, 68), have now ses of samples 3.3 Ga or younger suggest that tine laser altimeter (70) led to the identification bital data sets are cons hints that the dynamo may have nevertheless lack of anomalies in theofcen larger than that of nearly allfield known Apollo during the Apollo era.declined However, we now see thatwe samples (35). Global magnetic field maps from sins (<1 nT the surface, su the dynamo subsequently precipitously samples (35). Global magnetic field maps si the dynamo subsequently declined precipitously samples (35). Global maps from sins (<1 nTat atApollo thefrom surface, su the dynamo subsequently declined lack a larger than of nearly alllonger known Apollo during Apollo era.precipitously However, now see that larger than that of nearly all known during the Apollo we now see that lack of anomalies in theoflack cent larger than that of magnetic nearly allthat known Apollo during the Apollo era.the However, we now seeera. thatHowever, samples (35). Global magnetic field maps from si the dynamo subsequently declined precipitously no active by the time the confirmed the unique size and intensity of the most or all of the Apollo-era paleointensity analysamples (35). Global magnetic field maps from sins (<1 nT at thelayer surface, the dynamo subsequently declined precipitously theprecipitously Lunar Prospector spacecraft, which only becentral impact melt has <∼4 bydata 3.2by Ga. InGa. particular, modern analythe Lunar Prospector spacecraft, which only beces to <∼4 mT byprecipitously 3.2 Ga. In 59–61, particular, modern analyPaleointensity set isIn from (14, 18, 50, 63, 66) and issamples also listed in table S6. the Lunar Prospector spacecraft, which only becentral impact melt layer has tomT <∼4 mT 3.2 particular, modern analysamples (35). Global magnetic field maps from sins (<1 the dynamo subsequently declined 50 to ses Evolution temporelle du champ magnétique lunaire (35). Global magnetic field maps from sins the dynamo subsequently declined precipitously samples (35). Global magnetic field maps from sins (<1 nT at the surface, the dynamo subsequently declined the Lunar Prospector spacecraft, which only bec to <∼4 mT by 3.2 Ga. In particular, modern analysouthern farside anomalies and their spatial (i.e., after ~3.85 Ga). However, thi from this late epoch, which ranged up to ap−3 −1−1 the Lunar Prospector spacecraft, which only be- ago central impact melt layertha ha <∼4 mT by 3.2 Ga. Inyounger particular, modern analy1246753-8 5 DECEMBER 2014 •Ga VOLor 346 ISSUE 6214 s m ) )may indicate ~10 came 6 years ago (8, 29, 68), have now ses ofto samples 3.3 Ga orGa suggest that ~1 came available 6 years (8,−3A 29, 68), have now ses of samples 3.3 younger suggest that A m may indicate tha ~10 came available 6the years ago (8, 29, 68), have ses of samples 3.3 or suggest that Lunar Prospector spacecraft, which only central to <∼4 mTses by 3.2 Ga. In particular, modern analythe Lunar Prospector spacecraft, which only betoyounger <∼4 mTmodern by 3.2 Ga. Inor particular, modern analytheavailable Lunar Prospector spacecraft, only becentral impact melt layercent has to <∼4 mT of by 3.2 Ga. In particular, analy−1becorrelation with antipodes of four, orwhich perhaps not consistent with the strong ev parent values 20 mT, are only upper limits ~ti came available 6 now years ago (8,−3 29, 68), have now of samples 3.3on Ga younger suggest that A m ) may indicate ~10 came available 6 years ago (8, 29, 68), have now ses of samples 3.3 Ga or younger suggest that −3 − −3 −1 no longer active by the time o confirmed the unique size and intensity of the most or all of the Apollo-era paleointensity analyno confirmed the size and ofindicate the most or all of the Apollo-era paleointensity analyno longer active by confirmed unique size and intensity of the most all ofand the3.3 Apollo-era paleointensity analy~10 A ~10time came available 6unique years ago (8, 29,have 68), have now of3.3 samples 3.3 Ga even or suggest younger suggest that available 668), years ago (8, 29, 68), now ses of Ga samples Ga orApollo-era younger that Aintensity mfrom ) may th ~10 came available 6came years ago (8, 29, have now ses oforfield samples orses younger suggest core dynamo paleomagnetic five (69), ofthe the eight youngest basins. Howthe most lunar therefore do not require a that n confirmed the unique size and intensity ofbythe most or all of the paleointensity analyno longer active the tim confirmed the unique size and intensity of the or all of the Apollo-era paleointensity analysouthern farside anomalies and their spatial (i.e., after ~3.85 Ga). Howeve ses from this late epoch, which ranged up to apsouthern farside anomalies and their spatial (i.e., after ~3.85 Ga). Howeve ses from this late epoch, which ranged up to apsouthern farside anomalies and their spatial (i. ses from this late epoch, which ranged up to appersisted in weakened state (surface field to be able tofrom power a Apollo-era dynamo this late inap-history no lo confirmed the unique sizeintensity and intensity theno most or all analysis oflate theepoch, Apollo-era paleointensity analyno longer active by the time confirmed unique size and intensity of anomalies the most or this all oftime. the paleointensity analylonge confirmed thea unique size and of theofspatial most or all Apollo-era paleointensity analy-the ever, theranged acquisition of the first high-resolution 3.56 to 3.85 Ga (Imbrian-aged) Apo dynamo at Finally, athe recent southern farside and their (i sesof from this which up to apsouthern farside anomalies and their spatial (i.e., after ~3.85 Ga). Howe ses this late epoch, which ranged up tomT, correlation with antipodes of four, or perhaps not consistent with the stro parent values of mT,only are only upper limits on correlation with antipodes ofby four, or perhaps not consistent with the stron parent values of 20very mT,20 are upper limits on correlation with antipodes of four, or perhaps no parent values of 20 are only upper limits on southern farside anomalies and their spatial (i.e., ses from this late epoch, which ranged up to apsouthern farside anomalies and their spatial (i.e., after ~3.85 Ga). Howev ses from this late epoch, which ranged up to apsouthern farside anomalies and their spatial (i.e., afte ses from this late epoch, which ranged up to apglobal topography data in 1993 the Clemenbasalts (see above). In fact, the sam of a potentially young lunar sample (66) correlation with antipodes of four, or perhaps n parent values of 20 mT, are only upper limits on ~2 mT) until sometime after 3.3 Ga. (Figs. the 4 and 6). correlation with antipodes offive four, orof perhaps notdynamo consistent with the str parent values oftherefore 20 mT, aredolunar only upper limits on core dynamo from paleoma of(70) the youngest basins. Howthethat lunar field therefore do not require atine core from paleomag even five (69), of the eight youngest basins. Howlunar field and require a therefore co even (69), the eight youngest basins. Howthe field and dofive not(69), require aeight with antipodes of or four, or perhaps not parent values of 20 mT, are even only upper limits on correlation with antipodes four, or perhaps not consistent with theifcons stro parent values ofand 20 mT, are only upper limits on laser altimeter led tocorrelation theofwith identification bital data sets are consistent the hints the dynamo may have nevertheless correlation antipodes of four, perhaps not parent values ofnot 20 mT, are only upper limits on Impacts Convection thermique pure avec couverture thermique Précession Convection thermique hydratée 3.7 Ga 4.2 Ga 1 Ga 1.8 Ga 2.5 Ga 2.7 Ga 3.5 Ga Paleointensities (μT) Convection thermique pure Chapitre 2 : Le champ magnétique lunaire 2 Sample Age (Ga) Dating method Dating references Paleointensity (μT) Method Measures references Basalt 10003 10017 10017+ 10020 10020+ 10022 10047 10049 10049+ 10050 10050 10057 10057 10069 10069 10072 12002 12002+ 12017 12018 12022 12022 14053 14053+ 14072 15016 15058 15495 15499 15535 15597 70017 70017+ 70035 70135 70215 70215+ 71055 71505+ 71567+ 3,91 3,037 3,037 3,77 3,77 3,59 3,74 3,56 3,56 3,75 3,75 3,63 3,63 3,68 3,68 3,52 3,21 3,21 0,007 0,65 3,11 3,11 3,95 3,95 4,04 3,29 3,36 3,36 3,34 3,3 3,35 3,8 3,8 3,7 3,75 3,84 3,84 3,64 3,7 3,75 Ar-Ar Ar-Ar Ar-Ar Ar-Ar Ar-Ar Ar-Ar Ar-Ar Ar-Ar Ar-Ar Ar-Ar Ar-Ar Rb-Sr Rb-Sr Rb-Sr Rb-Sr Ar-Ar Ar-Ar Ar-Ar Ar-Ar Ar-Ar Ar-Ar Ar-Ar Ar-Ar Ar-Ar Ar-Ar Ar-Ar Ar-Ar Ar-Ar Ar-Ar Ar-Ar† Ar-Ar† Ar-Ar Ar-Ar Ar-Ar Rb-Sr Ar-Ar Ar-Ar Rb-Sr Ar-Ar† Ar-Ar† [1] [2] [2] [3] [3] [4] [5] [2] [2] [3];[5] [3];[5] [6] [6] [6] [6] [1] [1] [1] [8] [7] [1] [1] [9] [9] [1] [10] [11] [12] [11] [13] [13] [15] [15] [1] [16] [1] [1] [17] [13] [13] 6,8 19,3 71,0 58,3 66,0 1,8 18,4 7,0 77,0 28,2 38,0 6,8 14,0 5,0 3,6 50,0 4,5 50,0 7,0 7,4 4,8 9,2 34,4 20,0 44,9 15,3 4,9 2,2 35,3 7,6 13,2 50,0 42,0 37,6 92,0 2,0 20,0 43,0 95,0 111,0 sIRM sIRM sIRM sIRM sIRM thellier-thellier sIRM shaw sIRM sIRM ARM sIRM ARM thellier-thellier sIRM ARM thellier-thellier sIRM ARM sIRM thellier-thellier sIRM sIRM sIRM sIRM sIRM ARM ARM sIRM ARM sIRM thellier-thellier sIRM sIRM sIRM thellier-thellier sIRM single pTRM sIRM sIRM [24] [24] [2] [24] [32] [33] [24] [34] [2] [24] [35] [24] [35] [33] [33] [36] [37] [38] [8] [24] [40] [40] [24] [38] [24] [24] [42] [42] [24] [42] [24] [35] [38] [24] [24] [35] [38] [43] [38] [38] Evolution temporelle du champ magnétique lunaire 51 2 Chapitre 2 : Le champ magnétique lunaire 3,85 3,85 3,79 3,7 3,8 Rb-Sr Rb-Sr Ar-Ar Ar-Ar† Ar-Ar [18] [18] [19] [13] [20] 3,3 28,0 14,0 68,5 5,3 single pTRM sIRM thellier-thellier sIRM sIRM [43] [38] [44] [24] [24] Dimict breccia 67915 3,9 68815 3,5 72275 4,01 Ar-Ar Ar-Ar Rb-Sr [1] [21] [1] 4,7 40,6 19,0 sIRM sIRM ARM [1] [24] [45] Feldspatic rock 60015 60015 60015 76535+ 3,5 3,5 3,5 4,25 Ar-Ar Ar-Ar Ar-Ar Ar-Ar [1] [1] [1] [1] 15,3 33,0 5,0 40,0 sIRM ARM thellier-thellier sIRM [24] [46] [47] [48] Impact melt breccia 14066 3,93 14305 3,92 14306 3,9 15455 4,42 60315 3,78 61016 4,1 62235 3,79 62235 3,79 62295 3,86 62295 3,86 65015 3,98 68416 3,85 68416 3,85 72215 3,87 72255 3,85 73235 3,97 77017 3,91 77017 3,91 77115 3,85 77135 3,9 77135 3,9 Ar-Ar Ar-Ar Ar-Ar Ar-Ar Ar-Ar Ar-Ar Ar-Ar Ar-Ar Ar-Ar Ar-Ar Ar-Ar Ar-Ar Ar-Ar Ar-Ar Ar-Ar Ar-Ar Ar-Ar Ar-Ar Ar-Ar Ar-Ar [22] [23] [24] [22] [25] [1] [25] [25] [25] [25] [10] [1] [1] [13] [1] [1] [15] [15] [1] [26] [26] 4,7 1,7 0,9 18,1 40,0 3,3 86,2 132,0 7,5 50,0 45,4 120,0 51,3 41,0 35,0 1,1 4,1 81,0 9,7 31,7 16,0 sIRM sIRM sIRM sIRM single pTRM sIRM sIRM thellier-thellier sIRM single pTRM sIRM ARM sIRM shaw ARM thellier-thellier sIRM single pTRM sIRM sIRM single pTRM [24] [24] [24] [24] [49] [24] [24] [35] [24] [49] [24] [35] [35] [50] [45] [51] [24] [43] [24] [24] [43] Impact melt rock 68415 3,85 68415 3,85 Ar-Ar Ar-Ar [27] [27] 54,2 5,0 sIRM thellier-thellier [24] [46] 74275 74275+ 75035 78505 79155 52 Evolution temporelle du champ magnétique lunaire Chapitre 2 : Le champ magnétique lunaire Regolith breccia 14318 3,88 15015 0,5 15015+ 0,5 15465+ 1,19 15498 1,32 15498 1,32 15498+ 1,32 60255 1,7 70019 0,175 Ar-Ar‡ Ar-Ar Ar-Ar Ar-Ar Ar-Ar‡ Ar-Ar‡ Ar-Ar‡ Ar-Ar‡ U-Pb [28] [29] [29] [30] [28] [28] [28] [28] [31] 0,7 7,0 0,4 0,01 6,7 2,2 5,0 0,5 1,2 sIRM sIRM thellier-thellier thellier-thellier sIRM thellier-thellier thellier-thellier thellier-thellier thellier-thellier 2 [24] [24] [30] [30] [52] [52] [39] [53] [54] Table 2.2 : Récapitulatif des données de paléointensités de la littérature et leurs âges respectifs. L'échantillon 14306 a un âge qui correspond à la formation du bassin Serenitatis (Cisowski et al., 1983). Pour les âges notés « † », j'ai utilisé des âges moyens, caractéristiques de la lithologie de la roche et de la mission Apollo associée (Stöffler et al., 2006). Les âges notés « ‡ » proviennent d'âges « trapped argon » (ArTr) recalculés par Fagan et al. (2014). Les échantillons notés « + » sont les données récentes de la littérature (après 2008). [1] Turner (1977) [19] Turner and Cadogen (1974) [37] Hesley et al. (1972) [2] Suavet et al. (2013) [20] Kirsten and Horn (1974) [38] Cournède et al. (2012) [3] Geiss et al. (1977) [21] Schaeffer et al. (1977) [39] Tikoo et al. (2017) [4] Alexander et al. (1972) [22] Alexander and Davis (1974) [40] Helsley et al. (1971) [5] Guggisberg et al. (1979) [23] Eugster et al. (1984) [41] Tikoo et al. (2014b) [6] Papanastassiou et al. (1970) [24] Cisowski et al. (1983) [42] Banerjee and Mellema (1974) [7] Stettler et al. (1973) [25] Norman et al. (2006) [43] Brecher et al. (1974) [8] Tikoo et al. (2012) [26] Stettler, 1974 [44] Sugiura et al. (1978) [9] Turneret al. (1971) [27] Huneke et al. (1973) [45] Banerjee and Swits (1975) [10] Kirsten et al. (1973) [28] Fagan et al. (2014) [46] Stephenson and Collinson (1974) [11] Hussain et al. (1974) [29] Meyer (2012) [47] Lawrence et al. (2008) [12] Papanastassiou et al. (1973) [30] Wang et al. (2017) [48] Garrick-Bethell et al. (2017) [13] Stöffler et al. (2006) [31] Nunes et al. (1975) [49] Brecher et al. (1973) [14] Kirsten et al. (1972) [32] Shea et al. (2012) [50] Banerjee and Mellema (1976) [15] Phinney et al. (1975) [33] Helsley et al. (1970) [51] Watson et al. (1974) [16] Nyquist et al. (1975) [34] Fuller et al. (1979) [52] Gose et al. (1973) [17] Tera et al. (1974) [35] Stephenson et al. (1974) [53] Sugiura and Strangway 1980 [18] Murthy and Coscio (1977) [36] Chowdary et al. (1987) [54] Sugiura et al. (1979) Evolution temporelle du champ magnétique lunaire 53 2 Chapitre 2 : Le champ magnétique lunaire 2.5 Conclusion Ce chapitre de thèse a permis de voir les différents processus qui peuvent être à l'origine du champ magnétique lunaire passé, la dynamo étant le plus probable. Les mécanismes potentiellement à l'origine de cette dynamo ont été décrits. Les enjeux de ce travail de thèse sont donc d'acquérir de nouvelles données de paléointensités afin de mieux comprendre l'évolution et la durée du champ magnétique lunaire et les mécanismes associés. 54 Evolution temporelle du champ magnétique lunaire Chapitre Trois Matériel et méthode en magnétisme Echantillons lunaires analysés au Johnson Space Center et au laboratoire (CEREGE). Sont représentés, dans l'ordre, un regolith breccia (10018), un basalt (12005), un second basalt (10057) dans un double emballage de téflon et une dimict breccia (61015). Copyright © Camille Lepaulard Evolution temporelle du champ magnétique lunaire 55 56 Evolution temporelle du champ magnétique lunaire Chapitre 3 : Matériel et méthodes en magnétisme 3 Chapitre 3 Matériel d'étude et méthodes en magnétisme Ce chapitre présente les différents échantillons lunaires analysés lors de ce travail de thèse. Il introduit également les notions de base du magnétisme des roches et notamment de l'aimantation naturelle des roches lunaires. Les minéraux magnétiques présents dans les roches lunaires sont ensuite présentés, ainsi que les méthodes de détermination de la paléointensité. 3.1 Échantillons lunaires Au cours de ce travail de thèse, deux grandes études ont été menées. La première a consisté en l'analyse de 161 roches Apollo au Johnson Space Center (Houston, USA). Elle est décrite dans le Chapitre 4. La seconde a consisté en l'analyse de vingt-sept roches lunaires au laboratoire de magnétisme des roches du CEREGE. Elle est décrite dans le Chapitre 5. 3.1.1 Détail des échantillons analysés au Johnson Space Center Cent soixante-et-une roches Apollo ont été analysées dans le Lunar Sample Laboratory Facility, lieu de stockage des échantillons Apollo, au Johnson Space Center à Houston en 2016. Depuis leur retour sur Terre, seulement 5% des échantillons Apollo ont été mesurés en laboratoire. Cette étude a eu pour but d'acquérir de nouvelles données sur les propriétés magnétiques afin de regarder le potentiel paléomagnétique de roches dont les masses étaient supérieures à 50 g et de lithologie bréchique. Les échantillons étaient rangés dans des boites en mumétal dans des étagères (Figure 3.1.a), sous un mélange d'azote afin de ne pas les altérer. Chaque échantillon était lui-même dans un double emballage de téflon, mis également sous azote afin d'éviter leur contamination avec l'atmosphère terrestre (Figure 3.1.d-e). Nous avons mesuré l'aimantation rémanente naturelle (NRM) et la susceptibilité magnétique de 123 et 154 échantillons respectivement, à l'aide d'un magnétomètre portatif et d'un susceptibilimètre portatif (Figure 3.1.b) développés spécialement au CEREGE. Avant chaque mesure, les échantillons ont été placés dans des cubes en plexiglasse (Figure 3.1.c) afin de mesurer les propriétés des roches sous trois directions perpendiculaires (détails Chapitre 4). Le centrage de chaque échantillon dans les cubes a été permis par des traits perpendiculaires tracés sur chaque cube et de l'emballage plastique a été utilisé pour caler les échantillons dans les cubes. Le détail de ces instruments est décrit dans le Chapitre 4. Evolution temporelle du champ magnétique lunaire 57 3 Chapitre 3 : Matériel et méthodes en magnétisme a) Etagère de stockage des échantillons c) Echantillon 71035, avant analyse b) Magnétomètre et susceptibilimètre d) Echantillon 14169, sous téflon e) Echantillon 61015, sous téflon Figure 3.1 : Présentation des conditions de mesures au JSC. a) Présentation du meuble de stockage des échantillons Apollo, sous azote ; b) Magnétomètre portatif (gauche) et susceptibilimètre portatif (droite). L'ordinateur de contrôle est situé entre les deux appareils, eux même éloignés des zones de stockage des échantillons ; c) Echantillon centré dans un cube en plexiglasse avant analyse au magnétomètre et au susceptibilimètre ; d-e) Echantillons 14169 et 61015, conditionnés dans un double emballage de téflon et sous azote. Les lithologies analysées sont reportées dans la Figure 3.2. Ces roches étaient principalement des impact melt breccia ou des regolith breccia. La masse des roches analysées était comprise entre 21 et 4688 g avec une majorité entre 100 et 500 g (Figure 3.2). 58 Evolution temporelle du champ magnétique lunaire Chapitre 3 : Matériel et méthodes en magnétisme 3 Feldspathic rocks 80 Basalt Impact Melt Rock Dimict breccia Regolith breccia Nombre d'échantillons 60 IMB 40 20 0 0 50 500 100 1000 2000 5000 Masse (g) Figure 3.2 : Répartition des masses des roches Apollo analysées selon leur lithologie. 3.1.2 Description des échantillons analysés en laboratoire Vingt-cinq roches Apollo et deux météorites lunaires ont été analysées en laboratoire afin de déterminer des valeurs de paléointensités (détails Chapitre 5). Sur ces vingt-sept échantillons, neuf (indiqués par un astérisque dans la liste) proviennent de la pré-sélection basée sur les mesures préliminaires (détaillées dans la partie précédente et le Chapitre 4) au Johnson Space Center (JSC), Houston (Lepaulard et al., submitted – Chapitre 4). Les autres échantillons ont été prêtés par différents laboratoires de recherche français (IPG Paris, LMV Clermont-Ferrand, CRPG Nancy) pour des mesures magnétiques avant leurs analyses géochimiques destructives. Ces échantillons, de masse comprise entre 1 et 42 gr, sont de lithologies différentes (voir Chapitre 1, les classifications des roches lunaires) : - 16 basaltes (échantillons Apollo 10003, 10017, 12005*, 12012, 12016, 12018, 12021*, 14078, 15529*, 15555, 70017, 70135, 74255, 74275 et 75075; la météorite lunaire LAP02205) - 4 brèches de régolithe (échantillons Apollo 10018*, 15505*, 61195* et la météorite NWA10782) - 1 impact melt breccia (échantillon Apollo 14169*) - 1 dimict breccia (échantillon Apollo 61015*) - 1 impact melt rock (échantillon Apollo 65055*) - 4 roches feldspathiques (échantillons Apollo 60015, 60215, 62255 et 65315) Evolution temporelle du champ magnétique lunaire 59 Chapitre 3 : Matériel et méthodes en magnétisme 3 Les planches photographiques de tous les échantillons sont visibles dans l'Annexe 3. 3.1.3 Datation des échantillons L'acquisition de nouvelles données de paléointensités permet de retracer l'évolution du champ magnétique lunaire en fonction du temps si on connaît l'âge de l'enregistrement du champ magnétique par la roche. L'aimantation est portée par les minéraux ferromagnétiques. Les minéraux porteurs de l'aimantation sont essentiellement la kamacite mais aussi la taénite ou le fer métallique. Leurs températures classiques de blocage sont de 780°C, 600°C et 765°C respectivement (Fuller, 1974 ; Wasilewski, 1982 ; Garrick-Bethell et al., 2010). Ces températures de blocage sont souvent inférieures aux températures de remise à zéro des chronomètres utilisés pour les datations (Ar/Ar, etc). La durée de l'événement de surface (impacts, mise en contact de la roche avec une nappe de roche fondue) influe également sur la température nécessaire pour la remise à zéro du chronomètre. En général, cette température atteint 600-700°C. Si l'âge radiométrique est remis à zéro, l'âge de l'aimantation sera généralement aussi remis à zéro (e.g McDougall et al., 1988), mais l'inverse n'est pas forcément vrai. La plupart des roches Apollo ont été datées lors de leur caractérisation initiale dans les années 70 (voir synthèse dans Turner et al., 1977). La majorité de ces âges sont obtenus par K/Ar ou 40Ar/39Ar, méthodes les plus couramment utilisées dans la datation de roches lunaires. Des âges moyens par lithologie et mission Apollo ont été obtenus à partir de la compilation d'âges réunis dans Stöffler et al. (2006). Fagan (2014) apporte également de nouveaux âges pour des brèches de régolithes, par « ArTr » (pour trapped argon), qui correspondent à des âges de fermeture du système à partir du rapport d'isotopes piégés 40Ar/36Ar. L'avantage des datations utilisant l'argon est que ce dernier a tendance à diffuser hors des minéraux facilement et le système peut se remettre à zéro plus facilement qu'avec un autre élément (notamment lors d'un impact de météorite). D'autres méthodes de datation ont été employées dans la littérature et témoignent plutôt de l'âge de cristallisation de la roche : Nd/Sm, U/Pb et Rb/Sr (e.g discussion dans Turner et al., 1977). Elles peuvent aussi être considérées comme moins robustes car moins précises en terme d'âge obtenu (pas d'âge plateau contrairement aux datations 40Ar/39Ar modernes par stepheating) et en terme de technique de mesure (datations anciennes, avec éventuellement l'utilisation de protocoles obsolètes ou d'instruments moins précis que les instruments modernes). Pour les brèches, qui constituent une proportion importante des échantillons lunaires et qui permettent d'accéder à des périodes de l'histoire magnétique de la Lune qui sont encore peu connus (transition entre période de champ fort et de champ faible, arrêt de la dynamo), les âges sont souvent acquis sur des zircons ou des clastes qui indiquent malheureusement l'âge de formation de ces éléments, mais qui ne témoignent pas forcément de l'âge de l'acquisition de l'aimantation par la roche (Jessberger et al., 1974). Récemment, la datation par sonde laser (Mercer et al., 2015), avec ses analyses spatialement résolues, a montrée sa capacité à mieux caractériser la chronologie complexe de ces roches, et de différencier les divers événements que la roche a subi, en particulier dans les IMB, qui peuvent contenir de nombreuses veines de roche fondues. C'est l'âge de la partie fondue de la roche qui nous renseigne sur l'âge de l'acquisition l'aimantation. Cinq échantillons ont été daté dans le cadre de ce travail de thèse après leur analyse 40 39 paléomagnétique : deux échantillons (basaltes 12005 et 15529) par la technique Ar / Ar et trois échantillons (regolith breccia 10018, IMB 14169 et regolith breccia 15505) par la technique 40 39 Ar / Ar mesurée par sonde laser. La datation par la technique par sonde laser a nécessité la 60 Evolution temporelle du champ magnétique lunaire Chapitre 3 : Matériel et méthodes en magnétisme 3 réalisation de cartes des échantillons, au microscope électronique à balayage (MEB) afin d'identifier les zones riches en potassium pour les analyses. Ces trois cartes sont visibles dans l'Annexe 4. L'échantillon 12005 ne donne pas de plateau bien défini et les paliers hautes températures indiquent une domination du 36Ar par une source cosmogénique. De ce fait, seul un âge minimal de l'échantillon a pu être estimé, à 2,8 Ga. Les deux sous-échantillons de 15529 donnent un âge de plateau bien défini à haute température, de moyenne 3,15 ± 0,007 Ga. (Les résultats des datations obtenues sont détaillés dans le Chapitre 5). Les échantillons 10018 et 14169 donnent des âges moyens d'assemblage de la brèche à 1,53 ± 0,09 Ga et 3,88 ± 0,16 Ga respectivement. L'échantillon 15505 semble donner un âge moyen d'assemblage à 0,47 ± 0,13 Ga. Ces résultats sont en cours d'analyse et l'âge du 15505 est sujet à s'affiner. 3.1.4 Préparation des échantillons en laboratoire Sur les vingt-sept échantillons analysés en laboratoire, neuf échantillons, de 2 g chacun environ, ont été collés avec de la cire à basse température de fusion (40°C) ou de la colle cyanoacrylate sur un disque en aluminium, puis découpés à la scie à fil diamanté (diamètre de fil 220 μm). Des cubes d'environ 3x3x3 mm ont été obtenus pour des analyses en laboratoire. La dimension des cubes est adaptée de telle sorte que la NRM de l'échantillon -9 2 soit supérieure à 1.10 Am pour être d'au moins deux ordres de grandeur supérieurs au bruit de fond du magnétomètre à SQUID utilisé pour les mesures. Tous les morceaux sont orientés mutuellement d'après l'orientation du bloc de 2 g avant découpe, comme illustré sur la Figure 3.3. Bulk sample 10018 (2.3 g) B A C Sample 10018-B Sample 10018-B1 (140 mg) D a 1 b 2 3 mm 3 4 N Down 3 mm N N E E E Down Down Figure 3.3 : Exemple de découpe de la brèche de régolithe 10018. Tous les sous-échantillons sont mutuellement orientés. L'échantillon est découpé en tranches avec une scie à fil diamanté (gauche). La tranche B, dont l'orientation est gardée, est découpée en 4 morceaux (milieu). Puis le sous-échantillon 1 est à nouveau découpé en 2. Chaque sous-échantillon a été collé sur un disque en quartz (Figure 3.4.a) pour les mesures en champ alternatif ou placé dans des cylindres en quartz et bloqué avec de la laine de verre pour les mesures thermiques (Figure 3.4.b). Les moments des disques et cylindres ont été mesurés et se situent autour de 5.10 aux NRM mesurés des échantillons. -11 2 Am et 1.10 -11 2 Am respectivement, soit très inférieurs Evolution temporelle du champ magnétique lunaire 61 3 Chapitre 3 : Matériel et méthodes en magnétisme a) 12021-C (220 mg) b) 12021-A1 (287 mg) 1 cm 0.5 cm Figure 3.4 : Préparation d'un échantillon pour analyse. a) Echantillon 12021 sur un disque de quartz pour analyse AF; b) Echantillon 12021 dans un cylindre en quartz pour analyse thermique. Ainsi, chaque échantillon possède au moins 2 sous-échantillons qui ont été analysés par désaimantation progressive en champ alternatif et/ou par désaimantation progressive lors de chauffes successives à des températures croissantes (détails dans la suite de ce Chapitre). 3.2 Magnétisme des roches lunaires 3.2.1 Propriétés magnétiques de l'atome à la roche L'aimantation d'une roche tire son origine du mouvement des électrons. A l'échelle atomique, la combinaison du mouvement des électrons autour des noyaux atomiques et du moment magnétique du spin d'un électron provoque des courants microscopiques dans la matière. Ces courants sont définis comme le moment magnétique (en Am2), et proviennent du non-appariement des spins des électrons. La somme des moments magnétiques constitue -1 l'aimantation volumique (normalisée au volume, en Am ) ou massique (normalisée à la masse, en Am2kg-1) (Dunlop et Özdemir, 1997). Dans de très petites particules (<40 nm), les spins des électrons sont essentiellement alignés de façon parallèle et génèrent une aimantation uniforme. Ces grains sont appelés mono-domaines (single domain, SD) (Figure 3.5.a). Dans de plus grandes particules (>200 nm), l'énergie produite par les électrons est trop grande pour permettre une aimantation uniforme de la particule qui formera des parois de Bloch pour compartimenter l'aimantation des spins dans différents domaines (Figure 3.5.b). La particule est dite poly-domaines (multidomain, MD). Les spins sont alors alignés de façon parallèle. Les particules au comportement entre le SD et le MD sont des pseudo-monodomaines (pseudo-single domain, PSD) (Day et al., 1977). Si les domaines ne sont pas répartis de façon parallèle dans la particule, le champ magnétique résultant est alors nul (Figure 3.5.c), on parle de domaines de fermeture. 62 Evolution temporelle du champ magnétique lunaire Chapitre 3 : Matériel et méthodes en magnétisme a) b) 3 c) Figure 3.5 : Répartition des domaines dans une particule avec le champ généré en bleu et le spin en rouge. a) particule mono-domaine, b) particule multi-domaines, c) particule contenant deux domaines et deux domaines fermés, le champ résultant étant nul. Sous l'effet d'un champ inducteur, un corps peut acquérir une aimantation induite qui s'annulera en cas d'arrêt de ce champ. Cette capacité s'appelle la susceptibilité magnétique. Sa mesure permet de montrer le type de comportement magnétique que possèdent les minéraux à l'échelle cristalline : le ferromagnétisme, le diamagnétisme et le paramagnétisme. En dessous de leur température de Curie, certains minéraux ont une aimantation rémanente issue de l'alignement des spins non appareillés. Ces minéraux ont un comportement ferromagnétique sensu lato. Au-delà de sa température de Curie, un minéral ferromagnétique sensu stricto devient paramagnétique. Un minéral paramagnétique ne possède pas d'aimantation spontanée mais sous l'application d'un champ extérieur, les spins vont s'aligner selon la direction de ce champ. L'intensité de l'aimantation va diminuer avec la température et si le champ disparaît, les spins reprennent leur orientation aléatoire, il n'y a pas de rémanence. Dans le cas de diamagnétisme, les grains vont générer une aimantation faible sous la présence d'un champ externe, dans le sens inverse au champ, qui va disparaître avec l'arrêt du champ. Il n'y a pas de phénomène de rémanence. Le ferromagnétisme se divise en trois comportements principaux selon l'orientation des spins : ferro- sensu stricto, ferri- et antiferro-magnétisme (Dunlop et Özdemir, 1997) selon l'alignements des spins des électrons et leur réaction face à un champ magnétique extérieur (Figure 3.6). Des spins alignés, de façon parallèles et dans le même sens, donnent le ferromagnétisme sensu stricto. Un alignement antiparallèle des spins donne l'antiferromagnétisme. Parfois, l'alignement des spins n'est pas parfait en position antiparallèle et donne un antiferromagnétisme incliné dont le moment résultant est faible. C'est le cas par exemple de l'hématite. Enfin, quand les spins sont alignés de façon antiparallèle mais avec des différences de valence au sein de l'atome (et donc de moment), on parle de ferrimagnétisme. Sous l'influence de la température (en dessous de la température de Curie du grain), des grains ferro- ou ferri- magnétiques peuvent devenir superparamagnétiques (SP). Dans ce cas, sous l'effet d'un champ extérieur, les grains acquièrent une aimantation. Evolution temporelle du champ magnétique lunaire 63 Chapitre 3 : Matériel et méthodes en magnétisme 3 a) b) c) d) Figure 3.6 : Différents types d'alignement des spins dans le ferromagnétisme sensu largo. a) ferromagnétisme sensu stricto, b) antiferromagnétisme, c) antiferromagnétisme incliné, d) ferrimagnétisme. 3.2.2 Minéraux magnétiques lunaires 3.2.2.1 Description Les minéraux magnétiques lunaires sont différents des minéraux terrestres habituellement trouvés. Les minéraux magnétiques lunaires les plus communs sont essentiellement métalliques, composés de fer, nickel, cobalt. Rochette et al., (2010) précise notamment la nature exacte et la teneur des minéraux des roches lunaires. Le fer est souvent présent sous forme d'alliage dans les roches ou associé à des sulfures et rarement sous forme pure. Le fer (métallique Fe0 ou contenu dans les minéraux) peut avoir diverses origines : origine magmatique, provenir des météorites, provenir de la décomposition de la troilite suite à des impacts (fer secondaire) ou encore provenir du verre d'impact (trouvé sous forme de grains sphériques ultrafins). Le fer est souvent associé avec une petite proportion de nickel, donnant une grande variété d'alliages Fe-Ni comme la kamacite ou la taénite majoritairement, l'awaruite secondement. Ces alliages vont dépendre de la phase du fer, de sa vitesse de refroidissement et de sa teneur en nickel. Alliages fer-nickel : La kamacite est issue de l'alliage α-(Fe-Ni), avec plus de 90% de Fe. C'est l'un des minéraux, avec la troilite, les plus trouvés dans les roches lunaires. La taénite est l'alliage γ(Fe-Ni) avec une proportion de Ni entre 20 et 65% et est trouvé dans les météorites lunaires. L'awaruite peut être trouvée associée à la kamacite et se compose de Ni2Fe à Ni3Fe. Autres alliages du fer : Associé au soufre, le fer donne Fe-S et forme de la troilite. Associé au carbone, le fer donne α'-(Fe-C) et forme de la martensite, trouvé dans les météorites lunaires. Le fer peut s'associer au chrome : FeCr2O4 pour former de la chromite. Associé au titane, le fer donne FeTiO3 et forme de l'ilménite. 3.2.2.2 Identification des grains magnétiques L'observation en lumière réfléchie des neuf lames minces correspondant aux neufs échantillons Apollo sélectionnés du Lunar Sample Laboratory Facility (LSLF) permet d'identifier les minéraux magnétiques principaux contenus dans les échantillons (Figure 3.7). Le niveau de choc a également été déterminé par observation en lumière transmise (polarisée 64 Evolution temporelle du champ magnétique lunaire Chapitre 3 : Matériel et méthodes en magnétisme 3 analysée), afin d'estimer la pression de choc maximale que la roche a pu subir après sa cristallisation. Les minéraux magnétiques observés en lame mince sont du fer métallique inclus ou non dans des grains de troilite (minéral trouvé dans toutes les lames, en proportion variable). De l'ilménite est vue dans certaines lames (61195, 65055). a) 10018 (regolith breccia)– Lumière naturelle b) 10018 – Lumière polarisée analysée c) 14169 (IMB)– Lumière naturelle d) 15529 (basalt)– Lumière naturelle Figure 3.7 : Observation de lames minces de certains échantillons Apollo au microscope optique. a) Apollo 10018, vue en lumière naturelle. Le point bleu montre une sphérule de verre, b) Apollo 10018, vue en lumière polarisée analysée, c) Apollo 14169, vue en lumière naturelle, d) Apollo 15529, vue en lumière naturelle. Les flèches rouges pointent quelques minéraux magnétiques (fer, troilite supposés). 3.2.2.3 Propriétés magnétiques des roches lunaires Le ferromagnétisme s.s. dans les roches lunaires est dominé par le fer métallique présent sous forme d'alliages avec du cobalt ou du nickel (Fuller et al., 1974). La kamacite est le minéral principal porteur de l'aimantation sur la Lune. Il est relativement stable face aux perturbations thermiques lunaires et face aux perturbations lors du stockage sur la Terre (Garrick-Bethell et Weiss, 2010). Les autres minéraux ferromagnétiques sont souvent associés au fer métallique (Fe α) dans les brèches des highlands ou les régolithes (Rochette et al., 2010). La martensite et la taénite sont également des minéraux ferromagnétique. La chromite et l'ilménite ont un comportement paramagnétique selon la température d'observation. La troilite, qui fait partie du groupe des pyrrhotites (comme l'hématite sur la Terre), est présent en abondance dans les roches lunaires et possède un comportement antiferromagnétique (Rochette et al., 2010). Evolution temporelle du champ magnétique lunaire 65 3 Chapitre 3 : Matériel et méthodes en magnétisme Les basaltes lunaires possèdent en général des grains de fer métallique polydomaines tandis que le sol lunaire possède principalement des mélanges de grains monodomaines et superparamagnétiques (Fuller et al., 1987). Les brèches d'impact ont plutôt des grains poly-domaine tandis que les brèches de régolithe ont des grains superparamagnétiques (Fuller et al., 1987). 3.2.3 Etude du magnétisme des roches lunaires La susceptibilité magnétique des échantillons a été mesurée à l'aide d'un instrument MFK1 (champ de 200 Am-1, fréquence 976 Hz, sensibilité de 5.10-13 m3) à température ambiante. Toutes les mesures de rémanence réalisées au laboratoire de magnétisme du CEREGE ont été mesurées par un magnétomètre à SQUID (2G Enterprises, model 755R, bruit -11 2 de mesure 10 Am ). L'aimantation naturelle des roches a été mesurée et désaimantée par paliers par champ alternatif, jusqu'à 200 mT ou par paliers lors de chauffes successives à des températures croissantes (600°C). Chaque palier de désaimantation par champ alternatif, suivi de sa mesure, a été répété trois fois. Les mesures d'aimantations résultantes ont été moyennées afin de réduire les effets parasites pouvant survenir lors des désaimantations par champ alternatif. Chaque palier de température a été mesuré une fois, n'étant pas influencé par les effets du champ alternatif. La structure en domaines des grains magnétiques a été caractérisée par la mesure de cycles d'hystérésis (Figure 3.8) grâce à un magnétomètre à échantillon vibrant (sensibilité ~10 nAm2) et des électroaimants permettant d'appliquer des champs jusqu'à 1 T. Le champ nécessaire pour réduire l'aimantation rémanente à saturation (Mrs) de l'échantillon à zéro est le champ coercitif rémanent (Bcr). M : moment (Am2) 3.10-4 Ms 2.10-4 1.10-4 -1 -0.8 -0.6 -0.4 -0.2 Mrs Bcr 0.2 0.4 0.6 0.8 1 Bc -1.10-4 -2.10-4 -3.10-4 66 Paramètres du 10018-A2a Bc = 6 mT Bcr = 42 mT Ms = 1.73 Am2kg-1 Mrs = 0.15 Am2kg-1 Evolution temporelle du champ magnétique lunaire B : champ (T) Chapitre 3 : Matériel et méthodes en magnétisme 3 Figure 3.8 : Cycle d'hystérésis de l'échantillon 10018 après correction de la pente sur la plage -1/1 T. La courbe de rémanence, en bleue, permet d'obtenir la valeur du Bcr. Le rapport de Mrs sur Ms en fonction du rapport Bcr sur Bc permet de placer les points sur diagramme Mrs/Ms vs Bcr/Bc, classiquement appelé diagramme de Day (Day et al., 1977) et d'estimer, selon les valeurs des deux rapports, le domaine des grains de l'échantillon. Un diagramme de Day pour les roches lunaires est présenté dans le Chapitre 5. 3.3 Aimantation rémanente naturelle des roches Les minéraux ferromagnétiques ont la capacité d'acquérir une rémanence, c'est-à-dire qu'ils peuvent conserver une aimantation qui a été acquise dans un champ après l'arrêt de ce dernier. On parle alors d'aimantation rémanente naturelle (Natural Remanent Magnetization, NRM). Selon son mécanisme d'acquisition, la NRM aura des propriétés différentes. 3.3.1 Aimantation thermorémanente L'aimantation thermorémanente (ThermoRemanent Magnetization, TRM) est acquise par refroidissement d'une roche volcanique depuis sa température de Curie en présence d'un champ magnétique. Cette aimantation peut être partielle (Partial ThermoRemanent Magnetization, pTRM) si la roche refroidit à partir d'une température inférieure à sa température de Curie (Thellier et Thellier, 1959). 3.3.2 Aimantation rémanente de choc Description Le second type d'aimantation qui peut être enregistrée par les roches lunaires est l'aimantation rémanente de choc (Shock Remanent Magnetization, SRM) lors du passage d'une onde de choc en présence d'un champ magnétique. Plusieurs processus ont été mis en évidence : (i) l'aimantation primaire pré-choc peut être effacée partiellement ou complètement par désaimantation en présence d'un champ faible ou nul (Gattacceca et al., 2010a) ; (ii) une SRM peut être acquise par choc en présence d'un champ ambiant (Gattacceca et al., 2008) et (iii) le choc peut modifier les propriétés magnétiques de la roche (sa susceptibilité magnétique par exemple ; Gattacceca et al., 2005 ; 2008). Tout comme une TRM, la SRM est parallèle au champ ambiant et son intensité proportionnelle à ce champ au moment de l'impact (Gattacceca et al., 2010b). L'étude de Tikoo et al. (2015) montre notamment que les SRM sont difficiles à préserver dans les échantillons après un impact et sont donc peu observées dans les échantillons lunaires. En laboratoire Comme attendu pour un processus isotherme, la SRM se désaimante facilement par champ alternatif, mais ses températures de déblocage peuvent aller jusqu'à la température de Curie des minéraux (Tikoo et al. 2015). La pression générée par le choc peut être identifiée et estimée à partir notamment de l'analyse pétrographique de lames minces des échantillons : minéraux fracturées, veines et poches de matériel fondu, déformation du Evolution temporelle du champ magnétique lunaire 67 3 Chapitre 3 : Matériel et méthodes en magnétisme réseau cristallin de l'olivine sont autant d'indicateurs de choc (Stöeffler et al., 1991). La plupart des roches ayant été aimantés par choc ont subit des chocs de faible pression (< 10 GPa). Ainsi, une SRM de faible pression (< 10 GPa) peut atteindre, dans certaines conditions, jusqu'à un tiers de la TRM acquise à champ équivalent dans certaines roches riches en Fe-Ni (Gattacceca et al., 2010a). 3.3.3 Aimantation rémanente visqueuse Description L'aimantation rémanente visqueuse (Viscous Remanent Magnetization, VRM) est un processus activé thermiquement qui consiste en l'acquisition au cours du temps et à température constante d'une aimantation rémanente (dont l'intensité est proportionnelle à log t). Par exemple, elle peut être acquise par les roches lunaires si elles restent en présence d'un champ magnétique faible (que ce soit le champ ambiant sur la surface lunaire ou sur Terre depuis leur retour). Quand le champ magnétique est nul, l'aimantation visqueuse acquise décroit avec le temps. Ce type d'aimantation est généralement secondaire et se superpose à la première aimantation (TRM ou SRM dans le cas lunaire) enregistrée par la roche. En laboratoire Comme cette aimantation croît en fonction du logarithme du temps, il est possible de déterminer en laboratoire dans quelle proportion la VRM contribue à la NRM. Pour cela, une VRM artificielle est acquise en fonction du temps dans un champ de direction connue et d'intensité de l'ordre du champ terrestre (dizaines de μT). Le taux de décroissance en fonction du temps de la VRM est ensuite mesuré en plaçant l'échantillon en champ magnétique nul (Enkin and Dunlop, 1980). Cette aimantation visqueuse acquise depuis des années (sur Terre) voire des millions d'années (sur la Lune) est facilement effacée par des champs alternatifs faibles ou des chauffes à relativement basse température (voir Chapitre 5). Nos expériences d'acquisition (pendant 2 mois) et de décroissance de la VRM sur 9 échantillons sont présentées dans le Chapitre 5). 3.3.4 Aimantation rémanente chimique Les grains ferromagnétiques qui cristallisent à basse température peuvent acquérir une aimantation rémanente chimique (Chemical Remanent Magnetization, CRM) plutôt qu'une TRM. Cette aimantation peut également s'acquérir par l'altération d'un minéral préexistant en un minéral ferromagnétique (Dunlop et Özdemir, 1997). 3.3.5 Aimantation gyro-rémanente Description Lors de la désaimantation par champ alternatif d'un échantillon, le moment magnétique des grains va se retourner et changer de direction. Cette rotation du moment peut prendre une forme gyroscopique et entrainer l'acquisition d'une aimantation gyrorémanente (Gyro-Remanent Magnetization, GRM) par l'échantillon, de direction perpendiculaire au champ AF appliqué et perpendiculaire à l'alignement préférentiel des grains de l'échantillon. Cette aimantation non désirée peut s'ajouter à la NRM et rendre sa désaimantation instable. 68 Evolution temporelle du champ magnétique lunaire Chapitre 3 : Matériel et méthodes en magnétisme 3 En laboratoire Des études ont permis de mettre au point un protocole pour corriger ce phénomène lors de la désaimantation de la NRM par champ alternatif (Stephenson et al., 1993 ; Finn and Coe, 2016). 3.3.6 Aimantation rémanente isotherme L'aimantation rémanente isotherme (Isothermal Remanent Magnetization, IRM) est acquise par l'échantillon lorsqu'il est soumis à un champ fort (> mT). Naturellement, elle peut être acquise suite à un foudroiement de la roche. Elle peut être donnée artificiellement, volontairement ou involontairement, si l'échantillon est placé près d'une source générant un champ très fort (bobine, aimant) à côté de l'échantillon. En laboratoire, l'IRM est volontairement donnée en exposant l'échantillon à une bobine (pulse magnetizer) afin de regarder notamment la composition et les domaines portés par les minéraux magnétiques d'une roche. Lors de leur découverte par les « chasseurs de météorites », elle peut être donnée involontairement sur certaines météorites lunaires. En effet, ces derniers utilisent des aimants pour les distinguer des autres roches. 3.4 Détermination des paléointensités 3.4.1 Evaluation de la qualité des échantillons Dans tous les cas, il faut que la composante primaire soit une TRM. Il faut également que cette composante soit stable thermiquement. Généralement, cette composante primaire tend vers l'origine lors de la désaimantation. Cette composante stable est appelée composante caractéristique (ChRM). Les désaimantations des échantillons lunaires et leurs différentes composantes sont détaillées dans le Chapitre 5 et rassemblées dans l'Annexe 5. Les roches lunaires sont sujettes à l'enregistrement d'aimantations secondaires de type IRM ou VRM (lors de leur retour ou de leur stockage sur Terre qui se fait malheureusement dans le champ magnétique terrestre). Ces composantes secondaires peuvent oblitérer plus ou moins totalement l'aimantation primaire, rendant sa caractérisation difficile pour la détermination de la paléointensité (Dunlop et Özdemir, 1997). 3.4.2 Protocoles R et REM' La paléointensité peut également être obtenue par désaimantation de la NRM de l'échantillon par champs alternatifs et normalisation par une aimantation de laboratoire : ARM ou IRM. Cette ARM (ou IRM) est également désaimantée en champ alternatif aux mêmes paliers que ceux utilisés pour la désaimantation de la NRM. Puis la NRM désaimantée est comparée à l'ARM (ou IRM) aux mêmes paliers afin de calculer une paléointensité. C'est une méthode alternative aux méthodes thermiques dérivées de la méthode de Thellier et Thellier (1959), et utilisée pour les échantillons dont la minéralogie magnétique est instable lors des chauffes ou qui ne peuvent tout simplement pas être chauffé pour des raisons de curation. De plus, c'est une méthode non destructive, qui peut se révéler intéressante pour l'étude de certains types d'échantillons (par exemple, pour les échantillons qui doivent être ensuite détruits pour des analyses chimiques). Evolution temporelle du champ magnétique lunaire 69 3 Chapitre 3 : Matériel et méthodes en magnétisme La première méthode utilisée (notée R) est la méthode de normalisation de la NRM par une ARM, développée notamment par Stephenson and Collinson (1974) ; Stephenson et al. (1977) puis reprise par Kohout et al. (2008) et Tikoo et al. (2012, 2014). Cette méthode a été appliquée sur 11 échantillons dont les résultats sont décrits dans le Chapitre 5. ∆!"# ! PARM = . ∆!"# !! (1) où ∆NRM est la composante stable préalablement définie (appelée ChRM) de haute coercivité (HC) et ∆ARM la composante établie sur le même intervalle ; b est le champ alternatif utilisé lors de l'acquisition de l'ARM ; f' est une constante de calibration, dont la valeur dépend du minéral magnétique porteur de l'aimantation (Stephenson and Collison, 1974). Dans cette étude, nous utilisons la valeur de 1,34, qui correspond à la valeur moyenne pour les roches lunaires (Stephenson et Collinson, 1974). La seconde méthode, connue sous le nom de REM', est basée sur la normalisation de la NRM par une SIRM précédemment acquise, développée par Cisowski et al. (1983) et adaptée par Gattacceca et Rochette (2004) et Muxworthy and Heslop (2011). Cette méthode a été appliquée sur 10 échantillons dont les résultats sont décrits dans le Chapitre 5. PIRM = ∆!"# ∆!"# .! (2) où ∆NRM est la composante stable préalablement définie (appelée ChRM) et ∆IRM la composante établie sur le même intervalle; a est la constante de calibration estimée à 3000 μT (Gattacceca and Rochette, 2004). Cette constante de calibration est une valeur moyenne issue de calculs sur différents types d'échantillons (Apollo, échantillons synthétiques lunaires, roches terrestres) et de minéraux (Supplementary material, Weiss et Tikoo, 2014). L'incertitude associée au résultat de la méthode ARM est d'environ un facteur 2 (Supplementary material, Weiss et Tikoo, 2014). L'incertitude associée au résultat de la méthode REM' varie d'un facteur 2 (Gattacceca and Rochette, 2004) à un facteur de presque 0.5 (Muxworthy et al., 2011). Les barres d'erreurs (b.e) des résultats R et REM' ont été obtenues à partir de la régression linéaire entre la courbe de désaimantation de la NRM en fonction de celle de l'ARM (R) ou de l'IRM (REM') : b.e (ARM) b.e (IRM) = !"#$" . ! ƒ" (3) et = pente. ! (4) Ces résultats sont dans le Chapitre 5. 3.4.3 Protocole de Thellier-Thellier La méthode de détermination de paléointensité la plus robuste est le protocole de double chauffe développé par Thellier et Thellier (1959) et ses méthodes dérivées. Cette méthode consiste en la chauffe successive de l'échantillon dans un champ d'intensité connue 70 Evolution temporelle du champ magnétique lunaire Chapitre 3 : Matériel et méthodes en magnétisme 3 à des températures croissantes (notées T1 à T4 sur la Figure 3.9) afin de désaimanter, par paliers, son aimantation naturelle NRM et d'acquérir en parallèle une aimantation thermorémanente partielle (pTRM). Ainsi, on acquiert artificiellement une TRM, qui est proportionnelle au champ appliqué au laboratoire. La comparaison avec les intensités de TRM et de NRM donne la paléointensité. La paléointensité du champ ancien Banc (μT) que l'on cherche est ainsi calculé : Banc = ∆!"# ∆!"# . Blab (5) où ∆NRM est l'intensité de la NRM désaimantée dans l'intervalle de température où est définie la ChRM ; ∆TRM est l'intensité de la TRM acquise dans le même intervalle; Blab est le champ appliqué en laboratoire (μT) qui doit être le plus proche de celui qui a été enregistré par l'échantillon. Cette méthode repose sur trois lois : - la loi d'additivité : la somme des pTRM acquises, sous un même champ, entre T1 et T2 et entre T2 et T3 est égale à la pTRM acquise entre T1 et T3. - la loi d'indépendance : la pTRM acquise par refroidissement entre deux paliers de température (entre T1 et T2) est indépendante de celle acquise à deux autres paliers de température (entre T2 et T3). - la loi de réciprocité : l'aimantation acquise par refroidissement à partir d'une température donnée est entièrement remplacée par l'aimantation acquise lors de la seconde chauffe au même palier de température. La méthode que j'ai utilisée dans ma thèse est la méthode IZZI (in field / zero field / zero field/ in field, détaillée par Yu et Tauxe, 2004). Pour retrouver la pTRM (MpTRM) acquise à chaque palier de température, l'échantillon est chauffé deux fois au même palier. Il y a ainsi deux étapes de chauffe : une étape de chauffe sous champ nul et une étape de chauffe sous champ connu (en μT) à un même palier de température: M =M (6) et M =M +M (7) M est ainsi calculé par différence vectorielle entre les deux chauffes. Ces deux chauffes sont répétées pour chaque palier de température, qui est de plus en plus élevée, jusqu'à atteindre la température de déblocage maximum de la NRM de l'échantillon. 1 NRM 2 NRM pTRM pTRM Evolution temporelle du champ magnétique lunaire 71 3 Chapitre 3 : Matériel et méthodes en magnétisme IZZI ZI ZI IZ IZ T3 T2 Blocking temperature T4 T1 Zero field In field In field NRM remaining Zero field Zero field pTRM check In field In field Zero field pTRM gained NRM lost Figure 3.9 : Description du protocole de désaimantation thermique IZZI pour l'estimation de paléointensités. Modifié d'après Ben-Yosef et al. (2008). Pour les roches dont les minéraux magnétiques sont des alliages de fer métallique (fer, kamacite, taenite) comme les roches lunaires, l'oxydation des porteurs magnétiques lors des chauffes est un problème sérieux pour la détermination des paléointensités. Suavet et al. (2014) a ainsi développé un système de chauffe sous fugacité d'oxygène contrôlé, basé sur les travaux théoriques de Prunier et Hewitt (1981). Un mélange de CO2 et de H2 est introduit lors de la chauffe. La proportion de ces deux gaz permet de contrôler la fugacité d'oxygène et d'éviter les phénomènes d'oxydation ou de réduction si l'on se place dans des conditions voisines de la fugacité d'oxygène lors de la formation de la roche étudiée. Nous avons ainsi développé ce système de chauffe sous oxygène contrôlé (Figure 3.10) au laboratoire de magnétisme du CEREGE, en adaptant un système décrit dans Suavet et al. (2014). Le dispositif a été installé dans la chambre amagnétique tandis que les deux bouteilles de gaz (H et CO ) ont été installées à l'extérieur la chambre amagnétique. 2 2 Figure 3.10 : Système de chauffe sous oxygène contrôlé installé sur le four de paléointensité (à gauche et en haut à droite). Les boîtiers de contrôle du four et du champ appliqués sont à gauche et en bas à droite. Les boîtiers de contrôle des débits de gaz injectés dans le four sont en haut à droite. J'ai d'abord réalisé des tests de chauffe sous atmosphère contrôlée en utilisant du fer pur (Figure 3.11) afin de tester l'oxydation ou non du fer en fonction de la fugacité d'oxygène. 72 Evolution temporelle du champ magnétique lunaire Geochemistry, Geophysics, Geosystems 10.1002/2013GC005215 Chapitre 3 : Matériel et méthodes en magnétisme 3 T [oC] 800 30 20 10 5 -20 log(fO2) [log(atm)] -25 700 600 570 500 400 300 WM 1 0.5 0.2 %CO2 9 8 IW 0 IM -1 -2 -3 -30 7 5 6 et 10 4 -35 3 et 11 2 10 5 -40 1 et 12 -45 9 10 11 12 13 10,000 / T [K] 14 15 16 1 0.5 0.2 17 Figure 3.11of: the Calibration fluxcontrolled-atmosphere de gaz utilisé dans la désaimantation thermique sousis atmosphère Figure 2. Calibration gas mixturesdu in our thermal demagnetization apparatus. Shown the inferred oxygen function of inverse temperature, 1/T. Black thick lines labeled are iron-w€ ustite and iron-magnetite (IM) solid fugacity,contrôlée. log(fO2), as aLa fugacité d'oxygène est montrée en fonction de ''0'' l'inverse de la (IW) température. La droite buffer curves from Eugster and Wones [1962] (based on measurements for IW, and theoretical calculations for IM), which intersect at noire « 0 » correspond à la courbe iron-wüstite (IW) et iron-magnetite (IM) d'après Eugster et Wones ustite-magnetite (WM) curves. Additional black solid lines represent "570! C. Above this temperature, the IM curve splits into IW10 and a w€ Les(atm) autres droites noires représentent lesrepresent courbescalculated en -1, -2 et -3 log Les droites 21, 22,(1962). and 23 log below the IW/IM buffer. Red solid lines fugacities from(atmosphère). Prunier and Hewitt [1981] for H2-CO2 rouges montrent les fugacités calculées d'après et Hewitt (1981) pour les mélanges de gaz H2-area gas mixtures of different compositions (in vol % CO2), and dashedPrunier lines are low-temperature linear extrapolations. The dark shaded encompasses in which precipitate [Prunier and Hewitt, representde ourSuavet experiments for CO2 the (enconditions CO2 vol%). Lesgraphite pointscanbleus, violets et verts sont1981]. issusGreen des circles expériences et al. which we observed iron was stable, blue circles represent experiments for which we observed that iron was oxidized to w€ ustite, and pur(2014), le violet étant pour l'oxydation du fer en magnétite ; le vert montrant le fer restant stable et le ple circles represent experiments for which we observed that iron was oxidized to magnetite. The fugacity for each of these experiments bleu l'oxydation fer enH2wüstite. Nos expériences -CO2 gas mixture composition. sont numérotées de 1 à 12 et signalées par des was calculated based on the du controlled étoiles vertes et violettes en respectant le code de couleur utilisé par Suavet et al. (2014). Modifié d'après Suavet al.oven (2014). field measured insideetthe is typically < 20 nT. Samples are placed on a removable ceramic holder attached to a 6 mm outer diameter gas inlet quartz tube with ceramic paste. A platinum wire acting as a catalyst [BurCes Ulmer, tests ont validé le fonctionnement de ce système queinlet. j'ai Once utiliséthe pour obtenir les résultats khard and 1995] is wrapped around the opening of the gas peak temperature is reached ! dans le Chapitre 5. Pour les the chauffes avec desisroches utilisé une with fugacité in the décrits oven, the temperature gradient along sample holder <5 C. lunaires, The quartzj'ai tube is sealed a silicone d'oxygène à IM/IW-1 (Sato et al., 1973) en introduisant les quantités de gaz détaillées dans stopper. The gas mixture composition is controlled from outside the shielded room by adjusting the flowlarates 26 Table pour chaque palier de température à partir de 300°C. of H2 and CO3.1, m3/s for CO2 and 2 with two rotameters. The range of possible flow rates is 0.01–2.28 3 10 26 3 0.58–5.88 3 10 m /s for H2. CO detectors are used to monitor potential H2 leaks, but these are not expected to be problematic because of the small H2 flow rates (the total flow is "6 3 1026 m3/s during filling). 3. Calibration To calibrate and test our system, we heated iron metal fragments (guaranteed 99.99% Fe by the producer) in gas mixtures of different compositions to temperatures between 300 and 800! C (Figure 2). At temperatures below "570! C, iron oxidizes to form magnetite when the atmosphere is too oxidizing. Above "570! C, Evolution temporelle du champ magnétique lunaire 73 €stite, which then further iron oxidizes to form wu oxidizes to magnetite. The fO 2 conditions at which these reactions occur are given by the equations of Eugster and Wones [1962], which define the IW, IM, and €site-magnetite (WM) buffers. We calculated the proportions of H2 and CO2 required to reach fO2 levels wu above and below the IW and IM buffers at different temperatures based on the tables of Prunier and Hewitt 3 Chapitre 3 : Matériel et méthodes en magnétisme Température (°C) Débit H2 (L/m) 300 330 360 400 450 480 500 520 540 560 580 610 630 0.6 0.6 0.6 0.5 0.5 0.5 0.3 0.3 0.2 0.2 0.2 0.2 0.2 CO2 (%) 0.2 0.35 0.5 1 2 2.5 3 3.5 4 4 4.5 5 7.5 Débit CO2 (L/m) 0.0012 0.0021 0.003 0.005 0.01 0.0125 0.009 0.01 0.008 0.008 0.009 0.01 0.015 Tableau 3.1 : Mélanges de gaz utilisés pour les expériences de désaimantation de roches lunaires. 3.4.4 Cas des échantillons sans composante stable Certains échantillons ne possèdent pas de composante d'aimantation stable et ne sont donc pas propices à donner une valeur de paléointensité. Il est cependant parfois possible d'obtenir une limite supérieure de paléointensité pour ces échantillons (Tikoo et al. 2012). Cette méthode repose sur la normalisation de deux composantes HC (∆ARM1 et ∆ARM2) obtenues après une acquisition d'ARM dans deux différents champs DC puis désaimantées. La première (ARM1) est acquise à fort champ DC (100 ou 200 μT), noté C ; et la seconde (ARM2) est acquise dans un champ DC plus faible (allant de 100 à 5 μT), noté L. Pour cela, on procède de la même façon que pour la détermination de la paléointensité par la méthode ARM sauf que l'on normalise une ARM par une autre ARM, le but étant de retrouver la valeur du champ DC appliqué lors de l'acquisition de l'ARM : ∆!"#! I = ∆!"#! . C (8) Pour savoir si le champ retrouvé I (μT) est valide, deux paramètres de fidélité sont calculés : la différence D (%) et l'erreur E (%), décrits par Tikoo et al. (2012) : D = | L – I| / L. 100 (9) Et E = W / L. 100 (10) où W est l'intervalle de confiance à 95% du champ retrouvé par rapport au champ appliqué. Si les deux paramètres E et D sont inférieurs à 100%, alors on considère que l'échantillon est capable d'enregistrer ce champ L et l'absence de composante stable de la NRM indique alors que le paléochamp était inférieur à L. En répétant ces expériences avec des champs L de plus en plus faibles (de 50 à 5 μT), on peut ainsi déterminer une limite supérieure pour la paléointensité. 74 Evolution temporelle du champ magnétique lunaire Chapitre 3 : Matériel et méthodes en magnétisme 3 Une fois le champ L minimum obtenu, on le convertit en champ équivalent pour une TRM (U ) (Supplementary material, Tikoo et al., 2014) : L U = L/f' (11) Avec f' la constante de calibration de l'ARM décrit en formule (1). L Il faut cependant remarquer que cette méthode repose sur des critères de sélection subjectifs (E et D < 100%) et les limites supérieures (U ) ainsi obtenues doivent être interprétées avec précaution. Il faut aussi garder à l'esprit qu'il ne s'agit pas d'une propriété intrinsèque de la roche mais plutôt d'une limitation des méthodes expérimentales, en général les aimantations parasites introduites par les désaimantation par champs alternatifs dans les grains de Fe,Ni poly-domaines. Cette méthode a été appliquée sur vingt-sept échantillons Apollo (représentant vingt roches Apollo), dont les résultats sont décrits dans le Chapitre 5. L Evolution temporelle du champ magnétique lunaire 75 3 76 Chapitre 3 : Matériel et méthodes en magnétisme Evolution temporelle du champ magnétique lunaire Chapitre Quatre A survey of the Natural Remanent Magnetisation and the magnetic susceptibility of Apollo whole rocks Magnétomètre portatif, développé au CEREGE, salle de Stockage NASA (Houston, USA) Copyright © Camille Lepaulard Evolution temporelle du champ magnétique lunaire 77 78 Evolution temporelle du champ magnétique lunaire Chapitre 4 : A survey of the NRM and the magnetic susceptibility of Apollo whole rocks 4 Chapitre 4 A survey of the Natural Remanent Magnetisation and the magnetic susceptibility of Apollo whole rocks Les propriétés magnétiques de seulement 5% des roches lunaires (< 70 sur les 1402 roches disponibles) ont été étudiées en laboratoire depuis leur échantillonnage lors des missions Apollo. De plus, la plupart de ces études se concentrent sur des échantillons de quelques centaines de mg, peu représentatifs d'une roche compte tenu de son hétérogénéité lithologique (notamment les roches d'impact). Notre étude vise donc, dans un premier temps, à compléter cette base de données par des mesures d'aimantation rémanente naturelle (NRM) et de susceptibilité magnétique sur des échantillons de masse plus conséquente de la collection Apollo. Pour cela, deux appareils portatifs (un magnétomètre et un susceptibilimètre) ont été développés au CEREGE afin de réaliser ces mesures dans la pièce de stockage des échantillons. Le magnétomètre est décrit dans l'article de Uehara et al. (2017) (Annexe 3). Les résultats issus des mesures au magnétomètre et au susceptibilimètre, ainsi que le susceptibilimètre, sont décrits dans l'article de Lepaulard et al. (en cours d'expertise pour Physics of the Earth and Planetary Interiors) à la fin de ce Chapitre. Nous avons ainsi étudié cent-soixante et une roches Apollo avec une masse moyenne de 500 g. L'analyse des données de susceptibilité magnétique obtenues corrobore les résultats de la littérature en affirmant que les processus d'impact sont le principal facteur de contrôle de la quantité de minéraux ferromagnétiques dans les roches lunaires, avec un enrichissement magnétique dû à l'incorporation de métal météoritique. De plus, l'apport de nouvelles mesures de NRM alimente la base de données utilisée pour la modélisation et l'interprétation des anomalies de champ magnétique lunaire. Dans un second temps, nous avons comparé les données de susceptibilité et de NRM obtenues à celles de la littérature. D'une manière générale, les données de susceptibilité et de NRM de la littérature présentent, pour une même roche, une plus grande dispersion par rapport à nos propres données de susceptibilité et de NRM obtenues sur des roches plus grosses. Cette dispersion témoigne d'une hétérogénéité à petite échelle du contenu métallique des échantillons. Enfin, nous avons normalisé les valeurs de NRM par les valeurs de susceptibilité magnétique pour chaque roche (rapport noté ß), dans le but d'obtenir un proxy de l'intensité du paléochamp enregistré par une roche. La comparaison des valeurs de ß avec les valeurs de paléointensité de la littérature montre une corrélation des valeurs à partir de ß = 4 (voir détails dans l'article). L'évolution de cette donnée en fonction du temps (Figure 4.1 cidessous) montre les deux époques de fort champ magnétique (4,25 – 3,5 Ga) et de champ faible (après 3 Ga) définies dans la littérature. On note cependant un certain nombre d'échantillons avec des ß faibles dans l'époque de champ fort, pouvant correspondre à des échantillons de faible paléointensité. Cela suggère que le champ moyen de cette époque a pu être surestimé dans la littérature. Ces échantillons peuvent aussi avoir eu une NRM originelle partiellement ou totalement effacée par un autre processus, comme le choc par exemple, qui aurait diminué la valeur de ß obtenue. Une contamination tardive par un Evolution temporelle du champ magnétique lunaire 79 4 Chapitre 4 : A survey of the NRM and the magnetic susceptibility of Apollo whole rocks régolithe riche en métal ou une NRM acquise lors d'une bréchification froide est aussi possible. Ce jeu de données nous a permis la sélection de neuf échantillons (signalés par une étoile blanche) spécifiques pour des analyses détaillées en laboratoire (voir Chapitre 3). Une nouvelle demande d'échantillons a été faite suite à cette étude, signalés par des triangles Figure 8 sur la Figure 4.1, afin de vérifier si les hautes valeurs de ß obtenues correspondent à blancs des hautes valeurs d'intensité. 30 Regolith breccia Impact melt breccia 25 Dimict breccia 200 Impact melt rock ß (A.m-1) Feldspathic rock 15 100 10 50 Paleointensity equivalence (μT) Basalt 20 20 10 5 Not defined 0 4 3 2 1 0 Time before present (Ga) Figure 4.1 : ß (avec les barres d'erreur) en fonction de l'âge des roches étudiées. Le code couleur réfère à la lithologie. Le trait gris correspond à une médiane glissante calculée sur quinze données successives de valeurs de ß. L'axe de droite indique les paléointensités approximatives pour ß>4 (ligne en pointillée). Les échantillons (neuf) demandés pour des analyses en laboratoire dans cette thèse ont une étoile dans le centre du cercle ; et ceux (quatre) avec un triangle sont ceux demandés pour des futures analyses après cette thèse. Figure extraite de l'article Lepaulard et al. (2018 – under review). 80 Evolution temporelle du champ magnétique lunaire Chapitre 4 : A survey of the NRM and the magnetic susceptibility of Apollo whole rocks 4 Article en révision à PEPI A survey of the natural remanent magnetization and magnetic susceptibility of Apollo whole rocks Camille Lepaulard1, Jérôme Gattacceca1, Minoru Uehara1, Pierre Rochette1, Yoann Quesnel1, Robert J. Macke, S.J.2, Walter Kiefer3 1 Aix Marseille University, CNRS, IRD, Coll. France, INRA, CEREGE, Aix-en-Provence, France 2 Vatican Observatory, Vatican City-State 3 Lunar and Planetary Institute, Houston, Texas, USA Key words Apollo samples; remanence; paleomagnetism; magnetic susceptibility Abstract Magnetic properties of lunar rocks may help understand the evolution of the past magnetic field of the Moon. However, these properties are often measured on small subsamples, which may not be representative of the bulk lunar rocks. In this study, a rough magnetic characterization of a large fraction of the Apollo collection was performed using non-destructive methods to determine the paleomagnetic signal, with a focus on large samples (mean mass 500 g). The natural remanent magnetization of 123 Apollo samples and the magnetic susceptibility of 154 Apollo samples were measured in the Apollo storage vault at the Lunar Sample Laboratory Facility in Houston. Magnetic susceptibility is strongly controlled by lithology and is clearly enhanced by impact processing and associated incorporation of meteoritic metal. The natural remanent magnetization is lower by a factor of ~3 than that measured by other researchers on small laboratory samples, suggesting magnetic contamination during small-sample preparation or handling, or directional heterogeneity in remanence within large samples. The laboratory measurements were conducted on subsamples of the same sample measured in this study. The ratio of natural remanence magnetization to magnetic susceptibility may be used as a selection tool for further paleomagnetic study. It is a crude paleointensity proxy and its overall temporal evolution is Evolution temporelle du champ magnétique lunaire 81 4 Chapitre 4 : A survey of the NRM and the magnetic susceptibility of Apollo whole rocks coherent with the existence of a high magnetic field from ~4 Ga to 3.5 Ga and a subsequent weaker field epoch as previously defined in the literature. Our data also raise the possibility that the intensity of the paleomagnetic field during the high field epoch may have been more variable and lower on average than previously suggested. 1. Introduction The existence of past or present magnetic fields on the Moon was a matter of debate before lunar exploration started, as it was one of the key factors in distinguishing between a "hot Moon" versus a "cold Moon" model. Early orbital magnetic measurements by Luna 10 (Dolginov et al., 1966) and Explorer 35 (Sonett et al., 1967) satellites were only able to determine upper limits of the magnetic fields in the vicinity of the Moon, indicating that any lunar fields would be much weaker than that of the Earth, and suggesting a non-magnetic body. However, the Apollo orbital and surface magnetometers revealed patches of significant field due to crustal remanence. The paleomagnetic study of Apollo samples suggested the record of past strong (i.e., Earth like) magnetic fields at the surface of the Moon (e.g., Fuller et al., 1987), besides the particular difficulties linked with retrieving reliable paleointensities in metal-bearing rocks (e.g. Lawrence et al. 2008). The analysis of Apollo samples establishes constraints on the temporal evolution of the lunar magnetic field. This evolution reveals two main magnetic epochs: a high-field epoch with paleointensities of several tens of μT between about 4.25 and 3.56 Ga (Garrick-Bethell et al., 2009, 2017; Cournède et al., 2012; Shea et al., 2012; Tikoo et al., 2012a; Suavet et al., 2013); followed by a weak-field epoch with paleointensities below 10 μT (Tikoo et al., 2014) and down to < 4 μT after 3.19 Ga (Tikoo et al., 2014, 2017; Weiss et al., 2014; Buz et al., 2015). In part because the age distribution of Mare basalts peaks between 3.8 and 3.3 Ga (Hiesinger et al., 2011), the high-field epoch is rather well constrained, with around 60 studied samples (Cisowski et al., 1983; Weiss et al., 2014). However, paleointensities up to 100 μT are at odds with dynamo models that predict much lower surface fields (Dwyer et al., 2011; Le Bars et al., 2011; Laneuville et al., 2014; Evans et al. 2017). Also, some samples may indicate paleointensities < 10 μT during this high-field epoch (Fuller et Cisowski, 1987), raising the possibility of a highly variable or intermittent dynamo (Evans et al., 2017). Further data from this high-field epoch is thus needed to strengthen the robustness of the high paleofields claims, and test the possibility of an intermittent or highly variable dynamo. 82 Evolution temporelle du champ magnétique lunaire Chapitre 4 : A survey of the NRM and the magnetic susceptibility of Apollo whole rocks 4 The weak-field epoch is defined as the period of decline of the field intensity, down to the present day situation with no internally generated field (Fuller and Cisowski, 1987; Tikoo et al., 2014). This epoch is constrained by 30 paleointensity estimates (Cisowski et al., 1983; Weiss et al., 2014; Tikoo et al., 2017; Wang et al., 2017). Recent analyses of young samples reveal surface field intensities from 5 ± 2 μT (~2.5-1 Ga, Tikoo et al., 2017) to <1 μT (~1 Ga, Wang et al., 2017). These results could be explained by the persistence of a weak dynamo powered by core crystallization and mantle precession from 2.5 to 1 Ga (Tikoo et al., 2017). Numerical modeling studies show that core convection could indeed generate surface fields of 2 μT until up to 200 Ma (Evans et al., 2017). The field evolution over the weak-field epoch is rather poorly defined, especially between 3 and 2 Ga, a time interval where both basalts and regolith breccias are rare (Hiesinger et al., 2011; Fagan et al., 2014). So far, fewer than 70 small (usually well below 1 g) samples of Apollo rocks have been studied for paleomagnetism, compared to a total of 1402 rock samples available in the Apollo collection (this latter number is a personal communication by Ryan Zeigler). The aim of this study is to obtain a rough estimate of the paleomagnetic potential of a larger fraction of the Apollo rock collection using non-destructive methods. We measured the natural remanent magnetization (NRM) and the magnetic susceptibility (χ) of whole Apollo samples. This data increase the database of lunar rocks magnetic properties. The measurement of these two properties on the same sample also allows a qualitative assessment of the paleomagnetic potential of these samples. The NRM intensity is a crude indication of whether a rock can be targeted for paleomagnetic study. χ is a proxy for the metal content. The ratio between NRM and χ can be viewed as a crude proxy for the intensity of the paleofield recorded by a rock, enabling the selection of samples for detailed laboratory demagnetization follow-up studies that address specific questions (timing of the dynamo, maximum field recognized in the weak-field epoch, etc). A high NRM/χ may also be an indication of suitable paleomagnetic intrinsic properties for laboratory follow-up studies. Finally, these analyses increase the database of lunar rock magnetic properties for the purposes of modeling the lunar crustal magnetic field (e.g., Oliveira et al. 2017). Evolution temporelle du champ magnétique lunaire 83 4 Chapitre 4 : A survey of the NRM and the magnetic susceptibility of Apollo whole rocks 2. Samples and methods 2.1 Samples We studied 161 Apollo samples with a focus on large samples (mean mass 497 g, median mass 232 g, mass range 21 to 4688 g, see Table S1). This is much larger than the typical size of specimens used in most previous studies, which were well below 1g (see section S2 in Supplementary material). Of the 161 samples in this study, only 28 had been studied previously for remanent magnetization, and only 37 for magnetic properties. We measured the natural remanent magnetization of 123 samples, the magnetic susceptibility of 154 samples, and 119 samples for which both properties were measured. All specimens in this survey were single coherent bulk samples. We studied basalts, anorthosites, norites, and different types of breccias, spanning the Apollo 11, 12, 14, 15, 16 and 17 landing sites. In the following, a simplified lithological classification of lunar rocks is used (Heiken and al., 1991). Breccias are classified into three categories: impact melt breccia (IMB) with clasts set in a melt matrix, dimict breccia (DB) with two distinct lithologies (usually anorthosite and melt rock) and regolith breccia that represent lithified regolith. The other lithologies are impact melt rocks (IMR), basalts, and feldspathic rocks from the lunar highlands (norites, troctolites, anorthosites). 2.2 Methods All measurements were performed directly in the Apollo storage vault at the Lunar Sample Laboratory Facility (LSLF) at Johnson Space Center (JSC), NASA, Houston. A specific susceptibility meter and a spinner magnetometer were used to be assembled in the LSLF and which satisfy curatorial constraints. The samples were left in their original packaging for this study. Sample packaging varied from sample to sample. Samples kept in steel containers could not be studied. We measured those stored in Teflon bags, aluminum containers, or a combination of both. Prior to measurements, the samples were placed at the center of a hollow cubic sample holder made of acrylic plastic. They were maintained in place using padding material made of acrylic and Teflon. The magnetometer and associated data processing methods are described in Uehara et al. (2017). The errors associated with the NRM measurements provided in section S1, Table S1, are based on the departure of the measured signal from that of the signal from an ideal dipole (Uehara et al., 2017). We validated only samples that fit a dipole source to better than 84 Evolution temporelle du champ magnétique lunaire Chapitre 4 : A survey of the NRM and the magnetic susceptibility of Apollo whole rocks 4 20% (see discussion in Uehara et al., 2017). We did not obtain a satisfactory measurement for 24 samples, either because the magnetization was too low or because the measured signal departed too much from the signal generated by a centered dipole (samples noted with † in the Table S1). These 24 samples range in mass from 24.5 to 1444 g and do not correlate with lithology or size. We did not measure NRMs for 14 samples that consisted of multiple small pieces in a single container (samples noted - in Table S1 in Supplementary material). The susceptibility meter is described in section S3 in Supplementary material. It consists of an acrylic cylindrical body with two inducing coils and a Hall probe to measure the sum of the alternating inducing and induced fields (Figures S2 and S3 in Supplementary materials). The peak inducing field was 30 μTp-p, with absolutely no effect on the paleomagnetic signal, and its frequency was at 5 Hz. This low frequency limits eddy currents in metal and thus enables measurements of samples wrapped in aluminum foils or encapsulated in aluminum containers. This susceptibility meter can accommodate samples as large as 8000 cm3, corresponding to 20 x 20 x 20 cm sample capsule. Measurements are based on the assumption that samples are perfectly centered in the instrument. The method of calculation of the uncertainty on our magnetic susceptibility results is detailed in section S3 in Supplementary material. To limit errors from sample geometric offset and/or anisotropic sample shape, we measured the susceptibility in two to three orthogonal positions and used the average result. Magnetic anisotropy of lunar rocks is at most a few percent (e.g., Rochette et al., 2010; Cournède et al. 2012) and is neglected in this study. The magnetic susceptibility for 41 samples was also measured using a commercial susceptibility meter MS2 from Bartington equipped with a MS2C coil. This coil, with an internal diameter of 12 cm, is designed for measurement of cores and was calibrated for discrete samples against a KLY2 large volume kappabridge. The calibration and procedure is provided in section S4 in Supplementary material. Like during the calibration procedure, the measurements were performed along three orthogonal positions and averaged, not so much to account for the weak magnetic anisotropy of lunar rocks, but to account for the effect of sample anisometry on the measurements. For samples measured with both instruments (MS2 and our susceptibility meter), the results compare well, with a coefficient of correlation R2 = 0.98 and a slope of 1.03 (see section S5 in Supplementary material). Evolution temporelle du champ magnétique lunaire 85 4 Chapitre 4 : A survey of the NRM and the magnetic susceptibility of Apollo whole rocks 3 Results and discussion 3.1. Magnetic properties and lithology The NRM intensity spreads over two orders of magnitude (S1, Table S1) and shows a strong lithological dependence, in ascending order of NRM: feldspathic rocks, basalts, breccias and regolith breccia (Figure 1a, Table 1). This corroborates previous results, although on a much larger dataset. Magnetic susceptibility is also lithology-dependent, with impact-processed rocks being more magnetic (i.e., higher NRM and χ) (Figure 1b). This confirms that lunar impact processes are the main factors controlling the amount of ferromagnetic minerals in lunar rocks, with a magnetic enhancement due to incorporation of meteoritic metal as well as formation of nanoparticules of metal due to vapor reduction and condensation (e.g., Rochette et al., 2010). Figure 1 a) Feldspathic rocks (2,7) Basalt (29,39) Impact melt rocks (5,5) b) 60 Dimict breccia (4,5) Regolith breccia (44,48) 50 Number of samples Impact melt breccia (39,49) 40 40 30 30 20 20 10 10 0 -6 0 3E-063 101E-05 10-5 3E-053 10-51E-0410-4 3E-043 10-4 0 0 3E-07 3 10-71E-06 10-6 3E-063 10-61E-05 10-5 3E-05 3 10-51E-04 10-4 NRM (Am2kg-1) Magnetic susceptibility (m3kg-1) Figure 1: a) Distribution of the NRM intensities of the large Apollo samples measured in this study, grouped by lithology. b) Distribution of the magnetic susceptibility of the large Apollo samples measured in this study, grouped by lithology. Numbers of analyzed samples are indicated for each lithology (number for NRM, number for susceptibility). Note the non-linear scales for both NRM and susceptibility. 86 Evolution temporelle du champ magnétique lunaire 199.79 44.55 80.50 13.50 37.24 6.05 Literature data Regolith breccia Impact melt breccia Dimict breccia Impact melt rocks Basalts Feldspathic rocks 328.06 46.96 7.50 13.14 70.86 8.90 63.06 25.67 41.99 31.00 43.36 2.92 69.50 23.20 80.50 9.00 15.85 1.04 55.91 9.24 11.09 19.07 8.20 4.75 NRM median (10-6Am2kg-1) 31.00 1.80 73.00 2.00 0.54 0.17 4.83 1.30 2.71 2.45 1.25 1.83 NRM minimum (10-6Am2kg-1) N/No 1000.0 147.0 88.0 34.0 500.0 30.2 Total 7 24 2 4 61 11 109 225.6 44 / 50 85.6 39 / 52 104.9 4/5 74.1 5/6 243.4 29 / 40 7.7 2/8 Total 123 / 161 NRM maximum (10-6Am2kg-1) 23.72 7.22 6.02 1.59 2.04 19.11 4.11 6.10 6.07 1.81 1.91 18.58 11.63 4.40 1.60 5.02 16.65 2.78 3.81 4.78 1.48 2.35 16.46 3.13 4.30 1.10 0.041 13.89 3.69 1.57 4.32 1.41 1.15 4.17 0.28 0.72 0.41 0.0016 2.65 0.15 2.03 1.16 0.64 0.020 N/No 75.9 45.7 12.3 9.8 17.8 Total 14 24 0 8 48 11 105 73.8 44 / 50 11.5 49 / 52 10.6 5/5 13.1 5/6 9.8 39 / 40 7.8 8/8 Total 154 / 161 χ S.D χ median χ mean (10-6m3kg (10-6m3kg- χ minimum χ maximum (10-6m3kg-1) (10-6m3kg-1) (10-6m3kg-1) -1) 1) Table 1: NRM and magnetic susceptibility sorted by lithology. N: number of reliable measurements (see text); No: number of samples studied in this work; S.D: standard deviation. 75.20 20.72 32.44 33.54 18.87 4.75 NRM S.D NRM mean (10-6Am2kg (10-6Am2kg-1) -1) Regolith breccia Impact melt breccia Dimict breccia Impact melt rocks Basalts Feldspathic rocks Lithology Chapitre 4 : A survey of the NRM and the magnetic susceptibility of Apollo whole rocks 4 Evolution temporelle du champ magnétique lunaire 87 4 Chapitre 4 : A survey of the NRM and the magnetic susceptibility of Apollo whole rocks 3.2.Comparison with other measurements The NRM and the magnetic susceptibility values averaged by lithology are given in Table 1, both for this study and for literature data. The literature dataset consists of 109 NRM estimates (from 61 different Apollo rocks), and 105 susceptibility estimates (from 73 different Apollo rocks). A comparison of both datasets shows that the NRM intensities are larger by an average factor of ~2.7 in small sample studies (Figure 2a). This discrepancy is evidence of the NRM directional heterogeneity within some lunar rocks and/or of possible magnetic contamination of small samples during preparation and handling. The two datasets provide similar values for the susceptibility (R2= 0.86) with a slope of 0.9 (Figure 2b). Standard deviations in the literature data are generally higher than in ours, except for regolith breccias, indicating small-scale heterogeneities in metal content. Figure 2 a) b) 25 Susceptibility, literature data (10-6 m3kg-1) NRM, literature data (10-5 Am2kg-1) (44,14) (44,7) 20 15 10 (4,2) (39,24) 5 (29,61) 20 15 10 (49,24) Regolith breccia (5,8) 5 Impact melt breccia Impact melt rocks (8,11) Basalt (2,11) 0 0 (5,4) (39,48) 5 10 Feldspathic rocks 0 0 5 NRM, this study (10-5 Am2kg-1) 10 15 20 Susceptibility, this study (10-6 m3kg-1) Figure 2: a) NRM average values of small samples (literature data, with standard deviations) versus NRM average values of large samples (this study, with standard deviations) by lithology. b) Magnetic susceptibility average values of small samples (literature data, with standard deviations) versus magnetic susceptibility average values of large samples (this study, with standard deviations) by lithology. In both figures numbers in parentheses refer to the number of samples in our dataset and the literature dataset, respectively, and the light broken line is a 1:1 line. 88 Evolution temporelle du champ magnétique lunaire 25 Chapitre 4 : A survey of the NRM and the magnetic susceptibility of Apollo whole rocks 4 For the subset of samples that were previously studied in the literature (section S6, Table S2 in Supplementary material), we compare our NRM measurements on large samples with the laboratory measurements performed on small subsamples of the same rocks (Figure 3). The results of our bulk sample study do not correlate to those of the small subsamples (R2= 0.08). It is noteworthy that when several measurements are available in the literature, there is a large scatter between measurements (with a relative variation from 6% to 163%, 56% in average). This scatter is not due to analytical uncertainties that are small compared to magnetic moments, both in this study and in previous studies. This is rather further evidence of small-scale heterogeneity of NRM, attributed to lithological heterogeneities (illustrated in section S2), with heterogeneous distribution of metallic iron, especially in breccias. It can indicate too the presence, in the same rock, of lithologies that have recorded contrasting paleofields. Overall, the NRM is higher for small samples than large samples (see also Table 1), indicating possible magnetic contamination during small samples preparation or handling, or heterogeneous directions of NRM within a large sample. 1.E-03 10-3 10-4 1.E-04 NRM, literature data (Am2.kg-1) Figure 3 10-5 1.E-05 -6 10 1.E-06 Regolith breccia basalt Feldspathic rocks Dimict breccia Impact melt breccia 10-7 1.E-07 10-7 1.E-07 -6 10 1.E-06 -5 10 1.E-05 -4 10 1.E-04 -3 10 1.E-03 NRM, this study (Am2.kg-1) Evolution temporelle du champ magnétique lunaire 89 4 Chapitre 4 : A survey of the NRM and the magnetic susceptibility of Apollo whole rocks Figure 3: NRM intensities measured on small samples (literature data) versus NRM values of large intensities measured on large samples of the same rocks (this study). Box symbols connected by vertical lines are for rocks with several small sub-samples in the literature dataset. The error bars are smaller than the symbol size. The light broken line is a 1:1 line. Our susceptibility data for the large samples and the small subsamples in the literature data (Figure 4) are also not correlated (R2 = 0.03); even the most correlated lithology, which is the impact melt breccia, shows only R2 of 0.175. Feldspathic rocks show the largest discrepancy, our values being up to of 2 orders of magnitude larger than literature data. It is noteworthy that there is a large scatter in literature data (S5, in Table S2) for multiple measurements of subsamples from the same rock, especially for impact melt breccia and impact melt rocks with coefficient of variation of 43% and 59% respectively. Again, smallscale lithological heterogeneities can account for these variations, especially in smaller samples. For feldspathic rocks, the larger whole rock susceptibility may be due to the fact that these rocks often have a coating of melted or regolithic material and that this coating, enriched in metal, was avoided in the subsampling. As an example, samples 65315 and 60215 had diamagnetic χ values of −1.4 × 10−9 m3kg−1 and -5.4 × 10−9 m3kg−1, respectively, in the small sample study of Cournède et al. (2012) and 20 × 10−9 m3kg−1 and 228 × 10−9 m3kg−1, respectively, in this study. 90 Evolution temporelle du champ magnétique lunaire Chapitre 4 : A survey of the NRM and the magnetic susceptibility of Apollo whole rocks 4 igure 2 10-4 1E-04 Regolith breccia IMB Basalt 1E-05 10-5 Feldspathic rocks Susceptibility, literature data (m3.kg-1) Impact Melt Rock -6 10 1E-06 10-7 1E-07 10-8 1E-08 -9 10 1E-09 10-9 1.E-09 10-8 1.E-08 10-7 1.E-07 10-6 1.E-06 10-5 1.E-05 10-4 1.E-04 Susceptibility, this study (m3.kg-1) Figure 4: Magnetic susceptibility of small samples (literature data) versus magnetic susceptibility values of large samples (this study, with error bars). Box symbols connected by vertical lines are for rocks with several sub-samples in the literature dataset. The light broken line is a 1:1 line. In Figure 5, we compare our susceptibility results with measurements performed at JSC on another set of large samples (mean mass 19.8 g) from the returned sample collection (Macke et al., 2014). These measurements were performed using a SM30 instrument calibrated following Gattacceca et al. (2004) and are provided in section S7, Table S3. The coefficient of correlation of 0.70, together with a slope of 0.998 between the two independent datasets confirm that the scatter observed between our measurements and the small sample laboratory measurements is due to the intrinsic properties of lunar rocks (mostly small scale heterogeneities) rather than instrumental issues. Still returned samples yield on average lower Evolution temporelle du champ magnétique lunaire 91 4 Chapitre 4 : A survey of the NRM and the magnetic susceptibility of Apollo whole rocks values than the whole rocks, again suggesting the possible effect of regolith contamination of the surface of whole rocks. It is also possible that measurements using the SM30 contact probe are underestimated because they are sensitive to the surface roughness of the samples and were calibrated for smooth pebble shaped samples (Gattacceca et al., 2004). 20 Magnetic suscpetibility (SM30 measurements, 10-6m3kg-1) Figure 5 15 y = 0.998x R2 = 0.703 10 5 0 0 5 10 15 -6 3 Magnetic susceptibility, this study (10 m kg-1) 20 Figure 5: Magnetic susceptibility data measured with our custom made susceptibility meter (average sample mass 1130 g for this subset of samples) versus magnetic susceptibility measured using a SM30 susceptibility meter on different samples (with average mass 19 g) of the same Apollo rocks. The dotted line is a linear fit between the two datasets. 3.3. Paleomagnetic potential of this dataset The ratio of NRM to magnetic susceptibility, noted ß hereafter, may convey information about lunar paleomagnetism. Indeed, high ß values may point to more single domain like behavior (for a given paleofield) or to higher paleofields (for a given magnetic mineralogy). 92 Evolution temporelle du champ magnétique lunaire Chapitre 4 : A survey of the NRM and the magnetic susceptibility of Apollo whole rocks 4 The paleointensity of 23 selected samples measured in this study have already been determined in previous laboratory studies (part S8, Table S4). ß appears broadly correlated with the paleointensity (Figure 6). However, a trend line does not intercept at the origin (B,ß)=(0,0). Indeed probably because of secondary magnetization components, hardly any samples have ß below 1. Qualitatively, we estimate that ß values below 4 have no real paleointensity significance and may correspond to null or weak paleointensity. Selecting samples with ß ≥4, and forcing the x-intercept of the linear fitting to ß=4, we have a relation B = 9.7 * (ß-4) (R2=0.63) with B in μT and ß in A/m. This relation indicates that the overall ß dataset may be informative about the overall evolution of lunar paleointensities and allows using ß as a crude paleointensity proxy. 120 B=9.7*(ß-4) 100 Paleointensity, literature data (μT) Figure 6 80 60 40 20 0 0 2 4 6 8 10 ß 12 14 16 18 (Am-1) Figure 6: Paleointensity estimates (literature data, dark circles: paleointensity based on AF methods, grey circles: paleointensity based on thermal methods) as a function of ß (with error bars). When several estimates are available the average paleointensity is used. When both AF- and thermal-based results are available, the AF-based result is used, except for a recent result on 15015 that was obtained using oxygen fugacity control (Wang et al,. 2017). The single pTRM result of Brechet 1974 for 74275 was not used. The shaded area corresponds to ß <4 (see section 3.3). Sample 14305 was not included Evolution temporelle du champ magnétique lunaire 93 4 Chapitre 4 : A survey of the NRM and the magnetic susceptibility of Apollo whole rocks in this plot because of its peculiar magnetic mineralogy (NRM being carried by cohenite; e.g Cournède et al., 2012) that sets it apart from all other Apollo samples. However, there are various reasons why ß may not be a good proxy for the paleointensity. First, the minerals that carry the magnetic susceptibility signal are not necessarily the same ones that carry the NRM. This may introduce a mineralogical bias in the interpretation. Unfortunately, the formation ages of the various lithologies are clustered in discrete and mostly non overlapping periods so that this lithological bias is difficult to circumvent. Second, it would be better to normalize NRM by ferromagnetic susceptibility only, since the paramagnetic minerals contribute to the susceptibility but not to the remanence. As we do not know the paramagnetic susceptibility of most Apollo rocks, however, we chose not to apply a blanket correction to the susceptibility that may introduce an additional source of uncertainty. Third, we measured the total NRM of the samples without any magnetic cleaning. Therefore these rocks may be affected by secondary magnetizations (i.e., not acquired on the Moon) like viscous remanent magnetization (VRM) acquired during the ~50 years stay of the Apollo rocks in the geomagnetic field, but also by all magnetic contaminations that may have occurred at differents stages of the Apollo samples' history (during sampling on the Moon, in the return spacecraft, during cutting and processing at JSC). Regarding VRM, it is noteworthy that the studied samples were kept in a mumetal container in ambient field < 200 nT for at least 24 hours before their NRM was measured, allowing for relaxation of about 50% of a 50 year VRM assuming a similar acquisition and decay rate for VRM. As an example we measured in the laboratory (CEREGE) the NRM and the magnetic susceptibility of a small piece of sample 14169 (73 mg). The NRM (6.45 x 10-5 Am2kg-1) was measured using a SQUID cryogenic magnetometer and the susceptibility (2.34 x 10-6 m3kg-1) using a MFK1 instrument. The NRM was then stepwise demagnetized using alternating fields (AF). This particular sample has a large secondary component (possibly a VRM), removed between 2 mT and 6 mT AF (Figure 7a). As a consequence ß decreases rapidly during AF demagnetization and reaches much lower values than those obtained on the whole rock at LSLF (Figure 7b). This ß value of 16.5, measured on a 72.4 g sample, is clearly dominated by the secondary component of the sample. It is therefore hardly related to the high coercivity component of magnetization which would relate to the lunar surface field during the formation of this rock on the Moon. This effect can enhance ß for some samples with no relation to the paleofield intensity. Finally the possibility that the large block magnetic 94 Evolution temporelle du champ magnétique lunaire Chapitre 4 : A survey of the NRM and the magnetic susceptibility of Apollo whole rocks 4 susceptibility is biased toward higher value by surface contamination and coating by regolith material may add another bias since this contamination will increase the magnetic susceptibility but not necessarily the bulk NRM. Figure 7 a) b) Sample Sample 14169 14169B-2a N Up Sample 14169, 73 mg 73 mg 30 25 W ß (A.m-1) 20 E 6 mT 15 10 3 mT 5 0 0 10 20 30 40 50 60 70 80 90 100 Alternating field (mT) 0NRM mT Scale markScale = S Down : 1e-9 Am 10-9 Am2 2 Figure 7: Laboratory NRM measurements for Apollo rock 14169. a) Orthogonal projection plot for a 73 mg sub-sample. b) ß (A.m-1) as a function of alternating field. The dashed line is the ß value for the 72.4 g block measured at JSC. A plot of ß as a function of time reveals different behaviors over the high-field epoch (between 4.25 and 3.56 Ga in literature) and weak-field epoch (after ~3.5 Ga) discussed above (Figure 8). There is more scatter in the high-field epoch with 7/40 samples with high ß value (ß > 10 A/m, including samples 14053 and 14305 with ß > 20 A/m) between 4 and 3 Ga (Figure 8). However, 23 samples, accounting for 64% of samples in this period, have low ß values (ß < 5 A/m). A majority of samples have ß < 5 A/m in the weak-field epoch (18/48 samples higher than 5 A/m) and only 1 sample has ß > 20 A/m (sample 12010 with ß = 25.2 A/m). A median value computed on a sliding window of 15 ß values (grey line in Figure 8) agrees qualitatively with the existence of the high-field and weak-field epochs. It is noteworthy that a significant fraction of samples from the high-field epoch have low ß values (23/40 with ß < 5 A/m). They may correspond to samples with low paleointensities, Evolution temporelle du champ magnétique lunaire 95 4 Chapitre 4 : A survey of the NRM and the magnetic susceptibility of Apollo whole rocks suggesting that the average field in the high field epoch may have been overestimated in previous studies because of the focus on highly magnetized samples. Alternatively they could correspond to samples whose original NRM has been partially or totally erased by a later process. Shock in particular is able to remagnetize rocks and in view of the low efficiency of shock magnetization compared to TRM (e.g., Tikoo et al., 2015), the result of shock remagnetization would be a drastic decrease of ß regardless of the intensity of the lunar surface field at the time of impact. Other explanation for low ß could be post NRM acquisition "cold" brecciation (without resetting of radiometric ages but clast-scale randomization of the NRM) and recent contamination by metal rich regolith. With all these caveats in mind, the dataset presented in Figure 8 allows selecting Figure 8 samples for laboratory studies addressing specific questions about the lunar surface field evolution. 30 Regolith breccia Impact melt breccia 25 Dimict breccia 200 Impact melt rock ß (A.m-1) Feldspathic rock 15 100 10 50 Paleointensity equivalence (μT) Basalt 20 20 10 5 Not defined 0 4 3 2 1 0 Time before present (Ga) Figure 8: ß (with error bars) as a function of the age of studied rocks. Color-coding refers to lithology. The grey line corresponds to a sliding median, calculated on 15 successive ß values. The right axis indicates the approximate paleointensity for ß > 4 (broken line, see section 3.3 and fig. 6). 96 Evolution temporelle du champ magnétique lunaire Chapitre 4 : A survey of the NRM and the magnetic susceptibility of Apollo whole rocks 4 4. Conclusions Using two portable instruments specifically designed for this project, we obtained magnetic susceptibility and NRM measurements on 154 and 123 Apollo whole samples, respectively. This dataset represents a significant increase in number (+52% for NRM and +64% for susceptibility) and in mass (80 kg against 20.5 g for the literature dataset) of the existing database of lunar magnetic properties. Our lithology-averaged NRM values may be more representative of the large-scale magnetic parameters than the values measured on small samples usually well below 1 gram that appears overestimated by an average factor of ~2.7. The NRM values obtained in this work are therefore more suitable to model and interpret the lunar magnetic field anomalies. Conversely, our magnetic susceptibility estimates may be overestimated for some weakly magnetic lithologies because of coating by glass or regolith material on bulk samples. Overall, magnetic susceptibility is strongly controlled by lithology and is clearly enhanced by impact processing and associated incorporation of meteoritic metal. The ratio of natural remanence and magnetic susceptibility may be used as a crude paleointensity proxy. Its overall evolution with time is coherent with the existence of the high field and weak field epochs defined in the literature. However our data raise the possibility that the paleointensity during the high field epoch may have been more variable and lower on average than previously suggested. Although this ratio cannot provide robust paleointensities, our dataset represents a valid tool to select samples of interest for detailed paleomagnetic laboratory study. Acknowledgements This work was funded by the Agence Nationale de la Recherche (project Maglune, ANR-14CE33-0012) and the Programme National de Planétologie (INSU/CNES). Evolution temporelle du champ magnétique lunaire 97 4 Chapitre 4 : A survey of the NRM and the magnetic susceptibility of Apollo whole rocks References Buz, J., Weiss, B.P., Tikoo, S.M., Shuster, D.L., Gattacceca, J. and Grove T.L., 2015. Magnetism of a very young lunar glass. Journal of Geophysical Research: Planets 120 (1720-1735), doi:10.1002/2015JE004878. Cournede, C., Gattacceca, J., and Rochette, P., 2012. Magnetic study of large Apollo samples: Possible evidence for an ancient centered dipolar field on the Moon. Earth and Planetary Science Letters 331-332 (31-42), doi:10.1016/j.epsl.2012.03.004. Dolginov, S.S., Eroschenko, E.G., Zhuzgov. L.N., and Pushkov. N.V., 1966. Measurements in the vicinity of the Moon by the artificial satellite Luna 10. Dokl. Akad. Nauk SSSR 170 (574-577). Dwyer, C.A., Stevenson, D.J., and Nimmo, F., 2011. A long-lived lunar dynamo driven by continuous mechanical stirring. Nature Letter 479 (212-214), doi:10.1038/nature10564. Evans, A.J., Tikoo, S.M. and Andrews-Hanna, J.C., 2017. The case against an early lunar dynamo powered by core convection. Geophysical Research Letters 45 (98-107), doi: 10.1002/2017GL075441. Fagan, A.L., Joy, K.H., Bogard, D.D. and Kring, D.A., 2014. Ages of globally distributed Lunar paleoregoliths and soils from 3.9 Ga to the present. Earth Moon Planets 112 (59-71), doi:10.1007/s11038-014-9437-7. Fuller, M., and Cisowski, S.M., 1987. Lunar paleomagnetism. In: Jacobs, J.A. (Ed.), Geomagnetism. Academic Press, San Diego, CA, pp. 307–456. Garrick-Bethell, I., Weiss, B.P., Shuster, D.L., and Buz, J., 2009. Early Lunar Magnetism. Science 323 (356), doi:10.1126/science.1166804. Garrick-Bethell, I., Weiss, B.P., Shuster, D.L., Tikoo, S.M. and Tremblay, M.M., 2017. Further evidence for early lunar magnetism from troctolites 76535. Journal of Geophysical Research: Planets, 122 (76-93), doi:10.1002/2016JE005154. Gattacceca, J., Eisenlohr, P. and Rochette, P., 2004. Calibration of in situ magnetic susceptibility measurements. Geophysics Journal Interiors 158 (42-49), doi: 10.1111/j.1365246X.2004.02297.x. Heiken, G.H., Vaniman, D.T. and French, B.M., 1991. Lunar source book, a user's guide to the moon. Cambridge university press. Lunar and Planetary Institue, 736p. Hiesinger, H., Head III, J.W., Wolf, U., Jaumann, R. and Neukum, G., 2011. Ages and stratigraphy of lunar mare basalts: A synthesis. The Geological Society of America, Special paper 477 (1-51), doi:10.1130/2011.2477(01). Laneuville, M., Wieczorek, M.A., Breuer, D., Aubert, J., Morard, G., and Rückriemen, T., 2014. A long-lived lunar dynamo powered by core crystallization. Earth and Planetary Science Letters 401 (251-260). Lawrence, K., Johnson, C., Tauxe, L., and Gee, J., 2008. Lunar paleointensity measurements: Implications for lunar magnetic evolution. Physics of the Earth and Planetary Interiors 168 (71-87), doi:10.1016/j.pepi.2008.05.007. Le Bars, M., Wieczorek, M.A., Karatekin, Ö., Cébron, D. and Laneuville, M., 2011. An impact-driven dynamo for the early Moon. Science Research Letter 479 (215-220), doi:10.1038/nature10565. Macke, R.J., Kiefer, W.S., Britt, D.T., Consolmagno, G.J and Irving, A.J., 2014. New lunar sample density and magnetic susceptibility measurements. 45th Lunar and Planetary Science Conference, poster #1949. Oliveira, J.S., Wieczorek, M.A. and Kletetschka, G., 2017. Iron abundances in lunar impact basin melt sheets from orbital magnetic field data. Journal of Geophysical Research: Planets 122 (12), 2429-2444. 98 Evolution temporelle du champ magnétique lunaire Chapitre 4 : A survey of the NRM and the magnetic susceptibility of Apollo whole rocks 4 Rochette, P., Gattacceca, J., Ivanov, A.V., Nazarov, M.A. and Bezaeva, N.S., 2010. Magnetic properties of lunar materials: Meteorites, Luna and Apollo returned samples. Earth and Planetary Science Letters 292 (383-391), doi:10.1016/j.epsl.2010.02.007. Shea, E.K., Weiss, B.P., Cassata, W.S., Shuster, D.L., Tikoo, S.M., Gattacceca, J., Grove, T.L., and Fuller, M.D., 2012. A long-lived lunar core dynamo. Science 335 (453), doi: 10.1126/science.1215359. Sonett, C.P., Colburn, D.S., Currie, R. G. and Mihalov. J.D., 1967. The geomagnetic tail, topology, reconnection and interaction with the Moon. Physics of the Magnetosphere (461484). Steiger, R.H. and Jäger, E., 1977. Subcommission of geochronology : Convention on the use of decay constants in geo- and cosmochronology. Earth and Planetary Science Letters 36 (359-362). Suavet, C., Weiss, B.P., Cassata, W.S., Shuster, D.L., Gattacceca, J., Chan, L., GarrickBethell, I., Head, J.W., Grove, T.L., and Fuller, M.D., 2013. Persistence and origin of the lunar core dynamo. Earth, Atmospheric, and Planetary Sciences 110 (8453-8458). Tikoo, S.M., Weiss, B.P., Buz, J., Lima, E.A., Shea, E.K., Melo, G., and Grove, T.L., 2012a. Magnetic fidelity of lunar samples and implications for an ancient core dynamo. Earth and Planetary Science Letters 337-338 (93-103). Tikoo, S.M., Weiss, B.P., Cassata, W.S., Shuster, D.L., Gattacceca, J., Lima, E.A., Suavet, C., Nimmo, F., and Fuller, M.D., 2014. Decline of the lunar core dynamo. Earth and Planetary Science Letters 404 (89-97). Tikoo, S.M., Gattacceca, J., Swanson-Hysell, N.L., Weiss, B.P., Suavet, C. and Cournède, C., 2015. Preservation and detectability of shock-induced magnetization. Journal of Geophysical Research: Planets 120 (1461-1475), doi:10.1002/2015JE004840. Tikoo, S.M., Weiss, B.P., Shuster, D.L., Suavet, C., Wang, H., and Grove, T.L., 2017. A twobillion-year history for the lunar dynamo. Science Advances 3, e1700207. Uehara, M., Gattacceca, J., Quesnel, Y., Lepaulard, C., Lima, E.A., Manfredi, M., and Rochette, P., 2017. A spinner magnetometer for large Apollo lunar samples. Review of Scientific Instruments 88 (104502). Wang, H., Mighani, S., Weiss, B.P., Shuster, D.L., and Hodges, K.V., 2017. Lifetime of the lunar dynamo constrained by young Apollo returned breccias 15015 and 15465. Lunar and Planetary Science XLVIII. Weiss, B.P., and Tikoo, S.M., 2014. The lunar dynamo. Science 346, 1246753, doi: 10.1126/science.1246753. Evolution temporelle du champ magnétique lunaire 99 100 - 1.19 0.10 0.53 1.21 1.36 1.45 - 1.76 0.79 15015.0 15028.0 15059.0 15086.0 15265.0 15266.0 15285.0 15287.0 15295.0 2.75 14307.19 14315.0 3.79 14301.0 - - 14309.0 - 0.84 12034.9 14055.0 1.93 12010.12 14045.0 1.42 10068.5 - - 10065.7 14042.0 1.80 10064.6 - 1.43 10061.18 14041.0 1.76 10060.6 - 1.88 10046.193 12073.93 1.09 10019.1 1.56 10018.0 breccia Age (Ga) Regolith Sample Evolution temporelle du champ magnétique lunaire 0.43 0.43 - 0.43 0.04 0.02 0.43 0.32 - - - 0.01 0.30 - - - - - 0.43 0.43 0.03 - 0.43 0.01 0.03 0.43 0.43 0.43 Error (Ga) 68.2 37.3 220.7 252.3 180.0 33.1 487.7 56.6 2870.0 84.4 39.1 21.6 723.6 85.1 56.0 89.7 158.5 65.7 51.5 263.1 96.4 145.1 38.0 81.0 478.6 120.2 167.0 196.4 57.18 50.94 15.29 39.64 42.78 7.25 65.61 - 26.83 17.77 12.53 38.43 - 54.63 53.57 83.65 137.26 47.92 6.41 121.63 124.48 103.38 78.95 209.88 172.37 224.66 157.15 178.21 1.72 1.53 0.46 1.19 1.28 0.22 1.97 - 0.80 0.53 0.38 1.15 - 1.64 1.61 2.51 4.12 1.44 0.19 3.65 3.73 3.10 2.37 6.30 5.17 6.74 4.71 5.35 9.6 5.4 6.0 5.5 3.0 13.3 7.0 - 11.7 8.7 11.1 7.2 - 8.0 6.0 6.0 6.0 7.0 13.8 4.0 7.8 6.7 6.7 4.3 9.0 6.0 6.0 4.0 15.34 10.36 11.40 12.45 15.28 9.93 23.36 3.37 6.34 2.65 4.30 16.86 3.26 28.20 34.05 25.70 28.77 17.38 4.30 4.83 52.85 33.37 28.25 70.63 73.84 34.67 23.87 45.46 2.96 2.03 0.90 2.37 2.90 1.92 4.44 0.77 1.20 0.52 0.92 3.33 0.62 2.29 0.36 2.17 0.31 0.19 0.86 0.92 10.03 6.34 5.37 13.42 1.11 0.37 0.26 8.64 Mass NRM Error NRM Erreur fit χ Error χ (g) (10-6Am2kg-1) (10-6Am2kg-1) NRM (%) (10-6m3kg-1) (10-6m3kg-1) S1: Results of magnetic measurements on whole rocks at JSC, Houston 3.73 4.92 1.34 3.18 2.80 0.73 2.81 - 4.23 6.71 2.91 2.28 - 1.94 1.57 3.26 4.77 2.76 1.49 25.19 2.36 3.10 2.79 2.97 2.33 6.48 6.58 3.92 NRM/χ 0.73 0.98 0.11 0.61 0.54 0.14 0.54 - 0.81 1.33 0.63 0.45 - 0.17 0.05 0.29 0.15 0.09 0.30 4.85 0.45 0.60 0.54 0.57 0.08 0.21 0.21 0.75 error [16] [16] - [16] [16] [16] [16] [16] [17] - - [16] [16] - - - - - [16] [16] [16] - [16] [16] [16] [16] [16] [16] Ref age Susceptibilimeter Susceptibilimeter Susceptibilimeter MS2C ArTr ArTr ArTr - Susceptibilimeter Susceptibilimeter Susceptibilimeter Susceptibilimeter Susceptibilimeter Susceptibilimeter Susceptibilimeter Susceptibilimeter Susceptibilimeter Susceptibilimeter Susceptibilimeter Susceptibilimeter Susceptibilimeter ArTr ArTr Ar-Ar* ArTr ArTr ArTr ArTr ArTr ArTr ArTr 2 MS2C Susceptibilimeter - MS2C Susceptibilimeter - Susceptibilimeter Susceptibilimeter ArTr - Susceptibilimeter ArTr - MS2C Susceptibilimeter MS2C ArTr ArTr Susceptibilimeter ArTr ArTr χ measuring device used Dating method 4 Chapitre 4 : A survey of the NRM and the magnetic susceptibility of Apollo whole rocks Supplementary files S1: Results of magnetic measurements on whole rocks at JSC, Houston 1.70 3.77 3.41 2.42 - 60255.45 61135.1 61195.3 61295.11 65095.21 3.83 3.83 14305.18 14305.27 - 14264.0 3.95 3.85 14169.0 14304.134 4.22 14082.0 3.82 3.80 14066.0 14303.288 3.63 14051.0 breccia - 79175.0 3.94 1.82 79135.0 12013.11 1.82 79115.0 Impact melt 1.66 79035.45 - 3.35 60019.4 70295.0 3.74 60016.196 - 1.11 15558.22 70175.0 0.10 15505.0 3.56 1.32 15498.141 3.65 2.35 15459.0 66035.0 0.38 15299.0 65715.0 0.28 15298.0 0.03 0.03 0.04 0.04 - 0.03 0.01 0.03 0.05 0.07 - 0.05 0.05 0.03 - - 0.43 0.43 - 0.43 0.43 0.43 0.43 0.43 0.43 0.43 0.01 0.43 0.43 0.33 0.43 926.3 332.3 363.0 462.9 176.5 114.8 72.4 29.3 364.4 185.2 60.0 547.2 1433.9 180.4 1481.3 317.5 310.3 173.2 26.9 - 240.1 71.6 345.4 94.5 672.9 386.3 231.9 944.2 842.3 227.8 2122.3 1133.6 10.38 85.40 11.88 - - 85.64 - - 7.56 - 7.49 34.87 77.61 151.89 40.94 4.83 178.98 32.90 - 81.07 - 10.55 11.91 12.94 69.11 225.57 13.83 61.25 83.80 80.97 - 0.31 2.56 0.36 - - 2.57 - - 0.23 - 0.22 1.05 2.33 4.56 1.23 0.15 5.37 0.99 - 2.43 - 0.32 0.36 0.39 2.07 6.77 0.41 1.84 2.51 2.43 14.0 8.9 12.1 - - 4.1 - - 9.6 - 7.9 6.6 3.8 4.0 8.0 12.8 5.8 - 5.1 - 7.3 - 8.2 4.7 7.8 9.0 8.5 12.0 10.3 3.5 8.0 - 3.64 4.11 3.89 2.89 5.19 2.42 9.44 5.36 0.97 7.38 20.76 26.83 40.80 22.04 2.85 9.81 5.38 10.03 6.96 6.40 3.77 8.61 5.39 5.83 12.50 25.24 - 7.29 15.57 36.20 _ 0.69 0.78 0.04 0.03 1.00 0.60 1.80 1.03 0.01 1.40 3.95 5.10 0.36 4.19 0.54 1.66 1.34 1.91 0.07 1.22 0.72 1.64 1.02 1.11 0.19 4.80 - 1.39 2.96 0.49 - 23.47 2.89 - - 16.50 - - 1.41 - 1.02 1.68 2.89 3.72 1.86 1.70 18.25 - 3.28 - 12.67 - 1.23 2.21 2.22 5.53 8.94 - 8.40 5.38 2.24 - 4.52 0.56 - - 3.20 - - 0.27 - 0.20 0.32 0.56 0.12 0.36 0.33 3.13 - 0.63 - 2.45 - 0.24 0.43 0.43 0.19 1.72 - 1.62 1.04 0.07 [22] [22] [18] [18] - [21] [21] [20] [19] [18] - [16] [16] [16] - - [16] [16] - [16] [16] [16] [16] [16] [16] [16] [16] [16] [16] [16] [16] Susceptibilimeter - Ar-Ar * Ar-Ar * 3 MS2C Susceptibilimeter MS2C Ar-Ar * Susceptibilimeter Ar-Ar * Susceptibilimeter ◊ Susceptibilimeter Susceptibilimeter Susceptibilimeter - U-Pb Susceptibilimeter ArTr Ar-Ar * Susceptibilimeter ArTr MS2C Susceptibilimeter ArTr Susceptibilimeter Susceptibilimeter - Ar-Ar * Susceptibilimeter - Ar-Ar * Susceptibilimeter Susceptibilimeter ArTr ArTr Susceptibilimeter ArTr ArTr Susceptibilimeter ArTr MS2C Susceptibilimeter ArTr Susceptibilimeter Susceptibilimeter ArTr - Susceptibilimeter ArTr ArTr Susceptibilimeter Susceptibilimeter ArTr ArTr Susceptibilimeter ArTr ArTr Susceptibilimeter ArTr Chapitre 4 : A survey of the NRM and the magnetic susceptibility of Apollo whole rocks 4 Evolution temporelle du champ magnétique lunaire 101 102 - 14319.0 Evolution temporelle du champ magnétique lunaire - 3.87 0.46 4.20 67235.0 67435.7 67627.0 67955.1 3.87 3.90 4.01 3.89 3.89 3.83 3.86 3.86 72215.14 72255.23 72275.102 72395.7 72535.0 73215.2 73235.9 73275.1 - 3.86 67016.1 68115.1 3.81 66055.26 - 3.83 65015.25 67975.22 3.79 62235.11 - - 60018.25 60115.1 - 60017.52 - 3.83 15455.37 60095.0 1.28 15405.0 3.99 - 15206.0 60035.0 - 15205.0 3.84 - 14314.0 14321.37 3.60 14311.0 0.04 0.04 0.04 0.02 0.02 0.04 0.03 0.02 - - 0.07 0.03 0.01 - 0.10 0.02 0.04 0.03 - - 0.10 - - 0.04 0.04 - - 0.05 - - 0.15 250.2 500.8 365.5 140.4 251.9 1253.7 120.5 172.1 759.7 220.4 54.7 42.2 179.1 886.8 2494.0 673.0 1322.3 181.2 83.3 39.9 677.4 692.3 1229.6 199.2 201.3 55.9 136.2 761.2 156.6 96.0 2421.4 2.19 5.20 4.79 - 2.56 7.94 59.03 11.62 8.72 9.28 6.81 3.98 9.24 55.83 20.30 1.56 35.66 73.74 71.74 17.10 11.27 3.84 72.22 3.42 - - - 2.72 2.89 24.43 13.29 0.16 0.14 - 0.077 0.24 1.77 0.35 0.26 0.28 0.20 0.12 0.28 1.68 0.61 0.047 1.07 2.21 2.15 0.51 0.34 0.12 2.17 0.102 - - - 0.08 0.09 0.73 0.40 0.066 8.4 10.5 - 14.1 8.3 6.8 6.9 10.1 15.0 5.4 15.0 12.8 4.9 12.5 15.6 4.7 11.0 3.8 6.0 7.0 13.8 3.8 8.7 - - - 15.2 10.4 11.0 11.0 12.1 4.73 1.06 0.97 3.69 3.70 6.31 4.53 2.89 10.20 3.22 - 5.97 11.55 10.66 0.66 6.73 9.29 5.56 4.88 8.92 2.79 6.87 0.15 1.14 1.05 1.11 1.12 3.80 3.06 2.94 1.72 0.90 0.21 0.20 0.71 0.71 1.20 0.89 0.57 0.30 0.61 - 1.16 2.20 2.03 0.13 1.28 0.41 1.06 0.05 0.10 0.01 1.30 0.03 0.26 0.30 0.82 0.21 0.72 0.03 0.03 0.33 1.10 4.52 - 0.69 2.15 9.36 2.57 3.01 0.91 2.12 - 1.55 4.84 1.90 2.36 5.30 7.94 12.91 3.50 1.26 1.38 10.52 23.24 - - - 2.42 0.76 7.99 7.16 1.27 0.21 0.90 - 0.14 0.42 1.80 0.51 0.60 0.04 0.41 - 0.31 0.93 0.37 0.45 1.02 0.42 2.49 0.11 0.04 0.04 2.02 4.91 - - - 0.47 0.15 0.25 0.23 0.24 [18] [18] [32] [21] [21] [18] [18] [31] - - [30] [20] [29] - [28] [27] [18] [26] - - [25] - - [24] [23] - - [18] - - [19] Susceptibilimeter Susceptibilimeter Susceptibilimeter Susceptibilimeter Susceptibilimeter Susceptibilimeter Susceptibilimeter Susceptibilimeter Ar-Ar * Rb-Sr Ar-Ar * Ar-Ar * Ar-Ar * Ar-Ar * Ar-Ar * 4 Susceptibilimeter Ar-Ar * Susceptibilimeter - Susceptibilimeter Ar-Ar * Susceptibilimeter Susceptibilimeter Ar-Ar * - Susceptibilimeter - Nd-Sm Susceptibilimeter MS2C - Ar-Ar * Susceptibilimeter Ar-Ar * Susceptibilimeter Susceptibilimeter - Ar-Ar * Susceptibilimeter - Ar-Ar * Susceptibilimeter Ar-Ar * MS2C Susceptibilimeter Ar-Ar * Susceptibilimeter Susceptibilimeter - Ar-Ar * Susceptibilimeter - - MS2C Susceptibilimeter Ar-Ar * MS2C - Susceptibilimeter Ar-Ar * 4 Chapitre 4 : A survey of the NRM and the magnetic susceptibility of Apollo whole rocks - 3.79 3.75 77035.23 77115.15 77135.86 - 65035.0 3.04 3.63 3.45 3.01 3.17 3.03 3.11 3.17 0.65 3.06 10017.15 10057.19 10072.16 12004.1 12005.0 12008.2 12009.17 12016.0 12018.15 12020.22 3.76 68415.3 3.82 3.71 66095.13 10003.25 3.87 65055.4 Basalt 3.78 60315.46 rock 3.79 14310.35 Impact melt 3.90 3.89 64535.0 67915.11 - 64475.1 breccia 3.81 61015.0 Dimict 3.78 3.74 77017.18 79215.2 3.85 76215.0 - 3.88 76055.0 77515.0 - 3.84 76035.0 76015.18 0.06 - 0.02 0.07 0.07 0.02 0.11 0.08 0.02 0.01 0.03 0.04 0.05 0.02 0.03 0.06 0.05 - 0.02 - 0.04 0.04 - 0.03 0.05 - 0.02 0.04 0.04 - 0.04 195.0 308.3 1444.1 280.5 24.5 400.4 422.0 38.1 132.4 173.3 111.6 110.1 459.4 195.8 526.6 1438.1 396.2 210.4 228.6 543.3 953.5 295.4 305.5 230.1 51.3 3002.9 67.6 258.7 4688.2 283.0 1307.2 8.21 4.87 - 1.25 - 21.48 5.21 - - 8.66 15.23 19.07 67.48 2.45 74.06 4.66 - 2.71 8.75 13.44 104.88 - 2.70 - - 1.30 16.28 2.40 36.26 2.30 4.67 0.25 0.15 - 0.037 - 0.64 0.16 - - 0.26 0.46 0.57 2.02 0.074 2.22 0.14 - 0.081 0.26 0.40 3.15 - 0.081 - - 0.039 0.49 0.072 1.09 0.07 0.14 7.7 5.1 - 12.7 - 8.7 10.6 - - 4.7 3.4 3.8 9.8 14.0 5.5 6.2 - 10.0 16.7 12.2 6.7 - 14.0 - - 9.9 4.1 6.7 5.6 13.5 15.1 1.56 2.71 0.68 0.87 2.77 2.48 2.99 3.15 1.96 1.47 2.57 1.88 10.15 4.32 13.15 1.57 2.03 4.79 2.44 10.63 10.60 0.72 3.27 3.53 3.29 3.77 3.49 4.28 4.69 4.52 3.23 0.32 0.52 0.13 0.18 0.85 0.47 0.57 0.81 0.40 0.29 0.53 0.02 1.93 0.82 2.50 0.30 0.39 0.91 0.47 2.02 2.01 0.15 0.04 0.67 0.74 0.72 0.71 0.82 0.89 0.86 0.61 5.24 1.80 - 1.43 - 8.67 1.74 - - 5.87 5.94 16.48 6.65 0.57 5.63 2.97 - 0.57 3.58 1.26 9.89 - 0.83 - - 0.34 4.66 0.56 7.74 0.51 1.45 1.08 0.35 - 0.30 - 1.67 0.34 - - 1.18 1.23 0.52 1.28 0.11 1.08 0.57 - 0.11 0.69 0.24 1.90 - 0.03 - - 0.07 0.96 0.11 1.49 0.10 0.28 [18] [35] [21] [35] [35] [21] [37] [18] [18] [18] [18] [36] [18] [32] [26] [35] [18] - [32] - [26] [25] - [34] [18] - [27] [33] [18] - [33] Susceptibilimeter Susceptibilimeter Susceptibilimeter Ar-Ar * Ar-Ar * 5 Susceptibilimeter Susceptibilimeter Ar-Ar * ◊ Susceptibilimeter Ar-Ar * Susceptibilimeter Susceptibilimeter Ar-Ar * Ar-Ar * Susceptibilimeter Ar-Ar * Susceptibilimeter Susceptibilimeter Ar-Ar * Ar-Ar * Susceptibilimeter - Susceptibilimeter Susceptibilimeter Ar-Ar * ◊ Susceptibilimeter - Susceptibilimeter Susceptibilimeter Ar-Ar * Rb-Sr Susceptibilimeter Ar-Ar * Susceptibilimeter Susceptibilimeter - Ar-Ar * Susceptibilimeter Ar-Ar * Susceptibilimeter Susceptibilimeter Ar-Ar * Rb-Sr Susceptibilimeter - Rb-Sr Susceptibilimeter Ar-Ar * MS2C Susceptibilimeter Ar-Ar * Susceptibilimeter Susceptibilimeter Ar-Ar * Ar-Ar * Susceptibilimeter - Ar-Ar * Susceptibilimeter Ar-Ar * Chapitre 4 : A survey of the NRM and the magnetic susceptibility of Apollo whole rocks 4 Evolution temporelle du champ magnétique lunaire 103 104 Evolution temporelle du champ magnétique lunaire 3.21 3.21 3.21 3.33 3.33 15555.49 15555.1039 15555.913 15556.0 15556.215 60015.1 3.43 3.95 3.74 75075.7 15418.0 3.85 74275.2 rocks 3.75 71567.0 Feldspathic - 71035.0 3.75 3.21 15555.53 70215.261 3.30 15529.0 3.66 - 15476.0 70035.0 3.28 15076.0 - 3.38 15075.5 3.72 3.31 15016.0 70017.8 3.85 14053.0 15597.0 3.18 - 12062.0 3.18 2.92 12052.2 12065.17 3.21 12051.3 12064.11 3.05 12038.7 3.12 3.05 12022.15 12063.29 3.30 12021.34 0.05 0.06 0.04 0.08 - - 0.04 0.07 0.12 - 0.10 0.10 0.06 0.06 0.06 0.06 - - 0.04 0.20 0.08 0.05 0.05 0.09 0.05 - 0.18 0.05 0.05 0.04 0.10 1861.4 480.1 192.6 649.9 107.3 141.8 1882.0 1539.1 1424.0 107.3 - 354.0 619.3 309.9 66.8 147.4 201.4 1451.9 206.9 239.5 171.5 313.1 49.3 1134.6 740.2 1172.2 720.1 1101.3 753.8 327.5 1135.6 1284.0 1.83 - 35.31 1.85 22.37 31.73 3.35 12.99 19.66 2.82 5.69 - - - - 9.64 3.38 - 4.55 - 243.36 8.20 4.66 6.57 10.69 13.62 5.84 2.75 6.16 27.26 - 0.055 - 1.06 0.055 0.67 0.95 0.100 0.39 0.59 0.085 0.17 - - - - 0.29 0.10 - 0.14 - 7.30 0.25 0.14 0.20 0.32 0.41 0.18 0.082 0.18 0.82 17.1 - 7.6 8.4 6.5 6.8 19.0 9.5 9.5 - 15.1 9.0 - - - - 10.3 13.8 - 12.3 - 14.0 6.7 12.0 11.7 8.0 4.3 17.9 3.8 9.8 10.3 0.50 0.40 3.26 2.04 2.17 1.15 0.86 2.33 2.09 1.26 1.25 - 1.17 1.49 1.46 1.52 1.27 1.18 1.49 1.41 1.20 9.80 0.74 1.10 1.41 1.52 1.65 0.64 1.66 1.08 1.72 0.10 0.08 0.63 0.39 0.02 0.27 0.16 0.44 0.40 0.27 0.24 - 0.23 0.02 0.02 0.02 0.24 0.23 0.30 0.28 0.23 0.10 0.14 0.01 0.27 0.29 0.31 0.12 0.32 0.21 0.33 3.64 - 10.83 0.91 16.29 27.63 3.88 5.57 9.42 - 3.58 - - - - - 7.61 2.87 - 3.24 - 24.83 11.12 4.25 4.66 7.03 8.23 9.10 1.65 5.71 15.89 0.71 - 2.10 0.18 0.52 6.49 0.75 1.07 1.81 - 0.44 - - - - - 1.47 0.58 - 0.66 - 0.79 2.15 0.14 0.90 1.36 1.58 1.76 0.32 1.10 3.06 [18] [35] [46] [45] [44] - [18] [35] [42] - [43] [43] [18] [18] [18] [18] [21] - [35] [42] [41] [39] [18] [40] [18] - [37] [39] [18] [18] [38] Susceptibilimeter Susceptibilimeter Susceptibilimeter Ar-Ar * Susceptibilimeter Susceptibilimeter Susceptibilimeter Ar-Ar * Ar-Ar * Ar-Ar * 6 MS2C Susceptibilimeter Susceptibilimeter Rb-Sr Susceptibilimeter Rb-Sr Susceptibilimeter Ar-Ar * Ar-Ar * Susceptibilimeter Susceptibilimeter Ar-Ar * Ar-Ar * MS2C Ar-Ar * Susceptibilimeter MS2C Ar-Ar * - MS2C ◊ Ar-Ar * Susceptibilimeter - - Susceptibilimeter Ar-Ar * Susceptibilimeter Susceptibilimeter Ar-Ar * Ar-Ar * Susceptibilimeter Ar-Ar * Ar-Ar * MS2C Susceptibilimeter Ar-Ar * MS2C Susceptibilimeter Rb-Sr Susceptibilimeter Susceptibilimeter Ar-Ar * Rb-Sr Susceptibilimeter Ar-Ar * Ar-Ar * Susceptibilimeter Rb-Sr Ar-Ar * 4 Chapitre 4 : A survey of the NRM and the magnetic susceptibility of Apollo whole rocks - 3.95 3.95 3.93 65315.46 67075.39 77215.18 78235.0 0.21 0.03 0.05 - - 0.06 44.3 83.5 66.6 136.5 213.7 157.1 7.67 - - - - - 0.23 - - - - - 12.6 - - - - - 7.78 0.99 2.01 0.02 2.28 1.66 1.63 0.01 0.42 0.00 0.44 0.33 0.99 - - - - - 0.21 - - - - - [47] [18] [18] - - [18] SM30‡ Susceptibilimeter MS2C Susceptibilimeter Ar-Ar * Ar-Ar * U-Pb Susceptibilimeter - Susceptibilimeter Ar-Ar * Table S1: Compilation of the data obtained after measurements at NASA. Results with no measurement have the symbol "-". Samples whose NRM measurement was unsuccessful (see text) are noted "†". Some magnetic susceptibility results were only obtained by measurements with the SM30 and are noted "‡" (Macke et al., 2014). Ref age is the reference for the radiometric age. All ages noted "*" were recalculated with the calibration constant from Steiger and Jäger (1977). ArTr indicate model closure ages determined from the trapped 40Ar-36Ar ratio (Fagan et al., 2014). For samples noted "◊" we used a characteristic average age for the corresponding lithology and Apollo mission (Stöffler et al., 2006). - 4.09 60215.8 60025.241 Chapitre 4 : A survey of the NRM and the magnetic susceptibility of Apollo whole rocks 4 Evolution temporelle du champ magnétique lunaire 105 4 Chapitre 4 : A survey of the NRM and the magnetic susceptibility of Apollo whole rocks S2. Typical samples discussed in this work 2 cm 0.5 cm b ) a) Figure S1: a) Typical whole rock sample (dimict breccia 61015, 953.5 g sample) measured at JSC (Houston); b) Typical laboratory paleomagnetism sample (sub-sample of 61015, 87 mg, studied at CEREGE, France). S3. Large block susceptibility meter This instrument was designed at CEREGE by Minoru Uehara S3.1.Theory of operation We measure the magnetic susceptibility by detection of the induced magnetization of the sample installed at the center of Helmholtz coils by means of application of low-frequency magnetic field (5 Hz, 30 μT, sinusoidal). The low-frequency of magnetic field variation minimizes the absorption of the magnetic field by aluminum foils occasionally covering the samples. The samples are enclosed in cubic capsules and put on the horizontal sample stage to ensure the positioning. The components are made of acrylic resin (PMMA) and installed on the aluminum table (see Figure S2). A 1-axis fluxgate magnetic sensor mounted at 12 cm from the center of the coils measures the induced magnetization. The sensor, sample capsule, and coils are co-axial to each other. The magnetic fields and coil currents are simultaneously measured by 50 kSPS (samples-par-second) 24-bit simultaneous A/D converter (see Figure S3). 106 Evolution temporelle du champ magnétique lunaire Chapitre 4 : A survey of the NRM and the magnetic susceptibility of Apollo whole rocks 4 Figure S2: The illustration of the magnetic susceptibility meter that consists of a pair of Helmholtz coils, a single axis flux-gate sensor (red arrow, co-axial to the coils) mounted in a plastic rod, and the sample cube set at the center of the coils. The coil support tube, tube holders, sample stage plate, and sample cube are in plastics (PMMA) to avoid eddy currents. The susceptibility meter is mounted on an aluminum table (5 mm thick) to keep distance (14 cm) from the stainless steel table used in the LSLF at JSC. The calculated distribution of magnetic fields by means of FEMM software (Meeker D.C., 2013, Finite Element Method Magnetics, Version 4.2, http://www.femm.info), normalized by the field intensity at the center of the coils, shows that the variations within the sample cube is less than +/- 4%. We normalize the measured magnetic field signals by the calculated applied field at the coil center by means of the coil current signals to reduce the noises of the applied field. The symbol R indicates this normalized value hereafter. The measurement protocol is as follows: (1) measure the background signal without sample on the stage (Bair1), (2) measure the sample on the stage (Bsample), (3) measure the background signal (Bair2), (4) compare Bair1 and Bair2 and retry the entire measurement if jumping of the background is detected, and (5) save the measured waveforms. The duration of the measurement is 5 seconds. The amplitude of the normalized signals is calculated by FFT for every 1 second, making 5 points for each measurement (R = {R1, R5}, Fig. S4). This very narrow FFT filter eliminates any signals (noises, ambient field, magnetization of the sample etc.) other than the 5 Hz field synchronized to the applied field and achieves about 30 pTrms noise level. After correction of drifting by linear fitting, we calculated the average values of the backgrounds and the signal Evolution temporelle du champ magnétique lunaire 107 4 Chapitre 4 : A survey of the NRM and the magnetic susceptibility of Apollo whole rocks with sample. Finally, we calculate the difference between the average values of the signal with sample and the background, named k value (Eq. A1), k = R !"#$%& − R !"# (A1), where k is the averaged k value, R indicate the mean value of the drift-corrected R, and R !"# is the mean of Rair1 and Rair2. This k value is dimensionless and proportional to the volume magnetic susceptibility χv in SI unit, thus ! !! = ! (A2), where ! is the calibration constant of the instrument. We calibrated ! by measurements of terrestrial rocks with known magnetic susceptibilities and different weight (N = 22, 10 g to 800 g) at CEREGE laboratory. The average (αCEREGE) and the standard deviation of α (σα) is 78.9 and 13.2, respectively. Theoretically, α is a function of the distance between the center of the coil and the sensor; indeed, we found no dependency of α on the sample weights. Since α can be varied by disassembly and assembly of the instrument, we cross-calibrated the Contr ol Voltag LPF1 DIFF fc 2nd fc=160Hz Coil Current I instrument by same standard sample in both CEREGE and NASA, and αNASA is 81.1. POW I Monitor DIFF D/A 24bit A/D SET R 16bit USB Coil PC B I Monitor Sensor Outpu t F G 4th fc=400Hz LPF3 BUF LPF2 2nd fc=2.5 kHz Figure S3: The block diagram of the data acquisition system. The computer (PC) running LabView program controls the entire procedure. A 16-bit D/A converter generates sinusoidal waves to control the coil current I whose intensity is monitored and limited by the series resistance RS. The magnetic field B is monitored by the on-axis flux-gate sensor (FG). The flux-gate output is digitized by a 24-bit A/D converter after buffering and filtering. The current monitor signal (IMonitor) is acquired simultaneously. 108 Evolution temporelle du champ magnétique lunaire Chapitre 4 : A survey of the NRM and the magnetic susceptibility of Apollo whole rocks 4 S3.2. Error on magnetic susceptibility There are two main sources of error of the measurement. The first is the error in the estimation in the proportionality constant !, which can be equal to the standard deviation σα, though this can be overestimated due to the shape anisotropy of the terrestrial samples. The second is the error in k, which can be defined by the standard deviation (σk) of several measurements. Since we do not always conduct repeated measurements, however, we cannot obtain the actual σk. Instead, we estimated this by the k value for individual measurement (ki), respectively given by !! ! = !!! !! !! !!! !!! !"# !! = !!"#$%&_! − !!"#$%&'$_! (A3), where !!"#$%&_! is the i-th measurement of the sample, !!"#$%&'$_! is the interpolated background (baseline) at the i-th measurement (Fig. S4). Note that the average of ki is the same as k defined by Eq. (A1). In case of the repeated measurement (N = 2 or 3), we divide the average of σk by !. The χv and its estimated error of the sample are given by (!±! ) !! ± !!! = (!±!! ) (A4), ! where ! !!! = ! ! ! ! ! + !! !! ! (A5), Then, the susceptibility χv is normalized by the mass (noted m) of the sample. Note that there is no error on the mass. The mass susceptibility !! is obtained by !! = !! ! ± !!! ! (A6). • • • • R • dri ft Rsa ki • R (s) Figure S4: A typical result of the susceptibility measurement. The x-axis is the time in second and the y-axis is the normalized magnetic field (ratio) corresponding to R in the text. Evolution temporelle du champ magnétique lunaire 109 4 Chapitre 4 : A survey of the NRM and the magnetic susceptibility of Apollo whole rocks The first five points correspond to the first background measurement (Rair1). We put the sample and start measurement at 13 s (Rsample). Finally, we remove the sample and continue the second background measurement (Rair2). There is no visible jumping in the background. The solid line is the estimated drift of the background. The ki value can be calculated by the distance from the baseline (bluish line). The entire measurement procedure takes 26 seconds. Another source of error specific to our discrete magnetic field measurement design is the possible effect of sample heterogeneity, in particular due to a more magnetic mantle surrounding the sample due to regolith contamination. This mantle being closer to the field probe it will bias our measurement toward higher values (also effect of the field being lower in the sample center than its periphery). S4. Calibration of MS2C instrument for discrete samples The MS2C susceptibility meter is a commercial instrument from Bartington company. It is designed to measure the magnetic susceptibility of rock cores with an inner diameter of 12 cm. It operates at a peak field of 250 μT and a frequency of 565 Hz. We calibrated this instrument using a set of 123 pebbles with masses ranging from 3.8 to 669 g, and total susceptibility ranging from 5.10-8 to 5.10-5 m3. Each pebble was measured using a KLY2 susceptibility meter from Agico, equipped with a large (65 cm3) coil. The pebbles were then measured with the MS2C. Each pebble was measured in three orthogonal positions with respect to the MS2C coil, the pebble being centered in the coil. This takes into account the variability in shape and the effect of sample anisometry on the measurements. The average of three measurements is then used for calibration (Figure S5). From the 123 pebbles data, we compute a calibration curve K = 8.30 x (R2=0.996, slope 95% confidence interval ±0.089) where K is the total magnetic susceptibility (in m3) and x is the MS2 reading (in CGS units). Because the MS2 operates at a frequency of 565 Hz, it was not suitable for samples wrapped in aluminum of set in aluminum containers. Only samples kept in Teflon bags could be measured with this instrument. The effect of the aluminum sample tags used at JSC was tested and shown to be negligible. 110 Evolution temporelle du champ magnétique lunaire Chapitre 4 : A survey of the NRM and the magnetic susceptibility of Apollo whole rocks 4 Susceptibility (10-9 m3) measured with KLY2 100000 10000 y = 8,304x R2 = 0,996 1000 100 10 1 10 100 1000 10000 MS2C reading (cgs units) Figure S5: Susceptibility measured with KLY2 vs. susceptibility measured with MS2C. Evolution temporelle du champ magnétique lunaire 111 4 Chapitre 4 : A survey of the NRM and the magnetic susceptibility of Apollo whole rocks S5. Comparison between measurements with our susceptibility meter and with MS2C instrument. 2.5 Susceptibility with MS2 (10-6 m3) 2.0 y = 1.03x - 0.02 R2 = 0.98 1.5 1.0 0.5 0.0 0.0 0.5 1.0 1.5 2.0 Susceptibility with susceptibilitimeter 2.5 3.0 (10-6 m3) Figure S6: Magnetic susceptibility measured with MS2C vs. magnetic susceptibility measured with our instrument on the same samples. The error bars for measurements with MS2C are smaller than the symbols. S6. NRM and magnetic susceptibility (literature data). Sample Regolith breccia Reference NRM χ (10 m kg ) Reference χ 95.8 41.2 41.0 1000 31.0 [1] [1] [2] [2] [3] 38.02 42.66 35.48 17.78 4.17 11.48 - [12] [12] [12] [12] [12] [12] - -6 10021.32 10048.55 14047.47 14049.28 14301.65 14313.29 14318.31 14318.38 14318.38 15015 15015 112 NRM (10 Am kg ) 2 -1 Evolution temporelle du champ magnétique lunaire -6 3 -1 Chapitre 4 : A survey of the NRM and the magnetic susceptibility of Apollo whole rocks 15086.12 15459.95 15498.36 60016.54 60255 60255.26 65010 79135.1 Impact melt breccia 14066 14066.24 14066.28 14303.47 14305 14305.56 14305.83 14306 14306.33 14306.4 14311.45 14312.2 14321.78 14321.184 15418.41 15455 61156.11 61156.12 62235 62235.53 62235.53 62295 62295.56 62295 65015 66055.19 66055.10 67455.19 67915 68815.7 68815.17 72275.67 72275.2 73215 76055.5 76315.2 76315.2c 120 69.5 58.0 8.70 1.80 8.20 8.30 9.40 2.80 22.4 67.5 36.0 110 105 147 7.80 11.1 79.0 140 3.20 57.0 123 - [2] [4] [2] [1] [1] [2] [1] [1] [2] [1] [1] [2] [2] [5] [1] [2] [6] [2] [7] [2] [2] [6] - 10.23 12.59 8.51 9.12 75.86 15.14 28.18 22.91 3.02 2.00 1.91 1.12 5.50 0.39 9.55 1.82 1.58 2.51 6.61 0.28 16.22 4.57 42.66 4.27 1.12 4.68 4.79 3.24 4 [12] [12] [12] [12] [12] [12] [12] [12] [12] [12] [12] [12] [12] [12] [12] [12] [6] [12] [12] [12] [12] [6] [12] [12] [12] [12] [12] [12] Evolution temporelle du champ magnétique lunaire 113 4 Chapitre 4 : A survey of the NRM and the magnetic susceptibility of Apollo whole rocks 77017.45 77017.2 77035.29 77115 77135.2 77135.36 Dimict breccia Impact melt rocks 64475.7 64475.11 14310.69 60315.15 60315.47 60335.3 61016 66095.36 66095.39 68415.33 68415 68416 68416.23 10003 10003 10017 10017 10017 10017 10020 10020.4F 10024.22 Basalt 10047 10049 10049 10050 10050.33 10057.7 10057 10069 12002 12009.95 12017 12017 12018 12022 12022.52 12022 12022 114 27.0 8.80 24.0 3.30 73 88 34 16.0 2.00 2.00 4.60 2.79 0.88 5.50 35 7.53 54 16.8 16 11 23 65 64 5.70 5.70 27 6.34 14.21 4.38 26 2.90 5.78 11.26 15.85 [2] [5] [2] [2] [5] [5] [2] [2] [2] [5] [2] [8] [2] [9] [9] [8] [2] [1] [2] [9] [9] [2] [5] [5] [2] [2] [6] [10] [10] [2] [2] [10] [10] Evolution temporelle du champ magnétique lunaire 2.29 2.63 4.79 45.71 0.72 11.48 1.45 3.24 10.47 12.30 3.09 5.37 0.85 1.12 0.49 1.12 0.52 1.02 0.66 - [12] [12] [12] [12] [12] [12] [12] [12] [12] [12] [12] [12] [8] [12] [12] [6] [12] [8] [12] - Chapitre 4 : A survey of the NRM and the magnetic susceptibility of Apollo whole rocks 12053.47 14053.48 14053 14053.35 14053.49 14072 15016a 15016b 15016 15016.29 15058.55 15076.5 15085.31 15475 15495 15499 15499.108 15499.21 15498.313e 15498.282c 15498.282t 15498.313k1 15498.313k2 15555.75 15555.204 15555 15555 15556 15556.37 15556.38 15595.13 15597.2 15597 15597 15597 70017 70017.26 70017.78 70035 70035.1 70135 70215 70215 70215.1 71505 110 218 153 500 1.37 2.00 3.60 1.27 51.6 57 83.0* 35.66* 46.08* 46.28* 68.18* 3.26 21.12 1.14 0.54 5.00 2.82 66.0 19.88 51.5 8.79 51.00 36.00 9.10 19.5 [2] [1] [1] [2] [6] [6] [2] [12] [6] [2] [11] [11] [11] [11] [11] [12] [12] [12] [6] [2] [10] [6] [12] [5] [6] [2] [2] [6] [6] 1.12 9.77 6.31 0.87 0.83 0.41 2.00 0.71 1.26 0.94 0.72 0.95 0.95 0.66 1.13 0.85 0.81 1.12 1.95 1.95 0.65 0.72 2.04 2.88 2.01 2.40 2.51 4.54 1.10 1.14 1.00 0.91 4 [12] [12] [12] [6] [6] [12] [12] [12] [12] [8] [12] [12] [12] [12] [8] [12] [12] [12] [8] [12] [12] [6] [6] [8] [8] [6] [12] [8] [12] [6] [12] [6] Evolution temporelle du champ magnétique lunaire 115 4 Chapitre 4 : A survey of the NRM and the magnetic susceptibility of Apollo whole rocks 71567 72015.45 74275 74275.65 74275.65 74275.56 75035.37 75055.6 Feldspathic rocks 28.6 6.60 7.79 2.32 4.78 47.37 57 13 1.91 1.04 0.66 0.54 0.43 0.17 8.97 30.24 6.82 15.0 0.76 75055 75075 78505 79155 10085.13 60015.67 60015.49 60015 60025 60215 65315 72415.2c 76230.4 76535.136 76535 76535 78155.2 78235.1 78236 [6] [5] [6] [12] [6] [8] [2] [2] [13] [5] [2] [6] [6] [6] [13] [14] [14] [15] - 1.55 1.23 2.29 1.11 0.76 0.50 2.88 0.83 2.32 17.78 0.041 0.025 0.025 0.032 0.0031 0.0016 0.44 1.91 0.72 1.51 [6] [6] [12] [8] [12] [12] [12] [6] [8] [12] [8] [6] [12] [6] [8] [8] [12] [12] [12] [6] Table S2: NRM estimates derived graphically from figures (noted *). S7: Magnetic susceptibility measurements performed with SM30 instrument (Macke et al., 2014) Lithology Basalt RB Basalt Basalt Basalt Basalt Basalt IMB IMB 116 Sample 10017* 10048 12002 12038* 12051* 12052* 14053* 14303* 14305* Mass (g) 13.74 9.35 35.38 6.73 12.19 10.11 8.10 22.26 155.81 χ (10 m kg ) 0.75 38.55 1.10 1.27 0.83 1.03 10.55 2.82 3.42 -6 Evolution temporelle du champ magnétique lunaire 3 -1 error χ (10 m kg ) 0.12 5.94 0.22 0.20 0.17 0.21 1.63 0.56 0.58 -6 3 -1 Chapitre 4 : A survey of the NRM and the magnetic susceptibility of Apollo whole rocks IMR IMB IMB IMB RB Fd rock IMB IMB IMB RB Basalt Basalt RB Fd rock Fd rock IMB IMR IMR IMB IMB IMB Fd rock IMB IMB IMB IMB IMB IMR IMB IMB IMB IMB DB IMR IMR IMB Basalt IMB IMB IMB IMB Basalt Basalt IMB IMB 14310* 14311* 14321* 14321* 15015* 15418* 15455* 15455* 15455* 15459* 15555* 15556* 15565 60015* 60015* 60017* 60315* 61016 64435 64435 65015 65315 66055* 66055* 66055* 66055* 66055* 66095* 67015 67015 67015 67016 67915* 68415 68415 68815 70215* 72395* 73235* 73255* 73255* 75035 75055 76055* 76215* 72.82 5.49 10.01 76.16 71.63 26.68 12.69 16.23 16.55 23.32 32.98 44.37 11.72 8.96 36.15 19.83 5.36 35.29 4.52 7.78 5.98 10.03 4.72 5.33 8.17 8.61 11.41 5.57 10.64 11.53 28.21 16.35 9.52 4.35 5.30 8.78 9.07 29.42 7.42 2.22 5.91 7.16 6.22 18.02 5.66 1.11 1.71 1.88 1.79 3.45 1.06 2.62 1.66 0.49 8.02 0.96 1.50 8.46 0.04 0.27 0.88 16.51 5.87 0.99 0.85 6.10 0.024 5.07 4.76 2.80 7.18 4.98 12.94 2.05 3.14 2.53 0.58 1.92 0.80 1.33 4.21 1.53 1.76 2.06 2.07 2.82 0.61 0.74 2.95 2.49 4 0.22 0.34 0.38 0.30 0.69 0.21 0.40 0.26 0.083 1.24 0.19 0.25 1.30 0.006 0.045 0.15 2.54 0.97 0.15 0.13 1.03 0.004 0.78 0.73 0.43 1.11 0.77 1.99 0.32 0.48 0.42 0.09 0.30 0.14 0.20 0.65 0.31 0.30 0.32 0.41 0.43 0.10 0.13 0.45 0.38 Evolution temporelle du champ magnétique lunaire 117 4 Chapitre 4 : A survey of the NRM and the magnetic susceptibility of Apollo whole rocks IMB IMB 76315 77035* 5.47 15.87 3.35 6.90 0.52 1.06 Table S3: IMB: Impact melt breccia; IMR: Impact melt rocks; RB: Regolith breccia; DB: Dimict breccia; Fd rock: Feldspathic rocks. Samples analyzed in our study are noted *. Errors were estimated based on the comparison of results obtained in the laboratory with a SM30 instrument and with a KLY2 instrument on a large set of samples. S8. Comparison of ß measurements with literature paleointensity estimates. Samp le Age Paleointensity References (Ga) (μT) Method ß (Am ) ß error (Am ) IMB 62235 3.88 86.17 [2] sIRM 12.91 1.80 IMR 68415 3.85 54.23 [2] sIRM 11.80 0.51 Basalt 71567 3.75 111 [6] sIRM 11.48 0.30 Basalt IMB 70017 3.70 42 [6] sIRM 9.42 1.10 72275 3.93 19 [48] ARM 9.36 0.71 IMB 65015 3.98 45.42 [2] sIRM 7.94 0.60 Basalt 10003 3.91 6.79 [2] sIRM 5.94 1.08 Basalt 10017 3.56 *45.15 [9] sIRM 5.87 2.49 Basalt 12022 3.11 *6.62 [10] ARM/sIRM 5.71 0.38 IMR 60315 3.88 40 [49] single pTRM 5.63 0.37 Basalt 70035 3.70 37.6 [2] sIRM 5.57 1.81 IMB 77017 3.91 4.12 [50] sIRM 4.66 0.42 IMB 73235 3.97 1.10 [51] Thellier-Thellier 4.52 1.23 Regolith breccia 15015 1.00 0.03 [3] Thellier-Thellier 4.23 1.18 Regolith breccia 10018 1.56 0.65 [8] Thellier-Thellier 3.92 1.07 Basalt 70215 3.80 20 [6] sIRM 3.88 0.96 Fd-rock 60015 3.50 *24.13 [7] ARM/sIRM 3.64 0.75 IMB 72215 3.85 41 [52] shaw 3.01 0.35 IMB 72255 3.85 35 [48] ARM 2.57 0.18 Basalt 12018 0.65 7.39 [2] sIRM 1.80 0.90 Regolith breccia 60255 1.70 0.50 [4] Thellier-Thellier 1.23 0.75 Basalt 74275 3.85 28 [6] sIRM 0.91 0.24 Lithology -1 -1 Table S4: IMB: Impact melt breccia; IMR: Impact melt rocks; Fd-rock: Feldspathic rock; * indicates the mean of two paleointensity values; ß: ratio of the Natural Remanent Magnetization to the magnetic susceptibility. IRM and ARM methods indicate normalization of the NRM by IRM and ARM, respectively, during progressive AF demagnetization. 118 Evolution temporelle du champ magnétique lunaire Chapitre 4 : A survey of the NRM and the magnetic susceptibility of Apollo whole rocks 4 S9. Supplementary references References for Tables in Supplementary Material [1] D.W Collinson, S.K Runcorn, A. Stephenson and A.J Manson, Proceedings of the 3th Lunar Science Conference 3, 2343-2361 (1972) [2] S.M Cisowski, D.W Collinson, S.K Runcorn and A. Stephenson, Proc. Lunar Planet. Sci. Conf. 13th, A691-A704 (1983) [3] H. Wang, S. Mighani, B.P Weiss, D.L Shuster and K.V Hodges, Lunar and Planetary Science XLVIII 1439 (2017) [4] N. Sugiura and D.W. Strangway, Proc. Lunar Planet. Sci. Conf. 11th, 1801-1813 (1980). [5] A. Stephenson, D.W Collinson and S.K Runcorn, Proceedings of the 5th Lunar Conference, 2859-2871 (1974) [6] C. Cournède, J. Gattacceca and P. Rochette, Earth and Planetary Science Letters 331332, 31-42 (2012) [7] A. Stephenson and D.W Collinson, Earth and Planetary Science Letters 23, 220-228 (1974) [8] Our unpublished data [9] C. Suavet, B.P Weiss, W.S Cassata, D.L Shuster, J. Gattacceca, L. Chan, I. GarrickBethell, J.W Head, T.L Grove and M.D Fuller, PNAS 110, 21,8453-8458 (2013) [10] S.M Tikoo, B.P Weiss, W.S Cassata, D.L Shuster, J. Gattacceca, E.A Lima, C. Suavet, F. Nimmo and M.D Fuller, Earth and Planetary Science Letters 404, 89-97 (2014) [11] S.M Tikoo, B.P Weiss, D.L Shuster, C. Suavet, H. Wang and T.L Grove, Science advances 3 (2017) [12] P. Rochette, J. Gattacceca, A.V Ivanov, M.A Nazarov and N.S Bezaeva, Earth and Planetary Science Letters 292, 383-391 (2010) [13] K. Lawrence, C. Johnson, L. Tauxe and J. Gee, Physics of the Earth and Planetary Interiors 168, 71-87 (2008) [14] I. Garrick-Bethell, B.P Weiss, D.L Shuster, S.M Tikoo and M.M Tremblay, Journal of Geophysical Research : Planets 122, 76-93. (2017) [15] C. Cournède, I. Garrick-Bethell, V. Perera, B.P Weiss and R. Nelson, Lunar and Planetary Science XLVIII, 2648 (2017) [16] A.L Fagan, K.H Joy, D.D Bogard and D.A Kring, Earth Moon Planets 112, 59-71 (2014), DOI 10.1007/s11038-014-9437-7. [17] G. Eglinton, B.J Mays, C.T Pillinger, S.O Agrell and 17 others, The European Consortium, 217-219 (1974). [18] G. Turner, Phys. Chem. Earth. 10, 145-195 (1977). [19] F.J Stadermann, E. Hausser, E.K Jessberger, S. Lingner and D. Stöffler, Geochimica et Cosmochimica Acta 55, 2339-2349 (1991). [20] E.C. Alexander Jr and P.K Davis, Geochimica et Cosmochimica Acta 38, 911-928 (1974). [21] D. Stöffler, G. Ryder, B.A Ivanov, N.A Artemieva, M.J Cintala and R.A.F Grieve, Reviews in Mineralogy & Geochemistry 60, 519-596 (2006). [22] O. Eugster, P. Eberhardt, J. Geiss, N. Grogler, M. Jungck, F. Meier, M. Morgell and F. Niederer, Proc. Lunar Planet. Sci. Conf. 14th, B498-B512 (1984a). [23] T.J Bernatowicz, C.M Hohenberg, B. Hudson, B.M Kennedy and F.A Podosek, Proc. Lunar Planet. Sci. Conf. 9th, 905-919 (1978). [24] E.C Alexander Jr and S.B Kahl, Proceedings of the 5th Lunar Science Conference 2, 1353-1373 (1974). [25] J.A Hudgins, J.G Spray, S.P Kelley, R.L Korotev and S. Sherlock, Geochimica et Cosmochimica Acta 72, 5781-5798 (2008). [26] M.D Norman, R.A Duncan and J.J Huart, Geochimica et Cosmochimica Acta 70, 6032-6049 (2006). Evolution temporelle du champ magnétique lunaire 119 4 Chapitre 4 : A survey of the NRM and the magnetic susceptibility of Apollo whole rocks [27] D. Phinney, S.B Kahl and J.H Reynolds, Proc. Lunar Sci. Conf. 6th, 1593-1608 (1975). [28] G. Turner and P.H Cadogan, Proc. Lunar Sci. Conf. 6th, 1509-1538 (1975a). [29] B. Dominik and E.K Jessberger, Earth and Planetary Science Letters 38, 407-415 (1978). [30] M.D Norman, C.Y Shih, L.E Nyquist, D.D Bogard and L.A Taylor, Lunar and Planetary Science Conference 38th, abs#1991 (2007). [31] O.A Schaeffer, R. Warasila and T.C Labotka, Lunar and Planetary Institute Tech Rept. 82-02, 123-125 (1982a). [32] E.K Jessberger, B. Dominik, T. Kirsten and Th. Staudacher, Lunar Sci. VIII (abs), 511-513 (1977a). [33] P.H Cadogan and G. Turner, Proc. Lunar Sci. Conf 7th, 2267-2285 (1976). [34] A. Stettler, P. Eberhardt, J. Geiss and N. Grogler, Earth and Planetary Science Letters 23, 453-461 (1974). [35] A. Stettler, P. Eberhardt, J. Geiss, N. Grögler and P. Maurer, Proceedings of the 4th Lunar Science Conference 2, 1865-1888 (1973). [36] J.C Huneke, E.K Jessberger, F.A Podosek and G.J Wasserburg, Proceedings of the 4th Lunar Science Conference 2, 1725-1756 (1973). [37] V.R Murthy, N.M Evensen, B.M Jahn and M.R Coscio, Geochimica et Cosmochimica Acta 35, 1139-1153 (1971). [38] R.A Cliff, C. Lee-Hu and G.W Wetherill, Proc. Lunar Sci. Conf. 2th, 1493-1502 (1971). [39] G. Turner, J.C Huneke, F.A Podosek and G.J Wasserburg, Earth and Planetary Science Letters 12, 19-35 (1971). [40] D.A Papanastassiou and G.J Wasserburg, Earth and Planetary Science Letters 11, 37-62 (1971). [41] T. Kirsten, P. Horn and J. Kiko, Proceedings of the 4th Lunar Science Conference 2, 1757-1784 (1973). [42] G.A Schaeffer and O.A Shaeffer, Proc. Lunar Sci. Conf. 8th, 2253-2300 (1977a). [43] T. Kirsten, J. Deubner, P. Horn, I. Kaneoka, J. Kiko, O.A Schaeffer and S.K Thio, Proc. Lunar Sci. Conf. 3th, 1865-1889 (1972). [44] L.E Nyquist, Proc. Lunar Sci. Conf. 7th, 1507-1528 (1976). [45] V.R Murthy and C. Coscio, Lunar Sci. VIII (abs), 706-708 (1977). [46] P. Horn, E.K Jessberger, T. Kirsten and H. Richter, Proc. Lunar Sci. Conf. 6th, 1563-1591 (1975). [47] W.R Premo and M. Tatsumoto, Proceedings of Lunar and Planetary Science 21, 89100 (1991). [48] S.K Banerjee and G. Swits, The Moon 14, 473-481 (1975). [49] A. Brecher, D.J Vaughan and R.G Burns, Proc. Lunar Sci. Conf. 4th, Acta 37, Suppl. 4, 2991 (1973) [50] A. Brecher; W.H Menke and K.R Morash, Proc. Lunar Sci. Conf. 5th, 2795-2814 (1974) [51] D.E Watson, E.E Larson and R.L Reynolds, Lunar Sci. 5, 827 (1974) [52] S.K Banerjee and J.P Mellema, Nature 260, 230-231 (1976) 120 Evolution temporelle du champ magnétique lunaire Chapitre Cinq Nouvelle évolution du champ magnétique lunaire Vue de la Terre depuis la Lune, mission Apollo 11 Copyright @ images.nasa.gov Evolution temporelle du champ magnétique lunaire 121 122 Evolution temporelle du champ magnétique lunaire Chapitre 5 : Nouvelle évolution du champ magnétique lunaire 5 Chapitre 5 Nouvelle évolution du champ magnétique lunaire Dans ce chapitre, deux études paléomagnétiques sont présentées : une analyse sur deux météorites lunaires et une analyse de vingt-sept échantillons lunaires. 5.1 Cas des météorites Les échantillons Apollo sont les principaux témoins du champ magnétique lunaire passé. Mais les météorites lunaires peuvent aussi fournir des indications du champ passé. Pour cela, deux météorites ont été étudiées. La première est LAP 02205, une météorite basaltique non bréchique riche en plagioclases avec des veines de roche fondue, qui a été trouvée en Antarctique en 2002 dans la région de La Paz Icefield. Elle est datée à 2,87 ± 0,06 Ga par Ar/ Ar (Fernandes et al., 2009). Un échantillon de 219 mg a été étudié. La seconde est Northwest Africa 10782 (NWA 10782), une brèche de régolithe trouvée dans le désert saharien. Son âge est encore inconnu. Le souci majeur des météorites provenant d'Afrique du Nord-Ouest (météorites NWA) vient de l'utilisation d'aimants par les nomades qui collectent les météorites pour tester leur teneur en métal. Leur signal paléomagnétique est ainsi souvent oblitéré partiellement ou en totalité. Les données obtenues après analyses de ces deux météorites sont détaillées dans la Table 5.1. 40 Mass (g) NRM 2 -1 (Am kg ) Impact melt breccia LAP02205 0.219 1.51E-05 Regolith breccia NWA10782 42.07 5.66E-05 Sample 39 Range (LC) N MAD (°) 6.09E-07 PARM PIRM 2-12 2-12 11 11 9.22E-09 PARM PIRM 0-6 0-6 4 4 χ (m3kg-1) Method Range (HC) N MAD (°) Paleofield (μT) Error (μT) 8.8 8.8 13-100 13-100 33 33 4.4 4.4 13.8 16.1 0.7 0.5 5.1 5.1 38-100 38-100 11 11 5 5 196.9 92.7 10.7 5.5 Tableau 5.1 : Données magnétiques des deux météorites LAP05505 et NWA10782. NRM est l'aimantation naturelle rémanente, χ est la susceptibilité magnétique, PARM est la méthode de normalisation par l'ARM et PIRM est la méthode de normalisation par l'IRM. Les rangs LC et HC sont en mT. N est le nombre de paliers utilisés pour les calculs des composantes sur la NRM. L'analyse du diagramme de désaimantation de la NRM (Figure 5.1 gauche) et du REM' (Figure 5.1 droite) permet de vérifier si la météorite a été ré-aimantée si elle possède des valeurs de REM' autour de 0,1 (Gattacceca et Rochette, 2004). Evolution temporelle du champ magnétique lunaire 123 5 Chapitre 5 : Nouvelle évolution du champ magnétique lunaire a) LAP02205 (0.22 g) -1 N W 10 1.E-01 Up x 10-9 Am2 E x 10-9 Am2 100 70 REM' HC NRM -2 10 1.E-02 12 mT LC 2 NRM S Down -3 10 1.E-03 b) NWA10782 (42.07 g) N Up x10-6 Am2 0 10 20 30 40 50 60 70 80 90 100 90 100 AF (mT) 1 1.E+00 NRM LC REM' 6 mT -1 10 1.E-01 20 HC W 100 38 E x10-6 Am2 10-2 1.E-02 NRM S Down 0 10 20 30 40 50 60 70 80 AF (mT) Figure 5.1 : Résultats paléomagnétiques pour les météorites LAP02205 (a) et NWA10782 (b). Chaque échantillon présente son diagramme de désaimantation AF de la NRM (gauche). Les symboles noirs représentent la projection sur le plan horizontal (N-E) et les symboles blancs dans le plan vertical (UpE). Les composantes de faible (LC) et hautes (HC) coercivités sont représentées par des flèches gris clair et gris foncé, respectivement. Les variations du REM' (en échelle logarithmique) en fonction du champ AF des deux échantillons sont présentées (droite). Les droites grises représentent les intervalles HC de calcul de la paléointensité : 13-100 mT pour la météorite LAP et 38-100 mT pour la météorite NWA. Les deux météorites présentent deux composantes d'aimantation : une de faible champ coercitif LC et une composante d'aimantation de haut champ HC qui tend vers l'origine. La composante LC de la météorite LAP02205 est une composante visqueuse difficile à effacer en AF (composante qui tourne). La composante LC de la météorite NWA est aussi difficile à désaimanter et tourne sur presque 90°. De plus, sa courbe REM' reste à 0,1 à faible champ, ce qui indique une ré-aimantation probable par un petit aimant et que sa composante LC serait une IRM (voir explications Chapitre 3). Cette possible ré-aimantation a pu avoir lieu lors de sa collecte par exemple. Cette composante IRM est cependant complètement désaimantée dès 40 mT, avec une stabilisation du REM'. La méthode de détermination de paléointensité par champ alternatif (détaillée Chapitre 3) permet ainsi d'obtenir deux estimations de la paléointensité (PARM et PIRM) par météorite (Figure 5.2) 124 Evolution temporelle du champ magnétique lunaire Chapitre 5 : Nouvelle évolution du champ magnétique lunaire a) LAP02205 4 0.4 DC 1 T DC 0.1 mT AF 100 mT 0.3 AF 100 mT NRM lost (x10-8 Am2) 3 NRM lost (x10-9 Am2) HC (13.8 ± 0.7 μT) 2 AF 13 mT 1 HC (16.1 ± 0.5 μT) 0.2 0.1 AF 13 mT AF 2 mT AF 2 mT 0 0 2 6 4 8 10 0 12 10 0 IRM lost b) NWA10782 DC 3 T DC 0.1 mT AF 100 mT 3 NRM lost (x10-6 Am2) NRM lost (x10-6 Am2) AF 38 mT 2 AF 6 mT 1 0.1 50 AF 100 mT HC (92.7 ± 5.5 μT) 3 0 40 (x10-8 Am2) 4 HC (196.9 ± 10.7 μT) 0 30 20 ARM lost (x10-9 Am2) 4 5 0.2 0.3 ARM lost 0.4 0.5 (x10-6 Am2) 0.6 0.7 AF 38 mT 2 AF 6 mT 1 0 0 10 20 30 IRM lost 40 50 60 (x10-6 Am2) Figure 5.2 : Résultats des paléointensités des météorites LAP02205 (a) et NWA10782 (b). Les graphes de gauche montrent la NRM perdue pendant la désaimantation AF en fonction de l'ARM perdue à chaque palier croissant de désaimantation (Champ AF augmente jusqu'à 100 mT pour un champ DC de 0.1 mT). Les graphes de droite montrent la NRM perdue en fonction de l'IRM perdue à chaque palier croissant de désaimantation (Champ AF augmente jusqu'à 100 mT pour une IRM acquise à 1T – LAP02205 et 3T – NWA10782). Pour les 4 graphes, les points gris clair montrent la composante LC et les points gris foncé la composante HC, sur laquelle est calculée la paléointensité. Les points blancs des graphes de la météorite NWA10782 sont associés à la partie visqueuse MC, qui est mal effacée par champ alternatif. Cette analyse permet d'enrichir les données de champ magnétique lunaire, notamment à des âges où peu d'échantillons Apollo ont été rapportés. Les météorites de l'Antarctique sont intéressantes car, provenant d'expéditions scientifiques, elles n'ont en principe pas été réaimantées par des aimants lors de leur échantillonnage. Cependant, la quasi-totalité des météorites d'Afrique du Nord-Ouest (NWA) est contaminée par contact avec des aimants lors de la collecte ou des manipulations successives par les marchands de météorites. Des résultats peuvent cependant être obtenus si l'aimantation acquise lors du contact avec un aimant peut être effacée par champ alternatif. Evolution temporelle du champ magnétique lunaire 125 5 Chapitre 5 : Nouvelle évolution du champ magnétique lunaire 5.2 Etude des échantillons lunaires Après avoir analysé deux météorites lunaires, le but de cette étude a été d'obtenir de nouvelles valeurs de paléointensités afin de compléter les données récentes de la littérature et de mieux comprendre l'évolution de la dynamo lunaire ainsi que sa durée de vie. Cette étude concerne ainsi l'analyse en laboratoire de vingt-cinq échantillons Apollo (voir planches en Annexe 4) et de deux météorites lunaires. Neuf échantillons proviennent de la sélection établie à partir de la courbe de ß en fonction du temps obtenue à la fin du Chapitre 4. Les autres échantillons, étudiés de manière plus sommaire, proviennent de prêts par des laboratoires français (CRPG, IPGP, LMV), qui nous ont autorisés à réaliser nos analyses magnétiques avant la destruction des échantillons pour des mesures géochimiques. Les neuf échantillons reçus ont été découpés par scie à fil et tous les sous-échantillons sont mutuellement orientés (voir Chapitre 3). La susceptibilité magnétique et les propriétés d'hystérésis ont été mesurées pour tous les échantillons. La majorité des basaltes ont des grains multi-domaines (MD) tandis que les regolith breccia ont des grains superparamagnétiques (SP). La NRM de tous les échantillons a été désaimantée thermiquement ou par champ alternatif (AF). Douze échantillons présentent une composante stable HC et six une composante stable HT. L'utilisation des méthodes thermiques et AF, décrites dans le Chapitre 3, permet d'obtenir neuf nouvelles valeurs de paléointensité avec des méthodes AF et quatre nouvelles paléointensités avec la méthode IZZI. Les autres échantillons n'ont permis que d'obtenir six valeurs de limites supérieures de paléointensités, à partir de la méthode développée par Tikoo et al. (2012) détaillée dans le Chapitre 3. Ces résultats permettent d'affiner la connaissance du champ de surface lunaire en fonction du temps (Figure 5.3). Les mécanismes possibles de la dynamo sont ajoutés sur la figure. Des valeurs de champ relativement fortes sont obtenues après l'époque de champ fort (HFE) dont la limite est donnée dans la littérature à 3,56 Ga. Deux échantillons dans la HFE (dimict breccia 61015 à 3.81±0.04 Ga et IMR 65055 à 3.87±0.02 Ga) donnent des valeurs de limites supérieures de 7 et 11 μT. Cela suggère que le champ moyen pendant cette HFE a pu être plus faible (entre 9 et 52 μT) que la moyenne des paléointensités données à ~70 μT pour cet intervalle (Tikoo et al. 2014). Les données ne montrant pas de différence significative entre 4 et 3 Ga, la transition entre l'époque de champ fort et de champ faible semble se décaler plutôt après 3 Ga contre 3,56 Ga précédemment. De plus, le champ varie sur plus d'un ordre de grandeur à cette époque, cas similaire à la Terre où son Moment Virtuel Dipolaire varie d'un facteur 15 sur les 100 derniers millions d'années (e.g., Biggin et al., 2015). Un manque de données entre 3 Ga et 2 Ga fait que la transition entre la période de champ fort et celle de champ plus faible est mal contrainte (dynamique et chronologie). L'analyse de météorites serait une alternative pour enrichir les données de paléointensités. De plus, une dynamo faible semble prendre fin après 1 Ga, comme le confirment les quatre données de champ (> 1 μT) obtenues dans l'intervalle 1,56- 0,1 Ga ; montrant d'autres mécanismes possibles à l'origine de cette dynamo (intermittente ?). 126 Evolution temporelle du champ magnétique lunaire EA H EEA |ARC R EH V IE|| WR R R ES E A RC H | RREES V IE WRC RES ES RC H REEV VIE IEW R ES E A RC H | R E VIE W RESEARCH | REVIEW E VIE WES E A RC H | R E VIE W R ES E A RC H || R V IER RE W 3.7 Ga 4.2 Ga 1 Ga 1.8 Ga 2.5 Ga 2.7 Ga 3.5 Ga Paleointensities (μT) of anoth o of another geologic associatio of of another geologic association wi ern farsi eli ern farside anomalies: They er Chapitre 5 : Nouvelle évolution du champ magnétique lunaire 5 ern farside anomalies: lie on of another They geologic ass edge ofed e of the vast South Pole-A ern farside anomalies: edgeedge of the vast South Pole-Aitken of a ofofanother another geologic associati anothergeologic geologicassociatio associat of the large t the largest known impact crat th edge of the vast South the largest knownanomalies: impact crater on ern ern farside anomalies: They ernfarside farside anomalies: They ern They ld This the largest known impa Convection Convection This discovery has led to This discovery has led toPole-A two Précession Convection Impacts edgel edge ofofthe the vast South Pole-A edge thevast vast South Pole edge of South Convection thermique pure This discovery has thermique these fo for these anomalies asfor alternat fo for these as alternatives t thermique avec couverture thermochimique the the largest known impact cra theanomalies largest known impact cr the largest known impact cra for these anomalies as a pure plasma f p hydratée plasma fields hypothesis. Both pl plasma fields hypothesis. Both prop thermique Th fieldshas hypothesis Thisplasma discovery has ledto t This discovery led This discovery has led to er than et erfor than reflecting locally high er er than reflecting locally high Bpal eranomalies than reflecting local for these as Précession for these anomalies altern for these anomalies asasalterna alterna manifest manifestation of materials with loca m manifestation materials wit m manifestation of materi bis plasma fields hypothesis. Both plas plasma fieldsof hypothesis. Bo plasma fields hypothesis. Both that were in magnetized in thatthat were magnetized a dynamo 1000 that wer were magnetized in a dyn tf th er hig er th thanreflecting reflectinglocally locally hi ererthan than reflecting locally hig of these(71) proposals (71) of these proposals identifies th ofmanifestation these proposals (71) identi o of of these of materials wit manifestation materials man manifestation ofof materials wiw with the inferred locat withwith the the inferred locations of <4.0 inferred locations ow w with the that magnetized in thatwere were magnetized adyn dy that were magnetized ininaathat dyn dikes located within the dikes located within the SPA (Fig. 3). dikes located within SPA (F di d dikes of proposals (71) identi these proposals (71) iden great verticalthe thickness ofloc th ofofthese these proposals (71) ident great vertical thickness (30 km) o great vertical thickness (30 gr gkoo great ve enables them to produc with withthe theinferred inferredlocations locations with with the inferred locations 100 enables themthem to despite produce the stron alies the weak NR enables to produce the en e dikes located within the SPA (F enables dikes located within the SPA dike dikes located within SPA (F aliesalies despite theThe weak NRMthe ofproposa typica despite the second weak NRM ofal atkk great vertical thickness (30 alies desp great vertical thickness (30 grea great vertical thickness (30 TheThe second the proposal anomalies(72) are emp in th second proposal (72) enables them to produce the enables them to produce th The s enab enables them to produce the ejecta impact mel the anomalies are and in the expected alies despite the weak NRM of the anomalies are inthe the exp th tot alies despite the weak NRM alies anom alies despite the weak NRM of impactor (Fig. 3). The ejecta and impact melt derived fr 10 The second proposal (72) ejecta and impact melt deriv ej The second (7 proposal isproposal that typica Th The second proposal (72 ejecta ae impactor (Fig. 3). The key advan the anomalies are in the exp which far more F impactor (Fig. are 3). The key a im the anomalies are in the ex im the the anomalies are in the exp impacto proposal is that typical chondriti 4 times that ofde m and 10 ejecta and impact melt deri proposal is that typical chon p ejecta and impact melt p ejec ejecta and impact melt deri proposa which are far more Fe-rich, hav feldspathic rocks, resp impactor (Fig. 3). The key 4 are far more Fe-rich, impactor (Fig. 3). The key w imp w impactor (Fig. 3). The key which a times that of mare basalts andwhich 10 of relatively thin 4 osition proposal is that typical cho 4a proposal is that typical ch times that of mare ba and 10 an prop proposal is that typical cho 1 feldspathic rocks, respectively. Th and 10 to thousands of meters which are far more Fe-rich which arerocks, far more Fe-ric feldspathic respectivel fe whi which are far more Fe-rich fe have fundamen osition of relatively thin layers (perh 4should feldspat that of mare bs and 10 4 4times times that of mare and 10 osition relatively layers os properties on the and times thatthin of mare b and 10ofnetic to thousands of meters thick) of osition oos feldspathic rocks, respective Fig. 6. Paleointensity measurements of the lunar magnetic field using modern methods andto estithat from more recen feldspathic rocks, respectiv thousands of meters thick feld to feldspathic rocks, respective should have as fundamentally enhan t to osition ofofrelatively thin layers mated lifetimes of various lunar dynamos. Each point represents measurements of a single Apollo count for most of thous the oth osition relatively thin laye should have fundamentally es ositi sh osition of relatively thin layer netic properties on the surface. SPA should sample. Circles represent actual paleointensities, downward arrows represent upper limits on paleoalies. However, thusthick farh totothousands ofofmeters 0.1 6. Paleointensity measurements of the lunar magnetic field using modern methods and estithousands meters Fig. tothic netic properties onindicating the surface. nth tofrom thousands of meters thick as that more recent impacts, c n intensity, and right arrows represent upper limits on age. Green and blue points were measured using the identified tha netic pro should have fundamentally e should have fundamentally Fig. 6. Paleointensity measurements of the Each lunar magnetic field using modern methods and estimated lifetimesIRM of various lunar dynamos. point represents measurements of a single Apollo Fig. 6. Paleointensity Paleointensity measurements of thelimits lunar magnetic field using modern methods and estishou as that from more recent imp should have fundamentally e count for most of the other isolated as Fig. 6. measurements of the lunar magnetic field using modern methods and estiand Thellier-Thellier methods, respectively, and the upper were derived from the ARM method. a (top ~30 cm) of the so Fig. 6. Paleointensity measurements of the lunar magnetic field using modern methods and esti-on the netic properties assurface that f netic properties on the surfac sample. Circles of represent actual downward represent upper limits on paleomated lifetimes various lunar dynamos. Each point represents measurements ofbox a single Apollo mated lifetimes of various lunar dynamos. Each point represents measurements of aathus single Apollo netic Note the datum atpaleointensities, <7 Ma at the of extreme rightlunar of arrows the dynamos. figure.The shaded green encompasses the mean alies. However, no evidence netic properties on the surface count for most of the other isol co region isfar anomalously mated lifetimes various Each point represents measurements of single Apollo ci Fig. 6. 6. Paleointensity Paleointensity measurements of the lunar magnetic field using modern methods and estimated lifetimes of various lunar dynamos. Each point represents measurements of as aassingle Apollo that from more recent imp count for Fig. measurements of the lunar magnetic field using modern methods and estithat from more recent im paleointensity value the limits period 3.56 toGreen 4.25 Ga (central green line) and itsmethods estimated 2 represent SD uncertainty intensity, and right arrows actual represent upper on age. and blue points were measured using the Fig. 6.for Paleointensity measurements of the lunar magnetic field using modern methods and estiFig. 6. Paleointensity measurements of the lunar magnetic field using modern estisample. Circles represent paleointensities, downward arrows represent upper limits on and paleoBoth of these new pr sample. Circles represent actual paleointensities, downward arrows upper limits on paleoidentified indicating that at least the as th as that from more recent imp alies. However, thus far no evid al sample. Circles represent actual paleointensities, downward represent upper limits on paleoa mated lifetimes lifetimes of various lunar dynamos. Each point represents measurements ofofrepresent aarrows single Apollo count for most of the other iso sample. Circles represent actual paleointensities, downward arrows upper limits on paleoalies. Ho ofand various lunar dynamos. Each point represents measurements amethod. single Apollo (upper lower lines) (see table S6). The paleointensity value for 76535 green point) is measured count for most of the other is fields rather than IRMmated andand Thellier-Thellier methods, respectively, and the upper limits were derived from the ARM mated lifetimes of various lunar dynamos. Each point represents measurements of anamo single Apollo mated lifetimes of various lunar dynamos. Each point represents measurements of(leftmost aand single Apollo intensity, right arrows represent upper limits on age. Green and blue points were measured using the (top ~30 cm) of the southern fars intensity, and right arrows represent upper limits on age. Green blue points were using the coun count for most of the other iso identified indicating that at lea id 0.01 intensity, and right arrows represent upper limits on age. Green and blue points were measured using the sample. Circles represent actual paleointensities, downward arrows represent upper limits on paleoid alies. However, thus far no evi intensity, and right arrows represent upper limits on age. Green and blue points were measured using the currently not well constrained due to spurious demagnetization effects. Vertical dashed lines show sample. Circles represent actual paleointensities, downward arrows represent upper limits on paleoidentified the magnetic anomalie alies. However, thus far no e Note the datum at <7represent Ma at the extreme right of the figure.The shaded green box encompasses the mean sample. Circles represent actual paleointensities, downward arrows represent upper limits on paleosample. Circles actual paleointensities, downward arrows represent upper limits on paleoregion is anomalously iron metal-ri IRM and Thellier-Thellier methods, respectively, and the upper limits were derived from the ARM method. alies IRM and Thellier-Thellier Thellier-Thellier methods, respectively, and the upper limits were from the ARM alies. However, thus far no ev (top ~30 cm) ofmethod. thethat southern (t(t IRM and methods, respectively, and the upper limits were derived derived from the ARM method. intensity, and andestimated rightand arrows represent upper on age. Green and blue points were measured using the identified indicating at~30 lea lifetimes oflimits various proposed lunar dynamo mechanisms: purely thermal convection amethod. dynamo comes from IRM Thellier-Thellier methods, respectively, and theestimated upper limits were from the ARM intensity, right arrows represent upper limits on age. Green and blue points were measured using thewere (top identified indicating that at l paleointensity value for arrows themaximum period 3.56 to 4.25 (central green line) and its 2Green SD uncertainty intensity, and right arrows represent upper limits onencompasses age. andderived blue points measured using thethat Both of these new proposals req intensity, and right represent upper limits on age. Green and blue were measured using the iden Note the atin <7 the extreme right ofGa the figure.The shaded green box the mean identified indicating at le Note the datum at <7 Ma atthe the extreme right ofpoints the figure.The shaded green box encompasses the mean region isofanomalously iron me re Note the datum at <7 Ma at the extreme right of the figure.The shaded green box encompasses the mean IRMdatum and Thellier-Thellier methods, respectively, and upper limits were derived from the ARM method. a Ma dry at mantle (with and without an early thermal blanket surrounding the core); impact-driven mantle r many anomalies wit (top ~30 cm) of the souther Note the datum atS6). <7 Ma atpaleointensity the(central extreme rightrespectively, of figure.The green box encompasses the mean IRM and Thellier-Thellier methods, respectively, andmethods, the upper upper limits were derived from the ARM method. (upper and lower lines) (see table The value forthe 76535 (leftmost green point) is derived region is (topthe ~30 cm) ofthe the southe IRM and Thellier-Thellier and theshaded upper limits were from ARM method. namo fields rather than plasma fie IRM and Thellier-Thellier methods, respectively, and the limits were derived from the ARM method. (top paleointensity value for the period 3.56 to 4.25 Ga green line) and its estimated 2 SD uncertainty (top ~30 cm) of souther paleointensity value for the period 3.56 to 4.25 Ga (central green line) and its estimated 2 SD uncertainty rotational changes, purely thermal convection in a wet mantle; precession; and thermochemical core Both of these new proposa Nectarian (i.e., ~3.85 to Note the datum at <7 Ma at the extreme rightfor of the figure.The shaded green box encompasses the mean paleointensity value the period 3.56 to 4.25 Ga (central green line) and its estimated 2 SD uncertainty is anomalously iron mm Note the datum at <7 <7 Ma Ma at the extreme right ofMa the figure.The shaded green box encompasses the mean paleointensity value for the period 3.56 to 4.25shaded Ga (central green line)green and its estimated 2region SD uncertainty currently not well constrained due to spurious demagnetization effects. Vertical dashed lines show region is anomalously iron Both the magnetic anomalies. Yet more Note the datum at <7 at the extreme right ofpaleointensity the figure.The shaded green encompasses thepoint) mean Note datum at at the extreme of the figure.The green box encompasses the mean regio convection driven by core crystallization. The horizontal line shows the maximum surface field as region isof anomalously iron m (upper andthe lower lines) (see table S6). The paleointensity value for 76535 (leftmost point) is box (upper and lower lines) (see table S6). The for 76535 (leftmost green is pre-Nectarian (i.e., mor namo fields rather than plasm nno paleointensity value for (upper the period 3.56 toright 4.25 Ga (central green line) and its estimated 2value SDlunar uncertainty and lower lines) (see table S6). The paleointensity value for 76535 (leftmost green point) is Both these new proposa paleointensity value for the period 3.56 to 4.25 Ga (central green line) and its estimated 2 SD uncertainty 0.001 estimated maximum lifetimes of various proposed lunar dynamo mechanisms: purely thermal convection (upper and lower lines) (see table S6). The paleointensity value for 76535 (leftmost green point) is Both of these new propo a dynamo comes from the recent i estimated from Eq. 2. The lifetimes of the precession and thermochemical dynamos are highly uncertain. namo fie paleointensity value for the period 3.56 to 4.25 Ga (central green line) and its estimated 2 SD uncertainty paleointensity value for the period 3.56 to 4.25 Ga (central green line) and its estimated 2 SD uncertainty (Fig. 3) (74–76). These Bo Both of these new proposa currently not and welllower constrained duetable tonot spurious demagnetization Vertical dashedgreen lineseffects. show isVertical currently not well constrained duevalue toeffects. spurious demagnetization dashed lines show the magnetic anomalies. Yetth (upper lines)currently (see S6). The paleointensity for 76535 (leftmost point) namo fields rather than plasm well constrained due to demagnetization effects. Vertical dashed lines show t and lower lines) (see table S6). The paleointensity value for is 76535 (leftmost green point) is 4.5mantle 4lifetimes 3.5 3 The 2.5 2spurious 1convection 0.5 0tized in a (upper dry (with and without an early thermal blanket the core); impact-driven mantle Paleointensity data set is S6). from (14, 18, 50,(see 59–61, 63, 66) and also1.5 listed in table S6. namo fields rather than plas currently not well constrained due tosurrounding spurious demagnetization effects. Vertical dashed lines show of many anomalies within the inte any existing NRM (upper and lower lines) table S6). The paleointensity value for 76535 (leftmost green point) is (upper and lower lines) (see table paleointensity value for 76535 (leftmost green point) is the mag nam namo fields rather than plasm estimated maximum of various proposed lunar dynamo mechanisms: purely thermal estimated maximum lifetimes of various proposed lunar dynamo mechanisms: purely thermal convection currently not well constrained due to spurious demagnetization effects. Vertical dashedmechanisms: lines show purely a the dynamo comes from theYet rec aa magnetic anomalies. estimated maximum lifetimes of various proposed lunar dynamo thermal convection currently not estimated well constrained due to well spurious demagnetization effects. Vertical dashed lines show rotational changes, purely thermal convection in constrained a wet mantle; precession; and thermochemical core sheets that should have the magnetic anomalies. Ye Nectarian (i.e., ~3.85 to 3.92 Ga)the bas lifetimes of various proposed lunar dynamo mechanisms: purely thermal convection Fig. 6.in Paleointensity measurements the lunar magnetic field using modern methods and es currently not due tomechanisms: spurious demagnetization effects. Vertical dashed lines show currently well due to spurious demagnetization effects. Vertical dashed lines show Age (Ga) a dynam the magnetic anomalies. Yet a dry mantle not (with andconstrained without an early thermal blanket surrounding the core); impact-driven mantle inmaximum a dry dry mantle (withof and without an early early thermal blanket surrounding the core); impact-driven mantle estimated maximum lifetimes of mantle various proposed lunar dynamo purely thermal convection of many anomalies within the of a dynamo comes from the re in a (with and without an thermal blanket surrounding the core); impact-driven mantle cite Curie point to am persisted in a weakened state (surface field of to be able to power a dynamo this late in history or estimated maximum lifetimes of various proposed lunar dynamo mechanisms: purely thermal convection convection driven crystallization. Theproposed horizontal line shows the maximum lunar surface field as impact-driven dynamo comes from the (i.e., more than estimated maximum of various proposed lunar dynamo mechanisms: purely thermal convection inby acore drylifetimes mantle (with and without an early thermal blanket surrounding the core); mantle estimated maximum of various lunar dynamo mechanisms: purely thermal convection a~3.9 dy of many aathermochemical dynamo comes from the re rotational purely thermal convection inpurely alifetimes wet mantle; precession; and thermochemical core pre-Nectarian in a:changes, dry mantle (with and without an early thermal blanket surrounding the core); impact-driven mantle rotational changes, purely thermal convection in a wet mantle; precession; and core Nectarian (i.e., ~3.85 to 3.92 Ga of many anomalies within th N Figure 5.3 Evolution du champ magnétique (paléointensités) en fonction du (Ga) et des mated lifetimes of various lunar dynamos. Each point represents measurements of a single Apo peratures far more slo ~2 mT) until sometime after 3.3temps Ga. (Figs. 4 and 6). rotational changes, thermal convection in acore); wet mantle; precession; and thermochemical core N in a dry mantle (with and without an early thermal blanket surrounding the impact-driven mantle estimated from Eq. 2. The lifetimes of the precession and thermochemical dynamos are highly uncertain. of many anomalies within t (Fig. 3) (74–76). These impacts in a dry mantle (with and without an early thermal blanket surrounding the core); impact-driven mantle in a dry mantle (with and without an earlyhorizontal thermal blanket surrounding themantle; core); impact-driven mantle rotational changes, purely thermal convection inprecession; amaximum wet precession; and core oflike m of many anomalies within th Nectaria rotational changes, thermal convection in acrystallization. wet mantle; and thermochemical core convection driven by corepurely crystallization. The line shows the lunar surface field asthermochemical convection driven by core core crystallization. The horizontal line shows the maximum lunar surface field as Nectarian (i.e., ~3.85 to 3.92 G These results confirm some Apollo-era concluthicknesses, over athan per pre-Nectarian (i.e., more pr convection driven by The horizontal line shows the maximum lunar surface field as Paleointensity data set is from (14, 18, 50, 59–61, 63, 66) and is also listed in table S6. rotational changes, purely thermal convection in a wet mantle; precession; and thermochemical core p mécanismes de dynamo associés. Les symboles blancs indiquent les données récentes de la littérature et tized any existing NRM, producing Nectarian (i.e., ~3.85 to 3.92 sample. Circles actual paleointensities, downward arrows represent limits on pale The global context of crustal magnetism rotational changes, purely thermal convection in a and wet mantle; precession; andupper thermochemical core rotational changes, thermal convection inand alifetimes wet mantle; precession; thermochemical core convection driven byfrom core crystallization. The horizontal line shows the maximum lunar surface field as Nec Nectarian (i.e., ~3.85 toimpact 3.92 G convection driven bypurely core crystallization. The horizontal line shows the maximum lunar surface field as pre-Nect any impact-generated sions and refute others. Modern estimated fromrepresent Eq. 2. The lifetimes of the precession thermochemical dynamos are highly uncertain. estimated Eq. 2.paleomagnetic The of the precession and thermochemical dynamos are highly pre-Nectarian (i.e., more than (Fig. 3) should (74–76). These (F estimated from Eq. 2. The lifetimes the precession and thermochemical dynamos are highly uncertain. uncertain. convection driven by core core crystallization. The horizontal lineof shows thehorizontal maximum lunar surface field as (F sheets that have cooled fro pre-Nectarian (i.e.,as more th convection driven by core crystallization. The line shows the maximum lunar surface field convection driven by crystallization. The horizontal line shows the maximum lunar surface field as central basin anomalie Coincident with these new paleointensity exmeasurements have now demonstrated that aalso preles noirs, ceux de cette étude. Les cercles représentent les données de paléointensités obtenues en AF et estimated from Eq. 2. The lifetimes of the precession and thermochemical dynamos are highly uncertain. pre-Nectarian (i.e., more tha estimated from Eq. 2. The lifetimes of the precession and thermochemical dynamos are highly uncertain. (Fig. 3) Paleointensity data set is from (14, 18, 50, 59–61, 63, 66) and is listed in table S6. (Fig. 3) (74–76). These impac Paleointensity data set is from (14, 18, 50, 59–61, 63, 66) and is also listed in table S6. tized existing NRM, prod intensity, and right arrows represent upper limits on age. Green and points were measured using titt Paleointensity data set ispersisted from (14, 18, 50, 59–61, 63, 66) and is also listed incite table S6.any estimated from Eq. 2. The The lifetimes of the precession and thermochemical dynamos areblue highly uncertain. Curie point to ambient lunar in a weakened state (surface field of to be able to power a dynamo this late in history (Fig. 3) (74–76). These impa field like that expecte periments, there have also been important recore dynamo likely existed on the Moon at least estimated from Eq. 2. The lifetimes of the precession and thermochemical dynamos are highly uncertain. estimated from Eq. 2. lifetimes of the precession and thermochemical dynamos are highly uncertain. (Fig (Fig. 3) (74–76). These impac Paleointensity data set Les is from (14,set 18, 50, 59–61, is also listed table S6. listed Paleointensity data is from (14,63, 18,66) 50,and 59–61, 63, 66) in and is also in table S6. sheets tized any existing NRM, prod tized an losanges en 6). thermique. rectangles correspondent valeurs de limites supérieures. that should have coole sh Paleointensity setmethods, is from (14, 18, 50, 59–61, 63, 66)and and also listedafter in table S6. peratures more slowly (given ~2 mT) until 3.3S6. Ga.theis (Figs. 4 and cent investigations of lunar crustal during the Nectarian an asdata far back infrom time as 4.25 Ga, in contradiction to aux tizedfar any existing NRM, pro s IRMlesand Thellier-Thellier respectively, the upper limits were derived from the ARM metho Paleointensity data set is from (14, 18, 50, 59–61, 63, 66) and also listed in magnetic table S6. Paleointensity data set is (14, 18, 50, 59–61, 63, 66) and isissometime also listed in table tized tized any existing NRM, prod sheets that should have coole sheets th 4 cite Curie point to ambient persisted in a weakened state (surface field of to beThese able to power a dynamo this late in history ci persisted in a weakened state (surface field of to be able to power a dynamo this late in history anomalies. As discussed above, a keythicknesses, finding However, oncehave again, the hypothesis of able a latetoorigin (i.e., after 4.0 Ga). results confirm some Apollo-era concluover ashould period of shee >10 sheets that coo clt persisted in a weakened state (surface field of to be power a dynamo this late in history sheets that should have cool −1 cite Curie point tomthe ambient persisted in a the weakened state (surface field of theafter toand be able toOn power a dynamo this late in history The global context of crustal magnetism cite Cur persisted in a weakened state (surface field of to be able to power a dynamo this late in history Note the datum at <7 Ma at the extreme right of the figure.The shaded green box encompasses me peratures far more slowly (g ~2 mT) until sometime after 3.3 Ga. (Figs. 4 6). ) exceed sities (~1 A from Apollo-era measurements was disthe other hand, modern measurements have p ~2 mT) until sometime 3.3 Ga. (Figs. 4 and 6). any impact-generated field. The sions and refute others. Modern paleomagnetic cite3.3 Curie point toambient ambient persisted in ahistory weakenedpersisted state (surface fieldofof after to be able to power a dynamo this late in history history p ~2 mT) until Ga.far (Figs. andlate 6).power cite in asometime weakened state (surface field to be4this able to a dynamo this insometime cite Curie point to persisted in aconcluweakened state (surface field to be able to power peratures more slowly (g ~2 mT) until 3.3 Ga. (Figs. 4 and 6). covery of intense magnetic anomalies, endogenous lun confirmed the existence ofconcluain high-field (mean of late perature ~2several mT)after until sometime after 3.3thicknesses, Ga. (Figs. 4a dynamo and 6). These results confirm some Apollo-era over a of period of These results confirm some Apollo-era th central basinknown anomalies likely req Coincident with new paleointensity exmeasurements have now demonstrated that a 4.25 peratures farmore more slowly ~2 mT)(central until these sometime after 3.3 Ga. (Figs. 44value and 6). These results confirm some Apollo-era conclupaleointensity for the period 3.56 to Ga green line) and its estimated 2 SD uncertain t( pera ~2 mT) until sometime after 3.3 Ga. (Figs. 4 and 6). peratures far slowly ~2 mT) until sometime after 3.3 Ga. (Figs. and 6). These results confirm some Apollo-era concluthicknesses, over a period o includingof those on the southern farside, that flect the addition of Fe~77 These mT from six samples) epoch lasting from atconcluThe global context crustal magnetism The global context of crustal magnetism results confirm some Apollo-era thicknes any impact-generated field. sions and refute others. Modern paleomagnetic sions and refute others. Modern paleomagnetic Theimportant global context of crustal magnetism field like that expected from aan c periments, therecontext have alsoofbeen recore dynamo likely existed on theand Moon at least These results confirm some Apollo-era conclu-recognized thicknesses, over period The global crustal magnetism sions refute others. Modern paleomagnetic apparently require crustal materials with NRM It green has been suggeste least 3.85 (see to 3.56 Ga, paleomagnetic as originally These results confirm some Apollo-era concluthicao These confirm some Apollo-era concluthicknesses, over aaany period any impact-generated field. sions andresults refute others. Modern The global context of excrustal magnetism (uppermeasurements and lower lines) table S6). The paleointensity value for 76535 (leftmost point) The global context of crustal magnetism imp sions and refute others. Modern paleomagnetic central basin anomalies likel Coincident with these new paleointensity have demonstrated that a now ce cent investigations of thea crustal magnetic during the Nectarian and expre-Necta as far back in time asnow 4.25 Ga, in contradiction towe Coincident with these new paleointensity measurements have now demonstrated that alunar any impact-generated fiel sions and refute others. Modern paleomagnetic The global context of crustal magnetism The global context of crustal magnetism lack of anomalies in th larger than that of nearly all known Apollo during the Apollo era. However, now see that c Coincident with these new paleointensity exmeasurements have demonstrated that any sions andpaleomagnetic refute that others. paleomagnetic central basin anomalies field likel any impact-generated sions and refutehave others. Coincident with these new paleointensity exmeasurements nowModern demonstrated a Modern field like that expected from periments, there also been important recore likely on the Moon at least As discussed above, awith key finding However, once again, the inferred thedynamo hypothesis ofthe aexisted late (i.e., after 4.0 Ga). central Coincident these new paleointensity exmeasurements have now demonstrated a with fifib periments, there have also been important core dynamo likely existed on thethat Moon athave least central basin anomalies lik Coincident these new paleointensity exmeasurements haveorigin now demonstrated that aanomalies. samples (35). magnetic field maps from sins (<1 nT atrethe cent surf dynamo subsequently declined precipitously currently not well constrained due to spurious demagnetization effects. Vertical dashed lines sh periments, there have also been important recore dynamo likely existed on the Moon at least Coincident with these new paleointensity exmeasurements have now demonstrated that a Global field like that expected from periments, there have also been important recore dynamo likely existed on the Moon atthat least central basin anomalies like Coincident with these new paleointensity exmeasurements have now demonstrated a −1 ) exceed what ispreach sities (~1 Athe m from the Apollo-era measurements was important the dishand, modern measurements have cent investigations of the lunar crustal magnetic during Nectarian and as On far the backother in time as 4.25 Ga, infar contradiction to field lik thethere Lunar Prospector spacecraft, which only becentral impact melt lay tocore <∼4 mT byas 3.2 Ga. In particular, modern analyperiments, there have also been important redynamo likely existed on the Moon at least cent investigations of the lunar crustal magnetic du back in time as 4.25 Ga, in contradiction to field like that expected fr periments, have also been recore dynamo likely existed on the Moon at least cent investigations ofpurely the lunar crustal magnetic as core far in time asleast 4.25 inthe contradiction to investigations of the lunar crustal magnetic during the−3 Nectarian andindic pre as fardynamo back inses time asexisted 4.25 Ga, in contradiction to Ga,cent field periments, there have also beenthermal important redynamo likely existed on Moon atdynamo least field like that expected frod periments, there have also been important recore likely onback the Moon at −1 estimated maximum lifetimes of various proposed lunar mechanisms: convecti A lunar m ) may ~10 came available 6anomalies. years (8,of 29, 68), have now of samples 3.3 Gacontradiction or younger suggest that covery of investigations several intense magnetic anomalies, known endogenous materials theofexistence of4.25 athe high-field (mean oflate anomalies. As discussed above, aago key finding However, once again, the inf theconfirmed hypothesis aas late origin (i.e., after 4.0 Ga). As discussed above, a key finding H hypothesis of a origin (i.e., after 4.0 Ga). cent investigations the lunar crustal magnetic during t far back in time as 4.25 Ga, in contradiction to cent of the lunar crustal magnetic during the Nectarian and pr as far back in time as Ga, in to anomalies. As discussed above, a once key finding the hypothesis of a late origin (i.e., after 4.0discussed Ga). anomalies. As above, a and key finding However, again, the inH thefar hypothesis ofor aas late origin (i.e., after 4.0 Ga). cent investigations of the lunar crustal magnetic duri asGa, far back in time as 4.25 Ga, in investigations contradiction to cent ofsouthern theunique lunar crustal magnetic during the Nectarian and pre as back time in contradiction to −1 Fe-rich active by the confirmed the size intensity of the all4.25 of the Apollo-era paleointensity analyincluding those on the farside, that flect the addition of impact mT from sixinmost samples) epoch lasting from atmodern ) the exceed what sities (~1no A longer m from the4.0 Apollo-era measurements was the disOn~77 thethe other hand, modern measurements have si from the Apollo-era measurements was disOn the other hand, measurements have −1 anomalies. As discussed above, a key finding However, once again, the hypothesis ofand a late origin (i.e., after 4.0 Ga). anomalies. As discussed above, a key finding Howeve the hypothesis of a late origin (i.e., after Ga). in a dry mantle (with without an early thermal blanket surrounding the core); impact-driven man ) exceed what sities (~1 A m from the Apollo-era measurements was the disOn the other hand, modern measurements have si from the was the dis-Ga). On thehypothesis other hand, have anomalies. As discussed above, a(i.e., key finding How the of amodern lateapparently origin (i.e.,require after 4.0 Ga). anomalies. As discussed above, a Apollo-era key finding However, once again, the in the hypothesis of a as late origin (i.e., after 4.0 Ga). southern farside anomalies and theirmeasurements spatial after ~3.85 H ses Ga, from this late epoch, which ranged up measurements to apcrustal materials with NRM Itknown has been suggested (29) that leastOn 3.85 to 3.56 recognized covery of the several intense magnetic anomalies, endogenous lunar mat confirmed the existence of aoriginally high-field (mean ofupper wha sities (~1 Aconsistent m−1−1) exceed from Apollo-era measurements was theintense disthe other hand, modern measurements have covery of several magnetic anomalies, kn confirmed the existence of acovery high-field (mean ofwith sities (~1 from the Apollo-era measurements was the disOn the other hand, modern measurements have of several intense magnetic anomalies, known endogenous lunar ma confirmed the existence of a high-field (mean of correlation antipodes of four, or perhaps not with th parent values of 20 mT, are only limits on sitie from the Apollo-era measurements was the disOn the other hand, modern measurements have covery of several intense magnetic anomalies, k confirmed the existence of a high-field (mean of ) exceed what sities (~1 A m from the Apollo-era measurements was the disOn the other hand, modern measurements have rotational changes, purely thermal convection inalasting athose wet mantle; precession; and thermochemical co lack ofknown anomalies in the centers of than that of nearly all known Apollo the Apollo era. However, we now from see that including on the southern farside, that flect the addition ofofthat Fe-rich im ~77during mTconfirmed from samples) epoch lasting at covery of several intense magnetic anomalies, endogenous lunarpa m the existence of amT high-field (mean oflarger including those on the southern farside, fl ~77 from six samples) epoch from at covery several intense magnetic anomalies, known confirmed the existence of a high-field (mean of dynamo from even five (69), ofof the eight youngest basins. Howthe lunar field and therefore do not require including those on the southern farside, that flect thecore addition Fe-rich im ~77 mT six from six samples) epoch lasting from at covery of several intense magnetic anomalies, kno confirmed the existence of a high-field (mean of covery of several intense magnetic anomalies, known endogenous lunar ma confirmed the existence of a high-field (mean of including those on the southern farside, that fle ~77 mT from six samples) epoch lasting from at samples (35).require Global magnetic field maps from sins (<1 nTthe at the surface, sugges the 3.85 dynamo subsequently declined precipitously including those on the southern farside, that flect addition offlect Fe-rich ~77 mT from six samples) epoch lasting from atas apparently crustal materials with NRM It has been suggested (29) least to 3.56 Ga, as originally recognized apparently require crustal materials with NRM least 3.85 to 3.56 Ga, originally recognized ever, the acquisition of the first high-resolution 3.56 to 3.85 Ga (Imbria dynamo at this time. Finally, a recent analysis convection driven by core crystallization. The horizontal line shows the maximum lunar surface field including those on the southern farside, that the ~77 mT from six samples) epoch lasting from at apparently require crustal materials with NRM It has been suggested (29) least 3.85 to 3.56 Ga, as originally recognized those onthat the southern that flect ~77 mT from sixfrom samples) epoch lasting fromspacecraft, including those onatthe including southern farside, flect thefarside, addition of Fe-rich im ~77mT mTbyfrom six In samples) epoch lasting apparently require crustal materials with NRM least 3.85 to 3.56 Ga,atas originally recognized the Lunar Prospector which only becentral impact melt layer has an N to <∼4 3.2toof Ga. particular, modern analyglobal topography data in 1993 by the Clemenbasalts above). In a potentially very young lunar sample (66) apparently require crustal materials with NRM It has been(see suggested (29 least 3.85 3.56 Ga,However, as originally recognized lack of anomalies in the larger than that of nearly all known Apollo during the Apollo era. However, we now see that la larger than that of nearly all known Apollo during the Apollo era. However, we now see that apparently require crustal with NRM Itcent has least 3.85 3.56 Ga, as originally recognized of anomalies in the cent larger that of nearly all known Apollo during the Apollo era. we now see that −3lack −1 apparently require crustal materials with NRM It least 3.85 to 3.56 Ga, as originally recognized apparently require crustal materials with NRM Itm has been suggested (29) least 3.85 to 3.56 Ga, asto originally recognized la larger than that ofmaterials nearly all known Apollo during the Apollo era. However, wethan now see that estimated from Eq. 2. The lifetimes of the precession and thermochemical dynamos are highly uncerta A ) may indicate that the ~10 came available 6 years ago (8, 29, 68), have now ses of samples 3.3 Ga or younger suggest that tine laser altimeter (70) led to the identification bital data sets are cons hints that the dynamo may have nevertheless lack of anomalies in theofcen larger than that of nearly allfield known Apollo during the Apollo era.declined However, we now see thatwe samples (35). Global magnetic field maps from sins (<1 nT the surface, su the dynamo subsequently precipitously samples (35). Global magnetic field maps si the dynamo subsequently declined precipitously samples (35). Global maps from sins (<1 nTat atApollo thefrom surface, the dynamo subsequently declined lack larger than of nearly alllonger known Apollo during Apollo era.precipitously However, now see that larger than that of nearly all known during the Apollo we now see that lack of anomalies in theoflack cen larger than that of magnetic nearly allthat known Apollo during the Apollo era.the However, we now seeera. thatHowever, samples (35). Global magnetic field maps from ssa the dynamo subsequently declined precipitously no active by the time the confirmed the unique size and intensity of the most or all of the Apollo-era paleointensity analysamples (35). Global magnetic field maps from sins (<1 nT at thelayer surface, dynamo subsequently declined precipitously theprecipitously Lunar Prospector spacecraft, which only central impact melt has to <∼4the bydata 3.2by Ga. InGa. particular, modern analythe Lunar Prospector spacecraft, which only beces to <∼4 mT modern byprecipitously 3.2 Ga. In 59–61, particular, modern analyPaleointensity set isIn from (14, 18, 50, 63, 66) and issamples also listed inbetable S6. the Lunar Prospector spacecraft, which only becentral impact melt layer has tomT <∼4 mT 3.2 particular, analysamples (35). Global magnetic field maps from sins (<1 the dynamo subsequently declined (35). Global magnetic field maps from sins the dynamo subsequently declined precipitously samples (35). Global magnetic field maps from sins (<1 nT at the surface, the dynamo subsequently declined the Lunar Prospector spacecraft, which only bec to <∼4 mT by 3.2 Ga. In particular, modern analysouthern farside anomalies and their spatial (i.e., after ~3.85 Ga). However, thi ses from this late epoch, which ranged up to ap−3 −1−1 the Lunar Prospector spacecraft, which only be- ago central impact melt layertha ha <∼4 mT by 3.2 Ga. Inyounger particular, modern analy1246753-8 5 DECEMBER 2014 •Ga VOLor 346 ISSUE 6214 m ) )may indicate ~10 came 6 years ago (8, 29, 68), have now ses ofto samples 3.3 Ga orGa suggest that ~is came available 6 years (8,−3A 29, 68), have now ses of samples 3.3 younger suggest that A m may indicate tha ~10 came available 6the years ago (8, 29, 68), have now ses of samples 3.3 or suggest that Lunar Prospector spacecraft, which only central to <∼4 mTses by 3.2 Ga. In particular, modern analythe Lunar Prospector spacecraft, which only betoyounger <∼4 mTmodern by 3.2 Ga. Inor particular, modern analytheavailable Lunar Prospector spacecraft, which only becentral impact melt layercent has to <∼4 mT of by 3.2 Ga. In particular, analy−3 −1becorrelation with antipodes of four, or perhaps not consistent with the strong ev parent values 20 mT, are only upper limits on ~ came available 6 years ago (8, 29, 68), have now of samples 3.3 Ga younger suggest that A active mactive indicate ~10 came available 6 years ago (8,intensity 29, 68), have now ses samples 3.3 Gapaleointensity or younger suggest thatconfirmed −3 nt− −3 intensity −1 ) may nono longer by the the unique sizeavailable and of the most or allof the Apollo-era analyconfirmed the size and ofindicate the most or all of the Apollo-era paleointensity analylonger by time confirmed the unique size and intensity of the most orfield all of the3.3 Apollo-era paleointensity analy~10 A ~10time came available 6unique years ago (8, 29, have now of3.3 samples 3.3 Ga even or suggest younger suggest that 668), years ago (8, 29, 68), have now ses of Ga samples Ga orApollo-era younger that A68), mfrom ) may thn ~10 came available 6came years ago (8, 29, have now ses ofof samples orses younger suggest that core dynamo paleomagnetic five (69), of the eight youngest basins. Howthe most lunar and therefore do not require a confirmed the unique size and intensity of the most or all of the paleointensity analynoafter longer active byHoweve the tim confirmed the unique size and intensity of the (i.e., or late all ofepoch, the Apollo-era paleointensity analysouthern farside anomalies and their ~3.85 sesdynamo from which ranged to southern farside anomalies and their spatial (i.e., after ~3.85 Ga). Howeve ses from this late epoch, which ranged upapto southern farside and their spatial (il ses this late epoch, which ranged up to appersisted in aintensity weakened state (surface field to be able tothis power a Apollo-era dynamo this late inaphistory no confirmed thespatial unique sizeintensity and intensity theno most or allup oflate the Apollo-era paleointensity analyno longer active by the time confirmed the unique size and of anomalies the most or this all oftime. the paleointensity analylonge confirmed the unique size and of theofGa). most or all the Apollo-era paleointensity analyever, theranged acquisition of the first high-resolution 3.56 to 3.85 Ga (Imbrian-aged) Apo at Finally, afrom recent analysis southern farside anomalies and their spatial ( sesof from this epoch, which up to apsouthern farside anomalies and their spatial (i.e., after ~3.85 Ga). Howe ses from this late epoch, which ranged up tomT, apcorrelation with antipodes of four, or perhaps not consistent with the stro parent values of 20 mT, are only upper limits on correlation with antipodes of four, or perhaps not consistent with the stro parent values of 20 mT, are only upper limits on correlation with antipodes of four, or perhaps n parent values of 20 are only upper limits on southern farside anomalies and their spatial (i.e., ses from thisoflate epoch, which up tosouthern apsouthern farside anomalies and their spatial after ~3.85 Ga). Howev ses from thisvery latefrom epoch, which ranged up to apfarside anomalies and(i.e., their spatial (i.e., afte ses this late epoch, which ranged upranged to apglobal topography data in 1993 by the Clemenbasalts (see above). In fact, the sam aparent potentially young lunar sample (66) correlation with antipodes of four, or perhaps n parent values 20 mT, are only upper limits on ~2 mT) until sometime after 3.3 Ga. (Figs. the 4 ofand 6). correlation with antipodes of four, or perhaps not consistent with the str values of 20 mT, are only upper limits on core dynamo from paleoma of(70) the youngest basins. Howthethat lunar field and therefore do not require atine core from paleomag even five (69), of the eight youngest basins. Howlunar field and dolunar require a therefore co even five (69), of the eight youngest basins. Howthe field and dofive not(69), require aeight with of dynamo four, or perhaps not parent values of 20 mT, are even only upper limits on correlation with antipodes four, or perhaps not consistent with theifcon stro parent values oftherefore 20 mT, are only upper limits on laser altimeter led tocorrelation theofwith identification bital data sets are consistent the hints the dynamo may have nevertheless correlation antipodes of four, or perhaps not parent values ofnot 20 mT, are only upper limits on c even five (69), of antipodes the eight youngest basins. Howthe lunar field and therefore dothe notacquisition require aeight core dynamo from paleom even five (69), of the youngest basins. Howthe lunar field and therefore do not require a ever, of the first high-resolution 3.56 to 3.85 Ga (Imbrian-aged dynamo at this time. Finally, a recent analysis ever, the acquisition ofaeight the first high-resolution 3.56 to dynamo 3.85 Ga (Imbrian-aged dynamo thisconfirm time. Finally, a recent analysis ever, the acquisition of the first high-resolution 3. dynamo atnot this time. Finally, ado recent analysis These results some Apollo-era core even five (69), of the eight youngest basins. How-core the lunar fieldrequire and therefore not require core from paleoma even five (69), of the youngest basins. Howtheatlunar field and therefore do aconcludyn even five (69), of the eight youngest basins. Howthe lunar field and therefore do not require a ever, the acquisition of the first high-resolution 3 dynamo at this time. Finally, a recent analysis ever, the acquisition of in the first high-resolution 3.56 to 3.85 Ga (Imbrian-ag dynamo at very this time. Finally, a recent analysis global topography data 1993 by the Clemenbasalts (see above). In fact, fact, th of a potentially very young lunar (66) global topography data in 1993 by the Clemenbasalts (see above). In th a potentially young (66) global topography data inhigh-resolution 1993to by the ba oflunar a potentially very young lunar sample (66) The global context of crustal magnetism ever, the acquisition of the first high-resolution 3.56 dynamo atsample this time. Finally, a the recent analysis ever, acquisition ofthe the first high-resolution 3.56 3.85 GaClemen(Imbrian-age dynamo atothers. this time. Finally, asample recent analysis ever, acquisition of the first 3.56 to dynamo at this time. Finally, a recent analysis sions of and refute Modern paleomagnetic global topography data in 1993 by the Clemenb3 of a potentially very young lunar sample (66) global topography data in 1993 by the Clemenbasalts (see above). In fact, of a potentially very young lunar sample (66) 127 Evolution temporelle du champ magnétique lunaire 1246753-8 5 DECEMBER 2014 VOL 346 ISSUE 6214 tine tine laser altimeter (70) to the bital data sets aresciencemag.o consistent hints thatdynamo the dynamo may have nevertheless laser altimeter (70) ledled to the identification data sets are consistent hints that the may have nevertheless tine laser altimeter (70)inbital led to identification bit( hints that the dynamo may have nevertheless global topography 1993 byClementhe Clemenbasa of a•lunar potentially very young lunar sample (66) global topography data in 1993 byidentification the Clemenbasalts (see above). In fact, of a potentially young sample (66) global topography data indata 1993 by thethe basalts ofdynamo avery potentially very young lunar sample (66) tine laser altimeter (70) led to the identification b hints that the dynamo may have nevertheless tine laser altimeter (70) led to the identification bital data sets are consisten hints that the may have nevertheless Coincident with theseto new paleointensity e measurements have now demonstrated that alasernevertheless tine altimeter led to the identification hints thatnevertheless themay dynamo have tine altimeter led tolaser the identification data sets are consistent hints that the dynamo have tine(70) laser altimeter (70) led(70) thebital identification bitalbita dat hints that may the dynamo havemay nevertheless 1246753-8 5 DECEMBER • 346 VOLMoon 346 ISSUE 6214 science periments, there have also been important core dynamo likely existed on the at least 1246753-8 5 DECEMBER 2014 •2014 VOL ISSUE 6214 sciencem 1246753-8 5 DECEMBER 2014 • VOL 346 ISSUE 6214 1246753-8 5 DECEMBER 2014 • VOL 346 ISSUE 62142014 • VOL 346 ISSUE 6214 scienc 1246753-8 5 DECEMBER 1246753-8 5 DECEMBER 2014 • VOL 346 ISSUE 6214 DECEMBER • contradiction VOL 346 ISSUE 6214 science investigations of the lunar crustal magne as far back1246753-8 in time 1246753-8 as5 4.25 Ga,2014 in to ISSUE cent 5 DECEMBER 2014 • VOL 346 6214 5 Chapitre 5 : Nouvelle évolution du champ magnétique lunaire Article en préparation pour EPSL New paleointensities of Apollo samples and the evolution of lunar surface magnetic field with time Camille Lepaulard1, Jérôme Gattacceca1, David Cébron2, Sonia Tikoo3, Christopher McDonald4, Brent Turrin3. 1 Aix Marseille University, CNRS, IRD, Coll. France, INRA, CEREGE, Aix-en-Provence, France. 2 Université Grenoble Alpes, CNRS, ISTerre, Grenoble, France. 3 Department of Earth and Planetary Sciences, Rutgers University, 610 Taylor Road, Piscataway, NJ 08854, USA. 4 School for Earth and Space Exploration, Arizona State University, Tempe, AZ 85287-6004, USA. Abstract Paleomagnetic analyses of Apollo samples and studies of lunar crustal magnetic anomalies indicate that the Moon had a magnetic field in the past, generated by a core dynamo. To better constrain the evolution of the lunar magnetic field with time, and hence the processes responsible for the lunar dynamo generation, we present in this paper a paleomagnetic study of twenty-seven lunar samples. We obtained nine paleointensity estimates with methods based on alternating field demagnetization, and four paleointensity estimates with methods based on thermal demagnetization. Six other samples provided only upper limits on the paleointensity. Six paleointensities in the 13-57 μT range between 3.85 and 3.04 Ga confirm the existence of a surprisingly strong field with Earth-like intensity in the early Lunar history and suggests that this high field epoch ended after 2.9 Ga, significantly younger than previously proposed. Two samples in the high field epoch provides lower values than others, suggesting that the mean field during this high field epoch may have been lower than the average paleointensities proposed previously for this interval. Four samples provided paleointensities that cannot be accounted by the lunar crustal field, in the 1.11 to 2.72 μT range in the low field epoch. It suggests that the lunar dynamo was still active in fairly recent geologic times (<2 Ga, and possibly even after 1 Ga), with surface fields of ~1 μT indicating a weak state of the dynamo compared to the period older than 2.9 Ga. 128 Evolution temporelle du champ magnétique lunaire Chapitre 5 : Nouvelle évolution du champ magnétique lunaire 5 1. Introduction Paleomagnetic analyses of Apollo samples (Fuller and Cisowski, 1987), and studies of lunar crustal magnetic anomalies (Hood et al., 1981; 2011) indicate that the Moon had a magnetic field in the past. This magnetic field could have been generated by a core dynamo (Wieczorek et al., 2006) or generated or amplified by impact-generated plasma (Hood and Artemieva, 2008). More recent analyses have shown that at least some paleomagnetic results require the existence of a long lived (> days) strong (several dozens μT) magnetic field, which requires the existence of a past lunar core dynamo. Geophysical and geochemical data show the presence of a lunar core with a liquid outer core of ~350 km radius, with a 240 km radius solid inner core, compatible with a core dynamo (Newsom, 1984; Wieczorek et al., 2006; Weber et al., 2011). Paleomagnetic results show that the dynamo was active from 4.25 Ga to 3.56 Ga (so called high-field epoch), with surface magnetic fields in 30-110 μT range, and an average field of ~70 μT (Garrick-Bethell et al., 2009; Cournède et al., 2012; Shea et al., 2012; Tikoo et al., 2012; Garrick-Bethell and Weiss, 2013; Suavet et al., 2013). The evolution of the magnetic field after 3.56 Ga is poorly constrained with only twelve paleointensity estimates, including seven upper limits (Tikoo et al., 2014; Tikoo et al., 2017). After 1.5 Ga, only three paleointensities (5 μT for regolith breccia 15498 and two lower values at 0.4 μT and 0.01 μT for regolith breccia 15015 and 15465 respectivly) are available to constrain the shutdown of the lunar magnetic field (Tikoo et al., 2017a; Wang et al., 2017). The 5 μT paleointensity (Regolith breccia 15498) is higher than the present day lunar magnetic remanent surface field, indicating the existence of a dynamo at 1.5 Ga. But the transition between the high field period and the weak field period is not documented. Mantle precession (Dwyer et al., 2011) and core crystallization (Zhang et al., 2013; Laneuville et al., 2014) could explain a persistence of a dynamo until 3.56 Ga. Local surface impacts could generate a dynamo only before 3.76 Ga (Suavet et al., 2013). To better constrain the evolution of the lunar magnetic field with time, and hence the processes responsible for the lunar dynamo generation, we present in this paper a paleomagnetic study of twenty-seven lunar samples. 2. Samples and methods 2.1 Samples Nine samples were studied in details after selection based on preliminary measurements of Natural Remanent Magnetization and magnetic susceptibility of large samples in the Lunar Sample Laboratory Facility (LSLF) at Johnson Space Center (JSC), Houston (Lepaulard et al., submitted). The selection criteria were a strong Natural Remanent Magnetization (NRM); availability of radiometric age and absence of previous paleomagnetic studies. The following samples were studied: three basalts (Apollo samples 12005, 12021 and 15529), one impact melt breccia (IMB, 14169), three regolith breccias (10018, 15505 and 61195), one dimict breccia (61015) and one impact melt rock (65055). The allocated samples, with masses around 2 g, were cut into mutually oriented small sub-samples with a diamond wire saw (Figure S1 in Supplementary material). A total of thirty-four subsamples were studied, with masses in the 55 to 699 mg (median mass 145 mg). Evolution temporelle du champ magnétique lunaire 129 5 Chapitre 5 : Nouvelle évolution du champ magnétique lunaire Another set of eighteen samples was received on temporary loan from different research laboratories (IPG Paris, LMV Clermont-Ferrand, CRPG Nancy) for magnetic measurements before destructive geochemical analyses, following the opportunistic strategy used by Cournède et al. (2012). This set of samples contains thirteen basalts (Apollo samples 10003, 10017, 12012, 12016, 12018, 14078, 15555, 70017, 70135, 74255, 74275 and 75075; meteorite LAP 02205), one regolith breccia (meteorite NWA 10782) and four feldspathic rocks (Apollo samples 60015, 60215, 62255 and 65315). Among these samples, eight had never been studied for magnetism (12012, 12016, 14078, 62255, 74255, 75075, and the two meteorites). In this study, the samples have mass ranging from 25.7 mg to 42.1 g with a median mass of 157 mg. Some of the studied samples had already been dated, and their ages are given in Table 1. Seven of these samples had been dated using the 40Ar/39Ar method, four using the 87Rb/87Sr method, and one (62255) using the 143Nd/147Sm method. Mare basalts 12005, 12012, 12016 and IMB 14169 have no radiometric age and we use in the following an age estimate that is the average age for Apollo 12 olivine and ilmenite basalts (3.22±0.04 and 3.17±0.02 Ga respectively) and Apollo 14 IMB (3.85±0.03 Ga). Feldspathic rocks 60215, 65315 and NWA10782 have never been dated and cannot be readily compared to well dated rocks, so we have no age estimates for these samples. We observed thin sections of the nine samples we obtained from the Curation and Analysis Planning Team for Extraterrestrial Materials (CAPTEM) to look for shock evidence in the studied rocks (Figure S2). There is only evidence of a maximal pressure < 5 GPa with an exception for regolith breccia 61195. This breccia is named "shocked breccia", with a matrix containing abundant glass spheres. Some glass spheres are recrystallized and some clasts (plagioclase, pyroxene, olivine) exhibit shock features (Meyer et al., 2009 – compendium). For the other samples, obtained in loan from other French laboratories, we had no thin sections available, but sample description (Meyer et al., 2009 - Compendium) and online thin sections images available through the virtual microscope project (www.virtualmicroscope.org) show no evidence for shock except for two samples. Feldspathic rock 65315 contains olivine grains with undulose extinction but no shock melting is observed. Basalt 10017 shows undulose extinction in olivine grains. 2.2 Geochronology We performed radiometric dating of five samples whose paleomagnetic results were satisfactory. Two basalts (12005 and 15529) were dated using 40Ar/39Ar method at Rutgers University. One impact melt breccia (14169) and two regolith breccias (10018, 15505) were dated at Arizona State University using 40Ar/39Ar laser probe dating (Mercer et al., 2015). These analyses were performed on irradiated polished sections after characterization by scanning electron microscopy and electron dispersive spectroscopy mapping. Results are still being processed as of October 4, 2018. 130 Evolution temporelle du champ magnétique lunaire Chapitre 5 : Nouvelle évolution du champ magnétique lunaire 5 2.3 Magnetic measurements Most magnetic measurements were performed at CEREGE (Aix-en-Provence, France). The paleomagnetism of eight sub-samples was analyzed at Rutgers University (New Jersey, USA), and two sub-samples (from 10018 and 15529) were analyzed at MIT paleomagnetism laboratory (Cambridge, USA). The magnetic susceptibility and the magnetic anisotropy of all samples were measured using a MFK1. Hysteresis measurements were conducted on all samples, with a Princeton Micromag Vibrating Sample Magnetometer (VSM) at room temperature. Maximum field of 1T was applied. Parameters obtained with the hysteresis loops allow us to calculate the coercive force (Bc), the remanent coercive force (Bcr) and the ratio of saturation remanent magnetization (Mrs) to saturation magnetization (Ms). All remanence measurements performed in CEREGE were conducted with a SQUID magnetometer (2G Enterprises, model 755R, with noise level of 10-11 Am2). Remanence measurements performed at Rutgers were conducted with a SQUID magnetometer (2G Enterprises, model 755, with noise level of 10-12 Am2). The NRM of forty sub-samples was measured and stepwise demagnetized using an alternating field up to 200 mT. Each demagnetization step was repeated three times and measurements were averaged to reduce the effect of spurious effects during AF demagnetization. ARM (Anhysteresis Remanent Magnetization) was acquired using a PAM1 anhysteretic magnetizer. Like the NRM demagnetization, each step of ARM demagnetization was performed and measured three times. IRM (Isothermal Remanent Magnetization) was acquired in a pulse magnetizer MMPM9, in a field of 1 or 3 T. Like for the NRM, each step of IRM demagnetization was performed and measured three times. Thermal demagnetization was only performed on the nine samples. Both at MIT and CEREGE, heating was done under controlled oxygen fugacity in an ASC oven, using a system described in Suavet et al. (2014). Viscous magnetization experiment (Enkin and Dunlop, 1988) was performed on the nine bulk samples received from CAPTEM to estimate its maximum contribution to the NRM. The acquisition of VRM (Viscous Remanent Magnetization) in a field of 30 μT was monitored over a two-week period, after which its decay was monitored over a similar period. 2.4 Paleointensity measurements We used first non-destructive AF-based methods with normalization by ARM (Stephenson and Collinson, 1974) and IRM (Gattacceca and Rochette, 2004) to determine paleointensities values for samples with stable HC component. These estimates, noted PARM and PIRM, are calculated along the AF interval over which the HC component is defined. For the ARM-based method, we used the calibration factor f'=1.34 estimated on lunar rocks by Stephenson and Collison (1974). For the IRM-based method, we used a calibration factor a=3000 μT (Gattacceca and Rochette, 2004). Both methods have an error of about a factor two because the calibration constant f' and a depend on the exact magnetic mineralogy and grain size (Tikoo et al., 2012). When the NRM is a thermoremanent magnetization, the most robust method for paleointensity determination is the method based on thermal demagnetization (Thellier and Thellier, 1959). We used the IZZI method of Yu and Tauxe,. (2004), with pTRM Evolution temporelle du champ magnétique lunaire 131 5 Chapitre 5 : Nouvelle évolution du champ magnétique lunaire checks every two temperature step. Heating was performed under oxygen fugacity at IM/IW-1 using a system similar to that described in Suavet et al. (2014). 3. Magnetic properties Rock magnetism results are summarized in Table 1 and Table S1. Magnetic susceptibility and other properties depending on the magnetic mineral concentration are correlated to impact processing, though incorporation of meteoritic metal, as already evidenced in previous studies (e.g., Rochette et al., 2010; Lepaulard et al. submitted). We could determine the VRM acquisition and decay rates for five samples only (Table S1). The maximum VRM contribution to the NRM of these samples was determined, using a worst-case scenario where the samples have been stored in a fixed position with respect to the geomagnetic field at the Lunar Facility since their return from the Moon. In these five samples, the VRM could make up only a relatively small fraction of the NRM (maximum of 24% for regolith breccia 10018). Hysteresis properties were measured for twenty-six samples (Table 1, Figure 1). Basalts have multidomain magnetic carriers (Figure 1), in agreement with previous studies (Cournède et al., 2012; Tikoo et al., 2012; Gattacceca et al., 2010). One IMB (14169-B2a), one regolith breccia (61195-B1) and one dimict breccia (61015-B5) also have multidomain behavior, as observed in most lunar rocks whose magnetic properties are dominated by kamacite grains (Fuller et Cisowski, 1987). One feldspathic rock (60015) and one basalt (LAP 02205) have pseudo-single domain (PSD) behavior. Two regolith breccia (10018 and 15505) have a significant superparamagnetic contribution, as retrieved in other regolith breccia (Fuller et Cisowski, 1987). Superparamagnetic iron grains in regolith breccia reflect the properties of the lunar soil from which they originate as superparamagnetic iron is abundant in lunar soils from the in situ reduction of iron-bearing phases (Fuller et Cisowski, 1987). 1 1.00 SD PSD SP Mrs/Ms 0.10 MD 0.01 0.001 0.00 1 10 Bcr/Bc 132 Evolution temporelle du champ magnétique lunaire 100 Chapitre 5 : Nouvelle évolution du champ magnétique lunaire 5 Figure 1: Dunlop-Day plot (Mrs/Ms versus Bcr/Bc) of hysteresis parameters for various lunar lithologies: basalts (circles), feldspathic rocks (triangles), regolith breccia (box), Impact Melt Breccia (cross), Impact Melt Rock (diamonds) and dimict breccia (star) in open symbols. Horizontal and vertical black lines divide the plot into regions representing single domain (SD), pseudo-single domain (PSD), superparamagnetic (SP) and multidomain (MD) states. subsample Sample Mass (mg) X (m3kg-1) Mrs (Am2kg-1) Ms (Am2kg-1) Bcr (mT) Br (mT) Slope corr. (Am2kg-1T-1) Age (Ga) Error (Ga) Dating method Dating ref. Lab. orgin Basalt 10003 9 74.3 8.54E-07 4.09E-04 1.40E-01 44.38 0.68 -1.40E-04 3.82 0.03 Ar-Ar [1] LMV 10017 bulk 550 8.39E-07 9.45E-04 1.79E-01 92.72 2.72 -4.63E-04 3.04 0.007 Ar-Ar ‡ [2] IPGP 12005 B2 169 1.00E-06 6.32E-04 1.52E-01 15.63 0.88 -3.06E-04 3.17 0.02 Ar-Ar [3] LSLF B3 134 9.79E-06 5.00E-04 1.12E-01 19.15 1.415 -2.22E-04 12012 bulk 290 9.23E-07 5.14E-04 2.08E-01 39.37 1.59 -2.75E-04 3.22 0.04 Ar-Ar † [3] IPGP 12016 bulk 340 1.12E-06 4.38E-04 1.03E-01 17.03 1.28 -1.76E-04 3.17 0.02 Ar-Ar † [3] IPGP 12018 295 996 1.02E-06 - - - - - 0.65 - Ar-Ar ‡ [4] CRPG 12021 B1 533 1.58E-06 7.15E-04 1.03E-01 2.89 0.27 -8.99E-05 3.3 0.1 Rb-Sr [5] LSLF 14078 14 25.7 6.93E-07 5.56E-04 2.08E-01 30.13 2.40 -8.00E-04 3.89 0.02 Rb-Sr [6] LMV 15529 A1 96 8.04E-07 6.32E-04 9.91E-02 27.10 2.48 -2.07E-04 3.18 0.004 Ar-Ar [7] LSLF B2 352 9.98E-07 6.88E-04 1.14E-01 28.49 1.93 -2.19E-04 15555 1085 58.8 1.13E-06 5.12E-04 1.14E-01 23.52 1.25 -1.57E-04 3.21 0.06 Ar-Ar ‡ [1] LMV 70017 578 112.2 2.01E-06 1.43E-03 3.33E-01 7.32 0.77 -1.20E-03 3.72 0.12 Ar-Ar ‡ [8] LMV 70135 107 31.7 4.54E-06 2.42E-03 7.74E-01 10.42 0.93 -3.51E-03 3.75 0.09 Rb-Sr [9] LMV 74255 221 63.4 1.95E-06 2.51E-03 3.05E-01 9.73 1.52 -2.31E-03 3.83 0.06 Rb-Sr [9] LMV 74275 358 80.3 1.11E-06 1.51E-03 2.39E-01 65.06 2.37 -1.16E-03 3.85 0.08 Ar-Ar [1] LMV 75075 217 57 2.32E-06 2.11E-03 3.69E-01 5.93 1.15 -1.97E-03 3.74 0.04 Ar-Ar [1] LMV LAP02205 bulk 219.4 6.09E-07 2.42E-03 2.57E-02 71.58 18.85 -1.59E-04 2.87 0.06 Ar-Ar [10] IPGP B5 88 1.41E-05 1.78E-02 1.24E-01 14.77 1.32 -4.29E-03 3.81 0.036 Ar-Ar [11] LSLF Ar-Ar ‡ [1] LMV - - LMV Nd-Sm [12] LMV - [3] LMV Dimict breccia 61015 Feldspathic rock 60015 820 2132 4.09E-08 2.68E-04 7.76E-03 20.01 5.45 -7.87E-04 4.09 0.06 60215 61 1981 3.10E-09 - - - - - - - 62255 295 1034 5.01E-09 - - - - - 4.43 0.025 65315 161 2048 1.57E-09 1.01E-05 3.61E-05 45.08 25.02 -2.73E-07 - - 73 2.34E-06 3.78E-03 5.72E-01 31.74 2.01 2.16E-03 3.85 0.03 Ar-Ar † [3] LSLF 699 9.53E-07 8.45E-04 2.35E-01 36.07 1.41 -2.44E-03 3.87 0.02 Ar-Ar ‡ [13] LSLF Impact melt breccia 14169 B2a Impact melt rock 65055 C Regolith breccia 10018 A2a 145 2.92E-05 1.29E-01 1.52E+00 42.16 6.12 -5.79E-01 1.56* 0.43 ArTr [14] LSLF 15505 A1b 80 1.31E-05 1.00E-01 8.49E-01 70.44 9.23 -2.44E-01 0.1* 0.01 ArTr [14] LSLF 61195 B1 253 8.01E-06 6.09E-03 8.42E-01 30.12 1.23 -2.69E-02 3.41 0.43 ArTr [14] LSLF NWA10782 bulk 42070 9.22E-09 - - - - - - - - IPGP - Evolution temporelle du champ magnétique lunaire 133 5 Chapitre 5 : Nouvelle évolution du champ magnétique lunaire Table 1: Lithological classification of samples is based on classification of Heigen et al. (1991). LAP02205 is an unbrecciated basalt meteorite and NWA10782 is a regolith breccia meteorite. Mrs: saturation remanent magnetization; Ms: saturation magnetization; Bcr: the remanent coercive force; Bc: the coercive force. Samples never dated or with no stable plateau of dating are noted -. All samples noted ‡ were recalculated with the calibration constant from Steiger and Jäger (1977). Samples in datation with the laser probe 40Ar/39Ar method have an age with symbol *. Samples with an average age from the Apollo group lithology (based on Stöffler et al., 2006) are noted †. ArTr indicates model closure age determined from the trapped 40Ar/39Ar ratio (Fagan et al., 2014). LMV: Laboratoire Magmas et Volcans (Clermont-Ferrand, France). IPGP: Institut du Physique du Globe de Paris (Paris, France). LSLF: Lunar Sample Laboratory Facility in Johnson Space Center (Houston, USA). CRPG: Centre de Recherche Pétrographiques et Géochimiques (Nancy, France). [1] Turner (1977) [2] Suavet et al. (2013) [3] Stoffler et al. (2006) [4] Stettler et al. (1973) [5] Cliff et al. (1971) [6] McKay et al. (1978) [7] Us in Rutgers [8] Phinney et al. (1975) [9] Nyquist et al. (1975) [10] Fernandes et al. (2009) [11] Norman et al. (2006) [12] Boyet et al. (2009) [13] Jessberger et al. (1977) [14] Fagan et al. (2014) 4. Results 4.1 Geochronology The two analyzed splits of 12005 produced disturbed release-spectra. They do not fill the criteria commonly used to define a plateau. The higher temperature step seems to indicate that the 36Ar is dominated by a cosmogenic source. The only conclusion is that this sample is older than ~2.8 Ga (Figure 2a, Text S3a). For this sample, we will use the average age for Apollo 12 ilmenite basalts: 3.17±0.02 Ga (Stöffler et al., 2006) The single studied split of 15529 produced a disturbed release-spectra defined on 45 steps. The mid-to-high temperature steps is made by up of ~62% of the total 39Ar release, and gave a plateau age of 3175±4 Ma. The integrated and total fusion age is defined at 3091±10 Ma (Figure 2b, Text S3b). These ages are calculated assuming a nebular 40Ar/36Ar value of 1.10-4 for the trapped component. 134 Evolution temporelle du champ magnétique lunaire Chapitre 5 : Nouvelle évolution du champ magnétique lunaire 5 a) 40Ar/39Ar Spectrum of basalt 12005 b) 40Ar/39Ar Spectrum of basalt 15529 Figure 2: Ar/Ar step-heating spectrum for samples 12005 (a) and 15529 (b) and curve associated the apparent age (Ma) versus cumulative % 39Ar released. (a) There are two spectrum of two small pieces of basalt 12005 (left, 12005 22936 ; right, 12005 22934). 4.2 Demagnetization of the NRM Stepwise demagnetization of the NRM allowed isolating stable magnetization components in the fifty-two analyzed samples, using principal component analysis (Kirschvink, 1980). Results are detailed in Table 2. A low coercivity (LC) magnetization component is obtained for forty samples with unblocking up to a maximum of 17 mT. Low temperature (LT) magnetization component is obtained for twelve samples, with unblocking temperature up to 330°C. A high coercivity (HC) magnetization component was identified in twelve samples (Figure 3a-g). A high temperature (HT) component is obtained for six samples (Figure 3h-k). Most of these HC and HT components are origin trending (Figure 3), and are interpreted as the characteristic remanent magnetization (ChRM). For samples with HC/HT components and multiple mutually-oriented samples (10018, 15505, 15529), the directions show a satisfactory grouping for such small subsamples (median mass 150 mg) with precision parameters k ranging from 3 to 46 (Figure 4). Most samples (34 out of 52) have only LC/LT components and have unstable behavior at high AF field and high temperature (Figure 5). Evolution temporelle du champ magnétique lunaire 135 136 Evolution temporelle du champ magnétique lunaire S 17 44 44 HC 40 5 mT LC HT E Down 580 250 LT NRM N x 10-8 Am2 NRM 100°C NRM S Down HC 100 W 60 NRM NRM W HT 460 Up x10-9 Am2 -9 S Down -9 2 LC 200 LT HC NRM NRM NRM W NRM E x 10-9 Am2 12 mT 2 E x 10 Am Up x 10 Am 100 NRM N 70 f) LAP 02205 (219.4 mg) W HC 8 mT i) 10018-B1b (68.4 mg) S Down 630 N Ex LC NRM b) 10017 (550 mg) 10-9 Am2 N Up x 10-9 Am2 E x 10-8 Am2 NRM h) 15505-A3b (213 mg) 20 Up x 10-8 Am2 S Down 220 N e) 10018-B4 (80 mg) 5 mT LC NRM W Up x 10-8 Am2 W W NRM a) 15529-A2 (96 mg) S 100 N S 100 45 -8 19 Down E x 10-9 Am2 Up x 10-9 Am2 2 NRM W NRM E Down x 10 Am HC 9 mT LT 520 200°C HT 580 N NRM NRM LC NRM W NRM LC 2 mT W E x 10-9 Am2 Down HC Up x 10-9 Am2 20 S Down 450 HT 200°C LT N Up x10-9 Am2 6 mT E x10-6 Am2 NRM E x10-9 Am2 NRM k) 14169-B1a (129 mg) S 14 N 38 S Down 100 HC LC N Up x10-6 Am2 d) NWA 10782 (42.07 g) g) 12012 (290 mg) 4 E x 10-9 Am2 Up x 10-9 Am2 S Down 450 N j) 61195-A1a (129 mg) 2 W Up x 10 Am -8 2 c) 15505-A2a (96 mg) 5 Chapitre 5 : Nouvelle évolution du champ magnétique lunaire Figure 3: NRM demagnetization data for 11 lunar samples. Orthogonal projection plots of stepwise alternating field demagnetization data. Dark symbols represent the projection into the horizontal plane (N-E or W-N) and open symbols into the vertical plane (Up-E or Up-N). (a-g) NRM vector of 7 samples during AF demagnetization. Low coercivity (LC) and high coercivity (HC) magnetization components are labeled and represented with light gray and dark gray arrows respectively. (h-k) NRM vector of 4 samples during thermal demagnetization. Low thermal (LT) and high thermal (HT) magnetization components are labeled and represented with light gray and dark gray arrows respectively. Chapitre 5 : Nouvelle évolution du champ magnétique lunaire subMass sample (mg) NRM Method (Am2.kg-1) Basalt 10003 9 74.3 2.79E-06 10017 bulk 550 7.53E-06 12005 B2 B3 B4 C1 bulk 169 134 144.5 198 290 1.53E-05 4.29E-05 2.26E-05 1.10E-05 9.55E-06 AF AF AF Thermal P(ARM) P(IRM) bulk 295 A1 C B1 14 A2 B2 340 996 287 220 533 25.7 434 352 7.88E-06 3.53E-05 1.13E-06 1.16E-05 1.25E-05 3.79E-05 2.44E-06 8.32E-06 AF AF Thermal AF AF AF P(ARM) P(ARM) P(IRM) C1 C2 15555 1085 70017 578 70135 107 74255 221 74275 358 75075 217 LAP02205 bulk 438 381 58.8 112.2 31.7 63.4 80.3 57 219.4 1.34E-05 2.57E-05 7.86E-06 1.99E-05 5.55E-05 7.84E-05 2.32E-06 4.74E-05 1.51E-05 Thermal Thermal AF AF AF AF AF AF P(ARM) P(IRM) Dimict breccia 61015 B2 B3 B5 B6 79.6 87 88 55 2.70E-05 9.51E-05 4.15E-04 1.82E-04 Feldspathic rock 60015 820 60215 61 62255 295 65315 161 2132 1981 1034 2048 Sample N MAD (°) Range (HC;HT) N MAD (°) Paleofield (μT) Error (μT) f g q D (%) E (%) 0-4 mT 4 5.8 4-100 mT* 35 43.5 - - - - - - - 2-8 mT 2-8 mT 0-2 mT 0-7 mT 2-9 mT 2 mT-250°C 2-14 mT 2-14 mT 2-13 mT 2-8 mT 2mT-150°C 0-3 mT 0-12 mT 0-14 mT 2-17mT 0-16 mT 0-16 mT 150-280°C 25-200°C 0-3 mT 0-7 mT 0-7 mT 0-9 mT 0-8 mT 0-4 mT 2-12 mT 2-12 mT 7 7 2 8 8 6 13 13 12 7 4 4 12 14 16 16 16 4 6 3 7 7 9 8 4 11 11 6.7 6.7 0.1 8.5 9.5 8.5 14.3 14.3 22.4 6.5 6.9 9 28.5 6.6 13.7 14 14 6 4 13.8 27.3 11.7 14.8 23.6 5.6 8.8 8.8 11-100 mT 11-100 mT 4-100 mT* 7-100 mT* 9-100 mT* 250-540°C* 14-100 mT 14-100 mT 15-100 mT* 9-180 mT* 200-500°C* 3-100 mT* 13-100 mT* 14-55 mT* 17-100 mT 16-100 mT 16-100 mT 300-480°C* 200-360°C* 3-100 mT* 7-100 mT* 7-100 mT* 10-100 mT* 9-100 mT* 13-100 mT* 13-100 mT 13-100 mT 35 35 28 42 30 10 31 31 30 33 9 46 26 20 38 23 23 7 5 34 32 32 28 30 26 33 33 4.2 4.2 37.9 44.0 39.9 35.8 24.4 24.4 32.8 35.5 33.7 37.5 36.9 43.1 22.7 23.6 23.6 9.1 38.4 43.0 27.0 41.5 47.4 45.1 36.3 4.4 4.4 48.97 44.33 < 22 < 11 21.05 25.84 < 15 < 22 10.00 13.99 25.01 13.77 16.09 1.92 2.15 2.43 2.91 1.26 3.55 7.39 0.66 0.48 - - - - - - 42.7 5.2 70.3 44 - 69.3 73.2 73.8 100.7 - Thermal AF AF AF 2mT-150°C 0-5 mT 2-12 mT 0-12 mT 4 6 10 12 5.5 3.4 8.9 2.1 150-330°C* 6-100 mT* 12-100 mT* 12-14 mT* 5 43 20 3 30.2 37.9 30.9 36.2 < 22 < 11 - - - - 50 30.7 38.3 72.1 1.91E-06 6.46E-08 1.75E-07 8.64E-08 AF AF AF AF 0-8 mT 0-5 mT 0-10 mT 2-14 mT 8 5 10 13 9.9 16 12.8 22.1 9-100 mT* 5-80 mT* 11-100 mT* 15-100 mT* 30 31 28 23 40.6 39.5 36.4 39.6 <7 - - - - 14.1 66.2 Impact melt breccia 14169 B1a 129 B2a 73 B2b 118 6.90E-05 6.65E-05 3.55E-05 Thermal AF AF 2mT-330°C 0-10 mT 0-4 mT 8 10 5 4.3 7.6 2.7 360-580°C 10-90 mT* 11-100 mT* 9 24 38 19.2 39.5 38 57.81 <7 <7 0.53 - 0.67 - 1.3 - 90.8 51 38.9 57.1 Impact melt rock 65055 A1 B2 C 387 279 699 3.85E-06 3.57E-06 4.75E-06 Thermal AF AF 25-200°C 0-7 mT 6 7 12.8 14.5 250-580°C* 1-100 mT* 8-100 mT* 12 47 21 33.5 33.8 38.1 < 15 - - - <7 - - - - 1.9 29 24 84.2 Regolith breccia 10018 A2a 145 1.48E-04 58 68.4 68.4 80 1.28E-05 8.65E-05 9.23E-05 1.99E-04 C1 132 1.15E-04 A1b 80 4.04E-04 A2a 96 1.30E-04 A3c2 187 4.05E-05 3.1 3.1 0.2 1.7 14.8 5.6 5.6 6.6 6.6 4.7 4.7 11.7 11.7 2.7 2.7 5.7 6 7 5 13 13 10 10 9 9 13 13 22 22 17.7 17.7 14.3 29.6 12.7 22.6 22.6 10.5 10.5 20.0 20.0 14.9 14.9 29.0 29.0 1.72E-04 1.26E-05 4.03E-05 7.96E-06 5.66E-05 6 6 4 3 3 5 5 5 5 7 7 5 5 5 5 4 24-100 mT 24-100 mT 360-610°C 300-525°C 320-560°C 38-100 mT 38-100 mT 34-80 mT 34-80 mT 45-150 mT 45-150 mT 40-100 mT 40-100 mT 16-90 mT 16-90 mT 213 129 253 225 42070 0-6 mT 0-6 mT 100-300°C 100-300 °C 25-150°C 0-5 mT 0-5 mT 0-5 mT 0-5 mT 0-12 mT 0-12 mT 0-5 mT 0-5 mT 2-6 mT 2-6 mT 100-250°C 21 21 A2b B1a B1b B4 P(ARM) P(IRM) Thermal Thermal Thermal P(ARM) P(IRM) P(ARM) P(IRM) P(ARM) P(IRM) P(ARM) P(IRM) P(ARM) P(IRM) Thermal 25-200°C 2-7 mT 0-5 mT 6 6 6 11.9 30.0 12.7 11 6 32 44 12.5 26.3 41.1 25.0 0.21 0.17 0.29 0.12 0.22 0.60 0.34 0.11 0.09 0.52 0.35 0.23 0.17 0.09 0.06 0.23 Thermal AF AF P(ARM) 300-580°C 250-450°C 7-100 mT* 5-100 mT* 1.36 1.04 1.43 0.75 1.04 2.25 1.26 2.02 1.39 1.72 1.33 1.51 1.14 0.60 0.38 2.72 13.35 <7 <7 2.76 - 5.1 5.1 38-100 mT 38-100 mT 11 11 5 5 196.9 92.7 10.7 5.5 0.5 1.2 1.1 4.4 1.4 - 116.7 22.9 4 4 1.0 0.69 0.69 0.89 0.77 - 57 21 0-6 mT 0-6 mT 0.76 0.27 0.34 0.42 0.37 - - - 12012 12016 12018 12021 14078 15529 15505 A3b A1a B1 B3 NWA10782 bulk 61195 AF P(ARM) Range (LC;LT) 5 P(IRM) P(IRM) 15.63 - Evolution temporelle du champ magnétique lunaire 137 5 Chapitre 5 : Nouvelle évolution du champ magnétique lunaire Table 2: Results of all lunar samples analyzed in this study. AF: alternating field method. PARM: paleointensity result obtained with ARM normalization (see text); PIRM: paleointensity result obtained with IRM normalization (see text). LC: Low coercivity component in mT; LT: low temperature component in Celsius degrees; HC: high coercivity component in mT used for paleointensity calculation (see text). *: HC range for samples with no stable component, interval of calculation of the upper limit value. HT: high temperature component in Celsius degrees used for paleointensity calculation (see text). *: HT range for sample with no stable component. N: number of steps for the characteristic component or component used for upper paleointensity limit. Samples with lower paleointensity limit have no satisfactory results of paleointensity recognized. D= difference in % and E= error in %, calculated only for samples with an upper paleointensity limit (see text). Italic values of E and D are for samples with unsuccessful upper limit recognized (D and E > 100%) and have a lower limit of paleointensity (noted ">"). B a) 10018 A b) 15505 0 Mean direction k = 5.8 0α95 = 27.3° HC / HT 0 HC / HT HC / HT A3c2 A3b B1a A2a 270 90 270 A1b 90 B1b C1 B4 B1b B1a 270 A2b 90 A2a C1 B4 A2b 180 c) 15529 0 HC Mean direction k = 3.2 α95 = 61.8° 180 AF Thermal Lower Hemisphere H A2a 180 Upper Hemisphere H Mean direction k = 45.7 α95 = 37.8° 270 90 B2 A2 180 Figure 4: Magnetization components observed for mutually oriented samples of (a) 10018, (b) 15505 and (c) 15529. HC (circles) and HT (squares) components directions are in an equal stereographic projection. Filled symbols (solid lines) represent directions in the lower hemisphere and open symbols (dashed lines) in the upper hemisphere. 138 Evolution temporelle du champ magnétique lunaire Chapitre 5 : Nouvelle évolution du champ magnétique lunaire 5 a) 61015-B5 (88 mg) N Up x10-8 Am2 W 5 N Up x10-9 Am2 E x10-8 Am2 3 mT NRM 100 W LC E x10-9 Am2 9 mT 9 mT S Down NRM S Down b) 65055-A1 (387 mg) N Up x10-9 Am2 NRM LT 250 150°C W E x10-9 Am2 NRM 580 S Down Figure 5: NRM demagnetization data for samples 61015 (AF-method) and 65055 (thermal method) on an orthogonal projection plots of stepwise alternating field demagnetization data. Dark symbols represent the projection into the horizontal plane (N-E) and open symbols into the vertical plane (Up-E). (a) These samples are an example of samples with only a low coercivity (LC) magnetization component (a) / a low thermal (LT) magnetization component (b) that are represented in light gray arrow, as all others samples with no ChRM component (see text). (a) A zoom on the HC part of sample 61015 is delimited by a dotted box to see the zig-zag behavior of demagnetization vector after 9 mT. 4.3 Paleointensities determinations After paleointensities experiments, we obtained nine satisfactory paleointensity estimates with AF-based methods (Figure 6a-g), and four satisfactory paleointensity estimates with the Thellier-Thellier method (Figure 7a-d). These results are given in Table 2 and summarized in Table 3. For all samples that did not show stable HC components (Figure S4), Tikoo et al. (2012) has developed a method to estimate an upper limit for the paleointensity by imparting ARM in decreasing DC fields and determining the lowest DC field that can be retrieved by normalization with a reference ARM acquired in a stronger field (200 μT in this study). We used fidelity parameters (the difference noted D and the error noted E) used in Tikoo et al. (2014) to estimate the upper limit for the paleointensity (Figure S5, Table 2). Over the twentyEvolution temporelle du champ magnétique lunaire 139 5 Chapitre 5 : Nouvelle évolution du champ magnétique lunaire eight samples analyzed with this protocol, only six give satisfactory upper limit results, with D and E < 100% (Table 3). a) 10017 (550 mg) 6 0.8 DC 0.1 mT DC 1 T AF 100 mT 0.6 HC (48.9 ± 1.9 μT) NRM lost (x10-8 Am2) NRM lost (x10-9 Am2) 4 AF 11 mT 2 AF 100 mT HC (44.3 ± 2.2 μT) 0.4 AF 11 mT 0.2 AF 8 mT AF 8 mT 10017 AF 2 mT 0 2 0 4 ARM lost (x10-9 Am2) 6 0 10017 AF 2 mT 8 0 10 40 30 20 IRM lost (x10-8 Am2) b) 10018-B4 (80 mg) 0.15 DC 0.01 mT AF 38 mT 1 0.5 AF 2 mT 10018-B4 0.5 0 1.5 1 HC (1.3 ± 0.3 μT) AF 5 mT 10018-B4 AF 2 mT 0 2 AF 100 mT AF 38 mT 0.1 0.05 AF 5 mT 0 DC 3 T AF 100 mT HC (2.3 ± 0.6 μT) NRM lost (x10-7 Am2) NRM lost (x10-8 Am2) 1.5 0 40 60 IRM lost (x10-7 Am2) 20 ARM lost (x10-8 Am2) 80 100 c) 12012 (290 mg) 3 0.3 DC 0.1 mT DC 1 T AF 100 mT AF 100 mT AF 15 mT AF 15 mT HC (25.8 ± 2.9 μT) NRM lost (x10-8 Am2) NRM lost (x10-9 Am2) HC (21.1 ± 2.4 μT) 2 AF 2 mT 1 12012 0 0 1 2 3 4 0.2 AF 2 mT 0.1 12012 0 5 0 ARM lost (x10-9 Am2) 140 Evolution temporelle du champ magnétique lunaire 2 4 6 8 IRM lost (x10-8 Am2) 10 12 14 Chapitre 5 : Nouvelle évolution du champ magnétique lunaire 5 d) 15505-A2a (96 mg) 1.5 0.15 DC 0.02 mT HC (1.5 ± 0.2 μT) HC (1.1 ± 0.2 μT) AF 100 mT AF 40 mT AF 100 mT NRM lost (x10-7 Am2) NRM lost (x10-8 Am2) 1 DC 1 T 0.5 0.1 AF 40 mT 0.05 AF 5 mT 0 0 LC AF 5 mT 15505-A2a AF 2 mT 0.5 1 1.5 2 ARM lost (x10-8 Am2) 2.5 15505-A2a AF 2 mT 0 3 0 20 40 60 80 100 IRM lost (x10-7 Am2) e) LAP 02205 (0.22 mg) 4 0.4 DC 0.1 mT AF 100 mT 3 0.3 NRM lost (x10-8 Am2) NRM lost (x10-9 Am2) HC (13.8 ± 0.7 μT) 2 AF 13 mT 1 AF 100 mT HC (16.1 ± 0.5 μT) 0.2 0.1 AF 2 mT 0 DC 1 T 0 AF 2 mT LAP02205 2 4 6 8 10 AF 13 mT 0 12 0 LAP02205 10 ARM lost (x10-9 Am2) 20 30 40 50 IRM lost (x10-8 Am2) f) NWA 10782 (42.07 g) -6 3.10 4.E-03 -6 4.10 4.E-03 DC 0.1 mT DC 3 T AF 100 mT 3.E-03 HC (196.9 ± 10.7 μT) 2.E-03 AF 6 mT 1.10-6 AF 100 mT AF 38 mT AF 38 mT NRM lost (Am2) NRM lost (Am2) 2.10-6 -6 2.10 2.E-03 AF 6 mT 1.10-6 1.E-03 0 0.E+00 0 0.E+00 HC (92.7 ± 5.5 μT) 3.10-6 3.E-03 1.E-03 1.10-7 1.E-04 2.10-7 2.E-04 3.10-7 3.E-04 -7 4.10 4.E-04 5.10-7 5.E-04 6.10-7 6.E-04 ARM lost (Am2) -7 7.10 7.E-04 0 0.E+00 0.E+00 0 -5 1.10 1.E-02 2.10-5 2.E-02 3.10-5 3.E-02 4.10-5 4.E-02 5.10-5 5.E-02 6.E-02 6.10-5 IRM lost (Am2) g) 15529-A2 (434 mg) 2.5 DC 0.1 mT AF 100 mT 2 NRM lost (x10-9 Am2) HC (10.00 ± 1.26) 1.5 1 AF 17 mT 0.5 AF 1 mT 15529-A2 0 0 5 10 ARM lost 15 20 (x10-9 Am2) Evolution temporelle du champ magnétique lunaire 141 5 Chapitre 5 : Nouvelle évolution du champ magnétique lunaire Figure 6: ARM and IRM paleointensity experiments for 7 samples. Left : Shown is NRM lost during AF demagnetization as a function of ARM lost during stepwise ARM decay (AF field increasing to 100 mT, DC bias field = 0.01, 0.02 or 0.1 mT) at an equivalent AC field. Right : Shown is NRM lost during AF demagnetization as a function of IRM lost during stepwise IRM decay (AF field increasing to 100 mT, IRM field = 1 or 3 T) at an equivalent AC field. Data corresponding to the LC component are in light gray and data from higher AF levels (HC) are shown in dark gray. White points corresponding to an overlap between the LC and HC components. B A 4 14 1.4E-08 10018-A2b (58 mg) 15505-A3b (213 mg) NRM NRM 12 1.2E-08 3 NRM remaning (x10-8 Am2) NRM remaning (x10-9 Am2) 10 1.0E-08 8 8.0E-09 6 6.0E-09 4 4.0E-09 360°C 1.43 ± 0.29 μT 0 0 0.0E+00 0 0.0E+00 300°C 1 610°C 580 0 2 2.0E-09 6 6.0E-09 4 4.0E-09 0 1 2 3 pTRM gained (x10-8 Am2) pTRM gained (x10-9 Am2) C NRM 4 5 20 D 100 90 2.72 ± 0.23 μT HT HT 2 2.0E-09 2 61195-A1a (129 mg) 14169-B1a (145 mg) NRM 15 NRM remaning (x10-10 Am2) NRM remaning (x10-10 Am2) 80 70 60 50 40 30 10 250°C 5 13.4 ± 2.8 μT 20 360°C 57.8 ± 15.6 μT 10 450°C 580°C 0 0 0 5 10 15 20 0 pTRM gained (x10-10 Am2) 10 20 30 40 50 60 pTRM gained (x10-10 Am2) Figure 7: Thellier-Thellier paleointensity experiment results for samples (a) 10018, (b) 15505, (c) 14169 and (d) 61195. Shown is the NRM remaining versus partial TRM grained. Paleointensity (in gray on each figure) is calculated for each sample on the HT component, which is represented in light gray arrow. pTRM checks are represented in green triangles. 5. Discussion 5.1 Variation of lunar surface field with time Together with selected literature data (Table S2), our paleointensity estimates (Table 3) allow discussing the evolution of lunar surface field intensity with time (Figure 8). Overall, the field intensity decreases with time since 4 Ga, and two main epochs (high field and low field epochs) can be distinguished. 142 Evolution temporelle du champ magnétique lunaire Chapitre 5 : Nouvelle évolution du champ magnétique lunaire 5 We provide six paleointensities in the 13-57 μT range, between 3.85 and 3.04 Ga. This confirms the existence of a surprisingly strong field with Earth-like intensity during the high field epoch. We obtain a lower value for 10017 (46.65±3.28 μT) than the value obtained (71 μT) by Suavet et al. (2013) and we considerate a magnetization age at 3.04 Ga due to the Ar/Ar plateau age obtained in his study. The result from 10017 (46.65±3.28 μT at 3.04±0.01 Ga) and even more the results from LAP 02205 (14.93±1.64 μT at 2.87±0.06 Ga) extend the high field epoch to younger ages than previously proposed by Tikoo et al. (2014). She advocated a steep decline of the lunar field between 3.56 Ga and 3.19 Ga mostly based on the weak paleointensity upper limits obtained for Mare basalts 15597 and 12022 (< 7 μT and < 4 μT, respectively). The pristine anorthosite 65315 provides an upper limit of 7 μT but has not been dated. Two samples in the high field epoch (dimict breccia 61015 at 3.81±0.04 Ga and IMR 65055 at 3.87±0.02 Ga) provide paleointensity upper limits of 7 to 11 μT. We have calculated the average paleointensities values between 4.5 and 3.5 Ga and between 4.5-2.9 Ga. We used paleointensities equal to zero (resp. equal to the upper limit itself) to derive a lower (resp. upper) bound for the average paleointensity. In the first interval, paleointensities values are ranging from 51±38 to 52±36 (n=12). In the second interval, values are ranging from 29±34 to 37±31 μT (n=29). These numbers suggests that the mean field during the 4.5-3.5 Ga interval may have been lower, around 50 μT, than the average paleointensities of ~70 μT proposed for this interval (Tikoo et al. 2014). The literature dataset may be biased towards strong paleointensity samples that may have been more likely to be selected for study in view of their high NRM. These very strong paleointensities in the 50 to 100 μT range may represent only the upper range of a variable field with lower values at 7 and 11 μT. These values remain remarkably high and do not solve the disagreement between dynamo modeling and paleomagnetic results. Over the 3.5-2.8 Ga interval, the average paleointensities ranges from 14±22 to 27±22 μT (n=17). These values are lower than the 50 μT value obtained in the previous interval (4.53.5 Ga). Our data, with upper limits of 7 to 22 μT obtained in the 3.8-3.2 Ga interval, and paleointensities in the 10 to 50 μT range in the 3.5-2.9 Ga interval, indicate that the lunar surface field may have had a relatively stable behavior over the whole period 4 Ga to 2.9 Ga, with a field intensity varying between < 4 μT and 100 μT. The theory of an intermittent dynamo has been advanced (Evans et al., 2017), which could also explain the lower values. But this < 4 μT-100 μT range may also simply represent the expected variability for a dynamo generated field. Such a wide range is observed in the Earth paleointensity record, with variation of the Earth Virtual Dipole Moment by a factor ~15 over the last 100 Myr (eg., Biggin et al. 2015). In the low field epoch, we obtain robust paleointensity estimates for regolith breccia 10018 indicating fields of 1.55±0.47 μT (AF methods, n=6) and 1.07±0.34 μT (ThellierThellier method, n=3) at 1.56±0.43 Ga. A paleointensity of ~2 μT is obtained from regolith breccia 15505 dated at 0.1±0.01 Ga. The future new radiometric age of 15505 (using 40Ar/39Ar) should validate this surprising result. Together with the literature dataset, a total of five paleointensity estimates in the 0.01 to 7.4 μT range is available in the low field epoch. The result on 15465 at 0.01±0.01 μT (Wang et al., 2017) is an outlier in this dataset, and the only one compatible with a remanent lunar surface field. The remaining four samples provide paleointensities that cannot be accounted by the lunar crustal field, as we know it today. Direct Evolution temporelle du champ magnétique lunaire 143 5 Chapitre 5 : Nouvelle évolution du champ magnétique lunaire surface field measurements at Apollo 12, 14, 15 and Apollo 16 landing sites gave local field intensities between 3 and 327 nT (Dyal et al., 1974), and electron reflectometry data show that most of the lunar surface has crustal field below 50 nT. In view of the kilometer scale spatial variability of the crustal field (Dyal et al., 1970; Dyal and Daily 1978) it is probable that the field may be locally stronger than this, but these strong fields have to be rare at the surface and it is unlikely that they can account for the paleointensities > 1 μT observed in four out of five Apollo rocks in this low field epoch. These four samples suggest that the lunar dynamo was still active in fairly recent geologic times (<2 Ga, and possibly even after 1 Ga), with surface fields of ~1 μT indicating a weak state of the dynamo compared to the period older than 3 Ga. Data are notably lacking between 3 Ga and 1.5 Ga, because volcanism is rare during this period, and regolith breccia from this period are unlikely to be preserved up to the present day because of surface reworking. Sample Age (Ga) error (Ga) 10017 10018 3.04 1.56 0.01 0.43 12012 15505 3.22 0.1 0.04 0.01 15529 14169 61195 NWA10782 LAP02205 3.18 3.85 3.41 2.87 0.004 0.03 0.43 0.06 Age (Ga) 3.17 3.17 3.30 3.81 3.87 error (Ga) 0.02 0.02 0.10 0.04 0.02 Sample 12005 12016 12021 61015 65315 65055 Method AF AF Thermal AF AF Thermal AF Thermal Thermal AF AF N 2 1 1 2 1 2 N Average paleointens ity (μT) 2 6 3 2 6 1 3 1 1 2 2 46.65 1.55 1.07 23.45 1.11 2.72 16.33 57.81 13.35 144.82 14.93 s.d (μT) 3.28 0.47 0.34 3.39 0.53 0.23 7.77 15.63 2.76 73.71 1.64 Paleofield (μT) < 11 < 15 < 22 < 11 <7 <7 Table 3: Paleointensities and upper limit results obtained. N is the number of values used for average for each Apollo rock. 144 Evolution temporelle du champ magnétique lunaire Chapitre 5 : Nouvelle évolution du champ magnétique lunaire 5 1000 Paleointensities (μT) 100 10 1 0.1 0.01 0.001 4.5 4 3.5 3 2.5 2 Age (Ga) 1.5 1 0.5 0 Figure 8: Paleointensities evolution with time (Ga). Open symbols come from literature data and dark symbols come from this study. Circles indicate paleointensities values, obtained by AF method; diamonds obtained by thermal method and rectangles indicates upper limits values. 5.2. Confronting dynamo models to the paleomagnetic dataset Dynamo generation models can be confronted to this increased paleointensity dataset. So far, the origin of the lunar dynamo has been attributed to either buoyancy or inertia forces. In the former case, dynamo is due to thermal convection, or thermo-solutal convection if a crystallizing inner core is present (Evans et al., 2017). In the latter case, it is due to mechanical stirring by impact (Le Bars et al., 2011) or precession (Dwyer et al., 2011). Simulations of convection driven dynamos are studied since Glatzmaier & Roberts (1995), with validated scaling laws to extrapolate them to planetary relevant parameters (Christensen and Aubert, 2006). These laws show that such dynamo fields are too weak for the high-field epoch, but are compatible with the low field epoch (Evans et al. 2017). By contrast, simulations of mechanically driven dynamo were scarce hitherto (Tilgner, 2005; Reddy et al., 2018), preventing reliable extrapolations to the Moon. Thus, scaling laws of convection driven dynamos have been tentatively adapted, giving fields too weak for the high-field epoch (Dwyer et al., 2011; Le Bars et al., 2011). However, many precession dynamos have been recently performed in spherical shells, confirming that the scaling laws remain elusive (Cébron et al., subm., https://arxiv.org/abs/1809.05330), preventing any predictions of early lunar surface field. Interestingly, these simulations exhibit strongly intermittent dynamos, with an energy varying of a factor 10-100 on 0.1-1 magnetic time (the lunar core magnetic time is ~200 years). These simulations also suggest that large-scale planetary magnetic fields are unlikely to be Evolution temporelle du champ magnétique lunaire 145 5 Chapitre 5 : Nouvelle évolution du champ magnétique lunaire produced by a precession dynamo in a spherical core. But this question remains open since planetary cores are not exactly spherical, and the relevant turbulent dissipation regime has barely been reached. The former point is key since a topographic coupling at the Core-Mantle Boundary does not vanish with vanishing viscosity. One can expect much larger dynamo fields in an ellipsoidal lunar core. To conclude, the low-field epoch is compatible with convection driven dynamos. Intermittent mechanical driven dynamo may explain the high-field epoch, provided higher field can be generated by turbulent dynamo simulations in ellipsoids. 6. Conclusion We conducted paleomagnetic analyses on twenty-seven lunar rocks totaling fifty-two samples and subsamples (fifty Apollo samples and two lunar meteorites). A stable ChRM was isolated in twenty-eight sub-samples. Paleointensity determinations (using both AF and thermal methods) provided ten paleointensity estimates. Six other samples provided only an upper limit for the paleointensity. All together this new dataset confirms the dichotomy between a high field epoch and a younger low field epoch for the Moon. However, it suggests that the high field epoch ended after 2.9 Ga, significantly younger than previously proposed, and that the average paleointensity over this period may have been significantly lower (< 70 μT) and the field more variable than previously thought. The weak field epoch, starting at least at 1.5 Ga is characterized by paleointensity of ~1 μT and may last even after 1 Ga. The transition between the end of the high field period (after 2.9 Ga) and the low field period (after 2 Ga) is currently not recorded in the paleointensity dataset. Lunar meteorites may offer the possibility to fill this gap in the knowledge of the lunar surface field. Recent dynamo simulations exhibit strongly intermittent dynamos, with an energy varying of a factor 10-100 on 0.1-1 magnetic times. This low-field epoch is compatible with convection driven dynamos. Acknowledgements This work was funded by the Agence Nationale de la Recherche (projet Maglune, ANR-14CE33-0012). The authors are grateful to Frédéric Moynier (IPGP Paris), Maud Boyet (LMV Clermont-Ferrand), Evelyn Furi (CRPG Nancy) and Ryan (Johnson Space Center, NASA, Houston) for the temporal allocation of all Apollo and lunar meteorites samples analyzed in this study. References Christensen, U. R., Aubert, J., 2006. Scaling properties of convection-driven dynamos in rotating spherical shells and application to planetary magnetic fields. Geophys. J. Int., 166, 97–114, doi:10.1111/j.1365-246X.2006.03009.x. Cournède, C., Gattacceca, J., Rochette, P., 2012. Magnetic study of large Apollo samples: possible evidence for an ancient centered dipolar field on the Moon. Earth Planet. Sci. Lett. 331–332, 31– 42. Dunlop, D. J., 2002a. Theory and application of the Day plot (Mrs/Ms versus Hcr/Hc): 1. Theoretical curves and tests using titanomagnetite data, J. Geophys. Res., 107(B3), 2056, doi:10.1029/2001JB000486. 146 Evolution temporelle du champ magnétique lunaire Chapitre 5 : Nouvelle évolution du champ magnétique lunaire 5 Dunlop, D. J., 2002b. Theory and application of the Day plot (Mrs/Ms versus Hcr/Hc): 2. Application to data for rocks, sediments, and soils, J. Geophys. Res., 107(B3), 2057, doi:10.1029/2001JB000487. Dyal, P., Parkin, C.W., Sonett, C.P., 1970. Apollo 12 magnetometer: Measurements of a steady magnetic field on the surface of the moon. Science 196, 762-764. Dyal, P., Parkin, C.W., Daily, W.D., 1974. Magnetism and the interior of the Moon. Rev. Geophys. Space Phys. 12. doi: 10.1029/RG012i0 04p0 0568. Dyal, P., Daily, W.D., 1978. Crustal magnetic scale sizes measured at Apollo landing sites. Lunar and Planetary Science IX, 273-275. Dwyer, C.A., Stevenson, D.J., Nimmo, F., 2011. A long-lived lunar dynamo driven by continuous mechanical stirring. Nature 479, 212–214. Enkin, R.J., Dunlop, D.J., 1988. The demagnetization temperature necessary to remove viscous remanent magnetization. Geophys. Res. Lett. 15, 514–517. Evans, A.J., Zuber, M.T., Weiss, B.P., Tikoo, S.M., 2014. A wet, heterogeneous lunar interior: lower mantle and core dynamo evolution. J. Geophys. Res., Planets 119, 1061–1077. Evans, A.J, Tikoo, S.M., Andrews-Hanna, J.C., 2017. The case against an early lunar dynamo powered by core convection. Geophys. Res. Lett. 45, 98-107. doi: 10.1002/2017GL075441. Fernandes V. A., Burgess R., Morris A., 2009. 40Ar-39Ar age determinations of lunar basalt meteorites Asuka 881757, Yamato 793169, Miller Range 05035, LaPaz Icefield 02205, Northwest Africa 479, and basaltic breccia Elephant Moraine 96008. Meteoritics & Planetary Science 44, 805–821. Fuller, M., Cisowski, S.M., 1987. Lunar paleomagnetism. Geomagnetism 2, 307–455. Gattacceca, J., Rochette, P., 2004. Toward a robust normalized magnetic paleointensity method applied to meteorites. Earth Planet. Sci. Lett. 227, 377–393. Garrick-Bethell, I., Weiss, B.P., Shuster, D.L., Buz, J., 2009. Early lunar magnetism. Science 323, 356– 359. Glatzmaier, G.A, Roberts, P.H., 1995. A three-dimensional convective dynamo solution with rotating and finitely conducting inner core and mantle. Physics of the Earth and Planetary Interiors 91, 6375. Hood, L.L., Russell, C.T., Coleman Jr., P.J., 1981. Contour maps of lunar remanent magnetic fields. J. Geophys. Res. 86, 1055–1069. Hood, L.L., Artemieva, N.A., 2008. Antipodal effects of lunar basin-forming impacts: initial 3D simulations and comparisons with observations. Icarus 193, 485–502. doi: 10.1016/j.icarus.2007.08.023. Hood, L., et al. , 2011. Initial mapping and interpretation of lunar crustal magnetic anomalies using lunar prospector magnetometer data. J. Geophys. Res. 106, 27825–27839. Kirschvink, J.L., 1980. The least-squares line and plane and the analysis of palaeomagnetic data. Geophys. J. Roy. Astron. Soc. 62, 699–718. Le Bars, M., Wieczorek, M.A., Karatekin, Ö., Cébron, D., Laneuville, M., 2011. An impact-driven dynamo for the early Moon. Nature 479, 215–218. Lepaulard, C., Gattacceca, J., Uehara, M., Rochette, P., Quesnel, Y., Macke, R., Kiefer, W., 2018. A survey of the lunar remanent magnetization and magnetic susceptibility of Apollo whole rocks. Submitted in Physics of the Earth and Planetary Interiors. Mercer, C.M., Young, K.E., Weirich, J.R., Hodges, K.V., Jolliff, B.L., Wartho, J-A., Soest, M.C., 2015. Refining lunar impact chronology through high spatial resolution 40Ar/39Ar dating of impact melts. Sci. Adv.1, 1:e1400050. doi: 10.1126/sciadv.1400050. Evolution temporelle du champ magnétique lunaire 147 5 Chapitre 5 : Nouvelle évolution du champ magnétique lunaire Meyer, C., 2012. The Lunar Sample Compendium (online). /http://www-curator. jsc.nasa.gov/lunar/compendium.cfmS. Muxworthy, A.R., Heslop, D., Paterson, G.A., Michalk, D., 2011. A Preisach method for estimating absolute paleofield intensity under the constraint of using only isothermal measurements: 2. Experimental testing. J. Geophys. Res. 116, B04103, doi:10.1029/2010JB007844. Newsom, H.E., 1984. The lunar core and the origin of the Moon. EOS 65, 22, 369-370. Prunier, A. R., Hewitt, D.A., 1981. Calculation of temperature-oxygen fugacity tables for H2-CO2 gasmixtures at one atmosphere total pressure-Summary, Geol. Soc. Am. Bull., 92(7), 414–416. Reddy, K.S., Favier, B., Le Bars, M., 2018. Turbulent kinematic dynamos in ellipsoids driven by mechanical forcing. Geophys. Res. Lett. 45, 1741-1750. DOI: 10.1002/2017GL076542. Rochette, P., Gattacceca, J., Ivanov, A.V., Nazarov, M.A., Bezaeva, N.S., 2010. Magnetic properties of lunar materials: meteorites, Luna and Apollo returned samples. Earth Planet. Sci. Lett. 292, 383– 391. Stephenson, A., Collinson, D.W., 1974. Lunar magnetic field paleointensities determined by an anhysteretic remanent magnetization method. Earth Planet. Sci. Lett. 23, 220–228. Stöffler D., Keil K., and E.R.D. Scott. 1991. Shock metamorphism of ordinary chondrites. Geochimica et Cosmochimica Acta 55, 3845-3867. Stöffler, D., Ryder, G., Ivanov, B.A., Artemieva, N.A., Cintala, M.J., Grieve, R.A.F., 2006. Cratering history and lunar chronology. Rev. Mineral. Geochem. 60, 519–596. Suavet, C., Weiss, B. P., and Grove, T. L., 2014. Controlled-atmosphere thermal demagnetization and paleointensity analyses of extraterrestrial rocks. Geochem. Geophys. Geosyst., 15, 2733–2743, doi:10.1002/2013GC005215. Thellier, E., Thellier, O., 1959. Sur I'intensité du champ magnétique terrestre dans le passé historique et géologique. Ann. Geophys. 15, 285–376. Tikoo, S. M., Weiss, B. P., Cassata, W., Shuster, D. L., Gattacceca, J., Lima, E. A., Suavet, C., Nimmo, F., and Fuller, M., 2014. Decline of the lunar core dynamo. Earth Planet. Sci. Lett., 404, 89–97. Tikoo, S. M., Weiss, B.P., Shuster, D.L., Suavet, C., Wang, H., Grove, T.L., 2017. A two-billion-year history for the lunar dynamo, Sci. Adv., 3, e1700207, doi:10.1126/sciadv.1700207. Tikoo, S.M., Weiss, B.P., Buz, J., Lima, E.A., Shea, E.K., Melo, G., Grove, T.L., 2012. Magnetic fidelity of lunar samples and implications for an ancient core dynamo. Earth Planet. Sci. Lett. 337–338, 93–103. Tilgner, A., 2005. Precession driven dynamo. Physics of fluids 17, 034104. doi: 10.1063/1.1852576. Wang, H., Mighani, S., Weiss, B.P., Shuster, D.L., Hodges, K.V., 2017. Lifetime of the lunar dynamo constrained by young Apollo returned breccias 15015 and 15465. Lunar and Planetary Science 48th. Weber, R.C., Lin, P.Y., Garnero, E.J., Williams, Q., Lognonné, P., 2011. Seismic detection of the lunar core. Science 331, 309–312. Weiss, B. P., and Tikoo, S. M., 2014. The lunar dynamo. Science, 346, doi:10.1126/science.1246753. Wieczorek, M.A., Jolliff, B.L., Khan, A., Pritchard, M.E., Weiss, B.P., Williams, J.G., Bussey, B., 2006. The constitution and structure of the lunar interior. In: Jolliff, B.L., Wieczorek, M.A., Shearer, C.K., Neal, C.R. (Eds.), Rev. Mineral. Geochem.60, 221–364. Yu, Y., Tauxe, L,. Genevey, A., 2004. Toward an optimal geomagnetic field intensity determination technique. Geochem. Geophys. Geosyst. 5, 2, Q02H07, doi:10.1029/2003GC000630. 148 Evolution temporelle du champ magnétique lunaire Chapitre 5 : Nouvelle évolution du champ magnétique lunaire 5 Supplementary material Table S1 Sample (bulk) Mass (g) VRM contribution (%) 10018 12005.0 12021.0 14169,0-A 14169,0-B 15505,0-A 15505,0-B 15529.0 61195.0 65055,4-A 65055,4-B 65055,4-C 2.3 2.1 2.28 0.96 1.15 1.83 0.37 2.09 2.09 2.27 1.11 0.70 24 0.11 16 5 1 - Table S1 : Parameters of magnetic properties. VRM contribution is estimate by the ratio of the maximum rate of ending VRM on the NRM value. Some samples, noted -, have no results or were not measured. Table S2 Sample Age (Ga) Error age (Ga) 10017 10020 10049 12002 12008 12009 12017 12022 14053 15015 15016 15465 15498 15556 15597 70017 70215 71505 3.04 3.72 3.56 3.21 3.03 3.11 3.19 3.05 3.85 1 3.31 1.19 1.32 3.33 3.30 3.72 3.75 3.85 0.01 0.01 0.01 0.06 0.07 0.07 0.07 0.04 0.05 0.02 0.08 0.14 0.43 0.10 0.20 0.12 0.04 0.04 Paleointe nsity (μT) 71 66 77 50 7 7 37 4 20 0.40 37 0.01 5 75 7 42 20 95 Error max (μT) 71 66 77 50 20 0.50 0.01 2 - Error min (μT) 35.50 33 38.50 25 10 0.20 0.01 2 - 42 20 95 21 10 47.50 Method sIRM sIRM sIRM sIRM Upper limit Upper limit Upper limit Upper limit sIRM Th-Th Upper limit ARM Th-Th Upper limit Upper limit sIRM sIRM sIRM References [1] [2] [1] [3] [4] [4] [5] [6] [3] [7] [5] [7] [8] [5] [6] [3] [3] [3] Lithology basalt basalt basalt basalt basalt basalt basalt basalt basalt regolith breccia basalt regolith breccia regolith breccia basalt basalt basalt basalt basalt Evolution temporelle du champ magnétique lunaire 149 5 Chapitre 5 : Nouvelle évolution du champ magnétique lunaire 71567 74275 76535 3.75 3.85 4.19 0.10 0.08 0.02 111 28 92.5* 111 28 92.50 55.50 14 46.25 sIRM sIRM sIRM [3] [3] [9] basalt basalt feldspathic rock Table S2: sIRM and ARM errors are calculated based on the factor 2 obtained with PARM and PIRM methods (see text). Value with asterick is an average of values in Garrick-Bethell 2009 and 2017. [1] Suavet et al. (2013) [2] Shea et al. (2012) [3] Cournède et al. (2012) [4] Tikoo et al. (2017b) [5]Tikoo et al. (2012) [6] Tikoo et al. (2014b) [7] Wang et al. (2017) [8] Tikoo et al. (2017a) [9] Garrick-Bethell et al. (2017) S1. Sample preparation After magnetic measurement in laboratory, each bulk sample was fixed with low temperature wax on an aluminum plot to be cut with a diamond wire saw lubricated with ethanol (Figure S1, left) down to subsample size around 3x3x3 mm or smaller depending on the NRM intensity of the original bulk sample. All subsamples were mutually oriented. Bulk sample 10018 (2.3 g) B A C Sample 10018-B Sample 10018-B1 (140 mg) D a 1 b 2 3 mm 3 4 N Down 3 mm N N E E E Down Down Figure S1: Preparation of bulk sample 10018. After cutting, subsamples were fixed with wax on a quartz disk for AF demagnetization or placed into a quartz cylinder and for thermal demagnetization. S.2 Microscopy analyze of nine thin section We present pictures of thin sections of our nine samples (Figure S2). Basalt 15529 (Figure S2f) contains troilite grains, which contain small metallic iron. This antiferromagnetic mineral troilite (FeS) is known to alter during thermal heating (Garrick-Bethell and Weiss, 2010). It could explain why AF demagnetization provided HC components in samples 15529-A2 and 15529-B2 whereas thermal demagnetization failed to isolate a stable HT component (samples 15529-C1 and C2). Two textures are shown into the dimict breccia 61015 (Figure S2-g). A 150 Evolution temporelle du champ magnétique lunaire Chapitre 5 : Nouvelle évolution du champ magnétique lunaire 5 melt matrix vein is included into crystallized matrix. Regolith breccia 61195 (Figure S2-h) has broken minerals, which are not well distinguishable from the matrix. a) Regolith breccia 10018 b) Basalt 12005 c) Basalt 12021 d) Impact melt breccia 14169 e) Regolith breccia 15505 f) Basalt 15529 Evolution temporelle du champ magnétique lunaire 151 5 Chapitre 5 : Nouvelle évolution du champ magnétique lunaire g) Dimict breccia 61015 h) Regolith breccia 61195 i) Impact melt rock 65055 Figure S2: Detailed pictures obtained of the nine thin sections (a, i) View is in natural light and red arrows indicate yellow troilite grains, which contain metallic iron inside (white grains). Scale bar is in white on each picture. S.3 39Ar/40Ar dating We present complementary information for the dating of two Apollo samples: 12005 and 15529. S3a: 12005 Both splits of this sample produced disturbed release-spectra. Release-spectra for samples 22934 22936 are defined by 19-steps and 13-steps, respectively. The release pattern is indicative of Ar-loss. Neither sample split meets the criteria commonly used to describe/define a plateau. The high temperature steps, however suggest that age of sample 12005 is older that ~2.8 Ga. When cast on an isotope correlation diagram the low temperature steps indicate absorption of terrestrial atmospheric Ar. The higher temperature steps indicate that the 36Ar is dominated by a cosmogenic source. This sample may not be readily datable. 152 Evolution temporelle du champ magnétique lunaire Chapitre 5 : Nouvelle évolution du champ magnétique lunaire 5 Figure S3a: Isochron for Sample 12005. S3b: 15529 This sample produced a disturbed release-spectra, defined by 45-steps. A 29-step plateau age of 3175 ±4 Ma, however is defined by the mid-to-high temperature steps and is made up of ~62% of the total 39ArK released. The integrated/total fusion age is 3091 ±10 Ma. These ages are calculated assuming a nebular 40Ar/36Ar value of 1x10-4 for the trapped component (Table S3a). Table S3a: Summary the plateau and integrated age data. Sample ID 15529 22938 15529 22933 J ±1s 2.13x10-2 5.0x10-5 2.13x10-2 5.0x10-5 Integ. Age (Ma) Erro r 3091 3203 10 16 Table S3b : Summary of isochron results Sample Run ID Age (Ma) ±1s 15529 22938 3163.06 6.8 15529 22933 3215.5 34 40 Plat. Age (Ma) 3175 3222 ±1s 5 8 MSW D Steps 1.1 K-AM 0.9 N-Z nsteps 29 13 n-tot % Gas 45 27 61.7 51.7 Ar/36Artr ±1s MSWD n 0.4 0.04 1.247 36 0.4 0.1 0.177 13 When cast on an isotope correlation diagram (Figure S3a), the first 9-steps are notable in that they do not lay on the linear array defined by the remaining 36-steps. The remaining steps form a well-defined array that corresponds to age of 3163±6 Ma and indicates a 40Ar/36Ar ratio of 0.33±0.04 for the "trapped" Ar component (Table S3b). The 9-low temperature steps lie along an array that indicates an isochron age of 1656±60 Ma and an initial 40Ar/36Ar ratio of 64±3. The cause of the displacement of the low-temperature array from the high-temperature array is not clear at this time. However, when the isotope data are cast on a 37ArCa/36Ar by 38Ar/36Ar isotope correlation diagram (Figure S3b) the 38Ar/36Ar ratios cluster about a value of 1.6, making it clear that the 38Ar and 36Ar in the trapped component is cosmogenic in origin, not terrestrial. Evolution temporelle du champ magnétique lunaire 153 5 Chapitre 5 : Nouvelle évolution du champ magnétique lunaire Figure S3b: Isochron for Sample 15529. S.4 Demagnetization of the NRM We present here the demagnetization data for all samples analyzed in laboratory. 154 Evolution temporelle du champ magnétique lunaire Chapitre 5 : Nouvelle évolution du champ magnétique lunaire A2) 10018-B1a (68 mg) A1) 10018-A2b (58 mg) -8 W Up x10 Am N W S HT HT NRM E x10-9 Am2 560 340 N x10-8 Am2 630 A3) 10018-B1b (68 mg) N Up x10-9 Am2 2 5 W Up x10-9 Am2 E x 10-9 Am2 630 460 HT 225 200 NRM 200°C 100 °C LT LT LT NRM NRM S Down 100 °C S Down E Down A5) 12021-A1 (287 mg) A4) 12005-C1 (198 mg) A6) 14169-B1a (129 mg) W Up x10-10 Am2 N Up x10-9 Am2 N Up x10-9 Am2 NRM NRM NRM LT 500 N x10-10 Am2 S LT 200°C W 450 250°C E x10-9 Am2 HT 200°C LT E x10-9 Am2 W NRM NRM 580 S Down W Up x 10 Am S Down A9) 15529-C2 (381 mg) A8) 61195-A1a (129 mg) A7) 15505-A3b (213 mg) -8 NRM E Down N 2 N Up x10-8 Am2 Up x 10-9 Am2 NRM NRM NRM LT 520 580 W 100°C 450 LT HT 250 S W 200°C E x10-8 Am2 NRM NRM NRM 580 -8 N x 10 Am 360 580 200°C LT HT E x 10-9 Am2 2 S Down E Down S Down A11) 15529-C1 (438 mg) A12) 65055-A1 (387 mg) N Up x10-9 Am2 N Up x10-9 Am2 A10) 61015-B2 (279 mg) 280°C W NRM Up x10-9 Am2 NRM LT LT 250 S 500 540 150°C 150°C 250°C 480 LT W N x10-9 Am2 E x10-9 Am2 NRM NRM NRM E Down 580 W NRM E x10 Am -9 S Down 2 S Down Evolution temporelle du champ magnétique lunaire 155 5 Chapitre 5 : Nouvelle évolution du champ magnétique lunaire B1) 10003 (74 mg) B2) 10017 (550 mg) N N Up x10-10 Am2 LC NRM B3) 10018-A2a (145 mg) Up x 10 Am -9 N W 8 mT NRM E x10 Am -8 2 B5) 10018-C1 (132 mg) Up x 10-8 Am2 W N Up x10-8 Am2 E x 10-8 Am2 E x10-8 Am2 W 80 220 140 NRM HC LC NRM HC 22 40 NRM HC 20 10 HC 2 mT B4) 10018-B4 (80 mg) N Up x10-8 Am2 2 NRM 7 5 mT 17 E x10-10 Am2 W 60 5 mT 100 W E x 10 Am -9 2 5 mT LC LC NRM S Down LC NRM NRM S Down B6) 12005-B2 (169 mg) N Up x10 Am -9 100 W B8) 12005-B4 (145 mg) B7) 12005-B3 (134 mg) 2 4 S Down B9) 12012 (290 mg) N Up x10-9 Am2 W Up x10-9 Am2 E x10-9 Am2 NRM S Down S Down B10) 12016 (340 mg) Up x 10-9 Am2 N NRM NRM W Up x10-9 Am2 N x10-9 Am2 S 2 mT NRM 2 mT 5 mT E x10-9 Am2 W LC N x10-9 Am2 S LC 6 mT 14 NRM 7 mT HC LC NRM LC W E x 10-9 Am2 NRM E Down LC NRM NRM S Down -8 W E x10 Am S Down N Up x 10-9 Am2 N Up x10-9 Am2 N Up x10-9 Am2 2 B15) 14169-B2a (73 mg) B14) 14078 (26 mg) 3 mT LC LC 2 E x10-9 Am2 NRM NRM W E x10 Am E x10-10 Am2 W 7 mT LC N Up x10 Am N Up x10-9 Am2 4 LC LC NRM LC W 44 E x10-9 Am2 W E x10-8 Am2 HC HC E x10-9 Am2 5 mT 45 NRM N N NRM Down 100 B25) 61015-B6 (55 mg) N Up x10 Am -9 E x10-9 Am2 W 2 NRM 16 mT 160 W E x10 -10 Am B26) 60215 (61 mg) 2 4 mT LC NRM 6 3 mT S Down S Down N Up x10 Am -9 E x10-9 Am2 Up LC N x10 Am S Down E Down B30) 65055-B2 (279 mg) B29) 62255 (295 mg) B28) 61195-B3 (225 mg) -9 NRM NRM S 2 7 mT 100 LC 4 mT W Down NRM B27) 61195-B1 (253 mg) N x10-10 Am2 S E x10-9 Am2 W LC LC S Down W Up x10-10 Am2 NRM NRM HC LC NRM NRM NRM E x10-9 Am 2 W Up x10-9 Am2 N S N x10-9 Am2 NRM Up x10-10 Am2 100 S Down NRM B24) 61015-B3 (87 mg) Up x10-9 Am2 17 N E Down x 10-8 Am2 B23) 60015 (820 mg) LC B21) 15529-B2 (352 mg) S S Down B22) 15555 (59 mg) HC 19 100 W E x 10-9 Am2 100 44 NRM HC LC 120 S Down 8 NRM W 4 mT 9 mT 90 16 NRM 3 mT N Up x 10-9 Am2 NRM NRM NRM B20) 15529-A2 (434 mg) B19) 15505-A3c2 (187 mg) W Up x 10-8 Am2 2 8 mT NRM S Down B18) 15505-A2a (96 mg) B17) 15505-A1b (80 mg) Down S S Down NRM -8 NRM NRM S Down B16) 14169-B2b (118 mg) 3 13 NRM NRM E x 10-9 Am2 W 2 5 mT Down LC 6 -9 170 mT N Up x10-9 Am2 Up x10-10 Am2 N NRM W NRM NRM 5 S Down B13) 12021-C (220 mg) B12) 12021-B1 (533 mg) N Up x10-8 Am2 LC NRM NRM Down E B11) 12018 (996 mg) S B31) 65055-C (699 mg) N Up x10-9 Am2 N Up x10-9 Am2 2 W Up x10-10 Am2 NRM NRM NRM NRM 100 LC W 4 4 mT E x10-9 Am2 9 E W Down S E x10-9 Am2 W NRM LC E x10-9 Am2 W 5 N x10-10 Am2 Up x10-9 Am2 LC 4 mT LC 2 mT 100 NRM S Down NRM NRM S NRM E Down 156 Evolution temporelle du champ magnétique lunaire 100 mT S Down NRM S Down Chapitre 5 : Nouvelle évolution du champ magnétique lunaire B32) 65315 (161 mg) W B33) 70017 (578 mg) Up x10-10 Am2 B34) 70135 (107 mg) NRM LC 24 9 mT N x10-10 Am2 NRM W 100 mT W E x10-9 Am2 Down Up NRM W E Down Up x10-9 Am2 LC N Up x10 Am E Down S E Down B37) 75075 (217 mg) B39) NWA10782 (42 g) B38) LAP02205 (219 mg) W Up x10-9 Am2 2 N x10-9 Am2 NRM S -10 5 mT NRM S NRM B36) 74275 (358 mg) LC 2 LC NRM N W 100 7 mT N Up x10-6 Am2 Up x 10-9 Am2 E x 10-9 Am2 NRM NRM S W E x10 Am 6 mT HC LC 2 LC 70 N x10-9 Am2 LC -10 Up x10-9 Am2 NRM 11 mT S B35) 74255 (221 mg) N x10-9 Am2 N x10-9 Am2 5 NRM NRM 12 mT NRM S Down 20 HC LC NRM E Down NRM W 2 S Down 100 38 E x10-6 Am2 NRM S Down Figure S4: NRM demagnetization data. Orthogonal projection plots of stepwise alternating field demagnetization data. Dark symbols represent the projection into the horizontal plane (N-E or W-N) and open symbols into the vertical plane (Up-E or Up-N). (A1-A12) NRM vector of twelve samples during thermal demagnetization. Low thermal (LT) and high thermal (HT, when existing) magnetization components are labeled and represented with light gray and dark gray arrows respectively. (B1-B39) NRM vector of thirty-nine samples during AF demagnetization. Low coercivity (LC) and high coercivity (HC, when existing) magnetization components are labeled and represented with light gray and dark gray arrows respectively. S.5 Paleointensity fidelity parameters Figure S5: Retrieved paleointensities and paleointensity fidelity limit tests, performed in CEREGE (blue curves) and in Rutgers (purple curves). Recovered paleointensities (left) versus applied laboratory field (μT) for a) two basalt 12005; b) two basalt 12021; c) two dimict breccia 61015 and d) two impact melt rock 65055. R2 value is noted. Difference (middle) and error (right) for retrieved paleointensities versus applied laboratory field (μT) for the same sample. The dashed horizontal line represents the 100% difference (error) between the applied field and the retrieved paleointensity (see text). Evolution temporelle du champ magnétique lunaire 157 Retrived paleointensity (μT) Retrived paleointensity (μT) 0 10 R2 = 0.489 158 Evolution temporelle du champ magnétique lunaire 0 50 100 150 200 0 10 b) Basalt 12021 0 20 40 60 80 100 30 12005,B3 40 20 30 Applied laboratory field (μT) 12021,B1 Applied laboratory field (μT) 20 12005,B4 40 50 Difference (%) 50 R2 = 0.094 R2 = 0.018 12021,C R2 = 0.964 0% 50% 100% 150% 200% 250% 300% 350% 400% Difference (%) a) Basalt 12005 0% 200% 400% 600% 800% 1000% 1200% 1400% 0 0 10 10 12005,B3 12021,C 20 30 Applied laboratory field (μT) 12021,B1 20 30 Applied laboratory field (μT) 12005,B4 40 40 50 Error (%) 50 0 0% 200% 400% 600% 800% 1000% 1200% 0% 50% 100% 150% 200% 250% 300% 350% 400% 450% Error (%) 0 10 10 12005,B3 12021,C 20 30 Applied laboratory field (μT) 12021,B1 20 30 Applied laboratory field (μT) 12005,B4 40 40 50 50 5 Chapitre 5 : Nouvelle évolution du champ magnétique lunaire Retrived paleointensity (μT) Retrived paleointensity (μT) 0 10 0 10 20 30 40 50 0 10 61015,B3 20 30 Applied laboratory field (μT) 65055,C 65055,B2 20 30 Applied laboratory field (μT) d) Impact melt rock 65055 0 20 40 60 61015,B6 40 40 50 R2 = 0.142 R2 = 0.186 50 R2 = 0.045 R2 = 0.989 Difference (%) Difference (%) c) Dimict breccia 61015 0 0% 50% 100% 150% 200% 250% 300% 350% 400% 450% 500% 0% 50% 100% 150% 200% 250% 0 10 10 65055,B2 20 30 Applied laboratory field (μT) 65055,C 20 30 Applied laboratory field (μT) 61015,B6 40 40 61015,B3 50 50 Error (%) Error (%) 80 0% 20% 40% 60% 80% 100% 120% 140% 160% 0% 50% 100% 150% 200% 250% 0 0 10 10 65055,B2 20 30 Applied laboratory field (μT) 65055,C 20 30 Applied laboratory field (μT) 61015,B6 40 40 61015,B3 50 50 Chapitre 5 : Nouvelle évolution du champ magnétique lunaire 5 Evolution temporelle du champ magnétique lunaire 159 5 Chapitre 5 : Nouvelle évolution du champ magnétique lunaire 160 Evolution temporelle du champ magnétique lunaire Conclusion générale Conclusion générale Ce travail de thèse a consisté en l'analyse des propriétés magnétiques d'échantillons lunaires (collection Apollo et météorites) afin de mieux comprendre l'évolution du champ magnétique lunaire au cours du temps. En particulier, le manque de données après 3 Ga ne permettait pas de bien contraindre l'intensité du champ pour la période 3 Ga-1 Ga, ni l'âge de l'arrêt de la dynamo lunaire. A travers l'étude de l'aimantation rémanente naturelle et de la susceptibilité magnétique de 161 roches Apollo, nous avons pu enrichir les bases de données sur les propriétés magnétiques des roches lunaires. Nos valeurs d'aimantations, mesurées sur des échantillons de masse moyenne de 500g se révèlent plus représentatives que les valeurs classiquement obtenues sur de petits échantillons (100 mg) qui surestiment les valeurs d'aimantations d'un facteur 3. Ces nouvelles données d'aimantation sont donc plus appropriées pour alimenter les interprétations des anomalies magnétiques lunaires. Les données de la susceptibilité magnétique ont montré une dépendance à la lithologie, les roches impactées étant plus magnétiques que les roches feldspathiques. Cela confirme que les processus d'impact lunaire sont le principal facteur contrôlant la quantité de minéraux ferromagnétiques dans les roches lunaires, avec signal magnétique plus fort dû à l'incorporation de métal météoritique. Enfin, le rapport de la NRM sur la susceptibilité a permis de tester un critère de détermination grossier de la paléointensité afin de sélectionner des échantillons pour des analyses en laboratoire. Un nouveau jeu d'échantillons lunaires a été demandé afin de compléter cette étude, sur des échantillons (10016, 12010, 14305, 66035 et 15505) qui présentaient de fortes valeurs de NRM/X et donc, potentiellement, de fortes paléointensités, à des âges variés. La seconde étude a permis de déterminer des valeurs de paléointensités à partir de 25 roches Apollo et 2 météorites lunaires. Un système de chauffes sous fugacité d'oxygène contrôlée a été développé au laboratoire de magnétisme des roches du CEREGE afin de limiter l'altération des échantillons lunaires lors de l'utilisation de protocoles de détermination de paléointensité de type Thellier-Thellier. Nous avons vu également dans ce travail de thèse que la connaissance de l'âge d'aimantation de la roche est très importante pour contraindre l'évolution du champ magnétique lunaire. C'est pourquoi des datations récentes et plus précises sont nécessaires, comme celles réalisées sur 5 échantillons lunaires lors de ce travail. Un total de 10 nouvelles données de paléointensités et de 6 valeurs de limites supérieures a été obtenu. Parmi elles, deux paléointensités ont été obtenues sur deux météorites lunaires, montrant qu'il est possible d'obtenir de nouveaux jeux de données et ouvre la voix vers l'analyse de nouveaux types d'échantillons. Ces nouvelles données, associées à celles de la littérature récente, confirment la dichotomie entre une époque de champ magnétique lunaire fort et une époque plus jeune de champ magnétique plus faible. Ces données suggèrent que l'époque de champ fort a duré plus longtemps que précédemment proposé, jusqu'à 2,9 Ga environ (au lieu de 3,56 Ga) et avec un champ moyen plus faible que précédemment proposé (50 μT contre 70 μT). La variabilité des intensités dans cette époque est également forte, les valeurs allant de <7 μT à 100 μT. Des simulations récentes de dynamo proposent une dynamo intermittente dont l'énergie produite varie d'un facteur 10 à 100, pouvant expliquer les variations d'intensités obtenues dans l'époque de champ fort par exemple. Evolution temporelle du champ magnétique lunaire 161 Conclusion générale L'époque de champ faible débute entre 2,9 Ga et 1,5 Ga et persiste peut-être jusqu'à des périodes récentes (datations en cours) avec une paléointensité moyenne de 1,5 μT. Ce champ faible mais long peut être expliqué par une dynamo de précession et par une dynamo convective de type thermochimique. Concernant les modèles de dynamo, des améliorations sont attendues sur les paramètres de bases utilisés lors des modélisations. Par exemple, la simulation d'une dynamo mécanique à partir d'une géométrie non sphérique permettrait de tester les intensités de champ magnétiques produits en surface (génération d'un champ plus fort ?). De plus, les incertitudes liées à l'intérieur de la Lune et à son évolution thermique sont un frein pour les obtenir des prédictions précises de la fin de la dynamo lunaire. De nombreuses études sont encore à prévoir afin d'avoir suffisamment de données fiables et des modèles de dynamo complets afin de comprendre l'évolution de l'ancien champ magnétique lunaire. 162 Evolution temporelle du champ magnétique lunaire BIBLIOGRAPHIE BIBLIOGRAPHIE Evolution temporelle du champ magnétique lunaire 163 BIBLIOGRAPHIE A Arai, T., Takeda, H., Yamaguchi, A., and Ohtake, M., 2008. A new model of lunar crust: asymmetry in crustal composition and evolution. Earth Planets Space 60, 433-444. Arkani-Hamed, J., and D., Boutin, 2017. South Pole Aitken Basin magnetic anomalies: Evidence for the true polar wander of Moon and a lunar dynamo reversal. J. Geo. Res. 122, 1195-1216. B Baek, S.-M., Kim, K.H., Garrick-Bethell, I., Jin, H., Lee, H.J., and J.-K. Lee, 2017. Detailed study of the Mare Crisium northern magnetic anomaly. J. Geo. Res. Planets, 122, 411– 430,doi:10.1002/2016JE005138. Banerjee, S.K., and J.P., Mellema, 1974b. Lunar paleointensity from three Apollo 15 crystalline rocks using an ARM method. Earth Planet. Sci. Lett. 23, 185-188. Banerjee, S.K., and J.P., Mellema, 1976a. Early lunar magnetism. Nature 260, 230-231. Banerjee, S. K. and J.P., Mellema, 1976b. A solar origin for the large lunar magnetic field at 4.0 billion yr ago. Lunar Science Conference, 7th, 3259-3270. Banerjee, S.K., 1977. Lunar and meteoritic paleomagnetism : common origin contested. Nature 266, 381-382. Biggin, A.J., Piispa, E.J., Pesonen, L.J., Holme, R., Paterson, G.A., Veikkolainen, T., and L., Tauxe, 2015. Palaeomagnetic field intensity variations suggest Mesoproterozoic inner-core nucleation. Nature letter 526, 245-248, doi:10.1038/nature15523. Ben-Yosef, E., Ron, H., Tauxe, L., Agnon, A., Genevey, A., Levy, T.E., Avner, U., and M. Najjar, 2008. Application of copper slag in geomagnetic archaeointensity research. J. Geophys. Res., 113, B08101, doi:10.1029/2007JB005235. Benz, W., Slattery, W. L. and A.G.W., Cameron, 1986. The origin of the Moon and the single impact hypothesis I. Icarus 66, 515-535. Benz, W., Cameron, A.G.W., and H.J., Melosh, 1989. The origin of the Moon and the single impact hypothesis III. Icarus 81, 113-131. C Cameron, A. G. W., 1997. The origin of the Moon and the single impact hypothesis V. Icarus 126, 126-137. Canup, R.M and Asphaug, E., 2001. Origin of the Moon in a giant impact near the end of the Earth's formation. Letters to nature, 412. Canup, R.M., Barr, A.C., and Crawford, D.A., 2013. Lunar-forming impacts : high-resolution SPH and AMR-CTH simulations. Icarus 222, 200-219. Carley, R.A., Whaler, K.A., Purucker, M.E., and J.S., Halekas, 2012. Magnetization of the lunar crust. J. Geo. Res. 117, doi:10.1029/2011JE003944. 164 Evolution temporelle du champ magnétique lunaire BIBLIOGRAPHIE Chao E. C. T., Boreman J. A., and Desborough G. A., 1971. Unshocked and shocked Apollo 11 and 12 microbreccias: Characteristics and some geologic implications. Proc. Lunar Sci. Conf. 2nd, pp. 797–816. Citron, R.I, Aharonson, O., Perets, H., Genda, H., 2014. Moon formation from multiple large impacts. Lunar and planetary science conference 45th. Cisowski, S. M., Dunn, J. R., Fuller, M., Wu, Y., Rose, M. F. and P., Wasilewski, 1976. Magnetic Effects of Shock and their Implications for Lunar Magnetism. Proc. 7th Lunar Plan. Sci. Conf. 3, 3299-3320. Cisowski, S.M., Collinson, D.W., Runcorn, S.K., Stephenson, A., and M., Fuller, 1983. A review of lunar paleointensity data and implications for the originof lunar magnetism. J. Geophys. Res. 88, 691–704. Collinson, D. W., Stephenson, A., and S. K. Runcorn, 1973. Magnetic studies of Apollo 15 and 16 rocks. Proc. Lunar Sci. Conf., 4th, 3, 2963–2976. Collinson, D. W. and A., Stephenson, 1977. Palaeointensity Determinations of Lunar Samples. Phys. Earth Plan. Int. 13, 380-385. Collinson, D.W., 1993. Magnetization of the Moon – a lunar core dynamo or impact magnetization ? Surveys in Geophysics 14, 89-118. Connelly, J.N., and Bizzarro, M., 2016. Lead isotope evidence for a young formation age for the Earth-Moon system. Earth Planet. Sci. Lett. 452, 36-43. Cournède, C., Gattacceca, J., and P., Rochette, 2012. Magnetic study of large Apollo samples: possible evidence for an ancient centered dipolar field on the Moon. Earth Planet. Sci. Lett. 331-332, 31-42. doi:10.1016/j.epsl.2012.03.004. D Daily, W. D. and P., Dyal, 1979. Theories for the Origin of Lunar Magnetism. Phys. Earth Plan. Int. 20, 255-270. Int. 20, 255-270. Day, R., Fuller, M., and V.A., Schmidt, 1977. Hysteresis properties of titanomagnetites : grain-size and compositional dependence. Physics of the Earth and Planetary Interiors 13, 260-267. Dunlop, D.J., and Ö. Özdemir, 1997. Rock Magnetism: Fundamentals and Frontiers. Cambridge Studies in Magnetism (Cambridge Univ. Press, 1997), pp. 573. Dunn, J. R., and M. Fuller (1972), Thermoremanent magnetization (TRM) of lunar samples, Moon, 4, 49–62. Dwyer, C.A., Stevenson, D.J., and F., Nimmo, 2011. A long-lived lunar dynamo driven by continuous mechanical stirring. Nature Letter 479, 212-214, doi:10.1038/nature10564. Dyal, P., Parkin, C.W., and W. D. Daily, 1974. Magnetism and the interior of the Moon. Rev. Geophys. Space Phys., 12, 568–591. Evolution temporelle du champ magnétique lunaire 165 BIBLIOGRAPHIE E Enkin, R.J., and D.J., Dunlop, 1988. The demagnetization temperature necessary to remove viscous remanent magnetization. Geophys. Res. Lett. 15, 514–517. Eugster, H.P., and D.R, Wones, 1962. Stability relations of the ferruginous biotite, annite. Journal of petrology 3, 82-125. Evans, A.J., Tikoo, S.M. and J.C., Andrews-Hanna, 2017. The case against an early lunar dynamo powered by core convection. Geophysical Research Letters 45, 98-107, doi: 10.1002/2017GL075441. F Fagan, A.L., Joy, K.H., Bogard, D.D. and D.A., Kring, 2014. Ages of globally distributed Lunar paleoregoliths and soils from 3.9 Ga to the present. Earth Moon Planets 112, 59-71, doi:10.1007/s11038-014-9437-7. Fernandes, V.A., Burgess, R., and A., Morris, 2009. 40Ar-39Ar age determinations of lunar basalt meteorites Asuka 881757, Yamato 793169, Miller Range 05035, La Paz Icefield 02205, Northwest Africa 479, and basaltic breccia Elephant Moraine 96008. Meteoritics & Planetary Science 44, 6, 805–821. Finn, D.R., and R.S., Coe, 2016. A new protocol for three-axis static alternating field demagnetization of rocks. Geochem. Geophys. Geosyst. 17, 1815-1822. Fuller, M., Rose, F., and P.J., Wasilewski, 1974. Preliminary results of an experimental study of the magnetic effects of shocking lunar soil. Moon 9, 57–61. Fuller, M., Meshkov, E., and C.S., Cisowski, 1979. On the natural remanent magnetism of certain mare basalts. Proc. Lunar Planet. Sci. Conf., 10th, 3, 2211–2233. Fuller, M., and S.M., Cisowski, 1987. Lunar paleomagnetism. In: Jacobs, J.A. (Ed.), Geomagnetism. Academic Press, San Diego, CA, pp. 307–456. Fuller, M., 1998. Lunar magnetism – a retrospective view of the Apollo sample magnetic studies. Physics and Chemistry of the Earth 23, 725-735. G Garcia, R.F., Gagnepain-Beyneix, J., Chevrot, S., and P., Lognonné, 2011. Very preliminary reference Moon model. PEPI, 188, 96-113, doi:10.1016/j.pepi.2011.06.015. Garrick-Bethell, I., Weiss, B.P., Shuster, D.L., and J., Buz, 2009. Early lunar magnetism. Science 323, 356–359. Garrick-Bethell, I., Perera, V., Nimmo, F., and M.T., Zuber, 2014. The tidal–rotational shape of the Moon and evidence for polar wander. Nature 512, 181-184, doi:10.1038/nature13639. Gattacceca, J., and P., Rochette, 2004. Toward a robust normalized magnetic paleointensity method applied to meteorites. Earth Planet. Sci. Lett. 227, 377–393. 166 Evolution temporelle du champ magnétique lunaire BIBLIOGRAPHIE Gattacceca, J., Rochette, P., Denise, M., Consolmagno, G., and L., Folco, 2005. An impact origin for the foliation of chondrites. Earth Planet. Sci. Lett. 234, 351-368. Gattacceca, J., Rochette, P., Gounelle, M., and M., Van Ginneken, 2008. Magnetic anisotropy of HED and Martian meteorites and implications for the crust of Vesta and Mars. Earth Planet. Sci. Lett. 270, 280–289. Gattacceca, J., Boustie, M., Hood, L., Cuq-Lelandais, J.-P., Fuller, M., Bezaeva, N.S., De Resseguier, T., and L., Berthe, 2010a. Can the lunar crust be magnetized by shock: experimental groundtruth. Earth Planet. Sci. Lett. 299, 42–53. Gattacceca, J., Boustie, M., Lima, E.A., Weiss, B.P., De Resseguier, T., and J.-P., CuqLelandais, 2010b. Unraveling the simultaneous shock magnetization and demagnetization of rocks. Phys. Earth Planet. Inter. 182, 42–49. Gose, W. A., Strangway, D.W., and G.W., Pearce, 1973. A determination of the intensity of the ancient lunar magnetic field. Moon, 7, 196–201. H Hartmann W. K. and D.R., Davis, 1975. Satellite-sized planetesimals and lunar origin. Icarus, 24, 504–515. Heiken G.H., Vaniman D.T. and B.M., French, 1991. Lunar source book : A user's guide to the moon. Cambridge University Press. Lunar and Planetary Institue, 736 pp. Hervé, G., Fassbinder, J., Gilder, S.A., Metzner-Nebelsick, C., Gallet, Y., Genevey, A., Schnepp, E., Geisweid, L., Pütz, A., Reuss, S., Wittenborn, F., Flontas, A., Linke, R., Riedel, G., Walter, F., and I., Westhausen, 2017. Fast geomagnetic field intensity variations between 1400 and 400 BCE: New archaeointensity data from Germany. Physics of the Earth and Planetary Interiors 270, 143–156 Hiesinger, H., Head, J.W., III, Wolf, U., Jaumann, R., and G., Neukum, 2011. Ages and stratigraphy of lunar mare basalts: A synthesis. Recent Advances and Current Research Issues in Lunar Stratigraphy: Geological Society of America Special Paper 477, p. 1–51, doi:10.1130/2011.2477(01). Hoffman, K. A., J. R. Baker, and S. K. Banerjee (1979), Combining paleointensity methods: A dual-valued determination on lunar sample 10017,135, Phys. Earth Planet. Inter., 20, 317–323. Hood, L.L., Artemieva, N.A., 2008. Antipodal effects of lunar basin-forming impacts: initial 3D simulations and comparisons with observations. Icarus 193, 485–502. Hood, L.L., 2011. Central magnetic anomalies of Nectarian-aged lunar impact basins: probable evidence for an early core dynamo. Icarus 211, 1109–1128. Hood, L. L., Richmond, N.C., and P.D., Spudis, 2013. Origin of strong lunar magnetic anomalies: Further mapping and examinations of LROC imagery in regions antipodal to young large impact basins. J. Geophys. Res. Planets,118, doi:10.1002/jgre.20078. Evolution temporelle du champ magnétique lunaire 167 BIBLIOGRAPHIE I Ishihara, Y., Goossens, S., Matsumoto, K., Noda, H., Araki, H., Namiki, N., Hanada, H., Iwata, T., Tazawa, S., and S., Sasaki, 2009. Crustal thickness of the Moon: Implications for farside basin structures. Geophysical Research Letters 36, 1-4. J Jessberger, E.K., Huneke, J.C., Podosek, F.A., and G. J. Wasserburg, 1974. High resolution argon analysis of neutron-irradiated Apollo 16 rocks and separated minerals. Lunar Sci. Conf. 5, 1419. K Konrad, W., and T., Spohn, 1997. Thermal history of the moon : implications for an early core dynamo and post-accretional magnetism. Ah. Space Rcs. 19, 10, 1511-1521. Kring D.A, and D.D., Durda, 2012. A global lunar landing site study to provide the scientific context for exploration of the Moon. LPI-JSC Center for Lunar Science and Exploration, 695p. L Laneuville, M., Wieczorek, M.A., Breuer, D., Tosi, N., 2013. Asymmetric thermal evo-lution of the Moon. J. Geophys. Res.118, 1435–1452. Laneuville, M., Wieczorek, M.A., Breuer, D., Aubert, J., Morard, G., and T., Rückriemen, 2014. A long-lived lunar dynamo powered by core crystallization, Earth Planet. Sci. Lett., 401, 251–260. Langlais, B., Lesur, V., Purucker, M.E., Connerney, J.E.P., and M., Mandea, 2010. Crustal Magnetic Fields of Terrestrial Planets. Space Sci Rev (2010) 152: 223–249, DOI 10.1007/s11214-009-9557-y Larson, E. E. (1978), Degradation of lunar basalts during thermal heating in vacuum and its relation to paleointensity measurements, in Lunar and Planetary Science IX, edited, p. 633, Lunar and Planet. Inst., Houston, Tex. Lawrence, K., Johnson, C., Tauxe, L., Gee, J., 2008. Lunar paleointensity measurements: implications for lunar magnetic evolution. Phys. Earth Planet. Inter. 168, 71–87. Lepaulard, C., Gattacceca, J., Uehara, M., Rochette, P., Quesnel, Y., Macke, R., and W., Kiefer, 2018. A survey of the lunar remanent magnetization and magnetic susceptibility of Apollo whole rocks. Submitted in Physics of the Earth and Planetary Interiors. Le Bars, M., Wieczorek, M.A., Karatekin, O., Cebron, D., Laneuville, M., 2011. An impactdriven dynamo for the early Moon. Nature479, 215–218. Longhi J. and Boudreau A. E.,1979. Complex igneous processes and the formation of primitive lunar crustal rocks. Proc. Lunar Planet. Sci. Conf. 10th, 2085–2105. 168 Evolution temporelle du champ magnétique lunaire BIBLIOGRAPHIE M Matsuyama, I., Nimmo, F., Keane, J.T., Chan, N.H., Taylor, G.J., Wieczorek, M.A., Kiefer, W.S. and J.G., Williams, 2016. GRAIL, LLR and LOLA constraints on the interior structure of the moon. Geophys. Res. Lett. 43, 8365-8375. McDougall, I. and T. M. Harrison. 1988. Geochronology and Thermochronology by the Ar/ Ar Method. New York: Oxford Univ. Press. 40 39 Mercer, C.M., Young, K.E., Weirich, J.R., Hodges, K.V., Jolliff, B.L., Wartho, J-A., and M.C., Soest, 2015. Refining lunar impact chronology through high spatial resolution Ar/ Ar dating of impact melts. Sci. Adv.1, 1:e1400050. doi: 10.1126/sciadv.1400050. 40 39 Mitchell, D. L., Halekas, J.S., Lin, R.P., Frey, S., Hood, L.L., Acuña, M.H., and A.B.,Binder, 2008. Global mapping of lunar crustal magnetic fields by Lunar Prospector. Icarus, 194, 401– 409. Muxworthy, A.R., Heslop, D., Paterson, G.A., and D., Michalk, 2011. A Preisach method for estimating absolute paleofield intensity under the constraint of using only isothermal measurements: 2. Experimental testing. J. Geophys. Res. 116, B04103, doi:10.1029/2010JB007844. N Neal C.R., 2009. The Moon 35 years after Apollo : what's left to learn ? Chemie der erde Geochemistry 69, 3-43. doi:10.1016/j.chemer.2008.07.002. Neukum, G., and Ivanov, B.A., 1994. Crater size distributions and impact probabilities on Earth from lunar, terrestrial-planet, and asteroid cratering data, in Gehrels, T., ed., Hazards Due to Comets and Asteroids: Tucson, University of Arizona Press, p. 359–416. Nimmo, F., 2007. Thermal and compositional evolution of the core. Treatise on Geophysics 9, 217–241. doi: 10.1016/B978-044452748-6/00147-4 P Palme, H., 2004. The giant impact formation of the Moon. Science 304, 977-979. Papike J. J. and M., Cameron M, 1976. Crystal chemistry of silicate minerals of geophysical interest. Rev. Geophys. Space Phys., 14, 37–80. Potter, D.K., 2011. Novel magnetic techniques for rapidly detecting palaeomagnetically important single-domain iron particles and obtaining directional palaeomagnetic data from "unoriented" lunar rock samples. Can. Aeronaut. Space J. 57, 12–23. Prunier, A. R., and D.A., Hewitt, 1981. Calculation of temperature-oxygen fugacity tables for H2-CO2 gas-mixtures at one atmosphere total pressure-Summary, Geol. Soc. Am. Bull., 92(7), 414–416. Purucker, M. E., Head III, J.W., and L. Wilson, 2012. Magnetic signature of the lunar South Pole-Aitken basin: Character, origin, and age. J. Geophys. Res., 117, E05001, doi:10.1029/2011JE003922. Evolution temporelle du champ magnétique lunaire 169 BIBLIOGRAPHIE R Righter, K., Go, B.M., Pando, K.A., Danielson, L., Ross, D.K., Rahman, Z., and L.P., Keller, 2017. Phase equilibria of a low S and C lunar core: Implications for an early lunar dynamo and physical state of the current core. Earth Planet. Sci. Lett. 463, 323-332. Rochette, P., Gattacceca, J., Ivanov, A.V., Nazarov, M.A., and N.S., Bezaeva, 2010. Magnetic properties of lunar materials: meteorites, Luna and Apollo returned samples. Earth Planet. Sci. Lett. 292, 383–391. Rufu, R., Aharonson, O., and H.B., Perets, 2017. A multiple-impact origin for the Moon. Nature geoscience, 10, 89-95, doi: 10.1038/NGEO2866. Runcorn, S. K. and H.C., Urey, 1973. A New Theory of Lunar Magnetism. Science 180, 636638. Runcorn, S.K., 1996. The formation of the lunar core. Geochimica et Cosmochimica Acta 60, 1205-1208. S Sato, M., Hickling, N.L., and J.E., McLane, 1973. Oxygen fugacity values of Apollo 12, 14, and 15 lunar samples and reduced state of lunar magmas. Proc. Lunar Sci. Conf., 4th, 1, 1061–1079. Shea, E. K., B. P. Weiss, W. S. Cassata, D. L. Shuster, S. M. Tikoo, J. Gattacceca, T. L. Grove, and M. D. Fuller (2012), A long-lived lunar core dynamo, Science, 335, 453–457. Shelton, W., Soviet space exploration - the first decade, Arthur Barker Ltd., Unnumbered, London, England, 1969. Simon, Q., Bourlès, D.L., Bassinot, F., Nomade, S., Marino, M., Ciaranfi, N., Girone, A., Maiorano, P., Thouveny, N., Choy, S., Dewilde, F., Scao, V., Isguder, G., Blamart, D., and ASTER team, 2017. Authigenic 10Be/9Be ratio signature of the Matuyama–Brunhes boundary in the Montalbano Jonico marine succession. Earth Planet. Sci. Lett. 460, 255-267. Snape, J.F., Nemchin, A.A., Bellucci, J.J., Whitehouse, M.J., Tartèse, R., Barnes, J.J., Anand, M., Crawford, I.A, and Joy, K.H., 2016. Lunar basalt chronology, mantle differenciation and implications for determining the age of the Moon. Earth Planet. Sci. Lett. 451, 149-158. Spudis, P.D., 1993. The Geology of Multi-Ring Impact Basins: Cambridge Planetary Science Series, Volume 8: New York, Cambridge University Press, 263 p. Stegman, D.R., Jellinek, A.M., Zatman, S.A., Baumgardner, J.R., and M.A., Richards, 1977. An early lunar core dynamo driven by thermochemical mantle convection. Nature 421, 143–146. Steiger, R.H. and E., Jäger, 1977. Subcommission of geochronology : Convention on the use of decay constants in geo- and cosmochronology. Earth and Planetary Science Letters 36, 359362. Stephenson, A., and D.W., Collinson, 1974. Lunar magnetic field paleointensities determined by an anhysteretic remanent magnetization method. Earth Planet. Sci. Lett. 23, 220–228. 170 Evolution temporelle du champ magnétique lunaire BIBLIOGRAPHIE Stephenson, A., Collinson, D.W. and Runcorn, S.K., 1974. Lunar magnetic field palaeointensity determinations on Apollo 11, 16 and 17 rocks. Proc. 5th Lunar Sci. Conf., Suppl. 5, Geochim. Cosmochim. Acta, 3: 2859. Stephenson, A., Runcorn, S. K. and D.W., Collinson, 1977. Palaeointensity Estimates from Lunar Samples 10017 and 10020. Proc. 8th Lunar Sci. Conf. 1, 679-687. Stephenson, A., 1993. Three-axis static alternating field demagnetization of rocks and the identification of natural remanent magnetization, gyroremanent magnetization, and anisotropy. J. Geophys. Res. 98, 373–381. Stevenson, D. J., 1983. Planetary Magnetic Fields. Rep. Prog. Phys. 46, 555-620. Stöffler, D., Ostertag, R., Reimold, W.U., Borchardt, R., Malley, J., and A., Rehfeldt, 1981. Distribution and provenance of lunar highland rock types at North Ray Crater Apollo 16. Proc Lunar Planet Sci Conf 12:185-207. Stöffler D., Keil K., and E.R.D. Scott, 1991. Shock metamorphism of ordinary chondrites. Geochimica et Cosmochimica Acta 55, 3845-3867. Stöffler, D., and Ryder, G., 2001. Stratigraphy and isotope ages of lunar geologic units: Chronological standard for the inner solar system: Space Science Reviews, v. 96, p. 9–54, doi:10.1023/A:1011937020193. Stöffler, D., Ryder, G., Ivanov, B.A., Artemieva, N.A., Cintala, M.J., and Grieve, R.A.F., 2006, Cratering history and lunar chronology, in Jolliff, B.L., Wieczorek, M.A., Shearer, C.K., and Neal, C.R., eds., New Views of the Moon: Reviews in Mineralogy and Geochemistry, v. 60, p. 519–596. Strangway, D. W., Gose, W., Pearce, G., and R. McConnell, 1973a. Magnetism and the history of the Moon. Magnetism and Magnetic Materials-1972, edited by C. Graham Jr., and J. Rhyne, pp. 1178–1187, American Institute of Physics, New York, NY. Strangway, D.W., 1977. The magnetic fields of the terrestrial planets. Phys. Earth Planet.Inter. 15, 121–130. Strauss, B.E., and S.M., Tikoo, 2017. Constraining the decline of the lunar core dynamo. Lunar and Planetary Science 48th. Suavet, C., Weiss, B.P., Cassata, W.S., Shuster, D.L., Gattacceca, J., Chan, L., Garrick-Bethell, I., Head, J.W., Grove, T.L., and M.D., Fuller, 2013. Persistence and origin of the lunar core dynamo. Proc. Natl. Acad. Sci. U.S.A. 110, 8453–8458. Suavet, C., Weiss, B. P., and T.L., Grove, 2014. Controlled-atmosphere thermal demagnetization and paleointensity analyses of extraterrestrial rocks. Geochem. Geophys. Geosyst., 15, 2733–2743, doi:10.1002/2013GC005215. Sugiura, N., Y. M. Wu, D. W. Strangway, G. W. Pearce, and L. A. Taylor (1979), A new magnetic paleointensity value for a "young lunar glass", Proc. Lunar Planet. Sci. Conf., 10th, 3, 2189–2197. Evolution temporelle du champ magnétique lunaire 171 BIBLIOGRAPHIE Sugiura, N., and D. W. Strangway (1980), Comparisons of magnetic paleointensity methods using a lunar sample, Proc. Lunar Planet. Sci. Conf., 11th, 3, 1801–1813. T Tarduno, J.A., Cottrell, R.D., Watkeys, M.K., and D., Bauch, 2007. Geomagnetic field strength 3.2 billion years ago recorded by single silicate crystals. Nature 446, 657. doi:10.1038/nature05667. Tarduno, J.A., Cottrell, R.D., Watkeys, M.K., Hofmann, A., Doubrovine, P.V., Mamajek, E.E., Liu, D., Sibeck, D.G., Neukirch, L.P., and Y., Usui, 2010. Geodynamo, Solar Wind, and Magnetopause 3.4 to 3.45 Billion Years Ago. Science 327, 1238-1240, DOI: 10.1126/science.1183445. Thellier, E., and O., Thellier, 1959. Sur l'intensité du champ magnétique terrestre dans le passé historique et géologique. Ann. Geophys. 15, 285–376. Tikoo, S.M., Weiss, B.P., Buz, J., Lima, E.A., Shea, E.K., Melo, G., and T.L., Grove, 2012. Magnetic fidelity of lunar samples and implications for an ancient core dynamo. Earth Planet. Sci. Lett. 337–338, 93–103. Tikoo, S. M., Weiss, B. P., Cassata, W., Shuster, D. L., Gattacceca, J., Lima, E. A., Suavet, C., Nimmo, F., and M., Fuller, 2014. Decline of the lunar core dynamo. Earth Planet. Sci. Lett., 404, 89–97. Tikoo S. M., Gattacceca, J., Swanson-Hysell, N.L., Weiss, B. P., Suavet, C., and C., Cournède, 2015. Preservation and detectability of shock-induced magnetization. J. Geophys. Res. Planets, 120, 1461-1475, doi:10.1002/2015JE004840. Tikoo, S. M., Weiss, B.P., Shuster, D.L., Suavet, C., Wang, H., and T.L., Grove, 2017. A twobillion-year history for the lunar dynamo, Sci. Adv., 3, e1700207, doi:10.1126/sciadv.1700207. Touboul, M., Kleine, T., Bourdon, B., Palme, H., Wieler, R., 2007. Late formation and prolonged differentiation of the Moon inferred from W isotopes in lunar metals. Nature 450, 1206–1209. Tsunakawa, H., F. Takahashi, H. Shimizu,H. Shibuya, and M. Matsushima (2015), Surface vector mapping of magneticanomalies over the Moon using Kaguyaand Lunar Prospector observations,J. Geophys. Res. Planets,120, 1160–1185,doi:10.1002/2014JE004785 Turner, G., 1977. Potassium-argon chronology of the Moon. Phys Chem Earth 10:145-195. U Uehara, M., Gattacceca, J., Quesnel, Y., Lepaulard, C., Lima, E.A., Manfredi, M., and P., Rochette, 2017. A spinner magnetometer for large Apollo lunar samples. Review of Scientific Instruments 88, 104502. W Walker D., 1983. Lunar and terrestrial crust formation. Proc. Lunar Planet. Sci. Conf. 14th, in J. Geophys. Res., 88, B17–B25. 172 Evolution temporelle du champ magnétique lunaire BIBLIOGRAPHIE Wang, H., Mighani, Weiss, B.P., Shuster, D.L., and K.V., Hodges, 2017. Lifetime of the lunar dynamo constrained by young Apollo returned breccias 15015 and 15465. Lunar and Planetary Science 48 . th Warren P. H. and J. T., Wasson, 1979a. The origin of KREEP. Rev. Geophys. Space Phys., 17, 73–88. Warren P.H. and J.T., Wasson, 1980a. Further foraging of pristine nonmare rocks: Correlations between geochemistry and longitude. Proc. 11th Lunar Planet. Sci. Conf. 431470. Wasilewski, P.J., 1982. Magnetic Characterization of Tetrataenite and its Role in the Magnetization of Meteorites, Lunar and Planetary Science 13th, P. 843-844. Abstract. Weber, R.C., Lin, P-Y., Garnero, E.J., Williams, Q., and P.Lognonné, 2011. Seismic detection of the lunar core. Science 331, 309-312. Weiss, B. P., and S.M., doi:10.1126/science.1246753. Tikoo, 2014. The lunar dynamo. Science, 346, Wieczorek M.A., and M.T., Zuber, 2001a. The composition and origin of the lunar crust: Constraints from central peaks and crustal thickness modeling. Geophys. Res. Lett. 28, 40234026. Wieczorek, M.A., Jolliff, B.L., Khan, A., Pritchard, M.E., Weiss, B.P., Williams, J.G., Hood, L.L., Righter, K., Neal, C.R., Shearer, C.K., McCallum, I.S., Tompkins, S., Hawke, B.R., Peterson, C., Gillis, J.J and B. Bussey. 2006. The constitution Structure of the Lunar Interior. Reviews in Mineralogy and Geochemistry. Vol 60, 221-364. DOI: 10.2138/rmg.2006.60.3. Wieczorek, M. A., Weiss, B.P., and S. T. Stewart, 2012. An impactor origin for lunar magnetic anomalies. Science, 335, 1212–1215. Wieczorek, M., Neumann, G.A., Nimmo, F., Kiefer, W.S., Taylor, G.J., Melosh, H.J., Phillips, R.J., Solomon, S.C., Andrews-Hanna, J.C., Asmar, S.W., Konopliv, A.S., Lemoine, F.G, Smith, D.E., Watkins, M.M., Williams, J.G., and M.T., Zuber, 2013. The crust of the Moon as seen by GRAIL. Science 339, 671, doi: 10.1126/science.1231530. Wilhelms, D.E., 1987. The Geologic History of the Moon: U.S. Geological Survey Professional Paper 1348, 302 p. Wood, J.A., 1973. Bombardment as a cause of the lunar asymmetry. The Moon 8, pp. 73-103. Y Yan, J., Xu, L., Li, F., Matsumoto, K., Rodriguez, J.A.P., Miyamoto, H., and J. M. Dohm, 2015. Lunar core structure investigation: Implication of GRAIL gravity field model, Adv. Space Res., 55, 1721–1727. Evolution temporelle du champ magnétique lunaire 173 BIBLIOGRAPHIE Yu, Y., Tauxe, L,. and A. Genevey, 2004. Toward an optimal geomagnetic field intensity determination technique. Geochem. Geophys. Geosyst. 5, 2, Q02H07, doi:10.1029/2003GC000630. Z Zhao, J., Xiao, L., Qiao, L., Glotch, T.D., and Q. Huang, 2017. The Mons Rümker volcanic complex of the Moon: A candidate landing site for the Chang'E-5 mission, J. Geophys. Res. Planets, 122, 1419–1442, doi:10.1002/2016JE005247. 174 Evolution temporelle du champ magnétique lunaire ANNEXES ANNEXES Annexe 1 : Carte géologique de la Lune Annexe 2 : Article Lepaulard et al., 2019 Annexe 3 : Planches photographiques des échantillons analysés dans cette étude. Annexe 4 : Cartes réalisées au MEB de trois échantillons Annexe 5 : Diagrammes de désaimantation de la NRM Annexe 6 : Article Uehara et al., 2017 Evolution temporelle du champ magnétique lunaire 175 ANNEXES Annexe 1 Carte géologique de la Lune Je présente ici la carte géologique de la Lune, face visible (Figure A1-haut) et face cachée (Figure A1-bas) afin de se rendre compte de la répartition des différentes lithologies lunaires ainsi que leur âge. 176 Evolution temporelle du champ magnétique lunaire ANNEXES Figure A1 : Carte géologique de la Lune. Haut) Carte de la face visible et légende associée. Bas) Carte de la face cachée. D'après Heiken et al., 1991. Evolution temporelle du champ magnétique lunaire 177 ANNEXES Annexe 2 Article accepté le 18 Novembre 2018 - MAPS A Paleozoic age for the Tunnunik impact structure Camille Lepaulard1, Jérôme Gattacceca1, Nicholas Swanson-Hysell2, Yoann Quesnel1, François Demory1 , Gordon Osinski3,4. 1 Aix Marseille Univ, CNRS, IRD, Coll France, INRA, CEREGE, Aix-en-Provence, France Department of Earth and Planetary Science, University of California, Berkeley, California 94720-4767, USA 3 Dept. of Earth Sciences, Centre for Planetary Science and Exploration, University of Western Ontario, 1151 Richmond St., London, ON, N6A 5B7, Canada 4 Dept. Physics & Astronomy, University of Western Ontario, 1151 Richmond St., London, ON, N6A 5B7, Canada 2 Corresponding author: Camille Lepaulard (lepaulard@cerege.fr) Abstract We report paleomagnetic directions from the target rocks of the Tunnunik impact structure, as well as from lithic impact breccia dikes that formed during the impact event. The target sedimentary rocks have been remagnetized after impact-related tilting during a reverse polarity interval. Their magnetization is unblocked up to 350°C. The diabase dikes intruding these sediments retained their original magnetization which unblocks above 400°C. The impact breccia records a paleomagnetic direction similar to that of the overprints in the target sedimentary rocks. The comparison of the resulting virtual geomagnetic pole for the Tunnunik impact structure with the apparent polar wander path for Laurentia combined with biostratigraphic constraints from the target sedimentary rocks is most consistent with an impact age in the Late Ordovician or Silurian, around 430 to 450 Ma, soon after the deposition of the youngest impacted sedimentary rocks. Our results from the overprinted sedimentary rocks and diabase dikes imply that the post-impact temperature of the studied rocks was about 350°C. 1 Introduction Hypervelocity impacts are a major process for the evolution of planetary surfaces, including the Earth. Terrestrial impact events have significantly influenced the biosphere in numerous ways including, on one hand, the development of habitats for primitive life forms (Reimold and Koeberl, 2008; Cockell et al., 2005) and, on the other hand, some extinctions such as the Cretaceous-Paleogene mass extinction (Schulte et al., 2010). Depending on the 178 Evolution temporelle du champ magnétique lunaire ANNEXES size of the impactor, impact events significantly modify regional geology and may lead to the formation of ore deposits (Ames et al., 1998). However, on Earth, plate tectonics and erosion can obscure or completely erase the geologic record of impact structures. Currently, around 190 impact structures are identified on Earth, including thirty in Canada, but the age of approximately half of these impacts is unknown (Jourdan et al., 2012). Dating of impact structures is crucial for assessing correlations (or the lack thereof) between impact events and biological or geological changes, and to constrain the flux of crater-forming bodies to the Earth through time. While most of the large terrestrial impact structures (> 6 km) on Earth have likely already been documented (Hergarten and Kenkmann, 2015), discovery of additional impact structures is still possible. In 2010, the Tunnunik structure, a ~28 km diameter impact structure was identified in the Canadian Arctic (Dewing et al., 2013). The age of this structure is presently not constrained more precisely than between 0 and ca. 450 Ma. The purpose of this study is to provide a refined estimate for the age of this impact structure. In the absence of suitable material for radiometric dating, we utilize paleomagnetic dating of target rocks that were remagnetized by the impact (Deutsch and Schärer, 1994; Pilkington and Grieve, 1992) and of the lithic breccia that formed during the impact event (Fairchild et al., 2016). 2 Geological setting, sampling, methods Geological setting The Tunnunik impact structure is located on Victoria Island in the Canadian High Arctic. The impact structure is deeply eroded and has been identified by the presence of shatter cones, sedimentary rocks steeply dipping quaquaversally (compared to the generally relatively flat regional bedding), and concentric faults (Dewing et al., 2013). The target rock sequence, exposed outside of the impact structure, consists of sub-horizontal sedimentary rocks, mostly dolostones and mudstones, ranging from the Neoproterozoic (Wynniatt formation of the Shaler supergroup) to the Late Ordovician - Early Silurian (?) (Thumb Mountain and Allen Bay formations). Following Newman and Osinski (2016), we group these sedimentary rocks into the Shaler Supergroup (Neoproterozoic), Mount Phayre, Victoria Island, Thumb Mountain and Allen Bay formations in ascending stratigraphic order. Neoproterozoic diabase dikes associated with the ca. 720 Ma Franklin Large Igneous Province which intrude the Neoproterozoic sedimentary rocks are also present within the target rock (Dewing et al., 2013; Heaman et al. 1992). Lithic impact breccias, composed of sedimentary clasts up to centimeter size set in a silt-sized matrix, are encountered in the form of dikes and sills up to a few decimeters thick intruding the sedimentary target rocks, especially the Mount Phayre Formation and Shaler Supergroup rocks. Evolution temporelle du champ magnétique lunaire 179 ANNEXES Sampling Three main rock types were sampled for paleomagnetic analysis: impact breccia, Neoproterozoic to Upper Ordovician-lower Silurian sedimentary rocks, and Neoproterozoic diabase dikes. For impact breccia sampling, we focused on facies dominated by the finegrained matrix (clast content below 10 vol%) and with clast size below 1 mm. A total of 29 paleomagnetic sites were sampled, mostly located inside the impact structure (Figure 1, Table S1). Sampling was performed by drilling of 2.5 cm-diameter cores using a gas-powered drill, or more rarely through collection of oriented blocks. Samples were oriented using magnetic and sun compasses. Figure 1. Location of sampled sites. Color codes indicate the sampled formation. Numbered sites are the ones that provided interpretable paleomagnetic results. The red circle is the proposed limit of the impact structure from Newman and Osinski (2016). The purple contour delineates the area where shatter cones have been found. The background image is an Advanced Spaceborne Thermal Emission and Reflection Radiometer (ASTER) Global Digital Elevation Model (GDEM) Version 2 product. The elevation ranges from 0 (white) to 283 m (black). Except for the regional map on the upper left, coordinates are expressed in meters in the Universal Transverse Mercator (UTM) Zone 12 projection with the World Geodetic System (WGS) 84 datum. For the zoomed-in area (upper right), the background image is to a mosaic of orthophotographic images (Digital Globe Quickbird data). 180 Evolution temporelle du champ magnétique lunaire ANNEXES Methods The magnetic mineralogy was studied by measurement of susceptibility versus temperature (Figure 2A), stepwise thermal demagnetization of saturation isothermal remanent magnetization (sIRM) that is more sensitive to the presence of pyrrhotite (Figure 2B), and measurements of S-300 ratio that is the IRM obtained after applying a 3 T field and then a back field of − 0.3 T normalized to the IRM acquired in 3 T. The low field magnetic susceptibility (noted χ in m3.kg-1) was measured for all samples using an AGICO apparatus, either with an MFK1 or a KLY-2 kappabridge instrument (with sensitivity of 5x10-13 m3), depending on sample size. The MFK1 kappabridge operates at 200 Am-1 peak field and at a frequency of 976 Hz. The KLY-2 kappabridge operates at 425 Am-1 peak field and at a frequency of 920 Hz. Thermomagnetic curves were obtained with the use of the MFK1 instrument coupled with a CS3 furnace. Estimates of Curie temperatures were computed as the inflection points of the susceptibility versus temperature curves. Thermal demagnetization of sIRM (imparted with 3 T pulse with a MMPM9 pulse magnetizer) was conducted using an MMTD furnace. Hysteresis properties of the diabase dikes were measured with a MicroMag 3900 vibrating sample magnetometer. All rock magnetism measurements were performed at CEREGE. All remanence measurements were performed with a SQUID magnetometer (2G Enterprises, model 760R, with noise level of 10-11 Am2) in a magnetically shielded room, with an attached automated 3-axis alternating field degausser system (with a maximum peak field of 170 mT). For the majority of samples, the natural remanence was studied (around 100 specimens) by stepwise thermal demagnetization using a MMTD80 furnace. For each studied site, two pilot samples were demagnetized, one using thermal demagnetization up to 600°C, one using alternating field (AF) demagnetization up to 120 mT. The most efficient demagnetization method was then used for the remaining samples. Demagnetization data were analyzed through principal component analysis and summarized with Fisher statistics using PaleoMac software (Cogné, 2003). Paleomagnetic results are summarized in Table 1. Figure 2 (next page). Intrinsic magnetic properties of studied rocks. A) Susceptibility versus temperature for a diabase dyke sample (site TUN32, heating and subsequent cooling curves are shown), and an impact breccia sample (site TUN20). B) Thermal demagnetization of sIRM as a function of temperature. The red box indicates the unblocking temperature range of the impact-related magnetization of the target sedimentary rocks. The blue box indicates the unblocking temperature range of the pre-impact magnetization of the diabase dikes. The postimpact temperature excursion is constrained between these two boxes. The Curie temperature of pyrrhotite (325°C) is indicated by the thick vertical line. Evolution temporelle du champ magnétique lunaire 181 Magnetic susceptibility (x10-9 m3) ANNEXES A 6 diabase dike 4 2 impact breccia 0 1.0 pyrrhotite Tc Saturation remanence (normalized) B 0.8 0.6 impact breccia 0.4 Shaler Supergroup 0.2 Victoria Island diabase dike 0 100 200 300 400 500 600 Temperature (°C) Figure Table 1 (next page). Site-mean paleomagnetic directions from2 the Tunnunik impact structure. Site TUN32# is for Shaler Supergroup sediments baked by the diabase dike at site TUN32. These samples have four components of magnetization (A, B, C, D, see text). SLat and SLong, site latitude and longitude; N/n, number of samples used in the computation of the mean direction / number of samples stepwise demagnetized; ChRM unblocking temperature, the temperature interval of the high temperature component used for calculation; Dg and Ds, declination before and after tilt correction; Ig and Is, inclination before and after tilt correction; kg and ks (noted Kg and Ks for the average of VGPs) precision parameter before and after tilt correction; α95g and α95s (noted A95g and A95s for the average of VGPs) are semi-angle of aperture of the cone where the true mean direction lies with 95% confidence before and after tilt correction; Strike, strike of the site; Dip, dip of the site; *, Strike and Dip range from 162/16 to 190/38 (site TUN20), from 213/60 to 193/70 (site TUN33); For impact breccia and diabase dikes sites, strike and dip are for the intruded rocks; dp is the semi-axis of the confidence ellipse about the VGP along the great circle path from site to VGP; dm is the semi-axis of the confidence ellipse perpendicular to that great-circle path. NRM, average natural remanent magnetization; χ, average magnetic susceptibility. *The average impact is computed from sites TUN07, 20, 21, 29, 31, 33, 36 (see text). 182 Evolution temporelle du champ magnétique lunaire Average diabase dikes Diabase dikes baked Shaler Supergroup Average impact direction* Shaler Supergroup Victoria Island Impact Breccia Formation TUN32#-A TUN32#-B TUN32#-C TUN32#-D TUN30 TUN32 TUN35 TUN20 TUN21 TUN07 TUN29 TUN31 TUN33 TUN36 Site 72.4827 72.4827 72.4827 72.4827 72.4729 72.4827 72.4839 72.4973 72.4965 72.4363 72.4732 72.4831 72.4832 72.4662 -113.9410 -113.9410 -113.9410 -113.9410 -113.9320 -113.9410 -113.9379 -114.0209 -114.0198 -113.8668 -113.9503 -113.9321 -113.9392 -113.9665 Slat (°N) Slong (°E) 15/15 5/5 6/9 7/7 5/5 9/9 6/6 7/7 4/4 2/2 4/4 4/4 6/6 5/6 8/8 3/3 N/n 200-345 345-370 370-450 450-520 465-590 500-590 500-590 260-590 400-530 250-310 270-350 250-350 250-330 230-330 ChRM unblocking temperatures (°C) 66.6 61.2 83.1 85.4 72.4 82.5 87.6 77 58.6 97.3 104.2 93.8 98.4 110 102.3 103.5 Dg (°) -15.2 -7.8 11.2 -5.0 -9.3 -0.5 -10.9 -5.5 -3.1 60.2 -62 -61.5 -32.7 -35.9 -29.6 -32.8 Ig (°) 112.5 51.8 6.6 52.4 13.7 50.1 8.7 37.2 67.3 190 654 33.3 10.8 48 18.5 194 kg 3.6 10.7 28.1 8.4 21.5 7.3 24.0 10 11.3 18.2 3.6 16.2 21.3 11.2 13.2 8.9 α95g (°) 66.9 60.8 84.3 85.9 70.6 53.8 81.4 72.7 42.1 297.1 111 106.1 98.1 110.2 101.5 103.1 Ds (°) 9.5 15.8 12.3 22.3 20.4 46.6 -8.0 17.2 28.3 -9.8 7.4 6.4 23.2 33.7 32.8 29.6 Is (°) 67.9 51.8 6.6 49.9 13.7 11.1 8.7 16.8 67.3 190 654 33.3 10.8 48 18.5 108.8 ks 4.7 10.7 28.1 8.6 21.5 16.2 24.0 15.2 11.3 18.2 3.6 16.2 21.3 11.2 13.2 11.9 α95s (°) 207 207 207 207 184 207 213 * 162 95 170 194 * 89 Strike 70 70 70 70 56 70 66 * 24 6 28 35 * 36 Dip 0.6 4.8 34.1 341.2 354.2 343.3 340 349.3 358.9 145 339 348.3 333.6 323.1 329.3 328.7 -0.6 4.6 7.5 -1 0.7 2 -4.5 1.2 55.6 47 -44.9 -41.4 -19.5 -24.9 -18.8 -21.1 Longg (°) Latg (°) dm (°) 1.9 3.7 5.4 10.8 14.4 28.5 4.2 8.4 10.9 21.7 3.7 7.3 12.3 24.3 Kg=53.3 A95g=8.3 10.7 21.5 20.9 27.6 4.3 5.6 19.2 24.7 13.6 24.1 7.5 13 8.1 14.6 Kg=187 A95g=9 dp (°) 356.9 1.9 339.7 336.5 351.6 2.7 345.5 350.3 14.1 128.7 315 319.8 324.8 311.5 319.8 318.7 Longs (°) 11.4 16.2 7.7 12.3 15.9 37.1 -1.3 14.3 31.3 3.1 -2.6 -1.7 9.1 11.7 12.9 11.3 Lats (°) dm (°) NRM (Am2kg-1) 2.4 4.7 9.37E-07 5.7 11 5.11E-07 14.5 28.6 2.92E-08 4.8 9.1 2.28E-07 11.8 22.5 9.54E-08 13.4 20.8 1.32E-07 12.2 24.2 5.43E-08 Ks=27,9 A95s=11.6 14.4 24.9 3.99E-06 9.3 18.4 5.19E-06 1.8 3.6 3.99E-06 8.2 16.2 3.99E-06 12 22.7 2.75E-04 7.3 12.7 1.87E-04 8.4 14.9 2.72E-04 Ks=140 A95s=10,5 dp (°) not measured not measured not measured not measured 1.14E-05 9.30E-06 1.62E-05 6.61E-08 7.39E-08 -8.21E-10 1.08E-08 1.72E-08 9.35E-09 2.10E-08 χ (m3kg-1) ANNEXES Evolution temporelle du champ magnétique lunaire 183 ANNEXES 3 Results In the impact breccia, thermomagnetic experiments reveal a Curie temperature of 585°C, indicating the presence of magnetite (Figure 2A). Pyrrhotite is also present as indicated by significant unblocking of sIRM around 280-320°C (Figure 2B), although its signal is hidden by the magnetite contribution in the susceptibility curve (Figure 2A). The presence of pyrrhotite is confirmed by the S-300 ratio of -0.84 that indicates the significant contribution of a high coercivity mineral. The impact breccia samples display two magnetization components that are equally evidenced by thermal (Figure 3A) and AF demagnetization (Figure 3B). The low-temperature/low-coercivity component corresponds to the present local field. The high-temperature (isolated above ~200-350°C and up to the Curie temperature of magnetite at 585°C), high-coercivity (above 15 mT) component is origintrending and is interpreted as the characteristic remanent magnetization (ChRM). In the diabase dikes, the Curie temperature of ~570°C indicates the presence of magnetite, with a contribution of maghemite identified by an irreversible decay at around 350°C (Figure 2A). The diabase displays two components of magnetization, better evidenced by thermal (Figure 3C) than by AF demagnetization (Figure 3D). The high-temperature component, which is origin-trending, is unblocked between 400 and 590°C. The magnetic mineralogy of rocks from Victoria Island and Shaler Supergroup is a mixture of pyrrhotite and magnetite. Pyrrhotite is evidenced by significant unblocking temperatures of sIRM around 300-320°C (Figure 2B), and the S-300 ratio of -0.79 that indicates the significant contribution of a high coercivity mineral. Pyrrhotite has previously been reported for the Cambrian-Ordovician sedimentary sequence in the region (e.g., Quesnel et al., 2013). The absence of field-dependence of low field magnetic susceptibility suggests a small pyrrhotite grain size (Worm et al., 1993), as classically found in many pyrrhotitebearing sedimentary rocks (e.g., Rochette et al., 1992). Magnetite is indicated by the significant fraction of the sIRM unblocked above 330°C and up to 580°C (Figure 2B). Among the sedimentary rocks studied for paleomagnetism, 16 out of 21 sites showed unstable remanence during demagnetization and did not provide interpretable results, except for four sites from the Shaler Supergroup and for one site from the Victoria Island formation. These seven sedimentary rocks (dolostones and mudstones) display two components of magnetization, evidenced by thermal demagnetization (Figure 3E-F) where AF demagnetization (not shown) fails to separate both components. The origin-trending hightemperature component is unblocked between 290 and 350 °C (310°C for the only successful Victoria Island site, the remanence being too weak above this demagnetization step). Figure 3 (next page). Orthogonal projection plot of stepwise demagnetization data before tiltcorrection. Representative samples of the 3 main formations are presented: A-B) Lithic impact breccia, C-D) diabase dike, E) Shaler Supergroup, F) Victoria Island formation. G) Shaler Formation sample collected 25 cm away from the diabase dike of site TUN32. For clarity the four components of magnetization recorded in this sample and discussed in the text are highlighted by colored arrows. 184 Evolution temporelle du champ magnétique lunaire ANNEXES a) Lithic impact breccias, AF demagnetization b) Lithic impact breccias, thermal demagnetization N Up Site TU20, sample TU2006 N Up Site TU20 sample TU2005A 170°C 14 mT 28 12 40 W 70 E Scale: 10 -8 A.m2 S Down 350 W 590 S Down NRM c) Diabase dykes, AF demagnetization N Up E Scale: 10 -8 A.m2 NRM d) Diabase dykes, thermal demagnetization N Up Site TU35, sample TU3502b Site TU35, sample TU3505a 400 500 18 mT 290°C 32 45 W NRM Scale: 10 -6 A.m 2 E 8 W Scale: 10 -6 A.m2 E 590 S Down S Down NRM f) Victoria Island sedimentary rocks Site TUN07, sample TUN0707a thermal demagnetization e) Shaler Supergroup sedimentary rocks N Up N Up Site TU33, sample TU3305a thermal demagnetization 310 350 W 250 250°C 290 E Scale: 10 -9 A.m2 170 230 W 310 E Scale: 10 -10 A.m2 120°C NRM S D ow n S Down NRM g) Shaler Supergroup sediments baked by diabase dike N Up Site TU32, sample TU3207a 25 cm away from diabase dyke 345 450 C-D 500 B W 370 NRM 330 A 310°C Scale: 10 -8 A.m2 E FIGURE 3 S Down Evolution temporelle du champ magnétique lunaire 185 ANNEXES 4 Discussion It is crucial to determine the age of the remanent magnetizations identified in these rocks relative to the impact. The breccia dikes were formed during the impact event and their magnetic remanence would have been acquired both by the clasts and the fine-grained matrix as they cooled following emplacement and associated frictional heating. It has been shown that impact-related tilting occurs quite rapidly, taking place over a timescale shorter than several minutes in mid-sized impact craters (Fairchild et al., 2016). Therefore, the impact breccia is expected to carry a thermoremanent magnetization acquired when the breccia cooled following impact-related tilting. Such a timing of impact acquisition has been shown for clastic breccia dikes within the Slate Island impact structure (Fairchild et al., 2016). However, because frictional heating in the breccia dikes is very localized (Fairchild et al., 2016), the target sedimentary rocks and the diabase dikes may or may not have been remagnetized by the impact. N N a) Shaler Supergroup sediments tilt corrected in situ E E W W S S N b) ChRM in situ E W LT diabase dikes (N=3) S N c) baked Shaler Supergroup sediments at site TUN32 A C B W D in situ N A C E W E B tilt corrected diabase dike at site TUN32 diabase dike at site TUN32 S Figure 4 186 Evolution temporelle du champ magnétique lunaire S D ANNEXES Figure 4. Equal area stereographic projections. Open (closed) symbols are for upper (lower) hemisphere directions. A) Directions of the 24 samples from 4 sites of the Shaler Supergroup sediments before (left) and after (right) tilt correction. The red symbols are the low temperature components (isolated between 280 and 330°C) of the four samples collected within 25 cm of the diabase dike of site TUN32. Blue star is the overall mean direction (samples from site TUN32 not included). B) Low temperature directions (grey symbols) and ChRM directions for the seven sites from the impact breccia, Shaler Supergroup and Victoria Island Formation listed in Table 1, before tilt correction. Also shown is the average ChRM direction for the 3 diabase dikes (square), and the average present day magnetic field (red star). C) Directions of the four components of magnetization from the Shaler Supergroup sediments collected within 25 cm of the diabase dike at site TUN32. Also shown is the ChRM direction of the diabase dike at this site (in red). A paleomagnetic tilt test was used to estimate the relative timing of magnetization and impact tilting (Tauxe and Watson, 1994). This test was performed at site levels and not within sites because bedding was almost constant at each individual site. As expected, for all studied lithologies, the low-coercivity / low-temperature components fail the tilt test and were therefore acquired following tilting of the beds. The direction corresponds to the present day local magnetic field such that it is interpreted to be a recent viscous overprint (Figure 4C). For the impact breccia, the tilt test is also negative for the high coercivity components and progressive tilt test indicate a maximum grouping of the directions at 0% untilting. The ChRM of the breccia is interpreted as a full thermoremanent magnetization (TRM) acquired as the breccia cooled shortly after breccia emplacement and impact tilting. For the Shaler Supergroup, the tilt test is also negative, as illustrated by the much larger scattering after tilt correction (Figure 4A-B). Only one site from the Victoria Island formation provided paleomagnetic results suitable for interpretation. The tilt-corrected paleomagnetic direction for this site is compatible with that from the Shaler Supergroup and we considered it as a post-tilting impact related magnetization as well. The possible processes to account for posttilting remagnetization of these sedimentary rocks are thermal magnetization during cooling from impact-related heating, shock magnetization during pressure release immediately after passage of the impact shock wave, or chemical magnetization resulting from post-impact hydrothermal activity (e.g., Zylberman et al., 2017). Shock remanent magnetization is excluded as the source of the impact-related magnetization because the release of the shock wave occurs before tilting, so that a shock remanence would pass a tilt test. Both partial or total TRM from impact-related heating and chemical remanent magnetization (CRM) from impact-related hydrothermal activities can result in a remagnetization allowing the structure to be paleomagnetically dated (Pilkington et al., 1992). In view of the unblocking temperatures of the natural remanent magnetization (NRM) in the sedimentary rocks (290°C to 350°C), a CRM could be explained by the formation of pyrrhotite during hydrothermal activity (e.g., Osinski et al., 2005). However, because the maximum unblocking temperature of 350°C is slightly higher than the Curie temperature of pyrrhotite (320-325°C), we favor a partial thermoremanent magnetization acquired during post-impact cooling from a peak temperature of 350°C. For the three diabase dikes, the tilt test is inconclusive because the beddings of the intruded sediments are similar for the three sites. The ChRM direction is significantly different (before tilt correction) to the average direction computed from the Shaler Evolution temporelle du champ magnétique lunaire 187 ANNEXES Supergroup, Victoria Island formation and impact breccia, suggesting that they have not been remagnetized by the impact (Figure 4B). Their virtual geomagnetic poles (VGPs, after tilt correction) are closer to paleomagnetic poles from other igneous rocks of the Franklin Large Igneous Province (Palmer et al., 1983; Denyszyn et al. 2009) than the impact breccia site VGPs. Poorly developed shatter cones have been described in the diabase dikes (Dewing et al., 2013), implying shock pressures above ~2 GPa during the impact event. Such pressure level is well below the pressure-induced magnetite magnetic transition at 12-16 GPa (Ding et al., 2008). Moreover, the coercivity of remanence of samples from the diabase dikes is 39 mT (our measurements, average of 3 samples, one per studied dike), and significant shock remagnetization is also unlikely for magnetite with this range of coercivity of remanence (Bezaeva et al., 2010). To test further whether or not the diabase dikes have preserved their primary TRM, we collected 4 oriented cores of the Shaler supergroup sedimentary rocks that were intruded and baked by the dike, at distances from 3 to 25 cm from the dike wall. In addition to a low temperature viscous component, these samples exhibit four magnetization components unblocked over the following temperature range: between 250 and 345°C, between 345 and 370, between 370 and 450°C, and above 450°C (Table 1, Figure 3G). These components are called A, B, C, D in the following for clarity. Among the three higher temperature components components B and D are identical and close to the reverse polarity ChRM of the diabase dikes (Figure 4C). Component C is antipodal to components B and D. These three components are interpreted as partial TRMs acquired successively during cooling from above 500°C following the diabase dike intrusion. During cooling, the geomagnetic field changed from reverse to normal and back to reverse polarity, leading to the record of antipodal directions D, C, and B successively. Such a record of successive polarity intervals has already been observed in slow cooling sedimentary rocks (e.g., Rochette et al. 1992). Component A blocked up to 345°C has a direction different from the other 3 components related to the dike intrusion but undiscernible (before tilt correction) from the other remagnetized Shaler Supergroup directions. It is interpreted as a partial TRM acquired following the impact. This result indicates that the post-impact temperature in these rocks was 345°C, in close agreement with the ChRM peak unblocking temperatures measured in the other Shaler Supergroup sediments within the impact structure. Component A is not recorded in the diabase dikes because these rocks have minimal blocking capacity below 350°C. The impact breccia, Shaler Supergroup formation, and Victoria Island formation all have post-tilting impact-related ChRM. These seven paleomagnetic directions are similar (Figure 4B) and the mean pole calculated from these sites is: 349.3°E, 1.2°N, angular radius of 95% confidence cone A95 = 8.3°, and Fisher precision parameter K = 53.3 (Table 1). The sites may have slightly different magnetization ages due to different blocking temperatures and varied cooling history and as a result may partially average out secular variation. However, the conservative interpretation is that the combined pole represents a snapshot of the paleomagnetic field shortly following impact that does not average out secular variation and should be considered a virtual geomagnetic pole rather than a mean paleomagnetic pole. 188 Evolution temporelle du champ magnétique lunaire ANNEXES Comparison of this impact pole with the running mean Apparent Polar Wander Path (APWP) for North America (Torsvik et al., 2012; Besse and Courtillot, 1991) shows that it is closest to the 520, 510 and 500 Ma mean paleomagnetic poles (Figure 5). Figure 5. Comparison of the running mean APWP of Laurentia (Torsvik et al., 2012) with the Tunnunik virtual paleomagnetic pole which is the average of the virtual geomagnetic poles of the impact breccia, Shaler Supergroup Formation and Victoria Formation sites. Ages of the running mean APWP poles are labeled from the Cambrian to the Early Devonian. The running mean poles are shown with the calculated 95% confidence circle (A95) associated with the mean of studies that fall within a 20 Myr sliding window. The poles for 520, 460, 450, 390, 380, 360 and 350 Ma are shown with no such confidence circle as there are no studies within the sliding window and the position of the pole for that age is the result of linear interpolation by Torsvik et al. (2012). Following 500 Ma, the angular distance of the Tunnunik VGP becomes progressively greater from the geographic poles implied by the running mean poles of Torsvik et al. (2012) and the paleogeographic model of Torsvik and Cocks (2017) and its modification by Swanson-Hysell and Macdonald (2017) (Figure 6A). From 410 Ma onward to the present, the angular distance between the Tunnunik VGP and the geographic pole exceeds 45o. Deviations between the geographic pole and a virtual geomagnetic pole are expected to arise through secular variation of the geomagnetic field. However, secular variation of the geomagnetic field typically leads to geomagnetic pole positions that are close to the geographic pole. For Evolution temporelle du champ magnétique lunaire 189 ANNEXES example, random draws from the paleosecular variation model TK03.GAD (Tauxe and Kent, 2004) for a site at the equator will be within 20o of the geographic pole 90% of the time and within 30o of the geographic pole 95% of the time. The further away an impact VGP is from a pole of a given age, the less likely it is to have formed at that age (see similar discussion in Hervé et al., 2015 and Carporzen and Gilder, 2006). In order to estimate the probability of the Tunnunik VGP having arisen through secular variation throughout the Phanerozoic, the approach developed by Fairchild et al. (2016) was used: the angular distance between the Tunnunik VGP and the paleopoles is compared to that of VGPs randomly sampled from the TK03.GAD secular variation model (Tauxe and Kent, 2004). For this analysis, we simulated 105 VGPs from the TK03.GAD model in 10 million year increments at the paleogeographic position of the crater. Seeking to quantify the probability of an angular deviation between the paleopole and the Tunnunik VGP as large as that determined at each of these times (Figure 6A), we calculated the percentage of simulated VGPs that are at this angular distance or greater from the pole (Figure 6B and 6C). While the Tunnunik VGP is closest to North America's pole path at ca. 500 Ma, this analysis shows that the likelihood of a VGP with the angular distance as large as the deviation of the paleopole of the Tunnunik VGP is greater than 5% at every simulated time during the Ordovician, using the minimum angle given the uncertainty of the VGP. However, given the increasing angular distance of the Tunnunik VGP from Silurian paleopoles (from 420 Ma onward), the likelihood of a VGP at such a distance is less than 5% and continues to be a low probability event all the way to the present. The magnetostratigraphy scale for the 500-420 Ma time interval (e.g., Hounslow et al., 2016), although incomplete, shows multiple reversals and does not allow to better constrain the age of the reverse polarity remagnetization observed at Tunnunik structure. 190 Evolution temporelle du champ magnétique lunaire ANNEXES angle between Tunnunik pole and the modeled geographic pole a) 100 80 60 40 Torsvik and Cocks (2017) paleogeographic model Swanson-Hysell and Macdonald (2017) Ordovician modification Torsvik et al. (2012) running mean APWP 20 0 500 likelihood of this angle or greater from pole (%) b) 100 400 stratigraphic age constraint 300 time (Ma) 200 100 0 Torsvik and Cocks (2017) paleogeographic model Swanson-Hysell and Macdonald (2017) Ordovician modification Torsvik et al. (2012) running mean APWP 80 Fisher distribution ( =20) as secular variation 60 40 20 5 percent likelihood 0 500 likelihood of this angle or greater from pole (%) c) 100 400 stratigraphic age constraint 300 time (Ma) 200 100 0 Torsvik and Cocks (2017) paleogeographic model Swanson-Hysell and Macdonald (2017) Ordovician modification Torsvik et al. (2012) running mean APWP 80 TK03.GAD as secular variation 60 40 20 5 percent likelihood 0 500 400 300 time (Ma) 200 100 0 Figure 6. A) Angle between Tunnunik impact VGP and paleopoles as a function of time for the Torsvik et al. (2012) APWP, the paleogeographic models of Torsvik and Cocks (2017) and its Ordovician modification by Swanson-Hysell and Macdonald (2017). B) likelihood for a VGP to occur at an angular deviation from the paleopole equal or greater to that observed for the Tunnunik impact VGP for a Fisherian (k=20) distribution of VGPs. C) likelihood for a VGP to occur at an angular deviation from the paleopole equal or greater to that observed for the Tunnunik impact VGP for VGPs drawn from the TK03.GAD secular variation model. Geologic constraints on the timing of the impact come from the age of early Paleozoic shallow-marine sedimentary rocks within the Tunnunik impact structure. Extensive mapping of the shatter cone distribution at the impact structure reveal the youngest rocks with shatter cones to be those of the Victoria Island Formation (Osinski and Ferrière, 2016). Conodont biostratigraphy has revealed an Early Ordovician age (ca. 487 to 470 Ma) for the Victoria Island Formation (Dewing et al., 2013; Dewing et al., 2015). Faulting associated with impact crater development extends beyond the central region that contains shatter cones and deforms rocks of the Thumb Mountain Formation (Dewing et al., 2013; Newman and Osinkski, 2016). Evolution temporelle du champ magnétique lunaire 191 ANNEXES Conodonts and a fossil assemblage of crinoids, corals, gastropods, and cephalopods indicate a Late Ordovician age for the Thumb Mountain Formation (ca. 458 to 445 Ma; Dewing et al., 2013). Overlying the dolostone of the Thumb Mountain is a poorly exposed dolostone unit that Dewing et al. (2013) tentatively assigned to the Allen Bay Formation. Further to the northwest on the Arctic Platform at Devon Island, biostratigraphy on carbonates of the Allen Bay Formation have revealed it to have an age that spans from the Late Ordovician into the Silurian (Thorsteinsson and Mayr, 1987). Mapping of the impact structure has largely left rocks assigned to the Thumb Mountain and Allen Bay Formations undivided (Dewing et al., 2013; Newman and Osinski, 2016). Currently the most robust constraint on the maximum age of the impact event is that the development of the impact structure led to faulting of the Thumb Mountain Formation and therefore occurred after ca. 458 Ma. Regional normal faults taken to have formed in association with Early Cretaceous extension cut across the impact structure were interpreted to indicate that the crater formed before ca. 130 Ma (Dewing et al., 2013), but this constraint is rather speculative. The position of the Tunnunik VGP is most consistent with an Ordovician age for the Tunnunik impact. While secular variation of the geomagnetic field naturally results in VGPs that differ from the mean paleopole position, the large angle between the Tunnunik VGP and paleopoles 420 Ma and younger makes a deviation of this magnitude a low probability event (Figure 6). The combined paleomagnetic, stratigraphic and biostratigraphic constraints collectively suggest a Late Ordovician to Silurian age of ca. 430-450 Ma, only shortly after deposition of the youngest impacted sediments. 5 Conclusions This study focuses on constraining the age of the recently discovered Tunnunik impact structure. Paleomagnetic directions obtained from impact breccia and sedimentary rocks from the target sequence indicate the acquisition of a magnetization following impact-related tilting during a reverse polarity interval. In contrast, the diabase dikes intruding these sediments have retained their original magnetization unblocked above 400oC. The comparison of the resulting paleomagnetic pole with the apparent polar wander path for North America shows it to be close to Cambrian poles and strongly suggests a Paleozoic age for the crater. The likelihood of the observed impact direction becomes very small (<5% likelihood) if it was acquired after ca. 430 Ma suggesting an age of impact that is older than 430 Ma. Combined with the stratigraphic constraints these data indicate an impact age between 450 and 430 Ma, in the Late Ordovician or Silurian Period, soon after deposition of the youngest impacted sedimentary rocks. This old age opens the possibility that ejecta from the Tunnunik crater may have been preserved in the surrounding basin and may be found in the sedimentary rocks of the Arctic platform. The target sedimentary rocks were remagnetized during post-impact cooling. The preservation of pre-impact magnetization unblocked above 400°C in the diabase dikes, and the constraints from the paleomagnetic results obtained on the Shaler Supergroup sediments baked by the intrusions of the diabase dikes indicate collectively that the peak temperature of the thermal excursion associated with the impact was 350°C at the structural level of the studied rocks. 192 Evolution temporelle du champ magnétique lunaire ANNEXES Acknowledgments This project was partly funded by the French Polar Institute IPEV (Institut Paul Emile Victor). The authors are grateful to the Polar Continental Shelf Project for logistical support. The France-Berkeley Fund initiated collaborative research between J.G. and N.L.S.-H. We thank William Zylberman, Cassandra Marion-Beauchamp, and Racel Sopoco for their help in the field during sampling. References Ames, D.E., Watkinson, D.H. and Parrish, R.R. (1998), Dating of a regional hydrothermal system induced by the 1850 Ma Sudbury impact event, Geology, 26, 447–450. Besse, J. and V. Courtillot (1991), Revised and Synthetic apparent polar wander path of the African, Eurasian, North American and Indian plates, and True polar wander since 200 Ma, J. Geophys. Res., 96, 4029–4050. Bezaeva, N.S., Gattacceca, J., Rochette, P., Sadykov, R.A., and V.I. Trukhin (2010). Demagnetization of terrestrial and extraterrestrial rocks under hydrostatic pressure up to 1.2 GPa. Physics of the Earth and Planetary Interiors, 179, 7-20. Carpozen, L. and S.A. Gilder (2006), Evidence for coeval Late Triassic terrestrial impacts from the Rochechouart (France) meteorite impact, Geophysical research letters, v.33, L19308, doi: 10.1029/2006GL027356. Cockell, C. S., Lee, P., Broady P., Lim, D., Osinski, G., Parnell, J., Koeberl, C., Pesonen, L., and Salminen, J., 2005. Effects of Asteroid and Comet Impacts on Lithophytic Habitats – A Synthesis. Meteoritics and Planetary Science, 40, 12, 1-14. Cogné, J.P (2003), PaleoMac: A MacintoshTM application for treating paleomagnetic data and making plate reconstructions, Geochemistry, Geophysics, Geosystems, 4, 1, 1007, doi: 10.1029/2001GC000227. Denyszyn, S. W., Halls, H. C., Davis, D. W., and Evans, D. A. (2009). Paleomagnetism and U–Pb geochronology of Franklin dykes in High Arctic Canada and Greenland: a revised age and paleomagnetic pole constraining block rotations in the Nares Strait region. Canadian Journal of Earth Sciences, 46(9), 689-705. Deutsch A., Schärer U. (1994) Dating terrestrial impact events. Meteoritics, 29, 301-322. Dewing, K., Pratt, B.R., Hadlari, T., Brent, T., Bédard, J. and R.H.Rainbird (2013), Newly identified "Tunnunik" impact structure, Prince Albert Peninsula, northwestern Victoria Island, Arctic Canada, Meteoritics & Planetary Science, 48, 2, 211-223, doi: 10.1111/maps.12052. Dewing, K., Hadlari, T., Rainbird, R.H., and Bédard, J.H., 2015. Phanerozoic geology, northwestern Victoria Island, Northwest Territories; Geological Survey of Canada, Canadian Geoscience Map 171 (preliminary), scale 1:500 000. doi:10.4095/295530 Ding Y., Haskel D., Ovchinnikov S. G., Tseng Y. C., Orlov Y. S., Lang J. C., Mao H. (2008) Novel Pressure induced magnetic transition in magnetite (Fe3O4) Physical Review Letters, 100, 045508. Evolution temporelle du champ magnétique lunaire 193 ANNEXES Fairchild, L.M., Swanson-Hysell, N.L. and S.M. Tikoo (2016), A matter of minutes: Breccia dike paleomagnetism provides evidences for rapid crater modification, Geological Society of America, 44, 9, 723-726, doi: 10.1130/G37927.1. Heaman L. M., LeCheminant A. N., and Rainbird R. H. 1992. Nature and timing of Franklin igneous events, Canada: Implications for a Late Proterozoic mantle plume and the breakup of Laurentia. Earth and Planetary Science Letters 109:117–131. Hergarten, S. and T. Kenkmann (2015), The number of impact craters on Earth: any room for further discoveries ?, Earth and Planetary Science Letters, 425, 187-192. Hervé, G., Gilder, S.A., Marion, C.L., Osinski, G.R., Pohl, A., Petersen, N. and P.J.Sylvester (2015), Paleomagnetic and rock magnetic study of the Mistastin Lake impact structure (Labrador, Canada): implications for geomagnetic perturbation and shock effects, Earth and Planetary Science Letters, 417, 151-163, doi:10.1016/j.epsl.2015.02.011. Hounslow, M.W (2016), Geomagnetic reversal rates following Palaeozoic superchrons have a fast restart mechanism, Nature communication, doi: 10.1038/ncomms12507. Jourdan, F., Reimold, W.U. and A. Deutsch (2012), Dating terrestrial impact structures, Elements, 8, 49-53, doi: 10.2113/gselements.8.1.49. Newman, J.D. and G.R. Osinski (2016), Geological mapping of the Tunnunik impact structure, Victoria Island, Canadian High Arctic, paper presented at the 47th Lunar and Planetary Science Conference, Houston. Osinski, G.R. and L. Ferrière (2016), Shatter cones: (Mis)understood?, Sciences advances, 2, 8, doi: 10.1126/sciadv.1600616. Osinksi, G.R., Lee, P., Parneell J., Spray, J. G., Baron, M. (2005) A case study of impactinduced hyrothermal activity: the Haughton impact structure, Devon Island, Canadian High Arctic, Meteoritics & Planetary Science, 40, 1859–1877. Palmer, H.C., Baragar, W.R.A., Fortier, M. and Foster, J.H. (1983), Paleomagnetism of Late Proterozoic rocks, Victoria Island, Northwest Territories, Canada, Canadian Journal of Earth Sciences, 20, 1456-1469, doi: 10.1139/e83-131. Pilkington M., and R.A.F. Grieve (1992). The geophysical signature of terrestrial impact craters. Review of geophysics 30, 161-181. Quesnel, Y., Gattacceca, J., Osinski, G.R. and P. Rochette (2013), Origin of the central magnetic anomaly at the Haughton impact structure, Canada, Earth and Planetary Science Letters, 367, 116-122. Reimold, W.U. and C. Koeberl (2008), Catastrophes, extinctions and evolution: 50 years of impact cratering studies, Golden Jubilee Memoir of the Geological Society of India, 66, 69-110. Rochette, P., Jackson, M., and C. Aubourg (1992). Rocj magnetism and the interpretation of anisotropy of magnetic susceptibility. Review of Geophysics 30, 209-226. Schulte, P. and 40 co-authors (2010), The Chicxulub asteroid impact and mass extinction at the Cretaceous-Paleogene boundary. Science, 327, 1214-1218. Swanson-Hysell, N. L. and F. A. Macdonald (2017), Tropical weathering of the Tacnic orogeny as a driver for Ordovician cooling, Geology, doi:10.1130/G38985.1 Thorsteinsson, R. and U. Mayr. (1987), The sedimentary rocks of Devon Island, Canadian Arctic Archipelago, Geological Survey of Canada Memoir, 411, 182. 194 Evolution temporelle du champ magnétique lunaire ANNEXES Tauxe, L. and D.V. Kent (2004). A simplified statistical model for the geomagnetic field and the detection of shallow bias in paleomagnetic inclinations: Was the ancient magnetic field dipolar? In J. Channell, D. Kent, W. Lowrie, & J. Meert (Eds.), Timescales of the Paleomagnetic Field, 145, 101–116. Washington, D.C.: AGU. Tauxe, L. and G.S. Watson (1994), The fold test – an eigen analysis approach, Earth and Planetary Science Letters, 122, 331-341. Torsvik, T.H. and L.R.M. Cocks (2017), Earth history and palaeogeography: Cambridge, UK, Cambridge University Press, 311, doi: 10 .1017/9781316225523. Torsvik, T.H., Van Der Voo, R., Preeden, U., Mac Niocaill, C., Steinberger, B., Doubrovine, P.V., Van Hinsbergen, D.J.J., Domeier, M., Gaina, C., Tohver, E., Meert, J.G., McCausland, P.J.A. and L.R.M. Cocks (2012), Phanerozoic polar wander, palaeogeography and dynamics, Earth Science Reviews, 114, 325-368, doi: 10.1016/j.earscirev.2012.06.007. Worm, H.-U., Clark, D., Dekkers, M.J. (1993) Magnetic susceptibility of pyrrhotite: grain size, field and frequency dependence. Geophys. J. Int., 114:127-137. Zylberman, W., Quesnel, Y., Rochette, P., Osinski, G.R., Marion, C. and J. Gattacceca, (2017), Hydrothermally-enhanced magnetization at the center of the Haughton impact structure?, Meteoritics and Planetary Science, 1-19, doi:10.1111/maps.12917. Evolution temporelle du champ magnétique lunaire 195 ANNEXES Supplementary material Site Slat (°N) Slong (°E) I/O crater TUN20 TUN21 TUN34 TUN58 TUN12 TUN30 TUN32 TUN35 TUN17 TUN50 TUN51 TUN56 TUN14 TUN15 TUN16 TUN13 TUN29 TUN31 TUN33 TUN36 TUN21 TUN22 TUN23 TUN28 72.4973 72.4965 72.4821 72.4769 72.1422 72.4729 72.4827 72.4839 72.3326 72.4836 72.4825 72.4759 72.1503 72.1513 72.1516 72.1420 72.4732 72.4831 72.4832 72.4662 72.4966 72.4971 72.4985 72.5192 -114.0209 -114.0198 -113.9376 -113.8936 -112.51387 -113.9320 -113.9410 -113.9379 -114.39646 -113.93269 -113.9292 -113.9063 -112.5226 -112.5230 -112.52317 -112.5206 -113.9503 -113.9321 -113.9392 -113.9665 -114.0198 -114.0200 -114.0200 -114.01946 Inside Inside Inside Inside Outside Inside Inside Inside Outside Outside Outside Outside Outside Outside Outside Outside Inside Inside Inside Inside Inside Inside Inside Inside distance from center (km) 3.3 3.3 0.5 3 61 0.7 0.5 0.7 22.6 14.9 15.2 12.3 6 61 61 61 0.6 0.7 0.5 1.6 3.3 3.4 3.6 5.3 Tan dolostone unit of Mount Phayre formation TUN11 72.1643 -112.6376 Outside 56 Victoria Island TUN03 TUN07 TUN10 TUN18 72.4567 72.4363 72.2800 72.2321 -113.85526 -113.8668 -113.02338 -114.08812 Inside Inside Outside Outside 3.8 5.2 38 28 Formation Impact Breccia Mafic dikes Allen Bay Clastic unit of Mount Phayre formation Shaler Supergroup Stripy unit of Mount Phayre formation paleomagnetic result yes yes no no yes yes yes yes no no no no no no no no yes yes yes yes no no no no no no yes no no Table S1 - list of sampled sites. Site TUN12 is from a 150 m wide mafic dike located 60 km away from the impact structure. It paleomagnetic direction (D=58°, I=-4°, a95=8.4, k=84, n=5) is different from the three diabase dykes sampled in the impact structure, but this can be easily accounted for by secular variation of the geomagnetic field since the emplacements of these dykes are not necessarily strictly coeval. 196 Evolution temporelle du champ magnétique lunaire ANNEXES Annexe 3 Trois planches photographiques des échantillons analysés en laboratoire dans cette étude. Planche 1 10018 (2.3 g) 12021 (2.3 g) 12005 (2.1 g) 1 cm 1 cm 14169-B (1.2 g) 15505-A (1.8 g) 1 cm 1 cm 15529 (2.1 g) 1 cm 1 cm 61195 (2.1 g) 61015 (2.2 g) 1 cm 1 cm 65055-B (1.1 g) 65055-A (2.3 g) 1 cm 65055-C (0.7 g) 1 cm 1 cm Evolution temporelle du champ magnétique lunaire 197 ANNEXES Planche 2 10003 (0.07 g) 14078 (0.03 g) 1 cm 1 cm 60015 (2.1 g) 60215 (1.9 g) 1 cm 65315 (2.1 g) 1 cm 74255 (0.06 g) 1 cm 1 cm 70017 (0.1 g) 1 cm 74275 (0.08 g) 1 cm 198 Evolution temporelle du champ magnétique lunaire 15555 (0.06 g) 1 cm 62255 (1.03 g) 1 cm 70135 (0.03 g) 1 cm 75075 (0.06 g) 1 cm ANNEXES Planche 3 10017 (0.6 g) 1 cm 12016 (0.34 g) 1 cm 12012 (0.3 g) 1 cm 12018 (0.9 g) 1 cm Evolution temporelle du champ magnétique lunaire 199 ANNEXES Annexe 4 Partie 1 : Résultat de la datation standard Argon des échantillons 12005 et 15529. 1) 12005 sous-échantillon 22935 sous-échantillon 22936 200 Evolution temporelle du champ magnétique lunaire ANNEXES 2) 15529 sous-échantillon 22933 sous-échantillon 22938-01 Partie 2 : Cartes de trois échantillons (10018, 14169 et 15505) réalisées au microscope électronique à balayage pour des datations Ar/Ar par sonde laser, présentant les sites à analyser. La première carte est, pour chaque échantillon, réalisée en lumière Evolution temporelle du champ magnétique lunaire 201 ANNEXES naturelle et la seconde carte montre les teneurs en aluminium, potassium et magnésium contenues par les échantillons. 1) 10018 202 Evolution temporelle du champ magnétique lunaire ANNEXES Histogramme d'assemblage de la brèche : âge moyen calculé sur 1-2 Ga Evolution temporelle du champ magnétique lunaire 203 ANNEXES 2) 14169 Histogramme d'assemblage de la brèche : âge moyen calculé sur tout l'intervalle. 204 Evolution temporelle du champ magnétique lunaire ANNEXES 3) 15505 Evolution temporelle du champ magnétique lunaire 205 ANNEXES Histogramme d'assemblage de la brèche : âge moyen calculé sur l'intervalle 0-1 Ga. 206 Evolution temporelle du champ magnétique lunaire ANNEXES Annexe 5 Diagrammes de désaimantation de la NRM. A2) 10018-B1a (68 mg) A1) 10018-A2b (58 mg) N W S HT HT NRM E x10-9 Am2 560 340 N x10-8 Am2 630 A3) 10018-B1b (68 mg) N Up x10-9 Am2 W Up x10-8 Am2 W Up x10-9 Am2 E x 10-9 Am2 630 460 HT 225 200 NRM 200°C 100 °C LT LT LT NRM NRM S Down 100 °C S Down E Down A5) 12021-A1 (287 mg) A4) 12005-C1 (198 mg) A6) 14169-B1a (129 mg) W Up x10-10 Am2 N Up x10-9 Am2 N Up x10-9 Am2 NRM NRM NRM LT 500 N x10-10 Am2 S LT 200°C W 450 250°C E x10-9 Am2 HT 200°C LT E x10-9 Am2 W NRM NRM 580 S Down W Up x 10 Am S Down A9) 15529-C2 (381 mg) A8) 61195-A1a (129 mg) A7) 15505-A3b (213 mg) -8 NRM E Down N 2 N Up x10-8 Am2 Up x 10-9 Am2 NRM NRM NRM LT 520 100°C 580 W 450 LT HT 250 W 200°C E x10-8 Am2 NRM NRM NRM 580 S 360 580 200°C LT HT E x 10-9 Am2 N x 10-8 Am2 S Down E Down S Down A11) 15529-C1 (438 mg) A12) 65055-A1 (387 mg) N Up x10-9 Am2 N Up x10-9 Am2 A10) 61015-B2 (279 mg) 280°C W NRM Up x10-9 Am2 NRM LT LT 250 S 500 540 150°C 150°C 250°C 480 LT W N x10-9 Am2 E x10-9 Am2 NRM NRM NRM E Down 580 W NRM E x10-9 Am2 S Down S Down Evolution temporelle du champ magnétique lunaire 207 208 Evolution temporelle du champ magnétique lunaire W W W S Down 2 mT LC NRM NRM 4 100 S LC N Up x10-8 Am2 Down 3 mT E x10 -10 Am 2 E x10-9 Am2 NRM NRM E x10-8 Am2 S Down B11) 12018 (996 mg) LC 2 mT NRM NRM N Up x10-9 Am2 B6) 12005-B2 (169 mg) 17 N Up x10-10 Am2 B1) 10003 (74 mg) W S W 60 8 mT NRM 100 -9 5 E NRM NRM LC 2 NRM NRM W HC 170 mT E x10-9 Am2 N Up x10-9 Am2 S Down 10 S Down 140 W W LC S Down 5 mT LC N Up x10-9 Am2 40 E x10-9 Am2 NRM NRM E x10-9 Am2 S Down 5 mT HC W NRM NRM W NRM 20 NRM LC NRM NRM E x 10-8 Am2 S 14 LC 7 mT 13 S N E x 10-9 Am2 Down HC Up x 10-9 Am2 B14) 14078 (26 mg) LC 2 mT N B9) 12012 (290 mg) 5 mT B4) 10018-B4 (80 mg) Up x 10-8 Am2 S Down 220 N N Up x10-9 Am2 B8) 12005-B4 (145 mg) NRM B13) 12021-C (220 mg) NRM W NRM LC 5 mT E x10-8 Am2 NRM B3) 10018-A2a (145 mg) N Up x10-8 Am2 N x10-9 Am2 2 B12) 12021-B1 (533 mg) Down LC W Up x10-9 Am2 6 mT 2 E x 10 Am S Down NRM -9 Up x 10 Am B7) 12005-B3 (134 mg) HC LC N B2) 10017 (550 mg) NRM NRM S Down HC 80 Down 22 7 LC 5 mT W NRM NRM E x10-8 Am2 7 mT 3 S Down 6 LC N Up x 10-9 Am2 NRM E x 10-9 Am2 NRM B15) 14169-B2a (73 mg) E Down LC N x10-9 Am2 W Up x10-9 Am2 B10) 12016 (340 mg) E x10-10 Am2 Up x10-10 Am2 S W B5) 10018-C1 (132 mg) N Up x10-8 Am2 ANNEXES W NRM NRM W W 3 mT 100 LC NRM 4 NRM S Down N Up x10-9 Am2 W HC 16 -9 LC E x10-9 Am 2 LC S NRM NRM Up x10 Am 4 mT 2 LC Down -9 W Down NRM E 100 N x10-9 Am2 S 100 45 -8 E Down x 10 Am HC 19 2 9 mT S NRM NRM S E x10-9 Am2 Up 2 LC 4 mT 9 E 100 Down W Up x10 -10 NRM LC N x10-10 Am2 Am LC S HC 4 mT W S N 6 NRM NRM NRM S Down 100 mT LC LC S 17 44 44 100 16 mT W HC NRM NRM NRM Down E x10-9 Am2 N Up x10-9 Am2 S LC 5 2 mT NRM E x10-9 Am2 N x10-10 Am2 B31) 65055-C (699 mg) E Down LC E x 10-9 Am2 Up x10-9 Am2 S Down HC 100 N Up x 10-9 Am2 S Down N 7 mT 100 W Up x10-10 Am2 B26) 60215 (61 mg) E x10-9 Am2 N Up x10-9 Am2 5 mT NRM NRM B20) 15529-A2 (434 mg) B21) 15529-B2 (352 mg) NRM W B30) 65055-B2 (279 mg) Down E x10-9 Am2 Up x10-9 Am2 W E x10-9 Am2 Down 90 N Up x10-9 Am2 B19) 15505-A3c2 (187 mg) B25) 61015-B6 (55 mg) NRM W 2 NRM NRM W N NRM NRM LC B29) 62255 (295 mg) 4 mT NRM N x10 Am -9 4 B18) 15505-A2a (96 mg) W Up x 10-8 Am2 B24) 61015-B3 (87 mg) E x10-8 Am2 B28) 61195-B3 (225 mg) S Down NRM 160 NRM Up x10 Am 2 NRM NRM W LC 4 mT N -9 B23) 60015 (820 mg) 2 S Down 120 E x10-9 Am2 E x10-10 Am2 Up x10-10 Am2 S Down N W 8 mT B17) 15505-A1b (80 mg) N Up x10-8 Am2 E x10 Am NRM NRM B27) 61195-B1 (253 mg) LC LC B22) 15555 (59 mg) S Down 8 3 mT N Up x10-9 Am2 B16) 14169-B2b (118 mg) ANNEXES Evolution temporelle du champ magnétique lunaire 209 W S E Down Up x10 -10 210 Evolution temporelle du champ magnétique lunaire 7 mT LC Up x10-10 Am2 S Down N B36) 74275 (358 mg) NRM LC NRM 9 mT W B32) 65315 (161 mg) NRM NRM Am 2 E x10 -10 Am 2 N x10-10 Am2 S Down W NRM 11 mT S LC E Down W Up x10 Am -9 LC 2 B37) 75075 (217 mg) 24 NRM N x10 Am -9 B33) 70017 (578 mg) 2 NRM NRM Up 2 S LC NRM NRM W 2 LC 12 mT HC 70 B38) LAP02205 (219 mg) NRM NRM S 100 N S Down Ex 10-9 Am2 NRM W NRM LC 5 mT 38 S Down 100 HC LC 20 6 mT N Up x10-6 Am2 E x10-6 Am2 B39) NWA10782 (42 g) N x10-9 Am2 Up x10-9 Am2 E Down W B35) 74255 (221 mg) 10-9 Am2 NRM NRM Up x Up x10-9 Am2 Down N x10-9 Am2 E x10-9 Am2 E 2 W 100 mT -9 N x10 Am B34) 70135 (107 mg) ANNEXES ANNEXES Annexe 6 REVIEW OF SCIENTIFIC INSTRUMENTS 88, 104502 (2017) A spinner magnetometer for large Apollo lunar samples M. Uehara,1,a) J. Gattacceca,1 Y. Quesnel,1 C. Lepaulard,1 E. A. Lima,2 M. Manfredi,3 and P. Rochette1 1 CNRS, Aix Marseille Univ, IRD, Coll France, CEREGE, Aix-en-Provence, France of Earth, Atmospheric and Planetary Sciences, Massachusetts Institute of Technology, Cambridge, Massachusetts 02139, USA 3 CGI, 92097 La Défense, France 2 Department (Received 21 April 2017; accepted 10 October 2017; published online 27 October 2017) We developed a spinner magnetometer to measure the natural remanent magnetization of large Apollo lunar rocks in the storage vault of the Lunar Sample Laboratory Facility (LSLF) of NASA. The magnetometer mainly consists of a commercially available three-axial fluxgate sensor and a handrotating sample table with an optical encoder recording the rotation angles. The distance between the sample and the sensor is adjustable according to the sample size and magnetization intensity. The sensor and the sample are placed in a two-layer mu-metal shield to measure the sample natural remanent magnetization. The magnetic signals are acquired together with the rotation angle to obtain stacking of the measured signals over multiple revolutions. The developed magnetometer has a sensitivity of 5 ⇥ 10 7 Am2 at the standard sensor-to-sample distance of 15 cm. This sensitivity is sufficient to measure the natural remanent magnetization of almost all the lunar basalt and breccia samples with mass above 10 g in the LSLF vault. Published by AIP Publishing. https://doi.org/10.1063/1.5008905 I. RATIONALE The Moon has no global magnetic field today. However spacecraft observations have shown that large portions of the crust are magnetized (e.g., Refs. 1 and 2). Paleomagnetic studies of samples returned by the Apollo program have also shown that some of these rocks carry a significant remanent magnetization that was acquired on the Moon.3 It is now rather firmly established that the Moon once had a global magnetic field generated by a dynamo mechanism in a molten metallic core.4 However, crucial questions remain to be answered such as the intensity of the lunar paleofield, its geometry, and the exact timing of the dynamo onset and turn-off. Answering these questions would ultimately shed light on the interior structure of the Moon, on the processes that allowed dynamo generation, and would provide the dynamo theory with a robust test case. A fairly large number of samples (74) were studied in the 1970s, soon after their return from the Moon (see Ref. 3 for a review). A new series of more refined paleomagnetic and thermochronology studies have been performed in the 2010s.5–9 All together, about 71 different Apollo rocks (for a total of 90 samples) have been studied for paleomagnetism. This represents only 5% of the 1402 individual returned during the Apollo program. All these studies (with the exception of Cournède et al.6 ) were performed on small chips (usually <1 g) allocated for detailed laboratory work that generally include sub-sampling and study of even smaller fragments using high-sensitivity Superconducting Quantum Interference Device (SQUID) magnetometers.10–12 Therefore, these paleomagnetic studies imply destructive and time-consuming sub-sampling of the original Apollo rocks by curators and a)uehara@cerege.fr 0034-6748/2017/88(10)/104502/11/$30.00 processors at NASA. Consequently, an exhaustive paleomagnetic study of the Apollo collection appears out of reach using the standard procedure. II. SPECIFICITIES AND INTEREST OF THE PROPOSED MEASUREMENTS With the aim of making an exhaustive magnetic survey of the Apollo rocks, we adopted the following strategy: perform simple magnetic measurements (Natural Remanent Magnetization, NRM) of the whole, unprocessed sample directly in the Lunar Sample Laboratory Facility (LSLF) storage facility, without any subsampling or demagnetization, thus reducing sample preparation and handling to a minimum that is acceptable for curators. Measuring large whole samples has other advantages in addition to its non-destructive quality. First, lunar rocks can be heterogeneously magnetized, especially the breccias that make up a large fraction of the Apollo collection. Indeed, different parts of a lunar breccia (matrix, clasts of various lithologies, and melt) can have strongly contrasted magnetic properties and also different paleomagnetic direction if the magnetization of the clasts has survived the assembly of the breccia. Second, the study of small sub-samples increases the apparent effect of possible remagnetization during sample return or processing. Some samples have been shown to be partially and locally remagnetized by exposure to fields up to several mT during the return flight from the Moon (e.g., Ref. 13). Others have been locally heated during cutting with band saw.14 Studying whole large samples will minimize the bulk effect of these magnetic contaminations, given that they can dominate the signal when studying small samples that may come from the area that has been heated by exposure to a strong field. The aim of our study is chiefly to perform an exhaustive survey of the NRM of Apollo rocks to identify the 88, 104502-1 Published by AIP Publishing. Evolution temporelle du champ magnétique lunaire 211 ANNEXES 104502-2 Uehara et al. key samples that can then be studied in details in the laboratory using standard paleomagnetic techniques. Therefore, we needed to develop a magnetometer that could measure the magnetic moment of whole unprocessed Apollo samples directly in their storage facility, while complying with NASA curatorial constraints. The main mass of Apollo samples is kept in a storage vault at the LSLF at Johnson Space Center (NASA) in Houston, USA. Samples are stored in the vault as whole rocks packed in multilayered Teflon bags (about 5–30 cm in size) filled with pure nitrogen gas to avoid oxidation and contamination. Sample mass ranges from <1 g to about 5 kg. In this study, we focused on samples above 50 g, corresponding to about 15 cm3 . The Apollo collection contains about 200 of such samples. Among them, only about 40 have been studied for paleomagnetism so far, indicating that an exhaustive survey will likely bring new valuable information. III. INSTRUMENTAL CONSTRAINTS Although modern commercial SQUID magnetometers are perfectly adapted for detailed paleomagnetic studies of lunar rocks, they can typically only accommodate samples up to about 10 cm3 (about 30 g) and are not portable, making them unsuitable for the proposed measurements. We need a magnetometer optimized for fast and efficient measurements of whole lunar rocks in the vault. The instrumental precision and accuracy are not the main constraints, since this instrument is mostly designed for the purpose of triage of samples for further more refined analyses in the laboratory. There are five technical challenges for the development of a magnetometer which is able to measure the NRM of unprocessed Apollo rocks in situ in their storage vault. The first is the limitations imposed by the curatorial constraints. As mentioned, samples must remain in their original packaging to avoid any chemical contaminations and time-consuming repackaging by NASA processors. Moreover, many mechanical components and chemical compounds (gear, cam, slider, electric motor, metal ball bearings, oils, etc.) cannot be used in the vault to avoid chemical contamination. This limitation requires that the magnetometer must use very simple mechanisms. The second constraint is the wide range of the expected magnetic moments to be measured due to the variety of sample size and nature. Depending on the lithology, the NRM is expected to vary from weak (norite, anorthosite, ⇠10 7 Am2 /kg) to relatively strong (basalt, ⇠10 5 Am2 /kg; impact melt breccias, ⇠10 4 Am2 /kg).6 Because we focus mostly on samples that range from 40 g to 4 kg in mass, the variation between the weakest and the strongest samples can be in the order of 104 , requiring a wide dynamic range. The third constraint is sensitivity, which must be good enough to allow the measurement of the NRM of most Apollo rocks with mass above 50 g. The fourth constraint is portability. To be allowed access to the lunar vault, the magnetometer should be dismountable, compact, and easy to reassemble in the vault. The fifth constraint is processing speed because hundreds of samples must be measured. Working in the vault requires the continuous presence of a NASA lunar curator and/or Rev. Sci. Instrum. 88, 104502 (2017) processor and represents a heavy load in terms of personnel use. Measuring 100 samples in a week, including the initial setup and final disassembly of the magnetometer, implies that the measurement time (including sample handling) has to be 10 min/sample at most. A spinner magnetometer can satisfy all these requirements. They have been already used for the study of large samples such as whole meteorite stones15 and archaeological artifacts.16 This type of magnetometer consists of a fixed magnetic field sensor, a sample on a rotating stage, magnetic shields enclosing the sensor and the sample, and an encoder detecting the rotation angle. The sample, ideally carrying a magnetization equivalent to a single dipole, generates sinusoidal signals for the radial and the tangential components of the field at the sensor position as the rock is rotated about the vertical axis. By changing the sample's orientation at least two times, we can estimate the three components of magnetic moment. We can adjust the sensor-to-sample distance to measure samples of various sizes and achieve large dynamic ranges. Moreover, we can improve its signal-to-noise (S/N) ratio by stacking the data during multiple revolutions.17,18 In this paper, we describe a portable spinner magnetometer developed specifically to measure the magnetic moments of large unprocessed Apollo samples in the LSLF vault. Furthermore, we present pilot data processing using the result of the actual FIG. 1. Schematic illustrations of the magnetometer in the top view opening the top cover (a) and the side view showing the interior by a broken-out section of the shield (b). A two-layered mu-metal shield (1) enclosing a threeaxis fluxgate sensor (7) mounted on a sensor holder (8) that can slide on a rail (3), and a sample (4) on a rotating table (5). The sensor-to-sample distance is adjusted by changing the position of the pin (9) fixed on bores (10). The user can rotate the table by a handle (14) and the rotation angle is measured by an optical encoder unit (13). The power supply and the outputs of the sensor are connected to the outer signal conditioning unit via feedthrough (2) and a connector (12). The mu-metal shield and the entire system is mounted on an aluminum plate (6) supported by aluminum feet (11). The coordinate system is shown in the figures. The horizontal and vertical lines in (b) show rotation axis and the horizontal centerline of the sensor, respectively. 212 Evolution temporelle du champ magnétique lunaire ANNEXES 104502-3 Uehara et al. Rev. Sci. Instrum. 88, 104502 (2017) measurement of 133 Apollo samples during the first round of measurements in the LSLF, in addition to performance tests in our laboratory. IV. DESCRIPTION OF THE MAGNETOMETER Figure 1 shows schematic illustrations of the spinner magnetometer for the large Apollo samples. A commercial three-axis fluxgate magnetic field sensor (Mag-03MS100, Bartington Instruments, Ltd.) and a rotating sample stage are enclosed in a two-layer mu-metal magnetic shield (550 mm in diameter and 500 mm in height). The interior of the magnetometer can be accessed by opening the top lids of the mu-metal shields. To minimize stray fields, all of the holes penetrating both the inner and outer shields are arranged not to be coaxially positioned, except for the 11 mm bore for the spindle and the 4 mm hole for the feedthrough. The residual magnetic field, which is mainly the stray field resulting from small gaps between the outer and the main cylinder of the shield, is lower than 20 nT for all three components of the magnetic field, as evaluated during 10 successive opening and closing operations of the mu-metal shield. The samples are enclosed in a cube made of transparent acrylic resin (PMMA) plates welded by solvents. Cubes with different dimensions (5, 7, 10, 12, 15, 17, and 20 cm sides) were used to best fit various sample sizes and shapes. Samples are kept tight in the cubes using Teflon films and/or PMMA rings. The cubes have center marks on the surfaces that help locating the sample at the center. For samples with anisometric shapes, we recorded the shape and position in the cube for the later more refined analyses. As shown in Fig. 1(b), the center of the cube is at the intersection of the spindle of the stage and the horizontal centerline of the fluxgate sensor (hereafter call "stage center"). When using the smaller cubes, acrylic resin spacers are used to keep the cube center at the stage center. The distance between the stage center and the sensor (d) is adjustable according to the magnetic moment intensity and the size of the sample. The sensor holder can be fixed by an aluminum pin on the guide rail that has bores at d = 15, 16, 17.5, 20, 22.5, 25, 27.5, and 30 cm. The sensor can be moved as close as d = 5 cm from the sample center by using a PMMA extension plate. The sample stage is revolved manually using an aluminum handle directly connected to the spindle via an aluminum coupling mechanism. The target turning speed is about 1 revolution per 10 s (0.1 Hz), which is slower than other magnetic-sensor-equipped spinner magnetometers (5–7 Hz).19,20 To avoid chemical contamination, lubricant-free Teflon bearings were used. All the other metallic parts are made of aluminum, except for the mu-metal shield, which is never in contact with the PMMA cubes containing the samples. Figure 2 shows the schematic operation diagram of the magnetometer. The fluxgate sensor has output noise spectral densities of about 9 pTrms Hz 0.5 at 1 Hz for three components and the orthogonality errors are <0.1 , according to the manufacturer specifications. The rotation angle of the spindle is measured by an optical encoder connected to a digital input/output interface (NI 9403, National Instruments Corp.). The resolution of the encoder is 512 pulses-per-revolution and the maximum position error is 0.167 . The digital backend of the encoder can handle rotation speed up to several thousand rotations per minutes. Moreover, the index signal forces the decoder's counter to reset, preventing propagation of counting the error. A four-channel 24-bit A/D converter unit with ±10 V measurement range [analog-to-digital converter (ADC); NI 9239, National Instruments Corp.] samples all three channels (X-, Y-, and Z-axis) simultaneously after amplified !) is detected by the 3 axis fluxgate sensor FIG. 2. Schematic diagrams of the magnetometer. The magnetic field from the magnetic moment of the sample (m (FG) at the distance d connected to the signal conditioning unit (SCU3) that filters high frequency noises and amplitude at a gain of 1000. The output of the three magnetic field components (BX , BY , BZ ) is simultaneously digitized by 3 channels of a 24-bit A/D converter (NI9239). The encoded rotation angle of the sample table (✓) is decoded by a decoder IC connected to a parallel I/O unit (NI 9403) and converted in a relative angle. The zero position is where the index of the encoder exactly faces the fluxgate sensor. The resolution is 512 steps per a revolution. The A/D unit and the I/O unit are mounted to a USB chassis (NI cDAQ-9174) and connected to a PC via USB port. A LabVIEW program controls the quasi-real-time routine (RT main loop) and treats the data every 20 ms (50 Hz). Evolution temporelle du champ magnétique lunaire 213 ANNEXES 104502-4 Uehara et al. Rev. Sci. Instrum. 88, 104502 (2017) (Gain = 1000) and conditioned by a signal conditioning unit (SCU; SCU-3, Bartington Instruments, Ltd.). The analog and digital front end units are mounted on the universal serial bus (USB) chassis (NI cDAQ-9174, National Instruments Corp.) that can realize a synchronous operation of the mounted units. Figure 2 also shows a block diagram of the data acquisition software. The entire acquisition process is controlled by a 64-bit LabVIEW (National Instruments Corp.) program running on a laptop personal computer (PC). Since the revolution speed of the sample is variable, the synchronization between the encoder position and the sensor signals is important to measure the magnetic field distribution around the sample accurately. The program has two parallel threads working as a real-time routine. The first thread controls the sampling and simple low-pass filtering. To avoid the problem of aliasing, the ADC oversamples the signals at 50k samples per second (sps) that is 500 times faster than the cutoff frequency of the SCU's second ordered low-pass filter ( fc = 100 Hz). The digitized data stream is stored in a buffer and re-sampled at 50 sps by averaging of the buffered 1000 samples, which plays as a digital low-pass filter that removes signals above 50 Hz. This data stream is double buffered not to drop any data during unexpected heavy forward processes. The second thread records the position of the optical encoder through communications with the decoder that returns the position of the optical encoder's index mark with a 512 pulse-per-revolution resolution. The standard direction of rotation is defined as clockwise (CW). The gating of the sampling and the acquisition of the encoder position is triggered by the shared 50 Hz software trigger, realizing a synchronous measurement of the magnetic field and the sample position. The resolution of the optical encoder (512 positions/revolution) and the data acquisition frequency (50 Hz) is optimized for the target rotation speed (0.1 Hz) as it gives about 500 samples during 1 revolution in 10 s. The maximum instantaneous rotation speed that will not be affected by the SCU's low-pass filter is 1000 /s, which is five times faster than the instantaneous rotation speed in the actual measurements (see Appendix A). The data are recorded along with timestamps of 1 ms precision for the purpose of the post-acquisition filtering processes. Finally, the dataset is saved on the hard disk. V. THEORY OF OPERATION This magnetometer measures the magnetic fields around the rotating sample. For simplicity, we consider a dipole moment vector m = (mx , my , mz ) at the center of the sample cube. We define the sample coordinates as follows. We defined the north, east, and down surfaces of the sample cube that, respectively, correspond to x-, y-, and z-axis directions (Fig. 2). Using declination D and inclination I, this vector can be written as m = (m cos D cos I, m sin D cos I, m sin I), where m = |m|. We can observe sinusoids that are functions of the rotation angle ✓ due to the rotation of m. The Y-, X-, and Z-axis of the fluxgate sensor measure the radial, tangential, and vertically downward components of the field, respectively (Fig. 2). The observed magnetic field vector B(✓) is given by FIG. 3. An example of signal treatment procedure. The sample No. 12018.15, which was collected by the Apollo 12 mission, is one of the most weakly magnetized samples. The magnetic field is measured at the position 1, observed at d = 15 cm and rotated 32 revolutions. All magnetic field intensities are relative to the initial value. (a) The first step is the drift and jump correction by a high-pass filter. The original signal is converted in nT and plotted as a distribution over the absolute rotation angle (right chart). The small ripples have a wavelength of 360 corresponding to sinusoidal signals generated by revolutions of the sample. Large drifting (400 pT) and jumping (100 pT) are observable, which have been removed by the filtering (left chart). (b) The stacked data (solid dots) compiled for a single revolution (360 ) and its FFT low-pass filtered result (solid lines) after drift and jump corrections. (c) A prediction (solid black lines) with a dipole model after an inversion calculation involving data obtained at other two positions (position 2 and 3). The predicted dipole is m = 1.5 ⇥10 6 Am2 , I = 54 , and D = 162 . 214 Evolution temporelle du champ magnétique lunaire ANNEXES 104502-5 Uehara et al. Rev. Sci. Instrum. 88, 104502 (2017) m cos I sin (D + ✓) 8 > BX (✓) = ⇥ > > > 4⇡ d3 > > > > > 2m cos I cos(D + ✓) < BY (✓) = . (1) ⇥ > 3 > 4⇡ d > > > > m sin I 1 > > > BZ (✓) = ⇥ 3 : 4⇡ d Note that the CW rotation of the stage makes the scanning direction of the sample counter clockwise (CCW), resulting in a negative sign of the term sin(D + ✓). We defined the origin of the rotation ✓ when the sample north points toward the sensor. We can calibrate the stage north by measuring a point source placed on the north notch of the stage (Fig. 2); the position where |BX + BY | becomes maximum corresponds to the north (✓ = 0). It is important to note that the waveform of the BZ component is constant and BX and BY components are sinusoidal. Unfortunately, our magnetometer cannot measure Bz directly due to the DC offsets. Thus, we change the sample position in three different rotation axis; around z-axis (position 1), y-axis (position 2), and x-axis (position 3). The acrylic cubic sample holders have been checked for precise orthogonality to ensure the accuracy of these orthogonal rotations. This operation enables us to measure all three components of the moment m as sinusoidal signals and solves the problem of the DC offsets. For this reason, the DC component is not considered in the post-processing, and the chart always starts from 0 nT at the beginning of the measurement. The encoder angle is sampled at a fixed frequency (50 Hz) that is asynchronous to the optical encoder's movement (Fig. 2). This asynchronous sampling makes a quantization error between the actual direction ✓ and the apparent encoder angle ✓ enc (n) = n ⇥ 2⇡/N, where n is the encoder count (n = 0, 1, . . . = N 1) and N is the number of the pulses per revolution, yielding the resolution of the encoder ✓ = 2⇡/N (rad). This quantization error ✓ err = ✓ ✓ enc (n) is randomly distributed in the range 0  ✓ err < ✓, which makes a signal error given by err(✓, ✓ err ) = B(✓ + ✓ err ) B(✓). This is akin to quantization noise. The worst-case signal error is approximately given by substituting ✓ for ✓ err . For an encoder with a good resolution (e.g., N > 50), this worst-case signal error is err (✓, ✓) = ✓ ⇥ a(✓ enc (n)), maximum when we measure a dipole magnetic field with an amplitude A, given by B(✓) = A sin(✓) (see Appendix A). The first remedy to reduce this error is simply increasing the encoder's resolution N. The second is simultaneous acquisition of the optical encoder and the ADC to keep the same ✓ value during the measurement because this error is a sort of a phase error. The third is calculating an average during the passage between two positions, improving the worst-case error in half (⇡A/N, see Appendix A); this technique is eventually realized by the oversampling method (Fig. 2). To conclude, the current system with N = 512 has a worst-case error of ⇡/512 = 0.61% of the amplitude, which is 6 pT for a typical A = 1 nT signal. This is below the output noise density of the fluxgate sensor and far below the ambient noise (several tens of pT), indicating that it is negligible in our system. One of the advantages of the spinner magnetometer is that the signal-to-noise (S/N) ratio can be improved by postprocessing. This spinner magnetometer conducts a box-car integration (stacking) of the magnetic field signals whose reference signal is the encoder output. By filtering and stacking of the data over multiple revolutions, we can decrease the noise, which is not synchronized with the rotation of the sample, unlike the periodic signal resulting from the magnetization of the sample.17,18 We developed Python scripts using the Scipy library (www.scipy.org) that conducts three steps of post-processing. Figure 3 shows an example of the post processing using the dataset of the Apollo 12 sample (No. 12018.15) measured in the LSLF vault. The first step is removing low-frequency noise components whose frequencies are lower than that of the revolution (drifting and baseline jumping) due to temperature drifts and disturbance of the ambient field, which may be dominant in the untreated signal [left-side chart of Fig. 3(a)]. To remove this low-frequency noise, we subtract the baseline from the signal. The baseline is estimated by the application of a Savitzky–Golay filter with 1st order polynomial fitting and a 32-point window. The baseline for the first and last 32 points, where we cannot apply this filter, is estimated by a linear approximation. The right-side chart of Fig. 3(a) shows the signals after subtracting the baseline, indicating the successful removal of the targeted noises. The second step is stacking [Fig. 3(b)]. In the stacked result, we can roughly identify the sinusoidal curve buried in high-frequency noises. The third step is the low-pass filtering by a fast Fourier transformation (FFT). Since we try to explain the magnetic (2) where a(✓ enc (n)) is the slope of the signal at the nth encoder position. This worst-case error can reach 2⇡A/N at the TABLE I. Alternating field (AF) demagnetization result of StdBlockNo13, showing intensity, declination, and inclination obtained by the prediction given by the inversion results of the developed spinner magnetometer and the observation by the SQUID magnetometer. The intensity and angular errors (|Dir|) between the predictions and the SQUID vector moments are also shown. The angular error is in absolute values. Prediction AF (mT) 0 5 10 20 80 Int (Am2 ) 4.90 ⇥ 10 3.50 ⇥ 10 2.30 ⇥ 10 1.30 ⇥ 10 5.00 ⇥ 10 6 6 6 6 7 Observation SQUID Dec (deg) Inc (deg) 200 200 208 238 254 40 46 44 42 34 Int (Am2 ) 4.69 ⇥ 10 3.44 ⇥ 10 2.15 ⇥ 10 1.29 ⇥ 10 4.70 ⇥ 10 6 6 6 6 7 Error Dec (deg) Inc (deg) 201 198 211 229 242 37 44 42 40 31 Int (Am2 ) 2.09 ⇥ 10 6.47 ⇥ 10 1.53 ⇥ 10 1.30 ⇥ 10 3.03 ⇥ 10 7 8 7 8 8 |Dir| (deg) 3.5 2.6 2.6 7.3 10.4 Evolution temporelle du champ magnétique lunaire 215 ANNEXES 104502-6 Uehara et al. field by a single dipole source at the stage center in this paper, we do not use the high frequency components. The high-frequency components shorter than 100 wavelength, which can be originated fine-scaled magnetic structure, highfrequency noises, or non-dipole component,20 are removed by the FFT filter after smoothing by a weak Savitzky–Golay filter with 1st order polynomial fitting and a 11-point window. The solid line in Fig. 3(b) is the waveform after this FFT filtering. Since the stacked waveform is averaged over multiple periods, it is enough continuous at both ends to carry Rev. Sci. Instrum. 88, 104502 (2017) out FFT. These stacked and filtered waveforms are used for the inversion to predict the dipole source parameters. This last step consists in a standard least-squares inverse approach to find the best-fitting set of the 3 unknown parameters: dipole moment intensity, inclination, and declination. The dipole is assumed to be centered. Indeed, our results show that 90% of the samples show magnetic field measurements "coherent" (i.e., less than 20% of error between predictions and observations) with a dipolar source located at the center of the sample, though the rest 10% of the samples contain quadrupole or higher harmonics probably due to the very anisotropic shape or heterogeneous composition like lunar impact breccia. The off-centered dipole may also be the source of non-dipole character.20 During the measurements, the LabVIEW program displays the raw data after stacking with error bars (±standard deviation) as a plot versus rotation angle ✓. Note that we visualize a result of stacking without filtering to reduce the central processing unit (CPU) load and keep the real-time routine. The program also shows the estimated sinusoidal curve and the noise level, which are calculated by FFT results of the observed signal. The noise will reduce with stacking inversely with the square root of the number of revolutions. The user can stop the rotations of the sample when the quality value cannot improve any further by adding revolutions. The nominal revolution time is about 8 turns (1.5 min) and thus the noise is reduced by 65% (=8 0.5 ) theoretically.17 The user can also check the skewness of the sinusoidal curve, which can originate from the shape effect or inhomogeneity of NRM and increase the sensor-to-sample distance to reduce those multipole components. VI. PERFORMANCE OF THE MAGNETOMETER FIG. 4. A demonstration of the magnetometer performances using a standard sample that is a small (0.98 g) fragment of a basalt rock. (a) The standard sample is demagnetized by an alternating field (AF) up to 80 mT and measured by the developed spinner magnetometer (solid square symbols, after prediction using 3 positions) and the SQUID magnetometer (open circle symbols). The error of the prediction is also shown in percent of the SQUID results. Our data predict the actual dipole moment measured by SQUID magnetometer in 0.8%–7.0% of overestimation. (b) The observations after data treatments at position 1 (dots) and the predictions of a dipole model using three positions (black lines) at 80 mT AF demagnetization step. The predicted dipole moment is m = 5.0 ⇥10 7 Am2 , I = 34 , and D = 254 . Table I and Fig. 4(a) show the result of a demagnetization experiment at the CEREGE laboratory (Aix-en-Provence, France) using the large sample spinner magnetometer and a commercially available SQUID magnetometer with an inline alternating field (AF) demagnetizer (2G Enterprise, model 760R). A small terrestrial basalt fragment (0.98 g), which can be considered as a quasi-dipole source, is enclosed in a 1 in. cubic plastic capsule. The sample is measured with the spinner magnetometer using a three-position scheme (i.e., rotation around x-, y-, and z-axis), and then, it is also measured with the SQUID magnetometer and demagnetized by the AF. We continue this sequence up to 80 mT AF demagnetization field to check for the effect of variable magnetic moment intensity. In view of the high precision of the SQUID magnetometer (2 ⇥ 10 11 Am2 ),21 and its cross calibration with other magnetometers in our laboratory (including a JR5 spinner magnetometer from AGICO, Inc.), we consider that the moment intensity measured with this instrument is close enough to the actual magnetic moment intensity for the intensity range in this study (10 6 Am2 ). The predicted intensities of the dipole moment using our spinner magnetometer are in close agreement with the actual dipole moments, though there is some overestimation between 0.8% and 7.0% [Fig. 4(a)]. Since the amount of the overestimation is not a function of the 216 Evolution temporelle du champ magnétique lunaire ANNEXES 104502-7 Uehara et al. Rev. Sci. Instrum. 88, 104502 (2017) intensity of the magnetic moment, it seems that this error is not due to the noise but other factors such as positioning error when we replace the samples at each step. It is notable that the error in the direction is also small (from 3 to 10 , Table I). The cubic shape of the sample capsule can constrain the tilt (inclination) of the sample but let freely rotate horizontally (declination) during the repeated placing of the sample. This may explain the larger error in declination (from 1 to +12 ) than in inclination (from +2 to +3 ). We estimated the repeatability error of this instrument by five repeated measurements of this basalt sample. Due to our operational schedule, we conducted this experiment within a magnetically shielded room of the CEREGE laboratory but without the mu-metal shield of the instrument. This configuration increases the background field and noise by a factor of ten. The sample was saturated in a 1 T magnetic field generated by a pulse magnetizer (model MMPM-9, Magnetic Measurements, Ltd.). The standard deviation for the five measurements is 3% of the average magnetization of the sample (Table II). The semi-angle of aperture of the 95% confidence cone (↵95 )22 is 1.7 , which gives one angular standard deviation (±1 ) of 2.2 . These results indicate a satisfactory repeatability of this instrument. We also conducted a series of measurements at four different sensor-to-sample distances. The result shows similar variability as for the repeatability test (Table III). This indicates that the error due to the different distance is within the error due to the repeatability. Overall, the intensity and directions provided by the instrument are precise within 3% and 2 , respectively, and likely better than that when using the mu-metal shielding. Figure 4(b) shows the example of the severe S/N ratio condition of sample demagnetized by 80 mT AF. The peakto-peak noise at CEREGE experiment is 250 pTp-p and that at NASA [Fig. 3(b)] is 203 pTp-p , that is, 20% weaker than in CEREGE. Carefully observing the result at LSLF, there is no spike noise such as the one visible in the result at CEREGE. This low noise environment at the LSLF vault is due to the fact that the vault itself is equivalent to a closed stainlesssteel capsule which acts as a good electromagnetic shield. As demonstrated by a previous study, it is hard to recover the signal buried in a strong noise. Using these background TABLE II. A result of repeated measure of sample StdBlockNo13, showing intensity, declination, and inclination obtained by the prediction given by the inversion results. The mean value, the standard deviation, the semi-angle of aperture of the 95% confidence cone (↵95 ), and the angular standard deviation (✓ 65 ) of the magnetic moment vectors are also shown. No. run Int (Am2 ) 1 2 3 4 5 8.95 ⇥ 10 9.37 ⇥ 10 9.61 ⇥ 10 9.53 ⇥ 10 9.39 ⇥ 10 5 Mean Standard deviation ↵95 ✓ 65 9.37 ⇥ 10 2.56 ⇥ 10 5 5 5 5 5 6 Dec (deg) Inc (deg) 2.5 0.1 1.4 0.6 0.7 1.5 2.3 0 2.1 3.8 1.1 1.8 2.1 1.9 TABLE III. Result of the measurement of sample StdBlockNo13 at different sensor-to-sample distance, showing intensity, declination, and inclination obtained by the prediction given by the inversion results. The mean value, the standard deviation, the semi-angle of aperture of the 95% confidence cone (↵95 ), and the angular standard deviation (✓ 65 ) of the magnetic moment vectors are also shown. Distance (mm) Int (Am2 ) 80 100 130 160 9.47 ⇥ 10 9.29 ⇥ 10 9.54 ⇥ 10 1.01 ⇥ 10 5 Mean Standard deviation ↵95 ✓ 65 9.59 ⇥ 10 3.36 ⇥ 10 5 5 5 4 6 Dec (deg) Inc (deg) 0.5 0.1 1.1 1.8 91.3 91.8 91.6 94.0 0.5 1.7 2.2 92.4 noise data, we try to estimate the worst S/N ratio for which we can still recover the signal. The S/N ratio is defined as (root mean square amplitude of signal)/(standard deviation of noise). We can assume that the forward model using Eq. (1) and the estimates by the SQUID measurement can be the actual signal without noise. The noise can be estimated by the difference between this forward model and the observed signal after stacking. Because the S/N ratio for BX is simply half that of BY [Eq. (1)], we consider only BY now. The amplitude of BY given by the SQUID measurement is 16.7 pTrms (47.7 pTp-p ) and the standard deviation of the noise is 33.5 pTrms , giving S/N = 0.50. We can also calculate the S/N ratio for the Apollo 12 sample (No. 12018.15) in the same manner but using the predicted dipole moment as a signal. The Apollo sample [Fig. 3(b)] shows the signal amplitude of BY = 36.8 pTrms (104.5 pTp-p ) and the noise of 28.4 pTrms , giving S/N = 1.30 that is better S/N ratio than at the CEREGE laboratory. This is because (1) the difference in the intensity of the magnetic moment and (2) the background at NASA vault is about 15% quieter than at CEREGE. Therefore, we can estimate that the demagnetization experiment at CEREGE [Fig. 4(b)] was performed in worse conditions than the operations that took place at LSLF and that this test demonstrates that our magnetometer can recover the signal from, at least, the condition S/N = 0.5. The detection limit for the magnetic moment can be defined by the point where the observed signal (in root mean square amplitude) becomes equal to the standard deviation of noise. Figure 5 shows the estimation of the detection limit for BY at different noise floors at S/N = 1. Since our magnetometer can adjust the sample to sensor distance d, the sensitivity for the magnetic moment m and the detection limit is a function of the distance and the noise floor. Because our magnetometer can recover the signal from S/N = 0.5 condition and the noise at NASA is 30 pTrms , we can measure the magnetic moment above 15 pT noise-floor line in Fig. 5. This figure also plots typical magnetic moment of three major moon rock types at a given weight, according to the previous study of the natural remanent magnetization (NRM) of Apollo samples measured by SQUID.6 At d = 20 cm, we can measure most of breccia rocks down to 10 g, whereas small (several Evolution temporelle du champ magnétique lunaire 217 ANNEXES 104502-8 Uehara et al. Rev. Sci. Instrum. 88, 104502 (2017) FIG. 5. Detection limits of the magnetometer for different sensor noise floors (15 pT, 30 pT, 60 pT, and 90 pT). The solid lines indicate where the peakto-peak intensity of the sinusoidal signal by a rotation of a dipole moment m observed at distance d becomes equal to the given noise intensity. Note that the inclination of the dipole is horizontal making the largest amplitudes. The magnetic moment at the hatched region is undetectable due to the weak signal below noise floor of the sensor. The calculated intensities of natural remanent magnetizations (NRMs) of different masses and types of moon rocks are also shown. The NRMs of the moon rocks are given by a previous study.6 The samples measured in this study are also shown (a = 12 018.15 at NASA, b = StdBlockNo13 at CEREGE; measurements data shown in Figs. 3 and 4, respectively). tens of grams) basalt rocks having slightly weaker NRM need to approach at d = 15 cm. Even when the background noise increases by a factor of 6 (90 pT line in Fig. 5), we can safely measure those types of rocks that have relatively strong NRMs, if the sample is heavier than about 50 g. Norite and anorthosite rocks, which are generally very weakly magnetized, need a sensor-to-sample distance of about d = 10 cm to measure >100 g samples and even down to d = 5 cm for samples below 100 g. With these detection limits, we could actually measure almost every breccia and basalt sample in the Apollo collection, except those that are stored in steel containers. In Eq. (1), we consider only the sinusoidal output produced by a homogeneously magnetized spherical sample that generates a dipole field.19 However, assuming that the sample holder is completely filled by a sample and homogeneously magnetized, such a cubic sample does not generate a dipole magnetic field. To evaluate this shape effect, we calculate the signal from a homogeneously magnetized cubic sample based on the calculation by Helbig23 in addition to a dipole source (see Appendix B). Figure 6(a) shows the half-cycle of the calculated signals expressed as linkage coefficients equivalent to B/m, showing M-shaped waveforms. The distance (r) is equal to the length of the edge of the cube (a). The magnetic signal is reduced at the angles where the peaks of the dipole field are located (✓ = 0 for the radial component and ✓ = 90 for the tangential component), and the amount of error becomes maximum at these angles (Fig. 7). Figure 7 shows the error of the FIG. 6. (a) The half-cycle of the calculated signals according to Helbig,23 expressed as linkage coefficient for the radial and tangential components. The distance (r) equals to the length of the edge of the cube (a). The sinusoidal curves indicate the signal from the dipole source and the M-shaped deformed curve is the signal from a cubic homogeneously magnetized sample. The difference between the signal from the cube and the dipole source becomes maximum at the peak of the sinusoidal curve (0 for the radial component and 90 for the tangential component). (b) The maximum error normalized by the amplitude of the dipole field (normalized error) as a function of the distance normalized by the length of the edge (r/a). A fitting curve is also shown. The inset of (b) shows the geometry of the samples and the sensor. signal normalized by the amplitude of the dipole field at different distances, and Fig. 6(b) shows the plots of the errors at ✓ = 0 (90 ) of the radial (tangential) components as functions of the normalized distance (r/a). The error reduced rapidly by increasing the distance by a factor of (r/a) 3.9 . The normalized error becomes acceptable (3.7%) at r/a = 1.5, ignorable (1%) at r/a = 2.1, and negligible (0.26%) at r/a = 3. Thus, as 218 Evolution temporelle du champ magnétique lunaire ANNEXES 104502-9 Uehara et al. Rev. Sci. Instrum. 88, 104502 (2017) be explained by a dipole field. Detailed analyses of the harmonics will help us to reveal the origin of the heterogeneous magnetizations.17–20 VII. CONCLUSION In order to measure the remanent magnetization of large bulk samples, we have developed a spinner magnetometer equipped with a three-axis flux gate sensor and a large sample table enclosed within a two-layer mu-metal magnetic shield resulting in a residual field of about 20 nT. The adjustable sensor position (5–30 cm) enables the measurement of small (5 cm cube) to large (20 cm cube) samples with acceptable deformation of the sinusoidal signals. By means of the stacking technique of the signal, the experiments demonstrate that this instruments can measure weak (17 pTrms ) sinusoidal signals for S/N = 0.5. This performance indicates that the magnetometer can measure magnetic moments of about 5 ⇥ 10 7 Am2 at the standard sample to sensor distance d = 15 cm. This detection limit corresponds to the NRM of about 10 g of lunar basalt or breccia. Because we focused on the samples that range from 22 g to 4.7 kg in mass, this magnetometer can cover theoretically all of the basalt and breccia samples that we are interested in. We have already conducted a first visit to NASA and measured 133 samples in 4 working days, demonstrating an optimized mechanism and workflow of this magnetometer. In this study, we used the simplest magnetization model (single dipole source at the stage center). However, due to the possible anisometric shape and/or off-center positioning in the cubes and/or lithological heterogeneities, the actual sample may have off-centered and/or multiple dipole(s) that cannot be explained by this simple magnetization model. In the future studies, we will customize the model for the individual samples by integrating other information (e.g., shape and lithology) to explain the magnetic field distribution around such heterogeneously magnetized samples. This spinner magnetometer is also able to measure other large and precious samples, e.g., whole meteorites and archeological artifacts, without destructive sampling. FIG. 7. The errors due to the shape effect of a cubic-shaped sample at different normalized sensor-to-sample distances (r/a). The ranges of the rotation angle are limited to quarter cycles from the peak position of the dipole field [0 for the radial component (a); 90 for the tangential component (b)]. The values are normalized by the amplitude of the dipole field. The curves for r/a = 1 are reduced to 0.3 of the original curves. a rule of thumb, a distance farther than r/a 1.5 is recommended to reduce the shape effect. In the actual measurement of the Apollo samples, 62% of the samples were measured at distance farther than r/a = 1.5% and 93% of them were measured with r/a 1.25, based on the size of the cubic sample holder. Since the sample is always smaller than the holder, the actual r/a ratio is better than the value computed from the holder size. Therefore, we estimate that the deformation of the signal due to the shape effect is small in our study. In fact, as mentioned in Sec. V, most of the measured signals can ACKNOWLEDGMENTS This project was made possible by a seed funding from the Programme National de Planétologie (INSU-CNES) and subsequent funding by the Agence Nationale de la Recherche (Grant No. ANR-14-CE33-0012). We are greatly indebted to the lunar sample curators and processors (Ryan Zeigler, Andrea B. Mosie, Darvon Collins, and Anthony Ferrell) at NASA Johnson Space Center for their time, patience, and understanding. J.G. acknowledges funding from People Programme (Marie Curie Actions) of the European Union's Seventh Framework Programme (No. FP7/2077-2013) under REA Grant Agreement No. 298355. E.A.L. would like to thank NASA Grant Nos. NNA14AB01A and NNX15AL62G and NSF Grant No. DMS-1521765 for partial support. M.U. wishes to thank Ateliers Mécaniques de Précision in Eguilles for their fine mechanical processing. Evolution temporelle du champ magnétique lunaire 219 ANNEXES 104502-10 Uehara et al. Rev. Sci. Instrum. 88, 104502 (2017) APPENDIX A: ERRORS DUE TO SAMPLING Equation (1) indicates that the radial and tangential component of a dipole moment can be observed as a sinusoidal curve given by B(✓) = A sin(✓). When we use an encoder with a resolution of N positions per revolution, the encoder resolution is ✓ = 2⇡/N and the apparent encoder angle is ✓ enc (n) = n ⇥ ✓ = 2⇡n/N. According to Eq. (2) the worst-case signal error (quantization error) for the observation of B(✓) at n-th encoder position becomes err (✓, ✓) = B (✓ + ✓ err ) B (✓) = ✓ ⇥ a(✓ enc (n)) d (A sin (✓)) (n ✓) = ✓A cos (n ✓). = ✓⇥ d✓ (A1) The absolute value of this signal error becomes maximum of A ⇥ ✓ = 2⇡A/N when |cos(n ✓)| = 1. Using the averaging technique, we average the signal between nth and (n + 1)-th encoder position to represent the magnetic field when ✓ is in the range of ✓ enc (n)  ✓ < ✓ enc (n + 1). The stacking technique increases the number of measurements to be averaged. The averaged signal at this ✓ is given by ⌅ (n+1) ✓ 1 B̄ (✓) = A sin (✓) d✓. (A2) ✓ n ✓ For a large enough number N, we can use sin( ✓/2) ⇠ ✓/2 and to approximate this integration, A {cos ((n + 1) ✓) + cos (n ✓)} ✓ ! ! ! 2A 2n + 1 ✓ ✓ = sin ✓ sin ⇡ A sin n ✓ + . ✓ 2 2 2 B̄ (✓) = (A3) Therefore, the averaged signal for this ✓ can be approximated to B(✓ + ✓/2). This equation indicates that the averaging technique also improves the quantization error in the angular position by the convergence of the averaged signal towards B(✓ + ✓/2). The worst-case signal error for Eq. (A3) is given when ✓ is at ✓ enc (n) or just before ✓ enc (n + 1). The worst-case error for ✓ enc (n) is given by ! ✓ B̄ (✓) B (✓ enc (n)) = A sin n ✓ + A sin (n ✓) 2 ! ! ✓ ✓ = 2A sin cos n ✓ + 4 4 ! ✓ 1 ⇡ A cos (n + ) ✓ . (A4) 2 4 The worst-case signal error is, therefore, approximately half of the no-averaging case given by Eq. (A1). A similar error can occur due to the second ordered lowpass filter with a cutoff frequency of 100 Hz built-in in the signal conditioning unit when the rotation speed is too fast. We suppose that the error of the low-pass filter can be acceptable (86.5% of the final value) after 2⌧ s, where ⌧ is the time constant of this filter (about 2.5 ms). The sample rotates 2⌧v when the rotation speed is given by v /s when the error diminished to an acceptable amplitude. Thus, if the resolution of the encoder ( ✓ = 360 /N) is smaller than 2⌧v, the effect of the low-pass filter is not observable. Such critical rotation speed vc = ✓/2⌧ = 360/(2N⌧) = 141 /s. According to our measurement of instantaneous rotation speed in the actual measurement, we rotated the sample generally slower than vc . However, for short periods, the rotation speed sometimes reaches up to 2vc . This makes a similar effect from the quantization error discussed above, resulting in an error of [1 exp( 2)] ⇥ err[✓, ✓ ⇥ floor(2⌧v/ ✓)] = 0.135 ⇥ ✓ ⇥ floor(2⌧v/ ✓) using Eq. (A1). The function floor(x) returns the integer part of x. This error is 0.135 ⇥ 2 ✓ when v = 2vc . Thus, the estimated error due to the low-pass filter is about 27% of the quantization error, which can be ignored. This error becomes comparable to the quantization error when v becomes 7.4 vc = 1044 /s, which is equivalent to 2.9 Hz sample rotation frequency, for our combination of low-pass filter (⌧ = 2.5 ms) and encoder (N = 512). This is five times faster than the actual rotation speed. Therefore, the low-pass filter with a cutoff frequency of 100 Hz used in our system does not modify the waveform of the signal from the sample. APPENDIX B: MAGNETIC FIELD AROUND CUBIC SAMPLES We calculated the magnetic field around homogeneously magnetized isotropic (spherical) and cubic samples using the linkage tensor between a homogeneously magnetized body and the magnetic field given by Helbig.23 The linkage tensor can be regarded as a normalized, dimensionless magnetic field intensity. We assumed a magnetization moment directed to +x and located at the origin of a three dimensional Cartesian coordinate system. We considered the distribution of the magnetic field in the x-y plane. According to Helbig,23 at the position (x, y, z), the distance from the dipole (u, v, w) = (x 0, y 0, z 0) and the linkage tensors for the dipole field generated by an isotropic body are given by d gxx = 2u2 and d gxy = v2 e5 w2 3uv , e5 (B1) where the superscript d indicated the dipole, the subscript xx and xy, respectively, indicates the contribution of the +x directed magnetization to the x and y components of the magnetic field, and e2 = u2 + v2 + w2 . The three-fold integration of Eq. (B1) yields the linkage tensors for a cubic sample, which has been already given by Eq. (4) in Helbig. Some calculated values in the first quadrant have been given in Table I of Helbig.23 However, the equations of Helbig do not reproduce the calculated values; they also cannot be applied to our calculation directly due to some problems. We used the equation modified after Eq. (4) in Helbig,23 ⇥⇥⇥ u ⇤ a/2 ⇤ y b/2 ⇤ z c/2 v*w ) xx+a/2 gxx = arcsin ( p p y+b/2 z+c/2 2 2 2 2 |u| u +v * u +w and gxy = ⇥⇥⇥ 220 Evolution temporelle du champ magnétique lunaire ln ✓ w+e ◆⇤ x a/2 ⇤ y b/2 ⇤ z c/2 , u2 + v2 x+a/2 y+b/2 z+c/2 (B2) ANNEXES 104502-11 Uehara et al. Rev. Sci. Instrum. 88, 104502 (2017) where a, b, and c are the length of the sides parallel to the x-, y-, and z-axis, respectively. The added term u/|u| in gxx gives the sign of u to extend the function to other quadrants. Note that (u, v, w) = (x, y, z) for the moment placed at the origin. The absolute value of w in gxy , which can be found in the original equation, is a typographical error, since the equation replaced |w| with w successfully reproduces the calculation results given in Table I of Helbig.23 Finally, the magnetic fields can be expressed in polar coordinates by gxr (r, ✓) = gxx (x, y, z) ⇥ cos(✓) + gxy (x, y, z) ⇥ cos(✓) and gxt (r, ✓) = gxy (x, y, z) ⇥ cos(✓) gxx (x, y, z) ⇥ sin(✓), which, respectively, indicates the radial and tangential contributions at the position (x, y, z) = [r ⇥ cos(✓), r ⇥ sin(✓), 0]. The calculation has been conducted with Maxima (http://maxima.sourceforge.net). 1 M. E. Purucker and J. B. Nicholas, J. Geophys. Res.: Planets 115(E12), 007, doi:10.1029/2010je003650 (2010). Tsunakawa, H. Shibuya, F. Takahashi, H. Shimizu, M. Matsushima, A. Matsuoka, S. Nakazawa, H. Otake, and Y. Iijima, Space Sci. Rev. 154, 219 (2010). 3 M. Fuller and S. M. Cisowski, Geomagnetism 2, 307 (1987). 4 B. P. Weiss and S. M. Tikoo, Science 346, 1246753 (2014). 5 I. Garrick-Bethell, B. P. Weiss, D. L. Shuster, and J. Buz, Science 323, 356 (2009). 6 C. Cournède, J. Gattacceca, and P. Rochette, Earth Planet. Sci. Lett. 331-332, 31 (2012). 7 E. K. Shea, B. P. Weiss, W. S. Cassata, D. L. Shuster, S. M. Tikoo, J. Gattacceca, T. L. Grove, and M. D. Fuller, Science 335, 453 (2012). 2 H. 8 S. M. Tikoo, B. P. Weiss, W. S. Cassata, D. L. Shuster, J. Gattacceca, E. A. Lima, C. Suavet, F. Nimmo, and M. D. Fuller, Earth Planet. Sci. Lett. 404, 89 (2014). 9 J. Buz, B. P. Weiss, S. M. Tikoo, D. L. Shuster, J. Gattacceca, and T. L. Grove, J. Geophys. Res.: Planets 120, 1720, doi:10.1002/2015je004878 (2015). 10 W. S. Goree and M. Fuller, Rev. Geophys. 14, 591, doi:10.1029/rg014i004p 00591 (1976). 11 J. L. Kirschvink, R. E. Kopp, T. D. Raub, C. T. Baumgartner, and J. W. Holt, Geochem., Geophys., Geosyst. 9, Q05Y01 (2008). 12 T. A. T. Mullender, T. Frederichs, C. Hilgenfeldt, L. V. de Groot, K. Fabian, and M. J. Dekkers, Geochem., Geophys., Geosyst. 17, 3546, doi:10.1002/2016gc006436 (2016). 13 G. Pearce, W. Gose, and D. Strangway, in Proceedings of the Lunar Science Conference (supplement 4, Geochimica et Cosmochimica Acta) (Pergamon, 1973), Vol. 3, p. 3045. 14 H. Wang and B. P. Weiss, in AGU Meeting Abstract #167372, 2016. 15 M. Funaki, M. Koshita, and H. Nagai, Antarct. Meteorite Res. 16, 220 (2003), available at http://polaris.nipr.ac.jp/⇠library/publication/AMR. html. 16 E. Thellier, in Methods in Palaeomagnetism, edited by D. W. Collinson, K. M. Creer, and S. K. Runcorn (Elsevier, Amsterdam, 1967). 17 L. Molyneux, Geophys. J. Int. 24, 429 (1971). 18 M. Kono, Y. Hamano, T. Nishitani, and T. Tosha, Geophys. J. Int. 67, 217 (1981). 19 D. W. Collinson, Rev. Geophys. 13, 659, doi:10.1029/rg013i005p00659 (1975). 20 K. Kodama, Geochem., Geophys., Geosyst. 18, 434, doi:10.1002/2016gc 006615 (2017). 21 M. Uehara, J. Gattacceca, P. Rochette, F. Demory, and E. M. Valenzuela, Phys. Earth Planet. Inter. 200-201, 113 (2012). 22 R. Fisher, Proc. R. Soc. A 217, 295 (1953). 23 K. Helbig, J. Geomagn. Geoelectr. 17, 373 (1965). Evolution temporelle du champ magnétique lunaire 221 ANNEXES 222 Evolution temporelle du champ magnétique lunaire
{'path': '01/hal.archives-ouvertes.fr-tel-02135982-document.txt'}
Article original_révisé Therapies THERAPIES HEADING : Pharmacovigilance Profils d'effets indésirables sous abiraterone et enzalutamide : analyse descriptive des données de la base nationale de pharmacovigilance ro of Adverse drug reactions profiles for abiraterone and enzalutamide: A pharmacovigilance descriptive analysis -p Abiraterone et enzalutamide, analyse de pharmacovigilance Lucie-Marie Scailteuxa,b,*, Clémence Lacroixc, Sandrine Bergerond, Fabien Despase, re Marion Sassierf, Louise Triqueta, Sylvie Picarda, Emmanuel Ogera,b, Elisabeth Polarda,b a lP et le réseau français des Centres régionaux de pharmacovigilance Centre régional de pharmacovigilance, pharmacoépidémiologie et information sur le b c Jo ur na médicament, CHU Rennes, 35000 Rennes, France Univ Rennes, EA 7449 REPERES, 35000 Rennes, France Aix Marseille Université, APHM, INSERM, institut de neuroscience des systèmes UMR 1106, centre régional de pharmacovigilance, service de pharmacologie clinique, 13005 Marseille (France) d Univ. Lille, Inserm, CHU-Lille, Lille neuroscience & cognition, UMR-S1172, degenerative and vascular cognitive disorders, 59000 Lille, France e Service de pharmacologie médicale et clinique, facultés de médecine, CHU, INSERM 1027, Université Paul Sabatier, 31000 Toulouse, France f Centre régional de pharmacovigilance, pharmacoépidémiologie et information sur le médicament, CHU Caen, 14000 Caen, France Reçu les 6 octobre 2020 ; accepté le 4 décembre 2020 1 Page 1 of 27 Article original_révisé Therapies *Auteur correspondant. Centre régional de pharmacovigilance, pharmacoépidémiologie et information sur le médicament, CHU Rennes, rue Henri Le Guilloux, 35000 Rennes, France. Adresse e-mail : luciemarie.scailteux@chu-rennes.fr (L.-M. Scailteux) Summary Objective. The aim of this study was to describe the profile of adverse drug reactions (ADRs) observed with abiraterone and enzalutamide, based on cases registered in the French regional ro of pharmacovigilance centres to identify potential pharmacovigilance signals. Methods. We extracted from the French pharmacovigilance database all cases of ADRs or drug interactions involving abiraterone or enzalutamide from the time they market authorization date until December 31st, 2017. Signal detection results have been transmitted by the French Agency for -p Health Products (ANSM). The data were compared with those of the risk management plans for each drug and the literature. Results. Among the 233 observations analyzed, nearly 62% re involved abiraterone as a suspect drug and 38% involved enzalutamide; only 1 case involved both drugs. The ADRs profile is different between the drugs. Abiraterone is mostly associated lP with expected cardiac diseases (heart failure, QT prolongation), expected with the drug. Also described, several cases of hepatotoxicity have been reported, however some cases with fatal Jo ur na outcome suggest that despite a follow-up of the liver function tests, it is difficult to anticipate this risk. Signals concerning acute renal failure and ischemic stroke have arisen. Enzalutamide is more particularly associated with various neurological disorders (convulsions, hallucinations, fatigue, memory impairment) expected with the drug. While ischemic heart disease is also expected, signals of heart failure and atrial fibrillation have arisen. A potential hepatotoxicity of the molecule is discussed because of cases of cholestatic hepatitis. Conclusion. The analysis of the French pharmacovigilance database cases allows to confirm an expected and monitored risk profile in the risk management plan for both drugs. Several signals have arisen, some of which will be investigated through a pharmacoepidemiology study. KEYWORDS Abiraterone; Enzalutamide; Adverse drug reaction; Pharmacovigilance 2 Page 2 of 27 Article original_révisé Therapies Résumé Objectif. L'objectif de cette étude était de décrire le profil d'effets indésirables de l'abiratérone et l'enzalutamide, à partir des cas enregistrés par les centres régionaux de pharmacovigilance français pour identifier de potentiels signaux de pharmacovigilance. Méthodes. Nous avons extrait de la base nationale de pharmacovigilance (BNPV) toutes les notifications de cas d'effets indésirables ou d'interaction médicamenteuse impliquant en suspect ou en interaction ro of abiratérone ou enzalutamide depuis leur mise sur le marché jusqu'au 31/12/2017. La détection automatisée du signal a été transmise par l'Agence nationale de sécurité du médicament et des produits de santé (ANSM). Les données ont été comparées à celles des plans de gestion de risque (PGR) de ces médicaments et des données de la littérature. Résultats. Parmi les 233 -p observations analysées, près de 62 % impliquaient l'abiratérone comme médicament suspect et 38 % l'enzalutamide ; 1 seul cas impliquait les deux médicaments. Comme attendu, le profil re d'effets indésirables est différent entre les médicaments. L'abiratérone est majoritairement associé à des atteintes cardiaques (insuffisances cardiaques, allongement du QT), attendues lP avec ce médicament. Plusieurs cas d'hépatotoxicité sont rapportés, cependant les cas d'issue fatale suggèrent que malgré un suivi du bilan hépatique décrit dans la monographie, il est difficile d'anticiper ce risque. Des signaux concernant les insuffisances rénales aiguës et les Jo ur na accidents vasculaires cérébraux ischémiques ont émergé. L'enzalutamide est plus particulièrement associé à des troubles neuro-psychiatriques divers (convulsions, hallucinations, trouble de la mémoire) et de la fatigue, attendus avec ce médicament. Alors que les cardiopathies ischémiques font partie des risques importants identifiés, des signaux d'insuffisance cardiaque et fibrillation auriculaire ont émergé. Une potentielle hépatotoxicité du médicament se discute devant des cas d'hépatite cholestatique. Conclusion. L'analyse des cas de la BNPV permet de confirmer un profil d'effets indésirables attendu et suivi dans les PGR pour ces deux médicaments. Plusieurs signaux ont émergé dont certains seront investigués au travers d'une étude de pharmacoépidémiologie. MOTS CLÉS Abiraterone ; Enzalutamide ; Effets indésirables ; Pharmacovigilance 3 Page 3 of 27 Therapies Jo ur na lP re -p ro of Article original_révisé 4 Page 4 of 27 Article original_révisé Therapies Abréviations ANSM : Agence nationale de sécurité du médicament et des produits de santé AVC : accident vasculaire cérébral BNPV : base nationale de pharmacovigilance CRPV : centres régionaux de pharmacovigilance DAS : détection automatisée du signal ro of EI : effet indésirable IAM : interaction médicamenteuse IC : insuffisance cardiaque -p INR : international normalized ratio PGR : plan de gestion des risques re IRA : insuffisance rénale aiguë lP PRES : posterior reversible encephalopathy syndrome RCP : résumé des caractéristiques du produit Jo ur na SIADH : sécrétion inappropriée d'hormone anti-diurétique SPEAR : safety and performance of enzalutamide and abiraterone 5 Page 5 of 27 Article original_révisé Therapies Introduction Considérées comme des hormonothérapies dites de nouvelle génération, abiratérone (Zytiga®, Janssen-Cilag International NV, Beerse, Belgique) et enzalutamide (Xtandi®, Astellas Pharma Europe B.V., Leiden, Pays-Bas) sont utilisés depuis le début des années 2010 dans le traitement du cancer de prostate à un stade avancé, dit résistant à la castration (chimique) ; l'abiratérone a obtenu son autorisation de mise sur le marché (AMM) en septembre 2011 et l'enzalutamide en juin 2013. Récemment, plusieurs essais cliniques ont montré leur efficacité à des stades plus précoces [1] justifiant de nouvelles indications [2,3]. Le profil d'effets indésirables de ces deux ro of médicaments est principalement fondé sur les données des essais cliniques et de quelques études observationnelles d'effectif réduit ne faisant apparaître que les effets indésirables (EI) les plus -p fréquents et de survenue précoce [4–6] détaillés ci-dessous. lP re Abiratérone De par son mécanisme d'action, l'abiratérone inhibe l'enzyme CYP-17 impliquée dans la synthèse des androgènes en particulier au niveau des glandes surrénales et des cellules Jo ur na cancéreuses de la prostate. Outre une diminution de synthèse de cortisol, l'accumulation de métabolites en amont induit une augmentation de la production de minéralocorticoïdes. Des EI comme rétention hydro-sodée et oedèmes, hypertension artérielle, décompensation d'insuffisance cardiaque (IC) et hypokaliémie facteur de risque de torsade de pointe pour un médicament allongeant le QT sont ainsi attendus. C'est pourquoi l'administration concomitante d'un glucocorticoïde est recommandée : grâce à un rétrocontrole négatif, il réduit la stimulation de l'hormone adrénocorticotrope (ACTH) et limite la survenue et la sévérité des EI. Selon le résumé des caractéristiques (RCP) de Zytiga ®, ces EI sont fréquents à très fréquents, à l'exception de l'allongement de l'intervalle QT de fréquence indéterminée [7], et justifient la réalisation d'un bilan cardiaque avant instauration du médicament et en cours de traitement. L'hépatotoxicité fait également partie des risques importants identifiés avec l'abiratérone. La monographie précise une augmentation très fréquente des transaminases, et de rares cas d'insuffisances hépatiques et hépatites fulminantes. La réalisation d'un bilan hépatique est recommandée 2 fois par mois le premier trimestre puis 1 fois par mois. 6 Page 6 of 27 Article original_révisé Therapies Enzalutamide L'asthénie, les chutes et les fractures ont fréquemment été observées dans les essais cliniques impliquant l'enzalutamide et font partie des risques importants identifiés dans le PGR de Xtandi® [8]. L'hypertension artérielle et les syndromes des jambes sans repos sont également fréquents. Le RCP de Xtandi® indique par ailleurs la survenue de troubles cardiovasculaires : ro of cardiopathies ischémiques (fréquentes) et allongement de l'intervalle QT (fréquence indéterminée) [9]. Peu fréquentes, les convulsions sont également mentionnées dans le PGR comme un risque important identifié. Des modèles animaux et des études in vitro ont montré que l'enzalutamide franchissait la barrière hémato-encéphalique et pourrait être à l'origine -p d'une inhibition de l'activité du GABA, abaissant ainsi le seuil épileptogène [10,11]. Rapportées dans plusieurs essais cliniques et en post-AMM [12–15], leur incidence en vie en re réelle chez des patients traités et présentant des facteurs de risque de convulsion semblait similaire à celle observée chez des patients présentant un cancer de prostate résistant à la lP castration mais non exposés à la molécule [16]. La survenue d'un épisode convulsif doit faire réévaluer l'utilisation ultérieure du médicament au cas par cas [8]. Outre plusieurs biais métholodologiques, certaines études suggèrent davantage de troubles neurologiques et Jo ur na généraux dont fatigue et déclin cognitif sous enzalutamide par rapport à abiratérone [17,18]. Objectif Une meilleure connaissance du profil d'EI, en particulier ceux rapportés en vie réelle, est essentielle pour une meilleure gestion et prévention des EI à l'échelon individuel, et s'assurer d'un rapport bénéfice / risque favorable à l'échelon populationnel. L'objectif de cette étude était de décrire le profil d'effets indésirables de l'abiratérone et l'enzalutamide, à partir de l'analyse des cas enregistrés par les centres régionaux de pharmacovigilance (CRPV) français, pour identifier de potentiels signaux de pharmacovigilance [19]. 7 Page 7 of 27 Article original_révisé Therapies Méthode Nous avons utilisé la base nationale de pharmacovigilance (BNPV) qui comprend l'ensemble des cas d'EI notifiés par les professionnels de santé et les patients aux 31 CRPV français. Pour chaque notification d'EI chez un patient donné, outre une description du tableau clinique et de sa gravité, une analyse de l'imputabilité médicamenteuse, prenant en compte les critères chronologiques, sémiologiques et bibliographiques est réalisée utilisant la méthode française ro of d'imputabilité [19,20]. Nous avons extrait de la BNPV tous les cas enregistrés depuis la mise à disposition sur le marché français de Zytiga® et Xtandi® jusqu'au 31/12/17, impliquant « abiratérone » et -p « enzalutamide » en substance, codés « suspect » ou « interaction ». Nous avons par ailleurs pris en compte les résultats de la détection automatique du signal re (DAS) réalisée et transmise par l'Agence nationale de sécurité du médicament et produits de santé (ANSM). La DAS est une analyse de disproportionnalité cherchant à détecter, dans le cas lP présent, une potentielle sur-représentation d'un EI survenu avec un médicament d'intérêt comparativement aux autres cas d'EI enregistrés dans la BNPV. Un signal correspond à un nombre de notifications de l'EI d'intérêt supérieur à celui attendu, c'est-à-dire un taux de Jo ur na notification « disproportionné » d'un EI particulier associé à un médicament d'intérêt par rapport aux autres effets notifiés dans une base de données de pharmacovigilance [21]. La DAS a été réalisée sur tous les couples médicament/EI des cas enregistrés dans la BNPV sur la période du 01/01/2000 au 02/10/2018. Requêtant sur le low level term codé [22], la méthode statistique utilisée est la méthode bayésienne GPS [23] ; le seuil de significativité a été fixé à 5 %. Outre l'âge et le sexe des patients, différentes variables ont été recueillies et analysées concernant les EI, incluant la gravité, le type d'EI relié à la classe organe, les médicaments impliqués et l'évolution. Nous avons analysé séparément les observations imputant l'abiratérone ou l'enzalutamide (qu'ils soient seuls suspects ou non) et celles impliquant l'abiratérone et l'enzalutamide dans la même observation. Pour chaque classe organe, stratifiée par gravité, nous avons décrit le nombre de cas, le type d'EI et le nombre de cas d'évolution fatale. 8 Page 8 of 27 Article original_révisé Therapies Spécifiquement avec l'abiratérone, une estimation du taux de notification annuel d'hépatites fatales (intervalle de confiance à 95 % [IC95%]) a été réalisée prenant en compte le nombre de patients exposés annuellement. Nous avons consulté la base Medic'AM fournissant le nombre de boîtes remboursées par an par médicament pour approximer le nombre de patients exposés annuellement [24]. Lissant sur une année donnée le nombre de boîtes remboursées, nous avons posé deux hypothèses : 1) une posologie maximale a été utilisée (soit 1 boîte remboursée par mois et par patient) ; 2) un ajustement de posologie à demi-dose a été réalisé chez tous les patients (1 boîte remboursée tous les 2 mois par patient ; hypothèse en lien avec les mentions du RCP indiquant, chez les patients ayant présenté une augmentation des ro of transaminases, l'arrêt puis la reprise possible du traitement à demi-dose). Les EI enregistrés dans la BNPV ont ensuite été confrontés avec les données de pharmacovigilance issues de diverses sources de données (PGR, RCP de Zytiga® [7] et Xtandi® [9], DAS et littérature scientifique). Le statut de l'EI a été classé suivant les différentes sources lP Résultats re -p selon sa fréquence de survenue et les termes décrivant les EI (termes exacts ou proches). Jo ur na Depuis la commercialisation des deux médicaments jusqu'au 31/12/2017, 236 observations ont été recensées dont 3 ont été secondairement exclues (un doublon et 2 observations indiquant que l'étiologie médicamenteuse avait été secondairement écartée). Au total, 233 observations ont été analysées : 144 cas concernaient l'abiratérone (61,8 %), 88 concernaient l'enzalutamide (37,8 %) et 1 cas (0,4 %) impliquait à la fois l'abiratérone et l'enzalutamide comme médicaments suspects. Ce dernier cas concernait un patient de 67 ans ayant présenté une IC après avoir été successivement traité par abiraterone pendant 21 mois puis par enzalutamide pendant 2 mois. Les résultats présentés ci-après ont concerné les observations impliquant d'une part l'abiratérone et d'autre part l'enzalutamide. La répartition des cas par classe organe et par molécule est présentée Fig. 1. Le détail du nombre de cas par classe-organe et médicament ainsi que les résultats de la DAS sont présentés dans les compléments électroniques eTableau 1 et eTableau 2, respectivement. 9 Page 9 of 27 Article original_révisé Therapies Abiratérone Concernant l'abiratérone, 95 des 144 observations (66 %) impliquaient l'abiratérone (+/- une corticothérapie) comme seul médicament suspect. Trois cas décrivaient une utilisation chez des femmes dans le traitement de cancer du sein (hors AMM). L'âge médian des patients exposés était de 76 ans (Q1-Q3 : 68-82). Près de 85 % des observations (n = 122) comportaient un ro of critère de gravité dont 14 décès (Tableau 1). Près de 35 % des observations concernaient des affections cardiaques, suivies par les atteintes hépatiques (11 %) et les troubles du métabolisme (8 % ; incluant en majorité des hypokaliémies isolées dont un cas lié à une interaction médicamenteuse avec l'association -p irbésartan / hydrochlorothiazide). L'ensemble des EI de ces classes organes a été identifié comme signal dans la DAS (eTableau 1). On retiendra cependant trois cas d'atteinte hépatique re d'évolution fatale (rapportés en 2012 et 2014), dont une hépatite fulminante, survenus respectivement après 15 jours, 2 mois et 5 mois de traitement, avec pour deux cas l'absence l'eTableau 3. lP d'autre étiologie. Les taux de notification annuels d'hépatites fatales sont indiqués dans Jo ur na Parmi les EI inattendus, 3 cas d'IRA isolée sont rapportés. Deux sont survenues dès la première semaine de traitement par abiratérone, avec des valeurs de créatininémies atteignant 460 et 700 mol/L respectivement et motivant l'arrêt du traitement (évolution favorable dans un cas et inconnue dans l'autre). Le dernier cas concernait une IRA survenue dans un contexte d'anasarque (sans mention d'une potentielle atteinte cardiaque) après 3 semaines de traitement et d'évolution favorable après arrêt du traitement. L'IRA est identifiée comme signal dans la DAS. Par ailleurs, les observations d'AVC, essentiellement ischémiques, survenant dans les premières semaines à mois de traitement, interrogent sur le lien avec le médicament ; le résultat de la DAS confirme le signal à explorer. Enfin, on retiendra un cas d'IAM chez un patient recevant de la fluindione ayant présenté une épistaxis majeure avec INR à 3,9 (versus 2,1 deux semaines plus tôt, avant l'introduction d'abiratérone). 10 Page 10 of 27 Article original_révisé Therapies Enzalutamide Concernant l'enzalutamide, 63 des 88 observations (72 %) impliquaient la molécule comme seul médicament suspect. Toutes les observations concernaient des hommes dans l'indication du traitement du cancer de la prostate. L'âge médian était de 71 ans (Q1-Q3 : 53-86 ans). Concernant la gravité, 75 % des cas (n = 66) comportaient un critère de gravité dont 5 décès (Tableau 1). Les effets indésirables neurologiques étaient les plus fréquemment rapportés (23 %) incluant, entre autre, convulsions, neuropathies, accidents vasculaires cérébraux (AVC) ro of ischémiques et des tableaux d'encéphalopathie. La plupart des autres classe-organes incluaient moins de 10 cas patients (eTableau 2), avec des atteintes diverses au sein d'une même classe organe. Concernant la DAS, en raison d'un nombre trop limité de cas, de cas insuffisamment -p documentés, d'autres étiologies ou d'autres médicaments imputés connus pour induire les EI d'intérêt, plusieurs signaux potentiels sont en attente de cas complémentaires (eTableau 2). re Parmi les EI inattendus, 7 cas de troubles psychiatriques, incluant deux cas de suicide (peu documentés) dont 1 dans un contexte de syndrome dépressif avec décès récent de lP l'épouse ; cet EI est identifié comme signal dans la DAS. Six cas d'atteinte cardiaque sont rapportés : 1 cas de syndrome coronarien aigu, 1 angor instable et 4 cas d'IC ou de décompensation cardiaque dont 1 cas avec fibrillation auriculaire. L'IC et la fibrillation Jo ur na auriculaire sont identifiées comme signal dans la DAS. Concernant les atteintes hépatiques, sont entre-autres recensées 3 hépatites mixtes, survenant sous 1 à 3 mois après le début du traitement, ainsi que 2 atteintes fatales impliquant plusieurs médicaments suspects : 1 cas concernait une cholestase avec probable syndrome hépato-rénal et encéphalopathie hépatique ayant conduit au décès du patient 3 semaines après l'introduction d'enzalutamide ; le bilan virologique était négatif et l'imagerie ne montrait pas d'argument pour une localisation secondaire hépatique. Dans l'autre cas, après une augmentation isolée des phosphatases alcalines, une insuffisance hépatique a conduit au décès du patient après avoir reçu successivement docétaxel, abiratérone, enzalutamide (décès à J30 de l'arrêt de ce dernier) et à J10 d'une chimiothérapie par cabazitaxel ; l'échographie montrait une ascite péri-hépatique, pas de dilatation des veines biliaires et des veines sus hépatiques perméables. Cependant, aucune autre information n'était disponible quant au bilan étiologique. Les hépatites cholestatiques sont identifiées comme un signal dans la DAS. 11 Page 11 of 27 Article original_révisé Therapies Quatre cas d'interactions médicamenteuses sont rapportés avec l'enzalutamide. Le premier concernait un surdosage en digoxine (> 4 g/l) avec hyperkaliémie à 5,1 mmol/l, associé, sur l'électrocardiogramme à une fibrillation auriculaire lente, un bloc de branche droit, un QT long ainsi qu'à des troubles de la repolarisation. Le deuxième cas concernait une suspicion de diminution de l'efficacité des opiacés (Skenan®, Oxycontin®). Le troisième cas concernait une interaction avec la lamotrigine ayant conduit à la récidive de crises épileptiques généralisées ; la concentration plasmatique de la lamotrigine était infra-thérapeutique (0,85 pour une cible entre 2 et 15 g/mL). Le dernier cas concernait une augmentation de l'INR sans ro of anémie ni saignement extériorisé chez un patient traité par fluindione. -p Discussion Utilisant les données de la BNPV, nous décrivons ici le profil d'EI associés à la prise re d'abiratérone et d'enzalutamide utilisés dans le traitement du cancer de prostate résistant à la lP castration depuis leur commercialisation jusqu'au 31/12/2017. Comme attendu, le profil d'EI est différent entre les médicaments et conforme à ce qui est décrit dans les essais cliniques et leurs méta-analyses [25–29], et dans les analyses des bases de pharmacovigilance française, Jo ur na européenne et internationale [30–33]. Nous discutons ci-dessous uniquement les EI inattendus, graves ou suscitant une attention particulière. Abiratérone Effets indésirables attendus mais suscitant une attention particulière Les trois cas d'hépatotoxicité d'évolution fatale que nous avons recensés, dont un cas d'hépatite fulminante, suggèrent que, malgré un suivi du bilan biologique, il apparaît difficile d'anticiper la gravité de l'atteinte hépatique. La littérature fait apparaître deux cas d'hépatites fulminantes fatales survenues après 1 mois et 7-8 semaines de traitement par abiratérone, respectivement 12 Page 12 of 27 Article original_révisé Therapies [34,35] ; l'origine asiatique des patients serait un facteur de risque probable [36]. Les taux de notification d'hépatites fatales rapportées en 2012 et 2014 (premières années de commercialisation du médicament) sont cohérents avec la fréquence rare mentionnée dans le RCP de Zytiga® [7]. La sensibilisation des cliniciens au risque de survenue d'atteintes hépatiques graves reste primordiale. ro of Effets indésirables inattendus Trois cas d'insuffisance rénale aiguë isolée sont rapportés dans la BNPV, cet EI étant identifié comme signal dans la DAS. Dans la littérature, hormis des cas d'IRA survenant dans un contexte de rhabdomyolyse [37–39], nous n'avons pas identifié d'autre cas d'IRA sous -p abiratérone. Ce signal mérite de plus amples investigations. re Les 3 cas d'AVC ischémiques rapportés dans la BNPV sont aussi identifiés comme signal dans la DAS. Il existe un lien de causalité entre fibrillation auriculaire et AVC lP ischémique [40]. Bien que les fibrillations auriculaires soient mentionnées dans le RCP de Zytiga®, les AVC n'y figurent pas [7]. Dans une étude observationnelle chez 51 patients exposés présentant par ailleurs des antécédents cardiovasculaires, aucun évènement Jo ur na cardiovasculaire n'a été constaté [41]. Bien que la littérature ne fasse pas apparaître de cas d'AVC sous abiratérone, au vu des autres données de pharmacovigilance, il apparaît pertinent d'investiguer plus en détail ce signal. Concernant le cas d'interaction médicamenteuse (IAM) avec la fluindione, aucune mention d'interaction avec les AVK ne figure dans le RCP de Zytiga® ni dans le Thésaurus des interactions médicamenteuses de l'ANSM (dernière version, octobre 2020 [42]). Or, l'abiratérone inhiberait de façon modérée le CYP 2C9 [43] impliqué dans la métabolisation des AVK [44] et est un inhibiteur modéré du CYP 3A4 et faible de la P-gp. À noter que la fluindione ayant fait l'objet d'une restriction d'utilisation réservée au renouvellement des prescriptions et d'un arrêt des initiations de Préviscan® fin 2018 [45], cette association devrait donc être de moins en moins observée. Une IAM potentielle avec les AVK reste cependant à considérer, en particulier chez les patients traités par warfarine porteurs d'une valve cardiaque mécanique pour lesquels un suivi très rapproché de l'INR est indiqué [46]. Aucun ajustement posologique de la 13 Page 13 of 27 Article original_révisé Therapies molécule n'est recommandé avec les anticoagulants oraux directs (dabigatran [métabolisé par la P-gp], rivaroxaban et apixaban [substrats de CYP 3A4]) [7,46]. Enzalutamide ro of Effets indésirables attendus mais suscitant une attention particulière Des IAM sont attendues avec l'enzalutamide en raison de son profil inducteur puissant du CYP 3A4, modéré du CYP 2C9 et 2C19 ; il inhiberait par ailleurs la P-gp [47]. Concernant la digoxine, substrat de la P-gp, une interaction, d'issue potentiellement -p grave, apparaît plausible avec l'enzalutamide comme le suggère le cas de surdosage massif en digoxine rapporté dans la BNPV et décrit dans les résultats. La digoxine est mentionnée dans re la rubrique « interactions médicamenteuses » du RCP de Xtandi® et doit être utilisée avec prudence au vue des données in vitro (effet in vivo non étudié) et de la marge thérapeutique du lP médicament ; cette interaction n'apparaît pas dans le Thesaurus de l'ANSM. La littérature fait quant à elle apparaître plusieurs cas récents d'interaction de l'enzalutamide avec la méthode de Jo ur na dosage de la digoxine, mettant en évidence des concentrations supra- ou thérapeutiques en digoxine chez des patients n'ayant pas consommé de digoxine ou interrompu leur traitement depuis plusieurs semaines [48,49]. L'utilisation de certains analgésiques morphiniques métabolisés majoritairement par le CYP 3A4 et faiblement par le 2D6, pourrait en association à l'enzalutamide conduire à une analgésie moindre voire insuffisante [50–52] comme mentionné dans le RCP [9]. Contrairement aux cas rapportés dans la BNPV et la littérature décrivant une augmentation de l'INR (+/- saignement extériorisé) [53], une diminution de l'efficacité des anticoagulants métabolisés par le CYP 2C9 (warfarine, fluindione) est attendue avec l'enzalutamide [54]. Selon une revue de la littérature, l'utilisation d'un anticoagulant oral doit être prudente en cas d'association à l'enzalutamide [55], le RCP de Xtandi® mentionnant par ailleurs une association déconseillée avec les anticoagulants métabolisés par le CYP 2C9, et si nécessaire, requérant un suivi rapproché de l'INR [9]. Le Thésaurus de l'ANSM est sans information à ce sujet. 14 Page 14 of 27 Article original_révisé Therapies Effets indésirables inattendus Concernant les 2 cas, très peu documentés, de troubles du comportement avec suicide rapportés dans la BNPV dont un dans un contexte de décès récent d'un proche, ces EI ne font pas partie des atteintes psychiatriques rapportées avec ce médicament, contrairement à l'anxiété mentionnée comme fréquente dans le RCP de Xtandi® [9]. L'analyse de disproportionalité fait ro of apparaître un signal sur les notifications de suicides. La littérature n'évoque pas spécifiquement de trouble psychiatrique sous enzalutamide. À noter l'impact significatif du cancer de prostate sur la santé mentale des patients [56]. Par ailleurs, à ce stade de la maladie, les patients ont reçu pendant plusieurs années une thérapie par déprivation d'androgène (« ADT » ; -p hormonothérapie de 1ère génération), à poursuivre au cours du traitement par abiratérone ou enzalutamide [1], et connue pour induire des troubles de l'humeur et des dépressions [57]. Bien re qu'en l'état nous ne puissions conclure sur le risque, nos résultats doivent inciter à rester attentif aux troubles psychiatriques sous enzalutamide. lP Plusieurs cas d'IC dont un cas avec fibrillation auriculaire sont enregistrés dans la BNPV et apparaissent comme des signaux dans la DAS. Une analyse post-hoc de l'essai de Jo ur na phase II TERRAIN (comparant enzalutamide et bicalutamide) a identifié, dans le groupe enzalutamide, plusieurs cas d'évènements indésirables cardiaques dont l'IC et la fibrillation auriculaire chez des patients présentant, pour certains, des facteurs de risque cardiovasculaires [58]. Par ailleurs, davantage de cas de fibrillation auriculaire ont été observés chez les patients ≥ 75 ans (12 %) exposés au médicament comparativement aux patients de moins de 75 ans (0,8 %). Ces évènements n'avaient pas été signalés comme tel dans les précédents essais cliniques impliquant le médicament ou avaient possiblement été regroupés parmi les « troubles cardiovasculaires » [59,60], limitant l'analyse du profil de sécurité sur ces types d'atteinte cardiaque. Considérant l'impact de ces atteintes cardiaques en termes de santé publique dans les pays occidentaux [61–63], ces signaux mériteraient d'être investigués. Quelques cas d'atteinte hépatique, plutôt cholestatique, dont 2 d'évolution fatale sont rapportés dans la BNPV. Non mentionnée parmi les EI de l'enzalutamide mais identifiée comme signal dans la DAS, l'hépatotoxicité, en particulier de type cholestatique, n'est pas 15 Page 15 of 27 Article original_révisé Therapies décrite dans la littérature. Malgré cette absence, devant la plausibilité des cas et le caractère potentiellement grave, ce signal mériterait d'être investigué. Forces et limites La principale force de notre étude réside dans l'analyse d'un nombre important de cas d'EI. Par ailleurs, contrairement aux bases européennes et mondiales de pharmacovigilance, la BNPV ro of contient diverses données cliniques, cette documentation plus complète contribuant à une meilleure appréhension des signaux de pharmacovigilance. La première limite concerne l'utilisation de la BNPV comme source de données. En -p effet, les cas enregistrés proviennent essentiellement de la notification spontanée mais il existe une sous-notification importante. Cependant, nous avons ciblé notre analyse sur les EI rares, re graves et/ou inattendus, plus volontiers notifiés par les cliniciens que les EI fréquents et connus. La seconde limite concerne la requête dans la BNPV qui a inclu des observations saisies lP jusqu'au 31/12/2017. Or la DAS, transmise ultérieurement, a été réalisée du 01/01/2000 au 02/10/2018. Cependant, les résultats de l'analyse de disproportionnalité ne mettent pas en évidence d'autres signaux d'EI, c'est-à-dire, des signaux concernant des EI qui auraient été Jo ur na déclarés en 2018 et que nous n'avons pas inclus dans notre analyse de cas. Perspectives À titre exploratoire, nous avons recherché dans la BNPV les cas de décès survenus sous abiratérone ou enzalutamide entre le 01/01/2018 et le 31/08/2020 : 2 cas ont été rapportés sous abiratérone (un cas d'hépatite cytolyique et un cas d'hypokaliémie) et 2 cas sous enzalutamide (un cas d'infarctus du myocarde et un cas d'aggravation rapide de l'état du patient dans un contexte d'hallucinations visuelles avec asthénie, dorsalgie et faiblesse musculaire). Ces données ne viennent pas modifier les conclusions relatives à l'analyse des données de la BNPV sur la période d'étude jusqu'au 31/12/2017. 16 Page 16 of 27 Article original_révisé Therapies Par ailleurs, utilisant les données de l'Assurance maladie, l'étude de pharmacoépidémiologie « SPEAR » (safety and performance of enzalutamide and abiraterone) vise à décrire plus en détail le profil de sécurité d'abiratérone et enzalutamide, en particulier sur les atteintes cardiaques et hépatiques [64]. Certains signaux soulevés dans la présente étude seront investigués [65]. Les résultats sont attendus fin 2020. ro of Conclusion Utilisant la BNPV, nous avons analysé tous les cas d'EI rapportés sous abiratérone et enzalutamide depuis leur commercialisation jusqu'au 31/12/2017. -p Parmi les risques importants identifiés pour l'abiratérone, la survenue des atteintes hépatiques à issue fatale est préoccupante. Un suivi rapproché du bilan hépatique doit être re réalisé par les cliniciens avant introduction du médicament. Bien que l'estimation du taux de notification d'hépatites fatales semble en accord avec les données du RCP, l'analyse des cas de lP la BNPV semble montrer que ce suivi n'a pas permis d'anticiper ce risque. De nouveaux signaux, les IRA et les AVC ischémiques, ont par ailleurs émergé de l'analyse des cas de la BNPV, confirmés par les résultats de la DAS. Jo ur na Avec l'enzalutamide, alors que les cardiopathies ischémiques sont connues avec le médicament, notre analyse a fait apparaître des cas d'IC et de fibrillation auriculaire qui mériteraient de plus amples investigations. Des troubles du comportement dont des suicides ont été rapportés, ne permettent pas de se prononcer quant au risque psychiatrique induit par le médicament mais devant inciter les cliniciens à rester attentifs à la santé mentale de leurs patients dès l'instauration de l'enzalutamide. Enfin, non connues avec ce médicament, des hépatites, plutôt cholestatiques et parfois d'issue fatale, ont été rapportées de façon précoce faisant soulever la question de son hépatotoxicité. Ces différents signaux sont également confirmés par l'analyse de disproportionnalité. Concernant les IAM, l'association enzalutamide / digoxine doit rester prudente, des cas de surdosage en digoxine cliniquement significatifs et d'interaction avec la méthode de dosage de la digoxine ayant été rapportés. Enfin, les cliniciens doivent rester vigilants quant à la gestion 17 Page 17 of 27 Article original_révisé Therapies de l'anticoagulation et de l'antalgie chez les patients exposés à l'abiratérone ou l'enzalutamide, prenant en compte de potentielles IAM via les CYP 3A4 et 2D6 et la P-gp. La réalisation de l'étude de pharmacoépidémiologie « SPEAR » pourra apporter des éléments complémentaires permettant de valider ou non certains signaux de PV, en précisant le Jo ur na lP re -p ro of profil d'EI des deux médicaments. 18 Page 18 of 27 Article original_révisé Therapies Remerciements Nous remercions Mehdi Benkebil et Pascal Auriche de l'Agence nationale de sécurité du médicament et des produits de santé (ANSM). Déclaration de liens d'intérêts Jo ur na lP re -p ro of Les auteurs déclarent ne pas avoir de lien d'intérêt. 19 Page 19 of 27 Article original_révisé Therapies Références [1] Mottet N, Cornford P, van den Berg RCN, Briers E, De Santis M, Fanti S, et al. EAU Guidelines: prostate cancer. Uroweb. 2020. https://uroweb.org/guideline/prostate-cancer/#6_4. [Consulté le 4 décembre 2020]. [2] HAS. Commission de la transparence_Avis_16 mai 2018_ abiraterone (Zytiga ®). 2018. https://www.has-sante.fr/upload/docs/evamed/CT16729_ZYTIGA_PIC_EI_avis2_CT16729.pdf. [Consulté le 4 décembre 2020 (24 pp.)]. [3] HAS. Commission de la transparence_Avis_12 juin 2019_Enzalutamide (Xtandi®). https://www.has-sante.fr/upload/docs/evamed/CT- ro of 2019. 17551_XTANDI_PIC_EI_Avis2_CT17551.pdf. [Consulté le 4 décembre 2020 (20 pp.)] [4] Sternberg CN. Enzalutamide, an oral androgen receptor inhibitor for treatment of castration-resistant prostate cancer. Future Oncol 2019;15(13):1437–57. Marchioni M, Sountoulides P, Bada M, Rapisarda S, De Nunzio C, Tamburro FR, et al. -p [5] Abiraterone in chemotherapy-naive patients with metastatic castration-resistant prostate cancer: [6] re a systematic review of 'real-life' studies. Ther Adv Urol 2018;10(10):305–15. Castellan P, Castellucci R, Marchioni M, De Nunzio C, Tema G, Primiceri G, et al. A Drug Saf 2019;18(9):759–67. [7] Zytiga® - résumé lP drug safety evaluation of abiraterone acetate in the treatment of prostate cancer. Expert Opin des caractéristiques du produit. 23 juillet 2020) Jo ur na https://www.ema.europa.eu/en/documents/product-information/zytiga-epar-productinformation_fr.pdf. [Consulté le 4 décembre 2020 (81 pp.)]. [8] Summary of risk management plan for XTANDI (enzalutamide). 2020. https://www.ema.europa.eu/en/documents/rmp-summary/xtandi-epar-risk-management-plansummary_en.pdf. [Consulté le 4 décembre 2020 (6 pp.)]. [9] Xtandi® - Résumé des caractéristiques du produit. Mars 2020. https://www.ema.europa.eu/en/documents/product-information/xtandi-epar-productinformation_fr.pdf. [Consulté le 4 décembre 2020 (86 pp.)]. [10] Clegg NJ, Wongvipat J, Joseph J, Tran C, Ouk S, Dilhas A, et al. ARN-509: a novel anti-androgen for prostate cancer treatment. Cancer Res 2012;72(6):1494–503. [11] Moilanen AM, Riikonen R, Oksala R, Ravanti L, Aho E, Wohlfahrt G, et al. Discovery of ODM-201, a new-generation androgen receptor inhibitor targeting resistance mechanisms to androgen signaling-directed prostate cancer therapies. Sci Rep 2015;5:12007. [12] Merseburger AS, Haas GP, von Klot CA. An update on enzalutamide in the treatment 20 Page 20 of 27 Article original_révisé Therapies of prostate cancer. Ther Adv Urol 2015;7(1):9–21. [13] Ryan C, Wefel JS, Morgans AK. A review of prostate cancer treatment impact on the CNS and cognitive function. Prostate Cancer Prostatic Dis 2020;23(2):207-19. [14] Iwanishi T, Yumiba S, Koida Y, Kobayashi M, Komori K, Ono Y. A case of castration- resistant prostate cancer with fatal convulsive seizure after administration of enzalutamide. Hinyokika Kiyo 2017;63(10):431–3. [15] Murata M, Takizawa I, Maruyama R, Kasahara T, Hara N, Tomita Y. Enzalutamide- induced severe thrombocytopenia complicated by a seizure in a 76-year-old man with castration-resistant prostate cancer. IJU Case Rep 2019;2(1):9–11. Slovin S, Clark W, Carles J, Krivoshik A, Park JW, Wang F, et al. Seizure rates in ro of [16] enzalutamide-treated men with metastatic castration-resistant prostate cancer and risk of seizure: the UPWARD study. JAMA Oncol 2018;4(5):702–6. [17] Pilon D, Behl AS, Ellis LA, Robitaille MN, Lefebvre P, Dawson NA. Assessment of -p real-world central nervous system events in patients with advanced prostate cancer using abiraterone acetate, bicalutamide, enzalutamide, or chemotherapy. Am Health Drug Benefits [18] re 2017;10(3):143–53. Shore ND, Saltzstein D, Sieber P, Mehlhaff B, Gervasi L, Phillips J, et al. Results of a lP real-world study of enzalutamide and abiraterone acetate with prednisone tolerability (REAAcT). Clin Genitourin Cancer 2019;17(6):457-463.e6. [19] Moore N, Berdaï D, Blin P, Droz C. Pharmacovigilance - The next chapter. Therapie [20] Jo ur na 2019;74(6):557–67. Miremont-Salamé G, Théophile H, Haramburu F, Bégaud B. Causality assessment in pharmacovigilance: the French method and its successive updates. Therapie 2016;71(2):179– 86. [21] Faillie JL. Case-non-case studies: principle, methods, bias and interpretation. Therapie 2019;74(2):225–32. [22] Brown EG, Wood L, Wood S. The medical dictionary for regulatory activities (MedDRA). Drug Saf 1999;20(2):109–17. [23] Dumouchel W. Bayesian data mining in large frequency tables, with an application to the FDA spontaneous reporting system. The American Statistician 1999;53(3):177–90. [24] L'Assurance maladie. ameli.fr - Medic'AM - Médicaments délivrés par les pharmacies de ville par type de prescripteur. 2020. https://www.ameli.fr/l-assurance-maladie/statistiqueset-publications/donnees-statistiques/medicament/medicaments-pharmacies-de-ville-parprescripteur/medic-am-2012-2014.php. [Consulté le 4 décembre 2020]. 21 Page 21 of 27 Article original_révisé [25] Therapies Roviello G, Sigala S, Sandhu S, Bonetta A, Cappelletti MR, Zanotti L, et al. Role of the novel generation of androgen receptor pathway targeted agents in the management of castration-resistant prostate cancer: A literature based meta-analysis of randomized trials. Eur J Cancer 2016;61:111–21. [26] Roviello G, Sigala S, Danesi R, Re MD, Bonetta A, Cappelletti MR, et al. Incidence and relative risk of adverse events of special interest in patients with castration resistant prostate cancer treated with CYP-17 inhibitors: A meta-analysis of published trials. Crit Rev Oncol Hematol 2016;101:12–20. [27] Zhu J, Liao R, Su C, Liang D, Wu J, Qiu K, et al. Toxicity profile characteristics of ro of novel androgen-deprivation therapy agents in patients with prostate cancer: a meta-analysis. Expert Rev Anticancer Ther 2018;18(2):193–8. [28] Moreira RB, Debiasi M, Francini E, Nuzzo PV, Velasco GD, Maluf FC, et al. Differential side effects profile in patients with mCRPC treated with abiraterone or a meta-analysis of randomized controlled trials. 13;8(48):84572–8. 2017 Zheng X, Zhao X, Xu H, Han X, Xu H, Dong X, et al. Efficacy and safety of abiraterone re [29] Oncotarget -p enzalutamide: and enzalutamide for castration-resistant prostate cancer: A systematic review and meta- [30] lP analysis of randomized controlled trials. Medicine (Baltimore) 2019;98(44):e17748. De Nunzio C, Lombardo R, Tema G, Voglino O, Sica A, Baldassarri V, et al. Adverse events related to abiraterone and enzalutamide treatment: analysis of the EudraVigilance Jo ur na database and meta-analysis of registrational phase III studies. Prostate Cancer Prostatic Dis 2020;23(2):199-206. [31] Salem JE, Yang T, Moslehi JJ, Waintraub X, Gandjbakhch E, Bachelot A, et al. Androgenic effects on ventricular repolarization: a translational study from the international pharmacovigilance database to iPSC-cardiomyocytes. Circulation 2019;140(13):1070–80. [32] Salem JE, Bretagne M, Lebrun-Vignes B, Waintraub X, Gandjbakhch E, Hidden-Lucet F, et al. Clinical characterization of men with long QT syndrome and torsades de pointes associated with hypogonadism: A review and pharmacovigilance study. Arch Cardiovasc Dis 2019;112(11):699-712. [33] Bretagne M, Lebrun-Vignes B, Pariente A, Shaffer CM, Malouf GG, Dureau P, et al. Heart failure and atrial tachyarrhythmia on abiraterone: A pharmacovigilance study. Arch Cardiovasc Dis 2020;113(1):9-21. [34] Yumiba S, Komori K, Iwanishi T, Koida Y, Kobayashi M, Ono Y. A case of fulminant hepatitis after administration of abiraterone acetate. Hinyokika Kiyo 2017;63(11):479–82. 22 Page 22 of 27 Article original_révisé [35] Therapies Singh P, Sinha A, Lama Tamang TG, Chandra AB, Huang YJ. Abiraterone-associated fulminant liver failure. Am J Ther 2018;25(4):e505–6. [36] Ahmad J, Odin JA. Epidemiology and genetic risk factors of drug hepatotoxicity. Clin Liver Dis 2017;21(1):55–72. [37] Neyra JA, Rocha NA, Bhargava R, Vaidya OU, Hendricks AR, Rodan AR. Rhabdomyolysis-induced acute kidney injury in a cancer patient exposed to denosumab and abiraterone: a case report. BMC Nephrol 2015;16:118. [38] Moore DC, Moore A. Abiraterone-induced rhabdomyolysis: A case report. J Oncol Pharm Pract 2017;23(2):148–51. Dineen M, Hansen E, Guancial E, Sievert L, Sahasrabudhe D. Abiraterone-induced ro of [39] rhabdomyolysis resulting in acute kidney injury: A case report and review of the literature. J Oncol Pharm Pract 2018;24(4):314–8. [40] Kamel H, Okin PM, Elkind MSV, Iadecola C. Atrial fibrillation and mechanisms of [41] -p stroke: time for a new model. Stroke 2016;47(3):895-900. Verzoni E, Grassi P, Ratta R, Niger M, De Braud F, Valdagni R, et al. Safety of long- re term exposure to abiraterone acetate in patients with castration-resistant prostate cancer and concomitant cardiovascular risk factors. Ther Adv Med Oncol 2016;8(5):323–30. ANSM. Thesaurus des interactions medicamenteuses. 2020. http://www.ansm.sante.fr. [Consulté le 4 décembre 2020]. [43] lP [42] Han CS, Patel R, Kim IY. Pharmacokinetics, pharmacodynamics and clinical efficacy Jo ur na of abiraterone acetate for treating metastatic castration-resistant prostate cancer. Expert Opin Drug Metab Toxicol 2015;11(6):967–75. [44] Ufer M. Comparative pharmacokinetics of vitamin K antagonists: warfarin, phenprocoumon and acenocoumarol. Clin Pharmacokinet 2005;44(12):1227–46. [45] Traitement par antivitamines K (AVK) : nouvelles informations - Lettre aux professionnels de santé - ANSM : Agence nationale de sécurité du médicament et des produits de santé. 2018. https://www.ansm.sante.fr/S-informer/Informations-de-securite-Lettres-auxprofessionnels-de-sante/Traitement-par-antivitamines-K-AVK-nouvelles-informations-Lettreaux-professionnels-de-sante. [Consulté le 4 décembre 2020]. [46] Dubinsky S, Thawer A, McLeod AG, McFarlane TRJ, Emmenegger U. Management of anticoagulation in patients with metastatic castration-resistant prostate cancer receiving abiraterone + prednisone. Support Care Cancer 2019;27(9):3209–17. [47] Benoist GE, Hendriks RJ, Mulders PFA, Gerritsen WR, Somford DM, Schalken JA, et al. Pharmacokinetic aspects of the two novel oral drugs used for metastatic castration-resistant 23 Page 23 of 27 Article original_révisé Therapies prostate cancer: abiraterone acetate and enzalutamide. Clin Pharmacokinet 2016;55(11):1369– 80. [48] Deguigne M, Brunet M, Abbara C, Turcant A, Le Roux G, Lelièvre B. Enzalutamide and analytical interferences in digoxin assays. Clin Toxicol (Phila) 2018;56(11):1150–4. [49] Kalra Dinesh, Tesfazghi Merih. Falsely elevated digoxin levels in patients on enzalutamide. Circ Heart Fail 2020;13(7):e007008. [50] Westdorp H, Kuip EJM, van Oort IM, Kramers C, Gerritsen WR, Vissers KCP. Difficulties in pain management using oxycodone and fentanyl in enzalutamide-treated patients with advanced prostate cancer. J Pain Symptom Manage 2018;55(4):e6-e8. Benoist GE, van Oort IM, Burger DM, Koch BCP, Mehra N, van Erp NP. The ro of [51] combination of enzalutamide and opioids: a painful pitfall? European Urology 2019;75(2):351– 2. [52] Oosten AW, Abrantes JA, Jönsson S, de Bruijn P, Kuip EJM, Falcão A, et al. Treatment -p with subcutaneous and transdermal fentanyl: results from a population pharmacokinetic study in cancer patients. Eur J Clin Pharmacol 2016;72(4):459–67. Strobbe G, Pannier D, Villain A, Feutry F, Marliot G. First-time prescription of re [53] enzalutamide in a patient treated with fluindione and digoxin: serial drug interactions. Acta [54] Gibbons JA, de Vries M, Krauwinkel W, Ohtsu Y, Noukens J, van der Walt JS, et al. Pharmacokinetic drug interaction studies with enzalutamide. Clin Pharmacokinet Jo ur na 2015;54(10):1057–69. [55] lP Oncol 2019;58(8):1167–9. Shatzel JJ, Daughety MM, Olson SR, Beer TM, DeLoughery TG. Management of Anticoagulation in patients with prostate cancer receiving enzalutamide. J Oncol Pract 2017;13(11):720–7. [56] Brunckhorst O, Hashemi S, Martin A, George G, Van Hemelrijck M, Dasgupta P, et al. Depression, anxiety, and suicidality in patients with prostate cancer: a systematic review and meta-analysis of observational studies. Prostate Cancer Prostatic Dis.2020 Sep 25;doi: 10.1038/s41391-020-00286-0. [57] Donovan KA, Walker LM, Wassersug RJ, Thompson LMA, Robinson JW. Psychological effects of androgen-deprivation therapy on men with prostate cancer and their partners. Cancer 2015;121(24):4286–99. [58] Siemens DR, Klotz L, Heidenreich A, Chowdhury S, Villers Arnauld, Baron B, et al. Efficacy and safety of enzalutamide vs bicalutamide in younger and older patients with metastatic castration resistant prostate cancer in the TERRAIN trial. J Urol 2018;199(1):14724 Page 24 of 27 Article original_révisé Therapies 154. [59] Scher HI, Fizazi K, Saad F, Taplin ME, Sternberg CN, Miller K, et al. Increased survival with enzalutamide in prostate cancer after chemotherapy. N Engl J Med 2012;367(13):1187– 97. [60] Beer TM, Armstrong AJ, Rathkopf DE, Loriot Y, Sternberg CN, Higano CS, et al. Enzalutamide in metastatic prostate cancer before chemotherapy. N Engl J Med 2014;371(5):424–33. [61] Heidenreich PA, Albert NM, Allen LA, Bluemke DA, Butler J, Fonarow GC, et al. Forecasting the impact of heart failure in the United States: a policy statement from the [62] ro of American Heart Association. Circ Heart Fail 2013;6(3):606–19. Gabet A, Juillière Y, Lamarche-Vadel A, Vernay M, Olié V. National trends in rate of patients hospitalized for heart failure and heart failure mortality in France, 2000-2012. Eur J Heart Fail.2015;17(6):583–90. Santé Publique France. Insuffisance cardiaque. 2019. -p [63] https://www.santepubliquefrance.fr/maladies-et-traumatismes/maladies-cardiovasculaires-et- [64] re accident-vasculaire-cerebral. [Consulté le 4 déembre 2020]. ANSM. Groupe de travail "Études épidémiologiques des produits de santé" N°9 2018. lP (GT022018031). https://ansm.sante.fr/var/ansm_site/storage/original/application/fa4ce8967a81db1a7257c6d9a a9b263c.pdf. [Consulté le 4 décembre 2020 (2 pp.)]. Montastruc JL, Benevent J, Montastruc F, Bagheri H, Despas F, Lapeyre-Mestre M, et Jo ur na [65] al. What is pharmacoepidemiology? Definition, methods, interest and clinical applications. Therapie 2019;74(2):169–74. 25 Page 25 of 27 Article original_révisé Therapies Pr epr oo f Figure 1. Répartition des cas d'effets indésirables par molécule et par classe organe (par ordre croissant du nombre de cas sous abiratérone) depuis la mise à disposition jusqu'au 31/12/2017. % 34.5 30 8.0 8.0 2.3 0.7 3.4 0.70.0 0.70.0 0.70.0 0.0 PolySOC* 2.3 0.7 Affections congénitales, familiales et génétiques 1.4 0.0 Affections des organes de reproduction et du sein 1.4 1.1 Affections endocriniennes 2.1 Investigations 2.8 3.4 Affections oculaires 5.7 3.5 3.4 2.8 Affections de l'oreille et du labyrinthe 4.2 Affections respiratoires, thoraciques et médiastinales 4.2 Affections vasculaires 4.2 2.3 Affections du système nerveux al 6.8 4.9 Affections de la peau et du tissu sous-cutané Jo u Troubles du métabolisme et de la nutrition Affections hépatobiliaires Affections cardiaques 0 2.3 6.8 5.6 rn 5 8.0 5.6 Affections gastrointestinales 5.7 Troubles généraux et anomalies au site d'administration 8.3 Affections musculosquelettiques et du tissu conjonctif 6.8 Affections hématologiques et du système lymphatique 11.1 Lésions, intoxications et complications d'interventions 15 Affections psychiatriques 20 10 Abiratérone Enzalutamide 23.9 25 Affections du rein et des voies urinaires 35 * PolySOC désigne les trois cas pour lesquels des effets indésirables appartenant à plusieurs classes organes ont été rapportés sans qu'ils puissent être rassemblés sous une même entité pathologique. Sont concernés : - 1 cas d'hématome sous-dural, anémie, thrombopénie et cholestase ; - 1 cas d'asthénie, douleur thoracique, troubles du comportement et de la mémoire, hypertension aggravée, bouffées vasomotrices et céphalées ; - 1 cas de faiblesse et crampes musculaires, gynécomastie, bouffée de chaleur, dorsalgies, syndrome des jambes sans repos et trouble de la mémoire. 26 Page 26 of 27 Article original_révisé Therapies Pr epr oo f Tableau 1. Types d'effets indésirables fatals sous abiratérone (n = 14) et enzalutamide (n = 5) et critères d'imputabilité. Abiratérone Affections gastrointestinales Affections du système nerveux Affections psychiatriques Affections respiratoires Affections hématologiques Seul médicament suspect Imputabilité abiratérone Oui Oui Oui C1 S1  I1 C1 S1  I1 C1 S1  I1 Oui Non Non Non Oui C1 S2  I1 C1 S2  I1 C2 S2  I2 C1 S1  I1 C1 S1  I1 al Affections hépatobiliaires - 2 cas chez patients IC + ischémie coronarienne (1 cas) + AVC ischémique (1 cas) - 1 cas aggravation de cardiopathie ischémique - 1 cas anasarque compatibles avec IC - 1 cas torsade de pointe - 1 cas fibrillation ventriculaire - 1 hépatite fulminante - 1 cytolyse hépatique grave ; biopsie hépatique post-mortem = adénocarcinome peu différencié compatible avec cancer de prostate primitif - 1 cytolyse + cholestase rn Affections cardiaques Type d'effet indésirable Oui Non C1 S1  I1 C1 S1  I1 Oui Non C2 S2  I2 C1 S1  I1 Type d'effet indésirable - 1 cas de cholestase avec probable syndrome hépato-rénal et encéphalopathie hépatique - 1 cas d'insuffisance hépatique aiguë avec ascite et ictère Seul médicament suspect Imputabilité enzalutamide Non C1 S1  I1 Non C1 S2  I1 - 1 pancréatite nécrosante - 1 cas AVC ischémique avec CIVD - 1 cas AVC hémorragique Jo u Classe organe Enzalutamide - 1 cas dyspnée + bronchospasme compatible avec embolie pulmonaire - 1 cas aplasie médullaire Oui C1 S1  I1 Oui C2 S2  I2 - 1 cas d'encéphalopathie, confusion mentale, démence, hallucinations - 1 cas syndrome dépressif avec suicide - 1 cas de suicide après homicide de l'épouse Oui Non Oui C1 S1  I1 C2 S1  I1 C1 S1  I1 AVC : accident vasculaire cérébral ; CIVD : coagulation intravasculaire disséminée ; IC : insuffisance cardiaque. Critères d'imputabilité  C : critère chronologique, S : critères sémiologique, I : score d'imputabilité. 27 Page 27 of 27
{'path': '12/hal.archives-ouvertes.fr-hal-03102475-document.txt'}
URAFPA - Unité de recherches animal et fonctionnalités des produits animaux Rapport Hcéres To cite this version: Rapport d'évaluation d'une entité de recherche. URAFPA - Unité de recherches animal et fonctionnalités des produits animaux. 2017, Université de Lorraine. hceres-02029955 HAL Id: hceres-02029955 https://hal-hceres.archives-ouvertes.fr/hceres-02029955 Submitted on 20 Feb 2019 Département d'Évaluation de la Recherche Évaluation de l'unité : Unité de Recherche Animal et Fonctionnalités des Produits Animaux UR AFPA sous tutelle des établissement et organismes : Université de Lorraine Campagne d'évaluation 2016-2017 (Vague C) Département d'Évaluation de la Recherche Pour le HCERES,1 Au nom du comité d'experts,2 Michel Cosnard, président Johan Verreth, président du comité En vertu du décret n°2014-1365 du 14 novembre 2014, Le président du HCERES "contresigne les rapports d'évaluation établis par les comités d'experts et signés par leur président." (Article 8, alinéa 5) 2 Les rapports d'évaluation "sont signés par le président du comité". (Article 11, alinéa 2) 1 Unité de Recherche Animal et Fonctionnalités des Produits Animaux, URAFPA, U Lorraine, M. Pascal FONTAINE Rapport d'évaluation Ce rapport est le résultat de l'évaluation du comité d'experts dont la composition est précisée ci-dessous. Les appréciations qu'il contient sont l'expression de la délibération indépendante et collégiale de ce comité. Nom de l'unité : Unité de Recherche Animal et Fonctionnalités des Produits Animaux Acronyme de l'unité : UR AFPA Label demandé : EA N° actuel : 3998 Nom du directeur (2016-2017) : M. Guido RYCHEN Nom du porteur de projet (2018-2022) : M. Pascal FONTAINE Membres du comité d'experts Président : M. Johan VERRETH, Wageningen University and Research, The Netherlands Experts : M. Paul HEUSCHLING, Université de Luxembourg, Luxembourg Mme Estelle PUJOS-GUILLOT, Unité de Nutrition Humaine - INRA, Theix (représentant des personnels d'appui à la recherche) M. Pierre-Louis TEISSEDRE, Université de Bordeaux 2 (représentant du CNU) Délégué scientifique représentant du HCERES : M. Jean-François HOCQUETTE Représentant des établissements et organismes tutelles de l'unité : M. Fréderic VILLIERAS, Université de Lorraine Directeur de l'École Doctorale : M. Stéphane DESOBRY, ED n°410, « Sciences et Ingénierie Ressources Procédés Produits Environnement (RP2E) » 3 Unité de Recherche Animal et Fonctionnalités des Produits Animaux, URAFPA, U Lorraine, M. Pascal FONTAINE 1  Introduction Historique et localisation géographique de l'unité Par le passé, l'Unité de Recherche (UR) AFPA (Animal et Fonctionnalités des Produits Animaux) relevait du PRES (Pôle de Recherche et d'Enseignement Supérieur) de l'UDL (Université de Lorraine) avec un rattachement principal à l'INPL (Institut National Polytechnique de Lorraine) et un rattachement secondaire à l'UHP (Université Henri Poincaré) et l'UPVM (Université Paul Verlaine Metz). Elle est labellisée Équipe d'Accueil (EA 3998) de l'UDL depuis 2012 et aussi une unité sous contrat avec les départements PHASE (Physiologie Animale et Systèmes d'Elevage) et ALIMH (Alimentation Humaine) de l'INRA, et donc, contribue aux priorités scientifiques de ces départements. L'unité est membre du pôle scientifique A2F (Agronomie, Alimentaire et Forêt) de l'UDL et de la fédération de recherche EFABA (Ecosystèmes Forestiers, Agro ressources, Bioprocédés et Alimentation). L'unité est localisée sur trois sites différents : deux sites à Nancy (FST - Faculté des Sciences et Technologies, et ENSAIA - École Nationale Supérieure d'Agronomie et des Industries Alimentaires) et un à Metz. L'équipe DAC (Domestication en Aquaculture Continentale) était relocalisée dans la période 2011-2014 vers les sites de FST. Équipe de direction L'unité AFPA est dirigée par le professeur M. Guido RYCHEN qui sera succédé par le professeur M. Pascal FONTAINE pour le prochain contrat. Nomenclature HCERES Principal : SVE1 Agronomie, Biologie Végétale, Écologie, Environnement, Évolution Secondaire : SVE2 Biologie Cellulaire, Imagerie, Biologie Moléculaire, Biochimie, Génomique, Biologie Systémique, Développement, Biologie Structurale Domaine d'activité L'unité AFPA travaille d'une part sur la durabilité de l'élevage et d'autre part sur les fonctionnalités des produits animaux, à travers l'étude des concepts de biodisponibilité et d'activités biologiques dans trois modèles animaux : les poissons, les animaux terrestres d'élevage et l'animal de laboratoire. 4 Unité de Recherche Animal et Fonctionnalités des Produits Animaux, URAFPA, U Lorraine, M. Pascal FONTAINE Effectifs de l'unité Nombre au 30/06/2016 Nombre au 01/01/2018 N1 : Enseignants-chercheurs titulaires et assimilés 34 22 N2 : Chercheurs des EPST ou EPIC titulaires et assimilés 2 2 N3 : Autres personnels titulaires (appui à la recherche et/ou n'ayant pas d'obligation de recherche) 18 10,5 N4 : Autres chercheurs et enseignants-chercheurs (ATER, postdoctorants, etc.) 2 N5 : Chercheurs et enseignants-chercheurs émérites (DREM, PREM) 1 N6 : Autres personnels contractuels (appui à la recherche et/ou n'ayant pas d'obligation de recherche) 2 N7 : Doctorants 17 TOTAL N1 à N7 76 Personnes habilitées à diriger des recherches ou assimilées 18 Composition de l'unité Bilan de l'unité Période du 01/01/2011 au 30/06/2016 Thèses soutenues 34 Post-doctorants ayant passé au moins 12 mois dans l'unité 9 Nombre d'HDR soutenues 9 5 Unité de Recherche Animal et Fonctionnalités des Produits Animaux, URAFPA, U Lorraine, M. Pascal FONTAINE 2  Appréciation sur l'unité Avis global sur l'unité Sur la période de référence, l'URAFPA était organisée en 4 équipes (Domestication en Aquaculture Continentale [DAC] ; Micropolluants et Résidus dans la Chaîne Alimentaire [MCRA] ; Biodisponibilité et Fonctionnalités des Lipides Alimentaires [BFLA] ; Proteolyse et Biofonctionnalités des Protéines et des Peptides [PB2P]). Pour le prochain contrat, l'unité sera organisée en trois thèmes (correspondant à trois anciennes équipes) car une équipe deviendra une unité indépendante nommée CALBINOTOX qui a fait l'objet d'une autre évaluation. L'organisation passée de l'unité lui a permis d'avoir une efficacité appréciable. L'unité a su augmenter son effectif d'enseignantschercheurs et de chercheurs et a pu maintenir les effectifs BIATSS. L'équipe DAC a été relocalisée sur le campus de FST, conjointement avec la création d'une plateforme expérimentale en aquaculture qui constitue un vrai atout d'attractivité pour la recherche. La politique scientifique de l'unité est focalisée sur les concepts de biodisponibilité et d'activités biologiques des produits animaux qui sont mis en oeuvre à travers deux approches génériques : (a) au niveau de la production animale, la domestication et la sécurité sanitaire des animaux d'élévage (incluant les poissons) ; (b) au niveau des produits animaux et leurs fonctionalités, avec un focus particulier sur les peptides bioactifs, les lipides et les effets des polluants organiques. La structuration de l'unité est en totale adéquation avec cette politique. La qualité et production scientifique de l'unité est considérée comme excellente, vu les nombreuses publications, dont 60 % dans le 1er quartile. L'unité AFPA est très bien reconnue aux niveaux régional, national et international, grâce à la qualité de ses recherches, son rôle actif dans des partenariats de recherche, sa participation active dans des congrès scientifiques et ses nombreux rôles participatifs dans des groupes de travail académiques. Globalement la formation par la recherche dans l'URAFPA est de haute qualité, mais le nombre des doctorants accueillis et la durée d'encadrement devront être améliorés. L'organisation et le management de l'unité démontrent une cohérence de groupe effective et une forte implication des membres dans de nombreuses actions collectives. Néanmoins, la dynamique de l'unité sera à pérenniser dans un contexte d'évolution du périmètre de l'unité et de changement du mode de gestion (équipe dans le passé versus projet du thème dans le futur). La stratégie envisagée pour le prochain quinquennal est considérée comme excellente. En revanche, concernant les perspectives, il existe une part de risques (notamment pour le futur thème Qualivie) qui méritent une attention particulière. 6
{'path': '54/hal-hceres.archives-ouvertes.fr-hceres-02029955-document.txt'}
" Voilà une compétence difficile à évaluer " L'appropriation du dispositif B2i par les enseignants du primaire Cédric Fluckiger, Samuel Seys To cite this version: Cédric Fluckiger, Samuel Seys. " Voilà une compétence difficile à évaluer " L'appropriation du dispositif B2i par les enseignants du primaire. Colloque INRP " Le travail enseignant au XXIe siècle ", Mar 2011, Lyon, France. hal-01613714 HAL Id: hal-01613714 https://hal.univ-lille.fr/hal-01613714 Submitted on 10 Oct 2017 « Voilà une compétence difficile à évaluer » L'appropriation du dispositif B2i par les enseignants du primaire Cédric FLUCKIGER Théodile-CIREL, Université Lille 3 Samuel SEYS Conseiller pédagogique RÉSUMÉ • Le B2i est étudié ici du point de vue de son appropriation par les enseignants. En l'absence d'instructions sur le contenu à enseigner, c'est un dispositif d'évaluation qui sert de référence pour la construction des enseignements. Les enseignants sont contraints de détourner et d'adapter le dispositif B2i tel qu'il est prescrit. Ils doivent ensuite comprendre, interpréter, parfois décomposer les compétences, décider ce qui doit être évalué et à quel niveau de maitrise doit correspondre chaque compétence. Il apparaît enfin que les objectifs d'évaluation des compétences et ceux de l'enseignement des TIC sont difficilement superposable dans le contexte des classes. MOTS-CLÉS • B2i, primaire, informatique, compétences, évaluation Avec les évolutions curriculaires et les recompositions disciplinaires actuelles, l'émergence de nouveaux objets d'enseignements non indexés strictement aux disciplines scolaires, l'apparition des « éducations à »(Audigier, 2010), la prolifération de dispositifs venant s'ajouter aux programmes (Cautermean & Daunay, 2010) bouleverse certaines formes de travail enseignant (Malet, 2010). C'est le cas, entre autres, du Brevet Informatique et Internet (B2i), certifiant les compétences informatiques des élèves. Présentes maintenant depuis plusieurs dizaines d'années dans le système scolaire, en tant que domaine d'enseignement ou qu'outil disciplinaire ou transversal (Bruillard & Baron, 2006), les TIC Colloque international INRP, 16, 17 et 18 mars 2011 Le travail enseignant au XXIe siècle Perspectives croisées : didactiques et didactique professionnelle (Technologies de l'Information et de la Communication) ne se sont pas constituées en discipline scolaire (Baron, 1987), ni même en une « éducation aux TIC ». Cependant, en tant que domaine d'enseignement, l'évolution de l'informatique scolaire a conduit à mettre en avant les savoir-faire instrumentaux (Baron & Bruillard, 2001), accompagnant en cela le mouvement général de reconfiguration des programmes autour des compétences (Audigier & Tutiaux-Guillon, 2008). En primaire, la présence des TIC en tant qu'objet d'enseignement se manifeste depuis le début des années 2000 essentiellement par l'existence d'un Brevet de certification des compétences, le B2i. Ce dispositif a déjà été interrogé par les chercheurs notamment sur sa capacité à conduire les jeunes à l'objectif « d'autonomie »(Cerisier, 2006) ; Devauchelle, 2006) qui est fixé par les textes prescriptifs ou sur les effets d'une logique de compétences. Le point de vue adopté ici est celui de l'appropriation de ce dispositif par les enseignants. En effet, dix ans après la mise en place du B2i, force est de constater que le B2i n'est toujours pas généralisé1. Il nous semble qu'au-delà des problèmes socio-organisationnels de la mise en place d'un certificat nécessitant une lourde structure technicopédagogique (ordinateurs, logiciels spécifiques, carnets d'élèves), la mise en place du B2i et son appropriation par les enseignants posent certains problèmes didactiques. C'est pourquoi nous avons étudié les conséquences sur le travail des enseignants d'un dispositif de certification qui n'est pas appuyé sur un enseignement et ne constitue ni un diplôme ni un curriculum (Baron, 2004). Cette communication s'appuie à la fois sur l'étude exhaustive des modalités de passation du B2i dans une circonscription du département du Nord, et sur des entretiens semi-directifs avec 6 enseignants de cette circonscription qui, tous, font passer le B2i à leurs élèves2. Elle montre qu'en l'absence d'instructions sur le contenu à enseigner, c'est en réalité l'évaluation qui sert de référence pour la construction, par les enseignants, de leurs enseignements, et qu'ils éprouvent des difficultés à apprécier ce qui doit être considéré comme une compétence acquise, pour des compétences le plus souvent exprimées dans le référentiel en termes très généraux. 1 Entre autres : Rapport sur la contribution des nouvelles technologies à la modernisation du système éducatif, Mars 2007. 2 Il était demandé aux enseignants comment ils évaluaient deux compétences d'apparence simples : « Je sais produire et modifier un texte, une image ou un son » et « Je sais utiliser un mot-clé ou un menu pour faire des recherches ». Colloque international INRP, 16, 17 et 18 mars 2011 Le travail enseignant au XXIe siècle Perspectives croisées : didactiques et didactique professionnelle Nous montrons dans un premier temps que les enseignants sont contraints de détourner et d'adapter le dispositif B2i tel qu'il est prescrit. Dans un second temps, nous examinons ce que la mise en oeuvre d'un tel dispositif implique comme travail spécifique d'appropriation de la part des enseignants. Enfin, nous aborderons quelques conséquences sur les pratiques d'enseignement des TIC, telles que les vivent les enseignants. 1. Du prescrit au réel : l'adaptation du B2i aux contraintes de l'enseignement Du point de vue de l'activité enseignante, le B2i défini à la fois un objectif (la validation des compétences des élèves), des outils prescrits (un référentiel de compétences réparties dans 5 domaines, des carnets d'élèves, etc.) et des modalités prescrites de passation du B2i et d'utilisation des outils. Dans les textes officiels, il est précisé que tous les enseignants doivent valider progressivement les items constitutifs des compétences qui figurent dans les feuilles de position du B2i, lorsque l'élève estime les avoir acquis. C'est donc à l'initiative de l'élève que la validation doit se faire et l'enseignant ne doit valider qu'à partir du moment où l'élève estime avoir acquis telle ou telle compétence. La rédaction du B2i corrobore ce principe puisque elle emploie la première personne du singulier : « mon nom », « mon école », « je note mes progrès », etc. De même les 22 compétences commencent par « je ». Nous sommes proches d'une grille d'auto-évaluation qui permettrait une évaluation formative ayant pour but une régulation continue des apprentissages. Il s'agit donc, dans les textes prescriptifs : - d'une auto-évaluation par les élèves, validée par l'enseignant ; - effectuée tout au long de l'année et non par validation finale ; - qui s'effectue via un « carnet » d'élève, la « feuille de position ». Or il semble que pour les enseignants, ces prescriptions ne soient pas réalistes dans les conditions d'enseignement. 1.1. Une évaluation par les élèves ? Non seulement il s'avère délicat de procéder à une évaluation « tout au long des cycles », mais l'idée que les élèves s'auto-évaluent3 repose sur deux présupposés : qu'ils maîtrisent un vocabulaire technique suffisant pour comprendre les compétences demandées ; et qu'ils soient capables 3 La feuille de position « est régulièrement renseignée par l'élève et validée par les enseignants ». Colloque international INRP, 16, 17 et 18 mars 2011 Le travail enseignant au XXIe siècle Perspectives croisées : didactiques et didactique professionnelle de diagnostiquer leurs savoir-faire correctement. Or les recherches montrent que le plus souvent, les élèves ne disposent pas du vocabulaire technique pour désigner leurs actions ou les objets qu'ils manipulent (Fluckiger, 2008), et les enseignants estiment que les auto-évaluations par les élèves ne sont pas fiables : « pour eux, ils savent tout faire »(BJ), ce qui nécessite non pas une simple « validation » des compétences renseignées, mais « l'observation et le passage individuel pour chaque élève »(BJ). La plupart mettent donc en oeuvre une évaluation passant par d'autre biais, certains sollicitant même les parents, leur demandant : « quand ils voient que l'enfant maîtrise quelque chose, de le valider »(JL). 1.2. Une évaluation « tout au long des cycles » ? Les textes officiels précisent par ailleurs que « la validation ne s'effectue pas en fin de cycle mais tout au long des cycles de l'école primaire »4, au fur et à mesure des activités de la classe. Aucun des enseignants rencontrés ne procédait ainsi, et tous expriment les difficultés pratique rencontrées pour procéder à une telle évaluation au sein de la classe : « il faudrait qu'on soit toujours avec la grille pour dire, à ben tiens, lui, je le vois faire un copier-coller, je valide. C'est très lourd à gérer »(JL). Les autres enseignants éprouvent les mêmes difficultés : « je vais pas valider à chaque fois que je vois un point tout au long de l'année, j'arrive pas à gérer ça, c'est trop contraignant »(BJ) ; « on essaie donc effectivement de valider ça au fur et à mesure, simplement Ca, c'est théorique ! En pratique, quand on vient avec 31 gamins sur douze ou treize postes () quand il y a les autres qui sont en train de faire leur truc, qui vous appellent aussi etc On n'a pas le temps, en même temps de pointer, « Ha oui, lui il sait faire ci, il sait faire ça » »(PB). Nous reviendrons dans la suite sur cette incompatibilité des rythmes et objectifs de l'enseignement et de l'évaluation. Toujours est-il que la validation du B2i, dans les faits, s'effectue surtout en fin d'année : « je vais regarder un petit peu comment ils se débrouillent et après, j'atteste à la fin de l'année. En cours d'année, j'ai pas vraiment le temps, il faut que je sois sur le terrain à les aider, je passe de l'un à l'autre »(BJ). 1.3. Le carnet, instrument de l'évaluation Enfin, les textes officiels prescrivent l'utilisation de « feuilles de position » permettant de noter les compétences acquises et celles qui ne le sont pas : « on est sensés avoir un carnet »(BJ). Cependant, puisque les modalités prévues ne sont pas mises en oeuvre, l'outil lui-même est 4 CIRCULAIRE N°2005-135 DU 9-9-2005 Colloque international INRP, 16, 17 et 18 mars 2011 Le travail enseignant au XXIe siècle Perspectives croisées : didactiques et didactique professionnelle soit délaissé, soit adapté aux besoins de l'évaluation telle qu'elle s'effectue réellement. Certains enseignants procèdent à un véritable détournement de l'usage du carnet, afin qu'il réponde à leurs besoins. Par exemple, « je barre les, les compétences qu'il n'a pas acquises. S'il sait copier, coller, en général, ça, ça va. Insérer, s'il a encore des difficultés, ben je vais le mettre, ou je vais barrer. () Et si c'est une compétence qu'on a pas travaillée dans l'année, je mets non étudiée. »(BJ). D'autres soulignent les compétences : « on souligne copier et coller. Et c'est seulement quand tout est souligné qu'on a droit de faire le petit machin »(PB). Mais puisque l'évaluation, en pratique, se déroule le plus souvent en fin de cycle et n'est pas renseignée par l'élève, certains enseignants ont recours à d'autres outils, mieux adaptés à ce mode d'évaluation que le carnet. Notamment, bien des enseignants utilisent un logiciel spécifique qui permet d'évaluer automatiquement les élèves : « j'ai trouvé un petit logiciel, qui permet de valider par des petits exercices, tous les exercices du B2i »(JL). Ces logiciels permettent d'évaluer les nombreuses compétences des élèves de la classe : « il permet de voir rapidement les élèves jusqu'où ils vont aller dans la progression des compétences »(SL), bien que l'on puisse légitimement se poser la question de savoir quel sens a l'évaluation des compétences par un logiciel. 2. Le travail d'appropriation par les enseignants Il semble que donc que le dispositif du B2i fasse l'objet d'une reconstruction assez radicale par les enseignants dans le contexte de la classe. Au-delà des détournements évoqués plus haut, le B2i définit une liste de compétences, sans que la manière de les enseigner ou évaluer ne soit définie dans les programmes, ni que soit indiqué ce qui doit être considéré comme une compétence acquise, ou le niveau de compétence requis, ou encore si doit être évalué un processus (savoir faire efficacement) ou un résultat (arriver à le faire). Les enseignants doivent donc « se débrouiller » pour comprendre, interpréter puis s'approprier ces compétences avant de définir à partir de quel niveau de maitrise une compétence doit être considérée comme acquise5. Il importe donc d'analyser et de caractériser ce travail de reconstruction. Il nous semble possible de décomposer ce travail en 4 5 Cette absence d'instructions ou de recommandations est d'ailleurs parfois explicitement assumée dans les textes prescriptifs, demandant par exemple aux enseignants de faire preuve « d'invention pédagogique ». Colloque international INRP, 16, 17 et 18 mars 2011 Le travail enseignant au XXIe siècle Perspectives croisées : didactiques et didactique professionnelle dimensions principales : les enseignants doivent : - construire le sentiment de leur propre légitimité à évaluer les élèves ; - interpréter les compétences listées dans le référentiel, et s'approprier les termes techniques employés ; - construire une représentation de ce qu'est une compétence, et de comment les évaluer ; - décomposer les compétences listées en sous-compétences évaluables. 2.1 Construire un sentiment de légitimité Les compétences testées dans le B2i ne constituant pas une discipline scolaire, les enseignants doivent construire un double sentiment de légitimité : d'une part se sentir légitimes à valider ainsi des compétences pour lesquels ils n'ont parfois pas été formés, qui, d'autre part, ne relèvent pas d'une discipline scolaire, jouissant de ce fait d'une faible légitimité (Fluckiger, 2011)6. Alors que les discours médiatiques et même académiques construisent la figure d'élèves « natifs numériques » ou des « New Millenium Learner », censés être plus compétents que leurs parents et enseignants, comment les enseignants gèrent-ils ce double déficit de légitimité, personnelle et du domaine à évaluer ? Les enseignants interrogés se jugent d'un niveau soit « moyen » en informatique, soit « expert », mais disent utiliser les outils informatiques avec leurs élèves sans crainte particulière, et surtout sans le sentiment qui leur est parfois prêté d'un déficit de compétence par rapport à eux. Ils déclarent rencontrer parfois des élèves très « compétents », « ayant des connaissances quasiment équivalentes aux miennes. Là, dans ma classe, j'ai un fils d'informaticien »(PB), mais jugent l'expérience plutôt positive et permettant un échange : « je l'utilise comme auxiliaire. C'est mon maître assistant »(PB) ; « Ca ne me perturbe pas plus que ça. Je lui dis ben c'est bien, tu vois, t'en connais plus que moi. () Si lui sait des choses, il me les apprend, je suis là pour lui apprendre aussi. »(BJ). C'est davantage dans leur rapport aux compétences référencées dans le B2i que la nécessité de construire un certain sentiment de légitimité transparaît : « Maintenant, <rire> je me rends compte que moi-même, la compétence je ne la maîtrise pas forcément, donc <rire>, ça risque de poser problèmes Je sais mais de manière intuitive, pas forcément consciente de ce que je fais»(BJ). En effet, savoir faire quelque chose, comprendre sa description dans un référentiel et être en mesure de 6 Cette faible légitimité transparaît non seulement dans le fait que les enseignements ne sont pas pilotés par des savoirs, mais par des compétences, mais aussi que les discours de légitimation invoquent plus volontiers les besoins du « futur citoyen » que ceux de l'élève. Colloque international INRP, 16, 17 et 18 mars 2011 Le travail enseignant au XXIe siècle Perspectives croisées : didactiques et didactique professionnelle l'évaluer chez un élève nécessitent de la part des enseignants des niveaux de maitrise bien distincts. 2.2 Interpréter les compétences et s'approprier les termes techniques Le sentiment de légitimité pour évaluer les compétences est en effet compliqué par le fait que les compétences listées dans le B2i sont parfois délicates à interpréter, comme en témoignent les hésitations des enseignants à qui il est demandé de décrire comment ils évaluent certaines compétences : « ça veut dire quoi hum un menu comment je ferai ? »(JL). Un autre enseignant hésite : « Moi je pense, que si on s'adresse à des enfants, c'est plus, ce serait plus je mettrais plutôt la forme là dedans. Mais quoique plus loin : je sais modifier la mise en forme hé, hé, hé Pour moi, c'est ambivalent surtout quand on lit la suite des items créer, produire donc en plus créer »(PB). Même des compétences apparemment assez « simples », laissent place à une interprétation personnelle. Ainsi, la compétence « Je sais produire et modifier un texte, une image ou un son » semble plonger les enseignants dans une certaine perplexité (« Qu'est-ce que produire un texte vaste question », PB) et donner lieu à plusieurs interprétation. Une enseignante interprète ainsi la modification : « Modifier un texte ou sa phrase ou ses mots, c'est savoir revenir sur son travail et éventuellement le corriger », puis plus loin semble hésiter : « Modification je sais pas en ponctuation ou éventuellement modifier la police ou euh la taille de caractère «(AJD). « Dans mon idée, ça peut être le corriger, le prolonger C'est plein de choses modifier un texte. Le mot modifier recoupe plein de choses. Ca peut être modifier la forme, ça peut être modifier le fond. Donc euh Voilà une compétence qu'elle est difficile à évaluer. Y a pas de sous-items en plus. Ha, ha Qui a pondu ça qu'on aille lui tirer les oreilles »(PB) Les enseignants concluent donc très souvent que le référentiel laisse place à interprétation : « Tout dépend ce que le maître va lui déterminer comme « modifier «(PB) ; « après, il y a plusieurs interprétations, il y a faire glisser de Google directement sur son texte ou si c'est faire glisser à droite ou à gauche, ou la mettre dans la meilleure position sur la page »(FM) et avouent des hésitation (« j'ai hésité pour savoir ce que ça voulait dire. », FM). Le lexique utilisé pour décrire ces compétences n'étant pas univoque pour les enseignants, une place étant laissée à une interprétation personnelle plus ou moins éloignée de l'idée originelle des concepteurs, Colloque international INRP, 16, 17 et 18 mars 2011 Le travail enseignant au XXIe siècle Perspectives croisées : didactiques et didactique professionnelle on peut se poser la question du sens d'une évaluation de compétences que, très probablement, concepteurs, enseignants et élèves n'interprètent pas de la même façon. 2.3 Comprendre ce qu'est une compétence : l'évaluation d'un produit ou d'une production ? Les textes institutionnels, au-delà du seul B2i, tout en soulignant la nécessité de dispenser « à chaque futur citoyen la formation qui, à terme, lui permettra de faire une utilisation raisonnée » des TIC7, font référence quasi exclusivement à des compétences. Or c'est bien cet « ensemble structuré de compétences »(Cerisier, 2006) qui tient lieu de programme scolaire : au cycle 2, « Les élèves commencent à acquérir les compétences constitutives du brevet informatique et internet (B2i) »8, et au cycle 3, « Le programme () est organisé selon cinq domaines déclinés dans les textes règlementaires définissant le B2i ». Cette prégnance de la notion de compétence dans le dispositif nécessite une double appropriation par les enseignants, qui doivent en saisir la finalité (pour quoi évaluer les compétences) et les modalités (comment les évaluer). Sans revenir sur l'ensemble des problèmes d'évaluation des compétences en contexte scolaire (Tardif, 2009), notons que plusieurs ambigüités demeurent, notamment : - sur la distinction entre savoir-faire éventuellement tacite et compétences langagières associées9 (« Une compétence, c'est un savoir-faire, précis, défini ; Ou alors euh, ou comprendre, mettre des mots sur quelque chose, sur un contenu », JL) ; - sur la distinction entre l'évaluation des performances (Daunay, 2008 ; Reuter, 2011) ou du faire des élèves (« un comportement observable ou une attitude Observable par rapport à la grille d'évaluation par exemple », AJD). et celle des produits de leur activité: «en fin de séance, il y a un produit réalisé donc qui peut être imprimable, imprimé «(AJD). Les enseignants entendent généralement l'évaluation des compétences comme celle de l'activité observable des élèves : dans cette conception, il ne s'agirait donc pas uniquement de vérifier que l'élève arrive à un résultat, mais d'évaluer la manière dont il y arrive : « la compétence serait validée, si l'enfant agit, avec ce que j'appellerai, 7 Circulaire n°2005-135 du 9-9-2005 Programmes de 2008 9 On sait l'importance des savoir-faire tacites dans l'apprentissage de l'ordinateur et d'Internet, voir Lelong (2002). 8 Colloque international INRP, 16, 17 et 18 mars 2011 Le travail enseignant au XXIe siècle Perspectives croisées : didactiques et didactique professionnelle entre guillemets, la procédure experte, donc la plus rapide ou la plus simple »(AJD). D'autres enseignants estiment au contraire que c'est le résultat qui permet d'attester la compétence : « cette compétence là, elle aboutit à dire je suis capable de faire quelque chose sur un document, bon. A la limite, qu'on le fasse avec copier-coller ou insérer, on a réussi à le faire »(SL). Mais l'observation des élèves pendant le temps de l'activité s'avère délicate, pour les problèmes de temps évoqués plus haut, et qui rendent difficile une évaluation tout au long de l'année : « l'idéal, ce serait d'être derrière, chaque élève et de voir comment il procède lors de son activité. () pour voir chaque élève, ça demande énormément de temps »(AJD). De fait, c'est bien souvent la production plus que le processus qui fait l'objet d'une évaluation par l'enseignant : « chaque élève avait sa production qui était enregistrée. Donc l'évaluation c'est () on constate vraiment si ça a été fait ou pas. «(SL). Les enseignants sont conscients de ne pas se conformer aux instructions officielles. En début d'entretien, ils décrivent des pratiques conformes aux prescriptions. Ainsi, BJ déclare procéder à l'évaluation « l'observation, tout au long de l'année, par rapport au traitement de texte par exemple, parce que j'en fais à peu près tout au long de l'année, donc là je sais je vois le niveau des enfants », puis décrit les difficultés et avoue finalement des pratiques éloignées de l'esprit et de la lettre des IO : « on a pas le temps, c'est pas possible. Donc je valide en fonction du résultat faute de temps »). Il reste un sentiment d'insatisfaction face à un dispositif unanimement jugé très couteux en temps : « l'évaluation, je pense, est lourde et contraignante »(AJD) et une certaine frustration : « j'aurais aimé pouvoir valider l'acquisition des sons, ce que j'ai essayé, c'est extrêmement lourd à gérer »(JL). 2.4 Décomposer les compétences Un dernier travail des enseignants apparaît nécessaire pour qu'ils soient en mesure d'évaluer les compétences du B2i. En effet, bien des compétences listées recouvrent, aux yeux des enseignants, des aspects très différents : « pour moi, produire et modifier ce n'est pas du tout la même chose () modifier un texte ou sa phrase ou ses mots, c'est savoir revenir sur son travail et éventuellement le corriger. Donc pour moi ce sont des choses différentes »(AJD). Certains enseignants décident alors de n'évaluer que l'un des aspects : « il faudrait que je fasse normalement deux compétences, en fait je n'évalue que produire »(JL) ; « faut la scinder cette évaluation, surtout la Colloque international INRP, 16, 17 et 18 mars 2011 Le travail enseignant au XXIe siècle Perspectives croisées : didactiques et didactique professionnelle 3.4, parce qu'il y a tellement d'actions à faire, couper, copier, coller »(FM) D'autres choisissent de ne pas décomposer : « je valide globalement moi. Copier, coller, couper, bon, effectivement, bon. C'est vrai que la fonction insérer, elle est différente aussi, bon. Mais avec copier, coller, on peut très bien insérer L'un dans l'autre ça sert à faire la même chose »(SL). Se retrouve ici l'ambigüité, discutée plus haut, sur la nature des compétences à évaluer : les compétences énoncées étant assez générales, certaines nécessitent de nombreuses manipulations, laissant les enseignants devant la question de savoir s'ils doivent évaluer chacune de ces manipulations ou procéder à une évaluation globale : « il y a trop de choses dans cette compétence. (), c'est plein de manipulations différentes, alors est-ce qu'un enfant va pouvoir réaliser les six actions, d'un coup ? »(AJD). 3. Quelques conséquences sur la pratique enseignante En l'absence, dans les programmes, de toute référence à des savoirs, concepts, ou notions informatiques (Baron, 2004 ; Fluckiger, 2011), c'est l'évaluation des compétences qui définit le contenu à enseigner, et les enseignants ont recours à une définition tautologique de la compétence : une compétence, c'est ce que le B2i demande de valider. Pourtant, à écouter les enseignants, le B2i ne se résume pas à une évaluation des compétences, puisqu'il faut bien les enseigner avant des les évaluer. Il peut dès lors sembler paradoxal que, bien que le contenu d'enseignement soit défini par l'évaluation, les contraintes de la classe obligent les enseignants à découpler évaluation et enseignement des compétences. Trois raisons majeures apparaissent : - les logiques de temporalité de l'évaluation s'accordent mal avec l'attention nécessaire aux élèves en train de travailler (« on passe son temps à cocher et pendant ce temps là, on n'est pas là pour les aider et les soutenir »(JL) ; « faudrait rester avec lui tout au moins cinq minutes, et puis fixer réellement l'enfant pendant ce temps là, je ne peux pas m'occuper des autres »( FM) ; - les logiques pédagogiques de l'enseignement et de l'évaluation ne se superposent pas, en effet l'ordinateur doit rester un outil au service de l'apprentissage d'autres matières : ), et certains enseignants font la distinction entre l'évaluation B2i et la leur « je la validerai quand même, mais je la validerai comme étant à améliorer, encore à travailler. Elle sera validée, on va dire euh stricto sensu, je vais dire, oui, il sait le Colloque international INRP, 16, 17 et 18 mars 2011 Le travail enseignant au XXIe siècle Perspectives croisées : didactiques et didactique professionnelle faire, () ça c'est au niveau B2i, mais moi, au niveau de l'évaluation que je fais de l'enfant, j'ai considéré que je dois trouver le moyen qu'il ait une manière plus efficiente de faire. Mais je validerai quand même sa compétence sur le livret B2i »(PB) ; - les logiques d'usage des TIC en tant qu'outil disciplinaire ou transversal ne coïncident pas avec les logiques propres à l'usage des TIC en tant que domaine d'apprentissage : « ces compétences là ne correspondaient pas du tout à mes objectifs de séquences »(AJD). Conclusion Les évolutions actuelles vers une logique de compétences conduisent à des évolutions importantes dans le travail enseignant, dont la mise en oeuvre du B2i illustre quelques aspects : - les compétences, telles qu'elles sont appelées à être évaluées par les enseignants font l'objet (au moins) d'une triple construction : construction dans les prescriptions officielles d'une part, construction par les enseignants lors de la conception de la tâche demandée (que demander à l'élève pour que je puisse attester de cette compétence, à partir de quel niveau de maitrise une compétence doit-elle être validée), construction par les élèves enfin qui effectuent les tâches demandées par les enseignants ; - des tensions apparaissent entre les objectifs d'évaluation des compétences et ceux de l'enseignement, exacerbées par le fait que les contenus d'enseignement ne sont plus définis que par les compétences à évaluer ; - la nécessité d'un travail d'appropriation par les enseignants, qui doivent assimiler les compétences proposées dans le référentiel, construire des scénarios pédagogiques permettant aux élèves de les construire tout en permettant aux enseignants de les évaluer. Cédric FLUCKIGER cedric.fluckiger@univ-lille3.fr Samuel SEYS samuelseys@ac-lille.fr Colloque international INRP, 16, 17 et 18 mars 2011 Le travail enseignant au XXIe siècle Perspectives croisées : didactiques et didactique professionnelle BIBLIOGRAPHIE AUDIGIER F. (2010). Curriculum, disciplines scolaires, "éducation à", in F. Chapron et E. Delamotte (dir.) L'éducation à la culture informationnelle, Villeurbanne, Presses de l'ENSIB, p. 244-253. AUDIGIER F. et TUTIAUX-GUILLON N. (2008). Compétences et contenus, les curriculums en questions, Bruxelles, De Boeck. BARON G.-L. (1987). La constitution de l'informatique comme discipline scolaire, Thèse de doctorat, Paris. BARON G.-L. (2004). Jeunes, TIC et école, questions de compétences, Les dossiers de l'ingénierie éducative, n°49, p. 87-89. BARON G.-L. et BRUILLARD E. (2001) Une didactique de l'informatique?, Revue française de Pédagogie, Vol., n°135, p. 163-172. BRUILLARD E. et BARON G.-L. (2006). Usages en milieu scolaire: caractérisation, observation et évaluation, in GRANBASTIEN M. et LABAT J.-M. (dir.) Environnements informatiques pour l'apprentissage humain, Paris, Lavoisier, p. 269-284. CAUTERMEAN M.-D. et DAUNAY B. (2010), La jungle des dispositifs, Recherches, Vol.52. CERISIER J.-F. (2006). La nature du B2i lui permet-elle d'atteindre ses objectifs?, Les dossiers de l'ingénierie éducative, Vol.55, p. DAUNAY B. (2008), Performances et apprentissages disciplinaires, Les cahiers Théodile, Vol.8, p. 7-23. DEVAUCHELLE B. (2006). Comprendre cinq années de mise en place du B2i: mots et maux, Dossiers de l'ingénierie éducative, Vol.55, p. 2-7. FLUCKIGER C. (2008). L'école à l'épreuve de la culture numérique des élèves, Revue Française de Pédagogie, Vol.163, p. 51-61. FLUCKIGER C. (2011). La didactique de l'informatique et les constructions sociales de la figure des jeunes utilisateurs, Recherches en Didactiques - Les Cahiers Théodile, Vol., n°11 MALET R. (2010). Ecole, médiations et réformes curriculaires. Perspectives internationales, Bruxelles, De Boeck. LELONG B (2002).Savoir-faire technique et lien social. L'apprentissage d'Internet comme incorporation et autonomisation, Raisons pratiques, Vol.8, p. 265-292. REUTER Y. (2011). A propos de la notion de performance en didactique, Recherches en Didactiques - Les Cahiers Théodile, Vol.11. TARDIF J. (2009), L'évaluation des compétences, Montréal, Chenlière Education. Colloque international INRP, 16, 17 et 18 mars 2011 Le travail enseignant au XXIe siècle Perspectives croisées : didactiques et didactique professionnelle
{'path': '33/hal.univ-lille.fr-hal-01613714-document.txt'}
Algèbre de Rees et Fibre spéciale Minh Lam Ha To cite this version: Minh Lam Ha. Algèbre de Rees et Fibre spéciale. Mathématiques [math]. Université Joseph-Fourier - Grenoble I, 2006. Français. tel-00179342 HAL Id: tel-00179342 https://tel.archives-ouvertes.fr/tel-00179342 Submitted on 15 Oct 2007 Algèbre de Rees et Fibre spéciale HA Minh Lam 2 3 Je dédie cette thèse à mon grand–père, M. NGUYEN Tai Can, à l'occasion de son 80ème anniversaire. 4 5 Remerciements Tout d'abord, je veux remercier mon directeur de thèse, Marcel Morales, pour sa disponibilité, pour son aide scientifique et humaine qu'il a su m'offrir le long des cinq années que j'ai passé en France. Je remercie Charles Walter pour avoir accepté d'être rapporteur et membre du jury de cette thèse. Un merci particulier va à Ngô Viêt Trung pour avoir lu ce travail en détail et avoir accepté d'être rapporteur de cette thèse, et surtout pour ses leçons en Algèbre qu'il m'a donné à l'université. C'est aussi un honneur pour moi d'avoir dans les membres du jury Michel Brion et Chris Peters. Je les remercie et particulièrement à la lecture attentive de Michel Brion qui m'a permis d'améliorer la première version de cette thèse. Un grand merci au personnel de l'Institut Fourier qui est toujours très souriant et sympathique. Le dernier merci, le plus important va à ma famille : mon époux, ma mère et ma soeur pour ses soutiens illimités ; et mon père pour m'avoir transmis sa passion pour les mathématiques. 6 Table des matières 1 Introduction 9 2 Idéal de réseau, générateurs, codimension deux 2.1 Nombres de Betti, syzygies . . . . . . . . . . . . . . . . . . . . 15 2.1.1 2.2 15 Le cas d'un idéal de réseau de codimension 2 . . . . . . 18 Graphe associé à un idéal de réseau de codimension 2 . . . . . 20 2.2.1 Le graphe des syzygies . . . . . . . . . . . . . . . . . . 20 2.2.2 Graphe des syzygies, point de vue algébrique . . . . . . 25 3 Fibre spéciale d'idéal de réseau de codimension deux 27 3.1 Anneau de Rees, fibre spéciale, relation de Plücker 3.2 Idéaux binômiaux à trois ou quatre générateurs . . . . . . . . 28 3.3 3.4 3.2.1 Idéaux binômiaux à trois générateurs . . . . . . . . . . 29 3.2.2 Idéaux binômiaux à quatre générateurs . . . . . . . . . 30 3.2.3 Algèbre symétrique . . . . . . . . . . . . . . . . . . . . 35 Relations quadratiques dans l'anneau de Rees . . . . . . . . . 36 3.3.1 Conditions pour que P = 1 ou Q = 1. . . . . . . . . . 36 3.3.2 Les relations quadratiques . . . . . . . . . . . . . . . . 45 Relations dans la fibre spéciale 4 Idéaux binômiaux simpliciaux 4.1 . . . . . . 27 . . . . . . . . . . . . . . . . . 46 55 Définitions et notations . . . . . . . . . . . . . . . . . . . . . . 55 8 TABLE DES MATIÈRES 4.1.1 Idéaux simpliciaux et binômiaux simpliciaux . . . . . 56 4.2 Décomposition primaire . . . . . . . . . . . . . . . . . . . . . 58 4.3 Arbres, "Scrollers" ou "small variety" . . . . . . . . . . . . . . 60 4.4 Nombre de réduction 1 . . . . . . . . . . . . . . . . . . . . . . 67 Chapitre 1 Introduction L'éclatement d'un idéal dans un anneau quotient d'un anneau de polynômes est un outil très important en Géométrie Algébrique, principalement en Théorie des Singularités, où on éclate souvent des idéaux maximaux. En Algèbre Commutative, D.Rees a introduit l'algèbre de Rees d'un idéal, dont le Proj est l'éclatement de cet idéal. La fibre spéciale de cet idéal est la fibre de l'éclatement au dessus de l'origine. Il y a très peu de situations où l'algèbre de Rees et la fibre spéciale peuvent être données explicitement. Dans sa thèse, P. Gimenez a calculé la dimension de la fibre spéciale pour un idéal torique simplicial de codimension 2. Ce travail a ensuite été complété dans [GMS] et [BM2], où une présentation de la fibre spéciale est donnée. Le premier objectif de cette thèse a été d'étendre tous les résultats de [GMS] et [BM2] au cas d'un idéal de réseau de codimension 2. A cet effet, remarquons que les idéaux toriques sont les idéaux de réseaux premiers. Les méthodes développées dans [GMS] et [BM2] ne s'appliquent pas ici, et nous avons dû faire une preuve plus conceptuelle. Il en résulte que la fibre spéciale d'un idéal de réseau de codimension 2 est une variété projective Cohen– Macaulay de degré minimal. Les équations des variétés Cohen–Macaulay de degré minimal ont été étudiées par M. Barile et M. Morales dans [BM3], [BM4]. Ce qui nous a amené naturellement à étudier une classe d'idéaux binômiaux introduite par M. Morales, et appelée idéaux binômiaux simpliciaux. Il s'avère que les idéaux binômiaux simpliciaux correspondant à un arbre généralisé définissent ce que dans [BM4] est appelé un "scroller" et dans [EGHP] une "small variety", et qui ont des propriétés très intéressantes. Plus généralement, nous donnons une large classe d'idéaux binômiaux simpliciaux pour lesquels le nombre de 10 Introduction réduction est 1. Nous somme persuadés que toutes les propriétés des idéaux de Stanley– Reisner s'étendent aux idéaux binômiaux simpliciaux. Par exemple, nous sommes en train d'étendre le résultat de [EGHP] sur la propriété N2,p des idéaux de Stanley–Reisner. La thèse est construite comme suit : Soit L un réseau positif dans Zn , i.e. tout vecteur non nul dans L a des coordonnées positives et négatives. Soit R = K[x1 , x2 , . . . , xn ] l'anneau de polynômes à n variables sur le corps K. L'idéal de réseau IL ⊂ R associé à L est l'idéal binômial :  IL = xa − xb | a, b ∈ Nn et a − b ∈ L , où xa = xa11 xa22 * * * xann pour a = (a1 , a2 , . . . , an ). Les idéaux toriques sont ceux associés à un réseau saturé, et ce sont des idéaux de réseau premiers. La résolution libre d'un anneau gradué R/I est toujours un outil important en Algèbre Commutative. C'est une suite exacte Φi+1 Φ Φi−1 i F : * * * −→ Fi+1 −→ Fi −→ Fi−1 −→ * * * −→ R/I de modules libres Fi gradués et d'applications Φi : Fi −→ Fi−1 homogènes. La résolution est linéaire si toutes les applications Φi sont linéaires, et elle est 2-linéaire si de plus I est engendré par des formes quadratiques. On dit que I satisfait la condition N2,p si I est engendré par des formes quadratiques, et Φi est linéaire pour i ≤ p. Campillo–Marijuan [CM] et Bruns–Herzog [BH] ont démontré que l'on peut décrire les modules de syzygies combinatoirement à partir du réseau L. Pour le cas des idéaux de réseau de codimension 2, I. Peeva et B. Sturmfels ont définit entièrement la résolution libre de R/IL de façon combinatoire. En particulier, les générateurs de IL sont en correspondance biunivoque avec un sous–ensemble de Z2 (la base de Hilbert de IL ). Dans le deuxième chapitre, nous rappelons quelques définitions et les résultats de [PS] pour les idéaux de réseau de codimension 2, et nous définissons le graphe de syzygies. C'est un graphe planaire, dont les sommets correspondent aux générateurs de IL , et les arrêts donnent des informations sur les syzygies. Le complexe simplicial de dimension 2 engendré par ce graphe est appelé le complexe de syzygies. C'est un complexe "shellable", dont les triangles donnent les premières syzygies, et deux triangles avec une arête commune donnent une seconde syzygie. 11 Dans le chapitre 3, nous allons étudier l'algèbre de Rees et la fibre spéciale d'un idéal de réseau de codimension deux. Soit I ⊂ R un idéal engendré minimalement par n éléments {fi }1≤i≤m . L'anneau de Rees de I est l'anneau gradué M R[It] = I k tk . k≥0 La fibre spéciale F (I) de I est le quotient R[It]/mR[It], avec m l'idéal maximal irrélevant de R. La dimension de la fibre spéciale est appelée "l'analytic spread" de I. Introduisons m variables indépendantes sur R, appelées {Ti }1≤i≤m , et considérons l'idéal J = ker π, où π R[T] −→ R[It] −→ 0 . Ti −→ fi t On obtient une présentation R[It] ' R[T]/J de l'anneau de Rees. De la présentation de l'anneau de Rees on déduit une présentation de la fibre spéciale F (I) ' K[T]/Je, où Je est l'image de J modulo mR[T]. Par conséquent, toute relation entre les générateurs {fi }1≤i≤m , de I à coefficients dans l'anneau K[x1 , x2 , . . . , xn ] donne un élément de J , et la même relation modulo m donne un élément de Je. Dans la section 3.2, nous étudions une classe d'idéaux binômiaux engendré par au plus quatre éléments, qui contient les idéaux de réseau ayant quatre générateurs. Les anneaux de Rees et les fibres spéciales sont décrits explicitement. Dans les sections 3.3 et 3.4, considerons un idéal de réseau I de codimension 2 ayant au moins cinq générateurs. A partir du graphe de syzygies, nous déterminons un ensemble d'éléments A dans l'idéal de présentation de e l'anneau de Rees R(I). Puis, nous étudions de façon combinatoire l'idéal (A) des images de ces éléments dans la fibre spéciale F (I). Nous démontrons Théorème 1.0.1 (Théorème 3.4.12, et Théorème 3.4.15). 2 ≤ dim(F (I)) ≤ 3. Dans le cas où K est infini et I est un idéal radical qui n'est pas une intersece est l'idéal de présentation tion complète, nous avons dim(F (I)) = 3, et (A) de F (I). Par conséquent, la fibre F (I) est Cohen–Macaulay, réduite, de degré minimal. 12 Introduction Nous en déduisons aussi des propriétés pour l'anneau de Rees : Théorème 1.0.2 (Théorème 3.4.19). L'anneau R(I) est Cohen–Macaulay, et engendré par des formes de degré au plus deux. De plus, à partir du complexe de syzygies, nous pouvons décrire explicitement une réduction de F (I), et montrer que son nombre de réduction est 1. Nous rappelons la notion de réduction d'un anneau R/J. Soit J ⊂ R un ideal gradué homogène pour la graduation standard et d = dim R/J. Un ensemble de formes linéaires {g1 , g2 , . . . , gd } est une réduction de R/J, si (g1 , g2 , . . . , gd )mρ = mρ+1 ( mod J) où m est l'idéal maximal de l'anneau de polynômes R. Le plus petit nombre ρ lorsque l'on considère toutes les réductions possibles est appelé le nombre de réduction de R/J. Le théorème suivant de Eisenbud–Goto caractérise les variétés de degré minimal. Théorème 1.0.3. [EG] Soit R un anneau gradué standard réduit, définissant une variété algébrique projective. Alors nous avons la suite suivante d'implications : (1) R est un anneau de Cohen-Macaulay et e(R) = 1+codim R, où e(R) est la multiplicité de R et codim R sa codimension ; ⇒ (2) R a une résolution 2−linéaire ; ⇒ (3) r(R) = 1 ; ⇒ (4) e(R) ≤ 1 + codim R D'autre part, si R est un anneau de Cohen–Macaulay, alors les quatre implications sont des équivalences. Dans le quatrième chapitre, nous étendons les propriétés des anneaux Cohen–Macaulay de degré minimal apparaissant dans l'étude de la fibre spéciale. Plus précisement, à partir d'un complexe simplicial 4, nous définissons un idéal binômial simplicial B4 . Les idéaux binômiaux simpliciaux sont une généralisation des idéaux monômiaux de Stanley–Reisner. L'idéal de présentation de la fibre spéciale F (I) est un cas particulier. Pour les idéaux de Stanley–Reisner, Fröberg [Fr] a démontré les théorèmes suivants : 13 Théorème 1.0.4. L'anneau de Stanley–Reisner d'un complexe simplicial ∆ est un anneau Cohen-Macaulay de degré minimal si et seulement si 1. Le graphe G(∆) est un d−arbre, et 2. ∆ est le clique complex de G(∆), i.e. ∆ = ∆(G(∆)). Théorème 1.0.5. L'anneau de Stanley–Reisner d'un complexe simplicial ∆ a une résolution 2−linéaire si et seulement si 1. Le graphe G(∆) est un d−arbre généralisé, et 2. ∆ = ∆(G(∆)). Nous rappelons qu'un d−arbre généralisé sur un ensemble V de sommets est un graphe defini récursivement par les propriétés suivantes : (a) Un graphe complet de d + 1 elements of V est un d−arbre généralisé. (b) Soit G un graphe sur un ensemble V de sommets. Supposons qu'il existe un sommet v ∈ V tel que : 1. La restriction G0 de G à V 0 = V \ {v} est un d−arbre généralisé, 2. Il y a un sous–ensemble V 00 ⊂ V 0 ayant exactement 1 ≤ j ≤ d sommets, telle que la restriction de G to V 00 soit un graphe complet, et 3. G est le graphe engendré par G0 et le graphe complet sur V 00 ∪{v}. Si j = d dans la définition ci-dessus, alors nous dirons que G est un d−arbre. Nous pouvons en partie étendre les résultats de Fröberg pour les idéaux binômiaux simpliciaux : Théorème 1.0.6 (Théorème 4.3.9, et Proposition 4.4.11). Si 4 est un arbre généralisé, alors B4 définit un "scroller" (ou une "small variety" selon [EGHP]), et une réduction de B4 est décrite explicitement. Une généralisation des "scrollers" est formée des variétés pour lesquelles le nombre de réduction est 1. La proposition 4.4.7 nous donne une classe de complexes simpliciaux 4, qui ne sont pas des arbres généralisés, pour lesquels le nombre de réduction de B4 est 1. 14 Introduction Chapitre 2 Idéal de réseau, générateurs, codimension deux 2.1 Nombres de Betti, syzygies Dans cette section, nous allons donner quelques résultats sur les syzygies et les nombres de Betti des idéaux de réseau. Ces résultats sont été démontrer pour les idéaux toriques dans [CM], [BH]. Pour les idéaux de réseaux ces résultats se trouvent dans [PS] et [ES]. Soit L un réseau positif dans Zn , i.e. tout vecteur non nul dans L a des coordonnées positives et négatives. Soit R = K[x1 , x2 , . . . , xn ] l'anneau de polynômes à n variables sur le corps K. L'idéal de réseau IL ⊂ R associé à L est l'idéal binômial :  IL = xa − xb | a, b ∈ Nn et a − b ∈ L , où xa = xa11 xa22 * * * xann pour a = (a1 , a2 , . . . , an ). Remarquons que la codimension de IL est égale au rang de L. Soit H = Zn /L. L'anneau R = K[x1 , x2 , . . . , xn ] ainsi que son quotient R / IL sont munis d'une H−graduation. La proposition suivante est bien connue, nous renvoyons le lecteur à [ES] : Proposition 2.1.1. R admet une structure naturelle de H–anneau gradué, de plus toute variable est non diviseur de zéro, et dimK (R/IL )h = 1 pour tout h ∈ H. Si M est un H-module gradué de type fini sur R, alors les résolutions libres de M sont H-graduées, et tout module de syzygies de M est H−gradué. Nous reprenons ci-dessous le résultat principal de [BH]. 16 Idéal de réseau, générateurs, codimension deux Soit I un idéal monomial de R. On note B = I + IL . La résolution libre F de R/B admet L une structure H–graduée et le module Fi se décompose en somme directe h∈H R(−h)βih (ici, les βih sont les nombres de Betti de R/B). Alors, on a : M K(−h)βih . Tori (K, R/B) ∼ = h∈H De plus, la résolution libre minimale de K sur R est donnée par le complexe de Koszul K(x, R), et comme Tor peut être calculé à partir d'une résolution libre de K ou de R/B, le nombre de Betti βih est aussi déterminé par le complexe de Koszul. En effet, M K(−h)βih . Hi (K(x, R/B)h ) = h∈H Nous calculons le nombre de Betti βih en utilisant des complexes simpliciaux. Définition 2.1.2. Pour chaque degré h ∈ H, nous définissons un complexe simplicial 4h comme suit : un sous–ensemble F de {1, 2, . . . , n} est une face de 4h si et seulement s'il existe un élément non–négatif a dans la classe d'équivalence h tel que le support supp(a) := {i : ai 6= 0} contient F . Le complexe simplicial Γh est un sous–complexe de 4h défini comme suit : xa Γh = {F ∈ 4h tel que ∃a ∈ h, a ≥ 0, F ∈ I}. x Nous avons la proposition suivante : e h , K) (resp. C(Γ e h , K)) le complexe d'homologie Proposition 2.1.3. Soit C(4 e h , Γh ; K) l'homologie relative simpliciale réduite de 4h (resp. de Γh ), et H(4 du couple (4h , Γh ). Alors, nous avons :   ∼ e e 1. K(x, R/B)h = C(4h , K)/C(Γh , K) (−1). e i−1 (4h , Γh ; K). 2. βih = dimK H Remarquons que dans le cas des idéaux de réseau, I = (0), et le complexe Γh = ∅ pour tout h ∈ H. Donc, le nombre de Betti βih est βih = e i−1 (4h ; K). dimK H Corollaire 2.1.4. Le binôme xa −xb est un générateur de IL si et seulement si 4h n'est pas connexe pour h = [a] = [b]. 2.1 Nombres de Betti, syzygies 17 Définition 2.1.5. Le plus grand nombre i tel que βih 6= 0 pour un h ∈ H est appelé la dimension projective de R / IL , noté projdim(R / IL ). La proposition suivante nous donne une borne de la dimension projective de R / IL . Cette proposition est fait dans [PS] ; on a préféré reprendre ici la preuve. Proposition 2.1.6. projdim(R / IL ) ≤ 2codim(IL ) − 1. Preuve : Rappelons que L est de rang r. On a aussi que r = codim(IL ). Soit {v1 , v2 , . . . , vr } la base de L. Supposons que projdim(R / IL ) = l et h ∈ H tel que βlh 6= 0. Remarquons que la classe d'équivalence h est une translation du réseau L, donc pour tout élément a ∈ h, on peut écrire a comme : a = h + λ 1 v1 + * * * + λ r vr , avec λi ∈ Z ∀i. Nous notons mod2 l'homomorphisme Zr −→ (Z/2Z)r . Soient F1 , F2 , . . . , Fs les facettes de 4h . Alors, il existe s éléments a1 , a2 , . . . , as dans h ∩ Nn tel que supp(ai ) = Fi pour tout i = 1, 2, . . . , s. Nous allons démontrer que s ≤ 2r . Supposons au contraire que s > 2r . Dans ce cas, il existe deux éléments ai et aj tels que ai = h + λ1i v1 + * * * + λri vr , aj = h + λ1j v1 + * * * + λrj vr , avec mod2 (λui ) = mod2 (λuj ) pour tout u = 1, 2, . . . , r. Considerons le point b = 21 (ai + aj ). Comme 21 (λui + λuj ) ∈ Z pour tout u, on a aussi que b ∈ Nn . Il est évident que b ∈ h. Ceci implique que supp(b) est une face de 4h . De plus, le support de b est égal à la union du support de ai et le support de aj , i.e. supp(b) = Fi ∪ Fj . C'est une contradiction avec la fait que Fi et Fj sont des facettes de 4h . Nous avons donc que le complexe 4h a au plus 2r facettes. En utilisant e i (4h ; K) = 0 pour tout la suite exacte de Mayer–Vietoris, nous avons que H i ≥ 2r − 1. D'où la proposition. 2 Exemple 2.1.7. Considérons l'idéal IL de définition de la courbe (x = s4 , y = s3 t, z = st3 , w = t4 ) : IL = (yz − xw, z 3 − yw 2 , y 3 − x2 z, xz 2 − y 2 w). 18 Idéal de réseau, générateurs, codimension deux Sa résolution libre est :     yw y 2 z 2     −x 0 −y       0 −z 0    −y z −x w x 0 −→ R −−−→ R4 −−−−−−−−−−−−−−−−−−−−−−−→ R4 −→ IL −→ 0. −z     −y    w  xz    0    −w  – Les monômes xyz 2 , y 3 w, x2 zw sont tous de même degré h = [(1, 1, 2, 0)] dans H. Donc 4h est le complexe simplicial : 4h = supp(xyz) ∪ supp(yw) ∪ supp(xzw), e 1 (4h , ∅; K) = 1. D'où β2,h = 1 qui coret il est immédiat que dimK H respond à la première colonne de la matrice des premières syzygies apparaissant ci-dessus. – Les monômes xyz 3 , xy 2 w 2 , y 3 zw, x2 z 2 w sont tous de même degré g = [(1, 1, 3, 0)] ∈ H. Donc 4g est le complexe simplicial : 4g = supp(xyz) ∪ supp(xyw) ∪ supp(yzw) ∪ supp(xzw) qui n'est autre que la sphère de sommets x, y, z, w, dont nous savons e 2 (4g , ∅; K) = 1. D'où β3g = 1 qui correspond exactement à que dimK H la dernière syzygie apparaissant ci-dessus. 2.1.1 Le cas d'un idéal de réseau de codimension 2 Dans cette partie, nous allons étudier plus en détails les syzygies d'un idéal de réseau de codimension 2. Soit L ⊂ Zn un réseau positif de dimension 2. Soit {v1 , v2 } ⊂ Zn une base de L. Soit B la matrice dont ses vecteurs colonnes sont v1 et v2 . Posons B = (v1 , v2 ) . Nous avons L = {Bu | u ∈ Z2 }. Un élément a ∈ Zn peut être écrit uniquement comme a+ − a− , où a+ et a− sont deux vecteurs dans Nn et supp(a+ ) ∩ supp(a− ) = ∅. Soit I = IL ⊂ R = K[x1 , x2 , . . ., xn ] l'idéal de réseau associé à L, nous avons I = x(Bu)+ − x(Bu)− | u ∈ Z2 . 2.1 Nombres de Betti, syzygies 19 Une conséquence directe de la proposition 2.1.6 est que βih = 0 pour tout i ≥ 4 et tout h ∈ Zn /L. De plus, si R/IL a une iième syzygie de degré h, alors la preuve de la proposition 2.1.6 implique aussi que le complexe 4h a deux, ou trois, ou quatre facettes. Pour avoir plus de propriétés de 4h , nous considerons d'abord l'ensemble des monômes de même degré h. Soit a ∈ h ∩ Nn . Considerons le polygône  Pa := conv {u ∈ Z2 | Bu ≤ a} . Grâce à l'application Pa −→ Nn , u 7→ a − Bu, chaque point u de Pa nous donne un monôme de degré a. Remarquons que si a et b sont deux éléments dans h, alors l'un de Pa et Pb est une translation de l'autre. Nous pouvons donc prendre Ph comme la classe d'équivalence de Pa par la translation. L'ensemble des monômes de degré a peut être identifié au polygône Ph . Nous avons la proposition suivante : Proposition 2.1.8. [PS] Supposons que R/IL ne soit pas une intersection complète, et qu'il a une ième syzygie de degré h. Alors, le complexe 4h est équivalent à la sphère Si−1 de dimension i − 1, et Ph est primitif (i.e. son intérieur ne contient pas de points entiers). Si i = 1 alors Ph est un segment ; si i = 2 alors Ph est un triangle ; si i = 3 alors Ph est un quadrilatère. Dans la proposition précédente, quand i = 2 nous appelons Ph un triangle de syzygies ; quand i = 3 nous appelons Ph un quadrilatère de syzygies. Dans la suite, nous allons donner une description des générateurs de l'idéal IL . Le cas où IL est simplicial est traité par Marcel Morales [M1] (ici, "simplicial" veut dire qu'il y a un ensemble des variables qui est un système de paramètres pour I). Dans [PS] est donnée une description dans le cas général. Définition 2.1.9. Soient b1 , , bn les vecteurs lignes de B. Pour un vecteur u = (x, y) ∈ Z2 , on pose u∗ = (−y, x). L'ensemble G∗L = {b∗1 , , b∗n } est appelé le diagramme dual de Gale. Après re-numérotation des ces vecteurs, nous pouvons supposer qu'on peut les placer dans un plan de façon cyclique, i.e. aucun des vecteurs de G∗L n'est dans l'intérieur du cône pos(b∗i , b∗i+1 ) = {λb∗i + μb∗i+1 : λ ≥ 0, μ ≥ 0}, où nous avons posé b∗n+1 = b∗1 . Définition 2.1.10. Soit Hi la base de Hilbert (système de générateurs minimal) du monoı̈de pos(b∗i , b∗i+1 )∩Z2 . La base de Hilbert de GL ∗ est l'ensemble : HL = {u ∈ Z2 ; telle que u et − u ∈ H1 ∪ ∪ Hn }/ ∼ , où ∼ est l'équivalence donnée par u ∼ −u. 20 Idéal de réseau, générateurs, codimension deux Théorème 2.1.11. [PS] Pour un vecteur u ∈ Z2 , [u] est dans la base de Hilbert HL si et seulement si x(Bu)+ − x(Bu)− fait partie d'une base minimale de IL . De plus, si IL n'est pas une intersection complète, IL a un unique système minimal de générateurs (à signe près), qui se trouvent en correspondance biunivoque avec les éléments de HL . L'anneau R/IL n'est pas Cohen–Macaulay si et seulement si le nombre de générateurs de IL est au moins 4. Dans ce cas, un quadrilatère primitif [0, u, v, u + v] est un quadrilatère de syzygies si et seulement si u + v et u − v sont dans la base de Hilbert de IL . Ce quadrilatère est noté [u, v]. Dans l'ensemble des quadrilatère de syzygies [u, v], nous allons construire un arbre en définissant des arêtes orientées de [u, v] à [u, u + v] et de [u, v] à [u + v, v]. Cet arbre est appelé arbre d'homologie de IL , noté TL (voir [PS]). A partir de maintenant, nous allons supposer que R/IL n'est pas Cohen– Macaulay, donc I = IL admet un système minimal unique de générateurs binômiaux. Ces générateurs correspondent à la base de Hilbert HL de L. 2.2 2.2.1 Graphe associé à un idéal de réseau de codimension 2 Le graphe des syzygies Dans la suite, nous allons introduire un graphe, noté G, associé à I. Rappelons que chaque classe dans la base de Hilbert de I a deux éléments u et −u dans Z2 . Par la suite, nous allons noter simplement, sans qu'il y ait d'ambiguı̈té, la classe de u par u, et cette classe sera vue de façon naturelle comme un vecteur dans Z2 . Soit {u1 , u2 , . . . , um } la base de Hilbert HL . Le graphe G est construit comme suit : – Pour chaque point u ∈ HL , nous aurons un sommet de G, appelé aussi u. – Soient u, v deux sommets de G. Le segment hu, vi est une arête de G si et seulement si les points u, v correspondants dans la base de Hilbert satisfont la condition |det(u, v)|= 1 (i.e. u et v forment une base de Z2 ). Si c'est le cas, nous dirons que u et v sont des voisins dans G. Définition 2.2.1. Le graphe G est appelé le graphe associé à I. 2.2 Graphe associé à un idéal de réseau de codimension 2 21 Par construction, le nombre des sommets de G est égal au nombre des générateurs m de l'idéal I, et il existe une correspondance naturelle biunivoque entre les sommets de G et les points dans la base de Hilbert HL . Donc, nous pouvons considérer la combinaison linéaire au + bv (a, b ∈ Z) de deux sommets u, v dans G comme la combinaison linéaire de deux points dans Z2 . Remarquons que G ne contient que des points primitifs, c.-à-d. des points dont les coordonnées sont premières entre elles. Remarque 2.2.2. Soient u, v deux voisins dans G. Alors il existe au plus deux points u + v et u − v qui peuvent être des voisins à la fois de u et de v. Dans le cas où les deux vecteurs u + v et u − v sont dans G, on notera par [u, v, u + v, u − v] le quadrilatère réunion de deux triangles [u, v, u − v] et [u, v, u + v]. Remarque 2.2.3. Pour un degré h ∈ H donné, on a vu que chaque syzygie de second ordre est représentée par un quadrilatère, noté [u, v], de l'arbre d'homologie TL tel que les points u, v, u + v, u − v sont dans la base de Hilbert de I ; et [PS, Corollary 4.7] montre que le nombre de quadrilatères de TL est m − 3. Donc, le nombre de quadrilatères [u, v, u + v, u − v] de G est au moins m − 3. Cependant, la remarque 2.2.2 implique que le nombre de quadrilatères [u, v, u + v, u − v] est au plus m − 3. Ainsi, le nombre de quadrilatères [u, v, u + v, u − v] est m − 3, et nous avons une correspondance biunivoque entre les quadrilatères [u, v, u − v, u + v] de G et les quadrilatères de syzygies [u, v]. Ceci implique que pour deux voisins u, et v dans G, au moins u + v ou u − v est dans G. Définition 2.2.4. Soient u et v deux voisins dans G. On dit que hu, vi est sur le bord de G si et seulement si seul l'un des deux points u + v et u − v est dans G, i.e. l'arête hu, vi n'appartient qu'à un triangle dans G. Exemple 2.2.5. Considérons l'idéal IL ⊂ k[a, b, c, d, e, f ] associé au réseau L = {v1 , v2 }, où t v1 = (−1, −5, −1, 2, 3, 2), et t v2 = (−3, 1, 4, 3, −2, −3). Le diagramme dual de Gale ainsi que la base de Hilbert sont présentés dans la figure suivante : 22 Idéal de réseau, générateurs, codimension deux La base de Hilbert de I est donc {(1, 0), (0, 1), (1, 1), (−1, 1), (2, 1), (1, 2), (−2, 1)} . Donc, le graphe G est comme suit : u2 u6 @ @ @ @ @ @ u3 u7 u@ 1 @ @ u5 u4 et l'arbre d'homologie est :       Les générateurs de IL correspondants à la base de Hilbert sont : α1 = ab5 c − d2 e3 f 2 , α2 = a3 e2 f 3 − bc4 d3 , α3 = a4 b4 f − c3 d5 e, α4 = a2 e5 f 5 − b6 c5 d, α5 = a5 b9 − c2 d7 e4 f, α6 = a7 b3 ef 4 − c7 d8 , α7 = ade8 f 7 − b11 c6 . Exemple 2.2.6. Considérons l'idéal IL ⊂ k[a, b, c, d, e, f ] associé au réseau L = {v1 , v2 }, où t v1 = (1, 2, 1, −1, −2, −1), et t v2 = (−2, −1, 2, 2, 1, −2). La base de Hilbert de I est aussi {(1, 0), (0, 1), (1, 1), (−1, 1), (2, 1), (1, 2), (−2, 1)} . 2.2 Graphe associé à un idéal de réseau de codimension 2 23 Donc, le graphe G est le même que dans l'exemple précédant. Les générateurs de IL correspondant à la base de Hilbert sont : α1 = ab2 c − de2 f, α2 = a2 bf 2 − c2 d2 e, α3 = aef 3 − bc3 d, α4 = a3 b3 f − cd3 e3 , α5 = b 3 c 4 − e 3 f 4 , α6 = a 3 f 5 − c 5 d 3 , α7 = a 4 b 5 − d 4 e 5 . Ces deux exemples ont la même base de Hilbert, le même graphe des syzygies et le même arbre d'homologie, mais comme nous le verrons plus loin, leurs fibres spéciales sont non isomorphes. A partir de G, on construit un graphe T dont les sommets sont les triangles de G, et deux sommets de T sont liés si leurs triangles correspondants ont une arête commune. Remarquons que l'on peut construire T de l'arbre d'homologie TL en y ajoutant une feuille. Alors T est aussi un arbre. Ceci implique que |G| est contractible, et G n'a pas de circuit de triangles. Exemple 2.2.7. L'arbre T associé au graphe G dans les exemples 2.2.5 et 2.2.6 est : Le complexe simplicial associé à G, noté 4(G), dont les faces maximales sont les sous–ensembles F de l'ensemble des sommets de G tels que le graphe complet sur F est un sous-graphe de G, est appelé le complexe simplicial des syzygies de I. Il est facile de calculer le nombre des arêtes et le nombre des triangles de G, et nous avons que : Lemme 2.2.8. Le graphe G a 2m − 3 arêtes et m − 2 triangles, et 4(G) est "shellable". Donc, l'anneau de Stanley–Reisner de 4(G) est Cohen–Macaulay. Le chemin euclidien : Soient u et v deux voisins dans G. Comme G est une chaı̂ne contractible de triangles, pour tout point w ∈ G il existe une chaı̂ne qui lie hu, vi et w, et donc il existe un couple (a, b) ∈ Z2 tel que w = au + bv. 24 Idéal de réseau, générateurs, codimension deux Puis, comme G n'a pas de circuit de triangles, cette chaı̂ne est unique. Nous pouvons l'obtenir en utilisant l'algorithme d'Euclide pour calculer le p.g.c.d de a et b. Dans le diagramme suivant, on donne un algorithme pour construire la chaı̂ne dans le cas où a, b ≥ 0. Les autre cas sont déduits de ce cas en changeant le signe de u ou de v, sans changer la géométrie de G.  Oui Début  - ? QQ   a>bQ Q  QQ ? u := u + v; v := v; a := a − b; b := b ? Non ? Q Oui  QQ Qa = b  Non QQ ? w := u + v Construire u ? v := u + v; u := u; a := a; b := b − a ? Construire v  ?  Fin  Remarque 2.2.9. Le graphe planaire G est divisé en quatre parties comme dans la figure suivante : w = au + bv (ab < 0, |b|<|a|) w = au + bv (0 < b < a) u QQu + v u − v QQ v w = au + bv w = au + bv (ab < 0, |a|<|b|) (0 < a < b) Nous en déduisons que pour chaque arête hu, vi, s'il existe un point w = au + bv ∈ G avec ab > 0 (resp. ab < 0), alors le point u + v (resp. u − v) est dans G. Remarque 2.2.10. Le dessin dessus prouve également que T est un arbre. 2.2 Graphe associé à un idéal de réseau de codimension 2 2.2.2 25 Graphe des syzygies, point de vue algébrique Maintenant, nous étudions algébriquement le graphe G. Soit hu, vi une arête dans G. Notons fu et fv générateurs correspondants à u et v. Nous avons : f u = x p xt xμ + − x r xs xμ − , (†) f v = x p xs xν + − x r xt xν − , avec xp le p.g.c.d du premier terme de fu et du premier terme de fv , xt le p.g.c.d du premier terme de fu et du deuxième terme de fv , xr le p.g.c.d du deuxième terme de fu et du deuxième terme de fv , xs le p.g.c.d du deuxième terme de fu et du premier terme de fv . Remarque 2.2.11. – Les monômes xp , xt , xr , xs sont premiers entre eux, et les supports de p, t, r, s sont disjoints. – Les monômes xμ+ , xμ− , xν+ , xν− sont premiers entre eux, et les supports de μ+ , μ− , ν+ , ν− sont disjoints. Notation 2.2.12. Pour éviter toute ambiguı̈té, utilisons les notations plus précises : T (u, v) := p.g.c.d(x(Bu)+ , x(Bv)− ) S(u, v) := p.g.c.d(x(Bu)− , x(Bv)+ ) P (u, v) := p.g.c.d(x(Bu)+ , x(Bv)+ ) R(u, v) := p.g.c.d(x(Bu)− , x(Bv)− ). Lemme 2.2.13. Soit u un point primitif dans Z2 . Si u n'est pas dans G, alors le binôme fu = xBu+ − xBu− correspondant à u est dans l'idéal mI, où m = (x1 , x2 , . . . , xn ) est l'idéal maximal irrelevant de R. Preuve : C'est une conséquence directe du fait que I est un idéal gradué et que I a un système minimal unique de générateurs binômiaux correspondant à la base de Hilbert HL . 2 Remarque 2.2.14. Avec les notations définies dans (†), nous avons des représentations des générateurs correspondant à u + v et à u − v comme suit : fu+v = x2p xμ+ xν+ − x2r xμ− xν− (††) fu−v = x2t xμ+ xν− − x2s xμ− xν+ 26 Idéal de réseau, générateurs, codimension deux De plus, si [u, v, u + v, u − v] est un quadrilatère de G, i.e [u, v] est un quadrilatère de syzygies de I, alors la résolution libre minimale est (voir Construction 5.2 dans [PS]) :     xν+ xp xν− xr −xν− xt −xν+ xs  −xs     μ− r   t  x  x  x xμ + xp xμ − xs xμ + xt          t s r   −x  x  −x 0 0     p r p 0 0 x x −x (fu fv fu+v fu−v ) 0 −→ R −−−→ R4 −−−−−−−−−−−−−−−−−−−−−−−−−→ R4 −−−−−−−−→ R. Lemme 2.2.15. Soient u et v deux voisins dans le graphe G. Alors les affirmations suivantes sont équivalentes : 1. hu, vi n'est pas sur le bord de G. 2. Dans (†), les termes xp , xt , xr , xs sont dans m, et les supports de p, t, r, s sont disjoints. Autrement dit, l'arête hu, vi est sur le bord de G si et seulement si xp = 1, ou xr = 1, ou xt = 1, ou xs = 1. Preuve : Remarquons que hu, vi n'est pas sur le bord de G si et seulement si u+v et u−v sont dans G. Donc le quadrilatère primitif Q = [u, v] ∈ Z2 est un quadrilatère de syzygies et l'implication (⇒) suit du Corollaire 4.3 de [PS]. En fait, les monômes m1 = xμ+ xν+ x2p xs xt , m2 = xμ− xν+ xp xr x2s , m3 = xμ+ xν− xp xr x2t , et m4 = xμ− xν− x2r xs xt sont de même degré C = m2 m3 μ+ + ν+ + 2p + s + t ∈ Zr /L. En effet, nous avons = −Bu, = m1 m1 m4 −Bv, = −B(u + v), et 4C est le complexe simplicial dont les facettes m1 (i.e. les faces maximales) sont les supports des monômes m1 , m2 , m3 , et m4 . (⇐) Selon l'exactitude du complexe présentée dans la remarque 2.2.14, si l'un des quatre monômes {xp , xr , xt , xs } est une unité, alors soit fu+v ou soit fu−v engendré par fu et fv . Donc, u + v ou u − v n'est pas dans la base de Hilbert de I, i.e. hu, vi est sur le bord de G. Le lemme est prouvé. 2 Chapitre 3 Fibre spéciale d'idéal de réseau de codimension deux 3.1 Anneau de Rees, fibre spéciale, relation de Plücker Dans cette section nous allons étudier l'algèbre de Rees et la fibre spéciale d'un idéal de réseau de codimension deux. Nous allons mettre en évidence quelques éléments de l'idéal de présentation de l'algèbre de Rees ; pour cela, nous aurons besoin des relations de Plücker. D'abord, nous considérerons le cas où l'idéal I est engendré par trois ou quatre éléments, dans lequel nous pouvons décrire l'algèbre de Rees et la fibre spéciale par générateurs et relations, ainsi que l'algèbre symétrique. Ensuite, nous traiterons le cas général ; nous décrirons la fibre spéciale par générateurs et relations, et trouverons des propriétés de l'algèbre de Rees. Soit R = K[x1 , x2 , . . . , xn ] l'anneau de polynômes sur le corps K. Soit I un idéal engendré minimalement par m éléments {fi }1≤i≤m . Définition 3.1.1. L'anneau de Rees de I est l'anneau gradué M R[It] = I k tk . k≥0 La fibre spéciale F (I) de I est le quotient R[It]/mR[It], avec m l'idéal maximal irrélevant de R. La dimension de la fibre spéciale est appelée "l'analytic spread" de I. Introduisons m variables indépendantes sur R, appelées {Ti }1≤i≤m , et 28 Fibre spéciale d'idéal de réseau de codimension deux considérons l'idéal J = ker π, où π R[T] −→ R[It] −→ 0 . Ti −→ fi t On obtient une présentation R[It] ' R[T]/J de l'anneau de Rees. De la présentation de l'anneau de Rees on déduit une présentation de la fibre spéciale F (I) ' K[T]/Je, où Je est l'image de J modulo mR[T]. Par conséquent, toute relation entre les générateurs {fi }1≤i≤m , de I à coefficients dans l'anneau K[x1 , x2 , . . . , xn ] donne un élément de J , et la même relation modulo m donne un élément de Je. Notons J (1) l'ensemble des relations linéaires entre les générateurs {fi }1≤i≤m de I, i.e. les premières syzygies de I. L'algèbre symétrique de I est par définition Sym(I) = R[x, T]/J (1). Considérons une matrice 2 × 4 à coefficients dans un anneau commutatif quelconque et notons par ∆i,j le déterminant de la sous–matrice formée des colonnes i, j, alors nous avons la relation de Plücker : ∆1,2 ∆3,4 − ∆1,3 ∆2,4 + ∆1,4 ∆2,3 = 0. 3.2 Idéaux binômiaux à trois ou quatre générateurs Nous allons étudier dans cette section, l'anneau de Rees et l'algèbre symétrique pour une classe d'idéaux binômiaux engendrés par quatre éléments. Les idéaux de réseau feront partie de cette classe. Soit fu et fv deux binômes quelconques dans l'anneau de polynômes K[x1 , x2 , . . . , xn ], tels que le p.g.c.d des deux termes de chaque binôme est 1. Notons xp le p.g.c.d du premier terme de fu et du premier terme de fv ; xt le p.g.c.d du premier terme de fu et du deuxième terme de fv ; xr le p.g.c.d du deuxième terme de fu et du deuxième terme de fv ; xs le p.g.c.d du deuxième terme de fu et du premier terme de fv . Nous avons : f u = α 1 xp xt xμ + − β 1 xr xs xμ − , f v = α 2 xp xs xν + − β 2 xr xt xν − où α1 , α2 , β1 , β2 sont des éléments non nuls dans le corps K. (†) 3.2 Idéaux binômiaux à trois ou quatre générateurs 29 Remarque 3.2.1. La remarque 2.2.11 est valable aussi dans ce cas. Plus précisément, nous avons : – Les monômes xp , xt , xr , xs sont premiers entre eux, et les supports de p, t, r, s sont disjoints. – Les monômes xμ+ , xμ− , xν+ , xν− sont premiers entre eux, et les supports de μ+ , μ− , ν+ , ν− sont disjoints. – (xt , xμ− ) = (xt , xν+ ) = 1, et (xs , xμ+ ) = (xs , xν− ) = 1, et (xp , xμ− ) = (xp , xν− ) = 1, et (xr , xμ+ ) = (xr , xν+ ) = 1. Considérons deux nouveaux binômes, notés fu+v et fu−v , obtenus de fu et de fv comme suit : fu+v = α1 α2 x2p xμ+ xν+ − β1 β2 x2r xμ− xν− . fu−v = α1 β2 x2t xμ+ xν− − α2 β1 x2s xμ− xν+ (††) Considérons l'idéal I = (fu , fv , fu+v , fu−v ). Dans la suite, nous allons décrire explicitement l'anneau de Rees et l'algère de symétrique de I. 3.2.1 Idéaux binômiaux à trois générateurs Proposition 3.2.2. Si l'un dans quatre termes xp , xt , xr , xs est une unité, alors I est de codimension 2, et soit I est une intersection complète (i.e. I est engendré par deux éléments) soit I est une intersection presque complète (i.e. I est engendré par trois éléments). Dans tous les cas, l'anneau de Rees et l'algèbre symétrique sont isomorphes. Preuve : Supposons que l'un des quatre termes xp , xt , xr , xs est une unité. Nous pouvons supposer, sans perte de généralité, que xp = 1. Dans ce cas, nous avons fu−v = β2 xν− xt fu − β1 xμ− xs fv , et I devient l'idéal engendré par les mineurs 2 × 2 de la matrice :   β2 xν− xr −α2 xν+  α1 xμ+ −β1 xμ− xr  . −xs xt Nous avons donc les relations suivantes : β2 xν− xr fu + α1 xμ+ fv − xs fu+v = 0, α2 xν+ fu + β1 xμ− xr fv − xt fu+v = 0. 30 Fibre spéciale d'idéal de réseau de codimension deux Remarquons que si de plus xs = 1 ou xt = 1, alors I est une intersection complète, engendrée par fu et fv . D'où R(I) = Sym(I) = K[x, T]/(fu Tv − fv Tu ). Considérons le cas où xs et xt ne sont pas des unités. Dans ce cas, l'anneau R/I est Cohen-Macaulay de codimension deux par le théorème de Burch. Posons L1 = β2 xν− xr Tu + α1 xμ+ Tv − xs Tu+v , L2 = α2 xν+ Tu + β1 xμ− xr Tv − xt Tu+v . Nous avons que L1 et L2 sont les premières syzygies de I, d'où Sym(I) = K[x, T]/(L1 , L2 ) ; et L1 et L2 sont dans l'idéal de présentation J de l'anneau de Rees de I. Notons A l'idéal (L1 , L2 ). Remarquons de plus, que L1 , L2 est une suite régulière dans K[x, T], car s'il y avait une relation non triviale : P L1 + QL2 = 0, cela donnerait une seconde syzygie pour I, ce qui est impossible par le théorème de Burch. Donc codim(A) = codim(J ) = 2, et l'idéal A n'a pas de composantes primaires immergées. Nous allons prouver que A n'est pas contenu dans l'idéal (xt , xs ). Raisonnons par l'absurde. Supposons que A ⊂ (xt , xs ). Notons xt1 le p.g.c.d. de xt et de xν− , et notons xt2 le p.g.c.d. de xt et xμ+ . Comme xμ+ et xν− sont premiers entre eux, les termes xt1 et xt2 le sont aussi. Ecrivons xt xν − xμ + 0 0 xt3 = t1 t2 , xν− = t1 , xμ+ = t2 . Comme L1 ∈ (xt , xs ), nous avons : x x x x 0 0 β2 xν− xt1 xr Tu = −α1 xμ+ xt2 Tv + axs + bxt1 xt2 xt3 , avec certains a, b ∈ K[x, T]. Si xt1 6= 1, alors en annulant 0 toutes les variables 0 dans xt1 et toutes celles dans xs , nous avons −α1 xμ+ xt2 Tv = 0. C'est une contradiction. Donc xt1 = 1. De même, nous avons xt2 = 1. Ceci implique que xμ+ , xν− , xt sont premiers entre eux. De plus, en annulant toutes les variables dans le monôme xt et toutes celles dans xs , on obtient β2 xν− xr Tu = −α1 xμ+ Tv . Or les deux termes de ce binôme sont premiers entre eux ; nous avons une contradiction. D'où l'affirmation. Considérons un idéal premier minimal p de A. Nous avons p + (xt , xs ). Supposons que xs ∈ / p. Après localisé en p, xs devient une unité. Il est facile de vérifier que Ap = Jp . Ainsi, A = J . 2 3.2.2 Idéaux binômiaux à quatre générateurs Dès maintenant, nous supposons que xp , xr , xt , xs ne sont pas des unités, et donc I est minimalement engendré par quatre éléments (fu fv fu+v fu−v ). 3.2 Idéaux binômiaux à trois ou quatre générateurs 31 Considérons la suite suivante :   −xs   xt   r  x   −xp 0 −→ R −−−→ R4         α xν + xp  2   β1 xμ − xr    −xt   β2 xν− xr −β2 xν− xt −α2 xν+ xs   α 1 xμ + xp β1 xμ − xs α 1 xμ + xt    s  −x 0 0  p r 0 0 x x I −−−−−−−−−−−−−−−−−−−−−−−−−→ R4 −−→ R. Il est facile de vérifier que cette suite est exacte (voir par exemple [BE2]). Donc c'est une résolution libre minimale de I. La première matrice de syzygies nous donne les relations de l'idéal J : L1 := α2 xν+ xp Tu + β1 xμ− xr Tv − xt Tu+v , L2 := β2 xν− xr Tu + α1 xμ+ xp Tv − xs Tu+v , L3 := −β2 xν− xt Tu + β1 xμ− xs Tv + xp Tu−v , L4 := −α2 xν+ xs Tu + α1 xμ+ xt Tv + xr Tu−v . De plus, en calculant la relation de Plücker de la matrice   p x β1 xs xμ − β2 xt xν − β1 β2 xr xμ − xν − , xr α 1 xt xμ + α 2 xs xν + α 1 α 2 xp xμ + xν + nous obtenons α2 β2 xν+ xν− fu2 − α1 β1 xμ+ xμ− fv2 − fu+v fu−v = 0. Ainsi, nous avons que Q := α2 β2 xν+ xν− Tu2 − α1 β1 xμ+ xμ− Tv2 − Tu+v Tu−v est aussi dans J . Théorème 3.2.3. L'anneau de Rees R(I) est égal à K[x, T]/(L1 , L2 , L3 , L4 , Q), i.e. J = (L1 , L2 , L3 , L4 , Q). Pour démontrer ce théorème, nous considerons d'abord l'idéal A = (L1 , L2 , L3 , L4 , Q). Nous allons trouver quelques propriétés de A, et puis nous démontrerons que A = J. Remarquons que xs L 1 − x t L 2 = x r L 3 − x p L 4 = f v T u − f u T v . Donc, le polynôme fv Tu − fu Tv est dans A. Posons L5 = fv Tu − fu Tv . 32 Fibre spéciale d'idéal de réseau de codimension deux Lemme 3.2.4. L'ensemble {L1 , L2 , L3 , L4 , L5 , Q} est une base de Gröbner de A, par rapport à l'ordre lexicographique < : x1 < x2 < * * * < xn < Tu < Tv < Tu−v < Tu+v . Preuve : Avec cet ordre <, les termes dominants sont in(Q) = Tu+v Tu−v , in(L1 ) = xt Tu+v , in(L2 ) = xs Tu+v , in(L3 ) = xp Tu−v , in(L4 ) = xr Tu−v et in(L5 ) = in(fu )Tv . Il est facile de voir que F, G ∈ {L1 , L2 , L3 , L4 , L5 , Q}, et in(F )G − in(G)F est dans A = (L1 , L2 , L3 , L4 , L5 , Q). que le terme s(F, G) := p.g.c.d.(in(F ), in(G)) Selon l'algorithme de Buchberger, il découle que {L1 , L2 , L3 , L4 , L5 , Q} est une base de Gröbner de A. 2 Proposition 3.2.5. L'anneau K[x, T]/A est Gorenstein de codimension 3. Preuve : Rappelons que n est le nombre de variables de l'anneau de polynômes R. Comme l'anneau de Rees R(I) = K[x, T]/J est de dimension n + 1, nous avons : codim(K[x, T]/J ) = (n + 4) − (n + 1) = 3. Or, la suite 0 −→ J /A −→ K[x, T]/A −→ K[x, T]/J −→ 0 est exacte. On en déduit que codim(K[x, T]/A) ≤ 3. Cependant, in(L5 ) = in(fu )Tv est le terme dominant de α1 xp xt xμ+ Tv − β1 xr xs xμ− Tv . Supposons que in(L5 ) = xp xt xμ+ Tv . Les monômes xs Tu+v , xr Tu−v et xp xt xμ+ Tv forment une suite régulière de l'idéal initial in(A), car ce sont des monômes à support disjoints (c.f. 3.2.1). De même, si in(L5 ) = xr xs xμ− Tv , l'ensemble {xt Tu+v , xp Tu−v , xr xs xμ− Tv } forme une suite régulière de l'idéal initial in(A). Dans tous les cas nous avons que codim(K[x, T]/in(A)) ≥ 3, et la codimension de K[x, T]/A l'est aussi. Nous avons donc codim(K[x, T]/A) = 3. De plus, c'est facile de vérifier que A est engendré par les Pfaffians 4 × 4 de la matrice 5 × 5 suivante :   0 −Tu+v β1 xμ− Tv −β2 xν− Tu xp  Tu+v 0 α2 xν+ Tu −α1 xμ+ Tv −xr    μ ν − + 0 −Tu−v xt  M = .  −β1 xν Tv −α2 xμ Tu s  +  β2 x − T u Tu−v 0 −x α 1 x Tv p r t s −x x −x x 0 3.2 Idéaux binômiaux à trois ou quatre générateurs Dû à [BE1], nous avons K[x, T]/A est Gorenstein. 33 2 Par conséquent, nous avons : Corollaire 3.2.6. A n'a pas de composantes primaires immergées. Plus précisément, toute composante primaire q de A est de hauteur 3. Maintenant, nous allons prouver le théorème 3.2.3. Remarquons que la [EH, Proposition 2.9] ne s'applique pas ici . La démonstration du Théorème 3.2.3 : Le théorème sera prouvé si l'on peut démontrer que les localisations de A et de J en un idéal premier quelconque p coı̈ncident. Soit p un idéal premier associé à A. Il suffit de prouver que Ap = Jp . L'idéal (xp , xt , xr , xs ) est de hauteur 4 dans K[x, T] car xp , xt , xr , xs ne sont pas des unités et premiers entre eux. Rappelons que la hauteur de toute composante primaire p de A est 3. On en déduit que p + (xp , xt , xr , xs ). Le fait que ht(xp , xt , xr , xs ) = 4 implique ainsi que l'un de ces quatre monômes est un non zéro–diviseur dans K[x, T]/A. Supposons que xs l'est. On a donc xs ∈ / p. Après localisant à p, s le terme x devient une unité. Or on a les relations suivantes : xs L 1 = x t L 2 + x r L 3 − x p L 4 , xs Q = Tu−v L2 − xμ+ Tv L3 − xν− Tu L4 . Ainsi, on a Ap = (L2 , L3 , L4 )p , et (K[x, T]/(L2 , L3 , L4 ))(xs ) ∼ = (K[x, Tu , Tv , Tu−v ]/(L3 , L4 ))(xs ) . (∗) Puis, considérons l'idéal I 0 := (fu , fv , fu−v ). Puisque I 0 est engendré par les mineurs 2 × 2 de la matrice   −α2 xν+ xs −β2 xν− xt  α 1 xμ + xt β1 xμ − xs  , xr xp on a I 0 est Cohen–Macaulay de codimension 2. D'après la proposition 3.2.2, l'anneau de Rees et l'algèbre symétrique sont isomorphes : Sym(I 0 ) ∼ = R(I 0 ) =: K[x, Tu , Tv , Tu−v ]/J 0 . Remarquons que Sym(I 0 ) = K[x, Tu , Tv , Tu−v ]/(L3 , L4 ). On obtient que (L3 , L4 ) = J 0 . Ainsi, l'idéal (L3 , L4 ) est premier dans K[x, Tu , Tv , Tu−v ]. Donc (∗) implique que Ap est premier. Comme Ap et Jp sont des idéaux premiers de même codimension, et Ap ⊂ Jp , ils coı̈ncident. 2 34 Fibre spéciale d'idéal de réseau de codimension deux Corollaire 3.2.7. "L'analytic spread" de I est 3, et la fibre spéciale F (I) est e F (I) = K[Tu , Tv , Tu+v , Tu−v ]/(Q), e est l'image modulo m de Q. où Q Remarque 3.2.8. Des résultats similaires à la proposition suivante apparaissent dans [Va], et dans [HRZ], mais notre preuve est directe, sans aucune hypothèse sur K. Exemple 3.2.9. Dans Z4 , considérons le réseau   2 2 −2 −2 L= 4 0 −3 −1 engendré par deux vecteurs u = (2, 2, −2, −2), et v = (4, 0, −3, −1). L'idéal IL ⊂ K[x, y, z, w] associé à ce réseau est de codimension 2. Dans la section suivante, on étudie les idéaux radicaux de réseau de codimension 2 dans le cas où le corps K est infini, et on prouve que ses anneaux de Rees sont Cohen-Macaulay et engendrés par des formes de degré 2 au plus, et "l'analytic spread" est 3. Dans cet exemple, grâce au théorème 3.2.3, nous avons toujours que "l'analytic spread" de IL est 3 indépendemment de la caractéristique et du cardinal de K, et√même dans le cas où IL n'est pas radical. En fait, si char(K) = 2, alors IL = ILsat , où le dernier est l'idéal de réseau associé au réseau saturé Lsat de L :   1 1 −1 −1 Lsat = . 4 0 −3 −1 Plus précisement, l'idéal ILsat est l'idéal de définition de la courbe (s4 , s3 t, st3 , t4 ), et ILsat = (yz − xw, z 3 − yw 2 , y 3 − x2 z, xz 2 − y 2 w). IL = (xz 2 − y 2 w, y 2 z 2 − x2 w 2 , z 4 − xw 3 , y 4 − x3 w). En appliquant le théorème 3.2.3, on obtient en toute caractéristique et sans conditions sur le corps K que R(I) = K[x, y, z, t, T1 , T2 , T3 , T4 ]/J , où l'idéal J est engendré par z 2 T1 + wT2 + xT3 , y 2 T1 + xT2 + wT4 , 3.2 Idéaux binômiaux à trois ou quatre générateurs 35 xw 2 T1 + z 2 T2 + y 2 T3 , x2 wT1 + y 2 T2 + z 2 T4 , xwT12 + T22 + T3 T4 . Il découle que F (I) = K[T1 , T2 , T3 , T4 ]/(T22 + T3 T4 ). 3.2.3 Algèbre symétrique Nous savons que l'algèbre symétrique de I est Sym(I) = k[x, T]/(L1 , L2 , L3 , L4 ). Notons J (1) l'idéal de présentation (L1 , L2 , L3 , L4 ) de Sym(I). Remarquons que J (1) ⊂ J ∩(xp , xt , xr , xs ). Le but de cette section est de prouver l'égalité. Théorème 3.2.10. L'idéal de présentation de l'algèbre symétrique de I admet une décomposition primaire comme suit : J (1) = J ∩ (xp , xt , xr , xs ). En particulier, nous avons dim(Sym(I)) = n + 1 = dim(R(I)). Preuve : Il suffit de prouver que (xp , xt , xr , xs ) ∩ (Q) ⊂ (L1 , L2 , L3 , L4 ). Choisissons un élément quelconque a ∈ k[x, T] tel que aQ ∈ (xp , xt , xr , xs ). Nous avons aQ = ap xp + at xt + as xs + ar xr avec ap , at , ar , as ∈ k[x, T]. ⇐⇒ aQ − ap xp − at xt − as xs − ar xr = 0. (∗) Considérons l'idéal a = (Q, xp , xt , xr , xs ). Il est facile de vérifier que {Q, xp , xt , xr , xs } est une base de Gröbner par rapport à l'ordre < défini dans la section 2 de a. Alors (∗) est un syzygies de a. Du fait que in(Q), xp , xt , xr et xs sont premiers entre eux et de l'algorithme de Buchberger, on déduit que a ∈ (xp , xt , xr , xs ). C'est à dire a = bp xp + bt xt + bs xs + br xr avec bp , bt , br , bs ∈ k[x, T]. Considérons le terme xp Q : xp Q = xp (α2 β2 xν+ xν− Tu2 − α1 β1 xμ+ xμ− Tv2 − Tu+v Tu−v ) = −Tu+v L3 − xμ− Tv L2 + xν− Tu L1 Alors xp Q est dans (L1 , L2 , L3 , L4 ). Pour xr Q, xt Q, et xs Q, nous obtenons des situations similaires. Ainsi aQ ∈ (L1 , L2 , L3 , L4 ). Ceci implique que (xp , xt , xr , xs ) ∩ (Q) ⊂ (L1 , L2 , L3 , L4 ). 2 36 Fibre spéciale d'idéal de réseau de codimension deux 3.3 Relations quadratiques dans l'anneau de Rees Le cas où G n'a que quatre sommets a été traité dans la section précédente. Ici, nous allons traiter le cas général. Dans cette section, nous considérons une arête hu, vi qui n'est pas sur le bord de G, et w = au + bv un sommet de G. Nous allons construire des relations quadratiques entre fu , fv et fw . Remarquons qu'il suffit de considérer le cas où 0 < a ≤ b. Les autre cas sont déduits de ce cas en changeant le rôle de u par v ou en changeant le signe de u ou de v. A partir de maintenant, dans cette section, nous supposons que 0 < a ≤ b. Dans [GMS, Prop 4.1], il a été établie qu'il existe une matrice 2 × 4 telle que fu , fv , fw−u , fw apparaissent comme les mineurs 2 × 2 de cette matrice, puis en prennant la relation de Plücker, les auteurs obtiennent la proposition suivante : Proposition 3.3.1. [GMS, Prop 4.1] Il existe une relation quadratique : (3.1) G[u v (u−v) w] := Qfu fw−v − P fv fw−u − fu−v fw = 0, où P et Q sont des monômes dans S : P = p.g.c.d.(xaμ+ , x(b−a+1)t xμ+ ) p.g.c.d.(xaμ− , x(b−a+1)s xμ− ) × , p.g.c.d.(xaμ+ , x(b−a)t ) p.g.c.d.(xaμ− , x(b−a)s ) et p.g.c.d.(xaμ+ xt , x(b−a)t ) p.g.c.d.(xaμ− xs , x(b−a)s ) × . p.g.c.d.(xaμ+ , x(b−a)t ) p.g.c.d.(xaμ− , x(b−a)s ) Remarque 3.3.2. Les relations G[u v (u−v) w] donnent des éléments dans Q = x ν + xν − l'idéal de présentation de l'anneau de Rees R(I), leurs images modulo m sont des éléments dans l'idéal de présentation de la fibre spéciale F(I). Notre but consiste à donner ces images exactes dans F(I). Les conditions (pour que P = 1 et pour que Q = 1) qui nous permettent de le faire sont présentées dans le théorème 3.3.15. 3.3.1 Conditions pour que P = 1 ou Q = 1. Lemme 3.3.3. P = 1 si et seulement si w satisfait les conditions suivantes :  p.g.c.d.(xaμ+ , x(b−a)t ) = xaμ+ . (∗) p.g.c.d.(xaμ− , x(b−a)s ) = xaμ− 3.3 Relations quadratiques dans l'anneau de Rees 37 Preuve : (⇐) est claire. (⇒) Si P = 1 alors  p.g.c.d(xaμ+ , x(b−a+1)t xμ+ ) = p.g.c.d.(xaμ+ , x(b−a)t ), p.g.c.d(xaμ− , x(b−a+1)s xμ− ) = p.g.c.d.(xaμ− , x(b−a)s ). (i) (ii) De (i) nous avons que ∀ xi ∈ supp μ+ : xi | xμ+ | p.g.c.d.(xaμ+ , x(b−a+1)t xμ+ ) = p.g.c.d.(xaμ+ , x(b−a)t ) | x(b−a)t . Or xi ∈ supp t. Ceci implique que supp μ+ ⊂ supp t. Alors p.g.c.d.(xaμ+ , x(b−a+1)t xμ+ ) = Q min{a deg μ+ xi , (b−a+1) degt xi +deg μ+ xi } xi ∈supp μ+ xi Q min{a deg μ+ xi , divisible par xi ∈supp μ+ xi = p.g.c.d.(xaμ+ , x(b−a)t ). (b−a) deg t xi } Nous avons l'égalité si et seulement si pour tout xi ∈ supp μ+ , min{a degμ+ xi , (b−a+1) degt xi +degμ+ xi } = min{a degμ+ xi , (b−a) degt xi }, i.e min{a degμ+ xi , (b − a) degt xi } = a degμ+ xi pour tout xi ∈ supp μ+ . C'est-à-dire que xaμ+ | x(b−a)t , i.e p.g.c.d.(xaμ+ , x(b−a)t ) = xaμ+ . De la même façon, nous avons (ii). Le lemme est prouvé. 2 Lemme 3.3.4. Q = 1 si et seulement si xν+ = xν− = 1 et w satisfait les conditions suivantes :  p.g.c.d.(xaμ+ , x(b−a)t ) = x(b−a)t . (∗∗) p.g.c.d.(xaμ− , x(b−a)s ) = x(b−a)s Preuve : C'est pratiquement la même que la preuve du lemma 3.3.3. 2 Lemme 3.3.5. Si xν+ = xν− = 1 alors le point u a exactement trois voisins : u − v, et v, et u + v. Preuve : Avec les mêmes notations dans (†) et dans (††), si xν+ = xν− = 1 alors les binômes correspondant aux u, v, u − v et u + v deviennent fu = x p xt xμ + − x r xs xμ − , fu−v = x2t xμ+ − x2s xμ− , fv = x p xs − x r xt , fu+v = x2p xμ+ − x2r xμ− . Alors, nous avons T (u, u − v) = p.g.c.d.(xp xt xμ+ , x2s xμ− ) = 1, 38 Fibre spéciale d'idéal de réseau de codimension deux S(u, u − v) = p.g.c.d.(xr xs xμ− , x2t xμ+ ) = 1. Nous déduisons du lemma 2.2.15 que hu, u − vi est sur le bord de G, donc u − 2v n'est pas dans G. De même pour u + v, nous avons aussi que hu, u + vi est sur le bord de G, et u + 2v ∈ / G. Donc, u a exactement trois voisins : u − v, v, u + v. 2 Lemme 3.3.6. Nous avons les affirmations suivantes : 1. T (u, v), S(u, v), P (u, v), R(u, v) 6= 1 si et seulement si hu, vi n'est pas sur le bord de G. 2. Conditions (∗) implique que T (v, w) = S(v, w) = 1 et supp w± ⊂ supp v± . 3. Si xν+ = xν− = 1 alors (∗∗) implique que T (u, w) = S(u, w) = 1 et supp w± ⊂ supp u± . Preuve : La première affirmation est déduite directement de 2.2.15. Pour démontrer la deuxième, remarquons d'abord que les conditions (∗) impliquent que : fw = x(a+b)p xbν+ x(b−a)s x(a+b)r xbν− x(b−a)t − . xaμ− xaμ+ Alors supp w± ⊂ supp v± , et donc T (v, w) = S(v, w) = 1. Il est similaire pour les conditions (∗∗). 2 Maintenant considérons la relation G[u,v,(u−v),w] dans la proposition 3.3.1. Lemme 3.3.7. Dans le cas a = b, la relation G[u,v,(u−v),w] est un trinôme aves P = Q = 1 seulement si card(G) = 4. En particulier, si G contient au moins 5 sommets alors soit P 6= 1, ou soit Q 6= 1. Preuve : Comme G ne contient que des points primitifs, la condition a = b implique que a = b = 1, et on a alors : G[u,v,w] = G[u,v,u−v,u+v] = xν+ xν− fu fw−v − xμ+ xμ− fv fw−u − fu−v fw . • Q = x ν + xν − = 1 ⇔ x ν + = x ν − = 1 u − v, v, u + v. Lem3.3.5 =⇒ u a exactement trois voisins Lem3.3.5 v a exactement trois voisins • P = xμ+ xμ− = 1 ⇔ xμ+ = xμ− = 1 =⇒ u − v, u, u + v. 3.3 Relations quadratiques dans l'anneau de Rees 39 Donc, si G[u,v,u−v,u+v] est un trinôme avec P = Q = 1 alors le graphe G contient exactement quatre sommets u, v, u − v, u + v ; et si G contient au moins cinq sommets alors soit P 6= 1 soit Q 6= 1. Remarquons que le premier cas est traité complètement dans la section précédente. 2 Dès maintenant supposons toujours qu'il y a au moins cinq sommets dans G. Définition 3.3.8. Soient u, v et w trois sommets dans G. On dit que w est engendré par u et v s'il existe deux nombres entiers a et b (a ≥ 0, b ≥ 0) tels que w = au + bv. Considérons un point w = au + bv ∈ G, avec b > a > 0 : w = au + bv = a(u + v) + (b − a)v . = a(u + pv) + (b − pa)v = |{z} r (u + (p + 1)v) + (a − r)(u + pv), | {z } >0 >0 où p, r sont entiers tels que b = pa + r (0 < r < a). Ainsi, en suivant le chemin euclidien pour aller à w dans G, nous devons passer les points : u, v, u + v, . . . , u + pv et u + (p + 1)v. Nous avons de plus que le point w est engendré par u+pv et u+(p+1)v. Ceci implique qu'il existe une présentation de w : w = w1 +w2 , où w1 et w2 sont deux voisins de w dans G tels que w 0 = a1 u + b1 v (0 ≤ a1 ≤ b1 ) et w 00 = a2 u + b2 v (0 ≤ a2 ≤ b2 ), avec a1 + a2 = a, et b1 + b2 = b. A) Conditions sur w quand P = 1. Lemme 3.3.9. Si P = 1 alors nous pouvons choisir une chaı̂ne de points dans G C : w = w 0 , w1 , * * * , wk = v telle que – L'arête hwi , wi+1 i est sur le bord de G, ∀ i = 0, 1, * * * , k − 1. – wi satisfait les conditions (∗), ∀ i = 0, 1, * * * , k − 1. Preuve : Nous avons deux cas : 40 Fibre spéciale d'idéal de réseau de codimension deux Cas 1 : w est dans l'éventail d'origine v. Dans ce cas w = u + bv, et les conditions (∗) deviennent :  μ x + | x(b−1)t . xμ− | x(b−1)s D'après le lemme 3.3.6, nous avons T (v, w) = S(v, w) = 1, alors [v, w] est sur le bord de G. Choisissons la chaı̂ne C comme suit : w0 = w, w1 = v. 2 Cas 2 : w n'est pas dans l'éventail d'origine v. Dans ce cas nous avons a > 1, et w 0 , w 00 6= v. Donc a1 , a2 > 0. Nous avons besoin du lemme suivant : Lemme 3.3.10. Si w satisfait les conditions (∗), alors soit w 0 ou soit w 00 satisfait les conditions (∗). Preuve : Comme a = a1 + a2 , et b = b1 + b2 , nous avons b − a = b1 − a 1 (b1 − a1 ) + (b2 − a2 ). Parce que a1 > 0, a2 > 0, deux quotients a1 b2 − a 2 et sont bien-définis. Quand w 0 et w 00 sont dans la base de Hilbert a2 b2 b1 − a 1 b2 − a 2 b1 6= . Alors 6= . Supposons que de I, nous avons que a1 a2 a1 a2 b1 − a 1 b2 − a 2 > . On en déduit que a2 b1 > a1 b2 . Ainsi, a1 a2 (b1 − a1 ) + (b2 − a2 ) b−a b2 − a 2 b1 − a 1 > = > . a1 a1 + a 2 a a2 ⇒ a(b1 − a1 ) > (b − a)a1 . ⇒ x(b−a)a1 t | x(b1 −a1 )at . De plus, le premier ligne de (∗) implique que xaa1 μ+ | x(b−a)a1 t . Or, xa1 μ+ | x(b1 −a1 )t . De même, du deuxième ligne de (∗), on déduit que xa1 μ− | x(b1 −a1 )s . 0 Ainsi, nous avons supp w+ ⊂ supp v+ , et supp w 0 − ⊂ supp v− , et w 0 satisfait les conditions (∗). D'où le lemme. 2 Pour prouver le lemme 3.3.9, nous utilisons le lemme 3.3.10. Nous supposons que w 0 satisfasse les conditions (∗). Comme w et w 0 satisfont les conditions supp w± ⊂ supp v± , et supp w 0 ± ⊂ supp v± , nous avons que supp w± ∩ supp w 0 ∓ = ∅. Alors T (w, w 0 ) = S(w, w 0 ) = 1. D'après le lemme 2.2.15, l'arête hw 0 , wi est sur le bord de G. 3.3 Relations quadratiques dans l'anneau de Rees 41 La chaı̂ne C est construit par récurrence : w0 = w, w1 = w 0 , * * * , wk = v. 2 B) Conditions sur w quand Q = 1. Maintenant, nous étudions les conditions (∗∗). Les arguments développés dans A) sont aussi utilisés pour ce cas. Lemme 3.3.11. Si w satisfait les conditions (∗∗), alors soit w 0 soit w 00 satisfait les conditions (∗∗). Nous pouvons supposer que ce soit w 0 . De plus, si xν+ = xν− = 1, alors l'arête hw, w 0 i est sur le bord de G. Preuve : La preuve est presque identique à celle du lemme 3.3.10. 2 Ce lemme implique facilement le résultat suivant : Lemme 3.3.12. Si Q = 1 alors 1. xν+ = xν− = 1, et donc u a exactement trois voisins : u − v, v, u + v. 2. Il existe une chaı̂ne dans G C : w = w 0 , w1 , * * * , wk = u telle que : – L'arête hwi , wi+1 i est sur le bord de G, ∀ i = 0, 1, * * * , k − 1. – wi satisfait les conditions (∗∗), ∀ i = 0, 1, * * * , k − 1. Preuve : La première assertion découle du lemme 3.3.5. La deuxième est similaire au lemme 3.3.9. 2 Puis, étudions la propriété de la forme quadratique G[u,v,w] correspondant à une arête hu, vi qui n'est pas sur le bord de G et un point w = au + bv (b ≥ a > 0). Dans le cas où a = b nous avons a = b = 1 et G[u,v,w] = G[u, v, u−v, u+v] = Qfu2 − P fv2 − fu−v fu+v où soit P fv ∈ mI soit Qfu ∈ mI. Nous allons démontrer que l'assertion similaire est aussi valide pour le cas où b > a. Considérons G[u, v, u−v, w] . Proposition 3.3.13. Avec les mêmes notations que dans la proposition 3.3.1, nous avons P fw−u ∈ mI. 42 Fibre spéciale d'idéal de réseau de codimension deux Preuve : Remarquons d'abord que, d'après le lemme 2.2.13, le binôme fw−u est dans mI si et seulement si w − u ∈ G. Alors P fw−u ∈ / mI si et seulement si P = 1 et w − u ∈ / G. Séparons le problème en trois cas. Cas 1 : a = 1 i.e. w = u + bv est dans l'éventail d'origine v. Dans cette situation, nous avons w − u = bv. Comme G ne contient que de points dans la base de Hilbert de I, le point bv est dans G si et seulement si b = 1 = a. Ceci contredit l'hypothèse que a < b. Alors w − u ∈ / G. Donc fw−u ∈ mI, et P fw−u l'est aussi. Cas 2 : a ≥ 2. Supposons l'opposition. Comme fw−u ∈ mI si et seulement si w−u∈ / G (selon la remarque 2.2.13), nous avons que P = 1 et w − u ∈ G. Grâce au lemme 3.3.9, il existe une chaı̂ne C1 , qui est une partie du bord de G C1 : w01 = w, w11 , . . . , wk11 −1 = ξ1 , wk11 = v. On a vu que w est engendré par u + pv et u + (p + 1)v, où b = pa + r avec 0 < r < a. Rappelons une représentation de fw x(a+b)p xbν+ x(b−a)s x(a+b)r xbν− x(b−a)t − xaμ− xaμ+ et les conditions (∗) pour w  p.g.c.d.(xaμ+ , x(b−a)t ) = xaμ+ . p.g.c.d.(xaμ− , x(b−a)s ) = xaμ− fw = x(pa+r−a)t = x[(p−1)a+r]t selon (∗), Comme xaμ+ | x(b−a)t = et x[(p−1)a+r]t | xpat car (p − 1)a + r < pa, nous avons xaμ+ | xpat . Alors on a xμ+ | xpt . De même, nous avons xμ− | xps . Donc u + (p + 1)v satisfait les conditions (∗). Ceci implique que hu+(p+1)v, vi est sur le bord de G (voir le 1 cas 1 de A). Ainsi u+(p+2)v ∈ / G. On conclut que w(k = ξ1 = u+(p+1)v. 1 −1) Puis, considérons w − u. w − u = (a − 1)u + bv = (a − 1)(u + v) + (b − a + 1)v . = (a − 1)(u + pv) + (b − pa + p)v = (a − 1)(u + pv) + (r + p)v  (r + p − a + 1)(u + (p + 1)v) + (a − 1)(u + pv), si a − 1 < r + p   | | {z } {z }    >0 >0   (r + p)(u + (p + 1)v) + (a − 1 − r − p)(u + pv), si a − 1 > r + p | {z } = | {z }  >0 >0    (r + p)(u + (p + 1)v), si a − 1 = r + p    | {z } >0 3.3 Relations quadratiques dans l'anneau de Rees 43 Dans les deux premiers cas, le point w − u est engendré par u + (p + 1)v et u + pv. Dans le dernier cas, nous avons que a − 1 = r + p. Donc w − u = (a − 1)[(u + pv) + v]. De plus, parce que G ne contient que de points dans la base de Hilbert de I, le point w − u ∈ G si et seulement si a − 1 = 1, i.e. a = 2. Ceci implique que r = 1, p = 0 et alors b = 1 < 2 = a. Contradiction à l'hypothèse que a < b. Les conditions (∗) impliquent aussi que : xμ+ | x(b−a)t | x(b−a+1)t , et xμ− | x(b−a)s | x(b−a+1)s , i.e. w − u satisfait les conditions (∗) aussi. D'après la proposition 3.3.9, il existe une autre chaı̂ne : w02 = w − u, w12 , . . . , wk22 −1 = ξ2 , wk22 = v, C2 : sur le bord de G. Parce que hv, ξ1 i et hv, ξ2 i sont sur le bord de G, et de plus, dans la même direction de v aux points avec coordonnées positives par rapport à (u, v), ils doivent coı̈ncider et coı̈ncident à u + (p + 1)v. Et les deux points suivants dans les deux chaı̂nes coı̈ncident aussi. On en déduit que soit C1 ⊂ C2 ou soit C2 ⊂ C1 . On conclut que w − u et w sont dans la même chaı̂ne commençant de v et passant u + (p + 1)v. Parce que (a − 1, b) ≺lex (a, b), le point w − u doit être dans le chemin de v à w. Alors il existe un voisin w 0 = cu + dv (c, d ≥ 0) de w − u tel que w = α(w − u) + βw 0 avec α, β > 0. w0 @ @d   u + v ̇ ̇ ̇ ̇ ̇ ̇ ̇ ̇ w − u  d i ̇ w ̇ ̇  TT u ̇ ̇  " b T " ̇ ̇ ̇ ̇ b ̇ ̇ ̇ ̇ d i  b " B u +pv  i  b Td " B  u−v @ vbb  b i i bd  @d  u + (p + 1)v i Chaı̂ne C1 d Chaı̂ne C2 Il découle que  a = α(a − 1) + βc = αa − α + βc . b = αb + βd ≥ b On a l'égalité dans le deuxième ligne si et seulement si α = 1 et βd = 0. On conclut que a = a − 1 + βc. Donc, β = 1 et c = 1, d = 0, i.e. w 0 = u. 44 Fibre spéciale d'idéal de réseau de codimension deux Alors w et w − u sont dans l'éventail d'origine u. Ainsi, il existe un nombre entier a ≥ 1 tel que w = au+v. C'est une contradiction. D'où la proposition.2 Pour le terme Qfw−v nous avons une proposition similaire. Proposition 3.3.14. Si Qfw−v ∈ I \ mI, alors Q = 1 et il existe w − v ∈ G. De plus, les points u, u − v, w, w − v sont dans l'éventail d'origine v, et tout le point dans cet éventail entre u et w − v a exactement trois voisins. Preuve : De même à la démonstration de la proposition 3.3.13, l'égalité Q = 1 implique que w et w − v satisfont les conditions (∗∗). Grâce à la proposition 3.3.12, nous pouvons construire deux chaı̂nes : C1 : C2 : w01 = w, w11 , . . . , wk11 −1 = ξ1 , wk11 = u, w02 = w − u, w12 , . . . , wk22 −1 = ξ2 , wk22 = u, qui sont sur le bord de G, dont les points ξ1 et ξ2 sont des voisins de u et satisfont (∗∗). Remarquons que u + v satisfait (∗∗) aussi, car  1 = x(1−1)t = p.g.c.d.(xμ+ , x(1−1)t ) . 1 = x(1−1)s = p.g.c.d.(xμ− , x(1−1)s ) Alors [u + v, u] est sur le bord de G. Nous avons donc ξ1 = ξ2 = u + v. Ainsi, C1 et C2 ont les mêmes deux premiers points. On conclut que w et w − v sont dans la même chaı̂ne. w0 @ @d  u + v ̇ ̇ ̇ w−v d d i iw  . ̇ ̇ ̇ . .  ud . d i i TT  "B b T " ̇  ̇ b ̇ u +pv i  ̇ ̇ ̇ ̇ ̇d b " i   T" Bd b b  u−v @ v b b b @ u + (p + 1)v i Chaı̂ne C 1 d Chaı̂ne C2 Nous pouvons déduire qu'ils sont dans le même éventail d'origine v avec u et u − v. Une conséquence est que la chaı̂ne C1 est celle contenant des points de cet éventail : u, u + v, . . . , w − u, w. Comme celle-ci est une partie du bord de G, tout point u, u + v, . . . , w − u a exactement trois voisins. 2 3.3 Relations quadratiques dans l'anneau de Rees 3.3.2 45 Les relations quadratiques Nous allons résumer les résultats techniques que nous venons de démontrer. D'après la proposition 3.3.13 et la proposition 3.3.14, nous obtenons : Proposition 3.3.15. Soit [u, v, u − v] un triangle de G, et w = au + bv (0 < a ≤ b) un point quelconque de G. Alors il existe une relation G[u,v,w] = Qfu fw−v + P fv fw−u − fu−v fw = 0, u+v . w − v u B . où P, Q sont des monômes dans R tels que : @ B J Jw – P fw−u ∈ mI. X X@ B    u − v X@ X  B – Qfw−v ∈ I. v – Si Qfw−v ∈ I \ mI, alors Q = 1 et le point w − v est dans G. De plus, les points u − v, u, w − v, w sont dans un éventail d'origine v, et tout point entre u et w − v a exactement trois voisins. Pour le cas général, en changeant le signe de v 7→ −v ou de u 7→ −u, s'il est nécessaire, nous pouvons nous ramener au cas où 0 < a ≤ b. On obtient que : Théorème 3.3.16. Soit hu, vi une arête qui n'est pas sur le bord de G, et w = au + bv un point quelconque de G, (w 6= u, w 6= v). Alors – Si |a|=|b|, alors |a|=|b|= 1 et il existe une relation G[u,v,w] = G[u,v,u−v,u+v] = xμ+ xμ− fu2 − xν+ xν− fv2 − fu−v fu+v , où soit xμ+ xμ− soit xν+ xν− est dans m. – Si |a|6=|b|, alors il existe une relation G[u,v,w] = Qfu fw∗v + P fv fw∗u + fu∗v fw = 0, où u ∗ v = u − v si ab > 0, et u ∗ v = u + v si ab < 0 ; et w ∗ u = w − sign(a)u, w ∗ v = w − sign(b)v. De plus, soit Qfw∗v ou soit P fw∗u est dans mI, et – Si Qfw∗v ∈ / mI, alors |a| < |b| et |Q|= 1 ; et w ∗ v est dans G tel que u ∗ v, u, w ∗ v, w sont dans l'éventail d'origine v, dont tout point entre u et w ∗ v a exactement trois voisins. – Si P fw∗u ∈ / mI, alors |b| < |a| et |P |= 1 ; w ∗ u est dans G tel que u ∗ v, v, w ∗ u, w sont dans l'éventail d'origine u, dont tout point entre v et w ∗ u a exactement trois voisins. 46 3.4 Fibre spéciale d'idéal de réseau de codimension deux Relations dans la fibre spéciale Soit R = K[x1 , x2 , . . . , xn ] l'anneau de polynômes sur le corps K. Soit I un idéal engendré minimalement par L m éléments {fi }1≤i≤m . L'anneau de Rees de I est l'anneau gradué R[It] = k≥0 I k tk . La fibre spéciale de I est le quotient R[It]/mR[It], où m = (x1 , x2 , . . . , xn ) est l'idéal maximal irrélevant de R. Introduisons m variables indépendantes sur R, appelées T = {Ti }1≤i≤m , et considérons l'idéal J = ker π, où π R[T] −→ R[It] −→ 0 . Ti −→ fi t On obtient une présentation R[It] ' R[T]/J de l'anneau de Rees. D'où, on déduit une présentation de la fibre spéciale R[It]/mR[It] ' K[T]/Je, où Je est l'image de J modulo mR[T]. Dans notre cas où I est un idéal de réseau de codimension 2, les m elements fi correspondent à m points, dits {ui }1≤i≤m , du graphe G. Rappelons que toute relation G[u,v,w] = Qfu fw∗v +P fv fw∗u +fu∗v fw deduite du théorème e [u,v,w] modulo 3.3.16 nous donne un élément dans l'idéal J , et son image G mR[T] est dans l'idéal Je. On obtient donc le résultat suivant : Théorème 3.4.1. Soit hu, vi un arête qui n'est pas sur le bord de G, et soit w = au + bv un point quelconque de G (w 6= u, w 6= v). Alors la relation suivante est dans l'idéal de présentation Je de la fibre spéciale F (I) de I : e [u,v,w] = εu Tu Tw∗v + εv Tv Tw∗u − Tu∗v Tw , G εi ∈ {0, 1} où εu εv = 0, et de plus – si εu 6= 0, alors u ∗ v, u, w ∗ v, w est dans l'éventail d'origine v, dont tout point entre u et w ∗ v a exactement trois voisins. – si εv 6= 0, alors u ∗ v, v, w ∗ u, w est dans l'éventail d'origine u, dont tout point entre v et w ∗ u a exactement trois voisins. e [u,v,w] précédentes. Remarquons que tout élément Notons S l'ensemble des G dans S soit de type Tu Tv avec u, v non–voisins dans G, soit de type Tu Tw−v − Tu−v Tw avec u − v, u, w − v, w = au + bv (a, b ∈ Z2>0 ) dans le même éventail d'origine v (après un changement des signes de u, de v et de w, s'il est nécessaire). Lemme 3.4.2. Si u − v, u, w − v et w = u + bv sont dans le même éventail F d'origine v de G tels que : e [u,v,u−v,w] = Tu Tw−v − Tu−v Tw , G 3.4 Relations dans la fibre spéciale 47 alors pour tout point P = u + cv ∈ F , et Q = u + dv (b ≥ d > c ≥ 0) ∈ F , nous avons : e [P,v,P −v,Q] = TP TQ−v − TP −v TQ ∈ S. G Preuve : On a vu que pour tout point P = u + αv ∈ F , le binôme fP correspondant à P est fP = x(α+1)p xμ+ xαν+ x(α−1)s − x(α+1)r xμ− xαν− x(α−1)t . p.g.c.d.(xμ+ , x(α−1)t )p.g.c.d.(xμ− , x(α−1)s ) e [u,v,u−v,w] = Tu Tw−v − Tu−v Tw , nous avons Pour le point w = u + bv, car G ν− x = x = 1 et  p.g.c.d.(xμ+ , x(b−1)t ) = x(b−1)t . p.g.c.d.(xμ− , x(b−1)s ) = x(b−1)s ν+ Alors pour 0 < α ≤ b,  p.g.c.d.(xμ+ , x(α−1)t ) = x(α−1)t . p.g.c.d.(xμ− , x(α−1)s ) = x(α−1)s x(α+1)r xμ− x(α+1)p xμ+ − pour tout P = u + αv (0 ≤ α ≤ b). x(α−1)t x(α−1)s Considérons le point P = u + cv et le point Q = u + dv (0 ≤ c < d ≤ b). Nous étudions la matrice 2 × 4 suivante :   cr μ− xdr xμ− t p x x  x x(c−1)s x x(d−1)s     .  cp μ+ dp μ+  x x x x xr xs (c−1)t x x(d−1)t Donc fu+αv = Calculons tous ses mineurs 2 × 2, nous avons 41,2 = fu+cv = fP , et 41,3 = fv , et 41,4 = fu+dv = fQ , et 42,3 = fu+(c−1)v = fP −v , et xμ + xμ − f ∈ mI, et 43,4 = fu+(d−1)v = fQ−v . La relation 42,4 = xcp xcr x(d−1)s x(d−1)t dv e de Plücker nous donne G[P,v,P −v,Q] = TP TQ−v − TP −v TQ ∈ S. 2 Lemme 3.4.3. Soient u − v, u, w − v et w = u + bv quatre points dans le même éventail F de G satisfont la même condition comme dans le lemme 3.4.2. Supposons aussi qu'il existe une relation quadratique T w2 −Tw− Tw+ ∈ S, où w− et w+ sont deux voisins de w dans G. Alors w− = w−v, et w+ = w+v, e [u,v,u−v,w+v] = Tu Tw − Tu−v Tw+v ∈ S. et la relation G 48 Fibre spéciale d'idéal de réseau de codimension deux e [w,V,w−V,w+V ] = T 2 − Tw− Tw+ ∈ S, nous pouvons Preuve : Comme G w supposer que w− = w − V et w+ = w + V , avec un voisin V de w. Le lemme 3.3.4 et le lemme 3.3.5 impliquent que w a exactement trois voisins. Comme w − v et v sont aussi des voisins de w, et w − v n'a que trois voisins : w − 2v, v et w, on conclut que v = V . Ainsi, w− = w − v et w+ = w + v = u + (b + 1)v. Nous avons alors : fw+v = x(b+2)r xμ− x(b+2)p xμ+ − . xbt xbs Considérons la matrice 2 × 4 suivante :  x(b+1)r xμ− p s μ− t x x x x  xbs    x(b+1)p xμ+ xr xt xμ + xs xbt    .  e [u,v,u−v,w+v] = Tu Tw − Tu−v Tw+v ∈ S. 2 La relation de Plücker nous donne G Remarque 3.4.4. Après le changement de signe v 7→ −v, nous avons ce qui suit : 2 S'il existe une relation quadratique Tu−v − T(u−v)− T(u−v)+ ∈ S, où (u − v)− et (u − v)+ sont deux voisins de u − v dans G, alors (u − v)− = u − 2v, et e [u−v,v,u−2v,w] = Tu−v Tw−v − Tu−2v Tw est (u − v)+ = u. De plus, la relation G dans S. Définition 3.4.5. Une chaı̂ne u − v, u, u + v, . . . , u + bv de longeur plus grande que possible telle que la relation quadratique Tu Tu+(b−1)v − Tu−v Tu+bv est dans S est appelée un éventail binômial d'origine v de G. Exemple 3.4.6. Pour les exemples 2.2.5 et 2.2.6, le seul sommêt de G est e [u ,u ,u ,u ] dans les u4 = (−1, 1). Donc, nous devons considerer la relation G 4 1 2 7 deux exemples. Les autres relations n'engendrent que des monômes. – Pour l'exemple 2.2.5, nous avons : α1 = ab5 c − d2 e3 f 2 , α2 = a3 e2 f 3 − bc4 d3 , α7 = ade8 f 7 − b11 c6 , α4 = a2 e5 f 5 − b6 c5 d. Donc, la matrice associée à ces binômes est   a de3 f 2 b6 c5 bc4 d2 . d b5 c ae5 f 5 a2 e2 f 3 3.4 Relations dans la fibre spéciale 49 La relation de Plücker nous donne : abc4 e2 f 3 α12 − dα42 + α2 α7 = 0. D'où, la relation T2 T7 est dans l'idéal de la fibre spéciale, et S1 = {T1 T6 , T2 T5 , T3 T4 , T3 T7 , T4 T5 , T4 T6 , T5 T6 , T5 T7 , T6 T7 , T2 T7 }. – Pour l'exemple 2.2.6, nous avons : α1 = ab2 c − de2 f, α2 = a2 bf 2 − c2 d2 e, α7 = a 4 b 5 − d 4 e 5 , α4 = a3 b3 f − cd3 e3 . Donc, la matrice associée à ces binômes est   2 ab f cd2 e d3 e3 . de2 c a2 bf a3 b3 La relation de Plücker nous donne : a2 bd2 eα12 − α42 + α2 α7 = 0. D'où, la relation −T42 + T2 T7 est dans l'idéal de la fibre spéciale, et S2 = {T1 T6 , T2 T5 , T3 T4 , T3 T7 , T4 T5 , T4 T6 , T5 T6 , T5 T7 , T6 T7 , T2 T7 − T42 }. Donc les fibres spéciales de deux exemples sont non isomorphes. Remarque 3.4.7. Remarquons que l'ensemble complet des relations quadratiques concernant Tu−v , Tu , Tu+v , . . . , Tu+bv = Tw sont données par les mineurs 2 × 2 de la matrice suivante :   Tu−v Tu Tu+v . . . Tu+(b−1)v . Tu Tu+v Tu+2v . . . Tu+bv 2 De plus, il n'existe pas de relation de type Tu−v − T(u−v)− T(u−v)+ ou de type 2 Tw − Tw− Tw+ dans S. En fait, comme on va voir dans la suite, chaque éventail binômial est caractérisé par son origine et ses deux extrêmes. e qui est obtenu de G en remplaçant chaque Définition 3.4.8. Le graphe G, éventail binômial de G par un triangle construit par son origine et ses deux extrêmes, est appelé le graphe reduit de G. u6 ̇ ̇ ̇ ̇ ̇ ̇ ̇ ̇ ̇ ̇ T B ̇  T @ B J u2  J u1 X @ B T u5  XX@  D@ XB B u3 C  D @ C  B  D @ BB C @ u7 D  u4 @   D @ ̇ ̇ ̇ ̇ ̇ ̇ ̇ ̇ Graphe G - u6  TT u2 u1 T u5 AA A T  A  TT A  ! A  ! u7 A A!  u4 u3 Graphe G 50 Fibre spéciale d'idéal de réseau de codimension deux Remarque 3.4.9. 1. Pour chaque couple de deux non–voisins u, v dans e on a Tu Tv est un monôme dans S. G, 2. Nous pouvons colorer Ge par trois couleurs comme suit : e et colorons chaque som– Choissisons un triangle T quelconque de G, met de ce triangle par une couleur. e – Deux non–voisins u et v, qui sont dans le même quadrilatère de G, ont la même couleur. Ainsi, les sommets de chaque triangle de Ge ont des couleurs différentes. e et prenons Notons Γi l'ensemble des sommets de couleur i dans G, X gi = Tu , i = 1, 2, 3. u∈Γi On remarque que g1 , g2 , et g3 sont indépendantes algébriquement sur K. Considérons l'idéal Ae engendré par S. Comme dans le théorème 3.4.1, nous avons Ae ⊂ Je. Le but de cette section est de prouver l'égalité. Afin de démontrer que K[T]/Ae = F (I), nous allons indiquer d'abord qu'ils ont la même normalisation de Noether. Théorème 3.4.10. Prenons J = (g1 , g2 , g3 ), et soit mT l'idéal maximal de e Alors K[T]/A. (mT )2 = JmT . Preuve : Remarquons que c'est une conséquence de la proposition 4.4.7. En fait, la coloration précédente est bonne, et que le graphe Ge fabrique un arbre généralisé. 2 Théorème 3.4.11. Soit A := K[g1 , g2 , g3 ]. Alors A est la normalisation de e Noether de K[T]/A. Preuve : Il découle directement du théorème 3.4.10 que K[T]/Ae est intégralement clôs sur A. Alors l'application A ,→ K[T]/Ae satisfait le théorème e = dim(A) ≤ 3. (Vois [Ma, Theorem 20] pour Going-up. Donc, dim(K[T]/A) les détails.) En fait, comme nous verrons dans le chapitre suivant, nous pouvons démontrer que : \ Ae = AeT , T un triangle dans Ge où AeT est l'idéal engendré par les mineurs 2 × 2 de la matrice suivante : 3.4 Relations dans la fibre spéciale  51 Tu−v Tu Tu+v . . . Tu+(b−1)v Tu Tu+v Tu+2v . . . Tu+bv  , et par les variables Tu avec u ∈ G\T , si le triangle T = [u − v, v, u + bv] avec  {u − v, u, . . . , u + bv} est un éventail binômial de G, et AeT = Tu | u ∈ G\T sinon (c'est une conséquence de la proposition 4.2.1). Il est connu que AeT est un idéal premier de dimension trois pour tout T . e = 3. On en déduit que g1 , g2 , g3 sont algébriquement Ainsi, dim(K[T]/A) e indépendants sur K[T]/A. De plus, K[T]/Ae est un A−module de type fini, et engendré par 1, et par les Tu où u ∈ G \ T avec un triangle T quelconque de G. 2 Considérons la composition des applications : A ,→ K[T]/Ae → F (I), où le dernier est un épimorphisme canonique. Alors, F (I) est le quotient de e et dim(F (I)) ≤ dim(K[T]/A) e = 3. Par suite, c'est connu qu'en K[T]/A, général on a dim F (I) ≥ codim(I) = 2. Dans le cas où le corps K est infini et I est radical, on a l'égalité si et seulement si I est une intersection complète (voir [CN]). Théorème 3.4.12. 2 ≤ dim(F (I)) ≤ 3. Dans le cas où K est infini et I est un idéal radical qui n'est pas une intere = dim(F (I)) = 3. section complète, nous avons dim(K[T]/A) Dans la suite, nous allons considérer en détail le dernier cas, c.-à-d. le cas où l'idéal I est radical, et I n'est pas une intersection complète, et K est infini. Nous rappelons d'abord la définition du nombre de réduction d'un anneau. Définition 3.4.13. Soit R un anneau de polynômes en n variables sur un corps k. Soit I ⊂ R un ideal gradué homogène pour la graduation standard et d = dim R/I. Un ensemble de formes linéaires {g1 , g2 , . . . , gd } est une réduction de R/I, si (g1 , g2 , . . . , gd )mρ = mρ+1 ( mod I) où m est l'idéal maximal de l'anneau de polynômes R. Le plus petit nombre ρ lorsque l'on considère toutes les réductions possibles est appelé le nombre de réduction de R/I. 52 Fibre spéciale d'idéal de réseau de codimension deux Remarquons que l'égalité entre les dimensions ainsi que le lemme 3.2 [BM2] impliquent que A est la normalisation de Noether de F (I) par rapport à la composition. Parce que K[T]/Ae est engendré par des formes linéaires comme un A−module, son quotient F (I) l'est aussi. Ceci implique que le nombre de réduction r (F (I)) = 1. Puis, considérons le resultat suivant de Cortadellas et Zarzuela : Lemme 3.4.14. [CZ] Soit (R, m) est un anneau noetherian local, et soit I un idéal engendré minimalement par m éléments de R. Supposons que I est une intersection complète générique(i.e. Ip est une intersection complète pour tout p idéal premier minimal associé à I), et l'analytique spread est l := dim F (I) = hauteur(I) + 1. Si r (F (I)) = 1, alors F (I) est Cohen – Macaulay. De plus, la fonction de Hilbert de F (I) est HF (I) (t) = 1 + (m − l)t . (1 − t)l On conclut que : Théorème 3.4.15. Soit R = K[x1 , x1 , x2 , . . . , xn ] l'anneau de polynômes sur K. Soit I un idéal de réseau de codimension 2. Supposons que I n'est pas une intersection complète. Alors e F (I) = K[T]/A. Preuve : Le théorème 3.4.12 implique que l := dim F (I) = 3. Soit m le nombre de générateurs de I. En utilisant le lemme 3.4.14, nous avons 1 + (m − 3)t = HF (I) (t) ≤ HK[T]/Ae(t). (1 − t)3 Choissisons un triangle T := [Tm−2 , Tm−1 , Tm ] de G. Grâce au théorème 3.4.11, l'application suivante est un épimorphisme : A M m−3 M i=1 e0 A[−1] −→ K[T]/Ae −→ 0 ei 7→ 7 → 1 Ti Alors HK[T]/Ae(t) ≤ HA L Lm−3 A[−1] (t) = i=1 1 + (m − 3)t . (1 − t)3 Donc, les anneaux F (I) et K[T]/Ae ont la même fonction de Hilbert. Or F (I) e on en déduit que F (I) = K[T]/A. e est un quotient de K[T]/A, 2 3.4 Relations dans la fibre spéciale 53 Corollaire 3.4.16. – mI est intégralement clôs. – I (2) ⊂ mI, où I (2) est la deuxième puissance symbolique de I. Preuve : La première assertion découle facilement de la démonstration de la proposition 3.11 [Hü], car la fibre spéciale F (I) est réduite, et l'idéal I est radical. Pour la deuxième, remarquons d'abord que dans K[x1 , x2 , . . . , xn ], la démonstration de [Hü, Théorème 1.2, (iii) ⇒ (i)] est aussi valable indépendamment du caractère de K. Puis, la démonstration de la proposition 3.11 dans cet article est aussi applicable. 2 P (i = 1, 2, 3), et soit Q = Corollaire 3.4.17. Posons qi = u∈Γi fu , (q1 , q2 , q3 ) un sous-idéal de I. Alors (QI)m = Im2 . Ceci implique que Im = Q m = et ara(Im ) ≤ 3. p (q1 , q2 , q3 ), Pour le cas où I est l'idéal de définition d'une variété monômiale de codimension 2, Barile et Morales [BM2] ont prouvé que l'idéal de presentation de l'anneau de Rees R(It) est engendré par des formes de degré 2 au plus. En appliquant le théorème précédent, nous obtenons le même résultat pour un cas plus général. Le résultat crucial est dû à Huckaba et Huneke : Lemme 3.4.18. [HH, Theorem 2.9 et 4.5] Soit R un anneau Cohen -Macaulay local, et soit I un idéal de hauteur d ≥ 1, et "analytic spread" l(I) = d + 1. Supposons que les idéaux premiers de R/I sont tous de même hauteur, et que les idéaux premiers associés de R/I sont de hauteur au plus d + 1. De plus, supposons que I est une intersection complète générique, et qu'il existe une réduction minimale J de I telle que rJ (IQ ) ≤ 1 pour tout idéal premier (I ⊆)Q avec codim(Q/I) = 1. Finalement, supposons que depth(R/ I) ≥ dim(R/I) − 1. Alors, l'idéal de présentation de l'anneau de Rees R(It) de I est Cohen–Macaulay, et défini par des éléments de degré au plus deux. En outre, il est prouvé dans la proposition 2.1.6 que pour tout idéal de réseau I nous avons : projdim(R/I) ≤ 2codimI − 1. En particulier, si I est un idéal de réseau de codimension 2, alors : depth(R/I) = dim R − projdim(R/I) ≥ dim R − 3 = dim(R/I) − 1. 54 Fibre spéciale d'idéal de réseau de codimension deux Ainsi l'idéal de réseau I remplit tous les hypothèses du lemme 3.4.18 si I n'est pas une intersection complète de codimension 2. Ceci implique que : Théorème 3.4.19. Soit I un idéal de réseau radical, de codimension 2, et I n'est pas une intersection complète dans R = K[x1 , x2 , . . . , xr ], où le corps K est infini. Alors, l'idéal de présentation de l'anneau de Rees R[It] de I est Cohen–Macaulay, et engendré par des formes de degré deux au plus. Cependant, nous n'avons pas répondu aux questions suivantes : Question 3.4.1. Est-ce que l'idéal de présentation de l'algèbre de Rees est engendré par les relations linéaires et les relations quadratiques introduites dans ce chapitre ? Dans tous les exemples que nous avons calculé, la réponse à cette question est positive. Question 3.4.2. Si K est un corps fini, pour tout I idéal de réseau radical de codimension 2, a-t-on que "l'analytic spread" l(I) est toujours 3 ? Chapitre 4 Idéaux binômiaux simpliciaux 4.1 Définitions et notations Dans ce chapitre, G signifie un graphe simple fini. On note respectivement VG et EG l'ensemble des sommets, et des arêtes de G. Le graphe est complet si EG = (hu, vi | u 6= v ∈ VG ), où hu, vi est l'arête des sommets u, v. Soit S un sous–ensemble de VG . Notons G \ S le sous-graphe de G obtenu de G en effaçant les sommets de S et les arêtes incidentes. De même, on note GS le graphe induit de G sur S. Un sous–graphe C induit de G est appelé un cycle si l'ensemble des sommets peut être ordonné, VC := {x1 , x2 , . . . , xl } et xi xi+1 ∈ EG pour tout i = 1, 2, . . . , l (où xl+1 = x1 ), il sera noté C = (x1 x2 . . . xl x1 ). Le nombre l est la longueur de C. Le cycle C a une corde s'il existe un nombre j 6= i+1(mod l) tel que xi xj ∈ EG . Appelons C un cycle minimal si C est de longueur au moins 4 et C n'a pas de cordes. Un complexe simplicial 4 sur un ensemble des sommets V4 = {x1 , x2 , . . . , xn } est une collection de sous-ensembles de V4 telle que : – Pour tout i, l'ensemble {xi } est dans 4, – Si F ∈ 4 et G ⊂ F, alors G ∈ 4. Un élément d'un complexe simplicial 4 est appelé une face de 4. La dimension d'une face F de 4, noté par dim F, est définie par |F| −1, où |F| signifie le nombre des sommets de F. La dimension de 4, noté dim 4, est définie par la dimension maximale des faces de 4. Les faces maximales, pour l'inclusion, dans 4 sont appelées les facettes de 4. Remarquons qu'en prenant toutes les faces de dimension 0 et 1 de 4, i.e. les sommets et les arêtes, on associe à 4 un graphe simple G4 . Une 56 Idéaux binômiaux simpliciaux facette F de 4 devient un sous–graphe complet de G4 , et est appelée aussi un |F|–clique de G4 . 4.1.1 Idéaux simpliciaux et binômiaux simpliciaux La notion d'idéal simplicial a été introduite par Marcel Morales. Elle consiste à associer un idéal à un complexe simplicial et à une famille d'idéaux indexée par l'ensemble des facettes. La notion d'idéal simplicial généralise celle d'idéal de Stanley–Reisner. Dans ce chapitre, nous allons considérer quelques cas particuliers et étudier quelques propriétés de ces idéaux simpliciaux. A chaque ensemble des sommets V4 = {x1 , x2 , . . . , xn }, on associe un anneau de polynômes R = K[x1 , x2 , . . . , xn ] (ici, par abus de notation, xi désigne un sommet dans V4 et aussi une variable dans l'anneau de polynômes). Il est connu que à chaque complexe 4 sur cet ensemble des sommets, on associe un idéal, appelé idéal de Stanley – Reisner, défini comme suit : / 4) . I4 = (xi1 xi2 * * * xir | i1 < i2 < * * * < ir , {xi1 , xi2 , . . . , xir } ∈ Cet idéal est engendré par des monômes. Maintenant, nous allons présenter la définition d'un p–complexe et d'idéal simplicial. (l) Définition 4.1.1. A chaque facette Fl de 4, ajoutons quelques points {yij }, (l) avec i, j dans un ensemble El . Les points yij sont appelés points marqués, et (l) le simplexe sur l'ensembles Fl ∪ {yij , (i, j) ∈ El } est une p–facette. Par abus de notation et par ce qu'il n'y aura pas de confusion, nous appelerons Fl la p–facette obtenue à partir de Fl . Un p–complexe 4 associé à 4 est le complexe simplicial dont les facettes sont les p–facettes ou les facettes de 4 n'ayant pas de points marqués. On associe à un p–complexe 4 un graphe, noté G4 . Pour chaque facette F , on note F ◦ l'ensemble des points de 4, qui appartienent uniquement à la facette F de 4. Soit 4 un p–complexe construit par 4 et par un ensemble des points (l) marqués. On associe à 4 l'anneau de polynômes R = K[x, y] (ici, x, yij désigne un sommet dans 4 et aussi une variable dans l'anneau de polynômes). Notation 4.1.2. Nous noterons (E) (resp. K[E]) l'idéal engendré par E (resp. l'anneau des polynômes dont les variables sont les éléments de E). 4.1 Définitions et notations 57 Définition 4.1.3. Pour chaque p–facette Fl , on se donne un idéal premier Il ⊂ (Fl ) de l'anneau K[V4 ] tel que Il ⊂ (V4 \ Fi ) pour toute p–facette Fi de 4 distincte de Fl . L'idéal simplicial P4 associé au p–complexe 4 est défini comme suit :   X P4 =  Il , I4  , Fl p−facette de 4 où I4 est l'idéal de Stanley – Reisner du complexe simplicial 4. (l) x0 (l) y i1 1 (l) y i2 1 (l) k1 yi (l) (l) y i1 2 x1 (l) y i2 2 (l) xd (l) y i1 j i (l) y i ji k 1 l k (l) y i2 j i 2 (l) (l) xi xi 1 k (l) xi 2 La pfacette Fl Nous allons considérer une classe particulière d'idéaux simpliciaux engendrés par des binômes : Une facette F de dimension d de 4 est dite propre si F contient q arêtes hx0 , x1 i, hx0 , x2 i, . . . , hx0 , xq i appartenant uniquement à la facette F . Dans ce cas, ces arêtes sont appelées les arêtes propres de F . Définition 4.1.4. Considérons un p–complexe 4. Soit Il l'idéal engendré par les mineurs 2 × 2 de la matrice : ! (l) (l) (l) (l) (l) (l) (l) y . . . y y i2 1 . . . y i2 j i x0 y i 1 1 . . . y i 1 j i ikl 1 ikl j i k 2 1 l . Ml := (l) (l) (l) (l) (l) (l) (l) . . . y i 2 2 . . . xi 2 y i 1 1 y i 1 2 . . . xi 1 y i k 2 . . . xi k l l 58 Idéaux binômiaux simpliciaux Nous appelerons idéal binômial simplicial B4 l'idéal simplicial associé à 4 et aux idéaux Il correspondant aux p–facettes Fl . Nous avons que Il ⊂ (V4 \ Fi ) pour toute p–facette Fi de 4 distincte de Fl . En effet, tout d'abord remarquons que (Fl◦ ) ⊂ (V4 \ Fi ) et ensuite (l) (l) (l) (l) x0 xis ∈ (V4 \ Fi ), parce que nous avons que x0 ∈ V4 \ Fi ou xis ∈ V4 \ Fi , (l) (l) car dans le cas contraire x0 et xis sont dans Fi , ce qui impliquerait que (l) (l) l'arête hx0 , xis i ∈ Fi , en contradiction avec la définition d'arête propre. On va démontrer dans la suite que la classe des idéaux est une extension de la classe des idéaux de Stanley – Reisner associé à un complexe simplicial. 4.2 Décomposition primaire Il est connu que l'idéal de Stanley – Reisner d'un complexe simplicial admet une décomposition en idéaux premiers correspondant aux facettes du complexe, où chaque idéal est engendré par des variables qui ne sont pas dans la facette correspondante. Dans cette section, on va prouver la même propriété pour l'idéal P4 . Soit P4 l'idéal associé au p–complexe 4. On définit d'abord les idéaux premiers associés aux facettes de 4. Considérons une facette Fl de 4. On associe à Fl un idéal premier Jl comme suit :  – Jl = V4 \ Fl , si Fl n'a pas de point marqués (en fait dans ce cas Il = 0).  – Jl = Il , (V4 \ Fl ) , sinon. Notons que V4 \ Fl désigne l'ensemble des sommets de 4 qui ne sont pas dans Fl . Nous avons la proposition suivante : Proposition 4.2.1. P4 = Fl \ facette de 4 Jl . Preuve : Tout d'abord, rappelons le fait bien connu que si I, J sont des ensembles des variables disjoints et I = (I) , J = (J) alors I ∩ J = (pq | p ∈ I, q ∈ J ) . On va prouver la proposition par récurrence sur le nombre l des facettes de 4. Notons 40 le p–complexe construit par les l − 1 premières facettes du 4.2 Décomposition primaire 59 p–complexe 4 et P40 l'idéal associé au p–complexe 40 , et Ji0 l'idéal premier associé à la ième facette de 40 . Remarquons que Ji = (Ji0 , x | T x ∈ Fl◦ ) pour tout (i = 1, 2, . . . , l − 1). Par récurrence, nous avons P40 = Ji0 . Soit Fl la lème facette, si Fl n'a pas de points marqués nous poserons Il = 0. Nous avons que Jl = Il , V4 \ Fl , et P4 0 = X 1≤k≤l−1 Ik , I40 ! , et P4 = X 1≤k≤l Ik + I l , I 4 ! . Pour l'idéal monomial de Stanley–Reisner I4 , nous savons que : I40 , Fl◦ \  V4 \ Fl = I4 .  D'autre part, parce que Ik ⊂ V4 \ Fl pour tout k 6= l, nous avons : X 1≤k≤l−1  Ik ⊂ V4 \ Fl . (α) (β)  De plus, parce que Il ⊂ V4 \ Fl0 pour toute facette Fl0 6= Fl dans 4, on a : Il ⊂ \ l0 6=l   V4 \ Fl0 = I40 , Fl◦ . (γ) On en déduit que : P4 ⊂ P40 , Fl◦ On va démontrer l'autre inclusion : \ soit r ∈ P40 , Fl◦  Il , V4 \ Fl . \  Il , V4 \ Fl ,  P alors r = u + v = p + q, avec u ∈ 1≤k≤l−1 Ik , v ∈ I40 , Fl◦ , p ∈ Il , et  q ∈ V4 \ Fl . D'après (β) et (γ), on a Donc   (α) v − p = q − u ∈ V4 \ Fl ∩ I40 , Fl◦ = I4 . r = u + (v − p) + p ∈ X I k + I4 + I l = P 4 . \  Il , V4 \ Fl . 1≤k≤l−1 D'où, on a : P4 = P40 , Fl◦ 60 Idéaux binômiaux simpliciaux De l'hypothèse de récurrence on déduit que ! l−1 l−1 l−1 \ \ \ \ \ \ 0 ◦ 0 ◦ P4 = J i , Fl Jl = (Ji , Fl ) Jl = Ji Jl . i=1 i=1 i=1 La proposition est prouvée. 2 Corollaire 4.2.2. Pour l'idéal binômial simplicial B4 associé au p–complexe 4 nous avons : – Jl = (V4 \ Fl ) si Fl n'a de points marqués.  – Jl = 2 × 2 mineurs de la matrice Ml ; (V4 \ Fl ) , sinon. La décomposition primaire de B4 est B4 = Fl \ facette de 4 Jl . Remarque 4.2.3. Pour toute facette Fl , l'idéal Jl est premier et de dimension 1 + dl , où dl est la dimension de Fl . On en déduit un corollaire sur la dimension de B4 comme suit : Corollaire 4.2.4. dim(B4 ) = 1 + dim(4) = dim(I4 ). 4.3 Arbres, "Scrollers" ou "small variety" Dans cette section, nous allons étudier quelques propriétés géométriques des idéaux simpliciaux selon le point de vue abordé dans plusieurs articles récents par Barile–Morales, Eisenbud–Green–Hulek–Popescu, et M. Morales. D'abord, nous rappelons le théorème suivant de [EG] : Théorème 4.3.1. Soit R un anneau gradué standard réduit, définissant une variété algébrique projective. Alors nous avons la suite suivante d'implications : (1) R est un anneau de Cohen-Macaulay et e(R) = 1+codim R, où e(R) est la multiplicité de R et codim R sa codimension ; ⇒ (2) R a une résolution 2−linéaire ; ⇒ (3) r(R) = 1 ; ⇒ (4) e(R) ≤ 1 + codim R 4.3 Arbres, "Scrollers" ou "small variety" 61 D'autre part, si R est un anneau de Cohen–Macaulay, alors les quatre implications sont des équivalences. La définition suivante a été considérée par [BM3] et [EGHP] : Définition 4.3.2. Une suite (ordonnée) X1 , , Xl ⊂ Pr de sous variétés projectives irréductibles est linéairement jointe si pour tout i = 1, , l − 1 nous avons : Xi+1 ∩ (X1 ∪ ∪ Xi ) = span(Xi+1 ) ∩ span(X1 ∪ ∪ Xi ) où span(X) est le plus petit sous–espace linéaire de Pr contenant X. Cette notion a été considérée dans [BM3] de façon algébrique et dans le cadre suivant : Dans l'anneau de polynômes K[x(m) , y(m) , m = 1, , l] muni de la graduation standard, soit Im l'idéal engendré par les mineurs 2 × 2 de la matrice ! (m) (m) (m) (m) (m) (m) (m) x0 y i1 1 . . . y i1 j i y i2 1 . . . y i2 j i . . . y ikm 1 . . . y ikm j i k 1 2 m . Mm := (m) (m) (m) (m) (m) (m) . . . yi(m)2 . . . y i 1 1 y i 1 2 . . . xi 1 y i 2 2 . . . xi 2 x ikm km 0 Soit Xm la variété projective (non dégénérée) définie par l'idéal Im dans l'anneau des polynômes, dont les variables sont les entrées de la matrice Mm ; 0 et soit Xm la variété projective Xm plongée dans l'espace projectif associé à (m) (m) l'anneau de polynômes K[x , y , m = 1, , l]. L'idéal de définition Jm de Xm peut s'écrire Jm = (Im , Qm ). Remarquons que Qm est l'idéal définissant la variété linéaire span(Xm ). Notation 4.3.3. Dans cette section, pour un ensemble Q ⊂ K[x(l) , y(l) ], la notation hQi signifie le K–espace vectoriel de K[x(l) , y(l) ] engendré par Q, et (Q) est l'idéal engendré par Q. Pour établir que la suite X1 , , Xl ⊂ Pr de sous–variétés projectives irréductibles est linéairement jointe, d'après [BM3, page 163], il suffit d'établir que pour tout k = 1, , l : k−1 k−1 hQi i). Ji = (Qk ) + (∩i=1 Jk + ∩i=1 Dans cette situation, nous dirons que les idéaux J1 , , Jl sont linéairement joints. Exemple 4.3.4. Considérons les complexes simpliciaux 4 suivants, nous allons démontrer que les idéaux premiers associés à B4 sont linéairement joints. 62 Idéaux binômiaux simpliciaux b d b d a a c (4,1) a c b d c (4,2) (4,3) – Dans les deux cas (4, 1) et (4, 2), nous avons deux facettes F1 , F2 et V4 \ F1 = F2◦ , V4 \ F2 = F1◦ . Selon 4.2.2, l'idéal B4 a deux composantes irréductibles : B4 = (I1 , F2◦ ) ∩ (I2 , F1◦ ). Donc avec les notations ci–dessus, nous avons Q1 = F2◦ , et Q2 = F1◦ . D'autre part, par définition de I1 et I2 , nous avons que I1 ⊂ (F1◦ ), et I2 ⊂ (F2◦ ). Il en suit que (I1 , F2◦ ) + (I2 , F1◦ ) = (F2◦ ) + (F1◦ ) = (Q1 ) + (Q2 ). – Dans le cas (4, 3), nous avons trois facettes F1 , F2 , F3 , et V4 \ F1 = F2◦ ∪ F3◦ ∪ {c}, V4 \ F2 = F1◦ ∪ F3◦ , V4 \ F3 = F1◦ ∪ F2◦ ∪ {b}. Soient I1 , I2 , I3 , les idéaux engendré par les mineurs 2×2 des matrices :       b y1 yt c z1 zu a x1 xs , , , x1 x2 b y1 y2 c z1 z2 d La proposition 4.2.2 implique que B4 a trois composantes irréductibles : B4 = (I1 , F2◦ , F3◦ , c) ∩ (I2 , F1◦ , F3◦ ) ∩ (I3 , F1◦ , F2◦ , b). Donc avec les notations ci-dessus, nous avons Q1 = F2◦ ∪ F3◦ ∪ {c}, Q2 = F1◦ ∪ F3◦ , Q3 = F1◦ ∪ F2◦ ∪ {b}. D'autre part, par définition de I1 , I2 , I3 nous avons que I1 ⊂ (F1◦ ), I2 ⊂ (F2◦ ) + (b), I2 ⊂ (F2◦ ) + (c), I3 ⊂ (F3◦ ), il en suit que (I1 , F2◦ , F3◦ , c) + (I2 , F1◦ , F3◦ ) = (F2◦ ) + (F1◦ ) + (c) + (F3◦ ) = (Q1 ) + (Q2 ), 4.3 Arbres, "Scrollers" ou "small variety" 63 et (I3 , F1◦ , F2◦ , b) + (I1 , F2◦ , F3◦ , c) ∩ (I2 , F1◦ , F3◦ ) = = (I3 , F1◦ , F2◦ , b) + (I1 , I2 , F3◦ , (F1◦ ) ∩ (F2◦ , c)) = (F1◦ , F2◦ , b, F3◦ ). D'autre part, (Q3 ) + (hQ1 i ∩ hQ2 i) = (F1◦ ∪ F2◦ ∪ {b}) + (F3◦ ) D'où, finalement on a (I1 , F2◦ , F3◦ , c) + (I2 , F1◦ ) = (Q3 ) + (hQ1 i ∩ hQ2 i) ce qui complète la preuve. Il est à remarquer que le cas (4,3) avait été traité par [BM2]. Définition 4.3.5. Un d−arbre généralisé sur un ensemble V de sommets est un graphe defini récursivement par les propriétés suivantes : (a) Un graphe complet de d + 1 elements of V est un d−arbre généralisé. (b) Soit G un graphe sur un ensemble V de sommets. Supposons qu'il existe un sommet v ∈ V tel que : 1. La restriction G0 de G à V 0 = V \ {v} est un d−arbre généralisé, 2. Il y a un sous–ensemble V 00 ⊂ V 0 ayant exactement 1 ≤ j ≤ d sommets tel que la restriction de G to V 00 soit un graphe complet, et 3. G est le graphe engendré par G0 et le graphe complet sur V 00 ∪{v}. Le sommet v dans la définition ci–dessus sera appelé extremal. Si j = d dans la définition ci-dessus, alors nous dirons que G est un d−arbre. Remarque 4.3.6. Soit ∆(G) le "clique complex" de G, i.e. le complexe simplicial dont les sommets sont les sommets de G et les facettes sont les simplexes à support les sous–graphes complets de G. Dans [M2], M. Morales associe à ∆(G) un graphe H(G) dont les sommets sont les facettes de ∆(G) et deux facettes sont liées par une arête si et seulement si leur intersection est non vide. Il démontre que G est un d−arbre généralisé si et seulement si H(G) est un arbre. Nous pouvons énoncer les théorèmes suivants du à Fröberg [Fr] : 64 Idéaux binômiaux simpliciaux Théorème 4.3.7. L'anneau de Stanley–Reisner d'un complexe simplicial ∆ est un anneau Cohen-Macaulay de degré minimal si et seulement si 1. Le graphe G(∆) est un d−arbre, et 2. ∆ est le clique complex de G(∆), i.e. ∆ = ∆(G(∆)). Théorème 4.3.8. L'anneau de Stanley–Reisner d'un complexe simplicial ∆ a une résolution 2−linéaire si et seulement si 1. Le graphe G(∆) est un d−arbre généralisé, et 2. ∆ = ∆(G(∆)). Nous pouvons en partie étendre ces résultats pour les idéaux binômiaux simpliciaux : Théorème 4.3.9. Supposons que G4 soit un d−arbre généralisé, ayant l (m) (m) facettes. Pour chaque p–facette Fm ayant des arêtes propres hx0 , xi1 i, . . . , (m) (m) hx0 , xikm i, on se donne l'idéal premier Im dans l'anneau K[Fm ], engendré par les mineurs 2 × 2 de la matrice Mm . Soit B4 l'idéal de K[4] associé au p–complexe 4. Alors il y a un ordre dans les idéaux premiers associés de B4 de sorte qu'ils sont linéairement joints. De plus, l'idéal B4 admet une résolution 2−linéaire. Preuve : D'après la proposition 4.2.1, les idéaux premiers associés à  B4 sont Jm = Im , V4 \ Fm , pour m = 1, , l. Nous allons démontrer qu'il existe un ordre dans les facettes de 4, de sorte que la suite des idéaux J1 , , Jl soit linéairement jointe. La preuve est fortement inspirée de [M2], elle se fera par récurrence sur le nombre n de sommets de G4 . Nous allons également démontrer par récurrence la proprieté suivante qui sera utile dans la démonstration : ∩li=1 hV4 \ Fi i = 0. (∗4 ) Les premiers cas non triviaux sont pour n = 4 b d b d a a c (4,1) a c b d c (4,2) (4,3) Dans ces cas, nous avons vérifié le théorème cas par cas dans l'exemple 4.3.4. Cependant, il nous reste à vérifier dans chacun des cas la condition (∗4 ). 4.3 Arbres, "Scrollers" ou "small variety" 65 – Dans les deux cas (4, 1) et (4, 2), nous avons deux facettes F1 , F2 et hV4 \ F1 i ∩ hV4 \ F2 i = hF2◦ i ∩ hF1◦ i = 0. – Dans le cas (4, 3), nous avons trois facettes F1 , F2 , F3 et hV4 \ F1 i ∩ hV4 \ F2 i ∩ hV4 \ F3 i = hF2◦ ∪ F3 i ∩ hF1◦ ∪ F3◦ i ∩ hF1 ∪ F2◦ i = hF3◦ i ∩ hF1 ∪ F2◦ i = 0. Maintenant, supposons que le théorème et la condition (∗4 ) soient vrais pour n, nous montrons les pour n + 1. Parce que c'est un d−arbre généralisé il existe un sommet extremal z0 . Soit F la facette de G4 , contenant z0 . Soit l le nombre de facette de 4, notons les F1 , , Fl−1 , Fl avec Fl = F. Soit 40 le complexe simplicial dont les facettes sont F1 , , Fl−1 , et 40 le p–complexe correspondant. Par hypothèse de récurrence, il y a un ordre dans les facettes F1 , , Fl−1 de 40 tel que la suite des idéaux premiers associés à 40 soit linéairement jointe. Nous allons conclure en reprenant la démonstration de 4.2.1. Pour toute facette  (ou p–facette) Fm de 4, l'idéal correspondant Jm est Jm = Im , V4 \ Fm , et pour toute facette (ou p–facette) Fm de 40 , l'idéal correspondant Jm0 est  Jm0 = Im , V40 \ Fm . D'où, pour m = 1, , l − 1 on a : Jm = (Jm0 , Fl◦ ) . Nous rappelons que, par convention, Im = 0 si Fm n'a pas des points marqués. Par hypothèse de récurrence, pour tout k = 1, , l − 1 : k−1 0 k−1 Jk0 + ∩i=1 Ji = (Q0k ) + (∩i=1 hQ0i i) avec Q0k = V40 \ Fk . Or Qk = V4 \ Fk = V40 \ Fk ∪ Fl◦ , donc il en suit immédiatement que pour tout k = 1, , l − 1 : k−1 k−1 hQi i). Ji = (Qk ) + (∩i=1 Jk + ∩i=1 Il nous reste à démontrer que l−1 Jl + ∩l−1 i=1 Ji = (Ql ) + (∩i=1 hQi i). Mais  l−1 0 ◦ Jl + ∩l−1 i=1 Ji = Il + V4 \ Fl + ∩i=1 (Ji , (Fl )) , 66 Idéaux binômiaux simpliciaux  V et par hypothèse Il ⊂ ∩l−1 \ F ⊂ ∩l−1 i i=1 i=1 Ji , donc 4  l−1 0 ◦ Jl + ∩l−1 i=1 Ji = V4 \ Fl + ∩i=1 (Ji , (Fl )) . 0 ◦ Or B40 +(Fl◦ ) = ∩l−1 i=1 (Ji , (Fl )) , par la décomposition. De plus, par définition  Pl−1 P B40 = i=1 Ii + I40 . D'abord, par hypothèse l−1 Ii ⊂ V4 \ Fl , ensuite i=1  l'idéal monomial I40 est inclus dans V4 \ Fl , car autrement il y aurait un monôme générateur M de I40 dont le support H serait inclus dans Fl ∩ V40 et par définition d'un arbre le simplexe de support H est une face aussi bien de Fl que de 40 , ce qui contrédit le fait que M est un générateur de I40 . D'où D'autre part,  ◦ Jl + ∩l−1 i=1 Ji = V40 \ Fl + (Fl ) Ql = V4 \ Fl = V40 \ Fl et pour i = 1, , l − 1, Qi = V40 \ Fi ∪ Fl◦ . D'où l−1 ◦ ∩l−1 i=1 hQi i = ∩i=1 h V40 \ Fi ∪ Fl i l−1 ◦ hQi i = ∩l−1 ∩i=1 i=1 hV40 \ Fi i + hFl i. Comme la condition (∗40 ) est vraie, nous avons ∩l−1 i=1 hV40 \ Fi i = 0. D'où l−1 ∩i=1 hQi i = hFl◦ i et finalement ◦ hQl i ∩ ∩l−1 i=1 hQi i = hV40 \ Fl i ∩ hFl i = 0, qui est la propriété (∗4 ) pour le p–complexe 4. Puis, on a  l−1 (Ql ) + (∩i=1 hQi i) = V40 \ Fl + (Fl◦ ) . Nous pouvons conclure que  l−1 ◦ Jl + ∩l−1 i=1 Ji = (Ql ) + (∩i=1 hQi i) = V40 \ Fl + (Fl ) , ce qui termine la preuve de la récurrence et du théoréme. En particulier, la variété algébrique définie par l'idéal binômial simplicial B4 est un "scroller" (selon Barile-Morales [BM3] ) ou "small" (selon Eisenbud et als. [EGHP]), et a une résolution 2−linéaire. 4.4 Nombre de réduction 1 4.4 67 Nombre de réduction 1 Définition 4.4.1. Soit R un anneau de polynômes en n variables sur un corps K. Soit I ⊂ R un ideal gradué homogène pour la graduation standard et d = dim R/I. Un ensemble de formes linéaires {g1 , g2 , . . . , gd } est une réduction de R/I, si (g1 , g2 , . . . , gd )mρ = mρ+1 ( mod I) où m est l'idéal maximal de l'anneau de polynômes R. Le plus petit nombre ρ lorsque l'on considère toutes les réductions possibles est appelé le nombre de réduction de R/I. Dans [BM1], Barile et Morales ont décrit une classe des complexes simpliciaux dont l'idéal de Stanley–Reisner a le nombre de réduction 1. Rappelons d'abord quelques définitions. Définition 4.4.2. Une (d + 1)-coloration d'un graphe G est une partition de l'ensemble des sommets VG en d + 1 sous-ensembles, appelés classes de couleurs, telle que deux voisins dans G appartiennent à deux classes de couleurs différentes. Pour chaque sommet x ∈ G, notons C(x) la classe contenant x. Une (d + 1)-coloration de G est bonne si les sommets de chaque cycle appartiennent à au moins trois classes de couleurs différentes. Remarquons que cette définition a du sens uniquement pour d ≥ 2. Proposition 4.4.3. [BM1, Theorem 1.1] Soit 4 un complexe simplicial de dimension d. Notons R4 son anneau de Stanley–Reisner. Supposons que 4 admet une bonne (d + 1)–coloration. Notons C1 , C2 , . . . , Cd+1 les classes de couleurs et pour chaque i = 1, 2, . . . d + 1, posons X gi = x. xi ∈Ci Alors g1 , g2 , . . . , gd+1 est un système de paramètres de R4 . En particulier, le nombre de réduction de R4 est 1. Dans cette section, nous allons généraliser ce résultat pour les idéaux binômiaux simpliciaux. n o (l) (l) (l) (l) Notation 4.4.4. Soit Fl = x0 , xi1 , . . . , , xik , , xid une p–facette de 4. l l o n (l) (l) (l) (l) Notons hx0 , xi1 i, . . . , hx0 , xik i l'ensemble des arêtes propres avec des n l o (l) (l) (l) points marqués de Fl , et Il = x0 , xi1 , . . . , , xik . l 68 Idéaux binômiaux simpliciaux Pour les idéaux binômiaux simpliciaux, on n'a pas besoin de colorer tout G4 . En effet, pour chaque p–facette Fl , il suffit de colorer des points extremaux dans chaque bloc de la matrice associé à Fl . On construit un nouveau graphe Définition 4.4.5. Le graphe réduit, noté Ge4 , de G4 est donné par : – L'ensemble des sommets VGe se compose des points de 4 et des points 4 (l) marqués yij 1 (avec j ≥ 2) pour toute p–facette Fl . – L'ensemble des arêtes EGe se compose des arêtes sans points marqués 4 (l) (l) (l) (l) (l) (l) de 4 et des arêtes hx0 , xi1 i, hyij 1 , x0 i, et hyij 1 , xi2 i (avec j = 2, kl ) pour toute p–facette Fl . Exemple 4.4.6. Considerons le p–complexe suivant : a a e e z x z y y b f b d c pfacette f d c graphe réduit La p–facette F = [a, b, c, d] a des arêtes propres ha, bi, ha, ci, et ha, di. La matrice associé à F est   a x y z M= . x b c d Alors, le graphe réduit associé à cette p–facette est comme dans la figure. Nous avons la propositon suivante : Proposition 4.4.7. Supposons que G4 admette une bonne (d+1)–coloration. (l) (l) (l) (l) Si pour chaque p–facette Fl avec des arêtes propres hx0 , x1 i, hx0 , x2 i, . . . , (l) (l) (l) hx0 , xkl i, le point x0 n'appartient qu'à la facette Fl de 4, alors Ge4 admet une (d + 1)-coloration telle qu'il n'y a pas de cycle de deux couleurs (en fait, pas de cycle colorié par deux couleurs dans EGe ∩ E4 ), et pour chaque 4 p–facette Fl on ait : (l) (l) (l) (l) 1. C(x0 ) = C(xi2 ), 2. C(yij 1 ) = C(xij+1 ) pour tout (j = 2, kl − 1) 4.4 Nombre de réduction 1 69 (l) 3. card(C(yik 1 ) ∩ Fl ) = 1. l Soit C1 , C2 , . . . , Cd+1 les classes des couleurs. Posons X gi = x. xi ∈Ci Alors, on a : 2 , (g1 , g2 , . . . , gd+1 )m4 + B4 = m4 où m4 = (x, y) est l'idéal maximal de l'anneau de polynômes R := K[x, y]. En particulier, le nombre de réduction de R/B est 1. Avant de démontrer la proposition, on considère un exemple. Exemple 4.4.8. Le graphe réduit du p–complexe dans l'exemple 4.4.6 admet une bonne 4−coloration comme suit : a e rouge z vert y b d jaune bleu f c Une bonne 4 − coloration Les formes linéaires sont g1 = a + c, g2 = b + e, g3 = d + y, et g4 = f + z. Pour le monôme ab dans m2 , on a : ab = ag2 − ae ≡ ae = eg1 − ec. Comme ec ∈ B, on a ae ∈ (g1 , g2 , g3 , g4 )m + B. D'où, le monôme ab est dans (g1 , g2 , g3 , g4 )m + B aussi. Preuve de la proposition 4.4.7 : Pour avoir une (d + 1)–coloration pour (l) (l) (l) 4, il suffit de colorer x0 par la couleur de xi2 et colorer yij 1 par la couleur (l) (l) de xij+1 . Comme le point x0 n'appartient qu'à une facette Fl , ce changement ne touche pas l'hypothèse sur les couleurs des cycles dans EGe ∩ E4 . 4 Considérons un monôme xy ∈ m24 . On doit démontrer que : xy ∈ (g1 , g2 , . . . , gd+1 )m4 + B4 . (∗) La démonstration est divisée en plusieurs cas, n qui couvriront tous o les (m) (m) (m) cas. Nous noterons la mième p–facette par Fm = x0 , x1 , . . . , xdm ; et 70 Idéaux binômiaux simpliciaux rappelons que Im est l'idéal engendré par les mineurs 2 × 2 de la matrice : ! (m) (m) (m) (m) (m) (m) (m) x0 y i1 1 . . . y i1 j i y i2 1 . . . y i2 j i . . . y ikm 1 . . . y ikm j i k m . 2 1 Mm:= (m) (m) (m) (m) (m) (m) . . . y (m) . . . x y i 2 2 . . . xi 2 y i 1 1 y i 1 2 . . . xi 1 ikm 2 ikm Pour un point x, nous notons gx la somme des variables dans la même classe de couleur de x. 0-a) Si x et y ne sont pas dans une même p–facette alors xy ∈ B4 . 0-b) Si cardC(x) = 1 et y ∈ F ◦ , alors xy ≡ gx y ( mod B4 ). Donc, le monôme xy vérifie (∗). Ainsi, pour toute p–facette Fl , et pour tout (l) (l) (l) p ∈ Fl◦ et 0 6= j ∈ / Il , les monômes xi1 p et xj p et yik 1 p vérifient (∗). l I) Fl est une p–facette quelconque, et x = 6 y apparaı̂ssent dans la matrice Ml associé à Fl et xy 6= xil xim pour 1 ≤ l < m ≤ kl . II) x 6= y sont deux points coloriés dans Ge4 tels que hx, yi ∈ EGe ∩ E4 . i.e. 4 xy est l'un des monômes xl xm pour 1 ≤ l < m ≤ dl . III) Pour une variable quelconque x = y, . Le cas I : Dans ce cas, puisque xy n'est pas l'un des monômes xil xim avec (l) (l) 1 ≤ l < m ≤ kl , on peut supposer que x est un point sur l'arête hx0 , xim i et (l) (l) y est un point sur l'arête hx0 , xin i avec 1 ≤ m ≤ n ≤ k. On va démontrer (∗) par une récurrence descendante sur m et n. I-a) Si m = 1 et n = k, alors en utilisant les relations binomiales de la matrice Ml , on se ramène aux cas : (l) – xy ≡ xi1 p, avec p un point marqué dans Fl◦ ; ce cas a été traité dans 0 − b), (l) – xy ≡ pyik 1 , avec p un point marqué dans Fl◦ ; ce cas a été traité dans 0 − b), (l) (l) (l) (l) – xy = x0 yik 1 , on remplace yik 1 par gy(l) . Comme x0 n'appartient l l ik 1 l (l) qu'à Fl et par la coloration, Cy(l) ∩ Fl = {yik 1 }, on a : l ik 1 l (l) (l) (l) xy = x0 yik 1 = x0 gy(l) + B4 . l ik 1 l Donc (∗) est vraie pour le cas m = 1 et n = k. I-b) Supposons qu'il existe un couple m < n tel que (∗) soit vraie pour tous les couples (m0 , n0 ) où 1 ≤ m0 ≤ m < n ≤ n0 ≤ k, nous allons prouver que (∗) est vraie pour (m + 1, n) et pour (m, n − 1). I-b1) On va traiter d'abord, le cas (m + 1, n). En utilisant les relations binômiales de la matrice Ml , on se ramène aux cas : 4.4 Nombre de réduction 1 71 (l) (l) (l) – xy = xi(m+1) p avec p ∈ Fl◦ un point sur l'arête hx0 , xin i. (l) (l) (l) Dans ce cas, on a C(xi(m+1) ) ∩ Fl = {yim 1 , xim+1 }. Alors : (l) xi(m+1) p = gx(l) (l) i(m+1) p − yim 1 p + B4 . Par récurrence, (∗) est vraie pour le couple (m, n). D'où, le monôme (l) (l) yim 1 p est dans (g1 , g2 , . . . , gd+1 )m4 + B4 , donc xi(m+1) p l'est aussi. (l) (l) (l) – xy = qyin 1 avec q un point non colorié sur hx0 , xim+1 i, (l) (l) – xy = yim+1 1 yin 1 , qui ne peut pas être réduit par les relations binômiales . Nous traitons ces deux cas en même temps, dans le deuxième cas (l) (l) (l) nous posons q = yim+1 1 . Nous avons qyin 1 = qgy(l) − qxi(n+1) + B4 . in 1 Puis à nouveau en utilisant les relations binomiales de la matrice (l) (l) Ml , le monôme qxi(n+1) est équivalent à xi(m+1) p0 où p0 est un point (l) (l) (l) marqué sur hx0 , xi(n+1) i, ou à q 0 yi( n+1)1 avec q 0 un point marqué sur (l) (l) (l) hx0 , xi(m+1) i. Le monôme xi(m+1) p0 modulo (g1 , g2 , . . . , gd+1 )m4 +B4 , (l) devient yim 1 p0 , qui vérifie (∗) (parce que, par récurrence, (∗) est vraie (l) pour la couple (m, n + 1)). Il nous reste à traiter le cas q 0 yi( n+1)1 avec (l) (l) q 0 un point marqué sur hx0 , xi(m+1) i, qui après le même argument se (l) (l) (l) ramenera au cas q 0 yi( n+2)1 avec q 0 un point marqué sur hx0 , xi(m+1) i, (l) et ainsi de suite, comme le cas qyik 1 a été traité dans 0-b), on en déduit que xy vérifie (∗). Ainsi, (∗) est vraie pour (m + 1, n). I-b2) C'est pratiquement la même démonstration pour le couple (m, n − 1). En utilisant les relations binomiales de la matrice Ml , on se ramène au (l) (l) (l) cas : xy = xim p avec p ∈ Fl◦ un point sur l'arête hx0 , xi(n−1) i, ou xy = (l) (l) (l) (l) (l) qyi(n−1) 1 avec q un point non colorié sur hx0 , xim i, ou xy = yim 1 yin−1 1 , (l) (l) ou xy = x0 yin−1 1 si m = 1. Avec les arguments presque identiques au cas du couple (m + 1, n), on peut vérifier aussi que les trois premiers (l) (l) (l) monômes satisfont (∗). Pour le monôme xy = x0 yin−1 1 , comme x0 (l) n'appartient qu'à Fl , en remplaçant yin−1 1 par gy(l) in−1 1 (l) (l) (l) (l) xy = x0 yin−1 1 ≡ x0 xin 1 ( , on a : mod B4 ). (l) (l) Par récurrence, (∗) est vraie pour le couple (1, n), donc x0 xin 1 vérifie (l) (l) (∗). D'où, le monôme x0 yin−1 1 vérifie (∗) aussi. Ainsi, (∗) est vraie pour (m, n − 1). 72 Idéaux binômiaux simpliciaux Le cas II : xy est l'un des monômes xl xm pour 1 ≤ l < m ≤ dl . On remplace x par gx X xy = gx y − zy mod ((g1 , g2 , . . . , gd+1 )m4 + B4 ) z∈C(x), zy∈B / 4 D'après les cas 0) et I) seuls restent dans la somme les monômes yz, avec y et z dans une même p–facette Fm , pour lesquels hy, zi ∈ EGe ∩E4 . On va conti4 nuer de remplacer tous les termes yz par gy z en modulo (g1 , g2 , . . . , gd+1 )m4 + B4 : xy = X z ∈ C(x) yz ∈ / B4 = *** X y1 ∈ C(y) zy1 ∈ / B4 y1 z mod ((g1 , g2 , . . . , gd+1 )m4 + B4 ) Où à nouveau, d'après les cas 0) et I) seuls restent dans la somme les monômes y1 z, avec y1 , z dans une même p–facette Ft , pour lesquels hz, yi1 ∈ EGe ∩E4 . 4 S'il existe encore de monômes dans la somme, on va continuer de développer. On va démontrer que l'algorithme se termine après quelques étapes. Supposons au contraire que l'algorithme ne se termine jamais. Alors, il existe une chaı̂ne infinie de monômes xy, yz, zy1 , y1 z1 , . . . . Comme le nombre de variables est finie, il faut avoir un cycle dans cette chaı̂ne, c.-à-d. on a un cycle dans EGe ∩ E4 . De plus, chaque point de ce cycle est colorié par la 4 couleur de x ou par la couleur de y (ici, on a C(x) 6= C(y) parce que x et y forment une arête de Ge4 ), donc on obtient un cycle colorié par deux couleurs dans EGe ∩ E4 . C'est une contradiction avec le fait que Ge4 admet une bonne 4 coloration. D'où, l'algorithme se termine, c.-à-d. : xy ∈ (g1 , g2 , . . . , gd+1 )m4 + B4 . Le cas III) : Pour terminer la démonstration, on considère le cas x = y. (l) • Le cas III-a) : x est un point marqué yij m avec m ≥ 2. (l) En utilisant les relations binômiales, on se ramène au cas yij 1 p, ou au (l) (l) (l) cas pxij avec p un point marqué sur hx0 , xij i. Donc on revient sur les cas précédants. (l) • Le cas III-b) : x = yij 1 pour un j ∈ Il . 4.4 Nombre de réduction 1 On a : 73 (l) (l) (l) (l) (yij 1 )2 = gy(l) yij 1 − xij+1 yij 1 + B4 . ij 1 (l) (l) (l) De nouveau, le cas I) implique que xij+1 yij 1 vérifie (∗), donc (yij 1 )2 vérifie (∗) aussi. • Le cas III-c) : x = xj . On remplace xj par gxj : x2 = x j g x j − X p∈C(xj ), xj p∈B / 4 xj p + B4 . Parce que p et xj sont de même couleur et se trouvent dans une même p– facette, ils ne forment pas une arête de Ge4 . Donc pxj a été considéré dans le cas I). Ainsi, on a x2 vérifie (∗). La proposition est donc prouvée. 2 Remarque 4.4.9. La démonstration précédente étend au cas des idéaux binômiaux simpliciaux le principal résultat de [BM2]. Le problème rencontré dans cette extension consiste dans la compatibilité entre la coloration d'un complexe simplicial et les matrices Ml . (l) Exemple 4.4.10. Sans l'hypothèse que x0 n'appartient pas qu'à Fl , la proposition précédente n'est plus valable. Considérons le p–complexe suivant : e y a b t f z x d b q j r j b u p h v v c g b v Les matrices associées aux p–facettes sont :   a y x M1 := y h d associée à la p–facette [o, a, h, d] avec des point marqués x, y ;   b t z M2 := t e a j 74 Idéaux binômiaux simpliciaux associée à la p–facette [o, b, e, a] avec des point marqués z, t ;   c v u M3 := v f b associée à la p–facette [o, c, f, b] avec des point marqués u, v ; et   d q p M4 := q g c associée à la p–facette [o, d, g, c] avec des point marqués p, q. Il est facile de vérifier que la coloration de 4 par 4 couleurs : rouge (r), vert (v), bleu (b), et jaune (j) précédent est bonne. Cependant, s'il existe une coloration pour Γ qui satisfait l'hypothèse de la proposition 4.4.7, alors les points a, b, c, d sont forcement de même couleur, et la classe de couleur de o ne contient qu'un point unique : o. Donc, nous disposons seulement de deux couleurs pour colorer les points e, f , g, h, x, z, u, et p. D'où, entre ces huit points il existe au moins quatre points de même couleur, notons les α1 , α2 , α3 , α4 . De plus, il faut noter que les couleurs de e et z sont différentes. Ainsi que les couleurs de f et u, de g et p, de h et x. Cela implique que α1 , α2 , α3 , α4 appartiennent à quatre p–facettes différentes. Alors, les points α1 , α2 , α3 , α4 , et a, b, c, d fabriquent un cycle qui est colorié par deux couleurs. On a une contradiction avec la définition de bonne coloration. C'est-à-dire, il n'existe pas une bonne 4–coloration pour Γ. 2 Dans la section précédente, on a vu que si G4 est un d–arbre généralisé, alors B4 admet une résolution 2–linéaire, et donc le nombre de réduction de R/B est 1. Le but de la proposition suivante est de donner une expression explicite de la réduction. Proposition 4.4.11. Supposons que G4 soit un d–arbre généralisé. Alors Ge4 admet une bonne (d + 1)–coloration telle que pour chaque p–facette F l de 4, on ait : (l) (l) (l) (l) 1. C(x0 ) = C(xi2 ), 2. C(yij 1 ) = C(xij+1 ) pour tout (j = 2, kl − 1) (l) 3. card(C(yik 1 ) ∩ Fl ) = 1. l Soit C1 , C2 , . . . , Cd+1 les classes des couleurs. Posons X gi = x. xi ∈Ci 4.4 Nombre de réduction 1 75 De plus, on a : 2 (g1 , g2 , . . . , gd+1 )m4 + B4 = m4 , où m4 = (x, y) est l'idéal maximal de l'anneau de polynômes R := K[x, y]. Preuve : On va démontrer la proposition par récurrence sur le nombre l de facettes de 4. • l = 1 : La proposition est évidente si la facette n'a pas de points marqués. Supposons que c'est une p–facette F = {x0 , x1 , . . . , xd } avec les points marqués yjm sur les arêtes hx0 , xj i (j = 1, k avec 1 ≤ k ≤ d). Dans ce cas, les classes de couleurs sont : C1 = {x1 }, Cj = {y(j−1)1 , xj }, pour tout j = 3, k, Cn = {xn−1 }, pour tout n = k + 2, d + 1. C2 = {x0 , x2 }, Ck+1 = {yk1 }, Ce cas a été traité dans [BM2]. D'où, la proposition est vraie pour l = 1. • Supposons que la proposition soit vraie pour l ≥ 1, montrons la pour l + 1. Comme G4 est un d–arbre généralisé, il possède un sommet extremal, notons le u. Soit F la facette de 4 contenant u. Considerons 40 le p–complexe construit par les l facettes différentes de F dans 4. On pose U = F ∩ V40 . D'après la remarque 4.3.6, le graphe G40 est aussi un d–arbre généralisé. Par g récurrence, le graphe G 40 admet une bonne (d + 1)–coloration comme dans 2 la proposition, et pour tout xy ∈ m4 0 , on a : 0 xy ∈ (g10 , g20 , . . . , gd+1 )m40 + B40 , où Ci0 , gi0 sont la ième classe de couleur et la somme correspondante. Nous avons deux cas : 1. F est une facette sans points marqués de 4. 2. F est une p–facette de 4 et les points marqués sont sur les arêtes liés à x0 , notons-les hx0 , x1 i, . . . , hx0 , xl i (1 ≤ l ≤ d). Pour chaque cas, on va colorier u ainsi que les points dans F ◦ (si F est une p–facette), et on va définir les sommes gi . Premier cas : On peut supposer que F = {u, x1 , x2 , . . . , xk }, et U = {x1 , x2 , . . . , xn } (1 ≤ n ≤ k ≤ d), et xi ∈ Ci0 pour tout i = 1, n. Pour obtenir une (d+1)–coloration vérifiant la proposition, il suffit de colorier u et les points xi ∈ / U par des couleurs quelconques Cj0 avec j > n. Par 76 Idéaux binômiaux simpliciaux exemple, on peut colorier xi par la ième couleur (∀i = n + 1, k), et u par la (d + 1)ème couleur. Donc, on a : Ci = Ci0 et gi = gi0 pour tout i = 1, n ou i = k + 1, d, Cj = Cj0 ∪ {xj } et gj = gj0 + xj , j = n + 1, k, 0 0 Cd+1 = Cd+1 ∪ {u} et gd+1 = gd+1 + u. Remarquons que pour tout j le support de gj − gj0 est inclus dans F ◦ . 2 . Il faut démontrer que Considerons un monôme xy ∈ m4 xy ∈ (g1 , g2 , . . . , gd+1 )m4 + B4 . (∗) Traitons précisement toutes les situations. – x, y ∈ F ◦ := {u, xn+1 , . . . , xk }. Alors, C(x) ∩ F ne contient que x. Donc on a yp ∈ B4 pour tout p ∈ C(x) et p 6= x. Ceci implique que xy = ygx + B4 . C'est-à-dire xy vérifie (∗). – x ∈ F ◦ et y ∈ / F ◦ : Dans ce cas xy ∈ B4 sauf si y = xi ∈ U. Si c'est le cas, parce que Ci ∩ F = {xi } et x ∈ F ◦ , on a aussi que xy = xxi = xgi + B4 . – x, y ∈ / F ◦ : Alors x et y sont dans Ge40 . Par récurrence, on a : xy = d+1 X i=1 avec mi ∈ m40 . Mais d+1 X i=1 mi gi0 = mi gi0 ( mod B40 ), d+1 X i=1 mi g i − d+1 X i=1 mi (gi − gi0 ). Or mj ∈ m40 , et d'après le cas précédent nous avons yz vérifie (∗) pour tout y ∈ V40 , z ∈ F ◦ . Ainsi, le monôme xy aussi vérifie (∗). On termine donc le cas où F n'est pas une p–facette. Deuxième cas : On peut supposer que F ∩ V4 = {x0 , x1 , x2 , . . . , xk } (1 ≤ l ≤ k ≤ d). D'abord, il faut remarquer que les arêtes propres de F n'appartiennent pas à 40 , c.à-d. soit x0 ∈ F ◦ , soit xi ∈ F ◦ pour tout i = 1, l. La matrice associée à F est de la forme   x0 y11 . . . y1j1 y21 . . . y2j2 . . . yl1 . . . yljl . M := y11 y12 . . . x1 y22 . . . x2 . . . yl2 . . . xl a) x0 ∈ F ◦ , i.e x0 ∈ / U : Pour colorier Ge4 , on donne à chaque point x dans V4 \ {U, x0 } une couleur qui n'est pas utilisée pour U , et on donne : 4.4 Nombre de réduction 1 77 – à x0 la couleur de x2 ; – à y(j−1)1 la couleur de xj pour tout j = 3, l. – à yl1 la (k + 1)ième couleur. On peut supposer que xi ∈ Ci0 pour tout i = 1, k. Alors, on a g2 g2 gj gj gn gi gk+1 = = = = = = = g20 + x0 , si x2 ∈ U, g20 + x2 + x0 , si x2 ∈ / U; gj0 + y(j−1)1 pour tout j = 3, l et xj ∈ U ; gj0 + xj + y(j−1)1 pour tout j = 3, l et xj ∈ / U; 0 gn + xn pour tout n = 1, n = l + 1, k et xn ∈ / U; 0 gi pour les autres couleurs ; 0 gk+1 + yl1 . Remarquons que pour tout j le support de gj − gj0 est inclus dans F ◦. Comme dans le cas précédent, on va vérifier (∗) pour tout monôme xy ∈ m24 . Nous avons les cas suivants : • x 6= y, x et y apparaı̂ssent dans M et xy 6= xm xn : Remarquons que l'on a x0 ∈ F ◦ , donc les arguments utilisés dans la démonstration de la proposition précédente sont applicables ici. Alors, ce cas est vérifié. • x 6= y, x ∈ F ◦ , et y n'apparaı̂t pas dans M : Il suffit de vérifier le cas où y = xj avec k ≥ j ≥ l + 1, car sinon on a y ∈ / F, donc xy ∈ B4 . Soit y = xj , alors la classe de couleur Cj de xj ne contient pas d'autre point de F autre que xj , alors, on a : xy = xgj + B4 . Ceci implique que xy vérifie (∗). • x, y ∈ V40 : Par récurrence, on a : xy = d+1 X mi gi0 ( mod B40 ), d+1 X mi gi0 ( mod B40 ), i=1 avec mi ∈ m40 . D'où, Par récurrence, on a : xy = i=1 avec mi ∈ m40 . 78 Idéaux binômiaux simpliciaux Mais d+1 X i=1 mi gi0 = d+1 X i=1 mi g i − d+1 X i=1 mi (gi − gi0 ). Or mj ∈ m40 , et d'après le cas précédent nous avons yz vérifie (∗) pour tout y ∈ V40 , z ∈ F ◦ . Ainsi, le monôme xy aussi vérifie (∗). • x = y ∈ F ◦ : Dans ce cas, si de plus x n'est pas colorié, en utilisant les relations binômiales de M , on se ramène aux cas précédents. Si x est colorié, on remplace x par la somme gx de toutes les variables dans la classe P de couleurs de x, on se ramène au cas x 6= y : xy = gx y − p∈C(x),p6=x py. On en déduit que xy vérifie (∗). b) x0 ∈ / F ◦ : Alors, xi ∈ F ◦ pour tout i = 1, l. On peut supposer que U = {x0 , xm , . . . , xk } avec l < m ≤ k, et que xj ∈ Cj pour tout j = m, k, et x0 ∈ C2 . On pose : C1 C2 Ci Cn Cj Ck+1 = = = = = = C10 ∪ {x1 }; C20 ∪ {x2 }; Ci0 ∪ {xi , y(i−1)1 } pour tout i = 3, l; Cn0 ∪ {xn } pour tout n = l + 1, m − 1; Cj0 pour tout j ≥ m; 0 ∪ {yl1 }. Ck+1 Alors, on a g1 g2 gi gn gj gk+1 = = = = = = g10 + x1 ; g20 + x2 ; gi0 + xi + y(i−1)1 pour tout i = 3, l; gn0 + xn pour tout n = l + 1, m − 1; gj0 pour tout j ≥ m et j 6= k + 1; 0 gk+1 + yl1 . Maintenant, on va vérifier (∗) pour tout monôme xy ∈ m24 . Comme dans le cas a), nous avons les cas suivants : • x 6= y, x et y apparaı̂ssent dans M : Supposons que x est dans le mème bloc, et que y est dans le nème bloc (1 ≤ m ≤ n ≤ l) de la matrice M. On va démontrer (∗) par récurrence sur m et n. – Si m = 1 et n = k, alors en utilisant les relations binomiales de la matrice M, on a – soit xy ≡ x1 p, 4.4 Nombre de réduction 1 79 soit xy ≡ pyl1 avec p est un point marqué dans F ◦ ; ou xy = x0 yl1 , ou xy = x1 xl . Dans le premier cas, comme C1 ∩F = {x1 } et que p ∈ F ◦ , on a : qp ∈ B4 ∀q ∈ C1 et q 6= x1 . Donc x1 p ≡ g1 p mod(B4 ). – De même pour le deuxième cas, comme Ck+1 ∩ F = {yl1 }, on a aussi que pyl1 ≡ pgk+1 mod(B4 ). – Pour le monôme xy = x0 yl1 , on remplace x0 par g2 . Car yl1 ∈ F ◦ et par a coloration, C2 ∩ F = {x0 , x2 }, on a : – – – – xy = g2 yl1 − x2 yl1 + B4 . Mais on a aussi que x2 ∈ F ◦ , donc x2 yl1 ≡ x2 gk+1 (mod B4 ). Ainsi, le monôme x0 yl1 vérifie (∗). – Pour le monôme x1 xl . Parce que xl ∈ F ◦ et C1 ∩F = {x1 }, on a x1 xl ≡ g1 xl (mod B4 ). D'où (∗) est vraie pour le cas m = 1 et n = k. – Supposons que (∗) soit vraie pour le couple (1, m) (1 < m ≤ l), nous allons prouver que (∗) est vraie pour (1, m − 1). En utilisant les relations binômiales de la matrice M, on se ramène aux cas : – xy = x1 p avec p ∈ F ◦ un point marqué dans le bloc m−1, – ou xy = qy(m−1)1 avec q ∈ F ◦ un point non colorié dans le premier bloc, – ou xy = x0 y(m−1)1 , – ou xy = x1 xm−1 . – Pour le premier et le dernier cas où x = x1 , comme p et xm−1 sont dans F ◦ , et que C1 ∩ F = {x1 } on a : xy = x1 y ≡ g1 y (mod B4 ). – Pour le deuxième cas, en remplaçant y(m−1)1 par gm , comme q ∈ F ◦ , on a : qy(m−1)1 ≡ qgm − qxm (mod B4 ), tandis que qxm vérifie (∗) par récurrence. – Pour le troisième monôme, parce que y(m−1)1 ∈ F ◦ , on a : x0 y(m−1)1 ≡ g2 y(m−1)1 − x2 y(m−1)1 . Puis, parce que x2 ∈ F ◦ , on a : x2 y(m−1)1 ≡ x2 gm − x2 xm . Mais on a aussi que xm ∈ F ◦ , donc x2 xm ≡ xm g2 − x0 xm . Par récurrence, on a que x0 xm vérifie (∗). Ainsi, le monôme x0 y(m−1)1 vérifie (∗) aussi. 80 Idéaux binômiaux simpliciaux Remarquons que le cas m − 1 = 1 néccessite quelques notations adéquates, mais se traite de la même façon. D'où (∗) est vraie pour (1, m − 1). – Supposons qu'il existe un couple (m, n) avec m < n tel que (∗) est vraie pour (m, n), nous allons prouver que (∗) est vraie pour (m + 1, n). En utilisant les relations binomiales de la matrice M, on se ramène aux cas : xy = x(m+1) p avec p ∈ F ◦ est un point dans le nème bloc, ou xy = qyn1 avec q ∈ F ◦ est un point marqué dans le (m + 1)ème bloc, ou xy = xm+1 xn . – Dans le premier cas, on a Cm+1 ∩ F = {ym1 , x(m+1) }. Alors : x(m+1) p = gm+1 p − ym1 p + B4 . Par récurrence, (∗) est vraie pour le couple (m, n). D'où, le monôme ym1 p est dans (g1 , g2 , . . . , gd+1 )m4 +B4 , donc (l) xi(m+1) p vérifie (∗) aussi. – Dans le deuxième cas, on remarque que qyn1 = qgn−1 − qx(n+1) +B4 . Puis à nouveau après modulo B4 , le monôme qx(n+1) est équivalent à x(m+1) p0 avec p0 un point marqué dans le (n + 1)ème , ou à q 0 y(n+1)1 avec q 0 un point marqué dans le (m + 1)ème bloc. Après modulo (g1 , g2 , . . . , gd+1 ) m4 + B4 , le monôme x(m+1) p0 devient ym1 p0 , qui vérifie (∗) (parce que, par récurrence, (∗) est vraie pour la couple (m, n + 1)). Comme qyl1 = qyk+1 (mod B4 ), on en déduit que xy vérifie (∗). – Dans le dernier cas, parce que xn ∈ F ◦ , après remplaçant xm+1 par gm+1 , on a : xm+1 xn = gm+1 xn − ym1 xn (mod B4 ). Par récurrence, le monôme ym1 xn vérifie (∗). On déduit que xm+1 xn vérifie aussi (∗). Ainsi, (∗) est vraie pour (m + 1, n). • x 6= y, x ∈ F ◦ et y n'apparaı̂t pas dans M : Il suffit de considerer le cas y = xi avec i > l. On a alors Ci ∩ F = {xi }. Donc, en remplaçant xi par gi , on obtient xy ≡ xgi (mod B4 ). • x = x0 et y = xi avec l + 1 ≤ i ≤ m − 1 : Dans ce cas y ∈ F ◦ , donc xy ≡ g2 y − x2 y. On revient sur le cas précédent où x ∈ F ◦ et y n'apparaı̂t pas dans M . 4.4 Nombre de réduction 1 81 • x, y ∈ V40 : Par récurrence, on a : xy = d+1 X mi gi0 ( mod B40 ), d+1 X mi gi0 ( mod B40 ), i=1 avec mi ∈ m40 . D'où, Par récurrence, on a : xy = i=1 avec mi ∈ m40 . Mais d+1 X i=1 mi gi0 = d+1 X i=1 mi g i − d+1 X i=1 mi (gi − gi0 ). Or mj ∈ m40 , et d'après le cas précédent nous avons yz vérifie (∗) pour tout y ∈ V40 , z ∈ F ◦ . Ainsi, le monôme xy aussi vérifie (∗). • x = y ∈ F ◦ : Dans ce cas, si de plus x n'est pas colorié, en utilisant les relations binômiales de M , on se ramène aux cas précédents. Si x est colorié, on remplace x par la somme gx de toutes les variables dans la classe P de couleurs de x, on se ramène au cas x 6= y : xy = gx y − p∈C(x),p6=x py. On en déduit que xy vérifie (∗). D'où la proposition. 2 82 Idéaux binômiaux simpliciaux Bibliographie [BM1] Barile M., Morales M., On Stanley-Reisner Rings of Reduction Number One, Ann. Sc.Nor. Sup. Pisa, Serie IV. Vol. XXIX Fasc. 3. (2000), 605 – 610. [BM2] Barile M., Morales M., On certain algebras of reduction number one, J. Algebra 206 (1998), 113 – 128. [BM3] Barile M., Morales M., On unions of scrolls along linear spaces, Rend. Sem. Mat. Univ. Padova, 111 (2004), 161 – 178. [BM4] Barile M., Morales M., On the equations defining minimal varieties, Comm. Alg., 28 (2000), 1223 – 1239. [Br] Bresinsky H., Free resolutions of monomial curves in P3 , Linear Algebra and Appl. 59 (1984), 121 - 129. [BH] Bruns W., Herzog J., Semigroup rings and simplicial complexes, J. Pure and Applied Algebra 122 (1997), 185 – 208. [BE1] Buchsbaum D. , Eisenbud D., Algebra structures for finite free resolutions, and some structure theorems for ideals of codimension 3, Amer. J. Math. 99 (1977), 447 - 485. [BE2] Buchsbaum D., Eisenbud D., What makes a complex exact ? J. Algebra 25 (1973), 259 - 268. [CM] Campillo A., Marijuan C., Higher order relations for a numerical semigroup, Sém. Théor. Nombres Bordeaux (2) 3 (1991), 249–260. [CZ] Cortadellas T. and Zarzuela S., On the depth of the fiber cone of filtrations, J. Algebras 198 (1997), 428 - 445. [CN] Cowsik R.C., Nori M.V., On the fibers of blowing up, J. of the Indian Math. Soc., 40 (1976), 217 - 222. [DRV] D'Cruz C., Raghavan K. N, Verma J. K.,Cohen-Macaulay fiber cones, Commutative algebra, algebraic geometry, and computational methods (1996), 233–246, Springer, Singapore (1999). 84 BIBLIOGRAPHIE [EGHP] Eisenbud D., Green M., Hulek K., Popescu S., Restricting linear syzygies : algebra and geometry, Compos. Math. 141 (2005), no. 6, 1460–1478. [EG] Eisenbud D., Goto S., Linear free resolutions and minimal multiplicity, J. Algebra 88 (1984), 89 – 133. [EH] Eisenbud D., Huneke C., Cohen-Macaulay Rees algebras and their specialization, J. Algebra 81 (1983), no. 1, 202 - 224. [ES] Eisenbud D., Sturmfels B., Binomial ideals, Duke Math. J. 84 (1996), no. 1, 1–45. [Fr] Fröberg R, On Stanley – Reisner rings, Banach Center Publ. 26, Part 2 (1990), 57 – 70. [GMS] Gimenez Ph., Morales M., Simis A., The analytical spread of the ideal of codimension 2 mononial varieties, Result. Math. Vol 35 (1999), 250 - 259. [HRZ] Herrmann M., Ribbe J., Zazuela S., On Rees and Form rings of almost complete intersections, Com. in Algebra, 21(2) (1993), 647 664. [He] Herzog J., Generators and relations, Manuscr. Math. 3 (1970), 23 26. [HH] Huckaba S., Huneke C., Rees algebras of ideals having small analytic deviation, Trans. Amer. Math. Soc. 339 (1993), 373 - 402. [Hü] Hübl R., Evolutions and valuations associated to an ideal, J. reine angew. Math. 517 (1999), 81 - 101. [Ma] Matsumura H., Commutative Algebra, Math. Lecture Notes Series, 1980. [M1] Morales M., Equations des variété monomiales en codimension deux, J. Algebra 175 (1995), 1082 - 1095. [M2] Morales M., Set theoretic complet intersection for monomial and binomial ideals, en préparation. [MS] Morales M., Simis A., Symbolic Powers of Monomial Curves in P3 lying on a Quadric Surface, Comm. in Algebra 20(4) (1992), 1109 - 1121. [PS] Peeva I., Sturmfels B., Syzygies of codimension 2 lattice ideals, Mathematische Zeitschrift 229 (1998), 163 - 194. [St] Stanley R.P, Combinatorics and Commutative Algebra, Progress in Mathematics, Vol 41, Birkhauser. [Va] Valla G., On the Symmetric and Rees algebras of an ideal, Manuscripta Math. 30 (1980), 239 - 255. BIBLIOGRAPHIE [Vas] 85 Vasconcelos W. V., Arithmetic of Blow-up Algebras, London Math. Soc., Lecture Note Series 195, Cambridge Uni. Press, Cambridge (1994).
{'path': '57/tel.archives-ouvertes.fr-tel-00179342-document.txt'}
Rôle de l'équilibre sagittal dans la survenue du syndrome du segment adjacent après arthrodèse rachidienne Paul Etchart To cite this version: Paul Etchart. Rôle de l'équilibre sagittal dans la survenue du syndrome du segment adjacent après arthrodèse rachidienne. Médecine humaine et pathologie. 2017. dumas-01651989 HAL Id: dumas-01651989 https://dumas.ccsd.cnrs.fr/dumas-01651989 Submitted on 29 Nov 2017 Rôle de l'équilibre sagittal dans la survenue du syndrome du segment adjacent après arthrodèse rachidienne Paul Etchart To cite this version: Paul Etchart. Rôle de l'équilibre sagittal dans la survenue du syndrome du segment adjacent après arthrodèse rachidienne. Médecine humaine et pathologie. 2017. <dumas-01651989> HAL Id: dumas-01651989 https://dumas.ccsd.cnrs.fr/dumas-01651989 Submitted on 29 Nov 2017 Université de Bordeaux U.F.R des Sciences Médicales Année 2017 Thèse n° 3134 Thèse pour l'obtention du Diplôme d'Etat de Docteur en Médecine Présentée et soutenue publiquement le 02/10/2017 par Paul ETCHART né le 30/10/1988 à Biarritz Titre de la thèse ROLE DE L'EQUILIBRE SAGITTAL DANS LA SURVENUE DU SYNDROME DU SEGMENT ADJACENT APRES ARTHRODESE RACHIDIENNE Directeur de thèse Monsieur le Docteur Benjamin DALLAUDIERE Jury Monsieur le Professeur Olivier HAUGER, président Monsieur le Professeur Jean-Charles LE HUEC Monsieur le Professeur Nicolas SANS, rapporteur Monsieur le Professeur Christophe RICHEZ Monsieur le Docteur Philippe MEYER Monsieur le Docteur Benjamin DALLAUDIERE Université de Bordeaux U.F.R des Sciences Médicales Année 2017 Thèse n°3134 Thèse pour l'obtention du Diplôme d'Etat de Docteur en Médecine Présentée et soutenue publiquement le 02/10/2017 par Paul ETCHART né le 30/10/1988 à Biarritz Titre de la thèse ROLE DE L'EQUILIBRE SAGITTAL DANS LA SURVENUE DU SYNDROME DU SEGMENT ADJACENT APRES ARTHRODESE RACHIDIENNE Directeur de thèse Monsieur le Docteur Benjamin DALLAUDIERE Jury Monsieur le Professeur Olivier HAUGER, président Monsieur le Professeur Jean-Charles LE HUEC Monsieur le Professeur Nicolas SANS, rapporteur Monsieur le Professeur Christophe RICHEZ Monsieur le Docteur Philippe MEYER Monsieur le Docteur Benjamin DALLAUDIERE 1 REMERCIEMENTS A Monsieur le Professeur Olivier Hauger, Je vous remercie d'avoir accepté de présider ce jury de thèse. Votre regard et votre expertise me semblent indispensables pour juger ce travail. Je vous remercie également pour ce que vous m'avez appris durant mon passage dans votre service en tant qu'interne et ce que vous m'apprendrez encore durant mon clinicat. Soyez assuré de mon profond respect. A Monsieur le Professeur Jean-Charles Le Huec, Je vous remercie de me faire l'honneur d'être membre du jury de cette thèse. Au regard de vos connaissances, de votre expérience et de vos travaux sur l'équilibre rachidien, votre présence au sein de ce jury est capitale. Je vous remercie également de votre disponibilité pour toujours répondre au pied levé à mes questions sur ce travail. A Monsieur le Professeur Nicolas Sans, Merci de me faire l'honneur de venir à Bordeaux afin de faire partie du jury et également d'avoir accepté d'être le rapporteur de cette thèse. Merci d'avoir rendu très rapidement votre avis. Vos connaissances sont précieuses dans l'analyse de ce travail. A Monsieur le Professeur Christophe Richez, Je vous suis extrêmement reconnaissant d'avoir immédiatement accepté d'être membre du jury de cette thèse. Merci d'apporter un regard avisé sur cette problématique. A Monsieur le Docteur Philippe Meyer, Merci d'avoir accepté d'être membre du jury. Merci également pour tout ce que tu m'as montré et appris pendant mes six mois de stage à la clinique. A Monsieur le Docteur Benjamin Dallaudière, Merci d'avoir accepté d'être mon directeur de thèse, de m'avoir aiguillé tout au long de ce travail, de m'avoir fait découvrir des compétences informatiques insoupçonnées. Merci pour ces six mois à la clinique du sport où j'ai appris beaucoup dans une excellente ambiance et surtoutoù j'ai découvert le meilleur flan au monde. 2 A tous les médecins que j'ai cotoyés à Bayonne, à Pau, à la clinique du sport, à l'hôpital des enfants, à Pellegrin ou à Haut-Lévêque, merci pour toutes les connaissances que vous m'avez transmises durant ces cinq années d'internat, merci pour votre bienveillance. Notamment Pierre Bessou (pour toujours essayer de nous intruire), Olivier Corneloup (pour éveiller nos papilles gustatives), Lionel (pour tous les loisirs communs), Amaury, Bruno, Delphine, Eric, Nicolas, Marie-Hélène, Maryse, Régis, les Paul, Mathieu, l'équipe de Gastro de Pau. A tous mes cointernes, merci d'avoir rendu ces 5 ans agréables. Merci à tous ceux que j'ai croisés de près ou de loin. Merci à l'équipe d'anapath : Sandra, Camille, Damien, Hélène (interne la plus bosseuse que j'ai croisée dans tout mon cursus), Julia (l'aînée), Julien (pardon de rouler en Peugeot et désolé pour les roustes au bad mais non c'était pas la faute des lunettes) ; Axelle (la maman), les Julia allemandes (qui m'ont appris l'allemand, enfin surtout les jurons), Dr Charles (pour un semestre en gastro où on a bien progresséen ping-pong), Agnès (pour le semestre palois), Amandine, Schwartzy, Thibaut A, Sarah. Une pensée particulière à Alexis Couscous (référent mais surtout toujours de bonne humeur, par contre entraîne-toi au padel), Amélie (ex-référente, toujours prête à se mettre en 4, même des fois en 8), ChrisF (toujours un plaisir de te voir pour quelques anecdotes croustillantes), Louis Pin et John (merci d'avoir rempli ma fiche syndrome adjacent), MarieCharlotte (merci de nous faire croire que les blagues les plus pourries sont marrantes), Clémence (merci de nous faire croire que les blagues les plus pourries sont pourries), aux internes plus vieux devenus chefs : notamment François PetitP , Antoine B, Sylvain B, Alexis G, François M, Marjorie S. A Nico (sans oublier Delphine), merci d'avoir pris du temps pour m'expliquer tes stats, qui sait peut-etre qu'un jour j'aurai la médaille Fields. A Clément M, le FAUX méchant avec qui on a partagé pas mal de bons moments (du ski en jean aux visites nocturnes de Bordeaux en caddies). Merci à Jean-to mon futur co-chef , je suis certain que les six prochains mois vont être tellement agréables qu'au mercato 2018, tu vas signer une prolongation de contrat de 2 ans au FC Pellegrin. A ceux de ma promo, merci d'avoir rendu les soirées bien arrosées, en détail : à Adrian, avec qui j'ai partagé le plus de stages et également le plus de chambrages en tous genres, à toutes les soirées durant tout l'internat (enfin surtout au début), les bons plans en tous genres et les acrobaties, à Niveto et Dudu (le cardio/radio) merci pour le super appart rue des remparts qu'on aimait tellement retourner, à Flow G inventeur hors pair d'excuses en tous genres (« ce soir je pense pas, le café de l'internat ce midi m'est resté sur l'estomac »), à Louise qui ne perd pas une occasion de clubber, au flegmatique Paul S pour le meilleur samedi des fêtes de Bayonne de ma vieà Pellegrin. 3 A mes deux premiers cointernes Marie-Annaïg et PF. MA, la plus sympa des sympas, qui aime tant se moquer de mes pottok. PF, copain de promo devenu ami, tout est résumé si je dis que je pense que tu n'as jamais fait un coup tordu à personne de ta viemais je dois rajouter quand même que boire les verres des autres en soirées c'est pas « l'esprit Coubertin ». A Alix, pour sa patience pour nous supporter quand on raconte n'importe quoi. A Andoni et Guillaume, amis de confiance. A nos voyages « culturels » qui nous ont menés du Prado au Rijksmuseum et en fait surtout dans les bars. Merci Guillaume pêle-mêle pour les grands plats de pâte à 6h du mat, les WE ski à la Mongie, tes talents de guide et surtout ta patience (« Hé Sadoux tu dors ? »). Merci Andoni d'être toujours tourné vers les autres et optimiste dans la vie (même après une raclée à la pala) et désolé pour les réveils en chanson du premier semestre. A André, le blasé et tous ces étés à la Madrague. A Anaïs Gamio, qu'on aimait tellement taquiner en sous-colles, à notre colocation à Pau sans aucune anicroche. A Moltes, le gourmand. A David, doté d'une imagination hors-pair pour les crapuleries. A Louis Begue, ingénieur en télécommunications. A tous les autres copains d'externat un peu perdus de vue (Thomas, Maud A, Marine F et bien d'autres). Merci à tous mes amis d'enfance qui 20 ans plus tard sont toujours là : A Ximun, à notre amitié depuis le berceau, toujours là quelles que soient les circonstances ; le plus zen de tous (), premier de la bande à se marieron ne l'a pas dit mais c'est quand même une sacrée blague. A Baptiste, que tu sois aux Emirats, à Londres ou n'importe quel point du globe, à ta chance légendaire et vivement qu'il n'y ait plus de pétrole que tu rentres. A Loïc (neurologue à Rennes 4), merci pour tous les km parcourus en montagne facilementou pliés en 2 avec des crampes, aux longues soirées d'hiver à regarder des match, aux conversations en soirée où malheureusement on ne comprend pas toujours tous les sons qui sortent de ta bouche. A Pocho (champion intergalactique de mus ; #festayre), Julen (notre capitaine au foot qui ressemblait à Puyoljuste au niveau des cheveux par contre ; champion de pala aussiou pas), Yannick (FX ; on ne dira pas le contenu mais qu'est-ce que j'aimais recevoir ton SMS deux jours avant les fêtes de Bayonne ou Pampelune), à toutes les soirées qui nous ont permis de découvrir les jolis services d'urgences de France et d'Espagne. Depuis toutes ces années, on est toujours aussi heureux de se retrouver et ça durera encore longtemps. On n'oublie pas Kike au fin fond du Berry (désolé pour ta voiture). 4 A toute ma famille A mes parents merci pour le soutien psychologique et matériel durant toutes ces années, merci de toujours être là, de vous mettre en quatre pour moi même pour les problèmes les plus insignifiants. Merci de m'avoir inculqué vos valeurs, le sens du travail. Vous avez toujours été présents pour moi, bienveillants et aimants. A mes frères, Matthieu et Sébastien, qui sont au moins aussi expressifs que moi. Merci de m'avoir donné l'envie de faire du sport (et notamment la pelote) dès le plus jeune âge pour suivre votre exemple. Aux nombreuses heures, plus jeunes, passées à jouer à la console et aux manettes cassées. A Sylvie, Pantxoa, Anne-Cécile qui rendent nos réunions de famille toujours agréables et animées. Aux parents de Maud, Catherine et Patrick, à Mathieu le frangin, merci pour l'accueil, la gentillesse, la découverte des vins de Bourgogne. Je peux le dire maintenant il m'arrive de regarder des match du DFCO. Et enfin à Maud, avec qui je partage tout. Merci d'avoir relu, corrigé ce travail. Merci de ne pas regarder (et même d'aimer) mes défauts, de toujours me sur-estimer, de supporter mon tempérament peu expansif et surtout merci de ton soutien inconditionnel. J'ai même failli croire quand je rédigeais cette thèse que j'étais proche d'envoyer une fusée dans l'espace A tous les moments heureux partagés et à ceux à venir. 5 PLAN I. INTRODUCTION A- RAPPELS SUR L EQUILIBRE SAGITTAL (p. 9) (p. 10) 1. Posture rachidienne 1.1. Contexte 1.2. Equilibre sagittal ergonomique 1.2.1. Cône d'économie 1.2.2. Ligne de gravité 2. Analyse radiologique de la posture (p. 12) 2.1. Analyse radiologique par le système EOS 2.2. Courbures rachidiennes (p. 13) 2.2.1. Lordose lombaire (LL) 2.2.2. Cyphose thoracique (CT) 2.2.3. Rachis cervical 2.2.4. Position de la tête 2.3. Les paramètres pelviens classiques (p. 18) 2.3.1. Concept de vertèbre pelvienne 2.3.2. Incidence pelvienne (« pelvic incidence », IP) 2.3.3. Version pelvienne (« pelvic tilt », VP) 2.3.4. Pente sacrée (« sacral slope », PS) 2.4. Les types de dos (p. 19) 2.4.1. Classification de Roussouly 2.4.2. Implication clinique de la classification des dos 2.5. Paramètres radiologiques globaux caractérisant l'équilibre (p. 21) 2.6. Autres paramètres 3. Mécanismes compensatoires d'un déséquilibre sagittal (p. 26) 3.1. Compensation au niveau du rachis 3.1.1 Diminution de la cyphose thoracique 3.1.2 Adaptation du rachis cervical 3.2. Compensation pelvienne 3.3. Extension des hanches 6 3.4. Compensation des membres inférieurs 3.4.1. Flexion des genoux 3.4.2. Extension des chevilles 3.5. Application pratique B- Arthrodèse rachidienne et syndrome adjacent 1. Les principes de la fusion lombaire (p. 31) (p.32) (p. 32) 1.1. Notion de stabilité 1.2. Techniques chirugicales 1.3. Effets de la chirurgie 2. Le syndrome du segment adjacent (SA) (p. 34) 2.1 Physiopathologie du SA 2.2.1. Revue de la littérature 2.2.2. Définition radiologique 2.2.3. Définition clinique du syndrome adjacent 2.2 Définition du SA 2.3 Effet du temps 2.4 De nombreux facteurs de risque et des études contradictoires 2.5 Atteinte sacro-iliaque : une forme de syndrome adjacent ? II. ROLE DE L'EQUILIBRE SAGITTAL DANS LA SURVENUE DU SYNDROME DU SEGMENT ADJACENT APRES ARTHRODESE RACHIDIENNE (p. 42) 1. Introduction 2. Matériel et Méthodes (p. 43) a. Population b. Procédures chirurgicales c. Analyse radiologique d. Analyse statistique 3. Résultats (p. 47) a. Analyse univariée b. Analyse en sous-populations c. Analyse multivariée 7 4. Discussion (p. 52) III. CONCLUSION (p. 54) IV. BIBLIOGRAPHIE (p. 55) V. RESUME (p. 66) 8 I. INTRODUCTION Le syndrome de dégénérescence du segment adjacent (SA) est une complication classiquement décrite après chirurgie de stabilisation rachidienne dont l'occurrence augmente avec le temps mais également du fait du nombre croissant d'arthrodèses rachidiennes réalisées (1,2). Toutefois, il existe de fortes variations d'incidence rapportées dans la littérature du fait de l'utilisation de multiples définitions radiologiques et/ou cliniques. L'objectif de la stabilisation rachidienne par arthrodèse instrumentée est de lutter contre l'instabilité tout en restaurant un équilibre rachidien économique. Néammoins, cette fusion n'est pas sans conséquences et est à l'origine d'un report des contraintes aux étages adjacents (3,4). Cette augmentation des contraintes peut se faire sur la colonne antérieure (inter-somatique) ou sur la colonne postérieure expliquant les variations dans les anomalies radiologiques retrouvées : discopathie dégénérative, remaniements de type Modic, atteinte articulaire postérieure, instabilité avec listhésis, cyphose ou scoliose, fracture de contrainte. De plus, les changements radiologiques ne sont pas toujours accompagnés de symptômes douloureux (5). La définition la plus complète du SA est donc une entité regroupant n'importe quel changement radiologique aux étages adjacents d'une arthrodèse associés à des manifestations cliniques. L'incidence élevée du SA témoigne de la difficulté pour les chirurgiens à réaliser une stabilisation efficace tout en préservant l'équilibre pelvi-rachidien « idéal » du patient. Les facteurs prédictifs semblent multiples et la physiopathologie précise pose encore question. La difficulté est de faire la part entre les phénomènes dégénératifs traduisant l'évolution naturelle et la dégénérescence iatrogène liée à la fusion. L'équilibre sagittal joue toutefois un rôle certain dans la répartition des contraintes et peut favoriser l'accélération des remaniements dégénératifs aux étages non fusionnés. La problématique radiologique est donc de définir pour chaque patient si la posture est équilibrée ou non. La première partie de la présentation consiste en des rappels généraux sur l'équilibre sagittal et le syndrome du segment adjacent. La deuxième partie correspond à l'étude dont l'objectif est d'identifier les paramètres pelvi-rachidiens sagittaux prédictifs de SA, en prenant en compte la balance cervicale, avec un suivi sur le long terme. 9 A. RAPPELS SUR L EQUILIBRE SAGITTAL 1. Posture rachidienne 1.1 Contexte La station bipède est une caractéristique de l'être humain. Celle-ci est autorisée grâce à une lordose lombaire beaucoup plus prononcée par rapport au monde animal (6). La lordose lombaire se constitue dans les premiers mois de vie en même temps que se développent les capacités neuromotrices de l'enfant. La cyphose globale disparaît en même temps que l'enfant se redresse, qu'il acquiert le maintien de la tête puis du tronc. Les courbures primaires ou statiques résultent de la courbe foetale (occiput, rachis thoracique, sacrum). Elles apparaissent en cyphose avec un rôle de protection des organes contenus. Les courbures secondaires ou dynamiques (rachis cervical, rachis lombaire) sont acquises en même temps que se développent les capacités neuromotrices de l'enfant : redressement et maintien de la tête puis du tronc. Ces zones sont en lordose. Elles sont plus mobiles et servent de liaisons dynamiques entre les différents segments. 1.2 Equilibre sagittal ergonomique L'équilibre est défini comme la capacité du corps humain à maintenir le centre de gravité dans un certain périmètre pour éviter de tomber. Duval-Beaupere et al ont montré la tendance au maintien d'une posture économique en termes de fatigue musculaire et de contraintes exercées sur le complexe pelvi-rachidien. Cette posture économique correspond à un équilibre entre les forces exercées par la gravité et les forces musculaires pour stabiliser le rachis. Cela est permis par la présence de courbures rachidiennes harmonieuses au-dessus d'un bassin plus large et antéversé (7). En position érigée, le rachis a une fonction de soutien de la tête et maintien du tronc. Pour ce faire, la colonne doit être à la fois rigide et doit pouvoir s'adapter à tous les changements de positions des éléments périphériques (bras, tête). La notion d'équilibre est une notion centrale. S'il s'agit d'un concept régi sur le plan mécanique par les Lois de Newton, la multiplication des paramètres extérieurs qui entrent en ligne de compte dans la stabilisation du rachis rend l'équilibre postural plus difficile à appréhender (8). D'après White et Panjabi, la «stabilité clinique» du rachis correspond à son aptitude à limiter les déplacements lorsqu'il est soumis à différents changements afin de ne pas irriter ou endommager la moelle épinière ou les racines nerveuses et à empêcher l'apparition de déformations invalidantes (9). Les déformations rachidiennes de l'adulte aboutissent au déséquilibre sagittal, ce qui est fortement corrélé à une diminution de la qualité de vie. Dans la plupart des cas de déséquilibre, le centre de gravité est situé trop loin en avant, l'axe mécanique passant en avant des têtes fémorales (6). Les déséquilibres postérieurs sont plus rares (maladie de Scheuermann, causes neurologiques) et généralement bien tolérés puisque partiellement compensés par la cyphose thoracique. 10 1.2.1. Cône d'économie Ce concept a été introduit par Dubousset dès 1975. Il a décrit ce cône comme une région de stabilité, un espace à l'intérieur duquel le corps reste équilibré avec un effort minimal. Si le tronc est positionné à la périphérie du cône (cercle autour des pieds qui s'étend vers le haut et vers l'extérieur, figure 1), des efforts croissants sont alors nécessaires afin de maintenir l'équilibre. Le fait de ne pas pouvoir maintenir le centre de gravité dans ce cône va induire la mise en jeu de mécanismes compensateurs afin de restaurer une position ergonomique. Fig.1 Cône d'économie Dubousset J. Three-dimensional analysis of the scoliotic deformity. In: Wein-steid SL, ed.The Pediatric Spine Principles and Practice. New York: Raven Press, 1994 1.2.2. Ligne de gravité La ligne de gravité (figure 2) chez un sujet équilibré en position ergonomique se situe dans la base définie par la position des deux pieds au sol (polygone de sustentation). L'alignement postural doit permettre théoriquement à la ligne de gravité de passer, dans le plan sagittal, par les conduits auditifs externes, en avant du rachis thoracique, juste en arrière de l'apex de la lordose lombaire, au niveau du centre de l'articulation coxo-fémorale, au centre du genou et un peu en avant de l'articulation tibio-astragalienne, ce qui correspondrait à un travail musculaire minimum et équilibré pour le maintien de la posture debout avec un regard horizontal et représenterait donc un idéal nommé l'équilibre économique (7,10). 11 Si la ligne de gravité est déplacée, il en résulte une surcharge sur un segment vertébral. Des mécanismes de compensation sont alors nécessaires pour restituer un alignement sagittal satisfaisant, ce qui s'accompagne de douleurs et d'altération de la qualité de vie. Dans un rachis équilibré, de profil, la « plumbline C7 » (verticale tracée à partir du milieu du corps vertébral de C7) passe toujours en arrière de la ligne de gravité. Le pelvis apparaît comme l'élément central du système régulateur afin de maintenir une distance constante en haut entre la « plumbline C7 » et la ligne de gravité et en bas, entre la ligne de gravité et les talons (11). Tout l'enjeu est de maintenir l'axe de gravité dans le cône d'économie. Fig. 2 Ligne de gravité passant dans le plan sagittal par les conduits auditifs externes et les têtes fémorales : sujet équilibré. 2. Analyse radiologique de la posture L'analyse radiologique de l'équilibre sagittal est délicate car elle repose sur une photographie à un instant t d'un équilibre global en perpétuel mouvement. Dreischarf et al ont ainsi montré qu'il pouvait exister des variations significatives notamment de lordose lombaire entre un instantané et une évaluation moyenne de la « lordose réelle » sur 24 heures (12). De plus, pour chaque courbure, il apparaît délicat de fixer des valeurs normales du fait de l'inter-dépendance des paramètres. On signalera aussi l'influence de la position des bras lors de l'acquisition sur les valeurs de cyphose thoracique et lordose lombaire notamment, d'où l'intérêt de toujours réaliser des mesures reproductibles dans la même position (13). 12 2.1. Analyse radiologique par le système EOS® Le système EOS® (Biospace, France) permet de disposer d'une image 3D du squelette de chaque patient en position debout et à faible dose d'irradiation. Le système EOS est fondé sur les travaux du prix Nobel Georges Charpak en matière de détection de signaux faibles de rayonnement permettant de réduire de manière significative le bruit dans l'image et l'irradiation (14). Une étude publiée dans Spine en 2010, menée par une équipe de spécialistes canadiens sur 50 patients ayant reçu des examens de la colonne vertébrale, a montré qu'EOS réduisait l'irradiation reçue d'un facteur de 6 à 9, selon la zone anatomique, par rapport aux systèmes traditionnels de radiographie et de 20 fois moins de dose qu'un scanner (15). Cette réduction de dose est intéressante pour les pathologies de déformation (scolioses) qui nécessitent un suivi fréquent des patients. Le patient reçoit un examen radiographique du corps entier simultanément de face et de profil. Il est réalisé par balayage de deux pinceaux très fins de rayons X, et prend environ 20 secondes pour un corps entier. Dans un second temps, les deux images numériques ainsi obtenues sont traitées sur une station informatique pour modéliser de manière personnalisée le squelette du patient (rachis et/ou membre inférieurs) en 3D. La position décrite par Faro, coudes fléchis et poignets sur les clavicules, a été décrite comme la plus représentative de l'équilibre fonctionnel des patients tout en permettant une visualisation satisfaisante du rachis (16). 2.2. Courbures rachidiennes 2.2.1. Lordose lombaire (LL) LL correspond à l'angle formé entre la tangente au plateau vertébral supérieur de L1 et le plateau vertébral supérieur de S1 (méthode de Cobb). Il s'agit de la méthode de mesure de LL la plus répandue et la plus reproductible (17). La considération est également anatomique et fonctionnelle permettant d'inclure les 5 segments lombaires avec les disques intervertébraux (18). La transition entre cyphose thoracique et LL correspond au point d'inflexion; celui-ci a une position qui peut varier selon la valeur de l'incidence pelvienne globalement entre T10 et L2 (19). Roussouly et al définissent ainsi deux arches lombaires, une supérieure, entre le point d'inflexion et l'apex de la lordose, dont les valeurs sont constantes ; une inférieure, distale qui comprend la majeure partie de LL entre L4-L5 et S1, environ 67% et qui est corrélée à la pente sacrée (PS) (19–21). PS étant un déterminant de l'incidence pelvienne (IP), on comprend donc que la valeur de LL est aussi corrélée à IP (7,22). Plusieurs formules mathématiques permettent ainsi de définir cette relation LL-IP : LL =PI + 9(23) ; LL(L1-S1) = 0.54*IP + 27.6 (24). Duval-Beaupere et al ont défini le lien entre LL et PS : LL = (PS x 1.087) + 21.61° (± 4.16°) (25). 13 Fig. 3 Représentation du point d'inflexion entre cyphose thoracique et lordose lombaire Roussouly P, Gollogly S, Berthonnaud E, Dimnet J. Classification of the normal variation in the sagittal alignment of the human lumbar spine and pelvis in the standing position. Spine. 2005 Feb 1;30(3):346–53. 2.2.2. Cyphose thoracique (CT) CT est classiquement définie par l'angle formé par la tangente au plateau vertébral inférieur de T12 et le plateau supérieur de T4 selon la méthode de Cobb. Eskilsson et al ont décrit l'importance de courbures rachidiennes harmonieuses notamment la présence d'une cyphose thoracique similaire à la lordose lombaire dans l'amélioration clinique des patients opérés par ostéotomie de soustraction pédiculaire (26). La valeur de CT dépend des étages adjacents (cervical et lombaire) et également d'IP. Vialle et al ont défini la relation mathématique entre CT et IP : CT = 0,15 x IP + 43 (27). 2.2.3. Rachis cervical Il est classiquement décrit que la courbure cervicale est une lordose. Toutefois, l'absence de lordose cervicale n'est pas forcément pathologique. En effet, Le Huec et al précisent qu'un tiers de leur population asymptomatique a le rachis cervical en cyphose (28). La colonne thoracique se poursuit dans le rachis cervical bas (29,30). Pour Hardacker et al, la lordose cervicale augmente en même temps qu'augmente la valeur de la cyphose thoracique alors que Hellsing et al n'ont pas retrouvé de corrélation entre ces deux valeurs (29,31). La lordose cervicale mesurée entre C2 et C7 ne dépend pas seulement de la cyphose thoracique mais aussi de la pente du plateau supérieur de T1 (ou du plateau inférieur de C7). 14 La vertèbre C7 est le socle du rachis cervical et la pente de C7 (angle entre le plateau inférieur de C7 et l'horizontale) représente un moyen d'adaptation du rachis cervical (24). La lordose C1-C2 constitue 80% de la lordose cervicale, il s'agit du dernier maillon de la chaîne de compensation pour maintenir un regard horizontal (30). L'alignement sagittal du rachis cervical est mesuré par la distance horizontale entre la « plumbline C2 » (verticale passant par le milieu de C2) et le coin postéro-supérieur de C7 (C2-C7 SVA, figure 4), il se situe dans une gamme de valeurs étroites chez des volontaires asymptomatiques (16,8 +/-11,2 mm) (31). La pente de T1 et la lordose C2-C7 sont des déterminants significatifs du C2-C7 SVA (32). Ainsi avec l'âge, la pente de T1 diminue, ce qui doit être associé à une augmentation de la lordose cervicale pour maintenir un alignement C2-C7 normal et compenser une position plus antérieure de la tête (33). Un mauvais alignement cervical mesuré par un C2-C7 SVA supérieur à 40 mm est corrélé à une symptomatologie douloureuse : augmentation du Neck Disability Index (NDI) (34). Tout comme le rapport IP/LL, plus le mismatch entre pente de T1 et lordose C2C7 augmente, plus l'instabilité et le défaut d'alignement cervical augmentent (35). Fig. 4 Mesure du C2-C7 SVA, de l'angle C0-C2 et C2-C7, de la pente de T1 Hyun S-J, Kim K-J, Jahng T-A, Kim H-J. Relationship Between T1 Slope and Cervical Alignment Following Multilevel Posterior Cervical Fusion Surgery: Impact of T1 Slope Minus Cervical Lordosis. Spine. 2016 Apr;41(7):E396–402 15 2.2.4. Position de la tête L'analyse de l'équilibre sagittal doit également se faire par l'analyse de la position de la tête qui représente environ 7% du poids du corps. Vital et al ont montré que le centre de gravité de la tête se trouvait au milieu de la ligne joignant la racine du nez à la protubérance occipitale externe, en arrière de la selle turcique, au-dessus et en avant du conduit auditif externe (36). Sugrue et al ont ainsi analysé la « plumbline » passant par ce centre de gravité (figure 5) afin de prendre en compte la position de la tête dans l'analyse de l'équilibre sagittal (37). Elle se projette en avant des « plumblines » C2 et C7. Fig. 5 Plumbline passant par le centre de gravité de la tête (CCOM) Sugrue PA, McClendon J, Smith TR, Halpin RJ, Nasr FF, OʼShaughnessy BA, et al. Redefining global spinal balance: normative values of cranial center of mass from a prospective cohort of asymptomatic individuals. Spine. 2013 Mar 15;38(6):484–9. 16 Parmi les différents paramètres permettant de définir la position de la tête, l'angle d'incidence crânienne (angle entre la perpendiculaire coupant la ligne de Mc Gregor en son milieu et la droite reliant la selle turcique au milieu de la ligne de Mc Gregor, figure 6) est un paramètre spécifique pour chaque individu et ne varie pas en fonction de la position de la tête (24). Chez les sujets asymptomatiques, il existe un équilibre économique permettant de maintenir la position de la tête avec un regard horizontal. Le Huec et al ont ainsi défini l'angle spinocrânial (angle entre la tangente au plateau inférieur de C7 et la ligne joignant le centre de la selle turcique au milieu du corps vertébral de C7, figure 6) dont la valeur est supposée constante : 83° +/-3 (24). Fig. 6 Mesure de l'angle spino-crânial et de l'angle d'incidence crânienne Le Huec JC, Demezon H, Aunoble S. Sagittal parameters of global cervical balance using EOS imaging: normative values from a prospective cohort of asymptomatic volunteers. Eur Spine J Off Publ Eur Spine Soc Eur Spinal Deform Soc Eur Sect Cerv Spine Res Soc. 2015 Jan;24(1):63–71. 17 2.3. Les paramètres pelviens classiques 2.3.1. Concept de vertèbre pelvienne Le pelvis unit l'étage rachidien aux membres inférieurs, Dubousset a ainsi introduit le concept de vertèbre pelvienne (38). Il s'agit davantage d'un concept fonctionnel qu'anatomique, le pelvis jouant un rôle central dans la chaîne d'équilibre. La position du pelvis dans l'espace est étudiée par les trois paramètres suivants inter-dépendants : IP, pente sacrée (PS) et version pelvienne (VP) (figure 7). Ces 3 paramètres sont liés de la façon suivante : IP=VP+PS. 2.3.2. Incidence pelvienne (« pelvic incidence », IP) IP est l'angle que forme la droite reliant le centre des têtes fémorales au milieu du plateau supérieur de S1 avec la perpendiculaire au plateau supérieur de S1. IP est la carte d'identité du bassin, décrite initialement par Duval-Beaupère. Elle traduit la largeur du bassin et la capacité de rétroversion du bassin (19). Si elle est élevée, elle traduit un bassin large avec forte pente sacrée et plus grande capacité de rétroversion pelvienne ; si elle est faible, le bassin est étroit. Il s'agit d'un paramètre stable qui ne varie pas avec l'âge ou les changements posturaux. Elle ne peut être modifiée que par une ostéotomie pelvienne (39). Cette valeur est sensée rester constante puisqu'elle est intrinsèque à la géométrie du bassin. Toutefois, il pourrait exister de petites variations apportées par l'articulation sacroiliaque qui, bien que peu mobile, permettrait une adaptation (40). IP est la somme de VP et PS. Ainsi une incidence pelvienne élevée sera associée à une version pelvienne plus élevée et une pente sacrée plus élevée (21). 2.3.3. Version pelvienne (« pelvic tilt », VP) VP est l'angle que forme la droite reliant le centre des têtes fémorales et le milieu du plateau supérieur de S1 avec la verticale. Le bassin peut tourner autour des têtes fémorales jusqu'à une certaine limite, ce qui est caractérisé par la version pelvienne . Quand le pelvis bascule en arrière (rétroversion), VP augmente. VP est liée à l'IP à travers la formule suivante qui a été définie grâce à une étude portant sur un nombre conséquent d'individus asymptomatiques (137 sujets caucasiens et 131 sujets Japonais) : VP = 0.44*IP - 11.4 (28). Cette relation montre qu'il n'existe pas pour une population entière de valeur dite normale pour VP (ainsi que pour PS) mais des valeurs propres à chaque individu, dépendant d'IP. 18 2.3.4. Pente sacrée (« sacral slope », PS) PS est l'angle que forme le plateau supérieur de S1 avec l'horizontale. Lors de la rétroversion, PS diminue en même temps que VP augmente, ce qui se traduit par une horizontalisation du plateau sacré. PS est liée à IP de la façon suivante : PS = 0.54*IP + 11.9 (28). Duval-Beaupère et al retrouvent une forte corrélation entre PS et LL et entre PS et IP (25). Fig. 7 Mesure des paramètres pelviens : incidence pelvienne, version pelvienne et pente sacrée 2.4. Les types de dos 2.4.1. Classification de Roussouly L'intéraction entre les paramètres pelviens et les courbures rachidiennes dans le plan sagittal a permis une classification des types de dos en 4 familles (figure 8), proposée par Roussouly (19). Celle-ci est définie dans une population normale et est basée sur l'incidence pelvienne, la lordose lombaire, la localisation de l'apex de la lordose lombaire. Le type 1 est caractérisé par une IP faible, une LL courte concentrée sur L4-S1, apex en L5, une cyphose thoraco-lombaire longue. 19 Le type 2 est caractérisé par un dos plat avec une IP faible, des valeurs semblables de LL et CT. Le type 3 est le plus répandu, il présente un bassin large avec une IP plus élevée, une LL et une CT amples et équilibrées, l'apex de LL est situé en L4. Le type 4 est caractérisé par une IP élevée voire très élevée avec des courbures très amples, à savoir une hyperlordose lombaire avec cyphose sus-jacente adaptée. Le point d'inflexion de la courbure lombaire apparaît haut-situé, au-delà de T12 et l'apex de LL en L3. Récemment, Laouissat et al ont décrit un cinquième type de dos, à savoir un type 3 antéversé (VP très faible voire négative, PS et LL similaires aux dos de type 3) (41). La limite de cette classification est de ne pas tenir compte des membres inférieurs. Boa et al ont proposé une classification en 3 types (hyperlordose lombaire, neutre, compensée) qui tient compte entre des mécanismes compensateurs, que nous verrons plus bas, notamment la mesure de la flexion des genoux dans une population asymptomatique (42). Fig. 8 Classification des dos selon Roussouly 20 2.4.2. Implication clinique de la classification des dos En cas d'IP faible (type 1 et 2 de Roussouly), il existe une faible LL responsable d'une transmission des contraintes prédominant sur les disques inter-somatiques. Celle-ci sera à l'origine d'une discopathie plus précoce. A contrario, dans les cas d'IP élevée, il existe une forte LL qui épargne les disques mais transfère les contraintes sur les articulations zygapophysaires postérieures avec augmentation des forces de cisaillement qui favorisent la dégénérescence arthrosique, les fractures de fatigue des isthmes et la survenue de listhésis (43,44). Une augmentation de IP est un facteur prédictif de survenue de spondylolisthésis (21,45,46). En pratique, il n'est pas toujours aisé de définir le type de dos d'origine de chaque patient du fait des modifications dégénératives. C'est pourquoi l'analyse concomittante de l'incidence pelvienne est indispensable, permettant par exemple de distinguer les vrais dos de type 2 (IP et PS faibles) des dos de type 3 modifiés par une atteinte dégénérative cyphosante secondaire (IP élevée). Ces paramètres apparaissent indispensables à prendre en considération dans les chirurgies d'arthrodèses afin de restituer une lordose en accord avec l'incidence pelvienne pour limiter le risque de dos plat post-opératoire. 2.5. Paramètres radiologiques globaux caractérisant l'équilibre SVA-C7 (« Sagittal Vertical Axis » ), représenté sur la figure 9, est la distance dans le plan sagittal entre la verticale passant par le milieu de C7 (« plumbline C7 ») et le coin postérieur de S1 . La « plumbline C7 » est fortement corrélée à la ligne de gravité, elle passe normalement par la moitié postérieure du plateau sacré. SVA-C7 est un standard international utilisé dans un grand nombre d'études, elle reflète la position de la chaîne thoraco-lombaire au-dessus du pelvis. Dans une population normale, la valeur moyenne est de : 0,9 +/-1 (45). Sa valeur est généralement considérée comme normale entre +2,5 et -2,5 cm (47). Toutefois, les valeurs varient fréquemment dans la littérature, du fait notamment de l'influence de la position des bras dans cette mesure (13). D'autres études rapportent qu'une distance supérieure à 5 cm apparaît pathologique. Le Huec a montré qu'une valeur normale de SVA inférieure à 50mm ne semble pas être un paramètre pertinent étant donné que des patients sains avec une IP élevée peuvent avoir des valeurs de SVA supérieures à 50mm (23)(28). Un rachis est dit déséquilibré si la « plumbline C7 » passe en avant près des têtes fémorales (48). SSA (« Spino Sacral Angle » ou angle spino-sacré) est défini comme l'angle entre le plateau sacré et la ligne rejoignant le centre de C7 et le milieu du plateau supérieur de S1. Dans la population normale, la valeur moyenne est de 135° +/-8 (48). Il est fortement corrélé à LL. 21 Fig. 9 Mesure du SVA-C7 et du SSA. La gîte sagittale de T9 (figure 10) est l'angle entre la verticale abaissée au milieu des centres des deux têtes fémorales et la droite unissant le centre de T9 et le milieu des têtes fémorales. La vertèbre T9 est considérée par Duval-Beaupère comme le centre de gravité du tronc. La gîte sagittale reflète la position du tronc par rapport à la ligne de gravité. Une gîte sagittale excessive est un témoin d'un déséquilibre antérieur. Sa valeur est constante (entre -8° et -12°) chez le sujet sain asymptomatique selon Vialle et al (27). Fig. 10 Gîte sagittale de T9 22 La « plumbline » passant par les conduits auditifs externes (CAE) est mesurée comme la distance entre la verticale passant par les conduits auditifs externes et le centre des têtes fémorales. Le repère du conduit auditif externe est proche du centre de gravité de la tête, déterminé par Vital et al grâce à la méthode de suspension en 1986 (36). Gangnet et al ont montré chez 30 volontaires sains que la « plumbline-CAE » tombait un peu en arrière des têtes fémorales, 7mm en moyenne (49). On considère donc qu'il existe un déséquilibre antérieur si cette « plumbline » est située en avant des têtes fémorales (figure 11). Fig. 11 Application de la « plumbline-CAE » chez 2 patients Le patient de gauche est équilibré avec une « plumbline-CAE » (droite jaune) passant en arrière des têtes fémorales. Le patient de droite présente un déséquilibre antérieur avec une « plumbline-CAE » (droite orange) passant largement en avant des têtes fémorales. 23 L'OD-HA (figure 12) est l'angle mesuré entre la droite reliant l'apex de C2 et le centre des têtes fémorales avec la verticale passant par les têtes fémorales (50). L'OD-HA est un autre paramètre tenant compte de la position de la tête et du rachis cervical et situé à proximité du centre de gravité de la tête. Amabile et al. ont montré qu'il s'agissait de l'angle reflétant la position de la tête au-dessus du pelvis dont les mesures étaient le moins variables, compris entre -1 et -3° chez des sujets asymptomatiques (50). Le repère de C2 apparaît plus reproductible et est également situé près du centre de gravité de la tête. Fig. 12 Mesure de l'angle OD-HA Amabile C, Pillet H, Lafage V, Barrey C, Vital J-M, Skalli W. A new quasi-invariant parameter characterizing the postural alignment of young asymptomatic adults. Eur Spine J Off Publ Eur Spine Soc Eur Spinal Deform Soc Eur Sect Cerv Spine Res Soc. 2016 Nov;25(11):3666–74. 2.6. Autres paramètres De nombreux paramètres pelvi-rachidiens sont utilisés parmi lesquels on citera : « FBI technique : Full Balance Integrated » (somme de l'angle de translation de C7, l'angle d'obliquité du femur, l'angle de compensation de la version pelvienne, figure 13) permet de déterminer le degré de correction de lordose nécessaire pour que la plumbline C7 passe par le plateau S1 (51). Il s'agit d'un angle utile pour définir la correction pré-opératoire dans les ostéotomies réalisées en cas d'incidence pelvienne élevée. Il est la somme des 3 angles suivants : 24 - L'angle de translation de C7 (C7TA) : le milieu du plateau inférieur de C7 (point a) est transposé horizontalement sur la plumbline de C7 souhaitée passant par le milieu du plateau de S1 (position idéale de C7, point b).Le sommet du triangle (point c) est représenté par la corticale antérieure de la vertèbre sélectionnée pour l'ostéotomie (habituellement L4). - L'angle d'obliquité du femur (FOA) est mesuré par l'inclinaison de l'axe du femur par rapport à la verticale, reflet du flessum de genou. - Le facteur de version pelvienne : ( « Angle of tilt compensation « , PTCA) : la version pelvienne a une valeur théorique donnée par la classification de Roussouly (19). Cette valeur théorique est donc comparée à la valeur pré-opératoire mesurée sur l'EOS, à savoir qu'une élévation de la valeur mesurée par rapport à la théorique traduit un phénomène de compensation par la rétroversion. La valeur théorique de la version pelvienne est comprise entre 9 et 12° pour les dos de type 1 et 2, approximativement 13° pour le type 3 et peut atteindre 20 ou 25° voire plus pour le type 4. Ainsi par exemple un facteur de 5° supplémentaire de compensation est ajouté si la version pelvienne pré-opératoire était inférieure à 25° ou 10° si la version pelvienne est supérieure à 25°. Fig. 13 Mesure des 3 angles composant la FBI technique Le Huec JC, Leijssen P, Duarte M, Aunoble S. Thoracolumbar imbalance analysis for osteotomy planification using a new method: FBI technique. Eur Spine J Off Publ Eur Spine Soc Eur Spinal Deform Soc Eur Sect Cerv Spine Res Soc. 2011 Sep;20 Suppl 5:669–80. GSA, « Global Sagittal Angle » : angle défini par la ligne rejoignant le milieu du genou et le milieu de C7 et la ligne entre le milieu du genou et le coin postéro-supérieur de S1. Celui-ci prend en compte le flessum des genoux. Les valeurs normales sont d'environ : -1,3 +/- 1,35°. 25 TPA , « T1 Pelvic Angle » : angle formé entre la ligne joignant le centre de T1 au centre des têtes fémorales et la ligne allant du centre des têtes fémorales au centre du plateau vertébral supérieur de S1. Il tient compte à la fois de l'inclinaison rachidienne et de la rétroversion pelvienne. Il serait corrélé à l'altération de la qualité de vie chez les patients atteints de déformation rachidienne, à la version pelvienne et à l'axe sagittal vertical (52). 3. Mécanismes compensatoires d'un déséquilibre sagittal L'équilibre sagittal se détériore avec l'âge même chez les sujets asymptomatiques du fait d'un enraidissement articulaire, de troubles posturaux mais également du vieillisement musculaire. En effet, les muscles extenseurs rachidiens profonds ont une meilleure efficacité en position lordosée ; en cas de cyphose dégénérative, il existe une fatigue musculaire des muscles profonds conduisant à l'atrophie, les muscles superficiels prennent le relais mais finissent également par s'épuiser. La contraction permanente des muscles érecteurs pour maintenir l'équilibre entraîne donc un épuisement musculaire mais également une augmentation des pressions sur les articulaires postérieures, elle aussi potentiellement responsable de dorso-lombalgies. Un déséquilibre antérieur quelle qu'en soit la cause peut favoriser l'apparition de lésions dégénératives et être à l'origine d'une instabilité. Dans ce cas, le déséquilibre antérieur est la cause des lésions dégénératives. A l'inverse, le déséquilibre antérieur peut être la conséquence. Chez les personnes âgées, les discopathies dégénératives sont une cause fréquente de diminution des courbures et notamment de la lordose lombaire (cyphose lombaire), ce qui accentue la tendance naturelle du tronc à se pencher en avant. La perte de lordose lombaire serait l'élément débutant du déséquilibre sagittal reflété par une projection plus antérieure de la « plumbline-C7 » (53,54). Afin de lutter contre le déséquilibre antérieur, une chaîne de mécanismes compensateurs est mise en place à tous les étages afin de maintenir le regard horizontal (45,54–57). Excepté la perte de lordose lombaire qui est en rapport avec les remaniements dégénératifs, toutes les autres modifications des paramètres pelvi-rachidiens (diminution de la pente sacrée, de la cyphose thoracique, augmentation de la version pelvienne, de la lordose dans la partie supérieure du rachis) sont des mécanismes compensatoires le plus souvent associés à des lombalgies chroniques. 3.1. Compensation au niveau du rachis Pour compenser le déséquilibre sagittal et la translation antérieure de l'axe de gravité provoquée par une cyphose lombaire, le concept est d'étendre les segments adjacents à la cyphose (diminution de la cyphose thoracique, augmentation de la lordose cervicale). 26 3.1.1 Diminution de la cyphose thoracique La réduction de la cyphose thoracique permet de limiter la bascule antérieure de l'axe de gravité, typiquement chez les patients possédant une cyphose lombaire. Ces considérations ne sont plus valables si le rachis est trop rigide (ankylose), le patient n'ayant plus la possibilité de réduire la courbure thoracique. L'hyperextension est efficace pour diminuer la cyphose thoracique et replacer en position plus postérieure les segments rachidiens supérieurs mais elle génère une augmentation des contraintes sur les structures postérieures et expose au risque de rétrolisthésis. Cela peut entraîner une arthropathie postérieure accélérée, des conflits inter-épineux voire une lyse isthmique. Le rétrolisthesis est un glissement vers l'arrière de plus de 2mm d'une vertèbre dite supérieure par rapport à la vertèbre inférieure afin de compenser une déformation en cyphose. Le retrolisthésis peut être à l'origine de sténoses foraminales sévères. Le retrolisthésis n'est pas le seul mécanisme compensatoire au niveau des étages sus-jacents à la cyphose. L'adaptation peut se traduire par l'apparition de discopathies dites compensatoires (54). Ces discopathies compensant une hypolordose lombaire sont caractérisées par une hyper-extension du disque supérieure à 15° et sont à distinguer de la discopathie dégénérative ( caractérisée par un pincement et une modification des plateaux vertébraux adjacents). 3.1.2. Adaptation du rachis cervical La pente de C7 ( angle entre le plateau inférieur de C7 et l'horizontale) est déterminante pour les capacités d'adaptation du rachis cervical et est corrélée à la lordose cervicale (24). L'hyperlordose cervicale est un mécanisme compensatoire classique en cas d'hypercyphose thoracique pour maintenir le regard horizontal (54). Celle-ci sera d'autant plus aisée que la pente horizontale de C7 sera faible. Les patients avec une pente de C7 élevée ont plus de difficultés à compenser une hypercyphose thoracique (24). Cette hyperlordose est à l'origine de remaniements dégénératifs à l'étage cervical, de sténoses foraminales ou de cervicalgies. A contrario, les patients présentant une forte pente C7 présentent de plus grandes capacités d'adaptation en cas d'hypocyphose thoracique réactionnelle à une perte de lordose lombaire leur permettant de diminuer la pente de C7 et donc la lordose cervicale. 3.2. Compensation pelvienne La rétroversion pelvienne (figure 14) correspond à la rotation postérieure du pelvis autour des têtes fémorales grâce à la contraction des muscles extenseurs et au positionnement postérieur du sacrum par rapport aux têtes fémorales. Elle est définie par une augmentation de la version pelvienne avec horizontalisation du plateau sacré. Il s'agit du mécanisme compensateur principal pour reporter vers l'arrière le poids du corps et soulager les muscles érecteurs ; elle entre en jeu une fois la compensation maximale de l'étage rachidien atteinte (44,45,53,58). Cette capacité de rétroversion est directement liée à la valeur de l'incidence pelvienne (d'autant plus grande que l'incidence pelvienne sera élevée). La rétroversion peut favoriser la survenue plus précoce d'une arthrose de hanche. 27 Fig. 14 Passage en rétroversion (image de droite) avec augmentation de la version pelvienne et diminution de la pente sacrée Barrey C, Roussouly P, Le Huec J-C, D'Acunzi G, Perrin G. Compensatory mechanisms contributing to keep the sagittal balance of the spine. Eur Spine J Off Publ Eur Spine Soc Eur Spinal Deform Soc Eur Sect Cerv Spine Res Soc. 2013 Nov;22 Suppl 6:S834–41. 3.3. Extension des hanches En même temps que le bassin bascule en arrière, il existe une extension des hanches. Celle-ci va dépendre de la capacité d'extension des hanches : cette notion de réserve d'extension d'environ 5 à 6° a été introduite par Hovorka et al (59). Elle correspond à la différence de mesure de l'angle pelvi-fémoral entre la position neutre et l'extension. La mesure de l'extension des hanches se fait grâce à l'angle pelvi-femoral (angle entre l'axe bi-coxofémoral et le milieu de S1 et la ligne entre l'axe fémoral et l'axe bi-coxofémoral). Mangione et al ont décrit sa valeur dans une population asymptomatique : 191°+/-7° et également précisé une forte corrélation entre cet angle et la rétroversion pelvienne (60). Lazennec et al ont ensuite défini le concept de réserve d'extension globale, somme de la réserve d'extension des hanches et de la réserve d'extension lombo-sacrée (définie par la différence entre pente sacrée en extension de hanche et en position neutre) (61). De plus, il existe une relation étroite entre l'équilibre sagittal et l'articulation coxofémorale, plus précisément entre la version acétabulaire et la pente sacrée que l'on peut voir notamment lors du passage de la position debout à la position assise. En position debout, la valeur de la pente sacrée est élevée et la valeur de l'angle acétabulaire est faible alors qu'en position assise, LL et PS diminuent (bascule postérieure du bassin) alors que la version acétabulaire augmente (62,63). 28 En cas de pathologie de l'articulation coxo-fémorale (coxarthrose), il existe une perte de la réserve d'extension, cette situation peut notamment être rencontrée dans les cas de déséquilibre sans compensation (absence de rétroversion caractérisée par une valeur théorique de VP proche de la valeur réelle).Cela induit une bascule antérieure du bassin lors de la position debout, le rachis tente alors de s'adapter en augmentant la lordose lombaire dans les limites du possible, ce qui est pourvoyeur de lombalgies (63). En cas d'incidence pelvienne élevée, il existe une plus grande capacité d'extension des hanches (mais l'acetabulum apparaît moins ouvert en avant ce qui augmente le risque de conflit antérieur en position assise). Chez les patients arthrodésés, il n'existe plus cette diminution de LL, elle reste identique dans les 2 positions. L'absence de variation de VP entre position assise et debout représente une perte de la capacité d'adaptation acétabulaire et peut être à l'origine de conflit fémoroacétabulaire postérieur. Cette réserve d'extension est importante dans la chirurgie d'arthrodèse pour prévoir si le patient aura la capacité de tolérer une nouvelle posture. 3.4. Compensation des membres inférieurs 3.4.1. Flexion des genoux En cas de déséquilibre antérieur, si les mécanismes de compensation rachidiens et du bassin sont dépassés, il s'y ajoute une flexion des genoux dans le but de ramener l'axe mécanique le plus en arrière possible. La flexion des genoux est bien reflétée par l'angle fémoro-tibial (angle entre l'axe reliant le centre de la hanche au centre du genou et celui reliant le centre du genou au centre de la cheville): l'angle normal est de 0°, il devient positif en cas de flexion des genoux (64). Obeid et al ont montré une forte corrélation entre le manque de lordose lombaire et la flexion des genoux (39). Ainsi une flexion des genoux de 10° est associée à un manque de lordose d'environ 30°, ce qui signifie que le déséquilibre est important et justifierait la réalisation d'une chirugie de correction plus lourde (type ostéotomie de soustraction pédiculaire). L'attitude en flexion prolongée des genoux est responsable d'une fatigue musculaire prédominant sur les ischio-jambiers. Murata et al ont étudié la relation LL-flexion des genoux dans l'autre sens, à savoir que la gonarthrose diminue l'extension des genoux (augmentant ainsi la flexion) et est compensée à l'étage rachidien par une diminution de la lordose lombaire (65). 3.4.2. Extension des chevilles L'extension de la cheville est également un mécanisme compensateur, montrant ainsi que l'analyse de l'équilibre sagittal se fait de la tête aux pieds. Toutefois, ce mécanisme apparaît plus accessoire du fait des faibles amplitudes. Lafage et al ont souligné que la translation postérieure du pelvis pouvait être un paramètre aussi important que la rotation (mesurée par la version pelvienne) et que cette translation est permis grâce à la participation des hanches, des genoux et des chevilles (47). 29 Hyperlordose RACHIS Diminution de la cyphose thoracique Retrolisthésis Hyperextension PELVIS Membres inférieurs Rétroversion pelvienne Flexion des genoux Extension des chevilles Fig. 15 Chaîne des mécanismes compensateurs de l'étage cervical à la cheville Barrey C, Roussouly P, Le Huec J-C, D'Acunzi G, Perrin G. Compensatory mechanisms contributing to keep the sagittal balance of the spine. Eur Spine J Off Publ Eur Spine Soc Eur Spinal Deform Soc Eur Sect Cerv Spine Res Soc. 2013 Nov;22 Suppl 6:S834–41. 30 3.5. Application pratique Fig. 16 Exemple de patient équilibré (gauche), équilibré grâce aux mécanismes de compensation (au milieu) et déséquilibré (à droite) Le Huec JC, Charosky S, Barrey C, Rigal J, Aunoble S. Sagittal imbalance cascade for simple degenerative spine and consequences: algorithm of decision for appropriate treatment. Eur Spine J Off Publ Eur Spine Soc Eur Spinal Deform Soc Eur Sect Cerv Spine Res Soc. 2011 Sep;20 Suppl 5:699–703. 3 cas de figure se présentent (figure 16, ci-dessus). - L'équilibre est économique (idéal) quand la verticale abaissée à partir des CAE passe juste en arrière des têtes fémorales avec une LL normale adaptée à l'IP du sujet (image de gauche). - L'équilibre est normal grâce à des mécanismes compensateurs : diminution de CT, rétroversion du bassin et parfois une flexion des genoux. Grâce à ces phénomènes de compensation, les CAE et les têtes fémorales restent encore sur la même verticale. - Le déséquilibre antérieur se traduit donc par un déport des CAE en avant des têtes fémorales en dépit d'une rétroversion du bassin, d'une hyperextension des hanches et d'une flexion des genoux (image de droite). 31 B- Arthrodèse rachidienne et syndrome adjacent 1. Les principes de la fusion lombaire 1.1. Notion de stabilité La stabilité mécanique correspond à un équilibre des efforts, c'est-à-dire à la situation où les efforts appliqués à la musculature contrebalancent les pressions extérieures. Elle correspond également à la capacité à maintenir une mobilité normale pour des sollicitations normales. La fixation du rachis par arthrodèse permet de corriger l'instabilité en limitant la mobilité du segment traité, ce qui augmente la raideur segmentaire (9). D'une part, la perte de mouvement aux étages arthrodésés est susceptible de causer une plus grande mobilité aux étages adjacents et donc d'y augmenter les contraintes. D'autre part, la raideur du rachis secondaire à l'arthrodèse nécessite d'appliquer des efforts plus importants pour un mouvement donné, ce qui augmente également les contraintes sur les segments adjacents. En théorie toutes ces altérations biomécaniques seraient la cause d'une dégénérescence prématurée des segments adjacents. 1.2. Techniques chirugicales Le nombre d'arthrodèses lombaires a été multipliée par 2,7 dans les années 2000 aux EtatsUnis (2). Différentes techniques existent mais toutes consistent en la fusion de vertèbres adjacentes afin de ne former qu'un seul segment rigide. Selon les cas, elle peut être réalisée par une greffe osseuse, une instrumentation par un système de vis et de tiges ou par plaques et/ou la mise en place d'une cage inter-somatique. L'arthrodèse lombaire par vis pédiculaires par voie postérieure (PLIF : Posterior Lumbar Interbody Fusion) et tiges combinée ou non à l'utilisation d'une cage est le traitement classique en termes de chirurgie instrumentée du rachis lombaire. La voie transforaminale (TLIF) est plus latérale que la PLIF, moins délabrante sur la musculature para-rachidienne. Elle permet aussi de ne pas aborder le canal vertébral (66). La PLIF et TLIF ont des indications relativement semblables : spondylolisthésis dégénératif, discopathie inflammatoire, récidive de hernie discale avec lombalgie prédominante (67). Il existe quelques variations. L'abord transforaminal (TLIF) sera préféré surtout en cas de protrusion discale latéralisée alors que la PLIF sera plutôt proposée en cas de sténose centrale avec hypertrophie des articulaires postérieures et du ligament jaune. La voie antérieure type ALIF (Anterior Lumbar Interbody Fusion) est indiquée préférentiellement pour les discopathies inflammatoires ou les spondylolisthésis dégénératifs si une décompression postérieure n'est pas nécessaire. Elle permet de mieux préserver la masse musculaire para-rachidienne notamment par rapport à la voie postérolatérale (les muscles grands droits sont seulement écartés). Un autre avantage par rapport 32 aux PLIF/TLIF est que la cage posée occupe la totalité de l'espace intersomatique, ce qui permet de restituer une bonne hauteur discale et de la lordose intersomatique (68). De même, la voie mini-invasive latérale ne déstabilise pas la musculature postérieure ; le risque d'infection y est diminué ; elle peut être indiquée chez les patients très ostéoporotiques chez lesquels il existe un risque de mauvaise prise au niveau osseux. Dans les cas de déséquilibre sagittal plus important notamment dans les cas de scoliose, déformations en cyphose majeure ou manque net de lordose lombaire, des ostéotomies peuvent être réalisées avec différentes techniques. La plus ancienne est l'ostéotomie de Smith-Petersen (SPO) ; il s'agit d'une ostéotomie de la colonne postérieure dans laquelle l'épineuse, la lame, l'isthme, les structures articulaires postérieures et ligamentaires sont enlevées. Un disque mobile est indispensable. Cette technique permet une correction d'environ 10° par niveau (1° par millimètre d'os). La correction de la cyphose peut être responsable d'une sténose foraminale d'où l'importance du monitorage neurologique ; en cas de signes de souffrance radiculaire, une arthrectomie large est réalisée. L'ostéotomie de soustraction pédiculaire (PSO) consiste également en une exérèse des éléments postérieurs en y ajoutant la résection des pédicules. Un coin de vertèbre (habituellement triangulaire) est ensuite réséqué, la colonne postérieure est raccourcie. Les cages posées de part et d'autre de la vertèbre ostéotomisée permettent de diminuer la perte de correction dans les disques adjacents. Cette technique permet de corriger un déséquilibre sagittal sévère sur des colonnes rigides ou avec des cyphoses à court rayon de courbure permettant une restauration de 30 à 40° par niveau d'ostéotomie. Bone-disc-bone osteotomy (BDBO) est une ostéotomie réalisée au-dessus et en-dessous du disque, ce qui permet des corrections allant de 35 à 60°. Les principales indications sont les déformations sagittales sévères avec un apex se situant en regard de l'espace discal. Enfin, la résection de la colonne vertébrale (VCR) présente pour principale indication une déformation fixée dans le plan coronal mais également les résections d'hémi-vertèbres ou tumorales. Une autre classification anatomique en 6 types a été proposée par Schwab et al, basée sur l'étendue de la résection osseuse et le potentiel de déstabilisation de la chirurgie, avec une très bonne reproductibilité intra et inter-observateur (69). 1.3. Effet de la chirurgie L'équilibre sagittal et les mécanismes compensatoires dépendent du type de chirugie et des niveaux opérés (21,70). Les mécanismes de compensation comme la rétroversion pelvienne (augmentation de la version pelvienne) et la diminution de la cyphose thoracique s'inversent après une chirurgie réussie (70,71). A contrario, une augmentation de la version pelvienne, une diminution de la pente sacrée (sacrum vertical) en post-opératoire sont corrélées à la survenue de lombalgies chroniques (58). 33 2. Le syndrome du segment adjacent (SA) 2.1. Physiopathologie du SA La dégénérescence du segment adjacent est une complication mécanique des fusions lombaires dont la physiopathologie précise pose encore question. La dégénérescence du rachis est un phénomène naturel et n'implique pas, à elle seule, les symptômes cliniques observés. En effet, même chez des sujets asymptomatiques, on observe en moyenne 50% de disques dégénérés comme le montre l'étude de Pfirrmann et al (72). En 2002, Elfering et al ont aussi montré que la dégénérescence discale augmentait d'au moins un grade en 5 ans sans que cela soit corrélé à la survenue de symptômes (73). Il est donc difficile de distinguer, pour les cas de dégénérescence segmentaire au-dessus d'une arthrodèse, la part d'évolution naturelle de la part de dégénérescence iatrogène. L'implication entre arthrodèse et dégénérescence du segment adjacent ne fait pas l'unanimité : certains auteurs comme Radcliff et al considèrent qu'étant donné que les taux de survenue de SA restent relativement similaires malgré des techniques chirurgicales différentes, l'entité de SA peut être remise en cause et serait en fait l'évolution naturelle de l'atteinte dégénérative (74). La fusion consiste en l'immobilisation d'un ou plusieurs segments vertébraux ; elle entraîne une augmentation du stress mécanique sur les segments laissés libres au-dessus ou endessous du segment arthrodésé expliquant la survenue de remaniements dégénératifs à ces étages (75,76). La difficulté est de savoir jusqu'à quel étage l'arthrodèse est responsable de l'augmentation des contraintes. Pour Hambly et Schlegel, il faut considérer les deux étages situés au-dessus de l'arthrodèse avec une atteinte aussi fréquente à l'étage supra-adjacent qu'à l'étage directement sus-jacent (77,78). D'autres études retrouvent une atteinte souvent plus marquée à l'étage adjacent par rapport à l'étage supra-adjacent (75,79–81). Celestre et al ont trouvé une atteinte du segment supérieur (90%) largement prédominante par rapport au segment inférieur (10%) (4). L'augmentation des contraintes se fait à la fois sur les facettes articulaires et sur le disque, d'autant plus que le nombre d'étages fusionnés augmente (82,83). Il existe également une modification de la mobilité avec une augmentation des mouvements aux étages adjacents (84). Les études biomécaniques expliquent que l'arthrodèse augmente le mouvement angulaire aux étages adjacents : ainsi une hypolordose augmente significativement les degrés de flexion-extension à l'étage sus-jacent et une hyperlordose entraîne une augmentation à l'étage sous-jacent (3). Weinhoffer et al ont également décrit une augmentation des pressions sur le disque adjacent sur les mouvements en flexion d'autant plus que le nombre de segments fusionnés est important (83). 34 2.2. Définition du SA 2.2.1. Revue de la littérature Il n'existe pas de définition consensuelle du SA. Dans la littérature il existe plusieurs termes : adjacent segment disease, adjacent segment pathology. De même les classifications radiologiques apparaissent très variables. L'incidence du SA augmente avec le temps (incidence rapportée par Sears et al à 2,5% par an) (1). Toutefois, il existe de fortes variations d'incidence rapportées dans la littérature en fonction de l'utilisation de définitions radiologiques et/ou cliniques. Lors d'une revue de 27 études par Harrop et al, il existait des changements radiologiques à l'étage adjacent dans 8 à 100% des cas alors que les manifestations cliniques n'étaient présentes que dans 0 à 27,5% des cas (5). Kraemer et al dans une large revue de la littérature montrent qu'il est difficile d'utiliser une définition consensuelle et universelle du fait des multiples classifications et définitions utilisées dans les études (85). Park et Riew considèrent que n'importe quelle anomalie de l'étage sus-jacent ou sous-jacent doit être considérée comme un syndrome adjacent : listhésis, instabilité, atteinte des articulaires postérieures, hernie discale, scoliose, sténose, fracture de contrainte (86,87). Certains auteurs utilisent des définitions purement radiologiques : augmentation du grade de Pfirmann (déshydratation du disque) ; augmentation du grade UCLA (hauteur discale, ostéophytes, sclérose des plateaux) selon Ghiselli ; apparition d'une hernie discale ou d'une sténose canalaire. Toutefois, les changements radiologiques à l'étage adjacent ne sont pas forcément corrélés à l'apparition d'une symptomatologie clinique, raison pour laquelle Hilibrand et al séparent les 2 entités et parlent de maladie du syndrome adjacent « syndrome adjacent disease » seulement en présence de modifications radio-cliniques (88). La définition la plus globale inclut donc conjointement des modifications radiologiques secondaires à l'arthrodèse rachidienne (en incluant l'étage supra-adjacent) et des manifestations cliniques (lombalgies, radiculalgies). 2.2.2. Définition radiologique Différents types d'anomalies radiologiques peuvent survenir aux étages mobiles adjacents d'une arthrodèse rachidienne instrumentée. Kraemer et al ont ainsi répertorié de multiples échelles utilisées : on citera le système de classification UCLA ; l'échelle de Kellgren et Lawrence (ainsi que l'échelle modifiée) utilisant sensiblement les mêmes paramètres que le grading UCLA ; les remaniements de type MODIC ; l'échelle modifiée de Weiner (pincement discal, formation d'ostéophytes, sclérose, listhesis, présence de gaz intra-discal) (85). Hilibrand et al ont créé une classification composite des remaniements dégénératifs aux étages adjacents en fonction des différentes modalités d'imagerie (Radiographies, TDM, IRM) basée sur l'étude du disque inter-somatique, la présence d'ostéophytes postérieurs, d'une éventuelle compression du cordon ou des racines nerveuses (88). 35 La discopathie (figure 17) est définie comme une diminution de la hauteur discale ou la présence d'un débord postérieur majorés par rapport à l'analyse pré-opératoire. Il s'agit de l'anomalie la plus communément retrouvée à l'étage adjacent (75,86). La classification de Pfirrmann permet un grading en 5 stades sur l'IRM. a b Fig. 17 a,b Hernie discale L3-L4 (flèche blanche) postéro-latérale droite audessus d'une arthrodèse L4-S1. L'ostéophytose est le paramètre qui a été le premier étudié (avec le pincement discal) car facilement analysable sur des radiographies standard (5). Par exemple, le système de classification de Park étudiait le degré d'ossification aux deux étages adjacents en gradant en fonction de l'extension des ponts osseux (89). Les remaniements des plateaux vertébraux adjacents (figure 18) sont corrélés à l'atteinte dégénérative du disque (90). Ils se traduisent par une sclérose sur les clichés radiographiques ou TDM et par des remaniements de type Modic en IRM (91). Les remaniements de type Modic inflammatoires (type 1 : hyposignal T1, hypersignal T2) sont classiquement associés à des douleurs plus importantes et surviennent sur des étages plus mobiles (90,92). 36 Fig. 18 Lame d'épanchement au sein de l'articulaire postérieure à l'étage directement sus-jacent de l'arthrodèse (flèche blanche), remaniements de type Modic 1 à l'étage supra-adjacent (flèche bleue) L'augmentation des contraintes sur la colonne postérieure accélère les remaniements dégénératifs inter-apophysaires postérieurs : ostéophytose avec hypertrophie des massifs articulaires, géodes et kystes, hypertrophie du ligament jaune, épanchement intraarticulaire. Comme nous l'avons vu précédemment, il existe aux étages adjacents une augmentation de mobilité qui peut être pourvoyeuse d'instabilité. Cette instabilité peut se traduire par la présence d'un listhésis ou d'une variation angulaire de plus de 10°. On définit le listhésis comme un glissement antérieur (antélisthésis) ou postérieur (rétrolisthésis) de la vertèbre sus-jacente à l'étage arthrodésé supérieur à 2-4mm suivant les auteurs (93,94). La cyphose jonctionnelle proximale (« proximal junctional kyphosis » ou PJK, figure 19) est classiquement considérée comme une forme bénigne de SA (95). Ce syndrome est notamment retrouvé dans les chirurgies de correction de scoliose ou dans les spondylarthropathies. Les définitions de PJK sont variables. La plus utilisée est celle de Glattes et al : augmentation de la valeur post-opératoire de 10° de l'angle mesuré entre la tangente au plateau supérieur de la vertèbre instrumentée supérieure et le plateau supérieur de la deuxième vertèbre au-dessus (96). On citera les autres définitions : augmentation angulaire post-opératoire de 15° pour Hostin et al, une augmentation de 20° pour Bridwell et al (97,98). Helgeson et al utilisent une augmentation post-opératoire de 15° ou plus en considérant la vertèbre sommet de l'arthrodèse et la vertèbre sus-jacente (et non pas la vertèbre supra-adjacente) (99). 37 La « Proximal Junctional Failure » (PJF) correspond à une forme sévère de PJK avec augmentation du risque de déformation, de douleurs ou d'atteinte neurologique mais également de reprise chirurgicale (95,100,101). Les définitions sont également variables : Hart et al considèrent qu'il faut à la fois une augmentation de 10° entre l'angle jonctionnel pré-opératoire et l'angle post-opératoire (mesuré entre la tangente au plateau supérieur de la vertèbre instrumentée supérieure et le plateau supérieur de la deuxième vertèbre audessus) associé à l'un des critères suivants : fracture vertébrale, pseudarthrose ou rupture de matériel, lésion du complexe osseux et ligamentaire postérieur (100). Yagi et al considèrent que le PJF est une forme de PJK nécessitant une chirurgie de correction mais dont la survenue est rare (23 cas sur 1668 patients opérés de déformation rachidienne) (102). Fig. 19 Exemples de PJF associant cyphose jonctionnelle et fracture du pôle supérieur du montage 2.2.3. Définition clinique du syndrome adjacent Dans une étude rétrospective sur 154 patients ayant reçu une fusion L4-L5, Cho et al ont observé 66,8 % de signes de dégénérescence au segment adjacent à 2 ans alors que 6,4 % des patients étaient symptomatiques (103). Cela montre bien que la définition purement radiologique n'est pas suffisante. Les études cliniques sur ce sujet montrent que 5,2 % à 18,5% des patients arthrodésés présentent une dégénérescence symptomatique du segment adjacent à moyen terme (86). Les manifestations cliniques habituelles sont la présence de rachialgies en regard des niveaux adjacents ou l'apparition d'une symptomatologie radiculaire, certains considèrent qu'il s'agit de manifestations cliniques nécessitant une réintervention chirurgicale (104). La clinique dépendra des anomalies radiologiques. Un débord discal latéralisé sera ainsi responsable de sténoses foraminales et donc de radiculalgies ; un débord central associé à une arthropathie postérieure pourra être responsable d'une sténose canalaire avec un 38 risque de claudication neurogène. Les remaniements de type Modic inflammatoires sont eux plutôt pourvoyeurs de rachialgies. 2.3. Effet du temps L'occurrence de la dégénérescence du segment adjacent augmente avec le temps (1). En 1987, Lehmann et al ont conduit une étude avec un suivi de plus de 30 ans après la fusion lombaire. Plus de la moitié des patients avaient développé une instabilité sur le segment susjacent et 1/3 présentaient une sténose bien qu'il n'y ait pas de corrélation avec la symptomatologie clinique (105). De même, en extrapolant les données cliniques de 215 patients arthrodésés, Ghiselli et al ont obtenu une courbe de survie du disque adjacent en fonction du temps écoulé depuis l'opération (106). 16,5 % des patients devaient ainsi être réopérés pour SA à 5 ans et 36,1 % à 10 ans. Les taux de reprise chirurgicale pour SA varient selon les séries ; Sears et al ont suivi 1000 patients pendant 10 ans avec un taux de reprise de 22,2% (incidence de 2,5% par an) alors que pour Lee et al, les taux avoisinent 10% (1,79). Concernant les cas de PJK, l'incidence rapportée dans la littérature est également variable (allant de 6 à 41%) mais les délais de survenue semblent plus courts (moins de 18 mois) (95). 2.4. De nombreux facteurs de risque et des études contradictoires Un grand nombre de facteurs de risque ont été incriminés avec quasiment pour chaque paramètre des études contradictoires. Facteurs épidémiologiques : • L'âge est un facteur de risque communément admis de survenue de SA après arthrodèse, probablement en rapport avec une diminution des capacités d'adaptation aux changement biomécaniques ou également à une dégénérescence discale plus marquée (107,108). A contrario, de rares études n'ont pas trouvé de corrélation avec l'âge (106,109). • Une augmentation du BMI (supérieure à 25) serait un facteur de risque de SA (110). • De même, la présence d'une discopathie pré-existante ou d'une arthrose postérieure sont des facteurs de risque potentiels (108,110,111). De son côté, Imagama n'a pas trouvé de corrélation évidente entre l'atteinte dégénérative articulaire postérieure et la survenue de discopathie ou sténose canalaire post-opératoire (112). • Le sexe et la densité minérale osseuse restent largement débattus. 39 Facteurs chirurgicaux : • Le type de chirurgie et d'instrumentations utilisés pourraient être des facteurs favorisants (113–115). Cheh et Zang ont montré que les niveaux arthrodésés (au-dessus de L1-L3) ainsi que le nombre d'étage opérés étaient corrélés à la survenue de SA alors qu' Anandjiwala et Cho par exemple retrouvaient des résultats contraires (103,111,116,117). Park montre que les contraintes au niveau de l'anneau fibreux ou des pédicules sont plus importantes quand l'arthrodèse intéresse l'étage L5-S1, ce qui augmente le risque de dégénérescence du segment adjacent ainsi que la cyphose à l'étage jonctionnel (118). • Les voies d'abord de type PLIF seraient plus pourvoyeuses de SA que les voies transforaminales épargnant la musculature para-rachidienne (79). Des études biomécaniques ont confirmé une majoration des contraintes sur l'interface plateau vertébral-cage et sur les pédicules lors des chirurgies type PLIF par rapport aux TLIF, surtout en flexion (119). De leur côté, Park et al retrouvent des taux plus élevés pour les fusions transpédiculaires que pour les autres types de fusion, instrumentées ou non (86). Equilibre sagittal : • Un déséquilibre sagittal pré-opératoire ou post-opératoire augmenterait le risque de SA. Selon Moreau et al, le risque de syndrome adjacent augmente avec le nombre d'étages arthrodésés d'autant plus qu'il existe un déséquilibre sagittal pré-opératoire (120). Dans le même sens, Kumar et al précisent dans une étude sur des arthrodèses posées dans un contexte de discopathie qu'une pente sacrée et une « plumbline C7 » anormales augmenteraient le risque de syndrome adjacent (109). Radovanovic et al ont montré qu'un déséquilibre antérieur post-opératoire (SVA supérieur à 50mm) était corrélé à une moins bonne évolution clinique dans les populations traitées pour spondylolisthésis dégénératif (121). • Un mauvais alignement du rachis cervical de profil (défini par l'augmentation de la distance entre les plumblines C2 et C7) après arthrodèse cervicale par voie antérieure augmenterait le risque de syndrome adjacent (122). • De nombreuses études ont suggéré que le manque de lordose et l'inadéquation avec l'incidence pelvienne étaient corrélées à la survenue d'un syndrome adjacent (3,104,123–127). • L'incidence pelvienne élevée est un facteur de risque retrouvé dans de nombreuses études, ceci peut être expliqué par le fait que chez ces patients il est plus difficile de rétablir une forte lordose lombaire durant la chirurgie (128). • Une augmentation de la version pelvienne en post-opératoire est également associée à la survenue de douleurs (58,128,129). 40 Cas du PJK : Les facteurs de risque décrits de PJK sont similaires : un âge supérieur à 55 ans, un déséquilibre sagittal pré-opératoire et post-opératoire, la présence d'une grande courbure, la nécessité de réaliser une arthrodèse combinée par voie antérieure et postérieure, une fusion étendue à l'étage sacré (95,96,102). Dans une étude récente, Sebaaly et al ont montré l'importance de la restauration de l'apex de la lordose lombaire adapté à l'incidence pelvienne dans la survenue de PJK (130). 2.5. Atteinte sacro-iliaque : une forme de syndrome adjacent ? La chirurgie de fusion lombaire augmente les contraintes sur les articulations sacro-iliaques via une augmentation de la mobilité, une augmentation de la tension capsulaire et ligamentaire, ce qui est responsable d'une symptomatologie douloureuse pouvant remettre en cause le succès chirurgical (131). Ce risque augmente d'autant plus que la fixation intéresse l'étage sacré ce qui amène donc à penser qu'il s'agit d'une forme de syndrome adjacent (132). Selon Finger et al, 1/3 des patients opérés sur plusieurs niveaux vont développer des douleurs de l'articulation sacro-iliaque en post-opératoire (133). Les thérapeutiques utilisées sont variables : les infiltrations intra-articulaires peuvent être utilisées notamment. Les études sur l'intérêt de la fixation sacro-iliaque afin de diminuer les douleurs apparaissent divergentes : Finger et al n'ont par exemple pas trouvé d'influence significative sur la symptomatologie douloureuse. 41 II. ROLE DE L'EQUILIBRE SAGITTAL DANS LA SURVENUE DU SYNDROME DU SEGMENT ADJACENT APRES ARTHRODESE RACHIDIENNE 1. Introduction : L'équilibre du rachis correspond à la capacité du corps humain à maintenir le centre de gravité dans le cône d'économie initialement décrit par Dubousset dès 1975. Chaque année, le nombre d'arthrodèses rachidiennes augmente. En effet, aux Etats-Unis, le nombre de chirurgies de stabilisation rachidienne a été multiplié par 2,4 entre 1998 et 2008, avec des résultats fonctionnels satisfaisants et toujours une meilleure compréhension de l'équilibre rachidien (1). Cependant, il a été décrit que cette chirurgie de stabilisation rachidienne accélèrait la survenue de remaniements dégénératifs aux étages non fusionnés adjacents témoignant de la difficulté à réaliser une stabilisation efficace tout en préservant l'équilibre pelvi-rachidien « idéal » du patient (2–4). Cette entité est connue sous le nom de syndrome du segment adjacent (SA). Malheureusement, la définition et donc l'incidence dans la littérature scientifique de cette complication n'apparaissent pas consensuelles du fait des multiples classifications cliniques et/ou radiologiques utilisées par les différents auteurs. Pour exemple, Harrop et al, dans leur méta-analyse regroupant 27 études, ont retrouvé des changements radiologiques à l'étage adjacent dans 8 à 100% des cas alors que les manifestations cliniques n'étaient présentes que dans 0 à 27,5% des cas (5). La définition la plus large englobe donc à la fois une symptomatologie douloureuse mais aussi des anomalies radiologiques aux étages sus ou sous-jacents telles que listhésis, atteinte des articulaires postérieures, discopathie mécanique, sténose canalaire, fracture de contrainte, scoliose ou même cyphose jonctionnelle ( « Proximal Junctional Kyphosis » ou PJK) (4,6). Une dizaine d'études ont suggéré, à juste titre, qu'un équilibre sagittal non respecté augmentait le risque de SA post-arthrodèse (7–11). Deux études récentes ont particulièrement étudié le rôle de l'équilibre sagittal sur des radiographies du rachis entier en incluant les têtes fémorales dans la survenue du syndrome adjacent (12,13). Matsumoto et al ont ainsi montré, en 2017, chez les patients opérés par voie postéro-latérale en L4-L5 qu'un déséquilibre antérieur pré-opératoire ainsi qu'une différence incidence pelvienne – lordose lombaire supérieure à 10 degrés étaient associés à la survenue d'un SA (13). Moreau et al, quant à eux, en 2016, ont également montré que le déséquilibre antérieur pré-opératoire mesuré par l'offset sagittal de C7 chez les patients porteurs de spondylolisthésis dégénératif multipliait le risque de SA par 2,8 (12).Toutefois ces études présentaient plusieurs limites importantes : absence de mesure réalisée de manière précoce après la chirurgie, durée de suivi courte, caractérisation du SA uniquement radiologique et surtout abscence d'évaluation de l'équilibre cervical (12,13). A notre connaissance, aucune etude n'a donc étudié le rôle des paramètres sagittaux du rachis lombaire, thoracique mais aussi cervical, post-opératoires précoces dans la survenue du SA. L'objectif de notre étude est donc d'identifier les paramètres pelvi-rachidiens 42 sagittaux prédictifs de SA, en prenant en compte la balance cervicale, avec un suivi sur le long terme. 2. Matériel et Méthodes : a. Population Après avis du comité d'éthique (CPP Sud-Ouest et Outre Mer III), nous avons mené une étude rétrospective cas-témoins bicentrique (Service d'Imagerie Ostéo-articulaire du CHU de Pellegrin de Bordeaux et Centre d'Imagerie Ostéo-articulaire de la Clinique du Sport de Bordeaux-Mérignac) sur l'ensemble des patients opérés d'une arthrodèse instrumentée du rachis, entre Janvier 2008 et Juin 2017 (n=1115). Nos critères d'inclusion étaient : âge supérieur à 18 ans, SA radiologique et clinique sur arthrodèse instrumentée, cliché post-opératoire précoce du rachis entier de type EOS réalisé dans la position de Faro (coudes fléchis, poignets sur les clavicules) (14). Les critères d'exclusion étaient : présence dans le plan frontal d'un angle de Cobb supérieur à 15°, absence d'EOS post-opératoire précoce disponible, apparition d'une complication post-opératoire intercurrente (pseudarthrose ou rupture du matériel, infection sur matériel d'arthrodèse). La définition choisie, dans notre étude, du SA était volontairement mixte avec une définition clinique et radiologique. Elle associait une symptomatologie douloureuse (apparition de rachialgies ou radiculalgies ou claudication radiculaire) et des anomalies radiologiques aux 2 étages adjacents à l'arthrodèse (avec au moins un des signes suivants) : - Sur le TDM ou IRM : discopathie (perte de hauteur du disque, débord postérieur), remaniements de MODIC inflammatoires (type 1), apparition ou majoration d'une sténose canalaire ou foraminale, ostéophytose ou arthrose postérieure. - Sur les radiographies EOS et/ou TDM/IRM : apparition d'un listhésis (glissement d'un corps vertébral supérieur d'au moins 3mm); d'une cyphose jonctionnelle proximale (PJK) avec angle supérieur à 10°/augmentation de la valeur post-opératoire de 10° de l'angle entre la vertèbre supérieure du montage et le plateau supérieur de la vertèbre supra-adjacente; d'une défaillance jonctionnelle proximale (PJF : Proximal junctional failure) correspondant à une forme sévère de PJK avec une fracture vertébrale sus-jacente ou une rupture proximale du matériel (15–17). Plusieurs exemples sont illustrés dans la figure 1. Nous avons également défini un groupe témoin de patients porteurs d'arthrodèses asymptomatiques cliniquement sans anomalie radiologique. 43 a b c d . 1 a : le TDM montre un exemple de PJF avec tassement du plateau supérieur de la Fig. vertèbre supérieure du montage. b : l'EOS montre un exemple de PJK avec perte de hauteur de la vertèbre sus-jacente. c : l'IRM avec saturation de la graisse montre des remaniements Modic inflammatoires (type 1) au-dessus de l'arthrodèse. d : l'IRM en T2 montre une discopathie marquée associant pincement et débord discal à l'étage sus-jacent à l'arthrodèse. Du point de vue démographique, 42 patients ont donc été inclus dans le groupe SA et 42 patients dans le groupe contrôle. Il y avait dans le groupe SA : 9 hommes et 33 femmes ; dans le groupe témoin: 7 hommes et 35 femmes. L'âge moyen au moment de la chirurgie initiale était 63,1 +/- 11,5 ans [39-84] dans le groupe SA et 60,9 +/- 11,8 ans [32-79] dans le groupe contrôle. Le BMI moyen du groupe SA était : 25,9 +/- 3,3 [21-33] et dans le groupe témoin: 24,2 +/-3 [17-29]. Le SA est survenu en moyenne au bout de 1156 jours [90-3600]. Le recul moyen du groupe contrôle était : 1380 jours [720-2370]. Le SA est survenu à l'étage directement sus-jacent dans 34 cas, à l'étage supra-adjacent dans 6 cas (1 seul cas sans atteinte conjointe de l'étage directement sus-jacent à l'arthrodèse) et à l'étage sous-jacent dans 8 cas. Les anomalies radiologiques retrouvées étaient réparties de la façon suivante : discopathies (37/42), remaniements de type Modic 1 (22/42), arthropathie postérieure (14/42), listhésis (7/42), sténose canalaire (15/42), foraminale (13/42), PJK (18/42 dont 7 cas de PJF). b. Procédures chirurgicales 17 patients ont été opérés pour scoliose dans le groupe SA, 17 dans le groupe témoin, 17 patients opérés d'un canal lombaire étroit sans scoliose dans le groupe SA, 8 dans le groupe témoin; 5 cas de discopathies avec sténoses foraminales pluri-étagées dans le groupe SA, 4 dans le groupe témoin; 2 spondylolisthésis dans le groupe SA, 12 dans le groupe témoin; 1 cas de fracture ostéosynthésée dans chaque groupe. 44 38 voies d'abord postérieures et 4 abords antérieurs ont été réalisées dans le groupe SA, 37 abords postérieurs et 5 abords antérieurs dans le groupe témoin. Un abord trans-foraminal a été réalisé dans 11 cas dans le groupe SA, 13 cas dans le groupe témoin. De plus, une ostéotomie inter-pédiculaire a été réalisée dans 9 cas dans le groupe SA, 6 cas dans le groupe témoin; une ostéotomie trans-pédiculaire dans 4 cas pour le groupe SA et 5 cas pour le groupe témoin. Le nombre moyen d'étages fusionnés était : 4,7+/-3,5 dans le groupe SA vs 4,8 +/- 4,2 dans le groupe témoin. Les montages supérieurs à 4 étages étaient considérés comme longs : 20 dans le groupe SA vs 19 dans le groupe témoin. Les principales caractéristiques épidémiologiques et chirurgicales sont résumées dans le tableau 1. Tableau 1 : Principales caractéristiques épidémiologiques et chirurgicales du groupe syndrome adjacent (SA) et témoins. Paramètres Age Moyenne (DS) Extrêmes BMI Moyenne (DS) Extrêmes Sexe H/F SA Témoins 63,1 (11,5) [39-84] 60,9 (11,8) [32-79] 25,9 (3,3) [21-33] 9/33 24,2 (3) [17-29] 7/35 Nombre d'étages arthrodèse Nombre de montages longs (>4) Ostéotomie inter-pédiculaire Ostéotomie trans-pédiculaire 4,7 (3,5) 20 9 4 4,8 (4,2) 19 6 5 c. Analyse radiologique Tous les patients cas et témoins ont bénéficié de clichés du rachis entier post opératoires précoces incluant au moins les têtes fémorales (système EOS®(Biospace, Paris, France)), en position debout standardisée afin d'avoir une acquisition simultanée frontale et sagittale à basse dose capable de couvrir dans le même temps le rachis et les membres inférieurs. Seuls les patients cas ont aussi bénéficiés de clichés EOS au moment de la survenus du SA (18). Dans le plan sagittal, plusieurs paramètres pelvi-rachidiens ont été mesurés à l'aide du PACS Dx MM Medasys® (Clamart, France) et de l' AGFA Healthcare Impax 8.0.1® (Mortsel, Belgique), à savoir : La « plumbline CAE » (CAE) comme le montre la figure 2, l'angle OD-HA (OD-HA), l'angle d'incidence crânienne (CIA), l'offset C2-C7), l'angle de lordose cervicale C2-C7, la pente horizontale de C7, la cyphose thoracique T1-T12 (CT T1T12) et T4-T12 (CT T4-T12), la lordose lombaire L1-S1 (LL L1S1), la lordose lombaire segmentaire (LL L4S1), , l'incidence pelvienne 45 (IP), la version pelvienne (VP), la pente sacrée (PS), la présence ou non d'une flexion des genoux. La « plumbline CAE » était mesurée comme la distance entre la verticale passant par les conduits auditifs externes et le centre des têtes fémorales. L'OD-HA était l'angle mesuré entre la droite reliant l'apex de C2 et le centre des têtes fémorales avec la verticale passant par les têtes fémorales (19). L'angle d'incidence crânienne (CIA) était l'angle entre la perpendiculaire à la ligne de Mc Gregor et la ligne qui unissait le milieu de la ligne de Mc Gregor à la selle turcique (20). l'offset C2-C7 était la distance entre la « plumbline » passant par le centre de C2 et la « plumbline » passant par le centre de C7 ; l'angle de lordose cervicale C2-C7 était mesuré entre le plateau supérieur de C2 et le plateau inférieur de C7 ; la pente de C7 était l'angle entre le plateau vertébral inférieur de C7 et l'horizontale. CT était l'angle défini par le plateau vertébral supérieur de T4 ou T1 et le plateau vertébral inférieur de T12 ; LL L1S1 était définie par l'angle entre le plateau vertébral supérieur de L1 et le plateau vertébral supérieur de S1, LL L4-S1 par le plateau supérieur de L4 et S1. IP était l'angle que forme la droite reliant le centre des têtes fémorales au milieu du plateau supérieur de S1 avec la perpendiculaire au plateau supérieur de S1. IP a été classée en 3 types : type 0 pour IP<45°, type 1 pour IP comprise entre 45 et 60°, type 2 pour IP>60 (21). VP était l'angle entre la droite reliant le centre des têtes fémorales et le milieu du plateau sacré et la verticale ; PS était mesurée comme l'angle entre le plateau supérieur de S1 avec l'horizontale. 8mm a b c Fig. 2 a,b : Radiographies EOS post-opératoires d'une arthrodèse instrumentée antérieure (ALIF) L4-L5. La plumbline passant par les conduits auditifs externes se projette 49mm en arrière des têtes fémorales.c : Mesure de l'offset C2-C7. 46 De la même manière dans les 2 groupes, les valeurs théoriques de LL L1-S1 et de VP ont été calculées sur les EOS post opératoires précoces, à partir des formules suivantes à partir des valeurs mesurées des EOS post opératoires précoces : LL (L1-S1) = 0.54*PI + 27.6 ; PT = 0.44*PI - 11.4 (20). Cela a permis de déterminer la présence d'une LL inadaptée à l'IP (écart avec LL théorique >10°) ou d'une rétroversion (écart >10° avec VP théorique) (22). Le délai moyen de réalisation de l'EOS post-opératoire précoce était : 15 jours [1-96] dans le groupe SA et 40 jours [3-120] dans le groupe témoin. d. Analyse statistique L'analyse statistique a été réalisée à l'aide du logiciel SAS 9.3. Les cas et les témoins ont été comparés à l'aide d'un t-test de Student pour les variables quantitatives et à l'aide d'un test du Chi2 pour les variables qualitatives. Une analyse univariée ainsi qu'une analyse multivariée ont été réalisées à l'aide d'un test de régression logistique. Une courbe ROC a été réalisée si des variables quantitatives apparaissaient significativement associées au SA lors de la régression multi-variée. Nous avons également comparé les valeurs des différents paramètres entre l'EOS post opératoire précoce et l'EOS au moment du SA dans le groupe cas. Une valeur p<0,05 était considérée comme significative. 47 3. Résultats Nous présenterons, dans ce paragraphe, successivement les résultats de l'analyse univariée, de l'analyse en sous-populations puis de l'analyse multivariée (pour les paramètres significatifs en analyse univariée). Dans un second temps, nous présenterons les résultats de la comparaison entre les paramètres post-opératoires précoces significatifs en analyse univariée et au moment du SA. a. Analyse univariée : Le tableau 2 rapporte l'ensemble des résultats des paramètres quantitatifs et qualitatifs étudiés. Tableau 2. Comparaison des paramètres post-opératoires entre syndrome adjacent (SA) et témoins. Paramètres SA DS Témoins DS CAE1 (cm) -0,5 3,4 -2,9 3,5 p=0,0018 Nombre CAE>0(%) 19 (45,2) 8 (19) p=0,0183 OD-HA 2 (°) -0,5 3,1 -2,3 2,9 p=0,006 Nombre >0 (%) 15 (35,7) 8 (19) p=0,04 CIA 3 (mm) 26,7 5,2 26,8 4,5 p=0,876 Offset C2C7 (mm) 17,2 8,1 9,4 7,7 p<0,0001 Angle C2-C7 (°) 15,9 10,2 12,5 8,8 p=0,107 Pente C7 (°) 26 9,2 20,7 9,1 p=0,011 CT4 T1-T12 (°) 42,1 13,1 39,8 11,3 p=0,4 CT4 T4-T12 (°) 41 13,3 38,3 11,7 p=0,33 LL5 L1S1 (°) 44,2 12 49,5 11,6 p=0,04 LL5 L4S1 (°) 29,4 7,9 29,7 8,8 p=0,83 LL5 inadaptée (%) 25 (59,5) 11 (26,2) p=0,002 IP6 (°) 54,5 13,7 55,9 10,5 p=0,61 VP7 (°) 23,2 9,1 22,9 9,2 p=0,859 PS8 (°) 31,3 9 33 7,6 p=0,348 Retroversion (%) 26 (61,9) 16 (38,1) p=0,08 Flexion genoux (%) 6 (14,3) 3 (7,1) p=0,29 1 : CAE = plumbline du conduit auditif externe ; 2 : OD-HA = odontoïde-centre des têtes fémorales ; 3 : CIA = angle d'incidence crânienne ; 4 : CT = cyphose thoracique ; 5 : LL = lordose lombaire ; 6 : IP = incidence pelvienne ; 7 : VP = version pelvienne ; 8 : PS = pente sacrée. DS : déviation standard ; ° : degrès ; cm : centimètres ; mm : millimètres ; p significatif si <0,05. 48 Seuls les paramètres statistiquement significatifs sont rapportés ci dessous. Le groupe SA avait un CAE (-0,5 vs -2,9, p=0,0018) et un OD-HA (-0,5 vs -2,3, p=0,006) significativement plus élevés par rapport au groupe contrôle. 19 patients avaient un CAE>0 dans le groupe SA contre 8 dans le groupe témoin (p=0,0183) ; 15 patients avient un ODHA>0 dans le groupe SA contre 8 patients dans le groupe témoin (p=0,04). La pente de C7 (26 vs 21 ; p=0,011) et l'off-set C2-C7 (17 vs 9 ; p<0,0001) étaient également significativement plus marqués dans le groupe SA. LL L1-S1 était plus basse dans le groupe SA ( 44 vs 50, p=0,004). Après calcul des valeurs théoriques de LL et VP, plus de LL inadaptées à l'IP (hypolordoses) étaient rapportés dans le groupe SA : 25 vs 11 dans le groupe témoin, p=0,002). La différence sur la présence d'une retroversion (26 dans le groupe SA vs 16 dans le groupe témoin, p=0,08) et sur le nombre de patients présentant une flexion des genoux (6 vs 3, p=0,29) n'était pas statistiquement significative. b. Analyse en sous-populations : Chez les patients présentant un CAE < ou = 0, la rétroversion pelvienne était plus fréquente dans le groupe SA: 17 vs 13 dans le groupe témoin (p=0,0144) ; il n'y avait pas de différence significative sur le nombre de patients en flexion des genoux. Aucun type d'IP n'apparaissait statistiquement associé à la survenue d'un SA. Il n'a pas été retrouvé de différence significative dans la survenue de SA pour les différents sous-groupes d'IP pour les montages courts ou pour les montages longs. Dans le groupe SA, il y a eu 18 cas de PJK dont 8 cas de PJF. Tous sont survenus sur des montages longs incluant au moins 5 étages dans des délais plus précoces par rapport aux autres types de SA: 951 jours [350-2490] vs 1308 jours [360-3600]. Les cas de PJF sont survenus plus rapidement : 601 jours [180-2250]. Il n'y avait pas de différence significative dans les valeurs de pente de C7 entre les patients présentant un PJK (moyenne : 24,6 +/- 11) avec les autres SA (moyenne : 26,9 +/- 7,6, p=0,42) ou avec les témoins (moyenne : 25,9 +/9,2). A l'intérieur du groupe SA, il n'y avait pas de différence significative sur la valeur de la pente C7 (p=0,97) et l'off-set C2-C7 (p=0,5) entre les montages courts et les montages longs. c. Analyse multivariée : L'analyse multivariée a été réalisée pour les paramètres significatifs de l'analyse univariée, à savoir la valeur du CAE, la présence d'un CAE>0, la présence d'un OD-HA>0, la pente de C7, la distance entre les plumblines C2 et C7, la valeur de LL L1S1 et la présence d'une valeur LL inadaptée à IP. 49 Le tableau 3 et le graphique 1 rapportent les résultats de cette analyse avec la valeur de l'Odds Ratio, l'intervalle de confiance à 95% et la valeur p. Tableau 3. Résultat de l'analyse multivariée Paramètres OR IC 95 p CAE1 (cm) 1,1 0,825 1,398 p=0,597 CAE1 >0 1,538 0,17 13,884 p=0,701 OD-HA2 >0 0,636 0,068 5,976 p=0,692 OffsetC2-C7 1,152 1,056 1,256 p=0,001 Pente C7 1,016 0,951 1,085 p=0,636 LL3 L1S1 0,988 0,928 1,052 p=0,709 LL3 inadaptée 5,063 1,139 22,498 p=0,033 1 : CAE = plumbline des conduits auditifs externes ; 2 : OD-HA = angle entre la droite reliant l'apex de la dent de C2 au centre des têtes fémorales et la verticale passant par les têtes fémorales ; 3 : LL = lordose lombaire. cm : centimètres ; p significatif si <0,05 ; IC 95 : intervalle de confiance à 95% ; OR : Odds Ratio. SDA / Coefficients normalisés(Int. de conf. 95%) 1,2 0,4 LL L1S1 pentec7 0,6 0,2 -0,4 -0,6 LL inadaptée -0,2 OD-HA>0 0 C2C7offset Coefficients normalisés 0,8 CAE>0 CAE 1 Paramètres Graphique 1 : diagramme en boîtes de l'analyse multivariée. 50 La valeur de l'offset C2C7 (OR=1,152, IC 95% (1,056-1,256), p=0,001) était significativement associées au SA. Nous avons défini le seuil possédant la meilleure sensibilité et spécificité (Graphique 2) ; celui-ci était situé à 12 mm (Se=0,71 ; Sp=0,74). Graphique 2. Courbe ROC des valeurs de l'offset C2-C7. La présence de LL inadaptée à IP était également significativement associée au SA lors de l'analyse multivariée (OR=5,063 ; IC 95% (1,139-22,498), p=0,033). Comparaison chez les cas au moment du SA et en post-opératoire précoce La comparaison des valeurs post-opératoires significatives en analyse univariée avec les valeurs au moment du diagnostic de SA est reportée dans le tableau 4. Tableau 4. Comparaison des valeurs post-opératoires précoces (POP) et au moment du syndrome adjacent (SA) dans le groupe cas. Paramètres POP DS SA DS CAE1 (cm) -0,5 3,4 0,17 4,7 p=0,7 OD-HA2 (°) -0,5 3,1 -0,1 4,5 p=0,65 OffsetC2C7 17,2 8,1 20,1 15,4 p=0,292 (mm) Pente C7 (°) 26 9,2 32,8 14,5 p=0,013 LL3 L1S1 (°) 44,2 12 43,6 15,2 p=0,836 IP4 (°) 54,5 13,7 55 14,1 p=0,827 VP5 (°) 23,2 9,1 27,3 8,6 p=0,04 1 : CAE = plumbline du conduit auditif externe ; 2 : OD-HA = angle entre la droite reliant l'apex de la dent de C2 au centre des têtes fémorales et la verticale passant par les têtes fémorales; 3 : LL = lordose lombaire ; 4 : IP = incidence pelvienne ; 5 : VP = version pelvienne ; ° : degrès ; mm : millimètres ; cm : centimètres; DS : déviation standard ; p significatif si <0,05 (valeurs en gras). 51 Au moment du SA, il n'y avait pas de différence significative avec les valeurs postopératoires pour le CAE, ODHA, off-set C2C7, LL L1S1, IP, VP. On retrouvait une augmentation significative de la pente de C7 : 24 (9,2) vs 32,8 (14,5), p=0,013 ; ainsi qu'une augmentation de VP : 27,3 (8,6) vs 23,2 (9,1), p=0,04. Il n'y avait pas de différence significative sur le nombre de patients en flexion des genoux : 12 vs 6, p=0,111 ou en rétroversion : 28 vs 26, p=0,649. 4. Discussion Les facteurs prédictifs associés à la survenue d'un SA en analyse univariée étaient la présence d'une « plumbline CAE » ou d'un angle OD-HA positifs, la présence d'une pente C7 élevée, une augmentation de l'offset C2-C7 ainsi qu'une LL inadaptée à l'IP. Après analyse multivariée, seuls l'offset C2-C7 et la présence d'une LL inadaptée restaient potentiellement prédictifs de SA. Concernant, l'offset C2-C7, une augmentation de la distance entre les plumblines C2 et C7 est restée associée à la présence d'un SA dans notre série. Ces résultats sont concordants avec la littérature scientifique. La pente de T1 (ou de C7) et la lordose C2-C7 sont des facteurs déterminants de l'offset C2C7 (ou C2-C7 SVA) (23). L'élévation de l'offset C2-C7 traduit donc un mauvais alignement du rachis cervical dans le groupe SA avec une position plus antérieure de la tête. Ce mauvais alignement est reflété dans notre série par une discordance entre une pente de C7 augmentée dans le groupe SA avec une lordose cervicale C2-C7 non augmentée. Cette discordance pourrait, selon Hyun et al, s'apparenter au missmatch décrit généralement entre IP et LL (24). Nos données sont aussi concordantes avec les résultats de Park et al, pour lequel un mauvais alignement du rachis cervical augmente le risque de SA dans les suites des arthrodèses antérieures cervicales. Tang et al. ont aussi précisé qu'un mauvais alignement du rachis cervical (C2-C7 SVA >40mm) était corrélé à une détérioration des scores d'évaluation clinique comme le NDI : Neck Disability Index (25). Dans notre étude, le meilleur seuil de sensibilté et spécificité du C2-C7 SVA est 12mm alors que Knott et al retrouvaient dans une population asymptomatique une valeur moyenne du SVA C2-C7 de 16mm (26). Cette différence pourrait s'expliquer par une différence de définition. En effet , nous avons choisi de mesurer la distance entre les « plumblines » passant par le centre de C2 et le centre de C7 et non la distance entre la « plumbline C2 » et le coin postéro-supérieur de C7. Concernant LL L1-S1, une LL inadaptée avec une mauvaise restitution de LL apparaissait comme un facteur prédictif fort de survenue SA avec un OR supérieur à 5. 20/09/y 09:14Plusieurs études ont mis en avant le rôle favorisant du mauvais équilibre sagittal et d'une mauvaise répartition des courbures sur la survenue de SA (7–10,12). En effet, Djurasovic et al ont montré que les patients qui développaient un syndrome adjacent avaient une LL post-opératoire significativement plus basse (9). Les études prenant en compte l'IP ont aussi montré qu'un missmatch post-opératoire LL-IP supérieur à 10° était un 52 facteur de risque de survenue de SA (13,27). Ces données sont expliquées par plusieurs études biomécaniques qui retrouvent une augmentation des contraintes inter-vertébrales et sur la colonne postérieure aux étages adjacents en cas de défaut de lordose (10,28). Concernant l'analyse univariée, la présence d'un déséquilibre sagittal antérieur postopératoire (CAE ou ODHA positifs) augmentait le risque de survenue de SA. Ces résultats apparaissent concordants avec les données de la littérature actuelle. Si la présence d'un déséquilibre pré-opératoire a déjà été décrit comme facteur de risque de SA dans plusieurs études, Kumar et al ont aussi démontré en 2001 le rôle central de l'équilibre post-opératoire : les patients avec une « plumbline C7 » post-opératoire normale présentaient ainsi des incidences de survenues de SA inférieures (11–13). Récemment, Radovanovic et al ont montré que des valeurs post-opératoires de SVA supérieures à 50mm étaient corrélées à une moins bonne évolution clinique dans les populations traitées pour spondylolisthésis dégénératif (29). A l'inverse, la présence d'un nombre non négligeable de patients déséquilibrés radiologiquement en post-opératoire précoce dans le groupe témoin (19% en prenant la plumbline CAE) peut sembler suprenante d'autant plus que dans le suivi de ces patients le déséquilibre n'était plus forcément retrouvé, ce qui pose la question de l'influence en postopératoire de paramètres comme la douleur. Selon Hodges et al, la douleur altère le contrôle musculaire du tronc et notamment de la région lombaire et pelvienne (30). Par ailleurs, pour analyser l'équilibre global, nous avons fait le choix d'utiliser la plumbline CAE et l'angle OD-HA et avons défini le déséquilibre antérieur si les valeurs de ces paramètres étaient strictement positives. Contrairement à la « plumbline C7 » ( C7-SVA), qui n'est que le reflet de la position du rachis thoraco-lombaire par rapport au pelvis, l'OD-HA et la « plumbline CAE » sont des repères tenant compte de la position de la tête et du rachis cervical, situés à proximité du centre de gravité de la tête défini par Vital et al (31). De plus, l'OD-HA a été décrit récemment comme le paramètre le moins variable pour refléter la position de la tête par rapport au pelvis (19). Dans notre étude, les cas de PJK (incluant PJF) représentait 42,8% des SA, ce qui s'est traduit par une élévation de la CT T1-T12 et T4-T12 au moment du SA par rapport aux valeurs postopératoires précoces. Le Huec et al précisent en effet que les patients avec une pente de C7 élevée ont plus de difficultés à compenser une hypercyphose thoracique, ce qui est aussi reflété dans notre série, avec des valeurs post-opératoires précoces de pente de C7 plus élevées dans le groupe SA (20). Nos cas de PJK sont survenus de façon préférentielle pour des montages longs étendus à l'étage thoracique. Le nombre d'étages fusionnés est un facteur de risque retrouvé dans la littérature mais avec des résultats contradictoires. Bridwell et al ont montré que la PJK survenait chez des patients présentant moins d'étages fusionnés par rapport aux patients sains (médiane 8 vs 11) (32). A l'inverse, Kim et al ont eux retrouvé que le risque de PJK augmentait avec le nombre d'étages arthrodésés (supérieur à 11) (33). Nos cas de PJF sont survenus dans des délais relativement courts. De nombreux facteurs de risque ont été rapportés dont la présence d'un déséquilibre sagittal post-opératoire et une 53 fusion intéressant l'étage sacré (34,35). La restauration de l'apex de la lordose sagittale adapté à IP semble diminuer le risque de PJK (36). Notre étude a cependant plusieurs limites. Premièrement, il s'agit d'une étude rétrospective avec les biais classiques de sélection (indications opératoires, voies d'abord hétérogènes). Cependant, il s'agit d'une large revue sur 10 ans de l'ensemble des arthrodèses rachidiennes instrumentées réalisées dans 2 centres spécialisés comprenant 1115 chirurgies. Deuxièmement, notre groupe de cas ne comporte qu'un faible nombre de patients (42 cas) du fait de l'utilisation de critères de sélection cliniques et radiologiques stricts. Ainsi, les patients présentant un déséquilibre dans le plan frontal ont été exclus, de même que les patients dont les clichés n'étaient pas réalisés dans la position de référence définie par Faro. Troisièmement, plusieurs patients présentant des PJK peu symptomatiques ont été classés en SA et à l'inverse un nombre non négligeable de patients asymptomatiques présentant des mécanismes de compensation rachidienne (hypocyphose thoracique), pelviens (rétroversion) ou des membres inférieurs (flexion des genoux) ont été inclus dans le groupe témoin. D'une part, le fait de classer le PJK en SA est toujours largement débattu : il n'existe pas de consensus pour dire si la PJK est un diagnostic uniquement radiologique et si les implications cliniques sont réelles, plusieurs études n'ayant pas trouvé de diminution des scores cliniques en cas de PJK (33,35). D'autre part, Bao et al ont montré que des mécanismes compensateurs pouvaient être retrouvés dans une population asymptomatique (37). III. CONCLUSION : Dans notre étude, les facteurs potentiellement prédictifs de SA sont un déséquilibre cervical antérieur reflété par une augmentation de la distance entre les plumblines C2 et C7 et la présence d'un défaut de restitution de LL (LL inadaptée à IP). Cette étude suggère que la chirurgie rachidienne doit prendre en compte la chaîne crânio-cervicale quelque soit l'étage opéré afin de maintenir un équilibre ergonomique. 54 IV. BIBLIOGRAPHIE 1. Sears WR, Sergides IG, Kazemi N, Smith M, White GJ, Osburg B. Incidence and prevalence of surgery at segments adjacent to a previous posterior lumbar arthrodesis. Spine J Off J North Am Spine Soc. 2011 Jan;11(1):11–20. 2. Rajaee SS, Bae HW, Kanim LEA, Delamarter RB. Spinal fusion in the United States: analysis of trends from 1998 to 2008. Spine. 2012 Jan 1;37(1):67–76. 3. Akamaru T, Kawahara N, Tim Yoon S, Minamide A, Su Kim K, Tomita K, et al. Adjacent segment motion after a simulated lumbar fusion in different sagittal alignments: a biomechanical analysis. Spine. 2003 Jul 15;28(14):1560–6. 4. Celestre PC, Montgomery SR, Kupperman AI, Aghdasi B, Inoue H, Wang JC. Lumbar clinical adjacent segment pathology: predilection for proximal levels. Spine. 2014 Jan 15;39(2):172–6. 5. Harrop JS, Youssef JA, Maltenfort M, Vorwald P, Jabbour P, Bono CM, et al. Lumbar adjacent segment degeneration and disease after arthrodesis and total disc arthroplasty. Spine. 2008 Jul 1;33(15):1701–7. 6. Le Huec JC, Saddiki R, Franke J, Rigal J, Aunoble S. Equilibrium of the human body and the gravity line: the basics. Eur Spine J Off Publ Eur Spine Soc Eur Spinal Deform Soc Eur Sect Cerv Spine Res Soc. 2011 Sep;20 Suppl 5:558–63. 7. Duval-Beaupère G, Schmidt C, Cosson P. A Barycentremetric study of the sagittal shape of spine and pelvis: the conditions required for an economic standing position. Ann Biomed Eng. 1992;20(4):451–62. 8. Oxland TR. Fundamental biomechanics of the spine--What we have learned in the past 25 years and future directions. J Biomech. 2016 Apr 11;49(6):817–32. 9. Panjabi MM. Clinical spinal instability and low back pain. J Electromyogr Kinesiol Off J Int Soc Electrophysiol Kinesiol. 2003 Aug;13(4):371–9. 10. Hasegawa K, Okamoto M, Hatsushikano S, Shimoda H, Ono M, Homma T, et al. Standing sagittal alignment of the whole axial skeleton with reference to the gravity line in humans. J Anat. 2017 May;230(5):619–30. 11. Schwab F, Lafage V, Boyce R, Skalli W, Farcy J-P. Gravity line analysis in adult volunteers: agerelated correlation with spinal parameters, pelvic parameters, and foot position. Spine. 2006 Dec 1;31(25):E959–67. 12. Dreischarf M, Pries E, Bashkuev M, Putzier M, Schmidt H. Differences between clinical "snapshot" and "real-life" assessments of lumbar spine alignment and motion - What is the "real" lumbar lordosis of a human being? J Biomech. 2016 Mar 21;49(5):638–44. 13. Marks M, Stanford C, Newton P. Which lateral radiographic positioning technique provides the most reliable and functional representation of a patient's sagittal balance? Spine. 2009 Apr 20;34(9):949–54. 14. Melhem E, Assi A, Rachkidi R El, Ghanem I. EOS(®) biplanar X-ray imaging: concept, developments, benefits, and limitations. J Child Orthop. 2016 Feb;10(1):1–14. 55 15. Deschênes S, Charron G, Beaudoin G, Labelle H, Dubois J, Miron M-C, et al. Diagnostic imaging of spinal deformities: reducing patients radiation dose with a new slot-scanning X-ray imager. Spine. 2010 Apr 20;35(9):989–94. 16. Faro FD, Marks MC, Pawelek J, Newton PO. Evaluation of a functional position for lateral radiograph acquisition in adolescent idiopathic scoliosis. Spine. 2004 Oct 15;29(20):2284–9. 17. Vrtovec T, Pernus F, Likar B. A review of methods for quantitative evaluation of spinal curvature. Eur Spine J Off Publ Eur Spine Soc Eur Spinal Deform Soc Eur Sect Cerv Spine Res Soc. 2009 May;18(5):593–607. 18. Gracovetsky SA, Zeman V, Carbone AR. Relationship between lordosis and the position of the centre of reaction of the spinal disc. J Biomed Eng. 1987 Jul;9(3):237–48. 19. Roussouly P, Gollogly S, Berthonnaud E, Dimnet J. Classification of the normal variation in the sagittal alignment of the human lumbar spine and pelvis in the standing position. Spine. 2005 Feb 1;30(3):346–53. 20. Janik TJ, Harrison DD, Cailliet R, Troyanovich SJ, Harrison DE. Can the sagittal lumbar curvature be closely approximated by an ellipse? J Orthop Res Off Publ Orthop Res Soc. 1998 Nov;16(6):766– 70. 21. Le Huec J-C, Faundez A, Dominguez D, Hoffmeyer P, Aunoble S. Evidence showing the relationship between sagittal balance and clinical outcomes in surgical treatment of degenerative spinal diseases: a literature review. Int Orthop. 2015 Jan;39(1):87–95. 22. Kobayashi T, Atsuta Y, Matsuno T, Takeda N. A longitudinal study of congruent sagittal spinal alignment in an adult cohort. Spine. 2004 Mar 15;29(6):671–6. 23. Schwab F, Lafage V, Patel A, Farcy J-P. Sagittal plane considerations and the pelvis in the adult patient. Spine. 2009 Aug 1;34(17):1828–33. 24. Le Huec JC, Demezon H, Aunoble S. Sagittal parameters of global cervical balance using EOS imaging: normative values from a prospective cohort of asymptomatic volunteers. Eur Spine J Off Publ Eur Spine Soc Eur Spinal Deform Soc Eur Sect Cerv Spine Res Soc. 2015 Jan;24(1):63–71. 25. Legaye J, Duval-Beaupère G. Sagittal plane alignment of the spine and gravity: a radiological and clinical evaluation. Acta Orthop Belg. 2005 Apr;71(2):213–20. 26. Eskilsson K, Sharma D, Johansson C, Hedlund R. The impact of spinopelvic morphology on the short-term outcome of pedicle subtraction osteotomy in 104 patients. J Neurosurg Spine. 2017 Jul;27(1):74–80. 27. Vialle R, Levassor N, Rillardon L, Templier A, Skalli W, Guigui P. Radiographic analysis of the sagittal alignment and balance of the spine in asymptomatic subjects. J Bone Joint Surg Am. 2005 Feb;87(2):260–7. 28. Le Huec JC, Hasegawa K. Normative values for the spine shape parameters using 3D standing analysis from a database of 268 asymptomatic Caucasian and Japanese subjects. Eur Spine J Off Publ Eur Spine Soc Eur Spinal Deform Soc Eur Sect Cerv Spine Res Soc. 2016 Nov;25(11):3630–7. 56 29. Zepa I, Hurmerinta K, Kovero O, Nissinen M, Könönen M, Huggare J. Associations between thoracic kyphosis, head posture, and craniofacial morphology in young adults. Acta Odontol Scand. 2000 Dec;58(6):237–42. 30. Berthonnaud E, Dimnet J, Roussouly P, Labelle H. Analysis of the sagittal balance of the spine and pelvis using shape and orientation parameters. J Spinal Disord Tech. 2005 Feb;18(1):40–7. 31. Hardacker JW, Shuford RF, Capicotto PN, Pryor PW. Radiographic standing cervical segmental alignment in adult volunteers without neck symptoms. Spine. 1997 Jul 1;22(13):1472–80; discussion 1480. 32. Kwon W-K, Kim PS, Ahn SY, Song JY, Kim JH, Park Y-K, et al. Analysis of Associating Factors With C2-7 Sagittal Vertical Axis After Two-level Anterior Cervical Fusion: Comparison Between Plate Augmentation and Stand-alone Cages. Spine. 2017 Mar;42(5):318–25. 33. Park MS, Moon S-H, Lee H-M, Kim SW, Kim T-H, Lee SY, et al. The effect of age on cervical sagittal alignment: normative data on 100 asymptomatic subjects. Spine. 2013 Apr 15;38(8):E458–63. 34. Tang JA, Scheer JK, Smith JS, Deviren V, Bess S, Hart RA, et al. The Impact of Standing Regional Cervical Sagittal Alignment on Outcomes in Posterior Cervical Fusion Surgery. Neurosurgery. 2015 Mar 1;76(suppl_1):S14–21. 35. Hyun S-J, Kim K-J, Jahng T-A, Kim H-J. Relationship Between T1 Slope and Cervical Alignment Following Multilevel Posterior Cervical Fusion Surgery: Impact of T1 Slope Minus Cervical Lordosis. Spine. 2016 Apr;41(7):E396–402. 36. Vital JM, Senegas J. Anatomical bases of the study of the constraints to which the cervical spine is subject in the sagittal plane. A study of the center of gravity of the head. Surg Radiol Anat SRA. 1986;8(3):169–73. 37. Sugrue PA, McClendon J, Smith TR, Halpin RJ, Nasr FF, OʼShaughnessy BA, et al. Redefining global spinal balance: normative values of cranial center of mass from a prospective cohort of asymptomatic individuals. Spine. 2013 Mar 15;38(6):484–9. 38. Dubousset J, Charpak G, Skalli W, de Guise J, Kalifa G, Wicart P. [Skeletal and spinal imaging with EOS system]. Arch Pediatr Organe Off Soc Francaise Pediatr. 2008 Jun;15(5):665–6. 39. Obeid I, Hauger O, Aunoble S, Bourghli A, Pellet N, Vital J-M. Global analysis of sagittal spinal alignment in major deformities: correlation between lack of lumbar lordosis and flexion of the knee. Eur Spine J Off Publ Eur Spine Soc Eur Spinal Deform Soc Eur Sect Cerv Spine Res Soc. 2011 Sep;20 Suppl 5:681–5. 40. Skalli W, Zeller RD, Miladi L, Bourcereau G, Savidan M, Lavaste F, et al. Importance of pelvic compensation in posture and motion after posterior spinal fusion using CD instrumentation for idiopathic scoliosis. Spine. 2006 May 20;31(12):E359–66. 41. Laouissat F, Sebaaly A, Gehrchen M, Roussouly P. Classification of normal sagittal spine alignment: refounding the Roussouly classification. Eur Spine J Off Publ Eur Spine Soc Eur Spinal Deform Soc Eur Sect Cerv Spine Res Soc. 2017 Apr 28; 42. Bao H, Lafage R, Liabaud B, Elysée J, Diebo BG, Poorman G, et al. Three types of sagittal alignment regarding compensation in asymptomatic adults: the contribution of the spine and 57 lower limbs. Eur Spine J Off Publ Eur Spine Soc Eur Spinal Deform Soc Eur Sect Cerv Spine Res Soc. 2017 Jun 6; 43. Boulay C, Tardieu C, Hecquet J, Benaim C, Mouilleseaux B, Marty C, et al. Sagittal alignment of spine and pelvis regulated by pelvic incidence: standard values and prediction of lordosis. Eur Spine J. 2006 Apr;15(4):415–22. 44. Barrey C, Jund J, Perrin G, Roussouly P. Spinopelvic alignment of patients with degenerative spondylolisthesis. Neurosurgery. 2007 Nov;61(5):981–6; discussion 986. 45. Barrey C, Jund J, Noseda O, Roussouly P. Sagittal balance of the pelvis-spine complex and lumbar degenerative diseases. A comparative study about 85 cases. Eur Spine J Off Publ Eur Spine Soc Eur Spinal Deform Soc Eur Sect Cerv Spine Res Soc. 2007 Sep;16(9):1459–67. 46. Funao H, Tsuji T, Hosogane N, Watanabe K, Ishii K, Nakamura M, et al. Comparative study of spinopelvic sagittal alignment between patients with and without degenerative spondylolisthesis. Eur Spine J Off Publ Eur Spine Soc Eur Spinal Deform Soc Eur Sect Cerv Spine Res Soc. 2012 Nov;21(11):2181–7. 47. Lafage V, Schwab F, Skalli W, Hawkinson N, Gagey P-M, Ondra S, et al. Standing balance and sagittal plane spinal deformity: analysis of spinopelvic and gravity line parameters. Spine. 2008 Jun 15;33(14):1572–8. 48. Roussouly P, Gollogly S, Noseda O, Berthonnaud E, Dimnet J. The vertical projection of the sum of the ground reactive forces of a standing patient is not the same as the C7 plumb line: a radiographic study of the sagittal alignment of 153 asymptomatic volunteers. Spine. 2006 May 15;31(11):E320–5. 49. Gangnet N, Pomero V, Dumas R, Skalli W, Vital J-M. Variability of the spine and pelvis location with respect to the gravity line: a three-dimensional stereoradiographic study using a force platform. Surg Radiol Anat SRA. 2003 Dec;25(5-6):424–33. 50. Amabile C, Pillet H, Lafage V, Barrey C, Vital J-M, Skalli W. A new quasi-invariant parameter characterizing the postural alignment of young asymptomatic adults. Eur Spine J Off Publ Eur Spine Soc Eur Spinal Deform Soc Eur Sect Cerv Spine Res Soc. 2016 Nov;25(11):3666–74. 51. Le Huec JC, Leijssen P, Duarte M, Aunoble S. Thoracolumbar imbalance analysis for osteotomy planification using a new method: FBI technique. Eur Spine J Off Publ Eur Spine Soc Eur Spinal Deform Soc Eur Sect Cerv Spine Res Soc. 2011 Sep;20 Suppl 5:669–80. 52. Protopsaltis T, Schwab F, Bronsard N, Smith JS, Klineberg E, Mundis G, et al. TheT1 pelvic angle, a novel radiographic measure of global sagittal deformity, accounts for both spinal inclination and pelvic tilt and correlates with health-related quality of life. J Bone Joint Surg Am. 2014 Oct 1;96(19):1631–40. 53. Le Huec JC, Charosky S, Barrey C, Rigal J, Aunoble S. Sagittal imbalance cascade for simple degenerative spine and consequences: algorithm of decision for appropriate treatment. Eur Spine J Off Publ Eur Spine Soc Eur Spinal Deform Soc Eur Sect Cerv Spine Res Soc. 2011 Sep;20 Suppl 5:699–703. 54. Barrey C, Roussouly P, Le Huec J-C, D'Acunzi G, Perrin G. Compensatory mechanisms contributing to keep the sagittal balance of the spine. Eur Spine J Off Publ Eur Spine Soc Eur Spinal Deform Soc Eur Sect Cerv Spine Res Soc. 2013 Nov;22 Suppl 6:S834–41. 58 55. Hasegawa K, Okamoto M, Hatsushikano S, Shimoda H, Ono M, Watanabe K. Normative values of spino-pelvic sagittal alignment, balance, age, and health-related quality of life in a cohort of healthy adult subjects. Eur Spine J Off Publ Eur Spine Soc Eur Spinal Deform Soc Eur Sect Cerv Spine Res Soc. 2016 Nov;25(11):3675–86. 56. Jackson RP, McManus AC. Radiographic analysis of sagittal plane alignment and balance in standing volunteers and patients with low back pain matched for age, sex, and size. A prospective controlled clinical study. Spine. 1994 Jul 15;19(14):1611–8. 57. Korovessis P, Dimas A, Iliopoulos P, Lambiris E. Correlative analysis of lateral vertebral radiographic variables and medical outcomes study short-form health survey: a comparative study in asymptomatic volunteers versus patients with low back pain. J Spinal Disord Tech. 2002 Oct;15(5):384–90. 58. Lazennec JY, Ramaré S, Arafati N, Laudet CG, Gorin M, Roger B, et al. Sagittal alignment in lumbosacral fusion: relations between radiological parameters and pain. Eur Spine J Off Publ Eur Spine Soc Eur Spinal Deform Soc Eur Sect Cerv Spine Res Soc. 2000 Feb;9(1):47–55. 59. Hovorka I, Rousseau P, Bronsard N, Chalali M, Julia M, Carles M, et al. [Extension reserve of the hip in relation to the spine: Comparative study of two radiographic methods]. Rev Chir Orthop Reparatrice Appar Mot. 2008 Dec;94(8):771–6. 60. Mangione P, Sénégas J. [Sagittal balance of the spine]. Rev Chir Orthop Reparatrice Appar Mot. 1997;83(1):22–32. 61. Lazennec JY, Brusson A, Folinais D, Zhang A, Pour AE, Rousseau MA. Measuring extension of the lumbar-pelvic-femoral complex with the EOS® system. Eur J Orthop Surg Traumatol Orthop Traumatol. 2015 Aug;25(6):1061–8. 62. Lazennec J-Y, Brusson A, Rousseau M-A. Hip-spine relations and sagittal balance clinical consequences. Eur Spine J Off Publ Eur Spine Soc Eur Spinal Deform Soc Eur Sect Cerv Spine Res Soc. 2011 Sep;20 Suppl 5:686–98. 63. Lazennec JY, Brusson A, Rousseau MA. Lumbar-pelvic-femoral balance on sitting and standing lateral radiographs. Orthop Traumatol Surg Res OTSR. 2013 Feb;99(1 Suppl):S87–103. 64. Itoi E. Roentgenographic analysis of posture in spinal osteoporotics. Spine. 1991 Jul;16(7):750–6. 65. Murata Y, Takahashi K, Yamagata M, Hanaoka E, Moriya H. The knee-spine syndrome. Association between lumbar lordosis and extension of the knee. J Bone Joint Surg Br. 2003 Jan;85(1):95–9. 66. de Kunder SL, van Kuijk SMJ, Rijkers K, Caelers IJMH, van Hemert WLW, de Bie RA, et al. Transforaminal lumbar interbody fusion (TLIF) versus posterior lumbar interbody fusion (PLIF) in lumbar spondylolisthesis: a systematic review and meta-analysis. Spine J Off J North Am Spine Soc. 2017 Jun 21; 67. Mobbs RJ, Phan K, Malham G, Seex K, Rao PJ. Lumbar interbody fusion: techniques, indications and comparison of interbody fusion options including PLIF, TLIF, MI-TLIF, OLIF/ATP, LLIF and ALIF. J Spine Surg Hong Kong. 2015 Dec;1(1):2–18. 68. Teng I, Han J, Phan K, Mobbs R. A meta-analysis comparing ALIF, PLIF, TLIF and LLIF. J Clin Neurosci Off J Neurosurg Soc Australas. 2017 Jul 1; 59 69. Schwab F, Blondel B, Chay E, Demakakos J, Lenke L, Tropiano P, et al. The comprehensive anatomical spinal osteotomy classification. Neurosurgery. 2015 Mar;76 Suppl 1:S33–41; discussion S41. 70. Gödde S, Fritsch E, Dienst M, Kohn D. Influence of cage geometry on sagittal alignment in instrumented posterior lumbar interbody fusion. Spine. 2003 Aug 1;28(15):1693–9. 71. Jang J-S, Lee S-H, Min J-H, Maeng DH. Influence of lumbar lordosis restoration on thoracic curve and sagittal position in lumbar degenerative kyphosis patients. Spine. 2009 Feb 1;34(3):280–4. 72. Pfirrmann CWA, Metzdorf A, Elfering A, Hodler J, Boos N. Effect of aging and degeneration on disc volume and shape: A quantitative study in asymptomatic volunteers. J Orthop Res Off Publ Orthop Res Soc. 2006 May;24(5):1086–94. 73. Elfering A, Semmer N, Birkhofer D, Zanetti M, Hodler J, Boos N. Risk factors for lumbar disc degeneration: a 5-year prospective MRI study in asymptomatic individuals. Spine. 2002 Jan 15;27(2):125–34. 74. Radcliff KE, Kepler CK, Jakoi A, Sidhu GS, Rihn J, Vaccaro AR, et al. Adjacent segment disease in the lumbar spine following different treatment interventions. Spine J Off J North Am Spine Soc. 2013 Oct;13(10):1339–49. 75. Lee JC, Choi S-W. Adjacent Segment Pathology after Lumbar Spinal Fusion. Asian Spine J. 2015 Oct;9(5):807–17. 76. Nagata H, Schendel MJ, Transfeldt EE, Lewis JL. The effects of immobilization of long segments of the spine on the adjacent and distal facet force and lumbosacral motion. Spine. 1993 Dec;18(16):2471–9. 77. Schlegel JD, Smith JA, Schleusener RL. Lumbar motion segment pathology adjacent to thoracolumbar, lumbar, and lumbosacral fusions. Spine. 1996 Apr 15;21(8):970–81. 78. Hambly MF, Wiltse LL, Raghavan N, Schneiderman G, Koenig C. The transition zone above a lumbosacral fusion. Spine. 1998 Aug 15;23(16):1785–92. 79. Lee JC, Kim Y, Soh J-W, Shin B-J. Risk factors of adjacent segment disease requiring surgery after lumbar spinal fusion: comparison of posterior lumbar interbody fusion and posterolateral fusion. Spine. 2014 Mar 1;39(5):E339–45. 80. Miyakoshi N, Abe E, Shimada Y, Okuyama K, Suzuki T, Sato K. Outcome of one-level posterior lumbar interbody fusion for spondylolisthesis and postoperative intervertebral disc degeneration adjacent to the fusion. Spine. 2000 Jul 15;25(14):1837–42. 81. Wiltse LL, Radecki SE, Biel HM, DiMartino PP, Oas RA, Farjalla G, et al. Comparative study of the incidence and severity of degenerative change in the transition zones after instrumented versus noninstrumented fusions of the lumbar spine. J Spinal Disord. 1999 Feb;12(1):27–33. 82. Lee CK, Langrana NA. Lumbosacral spinal fusion. A biomechanical study. Spine. 1984 Sep;9(6):574–81. 83. Weinhoffer SL, Guyer RD, Herbert M, Griffith SL. Intradiscal pressure measurements above an instrumented fusion. A cadaveric study. Spine. 1995 Mar 1;20(5):526–31. 60 84. Axelsson P, Johnsson R, Strömqvist B. The spondylolytic vertebra and its adjacent segment. Mobility measured before and after posterolateral fusion. Spine. 1997 Feb 15;22(4):414–7. 85. Kraemer P, Fehlings MG, Hashimoto R, Lee MJ, Anderson PA, Chapman JR, et al. A systematic review of definitions and classification systems of adjacent segment pathology. Spine. 2012 Oct 15;37(22 Suppl):S31–9. 86. Park P, Garton HJ, Gala VC, Hoff JT, McGillicuddy JE. Adjacent segment disease after lumbar or lumbosacral fusion: review of the literature. Spine. 2004 Sep 1;29(17):1938–44. 87. Riew KD, Norvell DC, Chapman JR, Skelly AC, Dettori JR. Introduction/Summary statement: adjacent segment pathology. Spine. 2012 Oct 15;37(22 Suppl):S1–7. 88. Hilibrand AS, Robbins M. Adjacent segment degeneration and adjacent segment disease: the consequences of spinal fusion? Spine J Off J North Am Spine Soc. 2004 Dec;4(6 Suppl):190S – 194S. 89. Park J-B, Cho Y-S, Riew KD. Development of adjacent-level ossification in patients with an anterior cervical plate. J Bone Joint Surg Am. 2005 Mar;87(3):558–63. 90. Bailly F, Maigne J-Y, Genevay S, Marty M, Gandjbakhch F, Rozenberg S, et al. Inflammatory pain pattern and pain with lumbar extension associated with Modic 1 changes on MRI: a prospective case-control study of 120 patients. Eur Spine J Off Publ Eur Spine Soc Eur Spinal Deform Soc Eur Sect Cerv Spine Res Soc. 2014 Mar;23(3):493–7. 91. Modic MT, Steinberg PM, Ross JS, Masaryk TJ, Carter JR. Degenerative disk disease: assessment of changes in vertebral body marrow with MR imaging. Radiology. 1988 Jan;166(1 Pt 1):193–9. 92. Li J, Li Y, Wei J, Shen Y. A study on the cervical spondylotic myelopathy treated by anterior cervical diskectomy and fusion in accordance with Modic changes with a 2-year minimum followup. J Orthop Surg [Internet]. 2015 Jan 28 [cited 2017 Aug 29];10. Available from: http://www.ncbi.nlm.nih.gov/pmc/articles/PMC4314747/ 93. Kanayama M, Hashimoto T, Shigenobu K, Harada M, Oha F, Ohkoshi Y, et al. Adjacent-segment morbidity after Graf ligamentoplasty compared with posterolateral lumbar fusion. J Neurosurg. 2001 Jul;95(1 Suppl):5–10. 94. Chen WJ, Lai PL, Niu CC, Chen LH, Fu TS, Wong CB. Surgical treatment of adjacent instability after lumbar spine fusion. Spine. 2001 Nov 15;26(22):E519–24. 95. Nguyen N-LM, Kong CY, Hart RA. Proximal junctional kyphosis and failure-diagnosis, prevention, and treatment. Curr Rev Musculoskelet Med. 2016 Sep;9(3):299–308. 96. Glattes RC, Bridwell KH, Lenke LG, Kim YJ, Rinella A, Edwards C. Proximal junctional kyphosis in adult spinal deformity following long instrumented posterior spinal fusion: incidence, outcomes, and risk factor analysis. Spine. 2005 Jul 15;30(14):1643–9. 97. Bridwell KH, Lenke LG, Cho SK, Pahys JM, Zebala LP, Dorward IG, et al. Proximal junctional kyphosis in primary adult deformity surgery: evaluation of 20 degrees as a critical angle. Neurosurgery. 2013 Jun;72(6):899–906. 61 98. Hostin R, McCarthy I, OʼBrien M, Bess S, Line B, Boachie-Adjei O, et al. Incidence, mode, and location of acute proximal junctional failures after surgical treatment of adult spinal deformity. Spine. 2013 May 20;38(12):1008–15. 99. Helgeson MD, Shah SA, Newton PO, Clements DH, Betz RR, Marks MC, et al. Evaluation of proximal junctional kyphosis in adolescent idiopathic scoliosis following pedicle screw, hook, or hybrid instrumentation. Spine. 2010 Jan 15;35(2):177–81. 100. Hart R, McCarthy I, Oʼbrien M, Bess S, Line B, Adjei OB, et al. Identification of decision criteria for revision surgery among patients with proximal junctional failure after surgical treatment of spinal deformity. Spine. 2013 Sep 1;38(19):E1223–7. 101. Smith MW, Annis P, Lawrence BD, Daubs MD, Brodke DS. Acute proximal junctional failure in patients with preoperative sagittal imbalance. Spine J Off J North Am Spine Soc. 2015 Oct 1;15(10):2142–8. 102. Yagi M, Rahm M, Gaines R, Maziad A, Ross T, Kim HJ, et al. Characterization and surgical outcomes of proximal junctional failure in surgically treated patients with adult spinal deformity. Spine. 2014 May 1;39(10):E607–14. 103. Cho K-S, Kang S-G, Yoo D-S, Huh P-W, Kim D-S, Lee S-B. Risk factors and surgical treatment for symptomatic adjacent segment degeneration after lumbar spine fusion. J Korean Neurosurg Soc. 2009 Nov;46(5):425–30. 104. Matsumoto T, Okuda S, Maeno T, Yamashita T, Yamasaki R, Sugiura T, et al. Spinopelvic sagittal imbalance as a risk factor for adjacent-segment disease after single-segment posterior lumbar interbody fusion. J Neurosurg Spine. 2017 Jan 6;1–6. 105. Lehmann TR, Spratt KF, Tozzi JE, Weinstein JN, Reinarz SJ, el-Khoury GY, et al. Long-term follow-up of lower lumbar fusion patients. Spine. 1987 Mar;12(2):97–104. 106. Ghiselli G, Wang JC, Bhatia NN, Hsu WK, Dawson EG. Adjacent segment degeneration in the lumbar spine. J Bone Joint Surg Am. 2004 Jul;86-A(7):1497–503. 107. Aota Y, Kumano K, Hirabayashi S. Postfusion instability at the adjacent segments after rigid pedicle screw fixation for degenerative lumbar spinal disorders. J Spinal Disord. 1995 Dec;8(6):464–73. 108. Lawrence BD, Wang J, Arnold PM, Hermsmeyer J, Norvell DC, Brodke DS. Predicting the risk of adjacent segment pathology after lumbar fusion: a systematic review. Spine. 2012 Oct 15;37(22 Suppl):S123–32. 109. Kumar MN, Baklanov A, Chopin D. Correlation between sagittal plane changes and adjacent segment degeneration following lumbar spine fusion. Eur Spine J Off Publ Eur Spine Soc Eur Spinal Deform Soc Eur Sect Cerv Spine Res Soc. 2001 Aug;10(4):314–9. 110. Wang H, Ma L, Yang D, Wang T, Liu S, Yang S, et al. Incidence and risk factors of adjacent segment disease following posterior decompression and instrumented fusion for degenerative lumbar disorders. Medicine (Baltimore). 2017 Feb;96(5):e6032. 111. Anandjiwala J, Seo J-Y, Ha K-Y, Oh I-S, Shin D-C. Adjacent segment degeneration after instrumented posterolateral lumbar fusion: a prospective cohort study with a minimum five-year 62 follow-up. Eur Spine J Off Publ Eur Spine Soc Eur Spinal Deform Soc Eur Sect Cerv Spine Res Soc. 2011 Nov;20(11):1951–60. 112. Imagama S, Kawakami N, Matsubara Y, Tsuji T, Ohara T, Katayama Y, et al. Radiographic Adjacent Segment Degeneration at 5 Years After L4/5 Posterior Lumbar Interbody Fusion With Pedicle Screw Instrumentation: Evaluation by Computed Tomography and Annual Screening With Magnetic Resonance Imaging. Clin Spine Surg. 2016 Nov;29(9):E442–51. 113. Min J-H, Jang J-S, Jung B joo, Lee HY, Choi W-C, Shim CS, et al. The clinical characteristics and risk factors for the adjacent segment degeneration in instrumented lumbar fusion. J Spinal Disord Tech. 2008 Jul;21(5):305–9. 114. Aiki H, Ohwada O, Kobayashi H, Hayakawa M, Kawaguchi S, Takebayashi T, et al. Adjacent segment stenosis after lumbar fusion requiring second operation. J Orthop Sci Off J Jpn Orthop Assoc. 2005 Sep;10(5):490–5. 115. Gillet P. The fate of the adjacent motion segments after lumbar fusion. J Spinal Disord Tech. 2003 Aug;16(4):338–45. 116. Cheh G, Bridwell KH, Lenke LG, Buchowski JM, Daubs MD, Kim Y, et al. Adjacent segment disease followinglumbar/thoracolumbar fusion with pedicle screw instrumentation: a minimum 5-year follow-up. Spine. 2007 Sep 15;32(20):2253–7. 117. Zhang C, Berven SH, Fortin M, Weber MH. Adjacent Segment Degeneration Versus Disease After Lumbar Spine Fusion for Degenerative Pathology: A Systematic Review With Meta-Analysis of the Literature. Clin Spine Surg. 2016 Feb;29(1):21–9. 118. Park WM, Choi DK, Kim K, Kim YJ, Kim YH. Biomechanical effects of fusion levels on the risk of proximal junctional failure and kyphosis in lumbar spinal fusion surgery. Clin Biomech Bristol Avon. 2015 Dec;30(10):1162–9. 119. Xu H, Tang H, Guan X, Jiang F, Xu N, Ju W, et al. Biomechanical comparison of posterior lumbar interbody fusion and transforaminal lumbar interbody fusion by finite element analysis. Neurosurgery. 2013 Mar;72(1 Suppl Operative):21–6. 120. Moreau P-E, Ferrero E, Riouallon G, Lenoir T, Guigui P. Radiologic adjacent segment degeneration 2 years after lumbar fusion for degenerative spondylolisthesis. Orthop Traumatol Surg Res OTSR. 2016 Oct;102(6):759–63. 121. Radovanovic I, Urquhart JC, Ganapathy V, Siddiqi F, Gurr KR, Bailey SI, et al. Influence of postoperative sagittal balance and spinopelvic parameters on the outcome of patients surgically treated for degenerative lumbar spondylolisthesis. J Neurosurg Spine. 2017 Apr;26(4):448–53. 122. Park MS, Kelly MP, Lee D-H, Min W-K, Rahman RK, Riew KD. Sagittal alignment as a predictor of clinical adjacent segment pathology requiring surgery after anterior cervical arthrodesis. Spine J Off J North Am Spine Soc. 2014 Jul 1;14(7):1228–34. 123. Djurasovic MO, Carreon LY, Glassman SD, Dimar JR, Puno RM, Johnson JR. Sagittal alignment as a risk factor for adjacent level degeneration: a case-control study. Orthopedics. 2008 Jun;31(6):546. 63 124. Rothenfluh DA, Mueller DA, Rothenfluh E, Min K. Pelvic incidence-lumbar lordosis mismatch predisposes to adjacent segment disease after lumbar spinal fusion. Eur Spine J Off Publ Eur Spine Soc Eur Spinal Deform Soc Eur Sect Cerv Spine Res Soc. 2015 Jun;24(6):1251–8. 125. Senteler M, Weisse B, Snedeker JG, Rothenfluh DA. Pelvic incidence-lumbar lordosis mismatch results in increased segmental joint loads in the unfused and fused lumbar spine. Eur Spine J Off Publ Eur Spine Soc Eur Spinal Deform Soc Eur Sect Cerv Spine Res Soc. 2014 Jul;23(7):1384–93. 126. Umehara S, Zindrick MR, Patwardhan AG, Havey RM, Vrbos LA, Knight GW, et al. The biomechanical effect of postoperative hypolordosis in instrumented lumbar fusion on instrumented and adjacent spinal segments. Spine. 2000 Jul 1;25(13):1617–24. 127. Sun XY, Hai Y, Zhang XN. [Effects of different pelvic incidence minus lumbar lordosis mismatch after long posterior instrumentation and fusion for adult degenerative scoliosis]. Zhonghua Wai Ke Za Zhi. 2017 Jun 1;55(6):435–40. 128. Gottfried ON, Daubs MD, Patel AA, Dailey AT, Brodke DS. Spinopelvic parameters in postfusion flatback deformity patients. Spine J Off J North Am Spine Soc. 2009 Aug;9(8):639–47. 129. Tribus CB, Belanger TA, Zdeblick TA. The effect of operative position and short-segment fusion on maintenance of sagittal alignment of the lumbar spine. Spine. 1999 Jan 1;24(1):58–61. 130. Sebaaly A, Riouallon G, Obeid I, Grobost P, Rizkallah M, Laouissat F, et al. Proximal junctional kyphosis in adult scoliosis: comparison of four radiological predictor models. Eur Spine J Off Publ Eur Spine Soc Eur Spinal Deform Soc Eur Sect Cerv Spine Res Soc. 2017 Jun 9; 131. Ivanov AA, Kiapour A, Ebraheim NA, Goel V. Lumbar fusion leads to increases in angular motion and stress across sacroiliac joint: a finite element study. Spine. 2009 Mar 1;34(5):E162–9. 132. Ha K-Y, Lee J-S, Kim K-W. Degeneration of sacroiliac joint after instrumented lumbar or lumbosacral fusion: a prospective cohort study over five-year follow-up. Spine. 2008 May 15;33(11):1192–8. 133. Finger T, Bayerl S, Bertog M, Czabanka M, Woitzik J, Vajkoczy P. Impact of sacropelvic fixation on the development of postoperative sacroiliac joint pain following multilevel stabilization for degenerative spine disease. Clin Neurol Neurosurg. 2016 Nov;150:18–22. 134. Glattes RC, Bridwell KH, Lenke LG, Kim YJ, Rinella A, Edwards C. Proximal junctional kyphosis in adult spinal deformity following long instrumented posterior spinal fusion: incidence, outcomes, and risk factor analysis. Spine. 2005 Jul 15;30(14):1643–9. 135. Morvan G, Mathieu P, Vuillemin V, Guerini H, Bossard P, Zeitoun F, et al. Standardized way for imaging of the sagittal spinal balance. Eur Spine J Off Publ Eur Spine Soc Eur Spinal Deform Soc Eur Sect Cerv Spine Res Soc. 2011 Sep;20 Suppl 5:602–8. 136. Le Huec JC, Cogniet A, Demezon H, Rigal J, Saddiki R, Aunoble S. Insufficient restoration of lumbar lordosis and FBI index following pedicle subtraction osteotomy is an indicator of likely mechanical complication. Eur Spine J Off Publ Eur Spine Soc Eur Spinal Deform Soc Eur Sect Cerv Spine Res Soc. 2015 Jan;24 Suppl 1:S112–20. 137. Knott PT, Mardjetko SM, Techy F. The use of the T1 sagittal angle in predicting overall sagittal balance of the spine. Spine J Off J North Am Spine Soc. 2010 Nov;10(11):994–8. 64 138. Hodges PW, Moseley GL. Pain and motor control of the lumbopelvic region: effect and possible mechanisms. J Electromyogr Kinesiol Off J Int Soc Electrophysiol Kinesiol. 2003 Aug;13(4):361–70. 139. Kim YJ, Bridwell KH, Lenke LG, Kim J, Cho SK. Proximal junctional kyphosis in adolescent idiopathic scoliosis following segmental posterior spinal instrumentation and fusion: minimum 5year follow-up. Spine. 2005 Sep 15;30(18):2045–50. 65 Rôle de l'équilibre sagittal dans la survenue du syndrome du segment adjacent chez les patients porteurs d'arthrodèse rachidienne Mots-clés : Rachis, cervical, équilibre, PJK, syndrome adjacent INTRODUCTION Le syndrome du segment adjacent (SA) est une complication classiquement décrite après stabilisation rachidienne avec de nombreux facteurs de risque dont l'équilibre sagittal. Le rôle de l'alignement pelvi-rachidien reste débattu. OBJECTIF Identifier les paramètres pelvi-rachidiens sagittaux prédictifs de syndrome adjacent (SA) sur des radiographies du rachis entier (EOS®), en tenant compte de l'équilibre cervical, avec un suivi à long terme. METHODES Il s'agissait d'une étude rétrospective cas-témoins sur 2 centres. Entre 2008 et 2017, nous avons inclus 42 cas de SA et 42 témoins asymptomatiques sur une population d'arthrodèses rachidiennes. Plusieurs paramètres radiologiques ont été mesurés sur les EOS post-opératoires précoces et comparés entre les groupes : distance entre la plumbline des conduits auditifs externes (CAE) et têtes fémorales, angle OD-HA (OD-HA), distance entre les plumblines C2 et C7 (Offset C2-C7), pente de C7, angle d'incidence crânienne (CIA), cyphose thoracique (CT), lordose lombaire (LL) et lordose segmentaire L4-S1, pente sacrée (PS), version pelvienne (VP), incidence pelvienne (IP). RESULTATS Les patients avec SA avaient des valeurs plus élevées de pente de C7 (26 vs 21, p=0,011) et offset C2-C7 (17 vs 9, p<0,0001). Le nombre de patients présentant une valeur positive de CAE (19 vs 8, p=0,0183) et OD-HA (15 vs 8, p=0,04) ou une hypolordose (25 vs 11, p=0,002) était plus élevé dans le groupe SA. CONCLUSION Les facteurs les plus prédictifs de SA étaient un mauvais alignement cervical (augmentation de l'offset C2-C7) et un mismatch LL-IP. Key words : spine, cervical, balance, PJK, adjacent segment disease. Influence of sagittal balance on adjacent segment disease after spinal fusion INTRODUCTION Adjacent segment disease (ASD) is a well-known complication of spinal fusion with many risk factors including sagittal balance. Influence of spinopelvic alignment is still poorly understood. OBJECTIVES To identify sagittal pelvic and spinal predictive parameters of adjacent segment disease in radiographs of whole spine (EOS system®), taking into account the cervical balance, with a long-term follow-up. METHODS This was a retrospective case-control study on 2 centers. The population consisted in 42 patients who developed ASD after spinal fusion and had early postoperative radiographs of whole spine between 2007 and 2017 and 42 control asymptomatic patients after spinal fusion who had the same radiographic evaluation. Several radiological parameters were compared between groups including : external auditory canal plumbline (CAE), OD-HA angle (OD-HA), distance between C2 and C7 plumblines (Offset C2-C7), C7 slope, cranial incidence angle (CIA), C2-C7 angle, thoracic kyphosis (TK), lumbar lordosis (LL), and segmental lordosis at L4–S1 (SL), sacral slope (SS), pelvic tilt (PT), pelvic incidence(PI). RESULTS ASD patients had more positive CAE (19 vs 8, p=0,0183), positive OD-HA (15 vs 8, p=0,04) and hypolordosis (25 vs 11, p=0,002). The ASD group had significantly higher C7 slope (26 vs 21; p = 0.011) and C2-C7 offset (17 vs 9; p <0.0001). CONCLUSION Potentially predictive factors of SA are anterior cervical imbalance reflected by an increase in the distance between the plumblines C2 and C7 and a mismatch between LL and IP. 66
{'path': '35/dumas.ccsd.cnrs.fr-dumas-01651989-document.txt'}
"Imiter la Nature, hâter son oeuvre" et si on commençait par observer rigoureusement cette Nature! V. Boulanger, N. Drapier, N. Debaive, O. Gilg, Frédéric Gosselin To cite this version: V. Boulanger, N. Drapier, N. Debaive, O. Gilg, Frédéric Gosselin. "Imiter la Nature, hâter son oeuvre" et si on commençait par observer rigoureusement cette Nature!. Rendez-vous Techniques de l'ONF, Office national des forêts, 2017, pp.17-19. hal-02499499 HAL Id: hal-02499499 https://hal.archives-ouvertes.fr/hal-02499499 Submitted on 5 Mar 2020 G H I J 1 – « Imiter la Nature, hâter son oeuvre » et si on commençait par observer rigoureusement cette Nature ! L M N O Q R S T V « W X Y Maillon essentiel de la stratégie de conservation de la biodiversité en forêt, les réserves intégrales permettent aussi d'observer et comprendre comment fonctionnent les écosystèmes forestiers en dehors de toute intervention humaine. Et de s'en inspirer pour les mesures de conservation en gestion courante. L'idée paraît simple, mais en pratique elle fait surgir des défis complexes que le projet GNB a résolument relevés. Imiter la nature, hâter son oeuvre », ce vieil adage bien connu des forestiers, attribué à Adolphe Parade, repose implicitement sur l'hypothèse que le fonctionnement de la Nature est quelque chose de connu. Or, prétendre suivre l'entièreté des cycles sylvogénétiques requiert d'une part que des ensembles forestiers soient laissés en libre évolution et, d'autre part, que ces dynamiques soient dûment documentées. Le réseau des réserves forestières se structure depuis plus de 150 ans ! N'ayons pas peur de le dire, la France a fait figure de pionnier dans la création de réserves forestières allant jusqu'à proscrire les coupes de bois (qu'on appelle aujourd'hui réserves intégrales). Alors que la forêt s'est longtemps défendue contre une agriculture qui lui prenait du terrain, ou l'occupait à ses dépens, un tournant s'est opéré quand il s'est agi de soustraire la forêt à l'action du forestier ! En 1861, les réserves artistiques créées en forêt domaniale de Fontainebleau ont été les premières à faire l'objet d'une mesure de protection drastique, à des fins d'abord esthétiques. S'ensuivront des mesures semblables en Amérique du Nord et dans le reste de l'Europe Réserves forestières : des réserves biologiques (RB) et des réserves naturelles (RN) Les réserves biologiques sont un statut de protection spécifique aux espaces relevant du régime forestier. Les divers statuts de réserves naturelles sont en revanche applicables à tous types de statuts fonciers. La stratégie nationale de création d'aires protégées (SCAP) a confirmé la complémentarité des domaines d'emplois de ces deux grands statuts*. La typologie des RN repose sur l'autorité de classement : État pour les réserves naturelles nationales (RNN), Régions pour les réserves naturelles régionales (RNR), Collectivité territoriale de Corse pour les réserves naturelle de Corse (RNC). Pour les réserves biologiques (toutes créées par l'État), la dichotomie principale repose sur les principes de gestion : absence de toute exploitation pour les réserves biologiques intégrales (RBI), gestion conservatoire particulière pour les réserves biologiques dirigées (RBD). On regroupe communément sous l'intitulé « réserves forestières » la plupart des réserves biologiques, les réserves naturelles à dominante forestière ainsi que les réserves intégrales des Parcs Nationaux. * Ministère de l'Écologie, de l'Énergie, du Développement durable et de la mer, 2010. – Stratégie de création des aires protégées terrestres métropolitaines. Le choix des outils de protection en question. – 20 p. à la fin du XIXe siècle, puis la deuxième moitié du XXe siècle verra se préciser le concept de « réserve » comme outil de protection fort du patrimoine naturel. En France, la dynamique de création de réserves – et en particulier de réserves forestières – reprendra dans les années 1950 avec la création des premières réserves biologiques (significativement parmi les anciennes réserves artistiques de Fontainebleau), et des premières réserves naturelles dans les années 60. Depuis, les réserves de différents statuts (voir encadré) se sont 17 17 étendues pour couvrir une large variété d'écosystèmes terrestres et marins. Ainsi, en 2017, on compte sur le territoire métropolitain 167 Réserves Naturelles Nationales, 170 Réserves Naturelles Régionales et 6 Réserves Naturelles de Corse ; l'enquête sur le patrimoine forestier des Réserves Naturelles fait état de près de 24 000 ha de forêts à caractère naturel, c'est-à-dire laissées en libre évolution (Cateau et al., 2017). Dans le même temps, on compte près de 48 000 ha de Réserves Biologiques intégrales et dirigées dans les forêts publiques de métropole (domaniales et des collectivités). RDV techniques n°56 - automne 2017 - ONF Barthod et Trouvilliez (2002) proposent cinq fondements à la mise en réserve de zones forestières. Fondements attachés à des points de vue différents mais convergents, et que l'on peut regrouper, sans arrière-pensée, en un thème social et un thème utilitariste. Du côté social, on trouvera bien entendu les dimensions esthétique et éthique attachées à une demande croissante pour conserver la naturalité de systèmes peu impactés par l'homme ou restaurer le fonctionnement naturel de systèmes plus ou moins anthropisés, notamment dans des milieux remarquables. Au carrefour de la vision sociale et utilitariste, la mise en réserve peut être perçue par la société comme une compensation contre l'artificialisation forte de certaines zones forestières. En d'autres termes, une partie de la forêt serait laissée en libre évolution pour contrebalancer une gestion plus intensive, ou perçue comme telle. Ce n'est bien là qu'une perception d'ordre général ; la création de réserve ne constitue pas une mesure compensatoire au sens de la stratégie ERC (éviter-réduire-compenser). Enfin l'angle utilitariste est lié à l'essence même d'une réserve intégrale : laisser les peuplements en libre évolution pour restaurer les phases du cycle sylvigénétique tronquées de facto par la récolte des bois. Outre la mesure effective de conservation, ces peuplements offrent aussi de quoi observer et comprendre comment fonctionne la forêt en dehors de toute intervention directe de l'homme : processus de mort, décomposition, renouvellement, structuration et dynamique de biodiversité, etc. Les constats posés sur les mécanismes écologiques à l'oeuvre dans les forêts en libre évolution ont depuis C. Lagarde, ONF Outil de la conservation de la Nature par excellence, les réserves inspirent aussi la gestion courante Réserve biologique intégrale du Chêne Brûlé en FD de Fontainebleau été transposés dans les stratégies d'aménagement forestier et de sylviculture. Ils sont désormais au coeur de l'instruction pour la conservation de la biodiversité dans la gestion courante des forêts publiques1 (îlots de sénescence, arbres habitats, bois mort) et dans les stratégies de conservation de biodiversité en forêt privée (Emberger et al., 2016). Étudier la conservation de la biodiversité dans les forêts en libre évolution La question n'est pas uniquement de savoir s'il est utile pour la biodiversité de classer des zones forestières en réserve intégrale ; nous l'avons vu, ces réserves répondent à d'autres préoccupations que la seule performance écologique. L'enjeu est aussi de pouvoir comparer la biodiversité des réserves intégrales à celle de forêts exploitées semblables, puis assortir cette comparaison d'une caractérisation fine des différences structurelles, pour ouvrir la voie à la compréhension des processus déterminants pour les stratégies de conservation. En pratique, les mesures de gestion comme le maintien des structures (ex. bois mort) ou des stades (ex. peuplements sénescents) tronqués par la sylviculture sont des mesures de conservation à large spectre ; en d'autres termes, elles ne ciblent pas tel ou tel taxon en particulier. A fortiori, du point de vue de la conservation de la biodiversité, la création de réserves intégrales est la mesure à large spectre par excellence ! Or la biodiversité, comme tout concept très général (la diversité du vivant), devient nécessairement un objet complexe à analyser. Retenons-en qu'étudier les effets, en terme de conservation de la biodiversité, de ces dispositifs à large spectre nécessite d'investiguer un vaste ensemble de groupes taxonomiques. Réelle gageure pour le monde scientifique que de parvenir à réunir les compétences taxonomiques, engager des investigations sur un vaste réseau de sites et assurer la coordination d'ensemble. À la fin des années 2000, la rencontre des réseaux naturalistes de l'ONF récemment structurés et d'Irstea2 1 Conservation de la biodiversité dans la gestion courante des forêts publiques (instruction 09-T-71 du 29 octobre 2009). Fait suite à une première instruction datant de 1993. Voir aussi le guide Vieux bois et bois mort publié par l'ONF en 2017. 2 Institut national de recherche en sciences et technologies pour l'environnement. RDV techniques n°56 - automne 2017 - ONF 18 18 (alors Cemagref3) à propos du réseau des réserves forestières (Biologiques et Naturelles) a fait émerger la possibilité de conduire un projet ambitieux de recherche autour de ces forêts en libre évolution. Ce projet, intitulé « GNB », visait à identifier les liens entre gestion forestière (G), naturalité (N) et biodiversité (B) en comparant des parcelles exploitées à des parcelles non-exploitées. Un projet, trois défis Le premier défi à relever fut de constituer un plan d'échantillonnage pertinent. À l'heure où les tentations sont grandes de mettre en place, çà et là, au gré d'opportunités, des comparaisons entre réserves et forêts exploitées, le projet GNB révèle combien il est délicat de bâtir un échantillonnage rigoureux, couplant chaque placette en réserve à une placette équivalente en zone exploitée, c'est-à-dire sans induire de biais. envisager les réserves intégrales dans leur ensemble, et les mettre dans la perspective des forêts exploitées. Le présent dossier constitue une première étape de valorisation de ce projet de recherche et, plus généralement, du rôle des réserves intégrales pour la compréhension de la dynamique forestière et la conservation de la biodiversité. Enfin, le troisième défi fut celui de l'analyse et de la valorisation des données. Compte tenu de la complexité résultant du croisement entre un important jeu de données, des questions d'écologie générale assez pointues et la volonté de donner une portée opérationnelle aux résultats, les scientifiques ont dû mobiliser voire développer des stratégies d'analyses originales. L'idée est ici de dépasser la simple comparaison brute entre réserves intégrales et forêts exploitées, pour être en mesure de donner des interprétations qui soient plus à même d'éclairer les stratégies et politiques de conservation ainsi que les modes de gestion. Vincent Boulanger1, Nicolas Drapier2, Nicolas Debaive3, Olivier Gilg3, Frédéric Gosselin4 ONF, département Recherche Développement et Innovation, 2 ONF, département Gestion Durable et Multifonctionnelle des Forêts 3 Réserves Naturelles de France 4 Irstea Nogent-sur-Vernisson, UR Écosystèmes Forestiers 1 Valoriser le réseau des réserves forestières Sujet d'étude fétiche des naturalistes, professionnels ou amateurs, les réserves intégrales font régulièrement l'objet d'études ponctuelles, ciblées sur un site en particulier dont les caractéristiques sont perçues comme exceptionnelles. Le projet GNB dépasse ce niveau local pour C. Lagarde, ONF Le deuxième défi fut celui de la coordination dans la prise de mesures. Techniquement, le projet GNB prévoit sur chaque placette de relevé la réalisation d'un inventaire dendrométrique complet4 (bois vivants et morts, micro-habitats) et l'acquisition de données sur l'ensemble des taxons visés, avec pour chaque taxon son protocole dédié, faisant parfois appel à des méthodologies très diversifiées. La mise en oeuvre d'un tel « métaprotocole » d'inventaire, sur plus de 200 placettes réparties sur l'ensemble du territoire métropolitain, fut aussi une gageure en soi. 3 Centre d'études du machinisme agricole, de génie rural et des eaux et forêts 4 Basé sur le Protocole de Suivi Dendrométrique des Réserves Forestière (PSDRF). 19 19 RDV techniques n°56 - automne 2017 - ONF
{'path': '51/hal.archives-ouvertes.fr-hal-02499499-document.txt'}
DÉFINITIONS Arnaud Alessandrin, « définition », dossier « Genre et santé », revue « La santé en action, n.441, p.9, 2017. Sexe/genre Le sexe est une assignation de naissance faite en fonction des organes visibles. En cas d'intersexuation1, la médecine procède aussi, sans le consentement de l'enfant, à une assignation de sexe. Pour Judith Butler2, le sexe est déjà du genre en ce sens qu'il ne peut exister qu'en rapport avec les catégories de genre qui lui transfèrent du sens (le « masculin », le « féminin »). Ainsi, ce n'est pas le sexe anatomique qui détermine le genre en devenir de l'enfant, mais bel et bien les normes de genre qui donnent une réalité au sexe. Dans cette configuration, si le sexe est « ce que l'on a », le genre est non seulement « ce que l'on nous dit d'en faire », mais aussi « ce que l'on en fait ». Sexualité/pratiques sexuelle/ orientation sexuelle/identité sexuelle La sexualité est un terme parapluie qui permet de saisir différentes composantes. Premièrement, la sexualité n'est pas réductible à l'activité ou à la pratique sexuelle. D'une part, parce qu'il existe des personnes ou des périodes « d'asexualité » et, d'autre part, parce que la sexualité n'est pas réductible à la génitalité (les rêves, les fantasmes, les envies sont multiples). Nous avons tous une sexualité qui n'indique pas forcément une pratique sexuelle unique ou effective. Deuxièmement, la sexualité comprend aussi l'orientation sexuelle. Traditionnellement découpée en « homosexualité » et « hétérosexualité », cette orientation sexuelle s'avère être plus variée et plus dynamique. S'il existe aussi des « bisexuels », nous pouvons tout simplement poser la question de la persistance et de la robustesse de notre « orientation sexuelle » : gardons-nous toujours la même ? N'en avons-nous pas plusieurs en même temps ? Enfin, troisièmement, tout ceci se différencie de l'identité sexuelle, c'est-à-dire de ce qui constitue chez l'individu un élément puissant d'identification pour soi et par autrui. Par exemple : toutes les hétérosexuelles s'identifient-elles au groupe « hétérosexuel » ou s'identifient-elles à un autre groupe, « femme » par exemple ? Identité de genre Les Principes de Jogjakarta3 (2007) définissent l'identité de genre « comme faisant référence à l'expérience intime et personnelle de son genre profondément vécue par chacun, qu'elle corresponde ou non au sexe assigné à la naissance, y compris la conscience personnelle du corps (qui peut impliquer, si consentie librement, une modification de l'apparence ou des fonctions corporelles par des moyens médicaux, chirurgicaux ou autres) et d'autres expressions du genre, y compris l'habillement, le discours et les manières de se conduire ». Ces définitions sont extraites de : Alessandrin Arnaud, Esteve-Bellebeau Brigitte. Genre ! L'essentiel pour comprendre. Les ailes sur un tracteur, 2014. Alessandrin Arnaud, Raibaud Yves. « Les lieux de l'homophobie ordinaire ». Injep, Cahiers de l'action, 2013, vol. 40, no 3 : p. 21-26. Alessandrin Arnaud, Raibaud Yves. Géographie des homophobies. Armand Colin, 2013. Alessandrin Arnaud. « Sexe », La transyclopédie. Des ailes sur un tracteur. 2012.
{'path': '44/hal.archives-ouvertes.fr-hal-03224003-document.txt'}
EFFETS DU RECUL ALPHA EN CONVERSION INTERNE C. Briançon, M. Valadarès, R. Walen To cite this version: C. Briançon, M. Valadarès, R. Walen. EFFETS DU RECUL ALPHA EN CONVERSION INTERNE. Journal de Physique Colloques, 1968, 29 (C1), pp.C1-103-C1-103. 10.1051/jphyscol:1968120. jpa00213347 HAL Id: jpa-00213347 https://hal.archives-ouvertes.fr/jpa-00213347 Submitted on 1 Jan 1968 EFFETS DU RECUL ALPHA EN CONVERSION INTERNE EFFETS DU RECUL ALPHA EN CONVERSION INTERNE Centre de spectrométrie nucléaire et de spectrométrie de masse, Orsay Résumé. - Interprétation des déformations des lignes de conversion émises par des atomes subissant un recul alpha dans un champ électrique. Summary. - Interpreiation of deformations of conversion lines ernitted by atorns recoiling after alpha emission in an electric field. Nous avons observé que, lors d'une cascade de transitions et dans des conditions expérimentales appropriées, les raies d'électrons de conversion du deuxième rayonnement de la cascade présentent une forme différente de celles du premier terme de la cascade [fig. 1, cas des rayonnements de 31,61 et 29,90 keV émis au cours de la transmutation '*'Th % 2 2 3 ~ a ] . Nous avons conclu que cette différence de forme résulte de ce que nous avons appelé bande satellite (partie hachurée de la figure 1). Cette bande provient n de la conversion dans des atomes projetCs hors de la source lors de l'émission a et hautement ionisCs à la suite d'une première conversion et des cascades Auger consécutives, c'est-à-dire que la bande satellite corresà laconfirmer bande Doppler cette des interprétation, atomes hautement nous ionisés. avons pond Pour appliqué une tension de décélération entre la source et le plan de la fente qui délimite l'ouverture du faisceau d'électrons et nous avons constaté qu'en effet l'ensemble de la bande Doppler des atomes neutres et de la bande satellite s'aplatit, tendant à donner la même largeur à mi-hauteur aux raies de conversion des deux rayonnements de la cascade. Ce même dispositif expérimental (spectrographe à focalisation à 1800 et tension appliquée à la source) nous a servi à estimer les périodes d'un certain a l'examen des défornombre de niveaux de 2 2 3 ~par mations subies par la bande Doppler (Fig. 2) pour différentes tensions de décélération (0,5 à 10 kV). JIL v-1.6 kv (b) Article published online by EDP Sciences and available at http://dx.doi.org/10.1051/jphyscol:1968120 FIG.2.
{'path': '43/hal.archives-ouvertes.fr-jpa-00213347-document.txt'}
Instrumentation d'un tunnel hydrodynamique pour la caractérisation de turbines à flux transverse Nicolas Dellinger To cite this version: Nicolas Dellinger. Instrumentation d'un tunnel hydrodynamique pour la caractérisation de turbines à flux transverse. Matériaux. Université de Grenoble, 2011. Français. NNT : 2011GRENI047. tel-00639647 HAL Id: tel-00639647 https://tel.archives-ouvertes.fr/tel-00639647 Submitted on 9 Nov 2011 THÈSE Pour obtenir le grade de DOCTEUR DE L'UNIVERSITÉ DE GRENOBLE Spécialité : Matériaux, Mécanique, Génie civil, Electrochimie Arrêté ministériel : 7 août 2006 Présentée par « Nicolas DELLINGER » Thèse dirigée par « Pierre FORAY » et codirigée par « Jean-Luc ACHARD» préparée au sein du Laboratoire 3SR dans l'École Doctorale I-MEP2 Instrumentation d'un tunnel hydrodynamique pour la caractérisation de turbines à flux transverse Thèse soutenue publiquement le « 22 juillet 2011 », devant le jury composé de : M., Jean-Luc, ACHARD D.R. à Grenoble, Membre du jury M., Zitouni, AZARI P.U. à Metz, Rapporteur M., Pierre, FORAY P.U. à Grenoble, Membre du jury M., François, LUSSEYRAN C.R. à Orsay, Membre du jury M., Abdellatif, MIRAOUI P.U. à Belfort, Rapporteur M., Daniel, ROYE P.U. à Grenoble, Président du jury 2 Remerciements Le travail présenté dans ce mémoire a été réalisé au sein des laboratoires L.E.G.I. (Lab oratoire des Ecoulements Géophysiques et Industriels) et 3SR (Laboratoire Sols Solides Stru ctures et Risques) de Grenoble, sous la direction de Pierre Foray et Jean-Luc Achard. Je tiens à leur exprimer toute ma reconnaissance pour m'avoir accueilli dans leur équipe. Mes plus vifs remerciements s'adressent au Directeur de Recherche Jean -Luc Achard, qui m'a encadré durant toutes ces années. Je le remercie particulièrement pour l'intérêt qu'il a porté à ce sujet, pour la confiance qu'il m'a accordé et surtout pour sa patience, particuli èrement pendant la phase de rédaction Grace à ses nombreux conseils et à son ouverture d'esprit, il a contribué de façon décisive à ma formation scientifique. Je tiens également à remercier le Professeur Pierre Foray, qui a accepté de reprendre la d irection de cette thèse. Zitouni Azari professeur à Metz, François Lusseyran chargé de recherche à Orsay, A bdellatif Miraoui professeur à Belfort, Daniel Roye professeur à Grenoble ont bien voulu me faire l'honneur d'être membres du Jury, qu'ils trouvent ici l'expression de ma reconnai ssance. Si un laboratoire est un lieu de travail, il est aussi et avant tout un endroit où le s contacts humains et les échanges sont nombreux. Dans ce contexte, j'aimerais remercier toutes les personnes que j'ai côtoyées durant ces trois années de thèse. Je remercie ainsi Jeronimo, Thomas et Sylvain pour leur aide ainsi que leur soutien. Je les remercie également pour avoir bien voulu apporter des observations utiles et con structives lors de la rédaction de ce manuscrit. Je remercie également Guilherme, Anna, Anne-Laure, Ruben, Heidi, Benoit, Manu, Mélanie, Barth pour leur soutient, ainsi que toute les personnes que j'ai rencontré pendant ces années passées à Grenoble. Je voudrais aussi exprimer ma gratitude à toutes les personnes dont l'aide et l'enthousiasme ont permis l'avancement de ce travail, et en particulier Michel Rio ndet qui m'a assisté pendant de nombreux essais, Thierry Maitre pour son éclairage en mécanique des fluides, Alain Di-Donato pour ses conseils et son expérience en conception mécanique, Joel Guiraud pour ses conseils et son expérience en génie électrique, ainsi que les techn iciens de l'atelier de mécanique pour leur collaboration technique et leur bonne humeur. Enfin je voudrais remercier tous les habitants du village de Schmittviller et certaines autres personnes des alentours, pour leur aide technique et leur soutien moral . Je citerais en particulier, et par ordre alphabétique : Cécile, Flo, François, Guilhem, Jérémy, Josy, Luc, Manu, Mathieu, Muriel, mes parents ainsi que la famille Koch. Je voudrais également remercier certaines personnes des alentours : Alain, Gaston, John et Mathieu. Ils ont eux aussi grandement participé à ma réussite 3 4 Avant-propos La majorité des climatologues ont aujourd'hui souscrit { l'hypothèse d'un impact majeur de l'activité humaine sur le climat. A côté de la modification de la réflectivité de la surface terrestre par la déforestation, l'avancée des déserts, l'agricu lture, le recul des glaces, neiges et glaciers, l'émission de gaz dits « à effet de serre », comme le dioxyde de carbone dégagé lors de la combustion des énergies fossiles (pétrole, charbon, gaz naturel) ou encore le méthane issu de la décomposition des matières organiques semble être la cause principale des montées fulgurantes des températures depuis une trentaine d'année. D'après le [G.E.I.E.C., 2007]1: « La concentration atmosphérique mondiale de dioxyde de carbone a augmenté d'une valeur préindustrielle d'environ 280 ppm { 379 ppm en 2005. D'après les analyses des carottes de glace, la concentration atmosphérique de dioxyde de carbone en 2005 dépasse largement les variations naturelles durant les 650 000 dernières années (180–300 ppm) ». Si la prise de conscience semble effective, l'ensemble des décideurs tardent { mettre en place des mesures pour contrecarrer cette menace globale sur l'humanité et sur l'environnement. En effet, les changements à mettre en place sont considérables et nécessitent des modifications profondes de notre économie ainsi que de notre comportement. Parmi les activités humaines responsables de l'émission de gaz { effet de serre, une part importante incombe au transport routier et aux centrales thermiques, au gaz, au pétrole et surtout au charbon. La France est plutôt bien placée au niveau de sa production électrique puisque, grâce { l'énergie nucléaire notamment, la part de l'énergie fossile est inférieure { 10%. En revanche, elle atteint presque 70 % { l'échelle du globe [Liébard, 2008]. Il convient de rechercher des solutions alternatives de production d'électricité, se fondant sur des sources d'énergies renouvelables, qui seront à la fois pérennes, économiquement viables et faiblement émettrices de CO2. Les énergies non fossiles, dites encore renouvelables, que constituent les énergies solaire, hydraulique, éolienne et géothermique doivent ainsi participer de façon croissante au bouquet énergétique de demain. Les Energies Marines Renouv elables (EMR) entrent aujourd'hui dans la danse mais seule la filière de l'éolien marin fournit une quantité d'énergie significative. Ingénieurs et chercheurs développent de multiples dispositifs pour exploiter les autres formes d'EMR. Parmi ces dernières l'énergie des courants marins se prête à des systèmes de conversion électrique prometteurs. C'est dans ce contexte que le L.E.G.I. (Laboratoire d'Ecoulements Géophysiques et Industriels), a lancé en 2001 le projet HARVEST (Hydroliennes à Axe de Rotation VErtical Stabilisé), visant à développer un concept original d'hydrolienne. L'objectif de ce programme est le déploiement de parcs marins ou fluviaux utilisant des turbines à flux transverse et à axe vertical dont la géométrie résulte d'une évolution des machines brevetées par Darrieus et Gorlov. 1 G.E.I.C : Groupe d'Experts Intergouvernemental sur l'Evolution du Climat. Rapport disponible sur http://www.ecologie.gouv.fr 5 Ce projet est par nature multidisciplinaire. Il comporte trois composantes principales : la mécanique des fluides, la mécanique des solides et l'électrotechnique. Par la suite, trois laboratoires ont apporté leurs contributions au LEGI : le laboratoire 3SR (partie mécanique des solides, et dimensionnement des ancrages au sol), le laboratoire G2ELab (partie électrotechnique) auxquels s'est joint le LaMCoS (mécanique vibratoire). Dans le projet HARVEST, la présente thèse a la particularité d'être en quelque sorte au carrefour des trois axes de recherche principaux cités plus haut. Son objectif majeur consiste en l'instrumentation du tunnel hydrodynamique du LEGI en vue de tester les performances de maquettes de turbines d'hydroliennes. Actuellement, le nombre de publications concernant des tests de maquettes de turbines à flux transverse est assez réduit et les résultats sont parfois sujets à controverses. De plus, et compte tenu de la géométrie particulière de nos turbines, de nouvelles campagnes expérimentales se sont révélées indispensables pour la poursuite du projet. Outre leur originalité en termes scientifiques, les données issues de ces campagnes doivent à terme constituer une banque de résultats expérimentaux fiables et disponibles pour les quatre laboratoires partenaires et plus largement pour la communauté scientifique et l'industrie. C'est à partir d'une mesure globale des efforts développés par une turbine en fonctionnement, que seront caractérisées de manière précise ses performances hydrodynamiques, et cela pour des conditions d'écoulement bien définies. A partir de l'extraction de ces données expérimentales, une banque de résultats sera constituée ; elle servira par la suite: (1) à des études comparatives entre différentes géométries de turbines, (2) au calage de modèles numériques développés au LEGI, (3) à l'obtention des données sur le chargement global des turbines en vue du dimensionnement des structures de maintien et des ancrages, (4) à appréhender la qualité de l'énergie fournie par une turbine en vue de l'intégration au réseau électrique. En parallèle, des campagnes de visualisation de l'écoulement sont envisagées et pourront { terme compléter les données de mesure d'effort. Cela permettra d'identifier les structures tourbillonnaires se développant dans l'écoulement et de mettre en évidence les zones dépressionnaires autour des pales dans lesquelles peut se développer prioritairement la cavitation. Dans le premier chapitre de cette thèse est introduit le concept d'énergie marine renouvelable. Devant la multiplicité des concepts permettant de récupérer cette énergie, seuls seront évoqués les systèmes de récupération de l'énergie cinétique des courants de marée et en particulier les turbines à flux transverses développé dans le cadre du programme HARVEST. Le deuxième chapitre retrace tout d'abord les évolutions successives du concept de turbines à flux transverse. Les turbines développées dans le cadre du projet seront ensuite présentées. Le principe de fonctionnement ainsi que les paramètres de similitudes permettant d'extrapoler les résultats des petites échelles vers les grandes échelles sont enfin abordés. Pour cerner de façon précise les besoins et les objectifs de la partie expérimentale dans le projet HARVEST, une analyse détaillée du cahier des charges de l'instrumentation est présentée au chapitre 3, et cela { partir de l'état des lieux des matériels et installations déjà disponibles au laboratoire. Les chapitres 4 et 5 présentent les actions menées au cours de cette thèse concernant l'instrumentation du tunnel hydrodynamique. Dans le chapitre 4, à partir 6 d'un inventaire des systèmes de mesures conçus pour des applications se rapprochant de nos besoins, sont détaillés les éléments constitutifs de la balance de mesure des efforts qui a été conçue. Ensuite, et suivant le même schéma, le chapitre 5 aborde la partie commande et régulation de la turbine, avec les systèmes de transformation et de dissipation d'énergie. Le chapitre 6 présente le développement de l'interface utilisateur, ainsi que les démarches adoptées lors de la mise en oeuvre et de la validation de l'instrumentation. Enfin, ce mémoire se clôt par les résultats d'une campagne expérimentale menée sur une turbine, placée dans la veine d'essai. 7 8 Sommaire 1 INTRODUCTION 13 1.1 L ES ENERGIES DES MAREES 13 1.1.1 Les deux types d'énergie des marées 13 1.1.1.1 1.1.1.2 L'énergie potentielle des marées : le marnage 13 L'énergie cinétique des marées : les courants de marée 14 1.1.2 Les ressources en chiffres 15 1.2 P RINCIPAUX DISPOSITIFS DE RECUPERATION DE L'ENERGIE CINETIQUE DES COURANTS . 15 1.2.1 Turbines mues par les forces de portance 16 1.2.1.1 1.2.1.2 1.2.2 Autres dispositifs 25 1.2.2.1 1.2.2.2 1.2.2.3 1.3 1.4 2 Turbines à flux axial 16 Turbines à flux transverse 19 Dispositifs à turbines mues par les forces de traînée 25 Ailes oscillantes 26 Résonnance induite par lâchers tourbillonnaires 26 L ES HYDROLIENNES A FLUX TRANSVERSE & LE PROJET HARVEST 27 P OSITIONNEMENT DE LA THESE DANS LE DEVELOPPEMENT DU CONCEPT HARVEST 30 FONCTIONNEMENT DES TURBINES A FLUX TRANSVERSE 33 2.1 P RINCIPE DE FONCTIONNEMENT 33 2.1.1 Les efforts de traînée et de portance sur un profil 33 2.1.1.1 2.1.1.2 2.1.1.3 2.1.1.4 Définition normalisée d'un profil 33 Définition des efforts de portance et de traînée sur un profil 34 Des efforts de portance au couple moteur fourni par l'hydrolienne 36 L'écoulement réel au sein de la turbine 39 2.2 P ARAMETRES DE FONCTIONNEMENT D'UNE TURBINE 40 2.2.1 Paramètres géométriques d'une turbine 41 2.2.2 Paramètres hydrauliques 44 2.2.3 Paramètres de similitude inconnus 46 2.3 E VOLUTIONS TECHNOLOGIQUES DES TURBINES A FLUX TRANSVERSE ET LE PROJET HARVEST 48 2.3.1 Analyse des phénomènes physiques limitant 48 2.3.1.1 2.3.1.2 2.3.1.3 2.3.2 3 La question du rendement 49 La question de l'auto-démarrage 50 La question de l'uniformisation du couple moteur 50 Optimisation des performances : utilisation de carénages 51 INSTRUMENTATION DU TUNNEL HYDRODYNAMIQUE : DEFINITION DU BESOIN 55 3.1 L E TUNNEL HYDRODYNAMIQUE 55 3.1.1 Le tunnel hydrodynamique 55 3.1.2 La veine d'essai 56 3.2 C ONFIGURATIONS D 'IMPLANTATION DES TURBINES DANS LA SECTION D 'ESSAI 58 3.2.1 Objectifs généraux 58 3.2.2 Turbines en configuration mono colonne et écoulement semi infini 59 3.2.2.1 3.2.2.2 3.2.2.3 3.2.3 Caractérisation de l'écoulement incident 59 Développement de la couche limite en parois 60 Confinement induit par la section d'essai 61 Turbines carénées en configuration bi-colonnes 63 9 3.3 C ARACTERISATION DES PERFORMANCES HYDRODYNAMIQUES D' UNE TURBINE PAR MESURE GLOBALE D ' EFFORTS . 66 3.3.1 Des composantes hydrodynamiques élémentaires aux efforts globaux 67 3.3.2 Définition du torseur des efforts hydrodynamiques appliqués sur une turbine 69 3.3.2.1 3.3.2.2 3.3.2.3 3.3.2.4 Repérage 69 Les 3 composantes de forces 69 Les 3 moments 69 Torseur des actions hydrodynamiques 70 3.3.3 Intérêt de la mesure globale des efforts pour la caractérisation des performances des turbines 70 3.4 E LABORATION DU CAHIER DES CHARGES DE L 'INSTRUMENTATION DU TUNNEL HYDRODYNAMIQUE 71 3.4.1 Définition du besoin et élaboration du cahier des charges. 73 3.4.1.1 3.4.1.2 3.4.2 3.4.2.1 3.4.2.2 3.4.3 4 Analyse du besoin 73 Analyse fonctionnelle du besoin 74 Données physiques à caractère dimensionnant 78 Estimation de la vitesse de rotation limite d'une turbine en fonctionnement 78 Estimation du niveau maximum des efforts hydrodynamiques s'appliquant sur une turbine . 79 Précision des mesures 86 DEVELOPPEMENT DE LA BALANCE DE MESURE D'EFFORT A SIX COMPOSANTES 89 4.1 R ECHERCHE ET ANALYSE DES SYSTEMES EXISTANTS 89 4.1.1 Equipement de mesure de couple pour le test de turbine Darrieus 89 4.1.2 Balance de mesure d'effort 90 4.1.3 Système pour l'Usinage à Grande Vitesse 92 4.1.4 Système de mesure à platine dynamométrique 94 4.1.5 Système mécanique à jauges de contrainte 94 4.1.6 Synthèse 96 4.2 A RCHITECTURE DE L ' INSTRUMENTATION DU TUNNEL HYDRODYNAMIQUE 97 4.2.1 Platines dynamométriques à capteurs piézoélectriques 98 4.2.2 Principe de mesure des efforts hydrodynamiques 99 4.2.2.1 4.2.2.2 4.2.2.3 Graphe des interactions 100 Hypothèses associées au calcul du torseur des actions hydrodynamiques 101 Expression du torseur des actions hydrodynamiques à partir des signaux des capteurs 102 4.3 C ONCEPTION ET DIMENSIONNEMENT DES ELEMENTS MECANIQUES DE LA BALANCE DE MESURE 103 4.3.1 Chargement de la structure 106 4.3.2 Liaison arbre-turbine 107 4.3.2.1 4.3.2.2 4.3.2.3 4.3.3 4.3.4 4.3.5 4.3.6 4.3.7 5 Deux types de turbines à considérer 107 Solution retenue et caractéristiques techniques 107 Vérification expérimentale du couple transmissible 108 Guidage en rotation de l'arbre de la turbine 108 Liaisons complètes et transmission des efforts 113 Système d'étanchéité 114 Analyse modale de la structure 115 Cotation géométrique et spécifications des surfaces fonctionnelles 118 SYSTEME DE DISSIPATION D'ENERGIE ET DE COMMANDE DE LA TURBINE 119 5.1 C HOIX D' UN SYSTEME D 'ASSERVISSEMENT DE LA TURBINE ET DE CONVERSION D 'ENERGIE 120 5.1.1 Recherche d'un système d'asservissement et de conversion d'énergie 120 5.1.1.1 5.1.1.2 5.1.1.3 5.1.2 5.1.2.1 Systèmes non réversibles (au sens mécanique) 120 Systèmes réversibles (au sens mécanique) 124 Synthèse 124 Choix d'un générateur électrique : technologique et dimensionnement 125 Générateurs à courant continu 125 10 5.1.2.2 5.1.2.3 5.1.2.4 5.1.2.5 Générateurs asynchrones 128 Générateurs synchrones 134 Les variateurs électroniques 136 Synthèse 136 5.2 I MPLANTATION DE LA GENERATRICE SUR LA BALANCE DE MESURE D'EFFORT 137 5.2.1 Les différentes architectures envisagées 138 5.2.1.1 5.2.1.2 Montage parallèle à deux lignes d'arbre 138 Montage série à une ligne d'arbre 139 5.2.2 Architecture retenue pour l'implantation du générateur électrique 141 5.3 C ARACTERISTIQUES DU MOTO -VARIATEUR DE COMMANDE DE L'HYDROLIENNE 142 5.3.1 Caractéristiques de la génératrice 142 5.3.2 Variateur de commande de la génératrice 143 5.3.3 Interface « utilisateur/génératrice » & acquisition des grandeurs physiques caractéristiques liées à la génératrice 144 5.3.3.1 5.3.3.2 5.3.3.3 Paramètres de réglage de l'asservissement 144 Valeurs consignes de vitesse ou de courant 145 Visualisation et acquisition des grandeurs physiques liées à la génératrice 146 5.4 M ESURE DU COUPLE DE L 'HYDROLIENNE AU MOYEN DE LA GENERATRICE ELECTRIQUE 146 5.4.1 Relation entre les grandeurs électriques et le couple méca nique 146 5.4.2 Caractérisation de la chaine de mesure de couple 146 5.4.3 Paramètres à identifier pour permettre la mesure du couple 147 5.4.3.1 5.4.3.2 5.4.3.3 5.4.3.4 6 Coefficient de couple 147 Couples résistants 148 Accélération angulaire de l'arbre 148 Synchronisme des signaux 148 MESURE SUR MAQUETTE EN TUNNEL HYDRODYNAMIQUE 149 6.1 D EVELOPPEMENT ET CARACTERISATION DE L 'INTERFACE UTILISATEUR PERMETTANT L 'ACQUISITION DES DONNEES ET LA COMMANDE DE LA TURBINE . 149 6.1.1 6.1.2 6.1.2.1 6.1.2.2 6.1.3 6.1.3.1 6.1.3.2 6.1.4 6.1.4.1 6.1.4.2 6.1.4.3 Architecture, matériels et composants utilisés 149 Développement de l'interface : programmation en G sur LabVIEW 151 Face avant : interface utilisateur 151 Face arrière : stratégie de programmation 152 Validation du système d'acquisition et de commande 154 Etude des entrées de la carte 154 Etude des signaux de sortie de la carte 156 Limitations 157 Nombre de voies 157 Fréquence d'échantillonnage 157 Nombre de points 158 6.2 M ESURE DE COUPLE A PARTIR DE LA GENERATRICE 158 6.2.1 Détermination de la constante de couple associée à la génératrice 158 6.2.1.1 6.2.1.2 6.2.1.3 6.2.2 6.2.2.1 6.2.2.2 6.2.2.3 6.2.2.4 Hypothèses 158 Montage expérimental 158 Synthèse 159 Détermination des couples résistants 160 Couple de frottement exercé par le palier sur l'arbre 160 Couple de frottement exercé par le joint d'étanchéité sur l'arbre 164 Couple de frottement exercé par le résolveur sur l'arbre 165 Synthèse 165 6.2.3 Réglage et optimisation de l'asservissement de l'arbre de rotation 166 6.2.4 Correction dynamique des valeurs de couple 169 6.3 M ESURE DES EFFORTS DE TRAINEE SUR UNE TURBINE AVEC UNE PLATINE PIEZOELECTRIQUE 173 6.3.1 Etape préliminaire : mesure des efforts sans hydrolienne 173 11 6.3.1.1 6.3.1.2 Mesure des efforts statiques 173 Mesure des efforts dynamiques 177 6.3.2 Mise en évidence de l'influence du support de la platine piézoélectrique sur la mesure des efforts 180 6.3.2.1 6.3.2.2 6.3.2.3 6.3.3 6.3.3.1 6.3.3.2 6.3.4 6.3.4.1 6.3.4.2 Mouvements du support de la balance 180 Déformation du support après mise en eau de la veine 181 Déformation du support sous contraintes thermomécaniques 182 Autres facteurs pouvant influencer la mesure d'effort 183 Quantification de l'influence du joint d'étanchéité sur la mesure des efforts 183 Quantification du niveau de bruits de mesures 183 Bilan : analyse des incertitudes de mesure 184 Mesure de couple 184 Mesure des efforts de traînée 184 6.4 M ESURES SUR MAQUETTES EN TUNNEL HYDRODYNAMIQUE : RESULTATS EXPERIMENTAUX 186 6.4.1 Présentation de la turbine testée 186 6.4.2 Conditions et protocole expérimentaux 187 6.4.2.1 6.4.2.2 6.4.3 6.4.3.1 6.4.3.2 6.4.3.3 6.4.3.4 6.4.4 Conditions expérimentales 187 Protocole expérimental 187 Présentation et analyse des résultats expérimentaux 187 Evolution du couple moyen 188 Evolutions du coefficient de puissance 189 Evolution angulaire du coefficient de couple 190 Variation angulaire des efforts de traînée 191 Bilan 191 CONCLUSION ET PERSPECTIVES 193 ANNEXES 197 BIBLIOGRAPHIE 225 12 Introduction 1 Introduction 1.1 Les énergies des marées 1.1.1 Les deux types d'énergie des marées La marée est la variation périodique du niveau de la mer ou des océans due à l'action gravitationnelle de la Lune et du Soleil, modulée par la force centrifuge produite par la rotation de la terre et de la lune l'une par rapport à l'autre (Figure 1-1). La lune a un effet 2.2 fois plus important que le soleil. Le « va-et-vient » des marées est exploitable pour la production d'énergie sous deux formes distinctes : (1) la différence de hauteur d'eau entre une pleine mer et une basse Figure 1-1 : Effet de la lune sur les marée mer successive, appelée marnage, et (2), [Fergal O Rourke, 2009] le déplacement horizontal des masses d'eau { proximité des côtes, appelé courant marin. 1.1.1.1 L'énergie potentielle des marées : le marnage Le principe de l'exploitation de l'énergie potentielle marémotrice repose sur le remplissage de deux bassins de hauteurs différentes, conséquence directe du marnage (f igure 1-2). Le bassin supérieur est rempli à marée haute ; le bassin inférieur est vidé à marée basse. Des cycles améliorés, incluant une phase de pompage , ont été mis au point pour améliorer le rendement global, ainsi que des ensembles à trois bassins. En ajoutant une phase de pompage en fin de remplissage du bassin, on consomme de l'énergie que l'on récupère quelques heures plus tard lorsque lors d'une demande a ccrue sur le réseau. Les centrales marémotrices, ont d'abord été logées dans des barrages d'estuaires . On ne compte actuellement que trois centrales marémotrices en fonctionnement dans le monde, pour une capacité installée de 265 MW. L'usine de la Rance est de loin la plus importante, avec une puissance de 240 MW et une production annuelle de 550 GWh. 13 Les énergies des marées Les autres usines se trouvent au Canada (20 MW) et en Chine (5 MW). Les hésitations relatives à l'utilisation d'une centrale marémotrice barrant un estuaire, qui ne présente pas de problèmes techniques majeurs, est de souffrir d'un coût d'investissement important tout en affectant les écosystèmes humides. Pour pallier ce dernier inconvénient, une solution séduisante est de loger la centrale au sein d'un lagon artificiel en mer. Mais comme pour le barrage, il s'agit d'infrastructures lourdes, qui ont également des impacts sur l'environnement et sur les activités en place et dont les investissements se justifient à partir d'une puissance minimum d'installation de l'ordre de quelques centaines de MW. Des projets de lagon artificiel sont en cours d'étude sur plusieurs sites au Pays de Galles ainsi qu'en Chine. Figure 1-2 : Centrale marée-motrice de production électrique dans un barrage 1.1.1.2 L'énergie cinétique des marées : les courants de marée Il convient tout d'abord de distinguer les courants de marée des grands courants marins (Gulf Stream, Kuroshio), qui sont également une source potentielle d'énergie marine importante. Ces grands courants marins, que l'on peut qualifier de « radiationnels », car ils trouvent leur origine plus ou moins directe dans le rayonnement solaire, se divisent en courants dus au vent et en courants dus à une variation spatiale de la pression hydrostatique (découlant des variations de salinité et de température). Ainsi dans le premier cas, quand le vent souffle, une partie de son énergie est transférée aux couches de surface, jusqu'{ plusieurs centaines de mètres. Une fraction de cette énergie est ensuite utilisée à la génération des vagues et une autre à la création des courants. Les courants de marée véhiculent quant à eux beaucoup moins d'énergie que les courants radiationnels ; cependant ils constituent des ressources beaucoup plus adaptés à la production d'énergie. Ils sont d'abord plus prédictibles, plus rapides, plus proches des côtes (rapatriement du courant moins coûteux) et se développent sur les eaux peu profondes (dispositifs de conversion plus facile à installer et à maintenir); leur exploitation est à plus long terme. La puissance électrique que l'on peut extraire des déplacements des masses est proportionnelle au cube de la vitesse du courant, à la surface balayée par le sy stème et à la densité de l'eau. Il existe actuellement une grande variété de systèmes permettant la conversion de l'énergie cinétique des courants en énergie électrique présentent une grande. Parmi ces systèmes, les hydroliennes sousmarines peuvent être assimilées à des éoliennes immergées. Ainsi, et bien que les courants marins soient 4 à 5 fois moins rapides que le vent, la puissance d'une hydrolienne est beaucoup plus importante que celle des éoliennes de même di- 14 Introduction mension, le milieu fluide étant beaucoup plus dense (la densité de l'eau de mer est 800 fois plus élevée que celle de l'air). Les hydroliennes, nettement moins imposantes que les éoliennes terrestres, peuvent ainsi s'adapter aux mers en faible profondeur. 1.1.2 Les ressources en chiffres Les ressources exploitables par les dispositifs hydroliens sont très localisées. Les sites potentiels ont une géomorphologie qui entraîne une augmentation des vitesses des courants, et doivent ainsi présenter un fort potentiel énergétique pour être économiquement viables. D'après [Jourden, et al., 2009], la ressource mondiale est estimée à 450 TWh/an (soit plus de 3/4 de la production annuelle française en 2007). Au niveau européen, les marées sont amplifiées dans la Manche, ce qui en fait l'une des régions les plus favorisées dans le monde pour l'implantation d'hydrolienne (Figure 1-3). Ainsi, le Royaume-Uni et le nord de la France représentent plus de 80% de la ressource potentielle européenne. Le potentiel hydr olien est estimé à 5 à 6 GW au Royaume-Uni (pour une production de 13 à 23 TWh) et 2,5 à 3,5 GW en France (pour une production de 5 à 14 TWh). Le potentiel du reste de l'Europe est estimé { 0,7 GW pour une production de 3 TWh. On notera que les sites attractifs sont ceux dont la vitesse des courants de marée dépasse 2 m/s. En France, le littoral de la Bretagne et de la Normandie possède plusieurs sites où les courants atteignent des valeurs importantes : La Chaussée de Sein (3 m/s), le Fromveur à Ouessant (4 m/s), les Héaux de Bréhat, le Cap Fréhel (2 m/s), le Raz Blanchard (5 m/s). Le décalage de l'onde de marée durant sa propagation dans la Manche permet théoriquement d'obtenir une puissance garantie quasiment continue en équipant au moins partiellement les sites men- Figure 1-3 : Ressource hydrolienne en Europe. tionnés. 1.2 Principaux dispositifs de récupération de l'énergie cinétique des courants. En 2003, l'IEA-OES (groupe EMR de l'Agence internationale de l'Energie) ne recensait que 5 concepts de système de conversion d'énergie (SCE). En 2008 le 15 Principaux dispositifs de récupération de l'énergie cinétique des courants. Centre Européen des Energies Marines EMEC, en recensait plus de 50 ! Ces SCE peuvent néanmoins être regroupés en quatre classes énumérées par ordre d'importance numérique : (1) les turbines à flux axial (courant et axe de rotation parallèles) d'axe horizontal, (2) les turbines à flux transverse (courant et axe de rotation perpendiculaires) d'axe vertical et quelquefois horizontal, (3) des turbines mus par des forces de traînée : roue à aubes partiellement immergées et (4) les convertisseurs « singuliers », non fondés sur des turbines. De plus, chaque classe de convertisseur peut elle–même être divisée en sousclasses suivant, dont J.A.C. Orme [2005] propose une étude comparative :  qu'elles sont ou non équipées de carénages (venturis symétriques, ou de diffuseurs asymétriques nécessitant un support tournant),  la nature de la structure de maintien. Cette dernière se caractérise par le fait d'être porteuse d'une ou de plusieurs turbines et par le type de support de la turbine impliqué. Un panorama non exhaustif de SCE appartenant aux quatre classes évoquées plus haut est présenté dans les paragraphes suivants. 1.2.1 Turbines mues par les forces de portance 1.2.1.1 Turbines à flux axial  Projets SEAFLOW et SEAGEN (www.marineturbines.com) de Marine Current Turbines Ltd En juin 2003, la société britannique Marine Current Turbine Ltd (MCT) a mis en service le premier prototype d'hydrolienne, baptisé SEAFLOW. Cette machine a été installée à 1,5 km de la côte, dans le canal de Bristol, au sud de l'Angleterre. Il s'agit d'une turbine { axe horizontal constituée de deux pales en composites de 11 m de diamètre. L'angle d'incidence des pales et leur vitesse de rotation sont régulés afin d'optimiser l'énergie produite en fonction des variations de la vitesse du courant. Cependant, le rotor ne tourne que dans un sens et n'utilise qu'un sens de la marée. La turbine est placée sur un pieu de 80 tonnes en acier, faisant 42,5 m de long et 2,1 m de diamètre. La nacelle peut se déplacer le long du pieu pour faciliter la maintenance. La puissance maximale de 300 kW est atteinte aux marées d'équinoxe. La turbine entraîne { travers un multiplicateur une génératrice, qui n'est pas connectée au réseau électrique. Le prototype a coûté 3,5 millions de livres (soit 4,4 millions d'euros). Les figure 1-4 et figure 1-5 montrent, respectivement, le prototype SEAFLOW en maintenance, avec la nacelle émergée, et en fonctionnement, avec la nacelle immergée. En mai 2008, un prototype { l'échelle 1, nommé SEAGEN, a été installé à Stanford Lough, en Irlande du Nord. Il possède deux rotors de 16 m de diamètre, développant chacun 600 kW (Figure 1-6). La force de traînée sur cette machine atteint l'équivalent de 100 tonnes. Contrairement au premier prototype, l'utilisation pour le flux et le reflux de la marée est possible. Actuellement, le concept SEAGEN est reconnu comme le projet d'hydroliennes le plus avancé. Les rendements hydrodynamiques et le système de glissière permet- 16 Introduction tant la maintenance à l'air sont les points forts de ce concept. Cependant, les opérations de forage nécessaires { l'installation du pieu sont coûteuses et limitent les profondeurs exploitables à 40 m, alors que l'essentiel de la ressource est situé par des fonds plus importants. Figure 1-4 : SEAFLOW émergé. Figure 1-5 : SEAFLOW immergé Figure 1-6 : SEAGEN immergé Les hydroliennes MCT de deuxième génération seront plus grandes (20 m de diamètre) et disposées en écran sur une structure fixée au fond de la mer totalement immergée. Elles balaieront une surface de 1500 m2 et délivreront une puissance de 5 MW. Le principal avantage de ce concept est que les hydroliennes sont invisibles depuis la surface et autorisent la navigation. En revanche, la vitesse des courants est moindre lorsque l'on se rapproche du fond.  Open Center Turbine d'OpenHydro Group Ltd (www.openhydro.com) La société irlandaise OpenHydro a été fondée en 2005 sur la base d'une technologie de turbine-rotor à centre ouvert (Open Center Turbine), assez différente des hydroliennes traditionnelles (Figure 1-7). La turbine a commencé à être testée aux USA en 1995. Après une dizaine d'années d'expérimentation, des prototypes ont été améliorés sur le site d'essai de l'European Marine Energy Centre (EMEC) en Ecosse pendant deux ans. Ils ont été validés en mer et connectés au réseau en 2008. Un point fort de cette technologie concerne l'installation et la maintenance des turbines : l'implantation de ces hydroliennes ne nécessite pas de travaux sousmarins de type forage ou ancrage. Reposant au fond de la mer sur une structure métallique triangulaire (Figure 1-8), chaque hydrolienne est totalement immergée et facile { déplacer par l'intermédiaire d'une embarcation, conçue pour leur manipulation. Au del{ de l'installation et de la maintenance, un autre atout de cette turbine réside dans l'utilisation de génératrices périphériques à aimants permanents, non perturbantes pour l'écoulement du fluide et plus robustes, du moins pour des tailles modestes. D'après le constructeur, la conception de la turbine respecte la faune marine et l'environnement en général. Même si ce comportement n'a pas encore été prouvé, le principal argument écologique réside sur le fait que le centre ouvert est suff i- 17 Principaux dispositifs de récupération de l'énergie cinétique des courants. samment grand pour permettre à un animal marin de passer au travers sans se blesser. Figure 1-7 : Open Center Turbine d'OpenHydro Group Ltd. Figure 1-8 : Structure métallique triangulaire. De tous les récupérateurs d'énergie des courants actuellement sur le marché, OpenHydro apparaît comme un des plus demandés et sans doute comme un des plus faciles à installer et à entretenir. Dans ce contexte, en octobre 2008, OpenHydro et EDF ont signé un contrat de coopération qui porte sur l'installation d'hydroliennes de 16 mètres de diamètre sur le site de Paimpol-Bréhat, à 15 km environ de la côte normande. Entre 4 et 10 hydroliennes devraient être progressivement raccordées au réseau électrique de distribution { partir de 2011. D'une puissance de 2 { 4 MW, l'installation pourrait ainsi couvrir les besoins électriques de 2500 à 5000 foyers locaux. En dehors du site de Paimpol-Bréhat, cette turbine va être sous peu installée sur 3 autres sites : les Orkney Islands à l'extrême Nord-Est du Royaume-Uni, la province canadienne de Nova Scotia, et la Manche autour de l'île anglo-normande d'Alderney.  Projet Marénergie d'HydroHelix Energies (www.hydrohelix.fr) Le projet Marénergie a été développé par la société HydroHelix Energies. Il consiste à concevoir une hydrolienne simple et robuste, disposant de pales bidirectionnelles fixes, spécifiquement adaptée aux courants de marée. La turbine de 200 kW, entièrement immergée, fera 10 m de diamètre et pourra être installée à une profondeur de 25 à 30 m, préservant ainsi un tirant d'eau suffisant pour la navigation. L'architecture est modulaire et les machines, dotées d'un carter de type Venturi, peuvent être assemblées en écran pour optimiser le captage de l'énergie (Figure 1-9). La maintenance ne nécessite pas de gros moyens navals. Ce projet n'a pour l'instant pas pu être concrétisé, faute de financements. C'est le prototype de démonstration Sabella D03 (Figure 1-10), de 3 m de diamètre et délivrant 10 kW, qui a vu le jour. La mise { l'eau a eu lieu le 28 mars 2008 dans l'estuaire de l'Odet au Finistère. L'hydrolienne de 7 tonnes, composée d'un rotor { six pales de 3,3 m de diamètre et d'une génératrice solidement arrimés à une structure métallique, a été posée sur les fonds marins à 19 m de profondeur. La période d'essai a duré 6 mois et, d'après le constructeur, a donné des résultats 18 Introduction encourageants, tant l'environnement. en termes Figure 1-9 : Projet Marénergie d'HydroHelix Energies de fonctionnement que d'impacts sur Figure 1-10 : Prototype de démonstration Sabella D03. 1.2.1.2 Turbines à flux transverse  La turbine Darrieus Les deux principales revendications du brevet de Georges Jean-Marie Darrieus [Darrieus, 1931]concernent deux types de turbines à flux transverse mues par les forces de portance (Figure 1-11). L'une a des pales semi-circulaires et l'autre des pales droites liées { l'arbre de rotation par des flasques. Parmi les avantages les plus séduisants de ces turbines, dont les applications comportaient essentiellement un axe vertical, citons: (1) l'indépendance du fon ctionnement à la direction du courant, (2) la relative simplicité de construction et (3) la possibilité de disposer le générateur au bas de la machine. Figure 1-11 : Turbines brevetées par Darrieus, avec des pales semi-circulaires (à gauche) ou des pales droites soutenues par des flasques (à droite) 19 Principaux dispositifs de récupération de l'énergie cinéti que des courants. En revanche, sauf associations de turbines sur le même arbre, elles ne sont pas auto-démarrantes et le rendement est légèrement inférieur à celui des turbines à flux axial. De plus, en fonctionnement les pales sont soumises à des efforts périodiques (cf. section 2.1.1), qui provoquent des vibrations de la structure. Le couple fourni par la turbine présente alors une forte variabilité. Dans l'air, les efforts centrifuges, prépondérant sur les efforts aérodynamiques, soumettent les pales à d'importants efforts de flexion. La forme troposkienne permet le transfert plus facile les forces centrif uges vers l'arbre de rotation en évitant les sollicitations en flexion des pales. Des études théoriques ont montré que pour une machine parabolique (proche de la forme théorique troposkienne), 60% de la partie équatoriale fournit 95% du couple [Blackwell, et al., 1974]. Les extrémités des pales pénalisent le rendement de la machine, la portance étant proportionnelle au carré de la vitesse périphérique des pales. En tenant compte de cet aspect et dans un but de réduction du coût de fabrication, une autre forme de pales a été proposée par le Laboratoire Sandia : une partie circulaire autour de la zone équatoriale de la machine et des segments de droite pour les extrémités [Reis, et al., 1974]. Par ailleurs, les segments de droite doivent avoir une section aérodynamique sans quoi le rendement chute très vite. Une autre solution pour réduire la variation du couple { l'origine des défaillances des parties constitutives d'une éolienne { axe vertical constituée de pales droites est le contrôle de l'angle de calage des pales. Deux avantages résultent de ce co ntrôle : (1) une meilleure capacité d'auto-démarrage { l'aide d'un choix adéquat des incidences sur les pales, (2) un lissage du couple, car le système peut faire varier l'incidence des pales pour réduire le risque de décrochage dynamique (et, par conséquent, diminuer les variations des efforts s'appliquant sur elles). Par contre cela induit une complexification du mécanisme, qui peut poser des probl èmes de fiabilité et augmente les coûts de fabrication et de maintenance. Dans l'eau, où les forces hydrodynamiques sont prédominantes par rapport aux forces centrifuges, il devient alors possible de privilégier les performances h ydrodynamiques en adoptant des pales droites pour lesquelles toute la hauteur contribue au couple moteur. Le tableau 1-1 expose les coefficients de puissance maximaux des turbines Darrieus munies de pales droites avec ou sans contrôle de calage et fonctionnant dans l'eau. Ces rendements, disponibles dans les publications suivantes : [Shiono, et al., 2000] ,[Wessner, et al., 2009], [Coiro, 2005] et [Schönborn, et al., 2007] sont inférieurs aux rendements des machines à flux axial, qui, généralement, sont de l'ordre de 40%. Il faut mentionner que d'une façon générale les valeurs rapportées dans la littérature sont imprécises car entachées d'incertitudes conce rnant la géométrie exacte de la turbine et surtout les caractéristiques exactes du champ hydrodynamique incident (champ de vitesse, immersion, confinement de l'écoulement, etc.). Les deux concepts fondés sur un contrôle de calage des pales ont donné lieu à turbines { faible solidité, de l'ordre de 0,40 2. Cela est dû à des cordes réduites, nécessaires pour ne pas augmenter la taille du système de guidage des pales, et également pour résister aux efforts. Ces systèmes peuvent être un bon choix dans une configuration turbine isolée, mais pas dans une configuration colonne, à 2 Se reporter à la définition de σ section 2.2.1 20 Introduction cause de leur complexité. Les turbines d'hydroliennes sans contrôle de calage ont une plus grande solidité, de l'ordre de 1. Cela les oblige { tourner { des vitesses de rotations moins élevées que celles des turbines à faible solidité, ce qui indu it des rendements plus faibles. Tableau 1-1 : Performances de différentes tubines de type Darrieus testées en eau En outre les études reportées dans le tableau, il est également très important de mentionner le nombre considérable d'études quelquefois raffinées concernant les performances de turbines à flux transverse et à pales droites installées intentionnellement dans des conduites confinant très fortement l'écoulement. Ces études, comme par exemple [Ponta, et al., 2000], [Kirke, et al., 2005]et [Ponta, et al., 2008], font état de rendements excédant souvent 50%. En conclusion, le bilan sur le rendement des turbines Darrieus à pales droites en écoulement libre dans l'eau semble indiquer qu'il est difficile d'excé der 23,5% [Gorban, et al., 2001].  Turbine Gorlov de Lucid Energy Technologies (www.lucidenergy.com) Le concept proposé par Gorlov, consiste à installer en pleine mer de véritables « fermes d'hydroliennes ». La ferme imaginée, est une structure modulaire dont l'investissement en termes de génie civil est faible. Il y a trois niveaux d'intégr ation dans l'architecture de cette ferme : - Le premier niveau (le plus élémentaire) est celui de la turbine (Figure 1-12). C'est l'élément de base, qui convertit l'énergie cinétique du courant en énergie mécanique. En s'appuyant sur le concept de la turbine { axe vertical de Darrieus, Gorlov a breveté en 1995 une nouvelle géométrie de turbine à pales hélicoïdales [Gorlov, 1995]. - Le deuxième niveau, appelé axe-turbines, est constitué d'un empilement de turbines élémentaires sur un seul axe de rotation vertical, destiné à r é- 21 Principaux dispositifs de récupération de l'énergie cinétique des courants. - cupérer l'énergie sur toute la hauteur du courant. La génératrice est placée au sommet de l'axe. Le troisième niveau est celui de la ferme, breveté en 1997 [Gorlov, 1997]. Il s'agit d'un ensemble d'axe-turbines rendus solidaires à l'aide d'une structure tubulaire (Figure 1-13). La structure joue deux rôles : d'une part, elle maintient la ferme sur place { l'aide d'ancres fixées au fond de la mer et, d'autre part, elle se comporte comme un ponton en assurant une ce rtaine flottabilité. Figure 1-12 : Turbine Gorlov. Figure 1-13 : Ferme d'hydroliennes de Gorlov. Gorlov met en avant l'absence de variation de couple de sa machine et en cons équence la réduction des vibrations de l'axe-turbines au cours de la rotation. Cette caractéristique est due à la géométrie hélicoïdale des pales. De plus, les pales de turbine sont projetées, de sorte que la ligne moyenne du profil et la trajectoire circulaire (ou diamètre moyen de la turbine) soient confondues. Il en résulte moins de résistance { l'avancement, donc un meilleur rendement (évalué { 35%) par rapport à une machine Darrieus classique (estimé à 23,5%). Pour répondre au problème du transport de l'électricité, Gorlov imagine une conversion de l'énergie électrique en hydrogène liquide, transporté ensuite jusqu'aux côtes sur un bateau. D'après Gorlov, une ferme couvrant une surface de 400 m x 400 m, interceptant le courant de Golf Stream sur 12 m de profondeur produirait environ 136 MW (plus de la moitié de la production de l'usine marémotrice de la Rance) pour un coût d'investissement estimé à 300 millions de dollars [Gorlov, 1998]. La figure 1-14 montre la dernière version de la turbine Gorlov, développée en collaboration avec l'Université Northeastern de Boston et commercialisée par la s ociété Lucid Energy Technologies. Apparemment, les développeurs sont revenus en arrière, en gardant une couverture circonférentielle de pale plus importante, de l'ordre de 120°. Les flasques ont été définitivement abandonnés. La modification géométrique la plus marquée et innovante jusqu'ici est l'utilisation de pales plus allongées, dont le rapport hauteur sur diamètre de la turbine peut arriver à 2,5. On note aussi la présence d'un troisième bras pour chaque pale au niveau du plan médian de la turbine. Sur le site web de la société [Lucid_Energy_Technologies, 2010], une courbe de puissance est disponible (Figure 1-15), { partir de laquelle il est possible d'estimer son rendement : 25%. 22 Introduction Figure 1-14 : Turbine développée par Lucid Energy Figure 1-15 : Courbe de puissance du protoype On ne trouve pas d'explications sur la baisse des rendements annoncés. Le débat reporté dans un rapport [Bedard, 2005] diffusé par l'Electrical Power Research Institute (EPRI) concernant l'Amesbury Tidal Energy Project (ATEP), pendant l equel la plus récente turbine développée par Gorlov a été testée, est au minimum troublant. La performance mesurée d'une turbine de corde égale { 0,14 m arrive à peine à plus de 50% de la valeur annoncée par les développeurs. Suivant Gorlov, un tel écart serait dû { l'installation de la turbine { une proximité trop grande de la surface d'eau. La rotation de la turbine entraîne alors { la formation d'un t ourbillon dans la partie supérieure de la machine : c'est le phénomène de ventilation. Des bulles d'air sont aspirées au sein de la turbine, conduisant { la dégradation des performances. D'après Gorlov, le problème doit être éliminé si la turbine est installée à des profondeurs plus importantes. Cette explication parait juste, si on prend en compte les travaux de Kirke ; Brian; Lazauskas, [2008]. Ils font référence à un test réalisé par la société Coastal Hydropower Corporation, affirmant que les performances des turbines Darrieus et Gorlov (Figures 1-16 et 1-17) sont similaires. On peut voir sur la courbe de puissance fournie que le rendement maximal de la turbine Darrieus, de corde égale à 0,14 m, avoisine les 25%, ce qui confirme les prévisions annoncées par Gorlov. Figure 1-16 : Protoype de turbines Darrieus et Gorlov développées par Coastal Hydropower Figure 1-17 : Courbes de rendement de la tubine Darrieus Si l'on s'en tient aux inconvénients du faible rendement et des vibrations induites, il semble que Gorlov ait atteint ses objectifs. Outre ses propres 23 Principaux dispositifs de récupération de l'énergie cinétique des courants. affirmations, il est démontré, par des expériences bien documentées, comme les travaux de Shiono [Shiono, et al., 2002], que les problèmes d'auto-démarrage ont été résolus.  Turbine Kobold de Ponte di Archimede International (www.pontediarchimede.com) La machine Kobold mise au point par la société italienne Ponte Di Archimede est une turbine à pales droites de type Darrieus dont la particularité essentielle est d'avoir des pales libres en rotation autour de leur axe (de 0 { 90 degrés par ra pport à la direction radiale) et contrebalancées par une masselotte. Cela permet une adaptation mécanique simple de l'incidence des pales au cours de la rotation et autorise l'auto-démarrage. Chaque pale est portée par deux bras radiaux (Figure 1-18). Travaillant sur la même technologie à axe vertical, Ponte Di Archimede a lancé le Projet Enermar afin d'évaluer la possibilité de récupérer l'énergie des courants du détroit de Messine, où les courants ont une vitesse moyenne de 2 m/s. Le système est constitué d'une structure porteuse et d'une turbine Kobold, faisant 6 m de diamètre pour une puissance d'environ 20 KW. L'ensemble est supporté par une structure flottante, elle-même tenue par 3 ancres (Figure 1-19). En revanche, les turbines avec un contrôle de calage des pales donnent des résu ltats assurément supérieurs mais au prix d'une complexité technique qui a été jugée pour le Programme HARVEST préjudiciable à la fiabilité des machines. Figure 1-18 : Turbine Kobold. Figure 1-19 : Structure flottante du Projet Enermar. 24 Introduction  Turbine Davis de Blue Energy Inc. (www.bluenergy.com) Ce concept d'origine canadienne est fondé sur l'utilisation d'unités élémentaires comprenant une turbine de type Darrieus placée dans un carénage assurant la rotation et la transmission du couple vers un générateur via un multiplicateur de v itesse (Figures 1-20 et 1-21). Ces unités, nommées turbines Davis, peuvent être utilisées soit seules au fond d'un fleuve ou d'une rivière, soit au sein d'une stru cture « tidal-bridge » pouvant servir de pont au dessus d'un estuaire ou d'un détroit (Figure 1-22). La turbine Davis développée par Blue Energy est le résultat de deux décennies de R&D au Canada sur les turbines à axe vertical. La compagnie a testé plusieurs prototypes dont le plus grand atteint une puissance de 100 kW, connecté au r éseau à Novia Scotia en 1984. Ce concept est intéressant par sa modularité. L'assemblage des unités élémentaires en autorise de fortes puissances tout en minimisant l'impact sur l'écosystème. Cependant, la voie maritime semble devoir être condamnée ou pour le moins rendue plus difficile avec ce type d'ouvrage. Par ailleurs, le coût de génie civil, même s'il n'est pas aussi considérable que celui d'une usine marémotrice, reste sans doute très élevé. Figure 1-20 : Turbine Davis. 1.2.2 Figure 1-21 : Unité élémentaire Davis. Figure 1-22 : Structure «tidal-bridge». Autres dispositifs 1.2.2.1 Dispositifs à turbines mues par les forces de traînée Il s'agit de turbines mues par la force de traînée, qui s'exerce de façon inégale sur les pales selon quelles remontent ou descendent l'écoulement.Les pales de ce type de turbine sont généralement de forme concave. Il en résulte que la traînée affectant la pale qui descend l'écoulement est plus grande que celle affectant la pale qui remonte, le différentiel faisant tourner la turbine. Il existe aussi des turbines flottantes, qui peuvent être composées de Figure1-23 : Protoype Hydropales planes (Figure 1-23). Dans ce cas, le couple Gen. résultant provient de la partie immergée, la traînée sur les pales au-dessus de la surface étant négligeable. 25 Principaux dispositifs de récupération de l'énergie cinétique des courants. 1.2.2.2 Ailes oscillantes Cette technologie fonctionne { l'image du mouvement de la queue des mammifères marins (Figure 1-24). Les bords d'attaque d'une ou plusieurs ailes à plans parallèles sont disposés face au courant. L'angle d'attaque des ailes est réglé de telle façon que leur portance soit maximale et reste dans le même sens que le mouvement. Des vérins hydrauliques amortissent le mouvement de va-et-vient de l'aile en comprimant de l'huile dans un réservoir haute pression. L'huile est turbinée dans un moteur hydraulique qui entraîne une génératrice électrique à vitesse variable. 1.2.2.3 Résonnance induite par lâchers tourbillonnaires Figure 1-24 : Aile oscillante (Projet Stingray). VIVACE (Vortex Induced Vibrations for Aquatic Clean Energy) est un système permettant la récupération d'énergie à partir de faibles courants (dont la vitesse avoisine 1 m/s). Cette nouvelle technique est basée sur le principe de la récupération de l'énergie des lâchés de tourbillons de part et d'autre de barres de section circulaire. Ces tourbillons induisent des efforts cycliques de sens opposé sur les barres (Figure 1-26). Il est intéressant de faire en sorte que la pulsation de résonnance des structures tubulaire corresponde à la pulsation des lâchés de tourbillons. Cela permet d'augmenter l'amplitude des mouvements et de maximiser l'énergie récupérée. Figure 1-25 : Prototype expérimental de VIVACE. Figure 1-26 : Exploitation industrielle de VIVACE. Le prototype expérimental est consisté de plusieurs barres cylindriques disposées horizontalement dans le lit d'une rivière. Il est fixé au sol au moyen de deux plaques verticales (Figure 1-25). Le rendement de ce système étant assez faible (estimé à 22%), il est important que le prix de revient soit compétitif. 26 Introduction Une utilisation industrielle de cette technologie est par ailleurs envisagée sur la rivière de Detroit. Ce projet pilote consistera à mettre en place de nombreux cylindres répartis à intervalle régulier bien défini, afin d'utiliser au mieux les effets de parc (Figure 1-26). 1.3 Les hydroliennes à flux transverse & le projet HARVEST Le Laboratoire des Ecoulements Géophysiques et Industriels (LEGI) a lancé en 2001 un programme de recherche concernant les systèmes récupérateurs d'énergie cinétique des courants fluviaux et marins. Ce programme, initié par Jean-Luc Achard et nommé HARVEST (Hydroliennes à Axe de Rotation VErtical STabilisé), a pour objectif le développement de parcs d'hydroliennes, utilisant des turbines à flux transverse et à axe vertical. Un tel projet nécessite des compétences pluridisciplinaires. Actuellement, quatre laboratoires de la Région Rhône-Alpes participent au déroulement du programme : - LEGI (Laboratoire des Ecoulements Géophysiques et Industriels – CNRS/Grenoble-INP/UJF) : études hydrodynamiques, cavitation, sillage. - 3S-R (Sols, Solides, Structures et Risques – CNRS/Grenoble-INP/UJF) : systèmes de fondation, choix de matériaux, procédés de fabrication, tenue en service. - G2ELab (Grenoble Electrical Engineering Laboratory – CNRS/GrenobleINP/UJF) : génération électrique, raccordement au réseau. - LAMCOS (Laboratoire de Mécanique des Contacts et des Structures – CNRS/INSA Lyon) : comportement vibratoire, interaction fluide-structure. La turbine développée dans le contexte du Projet HARVEST, connue sous le nom de turbine Achard, résulte d'une évolution des turbines Darrieus et Gorlov ( cf. chapitre suivant). Elle correspond à un nouveau type de turbine à flux transverse et fait l'objet d'un premier brevet, déposé en février 2004 [Achard, et al., 2004]. La turbine Achard a trois caractéristiques principales :  1 : ses pales en forme d'aile fixées sur l'axe de rotation par des bras centraux. En gardant { l'esprit cette configuration de base, de nombreuses variantes peuvent être imaginées, comme le témoigne la figure 1-27. Les flèches des pales sont soit nulles (pales droites), soit positives, voire également négatives.  2 : le raccord bras-pale fait l'objet d'un dessin particulier visant { réduire les structures tourbillonnaires qui se développent dans cette zone engendrant ce qui est appelé une « traînée d'interférence ». Le brevet qui décrit ce raccord a été déposé en 2011 [Achard, et al., 2011].  3 : L'extrêmité de pale fait l'objet d'un dessin particulier visant à réduire les structures tourbillonnaires qui se développent dans cette zone enge ndrant ce qui est appelé une « traînée de bout de pale ». Une autre solution 27 Les hydroliennes à flux transverse & le projet HARVEST consistant à rajouter en bout de pale des winglets inhibiteur de tourbillon pourrait être avantageuse pour une turbine placée en milieu infini. Les études dans ce domaine ne sont pas encore achevées. Figure 1-27 : Différentes variantes de la turbine Achard. Le concept HARVEST consiste ensuite à empiler plusieurs turbines sur un même arbre (ou plusieurs tronçons d'arbre) pour créer une colonne-turbines (Figure 1-28). L'énergie produite par une colonne-turbines est convertie en électricité par une génératrice électrique. Les liaisons entre les sections d'arbres de turbine peuvent se faire de deux m anières : soit les tronçons d'arbre forment une seule colonne-turbines par l'utilisation d'un seul arbre portant plusieurs turbines, soit par l'utilisation d'accouplements situés entre chaque tronçon d'arbre portant une seule turbine. Ces accouplements tolèrent de légers défauts d'alignement et permettent un montage/démontage des colonne-turbines plus aisé. Cette seconde solution est nécessaire au-del{ d'une certaine hauteur de machine. La colonne-turbines doit être logée dans une structure de maintien (Figures 1-29 et 1-30). Cette structure a pour fonction essentielle de soutenir les turbines dans le courant, sachant que ces turbines en fonctionnement vont développer des efforts de traînée et des efforts transverses. La structure de maintien elle-même est soumise à des efforts hydrodynamiques importants, auxquels elle doit rési ster, surtout si elle est dotée de carénages ou conditionneurs, dispositifs servant { confiner l'écoulement afin d'améliorer la performance des turbines. Eventuellement, un système anti-débris est { prévoir si l'eau contient des corps solides (qui peuvent endommager les pales : figures 1-31 et 1-32). De la même façon que la colonne-turbines, la structure de maintien peut être d'un seul tenant, ou composée de plusieurs étages, (ce qui permet de garder une ce rtaine modularité). Si la seconde option est choisie, un étage composé d'une tu rbine avec son tronçon d'axe de rotation et sa structure de maintien forme un module-turbine. L'ensemble colonne-turbines et structure de maintien ou, le cas échéant, l'empilement de modules-turbine (Figure 1-32) forment une structure appelée tour. Elle fait l'objet d'un deuxième brevet déposé en février 2005 [Achard, et al., 2005]. On peut non seulement envisager une tour mono-colonne mais également bi-colonne, c'est à dire associant deux colonnes-turbines jumelles contra rotatives dans une même structure de maintien symétrique, afin d'annuler l'effort transverse { l'échelle de la tour (Figure 1-33). Un troisième brevet déposé en oc- 28 Introduction tobre 2007 [Achard, et al., 2007] revendique la notion de tour bi-colonne, ainsi que les carénages et systèmes anti-débris associés. Figure 1-28 : Colonneturbines. Figure 1-29 : Structure de maintien monocolonne. Figure 1-30 : Structure de maintien bicolonne. Figure 1-31 : Structure de maintien bicolonne munie de carénages et d'un système antidébris. Figure 1-32 : Tour bi-colonne munie de carénages et d'un système antidébris. Les avantages fondamentaux d'une tour par rapport { une turbine isolée sont nombreux : - Le rendement propre à chaque turbine, incluse dans une même colonne de turbines, est supérieur au rendement de ces turbines immergées isolément. En effet, le contournement du courant amont ne se produit que sur les faces latérales de la tour, la part de contournement par le dessus et le dessous de la turbine étant rendu impossible par la forme de tour. - Le couple récupéré sur un arbre, composé de plusieurs turbines, et dont les pales sont déphasées angulairement, est lissé par rapport au couple généré par une turbine isolée. Une seule génératrice électrique par colonne est nécessaire. Elle se situe à l'une des deux extrémités de la colonne. Plusieurs tours peuvent ensuite être associées pour former des parcs d'hydroliennes. Les tours peuvent être ancrées séparément ou être associées pour former un faisceau de tours solidaires d'un même ancrage. Préférentiellement, les tours sont maintenues à leur partie inférieure par une structure d'assise, l'ensemble n'occultant pas la surface de l'eau. L'utilisation d'un système complètement immergé a les avantages de ne pas déranger les transports maritimes ni l'activité de pêche, et d'éviter le surcoût résultant du renforcement des structures de maintien lorsqu'elles émergent. L'émergence de ces structures les rend en effet sensibles à la traînée de vague et, comme ce type de traînée hydrodynamique est 29 Figure 1-33 : Tour composée de 4 modules-turbine et 2 modules électriques. Positionnement de la thèse dans le développement du concept HARVEST aléatoire, il faut dimensionner tout le système de maintien vis-à-vis des pics potentiels. Selon les situations rencontrées (vitesse du courant, profondeur de la section, énergie extraite, etc.) et la prise en compte des contraintes liées à l'impact environnemental du parc d'hydroliennes (emprise en surface, réduction de l'intensité des courants à l'aval, interactions avec la faune et la flore, etc.), différentes technologies d'ancrage peuvent être envisagées, en association avec différentes stratégies de répartition spatiale des tours. En résumé, du choix des ancrages et de la répartition spatiale des tours, découle une large gamme de configurations de fermes. 1.4 Positionnement de la thèse dans le développement du concept HARVEST Cette thèse a débuté en octobre 2006, et s'inscrit dans la continuité des travaux de Guittet [2005] et de Jonson [2006]. Le premier auteur a posé les bases de l'instrumentation du tunnel hydrodynamique, en mettant en oeuvre une première balance de mesure d'effort. Le deuxième auteur a mis en évidence la nécessité de faire évoluer cette instrumentation pour répondre à de nouveaux besoins, indispensables à la poursuite du projet HARVEST. C'est { partir de cette époque que la pluridisciplinarité du projet a pris tout son sens. Les interactions entre les laboratoires du LEGI, du 3SR et de G2ELab étaient alors très fortes. On recensait ainsi de nombreux axes de recherches :  Andreica [2009], qui a étudié l'optimisation de la chaine de transformation énergétique des hydroliennes.  Antheaume [2007], qui a étudié dans un premier temps, par modélisation numérique, les interactions entre tours d'hydroliennes. Ses travaux se sont poursuivis sur la modélisation 2D de turbines à flux transverse [Antheaume, 2010].  Amet [2009], qui a étudié la modélisation 2D et 3D des turbines de type Darrieus.  Jaquier [2008], a mené les études de dimensionnement et de fabrication des maquettes de turbines, testé dans le tunnel hydrodynamique du LEGI. Ses travaux se poursuivent par la conception de démonstrateurs, à échelle 1, en partenariat avec EDF.  Zanette [2010], qui a développé des modèles pour le dimensionnement des hydroliennes en tenant compte des interactions fluide-structure. Il a proposé par ailleurs des modèles numériques fluides, appliqués aux cas des maquettes testées dans le tunnel hydrodynamique. Ces études complètent les travaux menés par le LaMCos de l'INSA de Lyon. Cette thèse s'inscrit dans cette logique d'interaction entre les différents laboratoires participant au projet HARVEST. En proposant des résultats expérimentaux concernant les performances hydrodynamiques de maquette de turbine, elle fait appel aux champs disciplinaires de l'électromécanique, de la régulation, de la mé- 30 Introduction canique du solide et de la mécanique des fluides. Les données seront utiles aussi bien au G2ELab, qu'au 3SR d'un point de vue chargement, qu'au LEGI pour comparaison avec les résultats de simulations numériques. 31 Introduction 32 Fonctionnement des turbines à flux tran sverse 2 Fonctionnement des turbines à flux transverse 2.1 Principe de fonctionnement La turbine d'un système quelconque est l'organe transformateur d'énergie : il convertit l'énergie cinétique d'un fluide en énergie mécanique de rotation. Ce paragraphe s'attache plus particulièrement au fonctionnement des turbines à flux transverse dont on peut retenir deux caractéristiques fondamentales : (1) la direction du fluide est perpendiculaire { l'axe de rotation, rendant son fonctionnement insensible à la direction du courant et (2) les effets de portance sur les pales sont utilisés pour créer un couple moteur et entrainer un arbre en rotation. 2.1.1 Les efforts de traînée et de portance sur un profil 2.1.1.1 Définition normalisée d'un profil Chaque section parallèle au courant incident d'une pale d'hydrolienne fait inév itablement intervenir le profil d'une aile dont le tracé a été conçu pour réaliser certaines propriétés hydrodynamiques et en particulier un effort de portance à l'origine de la rotation d'une turbine. En fait une pale se présente généralement comme une succession de telles sections d'épaisseur infinitésimale. Le profil d'une aile est ainsi défini par les caractéristiques suivantes (figure 2-1) :  la longueur de corde, définie par la distance entre le bord d'attaque et le bord de fuite,  la flèche, définie par l'écart maximal entre la corde et la ligne moyenne,  la cambrure, définie par le rapport entre la flèche et la corde.  l'épaisseur relative, définie par le rapport entre l'épaisseur maximum du profil et la corde,  le rayon du bord d'attaque, correspondant à R sur la figure 2-1,  le centre de poussée, lieu géométrique pour lequel les efforts hydrodynamiques sont réduits à un glisseur. Figure 2-1 : Caractéristiques géométriques d'un profil 33 Principe de fonctionnement Dans le cadre de ce projet, les profils utilisés pour les maquettes sont des profils normalisés comme en particulier le profil NACA à 4 chiffres. Par exemple, les chiffres d'un profil NACA 2415 (figure 2-2) ont la signification suivante :  2 : cambrure maximale (% de longueur de corde)  4 : position de la cambrure maximale (en dixième de longueur de corde)  15 : épaisseur maximale (% de longueur de corde) La norme spécifie, pour la définition du profil, les équations de courbe de l'intrados et de l'extrados. Figure 2-2 : Profil NACA 2415 2.1.1.2 Définition des efforts de portance et de traînée sur un profil Imaginons maintenant une section élémentaire de notre pale, placée dans un écoulement infini, laminaire, défini par le vecteur vitesse ⃗ . Si le profil est fixe, alors la vitesse relative du fluide par rapport au profil ⃗⃗⃗ est égale à ⃗ . On peut introduire , l'angle d'incidence entre le vecteur⃗⃗⃗⃗⃗ et la corde. (Par convention cet angle est positif dans le cas de la figure 2-3). Appelons maintenant respectivement ⃗ et ⃗ les efforts de portance (L : « lift ») et de traînée (D : « drag »). Les efforts de portance sont induits par la circulation du fluide autour du profil. A noter que la direction de ⃗ est donnée par celle de ⃗⃗⃗⃗⃗ . La direction de ⃗ est quant à elle perpendiculaire à ⃗⃗⃗⃗⃗ . Ces efforts sont appliqués au point I, centre de poussée du profil. Figure 2-3 : Efforts de traînée et de portance sur un profil 34 Fonctionnement des turbines à flux transverse Pour un profil placé dans un écoulement dont la vitesse infinie amont ⃗ connue, on définit le Reynolds de corde de la manière suivante 3 : est bien ( 2.1 ) Pour un Reynolds de corde donnée, on introduit les coefficients de portance et de traînée . On exprime généralement l'évolution de ces coefficients en fonction de l'angle d'incidence et cela pour un donné. La figure 2-4 montre un exemple d'évolution des coefficients et pour différents . Ces valeurs sont issues d'expériences sur profils placés en soufflerie. On remarquera les caractéristiques de ce profil :  les Reynolds de corde caractéristiques varient de à pour les essais,  l'évolution de est quasi linéaire pour , avec une variation de quelques pourcents pour la plage de vitesse de ces essais,  lorsque l'on augmente l'incidence, on atteint l'angle de décrochage dynamique ce qui se traduit par une chute brutale de la portance,  présente une forte dépendance au nombre de Reynolds. Il augmente avec la vitesse de l'écoulement, ce qui est la conséquence de l'augmentation du frottement entre le profil et le fluide,  on retrouve un facteur de 10 à 50 entre .et . Les effets de portance sont prépondérants sur les effets de traînée. 3 c : corde du profil en m et ν viscosité cinématique du fluide en m2/s 35 Principe de fonctionnement Figure 2-4 : Evolution de C L et CD en fonction de l'angle d'incidence et du Reynolds de corde Les efforts ⃗ et ⃗ sont exprimés à partir des coefficients et selon les équations suivantes 4 ( et donnés en newton par unité d'envergure de pale) : ( 2.2 ) ( 2.3 ) En ce qui concerne les hydroliennes, le choix d'un profil de pale n'est pas trivial et résulte de nombreux compromis. En première approche, on peut par exemple orienter ce choix en considérant le Reynolds de corde caractéristique qui correspond au régime de fonctionnement attendu de l'hydrolienne. L'objectif visé sera de maximiser la portance devant la traînée tout en évitant une trop grande variation angulaire de ces deux efforts. Avec le développement des essais et des simulations numériques, on pourra espérer un gain notable de puissance en recherchant le profil optimal et cela en fonction des conditions d'implantation des machines. 2.1.1.3 Des efforts de portance au couple moteur fourni par l'hydrolienne Considérons à présent une pale dans son mouvement autour de l'axe de la turbine de rayon R. On introduit un repère fixe ⃗⃗⃗ et un repère mobile ⃗⃗⃗⃗⃗ ⃗⃗⃗ attaché à la pale (Figure 2-5). L'écoulement { l'infini amont est uniforme et de vitesse⃗⃗⃗ . 4 ρ : masse volumique du fluide en kg/m^3 36 Fonctionnement des turbines à flux transverse Figure 2-5 : Evolution de la vitesse relative fluide-pale Par rapport au repère fixe, la pale a une vitesse ⃗⃗⃗ telle que: ⃗⃗⃗ ( 2.4 ) ⃗⃗⃗⃗ La vitesse relative ⃗⃗⃗ du fluide par rapport à la pale est exprimée par la relation: ⃗⃗⃗ ⃗ ( 2.5 ) ⃗ On s'aperçoit figure 2-5, que lors de la révolution de la pale, le sens, la direction et la norme du vecteur ⃗⃗⃗ varient. La direction de ⃗⃗⃗ par rapport à la pale est donnée par la valeur de l'angle défini précédemment (cf. § 2.1.1.1). Afin d'exprimer simplement , on introduit le paramètre d'avance (voir aussi § 2.2.2) comme étant le rapport entre la vitesse de la pale et la vitesse du fluide { l'infini amont : ( 2.6 ) On exprime en fonction de et , ce qui traduit la variation de l'angle d'incidence au cours de la révolution de la pale. Cette relation est valable pour le repérage utilisé sur la figure 2-5: [ ] ( 2.7 ) On peut dans les mêmes conditions exprimer ‖ ⃗⃗⃗ ‖ qui permet de remonter aux efforts de portance et de traînée en fonction de la position angulaire de la pale. On obtient : 37 Principe de fonctionnement ‖ ⃗⃗⃗ ‖ ( 2.8 ) √ On peut maintenant exprimer les vecteurs ⃗ et ⃗ selon les équations 2.2 et 2.3. On appellera effort normal ⃗⃗⃗ et effort tangentiel ⃗⃗⃗ les projections de ⃗ et ⃗ dans la base (⃗⃗⃗⃗⃗ ⃗⃗⃗ ). Le couple utile ⃗⃗⃗⃗ est quant à lui donné par le produit vectoriel suivant : ⃗⃗⃗⃗ ⃗⃗⃗⃗ ( 2.9 ) ⃗⃗⃗ En supposant chaque pale isolée des autres (pas d'interaction entre les pales) et en négligeant les effets transitoires, il est possible d'accéder { une valeur du couple pour différentes positions angulaires développé par une pale, à partir du calcul des efforts de portance et de traînée. La figure 2-6 présente l'évolution des efforts tangentiels et normaux s'appliquant sur une pale obtenus en utilisant ces hypothèses. Il était attendu que la contribution d'une pale { la création du couple dépende de la position dans laquelle elle se trouve. On distingue ainsi 4 zones principales :  Les zones amont ( et aval . La pale est motrice.  Les zones proches de et , lieux où l'angle d'incidence est faible. La pale est freinée. Figure 2-6 : Evolution des efforts normaux et tangentiels sur une pale Le comportement d'une hydrolienne est dépendant de sa vitesse de rotation. Le couple utile moyen 5 varie en effet avec celle-ci, suivant une courbe en cloche. 5 Couple utile moyen : valeur moyenne du couple utile prise sur un tour. 38 Fonctionnement des turbines à flux transverse A de faibles valeurs de , les angles d'incidence présentent de fortes variations et peuvent dépasser l'angle de décrochage dynamique. Cela a pour effet de faire chuter localement la portance et de rendre le comportement du système instable. Les vitesses relatives sont faibles et par conséquent le couple aussi. Pour de plus grandes valeurs de , l'angle d'incidence devient faible. Le fonctionnement est plus stable et le couple augmente. Si la vitesse relative devient trop importante, les frottements visqueux deviennent alors prépondérants. Il s'en suit un couple utile en baisse. On rajoutera que pour chaque vitesse amont, il convient de fonctionner à la valeur optimale de , qui correspond au maximum du produit couple-vitesse de rotation. 2.1.1.4 L'écoulement réel au sein de la turbine Une pale donnée n'est pas isolée des autres pales qui contribue nt chacune, et de façon non additive, { perturber l'écoulement incident qu'elle rencontre. On ne peut donc pas déterminer simplement ⃗⃗⃗⃗⃗ , qui devient alors une inconnue du système. Sur la figure 2-7, le caractère fortement tourbillonnaire des perturbations engendrées par le passage d'une pale dans l'écoulement apparait clairement. Ces résultats ont été obtenus par simulations numériques [Amet, 2009]. On remarque par exemple à la rencontre de la pale avec le tourbillon « a » lâché derrière cette même pale à . Figure 2-7 : Trajectoire de tourbillons [Amet, 2009] Des études numériques ou expérimentales sont donc nécessaires pour pouvoir prévoir avec précision le fonctionnement réel d'une hydrolienne. Cela est d'autant plus vrai, que lorsque l'on diminue le rayon de la turbine, ou, lorsque l'on augmente le nombre de pales, les interactions entre deux pales successives 39 Paramètres de fonctionnement d'une turbine sont de plus en plus fortes. On s'éloigne d'autant des hypothèses décrites plus haut. De plus, la modélisation de l'écoulement est rendu encore plus complexe par la présence des bras et de l'arbre de rotation qui perturbent eux aussi, notamment par leurs sillages, l'écoulement autour des pales ; le temps de calcul s'en trouve accru. Les travaux menés par Bossard [2011] ont permis de mettre en évidence les champs de vorticité issus de mesures PIV dans la section d'essai et de les comparer à des simulations numériques (figures 2-8 et 2-9). Ces résultats expérimentaux ont été obtenus { partir d'une turbine de type Achard montée sur la balance de mesure d'effort développée au cours de cette thèse. Figure 2-8 : Champs de vorticité issus des mesures PIV dans la section d'essai [Bossard J., 2010] Figure 2-9 : Champs de vorticité issus des simulations numériques [Zanette, 2010] 2.2 Paramètres de fonctionnement d'une turbine La campagne d'essai, réalisée sur le tunnel hydrodynamique du LEGI, doit permettre de caractériser les performances de nos turbines à de multiples égards, comme leur auto-démarrage, leur rendement maximal, la cavitation induite, les efforts de traînée développés, etc. Les essais sont réalisés sur des maquettes à l'échelle 1/5, si l'on admet que 1 mètre est un ordre de grandeur de la turbine f inale. Pour des machines à vocation industrielle, exploitées pour la production d'énergie électrique, des dimensions 2 à 5 fois plus grandes seront éventuellement à considérer, en mer notamment, ainsi que des vitesses d'écoulement éventuellement plus importantes. Dans une turbomachine HARVEST, qu'elle soit { une ou deux colonnes, le confinement résulte d'une part des carénages latéraux et d'autre part des carters séparateurs axiaux. Le nombre de configurations envis ageables est considérable mais elles tendent toutes à améliorer la performance d es 40 Fonctionnement des turbines à flux transverse turbines. En toute rigueur, pour conférer aux résultats un caractère générique, il eut été souhaitable de travailler sans confinement : cet objectif qui n'a pu être atteint a été néanmoins approché. Afin de transposer les résultats expérimentaux de la campagne d'essai { d'autres applications des lois de similitudes, fondées sur des nombres adimensionnels, seront classiquement introduites. On a appelé « configuration », l'ensemble de paramètres dimensionnels permettant de définir rigoureusement une expérience donné (relevant de la géométrie, des propriétés des matériaux, du mode opératoire, de l'écoulement). Les paramètres dimensionnels associés seront dit paramètres de similitude imposés. D'un point de vue formel, vouloir transposer les résultats d'une configuration de départ déj{ fixée { une configuration d'arrivée { fixer, revient à maintenir constant les paramètres de similitude imposés. Cela est généralement possible, car comme dans l'espace d'arrivée, seuls certains nombres dimensionnels sont déterminés à priori (dimensions géométriques dilatés par exemple pour des raisons d'espace disponible), les autres peuvent ainsi être déterminés à posteriori en égalant les paramètres adimensionnels relatifs aux deux configurations. On classera dans notre cas les paramètres de similitude imposés en paramètres géométriques et en paramètres hydrauliques. Cette règle de conservation étant alors appliquée, on peut affirmer que le comportement du système d'arrivée est le même que le comportement du système de départ. Dit autrement, une inconnue adimensionnelle (une pression en un point d'une pale par exemple) observée dans le système de départ garde la même valeur dans le système d'arrivée. Ces inconnues adimensionnelles seront appelées paramètres de similitude inconnus. 2.2.1 Paramètres géométriques d'une turbine On considère une turbine semblable à celle de la figure 2-10. Cette turbine présente un plan de symétrie central, normal { l'axe de rotation. Elle a un diamètre pour une hauteur . Elle possède un nombre de pales en forme de V pouvant éventuellement être inversé. Celles-ci sont reliées { l'arbre de diamètre par un moyeu en étoile. Ces pales ont une longueur de corde qui peut être variable. Enfin, l'arbre peut être prolongé vers le bas afin d'assurer une symétrie complète. C'est { partir de ces données que sont définis les principaux paramètres de similitude géométriques que l'on va introduire. On peut, à partir de tous ces paramètres, définir entièrement la géométrie de la turbine. On retrouve ainsi :  Figure 2-10 : Turbine Achard Le rapport entre la corde moyenne d'une pale et le rayon de la turbine ⁄ 41 Paramètres de fonctionnement d'une turbine  Le rapport entre la hauteur de la turbine et son diamètre ⁄  Le nombre de pales  La solidité Ce paramètre se définit comme le rapport entre la longueur de corde totale occupée par les pales et la circonférence de la turbine. Il traduit la « porosité » de la turbine vis-à-vis du flux incident. On peut exprimer de différentes manières, respectivement en fonction du rayon , de la section S projetée de la turbine sur un plan normal { l'écoulement, qui sera appelée maitre couple par la suite ou encore de la circonférence de ce cercle que forme la turbine vue de dessus : ( 2.10 ) ou ( 2.11 ) ou ( 2.12 ) Il est intéressant de remarquer que si l'on conserve la solidité et le nombre de pales, alors le rapport corde sur rayon est lui aussi conservé.  Le diamètre de l'arbre On a vu que dans le cas de la turbine Achard, l'arbre est traversant. Il convient de prendre en compte cette géométrie particulière en introduisant le rapport entre le diamètre de l'arbre et celui de la turbine: ⁄ . On peut également envisager une configuration avec un arbre s'arrêtant au moyeu. Mais dans le cas d'une tour d'hydroliennes, les turbines sont superposées, et l'arbre traverse toute la structure. Il est donc possible de monter dans la veine d'essai un demi-arbre factice pour recréer ces conditions. A noter que lorsque l'arbre n'est pas traversant (cas d'une turbine Gorlov par exemple) le rapport ⁄ est nul.  Le profil de pale Comme défini en 2.1.1.1 il a été choisi pour les premières maquettes, un profil symétrique de type NACA 00XX. Par ailleurs, la corde du profil est inscrite sur le cercle de diamètre de la turbine. Cela a nécessité le développement d'une méthode de projection [Amet, 2009] qui est présentée annexe K. Le profil n'est donc plus symétrique, et développe par conséquence un effort de portance à angle d'incidence nul. 42 Fonctionnement des turbines à flux transverse On rajoutera, que le type de profil possède évidemment une influence importante sur les performances de la machine. Si dans un premier temps, les recherches ne sont pas concentrées sur ce point, elles pourront être de première importance dans les années à venir dans une optique d'optimisation fine de la turbine.  L'effilement de pale Certaines turbines présentent des pales dont la longueur de corde est variable. Si l'on appelle la longueur de corde d'emplanture (i.e. la longueur de corde au niveau du raccord pale-moyeu) et la longueur de corde en bout de pale, on peut définir l'effilement comme étant le rapport suivant (Figures 2-11 et 2-12): ( 2.13 ) Dans l'optique de l'optimisation de la tenue mécanique des pales, les tu rbines développées au LEGI ont un effilement . (Lorsque , la longueur de corde est constante) Figure 2-11 : Définition de la corde d'une pale Figure 2-12 : Pales pour deux valeurs de On remarquera que si la longueur de corde évolue linéairement de à , alors la corde moyenne se trouve à une distance ⁄ du bout de pale (ou autrement dit { égale distance entre le bout de pale et l'emplanture). On retiendra cette dernière valeur comme longueur caractéristique de corde. Il est { noter qu'un tel effilement dans le cas particulier de nos hydroliennes, s'il est favorable du point de vue structurel, ne l'est pas sur le plan hydrodynamique. En effet il conduit à une réduction de la solidité lorsque l'on s'approche du bout des pales et provoque donc un appel de l'écoulement dans cette zone. Il convient au contraire de maintenir une homogénéité axiale de l'écoulement afin de réduire les phénomènes di ssipatifs. 43 Paramètres de fonctionnement d'une turbine  L'angle de couverture circonférentiel Par rapport à une hydrolienne Darrieus à pales droites, ainsi qu'{ maints autres types de turbines à flux transverse dont certaines ont été mentionnées dans le chapitre 1, la turbine Achard envisage la possibilité d'incliner les pales soit en arrière du sens de rotation soit en avant. Seul le premier cas sera étudié dans cette thèse (Figures 2-13et 2-14). Figure 2-13 : Définition des cordes Figure 2-14 : Deux angles de couverture différents Concrètement, le bord d'attaque de la pale décrit une portion d'hélicoïde (dextre ou senestre selon que l'on considère la partie inférieure ou supérieure de la turbine). Cette portion d'hélicoïde de rayon a une teur ⁄ . La section d'emplanture est donc décalée d'un angle par rapport à la section de bout de pale. correspond { ce que l'on appelle l'angle de couverture circonférentiel.  2.2.2 L'état de surface des pales La rugosité des pales est un élément qui peut influencer les performances d'une turbine. Des études ont été menées dans les laboratoires Sandia [Paraschivoiu, 2002] et ont conduit à des résultats contradictoires. Ainsi, avec l'augmentation de la rugosité des pales, les performances de la m achine SANDIA 34-m augmentent, alors que celles de la turbine FloWind 19-m diminuent. Dès lors, démontrer une relation directe entre rugosité et performance ne paraît pas trivial. Pour les essais, ce champ d'investigation a provisoirement été laissé de coté. Néanmoins il a été possible d'obtenir une rugosité semblable pour toutes les maquettes d'hydroliennes. Paramètres hydrauliques Ces paramètres définissent les conditions de l'écoulement en lien étroit avec la géométrie de la veine et de la turbine. Ce sont des paramètres maitrisés qui sont reproduits d'un essai { l'autre ou extrapolés { d'autres échelles. On retrouve : 44 Fonctionnement des turbines à flux transverse  La vitesse spécifique La vitesse spécifique que l'on nommera aussi paramètre d'avance, traduit le ratio entre la vitesse circonférentielle d'une pale et la vitesse incidente du fluide. Elle s'écrit donc : ( 2.14 ) Avec  la vitesse angulaire de la turbine et le rayon de la turbine. Les nombres de Reynolds Le nombre de Reynold traduit l'importance des forces inertielles d'un écoulement par rapport aux forces visqueuses. Il est habituellement util isé pour caractériser le régime de l'écoulement (laminaire, turbulent ou transitoire). On peut exprimer ce nombre de différentes façons selon les grandeurs caractéristiques utilisées pour la vitesse et la longueur : - Le Reynolds de corde associé { la vitesse { l'amont : ( 2.15 ) - Le Reynolds de corde associé à la vitesse circonférentielle ( 2.16 ) - Le Reynolds associé au diamètre de la turbine : ( 2.17 ) Avec - la viscosité cinématique du fluide Le nombre de Froude Ce nombre traduit l'importance des forces liées à la vitesse de l'écoulement par rapport aux forces de pesanteur. Ce nombre intervient lors d'écoulements à surface libre : ( 2.18 ) √ Avec la vitesse caractéristique de l'écoulement, l'accélération de la pesanteur et une longueur caractéristique du phénomène. Dans le cas d'essai dans le tunnel hydrodynamique, ce nombre n'intervient pas. Ce ne sera pas forcément le cas pour des tours d'hydroliennes installées en sites naturels. - Le confinement La turbine placée dans un écoulement infini est vue comme un obstacle par le fluide qui a la possibilité de le contourner plus facilement que s'il 45 Paramètres de fonctionnement d'une turbine était confiné. Betz a proposé un modèle de prédiction de contournement du fluide pour des turbines placées dans cette situation. Il en arrive { la conclusion qu'en milieu infini, seul 59% de l'énergie cinétique d'un fluide peut être récupéré par une turbine. Les conditions d'écoulement dans la veine d'essai sont assez éloignées du cas d'un écoulement infini. La proximité des parois autour de la turbine a tendance à contraindre le fluide à traverser la turbine, augmentant ainsi artificiellement le rendement. Il faut comme cela a été mentionné plus haut distinguer le confinement latéral et le confinement axial et aucun des deux n'est totalement négligeable. Dans la section 3.2.2 est abordé de manière plus précise l'effet du confinement sur les performances d'une maquette d'hydrolienne placée dans la section d'essai. - 2.2.3 L'intensité turbulente Celle-ci peut avoir une influence non négligeable sur les performances des hydroliennes. Considéré comme faible, (de l'ordre de quelques pourcents) ce paramètre n'a dans un premier temps, pas été pris en compte. Paramètres de similitude inconnus L'objectif principal d'une campagne d'essai sur une maquette d'hydrolienne est justement de déterminer les paramètres de similitude inconnus en mesurant les grandeurs physiques associées à ces paramètres (un effort, une vitesse, une pression). Ces données sont indispensables au dimensionnement de l'ensemble du système hydrolien de taille réelle. Parmi ces paramètres, en seront étudiés principalement 3, qui sont les coefficients de puissance, de couple et d'effort. L'aspect cavitation est aussi abordé en introduisant le nombre de cavitation.  Le coefficient de puissance Ce coefficient correspond directement au rendement de la turbine : ( 2.19 ) Avec la masse volumique du fluide. Au numérateur, le produit (couple utile et vitesse de rotation) donne la puissance fournie par l'hydrolienne. Au dénominateur on retrouve la puissance disponible apportée par le fluide, rapporté e au maitre couple de la turbine.  Le coefficient de couple Ce coefficient permet de représenter de manière adimensionnelle le couple fourni par une machine : 46 Fonctionnement des turbines à flux transverse ( 2.20 )  Le coefficient d'effort Ce coefficient permet de représenter de manière adimensionnelle les efforts induits par l'écoulement sur une machine. 3 types d'efforts sont concernés : l'effort de traînée selon la direction de l'écoulement, l'effort transverse { l'écoulement et l'effort de traînée axial (selon la direction de l'axe de rotation). On l'écrit : ( 2.21 )  Le nombre de cavitation On définit la cavitation par la « rupture du milieu continu de liquide sous l'effet de contraintes excessives » [Franc, et al., 1995]. Elle apparaît lorsque la pression de vapeur du fluide est atteinte. Elle se caractérise par la formation de poches et de bulles de vapeur au sein du liquide initialement homogène. Le phénomène entraîne des effets négatifs comme l'altération des performances du système hydraulique comparées au fonctionnement en régime non cavitant, l'introduction d'efforts parasites sur les structures solides, de bruit, des vibrations, l'érosion des matériaux. On comprend donc que la cavitation apparaisse comme un phénomène nuisible que l'on doit éviter ou tout au moins contrôler. Sa détermination revêt une importance particulière dans le cas des turbines carénées. En effet dans ce cas l'accélération du fluide par les carénages est propice { l'apparition de zones dépressionnaires. On peut même avancer que le phénomène qui limite l'utilisation de c arénages trop efficaces est précisément la cavitation qui vient annuler les gains de performances liés { l'augmentation de vitesse. Il y a deux grandeurs importantes pour caractériser le phénomène de cavitation : (1) le nombre de cavitation (dit aussi nombre de Thoma) et (2) le coefficient de pression. Le nombre de cavitation s'écrit: ( 2.22 ) Ce nombre adimensionnel représente le rapport entre un écart de la pression de référence à la pression de vapeur pour la température de l'écoulement et un écart de pression caractéristique de l'écoulement incident, ce dernier pouvant se traduire fréquemment par une condition de vitesse d'expression générale ( ): ( 2.23 ) Dans notre cas on peut prendre comme référence de vitesse, la vitesse de l'écoulement incident et comme référence de pression . Les va- 47 Evolutions technologiques des turbines à flux transverse et le projet Harvest leurs de référence sont mesurées dans une zone arbitrairement choisie mais néanmoins proche de la zone sensible à la cavitation et en un point où les mesures de vitesse et de pression sont possibles. On peut introduire le coefficient de pression qui peut s'apparenter au nombre de cavitation : ( 2.24 ) Où est la pression statique locale. On peut définir comme étant la valeur de lors de l'apparition de la cavitation. Le fonctionnement en régime subcavitant du système demande que soit respectée la condition suivante: ( 2.25 ) Cela revient à avoir en tous les points de l'écoulement des pressions supérieures à la pression de vaporisation : ( 2.26 ) Pour que les conditions de similitude soient respectées du point de vue de la cavitation, le paramètre doit être constant. L'apparition de cavitation lors du passage de l'échelle « maquette » à celle de « prototype » peut avoir des conséquences néfastes et altérer le rendement. 2.3 Evolutions technologiques des turbines à flux transverse et le projet Harvest Dans ce paragraphe, les évolutions qui ont conduit à la définition de la turbine Achard sont présentées. Cette turbine est née d'une analyse critique des turbines hydrauliques à flux transverse existantes mues par la portance. Il y avait dans ce choix un pari. Les turbines à flux transverse présentent certes des avantages, mais elles soufraient également de défauts qui expliquent leur relative rareté dans la plupart des projets qui apparaissent. Le pari était donc bien de croire que ces défauts pouvaient être, sinon éliminés, mais du moins réduits. 2.3.1 Analyse des phénomènes physiques limitant Les turbines du concept HARVEST sont nées du retour d'expériences résultant des tentatives qui ont abouti aux turbines Darrieus et Gorlov. Elles se sont également progressivement développées { partir d'une analyse propre des phén omènes physiques qui semblaient être { l'origine des faiblesses des turbines { flux transverse mues par les forces portance. Dans les sous-sections suivantes, sont 48 Fonctionnement des turbines à flux transverse exposés les points principaux de cette analyse, en la découpant quelque peu artificiellement pour chacun des trois inconvénients qui ont été identifiés : (1) la faiblesse du rendement, (2) la possibilité d'auto-démarrage et (3) les variations cycliques importantes des efforts. 2.3.1.1 La question du rendement La performance globale d'une turbine à flux transverse (en termes de puissance récupérée), résulte du couple moteur généré par les forces de portance associées aux profils (Cf. section 2.1). Les pertes liées aux forces de traînée, développées par tous les composants de la machine, ne participent pas au couple moteur et doivent être minimisées, afin de maximiser le couple résultant disponible sur l'arbre. Il est nécessaire de réduire au maximum les efforts de traînée, non seulement pour éviter la diminution du rendement, mais aussi parce que l'effort de traînée global conditionne le dimensionnement de la structures et le choix du système de fondation. Globalement, on peut décomposer les efforts conditionnant la performance d'une turbine à flux transverse en quatre catégories (Figure 2-15) : Figure 2-15 : Lieux sources de pertes  Les efforts de portance et de traînée associés au type de profil de pale La force de portance associée au profil de pale est la plus importante, car elle constitue la seule source de couple moteur de la turbine. Le choix du type de profil est donc un thème important de réflexion. De plus, ce choix conditionne la traînée de pale, qui inclut la traînée de frottement, la traînée de forme et leur modification résultante du comportement non permanent de l'écoulement.  Les efforts de traînée dus à l'écoulement en bout d'aile La traînée induite en bout d'aile est provoquée par l'écart de pression qui existe entre l'intrados (zone de surpression) et l'extrados (zone de dépression ou de succion). Cet écart de pression est { l'origine de grosses structures tourbillonnaires dissipatives en bout d'aile. Le ph énomène est amplifié dans les hydroliennes à flux transverse, car les zones de surpression/dépression changent au cours de la rotation : une face de pale qui, dans la région amont, se trouve en zone de surpression devient aussitôt placée en zone de dépression dans la région aval, et vice-versa. 49 Evolutions technologiques des turbines à flux transverse et le projet Harvest  La traînée parasite des éléments de liaison : bras, arbre, moyeu, éléments de visserie, etc. La traînée parasite est la traînée des éléments de liaison, qui assurent le maintien d'une turbine isolée: bras, arbre, moyeu et éléments de visserie. La traînée de l'arbre, du moyeu et des éléments de visserie est négligeable. En revanche, les bras, à cause de leur dimension importante (nécessaire pour soutenir les pales), contribuent à la diminution du rendement global de la machine.  La traînée d'interférence du raccordement bras-pale, due aux perturbations induites des bras sur les pales La traînée d'interférence du raccordement bras-pale résulte de la rencontre de deux écoulements de directions et/ou vitesses différentes. Des structures tourbillonnaires apparaissent, conférant ainsi à l'écoulement un caractère tridimensionnel très complexe { l'origine d'un surcroît local de traînée. 2.3.1.2 La question de l'auto-démarrage En traçant les composantes des forces hydrodynamiques (Cf. section 2.1), on peut décomposer la surface balayée par les profils en quatre zones : deux zones motrices, situées dans les régions amont et aval, et deux zones de freinage, situées dans les frontières entre ces deux régions, où l'angle d'incidence est proche de 0. Dans ces zones frontières, la force de traînée est prépondérante devant la force de portance, ce qui explique un couple résultant négatif. La difficulté d'auto démarrage d'une turbine { flux transverse est donc liée { l'existence de ces deux zones de freinage. Pour une turbine munie de deux pales, les profils sont dans une position d'équilibre stable lorsque chacun se situe dans une de ces deux zones. On voit l'intérêt d'un nombre de pâle supérieur { deux dans le cas d'une turbine isolée. Un nombre de pâles trop élevé nuit par contre au rendement (cf. section 2.1.1.4). Dans le cas d'une tour d'hydrolienne, ce problème est résolu simplement, en décalant angulairement les turbines. D'autres systèmes sont par ailleurs envisageables, comme le contrôle de calage des pales ou encore l'utilisation de profils cambrés, dont la portance à angle d'incidence nul n'est pas nulle. 2.3.1.3 La question de l'uniformisation du couple moteur Cette question est étroitement liée à la précédente. En effet, c'est la variabilité des forces hydrodynamiques, qui peut empêcher l'auto-démarrage, au même titre qu'elle engendre un couple variable. L'uniformité du couple moteur, délivré par une turbine élémentaire, est un objectif primordial pour faciliter la génération électrique et pour minimiser les vibr ations auxquelles les tours de turbines sont soumises. On peut alors espérer augmenter la durée de vie de la tour en réduisant les amplitudes des contraintes, et, par conséquence, l'endommagement généré par chaque cycle de fonctionnement. Le couple fourni par la turbine est la somme des couples fournis par chacune des pales, qui eux même sont dus à la somme des composantes élémentaires asso- 50 Fonctionnement des turbines à flux transverse ciées aux sections élémentaire qui composent la pale. De ce fait, l'utilisation de pales droites, telle que pour les turbines Darrieus, n'est pas favorable { l'uniformisation du couple. L'utilisation de pales hélicoïdales, telle que pour les turbines Gorlov, est en ce sens bien plus avantageux. Seulement, cette géométrie a pour conséquence de créer un écoulement dirigé selon l'axe de rotation (l'écoulement n'est plus plan), qui, outre induire des efforts axiaux, peut entrainer une modification de l'efficacité de la turbine (du point de vue du rendement). De même que précédemment, l'empilement des turbines sur un même axe permet l'uniformisation du couple moteur. 2.3.2 Optimisation des performances : utilisation de carénages Aucun des désavantages évoqués précédemment ne subsiste lors d'un fonctionnement dans le contexte du projet HARVEST. Pour éliminer les deux premiers, les turbines sont empilées et déphasées, ce qui assure notamment l'auto-démarrage conjointement { l'uniformisation du couple. Alliée { cette dernière propriété, l'immersion dans l'eau, dont la masse volumique est beaucoup plus élevée que celle de l'air, diminue drastiquement les amplitudes des vibratio ns à cause de l'augmentation virtuelle de la masse des différents éléments de l'hydrolienne. C'est le phénomène de « masse ajoutée ». Concernant le troisième point, le rendement d'une turbine { flux transverse se trouve fortement amélioré (voire meilleur que celui d'une turbine { flux axial), si cette turbine est mise en oeuvre en collection et en regroupement de turbines judicieusement réparties : on limite ainsi les effets de contournement des hydroliennes. Si, en plus, on rajoute des carénages à profil d'aile d'avion, le rendement des turbines peut être multiplié par un facteur 4 ou 5 dû { l'effet d'entonnement (zone de survitesse) et masquage de la remontée des pales au courant (zone de sous-vitesse). On distingue deux configurations types dans le projet HARVEST : (1) la configuration mono-colonne (Figure 2-18) et (2) la configuration bi-colonne (Figure 2-16). Dans les deux cas, la présence de carénages font office de structure de maintien. Il est possible d'y adjoindre des grilles anti-débris, ce qui est une solution avantageuse, car cela confère au système une grande sécurité de fonctionnement et le protège des éléments extérieurs. Les turbines développant des efforts Figure de traînée transversaux im- 2-16 : Configuration bi colonne avec carénages 51 Evolutions technologiques des turbines à flux transverse et le projet Harvest portants (perpendiculaires à la direction de l'écoulement), il devient intéressant d'associer deux colonnes de turbines sur une même plateforme. Cette configuration permet d'annuler avantageusement les efforts transverses par rapport à une configuration mono-colonne et soulage ainsi les ancrages au sol. La structure de la tour est composée de trois éléments principaux : deux parties latérales, ou carénages extérieurs, placés de part et d'autre des deux colonnes de turbines (dispositif commun aux deux configurations) et d'une partie centrale, appelée étrave, uniquement destinée à la configuration bi-colonne. Figure 2-17 : Le système de carénages des turbines Sur la figure 2-17 on s'aperçoit que les carénages extérieurs sont en forme de profil d'aile. L'effort de portance, crée par la différence de pression entre l'intrados et l'extrados de ces éléments, est dirigé vers l'extérieur. La zone de d épression se situe donc du côté de la turbine, ce qui a pour effet « d'aspirer » le fluide au centre de la structure, créant ainsi une zone de survitesse en amont de la turbine. L'étrave centrale a quant { elle, le rôle de « masquer » la remontée des pales (à contre courant), en créant une zone de sous-vitesse. De plus elle permet de diriger une partie du flux dans une zone fortement motrice de la turbine. Les axes de recherche porteront sur la définition géométrique de ces éléments, ainsi que sur leur positionnement. L'avantage que l'on attribue spontanément aux turbines à flux transverse, à savoir leur fonctionnement insensible à la fois à la direction et au sens du flux su bsiste avec la présence de carénages. En effet, ils permettent de rendre la tour auto-orientable dans le sens du courant. Mais pour réaliser cette propriété, il faut d'une part laisser libre en rotation la tour sur sa structure d'assise (liaison pivot) et d'autre part positionner correctement l'axe de la colonne des turbines par ra pport aux centres de poussée hydrodynamique des carénages. Il est même possible dans le cas d'une configuration mono-colonne, d'articuler les étages deux { deux, ce qui permet une orientation optimale des carénages, quel que soit l'étage. [Achard, 2011]. Pour éviter l'interaction entre deux turbines voisines superposées, pouvant { priori affecter leur fonctionnement, une paroi de séparation inter-turbine est mise en place (Figure 2-18). Cette architecture conduit { étudier l'influence du confinement vertical. En d'autres termes, cela revient { rechercher les valeurs o ptimales relatives à la distance inter-turbines ainsi que l'entrefer vertical (espace existant entre le bout des pales et les parois de séparation). On pourra ainsi ré- 52 Fonctionnement des turbines à flux transverse duire avantageusement la trainée en bout de pale, en optimisant la valeur de l'entrefer. Figure 2-18 : Configuration mono-colonne avec carénages Le principal désavantage induit par la présence de carénage reste l'amplification des phénomènes de cavitation, qu'il convient d'étudier avec soin. On remarquera que les étages les plus exposés restent ceux près de la surface, la pression hydrostatique augmentant avec la profondeur. En dehors de la turbine, qui fait l'objet de nombreuses études en écoulement libre, on voit que les champs d'investigation sur le thème « interaction turbinecarénage/optimisation des performances » sont nombreux. En voici quelques exemples : - le choix du profil optimal des carénages extérieurs, à savoir : le type de profil, la longueur de corde, - le positionnement optimal de ce profil, à savoir : sa position par rapport { l'axe de la turbine, sa position angulaire, - le choix de la forme de l'étrave, la couverture angulaire de la turbine (masquant plus ou moins la remontée des pales), - la position de l'étrave, entrefer existant entre sa paroi et l'extérieur des pales. Le nombre de paramètres qui interviennent pour la définition des structures mono ou bi-colonnes est à priori assez important. Une optimisation du concept uniquement par voie numérique est loin d'être évidente et reste très gourmande en temps. C'est pourquoi il a été choisi d'adjoindre aux études numériques en cours, un dispositif permettant d'étudier de manière expérimentale les performances d'une configuration bi-colonnes. Ce dispositif équipe désormais le tunnel hydrodynamique dont les résultats expérimentaux seront présentés dans les travaux d'Aumelas [2011]. 53 Fonctionnement des turbines à flux transverse 54 Instrumentation du tunnel hydrodynamique : définition du besoin 3 Instrumentation du tunnel hydrodynamique : définition du besoin Le LEGI dispose depuis la fin des années soixante d'un tunnel hydrodynamique de grande capacité présenté dans le paragraphe 3.1.1. Ce tunnel peut alimenter, de façon non simultanée, deux veines d'essai placées en parallèle qui offrent suffisamment de souplesse pour servir des objectifs variés. En effet, dans le cadre d'un DRT 6, Guittet [2005] a adapté une de ces veines au test des turbines du projet HARVEST (paragraphe 3.1). Une première étape de l'instrumentation du tunnel fut alors initiée. Cette thèse a été en grande partie consacrée à poursuivre le développement de ce moyen d'essai existant. Dans ce chapitre, après avoir présenté le tunnel hydrodynamique, sont exposées les configurations dans lesquelles pourront être testées les turbines. Ensuite, un cahier des charges défini à partir des attentes exprimées par l'ensemble des acteurs du projet, a été établi. C'est à partir de ces données qu'a pu être définie une nouvelle architecture du moyen d'essai et que l'instrumentation qui y est associée a été développée. 3.1 Le tunnel hydrodynamique 3.1.1 Le tunnel hydrodynamique La veine servant à nos essais (Figure 3-1), est implantée au sein d'un tunnel hydrodynamique fermé, contenant 36 m 3 d'eau. Comme mentionné ci-dessus, cette veine est placée parallèlement à une autre veine. Au choix, on met hors circuit une des deux veines par un coude amont qui peut subir une rotation de 90°. Ai nsi une seule veine est alimentée à la fois. Le groupe moto-pompe, à vitesse de rotation variable, assure la circulation d'eau. Il permet d'obtenir un débit variant de façon continue de 0 L/s à 500 L/s. La vitesse du fluide correspondante dans la section d'essai nue, est alors comprise entre 0 et 2.8 m/s. On trouve { l'entrée de la veine d'essai une grille en nid d'abeilles amovible, permettant de contrôler l'intensité turbulente. En outre, l'installation a été conçue afin d'assurer une circulation d'une eau de bonne qualité et bien dégazée. Pour cela différents éléments ont été mis en place : - La pré-cuve aval et la cuve aval permettent d'éliminer les gros germes de cavitation qui se sont développés dans la veine d'essai. - Les résorbeurs, placés { l'aval de la pompe, servent { dissoudre les plus petits germes qui n'ont pas été éliminés par les pré-cuve et cuve aval. Pour obtenir une température d'eau constante durant un essai, les ré6 DRT : Diplôme de Recherche Technologique 55 Le tunnel hydrodynamique sorbeurs sont immergés dans un bassin de 130 m 3, ce qui assure une grande inertie thermique. Figure 3-1 : Le tunnel hydrodynamique du L.E.G.I. 3.1.2 La veine d'essai La veine d'essai antérieure aux travaux de Linda Guittet, achevés en 2005 [Guittet, 2005] était constituée d'un canal à surface libre. Les travaux de Linda Guittet ont conduit à remplacer ce canal, dans le but de créer une plateforme d'essai, permettant de caractériser expérimentalement les maquettes d'hydroliennes. La veine présente une architecture qui est décrite sur la figure 32. Elle comporte une succession d'éléments assemblés entre eux, le tout venant se raccorder aux deux extrémités à la boucle hydraulique existante. Les éléments qui composent la veine sont les suivants : - 1: la partie amont existante de la veine est une conduite cylindrique de 800 mm de diamètre. La pièce considérée, permet de passer d'une section cylindrique à une section carrée de 700*700 mm2. - 2: un espace, d'une longueur de 80 mm environ, est aménagé pour recevoir une grille en nid d'abeilles. Cette grille a pour but d'uniformiser l'écoulement et de pouvoir faire varier l'intensité turbulente de l'écoulement. 56 Instrumentation du tunnel hydrodynamique : définition du besoin Figure 3-2 : Les différentes parties de la veine d'essai[Guittet, 2005] - 3: la chambre de tranquillisation. C'est une section qui permet de stabiliser l'écoulement après la grille en nid d'abeilles. 4: le convergent. Il permet de passer de la section carré de 700*700 mm2 à la section rectangulaire de la section d'essai. Le convergent et la chambre de tranquillisation ne font, en pratique, qu'une seule pièce. 5: la section d'essai. C'est dans cette partie que sont placées les maquettes d'hydroliennes (Figure 3-4 et 3-5). La section de la veine est un rectangle de 700mm de large et de 250 mm de haut. Elle comporte 3 faces à hublot transparent en plexiglas. La face supérieure est constituée d'une plaque d'aluminium sur laquelle repose une balance de mesure d'effort. Figure 3-3 : Géométrie de la section d'essai et repère associé. - 6: cette pièce permet de faire le raccord entre la section d'essai et la partie aval existante. Elle converge légèrement. 57 Configurations d'implantation des turbines dans la section d'essai Figure 3-4 : la veine hydrodynamique Figure 3-5 : La section d'essai en présence d' une turbine d'hydrolienne 3.2 Configurations d'implantation des turbines dans la section d'essai Dans le cadre de cette thèse, sont étudiées deux configurations bien distinctes dans la veine d'essai. La première doit reproduire les conditions d'implantation d'une turbine seule en milieu infini, cas le plus fondamental. La deuxième doit quant à elle à reproduire les conditions d'implantation d'une machine bi-colonnes carénée (cf. § 1.2.3). L'instrumentation du tunnel hydrodynamique doit permettre de caractériser indifféremment les performances d'une maquette d'hydrolienne dans les deux cas de figures. On notera que la configuration bi-colonnes reproduite dans le tunnel, a fait l'objet de premiers essais au cours de cette thèse. Une évolution en sera proposée par Aumelas [2011] dans sa thèse. 3.2.1 Objectifs généraux Les résultats expérimentaux, fournis par le moyen d'essai ont diverses vocations et concernent de façon plus ou moins directe les différents acteurs du projet (Figure 3-6) : elles devront permettre en premier lieu de mener une étude comparative des performances entre les turbines disponibles au laboratoire et par extension (lois de similitude) donner une estimation des performances de ces mêmes turbines à différentes échelles, et cela en fonction des sites d'implantation. D'autre part, les données expérimentales ont vocation à être recoupées avec les résultats des simulations numériques : c'est ce que l'on appellera le « calage » des modèles numériques. Après validation, les codes numériques utilisés permettront d'élargir le champ de recherche tout en rationalisant l'utilisation du moyen d'essai. Dans ce cas la fiabilité des résultats expérimentaux est primordiale. Ainsi, la se ction d'essai sert de configuration « référence », car utilisée comme cas test pour les simulations numériques. Il est par ailleurs nécessaire de caractériser 58 Instrumentation du tunnel hydrodynamique : définition du besoin l'écoulement incident : vitesse moyenne, intensité turbulente, d'épaisseur de la couche limite sur les parois etc. Figure 3-6 : Synoptique des interactions expérimentations-simulations-démonstrations 3.2.2 Turbines en configuration mono colonne et écoulement semi infini Comme évoqué au chapitre 1, les développements envisagés du concept sont nombreux. De l'implantation d'une turbine isolée, ou associées en mono ou bi colonnes pour former des tours de taille et de nombre d'étages distincts, ces tours pouvant par ailleurs être maintenues fixes par leur partie supérieure ou inf érieure, les cas sont multiples et variés. Avant de prendre en compte tous les él éments additionnels pouvant influencer le comportement d'une turbine en fonctionnement, il est intéressant de réaliser des études sur une turbine isolée, placée dans un écoulement libre, ce qui permet de surcroît de comparer les perfo rmances des turbines Achard à d'autres turbines, toutes choses égales par ailleurs. C'est ce cas, le plus élémentaire, qui est étudié en premier lieu dans la section d'essai. 3.2.2.1 Caractérisation de l'écoulement incident Pour établir les conditions de référence, servant de base pour le calage des modèles numériques, les critères suivants ont été étudiés :  Vitesse incidente moyenne Un débimètre à hélice, placé en amont de la section d'essai, permet d'obtenir le débit instantané dans le tunnel hydrodynamique. A partir de cette information, et connaissant la section de la veine d'essai, on estime la vitesse moyenne débitante.  Intensité turbulente L'intensité turbulente a une influence non négligeable sur les performances des éoliennes à axe vertical [Paraschivoiu, 2002]. Néanmoins, la valeur de l'intensité 59 Configurations d'implantation des turbines dans la section d'essai turbulente est à priori faible. Ce paramètre n'a pas été pris en compte pour les campagnes d'essai présentées dans cette thèse. 3.2.2.2 Développement de la couche limite en parois Le convergent, outre son effet accélérateur de l'écoulement, limite le développement des couches limites en parois. Une couche limite qui est trop épaisse pourrait interférer avec le développement des tourbillons de bout d'aile et diminuer la puissance récupérée par la machine. De plus, cela modifie sensiblement la vitesse débitante et induit une surestimation du coefficient de puissance (Cp). Les résultats exposés dans la thèse d'Amet [2009] sont présenté ici. Il a été vérifié d'une part que le bout de pale n'entre pas dans cette couche limite, et plus globalement sur la nécessité éventuelle de prendre en considération les couches limites se développant sur les quatre faces latérales de la veine d'essai dans le calcul de la vitesse débitante. Considérons le convergent seul avec son plan de symétrie. Une solution stationnaire du convergent a été calculée de façon à ce qu'une vitesse de 1 m/s en entrée du convergent corresponde à une vitesse débitante ̅ = 2,8 m/s en sortie du convergent. Les couches limites se développant dans la veine ont été calculées pour trois situations: - Veine seule avec une vitesse uniforme de appliquée en entrée de la veine. ̅ - Veine seule avec une vitesse débitante ̅ . Le profil de vitesse obtenu en sortie du convergent est utilisé comme une donnée d'entrée dans la section amont de la veine située à l'abscisse X = 0,35 m (couplage faible). - Convergent et veine, avec une vitesse uniforme en entrée du convergent de 1 m/s. Pour ces trois cas, la définition classique de l'épaisseur de la couche limite utilisée: a été ( 3.1 ) ̅ La figure 3-7 montre l'évolution de l'épaisseur de la couche limite { partir de l'entrée de la veine (X=-0.35m). Les résultats pour les trois cas de vitesse sont présentés dans le cas de la couche limite de plafond. On remarque que dans le premier cas (veine seule), on sousestime : cela tient au fait que l'on considère un nul en entrée, ce qui ne correspond pas { la réalité physique de l'écoulement. Les deux autres cas donnent des résultats proches entre eux, légèrement inférieurs pour le cas où l'on considère l'ensemble (convergent + veine). On ne représente donc que les résultats du dernier cas de simulation pour l'évolution de la couche limite des parois latérales. 60 Instrumentation du tunnel hydrodynamique : définition du besoin Figure 3-7 : Evolution de l'épaisseur de la couche limite dans la veine[Amet, 2009] Interférence hydrolienne-couche limite Pour ce qui est de la couche limite du plafond, on observe un au niveau de l'axe de rotation. Pour ce qui est de la couche limite des parois laté rales, . L'épaisseur de la couche limite est donc loin d'impacter l'hydrolienne : en effet, le bout des pales se trouvent à 37.5 mm des parois inférieure et supérieure (à comparer à la valeur de ) et à 262,5 mm des parois latérales (à comparer à la valeur de ). Influence de la couche limite sur la vitesse débitante En adoptant classiquement un profil de vitesse en puissance 1/7, on obtient une épaisseur de déplacement δ*=δ/8. Par définition de l'épaisseur de déplacement, la vitesse dans l'écoulement sain, notée Ua, est reliée à la vitesse débitante ̅ par : ̅ ⁄ ⁄ ⁄ ( 3.2 ) Où l désigne, soit la distance entre les plafonds (250mm), soit entre les parois latérales (700mm). Ces estimations montrent que la couche limite des parois latérales ne joue pas significativement et que la couche limite du plafond augmente de 1% la vitesse au niveau de la turbine. Mais comme la puissance est au cube de la vitesse, cela conduit à une augmentation de 3% de la puissance ce qui n'est pas négligeable par rapport à la précision attendue de notre moyen d'essai. 3.2.2.3 Confinement induit par la section d'essai Les dimensions réduites de la veine par rapport à la taille des maquettes font que l'on ne peut pas considérer l'écoulement comme strictement infini. La tendance naturelle du fluide à contourner la turbine est perturbée par la proximité des parois, ce qui a pour effet d'augmenter artificiellement le rendement. On dit que 61 Configurations d'implantation des turbines dans la section d'essai l'écoulement autour de la turbine présente un effet de confinement. On distingu era par la suite le confinement latéral du confinement axial.  Confinement latéral Des corrections empiriques pour estimer l'effet de confinement existent. Des essais sur une turbine de type Savonius ont été menés par Blackwell [1977]. Ils introduisent un facteur de conditionnement total dans lequel ils font intervenir la forme des pales ainsi que le rapport ⁄ , où L désigne la largeur de la veine et le diamètre de la turbine. La correction conduit à augmenter la vitesse: ( 3.3 ) De telles corrections ont été jugées comme ayant un haut degré d'incertitude (même les auteurs ont prédit 50% d'incertitude sur la mesure du coefficient de puissance). Sont présentés dans ce paragraphe les résultats de calculs numériques de ce paramètre, appliqués au cas de la section d'essai. L'étude a été menée par Amet [2009] sur un cas 2D. Le confinement latéral a été défini comme étant le rapport ⁄ . Le entre la largeur de la veine et le diamètre de la turbine, le paramètre cas correspond à la section d'essai. Sept valeurs de (2, 3, 4, 5, 6, 8 et 10) ont été retenues pour étudier l'influence du confinement latéral sur le coefficient de puissance. Pour chaque valeur, six paramètres d'avance sont considérés: 1.5, 1.75, 2, 2.25, 2.5 et 3. La figure 3-8 illustre l'influence de sur les courbes de coefficient de puissance moyen ( ) en fonction de . Figure 3-8 : Influence du confinement sur le coefficient de puissance[Amet, 2009] On remarque que pour les cas qui correspondent à un fort confinement, la valeur maxi fmum du coefficient de puissance atteint 98% à λ = 2,50 pour ε = 2 et 71% à λ = 2,30 pour ε = 3. Le cas ε= 4 (61% à λ = 2,15) correspond à un confinement modéré (cas de la section d'essai). Au-delà de ε= 6 le confinement apparait négli- 62 Instrumentation du tunnel hydrodynamique : définition du besoin geable (57% à λ= 2,05). On voit donc que le moyen d'essai conduit à des rendements légèrement plus élevés que ceux correspondant à une situation non confinée. A faibles λ, la puissance récupérée est quasi indépendante du conditionnement, alors qu'un fort confinement déplace le λ optimal (correspondant au ), vers des valeurs élevées du λ. Par rapport à la configuration nonconfinée, le cas ε= 4, apporte un gain de 8% au niveau du , ainsi qu'un déplacement du λ optimal de 2.05 à 2.15.  Confinement axial Pour se rapporter au cas d'une turbine placée en milieu infinie, il serait nécessaire d'étudier de la même façon le confinement axial qu'en traine la section d'essai. La modélisation numérique d'un cas 3D permettrait de prendre en compte l'influence de ce paramètre. Mais compte tenu du temps de calcul nécessaire, les études ont été limitées au cas 2D en première approche, c'est-à-dire que l'on a tenu compte uniquement du confinement latéral. 3.2.3 Turbines carénées en configuration bi-colonnes La superposition des turbines sur un même arbre forme ce que l'on a appelé une colonne. Cette configuration a permis d'imaginer des solutions originales avec carénages dans le but d'optimiser la récupération de l'énergie, et dont on a évoqué le principe dans le chapitre 2. C'est dans ce cadre qu'a été imaginée une adaptation de ce concept, destinée à être installée dans la section d'essai. Cela a permis d'étudier le comportement des maquettes d'hydrolienne dans une configuration bi-colonnes carénée et de valider la conception d'un prototype de grande taille. Il était primordial de ne pas augmenter d'avantage le confinement latéral de l'ensemble turbine-carénage implantée dans la section d'essais, par rapport { une configuration en écoulement infini. C'est pourquoi, il a été choisi de ne garder qu'une seule turbine en position centrale, tout en recréant les conditions d'une implantation bi-colonnes. En revanche, ce dispositif pourra être mis à profit pour étudier le confinement axial, par l'ajout de plaque de différentes épaisseurs. Le point de départ fut d'appliquer un facteur d'échelle aux dimensions d'un étage de la tour bi-colonnes réelle, en prenant comme référence le diamètre de la turbine, qui { l'arrivée doit correspondre { celui des maquettes. Le système fut ensuite scindé en deux parties identiques autour de son plan de symétrie, mais seule une des deux parties (demi-système) fut implantée dans la veine, comme le montre la figure 3-9. La partie manquante (1 turbine + 1 demi conditionneur centrale et un conditionneur latéral) se trouve alors remplacée par un dispositif qui engendre une perte de charge équivalente. 63 Configurations d'implantation des turbines dans la section d'essai Figure 3-9 : Principe du dispositif expérimental permettant le test de la configuration bi colonnes Le dispositif expérimental est constitué de 4 parois latérales qui forment ainsi ce qu'on appellera le carter. (Figure 3-10). Ce carter vient s'insérer { l'intérieur de la section d'essai et est fixé par sa face supérieure au moyen de vis. Le cahier des charge qui fut fixé, prévoit de pouvoir passer d'une configuration test (sans carénage) { une autre (avec carénages) en l'espace d'une journée maximum et sans aucune modification structurelle de la section d'essai. Les dimensions extérieures du caisson correspondent aux dimensions intérieures de la section d'essai. Le débit de fluide passe ainsi intégralement à l'intérieur du caisson, ce qui permet d'obtenir directement la vitesse du fluide incident. De plus, les parois sont en plexiglas transparent, permettant ainsi la visualisation de la turbine lors de son fonctionnement : cela permet des études complémentaires de viFigure 3-10 : Carter du dispositif expérimental permettant le sualisation de test de la configuration bi-colonnes l'écoulement. Le système, outre la turbine et le caisson, comporte les éléments suivants (Figure 3-11) : - Une plaque de cloisonnement, correspondant au plan de symétrie du système bi-colonnes. 64 Instrumentation du tunnel hydrodynamique : définition du besoin - A cette plaque de cloisonnement, on adjoint une pièce supplémentaire, pour former le carénage dit d'étrave, dont le rôle est de masquer en quelque sorte la remontée des pales. - Un carénage constitué d'une pièce formant un profil d'aile de type Epler420. Sa position latérale et axiale par rapport à la turbine peut être modifiée. Un deuxième type de profil est disponible, pouvant être interchangé facilement avec le premier. - Une grille permet de régler de manière continue les pertes de charges dans le caisson 2, afin de les équilibrer avec celles du caisson 1. On vise ainsi à r ecréer les mêmes conditions qu'une configuration bi-colonnes réelle. On vérifiera alors que la direction du fluide est bien parallèle { l'étrave centrale , et donc, qu'il n'a pas tendance { contourner la turbine par le caisson 2. - Un système de drapeau permet d'indiquer la direction du fluide. Ainsi pour chaque point de fonctionnement de la turbine, sont ajustées les pertes de charges du caisson 2 afin d'aligner les drapeaux avec l'étrave centrale. Le carter s'adapte { l'intérieur de la section d'essai existante. La section de passage du fluide passe alors de 250*700mm2 à 590*218mm2. C'est cette dernière qui est utilisée pour le calcul de la vitesse débitante du fluide. Figure 3-11 : Vues de dessus et de face du dispositif expérimental permettant le test de la configuration bi-colonnes Sur la figure 3-12 on aperçoit les deux drapeaux montés en pivot sur un axe fixe. La figure 3-13 est une vue de détail du dispositif de pertes de charges. Le niveau de perte de charges peut être ajusté de deux façons. Une première opération, dite de réglage grossier, consiste { modifier l'angle entre la grille et le courant : à 90° les pertes de charges sont maximales tandis qu'{ 0° (grille parallèle { l'écoulement) elles sont minimales. Une deuxième opération, dite de réglage fin, consiste à faire coulisser une grille mobile par rapport à une grille fixe. On passe d'une position « pertes de charges maximales » équivalente à une plaque pleine à une position « pertes de charges minimales » en découvrant progressivement les orifices de passage. Cela s'effectue en actionnant une manette de réglage. 65 Caractérisation des performances hydrodynamiques d'une turbine par mesure globale d'efforts. Figure 3-12 : Système de drapeaux Figure 3-13 : Système de perte de charge  Etude du confinement vertical en configuration carénée Pour étudier l'influence du confinement vertical sur le fonctionnement des tu rbines, un jeu de plaques de différentes épaisseurs a été fabriqué (Figure 3-14). Elles sont fixées sur les parois inférieures et supérieures du carter, et permettent de faire varier de manière discrète le jeu existant entre le bout de pales et la paroi. On définira le confinement axial par: ( 3.4 ) ⁄ Où représente la distance entre les plaques inférieure et supérieure, et, la hauteur de la turbine. Aumelas [2011] présente certains résultats numériques issus de cette configuration. Figure 3-14 : Système pour l'étude du confinement axial 3.3 Caractérisation des performances hydrodynamiques d'une turbine par mesure globale d'efforts. La caractérisation des performances hydrodynamiques d'une turbine placée dans la section d'essai est le point central des travaux de cette thèse. Plus précisément, il s'agit de mesurer de manière globale les efforts transmis par le fluide à une 66 Instrumentation du tunnel hydrodynamique : définition du besoin turbine dans des conditions expérimentales bien définies et pour les deux « configurations » détaillées au paragraphe 3.2. 3.3.1 Des composantes hydrodynamiques élémentaires aux efforts globaux Considérons le cas d'une turbine placée dans la section d'essai. Cette turbine de hauteur est composée d'un nombre de pales, qui sont chacune reliées à l'arbre central grâce { un bras. On peut découper virtuellement cette turbine en tranches d'épaisseur infinitésimale . Sur chacune de ces tranches de turbine, l'écoulement du fluide induit un effort tangentiel et un effort normal , comme le montre la figure 3-15 (Point détaillé précédemment, dans le paragraphe 2.1). On considère que les pales sont les actrices principales dans la création des efforts. Mais, outre ces pales composant la turbine, il convient également de considérer les efforts hydrodynamiques développés de manière secondaire (figure 3-15) par l'arbre et les bras des pales, ainsi que d'éventuels composants additionnels reliés physiquement à la turbine (comme des winglets inhibiteurs de tourbillons de bouts d'ailes, ou encore des anneaux reliant les pales e ntre elles). Figure 3-15 : Eléments développant des efforts hydrodynamiques Prenons l'exemple de l'effort de traînée global ⃗⃗⃗⃗ , correspondant à la somme des efforts projetés sur l'axe ⃗⃗ , développés par une turbine à pales droites placée dans un écoulement. Cet effort est la somme des efforts locaux développés par chaque « tranche » élémentaire de turbine. ⃗⃗⃗⃗ dépend de la position angulaire des pales, mais aussi de la vitesse de rotation. Si l'on considère l'hydrolienne en régime permanent et placée dans un écoulement à vitesse constante, cet effort ⁄ . est alors modulo et même On retrouve la contribution des pales à ⃗⃗⃗⃗ dans les termes suivants, qui représentent la majeure partie de cet effort: 67 Caractérisation des performances hydrodynamiques d'une turbine par mesure globale d'efforts. ⁄ ∫ [⃗⃗⃗ ⃗⃗⃗ ⁄ ∫ ] ⁄ [⃗⃗⃗ ( ) ⃗⃗⃗ ( )] ⁄ A cela on ajoute la faible contribution de l'arbre de rotation de la turbine à ⃗⃗⃗⃗ , de longueur correspondant à la hauteur de la veine (cet arbre pour des raisons de symétrie traverse entièrement la veine): ⁄ ∫ ⃗⃗⃗⃗⃗⃗ ⁄ On considère enfin les efforts développés localement par divers éléments add itionnels équipant la turbine : ∑ ⃗⃗⃗⃗⃗⃗ On exprime ainsi l'effort global de traînée induit par le fluide sur la turbine: ⃗⃗⃗⃗ ⁄ ∫ [⃗⃗⃗ ⃗⃗⃗ ] ⁄ ⁄ ∫ [⃗⃗⃗ ( ) ⃗⃗⃗ ( ⁄ ⁄ ∫ ⃗⃗⃗⃗⃗⃗ )] (3.5) ∑ ⃗⃗⃗⃗⃗⃗ ⁄ Les efforts globaux que l'on va mesurer comportent donc plusieurs « sources ». Cela reflète le comportement réel d'une turbine. Les pales contribuent majoritairement à ces efforts globaux, mais l'identification des composantes dites « secondaires » peut néanmoins se révéler nécessaire dans certains cas d'études, en particulier dans l'optique d'un « calage » précis de modèles numériques. En effet, on pourrait prendre l'exemple d'une simulation numérique qui ne comporterait que les pales, sans l'arbre et les bras du moyeu. Il s'agira alors de savoir si les différences éventuelles entre les résultats expérimentaux et numériques proviennent uniquement des éléments « secondaires » ou si elles sont induites par des défauts de simulations ou de mesures expérimentales. Des mesures complémentaires, de pressions locales au niveau des pales pourraient être alors de précieux indicateurs, permettant un découplage physique des différentes composantes d'un effort. 68 Instrumentation du tunnel hydrodynamique : définition du besoin 3.3.2 Définition du torseur des efforts hydrodynamiques appliqués sur une turbine 3.3.2.1 Repérage L'utilisation de torseurs7 pour définir les efforts hydrodynamiques s'appliquant sur les turbines, nécessite de mettre en place une base de projection, associé à un point (repère). Les résultats des simulations numériques seront eux aussi exprimés dans ce même repère. Ainsi, comme l'indique la figure 3-16, le point O du repère correspond au centre géométrique de la turbine, qui se trouve à égale distance des parois inférieure et supérieure de la veine. L'axe x est pris dans le sens de l'écoulement (de vitesse ou V 0) et z est choisi vertical descendant. Le trièdre (x,y,z) est orthonormé direct. L'origine des est donné par l'axe y,( étant une variable angulaire permettant de repérer la position des pales) Figure 3-16 : Repérage dans la section d'essai et défintion du repère R 0 On définit l'action globale du fluide sur la turbine par le torseur . La mesure globale des efforts hydrodynamiques doit permettre d'obtenir les éléments de réduction correspondant aux 6 composantes du torseur au point 0 et exprimés dans le repère R O. 3.3.2.2 Les 3 composantes de forces Ces trois composantes correspondent aux efforts de traînée projetés selon les directions x, y et z. On retrouve : (1) l'effort de traînée selon l'écoulement, (2) l'effort de traînée transverse { l'écoulement et (3) l'effort axial. 3.3.2.3 Les 3 moments Les moments de basculement 7 Torseur : champ de vecteurs équiprojectifs, qui en un point de l'espace est réduit à deux vecteurs : une résultante et un moment. 69 Caractérisation des performances hydrodynamiques d'une turbine par mesure globale d'efforts. Les 2 moments de basculement selon les axes x et y correspondent à la tendance qu'aurait la turbine { vouloir basculer autour de son centre (O) et selon ces axes. On les notes et . Le couple utile Ce moment (ou couple) est dit « utile » car c'est { partir de l{ qu'est récupérée et transformée l'énergie produite par la turbine. Dirigé selon l'axe de rotation z, il provoque la rotation de l'arbre. On le note ou . 3.3.2.4 Torseur des actions hydrodynamiques On écrira le torseur des actions du fluide sur l'hydrolienne de la façon suivante : (3.6) { 3.3.3 Intérêt de la mesure globale des efforts pour la caractérisation des performances des turbines Le développement de l'instrumentation du tunnel hydrodynamique doit permettre de construire le torseur des efforts hydrodynamiques d'une turbine en fonctionnement, { partir d'un système de mesure global. La caractérisation du niveau de « performance » d'une turbine n'est pas immédiate. Celui-ci résulte de la combinaison de plusieurs critères, qui ont chacun leur importance, variable, selon les objectifs visés. On pourra citer l'exemple simple du critère d'auto-démarrage, qui pour l'implantation d'une turbine isolée se révèle être de grande importance, mais qui devient caduc dans le cas d'une tour d'hydroliennes. Le torseur des efforts hydrodynamiques va permettre de caractériser presque e ntièrement une turbine. On pourra citer entre autres les critères suivants : - les caractéristiques d'efforts (moyens et instantanés), - les caractéristiques de couple et de puissance (moyens et instantanés), - le critère d'auto-démarrage. Il reste néanmoins de nombreux champs d'investigation où la mesure globale d'efforts n'apporte pas de réponse, ou seulement partiellement : - les pressions locales au niveau des pales, - le développement de poches de cavitation, - la topologie de l'écoulement. La stratégie adoptée pour caractériser les performances d'une turbine d'hydrolienne repose sur la mesure globale des efforts hydrodynamiques. Même si ce type de mesures n'apporte pas toutes les informations traduisant le comportement des turbines (en particulier au niveau local), cela constitue néanmoins une bonne base de départ, qui répond à nos attentes (cf. paragraphe suivant). 70 Instrumentation du tunnel hydrodynamique : définition du besoin La poursuite des travaux de caractérisation reposera sur des études de visualisation de l'écoulement par la méthode de P.I.V., entreprise par Bossard J. [2010], et qui permettra d'étudier les phénomènes de cavitation ainsi que la topologie de l'écoulement au niveau des pales. 3.4 Elaboration du cahier des charges de l'instrumentation du tunnel hydrodynamique Le cahier des charges de l'instrumentation, formalisé dans cette section, constitue la base sur laquelle s'appuie la conception de l'instrumentation du tunnel hydrodynamique. En particulier, cette partie se focalise sur la définition du cahier des charges fonctionnel (c.d.c.f.) du système de mesure des efforts hydrodynamiques. Ce système, conçu, réalisé et mis en oeuvre pendant la durée de cette thèse sera appelé dans la suite « balance de mesure des efforts ». Le retour d'expérience d'une première génération de balance qui équipait la section d'essai [Guittet, 2005] a été mis à profit. Celle-ci, que l'on aperçoit sur la figure 3-17, n'a malheureusement pas pu répondre entièrement aux attentes des expérimentateurs. La mesure des efforts , et est basée sur un système de capteurs à jauges de déformation. Le couple utile est obtenu grâce à un couplomètre. Un moteur pas à pas, monté en bout d'arbre, permet d'imposer la vitesse de rotation de la turbine. Fx Fy Fz Figure 3-17 : Balance de mesure d'effort de première génération Figure 3-18 : Exemple de résultats expérimentaux : efforts selon x, y et z. Bien qu'imparfaite, cette première balance a néanmoins permis de relever plusieurs points : - Le caractère extrêmement variable du chargement des turbines (Figure 3-18). Cela confirme la nécessité d'une structure de mesure bien plus rigide et de capteurs à bande passante bien plus élevée. - Le niveau de couple utile relativement faible (de l'ordre du Nm) associé { une vitesse élevée (supérieure à 1000 trs/min). 71 Elaboration du cahier des charges de l'instrumentation du tunnel hydrodynamique - La technologie de moteur pas à pas, utilisée comme système de contrôle de la vitesse (et de dissipation d'énergie) n'est pas adaptée pour cette application. Les résultats de simulations numériques, effectuées Sylvain Antheaume dans un travail de DRT [Antheaume, 2007] ont apporté les précisions nécessaires en ce qui concerne les chargements hydrodynamiques des turbines, placées dans la section d'essai. Cette méthode est basée sur la détermination des coefficients de traînée et de portance d'une pale en écoulement uniforme et en milieu infini. Les chargements ainsi déterminés ont permis de cibler le domaine de mesures des différents capteurs d'effort et la gamme de puissance du système de commande de l'arbre. De plus, ces travaux confirment la grande variabilité des efforts (pour exemple, un résultat sur la variabilité du niveau de couple est présenté sur la figure 3-19). Des précautions particulières ont été prises, afin d'avoir un outil de mesure dont la bande passante soit suffisante. L'objectif étant de s'affranchir à priori de corrections dynamiques qui peuvent affecter la précision des mesures et qui sont lourdes { mettre en oeuvre. Figure 3-19 : Comparaison de l'évolution angulaire du coefficient de puissance pour trois turbines de même taille et types différents A partir de ces points, et en utilisant la méthode de l'analyse fonctionelle [Virely, 2004] il a été procédé à l'élaboration du c.d .c.f. Dans la suite seront présentés le diagramme « pieuvre » définissant le besoin ainsi que le diagramme d'analyse fonctionnelle du besoin ou « bête à cornes », auxquels sont associés les tableaux de caractérisation des fonctions principales et de contraintes mises alors en évidence (L'ensemble des éléments contenus dans ces tableaux constituera le c.d.c.f.). 72 Instrumentation du tunnel hydrodynamique : définition du besoin Une synthèse concernant le niveau des efforts s'appliquant sur la structure de la balance est ensuite présentée. Celle-ci a servi au dimensionnement de la structure et au choix des capteurs. Enfin, cette section est close par le bilan des objectifs en terme de précision de mesure. 3.4.1 Définition du besoin et élaboration du cahier des charges. 3.4.1.1 Analyse du besoin Cette méthode, traditionnellement utilisée en entreprise lors du développement de nouveaux produits a permis de caractériser de manière rigoureuse le besoin exprimé par les utilisateurs potentiels du système de mesure et d'en extraire les éléments du c.d.c.f Cette formalisation (Figure 3-20) a été rendue nécessaire, tant les demandes et les attentes des différents intervenants du projet étaient multiples. Seul le système « balance de mesure d'effort » est considéré lors de cette analyse. L'instrumentation du tunnel hydrodynamique du LEGI a donc été dictée par le besoin de caractériser de manière précise les performances hydrodynamiques de nouvelles maquettes de turbines d'hydrolienne, placées dans la section d'essai. Figure 3-20 : Une « Bête à corne » : formalisation de la définition du besoin Derrière ce besoin exprimé (Figure 3-20)- qui à priori se révèle être une idée simple - se trouvent toutes les fonctions que devra disposer le système pour s atisfaire l'utilisateur. C'est { partir de l'analyse fonctionnelle du besoin qu'a été formalisé le cahier des charges, tâche pour laquelle la majorité des acteurs du projet HARVEST a été mise à contribution. 73 Elaboration du cahier des charges de l'instrumentation du tunnel hydrodynamique 3.4.1.2 Analyse fonctionnelle du besoin Le système considéré doit permettre de satisfaire le besoin exprimé plus haut, à savoir « caractériser expérimentalement les performances hydrodynamiques de turbines ». Pour formaliser le c.d.c.f. { partir de l'analyse fonctionnelle du besoin, le système « balance de mesure d'effort » est à présent considéré dans son environnement de travail. Lors de l'utilisation du système, celui-ci est en relation avec les éléments du milieu extérieur (figurant sur la figure 3-21 autour de la « bulle » centrale). Ces relations, ou plutôt interactions (symbolisées par des arcs), se traduisent par diverses fonctions, décrites par le « diagramme pieuvre » de la figure 3-21. On pourra distinguer la fonction principale (F.P.) du système, directement liée au besoin exprimé par l'utilisateur, des fonctions de contraintes (F.C.) induites par les éléments du milieu extérieur en relation avec le système. Chaque fonction répertoriée est ensuite caractérisée, ce qui, en d'autres termes, revient à qualifier et à quantifier les dites fonctions. Le tableau de caractérisation de chacune des fonctions est présenté plus bas. Figure 3-21 : Diagramme « pieuvre » pour l'analyse fonctionnelle du besoin Le diagramme précédent fait apparaitre les fonctions suivantes, (auxquelles doit répondre la balance de mesure pour satisfaire le besoin de l'expérimentateur ) : - FP1 : Caractériser expérimentalement les performances hydrodynamiques des turbines. - FC1 : S'adapter au tunnel hydrodynamique. 74 Instrumentation du tunnel hydrodynamique : définition du besoin - FC2 : Ne pas perturber le laboratoire et résister aux contraintes du milieu du laboratoire. FC3 : Utiliser l'énergie disponible au laboratoire et restituer l'énergie fournie par la turbine. FC4 : Permettre aux éventuels visiteurs la visualisation des tests et de la turbine en fonctionnement en toute sécurité. FC5 : Répondre aux normes en vigueur s'appliquant aux machines spéciales. FC6 : Permettre { l'expérimentateur une maintenance aisée de l'outil de mesure, permettre la visualisation des tests et de la turbine en toute sécurité. FC7 : Lier les turbines { la balance de mesure d'effort, transmettre les efforts de la turbine à la balance, guider en rotation et positionner la turbine par rapport à la veine. La caractérisation des fonctions est exposée dans les tableaux 3-1 et 3-2 : - le premier concerne la fonction principale du système, que l'on a décomposée en sous-fonctions par soucis de clarté, - le deuxième concerne les fonctions de contrainte. Ces tableaux comportent chacun 5 entrées, qui sont : - l'intitulée, qui reprend les notations utilisées sur la figure 3-21, - l'expression, qui comporte de façon normative un verbe auquel on adjoint un ou plusieurs compléments, - le critère, qui permet de qualifier les fonctions, - le niveau, qui complète la qualification par une quantification des critères, - la flexibilité, qui permet d'adjoindre, s'il y a lieu une certaine « marge » à chacun des niveaux. Fonction principale FP1 FP1.2 FP1.2 Expression Critère Niveau Flexibilité « Caractériser expérimentalement les performances hydrodynamiques de turbines » « Imposer une vitesse de rotation à la turbine » Intervenants Nombre d'heures d'essai Vitesse de rotation Plage de vitesse Consigne Précision Vitesse Plage de mesure Bande passante Précision Température Plage de mesure Bande passante Précision Pression Plage de mesure Bande passante Précision 2 maxi 1000h mini + 1 inter. N Є [-1500 ; 1500] Echelon/rampe +/- 5 trs/min - 100 tr/min Néant Néant 0 < V < 3m/s Quelques Hz +/- 0.05m/s Néant Néant Néant 0 < T < 40°C Quelques Hz +/- 0.1°C Néant Néant Néant 0 < P < 2.10^5 Pa abs Quelques Hz +/- 0.1*10^5 Pa Néant Néant Néant « Mesurer les caractéristiques de l'écoulement amont » 75 Elaboration du cahier des charges de l'instrumentation du tunnel hydrodynamique Fonction principale FP1.3 Expression Critère Niveau Flexibilité « Mesurer les efforts hydrodynamiques sur la turbine » Nombre de composantes Bande passante Normes Efforts de traînée -selon l'écoulement -transverse Effort axial Couple sur l'axe Momt de basculement Lieu de réduction du torseur des efforts 6 composantes Néant 125 Hz mini – 25Hz 300 N +/-100 N +/-100 N 10 Nm 50 Nm Centre géométrique des turbines -0 N -0 N -0 N - 2Nm -10Nm Néant FP1.4 « Mesurer la vitesse de rotation de la turbine » FP1.5 « Mesurer la position angulaire de la turbine » FP1.6 « Acquérir les grandeurs physique mesurées » Précision de mesure Efforts de traînée Effort axial Couple sur l'axe Momt de basculement Vitesse de rotation Plage de mesure Bande passante Précision Cf. § 3.4.3 Néant N Є [-1500 ; 1500] 125 Hz +/- 1 trs/min - 100 tr/min -25 Hz Néant Position angulaire Bande passante Précision Nombre de voies 25 Hz +/- 0.5 ° 13 -5 Hz Néant – 1 voie Fréqu. d'acquisition 9000 Hz mini – 600 Hz Décalage temporel entre +/- 0.1 ms voies Durée d'acquisition Min. 10 trs de turbine Support d'acquisition PC Format d'exportation Tableau 3-1: Caractérisation de la fonction principale 76 Format txt Néant – 5 tours Néant Néant Instrumentation du tunnel hydrodynamique : définition du besoin Fonctions de contraintes FC1 FC2.1 FC2.2 Expression Critères Niveau Flexibilité « S'adapter au tunnel hydrodynamique » Poids Encombrement (L*l*h) 50 kg maxi 500*500*1000 mm + 10 kg + 0 mm Support de fixation Plaque aluminium horizontale de 50mm d'épaisseur 70 dB maxi Complète -0,8<Δp<1 Néant +10 dB Néant Néant Air atmosphérique 100% Oui Probables Néant Néant Néant Néant Néant Champs électromag. Intensité faible avec outils d'atelier Intensité faible Présence de personnes Petit groupe de 3 ou 4 + 5 pers. Energie électrique Courant alternatif monophasé 230V-Tri. 400V Néant Energie pneumatique Air comprimé à 7 bars Néant Type d'énergie Electrique / thermique Néant Visibilité de la turbine Etre observable lors de son fonctionnement Néant Respect des normes concernant la protection des personnes Néant Néant Néant Néant Néant Présent en atelier ou à concevoir à h d'utilisation Néant 2 jours maximum Néant maximum 2 Néant Visibilité de la turbine Etre observable lors de son fonctionnement Néant Respect des normes concernant la protection des personnes Néant Néant « Ne pas perturber l'environnement du laboratoire » « Résister aux contraintes du milieu du laboratoire » Niveau sonore Etanchéité Δp Veine-Lab. Milieu ambiant Composition Humidité Présence de poussières Projections d'eau Chocs FC3.1 FC3.2 FC4 FC5 FC6.1 FC6.2 « Utiliser l'énergie disponible au laboratoire » « Restituer l'énergie mécanique fournie par la turbine » « Permettre aux éventuels visiteurs la visualisation des tests et de la turbine en toute sécurité » « Répondre aux normes en vigueur s'appliquant aux machines spéciales » « Permettre à Outillage l'expérimentateur une maintenance aisée de l'outil de Fréquence des opérations mesure » Durée d'un montage démontage complet Nombre d'opérateurs « Permettre à l'expérimentateur la visualisation des tests et de la turbine en toute sécurité » 77 Néant Néant Elaboration du cahier des charges de l'instrumentation du tunnel hydrodynamique Fonctions de contraintes Expression Critères Niveau Flexibilité FC7.1 « Lier les turbines à la balance de mesure d'effort » Type de liaison Temps de montagedémontage Nombre d'opérateurs Outillage Démontable Quelques minutes Néant Néant 2 opérateurs Présent en atelier ou à concevoir 2 types : à moyeu central et à flasques Néant Néant Définition des efforts à transmettre Cf. § 3.3 Néant Fréquence de rotation 2000 trs/min mini. – 500 0,2 Nm maxi + 0.1 Nm Indispensable Indispensable Qqes % Qqes % < 1mm <1° + 0.1mm +0.1° Types de turbines FC7.2 FC7.3 FC7.4 FC7.5 « Transmettre les efforts de la turbine à la balance de mesure d'effort » « Guider la turbine en rotation » « Positionner les turbines dans la veine d'essai » « Asservir la vitesse de rotation de la turbine » Pertes énergétiques Niveau (en terme de couple) Prédictibilité Reproductibilité Précision Faux rond Défaut angulaire Précision de positionment Le centre géométrique de la turbine doit être contenu dans une sphère de rayon 1mm par rapport à la position théorique. Orientation de l'axe de ro- Défaut < 1 ° par rapport tation à l'orientation th Précision quant à la va+/- 1% de la valeur vileur moyenne de vitesse sée (Précision) Fluctuation par rapport à 1% autour de la valeur la valeur moyenne (Stabimoyenne lité) Temps de réponse (Rapi- T5% : de l'ordre de la ms dité) Néant Rayon : + 0.5mm Néant Néant + 1% Néant Tableau 3-2: Caractérisation des fonctions de contrainte 3.4.2 Données physiques à caractère dimensionnant 3.4.2.1 Estimation de la vitesse de rotation limite d'une turbine en fonctionnement Les caractéristiques de l'évolution de la puissance et du couple moyens,8 fournie par une turbine en fonction du paramètre d'avance λ, décrivent globalement des courbes en cloche (figure 3-22). La puissance et le couple atteignent progressivement un maximum avec l'augmentation du paramètre d'avance. Le correspondant à la puissance maximum est appelé . A noter que le couple et la puissance atteignent leur valeur maximum, pour des différents, mais néanmoins assez proches. 8 Valeurs moyennes : moyenne des valeurs calculées sur un ou plusieurs tour de turbine 78 Instrumentation du tunnel hydrodynamique : définition du besoin Après un palier plus ou moins marqué, ces valeurs diminuent pour atteindre une valeur nulle. Ce point particulier est appelé point d'emballement. Il correspond { la vitesse de rotation maximum atteinte par une turbine pour une vitesse amont donnée. A ce point de fonctionnement précis, il existe sur un tour un équilibre entre le travail mécanique produit par le couple résultant des effets de portance et l'énergie dissipée d'une part au sein du fluide et d'autre part { l'interface des pièces solides en mouvement. Figure 3-22 : Evolution de référence du couple moyen d'une hydrolienne en fonction de la vitesse de rotation [Antheaume, 2007]. On a estimé la vitesse d'emballement d'une turbine type Darrieus droite placée en écoulement infini pour une vitesse amont de 3 m/s. Cette valeur correspond à la valeur maximum pouvant être atteinte { l'entrée de la section d'essai. D'après la courbe de couple en fonction de la vitesse de rotation (Figure 3-22), issue des premiers travaux d'Antheaume [2007], on atteindrait des vitesses de l'ordre de 120 rad/s. A partir de ce résultat, l'objectif de pouvoir atteindre 150 rad/s avec la balance d'effort a été fixé (env. 1430 tours/min), soit une marge de 20% par rapport aux estimations. 3.4.2.2 Estimation du niveau maximum des efforts hydrodynamique s s'appliquant sur une turbine L'estimation du chargement de la turbine s'est révélée indispensable pour deux raisons : (1) pour dimensionner la structure de la balance et (2) pour définir le type de capteur d'effort à employer. Trois grandeurs, caractérisant chacune les six composantes du torseur des efforts hydrodynamiques, ont été exploitées : (1) la valeur moyenne maximum, (2) les fluctuations autour de cette valeur ainsi que (3) la fréquence d'évolution typique. Considérons tout d'abord les résultats de simulations concernant les 3 composantes principales utilisées pour la caractérisation des turbines : le couple utile 79 Elaboration du cahier des charges de l'instru mentation du tunnel hydrodynamique (ou moment selon l'axe de rotation), l'effort de traînée selon la direction de l'écoulement ainsi que l'effort de traînée transverse à la direction de l'écoulement. Cette simulation concerne une turbine de type Darrieus droite, placée dans un écoulement 2D infini, dont la vitesse caractéristique correspond au maximum atteinte dans la section d'essai, à savoir 3 m/s.  Couple utile La valeur maximum de couple est atteinte bien avant la vitesse de rotation co rrespondant à l'emballement. Les simulations numériques donnent une valeur moyenne de couple maximum à une vitesse de rotation de 77rad/s, soit . Figure 3-23 : Caractéristique de couple pour un tour. La figure 3-23 présente la caractéristique de couple obtenue pour un tour de turbine. On retiendra : - La valeur maximum de : La valeur minimum de : Le delta : La valeur moyenne de : 2.7 Nm La fréquence d'évolution de :  Efforts de traînée suivant l'écoulement ⁄ , et transverse à celui-ci L'effort global de traînée dans le plan de l'écoulement est décomposé en deux entités : un effort selon la direction de l'écoulement et un effort transverse . Ces efforts atteignent une valeur maximum { l'emballement. En effet, plus les pâles ont une vitesse de rotation importante, plus le fluide a tendance à contourner l'hydrolienne, et plus les efforts de traînée sont importants. Celle-ci peut être 80 Instrumentation du tunnel hydrodynamique : définition du besoin dans ces conditions être assimilée en quelque sorte à un cylindre plein placé dans l'écoulement. La vitesse de rotation { l'emballement est ici de l'ordre de 120 rad/s, soit . Figure 3-24 : Evolution de référence des efforts transverses développés par une turbine La figure 3-24 présente les caractéristiques des efforts tour de turbine. On retiendra en ce qui concerne : - La valeur maximum de : La valeur minimum de : Le delta : La valeur moyenne de : La fréquence d'évolution de Et en ce qui concerne - : ⁄ : ⁄ et obtenues pour un : La valeur maximum de : La valeur minimum de : Le delta : La valeur moyenne de : La fréquence d'évolution de Il reste encore 3 composantes secondaires qu'il convient d'évoquer : l'effort axial ainsi que les moments de basculement et . Le torseur des efforts hydrodynamiques appliqué sur une turbine sera alors entièrement défini. 81 Elaboration du cahier des charges de l'instrumentation du tunnel hydrodynamique  Effort axial Certaines turbines sont, de part leur géométrie particulière, susceptibles de développer un effort dirigé selon leur axe de rotation (appelé effort axial ). En premier lieu, ont été considérés les 3 types des turbines pouvant être testées dans le tunnel hydrodynamique : les turbines Achard, Darrieus et Gorlov : - - Les turbines Achard présentent une symétrie par rapport au plan médian. Cela a pour conséquence d'annuler l'effort axial. Seul un écoulement à gradient de vitesse vertical non nul, ou encore des défauts géométriques, pourraient engendrer un effort axial. De plus, celui-ci serait très vraisemblablement très faible. Les turbines à pales droites, ont la particularité de ne pas développer d'effort axial. Les turbines Gorlov, dont les pales forment chacune une portion d'hélice, développent un effort axial. Selon le type de l'hélice (dextre ou sénestre) et le sens de rotation, l'effort peut être dirigé dans un sens ou dans l'autre. Les simulations numériques disponibles au début de cette thèse, partaient de l'hypothèse d'un écoulement bidimensionnel autour d'une portion de pale droite. Le plan de l'écoulement étant alors défini comme étant normal { l'axe de rotation. Dans ces conditions, l'effort axial ne peut pas être calculé. Ces efforts ont été estimés par un calcul analytique, que l'on retrouve dans le paragraphe ci-dessous. Définition de la géométrie d'une turbine Gorlov, repérage On considère une turbine à pales, de hauteur et de rayon caractéristique . Les pales sont définies par une succession de sections élémentaires de profil d'aile normalisée, de hauteur , de centre , de corde et d'épaisseur maximum (Cf. 2.1.1.1). Les centres I i décrivent une portion de courbe hélicoïdale, définie par le rayon et l'angle d'hélice . La projection de cette portion de courbe sur l'axe donne un segment de droite de longueur (Figure 3-25). On définit trois repères successifs : repère fixe, ⃗⃗⃗⃗ ⃗⃗⃗⃗ défini à ⃗ ⃗ ⃗ défini à partir de partir de par la rotation d'axe et d'angle et par la rotation d'axe ⃗⃗⃗⃗ et d'angle β (Figure 3-25). La portion d'hélicoïde a pour équation paramétrique dans : ( 3.7 ) { 82 Instrumentation du tunnel hydrodynamique : définition du besoin Figure 3-25 : Repère pour l'éstimation de l'effort axial développé par une turbine Gorlov. (Vues de face et de dessus) Définition de l'écoulement autour d'une pale L'écoulement est supposé permanent, incompressible, le fluide homogène. A l'amont de la turbine la vitesse des particules de fluide est considérée égale { ⃗⃗⃗ La vitesse relative du fluide par rapport à une pale est alors donnée par : ⃗⃗⃗ ⃗⃗⃗ ( 3.8 ) ⃗⃗⃗⃗ Cela suppose que l'écoulement n'est pas perturbé par le passage du fluide, hyp othèse qui n'est pas vérifiée en réalité, mais suffisante en première approche. Calcul de l'effort axial Pour calculer l'effort axial, la pression dynamique du fluide a été exprimée en chaque point , correspondant au bord d'attaque du profil d'une section de pale: ( 3.9 ) ⃗ étant le vecteur vitesse incidente du fluide, normal à une surface taire (de normale ⃗ : figure 3-26). On définit par rapport à ⃗ , vecteur normal à : ( 3.10 ) ⃗⃗⃗ ⃗ 83 Elaboration du cahier des charges de l'instrumentation du tunnel hydrodynamique Le fluide, dont la pression dynamique est , exerce sur l'élément de surface effort élémentaire ⃗⃗⃗⃗⃗ . Cette surface se définit par: un ( 3.11 ) Figure 3-26 : Définition de l'élément infinitésimal de surface dS Cette surface étant inclinée d'un angle par rapport à la verticale, on obtient un effort élémentaire ⃗⃗⃗⃗⃗ , dirigé selon l'axe : ( 3.12 ) ⃗⃗⃗⃗⃗⃗ L'effort total ⃗⃗⃗ , développé par une pale est donc égal à : ⃗⃗⃗ ∫ { [ ( 3.13 ) Et : ] [ ] Avec : 84 ( 3.14) } Instrumentation du tunnel hydrodynamique : définition du besoin Cette approche analytique, bien que très élémentaire, permet d'avoir une idée sur l'ordre de grandeur de la valeur de Il faut pour cela considérer les caractéristiques géométriques de la turbine présente au laboratoire, afin de procéder à l'application numérique. Les caractéristiques de cette turbine sont détaillées dans le tableau 3-3 ci dessous: Epaisseur du profil Hauteur Rayon Angle d'hélice Nombre de pales 0.009 m 0.175 m 0.0875 m 19.3 ° 3 Tableau 3-3 : Définition de la turbine Gorlov Il reste { déterminer les conditions de vitesse et d'écoulement. L'effort augmentant avec la vitesse de rotation et la vitesse amont , il a été choisi pour ces deux variables les valeurs extrêmes, qui sont respectivement pour et : et . Il en résulte la figure 3-27 qui indique le niveau d'effort axial développée par ce type de turbine : Figure 3-27 : Evolution de l'effort axial sur un tour dans le cas d'une turbine Gorlov On retiendra, en ce qui concerne l'effort axial développé par la turbine Gorlov du L.E.G.I, et selon nos hypothèses de calcul, les ordres de grandeur suivants : - La valeur moyenne calculée de ∑ : Un niveau quasi constant La valeur de ∑ retenue pour le dimensionnement de :  Moments de basculement Les turbines de type Achard ou Darrieus, du fait de leur géométrie particulière, n'engendre { priori aucun moment de basculement. 85 Elaboration du cahier des charges de l'instrumentation du tunnel hydrodynamique En ce qui concerne la turbine de type Gorlov, la variabilité angulaire des efforts axiaux développés par chacune des pales (Figure 3-27), est équilibrée par les moments de basculement et . Comme lors de l'estimation de l'effort axial effectuée précédemment (et faisant intervenir les mêmes hypothèses simplificatrices), on montre que ces moments restent de l'ordre de quelques Nm. Un moment de basculement global 9 égal à a été choisi pour le dimensionnement, valeur qui en pratique ne devrait pas être dépassée.  Fréquence d'évolution des efforts Les efforts hydrodynamiques évoluent de façon périodique. En effet, si l'intensité des efforts induits par une pale est fonction de sa position angulaire, l'effort gl obal dû aux pales que comporte une turbine, est donc périodique. L'objectif d'effectuer des mesure jusqu'{ une vitesse de rotation de a été fixé. Cela correspond à une fréquence d'évolution des efforts de 72 Hz et de 120 Hz, pour des turbines équipées de respectivement 3 et 5 pales. 3.4.3 Précision des mesures L'objectif général des mesures est d'obtenir l'évolution des différentes grandeurs physiques permettant de caractériser le fonctionnement d'une hydrolienne en fonction de la position angulaire des pales. Les tableaux de caractérisations des fonctions (Cf. § 3.4.1.2), comportent des objectifs en termes de précision de mesure. Trois critères définissant la « précision » des mesures ont été retenus, à savoir : (1) l'erreur commise sur le niveau mesuré, (2) la résolution (i.e. le nombre d'acquisitions par révolution de turbine, qui correspond en fait à la fréquence d'acquisition), ainsi que (3) le décalage temporel pouvant exister entre les différentes grandeurs physiques d'une même série 10 (ou autrement dit le « niveau de synchronisme »). De manière générale, les 2 derniers critères devront correspondre aux valeurs suivantes : - Le décalage entre les grandeurs physiques acquises ne doit pas dépasser l'équivalent d'un décalage angulaire de 1°. - La fréquence d'acquisition doit correspondre au minimum à une mesure tout les degrés. Le tableau 3-4 regroupe les objectifs de mesure. Ces valeurs, qui ont été retenues après une phase de consultation des acteurs du projet, ne sont données qu'{ titre indicatif. Ce point sera développé par un bilan sur les incertitudes de mesure dans le chapitre 6. Moment de basculement global : défini à partir de et . √ Théoriquement, l'acquisition d'un ensemble de variables physiques à un temps t se fait simultan ément. En réalité il peut exister un certain décalage temp orel dans une même série. 9 10 86 Instrumentation du tunnel hydrodynamique : définition du besoin Traînée selon l'écoulement Valeur maximum Fréquence dévolution maximum (Hz) 300 N 58 / 95 Précision (% de la valeur mesurée) +/- 5% Traînée transverse à 100 N 58 / 95 +/- 5% l'écoulement Couple utile 4 Nm 58 / 95 +/- 5% Effort sur l'axe de rotation 100 N Non déterminant Non déterminant Moments de basculement 10 Nm 58/95 Non déterminant Tableau 3-4 : Synthèse concernant les objectifs en terme de précision de mesure sur les efforts 87 Instrumentation du tunnel hydrodynamique : définition du besoin 88 Développement de la balance de mesure d'effort à six composantes 4 Développement de la balance de mesure d'effort à six composantes Dans ce chapitre, le développement du système de mesure d'effort, appelé balance de mesure des efforts, est exposé. Ce système est central dans l'instrumentation du tunnel hydrodynamique. Après avoir défini les besoins expérimentaux (Cf. § 3.4), une recherche bibliographique concernant les systèmes de mesure a été effectuée. Elle a permis de cibler le système pouvant répondre à nos attentes et a permis de définir l'architecture de l'instrumentation qui semblait la plus adéquate. Après une étape de synthèse, la conception proprement dite de la balance de mesure est présentée à la fin de ce chapitre. 4.1 Recherche et analyse des systèmes existants Le développement de la balance de mesure d'effort, devant répondre à de multiples critères et contraintes, s'est appuyé sur le retour d'expériences de systèmes existants. Les besoins concernant la mesure de force sont très courants, que ce soit dans l'industrie ou dans les laboratoires de recherche. En témoignent, pour ne citer que deux exemples, les applications destinées à la mesure des efforts de coupe en usinage, ou encore les plateformes biomécaniques pour l'analyse du mouvement et de la marche. Dans les paragraphes suivants sont exposés les systèmes se rapprochant de notre application, et qui de ce fait, ont orienté la conception de la balance. 4.1.1 Equipement de mesure de couple pour le test de turbine Darrieus Shiono, et al. [2000] ont développé un dispositif expérimental permettant de tester une turbine de type Darrieus en canal hydraulique (Figure 4-1). Les turbines testées ont un diamètre de 300mm pour une hauteur de 200mm. Elles comportent 1, 2 ou 3 pales. Dans ce dernier cas, 8 solidités différentes ont été testées entre 0.108 et 0.537. Le profil de pale utilisé est un NACA. Le dispositif est monté sur un canal à surface libre, ce qui évite l'utilisation d'un joint d'étanchéité. La vitesse incidente du fluide varie de 0.6 m/s { 1.4 m/s. La liaison pivot, entre l'arbre de la turbine et le bâti, est réalisée au moyen de roulements. Un couplomètre est monté en série sur la ligne d'arbre, intercalé entre la turbine et un frein électromagnétique. Il n'est pas fait usage de dispositif de régulation de vitesse. En effet, pour les essais, la turbine est laissée libre en rotation. Elle atteint alors sa vitesse d'emballement à un léger écart près, dû aux frottements mécaniques s'exerçant sur l'arbre. Un couple antagoniste est alors appliqué, qui est augmenté par palier par le biais d'un frein électromagnétique, jusqu'{ obtenir la vitesse de rotation 89 Recherche et analyse des systèmes existants recherchée. Les auteurs rapportent les caractéristiques de couple, puissance et rendement en fonction du nombre de pales et de la solidité. Des mesures instantanées de couple sont aussi présentées. Ce dispositif expérimental ne répond que partiellement à nos attentes. Les points suivants peuvent être mentionnés : - - - 4.1.2 Il n'est pas fait état des couples Figure 4-1 : Equipement expérimental de frottement s'exerçant sur pour le test de turbines Darrieus l'arbre, qui peuvent nuire { la précision, ou fausser les mesures. Cette question qui peut à priori être éludée dans ce cas précis, est en revanche primordiale dans notre cas. En effet, la configuration de la veine d'essai nécessite la présence d'un système d'étanchéité, qui, selon sa nature, peut constituer une source de frottement non négligeable. L'absence de système de régulation dynamique de l'arbre peut entrainer des difficultés à imposer une vitesse de rotation constante à la turbine. Cela peut être un facteur limitant pour estimer le couple instant ané à une vitesse donnée. Dans tous les cas, des mesures précises de la vitesse de rotation et de l'accélération de l'arbre s'avèrent indispensables afin de corriger d'éventuels effets dynamiques. La mesure des efforts constitue un de nos objectifs principaux. Or, cette application ne comporte pas de dispositifs permettant cette mesure. Balance de mesure d'effort Cet instrument a été développé au CERG-Alstom 11 de Grenoble. Il s'agit d'un système de mesure { 5 composantes, permettant d'analyser les efforts s'exerçant sur la roue { aubes d'une turbomachine. Seul le couple selon l'axe de rotation n'est pas mesuré. Pour guider l'arbre en rotation, un palier hydrostatique est utilisé (Figure 4-2). Ce palier est muni de deux cônes inversés sur la partie tournante (rotor). Une partie fixe (stator) entoure le rotor. Le stator est muni de 8 chambres disposées diamétralement et longitudinalement (Figures 4-2 & 4-3) et alimentées chacune par une source de pression. Le jeu existant entre le stator et le rotor laisse au fluide la possibilité de s'échapper vers l'extérieur par des espaces annulaires latéraux. Le principe de guidage est le suivant. Si par exemple on applique un effort radial sur le rotor en direction de la chambre 1, l'espace annulaire permettant l'évacuation du fluide de cette chambre va se réduire et limiter ainsi le débit de sortie du fluide. La pression va alors augmenter dans cette chambre, jusqu'{ compenser l'effort appliqué. Il en va de même pour les 7 autres chambres, ce qui pe rmet de « sustenter » en quelque sorte l'arbre sur un lit fluide, tout en évitant la 11 CERG : Centre d'Etude et de Recherche de Grenoble. Site web : www.cerg-alstom.com 90 Développement de la balance de mesure d'effort à six composantes transmission d'un couple de l'arbre au rotor. On réalise ainsi un guidage en rotation d'un arbre avec un minimum de frottement. Figure 4-2 : Schéma de principe d'un palier hydrostatique : coupe longitudinale Figure 4-3 : Schéma de principe d'un palier hydrostatique : coupe transversale Il est alors possible de remonter aux efforts appliqués sur l'arbre par la mesure des pressions internes dans les chambres. Huit niveaux de pression indépendants sont mesurés, pour résoudre un système comportant 5 inconnues, qui physiquement correspondent à 3 forces et 2 moments. En revanche, il n'est pas possible avec ce système de remonter au couple fourni par la turbine. Un rapport communiqué par la société Alstom [Chantrel, 2005] décrit la mise au point de ce dispositif. Sur le plan d'ensemble (Figure 4-4) on aperçoit la turbine montée sur son arbre. On distingue 4 chambres de pression et les orifices d'amené du fluide. Chaque chambre est équipée d'un capteur de pression piézoélectrique, auquel sont adjoints 6 manomètres de mesure de pression différentielle. Après montage, étalonnage et test de cette balance, les constats sont les suivants : - le palier hydrostatique permet une mesure des efforts avec une bonne précision et une bonne reproductibilité, - la fréquence de résonnance après excitation axiale est élevée, de l'ordre de 750 Hz. Il n'y a pas de conclusion quant { la résonnance sous excit ation radiale, - les incertitudes de mesure traduites en terme d'effort, sont de l'ordre de quelques newtons, - la mesure des cinq inconnues évoquées plus haut est possible, - les résultats sont fortement dépendants de la phase d'étalonnage, qui doit être menée avec rigueur. 91 Recherche et analyse des systèmes existants Figure 4-4 : Plan d'ensemble du palier hydrodynamique et de la turbine 4.1.3 Système pour l'Usinage à Grande Vitesse En UVG12, il est primordial de connaitre les efforts de coupe afin de caractériser en continu la qualité de l'usinage. Les travaux de Sylvain Auchet [2004] ont mis en évidence la possibilité de mesurer ces efforts lors d'une opération de fraisage par un système fondé sur des paliers magnétiques actifs. Les broches 13 de fraiseuse destinées { l'UGV sont habituellement équipées de paliers magnétiques qui font office de liaison pivot et d'un moteur électrique intégré qui transmet la puissance nécessaire { l'outil de coupe. Cette technologie permet d'obtenir des vitesses de rotation très élevées (supérieures à 20000trs/min). La rigidité du palier est considérable, permettant d'atteindre une grande précision lors de l'opération d'usinage. 12 UGV : Usinage à Grande Vitesse. On parle d'UGV, lorsque la vitesse de coupe est grande : par exemple supérieure à 600 m/min pour l'acier. 13 Une broche de machine outils est composée d'un arbre tournant muni d'un porte outil permettant le montage des outils de coupe. 92 Développement de la balance de mesure d'effort à six composantes Figure 4-5 : Schéma de principe d'un palier magnétique actif [Auchet, 2004] La figure 4-5 permet de saisir le principe du palier magnétique. Le rotor est muni d'un revêtement magnétique. Des bobines fixes, parcourues par un courant électrique, sont placées autour de l'arbre qui est maintenu en position sous l'effet des champs magnétiques. Il n'y a donc pas de contact entre les pièces mobiles et fixes. Après l'application d'un effort sur l'arbre, celui-ci se déplace dans la direction opposée { celle de l'effort. Des capteurs de position détectent ce déplacement. Ils envoient alors des signaux qui permettent de modifier le champ magnétique par l'intermédiaire des bobines. L'arbre revient dans sa position initiale. A partir des signaux de mesure de position, un tel système permet d'asservir la position d'un arbre en ajustant les tensions d'alimentation des bobines électriques. Figure 4-6 : Vue éclatée du palier magnétique actif [Auchet, 2004] Sur la figure 4-6, on aperçoit les éléments constitutifs du palier magnétique : il est composé de 2 paliers magnétiques radiaux pour le guidage en rotation, d'un palier magnétique axial faisant office d'arrêt en translation ainsi que d'un moteur électrique. Il s'agissait ici de démontrer la possibilité d'utiliser l'électronique de l'asservissement de position et de vitesse de rotation de l'arbre, pour mesurer les efforts et les déplacements de l'outil de coupe, lors d'une opération de fraisage. A l'issue de ses travaux, l'auteur démontre la faisabilité de cette méthode grâce à l'acquisition des différentes tensions d'alimentation du palier. Il souligne néanmoins les difficultés de mise en oeuvre d'un tel système de mesure. 93 Recherche et analyse des systèmes existants 4.1.4 Système de mesure à platine dynamométrique Ce système permet de mesurer les efforts s'appliquant sur un platine { l'aide de capteurs à jauges de déformation, placées ici sur des anneaux. La platine repose sur ces anneaux (ou plots de mesure), eux même montés sur une base considérée comme fixe et infiniment rigide. On utilise en général 4 plots de mesure, disposés aux 4 coins de la platine. Dans ses travaux, Korkut [2003] a développé une platine dynamométrique capable de mesurer 3 composantes d'efforts lors d'une opération de fraisage. La pièce est bloquée sur la platine (Figure 4-7). Les anneaux ont été dimensionnés pour résister { des efforts allant jusqu'{ 4500N. Sans masse ajoutée sur la platine, l'auteur annonce une première fréquence propre légèrement inférieure à 200Hz. Malheureusement, pour notre application, la bande passante de ce système s'avère trop faible, d'autant que la masse des éléments susceptibles d'être montés sur la platine est importante. Dans les applications de mesure d'effort 4-7 : Platine de mesure à anneaux en fraisage, il est courant d'utiliser des Figure pour l'étude des efforts de coupe en capteurs piézoélectriques, qui présentent fraisage une rigidité plus importante que des anneaux métalliques. 4.1.5 Système mécanique à jauges de contrainte Le système de mesure développé par Guittet [2005], apparait comme une première tentative, dans le cadre du programme HARVEST, pour tester des maquettes de turbines à flux transverse dans le tunnel hydrodynamique du L.E.G.I. Ce système de mesure a donné lieu { ce qui constitue aujourd'hui une balance de mesure de première génération. La turbine est guidée en rotation grâce à un boitier à roulements monté sur une plateforme. Cette plateforme possède 3 degrés de liberté indépendants par rapport à la veine d'essai: 3 translations selon les axes , et , réalisées chacune par une glissière à billes (Figure 4-9). Pour éviter la libre translation de la plateforme selon ces 3 axes, trois capteurs de force de marque TME (Figure 4-8) font office de butée, et sont donc soumis (au frottement près) aux efforts de traînée imposés à la turbine. 94 Développement de la balance de mesure d'effort à six composantes Figure 4-8 Capteur de force TME : traction-compression. Figure 4-9 Système de mesure d'effort par capteurs à jauges de contrainte. Une « charge », placée en extrémité d'arbre, est utilisée pour ajuster la vitesse de rotation de la turbine. Un couplomètre, placé en série entre la turbine et la « charge », permet de mesurer le couple (Figure 4-11). La « charge » utilisée est un moteur pas à pas. Pour obtenir la vitesse de rotation désirée, on ajuste le courant d'alimentation du moteur. Ce système de mesure d'effort (Figure 4-10) permettait en principe la mesure de quatre composantes d'efforts, { savoir trois efforts selon trois directions perpendiculaires, ainsi que le couple délivré par une turbine. Il n'a pas atteint tous les objectifs visés initialement. Après de premiers essais sur des turbines de type Darrieus et Gorlov, les constats suivants ont pu être établis : - - Le moteur pas { pas s'est avéré peu adapté { la régulation de la vitesse de rotation des turbines. Associé à une commande en couple, sans asservissement, il pouvait difficilement imposer une vitesse de rotation stable. Des joints de transmission ont été utilisés pour assurer l'accouplement entre l'arbre, le couplomètre et le moteur pas à pas afin de régler les difficultés posées par l'alignement des différents éléments. En contrepartie, les efforts de torsions engendrés sur les joints de transmission induisent des couples résiduels, qui viennent s'ajouter au couple fourni par l'hydrolienne. La précision de mesure du couple s'en trouve ainsi fortement altérée. Le joint d'étanchéité engendre un couple de frottement parasite, qui n'est pas mesurable avec précision. La gamme de mesure du couplomètre n'est pas adaptée au niveau de couple fourni par les turbines. Les premiers essais ont montré une grande variabilité de la norme des efforts de traînée s'appliquant sur la turbine. La fréquence d'évolution ca 95 Recherche et analyse des systèmes existants - - ractéristique étant liée à la vitesse de rotation de la turbine. Ce point, sousestimé lors de la conception, a eu plusieurs conséquences : (1) la détérioration prématurée des roulements, (2) une vibration présentant des amplitudes importantes, faussant les mesures d'efforts, en l'absence de correction dyFigure 4-10 Mesure du Figure 4-11 Mesure du namique. couple et commande couple et commande L'association glissièrecapteur d'effort (Figure 4-9) n'est pas idéale pour cette application. En effet, les glissières semblent dissiper une partie des efforts, que l'on peut difficilement quantifier. De plus, le jeu nécessaire à leur fonctionnement, diminue la rigidité du système. Le retour d'expérience de l'utilisation de la balance d'effort de première génération a toutefois apporté de précieuses informations qui ont été intégrées afin de définir au mieux la conception de la balance, développée au cours de cette thèse. 4.1.6 Synthèse Le tableau 4-1 permet une évaluation des systèmes présentés ci-dessus, selon 6 critères qui ont été choisis comme les plus pertinents : - le nombre de composantes d'effort mesuré, idéalement 6, - la précision de la mesure, - la présence, ou non d'un système de commande d'arbre, intégré au système, - la bande passante de la mesure, compte tenu de la forte variabilité temporelle des efforts, - les difficultés de mise en oeuvre, qui conditionnent le temps de mis au point nécessaire avant utilisation, - le coût. Il ressort de ce dernier tableau, que ce sont les systèmes mis en place pour la m esure des efforts en usinage à grande vitesse, qui répondent le mieux à nos exigences. En effet, ces systèmes ne comportent aucun point rédhibitoire au regard des critères d'évaluation, contrairement aux 4 autres systèmes. Une platine dynamométrique à capteurs piézoélectriques a donc été adoptée. Elle doit permettre, par une mesure globale d'efforts, d'établir le torseur des efforts hydrodynamiques et par conséquent de caractériser les performances des turbines. 96 Développement de la balance de mesure d'effort à six composantes Composantes mesurées Balance de mesure [Shiono, et al., 2000] Balance de mesure (Alstom) Broche instrumentée Système à glissières et à jauges de contrainte Platine dynamométrique Couple sur l'arbre 3 efforts + 2 moments (Sauf couple sur l'arbre) 6 3 efforts + Couple sur l'arbre De 3 à 6 composantes Précision de mesure ++ Système d'asservissement de l'arbre Frein électromagnétique Bande passante Mise en oeuvre Coût Non communiquée ++ ++ ++ Charge à placer sur la ligne d'arbre ++ -- -- ++ Intégré ++ -- + Charge à placer sur la ligne d'arbre - + ++ Charge à placer sur la ligne d'arbre ++ (si capteurs piézoélectriques) + + + ++ : efforts + : couple Tableau 4-1 : Synthèse des critères de choix des dispositifs de mesure d'effort. Dans le paragraphe 4.2 sont détaillés le principe de fonctionnement de ce type d'instrument, ses principales caractéristiques ainsi que son implantation sur le tunnel hydrodynamique. 4.2 Architecture de l'instrumentation du tunnel hydrodynamique L'instrumentation de la veine d'essai initiée par les travaux de Guittet [2005], a été complétée et redéfinie sur certains points. Un système informatique d'acquisition et de commande permettait l'acquisition des signaux grâce au logiciel LabVIEW installé sur un P.C. équipé d'une carte de commande et d'acquisition. Pour définir les conditions de l'écoulement, des sondes de température et de pression ont été rajoutées au débitmètre à hélice déjà présent. La figure 4-12 montre l'architecture choisie et les interactions entre les différents composants (en mauve l'existant et en vert les évolutions apportées). Les turbines sont montées sur l'arbre d'une génératrice de courant { aimants permanent (Cf. chapitre 5), qui permet l'asservissement de la vitesse de rotation, la mesure du couple et de la position angulaire. L'ensemble est posé sur la partie supérieure de la section d'essai par l'intermédiaire d'une platine de mesure piézoélectriques de marque Kistler (Annexe J). Celle-ci permet la mesure des 6 composantes des efforts s'exerçant sur la turbine. Les signaux sont ensuite conditionnés et transmis au système informatique qui recueille en outre les données issues de la génératrice de courant, du capteur de position (résolveur), des capteurs de pression, de température et de débit. Il permet enfin, d'imposer la vitesse de rotation de la turbine (Cf. chapitre 5). 97 Architecture de l'instrumentation du tunnel hydrodynamique Figure 4-12 : Synoptique de l'instrumentation de la veine d'essai 4.2.1 Platines dynamométriques à capteurs piézoélectriques Les dynamomètres à capteurs piézoélectriques présentent une bande passante élevée ainsi qu'un domaine de mesure étendu. Un capteur de force piézoélectrique est composé de deux paires de quartz sensibles au cisaillement pour la mesure des efforts radiaux Fx et Fy et d'une paire de quartz sensibles { la pression pour mesurer l'effort axial Fz, dont l'empilement est présenté sur la figure 4-13. L'anisotropie du quartz est utilisée pour obtenir soit un quartz sensible au cisaillement, soit un quartz sensible à la pression en fonction du plan cristallographique choisi pour la découpe du quartz. Les trois paires de quartz sont intégrées dans un boîtier qui forme le capteur piézoéle ctrique à trois composantes (Figure 4-14). Pour notre application, a été montée une génératrice de courant sur une platine suspendue sur quatre capteurs de force piézoélectriques (Figure 4-15). Les signaux recueillis au niveau des quatre capteurs sont des charges électriques qui sont accumulées au niveau de condensateurs de charge et ensuite transformées en tensions mesurables au moyen d'un amplificateur de charge. 98 Développement de la balance de mesure d'effort à six composantes Figure 4-13 : Empilement de quartz Figure 4-14 : Capteur 3 composantes Figure 4-15 : Jeu de 4 capteurs Le constructeur propose une estimation de la bande passante d'une platine suspendue sur quatre capteurs. Ainsi, la figure 4-16 donne l'évolution de la première fréquence propre du système monté sur un bâti fixe, en fonction de la di mension et du matériau de la platine. Figure 4-16 : Evolution de la fréquence propre d'une plaque sur jeu de capteurs (http://www.kistler.com) Pour notre système, cette fréquence serait d'environ 1600Hz. Il faut noter que le montage de la génératrice qui est pesante (environ 2 kg) fait baisser sensiblement cette fréquence. De plus, il est admis que lors des mesures, la fréquence des sollicitations ne doit pas dépasser le tiers de cette fréquence. Le cas échéant, il faut compenser les effets dus { l'accélération des pièces (correction « dynamique »). Une estimation par un modèle simplifié des fréquences propres de notre système de mesure est proposée au § 4.3.6. 4.2.2 Principe de mesure des efforts hydrodynamiques Chacun des quatre capteurs fournit trois signaux de force : l'une étant verticale (Fz) les deux autres contenues dans le plan (Fx et Fy). La platine, support de la génératrice est posée sur les quatre capteurs, qui délivrent donc au total douze signaux. Le sommateur, élément placé entre l'amplificateur de charge et les ca p- 99 Architecture de l'instrumentation du tunnel hydrodynamique teurs, a pour fonction de sommer certains signaux de force. On retrouve alors à l'entrée de l'amplificateur 8 signaux de force distincts, ce qui permet de réduire le nombre de composants électroniques. 4.2.2.1 Graphe des interactions Le tunnel hydrodynamique est en liaison complète avec le sol, considéré en première approximation comme référentiel galiléen local. Le tunnel hydrodyn amique peut donc être considéré lui aussi en première approximation comme référentiel galiléen. Les quatre plots de mesure, montés sur la partie supérieure du tunnel, sont chacun en liaison complète avec le tunnel. L'ensemble génératrice de courant et hydrolienne, est, par l'intermédiaire de la platine, en liaison complète avec les quatre plots de mesure. Globalement la liaison équivalente entre l'ensemble génératrice de courant et hydrolienne et le tunnel est hyperst atique d'ordre 18. Figure 4-17 : Graphe des interactions entre le système de mesure et son environnement Sur chacun des éléments mentionnés, agit la pesanteur, potentiel de force. Le pa ssage du fluide induit un champ de contraintes { la surface d'une hydrolienne. Le système d'étanchéité permet d'éviter la remonté d'eau { l'extérieur de la veine au niveau du passage de l'arbre de l'hydrolienne, au travers de la partie supérieure de la section d'essai (En pointillé sur la figure 4-17). 100 Développement de la balance de mesure d'effort à six composantes 4.2.2.2 Hypothèses associées au calcul du torseur des actions hydrodynamiques L'action résultante du fluide sur une hydrolienne est modélisée par un torseur d'efforts comportant six composantes (Cf. § 3.3.2). L'action de la pesanteur, invariante dans le temps est clairement identifiée et peut être annulée par une action sur les capteurs. Si en première approche on néglige l'effet du système d'étanchéité sur le système, on considère alors (cf. hypothèses ci-dessous) que l'action du fluide est « reprise » intégralement par les quatre capteurs. Les signaux récupérés traduisent alors directement l'action du fluide sur l'hydrolienne. La relation que l'on va établir entre le torseur des efforts hydrodynamiques et les efforts récupérés par les 4 capteurs est soumise aux hypothèses suivantes : - - - - - Système statique : Le sol est considéré comme référentiel galiléen. Or cela n'est pas toujours vérifié, le sol transmettant les ondes de choc (personnes en mouvement par exemple) ou se déformant lors d'un cycle de chargement-déchargement. Par extension le tunnel constitue lui aussi un référentiel galiléen. Cela conduit à appliquer le principe fondamental de la statique pour le calcul des efforts. Le cas échéant, des modèles de compensation accélérométrique [Auchet, 2004] peuvent s'appliquer { notre étude, et permettent de corriger les résultats expérimentaux en connaissant l'accélération instantanée du système. Eléments infiniment rigides : cette hypothèse implique plusieurs conséquences. Premièrement cela revient à négliger la déformation sous charge des pièces. La géométrie reste inchangée au court du temps. Cela revient aussi { négliger la dissipation d'énergie interne dans le système : un effort appliqué { l'hydrolienne est transmis intégralement aux plots de mesure. Liaisons infiniment rigides : comme précédemment, on considère les liaisons entre les différentes pièces infiniment rigides. Cela implique les mêmes conséquences que précédemment. Compensation des défauts géométriques : la platine, support de la génératrice de courant et de l'hydrolienne, repose sur quatre capteurs, assurant chacun une liaison complète. Cela se traduit lors du montage par des tensions internes dans les pièces, induites par les défauts géométriques de celles-ci. Ces tensions (contraintes) se traduisent par la mesure d'efforts « parasites » au niveau des capteurs. Ces efforts « parasites » sont annulés par shuntage des condensateurs de charges. Action du système d'étanchéité : les différents systèmes d'étanchéité dynamiques sont présentés en § 4.3.5. Les pertes énergétiques engendrées par ce système ont été réduites de façon à minimiser leur influence sur les mesures. Petits déplacements : Cette hypothèse, moins forte que l'hypothèse de rigidité infinie, permet d'assimiler un capteur à une liaison rotule, i.e. qui transmet trois forces, mais pas de moments. Couple développé par l'hydrolienne : Les turbines sont montées sur un arbre en liaison pivot avec le système de mesure. Cette liaison, au frottement près, ne transmet pas le couple développé par l'hydrolienne 101 Architecture de l'instrumentation du tunnel hydrodynamique au système. C'est donc par l'intermédiaire de la génératrice de courant, que le couple est transmis aux plots de mesure. Si l'on considère l'asservissement de la turbine et la liaison pivot parfaits (vitesse angulaire constante et frottements nuls), le couple développé par une hydrolienne est intégralement transmis aux plots de mesure. 4.2.2.3 Expression du torseur des actions hydrodynamiques à partir des signaux des capteurs Les équations issues du principe fondamental de la statique, appliqué à notre système, permettent d'exprimer le torseur des efforts hydrodynamiques (cf. paragraphe 3.3.2.1) en fonction de la valeur des efforts mesurés sur les quatre plots. On peut, d'après les hypothèses énoncées au paragraphe précédent, modéliser chaque capteur par une liaison rotule, qui transmet ainsi trois composantes de forces : , et (où i=14). Il vient donc 12 signaux de force. Pour éviter de manipuler un trop grand nombre de ces signaux, on additionne certaines de ces composantes d'effort grâce { un sommateur (Figure 4-18). Les longueurs et étant en réalité égales, elles sont notées par la suite . Figure 4-18 : Principe de la mesure par plots et repère local associé à la mesure On rappelle l'expression du torseur des efforts hydrodynamiques, exprimé au centre géométrique de la turbine et dans le repère associé aux mesures (paragraphe 3.3.2.1): ( 4.1 ) { Ramené au centre de mesure de la balance K, ce torseur devient: 102 Développement de la balance de mesure d'effort à six composantes { ‖⃗⃗⃗⃗⃗⃗ ‖ ( ( 4.2 ) ‖⃗⃗⃗⃗⃗⃗ ‖ ) Exprimé dans le repère associé à la platine (Figure 4-18), il prend la forme: ⃗⃗⃗⃗ { ‖⃗⃗⃗⃗⃗⃗ ‖ ⃗⃗⃗⃗ ⃗⃗⃗⃗ ( ⃗⃗⃗⃗ ‖⃗⃗⃗⃗⃗⃗ ‖ ( 4.3 ) ) ⃗⃗⃗⃗ ⃗⃗⃗⃗ On obtient finalement, pour une action mécanique (A.M.) appliquée en K : { ⃗⃗⃗⃗ ⃗⃗⃗⃗ ⃗⃗⃗⃗ ⃗⃗⃗⃗ ⃗⃗⃗⃗ ⃗⃗⃗⃗ ( 4.4 ) On obtient le système d'équations suivant (avec dans notre cas, et selon la figure 4-18, ): ( 4.5 ) { ( ) Si l'on considère maintenant que la seule action mécanique appliquée sur la platine est l'action du fluide sur la turbine (définie par le torseur ) on obtient alors le système suivant : ( 4.6 ) { ( ) 4.3 Conception et dimensionnement des éléments mécaniques de la balance de mesure Cette section présente une description complète de la structure de la balance de mesure d'effort avec la conception des principaux composants, ainsi que leur dimensionnement. La figure 4-19 présente une vue en coupe de la balance. La turbine (1) est montée sur l'arbre (3). On remarquera la présence d'un « demi » arbre inférieur (2) per- 103 Conception et dimensionnement des éléments mécaniques de la balance de mesure mettant la symétrie de l'écoulement par rapport au plan médian de la turbine. La liaison entre l'arbre (3) et la platine suspendue (4) peut être modélisée par une liaison pivot, d'axe . Technologiquement, cette liaison est réalisée par deux roulements à rouleaux coniques (5) et (6), montés en opposition. L'arbre (3) étant de grande longueur, il s'est révélé indispensable d'ajouter en bout un guidage en rotation supplémentaire, réalisé { l'aide d'un roulement { rouleaux cylindriques (7). On remarquera la génératrice synchrone (8), intercalée entre (6) et (7), qui fait partie du système d'asservissement de la vitesse de rotation de la turbine. Elle permet de convertir l'énergie mécanique fournie par la turbine en énergie éle ctrique. De même, on retrouve en bout d'arbre un résolveur (9), permettant de fournir les informations de position et de vitesse au système de régulation. Afin de permettre des études de mesure statique d'effort sur une turbine ou sur d'autres éléments montés sur la balance, il est possible de bloquer la rotation de l'arbre { l'aide d'un système de frette (10). L'ensemble {1, 2, 3, 5, 6, 7, 8, 9, 10} est monté sur la platine (4), cette liaison pouvant être modélisée par un encastrement. La platine (4) repose quant-à elle sur 4 plots (11) de mesure d'effort piézoélectriques (liaisons modélisées par des encastrements). La transmission des efforts de la turbine à la veine passent donc par ces plots (Cf. section précédente). Ces plots sont eux-mêmes montés sur la plaque supérieure (12) de la veine d'essai (liaisons modélisées par des encastrements). Cette dernière, pour le calcul des efforts, est assimilée à un solide indéformable qui constitue un référentiel galiléen. (Hypothèse vérifiée dans le chapitre 6). Pour permettre { l'arbre de traverser la plaque supérieure sans provoquer de remontée d'eau, on remarquera la présence d'un dispositif d'étanchéité (13), d écliné sur la figure 4-19 dans sa version sans contact. Les points suivants seront abordés dans l'ordre : - le chargement statique et dynamique de la structure, - le montage des turbines sur la balance, - le guidage en rotation de l'arbre-turbine, - les assemblages réalisant les liaisons complètes entre les éléments, - les systèmes d'étanchéité, - l'analyse modale de la structure, - les cotations et spécifications géométriques des pièces. 104 Développement de la balance de mesure d'effort à six composantes (10) (9) (7) (8) (4) (6) (5) (11) (12) (13) (3) (2) (1) Figure 4-19 : Vue en coupe de la balance de mesure d'effort 105 Conception et dimensionnement des éléments mécaniques de la balance de mesure 4.3.1 Chargement de la structure Dans la phase de conception des pièces composant la balance de mesure, la pr emière étape a consisté { rechercher le chargement de la structure, afin d'estimer le caractère dimensionnant ou non des valeurs obtenues.  Valeurs de chargement Les actions mécaniques exercées sur la balance de mesure sont de deux types (Figure 4-17) : - Les actions à distance, qui ici ne concernent que l'action de la pesanteur sur chacune des pièces. - Les actions de contact, qui regroupent le torseur des actions hydrodynamiques (cf. 3.3.2.4) ainsi que l'action du système d'étanchéité sur l'arbre. Les actions à distances ont été négligées. Leurs valeurs sont faibles par rapport aux critères de résistance des composants et présentent ainsi peu d'influence sur leur dimensionnement. L'action mécanique du système d'étanchéité sur l'arbre reste à priori très faible. Il reste donc uniquement les actions hydrodynamiques sur la turbine. On retiendra, les valeurs suivantes pour le torseur des actions h ydrodynamiques, réduit au centre géométrique de la turbine et écrit dans le repère : ( 4.7 ) { Tableau 4-2 : Efforts hydrodynamiques retenu dans le c.d.c.f. (En N et Nm) Ces valeurs (en N et N.m) correspondent aux cas les plus défavorables du point de vue de la structure. Elles présentent de fortes variations temporelles, dont l'amplitude et la fréquence sont indiquées au paragraphe 3.4.2.2.  Efforts internes L'assemblage des pièces composant la balance induit des contraintes internes qui peuvent être néfastes. Par exemple la platine, qui repose sur 4 plots, peut être soumis à ce type de contraintes (la modélisation de la liaison platine-plaque supérieure de la veine, fait apparaitre un degré de statisme égal { 18). La rotation de l'arbre peut quant { lui introduire des efforts « dynamiques » sur la balance qui sont plus ou moins importants (Cf. § 6.3), et évoluent en fonction de l'accélération angulaire ainsi que du carré de la vitesse angulaire . Pour minimiser ces effets, les éléments tournants ont subi un équilibrage dynamique et les roulements, qui guident en rotation ces éléments, répondent à des critères de préci- 106 Développement de la balance de mesure d'effort à six composantes sion élevés, de façon à ne pas introduire de faux-rond ou de désaxement. (Cf. § 6.3) D'une façon générale, la prise en compte des efforts internes dans la phase de d imensionnement de la balance s'est faite essentiellement en introduisant des exigences fortes sur le tolérancement des pièces. 4.3.2 Liaison arbre-turbine 4.3.2.1 Deux types de turbines à considérer Le cahier des charges précise que du point de vue de la liaison avec la balance de mesure, deux types de turbines différentes doivent être considérées : (1) les turbines à flasques (Figure 4-20) et (2) les turbines à moyeu central (Figure 4-21). Figure 4-20 : Turbine à flasques Figure 4-21 : Turbine à moyeu central Le centre de la liaison se trouve dans le premier cas au niveau du flasque supérieur, alors que dans le deuxième cas il se trouve au centre géométrique de la turbine. 4.3.2.2 Solution retenue et caractéristiques techniques La conception et la réalisation de la liaison arbre-turbine doivent répondre aux exigences suivantes :  une bonne précision du positionnement,  un chargement admissible suffisant,  une grande rigidité,  un temps de montage-démontage acceptable. 107 Conception et dimensionnement des éléments mécaniques de la balance de mesure Pour réaliser techniquement la liaison complète entre l'arbre de la balance et une turbine, un système de frettes (Figure 4-22), identique pour les deux types de turbine, a été utilisé. La mise en position se fait sur un appui plan et un centrage court. Arbre de la balance Pion Frette mâle Frette femelle Moyeu Arbre de symétrie Figure 4-22 : Vue en coupe de la liaison turbine-arbre Afin de pouvoir « caler » angulairement la turbine, l'arbre est muni d'un pion de positionnement qui vient s'insérer dans un trou ménagé sur les turbines au droit d'une pale. Pour permettre le passage rapide d'un type de turbine { l'autre, on dispose d'un jeu de deux ensembles {arbre ; palier ; génératrice ; capteur angulaire}, dont l'un possède un arbre court (pour les turbines à flasques) et l'autre un arbre long (pour les turbines à moyeu central). Les caractéristiques mécaniques et dimensionnelles de la liaison sont données en annexe (Annexe E ; réf. 018.001) 4.3.2.3 Vérification expérimentale du couple transmissible Il est primordial que lors d'un essai, il n'y ait pas de glissement entre les surfaces en contact de la liaison, ce qui engendrerait des mesures de couple et de puissance instantanées fausses. Pour vérifier expérimentalement le couple transmissible d'une telle liaison, sans la présence du pion de centrage, une clef dynamométrique a été utilisée. Le constat est que quel que soit le matériau utilisé pour la turbine (aluminium ou acier) le couple transmissible avant glissement est sup érieur à 75Nm, soit 15 fois supérieur au couple maximum défini dans le cahier des charges. 4.3.3 Guidage en rotation de l'arbre de la turbine La conception et la réalisation du guidage en rotation de l'arbre de la turbine doivent répondre -relativement au cahier des charges - aux exigences suivantes :  un chargement admissible suffisant,  une grande rigidité,  un contrôle des frottements,  une bonne précision du guidage, 108 Développement de la balance de mesure d'effort à six composantes  une durée de vie acceptable. Le montage de roulement retenu est présenté sur la figure 4-19. Deux roulements à rouleaux coniques de précision de marque SKF (33109/Q) ont été montés en O. Compte tenu de la longueur de l'arbre, un roulement { rouleaux cylindriques de précision SKF (NU203) a été adjoint au-dessus de la génératrice. La suite montrera que par rapport aux chargements admissibles, ces roulements peuvent paraitre surdimensionnés. Ce choix a été indispensable pour assurer la rigidité du montage et le bon contrôle des frottements.  Chargement admissible La modélisation cinématique du palier est présentée sur la figure 4-23 pour un montage correct des roulements, ce qui suppose l'existence et la bonne orientation d'un chargement axial minimal (Cf. Annexe G). Figure 4-23 : Modélisation cinématique du palier De ce fait, et pour parer à toute éventualité, deux cas de chargement des roulements seront considéré :  Cas 1 : le montage est correctement réalisé, ce qui permet de faire l'hypothèse que l'intégralité des efforts est reprise en B et en C.  Cas 2 : une erreur de montage entrainant un jeu de fonctionnement interne peut être envisagée. C'est le cas le plus défavorable : l'intégralité des efforts est reprise par A et par B et l'effort axial est dirigé selon ⃗⃗⃗⃗⃗ . Il est alors important de vérifier qu'il n'y a pas destruction du roulement A. Le chargement des roulements est estimé par l'application du principe fondamental de la statique { l'arbre, ce qui revient { la relation torsorielle suivante : ( 4.8 ) ̅̅̅̅̅̅̅̅̅ Les actions mécaniques extérieures considérées, s'appliquant sur l'arbre, sont : (1) les efforts hydrodynamiques transmis par l'hydrolienne { l'arbre (Cf. § 4.3.1), et (2) les actions des roulements sur l'arbre, selon les cas 1 ou 2. Le tableau suivant précise les efforts axiaux et radiaux maximums supportés par chaque roulement, déterminés par la résolution de l'équation torsorielle 4.8, et selon les cas 1 et 2. 109 Conception et dimensionnement des éléments mécaniques de la balance de mesure A B C O A B C Charges radiales maxi. : / Charges axiales maxi. : Charges radiales maxi. : Chargement des roulements : cas 1 Chargement des roulements : cas 2 O / Charges axiales maxi. : Tableau 4-3 : Chargements des roulements Ces chargements sont largement en deçà de la valeur des chargements maximums admissibles par les roulements. La durée de vie à 90%14 correspondante est donc largement supérieure { la durée d'utilisation souhaitée de l'instrument de mesure : (Cf. annexe G). Il est à noter que le type de chargement du palier ne permet pas un chargement correct des éléments roulants. Les constructeurs préconisent par expérience qu'en fonctionnement, au moins la moitié des éléments roulants doivent être chargés. Pour cela, on définit le paramètre de charge (Cf annexe H). On estime que la moitié des éléments roulants sont chargés lorsque . Or, d'après le tableau précédent, le facteur de charge est inférieur à 0.5 dans tous les cas ; les charges axiales étant faibles voire inexistantes. Il convient alors d'introduire un effort axial minimum permettant une meilleure répartition des efforts sur les éléments roulants. Cela constitue par ailleurs une condition nécessaire à l'obtention d'une rigidité suffisante, ainsi qu'un meilleur contrôle des frottements. (Cf. 6.2.2.1) Il faut une précharge minimale de 650N - d'après le chargement maximum estimé du palier -pour satisfaire le critère pour les deux roulements.  Rigidité Dans ce paragraphe est utilisée la théorie dite de Hertz, qui permet de relier le rapprochement de deux corps en contact en fonction de la géométrie du contact et des efforts au contact. Cette théorie peut être appliquée aux roulements, pour déterminer la rigidité du palier [Aublin, 1998]. La figure 4-24 présente un modèle du montage de roulements. Les centres de poussée des roulements se trouvent au point B et C : les torseurs respectifs des actions transmissibles par les roulements sont réduits à un glisseur en ces points. 14 90% des roulements soumis au chargement défini ont une durée de vie supérieure ou égale à la v aleur calculée. 110 Développement de la balance de mesure d'effort à six composantes Figure 4-24 : Modélisation cinématique du palier L'objectif de cette section est d'étudier la variation de la rigidité du montage de roulement en fonction de la précharge appliquée au montage. On pourra en estimer la variabilité en fonction des efforts appliqués sur l'arbre et proposer une valeur minimale de la précharge permettant d'assurer une rigidité optimale. Dans la suite de l'étude, l'hypothèse suivante est posée : l'arbre et le bâti sont considérés comme infiniment rigides et seule la déformation des roulements est prise en compte. Le problème se ramène à la définition des rigidités axiale ( ) et radiales ( ) de chaque roulement (Figure 4-25) Figure 4-25 : Modélisation de la raideur du montage La résolution de ce problème est exposée en annexe H. Un programme a été développé en Basic permettant d'automatiser les calculs. L'exploitation des résultats fait apparaitre les constats suivants :  Le chargement axial du palier entraine la charge d'un premier roulement et la décharge du second, ces roulements étant montés en opposition. Appliquer une précharge au montage permet d'éviter la décharge complète d'un des roulements et l'apparition d'un jeu interne. Dans notre cas la charge axiale extérieure appliquée reste faible (estimée à +/- 100N au maximum). La précharge doit être au moins de cette valeur. En outre, on remarquera que la rigidité axiale du montage peut être considérée comme constante tant que la force axiale n'entraine pas le décollement d'un des roulements. 111 Conception et dimensionnement des éléments mécaniques de la balance de mesure     La rigidité radiale de chacun des roulements dépend de la précharge et du facteur de charge . La rigidité radiale peut être considérée comme constante pour . On remarque une chute considérable de la rigidité pour . Il est donc préférable d'établir une précharge telle que pour tout chargement des roulements l'on ait un facteur de charge au moins supérieur à 0.5, ce qui correspond { l'application d'une précharge de 650N (déplacement axial correspondant de ). Pour avoir il faut appliquer une précharge de 850N (déplacement axial correspondant de ). En considérant à présent , on remarque que la rigidité évolue peu pour différentes valeurs de précharge : pour des valeurs de 650, 800 et 1000N, on obtient respectivement les rigidités radiales de , , , soit une variation de 6%. L'éloignement des centres des roulements permet une diminution de leur chargement axial, et permet une diminution concomitante de la précharge à appliquer. Mode d'application de la précharge La précharge a été appliquée lors du montage des roulements suivant deux méthodes, et cela de manière itérative :  Le modèle de calcul de rigidité permet d'accéder { l'effort appliqué sur le roulement en connaissant le déplacement de la bague intérieure par rapport { la bague extérieure du roulement. L'application de la précharge se faisant par serrage d'un écrou freiné (Cf. figure 4-19), il est possible d'imposer le déplacement (par l'intermédiaire de la valeur du pas du fil etage de l'écrou) et ainsi d'imposer l'effort de précharge.  Il existe une méthode de vérification de cette précharge. En effet, le con structeur propose un logiciel de calcul permettant de connaitre le couple de frottement d'un roulement en fonction de différents paramètres comme son type, la charge auquel il est soumis, la graisse utilisée, la température. Cette vérification ne peut se faire qu'après la période de rodage du roulement, les phénomènes de frottement étant plus importants dans cette phase.  Contrôle des frottements La connaissance des forces de frottements induits par les éléments roulants sur l'arbre est essentielle pour cette application. Cela conditionne la pr écision des mesures. D'ailleurs, la stratégie suivie ici a davantage consisté à contrôler ces forces qu'{ les réduire. Il sera ainsi montré au paragraphe 6.2.2 qu'une précharge suffisante des roulements est un préalable indispensable à ce contrôle.  Précision de guidage La précision du guidage en rotation de l'arbre de la turbine est un critère important dans notre cas. C'est en effet le seul élément tournant dans ce système, et qui par les effets dynamiques de la rotation, peut engendrer des efforts périodiques 112 Développement de la balance de mesure d'effort à six composantes sur la balance. Ces efforts ont une intensité limitée, mais présentent néanmoins une période d'évolution qui est du même ordre que la période d'évolution des efforts à mesurer : il n'est donc pas envisageable de les éliminer en filtrant les signaux de mesure. Ainsi, les effets d'un éventuel désaxement de l'arbre par une augmentation de la précision du guidage ont été limités. Dans cette application, la précision du guidage en rotation de l'arbre est fonction (1) des roulements utilisés, (2) de la rigidité de leur montage et (3) de la précision des portées sur l'arbre et dans les alésages. Le point (2) est traité ci-dessus, le point (3) au paragraphe 4.3.7, mais voit son effet limité lors de l'équilibrage de l'arbre. En ce qui concerne le point (1), le constructeur des roulements spécifie le critère de faux rond 15 du roulement assemblé, qui dans notre cas reste inférieure à 2O , par utilisation de roulement à tolérances réduites. 4.3.4 Liaisons complètes et transmission des efforts La transmission des actions mécaniques entre l'hydrolienne et les plots de mesure n'est pas directe et se fait selon le schéma de la figure 4-28 (Cf. aussi figures 4-17, 4-19 et 5-30). Figure 4-26 : modélisation de la raideur du montage Les liaisons boitier à roulements-platine, platine-plots, plots-support et boitier génératrice-boitier à roulements ont été réalisées par assemblages boulonnés. Elles ont fait l'objet d'études spécifiques concernant leurs rigidités. Il est en effet important de ne pas détériorer la rigidité du système de mesure en introduisant de la souplesse dans les liaisons. Le dimensionnement de ces liaisons complète s s'est donc fait vis-à-vis du critère de rigidité (ce qui a pour conséquence de surdimensionner la liaison vis-à-vis du critère de résistance) et par modélisation de l'assemblage selon la technique classique de Rasmussen [MASSOL, 1994]. Cette étude a permis :  d'orienter les choix concernant le nombre de vis, leur taille et leur classe de résistance,  de proposer un couple de serrage adéquate sans entrer dans les domaines plastique des différents matériaux en contact,  de déterminer la raideur de l'assemblage. 15 La valeur de faux rond correspond aux lieux de l'axe réel de rotation qui doit être contenu dans un cylindre de diamètre la valeur du faux rond, dont l'axe de révolution correspond à l'axe théorique de rotation. 113 Conception et dimensionnement des éléments mécaniques de la balance de mesure 4.3.5 Système d'étanchéité La conception et la réalisation du système d'étanchéité permettant le passage de l'arbre de la turbine dans la section d'essai doivent répondre aux exigences suivantes :  une étanchéité totale, compte tenu de l'écart de pression entre les deux milieux (section d'essai-milieu extérieur), les valeurs de cet écart retenues étant comprises entre -0.8 et +1bars,  la minimisation et le contrôle de la puissance dissipée par le système. En effet les valeurs de puissance dissipée par un éventuel contact joint-arbre ne doivent pas accroître les incertitudes de mesure d'effort et de couple au-delà des objectifs fixés dans le cahier des charges. Deux systèmes distincts ont ainsi été envisagés : (1) un système d'étanchéité dynamique en rotation, sans contact et (2) un système d'étanchéité dynamique en rotation, avec contact.  Système d'étanchéité dynamique en rotation, sans contact Ce premier type de système présente l'avantage de n'engendrer qu'une très faible dissipation d'énergie lors de la mise en rotation de l'arbre. Celle-ci est fonction essentiellement de la vitesse périphérique de l'arbre ainsi que de la viscosité du fluide à étancher : elle sera négligée pour cette application. Figure 4-27 : Vue en coupe du système d'étanchéité Le système est fondé sur la création de perte de charge entre l'arbre tournant et une partie fixe. Grace à la présence de chicanes sur cette dernière parti e [Idel'cik, 1986], il est possible de maximiser les pertes de charges en faisant varier certains paramètres géométriques [Annexe F], et ainsi de diminuer au maximum le débit de fuite du système d'étanchéité. Ce débit de fuite est capté dans un collecteur ou 114 Développement de la balance de mesure d'effort à six composantes règne une dépression établie par une centrale d'aspiration (figure 4-27). Le mélange air-eau provenant du système d'étanchéité est alors stocké dans une cuve. Notons que des bulles d'air peuvent pénétrer dans la section d'essai lorsque l'écart de pression milieu extérieur / section d'essai est négatif, ce système ne peut alors être utilisé.  Système d'étanchéité en rotation, { contact Ce système est interchangeable avec le premier. La partie fixe comporte un logement pour un joint à lèvre, qui permet une étanchéité totale, quel que soit l'écart de pression. Il souffre cependant de deux inconvénients :  l'introduction d'un couple de frottement, mais qui reste néanmoins quantifiable avec suffisamment de précision. (Cf. § 5.4 et 6.2).  la dissipation d'énergie par déformation du joint, lors de l'application d'une action mécanique sur l'arbre. Compte tenu de la grande rigidité de l'arbre et de son support, la flèche de l'arbre reste dans notre cas très limitée (les modèles numériques donnent une flèche sous charge de l'arbre de l'ordre de 2μm au niveau du joint). Les efforts induits restent alors très faibles. 4.3.6 Analyse modale de la structure  Intérêt L'intérêt de cette étude est de disposer d'un outil simple, permettant d'obtenir dans une phase de conception, une estimation des premières fréquences propres du système de mesure. Par itérations, cette analyse doit permettre d'orienter au mieux les choix concernant l'architecture du système de mesure vis-à-vis des critères géométriques, de masse et de rigidité des matériaux. L'objectif n'étant pas de définir avec précision les fréquences propres et modes propres associés, ne seront données que les fréquences propres critiques (i.e. les plus basses) correspondant au modèle associé { l'architecture retenue pour la balance. Connaissant les fréquences d'évolution des efforts s'appliquant sur la turbine, il convient de ne pas « exciter » un mode propre de la structure. C'est pourquoi, on cherchera à avoir la première fréquence propre strictement supérieur à la fréquence de la sollicitation. En pratique, il est admis que pour éviter des corrections dynamiques de la m esure [Auchet, 2004] et [Laroze, 2005], la première fréquence propre d'une balance de mesure d'effort doit être au moins 3 fois supérieure { celle mesurée. Les mouvements ne sont alors pas amplifiés par rapport au chargement statique de la structure : le facteur d'amplification dynamique est très proche de 1.  Hypothèses et modélisation La relation entre les efforts hydrodynamiques et les efforts mesurés par les plots est établie à partir les équations de la dynamique appliquées au système de mesure : 115 Conception et dimensionnement des éléments mécaniques de la balance de mesure ⁄ ( ( 4.9 ) ̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅ ) La liaison entre la plaque supérieure de la section d'essai (assimilée à un référentiel galiléen) et le système de mesure peut être modélisée par une liaison encastrement. On se ramène au cas statique et la relation torsorielle ( 4.9 devient : ( 4.10 ) ̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅ En première approche et pour une phase de pré-dimensionnement les hypothèses suivantes sont adoptées :  Linéarité et petits mouvements : les structures mécaniques n'ont pas un comportement rigoureusement linéaire. Dans le cas des petits mouvements, elles sont « linéarisables » autour d'une position privilégiée, qui est la position d'équilibre occupée au repos (en l'absence de sollicitations et d'après le théorème de Leujeun-Dirichlet : position qui correspond au minimum de l'énergie potentiel de l'ensemble mécanique). De plus, compte tenu de la rigidité de la balance ainsi que des faibles chargements vis-à-vis de ce critère, le cas des petits mouvements est bien vérifié. Le paramètre de mouvement devient donc : ( 4.11 )    Structure conservative : la déformation de la structure n'entraine pas de dissipation énergétique, ce qui correspond à un amortissement nul. Vibrations libres. Support du système considéré comme référentiel galiléen. L'écriture des équations de Lagrange, appliquées à un ensemble , permet d'obtenir les équations de mouvement de par rapport au référentiel d'étude. On part donc de la relation suivante : { [ ̇ ] } ̅⁄ ⁄ ⁄ ( 4.12 ) Comme l'ensemble matériel possède paramètres de mouvement indépendants , il est préférable de réécrire ( 4.12 ) sous la forme matricielle ( 4.14 ), qui, d'après les hypothèses adoptées, est réduite { l'expression suivante : ̿ ̈ ( 4.13 ) ̿ Il résulte donc un système d'équations différentielles linéaires où est un vecteur de dimension égale à la mobilité du système, dont les composantes sont les variations infinitésimales autour de la position d'équilibre. Les matrices ̿ et ̿ étant à coefficients constants, une résolution analytique du système par les techniques classiques est envisagée (Cf annexe I). On cherche en effet des solutions du type : ( 4.14 ) 116 Développement de la balance de mesure d'effort à six composantes Ce qui revient à réécrire ( 4.13 ) sous la forme : ̿ ( 4.15 ) ̿ Le système ( 4.15 ) n'admet de solutions (hormis la solution triviale si : ̿ ) que ( 4.16 ) ̿ L'équation ( 4.16 ) est le polynôme caractéristique du système qui est de degré en . Ce polynôme est bicarré en et les valeurs positives satisfaisant ( 4.16 ) sont appelées pulsations propre du système. Le système vibrera, après l'application de conditions initiales quelconques, suivant une fonction périod ique constituée de la somme des fonctions sinusoïdales de fréquences . La modélisation de la structure de la balance de mesure en vue de cette étude, est présentée sur la figure 4-28. Le solide 1 (platine suspendue) repose sur 4 appuis (les 4 plots de mesure). Le solide 2 (boitiers de la génératrice et des roulements) est en liaison complète avec 1. L'arbre est modélisé par deux solides : le solide 4 en liaison avec le solide 3, lui-même en liaisons avec le solide 2. Figure 4-28 : Modélisation de la structure de la balance de mesure par un ensemble de solide indéformables en liaison avec le bâti.  Propriété mécaniques des solides Une résolution analytique de ce problème permet d'obtenir un outil de prédimensionnement simple et efficace. Pour cela, il est nécessaire de connaitre : (1) les propriétés de masse et d'inertie des solides constituant l'ensemble mécanique 117 Conception et dimensionnement des éléments mécaniques de la balance de mesure et (2) la raideur des éléments de liaison entre les solides. Le logiciel de C.A.O. (SolidWorks) permet d'obtenir les valeurs recherchées au point (1). Concernant le point (2), il a été admis que tous les éléments mécaniques de la balance ainsi que leurs liaisons formaient un solide indéformable. A partir de ce point, il restait à estimer :  La raideur des plots de mesure (données constructeur)  La raideur du montage de roulement (Cf. section 4.3.3)  La raideur en flexion de l'arbre. Ce dernier étant de grande dimension, il a été jugé préférable de le modéliser par deux solides indéformables reliés par deux ressorts de torsion.  Analyse des résultats et conclusions Dans le cahier des charges sont spécifiés les objectifs relatifs à la bande passante de la balance de mesure d'effort. La bande passante minimale recherchée est de 100Hz au minimum (ce qui permet de mesurer des efforts dont la fréquence d'évolution est de 100Hz). D'après le modèle utilisé, et pour la géométrie et les matériaux retenus pour la fabrication des éléments, la première fréquence propre du système est estimée à 450Hz : Avec une première fréquence de vibration libre plus que 4 fois supérieure aux sollicitations d'entrée, un fonctionnement qui évite les modes de résonnance semble assuré. 4.3.7 Cotation géométrique et spécifications des surfaces fonctionnelles Conformément à [ISO, 1995], le concept GPS 16 (Spécification géométrique des produits) a été utilisé pour élaborer les dessins de définition des pièces. Cela permet d'assurer leur bon montage ainsi que le bon fonctionnement de la balance de mesure. Cette phase post-conception est d'une grande importance, en particulier pour le montage de la platine sur les plots de mesure. La modélisation du montage, consistant { faire reposer une platine sur 4 plots, (soit l'équivalant de 4 liaisons appuis plan placées en parallèle) contraint fortement le mécanisme (degré de statisme égal à 18). Les exigences vis-à-vis des spécifications fonctionnelles sont élevées (spécifiées par le constructeur) et permettent de respecter l'intégrité des plots de mesure en limitant l'introduction d'efforts internes au montage. De même, les exigences de précision de montage de la génératrice, les faux ronds admissibles au niveau de l'arbre, etc, font qu'il est indispensable d'augmenter le niveau d'exigence des spécifications pour ce type d'application. 16 La spécification géométrique des produits : GPS (Geometrical Products Specification), consiste à définir au travers d'un dessin de définition, la forme, les dimensions et les caractéristiques de su rface d'une pièce qui en assurent un fonctionnement optimum, ainsi que la dispersion autour de cet optimum pour laquelle la fonction est toujours satisfaite. 118 Système de dissipation d'énergie et de commande de la turbine 5 Système de dissipation d'énergie et de commande de la turbine Le cahier des charges de l'instrumentation du tunnel hydrodynamique développé dans la partie 3.4, impose de pouvoir réguler la vitesse de rotation de la turbine. En effet, un des objectifs principaux du moyen d'essai est de suivre l'évolution du couple fourni par une hydrolienne en fonction de sa vitesse de rotation et de sa position angulaire. Cela implique de pouvoir imposer une vitesse de rotation pour tout régime de fonctionnement. Le principe de la dynamique, appliqué à la turbine et en projection sur l'axe de rotation, conduit à l'équation suivante : ( 5.1 ) Figurent dans cette équation le couple fourni par l'hydrolienne , l'ensemble des couples résistants regroupés dans le terme , l'inertie équivalente ramenée sur l'arbre de l'hydrolienne ainsi que la vitesse de rotation de l'hydrolienne . A l'exception de l'inertie qui est positive, toutes les autres grandeurs sont algébriques. Pour garder une vitesse constante, il faut à tout moment égaler le couple résistant avec le couple fourni par l'hydrolienne : c'est le point de fonctionnement en régime permanent. Si tel n'est pas le cas, alors la différence entre les couples et est compensée par le terme , comme le montre la figure 5-1. Cela se traduit par une accélération ou décélération angulaire du système. Figure 5-1 : Point de fonctionnement de l'hydrolienne 119 Choix d'un système d'asservissement de la turbine et de conversion d'énergie Le système de commande doit donc permettre, par le biais du dispositif de diss ipation d'énergie, d'asservir la vitesse de rotation d'une façon optimale. C'est -àdire que l'on recherchera un système asservi qui présentera les caractéristiques suivantes: une bande passante compatible avec la dynamique de la turbine, une stabilité pour tous les régimes de fonctionnement ainsi que des précision statique et dynamique suffisantes tout en limitant les accélérations angulaires trop importantes, néfastes à la tenue mécanique des hydroliennes. Le paragraphe 5.1 expose les critères de choix du système de conversion de type électrique et réversible. Le paragraphe 5.2 aborde la problématique de l'implantation de la génératrice sur la balance de mesure d'effort. Le système d'asservissement ainsi que l'interface de communication avec l'utilisateur est présenté au paragraphe 5.3. Enfin, ce chapitre ce chapitre se clôt par l'étude de la mesure de couple au moyen de la génératrice (Paragraphe 5.4). 5.1 Choix d'un système d'asservissement de la turbine et de conversion d'énergie 5.1.1 Recherche d'un système d'asservissement et de conversion d'énergie Il convient de distinguer deux classes distinctes de système d'asservissement et de conversion d'énergie : des systèmes dits non réversibles17 et des systèmes dits réversibles (du point de vue mécanique). Les systèmes réversibles permettent soit de fournir un couple résistant (fonctionnement « frein »), soit de fournir un couple moteur (fonctionnement « moteur »). 5.1.1.1 Systèmes non réversibles (au sens mécanique) Il existe une grande variété de systèmes permettant d'absorber un couple méc anique. Malgré cette diversité, ces systèmes ont tous la même vocation : ils permettent de transformer l'énergie cinétique d'un arbre en rotation en énergie thermique. Ce passage brosse un rapide panorama des principaux mécanismes existants qui sont susceptibles de pouvoir équiper le banc d'essai.  Système à garnitures de frottement : frein mécanique Les freins mécaniques sont omniprésents dans les systèmes que nous côtoyons : véhicules, trains, avions etc. Le principe en lui-même est simple. Une pièce munie d'une garniture de frottement est appliquée contre la partie m obile solidaire de l'arbre de rotation. 17 Dans ce paragraphe nous ne faisons pas de distinction entre réversibilité au sens mécanique du terme et réversibil ité au sens électrique du terme (fonctionnement quatre quadrants d'une génératrice et de son var iateur par exemple) 120 Système de dissipation d'énergie et de commande de la turbine Les freins pour automobile (Figure 5-2) constituent l'application la plus répandue du frein mécanique. La partie mobile est constituée d'un disque, fixé sur l'arbre relié { la roue. L'effort de freinage est appliqué par l'intermédiaire d'un étrier fixe muni de pistons mobiles. Un fluide hydraulique dont on fait varier la pression selon le couple de freinage désiré, applique un effort sur le piston qui plaque la garniture contre le disque. Pour une pression dans le circuit hydraulique donnée, on obtient un couple de freinage constant, quelle que soit la vitesse de rotation des roues. En effet, le coefficient de frottement Figure 5-2 : Frein pour entre le disque est les garnitures est quasi inautomobile dépendant de la vitesse de glissement. Par l'intermédiaire d'une centrale à pression, il est possible d'asservir la vitesse de rotation, ce qui pourrait répondre aux exigences recherchées. Dans ce système, toute l'énergie thermique est dégagée dans atmosphère par le disque. Le temps d'utilisation du système est donc limité si la quantité d'énergie cinétique absorbée est supérieure { l'énergie thermique dissipée par le disque. De plus, les garnitures de frottement s'usent lors du fonctionnement, ce qui demande un entretien régulier. De manière générale ce système est peu adapté pour un équipement de banc d'essai.  Système électromécanique à poudre magnétique : frein à poudre Le frein électromagnétique à poudre est constitué d'un stator, d'un rotor, d'une bobine d'excitation et de poudre ferromagnétique placée dans l'entrefer entre le stator et le rotor. (Figure 5-3). La poudre est constituée de billes d'acier doux de faible diamètre. Lorsque la bobine est alimentée par du courant continu, les billes magnétiques sont concentrées dans l'entrefer et appliquées les unes contre les autres avec une force fonction de l'induction magnétique dans l'entrefer. Elles forment une masse compacte et les frottements transmettent ainsi un couple qui s'oppose { la rotation du rotor. Figure 5-3 : Principe du frein à Un des principaux avantages des freins poudre électromagnétiques à poudre est qu'ils fournissent un couple de freinage pratiquement proportionnel au courant. De plus, ce couple est indépendant de la vitesse de rotation. Alimenté en courant continu d'intensité et de tension faible, l'asservissement de ce système est aisé. De plus il fournit des couples élevés à bas régime. 121 Choix d'un système d'asservissement de la turbine et de conversion d'énergie En revanche, le couple résiduel à vide (sans alimentation électrique) est élevé. L'évacuation de la chaleur semble poser des difficultés surtout lors d'utilisations longues. Pour cela, ce système est généralement couplé avec un frein { courant de Foucault, que l'on présente au paragraphe suivant.  Système à courant de Foucault Le frein à courant de Foucault fonctionne sur ce principe : à partir de la variation de flux du provoquée par une pièce mobile, on dissipe de l'énergie dans une pièce massive, qui doit elle-même être refroidie par un système extérieur. On soumet ainsi à un champ magnétique d'intensité variable et de direction fixe ou non une pièce massive et conductrice. Celle ci est le siège de courants dits de Foucault, se fermant dans la masse (Figure 5-4). On observe alors le dégagement de chaleur dû aux pertes par effet Joule. On exprime ces pertes par la Figure 5-4 : Courant de Foucault relation suivante [Grellet, et al., 1997] : Où dépend du matériau, le volume du matériau, e son épaisseur, quence d'évolution du flux, et l'amplitude maximale du champ . la fré- Les figures 5-5 et 5-6 présentent une vue éclatée du frein à courants de Foucault homopolaire 18 fabriqué par le groupe D2T 19. Le rotor est une roue dentée dont les doigts coupent un flux magnétique homopolaire créé par des bobines logées dans le stator, sur tout son périmètre. Le bobinage est alimenté par un courant continu réglable. Les parties du stator en vis-à-vis du rotor (Eddy Current Zone (ECZ): zones placées de chaque côté du rotor et séparées par un entrefer) voient en chacun de leurs points une variation d'induction entre une valeur minimale, B min (en face de l'interstice entre deux dents), et une valeur maximale, B max (en face d'une dent). La distribution de l'induction en surface des parties ferromagnétiq ues fixes (ECZ) est donc variable et présente une valeur moyenne non nulle, que l'on peut faire varier en modifiant la tension aux bornes des bobines électriques. La variation du flux est donc induite par la rotation du rotor denté. Les courants de Foucault ainsi créés, tendent { s'opposer { la cause qui leurs a donné naissance et induisent un couple résistant sur l'arbre. D'après l'équation précédente, plus la vitesse de rotation sera élevée, plus la v aleur de sera élevée et finalement plus le couple résistant appliqué sur l'arbre sera élevé. Néanmoins, { partir d'une certaine vitesse de rotation (i.e. une ce rtaine valeur de ), le phénomène atteint un palier de saturation et le couple résistant atteint une valeur maximale, indépendante de la vitesse de rotation. 18 Champs homopolaire : dont la direction est fixe par rapport au repère considéré. :D2T : centre de recherche et de développement innovant pour l'étude et les essais de groupes m otopropulseurs. Site internet : http://www.d2t.com 19 122 Système de dissipation d'énergie et de commande de la turbine Figure 5-5 : Vue éclatée d'un frein à courant de Foucault développé par D2T Figure 5-6 : Vue en coupe d'un frein à courant de Foucault développé par D2T Les avantages de ce système sont principalement sa simplicité de mise en place, la facilité de commande du couple résistant, la faible inertie du rotor et le couple à vide relativement faible. Pour cela, il équipe de nombreux bancs d'essai dès lors que l'on veut une charge de puissance moyenne (typiquement de l'ordre du kW). En revanche, l'absence de couple résistant pour les faibles vitesses de rotation rend le couplage avec un autre système nécessaire. C'est pourquoi, les bancs d'essai faisant appel à cette technologie sont équipés d'un frein { poudre additionnel pour le fonctionnement à bas régime.  Système hydraulique : frein hydrodynamique Ce système est basé sur la dissipation de l'énergie mécanique par la création de turbulences dans un écoulement. La construction la plus répandue pour créer le couple de charge est d'utiliser un rotor, solidaire de l'arbre et comportant des aubages. Celui-ci tourne dans un stator muni également d'aubages. (Figure 5-7). L'ensemble formant un carter étanche, est relié à une boucle hydraulique fermée, qui Figure 5-7 : Frein hydrodynamique permet d'ajuster le couple résistant. L'écoulement traversant le frein est soumis à de grandes pertes énergétiques qui se traduisent par un échauffement important du fluide. De ce fait, il est indispensable d'intégrer à la boucle hydraulique un échangeur thermique permettant de limiter à des valeurs raisonnables la température du système. Ce type de frein équipait les premiers bancs d'essai pour le test des moteurs automobiles. Les avantages de ce système sont d'une part que les puissances dissipées sont très élevées, et cela jusqu'{ de grandes vitesses de rotation et d'autre part un cout relativement faible { l'installation. Néanmoins, la dynamique de régulation de couple n'est pas très favorable et présente des instabilités. La plage d'utilisation est assez réduite, et ne permet pas d'obtenir un couple élevé à bas régime. Cela rend les domaines d'applications as- 123 Choix d'un système d'asservissement de la turbine et de conversion d'énergie sez réduits. Ce système reste réservé aux tests de turbomachines ou de moteurs rotatifs de grande puissance. 5.1.1.2 Systèmes réversibles (au sens mécanique) Ces systèmes fonctionnent aussi bien en moteur qu'en générateur. Ne sont abordées dans cette partie que les technologies de moteurs électriques qui répondent au critère de réversibilité. Ces machines sont capables de produire de l'énergie électrique { partir de l'énergie mécanique dans un cas (mode générateur) et dans l'autre de fournir de l'énergie mécanique à partir d'une source d'énergie électrique (mode moteur). On distingue 3 types principaux de machines électriques, présentées dans le paragraphe 5.1.2. : - Les machines à courant continu - Les machines asynchrones - Les machines synchrones Equiper un banc d'essai avec un générateur électrique implique de prévoir en parallèle une partie commande, qui est en général plus sophistiquée que la commande des systèmes non réversibles. Cependant, les constructeurs proposent des systèmes intégrés prêts { l'emploi permettant la commande en couple ou en vitesse du moteur. Il devient alors possible d'intervenir plus facilement sur la dynamique de régulation, ce qui n'est pas le cas des systèmes non réversibles. 5.1.1.3 Synthèse Le passage en revue des différents systèmes de conversion d'énergie qui équipent traditionnellement les bancs d'essai de laboratoire a permis de dégager leurs principales caractéristiques. La figure 5-8 montre l'évolution des caractéristiques couple-vitesse des systèmes abordés plus haut et permet d'appréhender de manière globale leurs comportements. Ont été exclus en premier lieu les freins hydrodynamiques ainsi que ceux à garniture de frottements. Leur régulation est peut aisées. Elle présente des performances moyennes et nécessite des installations annexes assez complexes. Ensuite viennent les freins à courant de Foucault. L'impossibilité d'avoir un couple suffisant à basse vitesse de rotation les a éliminés. Sont finalement restés en lice un frein à poudre magnétique et un système comportant un générateur électrique. Ce dernier l'a emporté, car les possibilités d'avoir un système réversible et une énergie électrique utilisable { des fins de démonstration ont semblé intéressantes. D'autre part, le caractère auto démarrant des turbines n'étant pas acquis, il a semblé souhaitable de garder la possibilité d'entrainer l'arbre par un autre moyen que celui de la turbine. Le paragraphe 5.1.2 est consacré au choix du générateur et à son dimensionnement. 124 Système de dissipation d'énergie et de commande de la turbin e Moteur à courant continu seul Figure 5-8 Caractéristiques couple-vitesse de freins[Spinnler, 2002] 5.1.2 Choix d'un générateur électrique : technologique et dimensionnement Comme toutes les machines tournantes, les générateurs électriques présent és sont constitués d'un rotor et d'un stator. L'espace interstitiel qui existe entre ces deux parties est appelée entrefer. Les principes généraux de fonctionnement de ces machines sont exposés, sans étudier les spécificités de leur modélisation électromagnétique ou entrer dans des détails constructifs. Le générateur doit correspondre au mieux au besoin exprimé par le cahier des charges de l'instrumentation. Enfin, toutes les machines électriques présentées fonctionnent indifféremment en moteur ou en générateur. 5.1.2.1 Générateurs à courant continu Principe de fonctionnement Le stator constitue l'inducteur de la machine. Il est destiné { créer un champ m agnétique, soit { partir d'aimants permanents, soit { partir de bobines. Dans ce dernier cas, il est possible de régler l'intensité du champ magnétique induit par action sur la valeur du courant inducteur (courant d'excitation). Le moteur bi polaire (1 paire de pôles 20) schématisé figure 5-9 comporte, comme son nom l'indique deux pôles. 20 Pôle : peut être défini comme le lieu de « convergence » des lignes de champs magnétiques en présence. Un moteur bi polaire possède un pôle nord et un pôle sud. 125 Choix d'un système d'asservissement de la turbine et de conversion d'énergie Le champ circule du pôle nord au pôle sud en traversant le rotor et en se rebouclant par la culasse Afin de minimiser les pertes, les composants traversés par le flux sont en matériaux ferromagnétiques et l'entrefer est le plus étroit possible. Le rotor subit l'action du champ créé par l'inducteur. Il constitue l'induit de la machine. Il comporte à sa périphérie des encoches régulièrement espacées, dans lesquelles sont logés des conducteurs. On voit sur la figure que leur axe est colinéaire avec l'axe Figure 5-9 : Induction magnétique d'une MCC de rotation. Ainsi, en faisant circuler un courant dans ces conducteurs, on crée une force normale à l'axe du conducteur qui est { l'origine du couple (Force de Laplace). Afin que ces composantes ne s'annulent pas entre elles, on inverse le sens du courant de part et d'autre de la ligne neutre. C'est le collecteur qui a pour fonction d'alimenter les conducteurs du rotor avec la même intensité et d'inverser le sens du courant chaque fois qu'ils franchissent la ligne neutre. Si l'on entraine le rotor, le déplacement des conducteurs du rotor dans le champ magnétique va provoquer l'apparition de f.e.m. induites au rotor : c'est un fonctionnement en générateur de courant. Ce moteur est donc réversible. Caractéristiques électromécaniques On considère une machine à courant continu (MCC) dont le rotor est alimenté par un courant électrique de tension et d'intensité et qui fonctionne en moteur. Son excitation est dite séparée, c'est-à-dire que la bobine qui crée le flux inducteur est alimentée de manière indépendante par un courant d'intensité . Si l'excitation était dite série, l'inducteur serait alimenté par le même courant que l'induit. On se propose d'exprimer les variables mécaniques de sortie que sont le couple électromagnétique et la vitesse de rotation de l'arbre du moteur en fonction des variables électriques d'entrée que sont la tension et le courant d'alimentation de l'induit (respectivement et ) ainsi que le courant d'alimentation de l'inducteur ( ). Les conducteurs logés à la périphérie du rotor se déplacent dans le champ créé par l'inducteur. Cela a pour effet d'induire une force électromotrice (f.e.m.), qui pour l'ensemble des conducteurs prend une valeur moyenne que l'on appelle . L'expression de est donnée par la relation suivante : ( 5.2 ) 126 Système de dissipation d'énergie et de commande de la turbine On voit que la f.e.m. dépend de la constante (paramètre physique de la machine) et est proportionnelle à la fois à la vitesse de rotation et au flux inducteur . Le flux inducteur s'il n'est pas créé par des aimants permanents est proportionnel au courant . Figure 5-10 : MCC à excitation séparée Figure 5-11 : Schéma électrique équivalent de l'induit (rotor) Le moteur est alimenté par une tension (tension d'alimentation de l'induit) et le courant qui le traverse est égal à (Figure 5-10). En faisant l'hypothèse de la conservation des puissances, on peut écrire : ( 5.3 ) La figure 5-11 correspond au schéma électrique équivalent de l'induit. En régime permanent, l'inductance des bobinages n'intervient pas. Autrement dit, le terme est nul. On a donc : ( 5.4 )  Couple électromagnétique A partir des équations (5.2, 5.3 et 5.4) on obtient l'expression du couple électromagnétique en régime permanent : ( 5.5 ) Le deuxième terme de l'expression est généralement négligeable pour les machines conventionnelles et lorsque la valeur de est faible. On retiendra alors l'expression simplifiée du couple électromagnétique, en négligeant la résistance de l'induit: ( 5.6 ) On s'aperçoit qu'{ flux constant, le couple est directement proportionnel au co urant d'alimentation de l'induit, la pente de la caractéristique de couple étant donnée par . 127 Choix d'un système d'asservissement de la turbine et de conversion d'énergie En remplaçant , on obtient les caractéristiques de couple en fonction de la vitesse et de la tension : ( 5.7 ) A flux inducteur constant, ce sont des droites quasi verticales du fait de la faible valeur de la résistance des conducteurs. Il en résulte donc un couplage très faible entre le couple et la vitesse de rotation.  Vitesse de rotation Comme pour le couple, on obtient pour la vitesse de rotation l'équation suivante : ( 5.8 ) A flux inducteur constant, la vitesse de rotation est proportionnelle à la tension et { l'intensité . La faible valeur de la résistance des conducteurs implique qu'approximativement, la tension impose la vitesse de rotation. Bilan Une MCC est bien adaptée pour des applications spéciales telle que la robotique, qui nécessite un fonctionnement précis et rapide. On peut adopter à la fois des commandes: (1) en vitesse, par action sur la tension d'induit, qui est pratiqu ement proportionnelle { la vitesse de rotation ({ courant d'excitation constant), (2) en couple par action sur le courant d'induit qui est pratiquement proportio nnel au couple ({ courant d'excitation constant). Les variateurs de commande sont quant à eux de constitution simple, car il ne s'agit que de piloter une tension ou un courant continu. Le découplage naturel du couple et de la vitesse est un atout pour la commande de systèmes. Cette caractéristique d'une MCC est recherchée dans les machines à courant alternatifs qui seront présentées plus bas. 5.1.2.2 Générateurs asynchrones Principe de fonctionnement Le moteur asynchrone triphasé est constitué d'un stator { 3 enroulements parcourus par des courants alternatifs de fréquence et possède paires de pôles. Le stator crée un champ tournant. On place un rotor métallique dans ce champ. Le rotor est alors le siège de courants de Foucault qui s'opposent à la rotation du champ statorique (loi de Lenz). Le rotor se met en rotation, et sa vitesse va tendre asymptotiquement vers la vitesse du champ tournant , appelée encore vitesse de synchronisme. S'il atteint cette vitesse de synchronisme, le champ tournant devient fixe par rapport au r otor. Vu du rotor, il n'y a alors plus de variation de champ et donc plus de courant induit : le couple produit est nul. Lorsque le rotor dépasse , le stator tend à ra- 128 Système de dissipation d'énergie et de commande de la turbine mener la vitesse du rotor vers la vitesse de synchronisme. Le stator s'oppose au mouvement, c'est un fonctionnement en génératrice. Le moteur asynchrone est réversible.  Création du champ tournant Le champ tournant est créé dans le stator (Figure 5-12). Si l'on considère le cas d'un moteur triphasé bipolaire (à paire de pôles), technologie la plus répandue pour les faibles puissances, il apparait trois bobines identiques, dont les spires sont logées judicieusement dans des encoches du rotor. Les axes physiques des bobines sont décalées d'un angle de ⁄ . Ce décalage se retrouve aussi au niveau électrique, le branchement des bobines se faisant de sorte à obtenir un système triphasé équilibré direct21. Figure 5-12 : Champs créés par 3 bobinages Au point M situé dans l'entrefer et repéré par l'angle , on observe une variation temporelle du champ. De même, si on fait varier à un instant t, on observe une variation sinusoïdale du champ. On obtient donc un champ tournant , qui est la somme des 3 champs élémentaires induit par les 3 bobines ( , et sur la figure). «tourne» à la vitesse de synchronisme , étant la pulsation associée au courant d'alimentation et étant la pulsation du champ magnétique tournant au niveau du stator. La vitesse de synchronisme est donc directement proportionnelle { la fréquence du courant d'alimentation des bobines et du nombre de paires de pôles. Par extension, si , on a alors . De même, il est possible d'introduire la vitesse de rotation du rotor , qui en fonctionnement moteur est inférieure à . On définit alors le glissement , par la relation suivante : ( 5.9 ) On remarquera que lorsque le rotor est bloqué et teint la vitesse de synchronisme. 21 lorsque le rotor at- Système triphasé équilibré direct: trois tensions sinusoïdales de même fréquence forment un système triphasé équilibré si leur décalage anti-horaire temporel est égal à 1/3 de période. 129 Choix d'un système d'asservissement de la turbine et de conversion d'énergie  Construction du rotor. Les courants induits dans le rotor doivent être canalisés par des dispositifs co nducteurs. Ces courants ont une pulsation , qui est définie à partir du glissement et de la pulsation électrique du stator, par la relation suivante: ( 5.10 ) Généralement le rotor est en matériau ferromagnétique, ce qui limite les pertes magnétiques. De plus, il est feuilleté pour limiter les pertes internes par courant de Foucault. On retrouve deux types de rotor : les rotors à cage et les rotors bobinés. Le rotor à cage (Figure 5-13) se compose de barres conductrices logées dans des encoches et reliées entre elles à chaque extrémité par un anneau conducteur. C'est ce type de rotor qui équipe le plus souvent les moteurs de faible puissance. Il est de construction simple, mais ses paramètres sont figés. Le rotor bobiné est quant à lui composé de bobines logées dans des encoches qui forment entre Figure 5-13 : Rotor à cage elles un système triphasé. Elles sont connectées à trois bagues conductrices et isolées entre elles, qui permettent un accès électrique au rotor. On peut ainsi faire varier les caract éristiques du rotor, pour obtenir par exemple des variations de vitesse, et donc piloter de façon optimale le système. Caractéristique électromécanique Pour appréhender le fonctionnement du moteur asynchrone (MAS) une modélis ation électrique équivalente va permettre d'en dégager les principales caractéristiques. Considérons que ce moteur se comporte comme un transformateur (Figure 5-14). On retrouve le bobinage du stator (une phase représentée), de résistance , alimentée par une tension U. Le champ magnétique induit , traverse l'entrefer et induit un courant dans le circuit du rotor de réFigure 5-14 : Modélisation du MAS sistance . Les forces électromagnétiques présentent au stator et au rotor sont respectivement : ( 5.11 ) 130 Système de dissipation d'énergie et de commande de la turbine et ( 5.12 ) ( et correspondent aux nombre d'enroulement au stator et au rotor). Figure 5-15 : Modélisation du MAS : Schéma électrique Les schémas électriques correspondants au stator et au rotor sont présentés figure 5-15. Ces schémas ont été établis en prenant en compte la résistance du circuit magnétique et les fuites du flux induit dans l'entrefer stator-rotor. Ces fuites sont modélisées par les inductances et . On retrouve les f.e.m. et , dont les expressions complexes sont : ( 5.13 ) ( 5.14 ) La pulsation des courants au rotor correspond à . On introduit le rapport de transformation , qui permet d'exprimer à partir de . En effet, si l'on pose alors on obtient la relation entre et suivante : ( 5.15 ) Par la suite, et pour simplifier la modélisation, il est commode d'exprimer toutes les grandeurs de la figure 5-15 du point de vue du stator. Ce schéma peut être transformé pour obtenir le schéma équivalent vu du stator, représenté figure 5-16. Figure 5-16 : Modélisation du MAS : Schéma équivalent ramené au stator On a défini pour cela : - la résistance rotorique ramenée au stator : , - l'inductance rotorique ramenée au stator : , - le courant rotorique ramené au stator : . En introduisant l'inductance magnétisante entre le rotor et le stator : , on peut poser l'équation de liaison ( 5.16 )  Couple électromagnétique 131 Choix d'un système d'asservissement de la turbine et de conversion d'énergie On obtient le couple électromagnétique à partir de la puissance active transmise du stator au rotor diminuée des pertes par effet joule : ( 5.17 ) Le schéma équivalent (Figure 5-17) permet d'exprimer en fonction de la tension d'alimentation , relation obtenue en négligeant la chute de tension au stator : ( 5.18 ) On peut donc à partir de cette relation dégager les caractéristiques suivantes : - Pour des faibles valeurs de glissement, on admet que . Le couple varie donc linéairement en fonction du glissement (Figure 5-17). - La valeur maximale du couple est obtenue pour . et est indépendante de la valeur de la résistance rotorique. - Le couple est nul pour un glissement nul - Le couple de démarrage est obtenu pour Figure 5-17 : Caractéristique de couple du MAS  Vitesse de rotation. Comme le montre la figure 5-17, la vitesse de rotation est étroitement liée au couple. On peut néanmoins remarquer que pour des valeurs de glissement faibles, la vitesse est proportionnelle au couple et décrit une droite de forte pente. La valeur maximale de la vitesse de rotation est bornée par la vitesse de synchronisme , Celle-ci, est fixée par le nombre de pôles du moteur ainsi que la pulsation du courant d'alimentation (voir plus haut). Globalement il existe trois leviers qui permettent d'ajuster la vitesse de rotation du MAS: - La fréquence du courant d'alimentation. - La tension d'alimentation. - La résistance rotorique dans le cas d'un rotor bobiné. Pour les faibles puissances, ce paramètre est figé (rotor à cage). La variation de tension est simple à réaliser, mais dégrade le niveau de couple de la machine. De plus, selon la vitesse initiale du moteur, pour un niveau couple 132 Système de dissipation d'énergie et de commande de la turbine donné, il existe 2 ou 3 points de fonctionnement stables. La variation de la fréquence du courant d'alimentation permet d'obtenir une large gamme de vitesse. Mais comme le couple est inversement proportionnel à cette fréquence, le couple se dégrade rapidement pour les basses vitesses. De plus le fonctionnement optimal de la machine est assuré pour un niveau de flux, qui dépend de la fréquence. Pour une variation efficace de la vitesse il faut travailler à flux constant, i.e. garder le rapport constant. C'est ce que l'on appelle la commande scalaire. L'expérience montre que cette commande n'est pas performante pour les régimes transitoires ainsi que pour les basses vitesses. La commande vectorielle permet d'agir simultanément et de manière indépendante sur le flux et sur le couple. Celle-ci constitue la meilleure option pour la commande du MAS et donne de bons résultats. Cette méthode de commande ne peut être effectuée que de manière numérique, et sort du cadre de cette thèse.  Bilan des puissances A partir de la puissance active absorbée par le MAS, et selon la modélisation pr écédente, on peut établir un bilan des puissances, qui permet de retrouver la pui ssance mécanique utile sur le rotor (Figure 5-18). D Figure 5-18 : MAS : Bilan des puissances Bilan Le MAS, de par ses caractéristiques n'est pas habituellement destiné à des applications requérant un contrôle de vitesse avec une précision élevée. Selon le type de commande (Cf. § 5.1.2.4) on arrive à des performances assez satisfaisantes, comme le détaille le tableau 5-1 : 133 Choix d'un système d'asservissement de la turbine et de conversion d'énergie Tableau 5-1 : Convertisseurs de fréquence pour MAS [Peers, 1997] 5.1.2.3 Générateurs synchrones Principe de fonctionnement Le stator du moteur synchrone est rigoureusement le même que pour le moteur asynchrone. Lorsque le bobinage statorique est connecté à une source de tension triphasée de pulsation , il est parcouru par des courants de pulsation qui engendrent dans l'entrefer un champ magnétique tournant à la vitesse angulaire . Il constitue l'induit de la machine. Le rotor, pour les machines de faible puissance, est constitué d'aimants permanents qui créent un champ magnétique fixe par rapport à lui-même, tournant donc à la vitesse du rotor . C'est l'inducteur de la machine. Pour des puissances plus élevées le champ magnétique au rotor est créé par un bobinage. Cela nécessite l'alimentation du rotor par une source de courant continu, et donc la présence de collecteurs, qui ne se justifie que pour les grandes puissances. [Grenier, et al., 2001] Le champ rotorique, comme le montre la figure 5-19, tend { s'aligner sur le champ Figure 5-19 : Schéma de principe d'une statorique. Il en résulte un couple mécamachine synchrone nique. Si le rotor tourne à une vitesse différente du champ statorique, le couple change alors sans cesse de signe selon que le champ rotorique précède ou suit le champ statorique. Le couple moyen est alors nul. Lorsque l'on entraine le rotor { une vitesse angulaire , on induit un courant de pulsation au niveau des bobines du stator. C'est un fonctionnement en mode générateur. 134 Système de dissipation d'énergie et de commande de la turbine Caractéristique électromécanique  Couple électromagnétique On appelle ⃗⃗⃗⃗ le champ magnétique rotorique créé par l'aimant permanent et le flux magnétique correspondant. De même on appelle ⃗⃗⃗⃗ le champ magnétique tournant induit par le stator et le flux magnétique correspondant. On définit l'angle orienté entre ⃗⃗⃗⃗ et ⃗⃗⃗⃗ . Le couple électromagnétique résultant s'exprime { partir de la relation suivante : ( 5.19 ) est ici une constante associée à la machine. On voit que le couple électromagnétique dépend de l'angle entre les champs rot orique et statorique. Il atteint une valeur maximum pour un angle de 90°. Dans le cas d'un moteur { aimants permanents, le flux est constant. Le fonctionnement optimal du moteur correspond { l'angle de 90°, de façon { minimiser le flux , et donc d'optimiser le rendement de conversion de la machine. Pour faire varier le couple, il convient d'ajuster le flux induit , cela en ajustant le courant d'alimentation du stator. On remarque alors que le couple est l'image de l'intensité d'alimentation { un facteur de proportionnalité près.  Vitesse de rotation Le rotor du moteur tourne ainsi de façon synchrone avec le champ tournant induit par le stator. La seule façon de faire varier la vitesse de rotation est donc de faire varier la pulsation du courant d'alimentation du stator. On a par conséquent : ( 5.20 ) On voit que le moteur synchrone ne peut démarrer seul lorsqu'il est couplé sur un réseau à fréquence fixe (50Hz par exemple). Cela imposerait une accélération i nfinie du rotor, qui ne peut pas suivre le champ tournant. Il convient donc, lors des démarrages d'augmenter progressivement la fréquence du courant d'alimentation du moteur, jusqu'{ atteindre la vitesse de fonctionnement du système. A cet effet, on procède habituellement à la mesure de la position du rotor au moyen d'un résolveur. Celui-ci détecte le décalage angulaire entre le rotor et le stator, et en informe le variateur. Ce dernier modifie en conséquence le courant d'alimentation du moteur afin de retrouver le déphase de . Le moteur est dit autopiloté. Bilan Comme indiqué plus haut, le moteur synchrone ne fonctionne qu'associé { un variateur de fréquence. Cet aspect, qui fût autrefois une contrainte, a été résolu avec l'apparition des variateurs électroniques (Cf. ci-dessous). Ce type de moteur présente des performances qui égalent maintenant celles d'un moteur de type MCC. 135 Choix d'un système d'asservissement de la turbine et de conversion d'énergie Ce dernier est actuellement préféré à la MCC, car, lorsqu'il est équipé d'aimants permanents, il ne demande aucun entretien. De plus sa production en série a entrainé une baisse notable des coûts, qui le rend plus abordable que son concurrent. 5.1.2.4 Les variateurs électroniques S'il est aisé de commander le moteur { courant continu (ce qui a favorisé son développement pour les applications demandant une grande précision), il n'en va pas de même pour les moteurs synchrone ou asynchrone. Les variateurs électroniques remplissent cette fonction commande, et agissent en convertisseur d'énergie électrique. Le variateur fait partie intégrante du système de commande de l'hydrolienne, et doit être choisi { partir de critères, qui doivent correspondre { notre d'application. Sa structure est fonction : - de la nature du réseau d'alimentation, - du type de moteur, - des niveaux de tension et de courant, - des performances exigées : gamme de vitesse, précision, réversibilité On retrouve ainsi 4 grandes familles de variateurs, aux différentes propriétés : - Le hacheur : il permet { partir d'une source de courant continu, de fournir un courant continu dont on contrôle la valeur moyenne de la tension. - Le redresseur : il permet { partir d'une source de courant alternatif, de fournir un courant continu dont on contrôle la valeur moyenne de la tension. - Le gradateur : il permet { partir d'une source de courant alternatif, de fournir un courant alternatif dont on contrôle la valeur efficace de la tension. La fréquence de sortie est fixe et est égale à la valeur de la fréquence d'entrée. - Le convertisseur de fréquence : il permet { partir d'une source de courant alternatif (fixe), de fournir un courant alternatif (variable) dont on contrôle la fréquence et la valeur efficace de la tension. L'ensemble « moto-variateur » constitue un couple qui doit satisfaire les exigences spécifiées par le cahier des charges (Cf. tableau 3-2). 5.1.2.5 Synthèse On retiendra que pour les applications standards, tous les critères sont favorables aux moteurs alternatifs. Seuls la précision, la gamme de vitesse et parfois les cycles de fonctionnement favorisent le choix d'un moteur { courant continu. Les progrès fait sur les variateurs permettent dans la plupart des cas, pour ces applications spéciales, de se tourner vers le moteur synchrone autopiloté. Une sy nthèse pour le choix du couple moto-variateur est proposée dans le tableau 5-2. Pour l'application développée au cours de cette thèse, le moteur synchroneautopiloté, associé à un convertisseur de fréquence, a été choisi parce qu'il offre les caractéristiques suivantes : 136 Système de dissipation d'énergie et de commande de la turbine - la précision nécessaire pour les mesures de couple et de puissance sur l'hydrolienne ; la gamme de vitesse assurant un fonctionnement optimal entre 0 et 1500 trs/min ; les quadrants de fonctionnement qui permettent de fonctionner dans un sens de rotation comme dans l'autre, et indifféremment en moteur ou en générateur ; les valeurs de puissance à atteindre qui laissent l'opportunité de choisir un modèle « brushless » (cf. § 5.1.2.3), simple et sans entretien ; une tension d'alimentation qui permet de se raccorder au réseau électrique du laboratoire, et qui ne nécessite pas d'installation compléme ntaire. Fonctions recherchées Moteur Standard Spécial Asynchrone Asynchrone à cage résistante Démarrage Variation de vitesse sans régulation Asynchrone Asynchrone à bagues Asynchrone Synchrone Variation de vitesse avec régulation Type de variateur Gamme de vitesse Applications caractéristiques Ventilateur-pompes Gradateur Convoyeurs Gradateur 1à3 Levage ventilation Convertisseur de fréquence 1 à 50 Gradateur 1 à 20 Applications diverses ne nécessitant pas de précision Gros levage Convertisseur de fréquence 1 à 50 Convertisseur de fréquence Redresseur contrôlé 1 à 10000 Hacheur 1 à 10000 Continu 1 à 300 Applications diverses ne nécessitant pas de précision élevée et de cycles intensifs Robotique machine outil Applications nécessitant une grande plage de variation de vitesse, une grande précision, des cycles intensifs. Petite puissance : robotique machine outil positionnement Grande puissance : traction Tableau 5-2 : Choix du couple moteur-variateur [Peers, 1997] 5.2 Implantation de la génératrice sur la balance de mesure d'effort L'intégration d'une génératrice électrique dans un système mécanique ne suit pas de règles spécifiques. Il s'agit avant tout de transmettre couple et vitesse de l'hydrolienne { la génératrice. Compte tenu de la nature de notre système et du 137 Implantation de la génératrice sur la balance de mesure d'effort nombre important de fabricants de moteurs électriques, plusieurs options se présentaient. Deux types d'architectures d'implantations furent retenus : (1) à deux lignes d'arbres en parallèle et (2) { une ligne d'arbre, cette dernière pouvant donner lieu à 3 possibilités selon la génératrice choisie. Il en a donc résulté 4 cas différents sur lesquels ont été exercés dix critères discriminants afin d'aboutir au choix final ; ces critères sont : - l'adéquation avec le niveau de couple caractéristique de l'hydrolienne, - l'adéquation avec la plage de vitesse de rotation de l'hydrolienne , - les pertes énergétiques dans la chaine de transmission de couple, - la rigidité de la chaine de transmission de couple, - la possibilité de mesurer le couple, - la possibilité de mesure de la vitesse de rotation, - le poids, - l'encombrement, - la simplicité du système vis-à-vis de la mise en oeuvre, du montage et de l'entretien, - le coût. 5.2.1 Les différentes architectures envisagées 5.2.1.1 Montage parallèle à deux lignes d'arbre Dans cette configuration (Figure 5-20), l'arbre relié { l'hydrolienne et l'arbre de la génératrice sont distincts et placés en parallèle. L'ensemble est posé sur une platine qui repose sur les 4 plots de mesure piézoélectriques. L'arbre de l'hydrolienne est en liaison pivot par rapport { la platine. La génératrice est fixée sur la platine par l'intermédiaire d'un élément support. Pour transmettre le couple d'un arbre { l'autre, plusieurs solutions ont été envisagées : un système de poulie-courroie crantée, un système à engrenage ou un encore système de transmission par chaine. Les deux principaux avantages de cette configuration sont (1) que l'on peut choisir le rapport de vitesse entre la génératrice et l'hydrolienne et (2) que la hauteur du système peut être minimisée, ce qui est important pour conserver une fréquence propre optimale de la structure de mesure. Plusieurs obstacles ont été soulignés. La liaison entre les deux arbres pose le problème de la quantification des pertes énergétiques, qui de- Figure 5-20 : Montage parallèle vient nécessaire si la mesure de couple se fait au niveau de la génératrice. La « rigidité » de la liaison, si elle est insuffisante, peut entrainer des difficultés d'asservissement et de légers décalages angulaires entre les deux arbres lors de phases d'accélération ou de décélération. Tous ces éléments, ajoutés à un encombrement assez important et un poids total important, ont conduit à écarter cette configuration. 138 Système de dissipation d'énergie et de commande de la turbine 5.2.1.2 Montage série à une ligne d'arbre  Génératrice à architecture traditionnelle Une génératrice, telle que vendue dans le commerce (Figure 5-21), comporte les éléments suivants : un arbre de sortie, un système de refroidissement à air ou par liquide, un boitier permettant le câblage ainsi qu'un système de fixation. Ce type de génératrice impose d'utiliser l'architecture suivante (Figure 5-22): l'arbre de l'hydrolienne est en liaison pivot (boitier { rou- Figure 5-21 : Moteur-générateur lement) par rapport à la platine. Entre ce boitier à roulement et la génératrice, peut être interposé un couplomètre perme ttant de mesurer de façon précise le couple. Les arbres sont reliés par des dispositifs d'accouplement qui peuvent être de différentes natures : accouplement direct avec éléments d'interposition (type clavette, vis de pression ou goupille) ou joint d'accouplement élastique. L'avantage principal de cette architecture est la possibilité d'adjoindre un dispositif de mesure de couple indépendant de la génératrice et de la platine de mesure piézoélectrique. En revanche, l'empilement des éléments sur un même arbre confère { l'ensemble une certaine hauteur qui diminue la fréquence propre de la structure. Cela est d'autant plus critique que l'élément le plus lourd (génératrice) est placé { l'extrémité supérieure de la chaine. De Figure 5-22 : plus, l'accouplement de trois éléments possédant chacun Implantation des leur propre arbre et guidage, implique une coaxialité parcomposants faite des éléments, sous peine d'introduire des efforts parasites ainsi que de rendre le montage fastidieux. Les dispositifs d'accouplements doivent quant { eux présenter une rigidité en torsion suffisante, tout en minimisant les pertes énergétiques.  Génératrice à arbre creux La figure 5-23 est un moteur générateur à arbre creux débouchant. Il permet d'opter pour un placement en « sandwich » entre deux composants, ce qui conduit à l'architecture figure 5-24. La génératrice est intégrée entre un roulement inférieur et un roulement supérieur qui composent { eux deux la liaison pivot de l'arbre de l'hydrolienne. Le couple est transmis { l'arbre creux de la génératrice par interposition d'un élément d'arrêt 139 Figure 5-23 : Moteur-générateur à arbre creux Implantation de la génératrice sur la balance de mesure d'effort Figure 5-24 : Implantation des composants  (Clavette, vis de pression ou goupille) ou directement par frettage.22 Cette configuration permet d'optimiser au maximum la hauteur de la structure, lui conférant ainsi une fréquence propre optimale. La réduction des composants de la chaîne de transmission de couple confère une bonne rigidité en torsion à cette chaîne. Cela implique néanmoins une bonne coaxialité des arbres de la turbine et de la génératrice, car la présence du guidage en rotation de l'arbre de la génératrice est redondante avec celui de l'hydrolienne. On pourra rajouter que ce type de génératrice étant destinée à des applications très particulières, cela augmente considérablement le coût du composant. Génératrice à éléments séparés Dans l'architecture de la génératrice à arbre creux précédente, il est apparu l'équivalent de deux liaisons pivots pour au final ne guider qu'un arbre. Cette redondance entraine un degré de statisme 23 du mécanisme important, qui peut poser des problèmes de fonctionnement. On notera que dans tous les cas, il n'est pas possible d'utiliser directement le palier de la génératrice pour maintenir l'arbre. En effet, ces paliers, dont on ne contrôle pas le jeu de fonctionnement, ne peuvent offrir une rigidité de liaison suffisante, et ne sont pas destinés à supporter des efforts axiaux ou radiaux. La figure 5-25 présente un exemple de montage d'une génératrice { partir d'éléments séparés, { savoir d'un rotor et d'un stator. Il est alors possible de contrôler de manière optimale les caractéristiques de la liaison pivot qui relie l'arbre de l'hydrolienne et le bâti fixe. On peut ainsi ajuster la rigidité de la liaison, sa précision en terme de guidage par le choix de roulements de précision ainsi que d'estimer au mieux les frottements Figure 5-25 : Montage d'un moteurinternes, qui peuvent dégrader la précision générateur en « kit » de la mesure de couple. En contrepartie, cette architecture nécessite de concevoir et de fabriquer le l ogement pour le stator ainsi que l'arbre permettant de recevoir le rotor, tout cela, en intégrant les préconisations du fabricant. 22 Procédé d'assemblage de deux pièces. La première pièce est insérée dans le logement de la de uxième dont les dimensions sont légèrement inférieures. Il existe apr ès montage une pression de contact entre les surfaces de contact des deux pièces, qui grâce au coefficient de frottement entre les deux matériaux, permet de transmettre des efforts d'une pièce à l'autre. 23 On parle d'hyperstatisme lorsque les inconnues de liaisons dans un mécanisme sont plus nombreuses que le nombre d'équations issues du principe fondamental de la statique. 140 Système de dissipation d'énergie et de commande de la turbine 5.2.2 Architecture retenue pour l'implantation du générateur électrique Le tableau 5-3 passe les différentes architectures d'implantation au filtre des dix critères énoncés ci-dessus. Montage en parallèle Critères Adéquation avec le niveau de couple de l'hydrolienne Adéquation avec la vitesse de rotation Pertes énergétiques de la chaine de transmission de couple Rigidité de la chaine de transmission de couple Possibilité de mesurer le couple Possibilité de mesurer la vitesse de rotation Poids Encombrement Simplicité du système Coût Montage en série Génératrice à architecture traditionnelle Génératrice à architecture traditionnelle Génératrice à arbre creux Génératrice à éléments séparés + + ++ +++ +++ ++ ++ ++ - + ++ +++ - + ++ +++ + ++ + + ++ ++ +++ +++ - + + +++ +++ ++ ++ +++ - +++ +++ + + Tableau 5-3 : Critères pour le choix de l'architecture d'implantation de la génératrice La solution d'une génératrice en « kit » parait la plus appropriée et un moteur générateur de marque Parvex a donc été choisi (Figure 5-26). Le rotor est directement fretté sur l'arbre de l'hydrolienne. L'arrêt en translation se fait par un épa ulement au niveau inférieur. Le maintien en position est assuré par un système d'entretoise surmontée d'un écrou « Nylstop ». Il en va de même pour le rotor, qui est fretté dans son logement. On notera la présence du boitier à roulements réal isant la liaison pivot entre l'arbre de l'hydrolienne et la platine de mesure. La présence d'un roulement supérieur est rendue nécessaire de par les contraintes de coaxialité entre le rotor et stator (conditions de non interférence) et la grande longueur d'arbre. Il permet ainsi une meilleure précision de guidage de l'arbre. Pour permettre l'asservissement de la génératrice et assurer l'autopilotage du moteur synchrone, un capteur de position et de vitesse est nécessaire. Pour re mplir cette fonction, un résolveur en bout d'arbre a été installé. 141 Caractéristiques du moto-variateur de commande de l'hydrolienne Figure 5-26 : Rotor et stator de la génératrice. Figure 5-27 : Implantation de la génératrice sur le système de mesure d'effort 5.3 Caractéristiques du moto-variateur de commande de l'hydrolienne L'ensemble moto-variateur qui a été choisi, est conçu et fabriqué par la société Parvex. (Groupe Parker). Ce fabricant est un des seuls à proposer un moteur dont le stator et le rotor sont livrables en pièces détachées, et qui répond à toutes nos attentes. Le variateur proposé par le constructeur répond lui aussi parfaitement à nos attentes et est dispose d'un logiciel de commande à installer sur PC. Sont détaillées dans les paragraphes suivants les caractéristiques principales de l'ensemble. 5.3.1 Caractéristiques de la génératrice La génératrice (voir aussi annexe A : moteur NX430) est du type synchrone commandé à aimants permanents (« brushless »). Le tableau 5-4 récapitule ses principales caractéristiques mécaniques, qui sont comparées aux besoins identifiés dans le cahier des charges pour l'entrainement des turbines testées dans la section d'essai. 142 Système de dissipation d'énergie et de commande de la turbine Génératrice Couple nominal C nom 5,22 Nm Vitesse de rotation N nom Puissance P nom Inertie du rotor Coefficient de couple 5.3.2 1700 trs/min 930 W 42,60.10 -5 kg.m2 1.95 Nm/A(rms) Turbine 4 Nm Couple maximum (estimé) 1500 trs/min Vitesse de rotation maximum (estimée) <500 W Puissance maximum (estimée) Tableau 5-4 : Caractéristiques de la génératrice NX430 Variateur de commande de la génératrice Les caractéristiques générales du variateur sont regroupées dans le tableau 5-5: Type Réseau Puissance contrôlable Courant permanent (crête sinus) Courant maximum (crête sinus) DLD 4/8 230V/Mono 50HZ/60Hz 750W 4A 8A Tableau 5-5 : Variateur Parvex DLD 4/8 Son principe général de fonctionnement est présenté dans le synoptique cidessous (Figure 5-28). Il comporte deux parties distinctes : - La partie alimentation de puissance, qui transforme la tension du réseau (230V-50Hz) en une tension continue de 325V et la fournit au pont de puissance, pour l'alimentation du moteur. On retrouve également un transformateur qui produit les alimentations auxiliaires nécessaires aux régulations. Cette partie assure le fonctionnement dans les quatre quadrants du moteur. De plus, comme notre système est destiné à fonctionner la plupart du temps en mode générateur, il a été nécessaire d'intégrer une résistance de dissipation d'énergie complémentaire. (non représentée) - La partie gestion des surveillances et commande d'axe. C'est { cette dernière que l'on impose les valeurs consignes de vitesse ou de couple d ésirées. On notera, qu'il est possible de fixer ces valeurs soit par le logiciel installé sur le PC, soit par une entrée analogique qui permet de fonctionner de manière autonome, sans passer par l'intermédiaire du PC. A noter que toutes les protections et sécurités fonctionnent sans l'intermédiaire du PC. Le variateur, pour des questions de sécurité est donc une entité totalement autonome. 143 Caractéristiques du moto-variateur de commande de l'hydrolienne Figure 5-28 : Synoptique du variateur (alimentation, commande d'axe et gestion des surveillances) 5.3.3 Interface « utilisateur/génératrice » & acquisition des grandeurs physiques caractéristiques liées à la génératrice 5.3.3.1 Paramètres de réglage de l'asservissement Les paramètres de personnalisation de l'ensemble moteur-variateur sont introduits lors de la mise en service, { l'aide d'un PC, par le logiciel fourni par le con structeur (Digivex). Le canevas de réglage est présenté par le synoptique en figure 5-29 (voir aussi annexe B). Deux types de régulation sont possibles : (1) soit on fixe une consigne de courant (donc de couple) ou (2) soit on fixe une consigne de vitesse. Dans le cas (1) on choisit ensuite une limitation du courant et un filtre du deuxième ordre. Dans le cas (2) on impose les limitations nécessaires (comme la vitesse de rotation maxi, le sens de rotation, le courant maxi). En fonction de la charge entrainée, on peut procéder au réglage de l'asservissement en ajustant la valeur des correcteurs (P, PI, ou PI2). On a de plus la possibilité d'affiner ces r églages par l'usage de prédicteurs, qui prennent en compte l'inertie de l'arbre, les frottements ou encore les accélérations attendus des éléments en rotation. Les stratégies de réglage de l'asservissement seront précisées dans le chapitre 6. 144 Système de dissipation d'énergie et de commande de la turbine Figure 5-29 : Pocédés de réglage des paramètres du moto-variateur 5.3.3.2 Valeurs consignes de vitesse ou de courant Pour la commande effective de la génératrice, l'utilisateur dispose de deux choix distincts : - Passer par une interface PC et fixer, grâce au logiciel Digivex, la valeur consigne de la vitesse de rotation, ou la valeur consigne du courant. Il est par ailleurs possible de choisir des lois d'entrée { évolution variable telles qu'une impulsion, un échelon, une rampe ou encore un signal en créneaux. (Cela apparaîtra par la suite très utile pour le réglage efficace des paramètres des correcteurs de la boucle de régulation en fonction du type de turbine utilisée). Une interface de commande développée sous LabVIEW, permettant la commande de la génératrice, mais aussi l'acquisition de données sera en outre présentée plus loin (Cf. chapitre 6). - Fonctionner sans l'interface PC, en passant par des entrées analogiques. Cela laisse la possibilité d'utiliser un générateur de fréquence pour la commande du moteur. 145 Mesure du couple de l'hydrolienne au moyen de la génératrice électrique 5.3.3.3 Visualisation et acquisition des grandeurs physiques liées à la génératrice Toutes les variables liées { la génératrice, comme l'allure de la tension ou du co urant délivrés, sa vitesse de rotation, la position angulaire du rotor, etc., sont o bservables en temps réel grâce à un oscilloscope intégré au logiciel Digivex. En revanche pour l'acquisition de ces données, il existe comme précédemment, deux choix distincts : - Passer par le logiciel Digivex, qui propose des acquisitions dont la fréquence d'échantillonnage peut être choisie (de 1 ms à quelques s) mais dont le nombre de points est limité à 512. - Passer par 2 sorties analogiques (Sorties DAC), qui permettent soit d'utiliser un oscilloscope ou encore une carte d'acquisition raccordée { un PC et gérée par LabVIEW (Cf. chapitre 6). 5.4 Mesure du couple de l'hydrolienne au moyen de la génératrice électrique L'estimation du rendement d'une hydrolienne passe par la mesure de couple fourni par l'hydrolienne, associée { la mesure de sa vitesse de rotation. L'obtention de la vitesse est aisée, et se fait { l'aide d'un résolveur (Cf. §5.3.1). Il n'en va pas de même du couple. L'architecture de notre instrumentation permet d'obtenir cette grandeur physique par deux voies distinctes et indépendantes : (1) par mesure des efforts { l'aide de la balance de mesure et (2) par le biais de la génératrice. Cette deuxième possibilité, qui a semblé la plus raisonnable, tant au niveau des délais que de la précision, est étudiée dans ce paragraphe. 5.4.1 Relation entre les grandeurs électriques et le couple mécanique On a montré dans le paragraphe 5.3, qu'il était possible d'estimer le couple fourni par la génératrice à partir des grandeurs électriques mesurées par le système de commande de la génératrice. Ce préalable est nécessaire pour obtenir le couple utile fourni par une turbine (ou couple hydrolienne ). 5.4.2 Caractérisation de la chaine de mesure de couple Pour remonter jusqu'au couple développé par l'hydrolienne , appliquons le principe fondamental de la dynamique à l'ensemble { } des éléments tournants. Cet ensemble que l'on suppose infiniment rigide, est constitué des éléments suivants : - l'arbre, - le rotor de la génératrice, - le rotor du résolveur, - chacune des bagues intérieures des 3 roulements, - la turbine et ses éléments additionnels (vis, anneaux éventuels, etc.), 146 Système de dissipation d'énergie et de commande de la turbine - l'arbre de « symétrie » pouvant être monté en bout de turbine. L'équation des moments en projection sur l'axe de rotation, permet d'exprimer le couple en fonctions des couples résistants, de l'accélération angulaire de l'ensemble des éléments tournants, ainsi que de leur inertie équival ente. Le bilan des efforts conduit à distinguer 3 couples s'appliquant l'ensemble { } (Figure 5-30) : - le couple développé par l'hydrolienne, - le couple récupéré par la génératrice, - l'ensemble des couples de frottement rassemblés sous le terme . Divers éléments sont à l'origine de ce dernier terme. On distingue ainsi les couples de frottement créés par : - le joint d'étanchéité, - le boitier à roulements, - le roulement supérieur de guidage, - le résolveur. L'équation qui régit le mouvement est donc la suivante : é , , et algébriques. é (5.21) Figure 5-30 : Schéma d'architecture de la balance de mesure sont ici des valeurs , qui correspond à une inertie a une valeur toujours positive. La mesure du couple fourni à un instant par la génératrice nécessite une étape préalable, qui est l'identification des différents termes qui composent l'équation précédente. 5.4.3 Paramètres à identifier pour permettre la mesure du couple 5.4.3.1 Coefficient de couple Le couple de la génératrice est lié { l'intensité du courant délivré par une constante de couple. La valeur de cette constante est donnée par le constructeur de l'appareil. Dans le paragraphe 6.2.1 on vérifiera expérimentalement la valeur de cette constante, et on identifiera les paramètres pouvant influencer sa détermination. 147 Mesure du couple de l'hydrolienne au moyen de la génératrice électrique 5.4.3.2 Couples résistants Dans le paragraphe précédent, des différents couples qui s'opposent au mouvement de rotation de l'arbre ont été repérés. Il est nécessaire, pour chacun de ces couples, d'en déterminer précisément le niveau ainsi que les paramètres dont ils sont dépendants. (Vitesse de rotation, pos ition angulaire de l'arbre, température, etc.). Le chapitre suivant expose la manière dont ont été déterminés les couples résistants. 5.4.3.3 Accélération angulaire de l'arbre L'accélération angulaire de l'arbre a une influence déterminante sur la mesure instantanée de couple. Si les mesures sur une turbine sont en théorie effectuées en régime établi (qui signifie dans ce cas que la dérivée temporelle de est nulle), il est bien évident que le système réel ne se comporte pas rigoureusement de cette façon. En effet, lorsque l'on impose une valeur consigne fixe pour le paramètre par le biais du système de commande de la turbine, la dynamique du système d'asservissement induit en fait de petites fluctuations autours de la valeur consigne. Il y a donc une variation instantanée de la vitesse angulaire, qu'il faudra prendre en compte lors de l'estimation du couple instantané . On pourra noter que cela n'affecte pas la valeur moyenne du couple calculée sur un nombre de révolutions de la turbine suffisamment grand. L'accélération angulaire de l'arbre n'affecte donc pas les calculs du rendement et de la puissance moyenne. 5.4.3.4 Synchronisme des signaux Il sera important de vérifier si, lors d'une phase d'acquisition, il n'y a pas de d éphasage (retard) entre les différents signaux. 148 Mesure sur maquette en tunnel hydrodynamique 6 Mesure sur maquette en tunnel hydrodynamique Dans le troisième chapitre, figure un cahier des charges définissant les besoins de l'instrumentation du tunnel hydrodynamique qui a été établi afin de caractériser les maquettes de turbines d'hydrolienne (modèle réduit). Les chapitres 4 et 5 exposent les choix technologiques retenus pour le système de mesure des efforts hydrodynamiques s'appliquant sur la turbine ainsi que pour le système de dissipation d'énergie et de régulation de la turbine. La possibilité de mesurer le couple fourni par la turbine avec la génératrice synchrone a ainsi été mise en évidence. Dans ce chapitre trois étapes concernant la mise en oeuvre de ces différents matériels sont présentées : (1) le développement d'une interface utilisateur permettant la commande de l'instrumentation et l'acquisition de données, (2) la caract érisation de la chaine de mesure de couple via la génératrice et (3) la caractérisation de la chaine de mesure des efforts par la platine à capteurs piézoélectriques. Enfin, les résultats des mesures obtenus sur une maquette de type Achard sont présentés et clôturent ce chapitre. 6.1 Développement et caractérisation de l'interface utilisateur permettant l'acquisition des données et la commande de la turbine. L'optimisation de l'ergonomie du poste de mesure, de l'interface de commande et d'acquisition a été conduite dans le but d'obtenir un poste de travail simple et facile à utiliser, ne nécessitant pas, pour un nouvel expérimentateur, de formation longue. La validation de ce système a constitué une deuxième étape, tant sur le point de la commande de l'hydrolienne que sur les capacités d'acquisitions des données. 6.1.1 Architecture, matériels et composants utilisés Les premiers développements de l'instrumentation visant { la caractérisation de s hydroliennes ont été initiés par Guittet [2005]. Dans la mesure du possible, le matériel alors introduit a été réutilisé, à savoir: le pupitre de commande du tunnel hydrodynamique, le PC, la carte d'acquisition National Instrument, ainsi que les capteurs installés dans la veine. Pour des raisons de compatibilité, cette carte a continué d'être exploitée sous LabVIEW, logiciel installé sur le PC. 149 Développement et caractérisation de l'interface utilisateur permettant l'acquisition des données et la commande de la turbine. Figure 6-1 : Synoptique des flux d'informations du système de commande et d'acquisition On retrouve sur le synoptique ci-dessus (Figure 6-1), les éléments de l'instrumentation du tunnel ainsi que les flux d'informations transitant entre ces éléments. La personne en charge des essais est en relation avec deux interfaces distinctes qui sont : - le pupitre de commande du tunnel hydrodynamique, - la centrale d'acquisition, constituée du PC sur lequel sont installés les logiciels d'acquisitions (Digivex pour la génératrice et LabVIEW qui gère la carte d'acquisition). Les informations, les commandes et le système d'acquisition sont regroupés sur le même lieu géographique. Ainsi, il est possible de contrôler et visualiser presque tous les paramètres à partir du PC, via LabVIEW et la carte d'acquisition. Néanmoins, on remarquera que subsiste toujours le pupitre de commande du tunnel hydrodynamique. Ce type de matériel ancien (installation datant des années 1960), aurait nécessité de gros investissements pour permettre la commande à partir du PC, ce qui, dans notre cas, ne se justifiait pas. On remarquera aussi qu'il est possible, { partir du PC, de commander et d'acquérir les données issues de la génératrice de deux manières différentes: (1) par le logiciel Digivex ou (2) par l'interface développée sur LabVIEW (via la carte d'acquisition). Les données à acquérir sont dans notre cas toutes de type analogique : à chaque grandeur physique (par exemple une pression), correspond une tension. On définit alors la caractéristique de transfert qui doit permettre à chaque valeur de la grandeur physique (entrée) de lui associer une valeur de tension (sortie). La fonction de la carte est d'acquérir ces tensions. La carte d'acquisition doit dans notre cas comporter au minimum 14 entrées qui correspondent: - aux 8 signaux de forces provenant de la platine piézoélectrique, - aux 2 sorties analogiques provenant du variateur : le courant fourni par la génératrice ainsi que la position angulaire du rotor (au choix), 150 Mesure sur maquette en tunnel hydrodynamique - aux 4 signaux provenant des capteurs installés sur la veine : température pression amont, pression différentielle amont-aval ainsi que le débit. La carte doit également comporter une sortie, permettant d'envoyer la consigne de vitesse au variateur. La carte d'acquisition installée sur le PC est une National Instrument de type 6052E. Ses principales caractéristiques se trouvent sur le tableau 6-1 : Type Ni 6052E Format Entrées analogiques PCI 8 (différentielles) / 16 (asymétriques) Sorties analogiques Fréquence d'échantillonnage 2 333 kéchantillons / seconde Résolution 16 bits Précision Entrées Sorties +/- 4.75 mV (Gamme +/-10V) +/- 1.18 mV (Gamme +/-10V) Tableau 6-1 : Caractéristiques générales carte d'acquisition NI 6052 E Ces caractéristiques sont satisfaisantes tant sur le point de la capacité d'acquisition (maximum 16 voies pour un besoin de 14 voies) que sur le point de la capacité de commande (maximum 2 voies pour un besoin de 1 voie). Les critères relatifs à la fréquence d'échantillonnage ainsi qu'{ la précision seront abordés plus loin. 6.1.2 Développement de l'interface : programmation en G sur LabVIEW LabVIEW est un environnement de programmation graphique (programmation en G), qui par l'intermédiaire de périphériques d'acquisition, permet la commande de systèmes et l'acquisition de données. Cet environnement est brièvement présenté dans les sections 6.1.2.1 et 6.1.2.2. 6.1.2.1 Face avant : interface utilisateur La face avant constitue l'interface graphique entre l'utilisateur et les systèmes. Elle permet d'entrer des informations dans le programme, ou de visualiser ce rtaines informations en retour. Celle-ci, bien entendu, est évolutive et personnalisable en fonction des besoins des utilisateurs qui seront à l'avenir en charge des essais. La figure 6-2 montre la face avant du programme telle qu'elle fut utilisée lors des premiers essais en 2008. 151 Développement et caractérisation de l'interface utilisateur permettant l'acquisition des données et la commande de la turbine. Figure 6-2 : Face avant de l'interface d'acquisition et de commande (Version 2008) Pour la partie visualisation des données, on retrouve : - les paramètres physiques définissant l'écoulement dans la veine (pression, température, vitesse), - les données concernant les efforts hydrodynamiques, comme par exemple la traînée, - les données concernant le couple, la puissance et le rendement de la turbine. Pour la partie commande, on retrouve : - la consigne de vitesse de rotation de la turbine, avec les protections associées (limites haute et basse), - les caractéristiques de l'acquisition des données : la fréquence, le nombre de points, la possibilité filtrage ou non des données, le calibre des signaux. 6.1.2.2 Face arrière : stratégie de programmation Le développement proprement dit du programme (« face arrière ») a nécessité de nombreux essais, qui ont permis d'identifier certaines limites techniques, émanant principalement de la capacité du PC utilisé, et particulièrement de sa m émoire vive, ainsi que de sa vitesse d'exécution des tâches. L'architecture du programme est détaillée sur le synoptique de la figure 6-3. On peut dans un premier temps distinguer le périmètre d'action du programme. Celui-ci échange des informations avec la carte d'acquisition (dont les caractéristiques ont été présentées plus haut), mais aussi avec l'utilisateur via la face avant, sujet qui a été abordé lors du paragraphe précédent. 152 Mesure sur maquette en tunnel hydrodynamique Figure 6-3 : Synoptique du programme de commande et d'acquisition La structure même du programme repose sur les différents éléments suivants : - l'horloge d'échantillonnage, qui récupère successivement les valeurs de chacune des entrées de la carte (On montrera que l'acquisition ne se fait pas en temps réel, mais par balayage des voies). L'horloge est paramétrée par l'utilisateur, qui choisit la fréquence d'échantillonnage. Ce paramètre est explicité au paragraphe suivant ; - les filtres, dont l'utilisateur peut choisir les caractéristiques (type, fréquences de coupure, etc.). Toutefois cette option n'a jamais été utilisée lors des acquisitions ; - la mise à l'échelle des signaux, pour permettre { l'utilisateur de visualiser en temps réel toutes les informations recueillies par la carte d'acquisition, au moyen d'afficheurs numériques ou encore de graphes. Une horloge permet en outre de limiter le flux d'information vers les affi- 153 Développement et caractérisation de l'interface utilisateur permettant l'acquisition des données et la commande de la turbine. - 6.1.3 cheurs, qui, s'il est trop important, ralentit considérablement l'évolution du programme. l'écriture et l'enregistrement des données, qui se font en deux étapes : (1) l'écriture de l'en-tête comportant toutes les informations utiles au dépouillement des valeurs obtenues pendant l'essai et (2) l'écriture des données au format texte, qui comporte les valeurs acquises sur chacune des voies de la carte, classées par ordre chronologique. Il n'a pas été possible d'intégrer les valeurs d'une horloge afin d'obtenir une base de temps indépendante de la carte, car le temps d'accès { l'horloge s'est révélé être bien plus grand que la fréquence de balayage des entrées de la carte. La base de temps est alors simplement fixée par la fréquence d'échantillonnage. Validation du système d'acquisition et de commande 6.1.3.1 Etude des entrées de la carte La validation du bon fonctionnement de la carte d'acquisition conditionne la validité des essais effectués sur les turbines. Considérons dans ce but les points suivants : - la sensibilité aux perturbations de type magnétique, en recherchant la présence de bruit de fond, qui détériore la qualité du signal. Cet aspect est d'autant plus sensible, que le raccordement des voies sur la carte est asymétrique (à masse commune). Dans cet objectif, les voies ont été testées en « situation », c'est-à-dire lorsque tous les équipements électriques sont en fonctionnement (pompes du tunnel hydrodynamique et générateur électrique de la turbine en marche) ; - le niveau de précision, et de manière annexe la répétabilité et l'hystérésis ; - le respect de la fréquence d'échantillonnage imposé par l'utilisateur, qui sert par ailleurs de base de temps à nos essais ; - le bon ordonnancement des données lors de l'écriture des fichiers ainsi que le volume de données que l'on peut acquérir successivement, sans saturer la mémoire du PC. Pour ces essais un signal a été émis au moyen d'un générateur de fréquence, puis envoyé sur les entrées de la carte. Les performances de la carte ont été étudiées pour des tensions de nature différente (Tableau 6-2). Le nombre de points d'acquisition maximum a été choisi en fonction du cahier des charges : acquisition à la fréquence maximale de la carte sur 5 tours de turbine avec un point par degré, à la vitesse maximum de 1500 trs/min. 154 Mesure sur maquette en tunnel hydrodynamique Type de sollicitation en entrée Tension continue : UЄ[-10 à +10V] Tension alternative : sinusoïde +/- 1V, fréquence 100, 500 et 1000Hz Nombre de points d'acquisition Nombre de voies utilisées Fréquence d'échantillonnage 45000 (correspond au nombre de balayages des voies d'entrée 16 (à masse commune) 333 kéchantillons / seconde Tableau 6-2 : Récapitulatif des tests des entrées carte NI 6052 Les résultats obtenus, avec une tension d'entrée sinusoïdale de fréquence 1000Hz, sont représentés sur la figure 6-4. Figure 6-4 : Acquisition d'un signal sinusoïdal avec LabVIEW On compare le résultat de l'acquisition des 6 premières voies { la courbe thé orique (signal d'entrée), et ce pour 1 période. Ce graphique apporte les inform ations suivantes : - il existe un décalage temporel fixe (retard) entre chacune des voies qui correspond exactement au rapport entre le nombre de voies d'acquisition (ici 16) et la fréquence d'échantillonnage de la carte (ici égale à 333 k échantillons/s ou 333 KHz) : ( 6.1 ) 155 Développement et caractérisation de l'interface utilisateur permettant l'acquisition des données et la commande de la turbine. - la fréquence d'échantillonnage effective , pour une voie, est par conséquent le rapport entre et . Celle-ci est obligatoirement la même pour toutes les voies. ( 6.2 ) - l'ordre de balayage des voies est chronologique, et peut être choisie (le cture de la voie 1 puis la voie 4 par exemple). On remarquera qu'ont été intentionnellement reportées les valeurs d'un balayage (valeur de chacune des voies) au même instant t. C'est pourquoi les points obtenus se répartissent sur une droite verticale, et ne forment pas un seul point unique. Cette dispersion, qui correspond au décalage temporel, est liée au mode d'acquisition (induit par la « lecture » successive de chacune des voies). En tenant compte de ce décalage, les 6 sinusoïdes sont confondues avec la courbe théorique. Sur la figure 6-5 l'acquisition de la première voie est comparée avec la courbe théorique. Pour cette dernière l'épaisseur de trait correspond à un encadrement de +/- 1.5 mV. Figure 6-5 : Acquisition d'un signal sinusoïdal : Voies 1/16 Tous les points sont confondus dans l'épaisseur du trait. Cette figure est une représentation remarquable de la précision de la carte NI associée au logiciel LabVIEW, et reste en deçà de la précision annoncé par le constructeur (4,7 mV). Une bonne répétabilité (45000 balayages de voies ont été observés) sans que ne soient détectés des phénomènes d'hystérésis, qui se seraient manifestés par une phase de montée différente de la phase de descente. Le signal n'est pas bruité, et ne semble pas sensible à la mise en marche de la pompe du tunnel hydrodynamique, ni au fonctionnement de la génératrice. 6.1.3.2 Etude des signaux de sortie de la carte Il a semblé important d'étudier les sorties analogiques de la carte selon le même protocole que pour les entrées. Une de ces sorties est en effet utilisée pour la consigne de vitesse de rotation, qui est reliée à une entrée DAQ du variateur. A partir de la valeur de la tension, le variateur impose la vitesse correspondante à la génératrice. Il est donc important de s'assurer de la précision de la consigne. Dans ce but un oscilloscope numérique a été utilisé, relié aux deux sorties de la carte. Deux configurations ont été testées : (1) une consigne dite « statique » correspondant à une valeur de tension constante, comprise entre + 10V et -10V et affec- 156 Mesure sur maquette en tunnel hydrodynamique tée simultanément aux 2 sorties et (2) une consigne dite « dynamique » correspondant à une sinusoïde de valeur moyenne nulle, d'amplitude 20V et dont les fréquences sont comprises entre 100 et 1000Hz. On compare ensuite la valeur lue sur l'oscilloscope avec celle attendue. Ces essais ont été réalisés dans les mêmes conditions que pour le test des entrées. Les conclusions sont les suivantes : - pour une valeur « statique », les signaux obtenus par les deux sorties sont parfaitement confondus, et ce pour toute la gamme de tension. L'erreur sur la valeur est de l'ordre du mV. On ne constate pas de dérive de la valeur pour un temps de 30min. Ces essais ont de plus montré une bonne r épétabilité, sans phénomène d'hystérésis ; - pour la consigne dite « dynamique », on obtient les mêmes comportements que cités plus haut pour les entrées. 6.1.4 Limitations 6.1.4.1 Nombre de voies Le nombre de voies peut devenir une limitation, si l'on vient { l'avenir, rajouter des capteurs ou d'autres instruments. L'aspect le plus critique ici est le fonctionnement en masse commune, sensible aux perturbations et engendrant des bruits de mesure. Pour remédier à cela il aurait fallu raccorder les instruments en mode différentiel ce qui ramène le nombre de voie maximum de 16 à 8 voies. Dans notre cas, les signaux ne sont pas bruités. Le nombre de voie n'est pas un aspect limitatif. 6.1.4.2 Fréquence d'échantillonnage Le mode de fonctionnement de la carte comporte à notre sens 2 contraintes du point de vue de la fréquence d'échantillonnage : (1) une fréquence égale pour toutes les voies de mesure, et (2) un balayage des voies avec un ordonnancement chronologique. Celui-ci entraine un décalage temporel, fonction de la fréquence de la carte. Pour notre application ces deux aspects ne se sont pas montrés critiques : - Le point (1) engendre des fichiers de taille plus importante. (il ne serait par exemple pas nécessaire d'acquérir les informations de température dans la veine à une fréquence importante). Or, malgré ces contraintes, la gestion des données engendrées (45000 balayages maximum) ne pose pas de difficulté. - Le point (2) entraîne un déphasage non négligeable entre la première et la dernière voie. Prenons l'exemple d'une acquisition de 1 points/° à 1000trs/min pour 14 voies. La fréquence d'échantillonnage de la carte sera égale à 2333Hz. Le déphasage entre deux voies successives sera égal { 6ms, soit l'équivalent de 1°. De même, entre la première et la dernière voie le déphasage sera de 78ms, soit l'équivalent de 12.9°. Une manière simple de remédier à cela consiste à raccorder sur les dernières voies, des capteurs dont la valeur est supposée constante, ou qui 157 Mesure de couple à partir de la génératrice dans tous les cas, ne demande pas de précision temporelle. Typiquement, c'est le cas des valeurs de température, de vitesse d'écoulement ou de pression dans la veine. Une autre solution serait d'augmenter en parallèle la fréquence de la carte. 6.1.4.3 Nombre de points On constate qu'au-delà de 50 000 balayages de 16 voies, à la fréquence maximale de la carte, il y a une saturation de la mémoire interne de la carte. L'inscription du fichier texte ne peut alors plus se faire. Ces conditions sont bien entendu e xtrêmes et vont au-delà des critères retenus dans le cahier des charges : acquisition sur 5 tours de turbine avec 1point/° à la vitesse maximum de 1500 trs/min. 6.2 Mesure de couple à partir de la génératrice Le chapitre 5 expose la possibilité de mesurer le couple à partir de la génératrice. On détaille ici les méthodes expérimentales mises au point pour atteindre cet objectif, tout en caractérisant la chaine de mesure qui y est associée. 6.2.1 Détermination de la constante de couple associée à la génératrice Le couple appliqué sur la génératrice est estimé par une constante de couple , dont la valeur est spécifiée par le constructeur. Cette constante relie la valeur de , (issue du variateur et qui correspond à la composante de couple du courant alimentant la génératrice) à la valeur du couple : ( 6.3 ) 6.2.1.1 Hypothèses La valeur de est une valeur constructeur. Elle peut donc légèrement varier d'une génératrice { l'autre. Pour le test des turbines, deux génératrices sont utilisées, l'une { arbre court et l'autre { arbre long. Les résultats pour cette dernière sont les seuls présentés. La valeur de peut être très légèrement influencée par les conditions expérimentales : humidité, température, vitesse de rotation etc. Elle sera considérée indépendante de ces paramètres, ce qui a pu être vérifié pour la température. Les tests présentés sont des tests « statiques », c'est-à-dire que l'arbre de rotation est bloqué au cours d'un essai. Comme est supposée indépendant de la vitesse de rotation, on extrapolera ces résultats pour des vitesses non nulles. 6.2.1.2 Montage expérimental La génératrice est montée en série (Figure 6-6) avec un couplomètre de précision (Cf. annexe C), dont on a bloqué l'un des arbres de sortie. On demande alors à la génératrice de fournir un couple que l'on compare au couple indiqué par le couplomètre . 158 Mesure sur maquette en tunnel hydrodynamique Hypothèses : les axes de la génératrice et du couple mètre sont parfaitement alignés : il n'y a pas d'efforts parasites ; - on estime le couple de Figure 6-6 : Montage pour le test de frottement statique en libérant l'arbre. Cette valeur correspond au couple nécessaire pour mettre en mouvement l'arbre. Moyennant ces hypothèses, les équations de la statique donnent la relation suivante : ( 6.4 ) Résultats Plusieurs séries d'essai ont été effectués à des niveaux de couple compris dans la gamme du capteur, à savoir de 0 à 2 Nm et pour différentes températures. Cela permet d'obtenir une valeur moyenne de en fonction du couple et des températures. Les constats sont les suivants : - dans la gamme de couple 0 à 2 Nm, est indépendant de et de la température du moteur ; - la dispersion des valeurs entre les différents essais est très faible, inférieure au pourcent ; - la valeur moyenne de , touts essais confondus est de 1,407 ; - cette valeur est supérieure de 2% à la valeur constructeur. 6.2.1.3 Synthèse La relation , donnant le couple fourni par la génératrice, est vérifiée pour les cas statiques. La valeur trouvée expérimentalement est très proche de celle donnée par le constructeur. L'étude d'un cas dynamique nécessitant un banc s'est révélée trop lourde dans le cadre de cette thèse et seul le cas statique a été considéré. Lors des mesures de couple avec la génératrice, il sera conservé la valeur constructeur de qui est de 1.38. 159 Mesure de couple à partir de la génératrice 6.2.2 Détermination des couples résistants Trois sources de couple résistant ont été identifiées. Par ordre croissant, on trouve : (1) l'ensemble des éléments qui constitue le palier et qui lie la turbine et son arbre au bâti, (2) le joint qui assure l'étanchéité entre l'intérieur de la veine et l'extérieur et (3) le résolveur, qui en fonctionnement, exerce un couple électromagnétique résistant. Aucun modèle prédictif donnant le niveau des couples de frottement ne sera proposé mais la caractérisation expérimentale du niveau de frottement avant chaque essai apparaîtra comme une méthode appropriée. 6.2.2.1 Couple de frottement exercé par le palier sur l'arbre On rappelle que le palier est constitué de deux roulements à rouleaux coniques montés en « O », auxquels a été adjoint, en bout d'arbre, un roulement { rouleaux cylindriques. Les frottements internes dans les roulements sont avant tout déterminés par la charge auxquels ils sont soumis, mais aussi par le mode de lubr ification et le type de lubrifiant utilisé.  Montée en température de la graisse Lors de la conception de la balance, une lubrification du palier à la graisse a été choisie. Ce choix a une influence déterminante sur le frottement. Le laminage de la graisse à l'intérieur du roulement est un processus exothermique. Cela provoque un échauffement de la graisse, qui a pour conséquence une baisse de sa viscosité. On s'attend donc { une baisse des frottements visqueux en fonctionn ement jusqu'{ un état d'équilibre. Cet état correspond { l'équilibre entre le flux thermique apporté par le laminage de la graisse et le flux sortant par conduction à travers les pièces, puis par convection naturelle et rayonnement entre ces mêmes pièces et le milieu extérieur (atmosphère). Ces évolutions sont difficilement prévisibles en première approche. Pour contourner cette difficulté, il convient de procéder avant chaque essai à une mise en température de la graisse. Cela se fait simplement par la mise en rotation de l'arbre jusqu'{ la stabilisation de la valeur du couple de frottement.  Chargement des roulements à rouleaux coniques – précharge Le frottement { l'intérieur des roulements à rouleaux coniques est fonction de la charge à laquelle ils sont soumis. Cette charge peut être de deux types : charge radiale (Fr) et charge axiale (Fa) (Figure 6-7). Dans notre cas, la précharge des deux roulements à rouleaux coniques correspond à un chargement axial appliFigure 6-7 : Chargement d'un roulement qué lors du montage de façon égale sur les deux roulements. Lorsque la précharge augmente, le couple de frottement augmente. En fonctionnement, les roulements sont soumis à des efforts extérieurs qui peuvent être radiaux et axiaux. 160 Mesure sur maquette en tunnel hydrodynamique En effet, le passage du fluide induit des efforts de traîné variables sur l'hydrolienne. Cela entraine ainsi une variation du couple de frottement. Figure 6-8 : Couple de frottement pour 2 roulements à rouleaux coniques en fonction de la précharge et des charges radiales. La figure 6-8 montre l'évolution générale du couple de frottement pour 2 roulements à rouleaux coniques en fonction de la charge axiale qui leur est appliquée et cela pour une vitesse de rotation de 1000trs/min24.On remarque sur la figure que plus la précharge des roulements est importante, moins ils sont sensibles aux efforts axiaux. En effet si l'on reprend l'analyse statique du chargement des roulements (cf. § 4.3.6), on s'aperçoit que pour un effort de traînée de 320N développé par la turbine, le chargement radial des roulements du bas et du haut atteint respectivement 940N et 1260N. Pour une précharge nulle du montage on peut s'attendre { une augmentation du couple de frottement supérieure { 0.17Nm, alors qu'elle ne serait que de 0.02 { 0.03 Nm pour une précharge initiale de 250N. On voit alors tout l'intérêt d'appliquer une précharge suffisante, de telle sorte à pouvoir négliger la variation du couple de frottement induite par la variation des chargements axiaux.  Dilatation différentielle du couple arbre alésage On a vu que le frottement était lié à la précharge des roulements. Celle-ci peut être modifiée par une dilatation différentielle du couple arbre-alésage, ce qui par conséquent, induit une variation du frottement en fonctionnement. On notera, comme le montre les figures 6-9 et 6-10, qu'un roulement { rouleaux coniques ne peut reprendre des efforts axiaux que dans un sens. C'est pourquoi ils sont généralement montés par paire et en opposition. Il faut absolument éviter la configuration de la figure 6-10, car cela correspond à un fonctionnement avec jeux, qui outre le fait d'induire des vibrations dans le mécanisme, provoque la destruction rapide des pistes de roulement des rouleaux. 24 D'après le modèle proposé par SKF, fabricant des roulements, et sur la base de la théorie du co ntact de Hertz. 161 Mesure de couple à partir de la génératrice On considère par la suite 2 longueurs caractéristiques du montage, sur la figure 6-11: - Le qui correspond à la distance entre les deux appuis des bagues extérieures et la température de l'arbre ; - Li qui correspond à la distance entre les deux appuis des bagues intérieures et la température de l'alésage. Figure 6-9 : Chargement correct Figure 6-10 : Désolidarisati on des bagues Soit le rapport , correspondant à un montage précontraint avec une précharge P 0. C'est le cas d'un fonctionnement normal des roulements, sans jeu. On étudie à présent 2 cas, correspondant à des rapports et auxquels on associe respectivement des chargements axiaux P 1 et P 2 (On ne considère pas de chargement extérieur) : - Dans le premier cas, on suppose > . On a alors une augmentation de la charge axiale des roulements et P1 >P 0. Cette augmentation correspondrait à une augmentation importante de ( – ) au cours du fonctionnement (( – ) étant nulle au départ: les pièces sont toutes à la même température !) ou à une diminution parallèle de T i et de T e. En effet l'alésage et l'arbre étant du même matériau, ils possèdent le même coefficient de dilatation thermique. Or la longueur Le est environ deux fois plus importante que Li. Donc la diminution parallèle de et de provoque une augmentation du rapport . D'une manière générale, la pratique montre que l'augmentation du rapport est un scénario peu probable. On le rencontre dans les 3 configurations suivantes. (1) : soit il y a un apport de chaleur important, au niveau de l'alésage uniquement : augmente. La seule possibilité est que la génératrice apporte une quantité de chaleur suffisante. Or celle-ci est relativement éloignée des roulements et reste au court du fonctio nnement de l'hydrolienne { une température proche de la température ambiante. (2) : l'arbre est suffisamment refroidi par l'eau qui circule dans la veine. L'expérience a montré que ce n'est pas le cas, l'échauffement au niveau des roulements étant prépondérant. (3) : on a une diminution parallèle de et de . 162 Mesure sur maquette en tunnel hydrodynamique - Dans le second cas, on suppose < . On a alors une diminution de la charge axiale des roulements et P2<P0 . Cette diminution correspondrait à une diminution de ( - T e) au cours du fonctionnement, ou, à une augmentation parallèle de et de . Ces scénarios se rencontrent dans les 3 configurations suivantes. (1) : soit il y a un apport de chaleur important au niveau de l'arbre uniquement. . augmente. En pratique cela n'est pas possible. (2) : soit l'alésage est suffisamment refroidi par le milieu extérieur. L'expérience a montré que ce n'est pas le cas, l'échauffement au niveau des roulements étant prépondérant aux phénomènes de convection libres un niveau des pièces. (3) : on a une augmentation parallèle de et de . Ce scénario est le plus probable, car l'échauffement de la graisse augmente la température globale du boitier à roulements. Il a en effet été observé, lors d'un essai avec une précharge P0 faible, l'apparition d'un jeu interne dans les roulements après une période Figure 6-11 : Chargement d'un roulement de fonctionnement de l'ordre d'une 1⁄2 heure. Il apparait clairement qu'une précharge adaptée est indispensable non seulement { l'évaluation précise du coefficient de frottement, mais aussi au bon fonctionn ement mécanique du système. De plus, l'expérience montre qu'il est indispensable d'attendre un temps de fonctionnement de l'ordre de l'heure, avant de procéder { la mesure des couples de frottement. Cette mesure doit être réitérée après un essai, dans le cas où l'équilibre thermique n'aurait pas été tout { fait atteint.  Influence de la qualité géométrique du système La modélisation cinématique du palier fait apparaitre un système dit « hyperstatique » de degré 2. En effet, l'adjonction d'un roulement { rouleaux cylindriques aux 2 roulements à rouleaux coniques (qui forment à eux-seules une liaison pivot), apporte 2 inconnues statiques supplémentaires pour le même nombre d'équations (6 équations issues de la statique). Cela correspond, d'un point de vue cinématique, au blocage de 2 degrés de liberté au centre de poussé du roulement (« blocage » de 2 translations). C'est pourquoi, il est important que les pièces répondent à des tolérances géométriques précises. Le cas contraire se traduirait par une déformation de l'arbre après montage, ce qui induirait alors des pertes énergétiques dans le système et un couple de frottement variant avec la position angulaire de l'arbre. Finalement, la mesure de l'évolution angulaire du couple de frottement n'a pas fait apparaitre de variation significative. Les dispositions constructives adoptées, ont permis d'éviter ces variations et le couple peut être considéré comme indépendant de la position angulaire de l'arbre. 163 Mesure de couple à partir de la génératrice 6.2.2.2 Couple de frottement exercé par le joint d'étanchéité sur l'arbre Pour éviter la remonté d'eau en provenance de la veine, il a été prévu un système d'étanchéité au niveau du passage de l'arbre { travers la plaque supérieure de la veine d'essai. Deux systèmes différents ont été envisagés (chapitre 4): (1) un système de type joint à lèvre, et (2) un système sans contact muni de chicanes et d'un système de récupération du débit de fuite résiduel. Ce dernier système ne nécessite pas de caractérisation, car la puissance dissipée par frottements entre l'eau et l'arbre en rotation est très faible. Les premiers essais ont été effectués avec ce système d'étanchéité. Malheureusement, lors des essais à grands débits, ce système n'arrive plus { contenir Figure 6-12 : Allure des pertes par la remontée d'eau. C'est pourquoi, il sem- frottement d'un joint à levre. [SKF, 2010] blait préférable de monter un joint à lèvre, dont l'utilisation pose moins de difficultés. La contrepartie est le couple de frottement qu'il engendre sur l'arbre. La figure 6-12, donne un ordre de grandeur de la puissance dissipée par un joint à simple lèvre pour une application standard [SKF, 2010]. Le couple de frottement estimé du graphique atteint une valeur de 0.15 Nm à une vitesse de 1000trs/min. Bien que cette valeur ne puisse être négligée lors des mesures, elle reste raisonnable par rapport au couple fourni par une turbine. Une recherche d'identification des paramètres pouvant en influencer la valeur du couple de frottement du joint et de celui résultant du palier, a été développée. D'après SKF [2010]le frottement est principalement fonction: - du type d'agent { étanchéifier, - de la lubrification, - de la rugosité de la surface de frottement, - de la température ambiante, - de la différence de pression de part et d'autre du joint, - de la vitesse périphérique. Les 3 premiers points sont des facteurs invariants lors d'un essai. En revanche, il faut revenir sur les 3 derniers points. En ce qui concerne l'évolution de température, on constate un changement de température de la plaque (logement du joint) induite par le passage de l'eau. Il conviendra donc d'effectuer la mesure de frottement après avoir atteint l'équilibre thermique. En ce qui concerne la différence de pression, celle-ci peut varier dans des proportions limitée. Ce paramètre a été testé en faisant varier la vitesse d'écoulement et la pression dans la veine (dépressurisation) sans détecter de variation du frott ement. La vitesse périphérique (vitesse relative entre l'arbre et les lèvres du joint), est le paramètre le plus influent. En effet, au cours d'un essai, la vitesse de rotation de 164 Mesure sur maquette en tunnel hydrodynamique l'arbre (et donc la vitesse périphérique) peut évoluer entre 0 et 1500 trs/min, ce qui d'après la figure 6-12 entraine une forte variation de couple de frottement. En conséquence, il convient de mesurer le frottement à différentes vitesses de rotation afin d'obtenir la courbe caractéristique de l'évolution du couple de frottement en fonction de la vitesse de rotation. 6.2.2.3 Couple de frottement exercé par le résolveur sur l'arbre Le résolveur utilisé est du type « brushless », c'est-à-dire sans contact entre le stator et la partie tournante. Pour mesurer la position angulaire de l'arbre, le résolveur possède de 2 enroulements rotoriques, soumis chacun à un champ magnétique tournant (induit par 2 enroulements statoriques). On a la création de deux tensions, dont la combinaison permet de déduire la position du rotor. Il existe ainsi un couple électromagnétique appliqué sur l'arbre. Le constructeur annonce une consommation de référence de 0.02W. Dans l'hypothèse où cette puissance est entièrement dissipée en puissance mécanique, on s'aperçoit que la contribution du résolveur au couple résistant es t infime. 6.2.2.4 Synthèse On a vu l'importance de caractériser pour chaque essai l'évolution du couple de frottement en fonction de la vitesse de rotation. Il convient d'ajouter que le couple de frottement est exprimé par deux composantes : une première composante appelée habituellement frottement « sec », dont la valeur est indépendante de la vitesse de glissement des surfaces en contact et une deuxième composante, appelée habituellement frottement « visqueux », dont la valeur peut être considérée proportionnelle à la vitesse de glissement des surfaces en contact. Figure 6-13 : Allure de la caractéristique Pour la première composante, on fait couple de frottement-vitesse généralement la distinction entre le frottement « de glissement » et le frottement « d'adhérence ». On notera, qu'{ l'exception de quelques essais spécifiques, il ne sera pas nécessaire de mesurer le couple de frottement « d'adhérence », la vitesse de rotation étant différente de 0. Pour chaque essai on s'est attaché { retrouver la caractéristique de la figure 6-13, c'est-à-dire l'évolution de en fonction de ω, en tenant compte des observations faites dans les paragraphes précédents. On utilise la génératrice de courant pour mesurer les couples de frottement, sans turbine, bien évidemment, et en négligeant tous les autres paramètres autres que la vitesse de rotation (position angulaire, température, etc.) 165 Mesure de couple à partir de la génératrice 6.2.3 Réglage et optimisation de l'asservissement de l'arbre de rotation Pour estimer le couple fourni par une turbine, il faut connaitre les termes de l'équation présentée § 5.4.2 : é ( 6.5 ) Les paragraphes 6.2.1 et 6.2.2 montrent comment obtenir les termes et . Est abordé ici le réglage de la boucle de vitesse, qui doit en théorie permettre d'obtenir une vitesse de rotation de la turbine constante, c'est-à-dire une valeur nulle pour le terme é . Cet objectif sera d'autant plus difficile à atteindre, que présentera une forte variabilité angulaire. Le chapitre 2 présente certains dispositifs constructifs permettant de « lisser » le couple, ce qui est bénéfique { la tenue mécanique et { la qualité de l'énergie fournie. Une autre solution simple consisterait à augmenter artificiellement l'inertie de l'ensemble en rotation, en ajoutant un volant d'inertie par exemple. D'un point de vue mécanique, cela s'apparente { une action de filtre passe-bas, qui entraine un lissage du couple et réduit ainsi les fluctuations de vitesse. Si cela n'a pas d'incidence sur la valeur moyenne du couple obtenue, et donc sur les performances moyennes (rendement) de la turbine, cela entraine en revanche une perte d'informations importante au niveau de son comportement et masque ainsi certaines de ses caractéristiques. Il a plutôt été recherché d'optimiser les paramètres de la boucle d'asservissement afin d'obtenir un comportement dynamique acce ptable. Il convient d'ajouter que les turbines n'ont pas été dimensionnées pour supporter des accélérations importantes, qui induisent des contraintes de flexion supplémentaires au niveau des bras. Cette contrainte a été intégrée lors des réglages. Chaque turbine a un comportement qui lui est propre, une inertie propre et présente des variations angulaires de couple plus ou moins marquées. Ces différences de comportement sont principalement influencées par le nombre de pales (deux ou trois) et par l'angle de couverture circonférentiel (turbines { pales droites ou en V). C'est pourquoi, il convient d'effectuer un réglage spécifique de la boucle d'asservissement pour chaque type de turbine. Les critères qui ont été retenus pour optimiser la boucle de vitesse correspondent aux 3 critères habituellement utilisés pour régler les systèmes de commande asservis : la stabilité, la précision et la rapidité. Pour améliorer les performances des systèmes de commande, on utilise habitue llement des correcteurs, qui ont 3 types d'action : - une action proportionnelle P, qui consiste à modifier le gain global de la fonction de transfert en boucle ouverte (FTBO), - une action intégrale I, qui consiste à placer un intégrateur dans la boucle. On augmente ainsi la classe de la FTBO, - Une action dérivée D, qui n'est pas utilisée ici. 166 Mesure sur maquette en tunnel hydrodynamique La figure 6-14 représente la boucle de vitesse utilisée pour la commande de la génératrice (document Parvex). La vitesse réelle de la génératrice, mesurée au moyen d'un résolveur, est comp arée à la consigne. La valeur de l'écart est ensuite corrigée et filtrée pour arriver ensuite au variateur. Celui-ci ajuste en conséquence la charge électrique de la génératrice, en s'appuyant sur la mesure du courant { ses bornes. La correction peut être proportionnelle (P), proportionnelle-intégrale (PI) ou proportionnelle-double intégrales (PI2). Il est en outre possible d'utiliser un filtre passe-bas afin d'éliminer certaines fréquences, émanant de perturbations, avant l'entrée du variateur. Figure 6-14 : Boucle d'asservissement de vitesse (Parvex) Les caractéristiques de ce système de commande ne sont pas toutes connues. Il n'est donc pas possible de le modéliser par une fonction de transfert 25 et en déduire le type de correcteur et les valeurs associées à utiliser. Le réglage des correcteurs et la fréquence de coupure du filtre ont par conséquent été déterminés expérimentalement. Les actions des 3 corrections, de type P, I et PI, selon les trois critères cités plus haut ont été regroupées dans le tableau 6-3. Dans chaque cas, la fonction de transfert associée au correcteur est indiquée. L'utilisation d'une correction proportionnelle ou d'une correction intégrale seule, rend le système instable. Cela se traduit par des brusques variations de vitesse de l'arbre, pouvant nuire { la tenue mécanique d'une turbine. Cette situation est { proscrire. La correction proportionnelle-intégrale, lorsque K n'est pas trop important, apporte une certaine stabilité et de la précision. En revanche, pour des valeurs de K faibles, la rapidité diminue. Le réglage de la boucle d'asservissement relève d'un compromis entre stabilité, précision et rapidité, dont l'optimum devra être recherché lors des essais de réglage. 25 La fonction de transfert d'un correcteur (ou autre) est le rapport entrée-sortie, exprimé dans le domaine de Laplace. 167 Mesure de couple à partir de la génératrice Correcteur Proportionnel Stabilité Précision Rapidité - + + -- ++ - + + - avec Intégral Prop.-Intégral avec (Si ) (Si ) Tableau 6-3 : Bilan des actions de correction En pratique, une consigne de vitesse en rampe { l'entrée du système a été appliquée. La rampe a été préférée à l'échelon, pour limiter les accélérations angulaires. Grace à un oscilloscope, qui récupère la valeur effective de la vitesse de la turbine, la réponse du système est visualisée et comparée à la consigne. Ensuite, les paramètres des correcteurs sont ajustés en deux étapes : - Réglage du gain pour la correction proportionnelle Sur la figure 6-15 apparait la réponse du système à une consigne en rampe. Lorsque la valeur de gain est trop faible, le système perd en rapidité, et tend de façon très lente vers la valeur consigne de vitesse. On augmente alors le gain, jusqu'{ voir apparaitre des oscillations Figure 6-15 : Réglage du gain, réponse à une autour de la valeur consigne, rampe. ce qui correspond à la limite de stabilité du système. On baisse alors le gain jusqu'{ la disparition de ces instabilités. - Réglage de la fréquence d'intégration (correcteur PI) Sur la figure 6-16 apparait la réponse du système à une consigne en rampe. On règle ici la fréquence d'intégration, en gardant la valeur de gain trouvée précédemment. Lorsque la fréquence d'intégration est trop grande, on voit apparaitre des oscillations autour de la Figure 6-16 : Réglage de la fréquence valeur consigne, ce qui corres- d'intégration, réponse à une rampe. pond à la limite de stabilité du 168 Mesure sur maquette en tunnel hydrodynamique système. On baisse ensuite cette fréquence, de façon à limiter le dépassement à 30% de la valeur de consigne (valeur conseillée par le constructeur). Le réglage correct du correcteur PI est alors obtenu. - 6.2.4 Réglage du filtre passe bas Il reste ensuite { éliminer d'éventuelles oscillations, { l'aide du filtre passe bas placé en amont du variateur. Ces perturbations, souvent d'origine mécanique, peuvent entraver le bon fonctionnement du système de mesure en induisant des vibrations parasites. On voit sur la figure 6-17, les conséquences que peuvent avoir ces perturbations sur la réponse du système. On place alors un filtre passe-bas avant l'entrée du signal dans le variateur, dont la fréquence de coupure doit être inférieure aux fréquences des perturbations Figure 6-17 : Perturbations. constatées. Correction dynamique des valeurs de couple Le réglage de la boucle d'asservissement ne permet pas d'obtenir une vitesse rigoureusement constante comme le montre la figure 6-18, représentant les évolutions en fonction du temps de la position angulaire de la turbine, du courant fourni par la génératrice et de la vitesse instantanée. Il apparait que la vitesse de la turbine, qui oscille autour de la valeur consigne de 600 trs/min, n'est pas rigoureusement constante. Il est donc possible de calculer l'accélération angulaire { chaque instant, le terme de l'équation ( 6.5 ) é étant, par conséquent, non nul. Le terme d'accélération angulaire n'a pas été pris en compte dans un premier temps. Or, les premiers essais de mesure de couple effectués avec la balance, ont montré dans certains cas, des résultats déphasés avec les simulations numériques. C'est donc en comparant les résultats expérimentaux aux résultats de simulations numériques, Figure 6-18 : Acquisition du couple avec Digivex. qu'a été émise l'hypothèse 169 Mesure de couple à partir de la génératrice d'un éventuel décalage angulaire des résultats. Une étude portant sur la recherche de l'ensemble des causes pouvant être { l'origine d'un déphasage des r ésultats a alors été entreprise. Les principaux résultats de cette étude initiée pendant cette thèse, ont été approfondis par Aumelas [2011] et seront développés plus en avant dans ses travaux. Pour se rendre compte de l'importance du déphasage, deux rosaces de couple sur les figures 6-19 et 6-20 ont été comparées. L'une correspond à des résultats expérimentaux de la turbine A8R4 avec anneaux (cf. annexe D) et l'autre est issue d'une simulation numérique, considérée comme représentative de l'essai expérimental: - La figure 6-19 correspond à un essai expérimental, dont les données ont été acquises avec le système développé sous LabVIEW. On y représente l'évolution du coefficient de couple en fonction de la position angulaire. Ces données sont issues des deux sorties analogiques du variateur. La vitesse amont est de 1.8 m/s, pour . Pour cet essai, le terme d'accélération n'a pas été pris en compte. - La figure 6-20 correspond à la simulation numérique d'une turbine en configuration canal, pour une vitesse amont de 1.8 m/s, et pour . On y représente l'évolution du couple en fonction de la position angulaire. Figure 6-19 : Evolution angulaire du coefficient de couple, turbine A8R4, , juin 2008 Figure 6-20 : Rosace de couple numérique (C en Nm). Si, d'une manière qualitative, l'allure des deux courbes est comparable (en terme d'évolution globale, d'amplitude et de fréquence), on ne peut pas en dire en dire autant du calage angulaire des valeurs. On note en effet un déphasage de plus de 45° entre les courbes expérimentale et numérique. L'identification des causes de ce déphasage comporte trois points principaux : le premier concerne l'étude des sorties DAC du variateur, le deuxième porte sur le contrôle de l'information de la position angulaire donnée par le résolveur et le troisième sur la correction dynamique du couple. 170 Mesure sur maquette en tunnel hydrodynamique  Premier point : étude des sorties DAC du variateur (cf. figure 6-1). Ces 2 sorties comportent un filtre (Figure 6-21) qui pourrait contribuer au déphase. Les diagrammes de Bode ont permis de retrouver la fréquence de coupure du filtre qui est de l'ordre de 340Hz. Le capteur de position donne un signal évoluant entre -10V et +10V, qui correspond respectivement à -180° et +180° (cf. figure 6-18). On s'aperçoit que la discontinuité du passage de +180° à -180° est mal décrite. Par exemple, à une vitesse de 500trs/min, les valeurs maximum et minimum sont respectivement de +160° et -170°. Cela ne se retrouve pas lors d'une acquisition directe avec Digivex. On peut raisonnablement affirmer que le filtre est responsable de la mauvaise description de la discontinuité. Pour les premiers essais, ce problème a été contourné en tronquant, puis en extrapolant les extremums de la courbe. De plus, et d'après les résultats obtenus par Aumelas [2011], pour une vitesse de rotation de 500 trs/min, ce filtre serait responsable d'un déphasage de 1.5° (fondamental { 8,33Hz). Figure 6-21 : Filtre passe-bas placé en amont des 2 sorties DAC variateur. Pour ce qui est du couple, qui a 500trs/min présente un fondamentale à 25Hz (turbine à 3 pales), le filtre induit un déphasage de 5°. Une comparaison des courbes de courant en utilisant les deux modes d'acquisition, a quant { elle montré que l'atténuation est presque nul. Le filtre n'a pas d'influence sur la valeur mesuré du couple.  Deuxième point : contrôle de l'information de la position angulaire donnée par le résolveur Ces tests ont été effectués de deux manières : (1) en montant un balourd en bout d'arbre et (2) en utilisant la force magnétique d'un aimant. L'idée est simple : pour pouvoir vérifier l'information de position angulaire, il suffit de créer un couple variable sur l'arbre dont l'évolution angulaire est connue. Dans le premier cas, le balourd, placé dans le champ de pesanteur, exerce une couple négatif à la monté et un couple positif à la descente. Dans le deuxième cas, on place un aimant sur le rotor et un aimant sur une partie fixe. Lorsque les deux aimants, au cours de la rotation de l'arbre, sont à proximités, un couple est exercé sur l'arbre. 171 Mesure de couple à partir de la génératrice Ces tests ont montré que le signal de position envoyé par le résolveur est l'image exacte de la position angulaire de l'arbre. La mesure de position est donc correct, et, n'introduit pas de déphasage.  Troisième point : Prise en compte de l'accélération angulaire. La figure 6-22 illustre ce point par un essai dont les données ont été acquises avec le logiciel Digivex (cf. figure 6-1). La position angulaire, la vitesse instantanée, ainsi que le couple, sont des données issues directement du variateur, afin d'éviter la modification des signaux par les filtres. La vitesse amont est de 1.8 m/s, pour . Lors du traitement des données, la valeur du couple a été corrigée par le terme d'accélération. Cette rosace a ainsi été obtenue pour la même turbine et dans les mêmes conditions que la rosace figure 6-19. Ces deux rosaces expérimentales sont Figure 6-22 : Evolution angulaire du tout à fait semblables, les niveaux de coefficient de couple, turbine A8R4, , décembre 2008 par [Aumelas, couple étant tout à fait comparable. 2011] On s'aperçoit ici que la correction dynamique du couple permet de retrouver la même orientation que sur la rosace numérique. Le terme d'accélération est donc bien responsable du déphasage observé lors des premiers essais. Pour conclure ces essais, on retiendra l'importance de la correction dynamique dans la mesure couple, qui, si elle n'est pas prise en compte, entraine un déphasage important (de l'ordre de 45° pour l'essai présenté). Si on envisage une acquisition du couple avec LabVIEW, il est important de supprimer le filtre présent en amont de la sortie DAC, qui entraine un déphasage (limité à quelques degrés), et détériore fortement le signal de position. Reste à contourner les difficultés pour obtenir l'accélération angulaire. On peut ici envisager deux solutions : (1) augmenter la fréquence d'échantillonnage, afin d'avoir suffisamment d'information pour pouvoir, à partir de la position et par dérivation, obtenir l'accélération, ou (2) acquérir la vitesse instantanée soit à partir du variateur (le nombre de voie en sortie de variateur étant limité à deux, il conviendrait de créer une troisième sortie), soit directement à partir du résolveur. L'acquisition { partir de Digivex ne pose pas de difficulté du fait que toutes les informations variateur sont directement accessibles. Le principal défaut est le nombre limité de point (512), qui pour les essais à grandes vitesses de rotation, peut être juste au niveau de la résolution. 172 Mesure sur maquette en tunnel hydrodynamique 6.3 Mesure des efforts de traînée sur une turbine avec une platine piézoélectrique La mesure des efforts de traînée sur une turbine est un aspect important, et a nécessité une longue période de réflexion et de mise au point. La platine de mesure est un système délicat, et sa mise en oeuvre demande de la rigueur et de nombreux essais préliminaires. Les étapes ainsi que les difficultés de cette mise au point sont exposées dans cette partie. Celle-ci est découpée de façon quelque peu artificielle, en présente en premier lieu une phase de mise au point sans hydrolienne puis une phase d'essais en situation (c'est-à-dire avec une turbine en fonctionnement), en essayant de relever tous les points sensibles pouvant influencer la qualité des résultats. 6.3.1 Etape préliminaire : mesure des efforts sans hydrolienne 6.3.1.1 Mesure des efforts statiques  Essais de mesure d'effort statiques Objectifs Ces essais ont trois objectifs principaux : (1) s'assurer que le repère pour le calcul des efforts s'appliquant sur la platine est bien orienté, (2) s'assurer de la localisation du point de réduction du torseur des efforts transmissibles par un ca pteur et (3) s'assurer du bon fonctionnement de l'électronique de mesure. Le principe est simple. La platine de mesure est soumise à un effort constant, dont la valeur et le point d'application sont à priori connus. Les valeurs ont ensuite été récupérées sur le conditionneur de la platine et ont été comparées aux valeurs attendues. Protocole Pour appliquer un effort sur la platine, un filin a été tendu entre un capteur à jauges de contrainte (cf. figure 4-8) et un anneau fixé sur le haut du résolveur (Figure 6-23). La tension du filin est contrôlée { l'aide d'une vis de serrage. Le fil est supposé de même direction que l'axe . Sa masse propre est négligée dans le calcul des efforts. Les efforts étant appliqués progressivement et restant constants, l'hypothèse d'un cas de chargement statique est vérifiée. Les valeurs sont ensuite relevées sur le conditionneur de signaux du capteur à jauge et comparées à celles fournies par la balance de mesure. Ces dernières sont elles aussi directement relevées au niveau du conditionneur de signaux des ca pteurs piézoélectriques (sans passer par la carte d'acquisition) : cela évite de multiplier les incertitudes. 173 Mesure des efforts de traînée sur une turbine avec une platine piézoélectrique Figure 6-23 : Application d'un effort sur la platine. Exploitation des résultats et conclusion L'action mécanique appliquée est un glisseur d'axe central { ⃗ : ( 6.6 ) ⃗ Au centre de mesure défini par le point K (cf. figure 4-18), ce torseur devient alors : { ⃗ ⃗⃗⃗⃗⃗⃗⃗ ⃗ ( 6.7 ) Or d'après le § 4.2.2.3 et après application du principe fondamental de la statique { l'ensemble suspendu sur les capteurs piézoélectriques, les efforts mesurés par la platine satisfont le système suivant : 174 Mesure sur maquette en tunnel hydrodynamique ( 6.8 ) { ( ) Connaissant la valeur de la tension de T, le relevé des ainsi que des permet de résoudre ce système et de trouver une valeur expérimentale pour . Les conclusions sont les suivantes : - Cet essai très simple a permis de mettre en évidence le lieu de réduction (point K sur la figure précédente) du torseur des actions mécaniques ext érieures appliquées à la platine de mesure. La définition de ce lieu géométrique est primordiale pour la mesure des efforts hydrodynamiques appliqués sur la turbine. Le lieu de K correspond au lieu annoncé par le constructeur, retrouvé avec une précision inférieure à 5%, ce qui compte tenu des incertitudes inhérentes au protocole de mesure (Incertitudes sur la valeur, la direction et le point d'application de T) est tout à fait acceptable. - La valeur de T a été retrouvée avec une précision meilleure car ne dépendant pas de l'incertitude sur la valeur de l, et a permis de mettre en évidence une dérive de la mesure avec le temps, inhérente à la technologie des capteurs et caractérisée ci-dessous. - L'orientation du repère associé { la platine est respectée : le montage est bon.  Etude de la dérive temporelle des signaux de force Objectifs Le principe de mesure des capteurs piézoélectriques a été abordé dans le paragraphe 4.2.1. Cette technologie fait appel à des condensateurs dont la charge est induite par des électrons en provenance des éléments sensibles, à savoir des cristaux de quartz. On mesure alors la tension aux bornes des condensateurs pour en déduire l'effort appliqué sur le capteur. Il n'est malheureusement pas possible d'éviter une « fuite » d'électrons au niveau des condensateurs, ce qui par conséquent, entraine une diminution de la tension et donc une dérive de la valeur de l'effort mesurée pour un effort appliqué constant. La dérive temporelle des signaux de force se traduit par le phénomène suivant : pour un chargement constant de la platine, on constatera ainsi une baisse progressive des signaux (jusqu'au déchargement complet des condensateurs). Le constructeur donne des indications sur la possibilité de dérive, mais pas de valeur précise. Il a en effet été constaté que la dérive est propre à chacun des capteurs. L'étude de cette dérive permettra d'affiner le protocole de mesure d'effort et d'éviter certaines approximations dans le dépouillement des mesures. 175 Mesure des efforts de traînée sur une turbine avec une platine piézoélectrique Protocole Les informations de chacune des 8 voies du conditionneur de signaux sont a cquises grâce à la plateforme d'acquisition sur LabVIEW. Toute la chaîne de mesure et d'acquisition est ainsi caractérisée. Les capteurs ne sont soumis à aucun effort variable, et sont « shuntés » avant chaque essai (remise à zéro). Le temps d'acquisition est du même ordre que le temps prévu pour un essai de mesure sur une maquette (environ 15min) et la fréquence d'acquisition est de 10Hz de façon à limiter le nombre de points. Différents calibres sont testés, (le calibre correspond ici { l'étendue de mesure permise par un capteur : en pratique le constructeur utilise des condensateurs dont les capacités diffèrent selon le calibre souhaité) { différentes température d'utilisation (enceinte du laboratoire ≈20° et ≈30°) Exploitation des résultats et conclusion Un essai type, pour une température du laboratoire de 20° - et concernant uniquement la première voie - est présenté sur les figures suivantes. La figure 6-24 correspond { l'utilisation d'un petit calibre (+/-50N) et la figure 6-25 à l'utilisation d'un calibre 10 fois supérieur (+/-500N) Figure 6-24 : Dérive temporelle du signal d'effort de la voie 1 (Fx 1 + Fx 2 ), pour le calibre +/-50N Figure 6-25 : Dérive temporelle du signal d'effort de la voie 1 (Fx 1 + Fx 2 ), pour le calibre +/-500N Plusieurs séries d'essai ont été effectuées pour chacune des 8 voies et ont permis d'établir les conclusions suivantes quant à la dérive : - La mise à zéro des voies se fait avec une très bonne précision : il ne reste donc que très peu de charges résiduelles sur les lames des condensateurs de charge (Cela correspond { l'ordonnée { l'origine des courbes de régression linéaire présentées ci-dessus). Pour l'ensemble des essais et pour chacun des calibres, la distribution autours du zéro des valeurs initiales des efforts (post-shuntage) est inférieure au dix-millième de l'étendue de mesure, donc tout à fait négligeable. - L'évolution temporelle du signal peut être considérée comme linéaire et indépendante du calibre et de la température. Les figures précédentes montrent que les coefficients directeurs des courbes de régression linéaire sont indépendants du calibre pour une même voie, mais sont en réalité dépendants des voies testées. 176 Mesure sur maquette en tunnel hydrodynamique - On retiendra que pour la voie testée, celui-ci est inférieur au centième de newton par seconde, ce qui reste vrai pour les voies concernant les mesures des efforts selon les axes x ou y. La dérive peut être positive ou négative selon les voies. La dérive est environ 5 fois plus importante pour les voies de mesure des efforts selon l'axe z (non utilisées dans notre cas). La dispersion des mesures est faible. Celle-ci est de l'ordre de +/- 0.25 % de l'étendue de mesure et cela tous calibres confondus. On pourra ainsi raisonnablement négliger la dérive temporelle du signal pour les mesures des efforts de traînée compte tenue de la durée des essais envisagée. La durée d'un essai sera alors définie par le temps entre la mise à zéro des capteurs et la fin de l'acquisition des efforts. 6.3.1.2 Mesure des efforts dynamiques Les efforts de traînée s'appliquant sur la turbine sont variables. Ils seront en général mesurés lors de la rotation d'une maquette d'hydrolienne pour différente s vitesses de rotation. Il faut donc s'assurer : (1) que la rotation de l'arbre de la balance n'entraine pas de perturbation de la mesure par des effets dynamiques, et que (2) les capteurs soient opérationnels pour ce type de mesure. Ces deux points sont étudiés successivement dans les paragraphes suivants.  Influence des efforts dynamiques induits par la rotation de l'arbre Pour établir la relation entre les efforts mesurés par les plots de mesures et les efforts hydrodynamiques supportés par la turbine, le système matériel {balance} a été isolé. Cet isolement ne fait pas intervenir d'éventuels efforts internes qui s eraient induits par la rotation de l'arbre. Dans le chapitre 4, l'hypothèse de géométrie parfaite des pièces – et par conséquent de l'arbre - a été posée. En particulier, la question des tolérances géométriques des pièces est abordée. Dans ce cas précis cela signifie qu'il a fallu minimiser les défauts géométriques du guidage en rotation (portées des roulements, alésage ainsi que précision de fabrication des roulements), pour se rapprocher de cette hypothèse. Ces précautions étant prises, la question de l'équilibrage dynamique de l'arbre s'est posée. La classe d'équilibrage la plus exigeante selon la norme NF E90-600 [AFNOR, 1985] a été choisie (Classe G 1) de telle sorte à minimiser les effets dynamiques. Cela revient en pratique à faire tendre vers 0 les produits d'inerties indésirables du solide en rotation et { ramener le centre d'inertie sur l'axe de rotation théorique de l'arbre. On notera que les efforts induits présentent une évolution périodique, dont la fréquence correspond à la fréquence de rotation de l'arbre. De plus, ces perturbations ne peuvent pas être éliminées par filtrage, car proche de la fréquence d'évolution des efforts { mesurer. Toujours au sens de cette norme, cela revient à admettre après équilibrage, un balourd maximum de 19g.mm. (A titre indicatif, cela correspond à une variation d'un effort radial induit, à vitesse de rotation constante et à 1500 trs/min, de +/0,45N). A noter, qu'après montage, il n'est pas certain que ce critère soit respecté, 177 Mesure des efforts de traînée sur une turbine avec une platine piézoélectrique car les roulements présentent une valeur de faux-rond non nulle (spécifiés au chapitre 4). Figure 6-26 : Contrôle du battement de l'arbre. Une mesure de battement de l'arbre { l'aide de comparateur a été effectuée après montage (Cf. figure 6-26). Cette mesure s'est révélée très concluante : celui-ci ne dépasse pas 40 aux extrémités. Cette valeur est en deçà des tolérances des roulements : il n'a pas été nécessaire de la diminuer. Enfin, une série de mesures a été menée afin mettre en évidence l'influence de la rotation de l'arbre sur les mesures. Celle-ci consiste en l'acquisition continue des signaux d'efforts, avec : (1) une première phase sans rotation de l'arbre et (2) une seconde phase avec une rotation à 1500 trs/min (valeur maximale permise pour les mesures). Il n'y a pas d'efforts extérieurs variables s'appliquant sur la platine de mesure pendant ces essais. Ceux-ci ont mis en évidence une modification marginale de la mesure en régime permanent. (Ce qui n'est pas le cas des phases d'accélération) Ainsi, on retiendra de cette section les points suivants : - Tout a été mis en oeuvre pour limiter l'influence des effets dynamiques, en particulier en soignant la géométrie des pièces et par un équilibrage précis de l'arbre. - Les tolérances géométriques des pièces vérifiées après montage sont respectées. - Les résultats de mesure d'effort « à vide » et à vitesse de rotation constante n'ont pas mis en évidence la nécessité de prendre en compte les effets dynamiques. - Les phases d'accélération se traduisent par une réaction du support mesuré par la balance, mais ces aspects n'ont pas vacation à être corrigés. En effet le système réel possède lui aussi une inertie, qui est une de ses caractéristiques propre, au même titre que pour ce dispositif expérimental. De plus les phases transitoires ne font pas l'objet de campagne de mesure. Néanmoins, dans l'objectif de séparer les effets induits par une accélération angulaire de l'arbre (évolution périodique de la vitesse angulaire a utour de la vitesse moyenne consigne par exemple) il est possible de faire une correction des mesures, par post-traitement, en utilisant les données d'accélération angulaire et d'inertie de l'ensemble {Turbine-arbre}. - Il semble raisonnable de renouveler ces essais après une certaine période d'utilisation afin de s'assurer de l'état des roulements. En pratiq ue, on retrouve en effet un endommagement progressif des roulements, ce qui se 178 Mesure sur maquette en tunnel hydrodynamique traduit par des ondes vibratoires induites dans la structure de la balance. Cela est dû { l'écaillage progressif des pistes de roulement des éléments roulants.  Sollicitations cycliques par montage d'un balourd sur l'arbre Afin de s'assurer du bon fonctionnement du système et de sa précision, lors de mesures d'efforts cycliques, a été menée une série d'expériences en utilisant un balourd monté en bout d'arbre (Figure 6-27). Les équations d'évolution théorique des efforts selon les axes et sont obtenues à partir des équations de la dynamique, appliquées au balourd . Les hypothèses simplificatrices formulées sont les suivantes : - les propriétés de masse du balourd sont obtenues { partir d'un modeleur volumique (SolidWorks), et sont supposées très proches des propriétés réelles ; - compte tenu du dernier paragraphe, l'arbre est considéré comme parfaitement équilibré ; - l'accélération angulaire de l'arbre est considérée comme nulle. La vitesse de rotation choisie pour les essais est de 1500trs/min, de telle sorte à obtenir des valeurs d'efforts assez grandes. La figure 6-28 présente le résultat des mesures de l'évolution des efforts expérimentaux comparé { l'évolution théorique. Figure 6-27 : Balourd test Figure 6-28 : Mesure expérimentale de forces avec balourd (Vitesse de rotation 1500trs/min) On retiendra de cette section les points suivants : - les courbes théoriques et expérimentales peuvent être considérées comme parfaitement en phase. La présence d'un pion de centrage sur le balourd permet de caller angulairement les mesures ; - il existe une dispersion des valeurs expérimentale de l'ordre de +/- 2N. Ce qui est conforme aux incertitudes de mesures spécifié dans le cahier des charges. - les résultats expérimentaux suivent de manière remarquable l'évolution sinusoïdale attendue, malgré un léger amortissement. Les incertitudes 179 Mesure des efforts de traînée sur une turbine avec une platine piézoélectrique concernant les propriétés de masses du balourd ainsi que la mesure de v itesse de rotation peuvent en être l'origine. On peut raisonnablement affirmer que la balance de mesure d'effort est apte { la mesure d'effort dynamique fortement variable. 6.3.2 Mise en évidence de l'influence du support de la platine piézoélectrique sur la mesure des efforts 6.3.2.1 Mouvements du support de la balance De potentiels mouvements du support peuvent influencer la qualité de la mesure des efforts s'appliquant sur la platine. Il est en effet important que ce support puisse être considéré comme référentiel galiléen (cf § 0). Dans ce paragraphe, est présentée la démarche mise en oeuvre dans l'objectif de s'assurer de l'immobilité du support. Cela prend tout son sens lors du fonctionnement de la boucle hydrodynamique, ou, lors du passage de personnes à proximité immédiate du dispositif de mesure. L'application des théorèmes de la dynamique sur la balance de mesure (Platine, génératrice, arbre, turbine), donne la relation suivante, écrite en O (Cf. figure 4-18) : ̅̅̅̅̅̅̅̅̅̅ { ⃗ ⁄ ( 6.9 ) ⁄ Celle-ci ne peut être mise sous cette forme que si le référentiel d'étude est galiléen. De plus, et comme cela a été vérifié au chapitre 4, si la rigidité des éléments de la balance montée sur les plots est suffisante, la relation ( 6.9 ) se ramène au cas statique. Dans un premier temps, des mesures d'accélération ont été menée directement sur la veine. Des accéléromètres ont été posés dans les trois directions de l'espace et en plusieurs points de la section d'essai. Ces capteurs n'ont pas permis de détecter un quelconque mouvement du support lors de la mise en route de la boucle hydraulique. Par contre la chute d'un objet sur la veine est immédiatement détectée ainsi que le passage de personnes à proximité. Si la chute d'objet peut être évitée pendant un essai, le passage fortuit de personnes en visite ne le peut pas. Cet aspect a été mis en évidence, et l'on a quantifié Figure 6-29 : Mise en évidence des vibrations du support de l'influence de l'applic- la balance (Voie 4) 180 Mesure sur maquette en tunnel hydrodynamique ation d'un Dirac d'effort sur le support. C'est ce que met en exergue la figure 6-29 : celle-ci représente une mesure d'effort sur une des 8 voies de la balance, sans application d'effort extérieur (la section d'essai est en eau). On remarque bien l'influence des sauts, qui se traduisent des « pics » successifs d'efforts. On peut néanmoins souligner que ces efforts parasites ne sont que de très faible a mplitude, et sont amortis rapidement. Le support de la veine est une bonne approximation d'un référentiel galiléen. 6.3.2.2 Déformation du support après mise en eau de la veine Une des difficultés majeures rencontrées lors de la mise en oeuvre de la balance, et concernant plus particulièrement la mesure des efforts, a été de rendre indépendante les mesures de la déformation lente du support induite par le remplissage en eau de la veine d'essai. En effet, après de premiers essais, les mesures mettaient en évidence des efforts importants, alors même que la balance n'était { priori soumise { aucun chargement extérieur. Ce paragraphe illustre la démarche mise en oeuvre permettant de mesurer avec précision les efforts hydrodynamiques malgré la déformation du support de la balance.  Etape 1 : Minimisation des déformations du support de la balance. Lors de la mise en eau, la partie supérieure du tunnel hydrodynamique se remplit de plusieurs m 3 d'eau. Cette charge est loin d'être négligeable pour la dalle supérieure (Cf. figure 3-1), ainsi que pour la veine d'essai dans laquelle est incluse la section d'essai. Après une campagne de mesure des déformations de l'ensemble de la veine ({ l'aide de comparateurs), ont été mises en évidence des déformations supérieures au millimètre à certains endroits. De plus ces mêmes mesures montrent que le support est soumis à la fois à des contraintes de torsion et de flexion. Etant donné que les efforts induits dans les capteurs étaient à la limite de leur critère de résistance, une reprise des supports de la veine a été entreprise. Le rajout de deux nouveaux supports intermédiaires ainsi que la reprise de ceux existants ont permis de réduire de manière drastique les déformations du support de la balance, tout en conservant la bonne filtration des vibrations parasites transmises par la dalle.  Etape 2 : Etablissement d'un protocole permettant de rendre la mesure indépendante des déformations du support. Plusieurs pistes ont été explorées : (1) isoler le support du reste de la veine, (2) créer des abaques permettant la prise en compte des efforts induits par les déformations sur les mesure (correction par post traitement) et (3) mettre les capteurs d'effort à 0 après remplissage de la veine, donc après déformation du support. La première piste a été abandonnée pour sa complexité, la deuxième piste présente l'inconvénient d'une répétabilité des mesures moyenne et des incertitudes trop grandes (la déformation de la veine dépend fortement de certains paramètres, qui ne restent pas forcément constants, etc.) 181 Mesure des efforts de traînée sur une turbine avec une platine piézoélectrique La troisième solution a donc été retenue : pour effectuer des mesures d'efforts il faudra donc attendre la stabilisation des niveaux d'eau dans la veine (les contraintes engendrées sur le support se stabilisent alors), et effectuer la mise à zéro des capteurs, alors même que le fluide circule dans la section. Cette mise à zéro se fait lorsque l'hydrolienne ne tourne pas : les valeurs des forces de traînée seront corrigées en enlevant la valeur de la traînée induite sur la turbine à vitesse de rotation nulle. Cet effort est calculé selon les hypothèses classiques de pression d'arrêt isentropique des particules du fluide sur une surface : il est donc nécessaire, pour chaque turbine, de connaitre son projeté orthogonal sur le plan ayant pour vecteur normal le vecteur définissant l'écoulement du fluide. L'air de la surface projetée obtenue est en pratique calculée avec SolidWorks. 6.3.2.3 Déformation du support sous contraintes thermomécaniques Une autre source de déformation du support de la balance est l'introduction de contraintes thermomécaniques. Pendant une même journée, les variations de température de l'enceinte du laboratoire peuvent être grandes (en été : l'enceinte peut passer de 20 à 35°C). La température du support tend à suivre ces valeurs. L'eau du circuit ne montre quant à elle que peu de variation, et dépasse rarement 18 à 20 °C. La figure suivante a pour objectif de mettre en évidence la variation de la température du support de la balance. La température de la surface de la plaque est mesurée à proximité des plots, dès la mise en eau du système. On relève parallèlement la température de l'enceinte du laboratoire ainsi que celle de l'eau circulant dans la veine d'essai, qui pour cet essai atteint 20,5°C et reste constante. Après arrêt du circuit (la veine ne contient alors plus d'eau) le relevé des températures se poursuit. Figure 6-30 : Evolution de la température à la surface du support de la platine de mesure Dans le cas de la figure 6-30, la mise en eau de la veine d'essai a pour effet d'abaisser en quelques minutes la température du support de la balance, ce qui se traduit géométriquement par un rapprochement des liaisons plots-veine et donc par l'introduction de nouveaux efforts détectables par les plots (dépendants du 182 Mesure sur maquette en tunnel hydrodynamique coefficient de dilatation thermique du matériau de la plaque). L'expérience a montré que ces efforts restent modérés mais sont de nature à modifier les mesures. On remarque, toujours sur la figure 6-30, qu'après cette période transitoire, la température de la plaque reste constante tant qu'il y a circulation d'eau. Après arrêt de la circulation d'eau et vidange de la veine d'essai la température de la plaque remonte et tend vers la température de l'enceinte. On retiendra de ces essais, qu'avant de faire une mesure d'effort, il convient d'observer un temps d'attente de l'ordre de quelques minutes afin d'atteindre une certaine stabilité de température du support de la balance. Les mesures longue s (mesures continues après une remise à zéro des capteurs) sont à proscrire et ne devront pas dépasser pas le quart d'heure. 6.3.3 Autres facteurs pouvant influencer la mesure d'effort 6.3.3.1 Quantification de l'influence du joint d'étanchéité sur la mesure des efforts La difficulté de mise en oeuvre d'un système d'étanchéité sans contact a conduit à effectuer les essais avec des joints à lèvre. De plus, la quantification du couple de frottement se fait avec une bonne précision, nécessaire pour des mesures des coefficients de couple ou de puissance. Par contre, la quantification de l'influence des joints n'a pas été prise en compte lors des essais de mesure d'effort. Les joints utilisés sont en élastomère plutôt qu'en P.T.F.E. Si ces derniers permettent de réduire les coefficients de frottement, ils sont en contrepartie beaucoup plus rigides, et donc ont qualitativement une influence plus grande sur la mesure des efforts. On peut rajouter que l'arbre associé { son palier présente une rigidité très impo rtante. Cela limite le déplacement relatif entre le joint et l'arbre (dont l'estimation de la valeur, d'après les hypothèses d'un modèle poutre, est inférieure à 5 ). Cela peut être néanmoins une piste à explorer, qui peut permettre à terme de réduire encore les incertitudes de mesure. 6.3.3.2 Quantification du niveau de bruits de mesures Des essais préliminaires ont été menés afin de quantifier le niveau de « bruit de mesure ». La sensibilité à certains composants pouvant engendrer des signaux parasites a été recherchée, comme : la sensibilité à la mise en marche de la pompe hydraulique du tunnel, la mise en route du variateur de commande de la génératrice, etc. Pour ce faire, ont été effectués des essais d'acquisition de force { haute fréquence d'acquisition, permettant de rechercher de signaux dans une gamme de fréquence la plus large possible. Pour chaque essai, les plots ne sont soumis à aucun effort variable, et on étudie l'évolution temporelle du signal. Ces essais, n'ont pas montré de sensibilité particulière de l'instrument de mesure aux perturbations extérieures de type électromagnétique, et en particulier une insensibilité { l'utilisation de la génératrice et de son variateur source connue de perturbation électromagnétique. 183 Mesure des efforts de traînée sur une turbine avec une platine piézoélectrique 6.3.4 Bilan : analyse des incertitudes de mesure 6.3.4.1 Mesure de couple L'étude des incertitudes de mesure doivent permettre de déterminer la précision de mesure des coefficients de couple Cc et de puissance Cp. On rappelle que le coefficient de couple a pour expression : ( 6.10 ) Le coefficient de puissance a quant à lui l'expression suivante : ( 6.11 ) On a donc les incertitudes relatives suivantes [Taylor, 2000] : | | | | | | | | | | | | | | | | | | | | | | | | ( 6.12 ) et ( 6.13 ) Les incertitudes sur le rayon de la turbine sont inférieures au millimètre, il en va de même pour S. Compte-tenu des valeurs de S et de R, les incertitudes relatives pour ces deux grandeurs sont négligeables. Il en va de même pour la masse vol umique de l'eau (De plus, la température de l'eau est connue avec précision). Il reste l'incertitude de la mesure de la vitesse du fluide, de la vitesse de rotation et du couple utile, qui lui-même est fonction du couple de frottement, de la constante de couple et de la chaine de mesure de l'intensité aux bornes de la génér atrice. Les paragraphes précédents montrent les difficultés que pose la détermination des incertitudes de ces deux derniers points. Ceux-ci seront détaillés dans les travaux de thèse d'Aumelas [2011]. A ce stade, il semble acquis que les objectifs fixés dans le cahier des charges so nt remplis, à savoir une incertitude sur la mesure du coefficient de couple inférieur à +/- 5%. 6.3.4.2 Mesure des efforts de traînée L'obtention des efforts de traînée n'est pas directe. La précision dépend fortement du respect des hypothèses vérifiées plus haut. Les équations de la dynamique appliquées à la balance de mesure (turbine incluse) donnent l'équation vectorielle suivante : ⃗ ( 6.14 ) ⁄ 184 Mesure sur maquette en tunnel hydrodynamique Or, les hypothèses émises et vérifiées sont les suivantes : - Le support est une bonne approximation d'un référentiel galiléen. Sa d éformation induite par chargement et par contraintes thermiques est prise en compte par une mise à zéro des capteurs après mise en eau. - La grande rigidité de la balance évite de mettre en place une compensation accélérométrique des mesures. - Les efforts parasites internes induits par le balourd de l'arbre en rotation sont minimisés et quantifiés. - La chaine de mesure permet d'accéder { avec une précision quantifiée, dépendante de l'étendue de mesure choisie. - Les efforts induits par le joint restent à préciser, mais compte tenu de la grande rigidité de l'arbre, des faibles valeurs battement mesurées ainsi que des faibles chargements, ces efforts seront considérés comme négligeables. Compte tenu de ces éléments, et en prenant arbitrairement , les incertitudes de mesure des efforts de traînée calculés sont les suivantes : ( 6.15 ) Ces valeurs seront confirmées dans les travaux de thèse d'Aumelas [2011]. 185 Mesures sur maquettes en tunnel hydrodynamique : résultats expérimentaux 6.4 Mesures sur maquettes en tunnel hydrodynamique : résultats expérimentaux 6.4.1 Présentation de la turbine testée Cette turbine a été conçue { partir de l'ensemble des résultats obtenus par sim ulations numériques et de l'ensemble des résultats expérimentaux obtenus lors de cette thèse et de la thèse d'Aumelas [2011] sur une première série de maquettes. L'ensemble de ces données ont permis d'obtenir cette turbine, de type Achard, et dont les performances sont remarquables. Elle a fait par ailleurs l'objet de dépôts de brevets. Rayon Hauteur Solidité Nombre et géométrie des pales Raccord moyeu-pale 87.5 mm 175 mm 1.1 3 pales droites à profil NACA 0018 3 bras en position centrale à profil NACA 0018 Tableau 6-4 : Caractéristiques de la turbine testée. Les caractéristiques principales de cette turbine sont consignées dans le tableau 6-4 . On notera les aspects intéressants suivants : Le profil utilisé pour les pales est conventionnel, mais a fait l'ob jet d'une projection tangente à mi-corde. Les pales sont droites pour limiter les écoulements dirigés selon l'axe de rotation (Ecoulements verticaux ici). Le montage d'au moins deux turbines par arbre permettra l'auto-démarrage, malgré les pales droites. - La section des bras est définie par un profil NACA. Cela a permis d'en réduire au maximum la traînée. Ces bras ne sont pas droits, mais sont incurvés. Cela permet un raccord braspale optimal, qui par ailleurs a été particulièrement travaillé afin de minimiser la traînée d'interférence. Celle-ci s'avère être particulièrement pénalisante pour Figure 6-31 : Maquette de la turbine testée ce type de turbine. 186 Mesure sur maquette en tunnel hydrodynamique 6.4.2 Conditions et protocole expérimentaux 6.4.2.1 Conditions expérimentales Les conditions expérimentales ont été décrites au chapitre 3. La campagne a été menée pour une turbine dans une configuration mono-colonne sans dispositif de conditionnement. Le dispositif d'étanchéité utilisé dans ce cas est un joint { lèvre, et non le dispositif sans contact. 6.4.2.2 Protocole expérimental Le protocole expérimental résulte de l'ensemble des constats fait dans les se ctions 6.2 et 6.3, et dont les points importants sont les suivants : - Détermination « à vide », avant et après chaque essai, du couple de frottement s'exerçant sur l'arbre. Nécessité d'une mise en rotation préalable de la turbine, pour stabiliser ce couple (15 à 30min). - Mise en eau de la veine, et attente de la stabilisation de la déformation de la plaque supérieure induite (15 à 30min). Réglage de la vitesse du fluide dans la section. - Mise à zéro des capteurs d'effort, avec turbine { l'arrêt : les essais peuvent démarrer, et ne doivent pas dépasser 15min. - Pour chaque acquisition, La vitesse de rotation de la turbine est imposée, de sorte { obtenir le paramètre d'avance désiré. 6.4.3 Présentation et analyse des résultats expérimentaux Les résultats expérimentaux sont présentés dans les paragraphes suivants, et concernent : (1) l'évolution du coefficient de couple moyen pour les vitesses amont de 1.8, 2.3, 2.8 m/s ; (2) l'évolution du coefficient de puissance (rendement de la turbine) pour les vitesses amont de 1.8, 2.3, 2.8 m/s ; (3) l'évolution angulaire du coefficient de couple { différents paramètres d'avance et pour les vitesses de 1.8 et 2.8 m/s ; (4) l'évolution angulaire des efforts de traînée au paramètre d'avance optimal et pour une vitesse amont de 2.3 m/s. 187 Mesures sur maquettes en tunnel hydrodynamique : résultats expérimentaux 6.4.3.1 Evolution du couple moyen La figure 6-32 présente la superposition des évolutions du coefficient de couple pour 3 vitesses caractéristiques de fluide. Figure 6-32 : Evolution du coefficient de couple en fonction du paramètre d'avance et de la vitesse infinie amont. On notera les points suivants : - Les évolutions de en fonction de sont des courbes « en cloche ». - On constate une évolution de jusqu'{ un maximum, qui est atteint avant le paramètre d'avance optimal , pour lequel le coefficient de puissance est maximal. La valeur de décroit ensuite pour atteindre 0 : ce point de fonctionnement correspond { l'emballement de la turbine, pour lequel les forces motrices sont équilibrées par les forces de frottement. Ce point n'apparait pas sur la courbe. - Le maxi croit avec l'augmentation de la vitesse amont. - Le tel que est maxi décroit avec l'augmentation de la vitesse amont. 188 Mesure sur maquette en tunnel hydrodynamique 6.4.3.2 Evolutions du coefficient de puissance La figure 6-33 présente la superposition des évolutions du coefficient de puissance pour 3 vitesses caractéristiques de fluide. Figure 6-33 : Evolution du coefficient de puissance en fonction du paramètre d'avance et de la vitesse infinie amont. On notera les points suivants : - Les évolutions de en fonction de sont des courbes « en cloche ». - On constate une évolution de jusqu'{ un maximum, auquel on associe le paramètre d'avance optimal . La valeur de décroit ensuite pour atteindre 0 : ce point de fonctionnement correspond { l'emballement de la turbine, pour lequel les forces motrices sont équilibrées par les forces de frottement. Ce point n'apparait pas sur la courbe. - Le maxi atteint 35% pour une vitesse amont de 2.8m/s et un de 2.0. Les dernières évolutions des turbines permettent à présent d'atteindre des coefficients de puissance proches de 40%. On remarquera que cette turbine montre des performances presque semblables pour une plage de vitesse amont étendue (2.3-2.8m/s). Pour une vitesse amont de 1.8m/s, on observe néanmoins une baisse sensible des performances. - Le décroit avec l'augmentation de la vitesse amont. 189 Mesures sur maquettes en tunnel hydrodynamique : résultats expérimentaux 6.4.3.3 Evolution angulaire du coefficient de couple Les figures 6-34 et 6-35 présentent l'évolution angulaire (3 révolutions successives) du coefficient de couple pour 2 vitesses de fluide (1.8 et 2.8m/s) et pour 5 paramètres d'avance (0.5, 1, 1.5, 2, 2.5). Figure 6-34 : Evolution angulaire typique du coefficient de couple pour différents λ et pour une vitesse infinie amont de 1.8m/s Figure 6-35 : Evolution angulaire typique du coefficient de couple pour différents λ et pour une vitesse infinie amont de 2.8m/s On notera les points suivants : - L'évolution de est périodique. Cela est caractéristique d'une turbine à 3 pales. - On distingue nettement 3 zones de fonctionnement moteur ([ ] ) et 3 zones de fonctionnement complémentaire non moteur, avec des valeurs de proches de 0, voir négatives. - Les valeurs de sont faibles pour les petits et sont négatives sur une large plage angulaire : cela correspond à des points de fonctionnement à très faible rendement. - Les valeurs de augmentent ensuite, et la valeur moyenne de passe par un maximum pour très proches de . - On constate ensuite une décroissance des valeurs de , jusqu'{ l'emballement, qui correspond { une valeur moyenne de nulle. - A les maximums angulaires de se trouve à . - Les lieux de ces maximums ont tendance à se décaler angulairement dans le sens trigonométrique. - Le niveau de couple augmente globalement avec l'augmentation de la vitesse de fluide incidente, et d'après ces courbes, les caractéristiques d'évolution de sont semblables pour la plage de vitesses de ces expériences : cela est en pratique très intéressant, car la vitesse des courants n'est pas toujours constante. 190 Mesure sur maquette en tunnel hydrodynamique 6.4.3.4 Variation angulaire des efforts de traînée Les figures 6-36 et 6-37 présentent l'évolution angulaire (1 révolution successives) des efforts de traînée pour une vitesse de fluide de 2.3 m/s et pour le paramètre d'avance optimal. Figure 6-36 : Evolution angulaire typique de l'effort de traînée selon l'écoulement pour le paramètre d'avance optimal (λ=2.2) et une vitesse infinie amont de 2.3m/s Figure 6-37 : Evolution angulaire typique de l'effort de traînée transverse pour le paramètre d'avance optimal (λ=2.2) et une vitesse infinie amont de 2.3m/s On notera les points suivants : - Les évolutions de et de sont périodiques. Cela est caractéristique d'une turbine { 3 pales. - Les valeurs de et présentent de fortes variations angulaires. - L'effort est dirigé selon l'écoulement et ses valeurs sont comprises entre 60 et 160 N - L'effort est transverse { l'écoulement et dirigé dans les 2 sens. Sa valeur moyenne est proche de +10N. prend des valeurs comprises entre -45 et +65N - Les lieux des maximums de chacune des évolutions de et de sont décalés de . et sont en opposition de phase. 6.4.4 Bilan Ce mémoire se clôt par les résultats d'une campagne expérimentale menée sur une turbine, placée dans la section d'essai. L'instrumentation du tunnel hydrod ynamique du L.E.G.I. menée pendant cette thèse et finalisée par les travaux d'Aumelas [2011], permet { présent de caractériser avec précision les perfo rmances de turbines à partir des mesures de couple. Ces travaux permettent en outre la mesure des efforts de traînée, données qui pourront être utilisées lors du dimensionnement de l'ancrage et des carénages d'une tour. 191 Mesures sur maquettes en tunnel hydrodynamique : résultats expérimentaux 192 Conclusion et perspectives Cette thèse s'inscrit dans le cadre du projet HARVEST ; elle est consacrée au développement de l'instrumentation d'un tunnel hydrodynamique afin de tester expérimentalement des maquettes de turbines à flux transverse. Le projet HARVEST vise le développement de fermes d'hydroliennes fluviales ou marines, d'un type nouveau, composées d'un ensemble de tours. Celles-ci sont constituées d'une ou de deux colonnes juxtaposées, elles-mêmes constituées de plusieurs turbines empilées sur le même arbre de rotation, ainsi que d'une structure de maintien munie de carénages, permettant d'améliorer le rendement. Pour les applications marines cette structure est laissée libre en rotation suivant un axe de symétrie placé en amont de la résultante des forces de portance qui s'exercent sur les carénages ; ces derniers permettent ainsi d'orienter { tout moment les tours face au courant de marée dont la direction évolue. Les installations éoliennes aujourd'hui font majoritairement appel { des turbines à flux axial ; sur terre et pour des applications de forte puissance, les turbines à flux transverse ont en effet manifestement perdu la partie. Elles présentent trois inconvénients majeurs : (1) des difficultés d'auto-démarrage (2) une forte variabilité des efforts entrainant des vibrations néfastes à la tenue mécanique de la structure, notamment lorsque par suite à une avarie elles se trouvent en « roue libre » et (3) un rendement en général plus modeste que celui des turbines à flux axial. Ces inconvénients sont éliminés dans le concept HARVEST notamment grâce à la modularité du système : les inconvénients (1) et (2) disparaissent sur une colonne qui compte plusieurs turbines aux pales angulairement décalées. La turbine elle-même (turbine Achard) a fait l'objet d'innovations qui ont permis d'augmenter son rendement ; ce dernier se trouve de surcroît amélioré par la présence des carénages. Dans une première étape, le fonctionnement des turbines à flux transverse a été étudié afin de mettre en évidence leurs principales caractéristiques. La compr éhension de leur principe de fonctionnement ainsi que des phénomènes physiques associés a permis de déterminer les grandeurs physiques à mesurer et de mieux cerner le type d'efforts hydrodynamique s'appliquant sur une telle turbine. La présence éventuelle de carénages latéraux ou encore de dispositifs de confinement axial a également été prise en compte. Il a ensuite été mené une recherche d'informations concernant d'éventuels dispositifs expérimentaux similaires, avec leurs retours d'expériences. La synthèse de ces informations ainsi que des besoins exprimés par les membres de l'équipe HARVEST ont permis d'établir une base de donnée, { partir de laquelle a é té construit le cahier des charges du dispositif instrumental à mettre en place. Si certains éléments du tunnel hydrodynamique existant au laboratoire LEGI ont pu être réutilisés, la majeure partie du dispositif repose sur des éléments no uveaux. Après avoir défini l'architecture du dispositif expérimental, a débuté la phase de conception proprement dite ; elle a été scindée en 3 parties : le système de mesure des efforts, le système de conversion d'énergie et de commande de la turbine ainsi que le dispositif d'acquisition des données. 193 Une étude comparative a été établie { partir d'une recherche bibliographique, concernant différents types de systèmes de mesure existants. Il en ressort que les systèmes de mesure { capteurs d'effort piézoélectriques constitue un bon compromis pour ce cas. L'ensemble arbre-turbine-convertisseur d'énergie est ainsi monté sur une platine suspendue sur 4 plots piézoélectriques. Il en résulte un système intégré, compact, présentant une bande passante de mesure élevée. Une deuxième étude comparative concernant les différents types de systèmes de conversion d'énergie a été établie. Un système réversible faisant appel { la tec hnologie des moteurs synchrones autopilotés a été retenu. L'intégration du m oteur-générateur synchrone a été optimisée de sorte à ne pas dégrader les fréquences propres de l'ensemble de la structure, et de sorte { obtenir une transmission directe du couple utile. La commande du moteur-générateur se fait quant { elle { partir d'un variateur de puissance permettant conjointement la dissipation d'énergie dans une charge. En parallèle a été développée sous LabVIEW une interface de commande destinée à imposer la vitesse de rotation à la turbine et une interface permettant l'acquisition des grandeurs physiques mesurées. Une carte d'acquisition sert de liaison avec les divers instruments de mesure ou de commande. L'utilisation d'outils de pré-dimensionnement existants ou développés lors de cette étude a permis d'optimiser le temps dédié à la phase conception et d'anticiper le comportement de l'instrumentation. Ces outils ont permis également d'optimiser la phase de mise au point et de caractérisation de l'instrumentation qui s'en est suivie. Après avoir apporté les corrections qui s'étaient révélées nécessaires, a été démontrée dans un premier temps la possibilité de mesurer avec précision le couple fourni par une turbine à partir de l'analyse des courants d'alimentation de la génératrice synchrone. Dans un deuxième temps, a été démontrée la possibilité de mesurer avec précision les efforts de traînée s'appliquant sur une turbine, par analyse des signaux d'efforts émanant des capteurs piézoélectriques. Une série de résultats typiques viennent clôturer ce mémoire, validant cette phase de mise au point. Les travaux d'instrumentation du tunnel hydrodynamique se sont soldés par l'installation d'un système de mesure et d'acquisition d'efforts fiable et dédié aux tests des performances de maquettes d'hydrolienne. Les principales caractéristiques sont les suivantes : - Mesure des performances de plusieurs types de maquettes d'hydroliennes de diamètre 175mm et de hauteur 175mm. - Mesure globale des 6 composantes du torseur de l'action du fluide sur la maquette d'hydrolienne, avec une précision minimale de 5%, de la valeur mesurée. - Plage de niveau d'efforts permettant de tester les turbines dans les configurations carénée ou non carénée. - Plage de vitesse de fluide incidente : 0 à 2.8m/s. - Plage de vitesse de rotation de la turbine : 0 à 1500 trs/min. - Fréquence typique d'évolution des efforts à mesurer pouvant dépasser 100Hz sans avoir recours à une compensation accélérométrique des mesures. - Fréquence d'acquisition permettant des mesures d'évolution angulaire d'efforts et comportant au minimum 1 points par degré. 194 Le stade de développement de l'instrumentation du tunnel hydrodynamique { la fin de cette thèse permettait d'effectuer les premières séries de mesures sur maquettes d'hydroliennes. Les études en cours menées par Aumelas [2011], et Bossard J. [2010] ont d'ores et déjà apporté des avancées significatives concernant :  la définition du protocole expérimental,  les incertitudes de mesure,  le post-traitement des données,  les études expérimentales des phénomènes de cavitation à la surface des pales,  les mesures expérimentales de champs de vitesse par P.I.V. L'aboutissement de ces travaux permet { présent une grande variété d'études expérimentales, qui couplées aux études numériques, permettront de nouvelles comparaison entre les diverses turbines à flux transverse ainsi qu'aux turbines du projet HARVEST d'améliorer encore leurs performances. 195 196 Annexes 197 Annexe A : Caractéristiques constructeur de la génératrice 198 Annexe B : Synoptique du système de commande de la génératrice 199 Annexe C : Caractéristique couplomètre 200 201 Annexe D : turbine A8R4 avec anneaux Rayon Hauteur Solidité Nombre et géométrie des pales Raccord moyeu-pale 87.5 mm 175 mm 1.1 3 pales droites à profil NACA 0018 3 bras en position centrale à profil NACA 0018 Caractéristiques de la turbine A8R4, utilisées pour les tests de calage angulaire. 202 Annexe E : Caractéristiques techniques frettes 203 Annexe F : Pertes de charge-joint à labyrinthe 204 Annexe G : Estimation de la durée de vie des roulements. 205 206 Annexe H : Estimation de la rigidité d'un montage de roulement. 207 208 209 Annexe I : Analyse des fréquences propres de la balance de mesure. 210 211 212 213 214 215 216 217 218 219 Annexe J : Fiche produit : plots de mesure multi composante 220 221 222 Annexe K : Projection d'un profil NACA sur un cercle 223 224 Bibliographie Achard, Jean-Luc et Ervin, Amet. 2011. HYDROLIENNE A FLUX TRANSVERSE A FAIBLE TRAINEE. B10341 2011. Invention. Achard, Jean-Luc et Imbault, Didier. 2005. Dispositif de maintien d'une turbomachine hydraulique. FR05/50420 France, 14 février 2005. Brevet d'invention. Achard, Jean-Luc et Maître, Thierry. 2004. Turbomachine hydraulique. FR04/50209 France, 04 février 2004. Brevet d'invention. Achard, Jean-Luc. 2011. HYDROLIENNE À FLUX TRANSVERSE À ÉTAGES AUTONOMES. B10563 2011. Achard, Jean-Luc, Imbault, Didier et Tourabi, Ali. 2007. Turbomachine à machines hydrauliques à flux transverse à force globale de portance réduite. FR07/58511 France, 28 octobre 2007. Brevet d'invention. Achard, Tourabi, Imbault. 2009. TURBOMACHINE À TURBINES HYDRAULIQUES À FLUX TRANSVERSE À FORCE GLOBALE DE PORTANCE RÉDUITE. 2009. AFNOR. 1985. Norme NF E90-600. 1985. Amet, Ervin. 2009. Simulation numérique d'une hydrolienne à axe vertical de type Darrieus. Grenoble : s.n., 2009. Mémoire de thèse. Andreica, Maria. 2009. Optimisation énergétique de chaînes de conversion hydroliennes. Grenoble : s.n., 2009. Antheaume, Sylvain. 2010. Implicit Time Spectral Method for periodic incompressible. Grenoble : s.n., 2010. Antheaume, Sylvain. 2007. Simulations numériques macroscopiques de turbines hydrauliques à axe de rotation vertical. Grenoble : s.n., 2007. Rapport de DRT. Aublin. 1998. Système mécanique. Théorie et dimensionnement. Paris : Dunod, 1998. Auchet, Sylvain. 2004. Développement d'une technique originale de mesure des efforts de coupe en usinage à grande vitesse basée sur la technologie des paliers magnétiques actifs: applications au fraisage des matériaux aéronautiques. Metz : s.n., 2004. Aumelas. 2011. Modélisation numérique de la cavitation dans les hydroliennes carrénées. Grenoble : s.n., 2011. Bedard. 2005. Survey and Characterization of Tidal In Stream Energy Conversion (TISEC) Devices. Palo Alto, USA : s.n., 2005. Blackwell, & col. 1977. Wind tunnel performance data for two-and three-bucket Savonius rotors. 1977. Rapport Technique SAND76-0131. Blackwell, Bennie, Reis et Georges. 1974. Blade shape for a troposkien type of vertical-axis wind turbine. Albuquerque, USA : Sandia Laboratories, 1974. Bossard J., Franc J.-P., Maitre T., Vignal L., Baele P. 2010. Mesures PIV du champ de vitesse dans une hydrolienne tripale de type Darrieus - Comparaison avec les simulations numériques. Vandoeuvre-lès-Nancy : Proceedings du 12e CFTL, 2010. Chantrel, Paul. 2005. Balance de paroi. 2005. memorandum. Coiro. 2005. Dynamic behaviour of the patented Kobold tidal current turbine: numerical and experimental aspects. s.l. : Czech Technical University Publishing House, 2005. Darrieus, Georges Jean-Marie. 1931. Turbine having its rotating shaft transverse to the flow of the current. 1835018 USA, 08 décembre 1931. Brevet. Darrieus, Georges Jean-marie. 1931. Turbine having its rotating shaft transverse to the flow of the current. 1931. Brevet. 225 Denveport. 1990. Effects of a fillet on the flow past a wing-body junction. s.l. : Journal AIAA. American Institute of Aeronautics and Astronautics (AIAA), 1990. Fergal O Rourke, Fergal Boyle, Anthony Reynolds. 2009. Tidal energy update 2009. s.l. : Elsevier, 2009. Franc, Jean Pierre, et al. 1995. La cavitation - Mécanismes physiques et industriels. s.l. : Presses Universitaires de Grenoble,, 1995. Livre. G.E.I.E.C. 2007. Rapport de synthèse. 2007. Gorban, N., Alexander, Gorlov, M., Alexander et Sila. 2001. Limits of the turbine efficiency for free fluid flow. s.l. : Journal of Energy Resources Technology., 2001. Gorlov. 1998. Development of the helical reaction hydraulic turbine. Boston, USA : s.n., 1998. Gorlov, Alexander M. 1998. Development of the helical reaction hydraulic turbine. Boston, USA : Northeastern University, 1998. DOE/EE/15669--T1. Gorlov, Alexander M. 1997. Helical turbine assembly operable under multidirectional fluid flow for power and propulsion systems. 5642984 USA, 01 juillet 1997. Brevet. Gorlov, Alexander M. 1995. Unidirectional helical reaction turbine operable under reversible fluid flow for power systems. 5451137 USA, 19 septembre 1995. Brevet. Grellet, Guy et Clerc, Guy. 1997. Actionneurs électriques, principes, modèles, Commande. s.l. : Eyrolles, 1997. Grenier, Labrique, Buyse et Matagne. 2001. Electromécanique: convertisseurs d'énergie et actionneurs. Paris : Dunod, 2001. Guittet, Linda. 2005. Outils de prédimensionnement des hydroliennes Darrieus: Aspects expérimental et numérique. 2005. Mémoire de DRT. Idel'cik, I.E. 1986. Memento des pertes de charges. s.l. : Éditions Eyrolles, 1986. ISO. 1995. NP TR 14638/Spécification géométrique des produits (GPS) -- Schéma directeur. 1995. J.A.C. Orme, BEng Hons. I. Masters, BSc, PhD, CMath MIMA. 2005. Analysis and comparison of support. 2005. Jaquier, Thomas. 2008. Développement des hydroliennes à flux. Grenoble : s.n., 2008. Jonson, Ida. 2006. Etude expérimentale sur des maquettes d'hydroliennes. 2006. Jourden, Guy et Marchand, Philippe. 2009. Des énergies marines en Bretagne: à nous de jouer! Rennes : Région Bretagne, 2009. Kirke et Brian. 2005. Developments in ducted water current turbines. Adelaide, Australia : University of South Australia, 2005. Kirke; Brian; Lazauskas. 2008. Variable pitch Darrieus water turbines. s.l. : The Japan Society of Mechanical Engineers, 2008. Korkut. 2003. A dynamometer design and its construction for milling operation. 2003. Laroze, Serge. 2005. Dynamique des structures. s.l. : Cépaduès, 2005. Liébard, Alain. 2008. La production d'électricité d'origine renouvelable dans le monde. s.l. : Observ'ER / EDF, 2008. Lucid_Energy_Technologies. 2010. Water technologie. [En ligne] 2010. MASSOL, Jérôme. 1994. Etude des assemblages boulonnés. s.l. : INSA Toulouse, 1994. Ministère de l'écologie. 2010. Chiffres clés du climat France-Monde. Paris : s.n., 2010. Paraschivoiu. 2002. Wind turbine design, with emphasis on Darrieus concept. s.l. : Polytechnic International Press, 2002. Paraschivoiu, Ion. 2002. Wind Turbine Design : with emphasis on Darrieus concept. 2002. Peers, Yvon. 1997. Variation de vitesse. s.l. : Hermes, 1997. Ponta, Dut, Fernando et et Shankar, Gautam. 2000. An improved vertical-axis water-current turbine incorporating a channeling device. Elsevier : Renewable Energy., 2000. Ponta, Jacovkis, Fernando L. et et Pablo. 2008. Marine-current power generation by diffuseraugmented floating hydro-turbines. Elsevier : Renewable Energy, 2008. Reis, George, Blackwell et Bennie. 1974. Practical approximations to a troposkien by straight-line and circular-arc segments. Albuquerque, USA : Sandia Laboratories, 1974. 226 Schönborn, Chantzidakis, Alessandro et et Matthew. 2007. Development of a hydraulic control mechanism for cyclic pitch marine current turbines. Elsevier : Renewable Energy, 2007. Shiono, Mitsuhiro, Suzuki, Katsuyuki et Kiho, Seiji. 2000. An Experimental Study of the Characteristics of a Darrieus Turbine for Tidal. 2000. Publication scientifique. Shiono, Mitsuhiro, Suzuki, Katsuyuki, Kiho et Seiji. 2002. Output characteristics of Darrieus water turbine with helical blades for tidal current generations. Kitakyushu, Japan : s.n., 2002. The 12th International Offshore and Polar Engineering Conference. SKF. 2010. Solution et joint d'étanchéité. www.skf.fr. [En ligne] 2010. Spinnler, Georges. 2002. Conception de machines. Principes et applications. s.l. : Pressex polytechniques et universitaires romandes, 2002. Taylor, John. 2000. Incertitudes et analyse des erreurs dans les mesures physiques. s.l. : Dunod, 2000. UIUC. 2007. Airfoil performance data, Volume 2. 2007. http://www.ae.uiuc.edu. Virely, Jean-Marie. 2004. L'analyse fonctionnelle. Cachan : s.n., 2004. Wakipédia. 2009. http://fr.wikipedia.org/wiki/Protocole_de_Kyoto. [En ligne] 2009. Wessner, Bair, Craig et et Clayton. 2009. Vertical axis hydrokinetic turbines: practical and operating experience at Pointe du Bois, Manitoba. Calgary, Canada : New Energy Corporation Inc., 2009. Wikipédia. 2009. Protocole de Kyoto. [En ligne] 2009. http://fr.wikipedia.org/wiki/Protocole_de_Kyoto. Zanette, Jerônimo. 2010. Hydroliennes à flux transverse mise en oeuvre de l'interaction fluide structure. Grenoble : s.n., 2010. 227
{'path': '26/tel.archives-ouvertes.fr-tel-00639647-document.txt'}
Établissement de la maquette numérique d'un immeuble ancien et complexe dans le cadre d'un processus BIM Valentin Dupré To cite this version: Valentin Dupré. Établissement de la maquette numérique d'un immeuble ancien et complexe dans le cadre d'un processus BIM. Sciences de l'ingénieur [physics]. 2018. dumas-02092790 HAL Id: dumas-02092790 https://dumas.ccsd.cnrs.fr/dumas-02092790 Submitted on 8 Apr 2019 CONSERVATOIRE NATIONAL DES ARTS ET METIERS ECOLE SUPERIEURE DES GEOMETRES ET TOPOGRAPHES ___________________ MEMOIRE présenté en vue d'obtenir le DIPLOME D'INGENIEUR CNAM SPECIALITE : Géomètre et Topographe par Valentin DUPRÉ ___________________ Établissement de la maquette numérique d'un immeuble ancien et complexe dans le cadre d'un processus BIM Soutenu le 5 Juillet 2018 _________________ JURY PRESIDENT : Monsieur Christophe PROUDHOM MEMBRES : Président du jury Monsieur John DUTERTRE Maître de stage Madame Élisabeth BOTREL Examinatrice Monsieur Jean-Michel FOLLIN Professeur référent Remerciements À travers cet avant-propos et pour la seule et unique fois dans la rédaction de ce mémoire, je m'exprime à la première personne et cela afin de remercier les personnes qui ont contribué à la réalisation de cette dernière étape scolaire de longue haleine qu'est le Travail de Fin d'Étude. J'adresse tout d'abord mes remerciements pour leur accueil à Julien Dubois, président du Cabinet de géomètres-experts Pierre Bloy, ainsi qu'à ses collaborateurs. Je tiens à remercier John Dutertre, mon maître de stage, pour son accompagnement tout au long de ces 5 mois, ses conseils avisés et sa connaissance du BIM et de la maquette numérique qu'il a su me partager. Enfin, je souhaite exprimer ma reconnaissance envers Jean-Michel Follin, mon professeur référent au sein de l'ESGT, pour le temps qu'il m'a consacré, sa disponibilité et l'accompagnement de qualité qu'il m'a offert à travers ses conseils distillés au gré des multiples lectures de mon mémoire. Glossaire  3D : les trois dimensions spatiales (X,Y,Z).  CAO : conception assistée par ordinateur.  DAO : dessin assisté par ordinateur, CAD en Anglais.  MEP : mécanique – électrique – plomberie.  Facility Management ou FM : terme anglo-saxon désignant la gestion et la maintenance d'un ouvrage.  IPD : de l'anglais "Integrated Project Delivery", désigne une méthode collaborative issue du monde des architectes partageant des particularités avec le BIM et se définissant comme "une approche de la livraison d'un projet qui intègre les acteurs, les systèmes, les structures d'activité et les pratiques dans un processus qui rassemble de manière collaborative les talents et les visions de tous les intervenants pour optimiser les résultats du projet, augmenter la valeur pour la propriétaire, réduire les pertes et maximiser l'efficacité à travers chacune des phases de conception, fabrication et construction" (Architects International Association, 2007).  GCP : Points de contrôle géoréférencés (de l'anglais « Ground Control Points »). 3 Table des matières REMERCIEMENTS 2 GLOSSAIRE 3 TABLE DES MATIERES 4 INTRODUCTION 6 I ÉTAT DE L'ART 8 I.1 Qu'est-ce que le BIM ? 8 I.1.1 Un processus, une philosophie 8 I.1.2 Intérêts et contraintes 12 I.1.3 Les différents niveaux de BIM 15 I.2 Développement actuel 18 I.2.1 Situation internationale 19 I.2.2 Le BIM en France 19 I.2.3 Le rôle du géomètre-expert 20 I.3 La maquette numérique, support du BIM 20 I.3.1 Conception et niveaux de développement 20 I.3.2 Aspects juridiques 23 I.4 Application du processus BIM à la réhabilitation d'un immeuble parisien 24 I.4.1 Contexte parisien 25 I.4.2 Présentation du cas d'étude : un ensemble immobilier ancien et complexe 27 II REALISATION DE LA MAQUETTE NUMERIQUE 30 II.1 Acquisition des mesures 30 II.1.1 Scanner laser 3D 30 II.1.2 Drone 31 II.2 Modélisation en 3D des informations physiques 31 II.2.1 Revit 32 II.2.2 Critères de modélisation 32 II.2.3 Problèmes liés à l'architecture et solutions mises en oeuvre 32 II.2.4 Limites du BIM et de la modélisation 3D pour la réhabilitation d'ouvrage ancien 48 III MODELISATION DES INFORMATIONS IMMATERIELLES 51 III.1 Intégration de données juridiques 51 III.1.1 Limites de propriété 51 III.1.2 Définition des pièces 52 III.1.3 Servitudes et contraintes 53 4 III.2 Difficultés d'extraction de documents nécessaires au permis de construire 54 III.2.1 Limites de propriété 54 III.2.2 Surfaces juridiques 55 CONCLUSION 57 BIBLIOGRAPHIE 59 5 Introduction Le milieu du bâtiment et de la construction vit naître dans le courant des années 1990 une révolution qui continue aujourd'hui à se mettre en place et tente de convaincre les individus qui lui demeurent réfractaires. Permis par le développement des technologies informatiques et en particulier des modèles graphiques en 3D, le BIM s'est peu à peu imposé dans le domaine de la construction et fait la promesse d'une interaction entre les corps de métier plus efficace et de meilleurs niveaux de rendements économiques pour les maîtres d'ouvrage. Toutefois, son implantation est un processus long et requiert une évolution des usages. Les acteurs de la construction proviennent de nombreux domaines d'activité et leur conversion à la pratique du BIM se fait à des rythmes inégaux, le degré de contrainte qui se conjugue à l'adoption des nouvelles méthodes de travail étant propre à chaque secteur. Convaincus des intérêts que procure le BIM, certains États s'engagent pour accélérer sa démocratisation, si bien que de plus en plus de projets se font désormais dans ce cadre. Le BIM est un processus, une méthode de collaboration interprofessionnelle qui vise à s'appliquer à tous les types de projet attenant au monde du bâtiment, aussi bien pour les constructions nouvelles que pour les réhabilitations d'ouvrages. Au-delà de l'optimisation de l'interopérabilité, sa vocation est de faire du modèle numérique la pièce centrale autour de laquelle s'articule toute la vie du projet. Véritable jumeau virtuel de l'ouvrage, ce modèle constitue à la fois la carte d'identité et le carnet de santé de l'ouvrage et ce pour toute son existence. Aussi, toutes les nouveautés qui découlent de l'application du BIM sont autant de nouveaux métiers et de nouvelles missions qui apparaissent. Les compétences du géomètre-expert lui permettent de s'approprier légitimement certaines de ces missions et de tenir un vrai rôle au sein d'un projet BIM. Les projets de réhabilitation, en particulier, mettent en exergue la place importante du géomètre-expert. La réhabilitation est, par définition, basée sur un ouvrage existant dont la mesure avec précision est nécessaire pour mettre en place un projet. En tant qu'expert de la mesure, le géomètre tient nécessairement un rôle. La vraie évolution qui s'impose à lui réside dans la forme que prend la restitution de ses mesures. Il ne s'agit plus simplement de produire des plans mais de réaliser la maquette numérique de l'ouvrage en garantissant son utilisabilité pour les autres acteurs du projet. Cela confère au géomètre-expert une place au coeur de la phase de conception du projet de réhabilitation. Le milieu urbain concentre la quasi-totalité des projets de ce type et la pluralité des contextes propres à chaque topologie de quartier s'accompagne de contraintes inégales lors de la mise en place du processus BIM. Ainsi, il peut tout aussi bien s'agir de la réhabilitation d'une tour de 20 étages de bureaux en openspace des années 1980 à l'architecture simple, que de la réhabilitation d'un immeuble haussmannien du XIXème siècle au centre de Paris dont l'architecture est plus complexe. Chacun de ces projets a ses propres contraintes et la mission du géomètre-expert en est dépendante. Le deuxième exemple, notamment, est source de problématiques importantes quant à la faisabilité d'un processus BIM. Le modèle numérique se doit d'être le plus fidèle à la réalité possible mais, dans ce cas précis, une trop grande précision de celui-ci peut faire obstacle à son utilisabilité. Bien que paradoxal, ce fait souligne une réelle problématique pour certains acteurs du BIM : quelle est la limite entre haut niveau de détail et utilisabilité de la maquette numérique ? 6 Tout d'abord, il est nécessaire de bien appréhender ce que signifie le processus BIM et de comprendre ce qu'il implique. Tous les projets n'ont pas les mêmes attentes en matière de BIM, particulièrement en ce qui concerne le niveau de collaboration entre les intervenants. Cela a une incidence sur l'utilisation qui est faite de la maquette et donc sur le degré d'utilisabilité qui est attendu. À ce jour, ce processus continue son développement et reste perfectible. Le manque de recul actuel sur le sujet est la source d'interrogations, en particulier pour le cas des projets de réhabilitation de bâtiments anciens et complexes. Un exemple de ce type de projet servira donc de cas d'étude à ce mémoire. Ce cas d'étude a pour but d'illustrer et de mettre en lumière un grand nombre des complications et interrogations qu'induit l'établissement d'un modèle numérique dans ce contexte. La modélisation des éléments physiques de la maquette est conditionnée par la complexité du bâtiment et, dans certains cas de figure, se voit limitée par les outils actuels dont l'efficacité n'est pas toujours à la hauteur des besoins. Le modélisateur doit mettre en place des solutions permettant de garantir une précision des objets numériques mais tout en gardant à l'esprit qu'ils doivent rester exploitables par les autres intervenants dans la suite du projet. Cette modélisation matérielle doit également être suffisamment exploitable pour pouvoir intégrer les éléments immatériels qui complètent la maquette. L'intégration de ces informations, relevant pour la plupart du domaine du juridique dont le géomètre-expert est aussi le garant, sont nécessaires et s'appuient le plus souvent sur les éléments matériels. Ainsi, il est important, d'une part, de modéliser une maquette exploitable et, d'autre part, d'avoir à disposition des outils répondant aux besoins du projet. Ce mémoire s'articule donc autour de ces axes de réflexion, sans prétendre apporter des réponses actées, mais tentant de proposer des pistes de solutions aux problématiques soulevées. 7 I État de l'art I.1 Qu'est-ce que le BIM ? I.1.1 Un processus, une philosophie Dès l'instant à partir duquel germe l'idée de création et jusqu'au terme de la démolition, durant toute son existence, une construction fait graviter autour d'elle nombre de corps de métier qui, de près ou de loin, interviennent lors de l'élaboration du projet, sa construction, son exploitation ou sa déconstruction. Avant même la phase de construction, ce sont les maîtres d'oeuvres, les architectes, les urbanistes, les géomètres-experts qui sont appelés à participer au projet. Puis, les entreprises du BTP viennent « sortir les bâtiments de terre », accompagnées des électriciens, plombiers et autres chauffagistes. Vient alors le temps de l'exploitation du bâtiment, période qui fait la part belle au Facility Management et à l'activité des syndics de copropriété ou bien des établissements HLM. Et enfin, à l'heure de la déconstruction, les entreprises spécialisées dans la démolition prennent, elles-aussi, part au ballet des acteurs qui ont eu à intervenir lors de la vie du bâtiment. En outre, chaque projet ayant ses spécificités, bien d'autres secteurs d'activité sont amenés à tenir un rôle lors de projet de construction. Aussi, nous pouvons aisément imaginer les contraintes que la pluralité et la diversité d'acteurs impliquent. La communication, l'échange et la recherche d'informations sont d'autant plus compliqués que le nombre d'intervenants est important. Retards de livraison, dépassements de budget, non-conformité des travaux ou encore opérations de maintenance inappropriées sont autant de raisons qui ont poussé les professionnels à trouver des solutions et mettre en oeuvre des méthodes optimisant leurs interactions. I.1.1.1 Essor de la technologie informatique Les premières avancées apparaissent à partir des années 1960. Jusqu'alors, tout projet est établi à partir de plans dessinés à la main. L'arrivée dans la société civile des premières machines informatiques offre l'opportunité de faire évoluer les pratiques d'élaboration des projets. Bien que très éloignés de nos ordinateurs actuels, elles permettent aux architectes de renseigner des informations sur les composants d'une construction et d'ainsi mettre en place une base de données liée au projet. Les informations sont alors consultables de manière informatique et sont regroupées en un endroit. Ce bouleversement technologique fut la base de travaux développant la voie menant quelques décennies plus tard au BIM. Néanmoins, les interfaces graphiques demeurent peu efficaces et les plans restent sur papier. Ces plans tombent rapidement en désuétude du fait de l'impossibilité de les mettre à jour et sont la cause de surcoûts dans la phase de conception. La visualisation des objets est également compliquée et demande la production d'un nombre important de plans. Ce n'est qu'à partir des années 1980 que les techniques de dessin font leur révolution. La conception assistée par ordinateur (CAO ou CAD en Anglais pour « computer-assisted drawing ») est une véritable avancée, notamment pour l'activité des architectes et géomètres-experts, et se démocratise rapidement avec les premiers logiciels 8 professionnels. Les délais et coûts de conception sont alors divisés et les informations relatives au projet sont plus facilement exploitables. Cependant, ces avancées permises par la technologie n'améliorent véritablement que le travail des professionnels chargés de concevoir le projet et les problématiques posées par la pluralité des acteurs concernés par l'ensemble du projet ne trouvent pas réellement de réponses. C'est dans ce contexte qu'apparaissent, dans les années 1990, les premières formes de solutions et la première utilisation du terme BIM (dans un article de van Nederveen et Tolman en 1992). I.1.1.2 Le BIM : définition L'essor des logiciels de CAO/DAO et leur multiplicité a marqué un grand progrès pour le domaine de la conception et de la construction. La technologie rendant désormais possible la modélisation en 3D des objets sur ordinateur, les projets sont de plus en plus établis autour de maquettes numériques. Le bond technologique a également introduit de nouvelles problématiques. La diversité de logiciels crée des complications pour l'échange d'informations entre intervenants, notamment en raison de l'incompatibilité des fichiers entre les différents logiciels propriétaires. Le souci de compatibilité peut apparaître comme un détail mais, dans la phase de conception d'un projet, constitue un véritable frein au bon déroulement de celle-ci, empêchant les uns d'utiliser les fichiers produits par les autres et induisant des pertes de temps pour chacun. C'est de ces constats que naît la volonté de mettre en place une nouvelle méthode de collaboration, un nouveau processus pour encadrer la vie d'un projet. Cette organisation se résumera sous le nom de BIM, acronyme qui se décline sous trois formes : Building Information Model Building Information Modeling Building Information Management Ces trois déclinaisons désignent une seule et même idée, celle d'optimiser l'interopérabilité entre tous les acteurs d'un projet. Les grands acteurs et autorités du BIM en ont, au fil des ans, modelé les contours et objectifs, sans pour autant en donner une unique définition. En voici les principales :  Autodesk1: « Le BIM est un processus intelligent basé sur un modèle 3D qui donne aux professionnels de l'architecture, de l'ingénierie et de la construction la 1 Éditeur de logiciels de CAO dont Autocad et Revit font partie. 9 perception et les outils pour planifier, concevoir, construire et gérer plus efficacement les bâtiments et l'infrastructure. »  Mediaconstruct2: « Un processus métier de génération et d'exploitation des données du bâtiment pour concevoir, construire et exploiter le bâtiment lors de son cycle de vie. Dans ce cadre le BIM est un process d'échanges autour de maquettes numériques dans un esprit de travail collaboratif interne à une entreprise ou interprofessionnel. »  Trimble3 : « Dans l'industrie de la construction, le BIM porte sur le développement et l'exploitation de bâtiments en recourant à des données numériques accessibles à toutes les parties prenantes concernées. » Le BIM doit se comprendre comme étant un concept de travail, un processus collaboratif, il ne s'agit pas d'un élément matériel ou d'une structure informatique qui serait simplement le modèle numérique 3D. Finalement, il n'y a pas réellement de définition pour préciser le BIM, chose peu étonnante au regard du fait que l'acronyme luimême a plusieurs origines. I.1.1.2.1 BIM comme Building Information Model Traduit en Français « Modèle de l'Information du Bâtiment », cela désigne le principe d'un seul modèle numérique du projet où l'on retrouve toutes les informations qui s'y rapportent. Le BIM ainsi défini est un moyen de regrouper tous les acteurs du projet autour de la maquette du bâtiment. Tous travaillent à partir d'un modèle d'où sont extraits ou rattachés des fichiers et documents compatibles sur tous les logiciels. Le modèle numérique en lui-même ne suffit pas à parler de BIM, il faut qu'il soit renseigné et accessible à tous les intervenants. Il doit permettre de visualiser tous les éléments du projet et vérifier qu'ils interagissent ensemble de manière efficace. En outre, il s'agit pour chaque professionnel d'inclure sa contribution dans le projet au sein du modèle numérique. Ce dernier ne doit pas être une simple source d'informations pour, par exemple, un architecte d'intérieur qui produirait des plans des fenêtres sans les rattacher au modèle numérique. Par ailleurs, le BIM a vocation à encadrer un ouvrage de sa conception jusqu'à sa démolition, en passant par sa phase d'exploitation. Ainsi, la mise à jour du modèle tout au long de la vie de l'ouvrage est un critère essentiel à la bonne efficacité d'un processus BIM. Un modèle qui serait juste un instant donné mais ne serait pas mis à jour deviendrait 2 Mediaconstruct : chapitre français de buildingSMART, présenté dans le paragraphe I.2.1. 3 Trimble : fournisseur de solutions informatiques et de matériel de mesures géodésique et topographique. 10 rapidement obsolète et ferait disparaître les intérêts suscités par le BIM. Un ouvrage a une durée de vie de plusieurs décennies, c'est pourquoi il est important de tenir à jour le modèle afin qu'il tienne compte des modifications opérées sur l'ouvrage. Il est primordial de garder à l'idée que le modèle doit constituer la copie numérique de l'ouvrage et être nécessairement conforme à la réalité. Le modèle numérique doit ainsi être la base de travail pour chaque collaborateur du projet et c'est autour de cette maquette intelligente, composée d'objets pourvus d'attributs, que doit s'articuler le projet tout au long de la vie de celui-ci. I.1.1.2.2 BIM comme Building Information Modeling Cette déclinaison du BIM se traduit en Français par « Modélisation de l'Information du Bâtiment ». Ici, c'est le terme « modélisation » qui a son importance et qui souligne le principe de processus collaboratif pour les acteurs dans le but de construire de manière conjointe le projet. L'objectif est de faire interagir les collaborateurs de différents corps de métier entre eux. Classiquement, tous les collaborateurs participent au projet mais de manière distante, chacun produisant sa contribution au projet et la livrant au maître d'oeuvre. Si un acteur du projet rencontre un problème lié au travail d'un autre acteur impliqué en amont, nul ne doute que l'échange d'information et la communication vont être lents, rendant par conséquent la résolution du problème longue et induisant un retard dans les délais. Le BIM a pour objectif de faire travailler ces acteurs ensemble, de les rassembler autour du projet pour qu'ils participent tous à la réalisation de celui-ci avec efficacité. Le projet doit se créer, se construire, se réaliser avec tous les collaborateurs. I.1.1.2.3 BIM comme Building Information Management Le terme « management » s'entend comme étant la gestion, la maîtrise, l'organisation de « l'Information du Bâtiment ». L'idée est de mettre en place une collaboration ordonnée pour mener à bien le projet. Le BIM a pour but de mettre en oeuvre une véritable gestion du projet à travers un support informatique où le planning est consultable, où tous les acteurs peuvent échanger, où les problèmes peuvent être identifiés en amont. Le management doit permettre la bonne coordination des collaborateurs et la bonne réalisation du projet, et par conséquent réduire autant que faire se peut les pertes de temps qui occurrent à chaque étape, ralentissant l'avancement et augmentant les coûts du projet. Cet aspect du management est résumé par les termes anglais « project management » (PM). Le BIM englobe ces trois définitions à la fois. C'est un modèle numérique intelligent qui doit être le support de travail pour tous les collaborateurs du projet, ceux-ci travaillant conjointement et interagissant de manière ordonnée tout au long de sa réalisation. Le BIM c'est donc bien plus qu'une simple maquette 3D. Il s'agit in fine d'un véritable processus, d'une philosophie de travail optimisant l'interopérabilité des acteurs et l'efficacité de la réalisation et de l'exploitation d'un ouvrage. 11 I.1.2 Intérêts et contraintes Si le monde de la construction est autant actif sur le développement du BIM et sa généralisation, c'est qu'il offre nombre d'intérêts. Néanmoins, il présente aussi son lot de contraintes. I.1.2.1 Contraintes Mettre en place un processus BIM demande aux acteurs concernés d'avoir connaissance et de comprendre ce qu'implique cette méthode de travail. De ce fait, lorsqu'une entreprise souhaite s'orienter vers le BIM pour prendre part à des projets qui s'inscrivent dans ce cadre, il est nécessaire pour elle de former ses équipes. Qui dit formation, dit coûts pour l'entreprise et perte de temps pour la production, donc manque à gagner financièrement. En outre, le passage à un processus BIM peut demander à des entreprises un investissement IT4 dans des logiciels spécialisés, logiciels bien souvent coûteux. L'impact économique dû au passage à un mode de travail orienté BIM est donc un frein important pour les entreprises, notamment pour les petites entreprises pour qui le risque à prendre est parfois trop grand. Cependant, la seule véritable contrainte que présente le processus BIM est cet investissement initial, rapidement balayée par les avantages qu'il y a à en tirer. D'autant plus que l'État, par le biais du PIA5, subventionne les TPE/PME pour l'acquisition de logiciels BIM et leur formation associée à hauteur de 50% du coût et plafonné à 10 000 €. Ce programme est destiné aux entreprises de moins de 250 salariés et 50 millions d'euros de chiffre d'affaire et bénéficie d'une dotation d'un million d'euros. I.1.2.2 Intérêts Tout d'abord, le premier intérêt du processus est de faciliter la collaboration entre les différents corps de métier et d'optimiser l'interopérabilité. Grâce à des formats de fichiers compatibles sur tous les logiciels métiers, les échanges de données se font plus simplement et permettent un gain de temps lors de la phase de conception du projet. Cela évite les phénomènes bien trop abondants de ressaisie de l'information, un plan de bâtiment pouvant ainsi être réalisé autant de fois qu'il y a d'acteurs : architecte, géomètreexpert, électricien, entreprise gérant les réseaux d'eau, et caetera. Ces mêmes plans étant par ailleurs imprimés sur papier le plus souvent, des économies sur le papier et l'archivage apparaissent envisageables. En outre, la ressaisie de l'information présente le risque de produire des erreurs ou de perdre des informations. Le fait de concentrer l'information 4 Investissement dans les technologies de l'information (IT = « information technology ») 5 Programme Investissements d'Avenir – Action « Diffusion de la simulation numérique dans l'industrie » 12 autour d'une unique maquette facilite donc grandement son accès et permet un gain de temps considérable lors des phases de conception/construction du projet. Lors de ces mêmes phases, le BIM permet aussi de contrôler la compatibilité des contributions des acteurs. Lors d'un chantier classique, il n'est pas rare de rencontrer au cours de la construction un « clash », c'est-à-dire une erreur de conception causée par la rencontre de deux éléments distincts. Sur l'image suivante (Figure 1), il apparaît clairement que la canalisation et la poutre, figurant en rouge, sont en conflit. Figure 1 : exemple d'un clash détecté par un logiciel dédié au BIM. Les logiciels dédiés au processus BIM permettent de détecter ces collisions en amont de la construction et ainsi d'anticiper ces éventuels problèmes et leurs répercussions sur le planning de la construction. Quand on sait qu'un simple conflit dû à une erreur de conception peut entraîner l'arrêt complet du chantier, il apparaît évident que détecter les « clashes » avant qu'ils ne provoquent leurs effets est primordial pour le projet. Les progrès technologiques permettent la création de nouveaux outils, notamment grâce à la réalité augmentée. Il est désormais possible de suivre l'avancement de la construction à l'aide d'outils qui scannent le chantier et contrôlent la conformité des travaux avec le modèle 3D de l'ouvrage, puis restituent les erreurs de construction. Il s'agit là aussi de détecter en amont les problèmes qui pourraient venir perturber le bon déroulement du chantier. Le BIM est associé au modèle numérique 3D mais en réalité ce modèle à pour objectif de prendre en compte d'autres dimensions outre ses trois dimensions spatiales. On parle alors de modèle 4D, 5D, voire 6D. L'une de ces dimensions est tout d'abord le temps. La maquette numérique doit tenir compte de la temporalité du chantier et de son évolution, c'est-à-dire permettre à son utilisateur de connaître la projection des différentes phases du projet dans le calendrier. Il est alors possible de prévoir à l'avance et d'organiser les interventions de la multitude de corps de métier qui se succèdent autour de l'ouvrage. Cela permet aussi de surveiller l'avancement du projet et de vérifier s'il tient les délais programmés. Une autre dimension intégrée au modèle est la variable financière. Pour un maître d'ouvrage, la question des coûts est majeure dans l'aboutissement d'un projet. Cette dimension de la maquette permet de connaître les coûts de l'ouvrage de manière détaillée et anticipée, mais également de prévoir les conséquences financières que pourrait avoir une 13 modification du projet. D'autres dimensions sont encore possibles comme la 6D avec des analyses énergétiques (consommation, pertes, économies envisageables, ). Par la suite, la phase de gestion et d'exploitation de l'ouvrage est également incluse dans le processus BIM. Il s'agit, avant tout, pour le propriétaire d'avoir à disposition de meilleures informations sur son patrimoine immobilier. Toutes les données issues des phases précédentes sont intégrées au modèle, modèle qui offre à son propriétaire une copie numérique de son ouvrage. Sur l'ensemble du cycle de vie d'un ouvrage, la phase de gestion/exploitation/ maintenance en constitue la quasi-totalité. Au regard de la répartition des coûts pendant le cycle de vie (Figure 2), il apparaît évident que le processus BIM a son importance lors de cette phase. Conception 2% Déconstruction 2% Constuction 27% Gestion/ Exploitation/ Maintenance 69% Figure 2 : répartition des coûts d'un ouvrage pendant son cycle de vie. Données de 2009. Le BIM est particulièrement utile lors de phase de réhabilitation de l'ouvrage car il est beaucoup plus simple pour les professionnels concernés d'établir un projet à partir de la maquette richement renseignée. Avec le processus BIM, le modèle sera à jour à la suite des travaux et modifications qui ont eu lieu. Bien connaître le bâtiment que l'on gère est un facteur important en termes de coûts. L'intérêt du BIM est de pouvoir obtenir des informations sur tous les éléments constitutifs de l'ouvrage. Cela évite alors les campagnes de diagnostics en tout genre qui n'ont parfois pour simple but que de retrouver l'emplacement de réseaux dans l'ouvrage ou encore les mesures effectuées dans le but d'obtenir des plans du site. Ces diagnostics sont à la fois très coûteux pour les gestionnaires et ralentissent l'accès à l'information. Le modèle numérique permet la diffusion de ces informations avec rapidité et sans coût. Il permet, par ailleurs, au propriétaire de faciliter la gestion de l'espace dans l'ouvrage et l'organisation des activités qui s'y tiennent. La maquette numérique est un outil idéal pour la visualisation de l'ouvrage. Enfin, lors de la déconstruction, les professionnels spécialisés bénéficient directement d'informations essentielles sans avoir à effectuer un ensemble de phases de diagnostic et de recherche sur le site. Cela diminue les temps de réalisation et de fait, diminue les coûts pour le maître d'ouvrage. 14 Un livre blanc de la Caisse des Dépôts a conclu en 2014 que le BIM permettrait de baisser les coûts des phases de conception/construction et gestion/exploitation/maintenance jusqu'à respectivement 7% et 20%. Ces chiffres sont prometteurs et encouragent les maîtres d'ouvrage à engager des projets dans le cadre du processus BIM. C'est nécessairement grâce aux maîtres d'ouvrage que le BIM peut prendre place dans le métier de la construction si son usage demeure non-obligatoire. Toutefois, ces chiffres sont à relativiser car ils sont établis sur une étude de quelques cas précis et ne représentent pas un grand ensemble de projets. De plus, à la date où ce mémoire est rédigé, nous n'avons pas le recul nécessaire pour juger des économies faites sur la période de gestion/exploitation/maintenance de l'ouvrage qui s'étale généralement sur un minimum de 30 années. I.1.3 Les différents niveaux de BIM Le BIM, tel que défini précédemment, est un but à atteindre pour le monde du bâtiment. Les intérêts qu'il présente sont un moteur pour son développement, certes, mais à ce jour il serait prématuré de dire que le processus idéal peut être atteint. Beaucoup d'entreprises disent entrer dans le cadre du BIM, mais ce n'est pas toujours selon le même degré d'intensité. Pour permettre aux différents acteurs d'y voir un peu plus clair dans les attentes et les objectifs du BIM tout en clarifiant ce que travailler dans le cadre du BIM signifie, des niveaux de maturité ont été définis : ceux-ci s'échelonnent du niveau 0 jusqu'au niveau 3. I.1.3.1 Niveau 0, dit « pré-BIM » À ce stade, aucun travail collaboratif n'est instauré et les livrables se limitent à des plans en 2D établis depuis les logiciels de CAO. Chaque intervenant d'un projet produit un travail isolé des autres acteurs, chacun utilisant ses propres chartes graphiques et normes de dessin, tandis que les échanges de fichiers se font sur des formats propriétaires incompatibles d'un logiciel à un autre. Ces échanges se font par courrier électronique et aucune plateforme de partage de données n'est mise en place. La plupart des entreprises ont dépassé ce stade désormais (source : Rapport BIM de NBS en 2014). I.1.3.2 Niveau 1 Il s'agit du niveau de base du BIM. Le travail de conception passe par de la CAO 3D et la production de maquettes. Ces livrables doivent être structurés et répondre à des normes établies, sans quoi il serait impossible de parler de BIM. Au Royaume-Uni, par exemple, la norme BS 1192 : 20076 encadre la production, la distribution et la qualité des informations ainsi que les conventions pour les dénominations de fichiers ou présentations. Les différents intervenants partagent leurs productions via une plateforme commune telle qu'Autodesk A360, Graphisoft BIMx ou Trimble Connect. Néanmoins, ces échanges sont 6 BS 1192 :2007 15 unidirectionnels, chacun livrant sa production et la mettant à jour mais sans une réelle interaction interdisciplinaire. Figure 3 : illustration du niveau 1 du BIM par le site "BIM & BTP" I.1.3.3 Niveau 2 Le travail collaboratif prend véritablement sens à ce niveau de BIM. Chaque secteur (architecte, géomètre-expert, MEP, ) travaille sur son propre modèle 3D et les logiciels qui lui sont propres mais la grande évolution réside dans l'interopérabilité. Toutes les données sont converties dans un unique format d'échange compatible et utilisable par tous les acteurs du projet, le format IFC. Chacun doit être en mesure d'utiliser les modèles des autres et de combiner le sien à leurs données. C'est grâce à ce système de formats ouverts que tous ces modèles peuvent au final être assemblés. Ainsi, le niveau 2 permet d'obtenir un modèle unique, fédéré et central. C'est à partir de ce modèle que peut être réalisée la détection de conflit notamment. Il est alors possible, à partir de ce niveau, de travailler avec le BIM 4D, voire 5D. En outre, les productions doivent être structurées et répondre à des normes précises. Le processus doit être clairement défini. Le niveau 2 constitue véritablement un BIM collaboratif asynchrone et est le niveau le plus utilisé désormais. Figure 4 : illustration du niveau 2 du BIM par le site "BIM & BTP". 16 I.1.3.4 Niveau 3 L'iBIM7 ou plus simplement BIM de niveau 3 est l'objectif à atteindre. Il doit regrouper tous les avantages que présente le processus et répondre pleinement à la définition qui est faite du BIM. D'ailleurs, le véritable BIM, à proprement parler, est celuilà. Il s'agit d'un modèle unique, accessible depuis un serveur centralisé, auquel chacun apporte sa contribution et où tous les acteurs échangent entre eux. Il est stocké en ligne durant toute la durée de vie de l'ouvrage et constitue une véritable copie numérique de celui-ci. Un tel système demande néanmoins de faire évoluer les règles actuelles portant sur les responsabilités, la propriété intellectuelle ou bien les contrats. La technologie nécessaire limite pour l'heure son utilisation et seuls quelques grands projets testent ce que certains acteurs du monde de la construction imaginent être la grande révolution du bâtiment. Figure 5 : illustration du niveau 3 du BIM par le site "BIM & BTP". Afin de se rapprocher du niveau 3, Building Smart, présenté plus loin, a mis en place le projet openBIM qui a pour but de parfaire l'interopérabilité. Ce programme s'appuie sur le format de fichier ouvert IFC, permettant l'échange de données depuis des logiciels propriétaires, et surtout la bSDD, la building Smart Data Dictionnary qui est une banque de données regroupant les objets BIM produits par les différents corps de métier. 7 iBIM : de l'Anglais « integrated BIM », en Français « BIM intégré ». 17 Certaines entreprises importantes utilisent des processus apparentés au BIM, notamment pour les phases de conception et construction. Il y existe un véritable travail collaboratif abouti autour d'un modèle numérique parfaitement élaboré. Seulement, ces usages se pratiquent de manière interne dans ces structures et ne constituent pas un vrai processus BIM. Le modèle numérique n'est pas utilisé lors de la vie du produit et le travail collaboratif se limite aux corps de métier présents dans l'entreprise sans intervention coopérative de l'extérieur. Cela s'applique principalement à l'industrie aéronautique, automobile ou aux grands cabinets d'architecte. Figure 6 : les niveaux de BIM selon le Luxembourg Institute of Science and Technology. I.2 Développement actuel Depuis les premiers balbutiements du BIM au cours des années 1990, l'idée s'est répandue et développée à l'échelle mondiale, convaincant les grands acteurs de la construction de son bien-fondé. Cependant, l'évolution ne s'est pas faite au même rythme partout. Les changements d'habitude des corps de métier et l'arrivée de nouveaux textes de loi sont généralement des étapes laborieuses et leurs mises en oeuvre suivent des durées variables. 18 I.2.1 Situation internationale En 1994, un réseau de 12 entreprises, mené par le groupe Autodesk, se forme dans le but de développer un format de fichier capable de faire communiquer les différents logiciels de CAO sans perte de données et besoin de ressaisie. Ce réseau devient un an plus tard l'International Alliance for Interoperability (IAI) et prend la forme d'une organisation à but non-lucratif. C'est ainsi que naît l'Industry Foundation Classes (IFC), un format d'échange de fichiers gratuit permettant la compatibilité des informations sur tous les logiciels. L'organisation est renommée en 2005 buildingSMART et est désormais ouverte à toutes les entreprises, corps de gouvernement et institutions à travers le monde. Elle est le principal moteur du développement du BIM à l'international et du format IFC dont elle est le garant. BuildingSMART est également présente de manière locale à travers plusieurs organisations « filles » qui portent les idées à plus petite échelle. On y retrouve notamment Mediaconstruct, chapitre français de buildingSMART. De telles organisations sont nécessaires pour développer le BIM, néanmoins elles n'ont pas le pouvoir de convaincre les entités qui demeurent réticentes à l'usage du processus. Face aux avantages évidents du BIM et la lenteur du monde de la construction pour s'y convertir, certains pays ont fait le choix de légiférer sur son usage et de le rendre obligatoire. En Europe, le Parlement européen a adopté en 2014 la directive 2014/24/UE qui laisse la liberté aux États membres d'imposer ou d'inciter l'usage du BIM. Le Royaume-Uni a, par exemple, fait le choix en 2011 de l'imposer pour tous les marchés publics à partir de 2016. Les Pays-Bas et le Danemark ont suivi le même exemple. I.2.2 Le BIM en France Le pouvoir législatif a transposé la directive européenne dans le droit français à travers l'ordonnance n° 2015-899 du 23 juillet 2015 relative aux marchés publics et le décret d'application n° 2016-360 du 25 mars 2016. L'article 42 de ce dernier précise notamment au paragraphe III : « L'acheteur peut, si nécessaire, exiger l'utilisation d'outils et de dispositifs qui ne sont pas communément disponibles, tels que des outils de modélisation électronique des données du bâtiment ou des outils similaires. » Par conséquent, les textes de loi ne rendent pas l'usage du BIM obligatoire en France, ni ne l'incitent mais se limitent simplement à offrir la possibilité d'y recourir. Toutefois, le gouvernement a lancé une grande campagne pour promouvoir le processus à travers le Plan de Transition Numérique du Bâtiment (PTNB), lancé par Sylvia Pinel début 2015, alors ministre du logement. Le PTNB fait suite au rapport de Bertrand Delcambre8 de décembre 2014 qui définit les gains et avantages que présente l'adoption du 8 Bertrand Delcambre fut nommé président du PTNB par Sylvia Pinel. Il est également président de l'association Qualitel qui oeuvre pour la qualité du logement et ex-président du Centre Scientifique et Technique du Bâtiment. 19 BIM dans le milieu de la construction. Le PTNB a pour but d'accompagner les différents corps de métier et de les encadrer dans leur conversion vers le BIM. Le manque de mesure incitative et d'obligation a retardé l'éclosion du BIM en France, plaçant même le pays au dernier rang européen en matière d'utilisation du processus au début des années 2010 (d'après le baromètre européen d'adoption du BIM publié en 2013 par le cabinet d'étude de marché USP Marketing Consultancy). Le mouvement entamé par le PTNB a permis de familiariser nombre de corps de métier avec cette nouvelle pratique et un nouveau baromètre en 2017 plaçait la France à la 3ème place du classement européen. Cela témoigne des réelles avancées faites par les professions en termes de formation et d'investissement dans le BIM. Le PTNB a présenté en Mars 2018 un « bilan d'étape » illustré de quelques chiffres. Il présente notamment un taux moyen d'adoption du BIM, toutes catégories d'acteurs confondues, de 35% à la fin de l'année 2017, contre 30% un an auparavant. Des progrès restent encore à faire pour rattraper les pays en tête, le Royaume-Uni étant à 40% et les Pays-Bas surtout, pointant à 60% d'adoption. I.2.3 Le rôle du géomètre-expert Tout projet lié à des enjeux fonciers voit intervenir, parmi ses acteurs, le géomètre-expert. Véritable garant de la propriété foncière, il a pour rôle d'établir les limites de propriété et d'en dresser les plans avec précision. Il a également pour mission l'implantation d'ouvrages. L'élément nouveau pour le géomètre-expert depuis l'arrivée du BIM concerne la modélisation en 3D de bâtiments. Il s'agit généralement d'immeubles existants dont il réalise les mesures et desquels il ne va pas simplement dessiner les plans mais modéliser une maquette numérique en trois dimensions. Cette tâche est nécessaire pour la mise en place de processus BIM « tel que construit ». Le géomètre-expert tient donc un rôle clé dans ce procédé collaboratif. Outre la production du clone numérique de l'immeuble existant, il doit renseigner la maquette en informations juridiques telles que les servitudes, les règles de prospects, les surfaces, les informations découlant d'une copropriété et, comme énoncées plus tôt, les limites de propriété. I.3 La maquette numérique, support du BIM Clé de voûte du processus BIM, la maquette numérique est un outil complexe à appréhender et dont le rôle va bien au-delà de la simple représentation 3D d'un ouvrage, laquelle n'aurait d'utilité que pour la visualisation de celui-ci. Il s'agit, en effet, de construire un modèle qui serait le jumeau numérique de l'ouvrage et ce durant chaque phase de son cycle de vie. Ce faisant, la maquette numérique est soumise à de multiples contraintes, à la fois pour sa conception, sa diffusion et son exploitation. I.3.1 Conception et niveaux de développement Parmi le peloton de corps de métier participant à un projet, seule une poignée prend part à la phase de conception, phase à laquelle est produite la maquette numérique. On y retrouve tout d'abord les architectes, qui sont les principaux producteurs de modèle 20 3D et sont les seuls à réaliser un véritable travail de création. Les géomètres-experts jouent également un rôle, principalement pour la modélisation en 3D d'ouvrages existant dont ils ont réalisé les mesures et établi les limites de propriété. Viennent ensuite, les bureaux d'étude de MEP et d'ingénierie qui contribuent à la maquette dans leurs domaines d'application, sans modéliser le reste de l'ouvrage. En outre, des entreprises se sont spécialisées dans la production de maquette 3D et peuvent être amenées à tenir un rôle dans la conception de la maquette. Le nombre d'intervenants concernés par cette phase est donc assez réduit. Tous doivent se soumettre à un niveau de développement défini et évoluant selon le stade d'avancement du projet. I.3.1.1 Niveau de développement Le niveau de développement est un élément important puisqu'il conditionne la réalisation de la maquette. Il doit être défini en amont entre le client et les acteurs participant à la modélisation. Généralement réduit à son acronyme anglais LOD (level of development), il est la somme de deux aspects de développement distincts :   le niveau de détail ; le niveau d'information. I.3.1.1.1 Niveau de détail Le niveau de détail ou lod (level of detail) caractérise le degré de finesse de la maquette d'un point de vue graphique. Il permet de déterminer le niveau de précision géométrique des objets modélisés. Figure 7 : illustration des niveaux de détail par le département de l'intérieur et de la mobilité de Genève. Ainsi, un même objet peut être représenté de différentes façons (figure 7 cidessus) : un niveau de détail faible ne nécessitera pas plus qu'une représentation schématique sous forme de volumes, tandis qu'un haut niveau demandera un rendu parfois similaire à la réalité avec une précision inférieure au centimètre. I.3.1.1.2 Niveau d'information Le niveau d'information sert à décrire la granularité d'un objet et le type d'information qui doit être renseigné. La granularité permet de déterminer si les informations à indiquer concernent, par exemple, une cabine téléphonique dans son ensemble ou bien s'il faut renseigner chaque élément constitutif. De plus, le nombre d'information demandé peut varier et comprendre diverses formes de données (dimensions 21 de l'objet, matériaux des constituants, nom du constructeur, opérations de maintenance à effectuer, ). I.3.1.1.3 Échelle du niveau de développement L'échelle la plus répandue est celle originaire des États-Unis et qui comprend 6 niveaux de développement définis du LOD 100 au LOD 500. Un projet n'est pas caractérisé par un niveau de développement précis : pour chaque étape de celui-ci le niveau de développement évolue pour s'adapter aux besoins de la phase en cours. Figure 8 : poutre représentée selon différents niveaux de développement.  LOD 100 : Ce niveau convient à la phase de conception, le modèle est simplement à usage de visualisation et représente le projet de manière conceptuelle par des formes et des volumes. Aucune information non-graphique n'est nécessaire.  LOD 200 : Le modèle est représenté suivant un design basique auquel sont attachées des informations approximatives sur les dimensions, tailles, formes, quantités, position et orientation. Une analogie peut être faite entre ce niveau de développement et des plans établis à l'échelle du 1/100ème qui ont une précision de ±3 cm.  LOD 300 : Cette fois, il s'agit d'un modèle détaillé qui est fait d'objets spécifiques et les informations renseignées doivent être précises (de l'ordre du centimètre). Une analogie peut être faite entre ce niveau de développement et des plans établis à l'échelle du 1/50ème qui ont une précision de ±1 cm.  LOD 350 : Idem LOD 300 mais ce niveau induit que le modèle représente l'interaction des éléments entre eux. Ce niveau de développement correspond à la documentation pour la construction.  LOD 400 : Idem LOD 350 et doit en plus renseigner les éléments en termes de fabrication, assemblage et d'installation. La phase concernée est la phase de construction. 22  LOD 500 : Le modèle doit renvoyer à l'ouvrage tel que construit et vérifié sur place et intégrer toutes les informations déjà nécessaires aux niveaux inférieurs. Ces niveaux de développement peuvent être mis en parallèle avec la loi MOP (Maîtrise d'Ouvrage Publique) qui définit chaque élément de mission et étape de la maîtrise d'oeuvre. La réglementation de la loi MOP est parfaitement compatible avec la mise en place du processus BIM. I.3.1.2 Conception La conception de la maquette est donc bien encadrée par ces niveaux de développement. L'enjeu principal est de correctement définir le niveau nécessaire entre le client et le modélisateur car cela modifie profondément le type et la durée de travail de ce dernier. Un niveau mal adapté pourrait ralentir le processus de développement du projet et/ou causer des surcoûts. Pour un géomètre-expert amené à modéliser un ouvrage, la différence entre un LOD 200 et un LOD 300 semble faible et pourtant, la plus grande précision demandée par le LOD 300 implique un travail plus long et chronophage pour dresser la maquette numérique. I.3.2 Aspects juridiques La présence d'une maquette numérique dans le projet et la réalisation de l'ouvrage dans un processus BIM bouleversent certains usages dans la pratique et demandent également d'anticiper bon nombre de problèmes. Des questions se posent notamment dans le domaine du droit, d'autant plus que le cadre juridique du BIM n'est pas défini par des textes de loi ou règlements. Tout d'abord, la protection de la maquette par des droits de propriété intellectuelle pour ses auteurs est envisageable. Ces droits se décomposent en droits industriels et droits d'auteur. Ces derniers revêtent une importance singulière puisqu'ils garantissent à l'auteur d'une oeuvre un droit de respect de celle-ci, un droit de représentation ou encore un droit de modification, entre autres. Il convient donc pour le maître d'ouvrage de prévoir explicitement en amont de quelle manière les droits de propriété intellectuelle doivent s'appliquer tout au long de la durée de vie d'un ouvrage et de son avatar numérique. Une mauvaise appréhension de ces droits dans les contrats peut avoir des conséquences pénales et résulter en un blocage du projet. Par ailleurs, le BIM doit prévoir de nouvelles prises en compte en matière de responsabilité. L'article 1792 du Code Civil contraint déjà les constructeurs (tels que 23 définis par le Code Civil9) à des responsabilités via la garantie décennale, la garantie de bon fonctionnement et la garantie de parfait achèvement. En droit commun, peuvent aussi s'appliquer les responsabilités contractuelle, délictuelle (et quasi-délictuelle) et pénale. Toutefois, le modèle numérique est un objet qui est amené à évoluer tout au long de la durée de vie de l'ouvrage de manière à constamment se tenir à jour et donc, de fait, à subir des modifications. Or, si un géomètre-expert produit une maquette et que celle-ci est modifiée plusieurs fois par divers intervenants, le jour où un défaut de construction apparaîtra et sera dû à une erreur de conception de la maquette, il sera important de pouvoir désigner le réel responsable. Cet enjeu actuel met en lumière l'importance de prévoir une traçabilité des interventions opérées. Avec ces modifications constantes, il est important de clarifier en amont du projet les responsabilités et les libertés de modification de chacun des intervenants. Un poste est né de ce besoin et vient garantir la bonne interaction de tous les acteurs, il s'agit du « BIM manager ». Ainsi, pour qu'un projet BIM soit parfaitement viable juridiquement, les contrats doivent être l'élément clé encadrant le travail collaboratif et doivent « définir les règles du jeu de l'opération » (revue Géomètre, n°2146 d'avril 2017). I.4 Application du processus BIM à la réhabilitation d'un immeuble parisien Les réhabilitations immobilières visent à réaménager un bien existant, cela pouvant passer par des travaux de gros oeuvre ou simplement par la pose de nouvelles cloisons. La réalisation de modifications sur un bâtiment est désormais l'occasion pour les propriétaires de passer par le processus BIM. La gestion du patrimoine immobilier via un modèle numérique, promettant une baisse des coûts de maintenance et d'entretien, constitue l'attrait majeur pour les maîtres d'ouvrage. Les projets de réhabilitation voient principalement le jour dans les zones urbaines denses, secteurs où les terrains libres pour des constructions nouvelles sont de plus en plus rares. C'est notamment le cas du projet de réhabilitation qui va servir de cas d'étude afin 9 Sont définis comme constructeurs aux articles 1792 et suivants : « 1° Tout architecte, entrepreneur, technicien ou autre personne liée au maître de l'ouvrage par un contrat de louage d'ouvrage ; 2° Toute personne qui vend, après achèvement, un ouvrage qu'elle a construit ou fait construire ; 3° Toute personne qui, bien qu'agissant en qualité de mandataire du propriétaire de l'ouvrage accomplit une mission assimilable à celle d'un locateur d'ouvrage ». 24 de répondre à la problématique de ce mémoire. Ce projet prend place au coeur de Paris et s'inscrit dans un processus BIM. I.4.1 Contexte parisien Le paysage immobilier de la capitale est essentiellement composé d'appartements et de bureaux, l'habitat individuel étant extrêmement rare et en voie d'extinction. La densité d'habitants ainsi que le besoin de logement sont à des niveaux élevés et la valeur foncière atteint des sommets importants. Paris offre donc un contexte propice aux investisseurs, dont une des stratégies d'investissement éprouvées est la réhabilitation d'immeuble. I.4.1.1 Haute densité du bâti Quelques rares exceptions survivent à la pression des promoteurs et à leur chasse incessante des dernières parcelles de terre parisiennes qui n'ont pas succombé à la densification. Pour le reste, l'immobilier s'est déjà densifié au cours de vagues successives qui ont modelé le tissu urbain. Paris est ainsi devenue l'une des mégapoles les plus denses au monde avec plus de 20 000 habitants par km2 (Demographia world urban areas, édition de 2018). Cette forte densité se répercute sur la forme du bâti, d'autant plus que, contrairement aux cités très denses de sa banlieue, Paris concentre également énormément d'emplois du secteur tertiaire à travers toute la ville. Concentrant 31% des emplois de l'aire urbaine, la capitale attire plus d'un million de personnes de l'extérieur, soit la moitié des salariés de la cité. À la grande quantité de logements s'ajoutent donc celle des bureaux et commerces. Cet environnement pousse à la densification des espaces bâtis et un certain nombre de zones sont d'ores et déjà saturées. Cela se retrouve dans l'organisation des îlots d'immeubles. Un îlot est formé d'un ensemble de parcelles contiguës entourées par des voies de circulation. Ces îlots se retrouvent dans quelconque zone urbaine, cependant à Paris l'agencement du bâti témoigne de sa densité. La figure 9 ci-dessous illustre ce propos. Il s'agit d'une vue aérienne dans le 2ème arrondissement, un des quartiers historiquement les plus densément bâtis. Les îlots sont de grande taille et voient s'entremêler en leur sein une multitude de constructions laissant finalement peu d'espace vide. Les règlements d'urbanisme du XXe siècle ont tout de même tenté de contenir la densification jusqu'à un certain seuil pour permettre de garantir certaines nécessités en termes de salubrité. Une densité du bâti plus importante n'aurait plus permis une bonne circulation de l'air dans les logements et la présence de lumière naturelle pour les étages inférieurs. Si cet enchevêtrement a tant une allure anarchique et hétéroclite, c'est parce qu'il s'est édifié au fil des réhabilitations successives avec des constructions d'époques diverses. Il n'est pas rare qu'un bâtiment fraîchement érigé soit voisin d'un immeuble de la fin du XIXe siècle. 25 Figure 9 : photographie aérienne de Paris dans le 2ème arrondissement. Source : Géoportail. La haute densité du bâti se traduit par une organisation complexe qui peut être source de complications lors de projets de réhabilitation, entre autres. I.4.1.2 Prix de l'immobilier et marché tendu La forte demande en logement dans la capitale a créé un marché de l'immobilier très actif et a alimenté les spéculations. Au fil des années, le prix au mètre carré d'un bien habitable a explosé, à tel point que Paris est devenue l'une des villes les plus chères au monde (d'après une étude du cabinet de conseil CBRE parue en septembre 2015 plaçant Paris au 4ème rang mondial). La croissance de la valeur immobilière ne cesse d'être forte et les investissements spéculatifs gardent le vent en poupe. Ce contexte conditionne les projets immobiliers et impacte les responsabilités des acteurs. En effet, les risques économiques sont plus grands pour le maître d'ouvrage et les éventuelles erreurs des intervenants plus onéreuses. Le rôle du géomètre-expert reste le même qu'ailleurs en France, cependant, une erreur de mesure sur les surfaces d'un bien immobilier a des conséquences économiques plus importantes. La moyenne du prix du mètre carré s'établit, début 2018, à 9200 € dans la capitale. Pour certains biens de luxe, le mètre carré peut même monter jusqu'à 30 000 €. De ce fait, un écart sur les surfaces est non-négligeable et compte tenu des pertes financières que cela peut entraîner, les responsabilités qui engagent le géomètre-expert peuvent avoir des conséquences plus graves en cas d'erreur. 26 I.4.2 Présentation du cas d'étude : un ensemble immobilier ancien et complexe La réflexion autour de la problématique de ce mémoire s'appuie sur le cas d'une réhabilitation d'immeuble ancien dans Paris. Le terme « ancien » a son importance dans ce type de projet, puisque, contrairement à un bâtiment plus récent, l'architecture est bien plus irrégulière et a son incidence sur le travail de modélisation de l'ouvrage. I.4.2.1 Situation Il s'agit d'un projet de réhabilitation d'un ensemble de quatre bâtiments mitoyens dont le plus élevé est sur 5 étages plus combles. Ils sont composés à la fois de logements et de bureaux. L'objet de la réhabilitation est de remettre en état les appartements, dont certains sont en état d'insalubrité, ainsi que de créer des surfaces de bureaux au coeur de Paris. Ce projet répond à une stratégie d'investissement du maître d'ouvrage, lequel a acheté l'ensemble immobilier dans un mauvais état à bas coût et compte le revendre une fois sa rénovation exécutée. Le projet a fait intervenir divers acteurs, notamment au cours de la phase de conception, et s'est naturellement orienté vers un processus BIM. Du point de vue du géomètre-expert intervenant dans ce projet, il s'agit essentiellement de coopérer efficacement avec le maître d'ouvrage et l'architecte. L'ensemble immobilier en question se situe dans le II° arrondissement parisien, rue Saint-Denis. Il s'agit d'un quartier historique de la ville, proche des Halles et de l'île de la Cité, dont la valeur foncière est supérieure à la moyenne de la commune. Figure 10 : vue aérienne de Paris, le point orange étant la position de l'immeuble étudié. Source : Géoportail. 27 I.4.2.2 Complexité structurelle et architecturale Le quartier Bonne-Nouvelle est historiquement un quartier populaire très densément peuplé de la ville. Il est intégré à la cité lors de la seconde partie du XIV° siècle et la construction de l'enceinte Charles V10. Le quartier se densifie vite et atteint un siècle plus tard une densité de plus de 100 000 habitants au kilomètre carré (Vie et histoire du IIe arrondissement). Construits en bois, les logements sont progressivement détruits et rebâtis en pierre pour des logements plus grands et plus solides à partir du XIX° siècle. Ce renouvellement de l'habitat fait baisser la densité d'habitants au fil des décennies, celle-ci stagnant désormais autour de 23 000 hab./km2. Le quartier demeure tout de même au-dessus de la densité moyenne de la ville, cela se traduisant par une configuration urbaine caractéristique. Les rues y sont étroites et les immeubles généralement dressés sur 5 à 8 niveaux. Les bâtiments sont tous mitoyens en façade de rue et ne laissent que peu d'espaces vides entre eux à l'intérieur des îlots (voir figures 11 et 12 ci-dessous). Figure 12 : vue aérienne du quartier. Source : Géoportail. 10 Figure 11 : rue Saint-Denis à l'adresse de l'ensemble immobilier étudié. Source : Google Street View. Rempart entourant la cité parisienne et construit de 1356 à 1383, agrandi dans les années 1640 et détruit dans les années 1670. 28 L'ensemble immobilier étudié est un bâti ancien vieux de plus d'un siècle. Cette ancienneté se ressent sur l'architecture de l'ouvrage et contraste avec les constructions récentes où tout est droit, perpendiculaire, parallèle, et caetera. Ici, les escaliers suivent des pentes irrégulières, les murs ne sont pas toujours verticaux et leurs épaisseurs varient, les sols et plafonds ne sont pas horizontaux, les pièces d'un même étage ne sont pas toutes au même niveau altimétrique Cela ajouté à la haute densité du bâti, laquelle contraint les constructions à adopter des formes particulières pour pouvoir s'imbriquer avec les ouvrages du voisinage, résulte en des bâtiments aux géométries irrégulières et complexes. Les photos ci-dessous ont été prises dans l'ensemble immobilier et illustrent cette complexité. Figure 13 : photos de l'ensemble immobilier, prises par l'auteur. 29 II Réalisation de la maquette numérique En sa qualité de géomètre-expert, le cabinet Pierre Bloy est intervenu dans la réhabilitation de l'ensemble immobilier. Son rôle a été, tout d'abord, de réaliser les mesures du bâti existant, puis d'en dresser la maquette numérique et enfin, de livrer les données juridiques nécessaires au permis de construire, en particulier les plans et surfaces de l'ouvrage. II.1 Acquisition des mesures La première étape consiste à mesurer le bâtiment à l'état existant. Ces mesures servent de support au travail de l'architecte qui doit ensuite monter le projet de réhabilitation. Dans le but de dresser un modèle numérique exhaustif de l'ouvrage, l'emploi de plusieurs techniques de mesure est nécessaire. II.1.1 Scanner laser 3D Le scanner laser 3D a été utilisé pour mesurer l'ensemble des bâtiments lorsque cela était possible. Cela concerne ainsi les façades et les intérieurs de l'ouvrage, tandis que les toitures ont nécessité l'emploi d'une autre méthode. Ces mesures ont été acquises à partir de 427 positions de scans qui ont été assemblées en post-traitement pour former un unique nuage de points. Chaque scan constitue un instantané du lieu dans la limite de ce qui est visible depuis le scanner. La présence de nombreux obstacles lors du relevé a conduit à réaliser ce nombre de scans important afin d'avoir la mesure de tous les murs, portes, poutres, recoins ou conduites d'eau. Le nuage de points représente l'assemblage de ces 427 scans de près de 11 millions de points chacun. Avec une telle quantité d'informations, les logiciels ont beaucoup de difficulté à les traiter et perdent en fluidité. Pour pallier à ce problème, le nuage de points a été segmenté par bâtiment et par niveau. L'appareil utilisé est un FARO X130, scanner 3D à décalage de phase11. Le nuage qui en résulte est plus bruité qu'avec un scanner 3D à temps de vol12. Étant donnée la faible distance entre le scanner et les objets mesurés, les points offrent tout de même une bonne précision avec une incertitude de mesure de ±2 mm et un bruit sur les mesures de 0,4 mm. 11 Méthode de calcul d'une distance à partir du décalage de phase (ou déphasage) de l'onde du rayon laser entre son émission et sa réception. 12 L'instrument mesure le temps de parcours du rayon laser entre son émission et la réception de l'onde réfléchie par l'objet touché. La distance entre le scanner et l'objet en est directement déduite. 30 II.1.2 Drone L'usage du drone a été nécessaire pour l'acquisition des données relatives aux toitures. Il était, en effet, impossible d'atteindre et de mesurer celles-ci avec le scanner laser 3D. Les mesures par drone sont réalisées par analyses photogrammétriques. Ces opérations ont été sous-traitées à une entreprise spécialisée. La manipulation d'un drone en milieu urbain est strictement réglementée et ne peut être effectuée sans brevet de pilotes pour les aéronefs de plus de 800 grammes, poids facilement dépassé avec l'embarquement d'équipements photographiques. En outre, le survol d'un drone au-dessus du domaine public en agglomération est réglementé et requiert des autorisations ainsi que la fermeture des voies de circulation et espaces survolés13. La société sous-traitante s'est donc chargée de réaliser les prises de vue depuis le drone, puis d'effectuer l'analyse photogrammétrique et enfin de livrer l'ensemble des prises de vue, les orthophotos14 du site et le nuage de points calculé15. Le nuage de points livré est ensuite utilisé de la même manière que celui obtenu par scanner laser 3D. La distance d'échantillonnage des points est de 5 mm et le géoréférencement, effectué à l'aide de GCP dont les coordonnées ont été calculées et fournies par le cabinet Bloy, a une précision de 12 mm. Ces GCP ont un rôle important puisqu'ils permettent également de consolider le nuage de points calculé à partir du logiciel de photogrammétrie Pix4D. II.2 Modélisation en 3D des informations physiques Les différentes acquisitions effectuées ont permis de mesurer entièrement l'ensemble immobilier. La numérisation de l'ouvrage se traduit par un nuage de points géoréférencé qui va ensuite permettre de réaliser la modélisation en 3D. Ce nuage de points entièrement assemblé est le résultat de la consolidation réalisée par le cabinet Bloy des 427 scans et du nuage de points obtenu par photogrammétrie. L'étape de modélisation requiert l'utilisation de logiciels métiers spécialisés et est soumise à un cahier des charges qui fixe le niveau de développement de la maquette à produire. La spécificité du chantier a néanmoins des incidences sur le travail de modélisation et met en lumière certaines limites des logiciels BIM actuels. 13 Voir arrêté du 17 décembre 2015 en annexe. 14 Une orthophoto est une prise de vue corrigée et redressée de telle sorte que l'échelle est uniforme sur toute sa surface. De manière simplifiée, tout point de l'image est alors vu comme si la prise de vue était effectuée à la normale de ce point. Une orthophoto peut donc être superposée un plan correspondant. 15 Des exemples des données livrées sont à retrouver en annexe. 31 II.2.1 Revit Le logiciel utilisé pour la création de maquette au sein du cabinet Bloy est Revit de l'éditeur américain Autodesk. Il s'agit du logiciel professionnel le plus utilisé pour la modélisation de constructions et est véritablement conçu pour répondre aux besoins du BIM. Autodesk est un acteur majeur du développement du BIM et propose une suite de logiciels spécialisés qui couvre de nombreux aspects essentiels du processus. Revit permet la création du modèle numérique et l'intégration d'informations sur ses éléments. Par le biais d'un système de familles et d'objets paramétriques, il est possible de renseigner les éléments de manière complète : type, matériau, dimensions, fabriquant, projet ou existant, Le logiciel permet de produire, à partir de la maquette, de nombreux documents tels que les plans d'étage, plans d'héberges, coupes, tableaux de surface, listes d'éléments, et caetera. II.2.2 Critères de modélisation Le rôle du géomètre-expert dans le projet de réhabilitation est de fournir à l'architecte un état des lieux de l'existant. Cet état des lieux se présente sous la forme d'une maquette numérique en trois dimensions. La commande du maître d'ouvrage prévoit que la maquette produite par le géomètre-expert soit réalisée au LOD 300. Ce niveau de développement implique que la modélisation suive un niveau de détail élevé et une précision de ±1 cm. Le niveau de détail élevé se traduit par un rendu visuel fidèle à la réalité qui respecte les formes des éléments et ne se contente plus d'un rendu schématique. Par exemple, les fenêtres ne sont pas représentées simplement par un objet de type « fenêtre », la modélisation doit représenter les bonnes dimensions, les matériaux, le nombre de ventaux de la fenêtre et s'ils sont mobiles ou encore les menuiseries et les carreaux. II.2.3 Problèmes liés à l'architecture et solutions mises en oeuvre La spécificité du projet réside dans le fait qu'il s'agisse de réhabiliter un immeuble architecturalement complexe. Cela a deux incidences. Premièrement, la modélisation d'un ouvrage est sensiblement dépendante du type du projet. Le procédé pour réaliser la maquette d'un projet de construction nouvelle est profondément différent de celui suivi pour monter le modèle numérique d'un bâtiment existant. Autrement dit, dans le premier cas, la modélisation constitue un travail de conception d'un ouvrage qui n'existe pas encore et les seules contraintes sont celles du cahier des charges. Dans le second, la modélisation a pour objectif de produire une copie numérique d'une construction existante, privant le modélisateur de libertés pour monter sa maquette. Celle-ci doit être conforme à la réalité et, selon la nature de l'ouvrage et le niveau de développement exigé, peut contraindre le modélisateur à détailler des éléments difficilement réalisables. Deuxièmement, l'aspect complexe de l'ensemble immobilier a des répercussions sur la mission de création de la maquette. Plus le bâtiment à modéliser est simple, architecturalement parlant, plus la maquette sera facile et rapide à concevoir. À l'inverse, la complexité du bâti entrave fortement la progression du modélisateur, d'autant plus quand le niveau de détail attendu est élevé. Revit est un logiciel créé pour l'établissement de maquette numérique mais sensiblement orienté pour la conception de constructions nouvelles. Les outils sont efficaces et nombreux, permettent des niveaux de développement 32 maximaux mais sont inadaptés à la modélisation détaillée et précise de structures complexes existantes. Lorsqu'un architecte crée de toute pièce un projet, il façonne généralement l'ouvrage avec des plafonds et sols horizontaux, des murs verticaux et des cloisons perpendiculaires. Lorsqu'un géomètre-expert produit la copie numérique d'un ouvrage existant, il doit faire face à des agencements architecturaux qui ne sont pas aussi simples. Leur modélisation n'est pas pour autant impossible mais requiert un temps plus conséquent et limite parfois le renseignement attributaire des éléments. Le logiciel Revit permet d'afficher le nuage de points obtenu après les mesures et de modéliser à partir de celui-ci. Toutefois, la complexité des intérieurs a rendu cette action difficile. Dans le but de faciliter le travail de modélisation, il a été choisi de produire d'abord des plans et des coupes des bâtiments par niveau à partir du nuage de points et d'ensuite monter la maquette 3D depuis les plans. C'est donc dans ces conditions que l'ensemble immobilier a été modélisé et, rapidement, de nombreux problèmes sont apparus. II.2.3.1 Murs L'élément principal de la maquette d'un bâtiment est la modélisation de ses murs. Ceux-ci sont à la fois des objets structurels de l'ouvrage et des objets d'agencement, d'organisation de l'espace. Ce sont eux qui traduisent l'aspect visuel de l'immeuble et qui forment la majorité de sa partie visible. Les murs jouent le rôle de structure de l'ouvrage, appui des poutres, support des portes et fenêtres, cloisonnement des espaces. Leur modélisation avec précision est donc indispensable. Par ailleurs, la maquette numérique a pour mission de produire un certain nombre de données juridiques. Parmi elles figurent notamment les calculs de surfaces nécessaires à l'établissement d'un permis de construire (surface utile, surface de plancher, surface taxable, surface habitable, ). Certaines de ces surfaces sont définies par les contours de pièces, autrement dit par les murs. La précision de leur modélisation est alors un enjeu important pour fournir des surfaces justes et conformes à la réalité. Dans le contexte que présente l'ensemble immobilier, les murs ont été un élément de la maquette très compliqué à réaliser. Revit propose un système de construction des murs assez simple d'utilisation et qui permet de les renseigner à travers de nombreuses informations. Par exemple, il est possible de préciser les couches successives d'une cloison (brique 8 cm – plâtre 5 cm – isolant 2 cm). En revanche, la complexité architecturale des bâtiments et la précision attendue ont nécessité d'avoir recours à une méthode plus contraignante pour modéliser les murs. Le problème majeur réside dans l'irrégularité des géométries de mur. La forme des murs tels qu'ils existent ne peut pas être modélisée à partir des outils génériques proposés par Revit. La cause principale est l'irrégularité de l'épaisseur des murs, c'est-àdire que les deux faces d'un mur ne sont pas parallèles et suivent des directions variables. Pour modéliser des murs tels que ceux de la figure 14 ci-dessous où les épaisseurs sont irrégulières, il faut passer par la création de composants dits « in situ ». Contrairement à l'objet générique, le composant in situ permet de créer un objet ou groupe d'objets unique et qui a les formes que l'on souhaite. De ce fait, il n'est pas paramétrique et permet de répondre directement aux besoins géométriques du modélisateur. Cependant, le composant in situ comporte un défaut majeur : son renseignement attributaire est très 33 pauvre et ne se limite qu'à quelques informations standards telles que le type d'objet (ex : mur, poteau porteur, toit, ). 12 cm 16 cm Figure 14 : murs à l'épaisseur irrégulière sur un plan depuis Revit. Ainsi, la modélisation des murs s'est exclusivement faite avec des composants in situ de type « mur ». De cette façon, la maquette respecte la précision de 1cm attendue dans le cahier des charges et demeure fidèle à la réalité, condition impossible à garantir avec l'emploi de murs « génériques ». L'utilisation de composants in situ, comme évoqué précédemment, limite le renseignement attributaire. De surcroît, les outils à disposition pour modéliser les murs sont beaucoup moins efficaces que pour les objets génériques. Leur modélisation est laborieuse et chronophage. Certaines formes architecturales complexes ont demandé un réel travail de réflexion pour élaborer des solutions techniques et obtenir les formes 3D souhaitées. II.2.3.1.1 Renseignement attributaire limité Quelque soit la méthode utilisée, l'objet sera de type « mur ». Seulement, pour les propriétés qui en découlent, la diversité d'informations disponibles n'est pas comparable. La différence est clairement visible sur la figure 15 ci-dessous. Le point le plus notable est l'absence de l'onglet « cotes » et donc l'impossibilité d'accéder aux dimensions de l'objet rapidement. 34 Figure 15 : propriétés d'un mur générique (à gauche) et d'un mur in situ (à droite). II.2.3.1.2 Fruit et contre-fruit Un mur aux faces verticales est dit d'aplomb. Le fruit d'un mur désigne l'inclinaison de sa face ou ses faces de telle sorte que l'épaisseur du mur décroît en s'éloignant de la base. À l'inverse, quand l'épaisseur augmente en s'éloignant de la base, on parle de contre-fruit. Figure 16 : schéma de murs avec fruit et contre-fruit. 35 Aux problèmes d'épaisseurs irrégulières vient donc s'ajouter ceux de fruit et contre-fruit. Pour modéliser ces murs particuliers avec l'emploi de composants in situ, il est impossible de spécifier une inclinaison des faces des murs ou de modifier leurs profils comme cela peut se faire avec les murs génériques. Une première méthode employée consiste à créer des composants in situ avec l'outil « raccordement » qui demande de dessiner deux polygones, un pour la base du mur et un pour le sommet, ainsi que le niveau altimétrique de chacun d'eux. Le logiciel crée à partir de ces informations un objet qui constitue le mur souhaité. Dans les cas où l'inclinaison de la face du mur comporte des ruptures de pente, il devient nécessaire de créer le mur à partir de plusieurs raccordements, donc plusieurs objets. Il est alors préférable d'utiliser une seconde méthode. Celle-ci consiste tout d'abord à créer un mur in situ d'aplomb avec l'outil « extrusion » en dessinant la base du mur et en précisant sa hauteur. Ensuite, à l'aide de l'outil « formes vides », il s'agit de créer des espaces vides qui vont amputer le mur de façon à ce qu'il prenne la forme souhaitée. Les formes vides se modélisent également par des raccordements. Les deux méthodes sont aussi longues à mettre en oeuvre, la deuxième ayant l'avantage d'avoir in fine un mur composé d'un seul objet. La figure 17 ci-dessous illustre la modélisation d'un mur avec contre-fruit. Figure 17 : photo (à gauche) et modélisation (à droite) d'un mur avec contre-fruit. 36 II.2.3.1.3 Création d'ouvertures et intersection avec d'autres objets Ces deux actions se réalisent habituellement avec deux outils dédiés : « ouverture » et « ajuster/prolonger ». Elles consistent respectivement à ouvrir un espace dans un objet et à allonger ou réduire un objet jusqu'à un autre objet. De même que pour les problèmes précédents, la modélisation des murs par des composants in situ rend ces opérations impossibles. Revit ne prend tout simplement pas en compte les murs créés quand on souhaite utiliser ces outils. Autre outil utile, « attacher haut/bas » qui permet de joindre un mur à un sol, un plafond ou un toit de manière simple et rapide, n'est pas non plus disponible. Là encore, ces manques de fonctionnalité ont nécessité de mettre au point des méthodes de modélisation qui contournent ces problèmes. En ce qui concerne les ouvertures, l'outil « formes vides » est efficace tant que les géométries restent régulières. En créant des « vides par extrusion » ou « vides par raccordement », il est assez aisé de créer des ouvertures fidèles à la réalité. Sur l'exemple suivant (figure 18), l'ouverture a été modélisée en créant 3 formes vides (2 par raccordement et 1 par extrusion) dans un mur in situ. Figure 18 : rendu final de l'ouverture (à gauche) créée par trois formes vides visibles en orange (à droite). Cet outil « formes vides » a également permis de pallier aux problèmes d'attachement des murs in situ aux objets voisins, en particulier pour les joindre aux toits et aux escaliers. Pour un mur générique, les différents outils permettent de facilement réaliser ces jointures. Si l'on souhaite attacher un mur au toit, l'outil « attacher haut » le fait en 3 clics. Avec les murs in situ, il faut réaliser la jointure manuellement. Ce processus manuel consiste à dresser un mur plus haut que le toit auquel il se rattache et d'ensuite créer des formes vides qui coupent les parties dépassant le toit (voir figure 19 ci-dessous). La complexité de l'opération est de créer des formes vides qui épousent la forme du toit dont les faces ne sont pas planes mais irrégulières. Les formes irrégulières des toits et escaliers demandent un travail plus complexe pour créer ces formes vides et de ce fait, un temps de modélisation plus conséquent. 37 Figure 19 : ajustement d'un mur à un toit. II.2.3.1.4 Problèmes pour l'insertion des portes et fenêtres Un autre problème lié à l'emploi de composants in situ pour modéliser les murs concerne l'insertion de portes et fenêtres. Dans certains cas et sans raisons clairement apparentes, Revit refuse de poser les portes ou fenêtres à l'endroit souhaité. La porte ou fenêtre se retrouve alors posée ailleurs dans la maquette ou est supprimée. Là encore, une opération qui devrait prendre seulement quelques secondes est entravée par l'utilisation de murs in situ. La solution à ce problème est de décomposer artificiellement le mur en plusieurs parties de façon à ce que la partie accueillant la porte ou la fenêtre soit de la même largeur que cette dernière. Autrement dit, au lieu d'un seul mur avec une fenêtre au milieu, il faut alors créer trois murs successifs dont celui du milieu fait la largeur de la fenêtre qu'il porte. II.2.3.1.5 Formes impossibles à modéliser Malgré les différentes méthodes mises en place pour modéliser les différentes formes complexes de mur, certaines demeurent impossibles à reproduire avec précision. Il s'agit notamment des formes arrondies. Certaines peuvent être modélisées avec les outils « révolution », « extrusion par chemin » et « raccordement par chemin ». Cependant, lorsque la complexité des formes devient trop importante ces outils ne suffisent plus à modéliser avec précision. La seule solution est alors de créer des formes les plus proches de la réalité mais sans la précision de 1 cm attendue. La figure 20 ci-dessous illustre un exemple de murs dont la modélisation n'a pu être faite de manière fidèle à la réalité. 38 Figure 20 : formes de mur complexes visualisées dans le nuage de points (à gauche) et modélisées dans Revit (à droite). II.2.3.2 Sols Modéliser les sols est source de moins de problèmes que pour les murs et leur rôle dans la maquette est différent. Tout comme les murs, une modélisation précise des sols est nécessaire pour que l'architecte établisse son projet. En outre, la précision est également importante pour les besoins en matière de données juridiques à produire. Les sols sont la base de calcul de certaines surfaces et requièrent un soin particulier dans leur modélisation. De manière générale, les ouvrages sont construits de façon à ce que les planchers forment des surfaces rigoureusement planes et horizontales. En pratique, il est difficile de rencontrer des planchers parfaitement conformes à la théorie et globalement, plus le bâtiment est ancien, plus on s'en éloigne. L'ensemble immobilier à modéliser est ancien et, effectivement, aucun plancher n'est droit. Les irrégularités sont même très prononcées en certains points. Une des pièces présente par exemple une variation de niveau de son plancher de 9 cm sur moins de 2 mètres de distance. Contrairement à la modélisation des murs, Revit propose les outils nécessaires à la modélisation des sols quand les géométries sont irrégulières. La première étape consiste à utiliser l'outil « sol » et de spécifier l'emprise du sol en question, ainsi que préciser son épaisseur et son niveau altimétrique. Pour tenir compte de la non-planéité des planchers, le logiciel permet de placer des points de niveau où l'utilisateur renseigne l'écart altimétrique entre le niveau du sol et le niveau du point en question. Les points de niveau ainsi placés correspondent à des points dont l'altimétrie a été mesurée par le géomètre-expert. Ces points de niveau permettent donc de conférer au sol une forme irrégulière plus proche de la réalité. Cependant, le fait de placer des points de niveau sur l'emprise du sol ne permet pas de modifier l'altimétrie du contour qui demeure à son niveau initial. Or, les variations altimétriques concernent également le contour du sol. Ce périmètre est défini par des points de contour dont l'altitude peut être modifiée manuellement. Il s'agit alors de modifier le niveau de tous les points de contour concernés en interpolant leurs altitudes par rapport aux points de niveau mesurés. Les périmètres de sol étant complexes, les contours comptent généralement un nombre important de points et leur modification manuelle après interpolation de leur altitude est une étape longue à réaliser. 39 Pour que le sol corresponde à la réalité, les niveaux des points de contour ne doivent pas être modifiés en leur attribuant simplement l'altitude du point de niveau le plus proche. Compte tenu des variations altimétriques importantes des planchers, l'altitude des points de contour doit être interpolée manuellement pour chacun d'eux de façon à ce que le sol soit le plus fidèle possible à la réalité. Sur la figure 21 ci-dessous, la modélisation du plancher a demandé la modification de 52 points de contour et la prise en compte de 8 points de niveaux répartis sur toute son emprise. Le temps pris à modéliser les planchers de cette façon est de loin supérieur au temps nécessaire pour un plancher simple (1 minute contre 15 minutes). Le nombre important de points de contour est notamment dû aux directions irrégulières des murs délimitant le sol. Figure 21 : sol modélisé dans Revit (en bleu avec tous ses points de contour et points de niveaux). Autre cas de figure chronophage, les différences de niveau des planchers sur un même étage. Il ne s'agit pas là de variation altimétrique irrégulière du sol comme précédemment mais de changement de niveau de plancher entre les pièces matérialisé par des marches. Au lieu de modéliser un seul sol pour l'étage, il faut alors créer plusieurs sols en leur affectant chacun un niveau spécifique. Chacun des sols créés peut ensuite faire l'objet de réajustements via des points de niveaux comme expliqué dans les paragraphes précédents. II.2.3.3 Plafonds De même que pour les murs et les sols, modéliser les plafonds avec précision est indispensable pour la production des données juridiques liées aux calculs de surfaces. En effet, la modélisation des plafonds permet le calcul des surfaces où la hauteur sous plafond est supérieure à 1,80 mètre. Les plafonds présentent les mêmes particularités que les sols, ils sont rarement horizontaux et il peut y avoir plusieurs niveaux de plafonds ou sous-plafonds dans une seule pièce. Pour des surfaces en pente régulière ou plusieurs niveaux de plafonds, la modélisation reste simple sur Revit. Il suffit de dessiner les contours de plafonds, leurs 40 hauteurs et s'il y a lieu, l'inclinaison du plafond en précisant la pente et la flèche 16. Pour des formes moins régulières, la modélisation devient plus laborieuse. Tout d'abord, la modélisation du plafond est liée au sol. La position altimétrique du plafond est déterminée à partir de la hauteur sous plafond, c'est-à-dire la hauteur entre le sol et le plafond qui est mesurée depuis le nuage de points. Or, comme développé précédemment, les planchers des bâtiments ne sont pas des surfaces planes et horizontales. Lors de la lecture des hauteurs sous plafond, l'utilisateur doit donc tenir compte des irrégularités du sol pour déterminer le bon niveau du plafond. À cette particularité s'ajoute deux cas de figures complexes. II.2.3.3.1 Plafonds arrondis Les formes courbées se situent à la jonction entre les plafonds et les murs au dernier étage avant les combles, telle que représentée sur la figure 22 ci-contre. La modélisation de ces plafonds n'est pas envisagée par l'outil « plafond » de Revit. Cet outil se limite à des surfaces planes horizontales ou inclinées. Pour une forme arrondie, il faut une nouvelle fois recourir à la création d'un composant « in situ », ici de type « plafond ». Grâce à l'outil « extrusion par chemin », il est possible de dessiner le profil courbé du plafond et de préciser le chemin de l'extrusion, soit la largeur du mur. La forme arrondie du plafond est alors réalisée par le logiciel et ce de manière assez fidèle à la réalité. Cet outil est efficace et permet un bon rendu graphique du plafond qui serait impossible à modéliser avec un objet générique. Figure 22 : schéma illustrant le cas de plafond arrondi. Cependant, cela s'applique à des formes arrondies qui restent régulières. Dans certains cas, la courbe du plafond n'est pas identique sur toute la largeur du mur et il devient alors impossible de restituer la véritable forme du plafond lors de la modélisation. Il faut alors faire un choix entre produire un objet très proche de la réalité et un temps de modélisation raisonnable. La complexité des plafonds demandent en effet un temps considérable pour les représenter dans Revit. 16 La flèche est la direction de la pente. 41 Un des plafonds de l'ensemble immobilier a combiné à la fois le problème de pente et le problème d'arrondi irrégulier. La combinaison des deux contraintes a rendu la modélisation impossible. Un rendu conforme au nuage de points (figure 23 ci-dessous) n'est pas réalisable sur Revit, la maquette tente donc de traduire au mieux le comportement architectural mais avec un écart non négligeable (voir figure 24). Figure 23 : visualisation du nuage de points d'une pièce où le plafond est, d'une part, incliné suivant une pente qui part du mur de droite jusqu'à la poutre à gauche et, d'autre part arrondi pour se raccorder au mur du fond au-dessus des fenêtres. Figure 24 : modélisation dans Revit de la pièce correspondant à la figure 23. La forme arrondie n'est pas reproduite de manière parfaitement conforme mais la maquette s'en rapproche le plus possible. 42 II.2.3.3.2 Plafonds des combles Ce cas de figure se présente moins souvent, par définition, et n'est pas toujours source de problème de modélisation. Il s'agit tout simplement d'un plafond en pente et donc réalisable sur Revit aisément. Là où cela pose problème, c'est lorsque le faitage du toit n'est pas horizontal. Dans un des bâtiments modélisés, le faitage du toit est doublement incliné avec un point bas situé au centre. Cela a une incidence sur la forme du plafond des combles, notamment sur la direction de la pente. Pour un faitage horizontal, la flèche d'inclinaison du plafond est perpendiculaire au faitage. Pour un faitage non-horizontal, la pente de ce dernier influe sur celle du plafond. La flèche d'inclinaison n'est alors plus perpendiculaire au faitage et il faut déterminer son orientation manuellement, étape profondément chronophage comparé au temps qu'il faut pour un plafond sous les combles où le faitage est horizontal. II.2.3.4 Escaliers La complexité de l'ouvrage s'observe également dans la forme des escaliers. Ils s'opposent à ceux des constructions récentes, où tout est perpendiculaire, parallèle, droit et se répète à chaque étage. Les matériaux actuels les plus utilisés sont le métal et le béton qui se déforment moins au fil du temps que le bois utilisé pour l'ensemble immobilier. Cela se traduit donc par une cage d'escalier irrégulière d'étage en étage, une pente d'escalier variable, des hauteurs de marche changeantes, des écarts altimétriques entre les paliers inégaux, et caetera. Ces observations sont autant de contraintes qui viennent faire obstacle au travail de modélisation sur Revit. L'irrégularité de la cage d'escalier, visible sur la figure 25 cidessous, oblige à modéliser les escaliers étage par étage alors qu'il suffirait simplement de dessiner l'emprise de la cage d'escalier et le nombre d'étage dans un cas classique. Le temps de modélisation est alors multiplié par le nombre d'étage. Par exemple, pour les deux premiers bâtiments de l'ensemble immobilier, il a fallu construire 16 escaliers alors que 3 auraient été suffisants pour représenter les 3 cages d'escaliers si elles avaient été régulières. Figure 25 : cage d'escalier irrégulière vue depuis Revit. 43 À ces problèmes d'origine architecturale s'ajoutent d'autres liés aux limites de l'outil « escalier » de Revit. L'avantage avec ce type d'élément c'est qu'il n'est pas nécessaire de recourir aux composants in situ, néanmoins la complexité rencontrée et les contraintes qu'elles impliquent causent des réactions inattendues de la part du logiciel. Pour certains étages, la pente trop forte ou l'étroitesse de la cage d'escalier empêche Revit de modéliser les escaliers dans leur intégralité, ne faisant apparaître par exemple que les trois premières marches. Le logiciel annonce qu'il est impossible de créer un escalier « monobloc ». Il faut alors modifier certains paramètres du type pour que l'escalier se forme correctement. De plus, ces modifications se font au cas par cas et n'ont pas la même efficacité d'un cas à un autre. Cela demande donc de prendre du temps pour chaque étage pour que le rendu soit acceptable. Le bilan de tous les problèmes posés par la modélisation des escaliers est assez limpide. Premièrement, la perte de temps occasionnée est bien trop conséquente pour être négligeable et deuxièmement, la complexité est telle en certains endroits qu'elle ne peut être modélisée de manière rigoureusement conforme. II.2.3.5 Poutres L'ancienneté du bâti est, pour les poutres aussi, source de complications architecturales. Les poutres, sauf dans les rares cas où ce sont des IPN17, sont en bois et ont des formes irrégulières. Elles peuvent être disposées à la verticale, à l'horizontale ou obliques et il n'y a pas deux poutres aux dimensions identiques. Cela rend l'utilisation de l'outil « poutre » impossible pour modéliser tous ces éléments, à l'exception des IPN. Une nouvelle fois, la solution à ce problème est le passage par des composants in situ, avec toutes les contraintes que cela implique en matière de renseignement attributaire et de modélisation. Pour les cas les moins complexes, la modélisation est cependant efficace et le rendu graphique correspond aux attentes. Un ensemble comme celui de la figure 26 cidessous, bien qu'étant impossible à modéliser avec des objets génériques, se modélise aisément avec les composants in situ. 17 Poutre en acier dont le profil à la forme d'un « I » et dont les caractéristiques sont définies par la norme NF A45-209 de 1983. IPN signifie poutrelle en I à Profil Normal. 44 Figure 26 : modélisation d'un ensemble de poutres horizontales, verticales et obliques dans Revit. Pour les cas plus complexes, la modélisation demande là encore beaucoup plus de temps. C'est notamment le cas des poutres des combles qui courent sous les toits. L'exemple de la figure 27 ci-dessous illustre bien la complexité géométrique qui est à modéliser. D'une part, le profil de la poutre est irrégulier et d'autre part, aucune face n'est parallèle ou perpendiculaire au sol. Ce dernier point est la plus grosse source de complication car, jusqu'ici, toutes les modélisations se faisaient à partir d'un plan de construction horizontal. Or, il est impossible de créer de telles formes depuis un plan horizontal. Il a donc fallu définir le plafond comme un plan de construction et créer un composant in situ avec l'outil « extrusion » en dessinant les contours de la poutre à l'aide du nuage de points. La poutre étant particulièrement irrégulière, sa modélisation est une étape longue à accomplir et ce n'est qu'un exemple de poutre parmi toutes celles dans les combles qui sont exposées aux mêmes problèmes. Figure 27 : poutre irrégulière vue dans le nuage de points. II.2.3.6 Toits Les toits des bâtiments s'inscrivent dans le contexte parisien et son architecture haussmannienne. Ce sont donc des couvertures de zinc aux formes géométriques simples. L'outil « toit » permet de modéliser facilement les éléments de couverture. En précisant l'emprise du toit, sa hauteur et les pentes à appliquer, la modélisation est rapide et efficace. 45 Des complications apparaissent tout de même pour modéliser les toits de l'ensemble immobilier. En effet, de la même manière que pour les sols et les plafonds, la couverture ne forme jamais une surface plane. Les irrégularités sont même plus marquées en ce qui concerne les toits. Pour obtenir la maquette attendue, l'outil toit peut être utilisé comme l'outil « sol » dans le sens où il est possible de placer des points de niveau et ainsi modifier manuellement la position altimétrique d'un point précis. En superposant la maquette au nuage de points, il est alors possible de former un toit ajusté point par point et proche de la réalité. Néanmoins, cet ajustement est laborieux et nécessite la pose de nombreux points de niveau. Ces ajustements sont illustrés par la figure 28 ci-dessous. Figure 28 : modélisation d'un toit sur Revit où chaque intersection de lignes est un point de niveau. Les toits ne sont donc pas les éléments les plus compliqués à modéliser dans la maquette mais là encore, le temps que cela prend est plus important que pour une architecture simple. II.2.3.7 Autres cas rencontrés D'autres formes propres à l'ensemble immobilier ont eu à être modélisées, accompagnées à chaque fois de leur lot de complications. Dans les combles, par exemple, un des plafonds a une forme très inhabituelle (voir photo de droite sur la Figure 13 page 29). La configuration du lieu laisse à penser qu'une poutre passe à cet endroit et qu'elle est dissimulée sous ce plafond particulier. Ces conjectures ne sont cependant pas avérées et la seule mission du géomètre-expert est de modéliser l'état existant, c'est-à-dire ce qu'il voit. Ici, la modélisation doit donc seulement se contenter de représenter un plafond à l'allure spécifique. Monter en 3 dimensions une telle forme a posé quelques problèmes et la solution mise en place a été d'utiliser un composant in situ. En utilisant l'outil « extrusion par chemin », un objet plutôt fidèle à la réalité a pu être réalisé. Le voici sur la figure 29. 46 Figure 29 : vue en coupe d'un cas particulier de plafond modélisé dans Revit. Un accès à un local technique sur le toit d'un des bâtiments est un autre exemple de configuration complexe. Il s'agit d'un puits ouvert dans le plafond du dernier étage (voir figure 30). Ses formes tout à fait irrégulières ont été impossibles à modéliser avec précision et malgré un temps important passé sur ce sujet, le rendu s'en approche simplement. Figure 30 : puits d'accès à un local technique vu depuis le nuage de points. II.2.3.8 Contrôle de qualité de la modélisation et export de la maquette Le besoin de précision lors de la modélisation a contraint le modélisateur à mettre en place des solutions techniques permettant de réaliser une maquette la plus fidèle possible à la réalité. Toutefois, il est important de pouvoir opérer un contrôle de qualité pour garantir la précision attendue. Revit ne propose pas de solutions à cette problématique et le seul contrôle qui peut être effectué depuis le logiciel est un contrôle visuel en comparant la maquette au nuage de points. 47 La startup française MySnapkin propose cependant une solution qui semble offrir un contrôle efficace. À partir de la maquette et du nuage de points du bâtiment, leur applicatif permet de produire une carte de chaleur des écarts géométriques entre les deux fichiers (voir annexes). Enfin, l'intérêt de réaliser une telle maquette dans un processus BIM est de pouvoir échanger facilement les informations et les données entre intervenants sur le projet. Or, le format IFC est, à ce jour, trop peu efficace et les exports de la maquette dans ce format sont en partie inexploitables. Une quantité trop importante de données sont perdues lors de l'export de la maquette en IFC pour être négligeable. Des murs, des fenêtres, des toits disparaissent au cours de cette étape et font perdre au BIM l'un de ces intérêts premiers. II.2.4 Limites du BIM et de la modélisation 3D pour la réhabilitation d'ouvrage ancien La modélisation d'un tel ouvrage a été une mission laborieuse et a mis en lumière certaines limites du logiciel Revit et plus largement de l'intérêt d'un processus BIM pour ce type de projet. La réhabilitation d'un ensemble immobilier ancien et complexe implique des considérations différentes que pour une réhabilitation de bâtiments plus simples et récents. Mettre en place un processus BIM ne se justifie plus de manière évidente et ce, pour deux raisons principales. II.2.4.1 Utilisabilité du modèle numérique Le rôle de la maquette au sein du processus BIM est de constituer le jumeau numérique de l'ouvrage sur lequel porte le projet. Elle a vocation à être la clé de voûte de la coopération entre les différents acteurs et de faire la passerelle entre leurs contributions. Elle ne se contente donc pas d'être simplement un outil de visualisation numérique de l'ouvrage, elle permet que chacun exploite efficacement le travail des autres intervenants. Réaliser une maquette numérique implique donc pour le modélisateur de prendre en considération l'idée d'utilisabilité de son travail. L'utilisabilité, telle que définie par la norme ISO 9241-11:2018, représente « le degré selon lequel un produit peut être utilisé, par des utilisateurs identifiés, pour atteindre des buts définis avec efficacité, efficience et satisfaction, dans un contexte d'utilisation spécifié ». Cette notion s'intègre naturellement dans la philosophie que porte le processus BIM. Dans l'exemple du projet de réhabilitation d'immeubles anciens, cette utilisabilité est mise à mal par la complexité architecturale des bâtiments qui complique l'étape de modélisation. Tout d'abord, le besoin de précision nécessaire à la juste production des données juridiques liées aux calculs de surface a demandé l'emploi de composants in situ pour modéliser certains éléments. Les objets ainsi créés ne peuvent répondre entièrement au besoin de renseignement attributaire et font perdre à la maquette l'un de ses intérêts principaux. Ces objets, qui concernent l'ensemble des murs, certains plafonds et quelques objets divers, sont par ailleurs peu maniables ou modifiables et peuvent être un frein à la bonne exploitation de la maquette par un intervenant autre que le modélisateur. En outre, le fait que les murs soient des objets in situ est problématique pour certains calculs exécutés par des outils Revit ou depuis le plug-in de programmation Dynamo. D'un point de vue général, l'ensemble de la maquette est limitée en ce qui concerne le renseignement attributaire. La modélisation d'un ouvrage déjà existant signifie 48 que le géomètre-expert forme un modèle numérique du bâtiment à partir de ses mesures mais n'a pas la compétence pour définir certains attributs des éléments à modéliser. Contrairement à un projet de construction nouvelle, les éléments de l'ouvrage ne peuvent pas être renseignés en matière de composition, de matériau ou de fabricant par le modélisateur. De plus, cette limite dans la modélisation ne repose pas seulement sur le renseignement attributaire. Le géomètre-expert peut modéliser uniquement ce qu'il voit ou ce dont il a connaissance. La maquette ne peut donc inclure des éléments qui ne sont pas observables dans l'ouvrage existant. C'est l'exemple notamment des maçonneries qui ont pour objectif de dissimuler des éléments. C'est le cas du plafond des combles évoqué précédemment (page 47 et figure 29) ou des coffrages qui semblent masquer le passage de réseaux. La modélisation des réseaux est un élément important dans la réalisation de la maquette d'un immeuble mais en l'absence de mesures ou de documentations suffisantes il est impossible pour le géomètre-expert de les représenter. Le manque d'information sur les éléments de la maquette est un frein à la bonne utilisabilité du modèle numérique par la suite et constitue en soi une première limite de la mise en place du BIM pour ce type de projet. II.2.4.2 Pertinence du processus BIM pour ce type de projet Les projets de réhabilitation sont autant susceptibles de rentrer dans un cadre BIM que les projets de construction nouvelle. Les intérêts procurés concernent aussi bien les phases de conception, de construction et de gestion/exploitation/maintenance. L'acteur auquel le BIM profite le plus est le maître d'ouvrage. Ce processus lui promet gain de temps pour la réalisation du projet et économie d'argent lors de son exploitation. Ce sont principalement ces deux arguments qui poussent les maîtres d'ouvrage à passer commande dans le cadre du processus BIM. Pourtant, le projet parisien remet en question la pertinence d'un tel processus lors de la réhabilitation d'un ouvrage ancien et complexe. La production de la maquette numérique de l'ensemble immobilier est une étape indispensable pour mettre en place le BIM. Or, la complexité des bâtiments rend la modélisation plus longue à réaliser et cela a des incidences sur le projet. D'une part, le temps pris pour modéliser l'existant est bien plus important et allonge la durée de la phase de conception. La complexité de l'ouvrage peut augmenter la durée de modélisation du simple au triple. Dans le cas où cette complexité serait mal appréhendée au moment de commander la maquette, des retards conséquents pourraient apparaître dans le planning du projet. D'autant plus que pour les projets de réhabilitation, il est généralement demandé au géomètre-expert de réaliser une deuxième maquette numérique de l'ouvrage après curage, c'est-à-dire après la suppression des éléments d'habillage et de cloisonnement du bâtiment afin qu'il ne reste que sa structure. Cela implique de procéder une deuxième fois aux mesures puis à la modélisation de l'ouvrage. D'autre part, la prestation du modélisateur est plus onéreuse, en raison de la durée de travail sensiblement plus longue. Par ailleurs, le fait de réaliser un projet BIM sur de l'existant nécessite de procéder aux diagnostics de tout ce qui n'est pas visible lors des mesures du géomètre-expert, notamment pour les réseaux et les éléments structurels. Cette phase de diagnostics doit permettre de compléter le modèle numérique de manière à le rendre le plus exhaustif et le plus fidèle à la réalité possible. Ces missions de diagnostic impliquent des coûts supplémentaires pour le maître d'ouvrage qui viennent s'ajouter aux 49 coûts additionnels de la modélisation. Là encore, si la complexité de l'ouvrage n'est pas bien anticipée en amont du projet, les coûts imprévus peuvent mettre à mal le projet. Mettre en place un processus BIM pour un tel projet induit donc pour le maître d'ouvrage de prendre en compte un temps plus conséquent pour la réalisation du projet et des coûts plus importants lors de la phase de conception. Il est alors important que ces problématiques soient anticipées avant même le lancement du projet afin que la mise en place du BIM reste pertinente et que les intérêts procurés subsistent pour le maître d'ouvrage. II.2.4.3 Pistes d'amélioration La difficulté à modéliser l'existant est la problématique la plus contraignante pour ce type de projet. Cependant, c'est aussi celle qui a la meilleure marge de progression. Le véritable souci est le manque d'outils répondant aux besoins du modélisateur pour réaliser des objets complexes. Dans l'optique d'échanger sur les interrogations et les idées de solutions des différents intervenants, une table ronde a été réalisée avec le cabinet d'architectes concerné par le projet. Leur avis est d'un grand intérêt puisque ce sont eux qui exploitent en premier la maquette par la suite. Il en est ressorti qu'architectes et géomètres-experts sont confrontés aux mêmes limites du logiciel Revit pour la modélisation et les pistes techniques présentées dans la partie II.2.3 sont des premières solutions efficaces qui permettent de répondre à certaines difficultés. Ces réponses sont efficaces pour ce qui est de la modélisation d'objets complexes mais le sont moins quant au temps de travail engendré. Le plug-in de programmation Dynamo sur Revit pourrait alors être une piste de solutions plus intéressante pour créer des objets complexes. Le panel d'outils disponibles est déjà assez large mais le vrai potentiel réside dans la liberté qui est laissée à l'utilisateur pour créer des objets, des outils et des applicatifs via des scripts de programmation. De manière évidente, il ne s'agit pas de solutions facilement réalisables pour des néophytes mais après une bonne prise en main de Dynamo, ce plug-in intuitif peut permettre de répondre à des problèmes complexes. Enfin, ce type de projet doit profiter des avantages que dégage le BIM pour contourner certains problèmes. L'aspect collaboratif doit être mis en avant, notamment pour faciliter le travail du modélisateur. Premièrement, pour mieux échanger sur les solutions mises en place par certains et qui peuvent répondre aux problèmes d'autres. Deuxièmement, pour mieux définir les attentes et les besoins de chacun des intervenants. Il est important de définir la mission du modélisateur de façon claire et exhaustive afin que ce travail de modélisation reste efficace et pertinent. Il peut alors être nécessaire de ne pas spécifier un niveau de détail pour la maquette mais de définir un niveau de détail pour chaque type d'élément, cela dans l'idée que le modélisateur ne s'attarde pas sur des éléments complexes à réaliser avec une bonne précision si cette précision n'est pas indispensable. 50 III Modélisation des informations immatérielles La modélisation des informations matérielles d'un ouvrage est l'étape la plus importante dans un processus BIM et également la plus longue, notamment dans le cas d'un projet comme celui abordé dans ce mémoire. Toutefois, le travail de modélisation des informations immatérielles n'est pas pour autant négligeable et prend un rôle tout aussi important pour la délivrance d'autorisations d'urbanisme telles que le permis de construire. Ces informations immatérielles comprennent en particulier toutes les données juridiques de l'ouvrage. La création d'un modèle numérique dans un processus BIM n'est donc pas simplement l'élaboration d'une maquette en 3 dimensions pourvue d'informations, d'attributs et de paramètres mais un ensemble regroupant toutes les données techniques liées à la structure et aux éléments de l'ouvrage ainsi que les données juridiques qui permettent de régir l'utilisation de ce dernier et son interaction avec son environnement. Il s'agit donc, depuis Revit là aussi, d'intégrer un certain nombre d'informations juridiques à la maquette et de pouvoir extraire de cette dernière les documents relatifs aux besoins du permis de construire. III.1 Intégration de données juridiques La quantité de données juridiques à inclure dans une maquette peut varier sensiblement selon les besoins du projet. Les informations les plus courantes concernent les limites de propriétés, la mitoyenneté, les servitudes, les règles de prospects, la zone de constructibilité ou encore la destination des biens. Nombre des problèmes que pose la modélisation de ces informations a déjà fait l'objet de réflexion dans des TFE précédents, notamment par Maud Laurencin (« L'intégration des données complémentaires (données foncières, division en volume, environnement) au sein de maquettes numériques au format Revit », 2017) et Vivien Roy (« Intégration de données juridiques dans les maquettes numériques BIM », 2017). Dans le cas du projet de réhabilitation, seulement certaines de ces données juridiques ont eu à être intégrées, sans que la complexité du bâti ne pose de véritable problème. III.1.1 Limites de propriété Les limites de propriété font l'objet de documents qui leur sont propres et ne sont pas définies par le modèle numérique. Ces limites sont définies avant tout par le procèsverbal de bornage établi par le géomètre-expert. Il est toutefois intéressant de les matérialiser dans la maquette, notamment pour exploiter, au cours du projet, les informations qui en découlent. Sur Revit, la modélisation des limites de propriété est réalisable de manière aisée via un outil éponyme. Il est possible de placer les limites manuellement en dessinant l'esquisse ou alors en précisant directement les coordonnées des sommets d'une limite séparative. Cet outil permet de représenter rapidement les limites de propriété dans le modèle numérique. La facilité de réalisation de cette étape s'explique par le fait que la représentation d'une limite de propriété reste en 2 dimensions et quand bien même les limites seraient complexes, leur dessin en 2D ne constituerait pas une difficulté pour Revit. 51 Néanmoins, le logiciel d'Autodesk ne se contente finalement que d'une représentation graphique des limites de propriété et seul le fait que les lignes représentatives soient du type « limite de propriété » permet de revendiquer une certaine utilisabilité de ces données. Extraire des informations depuis des objets de ce type reste limité, en particulier pour obtenir les coordonnées, et c'est pourquoi une des parties suivantes du développement est consacrée à ce sujet (cf. partie III.2.1). III.1.2 Définition des pièces La définition des pièces dans un modèle numérique a trois intérêts principaux. Premièrement, cela a pour but de préciser la destination des pièces, chose importante pour certains documents d'urbanisme. Deuxièmement, il s'agit de délimiter les contours de pièces afin de procéder aux calculs de surface par la suite. Ces délimitations sont particulièrement importantes pour la surface utile et doivent tenir compte de critères précis. Troisièmement, cela permet d'extraire facilement des informations sur les pièces lors de la création de plans d'intérieur via Revit. La définition des pièces se fait à travers un outil dédié : « pièce ». Cet outil est efficace pour la détection automatique de pièces, même lorsqu'elles sont délimitées par des murs in situ. Des objets de type pièce sont alors créés avec une liste d'attributs pouvant être renseignés par l'utilisateur ou calculés par le logiciel tels que la surface, le périmètre, l'occupation, le nom, et caetera. Via les champs modifiables par l'utilisateur, il est possible de renseigner manuellement la destination de chacune des pièces de manière assez rapide. Quelques fois, l'outil ne détecte pas certaines pièces, notamment celles qui ne sont pas entièrement closes. Il est alors possible de dessiner le contour de la pièce manuellement et d'avoir in fine les mêmes caractéristiques que les pièces détectées de façon automatique. La possibilité de modifier manuellement les limites d'une pièce est particulièrement utile lorsque les hauteurs sous plafond ou sous escalier sont inférieures à 1,80 mètre et que les limites de pièce à prendre en compte pour les calculs de surface ne sont plus les mêmes (cf. partie III.2.2). Enfin, il est possible sur Revit de créer une étiquette, c'est-à-dire un cadre d'annotation, qui permet d'afficher sur les plans certaines informations pertinentes. Dans la modélisation de l'ensemble immobilier, il a donc pu être possible de créer une famille d'étiquette prenant certaines informations de la maquette en paramètres et permettant de les afficher sur les plans d'intérieur. Une des étiquettes créées (voir figure 31 cicontre) indique par exemple le nom de la pièce en question, sa surface, sa Figure 31 : étiquette de pièce sur Revit. destination, son numéro de bâtiment et son numéro d'étage. Pour placer ces étiquettes, il suffit simplement de cliquer sur une pièce et les renseignements se remplissent de manière automatique. 52 La définition des pièces demande de contrôler la délimitation de chacune des pièces et d'en spécifier la destination, étape qui peut prendre du temps, mais cela est nécessaire pour pouvoir par la suite extraire certaines données juridiques de la maquette. III.1.3 Servitudes et contraintes La question des servitudes est primordiale dans un projet et la maquette numérique est un bon outil pour les matérialiser et permettre une visualisation efficace de leurs effets sur l'ouvrage. Sur un projet de réhabilitation, les servitudes touchant l'immeuble sont généralement déjà effectives et de ce fait, peu de nouvelles servitudes sont à mettre en place. Cependant, la matérialisation de celles déjà existantes dans le modèle numérique est importante. Le mémoire de Maud Laurencin cité précédemment analyse de manière complète la façon dont les servitudes et les diverses contraintes réglementaires peuvent être modélisées. Dans le projet de réhabilitation parisien, l'ensemble immobilier n'est grevé d'aucune servitude d'utilité publique. La seule servitude qui frappe l'ouvrage est une servitude de vue dont le fond dominant est le fonds voisin. Il s'agit d'une servitude d'utilité privée qui protège un propriétaire de la possibilité qu'un voisin crée une ouverture, un balcon ou tout autre aménagement offrant une vue sur sa propriété. La loi est stricte sur ce sujet et fixe le cadre de ce qui est possible selon les cas de figure. Ici, il s'agit d'ouvertures dans un mur dressé en limite de propriété et nonmitoyen. Les règles sont claires pour ce cas de figure : les ouvertures doivent être à 2,60 mètres du sol de la pièce qu'elles illuminent si c'est au rez-de-chaussée et à 1,90 mètre pour les étages supérieurs, la fenêtre doit être sur un support fixe qui ne s'ouvre pas, le verre doit être translucide mais non-transparent et des barreaux séparés d'au maximum 10 cm doivent être placés à l'extérieur de la fenêtre. Ces mesures assurent que l'occupant à qui profitent ces ouvertures ne puisse pas avoir de vue sur la propriété de son voisin. Les deux fenêtres de l'immeuble en limite de propriété donnant sur la parcelle voisine sont donc soumises à ces contraintes. La méthode retenue pour modéliser les servitudes est de créer un volume de couleur vive à l'emplacement de l'ouverture, de telle sorte que cela soit visible sur la maquette numérique. Ce volume peut être renseigné via un le champ « commentaires » des propriétés. L'utilisateur peut ainsi préciser la nature de la servitude et indiquer les contraintes qui en découlent. Les deux ouvertures concernées sont observables sur la figure 32 ci-dessous ainsi que le tableau des propriétés dans lequel est précisée la nature de la servitude. 53 Figure 32 : les deux ouvertures du 4ème étage donnent sur la parcelle voisine. Le volume rouge superposée à l'une d'entre elles permet d'identifier plus facilement la présence d'une contrainte. Ses propriétés sont illustrées à droite. III.2 Difficultés d'extraction de documents nécessaires au permis de construire La réduction du nombre de logiciels par lesquels il faut passer lors de la conception d'un projet est aujourd'hui l'un des objectifs de développement du BIM. Cela a pour but de limiter le nombre de licences métiers dans lesquels les acteurs doivent investir, limiter la perte de données lors de l'exportation de fichiers d'un logiciel à un autre et permettre une plus grande efficacité et rapidité d'exécution. C'est dans cette optique que Revit se développe et a vocation à répondre à tous les besoins de la CAO. Ainsi, toute la phase de conception se fait sur ce logiciel et ensuite les calculs de surface et l'édition des tableaux de synthèse doivent également pouvoir s'opérer depuis Revit. Toutefois, la complexité du projet de réhabilitation peut être un frein pour certains cas. III.2.1 Limites de propriété La modélisation des limites de propriété est une opération aisée sur Revit, comme évoqué dans la partie III.1.1, mais l'extraction d'informations concernant ces dites limites est plus compliquée. La véritable problématique se pose lorsqu'une limite est dessinée à partir d'une esquisse manuelle et que l'on souhaite récupérer les coordonnées des sommets ainsi que les angles et distances des lignes séparatives. Revit ne propose aucun outil ou applicatif répondant à ce besoin. Pour pallier à ce problème, l'utilisation de l'extension Dynamo a été nécessaire. La diversité des fonctions proposées par ce plug-in de programmation permet de mettre en place de nombreuses possibilités d'amélioration pour Revit. Pour extraire les informations à propos des limites de propriété, un algorithme mêlant des fonctions de Dynamo et des scripts en langage Python a été développé (voir annexe). L'exécution de cet algorithme permet, après sélection d'une limite de propriété, d'en extraire un tableau Excel 54 récapitulant le numéro et les coordonnées (X,Y) de chacun des sommets dans le système de coordonnées du projet, les distances entre chaque sommet et l'angle. Pour faire simple, cet algorithme récupère les coordonnées locales des extrémités de chaque ligne composant la limite puis classe ces points dans le bon ordre en déterminant si la limite est en boucle fermée, il convertit ensuite les coordonnées dans le système de coordonnées du projet et enfin calcule les distances et angles entre ces points. Ces données sont finalement classées dans un tableau exporté au format Excel. Au final, l'utilisateur n'a simplement qu'à ouvrir l'algorithme Dynamo, sélectionner la limite de propriété et spécifier un emplacement de sauvegarde pour le tableau de synthèse. III.2.2 Surfaces juridiques Le terme « surface juridique » désigne une surface dont les critères de calcul sont réglementés par des textes du législateur. Le logiciel Revit propose des solutions efficaces pour extraire de manière automatisée différents tableaux de surfaces juridiques. Les deux principaux sont les tableaux concernant la surface de plancher et la surface utile (voir définition en annexe). La mise en place d'une extraction automatique de ces données est pleinement développée dans le mémoire de Vivien Roy cité précédemment. Les solutions qu'il présente sont efficaces et fonctionnelles. Néanmoins, la complexité de l'ensemble immobilier limite cette efficacité en ce qui concerne la détermination des planchers dont la hauteur sous plafond est inférieure à 1,80 mètre. L'algorithme de Vivien Roy ne peut s'appliquer à des sols irréguliers dont l'altimétrie varie fortement et il permet seulement de traiter des planchers plans. Bien que Dynamo propose une palette de fonctions géométriques importante, aucune solution automatisée n'a pu être développée pour répondre à ce cas de figure. Pour ces cas bien particuliers, la solution la plus efficace est d'utiliser le nuage de point et de s'appuyer sur des coupes de celui-ci pour déterminer la délimitation des surfaces dont la hauteur sous plafond est inférieure à 1,80 mètre. Le calcul des surfaces de plancher à partir des solutions de Vivien Roy repose sur l'analyse des dalles de sol. Dans un ouvrage classique, une seule dalle est utilisée pour chaque étage. Dans ce cas d'étude, il est parfois nécessaire de créer une dalle par pièce et voir ainsi le nombre de sol sur un même étage se multiplier. Pour le calcul de la surface de plancher à partir de la méthode de Vivien, il est alors nécessaire de répéter la méthode pour chaque dalle créée et l'opération qui était efficace initialement devient immédiatement longue à réaliser. Le calcul des surfaces juridiques est une des raisons pour lesquelles l'ouvrage a nécessité une modélisation précise au centimètre. La complexité architecturale a demandé un travail long et conséquent pour la faire transparaître avec fidélité dans la maquette numérique. Cependant, pour se rendre compte de la véritable différence dans les surfaces que cela implique, les valeurs issues des calculs de surface ont été comparées à celles obtenues à partir d'une maquette du même ouvrage mais réalisée avec des objets génériques (sans murs in situ notamment) et donc avec moins de précision. Cette maquette « simplifiée » représente seulement un étage du bâtiment. Sa modélisation a demandé moins de temps que pour la première maquette, passant d'environ 55 une semaine de travail à une demi-journée. Le calcul de la surface de plancher et de la surface utile a été réalisé selon le même procédé sur les deux maquettes de manière à pouvoir comparer objectivement les résultats. La différence pour la surface de plancher est de l'ordre de 0,3% tandis que pour la surface utile, il n'y a pas de différence sur le total de l'étage. Cependant, en comparant pièce par pièce la surface utile, des différences proches de 2% apparaissent. Si ces différences se compensent sur l'ensemble de l'étage étudié, il ne s'agit pas d'une règle générale. Ainsi, un écart de 2% sur la surface utile peut avoir des incidences importantes d'un point de vue économique, en particulier lorsque le prix du mètre carré est élevé. Le niveau de détail influe donc sur les valeurs des surfaces du modèle numérique et cet élément est à prendre en compte au moment de la commande de la maquette. L'écart sur la surface de plancher est suffisamment faible pour être négligeable mais ce n'est pas le cas pour ce qui concerne la surface utile. Ces différences sont la conséquence directe du niveau de précision de la maquette et cela met en lumière l'importance de définir, en amont du projet, un niveau de détail qui correspond aux besoins du projet. 56 Conclusion L'établissement de la maquette numérique d'un immeuble ancien et complexe permet de mettre en lumière les limites actuelles auxquelles se confronte la mise en place du processus BIM. Le contexte est, certes, particulier mais les difficultés qu'il souligne sont un frein à l'adoption du BIM dans les projets de réhabilitation. Bien que les avantages qu'il promette semblent sans conteste, les obstacles auxquels il fait face sont nombreux et restent autant de pistes d'amélioration à développer. La complexité du bâti est la principale cause de complications. La modélisation avec précision de la maquette semble être, de prime abord, une condition nécessaire pour extraire des informations juridiques qui en dépende et fournir aux autres intervenants du projet un modèle le plus conforme possible à la réalité et traduisant au mieux sa complexité. Cependant, modéliser avec une précision de l'ordre du centimètre une telle architecture ne peut être efficace que si les outils de modélisation le sont aussi. Or, les logiciels professionnels tels que Revit n'offrent pas pour le moment ce confort au modélisateur. Le recours à des composants in situ est la meilleure façon de reproduire un élément complexe avec fidélité. Néanmoins, cela se fait au détriment du renseignement attributaire des objets, aspect essentiel du BIM. En outre, les objets ainsi créés interagissent très peu avec les éléments autour et peu d'outils sont en mesure de les prendre en compte. Le retour d'expérience d'architectes sur le sujet est patent. L'utilisation de tels objets rend la maquette très compliquée et peu pratique d'utilisation. La précision est nécessaire mais les outils efficaces manquent. L'extension Dynamo de Revit pour la programmation pourrait être une piste intéressante pour développer des premières réponses. Des solutions d'automatisation de la modélisation sont également proposées par certaines startups comme MySnapkin mais demeurent pour l'instant adaptés à des architectures simples et ne permettent pas encore de répondre à ces problématiques. Par ailleurs, la modélisation d'objets via l'insertion d'un maillage du nuage de points pourrait être une solution graphique efficace mais aurait l'inconvénient de créer des objets non-BIM sans paramètres et propriétés. Au contraire, certains objets complexes sont chronophages lors de leur modélisation alors qu'une haute précision n'est pas forcément nécessaire. Il apparaît être primordial que la précision attendue pour chaque type d'objet soit déterminée en amont de la modélisation. Cette étape peut être longue et fastidieuse mais le gain de temps lors de la réalisation de la maquette la compense amplement. Le cabinet Pierre Bloy a mis en place une méthode de collaboration avec les maîtres d'oeuvre lors de tels projets BIM pour clarifier dès le début du projet les différents niveaux de précision attendus. Les résultats semblent a posteriori convaincants et cela permet d'éviter au géomètre-expert des modélisations chronophages inutiles. La question de la précision est déterminante dans la réalisation d'une maquette et est l'élément qui détermine la charge et le temps de travail pour le modélisateur. Y répondre avec clarté et définir les attentes en matière de niveau de détail dès le début du projet est nécessaire pour le bon déroulement de la phase de modélisation. Toutefois, à la fin de cette phase, il demeure difficile d'évaluer la réelle précision de la production. Revit ne propose pas à cette heure de fonctionnalité permettant un contrôle de qualité de la maquette à partir du nuage de points de l'ouvrage. Le seul contrôle possible depuis le logiciel reste celui qui s'impose au modélisateur pendant son travail et qui se fait de 57 manière visuelle. Toutefois, l'extension développée par MySnapkin semble être une solution efficace à cette problématique de contrôle. Quant à la modélisation des informations immatérielles et notamment juridiques, elle est également sujette à des difficultés accentuées par le manque d'outils efficaces disponibles. La complexité du bâtiment a, là encore, une incidence sur l'efficacité des outils proposés par Revit et ralentit le travail du modélisateur. Dynamo est, cependant, une piste intéressante et permet déjà de mettre en place des solutions à travers des algorithmes à développer. C'est l'exemple en particulier des limites de propriété qui sont très peu exploitables sur Revit mais dont Dynamo permet d'en extraire certaines informations telles que les coordonnées de ses sommets ainsi que les distances et les angles des segments composant la limite séparative. Il pourrait également être intéressant de développer des applicatifs Revit qui s'appuieraient dans le même temps sur la maquette et sur le nuage de points pour certains calculs, notamment lorsque la complexité de la maquette les rend impossibles. C'est l'exemple des calculs de surface qui nécessitent de prendre en compte la hauteur sous plafond alors que celle-ci ne peut pas toujours être déterminée à partir de la maquette en raison de la complexité du bâtiment. Enfin, la modélisation d'une maquette aussi complexe soulève des interrogations en ce qui concerne l'échange de données via des formats d'export. Travailler dans le cadre du BIM implique de faciliter les échanges entre acteurs. Seulement, cela n'a d'intérêt que si les données parviennent à s'exporter sans perte d'informations. Le fait est que l'export de la maquette au format IFC fait perdre un nombre d'informations trop important. Cela oblige les différents intervenants à travailler sur un logiciel métier commun s'ils ne souhaitent perdre aucune donnée. Cet aspect est également un élément important à prendre en compte en amont de la modélisation. Finalement, le BIM fait la promesse de nombreux avantages mais la réalité de sa mise en place dans un tel contexte peine à les mettre en avant. Le gain de temps annoncé lors de la phase de conception est éclipsé par la durée de travail démultipliée qu'implique la réalisation de la maquette. Par ailleurs, plus la prestation du géomètre-expert est longue, plus elle est couteuse pour le maître d'ouvrage. Autrement dit, le temps de travail nécessaire pour établir le modèle numérique a une incidence directe sur le coût du projet et discrédite l'argument d'une économie financière offerte par le BIM. De ce fait, la pertinence de la mise en place d'un processus BIM dans ce contexte peut être remise en cause. Un projet de réhabilitation classique sans production de modèle numérique semble poser nettement moins de contraintes, aussi bien en matière de budget qu'en matière de délai, où les plans 2D sont plus rapidement réalisables et plus utilisables que la maquette rendue complexe par le niveau de précision attendu. Les besoins du projet doivent donc être clairement définis en amont. La maquette doit répondre à un niveau de détail nécessaire mais ne faisant pas obstacle à son utilisabilité. Les logiciels BIM encadrant les projets de réhabilitation d'immeubles anciens et complexes doivent aussi participer à améliorer les conditions actuelles de modélisation et proposer une palette d'outils plus adaptés et efficaces. 58 Bibliographie Ouvrages imprimés : CELNIK Olivier et LEBEGUE Eric. BIM & maquettte numérique pour l'architecture, le bâtiment et la construction. Éditions Eyrolles, 2014. 622 pages. BELLENGUER Anne-Marie et BLANDIN Amélie. Le BIM sous l'angle du droit. Éditions Eyrolles, 2016. 120 pages. HENO Raphaële et CHANDELIER Laure. Numérisation 3D de bâtiments. iSTE editions, 2014. 178 pages. ACLOQUE Delphine, BONNET-PINEAU Élisabeth, COLOMBEL Yves, DELPIROU Aurélien, OSTER Daniel. La France, territoires et aménagement face à la mondialisation. Éditions NATHAN, 2012. Plan transition numérique dans le bâtiment, 2017. Stratégie française pour les actions de pré-normalisation et normalisation BIM appliquées au bâtiment. Articles de périodiques imprimés : DEMIGNEUX Nicolas. Marchés publiques et privés : les nouveaux risques juridiques du BIM. Le Moniteur, 2018, n°5975, p.76-79. HALBOUT Hervé. Convergence BIM-SIG. Géomatique expert, 2016, n°109, p.14-29. COLLOMBE Julien. BIM, géomètres et modélisation 3D. Géomatique expert, 2016, n°111, p.38-54. BORDIN Patricia. SIG &BIM : quelle histoire !. Géomatique expert, 2017, n°115, p.38-43. HABCHI Vincent. SIG et BIM à la Société du Grand Paris. Géomatique expert, 2018, n°120, p.28-35. HABCHI Vincent. BIM et SIG, l'impossible mariage ?. Géomatique expert, 2018, n°121, p.34-45. Travaux universitaires ENGELBART Douglas, 1962. Augmenting Human Intellect : A Conceptual Framework. Summary report, Stanford Research Institute, États-Unis. VOIRIN Jean-Philippe, 2014. Le Géomètre-Expert acteur du BIM. DPLG, ESGT. REGNARD Anne-Laure, 2015. Construction de la maquette 3D de Rennes Métropole Mise en place, analyse et optimisation des processus. TFE, ESGT. DEHODENT Kevin, 2015. Intégration du processus BIM dans un cabinet de Géomètres Experts. TFE, ESGT. LAURENCIN Maud, 2017. L'intégration des données complémentaires (données foncières, division en volume, environnement) au sein de maquettes numériques au format Revit. TFE, ESGT. ATTENCIA Jordi, 2015. Création d'un plug-in Revit de gestion et mise à jour d'éléments 3D à destination de néophytes de la géomatique. TFE, ESGT. BOUILLON Loïc, 2016. Le BIM comme support de la gestion foncière des immeubles bâtis et des ouvrages complexes. TFE, ESGT. ROY Vivien, 2017. Intégration de données juridiques dans les maquettes numériques BIM. TFE, ESGT. POUX Florent, 2014. Vers de nouvelles perspectives lasergrammétriques : optimisation et automatisation de la chaîne de production de modèles 3D. TFE, ESGT. Texte réglementaire Circulaire du 3 février 2012 relative au respect des modalités de calcul de la surface de plancher des constructions définie par le livre I du code de l'urbanisme. NOR : DEVL1202266C. Sites internet Objectif BIM. [en ligne] disponible sur http://objectif-bim.com/index.php. 12/02/2018. FFBIM. [en ligne] disponible sur http://www.ffbim.fr/que-veut-dire-bim. 16/04/2018. Engineering. [en ligne] disponible sur https://www.engineering.com/BIM/ArticleID/11436/BIM-101-What-is-Building-InformationModeling.aspx. 18/04/2018. BIM & BTP. [en ligne] disponible sur https://bimbtp.com/pourquoi-le-bim/definition-du-bim/. 20/04/2018. Mediaconstruct. [en ligne] disponible sur http://www.mediaconstruct.fr/comprendre-le-bim/maquette-numerique-et-bim. 20/04/2018. Livre blanc de la Caisse des Dépôts. [en lligne] disponible sur http://www.planbatimentdurable.fr/IMG/pdf/Livre_Blanc_Maquette_Numerique_mai2014_PDD_bassedef-v1.pdf. 02/05/2018. Demographia. World urban areas. 14ème édition annuelle, avril 2018. [en ligne] disponible sur http://www.demographia.com/dbworldua.pdf. 23/05/2018. 59 Table des annexes18 Annexe 1 Titre Erreur ! Signet non défini. Annexe 2 Titre Erreur ! Signet non défini. Annexe 3 Titre Erreur ! Signet non défini. 18 Les annexes doivent être annoncées dans le texte principal en note de bas de page. On évitera alors de renvoyer à la page où se situe l'annexe mais on renverra plutôt au n° de l'annexe. On peut ici détailler ou illustrer des informations qui n'ont pas pu être développées dans le texte mais qui méritent de l'être. Les annexes sont numérotées et titrées. On évitera donc de faire figurer plusieurs annexes sur une même page. Pour enlever cette note de bas de page, supprimer l'appel de note ci-dessus. 60 Annexe 1 Exemples de documents livrés suites aux mesures par drones : orthophoto et nuage de points. 61 Annexe 2 Arrêté du 17 décembre 2015 de la ministre de l'écologie, du développement durable et de l'énergie, du ministre de la défense et de la ministre des outre-mer, relatif à l'utilisation de l'espace aérien par les aéronefs qui circulent sans personne à bord :  article 5, 1° alinéa : « L'aéronef n'évolue pas au-dessus de l'espace public en agglomération, sauf en des lieux où le préfet territorialement compétent autorise la pratique d'activité d'aéromodélisme. »  article 6, 1° alinéa : « Les vols effectués en zone peuplée sont soumis à une déclaration préalable auprès du préfet territorialement compétent pouvant donner lieu à une interdiction ou une restriction de vol. La déclaration est effectuée par les exploitants avec un préavis de cinq jours ouvrables []. » 62 Annexe 3 Algorithme Dynamo et scripts Python 63 Script python pour le noeud « Tableau final » 64 Annexe 4 La surface de plancher est définie aux articles L. 112-1 et R. 112-2 du code de l'urbanisme : « Art. L. 112-1 : Sous réserve des dispositions de l'article L. 331-10, la surface de plancher de la construction s'entend de la somme des surfaces de plancher closes et couvertes, sous une hauteur de plafond supérieure à 1,80 m, calculée à partir du nu intérieur des façades du bâtiment. Un décret en Conseil d'Etat précise notamment les conditions dans lesquelles peuvent être déduites les surfaces des vides et des trémies, des aires de stationnement, des caves ou celliers, des combles et des locaux techniques ainsi que, dans les immeubles collectifs, une part forfaitaire des surfaces de plancher affectées à l'habitation. ». « Art. R. 112-2 : La surface de plancher de la construction est égale à la somme des surfaces de planchers de chaque niveau clos et couvert, calculée à partir du nu intérieur des façades après déduction : 1° Des surfaces correspondant à l'épaisseur des murs entourant les embrasures des portes et fenêtres donnant sur l'extérieur ; 2° Des vides et des trémies afférentes aux escaliers et ascenseurs ; 3° Des surfaces de plancher d'une hauteur sous plafond inférieure ou égale à 1,80 mètre ; 4° Des surfaces de plancher aménagées en vue du stationnement des véhicules motorisés ou non, y compris les rampes d'accès et les aires de manoeuvres ; 5° Des surfaces de plancher des combles non aménageables pour l'habitation ou pour des activités à caractère professionnel, artisanal, industriel ou commercial ; 6° Des surfaces de plancher des locaux techniques nécessaires au fonctionnement d'un groupe de bâtiments ou d'un immeuble autre qu'une maison individuelle au sens de l'article L. 231-1 du code de la construction et de l'habitation, y compris les locaux de stockage des déchets ; 7° Des surfaces de plancher des caves ou des celliers, annexes à des logements, dès lors que ces locaux sont desservis uniquement par une partie commune ; 8° D'une surface égale à 10% des surfaces de plancher affectées à l'habitation telles qu'elles résultent le cas échéant de l'application des alinéas précédents, dès lors que les logements sont desservis par des parties communes intérieures. ». 65 Annexe 5 Carte de chaleur des écarts entre une maquette et le nuage de points correspondant. 66 Annexe 6 Visualisation de la maquette au format IFC dont des éléments manquent. 67 Établissement de la maquette numérique d'un immeuble ancien et complexe dans le cadre d'un processus BIM. Mémoire d'Ingénieur C.N.A.M., ESGT Le Mans, 2018 _________________________________________________________________ RÉSUMÉ La mise en place d'un processus BIM pour un projet de réhabilitation implique de modéliser un ouvrage déjà existant en tenant compte de ses spécificités. Dans le cas d'un immeuble ancien à l'architecture complexe, la modélisation peut soulever un certain nombre de problématiques. Pour garantir l'exactitude des informations qu'elle représente et en permettre une bonne exploitation, notamment pour en extraire des données juridiques, la maquette numérique de l'ouvrage peut être soumise à un haut niveau de précision. Cependant, modéliser un bâtiment complexe de manière précise peut, paradoxalement, faire obstacle à l'utilisabilité du modèle numérique. Le travail du modélisateur s'en trouve alors modifié et des interrogations peuvent être émises quant aux limites qui doivent être fixées entre haute précision et bon utilisabilité de la maquette. Mots clés : BIM, maquette numérique, Revit, réhabilitation. _________________________________________________________________ SUMMARY The implementation of a process BIM for a project of rehabilitation implies to model an already existing building by taking into account its specificities. In the case of an old building with a complex architecture, the modeling can raise a number of problems. To guarantee the accuracy of the information that it represents and to allow a good exploitation, in particular to extract from it legal data, the digital model of the building can be submitted to a high level of precision. However, modeling a complex building in a precise way can, paradoxically, put obstacle to the usability of the digital model. The work of the modeler is then modified and questioning can be emitted about the limits which must be fixed between the digital model high precision and its good usability. Key words : BIM, digital model, Revit, rehabilitation. 68
{'path': '67/dumas.ccsd.cnrs.fr-dumas-02092790-document.txt'}
Étude du catalogage et des inventaires de la bibliothèque musicale de l'ancien Concert de Lyon Bénédicte Hertz To cite this version: Bénédicte Hertz. Étude du catalogage et des inventaires de la bibliothèque musicale de l'ancien Concert de Lyon. Dix-Huitième Siècle, Société Française d'Étude du Dix-Huitième Siècle (SFEDS) Diffusé par La Découverte, 2011, Le monde sonore, pp.143-163. 10.3917/dhs.043.0143. hal-02888908 HAL Id: hal-02888908 https://hal.archives-ouvertes.fr/hal-02888908 Submitted on 3 Jul 2020 Étude du catalogage et des inventaires de la bibliothèque musicale de l'ancien Concert de Lyon1 (Bénédicte Hertz) Au siècle des Lumières, les bibliothèques se multiplient dans la ville de Lyon, conséquence directe de l'essor de l'édition. La cité en compte plusieurs, se distinguant les unes des autres par leur taille, leur spécificité ou encore la rareté des ouvrages qu'elles rassemblent. Parallèlement aux collections exclusivement privées, s'ouvrent, sur l'exemple parisien, de petits cabinets de lecture ou des bibliothèques semi-publiques, qui appartiennent souvent à des religieux. Ainsi en est-il des Jésuites, au grand collège de la Trinité et à la maison Saint-Joseph, ou des Augustins de Saint-Vincent, ces derniers ayant récupéré la bibliothèque de Gacon, un ancien échevin de la ville. Car la plupart des fonds sont constitués des collections particulières de Lyonnais érudits : l'abbé La Croix, Ruffier d'Attigna ou Clapeyron, trésoriers de France, Dugas et La Tourette de Fleurieu, anciens prévôts, Michon, avocat du roi, La Valette, conseiller honoraire de la cour des monnaies, etc2. Vers 1750, la seule bibliothèque véritablement publique de la cité est l'ancienne collection particulière de Pierre Aubert, léguée de son vivant au consulat de Lyon, en 1731. Elle devint accessible aux lettrés qui le désiraient en 1733, à la suite du décès de son propriétaire. Le consulat n'ouvre au public la célèbre collection des Jésuites qu'en 1765, trois ans après leur départ du collège de la Trinité, et l'adjoint alors à celle de Pierre Aubert. Les autres bibliothèques, bien que Ce texte doit beaucoup aux conseils et relectures attentives de Thomas Vernet et Christophe Schmit. Qu'ils en soient ici remerciés. 2 Sur toutes ces personnalités, voir : Patrice Béghain et coll. éd., Dictionnaire historique de Lyon, Lyon, Stéphane Bachès, 2009, 1504 p. 1 privées, sont pourtant notoires ; à l'instar de celle de l'académie des sciences, belles-lettres et arts, elles sont recensées annuellement dans l'Almanach local. La musique profite de l'immense appétit de savoir général qui caractérise cette période. De nombreux amateurs collectionnent traités, partitions et recueils, dont le raffinement de la copie est parfois remarquable. Lyon sera privilégiée parmi toutes les villes de province de l'Ancien régime : son Concert va se doter d'une collection de musique qui passera en son temps pour une des plus riches et des plus belles du royaume, ce qu'attestent grandement les sources manuscrites et imprimées conservées aujourd'hui à la bibliothèque municipale3. Le Concert est fondé en 1713 par Jean-Pierre Christin et Nicolas-Antoine Bergiron de Briou du Fort-Michon, sous le titre d' « académie des beaux-arts ». Il se confond à ses débuts avec l'académie des sciences et belles-lettres lyonnaise, créée en 1700. L'académie des beaux-arts, sous la protection du maréchal-duc de Villeroy, est officialisée en 1724 par des lettres patentes et des statuts4. Ceux-ci prévoient une séance musicale hebdomadaire, offrant à ses académiciens un programme varié et du meilleur goût : motets à grand choeur, fragments d'oeuvre lyrique côtoient, plus en avant dans le siècle, cantatilles, ariettes, motets à voix seules et pièces instrumentales. Cette même année, alors que les sociétaires amateurs laissent progressivement la place, dans l'orchestre et le choeur, à des musiciens professionnels, l'académie fait construire sa propre salle de concert, sur la place des Cordeliers. Cet « hôtel du Concert » accueillera la bibliothèque musicale dans une de ses pièces qui lui sera particulièrement dédiée. Le Concert tient aussi, dès 1736, des réunions d'échange d'idées et de conversations sur la musique, part de son activité qui sera rattachée en 1758 à l'académie scientifique, la nouvelle institution devenant alors l'« académie des sciences, belles-lettres et arts », dénomination qui perdura. En 1741, le consulat de Lyon, pour sauver son Concert de la faillite, rachète ses biens mobiliers et immobiliers, tout en lui en laissant le total usufruit. Malgré de nombreuses vicissitudes financières, l'académie des beaux-arts se maintient jusqu'en 17735. Cette longévité et la constance de son activité – inégalées dans le paysage de l'académisme musical français – caractérisent fondamentalement l'histoire et le rayonnement du Concert lyonnais, histoire et rayonnement L'étude de ces sources – et plus spécifiquement celles du motet à grand choeur, soliste et orchestre – est l'objet de notre thèse : Le Grand motet dans les pratiques musicales (1713–1773). Étude des partitions et du matériel conservés à la bibliothèque municipale de Lyon, thèse de doctorat, Université Lumière-Lyon 2, 2010, 2 vol., 522 p. ; 104 p. 4 Statuts et reglements de l'Academie des Beaux-Arts établie à Lyon par Lettres patentes du Roy, Lyon, André Laurens, 1724, Bibliothèque municipale de Lyon, Fonds Coste, 115 954. On y trouve les lettres patentes, p. 3–6. 5 La disparition de l'académie des beaux-arts est attestée en 1774. 3 dont la constitution d'un catalogue et l'étude des inventaires du fonds musical, deux aspects que nous présenterons ici, donnent un aperçu. La bibliothèque du Concert, constituée exclusivement de livres de musique, est réservée dans ses débuts à l'usage des académiciens. C'est, avant d'être une collection d'apparat, un fonds nécessaire aux concerts hebdomadaires de l'académie, un répertoire rassemblé pour être joué. Presque toutes les partitions sont exécutables, puisqu'elles comportent très souvent des parties de remplissage – parties d'altos instrumentales absentes des partitions réduites – et que leur est associé un jeu de parties séparées, c'est-à-dire un matériel orchestral et vocal. C'est dire que cette bibliothèque a une vocation utilitaire avant tout. C'est en cela qu'elle constitue un témoignage de premier ordre : elle reflète, outre le bon goût de l'époque, une pratique musicale propre à une ville de province, située sur l'axe rhodanien, passage obligé entre la capitale et l'Italie ou la Provence. Si la bibliothèque du Concert est évoquée, dès 1747, dans la rubrique de l'Almanach concernant l'académie des beaux-arts, elle va être mentionnée indépendamment au côté des bibliothèques de la ville de Lyon, à partir de 17536. Il est fort possible qu'une relative ouverture de la collection au public ait été d'usage, de façon non-officielle, bien avant cette date. Il est bien précisé dans l'Almanach lyonnais que ces collections sont en libre accès et que l'on y accueille les étrangers avec un soin tout particulier. La mention du nom et de l'adresse du garde de la bibliothèque de l'académie donne d'ailleurs les informations nécessaires au lecteur. La collection ne cessera d'être répertoriée dans la presse lyonnaise, même après la dissolution du Concert. Cette annonce, que publie chaque année, au 18e siècle, l'Almanach de Lyon, est sans aucun doute la meilleure description que l'on puisse faire de la collection : « La bibliothèque de musique du Concert peut passer pour la plus belle et la plus précieuse du royaume. Elle est composée d'une très grande quantité de motets à grand choeur, des meilleurs auteurs, tels que Lalande, Bernier, Campra, etc. recueillis avec soin ; il y en a aussi qui ont été composés par les meilleurs maîtres d'Italie. Un très grand nombre d'opéras, dont tous ceux de Lulli, qui y sont complets, et d'autres de bons auteurs, avec plusieurs divertissements, y forment un assemblage intéressant de pièces françaises à grand choeur. On y trouve encore des concerto à grande symphonie. Outre ces pièces qui servent à remplir les concerts généraux, cette bibliothèque en renferme beaucoup d'autres qui sont propres aux concerts particuliers, telles Un article paraît pour la première fois en 1747, dans l'Almanach astronomique et historique de la ville de Lyon (Lyon, Aimé Delaroche), à la rubrique « Bibliothèque du Concert ». 6 que des livres de cantates, sonates à violon seul, duo et trio ; et des motets dans tous les genres à une, deux, trois et quatre voix, avec et sans symphonie ; même des oratorio en latin et en italien, genre de musique particulièrement en usage en Italie7 ». Cette bibliothèque est étonnamment riche. On ne peut que s'émerveiller devant la beauté de certaines partitions de motet ou d'opéra par exemple, mais aussi s'étonner de l'attention portée à la confection des reliures, en matériaux simples mais d'un style très soigné. Les différentes académies provinciales ne semblent jamais s'être dotées d'une aussi vaste collection de musique. Le consulat de Lyon, dans ses actes officiels, s'enorgueillit par ailleurs de posséder la bibliothèque la plus grande du royaume. Le fonds de la bibliothèque de l'académie de Lyon constitue au demeurant, encore à l'heure actuelle, le plus gros corpus de grands motets ou de fragments d'oeuvres lyriques conservé en région. L'une des richesses de la bibliothèque lyonnaise réside dans sa classification. Extrêmement précise, celle-ci comporte dix-neuf catégories, possédant chacune son propre catalogue8. Les archives lyonnaises ayant conservé ces précieuses listes, nous avons une connaissance très détaillée du répertoire du Concert, alors même que seul un tiers des volumes de musique a été sauvegardé. Le classement est une source considérable d'informations, puisqu'il permet notamment de recenser des oeuvres perdues, d'authentifier des manuscrits conservés ou encore de dater des partitions les unes par rapport aux autres. Le système de classification de la bibliothèque de l'académie répartit la musique par genres ; il différencie musique italienne et française, vocale et instrumentale, sacrée et profane, considérant aussi les effectifs. Les grands motets composent l'ordre A, tandis que les petits motets sont répartis en sept catégories (D, E, F, G, H, I et L). À l'intérieur de chaque catégorie, les pièces ne sont pas obligatoirement numérotées, ni répertoriées de façon détaillée. Les ordres A, B, C, M et O présentent pourtant un inventaire complet et numéroté. La liste suivante est celle de l'Ordre des pièces de Musique, qui sont dans la Bibliothèque du Concert de l'Académie des Beaux Arts de Lyon9. Nous y indiquons le nombre de pièces par 7 Ibid. Léon Vallas a déjà édité le catalogue intégral de cette bibliothèque, avec le détail de chaque pièce. Voir : La Musique au dix-huitième siècle. La Musique à l'académie, thèse de doctorat, université de Lyon, Lyon, La Revue musicale de Lyon, 1908, t. 1, p. 153–168. La liste publiée par Vallas ne rend toutefois pas compte de certaines particularités des catalogues manuscrits originaux. Le parti pris dans la disposition des ajouts altère, nous semble-t-il, la compréhension de l'histoire du catalogue : la mise en page du manuscrit donne en effet parfois certaines indications précieuses sur la rédaction du catalogue et la chronologie des ajouts. 9 Manuscrit, s.d., Bibliothèque municipale de Lyon, Rés. FM 134 008. 8 « numéro » uniquement lorsque le détail y figure, et en utilisant le mot « livre » ou « pièce » lorsqu'il n'existe pas de numérotation. - A. Motets à grand choeur (284 numéros). B. Pièces de musique françaises à grand choeur (155 numéros). C. Symphonies à grands concerts (37 numéros). D. Motets à voix seule (33 pièces). E. Motets à voix seule et symphonies (71 pièces). F. Motets à deux voix (56 pièces). G. Motets à deux voix et symphonies (28 pièces). H. Motets à trois voix (89 pièces). I. Motets à trois voix et symphonies (33 pièces et 1 livre). K. Oratoires latins. L. Partitions de motets à une, deux, trois, quatre voix avec et sans symphonies (2 livres). M. Cantates françaises, en partition (11 numéros). N. Cantates françaises en parties séparées. O. Symphonies en duo et trio (51 numéros). P. Oratoires en italien (5 oeuvres). Q. Cantates italiennes en partition (5 livres). R. Cantates italiennes et ariettes en parties séparées. S. Airs italiens, fragments d'opéra et cantates en parties séparées. T. Airs et concert de trompette marine et de bouches par le Sr. J. B. Prin. On le voit, la musique sacrée rassemble plus de la moitié des ordres. Les grands motets figurent en tout premier, l'ordre A comportant un nombre de titres largement supérieur aux autres. Cette catégorie est la plus volumineuse : un motet à grand choeur est un livre à lui seul, alors que les motets à voix seules, ou petits motets, sont reliés en recueils ou cahiers pouvant en assembler une dizaine. Les oeuvres lyriques dans le style français tiennent la deuxième place. Elles viennent juste après les grands motets dans le classement (ordre B) mais aussi par leur importance. La bibliothèque rassemble plus de cent cinquante opéras, ballets ou tragédies lyriques, ce qui est exceptionnel. En réalité, ce ne sont pas toutes des oeuvres dans leur version originale et complète, mais souvent des « fragments modernes » ou des adaptations en « concerts », c'est-à-dire des extraits remaniés. Les oeuvres pouvaient alors être jouées à l'académie dans une version de concert plus adaptée. Les Affiches de Lyon, annonçant les programmes du Concert entre 1759 et 1772, rendent bien compte de cette pratique : une même oeuvre lyrique peut être exécutée deux ou trois semaines de suite, sous la forme de deux ou trois parties successives. Les petits motets, assez nombreux aussi, proviennent pour la majorité de la bibliothèque d'Antoine Hedelin, un amateur de musique italienne qui fit don de sa collection à l'académie lyonnais dans les années 1720–1730. Le troisième ordre contient la musique instrumentale, tout comme les ordres O et T. Les musiques française et italienne n'y sont pas dissociées ; on y retrouve concertos, duos et trios. L'ordre T a été ajouté par la suite et est plus original : il est constitué d'un mémoire et de partitions pour la trompette marine, envoyés par Jean-Baptiste Prin, virtuose de cet instrument. Le règlement de l'académie, joint aux différents catalogues, explique de manière très précise la numérotation dans les différents ordres : « Chaque pièce aura son numéro particulier, qui commencera par 1 à chaque ordre, et sera marqué, outre son numéro, de la lettre qui désigne l'ordre dans lequel elle se trouve. Par exemple, le motet Cum invocarem à grand choeur étant de l'ordre A. no 7, ainsi des autres, il sera marqué sur son portefeuille et sur la partition A. no 7. Quand il n'y aura ni partition ni portefeuille à de certaines pièces, elles seront marquées sur l'enveloppe, ou sur la 1e partie détachée de la pièce. Par exemple la 6e oeuvre de Corelli qui est à grand concert étant de l'ordre C, il [sic] sera C. no 1 sur le 1er violon ou si l'on veut de même sur chaque couverture des parties. Le motet à voix seule et symphonie In convertendo par Mr Valette, qui est de l'ordre E, pourra être marqué E. no 1.10 » Ce classement simple et facile d'usage, puisqu'il permet d'ajouter à l'infini des numéros aux ordres, est complété par la règle suivante : « Il faut aussi que ces motets particuliers aient aussi des marques particulières suivant les voix dont ils se trouveront. Par exemple pour les motets à voix seule et symphonie qui sont de l'ordre E, pour ceux qui seront pour les dessus pourront être marqués E. no tel, ceux pour la h[aute]-contre E.E [no] –, en commençant toujours chaque genre de voix par le no 1 et laisser du vide dans le grand inventaire pour y ajouter les motets de la même espèce qui pourront venir dans la suite à l'académie, ceux pour la taille E.E.E. no – et ceux pour la basse E.E.E.E. no –.11 » Grâce à cette numérotation particulière aux petits motets, un chanteur aurait ainsi pu trouver aisément dans le fonds musical un répertoire d'oeuvres pour sa tessiture. En réalité cette règle n'est restée que purement théorique : le manuscrit de l'In convertendo de Valette de Montigny, cité comme exemple plus haut, ne porte d'ailleurs même pas la lettre E sur sa couverture12. Pour la majorité des motets, la présentation en recueil a sûrement compliqué ce système de repérage. Pour la musique vocale profane, une mention particulière du règlement précise que l'on devra conserver un espace à la fin des livres de cantates, afin d'y placer les parties séparées qui en seront tirées, chacune dûment numérotée pour le rangement. Enfin, la dernière considération est propre aux ordres A et B : « Les pièces de musique françaises et latines à grand choeur seront rangées dans les armoires suivant l'ordre qu'elles auront été acquises et l'on trouve 10 Fonctionnement de la bibliothèque, manuscrit, s.d., Bibliothèque municipale de Lyon, Rés. 134 008. Ibid. 12 François-Joseph Valette de Montigny, In convertendo, manuscrit, Bibliothèque municipale, Rés. FM 27 286. 11 l'ordre alphabétique dans une feuille attachée au-dedans de chaque armoire ». Dans cet article se trouve énoncé un élément extrêmement important, postulat préalable à toute étude du fonds musical : l'attribution de numéros aux motets à grand choeur et aux pièces lyriques françaises serait chronologique13. Le fonctionnement de la bibliothèque requiert en principe trois inventaires pour chaque ordre : un premier, de grand format, destiné à la bibliothèque et deux annexes signées des officiers de l'académie. L'une de celles-ci devra être affectée à la bibliothèque elle-même, l'autre sera conservée dans les archives de l'académie. Le dernier paragraphe du règlement fournit des détails sur ces catalogues : « Sur le grand livre d'inventaire, il faudra laisser du papier blanc à la fin de chaque ordre, pour y mettre les pièces qui pourront venir dans la suite du même genre, et même laisser de l'espace à chaque article pour y ajouter les parties qu'on pourrait augmenter dans la suite. Ce grand livre ne pourra pas être signé, mais il y en aura deux autres semblables portés par les statuts, dont l'un restera aussi dans la bibliothèque et l'autre déposé dans les archives, où tout sera écrit de suite et vérification sera signée par les officiers à la fin de ce qui sera écrit ; après cet arrêté on écrira les nouvelles acquisitions de l'année suivante, après lequel on fera un nouvel arrêté après avoir examiné si chaque article nouveau aura été placé dans le grand livre d'inventaire dans son ordre ; ainsi des autres années.14 » Cette règle a-t-elle été appliquée ? Il y a un siècle, Vallas émettait déjà des doutes quant à l'existence de ces inventaires, dont les statuts de 1724 font pourtant allusion eux-aussi : « L'article VII signale l'existence de registres tenus en double. Il est possible que ce règlement soit resté lettre morte ; en tout cas, nous n'en avons trouvé aucun. (Léon Vallas, ouvr. cité, p. 58) ». En effet, les catalogues conservés ne semblent pas concorder exactement avec la description ci-dessus. Devraient en effet exister un inventaire de grand format non signé et deux autres listes, de même facture, signées de tous les officiers et du directeur de l'académie, ce qui n'est pas le cas. La feuille du règlement n'est d'ailleurs pas datée : a-t-elle été écrite dès la fondation de l'académie en 1713, en même temps que les statuts de 1724 ou plus tard ? Lors de la rédaction de cette source, les inventaires mentionnés n'existent pas encore, puisque toutes les indications sont données pour leur présentation. Ce premier règlement daterait donc des débuts de l'académie15. Nous renvoyons à notre thèse, qui s'attache à démontrer cette chronologie effective, notamment à travers l'étude des reliures des sources (ouvr. cité, vol. I, p. 189–206). 14 Fonctionnement de la bibliothèque, ouvr. cité. 15 L'écriture est cependant la même que celle du catalogue de l'ordre T et de celui commun aux ordres C, M et O, décrits plus loin, tous deux datés de 1748. 13 Les directives municipales sont toutefois très explicites, dès lors que la salle du Concert est rachetée en 1741 par le Consulat : toute la collection de musique, existant à cette date et acquise par la suite, appartient désormais à la ville et le bibliothécaire doit en fournir un catalogue16. L'inventaire général doit être établi en double exemplaire, le premier pour le Concert, le second, déposé au bureau du secrétariat de la ville, pour le consulat. Une liste complémentaire de la musique nouvellement copiée ou achetée pendant l'année doit être remise chaque mois de janvier au secrétariat de la ville par les officiers de l'académie. Il serait logique que ces listes de mises à jour soient reportées directement sur le registre municipal. On relève, dans ces directives datant du 30 décembre 1741, une légère différence avec le descriptif du fonctionnement de la bibliothèque cité plus haut. Ici, ce ne sont pas trois mais deux catalogues qui sont mentionnés : un premier inventaire général, probablement non signé, et un second pour le consulat, signé de tous les officiers et du directeur du Concert. Certains de ces catalogues manuscrits ont été conservés. Ce sont ces différents exemplaires qui vont nous permettre de comprendre un peu mieux l'histoire de la bibliothèque. Voici donc la liste des documents conservés : - Archives municipales de Lyon (dossier 0 003 GG 156) Musique latine a grand choeur sous l'ordre A, qui est dans la bibliotheque du concert de l'academie des beaux arts de la ville de Lion, 27 mai 1754 (ajouts après le 27 mai 1754 et après le 9 juin 1766), pièce 14. Inventaire des pieces de musique françoises & italiennes a grand coeur, ordre B, du concert de l'academie des beaux arts, 27 mai 1754 (ajouts après le 27 mai 1754 et après le 9 juin 1766), pièce 15. Inventaire des pieces de musique latines, françoises et italiennes a une, deux, trois voix simphonies en concerto, en duo et trio, qui sont dans la bibliotheque du concert de l'academie des beaux arts sous les ordres suivants C. D. E. F. G. H. I. K. L. M. N. O. P. Q. R. S. T, 27 mai 1754 (ajouts en 1756 et 1764), pièce 16. - Bibliothèque municipale de Lyon (dossier Rés. FM 134 008) Inventaire des pieces de musique françoises et italiennes a grand choeur, ordre B, 1742 et 1743 (ajouts jusqu'en 1767). Ordres C. M. O. De la bibliotheque de musique de l'académie des beaux arts, 1748. [Inventaire des ordres C, D, E, F, G, H, I, K, L, M, N, O, P, Q, R et S], 1742. Suitte de l'ordre T, s.d. Les ordres A et B, tous les deux numérotés, font l'objet d'un inventaire séparé, probablement à cause de leur importance, l'ordre B figurant même en deux exemplaires (archives et bibliothèque). Un fragment de l'ordre T se trouve pareillement isolé. Le catalogue est commun pour les ordres C, M et O, qui figurent également dans un même inventaire 16 Délibération consulaire, manuscrit, 30 décembre 1741, Archives municipales de Lyon, BB 306, fo 189. général des ordres C à S (ou T). Les doublons concernent donc le catalogue de l'ordre B d'une part, les deux catalogues des ordres C–S (ou T), d'autre part. Les trois inventaires conservés aux archives de la ville de Lyon seraient les exemplaires fournis par le Concert au consulat. Plusieurs arguments étayent cette thèse. Remarquons tout d'abord la date commune de ces trois documents : ils ont été établis le 27 mai 1754, puis complétés par des révisions et ajouts plus tardifs. Cette date suit de près l'intronisation par le consulat d'un garde pour la bibliothèque de l'académie, qui s'est considérablement agrandie, en la personne de Coignet17. Celui-ci, placé sous les ordres du bibliothécaire perpétuel – Bergiron du Fort-Michon – et conformément à la délibération de 1741, doit établir deux inventaires généraux et pourvoir aux mises à jour annuelles, sous peine de révocation. Coignet, nommé le 2 avril, semble s'être mis immédiatement à la tâche, si l'on en juge par la proximité des dates et par l'identification de son écriture sur les inventaires des archives lyonnaises, identification que permet une comparaison de cette écriture avec sa signature apposée après les mises à jour consécutives. Les inventaires constitués devaient ensuite être visés de manière officielle par le directeur et tous les officiers du Concert. Les émargements sont précédés d'une mention explicite : « Le présent inventaire arrêté et remis au secrétariat de la ville par nous soussignés directeur et officiers de l'académie des beaux-arts, à la forme de la délibération consulaire du deux avril dernier. À Lyon le vingt-sept mai mille sept cent cinquante-quatre ». Venant confirmer le fait qu'il s'agit des exemplaires destinés à l'administration municipale, une plume du 18e siècle a ajouté dans l'angle supérieur de chaque inventaire la mention « Hôtel de ville ». Enfin, les trois sources des archives municipales présentent un état complet de la collection (ordres A, B, puis C–T). Ils ont strictement la même présentation, les mêmes dimensions et le même papier18. Les mises à jour sont pourtant très rares et sont, le cas échéant, introduites par un petit paragraphe daté. Les deux premiers catalogues du consulat (ordres A et B) ont subi exactement les mêmes modifications. Deux séries d'ajouts ont été faites, l'une entre 1754 et 1766, l'autre entre 1766 et 1773 environ, date de la dissolution de l'académie. Le troisième catalogue (ordre C–T) ne comporte en tout, après 1754, que deux numéros supplémentaires pour dix-sept ordres ; ces acquisitions datent précisément des années 1756 et 1764. Les mises à jour annuelles édictées 17 Délibération consulaire, manuscrit, 2 avril 1754, Archives municipales de Lyon, BB 321, fo 64 r.–65 v. La couverture est cartonnée, de format 230 × 365 mm. Le cachet de l'académie figure sous le titre de chaque inventaire. Une page de garde est laissée vierge. La fin des cahiers présente aussi des folios vierges, mais dont les marges ont été tracées au crayon de bois (19 vierges pour 8 utilisés dans l'ordre A, 16 pour 5 dans l'ordre B, 8 pour 9 dans les ordres C–S). Le filigrane, datant de 1742, est à peu près illisible. En revanche, la contremarque représente des armoiries avec une trompe de chasse, ornée d'un ruban formant une boucle. 18 par le consulat dans le règlement officiel n'ont donc pas été vraiment respectées. Il n'y eut en effet que deux révisions, la première s'étant opérée douze ans après l'établissement des inventaires. Les partitions ajoutées au catalogue C–T, quant à elles, semblent avoir été inscrites au moment de leur acquisition et non lors d'une mise à jour globale, comme cela a été fait pour les ordres A et B. De fait, les dates de 1756 et 1764 sont inscrites à côté du titre des oeuvres musicales, sans qu'il soit spécifié, comme dans les deux premiers catalogues, qu'il s'agit de la liste des partitions entrées dans la bibliothèque à partir d'une certaine date. Les différents catalogues conservés à la bibliothèque municipale – provenant des archives de l'académie des beaux-arts19 – sont en revanche plus difficiles à analyser. Ils sont réunis sous une reliure moderne, à côté du règlement de la bibliothèque et de la liste des différents ordres du catalogue cités plus haut. Les catalogues des ordres B et C–S sont d'une même main. Le premier des inventaires, recensant les pièces de musique française et italienne à grand choeur (ordre B), est bien plus détaillé que la source des archives municipales. Chaque numéro comporte plusieurs lignes : la première indiquant le titre et le genre, la deuxième le compositeur. Vient ensuite le détail des exemplaires s'il en existe plusieurs : il est spécifié s'il s'agit d'une partition manuscrite ou imprimée, l'édition ou l'arrangement le cas échéant ; le Concert pouvait posséder en effet jusqu'à trois versions d'une même oeuvre. Un espace est laissé libre entre chaque numéro, pour l'acquisition de nouvelles versions. Le numéro de catalogue est indiqué dans la marge de gauche. En fin de ligne, quatre colonnes signalent pour chaque oeuvre le nombre de parties séparées, respectivement pour les récitants (« rôles »), les choristes (« voix »), l'orchestre (« instr. ») et le total. Si quelques partitions n'ont pas de matériel correspondant, nombreuses sont celles dont l'effectif a été renforcé a posteriori, par l'ajout de parties supplémentaires : celles-ci sont indiquées au-dessous du jeu initial, avec le même détail accompagné de la date de l'ajout20. Ce catalogue de l'ordre B présente donc un relevé extrêmement précis, qui permettrait de savoir, à travers l'ajout de parties séparées ou des diverses annotations, si une oeuvre a été jouée, dans quel effectif, si elle a été reprise, à quelle date et sous quelle forme. L'académie des sciences, belles-lettres et arts de Lyon a fait don du fonds musical de l'ancien Concert à la bibliothèque de la ville de Lyon, ne conservant que la correspondance académique et les écrits sur la musique. 20 Un total de l'ensemble des parties est alors établi en-dessous pour chaque colonne. Le catalogue présente aussi quelques annotations, renvoyant à des cas particuliers. On peut ainsi lire, pour Les Fêtes vénitiennes de Campra (no 1), dont le matériel a été augmenté en 1730 et 1740 : « Les parties tirées contiennent le prologue, l'opéra, Les Devins, L'Amour saltimbanque & Le Bal ». Les « concerts » ou extraits sont également indiqués pour les oeuvres réarrangées. 19 Le catalogue de l'ordre B comprend cent cinquante-cinq numéros. Jusqu'au no 109, les quelques dates écrites vont de 1729 à 1741. Elles n'indiquent manifestement pas l'entrée des oeuvres dans la bibliothèque, mais l'ajout de parties séparées au matériel existant ou encore l'acquisition d'une nouvelle partition. Après le no 109, Bergiron du Fort-Michon écrit, sans signer : « Je soussigné en qualité de bibliothécaire perpétuel du Concert reconnais que les livres et papiers de musique énoncés dans l'inventaire ci-dessus, jusques à la fin de l'année 1741, conforme à l'original de la bibliothèque, sont dans les armoires dudit concert, & que j'en suis chargé conjointement avec M. Mayeuvre inspecteur du Concert à Lyon Ce [sic] ». La mention « conforme à l'original » indiquerait que cet inventaire n'est pas celui qui a servi de modèle, mais qu'il existe en plus une source de référence. C'est probablement le troisième catalogue que signalait le règlement de la bibliothèque et qui n'était pas mentionné dans le texte officiel du 30 décembre 1741. Cette source originale, aujourd'hui perdue, était peut-être destinée à la bibliothèque elle-même ; l'exemplaire conservé à la bibliothèque municipale devait être celui des archives de l'académie. La graphie initiale change pour les nos 110–155. Ceux-ci comportent presque tous une date comprise entre 1741 et 1767. Les oeuvres sont classées de façon chronologique, les dernières n'étant pas datées. À partir du no 122, on reconnaît l'écriture de Coignet, le garde de la bibliothèque. Ce catalogue de l'ordre B a donc été commencé dès la fondation de l'académie, en 1713. Les quatre-vingt-un premiers numéros datent d'avant 1729, puisqu'à partir de cette année on commence à ajouter des parties séparées supplémentaires aux opéras et ballets déjà inventoriés. La liste est mise à jour en 1742, date à laquelle Bergiron la vérifie et la certifie ; Coignet va faire des ajouts jusqu'en 1767, année de la dernière oeuvre recensée. Après 1750, l'écriture de Bergiron disparaît et Coignet est le seul à noter les nouvelles acquisitions. Cette source, la seule qui fut mise régulièrement à jour, correspond donc à l'inventaire officiel du Concert établi après le rachat des biens de l'académie par la ville de Lyon en 1741. Les dates de 1742 et 1743, inscrites sur la couverture, le confirment. À la bibliothèque municipale de Lyon, les ordres C à S sont rassemblés dans un même cahier. L'histoire de cet inventaire est la même que celle de l'ordre B. L'écriture est semblable, mais la présentation est différente : les oeuvres sont listées les unes après les autres, sans détail. On y retrouve le même paragraphe de Bergiron attestant de la musique conservée à la bibliothèque à la fin de l'année 1741. L'inventaire date donc vraisemblablement du début de l'année 1742. Coignet y a fait de rares corrections ou renvois par la suite, mais aucun ajout. Il n'y a d'ailleurs pas de place pour cela dans la mise en page, contrairement au catalogue précédent. De l'inventaire de l'ordre T n'est conservée que la dernière page, « suite de l'ordre T ». En réalité, il est possible qu'il s'agisse de la totalité de l'ordre T, et non pas d'un fragment21. Ce n'est ni Coignet, ni le copiste des inventaires des ordres B et C–S, mais une troisième main qui dresse cette liste. La graphie est la même que celle du catalogue des ordres C, M et O de 1748, mais aussi que celle du règlement de la bibliothèque et de la description des ordres des pièces de musique, mentionnés plus haut. Tous ces documents sont d'ailleurs reliés ensemble, sous la cote Rés. FM 134 008. Le catalogue de la bibliothèque municipale rassemblant les ordres C, M et O est très particulier, et ce pour plusieurs raisons. La graphie, d'abord, si elle est identique à celle de l'ordre T, est complètement inconnue22. Bergiron a ajouté l'ex-libris « De la bibliothèque de musique de l'académie des beaux-arts, 1748 » sur la couverture. Pourtant, la copie n'est ni de lui, ni de la main de Coignet, qui joint seulement un dernier numéro à l'ordre O. L'inventaire sélectionne toute la musique instrumentale de la bibliothèque (si l'on excepte les pièces pour trompette marine, classées dans l'ordre T) : symphonies à grand concert (ordre C) et symphonies en duo et trio (ordre O). Il pourrait donc s'agir d'un répertoire à l'usage des symphonistes. Mais l'inventaire contient aussi les partitions des seules cantates françaises (ordre M), ce qui est difficilement explicable, car les petits motets ou les cantates italiennes pourraient tout aussi bien y figurer. De plus, les ordres C et O font état de musique en parties séparées, alors que l'ordre M ne contient que des partitions. Le catalogue est le seul à ne pas être signé et à ne donner aucune information quant à son auteur, et la date de 1748 ne semble pas constituer un indice. La comparaison des différents inventaires, conservés à la bibliothèque et aux archives de Lyon, se révèle intéressante à plusieurs titres ; elle permet notamment d'apporter des précisions sur ce catalogue particulier des ordres C, M et O de 1748 et d'en justifier la présence. Si l'on confronte les catalogues du consulat (1754, archives) à ceux de l'académie des beaux-arts (1742, bibliothèque), il ressort, par exemple, que l'ordre A n'a été conservé La comparaison avec l'ordre T du catalogue du consulat conservé aux archives municipales, absolument identique, montre qu'il n'existe aucun titre précédant ceux qui sont indiqués dans cette « suite de l'ordre T ». 22 Nous émettons une réserve : il pourrait éventuellement s'agir de la même écriture que celle qui a copié les ordres B et C–S conservés à la bibliothèque municipale, mais la graphie de cet inventaire est trop négligée, par rapport à celles des autres documents très bien calligraphiés, pour permettre une comparaison. 21 qu'aux archives municipales, cependant que les ordres B et C–T sont en double exemplaire. L'inventaire de l'ordre B du Concert est bien plus détaillé que la copie remise au consulat, laquelle recense uniquement le total des parties séparées, ne tenant pas compte du détail des augmentations successives. En revanche, les listes des opus sont strictement identiques et comportent le même nombre de numéros, puisque l'exemplaire de 1742 a été complété au fur et à mesure. Seuls les nos 120–121 et 127–128 sont intervertis dans la copie23. Le catalogue de 1754 ne présente pas les différentes étapes d'acquisitions signalées dans celui de 1742. Les deux sources du catalogue C–S (ou T) détaillent de la même façon les volumes de musique. Mais l'exemplaire du consulat, plus tardif, comporte plus de numéros, ce qui permet d'identifier les partitions ou parties séparées qui sont rentrées dans la collection du Concert après 1742. Il englobe aussi l'ordre T, qui se trouve en exemplaire séparé dans les archives de l'académie. L'ordre C ne comporte pas moins de dix-huit numéros supplémentaires dans le catalogue du consulat (archives, 1742), alors que seulement dix-neuf étaient répertoriés au total en 1742 dans le catalogue du Concert (bibliothèque, 1754). L'académie a donc doublé son répertoire de symphonies en douze ans. Les deux premières oeuvres n'ont pas le même nombre de parties séparées sur l'inventaire de la ville et sur celui de l'académie24. Par la suite, Coignet ajoute une correction à propos du concerto de Corelli, premier numéro de l'ordre C, correction visible sur les deux catalogues de 1742 et 1748 (bibliothèque municipale), tandis que le texte a été directement modifié sur celui de 1754 (archives municipales)25. Ce détail certifie les datations des inventaires, le plus tardif ayant intégré les corrections. Quatre livres de cantates ont rejoint l'ordre M après 1742 : l'inventaire du consulat comporte onze numéros au lieu de sept pour la source du Concert. L'ordre O est assez différent dans les deux inventaires. Globalement, sur la source consulaire, il n'y a qu'une vingtaine de titres en 1742, contre cinquante et un numéros en 1754. Mais il n'est pas aisé d'établir une correspondance entre les deux listes, tant les oeuvres – volumes de sonates ou de duos, gravés ou manuscrits – sont mélangées. Les inventaires des autres ordres (D, E, F, G, H, I, K, L, N, P, Q, R, S et T) sont absolument conformes. Le texte détaillé qui introduit l'ordre T est strictement le même dans les deux sources ; la mention du dernier titre, oublié et ajouté en bas de liste, a été copiée « Zaïs, Ballet héroïque par Mr Rameau » porte le numéro 120 dans l'inventaire de l'académie, 121 dans celui du consulat ; c'est le contraire pour le « Ballet des Grâces par Mr Mouret ». « Zélindor divertissement par Mrs Rebel et Francoeur porte le numéro 127 dans l'inventaire de l'académie, 128 dans celui du consulat ; il est interverti avec « La Guirlande ballet par Mr Rameau ». 24 Ceci ne peut faire penser à une augmentation du matériel entre 1742 et 1754, car si pour le n o 2 le catalogue de 1754 annonce un nombre supérieur de parties séparées, c'est l'inverse pour le n o 1. 25 Au no 1 de l'ordre C (Bibliothèque municipale, catalogues C–S, 1742 ; C, M et O, 1748), on peut lire : « nota : que ce 1er article n'est que de huit parties, les 8 autres ont été troquées avec Mr Delatourette pour des motets de Bernier ». 23 à l'identique. Il n'y a donc que les ordres C, M et O qui aient été augmentés entre 1742 et 1754. Ces ajouts auraient dû être reportés sur l'inventaire du Concert. Or le catalogue conservé dans la bibliothèque de l'académie n'a pas été mis à jour. En effet, au lieu de compléter les inventaires de 1742, les académiciens ont préféré créer de nouveaux catalogues propres aux ordres C, M et O, dont la liste s'était agrandie. Ce sont ces annexes qui sont conservées aujourd'hui. Elles contiennent trente-sept numéros pour l'ordre C, onze pour l'ordre M et cinquante et un pour l'ordre O. La liste de cette dernière partie correspond exactement à celle du catalogue de 1754, donné au consulat. Elle constitue, par conséquent, une mise à jour du premier inventaire devenu caduque. Les différents catalogues conservés correspondent donc bien à l'application des règlements édictés par la ville de Lyon. Le premier date de 1742, juste après que le consulat a racheté l'hôtel du Concert et sa collection de musique. Le bibliothécaire fait alors copier des inventaires pour l'académie, inventaires conservés aujourd'hui à la bibliothèque municipale. Mais leur mise en page ne permet pas d'ajouter les oeuvres nouvellement acquises. C'est pourquoi en 1748 il devient nécessaire de faire un nouvel inventaire pour les ordres C, M et O qui ont été considérablement augmentés. La similitude d'écriture entre le règlement de la bibliothèque et la nomenclature des ordres cités plus haut pourrait indiquer qu'ils ont été établis par une même personne en 1748. En 1754, lorsque Coignet est institué garde de la bibliothèque par le consulat, il doit établir à nouveau des inventaires de la musique du Concert. Ce sont les manuscrits conservés aujourd'hui aux archives municipales. Mais les informations que livrent les catalogues de la collection constituent-elles une source exacte ? La seule indication pour le musicologue se trouve dans la correspondance entre les inventaires du 18e siècle et les sources musicales conservées aujourd'hui dans le fonds de l'académie. Cependant, pour les partitions et matériels disparus, nous ne pouvons que nous référer au catalogue manuscrit de l'académie. Or, celui-ci présente quelques singularités. La première concerne le classement lui-même. L'ordre A du catalogue ne contient pas uniquement des motets français à grand choeur et symphonie, contrairement à ce qu'indique pourtant son intitulé. Ainsi pourrait être discutée la présence de messes en musique et de certains motets italiens. Pourtant ces deux derniers genres adoptent toujours le latin – excepté certaines pièces de la messe – et un effectif identique à celui du Grand motet, à savoir des solistes, un choeur et un orchestre. Leur place dans l'ordre A se justifie donc par la langue utilisée et l'effectif. En revanche, les motets Buccinae litui classica de Scarlatti (no 118) et Qui habitat de Stradella (no 130), légués par Antoine Hedelin au Concert, posent un problème différent26. Ils sont tous deux indexés dans l'ordre A, bien que leur effectif ne justifie pas ce classement. Le motet de Scarlatti est « un motet à cinq voix, deux sopranos, alto, ténor et basse, avec violons et trompette, et remplissage », pour lequel le catalogue mentionne onze parties séparées, dont six parties instrumentales sont conservées27. Les cinq parties perdues correspondent donc nécessairement aux cinq voix, ce qui porte l'effectif à cinq solistes accompagnés d'un ensemble instrumental. Il s'agirait donc d'un motet à voix seule, sans choeur. Cette hypothèse est confortée par le fait qu'il s'agit d'une oeuvre relativement courte (5 sections, pour un total de 217 mesures) et que, si les parties séparées comportent l'incipit de chaque verset, ne s'y trouve aucune indication d'effectif pour chaque mouvement – du type « choeur » ou « duo » –, comme c'est généralement le cas pour une oeuvre chorale. Quant à la composition de Stradella, il s'agit aussi d'une pièce à cinq voix seules, soutenue par une basse-continue, sans symphonie. Ces deux motets auraient donc dû être rangés et inventoriés dans d'autres ordres de la bibliothèque. Cependant, parmi ceux-ci, aucun n'inclut des oeuvres à cinq voix. Tout au plus l'ordre L rassemble-t-il les « partitions de motets à une, deux, trois, quatre voix avec et sans symphonies ». Les deux compositions italiennes ont donc été placées par défaut avec les motets à grand choeur et symphonie, alors qu'elles n'appartiennent pas à ce genre musical français. Cette anomalie dans le classement a pu être identifiée sur ces deux sources conservées, mais d'autres pièces, aujourd'hui perdues, ont peut-être été également rangées dans un ordre auquel leur effectif vocal ou instrumental ne les destinait pas. Si l'acquisition d'une version différente d'une même oeuvre apparaît très clairement dans le catalogue de l'ordre B conservé à la bibliothèque municipale, ce n'est pas le cas dans les autres sources. L'inventaire de l'ordre A se répète ainsi parfois, répertoriant le même motet sous des numéros différents, comme, par exemple, l'In convertendo de Jean-Philippe Rameau – n°77 (partition et 60 parties séparées) et n°219 (partition seule). Le premier numéro correspond sûrement à l'oeuvre telle quelle a été composée à Lyon au début du 18e siècle, acquise par l'académie à sa fondation ou peu après que Rameau eut quitté Lyon, en 1715. La deuxième partition est probablement une version plus tardive de l'oeuvre, remaniée, telle 26 Alessandro Scarlatti, Buccinae litui, manuscrit, Bibliothèque municipale de Lyon, Rés. FM 133 950 ; Alessandro Stradella, Qui habitat, manuscrit, Bibliothèque municipale de Lyon, Rés. FM 133 936. 27 « Motteto a cinque voci [] due soprani alto tenore e basso con violini e tromba e ripieni ». Les parties séparées conservées sont les suivantes : « organo », « basso continuo », « violino ripieni », « tromba con violino », « basse de symphonie » et « violino solo ». qu'elle a été entendue au Concert spirituel pour la première fois le 30 mars 1751. L'académie l'aurait fait copier après son exécution parisienne. L'In convertendo de Rameau apparaît sous deux numéros différents et constitue un cas spécifique. Généralement, les inventaires ne font pas état des doublons, partitions acquises, offertes ou léguées alors que le Concert possédait déjà une source de l'oeuvre. Ces exemplaires supplémentaires sont usuellement inventoriés sous le numéro attribué au premier volume. Le cas le plus significatif est celui des vingt et un livres de motets de Lalande, gravés en 1729, motets dont l'académie possédait déjà plusieurs copies manuscrites, souvent dans une première version28. Lorsque les éditions arrivent dans la bibliothèque, Bergiron range les oeuvres gravées dont le Concert possède déjà un volume avec celui-ci et catalogue les autres sous des nouveaux numéros (nos 173–207)29. Les premiers numéros des motets de Lalande correspondent donc à deux partitions : une copie manuscrite et un exemplaire gravé. Les sources conservées sont même au nombre de trois pour le Notus in Judaea Deus (no 177) : deux partitions manuscrites, une gravée30. Si quarante-trois compositions du sous-intendant de la Chapelle royale sont donc répertoriées dans l'ordre A, la bibliothèque de l'académie devait en réalité en posséder bien plus. Or ceci n'apparaît aucunement à la lecture du catalogue. Certaines oeuvres appartenant à la collection n'auraient pas été inventoriées. Ainsi, la partition du Beati omnes qui timent de Campra à grand choeur, pourtant estampillée du cachet de l'académie des beaux-arts, ne figure pas au catalogue du Concert. Elle possède même un numéro de classement écrit en haut de la reliure (no 280), auquel une deuxième main a ajouté par la suite l'annotation « ou no 272 ». Cependant, dans l'inventaire de l'ordre A, le no 272 correspond au Deus venerunt gentes de Madin, tandis que le no 280 est un Confitemini de Campra. Non seulement les numéros ne concordent donc pas avec la partition, mais encore sur les dix-huit motets de Campra recensés dans le catalogue, aucun n'a pour titre Beati omnes. Les cas similaires sont trop nombreux pour être détaillés dans les limites de cet article ; ils concernent les partitions aussi bien que le total des parties séparées qui sont parfois conservées, tandis qu'elles n'étaient pas mentionnées dans l'inventaire. Les Affiches de Lyon 28 Quarante grands motets de Lalande en partition réduite seront gravés après sa mort, en 1729, par Louis-Hector Hüe (RISM L 303–322). 29 Dans cette série s'intercalent l'In exitu Israël de Campra (no 178) et le Te Deum de Colin de Blamont gravé en 1732 (no 183). Le no 187 n'est pas attribué. 30 La bibliothèque municipale de Lyon conserve une partition gravée (Rés. FM 27 325) et manuscrite (Rés. FM 27 308). La bibliothèque de Reims, dont le fonds patrimonial avait été fortement endommagé à la suite du premier conflit mondial, s'est vue offrir le deuxième manuscrit lyonnais (Bibliothèque Carnegie, Ms 2 840). Les deux copies sont de la même main et ne présentent que d'infimes différences. signalent ainsi à plusieurs reprises qu'une oeuvre a été jouée au concert, sans que l'académie semble en avoir possédé la partition. Enfin, si les oeuvres ont été classées suivant l'ordre chronologique de leur arrivée dans la bibliothèque, le catalogage a de toute évidence été fait par séries. Le bibliothécaire procédait au rangement et au numérotage lorsqu'il avait quelques volumes de musique récemment arrivés ou qu'il était en retard dans son travail. C'est pourquoi, dans l'ordre A, par exemple, les motets de Salomon ont été inventoriés ensemble : le De profundis (no 66, Rés. FM 28 325) porte pourtant la mention « deuxième motet », l'In te Domine speravi (no 67, Rés. FM 28 327) devant être le premier. De la même façon, l'Exurgat Deus de Lalande, donné par M. Poulletier de Nainville en 1725 (no 149, Rés. FM 133 630) est classé avant le Cantate Domino du même auteur, donné par sa femme l'année précédente (no 150, Rés. FM 133 657)31. Une chronologie inversée apparaît également en comparant les datations du Credidi propter de Belissen (no 245, non conservé), fourni par Bergiron en août 1761, et du Dominus regnavit de Belouard (no 249, Rés. FM 129 928), dont les parties séparées datent de mai 176032. Le bibliothécaire n'effectuait peut-être sa mise à jour qu'une fois l'an. L'ordre chronologique n'est donc pas fiable dans le détail. Les différents catalogues, s'ils restent un outil de référence précis et indispensable, doivent être utilisés avec précaution. Les questions de conformité d'effectif, de doublons, d'oeuvres non répertoriées ou encore de chronologie indiquent des spécificités de l'histoire de la collection, que la liste continue des volumes de musique ne fait pas apparaître. Malgré tout, la présence des inventaires manuscrits reste l'une des plus grandes richesses du fonds musical de l'académie des beaux-arts. Elle apporte autant d'indices sur la constitution d'une bibliothèque musicale au 18e siècle, que sur le répertoire lyonnais, l'histoire des partitions, leur interprétation et leur exécution. La connaissance des catalogues ne constitue évidemment qu'un point de départ pour le musicologue. Si les inventaires offrent une vue d'ensemble du corpus du Concert de Lyon et constituent la mémoire de sa bibliothèque, il convient de les confronter directement aux sources musicales conservées, démarche préalable à l'observation et à l'investigation de l'ensemble du fonds lyonnais. Les dons de l'intendant de Lyon et de sa femme sont rappelés par une pièce de titre sur chaque couverture, précisant la date. 32 Ces dates sont certifiées par deux pièces de comptabilité : Comptabilité municipale, 1er mai 1760 et 27–28 août 1761, manuscrit, archives municipales de Lyon, CC 3408, pièces 64 et 68. 31
{'path': '48/hal.archives-ouvertes.fr-hal-02888908-document.txt'}
Magnétisme de films ultra-minces de Mn épitaxiés sur Fe(001) étudié en dichroïsme magnétique circulaire S. Andrieu, M. Finazzi, F. Yubero, P. Arcade, F. Chevrier, H. Fischer, K. Hricovini, G. Krill, M. Piecuch To cite this version: S. Andrieu, M. Finazzi, F. Yubero, P. Arcade, F. Chevrier, et al Magnétisme de films ultra-minces de Mn épitaxiés sur Fe(001) étudié en dichroïsme magnétique circulaire. Journal de Physique IV Proceedings, EDP Sciences, 1996, 06 (C7), pp.C7-117-C7-121. 10.1051/jp4:1996713. jpa-00254501 HAL Id: jpa-00254501 https://hal.archives-ouvertes.fr/jpa-00254501 Submitted on 1 Jan 1996 JOURNAL DE PHYSIQUE IV Colloque C7, supplément au Journal de Physique III, Volume 6, novembre 1996 Magnétisme de films ultra-minces de Mn épitaxiés sur Fe(001) étudié en dichroïsme magnétique circulaire S. Andrieu, M. Finazzi*, F. Yubero*, P. Arcade, F. Chevrier*, H. Fischer, K. Hricovini*, G. Krill* et M. Piecuch Laboratoire de Physique des Matériam, URA du CNRS, Université Henri Poincaré Nancy I , 54506 Vandoeuvre cedex, France * LURE, CNRS/CEA, Université Paris-Sud, 91405 Orsay, France Résumé : Les propriétés magnétiques de films épitaxiés de Mn de 1 à 10 monocouches sur des couches tampons de Fe bcc (001) sont étudiées par dichroïsme magnétique circulaire en X mou. Nous montrons tout d'abord que la croissance de Mn sur Fe(001) est bi-dimensionnelle et pseudomorphe au plan (001) du fer. Un ordre ferromagnétique est observé jusqu'à deux plans atomiques de Mn et le couplage interfacial entre les moments de Mn et Fe est ferromagnétique. Ce résultat est en désaccord avec les conclusions d'une expérience similaire récente. Nous montrons que cette différence provient de la préparation des échantillons. INTRODUCTION Grâce à 1'Epitaxiepar Jets Moléculaires (EJM), il est devenu possible de réaliser des hétéro-épitaxies de métaux, permettant ainsi d'explorer expérimentalement le domaine concernant les relations entre structure et magnétisme. En effet, si beaucoup de prévisions théoriques basées sur des calculs de bandes électroniques sont disponibles, les résultats d'un modèle à l'autre sont parfois contradictoires, et leur vérification expérimentale n'en est qu'à ces débuts. En outre, si on arrive à moduler les structures cristallographiques des métaux en EJM, les épaisseurs critiques de relaxation de ces structures sont souvent très faibles. Les quantités de matériaux disponibles (quelques plans atomiques) sont donc souvent trop petites pour les caractérisations magnétiques classiques. Cependant, une technique révolutionnaire de mesure magnétique est appanie récemment, appelé le dichroïsme magnétique circulaire de rayons X. Ainsi, les propriétés magnétiques de dépôts jusqu'à quelques fi-actions de iuonocouche sont accessibles par cette technique. Expliquons en quelques mots le principe de cette technique. Lorsqu'iin rayonnement de longueur d'onde appropriée interagit avec un atome, des trrinsitions électroniques entre niveaux d'énergie s'effectuent. Si le rayonnement incident est polarisé circulairement, toutes les transitions entre niveaux de l'atome ne sont pas permises, à cause des règles de sélection dipolaire 111. Ainsi, les probabilités de transition des spins up et down ne sont pas identiques en polarisation circulaire droite et gauche. Moyennant un traitement théorique qui conduit aux règles dites de somme 123, il est possible de calculer les moments orbital et de spin de l'atome sondé. Les avantages de cette technique sont donc multiples, à savoir, la grande sensibilité (--0,l monocouche), la sélectivité atomique, la détermination de l'orientation du moment, et la séparation des moments <Sr> et CL,>. En outre, la sélectivité et la polarisation circulaire nécessitent d'utiliser une source adéquate. Le rayonnement synchrotron répond bien à ces exigences. Nous avons donc utilisé le dichroïsme magnétique circulaire de RX (souvent appelé XMCD pour XRay Magnetic Circular Dichroïsm) pour étudier le magnétisme de couche ultra-mince de Mn sur Fe(001). L'intérêt d'étudier Mn est le suivant : pamii les éléments 3d, c'est lui qui porte le plus fort moment en atome libre puisque son niveau d est à moitié rempli. En volume, la situation est évidemment différente puisqu'il n'existe plus de niveau d atomique, remplacé par une bande d du métal. Les propriétés magnétiques par rapport à l'atome libre sont ainsi modifiées par l'interaction avec le réseau, et Mn a pour sa pan toujours été observé dans des états antiferromagnétiques, aussi bien dans les structures cristallines usuelles comme Mna et MnP [3], que dans des phases contraintes oulet métastables obtenues sur Ag [4], Pd [Sj ou Ir [6]. En revanche, un ordre ferromagnétique a été observé récemment sur une monocouche de Mn déposée sur Co Article published online by EDP Sciences and available at http://dx.doi.org/10.1051/jp4:1996713 JOURNAL DE PHYSIQUE IV C7-118 171 et dans un alliage de surface MnNi [SI. En ce qui concerne la croissance sur Fe(001), différentes expériences semblent montrer qu'un ordre ferromagnétique existe à faible recouvrement, alors qu'un ordre antiferromagnétique est clairement démontré au delà de 3 plans atomiques [9]. Enfin, une expérience récente de dichroïsme circulaire [IO] a montré qu'une monocouche de Mn est ferromagnétique, avec un couplage antiparallèle entre les moments de Mn et Fe. Nous avons effectué des mesures identiques simultanément, et nous avons obtenu des résultats très différents. Nous exposons ces résultats dans ce papier et après avoir reproduit et examiné les conditions de croissance utilisées dans la ref.10, nous montrons que ces différences proviennent de la préparation de l'échantillon. DESCRIPTION EXPERIMENTALE Les échantillons ont été préparés dans une chambre EJM couplée à la chambre de mesure dichroïque. La croissance et la caractérisation des échantillons ont donc été entièrement réalisées sous ultravide, condition indispensable pour toute étude sur le manganèse pur puisqu'il s'oxyde à l'air dans les conditions normales. Les modes de croissance ont été caractérisés par diffraction d'électrons de haute énergie en incidence rasante (RHEED). La qualité chimique des dépôts a été étudiée par spectroscopie Auger et ESCA. Mn a été déposé sur des couches tampons de 200A de Fe bcc déposées à l'ambiante sur MgO(001) et recuites à 600K. Les couches tampons de fer sont relaxées dans la structure bcc et orientées (001) dans la direction de croissance. La contamination en oxygène des dépôts de Fe et Mn, si elle existe, est inférieure au seuil de détection de l'Auger et I'ESCA, alors qu'une faible contamination en C (estimée au maximum à 4 %) a été quelques fois observée. Aucune altération des processus de croissance et des propriétés magnétiques des couches n'a en outre été détectée. Les mesures XMCD ont été réalisées sur la ligne SU2 de l'anneau SuperAco à LURE. Le moment de Fe et Mn étant dans le plan des couches, les mesures XMCD ont été effectuées avec un angle de 70" entre la normale à 12échantiIlon et le faisceau X incident. L'aimantation des échantillons est obtenue par l'application d'un champ magnétique dans le plan du substrat. La mesure des seuils est obtenue en mesurant les variations du courant total induit dans l'échantillon pendant les processus d'absorption (technique dite du "total Yield"). Le signal XMCD est obtenu en faisant la différence des seuils Ln.~nde Fe et Mn obtenus non pas en inversant la polarisation circulaire mais en choisissant une polarisation circulaire fixée et en inversant à chaque énergie le sens du champ magnétique appliqué. Le degré de polarisation circulaire est de 70% et le champ appliqué de 250 Oe sur l'échantillon. Les spectres XMCD montrés ici sont corrigés du degré de polarisation et de l'angle entre les moments et le faisceau X. RESULTATS ET DISCUSSION Nous allons tout d'abord donner les résultats concernant la croissance de Mn sur un buffer de Fe épais obtenu par croissance sur MgO. Le RHEED montre que la structure de surface est identique à celle du plan (001) de départ. Des oscillations de RHEED sont observées pendant la croissance de Mn sur Fe à l'ambiante (fig. 1) , démontrant ainsi un mode de croissance couche à couche. Parler d'une monocouche de Mn sur Fe a donc un sens, ce qui ne serait pas le cas si la croissance était tri-dimensionnelle. Une oscillation n w w x a -0 .-fn I -C Q 2 89 E a, 2.88 2.87 O 100 200 300 400 500 2 86 - temps (s) Figure 1 :Oscillations de RHEED et ilariation du paramètre dans le plan pendant la croissance de Mn sur Fe de RHEED correspond à la croissance d'une couche d'une hauteur atomique, ce qui nous a permis de contrôler précisément les épaisseurs déposées de Mn. L'analyse Auger du pic de Mn à 542 eV en fonction de la quantité déposée nous a permis de nous assurer qu'il n'y a pas d'interdiffusion de Mn dans Fe à l'ambiante. Ceci est en accord avec les résultats de Walker et Hopster [9] qui ont montré que I'interdiffusion est significative au delà de 420K. Finalement, nous n'avons pas vu de variation significative du paramètre dans le plan de Mn pendant la croissance jusqu'à une dizaine de plans atomiques (fig.1). La croissance de Mn sur Fe(001) à l'ambiante est donc 2D, sans interdiffusion, et pseudomorphe ail plan (001) du fer bcc. Un signal XMCD caractéristique d'un ordre ferromagnétique a été observé jusqu'à deux plans atomiques de Mn. Le couplage interfacial observé entre Mn et Fe est également ferromagnétique (fig.2). De plus, le seuil L11.111 de Mn est alors typique d'une transition des niveaux 2p vers une bande métallique 3d (pas d'effet multiplet). Le moment magnétique moyen obtenu en appliquant les règles de somme est de 1 pB/at à l'ambiante et à 77K, ce qui veut dire que la température de Curie est bien au delà de l'ambiante. Au delà de 2 monocouches, un signal dichroïque peu académique a été observé (fig.3). Ce type de signal, qui a une forme de signal XMCD dérivé, a en outre déjà été observé dans des alliages ioniques antiferro- ou ferrimagnétiques[l2]. En effet, dans ce cas, les niveaux d'énergie entre des sites magnétiques couplés antiparallèlement sont décalés en énergie en raison de l'environnement chimique différent pour les deux sites. Ce type de situation conduit à un signal XMCD provenant de la somme de deux signaux XMCD opposés en signe et décalés en énergie, donc à un signal XMCD classique dérivé. On peut donc expliquer ce type de signal sur Mn comme provenant de l'apparition d'un état antiferromagnétique qui existe effectivement pour les fortes épaisseurs de Mn [9]. En outre, le décalage des niveaux d'énergie est beaucoup plus difficile à justifier dans les métaux purs. Il semblerait tout de même que ce décalage puisse exister comme le montre un calcul récent de Wu et Freeman [Il]. Ce résultat reste cependant à confirmer. Il est néanmoins clair que le changement de signal dichroïque correspond à une transition ferro-antiferromagnétique. 640 660 680 700 720 740 Energy (eV) Figure 2 :Seuils de Mn et Fe et signal XMCD pour une monocouche de Mn sur Fe(O01) 640 650 660 Enei-gy ( e V ) Figure 3 : signal XMCD de Mn sur Fe(OO1) en fonction du nornhre de plans de Mn déposés Examinons maintenant le désaccord entre les observations de Dresselhaus et coll. [IO] et nos résultats. Nous avons en particulier examiné si la rugosité de surface pouvait jouer un rôle. Les couches tampons de fer déposées sur M g 0 et non recuit présentent une rugosité cinétique de l'ordre de 20A pour une épaisseur de 200A. Nous avons déposé une monocouche de Mn sur cette surface rugueuse et examiné ses propriétés magiiétiques. Mis à part une diminution de 25% du moment magnétique, nous avons JOURNAL DE PHYSIQUE IV toujours trouvé un comportement ferromagnétique avec iin couplage parallèle des moments de Mn et Fe. Les études en température n'ont également pas montré de changement du sens du couplage. Nous avons alors envisagé l'hypothèse d'une influence éventuelle du modece préparation du substrat. Nous avons ainsi reproduit l'expérience décrite en [IO] : nous avons déposé 20A de Fe sur un monocristal d'Ag(001). Nous avons alors observé après le dépôt de Fe un pic intense d'Ag en Auger. Etant donné que la croissance de Fe sur Ag(001) est bi-dimensionnelle [13], et que Fe et Ag ne sont pas miscibles, ce résultat ne peut s'expliquer que par une ségrégation cinétique [14] de Ag sur Fe. Ce résultat n'est somme toute pas surprenant puisque l'énergie de surface d'Ag est environ deux fois plus faible que celle de Fe. Après avoir déposé une monocouche de Mn sur cette surface à l'ambiante, nous avons observé un signal XMCD nul sur Mn. Par contre, en provoquant l'interdiffusion de Mn, Ag et Fe en chauffant jusqu'à 500K et en contrôlant en Auger, nous avons alors observé un signal XMCD ferromagnétique sur Mn avec un couplage antiparallèle entre les moments de Mn et Fe, confirmant ainsi les résultats de Dresselhaus et coll. [IO]. Nous montrons ainsi que la coiiche obtenue n'a rien à voir avec une monocouche de Mn pure bi-dimensionnelle. I I I 1 l 630 640 650 660 670 energy (eV) 630 640 650 660 670 energy (eV) Figure 4 :Seuils et spectres XMCD ohtenids pour une monocouche de Mn déposée sur 20AFelAg(001) avant (à gauche) et après recuit (à droite) CONCLUSION En résumé, nous avons montré que les contradictions apparentes entre les résultats de la ref.[l0] et ceux rapportés ici proviennent de la préparation de l'échantillon. Un examen approprié des conditions de croissance nous a permis de montrer que les résultats reportés en [IO] correspondent à du manganèse interdiffusé dans Ag. En revanche, nous avons montré que notre préparation des échantillons nous permet effectivement bien d'obtenir une monocouche bi-dimensionnelle de Mn pseudomorphe au plan (001) de Fe. Nous montrons ainsi définitivement que le couplage interfacial entre les moments de Mn et Fe est ferromagnétique. Nous avons également observé que le manganèse est ferromagnétique jusqu'à deux plans atomiques, mais le nioment obtenu est beaucoup plus faible que le laissent prévoir les diverses modélisations [11,15]. Plusieurs explications sont possibles. Tout d'abord, on peut remettre en cause la validité des règles de somme dans le cas de Mn, car le couplage spin-orbite conduisant à la séparation des niveaux 2p1I2 et 2p3I2 est alors trop faible pour justifier les approximations conduisant à ces règles. Néanmoins, un calcul récent de Wu et Freeman [ I l ] dans le cas d'une monocouche de Mn sur Fe avec un moment de 3 y ~ l a donnent t un signal XMCD 3 fois plus grand que celui observé ici, ce qui confirme la valeur de 1 ye/at. Il est également possible que le volume atomique utilisé dans les calculs ne soit pas réaliste. Le paramètre dans le plan de Mn est bien celui du fer, comme nous l'avons montré ici. Par contre, le paramètre entre plans choisi est celui obtenu par Purcell et coll. [9] dans des superréseaux MnFe(001) avec des épaisseurs de Mn supérieures à deux monocouches. Rien ne justifie à priori que cette distance ne varie pas au moment de la transition ferro-antiferromrignétique. Pour vérifier ce point, nous avons effectué des expériences d7EXAFSin situ qui sont en cours d'analyse. Références Il] Voir par exemple la thèse de J.P. Schillé, Université de Strasbourg, 1994 [21 Carra P. et al, Phys. Rev. Lett., 70, (1993), 694 [31 Sliwko V. et al, J. Phys. Cond. Matter, 6, (1994), 6557 [4] Jonker B.T. et al, Phys. Rev. B, 39, (1989), 1399. [5] Tian D. et al, Solid State Com., 70, (1989), 199. [6] Andrieu S. et al, Phys. Rev. B, 54, (1996), 2822. [7] O'Brien W.L. et Tonner B.P., Phys. Rev. B, 50, (1994), 2963. [8] O'Brien W.L. et Tonner B.P., Phys. Rev. B, 51, (1995), 617, [9] Purcell S.T. et al, Phy S. Rev. B, 45, (1992), 13064 Walker T.G. et Hopster H., Phys. Rev. B, 48, (1993), 3563 Roth Ch.et al, Phys. Rev. B, 52, (1995), 15691 1101 Dresselhaus J. et al, E-MRS, 4-7 juin 1996, Strasbourg (France), J.Mag.Mag.Mat., sous presse [ I l ] Wu R.Q. et Freeman A.J., Phys. Rev. B, 51, (1995), 17131 Attention, ces auteurs définissent le signal XMCD comme (of-a-)lot avec ot=o~+o++o-.En pratique on et le signal XMCD est défini ici par 2(0+-0-)/(oi+o-). ne mesure pas 00 car O~=(O++O-)/2 [12] Sette F. et al, dans X-Ray Absorption Fine Structure, édité par Hasnain S.S. (Ellis Howood, N.Y., 1991) p.96 [13] Heinrich B. et al, Phys. Rev. B, 38, (1988), 12879 [14] Andrieu S. et al, J. Appl. Phys., 65, (1989), 2681 [15] Mbirt S. et al, Phys. Rev. B, 52, (1995), 15070 Bouarab S. et al, Phys. Rev. B, 52, (1995). 10127 Vega A. et al, Thin Solid Films, 275, (1996), 103
{'path': '27/hal.archives-ouvertes.fr-jpa-00254501-document.txt'}
Fiches argumentaires issues de l'étude "Conditions de l'émergence et impacts macroéconomiques du véhicule électrique en Europe et en Chine" - Working Paper Chaire modélisation prospective au service du développement durable (MPDD) n° 2012-01-04 Adrien Vogt-Schilb, Ruben Bibas, Christophe Cassen, Céline Guivarch, Jean Charles Hourcade To cite this version: Adrien Vogt-Schilb, Ruben Bibas, Christophe Cassen, Céline Guivarch, Jean Charles Hourcade. Fiches argumentaires issues de l'étude "Conditions de l'émergence et impacts macroéconomiques du véhicule électrique en Europe et en Chine" - Working Paper Chaire modélisation prospective au service du développement durable (MPDD) n° 2012-01-04. 2013. hal-00802401 HAL Id: hal-00802401 https://hal-enpc.archives-ouvertes.fr/hal-00802401 Submitted on 19 Mar 2013 Chaire Modélisation prospective au service du développement durable Les Cahiers de la Chaire Fiches argumentaires issues de l'étude « Conditions de l'émergence et impacts macroéconomiques du véhicule électrique en Europe et en Chine » CIRED : Vogt-Schilb A., Bibas R., Cassen C., Guivarch C. et Hourcade J-C. Observatoire : Ruet J., Lanckriet E., Kang R., Qi M., Yin Y., Bulcourt A. et Lee A. Working Paper N° 2012-01-04 Les Cahiers de la Chaire Modélisation prospective au service du développement durable Fiches argumentaires issues de l'étude « Conditions de l'émergence et impacts macroéconomiques du véhicule électrique en Europe et en Chine » CIRED: Vogt-Schilb A., Bibas R., Cassen C., Guivarch, C. Hourcade J.-C. Observatoire: Ruet J., Lanckriet E., Kang R., Qi M., Yin Y., Bulcourt A., Lee A. PILOTES : ALICE DE BRAUER (RENAULT) & JOEL RUET (PARIS TECH) Table d es matiè res Synthèse: Comment justifier un investissement pour le développement de l'électrification des véhicules? -------------------- 4 Le bénéfice pour les transports de la décarbonisation du mix électrique --------------------------------------------------------- 6 La disponibilité des véhicules électrifiés, une option réelle du point de vue sociétal ------------------------------------------ 10 Caveat méthodologique -------------------------------------------------- 13 Véhicules électrifiés et compétitivité ---------------------------------- 15 Politiques publiques chinoises et risques pour la compétitivité européenne ------------------------------------------------ 19 Les bénéfices obtenus sont uniques dans le cas de l'électrification du parc automobile ------------------------------------ 22 Avertissement Cet article a été réalisé par le CIRED et l'Observatoire des Emergents dans le cadre d'un contrat de recherche soutenu par Renault. Les visions exprimées dans ce rapport sont celles des auteurs et n'engagent pas Renault Les Cahiers de la Chaire Modélisation prospective au service du développement durable Synthèse: Comment justifier un investissement pour le développement de l'électrification des véhicules? Cette fiche synthétise les arguments en faveur d'un investissement précoce pour le développement de l'électrification des véhicules, qui ont été développés dans le cadre de l'étude « Vision Europe-Chine 2010-2011 ». Cette étude, menée en collaboration entre le Cired et l'Observatoire des Émergents, visait à comparer les contextes macroéconomiques et énergétiques de l'émergence de véhicules électrifiés en Europe et en Chine. 1. En Europe, l'électrification des véhicules représente dès aujourd'hui un bénéfice environnemental en termes de réduction des émissions de gaz à effet de serre. Si des politiques climatiques continuent à être mises en oeuvre, ce bénéfice environnemental croîtra dans le temps, grâce à la décarbonisation de la production électrique. Ce résultat est robuste à l'incertitude sur les potentiels et les coûts des technologies de production d'électricité verte (énergie renouvelable, nucléaire, séquestration du carbone). Pour une quantification ou plus de détail, voir la fiche «Le bénéfice pour les transports de la décarbonisation du mix électrique ». Ce résultat est par ailleurs confirmé par de nombreuses autres études, par exemple de l'Agence internationale de l'énergie (World Energy Outlook 2011). 2. D'autre part l'électrification des véhicules est porteur de (co-)bénéfices économiques. En effet, la disponibilité à grande échelle dans le futur de véhicules électrifiés a une valeur d'option qui se compose des éléments suivants: (i) elle permet de réduire le coût moyen futur espéré du système automobile, étant donnés les prix futurs incertains des carburants liquides, de l'électricité et d'une éventuelle taxe carbone. La fiche «La disponibilité des véhicules électrifiés, une option réelle du point de vue sociétal » propose une quantification de cet élément dans le cadre des scénarios développés pour l'étude « Vision Europe-Chine 2010-2011 ». (ii) elle peut jouer le rôle d'assurance contre un prix du carbone élevé ou un prix des carburants liquides élevés. (Cet élément n'est pas quantifié dans l'étude « Vision Europe-Chine 2010-2011). (iii) elle permet d'améliorer la compétitivité de l'économie européenne en général. La pénétration du VEx limite les importations de pétrole qui pèsent sur la balance des paiements. De plus, elle réduit le prix du carbone nécessaire pour atteindre les objectifs d'émissions de gaz à effet de serre (GES). Cette réduction bénéficie à l'ensemble de l'appareil productif. La fiche « Véhicules électriques et compétitivité » détaille ce point. Les Cahiers de la Chaire Modélisation prospective au service du développement durable 4 3. Ces bénéfices environnementaux et économiques sont singuliers au cas de l'électrification des véhicules. Ils tiennent aux particularités du secteur des transports qui est un secteur clé à l'intersection de deux questions majeures : la réduction des émissions de gaz à effet de serre et la dépendance aux importations de pétrole. En effet, ce secteur contribue à une large part des émissions de CO2 européennes (près de 30%), et surtout il est le seul secteur dont les émissions connaissent encore une croissance rapide. De plus c'est un secteur diffus, contraint et inerte ce qui rend sa décarbonisation difficile. Par ailleurs, les possibilités de substitution sont limitées ou coûteuses, tant du pétrole vers d'autres énergies pour la mobilité que de la mobilité en voiture vers d'autres modes. La fiche «Les bénéfices obtenus sont uniques dans le cas de l'électrification du parc automobile» détaille ces points. 4. L'évolution des marchés des carburants liquides n'est pas susceptible de conduire à elle seule à une sortie de la dépendance aux énergies fossiles importées du secteur des transports. En particulier, le développement du « Coal-to-liquid », dont un démarrage est à l'oeuvre en Chine, est de nature à modifier significativement les dynamiques de prix des carburants liquides et à tirer les prix à la baisse. Il existe donc un risque réel de blocage dans des systèmes carbonés, et d'accentuation des questions de sécurité énergétique et de vulnérabilité à des chocs sur les prix. 5. Les politiques industrielles chinoises exercent une forte pression sur l'évolution des marchés automobiles. D'un côté la Chine soutient le développement du véhicule électrique pour des raisons « non-carbone » (pollution locale, indépendance énergétique, politique industrielle). De l'autre, elle bénéficie d'un marché intérieur en plein essor. 6. Si les bénéfices liés à l'électrification des véhicules sont surtout des bénéfices de long-terme, il est nécessaire d'investir dès maintenant dans les véhicules électrifiés comme parties prenantes d'une stratégie de mitigation, à cause de la lenteur à laquelle s'opère la diffusion technologique (Vogt-Schilb & Hallegatte 2011). Remarque : Dans toute l'étude, l'attention se porte sur la question de l'électrification du parc, qui englobe les véhicules 100% électriques mais aussi la part de consommation d'électricité par les hybrides rechargeables. Les Cahiers de la Chaire Modélisation prospective au service du développement durable 5 Le bénéfice pour les transports de la décarbonisation du mix électrique Synthèse Le Cired a mené en collaboration avec l'Observatoire des Émergents une étude pour Renault qui compare les contextes macroéconomiques et énergétiques de l'émergence de véhicules électrifiés en Europe et en Chine. Cette étude a permis de quantifier quelques mécanismes de première importance pour l'évaluation environnementale des véhicules électrifiés (VEx): 1. Les véhicules électrifiés permettent bien de réduire les émissions de gaz à effet de serre (GES), notamment en Europe. Le contenu carbone moyen de l'électricité européenne est aujourd'hui assez bas pour que les VEx soient compétitifs face aux véhicules thermiques actuels. 2. De plus, l'avantage environnemental du VE est durable : une Europe mettant en place des politiques climatiques de long terme verrait le contenu carbone de son électricité décroître encore jusqu'en 2050. 3. La Chine souffre d'un contenu carbone moyen de l'électricité trop élevé pour qu'il soit pertinent, pour un objectif de réduction des émissions de GES, de migrer vers l'électromobilité dès maintenant. Le véhicule électrique permet de réduire les émissions de gaz à effet de serre L'analyse de cette question est trop souvent apportée en faisant l'examen rapide du contenu carbone de l'électricité contemporaine dans différente régions (Syrota et al. 2011; Ademe 2009). Ces examens admettent en général que l'électricité de base française est un bon terreau pour le développement du VE ; mais ils tempèrent immédiatement. L'Ademe (2009) montre ainsi que le contenu de l'électricité moyenne européenne actuel correspond à des émissions des véhicules électriques supérieurs à ceux de la voiture thermique attendue en 2020 (Figure 1). De plus, elle montre que les actuellement populaires centrales à gaz à « cycle combiné » tirent également le contenu carbone du VE à la hausse. Le rapport Syrota (2011, p. 139) s'intéresse à d'autres régions du monde comme la Chine, le Japon ou la Corée (ou même la France si l'on raisonne à centrale marginale) dans lesquelles le contenu carbone de l'électricité est trop important, ne permettraient pas au VE de rivaliser avec les véhicules thermiques, voire augmenteraient les émissions de GES prises dans leur ensemble. Les Cahiers de la Chaire Modélisation prospective au service du développement durable 6 Figure 1 : Émissions du puits à la roue des véhicules thermiques et électriques d'après Ademe (2009) Cette analyse ne prend pas en compte l'impact de politiques climatiques sur la production d'électricité. Pourtant, l'augmentation de la concentration de gaz à effet de serre et le réchauffement climatique qui s'en suit sont des processus de long terme. De plus et surtout, l'appareil de production économique est d'une lourde inertie, et il convient de prendre les décisions à court terme en gardant bien en vue leurs conséquences sur la durée. Ainsi, l'enjeu est de s'assurer que l'évolution conjointe, sur l'échelle de quelques décennies, du système automobile et du système de production d'électricité aident à réduire les émissions de GES et à sortir de la dépendance aux énergies fossiles. L'analyse des résultats du modèle Imaclim-R (voir Encadré 1) montre que dans des scenarios sans politiques climatiques (i.e. sans prix du carbone), le contenu carbone de l'électricité européenne pourrait rester constant, voir augmenter : en dehors de tout autre politique climatique, le bilan carbone du véhicule électrique est incertain (Figure 2). Figure 2 : Contenu carbone de l'électricité en Europe et effet sur les émissions du puits à la roue d'un véhicule électrifié Chaque trait gris représente un scénario. Les traits colorés représentent quatre scénarios marqueurs, alternativement optimistes (« techno ») ou pessimistes sur le coût des technologies de production d'électricité propre, et avec (« climat ») ou sans (« base ») politiques climatiques Les Cahiers de la Chaire Modélisation prospective au service du développement durable 7 Mais si l'Europe engage une politique de réduction des émissions de GES, l'analyse montre que le contenu carbone de l'électricité européenne décroît pour atteindre un niveau très faible en 2050. Cette évolution permet au VE européen de garder puis d'accentuer son avantage environnemental sur le véhicule thermique. Ce résultat est robuste à l'incertitude sur les potentiels et les coûts des technologies de production d'électricité verte (énergie renouvelable, nucléaire, séquestration du carbone). Il est par ailleurs confirmé par de nombreuses autres études, par exemple de l'Agence internationale de l'énergie (IEA 2009, p.22). Dans nos simulations, l'intensité carbone moyenne de l'électricité européenne est ainsi comprise entre 155 et 262 gCO2/kWh en 2020, 103-216g/kWh en 2030 et 3-42g/kWh en 2050. Un véhicule électrique serait alors responsable de 51-66g/km en 2020 (sous hypothèse qu'il consomme 25kWh/100km plug-to-wheel), 26-54g/km en 2030 et enfin 1-11g/km en 2050. Dans ces conditions, plus la mobilité privée est électrifiée, plus les objectifs climatiques sont faciles à tenir. En Chine, le contenu carbone de l'électricité a beaucoup de retard En Chine, par contre, le contenu carbone de l'électricité est actuellement très élevé. Malgré une plus grande réactivité de son parc de production, et même en cas de politiques climatiques, l'électricité moyenne chinoise ne permettrait pas au VE d'être porteur de réduction d'émissions de GES avant 2035. Figure 3 : Contenu carbone de l'électricité en Chine Encadré 1 : Le modèle Imaclim-R Les projections temporelles de l'évolution de l'intensité carbone de l'électricité proviennent de scénarios réalisés avec le modèle Imaclim-R selon des hypothèses alternatives sur les politiques climatiques futures (scénario au fil de l'eau ou division vs. Division par 3 des émissions européennes entre 2001 et 2050) et les coûts et potentiels des technologies de production d'électricité bas-carbone notamment. Imaclim-R est un modèle d'équilibre général hybride (il allie représentation Les Cahiers de la Chaire Modélisation prospective au service du développement durable 8 monétaire et physique des flux économiques) et récursif dans lequel l'évolution du parc de production d'électricité résulte d'une représentation explicite (i) des choix d'investissement des producteurs entre les technologies alternatives en fonction de leur coûts d'investissement et du prix des énergies et (ii) de l'inertie du parc de production qui est remplacé par tranches. Références Ademe, 2009. Les transports électriques en France: un développement nécessaire sous contraintes. Ademe & vous - Stratégie & études, (21). IEA, 2009. Electric and plug-in hybrid electric vehicles, Paris, France: OECD/ International Energy Agency. Available at: https://www.iea.org/Papers/2009/EV_PHEV_ Roadmap.pdf. Syrota, J. et al., 2011. La voiture de demain: carburants et électricité, Paris: Conseil d'Analyse Stratégique. Les Cahiers de la Chaire Modélisation prospective au service du développement durable 9 La disponibilité des véhicules électrifiés, une option réelle du point de vue sociétal Synthèse Le Cired a mené en collaboration avec l'Observatoire des Émergents une étude pour Renault qui compare les contextes macroéconomiques et énergétiques de l'émergence de véhicules électrifiés en Europe et en Chine. Cette étude a permis de quantifier quelques mécanismes de première importance pour l'évaluation environnementale des véhicules électrifiés (VEx): 1. Dans le cadre de politiques climatiques, la disponibilité des véhicules électrifiés (VEx) a une valeur économique significative dès les prochaines années, de près de 63 €/véhicule/an dès 2015. Cette valeur croît rapidement dans le temps et devient élevée sur le long-terme : 170€ en 2020, 930 € en 2030 et 3 860 € en 2050. Ces valeurs correspondent à la valeur d'option des VEx, i.e. la réduction moyenne du coût du système automobile permise par la disponibilité des VEx sur le marché4. 2. Dans ces cas, lorsque les véhicules électrifiés sont disponibles, leur demande est forte : de 0.8% des ventes en moyenne en 2015, elle passe à 4% en 2020, 16% en 2030 et 53% en 2050.1 3. Si les bénéfices liés à l'électrification des véhicules sont surtout des bénéfices de long-terme, il est nécessaire d'investir dès maintenant dans les véhicules électrifiés comme parties prenantes d'une stratégie de mitigation, à cause de la lenteur à laquelle s'opère la diffusion technologique. 4. Dans les scénarios sans politiques climatiques, le bénéfice lié aux VEx est bien plus faible et ne devient significatif qu'après 2025, lorsque des tensions sur les marchés pétroliers deviennent importantes du fait des contraintes sur les réserves. Il est possible d'évaluer les bénéfices de la disponibilité des véhicules électrifiés en quantifiant son impact sur le coût espéré du système automobile. Il s'agit de la somme du coût annualisé de l'achat des véhicules automobiles et des coûts en énergie liés à leur utilisation pendant un an, moyenné sur un ensemble de scénarios de prix de l'énergie et éventuellement du carbone. Les calculs disponibles de la valeur économique du VE reposent souvent sur un ou deux 4. Les valeurs sont celles pour la zone Europe, résultant des hypothèses spécifiques de l'étude « Vision Europe-Chine 2010-2011 ». Elles sont données à titre indicatif. Les précautions d'usage doivent donc être prises : ces valeurs donnent un ordre de grandeur, et pas une quantification précise. Les valeurs monétaires sont exprimées en euros de 2010. Les Cahiers de la Chaire Modélisation prospective au service du développement durable 10 scénarios de prix des énergies, mènent l'analyse à horizon 2020 ou 2030, et séparent les hypothèses sur le prix du carbone, du pétrole et de l'électricité (CGDD 2011; Syrota et al. 2011). Ces calculs ne prennent donc pas en compte les interactions entre ces trois prix. Dès lors, les résultats des calculs disponibles peuvent être contestables. Par ailleurs, ils ne donnent pas de vision dynamique de la valeur économique du véhicule électrique, alors que les bénéfices de l'électrification des véhicules sont attendus notamment sur le long terme, avec la déplétion des ressources pétrolières et le resserrement de la contrainte sur les émissions de gaz à effet de serre. Le modèle Imaclim-R développé au Cired permet de simuler plusieurs scénarios cohérents de trajectoires de prix des énergies et du carbone sous-tendus par un contexte sociotechnique donné (voir les trajectoires de prix endogènes en Annexe). Nos simulations s'étendent jusqu'en 2050. Elles sont basées sur une exploration systématique de l'incertitude. Table 2. Pénétration et valeur sociale moyennes des VEx en Europe dans les scénarios avec politique climatique Lecture : Dans les scénarios avec politiques climatiques et en 2030, la disponibilité des véhicules électriques à large échelle réduit de 605 €/an le coût du système automobile (cette valeur représente 9.2% du coût du système automobile moyen cette année-là). Lorsque les véhicules électrifiés sont disponibles, ils représentent 16% des ventes en moyenne cette année là, soit 11.6% de plus en moyenne que dans les scénarios où les VEx sont limités à un marché « de niche ». Dans les scénarios avec politiques climatiques5 (Table 2), pour lesquels la contrainte carbone est internalisée, la demande de véhicules électrifiés est forte lorsqu'ils sont disponibles : de 0.8% des ventes en moyenne en 2015, elle passe à 4% en 2020, 16% en 2030 et 53% en 20506. La disponibilité des VEx a une valeur économique significative dès les prochaines années, de près de 63 €/véhicule/an dès 2015. De plus cette valeur croît rapidement dans le temps et devient élevée sur le long terme : 170€ en 2020, 930€ 5. Les politiques climatiques évaluées correspondent à des émissions (de CO2 issu de combustion) mondiales qui piquent en 2020 et sont réduites de 30% en 2050 par rapport au niveau de 2000, les émissions européennes (de CO2 issu de combustion) étant réduites de 20% en 2020 et de 70% en 2050. Cela correspond à une stabilisation de la concentration de CO2 seul dans l'atmosphère à environ 450ppm, soit, en prenant tous les gaz à effet de serrer en compte, à une stabilisation a 550ppm CO2-équivalents. Ce niveau de stabilisation conduit à une augmentation de la température moyenne de l'ordre de 3°C au–dessus de la température préindustrielle (selon les incertitudes sur le cycle du carbone et la sensibilité du climat). 6. L'électrification des ventes est définie comme la part du kilométrage, pour les véhicules vendus l'année courante, parcouru en utilisant de l'électricité du réseau comme énergie. Par exemple, une électrification des ventes de 40% peut être obtenue si tous les véhicules vendus sont des hybrides rechargeables qui parcourent 40% de leur kilométrage annuel grâce à l'électricité, ou si 40% des véhicules vendus sont des véhicules toutélectriques et que le reste sont des véhicules à essence. Les Cahiers de la Chaire Modélisation prospective au service du développement durable 11 en 2030 et 3 855€ en 2050, soit 30% du coût moyen du système automobile cette annéelà. Ces valeurs correspondent par exemple au montant d'une vignette automobile que l'on pourrait légitimement imposer pour financer le développement des VEx sans augmenter le coût espéré du système automobile. Les automobilistes seraient indifférents entre (i) payer la vignette tous les ans et avoir à leur disposition des véhicules électriques qu'ils sont libres d'acheter (ii) ne pas payer la vignette, mais prendre le risque d'affronter un pétrole ou un carbone chers dans le futur sans avoir la possibilité d'avoir recours à une voiture électrique. En d'autres termes, la voiture électrique joue ici un rôle d'assurance, et la valeur économique calculée serait le juste prix de cette assurance. Table 3. Pénétration et valeur sociale moyennes des VEx en Europe dans les scénarios de référence Lecture : Dans les scénarios de référence et en 2030, la disponibilité des véhicules électriques à large échelle réduit de 157 €/an le coût du système automobile (cette valeur représente 3.2% du coût du système automobile moyen cette année là). Lorsque les véhicules électrifiés sont disponibles, ils représentent 9% des ventes en moyenne cette année là, soit 5.9% de plus en moyenne que dans les scénarios où les VEx sont limités à un marché « de niche ». Dans les scénarios de référence (c.à.d. sans politiques climatiques), le bénéfice lié aux véhicules électriques est bien plus faible et ne devient significatif qu'après 2025, lorsque des tensions sur les marchés pétroliers deviennent importantes du fait des contraintes sur les réserves. La disponibilité des véhicules électriques réduit à long terme le coût espéré du système automobile de près de 3% (près de 240 €/an/véhicule en 2030 et de 200 €/an/ véhicule en 2050, voir Table 3). Si les bénéfices liés à l'électrification des véhicules sont surtout des bénéfices de longterme, il est nécessaire d'investir dès maintenant dans les véhicules électrifiés comme parties prenantes d'une stratégie de mitigation, à cause de la lenteur à laquelle s'opère la diffusion technologique (Vogt-Schilb & Hallegatte 2011). Les Cahiers de la Chaire Modélisation prospective au service du développement durable 12 Caveat méthodologique Le calcul de la valeur d'option du véhicule électrique demande de comparer le coût du système automobile dans un monde ou le VEx n'est pas disponible, et celui dans un monde dans lesquels les VEx disponible. Les simulations que nous avons produites permettent de calculer une telle valeur d'option. Nous avons simulé, pour chaque contexte sociotechnique, deux modalités de développement des véhicules électriques (Figure 4) : - Dans les scénarios « VEx niche », le développement des infrastructures de distribution d'électricité, les progrès sur l'autonomie des batteries, la coordination entre les différents industriels de la filière électrique et les capacités d'approvisionnement en matières premières restent limités. Les VEx restent un marché de niche, et leur parts de marché ne peut pas dépasser 15% en 2050 - Dans les scénarios « VEx masse » en revanche, les goulots d'étranglements précédents sont surmontés rapidement, et la part de marché maximale des véhicules électrifiés peut monter à 60 % en 2050. Figure 4 Hypothèses sur la borne supérieure des ventes de VE dans les scénarios « VEx niche » et « VEx masse » Dans tous les cas, ces valeurs sont des bornes supérieures. Le modèle calcule une part de marché de l'électrification cohérente avec les prix de l'énergie et le coût des véhicules. Les Cahiers de la Chaire Modélisation prospective au service du développement durable 13 Le calcul de la valeur d'option se fait alors au regard de deux valeurs (Table 2): - La différence entre la part de la mobilité faite en mode électrique dans les scénarios « VEx masse » et celle des scénarios « VEx niche » - La différence entre le coût du système automobile dans les scénarios « VEx masse » et « VEx niche » Références CGDD, 2011. Les véhicules électriques en perspective: analyse coûts-avantages et demande potentielle, Paris, France: Commissariat général au développement durable. Syrota, J. et al., 2011. La voiture de demain: carburants et électricité, Paris: Conseil d'Analyse Stratégique. Vogt-Schilb, A. & Hallegatte, S., 2011. When Starting with the Most Expensive Option Makes Sense: Use and Misuse of Marginal Abatement Cost Curves, World Bank Policy Research 5803. Les Cahiers de la Chaire Modélisation prospective au service du développement durable 14 Véhicules électrifiés et compétitivité Synthèse Le Cired a mené en collaboration avec l'Observatoire des Émergents une étude pour Renault qui compare les contextes macroéconomiques et énergétiques de l'émergence de véhicules électrifiés en Europe et en Chine. Cette étude a permis de quantifier quelques mécanismes de première importance pour l'évaluation de l'effet des véhicules électrifiés (VEx) pour la compétitivité européenne. Deux « étages » de la question de la compétitivité peuvent être distingués : tout d'abord la compétitivité de l'industrie automobile, ensuite la compétitivité de l'économie européenne plus généralement. 1. Même si le contenu carbone de l'électricité chinoise est élevé, la Chine peut (et va) développer le VEx pour réduire les pollutions locales, améliorer son indépendance énergétique et développer une filière de production de VEx exportatrice. Cette politique industrielle chinoise de développement d'une filière de production de VEx représente une menace pour la compétitivité de l'industrie automobile européenne. 2. Le développement du véhicule électrique en Europe permet d'améliorer la compétitivité de l'économie européenne en général. La pénétration du VEx limite les importations de pétrole qui pèsent sur la balance des paiements. De plus, elle réduit le prix du carbone nécessaire pour atteindre les objectifs d'émissions de gaz à effet de serre (GES). Cette réduction bénéficie à l'ensemble de l'appareil productif. La compétitivité de la filière VEx européenne Figure 5 : Contenu carbone de l'électricité en Chine et intensité carbone correspondant pour un véhicule électrique Les Cahiers de la Chaire Modélisation prospective au service du développement durable 15 Les simulations menées avec le modèle Imaclim-R montrent que le contenu carbone de l'électricité chinoise ne permet pas au VEx de faire baisser immédiatement les émissions de gaz à effet de serre (GES) dans ce pays. Bien que le parc de production d'électricité, en pleine croissance, évolue rapidement, il part d'un contenu carbone très élevé, de près de 800gCO2/kWh en 2010 (à comparer avec 400 gCO2/kWh en Europe). Ainsi, en 2020, le contenu carbone de l'électricité attendu en cas de mise en oeuvre de politiques climatiques reste élevé et varie entre 500 et 600 gCO2/kWh. Une voiture électrique serait alors4 responsable d'entre 125 et 150 gCO2/km, à comparer à une réglementation annoncée à 117 gCO2/km cette année-là (An et al. 2007). Pourtant le gouvernement Chinois peut développer le VEx afin d'atteindre d'autres objectifs que les réductions d'émissions de CO2, qui font figure de priorité pour la Chine, et à premier titre la réduction de la pollution locale en ville, et l'amélioration de l'indépendance énergétique. D'autre part, le développement d'une filière de production de VEx, visant le marché domestique mais également à terme l'exportation, fait partie d'une politique industrielle chinoise. Dans ce cadre, la Chine bénéficie d'un avantage du fait de son marché intérieur en plein essor. En effet, depuis 2 ans, la Chine est devenu le premier marché intérieur de voitures (Figure ci-dessous, tirée du World Energy Outlook 2011, IEA). Or, le taux d'équipement moyen en voitures des ménages chinois reste faible (30 véhicules pour 1000 habitants), en comparaison des taux d'équipement moyens européens (500 véhicules pour 1000 habitants) ou américains (700 véhicules pour 1000 habitants). Cela donne des perspectives d'accroissement du marché très significatives5, et va tendre à renforcer la position dominante de la Chine. L'effet de la filière VEx sur la compétitivité européenne Le développement du véhicule électrique en Europe permet de réduire la facture pétrolière, et améliore la sécurité énergétique. Dans les scénarios de l'étude, la disponibilité à large échelle de VEx permet de réduire en moyenne la facture pétrolière due à la consommation de carburants des voitures européennes de 15% en 2030 et de 25% en 2050. 4. En faisant l'hypothèse d'une consommation plug-to-wheel de 25kWh/100km. 5. Il est cependant incertain si la Chine atteindra des niveaux d'équipement comparables aux niveaux européens ou américains. Ceci est lié aux dynamiques d'urbanisation et à la densité des villes chinoises. Par exemple, les taux d'équipement des ménages pékinois est près de 3 fois plus élevé que celui des ménages à Shanghai, malgré un revenu moyen similaire. Les Cahiers de la Chaire Modélisation prospective au service du développement durable 16 De plus, les VEx permettent de substituer la consommation de pétrole, dont la plus grande partie du prix est constitué par une rente de rareté payée aux producteurs, par une consommation d'électricité produite sur place avec de la main d'oeuvre locale et une forte valeur ajoutée domestique. Dans les scénarios avec politiques climatiques, l'Europe se fixe chaque année un objectif d'émissions de GES qui concerne tous les secteurs de l'économie (y compris le transport). Lorsque les véhicules électriques ne sont pas disponibles, les options d'abattement dans le secteur de l'automobile sont limitées, et le reste de l'économie doit fournir d'autant plus d'efforts. Au contraire, les VEx sont un levier permettant de profiter de la décarbonisation du secteur de l'électricité pour réduire les émissions de GES dans le secteur des transports. La pénétration des VE permet ainsi de réduire les émissions de CO2 des véhicules privés (en g/km) de 2% dès 2020, 9% en 2030 et 30% en 2050 dans les scénarios avec politiques climatiques. De ce fait, à objectif de réduction d'émissions égal, un moindre effort reste à faire par le reste de l'économie. La disponibilité des VEx se traduit alors par une baisse du prix du carbone permettant d'atteindre ces objectifs, de 8% dès le court terme, et d'autour de 20% à plus long terme (voir table 1 et Figure 6). Table 1 Pénétration des VEx dans les scénarios avec politique climatique et effet sur le prix du carbone Lecture : Dans les scénarios avec politiques climatiques et en 2030, la disponibilité accrue des véhicules électrifiés augmente leur part de marché de +11.6%. Cela se traduit, à émissions totales de l'économie constantes, par une baisse de 138 €/tCO2 , soit 21 %, du prix du carbone qui pèse sur l'ensemble de l'appareil productif. Ainsi, la disponibilité des véhicules électriques ne bénéficie pas seulement aux automobilistes (qui font le choix rationnel de s'équiper en fonction des coûts d'achats et des prix de l'énergie), mais profite à l'ensemble des industriels qui font ainsi face à un coût du carbone moindre. Ceci réduit les risques de perte de compétitivité (et de fuites de carbone) en cas de régulation asymétrique des émissions dans un cadre où l'Europe imposerait des objectifs plus ambitieux que le reste du monde, la Chine en particulier. Les Cahiers de la Chaire Modélisation prospective au service du développement durable 17 Figure 6 Effet de la disponibilité des VEx sur le prix du carbone Références An, F. et al., 2007. Passenger Vehicle Greenhouse Gas and Fuel Economy Standards: A Global Update, Washington DC: The international council on clean transportation. Available at: http://www.theicct.org/passenger-vehicles/global-pv-standards-update/. Les Cahiers de la Chaire Modélisation prospective au service du développement durable 18 Politiques publiques chinoises et risques pour la compétitivité européenne Sur les VE, la Chine a mis en oeuvre une politique industrielle ambitieuse dans un but (i) d'indépendance énergétique (ii) de propreté de l'air urbain et (iii) d'avance technologique mondiale sur ce secteur. Ces objectifs, extérieurs aux enjeux environnementaux type GES classiquement mobilisés en occident pour appuyer le développement du VE, sont puissamment financés et coordonnés par le gouvernement chinois. Ils assurent à la Chine et à son industrie un potentiel d'avance industrielle en la matière considérable. La politique industrielle chinoise du VE : outils et coordination étatique En plus des investissements des constructeurs eux-mêmes, le gouvernement a assigné aux secteurs des moyens financiers nationaux (10ème plan quinquennal (2001 - 2005) : 420 millions $ ; 11ème plan quinquennal (2006-2010): 150 millions $, 12ème plan quinquennal (2011-2015): 15 Milliards de $). Ils se décomposent en : Programmes de soutien à la R&D : 570 millions $ de 2001 à 2010 – allocation des aides du 12ème plan quinquennal non encore connues. - Les aides des 10èmes et 11èmes plans quinquennaux concernaient la R&D en batterie (Technos lithium, plomb et fuelcell principalement), en véhicules (hybrides, hybrides rechargeables, véhicules 100% électriques) et systèmes de recharges des véhicules électriques (charge rapide, lente, échange de batteries), les aides prévues par le 12ème plan concernent les même secteurs, mais également les systèmes de monitoring électronique et d'infrastructures de recharges publiques. Subventions 'aux acheteurs' essentiellement de type flotte fléchées vers les constructeurs. Ceci se fait dans 25 villes pilotes (13 initialement (2009), chacune étant initialement un 'bastion' d'un constructeur chiffres. La Chine intérieure s'urbanise extrêmement rapidement ; le profil sociologique des futurs utilisateurs de VE est autant à rechercher dans les 'petites' villes (90 petites villes de 2,5 millions d'habitants) où la mobilité électrique proviendra du leapfrogging du 2 roues électriques (140 millions) que des plus grandes villes ; les politiques d'urbanisme chinoises sont autant de subventions indirectes au VE. En amont du secteur, l'Etat a mis en place une politique d'investissements pour que la Chine soit l'un des acteurs globaux du secteur du Lithium, et attire ainsi (suivant l'exemple des terres rares) une large partie de la filière des batteries. La politique industrielle chinoise du VE : hiérarchisation de ses objectifs La Chine a depuis une décennie des objectifs environnementaux ambitieux (Baisse de l'intensité énergétique du PIB de 40% à 45% entre 2005 et 2020, intégrer au moins 20% Les Cahiers de la Chaire Modélisation prospective au service du développement durable 19 d'énergie renouvelable dans son mix électrique d'ici 2020), renforcés par le 12ème Plan quinquennal (2011-2015). Cependant cet objectif est d'abord servi par les secteurs de l'énergie, manufacturier, construction etc. L'électromobilité est loin d'être l'outil essentiel du fait du contenu carbone du parc électrique actuel. En revanche, la politique d'électromobilité sert d'autres objectifs: Elle sert très directement l'objectif de limiter la dépendance pétrolière nationale. Objectif qui se traduit par (i) Evolution du mix énergétique brut vers une vers un accroissement de la part relative de l'électricité. Cela a entrainé une forte augmentation de la consommation de charbon et s'est traduit par une hausse des importations chinoises de charbon, (le pays est ainsi passé de premier exportateur mondial à premier importateur mondial entre 2007 et 2009). (ii) Modification de la composition du mix électrique : le gouvernement souhaite y limiter la part du charbon et du pétrole au profit d'un renforcement des installations de centrales à gaz, centrales nucléaire mais aussi hydrauliques et éoliennes. (iii) l'essor du Coal to Liquid pour remplacer les usages incompressibles du pétrole. Cet enjeu, d'importance nationale prépondérante depuis une quinzaine, va durer ; cet élément de contexte de soutien au VE est donc pérenne. Le positionnement stratégique industriel High Tech de la Chine. La recherche de compétitivité mondiale dans la propulsion électrique est d'autant renforcée que la Chine a abandonné l'espoir de l'être dans le moteur thermique ; elle accélère ainsi la transition technologique vers son domaine de compétitivité. Il y a une prise de conscience croissante que la stabilité politique du pays dépend en partie du ressenti de la population quant à son environnement local. La pollution atmosphérique urbaine, à 65% générée par les gaz d'échappement, devient un véritable enjeu de santé publique. La population exerce une pression croissante sur le gouvernement pour exiger (i) des indicateurs de pollution plus transparents (ii) des mesures de limitation de la pollution. Soutenabilité financière Les simulations Imaclim suggèrent que les subventions initiales assurent aux constructeurs chinois une courbe d'apprentissage technologique générale qui permet au pays de voire des courbes de pénétration du VE croissantes après arrêt des subventions initiales (au bout de 5 ans) et ce dans la plupart des scénarios macro-énergétiques. Impacts industriels et énergétiques des politiques chinoises pour le monde Sur le plan industriel les constructeurs chinois tirent le développement de la filière VE et à l'amont de la filière Lithium. L'analyse d'économie industrielle conduite par l'Observatoire des Emergents indique une avance possible et croissante de la Chine en termes de coût de développement des batteries (De 600 $/kWh en 2010 à moins de 200 $/kWh en 2015). La politique purement nationale chinoise de promotion du CTL a, compte tenu de la taille de la Chine, le potentiel d'impacter très fortement le cours des prix mondiaux du pétrole. Les Cahiers de la Chaire Modélisation prospective au service du développement durable 20 Au niveau macro-économique, on constate sur les résultats Imaclim une variabilité des prix du pétrole qui est plus fortement impactée par les scénarios purement chinois de CTL que par les scénarios de découverte de nouvelles réserves mondiales. Ceci signifie que, les cours haut du pétrole –qui sont l'un des éléments clé de la rentabilité du VE européen- sont en fait dépendants de décisions purement chinoises. Pour se protéger de ce risque l'Europe doit d'autant plus pousser vers un environnement qui donne de la place à sa compétitivité propre, à savoir un double dividende entre politique carbone ambitieuse. Les Cahiers de la Chaire Modélisation prospective au service du développement durable 21 Les bénéfices obtenus sont uniques dans le cas de l'électrification du parc automobile Le Cired a mené en collaboration avec l'Observatoire des Émergents une étude pour Renault qui compare les contextes macroéconomiques et énergétiques de l'émergence de véhicules électrifiés en Europe et en Chine. Cette étude a permis de quantifier des mécanismes de première importance pour l'évaluation environnementale et économique des véhicules électrifiés (VEx) : 1. En Europe, l'électrification des véhicules représente dès aujourd'hui un bénéfice environnemental en termes de réduction des émissions de gaz à effet de serre. Si des politiques climatiques continuent à être mise en oeuvre, ce bénéfice environnemental sera croissant dans le temps, grâce à la décarbonisation de la production électrique. (fiche «Le bénéfice pour les transports de la décarbonisation du mix électrique »). 2. D'autre part, la disponibilité à grande échelle dans le futur de véhicules électrifiés a une valeur d'option. En particulier, elle permet de réduire le coût moyen futur espéré du système automobile, étant donnés les prix futurs incertains des carburants liquides, de l'électricité et d'une éventuelle taxe carbone (fiche «La disponibilité des véhicules électrifiés, une option réelle du point de vue sociétal »). Elle a également des (co-)bénéfices économiques en termes de compétitivité européenne (fiche « Véhicules électrifiés et compétitivité »). Ces bénéfices sont uniques dans le cas de l'électrification du parc automobile. Cette singularité tient aux particularités du secteur des transports, et de la mobilité en voiture : 1. Le secteur des transports représente aujourd'hui près de 30% des émissions de CO2 en Europe, et il est le seul secteur dont les émissions connaissent encore une croissance rapide (+1% par an). La mobilité de passagers en véhicules particuliers représente une contribution importante à ces émissions et à leur croissance Source : Agence internationale de l'énergie (AIE), World Energy Outlook 2011. 2. La décarbonisation de ce secteur est difficile à mettre en oeuvre pour plusieurs raisons: Les Cahiers de la Chaire Modélisation prospective au service du développement durable 22 a. C'est un secteur diffus. b. Les évolutions de ce secteur sont contraintes par une forte inertie, du fait de la longue durée de vie des infrastructures (routes, infrastructures de transport en commun, forme des villes) et de leur coûts. c. Une partie de la mobilité est captive (i.e. les ménages n'ont pas d'alternative). d. Un éventuel prix du carbone serait très atténué par les importantes taxations préexistantes. En 2010, une taxe carbone de 10€/tCO2 (environ le prix du carbone dans le marché EUETS) entraîne une augmentation de moins de 2c/l, 1.4% en France, 2.4% en moyenne en Europe. 50€/tCO2, +7% en France en 2010, environ +10% en Europe en 2010, estimé à moins de +8% en 2030 (du fait de l'augmentation estimée du prix du baril). e. Les trois points précédents laissent penser qu'un prix du carbone serait peu opérant dans le secteur des transports, en particulier pour la mobilité de passagers. De plus, des questions d'acceptabilité sont en jeu : impact régressif d'une augmentation du coût des carburants, contrainte sur une mobilité captive. f. Les possibilités de substitution sont limitées ou coûteuses, tant du pétrole vers d'autres énergies pour la mobilité que de la mobilité en voiture vers d'autres modes. 3. Le secteur des transports est à l'origine d'une large part de la facture d'importation de pétrole, et se trouve donc au coeur des questions de sécurité énergétique. Les possibilités de substitution du pétrole dans ce secteur étant limitées, cela rend les économies européennes dépendantes aux importations de pétrole, et donc vulnérables à de possibles chocs sur les marchés pétroliers. 4. L'évolution des marchés des carburants liquides n'est pas susceptible de conduire à elle seule à une sortie de la dépendance aux énergies fossiles importées du secteur des transports. En particulier, le développement du « Coal-to-liquid », dont un démarrage est à l'oeuvre en Chine, est de nature à modifier significativement les dynamiques de prix des carburants liquides et à tirer les prix à la baisse. Il existe donc un risque réel de blocage dans des systèmes carbonés, et d'accentuation des questions de sécurité énergétique et de vulnérabilité à des chocs sur les prix. Les Cahiers de la Chaire Modélisation prospective au service du développement durable 23 Chaire Modélisation prospective au service du développement durable Les Cahiers de la Chaire Contact Nadia MAÏZI Directrice du Centre de Mathématiques Appliquées (CMA) MINES ParisTech / CMA Rue Claude Daunesse BP 207 06904 Sophia Antipolis Tel: +33(0)4 97 15 70 79 / Fax: +33(0)4 97 15 70 66 Courriel: nadia.maizi@mines-paristech.fr Jean-Charles HOURCADE Directeur du Centre International de Recherche sur l'Environnement et le Développemenr (CIRED) CIRED Campus du Jardin Tropical 45 avenue de la Belle Gabrielle 94736 Nogent sur Marne Cedex Tel: +33(0)1 43 94 73 63 / Fax: +33(0)1 43 94 73 70 Courriel: hourcade@centre-cired.fr Site Web: http://www.modelisation-prospective.org Contact de la Chaire: contact@mail.modelisation-prospective.org
{'path': '67/hal-enpc.archives-ouvertes.fr-hal-00802401-document.txt'}
Spécimen auteur ÉDITÉ PAR LAURENT COULON ET MÉLANIE CRESSENT ARCHÉOLOGIE FRANÇAISE EN ÉGYPTE RECHERCHE, COOPÉRATION, INNOVATION INSTITUT FRANÇAIS D'ARCHÉOLOGIE ORIENTALE BIBLIOTHÈQUE GÉNÉRALE 59 – 2019 1920_Archeologie_francaise_copyright_IFAO.indd 3 19/12/2019 10:46 Spécimen auteur Sommaire Cartes Avant-propos Préface Tableau chronologique LES GRANDS ACTEURS DE L'ARCHÉOLOGIE FRANÇAISE EN ÉGYPTE v ix xi xii 1 Le cadre institutionnel et la coopération franco-égyptienne en archéologie L'Institut français d'archéologie orientale (Ifao) Le Centre d'études alexandrines (CEAlex) Le Centre franco-égyptien d'étude des temples de Karnak (CFEETK) La Mission archéologique française de Thèbes-ouest (MAFTO) et le Ramesseum Le musée du Louvre L'Institut de recherche pour le développement (IRD) L'Institut national de recherches archéologiques préventives (Inrap) Le mécénat 2 10 22 32 40 48 52 54 56 PANORAMA DES MISSIONS FRANÇAISES EN ÉGYPTE 61 LE CAIRE ET SES ENVIRONS Abou Rawach, nécropole protodynastique M Saqqara (MafS) Tabbet el-Guech 63 64 70 76 LE DELTA ET LES MARGES SEPTENTRIONALES Bouto (Tell el-Fara'in) Kôm Abou Billou Tanis (Tell Sân el-Hagar) Tell el-Iswid Tell el-Samara Tell El-Herr Taposiris Magna et Plinthine (Abousir et Kôm el-Nogous) 83 84 92 98 104 110 114 120 LE FAYOUM Gourob Philadelphie (Kôm al-Kharaba al-Kabir Girza) Tebtynis (Umm-el-Breigât) 127 128 134 140 LA MOYENNE ÉGYPTE Hatnoub Baouît 147 148 154 1920_Archeologie_francaise_copyright_IFAO.indd 7 19/12/2019 10:46 Spécimen auteur VIII archéologie française en égypte LA HAUTE ÉGYPTE Dendara Coptos (Qift/Quft) Qous Kôm Ombo 161 162 170 176 182 LA RÉGION THÉBAINE Médamoud Karnak, sanctuaires osiriens Ermant Deir el-Médina Tombe de Padiamenopé (TT 33) Assassif 189 190 196 202 208 216 222 LE DÉSERT OCCIDENTAL Les oasis occidentales. Introduction Douch (oasis de Kharga) Balat (oasis de Dakhla) Ganoub Qasr el-Agouz (oasis de Bahariya) 229 230 232 234 236 LE DÉSERT ORIENTAL ET LE LITTORAL DE LA MER ROUGE Ouadi Araba Ouadi Sannour Désert oriental : Samut-nord, Bi'r Samut et Abbad Ouadi Abou Soubeira Ayn Soukhna Ouadi el-Jarf 243 244 250 256 262 268 274 1920_Archeologie_francaise_copyright_IFAO.indd 8 19/12/2019 10:46 Spécimen auteur Ermant Le sanctuaire d'Ermant-Hermonthis en Haute Égypte, l'antique Héliopolis du Sud, constituait la plus ancestrale des pierres d'angle du « Palladium thébain », ce rempart théorique élaboré par les théologiens pour protéger la ville d'Amon-Rê. Si les temples de la cité du dieu Montou ont été largement détruits, les ruines subsistantes apportent pourtant un lot d'informations des plus originales. Les premières investigations archéologiques à Ermant ont été menées sous les auspices de l'Egypt Exploration Society par Robert Mond et Oliver Humphrys Myers dans les années 1930-1940, au Buchéum d'une part (catacombes des taureaux sacrés) et sur le site du temple majeur de Montou-Rê d'autre part. À l'arrière du pylône du Nouvel Empire, ils fouillèrent un village copte et mirent partiellement au jour une vaste plateforme de fondation du temple ptolémaïque, résultat de l'épierrement 1920_Archeologie_francaise_copyright_IFAO.indd 202 1. Vue générale du site d'Ermant. © C. Thiers. 19/12/2019 10:52 Spécimen auteur Ermant 203 massif de l'édifice conduit dès le ve s. Les travaux furent ponctuellement poursuivis par le Conseil suprême des antiquités (CSA) dans les années 1980 et 1990, faisant en particulier apparaître un ensemble de cryptes. Sous les auspices de l'Institut français d'archéologie orientale du Caire (Ifao), en 2002 et 2003, deux courtes campagnes menées par Christophe Thiers et Youri Volokhine permirent de copier et de publier les textes de ces cryptes datées de Ptolémée XII Néos Dionysos (80-51 av. J.-C.). Ce n'est qu'à partir de 2004-2005 que les travaux se sont développés pour tenter d'appréhender dans leur globalité les vestiges disséminés dans la ville et proposer une analyse architecturale, topographique et épigraphique des ruines du temple principal du dieu Montou. Parallèlement étaient initiés l'inventaire des blocs disséminés sur le site et un programme de restauration et de conservation des vestiges. 2. Façade du « pronaos » en cours de fouille. © C. Thiers. Nom du site : Ermant/Armant Noms anciens : Jwnw, Jwnw-Šmʿ, Jwnw-Mnt-w ; Hermonthis Responsable du chantier : Christophe Thiers (égyptologue, CNRS, UMR 5140 ASM) Collaborateurs : Sébastien Biston-Moulin (égyptologue, CNRS, UMR 5140 ASM), Pierre Zignani (architecte et archéologue, CNRS, UMR 5060 Iramat-LMC), Lilian Postel (égyptologue, université Lyon 2, UMR 5189 HiSoMA), Romain David (céramologue, SFDAS), Youri Volokhine (égyptologue, université de Genève), Sandra Lippert (démotisante, CNRS, UMR 5140 ASM), Hassan el-Amir (conservateur-restaurateur, Ifao), Émilie Saubestre (photographe, CNRS, USR 3172 CFEETK), Yasmine Bourhim (archéologue, indépendante), Sylvie Marchand (céramologue, Ifao), Damien Laisney (topographe, CNRS, USR 3439 MOM), Olivier Onézime (topographe, Ifao), Mohamed Gaber (topographe, Ifao) Institutions partenaires et sponsors : CNRS, UMR 5140 ASM; MoA ; université Montpellier 3, LabEx ArcHiMedE, programme IA-ANR-11-LABX-0032-01; CNRS, USR 3172 CFEETK; CNRS, UMR 5060 Iramat-LMC ; université Lyon 2, UMR 5189 HiSoMA Dates du chantier : novembre 1920_Archeologie_francaise_copyright_IFAO.indd 203 Principaux résultats La principale originalité de la partie ptolémaïque (naos) du temple d'Ermant est qu'elle présente un niveau de circulation souterrain, dont les espaces (salles, cryptes, couloir mystérieux et caissons de fondation) et les murs principaux permettent d'appréhender l'agencement des salles du temple. Suite à la réalisation d'un plan topographique général, il s'est donc agi d'entreprendre l'analyse de la plateforme de fondation de l'édifice ptolémaïque et romain. Un long processus d'évacuation des débris a conduit à la réalisation d'un premier plan du temple par Pierre Zignani et à son analyse dans le cadre plus général de la construction des derniers grands temples de Haute Égypte. Le plan ainsi que les rapports de proportions sont ainsi étonnamment similaires à ceux du temple de Dendara. La fouille des niveaux de destruction et d'épierrement a également conduit à la découverte de nombreux blocs inscrits et éléments statuaires royaux et privés remployés dans les fondations. Ainsi, nombre de pierres appartenant aux temples du Moyen Empire (étude menée par Lilian Postel) ont été mises au jour ; elles datent principalement d'Amenemhat Ier et constituent le plus important ensemble lapidaire au nom de ce souverain. De nombreux blocs apportent un éclairage sur les développements architecturaux et théologiques du site à la fin de la XVIIe dynastie (stèle au nom de Kamosis) et au Nouvel Empire (étude par Sébastien Biston-Moulin) : monuments de Thoutmosis III et d'Hatchepsout (martelée), texte annalistique, piliers osiriaques de Thoutmosis III et de Séthi II, statuaire privée de la fin de l'époque amarnienne-début de l'époque ramesside, programme de restauration du pylône Nouvel Empire sous Ramsès Ier. En outre, plusieurs blocs aux noms d'empereurs romains (Auguste, Néron, Vespasien, Hadrien) ont été mis au jour. Les niveaux archéologiques atteints au fond des fosses de fondations respectives du naos et du « pronaos » ont révélé la présence de structures en briques crues et de foyers, largement entamés lors de la mise en place des premières assises de fondation. Les ensembles céramiques datent cette occupation de l'Ancien Empire (IVe-VIe dynasties). En bordure du temple, des niveaux du Moyen Empire ont également été repérés. À l'extérieur de l'emprise moderne du site, les travaux concernent la porte d'Antonin le Pieux (« Bab el-Maganîn ») et les nombreux blocs gisant à proximité, de même que l'étude archivistique du mammisi aux noms de Césarion et Cléopâtre VII détruit en 1860-1861. 19/12/2019 10:52 Spécimen auteur 204 La région thébaine 3. Assises de fondation du naos ptolémaïque, arrière du temple. © C. Thiers. Perspectives L'étude d'un site sur la longue durée, de l'Ancien Empire à la période romano-byzantine, c'est-à-dire sur près de trois millénaires, constitue une formidable opportunité pour saisir les évolutions topographiques, architecturales et théologiques d'un temple égyptien majeur de la région thébaine. Les résultats extrêmement stimulants obtenus ces dernières années conduisent à envisager la poursuite du programme Ermant, dont les objectifs se déclinent ainsi : – la poursuite des fouilles apportera une meilleure connaissance de l'histoire d'un temple majeur de Haute Égypte et du territoire qui l'a accueilli ; les analyses architecturales, épigraphiques et céramologiques produiront des données essentielles sur l'évolution du site ; – les ensembles épigraphiques déjà réunis et ceux qui ne manqueront pas d'être révélés par la poursuite des fouilles assureront la production et l'édition de sources hiéroglyphiques inédites (à verser aux études sur l'histoire et les théologies thébaines, la prosopographie, etc.) ; – le projet d'étude du site d'Ermant est volontairement inscrit dans une dimension géographique, au niveau local mais également au niveau régional, en lien avec les sites voisins de la région thébaine, en particulier Tôd, Karnak et Médamoud, trois autres sites majeurs consacrés au dieu Montou-Rê ; – enfin, les recherches épigraphiques et archéologiques sont intimement associées à la préservation et à la mise en valeur du site ; le programme de restauration des blocs épars et des structures en place sera poursuivi, l'accent pouvant être porté sur des projets ponctuels d'anastylose d'ensembles lapidaires. L'étude d'un site sur la longue durée, de l'Ancien Empire à la période romano-byzantine, c'està-dire sur près de trois millénaires, constitue une formidable opportunité pour saisir les évolutions topographiques, architecturales et théologiques d'un temple égyptien majeur de la région thébaine. Christophe Thiers (CNRS, UMR 5140) 1920_Archeologie_francaise_copyright_IFAO.indd 204 19/12/2019 10:52 Spécimen auteur Ermant 205 focus Remplois et dépôts statuaires dans les fondations du temple 4. Déplacement de blocs dans la zone centrale du temple. © C. Thiers. 1920_Archeologie_francaise_copyright_IFAO.indd 205 Au cours de la dernière décennie, le dégagement des niveaux de destruction du temple de Montou-Rê a constitué une longue et fastidieuse activité de la mission. Il s'agissait en particulier de libérer la partie sudouest du temple d'un imposant kôm de déblais de destruction laissé par les archéologues britanniques, qui y avaient installé un Decauville pour évacuer les déblais de fouilles de la cour (village copte). Ce dégagement systématique a mis en évidence différents niveaux d'assises de fondation et les zones particulièrement impactées par les activités des carriers et chaufourniers médiévaux. En plusieurs endroits, la récupération des blocs antiques a atteint le fond de la fosse de fondation du temple. De façon générale, les caissons et les sols du naos daté de Ptolémée XII Néos Dionysos utilisent largement des blocs de calcaire des édifices du Moyen Empire, notamment au nom d'Amenemhat Ier : les remplissages de calcaire se présentent par couches séparées d'une dizaine de centimètres de sable. Quelques blocs de Ramsès II ont également été identifiés dans les murs de grès. La vaste plateforme de fondation (« pronaos »/ terrasse (?)) bâtie devant le naos ptolémaïque livre un grand nombre de blocs aux noms de Thoutmosis III et d'Hatchepsout et, plus sporadiquement, des éléments du Moyen Empire et de la XVIIe dynastie ; les blocs sont ici systématiquement liés au mortier. Lors de la mission de novembre 2013, le nettoyage des niveaux de destruction de la partie centrale et sud-ouest du « pronaos » a été poursuivi. Le secteur était largement épierré. Comme on pouvait s'y attendre, la construction est faite de remplois du Nouvel Empire : les blocs de la façade appartiennent à des parois et des piliers aux noms d'Hatchepsout (figures et noms effacés) et de Thoutmosis III ; deux fragments de statues osiriaques de Séthi II ont également été extraits de la maçonnerie. Bien que d'une utilisation plus difficile, ces éléments statuaires étaient imbriqués dans la maçonnerie, parfois débités et renversés pour mieux s'imbriquer dans la structure. Dans les débris de destruction, au niveau du fond de la fosse de fondation, les travaux ont livré deux statues d'une grande originalité : – une statue originellement acéphale en calcaire de Nebamon (92 cm de haut), surnommé Nyia, scribe et médecin du roi, déjà connu par une statue en granodiorite découverte par Adel Farid : assis sur un siège, il présente un naos qui abrite la figure de Montou-Rê hiéracocéphale. Le naos était originellement pourvu de deux vantaux amovibles (en bois) ; – une statue acéphale en granodiorite de Râmose (68 cm de haut), grand prêtre de Montou d'Ermant : agenouillé, il présente un autel surmonté de deux têtes de faucon, primitivement coiffées d'un disque solaire et des hautes plumes. Les deux formes de Montou, que l'on retrouvera dans les bronzes tardifs et les inscriptions ptolémaïques thébaines, ne sont pas ici clairement individualisées. Ces deux statues de particuliers, exceptionnelles et atypiques par leur iconographie, sont datées stylistiquement (drapés notamment) de la fin de la XVIIIe dynastie-début de la XIXe dynastie (période amarnienne et post-amarnienne). 19/12/2019 10:52 Spécimen auteur 206 La région thébaine 5. Dépôt lapidaire mis au jour dans la fondation du « pronaos ». © J. Maucor. Peu de temps après la mise au jour de ces statues, les travaux dans le même secteur ont donné lieu à une autre découverte d'importance. Dans la partie centrale du « pronaos », au niveau de la première assise de fondation, les bâtisseurs ont procédé à un agencement particulier de la maçonnerie. Les blocs de remplois ont été disposés pour réserver un espace et le réduit ainsi réalisé a été rempli d'éléments statuaires fragmentaires : – cinq têtes royales fragmentaires (env. 70 cm de haut) du Nouvel Empire et trois fragments de la partie sommitale de couronnes blanches, l'un d'eux appartenant à une tête voisine ; – la tête d'une statue de prêtre en granodiorite (19 cm de haut) ; les traits adoucis du visage et les yeux en amande indiquaient une datation amarnienne ou post-amarnienne ; – une stèle en calcaire (22 x 18,5 x 8 cm) d'un certain Ioufâa faisant libation et encensement à Montou-Rê hiéracocéphale ; la surface de la stèle a été en partie arasée puis profondément regravée. Elle date vraisemblablement de la XXIIe dynastie. Probablement détériorés par l'usure du temps, ces éléments ont été mis au rebut mais au coeur de la nouvelle structure en construction, disposés au fond de la fosse de fondation sur une couche de sable gris de rivière, et imbriqués les uns dans les autres pour optimiser au mieux ce modeste réduit. Cet ensemble lapidaire constitue ainsi un véritable dépôt de consécration. Dans le magasin du ministère des Antiquités de Mo'allah, la tête en granodiorite a pu être confrontée à la statue de Râmose découverte quelques jours plus tôt : le grand prêtre de Montou recouvrait ainsi son visage. La présence de cette tête, in situ dans le dépôt, assure que la statue de ce personnage, découverte à peu de distance et au même niveau d'enfouissement, devait également être déposée dans un réduit réalisé dans les premières assises de fondation, et que les carriers ont délaissé. Le même raisonnement peut être appliqué à la statue calcaire de Nebamon dont le remploi est à même d'expliquer le bon état de conservation : dans les niveaux de destruction supérieurs, les rares témoignages statuaires ont en effet été débités et ne sont conservés qu'à l'état fragmentaire. 1920_Archeologie_francaise_copyright_IFAO.indd 206 Bibliographie • C. Thiers, Y. Volokhine, Ermant. I. Les cryptes du temple ptolémaïque. Étude épigraphique, MIFAO 124, Le Caire, 2005. • Y. Volokhine, P. Sanchez, P. Schubert, « Une dédicace grecque de l'époque impériale tardive trouvée à Hermonthis (Ermant, Haute Égypte) », ZPE 174, 2010, p. 127-132. • C. Thiers, « Armant: recent discoveries at the temple of Montu-Re », EgArch 44, 2014, p. 32-35. • P. Zignani, « L'architecture du temple de Montou à Ermant. Essai d'approche typologique et proportion du plan », BIFAO 114, 2014, p. 589-606, en ligne, https:// www.ifao.egnet.net/bifao/114/23/. • S. Lippert, « Varia demotica d'Hermonthis », BIFAO 115, 2015, p. 231-264, en ligne, https:// www.ifao.egnet.net/bifao/115/10/. • L. Postel, « Nouvelles données sur le temple d'Amenemhat Ier à Ermant », BSFE 191-192, 2015, p. 24-38. 19/12/2019 10:52 Spécimen auteur Ermant 207 6. Statues royales et privées après restauration. © J. Maucor. Les statues ont été restaurées au cours d'une mission en mars 2014 et ont rejoint les réserves du Grand Egyptian Museum. Le résultat le plus spectaculaire concerne sans conteste les têtes des colosses, dont les couleurs ont été exceptionnellement bien conservées. Outre la mise en évidence d'un dépôt de consécration particulièrement riche, la découverte de ces deux statues atypiques alimente les recherches sur les personnels du dieu Montou et les pratiques cultuelles dans son temple à la fin de la XVIIIe dynastie-début de la XIXe dynastie. Christophe Thiers (CNRS, UMR 5140) 1920_Archeologie_francaise_copyright_IFAO.indd 207 19/12/2019 10:52
{'path': '16/halshs.archives-ouvertes.fr-halshs-02423032-document.txt'}
Analyse de sensibilité globale d'un modèle spatialisé pour l'évaluation économique du risque d'inondation N. Saint-Geours, C. Lavergne, Jean-Stéphane Bailly, F. Grelot To cite this version: N. Saint-Geours, C. Lavergne, Jean-Stéphane Bailly, F. Grelot. Analyse de sensibilité globale d'un modèle spatialisé pour l'évaluation économique du risque d'inondation. Journal de la Societe Française de Statistique, Societe Française de Statistique et Societe Mathematique de France, 2011, 152 (1), p. 24 - p. 46. hal-00647107 HAL Id: hal-00647107 https://hal.archives-ouvertes.fr/hal-00647107 Submitted on 1 Dec 2011 Author-produced version of the article published in Journal de la Société Française de Statistique, 2011, 152(1), 24-46. The original publication is available at http://revues-sfds.math.cnrs.fr/ojs/index.php/J-SFdS/article/view/55 Journal de la Société Française de Statistique Soumission Analyse de sensibilité globale d'un modèle spatialisé pour l'évaluation économique du risque d'inondation Title: Spatial global sensitivity analysis: case study on the economic modelling of flood risk Nathalie Saint-Geours1,2 , Christian Lavergne2 , Jean-Stéphane Bailly1 et Frédéric Grelot3 Résumé : L'analyse de sensibilité globale peine à se développer dans le champ de la modélisation environnementale. Dans sa formulation initiale, elle est limitée à l'étude de modèles Y = f (X1 , . . . , X p ) où les variables d'entrée X j et la sortie Y sont scalaires, alors que nombre de modèles environnementaux incluent une dimension spatiale marquée, soit qu'ils fassent appel à des cartes comme variables d'entrée, soit que leurs sorties soient distribuées spatialement. Au travers d'une étude de cas détaillée, nous présentons dans cet article une extension de l'analyse de sensibilité globale à l'étude de modèles spatialisés. Le modèle étudié, nommé ACB-DE, est un outil d'évaluation économique du risque d'inondation. Il est ici appliqué sur la basse-vallée de l'Orb (Hérault). Des spécifications spatialisées de l'incertitude sont utilisées pour générer un nombre fini de réalisations aléatoires équiprobables des variables d'entrée qui sont des cartes : les effets de structure spatiale ou d'auto-corrélation dans ces cartes peuvent ainsi être pris en compte. La réalisation de cartes d'indices de sensibilité permet ensuite d'étudier les sorties spatialisées du modèle ACB-DE et de rendre compte de la variabilité spatiale des indices de Sobol. L'influence relative des variables d'entrée à différentes échelles d'étude est analysée par la réalisation de cartes d'indices de sensibilité de résolution croissante. L'analyse réalisée permet d'identifier les variables d'entrée incertaines qui expliquent la plus grande part de la variabilité de l'indicateur économique fourni par le modèle ACB-DE ; elle apporte un éclairage nouveau sur le choix de l'échelle adéquate de représentation spatialisée de cet indicateur selon la précision des variables d'entrée. L'approche proposée pourrait être aisément appliquée à d'autres modèles spatialisés peu coûteux en temps de calcul. Abstract: Variance-based Sobol' global sensitivity analysis (GSA) was initially designed for the study of models with scalar inputs and outputs, while many models in the environmental field are spatially explicit. As a result, GSA is not a common practise in environmental modelling. In this paper we describe a detailed case study where GSA is performed on a spatially dependent model for flood risk economic assessment on the Orb valley (southeast France). Spatial input factors are handled by associating randomly generated map realizations to scalar values sampled from discrete uniform distributions. The realisations of random input maps can be generated by any method including geostatistical simulation techniques, allowing for spatial structure and auto-correlation to be taken into account. The estimation of sensitivity indices on ACB-DE spatial outputs makes it possible to produce maps of sensitivity indices. These maps describe the spatial variability of Sobol' indices. Sensitivity maps of different resolutions are then compared to discuss the relative influence of uncertain input factors at different scales. Mots-clés : sensibilité, Sobol, spatial, inondation Keywords: sensitivity, variance-based, Sobol, spatial, flood Classification AMS 2000 : primaire 62P12 1 2 3 AgroParisTech, UMR TETIS. E-mail : saintge@teledetection.fr and E-mail : bailly@teledetection.fr Institut de Mathématiques et de Modélisation de Montpellier. E-mail : christian.lavergne@univ-montp3.fr Cemagref, UMR G-EAU. E-mail : frederic.grelot@cemagref.fr Soumis au Journal de la Société Française de Statistique File: papierSFdS_final.tex, compiled with jsfds, version : 2009/12/09 date: 15 février 2011 Author-produced version of the article published in Journal de la Société Française de Statistique, 2011, 152(1), 24-46. The original publication is available at http://revues-sfds.math.cnrs.fr/ojs/index.php/J-SFdS/article/view/55 2 Saint-Geours, Lavergne, Bailly et Grelot 1. Introduction Nous présentons dans cet article une application de l'analyse de sensibilité globale basée sur la variance à un modèle dont les variables d'entrée et les sorties sont distribuées spatialement. L'estimation des indices de Sobol est une approche communément développée pour mener l'analyse de sensibilité de modèles de type boîte noire peu coûteux en temps de calcul ; elle s'appuie sur la décomposition de la variance de Y (sortie du modèle) en variances conditionnelles. Dans sa formulation initiale, elle est limitée à l'étude de modèles Y = f (X1 , . . . , Xp ) où les variables d'entrée X j sont scalaires, tout comme la sortie Y . Or, dans le vaste champ de la recherche en environnement, notamment dans l'étude des risques naturels, nombre de modèles incluent une dimension spatiale marquée, soit qu'ils fassent appel à des cartes comme variables d'entrée, soit que leurs sorties soient spatialisées (cartes de risque par exemple). De ce fait, l'analyse de sensibilité basée sur la variance peine à se développer dans ces champs thématiques [4]. Pourtant, une prise en compte explicite des incertitudes dans la modélisation et l'évaluation des risques naturels est indispensable : des décisions importantes concernant l'aménagement du territoire peuvent en effet être prises à l'aide de ces outils. Est-il donc possible d'adapter l'analyse de sensibilité globale à l'étude de modèles spatialisés ? Quel peut être le potentiel d'une telle approche dans la compréhension des aspects proprement spatiaux de ces modèles ? Plusieurs publications apportent des éléments de réponse, que l'on discute dans un bref état de l'art en section 2. On se propose ensuite de combiner deux des approches présentées pour mener à bien l'analyse de sensibilité d'un modèle spatialisé d'évaluation économique du risque d'inondation (modèle ACB-DE, décrit en section 3). On veut répondre à des questions telles que « Quelles variables d'entrée incertaines expliquent la plus grande part de la variabilité des sorties du modèle ACB-DE ? », « Quelle est la variabilité spatiale de la sensibilité des variables d'entrée ? » et « Comment l'échelle d'étude influence-t-elle les résultats de l'analyse de sensibilité ? ». L'approche proposée semble originale dans la mesure où elle combine le traitement de variables d'entrée spatialisées (selon la méthode de Lilburne et Tarantola [13]) et de sorties spatialisées (via des cartes de sensibilité comme proposé par Marrel et al [14]) dans le cadre de l'analyse de sensibilité globale. Elle explore de plus un point non abordé à notre connaissance, qui est l'impact de l'échelle d'étude sur la valeur des indices de Sobol. Elle se limite au cadre de modèles peu coûteux en temps de calcul et ne fait donc pas appel à de la méta-modélisation. Sa mise en oeuvre sur le modèle ACB-DE est présentée en détails en section 4. Les résultats (section 5) illustrent la faisabilité et l'intérêt de l'approche proposée, qui offre un cadre simple pour l'analyse de sensibilité globale de modèles spatialisés. Il est ainsi possible : – d'intégrer des variables d'entrées spatialisées à l'analyse de sensibilité et de spécifier l'incertitude pesant sur chacune d'elles de manière sophistiquée (prise en compte de la corrélation spatiale par exemple) ; – d'établir des cartes de sensibilité pour une sortie Y spatialisée, afin de discuter de la variabilité spatiale des indices de Sobol ; – de comparer l'influence relative des variables d'entrée à différentes échelles, par la réalisation de cartes de sensibilité de résolution croissante. Ces différents points, ainsi que les limites de ce travail et les suites à lui donner, sont discutés en section 6. Soumis au Journal de la Société Française de Statistique File: papierSFdS_final.tex, compiled with jsfds, version : 2009/12/09 date: 15 février 2011 Author-produced version of the article published in Journal de la Société Française de Statistique, 2011, 152(1), 24-46. The original publication is available at http://revues-sfds.math.cnrs.fr/ojs/index.php/J-SFdS/article/view/55 Analyse de sensibilité globale d'un modèle spatialisé pour l'évaluation économique du risque d'inondation 3 2. Analyse de sensibilité globale spatialisée : état de l'art Plusieurs travaux ont déjà apporté des éléments de réponse aux problèmes posés par l'analyse de sensibilité globale d'un modèle spatialisé ; ils se sont intéressés à l'intégration de variables d'entrée spatialisées et à l'étude de sorties spatialisées. On en fait ici un rapide tour d'horizon (2.1 et 2.2), puis l'on présente et l'on justifie les choix qui ont été faits pour notre étude de cas (2.3). 2.1. Méthodes pour l'intégration d'une variable d'entrée spatialisée L'analyse de sensibilité globale telle que présentée dans Sobol et al. [21] suppose que les variables d'entrée Xi sont des variables aléatoires réelles (et indépendantes). Plusieurs travaux ont cherché à lever cette limitation pour intégrer une variable d'entrée Z distribuée spatialement. Groupe de scalaires corrélés Une première approche peut être de considérer une variable d'entrée spatialisée Z comme un ensemble de variables scalaires Z ( j) (par exemple les valeurs d'un champ spatial en tout pixel d'une grille régulière). Cependant, s'il existe une structure spatiale dans la variable d'entrée Z, alors les variables scalaires Z ( j) qui la composent seront corrélées : elles ne pourront être intégrées à l'analyse de sensibilité que sous la forme d'un « groupe de variables », et un indice de Sobol SZ sera estimé pour l'ensemble du groupe (voir le paragraphe 1.2.15 de Saltelli et al. [19] pour une discussion sur l'analyse de sensibilité globale par groupes). Cette approche, utilisée par exemple par Heuvelink et al. [9], devient impraticable dès lors que le nombre K de variables scalaires constituant la variable d'entrée spatialisée Z est trop grand (K 1000). Réduction de la dimension Une approche similaire est de résumer l'information contenue dans la variable d'entrée spatialisée Z en un nombre restreint de variables scalaires Z (1) à Z (k) que l'on peut considérer indépendantes. Ce sont alors ces variables scalaires Z ( j) qui sont échantillonnées indépendamment et pour lesquelles on estime des indices de sensibilité distincts. Cette méthode est employée par Volkova et al. [22] (décomposition de l'aire d'étude en quelques zones indépendantes décrites par des paramètres scalaires) et par Lamboni (section 4.2.4 de [11]) (décomposition de Karhunen-Loève de la variable d'entrée spatialisée Z et estimation des indices de sensibilité des variables aléatoires ξi centrées, réduites et non corrélées issues de cette décomposition). D'autres approches choisissent d'utiliser une spécification plus élaborée de l'incertitude qui pèse sur la variable d'entrée spatialisée Z, en mobilisant par exemple des méthodes géostatistiques, afin de tenir compte de la structure spatiale de l'incertitude. Variable interrupteur L'approche retenue par Crosetto et al. [3] est la suivante : on introduit dans l'analyse de sensibilité une « variable interrupteur » (trigger parameter), notée E, qui suit une loi uniforme dans [0; 1]. Lorsque E < 0.5, la variable d'entrée spatialisée Z conserve sa valeur nominale et lorsque E > 0.5, un champ d'erreur aléatoire est ajouté à la variable d'entrée spatialisée. Ce champ d'erreur peut avoir une structure de covariance spatiale. L'indice de sensibilité SE de la variable scalaire E est alors censé refléter l'influence de l'incertitude de la variable d'entrée spatialisée Z sur la variabilité de la sortie Y . Des réserves ont cependant été émises sur cette méthode, car l'introduction de la variable intermédiaire E rend l'interprétation de l'indice de Sobol SE difficile. Soumis au Journal de la Société Française de Statistique File: papierSFdS_final.tex, compiled with jsfds, version : 2009/12/09 date: 15 février 2011 Author-produced version of the article published in Journal de la Société Française de Statistique, 2011, 152(1), 24-46. The original publication is available at http://revues-sfds.math.cnrs.fr/ojs/index.php/J-SFdS/article/view/55 4 Saint-Geours, Lavergne, Bailly et Grelot Carte scénario Ruffo et al. [16] proposent de génèrer en amont de l'analyse de sensibilité un petit nombre de réalisations aléatoires de la variable d'entrée spatialisée Z par simulation géostatistique. Ces réalisations sont alors considérées comme des scénarii et une analyse de sensibilité distincte, prenant en compte les variables d'entrée autres que Z, est menée pour chaque scénario. Lilburne & Tarantola Lilburne & Tarantola [13] proposent de générer, en amont de l'analyse de sensibilité, un jeu de n réalisations aléatoires de la variable d'entrée spatialisée Z (n possiblement grand). Ces n réalisations sont considérées équiprobables, et chacune est associée à un unique entier entre 1 et n. On introduit alors dans l'analyse de sensibilité une variable d'entrée scalaire Z 0 prenant ses valeurs de manière équiprobable dans l'ensemble [[1, n]]. La valeur prise par Z 0 indique le numéro de la réalisation aléatoire de la variable d'entrée spatialisée Z à utiliser pour simuler le modèle. L'indice de sensibilité SZ 0 de la variable d'entrée Z 0 traduit alors l'influence de l'incertitude de la variable d'entrée spatialisée Z sur la variabilité de la sortie Y . Méta-modèles joints Enfin, Iooss & Ribatet [10] proposent de considérer une variable d'entrée spatialisée Z comme une variable d'entrée fonctionnelle « incontrôlable », opposée aux variables scalaires X = (X1 , . . . , Xp ). Un méta-modèle sur l'espérance conditionnelle E [Y (X, Z) | X] permet d'estimer les indices de sensibilité de premier ordre Si des variables d'entrée scalaires Xi , tandis qu'un méta-modèle sur la dispersion conditionnelle Var [Y (X, Z) | X] permet d'estimer l'indice de sensibilité total STZ de la variable d'entrée fonctionnelle Z. Le cas où plusieurs variables d'entrée fonctionnelles Z j sont présentes peut être traité en prenant Z comme l'ensemble de ces variables, mais l'on ne peut alors pas obtenir un indice de sensibilité distinct ST j pour chaque Z j . 2.2. Méthodes pour l'analyse d'une sortie spatialisée La prise en compte d'une sortie Y spatialisée dans une analyse de sensibilité globale a été peu explorée. Marrel et al. [14] se placent dans le cas où la sortie spatialisée Y du modèle est une grille régulière donnant en tout pixel u une valeur réelle Y (u). Ils proposent d'utiliser des cartes d'indices de sensibilité, où est représenté, en tout point u de la grille et pour chaque variable d'entrée Xi , l'indice de sensibilité « ponctuel » Siu qui décrit l'influence de Xi sur la sortie Y (u). D'autres travaux se sont intéressés à la question plus générale d'une sortie Y multivariée : Lamboni et al. [12] définissent dans ce cadre des « indices de sensibilité généralisés », qui n'ont pour l'instant été appliqués qu'au cas d'une sortie dynamique Y (t). 2.3. Méthode retenue pour l'étude de l'outil ACB-DE On propose dans la suite de ce papier de combiner deux des approches présentées pour mener à bien l'analyse de sensibilité du modèle ACB-DE : on associe le traitement des variables d'entrée spatialisées selon la méthode de Lilburne et Tarantola [13] et l'analyse de sorties spatialisées via des cartes de sensibilité comme proposé par Marrel et al [14]. La méthode proposée explore de plus un point non abordé à notre connaissance, qui est l'impact de l'échelle d'étude sur la valeur des indices de Sobol : on construit pour ce faire des cartes d'indices de sensibilité à des résolutions spatiales croissantes. La mise en oeuvre de cette approche sur le modèle ACB-DE est présentée en détails en section 4. Soumis au Journal de la Société Française de Statistique File: papierSFdS_final.tex, compiled with jsfds, version : 2009/12/09 date: 15 février 2011 Author-produced version of the article published in Journal de la Société Française de Statistique, 2011, 152(1), 24-46. The original publication is available at http://revues-sfds.math.cnrs.fr/ojs/index.php/J-SFdS/article/view/55 Analyse de sensibilité globale d'un modèle spatialisé pour l'évaluation économique du risque d'inondation 5 Le choix de la méthode de Lilburne & Tarantola pour intégrer les variables d'entrée spatialisées s'appuie sur plusieurs arguments. Premièrement, dans notre étude de l'outil ACB-DE sur la basse-vallée de l'Orb, l'une des variables d'entrée spatialisées est représentée par une grille de 3500 × 3500 pixels, soit un total de 12 250 000 pixels : la dimension de cette variable rend impraticable une approche de type « groupe de scalaires corrélés ». Deuxièmement, la méthode « réduction de la dimension » est ici peu adaptée étant donnée la nature multiple de l'incertitude pesant sur l'une des variables d'entrée spatialisée (carte d'occupation du sol), qui rend difficile sa réduction à quelques paramètres scalaires. Troisièmement, le modèle ACB-DE présente trois variables d'entrée distribuées spatialement dont on veut mesurer la sensibilité séparément : on ne peut donc pas utiliser ici l'approche « méta-modèles joints » proposée par Iooss & Ribatet [10]. Enfin, par rapport à l'approche par scénarii proposée par Ruffo et al. [16], la méthode de Lilburne & Tarantola présente l'avantage de pouvoir prendre en compte un grand nombre de réalisations aléatoires de la variable d'entrée spatialisée Z et donc de mieux couvrir l'espace des réalisations possibles (alors que le nombre de scénarii est limité chez Ruffo et al.), et permet de quantifier l'influence de la variable d'entrée spatialisée Z et de ses interactions avec les autres variables. 3. ACB-DE : un outil spatialisé pour l'évaluation économique du risque d'inondation Cette section présente brièvement le modèle ACB-DE et précise les variables d'entrée et les sorties considérées dans l'analyse de sensibilité. 3.1. Présentation L'outil ACB-DE (Analyse Coût-Bénéfice - Dommages Évités) est un outil spatialisé d'évaluation économique des politiques de prévention des inondations. Il s'appuie sur une démarche générique d'analyse coût-bénéfice des mesures de gestion d'un risque naturel, où les bénéfices attendus d'une mesure sont estimés par les dommages qu'elle permet d'éviter. Cette méthode est générale et son implémentation peut différer d'une application à l'autre : nous utilisons dans ce papier les spécifications de l'outil ACB-DE présentées par Erdlenbruch et al [7]. L'outil ACB-DE fournit, entre autres sorties, un indicateur des Dommages Évités Moyens Annualisés, noté DEMA, qui permet de comparer l'efficacité économique de différents aménagements de réduction du risque d'inondation (mise en place de digues, de barrages, etc. . .). Cet indicateur peut être spatialisé, afin de localiser sur le territoire étudié les bénéfices apportés par un aménagement. Le calcul de l'indicateur DEMA s'appuie sur l'estimation des dommages potentiels dus à différents scénarios d'inondation (par exemple une crue décennale, trentennale, cinquantennale, centennale et une crue extrême). Pour estimer les dommages dus à une crue, des données relatives à l'aléa, à l'occupation du sol et à la vulnérabilité des enjeux exposés au risque d'inondation sont croisées. On précise que la phase de modélisation du fonctionnement hydrologique et hydraulique du bassin versant et du cours d'eau n'est pas comprise dans le modèle ACB-DE, elle intervient uniquement en amont et est considérée comme une variable d'entrée du modèle. On définit les Dommages Moyens Annualisés (DMA) comme la somme des dommages dus aux différentes crues simulées, pondérés par la probabilité d'occurrence de chaque crue : DMA = Z ∞ D(T ) Td T dT Soumis au Journal de la Société Française de Statistique File: papierSFdS_final.tex, compiled with jsfds, version : 2009/12/09 date: 15 février 2011 Author-produced version of the article published in Journal de la Société Française de Statistique, 2011, 152(1), 24-46. The original publication is available at http://revues-sfds.math.cnrs.fr/ojs/index.php/J-SFdS/article/view/55 6 Saint-Geours, Lavergne, Bailly et Grelot où D(T ) est le dommage (en euros) associé à la crue de période de retour T et Td est la période de retour de la première crue qui crée des dommages (crue débordante). L'efficacité d'un aménagement de protection contre les inondations est évaluée en mesurant le différentiel entre deux situations : la situation sans aménagement (ou situation actuelle) et la situation avec aménagement (ou situation future). On définit ainsi les DEMA, indicateurs des bénéfices apportés par un aménagement (Figure 1) : DEMA = DMAactuel − DMAfutur Situation sans aménagement de protection Aléa Crue centennale Enjeux tous les enjeux Endommagement Bâti Dommages en fonction de la hauteur de submersion D (euros) Dommages en situation actuelle : DMA actuels 200 150 100 50 60 0 50 0 0 40 0 0 0 20 10 30 0 0 h (cm) Bénéfices apportés par l'aménagement : Situation avec aménagement de protection Aléa réduit Crue centennale Enjeux tous les enjeux DEMA = DMA actuels - DMA futurs Endommagement Bâti Dommages en fonction de la hauteur de submersion D (euros) Dommages en situation future : DMA futurs 200 150 100 50 0 0 60 50 0 0 40 30 0 20 0 10 0 0 h (cm) F IGURE 1. Principe de l'outil Analyse Coût-Bénéfice - Dommages Évités (ACB-DE). Les données utilisées dans ce travail sont issues d'une étude de cas sur la basse vallée de l'Orb, dans l'Hérault [6]. La zone d'étude, d'une superficie de 100 km2 , englobe six communes à l'aval du bassin versant, de Béziers jusqu'à la mer (Figure 2). Ce secteur, qui accueille plus de 15 000 habitants, subit des crues fréquentes et constitue une zone à fort enjeu économique. En 2001, un schéma de protection contre les inondations a été élaboré par le Syndicat Béziers-la-Mer, qui proposait des aménagements de protection : des endiguements rapprochés, le rétablissement des exutoires en mer et l'amélioration de l'hydraulicité dans la traversée de Béziers. L'effet de ces aménagements a été évalué au travers de l'outil ACB-DE. Montpellier l'Orb 34 - Hérault Béziers F IGURE 2. Zone d'étude : la basse vallée de l'Orb dans le département de l'Hérault. Supercifie : 10 000 ha. Soumis au Journal de la Société Française de Statistique File: papierSFdS_final.tex, compiled with jsfds, version : 2009/12/09 date: 15 février 2011 Author-produced version of the article published in Journal de la Société Française de Statistique, 2011, 152(1), 24-46. The original publication is available at http://revues-sfds.math.cnrs.fr/ojs/index.php/J-SFdS/article/view/55 Analyse de sensibilité globale d'un modèle spatialisé pour l'évaluation économique du risque d'inondation 7 3.2. Des variables d'entrée spatialisées Le modèle ACB-DE nécessite six variables d'entrée, notées X0 à X5 (Table 1). Seul X5 est une simple variable d'entrée scalaire. Deux variables d'entrée (X2 et X3 ) désignent chacune un ensemble de variables scalaires, qui sont rassemblées dans un même groupe pour les besoins de l'analyse de sensibilité (voir section 1.2.15 de Saltelli et al [19] pour une discussion sur l'analyse de sensibilité par groupes). Trois variables d'entrée (X0 , X1 et X4 ) sont spatialisées. Le même terme variable d'entrée est utilisé pour désigner ces trois types d'entrée différentes (variable scalaire, groupe de variables scalaires, variable spatialisée). On précise que dans le cadre de ce papier, l'incertitude pesant sur les cartes de hauteurs de submersion (variable X0 ) n'a pas été considérée : cet aspect, complexe, sera exploré dans de futurs travaux. TABLEAU 1. Description des variables d'entrée de l'outil ACB-DE. Nom Nature Description Unité X0 Altitudes d'eau (considéré invariant dans cette étude) Variable spatialisée Pour chaque crue simulée, deux cartes donnant les côtes maximales de la surface submergée, avec et sans projet de protection. Format : grilles 2D de résolution horizontale 5 m. cm X1 Enjeux Variable spatialisée Carte permettant de localiser les enjeux (bâtiments, cultures, etc.) potentiellement exposés au risque d'inondation. Chaque enjeu est décrit par son type, sa surface et son seuil de protection. Format : couche SIG vectorielle. Type : qualitatif Surface : m2 Seuil : cm X2 Périodes Groupe de variables scalaires Table donnant la période de retour de chaque crue simulée : crue débordante, crue décennale, crue trentennale, crue cinquantennale et crue centennale. années X3 Endommagement Groupe de variables scalaires Table donnant pour chaque type d'enjeu les coûts engendrés par une submersion en fonction de la hauteur de submersion. e/m2 X4 MNT Variable spatialisée Modèle Numérique de Terrain donnant l'altitude du sol en tout point de la zone d'étude. Obtenu par stéréophotogrammétrie. Format : grille 2D de résolution horizontale 5 m. m X5 C∞ Variable scalaire Coefficient multiplicatif utilisé pour évaluer les dommages dus à une crue extrême. aucune 3.3. Une variable de sortie spatialisée La variable de sortie considérée est l'indicateur DEMA. Cet indicateur peut être présenté sous deux formes : agrégé sur l'ensemble de la zone d'étude, c'est un scalaire (noté DEMA(tot) ) qui indique les dommages évités totaux sur le territoire ; spatialisé, c'est alors une carte donnant en toute zone du territoire les dommages évités sur cette zone. Plus précisement, on note DEMA(s) [u] le champ spatial donnant l'indicateur DEMA calculé en toute cellule u d'une grille régulière de surface élémentaire s (Figure 3). L'indicateur DEMA est spatialement additif, en ce sens que l'indicateur DEMA défini sur l'union de deux zones disjointes est la somme des DEMA obtenus sur chacune des deux zones. On s'intéresse pour l'analyse de sensibilité à cinq variables de sortie différentes, qui sont cinq formes du même indicateur DEMA : Soumis au Journal de la Société Française de Statistique File: papierSFdS_final.tex, compiled with jsfds, version : 2009/12/09 date: 15 février 2011 Author-produced version of the article published in Journal de la Société Française de Statistique, 2011, 152(1), 24-46. The original publication is available at http://revues-sfds.math.cnrs.fr/ojs/index.php/J-SFdS/article/view/55 8 Saint-Geours, Lavergne, Bailly et Grelot – DEMA(tot) : Dommages Évités Moyens Annualisés agrégés sur l'ensemble de l'aire d'étude (superficie de 10 000 ha) – DEMA(4) [u] : carte des DEMA sur une grille régulière de surface élémentaire s = 4 ha – DEMA(16) [u] : carte des DEMA sur une grille régulière de surface élémentaire s = 16 ha – DEMA(64) [u] : carte des DEMA sur une grille régulière de surface élémentaire s = 64 ha – DEMA(256) [u] : carte des DEMA sur une grille régulière de surface élémentaire s = 256 ha On précise que la résolution s des différentes cartes des DEMA ne constitue pas une variable d'entrée du modèle ACB-DE : il s'agit uniquement d'un choix de représentation spatiale de la sortie du modèle. Une même simulation du modèle ACB-DE permet de générer l'ensemble des cartes DEMA(s) [u] pour s = 4, 16, 64 et 256 ha. Dommages Évités Moyens Annualisés (4) DEMA [u = u 0 ] = -30 € (en euros) < -8000 -8000 à -6000 -6000 à -4000 -4000 à -2000 -2000 à 500 -500 à -1 -1 à 1 1 à 500 500 à 2000 2000 à 4000 4000 à 6000 6000 à 8000 > 8000 Zones bâties Aire d'étude F IGURE 3. DEMA(4) [u] : carte des Dommages Évités Moyens Annualisés sur une grille régulière de surface élémentaire s = 4 ha. En chaque cellule u0 est représentée la valeur de l'indicateur DEMA calculé sur cette cellule, noté DEMA(4) [u = u0 ]. On considère ici que toutes les variables d'entrée prennent leur valeur nominale. 4. Analyse de sensibilité spatialisée du modèle ACB-DE : méthodes L'approche proposée pour l'étude de l'outil ACB-DE est une analyse de sensibilité basée sur la variance, adaptée au cas d'un modèle dont les entrées et les sorties sont spatialisées. La mesure d'importance retenue est le couple (S j , ST j ) des indices de Sobol de premier ordre et totaux. S j représente la part de la variance de Y (sortie du modèle) qui serait supprimée si la variable X j était connue avec certitude. ST j représente la part résiduelle de la variance de Y si toutes les variables sauf X j étaient connues avec certitude. Ces indices sont estimés à partir d'un échantillon aléatoire Soumis au Journal de la Société Française de Statistique File: papierSFdS_final.tex, compiled with jsfds, version : 2009/12/09 date: 15 février 2011 Author-produced version of the article published in Journal de la Société Française de Statistique, 2011, 152(1), 24-46. The original publication is available at http://revues-sfds.math.cnrs.fr/ojs/index.php/J-SFdS/article/view/55 Analyse de sensibilité globale d'un modèle spatialisé pour l'évaluation économique du risque d'inondation 9 de sorties du modèle, qui est simulé en un grand nombre de points de l'espace des variables d'entrée incertaines. On trouvera l'exposé des bases théoriques de l'analyse de sensibilité basée sur la variance ainsi que des précisions sur les différentes méthodes d'estimation des indices de Sobol dans Sobol' [21] et Saltelli et al [19]. L'analyse de sensibilité de l'outil ACB-DE s'est déroulée en trois étapes. Dans un premier temps, on a spécifié l'incertitude pesant sur chaque variable d'entrée. Afin de rendre compte de l'incertitude sur les deux variables spatialisées (X1 , carte des enjeux et X4 , Modèle Numérique de Terrain), deux jeux de n1 = 1000 et n4 = 100 réalisations aléatoires de ces variables ont été générés à partir de spécifications de l'incertitude spatialisée, prenant notamment en compte des effets de corrélation spatiale pour X4 . Dans un second temps, un échantillon de taille C = 28 672 a été constitué afin d'explorer l'espace des variables incertaines X1 à X5 , puis le modèle ACB-DE a été simulé en chaque point de cet échantillon. La variable spatialisée X1 (resp. X4 ) a été intégrée dans cet échantillon en associant un entier compris entre 1 et n1 (resp. n4 ) à chaque réalisation aléatoire préalablement générée de cette variable, ces réalisations étant considérées équiprobables. Dans un dernier temps, les indices de sensibilité de premier ordre et totaux de chaque variable d'entrée X1 à X5 ont été estimés pour la sortie scalaire DEMA(tot) . Pour les sorties spatialisées DEMA(4) [u], DEMA(16) [u], DEMA(64) [u] et DEMA(256) [u], des cartes d'indices de sensibilité ont été construites à différentes résolutions pour chaque variable d'entrée, afin de rendre compte de la variabilité spatiale des indices de sensibilité et de discuter de l'influence relative des variables d'entrée à plusieurs échelles. 4.1. Modélisation des incertitudes Les sources d'incertitude qui affectent les variables d'entrée du modèle ACB-DE sont variées : erreurs de mesure, variabilité naturelle du phénomène représenté, manque de données et de connaissances, choix de modélisation (voir [15] pour une typologie des natures d'incertitude). On choisit ici de faire une description probabiliste de ces incertitudes et les variables d'entrée sont considérées indépendantes entre elles. Afin de rendre compte des incertitudes sur les variables spatialisées, il est fait appel à des modèles d'erreur, géostatistiques ou autres, qui permettent de générer un nombre fini de réalisations aléatoires de ces variables. La Table 2 et la Figure 4 présentent les spécifications de l'incertitude retenues pour chaque variable d'entrée. 4.1.1. Incertitude sur la carte des enjeux La variable d'entrée X1 est une carte vectorielle décrivant les enjeux exposés au risque d'inondation : chaque enjeu y est représenté par un polygône auquel sont associées trois caractéristiques (type, seuil de protection, surface), chacune étant affectée par une nature d'incertitude différente. Type de l'enjeu le processus d'élaboration de la carte d'occupation du sol est entaché d'erreurs de photo-interprétation et de classification qui entraînent de possibles confusions entre les différents types d'enjeux. Pour rendre compte de cette incertitude, une matrice de confusion [8] donne pour chaque paire de types (typea , typeb ) une probabilité de confusion pa,b . Cette matrice de confusion a été construite à dire d'expert, à partir de valeurs communément admises pour des données d'occupation du sol similaires. Soumis au Journal de la Société Française de Statistique File: papierSFdS_final.tex, compiled with jsfds, version : 2009/12/09 date: 15 février 2011 Author-produced version of the article published in Journal de la Société Française de Statistique, 2011, 152(1), 24-46. The original publication is available at http://revues-sfds.math.cnrs.fr/ojs/index.php/J-SFdS/article/view/55 10 Saint-Geours, Lavergne, Bailly et Grelot TABLEAU 2. Nature et spécification de l'incertitude sur les variables d'entrée du modèle ACB-DE. Variable d'entrée X0 Altitudes d'eau X1 Enjeux Nature des incertitudes Spécification de l'incertitude et simulation Incertitudes non prises en compte dans le cadre de cette étude. Erreurs de classification Matrice de confusion Variabilité des seuils de protection Distribution empirique des seuils établie à partir d'un échantillon terrain Erreurs de mesure des sufaces Application d'un coefficient multiplicatif de loi uniforme X2 Périodes Manque de connaissance Distribution uniforme entre Tmin et Tmax . Périodes de retour des différentes crues indépendantes. X3 Endommagement Manque de connaissance Pour chaque type d'enjeu, application d'un correctif multiplicatif aléatoire (1 + εi ). Coefficients εi indépendants, de loi uniforme dans [−0.2; 0.2]. X4 MNT Erreurs de mesure et erreurs d'interpolation Modélisation et simulation géostatistique. X5 C∞ Choix de modélisation arbitraire Distribution triangulaire symétrique (min = 1, max = 3). Seuil de protection le seuil est la hauteur (en cm) de l'éventuelle surélévation du premier plancher qui protège un bâtiment face aux inondations. Suite à une enquête sur le terrain, cinq zones de bâti ont été identifiées sur l'aire d'étude : sur chacune de ces zones, la répartition statistique des seuils a été décrite par un histogramme empirique construit à partir d'un échantillon de bâtiments enquêtés. Surface la surface des polygônes décrivant les enjeux est utile au calcul des dommages, mais est entâchée de multiples incertitudes. Pour en rendre compte, un correctif multiplicatif de surface, compris entre 0 et 1, est tiré dans une loi de probabilité propre à chaque type d'enjeu (Table 3). À partir de cette description probabiliste de l'incertitude qui affecte chacun des trois champs de la carte des enjeux, un jeu de n1 = 1000 réalisations aléatoires de cette carte a été généré. Le choix du nombre de cartes aléatoires générées répond à des contraintes de temps de calcul et X1 X2 X3 X4 p(x) p(x) X5 p(x) p(x) p(x) p(x) x x x p(x) p(x) x x p(x) p(x) x x n1 = 1000 réalisations aléatoires équiprobables Loi de probabilité pour chaque composante du groupe x x x Loi de probabilité pour chaque composante du groupe n 4 = 100 réalisations aléatoires équiprobables Loi de probabilité F IGURE 4. Spécification de l'incertitude sur les variables d'entrée du modèle ACB-DE. Soumis au Journal de la Société Française de Statistique File: papierSFdS_final.tex, compiled with jsfds, version : 2009/12/09 date: 15 février 2011 Author-produced version of the article published in Journal de la Société Française de Statistique, 2011, 152(1), 24-46. The original publication is available at http://revues-sfds.math.cnrs.fr/ojs/index.php/J-SFdS/article/view/55 Analyse de sensibilité globale d'un modèle spatialisé pour l'évaluation économique du risque d'inondation 11 d'espace de stockage disponible : la simulation d'une carte des enjeux coûte environ 5 secondes et le jeu de 1000 réalisations occupe 4 Go. TABLEAU 3. Loi de probabilité du correctif de surface des enjeux Type d'enjeu Loi de probabilité du correctif de surface Bâti Uniforme dans [0.75; 0.85] Activité Uniforme[0.75; 0, 85] × Uniforme[0.4; 0.6] Culture Fixe : 1 Camping Fixe : 1 4.1.2. Incertitude sur le Modèle Numérique de Terrain Le Modèle Numérique de Terrain (variable X4 ) est construit à partir d'un jeu de 50 000 points de référence, répartis sur la zone d'étude, dont l'altitude a été estimée par stéréophotogrammétrie. L'altitude en tout point d'une grille régulière de résolution 5 m a ensuite été interpolée à partir de ce jeu de points de référence. Au moins deux types d'incertitude affectent le MNT : erreurs de mesure aux points de référence, erreurs d'interpolation ailleurs (Wechsler dresse un tableau complet des incertitudes associées aux Modèles Numériques de Terrain [23]). Ces incertitudes sont modélisées par un champ d'erreur aléatoire Gaussien ajouté au MNT initial, selon une méthode proposée par Castrignano [2]. Le MNT initial est ainsi considéré comme une représentation moyenne de la réalité, à laquelle est ajoutée un bruit aléatoire. Une campagne terrain a permis de déterminer les caractéristiques de ce champ d'erreur : des altitudes d'une précision centimétrique ont été relevées par GPS différentiel en 500 points de contrôle répartis sur l'aire d'étude. Sur la base de ces données, la structure spatiale du champ d'erreur aléatoire ∆ a été décrite par un modèle de variogramme exponentiel (portée effective de 500 m, effet de pépite η = 0.02, palier de 0.11 m2 ). Un jeu de n4 = 100 réalisations aléatoires du champ d'erreur ∆ a ensuité été généré selon un algorithme de simulation gaussienne séquentielle [5], conditionnellement aux erreurs relevées aux points de contrôle (outil SGSIM du logiciel SGeMS [1]). Le choix de n4 a été guidé par des considérations de coût en temps de calcul, chaque simulation durant environ 2 minutes. Les champs d'erreur ainsi simulés vérifient les conditions suivantes : – reproduction des valeurs de l'erreur ∆ aux points de contrôle ; – reproduction de la distribution empirique de l'erreur ∆ observée sur les points de contrôle ; – reproduction (en moyenne sur l'ensemble des 100 simulations) du modèle de variogramme du champ d'erreur ∆. Ces champs d'erreur ont ensuite été ajoutés au Modèle Numérique de Terrain initial, pour obtenir un jeu de n4 = 100 MNT bruités, qui sont considérés comme 100 réalisations aléatoires équiprobables de la variable d'entrée X4 (Figure 5). 4.1.3. Incertitude sur les variables non spatialisées La variable d'entrée X2 est un groupe de cinq variables scalaires. Ces variables sont les périodes de retour T de chaque crue étudiée (débordante, décennale, trentennale, cinquantennale, centennale). Soumis au Journal de la Société Française de Statistique File: papierSFdS_final.tex, compiled with jsfds, version : 2009/12/09 date: 15 février 2011 Author-produced version of the article published in Journal de la Société Française de Statistique, 2011, 152(1), 24-46. The original publication is available at http://revues-sfds.math.cnrs.fr/ojs/index.php/J-SFdS/article/view/55 12 Saint-Geours, Lavergne, Bailly et Grelot Altitude (m) <Double-click here to enter title> 4m 0m F IGURE 5. Trois Modèles Numériques de Terrain bruités par addition d'un champ d'erreur Gaussien. Zoom sur une zone de 18 ha. Elles sont supposées indépendantes et sont décrites par des lois uniformes dont les bornes Tmin et Tmax sont données par l'intervalle de confiance à 95 % de l'ajustement de la loi de Gumbel (régression non linéaire) sur la série de débits instantanés de la station hydrométrique de Tabarka (observés de 1967 à 2008), station sur l'Orb en entrée de la zone d'étude (Table 4). La variable d'entrée X3 est un groupe de courbes d'endommagement, au nombre de 45 (une courbe par type d'enjeu). L'incertitude sur chacune de ces courbes est décrite par l'application d'un correctif multiplicatif aléatoire (1 + εi )1≤i≤45 où les εi sont indépendants et suivent une loi uniforme dans [−0.2; 0.2]. Enfin, la variable d'entrée X5 (C∞ ) est supposée suivre une loi de probabilité triangulaire de minimum 1 et de maximum 3. TABLEAU 4. Incertitude sur la variable d'entrée X2 : périodes de retour des crues Crue simulée Débit (m3 .s−1 ) Tmin (années) Tmax (années) Débordante non précisé 3 7 Décennale 929 9.3 10.7 Trentennale 1223 27.0 33.4 Quintennale 1357 44.2 56.6 Centennale 1538 86.3 116.0 4.2. Propagation des incertitudes L'estimation des indices de sensibilité de Sobol s'appuie sur un échantillonnage intensif dans l'espace des variables d'entrée incertaines. L'approche utilisée est celle proposée par Lilburne et Tarantola [13], qui adapte les méthodes de Sobol et Saltelli [21, 19] au cas de variables d'entrée spatialisées. Deux échantillons aléatoires A et B de même dimension p × N sont tirés (p = 5 est le nombre de variables d'entrée, N = 4096 la taille des échantillons). La ième ligne d'un échantillon (i) (i) (i) (i) (i) (A ou B) est un jeu (X1 , X2 , X3 , X4 , X5 ) de variables d'entrée, pour lequel le modèle ACB-DE peut être simulé. La jème colonne de A ou de B est un échantillon de réalisations aléatoires de la (i) variable d'entrée incertaine X j . Pour la variable scalaire X5 , chaque élément X5 est un scalaire, tiré dans la loi de probabilité de X5 . Pour les variables d'entrée X2 et X3 , qui sont des groupes de (i) (i) variables scalaires, chaque élément X2 et X3 est un vecteur dont les composantes sont tirées indépendamment dans leurs lois de probabilité respectives. Soumis au Journal de la Société Française de Statistique File: papierSFdS_final.tex, compiled with jsfds, version : 2009/12/09 date: 15 février 2011 Author-produced version of the article published in Journal de la Société Française de Statistique, 2011, 152(1), 24-46. The original publication is available at http://revues-sfds.math.cnrs.fr/ojs/index.php/J-SFdS/article/view/55 Analyse de sensibilité globale d'un modèle spatialisé pour l'évaluation économique du risque d'inondation 13 Prise en compte des variables d'entrée spatialisées Pour intégrer la variable spatialisée X1 (carte des enjeux) à cet échantillonnage, on considère que la variabilité de X1 est représentée par le jeu de n1 = 1000 réalisations aléatoires de la carte des enjeux qui a été préalablement généré. On considère que ces n1 réalisations sont équiprobables et l'on associe à chacune d'elles un entier (i) compris entre 1 et n1 . Chaque élément X1 des échantillons A et B est alors un entier tiré au hasard entre 1 et n1 : c'est une réalisation d'une variable aléatoire discrète de loi uniforme dans (i) l'ensemble [[1, n1 ]]. La valeur de X1 indique le numéro de la réalisation aléatoire de la carte des enjeux à utiliser pour simuler le modèle pour cette ligne de l'échantillon. Le même principe est utilisé pour la variable spatialisée X4 (Modèle Numérique de Terrain), pour lequel n4 = 100 réalisations aléatoires avaient été préalablement générées. Cette procédure induit un biais dans la prise en compte de l'incertitude sur les variables d'entrée spatialisées X1 et X4 : leur variabilité totale est représentée par un nombre fini de réalisations aléatoires. Cette limitation est due à des considérations pratiques, notamment aux coûts liés à la simulation et au stockage d'un très grand nombre de cartes. On peut cependant noter que dès lors que le nombre n de réalisations aléatoires pré-générées est plus grand que la taille N des échantillons A et B, le biais dû au pré-échantillonnage disparaît, à condition de tirer aléatoirement et sans remise parmi le jeu de cartes pré-générées. Permutations Afin de pouvoir estimer les espérances des variances conditionnelles qui définissent les indices de sensibilité, le modèle ACB-DE doit être simulé en des points où seule l'une (i) (i) (i) (i) (i) des variables X j varie par rapport à un point (X1 , X2 , X3 , X4 , X5 ) où le modèle a déjà été simulé. À cette fin, de nouveaux échantillons sont créés par permutations entre les échantillons A ( j) et B. Pour j allant de 1 à p = 5, on crée une une matrice AB , identique à la matrice A, sauf dans sa jème colonne qui est celle de B (Figure 6, voir [18] pour les détails de cette procédure). ( j) F IGURE 6. Création de l'échantillon AB Simulations du modèle On simule ensuite le modèle ACB-DE pour chacune des lignes des ( j) échantillons A, B, AB (Figure 7). Le nombre total de simulations du modèle est C = (p + 2) × N, soit C = 28 672. Chaque simulation du modèle dure environ 5 secondes : le coût total de cette analyse de sensibilité a été de 40 heures de calcul, réparties sur deux processeurs. Soumis au Journal de la Société Française de Statistique File: papierSFdS_final.tex, compiled with jsfds, version : 2009/12/09 date: 15 février 2011 Author-produced version of the article published in Journal de la Société Française de Statistique, 2011, 152(1), 24-46. The original publication is available at http://revues-sfds.math.cnrs.fr/ojs/index.php/J-SFdS/article/view/55 14 Saint-Geours, Lavergne, Bailly et Grelot (tot) = DEMA (4) [u] = DEMA (16) [u] = DEMA (64) [u] = (256) [u] = DEMA Réalisation aléatoire n°652 X1 = 652 DEMA 12.3 Sorties du modèle X2 = (5.3, 12.8, 53.6, 89.2, 102.5) X3 = (0.21, -0.15, , 0.12, 0.01) Réalisation aléatoire n°15 X4 = 15 Modèle ACBDE X5 = 2.3 Facteurs d'entrée Simulation du modèle F IGURE 7. Simulation du modèle pour une ligne d'échantillon 4.3. Estimation des indices de sensibilité et cartes d'indices de sensibilité La simulation du modèle ACB-DE pour une ligne i d'échantillon permet d'obtenir une valeur pour les cinq sorties étudiées : DEMA(tot) (sortie scalaire) et DEMA(4) [u] à DEMA(256) [u] (sorties spatialisées sur des grilles de résolution s décroissante). À chaque sortie spatialisée DEMA(s) [u] (s = 4 à 256 ha) correspond une liste de sorties scalaires (DEMA(s) [u = u0 ])u0 ∈G(s) , qui donnent l'indicateur DEMA calculé en chaque cellule u0 de la grille G(s) de résolution s. On note de manière générique Y l'une quelconque de ces sorties scalaires (DEMA(tot) ou l'un ( j) des DEMA(s) [u = u0 ]). L'évaluation de Y pour chacune des lignes des échantillons A, B et AB , permet d'obtenir trois vecteurs de taille N, que l'on note YA , YB et YA( j) . On estime alors les indices B de sensibilité de premier ordre et totaux de chacune des variables X j par rapport à Y , notés S j (Y ) et ST j (Y ), selon les expressions (1) et (2) recommandées par Saltelli et al. [18]. Des intervalles de confiance à 90 % sont estimés pour chacun des indices de sensibilité par bootstrap (nombre d'échantillons bootstrap nboot = 100). 1 N Sj = 1 N N (i) N (i) (i) (i) ∑ YB *Y ( j) − N1 ∑ YB *YA A i=1 i=1 B    N (i) N N (i) (i) (i) 1 1 ∑ YA *YA − N ∑ YA * N ∑ YB i=1 i=1 i=1 Soumis au Journal de la Société Française de Statistique File: papierSFdS_final.tex, compiled with jsfds, version : 2009/12/09 date: 15 février 2011 (1) Author-produced version of the article published in Journal de la Société Française de Statistique, 2011, 152(1), 24-46. The original publication is available at http://revues-sfds.math.cnrs.fr/ojs/index.php/J-SFdS/article/view/55 Analyse de sensibilité globale d'un modèle spatialisé pour l'évaluation économique du risque d'inondation 15  2 (i) (i) ∑ YA −Y ( j) AB i=1     N (i) N N (i) (i) (i) 1 1 ∑ YA *YA − N ∑ YA * N ∑ YB 1 2N ST j = 1 N i=1 N i=1 (2) i=1 Réalisation de cartes d'indices de sensibilité Pour chacune des sorties spatialisées DEMA(4) [u] à DEMA(256) [u], on établit des cartes de sensibilité pour chaque variable d'entrée X1 à X5 . Ces cartes sont définies sur la même grille régulière G(s) que la sortie DEMA(s) [u] considérée. La valeur de la carte de sensibilité de la variable X j en une cellule u0 de la grille G(s) est égale à l'indice de sensibilité total ST j (DEMA(s) [u = u0 ]) de cette variable par rapport à la sortie scalaire DEMA(s) [u = u0 ] définie sur cette cellule. On obtient ainsi un jeu de 20 cartes de sensibilité qui traduisent l'influence de l'incertitude des différentes variables d'entrée X1 à X5 sur la variabilité de l'indicateur DEMA à différentes échelles d'étude. On a choisi de ne considérer que les cartes d'indices de sensibilité totaux : en effet, les intervalles de confiance à 90 % sur les indices de sensibilité, calculés par bootstrap, sont ici plus étroits pour les indices totaux que pour les indices de premier ordre, pour la taille N d'échantillon retenue (cette observation empirique n'a pour l'instant pas pu être expliquée). 5. Résultats Variabilité de l'indicateur DEMA(tot) La Figure 8 montre la distribution empirique de l'indicateur DEMA(tot) , obtenue sur l'ensemble des C = 28 672 simulations du modèle ACB-DE. La (tot) moyenne empirique est μDEMA(tot) = 8.63 Me, peu éloignée de la valeur nominale DEMAnom = 8.31 Me, obtenue pour une simulation du modèle où chaque variable d'entrée prend sa valeur nominale. Cette valeur de Dommages Évités Moyens Annualisés est à comparer aux coûts d'investissement initiaux nécessaires à la réalisation des aménagements de protection réalisés sur l'Orb (32 Me), ainsi qu'à leurs coûts annuels d'entretien (1 Me) : ces aménagements s'avèrent économiquement rentables au bout de cinq ans. L'écart-type empirique σ = 1.23 Me montre que la variabilité de l'indicateur DEMA(tot) est forte au regard de la précision raisonnablement attendue par les décideurs. Cependant, DEMA(tot) ne prend sur l'ensemble des simulations que des valeurs positives. S'il est difficile de chiffrer avec une précision convenable les dommages évités sur l'ensemble du territoire, il semble en revanche possible de conclure que les aménagements de protection mis en place sur l'Orb ont un impact positif, puisque qu'ils permettent de réduire les dommages totaux sur le territoire. Indices de sensibilité par rapport à la sortie scalaire DEMA(tot) La Figure 9 montre les indices de sensibilité (de premier ordre et totaux) de chacune des cinq variables d'entrée X1 à X5 par rapport à la sortie scalaire DEMA(tot) . Il apparaît une démarcation claire entre deux groupes de variables. D'un côté, l'incertitude pesant sur les variables Périodes (X2 ) et Endommagement (X3 ) explique plus de 75 % de la variance de DEMA(tot) : S2 + S3 = 0.7625. De l'autre côté, le caractère incertain des variables Enjeux (X1 ), MNT (X4 ) et C∞ (X5 ) n'explique qu'une très faible part de la variabilité de DEMA(tot) : S1 + S4 + S5 < 0.05. La comparaison des indices de premier ordre S j et des indices totaux ST j indique de plus que les interactions des variables Enjeux (X1 ), Soumis au Journal de la Société Française de Statistique File: papierSFdS_final.tex, compiled with jsfds, version : 2009/12/09 date: 15 février 2011 Author-produced version of the article published in Journal de la Société Française de Statistique, 2011, 152(1), 24-46. The original publication is available at http://revues-sfds.math.cnrs.fr/ojs/index.php/J-SFdS/article/view/55 16 0.30 0.10 0.20 Moyenne : 8.63 Ecart type : 1.23 Minimum : 5.85 Maximum : 13.08 0.00 Densité de probabilité Saint-Geours, Lavergne, Bailly et Grelot 6 8 10 12 DEMA (en millions d'euros) F IGURE 8. Densité de probabilité empirique de l'indicateur DEMA(tot) . Estimation par noyau Gaussien. Nombre de simulations : N = 28 672. Taille de la fenêtre de lissage : h = 0.128 Me. Le trait pointillé vertical indique la moyenne empirique, le trait plein la valeur de l'indicateur lorsque toutes les variables d'entrée prennent leur valeur nominale. MNT (X4 ) et C∞ (X5 ) avec les autres variables ne contribuent pas à la variabilité de DEMA(tot) . Seule l'interaction entre les variables Périodes (X2 ) et Endommagement (X3 ) explique une part significative de la variance de l'indicateur : S2,3 ≈ ST2 − S2 ≈ ST3 − S3 ≈ 0.12. Dans une optique de réduction de la variance de l'indicateur DEMA(tot) , il apparaît donc indispensable d'améliorer la précision des deux variables X2 et X3 , tandis qu'aucun effort supplémentaire n'a besoin d'être fait sur les variables X1 , X4 et X5 . 1.0 0.8 0.6 0.0 0.2 0.4 Indice total 0.6 0.4 0.2 0.0 Indice de premier ordre 0.8 1.0 Cartes d'indices de sensibilité La Figure 10 présente les cartes d'indices de sensibilité des cinq variables d'entrée X1 à X5 par rapport à deux sorties spatialisées : DEMA(4) [u] et DEMA(256) [u]. Sur chacune de ces cartes, on observe une variabilité spatiale des indices de sensibilité. À une résolution donnée, l'influence d'une variable incertaine sur la variabilité de l'indicateur DEMA calculé localement (en une cellule de la grille) varie d'une zone à l'autre du territoire. On peut Periodes Endomm. Enjeux 0.5123 0.2502 MNT C_infini 0.01394 0.008377 0.008203 Periodes Endomm. Enjeux 0.6297 0.3507 MNT C_infini 0.007298 0.002197 −4.51e−15 F IGURE 9. Indices de sensibilité de premier ordre S j (gauche) et totaux ST j (droite) des cinq variables d'entrée du modèle ACB-DE par rapport à la variable DEMA(tot) et leurs intervalles de confiance à 90 % estimés par bootstrap. Soumis au Journal de la Société Française de Statistique File: papierSFdS_final.tex, compiled with jsfds, version : 2009/12/09 date: 15 février 2011 Author-produced version of the article published in Journal de la Société Française de Statistique, 2011, 152(1), 24-46. The original publication is available at http://revues-sfds.math.cnrs.fr/ojs/index.php/J-SFdS/article/view/55 Analyse de sensibilité globale d'un modèle spatialisé pour l'évaluation économique du risque d'inondation 17 identifier deux éléments de structuration spatiale majeurs : les effets de bord et la présence de villes (bâti urbain). Sur les marges du territoire étudié, les indices de sensibilité des variables MNT (X4 ) et Enjeux (X1 ) sont plus faibles qu'au coeur de la vallée. Dans les zones urbaines (identifiées sur la Figure 10 par des limites pointillées), les indices de sensibilité des variables Périodes (X2 ) et Endommagement (X3 ) sont plus importants qu'en zone non urbaine, tandis que les indices des variables MNT et Enjeux sont plus faibles qu'en zone non urbaine. Par ailleurs, on observe que les cartes de sensibilité par rapport à la sortie DEMA(4) [u] sont différentes des cartes réalisées par rapport à la sortie DEMA(256) [u]. Pour les variables MNT (X4 ) et Enjeux (X1 ), la carte de sensibilité par rapport à DEMA(256) [u] présente des valeurs globalement moins élevées que la carte de sensibilité par rapport à DEMA(4) [u]. Au contraire, pour les variables Périodes (X2 ) et Endommagement (X3 ), la carte de sensibilité par rapport à DEMA(256) [u] présente des valeurs globalement plus élevées que la carte de sensibilité par rapport à DEMA(4) [u]. Pour la variable C∞ (X5 ), les cartes aux deux résolutions présentent des valeurs d'indices similaires, toutes inférieures à 0.1. Pour permettre une comparaison entre les cartes d'indices de sensibilité aux différentes échelles, on a calculé pour chaque variable d'entrée X j et chaque résolution s (s = 4, 16, 64 et 256 ha) la valeur moyenne de l'indice de sensibilité total ST j (DEMA(s) [u = u0 ]) sur l'ensemble des cellules (s) u0 de la grille G(s) . On note μ j cet indice de sensibilité moyen (3) : (s) μj = 1  * card( u0 ∈ G(s) ) u ∑ ST j (DEMA(s) [u = u0 ]) (3) (s) 0 ∈G (s) La Figure 11 montre que pour chaque variable d'entrée X j , l'indice moyen μ j dépend de (s) manière monotone de la résolution s. Pour les variables MNT (X4 ) et Enjeux (X1 ), μi est une fonction décroissante de la surface élémentaire s : plus l'indicateur DEMA est étudié à des résolutions grossières (s grand), moins sa variabilité est expliquée par l'incertitude sur la carte des enjeux ou le Modèle Numérique de Terrain. Au contraire, pour les variables Périodes (X2 ) (s) et Endommagement (X3 ), μ j est une fonction croissante de la surface élémentaire s : plus l'indicateur DEMA est étudié à des résolutions grossières (s grand), plus est élevée la part de sa variabilité qui est expliquée par l'incertitude sur les périodes de retour et les courbes d'endommagement. Il apparaît ainsi que l'échelle d'étude conditionne la hiérarchie des variables incertaines : à grande échelle (s petit), les variables présentant les plus forts indices de sensibilité sont MNT (X4 ) et Enjeux (X1 ), alors qu'à petite échelle (territoire pris dans son ensemble), les variables dont les indices de sensibilité sont les plus élevés sont Périodes (X2 ) et Endommagement (X3 ). Soumis au Journal de la Société Française de Statistique File: papierSFdS_final.tex, compiled with jsfds, version : 2009/12/09 date: 15 février 2011 Author-produced version of the article published in Journal de la Société Française de Statistique, 2011, 152(1), 24-46. The original publication is available at http://revues-sfds.math.cnrs.fr/ojs/index.php/J-SFdS/article/view/55 18 Saint-Geours, Lavergne, Bailly et Grelot X1 : Enjeux 4 ha X2 : Périodes de retour 4 ha 4 ha augmentation diminution 256 ha X3 : Endommagement 256 ha augmentation 256 ha X5 : C_infini X4 : Modèle Numérique de Terrain Indice de sensibilité total 0.1 0.2 0.4 4 ha 4 ha 0.6 0.8 0.9 pas d'évolution diminution 256 ha 256 ha Zone urbaine 0 5 km $ F IGURE 10. Cartes de sensibilité. Pour chacun des cinq variables X1 à X5 , la carte du haut (resp. du bas) présente la « carte de sensibilité » de la variable X j par rapport à la sortie spatialisée DEMA(4) [u] (resp. DEMA(256) [u]) : sur chaque cellule u0 de la grille régulière de surface s = 4 ha (resp. 256 ha), on représente ST j (DEMA(4) [u = u0 ]) (resp. ST j (DEMA(256) [u = u0 ])), indice de sensibilité total de la variable X j par rapport à la sortie scalaire DEMA(4) [u = u0 ] (resp. DEMA(256) [u = u0 ]). Soumis au Journal de la Société Française de Statistique File: papierSFdS_final.tex, compiled with jsfds, version : 2009/12/09 date: 15 février 2011 Author-produced version of the article published in Journal de la Société Française de Statistique, 2011, 152(1), 24-46. The original publication is available at http://revues-sfds.math.cnrs.fr/ojs/index.php/J-SFdS/article/view/55 1.0 Analyse de sensibilité globale d'un modèle spatialisé pour l'évaluation économique du risque d'inondation 19 s = 4 ha 0.8 s = 16 ha s = 64 ha 0.6 s = 256 ha 0.0 0.2 0.4 Zone totale de 10 000 ha Enjeux Periodes Endommagement MNT C_infini X1 X2 X3 X4 X5 (s) F IGURE 11. Indices de sensibilité moyens μ j . Pour quatre grilles de surface élémentaire s croissante et pour chaque (s) variable d'entrée X j , μ j indique la valeur moyenne de la carte de sensibilité de X j par rapport à DEMA(s) [u]. Pour chaque variable X j , la dernière barre indique la valeur de ST j (DEMA(tot) ) (indice de sensibilité total de X j par rapport à la sortie scalaire DEMA(tot) ). 6. Discussion Ce travail visait à explorer le potentiel de l'analyse de sensibilité globale basée sur la variance pour étudier un modèle peu coûteux en temps de calcul et dont les entrées et les sorties sont spatialisées. L'étude du modèle ACB-DE confirme l'intérêt d'une telle approche : l'analyse menée a conduit à une hiérarchisation des variables d'entrée spatialisées, sur lesquelles des spécifications complexes de l'incertitude avaient été définies ; elle a mis en évidence la variabilité spatiale des indices de sensibilité ; elle a apporté un éclairage nouveau sur les liens entre la sensibilité des différentes variables d'entrée et l'échelle d'étude, échelle à laquelle on utilise les résultats du modèle ACB-DE. Intégrer des variables d'entrée spatialisées à l'analyse de sensibilité La méthode proposée a permis de spécifier des incertitudes spatialisées pour les deux variables X1 (carte des enjeux) et X4 (Modèle Numérique de Terrain) et de les intégrer toutes deux à l'analyse de sensibilité aux côtés de variables scalaires. Les résultats montrent cependant que ces deux variables n'ont qu'une influence négligeable sur la variabilité de l'indicateur DEMA(tot) , la plus grande part de la variabilité étant due à l'incertitude sur deux variables non spatialisées : Périodes (X2 ) et Endommagement (X3 ). L'approche retenue n'est pas limitée à l'intégration de variables d'entrée spatialisées, mais pourrait être appliquée à tout type de variable d'entrée sur laquelle il est nécessaire de spécifier l'incertitude de manière complexe : entrée fonctionnelle, temporelle, etc. . . Le principal défaut de cette approche réside dans le pré-échantillonnage qui est effectué pour les variables d'entrée spatialisées. L'incertitude pesant sur ces cartes est artificiellement représentée par un nombre fini n de réalisations aléatoires, considérées équiprobables. Le choix de n est contraint par des considérations d'ordre technique, telles que le temps de calcul nécessaire à la Soumis au Journal de la Société Française de Statistique File: papierSFdS_final.tex, compiled with jsfds, version : 2009/12/09 date: 15 février 2011 Author-produced version of the article published in Journal de la Société Française de Statistique, 2011, 152(1), 24-46. The original publication is available at http://revues-sfds.math.cnrs.fr/ojs/index.php/J-SFdS/article/view/55 20 Saint-Geours, Lavergne, Bailly et Grelot simulation d'une réalisation aléatoire, ou l'espace disque nécessaire à son stockage. Le biais introduit par cet artifice diminue avec n. Dès que n est supérieur à la taille N des échantillons utilisés pour estimer les indices de Sobol, le biais peut être considéré comme nul (à condition de tirer aléatoirement les cartes pré-générées sans remise). Les autres limites ne sont pas spécifiques à l'approche décrite dans ce papier, mais sont communes aux études basées sur l'estimation des indices de Sobol par des procédures d'échantillonnage de Monte-Carlo : le coût en nombre de simulations est très élevé, potentiellement rédhibitoire pour certains modèles, les variables d'entrée X j doivent être indépendantes entre elles et la variabilité de la sortie est résumée à son seul moment du second ordre. Enfin, il ne faut pas oublier que l'incertitude sur les variables d'entrée, dont dépendent les résultats de l'analyse de sensibilité, est souvent difficile à spécifier par manque de données. Cartes d'indices de sensibilité pour étudier la variabilité spatiale des indices de Sobol La réalisation de cartes de sensibilité permet de mobiliser les indices de Sobol pour étudier une sortie de modèle spatialisée. Ces cartes de sensibilité ont mis en évidence la variabilité spatiale des indices des différentes variables d'entrée par rapport aux sorties DEMA(4) [u], DEMA(16) [u], DEMA(64) [u] et DEMA(256) [u] : les influences relatives des cinq variables d'entrée diffèrent selon que l'on se trouve en zone urbaine ou non, ou bien sur les marges du territoire étudié. On peut par exemple en conclure que l'incertitude affectant les courbes d'endommagement (X3 ) a un plus fort impact sur la précision de l'indicateur DEMA en zones urbaines (identifiées sur la Figure 10 par des limites pointillées) qu'en zone non urbanisée. Ceci peut s'expliquer par le fait que les valeurs d'endommagement pour les enjeux de type bâti ou activités économiques, situés en zones urbaines, sont plus fortes que les valeurs d'endommagement pour les enjeux de type cultures, situés en zones non urbaines : l'introduction d'une même incertitude relative de ±20 % sur toutes les courbes d'endommagement se traduit par une incertitude en valeur absolue plus forte en zone urbaine, et donc par un indice de sensibilité plus grand de la variable X3 . Ces informations sont précieuses et permettront de diriger les futurs efforts de recherche pour l'amélioration de l'outil ACB-DE. Les cartes de sensibilité apparaissent donc comme une nouvelle source d'information, qui reste à exploiter pleinement. Lien entre sensibilité des variables d'entrée et échelle d'étude La réalisation de cartes de sensibilité à différentes résolutions a mis en évidence un lien fort entre les indices de sensibilité des variables d'entrée et l'échelle d'étude, échelle à laquelle on analyse les sorties du modèle ACB-DE. À petite échelle, c'est-à-dire lorsque l'on considère la zone d'étude dans son ensemble, deux variables expliquent la plus grande part de la variance de l'indicateur DEMA : Périodes (X2 ) et Endommagement (X3 ). Ces deux variables sont des groupes de variables scalaires, qui ne sont pas distribuées spatialement. À grande échelle, c'est-à-dire lorsqu'on évalue l'indicateur DEMA sur des cellules de surface s = 4 ha, X2 et X3 jouent un rôle négligable et ce sont les variables Enjeux (X1 ) et MNT (X4 ) qui contribuent majoritairement à la variance de l'indicateur DEMA. Ces deux variables sont elles distribuées spatialement. (s) Le calcul des indices moyens μ j à différentes résolutions apporte une interprétation plus générale : l'indice de sensibilité des variables distribuées spatialement (ici X1 et X4 ) diminue à mesure qu'augmente la taille s de la zone élémentaire sur laquelle on observe l'indicateur DEMA. Un effet de compensation des incertitudes en est responsable : les incertitudes qui affectent les Soumis au Journal de la Société Française de Statistique File: papierSFdS_final.tex, compiled with jsfds, version : 2009/12/09 date: 15 février 2011 Author-produced version of the article published in Journal de la Société Française de Statistique, 2011, 152(1), 24-46. The original publication is available at http://revues-sfds.math.cnrs.fr/ojs/index.php/J-SFdS/article/view/55 Analyse de sensibilité globale d'un modèle spatialisé pour l'évaluation économique du risque d'inondation 21 variables spatialisées sont locales ; lorsqu'une large zone est considérée, ces incertitudes locales se compensent et leur impact relatif par rapport aux autres variables diminue. Symétriquement, l'indice de sensibilité des variables non distribuées spatialement (ici X2 , X3 et X5 ) augmente avec la taille s de la zone élémentaire sur laquelle on observe l'indicateur DEMA. Selon l'échelle à laquelle on observe l'indicateur DEMA, les variables d'entrée qui expliquent sa variabilité ne sont donc pas les mêmes. Ces conclusions ne sont pas spécifiques à l'outil ACB-DE : les effets d'échelles mis en évidence sont communs à tous les modèles spatialisés. L'analyse de sensibilité spatialisée présentée ici constitue un nouvel outil pour explorer quantitativement ces effets liés aux changements d'échelle ; elle peut apporter des réponses à la question « Pour utiliser ce modèle à telle résolution, sur quelles variables d'entrée dois-je porter mon attention en priorité ? ». On notera cependant que cette discussion n'est valable que dans le cas d'une sortie spatialisée additive, telle que l'indicateur DEMA. Perspectives Plusieurs questions doivent maintenant être explorées pour conforter la méthode présentée dans ce papier. Le biais introduit dans l'estimation des indices de sensibilité par le pré-échantillonnage des variables spatialisées devra être quantifié, afin de déterminer la taille n minimale du jeu de réalisations aléatoires à générer. Pour un n fixé, le choix d'un échantillonnage optimal des réalisations aléatoires de cartes est aussi problématique [17] ; des approches telles que celle proposée par Scheidt et al. [20], basée sur une mesure de la « dissimilarité » entre des réalisations géostatistiques, seront étudiées. Enfin, il sera intéressant d'explorer l'influence de la corrélation spatiale interne à chaque variable d'entrée spatialisée, ainsi que l'influence de la résolution spatiale de ces variables d'entrée, sur la valeur de leurs indices de sensibilité. Pour traiter ces questions, on étudiera un modèle spatialisé semblable à l'outil ACB-DE, à l'expression analytique simple. 7. Conclusion On a décrit dans ce papier une application de l'analyse de sensibilité globale basée sur la variance à l'outil spatialisé ACB-DE, qui est un modèle d'évaluation économique du risque d'inondation, utilisé ici sur la basse-vallée de l'Orb (Hérault). L'approche proposée a permis (1) d'intégrer à l'analyse des variables d'entrée spatialisées en spécifiant de manière sophistiquée l'incertitude les affectant (2) d'étudier les sorties spatialisées du modèle ACB-DE par la réalisation de cartes d'indices de sensibilité, qui rendent compte de la variabilité spatiale des indices de Sobol (3) de comparer l'influence relative des variables d'entrée à différentes échelles, par la réalisation de cartes de sensibilité de résolution croissante. Il apparaît que les variables d'entrée spatialisées incertaines (Modèle Numérique de Terrain et carte des enjeux) induisent une forte variabilité dans l'estimation de l'indicateur DEMA à grande échelle, alors que ce sont d'autres variables, non distribuées spatialement (périodes de retour des crues et courbes d'endommagement), qui expliquent la plus grande part de la variance de l'indicateur DEMA à plus petite échelle. L'approche proposée est applicable à un large éventail de modèles spatialisés, à la condition qu'ils soient peu coûteux en temps de calcul. Elle offre de nouvelles perspectives dans la compréhension des liens entre effets d'échelle, incertitudes et sensibilité, questions qui sont propres à ce type de modèles. Des travaux complémentaires sont à mener pour préciser les effets de biais induit Soumis au Journal de la Société Française de Statistique File: papierSFdS_final.tex, compiled with jsfds, version : 2009/12/09 date: 15 février 2011 Author-produced version of the article published in Journal de la Société Française de Statistique, 2011, 152(1), 24-46. The original publication is available at http://revues-sfds.math.cnrs.fr/ojs/index.php/J-SFdS/article/view/55 22 Saint-Geours, Lavergne, Bailly et Grelot par la méthode de représentation de l'incertitude sur les variables spatialisées, pour optimiser l'échantillonnage de réalisations aléatoires de ces variables, ou encore pour mieux comprendre et prédire la structure spatiale des cartes de sensibilité. Références [1] M. B IANCHI et C.M. Z HENG : SGeMS : a free and versatile tool for three-dimensional geostatistical applications. Ground water, 47:8–12, 2009. [2] A. C ASTRIGNANO : Accuracy assessment of digital elevation model using stochastic simulation. In 7th International Symposium on Spatial Accuracy Assessment in Natural Resources and Environmental Sciences, 2006. [3] M. C ROSETTO et S. TARANTOLA : Uncertainty and sensitivity analysis : tools for GIS-based model implementation. International Journal of Geographical Information Science, 15:415–437, 2001. [4] M. D ELGADO et J. S ENDRA : Sensitivity analysis in multicriteria spatial decision-making : a review. Human and Ecological Risk Assessment, 10(6):1173–1187, 2004. [5] C. V. D EUTSCH et A. G. J OURNEL : GSLIB : Geostatistical Software Library and User's Guide. Oxford University Press, New York, 1998. [6] K. E RDLENBRUCH, V. G ERMANO, E. G ILBERT, F. G RELOT et C. L ESCOULIER : Etude socio-économique des inondations sur le bassin versant de l'orb. Rapport technique, Conseil Général de l'Hérault, Programme européen INTERREG III C Sud Europe - INUNDA, 2007. [7] K. E RDLENBRUCH, E. G ILBERT, F. G RELOT et C. L ESCOULIER : Une analyse coût-bénéfice spatialisée de la protection contre les inondations : Application de la méthode des dommages évités à la basse vallée de l'Orb. Ingénieries Eau-Agriculture-Territoires, 53:3–20, 2008. [8] S. H ESSION, A. M. S HORTRIDGE et N. M. T ORBICK : Categorical models for spatial data uncertainty. In 7th International Symposium on Spatial Accuracy Assessment in Natural Resources and Environmental Sciences, 2006. [9] G.B.M. H EUVELINK, S.L.G.E. B URGERS, A. T IKTAK et F.V. D EN B ERG : Uncertainty and stochastic sensitivity analysis of the GeoPEARL pesticide leaching model. Geoderma, 155(3-4):186–192, 2010. [10] B. I OOSS et M. R IBATET : Global sensitivity analysis of computer models with functional inputs. Reliability Engineering and System Safety, 94:1194 – 1204, 2009. [11] M. L AMBONI : Analyse de sensibilité pour les modèles dynamiques utilisés en agronomie et environnement. Thèse de doctorat, Institut des Sciences et Industries du Vivant et de l'Environnement (AgroParisTech), 2009. [12] M. L AMBONI, H. M ONOD et D. M AKOWSKI : Multivariate sensitivity analysis to measure global contribution of input factors in dynamic models. Reliability Engineering and System Safety, 2010. Article in press. [13] L. L ILBURNE et S. TARANTOLA : Sensitivity analysis of spatial models. International Journal of Geographical Information Science, 23(2):151–168, 2009. [14] A. M ARREL, B. I OOSS, M. J ULLIEN, B. L AURENT et E. VOLKOVA : Spatial global sensitivity analysis. Dépôt n°00430171 sur HAL, 2009. [15] J. C. R EFSGAARD, J. P. van der S LUIJS, A. L. H ØJBERG et P. A. VANROLLEGHEM : Uncertainty in the environmental modelling process : A framework and guidance. Environmental Modelling and Software, 22:1543– 1556, 2007. [16] P. RUFFO, L. BAZZANA, A. C ONSONNI, A. C ORRADI, A. S ALTELLI et S. TARANTOLA : Hydrocarbon exploration risk evaluation through uncertainty and sensitivity analysis techniques. Reliability Engineering and System Safety, 91(10-11):1155–1162, 2006. [17] N. S AINT-G EOURS, J.-S. BAILLY, F. G RELOT et C. L AVERGNE : Is there room to optimise the use of geostatistical simulations for sensitivity analysis of spatially distributed models ? In Ninth International Symposium on Spatial Accuracy Assessment in Natural Resources and Environmental Sciences, août 2010. Dépôt n°00470529 sur HAL. [18] A. S ALTELLI, P. A NNONI, I. A ZZINI, F. C AMPOLONGO, M. R ATTO et S. TARANTOLA : Variance based sensitivity analysis of model output. design and estimator for the total sensitivity index. Computer Physics Communications, 181(2):259 – 270, 2010. Soumis au Journal de la Société Française de Statistique File: papierSFdS_final.tex, compiled with jsfds, version : 2009/12/09 date: 15 février 2011 Author-produced version of the article published in Journal de la Société Française de Statistique, 2011, 152(1), 24-46. The original publication is available at http://revues-sfds.math.cnrs.fr/ojs/index.php/J-SFdS/article/view/55 Analyse de sensibilité globale d'un modèle spatialisé pour l'évaluation économique du risque d'inondation 23 [19] A. S ALTELLI, M. R ATTO, T. A NDRES, F. C AMPOLONGO, J. C ARIBONI, D. G ATELLI, M. S AISANA et S. TA RANTOLA : Global Sensitivity Analysis - The Primer. Wiley, 2008. [20] C. S CHEIDT et J. C AERS : Representing spatial uncertainty using distances and kernels. Mathematical Geosciences, 41(4):397–419, 2009. [21] I. M. S OBOL' : Sensitivity analysis for non-linear mathematical models. Mathematical Modelling and Computational Experiment, 1:407–414, 1993. [22] E. VOLKOVA, B. I OOSS et F. VAN D ORPE : Global sensitivity analysis for a numerical model of radionuclide migration from the RRC Kurchatov Institute radwaste disposal site. Stochastic Environmental Research and Risk Assessment, 22(1):17–31, 2008. [23] S. P. W ECHSLER : Uncertainties associated with digital elevation models for hydrologic applications : A review. Hydrology and Earth System Sciences, 11(4):1481–1500, 2007. Soumis au Journal de la Société Française de Statistique File: papierSFdS_final.tex, compiled with jsfds, version : 2009/12/09 date: 15 février 2011
{'path': '61/hal.archives-ouvertes.fr-hal-00647107-document.txt'}
Modélisation des émissions de protoxyde d'azote en biofiltration : cas de la nitrification tertiaire Justine Fiat, Jean Bernier, Vincent Rocher, Mathieu Sperandio, S Gillot, Ahlem Filali To cite this version: Justine Fiat, Jean Bernier, Vincent Rocher, Mathieu Sperandio, S Gillot, et al Modélisation des émissions de protoxyde d'azote en biofiltration : cas de la nitrification tertiaire. 99ème Congrès de l'ASTEE, Jun 2020, Lyon, France. hal-02966440 HAL Id: hal-02966440 https://hal.inrae.fr/hal-02966440 Submitted on 14 Oct 2020 MODELISATION DES EMISSIONS DE PROTOXYDE D'AZOTE EN BIOFILTRATION : CAS DE LA NITRIFICATION TERTIAIRE J. FIAT1, J. BERNIER2, V. ROCHER2, M. SPERANDIO3, S. GILLOT4, A. FILALI1* 1 Université Paris-Saclay, INRAE, PROSE, 92761, Antony, France (ahlem.filali@inrae.fr) SIAAP, Direction Innovation Environnement, 92700, Colombes, France 3 TBI, Universite de Toulouse, CNRS, INRAE, INSA, Toulouse, France 4 INRAE, REVERSAAL, 69625, Villeurbanne, France 2 MOTS-CLES Assainissement, Dénitrification, Gaz à effet de serre, Nitrification, Réacteur à biofilm, Station d'épuration, Traitement biologique de l'azote. CONTEXTE Le protoxyde d'azote (N2O) est un puissant gaz à effet de serre dont le potentiel de réchauffement est équivalent à 300 fois celui du dioxyde de carbone (CO2). Il joue également un rôle clé dans la destruction de la couche d'ozone [1]. Principalement d'origine naturelle (sols et hydrosphère), il est également émis par les procédés de traitement des eaux usées lors du traitement biologique de l'azote par nitrification et dénitrification. Actuellement, le facteur d'émission (3,2 g N2O/EH/an équivalent à 0,037% de la charge entrante en azote), utilisé pour quantifier les émissions directes des stations d'épuration, provient de données acquises sur une seule installation à boues activées d'Amérique du Nord [2]. Si les données d'émission de N2O par les procédés conventionnels à boues activées se sont multipliées ces dernières années, celles des procédés à biomasse fixée, tels que les biofiltres, sont encore très rares. Or, ce procédé de traitement est très répandu en France (130 installations, 20% de la capacité des stations), en particulier dans les grandes agglomérations. Les mesures réalisées sur les biofiltres nitrifiants de la station de Seine Aval (5,5 millions d'EH, Ile de France) indiquent des taux d'émission du N2O bien plus élevés : facteur d'émission = 3,6% en période hivernale et 2,0% en période estivale [3]. De plus, ces émissions -si elles étaient comptabilisées- multiplieraient par 4 le bilan carbone de la file biologique de traitement de l'azote à Seine Aval [4]. Un enjeu émergeant dans le traitement des eaux usées est donc de quantifier et maitriser le N2O émis afin de réduire l'empreinte environnementale des installations. OBJECTIFS Cette étude a été réalisée dans le cadre du programme de recherche Mocopée (http://www.mocopee.com/) avec le support financier de l'ANR [projet N2Otrack 2015-2020, ANR-15-CE04-0014]. Son objectif est d'apporter des informations sur les conditions d'apparition du protoxyde d'azote lors du traitement des eaux résiduaires urbaines par nitrification en biofiltration. A cette fin, un modèle représentant le fonctionnement des biofiltres nitrifiants de la station de Seine Aval [5] a été étendu pour y inclure les principales voies biologiques de production de N2O [6,7]. Les paramètres du modèle ont été calés sur un jeu de données comprenant deux ans de fonctionnement des biofiltres et incluant deux périodes pour lesquelles les flux de N2O ont été mesurés. Sur la base de ces résultats : un facteur d'émission moyen annuel a été proposé, des leviers de réduction des émissions ont été identifiés et un modèle statistique a été établi afin de proposer une nouvelle méthodologie de quantification. BIBLIOGRAPHIE [1] RAVISHANKARA, A.R., DANIEL, J.S., PORTMANN, R.W. 2009. Nitrous Oxide (N2O): The Dominant OzoneDepleting Substance Emitted in the 21st Century. Science, 326(5949), 123-125. [2] CZEPIEL, P., CRILL, P., HARRISS, R. 1995. Nitrous-Oxide Emissions from Municipal Waste-Water Treatment. Environmental Science & Technology, 29, 2352-2356. [3] BOLLON, J., FILALI, A., FAYOLLE, Y., GUERIN, S., ROCHER, V., GILLOT, S. 2016. N2O emissions from full-scale nitrifying biofilters. Water Research, 102, 41-51. [4] FILALI A., BOLLON J., FAYOLLE Y., GUERIN S., ROCHER V., GILLOT S. 2017. Nitrous oxide emissions from fullscale nitrifying and denitrifying BAF reactors. In: Proceedings of 10th IWA conference on Biofilm Reactors, Dublin, Ireland, 9-12 May 2017. [5] BERNIER, J., ROCHER, V., GUERIN, S. & LESSARD, P. 2014. Modelling the nitrification in a full-scale tertiary biological aerated filter unit. Bioprocess and Biosystems Engineering, 37, 289-300. [6] POCQUET, M., WU, Z., QUEINNEC, I. & SPERANDIO, M. 2016. A two pathway model for N2O emissions by ammonium oxidizing bacteria supported by the NO/N2O variation. Water Research, 88, 948-959. [7] Fiat, J., A. Filali, Y. Fayolle, J. Bernier, V. Rocher, M. Spérandio, and S. Gillot. 2019. Considering the plug-flow behavior of the gas phase in nitrifying BAF models significantly improves the prediction of N2O emissions. Water Research, 156:337-346.
{'path': '09/hal.inrae.fr-hal-02966440-document.txt'}
Nanoparticules dans les fibres optiques : amélioration de la luminescence du thulium et contrôle de leurs tailles M Vermillac, Hussein Fneich, J.-F Lupi, M. Cabié, D. Borschneck, Ahmad Mehdi, F Peters, P. Vennegues, T Neisius, C Kucera, et al. To cite this version: M Vermillac, Hussein Fneich, J.-F Lupi, M. Cabié, D. Borschneck, et al Nanoparticules dans les fibres optiques : amélioration de la luminescence du thulium et contrôle de leurs tailles. JNOG, Jul 2017, Limoges, France. hal-01860739 HAL Id: hal-01860739 https://hal.archives-ouvertes.fr/hal-01860739 Submitted on 23 Aug 2018 NANOPARTICULES DANS LES FIBRES OPTIQUES : AMÉLIORATION DE LA LUMINESCENCE DU THULIUM ET CONTRÔLE DE LEURS TAILLES M. Vermillac1,*, Hussein Fneich1,6, J.-F. Lupi1, M. Cabié2, D. Borschneck3, Ahmad Mehdi6, F. Peters1, P. Vennéguès4, T. Neisius2, C. Kucera5, J. Ballato5, W. Blanc1 Université Côte d'Azur, Institut de Physique de Nice, site Valrose, CNRS UMR 7010, Parc Valrose, 06108 Nice Cedex 2, France 2 Université Aix-Marseille - CP2M, Campus St Jérôme, 13397 Marseille cedex 20, France 3 CEREGE, Europôle Méditerranéen de l'Arbois - Avenue Louis Philibert - BP 80 - 13545 AixEn-Provence cedex 04 4 Centre de Recherche sur l'Hétéro-épitaxie et ses Applications, UPR CNRS 10, 06560 Valbonne Sophia Antipolis, France 5 Charles H. Townes Optical Science and Engineering Laboratories, Center for Optical Materials Science and Engineering Technologies (COMSET) and the School of Materials Science and Engineering, Clemson University, Clemson, South Carolina 29634 USA 6 Université de Montpellier, Institut Charles Gerhardt, CMOS, CC 1701 Place Eugène Bataillon 34095 Montpellier Cedex 5, France 1 * Corresponding author: manuel.vermillac@unice.fr RÉSUMÉ L'amélioration des propriétés de luminescence du thulium dans la silice par des nanoparticules ainsi que la limitation des pertes optiques sont discutées. MOTS-CLEFS : nanoparticules, luminescence, MCVD, instabilités capillaires INTRODUCTION Le verre de silice est le matériau le plus communément utilisé pour fabriquer des fibres optiques. Cependant, certaines des propriétés de ce verre (énergie de phonon élevée, faible solubilité des ions luminescents ) sont néfastes pour le développement de nouveaux dispositifs. Une des voies couramment étudiée pour surmonter ces limitations est basée sur l'encapsulation des ions luminescents dans des nanoparticules diélectriques (NPD) [1]. Par exemple, il est possible d'augmenter les transferts d'énergie ou d'élargir la bande spectrale d'émission [2,3]. La présence de nanoparticules induit toutefois de la diffusion de lumière [4]. Il convient donc de trouver un compromis entre les pertes optiques et les modifications spectroscopiques. Dans cette communication, nous nous intéressons aux propriétés de luminescence du thulium 3+ (Tm ) qui possède des émissions d'intérêt pour les télécommunications (1,47 μm) et lasers (810 nm). Nous présenterons l'effet bénéfique de NPDs riches en lanthane sur la luminescence de cet ionainsi que de la diffusion de lumière. Enfin, nous montrerons des résultats d'analyses tomographiques qui mettent en évidence la fragmentation de particules durant le fibrage. Nous conclurons alors sur la possibilité d'utiliser ce phénomène pour contrôler la taille des particules. PARTIE EXPÉRIMENTALE Des nanoparticules de LaF3 (contenant 0.1 % et 1 % de thulium) ont été dispersées dans la couche poreuse de préformes MCVD par la méthode du dopage en solution [5]. Pour comparaison, des préformes ont aussi été préparées à partir d'un dopage à base de TmCl 3, LaCl3 et AlCl3. Les préformes ont été fibrées à environ 2000°C avec des tensions de l'ordre de 0,4-0,5 N. Les échantillons ont été analysés par Microscopie Électronique à Balayage (MEB), Spectrométrie photoélectronique X (XPS), Analyse dispersive en énergie (EDX), et Microsonde de Castaing (EPMA). De plus, une fibre riche en particules a été analysée en tomographie par une technique basée sur du MEB et une sonde ionique focalisée (FIB) [6]. Les concentrations en thulium et les pertes optiques ont été mesurées par la méthode « cut-back ». Les durées de vie de luminescence de la bande à 810 nm ont été mesurées sur une fibre pompée à 785 nm. RÉSULTATS ET DISCUSSIONS Fig. 1 : Durées de vie de luminescence du thulium en fonction de la concentration en lanthane. La Fig. 1 montre l'évolution de la durée de vie de luminescence du niveau 3H4 du thulium (temps pour que I(t)= It=0/e) en fonction de la concentration mesurée en lanthane [7]. Les séries de points proviennent des différentes des recettes de fabrication des échantillons. Les échantillons « 0.1%Tm DNP » et « 1%Tm DNP » sont obtenus par un dopage non standard de nanoparticules de LaF3 (contenant 0.1 et 1 % de thulium). Les échantillons « Solution » sont issus d'un dopage en solution avec des solutions contenant du TmCl 3 et du LaCl3. Les échantillons « Solution+Al » contiennent en plus du AlCl3s. La tendance générale illustrée par cette figure est que le lanthane permet une augmentation de la durée de vie du niveau 3H4. L'aluminium, qui avait été rapporté pour avoir un effet bénéfique sur la durée de vie, induit pourtant une tendance plus faible pour les échantillons « Solutions+Al » [8]. En effet, l'aluminium inhibe totalement la formation de DNP pour ces concentrations et diminue l'impact du lanthane. Les nanoparticules favorisent donc les propriétés de luminescence, mais augmentent aussi les pertes optiques. Celles-ci évoluent entre 0,01 dB/m et 2000 dB/m pour l'échantillon le plus dopé en lanthane. Il est donc primordial de contrôler la taille des nanoparticules afin d'obtenir un compromis entre l'amélioration des propriétés de luminescence et la réduction des pertes optiques. La Fig. 2 présente la reconstruction du coeur d'une fibre optique [9]. Les nanoparticules riches en lanthane sont représentées en jaune. Certaines particules sont très fortement allongées dans le sens de l'étirage, leurs longueurs pouvant dépasser les 5 μm (hauteur de la zone analysée). On observe aussi un signe de coalescence (étiquette « 4 » sur la figure 2) et la présence de chapelets de particules (« 2 »). Ces chapelets sont induits par la fragmentation des particules allongées durant l'écoulement (l'étirage). Ils démontrent la possibilité de modifier la taille des nanoparticules au cours de l'étirage via un procédé « top-down ». Fig. 2 : Reconstruction 3D de particules riche en lanthane dans le coeur d'une fibre optique en silice. L'axe d'étirage est vertical. La largeur du volume reconstruit par FIB/MEB est de 5 μm. CONCLUSION En conclusion, nous avons fabriqué des fibres optiques en silice contenant du lanthane et du thulium. L'effet bénéfique de la présence de nanoparticules a été montré sur les propriétés de luminescence du thulium. Les pertes par diffusion, qui peuvent atteindre 2000 dB/m, montrent l'importance de contrôler la taille des nanoparticules. Nous proposons alors d'utiliser les instabilités capillaires qui apparaissent au cours du fibrage afin de contrôler la taille des nanoparticules et d'améliorer les propriétés spectroscopiques des fibres optiques en silice. REMERCIEMENTS Tous les auteurs tiennent à remercier F. Georgis pour les analyses XPS (Mines-ParisTech CEMEF, Sophia-Antipolis, France) et Michel Fialin (IPGP Camparis, Paris, France) pour les analyses EPMA. Ce travail est financé par l'Agence Nationale de la Recherche, (ANR-14-CE070016-01, Nice-DREAM). REFERENCES [1] W. Blanc, et al., J. Optics 45, (2016) 247-254 [2] C. Kucera et al., Opt. Lett., 34(15), (2009) 2339-2341 . [3] W. Blanc et al., J. Amer. Ceram. Soc., 94(8), (2011) 2315-2318 . [4] H.C. Van de Hulst, Dover Publications, Inc. (1981). [5] J. Townsend, et al., Electron. Lett. 7 (23), (1987) 329e331. [6] L. Holzer, et al., J. Microsc. 216, (2004) 84–95. [7] M. Vermillac, et al, Opt. Mater. 21 (2016, published online). [8] B. Faure, et al., , J. of Non-Cryst. Sol., 353(29), (2007) 2767-2773 . [9] M. Vermillac, et al, J. Amer. Ceram. Soc. (2017, published online).
{'path': '31/hal.archives-ouvertes.fr-hal-01860739-document.txt'}
Elaboration et caractérisations diélectriques de céramiques ferroélectriques et/ou relaxeur de formule MSnO3-NaNbO3(M=Ba,Ca) Abdelhedi Aydi To cite this version: Abdelhedi Aydi. Elaboration et caractérisations diélectriques de céramiques ferroélectriques et/ou relaxeur de formule MSnO3-NaNbO3(M=Ba,Ca). Matériaux. Université Sciences et Technologies Bordeaux I, 2005. Français. tel-00009068 HAL Id: tel-00009068 https://tel.archives-ouvertes.fr/tel-00009068 Submitted on 21 Apr 2005 N° d'ordre 2964 THESE EN CO-TUTELLE Présentée à la Faculté des Sciences de Sfax Pour obtenir le grade de DOCTEUR En Physique Par Abdelhedi AYDI Elaboration et caractérisations diélectriques de céramiques ferroélectriques et/ou relaxeur de formule MSnO3-NaNbO3(M = Ba, Ca) Soutenue le 5 Mars 2005 Après avis de : M. J- Pierre MERCURIO, Professeur Emérite, Université de Limoges, France M. Ali. KALLEL, Professeur, FSS Sfax Rapporteur Rapporteur Devant la commission d'examen formée de : M. Younes. ABID, Professeur, FSS Sfax, M. J- Pierre MERCURIO, Professeur Emérite, Université de Limoges, France M. Ali. KALLEL, Professeur, FSS Sfax M. Jean-Mac HEINTZ, Professeur, ICMCB-CNRS, Bordeaux1 France M. M. MAGLIONE, Directeur de Recherche, ICMCB, Bordeaux1 M. Régnault. VON DER MÜHLL, Chargé de Recherche, ICMCB, Bordeaux1 M. Hamadi. KHEMAKHEM, Maître de Conférences, FSS Sfax -2005- Président Invité Rapporteur Examinateur Examinateur Encadreur Encadreur Remerciement Remerciements Ce travail de recherche est le résultat d'une convention en cotutelle entre la Faculté des Sciences de Sfax et l'Université de Bordeaux1. La présente étude a été réalisée au Laboratoire de Physique Appliquée équipe Ferroélectricité et Conduction Ionique du coté Tunisien et à l'Institut de Chimie de la Matière Condensée de Bordeaux (ICMCB-CNRS) groupe Ferroélectriques du coté Français. Je tiens a exprimer mes sincères remerciements à mon directeur de thèse Monsieur Hamadi KHEMAKHEM, Maître de Conférences à la Faculté des Sciences de Sfax pour l'accueil cordial qu'il m'a réservé, pour ces conseils scientifiques tout au long de ces trois années et pour la confiance qu'il m'a accordée. Je remercie vivement mon directeur de thèse, Monsieur Régnault VON DER MÜHLL, Chargé de Recherche au CNRS, pour avoir assuré la direction de ce travail, et pour m'avoir apporté la rigueur scientifique nécessaire à son bon déroulement, je tiens également à le remercier pour sa gentillesse et sa grande disponibilité. Je remercie vivement Messieurs Jean- Pierre MERCURIO, Professeur Emérite de l'Université de Limoges et Ali KALLEL, Professeur à la Faculté des Sciences de Sfax, d'avoir accepter d'être les rapporteurs de cette thèse. Je leur exprime toute ma gratitude pour l'intérêt qu'ils ont manifesté à l'égard de ce travail et pour leurs appréciations. Je tiens a remercier, Monsieur Younes ABID, Professeur à la Faculté des Sciences de Sfax et directeur du Laboratoire de Physique Appliquée, d'avoir participé à ce jury, en tant que président. Je suis très reconnaissant de l'aide que Monsieur Mario MAGLIONE, Directeur de Recherche à l'ICMCB, m'a apportée aux cours des discussions que nous avons eu et de m'avoir accueilli dans son Laboratoire et accepté de faire partie de mon jury. A Monsieur le Professeur Jean-Mac HEINTZ (ICMCB-CNRS), j'exprime mes remerciements pour sa participation au jury de thèse. A. AYDI 1 Remerciement Je tiens également à remercier Madame Annie SIMON Ingénieur de Recherche à L'ICMCB et Monsieur Chokri BOUDAYA Maître Assistant à la Faculté des Sciences de Sfax, pour leurs conseils scientifiques et leurs aides. Je tiens particulièrement à exprimer mes plus vifs remerciements à Monsieur le Professeur Jean RAVEZ qui a initié ce travail. Je remercie Messieurs Dominique MICHAU (pour les mesures réalisées par Microscope électronique à Balayage (MEB)), Eric LEBREAU et Stanislav PECHEV (pour les mesures de diffraction des rayons X) et Michel COUZI (pour la spectroscopie Raman). Que toute l'équipe ferroélectrique et conduction ionique, M. Ahmed MAALEJ, M. Najmeddine ABDELMOULA, M. Fathi BAHRI, M. Nizar CHABCHOUB, M. Helmi ABDELKEFI, M. Issa KRIAA, M. Zied ABDELKAFI, M. Hassen CHAABANE, Mme Faiza AFFES, et l'équipe du groupe VII , Melle C. ELISSALDE, M. O. BIDAULT, M. V. REYMOND, Melle S. PAYAN, trouvent ici aussi l'expression de mes plus vifs remerciements. Qu'il est bon d'apprendre au contact de gens chaleureux comme vous. J'associe à ces remerciements tous les membres de la Faculté des Sciences de Sfax (FSS) et de l'Institut de Chimie de la Matière Condensée de Bordeaux ( ICMCB), chercheurs, techniciens et personnels administratifs avec qui j'ai eu le plaisir de travailler. Enfin j'aurais une pensée pour ma famille dont le soutien tout au long des ces trois années a été précieux. A. AYDI 2 Dédicace Dédicace Je dédie ce travail A mes parents Aucun mot ne serait témoigner de l'entendu des sentiments que j'éprouve à leur égard Je souhaite que Dieu leur préserve une longue vie. A mes frères et mes soeurs Pour leur encouragement et leur affection A Souad Pour son soutien moral A tous mes collègues et ami(e)s A eux tous, je souhaite un avenir plein de joie, de bonheur et de succèes. A. AYDI 3 A. AYDI 4 Sommaire SOMMAIRE Introduction générale 13 Chapitre I : Généralités I-A Définitions 17 I.A.1 diélectrique 17 I.A.2 isolant 17 I.A.3 céramique 17 I.A.4 Les matériaux paraélectriques 18 I.A.5 Ferroélectricité et piézoélectricité 19 I.B Mécanisme de la polarisation 20 I.C Les pertes diélectriques 22 I.D Relaxations, résonances 23 I.E Conductivité 25 I.F Matériaux antiferroélectriques 25 I.G Caractérisation des matériaux ferroélectriques 25 I.G.1 Etude de la structure en domaines d'un matériau ferroélectrique 27 I.G.2 Structure de type perovskite 27 I.H Le comportement des ferroélectriques classique et relaxeur 30 I.H.1 Mise en évidence expérimentale 30 I.H.2 Origine du comportement relaxeur 32 I.I Etude bibliographique 38 I.I.1 Le titanate de baryum :BaTiO3 38 I.J I.I.2 NaNbO3 41 Techniques liées à la ferroélectricité 42 A. AYDI 5 Sommaire Chapitre II Techniques expérimentales II.A Technologie de fabrication d'une céramique massive 45 II.A.1 Matières premières 46 II.A.2 Mélange. Broyage 46 II.A.3 Chamottage ou calcination 47 II.A.4 Broyage de la chamotte 48 II.A.5 Mise en forme et frittage 48 II.A.6 Densité – Porosité 49 II.B. Caractérisation des solides 51 II.B.1. Microscopie Electronique à Balayage 51 II.B.2 Analyse de la structure cristalline 51 II.C Mesures électriques 52 II.C.1 Analyse par spectroscopie d'impédance 52 II.C.2 Mesures de piézoélectricité 56 II.C.3. Pyroélectricité 65 II.D La spectroscopie Raman 70 Chapitre III Etude du solution solide BaSnO3-NaNbO3 (BSNNx) III. A – Synthèse des poudres et élaboration de céramiques 75 III. A-1 Mélange des poudres 76 III. A-2 Calcination des produits 76 III. A – 3 Contrôle des poudres par diffraction des rayons X 77 III. A-4 Elaboration des céramiques 77 III. A-4.a Mise en forme des poudres 78 III. A-4. b Conditions opératoires du frittage 78 III. A -5 Caractérisation des céramiques 79 III. A -5- a Contrôle des céramiques par diffraction des rayons X III. A-5- b Densité des céramiques frittées 79 79 III. B - Domaine d'existence des solutions solides et paramètres de maille 81 A. AYDI 6 Sommaire III. B-1 Etude cristallochimique 81 III. B-2 Etude Diélectrique 85 III.C Etude spectroscopique par diffusion Raman 96 III. D Conclusion 98 Chapitre IV Etude du solution solide CaSnO3-NaNbO3 (CSNNx) 101 IV.A Préparation par voie solide 101 IV.B Caractérisation diélectrique 104 IV.B. a Mesure de la permittivité diélectrique 104 IV.B.b Limite entre phase ferroélectrique et relaxeur 109 IV.C Mesures pyroélectriques et piézoélectriques 112 IV.D Analyse par diffraction des rayons X sur poudre : Etude structurale 115 IV.E Etude vibrationnelle 127 IV.F Conclusion 132 Conclusion générale et perspectives 137 Références bibliographiques 143. Annexes 149 . A. AYDI 7 A. AYDI 8 Résumé Elaboration et caractérisations diélectriques de céramiques ferroélectriques et/ou relaxeur de formule MSnO3-NaNbO3(M = Ba, Ca) Résumé : Le présent travail porte sur des systèmes chimiques entièrement inédits NaNbO3- (Ba, Ca)SnO3. Les compositions choisies sont donc exemptes de plomb et de tout élément toxique afin de répondre aux normes de protection de l'environnement. Les systèmes étudiés sont susceptibles de présenter des solutions solides continues entre la phase antiferroélectrique NaNbO3 - qui devient aisément ferroélectrique par de faibles substitutions et une phase paraélectrique constituée par le stannate alcalino- terreux. Deux comportements diélectriques différents ont été mises en évidence : ferroélectrique classique et relaxeur. L'ensemble des études effectuées au cours de ce travail confirme que des substitutions cationiques dans le site A ou dans le site B d'une perovskite ABO3 peuvent modifier les propriétés diélectriques du matériau. L'introduction de Sn4+ en site octaédrique favorise un comportement relaxeur. La température de transition peut être modulée en faisant varier la concentration des cations substitués : des matériaux relaxeurs au voisinage de la température ambiante ont ainsi été obtenus. Mots clefs : Céramique Relaxeur Permittivité Polarisation Ferroélectrique Stannate Synthesis and dielectric study of a ceramic ferroelectric or relaxor in the systems MSnO3-NaNbO3(M = Ba, Ca) Abstract: The present work reports the elaboration process and physical investigation of ceramics belonging to the chemical systems NaNbO3 - (Ba, Ca)SnO3. These materials are therefore free of lead and all poisonous elements in order to answer to the protective norms of the environment. The studied systems present some continuous solid solutions between the NaNbO3 antiferroelectric phase - that becomes easily ferroelectric by low rate substitutions and the paraelectric stannate phase . Two different dielectric behavior have been evidenced: ferroelectric and relaxor. According to the whole of studies done during this work one can confirm that cationic substitutions in the A site either in the B site of a perovskite ABO3 can modify the dielectric properties of the material. The introduction of Sn4+ cations in B sites favours a relaxor effect. The transition temperature should be modulated by varying the rate of cationic substitution. One can get so relaxor materials close to room temperature. Keywords: A. AYDI Ceramic Relaxor Permittivity Polarization Ferroelectric Stannate 9 A. AYDI 10 Introduction générale A. AYDI 11 A. AYDI 12 Introduction générale INTRODUCTION GENERALE L'objectif principal de ce travail est l'élaboration et la caractérisation physique de nouvelles céramiques monophasées ferroélectriques ou relaxeur de structure perovskite à base d'étain tétravalent. L'idée de départ de ce travail est une étude antérieure du système BaTiO3 – BaSnO3 dans laquelle Smolensky avait montré que l'insertion du stannate de baryum dans le réseau du titanate de baryum abaisse très fortement la température de Curie ferroélectrique du matériau [1]. Pour des taux de substitution du titane par l'étain dépassant 0.26 il obtient une phase ferroélectrique relaxeur présentant un maximum de permittivité diélectrique intense largement étalé en température et sensible aux variations de la fréquence du champ électrique : ces matériaux sont les premiers ferroélectriques relaxeurs. Le présent travail porte sur des systèmes chimiques entièrement inédits : NaNbO3- (Ba, Ca)SnO3. Les compositions choisies sont donc exemptes de plomb et de tout élément toxique afin de répondre aux normes de protection de l'environnement. Les systèmes étudiés sont susceptibles de présenter des solutions solides continues entre la phase antiferroélectrique NaNbO3 - qui devient aisément ferroélectrique par de faibles substitutions et une phase paraélectrique constituée par le stannate alcalino- terreux. Pour les systèmes étudiés ici, la situation paraît analogue à celle de la solution solide BaTiO3 - BaSnO3 mais dans le cas du niobate de sodium, la température de Curie relativement élevée des dérivés faiblement substitués de NaNbO3 permet d'espérer l'obtention de matériaux relaxeurs à température ambiante. De même, la taille réduite des ions calcium vis-à-vis de l'ion baryum semble de nature à susciter dans les systèmes qui les contiennent des distorsions cristallographiques notables. CaSnO3 est en effet une perovskite de symétrie orthorhombique [2], Notre objectif est donc d'élaborer et de caractériser les céramiques, mais également de relier leurs propriétés ferroélectriques à leur composition et notamment à la nature des substitutions en site A et B, ainsi qu'à leur homogénéité chimique et à leur microstructure. A. AYDI 13 Introduction générale Après un bref rappel sur les transitions de phase dans les perovskites ferroélectriques et leur observation par mesures diélectriques (Chapitre I ), les principales techniques de caractérisation utilisés dans ce travail seront présentées (Chapitre II ). Les compositions étudiées correspondent à la formulation suivante : A1-xNaxSn1-xNbxO3 (A = Ba, Ca 0.80 ≤ x ≤ 0.96). Les poudres sont préparées par réaction en phase solide (calcination) puis, après mise en forme, densifiées par traitement thermique à haute température (frittage) . L'homogénéité chimique, la microstructure et les densités des céramiques obtenues seront déterminées Les céramiques élaborées seront caractérisées par diffraction des rayons X, mesures diélectriques et spectroscopie Raman. La nature des phases ferroélectriques, classique ou relaxeur sera déterminée en fonction de la nature et du degré de substitution à partir des résultats des mesures diélectriques (Chapitres III et IV). Dans un chapitre de conclusion, une comparaison sera faite entre nos résultats et ceux relatifs à d'autres systèmes à base d'étain IV, une perspective sur de futurs développements de ces systèmes sera proposée. A. AYDI 14 Chapitre1 Généralités A. AYDI 15 A. AYDI 16 Chapitre I Généralités Les matériaux ferroélectriques, caractérisés par une forte dépendance de certaines de leurs propriétés avec le champ électrique, les contraintes mécaniques et thermiques appliquées, conduisent à des applications diverses: condensateurs à fortes capacités volumiques, transducteurs, capteurs Ils présentent souvent des propriétés électrooptiques. A côté des techniques classiques d'élaboration par réaction à l'état solide, dont évolution a permis de réduire considérablement les coûts et d'intégrer ainsi ces matériaux dans des dispositifs grand public, se développent des technologies nouvelles de mise en forme. En particulier, de nombreuses études aux Etats-Unis et au Japon sont consacrées à la réalisation de couches minces permettant d'étendre le champ des applications : réalisation de mémoires non volatiles, de guides d'onde optique, de microactuateurs La compréhension et la maîtrise des phénomènes liés à la ferroélectricité, de l'évolution microstructurale et de l'influence des défauts atomiques sur les propriétés des matériaux diélectriques apparaissent indispensables. I-A Définitions. -I.A.1 diélectrique : Contrairement aux métaux, les matériaux diélectriques possèdent des charges électriques localisées qui ne peuvent se déplacer que très faiblement par rapport à leur position d'équilibre(d'où leur propriété d'isolant électrique). -I.A.2 isolant : substance qui a une conductivité électrique suffisamment faible pour être utilisée afin de séparer des pièces conductrices portées à des potentiels différents. On peut considérer comme synonymes les mots isolant et diélectrique. -I.A.3 céramique Le terme céramique évoque souvent des objets rustiques comme des poteries, des briques et des tuiles mais le terme de céramique signifie plus généralement un solide qui n'est ni un métal ni un polymère. Une céramique est un matériau solide de synthèse A. AYDI 17 Chapitre I qui nécessite souvent des traitements thermiques pour son élaboration. La plupart des céramiques modernes sont préparées à partir de poudres consolidées (mise en forme) et sont densifiées par un traitement thermique (le frittage). La plupart des céramiques sont des matériaux polycristallins, c'est à dire comportant un grand nombre de microcristaux bien ordonnés (grains) reliés par des zones moins ordonnées (joins de grains)1 comme illustré en figure.I. 1. Figure.I.1. Microstructure typique d'une surface céramique polie qui illustre les grains monocristallins, joints de grains et pores. -I.A.4 Les matériaux paraélectriques : Parmi les diélectriques, certains matériaux sont dits polarisables : sous l'action d'un champ électrique, leurs charges positives se déplacent selon la direction du champ et leurs charges négatives selon la direction opposée, créant des dipôles électriques +/- orientés parallèlement au champ. Une fois le champ électrique annulé, les charges reprennent leur position d'équilibre et la polarisation disparaît. Ce sont des matériaux paraélectriques. D'autres propriétés peuvent être observées pour des matériaux polarisables ayant une symétrie particulière. En effet l'agencement des charges, qui est régie par la symétrie du matériau, influe sur les possibilités de mouvement de ces charges. Ainsi les caractères piézoélectrique, pyroélectrique et ferroélectrique ne sont observés que pour certaines symétries de cristaux Tableau.I.1 [3]. A. AYDI 18 Chapitre I Propriétés optiques Système cristallin centro-symétrique Classe de symétrie Non centrosymétrique non piézoélectrique biaxe triclinique monoclinique orthorhombique quadratique -1 2/m mmm 4/m 4/mmm uniaxe trigonal hexagonal isotrope cubique -3 6/m m3 -3/m 6/mmm m3m 432 piézoélectrique non polaire polaire/ pyroélectrique 1 2 m 222 mm2 -4 422 – 4 4mm 42m 32 3 3m -6 –6m2 6 6mm 622 23 -43m Tableau I.1 propriétés des cristaux suivant leur symétrie ponctuelle -I.A.5 Ferroélectricité et piézoélectricité La symétrie des cristaux est responsable de leurs propriétés structurales et physiques, en particulier leurs propriétés diélectriques, élastiques, piézoélectriques, ferroélectriques et optiques. La symétrie macroscopique d'un cristal appartient à l'un des 32 groupes ponctuels parmi lesquels 11 sont centrosymétriques : les cristaux appartenant à ces groupes ne peuvent présenter aucune polarisation. Parmi les 21 classes non centrosymétriques, 20 permettent un effet piézoélectrique : c'est à dire qu'un champ électrique induit une déformation ou qu'une contrainte mécanique entraîne une polarisation. Parmi les 20 groupes qui permettent l'effet piézoélectrique, 10 d'entre eux possèdent un axe polaire unique. De tels cristaux sont dits polaires dans le mesure ou ils sont le siége d'une polarisation spontanée ; ils peuvent être décrits, dans un certain domaine de température, par un ensemble d'anions et de cations dont les positions d'équilibre sont telles que leurs barycentres respectifs sont disjoints, donnant naissance à un moment dipolaire. A. AYDI 19 Chapitre I Toutefois, bien qu'un cristal possédant des axes polaires soit piézoélectrique, il peut ne pas être le siége d'une polarisation spontanée si la somme des moments dipolaires le long de l'ensemble de ces axes est nulle. Aussi seuls les cristaux à axe polaire unique présenteront une polarisation spontanée Ps le long de cet axe. Cette polarisation spontanée varie avec la température : les cristaux correspondants se chargent si leur température varie, ils sont pyroélectriques [4-9]. Parmi les cristaux pyroélectriques certains sont caractérisés par la possibilité d'une réorientation ou d'un renversement de la direction de polarisation spontanée sous l'action d'un champ électrique externe, ces cristaux sont appelés ferroélectriques. La variation de leur polarisation en fonction du champ n'est pas linéaire. Si le champ électrique appliqué est alternatif , la polarisation décrit un cycle d'hystérèsis (Figure. I.2). Figure.I.2 cycle d'hystérésis ferroélectrique Le cycle est caractérisé par la polarisation à saturation ( égale à la polarisation spontanée dans le cas idéal), la polarisation rémanente Pr (polarisation à champ nul) et le champ coercitif Ec (champ électrique appliqué nécessaire à l'annulation de la polarisation). Les ferroélectriques appartiennent donc à la classe des matériaux présentant la symétrie d'un des 10 groupes ponctuels : 1, m, 2, 2mm, 3, 3m, 4, 4mm, 6 et 6mm. I.B Mécanisme de la polarisation : Un corps isolant possède des dipôles électriques dont le moment à pour expression : A. AYDI 20 Chapitre I μ = Q.d Q : charge ponctuelle d : distance séparant les 2 charges L'application d'un champ électrique tend à aligner ces dipôles dans la direction du champ. Le vecteur polarisation P correspond en intensité, dans le cas d'un diélectrique polarisé, à la densité de charges liées à la surface des armatures. La polarisation est le résultat de plusieurs contributions ( tableau.I. 2 ) [3]. D urée d'établissem ent 10 -14 à 10 -16 s T ype de Polarisabilité En l'absence de champ E=0 Sous cham p électrique E AE D éplacement du centre d'inertie du nuage électronique par rapport au centre d'inertie du noyau des atom es N uage électronique Electronique N oyau 10 -10 à 10 -13 s 10 -9 à 10 -3 s 10 -5 à 10 +3 s Ionique ou Atomique Charge d'espace ou Interfaciale D éplacem ent relatif d'ions de charges opposées les uns par rapport aux autres créant des dipôles C ation Anion D éplacement de dipôles perm anents (m olécules par exemple) qui s'orientent pour être parallèle au champ (rare dans le cas de matériaux cristallins) M olécule polaire D ipolaire G rain - une contribution électronique - une contribution ionique - une contribution dipolaire - une contribution interfaciale D escription + -- + - + -- ++ - ++ - + - + + ++ -- + - + - + + - + - + - ++ - + - + - + D éplacem ent de porteurs libres qui se concentrent aux défauts, lacunes, im puretés, joints de grains, surfaces, etc créant une polarisation aux interfaces Pour des matériaux linéaires la polarisation est proportionnelle au champ appliqué (s'il n'est pas trop important) : Pk=ε0 *χkj *Ej où χkj est le tenseur de susceptibilité électrique et ε0 la A. AYDI 21 Chapitre I permittivité du vide ( ε0 ≈ 8.854*10-12 F*m-1). Ce tenseur se réduit à un scalaire χ pour des matériaux isotropes et homogènes (cas d'une céramique non orientée) et l'équation devient : r r P = ε0 ⋅ χ ⋅ E La permittivité relative ε r s'obtient en combinant cette équation à la définition du vecteur r induction électrique D et aux équations de Maxwell : r r ⎧D = ε0 ⋅εr ⋅ E ⎪⎪ r r r ⎨D = ε 0 ⋅ E + P ⇒ ε r = 1 + χ r ⎪r ⎪⎩P = ε 0 ⋅ χ ⋅ E La permittivité diélectrique ε, abusivement appelée aussi constante diélectrique, est le produit de la permittivité du vide ε0 par la permittivité relative ε : r ε = ε0 ⋅εr La valeur de ε est caractéristique d'un matériau diélectrique et peut se déduire de mesures électriques capacitives. Pour un condensateur plan (Figure.I.3), la capacité C mesurée dépend linéairement de la permittivité ε suivant la relation : C =ε ⋅S e e : épaisseur S : surface Figure.I.3 Schéma d'un condensateur plan. Comme détaillé ci-dessous, la permittivité peut varier avec la température, la fréquence et l'amplitude du champ électrique d'excitation, les contraintes extérieures, etc I.C Les pertes diélectriques r r Si on excite un matériau diélectrique par un champ électrique sinusoïdal: E = E 0 ⋅ e iωt . Compte tenu de la durée d'établissement de la polarisation, un retard ou déphasage δ r (dépendant de la pulsation ω) peut apparaître entre le champ électrique appliqué E et la A. AYDI 22 Chapitre I r r polarisation induite P = P0 ⋅ e i (ωt −δ ) . Nécessairement l'induction électrique sera sinusoïdale avec le même retard δ par rapport au champ appliqué : r r r D = D0 ⋅ e i (ωt −δ ) = ε 0 ⋅ ε * r (ω ) ⋅ E Pour un matériau linéaire homogène isotrope, la permittivité est une grandeur complexe, fonction de la pulsation ω (ou de la fréquence) : ε * r (ω ) = ε r (ω = 0) ⋅ e iδ = ε ' (ω ) + i ⋅ ε " (ω ) ⎧ε ' (ω ) = ε r (ω = 0) ⋅ cos δ avec ⎨ε " (ω ) = ε (ω = 0) ⋅ sin δ r ⎩ Le rapport de ε " (ω ) par ε ' (ω ) exprime un coefficient de pertes (en % ) qui est le rapport de l'energie dissipée et celle apportée par le travail électrique [3]. L'énergie dissipée est celle apportée par le travail électrique [10,11] Wdissipée = ∫ E ⋅ dD ⋅ dV où dV est un élément de volume Wdissipée = V ⋅ ε "⋅E 0 2 avec V le volume du diélectrique cycle d'où 2 Wtotale = C ⋅ U max d'où 2 2 or C = ε '⋅S e et U max = e ⋅ E 0 Wtotale = V ⋅ ε '⋅E 0 2 2 Ainsi coeff . pertes = Wdissipée Wtotale = ε" = tan δ ε' I.D Relaxations, resonances : Des informations importantes peuvent être obtenues en étudiant les interactions entre une onde électromagnétique de fréquence variable et le matériau. En particulier les variations de la permittivité complexe avec la fréquence (Figure.I.4). A. AYDI 23 Chapitre I Figure.I.4: Phénomènes de dispersion diélectrique associés aux différents types de polarisabilité d'après [3], [12]. Chacune de ces résonances et relaxations traduit une dissipation d'énergie (celle qui permet aux particules de s'orienter). Dans le cas des Pe et Pi, les charges soumises à des forces de rappel proportionnelles à leurs déplacements, sont considérées comme des oscillateurs harmoniques. Les dispersions, associées à ces déplacements localisés de charges, sont des résonances. Par contre dans les deux processus de polarisation Pd et Ps, les mouvements auxquels sont soumises les particules sont en outre soumis à des forces de frottement de type visqueux. Les dispersions associées s'étalent ainsi dans un domaine de fréquence plus large et portent le nom de relaxation. A. AYDI 24 Chapitre I I.E Conductivité : Il n'a été question jusqu'à ici dans les diélectriques que la conduction de type électronique, mais il est évident que les ions peuvent contribuer à la conductivité des matériaux solides. Il existe en principe une méthode simple pour déterminer la nature(ionique ou électronique) de la conductivité observée. Elle consiste à soumettre le matériau étudié à une pression hydrostatique élevée. En raprochant les atomes et/ou les chaînes polymériques, une telle pression favorise le recouvrement des orbitales moléculaires, donc la délocalisation des électrons, et par suite la conductivité électronique. Inversement, en diminuant l'éspace disponible pour le déplacement des ions, elle tend à diminuer la conduction ionique [13-16]. La conductivité électrique σ traduit l'aptitude du matériau à laisser passer des charges électriques. Elle se déduit de la partie imaginaire de la permittivité ε " par la relation suivante : σ = ε "ωε 0 avec ω : pulsation I.F Matériaux antiferroélectriques : Bien qu'ils présentent une transition structurale accompagnée d'un accident dans la variation thermique de la permittivité, les matériaux antiferroélectriques ne présentent pas de cycle d'hystérésis polarisation/champ électrique au dessous de la température de Curie TC. Au dessous de TC la polarisation spontanée reste nulle. La structure du motif est constituée d'élements présentant des polarisations spontanées antiparalléles entraînant un moment dipolaire nul ( ex. Na NbO3 à 300K). I.G Caractérisation des matériaux ferroélectriques : Les matériaux ferroélectriques sont caractérisés par l'existence d'une température de transition au- delà de laquelle leur comportement est proche de celui d'un matériau diélectrique linéaire. Cette température, appelée température de Curie TC, sépare l'état ferroélectrique (T<TC ) de l'état paraélectrique (T>TC ). La transition entre les deux états s'accompagne d'un changement de structure cristalline. Il est bien établi que la structure A. AYDI 25 Chapitre I cristalline de l'état ferroélectrique se déduit de celle de l'état paraélectrique par de faibles distorsions de telle manière que la symétrie de la phase ferroélectrique soit toujours un sousgroupe de celle de la phase paraélectrique (appelé phase prototype). L'évolution thermique de la constante diélectrique relative réelle ε r' présente à TC une discontinuité qui se traduit pratiquement par un maximum de ε r' . Dans le domaine paraélectrique, ε r' suit une loi de Curie-Weiss de la forme suivante : ε r' = C T − TC , ou C est la constante de Curie. Dans le cas des matériaux ferroélectriques on peut distinguer deux types de transitions de phase : - transitions de phase du premier ordre ou discontinues : les variations thermiques de la permittivité et de la polarisation sont discontinues (Figure.I.5). La température de CurieWeiss T0 est inférieure à la température de Curie TC. - transitions de phase du deuxiéme ordre ou continues : elles sont caractérisées par des variations thermiques continues de la permittivité et de la polarisation . La température de Curie-Weiss T0 est égale à la température de Curie TC. Transition du 1er ordre 1 ε 1 Transition du 2éme ordre ε T0 TC T(K) T0 = TC T(K) Figure.I.5 évolution de l'inverse de la permittivité diélectrique en fonction de la température A. AYDI 26 Chapitre I D'une manière générale, le comportement des matériaux ferroélectriques peut s'écarter plus ou moins des résultats théoriques. I.G.1 Etude de la structure en domaines d'un matériau ferroélectrique : Un cristal ferroélectrique est généralement formé de régions homogènes appelées « domaines » séparées par des parois. Chaque domaine possède un sens du vecteur polarisation différent de celui du voisin. La polarisation résultante du cristal représente la somme géométrique des vecteurs polarisations des différents domaines (Figure.I.6) Figure.I.6 : Représentation schématique des domaines ferroélectriques Une paroi de domaine n'interrompt pas le réseau cristallin. Celui–ci reste continu à travers une paroi bien qu'il soit distordu au niveau du réseau. Lorsque deux types de domaines ont des directions de polarisation différentes, l'orientation de la paroi entre ces deux domaines est telle que l'énergie libre soit minimale. Dans un cristal ferroélectrique, l'existence des domaines est due aux différents états de polarisation [17-20]. I.G.2 Structure de type perovskite La perovskite est un minéral naturel de composition CaTiO3. Par extension, on désigne sous la dénomination générique de perovskite un nombre considérable d'oxydes mixtes représentés conventionnellement sous la formule chimique ABO3. La maille prototype contient une seule molécule ABO3 où A représente un cation de grand rayon avec un nombre de proches voisins oxygène ou nombre de coordination égal à 12 (ex : Ba, Ca, Pb, Rb, Sr, Na, K, ) et B un cation de rayon plus faible, de charge plus importante avec un nombre de coordination 6 (ex : Ti, Sn, W, Zr, Nb, Ta, ). O est l'ion d'oxygène (ou le fluor). La A. AYDI 27 Chapitre I structure perovskite idéale présente une maille cubique simple de groupe d'espace Pm3m où les atomes A occupent les sommets du cube, les atomes B le centre et les atomes d'oxygène O les faces ou bien la structure ou les atomes A occupent le centre du cube, les atomes B les sommets et les atomes d'oxygènes la moitié des arrêtes du cube (Figure.I.7, 8) Origine en site B Figure.I.7 Structure perovskite B4+ O2 Figure.I.8 A. AYDI Octaèdres d'oxygéne A2+ Maille élémentaire de la structure perovskite ABO3 28 Chapitre I On peut distinguer deux types de perovskites suivant l'occupation des sites A et B : -Les perovskites simples dont les sites A ou B sont occupés par un seul type d'atome : BaTiO3, KNbO3, NaTaO3, PbTiO3 -Les perovskites complexes dont l'un des deux sites A ou B est occupé par deux types d'atomes : PbMg1/3Nb2/3O3, PbSc1/2Ta1/2O3, Na1/2Bi1/2TiO3, Dans la symétrie Pm3m les perovskites sont non polaires. Les structures polaires correspondent à des symétries plus basses, leurs mailles présentent alors de légères déformations de type quadratique, orthorhombique où rhomboédrique dues à une très faible modification des paramètres de la maille cubique (la maille peut être distordue et non polaire ex. : CaSnO3). Ces distortions correspondent à une déformation des octaèdres d'oxygène avec décentrage de l'ion B qui se produit suivant certaines directions privilégiées par les éléments de symétrie du nouveau système cristallin . Ces directions sont les suivantes: (Figure.I.9) -les 3 axes d'ordre 4 (A4 ) dans la phase quadratique -les 6 axes d'ordre 2 (A2 ) dans la phase orthorhombique -les 4 axes d'ordre 3 (A3 ) dans la phase rhomboédrique A3 A2 A4 Figure.I.9 Directions de déformations dues au déplacement de l'ion B dans l'octaèdre A. AYDI 29 Chapitre I Ces déplacements des ions B sont dus essentiellement à un problème de liaisons B-O dans l'octaèdre d'oxygène. Par exemple, en prenant le même ion A soit le Baryum on obtient BaTiO3 quadratique et ferroélectrique parce que l'ion Ti4+ est assez petit pour pouvoir bouger dans l'octaèdre, tandis que BaSnO3 est cubique et paraélectrique parce que l'ion Sn4+ plus gros est calé au centre de l'octaèdre, il peut cependant y avoir des pivotements d'octaèdres avec des symétries non cubiques et paraélectriques ( CaTiO3, CaSnO3 etc.) [21-25]. I.H Le comportement des ferroélectriques classique et relaxeur Parmi les matériaux ferroélectriques, il est possible de distinguer, suivant les caractéristiques de leur transition mais aussi par leur comportement en fréquence, les ferroélectriques classiques et les ferroélectriques relaxeurs. I.H.1 Mise en évidence expérimentale - les ferroélectriques classiques sont caractérisés, à la chauffe, par une transition de phase abrupte de la phase polaire vers la phase non polaire à TC (Figure.I.10 (a)). De plus, les parties réelle et imaginaire de la permittivité diélectrique ne présentent aucune variation en fonction de la fréquence (elle peut être faible dans le cas d'une dispersion). La valeur de TC est donc indépendante de la fréquence. - les ferroélectriques relaxeurs présentent une transition de phase diffuse. Par ailleurs, la température de maximum de la partie réelle de la permittivité (ε'r) se déplace vers les plus hautes températures lorsque la fréquence augmente (Figure.I.10 (b)). Cette température ne correspond donc plus à la température de Curie, le terme Tm (température de maximum de permittivité) est dès lors plus approprié. Le comportement en fréquence peut être décrit dans la phase ferroélectrique comme une relaxation: une chute brutale de la partie réelle (ε'r) associée à un maximum de la partie imaginaire (ε"r). Cette relaxation a lieu dans la gamme de fréquence 103-106 Hz. A. AYDI 30 Chapitre I Figure.I.10 : Variation de ε'r en fonction de la température à différentes fréquences dans le cas d'un ferroélectrique classique (a) ou relaxeur (b) A. AYDI 31 Chapitre I I.H.2 Origine du comportement relaxeur Les divers modèles (physiques ou structuraux) proposés depuis une quarantaine d'années en vue d'expliquer le comportement relaxeur des matériaux ferroélectriques, sont répertoriés de façon thématique dans cette partie. Elle a pour but de montrer tant l'évolution, la diversité que la complexité de ces modèles. Les matériaux relaxeurs ont été découverts par Smolensky en 1961 grâce à l'étude de composés de structure perovskite (ABO3) dans le système BaTiO3-BaSnO3 et surtout grâce à l'étude de composés à base de plomb tels que Pb(Mg1/3 Nb2/3)O3 (PMN). a- Les modèles physiques Fluctuations de composition et transition de phase diffuse Le comportement diffus des variations thermiques de la constante diélectrique a été attribué par Smolenski à des fluctuations de composition dans le composé PMN [26]. Ces dernières sont dues à la présence de deux cations différents (Mg2+ et Nb5+) dans un même site cristallographique (ici le site octaédrique B). Ces hétérogénéités de composition chimique conduiraient à une distribution des températures de Curie et donc à un élargissement du pic. Ce modèle est donc basé sur l'existence de régions polaires mais n'explique pas la dispersion diélectrique en fréquence. La superparaélectricité Par analogie avec l'état superparamagnétique dans lequel les interactions aléatoires des clusters de spins donnent lieu à une relaxation magnétique possédant une température de gel, Cross proposa un modèle superparaélectrique pour les relaxeurs où les microrégions polaires ont un comportement similaire aux clusters de spin [27]. Considérant un potentiel superparaélectrique, les états de polarisation +P et -P d'une microrégion polaire sont séparés par une hauteur de barrière (H) qui est directement proportionnelle au volume de cette microrégion. Ceci implique que l'énergie thermique (kBT) et la fréquence de saut entre deux états de la polarisation soient reliées par la relation : A. AYDI 32 Chapitre I ν=νD exp (-H/kBT) où νD est la fréquence de Debye. A haute température, les régions polaires sont de taille nanométrique, ont un comportement dynamique et n'interagissent pas entre elles. Lorsque la température décroît, les interactions entre dipôles augmentent et la polarisation se bloque peu à peu dans une orientation particulière formant ainsi des microdomaines polaires qui perdent progressivement leur comportement dynamique. Ceci permet de distinguer la notion de microrégion (dynamique) et la notion de microdomaine (statique i.e. dans lequel la polarisation est fixe en amplitude et en direction). Le concept de superparaélectrique permet d'expliquer la dépendance en fréquence de la permittivité, il permet aussi de décrire le comportement non linéaire des propriétés thermiques et optiques observé dans ces matériaux. Les paires en interaction Toulouse et al. ont mené une étude comparative de composés appartenant aux solutions solides K1-xLixTaO3 (KLT) et KTa1-xNbxO3 (KTN) [28]. En effet, le relaxeur KLT présente une dispersion en fréquence importante, il est dit "dur". Dans le composé KTN, la dispersion en fréquence est beaucoup plus faible, il est dit "mou". Les auteurs proposent un modèle en deux parties, une partie statique et une partie dynamique. Ils considèrent les dipôles voisins comme formant des paires en interaction. Ainsi le retournement d'un des dipôles sera suivi par celui du second. De plus chaque dipôle est soumis au champ local produit par tous les autres. Tant pour KTN que pour KLT, la dynamique est associée à des sauts individuels d'ions décentrés. La fréquence de saut est de la forme: ν = ν0 exp (-(Ud+Udd)/T) où Ud représente l'énergie d'activation pour un saut d'ion isolé et Udd la barrière énergétique supplémentaire due à l'interaction entre les dipôles qui dépend de la température (Ud+Udd=U). L'analyse des résultats obtenus par des mesures de cycles d'hystérésis a permis de montrer que dans KLT, Ud≈Udd, et que la dépendance en température de l'énergie totale U(T) est faible alors que dans KTN l'énergie d'interaction domine (Udd>>Ud) et la dépendance thermique est très importante. Dans KLT, les ions Li+ décentrés sont dans un puits de potentiel profond dû à la forte distorsion locale du réseau, KLT est par conséquent un relaxeur dur. Dans KTN, les ions niobium sont peu décentrés et résident dans un puits de potentiel peu profond, KTN est A. AYDI 33 Chapitre I donc un relaxeur dit "mou". Cette étude à permis de distinguer les différentes classes de composés relaxeurs et de proposer un critère de caractérisation : leur dureté. Les verres dipolaires Les relaxeurs ferroélectriques se comportent dans ce modèle comme des verres dipolaires ou verres de spin [29]. La dispersion diélectrique possède une température de gel (Tf, "freezing temperature"), elle peut être modélisée en utilisant la relation de Vogel-Fülcher décrivant habituellement le comportement des verres de spin: ω = ω0 exp(-Ea/(T-Tf)) où ω0 est la fréquence de Debye, Ea l'énergie d'activation et Tf la température de gel. Au dessus de la température de gel, les clusters polaires dynamiques sont désordonnés, lorsque la température décroît les corrélations entre les régions superparaélectriques augmentent et ces dernières interagissent entre elles à courte distance (à l'échelle nanométrique). La taille des régions polaires augmente aussi lorsque la température décroît, puis n'évolue plus lorsque T~Tf indiquant que le phénomène de gel apparaît lorsque la taille des régions atteint une valeur pour laquelle les clusters polaires ont de multiples voisins et se polarisent mutuellement. Les interactions sont telles que ces clusters sont "gelés" dans un état métastable : c'est le phénomène de gel de la polarisation qui empêche le développement de l'ordre polaire à longue portée caractéristique des ferroélectriques classiques. Les champs électriques aléatoires Le composé PMN est caractérisé par une forte hétérogénéité chimique. Il présente à la fois une distribution statistique des ions Mg2+ et Nb5+ (impliquant la présence de charges d'espace) et des domaines de taille nanométrique au sein desquels les cations Mg2+ et Nb5+ présentent un ordre (1:1). Ces nanodomaines étant chargés négativement, il en résulte un déséquilibre de charges qui conduit à l'apparition de champs électriques aléatoires. Dans ce modèle, les champs électriques statiques aléatoires sont à l'origine du ralentissement du comportement dynamique dans PMN et du gel de la polarisation à l'intérieur de domaines de taille nanométrique. Ceci a été montré par des mesures de biréfringence linéaire en fonction de la température [30]. A. AYDI 34 Chapitre I A basse température, le système apparaît complètement gelé, la valeur nulle de la biréfringence linéaire indique une distribution aléatoire des domaines polarisés et leur complète immobilité. De plus, l'état polarisé semble très stable en température. Lorsque la température augmente, les auteurs supposent la croissance d'un cluster paraélectrique au sein d'un domaine unique polarisé de façon homogène. De plus la détection optique de sauts de Barkhausen, met en évidence le désancrage des microdomaines (réarrangement discontinu des domaines). Cette vision n'est pas compatible avec une réorientation de type "verre" qui a lieu de façon monotone et continue. Les mouvements des parois de domaines Le problème de la polarisation est traité ici en considérant des interfaces et plus spécifiquement la germination et la croissance de nouvelles phases au sein d'une phase "mère" [31]. Dans ce modèle, les parois de domaines rencontrent un champ résistant lors de leur déplacement. Lorsqu'un champ fort est appliqué, les parois de domaines peuvent se déplacer sur une longue distance en franchissant les barrières locales d'énergie nécessaire pour le retournement de la polarisation. Celles-ci ont une taille de l'ordre de 1000 mailles élémentaires. Si un champ faible est appliqué, les parois de domaines sont fixées par les barrières et peuvent seulement osciller à l'intérieur de régions situées entre ces barrières. Pour des températures faibles et des champs forts, les relaxeurs ont des barrières beaucoup plus petites que les ferroélectriques classiques. Ainsi en franchissant ces barrières, un déplacement des parois de domaines est possible sur une longue distance. Ceci permet d'expliquer l'évolution de la polarisation à basse température et basse fréquence. Le comportement diélectrique pour des fréquences élevées et des champs faibles est attribué aux oscillations des parois de domaines qui ne peuvent plus franchir les barrières. Pour des températures supérieures à la température de transition, les domaines se désagrègent et les oscillations ne contribuent plus à la réponse. Au-dessous de la température de transition, les domaines de polarisation deviennent très fins, ce qui défavorise de plus en plus leur oscillation : la température de gel est alors atteinte. L'effet de l'amplitude du champ électrique appliqué à la permittivité diélectrique a été étudié par Glazounov et al. sur le composé PMN [32,33]. Il a été montré que l'augmentation A. AYDI 35 Chapitre I de l'amplitude du champ a le même effet que la diminution de la fréquence sur le maximum de la permittivité réelle (Figure.I.11). Les résultats obtenus ont été analysés selon deux modèles : le modèle superparaélectrique et le modèle des parois de domaines. Le modèle superparaélectrique n'est pas en accord avec les résultats expérimentaux. Dans le cas du modèle des parois de domaines, l'augmentation de l'amplitude du champ réduit la hauteur des barrières. Pour des parois ayant un temps de réponse trop élevé (ne participant pas à la réponse diélectrique), l'augmentation de l'amplitude diminue ce temps de réponse, le nombre de parois de domaines contribuant à la réponse diélectrique augmente et la permittivité croît. Les résultats expérimentaux sont donc en accord avec le modèle des parois de domaines. Figure.I. 11: Evolution thermique de ε'r en fonction de la fréquence (a) [1 à 1kHz, 2 à 100Hz, 3 à 20Hz] et de l'amplitude du champ (b) [1 à 0,01, 2 à 0,5, 3 à 1, 4 à 1,5, 5 à 2 kV/cm) b- Les modèles structuraux A l'échelle de la nanostructure: longueur de cohérence de l'ordre à longue distance Dans une structure cristalline, l'arrangement des cations et des défauts ponctuels dans un site cristallographique particulier dépend de la valeur relative de l'énergie d'interaction des diverses configurations possibles. Si cette interaction est suffisamment faible, il n'y a pas de corrélations possibles entre les sites voisins. Par contre s'il apparaît en diffraction X ou électronique une réflexion distincte de surstructure, alors les cations différents occupant des A. AYDI 36 Chapitre I sites voisins présentent un ordre à longue distance (OLD). Dans cette étude, l'échelle de l'OLD étant importante pour la compréhension des propriétés physiques, les auteurs définissent une longueur de cohérence basée sur la taille des domaines ordonnés observés par Microscopie Electronique à Transmission (MET) [34]. A titre d'exemple, une longueur de cohérence faible est associée à une taille de domaines ordonnés de l'ordre de 20 à 200Å, de même une longueur de cohérence élevée correspond à des domaines de taille supérieure à 1000 Å. De nombreux composés ferroélectriques à base de plomb et de structure perovskite ont ainsi été comparés afin de mieux comprendre les relations entre nanostructure et propriétés ferroélectriques. Les résultats obtenus sont regroupés dans le tableau.I.3 [35]. Les composés de type perovskite à base de plomb peuvent être classés en 3 groupes selon l'ordre du cation en site B : A. AYDI 37 Chapitre I (i) distribution aléatoire ou totalement désordonnée, (ii) distribution avec une faible longueur de cohérence de l'OLD (iii) distribution avec une longueur de cohérence de l'OLD élevée. Cette approche permet de relier la nanostructure à l'effet relaxeur. Les auteurs considèrent les composés relaxeurs comme des nanocomposites soit en terme d'inhomogénéité chimique soit en terme de régions polaires ou non polaires. Une étroite corrélation est supposée exister entre la distribution de l'ordre chimique et celle de l'ordre polaire. En effet, les domaines nanométriques ordonnés sont des "sites naturels" de clusters polaires superparaélectriques dans la matrice paraélectrique. A l'échelle de la structure: la rotation aléatoire des octaèdres /Ce modèle est basé sur les résultats obtenus par diffraction des neutrons polarisés et par diffraction des rayons X (rayonnement synchrotron) sur les compositions PMN, PZT (65/35) et PLZT (65/35) [36-39]. Ces différentes techniques ont permis de montrer des déformations locales significatives du réseau cristallin et un ordre chimique, lui aussi local dans les composés relaxeurs. Dans le cas de la composition PZT (65/35), la rotation des octaèdres ZrO6 provoque une diminution de symétrie du site occupé par le plomb. Les atomes de plomb s'écartent donc de leur position idéale afin de "s'accommoder" de leur doublet électronique non engagé. Ces déplacements n'ayant pas d'ordre à longue distance, ils permettent d'expliquer la différence structurale entre la périodicité du réseau cristallin à longue et à courte portée. Le comportement relaxeur est par conséquent relié au caractère aléatoire de la distribution des cations en site octaédrique qui affecte aussi (de manière aléatoire) les positions des atomes de plomb. De plus, ce modèle réfute l'idée d'expliquer l'origine du comportement relaxeur par la seule présence de nanodomaines qui ne sont pas toujours observés dans ces composés. I.I Etude bibliographique : I.I.1 Le titanate de baryum :BaTiO3 Le titanate de baryum est certainement le plus étudié des composés ferroélectriques. C'est un bon candidat pour les applications techniques de la ferroélectricité. BaTiO3 est un composé chimiquement et mécaniquement très stable qui possède des propriétés ferroélectriques dans A. AYDI 38 Chapitre I un domaine de températures incluant la température ambiante[40], et qui peut être préparé sous forme de monocristaux ou de céramiques. BaTiO3 fait partie de la famille des pérovskites ABO3 .Il est ferroélectrique à la température ambiante et jusqu'à la température de Curie TC, voisine de 134°C dans les cristaux purs, mais qui dépend fortement de la qualité cristalline (elle est voisine de 120°C dans les céramiques). La symétrie de la phase non polaire, stable à haute température est cubique (groupe spatial Pm3m ) ;elle est centrosymétrique et non piézoélectrique (Figure.I.12). En diminuant la température en dessous de TC, une première phase polaire apparaît, stable jusque vers 10°C, de symétrie quadratique (groupe spatial P4mm). Cette phase résulte d'un allongement d'une des directions (100) de la maille cubique qui devient l'axe c, ou axe polaire. L'existence de 6 axes (100) équivalents dans la maille cubique explique l'existence d'une structure en domaines relativement complexe dans ce composé. En dessous de 10°C, une nouvelle phase de symétrie orthorhombique apparaît (groupe ponctuel 2mm). Cette phase est encore ferroélectrique, mais la direction de polarisation est maintenant parallèle à l'une des directions (110) de la maille pseudo-cubique. Une troisième phase apparaît à température plus basse, c'est la phase rhomboédrique (groupe ponctuel 3m). La polarisation spontanée est dirigée suivant l'une des directions (111) de la maille pseudocubique. Ps (a) Ps (c) (b) Ps (d) Figure.I.12 La maille élémentaire de BaTiO3 dans les 4 phases : (a) phase cubique, stable au dessus de 130°C (b) phase quadratique, stable entre 10°C et 130°C (c) phase orthorhombique, stable entre -100°C et 10°C (d) phase rhomboédrique, stable en dessous de -100°C A. AYDI 39 Chapitre I Chaque transition de phase implique une modification de la polarisation spontanée et donne lieu dans l'évolution thermique de la permittivité diélectrique à un maximum local (Figure.I.13). Figure.I.13 Evolution de la constante diélectrique en fonction de la température pour un cristal de BaTiO3 L'analyse théorique et l'interprétation des propriétés diélectriques particulières de BaTiO3 revient à essayer de donner une réponse à la question suivante : pourquoi et dans quelles conditions doit- on s'attendre à des phénomènes ferroélectriques dans les solides ? Parmi les innombrables théories avancées pour répondre à cette question, il convient de retenir tout d'abord celle de MEGAW [41] qui a émis l'hypothèse selon laquelle dans BaTiO3 les octaèdres O6- sont un peu trop grands pour l'ion central Ti4+. Il en résulte une grande mobilité de ce dernier et par suite une importante polarisabilité du réseau. Dans le même temps, d'autres théories [42] supposaient que c'étaient les ions oxygène qui effectuaient les plus grands déplacements. L'apparition de la ferroélectricité dans une grande quantité de composés dont la maille contient des octaèdres O6 a permis très tôt de reconnaître l'importance particulière que revêt ce groupement. A. AYDI 40 Chapitre I MASON et MATTHIAS [43] supposaient que l'ion titane possède plusieurs positions d'équilibre autour du centre de l'octaèdre O6 ; ces 6 positions symétriques sont équivalentes en phase paraélectrique. Au dessous de la température de Curie, à l'intérieur de chaque domaine, les ions Ti4+ s'orientent selon une seule des 6 orientations possibles de sorte qu'il apparaît dans cette direction un moment dipolaire . Simultanément le cristal s'allonge selon cette direction par rapport aux deux autres et devient quadratique. Cette polarisation ajoutée à la polarisation électronique, permet de calculer le champ local qui détermine les polarisations électroniques et atomiques. En poursuivant les calculs ces auteurs ont pu déterminer la polarisation spontanée, mais ce modèle simple s'est heurté à de nombreuses objections d'ordre thermodynamique. DEVONSHIRE [44] a tenté une approche purement thermodynamique. Son idée fondamentale a été de déduire le comportement de BaTiO3 au dessous de TC en introduisant une fonction d'énergie libre du cristal. I.I.2 NaNbO3 La structure de NaNbO3 à 300K a été déterminée par H.D. MEGAW et al. [45]. La maille est orthorhombique, ses paramètres sont de l'ordre de : a = 5.566 Å b = 15.520 Å c = 5.506 Å NaNbO3 est un composé polymorphique qui peut se présenter sous plusieurs variétés (tableau.I.4) Température Symétrie de la Groupe (K) maille spatial Caractère physique Références 173 Trigonal 633 Orthorhombique Pbma Antiferroélectrique [ 47] 753 Orthorhombique Pnmm Antiferroélectrique [48] 793 Orthorhombique Pnmm Paraélectrique [ 49] 848 Quadratique P4/mbm Paraélectrique [ 50] 913 cubique Pm3m paraélectrique [ 51] Tableau.I.4 A. AYDI R3c Ferroélectrique [46] Evolution thermique des caractéristiques cristallographiques de NaNbO3 41 Chapitre I L'existence de ces différentes phases provient de légères modifications du réseau cristallin : - distorsion homogène de l'ensemble du réseau - distorsion de chaque octaèdre O6 - rotation des octaèdres les uns par rapport aux autres - déplacement de l'ion Nb5+ hors du centre de gravité de l'octaèdre Ces mécanismes peuvent survenir séparément ou de manière combinée [52,53]. I.J. Techniques liées à la ferroélectricité : Les composés ferroélectriques sont élaborés sous différentes formes : - monocristaux orientés de bonne qualité et de taille moyennement importante - céramiques de haute densité, éventuellement translucides - couches minces déposées par diverses méthodes (pulvérisation cathodique, ablation laser ou dépôt par voie sol-gel) l'épaisseur va de quelques nanomètres au micromètre - couches épaisses déposées par sérigraphie puis traitées à haute température épaisseurs de 2 à 30 micromètres Les transitions de phase ferro-paraélectriques peuvent être mises en évidence par de nombreuses techniques : - mesures pyroélectriques (maximum du courant pyroélectrique) - mesures diélectriques (maximum de ε r' , cycle d'hystérésis polarisation-champ électrique et disparition de Ps à la température de Curie) - diffraction des rayons X (discontinuité thermique des paramètres et changement du groupe ponctuel) - analyse thermique différentielle - mesures piézoélectriques - spectroscopie Raman - microscopie (disparition des domaines ferroélectriques) A. AYDI 42 Chapitre 2 Techniques expérimentales A. AYDI 43 A. AYDI 44 Chapitre II TECHNIQUES EXPERIMENTALES II.A Technologie de fabrication d'une céramique massive : Le terme céramique ne recouvre pas un type de composition chimique, mais un matériau généralement polycristallin et très bien densifié obtenu suivant un mode de mise en oeuvre particulier, il est souvent synonyme dans le public d'objets usuels : carrelages, sanitaires, vaisselle Dans le cas des céramiques techniques notamment pour l'électronique, la maîtrise de l'élaboration permet d'obtenir des propriétés performantes et utiles pour des applications très diverses (tenue mécanique, propriétés électriques, diélectriques, magnétiques, etc.) L'organigramme général de fabrication d'une telle céramique peut être décrit en termes identiques à celui définissant la fabrication d'une céramique traditionnelle (Fig.II.1). Choix des matières premières Mélange. Broyage Chamottage ou calcination Mélange. Broyage et mise en forme Frittage Figure.II.1 Principales étapes de fabrication d'une céramique Nous allons maintenant décrire les différentes étapes du processus utilisé au cours de notre travail en essayant en quelques mots, pour chacune d'entre elle, de les commenter. A. AYDI 45 Chapitre II II.A.1 Matières premières : Elles sont constituées d'oxydes, de carbonates, de nitrates, etc. Une poudre idéale peut être décrite comme étant formée de grains de petite taille (de l'ordre du 1 μ m), de forme régulière, avec une répartition de taille très étroite. La pureté ainsi que celle d'éventuels ajouts sont contrôlés. Le problème principal concernant les matières premières de base, qui sont sous forme de poudres, est la difficulté d'évaluer les paramètre fondamentaux traduisant la réactivité du matériau vis-à-vis des autres avec lesquels il est amené à réagir, l'histoire thermique du matériau joue ainsi un rôle très important. II.A.2 Mélange. Broyage : Il s'agit d'une des phases essentielles du cycle de fabrication d'une céramique. C'est également au cours de cette opération que l'on obtient une répartition uniforme des précurseurs. Les poudres sont pesées suivant les quantités stoechiométriques prévues par l'équation de réaction. L'échantillon de référence de masse comprise entre 2 et 5g est broyé dans de l'éthanol dans des jarres d'agate à l'aide d'un broyeur planétaire pendant 45 mn(Fig.II.2). La suspension ainsi obtenue est séchée dans une étuve à 120°C pendant plusieurs heures. La poudre est ensuite mise sous la forme d'une pastille de diamètre 13 mm et de 10 mm d'épaisseur environ en utilisant une pastilleuse et une presse. Cette pastille est alors déposée sur une plaque de platine dans une nacelle d'alumine et introduite à température ambiante dans un four électrique. Figure. II.2 Broyeur planétaire et presse A. AYDI 46 Chapitre II II.A.3 Chamottage ou calcination : Cette opération a pour but de transformer un mélange de poudres en un matériau de composition et de structure cristalline bien définis, ce matériau étant l'élément constitutif principal ou unique de la future céramique. Dans ce but, les matériaux sont soumis à un cycle thermique, éventuellement sous atmosphère contrôlée, au cours duquel ils vont, par des phénomènes de diffusion en phase solide , réagir et former la phase recherchée. Dans le cas des mélanges d'oxydes et de carbonates l'atmosphère utilisée est enrichie en O2 pour obtenir des matériaux isolants électriques exempts de lacunes d'oxygène. Au cours de cette réaction il y a dégagement de dioxyde de carbone et éventuellement d'un peu de vapeur d'eau [54]. Le chamottage se fait dans des fours à régulation programmables permettant d'ajuster les principaux paramètres du traitement qui sont la vitesse de montée en température, la température, la durée du palier thermique, la rampe de refroidissement ainsi que la composition de l'atmosphère du four. Cependant, un certain nombre de problèmes liés à cette technique peuvent survenir, ils sont énumérés dans le tableau. II.1 [55] Problèmes possibles Causes Défauts d'homogénéité Mélange mal préparé, particules de trop grande taille, mauvaise diffusion Taille de grains trop élevée dans la chamotte Apparition d'une phase liquide (température trop élevée), cristallisation des grains avec grossissement Nombreuses phases parasites (impuretés) Défaut de précision des pesées, réaction incomplète (maintien en température trop bref ou température trop basse) Mauvaise distribution des constituants Mauvaise homogénéité du mélange, broyage inefficace. Impuretés extrinsèques Pollution par le broyeur où la nacelle, four pollué par des oxydes volatils (Pb, Bi, Li) etc.) ou réaction avec l'humidité atmosphérique. A. AYDI 47 Chapitre II II.A.4 Broyage de la chamotte: Après le traitement thermique, le matériau alors appelé chamotte est broyé afin de réduire la taille des grains, d'homogénéiser la poudre et augmenter sa réactivité. La chamotte est d'abord pulvérisée à sec dans un mortier en agate (ou sa version automatisée avec une boule vibrante Fig.II.3) puis broyée en milieu humide dans de l'eau additionnée d'un peu de dispersant (citrate d'ammonium) stabilisant la suspension avec un broyeur planétaire : La chamotte est placée dans deux jarres contenant chacune 8 billes d'agate. Sous l'effet de la rotation des jarres, les billes sont mises en mouvement et broient la chamotte. La taille des particules diminue avec la durée de broyage pour atteindre une taille de l'ordre de 0.8 μm au bout d'une heure. Figure II.3 Broyeur à boule vibrante II.A.5 Mise en forme et frittage : La poudre ainsi obtenue est séchée dans une étuve à 125°C pendant plusieurs heures. Elle est mise sous forme de pastilles de diamètre 8 mm et 1 mm d'épaisseur par pressage uniaxial. Les pastilles ont été pressées sous 1 tonne/cm2 durant une minute dans un moule en acier. Un liant peut être ajouté pour favoriser le glissement des grains les uns par rapport aux autres et homogénéiser la pression lors de cette mise en forme, il est en général incorporé dans le broyeur en fin d'opération, en petite quantité, sa combustion entraînant une certaine porosité. Les pastilles sont alors soumises à un traitement thermique à haute température appelé frittage, afin d'obtenir des céramiques denses pour les applications. A. AYDI 48 Chapitre II Le frittage consiste en la consolidation et la densification par action de la chaleur d'un agglomérat granulaire plus ou moins compact avec ou sans fusion d'un de ses constituants. La microstructure des poudres compactées varie pendant cette opération. Une densification est caractérisée par une diminution de la porosité et une croissance de la taille des grains. Les propriétés mécaniques et physiques sont profondément modifiées au cours du frittage tendant à répondre finalement aux fonctions finales attendues. Parmi toutes les variables reliées à la microstructure, les pores, la nature et la répartition des phases secondaires et les tailles de grains ont tous une influence plus ou moins grande sur les propriétés. L'effet de la porosité est généralement plus prononcé que l'effet d'une seconde phase ou de taille de grain, car appliquée à un pore, la propriété en question est nulle ou très faible (par exemple conductivité thermique ou élasticité). Lors de la fabrication de céramiques, il peut être parfois intéressant de conserver un certain degré de porosité (dans le cas ou la porosité améliore la propriété recherchée). En général, on a intérêt à minimiser la porosité, afin d'améliorer par exemple la résistance à la rupture. Lorsqu'on augmente la température de frittage, certaines propriétés s'améliorent (conductivité thermique ou électrique, propriétés élastiques) et atteignent ensuite un plateau au-delà duquel plus aucune amélioration n'est constatée. De même d'autres propriétés, surtout mécaniques, passent par un maximum puis se détériorent. Souvent, une combinaison de plusieurs effets antagonistes est l'origine de la modification observée: par exemple, diminution de porosité suivie de croissance granulaire. Comme la porosité, au même titre qu'une seconde phase, est susceptible de limiter la croissance granulaire, celle-ci est empêchée tant que la porosité n'est pas réduite à un certain niveau. Ce niveau dépend de la poudre initiale (distribution de tailles), de la mise en forme (porosité initiale) et des paramètres de frittage (temps, température). Lors de la croissance granulaire, la porosité intergranulaire peut devenir intra-granulaire. Dans ce cas, il est souvent plus difficile de résorber complètement la porosité (cinétiques de diffusion différentes) [56]. II.A.6 Densité - Porosité Plusieurs paramètres permettent de caractériser la porosité: 1) Type : on distingue la porosité ouverte et fermée. Dans le premier cas, les pores communiquent avec l'extérieur du matériau, ils peuvent être théoriquement remplis avec un fluide. Dans le second cas, les pores sont isolés du milieu extérieur. A. AYDI 49 Chapitre II 2) Taille des pores : importantes pour les propriétés finales, mais aussi lors du frittage (difficulté à éliminer de très petits pores). 3) Forme des pores : les pores ouverts sont généralement fins et allongés, de forme irrégulière. Les pores fermés sont plutôt sphériques. 4) la distribution de la porosité : lors de la réalisation de couches de céramiques, la porosité n'est pas toujours homogène sur l'épaisseur de la couche. Quelques exemples présentés à la Figure II.4 [57] illustrent différentes formes de pores dans Al2O3 : plats (1-4), allongés (4 et 7), de forme plus complexe (5-6) (Figure II.4a). Lorsqu'on augmente la porosité, on obtient une mousse solide, (Figure II.4b), qui peut être utilisée pour la filtration, par exemple. Figure II.4 : Illustration de (a) différentes formes de pores. (b) mousse céramique à très grande porosité. Les principaux paramètres de frittages sont les mêmes que ceux du chamottage. Dans notre cas, la densité apparente des disques céramiques a été déterminée de manière très simple en pesant les disques et en divisant leur masse par le volume obtenu par mesure au pied à coulisse do = m/v. La densité théorique du matériau peut être obtenue, s'il est monophasé, à partir des résultats de la diffraction des rayons X fournissant les paramètres de maille, donc le volume théorique de celle-ci dx = MZ/ N.Vm ou M est la masse du motif élémentaire, Z le nombre de motifs par maille, N le nombre d'Avogadro et Vm le volume de la maille. La compacité ou densité relative est égale au rapport de la densité apparente observée sur la densité théorique : C = do/dx cette valeur doit être supérieure à 0.9 pour une céramique de bonne qualité, la porosité est égale à la différence 1 – C. A. AYDI 50 Chapitre II II.B. Caractérisation des solides II.B.1 Microscopie électronique à balayage Le bombardement de l'échantillon par des électrons conduit à un spectre constitué par une série de raies monochromatiques dont les intensités sont fonctions des concentrations des électrons existants. La longueur d'onde de chaque raie est caractéristique de la structure électronique d'un élément donné. L'interaction électron- matière donne naissance à divers signaux qui traduisent des informations sur l'objet dont ils sont issus; entre autre les électrons secondaires du faisceau primaire, sont faiblement énergétiques (50 eV) et donnent de ce fait des renseignements quantitatifs de la surface de l'échantillon. Le microscope électronique à balayage (MEB) renseigne aussi sur la morphologie du précipité et des cristaux. En effet, on peut balayer l'échantillon par une sonde électronique qui émet des informations de diverses formes qui sont transformées en signal électronique. Il y a donc une correspondance ponctuel entre un point de l'objet et un point de l'image sur l'écran à un moment donné .L'image est retransmise point par point et ne devient complète qu'après une période de balayage. L'analyse quantitative nécessite la planéité de l'échantillon et exige une bonne conductivité électronique. II.B.2 Analyse de la structure cristalline, diffraction des RayonsX L'analyse radiocristallographique sur poudre par diffractomètre à compteur est une méthode commode pour différencier les diverses phases d'un mélange et pour déterminer leur domaine d'existence. Les spectres de poudres sont réalisés à l'aide d'une spectrogoniomètre Philips utilisant le rayonnement K α d'une anticathode de cuivre. Ils sont enregistrés entre 5 et 120 degrés en 2 θ à 295K et avec un temps de comptage de 1s, 10s ou 30s suivant l'utilisation du spectre de diffraction des RX. Pour une simple analyse par comparaison avec les diffractogrammes de la base de données JCPDS et en utilisant un logiciel d'identification, un temps de comptage court (1s) suffit. Pour un affinement des paramètres de profil permettant une détermination précise des paramètres de maille par une méthode globale de type Pawley, une durée de comptage de 10s est nécessaire. Enfin, pour une détermination complète des paramètres structuraux (positions atomiques) par la méthode de Rietveld, le temps de comptage est au moins 30s [58]. A. AYDI 51 Chapitre II II.C Mesures électriques : II.C.1 Analyse par spectroscopie d'impédance a) Méthode et principe de mesure : La méthode de mesure utilisée est celle des impédances complexes. Elle consiste à étudier la réponse d'un matériau, généralement diélectrique, soumis à l'action d'un champ alternatif de fréquence variable. Cette réponse, propriété électrique caractéristique d'un matériau, est appelée, dans le cas des isolants, permittivité diélectrique ε . Elle traduit l'état de polarisation d'un diélectrique. La polarisation macroscopique P qui résulte de l'application d'un champ électrique E à un diélectrique est : P = ε 0 (ε r − 1) E = ε 0 χE Avec ε 0 = 8.85 10-12 F/m : constante diélectrique du vide χ : susceptibilité du matériau Dans le cas général, la permittivité est une grandeur complexe : ε * = ε r' − jε r" La partie imaginaire traduit les pertes diélectriques. Le facteur de dissipation diélectrique est défini par : D = tg (δ ) = ε r" ε r' Pour réaliser les mesures diélectriques les échantillons sont préparés sous forme de disque, de 8mm de diamètre et 1mm d'épaisseur, pour qu'ils soient dans la configuration d'un condensateur plan, leurs faces planes (en regard) sont polies puis métallisées (par un dépôt d'or par PVD ou avec de la laque d'argent) et connectées à l'analyseur d'impédance. L'échantillon est alors soumis à un signal sinusoïdal d'amplitude et de fréquence ajustable. Ces mesures peuvent également être faites à différentes températures. A. AYDI 52 Chapitre II L'échantillon étudié se comporte comme un condensateur traversé par un courant. On peut modéliser son comportement par des circuits électriques équivalent formés des trois types de composants: résistance R, condensateur C et inductance L. L'impédance complexe du circuit équivalent est donnée par la relation suivante : Z = R + j⋅ X dont la partie réelle R représente la résistance (au sens électrique) et la partie imaginaire X la réactance :La réactance X résume le comportement des deux types de composants électroniques que sont la bobine inductance ( X=2π⋅ f⋅ L avec L l'inductance de la bobine pure) et le condensateur ( X=(2π⋅ f⋅ C)-1 avec C la capacité du condensateur pur). Arbitrairement, tous les échantillons mesurés seront modélisés par un circuit R C en parallèle (Figure.II.5) [3]. Dans ce cas là, contrairement à une modélisation en circuit série, l'expression de Z est relativement lourde à manipuler et on utilise préférentiellement l'admittance Y (en Siemens S), de partie réelle la conductance G et de partie imaginaire la susceptance B: 1 / Z = Y =G + j ⋅ B Figure.II.5 : Exemples de modélisations, de gauche à droite, un circuit série, un circuit parallèle et le cas particulier d'un circuit R C parallèle. Préalablement à toute mesure d'impédance, l'analyseur doit être étalonné avec trois points caractéristiques du diagramme d'impédance complexe (Figure.II.6 ci-contre) [3]: la mesure en court-circuit (0Ω), la mesure en circuit ouvert (0S) et la mesure d'une charge adaptée: une résistance pure de 50Ω. Figure.II.6: Représentation du vecteur complexe Z dans le diagramme d'impédance. L'impédance complexe [58] peut être exprimée par ses deux projections R et X sur les axes réels et imaginaires, mais on utilise plus souvent la capacité Cp (F) et le coefficient de pertes tan δ déduits de Z avec les relations suivantes : A. AYDI 53 Chapitre II tan δ = R / X et Cp = X /( 2π⋅f⋅(R2 + X2) ) A partir de ces valeurs de Cp et tan δ, connaissant la géométrie de l'échantillon (son épaisseur ep et sa surface S, identique pour chacune des 2 électrodes), on remonte aisément à la permittivité et l'impédance complexe ε = ε' - j ε'' ε' = Cp ⋅ ep / ( ε0 ⋅ S ) et Z (1/z=jC ω ). ε'' = ε' ⋅ tan δ L'utilisation d'un pont de mesure permet de déterminer l'impédance Zx d'un échantillon pour des fréquences allant du continu à une centaine de MHz : l'échantillon est inséré dans une des branches du pont soumis à un signal électrique alternatif de fréquence réglable. Les composants d'impédance Z1, Z2 et Z3 (des condensateurs, résistances et inductances) sont alors ajustés jusqu'à ce que le courant mesuré par le détecteur D soit nul, on peut alors aisément déduire la valeur de Zx (Figure.II.7). Figure.II.7 : Principe de fonctionnement d'un pont de mesure d'impédance manuel [58]. b) dispositif de mesure : - cellule de mesure : Pour assurer parfaitement le contact électrique l'échantillon est placé entre deux électrodes cylindriques. Ces électrodes en nickel sont électriquement isolées et situées à l'intérieur d'un tube de quartz dans lequel la pastille métallisée est maintenue entre deux plots de Ni par un système de tiges sur ressorts (Fig.II.8) Figure.II.8 : Photographies d'une cellule type "1" ouverte et fermée A. AYDI 54 Chapitre II La connexion des plots à un pont WK6425 permet de déterminer l'impédance. Pour les mesures en température, l'ensemble protégé par le tube de quartz peut être plongé dans un dewar d'azote liquide et un four entourant le tube permet de contrôler via un régulateur, la température de l'échantillon. Pour éviter les perturbations dues à de l'eau adsorbée dans les microporosités résiduelles des échantillons, le vide est fait dans la cellule après un dégazage à plus de 150°C et de l'hélium est introduit, assurant également un bon échange thermique entre la paroi du tube de quartz et l'échantillon. - dispositif expérimental : Les mesures sont réalisées au moyen d'un pont d'impédance soit WK6425 soit HP4194A (Figure.II.9) ; la régulation-programmation de température se fait à l'aide d'un Eurotherm 902 qui permet de fixer T à 1K près. Un programme WK.exe mis au point à l'ICMCB permet de commander et d'enregistrer les mesures diélectriques. Un ordinateur assure la communication entre les différents composants du dispositif : échantillon, four, thermocouple, pont d'impédance et régulateur Eurotherm. Figure.II.9 Pont d'impédance HP4194A et cellule de mesure A. AYDI 55 Chapitre II II.C.2 Mesures de piézoélectricité : a) Cas des céramiques La symétrie d'une céramique polarisée mais dont l'orientation des cristallites ne présente pas de direction privilégiée, est de type (∞mm), ses propriétés sont les mêmes que celles d'un cristal de symétrie hexagonale 6mm. La matrice des coefficients piézoélectriques est la suivante: 0 0 0 0 d15 0 0 0 0 d15 0 0 d31 d31 d33 0 0 0 d31 correspond à une déformation transverse (perpendiculaire au champ appliqué), d33 à une déformation longitudinale (parallèle au champ appliqué) et d15 à une déformation de cisaillement [59]. Pratiquement, la plupart des céramiques, même si elles sont constituées d'un matériau dont la symétrie permet l'effet piézoélectrique ne présentent pas d'effet mesurable en raison de leur texture microscopique: les grains ou cristallites y sont orientés au hasard et la somme des vecteurs de polarisation des grains est globalement nulle. Pour rendre la céramique piézoélectrique il est nécessaire de lui faire subir une opération de polarisation consistant à la munir d'électrodes et à la soumettre à une forte tension continue. Un soin tout particulier doit être apporté à cette opération, pour obtenir des mesures quantitatives des coefficients piézoélectriques. Les échantillons devront être rectifiés et les faces à électroder polies de manière à assurer une géométrie parfaitement définie : barreau cylindrique ou disque mince. Les électrodes seront de préférence de l'or ou du platine déposés sous vide après un nettoyage soigneux de l'échantillon. Le matériau étant en principe ferroélectrique, lors de l'application d'une tension continue, les polarisations de chaque grain vont s'orienter de manière préférentielle dans une direction aussi proche que possible de celle du champ électrique. Contrairement à ce qui se passe pour les moments magnétiques, les vecteurs de polarisation ont leur direction bloquée parallèlement à l'axe polaire et ne peuvent pas pivoter de manière continue mais seulement se retourner pour prendre une direction proche de celle du champ électrique, ceci est expliqué par le schéma de la figure.II.10. A. AYDI 56 Chapitre II Figure.II.10- Schéma du processus de polarisation d'une céramique: a) avant polarisation b) polarisée Il faudra pratiquer l'opération de polarisation à une température voisine ou légèrement inférieure à la température de transition paraélectrique-ferroélectrique. Le matériau sera ensuite refroidi à la température d'étude, sans oublier de le court-circuiter pour éviter éventuellement une violente décharge électrique due à l'effet pyroélectrique! La céramique (ou le film polymère ou la couche mince) présentent alors une polarisation rémanente et divers types de mesure permettent de détecter l'effet piézoélectrique. Il faut quand même noter que dans certains cas, les céramiques peuvent être naturellement polarisées par effet d'orientation sur certains substrats ou si elles ont subi des contraintes mécaniques anisotropes lors de leur élaboration. Dans le cas ou le matériau est pyroélectrique et non-ferroélectrique, l'opération de polarisation est sans effet. La taille minimum d'un échantillon doit être suffisante pour pouvoir y déposer des électrodes et y coller des fils de contact soit 1mm2 environ. Dans tous les cas, une mesure d'effet pyroélectrique permettra de s'assurer que l'échantillon est bien polarisé et donnera le signe de cette polarisation [60]. b) Méthodes de mesure de l'effet piézoélectrique Différentes méthodes sont possibles : elles utilisent soit l'effet direct (application d'une force ayant pour effet l'apparition de charges de polarisation), soit l'effet inverse dans lequel l'échantillon se déforme sous l'effet d'une excitation électrique ou exerce une force envers son support. La variation de la fréquence d'excitation mécanique ou électrique A. AYDI 57 Chapitre II augmente le type de dispositifs possibles. Pratiquement, les dispositifs les plus courants sont les piézomètres, les systèmes de mesures de déformation statique et la méthode de résonance électromécanique. La méthode de mesure des résonances électromécaniques sera décrite en détail puisque c'est la méthode la plus précise et aussi celle que nous avons utilisée. c) Mesure de l'effet piézoélectrique par la méthode des résonances électromécaniques L'échantillon est supposé polarisé et muni d'électrodes recouvrant deux faces parallèles. Les électrodes seront comme on l'a vu de l'or ou du platine pulvérisés sous vide. Les contacts de mesure seront assurés par deux fils conducteurs souples et légers (argent or ou cuivre) fixés au centre des électrodes par une colle conductrice ou par soudure ; de cette manière, l'échantillon sera suspendu librement (=sans contrainte) durant la mesure. Un appareil - analyseur d'impédance HP4194 - permet à la fois l'excitation de l'échantillon en courant alternatif à fréquence variable et la mesure des valeurs réelles G (admittance) et imaginaires B (susceptance) de l'inverse de l'impédance en fonction de la fréquence. Lorsqu'il est excité par un champ électrique alternatif de faible amplitude (quelques volts /cm) l'échantillon piézoélectrique se déforme à la fréquence du champ. Quand la fréquence devient proche d'un mode de vibration propre de l'échantillon, G et B subissent une discontinuité caractéristique (minimum d'impédance) qui pourra être enregistrée et analysée grâce à un programme approprié [61]. Dans le cas des céramiques, des calculs quantitatifs selon les standards IEEE pourront être effectués et fourniront entre autres résultats : • Qm facteur de qualité mécanique • kp facteur de couplage plan • d31 coefficient piézoélectrique transverse pour un disque mince (diamètre supérieur à 3.2 fois l'épaisseur) pour un disque mince • d33 coefficient de charge pour une baguette mince (longueur supérieure à 3.2 fois le diamètre), dans ces cas l'erreur sur le résultat sera inférieure à 1 % [58]. • k33 facteur de couplage longitudinal Comme il s'agit ici des résonances mécaniques de l'échantillon, on comprendra la nécessité d'une géométrie particulièrement précise destinée à favoriser un mode de résonance bien défini, ceci afin de simplifier un peu les calculs : la physique de propagation des ondes A. AYDI 58 Chapitre II acoustiques dans un solide conduit rapidement à des problèmes de calcul très compliqués quand plusieurs modes de résonance entrent en jeu! d) Interprétation des mesures de résonance électromécanique Un résonateur piézoélectrique simple constitué par exemple par une céramique polarisée munie d'électrodes et suspendue sans contrainte par des fils minces conducteurs se comporte sur le plan électrique comme un circuit du type représenté figure.II.11 : Fig.II.11: schéma équivalent d'un échantillon piézoélectrique Cb et Ro sont la capacité et la résistance de fuite représentant les pertes diélectriques de l'échantillon loin de la résonance, ce sont les caractéristiques d'un condensateur comportant un diélectrique classique, la branche inférieure du circuit traduit le comportement au voisinage de la résonance : Ca caractérise l'élasticité, L la masse et R les pertes d'énergie mécanique par effet d'amortissement visqueux Que se passe t-il dans cette branche piézoélectrique du circuit lorsqu'on fait varier la fréquence du signal électrique entre les deux extrémités : Dans l'espace des impédances représenté par un plan complexe, le vecteur d'impédance du système ayant pour origine O va être la somme des impédances dues à la résistance R sur l'axe des réels, à la self jLω et à la capacité –j/Cbω , toutes deux imaginaires, j2=-1. L'impédance due à la résistance restant constante et égale à R, l'extrémité du vecteur somme va donc décrire une droite verticale d'abscisse R, en partant des valeurs négatives qui surviennent lorsque la pulsation ω est faible, en raison de l'effet capacitif. L'impédance passe ensuite par un minimum égal à R puis croît à nouveau, le terme Lω dû à la self devenant prédominant lorsque la fréquence continue à croître (figure.II.12). Dans l'espace des admittances, la figure observée sera donc le lieu géométrique des points tels que Z.A = 1 ; cette figure est obtenue par une opération géométrique appelée inversion : l'inverse de la droite d'abscisse R, le pôle d'inversion étant le point origine O, est un cercle dont le diamètre est égal à 1/R et dont le centre est situé sur la droite des réels, ce cercle passe par l'origine puisque A = 0 si lim. (Z) = ±∞ (figure.II.12). A. AYDI 59 Chapitre II On peut aussi faire une démonstration algébrique de ce résultat : La relation Z.A=1 s'écrit en coordonnées cartésiennes (X+jY)(x+jy) = 1 [3] soit encore (Xx-Yy) + j(Xy-Yx)= 1 la quantité imaginaire du 1er membre de la relation est donc nulle et l'autre égale à 1 : Xx -Yy=1 et Xy-Yx = 0 ; or X = R = Cte donc Y= -Ry/x , cette valeur portée dans [3] donne : Fig.II.12 comportement en fréquence de l'impédance et de l'admittance d'un échantillon piézoélectrique Rx+Ry2/x = 1 ou bien x2+y2-x/R = 0 et finalement (x-1/2R)2+ y2 = 1/(2R)2 ceci est l'équation d'un cercle de rayon 1/2R et de centre o'(1/2R, 0). Si l'échantillon présente une géométrie adaptée, il sera possible de déterminer précisément les éléments du circuit équivalent et de calculer les paramètres piézoélectriques, sinon, la mise en évidence de cercles d'admittance sera cependant une preuve suffisante pour annoncer un effet piézoélectrique. S'ils ont pu être obtenus après polarisation d'un cristal ou d'une céramique présentant par ailleurs une transition de phase à température supérieure à la température de mesure, on pourra affirmer en outre, que le matériau est ferroélectrique. A la transition, le matériau présentera une discontinuité de la permittivité diélectrique et de la polarisation correspondant à la transition ferroélectrique – paraélectrique. En fonction du type de matériau on pourra donc avoir une idée de la valeur approchée de la fréquence de résonance du mode principal et sélectionner un domaine de fréquences à étudier voisin de la résonance correspondante. Celle-ci est en général bien visible sur le diagramme G(f) dans le cas ou la géométrie est un disque mince ou un barreau allongé. A. AYDI 60 Chapitre II Le balayage devra comporter un pas en fréquence assez réduit pour ne pas « sauter » la résonance en effet, la largeur à mi-hauteur du maximum de G(f) sera de l'ordre de 5kHz pour une céramique de facteur électromécanique Qm=100 mais se réduira à quelques hertz pour un cristal de quartz ! D'après le circuit équivalent proposé fig.II.11, les comportements de G et B quand la fréquence varie sont les suivants: G(f) = R/(R2+p2)+ 1/R0 [1] B(f) = Cbω – p/(R2+p2) [2] avec ω= 2πf et p = Lω-1/Caω e) Calcul des valeurs des éléments du circuit équivalent La valeur de R0 peut être déterminée à partir de l'équation du cercle d'admittance. Si l'on considère l'extrémité d'un rayon de ce cercle faisant un angle α avec l'horizontale, son ordonnée s'écrira : B = B0 + r sinα avec α =s.Arccos(G-G0)/r ; s = signe + ou r = rayon= 1/2R ; G0 = abscisse du centre du cercle =1/R0+1/2R ; B0 = ordonnée du centre L'équation cartésienne du cercle d'admittance s'écrit: B=B0+(s/2R)sin(Arccos2R.(G-1/R0-1/2R)) Des valeurs approchées de B0 R et R0 peuvent être proposées à partir des valeurs expérimentales de quelques points du cercle (Figure.II.13), ces valeurs seront ensuite affinées par la méthode des moindres carrés. cercle d'admittance au voisinage de la résonance radiale fondamentale pour une céramique SrNaNb(OF)15 B(S) 2.4E-03 2.2E-03 2.0E-03 1.8E-03 Fig.II.13 exemple de cercle d'admittance expérimental et calculé[58]. 1.6E-03 1.4E-03 1.2E-03 1.0E-03 0.00E+00 A. AYDI 5.00E-04 1.00E-03 G(S) 1.50E-03 61 Chapitre II Variation de l'admittance G avec la fréquence au voisinage de la résonance radiale fondamentale pour une céramique SrNaNb(OF)15 x=0.075 G(S) 1.E-03 sr1.925 G 9.E-04 sr1.925 G fit 8.E-04 7.E-04 6.E-04 5.E-04 4.E-04 3.E-04 2.E-04 1.E-04 0.E+00 450000 460000 470000 480000 490000 500000 510000 f(Hz) Fig .II.14 exemple des variations de l'admittance G d'une céramique piézoélectrique [58] Nous étudions d'après l'équation [2] le comportement de B avec la fréquence : B tend vers +∞ et se rapproche par valeurs inférieures d'une asymptote oblique qui représente le comportement du condensateur sans effet piézoélectrique. On a vu que B décrivait en fonction de G un cercle de rayon 1/2R, B présente donc un maximum et un minimum dont l'abscisse commune sera G=1/R0+1/2R et en faisant un petit changement de variable g = G-1/R0, g=1/2R soit encore 1/2R=R/R2+p2 ou encore p2=R2 relation satisfaite pour p = ±R soit Lω-1/Caω=±R ou Lω2 ±R -1/Ca = 0 le signe + conduit à une seule valeur possible ω+ = +R/2L +(R2/4L2+1/LCa)1/2 ce point correspond à un minimum de B(f) (fig.II-15), le signe - conduit aussi à une seule valeur possible ω- = -R/2L +(R2/4L2+1/LCa)1/2 A. AYDI 62 Chapitre II il s'agit ici du maximum de B(f) voisin de la fréquence de résonance. Variation de la susceptance B avec la fréquence au voisinage de la résonance radiale fondamentale pour une céramique SrNaNb(OF)15 x=0.075 B(S) 2.40E-03 B(S) B fit (S) 2.20E-03 2.00E-03 1.80E-03 1.60E-03 1.40E-03 1.20E-03 450000 460000 470000 480000 490000 500000 510000 f (Hz) Fig .II.15 exemple des variations de la suscep- tance B d'une céramique piézoélectrique [58] On peut écrire (ω+ - ω-) = R /L . fn correspond à ω+ et fm à ω- d'où les valeurs approchées des éléments du circuit équivalent : R = 1 /Gmax L = R/2π(fn-fm) et Ca = 1/4π2Lfr2 les valeur de fr, fn et fm peuvent être déduites de l'étude des valeurs expérimentales de G(f) et de B(f). Un affinement de R et Ca pourra être fait à partir des données expérimentales de G(f) , la valeur de Ca sera affinée grâce aux données de B(f) (figure.II.15). f) Détermination des propriétés d'un échantillon piézoélectrique Le facteur de qualité mécanique Qm est relatif à la forme du pic de résonance de G(f) (fig.6) autour de la fréquence de résonance fr de telle sorte que : Qm = fr /(fn-fm) = L/R(LCa)1/2 d'après les valeurs ci-dessus de fn, fm et fr soit encore Qm = (1/R)(L/Ca)1/2 Qm est d'autant plus élevé que le pic est plus étroit. Pour obtenir un maximum de précision sur les éléments propres à la branche piézoélectrique du circuit, il est nécessaire de bien encadrer la résonance de manière à ce qu'un maximum de points de mesure figure sur le cercle. La valeur précise de la vitesse de propagation pourra être calculée d'après la relation vue plus haut pour le mode fondamental étudié ici , A. AYDI v = 2Dfr 63 Chapitre II ou D est le diamètre d'un disque ou la longueur d'un bâtonnet. Le module d'élasticité peut également être recalculé d'après la relation déjà vue : s11= 1/ρ v2 =1/4ρ D2fr2 On peut aussi donner le module d'Young 1/ s11 Les valeurs des différentes grandeurs piézoélectriques sont ensuite calculées suivant les standards de IEEE à partir des fréquences caractéristiques relevées sur le cercle d'admittance comme il est indiqué à la figure.II.16 [62]. A la résonance, ω=1/(LCa)1/2 et p=o, l'ordonnée du centre du cercle sera donc Fig.II.16 Les fréquences caractéristiques dans le cercle d'admittance B(fr)= Cb/(LCa)1/2 . La fréquence de résonance fR et la fréquence d'antirésonance fa correspondent aux points du cercle ou la susceptance est nulle, les fréquences f1 et f2 correspondent respectivement au minimum et au maximum d'impédance, la fréquence de résonance pour la branche piézoélectrique fs = fr =1/2π(LCa)1/2 La fréquence fp ou fréquence de résonance parallèle est telle que (fp2-fs2)/fs2 = Ca/Cb g) Dispositif expérimental Les mesures sont réalisées au moyen d'un analyseur d'impédance HP4194 relié à un calculateur au moyen d'une interface IEEE, l'échantillon est suspendu par ses fils de mesure courts ( 2 à 5cm) à un boîtier adapté, pour le cas d'une simple mesure à l'air à température ambiante. Une cellule étanche fonctionnant entre 90 et 600K est disponible pour des mesures en température, elle permet également des mesures diélectriques mais la fréquence est limitée à 10MHz. Un régulateur Eurotherm 905 permet une régulation précise de la température (figure.II.17). Un programme interactif [63] permet de commander l'analyseur d'impédance : une fois calibré, il est possible d'explorer les valeurs de G et B en fonction de la fréquence afin de rechercher le mode fondamental souhaité comme il est indiqué ci- dessus. Un domaine de fréquence qui comportera 401points de mesure est ensuite enregistré autour de la A. AYDI 64 Chapitre II résonance à étudier soit de 15 à 25 fois la largeur à mi-hauteur du pic de résonance en G. La mesure une fois terminée, les calculs se déroulent de la manière suivante : • Affinement des paramètres du cercle d'impédance, • recherche des valeurs approchées du circuit équivalent, • affinement de leurs valeurs puis, • calculs finaux tenant compte des dimensions, de la densité et de la permittivité de enregistrement éventuel l'échantillon, des Fig.II.17 Schéma du montage expérimental des mesures de résonance électromécaniques courbes expérimentales et calculées de G(f), B(f) et B(G) (cercle d'admittance). Toutes les routines de calcul sont prévues dans le programme de traitement et rendent les procédures assez commodes à utiliser. Pour un échantillon de bonne qualité, les mesures et les calculs demandent environ 1/2h. II.C.3. Pyroélectricité : Il s'agit d'étudier des matériaux présentant une polarisation spontanée, Ps qui se mesure en densité de charges par unité de surface. Cette polarisation a pour origine une asymétrie du réseau cristallin, il s'agit de charges fixes liées au réseau et par conséquent difficilement mesurables. Le coefficient pyroélectrique primaire p est égal par définition à la variation de la polarisation spontanée Ps en fonction de la température T: p= -dPs/dT (en caractères gras : vecteurs). Lorsque cette polarisation varie, on pourra recueillir les charges différentielles correspondantes grâce à des électrodes déposées sur des parois perpendiculaires à l'axe polaire et mesurer soit un courant soit une tension. Pour un matériau polaire, le déplacement électrique s'écrit : D = εE+ P S'il s'agit d'un diélectrique non-conducteur la densité de courant j s'écrira : j = ∂D/∂t ou t est le temps A champ électrique nul (E=0) et dans le cas d'un cristal pyroélectrique, on aura : D = Ps A. AYDI 65 Chapitre II la valeur de la densité de courant suivant l'axe polaire, s'écrira : j = dPs/dt = (dPs/dT).(dT/dt) ou t est le temps et T la température, on voit apparaître la quantité b= dT/dt qui est le taux de variation de la température avec le temps et qui joue un rôle important dans le phénomène. Le courant pyroélectrique pour tout l'échantillon dont une électrode a une surface s se réduit à sa valeur suivant l'axe polaire : i = s.j = -p .s.b Connaissant la valeur du courant pyroélectrique et le taux de variation de la température b à une température donnée, on peut calculer la valeur du coefficient pyroélectrique : p= -i/(s.b) ensuite, connaissant les variations thermiques de p on pourra calculer Ps par intégration en fonction de la température: Ps(T) = ∫Tc p(u)du Pratiquement, différentes méthodes sont possibles pour déterminer i(T) et b= dT/dt . Mesure de l'intensité du courant : Il existe deux méthodes : la mesure des courants de dépolarisation thermique qui est utilisée à l'ICMCB, inspirée par G.Chanussot[61] et due à différents auteurs notamment S.B.Lang[62] , et la méthode de Chynoweth[63]. La méthode de Chynoweth consiste à placer l'échantillon dans une zone thermostatée et à le soumettre à un rayonnement infrarouge alternatif (=dont l'intensité varie de manière sinusoïdale en fonction du temps). Lorsque l'échantillon est stabilisé en température, on mesure la tension . La méthode de dépolarisation thermique utilisée pour nos mesures consiste à soumettre l'échantillon à une variation monotone de température (linéaire si possible) et à mesurer en même temps la température et le courant. Il faut savoir que la mesure suppose que la température de l'échantillon soit homogène, sinon, du fait de la contrainte mécanique due aux gradients de température, on A. AYDI 66 Chapitre II peut récupérer des charges dues à l'effet piézoélectrique, on qualifie alors cet effet de pyroélectrique secondaire. De ce fait les variations de température de l'échantillon ne doivent pas être trop rapides. Il ne faut quand même pas utiliser des vitesses trop lentes, surtout si le coefficient pyroélectrique est faible. Les vitesses sont donc en général comprises entre 2 et 10K/min. La méthode de Chynoweth, est sans doute moins sensible aux dépolarisations parasites (hors variations de Ps) mais induit nécessairement un effet pyroélectrique secondaire, elle est surtout utilisée pour évaluer les performances des matériaux en tant que détecteurs infrarouge[64]. On peut rappeler que parmi les 32 groupes ponctuels de symétrie, 21 ne présentent pas de centre de symétrie, parmi ces groupes non-centrosymétriques, 20 permettent un effet piézoélectrique et parmi ces 20 groupes seuls 10 présentent un axe polaire donnant la possibilité d'un effet pyroélectrique. Dans certains cas, la polarisation spontanée des pyroélectriques peut être renversée par l'action d'un champ électrique, il s'agit alors de matériaux ferroélectriques. Dans le cas d'une céramique, c'est un peu plus compliqué du fait de l'orientation variée des cristallites ou grains: Si le matériau est purement pyroélectrique, comme pour le cas des monocristaux, il est probable que la céramique ne soit pas polarisée et comme elle n'est pas – par définitionpolarisable la mesure sera infructueuse. Si la céramique est constituée d'un matériau ferroélectrique on peut en principe la polariser par l'action d'un champ continu appliqué à une température inférieure à la température de Curie ferroélectrique. De manière microscopique, le champ électrique peut déplacer les ions vers de nouvelles positions d'équilibre à l'intérieur de la maille cristalline, il s'en suit, soit le retournement de la polarisation spontanée dans une direction aussi proche que possible de celle du champ, soit un mouvement des parois de domaine ferroélectrique favorisant les domaines dont la polarisation est proche de celle du champ ; on aboutit dans tous les cas à une valeur de la polarisation inférieure à celle d'un cristal monodomaine sans défaut. A. AYDI 67 Chapitre II Métallisation de l'échantillon L'échantillon doit être revêtu d'électrodes sur les facettes perpendiculaires à l'axe polaire s'il s'agit d'un cristal, sur des faces planes parallèles s'il s'agit d'une céramique. Pratiquement il vaut mieux ne pas prendre des échantillons trop épais, on polarise en général mieux des échantillons minces : on choisira des épaisseurs comprises entre 0.2 et 1mm pour une céramique massive. Les champs appliqués varient de 500 à 2000V/mm. On aura intérêt à utiliser un générateur de tension continue limitant automatiquement l'intensité (aux environs de 1mA par exemple) pour éviter le claquage de l'échantillon. Cette opération se déroulera en général après avoir placé l'échantillon dans la cellule de mesure. Il sera préalablement étuvé sous vide puis placé sous une atmosphère de gaz sec afin de limiter les claquages éventuels. Cellule de mesure Afin d'assurer une bonne homogénéité thermique autour de l'échantillon, il vaut mieux qu'elle soit étanche afin de pouvoir y faire le vide et la remplir d'hélium. L'échantillon est suspendu à des fils fins, d'or ou d'argent de 0.05 à 0.2mm ou collé sur un bloc métallique pour une facette, l'autre étant reliée au fil de mesure par collage avec une goutte de laque d'or ou d'argent. Les contacts électriques doivent être particulièrement soignés de manière à ne pas introduire d'impédance parasite dans le circuit de mesure, car les courants à détecter sont généralement très faibles. La température sera mesurée au moyen d'une sonde ou d'un thermocouple très sensible (thermocouple type K, chromel-alumel de 0.25 mm de diamètre pour chaque fil par exemple)placé très près de l'échantillon (1 à 2mm). Polarisation L'échantillon est soumis à un champ continu, à une température comprise entre TC et TC-50K pendant une durée allant de une minute (BaTiO3) à 15 minutes (PZT) ; Il est ensuite maintenu en température et mis en court-circuit durant un temps suffisamment long pour qu'il ne débite pratiquement plus de courant. A. AYDI 68 Chapitre II Chauffe/refroidissement Comme on l'a vu plus haut, le courant mesuré est proportionnel aux variations de la température en fonction du temps, toute irrégularité dans le régime de variation de T se traduit donc par un accident sur la courbe de courant, il faut donc utiliser un bon régulateur et un capteur de température sensible (Eurotherm + thermocouple fin de diamètre 0.5mm par exemple). Pour la chauffe, utiliser une vitesse de l'ordre de 4 à10K/min. T (K) 400 Courbe de chauffe typique 350 300 250 200 150 100 50 0 500 1000 1500 2000 2500 3000 3500 t (s) 4000 Mesures de i et T Les courants pyroélectriques mesurés sont en général très faibles : la gamme de mesure va de 1 à 15nA/cm2 pour un échantillon de type BaTiO3 ou BTNN elle peut descendre à 1pA/cm2 dans le cas de ferroélectriques faibles de type BaAl2O4 : il est donc nécessaire d'utiliser un appareil de mesure très sensible présentant un faible bruit de fond[65]. Les électromètres de Marque Keithley sont réputés pour cette propriété. A l'ICMCB on utilise un modèle ancien le 610C comportant une sortie analogique 3Volts qui est reprise par une carte Analogique-Digitale Metrabyte pour transmettre le signal à un PC. Bien entendu des appareils plus modernes disposant d'une interface parallèle de type IEEE sont également utilisables. La température est enregistrée simultanément au moyen d'un thermomètre possédant une interface RS232. La commande du régulateur pour les montées ou descentes en température et l'enregistrement des signaux i et T se fait à partir d'un PC (un processeur de type 386 est suffisant) par l'intermédiaire d'un petit programme écrit en langage BASIC. Les résultats sont fournis sous la forme d'un fichier (t, T, i ) (temps en secondes, température en K et intensité en nA). A. AYDI 69 Chapitre II Fil de base Electro -mètre Fil de mesure (entouré par sa gaine Cellule de mesure Générateur Hautetension four Vue de détail Ensemble de mesure des thermocourants Traitement des mesures, calcul de p et Ps Un programme approprié permet de calculer b, il utilise une méthode de lissage par polynôme : les points t, T sont traités par groupes de 7, les coefficients d'un polynôme de degré 4 sont ajustés de manière à minimiser les écarts entre les valeurs mesurées et calculées de T, la dérivée de ce polynôme au 4éme point donne la valeur de b[66]. La valeur de p est ensuite calculée d'après la relation p = i/(s.b). Cette méthode permet d'utiliser un régime de chauffe qui ne soit pas rigoureusement linéaire, ce qui est inévitablement le cas lors de la mise en route du programme thermique. II.D La spectroscopie Raman : la Micro-spectrométrie Raman est une technique qui se révèle bien adaptée à l'analyse des matériaux polaires. Elle présente les avantages suivants : * C'est une méthode non destructive - elle conserve l'échantillon - on peut même faire des analyses in situ; elle ne nécessite a priori aucune préparation avant analyse (polissage, A. AYDI 70 Chapitre II pastillage, montage, etc), elle est donc idéale pour l'étude de tout objet de valeur ou pour les objets archéologiques. * Elle ne nécessite qu'une infime quantité de matière (contrairement à la méthode de diffraction X (DX) ou à la spectrométrie Infra rouge (IR) qui demandent quelques dizaines de milligrammes, la Micro-spectrometrie RAMAN ne nécessite que quelques microgrammes ou même un cristal ). * Elle permet l'étude de milieux non cristallisés tels que le verre, les liquides, les gaz ou tout autre matière organique (ex : charbon de bois ) - contrairement à la DX L'application de la méthode RAMAN à l'étude des minéraux repose sur le principe des vibrations des atomes dans le réseau cristallin. Ces vibrations sont identifiées par différents décalages de fréquences de la lumière visible, ultraviolette ou infrarouge émise par l'échantillon. Ces vibrations dépendent de la cristallochimie du minéral et elles peuvent ainsi nous renseigner sur [67-70] : * La nature du cristal (à la fois sa structure et sa composition chimique) * L'état de cristallinité d'un minéral * Son degré d'ordre On peut également distinguer des cristaux polymorphes (composition chimique identique mais de structure différente) ex : l'aragonite de la calcite, le quartz de la cristobalite, la goethite de la lépidocrocite etc. Si nous devons parler des points faibles de cette méthode nous dirons que : * Plus le minéral est coloré ou de structure complexe, plus l'acquisition sera longue -quelquefois des heures -(très forte absorption des rayons laser pour les minéraux opaques); aussi est-il est conseillé d'utiliser un rayonnement laser de couleur identique à l'échantillon, afin de réduire l'absorption; ex : du laser vert à argon pour les cristaux verts et du laser rouge à néon pour les cristaux rouges * Ces éléments doivent également rester stables sous l'impact d'un échauffement local possible. A. AYDI 71 Chapitre II A. AYDI 72 Chapitre 3 Etude de la solution solide BaSnO3-NaNbO3 (BSNNx) A. AYDI 73 A. AYDI 74 Chapitre III Etude de la solution solide BaSnO3-NaNbO3 (BSNNx) Introduction Depuis quelques années, un nouvel axe de recherche se développe dans le domaine des matériaux diélectriques; il s'agit des relaxeurs ferroélectriques. L'intérêt qu'ils suscitent est directement lié à l'existence d'une transition de phase diffuse qui correspond à une permittivité élevée dans une large gamme de température. Ce sont donc des candidats très prometteurs pour l'industrie des condensateurs multicouches. La plupart des applications visent à une miniaturisation des composants de manière à rendre les dispositifs plus compacts et plus performants. Leur utilisation à grande échelle dans des matériels de large diffusion comme les téléphones cellulaires ou les dispositifs informatiques portables nécessite donc un respect de l'environnement pour tous les composants. Des matériaux à base de plomb ont donné des bons résultats dans ce domaine, mais ces composés sont toxiques et pour cette raison notre objectif est de rechercher des matériaux de substitution respectant l'environnement, donc exempts de plomb ou d'autres éléments toxiques. Les matériaux existants notamment la solution solide entre BaTiO3 ferroélectrique et BaSnO3 paraélectrique étudiée par Smolensky donne des relaxeurs avec des températures de transition très basses donc peu intéressants pour des applications. Le but de cette étude est d'utiliser, comme terme de la solution solide, NaNbO3 qui présente une transition à température relativement élevée ( 630K) et BaSnO3. III. A – Synthèse des poudres et élaboration de céramiques La méthode utilisée pour la préparation des composés est la voie solide classique. Elle consiste à faire réagir, à l'état solide par diffusion et à des températures plus au moins élevées, des réactifs qui sont, en général, des carbonates et des oxydes. A. AYDI 75 Chapitre III III. A-1 Mélange des poudres: II.A. Les poudres d'oxydes et de carbonates ( Tableau III. 1) sont séchées à l'étuve à 150°C durant une nuit puis pesées à 10-4 g prés dans les proportions stoechiométriques permettant d'obtenir la composition désirée. Le mélange est réalisé à l'aide d'un broyeur planétaire à billes d'agate pendant une heure en présence d'alcool. Cette opération a pour but de réduire la taille des particules et de favoriser l'homogénéité du mélange. L'ensemble est ensuite placé à l'étuve à 100°C afin d'éliminer l'éthanol. Produits de départ Pureté(%) Origine Na2CO3 99.5 Merck BaCO3 99.9 Aldrich Nb2O5 99.9 Aldrich SnO2 98.0 Prolabo Tableau III. 1: Produits utilisés pour les synthèses. III. A-2 Calcination des produits: Afin de favoriser la réaction, la poudre est mise en forme par pressage sous 200 MPa pendant 1 minute, sous forme de disques de 13 mm de diamètre et 1 cm d'épaisseur. Le mélange est porté en température dans un creuset d'alumine à 1100°C pendant 15 heures environ. La réaction de synthèse à lieu sous courant d'oxygène dans un four électrique . Le cycle thermique de calcination est proposé dans la figure 1. L'équation de la réaction est la suivante : (1-x)BaCO3 + x/2 Na2CO3 + (1-x)SnO2 + x/2 Nb2O5 Ba1-xNaxSn1-xNbxO3 + (1-x/2)CO2↑ Cette réaction donne lieu à la formation d'une solution solide de composition Ba1-xNaxSn1-xNbxO3 que nous désignerons par BSNNx. A. AYDI 76 Chapitre III Réaction 1100°C Température (°C) Chauffage 200°C/h 200°C 10min Chauffage 60°C/h 15 h environ Tamb Refroidissement 300°C/h Tamb Temps Figure III. 1: Cycle thermique de la réaction chimique d'élaboration Au cours de la calcination il y a un dégagement de CO2 et vaporisation des liquides présents (alcool, eau). II.A.1. III. A – 3 Contrôle des poudres par diffraction des rayons X: L'analyse radiocristallographique des poudres calcinées est effectuée par diffraction des rayons X à la température ambiante à l'aide d'un enregistrement rapide. Les diagrammes de diffraction des rayons X sont traités à l'aide de la chaîne de programmes Diffract-AT [Cou89]. L'exploitation de ceux-ci permet d'estimer les limites des domaines biphasés qui limitent la solution solide et de contrôler d'éventuelles impuretés dans le produit obtenu. III. A-4 Elaboration des céramiques: Les différentes étapes d'élaboration des céramiques sont schématisées à la figure III.2 . Poudre A. AYDI mise forme en traitement thermique (frittage) céramiques massives 77 Chapitre III Figure III. 2 : Procédé d'élaboration des céramiques étudiées. III. A-4.a Mise en forme des poudres: Les poudres préalablement chamottées sont broyées en présence d'eau additionnée de dispersant pendant 45 minutes pour homogénéisation et abaissement de la taille moyenne des grains. Le dispersant a pour but d'éviter la formation d'agrégats de petits grains en fin de broyage : la granulométrie finale est de l'ordre de 1μm. Un liant / plastifiant est ajouté au mélange en faible quantité, à la fin du broyage, afin de faciliter la mise en forme ; ce mélange est séché à l'étuve à 150°C durant 3 heures. La poudre est ensuite broyée manuellement au mortier durant 15 min elle est enfin mise en forme par pressage uniaxial à l'aide d'une matrice cylindrique de 8mm de diamètre sous une pression de 100 à 150 MPa pendant une minute environ. Les pastilles" crues" ainsi élaborées forment un cylindre de 1 à 1.5 mm d'épaisseur et de 8 mm de diamètre. III. A-4. b Conditions opératoires du frittage: L'opération de frittage consiste à consolider, par action de la chaleur, un agglomérat de grains plus au moins compact. Pendant le frittage, certains paramètres tels que la température et l'atmosphère du milieu dans lequel se déroule le traitement thermique influent sur la taille et la forme des grains ainsi que sur la densité des céramiques. Pour obtenir des céramiques utilisables, il faut définir un profil de température (vitesse de la montée et de la descente en température, durée des paliers pour chaque composition) permettant d'obtenir des céramiques aussi denses que possible. Les conditions de frittage des céramiques des systèmes étudiés ont été établies après plusieurs essais de traitement thermique. Les premières tentatives ont conduit à des céramiques soit non densifiées, soit déformées par fusion partielle. Le frittage des échantillons "crus" est réalisé à l'air enrichi en oxygène dans un four électrique suivant le cycle thermique donné figure III. 3. Un chauffage à 400°C pendant une heure A. AYDI 78 Chapitre III permet d'éliminer le liant organique ajouté avant le frittage. La température du palier est fixée à 1350°C avec une durée relativement courte (2 heures) afin d'éviter une croissance exagérée des grains. Température (°C) 1350°C 300°C/h 400°C 2h 200°C/h 200°C 60°C/h Refroidissement 300°C/h 1h 1/4h Tambiante Tambiante Temps Figure III. 3: Cycle thermique de frittage des céramiques BSNNx. III. A -5 Caractérisation des céramiques : III. A -5- a Contrôle des céramiques par diffraction des rayons X: Les céramiques sont systématiquement analysées par diffraction des rayons X à température ambiante. Les diffractogrammes sont réalisés soit sur les faces planes rectifiées des échantillons soit sur de la poudre obtenue par broyage manuel des pastilles. Dans tous les cas, les spectres de rayons X des céramiques après frittage présentent des pics de diffraction identiques à ceux obtenus sur la poudre de même composition. Aucune phase parasite n'a été observée en plus de la solution solide BSNNx. A. AYDI 79 Chapitre III III. A-5- b Densité des céramiques frittées: La densité relative D ou compacité, définie par la relation (1), donne les premières informations sur l'état de densification du matériau après le traitement thermique. Plus on élimine la porosité, plus la densité relative est élevée (matériau dense). D = ρ exp/ρ th Avec (1) ρ exp : masse volumique expérimentale ρ th : masse volumique théorique Les masses volumiques expérimentales sont en réalité les valeurs apparentes déterminées par le rapport entre la masse et le volume de la pastille frittée assimilée à un cylindre : ρ exp = mp/π(Φ/2)2e Avec mp : masse de la pastille. Φ : diamètre. e : épaisseur. Les masses volumiques théoriques sont calculées d'après la formule(2), à partir des valeurs des paramètres de maille obtenus par diffraction des rayons X à la température ambiante. ρ th = M Z/V N ou (2) M : masse molaire de l'échantillon. Z : nombre d'unités formulaires par maille. N: nombre d'Avogadro. V : volume de la maille. Les céramiques de la solution solide BSNNx de compositions comprises entre 85 et 95% en NaNbO3 et initialement frittées dans la gamme de température 1200 à 1400°C présentent une densité relative de l'ordre de 92%. Les paramètres adaptés pour le frittage des céramiques étudiées sont reportés dans le tableau III.2. A. AYDI 80 Chapitre III Composition Température Durée du ρ exp ρ th Densité %molaire du palier(°C) Palier(h) (g/cm3) (g/cm3) relative D(%) BSNNx 75 1300 2 4.3520 4.7360 91.89 80 1300 2 4.3020 4.6796 91.93 85 1350 2 4.2822 4.6570 91.95 90 1350 2 4.2717 4.6441 91.98 95 1350 2 4.2586 4.6309 91.96 Tableau III. 2 : Paramètres de frittage et densités relatives des céramiques du système BSNNx III. B - Domaine d'existence des solutions solides et paramètres de maille III. B-1 Etude cristallochimique: Le composé NaNbO3 possède à 300K une structure perovskite distordue . Il est antiferroélectrique à température ambiante [71,72]. Certains auteurs ont cependant montré qu'une faible substitution du sodium par le lithium(>2%) ou celle du Nb5+ par W5+ entraînait l'apparition d'une phase ferroélectrique[7375]. L'étude du systéme NaNbO3 – BaTiO3 [76], à montré la présence d'une solution solide ferroélectrique. A. AYDI 81 Chapitre III Nous nous sommes proposé d'entreprendre l'étude, entièrement inédite, du système NaNbO3BaSnO3, afin de définir les domaines d'existence des diverses phases d'une part et de mettre en évidence d'éventuelles transitions ferroélectriques ou relaxeur - paraélectrique d'autre part. L'étude radiocristallographique a permis de mettre en évidence une solution solide de composition Ba1-xNa xSn1-xNb xO3 dans le domaine 0<x<1. Les diffractogrammes sont enregistrés à température ambiante sur les céramiques. L'enregistrement des intensités est réalisée pas à pas avec un temps de comptage de 10 secondes pour un pas de 0.02° en 2θ à l'aide d'un diffractométre à compteur utilisant le rayonnement Kα d'une anticathode de cuivre. Les figures III.4a et III.4b montrent les spectres de diffraction des rayons X des composés BSNN0.75 (x = 0.75) et BSNN0.90(x = 0.90). Ces spectres sont caractéristiques d'une phase unique de type perovskite. Les paramètres de la maille sont affinés par la méthode globale d'analyse de profil de Pawley à l'aide du logiciel fullprof. Le composé correspondant à x = 0.75 cristallise dans le systéme cubique avec le paramètre de la maille a = 3.985(2) Ǻ La compacité est égale à 92 % . L'analyse radiocristalographique a été réalisée pour cinq compositions x = 0.75, 0.80, 0.85, 0.90 et 0.95 de la solution solide BSNNx; la figure III. 5 résume les résultats de cette analyse. D'après cette figure on remarque qu'il y a une décroissance des paramètres et du volume de la maille quand x augmente c'est à dire lorsqu'on se rapproche de NaNbO3. Une légère distorsion quadratique apparaît pour des compositions x ≥ 0.90 ; cette valeur constitue la limite des phases cubique et quadratique à 300K pour x croissant. A 300K, la solution solide Ba1-xNaxSn1-xNbxO3 cristallise donc soit dans le système cubique pour les compositions x<90 soit dans le système quadratique pour x ≥ 90. A. AYDI 82 Figure.IIII.4a Spectre de diffractiopn X enregistré et calculé pour une céramique BSNN0.75 frittée à 1350°C symétrie cubique Chapitre III A. AYDI 83 Figure.IIII.4b Spectre de diffractiopn X enregistré et calculé pour une céramique BSNN0.90 frittée à 1350°C symétrie quadratique Chapitre III A. AYDI 84 Chapitre III a c V v 65 3.95 c a 63 3,90 3.9 61 3.85 V 3,80 3.8 0.7 0 0.75 0.8 0 0.85 0.9 0 0.95 x 59 1 1,00 Figure III. 5 Variation des paramètres et des volumes de maille en fonction de la composition pour le système (1-x) BaSnO3 –x NaNbO3 III. B-2 Etude Diélectrique: Les mesures diélectriques sont réalisées de 60 à 600K, sous vide à l'aide d'un pont automatique d'impédance Wayne-Kerr 6425 dans une gamme de fréquence de 102Hz à 2 105Hz. Les faces parallèles des échantillons sont recouvertes d'électrodes conductrices d'or par pulvérisation cathodique, afin de former un condensateur plan. Les valeurs des permittivités réelles ε'r et imaginaires ε''r des céramiques sont déduites des mesures de capacité et du facteur de perte tgδ de l'échantillon. ε'r = C/C0 avec C0 = ε0 S/e A. AYDI et ε''r = ε'r tgδ 85 Volume de la maille (Ǻ3) Paramètres de la maille (Ǻ) 4 4,00 Chapitre III S : surface d'une électrode .e : épaisseur de l'échantillon Les figures III. 6a et III. 6b montrent les variations thermiques de la partie réelle de la permittivité diélectrique ε'r en fonction de la fréquence, pour des céramiques frittées à 1350°C et pour les compositions x = 0.80, 0.85, 0.88 et 0.90. A. AYDI 86 Chapitre III ε 'r 600 BSNN 0.80 (x = 0.80) 550 500 450 0.1 kHz 0.5 kHz 1 kHz 5 kHz 10 kHz 50 kHz 100 kHz 200 kHz 400 350 300 250 50 150 250 ε 'r 1000 350 450 T(K) BSNN 0.85 (x = 0.85) 900 800 0.1 kHz 0.5 kHz 1 kHz 5 kHz 10 kHz 50 kHz 100 kHz 200 kHz 700 600 500 400 80 120 160 200 240 280 320 T(K) 360 Figure III. 6a Variations thermiques de ε'r pour des céramiques BSNNx (x = 0.80 et 0.85) frittées à 1350°C. A. AYDI 87 Chapitre III 1600 ε'r BSNN 88 (x = 0.88) 0.1 KHz 1 KHz 10 KHz 200 KHz 1200 800 400 50 125 200 275 350 T(K) 425 ε 'r 2000 BSNN 0.90 (x = 0.90) 1800 0.1 kHz 0.5 kHz 1 kHz 5 kHz 50 kHz 100 kHz 200 kHz 1600 1400 1200 1000 800 600 400 50 150 250 350 450 T(K) 550 Figure III. 65b Evolutions thermiques de ε'r pour des céramiques BSNNx (x = 0.88 et 0.90) frittées à 1350°C. A. AYDI 88 Chapitre III Pour les compositions x ≥ 90, l'évolution thermique de ε'r montre la présence d'un pic étroit de la partie réelle de la permittivité diélectrique à la température de Curie TC . A TC on observe une diminution de ε'r quand la fréquence augmente sans déplacement de la température de transition en fonction de la fréquence. Ce comportement est celui d'un matériau ferroélectrique classique. Les variations thermiques de ε'r pour les compositions x<0.90 mettent en évidence des pics étendus en température; cet élargissement des pics peut être attribué au caractère diffus de la transition. Ce caractère peut résulter d'un désordre plus ou moins important au sein des sites cationiques du matériau. Quand la fréquence augmente, Tm se déplace vers les hautes températures et les valeurs maximales de ε'r diminuent .Ce comportement illustre bien le caractère relaxeur de ces matériaux quand x<90. La figure III. 7 montre un exemple de l'évolution thermique à basse fréquence de la partie imaginaire de la permittivité diélectrique de la céramique BSNNx de composition x = 0.88. sur cette figure on peut remarquer que les pertes diélectrique sont faibles (tgδ = 2%). L'étude en fréquence des céramiques Ba1-xNaxSn1-xNbxO3 a permis de mettre en évidence, pour des compositions x inférieures à 0.90 (x = 0.75; 0.80; 0.85; 0.88) le caractère diffus de la transition de phase et une dispersion en fréquence des valeurs de ε'r au dessous de Tm . Ce comportement est caractéristique d'un matériau diélectrique relaxeur. A. AYDI 89 Chapitre III 50 0.1 kHz 1 kHz 10 kHz 200 kHz BSNN 88 (x = 0.88) ε"r 40 30 20 10 0 50 100 150 200 250 300 T(K) 350 Figure III. 7 : Evolution thermique à basse fréquence de la partie imaginaire de la permittivité diélectrique, pour une céramique de composition BSNN0.88. Afin de résumer cette étude diélectrique les figures 8a et 8b montrent l'évolution des températures de transitions et des valeurs maximum de ε'r en fonction de la composition. La figure III. 8a montre une augmentation des valeurs maximum de ε'r qui varient de 300 (x = 0.75) à 2100 ( x = 0.95) pour des valeurs croissantes de x (donc de plus en plus proches de NaNbO3) . La figure III. 8b montre les évolutions de ∆Tm = (Tm(2.105Hz)-Tm(102 Hz)) et de la température de transition en fonction de la composition. D'après cette figure ∆Tm décroît quand x augmente et sa valeur s'annule finalement au voisinage de x = 0.90. On constate également une augmentation de la température de transition lorsque la valeur de x augmente. A. AYDI 90 Chapitre III ε' r 2300 m BSNN x 1900 1500 1100 700 300 0.70 0.75 0.80 0.85 0.90 0.95 x 1.00 Figure III. 8a : Evolution des valeurs maximales de ε'r, à 1 kHz en fonction de la composition pour la solution solide, BSNNx 30 ∆ Tm (K) 550 Tm(K) 25 450 20 350 15 250 10 150 5 0 50 0.70 0.75 0.80 0.85 0.90 0.95 x 1 Figure III. 8b: Evolution de ∆Τm et de Tm en fonction de la composition pour la solution solide BSNNx A. AYDI 91 Chapitre III - Limite entre les phases relaxeur et ferroélectrique: Les études réalisées sur le système Ba1-xNaxSn1-xNbxO3 montrent que la limite entre la phase relaxeur et la phase ferroélectrique est située au voisinage de la composition x = 0.90, mais cette valeur est affectée d'une incertitude due aux imprécisions de mesure. Pour déterminer la limite exacte nous avons utilisé un procédé de calcul basé sur la loi de VogelFülcher [77]; son principe est le suivant: La température du maximum de la partie réelle de la permittivité diélectrique(Tm) peut être relié à la fréquence par la relation suivante: logf = logf 0 − avec: Ea k(Tm − Tf ) (1) f0 : fréquence de relaxation des dipôles à haute température Ea : énergie d'activation Tf : température de gel des dipôles k : constante de Boltzman A partir de l'équation (1) on peut tirer l'expression de Tm (avec log f = X et log f0 = X0) Tm = T f + Ea . kX 0 1 X (1 − ) X0 (2) Puisque les mesures se font à basse fréquence donc largement au dessous de la fréquence de relaxation, on a log f << log f0 et avec le changement de variable précédent X << X0, ce qui nous permet d'utiliser le développement en série suivant: ( 1 ≈ 1 + x + x 2 + ) 1− x On peut alors exprimer la relation entre Tm et log f par la relation: A. AYDI 92 Chapitre III Tm = T f + Ea E + a2 x + kX 0 kX 0 Tm = T f + Ea Ea + log f + k log f 0 k (log f 0 ) 2 soit Cette relation montre que Tm suit une loi linéaire approchée en log f et pour cette raison nous avons tracé sur la figure III. 9 l'évolution de Tm(f)/Tm(1kHz) en fonction de log f pour différentes compositions (x = 0.75; 0.80; 0.85; 0.88 et 0.90). 1.20 Tm(f)/Tm(1KHz) x = 0.75 1.15 1.10 x = 0.80 x = 0.85 1.05 x = 0.88 1.00 x = 0.90 0.95 0.90 100 1000 10000 100000 1000000 f(Hz) Figure III. 9 Evolution de Tm(f)/Tm(1kHz) en fonction de la fréquence pour différentes compositions de la solution solide BSNNx La figure III 9 confirme cette loi linéaire et montre que la pente des droites diminue quand la composition en NaNbO3 augmente et s'annule à partir de la compostion BSNN0.90. Pour distinguer la phase relaxeur de la phase ferroélectrique dans la solution solide Ba1-xNaxSn1-xNbxO3 nous avons tracé sur la figure III. 10 l'évolution de la pente des droites en A. AYDI 93 Chapitre III fonction de la composition. La relation entre la pente de cette droite et la composition est donnée par la relation suivante: y = -0.0021 x + 0.1837 D'après cette relation la pente (y) s'annule lorsque la composition est égale à 0.89, cette valeur correspond à la limite de séparation entre les deux phases. Ea/ log f0 0.035 y = -0.0021x + 0.1837 2 R = 0.9992 0.025 0.015 0.005 -0.005 0.74 0.78 0.82 0.86 0.90 0.94 0.98 x Figure III. 10 Evolution de la pente des droites (Tm = f(f)) en fonction de la composition D'après les mesures expérimentales et en se basant sur l'étude bibliographique on peut déduire que le comportement relaxeur peut être induit par l'inhomgéniété introduite par le mélange de deux phases de structures différentes. Nous remarquons que les températures des transitions de phases des compositions appartenant à la solution solide Ba1-xNaxSn1-xNbxO3 présentent des valeurs inférieures par rapport à celle des deux composés mères. Nous assistons aux séquences de phases suivantes. A. AYDI 94 Chapitre III BaSnO3 cubique Paraélectrique a= 4.140°A NaNbO3 orthorhombique 300K quadratique 848K Anti-ferroélectrique TC cubique 913K a=3.9404°A Paraélectrique Paraélectrique Ba0.1Na0.9Sn0.1Nb0.9O3 rhomboédrique orthorhombique quadratique 175 K Ferroélectrique TC cubique 380K Paraélectrique Ce qui implique que la substitution du Barium par le Sodium et l'Etain par le Niobium peut être un agent de modulation de la température de transition. Ce phénomène peut jouer un rôle important pour une éventuelle application de ce nouveau matériau. III.C Etude spectroscopique par diffusion Raman La dépendance en composition du spectre Raman de la solution solide Ba1-xNaxSn1-xNbxO3 est représentée sur la figure III-11 pour une large gamme de fréquence 100- 1400 cm-1 et réalisée à la température ambiante. Le spectre Raman avait été enregistré avec un spectrophotomètre triple monochromateur Dilor Z24, équipé d'un laser spectrophysics à argon ionisé en utilisant la raie excitatrice λ =514.5nm avec une puissance d'environ 500mw. La largeur des fentes est voisine de 4cm et A. AYDI 95 Chapitre III l'incertitude sur les fréquences est de 2cm-1. L'échantillon est contenu dans un capillaire. L'observation faite à 90° de la direction du faisceau incident. Sur la figure III-11 on observe quatre bandes. Ces bandes apparaissent dans notre composition à des fréquences très proche de celles des composés mères NaNbO3 et BaSnO3 (ou SnO2) comme le montre le tableau III-3(à température ambiante). En effet un déplacement du pic 230cm-1, correspondant au phonon (Na-O) du spectre Raman de Ba0.7Na0.3Ti0.7Nb0.3O3 (Tableau III-3), vers les basses fréquences 200cm-1 et un déplacement du mode 540cm-1 vers les hautes fréquences 600cm-1, qui correspond au phonon (Nb-O), sont observés. Ainsi que le mode 816 cm-1 du spectre Raman de SnO2 (Tableau III-3) est déplacé vers les hautes fréquences 850 cm-1 correspondant au phonon (Sn-O). Alors que pour le mode 310cm-1 du phonon Ba-O n'a pas été détecté pour ces spectres. Composé Ba0.7Na0.3Ti0.7Nb0.3O3 Fréquence (cm-1) vibration 540 ν (Nb-O) 310 ν (Ba-O) 230 ν (Na-O) 775 ν (Sn-O) SnO2 420 ν (O NaNbO3 557.2 ν (NbO6) 816.1 ν (Sn-O) ) Tableau III-3- ( A.AYDI, DEA, Caractérisation diélectrique et spectroscopique d'une céramique de formule Ba0.1 Na 0.9 Sn 0.1 Nb 0.9 O3 , juillet 2002) A. AYDI 96 Chapitre III Les déplacement des bandes caractérisent la substitution de Ba par Na et Sn par Nb. Ces substitutions introduisent quelques variations en intensité et en fréquence pour tous les pics. Tous ces changements caractérisent une nouvelle distribution dipolaire des nanorégions. Dans la zone des vibrations du réseau (100 -250cm-1 ) le spectre Raman est caractérisé par un grand nombre de bandes relativement larges, ce qui rend l'attribution détaillée difficile. Cette zone concerne les vibrations externes des différents cations et anions constituant le matériau. 25000 20000 BSNNX Intensité x=0.88 15000 x=0.90 x=0.95 x=0.98 10000 5000 0 0 200 400 600 800 1000 1200 1 Nombre d'onde (cm-1) Fig-III-11 Variation du spectre Raman en fonction de la composition Pour la solution solide Ba1-xNaxSn1-xNbxO3 Cette élargissement est la conséquence de la présence de différents type de cations et d'anions à savoir Na+, Ba2+, Sn2+ et Nb5+. L'évolution du spectre Raman, à température ambiante, pour le composéBa1-xNaxSn1-xNbxO3 montre que l'augmentation de x provoque l'élargissement de certaines bandes Raman, accompagnée par une remarquable décroissance en intensité. Comme on peut signaler la A. AYDI 97 Chapitre III croissance de l'intensité pour d'autres bandes. En effet pour la composition Ba1-xNaxSn1xNbxO3 l'augmentation de x entraîne une augmentation du nombre des ions Na+, Nb+ et une diminution de celui de Ba2+ et Sn4+. Cette affirmation se voit bien dans l'évolution des bandes correspondantes de chaque ion. Le spectre Raman réalisé à température ambiante du composé Ba1-xNaxSn1-xNbxO3 montre l'existence de bandes large très mal résolues. Cet élargissement confirme bien le caractère désordonné de cette phase. III.D Conclusion Le système choisi, pour cette étude, BSNNx, présente une solution solide continue entre la phase antiferroélectrique NaNbO3 et une phase paraélectrique constituée par le stannate alcalino-terreux BaSnO3 . Comme l'avait démontré Smolensky dans un travail antérieur pour le système BaTiO3BaSnO3, l'insertion du stannate dans le réseau du titanate de baryum abaisse fortement la température de Curie ferroélectrique du matériau. Pour des taux de remplacement du titane par l'étain dépassant 0.26 il obtenait une phase ferroélectrique relaxeur pésentant un maximum intense de permittivité diélectrique largement étalé en température et lié aux variations de la fréquence du champ électrique. Une situation analogue a été observée ici dans le cas des solutions solides entre le niobate de sodium et les stannates alcalino- terreux, mais dans ce dernier cas, la température de Curie relativement élevée obtenue avec les dérivés faiblement substitués du niobate de sodium a conduit à des matériaux relaxeurs proches de la température ambiante, c'est le cas la composition BSNN0.88(x = 0.88): Tm = 285K. D'après cette étude on peut confirmer que des substitutions cationiques dans le site A ou dans le site B d'une perovskite ABO3 peuvent modifier les propriétés diélectriques du matériau. En faisant varier la concentration des cations substitués on peut obtenir des relaxeurs dont la température de transition est proche de la température ambiante. A. AYDI 98 Chapitre 4 Etude DIELECTRIQUE ET STRUCTURALE de la solution solide (CsnnX) A. AYDI 99 A. AYDI 100 Chapitre IV Etude de la solution solide CaSnO3-NaNbO3 (CSNNx) IV.A Préparation par voie solide La poudre Ca1-xNaxSn1-xNbxO3 est obtenue à partir des oxydes CaCO3, SnO2, Na2CO3 et Nb2O5. Ces produits ont été préalablement desséchés à l'étuve à 120°C et conservés dans un dessicateur. Ce sont des produits commerciaux de pureté supérieure à 99,99%. La solution solide à été préparée à partir de la réaction suivante: (1-x)CaCO3 + x/2Na2CO3 + x/2Nb2O5 + (1-x)SnO2 → Ca1-xNaxSn1-xNbxO3 + (1-x/2)CO2↑ La poudre ainsi obtenue est homogénéisée par un mélange d'une heure à l'aide d'un tourne- jarre en milieu humide (alcool) et desséchée à l'étuve à 120°C pendant 3 heures, puis broyée une demi heure dans un broyeur à boule vibrante. La poudre est ensuite comprimée à l'aide d'une presse hydraulique sous forme de pastilles de 13mm de diamètre et d'épaisseur variant de 10 à 12mm. La pression uniaxiale appliquée est de 0,5T.cm-2. Les disques sont ensuite placés dans une nacelle en alumine sur une plaque de platine, puis introduits dans un four à résistance de Kanthal à température ambiante. La calcination est réalisée sous oxygène à 1100°C durant 15h. La vitesse de chauffe est de 300°C/h. Les pesées permettent de vérifier que les pertes de masse après calcination correspondent au départ de CO2 calculé. La pastille de chamotte subit ensuite une pulvérisation en broyeur à boule puis un broyage au tourne jarre en milieu aqueux. La poudre est alors séchée et pastillée (disques de 8mm de diamètre et 1mm d'épaisseur). A. AYDI 101 Chapitre IV La texture des pastilles frittées a été observée au microscope électronique à balayage (MEB) L'observation MEB montre que les grains possèdent une taille moyenne de l'ordre de 2μm et présentent une forme sphérique. Une vue MEB d'une céramique est présentée à la figure IV.1 (composition Ca1-xNaxSn1-xNbxO3 avec x = 0.92). Fig.IV.1 Surface d'une céramique de composition CSNN0. 92 frittée à 1350°C observée au microscope électronique à balayage. Plusieurs compositions ont été étudiées ; l'analyse des pourcentages atomiques montre : l'absence d'impureté dans la phase étudiée, l'homogénéité du matériau ainsi que la conformité de la composition analysée avec celle de départ. A. AYDI 102 Chapitre IV 5600 009 NbLa 4800 4000 Counts 3200 SnLr2,3 SnLr SnLb2 CaKb CaKa SnLb SnLa 800 SnLl SnLesc 1600 NbLl OKa NaKa 2400 0 0.00 0.50 1.00 1.50 2.00 2.50 3.00 3.50 4.00 4.50 5.00 keV Figure IV.2 Spectre d'analyse par microscope électronique à balayage du composé CSNN 0,92 A. AYDI Element mass% Error% At% O 23.66 0.69 56.07 60.00 Na 10.70 0.29 17.65 18.40 Ca 5.41 0.56 2.34 1.60 Nb 53.07 0.55 21.66 18.40 Sn 7.17 0.87 2.29 1.60 Total 100.00 100.00 At% calc. 100.00 103 Chapitre IV Une analyse par diffraction des rayons X en enregistrement rapide a été réalisée sur la chamotte et aussi sur la céramique frittée pour quelques compositions de la solution solide Ca1-xNaxSn1-xNbxO3. Les spectres enregistrés montrent l'absence d'impureté dans la solution solide ainsi que la formation d'une seule phase : le matériau obtenu est monophasé et présente un diffractogramme caractéristique du type perovskite. IV.B Caractérisation diélectrique IV.B. a Mesure de la permittivité diélectrique : La permittivité relative des pastilles a été mesurée après dépôt d'une électrode d'or sur chaque face circulaire. Le principe et le montage utilisés ont été décrits au chapitre précédent. Les mesures ont été effectuées pour des fréquences comprises entre 0.1 et 200 kHz et dans une gamme de température comprise entre 80 et 600 K. Les parties réelle et imaginaire de la permittivité sont tracées pour chaque composition sur la figure .IV.3 (a, b et c ). A. AYDI 104 Chapitre IV 1600 ε'r CSNN89 0.1 kHz 1 kHz 10 kHz 100 kHz 1300 1000 700 400 50 150 250 350 450 T(K) figure .IV.3a1 évolution thermique de la permittivité d'une céramique CSNN89 (x=0.89 frittée à 1350°C) 2000 ε'r 1700 CSNN91 0.1 kHz 1 kHz 1400 10 kHz 100 kHz 1100 800 500 50 150 250 350 450 T(K) Figure IV 3a2 Variations thermiques de ε r' en fonction de la fréquence pour une céramique CSNNx ( x = 0.91 ) frittée à 1350°C A. AYDI 105 Chapitre IV 1500 ε'r CSNN915 0.1 kHz 1250 1 kHz 10 kHz 100 kHz 1000 750 500 50 125 200 275 350 425 T(K) 500 ε 'r 800 CSNN92 0.1 kHz 1 kHz 10 kHz 100 kHz 700 600 500 50 150 250 350 450 T(K) 550 Figure IV 3b Evolutions thermiques de ε r' en fonction de la fréquence pour des céramiques CSNNx ( x = 0.915 et 0.92 ) frittées à 1350°C A. AYDI 106 Chapitre IV 50 ε"r CSNN91 40 0.1 kHz 1 kHz 10 kHz 100 kHz 30 20 10 0 140 215 290 365 440 T(K) 515 30 ε"r CSNN915 0.1 kHz 1 kHz 10 kHz 20 100 kHz 10 0 140 215 290 365 440 T(K) 515 Figure IV 3c Evolutions thermiques de ε r" en fonction de la fréquence pour des céramiques CSNNx ( x = 0.915 et 0.91 ) frittées à 1350°C A. AYDI 107 Chapitre IV Pour des compositions riches en étain un comportement relaxeur est observé avec une dispersion en fréquence aussi bien pour la partie réelle que pour la parie imaginaire de la permittivité. Les compositions riches en niobium présentent un comportement ferroélectrique classique . Une transition de phase ferro-paraélectrique est associée à un maximum de la permittivité au voisinage de la température de Curie ferroélectrique TC (ou Tm pour les relaxeurs). Pour des compositions x > 0.92 , on observe deux maximum. Les valeurs de ε′′r sont très faibles vis à vis de la partie réelle, ce qui prouve que les pertes diélectrique dans ce matériau sont très basses. La figure IV.4 résume l'évolution de la température de transition de phase des composés de la solution solide Ca1-xNaxSn1-xNbxO3 en fonction de la composition. 550 Tc or Tm (K) CSNN x 450 Tm ( 1kHz) 250 3 Tc 350 1 2 150 50 0.885 0.895 0.905 0.915 0.925 x Fig.IV.4 Evolution de Tm ou Tc en fonction de la composition pour la solution solide CSNNx A. AYDI 108 Chapitre IV Le diagramme précédent a été établi sur la base des anomalies de l'évolution thermique de la permittivité ; il présente trois régions distinctes. A 300K les matériaux de composition x < 0.915 présentent une seule anomalie thermique. Les matériaux de composition x > 0.915 présentent deux anomalies. Les matériaux appartenant à la solution solide CSNNx avec x<0.915 peuvent présenter deux types de comportements de la permittivité : ferroélectrique classique ou relaxeur selon la composition. IV.B.b Limite entre les phases ferroélectrique et relaxeur Pour étudier précisément le type de comportement nous avons utilisé la loi de VogelFülcher couramment appliquée aux matériaux relaxeurs [78] : f = f 0 exp( Avec : − Ea ) K (Tm − T f ) f0 : fréquence de relaxation des dipôles à haute température Ea : énergie d'activation Tf : température de gel des dipôles k : constante de Boltzman Comme on l'a vu au chapitre précédent, la variation de Tm en fonction de la fréquence a été décrite dans le domaine des basses fréquences par la relation : Tm = T f + Ea Ea + log f + K log f 0 K (log f 0 ) 2 D'après cette équation l'évolution de Tm en fonction de log f est linéaire. La figure IV.5 confirme expérimentalement cette constatation. A. AYDI 109 Chapitre IV 1,15 y = 0,0276Ln(x) + 0,7922 2 R = 0,986 Tm(f)/Tm(1kHz) x = 0,89 1,10 x = 0,90 y = 0,0098Ln(x) + 0,9335 R2 = 0,969 x = 0,91 x = 0,92 1,05 y = 0,0033Ln(x) + 0,9743 2 R = 0,9752 1,00 y=1 0,95 0,90 100 Figure IV.5 1000 10000 100000 log f 1000000 Evolution de Tm(f)/Tm(1kHz) en fonction de la fréquence pour différentes compositions de la solution solide CSNNx La pente des droites Tm (log f ) diminue pour des valeurs croissantes de x et s'annule finalement pour x voisin de 0.92. La détermination de la valeur exacte de la composition limite entre la phase ferroélectrique classique et relaxeur a été déterminée par le tracé de la pente des droites précédentes en fonction de la composition x. La figure IV.6 montre la variation de la pente en fonction de la composition. On voit que la limite entre les phases ferroélectrique classique et relaxeur est précisément x = 0.915. La solution solide Ca1-x NaxSn1-xNbxO3 a donc un comportement - relaxeur pour les compositions x < 0.915 (pente non nulle) et - ferroélectrique classique pour x >0.915 (droite horizontale). A. AYDI 110 Chapitre IV 0.07 pente 0.06 0.05 0.04 0.03 0.02 0.01 0 0.88 0.89 0.90 0.91 0.92 x 0.93 Figure IV.6 Evolution de la pente des droites (Tm = f(f) ) en fonction de la composition Les accidents dans les variations thermiques de la permittivité ont donc permis d'établir l'existence de trois régions et de préciser la limite de composition entre les matériaux de comportement ferroélectrique classique ou relaxeur dans la solution solide Ca1-xNaxSn1-xNbxO3 . Dans une seconde étape, des essais de mesure d'effet pyro- et piézoélectrique ont été entrepris pour caractériser le caractère polaire ou non polaire des trois phases mises en évidence par mesures diélectriques. La diffraction des rayons X sera ensuite indispensable pour caractériser la symétrie des matériaux dans les différentes régions . A. AYDI 111 Chapitre IV IV.C Mesures pyroélectriques et piézoélectriques La céramique CSNN0.92 est préalablement polarisée sous un champ électrique continu de 1.2 kV/mm entre 200 et 300K( région 3) durant 5 min sous atmosphère d'hélium sec. Après polarisation, les deux électrodes ont été court-circuitées durant quelques heures afin d'éliminer les charges d'espace. Une tentative de mise en évidence de résonances piézoélectriques ou d'un signal pyroélectrique ont été infructueuses. Une nouvelle polarisation à été réalisée en refroidissant le même échantillon de 300 à 120K(région 2) sous un champ électrique allant de 1 à 2.3kV. les mesures montrent alors clairement la présence d'un effet piezo et pyroélectrique, le résultat de ces expériences va être décrit ci dessous. Les variations thermiques du coefficient pyroélectrique p et de la polarisation spontanée Ps sont présentées sur les figures IV.7a et IV.7b. L'évolution thermique du coefficient pyroélectrique (p) suit la relation p = i/s.b ou s est la section de l'électrode, i le courant pyroélectrique et b = dT/dt le taux de chauffe. Pour la composition CSNN0.92 le coefficient pyroélectrique présente un pic, situé à la température T = 210 K ; au-dessus de ce pic il décroît lentement pour s'annuler aux alentours de la température de Curie . La polarisation spontanée présente un palier dans la zone ferroélectrique puis diminue progressivement pour s'annuler au voisinage de 300K. Les mesures de l'effet piézoélectrique ont été réalisées avec un pont d'impédance HP4194A. La résonance électromécanique radiale a été enregistrée à plusieurs températures. Des calculs quantitatifs selon les standards IEEE ont été effectués pour obtenir les paramètres de l'effet piézoélectrique. La figure IV8 représente la variation thermique de l'admittance maximum à la résonance transverse : celle-ci diminue à T croissant et disparaît au voisinage de 270K. Pour la composition CSNN0.92 le cercle d'admittance à été enregistré à 130K (Figure.IV.9). Le même type de mesures a été fait sur des échantillons céramiques de composition CSNN0.91. Dans ce cas, l'effet piézoélectrique est également observé dans la région 2 mais il est trop faible pour être calculé . L'effet pyroélectrique peut être aussi mis en évidence, ses variations thermiques sont représentées sur la figure IV.7b : p disparaît vers 280K. L'annulation de l'effet pyroélectrique correspond à la transition de phase détectée par mesures diélectriques. A. AYDI 112 Chapitre IV Figure IV.7 a Evolution du coefficient pyroélectrique et de la polarisation spontanée en fonction de la température pour la composition CSNN0.92 Figure IV.7 b Evolution du coefficient pyroélectrique et de la polarisation spontanée en fonction de la température pour la composition CSNN0.91 A. AYDI 113 Chapitre IV Figure.IV.8 évolution du maximum de l'admittance en fonction de la température pour une céramique polarisée CSNN0.92 Figure IV.9 cercle de résonance pour une céramique CSNN0.92 A. AYDI 114 Chapitre IV D'après l'étude piézo-pyro -électrique on peut admettre comme possible que seule la phase correspondant à la région 2 du diagramme température-composition présente un caractère polaire. Nous allons à présent tenter de préciser la symétrie des différentes phases par mesures de diffraction des rayons X. D'une manière générale, les déterminations structurales sur poudre ne sont pas encore assez précises pour résoudre de manière indiscutable ce genre de problème il ne s'agit donc que d'une tentative visant à la vérification de certaines hypothèses structurales. IV.D Analyse par diffraction des rayons X sur poudre : Etude structurale L'enregistrement des spectres de diffraction des rayons X a été réalisé à température ambiante à l'aide d'un diffractomètre Philips, en utilisant la raie Kα 1 d'une anticathode de cuivre ( λ = 1.54051 Å ), en présence de silicium comme étalon interne. Les diagrammes de diffraction ont été enregistrés entre 5 et 110 degrés en 2 θ avec un pas de 0.02 et un temps de comptage de 30 s /pas. Les spectres de diffractions X sont indexés soit dans les systèmes cubique, quadratique ou orthorhombique selon la composition x de la solution solide Ca1-xNaxSn1-xNbxO3. Leur analyse a permis de mettre en évidence la présence des plans de tous les plans (hkl) le mode de réseau est donc P. Les paramètres de maille et de profil sont affinés, par une méthode globale en utilisant un programme Fulprof [80]. La figure IV.10 présente l'évolution des paramètres et du volume de la maille en fonction de la composition. A. AYDI 115 Chapitre IV 4.00 3 a,b,c( Å) V(Å ) 60.0 V 3.95 59.0 58.0 a 3.90 c b Cubique Quadratique c 0.90 0.91 0.92 57.0 56.0 Orthorhombique 3.85 0.89 61.0 0.93 0.94 55.0 X 0.95 Figure IV.10 Evolution des paramètres et du volume de maille de la solution solide Ca1-xNaxSn1-xNbxO3 en fonction de la composition (x) La figure IV.10 montre la présence des trois régions correspondant à celles qui ont été mises en évidence par mesures diélectriques : (x < 0.91 ) région : 1 les compositions cristallisent dans le système cubique , le groupe d'espace possible est Pm3m , ( 0.912 < x <0.917 ) région 2 : la symétrie est orthorhombique le groupe d'espace possible est P2mm. ( x ≥ 0.917) région 3 : la symétrie est quadratique et le groupe d'espace possible est P4/mmm Les diffractogrammes expérimentaux et calculés ainsi que les fonctions différence relatifs aux trois compositions, x = 0.895 (région 1), x = 0.915 (région 2) et x = 0.925 (région 3), sont présentés figures IV.11 a, IV.11 b et IV.11 c . A. AYDI 116 Figure IV.11 a : Diffractogrammes expérimental et calculé, fonction différence de CSNN 0,895 Chapitre IV A. AYDI 117 Figure IV.11 b : Diffractogrammes expérimental et calculé, fonction différence de CSNN 0,915 Chapitre IV A. AYDI 118 Figure IV.11 c : Diffractogrammes expérimental et calculé, fonction différence de CSNN 0,925 Chapitre IV A. AYDI 119 Chapitre IV les mêmes groupes de raies caractéristiques sont présents dans les trois échantillons, la différence est due à l'éclatement des raies du cubique pour certaines compositions en raison de l'abaissement de la symétrie. Pour la composition x = 0.925 les raies sont dédoublées pour les grands angles en 2θ, en raison de la symétrie quadratique. Dans le cas de la composition x = 0.915 on observe des triplets pour la majorité des raies, ce qui peut être interprété par une symétrie orthorhombique. Détermination de la structure : Afin de connaître la répartition des atomes dans les sites A et B (dans le cas d'un perovskite de formule ABO3 ), une tentative d'étude structurale par la méthode de Rietveld a été réalisée pour les trois compositions ( x = 0.895 ; 0.915 et 0.925) en utilisant les diffractogrammes X utilisés lors de l'étude de profil ainsi que les résultats de ces études. Les structures à température ambiante des trois composés ont été affinées en utilisant le programme Fullprof (version6.2004) [80] (Annexe). Les conditions d'acquisition et d'affinement des données sont reportées dans le tableau IV. 1. A. AYDI 120 Chapitre IV CSNN0.925 CSNN0.915 Données cristallographiques CSNN0.895 Symétrie Quadratique Orthorhombique Cubique Condition d'existence Pas de condition Pas de condition Pas de condition Groupe d'espace Paramètres de maille P4/mmm (n°123) a=b=3,9164 Å c=3,9129 Å V=59,778 Å3 Pmm2 (n°25) a=3,9263 Å b=3,9052 Å c=3,8831 Å V=59,542 Å3 Pm3m (n°221) a=b=c=3,9019 Å V=59,409 Å3 Conditions d'acquisition des données à température ambiante Radiation Domaine angulaire Pas de comptage Temps de comptage Programme d'affinement Nombre de réflexions indépendantes Nombre de paramètres indépendants Bruit de fond Fonction de profil et paramètres RBragg(%) RF (%) χ2 F.Berar CuKα (l=1,5406 Å) 10°<2θ<120° 0,02° 30s Conditions d'affinement 43 Fullprof version 3.1997 71 20 22 23 16 Polynomial (degré 5) Pseudo-Voigt U=0,0016 V=0,0016 W=0,0248 3,53 4.32 4.688 Polynomial (degré 5) Pseudo-Voigt U=0,0012 V=0,0081 W=0,0196 2.68 2.20 3.25 Polynomial (degré 5) Pseudo-Voigt U=0,0998 V=0,0020 W= 0,0008 4.01 4.98 5.06 4.2181 3.0235 4.4032 Tableau IV.1 : Caractéristiques cristallographiques, conditions d'acquisition et d'affinement des profils des diffractogrammes X des trois compositions étudiées A. AYDI 121 Chapitre IV Les positions atomiques relatives au meilleur affinement pour chaque composition sont reportées ci-dessous. Atomes Valence Nombre de Théorique positions x y z u p Ca +2 1b 0,5 0,5 0,5 0,8 0,0031 Na +1 1b 0,5 0,5 0,5 0,8 0,0197 Sn Nb +4 +5 1a 1a 0 0 0 0 0 0 0,4 0,4 0,0038 0,0205 O -2 3d 0,5 0 0 1,0 0,0625 Tableau IV. 2 : Coordonnées atomiques, facteurs d'agitation thermique isotrope (u ) et taux d'occupation ( p ) de CSNN 0.89 5 Atomes Valence Nombre de Théorique positions x y z u p Ca +2 1d 0,5 0,5 0,513 0,8 0,0212 Na +1 1d 0,5 0,5 0,513 0,8 0,2287 Sn +4 1a 0 0 0,113 0,4 0,0212 Nb +5 1a 0 0 0,113 0,4 0,2287 O1 -2 1c 0,5 0 0,134 1,0 0,2500 O2 -2 1b 0 0,5 0,103 1,0 0,2500 O3 -2 1a 0 0 1,0 0,2500 0,533 Tableau IV.3 : Coordonnées atomiques, facteurs d'agitation thermique isotrope ( u ) et taux d'occupation ( P ) de CSNN 0.915 A. AYDI 122 Chapitre IV Atomes Valence Nombre de Théorique positions x y z u p Ca +2 1d 0,5 0,5 0,5256 0,6160 0,00469 Na +1 1d 0,5 0,5 0,5256 0,2369 0,05781 Sn +4 1a 0 0 0,1149 0,1493 0,00469 Nb +5 1a 0 0 0,1149 0,4506 0,05781 O1 -2 2f 0,5 0 0 1,0 0,1250 O2 -2 1b 0 0 0,5358 1,0 0,0625 Tableau IV.4 : Coordonnées atomiques, facteurs d'agitation thermique isotrope (u) et taux d'occupation ( P ) de CSNN 0.925 Les résultats de la détermination structurale montrent une légère variation des positions atomique, par rapport à la structure cubique (CSNN0.895), pour les compositions ayant une symétrie orthorhombique (CSNN0.915). Cette variation correspond à un déplacement suivant l'axe polaire. Les figures IV.12.a, IV.12.b et IV.12.c représentent les projections des structures de CSNNx ( x = 0.895 et 0.925 ) sur les plans xOz, yOz et en perspective respectivement. L'édifice cristallin de la céramique Ca1-xNaxSn1-xNbxO3 est constitué par un assemblage d'octaèdres SnO6 et NbO6. L'atome Ca/Na possède douze atomes d'oxygène proches voisins disposés aux sommets de cuboctaédres, alors que l'atome Sn/Nb possède six proches voisins oxygènes disposés aux sommets d'octaèdres réguliers SnO6/NbO6. Ces octaèdres sont liés de manière à former des chaînes régulières dans les trois directions de l'espace, chacun d'eux mettant en commun les six sommets avec les octaèdres voisins. Les distances de Sn/Nb –O et Ca/Na –O sont de l'ordre de 2.0091Å et 2.7696 Å respectivement. La structure quadratique se distingue de celle du cubique uniquement par une très légère déformation des octaédres NbO6 par contaction suivant l'axe c : c/a=0.9991 . Dans le cas de la composition CSNN91.5, la distorsion – apparemment orthorhombiqueimplique de légers déplacements des cations et anions et des déformations des octaèdres NbO6 entraînent l'abaissement de la symétrie suivant l'axe oz avec l'apparition d'une polarité suivant cet axe. A. AYDI 123 Chapitre IV La figure IV.12.a Représente la projection des structures de CSNNx ( x = 0.895 ) sur les plans xOz et yOz respectivement. A. AYDI 124 Chapitre IV La figure IV.12.b représente la projection des structures de CSNNx ( x = 0.895 et 0.925 respectivement ) en perspective. A. AYDI 125 Chapitre IV La figure IV.12.c représente la projection des structures de CSNNx ( x = 0.925 ) sur les plans xOz et yOz respectivement. A. AYDI 126 Chapitre IV Ces résultats sont conformes à ceux des mesures pyro-piézoélectriques qui ont révélé la présence d'une polarisation dans la phase orthorhombique. IV.E Etude vibrationnelle. La spectroscopie Raman est une technique appropriée pour étudier l'effet de vibration des atomes dans le réseau cristallin. L'analyse des modes (internes et externes) caractéristiques au matériau nous donne une idée sur les modes de vibrations actifs en Raman. Les modes de vibrations dépendent de la symétrie locale des nanorégions et de celle de la symétrie globale. Si on examine en détail les variations en température et en composition des caractéristiques des bandes de vibration, il est possible d'avoir une idée de la dynamique des nanorégions. Les composés de la solution solide CSNNx de formule ABO3 sont constitués d'octaèdres NbO6 et SnO6. Dans le cas de la phase ferroélectrique le groupe d'espace est un sous- groupe du groupe Oh (de la phase cubique). Une hypothèse relative aux groupe d'espace des différentes phases a été proposée d'après l'étude structurale. Il est possible de déterminer, en utilisant la théorie des groupes, les modes propres de vibration de réseau. Les groupements octaédriques de formules XY6 du groupe Oh présentent les six modes normaux de vibrations suivants [81]. A. AYDI 127 Chapitre IV Figure.IV.13 Les modes des vibrations normales des entités octaédriques XY6 Les modes de vibrations ν 1 , ν 2 et ν 5 sont actifs en Raman et les modes ν 3 et ν 4 sont actifs en infrarouge alors que la mode ν 6 est inactif en Raman et en infrarouge [81]. L'évolution du spectre Raman des céramiques de la solution solide Ca1-xNaxSn1xNbxO3 en fonction de la composition est représentée sur la figure IV.14 pour une large bande de fréquence 150- 1550 cm-1 à la température ambiante. A. AYDI 128 Chapitre IV Le spectre Raman avait été enregistré avec un spectrophotomètre triple monochromateur (Dilor Z24) , équipé d'un laser spectrophysics à argon ionisé en utilisant la raie excitatrice verte à λ =514.5nm. Sur la figure IV-4 on observe quatre bandes. Ces bandes apparaissent dans nos matériaux à des fréquences très proches de celles de la phase limite NaNbO3 [82]. Les spectres Raman de la solution solide CSNNx peuvent être étudiés dans deux domaines de longueur d'onde : - les modes de vibrations externes en dessous de 250 cm-1. - Les modes de vibrations internes au dessus de 250 cm-1 qui sont relatifs aux octaèdres NbO6 ou SnO6. L'attribution des bandes est possible par analogie avec les phases limites[83]. Dans la zone 150- 250 cm- 1 correspondant aux vibration du réseau, le spectre Raman est caractérisé par un grand nombre de bandes relativement larges, ce qui rend l'attribution détaillée difficile. Cette zone concerne les vibrations externes des différents cations et anions constituant le matériau. Cet élargissement est la conséquence du désordre cationique en site A ( Na+, Ca2+) et B (Sn4+, Nb5+). Par comparaison avec les spectres de BaTiO3 et NaNbO3 les bandes observées vers 871, 594 et 445 cm-1 en diffusion Raman sont attribuées à ν 5 (Nb-O), ν 1 (Sn-O) et ν 2 (Nb-O) [84] qui correspondent au modes de vibrations internes . Celle deν (Ca-O ) apparaît vers 230 cm-1 et celle de ν (Na-O) vers 189 cm-1 [85]. Les spectres Raman obtenus à température ambiante pour les composés de la solution solide Ca1-xNaxSn1-xNbxO3 montrent l'existence des bandes larges très mal résolues. A. AYDI 129 Chapitre IV 25000 intensité 20000 raman CSNNx 15000 x=0,895 x=0,915 x=0,92 x=0,940 x=0,96 10000 5000 0 150 350 550 750 950 1150 1350 1550 1750 nombre d'onde (cm-1) Figure IV.14 spectre Raman de quelques composés de la solution solide CSNNx L'évolution de la largeur à mi hauteur du mode de vibration ν 1 (Sn-O) à 594 cm-1 en fonction de la composition est représentée à la figure.IV.15. On peut noter que la largeur à mi- hauteur diminue pour ce mode quand le taux de niobate x augmente en passant par un palier au voisinage de la composition x = 0.915 . Cette valeur correspond précisément à la composition limite entre la phase ferroélectrique et la phase relaxeur déterminée d'après les mesures diélectriques. Ce résultat semble cohérent avec les résultats obtenus par les différentes techniques de caractérisations. A. AYDI 130 Chapitre IV 95 Largeueur à mi-hauteur 90 85 80 75 70 65 0,89 0,9 0,91 0,92 0,93 0,94 0,95 0,96 x 0,97 Figure.IV.15 Evolution de la largeur à mi-hauteur en fonction de la composition pour le mode de vibration ν 1 (Sn-O). Des mesures ont été réalisées, pour plusieurs compositions en faisant varier la température. On observe une très faible évolution avec un élargissement des bandes. Cet élargissement confirme le caractère désordonné de la phase correspondant au domaine 1 du diagramme ( (fig. IV.4 p.98) et dont la symétrie a été supposée cubique par diffraction des rayons X et macroscopiquement paraélectrique par mesures diélectriques. La Figure.IV.16 montre par exemple le comportement de CSNN0.895. A. AYDI 131 Chapitre IV 16000 14000 raman CSNN0,89 ( T) intensité 12000 10000 T=-100°C 8000 T=-50°C T=20°C 6000 4000 2000 0 0 200 400 600 800 1000 1200 1400 1600 1800 nombre d'onde (cm-1) Figure.IV.16 spectre Raman d'une céramique de composition CSNN0. 895 à plusieurs températures. IV.F Conclusion : Cette partie de notre travail nous a permis d'élaborer des céramiques de structure perovskite appartenant à la solution solide Ca1-xNaxSn1-xNbxO3 à partir du système CaSnO3NaNbO3. Nous avons utilisé une méthode de préparation des céramiques par voie solide . Les échantillons obtenus ont été observés et analysés quantitativement par microscopie électronique à balayage afin de s'assurer de la composition chimique des échantillons. L'étude diélectrique montre la présence de trois régions délimitées par des anomalies du comportement thermique de la permittivité. Dans le cas des compositions riches en stannate de calcium, on observe un comportement de type ferroélectrique relaxeur. Les A. AYDI 132 Chapitre IV céramiques de composition riche en niobate de sodium ont un comportement de type ferroélectrique classique et pour x> 0.92 on observe deux anomalies diélectriques . La limite de composition séparant les compositions relaxeur et ferroélectrique classique x=0.915 a été déterminée par une méthode dérivée de la loi de Vogel- Fülcher. Les mesures de l'effet piézo et pyro- électrique entreprises sur les céramiques de compositions CSNN0.91 et 0.92 on montré que seule la phase de basse température donnait des effets polaires mesurables correspondant à un état ferroélectrique. A partir d'une analyse radiocristallographique par méthode globale nous avons pu déterminer le système cristallin et les paramètres de maille correspondant à certaines compositions appartenant respectivement à chacun des domaines délimités par les anomalies diélectriques ( x = 0.895, 0.915 et 0.925 ) . Le composé x = 0.895 appartenant au domaine 1 présente une symétrie apparente de type cubique Pm3m ; le composé x= 0.915 dans le domaine 2 est caractérisé par une distorsion orthorhombique avec une symétrie de type soit polaire (Pmm2) soit non polaire (Pmmm) ; la symétrie du composé x=0.925 dans le domaine n°3 est quadratique soit polaire P4mm soit non polaire P4/mmm. Les mesures d'effet piézoélectrique ou pyroélectrique ont montré que seule la phase orthorhombique présentait un caractère polaire ; sa polarité pouvant être imposée par le sens du champ, elle est donc ferroélectrique, la symétrie la plus probable est Pmm2 . Par ailleurs, le caractère apparemment non polaire de la phase quadratique semble indiquer que la symétrie probable de la phase quadratique est P4/mmm il est bien entendu très difficile d'être plus affirmatif sur ces résultats en l'absence de cristaux appartenant aux différents domaines Les structures sont constituées de chaînes d'octaèdres de SnO6 et NbO6 liés entre eux par tous leurs sommets formant ainsi un assemblage de type perovskite tridimensionnel régulier. L'étude de cette solution solide a démontré l'existence d'une phase relaxeur de symétrie orthorhombique, ce résultat est inédit. En effet, la symétrie des phases relaxeur mises en évidence dans les systèmes déjà étudiés BaTiO3-BaSnO3, BaTiO3- NaNbO3 ou NaNbO3BaSnO3 est de type cubique. Les spectres Raman obtenus pour les compositions CSNNx (x = 0.895 ; 0.915 ; 0.92 ; 0.94 et 0.96 ) montrent l'existence des bandes larges dues au caractère désordonné de la répartition des cations dans ces phases. A. AYDI 133 Chapitre IV A. AYDI 134 Conclusion générale et perspective A. AYDI 135 A. AYDI 136 Conclusion générale et perspectives Conclusion générale et perspective Diverses compositions appartenant aux solutions solides BSNNx et CSNNx étudiées ont été préparées par voie solide et les céramiques correspondantes ont été obtenues par frittage à haute température. Les échantillons obtenus ont été observés et analysés quantitativement par microscopie électronique à balayage afin de s'assurer de l'homogénéité et de la conformité de la composition chimique des échantillons. L'étude des propriétés diélectriques des céramiques dans un large domaine de température (de 80K à 650K) et de fréquence (de 100 Hz à 200 kHz) a conduit à la mise en évidence de deux comportements diélectriques différents: Pour la solution BSNNx un comportement ferroélectrique classique pour les compositions x ≥0.90 et un comportement relaxeur pour les compositions x<0.90 dont certaines avec des températures de transitions Tm voisines de 300K (BSNN0.88(x = 0.88): Tm = 285K). Pour la solution solide CSNNx on observe un comportement ferroélectrique classique pour les compositions x≥ 0.915 et un comportement relaxeur pour les compositions x <0.915 Les limites de composition entre les comportements relaxeur et ferroélectrique classique ont été déterminés par une méthode dérivée de la loi de Vogel- Fülcher : les matériaux sont relaxeurs pour les compositions riches en étain . Des mesures de l'effet piézo et pyro-électrique ont été entreprises sur certaines compositions afin de préciser leur caractère polaire ou non-polaire. A partir d'une analyse radiocristallographique par méthode globale nous avons pu proposer des hypothèses pour la symétrie des structures cristallines appartenant aux différentes compositions étudiées. Les paramètres de maille correspondants ont été déterminés. Dans le cas de BSNNx, la phase relaxeur est apparemment cubique tandis que la phase ferroélectrique classique présente une faible distorsion quadratique. La solution solide A. AYDI 137 Conclusion générale et perspectives CSNNx présente trois phases de symétrie différentes suivant la température et la composition : *une phase cubique de symétrie apparente Pm3m pour les compositions riches en étain ; *une variété dérivant de la maille cubique par de légères distorsions et pouvant être décrites avec une maille orthorhombique Pmm2 pour les compositions voisines de x = 0.90 à basse température; *une phase apparemment non polaire de symétrie quadratique p4/mmm pour les compositions pauvres en étain. Les mesures d'effet piézoélectrique ou pyroélectrique ont montré que seule la phase orthorhombique présentait un caractère polaire ; sa polarité pouvant être imposée par le sens du champ, elle est donc ferroélectrique. Le caractère non polaire de la phase quadratique a conduit à l'hypothèse de la symétrie P4/mmm. Une tentative de détermination structurale des différentes phases obtenues a été entreprise à partir des diffractogrammes de rayons X de poudre. Les structures sont de type perovskite, constituées d'un enchaînement tridimensionnel d'octaèdres de SnO6 et NbO6 liés entre eux par tous leurs sommets. L'étude de la solution solide CSNNx a montré l'existence d'une phase relaxeur de symétrie orthorhombique, ce résultat est inédit. En effet, la symétrie des phases relaxeur mises en évidence dans les systèmes déjà étudiés BaTiO3-BaSnO3, BaTiO3- NaNbO3 ou NaNbO3BaSnO3 est cubique. Les spectres Raman obtenus pour les compositions CSNNx (x = 0.895 ; 0.915 ; 0.92 ; 0.94 et 0.96 ) montrent l'existence des bandes larges dues au caractère désordonné de la répartition des cations dans ces phases. L'ensemble de ces études confirme que des substitutions cationiques dans le site A ou dans le site B d'une perovskite ABO3 peuvent modifier profondément les propriétés diélectriques du matériau. En faisant varier la concentration des cations substitués on peut obtenir des relaxeurs dont la température de transition est voisine de la température ambiante. Les études des propriétés diélectriques en fonction de la composition ont montré que dans les solutions solides NaNbO3-MsnO3 (M=Ba,Ca) l'origine de l'effet relaxeur est dû à l'introduction d'étain IV en site octaédrique. Pour de faibles taux de substitution de NaNbO3 A. AYDI 138 Conclusion générale et perspectives le réseau cristallin comporte des chaînes Nb-O dont le caractère covalent des liaisons permet des interactions coopératives à longue distance qui sont à l'origine de l'effet ferroélectrique. L'augmentation du taux d'étain dans le réseau entraîne la formation de nombreuses liaisons Sn-O beaucoup plus ioniques que les liaisons Nb-O dont elles brisent l'effet « coopératif ». Il apparaît ainsi des nano-domaines ou clusters de Nb-O isolés les uns des autres par des liaisons Sn-O et l'étain IV rend ainsi le matériau relaxeur. La figure suivante, obtenue par un calcul théorique, permet de comparer les densités électroniques des liaisons Nb-O et Sn-O dans un réseau perovskite[86]. Nb-O : liaisons localisées Sn-O: nuage délocalisé Cartes de densité électronique calculées pour les liaisons Nb-O et Sn-O dans un réseau perovskite (d'après A. Villesuzanne ICMCB [86]) L'étude des composés du système ternaire BaTiO3-BaSnO3-NaNbO3 actuellement en cours, apparaît comme un prolongement intéressant pour compléter et corréler nos travaux de thèse. En effet, les diagrammes binaires limitant le système ont déjà été étudiés tant sur le plan de l'élaboration et de la caractérisation cristallochimique que pour les propriétés diélectriques des céramiques appartenant à ces systèmes. Les résultats préliminaires obtenus par mesures diélectriques sur les composés appartenant au système ternaire BaTiO3-BaSnO3-NaNbO3 sont présentés sur la figure suivante : . A. AYDI 139 Conclusion générale et perspectives système BT-NN-BS NN 1 300K 150K 0,8 relaxeur ferro 0,6 x 0,4 0,2 0 BT 0 0,2 0,4 y 0,6 0,8 1 BS Résultats préliminaires de l'étude diélectrique des composés du diagramme ternaire BaTiO3 (BT)- BaSnO3 (BS)- NaNbO3 (NN)) L'étude du système ternaireBT-BS-NN se poursuit dans plusieurs directions : - élaboration de céramiques au voisinage de BaTiO3 - caractérisation des textures des céramiques. - étude de la symétrie locale (spectroscopie Raman, Mössbauer). - déterminations structurales. A. AYDI 140 Références bibliographiques A. AYDI 141 A. AYDI 142 Références bibliographiques Références bibliographiques [1]Smolensky et al. Z. tech.Fiz. 24, p.1375 (1954) [2] A. Vegas, M. Vallet-Regí, J. M. González-Calbet and M. A. Alario-Franco Acta Cryst. B42, p.167-172(1986). [3] C. Huber. « synthèse et caractérisation de nouveaux matériaux ferroélectriques accor- dables pour applications hyperfréquences ».thèse, Université Bordeaux I, (2003). [4] W. G. Cady, Piezoelectricity, New York , Mc Graw- Hill, p 699, (1946). [5] J. C. Burfoot, Ferroelectrics. London, England Van Nostrand, p49, (1967). [6] D. Brewster, "observation of the pyroelectricity of minerals" Edinburgh. J. SCi,Vol 1, (1924). [7] C. S. Smith, "macroscopic symmetry and properties of crystals" Solid- State phys, Vol 6, p175, (1957). [8] J. F. Nye. "Physical properties of crystals" London, England, Oxford University press. Vol 189, p78, 1957. [9] O. Elkechai. « Céramiques ferroélectrique dans les systèmes Na1/2Bi1/2TiO3- K1/2Bi1/2TiO3, Na1/2Bi1/2TiO3- PbTiO3, K1/2Bi1/2TiO3- PbTiO3 » thèse, Université de Limoges, (1995). [10] C. Kittel "Introduction to solid state physics", John Wiley and son, New York , (1961). [11] V. Tolmer "Optimisation du frittage et des propriétés diélectriques de la perovskite complexe BaZn1/3Ta2/3O3", Thèse, Université de Caen, (1996). [12] J. C. Niepce, J. M. Haussonne. « BaTiO3 matériau de base pour les condensateurs céramiques » Paris. (1994). [13] J. P. Boyeux, F. Michel- Calendini, J. Phys. C, Vol 12, p1455, (1979). [14] N.G. Eror, D. M. Smyth, J. Amer. Soc, Vol 65, p167, (1982). [15] J. Daniels, Philips Res, Vol 31, p505, (1976). [16] G. Chanussot, Ann. Phys, Vol 8, p81, (1974). [17] J. Fousek, V. Janovek, J. Appl. Phys., Vol 40:1, p135, (1969). [18] M. Di. Domenico, S. H. Wemple, S. P. et al., Phys. Rev. Vol 174, p522, (1968). [19] A. K. Jonscher, The universal dielectric response, Nature, Vol 267, p673, (1977). [20] Y. Luspin, Y. J. L et al., J. Phys. C, Vol 13, p3761, (1980). A. AYDI 143 Références bibliographiques [21] H. F. Kay. Acta Cryst, Vol 1, p229, (1948). [22] M. Shimazu, M. Tsukioka, A. Nuki, Mineralogical Journal, Vol 10, 3,p143, (1980). [23] H. T. Evans, R. D. Burbank, Journal Chem., Vol 16, p643, (1948). [24] G. Shirane, G. Danner, R. Pepinsky, Phys. Rev, Vol 105, p865, (1957). [25] B. C. Frazer, H. R. Danner, R. Pepinsky, Phys. Rev, Vol 100, p745, (1955). [26] G. A. Smolenskii, V. A. Isupov, A. I. Agranovskaya and S. N. Popov, Soviet Phys.Solid state, Vol 2,p 258, (1961). [27] L. E. Cross, Ferroelectrics, Vol 76, p241, (1987). [28] J. Toulouse and R. Pattnaik, Ferroelectrics, Vol 199,p 287, (1997). [29] D. Vielhand, M. Wuttig and L. E. Cross, Ferroelectrics, Vol 120, p71, (1991). [30] V. Westphal, W. Kleemann and M. D. Glinchuk, Phys. Rev. Lett., Vol 68, p847, (1992). [31] I. W. Chen and Y. Wang, Ferroelectrics, Vol 206, p245, (1998). [32] A. E. Glazounov, A. K. Taganstev and A. J. Bell, Ferroelectrics, Vol 184, p217, (1996). [33] A. K. Tagantsev and A. E. Glazounov, Phase Transitions, Vol 65, p117, (1998). [34] C. A. Randall and A. S. Bhalla, Jpn. J. Appl. Phys., Vol 29, p327, (1990). [35] V. Hornebecq. " Nouveaux tantalates ferroélectriques de type bronze quadratique de tungstène : de la structure aux propriétés physiques » thèse, Université Bordeaux I , ( 2000). [36] T. Egami, S. Teslic, W. Dmowski, D. Vielhand and S. Vakhrushev, Ferroelectrics, Vol 199, p103, (1997). [37] T. Egami, W. Dmowski, S. Teslic, P. K. Davies, I. W. Chen and H. Chen, Ferroelectrics, Vol 206, p231, (1998). [38] T. Egami, Ferroelectrics, Vol 222, p163, (1999). [39] E. Fatuzzo, W. J. Merz, Ferroelectricity (Amsterdam) (1967). [40] V. Jaffe, W. R. Cook, H. Jaffe, Piezoelectric ceramics (London and New York) (1971). [41] H. D. Megaw, Proc. Roy. Soc. Vol 189, p261, (1947). [42] A. F. Devonshire, Phil. Mag, Vol 40, p1040, (1949). [43] B. T. Matthias, Phys. Rev, Vol 75, p1771, (1949). [44] A.F. Devonshire, Phil. Mag, Vol 3, p85, (1954). [45] H. D. Megaw, Acta Cryst, A24, p589, (1968). [46] A.C. Sakowski Cowley, et al. , Acta Cryst, B25, p581, (1969. [47] H. D. Megaw, Crystal structures, Saunders, Philadelphie, (1973). [48] C. N. W. Darlington, H. D. Megaw, Acta Cryst, B29, p2171, (1973). [49] M. Wells, H. D. Megaw, Proc. Phys. Soc. London, Vol 78, p 1258, (1961). A. AYDI 144 Références bibliographiques [50] I. Lefkowitz, K. Lukaszewicz, Acta Cryst, Vol 20, p670, (1966). [51] A. M. Glaser, H.D. Megaw. Phil. Mag, Vol 25, p1119, (1972). [52] M. Ahtee, A. M. Glazer, Phil Mag, Vol 26, p995, (1972). [53] H. D. Megaw, international meeting of ferroelectricity , Prague, Vol 1, p314, (1966). [54] Bruno Domenichini and Thierry Caillot, Acta Materialia, Volume 51, Issue 16, 15, p.4815-4821,( 2003) [55] H.Mostaghaci, R.J.Brook, Kinetics of Hot-Pressing of BaTiO3 Ceramics, Br.Ceram.Trans.J, 84, p203, (1985). [56] R. W. Rice "Porosity of Ceramics" Dekker Inc. New York, (1998). [57] J. Rodriguez-Carvajal, Program FullProf , Laboratoire Léon Brillouin (CEA-CNRS) Version 3.5d - LLB - JRC – Oct (1998) [58] N.J. Shaw, Densification and coarsening during solid state sintering of ceramics : a review of the models. Powder Metallurgy International, 21 N°3, p16, (1989). [59] M. Honda, The impedance measurement handbook, Yokogawa Hewlett Packard, (1989). [60] R. Von der Mühll "les matériaux piézoélectriques, caractéristiques et mesures, p3, doc. Privé ICMCB (2002). [61] IEEE standards on piezoelectric crystals, box A ,Lenox hall station NY 10021 NY USA, (1961). [62] G.McMahon IEEE Trans. on Ultrasonics Eng, p102, (1963). [63]F.Calvayrac, B.Lestienne & R.Von der Mühll « Programme d'acquisition et de traitement des mesures d'admittance pour le calcul des propriétés des céramiques piézoélectriques » ICMCB [64] R.Von der Mühll « détermination du coefficient pyroélectrique des matériaux polaires » p3, doc. privé ICMCB (2000). [65] R.L.Byer & C.B.Roundy, Ferroelectrics, 3, p333, (1972). [66] « low level measurements » Keithley instruments Inc. Cleveland Ohio, (1984). [67] W.H. Press et al. « Numerical recipes » Cambridge Univ. press Cambridge, (1990). [68] Dhamelincourt et Bisson ,1977; M.Pinet, et al., 1992; D.C Smith et F.Gendron, p3, (1996). [69] D.C Smith « axe cristallographique, plan de clivage, axe optique etc » p.23, (1996). [70] M.Pinet et al, (1992) [71] Smith et Edwards, (1998) [72] A.C.Sakowsky-Cowley, K.Lukaszewicz and H.D.Megaw, Acta Cryst. B25, p.851-865, A. AYDI 145 Références bibliographiques (1969) [73] A.W.Hewat, Ferroelectrics, 7, p.83-85,1974 [74] M.Athee and W.Hewat, Acta Cryst.A 31,p. 846-850, 1975 [75] R.Von der Mühll, A.Sadel and P.Hagenmüller, J. Solid.State Chem. 51, p.176-182, (1984) [76] L.A.Reznichenko, N.V.Dergunova, G.A.Gerguzina, O.M.Ragumovskaya, L.A.Shilkina [77] H.Khemakhem, A.Simon,, R.Von der Mühll and J. Ravez, J.Phys.Condens.Matter , 12,p. 5951-5959, (2000) [78] D.Vielhand, S.J.Jang and L.E.Cross, J.Appl.Phys., 68(6), p.2916-2921, (1990) [79] A. Aydi, C. Boudaya, H. Khemakhem, R. Von Der Mühll and A. Simon Solid State Sci. 6 p. 333, (2004) [80] I.R.E. Standards on piezoelectrics, Proc. IRE, 49, p.1161-1169, (1961) [81] J. Rodriguez-Carvajal, Program FullProf , Laboratoire Léon Brillouin (CEA-CNRS) Version 3.5d - LLB - LCSIM– Juin (2004) [82] Kazuo Nakamoto, Infrared and Raman spectra of inorganic and coordination compounds, 5th edition p.214 -218, (1995). [83] X.B Wang et al. Journal of Molecular Structure 385 p.1-6, (1996). [84] B. Güttler et al. Journal of Molecular Structure 661 p.469-479, (2003). [85] P. Ayynb et al . Phys. Rev, B34) p.8137, (1986). [86] R. Von der Mühll et al. / Journal of Physics and Chemistry of Solids 65 p1039-1043 (2004) A. AYDI 146 Annexe A. AYDI 147 A. AYDI 148 Annexe Annexe Affinements de structure par la méthode de Rietveld 1 Principe Une analyse par diffraction des rayons X répond à la procédure suivante : - indexation du diffractogramme à partir d'une hypothèse de symétrie et des paramètres de maille cristalline approchés. - affinement des paramètres de la maille par la méthode des moindres carrés, cette détermination peut se faire en tenant compte de l'ensemble des points mesurés sur le diffractogramme et en affinant simultanément les paramètres de profil et de maille. -détermination des paramètres structuraux par la méthode de Rietveld [1]. Un affinement préalable des paramètres de profil et de maille est donc nécessaire. La méthode de Rietveld consiste, en prenant en compte à la fois les intensités diffractées et le profil du diffractogramme de poudre, à ajuster le profil calculé au profil observé, à partir d'une hypothèse structurale correcte. Cette méthode est basée sur la minimisation par la méthode des moindres carrés de la fonction : M = ∑ wi ( yi − yci ) 2 (1) i où wi est le poids assigné à l'intensité de chaque réflexion avec wi =1/si2 ( si étant la variance assignée à l'observation yi ) yi est l'intensité observée pour l'angle 2θi yci est l'intensité calculée pour l'angle 2θi A. AYDI 149 Annexe Le calcul d'intensité en chaque point i de position 2θi sur le diffractogramme fait intervenir le fond continu ainsi que la somme des contributions des réflexions de Bragg pour toutes les phases présentes. Dans le cas d'une phase unique : yci (2θ ) = ybi (2θ ) + S ∑ LK FK2ΩiK (2θ i − 2θ K ) AK PK (2) K où ybi est l'intensité du fond continu S est le facteur d'échelle LK le facteur de Lorentz-polarisation FK le facteur de structure Ω iK la fonction de profil AK la fonction d'asymétrie PK la fonction traduisant l'effet d'orientation préférentielle L'intensité du fond continu (ybi) est estimée soit par interpolation entre des points judicieusement sélectionnés, soit par affinement des paramètres d'une fonction polynomiale. La fonction de forme normalisée Ω iK modélise la répartition de l'intensité autour du pic "K" à la position θK. La fonction de profil la plus utilisée à ce jour dans le cas de la diffraction des rayons X sur poudre est la fonction Pseudo-Voigt, combinaison linéaire d'une Gaussienne et d'une Lorentzienne : θ iK (2θ ) = ηL(2θ , H ) + (1 − η )G (2θ , H ) (3) avec ⎛ 2θ − 2θ K 2 ⎡ ⎢1 + 4⎜⎜ L(2θ ) = πH K ⎢ ⎝ HK ⎣ 2 G (2θ ) = HK A. AYDI ⎞ ⎟⎟ ⎠ 2 −1 ⎤ ⎥ ⎥⎦ ⎡ ⎛ 2θ − 2θ K exp ⎢− 4 ln 2⎜⎜ π ⎢⎣ ⎝ HK ln 2 ⎞ ⎟⎟ ⎠ 2 ⎤ ⎥ ⎥⎦ 150 Annexe Cette fonction simule la fonction Voigt normalisée, qui est la somme d'une Lorentzienne et d'une Gaussienne. La largeur à mi-hauteur HK est fonction de l'angle et de la forme des cristallites. Une expression analytique empirique couramment utilisée est fournie par la loi de Caglioti, Paleotti et Ricci, elle conduit à l'affinement de trois paramètres U, V et W [2]: H K2 = Utg 2 2θ + Vtg 2θ + w (4) La minimisation de la fonction (1) conduit ainsi à l'affinement des paramètres regroupés dans le tableau 1. Le programme utilisé est Fullprof version 3.1997 [3]. Tableau 1 : Paramètres ajustables utilisés au cours d'un affinement par la méthode de Rietveld Paramètres structuraux Paramètres cristallins Positions atomiques Taux d'occupation des sites Facteurs d'agitation thermique Paramètres de profils des Facteur d'échelle Paramètres ajustables au Raies cours de l'affinement Décalage à l'origine Formes des raies (η) taux de Lorenzienne Largeur à mi-hauteur (U,V, W) Asymétrie des raies Paramètres relatifs au fond Polynôme de degré 5 en 2θ Continu A. AYDI 151 Annexe 2 Les facteurs de reliabilité de l'affinement Rietveld Plusieurs facteurs de reliabilité sont calculés à l'issue de chaque cycle d'affinement de manière à estimer l'accord entre les points expérimentaux et le modèle. Les facteurs les plus couramment utilisés sont : - le résidu de profil : ∑y −y = 100 × ∑y i Rp ci i i i - le résidu pondéré du profil : RwP = 100 × M = 100 × ∑ wi yi2 i - le résidu de Bragg : ∑ I −I = 100 × ∑I K RBrag ∑w (y − y ∑w y i i ci )2 i i 2 i i Kc Ki K K où Ik est l'intensité intégrée calculée pour chaque réflexion k au moyen de la fonction normalisée Ω ik selon la relation : I K = ∑ I Kc ΩiK i yi − ybi yci − ybi Ce résidu permet de comparer les résultats obtenus à ceux issus de la méthode traditionnelle d'intensité intégrée. C'est probablement le meilleur critère pour estimer l'accord entre les données expérimentales et le modèle structural. A. AYDI 152 Annexe - le résidu attendu : Rexp = 100 × N + P+C ∑ wi yi2 i où N est le nombre de points expérimentaux, P le nombre de paramètres affinés et C le nombre de contraintes. La valeur N+P+C représente donc le nombre de degrés de liberté. 2 - la valeur du fit : ⎛R ⎞ χ 2 = ⎜ wp ⎟ = ⎜R ⎟ ⎝ exp ⎠ ∑w (y i i − yci ) 2 i N −P+C Dans le cas idéal, χ2 devrait tendre vers 1, ce qui est rarement observé. Références bibliographiques de la partie Annexe [1] H.M.Rietveld, J. Appl. Cryst., 2, 65 (1969). [2] G. Caglioti, A. Paoletti and F. P. Ricci, Nucl. Instrum. Methods, 3, 223 (1958). [3] J. Rodriguez-Carvajal, FULLPROF, ver.3.2, janv.97, LLB-CEA, Saclay, France. A. AYDI 153 A. AYDI 154
{'path': '35/tel.archives-ouvertes.fr-tel-00009068-document.txt'}
Algorithme hybride de pistage multicible basé sur les Ensembles Finis Aléatoires. Application à la détection de convoi de véhicules Evangéline Pollard, Michèle Rombaut, Benjamin Pannetier To cite this version: Evangéline Pollard, Michèle Rombaut, Benjamin Pannetier. Algorithme hybride de pistage multicible basé sur les Ensembles Finis Aléatoires. Application à la détection de convoi de véhicules. GRETSI 2009 - XXIIème Colloque francophone de traitement du signal et des images, Sep 2009, Dijon, France. hal-00410820 HAL Id: hal-00410820 https://hal.archives-ouvertes.fr/hal-00410820 Submitted on 8 Sep 2009 Manuscrit auteur, publié dans "22ème colloque du GRETSI, Dijon : France (2009)" Algorithme hybride de pistage multicible basé sur les Ensembles Finis Aléatoires. Application à la détection de convoi de véhicules. Evangeline P OLLARD1 , Michèle ROMBAUT2 , Benjamin PANNETIER1 1 ONERA 29 avenue de la division leclerc 92322 Châtillon cedex, France 2 GIPSA-lab 961 rue de la Houille Blanche BP 46 38402 GRENOBLE Cedex, France evangeline.pollard@onera.fr, benjamin.pannetier@onera.fr michele.rombaut@gipsa-lab.inpg.fr hal-00410820, version 1 - 24 Aug 2009 Résumé – Bien qu'étudié depuis les années 70, le pistage multicible terrestre constitue un problème difficile, particulièrement dans un contexte MTI (Moving Target Indicator) où l'environnement est très complexe (nombre de cibles important, fausses alarmes, probabilité de détection inférieur à 1, pouvoir de résolution du capteur, biais spatial et temporel, manoeuvrabilité des cibles,. . . ). Cependant, une classe de filtres apparue récemment, le PHD (Probability Hypothesis Density), propose des solutions innovantes face à cette problématique. Dans cet article, nous proposons une version hybride d'un filtre PHD avec un filtre MHT (Multiple Hypothesis Tracker), afin de combiner les avantages du MHT sur la précision dans l'estimation de l'état des cibles avec la précision de l'estimation du nombre de cibles dans la scène obtenue avec le PHD. Cette hybridation est le point de départ pour un processus de détection de convoi, réalisé grâce à l'utilisation des réseaux bayésiens dynamiques. Abstract – Multitarget tracking is a challenging task, specially in a Moving Target Indicator (MTI) context, where the environement is very complex (very high number of targets, false alarm, detection probability lower than 1, spawned targets, noise in position and time, target manoeuvrability,. . . ). However, a new filter class appears, called the Probability Hypothesis Density (PHD) filter. This yields to new solutions for this problematic. In this article, we propose to combine the PHD with the Multiple Hypothesis Tracker (MHT), in order to merging the advantages of these two algorithms : the MHT is very precise for the state estimation, wheras the PHD produces an estimation of the number of targets very close to the reality. This hybridization is a first step in our convoy detection application by using Bayesian networks. 1 Introduction Les filtres PHD (Probability Hypothesis Density), proposés pour la première fois par Mahler en 2003 [1], constituent une nouvelle gamme de filtres adaptés à la problématique de pistage multicible. Ces techniques se distinguent des méthodes classiques (MHT, SD-assignment, JPDAF, particulaire) par la modélisation de l'ensemble des cibles comme un ensemble fini aléatoire et par l'utilisation des moments de sa densité de probabilité jointe. La version cardinalisée avec modélisation de la fonction d'intensité par mélange de gaussiennes (GMCPHD : Gaussian Mixture Cardinalized PHD) [2] est particulièrement adaptée à la problématique de pistage multicible en environnement bruité, que l'on retrouve dans les applications de surveillance militaire aéroportée. Dans nos travaux, nous avons enrichi la version initiale en proposant la mise en correspondance cibles - pistes. Puis, pour pallier l'estimation peu performante de la vitesse des cibles, nous avons proposé un algorithme hybride utilisant conjointement le GMCPHD et une version particulière du MHT qui utilise les coordonnées des routes issues des Systèmes d'Informations Géographiques (SIG) dans le cadre de la trajectographie terrestre à partir des données GMTI (Ground Moving Target Information). Ces données sont fournies par des capteurs aéroportés qui sont capables de détecter les cibles mobiles par mesure de l'effet Doppler sur une large zone d'observation. Ainsi, les sorties de l'algorithme sont utilisées dans le cadre de la détection de convois et fusionnées avec d'autres types de données comme des images SAR (Synthetic Aperture Radar) et des informations vidéos. La chaı̂ne de traitement de détection de convoi proposée est la suivante : GMCPHD labellisé Estimation hybride GMTI SIG video SAR {TkP HD , Nˆk } MHT sous contraintes X̂k Détection d'aggrégats Ak Détection de convois Ck TkMHT Hybridation du MHT et du GMCPHD PHD comme le moment du premier ordre de la densité jointe d'un ensemble de cibles a posteriori. Finalement, il décrit une fonction non négative v qui a la propriété suivante sur n'importe quel espace fini S ⊆ X : Z ˆ v(x)dx (4) Nk = E[|X ∩ S|] = S où E représente l'espérance, |X ∩ S| représente le nombre de cibles sur l'espace S et v(x) la fonction d'intensité en un point Dans cet article, nous commençons par revenir sur les bases x de l'espace. du filtre GMCPHD, puis dans la deuxième partie, nous décrivons Par la suite, l'opération de filtrage consiste à prédire puis les contributions apportées à ce filtre. La troisième partie est estimer la fonction d'intensité vk de l'ensemble des cibles Xk consacrée à la détection de convoi par l'utilisation d'un modèle à l'instant k, dont les définitions théoriques sont données en de réseau bayésien avant de montrer quelques résultats dans la [2]. partie 4. Une généralisation de l'algorithme, le CPHD (Cardinalized PHD), étudie en plus le comportement de la distribution de cardinalité de l'ensemble des cibles afin de mieux estimer leur 2 Retour sur le filtre GMCPHD nombre Nˆk . Enfin, dans la version gaussienne, la fonction d'intensité vk (x) est modélisée par un mélange de gaussiennes telles Contrairement aux techniques usuelles qui considèrent le cas que : de chaque cible individuellement, le filtre PHD modélise, à Jk   X (i) (i) (i) wk .N x; mk , Pk (5) vk (x) = l'instant k, l'ensemble des M (k) cibles Xk ={xk,1 , . . . , xk,M(k) } i=1 et l'ensemble des N (k) mesures Zk = {zk,1 , . . . , zk,N (k) } (i) (i) (i) comme des ensembles finis aléatoires (RFS : Random Finite où wk , mk et Pk sont les paramètres de poids, de moyenne Set) tels que : et de covariance des gaussiennes, et Jk est leur nombre.     [ [ Xk =  Sk|k−1 (ζ) ∪  Bk|k−1 (ζ) ∪ σk (1) hal-00410820, version 1 - 24 Aug 2009 F IG . 1 – Processus de détection de convoi ζ∈Xk−1 ζ∈Xk−1 où Xk−1 est le RFS à l'instant k − 1, Sk|k−1 (ζ) est le RFS des cibles survivantes issues des états précédents ζ à l'instant k −1, Bk|k−1 (ζ) est le RFS des cibles non résolues issues des états précédents et σk est le RFS modélisant les cibles naissantes à l'instant k. Dans cette application, l'état d'une cible xk,i est caractérisée par sa position (x, y) et sa vitesse (ẋ, ẏ) tel que : T xk,i = [xk,i ẋk,i yk,i ẏk,i ] (2) De le même façon, les mesures issues du capteur sont modélisées par un RFS :   [ Zk =  Θk (ζ) ∪ Kk (3) ζ∈Xk où Θk (ζ) est le RFS des mesures issues des états ζ à l'instant k et Kk est le RFS des fausses alarmes à l'instant k. Le PHD (Probability Hypothesis Density) désigne la fonction d'intensité d'un RFS X définie sur l'espace géométrique X . Cette notion a été introduite par Mahler [1] qui définit le 3 Le filtre hybride GMCPHD / MHT Une piste est une suite d'états estimés décrivant la dynamique d'une cible. Le but du pistage est donc de fournir un ensemble de pistes correspondant à l'ensemble des cibles. La version classique du GMCPHD fournit à chaque instant un ensemble de gaussiennes comme décrit dans l'équation (5) et une estimation du nombre de cibles Nˆk mais ne traite pas du problème d'association des cibles aux pistes connues. Il nécessite donc une adaptation dans le cadre du pistage multicible. Association gaussienne - piste : Nous nous sommes inspirés de certaines techniques utilisées pour les autres filtres PHD ([3, 4]) pour choisir parmi les gaussiennes modélisant les cibles celles qui sont associables aux N G pistes connues. Un critère d'association est d'associer en priorité aux pistes les gaussiennes ayant un poids fort. Ce critère seul n'étant pas suffisant dans le cadre du pistage de cibles proches, il faut également introduire la distance statistique entre une piste prédite et une gaussienne, matérialisée par le coût d'association [5]. Ainsi, nous définissons la matrice binaire Ak d'association de taille Nˆk × hal-00410820, version 1 - 24 Aug 2009 NkG telle que Ak (m, n) = 1 si la gaussienne n est associée à la piste m et 0 sinon, sachant qu'une piste est au plus associée à une gaussienne. L'évaluation de cette matrice Ak est basée sur d'une part, la maximisation du poids de l'ensemble des gaussiennes sélectionnées et d'autres parts, si plusieurs matrices d'association ont le même poids global, la minimisation de la fonction de coût. Amélioration des performances de pistage : L'algorithme GMCPHD fournit des pistes pour lesquelles la vitesse est évaluée de façon peu précise, contrairement à ce que peut produire l'algorithme IMM-MHT moins efficace au niveau de la détection. Nous avons hybridé ces deux algorithmes de la façon suivante, comme montré dans la figure 1. Le système reçoit en entrée l'ensemble des mesures Zk du capteur MTI. Puis chaque filtre traite indépendamment l'un de l'autre l'ensemble des mesures afin de fournir une estimation de l'état des cibles et/ou de leur nombre. A partir des positions des pistes issues du GMCPHD, les pistes hybrides sont choisies parmi les pistes MHT ayant le score le plus fort et statistiquement proches des pistes PHD. Afin d'améliorer la précision de l'estimation, nous utilisons un algorithme [6] dans lequel les contraintes de l'infrastructure routière (SIG) sont introduites. X1 X2 X3 X6 X4 X5 X7 X8 X9 X1 X2 X3 X4 X5 X6 X7 X8 X9 : Vitesse < 80km/h {oui, non} : Vitesse constante {oui, non} : Critère vitesse {oui, non} : Sur la route {oui, non} : Véhicule militaire {oui, non} : Distante constante entre les véhicules {oui, non} : Distance constante au cours du temps {oui, non} : Critère distance {oui, non} : Convoi {oui, non} F IG . 2 – Modélisation d'un convoi par les réseaux bayésiens. Les noeuds grisés dépendent de leur état à l'instant précédent mances obtenues avec des données simulées, moyennées sur 100 runs de Monte-Carlo, des 5 algorithmes évoqués précédemment (MHT, GMCPHD, MHT sous contraintes Hybride et Hybride sous contraintes) sur un scénario complexe de 9 cibles (C1 à C9) dont 2 convois de 3 cibles, une cible qui double un des convois (C2), une autre qui croise le même convoi (C3) et une cible indépendante des autres (C1). Les mesures sont de la 4 Un modèle de détection de convoi forme zk = [xk , yk ]T où xk et yk représentent la position de la détection dans le repère cartésien local. Un convoi est défini comme un ensemble de véhicules vérifiant L'erreur moyenne en position et vitesse, montrée en Figure des propriétés cinématiques ou de positionnement telles que les 3-a et b, est légèrement plus élevée pour le GMCPHD que pour véhicules évoluent approximativement selon la même cinématique les autres algorithmes, tandis que Hybride (resp. Hybride sous par exemple. De par la multiplicité des critères entrant en intercontraintes) fournit des performances similaires pour les cibles action (cf. Fig 2), les réseaux bayésiens constituent une méthode n'appartenant pas à un convoi par rapport au MHT (resp. MHT adaptée pour en faire une représentation intuitive et laissent la sous contraintes) voire meilleures pour les cibles appartenant possibilité de pondérer la valeur de chaque critère grâce aux à un convoi. L'observation des ratios de longueurs des pistes probabilités conditionnelles. Celles-ci sont déterminées par ex(ratio entre la longueur estimée des pistes et la longueur r éelle) pertise. De plus, les réseaux baysésiens s'adaptent aux problémamontre tout l'intérêt du PHD puisque les ratios de longueur ont tiques de variables discrètes et d'évolution temporelle de ces le même ordre de grandeur pour tous les algorithmes pour les variables grâce à des mécanismes d'inférence puissants. Dans cibles indépendantes des autres, tandis qu'ils sont supérieurs nos simulations, nous avons utilisé un algorithme JLO du nom avec les algorithmes utilisant le PHD pour les cibles apparde ses auteurs [7] disponible dans la toolbox matlab de Kevin tenant à un convoi. La figure 3-d montre les résultats obteMurphy [8]. nus pour la détection du convoi 1. L'allure de la courbe est conforme à ce qui a été obtenu par rapport à l'ensemble des scénarios testés (non montré dans cette publication). La proba5 Résultats bilité d'avoir un convoi croit avec le temps sauf lorsqu'il y a un changement de cardinalité dans l'agrégat (lorsque la cible est Le filtre hybride a été testé sur des données simulées et des doublée). données réelles avec l'utilisation des coordonnées des routes et sans. Les résultats présentés en Figure 3 illustrent les perfor- 6 Conclusion L'algorithme proposé dans cet article a montré son efficacité pour détecter et localiser les cibles terrestres, même lorsque celles-ci se déplacent en convoi. Cet algorithme est l'hybridation de deux algorithmes d'approches complémentaires ce qui permet d'accroı̂tre les performances : l'estimation du nombre de cibles fournie par le GMCPHD est combinée avec l'estimation des états des cibles issus du MHT sous contraintes. De plus, la dégradation des performances lorsque les cibles sont proches, souvent observées avec les algorithmes de pistage, est minimisée. Enfin, l'utilisation d'un réseau bayésien permet d'identifier un agrégat de cibles comme étant un convoi. Références hal-00410820, version 1 - 24 Aug 2009 [1] R. Mahler, "Multitarget Bayes filtering via first-order multitarget moments," IEEE Transactions on Aerospace and Electronic Systems, vol. 39, pp. 1152–1178, Oct. 2003. [2] B.-T. Vo, B.-N. Vo, and A. Cantoni, "Analytic Implementations of the Cardinalized Probability Hypothesis Density Filter," Signal Processing, IEEE Transactions on, vol. 55, pp. 3553–3567, July 2007. [3] D. Clark and J. Bell, "Multi-target state estimation and track continuity for the particle PHD filter," Aerospace and Electronic Systems, IEEE Transactions on, vol. 43, pp. 1441–1453, October 2007. [4] L. Lin, Y. Bar-Shalom, and T. Kirubarajan, "Track and PHD filter for multitarget tracking," Aerospace and Electronic Systems, IEEE Transactions on, vol. 42, pp. 778– 795, July 2006. [5] S. Blackman, Multiple Target Tracking with Radar Applications. Artech House, 1986. [6] B. Pannetier, V. Nimier, and M. Rombaut, "Multiple Ground Target Tracking with a GMTI Sensor," 9th International Conference on Information Fusion, 2006. [7] F. V. Jensen, S. L. Lauritzen, and K. G. Olesen, "Bayesian updating in recursive graphical models by local computation," Computational Statistics Quarterly, vol. 4, pp. 269– 282, 1990. [8] K. Murphy, "Bayes net box." http ://www.cs.ubc.ca/ phyk/Software/BNT/usage.html, 2002. F IG . 3 – Comparaison des mesures de performances MHT GMCPHD MHT sous contraintes Hybride Hybride sous contraintes- (a) Erreur moyenne en position (en m) - (b) Erreur moyenne en vitesse (en m/s) - (c) Ratio de longueur des pistes - (d) Probabilité d'existence du convoi toolmur-
{'path': '27/hal.archives-ouvertes.fr-hal-00410820-document.txt'}
Problématique diagnostique d'infection par un virus dengue en zone endémo-épidémique (Guadeloupe) et élaboration de contrôles internes de la qualité pour les tests AgNS1 et IgM Clarisse Benard To cite this version: Clarisse Benard. Problématique diagnostique d'infection par un virus dengue en zone endémoépidémique (Guadeloupe) et élaboration de contrôles internes de la qualité pour les tests AgNS1 et IgM. Sciences pharmaceutiques. 2015. dumas-01191535 HAL Id: dumas-01191535 https://dumas.ccsd.cnrs.fr/dumas-01191535 Submitted on 2 Sep 2015 Université Bordeaux 2 – Victor Segalen U.F.R DES SCIENCES PHARMACEUTIQUES Année 2015 Thèse n° 59 MEMOIRE Pour le diplôme d'Etudes Spécialisées de Biologie Médicale Tenant lieu de THESE Pour l'obtention du DIPLOME d'ETAT de DOCTEUR EN PHARMACIE Présentée et soutenue publiquement le 29 mai 2015 A l'Université Toulouse III –Paul Sabatier par Clarisse BENARD Née le 04 février 1987 à Perpignan Problématique diagnostique d'infection par un virus dengue en zone endémo-épidémique (Guadeloupe) Elaboration de Contrôles internes de Qualité pour les tests AgNS1 et IgM Directeur de thèse Madame le Docteur Cécile HERRMANN-STORCK Membres du jury Madame le Docteur Véronique DUBOIS Président Monsieur le Professeur Hervé J.A. FLEURY Juge Monsieur le Professeur Christophe PASQUIER Juge 1 Remerciements Madame le Docteur Cécile HERRMANN-STORCK Médecin biologiste en microbiologie et biologie moléculaire Praticien hospitalier Laboratoire de parasitologie bactériologie et virologie, CHU de Pointe-à-pitre Je te remercie pour l'aide précieuse que tu m'as apporté tout au long de cette thèse, pour ton expertise et ta disponibilité. Merci pour la confiance que tu m'as accordé en acceptant d'encadrer mon travail, tu as toujours su me guider et me conseiller. Madame le Docteur Véronique DUBOIS Maître de conférence universitaire - Praticien Hospitalier Laboratoire de Bactériologie, Hôpital Pellegrin, CHU de Bordeaux Vous avez accepté de présider mon jury de thèse. Soyez assuré de mes sincères remerciements. Monsieur le Professeur Hervé J.A. FLEURY Professeur de virologie Chef de service du laboratoire de virologie Hôpital Pellegrin, CHU de Bordeaux Je suis honorée de votre présence au sein des membres du jury. Merci pour l'intérêt que vous portez à mon travail. Monsieur le Professeur Christophe PASQUIER Professeur des Universités - Praticien Hospitalier Doyen de la Faculté des Sciences Pharmaceutiques de Toulouse Laboratoire de Virologie, CHU de Toulouse Je vous remercie de me faire l'honneur de juger mon travail. Merci pour toutes ces années d'enseignement de cette discipline. A Régine, Géraldine et Julie, qui m'ont beaucoup aidé dans la réalisation technique de ma thèse. Et à Rebecca, Régine, Dominique, Marie-Odile, Françoise, Delphine, Léna, Jessica, Sarah et Cécile qui ont participé activement à la réalisation du SHN ! Merci pour votre gentillesse et votre accueil toujours chaleureux. 2 Remerciements A mes parents et à mon frère qui m'ont toujours poussé à donner le meilleur de moi-même, pour leur soutien au quotidien, et leur encouragement, même avec l'éloignement. Qu'ils sachent combien ils sont importants pour moi. A Jean-max, qui embellit ma vie depuis maintenant 6 ans. Quand je regarde tout ce qu'on a déjà construit et tous nos projets à venir, je ne peux être que comblée ! Je t'aime. A Sandy, Fafa et Elo, grâce à vous les années de fac ont été mémorables. Même si la distance ne joue pas en notre faveur, vous resterez toujours mes acolytes. Vive la bande des 4 fantastiques ! A Marie, qui a toujours été là pour moi. Enfin de retour en métropole et pas loin de chez vous en plus, on va enfin pouvoir passer du temps ensemble ! Plein de bonheur à vous 2 (4) pour la suite qui ne peut être qu'épanouissante. A aurélie, pour toutes ces années de collège et lycée, pour ces vacances à Empuria brava et pour tout le reste ! Vivement qu'on se retrouve et que vous me présentiez votre nouveau chez vous. En attendant septembre ! A Elisa et mathieu, on vous attend de nouveau en Gwada l'année prochaine pour qu'on se fasse enfin la trace de la Volcano ensemble !! A Alex, JR, Polo, Julia, Thomas et Justine, pour ces 2 années de rêve en Gwada ! Pour ceux qui ont déjà déserté ou qui déserterons l'île avant l'année prochaine, vous avez intérêt à venir nous voir rapidement ! A Arnaud. Merci d'avoir amplifié la passion de mon homme pour la pêche L'année prochaine : penser à acheter un 2ème congélo A benoît et Sam. A chaque fois que je verrais quelqu'un essayer de décrocher une noix de coco, je penserais à vous ! Et à tous ceux que je n'ai pas cité, d'ici et d'ailleurs, mais qui ont marqué mes pensées. 3 Liste des abréviations AcM Anticorps monoclonaux ADE Antibody Dependent Enhancement (augmentation de l'infection dépendante des anticorps) ADN Acide désoxyribonucléique AgNS1 Antigène (protéine) non structurale 1 (Non structural 1) AINS Anti-inflammatoires non stéroïdiens ARN Acide ribonucléique ARS Agence régionale de santé CHU Centre hospitalier universitaire CIQ Contrôle interne de la qualité CIRE Cellule de l'institut de veille sanitaire en région CNR Centre national de référence CRP C-reactive protein (protéine C réactive) CV Coefficient de variation DENV Virus de la dengue DF Fièvre dengue classique DFA Départements français d'Amérique DH Dengue hémorragique DM-DIV Dispositif médical de diagnostic in vitro DO Densité optique DSC Dengue avec syndrome de choc ECP Effet cytopathique EIA Enzyme Immuno Assays (dosage immunoenzymatique) ELISA Enzyme-Linked ImmunoSorbent Assay (dosage immunoenzymatique en phase solide) GOT/ASAT Glutamate oxaloacétique transaminase/Aspartate aminotransférase GPT/ALAT Glutamate pyruvate transaminase/Alanine aminotransférase 4 HCSP Haut conseil de la santé publique IB Immunoblot ICT Immunochromatographique ICTV Comité international de taxonomie des virus IF Immunofluorescence IgG Immunoglobuline G IgM Immunoglobuline M ISO International Organization for Standardization JEV Japanese encephalitis virus (virus de l'encéphalite japonaise) NABM Nomenclature des actes de biologie médicale NFS Numération formule sanguine OMS Organisation mondiale de la santé (WHO : World Health Organisation) PBS Phosphate buffered saline (Tampon phosphate salin) PCR RT Polymerase Chain Reaction real time (polymérisation en chaîne en temps réel) PRNT Plaque reduction neutralization PSAGE Programme de surveillance, d'alerte et de gestion des épidémies RE Réticulum endoplasmique RT-PCR Reverse Transcriptase – Polymerase Chain Reaction (transcriptase inverse – amplification génique par polymérisation en chaîne) S/CO Densité optique lue pour cet échantillon (S) sur la moyenne des densités optiques des deux mesures du calibrateur (CO) SHN Sérum humain négatif pour l'antigène NS1 SLEV Saint Louis encephalitis virus (virus de l'encéphalite de St. Louis) SVF Sérum de veau foetal TBEV Tick Borne Encephalitis Virus (Virus de la méningo-encéphalite à tiques) WNV West Nile virus (Virus du Nil occidental) YFV Yellow Fever Virus (Virus de la fièvre jaune) 5 SOMMAIRE I – INTRODUCTION 8 A - Historique au niveau mondial et dans la Caraïbe 9 B - Virologie et cycles viraux 13 1 - Classification des virus de la dengue 13 2 - Structure des virus de la dengue 14 3 - Tropisme cellulaire et cycle viral chez l'homme 17 4 - Polymorphisme moléculaire 20 5 - Vecteurs de la dengue 22 6 - Cycle de transmission de la dengue 29 7 - Réservoirs et Hôtes 32 C - Epidémiologie des virus de la dengue 33 1 - Epidémiologie actuelle 33 2 - Situation épidémiologique en Guadeloupe – Les phases du PSAGE 34 3 - Facteurs influençant le risque épidémique 38 D - Immunité et immuno-pathologie 40 1 - Immunité protectrice contre la dengue 40 2 - Dengue hémorragique : les théories pathogéniques 41 E - Evolution clinique de la dengue et biologie non spécifique 45 1 - Modalités diagnostiques et interprétation des données biologiques 45 2 - Evolution clinique 49 3 - Patients à risque 55 F - Traitements et prévention 56 6 II – PROBLEMATIQUE DIAGNOSTIQUE DE LA DENGUE EN CONTEXTE EPIDEMIQUE 60 A - Diagnostic différentiel 60 B - Diagnostic biologique spécifique 62 1 - Définitions des cas de dengue 63 2 - Diagnostic direct ou diagnostic précoce de la dengue 63 3 - Diagnostic indirect ou diagnostic sérologique 74 C - Stratégie diagnostique 84 1 - Recommandations du Haut Conseil de la Santé Publique (2011) 84 2 - Mise en pratique dans un contexte endémo-épidémique : Recommandations du Cire Antilles Guyane (2013) 87 3 - Interprétation des tests diagnostiques 90 III – ELABORATION DES CONTROLES INTERNES DE LA QUALITE POUR LA DETECTION DE L'ANTIGENE NS1 ET DES ANTICORPS IGM DE LA DENGUE 92 A - Généralités sur les contrôles internes de la qualité (CIQ) 93 B - Fabrication et évaluation d'un CIQ AgNS1 et d'un CIQ IgM dengue Erreur ! Signet non défini. 1 – Matériels et méthodes 95 2 - Résultats 99 C - Discussion 113 IV – CONCLUSION117 V – ANNEXES118 VI – REFERENCES BIBLIOGRAPHIQUES133 7 I – INTRODUCTION Avant 1970, seuls neuf pays avaient connu des épidémies de dengue sévère [1]. Aujourd'hui, la dengue est devenue un problème de santé publique majeure dans l'ensemble des régions tropicales et intertropicales du globe. Dans la Caraïbe, la dengue demeure fort complexe au plan épidémiologique, avec la circulation des quatre sérotypes de la maladie et des conditions fort propices à sa transmission. Depuis 1995, la Guadeloupe a connu six épidémies importantes [2]. Ce contexte épidémiologique justifie un diagnostic biologique simple, rapide et fiable. Le choix des tests à utiliser est crucial et doit prendre en compte la situation épidémiologique, la durée d'évolution de la pathologie, la disponibilité et le coût des tests [3]. La fiabilité des tests est assurée en grande partie par les contrôles internes de la qualité qui permettent de valider la manipulation, indépendamment des contrôles disponibles dans les coffrets réactionnels. Dans la première partie, nous décrirons la triade infectieuse virus-vecteur-hôte, l'épidémiologie de la dengue, son évolution clinico-biologique ainsi que sa pathogénie. Dans la deuxième partie, nous présenterons la stratégie diagnostique recommandée en contexte épidémique, en prenant comme exemple l'épidémie de dengue de 2013 en Guadeloupe. Pour finir, la troisième partie sera consacrée à l'étude de l'élaboration des contrôles internes de la qualité pour la détection de l'antigène NS1 et la sérologie IgM de la dengue, réalisée au sein du laboratoire de virologie du Centre Hospitalier Universitaire de Pointe-à-pitre. 8 A - Historique au niveau mondial et dans la Caraïbe Le terme « Dengue » est employé depuis très longtemps pour désigner une maladie fébrile accompagnée de myalgies, d'arthralgies, et suivie d'exanthème, sévissant dans les régions tropicales et méditerranéennes, et recouvrant en réalité des syndromes d'étiologies très diverses. De nos jours, la confusion existe encore avec ce qu'il est convenu d'appeler les syndromes « dengue-like » (paludisme, chikungunya, leptospirose) qui se définissent comme une fièvre d'apparition brutale avec un ou plusieurs symptômes non spécifiques (myalgies, arthralgies, céphalées frontales, asthénie, douleurs rétro-orbitaires, éruptions maculo- papuleuses), en l'absence de point d'appel infectieux. C'est à la fin du XVIIIe siècle (1779-1780) que les premières épidémies de dengue, clairement documentées « dengue-like », ont été rapportées. Elles ont concerné pratiquement simultanément trois continents, l'Asie (Indonésie et Inde), l'Afrique (Egypte, Arabie et Perse) et l'Amérique du Nord (Philadelphie et Pennsylvanie) [4]. En 1869, le Collège royal de médecine de Londres inscrivit la maladie sous le nom de « dengue », mot issu du swahili « ki dinga pepo » (langage africain) qui décrit la maladie comme des crampes causées par un esprit malin. Ce n'est qu'en 1945 que Sabin et Schlesinger isolent les deux premiers sérotypes de la dengue [5], et seulement en 1956 que les sérotypes 3 et 4 sont isolés par Sather [6], alors que la nature virale de l'agent pathogène a été démontrée précédemment par Ashburn et Craig dès 1907 [7]. 9 La forme hémorragique fut reconnue en tant que nouvelle maladie pour la première fois aux Philippines en 1956 [6]. A la dengue classique bénigne s'ajoutèrent alors la dengue hémorragique et la dengue avec syndrome de choc. Dans la Caraïbe, ce n'est qu'en 1952 que le virus de la dengue de sérotype 2 (DENV-2) fut isolé pour la première fois, à Trinidad [8]. En 1963, le sérotype 3 (DENV-3) était mis en évidence à Porto Rico où l'épidémie toucha près de 27 000 personnes, puis s'étendit à la Jamaïque et au Venezuela (respectivement 15 000 et 30 000 cas recensés). En 1977, l'apparition du sérotype 1 (DENV-1) fut responsable d'une nouvelle épidémie d'envergure dans la Caraïbe : 35 000 cas à Porto Rico, 47 000 cas en Martinique [9]. Depuis l'identification en 1981 des premières formes hémorragiques de la dengue dans la Caraïbe (épidémie de Cuba, après introduction de souches virales du sudest asiatique) [10], la Guadeloupe a connu en 1995 une première épidémie importante liée à la circulation prédominante du virus DENV-2 avec l'enregistrement de 7 cas de forme hémorragique. En 2001, une épidémie associée au virus DENV-3 a touché près de 5% de la population. En 2005, une nouvelle épidémie, largement dominée par le virus DENV-4, a néanmoins vu circuler de façon concomitante les virus DENV-2 et DENV-3 [2]. Les épidémies suivantes en 2007 et 2010 touchaient respectivement 5 et 10% de la population, avec 411 cas hospitalisés et 6 décès en 2010 [11]. Le vecteur impliqué dans ces épidémies était le moustique Aedes aegypti. 10 Figure 1. Aires de répartition de la dengue (2011) [12] Le nombre de cas dans les Amériques, en Asie du Sud-Est et dans le Pacifique occidental a dépassé 1,2 million en 2008 et 2,3 millions en 2010 (sur la base des données officielles transmises par les États Membres à l'OMS). En 2010, la région des Amériques a signalé à elle seule 1,6 million de cas, dont 49 000 cas de dengue sévère. La menace d'une flambée de dengue existe désormais en Europe avec le moustique vecteur Aedes albopictus. Des cas autochtones ont été rapportés pour la première fois en France et en Croatie en 2010, et des cas importés ont été détectés dans trois autres pays européens [1]. Le ministère chargé de la santé a mis en place un réseau national de surveillance du moustique vecteur Aedes albopictus en France 11 métropolitaine à partir de 1999, suite à son signalement en Normandie la même année sur des sites d'importation de pneus. Au début de la saison de surveillance 2013, ce moustique très agressif et très anthropophile est alors implanté dans 17 départements des régions Provence-AlpesCôte d'Azur, Corse, Languedoc-Roussillon, Midi-Pyrénées, Aquitaine et Rhône-Alpes [13]. Bien que peu présent dans la Caraïbe (prédominance d'Aedes aegypti), son apparition est surveillée notamment à Cuba. Ses capacités vectorielles sont accrues par rapport à Aedes aegypti du fait de sa très grande agressivité. Figure 2. Nombre annuel moyen de cas de dengue (simples et sévères) pour la période 1955 – 2007 et nombre annuel entre 2008 et 2010 en Asie, Amérique Latine et Pacifique [14] 12 B - Virologie et cycles viraux 1 - Classification des virus de la dengue Le Comité International de Taxonomie des Virus ou ICTV [15] répertorie le virus de la dengue dans la famille des Flaviviridae. Celle-ci est subdivisée en quatre genres : -Flavivirus qui inclue notamment les groupes du virus de la dengue (DENV), du virus de la fièvre jaune (YFV), du virus de l'encéphalite japonaise (JEV), du virus West Nile (WNV), du virus de la méningo-encéphalite à tiques (TBEV), et du virus de l'encéphalite de Saint-Louis (SLEV), -Pestivirus, comprenant des agents pathogènes chez l'animal, -Hepacivirus, correspondant au virus de l'hépatite C (HCV) et au GB virus A. -Pegivirus (GB virus C ou GBV-C) Figure 3. Arbre phylogénétique schématique des genres et des principaux virus de la famille des Flaviviridae, basé sur la séquence en acides aminés de l'ARN polymérase ARN dépendante. BVDV : bovine viral diarrhea virus, CSFV : classical swine fever virus, TABV : tamana bat virus [16] 13 La dengue est également classée parmi les arbovirus, où elle constitue d'ailleurs la plus fréquente des viroses transmises chez l'homme. Les arbovirus, contraction de l'expression anglo-saxonne arthropod borne virus, regroupent un vaste ensemble de virus de familles différentes transmis indirectement de vertébré à vertébré (hôte) par l'intermédiaire d'un arthropode hématophage, ceci après un cycle de réplication du virus chez l'arthropode (vecteur biologique). La définition des arbovirus est écologique et ne repose pas sur la structure des virus. Parmi les arbovirus de la famille des Flaviviridae et du genre Flavivirus, on retrouve des virus responsables de syndromes aigus fébriles ou « dengue-like » (DENV, WNV, virus de la Forêt de Kyasanur), de fièvres hémorragiques (DENV, YFV, virus de la Forêt de Kyasanur) ou de syndromes encéphalitiques (DENV, SLEV, WNV, JEV) Les principaux arbovirus pathogènes pour l'homme sont répertoriés dans le tableau 1 en annexe [17]. Les Flavivirus possèdent des épitopes en commun, ce qui peut gêner l'interprétation des réactions sérologiques (réactions croisées). Il faut avoir recours à la séroneutralisation pour pouvoir différencier les anticorps des différents Flavivirus. 2 - Structure des virus de la dengue Le génome du DENV est un ARN monocaténaire de polarité positive. La taille de la molécule d'ARN est d'environ 11 000 paires de bases, avec une variation de 14 quelques dizaines de paires selon le sérotype. Les virions de la dengue, d'un diamètre d'environ 50 nm, possèdent une capside icosaédrique à symétrie cubique. Son enveloppe est constituée d'une bicouche lipidique dérivée de la cellule-hôte, dans laquelle sont ancrées deux glycoprotéines structurales virales, la protéine d'enveloppe (E) et la protéine de membrane (M) [18,19] (figure 4). La protéine E permet l'attachement viral à la cellule cible ainsi que sa pénétration, et est la cible privilégiée des anticorps neutralisants. Elle est divisée en trois domaines structuraux ou fonctionnels : le domaine central (domaine I), le domaine de dimérisation qui présente un peptide de fusion (domaine II) et le domaine de reconnaissance du récepteur au virus à la surface cellulaire (domaine III). La protéine M est synthétisée sous forme de précurseur PrM qui permet le maintien de l'intégrité de la conformation de la protéine E pendant l'assemblage du virion. Le clivage de PrM en protéine M a lieu lors de l'export du virion vers l'extérieur de la cellule en même temps qu'il acquiert son enveloppe d'origine cellulaire. Le génome viral associé à une troisième protéine structurale, la protéine de capside (C), forme la nucléocapside (figure 4). En plus des trois protéines structurales citées ci-dessus, le génome de la dengue code pour sept protéines non structurales (NS1, NS2a, NS2b, NS3, NS4a, NS4b et NS5). 15 Figure 4. Organisation structurale du virus de la dengue [20] (A) et représentation schématique du génome viral [21] (B) A B Les fonctions de certaines protéines non structurales ne sont pas encore clairement établies. Des comparaisons de séquences et des analyses biochimiques suggèrent que NS3 est probablement trifonctionnelle et possède des activités de protéase, d'hélicase et d'ARN triphosphatase [22,23]. Une activité ARN polymérase ARN-dépendante a été montrée in vitro pour la protéine NS5 [24]. La protéine NS1 existe sous deux formes, soluble ou associée aux membranes cellulaires. Bien qu'elle ne semble posséder aucun site d'ancrage, elle est capable sous forme d'homodimère de s'associer aux membranes des cellules infectées. La 16 dimérisation de NS1 est également nécessaire à son export le long de la voie de sécrétion, du réticulum endoplasmique vers la membrane plasmique. La protéine NS1 est donc présente sur la surface cellulaire des cellules infectées. Une autre partie de la protéine NS1 est libérée dans le milieu extracellulaire, sous forme soluble hexamérique. Cette forme peut donc être détectée dans le sérum de patients infectés. Elle est capable d'induire une activation du système du complément par formation de complexes immuns, par fixation à des protéines régulatrices du complément comme les clusterines [25], aboutissant à la génération d'anaphylatoxines et de complexes terminaux du complément responsables de fuite plasmatique décrite lors des formes sévères de dengue [26]. Elle peut également induire des mécanismes d'échappement immunitaire complément-dépendants en se fixant à des protéines de l'hôte comme le facteur H, protéine de régulation du complément [27], ou le facteur C4 [28]. Les virus de la dengue étant des virus enveloppés, ce sont des virus fragiles. Ils sont sensibles à l'éther, au chloroforme, au désoxycholate de sodium, ils sont également fragiles à la chaleur et très vite inactivés hors des cellules. 3 - Tropisme cellulaire et cycle viral chez l'Homme Chez l'homme, les virus de la dengue se répliquent dans les cellules de la lignée phagocytaire mononucléée : macrophages, monocytes, histiocytes et cellules de Küppfer [29]. 17 Les cellules endothéliales, le tissu hépatique et la moelle osseuse seraient également des cibles virales. Parmi les cellules du système immunitaire, les cellules dendritiques de la peau sont décrites comme les premières cibles cellulaires du virus de la dengue au site d'inoculation par le moustique vecteur de la maladie. L'infection de ces cellules serait ainsi le point de départ pour la dissémination du virus de la dengue chez l'individu infecté. Dans le cas d'une cellule de mammifère, l'attachement du virus à la surface cellulaire implique une interaction entre la protéine d'enveloppe E et des récepteurs spécifiques de la surface cellulaire. Deux équipes de l'Institut Pasteur ont identifié le rôle de récepteur pour le virus de la dengue de la molécule DC-SIGN (DC‐specific ICAM3‐grabbing non‐integrin), une lectine de type C mannose-spécifique, située à la surface des cellules dendritiques de la peau [30]. Un processus d'endocytose récepteur-dépendante conduit alors à l'internalisation de la particule virale dans une vésicule à clathrines. Une pompe à protons permet ensuite l'acidification de l'endosome, ce qui provoque un changement de conformation irréversible de la protéine d'enveloppe E, initialement présente sous forme d'un homodimère dans la particule virale, et expose des régions hydrophobes réagissant avec les lipides de la membrane de l'endosome (figure 5). Se produit alors la fusion de l'enveloppe virale et de la membrane endosomale, libérant ainsi la nucléocapside dans le cytoplasme de la cellule cible. La décapsidation permet la libération de l'ARN génomique viral [18]. 18 Figure 5. Processus de fusion de l'enveloppe viral avec la membrane endosomale [31] (A) Homodimère de la protéine E à la surface de la particule virale ; (B) Diminution du pH endosomal provoquant la dissociation de l'homodimère de E en monomères et permettant l'insertion du peptide de fusion dans la membrane de l'endosome ; (C, D) Trimère de la protéine E stable en structure d'épingle à cheveux ; (E) Ouverture du pore de fusion permettant la sortie de l'ARN viral dans le cytoplasme de la cellule. Le cycle de réplication virale a lieu dans le cytoplasme de la cellule-hôte (figure 6). L'assemblage du virion se produit dans le réticulum endoplasmique (RE) et les virus sortent de la cellule par l'intermédiaire du réseau transgolgien. 19 Figure 6. Cycle du virus de la dengue dans une cellule de mammifère [32] Les premières synthèses commenceraient aux alentours de 10 heures post-infection, moment où les premières protéines virales deviennent détectables. La production de particules virales atteint son maximum environ 24 heures après le début de l'infection. 4 - Polymorphisme moléculaire Parmi les virus de la dengue, Il existe quatre sérotypes : DENV-1, DENV-2, DENV-3 et DENV-4, qui se définissent en particulier par l'induction chez l'hôte d'anticorps neutralisants spécifiques de chaque sérotype. Ces anticorps n'induisent pas d'immunité croisée effective. Ils ne sont pas différenciables par les méthodes de sérologie classiques (sérologie croisée). 20 Le pourcentage d'homologie protéique inter-sérotypique varie entre 60 et 70%, le sérotype étant déterminé par la glycoprotéine d'enveloppe E [33]. Chaque sérotype comporte plusieurs variants, appelés aussi génotypes, sous-types ou topotypes quand ils sont rattachés à une zone géographique. L'identification de ces génotypes par des techniques de biologie moléculaire (génotypage) a permis d'identifier différentes souches lors d'épidémies ou d'épizooties et d'en suivre la circulation entre différentes localités. Il faut donc considérer un sérotype comme une famille de topotypes ayant entre eux des relations plus ou moins étroites, les topotypes étant définis comme des souches de virus présentant 6 à 7 % de divergence au niveau de leurs séquences nucléotidiques [34], avec cependant une immunisation croisée entre eux. L'émergence de ces variants génomiques s'explique par le fait que durant la réplication des virus à ARN, des erreurs sont introduites de manière aléatoire dans leur génome par les ARN polymérases ARN dépendantes. Ces recombinaisons génomiques, dont les conséquences infectieuses et immunitaires sont encore à l'étude, pourraient représenter un facteur d'évolution et/ou de risque d'apparition de souche d'un nouveau type. Les analyses phylogénétiques des génotypes sont basées sur l'étude de séquences génomiques partielles ou complètes, comme la séquence nucléotidique du gène de l'enveloppe (E). 21 Figure 7. Arbre phylogénétique basé sur le séquençage complet du gène de la protéine d'enveloppe (E) du virus DENV-3. Les virus sont identifiés en utilisant la nomenclature sérotype/pays/souche/année d'isolement [35]. 5 - Vecteurs de la dengue La diffusion des virus de la dengue est étroitement liée à la répartition des moustiques vecteurs de la maladie. Ces moustiques appartiennent à la famille des Culicidae, à la sous-famille des Culicinae, au genre Aedes et au sous-genre Stegomyia. Leur rôle dans la transmission du virus de la dengue a été démontré dès le début du XXe siècle grâce à des expériences sur hôtes humains volontaires. La première expérience fut réalisée par Graham en 1903, près de 40 ans avant l'isolement des premiers virus de la dengue. A la suite des travaux de Bancroft en 22 1906 [36], l'implication d'Aedes aegypti dans la transmission du virus de la dengue a été admise, puis confirmée par Cleland en 1918 [37]. Dans les années 1920, des chercheurs de l'armée américaine précisaient la compétence vectorielle d'Aedes aegypti, et identifiaient Aedes albopictus comme autre vecteur du virus de la dengue.  Aedes aegypti : vecteur principal des virus de la dengue Originaire d'Afrique, ce moustique a été décrit à partir de spécimens provenant du sud de l'Egypte en 1762 par Linné. Cosmopolite et pantropical, son aire de répartition se serait étendue vers l'ouest dès le XVIIe siècle, au bassin méditerranéen au XVIIIe siècle, à l'Asie du Sud-est puis aux îles du Pacifique à partir du XIXe siècle, grâce à la navigation fluviale. Son introduction dans les ports a signé le début des premières épidémies. Figure 8. Distribution mondiale d'Aedes aegypti (2006) [38] 23 Le corps de ce moustique est noir décoré de taches blanches ou argentées. La trompe est entièrement noire et les pattes sont nettement striées de blanc aux articulations et aux extrémités [39]. Figure 9. Aedes aegypti femelle [40] Il est retrouvé entre le 42ème degré de latitude nord et le 40ème degré de latitude sud [41]. Très anthropophile, il est surtout urbain. Ses gîtes de ponte habituels sont de petites collections artificielles d'eau claire rencontrées autour des habitations (sous-pots, récipients pour boutures, vases, gouttières, vieux pneus). Chez les moustiques vecteurs, seules les femelles sont hématophages, pour se procurer les acides aminés nécessaires à l'ovogénèse. L' Aedes femelle a une activité diurne et nocturne avec des pics d'activité en début de matinée et au crépuscule. Elle est attirée par le gaz carbonique, les radiations thermiques de la peau, les couleurs foncées et les odeurs, notamment l'acide lactique et les produits de dégradation des acides gras éliminés dans la sueur [42]. 24 La femelle Aedes aegypti pond ses oeufs environ 48 heures après un repas sanguin. Ceux-ci peuvent éclore très rapidement en environ 24 heures si les conditions sont optimales. Les larves vont passer par différents stades jusqu'à la nymphe d'où émergera le moustique adulte ou imago (figure 10). De la larve au moustique adulte, il se passe 7 à 12 jours selon les conditions, notamment la température et l'alimentation. Le moustique adulte a une durée de vie dans la nature estimée à 2 à 3 semaines au maximum. Il peut cependant vivre bien plus longtemps, environ 2 à 3 mois en condition de laboratoire [43]. Les oeufs pondus peuvent se dessécher, rester intacts plusieurs mois voire jusqu'à deux ans (période d'arrêt = diapause) et éclore normalement une fois au contact de l'eau. Cependant, les oeufs de ce moustique, spécifique des régions chaudes tropicales, ne résisteraient pas aux hivers de l'hexagone. Figure 10. Cycle de développement du moustique Aedes [44] 25 Ce moustique est peu mobile et a une capacité de dispersion faible (100 à 500 mètres) depuis son gîte d'origine.  Aedes albopictus [45,46] Originaire des forêts d'Asie du Sud-est, ce moustique appartient au groupe scutellaris du sous-genre Stegomyia. Aussi appelé « moustique-tigre », il se distingue par la présence d'une ligne longitudinale blanche en position centrale au niveau du scutum (dos du moustique), visible à l'oeil nu (figure 11). Il se propage dans le monde entier depuis la fin des années 1970. Aedes albopictus colonise tout un groupe de plantes retenant l'eau de pluie (broméliacées, tiges de bambous coupées, cosses de noix de coco) et déposent ses oeufs dans les cavités naturelles des arbres. Jusqu'au début du XXe siècle, le moustique est retrouvé en Inde, en Asie du Sud-est, en Chine, en Indonésie, dans les îles de l'Océan Indien, puis à Hawaii, où il est présent dans les zones forestières, rurales et péri-urbaines. Il s'adapte ensuite à l'environnement créé par l'homme et bien que n'acquérant pas le niveau de domestication d'Aedes aegypti, serait responsable de l'introduction de souches de dengue dans les zones habitées. Figure 11. Aedes albopictus [47] 26 Son aire de répartition s'étend ensuite au continent américain, où il est responsable de cas sporadiques d'infection, ainsi qu'en Afrique et en Océanie (figure 12). La dispersion mondiale du moustique a notamment été permise grâce au commerce international des pneus usagés et décorations végétales, lieu idéal de ponte pour les moustiques. Les oeufs d'Aedes albopictus sont résistants au froid et à la sécheresse. Dans les régions tempérées, ils persistent en hiver grâce à la diapause au stade d'oeufs. Son arrivée en Europe du Sud commence en Albanie en 1979, puis en Italie à partir de 1990, en France depuis 1999, en Belgique depuis 2000, en Serbie et au Montenégro depuis 2001, en Suisse depuis 2003 et en Espagne depuis 2004. Figure 12. Distribution d'Ae. albopictus avant les années 1980 (gris foncé) et ces 30 dernières années (gris clair) ; Pays ayant intercepté Ae. Albopicus au niveau de sites portuaires (gris très clair) (2006) [48] 27  Autres vecteurs de la dengue du genre Aedes Un autre moustique appartenant au groupe scutellaris du sous-genre Stegomyia est impliqué dans la transmission de la dengue. Il s'agit d'Aedes polynesiensis, présent essentiellement à Fidji et en Polynésie. On lui attribue les premières épidémies de dengue en Polynésie française, à la fin du XIXe siècle [49]. Dans la zone Pacifique, d'autres moustiques appartenant au même groupe et de distribution très localisée seraient impliqués : Ae. scutellaris (Nouvelle Guinée), Ae. hebrideus (Vanuatu), Ae. Cooki (Niue), [50]. Sur le continent africain, d'autres espèces du sous-genre Stegomyia (Ae. luteocephalus, Ae. africanus, Ae. opok), ainsi que deux espèces du sousgenre Diceromyia (Ae. furcifer et Ae. taylori) ont été décrites comme étant des vecteurs selvatiques du virus de la dengue. En Malaisie, le virus de la dengue a été isolé chez des moustiques selvatiques du groupe niveus sous-genre Finlaya. Ils pourraient être impliqués dans la transmission de virus, du singe à l'homme. Dans la Caraïbe, Ae. (Gymnometopa) mediovittatus, moustique à l'origine selvatique qui s'est adapté à l'environnement péridomestique en zone rurale, serait un vecteur potentiel du virus de la dengue. 28 6 - Cycle de transmission de la dengue Après un repas sanguin sur une personne virémique, le moustique n'est capable de transmettre le virus par nouvelle piqûre qu'après réplication du virus. La période d'incubation extrinsèque (période comprise entre l'ingestion du virus et son apparition dans les glandes salivaires) étant de 10 à 14 jours, et compte tenu de la durée de vie courte du moustique (longévité de 2 à 3 semaines), la période de transmission est limitée. Cette période d'incubation extrinsèque varie en fonction de la température, des conditions du régime alimentaire larvaire et de la dose de virus ingérée [51]. Après avoir pénétré au niveau des glandes salivaires, le virus infecte le tractus digestif du moustique et se réplique dans les cellules épithéliales de l'estomac. Celuici peut constituer une barrière digestive à la fois contre l'invasion et/ou la réplication, et contre la dissémination virale, et constituerait donc l'un des facteurs responsables de la variabilité intra-spécifique de la compétence vectorielle [52]. Des virémies très élevées sont ainsi nécessaires pour que le virus envahisse l'épithélium intestinal et infecte l'Aedes, ce qui contribue à sélectionner les souches virales à fortes virémies [53]. Le virus quitte alors l'estomac pour infecter les cellules du tissu adipeux, puis se réplique dans les cellules épithéliales des glandes salivaires. Après la période extrinsèque de multiplication virale, le moustique transmet le virus libéré dans la salive au cours d'un nouveau repas sanguin. La réplication du virus chez ses hôtes invertébrés est généralement asymptomatique. Le virus peut ainsi 29 persister tout au long de la vie du moustique vecteur, qui garde alors sa compétence vectorielle. Une persistance virale est également observée dans les lignées de cellules de moustiques infectées expérimentalement. À l'opposé, l'infection des cellules de primates ou de rongeurs par le virus de la dengue aboutit généralement à la mort cellulaire. Le vol du moustique femelle est discret et prudent, elle s'envole rapidement si elle est dérangée lors d'un repas sanguin. Ce comportement a une grande importance épidémiologique car si un moustique Aedes infecté est interrompu lors de son repas sanguin, il peut alors piquer une autre personne. Un moustique infecté peut donc à lui seul contaminer plusieurs personnes. Il existe chez ce moustique une transmission verticale. La femelle peut transmettre le virus par voie transovarienne à sa descendance et le futur imago sera alors vecteur de la dengue sans avoir jamais pris de repas sanguin sur une personne virémique [54-56]. De plus, il a été démontré que la transmission verticale du virus de la dengue pouvait persister sur plusieurs générations [57,58]. La compétence vectorielle de souches sauvages d' Aedes albopictus a été récemment comparée à celle de souches sauvages d'Aedes aegypti, provenant de la même région géographique. Des expériences d'infection orale ont permis de démontrer qu'Aedes albopictus présente une plus faible réceptivité orale au virus de la dengue. Ainsi, en Asie du Sud-Est où les deux vecteurs sont présents, la transmission de la dengue à l'état endémique et épidémique est essentiellement attribuée à Aedes Aegypti [59]. Cependant, dans la mesure où la transmission 30 verticale du virus de la dengue est plus efficace chez Aedes albopictus, celui-ci assurerait le maintien du virus durant les périodes inter-épidémiques [60]. En milieu rural (zone rurale, villages, îles peu peuplées), la transmission de la dengue se déroulerait selon un mode épidémique. En effet, la majorité de la population sensible présente dans la zone serait alors infectée et immunisée, et la diminution rapide du nombre d'individus sensibles mettrait fin rapidement à l'épidémie. Par contre, en zone urbaine, la transmission suivrait plutôt un mode endémo-épidémique, du fait de la population plus vaste rencontrée dans les grands centres urbains des zones tropicales et intertropicales du globe. Le virus est alors maintenu dans un cycle « Aedes aegypti-Homme-Aedes aegypti ». La transmission des virus de la dengue dépend principalement de deux paramètres, eux-mêmes dépendant de plusieurs facteurs. Tout d'abord, la capacité des moustiques femelles à transmettre les virus de la dengue, qui dépend principalement de la durée de l'amplification extrinsèque du virus chez le moustique, de la durée moyenne de vie des moustiques, de la densité des moustiques, du nombre de piqûres et du taux d'infection des moustiques. Ces paramètres varient en fonction des conditions environnementales et climatiques. Le deuxième paramètre est l'intensité de la transmission, qui dépend de l'immunité de la population humaine touchée [61]. Il existe, en plus de la transmission vectorielle déjà décrite, une transmission non vectorielle : transmission sanguine (transfusions, piqûres d'aiguilles), transmission 31 transmuqueuse (projection de sang infecté / yeux-nez-bouche) [62], transmission materno-foetale [63] ainsi qu'une transmission par le lait maternel [64]. 7 - Réservoirs et Hôtes Le moustique du genre Aedes joue à la fois le rôle de vecteur et de réservoir du virus car il n'est pas affecté par le virus et reste donc infecté toute sa vie. A la différence des autres arbovirus, le virus de la dengue a la particularité d'avoir un cycle strictement humain, sans réservoir animal intermédiaire. Cependant, en Afrique, en Asie et très probablement aux Philippines, il existe en plus de ce cycle urbain Homme-Aedes (Stegomyia), un cycle forestier (ou cycle selvatique) impliquant certaines espèces de singes. Les divergences génétiques et écologiques entre les souches forestières et les souches urbaines du virus sont très importantes et, bien que les souches forestières soient responsables de cas cliniques, les épidémies qu'elles peuvent entraîner sont de faible ampleur [65]. Figure 13. Cycle de transmission de la dengue [21] 32 Les réservoirs des virus de la dengue peuvent donc être les humains, les moustiques et les primates. On peut néanmoins considérer que le véritable réservoir naturel de la dengue ayant un réel impact épidémiologique est aujourd'hui constitué par l'Homme. En effet, même s'il existe un cycle selvatique de transmission où le singe devient réservoir du virus et l'homme un hôte accidentel, ce sont cependant les hommes qui, par leurs déplacements, assurent la dissémination des virus et la propagation des épidémies. C - Epidémiologie des virus de la dengue 1 - Epidémiologie actuelle L'incidence de la dengue a progressé de manière spectaculaire dans le monde entier au cours des dernières décennies. Désormais, la maladie est endémique dans plus de 100 pays en Afrique, dans les Amériques, en Méditerranée orientale, en Asie du Sud-Est et dans le Pacifique occidental, ces deux dernières régions étant les plus touchées. Selon les estimations de l'Organisation Mondiale de la Santé, environ 2,5 milliards d'individus sont exposés au risque d'infection par le virus de la dengue (soit 40% de la population mondiale). Chaque année dans le monde, il y aurait près de 50 millions d'infections, dont 500 000 formes sévères nécessitant une hospitalisation et responsables de 20 000 à 30 000 décès (principalement chez les enfants) [66]. 33 2 - Situation épidémiologique en Guadeloupe – Les phases du PSAGE L'augmentation régulière de l'incidence de la dengue en fait actuellement un problème de santé publique majeur dans les pays tropicaux. On distingue schématiquement [2] : o des zones endémiques où les quatre sérotypes circulent en permanence à bas bruit avec des périodes épidémiques où un sérotype prédomine, notamment en Amérique tropicale et dans la Caraïbe. o des zones épidémiques où un type donné de virus se dissémine de proche en proche, grâce aux déplacements des populations. D'une situation épidémique engendrée par la circulation d'un seul sérotype, le continent sud-américain évolue progressivement vers une situation hyper-endémique dans laquelle les différents sérotypes vont circuler en permanence. Dans les années à venir, on peut probablement prédire une situation similaire à celle de l'Asie du SudEst. La dengue hémorragique pourrait alors devenir l'une des principales causes d'hospitalisation des enfants en Amérique du Sud. Depuis l'arrivée des formes hémorragiques de la dengue dans la Caraïbe, la Guadeloupe a connu six épidémies importantes liées chacune à la circulation d'un sérotype prédominant, respectivement le DENV-2 en 1995, le DENV-3 en 2001, le DENV-4 en 2005, le DENV-2 en 2007, le DENV-1 en 2010 et enfin le DENV-4 en 2013, avec néanmoins une circulation concomitante d'un, voire de deux autres sérotypes. 34 Figure 14. Bilan des épidémies en Guadeloupe : nombre de cas suspects estimés de 2004 à 2010 [67] Le Programme de Surveillance, d'Alerte et de Gestion des Epidémies de dengue (PSAGE dengue) dans les Départements Français d'Amérique (DFA) a ainsi été adopté en septembre 2007 en Guadeloupe par les autorités publiques [2]. Ce programme est animé par deux instances : la « Cellule de gestion des phénomènes épidémiques » qui a un rôle décisionnel, et « le comité d'experts des maladies infectieuses et émergentes » qui a pour rôle d'apporter un fondement scientifique aux stratégies de lutte contre la dengue. Cette stratégie épidémiologique s'appuie essentiellement sur la déclaration obligatoire des maladies transmissibles, mais aussi sur le réseau des médecins sentinelles de Guadeloupe créé en 1983, dont l'objectif est de dépister les premiers cas survenant dans une zone et d'identifier le sérotype concerné. Selon le risque épidémique, une graduation des stratégies de surveillance et de contrôle de la dengue est appliquée. 35  La phase inter-épidémique de transmission sporadique La transmission durant les périodes d'endémie (ou inter épidémique) connaît un rythme annuel saisonnier, faible ou sporadique durant la saison sèche et plus élevé durant la saison des pluies. La transmission est alors sporadique, en général de février à juin-juillet, durant laquelle les cas de dengue restent isolés, sans propagation de la maladie (absence de foyers de transmission).  Les phases inter-épidémiques de foyers épidémiques et recrudescence saisonnière Elles correspondent à l'apparition de foyers épidémiques, en général pendant la saison cyclonique, entre juillet et janvier. Parfois isolés, parfois plus nombreux et étendus, ils apparaissent de manière concomitante et/ou successive, mais demeurent limités dans l'espace.  La phase de pré-alerte épidémique Durant la période inter épidémique ou de recrudescence saisonnière, une situation épidémiologique « anormale » peut être observée à partir de l'augmentation du nombre hebdomadaire de cas au-delà du seuil établi à partir des données de surveillance des années antérieures, témoignant d'une circulation accrue du virus. Cette augmentation est souvent associée à l'émergence d'un sérotype, non détecté depuis un certain nombre d'années et ayant été détecté l'année précédente de manière sporadique. Ces signaux indiquent un risque de développement d'une 36 épidémie du fait d'une faible immunisation de la population à ce sérotype « émergent » et doivent être considérés comme une « pré-alerte épidémique ».  Les phases épidémiques Certaines années, le niveau de recrudescence saisonnière habituellement observé est franchement dépassé du fait d'une généralisation rapide de la transmission de la maladie à de nombreuses communes, à certaines îles de l'archipel, voire à la totalité du territoire guadeloupéen, provoquant l'apparition d'une épidémie. Ces phénomènes épidémiques surviennent sur un rythme souvent pluri-annuel (2007, 2010 et 2013 pour les 3 dernières épidémies). La durée des deux dernières épidémies a été exceptionnellement longue (47 semaines pour l'épidémie de 2010, 41 semaines pour celle de 2013), alors que les durées des précédentes épidémies survenues en Guadeloupe étaient de 21 semaines en 2005 et de 17 semaines en 2007. Elles apparaissent souvent au début de la saison cyclonique (entre juin et septembre). Cependant, le début de l'épidémie de 2010 est survenu de manière très inhabituelle, au cours de la première semaine de décembre (semaine 2009-49, période sèche). Les habitudes de vie d'Aedes aegypti, très inféodés à l'habitat humain, permettent la prolifération de ce vecteur à minima, suffisante pour une transmission efficace du virus. Ces épidémies peuvent être à l'origine d'une augmentation du nombre de formes graves de la dengue nécessitant une adaptation des pratiques médicales et de la réponse hospitalière. La réapparition du sérotype 4 en Guadeloupe a provoqué la dernière épidémie, qui a débuté en mai 2013 (semaine 2013-22). Ce sérotype DENV-4 a très peu circulé en 37 Guadeloupe depuis l'épidémie de 2005, ce qui suggère qu'une part importante de la population était susceptible vis-à-vis de ce sérotype. Figure 15. Nombre hebdomadaire des cas probables et confirmés, Guadeloupe continentale et îles proches, juillet 2010 à mars 2014 [68] Au cours de cette dernière épidémie (de mai 2013 à mars 2014) ont été observés 15 270 cas cliniquement évocateurs, 3 870 cas probables ou confirmés, 233 cas hospitalisés dont 48 sévères et 9 décès. 3 - Facteurs influençant le risque épidémique Le cycle de transmission des virus de la dengue par les moustiques vecteurs Aedes reste étroitement dépendant des relations qui lient les virus, l'hôte invertébré (le vecteur) et l'hôte vertébré (l'homme). Chaque composante de ce système vectoriel est modelée par des facteurs extrinsèques ou facteurs environnementaux (qui influent sur les chances de contact entre le vecteur et l'homme), et par des facteurs 38 intrinsèques (par exemple, les mécanismes moléculaires et génétiques contrôlant la capacité des moustiques à transmettre un pathogène). Les conditions climatiques jouent un rôle majeur dans la dynamique de la transmission de la dengue, notamment la chaleur, facteur prépondérant qui diminue la période d'incubation extrinsèque chez le moustique, augmente la susceptibilité des moustiques adultes au virus, accélère le cycle gonotrophique, le développement vers l'âge adulte ainsi que la vitesse de réplication du virus [11,69]. Les précipitations importantes, quant à elles, jouent un rôle en favorisant la création des lieux de ponte. La sécheresse peut elle aussi constituer un facteur favorable à la transmission du virus, lié à certains comportements individuels (stockage de l'eau dans l'environnement de l'habitat, manque d'attention vis-à-vis des gestes de lutte antivectorielle). Une pluviométrie anormalement basse associée à des températures élevées peut ainsi accentuer la transmission de la dengue, comme cela a été le cas en Guadeloupe lors de l'épidémie de 2010 qui débuta la première semaine de décembre. Les conditions d'habitat favorisant les contacts entre l'homme et le vecteur constituent également un facteur influençant le risque épidémique. La présence de certaines commodités comme l'accès à l'eau potable ou la présence d'une machine à laver, semble inversement associée au risque de transmission. Un autre facteur majeur d'apparition des épidémies de dengue est le taux d'immunité de la population contre le(s) virus circulant(s), lorsqu'un sérotype en particulier émerge dans une région après plusieurs années de non-circulation. Inversement 39 lorsque le taux d'immunité devient suffisamment élevé, il contribue largement à l'extinction de l'épidémie. D - Immunité et immuno-pathologie 1 - Immunité protectrice contre la dengue La réponse immunitaire contre la dengue, médiée par des anticorps, offre une immunité durable limitée au seul sérotype infectant. Il s'agit donc d'une protection à long terme homotypique. Il existe cependant une immunité croisée (immunité hétérotypique) de courte durée entre les 4 sérotypes, due à la présence d'anticorps à réaction croisée qui décroissent rapidement après l'infection [21,70,71]. Après une épidémie de dengue, la population est ainsi globalement immunisée mais seulement pour une durée variable probable de 2 à 4 ans. En effet, depuis 2001, les épidémies de sérotypes différents se succédèrent en 2005, 2007, 2010 puis 2013, laissant un intervalle de 2 à 4 ans entre chacune d'elles. L'anticorps neutralisant le plus important est celui dirigé contre le domaine III de la protéine d'enveloppe E. Sont également impliqués les domaines I et II de la protéine E. Une faible activité neutralisante a été observée avec les anticorps monoclonaux dirigés contre la protéine M. La protéine NS1 induit également des anticorps chez les sujets infectés. Des anticorps anti-NS3 ont été observés chez les sujets infectés, bien que cette protéine ait des fonctions intracellulaires associées à sa localisation près des 40 membranes du RE. La protéine NS5 est la réplicase virale et peu d'anticorps apparaissent contre cette protéine chez les sujets infectés [72]. Ces anticorps neutralisants bloquent la fusion et/ou l'attachement du virus aux cellules cibles, ou forment des complexes avec le virus, ensuite éliminés par les cellules phagocytaires [73]. Le transfert passif d'anticorps neutralisants de la mère à l'enfant contribue à une protection materno-foetale qui disparait au bout de quelques mois. 2 - Dengue hémorragique : les théories pathogéniques a- Théorie immuno-pathologique de Scott B. Halstead Les jeunes enfants (mais aussi de plus en plus d'adolescents) vivant dans des régions hyper-endémiques et présentant une réaction immune de type secondaire (seconde infection par le virus de la dengue, mais de sérotype différent de celui de la primo-infection), ont de façon significative un risque plus élevé de développer une dengue hémorragique ou dengue avec syndrome de choc (DH/DSC) que ceux qui ont une réaction de type primaire (premier contact avec un sérotype du virus de la dengue). Toutefois, ce n'est que 3% des patients avec une réaction secondaire qui font une DH/DSC, contre moins de 0,2% de ceux qui ont une réaction primaire. Les très jeunes enfants, âgés de 6 à 12 mois, atteints de DH/DSC, font en fait une primo-infection, mais celle-ci se déroule en présence d'anticorps maternels antidengue qui leur ont été transmis par voie placentaire [74]. 41 Dans le cas particulier de la lignée monocyte-macrophage, en primo-infection, le virus entre dans la cellule selon le modèle d'endocytose dépendant des récepteurs pour le virus [75]. Par contre, dans le cas d'une infection secondaire, un autre mécanisme viendrait fortement potentialiser l'entrée du virus dans les cellules de cette lignée. Ce phénomène, appelé ADE (Antibody Dependent Enhancement), serait lié à la présence d'anticorps hétérologues induits par la primo-infection, et présents à des taux non neutralisants au cours de l'infection secondaire [76]. Ces anticorps, appelés anticorps facilitants, favoriseraient l'incorporation du virus dans ces cellules via un mécanisme d'endocytose dépendant de récepteurs pour leurs domaines Fc (figure 16). Ils augmenteraient ainsi le nombre de cellules infectées dont la lyse aboutirait à la production de médiateurs vasoactifs et procoagulants [77]. Figure 16. Schéma d'entrée du virus de la dengue dans les cellules de la lignée monocytes/macrophages par un processus anticorps-médié faisant intervenir les récepteurs Fcγ [78] Par ailleurs, des études plus récentes ont montré qu'il existait une expansion et une activation des lymphocytes T CD4 et CD8 produits par les antigènes viraux du 42 premier sérotype en cause. Cette activation provoquerait une destruction accrue des monocytes infectés par un mécanisme à médiation cellulaire et par l'intermédiaire d'une cascade cytokinique (interféron gamma, interleukine 2) qui régulerait positivement l'expression des récepteurs Fcγ à la surface des monocytes. Ce phénomène entraînerait un retard à la clairance virale par les cellules phagocytaires. Figure 17. Modèle de la facilitation immunologique [79] b- Théorie de l'augmentation de la virulence de Léon Rosen La théorie de l'augmentation de la virulence des souches virales au cours des épidémies et de leur extension vers de nouvelles zones géographiques, a été longtemps injustement marginalisée, mais est actuellement sérieusement confortée par l'étude moléculaire des différentes souches de virus de la dengue. Prenons comme exemple le virus DENV-2 qui a été aussi bien responsable d'épidémies répétées de dengue classique que de l'apparition de dengue hémorragique (DH) à Cuba, au Venezuela et au Brésil dans les années 1980-1990. 43 Grâce au séquençage des gènes des souches de virus DENV-2, deux variants ont pu être distingués [80] : la souche de Porto-Rico introduite dans la région en 1969, installée localement sur le mode endémo-épidémique, et engendrant des dengues « classiques », ressemble au génotype des souches isolées à la même époque en Polynésie, où la plupart des cas restaient encore bénins. Le deuxième variant, la souche de la Jamaïque isolée en 1981, et provoquant des épidémies de DH au Venezuela (1989) et au Brésil (1990), présente des homologies de séquence avec des souches isolées dans le Sud-Est asiatique (Vietnam, Thaïlande). C'est donc plus un facteur inter-génotypique qu'inter-sérotypique qui serait impliqué dans la virulence virale. L'augmentation progressive de l'incidence des formes hémorragiques au fur et à mesure de la progression de ces épidémies pourrait s'expliquer par une exacerbation de la virulence de la souche virale par des passages rapides chez l'homme. Cette virulence se définit par rapport à un hôte ou à un « terrain » que le virus agresse. Des facteurs de risque individuels, liés à l'hôte infecté, tels que l'anémie drépanocytaire, le diabète et l'asthme bronchique, ont été mis en évidence dans la DH/DSC (Dengue hémorragique/Dengue avec syndrome de choc) [81]. 44 E - Evolution clinique de la dengue et biologie non spécifique 1 – Modalités diagnostiques et interprétation des données biologiques En cas de suspicion de dengue, un prélèvement sanguin doit être effectué le plus tôt possible pour augmenter les chances de prélèvement en phase virémique et doit comporter au minimum un tube à NFS (numération formule sanguine de départ), un tube sec pour les examens biochimiques de base (CRP, enzymes hépatiques, ionogramme, urée et créatinine) et un tube sec pour les méthodes diagnostiques spécifiques à la dengue. Une partie du sérum est conservée à -80°C en vue d'un diagnostic génomique si nécessaire. Les prélèvements devront être accompagnés d'une fiche de renseignements complétée avec la date de début des signes cliniques, la date du prélèvement, les signes cliniques, les pays visités et les vaccinations (fièvre jaune, encéphalite japonaise) qui pourraient induire des réactions sérologiques croisées (figure 18 en annexe). Le principal examen non spécifique d'orientation et de suivi est la NFS. Elle pourra mettre en évidence une association neutropénie - thrombopénie (< 100 G/L) à partir du 3ème jour après le début des signes cliniques, très évocatrice en période épidémique. La thrombopénie est peu corrélée à la gravité. En effet, elle peut être profonde (< 20 G/L), ou discrète, y compris dans les formes graves. 45 La lymphopénie quasiment constante et isolée lors des deux premiers jours, avec leucocytes totaux conservés, n'est quasiment jamais observée car les patients ne sont généralement pas pris en charge aussi tôt dans la maladie. D'après l'étude réalisée par l'équipe de l'Institut Malardé après l'épidémie de dengue de sérotype DENV-2 en Polynésie française, ce n'est que vers les 6ème-7ème jour que les quatre cytopénies sont retrouvées, de façon cumulée, chez plus d'un malade sur deux (étude réalisée sur 189 patients confirmés, figure 19) [82]. Figure 19. Fréquence des perturbations de l'hémogramme au cours de la dengue en fonction du jour de maladie [82] D'autres paramètres biologiques peuvent être prédictifs d'une forme sévère de dengue : - Une augmentation de l'hématocrite, d'au moins 20%, conséquence de l'hémoconcentration secondaire à la fuite plasmatique due à l'augmentation de la perméabilité vasculaire. Elle survient principalement entre le 3 ème et le 46 8ème jour. Cependant, elle peut être réduite par un remplissage vasculaire précoce par voie intraveineuse. Une mesure fréquente de l'hématocrite est donc essentielle car elle signale la nécessité éventuelle d'ajuster ce remplissage. - Une hypoprotidémie, hyponatrémie, hypoalbuminémie et une baisse des immunoglobulines, secondaire à la fuite plasmatique. - Une atteinte de l'hémostase primaire : thrombopénie < 50 G/L et allongement du temps de saignement (ou test équivalent : test du Tourniquet) et du temps de céphaline activé. - Des perturbations du bilan hépatique avec cytolyse hépatique : augmentation des transaminases, à plus de dix fois la normale dans 10% des cas, avec un pic vers le 7-8ème jour (figure 20). La normalisation est attendue en 3 semaines. Dans certains cas, une hépatite fulminante peut survenir. Dans une étude thaïlandaise, l'augmentation forte et précoce (> 2,5 fois la normale) des GOT/ASAT (Glutamate oxaloacétate transaminase / Aspartate aminotransférase) est citée comme un bon signe prédictif de dengue hémorragique [83]. 47 Figure 20. Augmentation des transaminases au cours de la dengue (% d'augmentation par rapport à la valeur normale supérieure) [82] Certaines perturbations sont particulièrement informatives en zone d'endémie ou épidémique. L'association thrombopénie/cytolyse hépatique hors zone d'endémie de dengue notamment, pourra être évocatrice d'autres pathologies infectieuses bactériennes (fièvre Q) ou virales (hépatites). En milieu tropical, elle est compatible avec une leptospirose, un des principaux diagnostics différentiels de la dengue. D'après les conclusions d'une thèse d'exercice réalisée en 1999, portant sur les paramètres biologiques permettant une discrimination efficace, la CRP semble avoir ici un intérêt certain. Il ressort en effet que la CRP est supérieure à 50 mg/L dans 48 85% des leptospiroses, et inférieure à cette valeur dans 89% des cas confirmés de dengue [84]. D'autres facteurs prédictifs de formes sévères ont été décrits, mais ne figurent pas encore parmi les analyses de routine des laboratoires. Il s'agit essentiellement de molécules mobilisées lors de la réponse immune cellulaire, telles que les cytokines, notamment le TGFβ-1 [85], ou les molécules d'adhésion comme le sVCAM-1 [86]. 2 - Evolution clinique La classification de l'OMS, datant de 1974 et régulièrement mise à jour jusqu'en 1997, distinguait la « fièvre dengue classique » (DF) et la DH/DSC et reste utile pour le classement a posteriori des formes cliniques dans les études épidémiologiques et physiopathologiques, mais ne prenait pas en compte les défaillances aiguës d'organes, qui peuvent survenir au cours de l'évolution (hépatite, myocardite, encéphalite). De nouvelles recommandations ont été éditées par l'OMS en 2009 [87]. Elles distinguent trois phases : la phase fébrile aiguë, suivie d'une phase critique puis d'une phase de convalescence (figure 21). La dengue maladie correspond cependant le plus souvent à une infection asymptomatique voire à une infection se limitant à la phase fébrile. 49 Figure 21. Evolution de la dengue maladie en trois phases selon le jour de la maladie (paramètres biologiques, cliniques et virologiques) [88] a- La phase fébrile Après une période d'incubation de 5 à 7 jours (extrêmes de 3 à 15 jours), la phase fébrile aiguë débute typiquement par une fièvre supérieure à 38,5°C qui dure 3 à 5 jours en moyenne (extrêmes de 2 à 7 jours), des céphalées et des myalgies. Pendant les trois premiers jours de fièvre, rien ne permet de distinguer la dengue des autres fièvres aiguës d'origine virale. Un rash cutané caractéristique peut survenir après 3 ou 4 jours de fièvre (figure 22). Des signes accompagnateurs, tels des rougeurs du visage, un érythème, des douleurs corporelles généralisées sont souvent observés. La plupart des patients 50 présentent également une asthénie intense les confinant au lit et des signes digestifs avec inappétence, nausées et quelques vomissements. Figure 22. Eruption cutanée caractéristique touchant le dos [89] Des manifestations hémorragiques peuvent être retrouvées, à type de pétéchies, de saignements au niveau des muqueuses, d'ecchymoses, de saignements gastrointestinaux ou vaginaux massifs. Ces signes cliniques sont associés à une diminution progressive de la numération leucocytaire totale, prédominante sur les neutrophiles. Cependant, plus de 95% des patients ne présenteront aucun signe de gravité et guériront sans complication en moins de 7 jours. Dans la majorité des cas, seule la phase fébrile est donc observée. b- La phase critique C'est durant cette phase que l'apparition de signes d'alerte doit être scrupuleusement surveillée, notamment chez les patients à risque. En effet, du fait de la nature dynamique de la maladie, sa gravité n'apparaît habituellement qu'autour 51 de la défervescence, c'est-à-dire pendant la transition entre la phase fébrile et la phase afébrile, qui coïncide souvent avec l'entrée dans la phase critique. Plusieurs signes d'alerte peuvent être distingués: fièvre > 39°C après le 5ème jour et ceci après une brève amélioration clinique, douleurs abdominales ou thoraciques crescendo, vomissements persistants, malaise pré-syncopal ou syncopal avec ou sans hypotension orthostatique, hémorragie muqueuse, toux significative, diarrhée persistante, agitation ou somnolence. Des épanchements intra-abdominaux pourront être visibles à l'échographie. Le syndrome de fuite plasmatique correspond à la phase critique et survient chez environ 2 à 4% des patients entre le 4 ème et le 6ème jour après le début des signes cliniques (extrêmes de 3 à 8 jours) lors de la défervescence thermique. Les critères définissant cette fuite sont un épanchement pleural ou péritonéal (clinique, radiologique ou échographique), un oedème de la vésicule biliaire à l'échographie ou une élévation de l'hématocrite associée à une baisse des plaquettes à la fin de la phase fébrile [90]. La période de fuite plasmatique est brève, entre 24 et 48 heures, mais elle peut être brutale et intense, aboutissant au choc. Les cas de dengue présentant des signes d'alerte se rétablissent habituellement avec une réhydratation par voie intraveineuse. Pour certains apparaissent des signes de gravité immédiat : troubles de la conscience, convulsions, hypotension artérielle avec ou sans signes de choc, hémorragie viscérale, dyspnée sine materiae, insuffisance respiratoire aigüe avec ou sans râles crépitants, épanchements séreux abondants (plèvre, péricarde, ascite). Dans les cas sévères, on peut également trouver des cas d'encéphalites authentiques liés à la dengue. 52 Les formes neurologiques ont été particulièrement fréquentes lors de l'épidémie de 2013 en Guadeloupe (Dr HERRMANN, communication personnelle). L'évolution vers le syndrome de défaillance polyviscérale peut également aboutir au décès. c- La phase de convalescence La phase de convalescence correspond à une réabsorption progressive des liquides présents dans le milieu extravasculaire dans les 48 à 72 heures qui suivent le début de la phase critique. On observe une amélioration de l'état général avec une reprise de l'appétit, une régression des symptômes gastro-intestinaux, et une apyrexie de plus de 2 jours. Une hypervolémie et un oedème aigu pulmonaire peuvent cependant se manifester si une quantité excessive de liquide a été administrée par voie intraveineuse, sans rééquilibration hydroélectrolytique (hyponatrémie). d- Classification des cas de dengue par gravité L'utilisation d'une série de paramètres cliniques et/ou biologiques dans la classification révisée des cas de dengue par niveau de gravité a permis de faire une sélection plus claire entre les patients atteints d'une dengue sévère d'une part, et d'une forme commune d'autre part. Un cas de dengue sévère est défini comme ayant une ou plusieurs des manifestations ci-dessous (figure 23) : 53 -Une fuite plasmatique aboutissant à un état de choc et/ou une accumulation liquidienne. -Une hémorragie avec perte sanguine ou conséquence viscérale, excluant la gingivorragie ou l'épistaxis, -Une atteinte organique symptomatique (hépatite, signes méningo-encéphalitiques, dysfonction cardiaque, insuffisance rénale) Figure 23. Critères définissant la dengue avec ou sans signes d'alerte et la dengue sévère [91] Le test du tourniquet, énoncé dans la figure 23, est un test de fragilité capillaire causée par une anomalie de la paroi capillaire ou une thrombocytopénie. Il consiste à appliquer un brassard de tensiomètre pendant cinq minutes sur le bras d'un 54 individu et à le gonfler à une pression située à mi-chemin entre les pressions diastolique et systolique. Les pétéchies résultantes pourront être dénombrées et le résultat sera rendu dans une plage oscillant entre négatif (pas de pétéchies) et positif +4 (pétéchies confluentes). 3 - Patients à risque Les patients à risque justifient au minimum d'une surveillance ambulatoire en général en milieu spécialisé [90] : -Enfants < 2 ans ou patients âgés (au-delà de 80 ans), -Femmes enceintes, surtout au 3ème trimestre et proches du terme. En effet, en cas d'infection maternelle par la dengue au cours de la grossesse, le risque de prématurité et de mort foetale in utero est réel. En cas d'infection proche du terme, il existe un risque hémorragique tant pour la mère que pour le nouveau-né. -Drépanocytaire de type SS, SC ou S bêta thalassémiques, -Patients avec des maladies chroniques et/ou des traitements associés (insuline, anticoagulants, anti agrégants-plaquettaires) : conséquences à évaluer au cas par cas, -Patients immunodéprimés ou sous chimiothérapie, -Patients souffrant d'hémophilie ou de thrombocytopathie, -Patients avec un surdosage de paracétamol ou une prise d'aspirine ou d'antiinflammatoires non stéroïdiens (AINS), 55 -Patients ayant eu récemment une chirurgie ou un traumatisme (crânien surtout) ou un accident vasculaire cérébral. F - Traitements et prévention Il n'existe pas de traitement antiviral spécifique de la dengue. Le traitement est avant tout symptomatique, avec recours à la réanimation dans les cas graves. Pour les patients vus pendant la phase fébrile aiguë, l'essentiel est de prévenir la déshydratation et la perte en sel. En effet, une réhydratation conduite uniquement avec de l'eau pure chez un patient par ailleurs anorexique entraînera un déséquilibre hydro-électrolytique et une hyponatrémie, responsables d'une hypotension orthostatique symptomatique survenant vers le 4ème jour de la maladie. La prévention de cette complication repose sur des mesures diététiques et/ou la prescription de solutés de réhydratation [90]. Les douleurs et la fièvre seront traitées par du paracétamol en respectant l'intervalle minimal de 6 heures entre les prises de 15 mg/Kg et sans dépasser 60 mg/Kg/jour chez l'enfant et 3 g/jour chez l'adulte. L'aspirine, l'ibuprofène, et autres AINS sont strictement interdits du fait du risque hémorragique. Par ailleurs, l'aspirine est contre-indiquée car peut potentiellement entraîner un syndrome de Reye lors d'infections virales aiguës chez l'enfant. Les formes hémorragiques et syndrome de choc relèvent pour leur part d'un traitement symptomatique en Unité de Soins Intensifs (USI). Celui-ci consiste en un remplissage vasculaire par des solutions cristalloïdes ou colloïdes visant le maintien 56 ou la correction de l'équilibre hémodynamique. Ce remplissage doit être précoce et anticipé : la fuite capillaire et le choc une fois amorcés ont en effet tendance à s'aggraver de façon extrêmement subite et parfois incontrôlable [92]. Quant à la prévention, aucun vaccin n'est encore commercialisé. Depuis plusieurs années, le laboratoire Sanofi Pasteur élabore un candidat vaccin tétravalent vivant atténué recombinant d'un type particulier (ChimeriVaxTM CYD1-4). Il s'agit en effet d'un vaccin chimère basé sur la machinerie réplicative du vaccin fièvre jaune 17D et exprimant les gènes d'enveloppe des 4 sérotypes du virus de la dengue [93]. Les premiers essais cliniques de phase I/II conduits sur plus de 1000 volontaires non immuns ou pré-immuns contre les Flavivirus ont permis de démontrer l'innocuité et l'immunogénicité du vaccin. Une étude de phase IIb menée sur 4002 enfants de 4 à 11 ans en Thaïlande a montré que l'efficacité du vaccin était de 61,2% contre le DENV-1, de 81,9% contre le DENV-3 et de 90% contre le DENV-4. Un des types du virus de la dengue (DENV2) a échappé au vaccin. Par la suite, de larges essais cliniques de phase III portant sur plus de 30 000 enfants et adolescents ont été débutés en Amérique latine et en Asie. Les résultats de l'étude menée en Amérique latine, publiés dans The New England Journal of Medicine en janvier 2015, montrent une efficacité globale de 60,8% contre toutes les formes de la maladie chez les enfants et adolescents âgés de 9 à 16 ans ayant reçu trois doses du vaccin. Les analyses montrent également une protection contre la dengue sévère dans 95,5% des cas ainsi qu'une réduction de 80,3% du risque 57 d'hospitalisation pendant la durée de l'étude [94]. Les résultats de cette étude d'efficacité de phase III en Amérique latine concordent avec les résultats déjà observés au cours des 25 mois de surveillance active de la première étude pivot d'efficacité de phase III conduite en Asie sur plus de 10 000 volontaires, montrant ainsi la cohérence des résultats dans le monde. Cette étude pivot, qui consistait à comparer l'incidence (nombre de nouveaux cas) de la dengue entre un groupe de personnes vaccinées contre cette maladie et un groupe contrôle, c'est-à-dire composé de personnes non vaccinées, avait montré une réduction de 56% des cas de dengue chez les personnes vaccinées. La protection contre les formes suffisamment sévères pour nécessiter une hospitalisation et contre les formes hémorragiques, potentiellement mortelles, était apparue plus élevée encore : respectivement de 67 % et 88,5 %. [95]. La protection vaccinale, toujours variable entre les différents sérotypes, était de plus de 75% pour les DENV-3 et 4, de 50% pour le DENV-1, et elle n'était que de 35% pour le DENV-2. Le suivi des participants à l'essai se poursuivra jusqu'en 2017 [95]. L'implication du système immunitaire dans l'accroissement du degré de gravité de la maladie et dans les dommages vasculaires a soulevé des inquiétudes à propos de toutes les stratégies de conception vaccinale proposées jusqu'à présent. En effet, l'inconvénient propre à tous les candidats vaccins à virus vivants atténués en cours d'essais cliniques est qu'une seule vaccination n'est pas suffisante pour induire une protection contre les 4 sérotypes, probablement en raison d'interférences virales entre les différentes souches du vaccin elle-même. En outre, les injections de rappel ne sont pas efficaces lorsqu'elles sont administrées à moins de 6 mois d'intervalle. 58 Par conséquent, les vaccins vivants atténués exigent 3 injections sur une période minimale de 12 mois, pour induire des réponses équilibrées d'anticorps contre les 4 sérotypes du virus de la dengue. Il y a un risque qu'une réponse incomplète aux vaccinations initiales puisse exacerber l'infection, selon l'hypothèse des anticorps facilitants, si celle-ci survient entre la première et la dernière injection [96]. Par ailleurs, bien que le virus provoque une virémie post-vaccinale très brève chez l'homme, incapable d'infecter efficacement les moustiques, la possibilité d'apparition de recombinants virulents entre virus vaccinaux et sauvages circulants est à envisager. A l'heure actuelle, la prévention se résume donc à la lutte anti-vectorielle (utilisation de moustiquaires imprégnées, élimination des gîtes larvaires). Les seuls insecticides actuellement autorisés dans la communauté européenne pour une utilisation en pulvérisation spatiale appartiennent exclusivement aux familles des pyréthrinoïdes de synthèse ou des pyréthrines naturelles (Directive 98/8/CE). Le malathion (famille des organophosphorés), est interdit d'utilisation car jugé toxique. De plus, en Guadeloupe et Martinique, les épandages d'insecticides adulticides sont limités du fait de la résistance des Aedes aux molécules utilisables, comme la deltaméthrine [97]. Ils sont utilisés uniquement à visé « politique » afin de rassurer la population sur l'implication de l'ARS dans la lutte anti-moustiques. Une étude a montré que la cyperméthrine et la cyflutrine restaient des insecticides adulticides efficaces contre les espèces Aedes [98]. 59 II – PROBLEMATIQUE DIAGNOSTIQUE DE LA DENGUE EN CONTEXTE EPIDEMIQUE A - Diagnostic différentiel Au cours des épidémies, le risque est d'attribuer toute fièvre aiguë à la dengue et de méconnaître d'autres infections nécessitant un traitement spécifique urgent. A l'inverse, devant les premiers cas, le risque est de ne pas évoquer le diagnostic, et de ne pas prendre en charge correctement un patient présentant des signes évocateurs de dengue sévère. Tableau 2. Diagnostic différentiel de la dengue [88] 60 Les erreurs de diagnostic constituent un facteur de risque majeur au cours des épidémies (y compris de décès), notamment vis-à-vis des septicémies à pyogène avec choc septique, paludisme, leptospirose, méningites bactériennes, pneumonies bactériennes à pneumocoque, péritonites, hémorragies méningées, infarctus du myocarde, Kawasaki chez l'enfant (tableau 2). L'émergence en fin d'année 2013 d'une épidémie de Chikungunya aux Antilles, arbovirose de la famille des Togaviridae et du genre alphavirus, a rendu le diagnostic différentiel plus complexe dans la région. Les principaux symptômes étant similaires, les deux diagnostics étaient investigués en parallèle. Quelques différences entre ces arboviroses sont à connaître. Des co-infections sont observées [99]. Tableau 3. Comparaison des manifestations cliniques de la dengue et du chikungunya [100,101] CHIKUNGUNYA DENGUE Habituel Habituel J1-J4 J5-J7 Peu fréquent Habituel Myalgies Habituel Habituel Arthralgies distales Constant Peu fréquent Arthrite Habituel Jamais Ténosynovites Habituel Jamais Hypotension Peu fréquent Habituel, J5-J7 Saignements mineurs Exceptionnel Habituel, J5-J7 Thrombopénie Précoce et modérée Retardée et fréquente Lymphopénie Habituel Habituel Arthralgies chroniques Asthénie, quelques Fièvre Eruption Douleurs rétro-orbitaires Evolution semaines 61 B - Diagnostic biologique spécifique Du fait de son large éventail de manifestations cliniques au pronostic parfois sévère et de l'absence de traitement antiviral efficace ou de vaccin commercialisé, la dengue nécessite un diagnostic rapide et performant qui devrait pouvoir optimiser la prise en charge des patients et la surveillance épidémiologique. La figure 24 illustre la cinétique des marqueurs biologiques de la dengue ainsi que les méthodes diagnostiques utilisables en fonction de la date d'apparition des signes cliniques. A ces méthodes diagnostiques doivent être étroitement associées les manifestations biologiques et cliniques. Figure 24. Diagnostic biologique de la dengue [102] 62 Le diagnostic direct s'effectue par détection du génome viral par RT-PCR (Reverse Transcriptase – Polymerase Chain Reaction) et/ou détection de l'antigène non structural NS1 (AgNS1), et exceptionnellement par isolement et caractérisation du virus. Le diagnostic indirect est fait par détection des IgM et des IgG spécifiques. 1 - Définitions des cas de dengue Les définitions des cas de dengue ont été reprécisées par les membres des comités d'experts de Guadeloupe, Martinique et Guyane [90]. Un cas de dengue est biologiquement confirmé en cas de détection du génome viral (RT-PCR) et/ou détection d'antigène viral (NS1) et/ou séroconversion sur deux prélèvements espacés d'une semaine : apparition ou augmentation significative (au jugement du biologiste) des IgM et/ou IgG spécifiques. Un cas de dengue est défini comme probable en présence spécifique d'IgM à un niveau significatif sur un seul prélèvement. Un cas de dengue est défini comme suspect ou cliniquement évocateur en présence d'un syndrome cliniquement évocateur de dengue où seuls les IgG sont présents lors d'un prélèvement suffisamment tardif. 2 - Diagnostic direct ou diagnostic précoce de la dengue Au début des signes cliniques (J0), le virus de la dengue est largement présent au sein de l'organisme : sang, cellules mononucléées du sang périphérique, tissus 63 La virémie dure en moyenne six jours, elle commencerait 2 jours avant le début des signes cliniques, pour se terminer 5 à 7 jours après. C'est durant cette courte période fébrile qu'existe le risque de dissémination du virus vers le vecteur. Les tests biologiques utilisés à cette phase précoce conduisent au diagnostic de dengue récente confirmée. a- Isolement du virus sur culture cellulaire L'isolement viral est la technique de référence pour poser le diagnostic de la dengue. Le prélèvement, réalisé à partir d'un sérum, mais aussi à partir de leucocytes ou de broyats de tissus provenant de biopsies post-mortem (foie, rate), doit être réalisé dans les 5 premiers jours après le début des signes cliniques (jusqu'à J7, plus longtemps sur sang capillaire), et doit être stocké immédiatement à +4/+8°C, ou à 80°C pour les longues durées (virus sensible à la chaleur) [103]. La technique la plus sensible consiste en l'inoculation intracérébrale de souriceaux ou l'inoculation sur larves ou sur moustiques adultes. Le virus peut également être isolé in vitro sur lignées cellulaires de moustiques d'Aedes pseudoscutellaris (AP61), d'Aedes albopictus (C6/36) ou plus rarement de Toxorhynchites ambionensis (Tra284) [104], mais aussi sur lignées de cellules de mammifères (Vero, LLC-MK2, BHK21). Un effet cytopathique (ECP) apparaît en 7 à 15 jours, puis une confirmation et un sérotypage sont réalisés par une technique d'immunofluorescence indirecte avec des 64 anticorps monoclonaux spécifiques d'un sérotype [105]. Le sérotype peut également être identifié par RT-PCR sur les surnageants de culture [106]. Figure 25. Immunofluorescence indirecte avec des anticorps monoclonaux identifiant le sérotype 1 du virus de la dengue dans une culture tissulaire de cellules Vero [107] Ces techniques ne sont réalisées que dans des centres de référence équipés de laboratoires de confinement de niveau 3 (P3). De plus, bien que toujours considérée comme la technique de référence par l'OMS, cette méthode lourde techniquement ne permet de poser le diagnostic que dans un délai supérieur à 10 jours et n'est donc pas adaptée aux réponses en situation d'urgence. Pour ces raisons, cette technique n'est plus utilisée en diagnostic de routine. b- Détection du génome viral par biologie moléculaire Les méthodes moléculaires basées sur la RT-PCR ont contribué à améliorer le diagnostic de la dengue, et en sont devenues les principales techniques diagnostiques, permettant à la fois de détecter le virus de la dengue et d'identifier le type viral mis en cause. 65 Appliquée au diagnostic de la dengue dès le début des années 1990, la RT-PCR est une méthode qui permet un diagnostic précoce, valable pendant toute la phase de virémie. Cependant, il s'agit d'une technique coûteuse, longue et réalisable uniquement dans les laboratoires spécialisés équipés. Il existe plusieurs types de RT-PCR conventionnelles, détectant et typant les virus de la dengue. Elles diffèrent par leur principe (RT-PCR classique, nichée ou seminichée), par la région du gène amplifié et par les méthodes de détection des produits de RT-PCR et de différenciation génotypique des quatre sérotypes (gel d'agarose, hybridation) De nombreux protocoles ont été développés, mais celui mis au point par Lanciotti et son équipe en 1992 reste le plus largement utilisé dans les laboratoires hospitaliers et de référence, avec plus ou moins d'adaptations (RT-PCR couplée à une PCR semi-nichée) pour augmenter la sensibilité de détection et pour typer le virus [108]. Cette PCR peut être effectuée à partir de sérum, de plasma, de moustiques ou de cellules infectées, ou encore de biopsies. Toutefois, cette technique a été optimisée pour les analyses faites sur sérum. Après extraction des ARN viraux totaux, une première étape d'amplification par RTPCR avec 2 amorces consensus D1 et D2 (couple d'oligonucléotides spécifiques des régions conservées de la capside et de la région prM) permet une amplification d'un fragment de 511 paires de base, commun aux 4 sérotypes viraux de la dengue. 66 Une seconde étape d'amplification par PCR dite nichée (semi-nested PCR) est alors réalisée. Il s'agit d'une variante au cours de laquelle le produit issu de la première PCR est de nouveau amplifié à l'aide de l'amorce D1 combinée avec des amorces spécifiques de chaque sérotype (TS1, TS2, TS3, et TS4) qui s'hybride à une partie interne (nichée) de la séquence amplifiée. Ainsi, grâce à l'amorce sens pan-DENV utilisée pour la première étape d'amplification, et à l'utilisation de 4 oligonucléotides, chacun spécifique d'un sérotype (amorces anti-sens), cette deuxième étape permet d'obtenir des produits de PCR de taille variable en fonction du sérotype. Figure 26. Électrophorèse des produits de RT-PCR pour l'identification des sérotypes de virus de la dengue [109] Ce diagnostic biologique offre l'avantage de pouvoir détecter le génome viral indépendamment de l'état structural du virus dans l'échantillon biologique initial, qu'il soit partiellement dégradé, non viable ou encore complexé à des anticorps. Il augmente également la sensibilité de détection par rapport à la simple RT-PCR. 67 Toutefois, ces techniques demeurent longues (30 heures de la phase d'extraction au typage final) et sont soumises au risque de contamination inter-échantillons, surtout en période épidémique. Pour limiter ce risque de contamination, une PCR nichée réalisée en tube unique, adaptée de la méthode initiale, a été mise en place. Elle permet de réaliser le diagnostic de la dengue et le typage en même temps, sans ouverture des tubes entre les deux étapes. La sensibilité varie de 1 à 50 plaque forming unit (PFU)/mL selon le sérotype, ce qui est équivalent à la technique initiale en deux temps. Pour permettre une détection plus rapide du virus de la dengue, des techniques de PCR RT (PCR-real time) ou PCR quantitative en temps réelle ont été développées puis simplifiées afin de n'avoir plus qu'une seule étape et un seul tube par échantillon (RT-PCR multiplex one tube-one step, c'est-à-dire avec toutes les amorces spécifiques de types et les sondes dans le même tube), permettant la détection des produits de PCR en fluorimétrie par une analyse cinétique. Deux technologies ont été principalement étudiées : la technologie TaqMan et celle utilisant le SybrGreen [102]. La technologie TaqMan consiste en des sondes marquées à l'extrémité 5' par un fluorochrome émetteur (reporter) et à l'extrémité 3' par un fluorochrome suppresseur (quencher) qui inhibe l'émission du reporter lorsqu'ils sont à proximité. Au cours de la PCR, si la sonde est hybridée sur sa cible, elle est hydrolysée par l'ADN polymérase. Le reporter ainsi séparé du quencher, émet un signal proportionnel au nombre de sondes hydrolysées, mesurable au moment de l'élongation. 68 Le SybrGreen est un agent intercalant, peu fluorescent à l'état libre, qui augmente en fluorescence lorsqu'il est lié à l'ADN double brin, sans inhiber la réaction de PCR : l'augmentation de fluorescence mesurée pendant l'étape de polymérisation est proportionnelle au nombre de produits amplifiés formés (amplicons). La détection des produits de PCR ne s'effectue donc plus en point final, mais « en tube fermé » pendant chaque cycle d'amplification, ce qui permet de réduire les risques de contamination. Un autre avantage de cette technique est sa rapidité de réalisation (environ 60 minutes pour 30 cycles), car elle ne nécessite plus l'étape de révélation par électrophorèse ou l'hybridation de sondes [110]. La majorité des RT-PCR en temps réel permettent la quantification du virus dans le sang [111-113]. Indicateur potentiel de la gravité de la pathologie, la charge virale est très variable, allant de moins de 103 copies /mL à plus de 109 copies /mL [3]. Plus le prélèvement est précoce, plus la charge virale est élevée et elle semble être maximale à J1 [114]. Elle pourrait aussi varier en fonction du sérotype [115-118] et du fait que l'on soit en présence d'une dengue primaire ou secondaire (elle tend à être plus élevée et plus durable au cours des infections primaires) [115, 119, 120]. Une étude publiée en 2010 a démontré que le génome du virus pouvait également être détecté dans les urines ou la salive, par RT-PCR en temps réel [121]. Les problématiques diagnostiques de la dengue en zones enclavées, le coût financier pour l'acheminement des prélèvements veineux congelés ainsi que la surveillance virologique des souches circulantes en territoires insulaires a incité le 69 CNR Arbovirus de Guyane à développer une alternative aux prélèvements sanguins veineux. Cette alternative consiste à prélever du sang capillaire sur papier buvard (3 gouttes de sang total prélevées au bout du doigt déposées sur papier buvard Wathman) chez des sujets présentant des signes cliniques d'infection et une détection positive de la protéine NS1 sur sérum [122]. Celui-ci pourra être conservé 8 à 15 jours à 4°C avant son envoi sous pli au CNR Arbovirus de Guyane à température ambiante (stabilité de 2 mois à température ambiante de l'ARN viral) pour le sérotypage par RT-PCR (rendu des résultats sous 8 jours). Cette méthode permet notamment, à moindre coût, de déceler précocement l'introduction d'un potentiel nouveau sérotype, sans contrainte de conservation. Les performances de sensibilité et de spécificité de la RT-PCR sont respectivement de 81,6% et 90% pour le sang capillaire sur papier buvard et de 88,5% et 93,8% pour le sang veineux [123]. Ce type de prélèvement n'est pas utilisé en pratique courante, mais il représente une alternative intéressante dans les dispensaires et petites structures de santé fréquentes en zones tropicales [124]. c- Détection antigénique : la protéine NS1 La glycoprotéine NS1 est une protéine virale non structurale, sécrétée au cours de la réplication virale par tous les sérotypes de la dengue, mais dont le rôle dans la pathogénèse de la maladie n'est pas encore clairement élucidé. Des travaux menés en 2002 par Alcon et son équipe ont montré que cette protéine est retrouvée à des taux élevés dans le sérum des patients infectés par le virus de la 70 dengue au cours de la phase aiguë de l'infection, de 2 μg/mL environ à J0 pour être encore détectable à 0,04 μg/mL à J7 [125-128]. La détection de cette protéine dans le sérum des patients est utilisée pour le diagnostic précoce de la maladie car on la retrouve dès le premier jour après le début des signes cliniques et, selon certaines études, elle serait détectable jusqu'à J18 [3]. Une technique ELISA a d'abord été développée, en 2006, basée sur la détection de cet antigène par immunocapture. Ce kit « Platelia® Dengue NS1 » commercialisé par Biorad (Marnes-La Coquette, France), est une méthode immunoenzymatique en une étape de type sandwich, en format microplaque. Figure 27. Détection d'un antigène par méthode sandwich (ELISA sandwich) en une étape [129] Les échantillons et les étalons sont incubés simultanément avec le conjugué (anticorps monoclonal anti-NS1 couplé à la peroxydase) dans les cupules de microplaques sensibilisées par des anticorps monoclonaux anti-NS1 fixés en excès (figure 27). En présence d'antigène NS1 dans l'échantillon, un complexe AcM-NS1- AcM/peroxydase est formé et fixé à la microplaque, et sera révélé par l'addition du 71 substrat de l'enzyme qui transformé en métabolite coloré permettra une mesure densitométrique de son apparition. La densité optique obtenue à 450/620 nm est proportionnelle à la quantité d'antigène NS1 présent dans l'échantillon testé. Les résultats sont exprimés sous forme d'un ratio (ratio échantillon = S/CO) correspondant à la densité optique lue pour cet échantillon (S) sur la moyenne des densités optiques des deux mesures du calibrateur (CO). L'échantillon est considéré non réactif pour l'antigène NS1 du virus de la dengue si le ratio est inférieur à 0,50, et réactif pour l'antigène NS1 si supérieur ou égal à 1. Entre ces deux valeurs, l'échantillon sera considéré comme douteux (zone « grise » ELISA) Un second test immunoenzymatique de deuxième génération a ensuite été commercialisé par Panbio (figure 28). Ce kit, «Pan E-Dengue Early ELISA® », utilisant une méthode sandwich en deux étapes sur microplaques, présente des performances moindres en termes de sensibilité, vraisemblablement à cause de la nature des anticorps pré-sensibilisés sur microplaques [130]. Figure 28. Dosage d'un antigène par méthode sandwich (ELISA sandwich) en deux étapes [129] 72 Enfin, des tests immunochromatographiques rapides ont été développés sous forme de bandelettes rapides ou de cassettes (Dengue NS1 Ag Strip de BioRad, SD Bioline NS1 de Standard Diagnostics/Eurobio), mais leurs performances restent inférieures à celles des tests immunoenzymatiques [131,132]. Le couplage de deux cassettes associant la détection de l'AgNS1 et des anticorps IgM et IgG (Dengue Duo Rapid test de Standard Diagnostics/Eurobio) n'a pas permis d'améliorer les performances des tests immunochromatographiques [133] (Figure 29). Figure 29. Test immunochromatographique Dengue Duo Rapid Détection de l'antigène NS1 Détection des anticorps spécifiques IgM et IgG La détection de l'antigène NS1 par ces techniques ne constitue pas un indicateur de gravité. La spécificité de détection de l'AgNS1 est très bonne, entre 96% et 100%, un résultat positif permet donc de poser le diagnostic de dengue confirmée. Cependant, la sensibilité de ce test varie selon les techniques, de 77% à 93% (Tableau 4). 73 Tableau 4. Tests de recherche de l'AgNS1 disposant du marquage CE (actualisation septembre 2010 AFSSAPS) De plus, la sensibilité de détection de l'antigène NS1 diminue lors de dengue secondaire [134]. En effet, lors des dengues secondaires, la formation de complexes IgG anti-DENV/protéine NS1 soluble entraînerait une baisse de la sensibilité des tests de détection, et pourraient ainsi conduire à des résultats faussement négatifs. Ce phénomène a des implications importantes en zone d'endémie où les patients autochtones adultes infectés ont fréquemment contracté une dengue antérieure due à un autre sérotype et ayant donc produit des anticorps IgG anti-NS1. Des résultats négatifs pour l'antigène NS1 peuvent être observés en cas de virémie faible, de même la sensibilité de certains kits peut varier suivant le sérotype. Les sensibilités en fonction du sérotype par ordre décroissant des kits PanE-Dengue Early ELISA de Panbio et Platelia de Biorad sont respectivement : D1>D2>D3>D4 et D1>D3>D4>D2 [135]. 3 - Diagnostic indirect ou diagnostic sérologique Historiquement, plusieurs méthodes sérologiques étaient proposées pour la détection des anticorps anti-dengue, incluant les tests d'inhibition de 74 l'hémagglutination, de fixation du complément et de séroneutralisation. Ces méthodes ont maintenant été remplacées par les techniques immunoenzymatiques de type ELISA et les méthodes immunochromatographiques. a- Cinétique des anticorps dirigés contre les virus de la dengue (figure 24) L'évolution des marqueurs sérologiques IgM et IgG spécifiques de la dengue diffère selon qu'il s'agit d'une dengue primaire ou d'une dengue secondaire. Lors d'une dengue primaire, c'est-à-dire, lorsqu'un patient est exposé pour la première fois à un virus de la dengue et ne possède pas d'IgG anti-dengue, le développement de la réponse anticorps IgM coïncide avec la disparition de la fièvre et de la virémie. Les particules virales disparaissent rapidement suite à l'apparition des anticorps spécifiques neutralisants. Dans la plupart des cas de dengue, la virémie devient détectable au moment où les symptômes apparaissent, et ne l'est plus au moment de la défervescence, soit au 4e ou 5e jour suivant l'apparition de la fièvre. En conséquence, les anticorps IgM spécifiques des virus de la dengue peuvent être détectés 3 à 6 jours après l'apparition de la fièvre (IgM détectées dans 50% des cas à J3-J5, et dans 95-98% des cas à J6-J10). Elles atteignent leur pic de sécrétion 2 semaines après le début de la maladie et persistent deux à trois mois après le premier épisode infectieux (voire jusqu'à six mois) [136,137]. Leur présence ne permet donc pas d'affirmer une infection en cours mais une infection récente datant de moins six mois. En conséquence, il est conseillé de confirmer le diagnostic par l'analyse d'un sérum de convalescence. Face à la difficulté d'obtenir deux 75 sérums consécutifs (espacés d'une semaine), les laboratoires s'appuient sur une seule détection positive pour suspecter une infection aiguë. En outre, l'évolution des IgG lors d'une infection primaire est caractérisée par une augmentation lente et faible, débutant 7 à 10 jours après les premiers signes cliniques, et atteignant leur maximum en 2 à 3 semaines. Des titres bas d'IgG persistent pendant des décennies, constituant un indice de l'infection antérieure par un virus de la dengue. L'infection primaire est donc caractérisée par une fraction molaire élevée d'IgM anti-dengue et une fraction molaire basse d'IgG anti-dengue. Lors d'une infection secondaire, caractérisée par un contact avec un virus hétérologue, le titre global en anticorps augmente rapidement dès la phase aiguë de l'infection. On observe une élévation rapide et de plus grande ampleur des titres d'anticorps IgG spécifiques. Leur taux croît progressivement durant environ 2 semaines et des titres élevés d'IgG se maintiennent pendant 30-40 jours. En pratique, l'observation d'une ascension du titre des IgG est rarement effectuée faute d'un second prélèvement au moment de la période de convalescence. La cinétique de la production des IgM est identique à celle observée en infection primaire mais à des taux plus faibles et dans certains cas, elles peuvent être fugaces voire même absentes, rendant le diagnostic de dengue récente difficile [138, 139]. En outre, ces anticorps présentent une réactivité croisée avec un large éventail d'antigènes de virus de la dengue, ce qui constitue l'un des problèmes majeurs de difficulté d'interprétation des résultats biologiques. Ces anticorps de spécificité croisée apparaissent souvent dans les 2 mois après l'infection secondaire et peuvent 76 confondre la détermination du sérotype. Ce n'est que pendant la convalescence tardive (3-6 mois après l'infection) qu'on pourra mettre en évidence un anticorps monotypique spécifique du sérotype infectant. Le sérotypage le plus fiable et le plus utilisé reste celui effectué via la PCR. b- La séroneutralisation virale La technique de séroneutralisation la plus utilisée est celle de réduction des plages de lyse causées par le virus (plaque reduction neutralization test [PRNT]). Des dilutions de sérums humains inactivés par la chaleur sont incubées avec des quantités définies de virus test (produisant un nombre suffisant de plages de lyse, c'est-à-dire de régions de cellules infectées). Le principe de ce test est basé sur l'inhibition du pouvoir infectieux des virus par ces anticorps neutralisants produits par le patient lors de l'épisode infectieux. La concentration de sérum nécessaire pour réduire le nombre de plages de 50 à 90% selon les auteurs (PRNT 50 ou PRNT 90), par rapport au virus seul donne la mesure de la quantité d'anticorps. Une inhibition de 90% équivaut généralement à une infection primaire, alors qu'une inhibition de 50 à 70% se rapporte davantage à une dengue secondaire [102]. Du fait de son excellente spécificité, cette technique est principalement utilisée pour identifier le sérotype du virus de la dengue impliqué lors d'un premier contact avec le virus grâce à la persistance d'anticorps monotypiques détectables chez les patients en convalescence. La détermination du sérotype ne peut cependant pas être réalisée au cours d'une infection secondaire étant donné que les anticorps neutralisants 77 produits sont dirigés contre au moins 2 sérotypes et croisent généralement avec les 4 sérotypes ainsi qu'avec d'autres Flavivirus. Cette technique, sensible et spécifique, a une importance majeure dans l'évaluation de l'efficacité d'un vaccin. Néanmoins, elle est coûteuse, longue, délicate à mettre en oeuvre et nécessite la maîtrise de la culture cellulaire. Elle est donc peu utilisée en routine pour le diagnostic des infections par le virus de la dengue. Figure 30. Test de séroneutralisation utilisé pour l'identification du sérotype de la dengue. L'exemple proposé montre l'identification du sérotype 1 de la dengue [140] Les virus tests utilisés appartiennent aux sérotypes 1, 2 et 3. 78 c- Les techniques ELISA Deux principes ont été développés : les techniques indirectes et l'immunocapture. Plusieurs types de kits existent : les tests EIA, les tests basés sur l'immunofluorescence (IF), les tests immunochromatographiques ou encore les immunoblots (IB). Commercialisés principalement par les sociétés australiennes (Panbio) et américaines (MRL), les tests ELISA permettent de détecter la présence individuelle ou couplée des IgM et IgG de la dengue par différentes approches. Les performances de ces tests en termes de sensibilité et de spécificité dépendent de 3 paramètres : la valeur seuil définie du test, la durée des différentes étapes d'incubation et la nature des antigènes viraux utilisés. Les valeurs seuils de ces tests sont relativement faibles, ce qui leur offre une bonne sensibilité, mais diminue significativement leur spécificité. En ce qui concerne les IgG, le test ELISA indirect (figure 31) possède un seuil de détection plus bas que le test ELISA capture qui ne détecte les IgG qu'à un taux élevé. L'ELISA indirect qui est donc un test plus sensible, semble ainsi plus approprié pour les études de séroprévalence, alors que l'Elisa capture paraît plus pertinent pour le diagnostic des infections récentes par le virus de la dengue, surtout dans les régions endémo-épidémiques, où la majorité de la population a déjà contracté au moins une fois le virus [102]. 79 Figure 31. ELISA indirect pour la détection des IgG spécifiques de la dengue [141] Au CHU de Pointe-à-pitre, la détection des IgM utilise une technique ELISA de type capture (figure 32). Lorsqu'ils sont présents, les anticorps sériques de classe IgM se lient aux anticorps IgM anti-humains fixés à la surface en polystyrène des bandelettes de test des micropuits. Un pool concentré d'antigènes de la dengue des sérogroupes 1 à 4 est dilué avec un diluant d'antigène jusqu'à obtention du volume de travail approprié. Les antigènes sont générés à l'aide d'un système d'expression de cellules d'insectes. Ils sont ensuite immunopurifiés à l'aide d'un anticorps monoclonal spécifique. Un volume égal d'anticorps monoclonaux conjugués à de la HRP (horseradish peroxidase) est ajouté à l'antigène dilué, ce qui permet la formation de complexes antigènes-anticorps monoclonaux. Le sérum résiduel est éliminé de la plaque d'analyse par lavage, puis le complexe antigène-anticorps monoclonal est ajouté à la plaque d'analyse. Après incubation, les micropuits sont lavés et un substrat incolore, composé de tétraméthylbenzidine/peroxyde d'hydrogène (chromogène TMB), est ajouté. 80 Figure 32. ELISA de type capture pour la détection des IgM spécifiques de la dengue [142] Le substrat est hydrolysé par l'enzyme et le chromogène devient bleu. Une fois la réaction stoppée par l'acide, le chromogène TMB devient jaune. Le changement de couleur indique la présence des anticorps anti-dengue dans l'échantillon testé. Les résultats sont exprimés soit en valeur d'index soit en unités Panbio. La plupart des tests commerciaux actuellement disponibles utilisent comme antigènes des protéines virales d'enveloppe E et de membrane M pour la détection des IgM et des IgG. Certaines techniques développées par des laboratoires spécialisés de type centre de référence utilisent des extraits de broyats de cerveaux de souriceaux ou bien des antigènes obtenus à partir du surnageant de culture de cellules d'insectes ou de mammifères infectées. Le problème majeur de ces techniques mettant en jeu un mélange d'antigènes est leur manque de spécificité vis81 à-vis des autres Flavivirus, groupe où les réactions sérologiques croisées sont fréquentes (virus de l'encéphalite de Murray Valley, de l'encéphalite japonaise, du virus de la fièvre jaune ou du virus du Nil occidental). La réaction sérologique IgM peut également croisée avec d'autres agents pathogènes comme le paludisme (en retour de zones impaludées) ou la leptospirose (également retrouvée en Guadeloupe). Un contexte inflammatoire, la présence de facteur rhumatoïde ou d'autres auto-anticorps, peut également entraîner une réaction faussement positive en IgM [143]. Des Elisa modifiées ont été développées pour détecter d'autres classes d'immunoglobulines (IgA et IgE). Les IgA, persistants moins longtemps que les IgM, pourraient être utiles pour différencier une infection en cours d'une infection datant de deux à trois mois [144]. Les IgM et les IgA spécifiques sont aussi retrouvées dans la salive [145]. Ce prélèvement de recueil, plus aisé chez les enfants ou dans des conditions précaires, pourrait être intéressant pour les études de séroprévalence [145]. La détection des IgA salivaires montre une faible sensibilité (36%) dans les infections primaires. En revanche, cette sensibilité est de 100% en cas de dengue secondaire [146]. Des travaux ont montré que le taux d'IgE serait significativement plus élevé chez les patients présentant un tableau de DHF/DSS que chez les patients avec une DF [147]. 82 d- Distinction entre infections primaires et secondaires : Test d'avidité des IgG Le test de référence recommandé par l'OMS pour la distinction entre les infections primaires et secondaires est le test d'inhibition de l'hémagglutination. Egalement, le calcul du ratio IgM/IgG spécifique sur un prélèvement tardif isolé peut être utilisé (quelques kits commerciaux dont le kit PanBio). Cependant, la persistance des IgM spécifiques dans certains cas jusqu'à 6 mois après l'infection, conjuguée aux possibles réactions croisées des IgM induites par d'autres Flavivirus, rend difficile la classification des cas selon le résultat des IgM [148]. Une autre alternative est une méthode immuno-enzymatique basée sur l'évolution de l'avidité des IgG au cours de l'épisode infectieux. Ce test, basé sur le fait que les premiers anticorps synthétisés après une stimulation antigénique ont une plus faible affinité pour l'antigène que ceux produits par la suite, permet de faire la différence entre infections primaires et secondaires, à l'aide d'un seul échantillon de sérum recueilli au cours de la phase aiguë de l'infection. L'étude réalisée par Matheus S. et al. a mis en évidence une avidité de 25,9% et de 66,3% (index d'avidité) respectivement pour les infections primaires et secondaires. Basé sur l'analyse des seuls échantillons de sang prélevés pour cette étude entre le 3ème et le 7ème jour de la maladie, au cours de laquelle la plupart des complications cliniques se produisent, la sensibilité et la spécificité du test étaient de 95 ,1% et de 80,0% respectivement [149]. Le niveau d'avidité des échantillons de sérums, en 83 fonction de la force d'affinité de l'anticorps pour l'agent pathogène semble donc être une excellente alternative pour différencier les deux types d'infections. C - Stratégie diagnostique 1 - Recommandations du Haut Conseil de la Santé Publique (2011) Les actes d'isolement et de caractérisation virale, et la détection des IgM/IgG spécifiques par technique d'immuno-enzymologie (EIA) sont inscrits à la NABM et pris en charge par l'Assurance maladie. Les libellés de ces actes sont valables pour tous les arbovirus et ne sont pas uniquement relatifs à la dengue. Tableau 5. Prise en charge par l'Assurance maladie [150,151] (Nb : nombre ; PCAP : période comparable de l'année précédente) Code Nb de Nb Nb PCAP 2008 2009 2010 2009-2010 Libellé de l'acte Cotation l'acte 1707 Arboviroses : 3976 3316 8516 +156,8 % B70 3656 2943 7363 +150,2 % B70 recherche des IgM spécifiques par EIA 1708 Arboviroses : recherche des IgG spécifiques par EIA 4211 Arbovirus : Cultures cellulaires orientées 1 3 1 -66,7% B150 et identification 4273 NS1 dengue par EIA et ICT* NA NA NA NA B50 5261 Infection par le virus de la dengue et du NA NA NA NA B250 chikungunya **: détection de l'ARN des virus de la dengue et du chikungunya par RT-PCR 84 * inscrit à la NABM en 2010 (Journal Officiel 27/08/2010) **inscrit à la NABM en 2014 (Journal Officiel 09/03/2014) Le faible nombre d'actes relatifs aux cultures orientées et à l'identification confirme que ce test est peu utilisé en pratique pour le diagnostic. L'acte de détection de l'antigène NS1 de la dengue par dosage immunoenzymatique (EIA) ou immunochromatographie (ICT) est inscrit à la NABM depuis 2010 et pris en charge par l'assurance maladie. Le libellé de cet acte est spécifique de la dengue. L'indication de ce test est le diagnostic précoce de la dengue du premier au 5 ème jour après l'apparition des signes cliniques. La détection du génome viral par RT-PCR est un item dédié à la fois à la dengue et au chikungunya. Le prélèvement doit être effectué uniquement jusqu'à J7 après le début des signes cliniques et n'est pris en charge que dans les situations cliniques suivantes : - symptomatologie évocatrice chez un patient revenant d'une zone touchée par le virus de la dengue, - symptomatologie évocatrice chez un patient se trouvant dans une zone d'activité du vecteur pendant un période d'activité du vecteur (en phase épidémique, les indications de la confirmation biologique sont limitées notamment aux cas graves, aux cas hospitalisés, aux patients atteints de comorbidités, aux formes atypiques, aux femmes enceintes et aux nouveau-nés). 85 L'augmentation importante du nombre d'actes en 2010 est à rapprocher de l'épidémie majeure qui a sévit dans les Départements Français d'Amérique (DFA). En fonction de la date d'apparition des signes cliniques, différentes méthodes diagnostiques sont donc utilisées : dans un délai de sept jours, le diagnostic direct doit être utilisé, bien que la sérologie puisse être utilisée dès le troisième jour. Un résultat négatif pour l'antigénémie NS1 doit conduire à la poursuite de la stratégie diagnostique, par la recherche de l'ARN viral jusqu'au 5-7ème jour et la recherche d'anticorps IgM/IgG après le 5ème jour, associés à la recherche d'autres pathologies en fonction du tableau clinique et du contexte épidémiologique. Entre le 5ème et le 7ème jour, la détection du génome viral par biologie moléculaire sera associée à une méthode sérologique (recherche d'IgM et d'IgG). Passés 7 jours, la recherche des anticorps spécifiques IgG et IgM par technique ELISA permet un diagnostic en phase tardive. Les recommandations du HCSP indépendamment de la zone géographique sont résumées dans la figure 33 en annexe [130]. Si la date de début des signes cliniques n'est pas connue ou si le prélèvement a été effectué autour de J5, la combinaison de la recherche antigénique NS1 et de la recherche d'anticorps anti-dengue permet d'augmenter la fenêtre de détection, puisqu'elle inclut celle de la positivité de l'Ag NS1 (≤ J5) et celle des IgM spécifiques de la dengue (≥ J5). 86 D'après les recommandations du HCSP de Janvier 2011, la biologie moléculaire est considérée comme la technique de référence dans chaque situation épidémiologique envisagée [130]. Son utilisation reste toutefois limitée en raison de la disponibilité du test, tant en France métropolitaine (test disponible au niveau des CHU) que dans les différentes zones d'endémie, et de son coût. De plus, depuis la mise en place des tests NS1, la PCR n'est quasiment plus utilisée comme technique diagnostique, mais plutôt comme technique de confirmation. En effet, désormais seuls sont testés en PCR les patients ayant eu un test NS1 positif ou douteux (afin de réaliser un sérotypage du virus), ou les patients ayant un test NS1 négatif, mais chez qui il existe une forte présomption clinique de dengue associée à une nécessité diagnostique (hors épidémie, cas grave en période épidémique). 2 - Mise en pratique dans un contexte endémo-épidémique : Recommandations du Cire Antilles Guyane (2013) Après l'épidémie de dengue qui a sévit en Guadeloupe en 2010, le Cire Antilles Guyane a publié une actualisation de la stratégie diagnostique avec des recommandations pratiques à mettre en oeuvre en situation épidémique. Tout d'abord, lors de la phase fébrile aiguë, une demande de test diagnostique de la dengue n'est pas obligatoire, le test NS1 pouvant manquer de sensibilité et le sérodiagnostic ne se positivant qu'après le 5ème-6ème jour, alors que la majorité des patients est déjà guérie [90]. 87 En l'absence de pathologie associée ou de facteurs de risque, la pratique d'examens complémentaires ou un avis spécialisé ne seront justifiés que lorsqu'il existe un doute sur le diagnostic. Chez les patients présentant des symptômes invalidants, une NFS pourra être réalisée et pourra alors affirmer le diagnostic à plus de 95% si la NFS associe une leucopénie < 4 G/L et une thrombopénie < 150 G/L, voire à plus de 98% s'il existe un rash cutané associé. Après l'épidémie de 2010, les membres des comités d'experts de Guadeloupe, Guyane et Martinique ont pu constater que : - Une grande majorité des prélèvements avait été réalisée dans les 7 premiers jours de la maladie ; - Une incertitude persistait souvent sur la date des premiers signes à l'interrogatoire du patient engendrant une incertitude sur le nombre de jours de maladie lors du prélèvement ; - Les résultats des différents tests diagnostiques ne correspondent pas toujours à ceux attendus au vu du délai de prélèvement annoncé : des IgM déjà présentes pour des délais annoncés courts (J3-J4) et des tests NS1 et RT-PCR encore positifs pour des délais annoncés longs (J5-J7). En s'appuyant sur ces observations et sur la proportion non négligeable de patients développant une dengue secondaire dans les DFA, un algorithme diagnostique a été proposé (figure 34). 88 Comparativement à l'algorithme proposé par le Haut Conseil de la Santé Publique en 2011, le test antigénique NS1 peut être utilisé 2 jours de plus (jusqu'à J7 au lieu de J5), et la sérologie peut être utilisée 2 jours plus tôt (J3 au lieu de J5). Figure 34. Stratégie diagnostique recommandée dans les DFA en milieu hospitalier quelle que soit la situation épidémiologique [90] Diagnostic de la dengue au CHU de Pointe-à-pitre En pratique au CHU de Pointe-à-pitre, les deux dernières observations faites par les comités d'experts (incertitude sur la date des symptômes et manque de correspondance entre résultats des tests et délai de prélèvement annoncé) ont incité la pratique du test NS1 et de la sérologie IgM/IgG pour chaque tube reçu au laboratoire pour un diagnostic de dengue. 89 La PCR est ensuite utilisée soit en cas de clinique sévère évocatrice de dengue sans diagnostic sérologique ou par l'antigène NS1, soit en cas de dépistage positif par l'antigène NS1 pour typer le virus dépisté. L'utilisation de la PCR à ces deux seules indications permet de limiter le nombre de techniques et donc le risque de contamination entre les tubes notamment en période épidémique. La technique utilisée est la PCR semi-nichée de Lanciotti après extraction sur QI Amp RNA minikit de Qiagen. La rétrotranscription est suivie d'une PCR en one step (pas d'ouverture de tube entre la rétrotranscription et la réaction de PCR). Les tubes sont ensuite ouverts pour récupérer 10 μL d'amplicons pour effectuer la PCR semi-nichée sur un autre site. Après le deuxième passage dans le thermocycleur, les tubes seront de nouveau ouverts pour effectuer la migration sur gel d'agarose. Aucun protocole de RT-PCR en temps réel n'a actuellement été testé au CHU de Pointe-à-pitre. 3 - Interprétation des tests diagnostiques L'évaluation des tests en terme de diagnostic, c'est-à-dire en termes de valeurs prédictives positives (probabilité de présenter la pathologie si le test est positif) et valeurs prédictives négatives (probabilité de ne pas présenter la pathologie si le test est négatif) n'est pas constant ni transposable entre populations de zones géographiques différentes. En effet, les valeurs prédictives dépendent de la prévalence de la pathologie au sein de la population étudiée. 90 En fonction des résultats des différents tests diagnostiques, plusieurs interprétations sont à évoquer (tableau 6). Tableau 6. Interprétation biologique en fonction des résultats des différents tests diagnostiques au CHU de Pointe-à-pitre [3 ;125-127 ;134 ;136-139] Détection Sérologie Sérologie Ag NS1 IgM IgG Négatif Négatif Négatif Interprétation RT-PCR dengue Absence d'immunité ancienne vis-à-vis Possible* des Flavivirus Négatif Négatif Positif -Immunité ancienne vis-à-vis d'un Possible* Flavivirus -Possibilité de dengue secondaire Négatif Positif Négatif -Dengue récente probable Possible* A confirmer par RT-PCR si ≤ J7 ou par un second prélèvement (séroconversion IgG ?) -Infection par un autre Flavivirus Positif Positif Négatif Dengue récente confirmée Inutile** Positif Positif Positif -Dengue récente confirmée secondaire Inutile** avec présence d'IgM et d'Ag NS1 -Dengue primaire avec immunité ancienne vis-à-vis d'un autre Flavivirus Positif Négatif Négatif Dengue évolutive ≤ J5 Négatif Positif Positif -Dengue récente probable Inutile** Possible* -Infection par un autre Flavivirus *Si patients à risque et/ou signes cliniques d'alerte. **Sauf pour sérotypage à visée épidémiologique. En Guadeloupe, la valeur prédictive négative de l'antigénémie NS1 et de la sérologie IgM baissera (nombreux faux négatifs), en raison des dengues secondaires, d'autant plus chez le sujet autochtone et âgé qui aura été potentiellement exposé à différents sérotypes. Inversement, un nourrisson ou un expatrié venant d'aménager aux 91 Antilles ne s'exposera pas ou moins à ce problème de diagnostic en raison du risque faible ou nul de dengue secondaire. Par contre, la valeur prédictive négative de la biologie moléculaire n'est pas affectée. La RT-PCR n'est pas influencée par les antécédents de dengue, par les autres Flavivirus ou par la vaccination contre la fièvre jaune (Tableau 7). En zone d'endémie, la valeur prédictive positive des tests va augmenter en phase épidémique en raison d'une augmentation de la prévalence, et baisser en période inter-épidémique en raison d'une baisse de la prévalence, alors que le test utilisé sera le même. Tableau 7. Avantages et inconvénients des différentes techniques diagnostiques [3] *Détection de l'ARN du virus de la dengue par RT-PCR inscrit à la NABM en 2014 (Journal officiel du 09/03/2014) 92 III – ELABORATION DES CONTROLES INTERNES DE LA QUALITE POUR LA DETECTION DE L'ANTIGENE NS1 ET DES ANTICORPS IGM DE LA DENGUE A - Généralités sur les contrôles internes de qualité (CIQ) « Le laboratoire devra définir des systèmes de contrôle interne de qualité qui vérifient l'obtention de la qualité attendue des résultats » ISO 15189 (International). Un laboratoire, quel qu'il soit, fournit des résultats dont il doit garantir la qualité en utilisant tous les moyens dont il peut disposer. La détection de l'antigène NS1 ainsi que la sérologie de la dengue font appel à des réactifs qui permettent l'obtention de résultat de type qualitatif. Ces méthodes sont pourtant considérées comme quantitatives, car extrapolées à partir de la mesure d'un signal continu quantifiable (la densité optique), avec interprétation par rapport à un seuil. Quel que soit la fréquence des analyses d'échantillons de patients, un échantillon positif vis-à-vis du marqueur recherché et de préférence proche de la valeur seuil entre douteux et positif, doit être introduit dans chaque série d'analyses (contrôles internes de qualité ou CIQ). Ce contrôle, qui consiste en la validation quotidienne des conditions de réalisation de l'analyse et à l'étude de la reproductibilité inter-manipulations, a pour objet de détecter des erreurs de manipulation, une détérioration des réactifs, de mettre en évidence de lentes dérives ou des dérives liées à l'usure du spectrophotomètre. Plusieurs types d'échantillons de contrôles internes de qualité sont à distinguer [152]. 93 Les contrôles de trousse sont des matériaux mis au point et fabriqués pour l'évaluation spécifique d'une trousse d'un dispositif médical de diagnostic in vitro (DM-DIV) et généralement fournis dans celle-ci. Ce type de contrôle n'est pas un véritable CIQ mais est un témoin de réaction. En pratique courante au laboratoire de virologie du CHU de Pointe-à-pitre, seul ce type de contrôle est passé lors de chaque série de patients. Le lot de contrôle change à chaque nouveau lot de coffret, ce qui ne procure pas au laboratoire les bénéfices d'un suivi de contrôle qualité au long cours sur différents lots de réactifs. Les contrôles « dépendants » du fournisseur du couple réactif/analyseur sont des matériaux de CIQ mis au point et fabriqués pour l'évaluation spécifique d'un système analytique ou d'un DM-DIV et distribué par le fournisseur du système analytique. Les contrôles « indépendants » du fournisseur du couple réactif/analyseur sont des matériaux de CIQ mis au point et fabriqués indépendamment des calibrateurs et des réactifs du système du test et fournis séparément. Ils permettent l'utilisation du même lot de contrôle sur des changements multiples de réactifs et de calibrateurs, donnant au laboratoire la capacité de détecter des écarts qui peuvent survenir avec de nouveaux réactifs et calibrateurs. Ces contrôles commercialisés ne couvrent malheureusement pas toutes les activités de biologie nécessitant un CIQ. En l'absence de ces CIQ commercialisés, on peut avoir recours à l'élaboration de CIQ maison à l'aide d'un « pool » d'échantillons biologiques. Le laboratoire peut ainsi constituer des pools à partir de ses propres échantillons. L'interprétation de ces 94 résultats sera basée sur les mêmes règles que celles des CIQ. Le laboratoire définira la méthode de fabrication des pools et s'assurera de leur stabilité dans le temps. B - Fabrication et évaluation d'un CIQ AgNS1 et d'un CIQ IgM dengue Les deux CIQ élaborés par nos soins, pour la détection de l'antigène NS1 de la dengue et la sérologie IgM dengue, correspondent à des contrôles fabriqués in situ à l'aide d'un pool d'échantillons de patients conservés en sérothèque à -80°C. 1 - Matériels et méthodes Ces manipulations ont pour objectif l'élaboration de CIQ pour deux paramètres, l'antigène NS1 de la dengue et les IgM spécifiques des virus de la dengue. Pour cela, des pools positifs pour chacun des deux paramètres provenant de sérums de patients précédemment testés et conservés en sérothèque à –80°C ont été dilués afin d'obtenir un volume suffisant pour une étude au long cours de leurs stabilités. Les dilutions ont été effectuées à l'aide de pipettes contrôlées en termes de justesse et de précision. Chaque série d'analyses effectuées pour l'antigène NS1 de la dengue et les IgM spécifiques de la dengue vérifient les critères de validation de méthode tels que précisés par le fabricant. Les protéines et les anticorps doivent être conservés dans des conditions les protégeant de la dégradation. Les CIQ obtenus ont été conservés à -80°C pour optimiser cette intégrité après reconstitution des pools de sérums et l'ajout des 95 différentes matrices de dilution. Il convient aussi d'éviter de répéter des cycles de congélation et de décongélation. La façon la plus commune d'éviter ce problème est de congeler la préparation en petites fractions (aliquotes) qui pourront être décongelées successivement. a- Antigène NS1 Les sérums étudiés ont été testé pour l'antigène NS1 avec le kit PLATELIA TM DENGUE NS1 Ag 72830 (Bio-Rad, Marnes-la-Coquette, France), avec lecture des densités optiques au spectrophotomètre à la longueur d'onde de 450nm (MultiskanFC Microplate Photometer REF 51119000). Le tableau suivant indique les valeurs d'interprétation : Ratio* Résultat Ratio < 0,50 Négatif 0,50 ≤ Ratio < 1,00 Equivoque Ratio ≥ 1,00 Positif * Ratio échantillon = S/CO, avec S la densité optique (DO) obtenue pour l'échantillon et CO la valeur seuil correspondant à la valeur moyenne des densités optiques des duplicates du calibrateur. Le contrôle positif de trousse est constitué de tampon TRIS-NaCl buffer (pH 8,0), d'antigène NS1 de la dengue, de sérum albumine bovine, de glycérol et de conservateurs. Lors de cette étude, deux pools positifs pour l'antigène NS1 ont été élaborés et trois matrices de dilution ont été successivement utilisées : du PBS (Phosphate buffered 96 saline), du sérum humain négatif pour l'Ag NS1 (SHN), et enfin du sérum de veau foetal (SVF filtré stérilement, Ref CVFSVF00-01, Lot S45710-2848, Exp 2015-11-30, et décomplémenté à 56°C pendant 30 minutes). Le premier pool, constitué de 12 sérums de patients testés positifs pour l'antigène NS1 (Ratio >10), a été dilué dans la première matrice, le PBS. Pour cela, deux méthodes différentes de dilution ont été successivement utilisées. Tout d'abord, par des dilutions en série, puis par des dilutions issues chacune du pool mère. Le deuxième pool, constitué de 6 sérums de patients testés positifs pour l'antigène NS1 (Ratio >10), a été séparé en deux. Une partie a été diluée dans le sérum humain négatif pour l'AgNS1 (SHN), l'autre dans le sérum de veau foetal (SVF). Pour élaborer la matrice de sérums humains négatifs pour l'AgNS1, nous avons fait appel à onze personnes du personnel des laboratoires du CHU de Pointe-à-pitre. Le sang a été prélevé sur tube sec (soit 42 tubes) avec gel séparateur (BD Vacutainer ® Ref 367957, Lot 3309395, exp 2015-04) puis centrifugé à 2 200 g à température ambiante. Le sérum des 42 tubes a ensuite été poolé puis analysé et confirmé négatif pour l'Ag NS1 avec un taux de 0,15 (DO = 0,05). Pour chacune des trois matrices utilisées, les dilutions ont été effectuées afin de déterminer la dilution optimale pour obtenir un ratio S/CO correspondant à un positif faible. 97 b- Anticorps IgM anti-dengue Les sérums étudiés ont été analysés avec le Kit Test ELISA de la dengue avec capture des IgM (Panbio), la lecture spectrophotométrique s'effectuant sur le même spectrophotomètre et à la même longueur d'onde que pour l'antigène NS1. Le tableau suivant indique les valeurs d'interprétation des résultats : Valeur Index* Unités Panbio* Résultat <0,9 <9 Négatif 0,9-1,1 9-11 Equivoque >1,1 >11 Positif * Pour obtenir la valeur d'index, l'absorbance de l'échantillon doit être divisée par la valeur seuil, celle-ci étant obtenue en multipliant la moyenne des 2 exemplaires d'étalon avec le facteur d'étalonnage spécifique de chaque lot. Pour obtenir les résultats en unités Panbio, il suffit alors de multiplier la valeur d'index de l'échantillon par 10. Le contrôle positif de trousse est constitué de sérum humain. Lors de cette étude, deux pools de sérums de patients positifs pour les IgM spécifiques de la dengue (>11 Unités Panbio) ont été élaborés et deux matrices de dilution ont été utilisées. Le premier pool (n1=11) a été dilué dans du PBS ; le deuxième pool (n2= 10) a été dilué dans du sérum de veau foetal. 98 Des séries de dilution ont donc été effectuées afin d'obtenir une valeur positive faible en IgM de la dengue. c- Paramètres analysés : reproductibilité et répétabilité Après avoir déterminé pour chacun des deux paramètres, antigène NS1 et anticorps IgM spécifiques de la dengue, la dilution optimale pour un CIQ (c'est-à-dire voisin de la valeur seuil), deux caractéristiques ont été analysées : la fidélité intermédiaire ou reproductibilité et la répétabilité. En l'absence d'un CIQ externalisé avec le laboratoire de l'institut Pasteur de Cayenne, le calcul de la justesse est à ce jour non réalisable. La fidélité intermédiaire ou précision inter-essai (reproductibilité) a été obtenue par l'analyse des CIQ au début de chaque série d'échantillons de patients. Un aliquote de chaque CIQ, Ag NS1 et IgM anti-dengue, a ainsi été analysé une fois par semaine hors période épidémique et tous les trois jours en période épidémique. La répétabilité ou précision intra-essai a été évaluée en analysant 20 à 30 valeurs de CIQ de chacun des deux paramètres dans une même série. 2 - Résultats a- CIQ pour l'antigène NS1 99 Matrice utilisée = PBS o Dilutions en série : Le pool pur d'AgNS1 ainsi que chaque dilution ont été analysés, les résultats sont répertoriés ci-dessous (tableau 8). Tableau 8. Gamme de dilution du pool AgNS1 en PBS (dilutions en série) (Coffret Lot 2L0131 Exp 15/05/14) Dilution Valeur de la DO Ratio Interprétation 1/10 2,33 3,91 Positif 1/20 1,56 2,62 Positif 1/40 0,98 1,65 Positif 1/80 0,61 1,03 Positif 1/320 0,20 0,34 Négatif Pur x x x La valeur de la DO de l'échantillon pur n'a pu être appréciée. En effet, la DO obtenue sur cet échantillon très réactif a dépassé la DO maximale pouvant être lue par le spectrophotomètre. Nous avons donc choisi la dilution au 1/40 du pool comme CIQ positif faible, car voisin de la valeur seuil (ratio = 1,65 pour une valeur seuil à 1). 100 La quantité de dilution au 1/40 élaborée lors de la dilution en série étant insuffisante pour la conserver en tant que CIQ au long cours, nous avons renouvelé la dilution au 1/40, mais cette fois-ci directement à partir du pool mère : 200 μL de pool, dilué dans 7,8 mL de PBS, soit 8 mL de sérum dilué au 1/40 (CIQ AgNS1 n°1). Cette dilution a alors été répartie dans des aliquotes à usage unique, soit 60 aliquotes contenant chacun 100μL de la dilution au 1/40 (prise d'essai pour un test de détection de l'antigène NS1 = 50μL) et congelés à -80°C. Les résultats de la reproductibilité et de la répétabilité du CIQ Ag NS1 n°1 sont répertoriés respectivement dans le tableau 9 et le tableau 10. Tableau 9. Reproductibilité du CIQ AgNS1 n°1 sur 9 aliquotes (Le lot 3G0032 a été ouvert par erreur avant la fin du lot 2L0131) Date Valeur de la DO Ratio Lot 29/08/13 2,55 4,11 2L0131 05/09/13 3,37 6,07 Exp 15/05/2014 16/09/13 4,13 6,56 23/09/13 4,13 6,31 3G0032 26/09/13 4,04 6,57 Exp 30/12/2014 30/09/13 4,27 7,00 08/10/13 3,55 5,11 11/10/13 3,24 5,68 2L0131 14/10/13 3,89 7,48 Exp 15/05/2014 La reproductibilité a été arrêtée après seulement 9 valeurs car celles-ci ne correspondaient plus à un CIQ positif faible comme indiquait le premier résultat d'analyse (ratio = 1,65) mais à un positif fort (moyenne ratio = 6,1). 101 Tableau 10. Répétabilité du CIQ AgNS1 n°1 sur 20 aliquotes (lot 3G0032 Exp 30/12/2014) Valeur de la DO Ratio Valeur de la DO Ratio 2,97 4,59 2,65 4,10 2,89 4,47 2,62 4,06 2,90 4,49 2,76 4,27 3,04 4,70 2,77 4,28 2,96 4,57 2,66 4,12 2,66 4,11 2,52 3,90 2,67 4,13 2,47 3,81 2,66 4,11 2,45 3,79 2,51 3,88 2,54 3,93 2,70 4,17 2,34 3,61 Les valeurs obtenues classaient cette fois-ci le CIQ AgNS1 n°1 parmi les CIQ moyennement positifs. Le coefficient de variation (CV) de répétabilité obtenu de 7,11% (avec une moyenne de 4,15 et un écart-type de 0,29) correspond au CV établit par le fournisseur pour des échantillons moyennement positif (Tableau 11). Tableau 11. Données fournisseurs pour la répétabilité de l'AgNS1 N = 30 Echantillon Echantillon Echantillon Echantillon négatif faiblement moyennement fortement positif positif positif Ratio échantillon (S/CO) Moyenne 0,10 1,32 3,79 6,24 SD 0,01 0,08 0,29 0,45 % CV 13,1 6,2 7,7 7,2 102 L'hypothèse faite pour expliquer cette variabilité entre la première valeur mesurée du CIQ et les résultats de reproductibilité et de répétabilité serait la différence d'élaboration des dilutions : la première mesure (ratio = 1,65) a été obtenue à partir d'une dilution sériée, alors que la dilution utilisée pour étudier la reproductibilité et la répétabilité a été élaborée directement à partir du pool mère. o Dilutions directement à partir du pool pur Tableau 12. Gamme de dilution du pool AgNS1 en PBS (dilutions réalisées directement à partir du pool AgNS1) (Lot 3G0032 Exp 30/12/2014) Dilution Pool PBS AgNS1 + Valeur de Ratio Interprétation la DO Pur / / 3,80 6,17 Positif 1/5 1000μL 5000μL 1,25 2,03 Positif 1/10 700μL 6300μL 0,81 1,31 Positif 1/20 400μL 7600μL 0,47 0,76 Taux limite 1/30 200μL 5800μL 0,33 0,53 Taux limite 1/40 200μL 7800μL 0,26 0,42 Négatif Des volumes importants (de 6 à 8 mL) ont été élaborés volontairement afin de pouvoir utiliser directement la dilution choisie au long cours. La dilution au 1/10 a donc été choisie comme CIQ positif faible, répartie en 100 aliquotes de 65μL chacun et congelés à -80°C (CIQ AgNS1 n°2). Les résultats de reproductibilité sont répertoriés dans le tableau 13. 103 Tableau 13. Reproductibilité du CIQ AgNS1 n°2 sur 5 valeurs Date Valeur de Ratio Lot la DO 26/09/13 4,00 6,50 Lot 3G0032 30/09/13 4,30 7,05 Exp 08/10/13 4,09 5,88 30/12/2014 11/10/13 3,48 6,11 2L0131 Exp 14/10/13 4,54 8,73 15/05/2014 La reproductibilité a été arrêtée après seulement 5 valeurs car nous avons retrouvé les mêmes variations qu'avec le CIQ AgNS1 n°1 : les valeurs obtenues classaient le CIQ AgNS1 n°2 dans les positifs forts (moyenne ratio = 6,77). Chacune des dilutions suivantes a été réalisée directement à partir du pool de sérum pur. Matrice utilisée = sérum humain négatif pour l'AgNS1 (SHN) Sept dilutions de 10mL chacune ont été analysées. Tableau 14. Gamme de dilution du pool AgNS1 en SHN (coffret NS1 Lot 3M0033 Exp 2015-05-30) Dilution Pool AgNS1+ SHN Valeur de la Ratio Interprétation DO 1/10 1000μL 9000μL 0,10 0,10 Négatif 1/20 500μL 9500μL 0,11 0,11 Négatif 1/30 333μL 9667μL 0,16 0,17 Négatif 1/40 250μL 9750μL 0,10 0,11 Négatif 1/60 167μL 9833μL 0,09 0,09 Négatif 1/80 125μL 9875μL 0,11 0,12 Négatif 1/160 62,5μL 9937μL 0,11 0,12 Négatif 104 Toute la gamme de dilution est négative pour l'AgNS1. Aucune dilution n'a donc été sélectionnée comme CIQ. Matrice utilisée = sérum de veau foetal (SVF) Quatre dilutions faites à partir du même pool de sérums AgNS1 positifs que précédemment, ont été analysées. Le volume total de chaque dilution est 5mL. Tableau 15. Gamme de dilution du pool AgNS1 en SVF (coffret Lot 3M0033 Exp 30/05/2015) Dilution Pool AgNS1+ SVF Valeur de la Ratio Interprétation DO 1/10 500μL 4500μL 5,06 6,33 Positif 1/20 250μL 4750μL 3,02 3,78 Positif 1/40 125μL 4875μL 2,97 3,72 Positif 1/100 50μL 4950μL 0,92 1,15 Positif La dilution au 1/100 a été sélectionnée (CIQ AgNS1 n°3). La répétabilité a été évaluée le jour même, sans congélation préalable (Tableau 16). Tableau 16. Répétabilité du CIQ AgNS1 n°3 sur 30 valeurs (coffret Lot 3M0033 Exp 30/05/2015) Valeurs de la DO Ratio Valeurs de la DO Ratio 1,07 1,36 0,98 1,25 1,05 1,34 0,96 1,23 1,05 1,33 1,08 1,37 0,89 1,13 0,91 1,16 0,89 1,13 1,09 1,39 0,95 1,21 0,99 1,25 1,16 1,47 0,94 1,20 105 1,08 1,38 0,92 1,18 1,47 1,86 0,94 1,20 1,33 1,70 0,85 1,08 1,30 1,65 0,86 1,10 0,92 1,17 0,91 1,16 0,89 1,13 0,99 1,26 0,89 1,13 0,94 1,19 0,91 1,16 1,02 1,30 Le CV obtenu de 14% (avec une moyenne de 1,28 et un écart-type de 0,18) est bien supérieur au CV du fournisseur pour un échantillon faiblement positif (CV fournisseur = 6,2%, cf. Tableau 11). Après cette constatation, nous avons voulu comparer les CV pour la répétabilité en fonction du degré de positivité du CIQ. Pour cela, nous avons évalué la répétabilité pour la dilution au 1/20, correspondant à un échantillon moyennement positif (cf. tableau 15). Tableau 17. Répétabilité d'un échantillon moyennement positif sur 30 valeurs (coffret Lot 3M0033 Exp 30/05/2015) Valeur de la DO Ratio Valeur de la DO Ratio 4,13 5,79 3,98 5,58 4,22 5,91 4,16 5,83 4,18 5,86 4,06 5,68 3,88 5,44 4,18 5,86 3,92 5,50 4,16 5,83 4,00 5,61 4,03 5,64 3,98 5,58 4,25 5,95 3,90 5,46 3,79 5,32 3,95 5,54 3,97 5,57 4,04 5,67 4,00 5,61 4,02 5,63 4,14 5,80 4,16 5,83 4,04 5,66 106 4,04 5,66 4,12 5,77 4,12 5,78 3,87 5,42 3,99 5,59 4,16 5,83 Le CV obtenu de 2,8% (avec une moyenne de 5,67 et un écart-type de 0,16), est bien inférieur au CV du fournisseur pour un échantillon moyennement positif (CV fournisseur = 7,7%, cf. Tableau 11). Au vu de ces résultats, il apparaît que plus la valeur du CIQ se rapproche de la valeur seuil, plus le CV augmente. Le CIQ AgNS1 n°3 a ensuite été réparti dans des aliquotes à usage unique, à raison de 100μL par aliquote, et congelé à -80°C. Les résultats de reproductibilité sont répertoriés dans le tableau 18. Tableau 18. Reproductibilité du CIQ AgNS1 n°3 sur 25 valeurs (coffret 3M0033 Exp 30/05/15) Date Valeur de la DO Ratio Interprétation 01/07/14 0,65 1,14 Positif 08/07/14 0,77 1,27 Positif 23/07/14 0,45 0,83 Douteux 29/07/14 0,89 1,17 Positif 05/08/14 0,98 1,44 Positif 12/08/14 0,97 1,75 Positif 18/08/14 1,04 1,27 Positif 26/08/14 0,72 1,50 Positif 02/09/14 0,85 1,65 Positif 08/09/14 0,64 1,56 Positif 15/09/14 0,68 1,58 Positif 23/09/14 0,61 1,42 Positif 29/09/14 0,82 1,34 Positif 107 06/10/14 0,76 1,37 Positif 13/10/14 0,99 1,66 Positif 20/10/14 0,85 1,25 Positif 03/11/14 1,07 1,96 Positif 10/11/14 0,62 1,57 Positif 18/11/14 1,09 2,12 Positif 24/11/14 0,89 1,98 Positif 03/12/14 1,16 2,23 Positif 08/12/14 0,92 1,64 Positif 16/12/14 0,84 1,56 Positif 06/01/15 1,21 1,70 Positif 13/01/15 0,56 1,53 Positif Mise à part une valeur classée en douteuse, l'ensemble des valeurs (étendue des ratios de 0,83 à 2,23) du CIQ AgNS1 n°3 correspondent à des positifs faibles. Le CV reste cependant élevé, à 20,8% (avec une moyenne de 1,54 et un écart-type de 0,32). b- CIQ pour les anticorps IgM de la dengue Matrice utilisée = PBS L'échantillon pur du pool de sérums positifs pour les IgM anti-dengue ainsi que les dilutions au 1/10, 1/20, 1/40, 1/80, 1/320 et au 1/640 du pool dans du PBS ont été analysées (Tableau 19). Tableau 19. Gamme de dilution du pool IgM en PBS (coffret Lot 12226 Exp 02/2014) Dilution Valeur de la DO Taux Interprétation 1/10 3,46 7,27 Positif 108 1/20 2,99 6,28 Positif 1/40 2,32 4,88 Positif 1/80 1,86 3,91 Positif 1/320 1,44 3,02 Positif 1/640 1,01 1,76 Positif Pur x x X La dilution au 1/640 a donc été choisie (CIQ IgM n°1) comme valeur optimale de CIQ faiblement positif (ratio = 1,76 pour une valeur seuil à 1,1). Cette dilution a été répartie dans des aliquotes à usage unique, soit 60 aliquotes contenant chacun 150μL de la dilution au 1/640 (prise d'essai pour un test sérologique IgM anti-dengue = 10μL dilué au 1/100e). Ces aliquotes ont ensuite été congelées à -80°C. Les résultats de reproductibilité du CIQ IgM n°1 sont répertoriés dans le tableau 20. Tableau 20. Reproductibilité du CIQ IgM n°1 sur 14 valeurs Date Valeur de la DO Taux 13/08/13 1,01 1,76 19/08/13 0,796 1,53 29/08/13 0,88 1,56 05/09/13 0,74 1,52 12/09/13 1,12 1,89 16/09/13 0,90 1,52 23/09/13 0,70 1,62 26/09/13 1,14 2,04 30/09/13 0,80 1,50 08/10/13 0,34 0,70 11/10/13 0,33 0,77 14/10/13 0,32 0,76 18/10/13 0,32 0,80 22/10/13 0,30 0,69 Interprétation / Lot POSITIF Lot 12226 (exp 02/2014) NEGATIF Lot 12306 (exp 05/2014) 109 Les valeurs de reproductibilité pour les IgM anti-dengue du 13/08/13 au 30/09/13 inclus, réalisées sur le coffret Lot 12226, restent stables avec une moyenne de 1,66 et un CV de 11,44%. A partir du 08/10/13 (fin de l'ancien lot), un nouveau coffret Lot 12306 (exp 05/2014) a été utilisé. Les mesures effectuées avec ce nouveau lot, stables entre elles avec une moyenne de 0,74 et un CV de 5,7%, classaient cette fois-ci le CIQ IgM n°1 dans les « Négatifs ». Afin de déterminer si ces variations inter-lots étaient retrouvées pour les sérums des patients, sept d'entre eux testés avec le premier coffret ont été analysés avec le nouveau lot de coffret (Tableau 21). Tableau 21. Comparaison des taux d'IgM de la dengue de sept sérums de patients entre deux lots (Lot 12226 vs lot 12306) Sérums Lot 12226 Exp 02/2014 Lot 12306 Exp 05/2014 1 1,26 (p) 1,79 (p) 2 1,00 (e) 0,83 (n) 3 1,15 (p) 1,26 (p) 4 1,43 (p) 1,29 (p) 5 1,09 (e) 0,89 (n) 6 1,24 (p) 1,07 (e) 7 1,37 (p) 1,18 (p) (p) : positif (e) : équivoque (n) : négatif Nous n'observons pas de variations significatives, même si deux sérums sont passés de la classe « équivoque » à « négatif » et que l'un d'entre eux est passé de la classe « positif » à « équivoque ». Les résultats de répétabilité avec le 2ème lot sont répertoriés dans le tableau 22. 110 Tableau 22. Répétabilité du CIQ IgM n°1 sur 30 valeurs (coffret Lot 12306 exp 05/2014) Valeur de la DO Taux Valeur de la DO Taux 0,32 0 ,76 0,32 0,76 0,31 0,73 0,32 0,75 0,32 0,75 0,34 0,80 0,32 0,74 0,35 0,82 0,36 0,85 0,34 0,80 0,34 0,80 0,32 0,76 0,32 0,75 0,32 0,76 0,31 0,73 0,32 0,76 0,30 0,72 0,33 0,78 Le CV obtenu, avec une moyenne de 0,77 et un écart-type de 0,04, reste faible avec une valeur de 4,6%. Matrice utilisée = sérum de veau foetal (SVF) Cinq dilutions d'un pool IgM positif ont été effectuées avec du sérum de veau foetal (SVF) et analysées (Tableau 23). Tableau 23. Gamme de dilution du pool IgM en SVF (coffret Lot 246006 Exp 03-03-2015) Dilution Pool IgM + SVF Valeur de la DO Taux Interprétation 1/40 250 μL 9750 μL 0,63 1,97 Positif 1/80 125 μL 9875 μL 0,34 1,07 Taux limite 1/160 62,5 μL 9937,5 μL 0,19 0,59 Négatif 1/320 31,3 μL 9968,7 μL 0,12 0,38 Négatif 1/640 15,6 μL 9984,4 μL 0,10 0,30 Négatif La dilution au 1/40 a donc été choisie comme CIQ positif faible (CIQ IgM n°2) 111 Les résultats de répétabilité sont répertoriés dans le tableau 24. Tableau 24. Répétabilité du CIQ IgM n°2 en SVF sur 28 valeurs (coffret Lot 246006 Exp 03-03-2015) Valeur de la DO Taux Valeur de la DO Taux 0,98 2,22 0,92 2,07 0,91 2,05 0,93 2,11 1,01 2,29 0,98 2,22 0,91 2,07 0,98 2,22 0,91 2,06 0,94 2,13 0,86 1,96 0,90 2,03 0,94 2,12 0,97 2,19 0,95 2,16 0,88 2,00 0,97 2,19 0,94 2,13 0,99 2,24 0,89 2,01 0,96 2,18 0,95 2,15 0,85 1,93 0,95 2,15 0,91 2,07 0,94 2,13 0,92 2,08 0,90 2,04 Le CV obtenu pour des valeurs faiblement positives (avec une moyenne de 2,11 et un écart-type de 0,09) est de 4%. Les résultats de reproductibilité sont répertoriés dans le tableau 25. Tableau 25. Reproductibilité du CIQ IgM n°2 en SVF sur 19 valeurs (coffret Lot 246006 Exp 03-03-2015 du 26/08/14 au 08/12/14, coffret Lot 246009 Exp 18-08-2015 du 16/12/14 au 13/01/15) Date Valeur de la DO Taux Interprétation 26/08/14 1,00 2,23 Positif 02/09/14 0,84 1,96 Positif 05/09/14 0,79 1,81 Positif 112 08/09/14 0,68 1,62 Positif 15/09/14 0,84 2,17 Positif 23/09/14 0,84 1,82 Positif 29/09/14 0,78 1,86 Positif 06/10/14 0,73 1,81 Positif 13/10/14 0,82 1,97 Positif 20/10/14 0,71 1,57 Positif 03/11/14 0,95 1,74 Positif 10/11/14 0,80 1,96 Positif 18/11/14 0,83 2,17 Positif 24/11/14 0,62 1,70 Positif 03/12/14 0,66 1,54 Positif 08/12/14 0,93 1,96 Positif 16/12/14 0,92 1,89 Positif 06/01/15 1,13 2,56 Positif 13/01/15 1,24 2,32 Positif L'ensemble des valeurs du CIQ IgM n°2 correspond à des positifs faibles. Le CV reste toutefois élevé à 13,8 % (avec une moyenne à 1,93 et un écart-type à 0,26). C - Discussion Pour être en mesure de valider techniquement puis biologiquement les séries d'analyses de sérums de patients pour le diagnostic biologique de la dengue, les examens réalisés, notamment la détection de l'antigène NS1 et la sérologie IgM antidengue, doivent comporter des contrôles internes de qualité, qui permettront de suivre au long cours la stabilité de la technique. Parmi les trois matrices utilisées, la seule ayant abouti à des résultats de répétabilité et de reproductibilité stables dans le temps est le sérum de veau foetal. Cette matrice 113 présente deux avantages essentiels. Tout d'abord, sa composition qui est similaire au sérum humain, notamment par sa teneur élevée en protéines, et également le fait qu'elle ne possède pas d'anticorps anti-dengue pouvant interférer avec l'antigène contenu dans le pool de sérum positif. Les CV de répétabilité (14% pour l'AgNS1 et 4% pour les IgM), et de reproductibilité (20,8% pour l'AgNS1 et 13,8% pour les IgM) pour des valeurs de CIQ proches de la valeur seuil restent acceptables pour des méthodes semi-quantitatives, le but étant de conserver une valeur positive faible pour le CIQ à chaque série de patients. Cette étude a permis de valider cette matrice pour l'élaboration de CIQ pour l'antigène NS1 et les anticorps IgM anti-dengue. Les fiches de validation de méthode de type quantitative (SH-FORM-43 du COFRAC) n'ont pu être que partiellement complétées grâce aux informations et données recueillies durant cette étude, certains paramètres n'ayant pas pu être étudiés (figures 35 et 36 en annexe). L'une des difficultés rencontrées lors de cette étude vient du fait qu'il s'agit de techniques semi-quantitatives. Les CIQ ne sont donc pas considérés comme des échantillons « titrés » ; ils doivent dans la mesure du possible être proches de la valeur seuil, sans pour autant changer de catégorie d'une série à une autre (positif, négatif ou douteux/équivoque). L'objectif de ces CIQ voisins du seuil de positivité est d'avoir une idée des variations éventuelles de sensibilité de la méthode. L'autre difficulté rencontrée concerne la nature de la matrice utilisée pour la dilution des pools de sérums positifs pour l'antigène NS1 et positifs pour les IgM antidengue. Durant les différentes étapes de l'étude, il faut évidemment éviter de 114 dénaturer la protéine que l'on veut détecter, que ce soit l'antigène NS1 ou les anticorps IgM anti-dengue. Il faut donc utiliser des milieux dont les caractéristiques sont compatibles avec la stabilité des protéines (pH, force ionique, osmolarité, sels, antioxydants). La première matrice utilisée (PBS = Phosphate Buffered Saline), solution saline tamponnée en phosphate, est un soluté physiologique constitué de chlorure de sodium, de phosphate disodique et de phosphate monopotassique. Son pH est de 7,2 et l'osmolarité de la somme de toutes ses composantes est de 315 mOs. Bien que le PBS présente de nombreux avantages, les résultats concernant l'antigène NS1 ne sont pas concluants. En effet, la répétabilité et la reproductibilité pour l'antigène NS1, après dilution dans du PBS et conservation à -80°C, donnent des valeurs en densité optique et en ratio beaucoup plus élevées que la première détermination (analyse d'une dilution faite extemporanément dans du PBS). L'un des problèmes soulevés par ces résultats est la différence de composition entre le PBS et le sérum humain (échantillons patients). Dans la mesure du possible, la matrice utilisée pour les contrôles de qualité doit être la plus proche possible des échantillons de patients, soit du sérum humain. Le PBS étant dépourvu de protéine et de substance lipidique, la stabilité de l'antigène NS1 en est probablement affectée. La dilution dans du PBS pourrait dévoiler d'autres épitopes sur l'antigène NS1, augmentant ainsi la densité optique du CIQ. La deuxième matrice (sérum humain négatif pour l'AgNS1) utilisée uniquement pour l'élaboration du CIQ Ag NS1, n'a pas donné de résultats plus concluants, l'ensemble 115 des dilutions effectuées s'étant révélées négatives. Nous en avons déduit qu'une ou plusieurs personnes prélevées pour la réalisation du SHN avaient déjà contracté la dengue et donc présentaient dans son sérum des anticorps IgM et/ou IgG anti-NS1 ayant neutralisé l'antigène NS1 contenu dans le pool (en correspondance avec la prévalence élevée en Guadeloupe de patients avec des IgG anti-dengue). Pour utiliser une matrice humaine, les personnes prélevées devraient donc remplir une condition indispensable : ne jamais avoir été en contact avec les virus de la dengue. En pratique, en zone endémo-épidémique, cette condition difficile à remplir ne permettrait pas de réunir suffisamment de sérums pour valider un volume de CIQ utilisable sur plusieurs années. En ce qui concerne les IgM, les premières valeurs de la reproductibilité des dilutions dans du PBS (après congélation) ne varient pas par rapport à la première détermination (dilution extemporanée dans du PBS). C'est le changement de lot à la dixième valeur de reproductibilité qui provoque un changement de catégorie du CIQ, le faisant passer de positif à négatif. Par contre, ce changement de lot ne semble pas affecter significativement les échantillons de patients. Plusieurs causes peuvent être à l'origine de ces résultats : problème de conservation des CIQ, défectuosité du nouveau lot, instabilité des aliquotes de CIQ IgM anti-dengue due à la nature de la matrice (très différente de la matrice des échantillons patients). De cette étude, nous pouvons conclure que le sérum de veau foetal semble être une alternative de choix pour l'élaboration de contrôles internes de qualité. 116 IV – CONCLUSION Le diagnostic biologique de la dengue doit s'envisager dans une région géographique donnée en fonction de la situation épidémiologique (zone endémoépidémique ou risque d'émergence), et du contexte clinique (cas suspect de forme sévère, patients à risque). En fonction de la disponibilité des tests et de la spécialisation du laboratoire (CNR, laboratoires d'analyses de biologie médicale), le diagnostic peut être entrepris par culture virale, détection du génome virale par RTPCR, détection de l'antigène NS1 et/ou recherche des anticorps spécifiques de la dengue. Les RT-PCR conventionnelles sont amenées à être progressivement remplacées par les RT-PCR en temps réel, plus rapide et limitant le risque de contamination. Cependant, le manque de standardisation et le coût élevé de ces techniques limitent encore leur utilisation en pratique courante. De nombreux laboratoires continueront d'utiliser la détection de l'antigène NS1 ainsi que les techniques sérologiques comme principal outil diagnostic. L'élaboration de contrôles internes de qualité pour ces méthodes est donc indispensable pour améliorer le diagnostic et la prise en charge des patients. Même si les avancées actuelles dans le développement et la commercialisation d'un vaccin tétravalent laissent espérer un meilleur contrôle de la dengue dans les années à venir, l'annonce de la découverte d'un cinquième sérotype de la dengue faite à Bangkok lors de la 3ème conférence internationale sur la dengue en octobre 2013 pourrait rendre le développement d'un vaccin encore plus difficile [153]. 117 V – ANNEXES Tableau 1. Principaux arbovirus pathogènes pour l'homme [17] 118 Figure 18. Fiche de renseignements pour le diagnostic biologique de la dengue 119 Figure 33. Place des différents tests de diagnostic biologique de la dengue, indépendamment de la zone géographique [130] 120 Figure 35. Fiche de validation de la méthode de détection de l'Ag NS1 de la dengue Note : le laboratoire se réfèrera au tableau du § 9.1.1 du Document Cofrac SH GTA 04 pour connaître les paramètres à déterminer dans le cadre d'une vérification sur site (portée A) ou d'une validation (portée B) et complètera une fiche par examen de biologie médicale EXAMEN DE BIOLOGIE MEDICALE : Antigène NS1 de la dengue DESCRIPTION DE LA METHODE Analyte/Mesurande : Principe de la Mesure : Méthode de mesure : Type d'échantillon primaire (urine, sang, ) : Type de récipient, Additifs (tubes, ) : Prétraitement de l'échantillon (centrifugation, dilution, ) : Unités : 1 Intervalles de référence : Marquage CE (Oui/Non) : Codage C.N.Q. (s'il existe) : Instrument (analyseur automatique, etc.) : Référence du réactif (référence fournisseur, version notice) : Matériau d'étalonnage (références)/ Raccordement métrologique : Type d'étalonnage, nombre de niveaux et valeurs : 1 Réactivité d'un anticorps monoclonal avec la protéine NS1 des virus de la dengue Technique immuno-enzymatique en une étape de type sandwich, en format microplaque, pour la détection qualitative ou semi-quantitative de l'antigène NS1 du virus de la dengue dans le sérum ou le plasma humain. Les cupules des microplaques sont sensibilisées par des anticorps monoclonaux de souris AcM anti-protéine NS1. Les sérums à tester sont incubés en même temps que des anticorps AcM marqués à une peroxydase. Une réaction de type sandwich AcM marqué-AgNS1-AcM sur microplaque se produira. Après lavages, le substrat de la peroxydase sera ajouté produisant une couleur bleue. La solution acide d'arrêt de la réaction fera passer la coloration du bleu au jaune. La DO (densité optique) sera déterminée par un spectrophotomètre à 450/620nm. Le ratio DO échantillon/DO moyenne des calibrateurs permettra de donner un résultat positif, équivoque ou négatif. Sérum Tube sec avec ou sans gel séparateur Centrifugation après coagulation spontanée 2200g, 10min Ratio <0,5 négatif ; ≥1 positif ; sinon équivoque Oui fiche technique code 881040 NA Méthode manuelle : Pipette de précision Biorad® 72830 notice v 12/2008 Calibrateur sérum albumine bovine avec antigène NS1 CO = DO moyenne des calibrateurs > 0,2 Ratio DO témoin positif /CO > 1,5 Ratio DO témoin négatif /CO < 0,4 Indiquer les valeurs de référence si différentes en fonction de l'anticoagulant. Tenir compte du sexe, âge 121 MISE EN OEUVRE Opérateur(s) habilité(s) ayant réalisé la vérification de méthode : Procédure de validation : Procédure de gestion de la portée flexible : Période d'évaluation : Date de mise en service : Autorisation de mise en service par : Technicienne référent du poste de sérologie microbiologie Quantitative Portée A Juillet 2014 - septembre 2015 Année 2008 (commercialisation) Chef de service 122 MAITRISE DES RISQUES Données d'entrée Points critiques à maîtriser Modalités de maîtrise Type d'échantillon primaire (urine, sang, Type de récipient (tubes, ), Additifs : Sérum tube sec Quantité suffisante Catalogue des analyses consultables sur le site intranet par les préleveurs Vérification à la réception Prétraitement de l'échantillon (centrifugation, dilution, ) : Centrifugation à 2200g pendant 10min, après coagulation spontanée, décantation dans les 4h, aliquotage et conservation à -80°C Poolage puis dilution du pool au 1/100 dans du sérum de veau foetal Programme de centrifugation Main d'oeuvre (habilitation du personnel) : Préciser les références des procédures et enregistrements. Conditions ambiantes requises (ex : Température, organisation des locaux, éclairage,) : Référence du réactif (référence fournisseur, version) : Matériau de référence : Equipements : Exigences métrologiques* (définir les paramètres critiques) Exigences informatiques* spécifiques * item à renseigner si nécessaire Habilitation au poste de sérologie niveau 1 incluant les sérologies dengue et l'AgNS1 étendue à 4 techniciennes Température ambiante entre 20 et 28°C Surveillance centralisée par le service biomédical Aucun Vérification de la date de péremption et de la date limite d'utilisation après ouverture CIQ pool de sérum Un niveau dans la zone positif faible NA Pipettes 50μL et 1000μL Spectrophotomètre Vérification annuelle Calibration Platelia TM Dengue NS1 Ag Biorad Ref 72830 V 12/2008 123 EVALUATION DES PERFORMANCES DE LA METHODE Préciser le type et référence d'échantillon (échantillon contrôle, pool de sérum, ) : Répétabilité: Echantillons Nombre Ecart- CV CV (%) Moyenne2 type (%) fournisseur (N) Echantillon Positif faible 30 1,28 0,18 14 6,2* CV (%) limite (hors Conclusion4 3 fournisseurs ) Non NA conforme *CV niveau faible positif de moyenne 1,32 Conclusions : CIQ non conforme aux données fournisseurs. Ces résultats sont à mettre en relation avec le type de technique (semi-quantitative). Toutes les valeurs de répétabilité restent dans la zone des positifs faibles, ce qui nous permet de valider ce CIQ. Fidélité intermédiaire : Echantillons Echantillon Positif faible Nombre EcartMoyenne2 type (N) 25 1,54 0,32 CV (%) CV (%) fournisseur 20,8 17,8* CV (%) limite (hors Conclusion4 fournisseurs3) NA Conforme *CV niveau faible positif de moyenne 1,17 Conclusions : Conforme aux données fournisseurs Justesse (approche de la) : Cas des contrôles internes externalisés Echantillons Nombre (N) Echantillon CIQ niveau 1 NA Echantillon CIQ niveau 2 NA Valeurs 2 Labo Cible (groupe de pairs) Moyenne générale (toutes techniques) Biais (%) /groupe de pairs Biais (%) /moyenne générale Biais (%) 3 limite Conclusion Conclusions : Impossible à l'heure actuelle, dans l'attente d'un CIQ externalisé avec le laboratoire de l'Institut Pasteur de Cayenne. 2 Nombre de chiffres significatifs 3 Sociétés savantes, publications (SFBC, GEHT, RICOS, QUALAB, CLIA). Préciser la référence utilisée. 4 Conforme/non conforme 124 4 Exactitude : Cas des contrôles externes ponctuels Echantillons Nombre (N) Valeur 5 Labo Cible (groupe de pairs) Moyenne générale (toutes techniques) Biais (%) /groupe de pairs Biais (%) /moyenne générale Biais (%) 6 limite Conclusion Echantillon CQN Echantillon ponct xy Echantillon ponct zy Conclusions : INCERTITUDES (niveaux, choix du mode de calcul, interprétation) : Mode de calcul (cf. SH GTA 14) : Quantification de l'incertitude (niveau 1) : Quantification de l'incertitude (niveau 2) : Interprétation : Conclusions : COMPARAISON DE METHODES : Données bibliographiques (fournisseurs, publications,) : Méthode précédente, autre méthode utilisée dans le laboratoire, appareil en miroir ou EBMD : Nombre de mesures : Intervalle de comparaison adaptée à l'activité du laboratoire : Méthode d'exploitation des résultats : Equation de la droite de régression : Diagramme des différences et/ou des rapports : 7 Conclusions et dispositions : 5 Nombre de chiffres significatifs 6 Sociétés savantes, publications (SFBC, GEHT, RICOS, QUALAB, CLIA). Préciser la référence utilisée. 7 Le laboratoire précise les dispositions mises en oeuvre (par exemple : utilisation transitoire et documentée d'un facteur de correction). 125 INTERVALLE DE MESURE (indispensable en portée B) (si possible et pertinent, ex : troponine, micro albumine, plaquettes, PSA, TSH) : Mode de détermination : Limite inférieure de linéarité (de quantification)/ Profil de fidélité : Limite supérieure de linéarité : INTERFERENCES (ex : Hémolyse, turbidité, bilirubine, médicaments - à prendre en compte dans les facteurs de variabilité - à évaluer si nécessaire) : Vérification bibliographique : Vérification : CONTAMINATION (indispensable en portée B et pour les paramètres sensibles en portée A) Inter échantillon pour les paramètres sensibles (par exemple Ag HBS, HCG) : Inter réactif si nécessaire (par exemple : LDH et ALAT, cholestérol et phosphate, lipase et triglycérides) : Vérification bibliographique : Vérification : Commentaires éventuels : 126 Figure 36. Fiche de validation de la méthode de détection des anticorps IgM de la dengue Note : le laboratoire se réfèrera au tableau du § 9.1.1 du Document Cofrac SH GTA 04 pour connaître les paramètres à déterminer dans le cadre d'une vérification sur site (portée A) ou d'une validation (portée B) et complètera une fiche par examen de biologie médicale EXAMEN DE BIOLOGIE MEDICALE : Anticorps IgM Dengue DESCRIPTION DE LA METHODE Analyte/Mesurande : Principe de la Mesure : Méthode de mesure : Type d'échantillon primaire (urine, sang, ) : Type de récipient, Additifs (tubes, ) : Prétraitement de l'échantillon (centrifugation, dilution, ) : Unités : 8 Intervalles de référence : Marquage CE (Oui/Non) : Codage C.N.Q. (s'il existe) : Instrument (analyseur automatique, etc.) : Référence du réactif (référence fournisseur, version notice) : Matériau d'étalonnage (références)/ Raccordement métrologique : Type d'étalonnage, nombre de niveaux et valeurs : 8 Réactivité d'un pool concentré d'antigènes de la dengue avec les anticorps IgM spécifique de la dengue Technique immuno-enzymatique ELISA de type capture, pour la détection qualitative des anticorps IgM dirigés contre l'antigène de la dengue dans le sérum. Les anticorps IgM spécifiques de la dengue, s'ils sont présents dans le sérum, se fixent sur les IgM antihumains fixés à la surface en polystyrène des bandelettes de test des micropuits. Un pool concentré d'antigènes de la dengue des sérogroupes 1 à 4, mélangé à volume égal avec des anticorps monoclonaux conjugués à de la HRP (complexes antigènes-anticorps monoclonaux) est ensuite ajouté à la plaque d'analyse. Après lavages, l'ajout du substrat produira une couleur bleue, puis jaune après ajout de la solution acide d'arrêt. La DO (densité optique) sera déterminée par un spectrophotomètre à 450/620nm. La valeur index, égale au ratio DO échantillon/valeur seuil, donnera un résultat positif, équivoque ou négatif Sérum Tube sec avec ou sans gel séparateur Coagulation à température ambiante (20-25°C) puis centrifugation 2500tr/10min, et décantation dès que possible Valeur d'index ou unités Panbio <0,9 négatif ; >1,1 positif ; sinon Equivoque Oui NA Méthode manuelle : pipette de précision Panbio® Cat.No. 01PE20/01PE21 Rev.1 2013/12 Calibrateur sérum humain Valeur seuil = Absorbance moyenne du calibrateur x facteur d'étalonnage (propre à chaque lot) Valeur d'index = absorbance de l'échantillon / valeur seuil Unités Panbio = valeur d'index x 10 Indiquer les valeurs de référence si différentes en fonction de l'anticoagulant. Tenir compte du sexe, âge 127 MISE EN OEUVRE Opérateur(s) habilité(s) ayant réalisé la vérification de méthode : Procédure de validation : Procédure de gestion de la portée flexible : Période d'évaluation : Date de mise en service : Autorisation de mise en service par : Technicienne référent du poste de sérologie microbiologie Quantitative (Semi-quantitative) Portée A Juillet 2014 - Septembre 2015 Chef de service 128 MAITRISE DES RISQUES Données d'entrée Points critiques à maîtriser Modalités de maîtrise Type d'échantillon primaire (urine, sang, Type de récipient (tubes, ), Additifs : Sérum Tube sec avec ou sans gel séparateur Quantité suffisante Catalogue des analyses consultables sur le site intranet par les préleveurs Vérification à la réception Prétraitement de l'échantillon (centrifugation, dilution, ) : Coagulation à T°C ambiante Centrifugation 2500tr/10min Décantation puis poolage Dilution au dans du sérum de veau foetal Dilution au 1/100 dans du diluant échantillon Programme de centrifugation Formulaire d'habilitation FO/PBIO/0099/01/2012 Habilitation au poste de sérologie niveau 1 incluant les sérologies dengue et l'AgNS1 étendue à 4 techniciennes Température ambiante entre 20 et 25°C Vérification quotidienne Main d'oeuvre (habilitation du personnel) : Préciser les références des procédures et enregistrements. Conditions ambiantes requises (ex : Température, organisation des locaux, éclairage,) : Référence du réactif (référence fournisseur, version) : Matériau de référence : Equipements : Exigences métrologiques* (définir les paramètres critiques) Exigences informatiques* spécifiques * item à renseigner si nécessaire Aucun Vérification de la date de péremption et de la date limite d'utilisation après ouverture CIQ pool de sérum Un niveau dans la zone positif faible NA Pipettes 50μL et 1000μL Spectrophotomètre Vérification annuelle Calibration Panbio Dengue IgM Capture ELISA Cat. No. 01PE20/01PE21 Rev.1 2013/12 129 EVALUATION DES PERFORMANCES DE LA METHODE Préciser le type et référence d'échantillon (échantillon contrôle, pool de sérum, ) : Répétabilité: Echantillons Nombre Ecart- CV CV (%) Moyenne9 type (%) fournisseur (N) Echantillon positif faible 28 2,11 0,09 4 CV (%) limite (hors Conclusion11 10 fournisseurs ) 4,3* NA Conforme *CV pour un échantillon positif de moyenne 2,87 Conclusions : Conforme aux données fournisseurs Fidélité intermédiaire : Echantillons Nombre EcartMoyenne2 type (N) Echantillon positif faible 19 1,93 0,26 CV (%) CV (%) fournisseur CV (%) limite (hors Conclusion4 fournisseurs3) InterInter-lots 13,8* jours 1,9/1,7** 5,4/21,6** NA Conforme *CV moyen (inter-jours et inter-lots) **CV pour un échantillon positif de moyenne 1,33/2,87 Conclusions : Conforme aux données fournisseurs Justesse (approche de la) : Cas des contrôles internes externalisés Echantillons Nombre (N) Echantillon CIQ niveau 1 NA Echantillon CIQ niveau 2 NA Valeurs 2 Labo Cible (groupe de pairs) Moyenne générale (toutes techniques) Biais (%) /groupe de pairs Biais (%) /moyenne générale Biais (%) 3 limite Conclusion Conclusions : 9 Nombre de chiffres significatifs 10 Sociétés savantes, publications (SFBC, GEHT, RICOS, QUALAB, CLIA). Préciser la référence utilisée. 11 Conforme/non conforme 130 4 Exactitude : Cas des contrôles externes ponctuels Echantillons Nombre (N) Valeur 12 Labo Cible (groupe de pairs) Moyenne générale (toutes techniques) Biais (%) /groupe de pairs Biais (%) /moyenne générale Biais (%) 13 limite Conclusion Echantillon CQN Echantillon ponct xy Echantillon ponct zy Conclusions : INCERTITUDES (niveaux, choix du mode de calcul, interprétation) : Mode de calcul (cf. SH GTA 14) : Quantification de l'incertitude (niveau 1) : Quantification de l'incertitude (niveau 2) : Interprétation : Conclusions : COMPARAISON DE METHODES : Données bibliographiques (fournisseurs, publications,) : Méthode précédente, autre méthode utilisée dans le laboratoire, appareil en miroir ou EBMD : Nombre de mesures : Intervalle de comparaison adaptée à l'activité du laboratoire : Méthode d'exploitation des résultats : Equation de la droite de régression : Diagramme des différences et/ou des rapports : 14 Conclusions et dispositions : 12 Nombre de chiffres significatifs 13 Sociétés savantes, publications (SFBC, GEHT, RICOS, QUALAB, CLIA). Préciser la référence utilisée. 14 Le laboratoire précise les dispositions mises en oeuvre (par exemple : utilisation transitoire et documentée d'un facteur de correction). 131 INTERVALLE DE MESURE (indispensable en portée B) (si possible et pertinent, ex : troponine, micro albumine, plaquettes, PSA, TSH) : Mode de détermination : Limite inférieure de linéarité (de quantification)/ Profil de fidélité : Limite supérieure de linéarité : INTERFERENCES (ex : Hémolyse, turbidité, bilirubine, médicaments - à prendre en compte dans les facteurs de variabilité - à évaluer si nécessaire) : Vérification bibliographique : Vérification : CONTAMINATION (indispensable en portée B et pour les paramètres sensibles en portée A) Inter échantillon pour les paramètres sensibles (par exemple Ag HBS, HCG) : Inter réactif si nécessaire (par exemple : LDH et ALAT, cholestérol et phosphate, lipase et triglycérides) : Vérification bibliographique : Vérification : Commentaires éventuels : 132 VI – REFERENCES BIBLIOGRAPHIQUES 1. OMS. Dengue et dengue hémorragique [Internet]. WHO. 2014. Disponible sur: http://www.who.int/mediacentre/factsheets/fs117/fr/ 2. Cassadou, Gustave, Fauré, Chaud, Yébakima. Programme de surveillance, d'alerte et de gestion des épidémies de dengue en Guadeloupe continentale et îles proches. Institut de veille sanitaire. 2007. 3. Musso V-MC-L. Diagnostic biologique de la dengue. Rev Francoph Lab. 2012;2012(447):53‐62. 4. Gubler DJ, Clark GG. Dengue/dengue hemorrhagic fever: the emergence of a global health problem. Emerg Infect Dis. juin 1995;1(2):55‐7. 5. Sabin AB. Research on Dengue during World War II. Am J Trop Med Hyg. 1 janv 1952;1(1):30‐50. 6. Hammon WM, Rudnick A, Sather GE. Viruses associated with epidemic hemorrhagic fevers of the Philippines and Thailand. Science. 15 avr 1960;131(3407):1102‐3. 7. Gubler DJ. COMMENTARY: Ashburn PM, Craig CF. Experimental Investigations Regarding the Etiology of Dengue. J Infect Dis 1907; 4:440–75. J Infect Dis. 5 janv 2004;189(9):1744‐83. 8. Morens DM, Venkateshan CN, Halstead SB. Dengue 4 virus monoclonal antibodies identify epitopes that mediate immune infection enhancement of dengue 2 viruses. J Gen Virol. janv 1987;68 ( Pt 1):91‐8. 9. Meltzer MI, Rigau-Pérez JG, Clark GG, Reiter P, Gubler DJ. Using disabilityadjusted life years to assess the economic impact of dengue in Puerto Rico: 1984-1994. Am J Trop Med Hyg. août 1998;59(2):265‐71. 10. Pinheiro FP, Corber SJ. Global situation of dengue and dengue haemorrhagic fever, and its emergence in the Americas. World Health Stat Q Rapp Trimest Stat Sanit Mond. 1997;50(3-4):161‐9. 133 11. Cire Antilles Guyane. Spécial dengue aux Antilles : bilan des épidémies de 2010. 2011. 12. InVS. Dengue : les contextes épidémiologiques [Internet]. 2011. Disponible sur: http://www.invs.sante.fr/Dossiers-thematiques/Maladies-infectieuses/Maladiesa-transmission-vectorielle/Dengue/Les-contextes-epidemiologiques 13. InVS. Chikungunya et dengue - Données de la surveillance renforcée en France métropolitaine en 2014 [Internet]. 2014. Disponible sur: http://www.invs.sante.fr/Dossiers-thematiques/Maladies-infectieuses/Maladiesa-transmission-vectorielle/Chikungunya/Donnees-epidemiologiques/Francemetropolitaine/Chikungunya-et-dengue-Donnees-de-la-surveillance-renforceeen-France-metropolitaine-en-2014 14. InVS. Bilan épidémiologique Dengue Monde [Internet]. 2012. Disponible sur: http://www.gesundes-reisen.eu/datei?id=1052 15. ICTV Virus Taxonomy [Internet]. 2012. Disponible sur: http://www.ictvonline.org/virusTaxonomy.asp?version=2012 16. Modifié de Roby JA, Pijlman GP, Wilusz J, Khromykh AA. Noncoding Subgenomic Flavivirus RNA: Multiple Functions in West Nile Virus Pathogenesis and Modulation of Host Responses. Viruses. 27 janv 2014;6(2):404‐27. 17. Chippaux A. Généralités sur arbovirus et arboviroses. Médecine Mal Infect. 2003;33(8):377‐84. 18. Kuhn RJ, Zhang W, Rossmann MG, Pletnev SV, Corver J, Lenches E, et al. Structure of dengue virus: implications for flavivirus organization, maturation, and fusion. Cell. 8 mars 2002;108(5):717‐25. 19. Li L, Lok S-M, Yu I-M, Zhang Y, Kuhn RJ, Chen J, et al. The flavivirus precursor membrane-envelope protein complex: structure and maturation. Science. 28 mars 2008;319(5871):1830‐4. 20. Marianneau P. La dengue. Virologie. 19 juin 1998;2(3):199‐204. 134 21. Whitehead SS, Blaney JE, Durbin AP, Murphy BR. Prospects for a dengue virus vaccine. Nat Rev Microbiol. juill 2007;5(7):518‐28. 22. Wengler G, Czaya G, Färber PM, Hegemann JH. In vitro synthesis of West Nile virus proteins indicates that the amino-terminal segment of the NS3 protein contains the active centre of the protease which cleaves the viral polyprotein after multiple basic amino acids. J Gen Virol. avr 1991;72 ( Pt 4):851‐8. 23. Kuo MD, Chin C, Hsu SL, Shiao JY, Wang TM, Lin JH. Characterization of the NTPase activity of Japanese encephalitis virus NS3 protein. J Gen Virol. sept 1996;77 ( Pt 9):2077‐84. 24. Tan BH, Fu J, Sugrue RJ, Yap EH, Chan YC, Tan YH. Recombinant dengue type 1 virus NS5 protein expressed in Escherichia coli exhibits RNA-dependent RNA polymerase activity. Virology. 15 févr 1996;216(2):317‐25. 25. Kurosu T, Chaichana P, Yamate M, Anantapreecha S, Ikuta K. Secreted complement regulatory protein clusterin interacts with dengue virus nonstructural protein 1. Biochem Biophys Res Commun. 3 nov 2007;362(4):1051‐6. 26. Avirutnan P, Punyadee N, Noisakran S, Komoltri C, Thiemmeca S, Auethavornanan K, et al. Vascular leakage in severe dengue virus infections: a potential role for the nonstructural viral protein NS1 and complement. J Infect Dis. 15 avr 2006;193(8):1078‐88. 27. Chung KM, Liszewski MK, Nybakken G, Davis AE, Townsend RR, Fremont DH, et al. West Nile virus nonstructural protein NS1 inhibits complement activation by binding the regulatory protein factor H. Proc Natl Acad Sci U S A. 12 déc 2006;103(50):19111‐6. 28. Avirutnan P, Fuchs A, Hauhart RE, Somnuke P, Youn S, Diamond MS, et al. Antagonism of the complement component C4 by flavivirus nonstructural protein NS1. J Exp Med. 12 avr 2010;207(4):793‐806. 135 29. Halstead SB, O'Rourke EJ, Allison AC. Dengue viruses and mononuclear phagocytes. II. Identity of blood and tissue leukocytes supporting in vitro infection. J Exp Med. 7 janv 1977;146(1):218‐29. 30. Navarro‐Sanchez E, Altmeyer R, Amara A, Schwartz O, Fieschi F, Virelizier JL, et al. Dendritic‐cell‐specific ICAM3‐grabbing non‐integrin is essential for the productive infection of human dendritic cells by mosquito‐cell‐derived dengue viruses. EMBO Rep. 1 juill 2003;4(7):723‐8. 31. Stiasny K, Fritz R, Pangerl K, Heinz FX. Molecular mechanisms of flavivirus membrane fusion. Amino Acids. nov 2011;41(5):1159‐63. 32. Adapté de Samuel CE. Host genetic variability and West Nile virus susceptibility. Proc Natl Acad Sci U S A. 3 sept 2002;99(18):11555‐7. 33. Parida M, Horioke K, Ishida H, Dash PK, Saxena P, Jana AM, et al. Rapid detection and differentiation of dengue virus serotypes by a real-time reverse transcription-loop-mediated isothermal amplification assay. J Clin Microbiol. juin 2005;43(6):2895‐903. 34. Rodhain F. [The situation of dengue in the world]. Bull Société Pathol Exot 1990. 1996;89(2):87‐90. 35. Huang J-H, Liao T-L, Chang S-F, Su C-L, Chien L-J, Kuo Y-C, et al. Laboratory-based Dengue Surveillance in Taiwan, 2005: A Molecular Epidemiologic Study. Am J Trop Med Hyg. 11 janv 2007;77(5):903‐9. 36. Bancroft TL. On the aetiology of dengue fever. 1906;25:17‐8. 37. Cleland JB, Bradley B. Dengue Fever in Australia. J Hyg (Lond). janv 1918;16(4):317‐418. 38. Rogers DJ, Wilson AJ, Hay SI, Graham AJ. The global distribution of yellow fever and dengue. Adv Parasitol. 2006;62:181‐220. 39. Guillaumot L. Les moustiques et la dengue [internet]. 2005. Disponible sur : http://www.endemia.nc/pub/Moustiques.pdf 136 40. Gathany J. Details - Public Health Image Library (PHIL) [Internet]. 2006. Disponible sur: http://phil.cdc.gov/phil/details_linked.asp?pid=9261 41. Ménard B. Évolutions et expansion géographique de la dengue. Cah Détudes Rech Francoph Santé. 1 avr 2003;13(2):89‐94. 42. Bourbonnais. Les moustiques [internet]. 2013. Disponible sur : http://www.cegep-ste-foy.qc.ca/profs/gbourbonnais/entomo/11_moustique.pdf (Cégep de Sainte-Foy) 43. INPES Guyane. Dossier questions-réponses sur la dengue en Guyane établi par l'INPES, Document validé par la DGS, l'AFFSAPS, le SDD et la DSDS de la Guyane. 2006. 44. Aubert Marine. Illustration pour l'Institut Pasteur de Nouvelle-Calédonie [Internet]. 2012. Disponible sur: http://www.hygienepublique.gov.pf/IMG/pdf/memo_FR_version_compressee.pdf 45. Feraudet A. Aedes albopictus : actualités. Université de Paris-Sud. Faculté de pharmacie (Châtenay-Malabry, Hauts-de-Seine); 2013. 46. Direction Générale de la Santé. Surveillance du moustique exotique Aedes albopictus en France métropolitaine [Internet]. 2013. Disponible sur: http://www.ars.aquitaine.sante.fr 47. Centers for Disease Control and Prevention. 2012. Disponible sur: http://www.cdc.gov/dengue/resources/30Jan2012/comparisondenguevectors.p df 48. Tatem AJ, Rogers DJ, Hay SI. Global Transport Networks and Infectious Disease Spread. Adv Parasitol. 2006;62:293‐343. 49. Belkin JN. The mosquitoes of the South Pacific (Diptera, Culicidae). Univ Calif Press Berkeley Los Angel Calif. 1962;1:608. 50. Rodhain F, Rosen L. Mosquito vectors and dengue virus-vector relationships. Gubler DJ Kuno G Ed Dengue Dengue Haemorragic Fever N Y CAB Int. 1997;45‐60. 137 51. Black WC, Bennett KE, Gorrochótegui-Escalante N, Barillas-Mury CV, Fernández-Salas I, de Lourdes Muñoz M, et al. Flavivirus susceptibility in Aedes aegypti. Arch Med Res. août 2002;33(4):379‐88. 52. Woodring JL, Higgs S, Beaty BJ. Natural cycles of vector-borne pathogens. 1996;51‐72. 53. Rosen L, Roseboom LE, Gubler DJ, Lien JC, Chaniotis BN. Comparative susceptibility of mosquito species and strains to oral and parenteral infection with dengue and Japanese encephalitis viruses. Am J Trop Med Hyg. mai 1985;34(3):603‐15. 54. Khin MM, Than KA. Transovarial transmission of dengue 2 virus by Aedes aegypti in nature. Am J Trop Med Hyg. mai 1983;32(3):590‐4. 55. Hull B, Tikasingh E, de Souza M, Martinez R. Natural transovarial transmission of dengue 4 virus in Aedes aegypti in Trinidad. Am J Trop Med Hyg. nov 1984;33(6):1248‐50. 56. Joshi V, Singhi M, Chaudhary RC. Transovarial transmission of dengue 3 virus by Aedes aegypti. Trans R Soc Trop Med Hyg. déc 1996;90(6):643‐4. 57. Shroyer DA. Vertical maintenance of dengue-1 virus in sequential generations of Aedes albopictus. J Am Mosq Control Assoc. juin 1990;6(2):312‐4. 58. Joshi V, Mourya DT, Sharma RC. Persistence of dengue-3 virus through transovarial transmission passage in successive generations of Aedes aegypti mosquitoes. Am J Trop Med Hyg. août 2002;67(2):158‐61. 59. Vazeille M, Mousson L, Rakatoarivony I, Villeret R, Rodhain F, Duchemin JB, et al. Population genetic structure and competence as a vector for dengue type 2 virus of Aedes aegypti and Aedes albopictus from Madagascar. Am J Trop Med Hyg. nov 2001;65(5):491‐7. 60. Rosen L, Gubler D. The use of mosquitoes to detect and propagate dengue viruses. Am J Trop Med Hyg. nov 1974;23(6):1153‐60. 138 61. Halstead SB. Dengue virus-mosquito interactions. Annu Rev Entomol. 2008;53:273‐91. 62. Chen LH, Wilson ME. Nosocomial Dengue by Mucocutaneous Transmission. Emerg Infect Dis. mai 2005;11(5):775. 63. Basurko C, Carles G, Youssef M, Guindi WEL. Maternal and fetal consequences of dengue fever during pregnancy. Eur J Obstet Gynecol Reprod Biol. nov 2009;147(1):29‐32. 64. Barthel A, Gourinat A-C, Cazorla C, Joubert C, Dupont-Rouzeyrol M, Descloux E. Breast milk as a possible route of vertical transmission of dengue virus? Clin Infect Dis Off Publ Infect Dis Soc Am. août 2013;57(3):415‐7. 65. Lavergne A, Lacoste V, Germain A, Matheus S, Dussart P, Deparis X, et al. [Dengue virus infection in neotropical forest mammals: incidental hosts or potential reservoirs?]. Médecine Trop Rev Corps Santé Colon. août 2009;69(4):345‐50. 66. World Health Organization. WHO | Dengue and severe dengue [Internet]. WHO. 2014. Disponible sur: http://www.who.int/mediacentre/factsheets/fs117/en/ 67. Ledrans M, Blateau A, Bousser V, Cassadou S, Chappert J, Larrieu S, et al. Description des épidémies de dengue en Guadeloupe et en Martinique survenues en 2009-2010 : éléments disponibles en septembre 2010. 2010. 68. Cire Antilles Guyane. Le point épidémio : surveillance de la dengue - Bulletin du 17 février au 9 mars 2014. 2014. 69. Gharbi M, Quenel P, Gustave J, Cassadou S, La Ruche G, Girdary L, et al. Time series analysis of dengue incidence in Guadeloupe, French West Indies: forecasting models using climate variables as predictors. BMC Infect Dis. 2011;11:166. 70. Green S, Rothman A. Immunopathological mechanisms in dengue and dengue hemorrhagic fever. Curr Opin Infect Dis. oct 2006;19(5):429‐36. 139 71. Schmidt AC. Response to dengue fever--the good, the bad, and the ugly? N Engl J Med. 29 juill 2010;363(5):484‐7. 72. Vincent D. Utilisation de proteines d'enveloppe recombinantes pour le diagnostic du virus de la dengue. WO1999009414 A1, 1999. 73. Beltramello M, Williams KL, Simmons CP, Macagno A, Simonelli L, Quyen NTH, et al. The human immune response to Dengue virus is dominated by highly cross-reactive antibodies endowed with neutralizing and enhancing activity. Cell Host Microbe. 16 sept 2010;8(3):271‐83. 74. Chastel C. Réflexions sur deux viroses d'actualité : la fièvre jaune et la dengue. Ann Biol Clin (Paris). 12 sept 1997;55(5):415‐24. 75. Moreno-Altamirano MMB, Sánchez-García FJ, Muñoz ML. Non Fc receptormediated infection of human macrophages by dengue virus serotype 2. J Gen Virol. mai 2002;83(Pt 5):1123‐30. 76. Halstead SB, Mahalingam S, Marovich MA, Ubol S, Mosser DM. Intrinsic antibody-dependent enhancement of microbial infection in macrophages: disease regulation by immune complexes. Lancet Infect Dis. oct 2010;10(10):712‐22. 77. Deparis X, Maréchal V, Matheus S. [Pathophysiological mechanisms of dengue fever: critical review of current concepts]. Médecine Trop Rev Corps Santé Colon. août 2009;69(4):351‐7. 78. Alen MMF, De Burghgraeve T, Kaptein SJF, Balzarini J, Neyts J, Schols D. Broad Antiviral Activity of Carbohydrate-Binding Agents against the Four Serotypes of Dengue Virus in Monocyte-Derived Dendritic Cells. PLoS ONE. 30 juin 2011;6(6):e21658. 79. Borgherini. Conduite à tenir en cas de patient suspect de dengue. 2012; Service de Maladies infectieuses - CHU Saint Pierre. 80. Rico-Hesse R. Molecular evolution and distribution of dengue viruses type 1 and 2 in nature. Virology. févr 1990;174(2):479‐93. 140 81. Bravo JR, Guzmán MG, Kouri GP. Why dengue haemorrhagic fever in Cuba? 1. Individual risk factors for dengue haemorrhagic fever/dengue shock syndrome (DHF/DSS). Trans R Soc Trop Med Hyg. 1987;81(5):816‐20. 82. Deparis, Murgue, Roche, Cassar, Chungue. Changing clinical and biological manifestations of dengue during the dengue-2 epidemic in French Polynesia in 1996/97 – description and analysis in a prospective study. Trop Med Int Health. 1 nov 1998;3(11):859‐65. 83. Kalayanarooj S, Vaughn DW, Nimmannitya S, Green S, Suntayakorn S, Kunentrasai N, et al. Early clinical and laboratory indicators of acute dengue illness. J Infect Dis. août 1997;176(2):313‐21. 84. Blanchon C. Dengue et leptospirose en Nouvelle-Calédonie : recherche de facteurs discriminatifs à l'admission. Paris, Université Paris VII - Denis Diderot; 2000. 85. Laur F, Murgue B, Deparis X, Roche C, Cassar O, Chungue E. Plasma levels of tumour necrosis factor alpha and transforming growth factor beta-1 in children with dengue 2 virus infection in French Polynesia. Trans R Soc Trop Med Hyg. déc 1998;92(6):654‐6. 86. Murgue B, Cassar O, Deparis X. Plasma concentrations of sVCAM-1 and severity of dengue infections. J Med Virol. sept 2001;65(1):97‐104. 87. Guzman MG, Halstead SB, Artsob H, Buchy P, Farrar J, Gubler DJ, et al. Dengue: a continuing global threat. Nat Rev Microbiol. déc 2010;8(12 Suppl):S7‐16. 88. OMS. Guide pour la prise en charge clinique de la dengue [Internet]. 2013. Disponible sur: www.who.int 89. Crouzat maryse, Chef de service de dermatologie, CHT G. Bourret, Nouvelle Calédonie. Photo : Eruption cutanée caractéristique touchant le dos. 90. Cire Antilles Guyane. Dengue aux Antilles : retour d'expérience pour le diagnostic, la surveillance épidémiologique et la prise en charge des cas (Bulletin de veille sanitaire N°6-7) [Internet]. 2013. Disponible sur: 141 http://www.cnev.fr/index.php/32-uncategorised/1526-dengue-aux-antilles-retour-dexperience-pour-le-diagnostic-la-surveillance-epidemiologique-et-laprise-en-charge-des-cas 91. World Health Organization. Dengue: Guidelines for Diagnosis, Treatment, Prevention and Control. World Health Organization; 2009. 159 p. 92. Cabié A, Strobel M. Chapitre 8 : Le rôle de la recherche dans la prise en charge de la dengue : La recherche sur les mécanismes physiopathologiques des formes sévères de la dengue peut-elle améliorer la prise en charge de la maladie ? In: Corriveau R, Philippon B, Yébakima A, éditeurs. La dengue dans les départements français d'Amérique : Comment optimiser la lutte contre cette maladie ? [Internet]. Montpellier: IRD Éditions; 2013. p. 95‐9. Disponible sur: http://books.openedition.org/irdeditions/2719 93. Guirakhoo F, Arroyo J, Pugachev KV, Miller C, Zhang ZX, Weltzin R, et al. Construction, safety, and immunogenicity in nonhuman primates of a chimeric yellow fever-dengue virus tetravalent vaccine. J Virol. août 2001;75(16):7290‐ 304. 94. Villar L, Dayan GH, Arredondo-García JL, Rivera DM, Cunha R, Deseda C, et al. Efficacy of a Tetravalent Dengue Vaccine in Children in Latin America. N Engl J Med. 8 janv 2015;372(2):113‐23. 95. Capeding MR, Tran NH, Hadinegoro SRS, Ismail HIHM, Chotpitayasunondh T, Chua MN, et al. Clinical efficacy and safety of a novel tetravalent dengue vaccine in healthy children in Asia: a phase 3, randomised, observer-masked, placebo-controlled trial. Lancet. 10 juill 2014; 96. Guy B, Saville M, Lang J. Développement d'un vaccin tétravalent contre la dengue. Virologie. 1 sept 2010;14(5):311‐21. 97. Hidayati H, Nazni WA, Lee HL, Sofian-Azirun M. Insecticide resistance development in Aedes aegypti upon selection pressure with malathion. Trop Biomed. août 2011;28(2):425‐37. 142 98. Sulaiman S, Pawanchee ZA, Othman HF, Shaari N, Yahaya S, Wahab A, et al. Field evaluation of cypermethrin and cyfluthrin against dengue vectors in a housing estate in Malaysia. J Vector Ecol J Soc Vector Ecol. déc 2002;27(2):230‐4. 99. Parreira R, Centeno-Lima S, Lopes A, Portugal-Calisto D, Constantino A, Nina J. Dengue virus serotype 4 and chikungunya virus coinfection in a traveller returning from Luanda, Angola, January 2014. Euro Surveill Bull Eur Sur Mal Transm Eur Commun Dis Bull. 2014;19(10). 100. Simon F, Javelle E, Oliver M, Leparc-Goffart I, Marimoutou C. Chikungunya virus infection. Curr Infect Dis Rep. juin 2011;13(3):218‐28. 101. Staples JE, Breiman RF, Powers AM. Chikungunya Fever: An Epidemiological Review of a Re-Emerging Infectious Disease. Clin Infect Dis. 15 sept 2009;49(6):942‐8. 102. Najioullah F, Viron F, Paturel L, Césaire R. Diagnostic biologique de la dengue. John Libbey - Virologie. févr 2012; 103. WHO | Dengue haemorrhagic fever: diagnosis, treatment, prevention and control. 2nd edition. Geneva : World Health Organization. [Internet]. WHO. Disponible sur: http://www.who.int/csr/resources/publications/dengue/Denguepublication/en/ 104. Kuno G, Gubler DJ, Vélez M, Oliver A. Comparative sensitivity of three mosquito cell lines for isolation of dengue viruses. Bull World Health Organ. 1985;63(2):279‐86. 105. De Paula SO, Fonseca BAL da. Dengue: a review of the laboratory tests a clinician must know to achieve a correct diagnosis. Braz J Infect Dis Off Publ Braz Soc Infect Dis. déc 2004;8(6):390‐8. 106. Oliveira De Paula S, Malta Lima D, Clotteau M, Pires Neto Rd R da J, Lopes da Fonseca BA. Improved detection of dengue-1 virus from IgM-positive serum samples using C6/36 cell cultures in association with RT-PCR. Intervirology. 2003;46(4):227‐31. 143 107. Perret C, Abarca K, Ovalle J, Ferrer P, Godoy P, Olea A, et al. Dengue-1 virus isolation during first dengue fever outbreak on Easter Island, Chile. Emerg Infect Dis. nov 2003;9(11):1465‐7. 108. Lanciotti RS, Calisher CH, Gubler DJ, Chang GJ, Vorndam AV. Rapid detection and typing of dengue viruses from clinical samples by using reverse transcriptase-polymerase chain reaction. J Clin Microbiol. mars 1992;30(3):545 ‐51. 109. Gonzalez J-P, Chaud P. Chapitre 7 : Optimisation de la lutte contre la fièvre dengue dans les DFA : Méthodes et outils de détection du virus et de surveillance de son activité. In: Corriveau R, Philippon B, Yébakima A, éditeurs. La dengue dans les départements français d'Amérique : Comment optimiser la lutte contre cette maladie ? [Internet]. Montpellier: IRD Éditions; 2013. p. 72‐94. Disponible sur: http://books.openedition.org/irdeditions/2718 110. Ameziane N., Bogard M, Lamoril J. Principes de biologie moléculaire en biologie clinique. Elsevier,Paris; 2006. 111. Callahan JD, Wu SJ, Dion-Schultz A, Mangold BE, Peruski LF, Watts DM, et al. Development and evaluation of serotype- and group-specific fluorogenic reverse transcriptase PCR (TaqMan) assays for dengue virus. J Clin Microbiol. nov 2001;39(11):4119‐24. 112. Ito M, Takasaki T, Yamada K-I, Nerome R, Tajima S, Kurane I. Development and Evaluation of Fluorogenic TaqMan Reverse Transcriptase PCR Assays for Detection of Dengue Virus Types 1 to 4. J Clin Microbiol. déc 2004;42(12):5935 ‐7. 113. Chien L-J, Liao T-L, Shu P-Y, Huang J-H, Gubler DJ, Chang G-JJ. Development of real-time reverse transcriptase PCR assays to detect and serotype dengue viruses. J Clin Microbiol. avr 2006;44(4):1295‐304. 114. Levi JE, Tateno AF, Machado AF, Ramalho DC, de Souza VAUF, Guilarde AO, et al. Evaluation of a commercial real-time PCR kit for detection of dengue virus in samples collected during an outbreak in Goiania, Central Brazil, in 2005. J Clin Microbiol. juin 2007;45(6):1893‐7. 144 115. Thomas L, Verlaeten O, Cabié A, Kaidomar S, Moravie V, Martial J, et al. Influence of the dengue serotype, previous dengue infection, and plasma viral load on clinical presentation and outcome during a dengue-2 and dengue-4 coepidemic. Am J Trop Med Hyg. juin 2008;78(6):990‐8. 116. Sadon N, Delers A, Jarman RG, Klungthong C, Nisalak A, Gibbons RV, et al. A new quantitative RT-PCR method for sensitive detection of dengue virus in serum samples. J Virol Methods. oct 2008;153(1):1‐6. 117. Johnson BW, Russell BJ, Lanciotti RS. Serotype-specific detection of dengue viruses in a fourplex real-time reverse transcriptase PCR assay. J Clin Microbiol. oct 2005;43(10):4977‐83. 118. Houng HS, Chung-Ming Chen R, Vaughn DW, Kanesa-thasan N. Development of a fluorogenic RT-PCR system for quantitative identification of dengue virus serotypes 1-4 using conserved and serotype-specific 3' noncoding sequences. J Virol Methods. juin 2001;95(1-2):19‐32. 119. Laue T, Emmerich P, Schmitz H. Detection of dengue virus RNA in patients after primary or secondary dengue infection by using the TaqMan automated amplification system. J Clin Microbiol. août 1999;37(8):2543‐7. 120. Thai KTD, Phuong HL, Thanh Nga TT, Giao PT, Hung LQ, Van Nam N, et al. Clinical, epidemiological and virological features of Dengue virus infections in Vietnamese patients presenting to primary care facilities with acute undifferentiated fever. J Infect. mars 2010;60(3):229‐37. 121. Poloni TR, Oliveira AS, Alfonso HL, Galvão LR, Amarilla AA, Poloni DF, et al. Detection of dengue virus in saliva and urine by real time RT-PCR. Virol J. 2010;7:22. 122. Matheus S, Chappert JL, Cassadou S, Berger F, Labeau B, Brémand L, et al. Surveillance virologique de la dengue en territoires insulaires via le recueil de sang sur papier buvard. 2013 juin; CNR Arbovirus. 145 123. Matheus S, Meynard J-B, Lacoste V, Morvan J, Deparis X. Use of Capillary Blood Samples as a New Approach for Diagnosis of Dengue Virus Infection. J Clin Microbiol. mars 2007;45(3):887‐90. 124. Matheus S, Meynard J-B, Lavergne A, Girod R, Moua D, Labeau B, et al. Dengue-3 outbreak in Paraguay: investigations using capillary blood samples on filter paper. Am J Trop Med Hyg. nov 2008;79(5):685‐7. 125. Alcon S, Talarmin A, Debruyne M, Falconar A, Deubel V, Flamand M. Enzymelinked immunosorbent assay specific to Dengue virus type 1 nonstructural protein NS1 reveals circulation of the antigen in the blood during the acute phase of disease in patients experiencing primary or secondary infections. J Clin Microbiol. févr 2002;40(2):376‐81. 126. Libraty DH, Young PR, Pickering D, Endy TP, Kalayanarooj S, Green S, et al. High circulating levels of the dengue virus nonstructural protein NS1 early in dengue illness correlate with the development of dengue hemorrhagic fever. J Infect Dis. 15 oct 2002;186(8):1165‐8. 127. Xu H, Di B, Pan Y, Qiu L, Wang Y, Hao W, et al. Serotype 1-specific monoclonal antibody-based antigen capture immunoassay for detection of circulating nonstructural protein NS1: Implications for early diagnosis and serotyping of dengue virus infections. J Clin Microbiol. août 2006;44(8):2872‐8. 128. Young PR, Hilditch PA, Bletchly C, Halloran W. An antigen capture enzymelinked immunosorbent assay reveals high levels of the dengue virus protein NS1 in the sera of infected patients. J Clin Microbiol. mars 2000;38(3):1053‐7. 129. TECHNIQUES IMMUNOLOGIQUES [Internet]. Disponible sur: http://www.snv.jussieu.fr/bmedia/lafont/dosages/D3.html 130. HCSP. Stratégie de diagnostic biologique de la dengue. 2011. 131. Dussart P, Petit L, Labeau B, Bremand L, Leduc A, Moua D, et al. Evaluation of Two New Commercial Tests for the Diagnosis of Acute Dengue Virus Infection Using NS1 Antigen Detection in Human Serum. PLoS Negl Trop Dis. 20 août 2008;2(8):e280. 146 132. Ty Hang V, Minh Nguyet N, The Trung D, Tricou V, Yoksan S, Minh Dung N, et al. Diagnostic Accuracy of NS1 ELISA and Lateral Flow Rapid Tests for Dengue Sensitivity, Specificity and Relationship to Viraemia and Antibody Responses. PLoS Negl Trop Dis. 20 janv 2009;3(1):e360. 133. World Health Organization. WHO | Diagnostics Evaluation Series No. 3 [Internet]. WHO. 2009. Disponible sur: http://www.who.int/tdr/publications/tdrresearch-publications/diagnostics-evaluation-3/en/ 134. Dussart P, Labeau B, Lagathu G, Louis P, Nunes MRT, Rodrigues SG, et al. Evaluation of an enzyme immunoassay for detection of dengue virus NS1 antigen in human serum. Clin Vaccine Immunol CVI. nov 2006;13(11):1185‐9. 135. Guzman MG, Jaenisch T, Gaczkowski R, Ty Hang VT, Sekaran SD, Kroeger A, et al. Multi-country evaluation of the sensitivity and specificity of two commercially-available NS1 ELISA assays for dengue diagnosis. PLoS Negl Trop Dis. 2010;4(8). 136. Chen WJ, Hwang KP, Fang AH. Detection of IgM antibodies from cerebrospinal fluid and sera of dengue fever patients. Southeast Asian J Trop Med Public Health. déc 1991;22(4):659‐63. 137. Talarmin A, Labeau B, Lelarge J, Sarthou JL. Immunoglobulin A-specific capture enzyme-linked immunosorbent assay for diagnosis of dengue fever. J Clin Microbiol. mai 1998;36(5):1189‐92. 138. Vaughn DW, Green S, Kalayanarooj S, Innis BL, Nimmannitya S, Suntayakorn S, et al. Dengue in the early febrile phase: viremia and antibody responses. J Infect Dis. août 1997;176(2):322‐30. 139. Shu P-Y, Huang J-H. Current advances in dengue diagnosis. Clin Diagn Lab Immunol. juill 2004;11(4):642‐50. 140. Modifié de Huraux J.-M., Nicolas J.-C., Agut H., Peigue-Lafeuille H. Traité de virologie médicale. Estem De Boeck Diffusion. Paris, France (UCL-bibliothèque de Médecine); 2003. 699 p. 147 141. Modifié de Overview of ELISA [Internet]. Disponible sur: http://www.piercenet.com/method/overview-elisa 142. 77th XiaoBianTai's Medical Street: 14th Week of SIP Microbiology/Immunology [Internet]. 2007. Disponible sur: http://sevenseven77.blogspot.com/2007/09/14th-week-of-sipmicrobiologyimmunology.html 143. Takasaki T, Nawa M, Yamada KI, Harada M, Takeda A, Kurane I. Evaluation of dengue IgM detection tests using sera from patients with autoimmune diseases. J Virol Methods. avr 2002;102(1-2):61‐6. 144. Talarmin A, Labeau B, Lelarge J, Sarthou JL. Immunoglobulin A-specific capture enzyme-linked immunosorbent assay for diagnosis of dengue fever. J Clin Microbiol. mai 1998;36(5):1189‐92. 145. Balmaseda A, Guzmán MG, Hammond S, Robleto G, Flores C, Téllez Y, et al. Diagnosis of dengue virus infection by detection of specific immunoglobulin M (IgM) and IgA antibodies in serum and saliva. Clin Diagn Lab Immunol. mars 2003;10(2):317‐22. 146. Yap G, Sil BK, Ng L-C. Use of saliva for early dengue diagnosis. PLoS Negl Trop Dis. 2011;5(5):e1046. 147. Koraka P, Murgue B, Deparis X, Setiati TE, Suharti C, van Gorp ECM, et al. Elevated levels of total and dengue virus-specific immunoglobulin E in patients with varying disease severity. J Med Virol. mai 2003;70(1):91‐8. 148. Innis BL, Nisalak A, Nimmannitya S, Kusalerdchariya S, Chongswasdi V, Suntayakorn S, et al. An enzyme-linked immunosorbent assay to characterize dengue infections where dengue and Japanese encephalitis co-circulate. Am J Trop Med Hyg. avr 1989;40(4):418‐27. 149. Matheus S, Deparis X, Labeau B, Lelarge J, Morvan J, Dussart P. Discrimination between Primary and Secondary Dengue Virus Infection by an Immunoglobulin G Avidity Test Using a Single Acute-Phase Serum Sample. J Clin Microbiol. juin 2005;43(6):2793‐7. 148 150. DPROD/Dr AFK/Dr LR/BB. Biologie médicale Nomenclature des actes. Caisse Nationale de l'Assurance Maladie des Travailleurs Salariés; 2014. 151. HAS. Diagnostic biologique direct précoce de la dengue par détection génomique du virus avec RT-PCR. 2013. 152. Cofrac. Guide technique d'accréditation : contrôle de qualité en biologie médicale SH GTA 06 (Révision 00). 2012. 153. Mustafa MS, Rasotgi V, Jain S, Gupta V. Discovery of fifth serotype of dengue virus (DENV-5): A new public health dilemma in dengue control. Med J Armed Forces India. janv 2015;71(1):67‐70. 149 SUMMARY : Problematic diagnosis of dengue virus infection in endemo-epidemic zone (Guadeloupe) and elaboration of internal quality controls for AgNS1 and IgM tests. Dengue virus, the most widespread arbovirosis on earth, circulates in the Caribbean and in particular in Guadeloupe in an endemo-epidemic mode. Vectors for disease are Aedes mosquitoes among which, Aedes aegypti and Aedes albopictus are the two most important. Clinical signs of dengue virus infection are often nonspecific and their clinical evolution is unpredictable. Usually mild, serious or even fatal forms may occur. Currently, the three diagnostic methods used are the detection of the viral genome using nucleic acids amplification technology (RT-PCR), detection of dengue virus specific antigens NS1 and indirect serological diagnosis. Using them together or individually depends on the clinical stage of the disease, the date of onset of clinical signs and the epidemiological context. There is no specific antiviral treatment or vaccine available at this time. Treatment is symptomatic. Issuing reliable biological results for the dengue diagnosis requires implementing internal quality control (IQC). For that purpose, in the laboratory of virology of the teaching hospital of Pointe-à-Pitre, we have developed an in house CIQ for the NS1 antigen detection and a CIQ for dengue IgM serological detection from human sera. Three matrices have been used for dilutions : Phosphate-Buffered Saline, Fetal Bovine Serum and human serum. This study showed that the Fetal Bovine Serum presented more reliable results in terms of repeatability (Coefficient of variation CV 14 % for the AgNS1 and 4 % for the IgM anti-dengue) and of reproducibility (CV 20,8 % for the AgNS1 and 13,8 % for the IgM anti-dengue). Even if they seem rather high, these values of CV have to be linked with the type of techniques used and expectations of reproductibility (semi-quantitative methods for both studied parameters). 150 RESUME Arbovirose la plus répandue sur la planète, la dengue circule dans la Caraïbe et notamment en Guadeloupe selon un mode endémo-épidémique. Les vecteurs de la maladie sont des moustiques du genre Aedes, les deux principaux étant Aedes aegypti et Aedes albopictus. Aucun signe clinique de la dengue n'est spécifique et son évolution est imprévisible. Généralement bénigne, des formes graves voire fatales peuvent survenir. Les trois méthodes diagnostiques utilisées en routine sont la détection du génome viral par biologie moléculaire (RT-PCR), la recherche de l'antigène NS1 et le diagnostic indirect sérologique. Leurs utilisations conjointes ou isolées dépendent du stade clinique de la maladie, de la date de début des signes cliniques et du contexte épidémiologique. Il n'existe pas de traitement antiviral spécifique, ni de vaccin disponible à l'heure actuelle. Le traitement est symptomatique. La délivrance de résultats biologiques fiables lors d'un diagnostic de dengue nécessite l'élaboration de contrôles internes de la qualité (CIQ). Pour cela, nous avons mis en place au laboratoire de virologie du CHU de Pointe-à-pitre un CIQ pour la détection de l' antigène NS1 et un CIQ pour la détection sérologique des IgM de la dengue à partir de sérums humains. Trois matrices ont été utilisées pour effectuer les dilutions : le tampon phosphate salin, le sérum de veau foetal et le sérum humain. Cette étude a montré que le sérum de veau foetal présentait des résultats plus fiables en termes de répétabilité (Coefficient de variation CV de 14% pour l'AgNS1 et de 4% pour les IgM anti-dengue) et de reproductibilité (CV de 20,8% pour l'AgNS1 et de 13,8% pour les IgM anti-dengue). Ces valeurs de CV toutefois élevées sont à mettre en relation avec le type de technique utilisée et les attentes en matière de reproductibilité des interprétations (méthodes semiquantitatives pour les deux paramètres étudiés). DISCIPLINE administrative : PHARMACIE – BIOLOGIE MEDICALE MOTS-CLES : VIRUS DE LA DENGUE – ARBOVIROSE – MOUSTIQUE – EPIDEMIE – DIAGNOSTIC VIROLOGIQUE – ANTIGENE NS1 – SEROLOGIE – CONTRÔLE INTERNE DE LA QUALITE INTITULE ET ADRESSE DE L'UFR OU DU LABORATOIRE : UNIVERSITE BORDEAUX 2 SEGALEN, FACULTE DES SCIENCES PHARMACEUTIQUES 146 RUE LEO SAIGNAT 33076 BORDEAUX CEDEX Directeur de thèse : Docteur Cécile HERRMANN-STORCK 151 152
{'path': '60/dumas.ccsd.cnrs.fr-dumas-01191535-document.txt'}
Traitement numérique des signaux et identification de systèmes RMN ; Conception et développement d'un imageur pour l'IRM dédiée à bas champ Aktham Asfour To cite this version: Aktham Asfour. Traitement numérique des signaux et identification de systèmes RMN ; Conception et développement d'un imageur pour l'IRM dédiée à bas champ. Sciences de l'ingénieur [physics]. Université Joseph-Fourier - Grenoble I, 2002. Français. tel-00473212 HAL Id: tel-00473212 https://tel.archives-ouvertes.fr/tel-00473212 Submitted on 14 Apr 2010 UNIVERSITE JOSEPH FOURIER- GRENOBLE 1 N° attribué par la bibliothèque LLLLLLLLLLLI THESE pour obtenir le grade de DOCTEUR DE L'UNIVERSITE JOSEPH FOURIER Discipline: Sciences de l'ingénieur : Signal, Image préparée au laboratoire d'Electrotechnique de Grenoble dans le cadre de l'Ecole Doctorale « Electronique, Electrotechnique, Automatique, Télécommunications, Signal » présentée et soutenue publiquement par Aktham ASFOUR le 20 Juin 2002 Titre: Traitement numérique des signaux et identification de systèmes RMN ; Conception et développement d'un imageur pour l'IRM dédiée à bas champ Directeurs de thèse: Kosai RAOOF et Jean Marc FOURN IER JURY M. Jean-Louis LACOUME M. André CONSTANTINESCO M. François GUILLET M. Marcel LOCATELLI M. Kosai RAOOF M. Jean-Marc FOURNIER Président Rapporteur Rapporteur Invité Directeur de thèse Directeur de thèse A la mémoire de mon père. A ma mère et à mes frères Remerciements Le travail présenté dans ce manuscrit a été réalisé au sem du Laboratoire d'Electrotechnique de Grenoble (LEG) en collaboration avec le Laboratoire des Images et des Signaux (LIS). Je tiens à remercier chaleureusement Monsieur Kosai Raoof, Maître de conférence associé à l'Université Joseph Fourier de Grenoble, pour la confiance qu'il m'a témoignée en m'accueillant sous sa direction. Ses compétences scientifiques, sa disponibilité et ses qualités humaines furent primordiales au bon déroulement et à l'aboutissement de ce travail. Qu'il soit assuré de ma profonde gratitude et de ma sincère reconnaissance. Monsieur Jean-Marc Fournier, Professeur à l'Université Joseph Fourier de Grenoble a co-encadré cette thèse avec enthousiasme et bonne humeur. Je le remercie vivement pour la confiance qu'il m ' a accordée tout au long de cette thèse. Ses remarques pertinentes, les nombreuses discussions et ses qualités pédagogiques m'ont été très précieuses et encourageantes. Qu' il trouve ici l' assurance de mon profond respect et sympathie. J' adresse mes remerciement à : Monsieur Jean-Louis Lacoume, Professeur à l'Institut National Polytechnique de Grenoble, pour l'honneur qu'il m'a fait en assurant la présidence du jury de cette thèse. Monsieur André Constantinesco, Professeur à l'Université Louis Pasteur de Strasbourg, pour avoir accepté d'être rapporteur de cette thèse et d'avoir mis à profil sa longue expérience dans l'IRM pour l'évaluation de ce travail. Monsieur François Guillet, Maître de conférence à l'Université Jean Monnet de Saint Etienne, d'avoir accepté d'être rapporteur et pour avoir mobilisé son temps et ses compétences pour l'appréciation de ce travail. Monsieur Marcel Locatelli, Ingénieur au CEA de Grenoble, pour l'intérêt qu'il a manifesté à ce travail et pour avoir accepté d'être membre du jury. Je remercie chaleureusement : Les services électronique, mécanique et informatique du LEG pour leur aide précieuse, leur efficacité et leur sympathie. Une pensée particulière pour Bruno Mallet, qu'il soit assuré de ma profonde amitié. Le personnel administratif du LEG pour sa disponibilité, sa sympathie et sa bienveillance. Tous les membres du LEG pour l'ambiance chaleureuse qu'ils ont créée au laboratoire durant ces trois années. Tous les membres du LIS pour leur accueil lors de mes nombreux passages au LIS . Je suis très reconnaissant à Monsieur Jean-Louis Leviel et à tout le personnel du département Mesures Physiques de l'IUTl de Grenoble pour la confiance qu'ils m'ont accordée en m'accueillant en poste ATER durant la dernière année de cette thèse. Merci également au service du personnel de l'IUT 1 de Grenoble pour son aide et sa compréhension dans la réalisation des démarches administratives. Je remercie aussi Gilles Rostaing de m'avoir fait profiter de ses compétences et qualités pédagogiques en me confiant des tâches d'enseignements à ses côtés. Un grand merci à Makdam pour son aide précieuse lors de la rédaction de ce manuscrit et pour ses encouragements permanents. Je n'oublierai pas tous mes amis et compagnons au LEG que j'ai connus durant ces trois années et avec qui j'ai pu passer des moments agréables. Je leur souhaite bonne continuation et courage. Je ne saurai oublier tous mes amis qui se reconnaîtront pour leur présence, leur soutien et leur grande gentillesse. Je ne les citerai pas de peur d'en oublier quelqu'un. Je réserve mon dernier mot de remerciement pour ma mère et mes frères qui sont présents depuis toujours et à tout moment dans mon coeur. Merci à celles et à ceux que je n'ai pas cité et qui ont contribué de près ou de loin à ce travail. Table des Matières PRÉAMBULE 7 INTRODUCTION 9 LA RÉSONANCE MAGNÉTIQUE NUCLÉAIRE RMN : RÉALISATION D'UN SIMULATEUR DE SIGNAUX ••••••••••. 12 INTRODUCTION . 13 DESCRIPTION DU PHÉNOMÈNE ET GÉNÉRALITÉS 13 1. II. II. 1. II. 2. III. Notion de la fréquence de Larmor 13 Le phénomène de la résonance magnétique nucléaire (RMN) 15 Bo II.2.1. Effet du champ magnétique statique II.2.2. II .2.3. Résonance magnétique: action d'un champ magnétique radiofréquence (RF) 16 La période de la précession libre et le signal RMN: 18 sur un échantillon 15 LES ÉQUATIONS DE BLOCH 20 Il1.1 . Excitation radiofréquence RF 20 III.I .I. IILI.2. Caractéristiques de l'impulsion 20 Le repère tournant . 21 Réponse du système à une impulsion RF.' l'équation de Bloch 22 Il1.2. III.2.1 . IIL2.2. III.2J. III. 2.4. Comportement de l'aimantation macroscopique pendant l'impulsion d'excitation 22 Excitation On-resonance 23 Excitation Off-resonance . 25 La période de la précession libre, l'aimantation mesurable 26 IV. Du SIGNAL À L'IMAGE, LOCALISATION SPATIALE ET GRADIENTS DE CHAMP MAGNÉTIQUE 28 V. RÉALISATION D'UN SIMULATEUR DE SIGNAUX RMN 30 V 1. V2. V3. Objectif et intérêt 30 Principe et méthode de simulation 31 Résultats de simulation.' exemples de signaux RMN 34 V.3.1 . V.3.2. Simulation d'une expérience avec une impulsion rectangulaire: 34 Simulation d'une expérience avec une impulsion de forme quelconque: 36 DESCRIPTION ET CARACTÉRISTIQUES DE L'IMAGEUR DÉVELOPPÉ POUR L'IRM DÉDIÉE À BAS CHAMP 38 1. II. INTRODUCTION 39 DESCRIPTION DE L'IMAGEUR NUMÉRIQUE 39 Il.1. II.2. II. 3. L'électroaimant . 41 L'antenne et le duplexeur 41 L'amplificateur RF de puissance 45 IIJ.l. 11.3.2. II.3.3. Il.4. Il.5. La Carte DSP (Digital Signal Processor) 51 Le synthétiseur numérique 52 11.5.1. II.5.2. Il.6. Le préamplificateur 46 L'étage sélectif 47 Caractéristiques mesurées de l'amplificateur total 48 Intérêt du synthétiseur numérique 52 Le fonctionnement du synthétiseur AD9852 53 Le récepteur numérique 56 II.6.1. Rappel: récepteur analogique 56 11.6.2. Intégration d'un récepteur numérique 58 II .6.2.1. Description générale 58 n.6.2.2. Caractéristiques principales du récepteur numérique utilisé 59 11.6.2.3. Evaluation expérimentale des caractéristiques du récepteur 61 RÉSULTATS: SIGNAUX RMN ET PREMIÈRES IMAGES 63 1. II. INTRODUCTION 64 SIGNAUX RMN ACQUIS AVEC L'IMAGEURNUMÉRlQUE 64 II. 1. Il.2. Signal de décroissance d'induction FID 64 Les signaux d'écho 65 II.2.1. Signal d'écho de spin 65 II.2.2. III. Signal d'écho de gradient. 68 CONSTRUCTION DE L'IMAGE EN IRM 70 IIU. Ill. 2. Sélection d'une coupe dans l'échantillon : 70 Codage de fréquence et codage par la phase: reconstruction de l'image 72 II1.2.1 Codage par la fréquence 72 Codage par la phase 74 II1.2.2 m.2.3 Association du codage par la fréquence et du codage par la phase 74 III. 2.4. Acquisition de l'image, balayage du plan de Fourier: 75 llI.2.4.1. Principe du balayage 76 Ill. 2.4. 2. Considérations pratiques, paramètres d 'acquisition 77 II!. 3. Les premières images obtenues avec le système numérique d'IRM par la séquence d'écho de gradient: 80 m.3.l. III.3.2. Réglage de l'angle de basculement de l'impulsion 80 La séquence d'écho de gradient 81 IV. QUELQUES TRAVAUX EN COURS 83 IDENTIFICATION DES SYSTÈMES RMN PAR FILTRAGE ADAPTATIF NON LINÉAIRE: MODÈLE DE SÉRIE DE VOLTERRA 85 1. II. III. INTRODUCTION 86 NON LINÉARITÉ DE SYSTÈMES RMN ET NÉCESSITÉ DE L'IDENTIFICATION NON LINÉAIRE 87 LA SÉRIE DE VOLTERRA APPLIQUÉE À L'IDENTIFICATION DE SYSTÈMES RMN 88 IIU. III.2. Forme discrète de la série de Volterra: 88 Identification par série de Volterra de second ordre 89 III.2.I. Méthode et schéma gériéral d'identification 89 III.2.2. Algorithme d'adaptation 91 m.2.2.1. Choix des pas d'adaptation pour les signaux RMN 93 111.2.2.2. Choix de la mémoire du système N 94 m.2.3 . Résultats de l'identification et discussions 95 I11.2.3 .1. Résultats 95 III.2.3 .2. Discussions 100 Ill. 3. IV. Identification par série de Volterra de i me ordre 101 MODÈLE DU FILTRE À RÉPONSE IMPULSIONNELLE INFINIE NON LINÉAIRE 105 MODÉLISATION DES SYSTÈMES RMN PAR FILTRE À RÉPONSE lM PULSIONNELLE INFINIE (RII) NON LINÉAIRE: VALIDATION SUR DES SIGNAUX RÉELS 108 1 Il INTRODUCTION 109 MODÈLE DU FILTRE RH NON LINÉAIRE ET MÉTHODE D'IDENTIFICATION . 109 II.1 Il. 2 Il. 3 Description du modèle 109 Les approches du filtrage adaptatif RII non linéaire 109 L 'algorithme d'adaptation 111 II.3.1 Les équations de mise à jour II.3.2 Conditions de stabilité et pas d'adaptation variables II.3.2. 1 Conditions de stabilité sur les pas d'adaptation Il.3.2.2 Les pas d'adaptation variables pour les signaux RMN III III 113 113 115 VALIDATION DU MODÈLE SUR DES SIGNAUX RÉELS RMN 116 111.1 Ill. 2 Exemple de signaux réels 116 Résultats d'identification 117 CONCLUSIONS ET PERSPECTIVES 123 ANNEXE 126 BmLIOGRAPHIE 132 Préambule 7 Le travail présenté ici a été réalisé au sein du Laboratoire d'Electrontechnique de Grenoble (LEG) et en étroite collaboration avec le Laboratoire des Images et des Signaux (LIS) pour la réalisation d'un imageur pour l'IRM à bas champ. Le projet a été partiellement supporté par le contrat européen QTEP ACK 1 pour le contrôle de qualité agroalimentaire. Le développement de l'imageur numérique n'aurait pas pu être accompli sans l'aide précieuse du Professeur André Constantinesco du Laboratoire de Biomécanique de CHU de Strasbourg qui n'a pas hésité à mettre à notre disposition la source de champ magnétique. 1 QTEPACK QLKl- 2000-00936. 8 Introduction 9 Depuis sa découverte en 1946, la résonance magnétique nucléaire (RMN) n'a cessé de prouver ses qualités analytiques remarquables. Cette technique a permis à la spectroscopie de conquérir de nouveaux et de passionnants champs d'application. La RMN est devenue une des techniques analytiques les plus prospères pour un large domaine d'applications, s'étendant aujourd'hui de la physique de solide à toutes les branches de la chimie, la biologie moléculaire, le contrôle agroalimentaire non destructif et l'imagerie médicale. Le principe de cette technique est fondé sur la mesure de signaux en provenance de certains noyaux atomiques d'un échantillon en réponse à urie impulsion d'excitation électromagnétique radiofréquence. Dans le domaine médical, l'imagerie par résonance magnétique (IRM) produit des images du corps humain et des systèmes biologiques révélant la structure, le métabolisme, et la fonction des tissus et des organes internes. Son caractère non invasif et non ionisant associé à sa capacité de produire des images anatomiques avec une qualité sans précédente l'ont rendu plus attirante et plus fascinante que beaucoup d' autres techniques d'imagerie. Cependant, cette technique reste aujourd'hui réservée aux grands départements de radiologie et ses indications sont davantage restreintes à certaines pathologies. Cette limitation de disponibilité est surtout liée au coût très élevé des équipements dû aux aimants, souvent supraconducteurs produisant les moyens et les hauts champs magnétiques utilisés, ainsi qu'à l'électronique d'acquisition, qui est jusqu'à présent, en partie analogique. Ces imageurs «corps entiers » ne sont pas, en plus, bien adaptés à l'imagerie des petits organes (poignet, main, genou ). L'IRM dédiée à bas champ constitue une alternative peu onéreuse et permet donc d'assurer une meilleure disponibilité de l'IRM dans ces cas. Ce coût peu élevé peut également rendre cette technique très attractive et accessible dans des domaines autres que médicaux tel que le contrôle agroalimentaire non destructif. L'utilisation de l'IRM à bas champ est, bien évidemment, synonyme d'un faible rapport signal sur bruit (RSB), et par conséquent d'une qualité d'image inférieure pour être exploitée dans les applications de diagnostic ou de contrôle. Le travail présenté dans ce manuscrit porte, dans sa première partie, sur le développement d'un système numérique d'IRM à bas champ permettant l'amélioration du rapport signal sur bruit et de la stabilité du système. Le choix d'une solution numérique est argumenté par le besoin d'élaborer un imageur peu coûteux et de faible encombrement pouvant être facilement intégré dans tout environnement aussi bien médical, tel qu'un cabinet de médecin, qu'industriel comme le contrôle agroalimentaire. 10 L'originalité du système développé réside principalement dans l'utilisation d'un synthétiseur numérique de fréquence, avec contrôle absolu de phase, et d'un récepteur numérique qui constituent les deux éléments clés d'un imageur. Ceux-ci mettent à profit le très bon rapport qualité-prix des systèmes numériques haute fréquence autorisé par les développements technologiques incessants des télécommunications et favorisé par la demande croissante dans ce domaine. Parallèlement à cette phase de conception et de développement instrumental, nous avons conduit, en se basant sur les techniques adaptatives en traitement du signal, une étude d'identification des systèmes RMN. L'objectif étant de permettre la prise en compte de la non linéarité de tels systèmes dans le traitement et l'analyse, jusqu'à présent linéaires, du signal RMN. Le travail reporté dans ce document peut alors être organisé en deux parties. La première partie est consacrée au développement de l'imageur numérique. Dans cette partie, seront rappelés, dans le premier chapitre, les principes physiques fondamentaux du phénomène de la résonance magnétique nucléaire qui servent de support pour toute personne abordant l'IRM. Ces fondements nous ont été nécessaires pour la mise au point et l'implantation d'un simulateur de signaux RMN. Dans le deuxième chapitre, nous exposons la conception de l'imageur et nous détaillons les solutions instrumentales numériques mises en oeuvre et l'évaluation de leurs caractéristiques de performances. Des exemples de signaux RMN acquis, la technique de reconstruction de l'image ainsi que les premières images réalisées avec cet imageur sont donnés dans le troisième chapitre. La deuxième partie, constituée des chapitres IV et V, traite la problématique de l'identification non linéaire des systèmes RMN à travers des techniques adaptatives de traitement du signal. Ainsi, nous introduisons, dans le quatrième chapitre, un modèle non linéaire basé sur la représentation d'un système RMN par un filtre de Volterra et nous le comparons au modèle d'un filtre non linéaire à réponse impulsionnelle infinie (RH). A l'issu cette comparaison, le filtre RH est retenu. Sa description détaillée et sa validation sur des signaux RMN réels font l'objet du cinquième chapitre. 11 Chapitre 1 La résonance magnétique nucléaire RMN : Réalisation d'un simulateur de signaux 12 1. Introduction Le travail présenté tout au long de ce manuscrit consiste dans le développement instrumental et le traitement du signal pour l'IRM. Il est alors nécessaire d'introduire les principaux fondements théoriques indispensables à la compréhension du mécanisme de génération des signaux RMN. Ces fondements serviront, en particulier, dans ce chapitre à la mise en place d'un simulateur de signaux. Nous allons donc, dans un premier temps, et après une description succincte du phénomène physique de la RMN, présenter les équations régissant ce phénomène, c'est-à-dire les équations de Bloch, et rappeler leurs solutions dans des cas particuliers. Dans un deuxième temps, nous décrivons le simulateur de signaux dont les principes sont basés sur la résolution numérique des équations de Bloch. La validité du simulateur sera exposée à travers quelques exemples de signaux simulés. Il. Description du phénomène et généralités Il.1. Notion de la fréquence de Larmor Il est bien connu que plusieurs noyaux d'intérêt biologique possèdent un moment magnétique. Il s'agit des noyaux d'hydrogène (IH) formé d'un proton, de l'isotope de carbone l3C, d'azote eN), de fluor 4 ( 19p ), de sodium e 3 N) et de phosphore elp). Selon la mécanique classique, le moment magnétique de tels noyaux, lorsqu'ils sont placés dans un champ magnétique statique Bo, présente, dans un référentiel fixe de laboratoire (OXYZ), un mouvement de rotation appelé précession. Ceci est illustré dans figure 1.1 où le moment magnétique, désigné ïJ, balaye un cône d'axe parallèle au vecteur champ magnétique Bo, et ce avec une fréquence caractéristique appelée fréquence de Larmor [Guinet, 1992]. 13 y K J-1 Figure 1.1 Précession d'un moment magnétique j1 d'un noyau placé dans un champ magnétique statique Bo. Cette fréquence est donnée par la relation fondamentale dite de Larmor: (1.1 ) où y est le rapport gyromagnétique du noyau et Bo est le module du vecteur champ magnétique. Cette relation est parfois donnée en fonction de la vitesse angulaire de précession (1.2) où le signe (-) indique que la précession du moment s'effectue dans le sens de rotation des aiguilles d'une montre. En examinant la figure 1.1, nous constatons que, lors de la précession, la proj ection Jlz du moment magnétique sur l'axe Z reste constante, alors que la projection transversale Jl xy dans le plan XOY tourne dans le sens inverse au sens trigonométrique à la vitesse angulaire (00. 14 Il est alors possible de caractériser un noyau par la fréquence de Lannor Jo de son moment magnétique, en prenant soin de préciser la valeur du champ magnétique statique Bo' On se limitera par la suite, et sans perte de généralité, au cas du noyau d'hydrogène (un seul proton) dont le rapport gyromagnétique r vaut 267.53 x 10 6 rad. S*I . TI. Pour une valeur de Bo égale à 0.1 T (Tesla), la fréquence de Larmor du proton vaut donc 4.26MHz. Il.2. Le phénomène de la résonance magnétique nucléaire (RMN) Il.2.1. Effet du champ magnétique statique En l'absence du champ magnétique externe Bo sur un échantillon Bo, les moments magnétiques des noyaux au sein d'un échantillon sont orientés de manière aléatoire dans l'espace si bien que leur somme est nulle: aucune aimantation macroscopique n'est, par conséquent, observable au voisinage de l'échantillon. Placée dans un champ magnétique statique homogène, la population de moments magnétiques des noyaux de cet échantillon sera le siège de l'apparition d'une aimantation macroscopique M parallèle et de même sens que longitudinale celle donnée par la direction de Bo, Bo. En prenant pour direction dite on dira que M n'a pas de composante transversale, i.e. sa projection dans le planXOY est nulle [Liang, 1999]. L'apparition de cette aimantation macroscopique M est attribuée au fait que dans le mouvement de précession, les moments magnétiques des protons sont répartis en deux populations : l'une où les moments ï1 ont leurs projections longitudinales f.iz parallèles à Bo. C'est le cas de la figure LI. On dit que ces moments ont un niveau de basse énergie. l'autre où les moments ï1 ont leurs projections longitudinales f.iz antiparallèles à Bo. Cette catégorie de moments se trouve dans un niveau de haute énergie. La répartition des moments dans le sens parallèle et antiparallèle n'est pas égale : les moments magnétiques parallèles à Bo sont légèrement majoritaires. Bien qu'infime, cette 15 différence est à l'origine du vecteur d'aimantation macroscopique M de même sens que Bo [Nguyen, 1996] L'absence d'une composante transversale M xy de cette aimantation est due au fait que les composantes f-l XY des moments magnétiques j1 sont déphasées aléatoirement dans le plan XOY. Ainsi, l'aimantation macroscopique induite par 13 0 se réduit à une composante longitudinale M z due aux composantes f-l z des moments magnétiques des protons en surnombre dans le niveau de basse énergie (état parallèle). Dans cette situation, on dit que l'échantillon est à l'équilibre, et nous désignons par M~ la valeur de cette composante qui est proportionnelle à la densité, p , de protons dans l'échantillon. L'amplitude de M étant trop faible pour être mesurée à l'équilibre, des méthodes d' excitation perturbant l'équilibre du système sont alors nécessaires pour détecter cette aimantation. On parlera donc de résonance magnétique. Il.2.2. Résonance magnétique: action d'un champ magnétique radiofréquence (RF) Le principe de la résonance magnétique protonique est d'agir spécifiquement sur les moments magnétiques des noyaux d'hydrogène à l'aide d'impulsions de champ magnétique tournant BI [Liang, 1999] [Guinet 1992]. Ce champ doit être dans un plan normal au champ statique 130 , Son amplitude est de plusieurs ordres de grandeur plus faible que celle de 130 tourne autour de ce dernier avec une vitesse angulaire OJ RF • et Il s'agit d'un champ appliqué de manière transitoire et appartenant à la gamme des radiofréquences, d'où le nom d'impulsion radiofréquence (RF) régulièrement employé pour désigner BI . L'action d'une impulsion RF de fréquence égale à ou proche de la fréquence de Larmor, se traduit par la décroissance de l'aimantation longitudinale M z et l'apparition d'une composante transversale de l'aimantation M XY tournant autour de OJ o comme le montre la figure I.2. Le mouvement de l'aimantation est une précession-nutation: elle tourne autour de entre M et 130 130 à la fréquence 130 à la vitesse angulaire M , pendant l'excitation, OJ o ' tandis que l'angle a augmente proportionrtellement à la durée de l'impulsion" suivant la relation a = yB I " • L'extrémité du vecteur M décrit ainsi une spirale sur une surface sphérique. 16 z y Figure 1.2 Evolution de l'aimantation macroscopique durant l'application de l'impulsion d'excitation. L'angle a, caractérisant l'impulsion, est appelé angle de basculement. Les impulsions sont souvent désignées par leur angle de basculement. Ainsi, on parle d'impulsion 90° si BI et 'f sont choisis de telle sorte que a soit égal à 90°. A la fin d'une telle impulsion, on trouve uniquement une composante transversale d'aimantation. L'impulsion 180° correspond au retournement du vecteur 111 qui, en fin d'impulsion, devient parallèle et opposé à Bo , soit donc une aimantation transversale nulle [Guinet, 1992]. L'évolution de l'aimantation longitudinale M z sous l'action du champ magnétique tournant peut s'expliquer par le fait que l'impulsion RF fournit, durant son application, une énergie nécessaire pour permettre la transition des moments magnétiques des noyaux de l'état parallèle (basse énergie) vers l'état antiparallèle (haute énergie) [Liang, 1999]. Lorsque la moitié des moments en surnombre est passé à l'état antiparallèle, les deux populations parallèle et antiparallèle sont en égalité et la composante M z s'annule: une impulsion 90° a été donc appliquée. Lorsque tous les moments en surnombre sont orientés antiparallèlement, il y a inversion de la composante longitudinale, et la composante transversale est donc nulle : on dit qu'une impulsion 180° a été appliquée. 17 L'évolution de l'aimantation longitudinale ainsi présentée ne permet pas de décrire celle de la composante transversale M xy . Pour expliquer la naissance de cette dernière, on doit se rappeler qu'à l'équilibre, les composantes f.1 xy des moments des noyaux en précession dans le plan transversal sont déphasées aléatoirement. La résonance magnétique peut être vue comme le mécanisme d'établissement d'une cohérence de phase au sien de ce groupe de moments magnétiques [Liang, 1999]. En effet, lorsque les moments changent d'état d'énergie, ils le font en se mettant en phase comme si leurs projections transversales étaient poussées à l'unisson à leur fréquence de précession par une force extérieure. Cette force est apportée, bien évidemment, par le champ RF tournant de la même manière que *les composantes transversales qui se trouveront aussitôt en phase donnant ainsi naissance à la composante transversale M xy . Il.2.3. La période de la précession libre et le signal RMN: Après un basculement de l'aimantation M par une impulsion RF, l'échantillon est placé dans un état hors équilibre. Le processus de retour à l'équilibre se caractérise par une précession libr/ de l'aimantation M autour du champ Bo à la fréquence co o; une augmentation de l'aimantation longitudinale M z pour tendre vers sa valeur d'équilibre M~, appelée relaxation longitudinale,' et une destruction de l'aimantation transversale M xy , appelée relaxation transversale. Les processus de relaxation sont quantifiés par deux constantes de temps ~ et T2 dites de relaxation longitudinale et de relaxation transversale, respectivement. Ces sont les temps au bout desquels M z et M xy ont atteint 63% de leurs valeurs à l'équilibre. A titre d'exemple, pour des tissus biologiques, ~ peut varier de quelques 100ms à quelques secondes, alors que T2 est environ dix fois plus petit que ~ [Liang, 1999] [Nguyen, 1996]. Lors de la relaxation, la composante transversale M xy décrit, dans l'" ulan XOY, un mouvement de rotation à la fréquence de précession Jo accompagné par la décroissance de son amplitude. Ce mouvement provoque, grâce au phénomène d'induction magnétique, l'apparition dans une antenne de réception, placée dans le plan XOY, d'un signal appelé signal de décroissance d'induction libre ou FID (Free Induction Decay en anglais) (figure 1.3). Ce 1 Précession libre désigne la précession de l'aimantation M en l'absence de l'impulsion d'excitation RF. 18 signal qui s'apparente à une sinusoïde amortie et dont la fréquence est celle de la précession est généralement détecté en quadrature (figure 1.3). Le signal résultant est l'image du phénomène de relaxation et décrit une fonction exponentielle amortie d'une constante de temps T2 et dont l'amplitude maximale est proportionnelle à M~, soit donc à la densité protonique p . , Z M y x Antenne réceptrice 1 Détection en quadrature Décroissance en e 2 T c=====> t Signal de décroissance d'induction (FID) à la fréquence Enveloppe du signal fa Figure 1.3 Trajectoire de l'aimantation M dans le repère fixe pendant la période de la précession libre et le signal FID détecté. En pratique, la décroissance exponentielle du signal s'effectue avec une constante de temps effective T2• plus petite que T2 et ce en raison des inhomogénéités du champ 19 magnétique statique Ba qui accélèrent la décroissance de la composante transversale [Guinet, 1992]. III. Les équations de Bloch Dans la description de la physique, l'évolution de l'aimantation durant l'application de l'impulsion RF est régie par les équations de Bloch. C'est ce que nous détaillons dans ce paragraphe. 111.1. Excitation radiofréquence RF 111.1.1. Caractéristiques de l'impulsion Nous venons de voir dans le paragraphe IL2.2 qu'une impulsion RF désigne l'application transitoire, de quelques microsecondes à quelques millisecondes, d'un champ magnétique BI (t) orthogonal à Ba' Ce champ, appelé encore excitation, est créé généralement par un courant sinusoïdal parcourant un fil conducteur. Dans le cas d'une bobine (solénoïde) d'axe parallèle à l'axe Ï du repère fixe ( voir figure LI), l'expression de BI est de la forme [Liang, 1999] : (1.3) où: Bt(t) est la fonction d'enveloppe de l'impulsion dont la dépendance par rapport au temps signifie que l'amplitude de ce champ est variable pendant sa durée d'application. On dit que l'impulsion est modulée en amplitude OJ RF est la fréquence de l'oscillation (fréquence de la porteuse) cp est la phase initiale Le champ BI donné par l'équation (L3) est dit polarisé rectilignement car il oscille linéairement le long de l'axe Ï. Ce champ peut se décomposer en deux composantes polarisées circulairement et tournantes dans deux sens opposés. Seule la composante tournante dans le sens des aiguilles d'une montre (sens de la précession de Larmor) est 20 efficace pour agir sur le moment magnétique du noyau, et ce à condition que la fréquence soit égale où proche de la fréquence de Larmor [Liang 2000]. Cette composante OJ RF s'exprime par la relation2 [Ernst, 1989] [Liang 1999] : (1.4) D'une façon générale, les d'impulsions sont désignées, en plus de leur angle de basculement, par leur fonction d'enveloppe Ble (t). Parmi les fonctions les plus répandues, nous citons la fonction rectangulaire (porte) et la fonction sinus cardinal (sine). Nous parlerons donc, à titre d'exemple, d'impulsion rectangulaire 180° ou d'impulsion sine 90°. 111.1.2. Le repère tournant Il est commode d'introduire, afin de comprendre plus facilement l'action du champ magnétique RF sur l'aimantation, un repère oxyz appelé repère tournant (figure lA). C'est un système de coordonnées dont le plan transversal xoy tourne dans le sens inverse du sens trigonométrique à la vitesse angulaire OJ RF [Ernst, 1989]. L'axe z de ce repère est confondu avec l'axe Z du repère fixe alors que les axes x et y tournent donc dans le plan XOY comme BI' Ainsi, dans ce repère tournant, le vecteur BI a une direction fixe. Ses deux composantes s'écrivent: 2 BI (t) Bt (t) = Bt (t) cos(cp) (1.5) Bi(t) = Bt(t)sin(cp) (1.6) désigne désormais la composante utile du champ magnétique radiofréquence. 21 y Repère de laboratoire OXYZ et repère tournant oxyz. Figure 1.4 La phase cp de l'impulsion RF est définie par l'excursion du vecteur BI de l'axe x par rapport à l'axe y. Ce paramètre est d'une importance cruciale dans les expériences RMN et doit être contrôlé adéquatement. C'est ce que nous verrons dans le chapitre II. 111.2. Réponse du système à une impulsion RF : l'équation de Bloch 111.2.1. Comportement de l'impulsion d'excitation l'aimantation macroscopique pendant Dans le repère tournant, l'équation de Bloch décrivant l'évolution de l'aimantation macroscopique durant l'application de l'impulsion se présente sous la forme vectorielle suivante [Liang, 1999] : dM /ollr _ _ _ =y(M/ollr ~ x (M ~ollr i + My/our ]) BejJ ) + ----::.-~ 22 /M /our \' z - ~ M o z )k (1.7) où M lou , = (MIOJ/' My x ' lou , , MIOJ/,) est le vecteur d'aimantation dans le repère tournant et Ëeff est z le champ magnétique effectif. C'est, en effet, le champ total vu par l'aimantation dans le repère tournant. Son expression est la suivante [Liang, 1999]: (1.8) Le phénomène de relaxation peut être négligé pendë.Ilt l'application de l'impulsion. La durée de celle-ci étant généralement très petite par rapport à T et à T2 et l'équation de Bloch se réduit à : dM -- -dt= y(MxB ,tr ) (1.9) e)) où M désigne maintenant le vecteur aimantation dans le repère tournant. Dans cette dernière équation, nous avons fait abstraction de l'indice tour car nous travaillons désormais dans le repère tournant. L' équation de Bloch n'a en général de solution analytique que dans quelques cas où la fonction d'enveloppe Bt (t) a une forme particulière. C'est le cas par exemple des impulsions rectangulaires. Dans le cas général, il conviendra donc de faire appel à des méthodes de résolution numérique. Dans ce qui suit, nous nous intéressons au comportement de l'aimantation sous l'action du champ RF dans le cas d'une impulsion rectangulaire. Pour cela, nous allons procéder à la résolution de l'équation de Bloch en distinguant deux cas selon que la fréquence de l'excitation est égale (On-resonance) ou légèrement différente (Off-resonance) de la fréquence de précession. 111.2.2. Excitation On-resonance Par souci de simplification, nous supposons que le champ BI est appliqué selon l'axe T du repère tournant ( cp = 0) pendant une durée r . Le terme On-resonance est employé pour indiquer que la fréquence de l'impulsion est parfaitement égale à la fréquence de précession 23 ({1)RF = (1)0). Dans ce cas, le champ effectif (équation 1.8) se réduit au champ radiofréquence et s'écrit comme: (1.10) En prenant en compte les conditions initiales de l'équilibre, soit M x(0) = M /0) = 0 et Mz (O) = M~, il est possible de montrer que l'évolution temporelle des trois composantes de l'aimantation pendant l'excitation peut s'écrire sous la forme [Liang, 1999] : t M/t) = M~sin( fyBt(O)dO ) (1.11) o t Mz (t) = M~cos( f yBt(O)dO ) o Dans le cas d' une impulsion rectangulaire d'amplitude Bt, ces équations deviennent: Mx (t) = 0 = M~ sin(yBtt) Mit) = M~ cos(yBtt) M /tJ (1.12) Ces équation laissent apparaître que le mouvement de l'aimantation dans le repère tournant est une rotation (figure 1.5). A un instant t donné pendant l'impulsion, tout se passe comme si l'aimantation M~ avait tourné dans un plan perpendiculaire à BI' soit le plan yoz, d'un angle yBtt. A la fin de l'impulsion, l'aimantation aura alors tourné de l'angle de basculement a = yBt-r. Pour une impulsion de forme quelconque et de durée -r , cet angle est donné par : r (Ll3) a = y fBt(O)dO o 24 z ~M(t) a=yBtr yBtt.// .' M(r) ./.' y x Figure 1.5 Evolution de l'aimantation dans le repère tournant pendant une excitation rectangulaire de durée r. L'angle de basculement a est défini comme le plus petit angle entre l'aimantation M(r) à la fin de l'impulsion et l'axe z. L'aimantation qui n'avait à l'équilibre qu'une seule composante longitudinale Mz = M~, possède à la fin de l'impulsion, en plus d'une composante longitudinale, une composante transversale M xy . Dirigée suivant l'axe y (My (r) = M xy (r) ), la composante M xy peut avoir en général une direction quelconque dans le plan xoy. Cette direction, qui représente en réalité la phase du signal RMN reçu, dépend bien évidemment de la direction du champ radiofréquence dans le repère tournant, soit donc de la phase de l'impulsion d'excitation. 111.2.3. Excitation Off-resonance Dans les expériences de RMN, les excitations sont supposées de type On-resonance. Néanmoins, les inhomogénéités du champ statique rendent très difficile la réalisation de telles excitations dans tout le volume de l'échantillon à étudier. Les impulsions sont donc souvent de type Off-resonance, i.e. OJ RF :1; co o ' Soit ~OJo = CO o - OJ RF la quantité traduisant cet écart de fréquence, le champ effectif ËeJJ peut alors s'écrire sous la forme: 25 - BefJ e -: o= -ÔCû - k + BI (t)l (1.14) y Comme nous l'avons dit, une solution analytique de l'équation de Bloch ne peut être obtenue dans le cas général. Cependant, on peut intuitivement prédire, par analogie avec l'excitation On-resonnance, qu'à la fin de l'impulsion, tout se passe comme si l'aimantation avait tourné dans un plan perpendiculaire à la direction du champ effectif. Cette direction étant celle de BI dans le cas de l'excitation on-resonance. Ainsi, la composante transversale de l'aimantation n'est pas forcément dirigée selon l'axe oy. Le terme ô010 = 01 0 - Cû RF dans l'expression de BefJ est souvent négligé lorsque le champ radiofréquence est suffisamment intense (yBt » 1010 -01 1) RF [Ernst, 1989] [Canet, 1991]. Avec cette approximation, l'étude se ramène au cas On-resonance traité ci-dessus. Pour plus de détails sur les équations de Bloch et leurs solutions, le lecteur intéressé pourra se référer à la littérature RMN [Liang, 1999] [Ernst, 1989]. 111.2.4. La période de la précession libre, l'aimantation mesurable Après la fin de l'impulsion d'excitation, le retour à l'état d'équilibre du système peut être également décrit par l'équation de Bloch. En fait, en l'absence du champ radiofréquence BI ' l'expression du champ effectif B efJ devient: (1.15) L'équation de Bloch conduit ainsi au système d'équations suivant [Liang, 1999]: (1.16) 26 Si on considère maintenant que l'origine des temps, t=O, est pris à l'instant où l'excitation, supposée rectangulaire, s'annule et que le terme Off-resonnace est négligeable par rapport au champ radiofréquence, i.e. rBI » 1mo - m l, nous obtenons les conditions RF initiales suivantes : M x(0) = 0 MiO) = M~ sin(a) (1.17) MlO) = M~cos(a) On montre alors que la solution du système d ' équations (1.16) peut être donnée comme [Ernst, 1989] : -( - ( Mit) = M ~ sin (a )sin( L\mot) e T2 (1. 18) -( - ( Mlt) =M~cos(a )e 1i +M~(1 -e 1i ) En introduisant l'aimantation transversale complexe, soit M xy = Mx + iM y' nous obtenons: -( M xy (t) = M~ sin(a)e- i6 (j)o( e T2 (I.19) Une expression analytique de l'aimantation mesurable est donc obtenue car nous nous sommes basés sur une impulsion rectangulaire. Dans le cas général, ceci nécessitera la mise en oeuvre de méthodes numériques de résolution. Le simulateur de signaux RMN que nous présentons plus loin de ce chapitre en constitue une. Il implante, en fait, des opérateurs matriciels pour calculer l'effet de l'impulsion et décrire l'évolution de l'aimantation pendant la période de précession libre. 27 IV. Du signal à l'image, localisation spatiale et gradients de champ magnétique Nous venons de voir dans les paragraphes précédents, qu'une expérience RMN détennine la densité de protons et les temps de relaxation T2 et ~ de l'ensemble de l'échantillon étudié. La formation d'une image (image de la densité de proton dans l'échantillon 3 ) à partir d'un signal nécessite la localisation spatiale des signaux émis par tous les volumes élémentaires, ou voxels, de l'échantillon. Il s'agit donc de codage spatial [Ravier!, 1994]. La méthode la plus couramment utilisée pour le codage spatial est dite de transformée de Fourier. Elle est basée sur la relation de Larmor liant la fréquence de résonance, f , d' un voxel à l'intensité du champ magnétique statique B(X,Y ,Z) appliqué. f( X ,Y, Z) = yB(X,Y, Z) (1.20) où X, y, Z sont les coordonnées du vox el considéré dans le repère du laboratoire. Cette relation montre que, si B est unifonne et vaut Bo, tous les protons de l' échantillon résonnent à la même fréquence, f o' et ce quelle que soit leur position dans l' espace. Le principe de l'imagerie est d'imposer une variation spatiale sur B créée par des gradients de champ magnétique. Cette variation génère ainsi une variation spatiale de la fréquence de résonance des protons. Lorsque la variation spatiale de B est linéaire dans les trois directions de l'espace, la fréquence du signal émis par un vox el dépend linéairement de la position de ce vox el. D'une manière générale, pour produire un gradient de champ magnétique, on superpose au vecteur champ magnétique Bo un vecteur champ magnétique b parallèle à Bo. L'amplitude b du vecteur b , qui est de l'ordre du millitesla (mT), est beaucoup plus faible que Bo' Contrairement à Bo, b varie selon les trois axes X, Y,Z dans l'espace qui contient l'échantillon à imager On peut également obtenir des images dites ~ et T2 représentant respectivement l'image de la distribution du temps de relaxation longitudinale et du temps de relaxation transversale au sein de l'échantillon. 3 28 Pour fixer les idées, considérons l'exemple où b varie linéairement selon l'axe Y (figure 1.6) selon l'équation: (1.21) Pour tous les points d'un plan de cote Y, i.e. parallèle au plan XOZ, le vecteur champ magnétique a la même valeur B donnée par l'équation : (1.22) La constante G y est appelée gradient du champ magnétique selon Y. Elle vaut donc : G = aB (1.23) ay y Le gradient Gy peut être positif ou négatif et s'exprime habituellement en millites1as par mètre (mT/m) et Z . . . y o ********rJlll****.J-----I--LLL~ Figure 1.6 Gradient de champ magnétique selon l'axe Y. 29 En pratique, les gradients sont créés par des bobines appelées bobines de gradient. Elles sont généralement conçues pour avoir une valeur de b nulle à l'origine [Guinet, 1992]. Chaque instrument d'IRM possède trois gradients dans les trois directions de l'espace. Nous allons voir dans le troisième chapitre de ce manuscrit comment l'utilisation adéquate de tels gradients de champ permet de limiter la région excitée et de coder spatialement le signal reçu. On parle ainsi de séquence d'imagerie. En effet, une séquence d'imagerie est une suite d'impulsions RF et de gradients appliqués à un corps pour créer un nombre suffisant de signaux RMN nécessaire à la reconstruction d'une image. Généralement, une séquence peut être divisée en plusieurs cycles répétés avec un temps de répétition approprié TR • Le cycle commence, dans la plupart des cas, par une impulsion RF. Le nombre de répétitions du cycle dépend du type de séquence utilisée. v. Réalisation d'un simulateur de signaux RMN V.1. Objectif et intérêt La simulation en IRM est un complément important à l'expérimentation. Outre sa précieuse contribution dans la compréhension générale de la théorie de la résonance magnétique nucléaire, la simulation permet en réalité d'étudier et d'analyser séparément les paramètres d'influence pouvant intervenir dans l'expérience. Ces paramètres n'étant pas tous accessibles à l'utilisateur d'un appareil d'IRM [Brenner, 1997], [Summer, 1986]. La simulation trouve notamment tout son intérêt pour répondre aux diverses questions pouvant se poser pendant l'expérience [Bittoun, 1984]. Une liste non exhaustive de ces questions comprend les interrogations suivantes: Qu'est ce qu'on mesure par chaque séquence; quel type de distorsions d'image est provoqué par une modification des caractéristiques de l'impulsion RF ou par un changement dans la séquence des gradients ; lesquelles de ces distorsions sont causées par des contraintes technologiques et lesquelles sont dues à des raisons théoriques? La réponse à de telles questions nécessite la connaissance du comportement de l'aimantation régie par l'équation de Bloch dont la solution ne peut être établie que pour un nombre très limité de types d'excitation. La simulation permettra ainsi de s'affranchir de cette limitation. 30 De plus, la spécification, l'optimisation des séquences d'imagerie voire encore le dimensionnement de nouveaux systèmes peuvent être établis à l'aide de la simulation qui pourra, d'ailleurs, constituer un outil pédagogique dans des environnements médicaux et techniques. Nous allons dans ce qui suit décrire la mise en place et la validation d'un simulateur de signaux RMN et nous présenterons et comparerons des exemples de signaux simulés avec des résultats reportés dans la littérature. Ces signaux seront utilisés pour la validation des approches d'identification non linéaire de systèmes RMN traitées dans le chapitre IV. V.2. Pri ncipe et méthode de simulation La simulation en RMN consiste à résoudre numériquement les équations de Bloch, dans le repère tournant, pour chaque point (vox el) de l'échantillon étudié et ce à chaque instant de la séquence. L'accumulation des signaux élémentaires correspondant à tous les voxels de l'échantillon simulé permet de calculer un signal RMN global [Bittoun, 1984]. Il nous faut donc d'abord définir l'échantillon en question. Il s'agit de définir un objet ID, 2D ou 3D pouvant, bien entendu, avoir la forme d'une sphère, d'un cylindre ou d'autres formes géométriques définies par une expression mathématique. Cet objet est discrétisé en petits éléments de volume (voxels) auxquels sont attribuées des caractéristiques essentielles. Celles-ci comprennent notamment les dimensions, le vecteur aimantation locale m, la valeur de l'aimantation à l'équilibre ma (proportionnelle à la densité de protons dans le voxel), et les temps de relaxation locaux 1; et T2 • La deuxième étape de la simulation consiste à résoudre l'équation de Bloch pour chaque voxel de l'objet ainsi défini et ce dans le cas d'une excitation quelconque. Pour cela, nous considérons le fait que la durée de l'impulsion RF est petite par rapport aux temps de relaxation longitudinale et transversale. Avec cette hypothèse, l'équation de Bloch relative à un vox el s'écrit, dans le repère tournant: dm dt où = y(mx Beff} (1.24) m désigne maintenant le vecteur aimantation du voxel. 31 La méthode de résolution de cette équation fait appel à un opérateur matriciel décrivant la rotation, dans le repère tournant, de l' aimantation m sous l'effet de l'excitation. Soit m( X, Y, Z, t) le vecteur aimantation au point (X, y, Z) à un instant donné t. A la fin d'une impulsion rectangulaire de durée r, celui-ci s'exprime à l'aide de cet opérateur par la relation suivante [Bittoun 1984] [Brent, 1986], [Brenner 1997] : m(X,Y,Z ,t + r) = RRF(X,Y,Z), m(X,Y,Z,t) (1.25) L 'opérateur RRF ' appelé opérateur d'impulsion, est donné par la matrice suivante : COS 2 RRF(X, Y,Z) = [ (j3) + sin 2 (fJ) cos(0) sin( 0) sin(j3) - sin(j3) cos(fJ)[I - cos( 0)]] - sin(o)sin(j3) cos(o) - sin(0) cos(fJ) - sin(j3) cos(j3) [1 - cos( 0)] sin(0) cos(j3) sin 2 (j3) + cos 2 (fJ) cos(0) (1.26) où 0 et j3 sont des angles qui dépendent du champ effectif Bef! et que nous explicitons dans ce qui suit. Nous reprenons l'expression du champ effectif donnée par l'équation 1.8 tout en prenant en compte que, lors d'une séquence d'imagerie, le champ magnétique statique en un point (X, y, Z) a la forme générale suivante: où Mo caractérise l'inhomogénéité du champ statique principal Bo en ce point; Gx ' Gy et Gz sont les trois gradients appliqués pendant la séquence d'imagerie pour coder l'espace. Le champ effectif Bef! en ce point de l'objet aura donc pour expression [Bittoun, 1984], [Brent, 1986] : (1.28) Ce champ effectif forme avec l'axe ox un angle j3 donné à chaque point de l'objet par: 32 f3(X,Y,Z) = -arctan(YB~ -OJ RF yBt J (1.29) A la fin de l'impulsion, tout se passe donc comme si l'aimantation avait tourné autour de la direction du champ effectif d'un certain angle 8 par rapport à sa direction initiale [Liang]. Cet angle est donné par : (1.30) avec I10J = yB~ - OJ RF • La relation 1.25 nous permet de simuler n'importe quelle rotation du vecteur de l'aimantation locale en appliquant l'opérateur RRF' Pour décrire l'évolution de cette aimantation pendant la période de la précession libre, nous devons ici faire appel à l'opérateur de relaxation Rrelax' A chaque instant t ' pendant cette période, le mouvement de l'aimantation de chaque voxel est le résultat d'un mouvement de rotation et d'un phénomène de relaxation. La rotation s'effectue autour de l'axe oz et elle est définie par l'angle: (' f O(X,Y,Z,t ' ) = I1OJ(X,y,Z,R)dR (1.31 ) o Quant au phénomène de relaxation, il fait apparaître les deux fonctions d'exponentielles amorties: -l' El (t ') = e 11 (1.32) (1.33) L'opérateur de relaxation s'exprime ainsi par la matrice suivante [Bittoun, 1984], [Brent, 1986] : 33 -E 2 sin(B) E 2 cos(B) (1.34) o Le vecteur aimantation à l'instant t' sera de la forme: m(X,Y,Z,t') = Rre1ax(X,Y,Z,t')* m(X,Y,Z,t + r) +m o(X,Y,Z)(1-E 1 )*k (1.35) Le signal RMN à l'instant t'est obtenu en déterminant le vecteur d'aimantation de chaque voxel de l'objet grâce à cette dernière équation et en effectuant la sommation de toutes les composantes transversales A noter que les opérateurs d'impulsion RF et de relaxation ont été présentés dans de nombreuses publications ([Bittoun, 1984], [Brent, 1986], [Brenner, 1997]) et ne seront pas détaillés davantage dans ce document. Il s'agit uniquement pour nous de les utiliser dans la conception du simulateur de signaux RMN. V.3. Résultats de simulation: exemples de signaux RMN V.3.1. Simulation d'une expérience avec une impulsion rectangulaire: L'expérience de base en RMN consiste à appliquer une impulsion rectangulaire RF de durée r et d'angle de basculement a, et à observer la précession libre de l'aimantation globale (signal FID) pendant un temps T. Le type du signal observé à savoir une exponentielle amortie ne permet pas de révéler la validité du simulateur mis en place. Pour pouvoir valider notre simulateur, nous nous sommes basés sur une expérience particulière décrite dans la littérature. Dans cette expérience, un gradient est appliqué pendant l'excitation et le signal est observé en conservant ce même gradient pendant la période de la précession libre. Le signal obtenu approche la forme de l'excitation et sa durée effective (temps de relaxation effectif) étant approximativement égale à la durée de l'impulsion [Mansfield 1989]. 34 Nous avons donc considéré, dans notre simulation, un objet ID homogène de dimension 25cm. Cet objet est discrétisé en petits éléments auxquels on attribue des valeurs identiques d'aimantation mo (densités identiques de protons). Les temps de relaxation longitudinale et transversale sont respectivement T = 100ms et T2 = 10ms pour tous les points de l'objet. La valeur du champ magnétique Bo est fixée à 0.1 T et celle du gradient selon la direction de l'objet à 2.5mT/m. Nous supposons que les inhomogénéités de ce champ sont négligeables. Le signal RMN que nous obtenons en réponse à une impulsion rectangulaire 90° de durée Ims est donné dans la figure 1. 7. La forme et la durée effective de ce signal comparées à celles de l'excitation appliquée confirment le potentiel de notre simulateur à reproduire les observations décrites ci-dessus [Asfour-JMR, 2000] 1.2 . -- - - - - - - -, -- - - - - - - - , - - - - - - - -- , Excitation Signal FID 0.6 0.4 0.2 0 1 - - - - - - - - ' .* -0.2 ' - - - -- o - -- --"-----------'-------------' 500 1000 1500 Numéro de l'échantillon n Figure 1.7 Signal simulé de résonance (traits continus) dans le cas d'une impulsion rectangulaire (en pointillé) 90° de Ims de durée et en présence d'un gradient de 2.5mT/m pendant l'excitation et pendant l'acquisition du signal. 35 V.3.2. Simulation d'une expérience avec une impulsion de forme quelconque: Tel qu'il a été décrit dans le paragraphe V.2, l'opérateur RRF de l'impulsion ne prend pas en compte les variations dans le temps de l'amplitude Bt (t) du champ radiofréquence BI' De par sa définition, cet opérateur s'applique uniquement au cas d'une impulsion rectangulaire. La simulation des impulsions de forme quelconque consiste à décomposer l'impulsion en une suite d'impulsions rectangulaires d'amplitudes différentes [Asfour-JMR, 2000], [Bittoun, 1984], [Brenner, 1997], [Olsson, 1995]. L'action de chaque impulsion rectangulaire sera alors décrite par un opérateur matriciel. Nous disposons donc d'un ensemble d'opérateurs R~F à appliquer successivement à l'aimantation locale. Cette dernière après l'impulsion i s'écrit: -i m où m _ i 1 = RiRF - (I.3 6) • mi-! est le vecteur d'aimantation après l'application de l'impulsion rectangulaire i-l. L' application de cet ensemble d'opérateurs est donc équivalente à l'application d'une seule impulsion modulée en amplitude. Typiquement, nous avons décomposé l'impulsion modulée en 1024 impulsions rectangulaires. L'intérêt de cette technique de décomposition réside dans sa capacité d'obtenir une solution numérique de l'équation de Bloch dans le cas général. Plusieurs formes de modulation d'amplitude ont été testées. Celles-ci comprennent notamment les impulsions de forme gaussienne, sinus cardinal (sine) ou encore les impulsions modulées en bruit aléatoire. La figure 1.8 montre le signal RMN correspondant à l'objet ID en réponse à une impulsion sine 90° de durée de Ims. Un gradient de 2.5mT/m a été appliqué durant l'excitation et durant la période de la précession libre. Sur cette figure, nous constatons, encore une fois, que la forme du signal RMN approche la forme de l'excitation [Asfour-JMR, 2000]. Le temps de relaxation effectif T2• étant du même ordre de grandeur que la durée du lobe principal du sine. 36 Excitation RF 0.8 SignalRMN 0.6 0.4 0.2 o :". :" , , " , , ' , .". ;: :: -0.2 o 100 200 300 400 500 600 700 800 900 1000 Numéro de l'échantillon n Figure 1.8 Signal simulé (trait continus) de résonance en réponse à une impulsion sinc 90° (en pointillé) d'une durée de Ims en présence d'un gradient de 2.5mT/m pendant l'excitation et pendant l'acquisition du signal. Le travail présenté au cours de ce chapitre a conduit au développement et à la validation d'un simulateur de signaux RMN. De par les principes algorithmiques retenus, ce simulateur permet d'implanter, non seulement une expérience RMN de base, mais toute séquence d'imagerie. Il permet donc la réalisation d'images simulées pour étudier l'influence des paramètres de l'expérience sur la qualité de l'image. Ce simulateur se veut un réel outil offrant un complément d'étude à l'expérience pour toutes équipes de recherche traitant de la RMN. Pour la souplesse d'utilisation de cet outil, nous envisageons le développement d'une interface graphique appropriée. 37 Chapitre Il Description et caractéristiques de l'imageur développé pour l'IRM dédiée à bas champ 38 1. Introduction Dans ce chapitre, nous décrivons la conception et le développement du nouvel imageur numérique d'IRM que nous avons élaboré durant cette thèse. Cette description est complétée par l'évaluation des performances des différents constituants de la chaîne d'acquisition des signaux. Nous rappelons qu'une installation typique d'imagerie par résonance magnétique comporte de loin deux éléments majeurs: l'aimant créant le champ magnétique statique BQ' et l'électronique du traitement et l'instrumentation associée. La création du champ magnétique ne fait pas l'objet de notre travail. Il s'agit uniquement pour nous de réaliser une chaîne électronique complète permettant l'émission et la réception de signaux RF, le traitement numérique des signaux RMN et la reconstruction de l'image. Cette électronique est architecturée autour d'une carte d'acquisition et de traitement du signal temps réel (DSP). L' originalité de l' instrumentation développée réside dans la spécification et l'intégration d'un récepteur et d'un synthétiseur de fréquence entièrement numériques. Ce choix instrumental trouve sa justification dans notre volonté de développer un imageur travaillant à bas champ et dédié à l'imagerie de petits organes. Outre son coût peu élevé [Gries, 1987] qui permet son utilisation dans le contrôle agroalimentaire [Constantinesco, 1997], le bas champ est particulièrement avantageux pour la technique dite d'IRM interventionnelle [Ravier, 1996]. Dans ce contexte du bas champ où le rapport signal sur 7 bruit (RSB) est très faible (RSB oc BQ4), le choix d'une solution numérique permet, contrairement aux systèmes analogiques commercialisés, une amélioration du RSB. Cette solution présente également l'avantage d'être moins coûteuse et moins encombrante [Raoof, 2002]. Il. Description de l'imageur numérique La figure 11.1 présente l'architecture autour d'un DSP du système d'acquisition et de traitement numérique des signaux RMN. A l'exception de l'électro-aimant créant le champ magnétique statique BQ et les bobines de gradients associées, nous avons développé l'imageur dans son intégralité. Ceci comprend donc la conception de l'antenne et du duplexeur pour l'émission des impulsions d'excitation et pour la détection de signaux 39 RMN; de l'amplificateur de puissance RF; du synthétiseur numérique et du récepteur numérique. Synthétiseur numérique puissance 4.783 MHz 40MHz BUS Sorties CNAs CarteDSP } PC BUS Duplexeur Electroaimant et bobines de gradients - ver s les ampliOcateur s des gradients Signal RMN Port série duDSP Récepteur numérique 40MHz Figure II.1 Architecture générale du système numérique pour l'IRM Préalablement au développement de cet imageur, nous avons, bien entendu, conduit une étape de recherche instrumentale qui a relevé que les systèmes analogiques disponibles sur le marché ne peuvent pas répondre à nos besoins spécifiques en terme du RSB de récepteur, de la résolution en fréquence et en phase du synthétiseur, du coût, et de l'encombrement. Le principe général de l'imageur numérique illustré par la figure II.I s'articule autour la génération, par le synthétiseur numérique, de l'impulsion d'excitation à la fréquence de travail fixée dans notre cas à 4.783MHz (ce qui correspond à une valeur de champ d'environ 0.11 T). Cette impulsion, pouvant être modulée en amplitude, en fréquence ou en phase, est ensuite amplifiée grâce à un amplificateur RF linéaire de puissance. Une fois amplifiée, elle est transmise à l'antenne via le duplexeur qui isole le récepteur pendant cette période d'excitation. L'antenne envoie, après la fin de l'impulsion, 40 le signal RMN au récepteur numérique via ce même duplexeur. Le récepteur numérique assure la démodulation numérique du signal RMN reçu dont les échantillons dans la bande de base sont transmis au DSP via son port série synchrone à une vitesse de transmission de 16Mbits/seconde. Pour assurer la synchronisation de tous les évènements temporels conduisant à l'obtention d'un signal ou d'une image, le système est cadencé à la fréquence de l'horloge externe du DSP (40MHz). Cette d'horloge fournit notamment la fréquence de référence du synthétiseur numérique qui, à son tour, délivre un signal d'horloge pour le pilotage du récepteur numérique. La fréquence de cette dernière horloge détermine en réalité la fréquence d'échantillonnage du signal dans le récepteur numérique. Le contrôle des trois gradients lors d'une séquence d'imagerie est assuré par trois convertisseurs numérique-analogique (CNA) du DSP. Nous allons dans la suite de ce chapitre présenter les différents éléments de ce dispositif expérimental. Il.1. L'électroaimant C'est un aimant résistif 1 produisant un champ magnétique statique vertical Bo d'environ 0.11T dans un entrefer de 15cm. Il dispose également des bobines, créant des gradients de champ magnétique dans les trois directions de l'espace, XYZ, et des bobines de correction de l'homogénéité du champ principal Bo. Nous avons effectué des mesures pour évaluer la meilleure homogénéité pouvant être obtenue selon les trois axes X, y, Z Les résultats ont montré qu'une homogénéité d'environ 20ppm (partie par million) est assurée pour chaque axe sur une distance de ± 5em par rapport au centre de l'aimant. Il.2. L'antenne et le duplexeur Dans un système d'IRM, le champ radiofréquence tournant BI (ou impulsion d'excitation) est créé par des enroulements de fils conducteurs, appelés antennes, parcourus par des courants électriques sinusoïdaux. Ces enroulements sont conçus pour 1 Drusch, France. Mis à notre disposition par le Laboratoire de Biomécanique : CHU de Strasbourg. 41 créer un vecteur champ BI orthogonal au vecteur champ Bo et identique dans tous les points du volume à imager. Cette antenne est chargée généralement de recevoir le courant électrique traduisant le signal RMN. Il s'agit d'antenne émettrice-réceptrice2 . Lors de la conception d'une antenne pour l'IRM, certains critères fondamentaux doivent être pris en compte pour garantir une émission et une réception optimales. Pour créer un champ BI dont la composante active tourne à la vitesse angulaire CO o = 27ifo, l'antenne doit être accordée à la fréquence de Larmor imposée par Bo' Cet accord est assuré généralement par une capacité C qui forme avec l'antenne un circuit parallèle RLC résonant dont la fréquence de résonance est alors: 1 co = - o .JLC (11. 1) où L est l'inductance de l'antenne. Le facteur de qualité Q de ce circuit, qui est donnée par la relation 11.2, traduit la sélectivité de l'antenne en terme de fréquence. Q=~ (11.2) R où R est la résistance série de l'antenne. Plus ce facteur de qualité est élevé, plus la résonance est aiguë et plus l'intensité du courant parcourant l'antenne est élevé, ce qui est appréciable en particulier pour la réception du signal RMN. Le champ BI crée par l'antenne doit être homogène dans tout le volume à imager afin d'assurer une excitation identique de l'intégralité de l'échantillon à étudier. Il faut ajouter aussi qu'en imagerie, on peut montrer que l'effet des inhomogénéités de BI se traduit par des pertes du signal (perte en sensibilité de l'antenne) [Pimmel, 1990]. La structure et la géométrie d'une antenne RMN varient énormément d'une application à l'autre. Elles doivent cependant être adaptées à l'échantillon à étudier [Choquet, 1996]. Dans notre application, nous avons choisi la structure d'antenne en 2 On trouve aussi des systèmes où l'émission et la réception sont assurées par deux antennes distinctes. On se limite ici au cas des antennes assurant un double rôle d'émission et de réception. 42 solénoïde qui est particulièrement adaptée à l'imagerie de volume. Cette structure est parmi les plus simples à réaliser et a été longuement étudiée et développée dans des travaux antérieurs [Choquet, 1996], [Pimmel, 1990]. Un solénoïde est une inductance formée par un conducteur de rayon r enroulé en hélice (n spires) autour d'un cylindre de diamètre d et de longueur 1. L'échantillon est placé à l'intérieur du solénoïde. Les principaux paramètres géométriques (d, l, r et nombre de spires n) de ce type d' antenne sont calculés pour obtenir un facteur de qualité le plus élevé possible tout en ayant un champ BI homogène et suffisamment intense. On montre qu'il n'existe qu'un compromis entre le facteur de qualité et l' homogénéité de BI ' Les paramètres de l' antenne permettant de réaliser l' optimal sont spécifiés sur le schéma d'antenne présenté dans la figure 11.2. 1 ~ 0.8d d 1 1 Figure D.2 1 : 1 1 -.::+- -.: :.- 2r S = 3r à 4r 1 1 Schéma d'une antenne solénoïde de dimensions optimales Nous avons réalisé une antenne solénoïde de dimensions avoisinant celles données sur cette figure. Les caractéristiques principales de cette antenne sont résumées dans le tableau IV.I. La fréquence de résonance et le facteur Q de qualité ont été mesurés par la méthode de la bande passante. 43 Diamètre Longueur rayon du Nombre de Fréquence de Facteur de d 1 conducteur spIres n résonance qualité Q mesurée mesuré 4,783MHz 190 r 4cm 3.4cm 1.5mm Tableau n.1 7 Caractéristiques de l'antenne solénoïde. Les signaux RF d'émission et de réception sont couplés à l'antenne par une boucle, dite d'accord, par l'intermédiaire du duplexeur comme le montre la figure 11.3. r*- * *-I~* _*~: ;J:':~::::~_. . .*_-_*_- _*_*_. .*i ! '1 : ~ ' : S2 duDSP ,i ! i o "~ Antenne et capacité d'accord !, Commande TIL du DSP t Câble/oaxi al "4 SI c******* ****i / - - - - - - j!r----" 0; Ll."-:"mJ i 1 i ~:\!:.';' 1 , Boucle !. d'accord 1: : i: L_ __• ____ __ _ ____ _ _. _ _ __ ____ __ __ ___ 1 Le duplexeur Figure II.3 Schéma électrique équivalent de l'antenne et du duplexeur. La boucle d'accord schématisée sur cette figure par son inductance permet de modifier la fréquence de résonance et l'impédance de l'antenne et ce en raison des modifications de l'inductance mutuelle pouvant être générées par les déplacements de la boucle par rapport à l'antenne. Ceci constitue un moyen simple permettant à l'antenne d'être à nouveau accordée et réadaptée en impédance. Ces deux caractéristiques étant modifiées par l'introduction dans l'antenne d'un échantillon. 44 L'antenne étant utilisée en émission et en réception, le duplexeur a pour rôle d'assurer la séparation du circuit d'émission de celui de la réception. Pendant la phase d'émission, celui-ci est chargé de transmettre l'impulsion d'excitation à l'antenne tout en protégeant l'entrée du récepteur numérique de ces mêmes impulsions. En revanche, durant la période de réception, le duplexeur permet la transmission du signal RMN en provenance de l'antenne vers le récepteur tout en assurant l'isolation efficace du circuit de réception de celui de l'émission. Cette séparation évite une détection de bruit provenant de ce dernier. Le duplexeur est, en fait, composé principalement de deux interrupteurs RF, de deux diodes de signal montées en tête-bêche et d' un câble coaxial de longueur Â" soit 4 environ 16m pour la fréquence 4.783MHz. Les deux interrupteurs RF sont commandés par des signaux logiques compatibles TTL générés par le DSP. En émission, les signaux de commande sont tels que les interrupteurs 1 et 2 sont respectivement fermé et ouvert. Les diodes sont conductrices le l'excitation RF est transmis à la boucle d'accord. Au niveau du récepteur, l' extrémité du câble coaxial Â, 4 se trouve en court-circuit assuré par l'interrupteur 2 alors ouvert. L'impédance ramenée au niveau de la boucle d'accord est infinie et la réception se trouve par conséquent verrouillée. Aucun signal ne parvient donc au récepteur. A la fin de l'impulsion, i.e. en réception, le rôle de deux interrupteur s'inverse et les diodes sont donc bloquées. Le signal RMN détecté par la boucle d'accord parcourt donc le seul chemin possible vers le récepteur via le câble quart d'onde. Il.3. L'amplificateur RF de puissance Il est chargé d'effectuer l'amplification nécessaire pour la production d'un champ BI suffisamment intense. Les caractéristiques les plus relevantes de l'amplificateur RF de puissance pour l'IRM sont la linéarité, la sélectivité autour de la fréquence d'intérêt et la puissance maximale disponible. Cette dernière est d'environ 200W pour notre imageur. Les détails de conception et de réalisation de cet amplificateur ne seront pas exposés ici. Nous présentons brièvement ses principales composantes et nous donnons également ses caractéristiques de performance liées à notre objectif. 45 L'amplificateur que nous avons développé est fonné de l'association de deux étages d'amplification réalisés sur deux circuits imprimés indépendants. Le premier est un préamplificateur large bande de faible puissance. L'amplification de puissance proprement dite est réalisée par un deuxième étage sélectif autour de la fréquence du travail. Il.3.1. Le préamplificateur Il est constitué par la mise en cascade de trois étages d'amplification à base de transistors de puissance bipolaires (figure II.4). Le premier étant un montage émetteur commun fonctionnant en classe A et réalisant aussi un filtre passe-haut dont la fréquence de coupure voisine le 3MHz. Le deuxième étage, fonctionnant également en classe A, a la même structure que le premier. Il possède à son entrée un filtre passe-bas de fréquence de coupure d'environ 20MHz. Ces deux étages fixent ainsi la bande passante du préamplificateur à 3-20MHz et pennettent d'amplifier le signal d'entrée (généralement un petit signal) à un niveau nécessaire à l'attaque du troisième étage. Celui-ci est composé d'un amplificateur travaillant en classe B fonné par deux transistors montés en push-pull pour assurer l'amplification finale du signal. Vers l'étage sélectif ~----------- Y ----------_/ Deux étages classe A ~-------V -------~ Etage Push Pull classe B Figure II.4 Schéma bloc du préamplificateur. 46 Les caractéristique fréquentielles du préamplificateur sont présentées dans la figure n.5 en terme de son gain en tension Av. Dans la bande de fréquences 3-20MHz, un gain en tension d'environ 24dB est obtenu. 26~---.----.----.----.----.----.----.----~----.----.---. 24 22 co ~Q) 20 ~ t5 18 OUi c 2 c Q) o~ 16 (!) 14 12 10 ~--~----~--~----~--~----~--~----~----~--~--~ o 2 468 10 12 14 16 18 20 22 Fréquence en MHz Figure II.5 Gain en tension du préamplificateur en fonction de la fréquence. Il.3.2. L'étage sélectif Il est constitué d'un amplificateur de puissance fonctionnant en classe C autour de la fréquence d'intérêt. Nous avons choisi de réaliser ce type d'amplificateur en raison de l'adéquation de ses caractéristiques à nos besoins. D'une manière générale, un amplificateur de classe C a un rendement supérieur à celui de la classe B. Toutefois, pour amplifier un signal sinusoïdal, il faut l'accorder à la fréquence de celui-ci. L'amplificateur classe C est dit sélectif et réalise l'amplification dans une bande étroite autour d'une fréquence centrale. 47 Le schéma bloc de cet étage d'amplification est représenté sur la figure 11.6. Le circuit résonant placé à la sortie du transistor permet de sélectionner les fréquences dans une bande étroite autour de sa fréquence de résonance 5.1MHz. Ce circuit offre la possibilité de pouvoir accorder l'amplificateur à n'importe quelle autre fréquence de résonance dans la bande passante du préamplificateur. Ceci nous permet d'adapter l'amplificateur de puissance pour d'autres fréquences de travail (donc pour d'autres valeurs du champ magnétique statique) dans la bande 3-20MHz. Actuellement, une autre version de cet amplificateur est en cours de développement pour Un imageur travaillant à 15MHz. Sortie d u préamplific ateur ~ Circuit résonant Vers l'antenne '--------------~-------------~ Etage sélectif classe C Figurell.6 Schéma bloc de l'étage sélectif 1/.3.3. Caractéristiques mesurées de l'amplificateur total Les caractéristiques fréquentielles de l'amplificateur complet sont représentées sur la figure II. 7. La fréquence de résonance est voisine de 5.1 MHz. Pour cette fréquence, le gain total en tension est d'environ 43dB, soit 19dB de gain pour l'étage sélectif. 48 45 40 35 30 []J "0 ;:: QI ~;:: .~ 25 20 ;:: .2l ;:: QI ;:: 15 cii (9 10 5 0 -5 0 Figurell.7 2 4 6 8 10 12 Fréquence en MHz 14 16 18 20 Gain en tension de l'amplificateur RF en fonction de la fréquence La figure IL8 présente les variations de la tension de sortie en fonction de celle de l'entrée qui montrent la linéarité de l'amplificateur dans la bande passante. Sur cette même figure est donnée aussi la puissance crête à crête en sortie en fonction de celle de entrée. Une puissance maximale crête à crête d'environ 180W peut être donc obtenue. 49 100.------,,------.-------,------,-------,-------,------, 90 ~ 80 Q) ~ 70 fi) c: Q) 8 'iii '5 60 ~ Q) 'C 2 'Q) t -lU Q) ~ (,) Q) 'C :ê a. ~ 20 10 0.1 0.2 0.3 0.4 0.5 Amplitude crête à crête de l'impulsion en entreé (Volt) 0.6 0.7 160.-----.------.-----.------.-----,,-----.------.-----.-----~ 160 ~ Q) 'E 140 fi) c: Q) 8 120 'iii '5 a. ~ 100 Q) u Q) ~ 60 (,) 'aI 2 '~ 60 Q) (,) c: al :ll '5 40 c 20 2 3 4 5 6 7 Puissance crête à crête de l'impulsion en entreé (mW) 8 9 Figure II.8 Caractéristiques entrée-sortie de l'amplificateur RF. En haut: l'amplitude crête à crête de l'impulsion en sortie en fonction de l'amplitude crête à crête d'impulsion en entrée; En bas: la puissance crête à crête de l'impulsion en sortie en fonction de celle en entrée (puissances mesurées sur une charge de 50n. 50 Il.4. La Carte DSP (Digital Signal Processor) Elle constitue le coeur du système d'imagerie. Cette carte 3 d'acquisition, de contrôle et de traitement est architecturée autour du processeur de traitement du signal DSP (Digital Signal Processor) ADSP21061 SHARC (Super Harvard Arcitecture Computer) d'Analog Devices. C'est une carte de type «Plug and Play» interfacée avec le PC via le bus PCI de celui-ci. Comparé à un processeur conventionnel, l'utilisation de DSPs dans le système d'IRM offre plus de possibilités et de flexibilité en traitement du signal et en reconstruction d'images [Morgan, 1999]. Les processeurs ADSP21061 sont des processeurs 32 bits travaillant en virgule flottante. Ils sont optimisés pour le traitement numérique du signal en temps réel et largement utilisés dans les applications nécessitant une grande vitesse de calcul. Leur réputation vient principalement de leur capacité d'effectuer les calculs en virgule flottante. Ils répondent ainsi à des critères de qualités plus élevés que leurs équivalents en virgule fixe. L'horloge interne (160MHz) du processeur est générée à partir d' une horloge externe sur la carte. Cette dernière horloge de fréquence égale à 40MHz constitue également l ' horloge de référence du synthétiseur numérique (voir fi gures il. 1). Le processeur possède une mémoire interne de 4Mbits (4mégabits) et dispose de plusieurs protocoles rapides et efficaces pour la communication et le transfert de données avec une large variété de périphériques (mémoire externe, PC, autres DSP, périphériques de traitement numérique du signal. ). En particulier, nous utilisons deux ports série synchrones pour le transfert de données numériques (échantillons du signal RMN) du récepteur vers la mémoire interne du DSP. Des bus parallèles nous permettent également de charger, à partir du DSP, les paramètres du récepteur numérique et du synthétiseur numérique (voir figures il.1, Il.9 et il.11). En plus du processeur, la carte, intègre un convertisseur analogique-numérique (CAN) et trois convertisseurs numérique-analogique (CNA). Le CAN possède 4 entrées qui peuvent être converties les unes après les autres sur 12 bits à une fréquence d'échantillonnage paramétrable entre 153Hz et 29kHz Les trois CNAs transforment des données à virgule flottante en des données à virgule fixe avant de procéder à la conversion en signal analogique dont le niveau est réglable dans la gamme ± 10 Volts. Le bruit résiduel à la sortie est très inférieur à 1 51 mVolt. Ces trois CNAs sont chargés de contrôler les trois gradients lors d'une séquence d'imagerie (figure II.1). La programmation de la carte peut se faire en langage assembleur ou en langage C. Pour optimiser le temps du calcul et l'utilisation des mémoires, nous avons choisi de développer tous nos programmes en assembleur. Pour plus de détails concernant l'architecture du processeUr ADSP21061 et les possibilités offertes, le lecteur pourra consulter le document de synthèse donné en annexe. Il.5. Le synthétiseur numérique Il.5.1. Intérêt du synthétiseur numérique Dans un instrument d'IRM, les tâches que doit accomplir le synthétiseur de fréquence se multiplient en raison du développement rapide de nouvelles techniques (séquences) d'imagerie. Ces techniques, qui sont de plus en plus sophistiquées, placent des exigences supplémentaires très strictes sur le synthétiseur de fréquence. Celles-ci concernent essentiellement la phase et la fréquence des impulsions générées par le synthétiseur. En effet, quelques méthodes d'imagerie rapides, comme certaines variantes de la séquence d'équilibre dynamique, nécessitent l'incrémentation de la phase des impulsions successives par des quantités programmables [Liang, 1999]. D'autres séquences font appel à une modulation, par un signal modulant prédéfini, de la phase de l'impulsion d'excitation. Plus classique, nous pouvons citer l'imagerie multi-coupes qui impose une modification de la fréquence des impulsions successives et l'imagerie dite décalage du champ d'imagerie 4 (offset field ofview imaging) dans laquelle la fréquence du signal utilisé pour démoduler le signal RMN reçu, doit être décalée par rapport à la fréquence de Larmor. Nous pouvons aussi rajouter certaines techniques d'imagerie qui utilisent une modulation de fréquence de l'impulsion d'excitation [Stormont, 1990]. Plus généralement, le point commun entre toutes les méthodes d'imagerie consiste dans la nécessité de maintenir une relation connue entre la phase du signal d'excitation et 3 4 SRT (Signal Recherche & Technologie) : France Voir Chapitre III pour la définition du champ d'imagerie. 52 celle du signal utilisé pour la démodulation des signaux RMN et ceci pour faciliter, après acquisition, l'application, si cela est nécessaire, d'une correction de phases. Les synthétiseurs actuels peuvent difficilement satisfaire l'ensemble de ces exigences et s'ils le font, ce n'est qu'avec complexité et peu de souplesse. Ces contraintes nous ont conduit à choisir une solution technologique consistant dans l'utilisation d'un synthétiseur numérique programmable avec une grande flexibilité et aisance. Le synthétiseur numérique AD9852 que nous avons donc intégré dans notre système d'imagerie constitue une grande nouveauté dans le développement instrumental de l'IRM. Il peut générer le signal de l'excitation avec une fréquence et une phase précises et quelconques. Ce signal peut être facilement modulable en amplitude, en fréquence et en phase. Il.5.2. Le fonctionnement du synthétiseur AD9852 Le synthétiseur numérique AD9852 d'Analog Deviees est un circuit hautement intégré qui utilise la technologie avancée de la synthèse directe de fréquence encore appelée DDS (Direct Digital Synthesizer). Cette technologie innovatrice et ultra rapide ne fait pas appel à l'usage de boules à verrouillage de phase (PLL) systématiquement employées dans les synthétiseurs de fréquence. En effet, les synthétiseurs de fréquence basés sur l'utilisation d'un PLL présentent les inconvénients d'instabilité face au changement rapide de fréquence. Ils souffrent également de la présence d'un bruit de phase non négligeable [Raoof, 2002]. La technologie DDS est basée sur le fait qu'on peut définir une sinusoïde, dont on connaît la fréquence et la phase, en spécifiant une série de valeurs (échantillons) prises à des intervalles égaux définis par la fréquence d'échantillonnage. Cette série de valeurs est envoyée à un convertisseur numérique-analogique qui fournira donc le signal analogique. La figure 11.9 montre le diagramme simplifié du synthétiseur AD9852 utilisé. 5 M. Decorps : notes de cours DEA Méthodes Physiques Expérimentale, 1998. 53 DDS / / -'<-.,>' / I2-bits CNA 1 I2-bits - / Sortie du synthé,!iseur a I2-bits / / // .4l Jl 32-bits r+ / / I4-bits ./ Fréquence amplitude Phase CNA2 I2-bits V lEntrées .-_ _ _--tt-jnalogiques L.~~. 4 Registres de programmation Sortie analogique _ . / V 1 Sortie horloge comparateur / Horloge de référence (40MHz) ~ V Liaison parallèle 8 bits Chargement des paramètres (fréquence, phase, amplitude par le DSP ** ____~. Figure II.9 DSP **••••••. : Diagramme simplifié du synthétiseur numérique AD9852 Le DDS, associé à un convertisseur numérique-analogique (CNA 1) interne de 12 bits ultra rapide (300MHz), fonne un circuit synthétiseur numériquement programmable. Référencé à une source d'horloge stable, ce synthétiseur produit une sortie très stable en tenne de fréquence, de phase et d'amplitude. Fréquemment utilisé dans les applications de télécommunications, ses caractéristiques remarquables sont des atouts majeurs pour son utilisation dans un système d'IRM car elles répondent aux critères et aux exigences mentionnées au paragraphe précédent. L'horloge de référence du synthétiseur est fournie par le DSP (40MHz). Le synthétiseur génère ensuite sa propre horloge interne de fonctionnement. La fréquence de cette dernière est programmable et peut aller jusqu'à 300MHz. Cette fréquence, qui constitue la fréquence d'échantillonnage du signal numérique à la sortie du DDS, est 54 actuellement fixée 200MHz. Ainsi, la fréquence maximale du signal généré par le synthétiseur est alors de 100MHz. La fréquence, la phase et l'amplitude du signal synthétisé sont directement programmables par le DSP avec la possibilité de mise à jour rapide de la fréquence (100 millions de nouvelles fréquences par seconde). La résolution en fréquence étant de 48 bits, ce qui correspond à 1microHertz pour une fréquence d'horloge interne de 300MHz. Cependant, seuls 32 bits sur 48 bits sont actuellement utilisés pour conserver la même résolution fréquentielle entre le signal d'excitation et le signal utilisé pour la démodulation dans le récepteur et qui possède une résolution de 32 bits (voir paragraphe II.6.2.2). Quant à la phase du signal synthétisé, elle est programmable avec une résolution de 14 bits, soit donc 0.02°. A titre de comparaison, nous signalons que les résolutions en fréquence et en phase sont respectivement de O.IHz et de 0.225° pour un synthétiseur de fréquence utilisé actuellement sur une console conventionnelle d'IRM 6 Le signal numérique synthétisé par le DDS est envoyée sur le CNA 1 qui délivre le signal analogique (une sinusoïde). La disponibilité d'un deuxième convertisseur CNA 2 et d'un comparateur ultra rapide (figure 11.9) est une particularité de grande importance pour notre système d'imagerie dans le contrôle de la phase absolue, i.e. le contrôle de la référence de phase des impulsions lors d'une séquence d'imagerie. En effet, la phase de la première impulsion du cycle de la séquence définit la phase de référence. Cette phase doit être conservée d'un cycle à l'autre durant toute la séquence. Pour ce faire, cette phase de référence peut être définie par un nombre programmable par le DSP et envoyé au CNA 2 qui donne un niveau de tension fixe à sa sortie. L'envoi d'une impulsion ayant la même phase de référence se fait en comparant, grâce au comparateur, la phase actuelle de la sortie du synthétiseur avec la tension de référence. Le résultat de comparaison est interprété par le DSP qui sera chargé d' ajuster la phase de la sortie du synthétiseur pour avoir la valeur de la phase de référence. 6 Données techniques du fabriquant S.M.I.S. 55 Il.6. Le récepteur numérique Comme nous l'avons mentionné au premier chapitre (paragraphe II2.3), le signal RMN est généralement détecté en quadrature. La performance de cette détection est essentiellement caractérisée par le rapport signal sur bruit (RSB) du récepteur. Celui-ci constitue donc l'élément clé qui doit permettre d'extraire le signal utile avec un maximum duRSB. Il.6.1. Rappel : récepteur analogique La structure typique d'un récepteur utilisé dans un instrument conventionnel d ' IRM est représentée sur la figure II. 10 CL 1 CAN Filtre passe b as Signal RlvIN (t ~ Antenne 0 CIl Synthétiseur local de fréquence '"0 Préamplificateur Déphaseur CL Q CAN Filtre passe bas Figure II.10 Schéma général d'un récepteur analogique. Le signal en provenance de l'antenne est amplifié par un préamplificateur de gain fixe (40-50dB). Ce signal est dirigé sur deux voies et multiplié par les deux signaux (sinus 56 et cosinus) fournis par le synthétiseur local de fréquence. Les sorties des deux voies sont filtrées par un filtre passe-bas pour donner les deux signaux basses fréquences dans la bande de base. Ces deux signaux, correspondant à la partie réelle l et la partie imaginaire Q du signal RMN, sont appliqués respectivement à un convertisseur analogique numérique fonctionnant typiquement à une fréquence d'échantillonnage de quelques 10kHz. Les échantillons en format numérique sont ensuite transmis vers une carte d'acquisition et de traitement DSP pour être exploités dans le calcul du spectre ou la reconstruction de l'image par exemple. Peu de traitement numérique du signal est effectué dans ce type de récepteur Le récepteur analogique a des limitations liées à l'utilisation de composantes analogiques, i.e. l'amplificateur, le synthétiseur local, le déphaseur (7r ), le multiplieur et 2 les filtres. Toute composante analogique est, comme nous le savons, une source du bruit thermique qui dégrade significativement le RSB . Les deux voies de la chaîne analogique, supposées parfaitement identiques, ne peuvent pas l'être en pratique en raison des imperfections des composants analogiques. Par conséquent il peut y avoir un niveau continu sur l'une et/ou l'autre voie, une différence de gain entre elles ou un défaut de déphasage. Ceci est aggravé dans le temps par la sensibilité des composants analogiques aux variations de la température et au vieillissement. L'ensemble de ces défauts, qui ne sont pas facilement maîtrisables, conduit à l'apparition d'artéfacts, appelés artéfacts de quadrature, sur l'image. La détection en quadrature peut être grandement améliorée par l'utilisation de techniques de traitement numérique du signal. Il devient aujourd'hui très attractif d'accomplir le maximum des étapes de la détection en quadrature dans le domaine numérique. On parlera donc de récepteurs numériques (radio logiciel). En d'autres termes, le convertisseur analogique-numérique peut être déplacé en amont de la chaîne de réception au plus près de l'antenne. Cela est rendu aujourd'hui possible grâce aux avancées technologiques dans le développement des convertisseurs analogique-numérique en terme de résolution (nombre de bits) et de fréquence d'échantillonnage [Walden, 1999]. En effet, le développement accéléré de systèmes numériques de traitement du signal haute fréquence est le fruit du marché en pleine expansion de la téléphonie mobile. La demande est tellement forte que le rapport qualité/prix des systèmes numériques ne cesse d'augmenter. 57 Il.6.2. Intégration d'un récepteur numérique Il.6.2.1. Description générale Nous avons donc intégré dans notre système d'imagerie un récepteur numérique (figure II.11) typiquement employé dans les applications de télécommunication. Ce récepteur présente plusieurs avantages par rapport au récepteur analogique. Il permet un échantillonnage direct des signaux pour améliorer les performances de la réception et réduire le coût et le bruit de l'électronique. Après échantillonnage, la démodulation et le traitement du signal se font numériquement avec plus de flexibilité et de précision qu'en traitement analogique. Tous les problèmes rencontrés avec le récepteur analogique sont donc résolus ou au moins minimisés grâce à la réception numérique. DDC 1 3 Nitres de décimation Contrôle automatique du gain entrée Synthétiseur numérique local CAN Signal RMN Fréquence __~d~'oc~'~h=an=t=ill~o=nn~a~e__~________~~ Q * 3 Nitres de décimation *** * 40MHz Port série ------tBUS DSP Figure II.11 Schéma du récepteur numérique Le récepteur accepte des signaux analogiques et fournit les deux sIgnaux en quadrature (I et Q) en format numérique dans la bande de base. 58 Le seul élément analogique du récepteur est l'amplificateur à gain numériquement programmable. Ainsi, le signal RMN, encore analogique, est amplifié avant d'être numérisé grâce à un convertisseur analogique-numérique (CAN) 12-bits dont la fréquence d'échantillonnage, numériquement programmable, peut aller jusqu'à 50MHz. Le signal numérique est ensuite démodulé numériquement grâce au démodulateur DDC (pour Digital Down Converter). Dans celui-ci, le signal est multiplié numériquement par les deux signaux de multiplication fournis par un synthétiseur numérique local. Le DDC assure également le filtrage passe-bas grâce à une cascade de trois filtres de décimation de réponse impulsionnelle finie (RIF). Les échantillons numériques de la partie réelle (1) et de la partie imaginaire (Q) du signal sont ensuite transmis au DSP via son port série à une vitesse programmable. Tous les paramètres du récepteur incluant la fréquence d' échantillonnage, la fréquence et la phase du synthétiseur local et les facteurs de décimation des filtres ainsi que leur coefficients sont programmables par l'utilisateur via le DSP. Il.6.2.2. Caractéristiques principales du récepteur numérique utilisé o L'amplificateur programmable DVGA (Digital Variable Gain amplifier) C'est un amplificateur à gain numériquement programmable entre -12 et 30dB par pas de 6dB dans une bande passante de 350MHz. Le bruit de l'amplificateur est très faible (2.5nV /.J Hz). o Le convertisseur analogique-numérique (CAN) Il est optimisé pour les récepteurs numériques hautes fréquences amSI que pour d'autres applications nécessitant une bonne résolution, une fréquence d'échantillonnage élevée et une large plage dynamique. Un rapport signal sur bruit (RSB) d'environ 67dB est obtenu à la sortie du convertisseur. A noter que l'amplificateur programmable (DVGA) en combinaison avec le DDC peuvent assurer un contrôle automatique du niveau du signal à l'entrée du CAN. Cela permet de compresser ou d'augmenter la plage dynamique du signal l'échantillonnage. En faisant ainsi, la plage dynamique du CAN est améliorée. o Le synthétiseur numérique local 59 avant Il est constitué d'un oscillateur numérique local qui fournit les deux signaux de multiplication avec une précision de 32 bits en fréquence, soit une résolution de 0.02Hz pour une fréquence d'horloge de 50MHz, et de 16 bits sur la phase (résolution de 0.005°). o Les filtres numériques passe bas de décimation D'une manière générale, un filtre numérique est une alternative au filtre analogique si les performances recherchées dépassent les limites physiques des composants analogiques. Les filtres numériques sont également plus efficaces que leurs *contre parts de filtres analogiques en terme de sélectivité et de linéarité de phase [Chester, 1999]. Les trois filtres numériques du récepteur sont dits de décimation. En plus de son rôle comme filtre passe bas, un filtre de décimation accomplit un sous-échantillonnage du signal. En d'autre terme, si on désigne par te la fréquence d'échantillonnage du signal à l'entrée d'un tel filtre ayant un rapport de décimation M, le signal à sa sortie se trouve échantillonné à une fréquence égale à te. Ceci revient donc à choisir en sortie du filtre un M échantillon parmi M à son entrée, comme le montre la figure H.12 ~I te 0 ~I ~M te Filtre passe bas te M • 1 te le 2 2 Figure II.12 ~ te 2M illustration du concept de la décimation. Ce processus de décimation permet d'augmenter le RSB du convertisseur. En effet, la bande passante d'un système numérique est fixée par la fréquence d'échantillonnage et s'étend de 0 à te . Après décimation d'un rapport M, 2 60 cette bande se réduit à te . Le 2M rapport signal sur bruit (RSB), qui est inversement proportionnel à la bande passante, est ainsi amélioré. Dans notre récepteur numérique, l'application de cette opération, appelé encore traitement du gain, permet d'améliorer le RSB du convertisseur d'environ 24dB. Dans le récepteur numérique, le premier filtre de décimation est du type CIC (pour Cascaded Integrator Comb). TI assure une décimation d'un facteur élevé compris entre 8 et 2048. Les coefficients de ce filtre sont fixés. Le deuxième filtre possède 21 coefficients programmables par l'utilisateur. Son facteur de décimation est fixé à 2. Ce filtre sert à compenser les ondulations produites par le premier filtre. La réponse impulsionnelle de ce filtre et son gain en dB sont représentés sur la figure ll.13 35)(10' QG . 70 30 20 10 *lO~----!---~ 1 0--"""" ' 5---f2O'------.' ~L---~--~10~--~1~'--~20~---.'~ - Figure II.13 _(>Hz) Réponse impulsionnelle et gain du deuxième filtre de décimation. Quant au troisième filtre, il a 63 coefficients programmables et un facteur de décimation qui peut prendre une des deux valeurs 2 et 4. Ce filtre est chargé de définir la largueur finale de la bande passante. TI doit donc être adéquatement synthétisé, dans notre cas, de manière à avoir la bande passante désirée pour notre système d'imagerie. Il.6.2.3. Evaluation récepteur expérimentale des caractéristiques du Pour quantifier les performances du récepteur numérique, en terme de RSB, de sensibilité et de réjection de bruit, nous l'avons testé en appliquant à son entrée un signal de niveau connu. 61 Nous avons, au préalable, fixé la fréquence d'échantillonnage du CAN à 50MHz. La fréquence de démodulation a été fixée à 5MHz. Le facteur de décimation total a été choisi, par les trois filtres, de telle manière que la fréquence d'échantillonnage finale soit de 25kHz dans la bande de base, soit donc un facteur de décimation total de 2000. Nous avons calculé la réponse implusionnelle du troisième filtre de décimation pour avoir une largeur de bande finale de 5.8kHz à - 3dB [Rao of, 2002]. C'est en effet la largeur de bande nécessaire pour les signaux RMN sur notre système. Les coefficients du filtre ainsi calculés sont représentés au même temps que le gain du filtre sur la figure II.14. La procédure de test a consisté à appliquer un signal sinusoïdal de fréquence 5MHz et ayant une amplitude réglable entre -50dB et - 130dB. Nous avons constaté que la sensibilité du récepteur était de - 120dB. Nous avons également validé la largueur de bande choisie et en particulier fréquence de coupure du filtre de décimation que nous avons synthétisé. 1 10' . . . do_ *'O~---;'~O~-:!20;--~";------;;;40~---:;;50~~"~ *200~-----C~~~----:':-------C:-----;IO;------;'2;-' _(1Hz) Figure II.14 Réponse impulsionnelle et gain du troisième filtre de décimation. La meilleure plage dynamique, en pleine échelle numérique de sortie, a été obtenue pour un signal d'entrée de -96dB, ce qui représente donc un gain du récepteur numérique de 96dB contre environ 80dB pour un récepteur analogique7 • La réjection de bruit hors bande a été évaluée en appliquant au récepteur la somme d'un signal de 5MHz et d'un bruit large bande avec un RSB de OdB. Ce bruit a une largeur de bande de 4MHz de chaque côté en dehors d'une bande de ± 50kHz autour de 5MHz. Les résultats ont montré une réjection totale du bruit hors bande. 7 Données techniques du fabriquant S.M.LS 62 Chapitre III Résultats: signaux RMN et premières images 63 1. Introduction Dans ce chapitre, nous allons donner, en premier lieu, quelques exemples des signaux les plus caractéristiques en RMN obtenus avec notre système d'imagerie numérique. Dans un deuxième temps, nous présenterons la méthode générale permettant le codage de l'espace et la reconstruction d'une image à partir du signal. La capacité de l'imageur de produire des images sera ensuite illustrée à travers un exemple des premières images obtenues avec quelques essais esquissés basés sur la séquence d'écho de gradient. Nous clôturerons ce chapitre par une brève présentation des travaux en cours de réalisation. Il. Signaux RMN acquis avec l'imageur numérique Il.1. Signal de décroissance d'induction FIC La figure III.1 montre un exemple du signal FID démodulé acquis grâce à notre système d'imagerie décrit au chapitre II. Ce signal, obtenu sur un échantillon cylindrique d'eau déminéralisée, est donné par sa partie réelle l et sa partie imaginaire Q qui sont naturellement déphasées de 7r. 2 La fréquence d'échantillonnage est de 10kHz. L'excitation étant une impulsion rectangulaire 90° de 2ms. 64 . : . -1 '," 1 , *1 . . . iii"i+i+']i ' !+i'!'+ii'i+iillii+ " + oeil* ! Figure m.l Il.2. l. ! Signal de décroissance d'induction FID obtenu avec le système d'imagerie. Les signaux d'écho Les signaux dits d'écho de spin et d'écho de gradient ont une importance majeure en IRM, car ce sont ces types de signaux qui sont généralement utilisés pour la réalisation de l'image. Nous allons donc les exposer dans ce paragraphe. Il.2.1. Signal d'écho de spin Comme nous l'avons vu dans le premier chapitre et l'avons illustré ci-dessus, le signal FID a la forme d'une exponentielle amortie avec une constante de relaxation transversale effective T;. Cette décroissance selon T2• est due, rappelons-le, aux hétérogénéités du champ magnétique statique Ba' La technique dite d'écho de spin permet d'éliminer à un instant déterminé l'influence des hétérogénéités de ce champ magnétique. Il s'agit, plus précisément, de transformer grâce 65 à une impulsion RF, un signal d'induction décroissant FID en un signal d'écho [Guinet, 1992]. On se place dans le cas où a été créé, à l'instant t=O, un signal de décroissance d'induction FID, à l'aide d'une impulsion 90° (figure III.2). Si une impulsion 180° est appliquée à un instant T où le signal FID a pratiquement disparu, on constate qu'il apparaît à nouveau un signal d'induction. Ce signal est appelé signal d'écho, i.e. écho du signal FID initial. t , "\ , Signal FID théorique e -" "--- T2 t .-_ ' -'",",--Signal FID réel " e T2• t 1 1 1 0 . : 180° ~ 1 9n 1'" 1 1 1 1 t ~I", 1 T ~ T 1 • ~ TE Figure m.2 Illustration du signal d'écho de spin. L'intervalle de temps, ou temps d'écho, noté TE' qUI sépare l'impulsion 90° du maximum du signal d'écho, est égale au double de l'intervalle de temps qui sépare les deux impulsions 90° et 180°. L'amplitude A(TE ) du maximum du signal d'écho est telle que: _TE A(TE ) = A(O)e (III. 1) T2 où A(O) est l'amplitude du signal FID à l'instant initial t=O. 66 Cette amplitude du maximum du signal d'écho, qui dépend du temps de relaxation transversale T2 de l'échantillon (et non de T;) , traduit le fait que l'influence des hétérogénéités de Bo est éliminée à l'instant TE' Plus de détails sur le mécanisme de la fonnation des signaux d'écho de spin se trouvent dans la littérature [Liang, 1999] et [Guinet, 1992] . Un exemple de signaux d'écho de spin obtenus avec notre système d'imagerie est illustré dans la figure III.3 qui donne la partie réelle de ce signal. Les excitations sont des impulsions sine 90° et 180°. Le temps d'écho TE étant de 20ms. : •• •• : • . •• 1• . : Impulsion 180° *1* FID initial Figure m.3 Echo de spin Signal d'écho de spin obtenu avec une impulsion 90° suivie d'une impulsion 180°. Le temps d'écho TE est de 20ms. 67 1/.2.2. Signal d'écho de gradient Un signal d'écho de gradient est produit par l'application adéquate d'un gradient. La chronologie de l'expérience conduisant à ce signal est donnée par la figure IlI.4. ____ ______________________________________ Impulsion RF ~n~ t__). t Gradient ) . A(0) \ ,A(O)e;; ****1",********** , Signal '[ . t --------+-----~ o )' T Figure m.4 T T lllustration du signal d'écho de gradient Après l'application d'une impulsion RF, un gradient négatif de champ magnétique est appliqué suivant une direction donnée pendant une durée T. Ce même gradient est ensuit inversé et appliqué pendant une durée égale à 2T. On constate alors l'apparition d'un signal d'écho dont le maximum se situe au milieu du lobe positif du gradient. L'intervalle de temps ou temps d'écho, noté encore TE' qui sépare l'impulsion 90° du maximum du signal d'écho, 68 est égale à la durée de l'application du gradient positif. L'amplitude A(TE ) du maximum du signal d'écho est telle que : _TE A(TE ) = A(O)e (III.2) T; où A (0) est l'amplitude du signal FID à l'instant initial. L'amplitude du signal d'écho de gradient dépend du temps de relaxation effectif T2•• Le signal d'écho de gradient n'élimine donc pas, contrairement à celui d'écho de spin, l'influence des hétérogénéités du champ magnétique. Un signal d'écho de gradient acquis grâce à notre système d'IRM est présenté sur la figure III.5. Cet écho à été obtenu avec un une impulsion rectangulaire 90° et un temps d'écho TE égale à 12ms. Signal d'écho de gradient 1 Figure llI.5 Signal d'écho de gradient obtenu avec une impulsion rectangulaire 90° et un temps d'écho TE =12ms 69 III. Construction de l'image en IRM Parmi les nombreuses techniques de reconstruction de l'image, nous allons présenter ici la technique d'imagerie par Spin-Warp qui est, de très loin, la plus utilisée, que ce soit pour l'imagerie 2D ou 3D [Guinet, 1992]. On se limite dans cet exposé au cas de l'imagerie 2D. Il s'agit alors de reconstruire l'image du plan d'une coupe dans l'échantillon à étudier. L'étape préliminaire de la réalisation d'une image consiste à sélectionner cette coupe. L'image de la densité protonique dans le plan de celle-ci peut être obtenue avec l'application adéquate de gradients dit de codage par la fréquence et de codage par la phase. 111.1. Sélection d'une coupe dans l'échantillon: Cette sélection se fait à l'aide des impulsions dites sélectives. Elles sont produites par l'application simultanée d'une impulsion RF et de l'un des trois gradients du système d'imagerie. Ce gradient est appelé gradient de sélection. Nous allons, dans ce qui suit, expliciter la notion des impulsions sélectives. Nous choisissons le gradient selon l'axe Z, Gz , comme gradient de sélection et nous nous contentons d'exposer la procédure de sélection d'une coupe de cote z=o. Comme nous l'avons exposé dans le chapitre 1 (paragraphe IV) , lors de l'application d'un gradient selon l'axe Z, un plan, de cote Z, de l'échantillon se trouve soumis à un champ total B qui est la somme du champ magnétique Bo et du champ b = GzZ produit par le gradient Gz : (III. 3) Le champ magnétique total dans le plan de cote précession dans ce plan est donc z=o vaut donc Bo, et la fréquence de Jo = yBo . 27r La fréquence de précession, I(Z) , dans un plan de cote Z quelconque, est donc donnée par cette équation : (111.4) 70 qui montre que cette fréquence varie linéairement avec la cote Z. (figure III.6). feZ) Z o Figure m.6 Fréquence de précession en fonction de Z en présence d'un gradient de champ magnétique selon l'axe Z Cette variation de fréquence permet d'isoler (sélectionner) une certaine épaisseur dans l'échantillon. Pour cela, il faut appliquer, en plus du gradient, une impulsion d'excitation de fréquence centrale 10 et d'une certaine largeur fréquentielle l'!f. En effet, une telle impulsion n'agit efficacement que sur les moments magnétiques dont les fréquences de précession sont situées dans une bande fréquentielle de largueur l'!f centrée en fo' Compte tenu de la relation linéaire qui existe entre la fréquence de précession et Z, on en déduit que seuls les moments magnétiques situés dans une tranche de cote Z=O et d'épaisseur l'!Z (figure III.7), subissent l'action de l'impulsion. L'épaisseur de cette tranche (coupe) et la largueur fréquentielle l'!f de l'impulsion sont reliées par la relation : (III. 5) Cette relation montre que si Gz est égal à lmT/m, alors une impulsion de largueur l'!I égale à 426Hz sélectionne une coupe de lem d'épaisseur. La même impulsion, si Gz vaut lOmT/m, permet de sélectionner une coupe de lmm d'épaisseur. 71 feZ) :< ): !U, Figure ill.7 Sélection d'une coupe d'épaisseur !U, et de cote Z=O, par une impulsion de fréquence 10 et de largeur fréquentielle /).f . Le signal de résonance reçu après une impulsion sélective provient uniquement de la coupe sélectionnée. Il ne contient que les informations relatives à cette coupe et constitue une donnée globale sur celle-ci. Il s'agit maintenant de construire, à partir de ce signal global, l'image de la distribution des protons dans le plan de la coupe (plan XOY). Ceci peut être accompli avec l'utilisation des gradients Gx et Gy. 111.2. Codage de fréquence et codage par la phase : reconstruction de l'image Après qu'un signal a été activé par une impulsion sélective, les informations spatiales, relatives à la distribution de la densité de protons dans le plan de la coupe, peuvent être codées dans ce signal pendant la période de précession libre. Compte tenu du fait que le signal RMN peut être représenté par une exponentielle complexe, nous avons essentiellement deux possibilités pour coder des informations spatiales dans ce signal: codage par la fréquence et codage par la phase du signal [Liang, 1999]. 111.2.1 Codage par la fréquence Pendant la période de l'acquisition du signal, l'application un gradient de champ magnétique, Gx , selon l'axe X, entraîne une dispersion linéaire des fréquences de résonance dans la direction OX Ainsi, la fréquence de précession à l'abscisse X s'écrit : 72 f(X) = fa + ,.cx x (III. 6) 2n Le signal élémentaire recueilli provenant d'un élément dX d'abscisse X, a pour expression [Liang, 1999] : dS(X,t) = p(X)e i2Trf (fo +Gx X)t dX (III.7) où p(X) est la densité de protons de l'élément dX Ce signal est dit codé par la fréquence car sa fréquence dépend linéairement de sa localisation spatiale suivant l'axe X. Le gradient Gx s' appelle ainsi gradient de codage par la fréquence. Le signal total, qUI est la somme de tous les SIgnaux élémentaires, a donc pour expreSSIOn : S(t) J p(X )e = i 2Trf (fo+ Gx X)t dX (III.S) échantillon Après démodulation, i.e. translation de la fréquence fa, et en posant K x = ,.cxt , cette expression est réécrite comme suit: S(K x) = J p(X)e i2 x XdX (III.9) XdKX (III. 10) Jd( échantillon d'où: p(X) = J S(K)e- i2 Jd( x échantillon La transformée de Fourier inverse de S(K x ) permet donc d'avoir la distribution de la densité de protons le long de l'axe X. Il est important de noter que le gradient de codage par la fréquence est appliqué pendant la durée de l'acquisition du signal S(t). Nous choisissons désormais ce gradient de codage par la fréquence pour coder l'espace selon l'axe X 73 111.2.2 Codage par la phase Cette méthode consiste à manipuler la phase initiale du signal RMN acquis. Pour comprendre la notion du codage par la phase, imaginons qu'on applique un gradient, Gy, selon OYpendant une durée Ty avant l'acquisition du signal RMN. Le signal provenant d'un élément dY, sous l'influence de ce gradient, sera donné par cette équation : p(Y)e i2 1l)'(fo+GYY )1 dY dS(Y,t) = (IIL11 ) { p(Y)e i2 1l)'(G yy)Tyei2trtfol dY Cette relation montre que, pendant l'intervalle de temps 0:$ t:$ Ty , le signal local est codé par la fréquence. Le résultat de ce codage par la fréquence est que les signaux de différentes positions Y vont acquérir des phases différentes après un temps Ty • Si on utilise cet intervalle de temps, 0 :$ t :$ Ty , comme une période de p réparation à l'acquisition du signal, celui-ci va donc avoir une phase initiale donnée par la relation [Liang, 1999] <D(Y ) = t<IyYTy qui peut se réécrire, en posant Ky (IlL 12) = t<IyTy , comme suit: (IlL 13) 111.2.3 Association du codage par la fréquence et du codage par la phase Pendant la période de préparation Ty , le gradient de codage par la phase est appliqué. A l'issue de cette période, i.e. à partir de l'instant t;;:: Tf' on applique le gradient G x signal élémentaire recueilli d'un élément de volume dXdY sera donnée par : dS(X,Y,t) = p(X,Y)ei2nrGYYTy e i2 1l)'(fo+GxX)1 dXdY où p(X,Y) est la densité de protons du volume élémentaire dXdY. Après démodulation, l'expression III. 14 devient : 74 (ilL 14) . Le dS (X, Y, t) = p( X, Y)e i2 ll)'G yYTyei2TrY {GxX)t dXdY (IILl5) ce qui conduit, en tenant compte des expressions de K x et Ky, à : (III.l6) Le signal total recueilli pendant l'application du gradient de codage par la fréquence est donc donné par cette équation : S(Kx,Ky) = ffp(X , Y)ei2 1r{KxX+Kyy)dXdY (IILl7) échantillon Pour déterminer l'expression de p(X,Y) et donc l' image du plan de la coupe, il suffit d'effectuer une transformé de Fourier en deux dimensions (2D) inverse, soit: p(X,Y ) = ffS( K x ,K y)e-i21r{KxX+Kyy )dK XdKy (IIU 8) échantillon Dans cette équation, qui constitue l'équation de base de l'IRM par transformée de Fourier, l'ensemble de points (Kx,Ky) définit un plan appelé plan de Fourier. C'est, en effet, l'espace réciproque du plan de l'image (le plan réel) défini par l'ensembles des points (X, Y) [Liang, 1999]. La tâche qui reste donc à accomplir pour construire une Image est de collecter suffisamment de données pour remplir l'espace de Fourier. Pour cela, une stratégie conventionnelle consiste à remplir ligne par ligne} cet espace de Fourier. C'est la méthode de base de l'acquisition d'une image. 1II.2.4.Acquisition de l'image, balayage du plan de Fourier: 1 Le balayage ligne par ligne ne constitue que le principe de base. D 'autres trajectoires du balayage du plan de Fourier peuvent être réalisées. Tout dépend de la séquence d'imagerie choisie 75 111.2.4.1. Principe du balayage En pratique, on fait l'acquisition des points discrets dans le plan de Fourier. Supposons, par exemple qu'on cherche à acquérir une image (une matrice de points) de N y lignes et de N x colonnes. Une ligne de cette matrice correspond à une valeur donnée de Ky = yGyTy (donc des valeurs données de Gy et de Ty ). Avant l'acquisition du signal, on applique un gradient Gy de codage par la phase pendant une durée Ty • Une ligne de la matrice a été donc fixée. Les valeurs K x = yG xt , qui sont en nombre N x , de cette ligne sont acquises en prélevant N x échantillons du signal pendant la durée de l'acquisition où le gradient de codage par la fréquence Gx est appliqué. L'échantillonnage du signal se fait avec une période d'échantillonnage I:. La durée d'acquisition du signal est donc T acq = N XTe' Pour remplir une deuxième ligne, il faut modifier la valeur Ky = yGyTy avant l'acquisition d'un nouveau signal avec le même gradient de codage par la fréquence G x . La modification de la valeur Ky peut être effectué en modifiant soit Ty, soit Gy. Dans tout ce qui suit, nous considérons que c'est la valeur de Gy qui sera modifiée, d'une ligne à l'autre, avec un pas fixe qu'on notera désormais oGy. Ainsi, pour acquérir les N y lignes, il faudra répéter N y fois la même procédure d'acquisition du signal, avec à chaque fois une valeur différente du gradient de codage par la phase. Par exemple, l'acquisition de la ligne numéro m se fait en appliquant un gradient de phase moG y (figure 111.8). Dans cette figure, les valeurs K x de la colonne numéro n correspondent l'échantillon du signal pris à l'instant nTe avec des valeurs différentes de Ky. La transformée de Fourier 2D discrète de la matrice (N x x N y) de données ainsi acquise donne alors l'image de la densité de protons recherchée. 76 ~t. KY Ligne « m >.:> Ky =rm8G yT} Kx 0 t Colonne « n » Kx Figure m.8 = rGx(nTe ) Les valeurs de K x et de Ky correspondant à une ligne m et à une colonne n de l'espace de Fourier. 111.2.4.2. Considérations pratiques, paramètres d'acquisition Le nombre N x d'échantillons prélevés au cours de la période d'acquisition du signal détermine le nombre de colonnes de largueur !lX découpant l'espace réel (figure III.9). Ces N x colonnes occupent une région de l'espace réel limitée dans la direction X La dimension Lx de cette région est: (III. 19) 77 ,--.,--.,-,---,,,,,,"","-.,--.,-,-,-,---, x ) ( Figureill.9 Les voxels dans l'espace réel. De même, le nombre N y détermine le nombre de lignes de largueur ~Y, donc le nombre de voxels de chaque colonne. Ces N y voxels délimitent, dans la direction Y, une région de longueur Ly de l'espace réel: (lII.20) Par conséquent, Lx et Ly déterminent une région dans l'espace réel qu'on appelle champ d'imagerie (Field ofView (FOV)) [Guinet, 1992]. En général, Pour une matrice de taille donnée (N x x N y), l'utilisateur peut choisir ce champ d'imagerie. La résolution par pixel de l'image sera donc: M = Lx (ou ~y = Ly ). Nx Ny Cependant, d'autres considérations primordiales doivent être prises en compte. Cellesci comprennent, d'abord, la fréquence d'échantillonnage, Fe' du signal lors de l'acquisition qui doit, bien évidemment, respecter le théorème de l'échantillonnage de Shannon. 78 La fréquence la plus élevée dans le signal est: r (III.21) fmax. =-GXXmax. 27r , X ou max. Lx =2 La fréquence d'échantillonnage2 doit donc vérifier la relation suivante: (III.22) ou encore: (III.23) De façon identique, la dimension ~Y des voxels suivant l'axe Y, le pas de gradient de phase oGy, la durée d'application de ce gradient Ty, et le nombre N y doivent vérifier la relation d'échantillonnage spatiale selon Ky [Guinet, 1992] : (III. 24) A partir des deux relations III.23 et III.24, nous devons prendre en compte, dans notre système d'IRM, le fait que Lx et Ly ne peuvent pas être abaissés en deça d'un certain seuit3 ., pour les deux raisons suivantes: • A Fe fixé, puisque, pour un appareil donné d'IRM, le gradient Gx ne peut pas dépasser une certaine valeur maximale caractéristique de l'appareil, le choix de Lx n'est accepté que si la valeur de Lx est supérieure à une valeur minimale, inversement proportionnelle à la valeur maximale de Gx (relation III.23). 2 Pour notre récepteur numérique la fréquence Fe présente la fréquence d'échantillonnage finale dans la bande de base. Nous avons choisi de la noter ainsi pour la distinguer de du symbole l e utilisé dans le chapitre II. Il va aussi de soi que le champ d'imagerie ne peut pas être abaissé en deça des dimensions de l'échantillon à imager car cela produit des artéfacts de repliement [Guinet 1992]. 3 79 • Pour une durée Ty fixée, la valeur de Ly choisie par l'utilisateur permet à partir de l'équation III.24 de déterminer la valeur de oGy et, donc, toutes les valeurs successives du gradient selon l'axe Y pour les N y acquisitions. Aucune de ces valeurs ne devant dépasser la valeur maximale du gradient applicable selon l'axe Y. Le choix de Ly n'est accepté que si la valeur de Ly est supérieure à une valeur minimale, liée à la valeur maximale du gradient selon Y. Nous avons effectué sur notre système, les mesures nécessaires pour déterminer les limites des gradients que peuvent créer les bobines de gradients de l'électroaimant. Grâce à ces mesures, nous avons pu établir que les valeurs maximales des gradients selon les trois axes sont identiques : Dans le paragraphe suivant, nous allons expliquer l'implantation de la séquence d'écho de gradient sur notre système. 111.3. Les premières images obtenues avec le système numérique d'IRM par la séquence d'écho de gradient: 111.3.1. Réglage de l'angle de basculement de l'impulsion Cette procédure vise à déterminer l'amplitude (donc la puissance) et la durée de l'impulsion permettant d'obtenir l'angle de basculement désiré pour la séquence. Ce réglage doit être effectué pour chaque échantillon avant de procéder à l'acquisition de l'image. Nous avons vu, au chapitre l, que l'angle de basculement dépend du produit de l'amplitude de l'impulsion par sa durée. Dans une séquence d'imagerie, pour un gradient de sélection donné, la durée l', qui est proportionnelle à l'inverse de la largeur fréquentielle de l'impulsion, est fixée par l'épaisseur de la coupe qu'on souhaite obtenir. L'angle de basculement doit donc forcément être réglé en agissant sur l'amplitude de l'impulsion. Pour ce faire, il suffit d'augmenter progressivement la puissance de cette dernière jusqu'à l'obtention du signal RMN maximal. L'angle de basculement correspondant est donc de 90°. Dans notre système d'imagerie, une séquence d'écho de gradient de temps de répétition égal à 1 seconde est utilisé pour ajuster l'angle de basculement. La procédure de 80 l'ajustement est la suivante4 : l'échantillon à imager est placé dans l'antenne et le signal d'écho de gradient est observé à l'oscilloscope. La puissance de l'impulsion est modifiée jusqu'à ce qu'on observe un maximum du signal d'écho. L'angle de basculement de l'impulsion appliqué est donc de 90°. De même, pour obtenir une impulsion 180°, il suffit d'augmenter la puissance de l'impulsion pour ne détecter aucun signal d'écho. Pour calculer la puissance nécessaire à obtenir un angle de basculement quelconque a, une solution consiste à procéder par un simple règle de trois à partir de l'énergie nécessaire pour créer une impulsion 90°. 111.3.2. La séquence d'écho de gradient Le chrono gramme d'un cycle de la séquence d'écho de gradient, que nous avons implanté sur notre système, est représenté dans la figure Ill. 1O. L'impulsion RF est appliquée simultanément avec le gradient de sélection de la coupe Gz . Le gradient de codage par la phase, Gy , est ensuite appliqué pendant une durée Ty. Le lobe négatif du gradient de codage par la. fréquence G x est appliqué pendant la durée de l'application du Gy. L'acquisition du signal est effectuée pendant la durée Tacq ' Le signal présente un maximum à l'instant TE (temps d'écho). Le cycle de la séquence est répété N y fois avec un temps de répétition TR • Seule la valeur du gradient de phase est modifiée d'une répétition à l' autre. Dans le cas d'une impulsion sélective, lors de l'ajustement de l'angle de basculement, il est évidemment nécessaire d'appliquer le gradient de sélection de coupe. 4 81 Impulsion ~------------~m~ i , , , 1 Gi1 ! ' Gy 1 1 < ) Ty Gx L Signal Acquisition Figure m.tO La séquence d'écho de gradient. La séquence a été programmée en langage assembleur de la carte DSP. Celle-ci contrôle tous les événements temporels de la séquence. Les signaux acquis sont stockés dans la mémoire du DSP. Les premières images, d'une coupe d'épaisseur de lcm obtenue par une impulsion sélective rectangulaire 90°, ont été réalisées avec une fréquence d'échantillonnage et une durée d'application du gradient de phase fixées à Fe = 10kHz et Ty = 3ms . Le temps d'écho 82 et les temps de répétition sont TE = 6ms TR = 1.2s. Nous avons choisi une matrice d'acquisition de N X x N y= 64x64 et un champ d'imagerie de LXxLy = 12x12cm. La résolution obtenue dans ces conditions est d'environ 1.8mm/pixel. Un exemple des images ainsi obtenues, sur un tube cylindrique d'eau déminéralisée, d'environ 3cm de diamètre, est illustré par la figure IIL11. 10 20 30 .0 '" 60 Figure m.u Images 64x64 pixels obtenues avec la séquence d'écho de gradient. A gauche, l'image d'une coupe dans un échantillon cylindrique d'eau déminéralisée de 3cm de diamètre. A droite le même tube quand on insère au centre objet cylindrique de 1cm de diamètre. L'excitation est une impulsion rectangulaire 90°. L'épaisseur de la coupe est 1cm. Le temps de répétition TR = 1.2s , et le temps d'écho TE = 6ms. La résolution étant de 1.8mm1pixel. Ces images ont été obtenues avec 8 accumulations et un temps total d'acquisition de 10 minutes. IV. • Quelques travaux en cours La méthode de la bande passante utilisée pour la mesure de la fréquence de résonance, du facteur de qualité et pour 1'accord en impédance de l'antenne présente les inconvénients de manquer de précision et de la difficulté de raccorder la fréquence de résonance et l'impédance de l'antenne pour chaque échantillon dans les conditions d'acquisition. Nous travaillons actuellement sur le développement d'un module permettant, par l'utilisation d'un coupleur de puissance RF, d'accorder l'antenne. Les modifications de la courbe de résonance, apportées par la boucle d'accord de l'antenne, seront affichée en temps réel sur l'écran de l'ordinateur ce qui permet un réglage très fin de l'accord pour chaque échantillon. • Implantation de la séquence d'écho de spin. 83 • Interface homme-machine: nous travaillons également sur le développement d'une interface graphique conviviale pour notre système d'imagerie. Cette interface utilise un environnement Windows NT. Elle permettra à l'utilisateur de définir facilement tous les paramètres d'acquisition de l'image, en générant un fichier pouvant être interprété par le DSP; de visualiser et de sauvegarder toutes les informations relatives à l'image. Cette interface permettra aussi au développeur de séquences d'IRM d'implanter de nouvelles séquences d'imagerie sur notre systèmes. • Après une étape de validation et de comparaison des images acquises avec celles obtenues avec un imageur utilisant une électronique analogique, nous envisageons l'implantation des séquences ultra-rapides pour l'imagerie en temps réel. Ceci peut être autorisé sur notre système grâce au bon RSB. En effet, le RSB est un des facteurs déterminant du temps d'acquisition d'une image. Ce temps est souvent long (quelques minutes) à bas champ à cause des opérations de moyennage du signal qui sont nécessaires pour améliorer le RSB. S'il est élevé, ce dernier permet donc de limiter le nombre de moyennages et par conséquent de réduire le temps d' imagerie. En conclusion à ce chapitre, nous avons pu valider le développement numérique d'une IRM bas champ. Les premières images esquissées montre la faisabilité de notre démarche de numérisation. Outre le coût peu élevé, par rapport à un système analogique moins performant en terme de RSB et de flexibilité, la solution numérique adoptée permet de miniaturiser les systèmes d'IRM. En effet, notre système comporte, hors aimant, un PC où sont enfichées trois cartes électroniques (la carte DSP superposée avec la carte récepteur numérique et avec celle du synthétiseur numérique) et un amplificateur RF de puissance peu volumineux. Ajoutons finalement que, grâce au récepteur et au synthétiseur numériques, l'électronique mise en place et destinée ICI au bas champ, peut être, à l'exception de l'amplificateur RF de puissance, intégrée pour fonctionner dans des systèmes d'imagerie à hauts champs magnétiques pouvant atteindre 3.5T. 84 Chapitre IV Identification des systèmes RMN par filtrage adaptatif non linéaire : Modèle de série de Volterra 85 1. Introduction La plupart des concepts de la spectroscopie et de l'imagerie par résonance magnétique nucléaire sont basés sur la considération de systèmes linéaires ou approximativement linéaires pour lesquels un traitement mathématique simple et élégant est possible, et pour lesquels nous avons en quelque sorte une compréhension intuitive. Néanmoins, un système RMN (échantillon à étudier) est fondamentalement non linéaire, et l'application de la théorie de la réponse linéaire nécessite quelques précautions [Ernst, 1989] . Pour des raisons de meilleure représentation des systèmes RMN, on sera donc conduit à envisager la prise en compte des caractéristiques non linéaires de tels systèmes. Contrairement à un système linéaire qui est complètement identifié par sa réponse impulsionnelle, l'élaboration d'une méthode générale d'identification pour les systèmes non linéaires est loin d' être triviale. En effet, la méthode à adopter pour l'identification non linéaire dépend fortement du problème à traiter et de la nature des applications ultérieures tout en prenant en considération que l'amélioration des performances du modèle linéaire doit justifier la complexité du calcul accompagnant généralement les problèmes non linéaires. D' une façon générale, les propriétés d'un système, considéré comme une « boîte noire », sont formellement représentées par un opérateur cI> liant l'entrée et la sortie. Pour le système RMN, l'entrée x(t) correspond à l'excitation RF, ce qui conduit en sortie au signal FID observable d(t) (figure. 1). x(t) Figure IV.l d(t) Boîte noire (système RMN) cI> La relation entrée-sortie d'un système donné est représentée par un opérateur cI>. L'objectif de l'identification consiste à établir un développement de l'opérateur cI> du système. Après une brève analyse de la non linéarité associée aux systèmes RMN, et dans la perspective d'optimiser le traitement et l'analyse du signal RMN, nous allons introduire dans ce chapitre un modèle non linéaire basé sur la description de la relation entrée-sortie du 86 système RMN par une série de Volterra. Les trois premiers noyaux de celle-ci seront identifiés à l'aide de techniques de filtrage adaptatif non linéaire. Le modèle proposé sera validé sur des signaux RMN obtenus grâce au simulateur décrit dans le premier chapitre. Il. Non linéarité de systèmes RMN et nécessité de l'identification non linéaire Une expérience RMN consiste donc à appliquer une excitation BI (t) à l'entrée d'une «boîte noire» contenant un échantillon afin d'observer la réponse (FID) à cette excitation. L'objectif étant bien sûr d'étudier certaines propriétés de cet échantillon. La réponse n'est généralement observable qu'après la fin de l'excitation, c'est-à-dire à partir de l'instant où BI (t) devient nul. La relation entre l'aimantation, M xy (t) pendant la durée de la précession libre et l'excitation s'exprime, dans le repère tournant, par l'équation suivante: M Xy (t) =Mo sina e Yr2 e-il!.(i)of =Mosin( f rBt(t')dt' ) e Yr2 e-il!.(i)of (IV. 1) o Cette relation confirme le fait que la réponse d'un système RMN est une fonction non linéaire de l'impulsion d'excitation. TI suffit pour s'en convaincre de constater que si une impulsion f agissant sur un système RMN produit un certain signal d(t), une impulsion 7t ne produit pas un signal 2d(t), comme le ferait un système linéaire, mais un signal nul. Cependant, si l'impulsion est de durée et/ou d'amplitude suffisamment faible pour ne perturber que légèrement l'échantillon, il est possible de montrer que le système se comporte comme un système linéaire. Cette approximation linéaire est valable tant que l'angle de basculement reste inférieur à 30° [Hoult, 1979]. Pour des angles de basculement plus élevés, le système est conduit dans la région non linéaire où le traitement linéaire d'une réponse intrinsèquement non linéaire peut induire des erreurs aussi bien de traitement que d'analyse ultérieure du signal (distorsion du spectre par exemple) [Blümich, 1982]. Des approches d'identification non linéaires s'avéreront donc indispensables pour assurer le traitement correct des signaux. Pour ce faire, nous avons intérêt à exprimer la relation (IV.1) sous une forme adaptée aux techniques de traitement numérique. 87 III. La série de Volterra appliquée à l'identification de systèmes RMN Introduite au début du 20ème siècle, la série de Volterra peut théoriquement décrire une classe très large de systèmes non linéaires. Elle se présente, généralement, sous la forme d'une somme infinie de produits de convolution multidimensionnels [Kaulisch, 1996], [Asfour-JMR, 2000] : = d(t) f p=O r r . .r hlrI' r 2 , ••• r p) x(t-r l ) x(t-r 2 )***x(t - r p) dr l dr 2 ***dr p (IV.2) Les fonctions temporelles multidimensionnelles h p(ri' r 2' , r p)' souvent appelées noyaux de Volterra, caractérisent la non-linéarité. Cependant, en l'absence d'une méthode générale pour l'identification de ces noyaux, cette série n'a, en général, qu'un intérêt pratique très limité, et malgré sa longue histoire et sa popularité dans les études théoriques, peu de recherches ont tenté d'identifier des systèmes pratiques en se basant sur cette représentation. Ceci est attribuable aux difficultés associées à l'identification des noyaux de Volterra [Fakouri, 1980], [Lawrence, 1981], [Koh, 1985] et [Biglieri, 1982]. 111.1. Forme discrète de la série de Volterra: Nous développons dans ce qui suit une méthode d'identification basée sur un filtrage adaptatif non linéaire. Cette méthode considère la forme discrète de la série de Volterra qui s'exprime alors par la relation suivante [Mathews, 1991] : co d(n) = 'I hlm)x(n - ml) + co co co n~=O m2=O mp =O 'I 'I co + co 'I 'I hlml' m 'Ihlml' m 2 , ••• , 2) x(n - ml )x(n - ml) + mp )x(n-m l )x(n-m 2 ) 88 ••• x(n-m p )+ (IV.3) où x(n) et d(n) sont respectivement l'entrée et la sortie à l'instant n du système discret causal et non linéaire. En tronquant cette série à un nombre fini de termes, on obtient une approximation à l'ordre p de la forme [Asfour, 2000]: N-' d(n) = N-' N-' Ihlm,)x(n - m,) + + N-' N-' I I n/I = O n/2 =O l Ihim" m 2 )x(n - m,)x(n - m) + (IV.4) N-' Ih/m" m 2 , •••, mp) x(n-m,)x(n-m 2 ) x(n-m p) •• • 11I p =O où N est la mémoire du système et hp (m" m2 , •• •, mp) est le noyau de Volterra d' ordre p . L'identification du système se résumera alors au calcul des coefficients des p noyaux de Volterra qui décrivent à leur tour le comportement du système. La précision dépend de l'ordre de l'expansion p et de la mémoire N choisis. 111.2. Identification par série de Volterra de second ordre 111.2.1. Méthode et schéma général d'identification Nous considérons le développement à l'ordre 2 de la série de Volterra (p=2), soit donc: d(n) = N-' l N-' hlm,) x(n - m,) + N-' l l him" m 2 ) x(n-m, )x(n-m 2 ) (IV.S) Le diagramme général correspondant à l'identification d'un système RMN est représenté sur la figure IV.2 89 SystèmeRMN r Signal de référence x( n) den) Filtre de Volterra signa1 d'entrée ~ I~ 1 retard Filtre linéaire -+ .i r--"- È~ / Filtre quadratique -+ d(n) \,- . ~ : ~ r-- erreur ~ e(n) = den) - den) ~ N-l ~ d(n) = L~(ml : n)x(n-m1) + Figure IV.2 N-l N-l I ~ I~(ml,m2 :n)x(n-m1)x(n-m 2) Schéma général d'identification par filtre adaptatif de Volterra de 2ème ordre. Le filtre adaptatif de Volterra est donc constitué de l'association parallèle d'un filtre linéaire et d'un filtre quadratique. Le signal d'entrée x(n), i.e. l'impulsion d'excitation, est appliqué au système RMN à étudier dont la réponse d(n) est désignée dans le contexte de l'identification par le terme signal de référence. Les paramètres du filtre adaptatif doivent être choisis de manière à ce que le modèle obtenu soit le plus proche possible du système à analyser. Le filtre de Volterra va donc essayer de calculer, une estimation den) de la réponse désirée en utilisant une série de Volterra tronquée à l'ordre 2. Cette estimation est donnée à l'instant n par : N-I d(n) = L hlm l.' n) x(n - ml) N-l + A N-l L L hlmp m 2 .' n) x(n-m l )x(n-m 2 ) (IV.6) A Dans cette équation, hl (ml : n) et h2 (ml ,m 2 : n) , avec 0 ~ ml , m 2 ~ N -1, sont respectivement les coefficients du filtre linéaire et du filtre quadratique à l'instant n. Le 90 problème posé consiste à déterminer, à chaque n, l'ensemble de ces coefficients qui minimise une fonction coût du signal d'erreur e(n) entre d(n) et den) donné par: e( n) = d (n ) - A (IV.7) d (n ) En pratique, le calcul des coefficients peut être mis en oeuvre d'une manière récursive. Des algorithmes récursifs ont pour objectif de calculer les coefficients à l'instant n+ 1 à partir de ceux à l'instant n et ce avec une initialisation correcte des valeurs de départ (n=O). Notons qu'en résonance magnétique, l'entrée et la sortie «observable» du système ne sont jamais simultanées (la sortie n'étant pas observable pendant l'excitation). Ceci doit être pris en compte dans le modèle proposé. Pour ce faire, nous introduisons un retard temporel L1 sur le signal d'entrée du filtre (figure IV.2). La valeur de ce retard dépend essentiellement de la mémoire du système et, bien entendu, du modèle à estimer [Widrow, 1975] [Raoof, 1994]. Nous considérons également que le signal RMN est nul pendant l'excitation. 111.2.2. Algorithme d'adaptation Nous avons adopté l'algorithme de gradient classique pour résoudre le problème d'identification des systèmes RMN. Ce choix est justifié par la simplicité de cet algorithme et la souplesse de sa mise en oeuvre. L'algorithme est basé sur la minimisation de l'erreur quadratique e 2 (n) à chaque instant n. Les coefficients hl (m 1 : n) et h2 (ml' m2 : n) , avec 0 ~ ml' m 2 ::;; N -1 , du filtre sont mis à jour par les équations suivantes [Mathews, 1991]: (IV. 8) (IV.9) 91 Les scalaires 0 1 et O2 , appelés pas d'adaptation, contrôlent la stabilité de l'algorithme adaptatif et sa rapidité de convergence. En pratique, la mise en oeuvre de cet algorithme s'effectue en adoptant des notations vectorielles permettant, hormis des calculs plus rapides, une meilleure analyse des performances. A l'aide de ces notations, il est possible d'écrire l'estimation den) sous la forme suivante : (IV. 10) où HI(n) est le vecteur des coefficients du filtre linéaire, et H 2(n) est le vecteur des coefficients du filtre quadratique à l'instant n : Hln) = [hlO: n), hl1: n), , hl(N - 1 n) ] T Hin) = [hiO,O: n), hi0,1: n), ., hlO, N -1: n), hil,l: n), hi 1,2: n), , h 2(N-1, N-1: n)] T (IV. 11) (IV. 12) X I(n) et X 2 (n) sont respectivement les vecteurs d'entrée du filtre linéaire et du filtre quadratique. Ils sont définis à l'instant n par: Xln) = [x(n), x(n -1), , x(n - Xin) = lxYn), x(n)x(n -1), N + 1)] T (IV. 13) ,x(n)x(n - N + 1), x 2(n -1), x(n -l)x(n - 2), , x 2(n - N + l)J T (IV. 14) Les équations de mise à jour s'écrivent donc .: e(n) = den) - Hr (n)X l (n) - HJ (n)X 2(n) (IV.1S) H l (n + 1) = Hl (n) + OIXl (n)e(n) (IV. 16) H 2(n + 1) = H 2(n) + 02X2 (n)e(n) (IV. 17) 92 L'application de cet algorithme à l'identification des système RMN nécessite, bien entendu, un choix adéquat de ses paramètres caractéristiques à savoir les pas d'adaptation 0 1 , 8 2 et la mémoire du système N C 'est ce que nous analyserons par la suite. 111. 2.2.1. Choix des pas d'adaptation pour les signaux RMN Dans le cas général d'un filtre quadratique de Volterra, la stabilité de l' algorithme est assurée si les pas d ' adaptation 8 1 et 8 2 sont choisis tels que [Bellanger, 1989] : (IV.18) (IV.19) où O'~ est la puissance du signal d'entrée x(n). Ces deux relations laissent apparaître que la stabilité de l'algorithme adaptatif dépend fortement de la puissance du signal d'entrée En résonance magnétique, les signaux d'entrée et de sortie du système RMN sont non stationnaires. Par conséquent, l'utilisation de valeurs constantes pour les pas d'adaptation peut conduire à des instabilités compte tenu de la nature impulsive des signaux. Pour remédier à ce problème, nous avons introduit des pas d'adaptation variables de la forme: bl(n) bln) où PI et /32 = = /31 (IV.20) N(J~(n) /32 (IV.21) (NO'~ (n)) 2 sont des facteurs positifs et O'~ (n) est une estimation de la puissance du signal d'entrée à l'instant n. L'estimation la plus directe de O'~ (n) est donnée par : (IV.22) 93 avec (J'~ une constante positive pennettant d'éviter une division par zéro. La fenêtre d'observation temporelle No définit la durée sur laquelle le signal peut être considéré comme stationnaire. 111.2.2.2. Choix de la mémoire du système N Les coefficients des deux noyaux de Volterra calculés * à l'aide de l'algorithme adaptatif sont la meilleure estimation du modèle du système RMN au sens de l'erreur quadratique moyenne (EQM). La précision de cette estimation est contrôlée par la mémoire du système N comme le montre la figure IV.5. Dans cette figure, sont reportées les variations de l'erreur quadratique moyenne en fonction de N. Cette erreur est calculée en utilisant la différence quadratique entre le signal de référence et le signal à la sortie du filtre en réponse au même signal d'excitation x(n). Le signal à la sortie du filtre de Volterra a été reconstruit en appliquant l'équation IV.5 et ce en utilisant les coefficients issus de l'identification. Nous pouvons voir que l'erreur quadratique moyenne est une fonction décroissante de N et atteint une valeur asymptotique pour les valeurs de N supérieures à 64. Cette valeur constitue donc un choix optimal pour la mémoire du système car elle pennet d'assurer un compromis entre le nombre de coefficients à estimer et la précision de l'estimateur [AsfourJMR,2002]. 94 10 X 10-6 EQM 9 8 7 6 5 4 3 ~ 2 1 0 20 40 60 * * 80 100 * 120 140 N Figure IV.3 Variations de l'erreur quadratique moyenne (EQM) entre le signal de référence et la sortie du filtre de Volterra en fonction de la mémoire du système N. 111.2.3. Résultats de l'identification et discussions 111.2.3.1. Résultats Nous avons implanté l'algorithme d'adaptation sous MATLAB et nous l'avons employé dans un premier temps pour le choix de la mémoire du système comme nous l'avons vu ci-dessus. Pour illustrer les résultats de l'identification, nous utilisons des signaux RMN obtenus par la simulation. Nous précisons, préalablement, que le nombre de coefficients à estimer est de N 2 + N. Pour une mémoire système N=64, celui-ci vaut donc 4160. En prenant en compte le fait que la matrice donnant le deuxième noyau de Volterra est symétrique [Bellanger, 1989], il est donc suffisant d'effectuer l'estimation de la moitié de ses coefficients. Pour permettre cette estimation, il faut disposer d'un nombre suffisant d'échantillons du signal de référence. Ceci est réalisé par l'algorithme d'adaptation qui utilise les signaux 95 correspondant à la répétition de la même impulsion. Cette même procédure sera décrite en détail dans le cinquième chapitre dans lequel nous traitons de signaux RMN réels. Dans le cadre du présent chapitre, les signaux utilisés par l'algorithme sont, bien évidemment, parfaitement identiques car il s'agit de signaux simulés. En se basant sur cette procédure, nous donnons ici les résultats de l'identification de l'objet ID décrit au chapitre I. Le signal d'entrée x(n) étant une impulsion sine 90° de lms de durée et le signal de référence den) étant présenté par la figure (1.8). L'estimation des deux noyaux de Volterra a été effectuée en fixant la mémoire du système à N=64. Dans ce cas, les valeurs des paramètres permettant de minimiser l'erreur quadratique moyenne (EQM) entre le signal de référence et la sortie du filtre de Volterra sont: f3l = 0.25, 132 =0.0025, CT; =0.08 , No = 20, et le retard Ll = 200 . Dans la figure IV.4 sont superposés le signal de référence et le signal à la sortie du filtre de Volterra. 0.8 0.6 0.4 02 400 450 500 550 600 650 700 n Figure IV.4 Le signal de référence (traits continus) et le signal de sortie du filtre de Volterra (en pointillés) pour une mémoire de système de 64. Les premiers 400 échantillons correspondant à la durée de l'impulsion ne sont pas présentés. 96 Les coefficients du filtre linéaire (noyau de Volterra de premier ordre) et du filtre quadratique (noyau de Volterra de second ordre) correspondant sont illustrés par la figure IV.5. Dans cette figure, nous pouvons voir que le premier noyau de Volterra est une fonction s'apparentant au signal FID [Ernst, 1989]. La partie réelle est la partie imaginaire de la transformée de Fourier de cette fonction (figure IV.6) sont respectivement proportionnelles à la composante d'absorption et à la composante de dispersion du spectre RMN de l'objet en question. Ce résultat est, en effet, en parfait accord avec celui des travaux de Blümich et Ziessow [Blümich, 1982]. 97 ~(ml) 0.08 N=64 0.07 0.06 0.05 0.04 0.03 0.02 0.01 o '" -0.01 '--_ _--'-_ _ _-'-_ _ _'--_ _--'-_ _ _1-_ _- 1_ _ _--' o 10 20 30 40 50 60 70 :. 10 8 . " . ' ,, ' : ,'; " ", ; 6 4 . ~ : ; .~ . : 2 :' ' ; , . . ".: . ï " .: : o ".: -2 80 70 o 0 Figure IV.5 Les coefficients du premier (filtre linéaire) et le deuxième (filtre quadratique) noyaux de Volterra pour une mémoire de système N=64. 98 o -0.05 Absorption -0.1 -0.15 -02 -0.25 o - 10 5 10 Fréquence en kHz 0.03 Dispersion 0.02 0.01 0 -0.01 -0.02 -0.03 -O.ot -10 -5 o 5 10 Fréquence en kHz Figure IV.6 La partie réelle (absorption) et la partie imaginaire (dispersion) de la transformée de Fourier du premier noyau de Volterra. 99 111.2.3.2. Discussions Nous avons donc montré qu'un système RMN peut être modélisé par la mise en parallèle d'un filtre linéaire et d'un filtre quadratique. Actuellement, le traitement et l'analyse du signal RMN considèrent uniquement la contribution du filtre linéaire. Le filtre quadratique, qui est un complément de la partie linéaire, permettrait d'optimiser ce traitement et apporterait des informations complémentaires contenues dans un signal RMN. Pour avoir une idée de l'influence du filtre quadratique dans le modèle établi, nous avons évalué les contributions des deux noyaux de Volterra dans la réponse totale du système. La figure IV.7 montre que la contribution du second noyaux (filtre quadratique) est très faible comparée à celle du filtre linéaire. Ce résultat est prévisible du fait qu'en résonance magnétique, la réponse du système change de signe avec le changement du signe de l'excitation. La réponse est donc une fonction impaire de l'excitation et tous les termes pairs de la série de Volterra doivent être théoriquement nuls. En pratique, tronquer la série de Volterra à l'ordre 2 conduit à une contribution faible non nulle du filtre quadratique. n Figure IV.7 Les contributions du filtre linéaire (en pointillé) et du filtre quadratique (++) dans la réponse totale (traits continus) du système RMN. 100 Pour améliorer ce modèle, il conviendra donc de faire appel au noyau de Volterra de 3ème ordre. 111.3. Identification par série de Volterra de 3ème ordre Le développement à l'ordre 3 de la série de Volterra conduit à l'équation suivante: N-I d(n) = N-I Lhlml)x(n - ml) + L N-I +L N-I Lhz{m p m 2 ) x(n - ml)x(n - ml) + (IV.23) N-I N-I L Lhlm p m 2 , m 3 ) x(n-m l )x(n-m 2 ) x(n-m 3 ) IIII~O m2~O m3~O Dans ce cas, le schéma général d'identification est celui présenté dans figure (IV.8). Il s'agit maintenant d'identifier les trois premiers noyaux de Volterra. Les équations de mise à jour des coefficients par l'algorithme de gradient sont alors [Asfour 2002] : e(n) = den) - H{ (n)X I (n) - H; (n)X 2 (n) - Hi (n)X 3 (n) ° (IV.24) fIl (n + 1) = fIl (n) + 1(n)X I (n)e(n) (IV.25) fI 2 (n + 1) = fI 2(n) + 02 (n)X 2(n)e(n) (IV.26) fI3 (n + 1) = fI3 (n) + 03 (n)X 3(n)e(n) (IV.27) où X 3 (n) et H 3 (n) sont respectivement le vecteur d'entrée du filtre de 3ième ordre et le vecteur de ses coefficients. Ils/sont définis à l'instant n par : 101 SystèmeRMN Signal de référence x(n) den) Filtre de Volterra signal d'entrée Filtre linéaire Filtre quadratique erreur e(n) = den) - d en) N-l d(n) = L: ~(~ :n)x(n - m1 )+ N- l + L: N- l L: N-l N-l L: L: h2 (~,m2 :n)x(n - m1)x (n -m2) N-l L: ~("'t,m2,m3: n)x(n-m1)x(n-m2)x(n-m3) ml ~ O ml ~O m3~ O Figure IV.8 H3(n) Schéma général d'identification par filtre de Volterra de 3ième ordre. = [h3(0,0,0),h3(0,0,1),h3(0,0,2), ,h3(N -1,N -1;N -1)] (IV.28) X 3 (n) = [x\n),x 2 (n)x(n -1),x 2 (n)x(n - 2), ,x 3 (n - N + 1)] (IV.29) Par analogie avec les pas d'adaptation donnés par les équations IV.20 et IV.21, nous définissons le pas d'adaptation 8 3 (n) comme: 8 3 (n) = ~3 3 (NCY x (n» Ce modèle a été validé en reconsidérant l'objet ID décrit au chapitre 1 et ce pour une impulsion sine 90° de 1ms de durée comme signal d'entrée. La mémoire du système a été choisie à N=64 pour permettre un temps de calcul raisonnable et une convergence rapide de l'algorithme. Le résultat de l'identification est données dans la figure IV.9 où sont superposés le signal de référence et le signal de sortie du filtre de Volterra de 3ième ordre. 102 0.8 OB 0.4 02 400 450 500 550 600 650 700 n Figure IV.9 Le signal de référence (traits continus), et le signal à la sortie du filtre de Volterra pour une mémoire de système de 64. Le système RMN est donc équivalent à l'association en parallèle de trois filtres. La contribution de chacun de ces filtres dans la réponse totale est donnée dans la figure IV.l 0 où il est aisé de constater que le terme quadratique s'annule. La contribution maximale, en terme d'amplitude, du filtre de 3ième ordre est d'environ 6% dans la réponse totale confirmant les premiers résultats mis en évidence par Hoult [Hoult, 1979). 103 0.9 Partie linéaire OB 0 .7 0.6 2ème ordre 0.5 o .~ 3ème ordre 0.3 02 0.1 ~oo ~20 ~O ~60 ~80 500 520 5~ n Figure IV.I0 Les contributions des trois filtres de Volterra dans la réponse totale du système RMN. En conclusion, la représentation par série de Volterra est très attractive dans les applications de filtrage étant donné que la sortie du système peut être considérée comme un produit de convolution entre les coefficients des noyaux et des combinaisons du signal d'entrée, soit un «filtrage linéaire ». L'inconvénient majeur de cette représentation réside dans le fait qu'un grand nombre de coefficients est généralement nécessaire pour décrire la non linéarité. Ceci a pour effet de rendre cette représentation peu commode pour les applications du traitement de signal. TI est alors préférable de s'orienter vers d'autres modèles qui seraient plus parcimonieux dans l'usage de leur coefficients. Nous introduisons donc ci-après un modèle récursif non linéaire qui pourrait constituer une alternative à la représentation par série de Volterra. Ce modèle sera détaillé dans le chapitre V et ne traitera que des signaux RMN réels acquis à l'aide de l'instrument que nous avons développé. Cependant, nous donnons pour permettre une comparaison avec le modèle de Volterra, la définition de ce modèle et les résultats obtenus sur des signaux RMN simulés. 104 Modèle du filtre à réponse impulsionnelle infinie non linéaire IV. D'une façon générale, la relation entrée-sortie d'un filtre à réponse impulsionnelle infinie (RID non linéaire de mémoire N est décrite par une équation récursive de la fonne : M d(n) = L/~(d(n -l),d(n - 2), d(n - N + l),x(n),x(n -l), ,x(n - N + 1)) (IV.30) i=1 où p;(e,e, ,e) est un polynôme d'ordre i des quantités entre parenthèses. Ce modèle du filtre RH non linéaire pennet de décrire les caractéristiques non linéaires d'un système avec moins de coefficients qu'un modèle basé sur la série de Volterra [Mathews, 1991] Le plus simple des filtres RH non linéaires est celui dont l'entrée et la sortie sont liées par l'équation : N-I d(n) = N-I N-I N-I LC(i)d(n-i) + L Lb(i,j)d(n- j)x(n-i)+ La(i)x(n-i) i=1 j=1 i=O (IV.3l) i=O où cri), b(i,j), a(i) sont les coefficients du modèle. Par analogie avec les appellations employées pour les coefficients d'un filtre (RII) linéaire, les coefficients cri) et a(i) seront respectivement appelés coefficients auto-régressifs et coefficients de moyenne mobile. Les coefficients b(i,j) sont les coefficients non linéaires. L'équation IV.31 traduit le fait que la sortie du système d(n) à un instant donné n est calculée à partir des N dernières valeurs de l'entrée et des N-l dernières valeurs de la sortie. L'identification du système consiste alors à estimer les coefficients cri), b(iJ) et a(i) du filtre. Ces coefficients sont donnés, pour l'objet ID décrit au chapitre I, dans la figure IV.ll. Le signal d'entrée étant une impulsion sinc 90° de lms de durée. L'algorithme de gradient, qui sera détaillé dans le chapitre suivant, a été utilisé pour l'estimation des coefficients. La mémoire du système a été fixé à N =24. 105 a(i) 0.06 +- 0.04 +. '* * * * * 0.02 0 31<- * '" * 31<- +. * '* * * * * 31<;jo 31<- -0.02 -0.04 * "* 0 5 10 15 ; 20 25 c(i) 0.2 * 0.15 0.1 '* '* '* + *' 0.05 0 -0. 05 0 5 t.- +. * 31<- .;<- '" 10 +- '* t.- +. * *' * "* "" 20 15 +- *" 25 i 6 5 4 3 2 o -1 -2 25 25 o 0 ; Figure IV.II Les coefficients du filtre RIT non linéaire obtenus l'algorithme de gradient. La mémoire du système est N=24. 106 Le signal de sortie du filtre RIT ainsi calculé est donné en même temps que le signal de référence dans la figure N .12. OB 0.6 0 .4 02 ~2--------~------~------~~------~------~-------400 450 500 700 550 600 650 Figure IV.12 Le signal de référence (traits continus) et le signal de sortie du filtre RIT non linéaire (en pointillés) pour N=24. On peut dire maintenant que le système RMN est équivalent, au sens de l'erreur quadratique moyenne, à un filtre RIT non linéaire [Asfour-JMR, 2000], [Asfour, 2000]. Al' issu de chapitre, nous pouvons conclure que la structure RIT non linéaire permet de modéliser la non linéarité de systèmes RMN avec un nombre moins élevé de coefficients que la représentation par série de Volterra. C'est précisément ce modèle qui sera désormais retenu dans l'identification de systèmes RMN réels. TI sera donc exposé en détails dans le chapitre suivant. 107 Chapitre V Modélisation des systèmes RMN par filtre à réponse impulsionnelle infinie (RII) non linéaire: Validation sur des signaux réels 108 Introduction Nous avons montré dans le chapitre précédent, que la représentation de systèmes RMN par le modèle de série de Volterra n'est pas appropriée pour décrire la non-linéarité en raison du grand nombre de coefficients à estimer. Nous avons donc introduit le modèle du filtre RII non-linéaire et démontré qu'il permet les mêmes performances et ce avec un nombre moins élevé de coefficients. Nous allons donc, dans ce chapitre, détailler le modèle du filtre RII non linéaire. Nous verrons tout d'abord les modifications apportées pour réduire le nombre de coefficients. Nous présentons ensuite l'algorithme d'adaptation mis en oeuvre et les approches du filtrage adaptatif RII associées à savoir l' approche d'erreur d'équation et l'approche d' erreur de sortie . Le modèle sera finalement validé sur des signaux RMN réels acquis à l'aide de l'instrument développé et décrit précédemment (voir chapitres II et III). Il Modèle du filtre RII non linéaire et méthode d'identification Il.1 Description du modèle Le modèle du filtre RII proposé est une variante du modèle décrit par l'équation 11.31. Elle est réalisée en agissant sur la mémoire du système, préalablement notée N, d'une manière à ce que le nombre des coefficients de chaque partie du filtre puisse être choisi indépendamment les uns des autres. L'équation décrivant ce modèle de filtre est ainsi de la forme [Asfour, 2001] : K-I L'-I K'-I den) = LC(i) den - i) + L ;=1 ;=0 L-I Lb(i,j) den - j) x(n - i) + La(i) x(n - i) (V.1) ;=0 j=1 où L, L' , K, et K' sont des nombre entiers positifs. L'intérêt de ce modèle réside dans le fait qu'il permet d'approcher une large classe de systèmes non linéaires et ce avec un nombre fini de coefficients. De plus, la plupart des concepts développés le concernant peuvent être facilement étendus à des modèles non linéaires plus généraux. Il.2 Les approches du filtrage adaptatif RII non linéaire 109 L'identification des systèmes RMN par filtrage adaptatifRII non linéaire est basée sur le schéma général de la figure V.l. Le signal d'entrée x(n) est appliqué au système RMN considéré qui produit en sortie le signal de référence d'(n) . Bruit de mesure x(n) SystèmeRMN d(n) d'(n) + e(n) ~ +'"~ retard 1 " d(n) Filtre RII non linéaire " y(n) = d(n) 1 ou d(n) K -I d(n) = L: ê(i: n) y (n - i) + '~ I Figure V.I linéaire. L' - I K'-I L- I 1= 0 '~ O L: 2: b (i, j:n) y(n - j)x(n - i) + L: â(i: n) x(n-i) }=I Schéma général pour l'identification des système RMN par filtrage adaptatif RIT non Pour le traitement des signaux réels, il convient, bien entendu, de prendre en compte le bruit de mesure qui s'additionne au signal de référence d'(n) pour donner le signal d(n) qui est réellement utilisé dans le schéma d'identification. Dans la suite, nous considérons que le niveau de ce bruit est suffisamment faible pour ne pas influencer les performances de l'algorithme adaptatif. Le filtre adaptatif va donc essayer d'estimer le signal de référence d(n). Cette estimation est donnée à chaque instant n par : K-I d(n) = Lê(i : n) y(n - i) + ;=1 L'-I K'-I L-I ;=0 ;=0 L Lb(i,j: n) y(n - j) x(n - i) + Lâ(i: n) x(n - i) j=1 110 (V.2) où ê(i: n), â(i : n) et b(i, j : n) sont les coefficients du filtre adaptatif à l'instant n. Ces coefficients sont itérativement mis à jour pour minimiser l'erreur quadratique moyenne. Le calcul itératif de ces coefficients peut être fait selon deux approches distinctes. Dans la première approche dite d'erreur d'équation, les échantillons x(n) et d(n) du signal d'entrée et du signal de sortie respectivement sont utilisés pour estimer la sortie den) du filtre adaptatif. Ceci correspond, évidemment, à remplacer dans l'équation V.2 le signal y(n) par d(n). L'approche d'erreur de sortie considère, quant à elle, les échantillons de x(n) et les échantillons passés de den) pour calculer l'estimation actuelle d(n) , soit donc en utilisant l'équation V.2 avec y(n)= d(n) . Les principaux mérites de ces deux approches seront discutés plus loin dans ce chapitre. Pour plus de détail les concernant, le lecteur pourra se rapporter à la littérature [Shynk, 1989]. Il.3 L'algorithme d'adaptation Il.3.1 Les équations de mise à jour Nous avons employé, comme pour l'identification par série de Volterra, l'algorithme de gradient pour identifier les coefficients du modèle. Les équations de mise à jour des coefficients ê(i : n), â(i: n) et b(i, j : n) du filtre sont: â(i: n+l) =â(i: n) +ba x(n+l - i)e(n+l) (V. 3) b(i, j: n + 1) = b(i,j: n) + bby(n + 1- j)x(n + 1- i)e(n + 1) (V.4) ê(i: n + 1) = ê(i, n) + bcy(n + 1- i)e(n + 1) (V.5) où 0a' Oc et Ob désignent les pas d'adaptation. En faisant appel aux notations matricielles l , l'expression de den) donnée dans l'équation V.2 peut s'écrire par : "AT T'" T , den) = A (n)X L (n) + trace[B(n)(YK • (n)X L• (n))] + C (n)YK (n) 111 (V.6) Dans cette expression: Â(n) et ê(n) sont respectivement les vecteurs des coefficients moyenne mobile et auto- régressif à l'instant n : Â(n) = [â(O: n),â(l: n), ,â(L -1: n)f ê(n) = [ê(l: n),ê(2: n), ,ê(K - (V.7) (V.8) l;nf B(n) représente la matrice, de dimension L' x (K' - 1) , des coefficients non linéaires à l'instant n : ~ b(O,l : n) ~ b(l,l: n) Ê(n) ~ b(O,K' - 1: n) b(O,l : n) ~ b(l, K' - 1: n) b(1,2 : n) = (V.9) b(L ' - 1,1: n ) b(L ' -1,2: n ) b(L ' -l,K' -l:n) X L(n ),XL,(n),YK (n) et YK, (n) sont les vecteurs d'entrée du filtre adaptatif à l'instant n. Il sont définis par : XL (n) = [x(n), x(n -1), , x(n - L + l)y (V. 10) = [x(n),x(n -l), ,x(n - (V.l1) XL' (n) L' + l)y YK(n) = [y(n -l),y(n - 2), ,y(n - K + l)y (V.12) YK,(n) = [y(n -l),y(n - 2), ,y(n - K' + l)y (V. 13) Avec ces nouvelles notations, les équations de mise àjour s'écrivent alors: e(n + 1) =d(n + 1) - ÂT (n)Xdn + 1) - trace[Ê(n)(YK,(n + l)XI,(n + l))]_ê T (n)YK(n + 1) Â(n + 1) = Â(n) + baXJn + 1)e(n + 1) (V.l4) (V.l5) 1 (f et trace désigne respectivement la transposée d'une matrice et la somme des éléments diagonaux d'une matrice carrée. 112 ê(n + 1) = ê(n) + <5 c Y K (n + l)e(n + 1) Ê(n + 1) = Ê(n) + <5 b X L ,(n + l)YK .(n + l)e(n + 1) (V.16) (V.17) Lorsque les nombres L, L', K' et K sont fixés, la stabilité de l'algorithme et la qualité des résultats ne dépendent que du choix des pas d'adaptation. Il. 3.2 Conditions de stabilité et pas d'adaptation variables Nous rappelons préalablement que les conditions de stabilité dans une réalisation du filtrage adaptatifRII linéaire utilisant l'algorithme de gradient sont données par les inégalités suivantes [Bellanger, 1989] : 2 0< Sa < - -- -- - - (L - 1)0-~ + (K - 1)0-; (V.1 8) 2 0 < Sc < - -- - - - - (L - 1)0-~ + (K - 1)0-; (V.19) où o-~ et 0-; sont respectivement les puissances des signaux x(n) et y(n) En revanche, les conditions de stabilité de l'algorithme d'adaptation explicité Cl- dessus doivent être établies car nous traitons de filtrage adaptatif non linéaire. Il.3.2.1 Conditions de stabilité sur les pas d'adaptation L'examen de l'équation V.14 montre que la suite d'erreurs e(n) est calculée en utilisant les coefficients du filtre avant leur mis à jour. Elle est, par conséquent, appelée suite des erreurs « a priori ». L'erreur dite « a posteriori» définie par l'équation: &(n + 1) = d(n + 1) - ÂT (n + l)X L (n + 1) - trace[Ê(n + 1)(YK , (n + l)X[.(n + 1))] - ê T (n + l)YK (n + 1) (V.20) est, en revanche, calculée à partir des coefficients mis à jour, i.e. en utilisant les valeurs des coefficients obtenues une fois terminées les opérations de mise à jour décrites par les équations (V.15), (V.16) et (V.17). La relation entre ces deux types d'erreur peut s'écrire comme: 113 e(n + 1) - s(n + 1) (V.21) En prenant en compte les équations V.1S, V.16 et V.17, il est possible d'exprimer l'erreur a posteriori en fonction de Gelle a priori par : e(n+1)=e(n+1) {1 -t5a X[(n+l)XJn+1) - t5 b trace[(X L.(n+1)yJ,(n+1))(YK,(n+1)XI.(n+1))] -t5c Y: (n + l)YK (n + 1)} (V.22) L'algoritlune d'adaptation peut être considéré stable si l'espérance mathématique de la valeur absolue de l'erreur a posteriori est plus petite que celle de l'erreur a priori, ce qui est logique puisque s(n + 1) exploite davantage d'information [Bellanger, 1989]. Pour exprimer cette condition de stabilité sous une forme mathématique (ou inégalité), nous supposons que la partie linéaire du filtre agit indépendamment de sa partie non linéaire. Il est donc possible de considérer que la contribution dans l'erreur totale, qu'elle soit a priori ou a posteriori, de la partie linéaire est indépendante de la contribution de la partie non linéaire. Si nous désignons maintenant par sL(n) et SNL(n) (respectivement eL(n) et e NL (n)) les contributions de la partie linéaire et de la partie non linéaire dans l'erreur a posteriori (respectivement a priori), nous obtenons les deux conditions de stabilité que les pas d'adaptation doivent satisfaire, soit: (V.23) et (V.24) La première condition (V.23) permet de définir l'intervalle des valeurs permises pour les pas 8 a et 8c ' et d'établir les conditions de stabilité données par les inégalités V.l8 et V.19. La deuxième condition (V.24) permet de calculer les limites à respecter par le pas d'adaptation non linéaire t5b • Pour cela, nous la réécrivons en considérant l' équation (V.22) : 114 E[leNJn+l)-eNJn+l) 1] = jl-(Vrace{E[(Xdn+1)Y;'(n+l))(YK,(n+l)X[.(n+l))]}j < 1 (V.25) Nous faisons ensuite l'approximation suivante: (V.26) où r xy (0) Pour des est la fonction d'intercorrelation des signaux x(n) et y(n) à l'instant d' origine n=O. signaux à r XY (0) ~ min(L',K')a;y bande limitée, cette fonction peut être écrite comme : où a ;y désigne la puissance moyenne. Il en résulte la condition de stabilité suivante: (V.27) soit encore: 2 0 < 8b < - - - - - - min(L ', K ')( a ;y)2 (V.28) En pratique, il serait prudent de prendre une marge de sécurité correspondant à un facteur de quelques unités pour pouvoir prendre en compte des approximations faites dans le calcul. Il.3.2.2 Les pas d'adaptation variables pour les signaux RMN Pour permettre le traitement de signaux non stationnaires, comme c'est le cas des signaux RMN, les algorithmes adaptatifs doivent être capables de suivre l'évolution des paramètres de ces signaux. Dans le contexte actuel de l'identification de système RMN, les deux signaux d'entrée du filtre RH sont non stationnaires. L'apparition d'instabilités est, par conséquent, inévitable si des valeurs constantes sont utilisées pour les pas d'adaptation. Pour remédier à ce problème, nous avons introduit, comme dans le cas de l'identification par série de Volterra, des pas d'adaptation variables en fonction de n : 115 8 a(n) où = Pa (V.29) (L -1)a; (n) + (K -1)a; (n) 8c(n) = Pc (L-l)a;(n)+(K -1)a;(n) (V.3D) 8b(n) = Pb min(L',K')(a;y (n))2 (V.31) Pa' Pc et Pb sont des constantes positives ; (}; (n) et (}~(n) sont respectivement des estimations des puissances des signaux x(n) et y (n) , et a;y (n) est une estimation de la puissance moyenne à l' instant n. Ces variables sont définies par les relations suivantes: (V.32) (V.33) (V.34) où a;o a;o et a;yO sont des constantes positives permettant d'éviter une division par zéro. Ces estimations de puissance sont calculées sur des fenêtres temporelles de largeur respective III Validation du modèle sur des signaux réels RMN 111.1 Exemple de signaux réels La figure V.2 montre un exemple de signaux RMN acquis à l'aide de l'instrumentation développé. 116 -0:2 -0.4 0 ,-* --,--4-'-°--,.--,-,6-'-°-----,-l.80-. --~10'-:.0---12-'-0----:-*.,.,,1L40,.-*, ,-J ,0.8 L-,.--2'-:. (n) Figure V.2 Exemple de signaux RMN réels. L'excitation RF est une impulsion rectangulaire 90° de 2.5ms de durée et le signal FID est observé pendant une période d'environ Ilms. Ce signal, de type Off-resonance, est obtenu pour un tube cylindrique rempli d'eau déminéralisée. Le champ magnétique statique est réglé à 0.11 T, ce qui correspond à une fréquence de Larmor d'environ 4.783MHz. L'excitation RF est une impulsion 90° de forme rectangulaire et de 2.5ms de durée. La fréquence d'échantillonnage dans la bande de base est de 10kHz et la durée de l'observation du signal est de 11ms, soit donc un nombre total de 110 échantillons acquis sur cette durée. 111.2 Résultats d'identification Les paramètres L, K, L' et K' doivent être choisis pour permettre une meilleure description du système RMN. Pour cela, nous nous somme fixés les critères suivants. Il est d'abord important de garder à l'esprit que le nombre de coefficients doit être raisonnable pour réduire le temps du calcul et simplifier l'exploitation du modèle dans des applications éventuelles. Contrairement au modèle de Volterra, nous choisissons un nombre de coefficients non linéaires moins élevé que celui des coefficients linéaires pour traduire le 117 fait que contribution de la partie non linéaire dans la réponse totale du système est moins importante comparée à celle de la partie linéaire. Ces coefficients doivent, bien entendu, être choisis de manière à minimiser l'erreur quadratique moyenne entre le signal de référence et la sortie du filtre. Toutes ces considération nous ont conduit au choix des valeurs suivantes : L=12, K= 22, L' =8 et K' = 2, soit donc 41 coefficients à estimer. Dans l'exemple du signal RMN donné dans la figure V.2 où nous disposons d'environ 110 échantillons du signal, l'estimation des coefficients du filtre correspondant est significative. Cependant, la qualité du modèle qui est fonction de la redondance nombre de mesures/nombre de paramètres peut être améliorée en terme de précision d' estimation des coefficients en faisant appel à des mesures complémentaires du même signal RMN. Ainsi, dans la mise en oeuvre pratique de l'algorithme d' adaptation, nous n'utilisons pas qu'une seule excitation RF et le signal RMN résultant mais les signaux correspondant à la répétition de cette excitation. L' impulsion d' excitation est ainsi répétée périodiquement et le signal RMN est acquis à la fin de chaque impulsion. La fréquence de répétition devra être choisie adéquatement pour permettre au système d' atteindre son état d'équilibre avant l' application de l'impulsion suivante. A chaque impulsion, l'algorithme adaptatif effectue la mise à jour des coefficients de filtre en prenant pour valeurs d'initialisation les valeurs de ces même coefficients à fin de l' impulsion précédente. A la première impulsion, ces coefficients utilisent des valeurs de départs fixées par l'utilisateur. Nous montrerons par la suite que les valeurs des coefficients se stabiliseront après un nombre donné de répétitions de l'impulsion d'excitation [Asfour, 2001]. Examinons dans ces conditions l'estimation de ces coefficients selon l'approche d'adaptation basée sur l'erreur d'équation. Ceux-ci étant initialisés à zéro et les valeurs de différents paramètres d'adaptation, conduisant au minimum de l'erreur quadratique moyenne entre le signal de référence et le signal à la sortie du filtre, sont: fle = 0.265, Nx = 5, Ny = 10, N xy = 5, (J'~o = 0.030, (J'~o = 0.058, fla = 0.680, (J'~yO = 0.085 flb = 0.010, et ~ = 3. Le signal de sortie du filtre résultant est comparé au signal de référence dans la figure V.3 qui confirme, d'ailleurs, que le système RMN est équivalent à un filtre RH non linéaire au sens de l'erreur quadratique moyenne. Notons que le signal de référence considéré dans cette analyse n'est autre que le signal RMN réel donné dans la figure V.2 et que les valeurs initiales de la sortie du filtre, i.e. pendant la durée de l'impulsion d'excitation, ont été fixées à zéro. 118 0.8 0.6 0.4 0.2 -0.2 -0.4 -0.6 -0. 8 ' -_ _- L_ _ _-L-_ _ _.L.-_ _-----''-_ _--'-_ _ _---'-_ _ _- ' - - - - - ' 140 20 40 60 80 100 120 n Figure V.3 Le signal de référence (traits continus) et le signal à la sortie du filtre Rn non linéaire (en pointillés). Les coefficients du filtre sont estimés à l'aide de l'algorithme d'adaptation selon l'approche d'erreur d'équation. Nous devons préciser que ce résultat a été obtenu pour 30 répétitions du signal d'excitation qui consiste, nous le rappelons, d'une impulsion 90° de forme rectangulaire et de 2.5ms de durée. Pour avoir une idée de l'influence du nombre de répétions de l'impulsion RF, soit donc de l'influence du nombre de mesures du même signal RMN, sur la qualité du modèle, nous présentons dans la figure V.4 les variations de l'erreur quadratique moyenne (EQM) en fonction du nombre de répétitions de l'impulsion d'excitation. Cette erreur peut être considérée constante au delà de 30 répétitions de l'impulsion RF et indique ainsi qu'au moins 30 mesures du même signal RMN seront nécessaires pour obtenir l'estimation optimale, en terme de précision, des coefficients du filtre. Malgré ce nombre assez élevé, le temps de calcul reste raisonnable et autorise l'implantation de l'algorithme d'adaptation en temps réel. 119 X 10.3 EQM 4.5 4 3.5 3 2.5 2 1.5 . . . . . . . . . . . . . . . . . . . . . . . 5 10 20 15 25 30 35 40 45 50 Numéro de /'impulsion Figure V.4 L'erreur quadratique moyenne (EQM) en fonction du nombre de répétitions de l'impulsion RF. L'approche d'erreur d'équation présente l'avantage de l'unicité de la solution du problème, c'est-à-dire que l'algorithme d'adaptation converge vers le seul minimum global de la fonction d'erreur à minimiser. Son intérêt est, cependant, limité aux cas où le bruit additif au signal de référence est de faible niveau. Dans le cas contraire, cette approche conduit généralement à une estimation biaisée des coefficient du filtre [Mathews, 1991], [Shynk, 1989] et [Michaut, 1992]. Théoriquement, il est alors préférable d'employer l'approche d'erreur de sortie qui est l'approche correcte. Cette approche qui utilise uniquement, comme nous l'avons vu, les échantillons passés de J (n ) pour estimer l'échantillon présent (actuel) de J (n) devra permettre l'obtention d'une estimation non biaisée des coefficients. Pour tester cette approche, les valeurs initiales de ces coefficients s'avèrent être les paramètres les plus cruciaux de l'algorithme. En fait, s'ils ne sont pas proprement initialisés, l'algorithme d'adaptation peut bel et bien converger vers un des minima locaux que possède 120 la fonction d'erreur à minimiser. Ce minima local pouvant être, bien entendu, très différent du minimum global. Les valeurs initiales des coefficients qui garantissent la convergence de l'algorithme vers le minimum global peuvent être fixées soit empiriquement soit en utilisant des valeurs proches de celles des coefficients issus de l'algorithme d'adaptation basé sur l'approche d' erreur d'équation. La figure V.S montre le résultat de l'identification basée sur l'approche d'erreur de sortie en se basant sur cette deuxième méthode pour l'initialisation des coefficients 0.8 0.6 0.4 0.2 -0.2 -0.4 -0.6 -0.8 L -_ _----L-_ _ _L-_ _---1_ _ _---L-_ _ _- ' - -_ _---'-_ _ _- - - L - - ' 100 120 140 20 40 60 80 n Figure V.S Le signal de référence(traits continus) et le signal à la sortie du filtre RII non linéaire (en pointillés). Les coefficients du filtre sont estimés par l'algorithme d'adaptation basé sur l'approche d'erreur de sortie. En conclusion à ce chapitre, nous avons développé un modèle pour l'identification de systèmes RMN et nous l'avons validé sur des signaux réels. Ce modèle nous a permis d'approcher un système RMN par un filtre Rn non linéaire. Malgré les difficultés non entièrement résolues à ce jour dans la mise en oeuvre de ces filtres, notamment les problèmes de stabilité, nous avons pu conduire la mise en place d'un 121 algorithme d'adaptation. Cet algorithme pourra constituer une contribution . dans la problématique générale de l'identification des systèmes non linéaires et dans l'utilisation, encore peu développée, de structures RH non linéaires dans le domaine du traitement de signal. Nous signalons aussi que notre approche d'identification, a été conduit uniquement dans le cas d'une expérience de base en RMN où le terme non linéaire, comme nous avons pu le constaté, ne contribue que d'environ de 6% dans la réponse totale du système. Notre modèle doit être comparé avec les modèles paramétriques linéaires, actuellement en utilisation, pour pouvoir apprécier ses avantages. Ajoutons finalement que ce traitement non linéaire pourra trouver tout son intérêt dans des expériences plus complexes de la RMN telles que celles avec des impulsions multiples ou encore celles de la résonance stochastique ou les effets de la non linéarité sont plus importants. 122 Conclusions et perspectives 123 Les travaux de recherche et de développement, menés durant cette thèse, sur la mise en place d'un imageur numérique, ont été fructueux et ont donné naissance à un produit quasi fini . Les performances de l'imageur développé, en particulier celles du récepteur et du synthétiseur numériques, constituent une avancée importante dans le développement instrumental et le traitement du signal pour l'IRM dédiée à bas champ. Outre son coût peu élevé et le bon RSB atteint, le caractère peu encombrant de l'électronique d'acquisition et de traitement que nous avons élaboré ouvre la voie à une intégration facile dans un cabinet médical ou bien sur les lignes de production pour le contrôle de qualité agroalimentaire. Les images esquissées obtenues par la séquence d'écho de gradient peuvent être améliorées. L'imageur possède le potentiel d'intégrer une large variété de séquences d'imagerie. Pour pouvoir apprécier la qualité des images en diagnostic médical ou en contrôle agroalimentaire, il y a bien évidemment lieu de les comparer à celles d' un imageur bas champ utilisant une électronique de réception analogique. La solution numérique de réception du signal RMN laisse envisager des perspectives de recherche encore plus poussées pour rehausser davantage le RSB. L'application, par exemple, des techniques de filtrage adaptatif multivoies au traitement du signal RMN permettrait d'apporter des améliorations supplémentaires sur le RSB pour éviter le moyennage du signal et réduire ainsi le temps d'imagerie. Concernant la deuxième partie du travail présenté dans ce manuscrit, nous avons proposé et comparé deux modèles pour l'identification des systèmes RMN. Ces modèles trouvent leur intérêt dans le fait qu'ils permettent de prendre en considération les caractéristiques non linéaires, qui sont jusqu'à présent négligées, de tels systèmes. Ainsi, nous avons montré qu'il était possible de modéliser un système RMN aussi bien par un filtre de Volterra de troisième ordre que par un filtre non linéaire à réponse impulsionnelle infinie (RIn. Néanmoins, nous avons retenu ce dernier grâce à son potentiel de décrire la non linéarité des systèmes RMN avec moins de coefficients que le modèle de Volterra. L'apport du modèle du filtre RII dans l'amélioration du traitement et de l'analyse du signal RMN reste à étudier. Pour cela, il est nécessaire d'entreprendre une étude de comparaisons avec les méthodes paramétriques linéaires de traitement du signal RMN qui sont actuellement utilisées et qui pourront d'ailleurs trouver leur limitation dans les expériences de la RMN stochastique ou encore dans celles à impulsions multiples. D'autres études peuvent être également envisagées pour explorer la possibilité de relier les coefficients du modèle non linéaire aux propriétés physiques de l' échantillon 124 modélisé. Ceci nécessite, bien évidemment, l'analyse approfondie du comportement des différents coefficients du modèle pour un nombre significatif d'échantillons. 125 Annexe Le processeur ADSP21 060 SHRAC : Architecture et fonctionnement 126 A.1 Description générale Les processeurs ADSP-21060 SHARC d'Analog Deviees sont des DSP 32 bits virgule flottante hautes performances optimisés pour le traitement numérique du signal en temps réel. Ils sont aussi largement utilisés pour d'autres applications nécessitant une grande vitesse de calcul. La réputation de ce DSP doit principalement à sa capacité d' effectuer les calculs en virgule flottante. Il répond ainsi à des critères de qualités plus élevés que son équivalent en virgule fixe dans les domaines de : • Précision • Plage dynamique • Facilité et flexibilité d' utilisation Un schéma simplifié de l'architecture du processeur ADSP-21 060 SHARC est donné par la figure A.I. On peut constater sur ce schéma le niveau élevé d'intégration de ce DSP qui combine en un seul circuit intégré le coeur du processeur avec d'autres utilités. Celles-ci incluent en premier lieu la mémoire SRAM (Static Random Access Memory) qui peut être configurée par l'utilisateur en deux types de mémoire: une appelé « mémoire programme» et l'autre appelé «mémoire de donnée ». Cette mémoire peut être accédée via le port «processeur» par le coeur du processeur grâce aux quatre bus internes de celui-ci. • Les deux bus de programme PM : - PMD (program Memory Data) 48 bits : il est utilisé pour le transfert des instructions ou des données situées dans la «mémoire programme» entre celle-ci et le coeur du processeur et inversement. - PMA (Pro gram Memory Address) 24 bit: il est chargé du transfert des adresses des instructions et des données de la mémoire programme. • Le deux bus de données DM: - DMD (Data Memory Data) 32 bits: Il assure le transfert des données entre la mémoire de données et le coeur du processeur - DMA (Data Memory Address) 32 bits : il est utilisé pour transférer les adresses des données dans la mémoire de données 127 En deuxième lieu, on remarque la présence d'un processeur indépendant IIO gérant les opérations de transfert de données entre la mémoire et les ports (ports séries, port externe, le contrôleur DMA) de communication avec des dispositifs extérieurs. Ce processeur peut accéder à la mémoire via le port « IIO » et ceci grâce aux bus IIO (IOA pour les adresses et IOD pour les données). CORE PROCESSOR , - - - DUAL-PORTED SRAM ------ TWQ INDEPENDENT DUAL*PORTED BLOCKS JTAG TEST & EMULATION 32 DM ADDRESS BUS 48 CONTROL, STATUS & DATA BUFFERS Figure A.1 Architecture du processeur ADSP21060 d'Analog Deviees. A.2. La mémoire SRAM Il s'agit donc de mémoire IMbits (1 mégabits) interne au processeur. Son architecture autorise le stockage d'une donnée ou d'une instruction dans la même location «physique », une particularité qui n'est pas forcément commune à tous les DSP, et qui a son grand intérêt pour la rapidité d'exécution de programme. En effet, cette mémoire est organisée en deux blocs. Chaque bloc peut stocker des combinaisons de code de programme (instructions sous format de 48 bits) et de données sur 32 bits. Cependant, l'accès à la mémoire est rendu plus efficace si l'un de ces blocs, que nous avons appelé «mémoire de données », est dédié au stockage de données -et qui utilise le bus DMD pour le transfert- alors que l'autre bloc, «appelé mémoire de programme» est chargée de stocke des instructions et des données en utilisant le bus PMD pour le transfert. 128 Cette manière d'utilisation des bus de transfert (c'est-à-dire que chaque bus est dédié à un seul bloc mémoire garantit l'exécution d'une opération aux même temps qu'un transfert de deux données en un seul cycle d'horloge, à condition que l'instruction à exécuter soit disponible dans la mémoire « cache» (Instruction cache sur la figure A.l). A.3. Le coeur du processeur Le coeur du processeur contient trois unités de calculs, deux générateurs d'adresses et un séquenceur de programme avec mémoire cache. a) Les unités de calculs Ils sont en nombre de trois unités : - Une unité arithmétique et logique (UAL) : elle accomplit essentiellement les opérations arithmétiques et logiques standards en virgule fixe et en virgule flottante. - Un multiplieur accumulateur: il est chargé des opérations de multiplication en virgule fixe et en virgule flottante, ainsi que les opérations de multiplication/addition et multiplication/soustraction en virgule fixe. - Une unité de décalage: des opérations de manipulation de bits (décalage logique et arithmétique ) peuvent être effectuées grâce à cette unité. Ces unités de calculs sont indépendantes et fonctionnent en parallèle. Chaque unité exécute une instruction de programme en un cycle d'horloge, et la sortie d'une unité peut être une entrée pour une autre dans le cycle suivant. Un ensemble de registres de données (Data Register File) de calculs en nombre de 16 permet d'assurer l'interface entre ces unités de calculs et les bus internes de données. Ces registres permettent aussi de stocker les résultats de calculs intermédiaires. b) Le séquenceur de programme et les générateurs d'adresses (DAGl, DAG2) Les générateurs d'adresses sont dédiés à fournir sur deux bus d'adresses PMA et DMA, les adresses des données et des instructions de programme situées dans la mémoire. En association avec ces générateurs, le puissant séquenceur de programme permet l' accès aux mémoires internes du processeur ou aux mémoires externes de la carte SRT-SHARC. Les 129 deux générateurs d'adresses permettent au processeur de fournir simultanément les deux données nécessaires aux opérations à deux opérandes, et ceci pour un maximum d'efficacité et de puissance de calculs de 160MOPS (160 millions d'opérations par seconde). Du fait de son architecture, le processeur ADSP21 061 SHARC possède un haut degré de parallélisme spécifiquement adapté au traitement numérique de signaux et d'images. Au cours d'un seul cycle d'horloge, ce processeur peut effectuer les opération suivantes : • Générer les prochaines adresses du programme. • Aller chercher l'instruction suivante. • Effectuer un ou deux transferts de données • Exécuter une opération. • Recevoir ou transmettre des données à travers les ports séries L' exécution du programme s' effectue de manière linéaire, c'est-à-dire que les instructions sont donc exécutées par le processeur dans l' ordre selon lequel elles sont placées dans la mémoire de programme. Cependant, quelques fonctions permettent de rompre ce flous de programme. Celles-ci sont par exemple des fonctions de type boucles, sous-routines ou interruptions. Les interruptions, en particulier, sont causées par une variété de conditions internes ou externes au processeur. Les interruptions extérieures sont en nombre de trois. Elles sont causées par des dispositifs externes qui envoient une demande d'interruption sur l'une des entrées d'interruptions: IRQO, IRQ1 ou IRQ2. Parmi les interruptions internes au processeur, on peut citer les interruptions liées aux opérations de transfert du contrôleur DMA (Direct Memory Acess), et celles qui concernent la réception et la transmission des données par les ports série. A.4. Le processeur 1/0 et le port externe: Ce processeur fonctionne indépendamment du coeur du processeur. IL contient deux ports séries et un contrôleur DMA (Direct Memory Acces). Ce dernier constitue un moyen efficace et rapide pour effectuer le transfert d'un bloc de données entre la mémoire interne et une source de données extérieure (mémoire externe, PC, . ). Les ports séries offrent un protocole de communication simple avec une large variété de périphériques de traitement numérique de signal. Les fonctions de réception de données 130 par le DSP et de transmission vers la périphérique sont complètement indépendante pour un maximum de rapidité. Le transfert de données via le port série est dit de type synchrone. Autrement dit, le transfert des bits successifs d'un mot de données est rythmé à la cadence d'une horloge, il y a un transfert d'un bit à chaque cycle d'horloge. Cette horloge peut être générée par le DSP même, ou bien elle peut être fournie de l'extérieur. La fréquence de cette horloge peut aller jusqu' à la fréquence du processeur (40MHz). Ces ports séries sont employés dans notre système d'IRM pour assurer le transfert des données numériques (échantillon du signal RMN) du récepteur numérique vers la mémoire du DSP. Avec des bus parallèles, le port externe offre la possibilité d'interfacer le DSP avec d'autres processeurs (un autres DSP, PC, ), avec une mémoire externe ou d' autres périphériques. A.5. Outils de programmation de la carte SRT-SHARC : Un ensemble d' outils est nécessaire pour développer les programmes pour la carte SRT-SHARC. Cet ensemble comprend les éléments suivants: • L'assembleur: Ce logiciel permet l'assemblage des programmes d'utilisation écrit en langage «assembleur ». Il fournit à la sortie un fichier objet qui contient le code bas niveau (code machine) du processeur ADSP21 061-SHARC. • Le compilateur C : Ce logiciel permet de traduire un fichier source écrit en «C» en langage assembleur. Le fichier ainsi généré sera ensuite assemblé par L'assembleur. • L'éditeur de lien: Un logiciel qui génère un fichier exécutable par le processeur à partir du fichier déjà assemblé par L'assembleur, et en tenant compte des informations issues du fichier d'architecture. • SRT_GO: Ce logiciel permet de charger le code bas niveau dans la mémoire interne du processeur et de déclencher l'exécution. • Le simulateur: il permet de tester sur PC le fonctionnement du programme avant le chargement. Les programmes de la carte SRT-SHARC peuvent être développer en langage assembleur ou en C. 131 Bibliographie 132 [Asfour-JMR,2000] Asfour. A, Raoof. K, et Fournier. J-M, Nonlinear identification ofNMR spin systems by adaptive filtering, Journal of Magnetic. Resonance, Vol. 145,37-51 (2000). [Asfour, 2000] Asfour. A, Raoof. K et Fournier. J-M, Identification of NMR spin systems by Volterra series, IEEE World Congress on Medical Physics and Biomedical Engineering. Chicago, USA, 23-28 Juillet (2000). [Asfour, 2001] Asfour. A, Raoof. K, et Fournier. J. M, Filtrage adaptatif RU non linéaire: application à l'identification de systèmes à résonance magnétique nucléaire (RMN) , l8/1l Symposium GRETSI'Ol on Signal and Image Processing. Toulouse, France, Septembre (2001). [Bellanger, 1989] Bellanger. M, Analyse des Signaux et Filtrage Numérique Adaptatif, Masson, Paris (1989). [Biglierri, 1982] E. Biglieri, Theory of Volterra processors and sorne applications, Proceedings IEEE ofICASSP. Vol. 82,294-297, (1982). [Bittoun, 1984] Bittoun. J, Taquin. J, et Sauzade. M, A Computer algorithm for the simulation of any nUclear magnetic resonance (NMR) imaging method, Magnetic Resonance in Medicine. Vol. 2, 113-120 (1984). [Blütnich, 1982] Blütnich. B, et Ziessow. D, Saturation in Hadamard NMR spectroscopy and its description by a correlation expansion, Journal of Magnetic Resonance. Vol. 46, 385 -405 (1982). [Brenner, 1997] Brenner. A .R, Kürsch. J, et Noll. T. G, Distributed large-scale simulation ofmagnetic resonance imaging, MAGMA. Vol. 5, 129-138 (1997). [Brent, 1986] Brent. K et Stewart. B .S, Implementation of a magnetic resonance imaging computer simulator and preliminary results, SPIE Medicine. Vol. 626, 200-206 (1986). 133 [Chester, 1999] Chester. D. B, Digital IF filter technology for 3G systems: An Introduction, IEEE Communication Magazine, 102-107; Février (1999). [Choquet, 1996] Choquet. P, Applications Vétérinaires de l'IRM Dédiée à Bas Champ, Thèse de Doctorat, Discipline: Imagerie Médicale, Tours, 1996, N°-96TOURS305 . [Constantinesco, 1997] Constantinesco. A, Choquet. P, et al., Low-Field dedicated and desktop magnetic resonance Imaging systems for agricultural and food applications, Magnetic Resonance in Chemistry. Vol. 35, 569-575 (1997). [Ernst, 1989] Ernst. R. R, Bodenhausen. G, et Wokaun. A, Princip les of Nuc1ear Magnetic Resonance in One and Two Dimensions, Clarendon Press, Oxford (1989). [Fakhouri, 1980] Fakhouri. S. Y, Identification of the Volterra kernels of nonlinear systems, IEE Proceeding, Vol. 127,296-304, (1980). Gries. P et Constantinesco. A., Développement d'un imageur de [Gries, 1987] laboratoire à 0.094T à partir d'un mini spectromètre RMN, Journal de Biophysique et Biomécanique. Vol. Il : 139-143 (1987). Guinet. CL et Grellet. J, Introduction à l'IRM: De la Théorie à la [Guinet, 1992] Pratique, Masson, Paris (1992). Hoult. D. l, The solution of the Bloch equations in the presence of a [Hoult, 1979] varying BI field-an approach to selective pulse analysis, Jouranl of Magnetic. Resonnace. Vol. 35 B, 69-86 (1979). [Kaulisch, 1996] Kaulisch. T, Kolbe. H, et Ziessow. D, Non-linear response theory in nD NMR with complex stochastic excitation, Journal of Magnetic Resonance. Series A 121, 4249 (1996). [Koh, 1985] Koh. T, Powers. E. J, Second-order Volterra filtering and its application to nonlinear system identification, IEEE Transaction ASSP, Vol. 33, 1445-1 455, (1985). 134 [Lawrence, 1981] Lawrence. P. J, Estimation of the Volterra functional series of a nonlinear system using frequency-response data, IEE Proceeding, Vol. 128,206-210, (1981). [Liang, 1999] Liang. Z. P, et Lauterbur. P. C, Princip les of Magnetic Resonance Imaging : a Signal Processing Perspective, IEEE Press, New Press (1999). [Mansfield] Mansfield. P et Morris. A. P.G, NMR Imaging in Biomedicine, Academic Press, New York (1989). [Mathews 1991] Mathews. V. J, Adaptive polynomial filters, IEEE SP Magazine, Vol.8, 10-26, July (1991). [Michaut, 1992] Michaut. M, Méthode Adaptatives pour le Signal: outils mathématiques et mise en oeuvre des algorithmes, Hermès, Paris (1992). [Morgan 1999] Morgan. P. N, Iannuzzelli. R. J, Epstein. F. H, et al., Real-time cardiac MRI using DSP's, IEEE transaction on medical Imaging,. Vol. 18,649-653 (1999). [Nguyen, 1996] Nguyen. V, Système de Création de Champ Magnétique Homogène à aimants ferrites pour l'imagerie RMN, Thèse de Doctorat, Discipline: Génie Electrique, Grenoble, 1996. [Olsson, 1995] Olsson. M. B. E, Wirestam. R, et Presson. B. R, A computer simulation for MR imaging: application to RF and static magnetic field imperfections, Magnetic Resonance in Medicine, Vol. 34,612-617 (1995). [Pimmel, 1990] Pimmel. P, Les Antennes en Résonance Magnétique Nucléaire: Fonctionnement et Réalisation - Résonateurs pour l'Imagerie et pour la Spectroscopie In Vivo, Thèse de Doctorat, Lyon, 1990, N°-101.90. [Raoof, 2002] Raoof. K, Asfour. A, et Fournier. J. M, A Complete digital MRI system at low magnetic field (0.1 Tesla), IEEE Instrumentation and Measurement Technology Conference IMTC2002, Anchorage, USA, 20-23 Mai 2002. 135 [Raoof, 1994] Raoof. K et Piatszek. E, A novel real time adaptive filtering system for biomedical signal processing, International Conference on Signal Processing and Technology, Dallas, USA, Octobre (1994). Ravier. S, Gangi. A, Choquet. P et al., IRM Interventionnelle: Intérêt [Ravier, 1996] du bas champ magnétique et des séquences ultra rapides d'équilibre dynamique 3D pour le suivi d'une aiguille non ferro-magnétique, Journal de Radiologie. Vol. 77 : 105-110 (1997). [Ravier, 1994] Ravier. S, Développements de Séquences d' Imagerie pour un Prototype d' IRM Dédiée à 0.1 Tesla, Thèse de Doctorat, Discipline : Imagerie Médicale, Strasbourg, 1994, N°-1883. [Shynk, 1989] Shynk. J. J, Adaptive IIR filtering, IEEE ASSP Magazine, Vo1.6, 4-21, Avril (1989). [Stormont] Storrnont. R. S et al. , RF synthesizer for an NMR instrument, Brevet Etats Unis, United States Patent, No. 4952877, (1990). [Summer, 1986] Summer. R. M, Axel. L, Israel. S, A computer simulation for nuclear magnetic resonance imaging, Magnetic Resonance in Medicine, Vol. 3, 363-376(1986). [Walden, 1999] Walden. H. R, Performance Trends for Analog-to-Digital Converters, , IEEE Communication Magazine, 96-101, February (1999). [Widrow, 1975] Widrow. B, et al., Adaptive noise cancelling: princip les and application, Proceedings of the IEEE, Vo1.63, No.12, 1692-1716, (1975). 136
{'path': '38/tel.archives-ouvertes.fr-tel-00473212-document.txt'}
MEMS piézoélectriques pour applications temps-fréquence Paul Chapellier To cite this version: Paul Chapellier. MEMS piézoélectriques pour applications temps-fréquence. Micro et nanotechnologies/Microélectronique. Université Bourgogne Franche-Comté, 2019. Français. tel-02962842 HAL Id: tel-02962842 https://hal.archives-ouvertes.fr/tel-02962842 Submitted on 9 Oct 2020 THESE DE DOCTORAT DE L'ETABLISSEMENT UNIVERSITE BOURGOGNE FRANCHE-COMTE PREPAREE A l'ONERA Ecole doctorale n°37 Sciences Pour l'Ingénieur et Microtechniques Doctorat de Microtechniques Par M. Paul CHAPELLIER MEMS piézoélectriques pour applications temps-fréquence Thèse présentée et soutenue à Châtillon le 09/12/2019 Composition du Jury : Madame Gaëlle LISSORGUES Monsieur Didier THERON Monsieur Matthieu CHATRAS Monsieur Alain BOSSEBOEUF Monsieur Jean-Marc LESAGE Monsieur Olivier LE TRAON Monsieur Bernard DULMET Monsieur Pierre LAVENUS Monsieur François-Xavier ESNAULT Monsieur Nicolas VOROBYEV Professeure à l'ESIEE Directeur de recherche à l'université de Lille Professeur des universités à l'université de Limoges Directeur de recherche à l'université Paris-Sud Ingénieur de recherche DGA Directeur adjoint du département DPHY ONERA Professeur émérite à l'ENSMM Ingénieur de recherche ONERA Ingénieur de recherche CNES Ingénieur de recherche société SYRLINKS Présidente du jury Rapporteur Rapporteur Examinateur Examinateur Examinateur Directeur de thèse Codirecteur de thèse Invité Invité ii Remerciements Je remercie Messieurs Jean-François Roussel et Olivier Le Traon, respectivement directeur et directeur adjoint du Département Physique Instrumentation Environnement Espace (DPHY) à l'ONERA pour m'avoir accueilli dans leur département. Je remercie également Monsieur FrançoisXavier Esnault du département Temps-Fréquence au CNES pour le cofinancement de la bourse de thèse ainsi que pour l'intérêt qu'il a porté à mes travaux. Je tiens à remercier Monsieur Bernard Dulmet du département Temps-Fréquence de l'institut Femto-ST pour avoir dirigé cette thèse. Je le remercie pour son aide, sa patience et sa bienveillance. Je tiens à remercier à Messieurs Didier Théron, directeur de recherche à l'université de Lille, et Matthieu Chatras, professeur de l'université de Limoges d'avoir accepté d'être les rapporteurs de ma thèse. Je remercie également Madame Gaëlle Lissorgues, professeure à l'ESIEE, Monsieur Alain Bosseboeuf, directeur de recherche à l'université Paris-Sud et Monsieur Jean-Marc Lesage, ingénieur DGA pour avec accepté d'examiner mes travaux. Je suis reconnaissant à Monsieur Raphaël Levy, chef de l'unité Capteurs et Micro/Nano Technologies de l'ONERA pour son accueil au sein de l'équipe. Je remercie également Madame Béatrice Bourgeteau Verlhac, anciennement ingénieure de recherche au sein de l'unité CMT qui m'a guidé pendant ma première année de thèse, et Monsieur Pierre Lavenus qui encadré au quotidien les travaux. Leurs conseils précieux et leurs forces de proposition ont été essentiels au bon déroulement de la thèse. Je remercie tous les membres de l'ONERA. Je remercie tout particulièrement Madame Claude Chartier, Monsieur Claude Gageant et Monsieur Marc Pernice qui ont su m'aider et apporter bon nombre de réponses à mes questions regardant les procédés de micro-fabrication. Je pense également à Messieurs Vincent Gaudineau, Patrick Kayser et Jean Guérard. Je remercie Messieurs Denis Boivin et Nicolas Horezan pour l'aide qu'ils m'ont apportée pendant les séances de microscopie électronique. iii Je remercie Mesdames Marie-Line Pacou, Martine Ducornet, Hélène Meller et Sylvie Nicolle Je remercie chaleureusement mes collègues, docteurs ou doctorants de l'ONERA, Amina Saadani, Thomas Perrier, Léopold Delahaye, Lucas Bonnin, Adrien Piot et Thomas Saint-Paul. iv Table des matières Remerciements iii Table des matières v Introduction 1 Chapitre 1 : Les références de temps et de fréquence 4 1.1 Bref historique de la mesure du temps 4 1.2 Applications des références de temps et de fréquence 6 1.3 Le domaine du temps-fréquence 6 1.3.1 Modèle de l'oscillateur 6 1.3.2 Caractérisations des sources de fréquences 8 1.4 Les oscillateurs à base de quartz 16 1.4.1 Le quartz 16 1.4.2 Relations constitutives de la piézoélectricité 17 1.4.3 Modèle équivalent du résonateur 20 1.4.4 Résonateurs en quartz 25 1.4.5 Facteurs de mérite des résonateurs 28 1.4.6 Oscillateur utilisant un résonateur mécanique 30 1.4.7 Familles d'oscillateurs à quartz 33 1.5 Vers une miniaturisation des dispositifs et une intégration plus aisée 37 1.5.1 Les résonateurs en silicium 38 1.5.2 Les résonateurs piézoélectriques MEMS 40 1.5.3 Les résonateurs en quartz miniatures 41 1.5.4 Comparaison des technologies et des approches 42 1.6 Conclusion du chapitre I 43 Chapitre 2 : Choix du micro-résonateur 45 2.1 Genèse et fonctionnement du résonateur 45 2.1.1 Principe de fonctionnement 46 v 2.1.2 Caractérisations et performances 46 2.2 Facteur de qualité 48 2.3 Résonateur ARQOMM 2D mode fondamental 53 2.3.1 Résonateur de type I 56 2.3.2 Résonateur de type II 61 2.4 Facteur de qualité du mode fondamental du résonateur ARQOMM 2D 66 2.4.1 Facteur de qualité à l'encastrement 66 2.4.2 Facteur de qualité limitant 67 2.5 Résonateurs ARQOMM 2D : modes partiels ou harmoniques 69 2.6 Conception des électrodes 70 2.6.1 Mode fondamental 72 2.6.2 Mode partiel 73 2.7 Conclusion du chapitre 2 76 Chapitre 3 : Mise en oeuvre technologique 77 3.1 Limitation de la gravure chimique par voie humide 78 3.1.1 Simulations de gravure humide de résonateurs ARQOMM vibrant à 3 MHz avec le logiciel Fabmeister 79 3.2 Une alternative, la gravure réactive ionique profonde 83 3.2.1 Historique et applications 83 3.2.2 Technologies de gravure sèche 84 3.2.3 Mécanismes de gravure du quartz par des gaz fluorocarbonés 94 3.2.4 Caractéristiques, critères et paramètres de gravure 96 3.2.5 Etat de l'art de la gravure DRIE du quartz, de la silice et du verre 100 3.3 Détail des étapes et verrous technologiques 102 3.3.1 Masque de gravure DRIE 102 3.3.2 Verrous rencontrés en vue d'amélioration du procédé de décollement de résine 109 3.4 Influence de la coupe cristalline du quartz 124 3.5 ARDE de la DRIE du quartz 125 3.6 Masques de photolithographie 134 3.7 Procédés de fabrication complets 136 3.7.1 Double gravure DRIE 136 3.7.2 Gravure DRIE et gravure chimique par voie humide 138 vi 3.8 Conclusion du chapitre 3 139 Chapitre 4 : Caractérisations des dispositifs et analyses 140 4.1 Moyens de caractérisations des résonateurs 141 4.1.1 Mesure à l'impédance-mètre 141 4.1.2 Mesure par la méthode dite de l'amplificateur de charge 143 4.2 Réalisations de résonateurs ARQOMM 2D 144 4.2.1 Procédé de fabrication avec double gravure DRIE 144 4.2.2 Procédé de fabrication avec usinage par voie chimique des cavités 155 4.2.3 Variation de l'épaisseur des électrodes 159 4.3 Premier oscillateur incluant un résonateur ARQOMM 2D 165 4.3.1 Le résonateur 165 4.3.2 Electronique d'entretien 167 4.3.3 Mesure de la sensibilité thermique 169 4.3.4 Mesure de la variance d'Allan 173 4.3.5 Mesure de la stabilité long terme 175 4.4 Perspectives de l'ARQOMM intégré en OCMO 177 4.5 Conclusion du chapitre 4 181 Conclusion générale 182 Bibliographie 186 Liste des figures 201 Liste des tableaux 212 vii –”‘†— –‹‘ Introduction Les oscillateurs électromécaniques sont des éléments indispensables de l'électronique. Capables de générer un signal présentant une fréquence stable, c'est-à-dire peu variable en fonction du temps ou de l'environnement1, les oscillateurs sont utilisés comme des références de fréquence et de temps et constituent les gardiens de temps des systèmes électroniques. La gamme de stabilité atteinte par les oscillateurs dépend naturellement des applications visées et est extrêmement large. Elle s'étend de l'oscillateur comprenant un diapason en quartz dans les montres à quartz, coûtant quelques dizaines de centimes d'euros et produit en très grande quantité (autour de 1 milliard de pièces par an), à l'équipement de métrologie ultra stable coûtant plusieurs dizaines de milliers d'euros et comprenant une pastille en quartz pouvant elle-même coûter plus de 1000 euros [1]. Les oscillateurs à base de résonateurs en quartz furent et sont toujours les plus couramment utilisés. Cependant, l'émergence et le développement des communications sans fils [2] et des réseaux 4G et 5G, des objets connectés et satellites posent de nouveaux défis sur les capacités actuelles des industriels à produire à de forts volumes des oscillateurs performants à bas coûts. En effet, les résonateurs à quartz sont difficilement miniaturisables du fait des procédés de fabrication habituellement utilisés : la gravure chimique par voie humide et le polissage mécano-chimique limitent la résolution atteignable. D'autres pistes ont été développées, par exemple le développement des filières des microsystèmes électromécaniques (MEMS) en silicium ou en silicium recouvert d'une couche de matériau piézoélectrique. L'idée est d'exploiter des procédés de fabrication particulièrement matures, héritages du développement de la microélectronique, du silicium. Ces filières ont permis la fabrication et la caractérisation de résonateurs dont les performances sont encore éloignées de celles des résonateurs à quartz macroscopiques en raison d'un facteur de qualité limité, d'une résistance élevée ou d'une sensibilité à la température importante. Nous choisissons une autre approche. En effet, le quartz est le matériau de choix pour la réalisation d'oscillateurs stables. Ses principaux avantages sont la faiblesse des pertes visco-élastiques, l'existence de coupes compensées en températures ou en contraintes et le comportement 1 A l'opposé d'un capteur dont la conception est optimisée de sorte que la mesurande, ici la fréquence, soit fortement sensible à la grandeur à quantifier (température, pression, masse, accélération, rotations) 1 –”‘†— –‹‘ piézoélectrique permettant la conversion linéaire et réversible d'énergie mécanique en énergie électrique. L'objectif de ce travail de thèse est double : d'une part, la mise en place de procédés de fabrication avancés et collectifs adaptés à des micro-résonateurs en quartz, d'autre part, la réalisation et la caractérisation de résonateurs en quartz de nouvelle génération combinant performances, fort volume de production et bas coût. Dans un premier chapitre nous présentons les notions essentielles relatives aux oscillateurs et au domaine du temps fréquence. Il s'agira en particulier de faire le lien entre les performances du résonateur qui constitue le coeur du dispositif et celles de l'oscillateur. Nous montrerons que la technologique historique des oscillateurs à quartz n'est plus adaptée aux applications des technologies émergentes du fait de leur volume, consommation et prix importants et qu'une première réponse des gens du domaine fut le développement des micro-résonateurs en silicium dont les performances sont finalement limitées par le matériau. Un deuxième chapitre est consacré à la présentation du résonateur développé par l'ONERA : c'est un résonateur miniature planaire à très haut facteur de qualité vibrant en extension-compression de longueur. Nous étudierons le mécanisme de découplage, la dépendance fréquentielle du résonateur et nous estimerons son facteur de qualité limitant dû aux pertes viscoélastiques. Le troisième chapitre porte sur le développement des moyens de fabrication en vue de la réalisation des résonateurs en quartz de nouvelle génération. Un moyen de gravure alternatif à l'usinage chimique par voie humide, incompatible avec la réalisation des cellules du fait de son anisotropie est présenté, c'est la gravure réactive profonde du quartz. L'utilisation de moyen de gravure a requis la mise en point d'un masque de gravure épais en nickel et une étude de la recette a été nécessaire pour l'obtention d'un fond de gravure lisse et des flancs quasi verticaux Enfin, les résultats de fabrication et de caractérisations seront présentés dans le quatrième et dernier chapitre. Les résonateurs ont présenté des facteurs de qualité maximaux supérieurs à 300 000 sur le mode fondamental, à l'état de l'art pour des résonateurs en quartz fabriqués en gravure sèche et pour des résonateurs en quartz vibrant en extension-compression de longueur. Une étude du facteur de qualité limitant a été réalisée en modifiant le procédé de gravure et l'épaisseur des électrodes, la tendance est en accord avec la théorie, à savoir que les pertes viscoélastiques limitent les performances du résonateur. Toutefois, la dépendance fréquentielle importante de ces pertes demande confirmation par une étude complémentaire. Nous présenterons également les premières mesures de variance d'Allan, de stabilité long terme et de sensibilité thermique, obtenues sur le premier prototype d'oscillateur incluant un résonateur ONERA comme coeur vibrant. Les résultats sont encourageants : un plateau de variance d'Allan de ͳͲିଵ଴ a été obtenu sur une cellule de performances moindres ainsi qu'un vieillissement quotidien de 3 parties par milliard, confirmant la pertinence du résonateur ONERA en 2 –”‘†— –‹‘ vue de la réalisation d'oscillateurs alliant hautes performances, faibles coûts, encombrement et consommation réduits. 3 Šƒ’‹–”‡ͳǣ‡•”±ˆ±”‡ ‡•†‡–‡’•‡–†‡ˆ”±“—‡ ‡ Chapitre 1 : Les références de temps et de fréquence La seconde est l'unité du système international la plus précisément définie. Depuis 1967, la Convention Générale des Poids et Mesures (CGPM) a défini la seconde comme la durée de 9 192 631 770 périodes de la radiation correspondant à la transition entre les deux niveaux hyperfins F=4 et F=3 de l'état fondamental 6S1/2 de l'atome de césium 133 [3]. En 1997, le Comité International des Poids et Mesures (CIPM) précise que cette définition vaut pour un atome de césium au repos à 0 K [4]. Les meilleurs étalons primaires sont en mesure de donner la seconde avec une incertitude relative de 10-16 équivalente à une erreur de 1 seconde toutes les 300 millions d'années [5][6]. Les horloges optiques, basées sur des transitions optiques à plus hautes fréquences, ont déjà démontré des instabilités de l'ordre de 10-18 [7] et seront probablement à l'origine d'une nouvelle définition de la seconde. En mai 2019 [8], une réforme du système international a successivement redéfini le mètre et le kilogramme à partir de la seconde via deux constantes fondamentales: la vitesse de la lumière et la constante de Planck. 1.1 Bref historique de la mesure du temps L'histoire de la mesure du temps occupe une place d'importance dans le développement des civilisations humaines. Les phénomènes périodiques rythment notre vie: l'alternance du jour et de la nuit, le cycle lunaire ou les saisons et c'est pourquoi l'Homme a cherché à se repérer dans le temps et n'a eu de cesse d'affiner sa mesure du temps. Dès l'antiquité, il a conçu des moyens de mesure de durée et de temps comme le cadran solaire (gnomon) permettant, uniquement le jour, une estimation de l'heure solaire en suivant l'ombre d'une tige appelée style ou comme la clepsydre, horloge à eau constituée d'un récipient percé à sa base d'un orifice permettant l'écoulement régulier de l'eau, système qui rend possibles des mesures de temps reproductibles (aux conditions environnementales près) et était utilisée pour limiter le temps de parole des orateurs ou les temps d'irrigation [9]. Le sablier dont l'invention est estimée au XIVème siècle permet des mesures de durées moins sensibles au climat. En outre, il est de plus faible volume, transportable et peu coûteux. Il était utilisé dans la marine pour mesurer les temps de navigation [10]. Les horloges mécaniques sont mises, quant à elles, au point vers le XIIIème siècle et reposent sur la chute d'un poids pour actionner les rouages. Le 4 Šƒ’‹–”‡ͳǣ‡•”±ˆ±”‡ ‡•†‡–‡’•‡–†‡ˆ”±“—‡ ‡ mathématicien hollandais Christiaan Huygens a mis au point en 1658 la première horloge à pendule reposant sur l'isochronisme des oscillations du pendule. Cependant, de tels dispositifs étaient encombrants et nécessitaient une remise à l'heure. Le développement important des voyages maritimes et le besoin de déterminer la longitude pour maîtriser et développer de nouvelles routes maritimes commerciales sont un enjeu crucial pour les puissances de l'époque : en 1714, le gouvernement anglais offre une récompense de 20 000 livres à toute personne présentant une méthode simple et fiable permettant la détermination de la longitude d'un bateau en mer (initiative connue sous le nom de Longitude Act). En 1761, le charpentier-horloger anglais John Harrison présente son prototype 'sea watch' dont l'erreur est estimée à 24 secondes après 9 jours. Malgré une confirmation par un autre essai en 1765, Harrison ne reçoit l'intégralité de son dû qu'en 1773. En 1880, Pierre et Jacques Curie découvrent l'effet piézoélectrique direct du quartz [11] : c'est-à-dire l'apparition d'une polarisation électrique au sein du cristal lorsque celui est soumis à une contrainte mécanique. L'effet réciproque ou inverse, prédit par Gabriel Lippmann [9] à partir de considérations thermodynamiques, est confirmé expérimentalement par les frères Curie en 1881. La discontinuité du déplacement électrique, associé à cette polarisation, à la frontière entre le cristal et une électrode conductrice se traduit par l'apparition de charges électriques dans cette dernière. Les charges sont détectées et permettent d'asservir le fonctionnement d'un oscillateur électrique sur la fréquence de résonance du quartz : cette fréquence de résonance mécanique dépend à la fois des paramètres matériau et de la géométrie du résonateur. Le premier oscillateur piézoélectrique date de 1918 : il a été mis au point par Walter Guyton Cady en 1921 [12]. La première horloge à quartz date de 1927 [13]. La seconde guerre mondiale a fortement contribué au développement massif des oscillateurs à quartz. Les premières montres à quartz datent de 1967 [14] et en 1969 la société japonaise SEIKO commercialise une montre dérivant de 5 secondes par mois [15]. La rupture technologique des oscillateurs à quartz a permis un gain important dans la précision de la mesure du temps par rapport aux horloges mécaniques. Toutefois, leur sensibilité à l'environnement et le vieillissement du cristal rendent la fréquence délivrée instable à long terme. Les horloges atomiques reposent sur des fréquences caractéristiques de transition entre des états stables d'un atome. La fréquence ne dépend que de constantes fondamentales et l'atome ne vieillit pas. En 1949, le National Institute for Standards and Technology (NIST) a mis en place une horloge atomique utilisant l'ammoniac [16]. En 1955 Essen et Parry du National Physical Laboratory (NPL) ont développé la première horloge à jet de césium [17]. En 1967, la seconde n'est plus définie comme une fraction du jour solaire mais à partir de la fréquence de transition entre les deux états hyperfins du césium 133. 5 Šƒ’‹–”‡ͳǣ‡•”±ˆ±”‡ ‡•†‡–‡’•‡–†‡ˆ”±“—‡ ‡ 1.2 Applications des références de temps et de fréquence Les systèmes capables de délivrer une fréquence stable ou de mesurer une durée avec précision sont utilisés dans de nombreux domaines et pour une large gamme d'applications [18]. Nous pensons naturellement aux dispositifs du quotidien comme la montre à quartz, le téléphone portable, l'ordinateur, l'automobile ou le système de navigation global (GPS). Ces systèmes sont également utilisés dans des applications de métrologie, de télécommunications, de positionnement par satellite ou de radars. Ils sont employés comme références de temps ou de fréquence et jouent alors le rôle de gardien du temps, participant à la synchronisation des signaux ou à la synthèse de fréquences. 1.3 Le domaine du temps-fréquence Le temps étant la grandeur physique que l'on mesure avec la meilleure précision, la seconde est devenue en 2019 la première unité définie dans la hiérarchie des définitions instituée par le système international. En pratique, la mesure d'une durée découle d'une mesure de fréquence : la précision de la mesure d'une durée dépend de la stabilité de la fréquence mesurée. Toutefois, même dans les systèmes les plus stables, oscillateurs de référence ou horloges, la fréquence du signal n'est pas parfaitement stable. La stabilité d'un signal de référence de fréquence est de prime importance. Cette précision est quantifiée par le niveau de bruit présent dans le signal de référence, que nous dénommerons porteuse par la suite, délivré par l'oscillateur. Le bruit module le signal et induit un étalement de la puissance dans le domaine des fréquences autour de la fréquence de la porteuse. Nous comprenons l'effet dramatique d'un tel étalement dans le cas d'une transmission de données par système radio : l'étalement fréquentiel du signal émis fait que ce dernier peut « déborder » sur les autres canaux de transmission et peut également recevoir du bruit provenant des autres canaux dégradant le signal transmis. Dans cette section, nous décrivons les grandeurs retenues pour caractériser la qualité de la référence de fréquence et nous présentons les moyens de caractérisation dans les domaines temporel et fréquentiel. 1.3.1 Modèle de l'oscillateur Un oscillateur est un dispositif auto-entretenu capable de délivrer un signal périodique de période ܶ଴ . Dans le cas idéal, un oscillateur parfait c'est-à-dire sans bruit et ne dérivant pas, délivre un signal sinusoïdal temporel V(t) d'amplitude ܸ଴ et de fréquence ‫ݒ‬଴ ൌ ͳȀܶ଴ en Hz si ܶ଴ en s et est décrit par l'équation (1): 6 Šƒ’‹–”‡ͳǣ‡•”±ˆ±”‡ ‡•†‡–‡’•‡–†‡ˆ”±“—‡ ‡ ܸ ሺ‫ݐ‬ሻ ൌ ܸ଴ ‘•ሺʹߨ‫ݒ‬଴ ‫ݐ‬ሻ (1) En pratique, la fréquence et l'amplitude de l'oscillateur ne sont pas constantes et fluctuent aléatoirement au cours du temps, l'expression du signal délivré par l'oscillateur réel est modifiée et décrite par l'équation (2) : ܸ ሺ‫ݐ‬ሻ ൌ ܸ଴ ൫ͳ ൅ ߝሺ‫ݐ‬ሻ൯ ‘•ሺʹߨ‫ݒ‬଴ ‫ ݐ‬൅ ߶ሺ‫ݐ‬ሻሻ (2) où ߝ ሺ‫ݐ‬ሻ et ߶ሺ‫ݐ‬ሻ sont respectivement le bruit d'amplitude et la phase du signal. Le terme ߝሺ‫ݐ‬ሻ est souvent négligé car i) il n'impacte par directement la modulation de phase dans le cas des composants linéaires, ii) il est éliminé par des limiteurs d'amplitude dans les dispositifs de références. Le terme de phase ߶ሺ‫ݐ‬ሻ regroupe toutes les variations de phase et de fréquence du signal et comprend généralement [19] : • • • une composante déterministe (dérive due au vieillissement du résonateur) une modulation par une fréquence (couplage avec le secteur ou l'alimentation) ߮ሺ‫ݐ‬ሻ une partie aléatoire [20]. Par la suite, nous ne conserverons que la partie aléatoire du terme de phase car les deux autres termes peuvent être pris en compte ou corrigés [21]. L'expression du signal délivré est alors donnée par l'équation (3) : ܸ ሺ‫ݐ‬ሻ ൌ ܸ଴ ‘•ሺʹߨ‫ݒ‬଴ ‫ ݐ‬൅ ߮ሺ‫ݐ‬ሻሻ (3) Sur la Figure 1 est illustré, en bleu, le signal sinusoïdal parfait d'un oscillateur idéal et la fréquence délivrée par un oscillateur idéal et, en vert, une représentation d'un signal délivré par un oscillateur réel dont les fluctuations de phase et de fréquence ont été exagérées. Figure 1 Simulations du signal de sortie d'un oscillateur idéal en bleu et d'un oscillateur réel en vert ; haut : tension du signal délivré en fonction du temps, bas : fréquence du signal délivré en fonction du temps 7 Šƒ’‹–”‡ͳǣ‡•”±ˆ±”‡ ‡•†‡–‡’•‡–†‡ˆ”±“—‡ ‡ Nous ne nous intéressons qu'aux signaux pour lesquels la fréquence moyenne est définie (pas de saut de fréquence ou de signaux pulsés). La fréquence est en réalité mesurée par comptage d'un nombre de N (entier supérieur ou égal à 1) cycles pendant un temps de mesure Tmesure. Dans ce cas, la pulsation instantanée߱ሺ‫ݐ‬ሻ à tout instant est définie comme la dérivée temporelle de la phase et, la fréquence étant reliée à la pulsation, toute modification de la fréquence se traduit par une variation de la phase décrite par l'équation (4). ߱ሺ‫ݐ‬ሻ ͳ ݀ ͳ ݀ (4) ൫ʹߨ‫ݒ‬଴ ‫ ݐ‬൅ ߮ሺ‫ݐ‬ሻ൯ ൌ ‫ݒ‬଴ ൅ ൌ ሺ߮ ሺ‫ݐ‬ሻሻ ʹɎ ʹɎ ݀‫ݐ‬ ʹɎ ݀‫ݐ‬ Nous définissons l'écart de temps instantané ࢞ሺ࢚ሻ exprimé en s, l'écart de fréquence instantané ઢ࢜ሺ࢚ሻ ‫ ݒ‬ሺ‫ݐ‬ሻ ൌ en Hz et l'écart de fréquence normé instantané ࢟ሺ࢚ሻ sans dimension par les expressions suivantes. ‫ݔ‬ሺ‫ݐ‬ሻ ൌ ߮ሺ‫ݐ‬ሻ ʹߨ‫ݒ‬଴ ȟ‫ݒ‬ሺ‫ݐ‬ሻ ൌ ‫ ݒ‬ሺ‫ݐ‬ሻ െ ‫ݒ‬଴ ‫ݕ‬ሺ‫ݐ‬ሻ ൌ ȟ‫ ݒ‬ሺ‫ݐ‬ሻ ݀ ൌ ‫ݔ‬ሺ‫ݐ‬ሻ ‫ݒ‬଴ ݀‫ݐ‬ (5) (6) (7) L'écart de fréquence normé instantanée (ou écart de fréquence stationnaire) ‫ݕ‬ሺ‫ݐ‬ሻ reste inchangé par multiplication et division de la fréquence de la porteuse ‫ݒ‬଴ et permet de comparer des oscillateurs travaillant à des fréquences différentes. 1.3.2 Caractérisations des sources de fréquences Les références de temps et de fréquences sont caractérisées dans le domaine spectral (domaine des fréquences) par les densités de bruits phase et de fréquence et dans le domaine temporel par l'usage de la variance de la fréquence. 1.3.2.1 Domaine fréquentiel Dans le domaine fréquentiel, les fluctuations de phase ou de fréquence sont caractérisées à partir de leurs densités spectrales. La densité spectrale de variation de phase ࡿ࣐ ሺࢌሻ est définie par l'équation (8) [22] pour ࢌ ൒ ૙: ߮ሺ݂ ሻ; (8) ݁݊‫;݀ܽݎ‬Ȁ‫ݖܪ‬ ‫ܹܤ‬ Avec f la fréquence de Fourier en Hz, ࣐ሺࢌሻ la valeur efficace de la fluctuation de phase dans le ܵఝ ሺ݂ሻ ൌ domaine spectral et BW la bande passante du système de mesure. Nous tâcherons de ne pas confondre la Fréquence de Fourier f avec la fréquence de la porteuse ࢜૙ . De manière similaire est définie la 8 Šƒ’‹–”‡ͳǣ‡•”±ˆ±”‡ ‡•†‡–‡’•‡–†‡ˆ”±“—‡ ‡ densité spectrale de l'écart de fréquence instantanée normalisée ࡿ࢟ ሺࢌሻ’‘—”ࢌ ൒ ૙ et est donnée par l'expression (9) : ܵ௬ ሺ݂ ሻ ൌ ‫ݕ‬ሺ݂ሻ; ݁݊ͳȀ‫ݖܪ‬ ‫ܹܤ‬ (9) Les densités spectrales sont également définies comme la transformée de Fourier de la fonction d'autocorrélation (théorème de Wiener-Khintchine). Soit ࡾ࣐ la fonction d'autocorrélation associée à ࣐ሺ࢚ሻ: ࡾ࣐ est donnée par l'expression (10) avec ࣐ሺ࢚ሻ‫ כ‬le conjugué de ࣐ሺ࢚ሻ. ் ଶ ͳ ܴఝ ሺ߬ሻ ൌ Ž‹ න ߮ሺ‫ݐ‬ሻ߮ ‫ כ‬ሺ‫ ݐ‬െ ߬ሻ݀‫ݐ‬ ்՜ஶ ܶ (10) ் ି ଶ ࡿ࡮ࡸ ࣐ ሺࢌሻ est la densité spectrale de puissance associée sur l'ensemble des fréquences, elle est déduite de ࡾ࣐ par la relation (11) ஶ ܵ ஻௅ ఝ ሺ݂ ሻ ൌ න ܴఝ ሺ߬ሻ ݁ ሺିଶ௝గ௙ఛሻ ݀߬݁݊‫;݀ܽݎ‬Ȁ‫ݖܪ‬ (11) ିஶ Les grandeurs considérées ࣐ሺ࢚ሻǡ ࢟ሺ࢚ሻǡ ࢞ሺ࢚ሻǡ ઢ࢜ሺ࢚ሻ sont continues et réelles : les fonctions d'autocorrélations et les densités spectrales correspondantes sont réelles et paires. Pour simplifier la représentation de la densité spectrale de puissance sans perte d'information, la densité spectrale de fluctuations de phase ࡿ࣐ ሺࢌሻ est définie par la relation (12). ܵఝ ሺ݂ሻ ൌ ʹܵ ஻௅ ఝ ሺ݂ሻǡ ‫ ݂ݎݑ݋݌‬൒ Ͳ (12) ܵఝ ሺ݂ሻ ൌ Ͳǡ ‫ ݂ݎݑ݋݌‬൏ Ͳ Cette définition s'applique également pour les autres grandeurs d'intérêt ࢟ሺ࢚ሻǡ ࢞ሺ࢚ሻǡ ઢ࢜ሺ࢚ሻ et rejoint la définition des expressions (8) et (9). De la même façon, nous pouvons définir une densité spectrale d'instabilité de phase ࡿ࢞ ሺࢌሻ, une densité spectrale de fréquence instantanée ࡿઢ࢜ሺࢌሻ, une densité spectrale de fréquence normalisée ࡿ࢟ ሺࢌሻ. Les relations de passage et les unités de telles quantités sont précisées dans les expressions suivantes : ͳ ܵఝ ሺ݂ሻ݁݊‫;ݏ‬Ȁ‫ݖܪ‬ ሺʹߨ‫ݒ‬଴ ሻ; (13) ݂; ܵఝ ሺ݂ሻ݁݊‫ ݖܪ‬ଶ Ȁ‫ݖܪ‬ ‫ݒ‬଴ ; (14) ܵ୼௩ ሺ݂ሻ ൌ ݂;ܵఝ ሺ݂ሻ݁݊‫;ݖܪ‬Ȁ‫ݖܪ‬ (15) ܵ௫ ሺ݂ሻ ൌ ܵ௬ ሺ݂ሻ ൌ 9 Šƒ’‹–”‡ͳǣ‡•”±ˆ±”‡ ‡•†‡–‡’•‡–†‡ˆ”±“—‡ ‡ En pratique, on mesure le bruit de phase d'un oscillateur dans un système logarithmique, basé sur la pureté spectrale खሺࢌሻ [22] et est définie par l'expression (16) : ࣦሺ݂ ሻ ൌ ͳͲ Ž‘‰ ቆ ܵఝ ሺ݂ ሻ ቇ ൌ ͳͲ Ž‘‰ ቀܵఝ ሺ݂ሻቁ െ ͵ௗ஻ ʹ (16) La pureté spectrale खሺࢌሻ caractérise l'étalement fréquentiel de la puissance du signal résultant des modulations de phase par le bruit. Pour un bruit à une fréquence ‫ݒ‬௠ , la puissance du signal est mesurée à travers un filtre de bande passante de 1 Hz autour de la fréquence de Fourier ݂ ൌ ‫ݒ‬௠ ൅ ‫ݒ‬଴ . खሺࢌሻest le rapport de la puissance P1Hz comprise dans une bande de 1 Hz autour de ࢌ par la puissance du signal à ‫ݒ‬଴ . खሺࢌሻ est exprimée en dBc/Hz. Nous pouvons remarquer que cette définition implique bien la mesure d'un rapport de puissances pour aboutir au calcul final de la densité spectrale de bruit de phase. La mesure directe du bruit de phase peut se faire par comparaison de la phase de l'oscillateur à tester avec un oscillateur de référence [23] à faible bruit et contrôlable en fréquence, VCO (Voltage Control Oscillator) de signal donné par l' expression : ܸ௥௘௙ ሺ‫ݐ‬ሻ ൌ ܸ௥௘௙ •‹ሺʹߨ‫ݒ‬଴ ‫ ݐ‬൅ ߮௥௘௙ ሺ‫ݐ‬ሻሻ (17) Le schéma d'un banc de mesure est montré sur la Figure 2. Le signal à caractériser V1 et le signal de référence en quadrature V2 sont multipliés par un mélangeur de coefficient k : le signal mélangé est ࢂ࢓ ሺ࢚ሻ et s'écrit selon l'expression ( 18). ܸ௠ ሺ‫ݐ‬ሻ ൌ ܸ݇௥௘௙ ܸ଴ ሺ•‹ ቀͶߨ‫ݒ‬଴ ‫ ݐ‬൅ ߮ሺ‫ݐ‬ሻ൅߮௥௘௙ ሺ‫ݐ‬ሻቁ ൅ •‹ሺ߮ሺ‫ݐ‬ሻ െ ߮௥௘௙ ሺ‫ݐ‬ሻሻሻ ʹ ( 18) ࢂ࢓ ሺ࢚ሻ est filtré par un filtre passe-bas pour éliminer la composante haute fréquence à 2 ‫ݒ‬଴ . Le signal est ensuite envoyé dans un convertisseur phase-tension de coefficient ‫ܭ‬௚ pour donner le signal ࢂࢇ . Dans l'hypothèse des faibles déphasages, ࢂࢇ est directement proportionnel à l'écart de phase. La transformée de Fourier du signal ࢂࢇ échantillonné est réalisée puis la mesure de la densité spectrale de fluctuations de phase. 10 Šƒ’‹–”‡ͳǣ‡•”±ˆ±”‡ ‡•†‡–‡’•‡–†‡ˆ”±“—‡ ‡ Figure 2 Schéma de principe d'un banc de mesure de bruit de phase. Pour conserver l'hypothèse de faible écart de phase, il est nécessaire de pouvoir corriger la phase et la fréquence de l'oscillateur de référence, d'où l'utilisation d'un VCO. Il apparaît que les mesures de densité spectrale de puissance d'oscillateurs de différentes natures suivent une loi en puissances de f [24] , par exemple le modèle de la densité spectrale de puissance de l'écart de fréquence instantané s'écrit selon l'expression (19): ఈୀାଶ ܵ௬ ሺ݂ሻ ൌ ෍ ݄ఈ ݂ ఈ (19) ఈୀିଶ Représentées dans un graphique en échelle log-log, ࡿ࢟ሺࢌሻ ou ࡿ࢞ ሺࢌሻ font apparaître des pentes et des planchers comme illustré sur la Figure 3. Figure 3 Représentation schématique de la loi en puissances des densités spectrale de phase et de fréquence 11 Šƒ’‹–”‡ͳǣ‡•”±ˆ±”‡ ‡•†‡–‡’•‡–†‡ˆ”±“—‡ ‡ Les exposants ߙ sont des entiers, les coefficients ݄ఈ sont indépendants de la fréquence. ࡿ࢟ ሺࢌሻs'écrit comme la somme de bruits indépendants dont le nom et l'origine sont précisées dans la Table 1[19]. Table 1 Nom et origine des bruits considérés ߙ -2 Nom du bruit Bruit de marche aléatoire de fréquence Bruit de scintillement de fréquence Bruit blanc de fréquence Bruit de scintillement de phase Bruit blanc de phase -1 0 1 2 Origine Environnement de l'oscillateur : température, vibrations, chocs Résonateur Bruit thermique interne à la boucle oscillatrice Bruit électronique Bruit blanc externe à la boucle oscillatrice La convergence de ࡿ࢟ሺࢌሻ est assurée par la présence de bandes passantes limitées, avec des fréquences de coupure basse et haute dans les appareils réels. 1.3.2.2 Domaine temporel La mesure de la fréquence est réalisée à l'aide d'un compteur : sur un temps ߬ par le comptage d'un nombre entier de cycles du signal à caractériser (par exemple sur un front montant). La mesure de ߬ est réalisée par l'horloge interne du compteur. Nous avons donc accès à une valeur moyenne de ࢜ሺ࢚ሻ ࣎ dénotée ‫࢜ۃ‬ሺ࢚ሻ‫ ࢑ ࢚ۄ‬donnée par l'expression (20) où ࢚࢑ correspond à l'instant initial de la mesure et ࢔࢑ le nombre de cycles durant ࣎. ͳ ௧ೖ ାఛ ݊௞ ‫ݒۃ‬ሺ‫ݐ‬ሻ‫ۄ‬௧ ఛ௞ ൌ ‫ݒ‬଴ ൅ න ȟ‫ݒ‬ሺ‫ ݑ‬ሻ ݀‫ ݑ‬ൌ ߬ ௧ೖ ߬ (20) Le même raisonnement est appliqué à l'écart de fréquence normalisée instantané y(t) pour s'affranchir de la fréquence nominale ࢜૙ . La valeur est donnée par la relation (21): ଵ ௧ ାఛ ‫ݕ‬௞ ൌ ఛ ‫׬‬௧ ೖ ೖ ௡ ‫ݕ‬ሺ‫ ݑ‬ሻ ݀‫ݑ‬αఛ௩ೖ െ ͳ (21) బ Pour un nombre infini d'échantillons ‫ݕ‬௞ , la stabilité relative de fréquence correspond à la variance à N échantillons ߪ ଶ ሺ߬ሻ intégrée sur une durée ߬. Dans le cas réel, il n'est pas possible de mesurer une infinité d'oscillateurs identiques et indépendants. Supposons que le processus ‫ݕ‬௜ soit ergodique, à savoir que l'évolution aléatoire des fluctuations de phase apporte la même information qu'un ensemble de réalisations, nous pouvons alors estimer la variance par la quantité suivante à N échantillons selon la quantité (22): ே ே ௜ୀଵ ௝ୀଵ ଶ ͳ ͳ ෍ ቌ‫ݕ‬௜ െ ෍ ‫ݕ‬௝ ቍ ߪ ଶ ሺܰǡ ߬ሻ ൌ ܰ ܰെͳ 12 (22) Šƒ’‹–”‡ͳǣ‡•”±ˆ±”‡ ‡•†‡–‡’•‡–†‡ˆ”±“—‡ ‡ En 1971 [24] le comité sur la stabilité de fréquence de l'IEEE a décidé de fixer comme estimateur la variance à deux échantillons dite variance d'Allan [25]. Par la suite, nous noterons ߪ௬ଶ cette variance d'Allan. Elle est définie pour un temps ߬ par l'expression (23): ߪ௬ଶ ሺ߬ሻ ൌ ଶ ଶ ௜ୀଵ ௝ୀଵ ଶ ே ͳ ͳ ͳ ෍ሺ‫ݕ‬௜ାଵ െ ‫ݕ‬௜ ሻ; ൌ ‫ۃ‬ሺ‫ݕ‬ଶ െ ‫ݕ‬ଵ ሻ;‫ۄ‬ ʹǡ ߬ሻ‫ ۄ‬ൌ ෍ ቌ‫ݕ‬௜ െ ෍ ‫ݕ‬௝ ቍ ൌ  ʹ ʹሺܰ െ ͳሻ ʹ (23) ‫ ߪۃ‬ଶ ሺ ௜ୀଵ Où ‫ ۄ ۃ‬désigne la moyenne temporelle des échantillons, ‫ݕ‬ଵ et ‫ݕ‬ଶ sont donc des échantillons ଵ consécutifs. La variance d'Allan est tracée en fonction de la fréquence d'échantillonnage ఛ . Pour un même oscillateur, plus le temps d'échantillonnage est long, moins le bruit est important, comme illustré sur la Figure 4. Figure 4 Haut : mesures représentatives de la fréquence normée temporelle pour deux valeurs de temps d'intégration, bas : variance d'Allan en fonction du temps d'intégration tiré de [18]. En augmentant le temps d'échantillonnage, il arrive un plancher appelé plancher de scintillement (flicker floor) pour lequel la variance d'Allan devient indépendante du temps d'intégration : la performance ultime de l'oscillateur est atteinte. Pour les temps d'intégration plus longs, la variance d'Allan augmente en raison de la sensibilité à l'environnement (variations de température) et du vieillissement (dérive de fréquence). 1.3.2.3 Passage et relations du domaine fréquentiel au domaine temporel Dans la référence [24], il est démontré qu'il existe une relation de passage du domaine fréquentiel vers le domaine temporel via une fonction de transfert ࡴ࣎ ሺࢌሻ. La relation est donnée par la relation (24). 13 Šƒ’‹–”‡ͳǣ‡•”±ˆ±”‡ ‡•†‡–‡’•‡–†‡ˆ”±“—‡ ‡ ஶ ߪ௬ଶ ሺ߬ሻ ൌ න ܵ௬ ሺ݂ሻห‫ܪ‬௬ ሺ݂ሻห;݂݀ ǡ ܽ‫ܿ݁ݒ‬ȁ‫ܪ‬ఛ ሺ݂ሻȁ; ൌ ʹ ଴ •‹ସ ሺߨ݂߬ሻ ሺߨ݂߬ሻ; (24) ࡴ࣎ ሺࢌሻ correspond à la transformée de Fourier de la réponse impulsionnelle de la variance à deux échantillons ࢎ࣎ , définie sur l'ensemble des réels et représentée sur la Figure 5. Figure 5 Représentation de la fonction ࢎ࣎ représentant le cycle de mesure de la variance d'Allan en fonction du temps d'intégration ࣎. La variance d'Allan peut alors s'écrire selon l'expression (25), où * désigne la convolution. ߪ௬ଶ ሺ߬ሻ ൌ ௧ೖ ାଶఛ ௧ೖ ାఛ ͳ ͳ ͳ ‫ۃ‬ሺ‫ݕ‬ଶ െ ‫ݕ‬ଵ ሻ;‫ ۄ‬ൌ ‫ۃ‬ሺ න ‫ݕ‬ሺ‫ ݑ‬ሻ ݀‫ ݑ‬െ න ‫ݕ‬ሺ‫ ݑ‬ሻ ݀‫ݑ‬ሻ;‫ۄ‬ ʹ ξʹ߬ ௧ೖశഓ ξʹ߬ ௧ೖ (25) ൌ ‫ۃ‬ሺ‫ݕ‬ሺ‫ݑ‬ሻ ‫݄ כ‬ሺ‫ݑ‬ሻሻ;‫ۄ‬ En appliquant le théorème de Parseval à la fonction ࢟ሺ࢛ሻ ‫ ࣎ࢎ כ‬ሺ࢛ሻ, il vient la relation (26). ் ஶ ͳ ଶ ଶሺ ሻ ሺ ሻ ߪ௬ ߬ ൌ Ž‹ න ሾሺ‫݄ כ ݑ ݕ‬ሺ‫ݑ‬ሻሿ ;݂݀ ൌ න ܵ௬஻௅ ሺ݂ሻȁ‫ܪ‬ఛ ሺ݂ሻȁ ;݂݀ ்՜ஶ ܶ ି் ିஶ (26) ଶ Nous pouvons remplacer l'expression de la densité spectrale de puissance par son expression en somme de puissances (19), et pour exprimer la variance d'Allan de l'écart normé de fréquence selon l'expression (27) : ߪ௬ଶ ሺ߬ሻ ஶ ఈୀାଶ ஶ ൌ න ܵ௬ ሺ݂ሻห‫ܪ‬௬ ሺ݂ሻห;݂݀ ൌ ʹ ෍ ݄ఈ න ଴ ఈୀିଶ ଴ •‹ସ ሺߨ݂߬ሻ ఈ ݂ ݂݀ ሺߨ݂߬ሻ; (27) Quand ݂ tend vers 0, on se rapproche de la fréquence de résonance de l'oscillateur. L'intégrale converge pour ߙ ൐ െ͵, donc pour toutes les valeurs de ߙ présentes dans la somme. La convergence à l'infini est assurée par la présence d'une fréquence de coupure haute notée ࢌࢎ , présente dans tout système physique réel. Nous pouvons alors écrire la variance d'Allan comme une loi de puissances en ߬ avec les coefficients ݄ఛ selon les expressions consignées dans la Table 2 [24]. 14 Šƒ’‹–”‡ͳǣ‡•”±ˆ±”‡ ‡•†‡–‡’•‡–†‡ˆ”±“—‡ ‡ Table 2 Types de bruit du modèle en lois de puissance de la densité spectrale de puissance et de la variance d'Allan et leurs pentes. Pente dans le tracé log-log de ߪ௬ଶ ሺ߬ሻ EŽŵĚƵďƌƵŝƚ ܵ௬ ሺ݂ሻ ߪ௬ଶ ሺ߬ሻ Bruit blanc de phase ݄ଶ ݂ ଶ Bruit de scintillement de phase ͵݄ଶ ݂௛ Ͷߨ ଶ ߬ ଶ ݄ଵ ݂ ଵ Bruit blanc de fréquence ݄଴ Bruit de scintillement de fréquence Bruit de marche aléatoire de fréquence ݄ିଵ ݂ ିଵ ʹ Žሺʹሻ ݄ିଵ 0 ݄ିଶ ݂ ିଶ ʹߨ ଶ ݄ିଶ ߬ ͵ +1 ݄ଵ ሾͳǤͲ͵ ͅ ൅ ͵ Žሺʹߨ݂௛ ߬ሻሿ Ͷߨ ଶ ߬ ଶ ݄଴ ʹ߬ -2 §-2 -1 La Figure 6 illustre le passage du domaine fréquentiel ܵ௬ ሺ݂ሻ vers le domaine temporel ߪ ଶ ሺ߬ሻ en effectuant la correspondance entre les droites de bruits. Figure 6 Gauche : représentation en loi de puissance de la densité spectrale de bruit de fréquence normalisé, droite : représentation en loi de puissance de la variance d'Allan. Du fait de la nature de la fonction de transfert, il n'est pas possible de passer du domaine temporel au domaine des fréquences avec ce choix de variance, en particulier le bruit blanc et le bruit de scintillement de phase ne sont pas discriminés. Après avoir présenté les concepts généraux régissant les caractérisations du bruit des oscillateurs, nous passons maintenant au cas plus spécifique des oscillateurs à quartz. 15 Šƒ’‹–”‡ͳǣ‡•”±ˆ±”‡ ‡•†‡–‡’•‡–†‡ˆ”±“—‡ ‡ 1.4 Les oscillateurs à base de quartz La technologie des oscillateurs à base de résonateurs à quartz est la technologie « historique » du domaine et reste la plus répandue encore aujourd'hui. Nous allons rappeler les raisons expliquant ce choix puis nous nous concentrerons sur le résonateur : véritable coeur vibrant de l'oscillateur. 1.4.1 Le quartz Le quartz est le matériau le plus utilisé pour la réalisation d'oscillateurs servant pour l'électronique, il présente en effet de nombreux avantages. Les plus significatifs sont les suivants : • Le quartz est produit de manière synthétique à grande échelle grâce à une procédé de fabrication robuste, la croissance hydrothermale [26], • Le quartz est un matériau cristallin piézoélectrique, une seule métallisation est suffisante pour l'excitation et la détection qui sont alors simplifiées, • L'existence de coupes compensées en température ou en contraintes, • Un facteur de qualité élevé (faibles pertes internes). Le quartz, de formule chimique SiO2, est la forme cristalline de la silice. Il existe deux polymorphes du quartz : i) le quartz Į dont la structure cristalline fait partie du système trigonal et du groupe ponctuel classe 32, ii) le quartz ȕ de système hexagonal et de groupe ponctuel 6 2 2. Le quartz Į est la structure thermodynamiquement stable dans les conditions normales de pression et de température. Une transition de phase vers la phase ȕ a lieu à 573°C à pression atmosphérique. La phase ȕ existe sous forme métastable dans les conditions normales de pression et de température. En pratique seul le Į-quartz est utilisé pour la réalisation de résonateurs, la forme ȕ s'avère peu piézoélectrique [27]. Sur la Figure 7 est représenté un cristal de quartz Į et ses axes principaux. 16 Šƒ’‹–”‡ͳǣ‡•”±ˆ±”‡ ‡•†‡–‡’•‡–†‡ˆ”±“—‡ ‡ Figure 7 Morphologie du cristal de quartz Į tournée gauche, tiré de [28]. 1.4.2 Relations constitutives de la piézoélectricité La piézoélectricité se définit comme un phénomène physique couplant les comportements élastique et électrostatique de certains matériaux. Les lois de conservations de la quantité de mouvement (relation fondamentale de la mécanique) et de la charge électrique (équation de Poisson) s'appliquent simultanément, mais les grandeurs qu'elles font intervenir s'y trouvent couplées au sein d'un ensemble de lois de comportement qui relèvent de la thermodynamique. Comme toujours en thermodynamique, il est préférable de choisir les jeux de variables dépendantes et indépendantes utilisées dans l'écriture de ces lois de comportement en fonction des conditions expérimentales d'un problème donné. En réalité, les valeurs des grandeurs physiques décrivant l'état du système étudié ne dépendent pas du jeu de lois de comportement. Le jeu de lois de comportement le plus couramment utilisé dans les études analytiques et l'élaboration des outils de simulations numériques de résonateurs à ondes de volume est donné par la relation (28) avec la convention de sommation d'Einstein et la notation tensorielle de Voigt [29] permettant de réduire le nombre d'indices en étendant leur valeur à 6 au lieu de 3 : ா ܶఈ ൌ ܿఈఉ ܵఉ െ ݁௜ఈ ‫ܧ‬௜ (28) ‫ܦ‬௜ ൌ ߝ௜௝ௌ ‫ܧ‬௝ ൅ ݁௜ఈ ܵఈ ݅ǡ ݆ ൌ ͳǡ ʹǡ ͵ߙǡ ߚ ൌ ͳǡ ǥ ǡ ͸Ǥ où ࢀࢇ est le tenseur de contraintes en ࡺȀ࢓;, ࢉࡱࢻࢼ le tenseur des rigidités à champ électrique constant en ࡼࢇ, ࡿࢼ le tenseur des déformations sans dimension, ࢋ࢏ࢻ le tenseur des coefficients piézoélectriques en ࡯Ȁ࢓;, ࡱ࢏ le champ électrique en ࢂȀ࢓, ࡰ࢏ le déplacement électrique en ࡯Ȁ࢓; , ࢿࡿ࢏࢐ la permittivité à déformation constante en ࡲȀ࢓. Une écriture de ces relations largement utilisée [29] est une écriture pseudo-matricielle présentant les 36 composantes du tenseur des rigidités, les 18 composantes du 17 Šƒ’‹–”‡ͳǣ‡•”±ˆ±”‡ ‡•†‡–‡’•‡–†‡ˆ”±“—‡ ‡ tenseur piézoélectrique (et sa transposée) et les 9 composantes du tenseur des permittivités. Cette représentation est donnée sur la Figure 8 dans le cas trigonal (incluant le quartz). Les composantes des tenseurs de rigidités, piézoélectriques et de permittivités du quartz-Į sont consignées dans la Table 3. Figure 8 Composantes des tenseurs élastiques, piézoélectriques, diélectriques pour la classe trigonal. Table 3 Composantes élastiques, piézoélectriques et permittivités des tenseurs du quartz Į, tiré de [29]. Les lois de comportement, dites relations constitutives de la piézoélectricité, permettent d'écrire les contraintes en fonction du champ électrique appliqué et d'optimiser la conception des électrodes dans les problèmes de résonateurs. Le choix d'autres jeux de variables dépendantes/indépendantes permettrait cependant d'obtenir au final les mêmes valeurs des grandeurs physiques au sein des structures étudiées, car la solution physique est unique. C'est pourquoi les constantes matérielles définies par les différents jeux de lois de comportement sont liées entre elles par des relations dites relations de Maxwell. La Figure 9 illustre ce fait en présentant les possibles déformations longitudinales en fonction du champ appliqué et donc du dessin des électrodes. 18 Šƒ’‹–”‡ͳǣ‡•”±ˆ±”‡ ‡•†‡–‡’•‡–†‡ˆ”±“—‡ ‡ Figure 9 Composantes de déformations longitudinales possiblement générées par un champ électrique adapté de [18]. Il est possible de réduire la sensibilité des résonateurs en quartz à différents paramètres physiques, comme la température ou les contraintes, en taillant le quartz suivant des coupes particulières. La Figure 10 représente les angles de rotation par rapport aux axes cristallographique du quartz [28]. La coupe peut être à simple ou double rotation puisque 2 angles suffisent à orienter un plan dans l'espace. Pour les applications métrologiques, la plus connue des coupes à simple rotation, ߠ ൌ ͵ͷǡʹͷι autour de l'axe Y, est la coupe AT assurant une sensibilité thermique réduite sur la gamme usuelle de température. La coupe dite horlogère des diapasons utilisée dans les montres est une coupe Z (wafer dans le XY) ayant subi une rotation de 2° autour de l'axe X, ߠ ൌ ʹι. Figure 10 Angles conventionnels de rotation du wafer de quartz autour de ses axes cristallins tiré de [28]. Les variations relatives de la fréquence de résonance sont tracées en fonction de la température pour différentes coupes de quartz Į dont la coupe horlogère (XY), la coupe AT et SC. 19 Šƒ’‹–”‡ͳǣ‡•”±ˆ±”‡ ‡•†‡–‡’•‡–†‡ˆ”±“—‡ ‡ Figure 11 Variation de fréquence normalisée en fonction de la température pour différentes coupes de quartz [30]. Une amélioration est apportée par la coupe à double rotation SC (Stress Compensated) ߠ ൌ ͵Ͷι et ߶ ൌ ʹʹι autour de l'axe Z permettant de minimiser l'effet des contraintes mécaniques statiques créées par la dilatation des électrodes et par la fixation du cristal sur son support sur la fréquence propre du résonateur et offre un meilleur vieillissement que la coupe AT. Les résonateurs sont taillés dans des morceaux de quartz judicieusement orientés pour réduire un ou plusieurs effets de l'environnement. 1.4.3 Modèle équivalent du résonateur Le résonateur est un composant essentiel de l'oscillateur électromécanique : il fixe en effet la fréquence du signal délivré à une valeur coïncidant pratiquement avec l'une de ses fréquences de résonance mécanique. Il est donc nécessaire que cette fréquence soit stable pour devenir la fréquence de référence de l'oscillateur. Un système périodique mécanique à une dimension peut être modélisé par un système masse-ressort-amortisseur, représenté sur la Figure 12, dont l'équation du mouvement est donnée par la relation (29). Figure 12 Représentation schématique d'un oscillateur mécanique vibrant à un seul degré de liberté. 20 Šƒ’‹–”‡ͳǣ‡•”±ˆ±”‡ ‡•†‡–‡’•‡–†‡ˆ”±“—‡ ‡ ݉‫ݔ‬ሷ ൅ ߛ‫ݔ‬ሶ ൅ ݇‫ ݔ‬ൌ ‫ܨ‬ (29) Où ࢞ est le déplacement en mètre (m), ࢓ la masse de l'élément en kilogramme (kg), ࡲ est la force d'excitation en ࢑ࢍǤ ࢓Ǥ ࢙ି૛ , ࢽ le coefficient d'amortissement en ࢑ࢍǤ ࢙ି૚ et ࢑ la raideur du ressort en ࢑ࢍǤ ࢙ି૛. La résonance est caractérisée par deux paramètres : la pulsation de résonance ߱଴ et le facteur de qualité ܳ traduisant l'amortissement dont les expressions en fonction des paramètres du problème sont rappelées dans la relation (30). ݇ ߱଴ ൌ ඨ ‫ܯ‬ ܳൌ (30) ‫߱ܯ‬଴ ܿ Un oscillateur électrique peut être modélisé par un circuit R-L-C représenté sur la Figure 13. La charge électrique ࢗ en C1 est solution de l'équation (31): Figure 13 Circuit RLC modélisant un oscillateur électrique ‫ܮ‬ଵ ‫ݍ‬ሷ ൅ ܴଵ ‫ݍ‬ሶ ൅ ͳ ‫ݍ‬ൌܸ ‫ܥ‬ଵ (31) Où ࢂ est la tension appliquée en Volts (V), ࡾ૚ est la résistance en Ohms (ȳ), ࡸ૚ l'inductance de la bobine en Henry (H), et ࡯૚ la capacité en Farad (‫ܨ‬ሻ. Les systèmes mécanique et électrique sont décrits par la même équation différentielle : ils sont équivalents, les mêmes paramètres ߱଴ et ܳ sont définis par la relation. ߱଴ଶ ൌ ܳൌ ͳ ‫ܮ‬ଵ ‫ܥ‬ଵ (32) ͳ ‫ܮ‬ଵ ඨ ܴଵ ‫ܥ‬ଵ Un résonateur mécanique en matériau piézoélectrique est analogue à un circuit RLC modifié: dans la région linéaire, il est possible d'écrire une relation de proportionnalité entre la charge électrique ࢗ et le déplacement ࢞ via un coefficient de couplage. 21 Šƒ’‹–”‡ͳǣ‡•”±ˆ±”‡ ‡•†‡–‡’•‡–†‡ˆ”±“—‡ ‡ Faisant suite aux travaux de Butterworth [31] et Cady [12], Van Dyke [32] a montré que le résonateur piézoélectrique, c'est-à-dire le résonateur mécanique et son moyen de transduction, est modélisable par un circuit dit de Butterworth-Van Dyke (BVD). Ce modèle présente deux branches comme sur la Figure 14 : une branche dite motionnelle équivalente au résonateur électrique de la Figure 13 et une branche dite statique modélisée par un condensateur ‫ܥ‬଴ . Pour utiliser la transduction piézoélectrique, des électrodes conductrices (généralement en métal) sont déposées à la surface du matériau piézoélectrique. Les surfaces équipotentielles ainsi créées, jointes au comportement diélectrique intrinsèque aux matériaux piézoélectriques, justifient l'introduction dans le modèle d'un condensateur en parallèle avec la branche des éléments motionnels. Figure 14 Schéma équivalent du résonateur piézoélectrique La branche motionnelle permet de faire l'équivalence avec un système électrique, mais les valeurs typiques de capacité (de quelques ܽ‫ ܨ‬à ݂‫ ) ܨ‬et d'inductance (quelques ‫ ܪ‬à ݇‫ ܪ‬équivalentes) ne correspondent à aucun composant électronique discret : il n'existe pas de condensateur présentant une capacité aussi faible et une bobine de ͳ‫ ܪ‬aurait une taille importante. Le modèle BVD n'est valable qu'au voisinage de la résonance. Les résonateurs ayant en réalité de nombreuses fréquences de résonance, chaque résonance est caractérisée par sa propre branche motionnelle, la capacité statique étant commune à tous les modes de vibration. L'admittance ܻሺ߱ሻ et l'impédance ܼሺ߱ሻ, avec ߱ la pulsation ‫݀ܽݎ‬Ǥ ‫ି ݏ‬ଵ du système équivalent sont données par les expressions suivantes : ߱ ߱௣ ͳ ൅ ݆ܳ௣ ൬߱ െ ߱ ൰ ͳ ௣ ܻሺ߱ሻ ൌ ൅ ݆‫ܥ‬଴ ߱ ൌ ݆‫ܥ‬଴ ߱ ߱ ߱ ͳ ͳ ൅ ݆ܳ௦ ቀ߱ െ ߱௦ ቁ ܴଵ ൅ ݆‫ܮ‬ଵ ߱ ൅ ݆‫ܥ‬ଵ ߱ ௦ ߱ ߱௦ ͳ ͳ ൅ ݆ܳ௦ ቀ߱௦ െ ߱ ቁ ܼሺ߱ሻ ൌ ݆‫ܥ‬଴ ߱ ͳ ൅ ݆ܳ ൬ ߱ െ ߱௣ ൰ ௣ ߱ ߱ ௣ 22 (33) (34) Šƒ’‹–”‡ͳǣ‡•”±ˆ±”‡ ‡•†‡–‡’•‡–†‡ˆ”±“—‡ ‡ ஼ Avec ߙ ൌ ஼భ le rapport des capacités motionnelle et statique, ߱௦ ൌ బ ଵ ඥ௅భ ஼భ la pulsation de résonance de la branche motionnelle, ߱௣ ൌ ߱௦ ξͳ ൅ ߙ la pulsation d'antirésonance, ܳ௦ ൌ de la branche motionnelle, ܳ௣ ൌ ௅భ ఠ೛ ோభ ௅భ ఠೞ ோభ le facteur de qualité , le facteur de qualité de l'antirésonance. Par la suite, on désignera par facteur de qualité le facteur de qualité de la branche motionnelle. Le module et la phase de l'admittance sont représentés pour différentes valeurs de ‫ܥ‬଴ sur la Figure 15. Les autres paramètres du circuit sont fixés à R=3,8 kŸ, L=59,3 H, C=49,76 aF. Figure 15 En haut : module de l'admittance du circuit BVD, en bas : phase de l'admittance du circuit BVD. Nous distinguons trois régions en parcourant les fréquences dans le sens croissant : la première est une région capacitive où la phase de l'admittance vaut 90°. Ensuite la phase s'annule : c'est la résonance et on entre dans la région de comportement inductif de phase -90°. Enfin, après une nouvelle annulation de phase à l'antirésonance, nous retrouvons un comportement capacitif de phase 90°. Au premier ordre, la valeur de ‫ܥ‬଴ donne le positionnement de l'antirésonance : plus cette dernière est élevée, plus le rapport ஼భ ஼బ est faible et plus la résonance et l'antirésonance sont proches. Des courbes aux comportements inverses sont obtenues pour l'impédance ܼሺ߱ሻ et sont représentées sur la Figure 16. 23 Šƒ’‹–”‡ͳǣ‡•”±ˆ±”‡ ‡•†‡–‡’•‡–†‡ˆ”±“—‡ ‡ Figure 16 En haut : module de l'impédance du circuit BVD, en bas : phase de l'impédance du circuit BVD. A la résonance de la branche motionnelle, l'admittance du circuit équivalent est donnée par l'expression : ܻሺ߱௦ ሻ ൌ ͳ ൅ ݆‫ܥ‬଴ ߱௦ ܴଵ (35) Du fait de la présence de la capacité parallèle ‫ܥ‬଴ , à la pulsation ߱௦ l'admittance conserve une petite composante imaginaire (phase non strictement non nulle) et son module n'est pas tout à fait maximal : il reste la contribution du couplage capacitif des électrodes. Ainsi, la résonance de la branche motionnelle n'est pas tout à fait la même que du celle du système équivalent complet (branche motionnelle et branche statique). Sur la Figure 17 est représentée la variation théorique du rapport de la fréquence de résonance du système équivalent ݂௥௘௦ , définie comme la fréquence pour laquelle ƒ”‰൫ܼሺ݂௥௘௦ ሻ൯ ൌ Ͳ quand elle existe, sur la fréquence de résonance de la branche motionnelle en fonction de la capacité statique ‫ܥ‬଴ en gardant fixes les autres paramètres. Figure 17 Variation du rapport de la fréquence de résonance du circuit complet sur la fréquence de résonance de la branche série en fonction de la valeur de la capacité de la branche statique. 24 Šƒ’‹–”‡ͳǣ‡•”±ˆ±”‡ ‡•†‡–‡’•‡–†‡ˆ”±“—‡ ‡ ૚ En pratique, l'inégalité ࡾ ‫࡯ ب‬૙ ࣓࢙ doit être vérifiée pour un résonateur de qualité métrologique, et les ૚ fréquences ݂௥௘௦ et ݂௦ sont quasiment identiques et seront confondues dans la suite. Sous cette condition, nous privilégierons les représentations de ȁܼሺ݂ሻȁ et ƒ”‰ሺܼ ሺ݂ሻሻ, car le minimum du module de l'impédance équivalente correspond environ à ܴଵ , ȁܼሺ݂௥௘௦ ሻȁ ؆ ȁܼሺ݂௦ ሻȁ ؆ ܴଵ . 1.4.4 Résonateurs en quartz Les résonateurs sont des dispositifs mécaniques dont la forme, les dimensions, les matériaux et les moyens d'excitation et détection sont choisis afin de privilégier un mode de vibration. Historiquement deux grandes familles de résonateurs à quartz ont été développées en vue d'objectifs différents : -les diapasons en quartz en mode de flexion vibrant à 32 768 Hz, ils sont utilisés par exemple dans les montres. Un exemple de diapason est montré sur la Figure 18. Ils ont été développés dans les années 1960-1970 et sont produits à grande échelle par l'usage de moyen de fabrication collective (photolithographie et bain de gravure chimique) et sont donc peu coûteux [33]. Cette étape peut être considérée comme le début MEMS (Micro Systèmes Electro-Mécaniques) bien que les dimensions typiques soient millimétriques. Le terme de Quartz MEMS a été déposé par la société Epson Toyocom [34] pour désigner ses dispositifs fabriqués à très large échelle et de manière collective (photolithographie, gravure par voie humide) pour diverses applications : gyromètre, résonateur pour oscillateur de référence, capteur de pression [35]. Figure 18 Diapason en quartz utilisé dans l'industrie horlogère. -les pastilles en quartz vibrant en mode de cisaillement d'épaisseur : la fréquence de ces résonateurs s'inscrit typiquement dans une plage s'étendant de quelques MHz à quelques centaines de MHz, ce qui est cohérent avec une vitesse du son de quelques km/s et une épaisseur comprise entre quelques centaines de μm et une fraction de mm. Deux exemples de pastilles sont présentés sur la Figure 19. La fréquence de résonance est directement reliée à l'épaisseur de pastille par la relation suivante : 25 Šƒ’‹–”‡ͳǣ‡•”±ˆ±”‡ ‡•†‡–‡’•‡–†‡ˆ”±“—‡ ‡ ݂௥௘௦ ൌ ݊ ‫ܥ‬ ඨ  ʹ݁ ߩ (36) Figure 19 Exemples de pastille de quartz vibrant en cisaillement d'épaisseur, gauche : montage en 4 points, droite : montage en 2 points [36]. Avec e l'épaisseur de la lame vibrante, C le coefficient de rigidité spécifique au mode de cisaillement et ࣋ la masse volumique du quartz ߩ ൌ ʹǤ͸Ͷ ݃ͅǤ ܿ݉ିଷ [37] et n l'ordre du partiel, avec n=1 le fondamental. Nous notons l'existence de différentes formes de la pastille : une lentille plan convexe, plan-plan ou bi-convexe afin de piéger l'énergie au centre du dispositif et de réduire les effets de bords. Ces résonateurs sont fabriqués de manière individuelle par polissage mécano-chimique et leurs fréquences sont précisément ajustées. Ils sont coûteux (plus de 1000 $ pour des pièces de très hautes performances destinées aux applications spatiales [1]) et présentent de très hauts facteurs de qualité, entre 500 000 et plus de 2 000 000 pour des fréquences comprises typique de 5 ou 10 MHz. Ils sont utilisés dans les applications d'oscillateurs les plus exigeantes comme les oscillateurs stables ou ultra stables. Dans les cas des précédents résonateurs, l'excitation est faite à l'aide d'électrodes directement déposées sur le quartz. Ce dépôt perturbe le cristal : ajout d'une masse morte, migration possible d'ions métalliques, vieillissement des électrodes, il dégrade donc les performances à long terme. À partir de 1977, Raymond Besson, de l'école nationale supérieure de chronométrie et de micromécanique, a développé le résonateur à boîtier à vieillissement amélioré BVA [38]. L'innovation consistait à ne plus placer les électrodes directement sur le quartz mais à les déposer en regard du résonateur sur des éléments inertes en quartz, positionnés de façon mécaniquement stable par rapport à la pastille vibrante. L'ensemble se présente sous la forme d'un sandwich maintenu par des pinces de fixations comme montré sur la Figure 20. 26 Šƒ’‹–”‡ͳǣ‡•”±ˆ±”‡ ‡•†‡–‡’•‡–†‡ˆ”±“—‡ ‡ Figure 20 Exemple de résonateur de type BVA, la pastille de cisaillement est maintenue par des pinces entre deux morceaux de quartz métallisés servant d'électrodes, tiré de [1]. La fréquence de résonance des résonateurs en cisaillement d'épaisseur est limitée par l'épaisseur de lame réalisable. Pour dépasser des fréquences de plusieurs centaines de MHz (épaisseur équivalente de 1-2 μm), pour les filtres ou les références de temps dans les smartphones, les résonateurs à onde de volume ont d'abord été remplacés par des résonateurs à ondes de surface (surface acoustic wave SAW) [39]. Ces derniers consistent à déposer des électrodes, en forme de peignes inter digités à la surface du quartz (ou d'un autre matériau piézoélectrique). Les ondes acoustiques générées ne pénètrent que peu dans le substrat, le principe de fonctionnement est illustré sur la Figure 21. Figure 21 Schéma de principe de fonctionnement d'un résonateur d type SAW, tiré de [40]. Les fréquences atteintes par les SAW varient de 500 MHz à plusieurs GHz. Cependant, des innovations technologiques introduites par la suite (FBAR, TFBAR et HBAR) permettent aujourd'hui de réaliser des filtres et des résonateurs à ondes de volume à des fréquences atteignant plusieurs GHz. 27 Šƒ’‹–”‡ͳǣ‡•”±ˆ±”‡ ‡•†‡–‡’•‡–†‡ˆ”±“—‡ ‡ Les technologies BAW présentent l'avantage d'un volume acoustique supérieur à fréquence égale. La densité volumique de puissance acoustique étant plus faible, les structures BAW résistent mieux aux puissances nécessaires pour le régime d'émission en téléphonie mobile. En effet, on exploite des bandes de fréquences de plus en plus élevées pour accompagner l'accroissement du volume de communications (Big-data) devenu extraordinaire au point de poser à l'échelle planétaire de nombreux problèmes éthiques et environnementaux. À ce jour, les deux technologies SAW et BAW cohabitent dans les téléphones portables. 1.4.5 Facteurs de mérite des résonateurs Les résonateurs sont caractérisés par plusieurs paramètres d'importance : -le facteur de qualité Q : il est défini comme le rapport de l'énergie stockée dans le résonateur sur l'énergie dissipée à chaque cycle. Ce facteur est d'importance car il influe directement sur la capacité du résonateur à vibrer à une fréquence stable, proche de la fréquence de résonance. En effet, le bruit de phase varie en ଵ ொర . Dans le cadre du modèle équivalent de BVD, Q est alors également calculé à partir des paramètres du circuit équivalent à l'aide de l'expression (32). Le facteur de qualité peut également être mesuré expérimentalement à partir du tracé de la décroissance temporelle des oscillations (méthode dite du décrément logarithmique) : une fois l'excitation coupée, l'onde au sein du résonateur s'évanouit peu à peu de manière exponentielle comme montré sur la Figure 22. Figure 22 Variation de l'amplitude d'oscillation après l'arrêt de l'excitation en fonction du temps. 28 Šƒ’‹–”‡ͳǣ‡•”±ˆ±”‡ ‡•†‡–‡’•‡–†‡ˆ”±“—‡ ‡ Q est proportionnel au temps ࢚ࢊ de décroissance nécessaire pour atteindre ଵ ௘ de la valeur d'amplitude des oscillations à l'arrêt de l'excitation. ܳ ൌ ‫ݒ‬଴ ߨ‫ݐ‬ௗ (37) Avec ‫ݒ‬଴ la fréquence de résonance du résonateur. Q est également calculable à partir du tracé de l'amplitude de vibration en fonction de la fréquence : Q est égal au rapport de la fréquence de résonance sur la bande passante du résonateur : c.-à-d. l'écart des fréquences correspondant à l'amplitude maximale moins 3 dB ou à l'amplitude maximale divisée par racine de 2. Cette mesure est illustrée sur la Figure 23. Figure 23 Amplitude de déplacement en fonction de la fréquence et mesure du facteur de qualité. Une alternative équivalente est fournie par la largeur à mi-hauteur (FWHM : Full Width at Half Maximum) de la courbe de conductance car celle-ci est une image de la puissance absorbée par le résonateur à tension imposée. -le produit ࡽ ൈ ࢜૙ : Ce produit est majoré par les caractéristiques viscoélastiques du matériau. Dans les conditions habituelles d'utilisation (en particulier la température), le comportement viscoélastique relève du régime d'Akhiezer [41], qui prédit une valeur constante du produit ࡽ ൈ ࢜૙ [42], égal ͵ǡʹ ൈ ͳͲଵଷ Hz dans le cas du quartz. Ce produit est important car il fixe les limites de performances de l'oscillateur : Q donne la stabilité de fréquence et ࢜૙ est la fréquence de résonance. Nous souhaitons que celle-ci soit la plus élevée possible pour réduire le bruit de phase en log(M) dû à la multiplication de fréquence, où M est le facteur de multiplication. Dans le cas où le facteur de qualité n'est pas limité par des causes extérieures (fuite de pression, dépôt d'électrodes, pertes aux encastrements), le produit 29 Šƒ’‹–”‡ͳǣ‡•”±ˆ±”‡ ‡•†‡–‡’•‡–†‡ˆ”±“—‡ ‡ ࡽ ൈ ࢜૙ est une mesure des pertes intrinsèques du résonateur en fonction d'un mode et d'une géométrie donnée. Dans le régime d'Akhiezer, les pertes sont dominées par les interactions de type diffusion phonon-phonon : une perte d'énergie est nécessaire afin de retrouver l'équilibre thermodynamique après un cycle d'oscillation, et ce, même en l'absence de gradient thermique. Nous retrouvons dans la Table 4 les valeurs de facteur de qualité et de produit ࡽ ൈ ࢜૙ pour les résonateurs en quartz en cisaillement d'épaisseur en mode fondamental ou partiel et pour différentes coupes ou de type diapasons horlogers. Table 4 Valeurs typiques des résonateurs historiques pour les applications de références de temps [43]. Coupes Mode de vibration Facteur de qualité (ൈ ૚૙૟ ) Produit ࡽ ൈ ࢜૙ (ൈ ૚૙૚૜ ࡴࢠ) SC Cisaillement d'épaisseurfondamental 1,033 0,5165 SC Cisaillement d'épaisseur-P3 2,08 1,04 10 MHz SC Cisaillement d'épaisseur-P3 0,827 0,827 32,768 kHz Z+2°X Diapason horloger-flexion 0,03-0,1 0,001-0,003 Fréquences 5 MHz Les résonateurs BVA présentent des facteurs de qualité pouvant aller jusqu'à ͵ ൈ ͳͲ଺ à température ambiante [43]. Des facteurs de qualité pour des résonateurs en quartz en cisaillement d'épaisseur supérieurs à ͳͲଽ et des produits ܳ ൈ ݂ ൐ ͳͲଵ଺ ‫ ݖܪ‬ont été obtenus à des températures cryogéniques pour lesquelles la limite théorique dans le régime d'Akhiezer ne s'applique plus [44]. Une autre approche pour dépasser un produit ܳ ൈ ݂ de quelques ͳͲଵଷ ‫ ݖܪ‬consiste à utiliser des cristaux phononiques. L'idée est de minimiser les interactions phonons-phonons par une structuration périodique du matériau au niveau des attaches, créant ainsi des bandes de fréquences de vibrations mécaniques permises séparées par des grands gaps définissant des bandes interdites. Le mode d'intérêt se trouve dans ces bandes interdites, l'énergie est confinée au sein de la partie vibrante. Des facteurs de qualité de plusieurs centaines de millions ont pu être obtenus avec des résonateurs en nitrure de silicium Si3N4 [45], [46] dépassant ainsi des produits ܳ ൈ ݂ ൎ  ͳͲଵସ ‫ ݖܪ‬et allant jusqu'à ͳͲଵହ ‫ݖܪ‬. Une même approche a été conduite pour le silicium [47] et des produits ܳ ൈ ݂ ൐ ͳͲଵଷ ‫ ݖܪ‬ont été mesurés à 282 MHz. 1.4.6 Oscillateur utilisant un résonateur mécanique Afin de réaliser un oscillateur, c.-à-d. un système auto-entretenu capable de délivrer un signal de fréquence fixe, le résonateur (composant passif) est associé à une électronique d'entretien (composant 30 Šƒ’‹–”‡ͳǣ‡•”±ˆ±”‡ ‡•†‡–‡’•‡–†‡ˆ”±“—‡ ‡ actif) permettant de compenser les pertes d'énergie dues à un facteur de qualité fini. L'oscillateur est un système bouclé utilisant la fréquence mécanique stable du résonateur et inclut une électronique permettant de compenser les pertes dans le résonateur. Un exemple de système bouclé générant un signal périodique en l'absence de signal d'entrée est présenté en Figure 24 sous forme de schéma blocs où ‫ܣ‬ሺ߱ሻ est la fonction de transfert de l'amplificateur qui correspond à la forme la plus simple de l'électronique d'entretien et ‫ܤ‬ሺ߱ሻ la fonction de transfert du résonateur Figure 24 Structure d'un oscillateur la plus simple comprenant un élément filtrant et un amplificateur. Le circuit démarre spontanément sur le bruit présent dans tout système (bruit thermique par exemple) : la composante de bruit à la fréquence satisfaisant la condition de phase de la boucle d'oscillation ƒ”‰ሺ‫ ܤܣ‬ሻ ൌ Ͳሾʹߨሿ est amplifiée à chaque tour dans la boucle jusqu'à la saturation de l'amplificateur ou par un contrôle du gain intégré au circuit. Une fois le régime permanent atteint, le gain de la boucle vaut 1. Les conditions d'oscillations de la boucle sont connues sous l'appellation de conditions de Barkhausen et sont décrites par les équations suivantes : ‫ܣ‬ሺ߱ሻ‫ܤ‬ሺ߱ሻ ൌ െͳ ՜  ȁ‫ܣ‬ሺ߱ሻȁȁ‫ܤ‬ሺ߱ሻȁ ൌ ͳ݁‫‰”ƒ ݐ‬൫‫ܣ‬ሺ߱ሻ‫ܤ‬ሺ߱ሻ൯ ൌ Ͳሾʹߨሿ (38) A la fréquence d'oscillation, le gain de l'amplificateur compense les pertes du résonateur. Une conséquence des conditions de Barkhausen est qu'une perturbation de la phase ο߮௕௢௨௖௟௘ dans la boucle entraîne une perturbation de phase ο߮௥௘௦௢௡௔௧௘௨௥ ൌ െο߮ dans le résonateur afin d'assurer le maintien des oscillations ce qui entraîne une variation de fréquence en sortie valant ο‫ ݒ‬ൌ ο߮ effet la variation de phase ο߮ s'écrit pour le cristal –ƒሺο߮ሻ ൌ ୍୫ሺ୞ሻ ୖୣሺ୞ሻ ൌ ୖ ଡ଼ ௩బ ଶொ . En où R et X sont respectivement la résistance et la réactance de la branche motionnelle ܴଵ െ ‫ܮ‬ଵ െ ‫ܥ‬ଵ . Pour une petite variation d'impulsion autour de la résonance ߱ ൌ ߱௦ ൅ ο߱, ܺ ൌ –ƒሺο߮ ሻ ؆ ο߮ ؆ ௑ ோభ ௅ ଶொοఠ ோ ఠೞ ൌ ʹ ο߱ ൌ ൌ ଶொο௩ ௩ೞ ௅భ ஼భ ൫ఠమ ିఠబమ ൯ ஼భ ఠ , la variation de fréquence ο‫ ݒ‬vaut ௩ೞ ଶொ ؆ ʹ‫ܮ‬ଵ ο߱. Puis ο߮. Ainsi, nous pouvons faire deux remarques : i) un résonateur est capable de convertir une fluctuation de phase en 31 Šƒ’‹–”‡ͳǣ‡•”±ˆ±”‡ ‡•†‡–‡’•‡–†‡ˆ”±“—‡ ‡ fluctuation de fréquence, ii) cette conversion est inversement proportionnelle à Q, d'où l'intérêt majeur de maximiser le facteur de qualité pour réduire la sensibilité de la fréquence de sortie aux variations de la phase. Dans le cas particulier des oscillateurs à haut facteur de qualité, un modèle simple proposé par Leeson [48] est couramment employé. Le bruit de l'oscillateur ܵఝ ሺ݂ሻ est le résultat de la modulation du bruit électronique de l'amplificateur, ܵ௔௠௣௟௜ ሺ݂ሻ, et du filtrage par le résonateur. Le bruit de l'oscillateur ܵఝ ሺ݂ሻ s'écrit : ܵఝ ሺ݂ሻ ൌ ‫ܪ‬௥௘௦ ൈ ܵ௔௠௣௟௜ ሺ݂ሻ (39) Pour décrire la boucle oscillatrice, le résonateur est modélisé par un filtre d'ordre 2 de fréquence de ࢜ ૛ ࢜ coupure ࢌࡸ ൌ ૛ࡽ૙ , et donc ‫ܪ‬௥௘௦ ൌ ൤ͳ ൅ ቀ૛ࡽ૙ ቁ ൨. Le bruit de l'amplificateur de la boucle oscillatrice ࡸ ࡸ est modélisé par un bruit de scintillement de phase et d'un bruit blanc au-delà de la fréquence de coupure ࢌࢉ . Il faut noter que dans ces considérations d'oscillateur, le facteur de qualité n'est plus celui du résonateur seul mais celui du résonateur monté en oscillateur : il est « chargé » avec son électronique (on parle de QL, l'indice L pour « loaded » en anglais). Le résonateur est perturbé par l'ajout de l'électronique et cela se traduit entre autre par une baisse du facteur de qualité ܳ௅  ൏ ܳ. Toutefois, meilleur est le Q meilleur sera QL. Pour des fréquences de Fourier situées dans la bande passante du résonateur, c.-à-d. proches de la porteuse ࢌ ൏ ࢜૙ ૛ࡽࡸ , le bruit de phase de l'oscillateur varie en ݂ ିଷ : il est fortement dépendant de ܳ et varie en ܳ ିସ [49]. Ce bruit de scintillement de fréquence se traduit dans le domaine temporel par un palier sur le graphe de ߪ௬ଶ ሺ߬ሻ: c'est la performance ultime de l'oscillateur. La Figure 25 comporte une représentation de la fonction de transfert de l'amplificateur en fonction de la fréquence de Fourier, ainsi que le graphique de l'amplitude de la fonction de filtrage du résonateur en fonction de la fréquence de Fourier et le bruit de phase résultant de l'association des deux. 32 Šƒ’‹–”‡ͳǣ‡•”±ˆ±”‡ ‡•†‡–‡’•‡–†‡ˆ”±“—‡ ‡ Figure 25 Modèles de Leeson. En haut : fonction de transfert de l'amplificateur, au milieu : fonction de transfert de filtrage du résonateur, en bas : bruit de phase résultant de l'association. Pour des fréquences plus élevées ࢌ ൐ ࢜૙ ૛ࡽ , le bruit est dominé par le bruit de scintillement de l'amplificateur de la boucle oscillatrice et varie en ݂ ିଵ . Pour des fréquences ࢌ ൐ ࢌࢉ , le bruit de phase se limite au bruit blanc dont la densité spectrale s'exprime par ࡿ࣐ ൎ ࡲ࢑ࢀ ࡼ૙ , où ࢑ࢀ est le bruit thermique (k est la constante de Boltzmann et T la température en Kelvin), ࡼ૙ la puissance injectée dans le résonateur et ࡲ le facteur de bruit de l'amplificateur de sortie, c'est un paramètre mesuré expérimentalement. 1.4.7 Familles d'oscillateurs à quartz La principale source d'instabilité de fréquence pour les oscillateurs provient de la sensibilité thermique du résonateur : du fait des coefficients d'expansion thermique non nuls, les dimensions des éléments vibrants telles que la longueur d'une poutre en extension-compression ou l'épaisseur d'une pastille en cisaillement sont fonctions de la température. Tous les coefficients sont plus généralement dépendants de la température (coefficients élastiques, diélectriques, piézoélectriques, module de Young) Cela se traduit par des variations de la fréquence du résonateur et donc de l'oscillateur. Il existe des coupes dites compensées en température (par exemple la coupe AT) permettant de réduire la sensibilité thermique (variation de la fréquence ou de la fréquence relative en fonction de la température ݂‫)ܶݏݒ‬ dans la gamme d'utilisation habituelle typiquement comprise entre -50 et 110°C. Afin de réduire la sensibilité thermique des oscillateurs, plusieurs stratégies ont été développées et classent les 33 Šƒ’‹–”‡ͳǣ‡•”±ˆ±”‡ ‡•†‡–‡’•‡–†‡ˆ”±“—‡ ‡ oscillateurs en fonction de leurs performances. Les performances à prendre en compte pour déterminer les classes de l'oscillateur sont la stabilité dans la gamme de température, le vieillissement, la consommation, les dimensions et le prix. D'autres performances seront spécifiques à certaines classes et seront précisées. L'ensemble des spécifications sont regroupées dans la Table 5. Les spécifications données sont des valeurs typiques : chaque famille d'oscillateur couvre en réalité plusieurs décades de performances comme nous le verrons par la suite. Table 5 Famille d'oscillateur à quartz XO-Crystal Oscillator : l'oscillateur ne comprend aucun élément pour réduire la sensibilité thermique du résonateur, c'est l'oscillateur le plus simple, le moins performant et le moins coûteux : son prix allant de quelques dizaines de centimes à quelques euros. Son encombrement est typiquement inférieur à 100 mm3. VCXO-Voltage Controlled Crystal Oscillator : un élément déphaseur est rajouté dans la boucle oscillatrice afin de moduler la fréquence de résonance en fonction de la tension appliquée aux bornes de l'élément déphaseur le plus souvent une diode de capacité variable (diode varicap) comme illustré sur la Figure 26. Outre les spécificités communes avec le XO, les constructeurs spécifient les caractéristiques du contrôle en tension comme la plage et l'excursion de fréquence. Ils coûtent typiquement de quelques euros à quelques dizaines d'euros pour un encombrement inférieur à 100 mm3. 34 Šƒ’‹–”‡ͳǣ‡•”±ˆ±”‡ ‡•†‡–‡’•‡–†‡ˆ”±“—‡ ‡ Figure 26 Schéma de fonctionnement d'un VCXO TCXO-Temperature Compensated Crystal Oscillator : l'idée du TCXO est de compenser les fluctuations de fréquence dues à la température par un signal de correction. Une mesure de température est réalisée par un capteur : une sonde platine ou une thermistance. Cette information de température est utilisée pour générer une correction soit à l'aide d'une thermistance en mode interrupteur, soit par l'intermédiaire d'une diode varicap dont la tension de commande est fonction de la température. Cette tension de commande peut être analogique ou numérique. Les prix varient de quelques euros à une centaine d'euros pour un encombrement comparable aux VCXO. Il existe également des VCTXOs permettant une commande de la fréquence de résonance. MCXO-Microcomputer Compensated Crystal Oscillator : l'idée du MCXO est de réaliser la mesure de température à l'aide d'un mode partiel du résonateur : un oscillateur excite en même temps le mode fondamental et le partiel résonnant à 3 fois la fréquence du mode fondamental. Après multiplication et filtrage, la fréquence résultante est une fonction linéaire de la température présentant une forte pente. La sensibilité thermique est donc exploitée pour servir de thermomètre précis. La différence de fréquence est envoyée dans un microcontrôleur dans lequel a été enregistrée une calibration préalable et le microcontrôleur synthétise le signal corrigé du mode fondamental. Les MCXOs sont peu encombrants <1 cm3, consomment peu et coûtent quelques dizaines d'euros. Le fonctionnement des oscillateurs TCXOs et MCXOs, qui sont basés sur des principes similaires, est présenté sur la Figure 27. 35 Šƒ’‹–”‡ͳǣ‡•”±ˆ±”‡ ‡•†‡–‡’•‡–†‡ˆ”±“—‡ ‡ Figure 27 Schéma de fonctionnement d'un TCXO et MCXO OCXO-Oven Controlled Crystal Oscillator : le résonateur et une partie de l'électronique sensible sont placés dans une enceinte thermostatée grâce à un circuit chauffant couplé à une sonde de température et à un asservissement. L'encombrement de ce dispositif est compris entre 10 cm3 et 600 cm3, demande une consommation bien plus importante que les autres familles d'oscillateurs typiquement de 1 à 3 W, un temps de mise en fonctionnement élevé (warm up) afin de stabiliser la température, son coût est plus élevé que les autres catégories d'oscillateurs de 100 euros à plus de 1000 euros pour les dispositifs commercialisés. Les OCXOs sont les oscillateurs présentant la grande stabilité thermique, la meilleure stabilité court-terme et le plus faible vieillissement. Le principe de fonctionnement est présenté sur la Figure 28. Figure 28 Principe du fonctionnement d'un oscillateur monté en OCXO. J'ai consigné les performances de différents oscillateurs à base de résonateurs en quartz ou en silicium commercialisés dans le graphe de la Figure 29. Le critère de stabilité retenu est la sensibilité thermique sur la plage de température habituelle entre -40 et 85°C. Cette donnée figure toujours dans les fiches des constructeurs : il existe un lien entre cette donnée et l'encombrement, le coût et la consommation. Les OCXOs haut de gamme sont les plus performants, toutefois on note le peu de différence entre les TCXOs et MCXOs haute gamme et les OCXOs d'entrée de gamme. Il existe également une volonté de 36 Šƒ’‹–”‡ͳǣ‡•”±ˆ±”‡ ‡•†‡–‡’•‡–†‡ˆ”±“—‡ ‡ réduire la taille des OCXOs en conservant des performances élevées qui se traduit par l'émergence de dispositifs de type mini-OCXOs. Figure 29 Performances de stabilité thermique d'oscillateurs commercialisés et classés suivant les catégories. 1.5 Vers une miniaturisation des dispositifs et une intégration plus aisée Les oscillateurs à quartz ont dominé et dominent toujours le marché des références de fréquences depuis la fin de la seconde guerre mondiale. Ce marché est aujourd'hui estimé à environ 2.6 milliards de dollars en croissance de 4.3 % pour les dix années à venir [50].Il y a plusieurs raisons majeures à cela, un facteur de qualité élevé, un bruit de phase faible, l'existence de coupe compensée en température ou en contraintes et la piézoélectricité. Cependant, les oscillateurs à quartz présentent également des caractéristiques telles que leurs dimensions et leur intégration qui sont de moins en moins compatibles avec la course à la miniaturisation et la réduction des coûts de fabrication [51]. La volonté de réduire la taille, le poids et la consommation des oscillateurs performants, en particulier pour les oscillateurs montés en OCXO, passe par la miniaturisation du coeur de l'oscillateur qu'est le résonateur. La taille (plusieurs dizaines de cm3) et la consommation (plusieurs watts) significatives des OCXOs par rapport aux TCXOs et MCXOs proviennent de la thermalisation du dispositif. Une réduction poussée du résonateur mécanique d'un facteur 10 à 100, permettrait i) une réduction importante de l'encombrement et de la consommation : moins de puissance serait alors nécessaire pour maintenir le dispositif à son point de fonctionnement, ii) une diminution drastique des coûts par l'emploi de procédés de fabrication collectifs. De plus, les oscillateurs à quartz présentent un inconvénient majeur constitué par la difficulté d'intégration de l'élément oscillant dans le circuit 37 Šƒ’‹–”‡ͳǣ‡•”±ˆ±”‡ ‡•†‡–‡’•‡–†‡ˆ”±“—‡ ‡ électronique : les boîtiers contenant le résonateur et l'électronique d'entretien sont généralement séparés, et si on parvient à les intégrer en un seul composant, ce dernier n'est pas aisément intégrable au sein d'un système électronique plus complexe. Il faut cependant garder à l'esprit que la miniaturisation entraîne une baisse globale des performances. D'une part, à densité de charge égale, la réduction de la taille des électrodes induit de grandes impédances et résistances. Le rapport des courants motionnels et capacitifs est donc dégradé par la miniaturisation et se traduit par une perte d'énergie dans l'élément vibrant. La puissance maximale qu'il est possible d'injecter dans le résonateur miniature avant le passage au régime nonlinéaire est plus faible que dans le cas non miniature. Le bruit de phase minimal loin de la porteuse d'un résonateur miniature est donc plus important que dans le cas non-miniature. D'autre part, la miniaturisation entraîne habituellement une augmentation du rapport surface sur volume du résonateur qui devient donc plus sensible à son état de surface (ce qui renforce l'effet des contaminations) ou à son environnement comme la pression résiduelle dans le boîtier. L'exigence de propreté et d'étanchéité lors de la fermeture des boîtiers sont donc accrues. De nombreuses équipes de recherches, tant académiques qu'industrielles ont développé des résonateurs de type MEMS en matériaux piézoélectriques, quartz ou silicium. Plusieurs approches sont étudiées dans la volonté de miniaturisation et d'intégration du résonateur : • réaliser des MEMS tout silicium et utiliser la transduction capacitive pour l'excitation détection, • utiliser une couche piézoélectrique, généralement en oxyde de nitrure ou nitrure d'aluminium à la surface de résonateurs mécanique en silicium et déposer des électrodes sur cette couche afin de réaliser des MEMS piézoélectriques, • miniaturiser et réaliser collectivement les résonateurs en quartz. L'intégration est facilitée par des encapsulations et des reports de puces à l'échelle du wafer. Nous dressons ici l'état de l'art des principaux dispositifs suivant l'approche exploitée. 1.5.1 Les résonateurs en silicium Les résonateurs MEMS silicium ont été développés dès les années 1990 [52] et ont largement bénéficié de la maturité des moyens de fabrication hérités de la microélectronique. Ils sont généralement fabriqués en utilisant le procédé HARPSS (High Aspect Ratio combined Poly and Single 38 Šƒ’‹–”‡ͳǣ‡•”±ˆ±”‡ ‡•†‡–‡’•‡–†‡ˆ”±“—‡ ‡ Silicon)2 [53] et présentent de petites dimensions par rapport aux résonateurs conventionnels en quartz et sont plus facilement intégrables (l'intégration est toujours hors puce). Les facteurs de qualité sont élevés : 180 000 pour une poutre en extension compression vibrant à 12 MHz [54] et 130 000 pour un plaque sur le mode de Lamé à 13 MHz [55], plus d'un million pour des résonateurs vibrant sur le mode de Lamé [56] ou en mode de disque elliptique [57][58] vibrant à quelques MHz et jusqu'à 4 millions à 2 MHz [59]. De tels facteurs de qualité ont pu être obtenus, d'une part, par une conception poussée des zones d'ancrage induisant une réduction importante des pertes à l'encastrement, d'autre part, par l'excellente résolution des moyens de fabrication du silicium. Le plus haut produit ࡽ ൈ ࢌ reporté est de ʹǡʹ ൈ ͳͲଵଷ ‫ ݖܪ‬pour un résonateur vibrant en mode de Lamé à 6.89 MHz (ࡽ ൐ ૜૙૙૙૙૙૙) [60] et est donc supérieur aux meilleurs résonateurs en quartz de type BVA à température ambiante (autour de ͳ െ ͳǡͷ ൈ ͳͲଵଷ ‫)ݖܪ‬. La filière MEMS s'est développée en suivant une logique industrielle. Le premier MEMS [61], issu d'un laboratoire fondamental, n'a pas rapidement fait école dans les laboratoires publics s'occupant de physique appliquée. La recherche académique dans ce domaine s'est essentiellement développée à partir de nouvelles équipes très spécifiques au personnel très jeune, dont les travaux ont connu un retentissement croissant lorsque des entreprises travaillant sur les oscillateurs MEMS ont vu le jour, par exemple SiTime ou SiliconLabs. SiTime est maintenant la première entreprise du secteur avec plus de 90% du marché des oscillateurs MEMS [62] : elle produit des oscillateurs de petites tailles (൏ ʹͲ݉݉ଷ ) de type XOs, VCXOs et TCXOs, dont les plus performances sont à même de concurrencer les oscillateurs TCXOs en quartz. Les résonateurs utilisés dans les dernières générations sont composés de 4 anneaux vibrant en mode contour reliés entre eux par des poutres [63] et présente un facteur de qualité proche de 150 000 à 48 MHz atteignant ainsi un produit ܳ ൈ ݂ de ͹ǡʹ ൈ ͳͲଵଶ ‫ݖܪ‬. Toutefois, ces résonateurs en silicium présentent également au moins trois inconvénients majeurs en vue de la réalisation d'oscillateurs de référence. Parmi ces trois inconvénients, deux sont directement reliés au choix de la transduction et le dernier est lié à la nature même du matériau. • Le silicium n'est pas un matériau piézoélectrique : l'excitation se fait généralement par transduction capacitive. Cette dernière permet de créer une force électrostatique grâce à la différence de potentiel appliquée à deux électrodes : une première électrode est fixe, la seconde est mobile et 2 La procédé HARPSS utilisé généralement un wafer SOI (Silicon On Insulator), c'est-à-dire un empilement de deux wafers de silicium séparé par une couche d'oxyde. Le wafer supérieur est affiné à l'épaisseur vibrante puis les motifs sont transférés et usinés en gravure ionique, la face arrière sert de cavité : elle est d'abord usinée par gravure ionique puis l'oxyde est gravé en usinage humide. 39 Šƒ’‹–”‡ͳǣ‡•”±ˆ±”‡ ‡•†‡–‡’•‡–†‡ˆ”±“—‡ ‡ solidaire du résonateur qui se déforme sous l'action de cette force. La détection électrostatique est réalisée par la mesure du courant traversant la capacité entre l'électrode fixe et le résonateur vibrant. La transduction capacitive est par nature non-linéaire et induit une dégradation du bruit de phase proche de la porteuse [64]. De plus, la collecte de charges se fait via une lame (gap) d'air ou de vide et s'avère peu efficace : cela se traduit par des résistances motionnelles élevées, dans le meilleur des cas de l'ordre de quelques kȍ [52] ce qui va dégrader le bruit de phase loin de la porteuse. • La stabilité thermique du silicium est faible autour de 30 ppm/K [65] dans la gamme usuelle de températures et doit être absolument compensée en vue de réaliser des oscillateurs de références. Plusieurs méthodes sont employées : i) l'utilisation d'une couche de matériau avec des coefficients d'expansion opposés comme le SiO2 induit des pertes donc une baisse du facteur de qualité, ii) un dopage extrêmement important du silicium permet d'approcher la sensibilité thermique du quartz [66], iii) une compensation électronique à l'aide d'une PLL fractionnaire menant à une consommation excessive de courant par rapport à un oscillateur équivalent en quartz [67]. 1.5.2 Les résonateurs piézoélectriques MEMS L'utilisation d'une couche de matériau piézoélectrique sur un résonateur en silicium permet de résoudre les problèmes inhérents à la transduction capacitive. Les matériaux piézoélectriques utilisés peuvent être du nitrure d'aluminium AlN pour réaliser des poutres en extension compression de longueur [68], de largeur [69] ou du ZnO sur des poutres en extension de longueur [70], de largeur ZnO [71] ou en flexion [72]. Ces résonateurs présentent généralement des caractéristiques similaires : des facteurs de qualité peu élevés de 1000 à moins de 10 000 pour des fréquences de quelques MHz à plusieurs dizaines de MHz pour le mode fondamental, l'utilisation de modes partiels permet d'obtenir des fréquences plus élevées : jusqu'à 208 MHz pour le 9ème harmonique dans [69] pour un facteur ࡽ ൈ ࢌ intéressant de ͳǤ͵ ൈ ͳͲଵଶ ‫ݖܪ‬. Un facteur de qualité de 140 000 a été obtenu pour une poutre en extension compression pour une fréquence légèrement inférieure à 1 MHz [73]. Des résonateurs en AlN vibrant en mode de contour ont été étudiés [70] [74]. Ils présentent des facteurs de qualité de l'ordre de quelques milliers et vibrent à plusieurs centaines de MHz. Le développement industriel des MEMS piézoélectriques s'est fait en parallèle des MEMS en silicium avec notamment la société Discera (rachetée par Micrel en 2013, puis par Microchip Technology en 2015 [75]). La société Tikitin issue du laboratoire finlandais VTT développe des résonateurs MEMS piézoélectriques pour lesquels un très fort dopage du silicium permet une 40 Šƒ’‹–”‡ͳǣ‡•”±ˆ±”‡ ‡•†‡–‡’•‡–†‡ˆ”±“—‡ ‡ compensation de la sensibilité thermique [66], des facteurs de qualité de 10 000 sont annoncés pour des plaques en vibration de Lamé à 10 MHz. La société Murata a lancé depuis peu des MEMS piézoélectriques en flexion de très petite taille (൏ ͳ݉݉ଶ ) vibrant à 32 768 Hz et présentant un facteur de qualité autour de 20 000 dans l'objectif de remplacer les diapasons en quartz dans des applications peu exigeantes [76]. 1.5.3 Les résonateurs en quartz miniatures Le quartz a naturellement fait l'objet d'études en vue de le miniaturiser et de rendre les moyens de fabrication collectifs. Une poutre en quartz en coupe horlogère vibrant en extension de longueur à 1 MHz a été développée par R. J. Dinger [77] et présente un facteur de qualité élevé de 200 000. Des améliorations notables ont été réalisées par Kawashima et son équipe sur des dispositifs similaires, des facteurs de qualité aussi hauts que 540 000 ont été obtenus à 500 kHz et 350 000 à 1,5 MHz [78] (produit ܳ ൈ ݂ ൌ ͷǤʹ ൈ ͳͲଵଵ ‫)ݖܪ‬. Ces résonateurs sont réalisés par gravure chimique humide ce qui complique la montée en fréquence par réduction des dimensions. Une alternative trouvée a été l'emploi de poutres en extension-compression de largeur, taillées dans la coupe KT à simple rotation (ߠ ൌ ʹ͹ι), les résonateurs ainsi fabriqués ont présenté un facteur de qualité pouvant atteindre 180 000 à 16,3 MHz [79] donnant un facteur ܳ ൈ ݂ élevé de ʹǤͻ ൈ ͳͲଵଶ ‫ݖܪ‬. L'équipe du HRL de Malibu développe dès le début des années 2000 des résonateurs en quartz de type MEMS en vue de réaliser des oscillateurs et des filtres. Des résonateurs vibrant d'abord à 1,94 GHz pour un facteur de qualité de 7200 et un produit ܳ ൈ ݂ ൌ ͳǤ ͅ ൈ ͳͲଵଷ ‫ ݖܪ‬comparables aux meilleurs pastilles de quartz [80] ont été fabriqués à l'aide de procédés poussés tant sur le développement de la DRIE du quartz que sur les collages de wafers pour réaliser un substrat porteur ou le report des puces [81]. De tels procédés ont été réutilisés dans l'objectif de descendre en fréquence : un résonateur à 995 MHz présentant toujours un produit ܳ ൈ ݂ élevé de ͳǤ͵ͷ ൈ ͳͲଵଷ ‫ݖܪ‬ [82], puis des résonateurs pour TCXO vibrant à 16 MHz avec un facteur de qualité de 90 000 (ܳ ൈ ݂ ൌ ͳǤͶͶ ൈ ͳͲଵଶ ‫)ݖܪ‬. Face au développement des oscillateurs MEMS et la course à la miniaturisation, EPSON lance en 2005 [83] la notion de QMEMS qui présentent des dimensions réduites et utilisent des procédés de photolithographie pour une fabrication à large échelle. Aujourd'hui, tous les constructeurs majeurs (EPSON, Murata, IQD, IDT, Microchip, Rakon) du domaine proposent des oscillateurs de type XO, VCXO, MCXO ou TCXO de taille miniature (൏ ͳͲͲ݉݉ଷ ). 41 Šƒ’‹–”‡ͳǣ‡•”±ˆ±”‡ ‡•†‡–‡’•‡–†‡ˆ”±“—‡ ‡ 1.5.4 Comparaison des technologies et des approches Je présente sur la Figure 30 le graphe du facteur de qualité en fonction de la fréquence des résonateurs miniatures quartz (en rouge), de résonateurs MEMS piézoélectriques (en bleu) et silicium (en vert), ainsi que les résonateurs de haute performance en cisaillement d'épaisseur [84][43] issus de la littérature. Les limites théoriques du quartz et du silicium sont également tracées. Chaque forme de marqueurs correspond à un mode vibration : les triangles pour les modes d'extension compression de longueur ou largeur ou de flexion, les ronds pour les modes de cisaillement et les carrés pour les modes de contour ou de plaque type mode de Lamé pour des plaques carrées ou des disques vibrant en mode elliptique (Wine Disk Glass mode). Figure 30 Facteur de qualité des résonateurs de type quartz, MEMS silicium et MEMS piézoélectrique en fonction de la fréquence de résonance de la littérature. Les triangles correspondent à des résonateurs vibrant en mode d'extension-compression ou de flexion, les disques à des modes de cisaillement d'épaisseur et les carrés à des modes de Lamé ou mode de contour. Les oscillateurs de type MEMS en silicium sont commercialisés depuis plus de 10 ans et concurrencent les oscillateurs à base de résonateur en quartz pour les applications de basse et moyenne gamme. En revanche, pour les applications de hautes performances, les OCXOs à base de résonateurs en quartz à très haut facteur de qualité restent inégalés. Nous dressons dans la Table 6 les spécifications d'oscillateurs commercialisés ou en voie de commercialisation de type OCXO conventionnel, mini OCXO ainsi que les technologies MEMS silicium (SiTime) et piézoélectriques (Tikitin) désignés par OCMO pour Oven Controlled MEMS Oscillator. 42 Šƒ’‹–”‡ͳǣ‡•”±ˆ±”‡ ‡•†‡–‡’•‡–†‡ˆ”±“—‡ ‡ Table 6 Tableau de comparaisons des spécifications d'oscillateurs OCXO et mini OCXO commercialisés ainsi que les principales technologies de type MEMS silicium et MEMS piézoélectrique. ‡ Š‘Ž‘‰‹‡  ‘—”‹••‡—”Ȁ”‘†—‹–  ͶͲͻ ”±“—‡ ‡ȋ œȌ ͳͲ –ƒ„‹Ž‹–±˜•ȋǦͶͲǢ ͅͷιȌ ȋ’’„Ȍ –ƒ„‹Ž‹–± ‘—”–Ǧ–‡”‡ȋ ̷ͳ•Ȍ ͷ ͳͲ ͳͲ ʹͲ ͅ ǫ ͸šͳͲǦͳ͵ ͳšͳͲǦͳͳ ͳǤͷšͳͲǦͳͳ ͷšͳͲǦͳʹ ʹšͳͲǦͳͳ ǫ ǫ ʹͲ ǫ ǫ ͳ ͵ͲͲ ͲǤͷ ͳͲͲ ͳ ͵ͲͲ ǫ ͳͲͲ ”—‹–†‡’Šƒ•‡ͳ œ ȋ† Ȁ œȌ ”—‹–†‡’Šƒ•‡ͳ œ ȋ† Ȁ œȌ ǦͳͲͷ ǫ Ǧ ͅͲ Ǧͻͷ Ǧ͹Ͷ Ǧ͸Ͳ ǦͳͷͲ Ǧͳͷͷ ǦͳͷͶ Ǧͳ͸Ͳ ǦͳͶͷ ǦͳͶͷ ‡’•†‡™ƒ”—’ ͵Ͳ‹ ǫ ͳ‹ ͷ‹ ǫ ͳͲ• —‹••ƒ ‡‡•–‡ƒ†›Ǧ•–ƒ–‡ ȋȌ Ͷ ͲǤ͵ͷ ͲǤͶͶ ͳǤ ͅ ͲǤͳ͸ ͲǤʹ ‹‡‹ŽŽ‹••‡‡–ȀŒ‘—”ȋ’’„Ȍ ‹‡‹ŽŽ‹••‡‡–Ȁƒȋ’’„Ȍ ‹‹Ǧ   ›”Ž‹• ƒ‘ ‡ –”‘ ‹‹‡ Ͳ ͅ͵ ͳͶͻͲ ‹‹–‹ Ǧ͵ͲͶ ‹ͷ͹ͳͳ Ͳ  ͳͲ ͳͲ ͳͲ ͳͲ ͳͲ ͹ͷͲͲͲ ͳͲͲͲͲ ͹͸ ͅ ͷ͵͵Ͳ ͶͳͲ ʹͲͲ Au vu des performances des dispositifs présentés, il n'existe pas actuellement de solution combinant  ‘„”‡‡–ȋ͵Ȍ les performances du quartz (Bruit de phase à 1 Hz < 100 dBc/Hz, ߪ௬ ሺ߬ ൌ ͳ‫ݏ‬ሻ ൏ ͳͲିଵଵ ) et l'encombrement et la consommation d'un OCMO (encombrement < 1000 mm3 et consommation <0.2 W). Il est alors opportun de développer des oscillateurs à base d'un résonateur miniature en quartz capable d'approcher les performances d'un OCXO haute gamme tout en présentant une consommation et un encombrement comparables aux technologies MEMS silicium et piézoélectrique. Il s'agit donc de développer un résonateur en quartz miniature présentant des dimensions significativement plus petites que celles d'une pastille en quartz traditionnelle tout en assurant un très haut facteur de qualité. 1.6 Conclusion du chapitre I Dans ce chapitre nous avons vu que les oscillateurs étaient des éléments indispensables à bon nombre de circuits électroniques : ils jouent le rôle d'horloge ou participent à la synthèse et la synchronisation des signaux. La performance d'un oscillateur est mesurée par la stabilité de la fréquence du signal qu'il fournit dans le domaine temporel avec la variation d'Allan et dans le domaine fréquentiel par le bruit de phase. L'oscillateur utilise pour fonctionner deux composants élémentaires : un amplificateur et un filtre passe-bande, et c'est la finesse de la bande passante de l'élément filtrant qui détermine en grande partie la stabilité de l'oscillateur. L'utilisation d'un résonateur mécanique à très haut facteur de 43 Šƒ’‹–”‡ͳǣ‡•”±ˆ±”‡ ‡•†‡–‡’•‡–†‡ˆ”±“—‡ ‡ qualité, traduisant un taux de dissipation de l'énergie mécanique faible au sein du résonateur, permet d'obtenir un élément filtrant à passe bande étroite. Le quartz est un des matériaux phares pour la réalisation de ce type de dispositif, en raison de ses pertes intrinsèquement faibles, de la bonne stabilité en température et sous contrainte qu'il permet d'atteindre (une fois la coupe cristalline judicieusement choisie), de son caractère piézoélectrique qui facilite l'actionnement des résonateurs et de sa fabrication bien maîtrisée. Pour ces raisons, la technologie des oscillateurs à base de résonateurs en quartz est aujourd'hui la plus répandue et la plus pertinente pour la vaste majorité des applications : de la montre à quartz à la navigation par satellite. Les résonateurs en quartz font principalement appel à deux types de résonateurs : les diapasons horlogers bien adaptés aux applications bon marché et faibles fréquences, et les pastilles en cisaillement d'épaisseurs utilisées pour les plus hautes performances et fréquences. Pour améliorer la stabilité des résonateurs, ces derniers sont placés dans des fours dont la consommation importante, plusieurs watts, l'encombrement, le temps de démarrage et le coût sont liés aux dimensions et à la fabrication du résonateur. La filière classique des résonateurs en quartz ne répond pas aux besoins émergents liés aux technologies embarquées ou aux nouvelles normes de communication du fait de leurs coûts, du faible volume de production, de leurs encombrements et de leurs consommations. Une solution serait donc de réduire les dimensions des résonateurs mais cela n'est pas compatible avec les technologies traditionnelles de fabrication de la filière quartz. Cette limitation est absente dans le cas du silicium dont les procédés de fabrication sont particulièrement avancés : des résonateurs de type MEMS en silicium pour application d'oscillateur ont été développés mais souffrent de deux faiblesses intrinsèques à l'utilisation du silicium à savoir une forte sensibilité thermique et une transduction capacitive. La solution optimale serait de combiner les avantages de miniaturisation démontrés dans le cas du silicium et les propriétés intrinsèquement favorables du quartz : c'est l'objectif de ce travail de thèse. Il faut donc développer un concept de résonateur miniature à grand facteur de qualité conjointement aux procédés de fabrication associés. 44 Šƒ’‹–”‡ʹǣŠ‘‹š†—‹ ”‘Ǧ”±•‘ƒ–‡—” Chapitre 2 : Choix du micro-résonateur Le développement d'un oscillateur alliant hautes performances, faible consommation et encombrement réduit implique la conception ou l'adaptation d'un résonateur de taille miniature, à très fort facteur de qualité et réalisable à large échelle. Il se trouve que l'ONERA a développé un résonateur en quartz vibrant en extension-compression à 4 MHz et présentant un très haut facteur, jusqu'à 2 millions, dans l'objectif d'observer le régime quantique via un objet macroscopique : un haut facteur de qualité est alors indispensable pour assurer la sensibilité nécessaire. Le résonateur en question, outre un très haut facteur de qualité, est fabriqué collectivement. Toutefois ses dimensions et l'absence de moyen d'excitation sont des inconvénients majeurs en vue des applications d'oscillateur miniature. De ce résonateur massif, deux versions planaires utilisant un mode de vibration identique ont été développées et bénéficient d'un mécanisme de découplage similaire assurant la possibilité d'obtenir de très hauts facteurs de qualité. Nous étudierons la dépendance fréquentielle du résonateur vis-à-vis des paramètres géométriques et montrerons qu'il se comporte comme une poutre encastréelibre, structure bien connue. Typiquement, une poutre de quartz orientée selon l'axe Y dans le plan XY de longueur 270 μm vibrera à 10 MHz. Les fréquences de résonance et les dimensions sont tout à fait en accord avec l'objectif de réaliser des dispositifs miniatures à large échelle, réalisables par des moyens de fabrication collectifs. Le facteur de qualité supposé limitant tire son origine de l'amortissement viscoélastique des électrodes déposées sur le cristal et sera estimé à 600 000 pour une fréquence de 3 MHz à l'aide d'un modèle semi-analytique. Enfin, nous justifierons le choix du réseau d'électrodes, indispensables à l'actionnement de résonateur, par le compromis qu'il réalise vis-à-vis de la simplification des procédés de fabrication et la possibilité d'exciter efficacement le premier mode harmonique. 2.1 Genèse et fonctionnement du résonateur Dans le cadre du programme blanc N° ANR-07-BLAN-2060, l'ONERA en partenariat avec le laboratoire Kastler Brossel, l'Ecole Normale Supérieure et le Laboratoire des Matériaux Avancés du CNRS [85] a développé et réalisé un résonateur en quartz de taille centimétrique pour le projet ARQOMM (Atteindre le Régime Quantique d'un Oscillateur Macroscopique Mécanique). Ce 45 Šƒ’‹–”‡ʹǣŠ‘‹š†—‹ ”‘Ǧ”±•‘ƒ–‡—” résonateur a présenté des performances particulièrement intéressantes pour des applications tempsfréquence : son facteur de qualité ou coefficient de surtension ܳ a atteint une valeur de ʹ ൈ ͳͲ଺ pour une fréquence de 4 MHz soit un produit ܳ ൈ ݂ proche de ͳͲଵଷ ‫ ݖܪ‬et proche de la limite théorique dans le régime de pertes d'Akhiezer. 2.1.1 Principe de fonctionnement Le résonateur constituant notre point de départ, dénommé ARQOMM 3D dans la suite de mémoire, consiste en un pilier en extension-compression, d'un anneau et d'une membrane. En raison de l'effet de Poisson, la vibration d'extension-compression de la poutre induit une déformation latérale sur le pilier en son centre comme présenté sur la Figure 31. Il n'est donc pas possible d'avoir simultanément des noeuds de déplacement et d'énergie vibratoire au sein de la structure vibrante. Pour éviter le transfert d'énergie vibrante vers les supports, l'ARQOMM 3D présente une structure intermédiaire, l'anneau, et permet de compenser la déformation et de minimiser les déplacements dans la membrane extérieure servant d'ancrage [85]. L'énergie acoustique est ainsi confinée au mieux dans la structure vibrante assurant de la sorte un grand facteur de qualité. Pilier Anneau Membrane extérieure (zone d'ancrage) Figure 31 Concept de l'ARQOMM 3D, un pilier vibre en mode d'extension compression créant un déplacement latéral qui est compensé au niveau de l'ancrage par un mouvement de flexion de l'anneau. 2.1.2 Caractérisations et performances Afin de réduire les pertes viscoélastiques dues à la présence d'électrodes en or, l'ARQOMM 3Da été conçu sans électrodes. L'excitation et la détection requièrent un système complexe et encombrant : l'excitation est faite via une plaque piézoélectrique, la détection est réalisée à l'aide d'un dispositif optique utilisant l'interféromètre de Michelson et un laser Nd :YAG à 1064 nm [86]. La mesure du facteur de qualité est réalisée par la méthode du décrément logarithmique (« ring-down » en 46 Šƒ’‹–”‡ʹǣŠ‘‹š†—‹ ”‘Ǧ”±•‘ƒ–‡—” anglais) : l'excitation est subitement coupée et la décroissance caractéristique du résonateur est enregistrée via une photodiode. L'amplitude de déplacement du pilier est enregistrée et la mesure ೟ laisse apparaître une décroissance suivant une loi du type ݁ ሺିഓሻ avec ߬ relié au facteur de qualité. Des facteurs de qualité atteignant ʹ ൈ ͳͲ଺  à 4 MHz ont pu être mesurés ce qui est tout à fait comparables aux facteurs de qualité des meilleurs résonateurs en quartz pour les applications de haute stabilité. Le produit ܳ ൈ ݂ avoisine ͳͲଵଷ ‫ݖܪ‬, valeur proche des limites théoriques dans le régime d'Akhiezer. Le résonateur ARQOMM 3D permettrait d'atteindre des performances (bruit de phase proche de la porteuse, plateau de la variance d'Allan) voisines de l'état de l'art des résonateurs en quartz de type BVA tout en étant fabriqué de manière collective et par un procédé relativement simple : une seule étape de gravure chimique par voie humide est requise pour la réalisation des résonateurs. La Figure 32 montre un exemple de réalisation : neuf résonateurs ARQOMM 3D usinés sur une wafer carré de quartz de 500 μm d'épais et 1,5''(1''=1 pouce=2.54 cm) en coupe Z. 3.81 cm Figure 32 Exemple de résonateurs ARQOMM usinés par voie chimique sur un wafer de 1.5 pouces (3.81 cm), en encart un résonateur monté sur une embase. Le résonateur ARQOMM 3D pourrait donc être envisagé comme un candidat potentiel pour remplacer les coûteuses pastilles de quartz habituellement utilisées pour les références de temps et de fréquence. Toutefois le résonateur ARQOMM 3D présente des inconvénients majeurs : • L'excitation se fait via une plaque piézoélectrique. Il est en effet très complexe, voire impossible d'exciter le résonateur avec des électrodes. Cela se comprend lorsque nous écrivons la relation constitutive de la piézoélectricité mettant en jeu les déformations induites par l'application de champs électriques en l'absence de contraintes. ܵ ൌ ݀௧ ‫ܧ‬ (40) 47 Šƒ’‹–”‡ʹǣŠ‘‹š†—‹ ”‘Ǧ”±•‘ƒ–‡—” ௧ sont les constantes piézoélectriques. Dans le cas du quartz en coupe Z, en présence où les ݀௜௝ ݁௫ ൅ ‫ܧ‬௬ ሬሬሬሬԦ ݁௬ ൅ ‫ܧ‬௭ ሬሬሬԦ ݁௭ les déformations s'écrivent : d'un champ électrique ‫ܧ‬ሬԦ ൌ ‫ܧ‬௫ ሬሬሬԦ ܵଵ ൌ ݀ଵଵ ‫ܧ‬௫ Ǣܵଶ ൌ െ݀ଵଵ ‫ܧ‬௫ Ǣܵଷ ൌ ͲǢܵସ ൌ ݀ଵସ ‫ܧ‬௫ Ǣܵହ ൌ െ݀ଵସ ‫ܧ‬௬ Ǣܵ଺ ൌ ݀ଵଵ ‫ܧ‬௬ (41) La déformation correspondant au mode d'extension compression suivant l'axe Z (c.-à-d. S3), n'est pas excitable par le champ électrique résultant de l'application d'un potentiel sur un réseau d'électrodes. • La détection du signal se fait via un laser et une méthode ring down tout à fait incompatible avec la miniaturisation de l'oscillateur, • Du fait du moyen de gravure choisi, la gravure chimique par voie humide et de sa très forte anisotropie [87] le choix de la coupe de cristal est limité, • L'encombrement du résonateur est non négligeable et du même ordre de grandeur que celui des résonateurs en cisaillement d'épaisseur habituellement utilisé. L'ARQOMM 3D possède un potentiel indéniable en vue de réaliser collectivement des résonateurs à très hauts facteurs de qualité résonant à des fréquences de l'ordre du MHz. Comme vu au chapitre I, les résonateurs à très forts facteurs de qualité possèdent un attrait important pour les applications d'oscillateurs stables. En effet un grand facteur de qualité contribue à : • Un bruit de phase proche de la porteuse faible, • Un plateau de la variance d'Allan bas, • Une réduction des effets de bruit de l'environnement dans l'électronique d'entretien. Nous rappelons qu'un grand facteur de qualité n'est pas une condition suffisante pour évaluer la pertinence d'un résonateur en vue des applications en oscillateur. Le produit ܳ ൈ ݂ est également à considérer, ainsi que la valeur de la résistance motionnelle, la sensibilité à l'environnement (température, pression) et le vieillissement du dispositif. 2.2 Facteur de qualité Le facteur de qualité Qtot a été défini dans le chapitre I comme le rapport de l'énergie stockée sur l'énergie dissipée à chaque cycle. Les mécanismes de pertes d'énergie sont de différentes natures. Une manière pratique de représenter les différentes sources de perte d'énergie est d'écrire l'énergie dissipée totale comme une somme de contributions indépendantes (c.-à-d. les mécanismes de pertes ne sont pas couplés) d'énergies ‫ܧ‬ௗ௜௦௦௜௣±௘ି௜ , aboutissant à l'écriture bien connue faisant apparaître la somme des inverses des facteurs de qualité. 48 Šƒ’‹–”‡ʹǣŠ‘‹š†—‹ ”‘Ǧ”±•‘ƒ–‡—” ͳ ‫ܧ‬ௗ௜௦௦௜௣±௘ ͳ ͳ ͳ ൌ ൌ ‫ כ‬෍ ‫ܧ‬ௗ௜௦௦௜௣±௘ି௜ ൌ ෍ ܳ௜ ܳ௧௢௧ ʹߨ ‫ܧ‬௦௧௢௖௞±௘ ʹߨ‫ܧ‬௦௧௢௖௞±௘ (42) Cette écriture est analogue à celle des résistances en parallèle en électronique : le facteur de qualité total sera limité par le plus petit facteur de qualité des différentes contributions. Nous nous efforçons de les exposer succinctement ici, sachant qu'une étude plus complète pourra être trouvée dans la référence [88]. • Qair : les résonateurs de type MEMS sont des dispositifs de faibles dimensions et présentent généralement des rapports surface sur volume importants. Les molécules du gaz environnant (l'air le plus souvent) interagissent avec les éléments vibrants du résonateur : ce dernier fournit de l'énergie au gaz ambiant, ce qui se traduit par une perte d'énergie. Nous illustrons ce phénomène par la Figure 33 où la variation du facteur de qualité relatif au plus haut facteur de qualité mesuré (à la plus basse pression de 0,001 mbar) en fonction de la remontée en pression a été mesurée sur une cellule étudiée au cours de la thèse (résonateur de type poutre en extension-compression). Nous distinguons deux régimes : le premier entre 1 bar et 10 mbar pour lequel le facteur de qualité est fortement dépendant de la pression, le second entre 0,001 et 10 mbar pour lequel un plateau est quasiment atteint : un vide plus poussé n'améliore que peu le facteur de qualité puisque les échanges d'énergie avec le gaz raréfié tendent vers zéro. Ces régimes sont dépendants de la fréquence de résonance, de la géométrie et du mode de vibration du résonateur. Une solution efficace consiste à placer le résonateur dans un boîtier puis de l'enfermer sous vide. Cette solution n'est efficace que si le boîtier est capable de tenir le vide et ne fuit pas. 49 Šƒ’‹–”‡ʹǣŠ‘‹š†—‹ ”‘Ǧ”±•‘ƒ–‡—” Figure 33 Mesure du facteur de qualité relatif en fonction de la remontée de pression pour un résonateur de type poutre en extension-compression vibrant à 3 MHz étudié au cours de cette thèse. • QTED : les pertes thermoélastiques limitent les performances des résonateurs de type poutres en flexion. Au cours d'un mouvement de flexion, une partie de la poutre est en compression et l'autre en extension. La compression de la poutre mène à un échauffement local tandis que l'extension mène à un refroidissement local : un gradient de température apparaît du fait de ce gradient de déformation. Le gradient de température s'accompagne d'un flux de chaleur (loi de Fourier) qui dissipe par diffusion de l'énergie sous forme de chaleur et de manière irréversible. Figure 34 Déformée d'une poutre en flexion faisant apparaître les zones de compression chaudes en rouge et les zones en extension froides en bleu, tiré de [88]. D'après Zener [89], le facteur de qualité associé à ces pertes à une température ܶ଴ dans le cas d'une poutre peut être estimé par la quantité: ்ܳா஽ ܿߩ ͳ ൅ ሺ߱߬ሻଶ ܾ ଶ ܿߩ ൌ൬ ଶ ൰ ‫݋‬î߬ ൌ ൬ ൰ ቀ ቁ ‫ܶ ߙܧ‬଴ ߨ ݇ ߱߬ (43) Avec, c, E, ߩ, ߙ, k, respectivement la capacité calorifique volumique, le module d'Young, la densité, le coefficient d'expansion thermique et la conductivité thermique du matériau ; ߬ est une approximation de la période du transfert thermique et dépend de b la largeur vibrante de la poutre. Nous remarquons que deux régimes existent quand nous traçons QTED en fonction de ߬ (ou b): i) quand ߱߬ ‫ ͳ ا‬l'équilibre thermique est atteint pendant chaque période de mouvement mécanique, le régime est isotherme est ்ܳா஽  varie en ߱߬ ିଵ , ii) pour ߱߬ ‫ͳ ب‬ 50 Šƒ’‹–”‡ʹǣŠ‘‹š†—‹ ”‘Ǧ”±•‘ƒ–‡—” l'équilibre thermique n'est jamais atteint et le régime est adiabatique ்ܳா஽ varie en ߱߬. Les pertes sont maximales (்ܳா஽ minimal) quand ߱߬ ൎ ͳ. Un modèle plus précis a été développé par Lifschitz et Roukes [90] prenant en compte la déformation due à l'expansion thermique, étendant ainsi le modèle unidimensionnel de Zener. • QAKE : Les pertes par effet Akhiezer [91], ou plutôt les pertes par interactions de phonons, qui quantifient les vibrations du cristal dans le régime d'Akhiezer sont une extension des pertes thermoélastiques. Dans le cas où la déformation est uniforme, une poutre en extensioncompression, il n'y a pas de gradient thermique et les pertes thermoélastiques sont faibles. Cependant, au cours de l'extension, la longueur d'onde des phonons augmente avec l'augmentation de la maille du cristal et induit une réduction des fréquences des modes phonons ainsi que de l'énergie des modes (par rapport à la position d'équilibre). Le même raisonnement est appliqué pendant la phase de compression : la maille diminue impliquant une augmentation de la fréquence et de l'énergie. Les fréquences des modes propres des phonons sont donc modulées par la déformation plaçant le système hors équilibre thermodynamique à chaque étape successive d'extension ou de compression. Le retour à l'équilibre thermodynamique s'effectue à chaque fois par relaxation non-élastique de phonons accompagnée par une perte d'énergie. L'expression des pertes Akhiezer est donnée par l'expression (44) [92] : ܳ஺௄ா ൌ ߩܿ ସ ʹߨߛ ଶ ݂݇ܶ (44) Avec ߩ, c, k , T, f respectivement la densité du matériau cristallin, la vitesse du acoustique, k la conductivité thermique du matériau, T la température et ݂ la fréquence de la vibration. Le paramètre ߛ est appelé paramètre de Grüneisen et quantifie le couplage entre la déformation et les phonons thermiques. Nous pouvons faire plusieurs commentaires sur cette expression : i) pour un matériau donné dans le régime d'Akhiezer le produit ࡽ ൈ ࢌ est majoré par des paramètres intrinsèques au matériau et vaut par exemple ͵ǡʹ ൈ ͳͲଵଷ ‫ ݖܪ‬dans le cas du quartz, ii) l'expression n'est valable que dans le régime d'Akhiezer, c.-à-d. lorsque la durée de retour à l'équilibre thermodynamique est bien plus faible que la période de la vibration mécanique ce qui est vrai pour des fréquences < 10 GHz et pour des températures pas « trop » basses. Pour des températures inférieures à 10 K le temps de vie des phonons augmente et le facteur de qualité ܳ ne dépend plus de la fréquence de vibration, c'est le régime de Landau-Rumer, des 51 Šƒ’‹–”‡ʹǣŠ‘‹š†—‹ ”‘Ǧ”±•‘ƒ–‡—” facteurs de qualité supérieurs à 109 ont ainsi pu être mesurés sur des BVA vibrant à 5 MHz à 4 K [93]. • Qencastrement : le facteur de qualité à l'encastrement correspond à l'énergie perdue dans le support du résonateur. La structure vibrante est tenue par des attaches à un cadre ou à un support : cela peut être par exemple les connecteurs d'une embase, un point de colle au niveau de l'embase, ou un substrat sous-jacent dans le cas des wafers de type SOI. Lorsque le résonateur vibre, des forces peuvent s'exercer au niveau de ces attaches et si le déplacement n'est pas nul en ce point, une perte d'énergie apparaît. L'un des moyens les plus efficaces pour réduire ces pertes est de concevoir judicieusement la position de ces attaches et de les faire correspondre à des noeuds de vibration où le déplacement est minimisé. Un des intérêts majeurs de la conception des résonateurs par simulation utilisant la méthode des éléments finis (MEF) est de pouvoir judicieusement placer les zones d'ancrage, de modifier la structure et la géométrie du résonateur pour minimiser les fuites d'énergie vers le support, autrement dit de maximiser l'énergie dans la structure vibrante. • Qsurface : la miniaturisation des dispositifs conduit à une augmentation du rapport surface sur volume. Les effets de surface (défauts, contaminations), qui pouvaient être au préalable masqués par le volume, ne peuvent plus être négligés. Dans [94] et [95], des poutres en silicium vibrant en flexion présentant différentes épaisseurs (épaisseur désigne ici l'épaisseur géométrique et non l'épaisseur vibrante) ont été caractérisées et une dépendance linaire entre le facteur de qualité mesuré et l'épaisseur a été obtenue. Des améliorations significatives du facteur de qualité (gain d'un facteur >3) sont également mentionnées par traitement thermique (recuit pour désorber la couche d'oxyde natif ou les contaminants). • Qviscoélastique : dans le cas des résonateurs piézoélectriques, des électrodes sont généralement déposées directement sur le cristal pour réaliser l'excitation et la détection. Cette couche de métal est visqueuse et conduit à la dissipation d'énergie au niveau de l'interface cristal/métal. Ce phénomène a été observé dans le cas de poutres en flexion en dioxyde de silicium [96] ou en GaPO4 [97] Une conception pertinente de résonateur tend à minimiser les contributions à la perte d'énergie. Dans le cas de l'AQOMMM 3D, la conception et la précision de réalisation assurent un fort Qencastrement, la mise sous vide réduit considérablement les pertes par frottement avec les molécules du gaz ambiant, le 52 Šƒ’‹–”‡ʹǣŠ‘‹š†—‹ ”‘Ǧ”±•‘ƒ–‡—” rapport surface vibrante sur volume est faible, réduisant les pertes dues à la contamination de surface. L'absence d'électrodes sur le cristal assure qu'aucune énergie n'est dissipée par viscoélasticité. Le mode de vibration, l'extension-compression, n'introduit pas de gradient de déformation et assure donc peu de pertes thermoélastiques. Finalement, le mécanisme prépondérant est constitué par les pertes par diffusion des phonons dans le régime d'Akhiezer ce qui explique les facteurs de qualité très élevés obtenus. 2.3 Résonateur ARQOMM 2D mode fondamental Pour contourner les problèmes majeurs que sont l'excitation-détection et l'encombrement de l'ARQOMM 3D, deux versions modifiées ont été présentées en 2013 [98] et seront nommées ARQOMM 2D dans la suite du manuscrit. La Figure 35 montre les déplacements des deux structures de résonateurs ARQOMM 2D obtenus par simulations modales utilisant la méthode des éléments finis. Les géométries sont modelées à l'aide de l'interface graphique SAMCEF Field et les calculs sont résolus à l'aide du solveur OOFELIE Multiphysics. Les deux résonateurs ont pour points communs, i) la présence d'une poutre centrale vibrant en extension-compression de longueur, ii) la présence d'un moyen de découplage entre d'une part, la poutre centrale et d'autre part, le cadre et les attaches. La manière d'effectuer ce découplage constitue la différence entre les deux types de résonateur. Le résonateur de type 2 a été breveté par l'ONERA en 2013 [99]. J'ai travaillé à parfaire l'analyse des résonateurs ARQOMM 2D et à poursuivre leur développement. Figure 35 Simulations par éléments finis du déplacement des résonateurs inspirés de l'ARQOMM 3D, mode fondamental, haut : type I, bas : type II. La couleur rouge correspond au maximum de l'amplitude de déplacement tandis que le bleu correspond au minimum. 53 Šƒ’‹–”‡ʹǣŠ‘‹š†—‹ ”‘Ǧ”±•‘ƒ–‡—” La relation générale entre la fréquence de résonance ݂ d'une poutre encastrée libre vibrant en extension-compression de longueur et les dimensions géométriques et paramètres matériaux est la suivante : ݂௡ ൌ ݊ ‫ܧ‬ ඨ ʹ‫ߩ ܮ‬ (45) Avec L la longueur de la poutre dans la direction concernée, E le module d'Young suivant la direction de déplacement, ߩ la densité du matériau et n le numéro du mode. Dans le cas d'une poutre de quartz de longueur L en mm vibrant selon l'axe cristallin Y, cette relation s'écrit pour le mode fondamental (n=1): ݂ൌ Avec ‫ܧ‬௬ ൌ ଵ ௦మమ ͳ ͷǤͶ͵͸ ͳ ͳ ͳ ඨ ඨ ൌ ൌ ‫ݖܪܯ‬ ିଵଵ ʹ‫ݏߩ ܮ‬ଶଶ ʹ‫ͳ ܮ‬Ǥʹ͹͹ ͅ ͅͳͲ ‫Ͳͳ כ‬ ʹ‫ܮ‬ ‫ʹ כ‬Ǥ͸Ͷ ͅ (46) où est s22 le coefficient de souplesse de l'axe Y. Nous notons que cette relation est fonction des paramètres environnementaux, en particulier de la température : les valeurs numériques données ici sont valides pour une température de 25°C. Nous supposerons que l'ARQOMM 2D se comporte comme une double poutre encastrée-libre. L'équation de la fréquence pour le mode d'ordre n s'écrit alors : ݂௡ ൌ ݊ ʹǤ͹ͳ ͅ ‫ݖܪܯ‬ ‫ܮ‬ (47) Une justification de cette approximation sera présentée par la suite à l'aide de simulations éléments finis. La symétrie de la structure de l'ARQOMM 2D fait apparaître un point de déplacement minimal au centre de la poutre réalisant un noeud de vibration, comme illustré sur la Figure 36 représentant une simulation des amplitudes de déplacement de l'ARQOMM 2D de type I obtenues à l'aide de la méthode des éléments finis. Ce noeud de vibration ne se trouve au centre de la poutre que pour des modes impairs (n=1,3,5,), les modes pairs sont inefficaces pour confiner l'énergie acoustique, le déplacement étant maximum au centre de la poutre. 54 Šƒ’‹–”‡ʹǣŠ‘‹š†—‹ ”‘Ǧ”±•‘ƒ–‡—” Figure 36 Amplitude de déplacement relative simulée par la méthode des éléments finis de l'ARQOMM 2D de type I à sa fréquence de résonance vibrant à 2.96 MHz. Les zones rouges correspondent au maximum de l'amplitude de déplacement, les zones bleues au minimum. Toutefois, en effectuant un zoom sur l'échelle des déplacements, nous remarquons que le déplacement selon l'axe Y induit un déplacement suivant l'axe X comme illustré sur la Figure 37. Ce déplacement latéral est la traduction du coefficient de Poisson. Le noeud implémenté par un ancrage direct de la poutre dans cette région serait donc loin d'être idéal, ce qui conduirait à une perte importante d'énergie dans l'encastrement, et donc à une réduction drastique du facteur de qualité. L'idée du résonateur ARQOMM est de rajouter des étages pour réduire les déplacements indésirables dans les zones où se situeront les ancrages. La nécessité d'optimiser la forme des zones d'ancrage est caractéristique des micro-résonateurs monolithiques car la zone d'ancrage ne peut jamais être parfaitement rigide par rapport à la zone dite vibrante et, même si l'ancrage parvient à imposer un déplacement macroscopique très petit, l'énergie de déformation n'y est pas nulle. La zone d'ancrage se comporte alors comme une source rayonnant de l'énergie dans la structure de maintien extérieure. L'idéalisation des conditions aux limites que nous sommes contraints d'imposer en pratique au modèle éléments finis et les limitations d'espace mémoire peuvent induire des erreurs dans la détermination du Qencastrement, qui requiert donc des compétences et des ressources informatiques. 55 Šƒ’‹–”‡ʹǣŠ‘‹š†—‹ ”‘Ǧ”±•‘ƒ–‡—” Figure 37 Amplitude de déplacement relative simulée par la méthode des éléments finis de l'ARQOMM 2D de type I à sa fréquence de résonance vibrant à 2,96 MHz. Les zones rouges correspondent au maximum de l'amplitude de déplacement, les zones bleues au minimum. La poutre centrale n'a pas été sélectionnée afin de réaliser un zoom sur les zones adjacentes au centre de la poutre. Au centre de la poutre, le déplacement relatif n'est qu'environ 10 fois inférieur au déplacement maximal en bout de poutre illustrant la nécessité d'un système de découplage. 2.3.1 Résonateur de type I Les volumes latéraux du résonateur de type I agissent comme l'anneau de découplage de l'ARQOMM 3D : une distribution non–uniforme de déplacement X y apparaît, assimilable à un mode de flexion présentant certainement une composante de cisaillement compte tenu du fait que le volume concerné n'est pas élancé. La Figure 38a) représente la déformation du maillage obtenue en retenant uniquement la composante X du déplacement. Nous observons sur la Figure 38b), obtenue en retenant uniquement la composante Y dans la représentation du maillage déformé, que les volumes d'équilibrage ne sont le siège d'aucun déplacement significatif suivant cette direction. 56 Šƒ’‹–”‡ʹǣŠ‘‹š†—‹ ”‘Ǧ”±•‘ƒ–‡—” a) b) Figure 38 Amplitudes de déplacement de l'ARQOMM 2D de type I a) selon la composante X en phase de compression de la poutre, b) selon la composante Y en phase d'extension de la poutre. Nous noterons que les deux images ne correspondent pas à la même phase de la vibration mais sont proches de l'opposition de phase. Ce premier étage de découplage permet une réduction du déplacement : d'un facteur presque 1000 par rapport au déplacement maximal en bout de poutre comme représenté sur la Figure 39. Figure 39 Amplitude de déplacement de l'ARQOMM 2D de type I. Ni la poutre centrale ni les piliers latéraux n'ont été sélectionnés afin de réaliser un zoom sur les zones adjacentes aux piliers latéraux. Avec le second étage de découplage ce déplacement relatif est encore diminué d'un facteur 20. 57 Šƒ’‹–”‡ʹǣŠ‘‹š†—‹ ”‘Ǧ”±•‘ƒ–‡—” Figure 40 Amplitude de déplacement de l'ARQOMM 2D de type I. Ni la poutre centrale ni les piliers latéraux ni le seconde étage de découplage n'ont été sélectionnés afin de réaliser un zoom sur les zones adjacentes au second étage. Kawashima et al. [78] ont présenté un résonateur en quartz vibrant en extension de longueur autour du MHz possédant un étage de découplage proche de celui de l'ARQOMM 2D de type I antériorisant ainsi l'invention. L'équipe propose dans les différents articles une méthode de résolution appliquée à ce résonateur mais également à un autre résonateur en extension-compression de largeur [100] afin d'obtenir une équation paramétrique de la fréquence de résonance. Le Lagrangien est écrit pour le système constitué de la poutre centrale et de la structure de découplage en vue d'appliquer le théorème variationnel. Les déplacements sont écrits à l'aide des équations constitutives, une fois simplifiées par considération du matériau employé et de la géométrie. L'énergie cinétique de la poutre, l'énergie potentielle mécanique et le travail des pavés latéraux du cadre de découplage sont écrits à partir des déplacements avec prise en compte des conditions aux limites. Après application du théorème variationnel, une équation de déplacement est obtenue, puis résolue pour obtenir l'équation paramétrique de la fréquence incluant le déplacement latéral de la poutre. Pour obtenir une solution analytique exacte, des hypothèses comme l'absence de cisaillement dans la poutre et dans les piliers latéraux doivent être supposées. La première condition est certainement vérifiée du fait de l'élancement de la poutre centrale qui nous place dans les hypothèses de Bernoulli, la seconde n'est probablement pas vérifiée du fait de la largeur importante des piliers latéraux. Pour donner une idée de l'influence des paramètres géométriques sur la fréquence de résonnance du résonateur ARQOMM 2D de type I, j'ai réalisé des simulations par éléments finis permettant d'estimer l'influence de l'évolution des paramètres géométriques sur la fréquence de résonance : c'est une étude paramétrique. 58 Šƒ’‹–”‡ʹǣŠ‘‹š†—‹ ”‘Ǧ”±•‘ƒ–‡—” 2.3.1.1 Influence de la longueur de la poutre sur la fréquence de résonance Plusieurs homothéties de résonateurs sont conçues par simulations par éléments finis. La Figure 41 présente une vue de dessus du résonateur ARQOMM 2D avec les noms des grandeurs que nous utiliserons par la suite dans le document. La longueur de la poutre centrale L vaut ‫ ܮ‬ൌ ܾ݄ ൅ ʹ ൈ ܾͳܿ Figure 41 Dessin de l'ARQOMM 2D de type I avec les noms des cotes. Une face de cadre extérieur est clampée pour assurer le maintien mécanique. Nous cherchons la valeur de fréquence de résonance en fonction des variations des paramètres, la résolution s'effectue donc via une analyse modale. La Figure 42 montre le maillage : les zones proches de l'encastrement sont maillées finement car c'est à ce niveau que s'opèrent les pertes d'énergie de déformation. Figure 42 Maillage par simulation éléments finis de la structure ARQOMM 2D de type I. Les fréquences de résonance simulées sont tracées sur le graphe présenté en Figure 43 en fonction de ଵ l'inverse de la longueur de la poutre centrale ௅, les points s'alignent sur une droite de coefficient directeur 2,7258 MHz.mm quasi confondue avec le modèle analytique de la poutre simple représenté également sur le graphique. La différence relative de fréquence est maximale pour les hautes fréquences (longueur de poutre minimale), ici 10 MHz, et vaut moins de 0.3%. Nous pouvons donc 59 Šƒ’‹–”‡ʹǣŠ‘‹š†—‹ ”‘Ǧ”±•‘ƒ–‡—” conclure que vis-à-vis de la longueur de la poutre, le modèle de la poutre est suffisant pour décrire la variation de de fréquence de l'ARQOMM 2D de type I avec la longueur de la poutre centrale. Nous pouvons cependant noter que la fréquence de l'ARQOMM est très légèrement supérieure à la fréquence de la poutre équivalente du fait de la rigidification de la poutre centrale par le système de découplage. Cette observation rejoint la conclusion du travail de Kawashima obtenue à l'aide d'un modèle semi-analytique. Figure 43 Variation de la fréquence de résonance en Hz en fonction de l'inverse de la longueur centrale en mm-1 pour les résonateurs ARQOMM 2D de type I, les losanges bleus correspondent aux points de simulations, la courbe de tendance linéaire associée est en noir continu, la droite en pointillés rouges correspond à la courbe du modèle analytique de la poutre élancée encastrée-libre. 2.3.1.2 Influence des autres cotes sur la fréquence de résonance Pour estimer l'influence des autres cotes sur la fréquence de résonance du mode d'intérêt de la structure ARQOMM 2D de type I, nous réalisons par simulation une structure vibrante autour de 10 MHz puis nous nous décalons de ce point de fonctionnement de quelques dizaines de microns pour les cotes ࢇ૚ࢉ, ࢈૚࢒, ࢊ et ࢇ૚࢒Ǥ Les coefficients directeurs des linéarisations des graphes de fréquence de résonance simulée en fonction des variation de cote sont consignés dans la Table 7. Ces coefficients représentent la variation de fréquence pour une variation de 1 μm de la valeur de la cote autour du point de fonctionnement. 60 Šƒ’‹–”‡ʹǣŠ‘‹š†—‹ ”‘Ǧ”±•‘ƒ–‡—” Table 7 Variation absolue en Hz de la fréquence de résonance pour une variation de cote de 1 μm. Variation linéarisée de fréquence en Hz pour une variation de cote de 1 μm -592 a1c -285 b1l 29 a1l -184 d Pour la longueur L de la poutre, cette variation est calculée à partir du nombre dérivé : Nom de la cote ʹǤ͹ʹͷ ͅ ʹǤ͹ʹͷ ͅ ο݂ ൌെ ൌെ ൌ െ͵͸ǡ͹݇‫ݖܪ‬ȀɊ݉ ଶ ‫ܮ‬ ͲǤʹ͹ʹଶ ο‫ܮ‬ Cette valeur est bien plus grande que celles relatives aux autres cotes. La longueur de la poutre est donc la dimension primordiale à considérer pour le calcul de la fréquence de résonance de l'ARQOMM 2D de type I. 2.3.2 Résonateur de type II La conception de découplage du résonateur de type 2 est protégé par un brevet de 2013 [99]. Pour son découplage, il compte également deux piliers latéraux. Plus fins que dans le cas du type 1, ils sont de même longueur que la poutre centrale. Le mouvement de découplage se compose de la combinaison d'un déplacement en flexion selon l'axe X et d'un mouvement d'extension-compression suivant l'axe Y, comme illustré sur la Figure 44 où sont représentés les déplacements amplifiés du résonateur suivant les axes principaux. b) a) Figure 44 Amplitudes de déplacement de l'ARQOMM 2D de type II a) selon la composante X en phase de compression de la poutre, les piliers latéraux sont en mouvement de flexion, b) selon la composante Y en phase d'extension de la poutre. Nous noterons que les deux images ne correspondent pas à la même phase de la vibration mais sont proches de l'opposition de phase. 61 Šƒ’‹–”‡ʹǣŠ‘‹š†—‹ ”‘Ǧ”±•‘ƒ–‡—” L'amplitude de déplacement est ainsi réduite d'un facteur 1500 au niveau des zones d'encastrement par rapport au maximum d'amplitude en bout de poutre centrale comme l'illustrent les Figure 45 et Figure 46 où sont représentées respectivement les amplitudes de déplacement obtenues par simulations de la structure complète et après un gros plan sur les zones d'ancrage. Figure 45 Amplitude de déplacement de l'ARQOMM 2D de type II pendant la phase d'extension du pilier central. Figure 46 Amplitude de déplacement de l'ARQOMM 2D de type II. Ni la poutre centrale ni les piliers latéraux ni le second étage de découplage n'ont été sélectionnés afin de réaliser un zoom sur les zones adjacentes au cadre découplage et la zone d'ancrage. Du fait de sa structure présentant trois poutres de même longueur, le résonateur possède des modes de fréquences voisines, modes présentant une dominante proche d'extension-compression de longueur. Ces modes sont représentés sur les Figure 48 et Figure 49. Le mode d'intérêt est également représenté sur la Figure 47. Les trois modes sont présentés en géométrie déformée pour mieux rendre compte des modes de vibration et de leurs différences. 62 Šƒ’‹–”‡ʹǣŠ‘‹š†—‹ ”‘Ǧ”±•‘ƒ–‡—” Figure 47 Déformée amplifiée du déplacement du mode d'intérêt du résonateur ARQOMM 2D de type II. Figure 48 Déformée amplifiée du déplacement du mode suivant le mode d'intérêt du résonateur ARQOMM 2D de type II. Les piliers latéraux vibrent en opposition de phase en extension-compression, La poutre et les piliers vibrent en phase en mouvement de flexion. 63 Šƒ’‹–”‡ʹǣŠ‘‹š†—‹ ”‘Ǧ”±•‘ƒ–‡—” Figure 49 Déformée amplifiée du déplacement du mode sur suivant le mode d'intérêt du résonateur ARQOMM 2D de type II. Les trois poutres vibrent en opposition en phase en extension compression. Les fréquences de ces modes de vibration sont voisines de celle du mode de vibration d'intérêt principal : pour un mode d'intérêt vibrant à 2,959 MHz, le premier mode indésirable est à moins de 2.5 kHz et le second à moins de 3 kHz. Ces modes indésirables peuvent éventuellement interférer – se coupler – avec le mode d'intérêt, une partie de l'énergie apportée par l'électronique d'entretien de l'oscillateur sera alors consommée dans ces modes indésirables, dégradant les performances. 2.3.2.1 Influence des cotes sur la fréquence de résonance Nous menons la même étude que dans cas de l'ARQOMM 2D de type I, la Figure 51 présente les noms des dimensions du résonateur de type II. Figure 50 Dessin de l'ARQOMM 2D de type II avec les noms des cotes 64 Šƒ’‹–”‡ʹǣŠ‘‹š†—‹ ”‘Ǧ”±•‘ƒ–‡—” Comme dans le cas précédent de l'ARQOMM 2D de type I, nous simulons le comportement modal de la structure. Dans un premier temps, nous avons effectué des homothéties de la structure et nous relevons la fréquence de résonance du mode d'intérêt. Nous avons ainsi observé que le comportement de l'ARQOMM 2D de type II est globalement assimilable au comportement d'une poutre élancée comme illustré sur la Figure 51, où les points de simulations, la courbe de tendance et la courbe de la poutre élancée sont confondus. Le coefficient directeur de la courbe de tendance est naturellement proche de celui de l'ARQOMM de type 1 et vaut 2,7247 MHz.mm. Figure 51 Variation de la fréquence de résonance en Hz en fonction de l'inverse de la longueur centrale en mm-1 pour les résonateurs ARQOMM de type II, les losanges bleus correspondent aux points de simulations, la courbe de tendance linéaire associée est en noir continu et la droite en pointillés rouges correspond au modèle analytique de la poutre élancée encastrée libre. Table 8 Variation absolue en Hz de la fréquence de résonance pour une variation de cote de 1 μm type 2 Nom de la cote Variation linéarisée de fréquence en Hz pour une variation de cote de 1 μm -576 ࢇ૚ࢉ -166 ࢈૚࢒ -22 ࢇ૚࢒ La variation d'1 μm de la longueur L de la poutre vibrant à 10 MHz se traduit par une variation de fréquence de -36.8 kHz. 65 Šƒ’‹–”‡ʹǣŠ‘‹š†—‹ ”‘Ǧ”±•‘ƒ–‡—” ʹǤ͹ʹͶ͹ ο݂ ൌെ ൌ െ͵͸ǡ ݇ͅ‫ݖܪ‬ȀɊ݉ ͲǤʹ͹ʹଶ ο‫ܮ‬ Comme dans le cas du résonateur ARQOMM 2D de type 1, la longueur de la poutre centrale est bien la dimension à considérer pour le calcul de la fréquence. 2.4 Facteur de qualité du mode fondamental du résonateur ARQOMM 2D Nous venons de voir que le comportement fréquentiel des résonateurs ARQOMM 2D était proche de celui d'une poutre élancée. Qu'en est-il du facteur de qualité ? 2.4.1 Facteur de qualité à l'encastrement J'ai réalisé des simulations en résolution modale afin d'estimer le facteur de qualité à l'encastrement. Une face du cadre extérieur est encastrée pour assurer le maintien mécanique. Nous réalisons le rapport de l'énergie de déformation de l'ensemble de la structure sur celle comprise dans le cadre qui est considérée comme fuyant de la partie vibrante et donc perdue. Nous notons que cette manière de contraindre le résonateur nous place dans le régime le plus favorable en imposant un déplacement nul sur la face du cadre extérieur, ce qui constitue une idéalisation de l'analyse. L'estimation du facteur de qualité à l'encastrement d'un résonateur vibrant autour de 10 MHz est supérieur à ͳͲଵ଴ dans le cas du résonateur ARQOMM 2D de type I et supérieur à ͳͲ଻ pour le type II. Les produits ܳ ൈ ݂ réalisés sont supérieurs à la limite théorique dans le régime d'Akhiezer. Cela montre que le facteur de qualité à l'encastrement des structures ARQOMM n'est pas limitant pour une gamme de fréquences de résonance comprises entre 2 et 10 MHz. Pour illustrer l'efficacité du découplage des résonateurs ARQOMM 2D, nous avons également mené des simulations modales sur une structure de poutre simple contrainte dans les mêmes conditions. Comme représenté sur la Figure 52, le mode d'intérêt vibre à 2.96 MHz. 66 Šƒ’‹–”‡ʹǣŠ‘‹š†—‹ ”‘Ǧ”±•‘ƒ–‡—” Figure 52 Amplitude de déplacement relative simulée par la méthode des éléments finis d'une poutre simple à sa fréquence de résonance vibrant à 2.96 MHz. Les zones rouges correspondent au maximum de l'amplitude de déplacement, les zones bleues au minimum. L'espace entre la poutre et le cadre de découplage vaut 202 μm. Nous avons fait varier la distance entre la poutre et le cadre de découplage, et le facteur de qualité à l'encastrement simulé est tracé en fonction de cette distance sur le graphe présenté en Figure 53. Figure 53 Variation du facteur de qualité à l'encastrement simulé d'une poutre simple vibrant à 2.96 MHz en fonction de la longueur des bras entre la poutre le cadre de découplage. Le facteur de qualité à l'encastrement ne dépasse pas 100 000 dans le cas de la poutre simple et s'avère donc au moins 100 fois inférieur à celui de l'ARQOMM 2D. Il n'est a priori pas limitant dans le cas des résonateurs ARQOMM 2D et témoigne d'une conception pertinente. 2.4.2 Facteur de qualité limitant Parmi les mécanismes de pertes restant à évaluer, nous pouvons raisonnablement penser que les facteurs Qair et QTED ne seront pas limitants car d'une part le résonateur sera placé dans un boîtier sous vide, et d'autre part le mode de vibration principal est l'extension-compression qui ne présente pas de 67 Šƒ’‹–”‡ʹǣŠ‘‹š†—‹ ”‘Ǧ”±•‘ƒ–‡—” gradient de déformation impliquant un gradient de température et une perte d'énergie par transport de chaleur. Le mécanisme limitant apparaît donc être celui lié au dépôt d'électrodes métalliques sur la structure vibrante pour réaliser l'excitation et la détection du signal. Cette couche de métal dissipe de l'énergie par amortissement visqueux à chaque cycle de vibration. Un modèle a été proposé dans le cas de l'ARQOMM 2D et s'applique de manière plus générale aux résonateurs en extension-compression [101]. Ce modèle s'écrit comme le rapport de l'énergie de déformation sur l'énergie dissipée par viscosité dans la couche métallique et prend en compte la variation de la viscosité en fonction de la fréquence par une linéarisation de points expérimentaux issus de la littérature. L'expression simplifiée de ce modèle est la suivante : ܳ௩௜௦௖௢±௟௔௦௧௜௤௨௘ ൌ ߙ ‫ܧ‬௤௨௔௥௧௭ ݄௤௨௔௥௧௭ ߟ ሺ݂ሻ݂݄௘ (48) Avec ‫ܧ‬௤௨௔௥௧௭ le module d'Young du quartz en Pa, ߟ ሺ݂ሻ est la viscosité de l'or en fonction de la fréquence en Pa/s, ݂ la fréquence en Hz, ௛೜ೠೌೝ೟೥ ௛೐ est le rapport de l'épaisseur vibrante de quartz sur l'épaisseur de métal, ݄௤௨௔௥௧௭ est généralement exprimé en μm et ݄௘ en nm. La grandeur ߙ dépend de la configuration des électrodes et nous l'avons maintenue constante pour les différentes homothéties que nous avons explorées. Le facteur de qualité d'un résonateur ARQOMM 2D vibrant à 3 MHz sur le mode fondamental avec des électrodes sur une seule face est estimé à 600 000, le produit ܳ ൈ ݂ attendu est donc de l'ordre de ʹ ൈ ͳͲଵଶ ‫ݖܪ‬. Pour cette estimation, l'épaisseur vibrante de quartz est de 90 μm et les électrodes en or ont une épaisseur fixée à 200 nm. Nous pouvons estimer ܳ௩௜௦௖௢±௟௔௦௧௜௤௨௘ des autres homothéties avec la relation (49) : ܳ௩௜௦௖௢±௟௔௦௧௜௤௨௘ ݄௤௨௔௥௧௭ ݂ ଴Ǥଶ ൌ  ‫ כ‬൬ ൰ ൈ ͳǤͳͶͷ ൈ ͳͲ଺ ͳǤ͵ ݄௘ (49) Avec ݄௤௨௔௥௧௭ l'épaisseur vibrante de quartz en μm, ݄௘ l'épaisseur d'électrode en or et ݂ la fréquence de résonance en MHz. Nous pouvons faire plusieurs commentaires sachant que dans le cas d'un autre matériau que de l'or, la viscosité ߟ serait naturellement différente. De manière intuitive nous avons intérêt à maximiser le rapport ௛೜ೠೌೝ೟೥ ௛೐ , c.-à-d. à utiliser des poutres épaisses et des électrodes les plus fines possibles. Nous remarquons également que l'augmentation de la fréquence de résonance s'accompagne d'une amélioration du facteur de qualité, toutefois la prise en compte de la fréquence dans le calcul de la viscosité est faite avec des points expérimentaux allant jusqu'à 1,5 MHz. Nous 68 Šƒ’‹–”‡ʹǣŠ‘‹š†—‹ ”‘Ǧ”±•‘ƒ–‡—” devons être prudents dans nos estimations et les considérer comme une approximation et non un objectif à atteindre à l'unité près. Les facteurs de qualité totaux des résonateurs ARQOMM 2D de type I et II sont a priori limités par les pertes viscoélastiques. 2.5 Résonateurs ARQOMM 2D : modes partiels ou harmoniques L'équation (47) donne la relation entre la fréquence des modes d'intérêt et les paramètres matériaux. Outre le mode fondamental (n=1), il est également possible d'exciter les modes d'ordres supérieurs ou modes partiels ou harmoniques. La Figure 54 montre les simulations de l'amplitude du déplacement des modes partiels d'ordre 3 pour les résonateurs ARQOMM 2D de type I et II. Type I Type II Figure 54 Simulations des amplitudes de vibrations du mode partiel d'ordre 3 des résonateurs ARQOMM haut : de type I, bas : de type II. La Figure 54 fait apparaître des déplacements importants dans les piliers latéraux dans le cas du résonateur ARQOMM 2D de type I et dans le seconde cadre de découplage dans le cas du résonateur ARQOMM 2D de type II. La présence de ces déplacements nous amène à penser que la conception de découplage des résonateurs ARQOMM 2D n'est pas optimisée pour les modes partiels. Cela est confirmé par les simulations éléments finis réalisées sur les modes partiels d'ordre 3 dans les mêmes conditions : le facteur de qualité à l'encastrement n'est plus que de quelques millions pour le 69 Šƒ’‹–”‡ʹǣŠ‘‹š†—‹ ”‘Ǧ”±•‘ƒ–‡—” résonateur ARQOMM 2D de type I et peine de 100 000 pour le type II et devient donc dans ce dernier cas le facteur de qualité limitant. Nous remarquons que pour des raisons de symétrie, il n'est possible d'exciter que les modes impairs. Les modes propres pairs peuvent exister mais il faudrait d'autres configurations pour les exciter. Nous discutons de la conception et de la configuration des électrodes dans la section suivante. 2.6 Conception des électrodes L'excitation et la détection du mode de vibration sont simplement réalisées par l'intermédiaire d'électrodes déposées directement sur le cristal en profitant de la piézoélectricité du quartz. Pour maximiser le couplage électromécanique, il faut placer judicieusement ces électrodes pour collecter un maximum de charges. La vibration du mode désiré est principalement orientée selon l'axe Y, le champ à appliquer doit donc être orienté suivant l'axe X, compte tenu de la structure du tenseur des coefficients piézoélectriques du quartz. Le champ électrique le plus intense que nous pourrions obtenir avec la coupe Z du quartz serait entretenu par des électrodes dans le plan ZY comme montré sur la Figure 55a), ce qui impliquerait le développement de dépôts métalliques latéraux. Pour simplifier le procédé de fabrication nous créerons et maintiendrons le champ électrique suivant l'axe X en déposant des bandes d'électrodes suivant l'axe Y sur une seule face, comme montré sur la Figure 55b). Une amélioration de la collecte de charges peut être envisagée avec des bandes d'électrodes sur les deux faces comme montré Figure 55c), cependant ce procédé n'est pas compatible pour le moment avec le moyen de fabrication mis en oeuvre, qui sera détaillé dans le chapitre suivant. Figure 55 Schéma d'électrodes pour l'excitation et la détection du résonateur ARQOMM a) idéal, b) réalisé, c) réalisable. 70 Šƒ’‹–”‡ʹǣŠ‘‹š†—‹ ”‘Ǧ”±•‘ƒ–‡—” Nous détaillons ici le lien entre la résistance motionnelle décrite dans le schéma équivalent de la Figure 14 et les charge collectées au niveau des électrodes. A la résonance, l'admittance équivalente est la suivante : ͳ ൅ ݆߱௦ ‫ܥ‬଴ ܴ௠ ܻሺ߱ ൌ ߱௦ ሻ ൌ (50) En appliquant un potentiel ܸା sur une électrode, et ܸି sur l'autre. Appelons ܸ଴ la différence des potentiels, ܸ଴ ൌ ܸା െ ܸି . En supposant le régime sinusoïdal forcé, le courant complexe dans le circuit s'écrit : ‫ ܫ‬ሺ߱ ൌ ߱௦ ሻ ൌ ݆߱௦ ‫ݍ‬ሺ߱ ൌ ߱௦ ሻ ൌ ܸ଴ ܻሺ߱ ൌ ߱௦ ሻ (51) Avec q la charge collectée sur une électrode, qui peut s'écrire sous la forme : ‫ݍ‬ሺ߱ ൌ ߱௦ ሻ ൌ ܸ଴ ͳ ሺ ൅ ݆߱௦ ‫ܥ‬଴ ሻ ݆߱௦ ܴ௠ (52) ܸ଴ ‫݉ܫ‬ሺ‫ݍ‬ሻ߱௦ (53) En isolant ܴ௠ il vient : ܴ௠ ൌ Avec Im(q) la partie imaginaire des charges qui est maximale à la résonance. Il est possible d'obtenir la charge électrique totale d'une électrode en effectuant une simulation MEF en régime harmonique en imposant sur les électrodes les potentiels V+ et V-. Nous remarquons que nous pouvons également en déduire la valeur de C0 par : ‫ܥ‬଴ ൌ ܴ݁ሺ‫ݍ‬ሻ ܸ଴ (54) Nous reviendrons par la suite sur les résultats de simulations afin de déterminer la résistance motionnelle. Nous utilisons les simulations MEF en résolution modale afin de faire apparaitre les charges surfaciques. Pour ce faire nous appliquons un potentiel nul sur l'une des faces du wafer et un potentiel uniforme non nul sur l'autre : pour assurer ce potentiel, le cristal fait apparaître spontanément des charges surfaciques : ce sont les charges que nous voulons collecter. 71 Šƒ’‹–”‡ʹǣŠ‘‹š†—‹ ”‘Ǧ”±•‘ƒ–‡—” 2.6.1 Mode fondamental La Figure 56 donne la répartition des charges surfaciques pour le mode fondamental d'un ARQOMM 2D type I : il apparaît clairement que les charges surfaciques se répartissent de part et d'autre le long de la poutre centrale. Une cartographie de charges similaire est obtenue pour le résonateur ARQOMM 2D de type II. Figure 56 Charges surfaciques du mode fondamental de l'ARQOMM type I Les simulations par éléments finis renvoient une valeur de 3,2 kŸ pour un facteur de qualité fixé à 250 000 pour le réseau d'électrodes sur une face du résonateur comme présenté sur la Figure 57. Figure 57 Réseau d'électrodes simulé pour le mode fondamental, l'électrode de gauche en bleu est mise à 1V (symbole V encerclé) tandis que celle de droite en rouge est mise à 0 V (symbole de masse électrique). Nous notons qu'à géométrie de résonateur et de réseau d'électrodes donnés le produit ܳ ൈ ܴ௠ est une constante. Un gain d'un facteur 2 sur le facteur de qualité a pour conséquence une diminution d'autant de la résistance motionnelle. Pour faciliter la réalisation des résonateurs nous avons décidé de ne déposer les électrodes que sur une face, l'autre face n'étant pas accessible du fait des cavités. En supposant que nous sommes en mesure de déposer des électrodes sur les deux faces du résonateur, 72 Šƒ’‹–”‡ʹǣŠ‘‹š†—‹ ”‘Ǧ”±•‘ƒ–‡—” nous collectons le double de charges et donc pouvons gagner un facteur 2 sur la résistance motionnelle (à facteur de qualité fixe). 2.6.2 Mode partiel Le même raisonnement est suivi pour le premier mode harmonique (n=3) vibrant à trois fois la fréquence du mode fondamental. La répartition des charges surfaciques est montrée sur la Figure 58 pour le premier harmonique. La répartition est naturellement plus complexe que dans le cas précédent : la poutre est comme divisée en trois poutres de longueur trois fois plus petite que la poutre physique et les charges sont alternées. Ce dernier point est problématique si nous souhaitons exciter le mode en question avec la disposition des électrodes retenue pour le mode fondamental : en effet, la collecte des charges sera peu efficace et un tiers des charges collectées sera compensé par un autre tiers laissant finalement peu de charges effectives et un champ électrique selon X faible comme illustré sur la Figure 59. Figure 58 Charges surfaciques du mode partiel de l'ARQOMM type I. Figure 59 Equivalence de la collecte des charges du mode partiel vibrant à 3 fois la fréquence du fondamental. 73 Šƒ’‹–”‡ʹǣŠ‘‹š†—‹ ”‘Ǧ”±•‘ƒ–‡—” Les électrodes des résonateurs caractérisés dans ce travail de thèse étaient initialement conçues pour exciter le mode fondamental. Nous pouvons donc attendre une meilleure valeur, plus faible, de résistance motionnelle que celle mesurée sur le mode partiel. Nous illustrons ce propos avec l'aide des simulations par éléments finis : nous fixons un facteur de qualité, ici 250 000, nous modifions la géométrie des électrodes et relevons la quantité de charges imaginaires au niveau d'une électrode à la résonance. Avec les électrodes réalisées en pratique montrées en Figure 57, la résistance motionnelle simulée pour le mode partiel est proche de 9 kŸ et de 3 kŸ pour le mode fondamental. Au vu de la cartographie des charges, les électrodes idéales pour le mode partiel sont présentées sur la Figure 60a) : des électrodes alternées de longueurs sensiblement égales et de longueur égale à un tiers de la poutre centrale. Avec cette configuration, la résistance motionnelle chute jusqu'à atteindre 1,1 kŸ soit un gain d'une décade par rapport à la configuration précédente. Toutefois la configuration idéale n'est pas réalisable en pratique car il faut connecter les électrodes, une première étape évidente consiste à connecter deux des trois morceaux d'électrodes (configuration 2/3) comme montré sur la Figure 60b). Avec cette configuration, la résistance motionnelle est proche de 7.2 kŸ, ce qui est une amélioration par rapport à la configuration initiale mais est nettement dégradée par rapport à la configuration idéale. Une solution optimale et réaliste consiste à connecter les trois morceaux d'électrodes par un ruban d'électrodes comme montré sur la Figure 61 au niveau des extrémités de la poutre centrale et par une petite bande en diagonale. Dans le cas le plus idéal, c'est-à-dire sans décalage dû aux erreurs d'alignement de photolithographie ou de sous-gravures, la résistance motionnelle simulée est de 2,1 kŸ. Cette valeur augmente jusqu'à 2.4 kŸ avec la prise en compte des défauts importants d'alignement ou de sous gravure des électrodes. Toutes ces configurations avec les rubans alternées sont défavorables au mode fondamental qui voit sa résistance motionnelle grimper à 14 kŸ dans le cas de la Figure 60b) et dépasse 48 kŸ dans le cas de la configuration de la Figure 61. 74 Šƒ’‹–”‡ʹǣŠ‘‹š†—‹ ”‘Ǧ”±•‘ƒ–‡—” a b Figure 60 Configurations envisagées pour le mode partiel : a) la configuration idéale, b) configuration avec 2 segments sur 3 connectés. Les rubans de même couleur subissent le même potentiel, l'un est nul l'autre uniforme non nul. Figure 61 Configuration d'électrodes optimale et réaliste, à droite un gros sur les connexions des trois segments. Les résultats de simulations sont synthétisés dans la Table 9. Table 9 Synthèse des résultats de simulations de la résistance motionnelle en fonction des différentes configurations d'électrodes. Fréquence (MHz) Facteur de qualité imposé Rm (kŸ) Configuration mode fondamental Figure 57 Configuration mode partiel « 2/3 » Figure 60b) Configuration mode partiel idéale Figure 60a) Configuration mode partiel optimale Figure 61 Mode fondamental Mode partiel (n=3) 2.2 250 000 3 6.6 250 000 9 8 7.2 1250 1.1 48 2.4 De cette étude, nous concluons qu'il est impossible d'exciter simultanément de manière optimale le mode fondamental et le mode partiel. Le meilleur compromis parmi les configurations proposées est la 75 Šƒ’‹–”‡ʹǣŠ‘‹š†—‹ ”‘Ǧ”±•‘ƒ–‡—” configuration pour le mode fondamental : nous pourrons ainsi exciter de manière efficace le mode fondamental et de manière raisonnablement efficace le mode partiel (sous réserve d'obtention d'un haut facteur de qualité), c'est la configuration que nous choisissons en vue de la réalisation des ARQOMM 2D. 2.7 Conclusion du chapitre 2 Nous avons décrit le fonctionnement des ARQOMM 2D de types I et II issus d'un résonateur plus massif à grand facteur de qualité. A l'aide de simulations par éléments finis nous avons montré que la fréquence de résonance des modes d'intérêt était principalement fonction de la longueur de la poutre centrale et donc que le comportement fréquentiel des résonateurs ARQOMM 2D était similaire à celui d'une simple poutre encastrée-libre. L'analyse par éléments finis indique que la conception permet effectivement de minimiser les pertes à l'encastrement pour qu'elles ne constituent pas, a priori, le mécanisme limitant. Le facteur limitant supposé est dû à l'amortissement visqueux des électrodes, le facteur de qualité attendu est estimé à 600 000 pour un résonateur vibrant à 3 MHz. Le produit ܳ ൈ ݂ attendu avoisine donc ʹ ൈ ͳͲଵଶ ‫ݖܪ‬. Nous avons également présenté le réseau d'électrodes qui sera employé. Celui-ci n'est pas totalement optimal en raison de compromis imposés par les contraintes de fabrication du résonateur. Cette fabrication fait l'objet du chapitre suivant. 76 Šƒ’‹–”‡͵ǣ‹•‡‡à—˜”‡–‡ Š‘Ž‘‰‹“—‡ Chapitre 3 : Mise en oeuvre technologique L'ARQOMM 2D est un résonateur à fort potentiel en vue de réaliser des oscillateurs de haute stabilité capables de rivaliser avec les performances des pastilles de quartz en cisaillement d'épaisseur, aujourd'hui à l'état de l'art, tout en offrant un gain en matière d'encombrement, de consommation et de fabrication. En particulier, un avantage significatif de l'ARQOMM 2D par rapport à la technologie historique est la possibilité de le réaliser collectivement diminuant ainsi drastiquement les coûts de fabrication. Toutefois les procédés technologiques nécessitent encore un développement pour atteindre un niveau de maturité suffisant à la production. Nous montrons dans un premier temps que le moyen de gravure habituel des résonateurs en quartz, la gravure chimique par voie humide, n'est pas adaptée en vue de la réalisation des ARQOMM 2D : cette méthode de gravure est anisotrope et fait apparaître des figures d'attaque qui deviennent bloquantes dès que le rapport d'aspect dépasse l'unité. Dans la deuxième section du chapitre, nous présentons le moyen de gravure adapté à la réalisation des motifs des ARQOMM 2D, la gravure réactive ionique profonde du quartz : c'est une méthode de gravure sèche assistée par plasma. La combinaison d'un bombardement ionique et le choix d'une chimie fluorocarbonée permettent d'obtenir une gravure directionnelle et sélective. La troisième section de ce chapitre se focalise sur la façon dont les verrous technologiques ont été levés pour permettre la réalisation de dispositifs. L'étude bibliographique et les équipements disponibles ont conduit à privilégier la réalisation d'un masque de gravure en nickel de plusieurs microns d'épaisseur : j'ai été amené en conséquence à optimiser un procédé de photolithographie adapté au dépôt par pulvérisation cathodique de façon à le rendre compatible avec une telle épaisseur en utilisant une structure multicouche de résines. La qualité du fond de gravure a également fait l'objet d'une attention particulière : j'ai mis en évidence l'amélioration de cette caractéristique par la préparation des parois de la chambre et par l'ajout d'oxygène dans la recette. Enfin, j'ai observé le phénomène de baisse de la vitesse de gravure avec l'augmentation du rapport d'aspect permettant d'appréhender les limites de la gravure utilisée. 77 Šƒ’‹–”‡͵ǣ‹•‡‡à—˜”‡–‡ Š‘Ž‘‰‹“—‡ 3.1 Limitation de la gravure chimique par voie humide Le défi réside dans la reproduction de la géométrie souhaitée. En particulier, l'obtention de flancs quasi-verticaux est impossible dans bien des cas avec la gravure chimique par voie humide. La gravure chimique par voie humide est le plus souvent réalisée dans une solution mélangeant de l'acide fluorhydrique (HF) et de fluorure d'ammonium (NH4F). Il est également possible de graver le quartz dans une solution basique de soude (NaOH) chauffée à haute température (400°C) [102]. La gravure utilisant le mélange HF-NH4F est fortement anisotrope : la vitesse de gravure et le profil de gravure dépendent des plans cristallins. La composition et la température du bain de gravure modifient fortement la vitesse de gravure et l'anisotropie. Toutefois, la vitesse de gravure est bien plus élevée suivant l'axe cristallin Z [87] que suivant les autres axes, et ce d'un facteur pouvant atteindre plusieurs centaines. L'anisotropie de gravure conduit à la révélation de plans cristallins et à l'apparition de figures d'attaque. De telles figures d'attaque (ou facettes) sont illustrées sur la Figure 62 dans le cas de poutres orientées selon les axes cristallins Y et X pour différents mélanges de bains de gravure. Les vues en coupe des poutres présentées sur la Figure 61 correspondent à celles obtenues en gravant simultanément les deux faces d'une plaque de quartz en coupe Z dans une solution de gravure de HF ou un mélange NH4F-HF. Figure 62 Figures d'attaque obtenues par usinage chimique humide pour deux poutres taillées dans un wafer en coupe et orientées selon les axes X et Y et pour deux bains de gravures différentes, tiré de la référence [103]. Pour donner une idée des contraintes qu'implique l'apparition de ces facettes, nous pouvons faire le calcul du rapport maximum pour le débouchage de la structure. Soit ݁‫ ݓ‬l'épaisseur du wafer, ݀௠௔௫ la largeur minimale de la tranchée permettant d'obtenir une gravure débouchante et ߙ l'angle du trièdre comme représenté sur la Figure 63. Le rapport d'aspect maximum ‫ܣ‬௠௔௫ ൌ 78 ௘௪ ௗ೘ೌೣ assurant le Šƒ’‹–”‡͵ǣ‹•‡‡à—˜”‡–‡ Š‘Ž‘‰‹“—‡ débouchage est, dans le cas de la solution NH4F-HF, de 4,3 pour la poutre selon l'axe Y et de 1,3 pour celle selon X. La figure d'attaque selon X semble particulièrement contraignante puisque le rapport d'aspect de l'ARQOMM est de 0,88. Figure 63 Configuration limite pour laquelle la figure d'attaque bloque le débouchage. Sans compter les dissymétries introduites par l'apparition des facettes bloquantes, le débouchage n'est pas certain avec ces premiers calculs. Nous complétons l'étude par une analyse sur une structure de résonateur ARQOMM 2D de type 2 à l'aide d'un logiciel spécialisé. 3.1.1 Simulations de gravure humide de résonateurs ARQOMM vibrant à 3 MHz avec le logiciel Fabmeister La structure réelle de nos résonateurs est plus complexe que celle des poutres simples : la géométrie est un ensemble de poutres selon l'axe Y reliées entre elles par une poutre fine selon l'axe X, et une cavité se trouve en face arrière. Cette cavité nous permet d'ajuster l'épaisseur vibrante du résonateur indépendamment de l'épaisseur du wafer, ce qui offre la possibilité de travailler avec des wafers épais moins fragiles. Pour prédire les facettes obtenues après gravure sur des résonateurs ARQOMM 2D de type II, nous avons utilisé un logiciel FabMeister3 spécifiquement conçu pour cela. Le résonateur simulé possède un espace inter-poutres 102 μm (d = 102 μm). Les simulations montrent qu'un usinage d'une durée de 6 heures avec la solution de gravure ONERA est nécessaire pour atteindre l'épaisseur cible des résonateurs de 90 μm lorsqu'on utilise au départ un wafer de quartz de coupe Z d'épaisseur de 200 μm. On constate cependant que le débouchage de la structure est incomplet : la structure est certes bien débouchée de part et d'autre des poutres lorsqu'on est suffisamment éloigné du centre de la structure comme illustré sur la Figure 64. Après un usinage simulé dans la solution de gravure 3 FabMeister est un logiciel permettant de simuler la gravure chimique par voie humide des matériaux comme le quartz ou le silicium et ce pour différents bains de gravure. Le logiciel utilise comme données les mesures expérimentales de vitesse de gravure obtenue par gravure d'une boule de quartz. A partir de la forme résultant de la gravure de cette boule de quartz, les vitesses de gravures suivant toutes les orientations de l'espace sont connues. La simulation tient donc compte de l'anisotropie du quartz. 79 Šƒ’‹–”‡͵ǣ‹•‡‡à—˜”‡–‡ Š‘Ž‘‰‹“—‡ ONERA de 6 heures à 22°C pour un wafer de quartz de coupe Z d'épaisseur de 200 μm, le débouchage de la structure est complet selon la direction Y en haut de la poutre comme illustré sur la Figure 64. Toutefois, la structure n'est débouchée ni au pied des poutres comme présenté sur la Figure 65, ni au sommet des poutres comme illustré sur la Figure 66 : les poutres ne sont donc pas libres de se mouvoir. On conclut alors qu'un résonateur d'épaisseur vibrante 90 μm avec des motifs ayant un rapport d'aspect cible de 0,88 n'est pas usinable chimiquement par voie humide dans ces conditions. Figure 64 Haut : géométrie de résonateur ARQOMM de type 2 vibrant à 3 MHz après simulation d'usinage de 6h en utilisant les conditions de gravure ONERA. Section de poutres du résonateur selon l'axe X le long de la ligne rouge. 80 Šƒ’‹–”‡͵ǣ‹•‡‡à—˜”‡–‡ Š‘Ž‘‰‹“—‡ Figure 65 Haut : géométrie de résonateur ARQOMM de type 2 vibrant à 3 MHz après simulation d'usinage de 6h en utilisant les conditions de gravure ONERA. Section de poutres du résonateur selon l'axe Y le long de la ligne rouge. Figure 66 Haut : géométrie de résonateur ARQOMM de type 2 vibrant à 3 MHz après simulation d'usinage de 6h en utilisant les conditions de gravure ONERA. Section de poutres du résonateur selon l'axe Y le long de la ligne rouge Le débouchage entre les poutres s'améliore avec des inter-espaces plus importants comme montré sur les Figure 67 et Figure 68 où la gravure d'un résonateur ARQOMM avec un espace inter-poutres d=152 μm a été simulée. En particulier la poutre selon l'axe cristallin Y est complètement débouchée. 81 Šƒ’‹–”‡͵ǣ‹•‡‡à—˜”‡–‡ Š‘Ž‘‰‹“—‡ Figure 67 Gauche géométrie de résonateur ARQOMM de type 2 vibrant à 3 MHz après simulation d'usinage de 6h en utilisant les conditions de gravure ONERA. Droite : zoom sur les figures d'attaques au niveau de la jonction des poutres. Figure 68 Section de poutres du résonateur selon l'axe Y le long de la ligne rouge de la figure précédente pour d = 152 μm section correspondant à la ligne rouge sur la figure précédente AR = 0.59. Malgré le débouchage quasi-total de la structure, les figures d'attaque résiduelles sont très néfastes pour le fonctionnement du résonateur. Ainsi, la prise en compte de l'angle de flanc au niveau d'une des deux surfaces latérales de la poutre centrale, des piliers latéraux et des pavés du second étage de découplage conduit à une augmentation vertigineuse des pertes à l'encastrement simulées par la méthode des éléments finis d'un facteur 1000. Le facteur de qualité associé plafonne à 200 000 pour un résonateur ARQOMM 2D de type 2 vibrant à 3 MHz et ce pour un angle de 24° le long des poutres orientées suivant l'axe Y correspondant à l'angle obtenu après simulations de la gravure chimique humide. En conclusion, la gravure chimique par voie humide n'est pas adaptée à la réalisation des résonateurs ARQOMM 2D. Nous devons développer un moyen alternatif de gravure, ce moyen est la gravure ionique réactive profonde du quartz que nous allons présenter dans la section suivante. 82 Šƒ’‹–”‡͵ǣ‹•‡‡à—˜”‡–‡ Š‘Ž‘‰‹“—‡ 3.2 Une alternative, la gravure réactive ionique profonde Après une introduction sur l'historique et les applications de la gravure assistée par plasma, nous présentons les technologies associées à cette gravure avant de nous concentrer sur le cas particulier du quartz en présentant les mécanismes de gravure, l'état de l'art des réalisations usinées en quartz et silice par gravure sèche. 3.2.1 Historique et applications Le besoin toujours croissant d'augmenter le rendement de production des dispositifs microélectroniques entraîne deux conséquences : d'une part une miniaturisation des dispositifs, d'autre part une réduction de l'espacement entre deux dispositifs. La faible résolution de la gravure chimique par voie humide due à la sous-gravure importante est incompatible avec cette course au rendement et a motivé l'intérêt de développer des moyens alternatifs de gravure, en particulier la gravure assistée par plasma qui reste à ce jour, la seule solution commerciale permettant un contrôle des flancs et donc de l'espacement des dispositifs [104]. Le développement des procédés de gravure plasma du silicium (Si) débute à la fin des années 1970, d'abord avec des plasmas à base de tétrafluorure de carbone (CF4) puis d'hexafluorure de soufre (SF6) et a fait émerger le besoin de maîtriser également la gravure de la silice (SiO2). En effet, une application importante de la gravure sèche est la réalisation de contacts ou Vertical Interconnect Access (VIA) : il faut dans ce cas graver intégralement la couche isolante et s'arrêter sans endommager le substrat de silicium en dessous [105]. La meilleure approche consiste à développer un procédé de gravure hautement sélectif qui ne grave que la silice et préserve le silicium. Les premières gravures du dioxyde de silicium sélectives vis-à-vis du silicium datent de la fin des années 1970 [106][107]. Par ailleurs, la silice et sa forme cristalline le quartz, le verre, les borosilicates présentent également des propriétés qui les rendent pertinents pour la réalisation de MEMS [103] : ils possèdent de faibles coefficients thermiques, sont d'excellents d'isolants électriques et peuvent limiter au minimum les pertes internes (fort facteur de qualité Q dans le cas du quartz). Cela a motivé le développement de gravures verticales ou directionnelles contrôlées afin d'augmenter le rapport d'aspect. Dès 1975, Kusters et al. ont réalisé des diapasons vibrants de 40 μm d'épaisseur par une gravure plasma [108], cependant la vitesse de gravure était basse : 14 heures de gravure étaient nécessaires pour la réalisation des dispositifs. Le développement d'équipements plus puissants a permis d'atteindre des vitesses de gravure plus grandes et dès 2003 Fukusawa et al. [109] ont réalisé des tranchées profondes de 100 μm 83 Šƒ’‹–”‡͵ǣ‹•‡‡à—˜”‡–‡ Š‘Ž‘‰‹“—‡ dans du quartz en utilisant une chimie C4F8/H2/Ar et un masque de gravure en résine épaisse SU-84. Des profondeurs atteignant 300 μm ont été rapportées sur de la silice [110] avec des rapports d'aspect allant jusqu'à 3 en vue de réaliser des VIA. En parallèle du développement de la gravure profonde du quartz, des résonateurs pour diverses applications ont été fabriqués : nous citons l'exemple des balances à quartz ou Quartz Crystal Microbalance QCM [111][112], de thermomètres [113], de diapasons [114][115][116], de résonateurs pour oscillateurs MEMS [80][117][118], et de BioMEMS [119]. 3.2.2 Technologies de gravure sèche La gravure sèche qui nous concerne repose sur la création d'un plasma qui crée et renouvelle les espèces indispensables à la gravure : les ions et les radicaux. Dans un premier temps, nous nous intéressons à la création de ce plasma, puis nous décrirons les technologies développées en vue de la gravure assistée par plasma. 3.2.2.1 Création du plasma Un plasma est un gaz partiellement ionisé contenant des ions et des électrons, libres de se mouvoir ainsi que des espèces neutres. Un plasma peut être considéré comme quasiment électriquement neutre, la densité de charges négatives étant égale à quelques pour cent près à la densité de charges positives [120]. Dans le cas de la gravure industrielle assistée par plasma, les plasmas sont qualifiés de « froid » car la température des électrons (1-10 eV) est grande devant celle des ions et des composées neutres (28-100 meV), et sont qualifiés de « basse pression » (typiquement 1 à 100 mTorr) car faiblement ionisés. On compte au moins 100 fois plus d'espèces neutres que d'ionisées. Une manière de créer un plasma est de réaliser une décharge luminescente d'un tube à gaz. Ce dernier contient un gaz noble à une pression typique de l'ordre de quelques centaines de milli-Torrs. Une tension continue est appliquée entre les deux électrodes du tube. A la suite d'interactions fortuites (absorption d'un photon ou collision avec une particule chargée par exemple) une molécule du gaz s'ionise et libère un électron. L'application d'une différence de potentiel importante entre la cathode et l'anode (disons que l'anode est polarisée positivement) entraîne la création d'un fort champ électrique continu (typiquement plusieurs centaines de volts par mètre) dirigé de l'anode vers la cathode. Ce champ électrique accélère l'électron issu d'interaction spontanée. Ce dernier va entrer en collision avec une molécule du gaz provoquant de nouvelles ionisations et la création de nouveaux électrons libres qui 4 La résine SU-8 est une résine de type epoxy photosensible négative. Elle est couramment utilisée dans le domaine des MEMS et permet d'atteindre des rapports d'aspects importants. 84 Šƒ’‹–”‡͵ǣ‹•‡‡à—˜”‡–‡ Š‘Ž‘‰‹“—‡ vont à leur tour provoquer des ionisations, c'est une réaction en chaîne. Le volume entre les électrodes s'ionise et devient conducteur, le plasma est le lieu d'un courant. Le mécanisme est illustré sur la Figure 69. Figure 69 Mécanisme de création et d'entretien d'un plasma dans le cas d'une décharge luminescente continue. La création d'un plasma plus dense peut être obtenue également avec deux plaques parallèles, de manière similaire à la décharge dans le tube à gaz, en optant pour l'application d'une tension alternative importante au niveau des deux électrodes. Les électrons libres vont ainsi se déplacer sous l'effet du champ électrique en oscillant d'une électrode à l'autre, réduisant le nombre d'électrons perdus dans les parois et augmentant leur chance d'ioniser des espèces neutres. Une autre manière courante de créer un plasma consiste à faire circuler un courant alternatif dans une bobine de sorte à créer un champ magnétique alternatif qui va à son tour générer un champ électrique induit dans la chambre et aboutir à la naissance du plasma. Les plasmas froids et basse pression sont générés et entretenus électriquement. Avant de nous intéresser plus particulièrement aux conditions aux limites (mise en contact d'une paroi ou d'un objet avec le plasma) qui possèdent des propriétés de prime importance en vue de l'application de gravure assistée par plasma, nous décrivons les interactions qui existent au coeur du plasma. 3.2.2.2 Interactions entre particules dans le plasma Dans le plasma, les collisions des électrons avec d'autres particules ont pour principales conséquences : • l'ionisation : l'électron incident de haute énergie (e*) arrache un électron d'un atome (A) ou molécule de gaz, qui devient donc un cation (A+). e* + A = A+ + e + e • la dissociation : l'électron incident (e*) rompt les liaisons entre la molécule, séparant ainsi les composants de la molécule (AB) qui deviennent très réactifs du fait de leurs liaisons pendantes : ce sont les radicaux du plasma (A• et/ou B•, les réactifs sont neutres) 85 Šƒ’‹–”‡͵ǣ‹•‡‡à—˜”‡–‡ Š‘Ž‘‰‹“—‡ e* + AB = A• + B• + e • l'excitation : l'électron incident excite la particule cible et place ses électrons dans un état plus énergétique e* + A = A* + e Les phénomènes d'excitation ou d'ionisation peuvent avoir lieu avec des molécules également et les phénomènes peuvent se combiner entre eux, par exemple l'ionisation dissociative : e* + AB = A+ + B• + e + e Nous retrouvons dans notre plasma : des molécules neutres du gaz (en grande majorité, typiquement 1016 cm-3), des particules chargées, électrons et ions à concentrations égales pour assurer la quasineutralité du plasma (typiquement entre 108 et 1013 cm-3) et des radicaux (typiquement 1014 cm-3). Nous nous limiterons à l'étude des plasmas électropositifs : c.-à-d. ne contenant comme espèces chargées que des cations et des électrons. 3.2.2.3 Effet de bords dans un plasma : gaine et bombardement ionique Supposons qu'un plasma électropositif soit créé, par souci de simplification nous le supposerons unidimensionnel. Le plasma n'est pas infini, il est confiné par des parois reliées à la masse. A l'allumage de la décharge, les électrons, de masse ݉௘ , non confinés et bien plus mobiles que les ions, de masse M, car ௠೐ ெ ‫ͳ ا‬, sont rapidement perdus dans les parois qui vont alors se polariser négativement vis-à-vis du potentiel du plasma. Il se crée alors une zone de charge d'espace positive, la gaine (« sheath » en anglais), au niveau de la paroi de manière à égaler les flux d'électrons et d'ions. Ainsi : les électrons sont confinés au centre du plasma et les cations sont accélérés vers les surfaces des parois. La situation est illustrée sur la Figure 70. 86 Šƒ’‹–”‡͵ǣ‹•‡‡à—˜”‡–‡ Š‘Ž‘‰‹“—‡ Figure 70 En haut, représentation schématique de la chambre du plasma entouré par des parois reliées à la masse. Le plasma est séparé en deux régions : la région centrale et la gaine au niveau des parois. En bas, variation du potentiel en fonction de la position suivant l'axe du plasma. La gaine est donc le lieu d'un bombardement ionique, en supposant que les ions sont au repos à l'entrée de la gaine et qu'il n'y pas de collision, l'ion a gagné une énergie ‫ܧ‬௜ ൌ ܸ݁௉ et atteint la surface భ de la paroi avec la vitesse ଶ௘௏ మ ቀ ெ ು ቁ . La chute de potentiel dans la gaine, ici ܸ௉ , s'ajuste de sorte à confiner suffisamment d'électrons pour que le flux d'ions arrivant sur les parois et d'électrons perdus dans les parois soit égaux afin de maintenir la quasi-neutralité du plasma. Maintenant, si nous plaçons un objet non connecté à la masse à l'intérieur du plasma, il va recevoir des électrons et des ions. Les électrons sont bien plus mobiles que les ions, l'objet inséré va donc accumuler un surplus de charges négatives de manière quasi-instantanée et acquérir un potentiel flottant, ܸ௙ et négatif relativement au potentiel du plasma. Ce potentiel repousse alors les électrons tandis que les ions positifs vont être accélérés vers l'objet : un champ électrique dirigé du plasma vers l'objet est créé par la différence de potentiel comme illustré sur la Figure 71. 87 Šƒ’‹–”‡͵ǣ‹•‡‡à—˜”‡–‡ Š‘Ž‘‰‹“—‡ Figure 71 Variation du potentiel en fonction de la position. La gaine se situe entre l'objet et la coordonnée s à partir de laquelle, le potentiel dans le plasma est quasi-constant et vaut Vp. Les ions ainsi accélérés constituent le bombardement ionique et ils sont accélérés par la différence de potentiel ܸ௉ െ ܸ௙ . Cette zone de charge d'espace positive est appelée la gaine. Le régime stationnaire est atteint lorsque le potentiel est tel que le flux d'électrons et celui d'ions arrivant sur l'objet se compensent. La situation est similaire avec les parois confinant le plasma qui sont mises à la masse, le potentiel du plasma ܸ௉ est positif par rapport à celui des parois. Le champ électrique est toujours dirigé du plasma vers les parois du fait de l'accumulation d'électrons (quasi instantanée car plus légers que les ions) sur ces parois. Nous remarquons que la chute de potentiel est principalement localisée au niveau de la gaine dont la profondeur typique vaut quelques longueurs de Debye ߣ஽௘ donnée par l'expression (55). ߣ஽௘ ൌ ඨ ߝ଴ ݇ܶ௘ ݊௘଴ ݁ ଶ (55) Avec ݇ la constante de Boltzmann ; ܶ௘ la température des électrons, ݊௘଴ la densité d'électrons dans le coeur du plasma et ݁ la charge électrique élémentaire. Si l'objet est conducteur, il est possible de le polariser à n'importe quelle valeur de tension sans perdre l'effet du bombardement ionique en contrepartie de la circulation d'un courant. Maintenant, l'échantillon est placé sur une électrode reliée à un générateur radiofréquence (RF) (typiquement 13,56 MHz). Un bombardement ionique s'opère à la surface de celui-ci. Dans le cas d'un échantillon conducteur, l'intensité du bombardement ionique est contrôlée par la tension imposée par le générateur. Dans le cas d'un échantillon isolant, le courant ne peut circuler et le plasma s'éteint. 88 Šƒ’‹–”‡͵ǣ‹•‡‡à—˜”‡–‡ Š‘Ž‘‰‹“—‡ Le passage à un champ d'excitation radiofréquence (RF) permet de résoudre ce problème. Rappelons que vis-vis de n'importe quelle surface la chute de potentiel doit toujours être positive pour assurer le confinement des électrons. Le potentiel au niveau de l'électrode varie avec une amplitude ܸோி , une tension continue ܸ஽஼ , appelée tension d'auto-polarisation, se développe pour assurer la positivité de la chute de tension dans la gaine. La gaine rectifie les potentiels RF en potentiels DC [121]. La fréquence du cycle RF est choisie de sorte que les électrons soient en mesure de suivre les variations de tension de l'électrode mais pas les cations. Ces derniers « voient » une moyenne du champ électrique dans la gaine. Du point de vue des cations, tout se passe comme dans le cas de la décharge continue, si ce n'est une légère modulation de la largeur de la gaine et du potentiel de l'électrode. Le potentiel ܸ஽஼ s'ajuste de manière à ce que le flux d'électrons moyenné sur un cycle RF soit égal au flux quasiconstant d'ions. En pratique, un générateur applique une tension ܸோி oscillante à une électrode immergée dans le plasma au potentiel ܸ௉ à travers une capacité de blocage comme illustré sur la Figure 72. Figure 72 Haut : schéma de la chambre du plasma, une fois l'électrode polarisée par un générateur RF via une capacité de blocage introduit. Bas : tension aux bornes de la capacité de blocage, a) : à l'état initial, b) : après établissement du régime permanent. Tiré de [121]. Dans les premiers instants, ܸோி ൐ ܸ௉ , ce qui implique que le plasma perd des électrons qui vont alors charger la capacité. Cette dernière se polarise à la tension à െܸ஽஼ réduisant ainsi la perte d'électrons et égalisant les flux d'ions et d'électrons. Les ions sont donc accélérés vers l'électrode et acquièrent une énergie ܸ݁஽஼ . Maintenant, si la tension RF appliquée à l'électrode augmente, la tension ܸ஽஼ augmente également pour empêcher une perte excessive d'électrons, en pratique ܸோி ̱ܸ஽஼ . 89 Šƒ’‹–”‡͵ǣ‹•‡‡à—˜”‡–‡ Š‘Ž‘‰‹“—‡ Nous venons de voir que la surface d'un échantillon pouvait être le lieu d'un bombardement ionique dont l'intensité est contrôlable par polarisation de l'électrode de l'échantillon. Ce bombardement ionique joue un rôle clé dans la gravure réactive ionique comme nous allons le voir. La physique des plasmas est un domaine éminemment complexe : nous avons présenté une version simplifiée permettant la compréhension des mécanismes mis en jeu. Une description complète pourra être trouvée dans les références [120] [122]. 3.2.2.4 Technologie Reactive Ion Etching (RIE) La gravure RIE est une technique de gravure sèche assistée par plasma. Elle se classe entre la gravure plasma purement chimique, sélective mais généralement isotrope et la gravure plasma purement physique peu sélective mais permettant une excellente verticalité des flancs (l'énergie cinétique des ions du bombardement de l'argon par exemple permet d'arracher la matière du matériau à graver). La Figure 73 donne la classification des différents types de gravure assistée par plasma en fonction de l'énergie des ions et de la pression de travail. Figure 73 Classification des trois types de gravure plasma suivant la pression de travail et l'énergie du bombardement ionique. La gravure RIE permet de réaliser un compromis entre vitesse de gravure élevée, sélectivité et gravure directionnelle. La gravure RIE fait appel à des mécanismes plus complexes dans lesquels interviennent à la fois les radicaux, chimiquement très réactifs, et les ions qui bombardent la surface. La gravure verticale RIE a pour origine un mécanisme ou la combinaison de plusieurs des mécanismes que nous allons décrire et schématiser dans la Figure 74. 90 Šƒ’‹–”‡͵ǣ‹•‡‡à—˜”‡–‡ Š‘Ž‘‰‹“—‡ Figure 74 Schémas des mécanismes de la gravure RIE. a) Le bombardement ionique fragilise la surface de l'échantillon en arrachant localement des atomes ou des groupements d'atomes (groupe hydroxyle –OH passivant la surface par exemple). Les atomes en surface se trouvent ainsi avec des liaisons pendantes, réactives et instables et sont plus à même de réagir avec les radicaux du plasma. Le bombardement ionique est également en mesure de fournir de l'énergie pour activer les réactions chimiques. b) Le bombardement ionique est en mesure de fournir l'énergie nécessaire à la désorption des produits de réactions qui sont évacués par le système de pompage. La désorption des produits de réaction requiert une énergie correspondant à l'énergie de liaison du composé à la surface. Si cette dernière est suffisamment élevée (i.e. grande devant kT où k est la constante de Boltzmann et T la température, soit environ 28 meV à 50°C), l'énergie thermique n'est pas suffisante et la désorption nécessite l'assistance du bombardement ionique. Dès lors, nous comprenons que ce mécanisme est favorable à l'obtention d'une gravure anisotrope : le bombardement ionique étant principalement perpendiculaire à la surface, les produits de réaction sont moins aisément désorbés lorsqu'ils sont sur les flancs. c) Le bombardement ionique pulvérise un film inhibiteur sur la surface horizontale tandis que le film passive toujours les flancs : les réactions peuvent avoir lieu uniquement sur la surface horizontale qui n'est plus protégée. Nous pouvons remarquer que les deux premiers mécanismes sont finalement similaires : le bombardement favorise ou rend possibles les réactions chimiques, que ce soit pendant l'étape d'adsorption, de réaction ou de désorption tandis que le troisième mécanisme interdit, en théorie, la gravure au niveau des flancs. Il faut noter cependant que la désorption des produits de réaction sur les flancs n'est pas nécessairement négligeable, ce qui peut conduire à une gravure latérale des motifs. Pour contrer ce 91 Šƒ’‹–”‡͵ǣ‹•‡‡à—˜”‡–‡ Š‘Ž‘‰‹“—‡ phénomène, des procédés de gravure astucieux combinant des mécanismes de passivation de surface et de gravure ont été développés, le procédé Bosch étant le plus célèbre. La première technologie de gravure RIE montrée dans la Figure 75. Dans cette configuration de réacteur à gravure ionique réactive (Reactive Ion Etcher), l'échantillon repose directement sur l'électrode reliée au générateur RF de puissance. Figure 75 Schéma du dispositif de gravure sèche de type RIE. Cette configuration présente l'inconvénient majeur de présenter des densités ioniques et radicalaires faibles, ce qui aboutit à des vitesses de gravure relativement faibles et peu adaptées à des matériaux comme le quartz. L'augmentation de la polarisation de l'échantillon induit une augmentation de la vitesse de gravure mais également un risque d'endommagement de l'échantillon. Finalement, une des limitations de la technologie RIE est l'impossibilité de découpler l'aspect chimique (la densité de radicaux et de particules chargées) avec l'aspect physique (intensité du bombardement ionique), ces deux paramètres étant pilotés par une seule et unique différence de tension. 3.2.2.5 Technologies à plasma de haute densité Dans l'objectif d'augmenter les vitesses de gravures, des technologies avec des plasmas plus denses (degrés d'ionisation plus important) ont été mis en oeuvre : l'idée est d'augmenter la distance parcourue par les électrons avant que ceux-ci ne soient perdus dans les parois dans le but d'accroître le nombre d'atomes ionisés. La chambre a également été modifiée de façon à découpler les composantes chimique et physique. Pour ce faire, l'échantillon est placé sur une électrode reliée à un générateur tandis que le plasma est généré dans une chambre au-dessus de l'échantillon. L'un des équipements les 92 Šƒ’‹–”‡͵ǣ‹•‡‡à—˜”‡–‡ Š‘Ž‘‰‹“—‡ plus couramment utilisés est l'ICP (Inductively Coupled Plasma) dont une vue simplifiée est montrée sur la Figure 76. Figure 76 Schéma de dispositif à plasma dense en configuration ICP. Les bobines autour de la chambre contenant le plasma produisent un fort champ magnétique, les électrons générés sont alors confinés et se déplacent en décrivant des trajectoires hélicoïdales. L'intérêt du couplage avec le champ magnétique est de pouvoir augmenter la distance que parcourt un électron dans le plasma avant d'être collecté par les parois de la chambre et ainsi d'augmenter sa chance de collision avec des molécules neutres du plasma et donc sa probabilité de créer un ion ou des radicaux. Nous sommes donc en mesure de contrôler la densité de plasma en jouant sur l'amplitude du champ magnétique. Ces évolutions ont été indispensables pour réaliser la gravure des matériaux « durs » comme le quartz, la silice ou le verre. L'équipement que j'ai utilisé durant ces travaux est de type ICP-RIE de la société STS. Les principales composantes de l'équipement sont montrées sur la Figure 77. L'introduction de l'échantillon se fait à partir du sas qui, une fois mis sous vide, permet le transfert de l'échantillon dans la partie inférieure de la chambre, l'échantillon est maintenu mécaniquement sur l'ensemble porte-susbtrat et électrode puis le tout est déplacé vers la partie supérieure de la chambre. 93 Šƒ’‹–”‡͵ǣ‹•‡‡à—˜”‡–‡ Š‘Ž‘‰‹“—‡ Figure 77 Photographie de l'équipement ICP-RIE utilisé durant les travaux. Après avoir présenté les mécanismes de formation du plasma, ceux nécessaires au bombardement ionique ainsi que les mécanismes généraux de la RIE, nous allons maintenant passer au cas singulier de la gravure RIE du quartz. 3.2.3 Mécanismes de gravure du quartz par des gaz fluorocarbonés Le radical de fluor F ne réagit que lentement avec le SiO2 [123], près de 40 fois plus lentement que dans le cas du silicium. La décomposition du gaz fluorocarboné dans le plasma par dissociations et ionisations successives ou simultanées dues aux impacts d'électron enrichit le plasma en radicaux ‫ ܨ‬༦ réactifs suivant une réaction type [124] : ݁ ି ൅ ‫ܥ‬௫ ‫ܨ‬௬ ൌ ݁ ି ൅ ‫ܥ‬௫ ‫ܨ‬௬ିଵ ൅ ‫ ܨ‬༦ (56) Les radicaux de fluor vont alors réagir avec les atomes de silicium présents à la surface du SiO2, cette réaction étant facilitée par l'activation de surface provoquée par le bombardement ionique qui rompt une partie des liaisons Si-O. Cela conduit à la formation du composant volatil bien connu SiF4, qui après désorption, est évacué par le système de pompage. Les composés du type CFx vont se déposer sur toutes les surfaces aussi bien horizontales que verticales (les flancs) sous la forme d'un polymère passivant de type téflon et tendent à modérer le processus de gravure. Cependant, cette modération est contrecarrée par l'oxygène libéré lors de la dissociation des liaisons Si-O. L'oxygène libéré réagit en partie avec le polymère pour former des produits volatils de type COx ou COFx détruisant ainsi le polymère sur la surface horizontale et permettant la poursuite de la gravure. La gravure verticale est obtenue par la passivation des flancs : le polymère n'est pas gravé en l'absence de bombardement ionique directif. Nous notons que la gravure du SiO2 (cristallin ou amorphe) se fait de manière 94 Šƒ’‹–”‡͵ǣ‹•‡‡à—˜”‡–‡ Š‘Ž‘‰‹“—‡ continue et ne présente pas une succession d'étapes de passivation bien distinctes comme dans le cas de la gravure alternée du silicium ou procédé Bosch. Il s'avère que le mécanisme de gravure est en réalité plus subtil. En effet, la gravure se fait en réalité au travers de ce film de polymère fin de quelques nanomètres d'épaisseur. Ce film dicte la vitesse de gravure [125]. A l'interface du polymère et du substrat -ici le SiO2- se forme une monocouche de type SiO2CxFy qui se dissocie en SiOCxFy par bombardement ionique et relâche des composés volatils de type COFx. Une nouvelle étape de dissociation prend place et forme des composés de type SiFx et COx, ces derniers sont volatils. Les composés SiFx réagissent avec les radicaux ‫ ܨ‬༦ sous l'action du bombardement ionique et libèrent le composé volatil SiF4 [126][127]. La présence d'oxygène dans le substrat est donc un point critique qui impacte la vitesse de gravure du polymère passivant sur la surface horizontale. Le polymère formé sur le silicium est plus épais que sur le SiO2 [125], ce qui a pour conséquence de ralentir la gravure du silicium : la couche de polymère agit comme un amortisseur pour les ions incidents, plus elle est épaisse plus l'énergie cinétique de l'ion est dissipée. Nous comprenons donc qu'une couche de polymère plus épaisse conduit à une baisse de la vitesse de gravure et il est donc possible de graver de manière sélective le SiO2 vis-à-vis du Si. L'épaisseur de cette couche de polymère dépend de la nature du substrat mais également des conditions de la chambre, en particulier la puissance transmise via l'électrode du plateau, la nature et le ratio F/C du gaz introduit et des gaz additifs (Ar, H2 ou O2). Pour une chimie donnée, il existe une tension de polarisation (résultante de la composition du plasma et de la puissance injectée à la cathode) à partir de laquelle la gravure du substrat démarre : nous passons d'un état de déposition nette du polymère (régime de déposition ou polymérisation) à une gravure quasi proportionnelle à la tension de polarisation (régime de surpression); au-delà d'une seconde tension de polarisation seuil, la vitesse de gravure varie comme la racine de la tension de polarisation (régime de pulvérisation) [128][129]. La Figure 78 a) donne la variation de la tension de seuil en fonction du ratio F/C pour les gaz usuels ainsi que les tendances suivies par l'adjonction de gaz additifs comme l'O2 et le H2. Les gaz avec les rapports F/C les plus faibles tendent à accélérer la polymérisation, ce qui se traduit par une baisse globale de la vitesse de gravure du SiO2 et du silicium tout en augmentant la sélectivité du SiO2 vis-à-vis de Si car SiO2 est moins sensible à l'absence de radicaux ‫ ܨ‬༦ [130], ce phénomène est illustré par la Figure 78 b). Cela se traduit également par l'augmentation de la polarisation de seuil avec l'inverse du rapport F/C. 95 Šƒ’‹–”‡͵ǣ‹•‡‡à—˜”‡–‡ Š‘Ž‘‰‹“—‡ b) a) Figure 78 a) Variation de la tension seuil requise en fonction du ratio F/C pour plusieurs gaz additifs [131], b) variation de la sélectivité en fonction du ratio F/C, tiré de [130]. Pour contrôler l'épaisseur de polymère passivant sur la surface horizontale, et donc la sélectivité SiO2/Si et la vitesse de gravure de SiO2, il est également possible d'ajouter des gaz additifs comme le H2 ou le O2. L'adjonction d'O2 dans le plasma conduit à une consommation supplémentaire du polymère passivant donc à une augmentation de la vitesse de gravure du Si [107] et à une baisse de la sélectivité SiO2/Si. L'adjonction d'O2 est équivalente à une augmentation du ratio F/C [132]. A l'opposé, l'ajout de H2 diminue la proportion des radicaux ‫ ܨ‬༦ par combinaison avec ce dernier pour former la molécule volatile HF, réduisant la quantité de ‫ ܨ‬༦ disponible pour former le SiF4. C'est le cas par exemple dans la molécule CHF3 qui présente un ratio effectif F/C de 2 (Figure 78 b) alors que cette molécule compte trois atomes de fluor pour un seul atome de carbone. Cela réduit ainsi la vitesse de gravure du SiO2 et Si [133] mais augmente la sélectivité de SiO2 vis-à-vis de Si : c'est équivalent à une augmentation du ratio F/C. Nous pouvons également ajouter un gaz neutre : de l'argon ou du xénon afin d'amplifier la contribution physique de la gravure pour éliminer les résidus en fond de tranchées [134][135] et améliorer la verticalité des flancs. Cela se fait toutefois au prix d'une diminution de la sélectivité de SiO2 vis-à-vis du masque de gravure [136] et d'une baisse de la vitesse de gravure du substrat [132]. 3.2.4 Caractéristiques, critères et paramètres de gravure Nous définissons ici les principales caractéristiques de la gravure ainsi que le cahier des charges. Nous discutons des différents paramètres de la gravure en vue de préparer les tests de gravure et les réalisations. 96 Šƒ’‹–”‡͵ǣ‹•‡‡à—˜”‡–‡ Š‘Ž‘‰‹“—‡ 3.2.4.1 Caractéristiques de la gravure La vitesse de gravure verticale moyenne vsubstrat est définie comme la profondeur du motif gravé sur le temps de gravure, on l'exprimera de préférence en nm/min ou en μm/h. Ici, le terme substrat désigne l'échantillon qui sera le plus souvent du quartz. On notera que dans ce travail de thèse, il n'a pas été possible de mesurer les vitesses instantanées de gravure : la vitesse de gravure se rapporte à des durées de gravure allant de quelques minutes à plusieurs heures. Sélectivité S : Le transfert de motifs par gravure nécessite qu'une partie du substrat soit protégée par un masque. Idéalement, celui-ci est choisi pour réagir moins vite avec les agents de la gravure que le matériau à graver. La sélectivité Sinstantanée est définie comme le rapport de la vitesse verticale instantanée du matériau à graver vsubstrat sur la vitesse verticale instantanée du masque vmasque. En pratique, on parle plutôt de sélectivité moyenne Smoyenne en remplaçant les vitesses instantanées de gravure par les vitesses moyennes relatives au temps de gravure. Par abus de langage, nous parlerons de sélectivité S pour désigner la sélectivité moyenne. ܵൌ ‫ݒ‬௦௨௕௦௧௥௔௧ ‫ݒ‬௠௔௦௤௨௘ (57) En supposant la vitesse de gravure constante, si S=10 nous pouvons espérer graver jusqu'à 10 μm de substrat avec un masque d'épaisseur 1 μm. Le rapport d'aspect A est défini comme le ratio de la profondeur e gravée sur l'ouverture du motif w définie comme la plus petite dimension latérale : ‫ܣ‬ൌ ݁ ‫ݓ‬ (58) L'angle de flanc Į en ° est défini comme l'angle entre la surface de l'échantillon avant gravure et la pente des flancs. Pour Į<90° les flancs seront qualifiés de rentrants et pour Į>90° de sortants. Nous parlerons également d'angle d'écart à la verticale ȕ en précisant la nature des flancs comme illustré sur la Figure 79. 97 Šƒ’‹–”‡͵ǣ‹•‡‡à—˜”‡–‡ Š‘Ž‘‰‹“—‡ Figure 79 A gauche : exemple de flancs sortants ; à droite : exemple de flancs rentrants. 3.2.4.2 Cahier des charges Plusieurs critères et paramètres ont été imposés pour la réalisation des ARQOMM: • Nous devons réaliser des gravures profondes dans le quartz (30 à 120 μm) pour définir les motifs des résonateurs tout en garantissant l'obtention de flancs les plus verticaux possible. • Nous devons également appliquer la recette de gravure pour la réalisation des cavités en face arrière soit une profondeur de 210-120=90 μm à 210-30=180 μm. Une épaisseur de 210 μm pour un wafer de 1.5'' est choisie car elle représente un bon compromis entre la profondeur maximale à graver et la facilité de manipulation de l'échantillon. Pour la gravure des cavités, la contrainte sur l'angle est moins sévère. • La contrainte sur le fond de gravure pour la gravure des motifs est faible a priori tant que la gravure est débouchante. En revanche, le fond de gravure peut avoir des répercussions sur la rugosité des flancs, qui eux, doivent être les plus lisses possible pour réduire les pertes de surface. On cherchera donc à obtenir un fond de gravure le plus lisse possible, comparable à celui de l'échantillon avant gravure. • Les flancs doivent être les plus verticaux possible afin d'assurer la symétrie de la structure et donc le confinement de l'énergie acoustique : on cherche donc ߙ ؆ ͻͲι. 3.2.4.3 Paramètres de gravure Afin d'obtenir un résultat de gravure le plus proche des attentes, il s'agit de comprendre le rôle des différents paramètres de la gravure et de comprendre les leviers sur lesquels nous sommes en mesure de jouer. Les principaux paramètres sont la puissance de la bobine (Pbobine), la puissance fournie à l'électrode du plateau (Pplateau), les débits, la nature et le rapport des gaz de gravure, la pression et la température de la chambre. Comme présenté précédemment, l'intérêt des technologies ICP-RIE est de pouvoir dissocier l'effet chimique et l'effet physique de la gravure, cela se traduit par la présence des deux puissances. D'une part la puissance fournie à la bobine contrôle l'intensité du champ magnétique 98 Šƒ’‹–”‡͵ǣ‹•‡‡à—˜”‡–‡ Š‘Ž‘‰‹“—‡ permettant l'ionisation des gaz et la création du plasma5. Plus le champ magnétique est intense, plus les densités d'électrons et donc d'ions et de radicaux augmentent. L'aspect chimique de la gravure est amplifié : la vitesse de gravure et la sélectivité augmentent. En outre, la puissance du plateau modifie la polarisation de l'échantillon par rapport au potentiel du plasma. Une augmentation (en valeur absolue) de la polarisation se traduit par un bombardement ionique plus intense résultant en une augmentation de la vitesse de gravure, une meilleure verticalité des flancs et une dégradation de la sélectivité. Le rôle de la pression de la chambre sur la vitesse de gravure est moins évident. En effet une baisse de la pression tend à réduire la concentration des espèces du plasma et augmente le temps de parcours moyen des électrons : les électrons sont plus chauds donc plus énergétiques augmentant ainsi leur probabilité d'ioniser un radical ou une molécule : le caractère physique de la gravure est renforcé. Inversement, une augmentation de la pression renforce le caractère chimique de la gravure et la gravure se rapproche d'une gravure chimique par plasma, les interactions entre ions et particules tendent à baisser l'énergie des ions incidents. L'influence de la nature et du rapport des gaz présents dans la chambre a été traitée plus haut. Dans le cas d'une gravure limitée principalement par la vitesse des réactions chimiques, l'augmentation de la température de la chambre et du porte-substrat se traduit par une augmentation de la vitesse de gravure. La Table 10 résume les tendances de modifications des paramètres de gravure sur les caractéristiques de gravure. Table 10 Tendances attendues sur les caractéristiques de gravure dues à la variation de paramètres de gravure. Caractéristiques de la gravure S'améliore quand le/les paramètres augmente(nt) Vitesse de gravure -Puissance plasma -Puissance plateau -Température Sélectivité et fond de gravure Angle et qualité des flancs Se dégrade quand le/les paramètres augmente(nt) -Puissance plateau -Pression -Puissance Plasma -Puissance plasma -Puissance plateau -Pression 5 N'influe pas de manière significative ou peu connue -Température -Température Le champ électrique induit par le champ magnétique ainsi crée est à l'origine de l'ionisation du gaz : suite à un arrachage spontané d'un électron à un atome (émission spontanée), l'électron libéré sous l'action du champ électrique induit commence une réaction en chaine en ionisant d'autres molécules. Le champ magnétique augmente la distance parcourue des électrons libres au sein du plasma avant leur capture par les parois assurant la stabilité du plasma. 99 Šƒ’‹–”‡͵ǣ‹•‡‡à—˜”‡–‡ Š‘Ž‘‰‹“—‡ 3.2.5 Etat de l'art de la gravure DRIE du quartz, de la silice et du verre Nous présentons dans cette section l'essentiel des résultats issus de la littérature. La nature du matériau à graver, la nature du masque de gravure et son épaisseur en μm, la nature chimique et les débits des gaz en sccm6 ainsi que les puissances de la bobine et du plateau en W sont consignés dans la section « Paramètres de gravure » de la Table 11. La profondeur gravée ݁௠௔௫ en μm, la vitesse moyenne ‫ ݒ‬en μm/h, le rapport d'aspect maximal ‫ܣ‬௠௔௫ , l'angle de flanc ߙ et la sélectivité S moyenne sont données dans la section « Résultats de gravure » de la même table. Table 11 Paramètres de gravure et résultats de gravure de la DRIE du quartz, de la silice ou du verre de la littérature. En gras, les paramètres records. Paramètres de gravure Masque8 Résultats de gravure Pbobine(W) emax Gaz v 7 Réf Matériau Amax Į (μm) (sccm) /Pplateau(W) (μm) (μm/h) [137] Qtz SU8(90) CF4(25)//Ar(25) [137] Qtz SU8(90) CHF3(25)//Ar(25) [138] Pyrex Ni(E,15) SF6 [139] Qtz AT Ni SF6(10) [109] Qtz 400/200 55 13.7 0.5 86 0.34 400/200 41.3 11.8 0.4 83 0.68 150/NR9 150 26 150/NR 20 30 SU8(95) C4F8(10)//H2(20)//Ar(30) 800/NR 100 25 [140] Qtz AT SJR-5740(50) CF4(20)//O2(2) 900/25 12 [117] Qtz AT Ni(E,4) C4F8//O2 NR 100 [141] Al(P,2) C4F8(80)//O2(20) Silice S 6 2000/300 10 6 6 85 >10 NR NR 30 2 80 0.83 NR NR 1 NR NR 85 >20 31 2 83 20 sccm pour standard cubic centimeter per minute ou centimètre cube par minute dans les conditions standards est une unité de débit volumique d'un fluide dans les conditions standards de température (T=273 K) et de pression (P=1atm). 7 Qtz=quartz la coupe est précisée si elle est indiquée dans la référence. 8 Pour le masque de gravure la première letre désigne la méthode de gravure E=électro-dépôt, P=pulvérisation ; le nombre l'épaisseur du masque en μm. 9 NR=non renseigné. 100 Šƒ’‹–”‡͵ǣ‹•‡‡à—˜”‡–‡ Š‘Ž‘‰‹“—‡ [141] Silice AlN(P) CF4(80) 1800/150 16.5 23.4 3 88 24 [141] Silice AlN(P) SF6(100) 1850/180 21 21.6 4 88 38 [142] Silice Si(42) C4F8(25)//He(50) 1400/600 58 28 3.8 NR 1.4 [143] Qtz SC Ni(E) C4F8//O2 40 NR NR 30 [144] Qtz AT Ni(E) C4F8//O2 1600/120 12.5 25 NR 85 100 KMPR(100) C4F8(24)//He(84) 3000/200 196 24 3.8 89 C4F8//CF4//He 1500/650 70 40 NR 89 1.3 24 NR NR 10 [110] Silice [145] Qtz X KMPR(80) [146] Qtz Y Ni(E) SF6//Ar NR NR 40 80 2 Les gaz de gravure sont pourvoyeurs de l'atome de fluor F indispensable à la réaction chimique amplifiée par plasma. Nous reviendrons sur le choix du masque et les conséquences sur la gravure dans la section suivante. Nous remarquons que des profondeurs importantes, proches de 200 μm, ont déjà pu être gravées. Les vitesses de gravure sont comprises entre 6 et 40 μm/h, ce qui est du même ordre de grandeur que la gravure chimique par voie humide. La sélectivité S présentée est calculée à partir des valeurs moyennes des vitesses de gravure, nous verrons par la suite que la sélectivité a tendance à baisser au fur à mesure que la profondeur gravée augmente et donc avec le temps de gravure. Ainsi comparer deux sélectivités n'a de sens que si les profondeurs gravées sont également prises en compte. Les performances atteintes sont rassurantes quant à notre cahier des charges : Fukusawa [109] a ainsi démontré en 2003 la possibilité de graver des motifs avec un rapport d'aspect de 2 sur 100 μm de profondeur à une vitesse de 25 μm/h avec un plasma à base de C4F8, H2 et Ar en utilisant un masque en résine SU-8 d'épaisseur 95 μm. L'érosion latérale de la résine conduit néanmoins à des angles de flancs d'environ 4°. Cette recette nécessite du dihydrogène pour accroître la sélectivité, mais l'emploi de ce gaz est complexe à mettre en oeuvre en raison du risque d'explosivité. En 2014, Kamijo et al. [145] atteint des vitesses de gravure accrues, de l'ordre de 40 μm/h avec un plasma sans hydrogène (C4F8/CF4/He) et grave jusqu'à 80 μm de profondeur des motifs avec un rapport d'aspect de l'ordre de 2 en employant un masque de résine KMPR de 90 μm d'épaisseur. En 2017, Kubena et al. [117] privilégie les masques métalliques en raison de leur meilleure sélectivité : il parvient à graver 100 μm de quartz en utilisant un masque en aluminium épais de 4 μm. Les masques en nickel présentent des sélectivités plus élevées de 10 à 100 typiquement (suivant l'épaisseur, la 101 Šƒ’‹–”‡͵ǣ‹•‡‡à—˜”‡–‡ Š‘Ž‘‰‹“—‡ méthode de dépôt et la recette de gravure) et sont bien adaptées aux gravures profondes. L'utilisation des masques métalliques permet généralement un meilleur contrôle des flancs, en effet la sous-gravure de la résine est importante et conduit à une dégradation de la verticalité et des motifs des flancs (excepté dans les travaux de Kamijo). C'est pourquoi nous nous sommes orientés vers cette solution qui pose toutefois de nouveaux verrous technologiques comme le développement d'un moyen de transfert du masque sur le substrat. Ce que nous verrons par la suite. 3.3 Détail des étapes et verrous technologiques Le remplacement de la gravure humide par la gravure DRIE élargit le champ des structures réalisables, grâce en particulier à l'obtention de flancs droits, à la possibilité d'utiliser n'importe quelle coupe de quartz ou encore à la possibilité de graver des géométries complexes. Les premières investigations dans ce domaine datent des années 2000 : des gravures de presque 100 μm de quartz avec des flancs presque verticaux ont ainsi été démontrées [109][136][147]. 3.3.1 Masque de gravure DRIE Une des principales problématiques de la DRIE du quartz est le choix et la réalisation du masque de gravure : pendant la gravure, le masque protège une partie du quartz tandis que la partie exposée au plasma est gravée. Pour réaliser un tel masque, deux méthodes sont principalement mentionnées dans la littérature : la réalisation d'un masque « dur » (hard) en métal ou « mou » (soft) en résine. Chacune des deux familles de masques présente des avantages et des inconvénients : • • Les masques durs typiquement en nickel ou en chrome présentent une bien meilleure sélectivité par rapport au quartz, de l'ordre de plusieurs dizaines, mais ils compliquent le procédé de fabrication : d'une part le dépôt du masque implique une étape supplémentaire et généralement contraignante, et d'autre part, le transfert de motifs via ce masque implique une étape de décollement de résine (ou « lift-off » en anglais) ou de gravure chimique du métal. Les masques mous en résine photosensible de type époxy SU-8 ou KMPR sont réalisables rapidement par une unique étape de photolithographie mais présentent des sélectivités plus faibles, de l'ordre de l'unité. La gravure latérale de ces masques est également importante pour les gravures profondes. J'ai réalisé des tests de gravure sur les deux types de masques afin de sélectionner la solution technologique la plus appropriée en vue de réaliser les ARQOMM 2D. 102 Šƒ’‹–”‡͵ǣ‹•‡‡à—˜”‡–‡ Š‘Ž‘‰‹“—‡ 3.3.1.1 Tests de gravure sur un masque en résine épaisse L'utilisation d'une résine épaisse simplifie le procédé de fabrication. La résine épaisse est la SU8-2050 (MicroChem) qui a permis dans la littérature de graver 100 μm de quartz [109]. Il s'agit dans cette section d'évaluer la pertinence de cette technique de masque en vue de la réalisation des ARQOMM 2D : c'est-à-dire la sélectivité du masque et la qualité des flancs que nous pouvons obtenir avec ce masque. J'ai développé un procédé d'enduction spécifique permettant de réaliser une épaisseur proche de 100 μm de résine. Les Figure 80a) et b) montrent le résultat du procédé après rinçage, les motifs sont correctement définis. b a Figure 80 Motifs de croix en résine SU8-2050 après rinçage, a) grandissement x50, b) grandissement x100 L'échantillon est collé à l'aide d'une cire à base de silicone sur un wafer support en silicium puis gravé dans l'équipement ICP-RIE pour une heure. J'ai développé une recette de gravure adaptée, à partir des données de la littérature, au cours de la thèse, et dont les paramètres principaux sont les suivants : CF4 (60 sccm) et Ar (30 sccm), pression de la chambre à 10 mTorr, température du plateau à 20°C, puissance du plasma 1600 W, puissance d'accélération 300 W. La Figure 81a) est une image obtenue au microscope optique de l'état des motifs avant la gravure et la Figure 81b) montre la même zone après la gravure d'une heure. 103 Šƒ’‹–”‡͵ǣ‹•‡‡à—˜”‡–‡ Š‘Ž‘‰‹“—‡ Figure 81 Observations au microscope optique de motifs du masque en SU8, a) avant gravure, b) après 60 min de gravure avec la recette adaptée au masque de résine épaisse. Sur l'image de droite, l'échantillon est toujours collé sur le support utilisé lors de la gravure DRIE : les motifs arrondis que l'observe en arrière-plan correspondent à la graisse à vide que l'on voit par transparence. Nous constatons la présence d'un micro-masquage dense qui trouve son origine dans la pulvérisation et le redépôt de la résine au fond des tranchées. La qualité des flancs est évaluée à l'aide d'images obtenues en microscopie électronique à balayage (MEB). Ces observations sont également indispensables pour estimer la vitesse de gravure et la sélectivité dans le cas de la résine épaisse : en effet la profondeur de quartz gravée n'est pas significative devant l'épaisseur du masque résiduel : la variation de hauteur entre le fond et le sommet du motif que nous pouvons obtenir par mesure au microscope optique ou au profilomètre mécanique n'est pas une bonne estimation de la profondeur gravée. L'échantillon est clivé puis préparé pour les observations MEB. Une couche de graphite est déposée à sa surface pour le rendre conducteur et un filet de colle argent permet de le relier à la masse et ainsi d'évacuer les électrons provenant de la sonde électronique permettant l'analyse de l'échantillon10. La Figure 82 montre une vue en coupe de tranchées gravées obtenues après 1h de gravure en utilisant le microscope à balayage électronique (MEB). 10 Le quartz étant un isolant électrique, il se charge s'il est soumis à un bombardement électronique et repousse alors les électrons incidents suivants. Dans le cas d'observations MEB, cela se traduit par une image floue d'où la nécessité d'évacuer les charges en cours d'observation. 104 Šƒ’‹–”‡͵ǣ‹•‡‡à—˜”‡–‡ Š‘Ž‘‰‹“—‡ Résine épaisse SU-8 : Quartz Figure 82 Image MEB de poutres de 250 μm de larges après gravure DRIE d'une durée de 1h en utilisant en masque de résine épaisse. Les flancs de la résine sont légèrement rentrants, de l'ordre de 4°, impliquant une largeur des motifs en résine plus importante au sommet qui va protéger le quartz au pied du motif, cela se traduit par des angles sortants au niveau du quartz de l'ordre de 10° comme nous pouvons l'observer sur la Figure 86 qui présente un zoom de l'image précédente permettant la mesure de l'épaisseur de quartz gravée. 100° 20 μm 150° Figure 83 Image MEB de poutres de 250 μm de larges après gravure DRIE d'une durée de 1h en utilisant en masque de résine épaisse. Après une heure de gravure, 20 μm de quartz ont été gravés ; la vitesse de gravure est donc proche de 20 μm/h. La sélectivité est estimée de la manière suivante : à l'aide du profil mètre mécanique j'ai relevé sur plusieurs motifs la variation d'épaisseur avant gravure entre le sommet de la résine et le quartz, cette variation d'épaisseur correspond à l'épaisseur initiale de la résine. Le même travail est 105 Šƒ’‹–”‡͵ǣ‹•‡‡à—˜”‡–‡ Š‘Ž‘‰‹“—‡ réalisé après la gravure sur les mêmes motifs : la variation d'épaisseur correspond cette fois à la somme de l'épaisseur restante de résine et à la profondeur de quartz gravée. On suppose que la profondeur gravée de quartz est plutôt homogène dans les motifs mesurés. L'hypothèse est raisonnable du fait de la durée courte de la gravure et des faibles rapports d'aspects considérés, ce qui implique une variation de rapport d'aspect faible. La sélectivité moyenne est estimée en faisant le rapport de l'épaisseur gravée de quartz sur l'épaisseur de résine gravée comme illustré sur la Figure 84. Figure 84 Schéma illustrant la méthode de mesure permettant l'estimation de la sélectivité. J'ai ainsi estimé la sélectivité de la résine autour de ͲǤͻ േ ͲǤͳ, l'incertitude peut être expliquée par une faible variation de la vitesse de gravure suivant les motifs. Ce résultat rejoint les travaux de Fukusawa en l'absence de dihydrogène [109] et de Chen [137] qui ont mesuré des sélectivités moyennes respectives de 1 et 0,5. Un aspect positif est l'absence de sous-gravure importante au niveau du sommet des motifs, une gravure prolongée serait toutefois nécessaire pour confirmer cette observation. L'unique étape de photolithographie est un atout important de la résine épaisse. Toutefois la sélectivité faible et la non verticalité prononcée des flancs dès la première heure de gravure sont des points qui m'amènent à conclure que le masque en résine épaisse SU-8 n'est pas pour l'instant adapté à la gravure profonde du quartz (typiquement 100 μm) et à la réalisation des ARQOMM 2D. Sous réserve d'un meilleur contrôle des flancs et de la résolution latérale passant par une optimisation de la photolithographie, cette technique de masquage est une option pertinente dans le cas de gravures moins profondes de 1 à 20 μm. Je me suis ensuite intéressé à la famille des masques en métal et justifie le choix du métal ainsi que la méthode de dépôt employée. 3.3.1.2 Masques de gravure durs Plusieurs matériaux ont été investigués dans la littérature pour réaliser des gravures profondes de silice ou de quartz : le nickel, le chrome, l'aluminium ou l'alumine. Les masques en aluminium 106 Šƒ’‹–”‡͵ǣ‹•‡‡à—˜”‡–‡ Š‘Ž‘‰‹“—‡ réalisés par pulvérisation présentent des sélectivités de l'ordre de 20 [141], celle des masques en chrome est plus élevée de l'ordre de 60 [136]. Les masques en nickel sont les plus couramment rencontrés et présentent des sélectivités comprises entre 20 [148] et 100 [144]. La forte disparité entre les valeurs s'explique par le fait que les sélectivités dépendent de la recette de gravure, de la profondeur gravée et du moyen de dépôt. Le nickel ou le chrome apparaissent alors comme les deux métaux pertinents pour des applications de masque de gravure DRIE du fait de leur sélectivité importante. Des études antérieures au sein de l'ONERA ont mis en évidence l'adéquation du chrome pour cette application du fait de la facilité à le retirer après gravure. Cependant, le chrome est employé comme couche d'accroche pour la réalisation des électrodes. Il est préférable d'utiliser un autre métal afin d'éviter tout endommagement des électrodes lors de la gravure du masque en fin de procédé (sous réserve que la solution de gravure du métal choisi ne grave ni le chrome ni l'or), d'où le choix de réaliser un masque de gravure DRIE en nickel. Les techniques de dépôt envisageables pour déposer le nickel sont : • Le dépôt électrolytique est une technique de dépôt permettant de réaliser des couches de métaux épaisses de plusieurs micromètres. Un courant électrique permet l'électrolyse d'une solution saline contenant les cations correspondant au métal à déposer sur l'échantillon qui fait office de cathode. • L'évaporation sous vide permet la réalisation de couches minces sur un échantillon. Le matériau à déposer est placé dans une enceinte sous vide secondaire et chauffé fortement de façon à ce que la pression de vapeur saturante du métal à cette température se rapproche de la pression dans la chambre. Les atomes ainsi évaporés dans l'enceinte se condensent sur les surfaces froides de l'enceinte et en particulier la surface de l'échantillon aboutissant à la croissance de la couche. • La pulvérisation cathodique est un procédé de dépôt sous vide assisté par plasma. Le matériau à déposer (dans notre cas du nickel) est la cible et constitue la cathode du système. L'échantillon est placé en regard de la cathode. Un plasma est créé de manière similaire au cas de la gravure par plasma. Un bombardement ionique apparaît au niveau de la cathode : les ions viennent frapper la cible et arrachent des atomes de la cible qui sont pulvérisés et se condensent sur l'échantillon. Les atomes pulvérisés possèdent des énergies plus importantes que dans le cas de l'évaporation (énergie thermique), forment des couches plus uniformes, 107 Šƒ’‹–”‡͵ǣ‹•‡‡à—˜”‡–‡ Š‘Ž‘‰‹“—‡ moins sensibles à l'état de surface de l'échantillon, qui sont plus adhérentes que dans le cas de l'évaporation [149]. Avec une sélectivité de la recette de gravure estimée entre 30 et 80 d'après la littérature, nous devons donc disposer d'au moins 1,5 à 4 μm de nickel pour espérer graver 100 μm de quartz. L'évaporation sous vide n'est pas adaptée pour des épaisseurs supérieures à quelques centaines de nanomètres : des essais antérieurs ont montré que les couches évaporées s'effritent dès lors que des épaisseurs de l'ordre du micromètre sont atteintes. Nous nous sommes alors orientés vers la pulvérisation cathodique, une technique bien connue et maitrisée au sein de l'équipe CMT. La réalisation du masque de gravure peut se faire suivant deux méthodes : • par gravure chimique: le métal est tout d'abord déposé sur toute la surface du wafer (dépôt dit « pleine plaque ») puis les motifs du masque sont transférés par une photolithographie conventionnelle suivie d'une gravure chimique par voie humide. Cette dernière est réalisée à l'aide d'une solution commerciale (TFB ou TFG de chez Transène) avec agitation pendant plusieurs dizaines de minutes. Un avantage de cette méthode est la simplicité de sa mise en oeuvre. En pratique, la qualité des motifs obtenus est décevante : la sous gravure est importante et arrondit les flancs du masque en nickel du fait de l'isotropie de gravure pouvant dégrader la verticalité de ces derniers. Il se forme également une couche au fond des motifs gravés qui résiste à l'attaque chimique et dégrade par la suite le fond de gravure en DRIE, ce phénomène est illustré en Figure 85. Figure 85 Gauche : exemple de gravure chimique par voie humide de motifs en utilisant le TFB, droite : zoom sur les résidus au fond des tranchées. 108 Šƒ’‹–”‡͵ǣ‹•‡‡à—˜”‡–‡ Š‘Ž‘‰‹“—‡ • L'autre option pour réaliser le masque de gravure DRIE est le procédé de décollement de résine ou lift-off. Un masque de résine est réalisé avant le dépôt de métal. L'immersion de l'échantillon métallisé dans une solution spécifique de dissolution de la résine conduit à la révélation des motifs. La piste du décollement de résine est plus prometteuse que la gravure chimique par voie humide du masque de gravure. En effet, le contrôle des flancs est en théorie plus rigoureux et les tests que j'ai réalisés ont présenté un fond de gravure plus propre. Cela fut confirmé par les tests de gravure DRIE que j'ai menés sur des échantillons dont le masque de gravure est en nickel et réalisé par décollement de résine ou gravure chimique. Dans le cas du décollement de résine, le contrôle des flancs est supérieur. Je présente ces résultats de manière détaillée dans la suite. Nous dévoilons de manière anticipée un résultat important : les mesures de sélectivité sur les essais ont indiqué que la sélectivité moyenne était proche de 45. Cette information est primordiale car elle fixe l'épaisseur minimale du masque de métal à déposer : dans notre cas, pour graver 100 μm, au moins 2.2 μm de nickel sont nécessaires. Pour assurer une marge raisonnable, nous ciblerons une épaisseur de 3 μm. Pour résumer, dans l'objectif de réaliser un masque de gravure DRIE capable d'assurer 100 μm de gravure de quartz, nous nous sommes orientés vers les masques métalliques car ils présentent une meilleure sélectivité et généralement un meilleur contrôle des flancs : l'érosion latérale est réduite par rapport au masque en résine. Le choix du nickel au détriment du chrome est justifié par la présence du chrome dans la technologie actuelle des électrodes. La préférence du dépôt de nickel par pulvérisation cathodique devant l'évaporation sous vide est motivée par la faible épaisseur maximale réalisable par cette dernière technique. Deux méthodes de transfert des motifs sont envisageables : la gravure chimique du masque de métal par voie humide ou le décollement de résine. J'ai mené des tests préliminaires et les résultats de ceux-ci m'ont amené à privilégier le décollement de la résine. 3.3.2 Verrous rencontrés en vue d'amélioration du procédé de décollement de résine Plusieurs verrous technologiques doivent être levés en vue de la réalisation des résonateurs ARQOMM 2D en DRIE, d'une part au niveau de la technique de masquage avec la tenue de la résine à la pulvérisation catholique et l'adaptation du décollement de résine à des épaisseurs importantes de métal, d'autre part au niveau du contrôle de la qualité du fond de gravure des motifs gravés. 109 Šƒ’‹–”‡͵ǣ‹•‡‡à—˜”‡–‡ Š‘Ž‘‰‹“—‡ 3.3.2.1 Décollement de résine (« lift-off ») La pulvérisation cathodique induit des températures élevées au niveau de l'échantillon du fait de l'énergie importante des atomes pulvérisés et ce même à faible puissance. La recette de dépôt développée pour réaliser ce masque de nickel est une recette « faible » puissance de 100 W sous une pression d'argon de 16.9 x 10-3mbar avec une température de dépôt estimée au niveau du substrat comprise entre 100 et 150°C. La résine que nous souhaitons utiliser devrait être en mesure de supporter de telles températures et pendant la durée du dépôt, soit plusieurs heures. Le procédé de décollement de résine est habituellement réalisé à l'aide d'une résine négative inversible et est rendu possible par la présence de casquettes au niveau des flancs. Cependant de telles résines comme la Ti35es ne supportent pas les températures élevées : elles ont tendance à gonfler et à réticuler pendant le dépôt. C'est pourquoi un procédé utilisant une bicouche de résines a été développé antérieurement à l'ONERA. Cette bicouche se compose de résine LOR 5A, une résine non photosensible, recouverte par une couche de S1813, une résine photosensible positive. L'objectif est de réaliser des casquettes, similaire au cas des résines inversibles comme illustré dans la Figure 86. Figure 86 Schéma de procédé du décollement de résine dans le cas habituel d'une résine inversible. Dans le cas standard des résines inversibles de type TI35es, l'obtention de flancs rentrants favorables au décollement de la résine est obtenue par un recuit dit d'inversion qui induit un changement de polarisation de la résine (de positive vers négative) grâce à une réticulation de la résine exposée. La dose d'insolation à la première insolation est soigneusement choisie de façon à obtenir un gradient du degré d'insolation de la surface vers l'échantillon et obtenir ainsi un gradient du degré de réticulation 110 Šƒ’‹–”‡͵ǣ‹•‡‡à—˜”‡–‡ Š‘Ž‘‰‹“—‡ lors du recuit d'inversion. Ce gradient de réticulation provoque alors un développement de la résine moins prononcé en surface qu'en profondeur (d'où les flancs rentrants). Dans le cas de la photolithographie avec la LOR, le principe est différent : on utilise le fait que la résine LOR se dissout dans la solution de développement qu'elle ait été exposée ou non. Le développement de la résine en dessous des motifs de S1813 conduit à la création de casquettes qui sont cruciales pour parvenir à décoller la résine après dépôt. En effet, le dépôt par pulvérisation est plutôt conforme (c.-à-d. le dépôt est peu directif et a tendance à recouvrir les flancs). Une illustration du procédé de réalisation des casquettes est donnée sur la Figure 87. Figure 87 Procédé de décollement de résine ONERA utilisant un empilement de résine. Lors de sa mise en oeuvre, ce procédé de décollement de résine a cependant présenté un inconvénient majeur : la présence de languettes d'autant plus marquées que les motifs sont de faibles dimensions. Ce phénomène est illustré sur la Figure 88 où des lignes de largeurs nominales de 15 et 20 μm (de droite à gauche) sont montrées. 111 Šƒ’‹–”‡͵ǣ‹•‡‡à—˜”‡–‡ Š‘Ž‘‰‹“—‡ Figure 88 Gauche : images de microscopie optique présentant des exemples de languettes de nickel sur des lignes de largeurs nominales 20 et 15 μm, droite : explication du phénomène observé. Ces irrégularités risquent de dégrader le transfert des motifs pendant la gravure DRIE. L'hypothèse la plus probable pour expliquer la présence de ces languettes est la trop grande finesse de la couche de résine LOR : il se crée alors un filet continu de nickel entre le nickel déposé sur la résine et celui directement sur le quartz. Il est conseillé d'avoir une épaisseur de LOR supérieure à la couche de métal déposée [150] afin de rendre discontinu le filet comme illustré sur la Figure 89. 112 Šƒ’‹–”‡͵ǣ‹•‡‡à—˜”‡–‡ Š‘Ž‘‰‹“—‡ Figure 89 Schéma de procédé mettant en évidence l'intérêt d'employer une résine LOR plus épaisse : le filet de nickel n'est plus continu. Le procédé initial comportait une triple enduction de LOR 5A permettant d'atteindre une épaisseur de LOR de 2 μm mesurée au profilomètre mécanique KLA Tencor alpha step D-100, ce qui est insuffisant pour un dépôt de métal de 3 μm. J'ai mené des tests avec une résine plus épaisse, la LOR 10B, en modifiant le nombre de couches de résine et la vitesse de rotation de la tournette. Chaque étape d'enduction est suivie d'une étape de recuit sur plaque de température croissante. L'épaisseur finale cumulée des couches de LOR 10B est suffisante et les languettes ont été minimisées comme le montre la Figure 90. a) b) Figure 90 images de microscopie optique présentant des exemples de poutres après amélioration du procédé de décollement de résine, a) : poutres de largeurs nominales 15 et 10 μm grandissement x200, b) : poutres de largeur nominale 10 μm grandissement x500. 113 Šƒ’‹–”‡͵ǣ‹•‡‡à—˜”‡–‡ Š‘Ž‘‰‹“—‡ Ce procédé de décollement de résine sera utilisé par la suite pour la réalisation des résonateurs ARQOMM. J'ai observé deux inconvénients de ce procédé modifié, 1) les plus petits motifs ne sont pas toujours rendus comme nous pouvons le constater sur la Figure 90a) : les lignes de largeur initiale de 5 μm ont été entièrement surdéveloppées ; 2) les dimensions latérales sont plus importantes que celles du masque, par exemple la largeur nominale pour les poutres de la Figure 90b) était de 10 μm, mais en pratique nous mesurons une largeur de 17 μm. Figure 91 Poutre en nickel après décollement de résine avec le procédé optimisé, les lignes de 5 μm de largeur ont été surdéveloppées. La résolution est limitée, d'une part, par l'étape de photolithographie, l'utilisation d'une couche épaisse de résine dégrade la résolution et d'autre part, par l'emploi d'une méthode de dépôt plutôt conforme. Les défauts peuvent cependant être largement atténués en remarquant que d'une part, les motifs pour les ARQOMM ne présentent pas des rapports d'aspect importants, d'autre part, la largeur excessive peut être prise en compte lors de la réalisation du masque et n'aura d'impact que pour les plus petites structures. 3.3.2.2 Optimisation de la recette de gravure DRIE Une fois le masque de gravure métallique réalisé, je suis en mesure d'évaluer la pertinence de la recette du constructeur (STS) destinée à la gravure profonde du quartz sur des échantillons de tests. Il faut avant tout considérer la sélectivité du masque avec cette recette, ainsi que la profondeur gravée et la qualité des flancs. Les paramètres principaux de la recette sont les suivantes : débit de gaz C4F8 de 80 sccm et O2 de 10 sccm, pression de la chambre de 10 mTorr, puissance RF du plateau de 150 W, puissance de la bobine de 1600 W, température du plateau 50°C. Des paramètres similaires se retrouvent dans la littérature dans l'objectif de réaliser des gravures profondes de plusieurs dizaines de micromètres sur quartz ou silice [96][100][122][130]. La chimie fluorocarbonée est privilégiée dans le 114 Šƒ’‹–”‡͵ǣ‹•‡‡à—˜”‡–‡ Š‘Ž‘‰‹“—‡ cas des gravures profondes du fait de la création d'un polymère passivant sur les flancs limitant la sous-gravure. La Figure 92a) présente une mesure au profilomètre mécanique après 2h30min de gravure, la profondeur mesurée est de 72 േ 1 μm ce qui correspond à une vitesse moyenne de 29 േ 1 μm/h. La Figure 92b) montre une image MEB de l'échantillon zoomée au niveau de l'interface nickel et quartz : l'épaisseur initiale de nickel était de 2,3 μm alors que celle restante est estimée à 0,6 േ 0,1 μm, la sélectivité moyenne est proche de 45. Figure 92 a) Mesure de la profondeur de tranchées gravées pendant 2h30min, b) images MEB de l'interface nickel/quartz. La Figure 93 montre une image MEB de l'échantillon clivé. Il apparaît un flanc sortant de l'ordre de 95°. Le fond de gravure paraît dégradé, ce qui est confirmé par la Figure 94 qui présente un plan plus large de l'échantillon précédent. 115 Šƒ’‹–”‡͵ǣ‹•‡‡à—˜”‡–‡ Š‘Ž‘‰‹“—‡ 71 μm 95° Figure 93 Image MEB d'un échantillon après 2h30 de gravure avec recette constructeur M=800. Figure 94 Image MEB d'un échantillon après 2h30min de gravure avec la recette constructeur M=120. Le phénomène conduisant à ce fond de gravure dégradé est appelé par micro-masquage : il provient d'un dépôt de matériau au fond des tranchées qui vient protéger le quartz sous-jacent et agit comme un masque non voulu. Le micro-masquage est particulièrement gênant en vue de la réalisation des ARQOMM 2D dans le cas de la gravure des cavités (gravure face B) : les pics en face arrière sont susceptibles d'agir comme des centres de diffusion de l'énergie acoustique et augmentent considérablement la rugosité entraînant une baisse certaine du facteur de qualité. Le micro-masquage 116 Šƒ’‹–”‡͵ǣ‹•‡‡à—˜”‡–‡ Š‘Ž‘‰‹“—‡ est également nuisible dans une moindre mesure pour l'étape de gravure des motifs des résonateurs (gravure face A) : les pics de micro-masquage sont accolés aux flancs et les rendent plus rugueux comme illustré sur la Figure 95. Nickel Pics de micro-masquage Flanc Quartz Figure 95 Image MEB d'un flanc après 2h30min de gravure en vue de dessus tournée. Avant d'investiguer l'origine de ce phénomène et de tenter de le réduire voire de l'éliminer, nous pouvons faire quelques remarques sur ce phénomène : premièrement la densité de pics semble plutôt homogène comme illustré sur les Figure 96b) et c) qui sont des images de microscopie optique des motifs de tests sur un échantillon obtenu par décollement de résine, en particulier, la densité de pics n'a pas augmenté entre 1h30min de gravure et 2h30min de gravure, cette observation est de prime importance puisqu'elle indique que les pics se sont formés durant la première étape de gravure. La seconde observation vient compléter la première: les dimensions latérales des pics sont également homogènes ce qui laisse penser qu'ils se forment au même moment. Un micro-masquage de densité comparable a également été observé pour un échantillon préparé par gravure chimique du nickel et gravé en même temps que celui présenté. 117 Šƒ’‹–”‡͵ǣ‹•‡‡à—˜”‡–‡ Š‘Ž‘‰‹“—‡ Figure 96 Images de microscopie optique au grossissement x50 de l'évolution du fond de gravure en cours de gravure sur un échantillon réalisé par décollement de résine. Il s'agit maintenant de comprendre l'origine de ce phénomène, en particulier de discriminer si cette contamination est due à l'environnement de la gravure, intrinsèque à la recette, dépendante de la préparation des échantillons et d'une contamination initiale ou bien une combinaison de plusieurs origines. Notre objectif consiste naturellement à réduire ces contaminations et donc le micromasquage. J'ai donc mené des essais sur des échantillons provenant des mêmes wafers utilisés lors du premier essai de gravure : un wafer a été préparé par décollement de résine, l'autre par attaque chimique du nickel par voie humide. Chacun des wafers a été ensuite clivé pour réaliser les tests : nous supposerons donc que la contamination initiale est la même pour tous les échantillons provenant du même wafer. La chambre de gravure est susceptible d'accumuler les polluants (typiquement des résidus de polymère de type téflon) qui peuvent se déposer sur l'échantillon. J'ai réalisé un test de gravure sur deux échantillons avec des préparations différentes, précédé d'un nettoyage de la chambre dont les paramètres sont les suivants : gaz O2 (150 sccm, l'oxygène réagit avec le polymère passivant de type téflon), puissance plasma 2000 W, puissance du plateau 50 W, température plateau 50°C. Le nettoyage de la chambre s'effectue sans échantillon. J'ai observé une diminution drastique du micro-masquage sur l'échantillon préparé par décollement de nickel après une gravure avec la recette constructeur de 90 min comme l'illustrent les images en microscopie MEB de la Figure 97. 118 Šƒ’‹–”‡͵ǣ‹•‡‡à—˜”‡–‡ Š‘Ž‘‰‹“—‡ Figure 97 Images de microscopie optique au grossissement x50 de l'évolution du fond de gravure d'un échantillon réalisé par décollement de résine avec un nettoyage de la chambre au préalable, à gauche : avant gravure, à droite : après une gravure de 90 min. Les contaminants observés après la gravure pour l'échantillon réalisé par décollement de résine ont pour origine ceux présents et visibles avant introduction dans la chambre. La situation est bien différente pour l'échantillon préparé par attaque chimique du nickel : le micro-masquage est prononcé comme illustré sur la Figure 98 qui montre deux images obtenues par microscopie optique avant et après gravure. Figure 98 Images de microscopie optique au grossissement x50 de l'évolution du fond de gravure d'un échantillon réalisé par gravure chimique du nickel avec un nettoyage de la chambre au préalable, à gauche : avant gravure, à droite : après une gravure de 90 min. La disparition du micro-masquage sur l'échantillon réalisé par décollement de résine après nettoyage de la chambre laisse penser que la contamination initiale de la chambre joue un rôle dans l'apparition du micro-masquage. Nous adoptons par la suite un nettoyage systématique de la chambre avant la gravure afin de conserver un état de la chambre similaire d'une gravure à l'autre et donc d'améliorer la reproductibilité de la gravure. Néanmoins, la persistance du micro-masquage sur l'échantillon réalisé 119 Šƒ’‹–”‡͵ǣ‹•‡‡à—˜”‡–‡ Š‘Ž‘‰‹“—‡ par gravure chimique suggère qu'un mécanisme supplémentaire participe à la contamination finale : il est possible que des micro-résidus de nickel ou d'autres produits utilisés lors de la préparation de l'échantillon et non visibles en microscopie optique contribuent de façon directe ou indirecte au micromasquage. Un mécanisme de contribution indirecte pourrait être par exemple que ces contaminants favorisent localement la formation de polymère CxFy lors de la gravure plasma. J'ai donc cherché à mettre au point une recette de gravure moins sensible à l'état de surface initial du wafer. L'approche que j'ai adoptée a consisté à introduire d'avantage d'oxygène dans la chambre lors de la gravure. Les contaminants réagissent donc vraisemblablement avec l'oxygène. Une hypothèse est alors que des contaminants ont pour origine des projections du polymère passivant en cours de gravure. Pour limiter la contamination nous devons contrôler et réduire la quantité de polymère pendant la gravure : cela est faisable en augmentant le taux d'oxygène dans la recette. J'ai donc modifié les débits de gaz de la recette de gravure, augmentant le rapport O2/C4F8. Après nettoyage de la chambre, j'ai gravé deux échantillons provenant des mêmes wafers utilisés lors des deux essais précédents. Les observations au microscope optique sont présentées sur la Figure 99 pour l'échantillon réalisé par décollement de la résine et la Figure 100 pour celui fabriqué par attaque chimique : elles ne laissent apparaître aucun micro-masquage, et ce pour les deux échantillons. Figure 99 Images de microscopie optique au grossissement x50 de l'évolution du fond de gravure d'un échantillon réalisé par décollement de résine avec un nettoyage de la chambre au préalable, à gauche : avant gravure, à droite : après une gravure de 90 min avec la recette enrichie en oxygène. 120 Šƒ’‹–”‡͵ǣ‹•‡‡à—˜”‡–‡ Š‘Ž‘‰‹“—‡ Figure 100 Images de microscopie optique au grossissement x50 de l'évolution du fond de gravure d'un échantillon réalisé par gravure chimique du nickel avec un nettoyage de la chambre au préalable, à gauche : avant gravure, à droite : après une gravure de 90 min avec la recette enrichie en oxygène. La luminosité a été augmentée sur l'image de droite pour un meilleur aperçu du fond de la tranchée. La Table 12 synthétise les essais réalisés : l'obtention d'un fond de gravure lisse dans le cas des échantillons du troisième test confirme le rôle crucial de l'oxygène dans le contrôle du fond de gravure qui passe vraisemblablement par une élimination des contaminants avant la gravure et par une réduction des projections de polymère passivant durant la gravure. Table 12 Récapitulatif des essais menés pour investiguer la dégradation du fond de gravure. Tous les échantillons testés fabriqués par décollement de résine ou attaque chimique du nickel proviennent du même wafer. Une solution efficace pour réduire le micro-masquage a été de procéder à un nettoyage de la chambre avant gravure et d'augmenter la proportion d'oxygène dans le plasma afin d'éliminer plus de polymère passivant et donc de réduire le risque de redépôt. La Figure 101 est une image MEB d'une vue des tranchées gravées avec la recette enrichie en O2 après 4h30min. 121 Šƒ’‹–”‡͵ǣ‹•‡‡à—˜”‡–‡ Š‘Ž‘‰‹“—‡ Figure 101 Image obtenue en microscopie électronique de sections de tranchées de quartz après 4h30min de gravure DRIE en utilisant la recette enrichie en oxygène. La Figure 102 montre une section de tranchée obtenue avec la recette enrichie en oxygène après 4h30min de gravure. 87° 88 μm 92 μm 92° Figure 102 Image obtenue en microscopie électronique d'un flanc de tranchée de quartz après 4h30min de gravure DRIE en utilisant la recette enrichie en oxygène. La profondeur gravée est proche de 92 μm : la vitesse de gravure est proche de 20 μm/h et est moins élevée que dans le cas de la recette constructeur : cela s'explique qualitativement par la réduction de la concentration d'espèces fluorées dans le plasma. Après 4h30min de gravure, il reste du nickel au sommet des motifs ce qui indique que la sélectivité moyenne est supérieure à 122 ଽଶ ଶǤଷ ൌ ͶͲ. Nous pouvons Šƒ’‹–”‡͵ǣ‹•‡‡à—˜”‡–‡ Š‘Ž‘‰‹“—‡ remarquer que les flancs de gravure sont légèrement rentrants, d'environ 3°. Cette observation n'est pas anodine. En effet, dans le cas de la recette constructeur les flancs étaient sortants et déviaient de la verticalité d'un angle proche de 5°: plus la gravure avance moins la gravure latérale s'opère, ce qui témoigne d'une passivation excessive par le polymère de type téflon. En augmentant le rapport d'oxygène, ce polymère est d'avantage consommé pendant la gravure en particulier sur les flancs en fond de tranchées ce qui explique l'aspect rentrant. En fin de compte, l'augmentation de la proportion d'oxygène a contribué à l'obtention d'un fond de gravure lisse et à un meilleur contrôle de la verticalité des flancs par rapport à la recette constructeur. La recette de gravure ainsi modifiée, enrichie en oxygène, sera celle utilisée pour la gravure des résonateurs dans la suite du document sauf mention contraire. Une perspective intéressante pour une optimisation à plus long terme de la recette est la possibilité de passer d'un profil de flanc rentrant à sortant par modification du rapport d'oxygène : il existe donc un point optimal de concentration d'oxygène pour lequel la verticalité rigoureuse des flancs est atteinte, du moins pour des profondeurs gravées de l'ordre de 70-90 μm. La Table 13 synthétise les principales caractéristiques des deux recettes étudiées. Table 13 Récapitulatif des caractéristiques principales des deux recettes évaluées : la recette constructeur et la recette enrichie en oxygène. J'ai mis en avant le rôle crucial de l'oxygène dans l'obtention d'un fond de gravure d'apparence lisse et dans le contrôle de la verticalité des flancs : ce gaz permet vraisemblablement de réguler le dépôt de polymère induit par l'utilisation de gaz fluorocarbonés. 123 Šƒ’‹–”‡͵ǣ‹•‡‡à—˜”‡–‡ Š‘Ž‘‰‹“—‡ 3.4 Influence de la coupe cristalline du quartz Nous donnons ici des résultats expérimentaux intéressants pour l'exploitation de la DRIE du quartz. La quasi-totalité des tests et des dispositifs proviennent de wafers de quartz en coupe Z. Cette coupe est usinable chimiquement et elle est bien connue de l'équipe CMT de l'ONERA, nous pouvons donc comparer directement les résultats de gravure. Toutefois la DRIE du quartz offre une possibilité inédite par rapport à la gravure chimique par voie humide, celle d'être en mesure de graver toutes les coupes cristallines du quartz. En pratique, la coupe X (ߠ ൌ Ͳιǡ ߶ ൌ ͻͲι dans la Figure 10) n'est pas usinable par gravure chimique humide car la vitesse d'usinage suivant cette direction est faible <0.02 μm/h [102], ce qui implique des durées de gravure excessives mettant en péril la bonne tenue du masque de gravure. J'ai donc réalisé un test de gravure DRIE sur un wafer en coupe X avec la recette enrichie en oxygène pendant 2 h 30. La Figure 103 présente une image MEB correspondant aux flancs de deux tranchées. Figure 103 Images MEB de deux tranchées obtenues après 2h30min de gravure en utilisant la gravure enrichie en oxygène sur un échantillon provenant d'un wafer de coupe X. L'inclinaison apparente des flancs est exagérée du fait de la non-perpendicularité entre la direction de clivage par rapport à celle de l'observation. Nous pouvons toutefois remarquer une sous-gravure significative au niveau du sommet des motifs : pour des raisons pratiques, le masque de gravure a été préparé par gravure chimique humide du nickel. Le résultat important est l'obtention d'une vitesse de gravure et d'une sélectivité similaires à celles obtenues dans le cas d'un échantillon provenant d'un wafer en coupe Z dans les mêmes conditions de préparation et de gravure. Ce résultat est prometteur car il offre de nouvelles perspectives pour l'optimisation de micro-résonateurs en quartz : dans le cas de poutre en flexion dans le plan à facteur de qualité constant, le changement d'une coupe Z pour une coupe X permettrait de diviser la résistance motionnelle par un facteur 1,4 [151] et donc d'augmenter 124 Šƒ’‹–”‡͵ǣ‹•‡‡à—˜”‡–‡ Š‘Ž‘‰‹“—‡ d'autant le rapport signal sur bruit. Un tel mode de vibration est utilisé par exemple dans le cas du Vibrating Inertial Accelerometer (VIA) développé par l'ONERA. Le gain sur la résistance motionnelle est même plus important dans le cas d'un ARQOMM 2D usiné dans un wafer en coupe X à la place de la coupe Z, il serait proche de 2 à3 selon une étude menée au sein de l'équipe [101]. L'utilisation de la coupe X apparaît donc comme une piste envisageable pour réduire la résistance motionnelle. Il faudra toutefois adapter le réseau d'électrode, en particulier déposer des électrodes sur les deux faces comme illustré sur la Figure 104 . Figure 104 Réseaux d'électrodes dans le cas de dépôt sur les deux faces pour une poutre vibrant en extensioncompression de longueur dans la direction Y, à gauche : la poutre provient d'un wafer de coupe Z, à droite : d'un wafer de coupe X. 3.5 ARDE de la DRIE du quartz La dépendance de la gravure en fonction du rapport d'aspect (en anglais, Aspect Ratio Dependent Etching ou ARDE) est un phénomène observé dans les cas des gravures plasma sur divers matériaux comme le silicium [152] [153], le GaAs [154] ou la silice [155]. Ce phénomène se traduit le plus souvent par une baisse de la vitesse de gravure avec l'augmentation du rapport d'aspect et donc du temps de gravure. Nous précisons, que dans le cas de la gravure, le rapport d'aspect (A) est défini comme le rapport de la profondeur gravée de matériau sur l'ouverture de dimension minimale et non comme le rapport de la plus petite dimension du masque sur la profondeur gravée. En pratique, une tranchée de faible largeur (et donc de fort rapport d'aspect) est souvent bien plus compliquée à obtenir qu'une poutre de même largeur. Deux autres effets sont également souvent cités dans la littérature des gravures sèches : 1) le microloading qui correspond à la baisse de la vitesse de gravure avec l'augmentation locale de la densité de motif, 2) le macroloading qui correspond à la baisse de la vitesse de gravure avec l'augmentation globale de la surface exposée sans changement de densité. Ces trois effets sont des conséquences de la modification des conditions locales de gravure au cours du temps. 125 Šƒ’‹–”‡͵ǣ‹•‡‡à—˜”‡–‡ Š‘Ž‘‰‹“—‡ Les caractérisations de l'ARDE ont été réalisées sur des échantillons de tests qui proviennent de wafers de quartz en coupe Z avec un masque de nickel réalisé par décollement de résine. Ces wafers sont collés sur un wafer support en silicium puis sont introduits dans la chambre du plasma après le nettoyage de celle-ci. Ils sont nettoyés à l'aide d'un plasma oxygène puis gravés pour une étape par la recette enrichie en oxygène. Les échantillons sont ensuite retirés de la chambre : les mesures de profondeur au microscope optique sont réalisées en faisant la mise au point au sommet du nickel puis en fond de tranchée. La différence entre les deux niveaux est donnée par la plateforme et le logiciel du microscope optique (Carl Zeiss Axio Imager). L'erreur est directement liée à la profondeur de champ de l'objectif du microscope qui est de l'ordre du micromètre. Les profondeurs des tranchées larges (>200 μm) ont également pu être mesurées au profilomètre mécanique, ce qui a permis de valider les valeurs lors des mesures optiques. Les dimensions latérales des motifs ont été mesurées au microscope optique. L'opération est répétée pour des temps totaux de gravure de 2h, 3h et 4h. La Figure 105 montre l'évolution de la profondeur mesurée en fonction de la largeur des tranchées pour différentes durées de gravure. Figure 105 Profondeurs gravées de quartz e en fonction de largeur w des motifs pour différents temps de gravure Les trois séries de données montrent que la profondeur gravée diminue de façon significative pour les largeurs de tranchées plus faibles : c'est le régime d'ARDE. La profondeur gravée est moins dépendante de la largeur des tranchées pour les tranchées les plus larges. La Figure 106 montre l'évolution de la vitesse de gravure moyenne en fonction du rapport d'aspect pour plusieurs durées de gravure. 126 Šƒ’‹–”‡͵ǣ‹•‡‡à—˜”‡–‡ Š‘Ž‘‰‹“—‡ Figure 106 Mesures expérimentales de vitesses apparentes moyennes de gravure en fonction du rapport d'aspect et pour différentes durées de gravure. Les points expérimentaux semblent s'aligner le long d'une droite qui semble indépendante de la durée de gravure. Une conséquence néfaste du phénomène d'ARDE est l'existence d'un rapport d'aspect maximal à partir duquel la vitesse de gravure chute et devient négligeable. Le phénomène d'ARDE constitue donc une limitation de la gravure DRIE : toutes les structures ne sont pas intégralement usinables. Il est cependant possible de le réduire comme nous le verrons par la suite. Le phénomène d'ARDE du quartz est représenté qualitativement sur la Figure 107 : une image MEB où deux tranchées de largeur différentes 70 et 265 μm ont été gravées pendant 4 heures, la plus large est profonde de 94 μm (A=0,37) contre 80 μm (A=1,14) pour la moins large. Figure 107 Vue de coupe en imagerie électronique de deux tranchées de largeurs différentes gravées pendant 4 heures avec la recette de gravure enrichie en oxygène. 127 Šƒ’‹–”‡͵ǣ‹•‡‡à—˜”‡–‡ Š‘Ž‘‰‹“—‡ Les effets d'ARDE et de micro/macroloading sont généralement indésirables dans le cas où plusieurs rapport d'aspects sont nécessaires, puisque le débouchage des motifs de plus petites dimensions engendre une sur-gravure pour les plus gros motifs ce qui est potentiellement la source d'endommagements. Dans le cas de l'ARQOMM 2D ce phénomène a été contourné par la modification du masque de gravure DRIE que ne comporte désormais qu'un seul rapport d'aspect par rapport à l'ancienne conception comme illustré sur la Figure 108. Figure 108 A gauche, ancien dessin de masque de gravure DRIE de l'ARQOMM 2D, à droite le nouveau dessin de masque ne comportant qu'un rapport d'aspect unique. Nous discutons de l'origine de ce phénomène dans le cas de la gravure profonde du quartz. Nous rappelons que dans un plasma cohabitent des espèces chargées, les ions et les électrons, et des espèces électriquement neutres, les radicaux. Plusieurs mécanismes ou combinaisons de mécanismes peuvent être à l'origine de l'ARDE [156] [157] : i) les effets d'ombrage des radicaux neutres combinés éventuellement à des processus de diffusion décrits par le modèle de Knudsen, ii) les effets d'ombrage des ions, iii) la déposition ou gravure d'espèces passivantes, iv) la déflection ionique provoquée par le chargement de la surface, v) la diffusion de surface. L'observation de la dépendance linéaire de la vitesse de gravure avec le rapport d'aspect écarte les mécanismes découlant d'une couche inhibitrice et de déflection ionique due à une accumulation de charges car ces deux derniers mécanismes dépendent de la largeur initiale des tranchées et non du rapport d'aspect [158] [159]. La baisse de la vitesse de gravure avec l'augmentation du rapport d'aspect est généralement expliquée par une déplétion des espèces réactives en fond des tranchées [160]. Ce phénomène de déplétion touche davantage les radicaux que les ions. En effet, tandis que les ions, accélérés par le champ électrique de la gaine du plasma, ont un vecteur vitesse majoritairement orienté vers la surface de l'échantillon, les radicaux, qui eux sont électriquement neutres, diffusent de manière aléatoire avec des vecteurs vitesse distribués de façon relativement homogène dans l'ensemble des directions de l'espace. Ainsi les radicaux entrant 128 Šƒ’‹–”‡͵ǣ‹•‡‡à—˜”‡–‡ Š‘Ž‘‰‹“—‡ dans la tranchée ont une probabilité plus forte que les ions de venir percuter une paroi : ils peuvent alors être réfléchis par la paroi ou s'y coller. On comprend alors que l'adsorption des radicaux sur les parois va provoquer une diminution de la concentration des radicaux au fur et à mesure que l'on s'enfonce vers le fond des motifs gravés, cette atténuation étant d'autant plus marquée que le motif gravé est étroit et profond. Dans un premier temps nous essayons d'ajuster les données avec le modèle simple de Knudsen [156]. En supposant le régime de déplétion, c.-à-d. que la vitesse de gravure est limitée par les réactions chimiques et donc par la concentration de radicaux disponibles en fond de tranchées, l'absence de gravure latérale (les radicaux ne réagissent pas aves les parois et diffusent aléatoirement), le modèle de Knudsen permet d'écrire simplement le rapport de la vitesse de gravure en fond de tranchée ‫ݒ‬௦௨௕௦௧௥௔௧ି௙௢௡ௗ sur celle au sommet de la tranchée ‫ݒ‬௦௨௕௦௧௥௔௧ି௦௢௠ selon l'expression [161] (59) : ‫ݒ‬௦௨௕௦௧௥௔௧ି௙௢௡ௗ ͳ ൌ  ‫ݒ‬௦௨௕௦௧௥௔௧ି௦௢௠ ͳ ൅ ܵ ቀ ͳ െ ͳቁ ௣௥ ‫ܭ‬ (59) Avec ‫ ܭ‬la probabilité qu'une particule du sommet de la tranchée atteigne le fond de la tranchée, ܵ௣௥ la probabilité qu'a une particule en fond de tranchée de réagir. Le coefficient ‫ ܭ‬est dépendant du rapport d'aspect ‫ ܣ‬et vérifie, dans le cas général des tubes cylindriques [162], la relation (60) : ͵ ͳ െͳൌ ‫ܣ‬ Ͷ ‫ܭ‬ (60) Pour aboutir à l'expression (59); on réalise le bilan des flux des espèces responsable de la gravure du substrat entrant et sortant d'une ouverture, ici circulaire, de diamètre w et de profondeur e. Soit ‫ݒ‬௧ et ‫ݒ‬௕ les flux de radicaux respectivement en haut et bas de l'ouverture. Le flux en bas de l'ouverture s'écrit ‫ݒ‬௕ ൌ ‫ݒܭ‬௧ Ǥ Une partie du flux incident ሺͳ െ ‫ ܭ‬ሻ‫ݒ‬௧ repart sans atteindre le fond de la tranchée. Le flux consommé par la réaction vaut ‫ݒ‬௕ ܵ௣௥ , tandis que la fraction du flux en bas de l'ouverture qui n'a pas réagi ൫ͳ െ ܵ௣௥ ൯‫ݒ‬௕ est à même de ressortir de l'ouverture avec la probabilité ‫ ܭ‬. L'équilibre des flux s'écrit suivant l'expression (61) et est représenté sur la Figure 109. ‫ݒ‬௧ ൌ ሺͳ െ ‫ ܭ‬ሻ‫ݒ‬௧ ൅ ܵ௣௥ ‫ݒ‬௕ ൅ ‫ܭ‬൫ͳ െ ܵ௣௥ ൯‫ݒ‬௕ 129 (61) Šƒ’‹–”‡͵ǣ‹•‡‡à—˜”‡–‡ Š‘Ž‘‰‹“—‡ Figure 109 Modèle de flux proposé par Coburn et Winters dans le régime de Knudsen dans le cas d'une ouverture cylindrique [161]. En faisant apparaître le rapport ‫ݒ‬௕ Ȁ‫ݒ‬௧ dans l'expression (61), on retrouve la formule (59). Nous pouvons remarquer que dans le cas ܵ௣௥ ൌ Ͳ, aucune particule n'est consommée en fond d'ouverture, nous avons donc égalité des flux (ce cas correspond également à l'égalité des vitesses de réactions qui est nulle). Si ܵ௣௥ ൌ ͳ, alors nous avons simplement ‫ݒ‬௕ ൌ ‫ݒܭ‬௧ puis ‫ݒ‬௦௨௕௦௧௥௔௧ି௙௢௡ௗ ൌ ‫ݒܭ‬௦௨௕௦௧௥௔௧ି௦௢௠ . L'expression (59) donne le rapport des vitesses de gravure instantanées. En négligeant l'épaisseur initiale du masque de nickel dans le calcul de rapport d'aspect, ce qui est raisonnable car les épaisseurs gravées sont rapidement grandes devant l'épaisseur initiale du masque (et donc d'autant plus grandes devant l'épaisseur courante du masque), nous pouvons considérer que la vitesse de gravure instantanée au sommet du motif n'est pas influencée par la présence du masque de nickel. On désignera cette dernière par ‫ݒ‬௦௨௕௦௧௥௔௧ି଴ . Nous pouvons alors réécrire l'expression (59) comme une équation différentielle en ݁ሺ‫ݐ‬ሻ, t étant la durée de gravure en heure si e en μm et ‫ݒ‬௦௨௕௦௧௥௔௧ି଴ en μm/h. ‫ݒ‬௦௨௕௦௧௥௔௧ି௙௢௡ௗ ሺ‫ݐ‬ሻ ൌ ݀݁ሺ‫ݐ‬ሻ ‫ݒ‬௦௨௕௦௧௥௔௧ି଴ ൌ  ͵݁ሺ‫ݐ‬ሻ ݀‫ݐ‬ ͳ൅ ܵ Ͷ‫ ݓ‬௣௥ (62) Avec la condition initiale ݁ሺͲሻ ൌ0, l'équation s'intègre pour aboutir à l'expression de la profondeur gravée ݁ሺ‫ݐ‬ሻ en fonction du temps et de l'ouverture des motifs ‫ݓ‬: భ ݁ሺ‫ݐ‬ሻ ൌ ቈ ଼௪ ଷௌ೛ೝ ‫ݒ‬௦௨௕௦௧௥௔௧ି଴ ‫ ݐ‬൅ ൬ ସ௪ ଷௌ೛ೝ ଶ మ ൰ ቉ െ൬ ସ௪ ଷௌ೛ೝ ൰ (63) Les courbes de profondeur gravées en fonction de l'ouverture des motifs issues du modèle de Knudsen ainsi que les données expérimentales sont présentées sur le graphe de la Figure 110 où ܵ௣௥ est pris 130 Šƒ’‹–”‡͵ǣ‹•‡‡à—˜”‡–‡ Š‘Ž‘‰‹“—‡ comme paramètre d'ajustement et S=1 pour les trois jeux de données, ‫ݒ‬௦௨௕௦௧௥௔௧ି଴ est extrait de la Figure 106 et vaut 25 μm/h. Figure 110 Variation de la profondeur gravée de quartz en fonction de la variation des dimensions latérales des motifs pour différentes durées de gravure des points expérimentaux (marqueurs) et des ajustements associés (lignes continues) pour Spr=1 et vsubstrat-0=25μm/h. L'ajustement prédit de manière satisfaisante l'évolution de la profondeur avec l'ouverture des motifs et différentes durées de gravure. Cependant en augmentant la puissance du plateau et donc le bombardement ionique le modèle présenté précédemment ne prévoit pas une dépendance particulière de la vitesse de gravure si ce n'est un décalage de la vitesse moyenne vers le haut d'un rapport proche du rapport des puissances. Or, l'expérience a montré que la variation du rapport de la vitesse de gravure apparente sur le rapport d'aspect -la pente de la courbe de la Figure 106 est diminuée quand la puissance du plateau augmente comme illustré sur les courbes de la Figure 111. Nous notons que nous obtenons une nouvelle fois une dépendance quasi-linéaire entre la vitesse apparente et le rapport d'aspect. 131 Šƒ’‹–”‡͵ǣ‹•‡‡à—˜”‡–‡ Š‘Ž‘‰‹“—‡ Figure 111 Variation de la vitesse de gravure apparente en fonction du rapport d'aspect pour deux puissances de plateau. La puissance haute est 33% supérieure à la basse. Nous devons toutefois préciser que cette augmentation de la puissance du plateau engendre, certes, une augmentation de la vitesse de gravure et une meilleure homogénéité, mais elle entraîne également une baisse de la sélectivité et donc une profondeur atteignable moins importante à épaisseur de masque de nickel donnée. L'augmentation de la vitesse ‫ݒ‬௦௨௕௦௧௥௔௧ି଴ à 30 μm/h, en accord avec la Figure 111, n'est pas suffisante pour obtenir un ajustement avec le modèle de Knudsen. Le paramètre d'ajustement ܵ௣௥ est modifié en conséquence, ܵ௣௥ ൌ Ͳǡ͸ permet le meilleur ajustement des données expérimentales obtenues avec la puissance plateau haute. L'ensemble des données et des courbes d'ajustement issues du modèle de Knudsen des variations de profondeurs gravées en fonction de l'ouverture des motifs est montré sur la Figure 112. 132 Šƒ’‹–”‡͵ǣ‹•‡‡à—˜”‡–‡ Š‘Ž‘‰‹“—‡ Figure 112 Variation de la profondeur gravée de quartz en fonction de la variation des dimensions latérales des motifs pour différentes durées de gravure des points expérimentaux (marqueurs) et des ajustements associés (lignes continues). Les ajustements des valeurs expérimentales utilisant la puissance plateau basse (jeux de données rouge, vert et bleu) ont été obtenus avec Spr=1 et vsubstrat-0=25μm/h. L'ajustement des données utilisant la puissance plateau haute (violet) a été obtenu avec Spr=0.6 et vsubstrat-0=30μm/h. Nous pouvons également exprimer la vitesse moyenne normalisée estimée par le modèle de Knudsen en divisant l'expression (63) par le temps de gravure et la vitesse de gravure à faible rapport d'aspect et la comparer aux données expérimentales de la Figure 111, comme cela est fait sur la Figure 113. Figure 113 Variation de la vitesse de gravure moyenne normalisée en fonction du rapport d'aspect pour les données expérimentales pour une puissance plateau nominale (marqueurs bleus, rouges et verts) et pour une puissance de 133 Šƒ’‹–”‡͵ǣ‹•‡‡à—˜”‡–‡ Š‘Ž‘‰‹“—‡ plateau élevée (marqueurs violets) et pour les estimations issues du modèle de Knudsen (lignes pointillées noire pour la puissance plateau nominale et violette pour la puissance plateau élevée). Les ajustements des valeurs expérimentales utilisant la puissance plateau basse (jeux de données rouge, vert et bleu) ont été obtenus avec Spr=1 et vsubstrat-0=25μm/h. L'ajustement des données utilisant la puissance plateau haute (violet) a été obtenu avec Spr=0.6 et vsubstrat-0=30μm/h. Bien que les prédictions paraissent satisfaisantes, la validité du modèle est à approfondir. L'ajustement des données avec la puissance élevée du plateau est obtenu avec une probabilité de réaction ܵ௣௥ inférieure au cas nominal, cette baisse de trouve pas d'explication dans l'utilisation du modèle actuel. En effet, l'augmentation de la puissance plateau devrait se traduire par une augmentation de la vitesse nominale de gravure (translation vers le haut des points expérimentaux sur le graphique de la Figure 111) et non une modification de la pente de la courbe. Il s'agira donc par la suite d'étoffer le modèle en tenant en compte la contribution ionique. Nous remarquons également que nous avons utilisé une expression de ‫ ܭ‬, probabilité qu'une particule partant du sommet de la tranchée atteigne le fond de la tranchée, valide pour les tubes circulaires, alors que les données expérimentales sont issues de mesures sur des tranchées de largeur différente. Comme la tranchée n'est confinée spatialement que dans une direction, on s'attend à avoir une probabilité ‫ ܭ‬plus favorable que dans le cas des tubes. 3.6 Masques de photolithographie Les procédés décrits dans ce chapitre font intervenir trois masques de photolithographies : le masque de gravure des électrodes, le masque de gravure des motifs des résonateurs (face A) et le masque des cavités (face B). Des masques d'électrodes et de motifs de résonateurs avaient déjà été réalisés avant ces travaux, ils sont présentés sur la Figure 114. 134 Šƒ’‹–”‡͵ǣ‹•‡‡à—˜”‡–‡ Š‘Ž‘‰‹“—‡ Figure 114 Masques de photolithographie, gauche : motifs des résonateurs ARQOMM 2D de type I, droite : électrodes. Nous nous concentrons sur trois tailles de résonateurs vibrants respectivement aux alentours de 2,2, 3 et 4,5 MHz. Les longueurs des résonateurs sont consignées dans la Table 14. Chaque longueur est légèrement modulée autour d'une fréquence centrale. Table 14 Fréquences ciblées des résonateurs et longueurs de la poutre centrale du masque de photolithographie. ݂௥௘௦ି௖௜௕௟௘ simulations éléments finis (MHz) ‫ܮ‬௖௜௕௟௘ dimensions sur le masque (μm) 4.424076 616 4.467591 610 4.511971 604 2.960644 920 2.980079 914 2.999771 908 2.217364 1228 2.220616 1222 2.231157 1216 Un nouveau trio de masques de photolithographie a été réalisé et compte des résonateurs ARQOMM 2D de type I et II. Ces masques superposés sont présentés sur la Figure 115 pour différentes échelles. Les numéros de cellules se situent au niveau du masque d'électrodes. Le réseau d'électrode a également fait l'objet d'un soin particulier : les électrodes de toutes les cellules sont prolongées jusqu'au bord du wafer afin de faciliter les mesures électriques. 135 Šƒ’‹–”‡͵ǣ‹•‡‡à—˜”‡–‡ Š‘Ž‘‰‹“—‡ Figure 115 Masques de photolithographie, gauche : vue d'ensemble ; milieu : gros plan sur quelques résonateurs, droite : gros plan sur un ARQOMM 2D de type 2 vibrant à 4,5 MHz. Deux points importants sont à noter. D'une part, la fréquence ne dépend principalement que de la longueur de la poutre centrale comme démontrée dans le chapitre précédent, nous donnes les mêmes fréquences ciblées pour le type I et le type II. En réalité, il existe une différence relative de fréquence inférieure à 0,1% entre les fréquences des ARQOMM 2D de type 1 et 2. D'autre part, la volonté de réaliser des résonateurs de tailles différentes sur un même échantillon implique que pour des raisons de simplicité pratique les résonateurs auront la même épaisseur (à la modulation près de l'ARDE). 3.7 Procédés de fabrication complets Je conclus ce chapitre en présentant les procédés de fabrications mis au point au cours de mes travaux de thèse. L'originalité principale de ces procédés est le recours à la gravure DRIE du quartz pour la fabrication de structures impossibles à usiner jusqu'alors avec la gravure chimique humide. 3.7.1 Double gravure DRIE Le premier procédé de fabrication proposé en vue de la réalisation des résonateurs ARQOMM 2D comporte deux étapes de gravure DRIE du quartz, une pour la réalisation des motifs des résonateurs (face A), et l'autre pour les cavités en face arrière (face B). Le procédé peut être subdivisé en 5 séquences principales : • Réalisation des électrodes, • Réalisation du masque de gravure face A, • Gravure DRIE face A • Réalisation du masque de gravure face B, • Gravure DRIE face B 136 Šƒ’‹–”‡͵ǣ‹•‡‡à—˜”‡–‡ Š‘Ž‘‰‹“—‡ Le procédé de fabrication est présenté schématiquement sur la Figure 116. Figure 116 Procédé de fabrication utilisant la gravure DRIE double face Le procédé présenté suscite quelques remarques : • • • Après observation et suivant l'état des résonateurs, des étapes courtes (typiquement 10 à 30 minutes) de gravure peuvent être réalisées pour améliorer le débouchage de la structure, et ce en face A ou face B. L'expérience a montré que dans le cas des résonateurs ARQOMM 2D, il était préférable de commencer par graver les cavités et non la face des motifs des résonateurs (face A). En effet, après retournement de l'échantillon, la surface est souvent légèrement contaminée, ce qui peut conduire à un fond de gravure de moins bonne qualité (micro-masquage). En commençant par la gravure des cavités, on s'assure que la face arrière des résonateurs n'a pas de micromasquage. La seconde gravure, qui consiste alors à graver les motifs des résonateurs en face avant, est quant à elle traversante : l'impact d'un fond de gravure dégradée est donc relativement limité. Le procédé de fabrication ne compte finalement que 13 étapes, cependant nous attirons l'attention sur la durée nécessaire minimale pour l'obtention d'échantillons caractérisables. 137 Šƒ’‹–”‡͵ǣ‹•‡‡à—˜”‡–‡ Š‘Ž‘‰‹“—‡ Deux étapes sont en particulier gourmandes en temps : la gravure DRIE bien évidemment et le dépôt de nickel par pulvérisation. Avec une vitesse de gravure moyenne typiquement comprise entre 20 et 30 μm/h nous devons compter près de 10 heures de gravure pour déboucher un échantillon. Il faut également ajouter un temps similaire pour le nettoyage de la chambre après chaque étape de gravure (de 15 min à 1h30 min) afin d'éliminer les contaminants. Au total chaque wafer nécessite près de 20 h d'occupation de l'équipement de DRIE. Le dépôt de nickel s'effectue à basse puissance pour réduire la réticulation des résines et les endommager au minimum. Ce besoin de basse puissance implique une vitesse de dépôt lente : 6 heures sont nécessaire pour le dépôt des 3 μm de nickel. 3.7.2 Gravure DRIE et gravure chimique par voie humide Un procédé alternatif comprenant une étape de gravure chimique par voie humide pour la réalisation des cavités a également été développé. La motivation derrière le développement de ce procédé alternatif a été de réduire le temps de gravure DRIE, afin de limiter l'apparition des fissures dans le quartz. L'agencement des étapes schématisé sur la Figure 117 Figure 117 Procédé de fabrication alternatif comprenant une étape de gravure DRIE et une étape de gravure chimique par voie humide. 138 Šƒ’‹–”‡͵ǣ‹•‡‡à—˜”‡–‡ Š‘Ž‘‰‹“—‡ 3.8 Conclusion du chapitre 3 Au cours de chapitre nous avons vu que la réalisation des résonateurs ARQOMM 2D impliquait le développement d'un moyen alternatif de gravure au vue des limitations de la gravure chimique par voie humide du quartz. La gravure sèche assistée par plasma de type DRIE est la candidate idéale pour remplacer la gravure chimique humide pour l'usinage des motifs. Elle permet l'obtention de flancs verticaux par l'action d'un bombardement ionique directif de l'échantillon qui favorise les réactions chimiques sur les surfaces horizontales exposées au plasma. Dans le cas du quartz, les gaz utilisés conduisent au dépôt d'un polymère passivant qui améliore l'anisotropie de gravure en ralentissant les réactions sur les flancs. Le développement de la gravure sèche du quartz s'est accompagné de points techniques à soulever comme la technique de masquage ou l'obtention d'un fond de gravure lisse. Nous avons ainsi pu mettre en évidence le rôle crucial de l'oxygène dans la réduction des contaminations. Le besoin de graver près de 100 μm de quartz nous a conduits à privilégier un masque métallique en nickel. La réalisation de ce dernier par décollement de résine a été rendue possible par le développement d'une méthode de photolithographie adaptée utilisant un empilement de résines. La possibilité de graver la coupe X du quartz en DRIE ouvre de nouvelles perspectives pour l'optimisation des performances de l'ensemble des résonateurs. Nous avons également discuté de l'ARDE qui est un phénomène limitant les géométries réalisables par DRIE, ce phénomène n'est cependant pas contraignant dans le cas des ARQOMM 2D. Nous avons présenté les procédés de fabrication complets permettant, à partir d'un wafer nu, d'aboutir aux dispositifs caractérisables. La réalisation des ARQOMM 2D peut commencer. 139 Šƒ’‹–”‡Ͷǣƒ”ƒ –±”‹•ƒ–‹‘•†‡•†‹•’‘•‹–‹ˆ•‡–ƒƒŽ›•‡• Chapitre 4 : Caractérisations des dispositifs et analyses La mise en oeuvre technologique décrite dans le chapitre précédent a permis une montée en maturité des procédés de fabrication des résonateurs en quartz par gravure plasma au sein de l'unité CMT. Cette montée en maturité s'est traduite par la réalisation avec succès de résonateurs ARQOMM 2D caractérisables. Dans une première partie, nous présentons les moyens de caractérisations des résonateurs avant de présenter, dans une deuxième partie, les réalisations pertinentes et leurs performances. Un facteur de qualité avoisinant 340 000 a pu être mesuré sur un résonateur vibrant à 2,2 MHz et un produit ܳ ൈ ݂ maximal de ͳǤ͹ ൈ ͳͲଵଶ ‫ ݖܪ‬sur un mode harmonique ce qui est proche des performances attendues et constitue une amélioration notable des performances atteignables sur des résonateurs en quartz vibrant en extension-compression de longueur. Je discuterai alors des mécanismes limitants. Je mettrai en évidence l'importance des pertes liées à la viscoélasticité des électrodes et des pertes à l'encastrement et je donnerai des pistes pour les futurs travaux. Nous présentons enfin les mesures de performances du premier oscillateur prototype synchronisé par un résonateur ARQOMM 2D : un palier de la variance d'Allan de la fréquence normalisée de ͳͲିଵ଴ entre 0,1 et 5 s ainsi qu'un vieillissement quotidien de 3 ppb, une fois le dispositif placé dans une enceinte thermostatée autour du point d'inversion ont été mesurés, faisant de l'oscillateur un dispositif aux performances comparables à celles des OCXOs miniatures actuels. Le facteur de qualité du premier résonateur ainsi intégré est cependant 3 à 4 fois inférieur à ceux qui ont pu être obtenus après amélioration du procédé de fabrication et une meilleure compréhension des mécanismes limitants. La résistance motionnelle associée est importante ce qui induit une réduction du facteur de qualité chargé. L'intégration des meilleures cellules en oscillateur devrait aboutir à une amélioration significative des performances, en particulier vis-à-vis de la stabilité court-terme, traduite par un plateau de la variance d'Allan aussi bas que quelques ͳͲିଵଵ . Pour conclure je donnerai quelques perspectives en vue de la réalisation d'un OCMO vibrant à 10 MHz intégrant un résonateur ARQOMM 2D. 140 Šƒ’‹–”‡Ͷǣƒ”ƒ –±”‹•ƒ–‹‘•†‡•†‹•’‘•‹–‹ˆ•‡–ƒƒŽ›•‡• 4.1 Moyens de caractérisations des résonateurs Les paramètres mécaniques du résonateur (f, Q, Rm) sont calculés à partir de mesures faites à l'impédance-mètre ou par la méthode dite de l'amplificateur de charges. Nous les détaillons dans cette section. 4.1.1 Mesure à l'impédance-mètre Les impédance-mètres utilisés sont les équipements Agilent 4294A ou le Keysight EA990. Un impédance-mètre, comme son nom l'indique, permet de mesurer l'impédance ܼሺ݂ሻ des composants (condensateurs, inductances résistance ou combinaisons) pour des fréquences comprises entre 40 Hz et 110 MHz. La technique de mesure employée est la méthode d'auto-équilibrage [163] dont le schéma de principe est présenté sur la Figure 118. L'amplificateur crée une masse fictive au point M. Un générateur de tension est relié à une borne du résonateur. Le courant dans la branche connectée à l'entrée « – » de l'amplificateur est nulle, ce qui impose que la somme du courant ݅ோ traversant la résistance R et du courant ݅௫ dans la branche du résonateur d'impédance ܼ௫ vaut 0. L'écriture de cette condition conduit ainsi à la relation suivante (65), où ܸ௫ et ܸோ sont les tensions mesurées par les voltmètres V1 et V2. ܼ௑ ൌ െ ܸ௑ ܴ ܸோ (64) Figure 118 Schéma de principe de la mesure par pont auto équilibré. Pour réduire les erreurs introduites par les fils de connexions entre l'appareil et le résonateur à caractériser, plusieurs calibrations sont faites : (i) en circuit ouvert (« open ») permettant de supprimer les capacitances parasites, (ii) en court-circuit (« short »), pour réduire les impédances en série avec le composant à caractériser et (iii) en plaçant une résistance de charge à la place du composant à caractériser (« load »). Il est souhaitable d'utiliser une résistance de charge proche de l'impédance à la 141 Šƒ’‹–”‡Ͷǣƒ”ƒ –±”‹•ƒ–‹‘•†‡•†‹•’‘•‹–‹ˆ•‡–ƒƒŽ›•‡• résonance de notre résonateur, typiquement quelques kŸ dans notre cas comme prévu par la partie simulation par éléments finis (cf section 2.6). Le module et la phase de l'impédance sont mesurés et tracés en fonction du balayage de la fréquence. Les paramètres motionnels ‫ܮ‬ଵ ǡ ‫ܥ‬ଵ ǡ ܴଵet statique ‫ܥ‬଴ sont obtenus par ajustement avec les expressions de module et de phase découlant de l'expression (34). La Figure 119 montre respectivement des mesures du module (points bleus) et de la phase de l'impédance (points rouges) en fonction de la fréquence autour de la fréquence de résonance ainsi que les courbes d'ajustement issues du modèle BVD. Figure 119 Mesures du module de l'impédance en échelle semi logarithmique (point bleus) et la courbe d'ajustement associé au modèle BVD (ligne continue bleue), de la phase de l'impédance (points rouges) et de la courbe d'ajustement associée (ligne continue rouge) d'un résonateur ARQOMM 2D en fonction du balayage en fréquence proche de la résonance et de l'antirésonance. La précision de mesure sur le module et la phase de l'impédance est donnée par le constructeur. Dans nos conditions de mesures les plus défavorables, c.-à-d. pour des tensions d'excitation faibles (mesures sous vide), l'erreur relative est inférieure à 1% pour la phase et le module de l'impédance autour de la résonance. L'erreur augmente à quelques pour cent pour les zones de transition et explose à l'antirésonance (plus de 100% d'erreur dans le cas de la Figure 119). Pour réduire l'erreur, il faut naturellement maximiser le rapport signal sur bruit, ce qui peut être fait en augmentant la tension d'excitation ou en diminuant l'impédance à mesurer. On comprend donc que l'erreur est minimale à la résonance et maximale à l'antirésonance. La résolution de fréquence est donnée par le rapport de la plage de fréquence affichée sur le nombre de points (fixé à 800 points) : elle vaut 5 Hz pour les 142 Šƒ’‹–”‡Ͷǣƒ”ƒ –±”‹•ƒ–‹‘•†‡•†‹•’‘•‹–‹ˆ•‡–ƒƒŽ›•‡• mesures sous pression atmosphérique et 0,5 Hz pour les mesures sous vide car on centre la plage autour de la fréquence de résonance. 4.1.2 Mesure par la méthode dite de l'amplificateur de charge Un moyen de caractérisation présentant le point commun du potentiel nul est traditionnellement employé à l'ONERA. Le schéma simplifié est présenté sur la Figure 120. Figure 120 Schéma du montage de la méthode mesure dite de l'amplificateur de charges. Le montage permet la conversion du courant motionnel ݅௠௢௧ en tensionܸ௦ qui est alors une image du déplacement de la poutre du résonateur. Un générateur de signaux basses fréquences (GBF) permet d'exciter le résonateur. Un oscilloscope permet de visualiser les tensions d'excitation et le signal de sortie. Hors résonance, la capacité statique ‫ܥ‬଴ est compensée par la capacité variable ‫ܥ‬஺ : le résonateur se comporte alors comme une résistance à la fréquence de résonance ݂଴ . Cette dernière correspond au maximum d'amplitude du signal de sortie par balayage de la fréquence du signal généré par le GBF11. Les signaux d'entrée et de sortie sont en phase si la compensation est correctement réalisée. En régime linéaire, l'amplitude de sortie est une image de l'amplitude de déplacement du résonateur, nous pouvons donc calculer le facteur de qualité ࡽ à partir des mesures de la bande passante du résonateur qui correspond ܸ௦ ሺ݂ଶ ሻ ൌ ܸ௦ ሺ݂ଵ ሻ ൌ  ܴ௠ ൌ  ௏ೞ ሺ௙బ ሻ ܴ . ௏೐ ሺ௙బ ሻ ௙ à ௏ೞ೘ೌೣ ξଶ différence ൌ ௏ೞ ሺ௙బ ሻ ξଶ ݂ଶ െ ݂ଵ des fréquences pour lesquelles  et ݂ଵ ൏ ݂ଶ . La valeur de ܴ௠ est donnée par la relation Une fois les paramètres ࢌ૙ ǡ ࡽǡ ࡾ࢓ connus, il est possible de remonter aux paramètres électriques équivalents ࡯૚ et ࡸ૚ avec les relations de l'expression (30). 11 Il est donc également possible de mesurer la fréquence de résonance en mesurant la fréquence pour laquelle la différence de phase entre les signaux ܸ௘ et ܸ௦ est nulle. 143 Šƒ’‹–”‡Ͷǣƒ”ƒ –±”‹•ƒ–‹‘•†‡•†‹•’‘•‹–‹ˆ•‡–ƒƒŽ›•‡• L'incertitude sur la fréquence générée est donnée par le constructeur et vaut 1 ppm. La résolution de fréquence utilisée est 0,1 Hz. La précision sur l'amplitude générée est de 1%. Comme nous utilisons les deux fréquences, ݂ଵ et ݂ଶ , pour calculer le facteur de qualité, nous majorons l'erreur relative sur le facteur de qualité par 2%. 4.2 Réalisations de résonateurs ARQOMM 2D J'ai consacré une partie importante du temps de travail de thèse au développement et l'adaptation des moyens de fabrication, en particulier la gravure DRIE et la réalisation du masque associé mais également à la fabrication et aux caractérisations des résonateurs. J'ai réalisé la totalité des étapes de fabrication des résonateurs au sein de la centrale technologique Platine de l'ONERA aux exceptions des étapes de dépôts, réalisées par Messieurs Marc Pernice et Claude Gageant, des étapes de gravure chimique par voie humide du quartz et nettoyages piranha réalisées par Madame Claude Chartier. J'ai ainsi été en mesure de fabriquer environ 200 résonateurs ARQOMM 2D caractérisables en une dizaine de lots et mesuré près de 80 résonateurs sous vide. Nous présentons dans cette partie les réalisations pertinentes : il ne s'agit pas d'énumérer tous les lots réalisés ni de présenter l'intégralité des résonateurs mais de comprendre les motivations derrière les choix de modification des paramètres ou de procédés. 4.2.1 Procédé de fabrication avec double gravure DRIE Le procédé de fabrication, détaillé dans la section 3.7 était celui développé initialement et fut naturellement le premier à être expérimenté. 4.2.1.1 Le premier résonateur ARQOMM 2D fabriqué Un premier résonateur a pu être fabriqué. Nous détaillons les résultats en cours de gravure car ceux-ci sont riches en enseignements pour la suite. L'échantillon est un wafer de quartz de 1,5'' d'épaisseur 210 μm. Le nickel a été déposé uniquement sur la face A, celle des motifs des résonateurs. L'échantillon est collé à l'aide de la cire CB509 sur un wafer support en silicium de 4'' et d'épaisseur 500 μm. Ce collage est nécessaire car l'équipement de gravure est conçu pour des wafers de 4'' La gravure étant sélective vis-à-vis du silicium comme 144 Šƒ’‹–”‡Ͷǣƒ”ƒ –±”‹•ƒ–‹‘•†‡•†‹•’‘•‹–‹ˆ•‡–ƒƒŽ›•‡• expliqué dans la section 3.2, nous nous attendons à un amincissement faible12 du wafer support. Après un nettoyage de l'échantillon dans un plasma à base d'oxygène, l'échantillon est gravé durant 90 min avec la recette enrichie en oxygène. La Figure 121 montre le résultat de gravure à l'échelle du wafer : le wafer s'est fissuré après cette première longue séquence de gravure. Figure 121 Photographie de l'échantillon collé sur son wafer support après 1h30min de gravure DRIE, à gauche : vue d'ensemble ; à droite : gros plan sur l'échantillon et mise en évidence des fissures. La réduction du phénomène de fissuration du wafer est étudiée dans la section 4.2.2. La cire en dehors de l'échantillon a été également entièrement consommée tandis que celle sous l'échantillon paraît séchée. Les images a) et b) sur la Figure 122 sont, respectivement, des images au microscope optique d'un résonateur ARQOMM 2D de type 1 vibrant à 3 MHz avant la gravure la première étape de gravure et après 90 min de gravure avec la recette enrichie en oxygène. 12 Un amincissement important, ie de plusieurs dizaines de microns par étape de gravure est susceptible de modifier la thermique de l'ensemble wafer support/cire/échantillon et donc de rajouter une inconnue supplémentaire. 145 Šƒ’‹–”‡Ͷǣƒ”ƒ –±”‹•ƒ–‹‘•†‡•†‹•’‘•‹–‹ˆ•‡–ƒƒŽ›•‡• a) b) Figure 122 Images au microscope optique au grossissement x100 d'une poutre et d'un pilier latéral d'un résonateur ARQOMM 2D de type I vibrant en théorie à 3 MHz : a) avant gravure DRIE, b) après 90 min de gravure en utilisant la recette de gravure enrichie en oxygène. La profondeur gravée en fin de gravure est de l'ordre de 44 μm. Deux mesures sont faites : la première en mesurant la variation de hauteur de la plate-forme du microscope optique pour réaliser la mise au point en fond de tranchée et la deuxième en opérant la mise au point sur le nickel. Les deux images sont montrées sur les images a) et b) de la Figure 123. Nous observons quelques pics de micromasquage probablement liés à la présence de miettes de nickel après le décollement de résine. b) a) Figure 123 Images au microscope optique au grossissement x100 d'une poutre et d'un pilier latéral d'un résonateur ARQOMM 2D de type I vibrant en théorie à 3 MHz : a) après gravure DRIE et focalisation sur le masque de nickel, les points noirs correspondent à des pics de micro-masquage ; b) après gravure DRIE et focalisation sur le fond de tranchées. 146 Šƒ’‹–”‡Ͷǣƒ”ƒ –±”‹•ƒ–‹‘•†‡•†‹•’‘•‹–‹ˆ•‡–ƒƒŽ›•‡• La seconde mesure est réalisée au profilomètre mécanique. La profondeur gravée est alors estimée à Ͷ͵Ǥ͸ േ ͳǤͲɊ݉, en accord avec la mesure optique. Cette méthodologie combinant observations et mesures au microscope optique avec des mesures réalisées au profilomètre mécanique a été répétée après chaque sortie de l'échantillon de la chambre de gravure afin de s'assurer du bon déroulement du procédé. Une fois la profondeur gravée souhaitée obtenue, le procédé de fabrication se poursuit : les motifs des cavités sont transmis en face arrière (face B) par la même méthode de photolithographie employant la triple couche de résine LOR et la couche de résine photosensible s1813. Après dépôt et décollement de la résine, la face arrière est gravée jusqu'à la libération des résonateurs. L'échantillon est décollé du wafer support en silicium par immersion dans l'acétone. Le nickel résiduel éliminé par immersion dans un bain de gravure de solution commerciale (TFB). Il reste des résidus qui sont par la suite éliminés en partie par immersion dans une solution piranha. Les Figure 124 a) et b) montrent respectivement la face A du résonateur après immersion de celui-ci dans l'acétone pour le décoller du wafer support et après les différentes étapes de nettoyage. b) a) Figure 124 Images de microscopie optique obtenues au grossissement x100 de la face A du premier résonateur ARQOMM 2D fabriqué, a) une fois le résonateur décollé du wafer support, b) après les étapes de nettoyages. Mise à part quelques résidus restants, la face A paraît qualitativement satisfaisante. En revanche l'état de surface de la face B semble très dégradé comme illustré sur la Figure 125 : présence d'un micromasquage et de résidus et de languettes de quartz au niveau des zones correspondant aux tranchées entre la poutre centrale et les piliers latéraux (le même phénomène est également présent entre les piliers latéraux et les piliers du second étage de découplage). 147 Šƒ’‹–”‡Ͷǣƒ”ƒ –±”‹•ƒ–‹‘•†‡•†‹•’‘•‹–‹ˆ•‡–ƒƒŽ›•‡• Figure 125 Image de microscopie optique obtenue au grossissement x200 de la face B du premier résonateur ARQOMM 2D. Ce débouchage non complet du résonateur est susceptible de modifier les souplesses des parties vibrantes et donc de réduire l'efficacité du découplage. Les caractéristiques mécaniques du résonateur ont pu être mesurées à l'aide de l'impédance-mètre. La fréquence de résonance vaut 2,954 MHz, elle proche de la valeur cible (0.2%) et peu sensible à la variation de pression. Le facteur de qualité et la résistance motionnelle à pression atmosphérique valent respectivement près de 6 750 et 139 kȍ. Sous vide le facteur de qualité grimpe à 94 000 et la résistance motionnelle décroît pour atteindre 11 kȍ. Le produit ܳ ൈ ݂ calculé avoisineʹǤ͹ ൈ ͳͲଵଵ ‫ݖܪ‬. Ces performances sont encourageantes pour un premier prototype mais bien loin des performances attendues. Le facteur de qualité attendu avoisine 600 000. 4.2.1.2 Amélioration du facteur de qualité pour le procédé utilisant la gravure double face DRIE Les lots suivants, utilisant le même procédé de fabrication, ont abouti à la réalisation de résonateurs caractérisables comme illustré sur la Figure 126. 148 Šƒ’‹–”‡Ͷǣƒ”ƒ –±”‹•ƒ–‹‘•†‡•†‹•’‘•‹–‹ˆ•‡–ƒƒŽ›•‡• Figure 126 Photographies de résonateurs ARQOMM 2D de type I réalisés à l'aide du procédé de double gravure DRIE, à gauche : gros plan sur un résonateur vibrant à 2,2 MHz, au milieu : plan large sur des résonateurs vibrant à 2,2 MHz (rangée supérieure) et 3 MHz (rangée inférieure, à droite : vue tournée d'un résonateur vibrant à 3 MHz. Une amélioration notable du débouchage, c'est-à-dire l'absence de languettes de quartz montrées sur la Figure 125, a été obtenue en poursuivant la gravure DRIE en face arrière pour quelques minutes. La disparition des languettes est illustrée sur le Figure 127 qui présente deux images de microscopie optique montrant l'évolution de la face arrière au niveau de la poutre centrale d'un résonateur vibrant à 3 MHz en fin de gravure. Figure 127 Images de microscopique optique au grossissement x200 de la face arrière au niveau de la poutre centrale d'un résonateur vibrant à 3 MHz, à gauche : présence de languettes de quartz aux jonctions entre la poutre centrale et les piliers, à droite : élimination des languettes après 10 min de gravure DRIE supplémentaires. La qualité de l'état de surface de la face arrière est globalement meilleure que pour le premier résonateur. Les facteurs de qualité maximaux atteints sont plus de deux supérieurs à ceux du premier 149 Šƒ’‹–”‡Ͷǣƒ”ƒ –±”‹•ƒ–‹‘•†‡•†‹•’‘•‹–‹ˆ•‡–ƒƒŽ›•‡• résonateur. Pour des résonateurs vibrants à 2,2 MHz, ils valent 250 000 et la résistance motionnelle ܴ௠ associée vaut ͵Ǥ ݇ͅȳ. Pour les structures vibrant à 3 MHz, on obtient ܳ ̱ʹͲͲͲͲͲ et ܴ௠  ൌ ͶǤͷ݇ȳ. Ces chiffres sont donnés pour des ARQOMM 2D de type 1. La Figure 128 présente les mesures de module et de phase d'impédance ainsi que les ajustements associés en fonction de la fréquence balayée pour un résonateur ARQOMM 2D de type I vibrant à 3 MHz obtenus à partir du modèle BVD. Les mesures ont été réalisées à l'impédancemètre Agilent 4294A. Figure 128 Mesures expérimentales (marqueurs) des variations du module (rouge) et de la phase (bleu) de l'impédance d'un résonateur ARQOMM 2D de type I vibrant à 3 MHz ainsi que les ajustements associés en fonction de la fréquence balayée. J'ai obtenu des résultats de facteurs de qualité maximaux du même ordre de grandeur sur les résonateurs ARQOMM 2D de type 2 : ils dépassent respectivement 240 000 (ܴ௠ ̱ͶǤ͵݇ȳሻ et 150 000 ሺܴ௠ ̱͹Ǥ͸݇ȳሻ pour des résonateurs vibrants à 2,2 et 3 MHz. Le nombre de résonateurs de type II caractérisés sous vide est faible : un seul lot avec le masque 2 a été réalisé contre 3 avec le masque 1. Un résultat remarquable a été l'obtention de facteurs de qualité supérieurs à 200 000 pour les modes harmoniques d'ordre 3 vibrant à 6,6 MHz pour des résonateurs de type 1 atteignant un produit ܳ ൈ ݂ proche de ʹ ൈ ͳͲଵଶ ‫ ݖܪ‬et donc des performances attendues. La Figure 129 présente les mesures de la phase et du module de l'impédance correspondant. 150 Šƒ’‹–”‡Ͷǣƒ”ƒ –±”‹•ƒ–‹‘•†‡•†‹•’‘•‹–‹ˆ•‡–ƒƒŽ›•‡• Figure 129 Mesures expérimentales (marqueurs) des variations du module (rouge) et de la phase (bleu) de l'impédance d'un résonateur ARQOMM 2D de type I vibrant à 6,6 MHz sur le mode partiel ainsi que les ajustements associés en fonction de la fréquence balayée. Nous pouvons remarquer que la valeur de la résistance motionnelle, ܴ௠ ൌ ͳͳǤ͵݇ȳ est supérieure à celle du mode fondamental pour un facteur de qualité équivalent, cela s'explique par une collection de charges moins efficace comme mentionné dans la section 2.6. Avec une géométrie parfaite des électrode, nous attendions pour un facteur de qualité de 250 000, une résistance motionnelle de ͵݇ȳ (respectivement ͻ݇ȳ) pour le mode fondamental (resp. et le premier harmonique) vibrant 2,2 MHz (resp 6,6 MHz) tandis que les valeurs mesurées sont proches de ͵ǡ ݇ͅȳ (resp. ͳͳǤ͵݇ȳ). L'hypothèse qui vient à l'esprit pour expliquer cet écart est que la géométrie réelle des électrodes diffère de la géométrie : la concentration des charges sur les bords des poutres pourraient rendre la résistance motionnelle très sensible à la distance entre les électrodes et le bord des poutres. La prise en compte de cet effet dans les simulations éléments finis des cotes effectives et des défauts d'alignement à partir d'images en microscopie optique conduit à une analyse plus conforme à la réalité des structures réalisées. Les valeurs ainsi simulées valent ͵ǡͳ݇ȳ (resp. ͳͳǡ͹݇ȳ) pour des résonateurs de type I vibrant sur le mode fondamental (resp. premier harmonique) et sont plus en accord avec les valeurs expérimentales. Toutefois, l'écart entre les valeurs simulées et mesurées de 20 % pour le mode fondamental indique que la collecte de charges est moins effective qu'attendue. Je précise que de tels facteurs de qualité mesurés sur le premier harmonique n'ont été obtenus que pour des résonateurs de type 1 vibrants à 2,2 MHz sur le mode fondamental. Les simulations réalisées dans la section 2.5 suggèrent que le résonateur de type 2 était moins favorable au mode partiel d'ordre 3. Le faible nombre de résonateurs de type 2 réalisés et caractérisés sous vide ne nous permet pas de conclure sur la supériorité ou non du mécanisme de découplage de cette structure. 151 Šƒ’‹–”‡Ͷǣƒ”ƒ –±”‹•ƒ–‹‘•†‡•†‹•’‘•‹–‹ˆ•‡–ƒƒŽ›•‡• La casse de l'échantillon est récurrente et pose un sérieux problème sur la quantité de résonateurs que nous sommes en mesure de fabriquer et donc de caractériser. Pour illustrer le problème nous indiquons que sur les quatre lots réalisés par double gravure DRIE (3 avec le masque 1 et 1 avec le masque 2), nous n'avons pu caractériser que 26 résonateurs sous vide sur les 148 possibles. En particulier, seulement quelques résonateurs vibrants à 4,5 MHz sont caractérisables et un seul a pu être mesuré sous vide et présente un facteur de qualité faible (<15 000). Nous discutons dans la suite des résultats du procédé global sur les performances, fréquence de résonance et facteur de qualité, des résonateurs. Nous évaluons la dispersion des mesures par l'écart type pour le facteur de qualité et la fréquence. L'écart type correspond à la reproductibilité des performances d'un résonateur à l'autre. La précision estime l'écart en la valeur moyenne mesurée et la valeur ciblée. La Figure 130 montre un graphe présentant les facteurs de qualité des résonateurs mesurés sous air (pression atmosphérique) et sous vide. Figure 130 Mesures expérimentales du facteur qualité des résonateurs mesurés sous air et sous vide en fonction de la fréquence de résonance. Les fréquences 2,2 ; 3 et 4,5 MHz correspondent au mode fondamental, les fréquences 6,6 et 8.9 MHz au premier harmonique. La dispersion des facteurs de qualité mesurés sous air est importante, l'écart type relatif est compris entre 24 et 28% suivant la fréquence du mode fondamental. L'écart type devient beaucoup plus grand une fois les résonateurs mesurés sous vide, entre 48 et 55%. Sous pression atmosphérique nous supposons que les frottements avec les molécules du gaz environnant limitent le facteur de qualité. Sous vide, les interactions entre le résonateur et les molécules de gaz raréfié sont limitées, nous pouvons négliger la contribution de ܳ௔௜௥ aux pertes totales. Cela fait un effet de loupe sur les autres mécanismes limitants. Les facteurs de qualité atteignables sur les lots utilisant la double gravure DRIE sont à l'état de l'art des résonateurs en quartz usinés par DRIE. Ils sont de l'ordre de 250 000 sur le 152 Šƒ’‹–”‡Ͷǣƒ”ƒ –±”‹•ƒ–‹‘•†‡•†‹•’‘•‹–‹ˆ•‡–ƒƒŽ›•‡• mode fondamental et le mode partiel d'ordre 3. Toutefois, les performances mesurées restent inférieures à celles attendues : nous avons vraisemblablement négligé ou sous-estimé un mécanisme de pertes. Il se trouve que la structure que nous avons utilisée dans les simulations par éléments finis est moins symétrique que celle réalisée avec la gravure sèche du quartz. Comme illustré sur la Figure 102, les flancs ne sont pas strictement verticaux et nous observons un angle de flanc rentrant proche de 3°. En prenant en compte cet angle de flanc dans les simulations, nous nous rendons compte que celui-ci a un effet désastreux sur le facteur de qualité à l'encastrement. La Figure 131 illustre ce phénomène : des simulations éléments finis sont réalisées pour les structures vibrant à 3 MHz de type I et II, nous varions l'angle de flanc ߚ et nous relevons le facteur de qualité à l'encastrement ܳ௘௡௖௔௦௧௥௘௠௘௡௧ . Ce dernier qui était très grand (ܳ௘௡௖௔௦௧௥௘௠௘௡௧ ൐ ͳͲ଻ pour les deux types) dans les simulations de la phase de conception, décroît rapidement avec l'augmentation de l'angle de flanc : il ne vaut plus que quelques millions à quelques centaines de milliers pour un angle de flancs de l'ordre de quelques degrés. Figure 131 Variation du facteur de qualité à l'encastrement des structures ARQOMM 2D de type I et II obtenue par simulations MEF en fonction de l'angle de flanc sortant ȕ. Dans le cas le plus favorable, c.-à-d. en ne prenant en compte que les angles de flancs induits par la recette de gravure DRIE actuelle, les valeurs de ܳ௘௡௖௔௦௧௥௘௠௘௡௧ ainsi estimées laissent penser que ce dernier devient comparable au mécanisme limitant supposé au préalable, à savoir les pertes viscoélastiques induites par les métaux des électrodes. L'ARQOMM 2D réalisé en pratique ne semble donc pas limité par un seul mécanisme mais par une combinaison de deux mécanismes : les pertes par amortissement visqueux et les pertes à l'encastrement. La dispersion observée sur les facteurs de 153 Šƒ’‹–”‡Ͷǣƒ”ƒ –±”‹•ƒ–‹‘•†‡•†‹•’‘•‹–‹ˆ•‡–ƒƒŽ›•‡• qualité mesurés est vraisemblablement due aux variations de ܳ௘௡௖௔௦௧௥௘௠௘௡௧ étendu et la prise en compte de défauts supplémentaires induits par les contaminations, la rugosité, le micro-masque ou des variations de cotes. L'étude de la précision et de la dispersion de la fréquence de résonance des résonateurs ainsi fabriqués est primordiale. En, effet la capacité à atteindre une fréquence donnée de manière précise est indispensable au bon fonctionnement de l'électronique d'entretien de l'oscillateur. En pratique, la fréquence de résonance du résonateur peut être ajustée après sa fabrication (étape de « trimming » en anglais), puis à l'aide d'une capacité de tirage qui permet typiquement un ajustement de 0,1 à 100 ppm (dans le cas de certains VCXO). La Table 15 récapitule les moyennes et dispersions des fréquences de résonnance des résonateurs caractérisés sous vide en fonction des fréquences cibles pour le mode fondamental ainsi que la précision ܲ‫ݎ‬±ܿ݅‫ ݊݋݅ݏ‬ൌ  ቚ݂‫ݏ݁ݎ‬െܾ݈ܿ݅݁ െ݂‫ݏ݁ݎ‬െ݉‫ ݁݊݊݁ݕ݋‬ቚ ݂‫ݏ݁ݎ‬െ݉‫݁݊݊݁ݕ݋‬ ൈ ͳͲͲ et les variations de longueurs équivalentes ο‫ܮ‬±௤௨௜ associées ο‫ܮ‬±௤௨௜ ൌ ܲ‫ݎ‬±ܿ݅‫ ݊݋݅ݏ‬ൈ ‫ ݈ܾ݁݅ܿܮ‬. Table 15 Tableau récapitulatif des fréquences et longueurs cibles et des mesures expérimentales de fréquences, ainsi que les valeurs d'écart type, de précisions et de variations de longueurs équivalentes des mesures expérimentales dans le cas des résonateurs dont les cavités ont été usinées par DRIE. Simulations MEF ݂௥௘௦ି௖௜௕௟௘ (MHz) 2.960644 2.980079 2.999771 2.217364 2.220616 Les valeurs ‫ܮ‬௖௜௕௟௘ (μm) Mesures expérimentales Nombre de résonateurs 920 3 914 6 908 5 1228 4 1222 7 de la longueur ciblée de la ݂௥௘௦ି௠௢௬௘௡௡௘ (MHz) Ecart-type (%) 2.933843 2.952991 2.985747 2.198089 2.216991 poutre centrale ‫ܮ‬௖௜௕௟௘ Précision (%) ο‫ܮ‬±௤௨௜ (μm) 0.12 0.91 +8.3 0.38 0.91 +8.3 0.40 0.47 +4.2 0.40 0.87 +10.7 0.42 0.16 +2.0 correspondent aux valeurs nominales du masque de photolithographie permettant la réalisation du masque physique de gravure. Nous devons noter que la précision de la fréquence de résonance donnée ici correspond à l'ensemble du procédé de fabrication : il est possible que chaque étape introduise une contribution qui tend à dégrader la valeur de précision finale ou bien au contraire, une (ou plusieurs) étape peut compenser une autre étape. La dispersion est limitée sur la fréquence <0.5% et à la précision de l'appareil de mesure. La précision est inférieure à 1% ou 10 000 ppm, cette valeur est bien supérieure à celle que l'on peut espérer atteindre à l'aide d'une capacité de tirage : il faudra donc envisager par la suite une étape post-fabrication d'ajustement de la fréquence, qui reste à définir. 154 Šƒ’‹–”‡Ͷǣƒ”ƒ –±”‹•ƒ–‹‘•†‡•†‹•’‘•‹–‹ˆ•‡–ƒƒŽ›•‡• Avant de nous intéresser aux stratégies mises en place pour la réduction des fissures, nous proposons une première analyse des résultats. Pour conclure sur cette première analyse, en supposant que la valeur de Qviscoélastique du modèle soit correctement estimée, la comparaison entre valeurs attendues et valeurs mesurées indique qu'au moins un mécanisme de pertes a été sous-estimé. En prenant en compte l'angle de flanc induit par la gravure DRIE dans le calcul de Qencastrement par simulation, il apparaît que ce dernier est particulièrement sensible à l'angle de flanc qui rompt la symétrie. Les pertes liées à l'encastrement contribuent potentiellement à la dispersion des valeurs mesurées. De nouveaux essais sont nécessaires pour discriminer les mécanismes limitants. 4.2.2 Procédé de fabrication avec usinage par voie chimique des cavités Les facteurs de qualité atteignables ont été grandement augmentés par un meilleur contrôle de la qualité de la surface lors de la gravure DRIE des cavités en face arrière et un meilleur débouchage. Toutefois, le phénomène de casse du wafer est un problème majeur : le rendement est faible ce qui limite la possibilité d'extraire des tendances à partir des résultats. Pour réduire les fissures et la casse du wafer, plusieurs pistes ont été envisagées. L'utilisation d'un masque en aluminium, déposé par pulvérisation, a conduit à l'absence de fissures mais à une réduction importante de la sélectivité, qui chute pour atteindre une valeur proche de 20. Il s'agit alors de modifier la recette ou de réduire la durée de la gravure DRIE. Nous optons pour la réalisation des cavités par usinage chimique, qui est un domaine d'expertise de l'unité CMT. Nous avons vu dans la section 3.1 que la gravure chimique était fortement anisotrope. Un autre défaut est l'apparition de pyramides sur les surfaces horizontales gravées, résultant de la révélation de plans cristallins à la surface, dont les dimensions et la densité ne sont pas toujours reproductibles d'un bain de gravure à l'autre. Les pyramides ainsi crées augmentent la rugosité et dissymétrisent la structure et sont potentiellement néfastes à la conservation de l'énergie au sein du résonateurs. L'utilisation de ce procédé de fabrication modifié a conduit à une augmentation significative du nombre de résonateurs caractérisables par wafer passant de 16 dans le cas des cavités usinées par voie sèche contre 25 par voie humide, en particulier il a été possible de caractériser des résonateurs vibrant à 4,5 MHz. La Figure 132 montre un vue d'ensemble des réalisations obtenue à la loupe binoculaire tandis que la Figure 133 et la Figure 134 présentent des images obtenues en microscopie optique à plus fort grossissement. 155 Šƒ’‹–”‡Ͷǣƒ”ƒ –±”‹•ƒ–‹‘•†‡•†‹•’‘•‹–‹ˆ•‡–ƒƒŽ›•‡• Figure 132 Images obtenues à la binoculaire de réalisation d'ARQOMM de type I et II en utilisant le procédé de fabrication avec usinage chimique par voie humide des cavités, à gauche : résonateurs vibrants à 4,5 et 3,MHz ; à droite : structures vibrants à 3 MHz. Figure 133 Images de microscopie optique d'un résonateur ARQOMM 2D de type I vibrant à 3 MHz au grossissement x100 à gauche et x200 à droite. Figure 134 Images de microscopie optique d'un résonateur ARQOMM 2D de type II vibrant à 2,2 MHz au grossissement x100 à gauche et x200 à droite. Les résonateurs ARQOMM 2D dont les cavités ont été gravées par usinage chimique présentent cependant des facteurs de qualité maximaux inférieurs, d'environ 20%, à ceux dont les cavités ont été 156 Šƒ’‹–”‡Ͷǣƒ”ƒ –±”‹•ƒ–‹‘•†‡•†‹•’‘•‹–‹ˆ•‡–ƒƒŽ›•‡• gravées par usinage DRIE : ils valent respectivement 200 000, 160 000, et 127 000 pour des résonateurs vibrants à 2,2; 3 et 4,5 MHz. La dispersion du facteur de qualité est légèrement réduite par rapport aux lots précédents entièrement réalisés par gravure DRIE. L'écart type relatif est de 34% pour les résonateurs vibrants à 4,5 MHz et 3 MHz, et de 46% pour ceux vibrants à 2,2 MHz. Figure 135 Mesures expérimentales du facteur qualité des résonateurs mesurés sous air et sous vide en fonction de la fréquence de résonance. Les fréquences 2,2 ; 3 et 4,5 MHz correspondent au mode fondamental, les fréquences 6,6 et 8.9 MHz au premier harmonique. La Table 16 récapitule les moyennes et dispersions des fréquences de résonnance des résonateurs caractérisés sous vide en fonction des fréquences cibles pour le mode fondamental ainsi que la précision de fréquence, qui est dans le pire des cas légèrement supérieur au pour cent et donc comparable au procédé de gravure utilisant la double grave DRIE. Table 16 Tableau récapitulatif des fréquences et longueurs cibles et des mesures expérimentales de fréquences, ainsi que les valeurs d'écart type, de précisions et de variations de longueurs équivalentes des mesures expérimentales dans le cas des résonateurs dont les cavités ont été usinées par gravure chimique humide. Simulations MEF Mesures expérimentales ݂௥௘௦ି௖௜௕௟௘ (MHz) ‫ܮ‬௖௜௕௟௘ (μm) Nombre de résonateurs ݂௥௘௦ି௠௢௬௘௡௡௘ (MHz) Ecart-type (%) Précision (%) ο‫ܮ‬±௤௨௜ (μm) 4.424076 4.467591 4.511971 2.960644 2.980079 616 610 604 920 914 4 2 4 6 3 4.442655 4.484680 4.525203 2.948399 2.962599 0.44 0.15 0.49 0.34 0.60 0.42 0.38 0.25 0.41 0.58 -2.6 -2.3 -1.5 +3.8 +5.4 157 Šƒ’‹–”‡Ͷǣƒ”ƒ –±”‹•ƒ–‹‘•†‡•†‹•’‘•‹–‹ˆ•‡–ƒƒŽ›•‡• 2.999771 2.217364 2.220616 2.231157 La présence 908 5 2.966305 0.67 1.12 +10.1 1228 2 2.206247 0.18 0.50 +6.2 1222 4 2.224914 0.64 0.19 -2.4 1216 4 2.214036 0.32 0.77 -9.3 des pyramides, qui correspondent aux zones sombres des Figure 133 et Figure 134, conduit à une rupture de la symétrie de la structure et à une augmentation de la rugosité de la surface en face arrière : Ra vaut 1,9 μm pour une mesure longue de 1,3 mm et un filtre passe bas de longueur de coupure 800 μm. Cette valeur est beaucoup plus faible dans le cas des cavités usinées par DRIE : Ra vaut 4 nm pour une mesure longue de 300 μm et un filtre passe bas de longueur de coupure 80 μm. Des images de microscopie optique des faces arrière pour les deux procédés de fabrication sont présentées sur la Figure 136. Figure 136 Images obtenues avec un microscope optique des faces arrière de structures vibrant à 3 MHz au grossissement x200, à gauche : usinage DRIE des cavités, à droite : usinage chimique par voie humide des cavités. Nous supposerons que c'est bien la présence des pyramides qui aboutit à une baisse du facteur de qualité maximal mesuré et nous assimilerons cette baisse à une augmentation des pertes à l'encastrement. Il est possible d'exploiter les mesures de facteurs de qualité pour estimer la contribution des pertes à l'encastrement et donc la performance ultime du résonateur sous les hypothèses suivantes. Hypothèse 1 : le modèle prédisant le facteur de qualité viscoélastique en fonction du rapport des épaisseurs de quartz vibrant et d'or des électrodes est une estimation valable. Hypothèse 2 : les mécanismes limitants sont les pertes viscoélastiques et les pertes à l'encastrement. ܳ௧௢௧ ܳ௩௜௦௖௢±௟௔௦௧௜௤௨௘ ͳ ͳ ͳ ൌ ൅ ՜ ܳ௘௡௖௔௦௧௥௘௠௘௡௧ ൌ  ܳ௧௢௧ ܳ௩௜௦௖௢±௟௔௦௧௜௤௨௘ ܳ௘௡௖௔௦௧௥௘௠௘௡௧ ሺܳ௩௦௜௖௢±௟௔௦௧௜௤௨௘ െ ܳ௧௢௧ ሻ 158 (65) Šƒ’‹–”‡Ͷǣƒ”ƒ –±”‹•ƒ–‹‘•†‡•†‹•’‘•‹–‹ˆ•‡–ƒƒŽ›•‡• La Table 17 présente un récapitulatif des facteurs de qualité maximaux associés aux mécanismes de pertes. Table 17 Récapitulatif des valeurs de facteurs de qualité, en milliers, correspondant aux mécanismes de pertes supposés et mesurés pour les résonateurs vibrant à différentes fréquences et dont les cavités ont été usinées par gravure DRIE ou gravure chimique par voie humide. ࢌ࢘ࢋ࢙ (MHz) ࡽ࢚࢕࢚ ൈ ૚૙૜ ࡽ࢜࢏࢙ࢉ࢕±࢒ࢇ࢙࢚࢏࢛ࢗࢋ ൈ ૚૙૜ Estimé par le modèle Mesuré Usinage DRIE des cavités Usinage chimique des cavités ࡽࢋ࢔ࢉࢇ࢙࢚࢘ࢋ࢓ࢋ࢔࢚ ൈ ૚૙૜ Estimé par calcul Usinage DRIE des cavités Usinage chimique des cavités 2.2 572 250 200 444 308 3 609 200 160 298 217 Pas de résonateurs Pas d'estimation 4.5 660 127 157 Nous pouvons faire quelques remarques au sujet de ces estimations : d'une part la différence entre les procédés de fabrication est marquée, d'autre part, la dépendance fréquentielle de ܳ௘௡௔௦௧௥௘௠௘௡௧ n'était pas attendue et est gênante dans l'optique d'utiliser un mode fondamental à plus haute fréquence. Ainsi, le produit ܳ ൈ ݂ est limité à ͳͲଵଶ ‫ ݖܪ‬en supposant négligeables les pertes viscoélastiques des électrodes : ce qui peut être le cas en réduisant l'épaisseur des métallisations. On rappelle que ces estimations découlent d'hypothèses fortes : nous avons en effet supposé que pour les résonateurs présentant les plus hauts facteurs de qualité, deux mécanismes étaient limitants : les pertes viscoélastiques des électrodes et les pertes à l'encastrement étendues avec la prise en compte des défauts de géométrie et de rugosité de surface. Le passage de la gravure DRIE à la gravure chimique pour la réalisation des cavités a permis une augmentation du nombre de cellules caractérisables mais à une dégradation des performances de celles-ci. 4.2.3 Variation de l'épaisseur des électrodes Deux mécanismes limitent vraisemblablement les performances maximales du facteur de qualité du résonateur ARQOMM : d'une part, les pertes par amortissement viscoélastique des électrodes, d'autre part l'existence de l'angle de flanc induit par la gravure rompt la symétrie de la structure et diminue la capacité à conserver l'énergie acoustique dans le résonateur. Pour augmenter le facteur de qualité du résonateur, plusieurs pistes peuvent être envisagées : premièrement, augmenter le facteur de qualité à l'encastrement ce qui implique une modification de la recette de gravure dont une piste pourrait être la modification du rapport des gaz de gravure ou une 159 Šƒ’‹–”‡Ͷǣƒ”ƒ –±”‹•ƒ–‹‘•†‡•†‹•’‘•‹–‹ˆ•‡–ƒƒŽ›•‡• révision de la conception du résonateur pour rendre le facteur de qualité à l'encastrement de la structure modifiée moins sensible à l'angle de flanc. Une seconde piste est d'augmenter le facteur de qualité due à la viscoélasticité des électrodes, un moyen simple selon le modèle est de réduire l'épaisseur des électrodes. Nous réalisons donc un lot de résonateurs dont les électrodes sont épaisses de 100 nm au lieu des 200 nm habituels sans modifier l'épaisseur du chrome. L'épaisseur d'or nominale de 200 nm est nécessaire pour assurer la tenue du masque en or lors de la gravure chimique humide des résonateurs inertiels développés à l'ONERA sur des épaisseurs typiques de 500 μm. Dans le cas des résonateurs ARQOMM 2D dont les cavités sont usinées chimiquement, cette épaisseur peut être réduite du fait de la durée de gravure chimique limitée correspondant à une profondeur de quartz de 120 μm. Un point important est le suivant : les cavités de ce lot à électrodes affinées ont été usinées en même temps et dans les mêmes conditions de gravure chimique qu'un des lots à électrodes nonaffinées, nous considérerons alors que les pertes à l'encastrement seront égales pour des résonateurs vibrants à la même fréquence issus de lots avec électrodes affinées ou non. Les résonateurs ainsi fabriqués ont présenté des facteurs de qualité supérieurs à ceux dont les électrodes sont épaisses de 200 nm indépendamment du choix de la gravure pour les cavités, également la dispersion sur les résonateurs caractérisés est limitée. Les facteurs de qualité maximaux atteints pour le mode fondamental sont proches de 340 000, 300 000 et 200 000 pour des résonateurs vibrant respectivement à 2,2 MHz ; 3 MHz et 4,5 MHz. C'est donc une amélioration de plus de 30% par rapport aux résonateurs fabriqués par double étapes DRIE et plus de 75% dans le cas de résonateurs ont les cavités ont été usinées chimiquement par voir humide avec des électrodes épaisses de 200 nm. Les produits ܳ ൈ ݂ sont compris en 0,6 et ͳ ൈ ͳͲଵଶ ‫ ݖܪ‬soit entre un tiers et la moitié des performances espérées. Nous remarquons également que les lots de résonateurs dont les cavités ont été usinées chimiquement n'ont jamais présenté de très hauts facteurs de qualité comparables aux lots utilisant la double gravure DRIE : le meilleur produit ܳ ൈ ݂ mesuré sur une mode harmonique vaut ͳ͵ͲͲͲͲ ൈ ͸Ǥ͸ ൌ ͲǤͻͳ ൈ ͳͲଵଶ ‫ݖܪ‬. La Figure 137 présente les mesures de facteurs de qualité en fonction de la fréquence de résonance de ce lot dont les cavités ont usinées chimiquement et avec des électrodes affinées. Sur ce lot en particulier, la dispersion du facteur de qualité est limitée : autour de 6% pour les résonateurs vibrants à 4,5 MHz et 3 MHz et moins de 10% pour les résonateurs vibrants à 2,2 MHz. 160 Šƒ’‹–”‡Ͷǣƒ”ƒ –±”‹•ƒ–‹‘•†‡•†‹•’‘•‹–‹ˆ•‡–ƒƒŽ›•‡• Figure 137 Mesures expérimentales du facteur qualité des résonateurs mesurés sous air et sous vide en fonction de la fréquence de résonance. Les fréquences 2,2 ; 3 et 4,5 MHz correspondent au mode fondamental, les fréquences 6,6 et 8.9 MHz au premier harmonique. Les fissures et la casse du wafer ont été réduites de manière considérable comme nous pouvons le constater sur la Figure 138, qui présente l'échantillon après l'une des dernières étapes de gravure DRIE. Figure 138 Photographie du wafer dont les cavités ont été usinées chimiquement et présentant des électrodes affinées. Le silicium fait apparaître deux zones, l'une gris brillant, l'autre noire et mate qui traduit une rugosité élevée. La modification du collage de l'échantillon sur le wafer support en silicium et la suppression de la cire pour un procédé limitant les contaminations ont vraisemblablement contribué à l'obtention de ces deux résultats remarquables : réduction des fissures et de la dispersion des mesures. La Figure 139 présente les facteurs de qualité mesurés sous vide des lots de résonateurs dont les cavités ont été usinées chimiquement pour les deux épaisseurs d'or 100 et 200 nm. 161 Šƒ’‹–”‡Ͷǣƒ”ƒ –±”‹•ƒ–‹‘•†‡•†‹•’‘•‹–‹ˆ•‡–ƒƒŽ›•‡• Figure 139 Facteur de qualité mesuré sous vide en fonction de la fréquence de résonance des résonateurs dont les cavités ont été usinées chimiquement par voie humide pour des épaisseurs différentes d'électrodes. Les points rouges correspondent à une épaisseur d'or de 100 nm, les points bleus à une épaisseur d'or de 200 nm. La diminution de l'épaisseur des électrodes a pour effet une augmentation du facteur de qualité total, traduit par un décalage vers le haut des points du graphe. En supposant que les pertes viscoélastiques soient relativement constantes pour une géométrie donnée, nous sommes amenés à penser que les pertes à l'encastrement sont variables et sont la cause de la dispersion observée sur les facteurs de qualité mesurés. La Table 18 récapitule les moyennes et dispersions des fréquences de résonnance des résonateurs caractérisés sous vide en fonction des fréquences cibles pour le mode fondamental ainsi que la précision. Comme pour les essais précédents, la précision de fréquence est de l'ordre du pourcent. Table 18 Tableau récapitulatif des fréquences et longueurs cibles, des mesures expérimentales de fréquences, et des valeurs d'écart type, de précisions et de variations de longueurs équivalentes des mesures expérimentales dans le cas des résonateurs dont les cavités ont été usinées par gravure chimique humide. Simulations MEF Mesures expérimentales ݂௥௘௦ି௖௜௕௟௘ (MHz) ‫ܮ‬௖௜௕௟௘ (μm) Nombre de résonateurs ݂௥௘௦ି௠௢௬௘௡௡௘ (MHz) Ecart-type (%) Précision (%) ο‫ܮ‬±௤௨௜ (μm) 4.467591 4.511971 2.960644 2.980079 2.999771 2.217364 2.220616 610 604 920 914 908 1228 1222 3 1 2 3 1 2 2 4.423361 4.644774 2.947383 2.939525 2.969462 2.208662 2.204171 0.13 0.99 1.00 0.44 1.36 1.01 0.39 0.74 +6.0 +6.3 +4.1 +12.4 +9.2 +4.8 +9.0 162 0.06 0.57 0.29 0.22 Šƒ’‹–”‡Ͷǣƒ”ƒ –±”‹•ƒ–‹‘•†‡•†‹•’‘•‹–‹ˆ•‡–ƒƒŽ›•‡• La Table 19 récapitule les facteurs de qualité maximaux obtenus en fonction du moyen de gravure des cavités et de l'épaisseur des électrodes. Table 19 Récapitulatif des meilleurs facteurs de qualité mesurés des résonateurs en fonction de la fréquence de résonance du mode fondamental, de la méthode d'usinage des cavités et de l'épaisseur des électrodes. ࡽ࢚࢕࢚ ൈ ૚૙૜ Mesuré Epaisseur d'or des électrodes (nm) Usinage DRIE des cavités Usinage chimique des cavités Usinage chimique des cavités 200 200 100 2.2 250 200 340 3 200 160 300 Pas de résonateurs 4.5 127 215 Les facteurs de qualité maximaux mesurés du mode partiel vibrant à 6,6 MHz des résonateurs dont les ࢌ࢘ࢋ࢙ MHz cavités ont été usinés par DRIE sont proches de celui du fondamental vibrant à 2,2 MHz (ܳ ൎ ʹͷͲͲͲͲ pour 2,2 et 6,6 MHz), ce qui laisse penser que la corrélation du facteur de qualité n'est pas à faire avec la fréquence mais bien avec les dimensions du résonateur. Nous avons donc tout intérêt, dans ce cas, à utiliser le mode partiel d'un « gros » résonateur afin de maximiser le produit ܳ ൈ ݂. En revanche, la situation est différente pour les résonateurs dont les cavités ont été usinées chimiquement par voie humide et dans le cas des électrodes affinées. Les facteurs de qualité maximaux baissent avec l'augmentation de la fréquence de résonance, que ce soit sur le mode fondamental ou le premier harmonique comme illustré sur la Figure 140. Le meilleur produit ܳ ൈ ݂ mesuré vaut quasiment ͳͲଵଶ ‫ ݖܪ‬et a été obtenu sur un mode fondamental d'un résonateur vibrant à 4,5 MHz. 163 Šƒ’‹–”‡Ͷǣƒ”ƒ –±”‹•ƒ–‹‘•†‡•†‹•’‘•‹–‹ˆ•‡–ƒƒŽ›•‡• Figure 140 Facteurs de qualité maximaux mesurés (losanges bleus) et produits Qxf (carrés rouges) calculés en fonction de la fréquence de résonance des résonateurs dont les cavités ont été usinées chimiquement et dans le cas des électrodes affinées. Pour les perspectives, il paraît pertinent de mener une étude du facteur de qualité mesuré en fonction de plusieurs épaisseurs d'or et pour différentes fréquences (utilisation du mode fondamental et des modes partiels) sur des résonateurs entièrement gravés en DRIE. En particulier, la mesure de facteur de qualité sur des résonateurs ARQOMM 2D sans électrodes serait une indication importante afin d'estimer les performances ultimes du résonateur. Nous avons présenté dans cette section les performances des résonateurs ARQOMM 2D fabriqués. Les facteurs de qualité obtenus sont à l'état de l'art pour des résonateurs en quartz usinés par DRIE, il dépasse 300 000 pour un résonateur vibrant à 3 MHz. Le produit ܳ ൈ ݂ maximal sur un mode fondamental vaut Ͳǡͻͷ ൈ ͳͲଵଶ ‫ݖܪ‬, il est à l'état de l'art des résonateur en quartz vibrant en extensioncompression de longueur. Le produit ܳ ൈ ݂ maximal a été calculé sur le mode partiel d'ordre 3 d'un résonateur vibrant à 6,6 MHz et vaut ͳǡ͹ ൈ ͳͲଵଶ ‫ݖܪ‬, valeur qui est proche de celle attendue. La précision de fréquence du procédé de fabrication est plutôt constante sur les lots réalisés, elle est de l'ordre de 1%, ce qui implique le développement à plus long terme d'une étape d'ajustement de la fréquence après fabrication. L'usinage DRIE a cependant présenté un inconvénient majeur : des fissures apparaissent pendant la gravure et peuvent conduire à un morcèlement de l'échantillon, réduisant le nombre de résonateurs caractérisables. Ce phénomène indésirable est certainement dû aux contraintes mécaniques imposées par le nickel au quartz, lorsque le premier est soumis aux hautes températures pendant la gravure DRIE, plus de 200°C. La réduction de la durée de gravure DRIE par l'emploi d'une gravure chimique par voie humide pour réaliser les cavité a permis une augmentation 164 Šƒ’‹–”‡Ͷǣƒ”ƒ –±”‹•ƒ–‹‘•†‡•†‹•’‘•‹–‹ˆ•‡–ƒƒŽ›•‡• de 50% du nombre de résonateurs caractérisables par lot mais a également conduit à une dégradation du facteur de qualité d'au moins 20%. L'augmentation significative de la rugosité de la surface correspondant à la face arrière des résonateurs, due à la présence des pyramides, rompt la symétrie de la structure et contrecarre le confinement de l'énergie acoustique. La rugosité élevée est susceptible de favoriser également les pertes en surface. L'utilisation d'électrodes plus fines a contribué à l'obtention des plus hauts facteurs de qualité mesurés durant ces travaux, près de 340 000 pour un résonateur vibrant à 2,2 MHz. Nous avons mis en évidence l'importance du rôle de l'épaisseur d'or des électrodes et de la méthode de réalisation des cavités sur le facteur de qualité mesurés des modes fondamentaux. L'emploi d'électrodes encore plus fines et un meilleur contrôle de la rugosité de la face arrière devront mener à l'obtention de meilleurs facteurs de qualité. La situation est plus ambigüe pour les facteurs de qualité mesurés sur les premiers harmoniques, les facteurs de qualité mesurés sont variables en fonction de la fréquence, des dimensions et de la méthode d'usinage des cavités. Cependant, l'obtention de très hauts facteurs de qualité, supérieurs à 200 000 à 6,6 MHz, permet d'entrevoir le développement d'un résonateur prometteur en adaptant le mécanisme de découplage au mode partiel ; l'obtention d'un facteur de qualité proche du million à 10 MHz paraît accessible. Nous n'avons pas mis en évidence de différences significatives sur les facteurs de qualité des modes fondamentaux des résonateurs selon les types, en revanche les résonateurs de type 1 ont présenté de meilleurs facteurs de qualité sur le premier mode partiel. 4.3 Premier oscillateur incluant un résonateur ARQOMM 2D Suite à la réalisation avec succès et à la caractérisation des ARQOMM 2D, la conception et la réalisation d'un oscillateur prototype constituent les étapes indispensables à l'évaluation des performances des résonateurs. 4.3.1 Le résonateur Pour ce premier essai, il reste des zones d'ombre comme le montage des résonateurs ARQOMM 2D sur les embases via des couronnes de quartz. Cette opération est délicate c'est pourquoi nous avons choisi d'utiliser un résonateur ne présentant pas les meilleures performances. Le résonateur est de type 1 et provient d'un lot réalisé avec une étape de gravure chimique par voie humide en face arrière. Il présente un facteur de qualité proche de 90 000 pour une résistance motionnelle voisine de 11 kȍ et vibre à 2,210 MHz. Le facteur de qualité est bien en deçà des meilleures performances atteintes avec la 165 Šƒ’‹–”‡Ͷǣƒ”ƒ –±”‹•ƒ–‹‘•†‡•†‹•’‘•‹–‹ˆ•‡–ƒƒŽ›•‡• montée en maturité des procédés de fabrication. Le résonateur est monté sur embase comme montré sur les Figure 141a) et b), puis dans un boîtier cuivre. b) a) Figure 141 Image du résonateur ARQOMM 2D monté sur une embase TO5 par l'intermédiaire d'une couronne de quartz, a) vue d'ensemble, b) : zoom sur le résonateur. Les connexions entre les pads du résonateurs et les broches de l'embase sont réalisées avec de la colle H20E, le collage de la couronne sur l'embase et du résonateur sur la couronne sont faits avec la colle 353ND. Nous notons que nous n'avons pas observé de modifications significatives des paramètres mécaniques du résonateur entre la mesure sur wafer, sur embase et dans le boîtier cuivre. Le résonateur est ensuite placé dans un boîtier cuivre, un cordon de soudure permet de rendre étanche l'ensemble. Le tout est alors placé sur un banc de pompage. Après plusieurs cycles thermiques réalisés par une module Peltier, le boîtier est queusoté (le cuivre du tube est pincé jusqu'au contact, ce qui assure l'étanchéité du boîtier). Un boîtier cuivre contenant deux embases TO8 est montré sur la Figure 142. 166 Šƒ’‹–”‡Ͷǣƒ”ƒ –±”‹•ƒ–‹‘•†‡•†‹•’‘•‹–‹ˆ•‡–ƒƒŽ›•‡• Figure 142 Photographie de deux résonateurs ARQOMM 2D montés sur deux embases TO8, elles-mêmes intégrées dans un boitier cuivre. 4.3.2 Electronique d'entretien Le résonateur est associé à un circuit électronique permettant le maintien des oscillations. Nous le présentons brièvement dans ce paragraphe. Il a été conçu et réalisé par Monsieur Raphaël Levy, responsable de l'unité CMT. Le circuit d'entretien se compose d'un amplificateur de courant et d'un amplificateur inverseur différentiel à saturation. Pour ce dernier, la sortie inverseuse actionne le résonateur tandis que la sortie non-inverseuse génère le courant d'annulation de la capacité interélectrodes. L'architecture différentielle permet une meilleure stabilité de la compensation de la capacité inter-électrodes. Les résistances Rf1 et Rf2 forment le gain au démarrage de l'oscillateur. Leur choix est un compromis entre la rapidité du démarrage (résistance élevée) et la linéarité du signal d'excitation du résonateur en régime établi (résistance faible). Les deux diodes permettent la saturation. Les capacités Cf1 et Cf2 permettent un filtrage des fréquences supérieures à la fréquence d'intérêt. Les amplificateurs opérationnels ont été choisis pour leur faible bruit ainsi que pour leur faible consommation de sorte à obtenir une consommation de l'oscillateur comprise entre un oscillateur quartz classique et un oscillateur MEMS en silicium. 167 Šƒ’‹–”‡Ͷǣƒ”ƒ –±”‹•ƒ–‹‘•†‡•†‹•’‘•‹–‹ˆ•‡–ƒƒŽ›•‡• Table 20 Spécifications techniques des amplificateurs utilisés dans le circuit oscillateur. LTC6240 THS4531 8 mW 3mW 7 nV/¥Hz 10 nV/¥Hz 0.56 fA/¥Hz / 3pF pas critique 50 Hz 10 Hz Consommation [VDD=5V] Bruit blanc de tension Bruit blanc de courant / capacité d'entrée Fréquence de transition bruit blanc/bruit Flicker Excitation Amplificateur de courant résonateur Capacités de filtrage Compensation C0 Amplificateur inverseur différentiel à saturation Figure 143 Schéma de l'oscillateur complet mesuré. Le montage complet de l'oscillateur est montré sur la Figure 144, le dispositif complet est encombrant et bien loin pour l'instant des dimensions d'un oscillateur miniature. Nous gardons à l'esprit que pour l'instant ce n'est qu'un prototype, le packaging du résonateur est loin d'être optimal et le circuit électronique à composants discrets classiques est forcément beaucoup plus volumineux qu'un circuit présentant un degré élevé d'intégration. 168 Šƒ’‹–”‡Ͷǣƒ”ƒ –±”‹•ƒ–‹‘•†‡•†‹•’‘•‹–‹ˆ•‡–ƒƒŽ›•‡• Figure 144 Image du dispositif oscillant complet composé de l'électronique d'entretien et du résonateur. 4.3.3 Mesure de la sensibilité thermique L'oscillateur prototype est placé dans la chambre climatique (équipement VT-7004 de chez Vötsch), présentée sur la Figure 145. Figure 145 Photographie du dispositif expérimental de la mesure de la sensibilité thermique : a) enceinte climatique Vötsch, b) intérieur de l'enceinte. L'oscillateur est alimenté par une tension continue -5/+5 V. La température est mesurée à l'aide d'une sonde platine Pt 1000 vissée sur le boîtier en cuivre contenant le résonateur. Un multimètre relève la résistance en fonction de la température et une table de conversion permet de remonter à la température. La fréquence est relevée par un compteur de haute précision (Agilent53230A) dont le temps d'échantillonnage ߬ est modifiable. Un schéma du montage est présenté sur la Figure 146. 169 Šƒ’‹–”‡Ͷǣƒ”ƒ –±”‹•ƒ–‹‘•†‡•†‹•’‘•‹–‹ˆ•‡–ƒƒŽ›•‡• Figure 146 Schéma du montage expérimental réalisé pour la mesure de la sensibilité thermique. Un programme Python est développé et permet de faire varier la température de consigne de l'enceinte climatique tout en relevant la fréquence et la température mesurée au niveau de la sonde. L'inertie thermique du système implique une durée nécessaire pour l'établissement d'un régime stationnaire. C'est pourquoi chaque nouvelle étape de consigne une durée d'attente typique de 1 à 2 heures est nécessaire pour la stabilisation du palier. La mesure de fréquence est réalisée sur une moyenne de points, une fois le palier stabilisé. La courbes de sensibilité thermique du mode fondamental, normalisée par rapport au maximum de la fréquence mesurée, et simulée sont montrées sur la Figure 147. Figure 147 Variation de la fréquence mesurée et simulée normalisée en fonction de la température. La fréquence simulée est obtenue par simulations éléments finis en analyse modale en modifiant les paramètres géométriques via la prise en compte des coefficients d'expansion thermique ainsi que la 170 Šƒ’‹–”‡Ͷǣƒ”ƒ –±”‹•ƒ–‹‘•†‡•†‹•’‘•‹–‹ˆ•‡–ƒƒŽ›•‡• prise en compte des variations des paramètres matériaux (coefficients de rigidité, piézoélectrique et diélectrique) avec la température jusqu'à l'ordre trois à chaque changement de température. Le point d'inversion, où la pente de la sensibilité thermique est nulle, est de prime importance dans les oscillateurs de type OCXO. Dans le cas classique des OCXOs contenant une pastille en coupe SC le point de fonctionnement - d'annulation de la sensibilité thermique - se trouve autour de 85°C et le résonateur est placé dans un four maintenu à une température la plus proche possible du point de fonctionnement. La température du point de fonctionnement est préférentiellement choisie à une valeur supérieure à la gamme de température d'utilisation, typiquement comprise entre -40 et 80°C. Dans le cas de l'ARQOMM 2D, nous pouvons remarquer que la température d'inversion mesurée du mode fondamental se situe vers – 10 °C tandis que celle simulée se situe à un peu plus de 10 °C. La tendance de la courbe est en revanche bien respectée. Plusieurs hypothèses sont avancées pour expliquer cet écart significatif de plus de 20°C. La prise en compte d'un angle de flancs de 3° dans les simulations ne modifie que marginalement la courbe de sensibilité thermique. Une rotation de la coupe autour de l'axe X (causée lors de la découpe des wafers) ne permet pas d'expliquer cet écart comme le montre la Figure 148 sur laquelle sont tracées les sensibilités thermiques des résonateurs pour différentes rotations autour de l'axe X On prédit, certes, un effet non négligeable d'une rotation d'un angle ߠ autour des axes de coordonnées fixes sur la fréquence de résonance (cela revient à une rotation des axes cristallins d'un angle Ȃ ߠ ). Mais pour expliquer l'écart des températures d'inversion, un angle de rotation d'environ 1,5° autour de l'axe X est à considérer, ce qui est bien supérieur aux tolérances précisées par le constructeur (typiquement 0,25 ° pour les rotations autour des axes X et Y dans le cas d'une coupe Z) 171 Šƒ’‹–”‡Ͷǣƒ”ƒ –±”‹•ƒ–‹‘•†‡•†‹•’‘•‹–‹ˆ•‡–ƒƒŽ›•‡• Figure 148 Sensibilités thermiques du mode fondamental simulées du résonateur ARQOMM 2D de type I vibrant à 2,2 MHz pour différents angles autour de l'axe X et la sensibilité thermique mesurée. Une dernière hypothèse réside dans la rugosité de la face arrière du quartz. Dans le passé, l'équipe CMT a mis en avant le décalage de température d'inversion vers les températures basses dans le cas de diapasons en quartz usinés chimiquement. Cette hypothèse pourra être confirmée ou infirmée dans le futur par la caractérisation de résonateurs usinés intégralement par gravure DRIE. La sensibilité thermique du partiel d'ordre 3 a également été mesurée et nous la montrons sur le graphique de la Figure 149. Il est utile de mentionner que la mesure est quelque peu différente de celle du mode fondamental dans la mesure où des températures élevées au-delà de la capacité de l'enceinte thermique doivent être atteintes. La mesure est faite sur le banc de pompage à l'aide d'un module Peltier, d'une sonde platine et d'un multimètre pour la mesure de température. La mesure de la fréquence de résonance est réalisée par la méthode de l'amplificateur de charges. 172 Šƒ’‹–”‡Ͷǣƒ”ƒ –±”‹•ƒ–‹‘•†‡•†‹•’‘•‹–‹ˆ•‡–ƒƒŽ›•‡• Figure 149 Variation de la fréquence mesurée et simulée normalisée du mode partiel d'ordre 3 en fonction de la température. La valeur de la température d'inversion est de 99°C tandis que les simulations par éléments finis renvoient une valeur proche de 123°C. L'écart, de plus de 20°C, est comparable au cas du fondamental. Contrairement au cas du mode fondamental qui est peu propice aux applications de type OCMO, le mode partiel d'ordre 3 paraît particulièrement bien adapté aux applications thermostatées et ce pour des gammes de températures allant jusqu'à 95 °C soit 10°C de plus que les OCXOs à base de pastilles de quartz en coupe SC. 4.3.4 Mesure de la variance d'Allan L'objectif de la mesure de la variance d'Allan consiste à estimer la performance ultime de l'oscillateur par la mesure du palier de bruit comme expliqué dans la section 1.3. Dans cet objectif, il est indispensable de réduire au minimum la contribution au bruit total des autres composantes de bruits, en particulier le bruit d'origine thermique. La mesure de la sensibilité thermique décrite précédemment est bien utile ; nous nous plaçons au point de sensibilité thermique minimale autour duquel la fréquence en sortie de l'oscillateur varie peu avec les variations de température qui se trouve autour de -9.5°C. Le schéma du montage est similaire à la Figure 146 aux différences suivantes près : la température de consigne est fixée et le fréquencemètre est contrôlé par ordinateur afin de varier automatiquement sa durée d'échantillonnage ߬. La durée minimale d'échantillonnage est de 1 ms. La 173 Šƒ’‹–”‡Ͷǣƒ”ƒ –±”‹•ƒ–‹‘•†‡•†‹•’‘•‹–‹ˆ•‡–ƒƒŽ›•‡• courbe d'écart-type d'Allan de la fréquence normalisée pour le premier oscillateur prototype est présentée sur la Figure 150. Figure 150 Mesure de la déviation d'Allan de l'oscillateur prototype placé dans l'enceinte thermostatée autour du point d'inversion du mode fondamental. Chaque point de la courbe correspond à une moyenne des 20 points les plus bas sur une série de 100 mesures Chaque point de mesure des 100 séries est réalisé pour N=5 d'échantillons. Nous mesurons un palier de ߪ௒ିி௟௜௖௞௘௥  ൌ  ͅ ൈ ͳͲିଵଵ entre 0.1 et 5 s. Nous rappelons que le facteur de qualité du résonateur était proche de 90 000. L'utilisation de la fréquence normalisée nous permet de comparer les performances d'oscillateurs à différentes fréquences. Deux dispositifs de la littérature se prêtent bien à l'évaluation du résonateur ARQOMM 2D monté en oscillateur : le résonateur en quartz en cisaillement d'épaisseur de l'équipe de Kubena [117] qui présente un facteur de qualité de 90 000 à 16 MHz et un palier de déviation d'Allan à ͵ ൈ ͳͲିଵଵ une fois le résonateur monté en oscillateur et le résonateur composé de 4 anneaux en extension de contour de la société SiTime [63] qui vibre à 48 MHz, présente un facteur de qualité de 148 000 et une déviation d'Allan ʹ ൈ ͳͲିଵଵ une fois le dispositif monté en oscillateur. Pour ces deux dispositifs le produit du plateau de la déviation d'Allan par le facteur de qualité mesuré du résonateur (sans électronique) ߪ௬ି௉௔௟௜௘௥ ൈ ܳ௥±௦௢௡௔௧௘௨௥ est une constante. Pour un facteur de qualité équivalent, la déviation d'Allan mesurée sur l'oscillateur intégrant un résonateur ARQOMM 2D paraît donc anormalement haute (dégradée) d'un facteur 3. Une explication plausible réside dans la résistance motionnelle élevée qui complique l'adaptation d'impédance et se traduit par une perte d'énergie dans le circuit électronique. En supposant que nous soyons en mesure d'atteindre un palier de déviation d'Allan de ͵ ൈ ͳͲିଵଵ avec le résonateur actuellement monté en retravaillant le circuit électronique, nous pouvons alors envisager de mesurer 174 Šƒ’‹–”‡Ͷǣƒ”ƒ –±”‹•ƒ–‹‘•†‡•†‹•’‘•‹–‹ˆ•‡–ƒƒŽ›•‡• un palier de déviation d'Allan inférieur à ͳͲିଵଵ sur des oscillateurs intégrant les meilleures cellules obtenues à ce jour. 4.3.5 Mesure de la stabilité long terme La variance d'Allan est un outil efficace pour estimer la stabilité court-terme de l'oscillateur qui est principalement limitée par le facteur de qualité du résonateur et son implémentation au sein du circuit électronique. La stabilité sur le long terme est également un paramètre déterminant. Il faut bien noter que la stabilité court-terme, typiquement visible sur des durées de fractions de seconde à plusieurs minutes, est le fruit de phénomènes aléatoires tandis que la stabilité long terme, souvent appelée vieillissement, est mesurable sur des temps beaucoup plus longs (de plusieurs jours à plusieurs années) et est systématique. Dans le cas des résonateurs en cisaillement d'épaisseur à hautes performances, deux phénomènes principaux sont mis en évidence pour expliquer le vieillissement : 1) la variation de l'épaisseur à l'échelle atomique due à l'adsorption ou la désorption de contaminants, 2) le relâchement des contraintes du résonateur au niveau de l'encastrement (zone reliant mécaniquement le résonateur au monde extérieur) ou à l'interface avec les électrodes [164]. Le vieillissement est également plus important pour les premiers jours à premières semaines de mise en marche de l'oscillateur, puis devient moins importante pour les périodes plus longues et la fréquence suit une dépendance linéaire avec la durée de mesure (sans changement d'environnement). Les industriels donnent généralement le vieillissement journalier de leurs dispositifs hautes performances (OCXO) pour une période d'utilisation typique de plusieurs semaines (typiquement 30 jours) pour s'affranchir du vieillissement initial important. Nous avons mesuré la stabilité de fréquence sur le long terme de l'oscillateur prototype pour le mode fondamental (2,210 MHz) placé dans la chambre climatique au point d'inversion (-9.5°C). Après une mise en marche de plusieurs jours, nous avons mesuré une variation de fréquence ௙೘ೌೣ ି௙೘೔೙ ଶ௙೘೚೤೐೙೙೐ inférieure à 60 ppb soit un vieillissement quotidien inférieur à േ͵‫ܾ݌݌‬Ȁ݆‫ݎݑ݋‬. Le graphe de la Figure 151 présente la mesure de fréquence en fonction de la durée de mesure. 175 Šƒ’‹–”‡Ͷǣƒ”ƒ –±”‹•ƒ–‹‘•†‡•†‹•’‘•‹–‹ˆ•‡–ƒƒŽ›•‡• Figure 151 Variation de la fréquence de sortie de l'oscillateur placé dans la chambre climatique autour du point d'inversion en fonction de la durée de la mesure. Cette valeur est tout à fait comparable aux valeurs typiques d'OCXOs miniatures commercialisés (encombrement < 10 cm3) comprise entre ͳͲିଵ଴ et ͳͲି଼ comme illustré sur le graphique de la Figure 152 qui présente le vieillissement quotidien d'oscillateurs commerciaux de type OCXOs miniatures et OCMOs de différents acteurs du marché en fonction de l'encombrement du dispositif. Pour l'ARQOMM 2D, nous nous sommes projetés vers l'objectif d'un oscillateur dont l'encombrement serait de l'ordre de 2 cm3. Figure 152 Vieillissement quotidien d'oscillateurs de type OCXO miniatures et OCMO commerciaux en fonction de l'encombrement. 176 Šƒ’‹–”‡Ͷǣƒ”ƒ –±”‹•ƒ–‹‘•†‡•†‹•’‘•‹–‹ˆ•‡–ƒƒŽ›•‡• Nous pouvons remarquer que le compromis performances/encombrement mis en évidence au chapitre I pour les différentes classes d'oscillateurs (XO, TCXO et OCXO), se retrouve également au sein d'une même catégorie. 4.4 Perspectives de l'ARQOMM intégré en OCMO Nous discutons dans cette section des perspectives pour le résonateur ARQOMM 2D en vue d'intégrer ce dernier en oscillateur de type OCMO. Les performances des résonateurs ARQOMM 2D vis-à-vis du facteur de qualité sont à l'état de l'art des résonateurs en quartz vibrant en extension-compression de longueur et des résonateurs en quartz fabriqués par DRIE. Il paraît alors pertinent d'exploiter le résonateur pour des applications nécessitant des performances élevées combinées à une faible consommation, un encombrement réduit et possiblement un fort volume de production. Trois domaines en particulier pourraient tirer profit d'un tel OCMO : le spatial (développement du « New Space » et multiplication du nombre des satellites miniatures lancés), l'automobile avec le développement des véhicules autonomes et la télécommunication, en particulier la téléphonie mobile, avec le développement de la 5G. L'utilisation de fréquences plus élevées, de 30 à 300 GHz pour la 5G, contre 6 GHz pour la 4G, va permettre une augmentation extraordinaire de la vitesse de connexion (10 fois plus rapide), de la bande passante et une réduction de la latence mais conduit également à une modification des infrastructures. En effet, l'utilisation de fréquences plus élevées conduit à des longueurs d'ondes plus courtes et à la multiplication de dispositifs de relais pour couvrir l'intégralité de réseau. Une croissance importante des stations de bases, de toutes tailles est attendue. Ces dispositifs incluent des horloges permettant la synchronisation à court-terme ou à plus long terme en cas d'absence de signal satellite. La Table 21 dresse le tableau des performances ciblées de l'oscillateur OCMO en vue d'applications spatiales, télécoms ou automobiles. Les performances du résonateur quartz à atteindre en conséquence sont également précisées. Le besoin d'une excellente stabilité court-terme de l'oscillateur implique la nécessité de très hauts facteurs de qualité compris entre Ͷ ൈ ͳͲହ à ͳͲ଺ pour un résonateur vibrant à 10 MHz. Les meilleurs facteurs de qualité obtenus à ce jour sont proches de la valeur nécessaire pour les applications télécoms ou automobile mais vibrent à des fréquences encore trop basses. La première perspective est donc d'augmenter la fréquence de résonance pour atteindre les 10 MHz. Deux possibilités viennent à l'esprit pour augmenter la fréquence : d'une part, réduire les dimensions du résonateur et d'autre part, employer un mode partiel. 177 Šƒ’‹–”‡Ͷǣƒ”ƒ –±”‹•ƒ–‹‘•†‡•†‹•’‘•‹–‹ˆ•‡–ƒƒŽ›•‡• Table 21 Tableau des performances ciblées de l'oscillateur OCMO et du résonateur quartz MEMS selon les applications visées. ’’Ž‹ ƒ–‹‘ ’ƒ–‹ƒŽ ±Ž± ‘•Ȁ—–‘‘„‹Ž‡ • ‹ŽŽƒ–‡—”Ǧ ‡”ˆ‘”ƒ ‡• ‹„Ž±‡• ‡”ˆ‘”ƒ ‡• ‹„Ž±‡• ”±“—‡ ‡ȋ œȌ —‹••ƒ ‡‡•–‡ƒ†›Ǧ•–ƒ–‡ȋȌ ͳͲ ͳͲ ʹšͳͲǦͳʹ Ͳǡͳ ʹͲ ͳͲͲ ǦͳͲͲ ǦͳͷͲ Ǧͳ͸ͷ ͳ‹ ͳ ͲǤͶ  ‘„”‡‡–ȋ͵Ȍ ʹͲͲͲ ͳͲ ͅͲ ͳͲǦͳͳ ͳ ͳͲͲ ͵ͲͲ ǦͻͲ ǦͳͷͲ Ǧͳ͸ͷ ͵Ͳ• ͳ ͲǤͳ ͳͲͲͲ –ƒ„‹Ž‹–±˜•ȋǦͶͲǢ ͅͷιȌȋ’’„Ȍ –ƒ„‹Ž‹–± ‘—”–Ǧ–‡”‡ȋ̷ͳ•Ȍ ‹‡‹ŽŽ‹••‡‡–ȀŒ‘—”ȋ’’„Ȍ ‹‡‹ŽŽ‹••‡‡–Ȁƒȋ’’„Ȍ ‹‡‹ŽŽ‹••‡‡–ȀͳͲƒ•ȋ’’Ȍ ”—‹–†‡’Šƒ•‡ͳ œȋ† Ȁ œȌ ”—‹–†‡’Šƒ•‡ͳ œȋ† Ȁ œȌ ”—‹–†‡’Šƒ•‡ Ž‘‘”ȋ† Ȁ œȌ ‡’•†‡™ƒ”—’ —‹••ƒ ‡’‡†ƒ–™ƒ”—’ȋȌ ƒ—–‡—”δͳʹȋ–±Ž± ‘•Ȍ ‡•‹„‹Ž‹–±‰ȋ’’„Ȍ ͲǤͳ ͳ ±•‘ƒ–‡—” ‡”ˆ‘”ƒ ‡• ‹„Ž±‡• ‡”ˆ‘”ƒ ‡• ‹„Ž±‡• ƒ –‡—”†‡“—ƒŽ‹–±ȋͳͲ͸Ȍ ±•‹•–ƒ ‡±”‹‡ȋŠ•Ȍ ͳ ͳͲͲ ‡’±”ƒ–—”‡†ǯ‹˜‡”•‹‘ȋιȌ ͻͷ ͲǤͶ ͳͲͲ ͻͷ εͳͲͷȋƒ—–‘‘„‹Ž‡Ȍ  ͳ ͳ Dans l'hypothèse de la conservation de la coupe Z pour réaliser les résonateurs ARQOMM 2D,  ‘„”‡‡–ȋ͵Ȍ l'utilisation du mode partiel semble plus pertinente pour des applications d'OCMO. En effet, la température d'inversion mesurée sur ce mode est de l'ordre de 99°C, au-delà de la gamme usuelle d'application (-40 ; 80°C). Maintenu autour de son point d'inversion, le résonateur est peu sensible aux variations de température de l'environnement car le transfert thermique s'opère alors du résonateur vers l'extérieur et la baisse de température peut être rapidement et simplement compensée par le four. Pour atteindre 10 MHz, il semble judicieux d'utiliser le premier harmonique d'un résonateur vibrant à 3,33 MHz sur le mode fondamental, ce qui correspond à une longueur totale de poutre proche de 817 μm. 178 Šƒ’‹–”‡Ͷǣƒ”ƒ –±”‹•ƒ–‹‘•†‡•†‹•’‘•‹–‹ˆ•‡–ƒƒŽ›•‡• L'augmentation du facteur de qualité constitue la deuxième perspective de développement de l'ARQOMM 2D. Il s'agit d'accompagner la hausse de la fréquence de résonance par une augmentation du facteur de qualité. L'utilisation du mode partiel demande cependant une importante étude par simulations éléments finis afin d'adapter les dimensions du résonateur et d'optimiser le mécanisme de découplage de l'ARQOMM 2D, qui, nous le rappelons, a été conçu pour le mode fondamental. La troisième perspective concerne la réduction de la résistance motionnelle. L'augmentation du facteur de qualité mènera à une baisse de celle-ci de manière automatique et proportionnelle. L'utilisation d'un dépôt sur les deux faces, toujours en coupe Z, permet de réduire de moitié la résistance motionnelle rapport à la configuration utilisée pour ce travail de thèse (électrodes sur une seule face) à facteur de qualité constant. Ainsi, avec les électrodes sur les deux faces un résonateur vibrant à 1,3 MHz et présentant un facteur de qualité de ͳͲ଺ possède une résistance motionnelle de 370 ȍ contre près de 750 ȍ avec la configuration réalisée pendant ces travaux. Pour atteindre les valeurs ciblées de l'ordre de 100 ȍ, il faudra passer un dépôt latéral d'électrodes pour maximiser le champ électrique, comme cela a pu être fait sur un gyromètre en arséniure de gallium [154], ou des structures vibrant dans un mode similaire en extension-compression [77][78]. Une résistance motionnelle de 125 ȍ est attendue pour un résonateur vibrant à 1,3 MHz et présentant un facteur de qualité de ͳͲ଺ . Cette solution demande un développement technologique important car il doit être adapté aux dimensions, plus faibles, des résonateurs ARQOMM 2D. Une solution élégante et pratique d'un point de vue technologique serait de passer à des échantillons en coupe X, la poutre vibrant toujours selon l'axe Y mais dans le plan YZ. Le dépôt en surface serait alors équivalent à un dépôt d'électrodes sur les flancs en coupe Z, dans les mêmes conditions la résistance motionnelle attendue est de 140 ȍ. Il faudra cependant s'intéresser à la variation du facteur de qualité avec le changement de coupe cristalline, adapter si nécessaire les dimensions du résonateur pour optimiser le découplage et estimer les pertes viscoélastiques dues à l'or dans cette nouvelle configuration d'électrodes. La Table 22 récapitule les valeurs de ܴ௠ pour les différentes options envisagées. 179 Šƒ’‹–”‡Ͷǣƒ”ƒ –±”‹•ƒ–‹‘•†‡•†‹•’‘•‹–‹ˆ•‡–ƒƒŽ›•‡• Table 22 Influence du choix de dépôt des électrodes et de la coupe cristalline sur la valeur de résistance motionnelle pour un résonateur de type poutre vibrant en extension-compression de longueur selon l'axe Y. Toutes les valeurs sont données pour un résonateur vibrant à 1 MHz et présentant un facteur de qualité de 106. Dépôt métallique Coupe Simple face Double face Dépôt latéral Z ࡾ࢓ ൌ ૠ૞૙ષ Facilité de réalisation mais ࡾ࢓ grand ࡾ࢓ ൌ ૜ૠ૙ષ Difficulté de réalisation modérée ࡾ࢓ ൌ ૚૛૞ષ Développement technologique à mener X ࡾ࢓ ൌ ૚૝૙ષ Facilité de réalisation mais étude sur Q à mener D'autres aspects comme la consommation, la stabilité thermique ou la sensibilité à l'accélération seront à étudiées et feront l'objet de compromis. Par exemple, la consommation et l'encombrement sont principalement dictés par le fonctionnement du four et son gain thermique, qui correspond au rapport de la variation de température de l'environnement sur la variation de température du four. Dans [165], les auteurs estiment des consommations inférieures à 20 mW pour des résonateurs en silicium idéalement assimilés à des sphères de rayon 1 mm et une enceinte assimilée à une sphère à de rayon 2 mm, un isolant thermique de type aérogel (conductivité estimée de 4 mW/m/K) et une excursion de température de 140°C (les pertes thermiques par les broches et la consommation de l'électronique d'entretien ont été négligées). Un calcul similaire en remplaçant la cellule de silicium par une sphère de dimension plus importante (qui correspond plus au résonateur ARQOMM 2D), rayon de 3 mm, et une enceinte également de rayon 3 fois plus important (9 mm), nous obtenons une consommation comparable de 32 mW. Nous pouvons noter que la sensibilité thermique du quartz est généralement plus faible que celle du silicium, la stabilité thermique de l'oscillateur sera donc meilleure à consommation équivalente (ou à stabilité thermique d'oscillateur fixée, le gain thermique nécessaire du four sera réduit dans le cas du quartz). 180 Šƒ’‹–”‡Ͷǣƒ”ƒ –±”‹•ƒ–‹‘•†‡•†‹•’‘•‹–‹ˆ•‡–ƒƒŽ›•‡• 4.5 Conclusion du chapitre 4 Dans ce chapitre, nous avons présenté les réalisations et les caractérisations d'ARQOMM 2D. L'amélioration du fond de gravure et un meilleur débouchage ont permis l'obtention de facteurs de qualité aussi hauts que 250 000 pour un mode fondamental vibrant à 2,2 MHz. Un tel facteur de qualité a également pu être mesuré sur le premier harmonique vibrant à 6,6 MHz. Le procédé de fabrication utilisant la gravure DRIE a cependant conduit à l'apparition de fissures indésirables qui limitent le nombre de résonateurs caractérisables par lot. L'utilisation d'une gravure chimique humide pour réaliser les cavités a contribué à une diminution des fissures mais également à une réduction des performances. L'emploi d'électrodes métalliques d'épaisseur réduite a permis l'obtention des facteurs de qualité les plus élevés sur le mode fondamental, jusqu'à 340 000 sur le mode fondamental vibrant à 2,2 MHz. La dispersion des facteurs de qualité sur l'essentiel des réalisations tend à indiquer que les pertes à l'encastrement ne sont pas négligeables et sont fortement variables au sein d'un même lot. Les pertes à l'encastrement et les pertes dues à la viscoélasticité des électrodes limitent les performances de l'ARQOMM 2D. Une augmentation du facteur de qualité passera donc par une diminution des pertes liées à chaque mécanisme. La réduction de l'épaisseur des électrodes est simple à mettre en oeuvre, la seule contrainte étant d'assurer la conduction. L'amélioration du facteur de qualité à l'encastrement passe par une optimisation de la recette et en particulier l'obtention de flancs plus verticaux Une autre approche serait de concevoir une cellule moins sensible aux défauts de fabrication comme l'angle de flanc. Un premier oscillateur intégrant un résonateur ARQOMM 2D a été caractérisé, la variance d'Allan mesurée est de l'ordre de ͳͲିଵ଴ pour des temps d'intégration compris entre 0,1 et quelques secondes, le vieillissement quotidien est inférieur à 3 ppb. L'intégration d'un des meilleurs résonateurs fabriqués devrait mener à une augmentation significative de la stabilité courtterme. Les performances, les dimensions et les moyens de fabrication collectifs de l'ARQOMM 2D font de lui un candidat idéal pour des applications d'oscillateurs contrôlés en température combinant hautes performances, faible consommation et encombrement réduit. Les applications ciblées sont les stations de bases des réseaux de télécommunication portable, l'industrie automobile et le spatial. Les prochaines étapes sont le développement d'un résonateur vibrant à 10 MHz (possiblement sur un premier harmonique) et une réduction de la résistance motionnelle par l'optimisation du réseau d'électrodes. 181 ‘ Ž—•‹‘‰±±”ƒŽ‡ Conclusion générale Les oscillateurs sont des éléments indispensables aux circuits électroniques : ils sont les gardiens du temps. Ils jouent le rôle d'horloge, et participe à la synchronisation ou à la génération des signaux. La performance d'un oscillateur se caractérise par sa stabilité, c'est-à-dire sa capacité à délivrer un signal dont la fréquence reste constante tant à court terme qu'à long terme et reste peu sensible à l'environnement. Les oscillateurs les plus couramment utilisés sont les oscillateurs électromécaniques dont l'élément filtrant est un résonateur en quartz. Le quartz est choisi pour ses faibles pertes internes, l'existence de coupes cristallines compensées en température ou en contraintes mécaniques statiques, la piézoélectricité et sa facilité de production. Les oscillateurs les plus stables sont réalisés à base de pastilles en quartz fonctionnant en cisaillement d'épaisseur. Ces pastilles présentent de très forts facteurs de qualité (typiquement 2 millions à 5 MHz) mais sont encombrantes et particulièrement coûteuses du fait de leur réalisation individuelle. Le dispositif est placé dans une enceinte thermostatée au point de sensibilité thermique moindre du résonateur afin de limiter les effets de variations de température de l'environnement sur la fréquence du signal délivré. Les dimensions de la pastille, indispensables à l'obtention du facteur de qualité et de la fréquence de résonance, entraînent une consommation importante de plusieurs Watts, un temps de démarrage de plusieurs minutes et un encombrement pouvant atteindre le litre. Ces caractéristiques sont incompatibles avec le développement des télécommunications et des systèmes embarqués pour lesquels performances, faible consommation et encombrement réduit doivent être atteints simultanément du fait des contraintes telles que la durée de vie des batteries, le volume disponible ou la masse transportable. Une diminution drastique des dimensions du résonateur tout en conservant des performances proches des pastilles permettrait une réduction conséquente de la consommation et de l'encombrement. Des résonateurs de types MEMS en silicium ou en silicium recouverts d'une couche piézoélectrique ont été développés dès les années 2000 : les dimensions de ces résonateurs ont que permis de réduire les puissances consommées. Les facteurs de qualité des résonateurs tout silicium sont également comparables à ceux des meilleures pastilles en quartz : cela s'explique en grande partie par la maturité des moyens de fabrication issus de la microélectronique. Cependant, la transduction capacitive des résonateurs en silicium induit des instabilités de fréquence. Le dépôt d'une couche piézoélectrique permet d'obtenir 182 ‘ Ž—•‹‘‰±±”ƒŽ‡ une transduction piézoélectrique plus efficace mais cela se fait au prix d'une dégradation du facteur de qualité du fait de l'amortissement visqueux de cette couche. De plus, la stabilité thermique du silicium est faible et doit être compensée, ce qui implique i) un dépôt de couche supplémentaire et une perte de facteur de qualité, ii) une compensation électronique et la consommation associée, ou iii) un dopage dégénéré du silicium et donc des étapes de fabrication supplémentaires. Les technologies de type MEMS en silicium sont prometteuses pour remplacer la technologie historique dans les applications moins exigeantes, mais l'adaptation du silicium aux applications demandant une haute stabilité reste conjecturale. Par exemple, les modes permettant d'obtenir le meilleur couplage électromécanique par transduction électrostatique sont ceux qui présentent un déplacement hors-plan important. Pour s'affranchir des pertes thermoélastiques, il faut alors augmenter la fréquence de résonance en réduisant les dimensions. Le savoir-faire des principaux acteurs du domaine a effectivement permis de miniaturiser les résonateurs tout silicium en maîtrisant l'impact des pertes dans les supports sur le coefficient de qualité. Mais la miniaturisation des surfaces d'électrodes drainant les charges impose un accroissement de la résistance motionnelle. Celle-ci nécessite en retour de grands gains de la boucle de réaction afin de compenser les pertes. Pour remédier à cet inconvénient, plusieurs équipes (MIT, Cambridge, Stanford) ont envisagé de remplacer le résonateur MEMS par plusieurs résonateurs en parallèle. Mais alors, les tolérances de fabrication et les inéluctables petites différences entre les résonateurs individuels élargissent le pic de réponse électrique de l'ensemble. Ce contexte ne facilite pas l'utilisation des résonateurs tout silicium pour les applications de haute stabilité en dépit de leurs succès obtenus dans le domaine des oscillateurs produits en masse. C'est pourquoi nous choisissons d'utiliser le quartz qui apparaît comme le matériau le plus adéquat pour réaliser des micro-résonateurs en vue de les intégrer dans des oscillateurs de hautes performances et faible consommation. L'équipe Capteurs et Microtechnologies de l'ONERA a développé un concept de résonateur miniature planaire à très fort facteur de qualité de l'ordre de 600 000 pour une fréquence de quelques mégahertz. Le résonateur se compose d'une poutre en extension-compression associé à un système de découplage composé de deux pavés latéraux en mode de flexion ou de deux poutres en mode de flexion et d'extension-compression en opposition de phase permettant de minimiser les déplacements au niveau de la zone d'ancrage et donc de confiner l'énergie de déformation au sein de la structure vibrante. Cependant, la taille et la géométrie du résonateur sont défavorables à l'utilisation du moyen de gravure conventionnel qu'est la gravure chimique du quartz par voie humide. L'anisotropie de la gravure chimique révèle les plans cristallins et entraîne l'apparition de figures d'attaque qui dégradent le facteur de qualité, et dans le pire des cas, s'avèrent bloquantes. La gravure 183 ‘ Ž—•‹‘‰±±”ƒŽ‡ sèche assistée par plasma, plus précisément de type gravure ionique réactive profonde, est une technologie prometteuse en vue de l'obtention de structures présentant des flancs verticaux, et ce, indépendamment de l'orientation cristalline de l'échantillon. La gravure ionique réactive profonde est mature dans le cas du silicium et a permis un développement intensif des MEMS en silicium présentant des forts rapports d'aspect. Bien que l'intérêt de la gravure réactive ionique profonde du dioxyde de silicium ait été identifié dès les années 1970, celle-ci n'a connu un réel développement qu'à partir des années 2000 avec l'émergence d'équipements de gravure plus adéquats. Il devient alors possible de générer des plasmas plus denses mais également de découpler la génération du plasma d'avec l'intensité du bombardement ionique. La gravure du quartz, forme cristalline de la silice, utilise généralement des gaz fluorocarbonés en raison de leur capacité à former un dépôt de polymère sur les surfaces horizontales et verticales exposées. Ce polymère joue un rôle clé dans le contrôle de la cinétique de gravure et la verticalité des flancs. L'étude menée durant cette thèse a permis de mettre en évidence le rôle crucial de l'oxygène dans le contrôle de ce polymère. La recette de gravure ainsi développée rend possible l'obtention d'un fond de gravure lisse, la rugosité est de l'ordre de quelques nanomètres, tout en assurant une quasi verticalité des flancs sur une profondeur de 100 μm. Une technique de masquage basée sur un masque épais de plusieurs microns en nickel, métal choisi pour sa grande sélectivité, a fait l'objet d'une attention particulière. Le procédé repose sur une méthode originale de décollement de résine utilisant une double couche de résines spécialement adaptée aux températures élevées de la pulvérisation cathodique lors de dépôt du nickel. La gravure DRIE a été intégrée dans un procédé de fabrication complet, qui a conduit à la réalisation de résonateurs prototypes ARQOMM 2D caractérisables. Les caractérisations de ces derniers ont démontré de très hauts facteur de qualité, jusqu'à 340 000 pour une structure vibrant à 2,2 MHz, à l'état de l'art des résonateurs en quartz réalisés par DRIE et des résonateurs en quartz en extension-compression de longueur. L'analyse des résultats met en évidence deux mécanismes contribuant à la limitation du facteur de qualité mesuré, les pertes à l'encastrement et les pertes viscoélastiques dues à l'utilisation d'électrodes métalliques. L'augmentation du facteur de qualité du résonateur et donc des performances (en particulier la stabilité court-terme) de l'oscillateur, passe par une réduction des pertes liées à ces deux mécanismes. La réduction de l'épaisseur d'or simple à mettre en place et est, a priori, possible car la gravure DRIE n'impose pas de contrainte sur l'épaisseur des métallisations (contrairement à la gravure chimique humide pour laquelle la métallisation sert également de masque de gravure) tant que la conduction électrique est assurée. En revanche, la réduction des pertes à l'encastrement implique une modification de la recette, et en particulier, une compréhension fine des mécanismes de 184 ‘ Ž—•‹‘‰±±”ƒŽ‡ passivation afin d'améliorer la verticalité de flancs. La piste privilégiée est la modification du rapport des débits des gaz entrant dans la composition du plasma. Il faudra également se poser la question de la modulation de la recette en cours de gravure, la mise en évidence du phénomène d'ARDE démontre le changement des caractéristiques de la recette en cours de gravure. A l'inverse, une autre approche possible est de conserver la recette développée en tenant compte des limitations technologiques actuelles et d'optimiser la structure en conséquence, modification des dimensions ou ajout d'un étage de découplage, afin de piéger l'énergie mécanique plus efficacement. L'obtention d'un très haut facteur de qualité ; supérieur à 200 000, pour un mode partiel vibrant à 6.6, MHz est une voie d'amélioration prometteuse. D'une part, le produit ܳ ൈ ݂ atteint avoisine ʹ ൈ ͳͲଵଶ ‫ݖܪ‬, le plus haut mesuré au cours de cette thèse, d'autre part la température d'inversion mesurée se situe autour de 100°C, ce qui favorise à une application d'oscillateur MEMS avec contrôle de la température par thermalisation. Les performances du premier oscillateur incluant un ARQOMM 2D fonctionnant sur un mode fondamental et placé dans une enceinte climatique autour de son point d'inversion, sont comparables à l'état de l'art des OCXOs miniatures. La variance d'Allan de la fréquence normalisée mesurée est de l'ordre de ͳͲିଵ଴ pour des temps d'intégration compris entre 0,1 et quelques secondes, le vieillissement quotidien est inférieur à 3 ppb. Le résonateur intégré présente des performances en retrait de celles atteintes après optimisation des procédés de fabrication. L'intégration d'un meilleur résonateur va mener à une amélioration significative de la stabilité court-terme. Les perspectives du résonateur ARQOMM 2D sont identifiées. Ses performances, ses dimensions et la possibilité de le fabriquer à large échelle par des moyens de fabrication collectifs font de lui un candidat idéal pour des applications d'oscillateurs alliant hautes performances, encombrement réduit et consommation limitée. Les applications ciblées sont les stations de bases des réseaux de télécommunication sans fils, l'industrie automobile et le spatial. Les prochaines étapes sont le développement d'un résonateur vibrant à 10 MHz, probablement sur le premier harmonique, et une réduction de la résistance motionnelle par l'optimisation du réseau d'électrodes. A plus long terme, il s'agira de s'intéresser à un procédé post-fabrication d'ajustement de la fréquence et d'encapsulation. 185 Bibliographie [1] J. R. Norton and J. M. Cloeren, "Precision Quartz Oscillators And Their Use Aboard Satellites," Johns Hopkins APL Tech. Dig., vol. 15, no. 1, pp. 1–8, 1994. [2] C. T. Nguyen, "Vibrating RF MEMS for Next Generation Wireless Applications," in IEEE Custom Integrated Circuits Conf, 2004, pp. 257–264. [3] P. P. Grassé and A. Couder, "Comptes rendus des séances de la treizième conférence générale des poids et mesures," 1967. [Online]. Available: https://www.bipm.org/utils/common/pdf/CGPM/CGPM13.pdf. [4] BIPM, Ed., "Comité international des poids et mesures 88ème session," 1999. [Online]. Available: https://www.bipm.org/utils/en/pdf/CIPM/CIPM1999-EN.pdf. [5] "Brochure SI Annexe 2. Réalisation pratique de la définition de l'unité de temps," 2019. [Online]. Available: hhttps://www.bipm.org/utils/en/pdf/si-mep/SI-App2-second.pdf. [6] R. Li, K. Gibble, and K. Szymaniec, "Improved accuracy of the NPL-CsF2 primary frequency standardௗ: evaluation of distributed cavity phase and microwave lensing frequency shifts," Metrologia, vol. 48, pp. 283–289, 2011. [7] N. Hinkley, "An Atomic Clock with 10−18 Instability," Science (80-. )., vol. 341, no. 1215, 2013. [8] "Résolutions adoptées lors du 26e CGPM 13-16 novembre 2018," 2018. [Online]. Available: https://www.bipm.org/utils/common/pdf/CGPM-2018/26th-CGPM-Resolutions.pdf. [9] H. Michel, "Une clepsydre antique crecque," 1971. [Online]. Available: http://www.astrolabium.be/IMG/pdf/1028._une_clepsydre_antique_grecque_4_.pdf. [10] J.-P. MOURAT, "Les sabliers," 2015. [Online]. Available: https://www.google.com/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&uact=8&v ed=2ahUKEwiV257TlsznAhUHUhoKHf5uAGQQFjAAegQIBBAB&url=http%3A%2F%2Fw 186 ww.mdt.besancon.fr%2Fwp-content%2Fuploads%2F2015%2F02%2FLessabliers.pdf&usg=AOvVaw1SvvaBv79HS8tQqawPv6Jq. [Accessed: 12-Feb-2020]. [11] J. Curie and P. Curie, "Développement par compression de l'électricité polaire dans les cristaux hémièdres à faces inclinées," Bull. la Société minéralogique Fr., vol. 3, pp. 90–93, 1880. [12] W. G. Cady, "THE PIEZO-ELECTRIC RESONATOR*," Proc. Inst. Radio Eng., vol. 6, pp. 83–114, 1921. [13] J. W. Horton and W. A. Marrison, "Precision determination of frequency," Proc. Inst. Radio Eng., vol. 16, no. 2, pp. 137–154, 1927. [14] C. Stephens, M. Dennis, and V. Press, "Engineering timeௗ: inventing the electronic wristwatch," vol. 33, pp. 477–497, 2000. [15] "Seiko Quartz Astron 35SQ," EPSON, 1969. [Online]. Available: https://global.epson.com/company/corporate_history/milestone_products/05_35sq.html. [16] H. Lyons, "The atomic clock," Instruments, vol. 22, pp. 133–135, 1949. [17] L. Essen and J. Parry, "An atomic standard of frequency and time interval: a cesium resonator," Nature, vol. 176, pp. 280–281, 1955. [18] J. Vig, "Quartz Crystal Resonators and Oscillators - For Frequency Control and Timing Applications - A Tutorial. 10.13140/2.1.2134.0962." 2016. [19] J. Rutman, "Characterization of Phase and Frequency Instabilities in Precision Frequency Sources: Fifteen Years of Progress," in PROCEEDINGS OF THE IEEE, 1978, vol. 66, no. 9, pp. 1048–1075. [20] J. Rutman, S. Member, and F. L. Walls, "Characterization of Frequency Stability In Precision Frequency Sources," in PROCEEDINGS OF THE IEEE, 1991, vol. 79, no. 6, pp. 952–960. [21] F. Vernotte, "Stabilité temporelle et fréquentielle des oscillateursௗ: modèles," Techniques de l'ingénieur, vol. R680 V1, 2006. [22] "IEEE Standard Definitions of Physical Quantities for Fundamental Frequency and Time Metrology - Random Instabilities," IEEE Std 1139-1999, pp. 1–40, 1999. 187 [23] F. L. Walls and D. W. Allan, "Measurements of Frequency Stability," in Proceedings of the IEEE, 1986, vol. 74, no. 1. [24] J. A. Barnes et al., "Characterization of Frequency Stability," in IEEE Transactions on Instrumenation and Measurement, 1971, vol. IM-20, no. 2. [25] D. W. Allan, "Statistics of Atomic Frequency Standards," in Proceedings of the IEEE, 1966, vol. 54, no. 2. [26] J. F. Balascio and T. Lind, "The growth of piezoelectric alpha quartz crystals," Solide State Mater. Sci., vol. 2, pp. 588–592, 1997. [27] E. Bureau, "Piezoelectric Constants of Alpha- and Beta-Quartz at Various Temperatures," Phys. Rev., vol. 80, no. 4, pp. 712–716, 1950. [28] H. Busignies et al., "Standards on Piezoelectric Crystals," in Proceedings of the Institute of Radio Engineers, 1950, pp. 1378–1395. [29] D. Royer and E. Dieulesaint, Ondes élastiques dans les solides Tome 1 Propagation libre et guidée. Paris, 1996. [30] "Quartz cuts thermal sensitivity." [Online]. Available: https://www.electronicdesign.com/analog/minimize-frequency-drift-crystals. [31] S. Butterworth, "On Electrically-maintained Vibrations," in Proc. Phys. Soc. London, 1914, pp. 410–424. [32] K. S. Van Dyke, "The piezo-electric resonator and its equivalent network by k. s. van dyke," in New York Institute Meeting, 1928, pp. 742–764. [33] J. Staudte, "USA Patent MICRORESONATOR OF TUNING FORK CONFIGURATION," 3,683,213, 1971. [34] "About QMEMS." [Online]. Available: https://www5.epsondevice.com/en/information/technical_info/qmems/. [35] M. Tanaka, "An Overview of Quartz MEMS Devices," in 2010 IEEE International Frequency Control Symposium, 2010, pp. 162–167. 188 [36] A. Clairet, "Modélisation et analyse numérique de résonateur à quartz à ondes de volume," Université de Franche-Comté, 2016. [37] E. Lane, "A NEW MEASUREMENT OF THE BASIC ELASTIC AND DIELECTRIC CONSTANTS OF QUARTZ," in 42nd Annual Frequency Control Symposium, 1988, pp. 146– 154. [38] R. J. Besson, "A new 'electrodeless' resonator design," in 31st Annual Symposium on Frequency Control, 1977, pp. 147–152. [39] C. S. Lam, "A Review of the Timing and Filtering Technologies in Smartphones," 2016 IEEE Int. Freq. Control Symp., pp. 1–6, 2016. [40] D. Rabus, "Résonateur à ondes élastiques de volume à harmoniques élevés (HBARs) pour mesures gravimétriquesௗ: application à la détection de gaz," UNIVERSITÉ DE FRANCHECOMTÉ, 2014. [41] A. Akhiezer, "On the absorption of sound in solid," J. Phys., vol. 1, no. 1, pp. 277–287, 1939. [42] S. A. Chandorkar, M. Agarwal, R. Melamud, R. N. Candler, K. E. Goodson, and T. W. Kenny, "LIMITS OF QUALITY FACTOR IN BULK-MODE," in MEMS, 2008, pp. 74–77. [43] R. J. Besson and M. M. Mourey, "BVA resonators and oscillatorsௗ: a review. Relation with space requirements and quartz material characterization.," 1995 IEEE Int. Freq. Control Symp., 1995. [44] J. P. Aubry, S. Galliou, M. Goryachev, R. Bourquin, P. Abbe, and M. E. Tobar, "Extremely Low Loss Phonon-Trapping Physical Experiments," Sci. Rep., pp. 1–6, 2013. [45] Y. Tsaturyan, A. Barg, E. S. Polzik, and A. Schliesser, "Ultra-coherent nanomechanical resonators via soft clamping and dissipation dilution," Nat. Nanotechnol., vol. 12, pp. 776–783, 2017. [46] A. H. Ghadimi et al., "Elastic strain engineering for ultralow mechanical dissipation," Science (80-. )., vol. 6939, no. April, pp. 1–10, 2018. [47] V. J. Gokhale and J. J. Gorman, "Approaching the intrinsic quality factor limit for micromechanical bulk acoustic resonators using phononic crystal tethers," Appl. Phys. Lett., 189 vol. 13501, 2017. [48] D. B. Leeson, "Simple Model of Feedback Oscillator Noise Spectrum," in Proceedings of the IEEE, 1966, pp. 329–330. [49] J. J. Gagnepain, J. Uebersfeld, G. Goujon, and P. Handel, "RELATION BEWEEN l/f NOISE AND Q-FACTOR IN QUARTZ RESONATORS AT ROOM AND u)kl TEMPERATURES, FIRST THEORETICAL INTERPRETATION," in IEEE Frequency Control Symposium, 1981, pp. 476–483. [50] Verified Market Research, "Global Crystal Oscillators Market Size and Forecast To 2025," 2018. [Online]. Available: https://www.verifiedmarketresearch.com/product/global-crystaloscillators-market-size-and-forecast-to-2025/. [51] J. T. M. van Beek, "A review of MEMS oscillators for frequency reference and timing Topical Review," J. Micromechanics Microengineering, vol. 22, 2012. [52] I. Jokiü, M. Frantloviü, Z. Djuriü, and M. L. Dukiü, "RF MEMS / NEMS RESONATORS FOR WIRELESS COMMUNICATION SYSTEMS AND ADSORPTION- DESORPTION PHASE NOISE," Electron. Energ., vol. 28, no. September, pp. 345–381, 2015. [53] F. Ayazi, "The HARPSS process for fabrication of precision MEMS inertial sensors," Mechatronics, vol. 12, pp. 1185–1199, 2002. [54] T. Mattila, J. Kiihamäki, and T. Lamminmäki, "A 12 MHz micromechanical bulk acoustic mode oscillator," Sensors Actuators A Phys., vol. 101, pp. 1–9, 2002. [55] V. Kaajakari, T. Mattila, and A. Oja, "Square-Extensional Mode Single-Crystal Silicon Micromechanical Resonator for Low-Phase-Noise Oscillator Applications," in IEEE Electron Device Letters, 2004, vol. 25, pp. 173–175. [56] J. E. Lee and A. A. Seshia, "5.4-MHz single-crystal silicon wine glass mode disk resonator with quality factor of 2 million," Sensors Actuators A Phys., vol. 156, pp. 28–35, 2009. [57] L. Khine, M. Palaniapan, and W.-K. Wong, "6 MHz bulk-Mode Resonator With Q Values Exceedings one Million," in Transducers & Eurosensors, 2007, pp. 2445–2448. [58] L. Khine, M. Palaniapan, and W.-K. Wong, "12.9 Lame Differential SOI Bulk Resonator," 190 Transducers & Eurosensors, pp. 1753–1756, 2007. [59] J. E. Lee and A. A. Seshia, "Wine Glass Mode Resonator with Quality Factor of 4 Million," in IEEE Sensors, 2008, no. November 2008, pp. 1257–1260. [60] G. Xereas and V. P. Chodavarapu, "Wafer-Level Vacuum-Encapsulated Lamé Mode Resonator With f-Q Product of 2 . 23 × 10 13 Hz," IEEE Electron Device Lett., vol. 36, no. 10, pp. 1079– 1081, 2015. [61] H. C. Nathanson and R. A. Wickstrom, "A Resonant-Gate Silicon Surface Transistor With High-Q Band-Pass Properties," Appl. Phys. Lett., vol. 7, no. 4, pp. 84–86, 1965. [62] C. R. Johnson, "Last MEMS Oscillator Maker Standing," 2016. [Online]. Available: https://www.eetimes.com/author.asp?section_id=36&doc_id=1329232#. [63] A. Partridge, H. Lee, P. Hagelin, V. Menon, and S. Corp, "We Know that MEMS is Replacing Quartz . But Whyௗ? And Why Nowௗ?," 2013 Jt. Eur. Freq. Time Forum Int. Freq. Control Symp., pp. 411–416, 2013. [64] V. Kaajakari, J. K. Koskinen, and T. Mattila, "Phase Noise in Capacitively Coupled Micromechanical Oscillators," IEEE Trans. Electron Devices, vol. 52, no. 12, pp. 2322–2331, 2005. [65] K. Sundaresan, G. K. Ho, S. Pourkamali, and F. Ayazi, "Bulk Acoustic Resonator Reference Oscillators," IEEE J. Solid-State Circuits, vol. 42, no. 6, pp. 1425–1434, 2007. [66] A. Jaakkola, "Piezoelectrically transduced temperature compensated silicon resonators for timing and frequency reference applications," Aalto University, 2016. [67] V. Kaajakari, Practical MEMS. Small Gear Publishing, 2009. [68] O. Mareschal et al., "MODELING AND FABRICATION OF PIEZOELECTRIC ALUMINUM NITRIDE RESONATOR AND ITS APPLICATION IN OSCILLATORS," in TRANSDUCERS, 2009, pp. 565–568. [69] R. Abdolvand, H. M. Lavasani, G. K. Ho, and F. Ayazi, "Thin-Film Piezoelectric-on-Silicon Resonators for High-Frequency Reference Oscillator Applications," IEEE Trans. Ultrason. Ferroelectr. Freq. Control, vol. 55, no. 12, pp. 2596–2606, 2008. 191 [70] S. Humad, R. Abdolvand, G. K. Ho, G. Piazza, and F. Ayazi, "High frequency micromechanical piezo-on-silicon block resonators," IEDM, pp. 957–960, 2003. [71] F. Ayazi, S. Pourkamali, G. K. Ho, and R. Abdolvand, "High-Aspect-Ratio SOI Vibrating Micromechanical Resonators and Filters," in 2006 IEEE MTT-S International Microwave Symposium Digest, 2006, pp. 676–679. [72] G. Piazza, R. Abdolvand, G. K. Ho, and F. Ayazi, "Voltage-tunable piezoelectricallytransduced single-crystal silicon micromechanical resonators þ ," Sensors Actuators A. Phys., vol. 111, pp. 71–78, 2004. [73] D. Ruffieux, F. Krummenacher, A. Pezous, and G. Spinola-durante, "Silicon Resonator Based 3 .2 μW Real Time Clock With 10 ppm Frequency Accuracy," 224 IEEE J. SOLID-STATE CIRCUITS, vol. 45, no. 1, pp. 224–234, 2010. [74] G. Piazza, P. J. Stephanou, and A. P. Al Pisano, "Piezoelectric Aluminum Nitride Vibrating Contours Mode MEMS Resonators," J. Microelectromechanical Syst., vol. 15, no. 6, pp. 1406– 1418, 2006. [75] "Microchip Announces the Acquisition of Micrel," 2015. [Online]. Available: http://www.microchip.com/announcements/microchip-announces-the-acquisition-of-micrel. [76] V. Kaajakari et al., "A 32.768 kHz MEMS Resonator with +/-20 Ppm Tolerance in 0.9 Mm X 0.6 Mm Chip Scale Package," in IEEE International Frequency Control Symposium and European Frequency and Time Forum (EFTF/IFC) 2019, 2019. [77] R. J. Dinger, "A minature quartz resonator vibrating at 1 MHz," Proc. 35 th Ann. Freq Control Symp., pp. 144–148, 1981. [78] H. Kawashima and M. Nakazato, "Variational analysis of new shape length extensional mode quartz crystal resonator taking account of lateral motion," Proc. 44 th Ann. Symp. Freq. Control, pp. 378–386, 1990. [79] H. Kawashima, "New Cuts for Width-Extensional Mode Quartz Crystal Resonators," in IEEE Frequency Control Symposium, 1992, pp. 525–531. [80] R. L. Kubena, F. P. Stratton, D. T. Chang, R. J. Joyce, and T. Y. Hsu, "NEXT GENERATION QUARTZ OSCILLATORS and FILTERS for VHF-UHF SYSTEMS," in 2006 IEEE MTT-S 192 International Microwave Symposium Digest, 2006, pp. 668–671. [81] D. T. Chang, F. P. Stratton, R. L. Kubena, and R. J. Joyce, "Optimized DRIE Etching of UltraSmall Quartz Resonators," in Proceedings of the 2003 IEEE International Frequency Control Symposium, 2003, pp. 829–832. [82] R. G. Nagele et al., "A 995MHz Fundamental Nonlinear Quartz MEMS Oscillator," in Joint UFFC, EFTF and PFM Symposium, 2013, pp. 566–570. [83] K. Yamashita, "Part7. Casting About for a Restorative Offensive Weapon," 2013. [Online]. Available: https://www5.epsondevice.com/en/information/technical_info/qmems/story2_7.html. [84] W. Cui, L. Pan, L. Ye, W. Zhou, and W. Zheng, "Development of Small BVA Quartz Resonator," 2016 IEEE Int. Freq. Control Symp., pp. 1–3, 2016. [85] O. Le Traon, M. Bahriz, O. Ducloux, S. Masson, and D. Janiaud, "A Micro-Resonator for Fundamental Physics Experiments and its Possible Interest for Time and Frequency Applications," Jt. Conf. IEEE Int. Freq. Control Eur. Freq. Time Forum Proc., 2011. [86] M. Bahriz et al., "A micromechanical resonator to reach the quantum regime," Proc. IEEE Sensors, pp. 1991–1995, 2010. [87] R. Pelle, H. Christer, V. K. Ilia, and B. Ylva, "Etch rates of crystallographic planes in Z -cut quartz - experiments and simulation," J. Micromechanics Microengineering, vol. 8, no. 1, p. 1, 1998. [88] O. Brand, I. Dufour, S. M. Heinrich, and F. Josse, Resonant MEMS–Fundamentals, Implementation and Application, First Edit. Wiley-VCH Verlag GmbH & Co. KGaA, 2015. [89] C. Zener, "Internal Friction in Solids," Phys. Rev. A, vol. 52, no. 1937, pp. 230–235, 1937. [90] R. Lifshitz and M. L. Roukes, "Thermoelastic damping in micro- and nanomechanical systems," Phys. Rev. B, vol. 61, no. 8, pp. 5600–5609, 2000. [91] R. Tabrizian and F. Ayazi, "EFFECT OF PHONON INTERACTIONS ON LIMITING THE f . Q PRODUCT OF," TRANSDUCERS 2009 - 2009 Int. Solid-State Sensors, Actuators Microsystems Conf., no. 3, pp. 2131–2134, 2009. [92] S. Ghaffari et al., "Accurate Modeling of Quality Factor Behavior of Complex Silicon MEMS 193 Resonators," J. MICROELECTROMECHANICAL Syst., vol. 24, no. 2, pp. 276–288, 2015. [93] S. Galliou, P. Abb, M. Goryachev, M. E. Tobar, and R. Bourquin, "Quality Factors of Quartz Crystal Resonators Operating at 4 Kelvins," in 2015 Joint Conference of the IEEE International Frequency Control Symposium & the European Frequency and Time Forum, 2015, pp. 2–6. [94] J. Yang, T. Ono, and M. Esashi, "Energy Dissipation in Submicrometer Thick Single-Crystal Silicon Cantilevers," J. MICROELECTROMECHANICAL Syst., vol. 11, no. 6, pp. 775–783, 2002. [95] K. Y. Yasumura et al., "Quality Factors in Micron- and Submicron-Thick Cantilevers," J. MICROELECTROMECHANICAL Syst., vol. 9, no. 1, pp. 117–125, 2000. [96] R. Sandberg, K. Mølhave, A. Boisen, and W. Svendsen, "Effect of gold coating on the Q -factor of a resonant cantiliver," J. OFMICROMECHANICS ANDMICROENGINEERING, vol. 15, pp. 2249–2253, 2005. [97] O. Le Traon, S. Masson, C. Chartier, and D. Janiaud, "LGS and GaPO4 piezoelectric crystalsௗ: New results," Solid State Sci., vol. 12, pp. 318–324, 2010. [98] B. Bourgeteau et al., "Quartz resonator for MEMS oscillator," in 2014 European Frequency and Time Forum, EFTF 2014, 2014, pp. 286–289. [99] O. Le Traon, "Structure plane de résonateur mécanique découplé par des vibrations de flexion et d'extension compression," n° 13/00322, 2013. [100] O. Ochiai, A. Kudo, A. Nakajima, and H. Kawashima, "A Method of Adjusting Resonant Frequency and Frequency- Temperature Coefficients of Miniaturized GT Cut Quartz Resonator," in 36th Annual Frequency Control Symposium 7982, 1982. [101] B. Bourgeteau-verlhac, R. Lévy, T. Perrier, P. Lavenus, J. Guérard, and O. Le Traon, "Gold Thin Film Viscoelastic Losses of a Length Extension Mode Resonator," Eur. Freq. Time Forum, pp. 1–4, 2016. [102] J.-S. Danel, "Micro-usinage des matériaux monocristallins," Techniques de l'ingénieur, vol. BM7290 V1, 1998. [103] J. S. Danel and G. Delapierre, "Quartzௗ: a material for microdevices," J. Micromechanics 194 Microengineering, vol. 1, pp. 187–198, 1991. [104] M. A. Lieberman and A. J. Lichtenberg, Principles of Plasma Discharges and Materials Processing, Second edi. John Wiley & Sons, 2005. [105] L. M. Ephrath, "Selective Etching of Silicon Dioxide Using Reactive Ion Etching with CF -H," J. Electrochem. Soc, pp. 2–4, 1979. [106] L. M. Ephrath, "THE EFFECT OF CATHODE MATERIALS ON REACTIVE ION ETCHING OF SILICON AND SILICON DIOXIDE IN A CF 4 PLASMA," J. Electron. Mater., vol. 7, no. 3, pp. 415–428, 1977. [107] C. J. Mogab, A. C. Adams, and D. L. Flamm, "Plasma etching of Si and SiO2 - The effect of oxygen additions to CF4 plasmas," J. Appl. Phys., vol. 49, no. 7, pp. 3796–3803, 1978. [108] J. A. Kusters and C. A. A. L. H. E. Karrer, "ANALYTICAL AND EXPERIMENTAL INVESTIGATIONS 32KHz QUARTZ TUNING FORKS," in 30th Annual Symposium on Frequency Control, 1976. [109] T. Fukasawa and Y. Horiike, "Deep dry etching of quartz plate over 100 μm in depth employing ultra-thick photoresist (SU-8)," Japanese J. Appl. Physics, Part 1 Regul. Pap. Short Notes Rev. Pap., vol. 42, no. 6 A, pp. 3702–3706, 2003. [110] Y.-H. Tang, Y.-H. Lin, M.-H. Shiao, and C.-S. Yu, "Development of thin quartz glass utilising through-glass-via (TGV) formation by dry etching technology," Micro Nano Lett., vol. 11, no. 10, pp. 568–571, 2016. [111] P. Kao, D. Allara, and S. Tadigadapa, "Fabrication and performance characteristics of highfrequency micromachined bulk acoustic wave quartz," Meas. Sci. Technol. Relat., vol. 20, pp. 1–9, 2009. [112] V. N. Hung, T. Abe, P. N. Minh, and M. Esashi, "Miniaturized , highly sensitive single-chip multichannel quartz-crystal microbalance," Appl. Phys. Lett., vol. 5069, no. 2002, pp. 21–24, 2010. [113] M. B. Pisani, K. Ren, P. Kao, and S. Tadigadapa, "Room temperature infrared imaging array fabricated using heterogeneous integration methods," Procedia Eng., vol. 5, pp. 952–955, 2010. 195 [114] S. Grousset et al., "Quartz-based vibrating MEMS fabricated using a wafer-bonding process with sealed cavities," in IEEE Frequency Control Symposium, 2014, pp. 5–8. [115] E. Song, S. Kang, H. Kim, Y. Kim, and J. An, "Wafer-Level Fabrication of a Fused-Quartz Double-Ended Tuning Fork Resonator Oscillator Using Quartz-on-Quartz Direct Bonding," IEEE Electron Device Lett., vol. 34, no. 5, pp. 692–694, 2013. [116] A. Kamijo, S. Monoe, N. Murayama, T. Saito, and N. Kimura, "Wafer-level quartz dry etching technology," IFCS 2014 - 2014 IEEE Int. Freq. Control Symp. Proc., pp. 81–84, 2014. [117] R. L. Kubena et al., "A Fully Integrated Quartz MEMS VHF TCXO," IEEE Trans. Ultrason. Ferroelectr. Freq. Control, vol. 3010, no. c, pp. 3–7, 2017. [118] J. J. Boy, H. Tavernier, X. Vacheret, T. Laroche, and A. Clairet, "Collective fabrication of 20 MHz resonators by deep Reactive Ion Etching on 3" quartz wafers," Proc. IEEE Int. Freq. Control Symp. Expo., pp. 3–7, 2011. [119] P. Kao, A. Patwardhan, D. Allara, and S. Tadigadapa, "Human Serum Albumin Adsorption Study on 62-MHz Miniaturized Quartz Gravimetric Sensors," Anal. Chem., vol. 80, no. 15, pp. 5930–5936, 2008. [120] P. Chabert and N. Braithwaite, Physics of Radio-Frequency plasmas, First edit. Cambridge, 2011. [121] E. Despiau-Pujo, "Plasmas Radiofréquence Basse Pressionௗ: Des Sources aux Procédés," in Journées du Réseau Plasmas Froids 2014-La Rochelle, 2014, pp. 1–61. [122] R. J. Shul and S. J. Pearton, Handbook of advanced plasma processing techniques, First. Springer-Verlag Berlin Heidelberg New York, 2000. [123] D. L. Flamm, V. M. Donnelly, J. A. Mucha, B. Laboratories, and M. Hill, "The reaction of fluorine atoms with silicon The reaction of fluorine atoms with silicon," J. Appl. Phys., vol. 52, pp. 3633–3639, 1981. [124] C. Steinbruchel, H. W. Lehmann, and K. Frick, "Mechanism of Dry Etching of Silicon Dioxide," J. Electrochem. Soc, no. 11, pp. 180–186, 1985. [125] T. E. F. M. Standaert, C. Hedlund, E. A. Joseph, G. S. Oehrlein, and T. J. Dalton, "Role of 196 fluorocarbon film formation in the etching of silicon , silicon dioxide , silicon nitride , and amorphous hydrogenated silicon carbide Role of fluorocarbon film formation in the etching of silicon , silicon dioxide , silicon nitride , and amorphou," J. Vac. Sci. Technol. A, vol. A, no. 22, pp. 53–60, 2004. [126] A. Sankaran and M. J. Kushner, "Integrated feature scale modeling of plasma processing of porous and solid SiO2. I. Fluorocarbon etching," J. Vac. Sci. Technol. A Vacuum, Surfaces, Film., vol. 22, no. 4, p. 1242, 2004. [127] J. W. Butterbaugh, D. C. Gray, and H. H. Sawin, "Plasma – surface interactions in fluorocarbon etching of silicon dioxide," J. Vac. Sci. Technol. B, vol. B, no. 9, pp. 1461–1470, 1991. [128] O. Joubert, G. S. Oehrlein, and M. Surendra, "Fluorocarbon high density plasma. VI. Reactive ion etching lag model for contact hole silicon dioxide etching in an electron cyclotron resonance plasma," J. Vac. Sci. Technol. A Vacuum, Surfaces, Film., vol. 12, no. 1994, p. 665, 1994. [129] M. Schaepkens and G. S. Oehrlein, "A Review of SiO2Etching Studies in Inductively Coupled Fluorocarbon Plasmas," J. Electrochem. Soc., vol. 148, no. 3, p. C211, 2001. [130] P. D. Rack, "Plasma Etching Outine," University of Tennesse. [Online]. Available: https://www.google.com/url?sa=t&rct=j&q=&esrc=s&source=web&cd=2&cad=rja&uact=8&v ed=2ahUKEwixt6pl4HoAhURzoUKHXvPBzUQFjABegQIAxAB&url=http%3A%2F%2Fweb.utk.edu%2F~p rack%2FThin%2520films%2FEtching.pdf&usg=AOvVaw0iUxuxAT3fTF666vtFU66v. [131] J. W. Coburn and H. F. Winters, "Plasma etching - A discussion of mechanisms," J. Vac. Sci. Technol., vol. 16, no. 391, 1979. [132] X. Li et al., "Effects of Ar and O2 additives on SiO2 etching in C4F8-based plasmas," J. Vac. Sci. Technol. A, vol. 21, no. 1, pp. 284–293, 2003. [133] H. Doh et al., "Mechanism of selective SiO2 / Si etching with fluorocarbon gases ( CF4 , C4F8 ) and hydrogen mixture in electron cyclotron resonance plasma etching system Mechanism of selective SiO 2 / Si etching with fluorocarbon gases ( CF 4 , C 4 F 8 ) and hydrogen mi," J. Vac. Sci. Technol. A, vol. 2827, no. 1996, 2014. [134] L. Li, T. Abe, and M. Esashi, "Smooth surface glass etching by deep reactive ion etching with 197 SF 6 and Xe gases," J. Vac. Sci. Technol. B, vol. 2545, no. May, 2003. [135] M. D. Minnick, G. a Devenyi, and R.N.Kleiman, "Optimum reactive ion etching of x -cut quartz using SF6 and Ar," J. Micromechanics Microengineering, vol. 23, p. 117002, 2013. [136] T. Ujiie, T. Kukuchi, I. Takanori, and Y. Horiike, "Fabrication of Quartz Microcapillary Electrophoresis Chips Using Plasma Etching," Japan J. Appl. Phys., vol. 39, pp. 3677–3682, 2000. [137] H. Chen and C. Fu, "An investigation into the characteristics of deep reactive ion etching of quartz using SU-8 as a mask," J. Micromech.Microeng., vol. 18, pp. 1–8, 2008. [138] X. Li, T. Abe, Y. Liu, and M. Esashi, "Fabrication of High-Density Electrical Feed-Throughs by Deep-Reactive-Ion Etching of Pyrex Glass," J. MICROELECTROMECHANICAL Syst., vol. 11, no. 6, pp. 625–630, 2002. [139] T. Abe and M. Esashi, "One-chip multuchannel quartz crystal microbalance fabricated by deep RIE.pdf," Sensors and Actuators, vol. 82, pp. 139–143, 2000. [140] D. T. Chang, F. P. Stratton, R. L. Kubena, and R. J. Joyce, "Optimized DRIE etching of ultrasmall quartz resonators," IEEE Int. Freq. Control Sympposium PDA Exhib. Jointly with 17th Eur. Freq. Time Forum, 2003. Proc. 2003, pp. 829–832, 2003. [141] V. Bliznetsov, H. M. Lin, Y. J. Zhang, and D. Johnson, "Deep SiO 2 etching with Al and AlN masks for MEMS devices," Tech. Note SPTS Technol. [142] Z. Wu et al., "PIEZOELECTRICALLY TRANSDUCED HIGH- Q SILICA MICRO RESONATORS," 2013 IEEE 26th Int. Conf. Micro Electro Mech. Syst., pp. 122–125, 2013. [143] A. Zarzycki, X. Vacheret, O. Bel, D. Picchedda, and J. J. Boy, "Collective Fabrication of BAW Resonators on 4 '' SC-cut Quartz Wafers," 2012 Eur. Freq. Time Forum, pp. 58–61, 2012. [144] S. Queste, G. Ulliac, J. Jeannot, and C. K. Malek, "DRIE of non-conventional materials: first results," Multi-Material Micro Man, pp. 2–5, 2008. [145] A. Kamijo, S. Monoe, N. Murayama, T. Saito, and N. Kimura, "Wafer-level quartz dry etching technology," IFCS 2014 - 2014 IEEE Int. Freq. Control Symp. Proc., vol. 1035, pp. 6–9, 2014. [146] P. Kao and S. Tadigadapa, "Micromachined quartz resonator based infrared detector array," 198 Sensors Actuators, A Phys., vol. 149, no. 2, pp. 189–192, 2009. [147] Y. Morikawa, T. Koidesawa, T. Hayashi, and K. Suu, "A novel deep etching technology for Si and quartz materials," Thin Solid Films, vol. 515, no. 12, pp. 4918–4922, 2007. [148] P. Kao, D. Allara, and S. Tadigadapa, "Fabrication and performance characteristics of highfrequency micromachined bulk acoustic wave quartz," Meas. Sci. Technol., 2009. [149] J.-J. Bessot, "Dépôts par pulvérisation cathodique," Tech. l'Ingénieur, vol. V1, no. M1657, pp. 1–24, 1985. [150] S. Hickman, "CNS STANDARD OPERATING PROCEDURE SOP112 Lift-off Photoresist Processing," 2011. [151] J. A. N. Soderkvist, "Piezoelectric Materials," in IEEE Transactions on Instrumenation and Measurement, 1990, no. 37, pp. 577–586. [152] S. L. Lai, D. Johnson, and R. Westerman, "Aspect ratio dependent etching lag reduction in deep silicon etch processes," J. Vac. Sci. Technol. A Vacuum, Surfaces, Film., vol. 24, no. 4, p. 1283, 2006. [153] J. Yeom, Y. Wu, and M. A. Shannon, "Critical aspect ratio dependence in deep reactive ion etching of silicon," TRANSDUCERS 2003 - 12th Int. Conf. Solid-State Sensors, Actuators Microsystems, Dig. Tech. Pap., vol. 2, pp. 1631–1634, 2003. [154] A. Piot, "Etude de la fabrication et de la transduction d'un microgyromètre piézoélectrque triaxial en GaAs," Université Paris Sud, 2018. [155] M. Pedersen and M. Huff, "Plasma Etching of Deep High-Aspect Ratio Features Into Fused Silica," J. Microelectromechanical Syst., vol. 26, no. 2, pp. 448–455, 2017. [156] A. D. B. Iii, M. C. M. Van De Sanden, J. A. Gregus, and R. A. Gottscho, "Scaling of Si and GaAs trench etch rates with aspect ratio , feature width , and substrate temperature," J. Vac. Sci. Technoloy B, vol. 13, no. March 1994, pp. 92–104, 1995. [157] R. A. Gottscho, "Microscopic uniformity in plasma etching," J. Vac. Sci. Technol. B Microelectron. Nanom. Struct., vol. 10, no. 5, p. 2133, 1992. [158] C. M. Horwitz, "Ion deflection due to sheath field curvature," Appl. Phys. Lett., vol. 62, 1993. 199 [159] G. S. Hwang and K. P. Giapis, "Aspect ratio independent etching of dielectrics," Appl. Phys. A Mater. Sci. Process., vol. 71, no. May, pp. 458–460, 1997. [160] J. M. F. Zachariasse and A. N. Broers, "The dependence of nanostructure etch rates on feature size," Microelectron. Eng., vol. 30, pp. 349–352, 1996. [161] J. W. Coburn and H. F. Winters, "Conductance considerations in the reactive ion etching of high aspect ratio features," Appl. Phys. Lett., vol. 55, no. 26, pp. 2730–2732, 1989. [162] P. Clausing, "The Flow of Highly Rarefied Gases through Tubes of Arbitrary Length," J. Vac. Sci. Technol., vol. 8, no. 5, p. 636, 1971. [163] A. Technologies, "Technical Overview Agilent 4294A Precision Impedance Analyzer 40 Hz to 110 MHz Agilent 4294A Precision Impedance Analyzer," datasheet. [Online]. Available: https://www.keysight.com/en/pd-1000000858%3Aepsg%3Apro-pn-4294A/precisionimpedance-analyzer-40-hz-to-110-mhz?cc=CA&lc=eng. [164] J. R. Vig, "Quartz Crystal Resonators and Oscillators For Frequency Control and Timing Applications - A Tutorial." 2014. [165] J. Vig and Y. Kim, "The low-power potential of oven-controlled mems oscillators," IEEE Trans. Ultrason. Ferroelectr. Freq. Control, vol. 60, no. 4, pp. 851–853, 2013. 200 Liste des figures Figure 1 Simulations du signal de sortie d'un oscillateur idéal en bleu et d'un oscillateur réel en vert ; haut : tension du signal délivré en fonction du temps, bas : fréquence du signal délivré en fonction du temps 7 Figure 2 Schéma de principe d'un banc de mesure de bruit de phase. 11 Figure 3 Représentation schématique de la loi en puissances des densités spectrale de phase et de fréquence 11 Figure 4 Haut : mesures représentatives de la fréquence normée temporelle pour deux valeurs de temps d'intégration, bas : variance d'Allan en fonction du temps d'intégration tiré de [18] 13 Figure 5 Représentation de la fonction ࢎ࣎ représentant le cycle de mesure de la variance d'Allan en fonction du temps d'intégration ࣎. 14 Figure 6 Gauche : représentation en loi de puissance de la densité spectrale de bruit de fréquence normalisé, droite : représentation en loi de puissance de la variance d'Allan. 15 Figure 7 Morphologie du cristal de quartz Į tournée gauche, tiré de [28]. 17 Figure 8 Composantes des tenseurs élastiques, piézoélectriques, diélectriques pour la classe trigonal.18 Figure 9 Composantes de déformations longitudinales possiblement générées par un champ électrique adapté de [18]. 19 Figure 10 Angles conventionnels de rotation du wafer de quartz autour de ses axes cristallins tiré de [28]. 19 Figure 11 Variation de fréquence normalisée en fonction de la température pour différentes coupes de quartz [30]. 20 Figure 12 Représentation schématique d'un oscillateur mécanique vibrant à un seul degré de liberté. 20 Figure 13 Circuit RLC modélisant un oscillateur électrique 21 Figure 14 Schéma équivalent du résonateur piézoélectrique 22 Figure 15 En haut : module de l'admittance du circuit BVD, en bas : phase de l'admittance du circuit BVD. 23 Figure 16 En haut : module de l'impédance du circuit BVD, en bas : phase de l'impédance du circuit BVD. 24 201 Figure 17 Variation du rapport de la fréquence de résonance du circuit complet sur la fréquence de résonance de la branche série en fonction de la valeur de la capacité de la branche statique. 24 Figure 18 Diapason en quartz utilisé dans l'industrie horlogère. 25 Figure 19 Exemples de pastille de quartz vibrant en cisaillement d'épaisseur, gauche : montage en 4 points, droite : montage en 2 points [36]. 26 Figure 20 Exemple de résonateur de type BVA, la pastille de cisaillement est maintenue par des pinces entre deux morceaux de quartz métallisés servant d'électrodes, tiré de [1]. 27 Figure 21 Schéma de principe de fonctionnement d'un résonateur d type SAW, tiré de [41]. 27 Figure 22 Variation de l'amplitude d'oscillation après l'arrêt de l'excitation en fonction du temps. 28 Figure 23 Amplitude de déplacement en fonction de la fréquence et mesure du facteur de qualité. 29 Figure 24 Structure d'un oscillateur la plus simple comprenant un élément filtrant et un amplificateur. 31 Figure 25 Modèles de Leeson. En haut : fonction de transfert de l'amplificateur, au milieu : fonction de transfert de filtrage du résonateur, en bas : bruit de phase résultant de l'association. 33 Figure 26 Schéma de fonctionnement d'un VCXO 35 Figure 27 Schéma de fonctionnement d'un TCXO et MCXO 36 Figure 28 Principe du fonctionnement d'un oscillateur monté en OCXO 36 Figure 29 Performances de stabilité thermique d'oscillateurs commercialisés et classés suivant les catégories. 37 Figure 30 Facteur de qualité des résonateurs de type quartz, MEMS silicium et MEMS piézoélectrique en fonction de la fréquence de résonance de la littérature. Les triangles correspondent à des résonateurs vibrant en mode d'extension-compression ou de flexion, les disques à des modes de cisaillement d'épaisseur et les carrés à des modes de Lamé ou mode de contour. 42 Figure 31 Concept de l'ARQOMM 3D, un pilier vibre en mode d'extension compression créant un déplacement latéral qui est compensé au niveau de l'ancrage par un mouvement de flexion de l'anneau. 46 Figure 32 Exemple de résonateurs ARQOMM usinés par voie chimique sur un wafer de 1.5 pouces (3.81 cm), en encart un résonateur monté sur une embase. 47 Figure 33 Mesure du facteur de qualité relatif en fonction de la remontée de pression pour un résonateur de type poutre en extension-compression vibrant à 3 MHz étudié au cours de cette thèse. 50 Figure 34 Déformée d'une poutre en flexion faisant apparaître les zones de compression chaudes en rouge et les zones en extension froides en bleu, tiré de [89]. 50 202 Figure 35 Simulations par éléments finis du déplacement des résonateurs inspirés de l'ARQOMM 3D, mode fondamental, haut : type I, bas : type II. La couleur rouge correspond au maximum de l'amplitude de déplacement tandis que le bleu correspond au minimum. 53 Figure 36 Amplitude de déplacement relative simulée par la méthode des éléments finis de l'ARQOMM 2D de type I à sa fréquence de résonance vibrant à 2.96 MHz. Les zones rouges correspondent au maximum de l'amplitude de déplacement, les zones bleues au minimum 55 Figure 37 Amplitude de déplacement relative simulée par la méthode des éléments finis de l'ARQOMM 2D de type I à sa fréquence de résonance vibrant à 2,96 MHz. Les zones rouges correspondent au maximum de l'amplitude de déplacement, les zones bleues au minimum. La poutre centrale n'a pas été sélectionnée afin de réaliser un zoom sur les zones adjacentes au centre de la poutre. 56 Figure 38 Amplitudes de déplacement de l'ARQOMM 2D de type I a) selon la composante X en phase de compression de la poutre, b) selon la composante Y en phase d'extension de la poutre. Nous noterons que les deux images ne correspondent pas à la même phase de la vibration mais sont proches de l'opposition de phase. 57 Figure 39 Amplitude de déplacement de l'ARQOMM 2D de type I. Ni la poutre centrale ni les piliers latéraux n'ont été sélectionnés afin de réaliser un zoom sur les zones adjacentes aux piliers latéraux 57 Figure 40 Amplitude de déplacement de l'ARQOMM 2D de type I. Ni la poutre centrale ni les piliers latéraux ni le seconde étage de découplage n'ont été sélectionnés afin de réaliser un zoom sur les zones adjacentes au second étage. 58 Figure 41 Dessin de l'ARQOMM 2D de type I avec les noms des cotes. 59 Figure 42 Maillage par simulation éléments finis de la structure ARQOMM 2D de type I 59 Figure 43 Variation de la fréquence de résonance en Hz en fonction de l'inverse de la longueur centrale en mm-1 pour les résonateurs ARQOMM 2D de type I, les losanges bleus correspondent aux points de simulations, la courbe de tendance linéaire associée est en noir continu, la droite en pointillés rouges correspond à la courbe du modèle analytique de la poutre élancée encastréelibre. 60 Figure 44 Amplitudes de déplacement de l'ARQOMM 2D de type II a) selon la composante X en phase de compression de la poutre, les piliers latéraux sont en mouvement de flexion, b) selon la composante Y en phase d'extension de la poutre. Nous noterons que les deux images ne correspondent pas à la même phase de la vibration mais sont proches de l'opposition de phase. 61 Figure 45 Amplitude de déplacement de l'ARQOMM 2D de type II pendant la phase d'extension du pilier central. 62 203 Figure 46 Amplitude de déplacement de l'ARQOMM 2D de type II. Ni la poutre centrale ni les piliers latéraux ni le second étage de découplage n'ont été sélectionnés afin de réaliser un zoom sur les zones adjacentes au cadre découplage et la zone d'ancrage. 62 Figure 47 Déformée amplifiée du déplacement du mode d'intérêt du résonateur ARQOMM 2D de type II. 63 Figure 48 Déformée amplifiée du déplacement du mode suivant le mode d'intérêt du résonateur ARQOMM 2D de type II. Les piliers latéraux vibrent en opposition de phase en extensioncompression, La poutre et les piliers vibrent en phase en mouvement de flexion 63 Figure 49 Déformée amplifiée du déplacement du mode sur suivant le mode d'intérêt du résonateur ARQOMM 2D de type II. Les trois poutres vibrent en opposition en phase en extension compression. 64 Figure 50 Dessin de l'ARQOMM 2D de type II avec les noms des cotes 64 Figure 51 Variation de la fréquence de résonance en Hz en fonction de l'inverse de la longueur centrale en mm-1 pour les résonateurs ARQOMM de type II, les losanges bleus correspondent aux points de simulations, la courbe de tendance linéaire associée est en noir continu et la droite en pointillés rouges correspond au modèle analytique de la poutre élancée encastrée libre. 65 Figure 52 Amplitude de déplacement relative simulée par la méthode des éléments finis d'une poutre simple à sa fréquence de résonance vibrant à 2.96 MHz. Les zones rouges correspondent au maximum de l'amplitude de déplacement, les zones bleues au minimum. L'espace entre la poutre et le cadre de découplage vaut 202 μm. 67 Figure 53 Variation du facteur de qualité à l'encastrement simulé d'une poutre simple vibrant à 2.96 MHz en fonction de la longueur des bras entre la poutre le cadre de découplage. 67 Figure 54 Simulations des amplitudes de vibrations du mode partiel d'ordre 3 des résonateurs ARQOMM haut : de type I, bas : de type II. 69 Figure 55 Schéma d'électrodes pour l'excitation et la détection du résonateur ARQOMM a) idéal, b) réalisé, c) réalisable. 70 Figure 56 Charges surfaciques du mode fondamental de l'ARQOMM type I 72 Figure 57 Réseau d'électrodes simulé pour le mode fondamental, l'électrode de gauche en bleu est mise à 1V (symbole V encerclé) tandis que celle de droite en rouge est mise à 0 V (symbole de masse électrique). 72 Figure 58 Charges surfaciques du mode partiel de l'ARQOMM type I. 73 Figure 59 Equivalence de la collecte des charges du mode partiel vibrant à 3 fois la fréquence du fondamental 73 204 Figure 60 Configurations envisagées pour le mode partiel : a) la configuration idéale, b) configuration avec 2 segments sur 3 connectés. Les rubans de même couleur subissent le même potentiel, l'un est nul l'autre uniforme non nul. 75 Figure 61 Configuration d'électrodes optimale et réaliste, à droite un gros sur les connexions des trois segments. 75 Figure 62 Figures d'attaque obtenues par usinage chimique humide pour deux poutres taillées dans un wafer en coupe et orientées selon les axes X et Y et pour deux bains de gravures différentes, tiré de la référence [104]. 78 Figure 63 Configuration limite pour laquelle la figure d'attaque bloque le débouchage. 79 Figure 64 Haut : géométrie de résonateur ARQOMM de type 2 vibrant à 3 MHz après simulation d'usinage de 6h en utilisant les conditions de gravure ONERA. Section de poutres du résonateur selon l'axe X le long de la ligne rouge. 80 Figure 65 Haut : géométrie de résonateur ARQOMM de type 2 vibrant à 3 MHz après simulation d'usinage de 6h en utilisant les conditions de gravure ONERA. Section de poutres du résonateur selon l'axe Y le long de la ligne rouge. 81 Figure 66 Haut : géométrie de résonateur ARQOMM de type 2 vibrant à 3 MHz après simulation d'usinage de 6h en utilisant les conditions de gravure ONERA. Section de poutres du résonateur selon l'axe Y le long de la ligne rouge 81 Figure 67 Gauche géométrie de résonateur ARQOMM de type 2 vibrant à 3 MHz après simulation d'usinage de 6h en utilisant les conditions de gravure ONERA. Droite : zoom sur les figures d'attaques au niveau de la jonction des poutres. 82 Figure 68 Section de poutres du résonateur selon l'axe Y le long de la ligne rouge de la figure précédente pour d = 152 μm section correspondant à la ligne rouge sur la figure précédente AR = 0.59. 82 Figure 69 Mécanisme de création et d'entretien d'un plasma dans le cas d'une décharge luminescente continue. 85 Figure 70 En haut, représentation schématique de la chambre du plasma entouré par des parois reliées à la masse. Le plasma est séparé en deux régions : la région centrale et la gaine au niveau des parois. En bas, variation du potentiel en fonction de la position suivant l'axe du plasma. 87 Figure 71 Variation du potentiel en fonction de la position. La gaine se situe entre l'objet et la coordonnée s à partir de laquelle, le potentiel dans le plasma est quasi-constant et vaut Vp. 88 Figure 72 Haut : schéma de la chambre du plasma, une fois l'électrode polarisée par un générateur RF via une capacité de blocage introduit. Bas : tension aux bornes de la capacité de blocage, a) : à l'état initial, b) : après établissement du régime permanent. Tiré de [123]. 89 205 Figure 73 Classification des trois types de gravure plasma suivant la pression de travail et l'énergie du bombardement ionique 90 Figure 74 Schémas des mécanismes de la gravure RIE. 91 Figure 75 Schéma du dispositif de gravure sèche de type RIE 92 Figure 76 Schéma de dispositif à plasma dense en configuration ICP. 93 Figure 77 Photographie de l'équipement ICP-RIE utilisé durant les travaux. 94 Figure 78 a) Variation de la tension seuil requise en fonction du ratio F/C pour plusieurs gaz additifs [133], b) variation de la sélectivité en fonction du ratio F/C, tiré de [132] 96 Figure 79 A gauche : exemple de flancs sortants ; à droite : exemple de flancs rentrants. 98 Figure 80 Motifs de croix en résine SU8-2050 après rinçage, a) grandissement x50, b) grandissement x100 103 Figure 81 Observations au microscope optique de motifs du masque en SU8, a) avant gravure, b) après 60 min de gravure avec la recette adaptée au masque de résine épaisse. Sur l'image de droite, l'échantillon est toujours collé sur le support utilisé lors de la gravure DRIE : les motifs arrondis que l'observe en arrière-plan correspondent à la graisse à vide que l'on voit par transparence 104 Figure 82 Image MEB de poutres de 250 μm de larges après gravure DRIE d'une durée de 1h en utilisant en masque de résine épaisse. 105 Figure 83 Image MEB de poutres de 250 μm de larges après gravure DRIE d'une durée de 1h en utilisant en masque de résine épaisse. 105 Figure 84 Schéma illustrant la méthode de mesure permettant l'estimation de la sélectivité. 106 Figure 85 Gauche : exemple de gravure chimique par voie humide de motifs en utilisant le TFB, droite : zoom sur les résidus au fond des tranchées. 108 Figure 86 Schéma de procédé du décollement de résine dans le cas habituel d'une résine inversible. 110 Figure 87 Procédé de décollement de résine ONERA utilisant un empilement de résine. 111 Figure 88 Gauche : images de microscopie optique présentant des exemples de languettes de nickel sur des lignes de largeurs nominales 20 et 15 μm, droite : explication du phénomène observé. 112 Figure 89 Schéma de procédé mettant en évidence l'intérêt d'employer une résine LOR plus épaisse : le filet de nickel n'est plus continu. 113 Figure 90 images de microscopie optique présentant des exemples de poutres après amélioration du procédé de décollement de résine, a) : poutres de largeurs nominales 15 et 10 μm grandissement x200, b) : poutres de largeur nominale 10 μm grandissement x500. 113 Figure 91 Poutre en nickel après décollement de résine avec le procédé optimisé, les lignes de 5 μm de largeur ont été surdéveloppées. 114 206 Figure 92 a) Mesure de la profondeur de tranchées gravées pendant 2h30min, b) images MEB de l'interface nickel/quartz. 115 Figure 93 Image MEB d'un échantillon après 2h30 de gravure avec recette constructeur M=800. 116 Figure 94 Image MEB d'un échantillon après 2h30min de gravure avec la recette constructeur M=120. 116 Figure 95 Image MEB d'un flanc après 2h30min de gravure en vue de dessus tournée. 117 Figure 96 Images de microscopie optique au grossissement x50 de l'évolution du fond de gravure en cours de gravure sur un échantillon réalisé par décollement de résine. 118 Figure 97 Images de microscopie optique au grossissement x50 de l'évolution du fond de gravure d'un échantillon réalisé par décollement de résine avec un nettoyage de la chambre au préalable, à gauche : avant gravure, à droite : après une gravure de 90 min 119 Figure 98 Images de microscopie optique au grossissement x50 de l'évolution du fond de gravure d'un échantillon réalisé par gravure chimique du nickel avec un nettoyage de la chambre au préalable, à gauche : avant gravure, à droite : après une gravure de 90 min. 119 Figure 99 Images de microscopie optique au grossissement x50 de l'évolution du fond de gravure d'un échantillon réalisé par décollement de résine avec un nettoyage de la chambre au préalable, à gauche : avant gravure, à droite : après une gravure de 90 min avec la recette enrichie en oxygène. 120 Figure 100 Images de microscopie optique au grossissement x50 de l'évolution du fond de gravure d'un échantillon réalisé par gravure chimique du nickel avec un nettoyage de la chambre au préalable, à gauche : avant gravure, à droite : après une gravure de 90 min avec la recette enrichie en oxygène. La luminosité a été augmentée sur l'image de droite pour un meilleur aperçu du fond de la tranchée. 121 Figure 101 Image obtenue en microscopie électronique de sections de tranchées de quartz après 4h30min de gravure DRIE en utilisant la recette enrichie en oxygène 122 Figure 102 Image obtenue en microscopie électronique d'un flanc de tranchée de quartz après 4h30min de gravure DRIE en utilisant la recette enrichie en oxygène 122 Figure 103 Images MEB de deux tranchées obtenues après 2h30min de gravure en utilisant la gravure enrichie en oxygène sur un échantillon provenant d'un wafer de coupe X. 124 Figure 104 Réseaux d'électrodes dans le cas de dépôt sur les deux faces pour une poutre vibrant en extension-compression de longueur dans la direction Y, à gauche : la poutre provient d'un wafer de coupe Z, à droite : d'un wafer de coupe X. 125 Figure 105 Profondeurs gravées de quartz e en fonction de largeur w des motifs pour différents temps de gravure 126 207 Figure 106 Mesures expérimentales de vitesses apparentes moyennes de gravure en fonction du rapport d'aspect et pour différentes durées de gravure. 127 Figure 107 Vue de coupe en imagerie électronique de deux tranchées de largeurs différentes gravées pendant 4 heures avec la recette de gravure enrichie en oxygène. 127 Figure 108 A gauche, ancien dessin de masque de gravure DRIE de l'ARQOMM 2D, à droite le nouveau dessin de masque ne comportant qu'un rapport d'aspect unique. 128 Figure 109 Modèle de flux proposé par Coburn et Winters dans le régime de Knudsen dans le cas d'une ouverture cylindrique [164]. 130 Figure 110 Variation de la profondeur gravée de quartz en fonction de la variation des dimensions latérales des motifs pour différentes durées de gravure des points expérimentaux (marqueurs) et des ajustements associés (lignes continues) pour Spr=1 et vsubstrat-0=25μm/h. 131 Figure 111 Variation de la vitesse de gravure apparente en fonction du rapport d'aspect pour deux puissances de plateau. La puissance haute est 33% supérieure à la basse. 132 Figure 112 Variation de la profondeur gravée de quartz en fonction de la variation des dimensions latérales des motifs pour différentes durées de gravure des points expérimentaux (marqueurs) et des ajustements associés (lignes continues). Les ajustements des valeurs expérimentales utilisant la puissance plateau basse (jeux de données rouge, vert et bleu) ont été obtenus avec Spr=1 et vsubstrat-0=25μm/h. L'ajustement des données utilisant la puissance plateau haute (violet) a été obtenu avec Spr=0.6 et vsubstrat-0=30μm/h. 133 Figure 113 Variation de la vitesse de gravure moyenne normalisée 133 Figure 114 Masques de photolithographie, gauche : motifs des résonateurs ARQOMM 2D de type I, droite : électrodes. 135 Figure 115 Masques de photolithographie, gauche : vue d'ensemble ; milieu : gros plan sur quelques résonateurs, droite : gros plan sur un ARQOMM 2D de type 2 vibrant à 4,5 MHz. 136 Figure 116 Procédé de fabrication utilisant la gravure DRIE double face 137 Figure 117 Procédé de fabrication alternatif comprenant une étape de gravure DRIE et une étape de gravure chimique par voie humide. 138 Figure 118 Schéma de principe de la mesure par pont auto équilibré. 141 Figure 119 Mesures du module de l'impédance en échelle semi logarithmique (point bleus) et la courbe d'ajustement associé au modèle BVD (ligne continue bleue), de la phase de l'impédance (points rouges) et de la courbe d'ajustement associée (ligne continue rouge) d'un résonateur ARQOMM 2D en fonction du balayage en fréquence proche de la résonance et de l'antirésonance. 142 Figure 120 Schéma du montage de la méthode mesure dite de l'amplificateur de charges. 143 208 Figure 121 Photographie de l'échantillon collé sur son wafer support après 1h30min de gravure DRIE, à gauche : vue d'ensemble ; à droite : gros plan sur l'échantillon et mise en évidence des fissures. 145 Figure 122 Images au microscope optique au grossissement x100 d'une poutre et d'un pilier latéral d'un résonateur ARQOMM 2D de type I vibrant en théorie à 3 MHz : a) avant gravure DRIE, b) après 90 min de gravure en utilisant la recette de gravure enrichie en oxygène. 146 Figure 123 Images au microscope optique au grossissement x100 d'une poutre et d'un pilier latéral d'un résonateur ARQOMM 2D de type I vibrant en théorie à 3 MHz : a) après gravure DRIE et focalisation sur le masque de nickel, les points noirs correspondent à des pics de micromasquage ; b) après gravure DRIE et focalisation sur le fond de tranchées 146 Figure 124 Images de microscopie optique obtenues au grossissement x100 de la face A du premier résonateur ARQOMM 2D fabriqué, a) une fois le résonateur décollé du wafer support, b) après les étapes de nettoyages. 147 Figure 125 Image de microscopie optique obtenue au grossissement x200 de la face B du premier résonateur ARQOMM 2D 148 Figure 126 Photographies de résonateurs ARQOMM 2D de type I réalisés à l'aide du procédé de double gravure DRIE, à gauche : gros plan sur un résonateur vibrant à 2,2 MHz, au milieu : plan large sur des résonateurs vibrant à 2,2 MHz (rangée supérieure) et 3 MHz (rangée inférieure, à droite : vue tournée d'un résonateur vibrant à 3 MHz. 149 Figure 127 Images de microscopique optique au grossissement x200 de la face arrière au niveau de la poutre centrale d'un résonateur vibrant à 3 MHz, à gauche : présence de languettes de quartz aux jonctions entre la poutre centrale et les piliers, à droite : élimination des languettes après 10 min de gravure DRIE supplémentaires. 149 Figure 128 Mesures expérimentales (marqueurs) des variations du module (rouge) et de la phase (bleu) de l'impédance d'un résonateur ARQOMM 2D de type I vibrant à 3 MHz ainsi que les ajustements associés en fonction de la fréquence balayée. 150 Figure 129 Mesures expérimentales (marqueurs) des variations du module (rouge) et de la phase (bleu) de l'impédance d'un résonateur ARQOMM 2D de type I vibrant à 6,6 MHz sur le mode partiel ainsi que les ajustements associés en fonction de la fréquence balayée. 151 Figure 130 Mesures expérimentales du facteur qualité des résonateurs mesurés sous air et sous vide en fonction de la fréquence de résonance. Les fréquences 2,2 ; 3 et 4,5 MHz correspondent au mode fondamental, les fréquences 6,6 et 8.9 MHz au premier harmonique. 152 Figure 131 Variation du facteur de qualité à l'encastrement des structures ARQOMM 2D de type I et II obtenue par simulations MEF en fonction de l'angle de flanc sortant ȕ. 153 209 Figure 132 Images obtenues à la binoculaire de réalisation d'ARQOMM de type I et II en utilisant le procédé de fabrication avec usinage chimique par voie humide des cavités, à gauche : résonateurs vibrants à 4,5 et 3,MHz ; à droite : structures vibrants à 3 MHz. 156 Figure 133 Images de microscopie optique d'un résonateur ARQOMM 2D de type I vibrant à 3 MHz au grossissement x100 à gauche et x200 à droite. 156 Figure 134 Images de microscopie optique d'un résonateur ARQOMM 2D de type II vibrant à 2,2 MHz au grossissement x100 à gauche et x200 à droite. 156 Figure 135 Mesures expérimentales du facteur qualité des résonateurs mesurés sous air et sous vide en fonction de la fréquence de résonance. Les fréquences 2,2 ; 3 et 4,5 MHz correspondent au mode fondamental, les fréquences 6,6 et 8.9 MHz au premier harmonique. 157 Figure 136 Images obtenues avec un microscope optique des faces arrière de structures vibrant à 3 MHz au grossissement x200, à gauche : usinage DRIE des cavités, à droite : usinage chimique par voie humide des cavités. 158 Figure 137 Mesures expérimentales du facteur qualité des résonateurs mesurés sous air et sous vide en fonction de la fréquence de résonance. Les fréquences 2,2 ; 3 et 4,5 MHz correspondent au mode fondamental, les fréquences 6,6 et 8.9 MHz au premier harmonique. 161 Figure 138 Photographie du wafer dont les cavités ont été usinées chimiquement et présentant des électrodes affinées. Le silicium fait apparaître deux zones, l'une gris brillant, l'autre noire et mate qui traduit une rugosité élevée. 161 Figure 139 Facteur de qualité mesuré sous vide en fonction de la fréquence de résonance des résonateurs dont les cavités ont été usinées chimiquement par voie humide pour des épaisseurs différentes d'électrodes. Les points rouges correspondent à une épaisseur d'or de 100 nm, les points bleus à une épaisseur d'or de 200 nm. 162 Figure 140 Facteurs de qualité maximaux mesurés (losanges bleus) et produits Qxf (carrés rouges) calculés en fonction de la fréquence de résonance des résonateurs dont les cavités ont été usinées chimiquement et dans le cas des électrodes affinées. 164 Figure 141 Image du résonateur ARQOMM 2D monté sur une embase TO5 par l'intermédiaire d'une couronne de quartz, a) vue d'ensemble, b) : zoom sur le résonateur. Les connexions entre les pads du résonateurs et les broches de l'embase sont réalisées avec de la colle H20E, le collage de la couronne sur l'embase et du résonateur sur la couronne sont faits avec la colle 353ND. 166 Figure 142 Photographie de deux résonateurs ARQOMM 2D montés sur deux embases TO8, ellesmêmes intégrées dans un boitier cuivre. 167 Figure 143 Schéma de l'oscillateur complet mesuré. 168 210 Figure 144 Image du dispositif oscillant complet composé de l'électronique d'entretien et du résonateur. 169 Figure 145 Photographie du dispositif expérimental de la mesure de la sensibilité thermique : a) enceinte climatique Vötsch, b) intérieur de l'enceinte 169 Figure 146 Schéma du montage expérimental réalisé pour la mesure de la sensibilité thermique. 170 Figure 147 Variation de la fréquence mesurée et simulée normalisée en fonction de la température. 170 Figure 148 Sensibilités thermiques du mode fondamental simulées du résonateur ARQOMM 2D de type I vibrant à 2,2 MHz pour différents angles autour de l'axe X et la sensibilité thermique mesurée. 172 Figure 149 Variation de la fréquence mesurée et simulée normalisée du mode partiel d'ordre 3 en fonction de la température. 173 Figure 150 Mesure de la déviation d'Allan de l'oscillateur prototype placé dans l'enceinte thermostatée autour du point d'inversion du mode fondamental. Chaque point de la courbe correspond à une moyenne des 20 points les plus bas sur une série de 100 mesures Chaque point de mesure des 100 séries est réalisé pour N=5 d'échantillons. 174 Figure 151 Variation de la fréquence de sortie de l'oscillateur placé dans la chambre climatique autour du point d'inversion en fonction de la durée de la mesure. 176 Figure 152 Vieillissement quotidien d'oscillateurs de type OCXO miniatures et OCMO commerciaux en fonction de l'encombrement. 176 211 Liste des tableaux Table 1 Nom et origine des bruits considérés 12 Table 2 Types de bruit du modèle en lois de puissance de la densité spectrale de puissance et de la variance d'Allan et leurs pentes. 15 Table 3 Composantes élastiques, piézoélectriques et permittivités des tenseurs du quartz Į, tiré de [29]. 18 Table 4 Valeurs typiques des résonateurs historiques pour les applications de références de temps [44]. 30 Table 5 Famille d'oscillateur à quartz 34 Table 6 Tableau de comparaisons des spécifications d'oscillateurs OCXO et mini OCXO commercialisés ainsi que les principales technologies de type MEMS silicium et MEMS piézoélectrique. 43 Table 7 Variation absolue en Hz de la fréquence de résonance pour une variation de cote de 1 μm. 61 Table 8 Variation absolue en Hz de la fréquence de résonance pour une variation de cote de 1 μm type 2 65 Table 9 Synthèse des résultats de simulations de la résistance motionnelle en fonction des différentes configurations d'électrodes. 75 Table 10 Tendances attendues sur les caractéristiques de gravure dues à la variation de paramètres de gravure. 99 Table 11 Paramètres de gravure et résultats de gravure de la DRIE du quartz, de la silice ou du verre de la littérature. En gras, les paramètres records. 100 Table 12 Récapitulatif des essais menés pour investiguer la dégradation du fond de gravure. Tous les échantillons testés fabriqués par décollement de résine ou attaque chimique du nickel proviennent du même wafer. 121 Table 13 Récapitulatif des caractéristiques principales des deux recettes évaluées : la recette constructeur et la recette enrichie en oxygène. 123 Table 14 Fréquences ciblées des résonateurs et longueurs de la poutre centrale du masque de photolithographie. 135 212 Table 15 Tableau récapitulatif des fréquences et longueurs cibles et des mesures expérimentales de fréquences, ainsi que les valeurs d'écart type, de précisions et de variations de longueurs équivalentes des mesures expérimentales dans le cas des résonateurs dont les cavités ont été usinées par DRIE. 154 Table 16 Tableau récapitulatif des fréquences et longueurs cibles et des mesures expérimentales de fréquences, ainsi que les valeurs d'écart type, de précisions et de variations de longueurs équivalentes des mesures expérimentales dans le cas des résonateurs dont les cavités ont été usinées par gravure chimique humide 157 Table 17 Récapitulatif des valeurs de facteurs de qualité, en milliers, correspondant aux mécanismes de pertes supposés et mesurés pour les résonateurs vibrant à différentes fréquences et dont les cavités ont été usinées par gravure DRIE ou gravure chimique par voie humide. 159 Table 18 Tableau récapitulatif des fréquences et longueurs cibles, des mesures expérimentales de fréquences, et des valeurs d'écart type, de précisions et de variations de longueurs équivalentes des mesures expérimentales dans le cas des résonateurs dont les cavités ont été usinées par gravure chimique humide. 162 Table 19 Récapitulatif des meilleurs facteurs de qualité mesurés des résonateurs en fonction de la fréquence de résonance du mode fondamental, de la méthode d'usinage des cavités et de l'épaisseur des électrodes. 163 Table 20 Spécifications techniques des amplificateurs utilisés dans le circuit oscillateur. 168 Table 21 Tableau des performances ciblées de l'oscillateur OCMO et du résonateur quartz MEMS selon les applications visées 178 Table 22 Influence du choix de dépôt des électrodes et de la coupe cristalline sur la valeur de résistance motionnelle pour un résonateur de type poutre vibrant en extension-compression de longueur selon l'axe Y. Toutes les valeurs sont données pour un résonateur vibrant à 1 MHz et présentant un facteur de qualité de 106. 180 213 Titre : MEMS piézoélectriques pour applications temps-fréquence Mots clés : quartz, oscillateur, résonateur MEMS, gravure réactive ionique profonde, facteur de qualité Résumé : Les oscillateurs hautes performances mettent en oeuvre un résonateur mécanique présentant un facteur de qualité élevé et vibrant à une fréquence typique de 10 MHz. Le résonateur est généralement une pastille de quartz, réalisée par usinage individuel, d'environ 200 mm3, et placée dans une enceinte thermalisée. Dans le contexte de miniaturisation des composants électroniques, conséquence du développement des technologies embarquées, des objets connectés et des nouvelles normes de télécommunication, une réduction du volume du résonateur et l'utilisation de procédés de fabrication collectifs permettraient une réduction importante de l'encombrement, du coût et de la consommation de ces oscillateurs. Pour répondre aux besoins de ces technologies émergentes, un résonateur planaire en quartz à haut facteur de qualité et réalisable à large échelle a été développé. Au cours de cette thèse, nous avons mis au point un procédé de fabrication original utilisant la gravure réactive ionique profonde du quartz pour pallier l'impossibilité de graver le résonateur par l'usinage chimique standard par voie humide. L'optimisation d'une recette de gravure ionique adaptée à l'usinage de 100 μm de quartz, et ce, de manière anisotrope et présentant une faible rugosité ainsi que le développement du masque de gravure associé ont fait l'objet d'une attention particulière. La montée en maturité des moyens de fabrication a été validée par la réalisation de prototypes de résonateurs. Ces derniers ont présenté des facteurs de qualité à l'état de l'art des micro-résonateurs en quartz. Un premier prototype d'oscillateur intégrant un des résonateurs miniatures a également été caractérisé. Les performances mesurées et les pistes d'amélioration identifiées confirment la pertinence du résonateur développé pour des applications d'oscillateurs alliant hautes performances, faible consommation et encombrement réduit. Title : Piezoelectric MEMS for frequency and time applications Keywords : quartz, oscillator, MEMS resonator, deep reactive-ion etching, quality factor Abstract : High-performance oscillators rely on a high quality factor resonator vibrating at 10 MHz. Such resonator is often a bulky quartz plate of about 200 mm3. It is individually manufactured and placed in an oven. In the context of electronic components miniaturization, as a consequence of the development of embedded technologies, connected objects and new telecommunication standards, a reduction in the volume of the resonator and the use of collective manufacturing processes would allow a significant reduction in the size, the cost and the consumption of these oscillators. To meet the needs of these emerging technologies, a highquality, large-scale quartz planar resonator has been developed. In this thesis, we developed an original manufacturing process using quartz deep reactive-ion etching (DRIE) to overcome the impossibility of etching the resonator by standard wet chemical etching. The optimization of an ionic etching recipe adapted to the etching of 100 microns of quartz, in an anisotropic manner and with a low roughness, as well as the development of the associated etching mask, required particular attention. The technological maturation of manufacturing processes has been validated by the production of prototype resonators. The latter presented quality factors in the state of the art of quartz microresonators. A first oscillator prototype incorporating one of the miniature resonators has also been characterized. The measured performances and the identified ways of improving confirm the relevance of the developed resonator for oscillator applications combining high performances, low power consumption and compact design.
{'path': '33/hal.archives-ouvertes.fr-tel-02962842-document.txt'}
Licence professionnelle Electrotechnique et énergies renouvelables Rapport Hcéres To cite this version: Rapport d'évaluation d'une licence professionnelle. Licence professionnelle Electrotechnique et énergies renouvelables. 2017, Université Nice Sophia Antipolis. hceres-02028159 HAL Id: hceres-02028159 https://hal-hceres.archives-ouvertes.fr/hceres-02028159 Submitted on 20 Feb 2019 Département d'évaluation des formations Rapport d'évaluation Licence professionnelle Électrotechnique et énergies renouvelables Université de NICE SOPHIA ANTIPOLIS Campagne d'évaluation 2016-2017 (Vague C) Rapport publié le 29/06/2017 Département d'évaluation des formations Pour le HCERES,1 Michel Cosnard, président En vertu du décret n°2014-1365 du 14 novembre 2014, 1 Le président du HCERES "contresigne les rapports d'évaluation établis par les comités d'experts et signés par leur président." (Article 8, alinéa 5) 2 Évaluation réalisée en 2016-2017 sur la base d'un dossier déposé le 13 octobre 2016 Champ de formations : Sciences, ingénierie, technologies et environnement (SITE) Établissement déposant : Université Nice Sophia Antipolis Établissement(s) cohabilité(s) : / Présentation de la formation La licence professionnelle Electrotechnique et énergies renouvelables (EER), ouverte en alternance et en contrat de professionnalisation, est conventionnée avec les lycées Léonard de Vinci et Les Eucalyptus ainsi qu'avec le centre de formation d'apprentis (CFA) d'Antibes. Elle a pour objectif de former des professionnels d'un niveau d'assistant ingénieur pluridisciplinaire dans le domaine de l'électricité du bâtiment, de l'électrotechnique industrielle, des automatismes et des énergies renouvelables notamment en photovoltaïque et en thermique. Cette licence professionnelle, adossée au département Génie électrique et informatique industrielle (GE2I) de l'institut universitaire de technologie (IUT) de Nice, s'adresse aux étudiants titulaires d'une deuxième année de licence (L2) en électronique, d'un diplôme universitaire de technologie (DUT) Génie électrique informatique industrielle (GE2I) ou d'un brevet de technicien supérieur (BTS) de la spécialité. Analyse Objectifs L'objectif de la licence professionnelle (LP) Electrotechnique énergie renouvelable (EER) consiste à former des professionnels d'un niveau d'assistant ingénieur pluridisciplinaires dans le domaine de l'électricité du bâtiment, l'électrotechnique industrielle, les automatismes et les énergies renouvelables notamment en photovoltaïque et en thermique. Elle s'articule autour d'une grande variété de modules dédiés aux métiers. Cette pluridisciplinarité confère aux diplômés une large vision sur les différents métiers qu'ils pourront exercer mais la contrepartie réside vraisemblablement dans le fait qu'ils ne sont pas formés pour exercer dans une spécialité bien définie. En effet, la liste des compétences est relativement large et montre, d'une part, une forte disparité du diplôme et, d'autre part, un manque de clarté sur les objectifs. De nombreuses compétences sont dédiées aux réseaux industriels ce qui n'est pas non plus en adéquation avec l'intitulé du diplôme. Organisation Les enseignements sont dispensés en alternance sur 19 semaines (quatre sessions de formation d'une durée d'un mois chacune). La licence professionnelle EER, adossée au département GE2I de l'IUT de Nice, repose sur sept unités d'enseignement (UE). Quatre d'entre elles (UE 1 à 4) sont des enseignements disciplinaires et/ou transversaux donnant un total de 40 European credit transfer system (ECTS), deux représentent le projet tuteuré et le stage, soit 20 ECTS, et une dernière centrée sur des enseignements de certification et ne délivrant pas d'ECTS puisque non évaluée. Les évaluations des UE ont lieu à chaque fin de période d'enseignement, conférant une certaine pertinence quant au rythme d'étude élevé (environ 35h/semaine). Toutefois, le volume horaire élevé de la formation (564h auquel s'ajoutent 84h de certification non capitalisable) contraint fortement l'emploi du temps et limite le travail personnel de l'étudiant. 3 Le nombre d'heures d'enseignement réparti dans les UE 1 à 4 est cohérent vis à vis des ECTS associés. Les sujets abordés au sein de ces UE sont en adéquation avec les objectifs visés par le diplôme. Environ une cinquantaine d'heures de cours/ travaux dirigés-TD (électrotechnique, réseau, automatismes, droit et gestion de projet) est mutualisée avec la LP Automatique et informatique industrielle, formation gérée par le même responsable de formation. Positionnement dans l'environnement La formation est bien positionnée dans l'offre de l'université Nice Sophia Antipolis qui affiche un grand nombre de formations dans le domaine de l'électronique, l'électrotechnique et l'automatique du Bac+1 jusqu'au doctorat. La LP EER est adossée au département GE2I de l'IUT de Nice au même titre que la licence professionnelle Automatique et informatique industrielle (même responsable). Il est à noter que l'IUT de Toulon propose depuis peu une licence professionnelle Maîtrise de l'énergie, électricité, développement durable en contrat de professionnalisation très proche de la LP EER. L'environnement socio-économique semble être favorable, puisqu'un grand nombre de partenaires industriels de la région (EDF, ADEME, AXUN, CSTB) participe à la formation. Cependant la licence professionnelle EER semble un peu esseulée dans le contexte universitaire niçois. Equipe pédagogique L'équipe pédagogique est constituée de 24 intervenants avec, en volume horaire : 20 % d'enseignants du Département GE2I (seulement 2 enseignants-chercheurs (EC), l'un relevant de la 61ème section du Conseil national des universités (CNU) et l'autre de la 63ème section), 40 % de professionnels issus d'entreprises, 40 % d'enseignants du secondaire. Le faible taux d'encadrement des enseignants du département est souligné et compensé par les nombreux enseignants du secondaire (lycées Léonard de Vinci et Les Eucalyptus). Il faut veiller à ce qu'une licence professionnelle n'ait pas pour vocation à devenir un diplôme de lycée. Il est préjudiciable qu'aucun EC de l'université de Nice, hormis deux de l'IUT, ne participe à la formation. Le responsable de la licence professionnelle EER semble peu soutenu dans l'environnement universitaire local et gérer seul la licence. Cela est vraiment dommage compte tenu du vivier étoffé en enseignants-chercheurs de génie électrique à Nice. Un enseignant devrait être recruté en septembre 2016 pour compenser ceci. Le nombre d'intervenants issus du monde socio-économique est plutôt un point positif du fait de leur qualification et du volume horaire traité. Effectifs, insertion professionnelle et poursuite d'études Sur une centaine de dossiers reçus, 20 à 30 étudiants sont placés sur une liste principale et bénéficient de l'appui des services de l'IUT pour trouver un contrat de professionnalisation ou d'apprentissage, ce qui n'est pas le cas pour ceux inscrits sur la liste complémentaire. Seuls les quinze premiers étudiants décrochant un contrat sont inscrits. Les effectifs sont volontairement réduits mais stables. Les étudiants entrants en LP EER sont surtout issus de BTS notamment Electrotechnique (jusqu'à 80 %) et peu viennent de DUT (20 %) ce qui peut sembler de nouveau préoccupant. L'insertion professionnelle à six mois est plutôt d'un bon niveau puisque globalement supérieure à 70 %. Les postes occupés sont en adéquation avec le niveau du diplôme. Il aurait été pertinent de renseigner le nombre d'étudiants embauchés dans leur société à la suite de leur contrat. Enfin, il est à noter également que le nombre d'étudiants poursuivant des études à l'issue de la LP EER est beaucoup trop élevé pour une LP : 20 à 40 % selon les années. Place de la recherche Cette licence professionnelle n'a aucun appui sur une thématique de recherche au sein de l'université. En effet, il n'y a pas de partenariat avec des centres de recherche du fait du caractère très appliqué de cette formation et du fait de l'absence de laboratoire d'électrotechnique dans l'université. Cette formation ne permet pas d'ouvrir le regard des étudiants vers des activités ou des notions de recherche dans le domaine des énergies renouvelables. Place de la professionnalisation Cette formation est très professionnalisante et en lien direct avec les tissus socio-économiques et professionnels régionaux. Il est à noter que la place des professionnels issus d'entreprises est élevée (40 %) du fait du faible taux d'encadrement de l'IUT. Ce fort taux, associé à l'apprentissage, confère une professionnalisation élevée de la LP EER mais il reste tout de même préjudiciable pour la gestion quotidienne de la licence professionnelle. La fiche du répertoire nationale des certifications professionnelles (RNCP) jointe au dossier décrit clairement le diplôme dans sa globalité, sous réserve des remarques formulées sous l'item "Organisation". 4 Place des projets et des stages Les projets tuteurés sont intégrés aux enseignements puisque donnés en fin de ceux-ci. Il n'y a pas à proprement parler de projets encadrés mais une somme de mini projets associés aux enseignements réalisés en grande partie en autonomie. Les sujets sont récurrents et communs à tous les étudiants. Il faudrait les diversifier. Le mode d'évaluation de ces projets n'est pas fourni. C'est dommageable pour en apprécier la pertinence. Du fait de l'apprentissage, le stage occupe une place importante et présente le plus gros poids dans la note finale. Les stages sont faits sur des sujets en adéquation avec la formation. Leur évaluation est classique puisque comportant trois notes : la note du maître de stage, la note de rapport et la note de la soutenance. Le bureau d'aide à l'insertion professionnelle (BAIP) n'est pas impliqué dans la recherche de l'entreprise qui est assurée par l'étudiant et l'équipe locale pour les 15 premiers classés lors du recrutement. Rien n'est mentionné concernant le suivi du stage et/ou de l'apprenti durant la période en entreprise. Place de l'international La place de l'international est très réduite, voire inexistante, puisque la licence professionnelle EER ne fonctionne qu'avec des petites et moyennes entreprise (PME) régionales. Seuls deux étudiants malaysiens ont suivi la formation de la LP EER dans le cadre d'accords multilatéraux avec l'université de Kuala Lumpur. Il n'y a pas volonté de s'ouvrir davantage à l'international dans l'avenir. Quelques heures d'anglais sont dispensées, mais globalement l'international est inexistant dans la formation. Recrutement, passerelles et dispositifs d'aide à la réussite La formation accueille chaque année une quinzaine d'étudiants. Le recrutement est centré majoritairement sur des étudiants titulaires du BTS. Quelques étudiants titulaires du DUT sont également recrutés. Le taux de pression étant élevé (environ 7), le taux de réussite est élevé de 90 à 100 %. Cependant un taux de réussite de 100 % ne peut être un gage de satisfaction à lui seul. Aucune passerelle ou dispositif d'orientation destiné aux étudiants n'est prévu. Modalités d'enseignement et place du numérique Les enseignements sont faits en présentiel et s'appuient sur l'utilisation de matériel lourd. Ces enseignements suivent un rythme d'alternance basé sur quatre sessions d'un mois intercalées avec des périodes en entreprise. Ce rythme semble satisfaire les entreprises qui accueillent des alternants. Les modalités d'enseignement sont classiques avec prise en compte des statuts spéciaux tels que travailleur, sportif de haut niveau et la situation de handicap, comme préconisé par l'université. Il n'y a pas de démarche de validation des acquis de l'expérience (VAE) et l'acquisition des compétences transversales n'est pas mentionnée. Les étudiants suivent une formation aux logiciels de bureautique et utilisent de nombreux logiciels professionnels au cours de la formation. Les cours sont en ligne sur Jalon et Dropbox au niveau local encore une fois. Evaluation des étudiants L'évaluation des étudiants est sous la responsabilité des enseignants des différentes matières. Elle est réalisée sous forme de contrôle continu. Les modalités de contrôle des connaissances sont données en annexe. Le jury d'examen constitué d'enseignants du département et de professionnels vacataires se réunit début septembre après les soutenances des étudiants alternants. Le contrôle des connaissances est géré par chaque responsable de module au travers d'un logiciel propre à l'IUT. Les règles de délivrance des crédits et du diplôme sont communes à toutes les licences professionnelles de l'IUT de Nice. Suivi de l'acquisition de compétences L'ensemble des étudiants sont alternants et le suivi des compétences se fait au travers d'un livret, non encore dématérialisé, de l'apprenti depuis la rentrée 2015. Ce livret est géré par chaque étudiant et deux visites annuelles sont programmées. Rien n'est renseigné concernant le suivi des compétences avant le passage en contrat d'apprentissage de la formation. Cet item aurait mérité plus amples explications. Suivi des diplômés 5 Depuis 2012 et la création de l'Observatoire de la vie étudiante, le suivi des diplômés est assuré par le service pilotage des formations de la direction des enseignements et de la vie étudiante. Il transmet les différents indicateurs concernant l'insertion des étudiants de licence et leur devenir au responsable de formation. Ce suivi semble plutôt satisfaisant et le taux de répondant est généralement supérieur à 60 %. Par contre, il ne précise pas les emplois occupés par les diplômés, d'une part, ni le type d'entreprise qui les emploie, d'autre part. Aucune autre enquête interne n'est menée ce qui est dommage car, du fait du faible nombre d'étudiants, celle-ci pourrait être aisément réalisée. Conseil de perfectionnement et procédures d'autoévaluation Le Conseil de perfectionnement est commun aux LP EER et Automatique et informatique industrielle (AII). Il se réunit une fois par an, en juin. Il semble peu fréquenté par les membres. Des anciens étudiants et des étudiants de la promotion sortante pourraient être intégrés à ce conseil. Des comptes rendus de ce conseil sont donnés en annexe. L'évaluation des enseignements est faite à la fin de la quatrième session au travers d'un fichier Excel fourni aux étudiants. Ces fichiers sont compilés et envoyés par mail aux enseignants de façon transparente et, ensuite, envoyés aux étudiants avec un commentaire du responsable de formation. L'université Nice Sophia Antipolis s'est équipée d'un système automatisé pour l'évaluation des enseignements performant (Evasys) mais il ne semble pas être utilisé par la licence professionnelle EER. Conclusion de l'évaluation Points forts : ● L'ouverture à l'apprentissage et au contrat de professionnalisation. ● Une formation professionnalisante très attractive avec un taux de pression élevé. ● Le bon positionnement dans le milieu socio-économique/professionnel. ● Le nombre élevé d'intervenants professionnels. Points faibles : ● Le taux de poursuite d'études trop élevé (20 à 40 %). ● Le nombre trop élevé de compétences abordées nuisant à une bonne spécialisation des étudiants. ● Le manque d'encadrement dans le déroulement des projets tuteurés et le suivi de stage trop léger. ● L'emploi du temps fortement contraint dont les données chiffrées ne permettent pas d'apprécier la mise en oeuvre. ● La formation trop fortement en appui sur un lycée professionnel et un CFA. ● La qualité du dossier d'autoévaluation qui impacte négativement sa crédibilité. ● Les effectifs majoritairement recrutés en BTS (jusqu'à 80 %). ● Le manque d'enseignants-chercheurs et de personnels titulaires dans l'équipe pédagogique. 6 Avis global et recommandations : La licence professionnelle Electrotechnique et énergies renouvelables est une formation dédiée métier dispensée en alternance (apprentissage et contrat de professionnalisation) ce qui lui confère un taux d'insertion satisfaisant malgré un taux de poursuite d'études trop élevé. Elle présente un bon positionnement dans les milieux socio-économique et professionnel. Le volume horaire élevé de la formation correspondant à une fourchette très haute pour une licence professionnelle induit un emploi du temps contraint et peu propice au travail personnel de l'étudiant. En matière d'équipe pédagogique, la licence professionnelle Electrotechnique et énergies renouvelables devrait se tourner davantage vers la formation universitaire plutôt que vers des lycées et renforcer son potentiel d'enseignantschercheurs en faisant intervenir des collègues des sections CNU 61 et 63 d'autres composantes de l'université de Nice Sophia Antipolis. Il faudrait intensifier la mutualisation quant au volume d'enseignement des licences Electrotechnique et énergies renouvelables et Automatismes, informatique industrielle, voire envisager la fusion de celles-ci en une licence professionnelle unique avec deux spécialités. Ces deux licences professionnelles présentent en effet des coeurs de métiers avec une forte intersection et un vivier d'étudiants entrants communs. Enfin, une attention particulière doit également être portée au style dans la rédaction du dossier d'autoévaluation dédié au HCERES. Ce style non pertinent nuit grandement à la crédibilité du dossier. 7 Observations des établissements Utìrvcrsrtc ^llirt: Merxbre cle t-liijtVill5lII COTE 9'¡¿u¡ ,1i'- Êy'r,{nrilxrlir OBSERVATIONS DE PORTEE GENERALE SUR LE RAPPORT D,EVALUATION HCERES Licence Professionnelle ElectrotechnÍque et Energies Renouvelables Réf : C20 18-EV-006093 1 Ë- D E F- 1P180014905- 0L927 z-RT Nice, le 24104/2AL'7 Ëait par Jérémie BËNEL Futur responsable de la formation à partir de juin 2Û17 Chers experts éval uateu rs, cher(e)s col lègues, Nous tenons en premier lieu à vous remercier pour l'expertise menée et l'ensemble des remarques et suggestions adressées en vue d'améliorer cette formation. Cette pluridisciplinarité confère aux diplômés une large vision sur les différents métiers qu'ils pourront exercer mais la contrepartie réside vraisemblablement dans le fait qu'ils ne sont pas formés pour exercer dans une spécialité bien définie. En effet, la liste des compétences est relativement large et montre, d'une part, une forte dispar¡té du diplôme et, d'autre part, un manque de clarté sur les objectifs. De nombreuses compétences sont dédiées aux réseaux industriels ce qui n'est pas non plus en adéquation avec l'intitulé du diplôme. Le programme de la licence va être largement remanié dès la rentrée 2Ot7 avec un recentrage sur la spécialité électrotechnique, un abandon probable de la partie thermique et une réduction importante de la partie automatisme et réseaux industriels. Le futur programme est en cours de réalisation. Toutefois, le volume horaire élevé de la formation (564h auquel s'ajoutent 84h de certification non capitatisable) contraint fortement I'emploi du temps et limite le travail personnel de l'étudiant. Le remaniement du programme permettra de diminuer le volume horaire pour arriver à 500 heures + 84 heures de certification. 'Uniùcrsiti' ^[ìin' Mernhre de l.iNt\¡[lî:,]If "::': COTE D ÀZUR Ê9,r;\nti¡r*lis ll est préjudiciable qu'aucun EC de l'université de Nice, hormis deux de l'lUT, ne participe à la formation. Le responsable de la licence professionnelle EER semble peu soutenu dans I'environnement universitaire local et gérer seul la licence. Cela est vraiment dommage compte tenu du vivier étoffé en enseignants-chercheurs de génie électrique à Nice. ll n'y a pas de laboratoire en électrotechnique à l'Université de Nice et donc pas ou peu d'enseignants-chercheurs qui ont les compétences techniques dans ce domaine particulier du génie électrique. Enfin, il est à noter également que le nombre d'étud¡ants poursuivant des études à l'issue de a LP EER est beaucoup trop élevé pour une LP : 20 à 40% selon les années. Seul l'enquête de mars 201-3 sur l'insertion à 6 mois présente une poursuite des études supérieure à 2O %: f :' .¡,.,ft i,¡¿:.',,r :¡'.t' t'.t ¡'l .ti''ll l''!l''::í!¡t,l:" "":l ,tt !":t1: )r"' ri {! ¡J¡'"i'(i))'l t"l Enquôte d'¡nsertlon à 30 rîsl5 (ðnqrsùle do mars äö19 de l'*nqu,ât* r3 de répondant å I'enquéle dÞmplois san* poursuite d'études de poursuile d'étudat 11 0 bre de r*cherchs d'ernplsis ¿ bre ne recherchant 0 d'arnFlois tarrx de retour à tau( detnptoic (%) tsux d6 poursuils détudcg (%) Enquåtê d'insortlon å 6 moie (intemo 0V€) de rôalisatìsn d* lknquðle no¡nb¡a ds rép*ndant å l'€nquèìê ncmbra d'empltis $ånÊ püweuilð d'éludês nombre ds pour*uito d'ÊtudÈs no¡¡bre de rschprche nombre nê r*ehorehanl p*s tats ds retour à fEnquôle (%) indicalsur tsur dþmplois (%) j¡ndicatsur tau¡ do poursuits déludes (9"! 8d?l"/", 81,25% 5,â8% 0"007" #0lvt0 0.@o/" $år$ t01 mâfs 20 t rolv/0 mars !ü1 måfs 1 t t ¿ û 't I t ol 0 0 44.00% 81,829"1 72,73Vø g,09y"l 18,1 Les enquêtes sont réalisées par I'OVE.Elles sont disponibles sur 75,00v, #0lv/0 rE,sov"' ¡ó¡v¡o | l, le site de l'établissement http :llwww. u n ice frlu nicen ro/enou etes- et-statistio ueslnos-pu b icat ions/insertionprofessionnelle et apportent beaucoup d'éléments sur la qualité de l'insertion : le statut de l'emploi, son niveau, la rémunération, la localisation de l'emploi, le type d'employeur et le mode d'obtention de cet emploi. Ces enquêtes ne sont pas réalisées par le responsable de la formation pour des raisons légales d'exploitation de ces enquêtes, deux personnels de I'OVE étant spécifiquement habilités CNIL pour le traitement de ces enquêtes. Tous les indicateurs n'ont pas été présentés pour ne pas alourdir le dossier, néanmoins nous pouvons constater I qu'environ 4O% des alternants sont embauchés directement dans leur entreprise d'accueil. euant au taux de poursuite d'étude fourni par I'OVE, celui-ci est largement en dessous des 20%. La poursuite des études est donc tout-à-fait maitrisée et ce malgré une politique affichée auprès des étudiants d'une possibilité de poursuite d'étude pour les 2 ou 3 meilleurs étud¡ants de la promotion. AUnrvcrsrlt: flitt . Sr¡r¡his V þ¡'lembre de UNüVËl-ìSil E COTE ÐAZUR '.?., '\¡rtiuolis Rien n'est mentionné concernant le suivi du stage et/ou de l'apprenti durant la période en entreprise. Chaque apprenti a un tuteur qui réalise deux visites en entreprise comme le préconise le CFA' L'emploi du temps fortement contra¡nt dont les données chiffrées ne permettent pas d'apprécier la mise en (Euvre. Cette partie n'était pas demandée dans le dossier mais est directement visible sur GPU. Les étudiants ont cours le samedi matin et ont 2 demi-journées de libre en général pour le projet tuteuré. ll est étonnant de retrouver cette remarque dans les points faibles de la formation. par contre, l'emploi du temps est contraint c'est évident, mais comme expliqué dans le rapport cela était dû aux contraintes du contrat de professionnalisation (durée en entreprise plus importante que pour l'apprentissage)ce qui disparait dès 2017 avec une semaine de plus dans le calendrier (20 semaines IUT)' formation trop fortement en appui sur un lycée professionnel et un CFA. lly a24 heures de TP réalisés au lycée Léonard de Vinci à Antibes et 32 heures au lycée de La Eucalyptus sur des plateaux techniques que nous ne possédons pas effectifs majoritairement recrutés en BTS (iusqu'à 80%1. ll peut arriver d'atteindre cette proportion mais il dépend fortement de la qualité des dossiers' Nous privilégions la qualité des dossiers aux quotas ce qui explique sûrement le bon taux de réussite au diplôme. Plus de la moitié des étudiants issus du DUT GEll poursuivent leurs études en écoles d'ingénieurs ce qui limitent le recrutement des bons étudiants de cette filière' ll est à noter que le redécoupage de l'offre de formations universitaires en champ et la sélection en master devraient permettre aux formations licences professionnelles d'être mieux intégrées comme une suite possible d'études après une 12. Ceci permettra de diminuer la part des diplômés BTS afin de retrouver une diversité des publics accueillis' Les manque d'enseignants-chercheurs et de personnels titulaires dans l'équipe pédagogique. ll y a peu d'enseignants dans l'équipe pédagogique ayant des compétences dans les domaines de l'énergie. Un PRAG a été recruté cette année et s'est fortement investi dans la formation. Le ffi jt i,:Jì I ;Yt å:Ì :î i ^'rL¿ Présidente de la Commlssion de "la", :åä! i:,' f'ormarion-er de la Vie Un¡u.iritã¡re* du Consçi l, AcaO¿mìïue""-" - t).þsophtcRAISIN larmulaire ACIf 3- * öo,ssrer d'çccréditatiot'l Licence générale et profess¡onnelle, master ARCHITECTURE DE L'OFFRE DE FORMATION Þomaine Sciences, Technolog¡es, Santé Etablissement : IUT de Nice département GEll, Université Nice Sophia Antipolis (UNS), membre d'Université Côte d'Azur (UCA) Nlr¡eas: et Électronique spéciallté Ë8R lntitulé actuel : Mention durable lntitulé futur : Mention Maîtrise de l'énergie, électricité, (x) Renouvellement O Restructuration Champ de formation O Création Sciences, lngénierie, Technologie et Environnement (SITE) Frtásentaticn de la f*r¡nalion Intitulés des parcours types de formation: Objectifs de la formation : un seut parcours intégré à ta mention : lrtaltrlse de l'énergle, électrlcité, développement durable (fiEEDD) Cette licence professionnelle forme des assistants ingénieurs (certification, étude, dimensionnement et exploitation), spécialistes en photovoltaþue, thermique (et dans une moindre mesure éolien et hydrautique). Les enseignements abordés au sein de cette formation n'oublient cependant pas tes métiers plus traditionnels de t'électricité du bâtiment, l'électrotechnique industrielle et automatismes (projeteur bureau d'étude, étude technique et exptoitation) dans lesquels se trouvent aussi des gisements d'emplois au niveau ll et vers lesquels tes critères énergétiques sont de ptus en plus pris en compte. La formation prépare à t'habititation étectrique de niveau 81V, BzV, BC. Organisation de la formation : Tous tes étudiants de ta LPEER suivent ta mêrne formation, les modutes d'enseignements se suivent seton une togigue de t'UEl unité d'harmonisation permet l'accueil des différents pubtics afin que tous les étudiants alent les bases pour t'UE2 formation scientifique et I'UE3 formation professionnette). La formation LPEER étant une forrnation dédiee prérequis (par exempte métier, te contenu theorique est te plus souvent apptigué à des cas prâtigues (permettant une insertion rapide dans te monde du travait), c'est pour cette raison que des partenariats ont été tissés avec les tycées techniques et centre de formation pour apprentb. Cette formation étânt en atternance, quatre sessions de formation d'une durée d'un mois pour chacune (soit 20 semaines en tout) permettent l'évaluation en fin de chaque session des différents modutes de formations étudiés durant [e rnois. Chague session permet d'aborder de nouveau thèmes ce qui entraine une cohérence pédagogique. 5i des modules doivent être découpés sur deux sessions, une évatuation intermédiaire est organisée à ta fin de ta première session. Tous les contenus de formation sont disponlbles sur Jaton et dropbox, ainsi que tes devoirs surveittés de I'année précédente. Des réunions de pitotage avec tes étudiants sont organisées au moins deux fois par an, Deux visites en entreprise permettent un suivi fin de chaque apprenti (formation en apprentissage depuis 2014). Modalités d'enseignement Formation en apprentissage Volume horaire de la formation 584h dont 84h de formations quatifiantes ou certifications (habititation étectrique, QuatiPV et Quatisot) Lieux de la formation IUT de Nice département GEII Lycée Les Eucalyptus Lycée Léonard de Vinci CFB Antibes : Liens avec la recherche : Essentíellement pour les masters, próciser Ie nom de l'unité de recherche (ou des unités) à laquelle Ia formation est sdossée (à déclíner, le cas échéant, par parcours) ./ Liens avec le monde socio- économique: ./ '/ ,/ Effectifs attendus ERDF (service BERE) : depuis 2014 une formation de 16h est donné aux étudiants par Mr Degout sur [a production étectrique renouvelables et impacts sur le réseau RTE' La LPEER figure dans t'offre de formation en atternance d' EDF depuis 201 1 . ADEME : depuis 201 1 I'ADEME prend régutièrement des stagiaires et Mr Laffite (expert éctairage) donne un cours de 8h. AXUN : Mr Dauthier fait [a formation QUALIPV et prend régutièrement des alternants ou stagiaire depuis 2010. CSTB : cours en énergétique du bâtiment (Pteiade) depuis 2015 fait par Mr Traynard. L4 : Pour les Licences professicnnelles DUT GEII, MP, DOMOTIQUE Origine des publics BTS ETK, FED, ATI, MS, CSRA, CIRA,SN : Présentation de l'équipe pédagogique Potentiel enseignants-chercheurs et enseignants de l'établissement participant à la formation Apport des représentants du monde socioprofessionnel participant à la formation Ludovic Lababre PRAG Sophie Michetet PRAG Jean-Louis Satvat, PRAG Eric Thierry, MCF, section ó3 Florent Bayeut, Consultant (Ectairage) óh Vincent Bayetti, lngénieur étude batiment (Automatismes) Olivier Choffrut, Gérant/lngénieur ENR (Enr) ó6h Roland Dauthie, Chef d'entreprise AXUN (PV) 24h Thierry Degout, Adjoint d'Agence ERDF service BERE (ETK) ADEME Ec 17h Bruno Laffite 2411 12h ues Tre nieur Etude Shiva Charman Consultante (Droit) 12h 28h Frédéric Simmonet, Consultant chef de projet (Gestion proj) 28h Yan Spano Chef d'entreprise Spanotek (Automatisemes) 24h Emmanuel Traynard, lngénieur chargé d'évatuation CSTB (Bat) 32h Personnel de soutien à la formation et modalités d'organisation de ce soutien Le soutien à ta formation se fåit lors des conseits de perfectionnements annuels et surtout lors des nombreux échanges (€ompte rendu de visites archivés pour chaque année) avec tes måitres de stage permettânt de discuter de ta formation et des éventueltes amétiorations qui seront mise en aerme t'année sui\rante (Cf tes différents CR de conseit de perfectionnement de chague année). Partenariats Co-accréditation ou partenariat avec un autre (ou des autres) établissement d'enseignement supérieur public avec { r' (Formation Autocad) Convention de partenariat avec [e Lycée Léonard de Vinci (Formation Thermique sotaire) Con\ention de partenariat avec te CFTB Antibes (Quatisot) Internationalisation des formations La LPEER est en apprentissage et n'a donc pas vocation à avoir des échanges internationaux. Les entreprises de [a région sont en générat des PME qui ne travaitlent que sur la région, avec quelques cas de travait en France et Outre-Mer. Citons que le département GEll de ['lUT de Nice accueilte depuis 2002 des étudiants malaisiens. Dans ce cadre il est arrivé que ta LPEER prenne un ou deux étudiants malaisiens désireux de faire une poursuite d'étude courte. Le programme d'échange prévoit une formation en France à un niveau bac+S. 24h d'angtais sont prévues dans [a formation, un anglais technique. Mais le faible niveau des étudiants venant de BT5 ne permet un travail réettement efficace. Conventionnement avec une institution privée française Préciser l'apport de l'établíssement à l'institution Ia formation et nommer
{'path': '48/hal-hceres.archives-ouvertes.fr-hceres-02028159-document.txt'}
Développement d'un polarimètre de Mueller à codage spectral utilisant une Swept-source : application à la microscopie à balayage laser Aymeric Le Gratiet To cite this version: Aymeric Le Gratiet. Développement d'un polarimètre de Mueller à codage spectral utilisant une Swept-source : application à la microscopie à balayage laser. Optique [physics.optics]. Université de Bretagne occidentale - Brest, 2016. Français. NNT : 2016BRES0120. tel-01533680 HAL Id: tel-01533680 https://tel.archives-ouvertes.fr/tel-01533680 Submitted on 6 Jun 2017 REMERCIEMENTS Ce travail de thèse s'est déroulé au laboratoire de Spectrométrie et Optique Lasers (LSOL – EA938) à Brest, de Octobre 2013 à Décembre 2016. Tout d'abord, je remercie l'ensemble des membres extérieurs du jury de ma soutenance de thèse qui s'est déroulée le 14 Décembre 2016 à savoir, Laurent BOURDIEU, François AMBLARD, Enric GARCIA-CAUREL et Mehdi ALOUINI. Les questions étaient très intéressantes et ont donné lieu à d'enrichissantes discussions, mais bien trop courtes pour être exhaustives. Ensuite, je remercie mes encadrants pour leur patience et leur pédagogie. Je me rends compte aujourd'hui de l'immense quantité de travail que le doctorat impose. Le temps dont on dispose à la fin de la thèse (rédaction, préparation de soutenance, etc) est bien trop court (mais cela reste relatif si l'on supprime les nuits de sommeil). Merci à Yann LE GRAND d'avoir aiguillé mes réflexions autour du développement du microscope polarimétrique de Mueller. Ta rigueur, ton sens du détail et ton regard extérieur ont permis de remettre en perspective cet instrument et d'enrichir la présentation des bases théoriques du codage spectral de la polarisation et l'implémentation sur un microscope commercial. Toutes les discussions que l'on a eues à la fin de la thèse vont permettre, je suis sûr, de multiplier les pistes de développement de ce microscope multimodal. Je remercie Sylvain RIVET pour m'avoir introduit les bases théoriques du polarimètre de Mueller par codage spectral lors de la première année de thèse et pour ton aide à la fin de la fin de la thèse. Tu m'as permis de très vite passer à l'expérience, dont on a pu découvrir de nouvelles sources d'erreurs systématiques introduites par la swept-source et par le cube séparateur. Pendant plusieurs semaines, on a pu s'arracher les cheveux sur la façon dont les problèmes pouvaient être appréhendés. Cependant, ta passion, ta pédagogie et ta vision sur le long terme m'ont appris la persévérance que demande la recherche, permettant de publier dès ma première année. Les discussions à la fin de la thèse ont permis également de mettre en évidence que l'implémentation du polarimètre peut être encore plus généralisée à n'importe quel système optique, ce qui m'a apporté plus de fierté sur mes travaux. Je remercie Matthieu DUBREUIL pour avoir pris la relève de Sylvain dès la deuxième année jusqu'à la fin de la thèse. Ta rigueur scientifique et ta pédagogie m'ont aidé à évaluer rigoureusement les erreurs systématiques et de déterminer l'ordre de grandeur des erreurs aléatoires. On a pu également se confronter ensemble à l'implémentation optique, mécanique et électronique du polarimètre sur le système de scanners. Mais avec de la persévérance, des images et une publication ont pu être obtenues. Je te remercie également pour m'avoir aidé d'un point de vue administratif sur les cours que j'ai pu dispenser lors de mes deux premières années de thèse. Je remercie l'ensemble des membres du LSOL qui permettent de faire rayonner une ambiance chaleureuse et de créer une synergie intellectuelle. C'est donc un grand plaisir de se lever chaque jour pour aller travailler dans ces conditions. Je remercie : - Bernard LE JEUNE, pour ta connaissance encyclopédique de la Science qui élève chaque jour notre niveau de perception sur nos travaux de recherche. Nos nombreuses discussions dans des domaines variés (administration, politique, etc) vont certainement me manquer, – - Guy LE BRUN, pour ta bonne humeur et tes blagues un peu douteuses (je retiendrais la dernière avec ce que l'on obtient lorsqu'on perd la chaise . . . ), - Fabrice PELLEN, pour ton écoute attentive sur des problèmes particuliers, ton humanité et pour m'avoir permis de me défouler lors des quelques séances de Karaté auxquelles j'ai pu participer, - Gaël LE ROUX, pour ta bonne humeur, ta passion sur les expériences scientifiques pédagogiques et pour avoir été la pierre angulaire au développement mécanique du microscope polarimétrique de Mueller (je maintiens que la pâte à fixe et le scotch sont des alternatives plutôt intéressantes pour le développement instrumental), - Jacqueline LE BARS, secrétaire du laboratoire, qui m'a permis d'alléger le côté administratif de mes travaux (commande de matériels, réservation d'avion, d'hôtels, etc). Je remercie les doctorants du LSOL que j'ai pu rencontrer et avec qui j'ai pu évoluer pendant trois ans. Vous avez été d'un excellent soutien moral et intellectuel. Je remercie - David SEVRAIN, pour m'avoir permis de découvrir les tréfonds de la fin de thèse et m'avoir introduit à l'association DAKODOC (que j'ai présidé pendant un an), - Vincent BOGARD, pour avoir toujours remis en cause ce que j'affirmais, ce qui m'a aidé à toujours chercher les meilleurs arguments, - Christelle ABOU-NADER, avec qui la thèse a débuté et fini la même année, pour les pauses café, les soirées mémorables et pour m'avoir fait découvrir la culture libanaise, - Nour ALEM, pour ton soutien moral, surtout à la fin de la thèse. J'espère que je ne t'ai pas trop fait peur les dernières semaines et que toi aussi tu trouveras un doctorant qui t'aidera à passer tes nerfs. Je remercie l'école doctorale SICMA, et plus particulièrement Christian BROSSEAU et Michelle KERLEROUX, qui permettent de donner vie et d'accompagner de nombreuses thèses jusqu'à la fin, que ce soit administratif ou humain. Sans eux, beaucoup de doctorants seraient moins sereins le jour de leurs soutenances. Je remercie également l'ensemble des étudiants associatifs et la Fédé B (plus particulièrement les membres du bureau 2015/2016) que j'ai rencontrés. Cela m'a permis de réaliser des rencontres enrichissantes et de me donner les clés sur la façon de militer pour une cause. Grâce à vous, j'espère que le doctorant sera un peu moins vu comme un extraterrestre auprès des étudiants des formations de Licence et de Master et plus généralement, au sein de l'Université. – Je remercie aussi les nombreux doctorants et post-doctorants avec qui j'ai pu discuter et partager mes incertitudes sur la thèse. On se rend compte que les doctorants ont un langage bien a eux, mêlé de plaintes, de touches d'espoir, d'explications foireuses des travaux, etc, qu'ils sont les seuls à comprendre. Je remercie mes amis brestois (qui se reconnaı̂tront), costamoricains (trop nombreux pour apparaitre ici) et Rennais (Nicolas David, Thomas CALVEZ). Enfin, je remercie plus particulièrement ma famille qui m'a soutenu jusqu'au bout. Je n'ai pas toujours été facile tous les jours, surtout les dernières semaines. A la suite de ma soutenance, j'espère à présent que vous comprenez ce qui m'a fait râler pendant trois ans. – Table des matières Table des matières Introduction générale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 Chapitre I - Aspects théoriques, expérimentaux et applications de la polarimétrie de Mueller . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 1- Formalismes en polarimétrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1- Polarisation de la lumière . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2- Formalisme de Jones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3- Formalisme de Stokes-Mueller . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 11 13 14 2- Informations relatives à la matrice de Mueller . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1- Éléments optiques simples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1.1- Diatténuateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1.2- Retardateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1.3- Dépolariseurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2- Décompositions des matrices de Mueller . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2.1- Décompositions pour les milieux non-dépolarisants . . . . . . . . . . . . 2.2.2- Décompositions pour les milieux dépolarisants . . . . . . . . . . . . . . . . 2.3- Filtrage du bruit des matrices de Mueller expérimentales . . . . . . . . . . . . . . . . 17 17 17 19 22 24 24 26 30 3- Techniques expérimentales en polarimétrie de Mueller . . . . . . . . . . . . . . . . . . . . . . . . . . 3.1- Principe de base de la polarimétrie de Mueller . . . . . . . . . . . . . . . . . . . . . . . . . 3.2- Génération et analyse des états de polarisation . . . . . . . . . . . . . . . . . . . . . . . . . 3.2.1- Le domaine temporel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2.2- Le domaine spectral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2.3- Le domaine spatial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3- Développements en imagerie polarimétrique de Mueller . . . . . . . . . . . . . . . . 3.3.1- Imagerie plein champ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3.2- Imagerie à balayage laser . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 32 34 34 35 36 37 38 41 4- Applications de l'imagerie polarimétrique de Mueller . . . . . . . . . . . . . . . . . . . . . . . . . . . 44 4.1- Détection de cible . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44 4.2- Imagerie des tissus biologiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 – Table des matières 4.3- Imagerie multimodale des tissus biologiques . . . . . . . . . . . . . . . . . . . . . . . . . . . 50 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53 Chapitre II - Polarimètre de Mueller à codage spectral utilisant une swept-source . . . 55 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56 1- Polarimétrie de Mueller à codage spectral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1- Le codage spectral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1.1- Considérations théoriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1.2- Détermination de la matrice de Mueller . . . . . . . . . . . . . . . . . . . . . . . 1.1.3- Choix des épaisseurs des lames . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2- Montage expérimental du polarimètre de Mueller . . . . . . . . . . . . . . . . . . . . . . 1.2.1- Utilisation d'une swept-source . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2.2- Lames de codage et de décodage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2.3- Numérisation des signaux optiques . . . . . . . . . . . . . . . . . . . . . . . . . . . 57 57 57 59 62 63 64 67 67 2- Erreurs systématiques et corrections . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1- Erreurs liées à l'atténuation à haute fréquence . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2- Résolution des pics de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3- Réponse en longueur d'onde du milieu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.4- Erreurs sur l'orientation des lames . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.5- Erreurs sur les épaisseurs des lames . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.6- Influence du fenêtrage du signal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72 72 73 74 76 80 83 3- Configuration en transmission . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.1- Procédure de calibration en transmission . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2- Méthode d'auto-calibration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3- Validation sur des échantillons de référence . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85 85 87 90 4- Configuration en réflexion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96 4.1- Procédure de calibration en réflexion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96 4.2- Prise en compte des éléments optiques en réflexion . . . . . . . . . . . . . . . . . . . . . 99 4.2.1- Influence du cube séparateur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99 4.2.2- Influence de l'optique collectrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102 4.3- Validation sur des échantillons de référence . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 4.4- Imagerie sur des échantillons connus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105 Conclusions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108 Chapitre III - Implémentation sur un microscope à balayage laser . . . . . . . . . . . . . . . . . . 111 1- Implémentation du polarimètre de Mueller . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114 1.1- Implémentation opto-mécanique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115 1.2- Acquisition du signal polarimétrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119 – Table des matières 1.3- Procédure d'orientation du PSG et du PSA au sein du microscope . . . . . . . 123 1.4- Caractéristiques polarimétriques du microscope sans balayage . . . . . . . . . . . 125 2- Mise en oeuvre du microscope polarimétrique de Mueller à balayage . . . . . . . . . . . . . . 128 2.1- Procédure de calibration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128 2.2- Validation et estimation des incertitudes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131 3- Applications à des milieux spatialement inhomogènes . . . . . . . . . . . . . . . . . . . . . . . . . . . 135 3.1- Adhésif de cellophane . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135 3.2- Coupes de roches . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135 3.3- Échantillons d'intérêt biomédical . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145 Conclusions et perspectives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147 Annexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153 Bibliographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165 Publications et communications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177 – Table des matières -1- Table des matières -2- Introduction générale Introduction générale -3- Introduction générale Les méthodes d'investigation des milieux basées sur l'analyse des modifications des paramètres associés à l'onde lumineuse (intensité, fréquence, phase, polarisation et direction) par un milieu d'étude possèdent de multiples avantages. En effet, elle permet de sonder la matière à distance, à l'échelle microscopique et de manière non destructive. La lumière peut être décrite comme une onde électromagnétique, composée d'un champ ~ et d'un champ magnétique B ~ vibrant en phase dans des plans perpendiculaires électrique E entre eux et à la direction de propagation [1]. Pendant longtemps, on s'est intéressé uniquement à trois paramètres la décrivant : l'intensité, la fréquence, la phase, sans tenir compte de l'aspect vectoriel de l'onde optique. Mais, au début du XIX e siècle, Young et Fresnel ont montré qu'un quatrième paramètre, la polarisation, fournit aussi des informations pertinentes. Cette tardive prise de conscience s'explique simplement par le fait que l'oeil humain n'est sensible qu'aux variations d'intensité et de longueur d'onde, cependant certaines espèces animales (comme l'abeille par exemple) se repèrent dans l'espace grâce à la polarisation de la lumière. L'imagerie polarimétrique permet de révéler des contrastes supplémentaires par rapport l'imagerie classique basée sur l'absorption du rayonnement lumineux. Cette méthode de caractérisation s'applique à de multiples domaines de recherche tels que la microélectronique, le diagnostic biomédical, la détection de cible ou encore l'astrophysique. Il existe deux familles de polarimètres : les polarimètres de Stokes (qui mesurent les états de polarisation) et les polarimètres de Mueller (qui mesurent les propriétés polarimétriques du milieu). Le principe de ces derniers dispositifs consiste à éclairer un milieu par une lumière codée en polarisation et d'analyser sa modification après interaction avec celui-ci. En comparant les paramètres en entrée et en sortie du milieu, il est possible de remonter à la signature polarimétrique complète du milieu. Un grand nombre de configurations expérimentales ont vu le jour depuis quelques années utilisant différentes approches pour coder les états de polarisation. Il y a trois philosophies : - temporelle, basée sur le codage séquentiel des états de polarisation, - spectrale, qui attribue un état de polarisation par longueur d'onde, - spatiale, qui permet de séparer spatialement les états de polarisation. L'imagerie à balayage laser consiste à scanner un milieu dans un plan perpendiculaire au faisceau incident. Les temps de résidence par pixel sont relativement courts, de l'ordre de la μs, ce qui nécessite d'être capable de coder et de décoder les états de polarisation dans ces délais. On comprend alors que le codage spectral de la polarisation est la seule approche compatible avec ce mode d'imagerie, qui grâce à la parallélisation du codage polarimétrique dans le domaine spectral, permet d'obtenir les données dans des temps très courts. Avant ce travail de thèse, M. Dubreuil a développé au LSOL un polarimètre de Mueller basé sur le codage spectral de la polarisation en utilisant une diode superluminescente et un spectromètre. Ces travaux ont permis de démontrer la rapidité d'acquisition en des temps de l'ordre de la μs. Les applications de ce dispositif se sont tournées vers la caractérisation de dynamiques temporelles rapides de cristaux liquides. Lors de ces travaux, le spectromètre utilisé -4- Introduction générale était composé d'un réseau et d'une caméra CCD dont la cadence de répétition, de l'ordre du kHz, était incompatible avec l'imagerie à balayage laser. Bien qu'il existe des détecteurs CCD ou CMOS possédant des cadences de répétition plus élevées (≥ 100kHz), notre choix s'est tourné vers le développement d'un dispositif pouvant facilement s'intégrer dans un microscope à balayage en configuration de transmission. Cette configuration impose l'emploi d'un détecteur ayant une surface suffisamment large afin de collecter le faisceau balayé, ce qui n'est a priori pas possible avec un spectromètre dont la fente d'entrée opère une sélection spatiale importante. Durant ces trois années de travail de thèse, nous avons alors proposé un nouveau polarimètre de Mueller en remplaçant la diode superluminescente par une source à balayage en longueur d'onde à 100 kHz (swept-source) et le spectromètre par une simple un détecteur monocal (photodiode ou photomultiplicateur). Ce nouveau système a ensuite été implémenté au sein d'un microscope à balayage commercial de type confocal Olympus qui est utilisé au laboratoire pour de la microscopie non linéaire. A terme, il est ainsi envisagé de développer un microscope à balayage multimodal permettant de coupler les informations polarimétriques de Mueller et non linéaires en temps réel, sur un même dispositif d'imagerie. Ces différentes étapes de ce travail de thèse qui ont permis la mise en oeuvre d'un microscope polarimétrique de Mueller à balayage ont fait l'objet de 2 publications [2, 3]. Ce manuscrit de thèse est divisé en 3 chapitres. Le Chapitre I traite les différents formalismes permettant de décrire les modifications de la polarisation d'une onde electromagnétique après interaction avec des milieux anisotropes et/ou diffusants. Nous nous intéressons en particulier au formalisme de Stokes-Mueller qui permet d'appréhender le phénomène de dépolarisation, fréquemment rencontré dans le cas de milieux complexes. Nous discutons des moyens d'interpréter les matrices de Mueller afin d'extraire les informations permettant de remonter aux phénomènes physiques engendrés par l'interaction de l'onde lumineuse avec la matière. Un état de l'art sur la polarimétrie de Mueller est ensuite dressé. Dans un premier temps, on s'intéresse aux différents principes pour coder/décoder la polarisation d'une onde optique, à savoir de manière temporelle, spatiale ou spectrale. Puis, on se focalise sur la présentation de quelques dispositifs d'imagerie de Mueller (imagerie par balayage et imagerie plein champ). Enfin, on présente quelques applications de l'imagerie de Mueller, en particulier les applications liées à l'imagerie des tissus biologiques. Le Chapitre II décrit la mise en oeuvre du polarimètre de Mueller à codage spectral utilisant une swept source à 100 kHz. Le principe du codage spectral est traité en détail. En particulier, on pointe dans cette partie l'ensemble des erreurs systématiques qui entachent la mesure de la réponse polarimétrique, ainsi que les corrections apportées pour les prendre en compte. Ce système est alors validé par des mesures sur des échantillons connus (polariseur linéaire, lame biréfringente) à travers 2 configurations expérimentales, une en transmission et l'autre en réflexion. L'introduction d'un cube séparateur dans cette dernière configuration a imposé le développement d'une méthode de calibration particulière qui sera détaillée dans ce chapitre. Le Chapitre III présente l'implémentation de ce polarimètre de Mueller au sein d'un microscope optique à balayage de type confocal. Dans un premier temps, nous présentons l'intégration opto-mécanique du polarimètre dans le microscope, puis nous décrivons la stratégie d'acquisition -5- Introduction générale des signaux polarimétriques nécessaires à la construction d'une image de Mueller. Dans un second temps, nous pointons les difficultés nouvelles engendrées par la mesure polarimétrique à travers un microscope à balayage et nous proposons des méthodes permettant d'obtenir des résultats fiables (validation sur des échantillons connus et estimation des erreurs). Enfin, nous présentons les premières images de Mueller dont l'acquisition se fait en temps réel sur un microscope à balayage laser. Il s'agit de deux types d'échantillons : coupes de roche constituées de différents minéraux et coupes histologiques de foie fibrosé. Dans ce dernier cas, une comparaison avec des images SHG est effectuée en vue de la microscopie multimodale Mueller/SHG. -6- Introduction générale -7- Chapitre I - Aspects théoriques, expérimentaux et applications de la polarimétrie de Mueller -8- Chapitre I - Aspects théoriques, expérimentaux et applications de la polarimétrie de Mueller Chapitre I Aspects théoriques, expérimentaux et applications de la polarimétrie de Mueller -9- Chapitre I - Aspects théoriques, expérimentaux et applications de la polarimétrie de Mueller Introduction La polarisation décrit l'orientation des vibrations de l'onde électromagnétique et plus ~ : si sa direction change aléatoirement pendant le précisément celle de son champ électrique E temps de mesure, l'onde est dite non-polarisée, sinon elle est complètement ou partiellement polarisée. De plus, lorsque la lumière traverse un milieu matériel, sa polarisation peut être modifiée ; ainsi, en comparant les polarisations d'entrée et de sortie du milieu d'étude, il est possible de remonter à certaines caractéristiques de celui-ci (orientation et/ou structure). C'est dans ce cadre qu'intervient la polarimétrie développée depuis les années 1980, dont les premiers systèmes imageurs ont vu le jour dans les années 1990. Depuis, ce domaine est en évolution croissante avec de multiples applications allant de la caractérisation de matériaux à celle des tissus biologiques. Plus particulièrement, ce travail de thèse s'est orienté en vue d'applications en microscopie optique. En effet, la polarimétrie peut être utilisée pour révéler des contrastes associés aux propriétés polarimétriques des échantillons en particulier des effets d'anisotropie et être un complément intéressant à l'imagerie classique basée sur l'absorption du rayonnement lumineux. La première partie de ce chapitre est consacrée à la description générale de la polarisation d'une onde lumineuse. Les formalismes matriciels qui traitent de ces modifications sont ensuite présentés. Il s'agit des formalismes de Jones qui permet d'étudier des ondes totalement polarisées et de Stokes-Mueller qui permet, en plus, de considérer des ondes partiellement polarisées. Ce dernier a donc la capacité d'appréhender le phénomène de dépolarisation souvent rencontré lorsqu'il y a interaction avec un milieu complexe (milieu biologique par exemple). Dans une seconde partie, on se focalise sur l'interprétation d'une matrice de Mueller grâce à laquelle on décrit n'importe quel élément optique qui modifie la polarisation d'une onde lumineuse. Cet outil mathématique regroupe l'ensemble des effets polarimétriques mis en jeu tels que le dichroı̈sme, la biréfringence et la dépolarisation. Pour remonter à une description fidèle du milieu d'étude, des méthodes de décomposition ont été développées, en particulier pour les milieux non-dépolarisants et pour les milieux dépolarisants. On discute également des méthodes de filtrage du bruit qui peuvent être appliquées dans certaines situations expérimentales. Dans une troisième partie, on présente le principe général de la polarimétrie de Mueller. Cette technique consiste à coder une lumière en polarisation et à décoder sa modification après interaction avec un milieu. Nous décrivons les différentes approches qui peuvent être envisagées, à savoir temporelle, spectrale ou spatiale, ainsi que les technologies associées à chacune d'entre elles. Il est possible ensuite d'acquérir une image de Mueller représentant la matrice en fonction des coordonnées spatiales sur le champ imagé d'un échantillon en passant à des modalités d'imagerie plein champ ou à balayage laser. Dans une quatrième partie, un état de l'art sur des applications de l'imagerie polarimétrique de Mueller est dressé. Les problématiques à différentes échelles d'imagerie montrent que l'enjeu de cette technique est de révéler des contrastes supplémentaires. En particulier, des travaux récents proposent de coupler l'analyse polarimétrique avec d'autres techniques d'imagerie dans le cadre de l'imagerie multimodale. -10- Chapitre I - Aspects théoriques, expérimentaux et applications de la polarimétrie de Mueller 1- Formalismes en polarimétrie 1.1- Polarisation de la lumière La polarisation de la lumière est l'évolution temporelle de la direction du vecteur champ ~ d'une onde lumineuse qui se propage. électrique E Considérons une onde plane monochromatique progressive dans le vide, de vecteur d'onde ~k et de pulsation ω. Le champ électrique de cette onde est exprimé dans un repère cartésien Oxyz et s'écrit, dans le cas d'une onde se propageant suivant l'axe Oz , sous la forme :    E0x .cos(ω.t − k.z + φx ) Ex (z, t) ~ =  Ey (z, t)  =  E0y .cos(ω.t − k.z + φy )  E 0 Ez (z, t)  (I.1) où - E0x et E0y sont les amplitudes réelles positives des composantes du champ électrique, - ~k est le vecteur d'onde (tel que |~k| = 2π/λ ), où λ est la longueur d'onde, - φx et φy sont des phases définies à 2π près. Dans le plan z = 0, la combinaison des deux composantes du champ Ex et Ey , ainsi que l'élimination de la variable temporelle, conduit à l'équation Ex 2 Ey 2 2Ex Ey + cosφ = sin2 φ 2 2 − E0x E0y E0x E0y avec φ = φy − φx (I.2) qui est celle d'une ellipse, dont une représentation dans le plan Oxy est donnée Figure I.1. Précisons que dans le cas considéré, les grandeurs E0x , E0y et φ sont indépendantes du temps, ce qui correspond à une onde totalement polarisée. Ainsi, dans le cas le plus général, l'état de polarisation d'une onde lumineuse totalement polarisée est elliptique. Cet état est complètement caractérisé par les grandeurs E0x , E0y et φ. Pour décrire l'ellipse, on introduit les paramètres suivants : - les dimensions du grand axe et petit axe de l'ellipse a et b respectivement, - l'azimut α (0 ≤ α ≤ π), - l'ellipticité ǫ (−π/4 ≤ ǫ ≤ π/4), - l'angle diagonal ν (0 ≤ ν ≤ π/2), -11- Chapitre I - Aspects théoriques, expérimentaux et applications de la polarimétrie de Mueller F IGURE I.1 – Ellipse de polarisation Les relations entre ces différentes grandeurs et les amplitudes E0x et E0y sont données par tanν = E0y E0x tan2α = 2E0x E0y cosφ E0x 2 − E0y 2 sin2ǫ = 2E0x E0y sinφ E0x 2 + E0y 2 (I.3) On peut également établir les relations suivantes, cos2ǫcos2α = cos2ν cos2ǫsin2α = sin2νcosφ (I.4) sin2ǫ = sin2νsinφ Pour des valeurs particulières des amplitudes E0x , E0y et du déphasage φ, l'ellipse peut se décliner sous des formes particulières conduisant à des états de polarisation spécifiques. Par exemple dans le cas où φ = 0, les deux composantes du champ électrique sont en phase et ce dernier oscille dans une direction fixe, on parlera de polarisation linéaire (ou rectiligne). Si φ ± π/2 et E0x = E0y , il s'agira d'une polarisation circulaire (droite ou gauche suivant le signe de φ). Quelques états de polarisation particuliers sont représentés Figure I.2. On dit que l'onde est complètement polarisée si les grandeurs la caractérisant, E0x , E0y et φ, sont indépendantes du temps. A contrario, si ces grandeurs évoluent de manière aléatoire (ou de façon complètement non-déterministe) comme la lumière naturelle, on parle d'une onde non polarisée. Une onde polarisée de manière quelconque (ou partiellement polarisée) peut être décrite comme une combinaison linéaire d'une onde non polarisée et d'une onde complètement polarisée. -12- Chapitre I - Aspects théoriques, expérimentaux et applications de la polarimétrie de Mueller F IGURE I.2 – Représentation des différents états de polarisation Nous introduisons à présent un formalisme matriciel permettant de décrire les états de polarisation pour des ondes complètement polarisées, ainsi que leur modification après la traversée d'un milieu. 1.2- Formalisme de Jones Dans une série d'articles parue entre 1941 et 1947, Jones a introduit un formalisme qui permet d'appréhender les modifications de la lumière polarisée après interaction avec un milieu [4]. Il proposa d'introduire un vecteur de dimension 2 × 1 à coefficients complexes entièrement défini à partir des quantités E0x , E0y et φ de la manière suivante :       E0x ejφx E0x Ex ~ = = J= E0y ejφy Ey E0y ejφ (I.5) où j est le nombre complexe tel que j 2 = −1. Le plus souvent, ce vecteur est représenté sous sa forme normalisée 1 J~ = q 2 2 E0x + E0y  E0x E0y ejφ  (I.6) On peut aussi écrire ce vecteur en fonction des paramètres α et ǫ de l'ellipse de polarisation  cos(α)cos(ǫ) − jsin(α)sin(ǫ) J~ = sin(α)cos(ǫ) + jcos(α)sin(ǫ)  (I.7) Quelques exemples de vecteurs de Jones associés à des états de polarisation particuliers sont donnés en Annexe 1 de ce manuscrit. -13- Chapitre I - Aspects théoriques, expérimentaux et applications de la polarimétrie de Mueller Grâce à cet outil, on a la possibilité de prédire l'état de polarisation de l'onde en sortie, défini par le vecteur de Jones J~s connaissant le vecteur de Jones à l'entrée J~e et la matrice de Jones de l'élément optique (composé d'un ou de plusieurs éléments). Cette matrice de dimension 2 × 2, notée [T ], est composée de quatre coefficients généralement complexes. L'interaction est modélisée simplement de la façon suivante J~s = [T ].J~e (I.8) Des exemples de matrices de Jones d'éléments de référence sont consultables en Annexes 2 et 4. L'intérêt majeur de ce formalisme est sa capacité à traiter l'interaction d'une onde totalement polarisée avec un système optique composé de n-éléments en cascade, comme représenté Figure I.3. F IGURE I.3 – Propagation de la lumière à travers une succession d'éléments optiques, modificateurs de la polarisation Pour cela, il suffit simplement de faire le produit des n-matrices de Jones décrivant chacun des éléments optiques tel que J~s = [Tn ][T2 ].[T1 ]J~e (I.9) Cependant, ce formalisme est limité à la description des ondes complètement polarisées ; il n'est donc pas adapté pour traiter des ondes partiellement polarisées ou non polarisées. 1.3- Formalisme de Stokes-Mueller En 1852, Stokes a introduit un formalisme mathématique décrivant la polarisation d'une onde optique à partir de la mesure d'intensités lumineuses [5]. La polarisation de la lumière est ~ de dimension 4×1 à coefficients réels entièrement représentée sous la forme d'un seul vecteur S appelé vecteur de Stokes, tel que   ~= S   S0 S1 S2 S3       =   2 2 < E0x > + < E0y > 2 2 < E0x > − < E0y > 2 < E0x E0y cos(φ) > 2 < E0x E0y sin(φ) > -14-      (I.10) Chapitre I - Aspects théoriques, expérimentaux et applications de la polarimétrie de Mueller Le symbole "<>" désigne la moyenne spatiale et temporelle sur le détecteur. Cette façon de noter les paramètres de Stokes a été omise volontairement par la suite pour alléger la notation. Les composantes du vecteur de Stokes pour une onde totalement polarisée vérifient la relation S02 = S12 + S22 + S32 (I.11) Les quatre composantes du vecteur de Stokes sont homogènes à des intensités lumineuses et peuvent être écrites de la manière suivante pour une onde complètement polarisée   ~= S   avec, S0 S1 S2 S3       =   I0 Ix − Iy I+45° − I−45° ID − IG      (I.12) - I0 , l'intensité totale du faisceau lumineux, - Ix − Iy , la différence d'intensité pour les polarisations linéaires horizontale et verticale, - I+45° − I−45° , la différence d'intensité pour les polarisations linéaires à +45° et à −45°, - ID − IG , la différence d'intensité pour les polarisations circulaires droite et gauche. On constate que les paramètres de Stokes S0 , S1 , S2 et S3 ont des significations physiques bien précises. Pour une onde complètement polarisée, le vecteur de Stokes normalisé par S0 peut aussi s'écrire en fonction des paramètres de l'ellipse de polarisation de la façon suivante    ~ S = S0   1 S1 /S0 S2 /S0 S3 /S0       =   1 cos2ǫcos2α cos2ǫsin2α sin2ǫ       =   1 cos2ν sin2νcosφ sin2νsinφ      (I.13) Comme pour la partie précédente, quelques exemples de vecteur de Stokes correspondant à des états de polarisation particuliers sont aussi donnés en Annexe 1. Si l'onde est complètement non polarisée, le vecteur de Stokes normalisé par rapport S0 devient   1   0 ~= S   0 0 (I.14) Mais si l'onde est partiellement polarisée, on peut décomposer son vecteur de Stokes comme la somme d'une onde complètement polarisée et d'une onde complètement non polarisée -15- Chapitre I - Aspects théoriques, expérimentaux et applications de la polarimétrie de Mueller    p   p S0 S12 + S22 + S32 S0 − S12 + S22 + S32       S1   S1 0    ~= S = +       S S2 0   2    S3 0 S3 (I.15) S02 ≥ S12 + S22 + S32 (I.16) Dans ce cas, l'équation I.11 devient l'inégalité Partant des deux cas extrêmes d'état de polarisation (complètement polarisé et non polarisé), on peut alors définir le degré de polarisation DOP (Degree Of Polarization) d'une onde optique comme DOP = p S12 + S22 + S32 S0 (I.17) Cette quantité peut varier de 1 pour une onde totalement polarisée à 0 pour une onde non polarisée. Mueller a introduit une relation linéaire entre le vecteur de Stokes à l'entrée d'un système optique, S~e , avec celui de sortie, S~s donnée par [6] S~s = [M ].S~e (I.18) où [M ] est la matrice de Mueller de dimension 4×4. Elle est composée de 16 coefficients réels, notés mij (i,j = 0, , 3), tels que  m00  m [M ] =  10 m20 m30 m01 m11 m21 m31 m02 m12 m22 m32  m03  m13   m23  m33 (I.19) Des exemples de matrices de Mueller d'éléments de référence sont consultables en Annexes 3 et 5. Comme pour le formalisme de Jones, on peut décrire l'évolution de la polarisation d'une onde à travers un système optique pouvant être composé d'éléments placés en cascade, comme représentés Figure I.3. Mathématiquement, cela se traduit simplement par le produit des matrices associées à chaque élément, disposées séquentiellement dans le sens inverse de propagation de l'onde lumineuse, tel que S~s = [Mn ][M2 ].[M1 ].S~e (I.20) Ce formalisme permet d'appréhender de manière complète les propriétés polarimétriques d'un système optique ; il est donc tout à fait adapté à la caractérisation d'un milieu quelconque. Remarque : Il existe d'autres types de représentation des états de polarisation et de leur modification, tels que la sphère de Poincaré [7] et la matrice de cohérence [8]. -16- Chapitre I - Aspects théoriques, expérimentaux et applications de la polarimétrie de Mueller 2- Informations relatives à la matrice de Mueller 2.1- Éléments optiques simples La polarisation de l'onde lumineuse incidente peut être modifiée suite à l'interaction (en transmission et/ou en réflexion) avec un élément optique par l'intermédiaire de trois effets physiques : - le dichroı̈sme (effet d'amplitude), - la biréfringence (effet de phase), - la dépolarisation (effet de moyennage spatial, temporel et/ou spectral). Les éléments optiques simples permettant de représenter ces effets seront respectivement des diatténuateurs, des retardateurs et des dépolariseurs. Cette partie sera consacrée à la description de ces éléments et aux matrices de Mueller associées. Remarque : Les éléments optiques décrits dans la suite sont supposés homogènes, c'est-à-dire que leurs deux états propres de polarisation (états transmis sans altération) sont orthogonaux [9]. 2.1.1- Diatténuateurs Un élément diatténuateur (ou dichroı̈que) possède une anisotropie d'absorption, c'est-à-dire que l'intensité du faisceau émergent dépend de l'état de polarisation de l'onde incidente. La diatténuation scalaire peut être définie comme D= Tmax − Tmin Tmax + Tmin avec0 ≤ D ≤ 1 (I.21) où Tmax et Tmin sont respectivement les transmittances en énergie maximum et minimum. On peut écrire la transmittance énergétique pour une onde non polarisée sous la forme 1 T0 = (Tmax + Tmin ) 2 (I.22) On distingue des valeurs particulières qui permettent de qualifier le diatténuateur qui sont : - D = 0 si la transmittance en intensité de cet élément ne dépend pas de l'état de polarisation incident, - 0 < D < 1 si le diatténuateur est partiel, - D = 1 s'il correspond à un polariseur parfait. -17- Chapitre I - Aspects théoriques, expérimentaux et applications de la polarimétrie de Mueller Un élément diatténuateur peut polariser l'onde incidente linéairement, circulairement ou elliptiquement mais le cas le plus général est celui d'un polariseur elliptique partiel. L'atténuation de chaque composante du champ étant dépendante de la direction de polarisation de l'onde ~ par incidente, on définit le vecteur diatténuation D   DH ~ = D  D 45° DC (I.23) où - DH est la diattenuation linéaire horizontale, avec −1 ≤ DH ≤ 1. - D45° est la diattenuation linéaire à +45° avec −1 ≤ D45° ≤ 1. - DC la diattenuation circulaire, avec −1 ≤ DC ≤ 1. Un élément diatténuateur est dit linéaire s'il ne présente pas de diatténuation circulaire (DC = 0). On peut aussi écrire ce vecteur avec les composantes d'azimut αD et d'ellipticité ǫD de l'état propre correspondant à la transmittance maximale, de la façon suivante  cos(2ǫD )cos(2αD ) ~ = D cos(2ǫD )sin(2αD ) D sin(2ǫD )  (I.24) ~ et T0 . Lu et Chipman ont Un élément diatténuateur est donc totalement caractérisé par D redéfini l'écriture d'un tel élément sous forme matricielle [10], avec  mD00  m [MD ] =  D10 mD20 mD30 mD01 mD11 mD21 mD31 mD02 mD12 mD22 mD32  mD03 " #  ~T 1 D mD13   = T0 ~ mD23  D [mD ] mD33 (I.25) avec [mD ] la matrice réduite 3×3 de diattenuation s'écrivant sous la forme [mD ] = √ 1 − D2 [I3 ] + (1 − √ bD bT 1 − D 2 )D (I.26) D̂, le vecteur unité représentant la direction de l'état propre correspondant à la transmittance maximale appelé couramment "axe du dichroique" et I3 la matrice identité 3×3. On peut lier les autres grandeurs, définies précédemment, aux éléments mDij par les relations suivantes T0 = mD00 -18- (I.27) Chapitre I - Aspects théoriques, expérimentaux et applications de la polarimétrie de Mueller ~ = DD b= D D= q 1 mD00  mD01 mD02  mR03  m2D01 + m2D02 + m2D03 mD00 (I.28) (I.29) Quelques éléments diatténuateurs représentés en matrices de Jones et de Mueller sont exposés en Annexes 2 et 3. Remarque : Dans certaines situations, on peut être amené à définir la diatténuation linéaire, à l'aide de la relation q 2 2 DL = DH + D45 °= q MD2 01 + MD2 02 MD00 (I.30) Il est possible de produire du dichroı̈sme en faisant traverser la lumière dans un réseau de grille absorbant les composantes du champ électrique parallèlement à l'orientation de ces dernières. C'est par exemple le cas pour des polariseurs linéaires dichroı̈ques. L'inconvénient de ces systèmes optiques est leur sensibilité en longueur d'onde. Une simple lame de verre à face parallèle, inclinée à l'angle de Brewster, permet de séparer un faisceau incident en deux, le faisceau transmis ayant tendance à se polariser de manière rectiligne. Enfin, en exploitant la biréfringence linéaire de certains matériaux comme le quartz, il est possible de produire un faisceau polarisé. Par exemple, un prisme de Glan Taylor est composé de deux matériaux biréfringents identiques taillés en prisme séparés par une fine couche d'air. On engendre alors deux faisceaux de polarisations rectilignes orthogonales dont les directions sont le long des deux axes propres du biréfringent (axe rapide ou lent). A l'interface prisme/air, l'un des faisceaux sera totalement réfléchi permettant de produire à la sortie de ce système optique un faisceau polarisé rectilignement de haute qualité. Un exemple de l'action d'un polariseur linéaire parfait sur une lumière non polarisée est schématisé Figure I.4. 2.1.2- Retardateurs Un élément retardateur (ou "biréfringent" ou "déphaseur") modifie la phase du champ électrique incident sans en altérer l'amplitude. Il peut s'agir par exemple d'un milieu uniaxe qui possède deux indices de réfraction différents notés n1 et n2 6= n1 . Cela aura pour conséquence d'engendrer un retard de phase entre les deux états propres associés à ces deux indices. On caractérise un élément biréfringent d'épaisseur e par sa retardance global (ou déphasage) R = |φ2 − φ1 | = 2π ∆ne λ avec 0° ≤ R ≤ 180° (I.31) où φ2 et φ1 sont les déphasages associés aux états propres orthogonaux du biréfringent, ∆n = |n2 − n1 | est la biréfringence du milieu. -19- Chapitre I - Aspects théoriques, expérimentaux et applications de la polarimétrie de Mueller F IGURE I.4 – Action d'un polariseur linéaire sur une lumière non polarisée Remarque : Cette relation est valable pour des éléments biréfringents dont l'axe optique est perpendiculaire à la direction de propagation de l'onde. Comme pour l'élément dichroı̈que, chaque composante du champ électrique incident se comportera différemment en traversant le milieu déphaseur suivant la direction de ses axes propres, d'où l'introduction du vecteur retardance   RH ~ = R R  R 45° RC (I.32) où - RH est la retardance linéaire horizontale, avec −180° ≤ RH ≤ 180°, - R45° est la retardance linéaire à +45°, avec −180° ≤ R45° ≤ 180° - RC la retardance circulaire, avec −180° ≤ RC ≤ 180°. A partir de ces derniers paramètres, la retardance linéaire peut se retrouver avec la relation RL = q 2 2 RH + R45 ° avec 0° ≤ RL ≤ 180° (I.33) Un élément retardateur est dit linéaire s'il ne présente pas de retardance circulaire (RC = 0). ~ avec les composantes d'orientation αR et d'ellipticité ǫR de l'état On peut réécrire le vecteur R propre possédant l'indice de réfraction le plus faible (axe rapide) de la façon suivante -20- Chapitre I - Aspects théoriques, expérimentaux et applications de la polarimétrie de Mueller  cos(2ǫR )cos(2αR ) ~ = R cos(2ǫR )sin(2αR ) R sin(2ǫR )  (I.34) Lu et Chipman ont proposé de réécrire cet élément dans le formalisme de Mueller en passant par la matrice réduite 3×3 de retardance, notée [mR ],  mR00  m [MR ] =  R10 mR20 mR30 mR01 mR11 mR21 mR31 mR02 mR12 mR22 mR32  mR03    1 ~0T mR13  = ~ mR23  0 [mR ] mR33 avec [mR ]ij = δij cos(R) + Ri Rj (1 − cos(R)) 3 X εijk Rk sin(R) (I.35) (I.36) k=1 où ~0 est le vecteur nul, δij est l'opérateur de Kronecker et εijk est l'opérateur de permutation de Levi-Cività et mRij , avec i, j = 1, 2, 3, sont les éléments de la matrice réduite de retardance. Remarque : La matrice de Mueller d'un retardateur est une matrice unitaire (déterminant égal à 1) orthogonale, d'où la relation ci-dessous [MR ]−1 = [MR ] (I.37) Les éléments mRij sont reliés aux paramètres de la retardance par T r([MR ]) − 1) 2   mR23 − mR32 R ~ =  mR31 − mR13  R 2sin(R) mR12 − mR21 R = cos−1 ( (I.38) (I.39) Des exemples d'éléments optiques retardateurs représentés en matrices de Jones et de Mueller sont exposés en Annexes 4 et 5. Certains matériaux naturels présentent de la biréfringence linéaire, tels que les cristaux de calcite ou de mica, souvent utilisés pour fabriquer des lames de phase. Par exemple, on peut citer des lames demi-onde lorsque le déphasage est égal à π et des lames quart-d'onde lorsqu'il est égal à π/2. Des éléments biréfringents dont le retard peut être induit par application d'un champ électrique (des cristaux liquides ou les cellules de Pockels) ou d'une contrainte mécanique (modulateurs photo-élastique), sont essentiels en polarimétrie pour commuter de manière rapide entre différents états de polarisation. Par ailleurs, certains tissus biologiques se comportent comme des biréfringents linéaires, tels que le collagène fibrillaire de type I, ce qui est illustré par les applications du microscope de Mueller à balayage décrit dans le chapitre III. L'action d'un biréfringent linéaire est représentée Figure I.5. -21- Chapitre I - Aspects théoriques, expérimentaux et applications de la polarimétrie de Mueller F IGURE I.5 – Action d'une lame quart d'onde, dont l'axe rapide est orienté à 45°, sur une lumière polarisée linéairement. 2.1.3- Dépolariseurs Contrairement aux éléments optiques précédents, un dépolariseur transforme un état totalement polarisé en un état partiellement polarisé ; on dit alors que le milieu induit de la dépolarisation. Ce phénomène apparait dès qu'un moyennage spatial, temporel ou spectral des propriétés polarimétriques a lieu au niveau de la détection. La dépolarisation engendrée par un milieu provient essentiellement du phénomène de diffusion de la lumière et dépend fortement de la géométrie de détection utilisée lors de la mesure. Un milieu qui dépolarise peut être modélisé, dans le formalisme de Stokes-Mueller, par un dépolariseur dont la forme la plus générale est la suivante   1 ~0T (I.40) [M∆ ] = ~ 0 [m∆ ] avec [m∆ ], la matrice réduite 3×3. Le cas le plus simple est celui d'un dépolariseur total, où un vecteur de Stokes quelconque est transformé en un autre vecteur de Stokes décrivant une lumière totalement non polarisée. La matrice de Mueller associée est alors   1 0 0 0   0 0 0 0 (I.41) [M∆total ] =   0 0 0 0 0 0 0 0 Si la dépolarisation induite est partielle et que le milieu dépolarise de la même manière tous les états de polarisation incidents (dépolarisation isotrope), la matrice de Mueller de l'élément s'écrit sous la forme   1 0 0 0   0 a 0 0  iso ]= [M∆partiel (I.42)  avec 0 ≤ a ≤ 1 0 0 a 0  0 0 0 a -22- Chapitre I - Aspects théoriques, expérimentaux et applications de la polarimétrie de Mueller Si la dépolarisation est différente pour chaque type d'état de polarisation incident (dépolarisation anisotrope), la matrice associée devient  1  0 ani [M∆partiel ]= 0 0 0 a 0 0 0 0 b 0  0  0  avec 0 ≤ (|a|, |b|, |c|) ≤ 1 0 c (I.43) Pour quantifier ce phénomène, on utilise le facteur de dépolarisation moyen qui correspond à la moyenne des facteurs principaux de [m∆ ] ∆=1− |a| + |b| + |c| avec 0 ≤ ∆ ≤ 1 3 (I.44) On peut distinguer 3 cas de figures : - ∆ = 0, l'élément n'est pas dépolarisant. - 0 < ∆ < 1, l'élément est un dépolariseur partiel. - ∆ = 1, l'élément est un dépolariseur total. Le phénomène de dépolarisation peut être engendré après interaction de la lumière avec des éléments naturels ou manufacturés comme le lait, le papier blanc ou le métal [11]. Plus généralement, tout milieu hétérogène pour l'onde optique va engendrer de la dépolarisation [12]. L'action d'un élément dépolarisant sur une lumière incidente polarisée linéairement est représentée Figure I.6. F IGURE I.6 – Action d'un élément dépolarisant, sur une onde incidente polarisée rectilignement. -23- Chapitre I - Aspects théoriques, expérimentaux et applications de la polarimétrie de Mueller 2.2- Décompositions des matrices de Mueller Une matrice de Mueller composée de 16 éléments indépendants contient toute la réponse polarimétrique d'un échantillon. A partir de celle-ci, on est capable d'extraire des paramètres donnant des informations sur les processus physiques mis en jeu lors de l'interaction lumière/matière. Lorsque les trois effets polarimétriques cités précédemment sont susceptibles d'intervenir, il est alors difficile, à première vue, de les séparer et donc d'interpréter physiquement la mesure. Pour extraire spécifiquement chaque paramètre polarimétrique de la matrice mesurée, un certain nombre d'outils ont été développés faisant appel à des méthodes de décomposition. Nous verrons dans cette section que la plupart de ces méthodes demandent une connaissance a priori du milieu étudié mais débutent toutes par la distinction entre l'absence ou la présence de dépolarisation. Étant donné que les algorithmes de ces décompositions ont déjà fait l'objet d'études largement décrites dans la littérature, nous nous focaliserons uniquement sur une description des outils utilisés durant cette thèse. 2.2.1- Décompositions pour les milieux non-dépolarisants Dans ce premier cas, on considère que seuls les effets de dichroisme et de biréfringence sont présents dans le milieu, décrit alors par une matrice de Jones [T ], à laquelle on peut associer une matrice de Mueller-Jones non-dépolarisante [MJ ]. La relation permettant de passer d'une matrice de Jones à une matrice Mueller-Jones est donnée par [MJ ] = A * ([T ] ⊗ [T ]∗ ) * [A]−1 1 avec [A]−1 = [A]† 2 (I.45) où ⊗ est le produit tensoriel, ∗ est l'opérateur conjugué complexe et [A] la matrice suivante  1  1 [A] =  0 0  0 0 1  0 0 −1  1 1 0 i −i 0 (I.46) Notons que la réciproque n'est possible que si la matrice de Mueller ne présente pas de dépolarisation ; en effet, une matrice de Jones est composée de 7 éléments indépendants (4 éléments complexes de la matrice 2 × 2, auxquels on soustrait la phase absolue traduisant la propagation dans le milieu) et une matrice de Mueller quelconque [M ] en contient 16. Les conditions pour qu'une matrice de Mueller soit une Mueller-Jones ont fait l'étude de nombreux travaux [13, 14, 15]. Une condition nécessaire et suffisante a été proposé par Anderson et Barakat [13], consistant à construire une matrice de passage [F] à partir de [M ] de la façon suivante [F ] = [A]−1 * [M ] * [A] (I.47) On définit une matrice [N ] à partir des coefficients de [F] de dimension 4 × 4, telle que Nij,kl = Fik,jl avec i, j, k, l = 1, 2 -24- (I.48) Chapitre I - Aspects théoriques, expérimentaux et applications de la polarimétrie de Mueller Cette matrice [N ], hermitienne est présentée en Annexe 6. [N ] est diagonalisable et possède 4 valeurs propres réelles λi (i = 1, 2, 3, 4) associées à 4 matrices [Ni ] telle que avec |λ0 | ≥ |λ1 | ≥ |λ2 | ≥ |λ3 | [N ] = λ0 [N0 ] + λ1 [N1 ] + λ2 [N2 ] + λ3 [N3 ] (I.49) ~ i orthogonaux Les matrices [Ni ] sont construites à partir de vecteurs propres colonnes W entre eux telles que ~ iW ~i [Ni ] = W + (I.50) Pour que [M ] soit une matrice de Mueller-Jones, la relation suivante doit être vérifiée [N ]2 = T r([N ]) * [N ] (I.51) Cette dernière équation est satisfaite seulement si et seulement si [N ] possède une valeur propre non-nulle, les autres étant strictement nulles, c'est-à-dire λ0 = 2m00 et λ1 = λ2 = λ3 = 0 (I.52) Parmi les nombreuses méthodes de décomposition d'une matrice de Mueller-Jones, citons la décomposition polaire introduite par Whitney [16]. Elle démontre que toute matrice de Jones peut se décomposer en un produit de matrices représentant des éléments simples (retardateur et diatténuateur). Plus tard, Gil et Bernabeu [17] ont repris cette décomposition polaire pour des matrices de Mueller non-dépolarisantes (ou matrice de Mueller-Jones), telle que [MJ ] = [MR ].[MD ] (I.53) où [MD ] correspond à la matrice de Mueller d'un diatténuateur elliptique partiel et [MR ] à celle d'un retardateur elliptique. Cette matrice de Mueller-Jones peut être développée en utilisant les expressions I.25 et I.35 sous la forme " # " # " # ~T ~T 1 D 1 ~0T 1 D [MJ ] = * T0 = T0 ~ [mR ][mD ] ~ [mD ] ~0 [mR ] [mR ]D D (I.54) La détermination de chacune des matrices se fait en deux temps. Tout d'abord, la transmit~ s'obtiennent directement de la matrice de Mueller-Jones tance T0 et le vecteur diatténuation D via les relations T0 = MJ00 ~ = D  MJ01 (I.55)   1   MJ  02   MJ00 MJ03 (I.56) ~ via la relation I.26. Enfin, Puis, la diatténuation est déterminée par la norme du vecteur D, par une simple inversion de la matrice I.53, on isole la matrice de retardance -25- Chapitre I - Aspects théoriques, expérimentaux et applications de la polarimétrie de Mueller [MR ] = [MJ ] * [MD ]−1 (I.57) ~ sont données par les relations I.38 et La valeur de la retardance et son vecteur associé R I.39. Remarque : Il est possible d'inverser l'ordre des matrices du diatténuateur et du retardateur sous la forme [MJ ] = [MD′ ] * [MR′ ] = T0 " ~ ′ T [mR ] 1 D ~ ′ [m′ ][m′ ] D D R # (I.58) Étant donné que la matrice d'un retardateur est orthogonale ([MR ] * [MR ]T = 1), par identification de l'équation I.54 avec I.58, on trouve que [MR′ ] = [MR ] (I.59) [MD′ ] = [MR ] * [MD ] * [MR ]T (I.60) On remarque la matrice du retardateur [MR′ ] reste inchangée, contrairement à la matrice de ~ telle que diatténuation [MD′ ], déterminée par une autre expression du vecteur diatténuation D, ~′ = D  MJ10   1   MJ  MJ00  20  MJ30 (I.61) Selon le choix de l'une ou l'autre des décompositions, les valeurs de D et R restent inchangée, ainsi que les valeurs de αR et ǫR . Par contre, les valeurs de αD et ǫD changent d'une décomposition à l'autre. Cependant, on ne peut pas dire quelle est la plus adaptée à la situation expérimentale réelle sans une connaissance a priori du milieu. 2.2.2- Décompositions pour les milieux dépolarisants Décomposition de Lu et Chipman Dans le cas le plus général où un milieu présente simultanément tous les différents effets polarimétriques, la décomposition la plus connue est celle introduite par Lu et Chipman en 1996 [10]. Elle permet de décomposer une matrice de Mueller [M ] en un produit de trois matrices de Mueller associées au trois effets explicités précédemment [M ] = [M∆ ].[MR ].[MD ] (I.62) où [MD ] la matrice de Mueller d'un diattenuateur (I.25), [MR ] celle d'un retardateur (I.35) et [M∆ ] celle d'un dépolariseur, qui diffère de celle donnée en I.40, telle que " ~0T 1 [M∆ ] = P~∆ [m∆ ] -26- # (I.63) Chapitre I - Aspects théoriques, expérimentaux et applications de la polarimétrie de Mueller avec P~∆ est le vecteur polarisance du dépolariseur. Ce terme est introduit afin de satisfaire au nombre degré de liberté associé à la dépolarisation. En effet, chaque matrice de Mueller est composée de 16 éléments indépendants. Or le diattenuateur est décrit par 4 paramètres (T0 , D, αD , ǫD ), le retardateur par 3 paramètres (R, αR , ǫR ) et le dépolariseur par 6 paramètres (∆1 , ∆2 , ∆3 et les trois axes associés). Donc une description cohérente des 16 paramètres de Mueller ne peut être satisfaite qu'en rajoutant 3 degrés de liberté au dépolariseur d'où l'introduction de ce vecteur polarisance. Le produit des trois matrices donne " # " # " # ~T ~0T 1 1 ~0T 1 D [M ] = * * T0 ~ [mD ] ~0 [mR ] P~∆ [m∆ ] D (I.64) et la matrice finale prend la forme [M ] = T0 " ~T 1 D P~ [m] # (I.65) ~ le vecteur diattenuation et [m] la matrice où P~ est le vecteur polarisance de la matrice [M ], D de Mueller réduite 3 × 3  m11 m12 m13     [m] =  m m m 21 22 23   m31 m32 m33 (I.66) En partant de l'équation I.64, l'algorithme de décomposition de Lu et Chipman détermine d'abord MD , puis M∆ et finalement MR . ~ sont directement accessibles à La transmittance non polarisée et le vecteur de diattenuation D partir de la matrice [M ] par T0 = m00  m01 (I.67)    ~ = 1 m02  D  m00  m03 (I.68) Par analogie avec la relation I.28, la connaissance de ce vecteur nous donne donc accès à la valeur de diattenuation D de l'équation I.29, ainsi qu'à sa matrice réduite avec la relation I.26. On peut donc reconstruire la matrice [MD ] de la relation I.25. Ensuite, connaissant [MD ], on calcule une matrice [M ′ ], telle que [M ′ ] = [M ].[MD ]−1 = [M∆ ].[MR ] (I.69) La matrice [M ′ ] est donc dépourvue de diatténuation mais possède une polarisance non-nulle et prend la forme suivante -27- Chapitre I - Aspects théoriques, expérimentaux et applications de la polarimétrie de Mueller # " # " # ~T ~T ~T 1 0 1 0 1 0 = * [M ′ ] = ~0 [mR ] P~∆ [m′ ] P~∆ [m∆ ] " (I.70) L'expression du vecteur polarisance P~∆ est donc directement extraite de [M ′ ]  m′10  ~   P~ − [m]D 1 ′  = avec P~ = P~∆ =  m  20  2 1−D m00 m′30  m10    m20    m30 (I.71) L'équation I.70 fournie la matrice 3 × 3 définie par le produit de matrice [m′ ] = [m∆ ] * [mR ] (I.72) Étant donné que [mR ] est orthogonale, [mR ]−1 = [mR ]T , ce qui permet de former la sousmatrice [m′ ] * [m′ ]T = [m∆ ] * [mR ]([m∆ ] * [mR ])T = [m∆ ]2 (I.73) On nomme ζ1 , ζ2 et ζ3 , les valeurs propres de la sous-matrice [m′ ] * [m′ ]T ; en appliquant le théorème de Cayley-Hamilton, on forme la relation  h p i−1 p p [m∆ ] = ± [m′ ] * [m′ ]T + ζ1 ζ2 + ζ2 ζ3 + ζ1 ζ3 [I3 ] hp i p p  p × ζ1 + ζ2 + ζ3 [m′ ] * [m′ ]T + ζ1 ζ2 ζ3 [I3 ] (I.74) [MR ] = [M∆ ]−1 * [M ′ ] (I.75) où le signe ± correspond au signe du déterminant de la matrice [m′ ] et [I3 ] est la matrice identité 3 × 3. Les relations I.71 et I.74 permettent de déterminer entièrement la matrice de dépolarisation [M∆ ]. Par une simple inversion de matrice, on remonte directement à la matrice du retardateur En conclusion, cette méthode de décomposition permet de remonter à l'ensemble des propriétés polarimétriques du milieu d'étude, décrit comme une élément optique complexe, en faisant la distinction entre les effets de dichroı̈sme, de biréfringence et de dépolarisation. Pour évaluer la dépolarisation, on a introduit le facteur ∆ défini à l'équation I.44 à partir de la matrice du dépolariseur [m∆ ]. Cependant, la quantification de ce phénomène peut devenir complexe, par exemple si le dépolariseur est anisotrope car le degré de polarisation de l'onde transmise varie avec l'état de polarisation incident. Il nous faut donc une mesure moyenne du pouvoir dépolarisant d'un tel système optique. Au cours de cette thèse, on utilise plutôt l'indice de dépolarisation PD qui est directement accessible à partir de la matrice [M ] "brute" expérimentale (donc sans passer par l'étape de décomposition de celle-ci), définit de la façon suivante -28- Chapitre I - Aspects théoriques, expérimentaux et applications de la polarimétrie de Mueller v u P u 3 m2 − m200 u t i,j=0 ij PD = 3m200 avec 0 ≤ PD ≤ 1 (I.76) On peut distinguer trois situations selon la valeur de PD : - PD = 0, l'élément est un dépolariseur total. - 0 ≤ PD ≤ 1, l'élément est un dépolariseur partiel. - PD = 1, l'élément n'est pas dépolarisant. Autres méthodes de décomposition En se penchant plus en détail sur la décomposition de Lu et Chipman, on peut se demander si l'ordre des termes dans le produit de matrices a une importance : J. Morio et F. Goudail ont démontré que ce produit ne correspond pas toujours à une situation physiquement réalisable [18]. En effet, l'équation I.62 suppose que la lumière rencontre les trois effets polarimétriques séquentiellement dans un ordre bien défini. Il a donc été imaginé d'autres types d'arrangement susceptibles de correspondre aux différents types de situations expérimentales. Parmi ces méthodes de décomposition, on peut citer par exemple les décompositions de types "forward" et "reverse" construisant 6 arrangements en deux familles. La famille F∆D où le diattenuateur précède le dépolariseur et la famille FD∆ où le diattenuateur suit le dépolariseur, dont le détail est présenté ci-dessous [M ] = [M∆1 ] * [MR1 ] * [MD1 ] [M ] = [M∆2 ] * [MD2 ] * [MR2 ] (I.77) (I.78) [M ] = [MR3 ] * [M∆3 ] * [MD3 ] (I.79) [M ] = [MD4 ] * [MR4 ] * [M∆4 ] (I.80) [M ] = [MR5 ] * [MD5 ] * [M∆5 ] (I.81) [M ] = [MD6 ] * [M∆6 ] * [MR6 ] (I.82) Les valeurs de R, D et de ∆ diffèrent d'une famille à l'autre mais sont identiques au sein de chacune d'entre elle. On se rend donc compte que le choix d'une décomposition va être crucial dans la description de ce qui se passe réellement au sein du milieu. En particulier, il a été montré [18] que la famille F∆D donne toujours un triplet de matrices physiques et singulières, contrairement à la seconde, notamment si le milieu possède une forte diatténuation et une fort pouvoir dépolarisant. Pour parer à ce problème, R. Ossikovski a introduit une décomposition appelée "décomposition inverse" re-précisant les formes du diattenuatteur et du dépolariseur pour ces décompositions de famille FD∆ [19]. Il est donc recommandé d'utiliser la décomposition qui est le plus fidèle à la situation expérimentale nécessitant une connaissance "à priori" de la réponse du milieu. -29- Chapitre I - Aspects théoriques, expérimentaux et applications de la polarimétrie de Mueller Finalement, on peut aussi citer d'autres types de décomposition de la matrice de Mueller dont certaines ont fait l'objet d'une discussion plus poussée [20] : - La décomposition symétrique, permet de travailler avec la matrice diagonale d'un dépolariseur vu à l'équation I.43, à partir d'un produit de cinq matrices [21]. Cette méthode a été validée expérimentalement [22] et semble prometteuse pour l'étude en réflexion diffuse des milieux biologiques. - La décomposition logarithmique, qui considère que les effets polarimétriques n'interviennent pas de manière séquentielle mais simultanément dans l'échantillon [23]. - La décomposition en somme, consistant à décomposer la matrice expérimentale [M ] en somme de sous- matrices non-dépolarisantes [24]. Grâce aux valeurs propres associées à [M ], chacunes de ces sous-matrices peut-être décomposées suivant les paramètres de diatténuation ou de retardance par la décomposition polaire. 2.3- Filtrage du bruit des matrices de Mueller expérimentales La mesure d'une matrice de Mueller expérimentale est entachée d'erreurs. La conséquence est une propagation de cette erreur sur les paramètres physiques issus de la décomposition. Pour filtrer l'information non-physique associée au bruit, une méthode de filtrage proposée par S.R. Cloude [24] se base sur une décomposition d'une matrice quelconque [M ] en somme de matrices non-dépolarisantes [Mi ], de la façon suivante 1 [M ] = (λ0 [M0 ] + λ1 [M1 ] + λ2 [M2 ] + λ3 [M3 ]) 2 (I.83) où les coefficients λ0 , λ1 , λ2 et λ3 correspondent aux valeurs propres de la matrice [N ] de l'équation I.49. Dans le cas de la mesure d'une matrice de Mueller associée à un milieu non-dépolarisant, le bruit de mesure conduit à des valeurs propres λ1 ≈ 0, λ2 ≈ 0 et λ3 ≈ 0. De plus, elles peuvent être négatives, ce qui conduit à des résultats non-physiques. En fixant λ1 = λ2 = λ3 = 0, la matrice de Mueller peut se résumer alors sous la forme d'une matrice de Mueller-Jones : [MJ ] = λ0 [M0 ] 2 (I.84) Cette approche permet alors de filtrer une partie du bruit expérimental. Une décomposition polaire permet ensuite d'extraire les valeurs de diatténuation et de retardance. Cependant, il faut faire attention à ne pas employer cette méthode pour les milieux dépolarisants car les matrices [M1 ], [M2 ] et [M3 ] contiennent l'information de dépolarisation. Pour discriminer le bruit de mesure de l'effet de dépolarisation, on peut citer un algorithme développé par F. Le Roy-Brehonnet [25], repris dans la thèse de F. Boulvert [26]. Tout d'abord, on évalue une matrice d'écart-type [S] caractérisant les incertitudes sur les coefficients mij de la matrice de Mueller expérimentale [M]. Ensuite, on introduit la norme de Frobenius d'une matrice quelconque [X] de dimension n × n avec l'expression -30- Chapitre I - Aspects théoriques, expérimentaux et applications de la polarimétrie de Mueller v u n−1 n−1 p uX X ||X||F = t |Xij |2 = T r([X]† [X]) (I.85) ||∆M ||F = ||M − MJ ||F (I.86) i=0 j=0 Cette dernière relation nous permet de calculer alors les normes de Frobenius ||S||F et ||∆M ||F où avec M est la matrice expérimentale et MJ est la matrice de Mueller-Jones obtenue par l'équation I.84. En comparant ||S||F et ||∆M ||F , on met en évidence deux situations : - Si ||∆M ||F ≤ ||S||F : la différence entre M et MJ est uniquement due aux erreurs expérimentales. Le milieu étudié est donc non-dépolarisant. - Si ||∆M ||F ≥ ||S||F : soit la mesure est erronée et ne correspond pas à un système optique physiquement réalisable, soit le milieu est dépolarisant. -31- Chapitre I - Aspects théoriques, expérimentaux et applications de la polarimétrie de Mueller 3- Techniques expérimentales en polarimétrie de Mueller Au cours des dernières années, un certain nombre de techniques de polarimétrie ont été mises en oeuvre permettant d'engendrer deux principales familles : - la polarimétrie de Stokes, basée sur la mesure de la polarisation d'une onde, - la polarimétrie de Mueller, basée sur la signature polarimétrique d'un milieu. Dans cette partie, on présente le principe de la polarimétrie de Mueller ainsi que les différents moyens existants pour générer et analyser les états de polarisation. En effet, en vue du développement expérimental envisagé dans cette thèse, il est important de situer les choix dans la configuration expérimentale retenue du polarimètre. Enfin, quelques exemples de systèmes imageurs polarimétriques de Mueller sont présentés. 3.1- Principe de base de la polarimétrie de Mueller Depuis des années, une multitude de polarimètres de Mueller a vu le jour mais tous sont basés sur le même principe de base, schématisé Figure I.7. F IGURE I.7 – Principe de base d'un polarimètre de Mueller (en configuration transmission). Le polarimètre est dit "complet" s'il mesure les 16 coefficients de la matrice de Mueller et incomplet dans le cas contraire. S'il est complet, un générateur d'états de polarisation, noté PSG (Polarization State Generator), met en forme au moins 4 états de polarisation différents. Après interaction avec le milieu d'étude, la modification de chacun de ces états va être analysée à travers au moins 4 configurations différentes d'un analyseur d'états de polarisation, noté PSA (Polarization State Analyzer). Ainsi, on obtient un système d'équations (16 au minimum) qui permet de remonter aux 16 coefficients de la matrice. Bien évidemment, on peut produire plus de 16 états de polarisation ce qui nous amène à surdéterminer le système. Pour calculer la matrice de Mueller [M ] du milieu d'étude, on définit les matrices associées au système : - [W ] est la matrice de modulation, dont les colonnes sont les vecteurs de Stokes des états de polarisation engendrés par le PSG. -32- Chapitre I - Aspects théoriques, expérimentaux et applications de la polarimétrie de Mueller - [A] est la matrice d'analyse, dont les lignes sont les vecteurs de Stokes des états de polarisation formés par le PSA. - [B] est la matrice dont les coefficients correspondent aux intensités mesurées par le détecteur. La relation entre les différentes matrices définies au dessus est [B] = [A].[M ].[W ] (I.87) En inversant le système, on retrouve donc la matrice de Mueller de l'échantillon [M ] = [A]−1 .[B].[W ]−1 (I.88) Cette dernière relation suppose que les matrices [W ] et [A] soient inversibles (c'est-à-dire non-singulières). Il existe un nombre important de combinaisons d'états de polarisation permettant de générer des matrices [W] et [A] inversibles mais elles ne sont pas forcément optimisées face au bruit expérimental. Pour que les matrices [W ] et [A] soient bien "conditionnées" (c'est-àdire les plus différentes de matrices non-inversibles), des outils sur l'évaluation de la propagation des erreurs ont été développés dans le cadre de la polarimétrie. On peut citer les plus couramment utilisés : - Le nombre de conditionnement C([M ]) [27, 28], appliqué à une matrice [M ] (où C([M ]) ≥ 1). Ce nombre vaut 1, pour les matrices singulières et + ∞ pour les matrices idéalement conditionnées. Ce critère évalue donc la singularité d'une matrice et donne accès à sa capacité à propager les erreurs. Mais il ne prend pas en compte la redondance des équations [29]. - Le critère EWV [30] évalue la propagation globale du bruit expérimental à travers le système. Plus le nombre EWV est petit, plus l'effet du bruit est faible. Contrairement au précédent critère, celui-ci permet d'appréhender la redondance des équations dans la détermination des coefficients de Mueller. Les imperfections inhérentes au PSG et aux PSA sont sources d'erreurs systématiques, dont il est essentiel d'évaluer l'influence sur la mesure de la matrice de Mueller de l'échantillon ; cela passe alors par une étape de calibration. Étant donné son importance, cette étape a fait l'objet de nombreuses études [31, 32, 33, 34], proposant différentes solutions pour calibrer un polarimètre. Une des solutions consiste à modéliser de façon détaillée chaque élément composant le PSG et le PSA, ainsi que les sources d'erreurs [35, 36, 37, 38]. Cependant, lorsque la description de ces éléments est trop complexe, une méthode consiste à considérer le polarimètre comme une "boite noire" et à déterminer les matrices de génération [W ] et d'analyse [A] des états de polarisation grâce à des mesures sur des échantillons connus (polariseur, lame de phase) [39]. Dans le cadre de cette thèse, les éléments composants le PSG et le PSA (polariseurs et lames de -33- Chapitre I - Aspects théoriques, expérimentaux et applications de la polarimétrie de Mueller phase) étant relativement simples à simuler, une modélisation détaillée sera envisagée. Nous allons voir maintenant les différentes méthodes utilisées pour la génération et à l'analyse des états de polarisation. 3.2- Génération et analyse des états de polarisation Pour mettre en forme la polarisation de l'onde lumineuse, les PSG et PSA sont composés de polariseurs linéaires, suivis de un ou plusieurs déphaseurs. Ces derniers éléments optiques possèdent des orientations et/ou des déphasages qui peuvent être fixes ou contrôlées à l'aide de commandes mécaniques ou électriques. Dans la section suivante, nous allons distinguer trois domaines permettant d'effectuer une modulation de la polarisation de la lumière, à savoir : - le domaine temporel, - le domaine spectral, - le domaine spatial. 3.2.1- Le domaine temporel La méthode séquentielle de génération et d'analyse d'états de polarisation a connu depuis plusieurs années un développement important et est actuellement la plus répandue. La méthode consiste à acquérir séquentiellement au moins 16 intensités correspondant à 16 combinaisons différentes d'états de polarisation en génération et en analyse. La Figure I.8 représente le principe d'un montage type en polarimétrie de Mueller séquentielle. F IGURE I.8 – Principe d'un polarimètre de Mueller séquentiel Pour réaliser un codage séquentiel, des lames de phases tournantes montées sur des moteurs de rotation pas-à-pas ou continus peuvent être employées [33] [40, 41, 42]. L'avantage de ce type d'approche est l'utilisation d'éléments optiques homogènes et peu sensibles à l'angle d'incidence mais reste relativement lent (les fréquences de modulation et d'analyse sont de l'ordre de quelques Hz). En utilisant des modulateurs photoélastiques [43, 44, 45, 46], les fréquences de modulation peuvent atteindre plusieurs dizaines de kHz mais demandent une régulation en température précise. -34- Chapitre I - Aspects théoriques, expérimentaux et applications de la polarimétrie de Mueller Les modulateurs électro-optiques, comme les cellules de Pockels [47], permettent de contrôler électriquement le déphasage avec des fréquences de modulation de plusieurs dizaines de MHz. Cependant, ils possèdent aussi une grande sensibilité à la température, une fenêtre spectrale plus étroite que les modulateurs photoélastiques et nécessitent des tensions de commande élevées (jusqu'à plusieurs kV). Les polarimètres de Mueller les plus répandus utilisent principalement des modulateurs à base de cristaux liquides [28] [48, 49, 50, 51]. Ces éléments présentent de nombreux avantages tels que leurs faibles coûts, leurs fréquences de modulation importantes (de quelques dizaines de Hz à quelques dizaines de kHz) et ils nécessitent de faibles tensions de commande (quelques volts). Parmi les cellules à cristaux liquides les plus couramment employées, il en existe deux types : - les cristaux liquides nématiques agissent comme des lames de phase avec une orientation fixe des lignes neutres mais où le retard de phase linéaire varie en fonction de la tension de commande. Les temps de réponse sont de l'ordre de plusieurs millisecondes. - les cristaux liquides ferroélectriques agissent comme des lames de retard avec un retard fixe mais dont l'orientation des lignes neutres bascule entre deux positions, séparées de 45°. La principale différence avec les cristaux nématiques est un temps de réponse bien inférieur, de l'ordre de quelques centaines de microsecondes. Étant donné le temps nécessaire pour coder et décoder l'ensemble des états de polarisation indispensables à la détermination d'une matrice de Mueller, la limite fondamentale du codage temporel est la stabilité temporelle du milieu d'étude pendant la durée de mesure. 3.2.2- Le domaine spectral En 1999, Oka a été le premier à exploiter le domaine spectral en développant un polarimètre de Stokes (ou encore "channeled spectropolarimeter") [52] capable de mesurer les 4 paramètres de Stokes d'une lumière incidente à partir d'un seul spectre I(λ ). Un des avantages de ce système est qu'il ne nécessite aucun élément actif (les lames de phase sont fixes pendant la mesure) contrairement au domaine temporel. Ensuite en 2007, Hagen [53, 54] a proposé l'idée d'un polarimètre de Mueller complet de type "snapshot" pour des applications en spectropolarimétrie (appelé "Snapshot Mueller Matrix Spectropolarimeter" ou SMMSP). En parallèle, le LSOL (Brest) a développé la première version expérimentale d'un polarimètre de Mueller "instantané" utilisant le codage spectral (appelé "Snapshot Mueller Matrix Polarimeter" ou SMMP) [55, 56]. Le principe de base consiste à attribuer à chaque longueur d'onde un état de polarisation particulier grâce à une source large bande et des lames de phase d'ordre élevé. Le PSG et le PSA sont fixes pendant la mesure et sont constitués de polariseurs linéaires et de lames de phase dont les épaisseurs et les orientations sont choisies judicieusement pour engendrer un nombre suffisant d'états de polarisation. Ce polarimètre permet alors l'acquisition de toute l'information polarimétrique du milieu grâce à l'analyse d'un seul spectre cannelé dont on exploite la composition "spectrale". L'amplitude et la phase des différentes fréquences du spectre sont liées aux coefficients de Mueller car le spectre cannelé est en effet modulé par la signature polarimétrique de l'échantillon. La Figure I.9 illustre le principe de la mesure d'une matrice de Mueller avec ce -35- Chapitre I - Aspects théoriques, expérimentaux et applications de la polarimétrie de Mueller type de polarimètre. F IGURE I.9 – Schéma de principe d'un polarimètre de Mueller par codage spectral. Le fait que ces blocs de codage et de décodage soient passifs apporte un avantage majeur en terme de robustesse et surtout de rapidité d'acquisition, uniquement limitée par le détecteur. A l'heure actuelle, avec cette approche il est possible d'atteindre des temps d'acquisition pour mesurer la réponse polarimétrique du milieu de quelques microsecondes. La limitation fondamentale de cette technique est que la signature polarimétrique du milieu ne doit pas trop évoluer en longueur d'onde dans la fenêtre d'analyse spectrale considérée. 3.2.3- Le domaine spatial Il existe plusieurs possibilités pour exploiter le domaine spatial en polarimétrie et plus spécialement en imagerie polarimétrique. L'idée est de paralléliser au maximum l'information dans le domaine spatial afin de réduire le temps de mesure. On peut citer par exemple les polarimètres : - "division of amplitude" (DoA ou DoAM) qui utilisent plusieurs détecteurs et des cubes séparateurs afin de paralléliser la génération et/ou l'analyse des états de polarisation [57, 58]. Cela donne naissance en général à des systèmes dont l'encombrement est important. - "division of aperture" (DoAP) qui n'utilisent qu'un seul détecteur associé à un système imageur permettant d'obtenir de manière parallèle plusieurs images sur le même détecteur correspondant à des états de polarisation différents [59]. Cette méthode, plus compacte que la précédente, souffre néanmoins d'une perte de résolution spatiale pour l'imagerie. - "division of focal-plane array" (DoF) qui intègrent directement au niveau de la caméra des microgrilles de polariseurs [60] permettant l'analyse simultanée, via des "superpixels", d'une partie des propriétés polarimétriques de l'onde incidente [61]. Une perte de résolution spatiale est également engendrée par ce principe. Cependant, aucune de ces méthodes ne permet d'obtenir la matrice de Mueller complète d'un échantillon. Plus récemment, un nouveau principe a été proposé par M.W. Kudenov [62, 63] -36- Chapitre I - Aspects théoriques, expérimentaux et applications de la polarimétrie de Mueller afin d'utiliser le domaine spatial pour obtenir une image polarimétrique de Mueller. Il s'agit de générer des interférences à partir de plusieurs faisceaux polarisés que l'on a séparés spatialement grâce à des réseaux de polarisation (polarization gratings). Ces réseaux permettent en effet de diffracter dans les ordres +1 et -1 deux ondes polarisées circulairement droite et gauche respectivement. En recombinant les différents faisceaux ayant des séparations spatiales bien déterminées, on peut générer des interférences au niveau de l'échantillon, qui sont ensuite analysées et ré-imagées au niveau d'une caméra. Les franges d'interférence sont de cette manière modulées par la signature polarimétrique de l'échantillon. Afin de remonter à tous les coefficients de la matrice de Mueller, il faut générer au moins 16 fréquences spatiales et analyser leur amplitude et phase dans l'espace de Fourier spatial 2D. Cette méthode est en fait le pendant spatial de la polarimétrie de Mueller par codage spectral décrite dans le paragraphe précédent. L'avantage principal de cette technique est qu'elle permet la mesure instantanée (1 seule acquisition) de l'image de Mueller d'un échantillon. Elle souffre malgré tout d'une perte intrinsèque de résolution spatiale. En effet, la signature polarimétrique de l'échantillon doit évoluer lentement par rapport à la période spatiale des franges d'interférences, afin d'éviter un recouvrement des différents canaux. De plus, le dispositif possède une complexité importante ce qui le rend difficilement intégrable dans un système d'imagerie microscopique commercial. 3.3- Développements en imagerie polarimétrique de Mueller Nous venons de présenter les différentes approches pour coder/décoder les états de la polarisation (temporelle, spectrale et spatiale). Ces différentes approches peuvent être plus ou moins adaptées en fonction de l'information recherchée. En effet, il est parfois souhaitable de connaitre les variations des coefficients de Mueller en fonction du temps, de la longueur d'onde ou des coordonnées spatiales (imagerie). Par exemple, il y aura une limitation à l'étude de la dynamique temporelle des coefficients de Mueller si on utilise un codage séquentiel de la polarisation pour mesurer ces coefficients. Le but de la thèse est de développer un polarimètre de Mueller pouvant être intégré sur un microscope à balayage afin de réaliser de l'imagerie multimodale linéaire (Mueller) et non linéaire (SHG/TPEF). Ainsi, on s'intéressera uniquement aux polarimètres de Mueller imageurs existants dans la littérature, afin de pointer leur incapacité à être intégrés sur un microscope à balayage pour réaliser de l'imagerie multimodale en temps réel. Il existe 2 philosophies pour réaliser de l'imagerie de Mueller : - l'imagerie plein champ, - l'imagerie à balayage. Le codage séquentiel est bien adapté à l'imagerie plein champ. Cela nécessite l'acquisition séquentielle de plusieurs images afin de reconstruire une image de Mueller. A l'heure actuelle, les dispositifs les plus rapides permettent de générer une image de Mueller en moins d'une seconde. L'approche séquentielle peut aussi s'envisager pour de l'imagerie à balayage mais nécessite la mesure d'images successives rallongeant considérablement le temps de mesure. En effet, le temps de mesure d'une matrice de Mueller dans cette philosophie est en général bien -37- Chapitre I - Aspects théoriques, expérimentaux et applications de la polarimétrie de Mueller supérieur au temps de résidence par pixel de l'imagerie à balayage. Le codage spatial n'est adapté qu'à l'imagerie plein champ car il est basé sur la démodulation de franges d'interférences qui se forment sur une caméra. Le gros avantage est qu'une seule mesure est nécessaire pour obtenir une image de Mueller au détriment d'une perte de résolution spatiale, ce qui l'empêche d'être un bon candidat pour la microscopie. Le codage spectral, sous une forme qui utilise un spectromètre, n'est pas envisageable pour de l'imagerie plein champ à cause de l'analyse spectrale. Il est par contre a priori adapté pour l'imagerie à balayage, sous réserve d'utiliser un spectromètre ayant une cadence d'acquisition compatible avec la vitesse de balayage des scanners. Nous allons maintenant présenter quelques configurations de polarimètres de Mueller imageurs et les technologies associées. 3.3.1- Imagerie plein champ L'imagerie plein champ consiste à former l'image de l'échantillon sur un détecteur pixellisé (caméra CCD ou CMOS). Ainsi, on obtient les caractéristiques polarimétriques d'un échantillon en tout point de l'image. B. Laude-Boulesteix a repris le polarimètre de Mueller à cristaux liquides nématiques développé par A. De Martino en 2003 [64] pour l'amener en configuration d'imagerie en 2004 [65], illustrée Figure I.10. F IGURE I.10 – Schéma expérimental du polarimètre imageur à base de cristaux liquides développé par B. Laude-Boulesteix [65]. SC : source lumineuse. F : filtre interférentiel (500 nm, 550 nm, 600 nm, 650 nm et 700 nm). P : polariseur linéaire. LCs : cristaux liquides à retards variables. Sp : échantillon. A : polariseur linéaire (analyseur). L : lentille. D : caméra CCD. C : Condenseur. O : objectif de microscope. Une image pour chaque état de polarisation est acquise et est moyennée 15 fois pour atteindre un rapport signal sur bruit satisfaisant. Grâce à la rapidité de commutation des cristaux liquides composant le PSG et le PSA (de l'ordre de 60 ms), une image de Mueller peut être obtenue en quelques secondes. Dans le but de réduire les temps de codage des états de polarisation par rapport à des nématiques, P.G. Ellingsen a proposé un polarimètre de Mueller à cristaux liquides ferroélectriques en 2010 [66]. Cette technique, permettant de mesurer des matrices de Mueller en 8 -38- Chapitre I - Aspects théoriques, expérimentaux et applications de la polarimétrie de Mueller ms, a été déclinée en configuration d'imagerie en 2011 [67] dont le dispositif expérimental est présenté Figure I.11. F IGURE I.11 – Schéma expérimental du polarimètre imageur à base de cristaux ferro-électriques développé par P.G. Ellingsen [67]. R1, R2, R3, R4 : lames quart-d'onde d'ordre 0, à 465 nm (R1/R4) et à 510 nm (R2/R3). P1 et P2 : polariseurs linéaires. F1, F2, F3 et F4 : cristaux ferro-électriques, à 510 nm (F1/F4) et à 1020 nm (F2/F3). Les deux exemples précédents présentent des systèmes imageurs en transmission mais il en existe également dans la configuration en réflexion comme décrit les travaux de M. Anastasiadou en 2007 [68], dont le schéma de son dispositif expérimental est présenté Figure I.12. F IGURE I.12 – Schéma expérimental du polarimètre imageur en réflexion développé par M. Anastasiadou [68]. Chaque image est moyennée 7 fois, ce qui donne lieu à la génération d'une image de -39- Chapitre I - Aspects théoriques, expérimentaux et applications de la polarimétrie de Mueller Mueller de définition 256 × 256 en 11 s. Des filtres interférentiels sont placés après le PSA dans le but de réaliser des images de Mueller à différentes longueurs d'onde, de 500 nm à 700 nm. En 2013, M. Mujat [69] a aussi décrit le développement d'un microscope polarimétrique utilisant des cristaux liquides en configuration transmission et réflexion, dont la modélisation (en Zemax@) et les photos du dispositif sont présentées Figure I.13. F IGURE I.13 – Modélisation opto-mécanique en Zemax@ et photo du dispositif expérimental proposé par M. Mujat [69] en configuration de transmission (à gauche) et en réflexion (à droite). Mi (i = [1,5]) : miroir réfléchissant. Li (i = [1,6]) : lentille. BSPL (Non-Polarized Beam Splitter) : cube séparateur. MOi (i = [1,2]) : objectif. DAQ (Data Acquisition) : carte d'acquisition. CCD : caméra. Par une simple commutation d'un miroir plan après l'échantillon, son système est capable de passer simplement d'une configuration à l'autre. Une image de Mueller nécessite aussi 16 images d'intensité mais son intérêt vient de sa compacité (30cm × 46cm) et qu'il est complètement automatisé. En 2014, O. Arteaga a développé un microscope polarimétrique de Mueller par codage séquentiel, présenté Figure I.14. Les images d'intensité sont acquises par une caméra CMOS pendant que deux lames de phases tournantes modulent les états de polarisation continûment, technique qui s'inspire des travaux de R.M.A. Azzam en 1978 [70]. Pour chaque pixel, le signal modulé temporellement est analysé dans l'espace de Fourier afin de remonter aux coefficients de Mueller. Une photo du dispositif, ainsi qu'un schéma détaillé sont présentés Figure I.14. Ce système permet d'obtenir une image de Mueller en 72 s avec une résolution axiale d'environ 1 − 2μm en utilisant un objectif 50X. Il a été implémenté ensuite sur un microscope commercial [71]. -40- Chapitre I - Aspects théoriques, expérimentaux et applications de la polarimétrie de Mueller F IGURE I.14 – Montage expérimental et photo du microscope de Mueller, développé par O. Artega [71]. 3.3.2- Imagerie à balayage laser L'imagerie à balayage laser consiste à construire une image point par point par balayage du faisceau laser sur l'échantillon à des cadences relativement élevées (plusieurs centaines de kHz). Les premiers polarimètres de Mueller imageurs associés à des miroirs galvanométriques ont été développés dans le but de proposer des alternatives aux techniques déjà existantes en ophtalmologie, notamment l'OCT (ou Optical Coherent Tomography). On peut citer les travaux de J.M. Bueno et P. Artal en 1999 [49] qui ont développé un polarimètre à balayage pour l'étude de la rétine in vivo utilisant des cristaux liquides à retard variable pour le codage de la polarisation. Leurs études se sont poursuivies en 2000 [73] afin de comprendre l'influence de la variation de la taille de la pupille de l'oeil sur la biréfringence. En 2002, J.M. Bueno a proposé un polarimètre de Mueller imageur à balayage laser en réflexion [72], dont le principe est présenté Figure I.15. Il s'agit dans un premier temps de mesurer la matrice de Mueller du milieu à partir de 16 images d'intensité acquises de manière successive, ce qui peut prendre un temps relativement long. Ensuite, un algorithme permet de calculer les états de polarisation optimaux en codage et décodage permettant d'obtenir le meilleur rapport signal à bruit sur l'image [74]. Une image d'intensité optimale peut ainsi être générée en temps réel avec une connaissance a priori du milieu d'étude. -41- Chapitre I - Aspects théoriques, expérimentaux et applications de la polarimétrie de Mueller F IGURE I.15 – Microscope polarimétrique de Mueller à balayage laser pour des applications en ophtalmologie mis en place dans les travaux de J.M. Bueno [72]. (CS) Cube Séparateur Au cours de sa thèse, D. Lara [75] a proposé en 2005 un polarimètre de Mueller dans une configuration de microscopie confocale. Afin de diminuer le temps de mesure d'une matrice de Mueller, il a envisagé de paralléliser l'analyse de la polarisation en utilisant la méthode de "division of amplitude". Son système est schématisé Figure I.16. F IGURE I.16 – Schéma du montage expérimental du polarimètre de Mueller imageur confocal, développé par D. Lara [75]. ND : densité optique (Neutral density). M1 : miroir. L1, lentille de collimation. Obj1–Obj3 : objectif. D1–D4, photodetecteurs. Bs1–Bs3 : cube séparateur non-polarisant. PBs4 : séparateur polarisant. Ph : pinhole. Qwp : lame quart d'onde. P0, P45 : polariseurs linéaire à 0° et à 45°. Ce dispositif permet la mesure de 16 états de polarisation indépendamment en utilisant un ensemble de séparateurs et de canaux de détection. Ainsi, le temps de mesure d'une matrice de Mueller est de l'ordre de 50 ms. La philosophie confocale lui permet d'atteindre une résolution -42- Chapitre I - Aspects théoriques, expérimentaux et applications de la polarimétrie de Mueller axiale de 30μm. En 2006, les applications de son système se sont tournées vers l'ophtalmologie [76]. Cette configuration souffre d'un encombrement important et d'une mise en oeuvre assez lourde et n'a d'ailleurs pas donné naissance à un système imageur opérationnel. En 2008, K.M. Twietmeyer [77] a proposé de modifier un polarimètre commercial à balayage laser (nommé GDx) dans le but d'améliorer la détection de glaucome. Ce système commercial permet de remonter à la biréfringence linéaire mais pas à la diatténuation ni à la dépolarisation. Son système amélioré (nommée alors GDx-MM) utilise des cristaux liquides pour coder la polarisation dont le schéma expérimental est présenté Figure I.17. F IGURE I.17 – Schéma du montage expérimental du microscope polarimétrique de Mueller, développé par K.M. Twietmeyer [77]. NPBS : cube séparateur non-polarisant. PBS : cube séparateur polarisant. APD : photodiode à avalanche. LCR : cristaux liquides. Ce polarimètre de Mueller imageur complètement automatisé enregistre 72 images de polarisation en 4 s avec une résolution latérale de 20μm. L'inconvénient de la technique est intrinsèquement lié à l'approche séquentielle. En effet, si la durée de la mesure d'une matrice de Mueller est supérieure au temps de résidence par pixel (plusieurs μs), il n'est pas possible d'obtenir une image de Mueller en un seul balayage du faisceau laser sur l'échantillon. -43- Chapitre I - Aspects théoriques, expérimentaux et applications de la polarimétrie de Mueller 4- Applications de l'imagerie polarimétrique de Mueller Il existe aujourd'hui un large champ d'applications en polarimétrie de Mueller expliquant que le nombre de travaux dans ce domaine est de plus en plus important comme en témoigne les références [78, 79]. Les technologies de plus en plus avancées ont permis à la polarimétrie de Mueller de bénéficier d'un large choix de combinaisons source/détecteur avec des techniques pour générer et analyser les états de polarisation rapidement. Au cours des dernières décennies, de nombreux domaines d'étude se sont tournés vers l'imagerie polarimétrique de Mueller complète ou incomplète qui fournit des informations supplémentaires sur un milieu, inaccessibles avec des méthodes plus conventionnelles. 4.1- Détection de cible Les techniques de polarimétrie de Mueller ont récemment montré qu'il était possible de différencier une cible particulière du fond où elle se situe grâce à un codage en polarisation adapté à la nature du milieu éclairé. Cette application impose la mise en place d'un dispositif en configuration de réflexion diffuse dont le principe expérimental est schématisé Figure I.18. F IGURE I.18 – Principe de la polarimétrie de Mueller pour des applications de détection de cible en réflexion diffuse, présenté dans l'article de N. Vannier [80]. En 1999, S. Breugnot et P. Clémenceau [81] proposèrent un polarimètre de Mueller imageur couplé avec un télescope pour détecter des objets éloignés de plusieurs dizaines de mètres. La technique pour coder la polarisation, introduite par R.M.A Azzam en 1997 [82], utilise des lames de phases tournantes. L'étude a permis de montrer que pour différents types de cible (en métal, en bois ou encore en papier), la matrice de Mueller était principalement diagonale ciblant un effet prépondérant de dépolarisation. Il est alors pas nécessaire de mesurer 16 intensités pour déterminer la matrice de Mueller. Ensuite, d'autres applications ont permis d'étudier la maximisation du contraste entre une cible et son environnement à partir d'états de polarisation optimaux, comme les travaux menés par F. Goudail en 2009 [74] et G. Anna en 2011 [83] et 2012 [84]. Cette technique nécessite néanmoins la détermination au préalable de la l'image de Mueller de la scène, indispensable à la détermination de ces états de polarisation optimaux. Enfin, plus récemment, les travaux de N. Vannier en 2015 [80] et en 2016 [85] ont consisté à mettre en place un polarimètre de Mueller utilisant des cristaux liquides pour coder les états de polarisation dans le but de révéler la présence de matériaux métalliques "camouflés" dans un environnement naturel (feuillage, boue, etc). -44- Chapitre I - Aspects théoriques, expérimentaux et applications de la polarimétrie de Mueller F IGURE I.19 – (en haut) Images de la matrice de Mueller d'une scène composée de morceaux de papier recouverts d'une peinture, présentés dans le travaux de G. Anna [84]. (en bas) Image optimisée avec des états de polarisation pour accentuer le contraste. Cependant, certains paramètres de contraste doivent être redéfinis et demandent des traitements d'image plus approfondis pour tenir compte de différentes conditions expérimentales. En effet, l'homogénéité de l'éclairage de la scène est un facteur important dans la détermination du contraste. De plus, le fond dans lequel est plongé le milieu d'intérêt peut présenter des différences de réflexion suivant sa nature. 4.2- Imagerie des tissus biologiques Au cours des dernières années, la polarimétrie de Mueller s'est tournée vers l'analyse des tissus biologiques (peau, foie, oeil, ), notamment en vue de proposer des outils de diagnostic médical [86, 87, 88, 89]. Ces techniques d'imagerie polarimétrique pourraient être complémentaires à celles déjà utilisées dans le domaine médical. Les travaux de J.S. Baba en 2002 [90] se sont tournés vers le diagnostic du cancer de la peau. Ce dispositif a été validé en configuration de réflexion diffuse et a permis de conclure qualitativement que lors d'une altération ou une dénaturation des tissus biologiques provoquée par l'apparition d'une pathologie, les paramètres de retardance et de dépolarisation sont les plus susceptibles d'être modifiés. En 2004, B. Laude-Boulesteix a proposé un polarimètre en transmission pour étudier la diatténuation et la retardance à plusieurs longueurs d'onde sur des échantillons de foie fibrosé marqués au rouge Sirius (colorant qui exalte la biréfringence des fibres de collagène) et d'artères de rat marqués [65]. Il a été montré que pour ce type d'échantillon, la retardance n'est pas le -45- Chapitre I - Aspects théoriques, expérimentaux et applications de la polarimétrie de Mueller seul paramètre pertinent que l'on peut avoir (effet classiquement attribué à l'application du rouge Sirius) mais la diatténuation et la dépolarisation contiennent également une information intéressante. En 2007, J. Chung s'est intéressé à la signature polarimétrique à différents stades précancéreux qui engendrent une altération de l'épithélium [91]. Cette étude sur des coupes de la cavité buccale de hamsters comportant des dysplasies a permis de mettre en évidence que les phénomènes de dépolarisation sont plus importants dans les tissus sains que dans les lésions pré-cancéreuses. La même année, S. Guyot [92] a observé également la modification des paramètres polarimétriques dans le cadre de l'apparition de mélanomes et de l'irradiation cutanée. En 2008, le polarimètre développé par K.M. Twietmeyer, décrit Figure I.17, a été utilisé pour l'amélioration dans la détection de glaucome. Il en a conclu que le développement de cette pathologie peut être associé à une augmentation de la diatténuation sur la rétine, plus importante que la retardance. F IGURE I.20 – Images des paramètres polarimétriques après décomposition du nerf optique, obtenues avec les travaux de K.M. Twietmeyer [77]. (a) Image en intensité moyenne. (b) Image en retardance linéaire. (c) Image de l'orientation de la retardance. (d) Image de l'indice de dépolarisation. (e) Image de la diatténuation linéaire. (f) Image de l'orientation de la diatténuation. -46- Chapitre I - Aspects théoriques, expérimentaux et applications de la polarimétrie de Mueller En 2010, M.R. Antonelli a mis en évidence la réponse de colons humains présentant des zones tumorales à l'aide d'un polarimètre de Mueller en réflexion [93]. Un exemple de cette étude Figure I.21 montre que les matrices de Mueller mesurées sont essentiellement diagonales témoignant de l'absence de diatténuation et de retardance. Les tissus du colon se comportent donc comme des dépolariseurs partiels. De plus, il a été montré que les zones tumorales dépolarisent moins que les zones saines dans les premiers stades de la maladie. F IGURE I.21 – Images d'intensité et de Mueller d'un échantillon de colon, d'un champ de vue de 5cm × 5cm, obtenues dans les travaux de M.R. Antonelli [93].(a) Image en intensité, prise à 600 nm. (b) Image d'un autre échantillon, prise à 700 nm. (c) Image de Mueller normalisée de l'échantillon en (a). (d) Image de Mueller normalisée de l'échantillon en (b). Les échelles sont indiquées sur la droite des images de Mueller. Les zones tumorales sont entourées en noir. De 2011 à 2013, A. Pierangelo a proposé un ensemble d'études sur différents types de cancers (associés au colon [94], à l'utérus [95], etc) comparée à l'analyse de coupes histologiques observées en imagerie par absorption. En réflexion diffuse, il a comparé des échantillons à différents stades d'avancement de la pathologie et mis en évidence les lésions pré-cancéreuses par rapport aux régions saines par l'analyse des paramètres de dépolarisation et de retardance [96], dont un résultat est présenté Figure I.22. A travers une série d'applications en 2014 et 2015 [97, 98], le dispositif développé par O. Arteaga, décrit Figure I.14, a permis l'imagerie de différents milieux inhomogènes (biologiques -47- Chapitre I - Aspects théoriques, expérimentaux et applications de la polarimétrie de Mueller F IGURE I.22 – Images d'intensité, de dépolarisation (∆), de retardance (R) et d'orientation de l'axe de la biréfringence (α) sur une coupe de cancer utérin dans les travaux de A. Pierangelo [95]. Le contour en noir indique la limite de la biopsie, les zones hachurées en blanc correspondent aux zones saines et celles en hachures rouges aux zones pathologiques. et manufacturés) dont un exemple de caractérisation d'aile de papillon est illustré Figure I.23. Certains travaux en polarimétrie de Mueller explorent la possibilité d'emprunter une voie endoscopique, composée d'une fibre optique, pour avoir accès aux tissus et organes internes afin d'envisager de l'imagerie in vivo et in situ. Quelques équipes ont déjà proposé des solutions avec des études de faisabilité. Le premier polarimètre de Mueller endoscopique a été développé en 2015 par S. Manhas [99], dont les travaux ont été poursuivis au cours de la thèse de J. Vizet [100]. Ce polarimètre utilisant des cristaux liquides comme modulateur d'états de polarisation permet d'obtenir des matrices de Mueller en 70 ms par point. L'échantillon est placé sur une platine de translation XY et la réponse est mesurée point par point à l'aide d'une photodiode. Afin de séparer la réponse de la fibre de celle du milieu, un micro-miroir commutable est utilisé. La mesure se fait alors en deux temps : lorsque le miroir est en position ON, la réponse de la fibre seule est mesurée. Puis en position OFF, ce sont les réponses de celle-ci et du milieu qui sont mesurées. Par une simple inversion de matrice, on arrive alors à isoler la réponse du milieu seul. Cette technique souffre d'une faible rapidité d'acquisition d'image de Mueller, incompatible avec les demandes en temps réel pour la routine clinique. De plus, la mesure de la réponse de la fibre et du milieu ne se fait pas de manière instantanée, ce qui pose problème dans la correction des mouvements lors de la mesure. Afin de réaliser des mesures qui permettent de compenser la réponse de la fibre -48- Chapitre I - Aspects théoriques, expérimentaux et applications de la polarimétrie de Mueller F IGURE I.23 – Images de Mueller d'une aile de papillon obtenues dans les travaux de O. Arteaga [98]. Les coefficients hors diagonaux ont été multipliés par un facteur indiqué sur l'image afin d'accentuer le contraste pour ces éléments. en temps réel, une méthode alternative a consisté à utiliser deux longueurs d'onde différentes ; une pour la fibre et l'autre pour le milieu, via un dichroı̈que entre la fibre et le milieu [101]. Ce développement expérimental permet de gagner en temps de mesure car il n'y a plus de système actif en dehors des blocs de PSG et de PSA, mais reste encore trop lent pour de l'imagerie en temps réel. En 2015 et 2016, S. Rivet [102] a poursuivi les travaux de M. Dubreuil concernant la polarimétrie de Mueller à codage spectral de la polarisation pour développer un système endoscopique. Il a montré que les informations polarimétriques de la fibre et du milieu sont obtenues sous la forme d'un seul spectre en une seule acquisition. Les cadences d'acquisition de 70 kHz en un point permettent d'envisager de l'imagerie à balayage in vivo en quasi-temps réel, avec une compensation instantanée des effets dus à la fibre. En 2016, J. Qi a développé un endoscope rigide pour la polarimétrie de Mueller [103], en imagerie plein champ. Le PSG et le PSA ont été directement placés dans une tête endoscopique commerciale, et permettent la mesure d'une image polarimétrique de Mueller en 15 s. Ces applications se sont tournées vers l'évaluation des paramètres de diatténuation, de retardance et de leurs orientations sur une vessie de porc, comme illustré Figure I.24. Les images présentées ici possèdent un champ de 7, 8 × 7, 8cm2 . -49- Chapitre I - Aspects théoriques, expérimentaux et applications de la polarimétrie de Mueller F IGURE I.24 – Imagerie sur une vessie de porc, décrit dans les travaux de J. Qi [103], par l'intermédiaire d'un polarimètre de Mueller fibré. (a) Images en intensité (non-polarisée). (b) Images de Mueller en retardance. (c) Images de Mueller de l'orientation de la retardance. (d) Image de Mueller en diatténuation. 4.3- Imagerie multimodale des tissus biologiques Certaines équipes ont commencé à s'intéresser à l'association du contraste polarimétrique avec des contrastes issus de la microscopie non linéaire (en particulier la SHG). Cependant, dans ces études, la comparaison des images n'est pas directe car elles sont obtenues à partir de 2 dispositifs différents : un dispositif d'imagerie plein champ pour le Mueller et un dispositif de microscopie à balayage pour le non-linéaire. P.G. Ellingsen a effectué en 2011 des études comparatives entre la microscopie polarimétrique de Mueller (avec le même système présenté la même année [67]) et l'imagerie multiphotonique [104], pour proposer des pistes de diagnostic de pathologies associées au cartilage articulaire. En 2012, M. Dubreuil [105] a proposé des pistes sur la discrimination entre le collagène "pathologique" et le collagène "naturel" d'échantillons de foie fibrosé. Cette discrimination se base sur l'exploitation de la dépolarisation ; en effet, il a été montré qu'elle est plus forte autour des vaisseaux sanguins que dans les autres zones de la matrice extra-cellulaire, comme démontré Figure I.26. L'association de ces deux modalités d'imagerie polarimétrie/multiphotonique a également fait l'objet de travaux par S. Bancelin en 2014 [106]. L'étude a permis également de mettre en -50- Chapitre I - Aspects théoriques, expérimentaux et applications de la polarimétrie de Mueller F IGURE I.25 – Étude comparative entre l'imagerie en SHG et en polarimétrie de Mueller sur une section transverse d'un échantillon de cartilage de poule, décrite dans les travaux de P.G. Elligsen [104]. (a) Images en SHG et (b) d'orientation . (c) Images de Mueller codées en retardance et (d) et codées en indice de dépolarisation. F IGURE I.26 – Images d'intensité (notées NP) et images de Mueller en fonction des paramètres polarimétriques, de retardance (R) et de dépolarisation (Pd), dans le cadre de l'étude de M. Dubreuil sur la fibrose hépatique [105]. (a) La série d'image (notée F4) représentent les fibres de collagène. (b) La série d'image (notée F0) représentent le collagène présent naturellement dans les vaisseaux sanguins. évidence la biréfringence des fibres de collagène des tissus de l'utérus marqués au rouge Sirius et de corréler leurs orientations avec celles des fibres déduites des images de SHG, comme présenté sur la Figure I.27. -51- Chapitre I - Aspects théoriques, expérimentaux et applications de la polarimétrie de Mueller F IGURE I.27 – Imagerie en polarimétrie de Mueller et en SHG sur des fibres de collagène, décrite dans l'étude de S. Bancelin [106]. (a) Image en transmission (terme m00 de la matrice de Mueller). (b) Image de SHG. (c) Image en orientation obtenue de la matrice de Mueller. (d) Image en orientation des fibres, obtenue en SHG. -52- Chapitre I - Aspects théoriques, expérimentaux et applications de la polarimétrie de Mueller Conclusion Lors de ce premier chapitre, nous avons introduit les bases théoriques de la polarisation de la lumière. L'interaction d'une onde lumineuse avec un milieu peut être décrit simplement grâce à des outils d'algèbre linéaire comme le formalisme de Jones. Cependant, cette description ne se limite qu'aux milieux non-dépolarisants, ce qui ne permet pas de traiter des phénomènes de dépolarisation. Pour cela, le formalisme de Stokes-Mueller a été introduit et permet de contenir entièrement la signature polarimétrique d'un milieu dans une unique matrice de Mueller 4 × 4 composée de 16 coefficients réels. Les effets polarimétriques élémentaires ont été décrits et correspondent au dichroı̈sme, à la biréfringence et la dépolarisation. De façon générale, ces trois effets sont mélangés et il est alors crucial de pouvoir les séparer. Pour cela, des outils ont été développés pour modéliser un milieu quelconque en éléments optiques simples basés sur la décomposition de la matrice de Mueller (polaire, Lu et Chipman) nécessitant une connaissance à priori du milieu. D'autre part, ces outils sont intéressants pour minimiser la propagation du bruit expérimental mais également pour décrire le milieu d'étude de la manière la plus réaliste. Pour déterminer expérimentalement la matrice de Mueller, le polarimètre de Mueller code la source lumineuse en polarisation et décode ses modifications après interaction un milieu. Dans le domaine temporel, la polarisation est codée et décodée séquentiellement et nécessite des éléments actifs (lames de phase tournantes, cristaux liquides ou modulateurs photo-élastiques) pendant la durée de la mesure. Ainsi, à partir d'au moins 16 mesures d'intensité, une matrice de Mueller peut-être déterminée en quelques ms. En utilisant le codage spectral, les éléments du PSG et du PSA sont fixes et la matrice de Mueller est obtenue par l'analyse d'un seul spectre I(λ ) réduisant le temps d'acquisition à quelques μs. Couplés avec l'une des deux philosophies d'imagerie (plein champ ou à balayage), il est possible de développer des polarimètres de Mueller imageurs dont le vaste champ d'application a pu être apprécié par un état de l'art en dernière partie de ce chapitre. L'objectif de ces travaux de thèse est d'implémenter un polarimètre de Mueller imageur au sein d'un système commercial de microscopie à balayage de type confocal. Or, on remarque que les dispositifs expérimentaux actuels sont essentiellement basés sur le codage séquentiel de la polarisation et ne permettraient pas de générer une image de Mueller à partir d'un seul balayage du faisceau laser et donc d'envisager de l'imagerie de Mueller par balayage en temps réel. C'est pour cela que l'on propose, dans le chapitre suivant, un polarimètre de Mueller inédit utilisant le codage spectral de la polarisation. Ce dispositif utilisant une source à balayage rapide en longueur d'onde à 100 kHz (ou swept-source) couplée avec un détecteur monocanal permet de mesurer toute la matrice de Mueller à partir d'un spectre cannelé (quelques μs), dans des temps compatibles avec l'imagerie à balayage. De plus, ce système ne nécessite aucun élément actif et compact permet d'envisager son implémentation au sein d'un microscope à balayage de type confocal. -53- Chapitre I - Aspects théoriques, expérimentaux et applications de la polarimétrie de Mueller -54- Chapitre II - Polarimètrie de Mueller à codage spectral utilisant une swept-source Chapitre II Polarimètre de Mueller par codage spectral utilisant une swept-source -55- Chapitre II - Polarimètrie de Mueller à codage spectral utilisant une swept-source Introduction Dans le cadre de sa thèse en 2010, M. Dubreuil a développé un polarimètre de Mueller non-imageur à codage spectral de la polarisation utilisant une diode super-luminescente et un spectromètre [107]. Ce système inédit, de type "snapshot", permet de mesurer toute la réponse polarimétrique du milieu sous la forme d'un spectre cannelé I(λ ). Cependant, cette configuration est à priori peu adaptée pour l'imagerie par balayage laser en transmission dû au déplacement du faisceau laser sur la surface d'entrée du spectromètre. On propose alors un autre prototype de polarimètre de Mueller en remplaçant la diode superluminescente par une source à balayage en longueur d'onde rapide à 100 kHz (ou swept-source) et le spectromètre par un détecteur monocal dont la surface est compatible avec l'imagerie à balayage en transmission. Ce nouveau dispositif est proposé en configuration de transmission et de réflexion en vue d'explorer les difficultés associées à ces deux configurations. La première partie de ce chapitre est consacrée à la présentation du codage spectral qui consiste à déterminer la matrice de Mueller à partir d'un spectre cannelé dont on applique un traitement mathématique spécifique dans l'espace de Fourier. Le développement de ce nouveau polarimètre de Mueller avec les différents éléments qui le constituent (swept-source, lames de phase et détecteur) y est décrit. Dans la seconde partie, nous nous intéressons aux erreurs systématiques associées, entre autres, au générateur (PSG) et à l'analyseur (PSA) d'états de polarisation qui sont constitués de lames de phases d'épaisseurs et d'orientations spécifiques. Une procédure de calibration est détaillée afin de corriger numériquement les erreurs systématiques. Elle consiste à exploiter les spectres cannelés obtenus à l'aide d'échantillons connus (milieux étalons), préalablement à la mesure d'une matrice de Mueller d'un milieu inconnu. La troisième partie présente la validation de la mesure de la matrice de Mueller en transmission. Le protocole de calibration utilise le vide et un polariseur linéaire comme milieux étalons. Les erreurs d'ordre aléatoire sont évaluées grâce à des mesures successives répétées, ainsi que celles d'ordre systématique par comparaison avec les valeurs attendues pour des milieux connus. La quatrième partie présente la validation de la mesure de la matrice de Mueller en réflexion. Le protocole de calibration est adapté à la prise en compte d'erreurs systématiques liées aux éléments du montage expérimental tels que le cube séparateur, indispensable dans cette configuration. Ce protocole est ensuite validé par la mesure sur les mêmes échantillons connus que dans la configuration précédente. Dans une cinquième partie, le polarimètre de Mueller à 100 kHz est utilisé pour former l'image de Mueller par déplacement de cette dernière avec une platine de translation XY, le faisceau laser étant fixe. Cette étude permet de montrer l'importance de la prise en compte des erreurs systématiques lors de la formation d'une image de Mueller. -56- Chapitre II - Polarimètrie de Mueller à codage spectral utilisant une swept-source 1- Polarimétrie de Mueller à codage spectral 1.1- Le codage spectral 1.1.1- Considérations théoriques On considère une lame de phase d'épaisseur e et de biréfringence ∆n, éclairée par une source large bande (polychromatique) de longueur d'onde centrale λ0 . L'expression de son retard est φ= 2π∆n(λ ) e λ (II.1) Le développement de Taylor à l'ordre 1 autour de λ0 de cette expression permet d'obtenir φ = φ ( λ0 ) + ∂φ ∂λ λ0 (λ − λ0 ) ce qui peut se simplifier par φ = φ0 + 2πf0 λ (II.2) avec φ0 = φ(λ0 ) − f0 = ∂φ ∂λ 1 ∂φ 2π ∂ λ λ0 λ0 λ0 φ0 correspond à la phase constante associée à l'ordre 0 donnant la position du signal dans la fenêtre d'analyse et f0 à la fréquence fondamentale associée à l'ordre 1 obtenue pour cette lame de phase d'épaisseur e. Ces deux paramètres dépendent tous les deux des caractéristiques de la lame (nature et épaisseur) et de la longueur d'onde centrale λ0 . La fréquence f0 n'est pas une fréquence temporelle mais la composante spectrale d'un signal périodique en longueur d'onde ; elle est donc homogène à l'inverse d'un chemin optique. Avec l'expression II.2, on en déduit qu'à chaque longueur d'onde sera associée un déphasage propre donc un état de polarisation spécifique. En effet, considérons un système optique éclairé par une source large bande et composé d'une lame de phase placée entre polariseurs croisés, dont l'axe rapide est à 45° par rapport à l'orientation de celui d'entrée comme illustré Figure II.1. L'intensité I(λ ) mesurée à l'aide d'un spectromètre est périodique dont l'expression est 1 I(λ ) = [1 − cos(φ0 + 2πf0 λ )] 4 -57- (II.3) Chapitre II - Polarimètrie de Mueller à codage spectral utilisant une swept-source F IGURE II.1 – Lame de phase d'épaisseur e placée entre polariseur et analyseur croisés, dont l'axe rapide fait un angle de 45° avec l'axe du polariseur d'entrée. Ce système est éclairé par une source large bande dont le signal, après interaction avec le milieu, est analysé à l'aide d'un spectromètre. F IGURE II.2 – Spectre cannelé normalisé de fréquence f0 , obtenu pour une lame de phase d'épaisseur e placée entre polariseur et analyseur croisés. 3 états de polarisations ont été représentés pour 3 longueurs d'onde particulières. Il s'agit d'un spectre cannelé dont l'intensité lumineuse est fonction de la longueur d'onde, comme représentée Figure II.2. Dans notre exemple, le choix d'une épaisseur particulière e de lame permet de générer 6 cannelures dans notre fenêtre d'analyse. Si on interprète la Figure II.2 en terme d'états de polarisation, on voit que les longueurs d'onde dont les intensités lumineuses sont nulles correspondent à des états de polarisation incidents au polariseur de sortie, parallèles au polariseur d'entrée. Inversement, lorsque les intensités sont maximales, ces longueurs d'onde ont des états de polarisation linéaires, perpendiculaires au polariseur d'entrée. Entre les deux, les intensités lumineuses sont à moitié transmises pour les états de polarisation circulaires. Cette illustration met en évidence notre capacité à générer un grand nombre d'états de polarisation simultanément en les codant spectralement par le biais d'un système complètement passif. La transformée de Fourier de ce signal I(λ ) se caractérise par un pic à la fréquence f0 comme illustré Figure II.3 dont la valeur absolue de la transformée de Fourier du spectre I(λ ) est écrite comme |F {I(λ )}| Afin de générer et analyser les états de polarisation nécessaires à la mesure d'une matrice de -58- Chapitre II - Polarimètrie de Mueller à codage spectral utilisant une swept-source F IGURE II.3 – Représentation de la valeur absolue de la transformée de Fourier du signal I(λ ), normalisée par le pic de composante continue. Mueller, on propose une configuration où le PSG et le PSA sont constitués de plusieurs lames de phase, d'épaisseurs et d'orientations spécifiques. 1.1.2- Détermination de la matrice de Mueller La mesure de la réponse polarimétrique complète d'un milieu est effectuée à l'aide d'une configuration particulière représentée en transmission sur la Figure II.4. Une source large bande éclaire tout d'abord un bloc de codage constitué d'un polariseur linéaire orienté à 0° (référence d'orientation du système), suivi de deux lames de phase d'épaisseur e dont les axes rapides sont orientés à 45° et à 0°. La modification des états de polarisation après interaction avec le milieu d'étude est analysée par un bloc de décodage composé de deux lames de phases d'épaisseur 5e dont les axes rapides sont orientés à 0° et à 45° et d'un polariseur linéaire à 90°. Cette configuration d'épaisseur de lames est donc appelée (e,e,5e,5e). F IGURE II.4 – Schéma du polarimètre de Mueller à codage spectral, dans la configuration (e,e,5e,5e). Le formalisme de Mueller nous permet de déterminer simplement le vecteur de Stokes en sortie d'un tel système, noté S~s , à partir de celui décrivant une lumière incidente S~i de la façon suivante -59- Chapitre II - Polarimètrie de Mueller à codage spectral utilisant une swept-source S~s = [P (90°)] . [R(5φ, 45°)] . [R(5φ, 0°)] . [M ] . [R(φ, 0°)] . [R(φ, 45°)] . [P (0°)] .S~i (II.4) avec - [P (θ)], la matrice de Mueller d'un polariseur linéaire orienté d'un angle θ, - [R(φ, θ)], la matrice d'un biréfringent linéaire de retard φ dont l'axe rapide fait un angle θ avec l'axe du polariseur d'entrée (axe de référence), - [M ], la matrice de Mueller du milieu d'étude, composée de 16 coefficients mij (i,j = 0,,3). L'intensité lumineuse détectée, qui est le premier paramètre S0 du vecteur de Stokes S~s à la sortie du système, s'écrit 32I(λ ) = 8m00 + 4m02 − 4m20 − 2m22 + (8m01 − 4m21 )cos(2πf0 λ ) − (4m02 − 2m22 )cos(2 × 2πf0 λ ) + 2m12 cos(3 × 2πf0 λ ) − 4m11 cos(4 × 2πf0 λ ) − (8m10 − 4m12 )cos(5 × 2πf0 λ ) − 4m11 cos(6 × 2πf0 λ ) + 2m12 cos(7 × 2πf0 λ ) − (m22 − m33 )cos(8 × 2πf0 λ ) + 2m21 cos(9 × 2πf0 λ ) + (4m20 + 2m22 )cos(10 × 2πf0 λ ) + 2m21 cos(11 × 2πf0 λ ) − (m22 + m33 )cos(12 × 2πf0 λ ) − (4m03 − 2m23 )sin(2 × 2πf0 λ ) − 2m13 sin(3 × 2πf0 λ ) + 2m13 sin(7 × 2πf0 λ ) + (m23 + m32 )sin(8 × 2πf0 λ ) − 2m13 sin(9 × 2πf0 λ ) − (4m30 + 2m32 )sin(10 × 2πf0 λ ) − 2m31 sin(11 × 2πf0 λ ) − (m23 − m32 )sin(12 × 2πf0 λ ) (II.5) Cette expression peut s'écrire aussi sous sa forme simplifiée " # 12 X I(λ ) = Re V0Re + (VnRe − jVnIm ) * ejn(2πf0 λ ) (II.6) n=1 VnRe VnIm où et sont des combinaisons linéaires des mij . L'intensité lumineuse I(λ ) est un signal périodique composé de plusieurs fréquences, multiples de la fréquence fondamentale f0 . Dans notre choix de configuration (e,e,5e,5e), on génère 13 fréquences, multiples de f0 , de 0 à 12 f0 . D'après l'expression de l'intensité lumineuse, on remarque qu'il existe un ensemble de combinaisons linéaires entre les coefficients mij et les amplitudes complexes des pics de Fourier en partie réelle (avec les cosinus) et en partie imaginaire (avec les sinus). Ces relations sont résumées dans le Tableau II.1 pour le cas idéal où l'on a bien (e,e,5e,5e). Ces relations peuvent être résumées dans un système d'équation, écrit sous forme matricielle : ~ V~ = [P ] .X où -60- (II.7) Chapitre II - Polarimètrie de Mueller à codage spectral utilisant une swept-source Fréquence V Re (×64) V Im (×64) 0 16m00 + 8m02 − 8m20 − 4m22 0 f0 16m01 − 8m21 0 2f0 −8m02 + 4m22 −8m03 + 4m23 3f0 4m12 −4m13 4f0 −8m11 0 5f0 −16m10 − 8m12 0 6f0 −8m11 0 7f0 4m12 4m13 8f0 −2m22 + 2m33 2m23 + 2m32 9f0 4m21 −4m31 10f0 8m20 + 4m22 −8m30 − 4m32 11f0 4m21 −4m31 12f0 −2m22 − 2m33 −2m23 + 2m32 Tableau II.1 – Relation entre amplitudes complexes des pics de la transformée de Fourier (en parties réelles et imaginaires) et les coefficients mij , dans la configuration idéale (e,e,5e,5e) avec φ0 = 0. - V~ est un vecteur colonne constitué de l'amplitude des pics de Fourier en partie réelle et imaginaire de la forme V~ = [V0Re V1Re V2Re V12Re V1Im V2Im V12Im ]T . ~ est un vecteur constitué des coefficients de la matrice de Mueller de l'échantillon, de la - X ~ = [m00 m01 m02 m03 m30 m31 m32 m33 ]T . forme X - [P ] est la matrice de passage de dimension 25 × 16 reliant ces deux vecteurs, détaillée en Annexe 7. En pratique, on note T F [I(λ )] la transformée de Fourier du signal I(λ ) à la fréquence nf0 telle que T F [I(λ )](nf0 ) = I ̃nf0 (II.8) La détermination des composantes des vecteurs V~ Re et V~ Im passe par la lecture des amplitudes complexes dans l'espace de Fourier grâce aux relations suivantes V~nRe = |I ̃nf0 | * cos[Arg(I ̃nf0 )] -61- (II.9) Chapitre II - Polarimètrie de Mueller à codage spectral utilisant une swept-source V~nIm = |I ̃nf0 | * sin[Arg(I ̃nf0 )] (II.10) Ensuite, par une simple mesure des pics de Fourier, on peut remonter aux 16 coefficients de Mueller à l'aide de la pseudo-inversion de l'équation II.7, telle que ~ = [P ]T * [P ] X −1 * [P ]T * V~ (II.11) Ces dernières relations permettent de remonter à la détermination des 16 coefficients de la matrice de Mueller à la longueur d'onde centrale λ0 , à la condition que [P] soit inversible. Cette matrice de passage ne dépend que du choix des épaisseurs des lames de phase du PSG et du PSA. L'intérêt de cette approche par codage spectral est que tous les éléments d'un tel système sont passifs et le temps de mesure pour une matrice est uniquement limité par le détecteur. La transformée de Fourier du signal d'un milieu fera apparaı̂tre des fréquences de modulation particulières, en fonction de sa nature et de son orientation. La Figure II.5 présente la forme théorique d'un spectre I(λ ) avec sa transformée de Fourier, pour différents milieux tels que le vide (absence d'échantillon), un polariseur linéaire orienté à 45° et une lame quart d'onde dont l'axe rapide est orienté à 45°. 1.1.3- Choix des épaisseurs des lames Le polarimètre de Mueller développé dans cette thèse emploie une configuration d'épaisseur de lames du PSG et du PSA notée (e,e,5e,5e). Il faut cependant avoir à l'esprit que la valeur de l'épaisseur de base e doit être judicieusement choisie. En effet, - Si l'épaisseur e est trop grande, la valeur de la fréquence de modulation fondamentale f0 augmente également. On veillera à générer des pics dans un domaine de fréquence étroit afin d'éviter une atténuation des pics à haute fréquence. De plus, les périodes risquent d'être sous-échantillonnées (non respect du critère de Nyquist). - Si l'épaisseur e est trop petite, le pic correspondant à la fréquence f0 dans l'espace de Fourier est altéré par le pic continu (fréquence nulle). Le choix de la configuration (e,e,5e,5e) n'est pas exclusif et il existe un nombre considérable de configurations qui permettent de réaliser un polarimètre de Mueller. Le choix de la configuration peut se baser sur le critère EWV (Equally-Weighted-Variance) [30] [29] servant notamment à connaitre la performance du système à propager le bruit expérimental. Les simulations numériques de la thèse de M. Dubreuil ont permis de mettre en évidence 4 configurations d'épaisseurs : - (e,e,5e,5e), faisant intervenir 26 équations, avec des fréquences allant de 0 à 12f0 . - (e,4e,2e,9e), faisant intervenir 27 équations, avec des fréquences allant de 0 à 16f0 . -62- Chapitre II - Polarimètrie de Mueller à codage spectral utilisant une swept-source F IGURE II.5 – Spectres théoriques et les transformées de Fourier associées, (a) pour le vide, (b) pour un polariseur linéaire orienté à 45° et (c) pour une lame quart d'onde dont l'axe rapide est orienté à 45°. - (2e,e,7e,14e), faisant intervenir 45 équations, avec des fréquences allant de 0 à 24f0 . - (3e,2e,e,8e), faisant intervenir 28 équations, avec des fréquences allant de 0 à 14f0 . Un compromis doit être alors fait entre la combinaison d'épaisseur apportant le plus d'équations, aux fréquences les moins élevées et dont le critère EWV est le plus petit. Le rapport (e,e,5e,5e) a alors été retenu car il fournit des fréquences relativement basses. 1.2- Montage expérimental du polarimètre de Mueller Le but de ce travail de thèse est de développer un polarimètre de Mueller utilisant le codage spectral de la polarisation pour l'insérer dans un microscope à balayage de type confocal commercial (Olympus) sur lequel ont déjà été implémentés les contrastes multiphotoniques SHG et TPEF. On est donc amené à mettre en oeuvre un unique système d'imagerie à balayage -63- Chapitre II - Polarimètrie de Mueller à codage spectral utilisant une swept-source laser multimodal linéaire et non-linaire dont le but serait d'acquérir, avec la même résolution, des images révélant des contrastes polarimétriques couplées avec celles obtenues en imagerie multiphotonique. Nous proposons alors un nouveau genre de polarimètre de Mueller imageur utilisant une sweptsource et un simple photodétecteur mono-canal. Étant donné que les vitesses de balayage des scanners permettent des temps de résidence par pixel (ou pixel-dwell time) de l'ordre de 10μs, une swept-source possédant une cadence de balayage en longueur d'onde de 100 kHz est un bon candidat. Avant de monter le microscope de Mueller à balayage, une validation du polarimètre avec une source à balayage en longueur d'onde est nécessaire. Dans ce chapitre, deux configurations sont étudiées, une en transmission et l'autre en réflexion, dont les schémas des dispositifs expérimentaux sont représentés Figure II.6. Nous allons maintenant détailler le rôle de chaque élément composant ce polarimètre, à savoir la swept-source, le détecteur et les lames de phases composant les blocs de codage et de décodage. 1.2.1- Utilisation d'une swept-source La source à balayage laser rapide en longueur d'onde utilisée est une swept source (Axsun Tech. Inc.@ SSOCT-1060), couramment utilisée pour les techniques de SS-OCT (Swept-Source Optical Coherent Tomography) [108]. La composition électronique du boitier de la swept-source est présentée en détail Figure II.7. Le principe de ce type de source est de balayer un spectre en longueur d'onde par un système interférentiel Fabry-Perot placé dans la cavité laser. Un premier miroir, qui se translate sur l'axe optique, modifie l'ordre d'interférence et un second miroir, fixe, permet de laisser passer des longueurs d'onde particulières. En effet, seules les longueurs d'onde associées à l'ordre k (où k est un entier), notées λk , sont transmises par le Fabry-Perot et s'écrivent sous la forme λk = 2L k (II.12) où L est est la distance séparant les deux miroirs composant le Fabry-Perot. A noter que le système en sortie du Fabry-Perot est doté d'un filtre qui permet de s'assurer qu'il n'y a émission que d'un seul ordre k à chaque balayage du spectre. Si le Fabry-Perot reste suffisamment longtemps à la même position, les modes de la cavité laser correspondant à la bande spectrale sélectionnée par le Fabry-Perot vont être ré-amplifiés par le milieu à gain (SOA ou Semiconductor Optical Amplifier) formant une raie laser intense de 55 pm de large (soit une longueur de cohérence de 13,5 mm à -6 dB). Ainsi, à chaque nouvelle position du Fabry-Perot, une raie laser unique à chaque longueur d'onde est observée, comme illustré Figure II.8. La principale différence de la swept-source comparée à la diode super-luminescente est que toute la puissance optique est disponible pour chaque longueur d'onde d'un large spectre. La swept-source utilisée balaye un spectre centré à λ0 = 1060nm sur une largeur de 110nm, à une cadence de 100 kHz (correspondant à un balayage du spectre aller-retour en 10 μs) [109] et possède une puissance optique de 14 mW. Le système d'émission laser passe par une fibre -64- Chapitre II - Polarimètrie de Mueller à codage spectral utilisant une swept-source F IGURE II.6 – Schéma du polarimètre de Mueller utilisant une swept-source a) en configuration de transmission et b) en configuration de réflexion. e : épaisseur. DAQ (Data Acquisition Board) : Carte d'acquisition. PSG (Polarization States Generator) : Générateur d'états de polarisation. PSA (Polarization States Analyzer) : Analyseur d'états de polarisation. [M] : matrice de Mueller du milieu. CPU : Processeur pour le calcul de la matrice de Mueller, à partir des spectres enregistrés par la DAQ. CS : Cube séparateur. Obj : Objectif 4X/0,16. optique monomode SMJ-3A3A-1060-6/125-3-2 avec deux connecteurs FC/APC (2 m de longueur, 1060 nm, de diamètre de coeur 6μm et de gaine 125μm) couplée à une lentille de sortie, qui nous permet de jouer sur la collimation du faisceau. La taille du faisceau est de 3 mm. Pour connaitre le début du balayage en longueur d'onde de la swept-source, un signal spécifique est émis tous les 10 μs, appelé sweep-trigger. -65- Chapitre II - Polarimètrie de Mueller à codage spectral utilisant une swept-source F IGURE II.7 – Détail du montage de la swept source. SOA (Semiconductor Optical Amplifier) : semiconducteur (milieu amplificateur). F IGURE II.8 – Balayage d'une raie laser en longueur d'onde. Remarque 1 : L'utilisation d'une diode super-luminescente dans le polarimètre de Mueller développé par M. Dubreuil permet de générer tous les états de polarisation simultanément, d'où la dénomination de "snapshot" pour ce dispositif. En la remplaçant par la swept-source, ces états sont générés dans le temps à la vitesse de balayage du spectre, perdant le caractère de codage "simultané". Ainsi, ce nouveau système est uniquement limité par la vitesse de balayage de la swept-source. Remarque 2 : Au cours de ce manuscrit, deux fréquences sont introduites qu'il sera nécessaire de distinguer : - la fréquence de modulation des états de polarisation (f0 , 2f0 , ), -66- Chapitre II - Polarimètrie de Mueller à codage spectral utilisant une swept-source - la fréquence optique, notée ν, associée au balayage de la swept-source, 1.2.2- Lames de codage et de décodage Le premier polarimètre, basé sur le codage spectral, développé au LSOL en 2007 par M. Dubreuil possède des lames de calcite ou CaCO3 pour le PSG et le PSA. Pour ce nouveau dispositif utilisant une swept-source, les lames de phase ont été remplacées par du Yttrium Vanadate ou Y V O4 [110, 111]. Le Tableau II.2 établit un comparatif sur les propriétés physiques de ces deux matériaux. CaCO3 YVO4 axe-c = 26, 3 × 10−6 axe-c = 11, 4 × 10−6 no = 1, 6424@1060nm no = 1, 9573@1060nm ne = 1, 4797@1060nm ne = 2, 1652@1060nm Biréfringence −0, 1627@1060nm 0, 2079@1060nm Dureté (échelle de Mohs) 3 5 Expansion thermique (/°C) Indice de réfraction axe-a = 5, 4 × 10−6 axe-a = 4, 4 × 10−6 Tableau II.2 – Caractéristiques physiques du CaCO3 (calcite) et du Y V O4 (Yttrium Vanadate). La biréfringence du Y V O4 est plus élevée (∆n = 0,208 à 1060 nm), ce qui permet d'envisager des lames de plus faible épaisseur. L'expansion thermique est aussi plus homogène suivant les deux axes cristallins avec ce matériau et sa dureté est plus importante, ce qui permet d'obtenir des coupes plus précises. Les épaisseurs des lames de Y V O4 sont de e = 0,4 mm pour le bloc de codage et 5e = 2,0 mm pour le bloc de décodage. L'image Figure II.9 illustre bien le potentiel de miniaturisation du PSG et du PSA ; en effet, les lames ont été placées dans des blocs en aluminium de la taille d'une pièce de 50 centimes (inférieur à 30 mm) avec une ouverture de 12,7 mm. Cette réduction des dimensions permet d'envisager de fixer ces blocs au sein de systèmes plus imposants mais également d'isoler thermiquement les lames. 1.2.3- Numérisation des signaux optiques Après l'étape d'analyse des états de polarisation, le spectre cannelé est détecté par une photodiode PIN InGaAS (Femto HCA-S-400M-IN) de bande passante 400 MHz et de diamètre effectif 300μm. Chaque spectre est directement numérisé sur la DAQ sur 1440 points, permettant d'avoir 6 périodes entières à la fréquence de modulation f0 . A 12f0 , on mesure 72 périodes, ce qui permet d'échantillonner le signal à la fréquence la plus élevée par 13 points, ce qui se situe largement au dessus du critère de Nyquist. La largeur spectrale d'analyse est ∆λ = 81 nm. -67- Chapitre II - Polarimètrie de Mueller à codage spectral utilisant une swept-source F IGURE II.9 – Image des blocs de codage (C ou PSG) et de décodage (D ou PSA), comparés à la taille d'une pièce de 50centimes. La photodiode est connectée à la swept-source via une carte d'acquisition AlazarTech ATS9350, qui permet de numériser le signal optique sur 12 bits, soit à intervalle de temps régulier à la cadence de 500 Méga-échantillons par seconde, soit à intervalle de fréquence optique régulier en utilisant le "k-clock" (dont le principe sera présenté dans la suite). En effet, comme le miroir mobile du Fabry-Perot se translate physiquement, chaque longueur d'onde est associée à un temps. Cependant, du fait de l'hysteresis mécanique du système (accélération et décélération du miroir mobile), la relation entre fréquence optique et temps n'est plus linéaire. Pour contrer ce problème, le constructeur a intégré un système d'horloge interne à la swept-source appelé k-clock, dont le principe repose sur l'interférométrie de Mach-Zehnder (MZI), représenté Figure II.10. Ce système délivre un signal dont la fréquence instantanée évolue de façon non-linéaire dans le temps, comme présenté Figure II.11, pour être réutilisée afin d'échantillonner au bon intervalle de temps. La non-linéarité de la variation en longueur d'onde dans le temps est ainsi compensée directement. F IGURE II.10 – Principe du k-clock à l'intérieur du système swept source. La sortie du k-clock est reliée ensuite à une des voies d'une carte d'acquisition. Le signal généré par ce type d'horloge externe est très utilisé en imagerie OCT pour échantillonner le signal de telle sorte que les points soient équidistants en fréquence optique. Considérons E0 , le champ électrique de la lumière sortant directement de la swept-source, une partie de ce signal sert de référence et ne subira aucune modification, noté E1 . L'autre partie, noté E2 , sera envoyée vers un interféromètre de Mach-Zehnder et va parcourir un trajet plus long. Si on note d la distance supplémentaire parcourue par E2 , cette partie du signal subira un déphasage de 2π dν et les expressions de ces deux champs sont c -68- Chapitre II - Polarimètrie de Mueller à codage spectral utilisant une swept-source F IGURE II.11 – Illustration de l'évolution non-linéaire de la fréquence instantanée, décrit dans l'article [112]. (a) Signal interférométrique du Mach-Zehnder en fonction du temps pour un balayage de la swept source. (b) Schéma de la variation de la fréquence instantanée au cours du temps de ce signal interférométrique. Les annulations se font à intervalle de fréquence optique régulier. E1 (ν) = E0 (ν) E2 (ν) = E0 (ν)e−i 2π dν c (II.13) où c, est la célérité de la lumière. La combinaison à la sortie de l'interféromètre correspondra à un signal détecté Sdet équivalent à π Sdet = |E1 (ν) + E2 (ν)|2 = I0 (ν) * 4cos2 ( dν) c (II.14) L'équation II.13 peut nous permettre alors de ré-échantillonner le signal interférométrique car on sait que ce signal s'annule, comme représenté Figure II.11(b), pour ν(tk ) = ν0 (t) + k c d (II.15) où k est un entier. Pour échantillonner à fréquence optique régulière, il suffit de numériser un échantillon à chaque annulation du signal interférométrique du Mach-Zehnder, dont la méthode est présentée Figure II.12. Pour cela, le signal interférométrique est combiné à ce même signal déphasé de 90°. Préalablement, une détection de zéro (zero-crossing Detection) associée à une opération de type XOR permet de générer un signal rectangulaire qui servira de déclenchement pour chaque échantillon [112, 113]. F IGURE II.12 – Diagramme des opérations de l'horloge externe, présentée dans l'article [112]. -69- Chapitre II - Polarimètrie de Mueller à codage spectral utilisant une swept-source La forme du signal k-clock est représentée Figure II.13, ainsi que le déclenchement du balayage en longueur d'onde (sweep-trigger). La fréquence instantanée de ce signal est variable de 150 MHz à 350 MHz au cours d'un balayage en longueur d'onde de la swept-source. F IGURE II.13 – Signaux de k-clock (en rouge) et de sweep-trigger (en noir) de la swept-source. Pour se rendre compte de l'importance de tenir compte de cette opération d'échantillonnage à partir du k-clock, nous avons mesuré le spectre cannelé d'un polariseur orienté à 0° sans et avec cet échantillonnage non-linéaire, dont les résultats sont résumés Figure II.14. F IGURE II.14 – Signal mesuré pour un polariseur linéaire orienté à 0° et la transformée de Fourier associée, (a) échantillonné sans et (b) avec le k-clock. La swept-source et la photodiode sont reliées à la carte d'acquisition via différentes entrées qui correspondent à : -70- Chapitre II - Polarimètrie de Mueller à codage spectral utilisant une swept-source - Un signal du sweep-trigger, connecté au port "TRIG IN", - Un signal de k-clock de la swept-source, connecté au port "EXT CLOCK". - Le signal mesuré avec la photodiode, connecté au port "CHANNEL A". -71- Chapitre II - Polarimètrie de Mueller à codage spectral utilisant une swept-source 2- Erreurs systématiques et corrections Les erreurs du polarimètre de Mueller sont principalement engendrées par le système d'émission de la swept-source et par les défauts des lames composant le PSG et le PSA. Nous allons maintenant évaluer ces erreurs systématiques, ainsi que des solutions pour les prendre en compte lors de la détermination de la matrice de Mueller du milieu. Remarque : On note les lames de phase suivant leur ordre dans le polarimètre, dont les orientations sont données par rapport à celle du polariseur d'entrée du PSG (orienté alors à 0°) comme indiqué dans la configuration expérimentale Figure II.4, à savoir - Lame 1 : lame d'épaisseur e, dont l'axe rapide est orientée à 45°. - Lame 2 : lame d'épaisseur e, dont l'axe rapide est orientée à 0°. - Lame 3 : lame d'épaisseur 5e, dont l'axe rapide est orientée à 0°. - Lame 4 : lame d'épaisseur 5e, dont l'axe rapide est orientée à 45°. 2.1- Erreurs liées à l'atténuation à haute fréquence La swept-source est susceptible d'introduire une erreur due à l'atténuation de l'amplitude des pics associées aux fréquences de modulation spectrale. Ce phénomène, connu sous le nom de "drop-off ", est lié à la longueur de cohérence de la source (13,5 mm), elle-même correspondant à la largeur spectrale finie de la raie associée à chaque longueur d'onde du balayage (55 pm). Une compensation de l'atténuation des pics est nécessaire afin de remonter de manière précise aux coefficients de la matrice de Mueller. Pour corriger ce problème, l'idée est de déterminer une fonction de correction à partir de la mesure de l'amplitude des pics de Fourier de milieux connus, c'est-à-dire dont on connait parfaitement les rapports entre les amplitudes des pics aux différentes fréquences. D'après le Tableau II.1, en choisissant le vide comme milieu connu par exemple, on peut avoir accès aux amplitudes des pics aux fréquences 0, 2f0 , 4f0 , 6f0 , 10f0 et 12f0 . Dans le Tableau II.3, on résume les rapports des amplitudes théoriques à ces fréquences du vide, normalisées par rapport au pic 4f0 . Le choix de cette fréquence prise comme référence sera justifié dans la partie suivante traitant des erreurs d'épaisseur des lames. Pour calculer les autres coefficients aux pics f0 , 3f0 , 5f0 , 7f0 , 8f0 , 9f0 et 11f0 , on réalise une interpolation par une fonction linéaire à partir des pics du vide. Ensuite, on compare les rapports entre les amplitudes des pics de Fourier expérimentales et théoriques associées à chaque pic normalisées par rapport au pic 4f0 , ce qui permet de remonter au "drop-off " de la Figure II.15. D'après cette Figure II.15, on remarque que les pics ont des amplitudes qui ne sont quasiment pas atténuées aux hautes fréquences. -72- Chapitre II - Polarimètrie de Mueller à codage spectral utilisant une swept-source Fréquence Rapport théorique entre l'amplitude du pic et celui à la fréquence 4f0 0 3 2f0 0.5 6f0 1 10f0 0.5 12f0 0.5 Tableau II.3 – Amplitudes des pics à 0, 2f0 , 6f0 , 10f0 et 12f0 normalisées par celle du pic à 4f0 pour le signal du vide. F IGURE II.15 – Drop-off calculé à partir de l'amplitude des pics normalisée par rapport au pic de fréquence 4f0 sur le signal du vide. Si on s'intéresse à l'influence de cette correction sur les matrices de Mueller du vide, on voit que sans cette méthode, malgré une faible atténuation à haute fréquence, la matrice s'éloigne rapidement de l'identité 4 × 4, comme illustré dans le Tableau II.4. Il est alors nécessaire de la prendre en compte. 2.2- Résolution des pics de Fourier Étant donné que la détermination des 16 coefficients de la matrice de Mueller se base sur la mesure d'amplitudes complexes, il faut s'assurer que le spectre de Fourier du milieu soit correctement résolu. Une optimisation d'ordre numérique simple pour améliorer la lecture des pics est de générer une transformée de Fourier échantillonnée avec plus de points. Pour cela, on ajoute des valeurs nulles aux extrémités du signal I(ν) directement. Cette méthode, connue sous le nom de "zero-73- Chapitre II - Polarimètrie de Mueller à codage spectral utilisant une swept-source Sans compensation Avec compensation    1, 000 −0, 010 0, 036 −0, 004   −0, 011 0, 956 −0, 009 0, 009       0, 003 −0, 004 0, 921 0, 015      −0, 005 0, 002 −0, 014 0, 922 DL = 0, 038 Pd = 0, 933 RL = 0, 9°    1, 000 −0, 010 0, 006 −0, 015   −0, 011 0, 997 −0, 009 0, 009       0, 000 0, 004 0, 997 0, 016      −0, 006 0, 002 −0, 015 0, 997 DL = 0, 019 Pd = 0, 997 RL = 0, 9° Tableau II.4 – Matrices de Mueller et valeurs de la diatténutation linéaire (DL ), dépolarisation (Pd ) et de retardance linéaire (RL ) pour le vide, avec et sans la compensation du "drop-off". padding", doit forcément être couplée avec un fenêtrage adéquat du signal. En effet, le spectre numérisé est tronqué de manière abrupte (fenêtre rectangulaire), ce qui représente dans l'espace de Fourier une convolution par un sinus cardinal. Le zero-padding seul va donc accentuer la résolution des lobes secondaires du sinus cardinal ce qui peut polluer les pics adjacents, comme on peut le voir Figure II.16.b. On peut pallier ce problème en utilisant en plus une fenêtre de type Blackmann-Harris [107, 114], dont l'effet est visible Figure II.16.c. F IGURE II.16 – Transformée de Fourier directe du signal de la Figure II.14 (polariseur linéaire orienté à 0°) (a) sans optimisation numérique (sans interpolation), (b) avec l'application du "zero-padding" (signal interpolé à 5400 points) et (c) avec application du "zero-padding" et de la fenêtre de Blackman-Harris. 2.3- Réponse en longueur d'onde du milieu La modélisation de notre polarimètre fait l'hypothèse que les coefficients mij de la matrice de Mueller sont indépendants de la longueur d'onde dans la bande spectrale d'analyse. Si ce n'était pas le cas, le milieu participerait également au codage spectral entrainant une erreur sur la mesure de la matrice de Mueller. Nous souhaitons donc évaluer la tolérance de notre polarimètre sur l'évolution des coefficients de la matrice de Mueller dans la fenêtre d'analyse (∆λ = 81nm). Nous avons réalisé une simulation sur une lame quart d'onde dont l'axe rapide est orienté à 30°, avec un retard φmilieu qui varie en longueur d'onde s'écrivant tel que -74- Chapitre II - Polarimètrie de Mueller à codage spectral utilisant une swept-source π (II.16) 2 avec f0milieu , une constante proportionnelle à la fréquence fondamentale f0 associée à la modulation spectrale de la lame 1 de Y V O4 du PSG. Pour une lame d'épaisseur e = 0, 4mm, f0 = 79, 4μm−1 à λ0 = 1060nm. Nous avons simulé la mesure de la matrice de Mueller du milieu chromatique en utilisant le protocole développé précédemment dans la thèse et qui est basé sur l'achromaticité du milieu d'étude. Le Tableau II.5 présente les paramètres polarimétriques (diatténuation linéaire, dépolarisation et retardance linéaire) en fonction de l'évolution du déphasage du milieu par rapport au déphasage de la lame 1 de Y V O4 du PSG, qui consiste à faire le rapport suivant φmilieu = 2πf0milieu (λ − λ0 ) + f0milieu ∆φmilieu = ∆φY V O4 f0 f0milieu /f0 (%) ∆φmilieu (°) DL (II.17) Pd RL 0% 0 0,000 1,000 90,00° 1% 23 0,002 0,999 89,96° 2% 46 0,005 0,998 89,96° 3% 70 0,007 0,998 89,94° 4% 93 0,009 0,997 89,84° 5% 116 0,012 0,993 89,81° 6% 139 0,014 0,985 89,75° 7% 162 0,016 0,977 89,72° 8% 185 0,018 0,967 89,67° 9% 208 0,020 0,955 89,63° 10% 232 0,022 0,942 89,59° 15% 347 0,028 0,863 89,36° 20% 463 0,030 0,773 89,19° Tableau II.5 – Simulation de l'influence en longueur d'onde du déphasage induit par une lame quart d'onde, en fonction de la fréquence instantanée relative et du déphasage absolu sur les paramètres polarimétriques. DL : Diatténuation linéaire. Pd : dépolarisation. αR : orientation de la retardance. Lorsque le milieu est achromatique (f0milieu = 0), les paramètres polarimétriques (diatténuation linéaire, dépolarisation et retardance linéaire) extraits de la matrice de Mueller donnent des -75- Chapitre II - Polarimètrie de Mueller à codage spectral utilisant une swept-source valeurs en accord avec les propriétés du milieu (à savoir DL = 0, Pd = 1 et RL = 90°). En revanche, si la chromaticité du milieu augmente (donc f0 augmente), un biais sur les mesures polarimétriques apparait plus particulièrement avec une forte variation sur l'indice de dépolarisation. Cet effet provient en fait du moyennage des propriétés polarimétriques du milieu sur la fenêtre spectrale d'analyse. 2.4- Erreurs sur l'orientation des lames Pour remonter aux 16 mij de la matrice de Mueller, l'équation II.5 a été définie dans le cas idéal où les lames de Y V O4 sont parfaitement alignées dans la configuration (45°,0°,0°,45°) par rapport au polariseur d'entrée et le polariseur de sortie est à 90° du polariseur d'entrée. Il est donc nécessaire d'évaluer la matrice de Mueller lorsque ces éléments optiques du PSG et du PSA sont soumis à des erreurs sur leur orientation par rapport au polariseur d'entrée. On note ∆θp l'erreur sur l'orientation du polariseur linéaire de sortie et ∆θ1 , ∆θ2 , ∆θ3 et ∆θ4 celles des 4 lames de Y V O4 . Tout d'abord, on dispose de deux types de support de rotation : un manuel et l'autre motorisé, dont les incertitudes sur l'orientation sont évaluées respectivement à 0, 5° et 0, 05°. Le Tableau II.6 présente les résultats de la simulation de telles erreurs sur l'orientation des lames de Y V O4 et du polariseur de sortie sur la matrice de Mueller du vide (équivalente à la matrice identité). On constate que des erreurs d'alignement de 0, 5° (le cas pour un système de rotation manuel) engendre des erreurs non-négligeables sur les coefficients de la matrice de Mueller, supérieures à 0, 050. Par contre, une incertitude sur l'alignement de 0, 05° réduit d'un facteur 10 cette erreur. Étant donné que la détermination des incertitudes d'alignement est très compliquée à prendre en compte dans notre modèle, on limite alors ces erreurs par une procédure d'alignement stricte et en plaçant les lames de Y V O4 et le polariseur de sortie sur des moteurs de rotation, connectés à un contrôleur (Newport). Le protocole d'alignement consiste tout d'abord à croiser le polariseur de sortie avec celui d'entrée, dont l'axe est pris comme référence (noté 0°). On mesure l'intensité lumineuse de la swept-source qui traverse les deux polariseurs autour de l'extinction puis, par un ajustement polynomial, on se place au minimum de la parabole, dont un exemple d'alignement est présenté Figure II.17. Ensuite, la lame 1 est placée entre les polariseurs croisés. On repère son axe rapide suivant la même orientation que le polariseur d'entrée et l'interpolation parabolique autour de l'extinction donne la position finale de la lame. Cette opération est réitérée pour les 3 autres lames et les lames 1 et 4 sont orientées à 45° de cette position. Les mesures d'intensité des lames entre polariseur et analyseur croisés, ainsi que l'interpolation par un fit parabolique, sont présentées Figure II.18. Cette procédure permet d'orienter les lignes neutres sans faire la distinction entre les axes rapides notés nr et lents notés nl . Pour lever cette ambiguı̈té, on place les deux premières lames d'épaisseurs e à la suite, puis on oriente les axes rapides à 45°. On distingue différents cas de figure résumés sur les schémas Figure II.19 : -76- Chapitre II - Polarimètrie de Mueller à codage spectral utilisant une swept-source ∆θ1 (°) 0 0,5 0,5 0,05 0,05 ∆θ2 (°) 0 0 0,5 0 0,05 ∆θ3 (°) 0 0 0,5 0 0,05 ∆θ4 (°) 0 0 0,5 0 0,05 ∆θp (°) Matrice de Mueller du vide  1 0 0 0     0 1 0 0      0 0 1 0 0 0 0 1 0 1 0 0 0 0   1 0 0 0 0,5   0 0 0 1 0 0 0 0   1 0 0 0 0,05      0 1 0 0      0  0, 017 −0, 017 0, 982 0 0 0 0, 982  0, 002 0, 998 0, 034   0, 035 −0, 052 0, 964  0    0  0, 965     0 1 0 0     0, 002 −0, 002 0, 998 0   0 0 0 0, 998     0 1 0, 003 0     0, 003 −0, 005 0, 997 0   0 0 0 0, 997 Tableau II.6 – Matrices de Mueller simulées pour le vide comme milieu, pour différents exemples d'erreurs d'alignement relatif de chaque lames de phase (∆θ1 , ∆θ2 , ∆θ3 , ∆θ4 ) et du polariseur de sortie (∆θp ) par rapport à l'orientation du polariseur d'entrée. - si les axes rapides des deux lames sont perpendiculaires entre eux, il n'y a pas de fréquence de modulation, - si les axes rapides des deux lames sont parallèles entre eux, la fréquence de modulation est 2f0 : les axes sont correctement alignés. Avec l'axe de la première lame comme référence, on fait de même pour la 3, puis pour la 4, -77- Chapitre II - Polarimètrie de Mueller à codage spectral utilisant une swept-source F IGURE II.17 – Interpolation polynomiale (en trait plein) pour les mesures d'intensité pour le polariseur et l'analyseur croisés. F IGURE II.18 – Interpolation polynomiale (en trait plein) pour les mesures d'intensité des lames 1, 2, 3 et 4 (en point) entre polariseur et analyseur croisés. - si les axes rapides des deux lames sont perpendiculaires entre eux, la fréquence de modulation est 4f0 , - si les axes rapides des deux lames sont parallèles entre eux, la fréquence de modulation est 6f0 : les axes sont correctement alignés. -78- Chapitre II - Polarimètrie de Mueller à codage spectral utilisant une swept-source F IGURE II.19 – Procédure d'alignement sur la même ligne neutre (ici l'axe rapide en rouge noté nr ) des lames de phase, à partir de la transformée de Fourier du signal. -79- Chapitre II - Polarimètrie de Mueller à codage spectral utilisant une swept-source 2.5- Erreurs sur les épaisseurs des lames D'après l'équation II.2, le déphasage à l'ordre 0 est associé à la position des cannelures dans la fenêtre d'analyse et, à l'ordre 1 est associé à la fréquence de modulation. Ces deux paramètres dépendent de l'épaisseur des lames ; ainsi la moindre variation dans le rapport d'épaisseur (e,e,5e,5e) peut donner des matrices de Mueller non-physiques. Le constructeur garanti une précision de 0, 5% sur les lames d'épaisseurs e et de 0, 1% sur les lames d'épaisseur 5e. Pour les lames de Y V O4 , cela correspond à une précision sur l'épaisseur de 20 μm. On va donc maintenant évaluer l'influence des défauts sur les épaisseurs des lames 2, 3 et 4 en prenant l'épaisseur de la lame 1 comme référence. Tout d'abord, considérons les erreurs commises sur la phase φ0 à l'ordre 0 de l'équation II.2 pour une fréquence entière dans la fenêtre d'analyse. Cela revient à considérer la configuration (e,e + ∆e2 ,5e + ∆e3 ,5e + ∆e4 ) et à définir les erreurs de phase φ2 , φ3 et φ4 à l'ordre 0, telles que 4π∆n∆ei φi = − 2π λ0  ∂∆n ∂λ  ∆ei avec i = 2, 3, 4. (II.18) λ0 avec les incertitudes sur l'épaisseur des lames 2, 3 et 4 notées ∆ei où i = 2,3,4 en prenant  celle de la lame 1 comme référence. Le terme ∂∆n correspond à la dispersion chromatique ∂ λ λ0 −1 et vaut −0, 04008μm pour le Y V O4 [115]. Ainsi, on voit que le déphasage φi , spécifique à chaque variation d'épaisseur par rapport à la lame 1, va perturber la mesure. En effet, en tenant compte des erreurs de phase φi associées aux erreurs d'épaisseurs ∆ei et en considérant une fenêtre d'analyse spectrale fixe, on réécrit l'expression du vecteur de Stokes de sortie S~s , S~s = [P (90°)] * [R(5φ + φ4 , 45°)] * [R(5φ + φ3 , 0°)] * [M ] * [R(φ + φ2 , 0°)] * [R(φ, 45°)] * [P (0°)]S~i (II.19) où φ est définie d'après l'équation II.2. L'intensité lumineuse détectée peut être écrite sous sa forme simplifiée de la manière suivante " # 12 X I(λ ) = Re V0′ Re + (II.20) (Vn′ Re − jVn′ Im ) * ejΦn * ejn(2πf0 λ +φf en ) n=1 Vn′ Re Vn′ Im où et sont des combinaisons linéaires des mij , mais aussi des φi . Les phases φn sont des phases supplémentaires qui dépendent des φi . On constate alors un changement dans l'expression de l'intensité lumineuse, engendrant de nouvelles combinaisons linéaires entre les coefficients de Mueller et les amplitudes complexes des pics de Fourier, décrites en partie réelle et imaginaire, dans le Tableau II.7. Comme pour l'équation II.7, on réécrit la matrice de passage, notée [P erreur ], pour tenir compte de ces erreurs de phase dont l'expression est présentée Annexe 8. -80- Chapitre II - Polarimètrie de Mueller à codage spectral utilisant une swept-source Φn V Re (×64) V Im (×64) 0 0 16m00 + 8m02 cos(φ2 ) − 8m03 sin(φ2) −8m20 cos(φ3 − φ4 ) + 8m30 sin(φ3 − φ4 ) −4m22 cos(φ2 )cos(φ3 − φ4 ) +4m33 sin(φ2 )sin(φ3 − φ4 ) −4m23 sin(φ2 )cos(φ3 − φ4 ) +4m32 cos(φ2 )sin(φ3 − φ4 ) 0 f0 0 8m01 − 4m21 cos(φ3 − φ4 ) +4m31 sin(φ3 − φ4 ) 0 2f0 φ2 −4m02 + 2m22 cos(φ3 − φ4 ) −2m23 sin(φ3 − φ4 ) −4m03 − 2m33 sin(φ3 − φ4 ) +2m23 cos(φ3 − φ4 ) 3f0 −φ2 + φ4 2m12 −2m13 4f0 φ4 −4m11 0 5f0 φ4 −8m10 − 4m12 cos(φ2 ) −4m13 sin(φ2 ) 0 6f0 φ4 −4m11 0 7f0 φ2 + φ4 2m12 2m13 8f0 −φ2 + φ3 + φ4 −m22 + m33 m23 + m32 9f0 φ3 + φ4 2m21 −2m31 10f0 φ3 + φ4 4m20 + 2m22 cos(φ2 ) +2m23 cos(φ2 ) −4m30 − 2m33 cos(φ2 ) −2m32 cos(φ2 ) 11f0 φ3 + φ4 2m21 −2m31 12f0 φ2 + φ3 + φ 4 −m22 − m33 −m23 + m32 Fréquence Tableau II.7 – Relation entre amplitudes complexes des pics de la transformée de Fourier (en parties réelles et imaginaires) et les coefficients mij , dans la configuration (e, e+∆2 , 5e+∆3 , 5e+∆4 ). Φn sont des phases dépendantes des phases φi . Ce Tableau II.7 montre que la relation entre les amplitudes des pics aux différentes fréquences de modulation et les mij est plus complexe que celle donnée au Tableau II.1 et fait intervenir les erreurs de phase φ2 , φ3 et φ4 . Afin d'évaluer l'importance de ces nouvelles phases dans -81- Chapitre II - Polarimètrie de Mueller à codage spectral utilisant une swept-source notre modèle, le Tableau II.8 présente la matrice de Mueller simulée du vide, en fonction d'un déphasage supplémentaire de 0,01 rad sur les lames 2, 3 et 4 de Y V O4 . φ2 (rad) 0 0,01 0 0,01 φ4 (rad) Matrice de Mueller du vide  1 0 0 0     0 1 0 0      0 0 1 0 0 0 0 1 0 1 0 0  1 0 0,01  1 0 0,01  0 0  0, 010  0, 010   0    1 0, 010 0 0 −0, 010 1  0 1   0 0 0 0  0    1 0, 010 0 0 −0, 010 1  0 1   0 0 0 0  0    1 0, 020 0 0 −0, 020 1  0 1   0 0 0 Tableau II.8 – Matrices de Mueller théoriques du vide sans et avec déphasage de 0,01 rad des lames 2 et 4 du PSG et du PSA (φ2 et φ4 ). On se rend compte que les erreurs commises sur les phases ont des effets beaucoup plus importants sur les coefficients de la matrice de Mueller, puisque qu'un déphasage de 0,01 rad est engendré par une épaisseur de 8 nm. Cette situation est bien évidemment éloignée de la réalité, puisque l'application numérique de l'équation II.18 permet de calculer qu'une épaisseur de 20μm engendre un déphasage de l'ordre 54 rad. Il est donc nécessaire de mesurer les phases φ2 , φ3 et φ4 , avant de déterminer la matrice de Mueller de l'échantillon. Maintenant, nous évaluons l'influence des erreurs d'épaisseurs données par le constructeur sur la fréquence f0 (ordre 1 de l'équation II.2), en corrigeant les phases φi (i = 1,2,3,4). Pour cela, nous simulons la matrice de Mueller d'un polariseur linéaire orienté à 30° dans le cas où l'erreur sur l'épaisseur est de 0, 1% pour la lame 2 et de 0, 5% pour la lame 4. Ce milieu a été choisi plutôt que le vide, car les simulations montrent de trop faibles variations sur les coefficients de la matrice de Mueller de l'ordre de 10−6 pour illustrer des variations. Les résultats sont résumés Tableau II.9. -82- Chapitre II - Polarimètrie de Mueller à codage spectral utilisant une swept-source Erreur relative Erreur relative sur la lame 2 0 0, 5% 0 0, 5% Matrice de Mueller d'un polariseur linéaire orienté à 30° sur la lame 4  0 0 0, 1% 0, 1%  1 0, 500 0, 866 0    0, 500 0, 250 0, 433 0     0, 866 0, 433 0, 750 0 0 0 0 0 1 0, 501 0, 867 0, 000    0, 501 0, 250 0, 433 0, 000     0, 866 0, 434 0, 752 0, 000   0, 000 0, 000 0, 000 0, 000  1, 000 0, 499 0, 866 0, 001   1, 000 0, 499 0, 862 0, 000    0, 500 0, 250 0, 433 0, 000      0, 866 0, 433 0, 750 0, 000   0, 000 0, 000 0, 000 −0, 002   0, 500 0, 249 0, 432 0, 000      0, 864 0, 433 0, 751 0, 000   0, 000 0, 000 0, 000 −0, 002 Tableau II.9 – Matrices de Mueller théoriques d'un polariseur linéaire orienté à 30°, en fonction de l'erreur d'épaisseur de 0, 5% sur la lame 2 et de 0, 1% sur la lame 4 (d'épaisseurs respectives e2 et e4 ). Dans le cas extrême où l'erreur sur les épaisseurs apparaissent en même temps pour deux lames des PSG et PSA, les coefficients de la matrice de Mueller s'écartent de 0, 002 par rapport aux valeurs théoriques, précision acceptable pour nos mesures. En résumé, les erreurs dues aux défauts d'épaisseur des lames de Y V O4 nous impose de prendre en compte des phases supplémentaires dans notre modèle (φ2 , φ3 et φ4 ). Pour remonter à la matrice de Mueller d'un échantillon, il sera alors essentiel de les extraire au préalable. Cette étape sera la base d'une procédure de calibration, dont on décrira dans la suite de ce manuscrit le protocole en détail pour chaque configuration expérimentale du polarimètre. 2.6- Influence du fenêtrage du signal La mesure du signal I(ν) se fait sur une fenêtre d'analyse spectrale fixe choisie de telle sorte à observer des périodes entières. Cependant, la position de ce signal est susceptible de changer au cours du temps ce qui va s'interpréter comme un déphasage global supplémentaire. Il existe -83- Chapitre II - Polarimètrie de Mueller à codage spectral utilisant une swept-source plusieurs origines à ce phénomène : - le signal de la swept-source subit un glissement temporel, phénomène plus connu sous le nom de "jitter" (ou "gigue" en français), - la dilatation thermique homogène des lames dans le PSG et le PSA, c'est-à-dire que les erreurs sur les épaisseurs respectent le rapport (e + ∆e(T ) , e + ∆e(T ) , 5(e + ∆e(T ) ), 5(e + ∆e(T ) )), où ∆e(T ) correspond à la variation d'épaisseur causée par la température (avec ∆e(T ) ≪ e) . Dans cette situation, le rapport (e,e,5e,5e) étant toujours respecté, les pics dans l'espace de Fourier seront toujours équidistants. Cependant, cela va influencer le rapport entre les parties réelles et les parties imaginaires des pics de Fourier. On note alors ce déphasage φf en prenant en compte la position du signal dans la fenêtre d'analyse. A partir de l'équation II.2, en tenant compte d'une erreur de phase à l'ordre 0 et en négligeant celle sur la fréquence à l'ordre 1, l'expression du déphasage total associé à une lame de Y V O4 d'épaisseur e s'écrit finalement sous la forme φ = φf en + φi + 2πf0 λ (II.21) Le déphasage total occasionné sur chaque lame de phase dans le PSG et le PSA s'écrit donc φlame1 = φf en + 2πf0 λ φlame2 = φf en + φ2 + 2πf0 λ φlame3 = 5φf en + φ3 + 5 × 2πf0 λ (II.22) φlame4 = 5φf en + φ4 + 5 × 2πf0 λ Pour illustrer l'influence de φf en sur la mesure de la matrice de Mueller, on simule une valeur de 0,01 rad pour ce paramètre en fixant les φi à 0. La matrice de Mueller du vide devient donc   1, 000 0, 000 −0, 003 0, 050   0, 000 0, 998 0, 018 0, 000     0, 001 0, 000 0, 992 0, 120     0, 010 0, 000 −0, 120 0, 992 On voit donc que ce déphasage n'est pas négligeable dans la propagation des erreurs sur la matrice de Mueller. Comme pour les erreurs de phase induites par les défauts d'épaisseurs des lames, on devra tenir compte de φf en avant la mesure de la matrice de Mueller de l'échantillon. En résumé, il faut donc imaginer une procédure pour extraire les phases φ2 , φ3 et φ4 indépendamment de la mesure de la matrice de Mueller du milieu. Cependant, les valeurs des erreurs de phase φ2 , φ3 , φ4 et φf en sont fortement influencées par la variation de température, ce qui rend impossible en pratique la mesure directe de ces phases. Nous discuterons dans la section suivante, le protocole de calibration mis en place pour les extraire à partir de milieux connus en fonction de la configuration expérimentale, c'est-à-dire en transmission ou en réflexion. -84- Chapitre II - Polarimètrie de Mueller à codage spectral utilisant une swept-source 3- Configuration en transmission Le montage expérimental en configuration de transmission du polarimètre de Mueller est présenté Figure II.20. F IGURE II.20 – Dispositif expérimental du polarimètre de Mueller utilisant une swept-source, en configuration de transmission. Pour valider le polarimètre de Mueller, nous travaillons dans la suite de ce chapitre avec 3 milieux de référence, qui sont : - Le vide, - Un polariseur linéaire, de taux d'extinction 10 000 :1, - Une lame demi-onde d'ordre 0, traitée antireflet à 830 nm. 3.1- Procédure de calibration en transmission La détermination des 4 erreurs de phase φ2 , φ3 , φ4 et φf en a fait l'objet d'une procédure de calibration développée dans la thèse de M. Dubreuil en 2010 à l'aide de la phase des pics aux 12 fréquences de modulation d'un milieu étalon. Celui qui a d'abord été proposé est le vide, car : - c'est un "milieu" parfaitement connu, et sa matrice de Mueller est strictement égale à l'identité 4 × 4, -85- Chapitre II - Polarimètrie de Mueller à codage spectral utilisant une swept-source - les pics dans l'espace de Fourier sont suffisamment espacés et ne sont donc pas "pollués" par la largeur des pics voisins, En tenant compte des erreurs de phase, l'intensité lumineuse à la traversée de ce milieu étalon, nommé "étalon 1" s'écrit : 16I étalon1 (λ ) = 4 − cos[φ2 + φ3 − φ4 ] + cos[2(φf en + 2πf0 λ ) + φ2 + φ3 − φ4 ] − 2cos[4(φf en + 2πf0 λ ) + φ4 ] − 2cos[6(φf en + 2πf0 λ ) + φ4 ] + cos[10(φf en + 2πf0 λ ) + φ2 + φ3 + φ4 ] (II.23) − cos[12(φf en + 2πf0 λ ) + φ2 + φ3 + φ4 ] La détermination de φ2 , φ3 et φ4 est reliée à la mesure des arguments de chaque pic et se met simplement sous la forme matricielle suivante :  2   4   6    10  12 1 −1 0 1 0 1 1 1 1 1   Arg(I ̃2f0 ) étalon1        Arg(I ̃4f0 )          * (φf en , φ2 + φ3 , φ4 ) =  Arg(I ̃ )  6f0          Arg(I ̃10f0 )     ̃ Arg(I12f0 ) (II.24) Ce système matriciel détermine φf en , φ2 + φ3 et φ4 mais sans pouvoir séparer φ2 et φ3 par une simple mesure du vide. D'après le Tableau II.7, la mesure de la réponse d'un nouveau milieu étalon, noté "étalon 2", permet de faire apparaı̂tre les pics aux fréquences 3f0 , 7f0 , 8f0 , 9f0 et 11f0 et ainsi séparer les phases φ2 et φ3 . Cette condition est satisfaite avec un simple polariseur linéaire orienté à 30° par exemple (dont le signal dans l'espace de Fourier fait apparaı̂tre des amplitudes non-nulles à toutes les fréquences). Une méthode robuste déjà développée au LSOL est de mesurer alors les arguments des pics de fréquence 3f0 , 7f0 , 8f0 , 9f0 et 11f0 du milieu "étalon 2", dont on peut former le vecteur colonne suivant  V~ mes Arg(I ̃3f0 ) étalon2      Arg(I ̃7f0 )       =  Arg(I ̃8f0 )        Arg(I ̃9f0 )    Arg(I ̃11f0 ) (II.25) Puis, on créer un vecteur colonne composé des valeurs calculées des arguments aux fréquences 3f0 , 7f0 , 8f0 , 9f0 et 11f0 en utilisant les phases mesurées pour le vide et dont on fait varier φ2 . A l'aide du Tableau II.7, l'expression de ce vecteur s'écrit alors -86- Chapitre II - Polarimètrie de Mueller à codage spectral utilisant une swept-source  V~ calc φétalon1 4 3φétalon1 f en  −φ2 + +       étalon1 étalon1   φ2 + φ4 + 7φf en     étalon1 étalon1 étalon1  = −2φ + (φ + φ ) + φ + 8φ 2 2 3   4 f en     étalon1 étalon1 étalon1  −φ2 + (φ2 + φ3 )  + φ + 9φ 4 f en     étalon1 −φ2 + (φ2 + φ3 )étalon1 + φétalon1 + 11φ 4 f en (II.26) Les erreurs de phases sont spécifiques au système ; les deux vecteurs précédents sont donc égaux. On réalise alors une minimisation au sens des moindres carrés en faisant varier φ2 qui sécrit sous la forme χ2 = X i |Vimes − Vicalc |2 (II.27) Ainsi, plus χ2 est petit, plus on est proche de la valeur réelle de φ2 . Pour illustrer l'importance de cette étape de calibration de notre dispositif, on mesure la matrice pour le vide sans prendre en compte l'évaluation des erreurs de phase, c'est-à-dire en fixant φ2 = φ3 = φ4 = φf en = 0. Expérimentalement, cela consiste à lire directement la valeur des amplitudes et phases des pics dans l'espace de Fourier sur le milieu, dont le résultat est donné dans le Tableau II.10. Avec prise en compte des phases Sans prise en compte des phases  1, 000 0, 010 −0, 007 0, 021     −0, 011 0, 996 −0, 009 −0, 010       0, 000 0, 005 0, 996 0, 022     0, 010 −0, 030 −0, 021 0, 997   1, 000  0, 004   0, 259   0, 678  0, 539   −0, 200 −0, 012 −0, 001   −0, 000 −0, 641 0, 527    −0, 008 −0, 525 −0, 641 −0, 001 −0, 286 Tableau II.10 – Matrices de Mueller pour le vide, avec et sans prise en compte des phases φ2 , φ3 , φ4 et φf en . Ainsi, si on se contente de mesurer uniquement les valeurs des amplitudes et des phases des pics correspondant au milieu, les résultats obtenus seront trop entachés d'erreurs pour pouvoir interpréter physiquement la matrice de Mueller. 3.2- Méthode d'auto-calibration On vient de voir que la quantification des erreurs de phases des lames de Y V O4 composant les blocs de codage et de décodage est fondamentale et s'obtient grâce à une procédure de calibration faisant intervenir deux milieux étalons. Cependant, les lames sont sensibles à la dilatation thermique et les valeurs de calibration sont donc susceptibles de changer au cours -87- Chapitre II - Polarimètrie de Mueller à codage spectral utilisant une swept-source de l'expérience. Cela a pour conséquence d'entrainer une translation du signal I(ν) dans la fenêtre d'analyse. On s'attend alors à une variation essentiellement sur φf en en fonction de la température. La Figure II.21 représente l'évolution sur 1h30 des phases calculées à partir du signal du vide. F IGURE II.21 – Évolution des phases φ2 , φ3 , φ4 et φf en en fonction du temps par rapport à la mesure à t = 0. Sur cette mesure, pour une évolution en température de 1°C, la variation de la phase φf en est plus importante que pour les autres phases, de 0,06 rad contre 0,01 rad. Il est donc essentiel de trouver des solutions pour prendre en compte l'influence de ce paramètre sur notre polarimètre. On propose alors une technique pour auto-calibrer notre système en temps réel basée sur la lecture des phases des pics de Fourier correspondant au spectre généré par le milieu d'étude lui-même. D'après le Tableau II.7, les pics de fréquence f0 , 4f0 , 5f0 et 6f0 ont toujours une partie imaginaire nulle et ceux de fréquences 9f0 et 11f0 ont des expressions similaires. En fonction de φf en , leurs expressions sont les suivantes Arg(I ̃f0 ) = φf en Arg(I ̃4f0 ) = 4φf en + φ4 Arg(I ̃5f0 ) = 5φf en + φ4 Arg(I ̃6f0 ) = 6φf en + φ4 Arg(I ̃9f0 ) = 9φf en + φ3 + φ4 Arg(I ̃11f0 ) = 11φf en + φ3 + φ4 (II.28) L'étude simple de la phase du pic f0 permet de remonter directement à la phase φf en mais il est possible aussi d'écrire des équations à partir des pics aux autres fréquences de modulation comme -88- Chapitre II - Polarimètrie de Mueller à codage spectral utilisant une swept-source Arg(I ̃6f0 ) − Arg(I ̃4f0 ) 2 = Arg(I ̃5f0 ) − Arg(I ̃4f0 ) = Arg(I ̃6f0 ) − Arg(I ̃5f0 ) Arg(I ̃11f0 ) − Arg(I ̃9f0 ) = 2 φf en = φf en φf en φf en (II.29) Néanmoins pour le vide, les pics aux fréquences de modulation f0 et 5f0 ont une amplitude nulle ; on peut donc utiliser l'expression de la phase fenêtre avec les pics 4f0 et 6f0 . La stabilité en température du polarimètre a alors été évaluée par la mesure des matrices de Mueller pour le vide toutes les minutes pendant 1 h. On se base sur la procédure de calibration à l'instant t = 0 utilisant la mesure de deux étalons à savoir le vide et un polariseur linéaire. La Figure II.22 représente l'évolution des 16 coefficients de la matrice de Mueller mij . F IGURE II.22 – Évolution dans le temps des coefficients mij pendant 1 h. (courbe rouge) Avec correction. (courbe noire) Sans correction. La dérive en température influe sur les coefficients de la matrice (courbe noire en pointillée) lorsqu'on prend en compte la phase fenêtre calculée à l'instant t = 0. Nous avons alors calculé la phase fenêtre à chaque mesure à partir des pics 4f0 et 6f0 et utilisé cette dernière pour le calcul des coefficients de Mueller. Cette méthode est alors efficace ramenant les valeurs de coefficients de Mueller mij correspondant à une incertitude de mesure de l'ordre de 0,03. Cependant, ces pics sont dépendants des valeurs des mij ce qui rend cette procédure délicate à utiliser étant donné le peu d'équations mis en jeu. Pour des milieux possédant des orientations particulières, certains pics peuvent être relativement faibles donc bruités rendant difficile l'extraction de la phase fenêtre. Par exemple, la Figure II.23 présente la mesure de la variation -89- Chapitre II - Polarimètrie de Mueller à codage spectral utilisant une swept-source d'amplitude des pics aux fréquences 4f0 , 5f0 , 6f0 , 9f0 et 11f0 en fonction de l'orientation d'une lame demi-onde à 830 nm. F IGURE II.23 – Évolution des amplitudes des pics aux fréquences 4f0 (courbe bleu foncé), 5f0 (courbe verte), 6f0 (courbe rouge), 9f0 (courbe violette) et 11f0 (courbe bleu claire), en fonction des orientations d'une lame demi-onde à 830 nm. Si on n'utilisait qu'une seule équation pour toutes les orientations d'un même milieu, il serait impossible de déterminer φf en de manière fiable. Cependant, pour la lame demi-onde à 830 nm, on voit que les amplitudes des pics aux fréquences 4f0 et 6f0 évoluent de façon opposée avec celles ses pics aux fréquences 9f0 et 11f0 . Il est alors possible de développer un algorithme adaptatif permettant de changer d'équation dès que la précédente fait intervenir des pics dont les amplitudes sont faibles. On s'assurerait alors d'avoir une valeur de φf en quelle que soit l'orientation du milieu d'étude. Une autre solution d'ordre expérimental consisterait aussi à tourner physiquement le milieu jusqu'à mettre en évidence des amplitudes de pic à des fréquences de modulation plus fortes. 3.3- Validation sur des échantillons de référence Les erreurs aléatoires associées à la mesure avec le polarimètre proviennent potentiellement des fluctuations d'intensité de la swept-source et du bruit de numérisation. Pour les évaluer, nous avons réalisé des mesures successives dans un temps très court. -90- Chapitre II - Polarimètrie de Mueller à codage spectral utilisant une swept-source Les Tableaux II.11 et II.12 résument les matrices de Mueller moyennes et d'écart-types obtenues pour 150 mesures, ainsi que les valeurs de diatténuation linéaire (DL ), de retardance linéaire (RL ) et de dépolarisation (Pd ) issus de la décomposition de Lu et Chipman pour le vide, un polariseur linéaire et une lame demi-onde à 830 nm, orientés de manière quelconque. Nous rappelons les paramètres polarimétriques théoriques issus de la décomposition de Lu et Chipman pour ces échantillons connus : - DL = 0, Pd = 1 et RL = 0 pour le vide, - DL = 1, Pd = 1 et RL = ∅ pour le polariseur linéaire, - DL = 0, Pd = 1 et RL 6= 0 pour la lame demi-onde à 830 nm, Les valeurs de retardance pour les polariseurs linéaires sont remplacées par le symbole "∅", car la décomposition de Lu et Chipman donne des valeurs non-physiques pour ce paramètre lorsqu'on mesure la réponse polarimétrique pour des diatténutateurs parfaits. Vide  1, 000 0, 000 0, 002 0, 002     0, 000 0, 993 0, 001 0, 000      −0, 001 0, 001 0, 989 −0, 013   0, 002 0, 000 0, 012 0, 990  0, 000 ±0, 004 ±0, 009 ±0, 009    ±0, 004 ±0, 005 ±0, 005 ±0, 004     ±0, 007 ±0, 005 ±0, 013 ±0, 008   ±0, 012 ±0, 005 ±0, 008 ±0, 011 DL = 0, 013 ± 0, 005 Pd = 0, 991 ± 0, 008 RL = 0, 8° ± 0, 2° Tableau II.11 – Matrices de Mueller expérimentales (moyennes et d'écart-types sur 150 mesures) pour le vide en transmission, ainsi que les valeurs de la diatténutation linéaire (DL ), dépolarisation (Pd ) et de retardance linéaire (RL ). Afin de pouvoir comparer les matrices expérimentales avec celles attendues, nous présentons dans le Tableau II.13 les matrices de Mueller théoriques pour le polariseur linéaire et la lame -91- Chapitre II - Polarimètrie de Mueller à codage spectral utilisant une swept-source Polariseur linéaire  1, 000  0, 000 Lame demi-onde −0, 024   1, 000 ±0, 008 ±0, 019 ±0, 013   0, 000 0, 517 0, 858   −0, 509 −0, 269 −0, 441 0, 000       0, 841 0, 443 0, 723 −0, 021   0, 003 0, 005 0, 013 0, 007   ±0, 008 ±0, 007 ±0, 012 ±0, 010     ±0, 009 ±0, 011 ±0, 027 ±0, 018   ±0, 023 ±0, 010 ±0, 019 ±0, 023 0, 000 −0, 001 0, 001    −0, 001 0, 552 −0, 776 0, 296       0, 001 −0, 774 −0, 336 0, 553    −0, 001 −0, 299 −0, 546 −0, 775 ±0, 005 ±0, 006 ±0, 009    ±0, 006 ±0, 003 ±0, 007 ±0, 013     ±0, 007 ±0, 008 ±0, 009 ±0, 011   ±0, 009 ±0, 013 ±0, 011 ±0, 012 DL = 1, 002 ± 0, 019 DL = 0, 011 ± 0, 005 RL = ∅ RL = 142, 1° ± 0, 5° Pd = 0, 993 ± 0, 015 Pd = 0, 995 ± 0, 005 αD = 29, 5° ± 0, 2° αR = 165, 3° ± 0, 1° Tableau II.12 – Matrices de Mueller expérimentales (moyennes et d'écart-types sur 150 mesures) pour un polariseur linéaire et une lame demi-onde à 830 nm d'orientation quelconque en transmission, ainsi que les valeurs de la diatténutation linéaire (DL ), dépolarisation (Pd ) et de retardance linéaire (RL ). demi-onde à 830 nm, dont les orientations correspondent à celles mesurées expérimentalement, à savoir 29, 5° (pour le polariseur linéaire) et 165, 3° (pour la lame demi-onde à 830 nm et de déphasage égal à 142, 1°). Polariseur linéaire  1, 000 0, 515 0, 857 Lame demi-onde 0, 000    −0, 515 −0, 265 −0, 441 0, 000       0, 857 0, 441 0, 735 0, 000   0, 000 0, 000 0, 000 0, 000  1, 000 0, 000 0, 000 0, 000    0, 000 0, 571 −0, 761 0, 308      0, 000 −0, 761 −0, 350 0, 547    0, 000 −0, 308 −0, 547 −0, 778 Tableau II.13 – Matrices de Mueller théoriques pour un polariseur linéaire orienté à 29, 5° et une lame demi-onde de retardance linéaire de 142, 1° dont l'axe rapide est orienté à 165, 3°. Les matrices de Mueller de ces échantillons présentent des coefficients, en théorie nuls, au maximum égaux à ±0, 024, ce qui nous donne une indication sur l'erreur systématique. La matrice d'écart-type nous permet d'évaluer l'ordre de grandeur des erreurs aléatoires ici égales -92- Chapitre II - Polarimètrie de Mueller à codage spectral utilisant une swept-source à ±0, 027. Ensuite, les paramètres polarimétriques correspondants montrent une description fiable des éléments optiques dont les valeurs sont proches de la théorie. L'incertitude de mesure est de l'ordre du pourcent, inférieure à ±0, 020 pour la diatténuation linéaire et la dépolarisation et inférieures au degré pour la retardance linéaire et les orientations (de la diatténuation et de la retardance). Ensuite, on évalue la précision de notre polarimètre par la mesure de matrices de Mueller de ces mêmes éléments optiques en fonction de leurs orientations. Pour cela, ils sont placés sur un moteur de rotation pas-à-pas N ewport piloté avec Labview via un contrôleur N ewport ESP 300 permettant l'acquisition d'un spectre tous les 10° entre 0° et 180°. Les mesures sont résumées Figure II.24 pour le polariseur linéaire et Figure II.25 pour la lame demi-onde à 830 nm. Ces valeurs (traits pointillés) sont moyennées 150 fois à chaque position et sont ensuite comparées à celles simulées pour ces éléments (traits pleins). -93- Chapitre II - Polarimètrie de Mueller à codage spectral utilisant une swept-source F IGURE II.24 – Évolution des coefficients mij d'un polariseur linéaire, en fonction de son orientation, pour la configuration en transmission. Les valeurs pointillées correspondent aux mesures expérimentales, moyennées 150 fois en chaque position et les traits pleins correspondent aux valeurs théoriques. F IGURE II.25 – Évolution des coefficients mij d'une lame demi-onde à 830 nm, en fonction de son orientation, pour la configuration en transmission. Les valeurs pointillées correspondent aux mesures expérimentales, moyennées 150 fois en chaque position et les traits pleins correspondent aux valeurs théoriques. -94- Chapitre II - Polarimètrie de Mueller à codage spectral utilisant une swept-source De ces courbes, on constate que les matrices de Mueller mesurées décrivent correctement ces deux échantillons connus. Les erreurs systématiques évoluent en fonction de l'orientation des éléments dont les valeurs sont inférieures à ±0, 050. Cela est dû au fait qu'à certains angles, multiples de 45° en particulier, les amplitudes des pics sont plus faibles donc plus fortement bruitées, comme on a pu le voir à la section 3.2. Le Tableau II.14 résume les valeurs moyennes et les écart-types associées de ces paramètres obtenues après décomposition de Lu et Chipman des matrices de Mueller pour chaque orientation. Polariseur linéaire Lame demi-onde DL = 0, 994 ± 0, 002 DL = 0, 018 ± 0, 008 Pd = 0, 997 ± 0, 003 Pd = 1, 002 ± 0, 004 RL = ∅ RL = 141° ± 0, 6° Tableau II.14 – Valeurs moyennes sur l'orientation de la diatténutation linéaire (DL ), dépolarisation (Pd ) et de retardance linéaire (RL ) d'un polariseur linéaire et d'une lame demi-onde à 830 nm en transmission. Les moyennes et les écart-types sont réalisés sur l'ensemble des matrices de Mueller mesurées pour chaque orientation. Ce tableau permet alors de constater que les valeurs attendues pour ces éléments optiques correspondent bien à celles attendues en théorie. Les barres d'erreurs sont ici inférieures à ±0, 010 pour la diatténuation linéaire et la dépolarisation et inférieures au degré pour la retardance linéaire. Ces résultats obtenus ici montrent que notre polarimètre de Mueller a des performances comparables à celui développé au cours de la thèse de M. Dubreuil. Ainsi, un changement de configuration (source + détecteur et lames du PSG et du PSA) n'a pas réduit la précision de l'approche par codage spectral. Nous allons maintenant présenter le passage du polarimètre de Mueller vers une configuration de réflexion. On verra que cela nous imposera de développer une nouvelle procédure de calibration qui doit mesurer les 4 erreurs de phase, indépendamment d'un système optique (ici un cube séparateur) situé entre les blocs de codage et de décodage, qu'on ne déplace pas entre la phase de calibration et la phase de mesure. -95- Chapitre II - Polarimètrie de Mueller à codage spectral utilisant une swept-source 4- Configuration en réflexion Afin d'envisager des études sur des échantillons épais, le polarimètre a également été développé en configuration de réflexion. Une photo du dispositif expérimental dans cette configuration est présentée Figure II.26. F IGURE II.26 – Dispositif expérimental du polarimètre de Mueller utilisant une swept-source en configuration de réflexion. Pour les dispositifs en réflexion, il est primordial de placer un élément séparateur sur le trajet optique du système, tel qu'un cube séparateur ou une lame séparatrice. Ce séparateur laisse passer la lumière transmise provenant directement de la source pour éclairer le milieu, puis après réflexion sur ce dernier, 50% de la lumière est réfléchie à 90° du trajet incident vers un détecteur. Cependant, cet élément est susceptible de posséder une réponse polarimétrique particulière qu'il faut pouvoir séparer de celle du milieu. Étant donné qu'il n'est pas envisageable de déplacer le cube séparateur entre la phase de calibration et la phase de mesure, la procédure de calibration utilisant le vide comme référence ne peut donc plus être utilisée dans cette configuration. Ainsi, une nouvelle procédure a été développée utilisant simplement deux polariseurs linéaires de référence, l'un juste après le PSG et l'autre juste avant le PSA. Nous allons voir que cela nous permet de déterminer les 4 erreurs de phase φ2 , φ3 , φ4 et φf en indépendamment de tout type d'anisotropie optique placée entre le bloc de codage et de décodage. Remarque : Nos études sur la validation d'un prototype de polarimètre de Mueller en réflexion consistent à étudier des échantillons transparents, placés devant un miroir de renvoi. Il faut donc tenir compte de l'effet miroir (inversion du système de coordonnées cartésiennes) et le double passage à travers le milieu dans la matrice de Mueller. Cependant, par la suite, il serait tout à fait intéressant d'étudier les effets polarimétriques sur des échantillons épais et diffusants. 4.1- Procédure de calibration en réflexion Pour remonter aux erreurs de phase, la calibration de notre polarimètre consiste à utiliser deux polariseurs linéaires de référence (noté PLR) comme étalons, placés de manière identique à -96- Chapitre II - Polarimètrie de Mueller à codage spectral utilisant une swept-source la Figure II.27, dont un est orienté d'un angle α et l'autre d'un angle β, par rapport au polariseur d'entrée du PSG. F IGURE II.27 – Schéma du polarimètre de Mueller en configuration de réflexion. CS : Cube Séparateur. PLR(α) : Polariseur Linéaire de Référence orienté d'un angle α par rapport au polariseur d'entrée du PSG. PLR(β) : Polariseur Linéaire de Référence orienté d'un angle β par rapport au polariseur d'entrée du PSG. Obj : Objectif 4X. Si on simule la réponse polarimétrique en transmission de ces deux polariseurs linéaires, dont les orientations sont α = β = 0° et α = β = −45°, on observe que : - les pics d'amplitudes non-nulles sont aux fréquences f0 , 4f0 , 5f0 et 6f0 , pour la première situation, - les pics d'amplitudes non-nulles sont aux fréquences f0 , 8f0 , 10f0 et 12f0 , pour la deuxième situation. On comprend alors qu'il va être possible de générer une réponse spécifique en fonction de l'orientation de ces deux polariseurs linéaires de référence. On note (α,β) la combinaison d'orientation lorsque le premier polariseur est orienté d'un angle α et le second de β. D'après le Tableau II.7, on peut tout d'abord écrire les arguments des pics pour la combinaison d'orientation (0°, 0°) Arg(I ̃f0 ) = φf en Arg(I ̃4f0 ) = 4φf en + φ4 Arg(I ̃5f0 ) = 5φf en + φ4 Arg(I ̃6f0 ) = 6φf en + φ4 et pour celle correspondant à (−45°, −45°) : -97- (II.30) Chapitre II - Polarimètrie de Mueller à codage spectral utilisant une swept-source Arg(I ̃2f0 ) = 2φf en + φ2 Arg(I ̃8f0 ) = 8φf en − φ2 + φ3 + φ4 Arg(I ̃10f0 ) = 10φf en + φ3 + φ4 Arg(I ̃12f0 ) = 12φf en + φ2 + φ3 + φ4 (II.31) Ainsi, on peut écrire un certain nombre d'équations faisant intervenir les erreurs de phases des lames de Y V O4. Pour pouvoir toutes les déterminer, on génère deux équations supplémentaires, par exemple avec les combinaisons d'orientation (0°, −45°) : Arg(I ̃2f0 ) = 2φf en + φ2 Arg(I ̃3f0 ) = 3φf en − φ2 + φ3 Arg(I ̃5f0 ) = 5φf en + φ4 Arg(I ̃7f0 ) = 7φf en + φ2 + φ4 (II.32) et pour la combinaison (−45°, 0°) : Arg(I ̃f0 ) = φf en Arg(I ̃9f0 ) = 9φf en + φ3 + φ4 Arg(I ̃10f0 ) = 10φf en + φ3 + φ4 Arg(I ̃11f0 ) = 11φf en + φ3 + φ4 (II.33) Finalement, la calibration à partir de 4 combinaisons d'orientation de deux polariseurs linéaires permet d'avoir accès aux erreurs de phase φ2 , φ3 , φ4 et φf en . La relation sous forme matricielle entre les phases et les arguments des pics de Fourier aux différentes fréquences est résumée Annexe 9. L'intérêt majeur de cette procédure est que les arguments des pics des fréquences générées par les 4 combinaisons d'orientation des deux polariseurs, représentées dans l'espace de Fourier sur la Figure II.28, sont indépendantes de la signature polarimétrique du cube séparateur et plus généralement de la signature polarimétrique d'un milieu quelconque situé entre les deux polariseurs linéaires de référence. Cette procédure va donc être intéressante car le polarimètre de Mueller en réflexion possède des éléments qu'on ne peut pas enlever pendant la mesure, notamment : - un cube séparateur 50/50, - une optique collectrice de lumière après interaction avec un milieu (lentille de courte focale ou objectif de microscope). Après l'extraction des phases avec cette procédure de calibration, il nous faut néanmoins remonter à la signature polarimétrique de l'échantillon indépendamment de ces éléments optiques. -98- Chapitre II - Polarimètrie de Mueller à codage spectral utilisant une swept-source F IGURE II.28 – Représentation dans l'espace de Fourier des 4 combinaisons d'orientation de deux polariseurs linéaires de référence (0°, 0°), (−45°, −45°), (−45°, 0°) et (0°, −45°). 4.2- Prise en compte des éléments optiques en réflexion 4.2.1- Influence du cube séparateur Le passage à la configuration de réflexion impose l'ajout d'un cube séparateur 50/50 dans le dispositif expérimental. Le modèle retenu est un cube Thorlabs CM1-BS2 non-polarisant dont la plage spectrale optimale se situe entre 700nm et 1100nm. Cet élément optique a une signature polarimétrique spécifique dues à un traitement multicouche entre les 2 prismes constituant le cube, qui ajoute une erreur systématique supplémentaire au polarimètre. En effet, la mesure des matrices de Mueller (moyennées 150 fois) en transmission et en réflexion (combinaison de l'effet en transmission à la traversée du cube avec celui en réflexion au retour du faisceau) du cube séparateur est donnée dans le Tableau II.15, ainsi que les résultats de la décomposition de Lu et Chipman. On constate que les paramètres polarimétriques en transmission et en réflexion sont proches pour les valeurs de diatténuation et de dépolarisation. En revanche, ce cube séparateur présente une réponse en retardance différente en transmission (égale à 10°) et en réflexion (égale à 42°). Ce cube séparateur se comporte comme un élément biréfringent. On a représenté Figure II.29, la transformée de Fourier du signal associé à la présence du cube en réflexion sans échantillon. On retrouve principalement les pics du vide (2f0 , 4f0 , 6f0 , 10f0 et 12f0 ), avec des pics de plus faibles amplitudes qui sont rattachés à la réponse polarimétrique du cube séparateur. Cette réponse en retardance peut être expliquée par la théorie de la Réflexion Totale Interne Frustrée (FTIR) [116]. En effet, les cubes séparateurs sont basés sur ce principe [117, 118] qui -99- Chapitre II - Polarimètrie de Mueller à codage spectral utilisant une swept-source En transmission En réflexion   0, 000 −0, 005 −0, 027  1, 000     0, 003 0, 985 −0, 001 0, 141     −0, 007 −0, 007 0, 989 −0, 109     −0, 018 0, 145 0, 106 0, 983    1, 000 −0, 007 −0, 014 0, 022     −0, 016 0, 975 0, 135 −0, 282     −0, 014 0, 129 0, 689 0, 745      0, 001 0, 278 −0, 747 0, 646 DL = 0, 025 ± 0, 008 DL = 0, 045 ± 0, 015 RL = 9, 7° ± 0, 8° RL = 42, 4° ± 1, 5° Pd = 0, 996 ± 0, 004 Pd = 1, 014 ± 0, 025 Tableau II.15 – Matrices de Mueller du cube séparateur en transmission et en réflexion (moyennées 150 fois) et les paramètres polarimétriques associés de diatténuation linéaire (DL ), de dépolarisation (Pd ) et de retardance linéaire (RL ). F IGURE II.29 – Transformée de Fourier du signal du cube séparateur en réflexion sans échantillon. apparaı̂t lorsqu'une onde évanescente se propage à travers un milieu d'indice n2 séparant deux milieux de même indice n1 (telle que n1 > n2 ) dans une configuration de réflexion totale, c'està-dire quand l'onde est incidente à l'interface n1 /n2 avec un angle supérieur à l'angle critique θC = asin(n2 /n1 ). Par example, si on considère deux prismes de verre (n = 1,5) dans le vide (n = 1) séparé d'une certaine distance, on est capable de génèrer une réflexion et une transmission de 50/50. Dans ce cas, la diatténuation en transmission et en réflexion sont différentes. En revanche, la retardance est la même pour la transmission et la réflexion. Si maintenant on ajoute des traitements multicouches sur les faces, il est possible d'obtenir une diatténuation proche de 0 mais cela a pour conséquence de modifier la retardance en transmission et en réflexion. Les informations concernant la constitution du cube séparateur T horlabs@ n'étant pas disponibles sur les couches utilisées (épaisseurs, matériaux diélectriques, indices), il a été impossible de comparer nos valeurs expérimentales à des simulations de cet élément. -100- Chapitre II - Polarimètrie de Mueller à codage spectral utilisant une swept-source La mesure de la matrice du milieu ne peut se faire qu'en présence du cube séparateur et sans modifier sa position car la réponse de celui-ci change en fonction de son alignement par rapport au faisceau incident. Il est donc essentiel de déterminer sa signature polarimétrique avec la seule possibilité de pouvoir déplacer les blocs de PSG et de PSA. La solution retenue pour pouvoir déterminer de manière fiable la matrice de Mueller d'un milieu inconnu est présentée sur le schéma II.30. F IGURE II.30 – Schéma résumant l'étape de mesure de la matrice de Mueller du milieu, en tenant compte du cube séparateur (noté CS) en transmission puis en réflexion. Tout d'abord, on mesure simplement la matrice de transmission du cube séparateur notée Ensuite, on déplace l'ensemble (PSA + détecteur) vers la configuration en réflexion. La matrice de Mueller à vide mesurée (sans échantillon), notée [Mmes1 ], correspond alors au ref l produit entre celles en transmission et en réflexion, notée [MBS ], et peut s'écrire alors : trans [MBS ]. ref l trans [Mmes1 ] = [MBS ] * [MBS ] -101- (II.34) Chapitre II - Polarimètrie de Mueller à codage spectral utilisant une swept-source ref l où l'expression de [MBS ] ne prend pas en compte le déphasage de π à la réflexion du cube séparateur car il varie avec le même déphasage à la réflexion du miroir. On peut alors déterminer la matrice de Mueller du cube en réflexion simplement par inversion telle que : ref l trans −1 [MBS ] = [Mmes1 ] * [MBS ] (II.35) La mesure de la matrice de Mueller [Mmes2 ] avec le milieu, dont la matrice est notée [MM ilieu ], correspond au produit des trois matrices des éléments rencontrés séquentiellement (transmission + milieu + réflexion) tel que ref l trans ] * [MM ilieu ] * [MBS ] [Mmes2 ] = [MBS (II.36) La matrice du Mueller du milieu est alors directement obtenue par inversion de la façon suivante : trans −1 −1 trans −1 ] ] * [Mmes2 ] * [MBS ] [MM ilieu ] = [[Mmes1 ] * [MBS (II.37) 4.2.2- Influence de l'optique collectrice La configuration en réflexion nécessite de placer une optique collectrice de la lumière rétrodiffusée par l'échantillon (lentille ou un objectif de microscope par exemple). Cependant, il est possible que l'élément optique possède une réponse polarimétrique non-négligeable. Étant donné notre configuration expérimentale, il n'est pas possible de séparer son effet polarimétrique de celui du milieu car il est placé avant le PSA. Nous devons donc judicieusement choisir une optique collectrice du signal après l'échantillon possédant une signature polarimétrique la plus neutre possible. Dans le Tableau II.16, nous présentons l'influence de l'optique collectrice sur la matrice de Mueller du miroir de renvoi, à savoir lorsque l'on place devant l'échantillon une lentille de courte focale (15 mm) ou un objectif Olympus UPLSAPO 4X/0,16NA. Avec lentille f' = 15 mm  Avec objectif 4X,16NA  0, 009 −0, 025 0, 036   1, 000   −0, 027 0, 967 −0, 007 0, 004      −0, 007 0, 004 0, 935 −0, 056     −0, 015 −0, 026 0, 051 0, 943   0, 015 −0, 006 0, 028   1, 000     0, 067 0, 981 −0, 026 0, 019     −0, 004 0, 005 0, 977 −0, 043     −0, 027 −0, 009 0, 039 0, 984 Tableau II.16 – Matrices de Mueller du miroir de renvoi en présence d'une lentille de courte focale (15 mm) ou d'un objectif Olympus 4X/0,16NA. On constate alors qu'avec un objectif de microscope (qui sera utilisé dans le microscope de Mueller) la mesure n'est a priori pas trop entachée d'erreur. De plus, il permet en plus d'avoir une résolution latérale théorique de λ/(2N A) ∼ 3, 3μm. -102- Chapitre II - Polarimètrie de Mueller à codage spectral utilisant une swept-source 4.3- Validation sur des échantillons de référence Nous avons vérifié cette nouvelle procédure de calibration par la mesure de matrices de Mueller des mêmes échantillons de référence utilisés en transmission (polariseur linaire et lame demi-onde à 830 nm) en fonction de leurs orientations. Les résultats, moyennés 150 fois en chaque position, sont présentés Figure II.31 pour le polariseur linéaire et II.32 pour la lame demi-onde à 830 nm. -103- Chapitre II - Polarimètrie de Mueller à codage spectral utilisant une swept-source F IGURE II.31 – Évolution des coefficients mij d'un polariseur linéaire, en fonction de son orientation, pour la configuration en réflexion. Les valeurs pointillées correspondent aux mesures expérimentales, moyennées 150 fois en chaque position et les traits pleins correspondent aux valeurs théoriques. F IGURE II.32 – Évolution des coefficients mij d'une lame demi-onde à 830 nm, en fonction de son orientation, pour la configuration en réflexion. Les valeurs pointillées correspondent aux mesures expérimentales, moyennées 150 fois en chaque position et les traits pleins correspondent aux valeurs théoriques. -104- Chapitre II - Polarimètrie de Mueller à codage spectral utilisant une swept-source On constate d'après ces figures que l'erreur systématique est légèrement supérieure à celle déterminée avec la configuration en transmission, à savoir de l'ordre de ±0, 060 sur les coefficients de Mueller, mais reste toujours acceptable dans la précision de nos mesures. On observe ici également une augmentation de l'erreur pour des orientations des axes neutres multiples de 45° due au même problème d'ordre numérique mentionné pour la configuration en transmission (amplitudes des pics sont plus faibles, donc plus bruitées). Le Tableau II.17 résume les valeurs moyennes et les écart-types de ces paramètres obtenues après la décomposition de Lu et Chipman des matrices de Mueller pour chaque orientation. Polariseur linéaire Lame demi-onde DL = 0, 995 ± 0, 002 DL = 0, 026 ± 0, 007 Pd = 0, 997 ± 0, 003 Pd = 0, 992 ± 0, 004 RL = ∅ RL = 77° ± 0, 6° Tableau II.17 – Valeurs moyennes sur l'orientation de la diatténuation linéaire (DL ), dépolarisation (Pd ) et de retardance linéaire (RL ) d'un polariseur linéaire et d'une lame demi-onde à 830 nm en réflexion. Les moyennes et les écart-types sont réalisés sur l'ensemble des matrices de Mueller mesurées pour chaque orientation. Ces derniers résultats montrent que les barres d'erreur sont identiques à celles trouvées dans la configuration en transmission, ici égales à ±0, 007 pour la diatténuation linéaire et la dépolarisation et inférieures au degré pour la retardance linéaire. A la vue de ces résultats, on peut donc dire que cette nouvelle procédure de calibration permet de prendre en compte toutes les erreurs systématiques induites par les erreurs de phase des lames de Y V O4 et également par le cube séparateur en configuration de réflexion. 4.4- Imagerie sur des échantillons connus On propose d'étudier maintenant des échantillons connus avec des images de Mueller, comme on peut le voir sur l'image Figure II.33. Il s'agit d'un polariseur linéaire et de deux couches de ruban adhésif (d'épaisseur d et 2d) apposés directement sur le miroir de renvoi. L'idée est donc d'acquérir un spectre cannelé point-par-point et de remonter à la représentation des trois paramètres polarimétriques (diatténuation, dépolarisation et retardance) en 2D. Les valeurs attendues pour ces échantillons sont : - le miroir : DL = 0, Pd = 1 et RL = 0°, - un polariseur linéaire : DL = 1, Pd = 1 et RL = ∅, -105- Chapitre II - Polarimètrie de Mueller à codage spectral utilisant une swept-source F IGURE II.33 – Image des échantillons de référence, à savoir deux couches de ruban adhésif d'épaisseur d et 2d, un polariseur linéaire CoDiXx et un miroir seul. - un morceau de ruban adhésif : DL = 0, Pd = 1 et RL 6= 0° [119]. Cet ensemble a été ensuite fixé à une platine de translation XY N ewport connectée au même contrôleur que celui utilisé pour les supports de rotation motorisés. Un programme Labview, commandant la carte d'acquisition connectée à la photodiode et le contrôleur, permet de synchroniser l'acquisition des spectres et le balayage de la platine. En effet, une commande spécifique a été développée pour déclencher le changement de position de l'échantillon à chaque fin d'acquisition du spectre cannelé. Les vitesses d'acquisition des images sont relativement lentes (une dizaine de minutes) et augmentent avec le nombre de moyennage des spectres par point. Pour avoir un bon rapport signal-sur-bruit, les signaux ont été moyennés 50 fois en chaque pixel pour des images de dimension 106 × 106 et avec un pas de translation de 100 μm. Afin d'illustrer l'importance de tenir compte de la signature polarimétrique du cube séparateur en dehors de l'aspect numérique, nous avons représenté les images de Mueller sans et avec la prise en compte de cet élément, dont le résultat est visible Figure II.34 pour un champ balayé de 1×1cm2 . Dans un premier temps, lorsqu'on ne prend pas en compte la signature polarimétrique du cube (images (a), (b) et (c)), les valeurs en diatténuation et en dépolarisation correspondent aux valeurs attendues. Cependant, les valeurs en retardance sont aberrantes puisque l'on obtient des retards de l'ordre de 50° pour le vide (au lieu de 0°) et proche de 180° pour le ruban adhésif. Ce dernier paramètre est donc le plus affecté par la réponse du cube séparateur, ce qui est normal compte tenu de sa forte valeur de retardance (42°). En appliquant la formule II.37 pour remonter à la matrice de Mueller du milieu d'étude (images (d), (e) et (f)), les résultats pour la diatténuation et la dépolarisation sont sensiblement identiques à la situation précédente (images (d) et (e)). En revanche, les valeurs en retardance correspondent -106- Chapitre II - Polarimètrie de Mueller à codage spectral utilisant une swept-source F IGURE II.34 – (a,b,c) Sans correction du cube. (d,e,f) Avec correction du cube. (a,d) DL : Diatténuation linéaire, (b,e) Pd : Dépolarisation, (c,f) RL : Retardance linéaire. bien ici à celles attendues, à savoir une retardance nulle pour le vide et le polariseur linéaire et non-nulle pour le ruban adhésif. -107- Chapitre II - Polarimètrie de Mueller à codage spectral utilisant une swept-source Conclusion Dans ce chapitre, nous nous sommes intéressés au principe théorique du polarimètre de Mueller à codage spectral et à sa mise en place expérimentale en se basant sur les études réalisées dans le cadre de la thèse de M. Dubreuil. L'intérêt majeur de se tourner vers cette approche de génération et d'analyse des états de polarisation est que toute la réponse polarimétrique du milieu soit contenue dans un seul spectre cannelé. Nous avons ensuite présenté un polarimètre de Mueller à haute cadence (100 kHz) qui utilise une simple photodiode, dans une configuration en transmission puis en réflexion. L'ensemble des erreurs systématiques introduites par le PSG et le PSA a été décrit. Elles sont principalement liées au traitement du signal (k-clock, "drop-off ", résolution des pics dans l'espace de Fourier, fenêtrage) et aux défauts des lames de Y V O4 des blocs de codage et de décodage (alignements et épaisseurs). Ces dernières erreurs nous imposent d'introduire des phases supplémentaires dans notre modèle qu'il faut corriger avant la mesure. Pour cela, on a développé des procédures de calibration en tenant compte du type de configuration du dispositif. En transmission, la procédure consiste simplement à mesurer la signature polarimétrique de deux milieux de référence pour le vide et un polariseur linéaire. Pour passer à une configuration en réflexion, cette étape de calibration ne peut plus utiliser le vide comme référence car l'ajout d'un cube séparateur, inhérent à la configuration, ne peut être déplacé entre la phase de calibration et la phase de mesure. Une nouvelle procédure de calibration en 3 étapes a alors été mise en oeuvre pour corriger l'ensemble des erreurs systématiques de la configuration. Pour cela, on mesure les erreurs induites par les lames de Y V O4 en plaçant simplement 2 polariseurs linéaires placés après le PSG et avant le PSA. Afin de s'affranchir de la réponse polarimétrique du cube séparateur, 2 matrices doivent être connues au préalable : la matrice de Mueller du cube séparateur en transmission et la matrice de Mueller mesurée lorsque l'échantillon est remplacé par un miroir. Cette configuration du polarimètre en réflexion a été validée par des mesures de la matrice de Mueller sur des milieux connus (vide, polariseur linéaire et lame de phase). En comparant le polarimètre déjà développé au LSOL utilisant une diode super-luminescente et un spectromètre, on remarque que le caractère "snapshot" du codage spectral a été perdu. Cependant, il est maintenant possible de simplement passer d'une configuration en transmission à une en réflexion, et en présence de n'importe quelle anisotropie optique située avant le milieu. De plus, un détecteur monocal est plus adapté à des modalités d'imagerie à balayage en transmission par rapport au spectromètre, dû au déplacement du faisceau sur la surface du capteur pendant l'acquisition d'une image. On envisage donc maintenant d'amener ce dispositif au sein d'un microscope à balayage laser, dont le temps de résidence par pixel (quelques μs) correspondent à la durée de balayage en longueur de la swept-source. Il sera possible d'acquerir des images en microscopie polarimétrique de Mueller en un seul balayage du faisceau laser sur l'échantillon en quelques secondes seulement. -108- Chapitre II - Polarimètrie de Mueller à codage spectral utilisant une swept-source -109- Chapitre III - Implémentation sur un microscope à balayage laser -110- Chapitre III - Implémentation sur un microscope à balayage laser Chapitre III Implémentation sur un microscope optique à balayage laser -111- Chapitre III - Implémentation sur un microscope à balayage laser Introduction Dans le Chapitre II, un nouveau type de polarimètre de Mueller à codage spectral de la polarisation utilisant une source laser à balayage rapide en longueur d'onde (swept-source à 100 kHz) et pouvant fonctionner aussi bien en transmission qu'en réflexion, a été proposé et évalué. L'innovation tient à la fois dans le fait que l'information polarimétrique donnant accès à la matrice de Mueller d'un échantillon est obtenue en seulement 10μs et que le signal optique est mesuré à l'aide d'une simple photodiode PIN associée à un amplificateur large bande (200 Mhz de bande passante). Ces deux caractéristiques (rapidité et détection monocanale du signal optique) nous permettent d'envisager l'implémentation du polarimètre au sein d'un microscope à balayage laser. En effet, dans un microscope de ce type, appelé de façon générique confocal (bien qu'il existe d'autres modes de fonctionnement non confocaux, en particulier non-linéaires comme nous le verrons dans la suite), le signal optique (basiquement la fluorescence) associé à chaque point de l'image, est détecté par un photorécepteur monocal du type photomultiplicateur (PMT : PhotoMultiplier Tube) puis intégré pendant typiquement 10μs (pixel-dwell time) avant d'être numérisé pour former un point de l'image. Dans un microscope confocal moderne, l'image est alors obtenue point par point en ré-imageant sur la pupille d'entrée de l'objectif du microscope les deux miroirs dits galvanométriques du dispositif (scanner), qui font tourner le faisceau laser autour de deux axes orthogonaux. Le volume focal de l'objectif (PSF) balaie ainsi un plan optique dans l'échantillon, dont l'image est reconstruite informatiquement au fur et à mesure de l'acquisition du signal de fluorescence. Ce signal est ensuite intégré puis numérisé par un convertisseur A/D, ceci de façon synchrone avec les signaux de commande des miroirs galvanométriques (rampe de tension pour le miroir rapide de ligne, tension en marche d'escalier pour le miroir lent de colonne). L'intérêt de proposer une modalité d'imagerie polarimétrique de Mueller au sein d'un microscope optique à balayage laser est double. Tout d'abord, cela permet d'accéder à l'ensemble des contrastes polarimétriques d'un échantillon (biréfringences, dichroı̈smes et dépolarisations linéaires et circulaires) avec la résolution spatiale du microscope confocal, limitée par la diffraction, y compris en milieu diffusant. Ensuite, cela permet d'envisager de coupler au sein du même instrument le mode d'imagerie de Mueller avec tous les autres modes d'imagerie d'un microscope optique à balayage laser, à savoir la fluorescence excitée à 1 photon (mode confocal) ou 2 photons et la génération de seconde harmonique (SHG). L'imagerie SHG est quant à elle particulièrement intéressante du point de vue du couplage avec l'imagerie de Mueller car il est bien connu que la SHG est extrêmement sensible à l'ordre et à l'orientation des arrangements moléculaires et supra-moléculaires qui la génèrent. Le cas type est le collagène fibrillaire de type I qui présente à la fois des réponses polarimétriques anisotropes linéaire (biréfringence) et non linéaire (SHG). Ce collagène est très abondant au sein de la matrice extracellulaire de la plupart des tissus animaux (30% environ du poids sec d'un vertébré). Pouvoir imager le collagène fibrillaire de type I à l'échelle cellulaire, connaı̂tre l'orientation des fibres et l'amplitude des anisotropies qu'elles produisent, constitue un puissant outil pour l'étude d'un certain nombre de pathologies impliquant cette protéine (atteinte et régénération tissulaires, fibrose, cancer) et le développement de méthodes de diagnostic biomédical. Un exemple d'application à l'étude de la fibrose du foie est donné à la fin du chapitre. -112- Chapitre III - Implémentation sur un microscope à balayage laser Remarque : Les microscopies de génération de troisième harmonique (THG) et CARS (Coherent Anti-stokes Raman Scattering) ne sont pas envisagées dans ce travail car elles nécessitent des sources laser indisponibles au laboratoire. -113- Chapitre III - Implémentation sur un microscope à balayage laser 1- Implémentation du polarimètre de Mueller L'implémentation du polarimètre de Mueller à codage spectral de la polarisation s'est faite sur le microscope à balayage commercial du laboratoire (image Figure III.1). Il s'agit d'un module confocal (comportant le scanner, les photorécepteurs, les interfaces électronique et graphique) de marque Olympus, de conception assez ancienne (modèle Fluoview 300 - FV300), couplé à un statif droit de la même marque (BX51WI), le tout acquis en 2008 (l'un des derniers modèles de ce type vendu en France par Olympus) par l'Institut de Physique de Rennes, puis transféré à l'UBO en 2009. Ce microscope possède des optiques étendues dans l'infrarouge jusqu'à 900 nm environ (miroirs galvanométriques du scanner, lentilles de scan et de tube, miroirs dichroı̈ques, objectifs) pour pouvoir l'utiliser en routine, soit en mode confocal classique dit 1PEF (One-Photon Excitation Fluorescence), auquel cas il est couplé à un laser Nd-YAG doublé de 15 mW à 473 nm, soit en mode non linéaire 2PEF (Two-Photon Excitation Fluorescence) et SHG autour de 800 nm de longueur d'onde d'excitation (transmission globale de l'ordre de 60% à 800 nm). Dans ce dernier cas, le microscope est couplé à un laser femtoseconde du type Titane-Saphir (Ti :Sa modèle COHERENT Mira-Verdi5) accordable de 700 à 980 nm environ, qui délivre une puissance moyenne d'environ 800 mW au pic (800 nm) sous forme d'impulsions de durée proche de 150 fs à une cadence de répétition de 76 MHz (Intervalle Spectral Libre de la cavité de l'oscillateur femtoseconde Ti :Sa). F IGURE III.1 – Dispositif expérimental pour la microscopie de fluorescence (TPEF) et non-linéaire (SHG) (à gauche) Au fond, le laser N d : Y V O4 de 5 W, émettant à 532 nm en continu, pompant l'oscillateur laser femtoseconde Ti-Sa (Coherent Mira900F). (à droite) Module confocal (Olympus FV300) et le microscope droit (Olympus, BX51WI). PSU : Power Supply Unit (unité de contrôle et d'interfaçage du microscope avec l'ordinateur). PC : ordinateur sous Windows équipé des cartes d'interfaçage et de l'interface graphique FV300 Olympus. -114- Chapitre III - Implémentation sur un microscope à balayage laser 1.1- Implémentation opto-mécanique Le montage du polarimètre de Mueller au sein du microscope Olympus FV300-BX51WI a été fait en configuration de transmission car le signal rétrodiffusé par un échantillon placé sur la platine du microscope, déjà intrinsèquement faible, subit des pertes importantes à la traversée du microscope (transmission simple passage du microscope de l'ordre de 7% à 1060 nm). Ce choix de configuration en transmission se heurte néanmoins au problème de la collection du signal transmis qui est balayé au cours du processus d'acquisition de l'image. Comme en microscopie SHG, pour avoir une efficacité de collection du signal transmis constante et optimale au cours du balayage, il est nécessaire de ré-imager la pupille de sortie de l'optique collimatrice (condenseur) située après l'échantillon, sur la surface sensible du photorécepteur, qui doit alors être assez grande pour collecter entièrement cette image. Ainsi, au cours du balayage, le faisceau collecté pivote autour de deux axes quasiment confondus avec le plan du photorécepteur (images des axes de rotation des deux miroirs galvanométriques). L'efficacité de détection reste alors constante si l'aire du photorécepteur est au moins aussi grande que celle de la section du faisceau pour l'angle d'inclinaison extrême (cet angle est de quelques degrés seulement comme nous le verrons dans la suite). La photodiode PIN mise en oeuvre précédemment, dont la surface sensible est beaucoup trop petite (diamètre 300μm) a donc du être remplacée par un PMT sensible dans l'IR autour de 1060 nm. L'installation du polarimètre de Mueller sur le microscope, réalisée pendant la seconde partie de ma thèse, a nécessité les aménagements suivants, schématisés en partie Figure III.2 : F IGURE III.2 – Schéma éclaté du microscope polarimétrique de Mueller (cube séparateur et miroirs de renvoi et galvanométrique notés M i, où i =[1,7]). CS : Cube séparateur. – couplage de la swept-source émettant autour de 1060 nm avec le microscope : un miroir plan escamotable noté M3, orientable, et traité argent (coefficient de réflexion proche de 98% à -115- Chapitre III - Implémentation sur un microscope à balayage laser 1060nm) a été installé à l'entrée du module confocal FV300 en lieu et place du miroir dichroı̈que permettant à l'origine d'injecter les lasers Nd-YAG et Ti :Sa par 2 voies orthogonales situées à l'arrière et sur l'un des flancs du module de balayage du microscope. Le dispositif de codage de la polarisation décrit au Chapitre II (polariseur suivi de 2 lames de Y V O4 de même épaisseur e orientées à 45° l'une de l'autre), suivi du cube séparateur non polarisant permettant à terme de travailler en "réflexion", est de nouveau placé en sortie de swept-source. Le faisceau de la swept-source est alors amené à la hauteur de l'entrée du module confocal à l'origine destinée à injecter le laser Nd-YAG visible pour le mode confocal (entrée qui n'a pas vocation à fonctionner en parallèle avec le mode de Mueller, contrairement au mode non linéaire) à l'aide d'un périscope comportant les 2 miroirs plans M1 et M2 traités aluminium (coefficient de réflexion proche de 95% à 1060nm). – installation d'un miroir plan M4 traité argent sur la queue d'aronde porte miroirs dichroı̈ques située juste avant les deux miroirs galvanométriques M5 et M6 du scanner. Le miroir dichroı̈que a pour fonction de séparer, avant détection, la lumière de fluorescence descannée issue de l'échantillon, du résidu de lumière laser rétro-diffusée par l'échantillon. A la sortie du scanner le faisceau traverse un groupe de lentilles (lentille de scan puis la lentille du tube) avant d'attaquer le dernier miroir de renvoi noté M7 situé dans la tête du statif BX51WI. – conception et construction d'un bloc compact de collection de la lumière, comprenant le dispositif de décodage de la polarisation, placé sous la platine porte-échantillon du microscope. Le schéma optique du bloc de décodage est présenté sur la Figure III.3. L'image de la Figure III.4 montre le bloc de collection implémenté sous la platine porte-échantillon. Ce bloc comprend une première lentille L1 faisant office de condenseur, qui collecte et collimate le faisceau laser (signal) transmis par l'échantillon. La distance focale de cette lentille (20 mm) et son ouverture numérique (NA = 0,3) ont été choisies en fonction des contraintes d'encombrement du dispositif (espace limité sous la platine) et de l'ouverture numérique des objectifs de microscope les plus utilisés dans les expériences (4X/0,1NA et 10X/0,3NA). Immédiatement à la sortie du condenseur, le faisceau laser parallèle traverse le dispositif de décodage constitué de 2 lames de Y V O4 de même épaisseur 5e orientées à 45° l'une de l'autre, suivies d'un analyseur croisé avec le polariseur d'entrée, le tout aligné verticalement dans un tube. Notons que le faisceau parallèle qui traverse le dispositif de décodage est balayé pendant l'acquisition de l'image. L'amplitude angulaire de ce balayage est de 4, 6° environ avec l'objectif 4X (champ image de l'ordre de 3,5 mm environ) et de 1, 85° environ avec l'objectif 10X (champ image de l'ordre de 1,3 mm). L'inclinaison du faisceau à la traversée des lames de Y V O4 au cours du balayage va ainsi provoquer une variation de la biréfringence produite par ces lames. Les effets de cette variation sur les mesures polarimétriques devront être corrigés a posteriori. Le faisceau transmis par l'analyseur est réfléchi par un miroir plan traité argent orienté à 45°. Le faisceau horizontal ainsi obtenu traverse finalement une lentille L2 de distance focale f = 60 mm, de diamètre 1 pouce (2,54 cm), placée à 120 mm du condenseur, dont la fonction est de ré-imager la pupille de sortie de ce condenseur sur la photocathode d'un PMT, elle-même positionnée à 120 mm de la lentille L2 (montage 2f-2f, le plus compact possible, voir schéma Figure III.3). On obtient ainsi un grandissement transversal de 1 (taille du faisceau sur le PMT égale à celle en sortie de L1, soit environ 6,5 mm avec l'objectif 4X) et grandissement angulaire de 1 (angle de balayage du faisceau sur le -116- Chapitre III - Implémentation sur un microscope à balayage laser F IGURE III.3 – Schéma optique du dispositif de collection du faisceau transmis à la sortie du microscope à balayage. La lentille L1 représente la condenseur. La lentille L2 permet de ré-imager la pupille du condenseur sur le PMT. F IGURE III.4 – Image du dispositif de collection schématisé Figure III.3. PLR : polariseur linéaire de référence amovible. PMT égal à celui en sortie de L1). Le diamètre de la lentille L2 a été choisi assez grand (25 mm utiles) pour que celle-ci, placée à 120 mm du condenseur, collecte entièrement le faisceau -117- Chapitre III - Implémentation sur un microscope à balayage laser parallèle qui la traverse pour tous les points de l'image (4, 6° de rotation du faisceau en sortie du condenseur avec l'objectif 4X). On obtient ainsi une efficacité de collection quasiment constante au cours du balayage du microscope (absence de vignettage). – détection du signal avec un PMT équipé d'une photocathode de grande surface sensible dans l'infrarouge. Il s'agit d'un PMT à photocathode en Ag-Cs-O de 16 × 18mm2 d'aire effective (Hamamatsu modèle R5108). Pour des raisons de coût, nous avons opté pour un modèle non spécifique à l'IR (400-1200nm), non refroidi, dont le rendement quantique est seulement de 0, 04% à 1060 nm. En fait dans la configuration en transmission choisie, le cahier des charges pour la détection du signal n'est pas d'avoir un PMT ayant un très bon rendement quantique car le signal de mesure (faisceau laser transmis) est très intense (de l'ordre du mW) et doit donc être atténué, mais plutôt d'avoir une dynamique (rapport du signal maximum détectable au signal d'obscurité) suffisante du détecteur. Cette dynamique est relativement faible pour le PMT R5108 puisque son courant anodique maximum est de 10μA alors que son courant anodique d'obscurité à la température ambiante est typiquement de 0, 35μA et au maximum de 1μA (données constructeur). La dynamique de ce PMT est donc d'environ 30 (∼ 10/0, 35) dans le meilleur des cas, ce qui limite les performances du microscope polarimétrique comme nous le verrons plus loin dans ce chapitre. Le courant anodique en sortie du PMT (quelques μA) permet néanmoins d'obtenir, via un amplificateur transimpédance de gain 2.104 A/V avec bande passante de 200 MHz (modèle FEMTO, HCA-200M-20K-C), une tension de sortie maximale de 200mV et une tension d'obscurité typique de 7 mV. Ces tensions sont compatibles avec les caractéristiques de la voie signal (CHANNEL A) de la carte d'acquisition DAQ Alazar qui admet des tensions de ±4V et les numérise sur 12 bits, soit une résolution en tension de 1 mV environ, inférieure à la tension d'obscurité. Notons qu'un filtre optique passe bande (830 nm - 2700 nm, Edmund Optics) de 1 pouce de diamètre (le faisceau a un diamètre de 6,5 mm à ce niveau) est placé devant le PMT pour éliminer la lumière visible ambiante et ainsi pouvoir travailler avec la lumière allumée. Les réglages de la partie opto-mécanique du polarimétrique ont pu se faire indépendamment de l'acquisition des signaux polarmétriques par la carte DAQ qui nécessite une synchronisation avec le balayage du microscope pour reconstruire l'image polarimétrique. En effet, il est possible dans une première étape d'utiliser le microscope lui-même pour imager un objet présentant un simple contraste d'amplitude, comme par exemple une mire micrométrique. Dans ce cas, il suffit d'envoyer directement le signal fourni par l'amplificateur FEMTO sur l'une des 2 entrées signal du microscope, la swept-source fonctionnant en permanence. Les spectres cannelés reçus successivement par le PMT à la cadence de balayage de la swept-source sont alors intégrés par l'électronique du microscope à une cadence qui lui est propre (mode d'acquisition Fast, en mode Medium ou en mode Slow de l'interface graphique Fluoview), donc totalement indépendante de celle de la swept-source. En fait en mode Slow de Fluoview, le pixel-dwell time, ou temps d'intégration du signal par point image, est d'environ 8μs, ce qui correspond grosso modo au temps de balayage de la swept-source (1/100kHz). Dans ces conditions, chaque point image correspond à peu près à l'intégration d'un spectre cannelé, mais les spectres acquis se décalent progressivement par rapport à la fenêtre d'intégration au cours du balayage, si bien qu'on observe des figures de Moiré sur l'image de la mire, comme le montrent les images de la Figure III.5. Ce mode d'imagerie permet d'aligner précisément le faisceau de la swept-source avec -118- Chapitre III - Implémentation sur un microscope à balayage laser l'ensemble des optiques du microscope. F IGURE III.5 – Images d'une mire acquises directement par le microscope éclairé par la swept-source pour deux vitesses de balayage (Fast et Slow). Des lignes obliques d'inclinaisons différentes sont observables (figures de Moiré). 1.2- Acquisition du signal polarimétrique Une étape importante de l'implémentation du polarimètre de Mueller au sein du microscope à balayage Olympus concerne l'acquisition du signal polarimétrique qui doit se faire de façon synchrone du balayage du microscope si l'on veut pouvoir reconstruire des images de Mueller et à terme les comparer avec celles fournies par les autres modalités d'imagerie du microscope. La source du logiciel Fluoview 300 et l'électronique du microscope Olympus n'étant pas accessibles, il n'est pas possible de synchroniser le scanner sur un signal de déclenchement issu de la swept-source. En outre, le balayage de la swept-source ne peut pas non plus être commandé par un signal extérieur ; il fonctionne en continu dès l'allumage du laser. Dans ces conditions, il faut accepter de faire fonctionner le polarimètre de Mueller indépendamment du microscope. Néanmoins, pour relier le signal polarimétrique au balayage du microscope afin de reconstruire des images de Mueller, il est indispensable de pouvoir au moins disposer d'un signal indiquant à quel instant le microscope commence à balayer. Cet instant est synchrone de la tension de positionnement (rampe de tension) renvoyée par le miroir galvanométrique rapide du microscope. Le signal de trig au format TTL (0-5V) de début (front descendant) et de fin de ligne (front montant) généré par l'électronique du microscope à partir de la rampe de tension issue du scanner de ligne, est disponible à l'arrière du PSU (Power Supply Unit) reliée au module confocal FV300. Le signal de trig et la rampe de tension associée, en mode Slow, sont représentés Figure III.6. On constate que l'acquisition du signal d'image par le microscope se fait dans une fenêtre temporelle qui correspond à la partie rectiligne de la rampe de tension renvoyée par le scanner de ligne, ceci afin d'éviter les non-linéarités dans l'image associées aux phases d'accélération et de décélération du miroir galvanométrique, le pixel-dwell time étant constant pour une image donnée. Ce signal de trig peut être envoyé sur l'entrée auxiliaire (AUX IN) de la carte DAQ Alazar pour signifier au logiciel Alazar de commencer l'enregistrement des spectres cannelés. L'instant précis où le signal de trig (front trig descendant) est reçu par l'entrée AUX IN de la carte DAQ n'a évidemment aucune raison de coı̈ncider avec le début d'un spectre cannelé -119- Chapitre III - Implémentation sur un microscope à balayage laser F IGURE III.6 – Rampe de tension (en vert) issue du scanner de ligne et signal TTL de trig (en bleu) correspondant indiquant le début et la fin de l'acquisition du signal de ligne. sur l'entrée CHANNEL A (ou B) de la DAQ. D'une ligne à l'autre de l'image polarimétrique, le délai entre ces deux évènements peut donc varier au maximum de la durée d'un balayage d'un spectre cannelé de la swept-source, correspondant à peu près à un pixel sur l'image (voir Figure III.5). En l'état actuel de l'expérience (microscope commercial), nous n'avons aucun moyen de synchroniser plus précisément l'acquisition des spectres cannelés avec le balayage du microscope. Néanmoins pour des images ayant une définition horizontale suffisante (plusieurs centaines de points), ce décalage d'un pixel maximum est imperceptible, cette technique étant d'ailleurs aussi utilisée en OCT [120]. D'autre part, l'absence de synchronisation entre le balayage de la swept-source et la fenêtre temporelle associée au pixel-dwell time du microscope empêche d'avoir une définition horizontale de l'image égale à sa définition verticale. En mode Slow de Fluoview, le pixel-dwell time est un peu plus court (∼ 8μs) que le temps de balayage de la swept-source (∼ 10μs environ, les modes Medium et Fast de Fluoview fournissant des pixel-dwell times respectivement 2 et 4 fois plus courts). La définition horizontale des images de Mueller sera alors légèrement inférieure à celle des images issues du microscope en mode Slow (ceci est aussi à l'origine des figures de Moiré observées précédemment). Par exemple pour la définition 256 × 256 (512 × 512) du microscope, nous aurons seulement une définition de 204 × 256 (408 × 512) en Mueller, 204 et 408 correspondant aux nombres de spectres cannelés acquis pendant le temps de balayage de ligne du microscope (délai entre les fronts TTL descendant et montant du signal de trig issu du scanner de ligne). Dans ces conditions, on demande au logiciel Alazar d'acquérir en continu des salves de 204 ou 408 spectres cannelés (selon la définition choisie sur Fluoview avant le lancement des scanners) à partir de l'instant d'arrivée du signal de déclenchement (front TTL descendant) sur la voie AUX IN de la DAQ. Chacune des salves, correspondant à une ligne de l'image de Mueller, est alors stockée dans la mémoire de la DAQ (DMA : Direct Memory Acess) puis transférée dans un même fichier de type binaire (ici au format ".atb") sur le disque dur de l'ordinateur au fur et à mesure du balayage vertical du microscope, et ceci jusqu'à la 256ème ou 512ème ligne de l'image. Comme chacun des spectres contient 990 points (canaux en longueur d'onde), chacun codé sur 12 bits (1,5 octet), un fichier correspondant à une image de Mueller de 204 × 256 (408 × 512) points a donc une taille de 204 × 256 × 1440 × 1, 5 (408 × 512 × 1440 × 1, 5) = 112,8 (451,2) Mo. Bien entendu, comme au Chapitre II , les signaux de sweept-trigger et de k-clock sont appliqués respectivement sur les entrées TRIG IN et EXT CLOCK de la DAQ pour échantillonner -120- Chapitre III - Implémentation sur un microscope à balayage laser linéairement en fréquence optique les spectres cannelés. Un schéma de la connectique est donné Figure III.7. F IGURE III.7 – Schéma de la connectique permettant à l'interface Alazar d'acquérir les signaux polarimétriques issus du microscope à balayage, en vue de la construction des images de Mueller. A ce stade, les blocs de codage et de décodage sont introduits de part et d'autre du microscope sans qu'ils soient orientés dans leur position définitive (croisement des polariseurs). Le chapitre suivant la méthode mise au point pour orienter ces blocs précisément. Afin de démontrer le bon fonctionnement de notre méthode de synchronisation pour l'acquisition des spectres cannelés avec le balayage du microscope, nous avons réalisé des images de la mire précédente, en attribuant à chaque point de l'image une valeur correspondant à l'aire mesurée sous chaque spectre cannelé. On peut considérer que cette opération d'intégration des spectres fournit des valeurs proportionnelles à l'intensité transmise en chaque point de la mire balayée par le microscope, donc à une image standard d'intensité de cet objet. Parallèlement, nous avons imagé la même mire en mode confocal (rétrodiffusion détectée par l'un des PMT de Fluoview à travers un trou confocal). Une série d'images obtenues dans ces conditions pour les 2 définitions considérées précédemment et 3 zooms différents de Fluoview, sont présentées Figure III.8. -121- Chapitre III - Implémentation sur un microscope à balayage laser F IGURE III.8 – Comparaison des images d'intensité d'une mire pour 3 zooms différents obtenus sous Fluoview (microscope Olympus) et sous Alazar (avec connectique de la Figure III.7). (a) Définition de 256 × 256 pour Fluoview et 204 × 256 pour Alazar ; (b) Définition de 512 × 512 pour Fluoview et 408 × 512 pour Alazar. -122- Chapitre III - Implémentation sur un microscope à balayage laser Les lignes de Moiré observables sur les images obtenues par Fluoview n'apparaissent plus sur les images fournies par la DAQ Alazar puisque dans ce dernier cas on intègre chaque spectre dans la bonne fenêtre temporelle. L'absence de synchronisation entre le balayage de la swept-source et le balayage du microscope se traduit par de très petits décalages d'une ligne à l'autre au niveau des traits verticaux (graduations) de la mire sur l'image 204 × 256 avec les zooms 5X et 10X, ce décalage étant imperceptible sur l'image 408 × 512 correspondante. 1.3- Procédure d'orientation du PSG et du PSA au sein du microscope Contrairement au Chapitre II, il n'est plus possible d'orienter simplement les blocs de codage et de décodage l'un par rapport à l'autre en commençant par croiser les polariseur et analyseur en l'absence de tout élément anisotrope entre-eux. La procédure d'orientation des blocs de codage et de décodage au sein du microscope utilisée ici, tire partie du fait que le microscope se comporte essentiellement comme un biréfringent linéaire, en tout cas qu'il présente uniquement deux lignes neutres au sens de la polarisation. Ces lignes neutres coı̈ncident en fait avec les polarisations p (parallèle au plan d'incidence) et s (orthogonale au plan d'incidence) associées aux réflexions du faisceau laser sur les 7 miroirs du dispositif situés entre les blocs de codage et de décodage (miroirs M1 à M7, cf Figure III.2) ainsi qu'à la traversée du cube séparateur non polarisant mais faiblement biréfringent (cf Chapitre II), placé à la suite du système de codage. Les miroirs M1 à M7 sont orientés de telle sorte que les polarisations p et s peuvent seulement s'échanger d'une réflexion à l'autre, c'est-à-dire qu'une polarisation p pour un miroir peut devenir une polarisation s pour un autre miroir. La source laser étant polarisée verticalement, la polarisation est du type p pour les miroirs M1 et M2 du périscope, du type s pour le miroir d'injection M3 dans le module confocal et le miroir de renvoi M4 vers le scanner, puis du type p sur le premier miroir galvanométrique M5, et enfin s sur le second miroir galvanométrique M6 et le miroir de renvoi M7 situé dans la tête du statif BX51WI. On peut donc supposer que les anisotropies (retardance et diatténuation) produites par le scanner sont nulles au point milieu (centre de l'image, miroirs à 45° de l'axe optique) puisque les miroirs M5 et M6 se compensent dans ce cas et restent très faibles, tout en variant, lorsque le balayage est activé. Par contre les miroirs M1 et M2, du même modèle, sont traités aluminium alors que les miroirs M3 et M4, également identiques, sont traités argent. Il n'y a donc pas une compensation des anisotropies des miroirs M1 et M2 par les miroirs M3 et M4, même si la polarisation est du type p sur M1 et M2 et s sur M3 et M4. Par ailleurs les caractéristiques du miroir M7, situé dans le statif du microscope, ne sont pas connues ; il peut s'agir d'un miroir traité aluminium ou argent. Enfin, même si la retardance et la diatténuation produites à la réflexion sur une couche d'aluminium ou d'argent sous un angle d'incidence donné peuvent être prédites (retardance φs − φp = −11, 85° ou −7, 97° et diatténuation Rs − Rp = 0, 0145 ou 0,0364 pour l'argent ou l'aluminium respectivement, à 1060 nm et sous 45° d'incidence [121]) les miroirs à traitement métallique sont recouverts d'une fine couche d'oxyde protectrice transparente dont les anisotropies, certainement faibles, ne sont pas connues. Néanmoins comme les valeurs de retardances produites par les surfaces traitées argent et aluminium sont à la fois faibles et proches (différence inférieure à 4°), celles-ci se compensent partiellement après réflexion sur les 4 premiers miroirs, de même que les diatténuations qui sont très faibles. Comme en outre le scanner produit une anisotropie également très faible, voire nulle au point milieu, et que le cube séparateur en -123- Chapitre III - Implémentation sur un microscope à balayage laser transmission (dont la retardance à été évaluée à environ 10° dans le Chapitre II) et le miroir M7 sont également très faiblement anisotropes, il y a tout lieu de penser que l'anisotropie de l'ensemble des optiques situées entre les blocs de codage et décodage, notamment la retardance, sera faible, sauf si les couches d'oxyde recouvrant les différents miroirs produisent une retardance significative. Cette condition doit être remplie si l'on veut pouvoir appliquer notre méthode de polarimétrie qui suppose que la retardance varie d'une valeur très inférieure à 180° sur la bande spectrale balayée par la swept-source (voir Chapitre II). La retardance du dispositif, mesurée plus loin, montre que cette condition est effectivement bien remplie. Nous pouvons dans une première étape montrer que l'ensemble du dispositif situé entre les blocs de codage et décodage se comporte effectivement comme un élément anisotrope unique, en réalisant l'expérience suivante : deux polariseurs (polariseur et analyseur) sont montés sur des platines tournantes motorisées et dans un premier temps positionnés en ligne à la sortie de la swept-source, leurs axes passants étant croisés par une méthode d'extinction (loi de Malus). L'analyseur est ensuite déplacé à la sortie du microscope, son orientation étant maintenue inchangée. Un programme sous Labview permet alors de faire tourner dans le même sens et du même angle le polariseur et l'analyseur alors que l'intensité transmise est mesurée. La courbe donnant l'intensité transmise par l'ensemble (polariseur, cube séparateur + microscope + miroirs de renvoi, analyseur croisé) en fonction de l'angle de rotation, sur 180° tous les 5°, de l'ensemble polariseur-analyseur est représentée sur le graphe de la Figure III.9. F IGURE III.9 – Mesures de l'intensité transmise à travers le microscope entre polariseur et analyseur croisés, en fonction de la rotation de l'ensemble polariseur-analyseur. Cette courbe présente des minima d'intensité quasi-nuls avec une périodicité égale à π/2. Dans cette expérience, tout se passe comme si on faisait tourner l'ensemble (cube séparateur + microscope + miroirs de renvoi) autour de l'axe optique du système, les polariseurs croisés étant fixes. Dans l'hypothèse où le système se comporte comme un biréfringent et éventuellement un dichroı̈que, de lignes neutres confondues, on peut montrer que l'intensité transmise entre polariseurs croisés est proportionnelle à sin2 2θ, où θ est l'angle entre les lignes neutres de l'anisotropie et les axes passants du couple polariseur-analyseur (cf Annexe 10). La comparaison -124- Chapitre III - Implémentation sur un microscope à balayage laser avec la courbe expérimentale montre que l'on a bien ce type de comportement. Le fait que les minima ne sont pas totalement nuls peut provenir soit d'un léger désalignement des plans principaux des miroirs de renvoi qui produirait l'effet d'une succession d'éléments biréfringents (et éventuellement légèrement dichroı̈ques) dont les lignes neutres ne sont pas tout à fait alignées, soit d'une dépolarisation (au sens de Mueller) produite par l'ensemble des optiques traversées. Cette première étape permet d'orienter le polariseur d'entrée, par rapport aux lignes neutres du microscope. Le bloc de codage, placé à la suite du polariseur d'entrée précédent, est alors orienté de sorte d'obtenir l'extinction. Le polariseur est alors retiré et le bloc de codage tourné de 90° par rapport à la situation d'extinction précédente pour que l'axe passant du polariseur du bloc de codage soit parallèle à celui du polariseur retiré. Pour orienter le bloc de décodage dans sa position définitive (sous la platine du microscope), de sorte que l'axe passant du polariseur qu'il contient soit orthogonal à celui du polariseur contenu dans le bloc de codage (situation choisie pour relier les amplitudes et les phases des fréquences caractéristiques du spectre cannelé dans l'espace de Fourier aux éléments de la matrice de Mueller), il est possible de réaliser une seconde expérience qui consiste à observer l'amplitude d'un pic particulier dans le spectre de Fourier du signal polarimétrique. En effet, si le polariseur du bloc de codage est aligné avec l'une des lignes neutres d'un biréfringent rectiligne mesuré (ici le microscope, les miroirs de renvoi et le cube séparateur), le calcul montre que l'amplitude du pic à la fréquence de modulation 8f0 dans l'espace de Fourier s'annule lorsque l'analyseur du bloc de décodage (les 2 lames 5e ayant préalablement été orientées par rapport à l'analyseur) est orthogonal au polariseur du bloc de codage (donc aligné avec l'autre ligne neutre du biréfringent), comme s'il n'y avait aucun élément anisotrope entre les deux blocs. Une simulation dans le formalisme matriciel de Mueller en l'absence de dépolarisation (Mueller-Jones) réalisée sous Mathematica, dont les résultats sont présentés Figure III.10, permet de montrer que seul le pic à 8f0 s'annule tous les 180° dans cette situation, le pic à 12f0 s'annulant également tous les 180° mais présentant par contre un maximum dans la situation de réglage recherchée. La sensibilité de cette méthode permet d'orienter manuellement le bloc de décodage à mieux que 3° par rapport au bloc de codage et aux lignes neutres du microscope. La Figure III.11 présente à gauche le spectre obtenu lorsque le bloc de décodage est bien réglé et à droite le spectre observé le lorsque le bloc de décodage est tourné de 90° par rapport au bon réglage. Afin de mieux se rendre compte de la différence entre ces deux situations, les spectres dans l'espace de Fourier ont été représentés en échelle semi-logarithme. 1.4- Caractéristiques polarimétriques du microscope sans balayage Nous avons vu précédemment lors de la procédure d'orientation des blocs de codage et de décodage par rapport au microscope que ce dernier se comportait comme un élément anisotrope simple présentant 2 lignes neutres. Nous pouvons à présent réaliser une mesure polarimétrique à vide (absence d'échantillon) dans une situation où le microscope ne balaye pas, c'est-à-dire lorsque le scanner est dans sa position centrale, ce qui correspond au centre de l'image. Dans ces conditions, il n'est pas nécessaire de mettre en oeuvre la procédure d'acquisition du signal polarimétrique, essentielle par contre à la réalisation d'une image de Mueller (sychronisation entre avec le balayage du microscope). On utilise dans ce cas le protocole de mesure ponctuelle décrit au Chapitre II. Il consiste d'abord à extraire les erreurs de phase liées aux défauts -125- Chapitre III - Implémentation sur un microscope à balayage laser F IGURE III.10 – Évolution des amplitudes des pics dans l'espace de Fourier, en fonction de l'orientation du bloc complet de décodage par rapport à l'orientation du bloc de codage. F IGURE III.11 – Spectres dans l'espace de Fourier représentés en échelle logarithmique, (à gauche) lorsque le bloc de décodage est correctement orienté et (à droite) lorsqu'il est orienté à 90° par rapport au bloc de codage. d'épaisseur des lames des blocs de codage et de décodage par la procédure de calibration utilisant 2 polariseurs linéaires de référence placés de part et d'autre du système optique (cube séparateur + microscope + miroirs de renvoi). Ensuite, après avoir retiré les polariseurs de référence, une mesure polarimétrique du système est réalisée en l'absence d'échantillon. Le programme développé en Mathematica au Chapitre II permet alors d'obtenir la matrice de Mueller de l'ensemble (cube séparateur + microscope + miroirs de renvoi) en l'absence de balayage. La matrice de Mueller moyenne donnée ci-après est le résultat 10 expériences -126- Chapitre III - Implémentation sur un microscope à balayage laser (calibration + mesure) réalisées successivement dans les mêmes conditions :   1, 000 −0, 018 −0, 056 0, 024   0, 074 −0, 006 −0, 021 1, 005   0, 915  −0, 005 −0, 031 0, 446 0, 005 0, 069 −0, 929 0, 441 (III.1) Ces mesures permettent alors d'extraire, sur la base de la décomposition de Lu et Chipman, les paramètres polarimétriques moyens de l'ensemble (cube séparateur + microscope + miroirs de renvoi), ainsi que l'incertitude sur ces paramètres : DL = 0, 064±0, 002, Pd = 1, 019±0, 003, RL = 64° ± 0, 5° et αL = 1, 13° ± 0, 1°. Les paramètres obtenus montrent qu'on peut effectivement assimiler l'ensemble (cube séparateur + microscope + miroirs de renvoi) à un retardateur linéaire seul (diatténuation et dépolarisation négligeables). A ce stade, même si on a vu que la retardance du système doit être faible du fait de la compensation partielle des anisotropies des différents miroirs qui le constituent, on peut se demander si la retardance tirée de la mesure (64°) est la valeur absolue du déphasage du système ou bien sa valeur à kπ près, où k est un entier. On peut lever totalement cette ambiguı̈té en calculant les matrices de Mueller et la retardance associée sur différentes parties du spectre cannelé. En effet, si la retardance moyenne absolue du système est forte (par exemple 64° + k ∗ 180°, avec k non-nul), on doit observer une variation significative de la retardance d'un extremum à l'autre du spectre cannelé (fenêtre spectrale d'analyse de 1000 nm à 1120 nm). Ainsi, si k = 1 (retardance moyenne de 244°) et que l'on calcule les retardances associées aux moitiés "bleue" et "rouge" du spectre cannelé, la différence obtenue doit être de l'ordre de 244 × 40/1060 ∼ 10°, où 40 nm est la différence de longueur d'onde entre les longueurs d'onde moyennes des parties "bleue" et "rouge" du spectre cannelé et 1060 nm la longueur d'onde centrale du spectre. Si k = 0, cette différence ne sera plus que de 64 × 40/1060 ∼ 2, 5°, donc environ 4 fois plus faible. Les paramètres polarimétriques expérimentaux obtenus à partir du spectre cannelé produit par le microscope à vide sont : RL (bleu) = 58, 9° ; RL (rouge) = 70, 1° ; RL (bleu) − RL (rouge) = 11, 1° ∼ 10°. Ce résultat montre que la retardance produite par l'ensemble (cube séparateur+miroirs de revoi+microscope à vide) est non pas égale à 64° mais à 64° + 180° = 244°. Néanmoins, si on rapporte cette valeur à la fenêtre spectrale d'analyse (80 nm), on obtient une variation de retardance de l'ordre de 20°. Or, on a vu au Chapitre II, qu'une retardance égale à 1% de celle produite par l'une des lames de Y V O4 d'épaisseur e du bloc de codage n'engendrait aucune erreur significative sur la matrice de Mueller mesurée. Or ces 1% représentent une variation d'environ 20° de la retardance sur la fenêtre spectrale d'analyse. On peut donc affirmer que la chromaticité de la retardance du microscope à balayage pourra être négligée au moment de la détermination de la matrice de Mueller des échantillons étudiés. -127- Chapitre III - Implémentation sur un microscope à balayage laser 2- Mise en oeuvre du microscope polarimétrique de Mueller à balayage Au Chapitre II, nous avons montré que pour remonter à la matrice de Mueller du milieu d'étude indépendamment des caractéristiques polarimétriques de notre polarimètre et de leurs variations, il était indispensable de mettre en oeuvre une procédure de calibration. Cette procédure est destinée à prendre en compte les défauts d'épaisseur des lames de Y V O4 des blocs de codage et de décodage, de la position (phase fenêtre) du signal polarimétrique dans la fenêtre d'analyse et, pour la configuration en réflexion, de l'élément optique anisotrope supplémentaire constitué par le cube séparateur. Une procédure analogue doit être mise en place pour notre microscope avec en outre la nécessité de prendre en compte les variations des caractéristiques polarimétriques du système avec le balayage du faisceau laser. En effet, lorsque le microscope balaie, l'angle d'incidence du faisceau laser varie à la fois sur les miroirs galvanométriques du scanner et à travers le bloc de décodage. Cette fois il sera donc nécessaire de prendre en compte les variations des caractéristiques du microscope polarimétrique en chaque point de l'image de Mueller. Toutefois la procédure de calibration utilisant deux polariseurs linéaires de référence, développée au Chapitre II, pourra s'appliquer de nouveau ici. 2.1- Procédure de calibration La procédure de calibration utilisant deux polariseurs linéaires de référence vue au Chapitre II consiste dans une première étape à placer l'un des polariseurs après le bloc de codage et l'autre avant le bloc de décodage (voir Figure III.12). Dans ces conditions nous avons vu qu'à partir de 4 combinaisons d'orientation des deux polariseurs, il était possible d'extraire les erreurs de phase φ2 , φ3 , φ4 et φf en , indépendamment des anisotropies situées entre ces deux polariseurs. Cette méthode peut être alors appliquée à notre microscope, qui se trouve dans une situation analogue à celle du cube séparateur de la configuration en réflexion du Chapitre II (inséré entre les deux polariseurs de référence), en chaque point du champ balayé. La Figure III.13 présente les mesures des phases φf en , φ2 , φ3 et φ4 pour les 5 premières lignes d'une image au format 204 × 256. Logiquement, les phases φf en et φ2 varient peu au cours du balayage et de façon non périodique (une légère périodicité apparaı̂t néanmoins à l'échelle d'une ligne de l'image sur φf en ; ceci est probablement du au fait que l'extraction de ce paramètre est couplée à φ3 et φ4 ). Les variations observées, de nature semble t-il aléatoire, sont de l'ordre de 2% pour φf en et 5% pour φ2 en valeur relative sur l'échelle de temps de l'ordre de 10 ms représentée (durée du balayage pour 5 lignes). A cette échelle de temps, ces variations ne peuvent être dues qu'à des fluctuations de la swept-source (intensité pour φf en et φ2 , balayage en longueur d'onde pour φf en , instabilité de pointé pour φ2 ), et au bruit du PMT mis en oeuvre (rapport signal sur fond de l'ordre de 30 au maximum). En revanche pour φ3 et φ4 , on observe une variation quasi-périodique à l'échelle de la ligne de balayage, avec une amplitude de l'ordre de π. Cette variation est produite par le balayage angulaire du faisceau issu du condenseur du microscope à la traversée des lames de Y V O4 d'épaisseur 5e du bloc de décodage. Lorsque l'angle d'incidence du faisceau laser qui traverse ces 2 lames varie (angle de balayage de θ ∼ ±4, 6° en sortie de condenseur avec l'objectif 4X), -128- Chapitre III - Implémentation sur un microscope à balayage laser F IGURE III.12 – Schéma de principe du microscope de Mueller à balayage équipé des deux polariseurs de référence, destinés à la calibration des erreurs de phase des blocs de codage et de décodage. PSU : Power Supply Unit. SS : Swept-Source. DAQ : Data Board Acquisition. PLR : Polariseur Linéaire de Référence. PMT : Photomultiplicateur. CPU : Central Processing Unit. obj : Objectif. mij (x, y) : image de Mueller. MG : Miroir Galvanométrique. le déphasage produit par ces lames est modifié en raison de la variation de l'épaisseur traversée et dans une moindre mesure de celle de la biréfringence avec l'angle d'incidence. Un calcul simple, ne tenant compte que de la variation de l'épaisseur traversée (en θ2 /2n2 ), permet de retrouver une variation du déphasage de l'ordre de π, certes importante, mais à comparer au déphasage absolu de ces lames qui est de l'ordre de 800π (n = 1,96, ∆n = 0, 208 à 1060 nm et e = 2 mm). Dans une deuxième étape, on doit mesurer point par point la réponse polarimétrique du microscope en l'absence d'échantillon. La pseudo image de Mueller du microcope (en fait image "angulaire" car correspondant à des anisotropies produites dans le plan de Fourier conjugué du plan image), notée [Muscope ](x, y), est calculée en tenant compte des erreurs de phase φ2 , φ3 , φ4 et φf en déterminées dans l'étape précédente. La Figure III.14 présente les images de la retardance RL du microscope (anisotropie principale du microscope) et de son orientation αR avec et sans prise en compte des erreurs de phase point par point. En l'absence de correction des erreurs de phase, les images de retardance et d'orientation de la retardance sont totalement erronées (Figure III.14.a). En présence de la correction (Figure III.14.b), la retardance et son orientation sont en moyenne proches de celles mesurées précédemment au centre de l'image, c'est-à-dire -129- Chapitre III - Implémentation sur un microscope à balayage laser F IGURE III.13 – Evolution des phases φf en , φ2 , φ3 et φ4 en fonction du balayage du faisceau de la swept-source, sur 4 lignes. 65° environ pour la retardance et 1° environ pour son orientation. La Figure III.14.c représente les mêmes résultats que la Figure III.14.b, après avoir dilaté l'échelle angulaire de retardance et d'orientation autour des valeurs moyennes. On observe alors que la retardance varient d'environ 30° sur toute l'image et son orientation d'environ 5°. Ces variations sont très certainement produites par la variation des angles d'incidence du laser sur les miroirs galvanométriques au cours du balayage. Cet effet sera corrigé dans la suite du protocole de calibration. Ces images de calibration (de 430 Mo chacune) sont stockées sur le disque dur de l'ordinateur afin d'extraire les images de Mueller d'échantillons, qui devront être mesurées au cours de la même série d'expériences. En fait, cette calibration doit être réalisée avant chaque série de mesures du fait des dérives en température des blocs de codage et de décodage (voir Chapitre II). Dans le cas du microscope, la salle d'expérience étant climatisée, les données de calibration restent valables sur plusieurs heures. Enfin, on mesure point par point la réponse polarimétrique du microscope en présence de l'échantillon (imagerie proprement dite), notée [Mmes ](x, y). Comme au Chapitre II, on calcule dans un premier temps l'image de Mueller de l'ensemble (microscope + échantillon) en tenant compte des erreurs de phase φ2 , φ3 , φ4 et φf en . Ensuite, on extrait l'image polarimétrique de l'échantillon seul, notée [Méchant ](x, y), à partir du produit de matrices : [Méchant ](x, y) = [Mmes ](x, y).[Muscope ]−1 (x, y) -130- (III.2) Chapitre III - Implémentation sur un microscope à balayage laser F IGURE III.14 – Images de Mueller du microscope optique en transmission, de définition 408 × 512 en zoom 2, (a) sans prise en compte des erreurs de phases (φ2 = φ3 = φ4 = φf en = 0) et (b) avec prise en compte des erreurs de phases . (c) Images de (b) avec une échelle réduite. RL : retardance linéaire. αR : orientation de la retardance. 2.2- Validation et estimation des incertitudes Afin d'évaluer la pertinence de ce protocole d'imagerie de Mueller et d'estimer les incertitudes de mesure sur les paramètres polarimétriques obtenus avec notre microscope, nous avons choisi de réaliser des mesures sur des échantillons spatialement homogènes et connus, à savoir un polariseur linéaire et lame biréfringente d'ordre 0, orientés de manière quelconque dans le plan image du système. Plutôt que de présenter les images de Mueller complètes de ces échantillons de référence, nous avons préféré montrer à la fois les matrices de Mueller théoriques et expérimentales (moyennes et d'écart-type) obtenues sur une ligne pour une image -131- Chapitre III - Implémentation sur un microscope à balayage laser de 204 × 256 (Tableaux III.18 et III.19) ainsi que les paramètres polarimétriques correspondants issus de la décomposition de Lu et Chipman (retardance pour la lame de phase et diatténuation pour le polariseur linéaire et dépolarisation pour les deux), Figure III.15 et Tableau III.20. Polariseur linéaire  −0, 669 −0, 732 0, 017 1, 000  −0, 677   −0, 732 −0, 022  Lame biréfringente 0, 452 0, 500 0, 498 0, 554 0, 014 0, 018   0, 019   0, 022 0, 007 0, 000 0, 013 0, 019 0, 015  1, 000  −0, 014    0, 010 0, 014   0, 014 0, 007 0, 339 0, 833 −0, 052   0, 349    0, 872 −0, 151 −0, 406 −0, 289 0, 468 −0, 787 0, 000 0, 011 0, 023 0, 018    0, 016 0, 006 0, 019 0, 014     0, 013 0, 019 0, 022 0, 025   0, 009 0, 016 0, 021 0, 027   0, 007 0, 007 0, 014 0, 012     0, 018 0, 017 0, 022 0, 019   0, 012 0, 012 0, 019 0, 019 Tableau III.18 – Matrices de Mueller expérimentales (moyenne et écart-type sur 5 balayages de la 1ère ligne de l'image, donc 5 × 204 matrices) d'un polariseur linéaire et d'une lame biréfringente. Les matrices théoriques sont calculées en considérant des composants parfaits, orientés selon des angles tirés de la décomposition des matrices expérimentales. Polariseur linéaire  1, 000  −0, 674   −0, 738 0, 000 Lame biréfringente −0, 674 −0, 738 0, 000 0, 455 0, 498 0, 498 0, 545 0, 000 0, 000   0, 000   0, 000 0, 000  1, 000 0, 000 0, 000 0, 000    0, 000 0, 341 0, 874 0, 345      0, 000 0, 874 −0, 160 −0, 358   0, 000 −0, 345 0, 458 −0, 819 Tableau III.19 – Matrices de Mueller théoriques d'un polariseur linéaire et d'une lame biréfringente. Les matrices théoriques sont calculées en considérant des composants parfaits, orientés selon des angles tirés de la décomposition des matrices expérimentales. Pour le polariseur linéaire, on constate que les coefficients en théorie nuls, sont au maximum égaux à ±0, 022 dans la matrice expérimentale moyenne, donnant ainsi une indication de l'erreur systématique. Pour la matrice d'écart-type correspondante, les mêmes coefficients atteignent au maximum ±0, 019, valeur correspondant à l'erreur aléatoire. Ces deux erreurs étant proches, on peut penser que le bruit expérimental est ici responsable de la précision de mesure de la matrice de Mueller. Pour la lame de phase, le même constat peut être fait (ce sont évidemment d'autres coefficients théoriquement nuls qui sont concernés). En outre les résultats obtenus ici -132- Chapitre III - Implémentation sur un microscope à balayage laser en terme d'incertitude de mesure montrent que notre microscope polarimétrique de Mueller a des performances comparables au polarimètre non-imageur décrit dans le Chapitre II. La Figure III.15 présente les paramètres polarimétriques correspondants moyennés point par point sur 5 balayages de la 1ère ligne de l'image. A chaque point des courbes est attachée une barre d'erreur correspondant à l'écart-type de la mesure du paramètre sur 5 balayages. La comparaison de cet écart-type (erreur aléatoire ou bruit de mesure) avec les fluctuations spatiales du paramètre le long de la ligne (erreur systématique) montre que le bruit de mesure domine l'incertitude de mesure du système. F IGURE III.15 – Profils horizontaux sur une ligne (204 points) d'une image de Mueller 204 × 256 d'un polariseur linéaire (a,b,c) et d'une lame de phase (d,e,f). (a) indice de dépolarisation Pd , (b) diatténuation linéaire DL , (c) orientation de la diatténuation linéaire αL , (d) indice de dépolarisation Pd , (e) retardance linéaire RL , (f) orientation de la retardance linéaire αR . Polariseur linéaire Lame biréfringente Pd = 0, 999 ± 0, 013 Pd = 0, 968 ± 0, 019 DL = 0, 992 ± 0, 019 RL = 145, 6° ± 0, 6° αD = 113, 8° ± 0, 4° αR = 108, 8° ± 0, 1° Tableau III.20 – Erreurs associées à chaque paramètre polarimétrique obtenu avec la décomposition, pour le polariseur (Pd , DL et αD ) et la lame de phase (Pd , RL et αR ). Pour quantifier cette incertitude de mesure, on présente dans le Tableau III.20 l'écart-type sur les paramètres polarimétriques pour l'ensemble des points de la ligne de l'image étudiée. L'incertitude de notre microscope polarimétrique est de l'ordre du pourcent sur les valeurs -133- Chapitre III - Implémentation sur un microscope à balayage laser de la diatténuation et de la dépolarisation et inférieur au degré pour les paramètres angulaires (retardance et orientations de cette retardance et de la diatténuation). Ainsi dans le cas de la retardance, qui est d'un intérêt particulier en polarimétrie de Mueller des milieux biologiques (par exemple des fibres de collagène), notre microscope pourra ainsi révéler des objets biréfringents produisant des déphasages d'au moins quelques degrés. Ceci est néanmoins satisfaisant si on considère la complexité et la rapidité du dispositif et le bruit du photo-détecteur. L'un des challenges futurs pour notre microscope sera clairement d'améliorer sa sensibilité en réduisant le bruit de mesure afin de révéler les plus faibles contrastes possibles. -134- Chapitre III - Implémentation sur un microscope à balayage laser 3- Applications à des milieux spatialement inhomogènes L'intérêt d'un microscope polarimétrique de Mueller est évidemment de pouvoir révéler simultanément l'ensemble des anisotropies d'un échantillon avec la résolution spatiale attendue pour un tel système. Pour ce faire, nous avons choisi d'imager des échantillons présentant à la fois une structure de complexité croissante et des anisotropies variées (nature et amplitude). L'objectif de microscope utilisé est le 4X/0,16NA dans les expériences qui suivent. 3.1- Adhésif de cellophane L'échantillon à base de scotch a été obtenu en déposant 3 morceaux d'adhésif non superposés et d'orientations différentes sur une lamelle standard de microscope, en laissant au centre une zone non recouverte (zone isotrope). La Figure III.16 montre les images de Mueller de l'intensité transmise (coefficient m00 de la matrice de Mueller non normalisée), de la dépolarisation Pd , de la diatténuation DL et de son orientation αD , de la retardance RL et de son orientation αR . Les images plein champ (zoom 1X) ont une définition de 204 × 256. Avec l'objectif 4X Olympus, le champ imagé est de 3, 5 × 3, 5mm2 , donc les points des images sont séparés de 17μm horizontalement et 14μm verticalement. La définition des images ne permet pas ici d'apprécier la résolution du microscope (résolution maximale théorique transversale donnée par la formule d'Abbe pour un objectif dont la pupille est sur-remplie : 1, 22λ/2N A ∼ 4μm) qui est plus petite que la taille de chaque pixel de l'image (image sous-échantillonnée). Par ailleurs l'épaisseur de scotch est d'environ 100μm, ce qui est presque deux fois plus grand que la PSF longitudinale du microscope (en fait profondeur de champ ou extension sur laquelle on bénéficie de la résolution latérale, car pas de trou confocal ici : 1, 4λ/N A2 ∼ 58μm). Il est donc vain de comparer la résolution latérale théorique du microscope à sa résolution pratique (ceci sera fait sur un autre type d'échantillon, plus fin). Comme attendu, la diatténuation DL produite par le scotch est partout très faible (< 0,1), son orientation αD est par conséquent très bruitée. En effet, dans la limite où l'amplitude d'un paramètre anisotrope tend vers 0 (diatténuation ou retardance), il est logique que son orientation ne puisse plus être définie et donc physiquement mesurée. L'image codée en dépolarisation fait apparaitre quant à elle un contraste au niveau des bords du ruban adhésif. Cet effet est probablement du à une sur-épaisseur de résine adhésive produite par la découpe du scotch aux ciseaux, qui génère une dispersion des anisotropies, alors moyennées de manière certainement incohérente, dans la largeur du faisceau (PSF transversale). L'image de la retardance est la plus contrastée, comme prévu pour le scotch qui est fortement biréfringent (∆n ∼ 0, 0077). La valeur de cette retardance RL est bien la même pour les trois morceaux de scotch identiques imagés, par contre leur orientation est bien différente comme on l'observe sur l'image de αR . On observe de nouveau un bruit important sur αR dans la zone centrale non recouverte par le scotch du fait de l'absence de retardance significative RL produite par la lamelle de verre. 3.2- Coupes de roches L'un des domaines de prédilection de la microscopie polarimétrique est l'identification des cristaux constituant les minéraux naturels étudiés en pétrologie (roches). Habituellement ceci est réalisé à l'aide d'un microscope polarisant opérant en lumière blanche et entre polariseurs croisés et utilisant des coupes de roches d'épaisseur standard (30μm). L'analyse des couleurs -135- Chapitre III - Implémentation sur un microscope à balayage laser F IGURE III.16 – Images d'intensité (coefficient m00 de la matrice de Mueller) et de Mueller de 204 × 256 d'adhésif d'épaisseur unique, avec trois orientations différentes. (DL ) Image de diatténuation linéaire. (αD ) Image de l'orientation de la diattenuation. (Pd ) Image de dépolarisation. (RL ) Image de retardance linéaire. (αR ) Image de l'orientation du retard. (échelle des teintes de Newton) permet de remonter à la différence de marche produite par chaque monocristal de la roche et connaissant l'épaisseur, à sa biréfringence, qui est de manière plus ou moins univoque reliée à sa nature (quartz, mica, spath, calcique) [122]. Une des contraintes de cette technique est qu'il faut tourner de façon adéquate la lame de roche pour orienter les lignes neutres de chaque monocristal selon un angle proche de 45° par rapport aux axes passants des polariseurs. De plus, si d'autres effets s'ajoutent à la biréfringence linéaire, notamment si les cristaux absorbent à certaines longueurs d'onde du spectre visible (couleur naturelle des cristaux, dichroı̈sme), il devient très difficile, voire impossible, de les identifier à partir de cette méthode. Ces coupes minces de roche sont donc de bons candidats pour tester les potentialités de notre microscope de Mueller qui mesure indépendamment tous les effets. -136- Chapitre III - Implémentation sur un microscope à balayage laser Les Figures III.17 et III.18 montrent les images de Mueller de l'intensité transmise (coefficient m00 de la matrice de Mueller non normalisée), de la diatténuation DL et de son orientation αD , de la dépolarisation Pd , de la retardance RL et de son orientation αR de coupes de 30μm d'épaisseur de gabbro (composé de pyroxène, plagioclase, amphibole et olivine) et de granite (composé de quartz, feldspath et mica). Les images ont une définition de 408 × 512 et un zoom 2X est utilisé. Avec l'objectif 4X Olympus, le champ imagé est donc de 1, 75 × 1, 75mm2 , les pixels sont ainsi séparés de 4, 25μm horizontalement et 3, 5μm verticalement. -137- Chapitre III - Implémentation sur un microscope à balayage laser F IGURE III.17 – Images d'intensité (coefficient m00 de la matrice de Mueller) et de Mueller de 408 × 512 de roche de gabbro, en zoom 2. (Pd ) Image de dépolarisation. (DL ) Image de diatténuation linéaire. (αD ) Image de l'orientation de l'orientation de la diatténuation. (RL ) Image de retardance linéaire. (αR ) Image de l'orientation du retard. -138- Chapitre III - Implémentation sur un microscope à balayage laser F IGURE III.18 – Images d'intensité (coefficient m00 de la matrice de Mueller) et de Mueller de 408 × 512 de roche de granite, en zoom 2. (Pd ) Image de dépolarisation. (DL ) Image de diatténuation linéaire. (αD ) Image de l'orientation de l'orientation de la diatténuation. (RL ) Image de retardance linéaire. (αR ) Image de l'orientation du retard. L'objectif n'est évidemment pas ici d'analyser les différentes composantes cristallines de ces échantillons mais plutôt de montrer que notre microscope permet de révéler les anisotropies -139- Chapitre III - Implémentation sur un microscope à balayage laser d'un échantillon qui présente à la fois de la biréfringence et du dichroı̈sme, avec une résolution spatiale microscopique. De fait, on constate sur les images des Figures III.17 et III.18, que notre instrument permet de révéler à la fois les anisotropies linéaires de phase (images de la retardance) et d'amplitude (images de la diatténuation) de ces échantillons de roche. Les images en retardance et diatténuation circulaires n'étant pas présentées, ces effets n'étant pas significatifs. Des effets de dépolarisation apparaissent clairement aux interfaces entre les monocristaux. Par ailleurs, certains cristaux présents dans l'échantillon de granite sont fortement dichroı̈ques. D'après les données de la littérature, il semble que seul le mica soit linéairement dichroı̈que, alors que le quartz l'est circulairement. Par ailleurs, on observe que certains cristaux composant le granite et le gabbro présentent des retardances proches de 180°. Ceci semble compatible avec les valeurs de biréfringence linéaire des différents cristaux qui composent ces roches, comprises entre 0,005 pour le mica et environ 0,05 pour l'olivine. Pour ce minéral, compte-tenu de l'épaisseur de la coupe étudiée (30μm), on peut même s'attendre à avoir des retardances de 3 × 180°, à la longueur d'onde de travail. Une étude exhaustive de ces échantillons nécessiterait donc d'employer la méthode consistant à calculer la retardance sur deux moitiés du spectre cannelé pour remonter à la valeur exacte de ce paramètre et coder les images en retardance absolue. Ces échantillons polycristallins sont aussi l'occasion d'estimer la résolution spatiale de notre microscope de Mueller. En effet, certains cristaux présentent des bords contigus rectilignes observables sur nos images de Mueller. Nous avons vu au début de ce chapitre que la résolution latérale théorique pour l'objectif 4X/0,16NA utilisé est de l'ordre de 4μm (PSF latérale), dans les conditions idéales où sa pupille d'entrée est sur-remplie (waist du faisceau plus grand que le diamètre de cette pupille). Par ailleurs, la taille du pixel de nos images est également proche de 4μm. Pour estimer la résolution pratique de notre microscope, on peut mesurer la largeur caractéristique d'un front montant ou descendant de contraste à l'interface de deux cristaux adjacents. Un profil d'intensité de ce type réalisé sur l'image de retardance, recodée en niveaux de gris à partir de l'image couleur, est rapporté Figure III.19 (repéré par un trait noir sur l'image du granite). Ce profil fait apparaı̂tre un front montant de largeur caractéristique (10% à 90% de l'intensité max) de l'ordre de RT = 9μm (réponse totale associée à un front ou EDGE PSF). Si on tient compte de la pixelisation de l'image (résolution numérique Rnum = taille pixel ∼ 4μm), on peut estimer la résolution optique effective Ropt de notre microscope en considérant la convolution des réponses optique et numérique : Ropt = q 2 RT2 − Rnum (III.3) On obtient ainsi une résolution optique d'environ 8μm, valeur deux fois plus grande que celle tirée de l'expression théorique pour un objectif 4X/0,16NA sur-rempli. Cette différence peut s'expliquer par le fait que la pupille de l'objectif, de diamètre 14 mm environ, est sousremplie par le faisceau laser gaussien issu de la swept-source, son diamètre caractéristique (à 1/e2 ) étant de l'ordre de 10 mm à cet endroit. Cette résolution pourrait être améliorée en élargissant le faisceau laser en amont du microscope, dans la limite de taille des miroirs galvanométriques du scanner (actuellement le faisceau a un diamètre de 3 mm à ce niveau, les miroirs galvanométriques ayant une largeur utile de 5 mm environ). On peut aussi envisager d'utiliser un objectif plus ouvert, comme le 10X/0,3NA mentionné au début de ce chapitre et dont la pupille est en outre plus petite, à condition que les échantillons étudiés soit au moins -140- Chapitre III - Implémentation sur un microscope à balayage laser F IGURE III.19 – Profil en intensité, matérialisé par le trait en noir sur l'image en retardance linéaire de la Figure III.18. aussi minces que sa profondeur de champ (1, 4λ /N A2 ∼ 15μm). 3.3- Échantillons d'intérêt biomédical Le LSOL développe depuis plusieurs années des méthodes optiques de diagnostic biomédical basées sur la polarimétrie de Mueller [123] et la microscopie non linéaire, notamment la microscopie SHG [124, 125]. L'équipe a récemment montré [105] que le couplage MuellerSHG présentait un intérêt particulier dans le cas des protéines fibreuses, linéairement et non linéairement anisotropes, comme le collagène fibrillaire de type I qui est la source principale de SHG dans les tissus animaux [126, 127]. Notons que le collagène de type III, la mysosine et les microtubules produisent également des signaux SHG, mais d'intensité beaucoup plus faible que le collagène de type I. Cette protéine structurale, la plus abondante chez les vertébrés et constituant principal de la matrice extra-cellulaire, assure l'intégrité physique de nombreux tissus et organes (derme, foie, rein, poumons, tendons, cartilages), du fait de l'inextensibilité des fibres qui en sont constituées (contrairement à l'élastine). Elle joue également le rôle de trame au cours de l'embryogenèse, en permettant le dépôt organisé des cristaux d'hydroxyapatite à l'origine du squelette osseux du vertébré (ostéogenèse). Les déséquilibres entre fibrogénèse (production du collagène au sein de la cellule) et fibrolyse (dégradation par des enzymes collagénases) du collagène fibrillaire sont la cause ou la conséquence de pathologies très graves comme l'ostéogénèse imparfaite (maladie des os de verre), la fibrose et certaines formes de cancers [128]. Dans le cas de la fibrose du foie (et cirrhose aux stades avancés) qui fait partie des thématiques de recherche du LSOL, la maladie est induite par l'abus d'alcool ou les virus de l'hépatite B et C. L'équipe a récemment développé une méthode de diagnostic de la fibrose hépatique basée sur la quantification du collagène de type I par microscopie SHG [129, 130, 131]. Cette méthode -141- Chapitre III - Implémentation sur un microscope à balayage laser établit un score SHG de fibrose tiré de la mesure de l'aire relative occupée par le collagène dans des coupes histologiques (5 à 10μm d'épaisseur) de foie non marquées en utilisant la fluorescence endogène du tissu hépatique excitée à 2 photons pour déterminer l'aire totale occupée par la coupe sur la lamelle. Un seuillage en intensité des images SHG est réalisé pour éliminer autant que possible la contribution du collagène présent naturellement au sein de la matrice extracellulaire, qui produit moins de SHG du fait de sa moindre concentration dans les zones non affectées par la fibrose. L'un des principaux biais de cette méthode est la SHG produite par le collagène de type I qui constitue les parois des vaisseaux sanguins qui irriguent le tissu hépatique. L'équipe a montré que la polarimétrie de Mueller pouvait améliorer la quantification du collagène par microscopie SHG en séparant le collagène présent dans les capillaires sanguins, du collagène associé à la fibrose [105]. Les premières images de Mueller de coupes histologiques de foie humain fibrosé (stade METAVIR F4) et non fibrosé (stade METAVIR F0) [132] colorées au Rouge Sirius (colorant utilisé en histologie pour révéler la matrice extracellulaire et qui augmente la biréfringence des fibres de collagène) ont été réalisées avec le polarimètre non imageur développé dans le cadre de la thèse de M. Dubreuil. Dans ces expériences, les images de Mueller à faibles définition et résolution spatiale (50μm environ) obtenues en déplaçant l'échantillon placé sur une platine de translation X-Y micrométrique, font apparaı̂tre une dépolarisation significative au niveau des vaisseaux sanguins ainsi qu'une plus forte retardance dans les zones affectées par la fibrose, comme le démontre la comparaison avec les images SHG correspondantes. On peut donc envisager d'utiliser ces contrastes supplémentaires pour à la fois tenter d'éliminer le biais lié au collagène du réseau sanguin hépatique dans le score SHG (via la dépolarisation) et produire un score basé sur la retardance qui augmente dans les zones plus riches en collagène. L'une des applications les plus immédiates du microscope de Mueller à balayage mis au point au cours de cette thèse est ainsi de pouvoir imager le collagène fibrillaire simultanément par microscopie de Mueller et SHG, en utilisant le même instrument. Pour réaliser cette double modalité d'imagerie en parallèle, il est cependant nécessaire de concevoir un nouveau dispositif de collection permettant de détecter les signaux transmis aux deux longueurs d'onde (infrarouge pour le Mueller et visible pour la SHG). Ce développement fait partie des perspectives de ce travail. Néanmoins, afin de montrer la faisabilité de cette double modalité d'imagerie, nous présentons sur la Figure III.20 une série d'images du même échantillon de foie fibrosé réalisées successivement en SHG (longueur d'onde 415 nm, laser Ti :Sa à 830 nm) puis en Mueller (swept-source autour de 1060 nm) avec l'objectif 4X/0,16NA. Cette coupe histologique d'épaisseur 16μm, colorée au Rouge Sirius, est tirée d'une pièce opératoire et non d'une biopsie à l'aiguille, pour remplir le champ de 3, 5×3, 5mm2 de l'objectif 4X. Elle a été diagnostiquée au stade METAVIR F4, par le Dr. Turlin du CHRU de Rennes Pontchaillou. La définition des images est 512 × 512 pour la SHG et 408 × 512 pour le Mueller. Le passage d'une modalité d'imagerie à l'autre se fait pour l'instant en démontant le dispositif de collection et de détection de la lumière transmise propre à chaque modalité. L'image SHG révèle spécifiquement le collagène fibrillaire du foie (type I et type III dans une moindre mesure), c'est donc une imagerie sur fond noir. Le collagène est ici très abondant du fait du stade avancé de la fibrose (stade F4, le plus haut). Si on compare cette image SHG aux images polarimétriques correspondantes, on constate immédiatement une forte similitude avec l'image codée en retardance. Ceci est cohérent avec les études précédentes également réalisées sur des tissus colorés au Rouge Sirius [105, 106], -142- Chapitre III - Implémentation sur un microscope à balayage laser F IGURE III.20 – Images d'intensité (coefficient m00 de la matrice de Mueller) et de Mueller de 408 × 512 d'une coupe histologique de fibrose de foie au stade F4, en zoom 2. (SHG) Image en Génération de Seconde Harmonique. (Pd ) Image de dépolarisation. (DL ) Image de diatténuation linéaire. (αD ) Image de l'orientation de l'orientation de la diatténuation. (RL ) Image de retardance linéaire. (αR ) Image de l'orientation du retard. l'amplitude de la retardance étant clairement corrélée à la concentration locale en collagène (quantité de collagène dans le volume de la PSF non linéaire). L'image de l'orientation de cette retardance, et donc de l'orientation locale des axes de biréfringence du collagène, révèle également des contrastes qui sont spatialement corrélés à la présence de collagène. Ce contraste -143- Chapitre III - Implémentation sur un microscope à balayage laser orientationnel pourra être comparé à celui fourni par l'imagerie SHG résolue en polarisation qui donne l'orientation de l'axe principal de la susceptibilité non linéaire du collagène [133]. Les champs d'orientation du collagène associés aux anisotropies linéaire et non linéaire de cette protéine fibreuse pourraient apporter des informations précieuses, notamment dans le domaine de l'embryogénèse [134] et du diagnostic du cancer (désorganisation des tissus et prolifération anarchique du collagène). Dans les zones dépourvues de collagène, on observe un bruit de mesure important qui traduit logiquement l'indétermination de cette orientation, comme nous l'avons déjà constaté dans le cas de l'échantillon de scotch. Les images codées en diatténuation (amplitude et orientation), sont quant à elles beaucoup moins contrastées que les images de la retardance, mais révèlent néanmoins les structures associées à la fibrose. On observe par contre une structure fortement dichroı̈que en bas et à gauche de l'image, mais celle-ci ne se retrouve pas sur l'image SHG ; il s'agit donc certainement d'un objet étranger au tissu hépatique. Enfin l'image codée en dépolarisation ne présente aucun contraste significatif, ce qui paraı̂t normal en l'absence de vaisseaux sanguins. A ce stade final de la thèse, le temps nous a manqué pour étendre cette étude à d'autres échantillons de foie fibrosé. La prochaine étape sera en particulier d'imager des coupes histologiques tirées de biopsies à l'aiguille (carottes de foie de 20 mm de long et 1 mm de diamètre environ) sur une cohorte de patients atteints de fibrose du foie à des stades divers. Une seconde étape sera d'étendre cette imagerie de Mueller à des échantillons non colorés au Rouge Sirius, dont la biréfringence du collagène fibrillaire n'est pas exacerbée par le colorant. Les premiers essais d'imagerie réalisés sur ce type d'échantillons n'ont pour l'instant pas été probants, du fait de la sensibilité limitée de notre instrument (retardance minimale mesurable de l'ordre du degré). Une amélioration de la sensibilité de notre microscope de Mueller à balayage permettra en outre d'envisager des études sur d'autres protéines fibreuses comme la myosine des muscles notamment, avec toutes les perspectives que cela ouvre en terme de diagnostic biomédical (myopathie, dégénérescence musculaire). -144- Chapitre III - Implémentation sur un microscope à balayage laser Conclusion Dans ce chapitre, un microscope polarimétrique de Mueller à balayage laser, fonctionnant en transmission, a été développé. Ce microscope est basé sur l'implémentation, au sein d'un microscope à balayage commercial (confocal et multiphoton 2-PEF et SHG), du polarimètre à codage spectral de la polarisation utilisant une swept-source, développé au Chapitre II. Cette implémentation a nécessité différentes adaptations opto-mécaniques dont la plus notable est la conception d'un dispositif de collection et de détection de la lumière, réglable et démontable, installé sous la platine du microscope. Nous avons ensuite montré que l'obtention d'images de Mueller requiert tout d'abord de pouvoir acquérir le signal polarimétrique à la cadence du balayage du microscope en utilisant le signal issu du scanner de ligne pour la synchronisation. Nous avons vu que l'utilisation d'un microscope commercial limite les possibilités de synchronisation avec la swept-source. Dans une seconde étape, nous avons proposé une procédure d'orientation des blocs de codage et de décodage de la polarisation (réalisée une fois pour toute), suivie d'une procédure de calibration du microscope, reprenant celle mise au point au Chapitre II, pour corriger les biais produits par les anisotropies du système et la variation de ces anisotropies associée au balayage. Nous avons alors testé notre microscope de Mueller sur des échantillons de référence homogènes (polariseur, lame de phase) et montré qu'il donnait les résultats attendus, dans la limite des incertitudes de mesure, que nous avons quantifiées. Nous avons alors imagé différents échantillons inhomogènes et montré que le microscope pouvait séparer leurs différentes anisotropies (biréfringence et dichroı̈sme) et révéler les effets de dépolarisation, ceci avec une résolution spatiale en accord avec les conditions d'utilisation du dispositif. Enfin nous avons montré, par comparaison avec des images SHG, qu'il était possible de visualiser le collagène fibrillaire dans des coupes histologiques de foie humain fibrosé, colorées au Rouge Sirius, en utilisant la retardance et son orientation comme paramètre de contraste. La sensibilité du microscope est pour l'instant insuffisante pour imager le collagène sans Rouge Siruis. En l'état actuel, notre dispositif permet d'acquérir l'information polarimétrique associé à une image de Mueller complète à la cadence du microscope à balayage, c'est-à-dire typiquement en quelques secondes. Il reste encore à progresser au niveau du temps de traitement des données permettant de passer des spectres cannelés numérisés à l'affichage des images polarimétriques. Il est pour l'instant possible de passer du mode Mueller au mode SHG en remplaçant le dispositif de collection et de détection de la lumière transmise placé sous la platine du microscope. On pourrait encore plus facilement coupler Mueller et 2-TPEF puisque cette dernière modalité fonctionne par épi-collection de la fluorescence. -145- Chapitre III - Implémentation sur un microscope à balayage laser -146- Conclusions et perspectives Conclusions et perspectives -147- Conclusions et perspectives Conclusions Au cours de cette thèse, un microscope polarimétrique de Mueller à balayage laser en transmission a été développé, basé sur codage spectral des états de polarisation. Ce système à l'avantage de permettre l'acquisition d'images de Mueller en quelques secondes et d'envisager l'imagerie multimodale linéaire et non-linéaire (SHG / TPEF) avec le même instrument. Dans un premier temps, on a proposé une amélioration du polarimètre de Mueller par codage spectral déjà disponible au LSOL en utilisant une source à balayage rapide en longueur d'onde à 100 kHz, ou swept-source, et un détecteur monocanal. Les états de polarisation sont générés et analysés par un bloc de codage et de décodage composés de 2 polariseurs linéaires ainsi que de 4 lames biréfringentes de YVO4 d'épaisseurs et d'orientations spécifiques. Notre choix s'est porté vers la configuration de lame (e,e,5e,5e) avec les orientations respectives (45°, 0°, 0°, 45°) bien que d'autres configurations soient envisageables. Le codage spectral de la polarisation permet de mesurer la matrice de Mueller complète sous la forme d'un seul spectre cannelé à la cadence de balayage en longueur d'onde de la swept-source à savoir 10μs. Ce système n'utilise aucun élément actif ce qui permet de mesurer la matrice de Mueller à des vitesses uniquement limitées par la swept-source. Au cours de la validation de ce dispositif, on a mis en évidence les diverses sources d'erreurs systématiques inhérentes à notre polarimètre. Elles peuvent être associées au couple source + détecteur (atténuation des pics à hautes fréquences, non-linéarité du balayage en longueur d'onde, fenêtrage) et au défaut des épaisseurs des lames de Y V O4 (alignement, épaisseur). Pour les corriger, des solutions numériques (ré-échantillonnage du signal à l'aide d'une horloge interne à la swept-source, optimisation de la résolution des pics dans l'espace de Fourier) et expérimentale (alignement précis des lames de Y V O4 ) ont été proposées. Pour les erreurs liées aux défauts d'épaisseur des lames de phase du PSG et du PSA, qui influencent la lecture des amplitudes des pics dans l'espace de Fourier, cela se traduit par l'apparition de phases supplémentaires. On a alors proposé une procédure de calibration en tenant compte du type de configuration (transmission, réflexion ou imagerie à balayage) du polarimètre. Pour la configuration en transmission, la détermination des erreurs de phase consiste simplement à utiliser la réponse polarimétrique de deux milieux connus tels que le vide et un polariseur linéaire. Cependant, pour passer à une configuration en réflexion, l'introduction d'un cube séparateur rend cette procédure inapplicable. En effet, ce dernier élément optique ne peut être déplacé entre la phase de calibration et la phase de mesure. Une nouvelle procédure de calibration en 3 étapes a donc été développée utilisant deux polariseurs linéaires placés de part et d'autre du cube séparateur. Elle consiste d'abord à déterminer les erreurs de phases induites par les lames de Y V O4 , puis on mesure la signature polarimétrique du cube séparateur en réflexion (dont la matrice en transmission a été déterminée au préalable) sans échantillon et enfin avec. Par une simple inversion de matrice, on remonte directement à la matrice de Mueller de l'échantillon seul. On a démontré que l'intérêt majeur de cette nouvelle procédure est qu'elle permet de remonter aux erreurs systématiques du polarimètre indépendamment des anisotropies optiques comprises entre le PSG et le PSA. La robustesse de ce nouveau dispositif a été démontré par -148- Conclusions et perspectives l'étude d'échantillons connus (polariseur linéaire et lame biréfringente). La validation de ce polarimètre nous a permis ensuite d'envisager son implémentation au sein d'un microscope à balayage dont les cadences d'acquisition sont compatibles avec celles de la swept-source (de l'ordre de la centaine de kHz). Au cours de cette thèse, seule la configuration de microscopie à balayage en transmission a pu être envisagée. Cela a d'abord nécessité quelques considérations opto-mécanique pour amener le faisceau de la swept-source à travers le microscope jusqu'à l'échantillon. De multiples miroirs de renvoi ont été placés dans le bâti et un redimensionnement du bloc de décodage a été nécessaire, permettant alors de récupérer le signal polarimétrique issu de l'échantillon en tenant compte du déplacement du faisceau lors du balayage laser. Ensuite, une stratégie d'acquisition des signaux polarimétriques a été développée. Il s'agit d'utiliser les signaux de trig de début de ligne du microscope pour déclencher l'acquisition des signaux polarimétriques et de stocker tous les signaux de la ligne dans la mémoire interne de la carte. Il est ainsi possible de réaliser l'acquisition de tous les signaux polarimétriques qui sont essentiels à la formation d'une image de Mueller en un seul balayage du faisceau laser sur l'échantillon, ce qui n'avait jamais été réalisé auparavant. Le passage à la modalité d'imagerie a présenté plusieurs sources d'erreurs systématiques supplémentaires, en particulier liées au balayage du faisceau laser passant par le bloc de décodage. En effet, la retardance associée au miroir du scanner et les épaisseurs effectives des lames de Y V O4 dans le PSA, traversées par le faisceau laser, varient également au cours du balayage. La solution est donc de calibrer le dispositif avec le même protocole qu'avec le polarimètre en réflexion mais en chaque point du champ balayé. La solution est donc de calibrer le dispositif avec les mêmes étapes qu'en réflexion, mais en chaque point du champ balayé. Cette procédure a pu être validée par des mesures de la surface d'échantillons homogènes, tels qu'un polariseur linéaire et une lame biréfringente. On a finalement exploré une partie du potentiel du microscope polarimétrique de Mueller avec des images d'échantillons inhomogènes. Il s'agit d'images de Mueller de différentes coupes de roche (gabbro et granite) dont les informations sont plus exhaustives que celles obtenues avec un microscope polarisant classique. En effet, avec le formalisme de Mueller, il est possible d'avoir accès à l'ensemble de la signature polarimétrique des cristaux (biréfringence/dichroı̈sme linéaire/circulaire et orientation, dépolarisation). On a réalisé enfin des images de coupe de foie fibrosé afin de montrer la potentialité de l'imagerie multimodale Mueller/SHG avec le même dispositif. -149- Conclusions et perspectives Perspectives Ce travail de thèse permettra d'ouvrir la voie à la réalisation d'études plus exhaustives en microscopie multimodale linéaire et non-linéaire en transmission, dédiées à l'étude d'échantillons d'intérêt biologique. A court terme, il est envisagé trois pistes d'amélioration du microscope polarimétrique de Mueller : - Optimisation du couplage Mueller/SHG Afin de s'affranchir de la nécessité de déplacer physiquement les systèmes de détection (pour le Mueller d'une part et pour la SHG d'autre part) pour passer d'une modalité à l'autre, il est envisagé de développer un bloc unique permettant de réaliser de l'imagerie multimodale Mueller/SHG en parallèle. Pour cela, il est tout à fait possible de placer un élément dichroı̈que à la sortie de l'échantillon, séparant les longueurs d'onde de travail, à 415 nm pour la SHG et à 1060 nm pour la polarimétrie de Mueller. - Optimisation de la précision et de la sensibilité Dans le but d'améliorer la précision et la sensibilité du polarimètre, il sera judicieux de remplacer le PMT actuel du microscope polarimètrique de Mueller en transmission par un photorécepteur possédant un meilleur rapport signal sur bruit, par exemple par une photodiode à avalanche dans l'infrarouge. - Optimisation du temps de calcul Bien que l'acquisition des signaux polarimétriques permettant de former des images de Mueller se fasse à la vitesse de balayage des scanners, le temps de traitement nécessaire à l'affichage des images est encore trop long pour de l'imagerie en temps réel (une dizaine de secondes) et nécessite d'être optimisé. Un programme LabView utilisant les multiples coeurs d'un CPU est en cours de développement. Des solutions utilisant le calcul sur carte graphique GPU seraient également intéressantes à tester. Au terme de ces optimisations, le microscope multimodal permettra d'obtenir, en parallèle et en temps réel, une image en polarimétrie de Mueller complète et une image en SHG. L'intérêt immédiat de cette fusion sera de mesurer les orientations θ des fibres de collagène et le rapport ρ entre les coefficients du tenseur non-linéaire de ces fibres. Ces deux paramètres sont généralement calculés à partir d'une série d'images SHG acquises pour différents états de polarisation incidents. A partir du microscope multimodal, nous serons en mesure d'extraire le paramètre θ via le polarimétre de Mueller et le coefficient ρ à partir d'une seule image SHG. Le microscope multimodal sera ainsi équivalent à un microscope capable de mesurer instantanément les propriétés polarimétriques du SHG. Enfin, d'autres voies multimodales sont envisagées à savoir le couplage entre des techniques linéaires et non-linéaires, comme par exemple Mueller, tomographie par cohérence optique, fluorescence (à un ou deux photons), génération de seconde et de troisième harmonique et des techniques de spectroscopie Raman (stimulé et non stimulé). -150- Conclusions et perspectives -151- Annexes -152- Annexes Annexes -153- Annexes Annexe 1 Résumé des vecteurs de Jones et de Stockes pour des états de polarisation particuliers. État de polarisation Rectiligne horizontale Rectiligne verticale Rectiligne à 45° Rectiligne à -45° Circulaire gauche Circulaire droite Elliptique Représentation temporelle Vecteur de Jones   Ex (t) = E0x cos(ωt)  E (t) = 0   1 0 y   Ex (t) = 0  E (t) = E cos(ωt) y 0y √1 2 0   Ex (t) = E0 cos(ωt)  E (t) = −E cos(ωt) y √1 2 0   Ex (t) = E0 cos(ωt)  E (t) = E sin(ωt) y √1 2 0   Ex (t) = E0 cos(ωt)  E (t) = −E sin(ωt) y y 0 -154-  1   −1   0 0    1   0   1 0   1 1  1 −1  √1 2 0   Ex (t) = E0 cos(ωt)  E (t) = E cos(ωt + φ)    0 1   Ex (t) = E0 cos(ωt)  E (t) = E cos(ωt) y Vecteur de Stokes   1   1   0 0 1 −i  1   0   −1 0    1   0   0 −1     1 i cos(ν) sin(ν)eiφ     1   0   0 1  1   cos(2ǫ)cos(2α)   cos(2ǫ)sin(2α) sin(2ǫ) Annexes Annexe 2 Matrices de Jones pour différents types de diatténuateur. Système optique Matrice de Jones  Polariseur P1  linéaire d'orientation α  Polariseur linéaire  dichroı̈que d'orientation α et d'orientation α Polariseur dichroı̈que d'ellipticité ǫ   cos(α)sin(α) cos(α)sin(α) 2 sin (α)  2 2 (P1 − P2 )cos(α)sin(α) P1 sin (α) + P2 cos (α) P1  d'ellipticité ǫ cos (α)  P1 cos2 (α) + P2 sin2 (α) (P1 − P2 )cos(α)sin(α)  Polariseur 2 P1 cos2 (ν) P1 cos(ν)sin(ν)e−iφ P1 cos(ν)sin(ν)e 2 iφ 2 P1 cos (ν) + P2 sin (ν) (P1 − P2 )cos(ν)sin(ν)e iφ 2 P1 sin (ν)    (P1 − P2 )cos(ν)sin(ν)e 2  2 −iφ P1 sin (ν) + P2 cos (ν)   où Tmax et Tmin sont les transmittances énergétiques maximum et minimum, telles que Tmax = P12 Tmin = P22 avec P1 et P2 sont des valeurs propres -155- Annexes Annexe 3 Matrices de Mueller pour différents types de diatténuateur. Système optique Matrice de Mueller  Polariseur linéaire P12 2 d'orientation α  dichroı̈que d'orientation α Polariseur dichroı̈que d'ellipticité ǫ q2 C2ν q1  q2 S2ν Cφ q2 S2ν Sφ      2 2  q2 C2ν  q1 C2ν + q3 S2ν (q1 − q3 )C2ν S2ν Cφ (q1 − q3 )C2ν S2ν Sφ     q S C (q − q )C S C C 2 (q S 2 + q C 2 )  2 (q − q )C S S  2 2ν φ  1 3 2ν 2ν φ 3 2ν 1 3 φ φ 2ν φ 1 2ν   2 2 2 2 2 q2 S2ν Sφ (q1 − q3 )C2ν S2ν Sφ (q1 − q3 )Cφ Sφ S2ν Sφ (q1 S2ν + q3 C2ν ) + q3 Cφ  Polariseur d'ellipticité ǫ 0  0   0   0 q2 C2α S2α 0  q1   q2 C2α q1 C 2 + q3 S 2  (q − q )C S 0 1 3 2α 2α 2α 2α     q S 2 2 + q3 C2α 0  2 2α (q1 − q3 )C2α S2α q1 S2α    0 0 0 q3 Polariseur linéaire  S2α C2α  1  2 C2α C2α C2α S2α   S 2 S2α  2α C2α S2α  0 0 0  P12 2 et d'orientation α C2α = cos(2α) S2α = sin(2α) q1 = 12 (P12 + P22 ) q2 = 12 (P12 − P22 ) q3 = P − 1P2  S2ν Cφ S2ν Sφ  C2ν  1   2  C2ν C2ν C2ν S2ν Cφ C2ν S2ν Sφ      S C C S C 2 2 2  C S C S S  2ν φ 2ν 2ν φ φ φ 2ν  φ 2ν   2 2 S2ν Sφ C2ν S2ν Sφ Cφ Sφ S2ν Sφ2 S2ν C2ν = cos(2ν) = cos(2ǫ)cos(2α) S2ν Cφ = sin(2ν)cos(φ) = cos(2ǫ)sin(2α) S2ν Sφ = sin(2ν)sin(φ) = sin(2ǫ) -156- Annexes Annexe 4 Matrices de Jones pour différents types de biréfringent, de retard δ. Système optique Biréfringent linéaire d'orientation α Matrice de Jones   2 cos (α)e i 2δ  circulaire (droite) Biréfringent (gauche)   2 cos (ν)e i 2δ isin( 2δ )sin(2α) 2 sin (α)e  cos( 2δ ) sin( 2δ ) −sin( 2δ ) cos( 2δ )  cos( 2δ ) −sin( 2δ )  circulaire elliptique + sin (α)e i 2δ isin( 2δ )sin(2α) Biréfringent Biréfringent 2 sin( 2δ ) 2 + sin (ν)e isin( 2δ )sin(2ν)eiφ -157- −i 2δ cos( 2δ ) i 2δ 2 + cos (α)e −i 2δ      isin( 2δ )sin(2ν)e−iφ 2  sin (ν)e i 2δ 2 + cos (ν)e −i 2δ   Annexes Annexe 5 Matrices de Mueller pour différents types de biréfringent, de retard δ. Système optique Matrice de Mueller  0 0 0 1    0 C 2 + S 2 cos(δ) C2α S2α (1 − cos(δ)) −S2α sin(δ) 2α 2α     0 C 2 S 2 (1 − cos(δ)) S 2 + C 2 cos(δ)  C sin(δ)   2α 2α 2α 2α 2α   0 S2α sin(δ) −C2α sin(δ) cos(δ) Biréfringent linéaire d'orientation α circulaire (droite) Biréfringent circulaire (gauche) elliptique d'orientation α     0 0 0 1   0 cos(δ) sin(δ) 0     0 −sin(δ) cos(δ) 0     0 0 0 1 Biréfringent Biréfringent   0 0 0 1   0 cos(δ) −sin(δ) 0     0 sin(δ) cos(δ) 0     0 0 0 1  0 0 0 1    0 d2 − e2 − f 2 + g 2  2(de + f g) 2(df − eg)     0  2(de − f g) −d2 + e2 − f 2 + g 2 2(ef + dg)     2 2 2 2 0 2(df + eg) 2(ef − dg) −d − e + f + g d = cos(2ν)sin(δ/2) = cos(2ǫ)cos(2α)sin(δ/2) e = sin(2ν)cos(δ/2) = cos(2ǫ)sin(2α)sin(δ/2) f = sin(2ν)sin(φ)sin(δ/2) = sin(2ǫ)sin(δ/2) g = cos(δ/2) -158- Annexes Annexe 6 Matrice [N] développée par rapport aux 16 coefficients mij de la matrice de Mueller. [N ] =   m m 00 + m11 + m01 + m10 02 + m12 + i(m03 + m13 ) m20 + m21 − i(m30 + m31 ) m22 + i(m33 + i(m23 − m32 )     m02 + m12 − i(m03 + m13 ) m00 + m11 − m01 + m10 m22 − m33 − i(m23 + m32 ) m20 − m21 − i(m30 − m31 )   1   2  m + m + i(m + m ) m − m + i(m + m ) m − m + m − m m02 − m12 + i(m03 − m13 )    20 21 30 31 22 33 23 32 00 11 01 10   m22 + m33 − i(m23 − m32 ) m20 − m21 + i(m30 − m31 ) m02 − m12 − i(m03 − m13 ) m00 + m11 − m01 − m10 avec T r([N ]) = 2m00 et [N ]2 = T r([N ]) * [N ] -159- Annexes Annexe 7 Matrice de passage [P ], de dimension 16 × 25, dans la configuration (e,e,5e,5e)  [P ] = 16  0    0   0   0    0   0   0    0   0   0    0   0   0   0    0   0   0    0   0   0    0   0   0   0 0 8 0 0 0 0 0 −8 8 0 0 0 0 0 0 0 0 −4 0 0 0 0 0 0 0 0 0 0 0 2 0 0 0 0 0 0 −4 0 0 0 0 0 0 −8 0 −4 0 0 0 0 0 0 −4 0 0 0 0 0 0 0 0 2 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 4 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 −4 0 0 0 0 0 0 0 0 0 0 0 −2 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 2 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 -160-  0  −4 0 0 0 0 0 0    0 2 0 0 0 0 0   0 0 0 0 0 0 0   0 0 0 0 0 0 0    0 0 0 0 0 0 0   0 0 0 0 0 0 0   0 0 0 0 0 0 0    0 −1 0 0 0 0 1   2 0 0 0 0 0 0   0 2 0 0 0 0 0    2 0 0 0 0 0 0   0 −1 0 0 0 0 −1   0 0 0 0 0 0 0   0 0 2 0 0 0 0    0 0 0 0 0 0 0   0 0 0 0 0 0 0   0 0 0 0 0 0 0    0 0 0 0 0 0 0   0 0 0 0 0 0 0   0 0 1 0 0 1 0    0 0 0 0 −2 0 0   0 0 0 −4 0 −2 0    0 0 0 0 −2 0 0   0 0 −1 0 0 1 0 0 −4 0 0 0 0 Annexes Annexe 8 Matrice de passage [P erreur ], de dimension 16×25, dans la configuration (e,e+∆e2 ,5e+∆e3 ,5e+∆e4 ) [P erreur ] =  16  0    0   0   0    0   0   0    0   0   0    0   0   0   0    0   0   0    0   0   0    0   0   0   0 0 8C2 8S2 0 0 0 0 −8C34 0 8 0 0 0 0 0 0 −4C34 0 0 0 4S34 0 −4 0 0 0 0 0 0 0 2C34 0 0 0 0 0 0 0 0 2 0 0 0 0 0 0 0 0 0 0 0 −4 0 0 0 0 0 0 0 0 0 0 0 −8 0 −4C2 S2 0 0 0 0 0 0 0 0 0 0 −4 0 0 0 0 0 0 0 0 0 0 0 0 0 2 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 −1 0 0 0 0 0 0 0 0 0 0 0 2 0 0 0 0 0 0 0 0 0 0 0 4 0 2C2 2S34 0 0 0 0 0 0 0 0 0 0 2 0 0 0 0 0 0 0 0 0 0 0 0 0 −1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 −4 0 0 0 0 0 0 0 2C34 0 0 0 0 0 0 0 0 −2 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 2 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 −2 0 0 0 0 0 0 0 0 0 0 0 −4 0 0 0 0 0 0 0 0 0 0 0 0 0 −2 0 0 0 0 0 0 0 0 0 0 −1 0 0 0 −4C2 C34 −4S2 C34 8S34 où C2 = cos(φ2 ) S2 = sin(φ2 ) C34 = cos(φ3 − φ4 ) S34 = sin(φ3 − φ4 ) -161- 0  4C2 C34 4S2 C34   0 0     −2S34 0    0 0    0 0     0 0    0 0    0 0     0 1    0 0    0 0     0 0    0 −1    0 0    0 −2S34     0 0    0 0    0 0     0 0    0 0    1 0     0 0    −2C2 −2S2    0 0    1 0 Annexes Annexe 9 Système d'équation obtenue avec la méthode calibration en réflexion, utilisant deux polariseurs linéaires de référence.    ̃  Arg(If0 )       Arg(I ̃ )   2f0          ̃  Arg(I3f0 )          Arg(I ̃4f0 )          Arg(I ̃ )   5f0          ̃  Arg(I6f0 )    =     Arg(I ̃7f0 )          Arg(I ̃ )   8f0           Arg(I ̃9f0 )          Arg(I ̃10f0 )          Arg(I ̃ )   11f0       Arg(I ̃12f0 ) 0 0 0 1 0 0 −1 1 0 0 0 1 0 0 1 0 0 1 1 0 1 −1 1 1 0 1 1 0 1 1 0 1 1 1 1 1 -162-  1   2     3    4    5     6   * (φ2 φ3 φ4 φf en )  7    8     9    10    11    12 Annexes Annexe 10 Dans cette expérience, on souhaite déterminer l'intensité lumineuse d'un système optique présentant de la biréfringence et du dichroı̈sme linéaire, dont les lignes neutres sont confondus, placé entre polariseur et analyseur croisés, comme sur la figure ci-dessous. On considère que le polariseur et l'analyseur sont fixes, tandis que l'on applique une rotation d'un angle θ sur le système optique. En se plaçant dans le formalisme de Jones, les matrices des différents éléments intervenant l'expérience, ainsi que leurs notations pour le calcul sont présentées dans le tableau suivant. Polariseur Analyseur Biréfringent Dichroı̈que Rotation [P ] [A] [B] [D] [R(θ)]   1 0 0 0     0 0 0 1     eiφ/2 0 0 e −iφ/2     a 0 0 b     cosθ −sinθ sinθ cosθ   La matrice d'un tel système en fonction de l'orientation θ, notée [M (θ)] se retrouve sous la forme du produit entre ces éléments rencontrés séquentiellement : [M (θ)] = [A] * [R(−θ)] * [B] * [D] * [R(θ)] * [P ] dont le résultat est :  0 0 [M ] = iφ −iφ 2 2 (−ae + be − 2ab) * cos θsin θ 0  L'expression de l'intensité lumineuse à la sortie d'un tel système est le module au carré de la projection sur l'axe x de cette matrice. Cette intensité lumineuse est donc bien proportionnelle à sin2 2θ. -163- Bibliographie -164- Bibliographie Bibliographie -165- Bibliographie -166- [1] S. Huard. Polarisation de la lumière. Masson, 1994. [2] A. Le Gratiet, S. Rivet, M. Dubreuil and Y. Le Grand. 100 khz mueller polarimeter in reflecion configuration. Optics Letters, 41(4) :4336–4339, 2015. [3] A. Le Gratiet, S. Rivet, M. Dubreuil and Y. Le Grand. Scanning mueller polarimetric microscopy. Optics Letters, 40(18) :645–648, 2016. [4] R.C. Jones. A new calculus for the treatment of optical systems. Journal of the Optical Society of America, 31 :488–493, 1941. [5] G.G. Stokes. On the composition and resolution of streams of polarized light from different sources. Transactions of the Cambridge Philosophical Society, 9 :339–416, 1852. [6] H. Mueller. The foundation of optics. Journal of Optical Society of America, 38 :661, 1948. [7] H. Poincaré. Théorie mathématique de la lumière. Gauthiers-Villars 2, Paris, 1892. [8] M. Born and E. Wolf. Principles of Optics. 6ème édition, Pergamon Press, New-York, 1983. [9] R.W. Wood. Physical Optics. Macmillan, 1911. [10] S.Y. Lu and R.A. Chipman. Interpretation of mueller matrices based on polar decomposition. Journal of the Optical Society of America A, 13(5) :1106–1113, 1996. [11] F. Perrin. Polarization of light scattered by isotropic opalescent media. The Journal of Chemical Physics, 10(7) :415, 1942. [12] V.V. Tuchin. Light scattering study of tissues. Physics-Uspekhi, 40(5) :495, 1997. [13] D.G.M. Anderson and R. Barakat. Necessary and sufficient conditions for a mueller matrix to be derivable from a jones matrix. Journal of the Optical Society of America A, 11(8) :2305–2319, 1994. [14] R. Simon. The connection between mueller and jones matrices of polarization optics. Optics Communication, 42(5) :293–297, 1982. [15] S.R. Cloude. Lie groups in electromagnetic wave propagation and scattering. Journal of electromagnetic waves and application, 6(8) :947–974, 1992. [16] C. Whitney. Pauli-algebric operators in polarisation optics. Journal of the Optical Society of America, 61(9) :1207–1213, 1971. [17] J.J. Gil. Polarimetric characterization of light and media : Physical quantities involved in polarimetric phenomena. The European Physical Journal Applied Physics, 40(1) :1–47, 2007. -167- [18] J. Morio and F. Goudail. Influence of the order of diattenuator, retarder, and polarizer in polar decomposition of mueller matrices. Optics Letters, 29 :2234–2236, 2004. [19] R. Ossikovski, A. De Martino and S. Guyot. Forward and reverse product decompositions of depolarizing mueller matrices. Optics Letters, 32(6) :689–691, 2007. [20] L. Martin. Analyse et interprétations expérimentales en polarimétrie de Mueller : applications biomédicales. Thèse de doctorat, 2011. [21] R. Ossikovski. Analysis of depolarizing mueller matrices through a symmeric decomposition. Journal Optical Society of America A, 26(A) :1109–1118, 2009. [22] C. Fallet, A. Pierangelo, R. Ossikovski and A. De Martino. Experimental validation of the symmetric decomposition of mueller matrices. Optics Express, 18(2) :831–842, 2009. [23] N. Ortega-Quijano and L. Arce-Diego. Mueller matrix differental decomposition. Optics letters, 36(10) :1942–1944, 2011. [24] S.R. Cloude. Conditions for physical realizability of matrix operators in polarimetry. In Proceedings of SPIE - The International Society for Optical Engineering, volume 1166, 1990. [25] F. Le Roy-Brehonnet and B. Le Jeune. Utilization of mueller matrix formalism to obtain optical targets depolarization and polarization properties. Prog. Quantum Electron, 21(2) :109–151, 1997. [26] F. Boulvert, G. Le Brun, B. Le Jeune, J. Cariou and L. Martin. Decomposition algorithm of an experimental mueller matrix. Optics Communications, 282(5) :692–704, 2009. [27] M.H. Smith. Optimization of a dual-rotating-retarder mueller matrix polarimeter. Applied Optics, 41(13) :2488–2493, 2002. [28] A. De Martino, Y.K. Kim, E. Garcia-Caurel, B. Laude and B. Drévillon. Optimized mueller polarimeter with liquid crystals. Optics Letters, 28(8) :616–618, 2003. [29] A. Peinado, A. Lizana, J. Vidal, C. Iemmi, A. Marquez, I. Moreno and J. Campos. Analysis, optimization and implementation of a variable retardance based polarimeter. EPJ Web of Conferences, 5, 2010. [30] D. Sabatke, M. Descour, E. Dereniak, W. Sweatt, S. Kemme and G. Phipps. Optimization of retardance for a complete stokes polarimeter. Optics Letters, 25(11) :802–804, 2000. [31] B. Kaplan. Applications Métrologiques de l'Ellipsomètre de Mueller. Thèse de doctorat, 2002. [32] J.S. Tyo. Noise equalization in stokes parameter images obtained by use of variableretardance polarimeters. Optics Letters, 25(16) :1198–1200, 2000. -168- [33] M.H. Smith. Optimization of a dual-rotating-retarder mueller matrix polarimeter. Applied Optics, 41(13) :2488–2493, 2002. [34] S. Ainouz. Analyse et Traitement d'Images Multidimensionnelles de Polarisation. Thèse de doctorat, 2006. [35] P.S. Hauge. Mueller matrix ellipsometry with imperfect compensators. Journal of the Optical Society of America A, 68(11) :1519–1528, 1978. [36] L. Broch, A. En Nacir and L. Johann. Systematic errors for a mueller matrix dual rotating compensator ellipsometer. Optics Express, 12(16) :8814–8824, 2008. [37] B. Boulbry, B. Le Jeune, B. Bousquet, F. Pellen, J. Cariou and J. Lotrian. Error analysis and calibration of a spectroscopic mueller matrix polarimeter using a short-pulse laser source. Optics Express, 13(10) :1563–1573, 2002. [38] D.H. Goldstein and R.A. Chipman. Error analysis of a mueller matrix polarimeter. Journal of the Optical Society of America A, 7(4) :693–700, 1990. [39] E. Compain, S. Poirier and B. Drevillon. General and self-consistent method for the calibration of polarization modulators, polarimeters, and mueller-matrix ellipsometers. Applied Optics, 38(16) :3490–3502, 1999. [40] K. Ichimoto, K. Shinoda, T. Yamamoto and J. Kiyohara. Photopolarimetric measurement system of mueller matrix with dual rotating waveplates. Publications of National Astronomical Observatory, 9 :11–19, 2006. [41] D.H. Goldstein. Mueller matrix dual-rotating retarder polarimeter. Applied Optics, 31(31) :6676–6683, 1992. [42] R.W. Collins and J. Koh. Dual rotating-compensator multichannel ellipsometer : Instrument design for real-time mueller matrix spectroscopy of surfaces and films. Journal of Optical Society of America A, 16 :1997–2006, 1999. [43] R.M.A. Azzam. Photopolarimeter using two modulated optical rotators. Optics Letters, 1(5) :181–183, 1977. [44] S.N. Jasperson and S.E. Schnatterly. An improved method for high reflectivity ellipsometry based on a new polarization modulation technique. Review of Scientific Instruments, 40 :761–767, 1969. [45] E. Compain and B. Drévillon. High-frequency modulation of the four states of polarization of light with a single phase modulator. Review of Scientific Instruments, 69 :1574–1580, 1969. [46] J. Pezzaniti and R.A. Chipman. High-resolution mueller matrix imaging polarimetry for understanding high-resolution optoelectronic modulators. In Proceedings of SPIE The International Society for Optical Engineering, volume 2297, 1995. [47] F. Delplancke. Automated high-speed mueller matrix scatterometer. Applied Optics, 36 :5388–5395, 1997. -169- [48] J.S. Tyo and T.S. Turner. Imaging spectropolarimeters for use in visible and infrared remote sensing. In Proceedings SPIE 3753, volume 214, 1999. [49] J.M. Bueno and P. Artal. Double pass imaging polarimetry in the human eye. Optics Letter, 24 :64–66, 1999. [50] E. Garcia-Caurel, A. De Martino and B. Drévillon. Spectroscopic mueller polarimeter based on liquid crystal devices. Thin Solid Films, 455-456 :120–123, 2004. [51] A. Peinado, A. Lizana and J. Campos. Design and optimization of polarimeters based on liquid-crystal displays. SPIE Newsroom, 2013. [52] K. Oka, T. Kinoshita and A. Ise. Channeled spectropolarimeter using a wavelengthscanning laser and a channeled spectroscopic polarization state generator. page 81600S, 2011. [53] N. Hagen and E.L. Dereniak. Snapshot mueller matrix spectropolarimetry. pages 668207–668207–7, 2007. [54] A.S. Alenin and J.S. Tyo. Generalized channeled polarimetry. Optical Society of America A, 31(5) :1013–1022, 2014. [55] M. Dubreuil, S. Rivet, B. Le Jeune and J. Cariou. Snapshot mueller matrix polarimeter by wavelength polarization coding. Optics express, 15(21) :13660–13668, 2007. [56] M. Dubreuil, S. Rivet, B. Le Jeune and J. Cariou. Two-channel snapshot mueller matrix polarimeter. Applied Optics, 48(33) :6501–6505, 2009. [57] R.M.A. Azzam and A. De. Optimal beam splitters for the division-of-amplitude photopolarimeter. Journal Optical Society of America A, 20(5) :955–958, 2003. [58] R.M.A. Azzam, I.M. Elminyawi and A.M. El-Saba. General analysis and optimization of the four-detector photopolarimeter. Journal Optical Society of America A, 5(5) :681– 689, 1988. [59] J. Pezzaniti and D.B. Chenault. A division of aperture mwir imaging polarimeter. In Proceedings of SPIE - The International Society for Optical Engineering, volume 5888, 2005. [60] C. Oh and M.J. Escuti. Achromatic diffraction from polarization gratings with high efficiency. Optics Letters, 33(20) :2287–2289, 2008. [61] J. Chang, H. He, Y. Wang, Y. Huang, X. Li, C. He, R. Liao, N. Zeng, S. Liu and H. Ma. Division of focal plane polarimeter-based 3 × 4 mueller matrix microscope : a potential tool forquick diagnosis of human carcinoma tissues. Journal of Biomedical Optics, 21(5) :056002–1–8, 2016. [62] M.W. Kudenov, M.J. Escuti, N. Hagen, E.L. Dereniak and K. Oka. Snapshot imaging mueller matrix polarimeter using polarization gratings. Optics Letters, 37(8) :1367–1369, 2012. -170- [63] M.W. Kudenov, M.J. Escuti, E.L. Dereniak and K. Oka. White-light channeled imaging polarimeter using broadband polarization grating. Applied Optics, 50(15) :2283– 2293, 2008. [64] A. De Martino, Y.-K. Kim, E.G. Caurel, B. Laude and B. Drévillon. Optimized mueller polarimeter with liquid crystals. Optics Letters, 28(8) :616–618, 2003. [65] B. Laude-Boulesteix, A. De Martino, G. Le Naoue, C. Genestie, L. Schwartz, E. Garcia-Caurel and B. Drévillon. Mueller polarimetric microscopy. In Proceedings of SPIE - The International Society for Optical Engineering, volume 5324, 2004. [66] L.M.S. Aas, P.G. Ellingsen, M. Kildemo and M. Lingdgren. Dynamic response of a fast near infra-red mueller matrix ellipsometer. Journal of Modern Optics, 57(17) :1603– 1610, 2010. [67] L.M.S. Aas, P.G. Ellingsen and M. Kildemo. Near infra-red mueller matrix imaging system and application to retardance imaging of strain. Journal of biomedical optics, 519(9) :2737–2741, 2011. [68] M. Anastasiadou, S. Ben Hatit, R. Ossikovski, S. Guyot and A. De Martino. Experimental validation of the reverse polar decomposition of depolarizing mueller matrices. Journal of the European Optical Society, 2 :070181–070187, 2007. [69] M. Mujat, R.D. Ferguson and N. Iftimia. Mueller matrix microscopy. In Proceedings of SPIE - The International Society for Optical Engineering, volume 8873, 2013. [70] R.M.A. Azzam. Photopolarimetric measurement of the mueller matrix by fourier analysis of a single detected signal. Optics Letters, 2(6) :148–150, 1978. [71] O. Arteaga, M. Baldris, J. Anto, A. Canillas, A. Pascual and E. Bertran. Mueller matrix microscope with a dual continuous rotating compensator setup and digital demodulation. Applied Optics, 53(10) :2236–2245, 2014. [72] J.M. Bueno. Confocal scanning laser ophtalmoscopy improvement by use of muellermatrix polarimetry. Optics Letters, 27(10) :830–832, 2002. [73] J.M. Bueno. Measurement of parameters of polarization in the living human eye using imaging polarimetry. Vision Reseach, 40(28) :3791–3799, 2000. [74] F. Goudail and A. Benière. Optimization of the contrast in polarimetric scalar images. Optics Letters, 34(9) :1471–1473, 2009. [75] D. Lara. Three-dimensional Complete Polarisation Sensitive Imaging using a Confocal Mueller Matrix Polarimeter. Thèse de doctorat, Imperial College-London, 2005. [76] D. Lara and C. Dainty. Axially resolved complete mueller matrix confocal microscopy. Applied optics, 45(9) :1917–1930, 2006. [77] K.M. Twietmeyer, R.A. Chipman, A.E. Elsner, Y. Zhao and D. VanNasdale. Mueller matrix retinal imager with optimized polarization conditions. Optics Express, 16(26) :21339–21354, 2008. -171- [78] F. Snik, J. Craven-Jones, M. Escuti, S. Fineschi, D. Harrington, A. De Martino, D. Mawet, J. Riedi and J.S. Tyo. An overview of polarimetric sensing techniques and technology with applications to different research fields. In Proceedings of SPIE - The International Society for Optical Engineering, volume 9099, 2014. [79] R.M.A. Azzam. Stokes-vector and mueller-matrix polarimetry. Journal Optical Society of America A, 33(7) :1396–1408, 2016. [80] N. Vannier, F. Goudail, C. Plassart, M. Boffety, P. Feneyrou, L. Leviendier, F. Galland and N. Bertaux. Active polarimetric imager with near infrared laser illumination for adaptive contrast optimization. Applied Optics, 54(25) :7622–7631, 2015. [81] S. Breugnot and P. Clémenceau. Modeling and performances of a polarization active imager at lambda = 806nm. In Proceedings of SPIE - The International Society for Optical Engineering, volume 3707, pages 449–460, 2000. [82] R.M.A. Azzam. Mueller matrix ellipsometry : a review. In Proceedings of SPIE - The International Society for Optical Engineering, volume 3121, pages 396–405, 1997. [83] G. Anna, F. Goudail and D. Dolfi. Polarimetric target detection in the presence of spatially fluctuating mueller matrices. Optics Letters, 36(23) :4590–4592, 2011. [84] G. Anna, H. Sauer, F. Gouda and D. Dolfi. Fully tunable artive polarization imager for contrast enhancement and partial polarimetry. Applied Optics, 51(21) :5302–5309, 2012. [85] N. Vannier, F. Goudail, C. Plassart, M. Boffety, P. Feneyrou, L. Leviendier, F. Galland and N. Bertaux. Comparison of different active polarimetric imaging modes for target detection in outdoor environment. Applied Optics, 55(11) :2881–2891, 2016. [86] N. Ghosh and A. Vitkin. Tissue polarimetry : concepts, challenges, applications, and outlook. Journal of Biomedical Optics, 16(11) :110801–1–110801–29, 2011. [87] V.V. Tuchin, L. Wang and D.A. Zimnyakov. Optical Polarization in Biomedical Applications. Springer, 2006. [88] A.W. Dreher, K. Reiter and R.N. Weinreb. Spatially resolved birefringence of the retinal nerve fiber layer assessed with a retinal laser ellipsometer. Applied Optics, 31(19) :3730–3735, 1992. [89] S. Alali and A. Vitkin. Polarized light imaging in biomedicine : emerging mueller matrix methodologies for bulk tissue assessment. Journal of Biomedical Optics, 20(6) :061104, 2015. [90] J.S. Baba, J.R. Chung, A.H. DeLaughter, B.D. Cameron and G.L. Coté. Development and calibration of an automated mueller matrix polarization imaging system. Journal of Biomedical Optics, 7(3) :341–349, 2002. [91] J. Chung, J. Woonggyu, M.J. Hammer-Wilson, P. Wilder-Smith and Z. Chen. Use of polar decomposition for the diagnosis of oral precancer. Applied Optics, 46(15) :3038– 3045, 2007. -172- [92] S. Guyot, M. Anastasiadou, E. Deléchelle and A. De Martino. Registration scheme suitable to mueller matrix imaging for biomedical applications. Optics Letters, 15(12) :7393– 7400, 2007. [93] M.R. Antonelli, A. Pierangelo, T. Novikova, P. Validire, A. Benali, B. Gayet and A. De Martino. Mueller matrix imaging of human colon tissue for cancer diagnostics : how monte carlo modeling can help in the interpretation of experimental data. Optics Express, 18(10) :10200–10208, 2010. [94] A. Pierangelo, A. Benali, M.R. Antonelli, T. Novikova, P. Validire, B. Gayet and A. De Martino. Ex-vivo characterization of human colon cancer by mueller polarimetric imaging. Optics express, 19(2) :1582–1593, 2011. [95] A. Pierangelo, A. Nazac, A. Benali, P. Validire, H. Cohen, T. Novikova, B. Haj Ibrahim, S. Manhas, C. Fallet, M.R. Antonelli and A. De Martino. Polarimetric imaging of uterine cervix : a case study. Optics Express, 21(12) :14120–14130, 2013. [96] T. Novikova, A. Pierangelo, A. De Martino, A. Benali and P. Validire. Polarimetric imaging for cancer diagnosis and staging. Optics and Photonics news, 2012. [97] O. Arteaga and E. Kuntman. Beyond polarization microscopy : Mueller matrix microscopy with frequency demodulation. In Proceedings of SPIE - The International Society for Optical Engineering, volume 9099, 2014. [98] O. Arteaga, E. Kuntman, J. Anto, E. Pascual, A. Canillas and E. Bertran. Mueller matrix microscopy on a morpho butterfly. In Journal of Physics Conference Series 605, volume 1, 2015. [99] S. Manhas, J. Vizet, S. Deby, J.C. Vanel, P. Boito, M. Verdier, A. De Martino and D. Pagnoux. Demonstration of full 4×4 mueller polarimetry through an optical fiber for endoscopic applications. Optics Express, 23(3) :3047–3054, 2015. [100] J. Vizet. Conception d'un dispositif de caractérisation polarimétrique de Mueller la travers une fibre optique endoscopique, destiné à l'imagerie biomédicale avancée. Thèse de doctorat, 2015. [101] J. Vizet, M. Sandeep, J. Tran, P. Validire, B. Benali, E. Garcia-Caurel, P. Pierangelo, A. De Martino and D. Pagnoux. Optical fiber-based full mueller polarimeter for endoscopic imaging using a two-wavelength simulataneous measurement method. Journal of Biomedical Optics, 21(7) :071106, 2016. [102] S. Rivet, A. Bradu and A. Podoleanu. 70 khz full 4x4 mueller polarimeter and simultaneous fiber calibration for endoscopic applications. Optics Express, 23(18) :23768–23786, 2015. [103] J. Qi and D.S. Elson. A high definition mueller polarimetric endoscope for tissue characterization. Scientific Reports, (25953) :1–11, 2016. [104] P.G. Ellingsen, M.B. Lilledahl, L.M. Aas, CdeL. Davies and M. Kildemo. Quantitative characterization of articular cartilage using mueller matrix imaging and multiphoton microscopy. Journal of biomedical optics, 16(11) :116002, 2011. -173- [105] M. Dubreuil, P. Babilotte, L. Martin, D. Sevrain, S. Rivet, Y. Le Grand, G. Le Brun, B. Turlin and B. Le Jeune. Mueller matrix polarimetry for improved liver fibrosis diagnosis. Optics letters, 37(6) :1061–1063, 2012. [106] S. Bancelin, A. Nazac, B.H. Ibrahim, P. Dokládal, E. Decencière, B. Teig, H. Haddad, H. Fernandez, M.C. Schanne-Klein and A. De Martino. Determination of collagen fiber orientation in histological slides using mueller microscopy and validation by second harmonic generation imaging. Optics Express, 22(19) :22561–22574, 2014. [107] M. Dubreuil. Développement d'un polarimètre de Mueller instantané par codage en longueur d'onde. Application à la caractérisation de cristaux liquides ferroélectriques. Thèse de doctorat, 2011. [108] A. Zanardi de Freitas, M. Magri Amaral and M. Paulo Raele. Optical coherence tomography : Development and applications. Laser Pulse Phenomena and Applications, Chapter 20 :409–432, 2010. [109] R. Huber, J. Wojtkowski, K. Taira and G. Fujimoto. Fourier domain mode locking (fdml) : A new laser operating regime and applications for optical coherence tomography. Optics Express, 14(8) :3225–3237, 2006. [110] P. Caro. Rare earths in luminescence. Puche, 1998. [111] J.Marvin. Handbook of Optical Materials (Laser Science and Technology, Vol. V : Optical materials part 3). Crc Press, 2002. [112] J. Xi, J.Li and X. Li. Generic real-time uniform k-space sampling method fot high-speed swept-source optical coherence tomography. Optics Express, 18(9) :9511–9517, 2010. [113] R. Huber, J. Wojtkowski, K. Taira and G. Fujimoto. Amplified, frequency swept lasers for frequency domain reflectometry and oct imaging : design and scaling principles. Optics Express, 13(9) :3513–3527, 2005. [114] F.J. Harris. On the use of windows for harmonic analysis with the dicrete fourier transform. In Proceedings of IEEE, volume 66, pages 51–83, 1978. [115] H.S. Shi, G. Zhang and H.Y. Shen. Measurement of principal refractive indices and the thermal refractive index coefficients of yttrium vanadate. Journal of Synthetic Crystals, 30 :85–88, 2001. [116] J.O. Sophocles. Electromagnetic waves and antennas. Rutgers University, 2008. [117] J.R. Chang Chien, C.C. Liu, C.J. Wu, P.Y. Wu and C.C. Li. Design analysis of a beam splitter based on the frustrated total internal reflection. Progress In Electromagnetics Research, 124 :71–83, 2012. [118] Z.P. Wang, J.H. Shi and S.L. Ruan. Designs of infrared non-polarizing beam splitters. Optics and Laser Technology, 39 :394–399, 2007. -174- [119] A. Belendez, E. Fernandez, J. Frances and C. Neipp. Birefringence of cellotape : Jones representation and experimental analysis. European Journal Of Physics, 31(3) :551–561, 2010. [120] S. Rivet, M. Maria, A. Bradu, T. Feuchter, L. Leick and A. Podoleanu. Complex master slave interferometry. Optics Express, 24(3) :2885–2904, 2016. [121] http ://refractiveindex.info/. [122] M. Shribak and R. Oldenbourg. Techniques for fast and sensitive measurements of two-dimensional birefringence distributions. Applied Optics, 42(16) :3009–3017, 2003. [123] F. Boulvert, B. Boulbry, G. Le Brun, B. Le Jeune, S. Rivet and J. Cariou. Analysis of the depolarizing properties of irradiated pig skin. Journal of Optics A : Pure Applied Optics, 7(5) :21–28, 2005. [124] L. Gailhouste, Y. Le Grand, C. Odin, D. Guyader, B. Turlin, F. Ezan, Y. Désille,T. Guilbert, A. Bessard,C. Frémin, N. Theret and G. Baffet. Fibrillar collagen scoring by second harmonic microscopy : A new tool in the assessment of liver fibrosis. Journal of Hepatology, 52(3) :398–406, 2010. [125] T. Guilbert, C. Odin, Y. Le Grand, B. Turlin, F. Ezan, Y. Désille, G. Baffet and D. Guyader. A robust collagen scoring method for human liver fibrosis by second harmonic microscopy. Optics Express, 18(25) :25794–25807, 2010. [126] G.A. Di Lullo, S.M. Sweenay, J. Korkko, L. Ala-Kokka and J.D. San Antonio. Mapping the ligand-binding sites and disease-associated mutations on the most abundant protein in the human, type i collagen. The Journal of biological chemistry, 277(6) :4223– 4231, 2002. [127] A. Rich and F.H. Crick. The structure of collagen. Nature, 176(4489) :915–916, 1955. [128] C. Couinaud. Le foie. Etudes anatomiques et chirurgicales. Masson et Cie, 1957. [129] J. Mertz and L. Moreaux. Second-harmonic generation by focused excitation of inhomogeneously distributed scatterers. Optics communications, 196(1) :325–330, 2001. [130] P.A. Franken, A.E. Hill, C.W. Peters and G. Weinreich. Generation of optical harmonics. Physical Review Letters, 7(4) :118–119, 1961. [131] H. Puchtler, F.S. Waldrop and L.S. Valentine. Polarization microscopic studies of connective tissue stained with picro-sirius red fba. Beiträge zur Pathologie, 150(2) :174– 187, 1973. [132] The METAVIR cooperative group. Inter- and inta-observer variation in the assessment of liver biopsy of chronic hepatitis. C. Hepatology, 20(1) :15–20, 1994. [133] C. Odin, Y. Le Grand, L. Gailhouste and G. Baffet. Orientation fields of nonlinear biological fibrils by second harmonic generation microscopy. Journal of Microscopy, 229(1) :32–38, 2008. -175- [134] O.P. Boryskina, Y. Le Grand, C. Odin and V. Fleury. The role of distribution and orientation of collagen fibers in tissue development : study by means of double imaging by two-photon excited fluorescence and second harmonic generation microscopy. In Proceedings of the European Microwave Association, volume 4, pages 255–259, 2008. -176- Publications et communications Publications et communications -177- Publications et communications Publications Le Gratiet A., Rivet S., Dubreuil M. and Le Grand Y. "100 kHz Mueller polarimeter in reflection configuration", Optics Letters ; 40(4) :645-648 (02/2015) Le Gratiet A., Rivet S., Dubreuil M. and Le Grand Y. "100 kHz Mueller polarimeter for laser scanning polarimetric microscopy", Proc. SPIE 9887, Biophotonics : Photonic Solutions for Better Health Care V, 988724 (04/2016) Le Gratiet A., Rivet S., Dubreuil M. and Le Grand Y. "Scanning Mueller polarimetric microscopy", Optics Letters 09/2016 ; 41(18) :4336-4339 Communications orales Le Gratiet A., Rivet S., Dubreuil M., Le Grand Y. : présentation orale. Electromagnétisme Polarisation Optique Statistique (Novembre 2014) – Marseille Le Gratiet A., Rivet S., Dubreuil M.,Le Grand Y. : présentation orale. Journées d'Imagerie Optique Non Conventionnelle (Mars 2015) – Paris Le Gratiet A., Rivet S., Dubreuil M., Le Grand Y. : présentation poster. Optique Bretagne (Juillet 2015) – Rennes Le Gratiet A., Rivet S., Dubreuil M., Le Grand Y. : présentation poster. Journée des doctorants de l'ED SICMA (Septembre 2015) – Brest Le Gratiet A., Rivet S., Dubreuil M., Le Grand Y. : présentation orale. Photonics Europe (Avril 2016) – Bruxelles Le Gratiet A., Rivet S., Dubreuil M., Le Grand Y. : présentation orale. OptDIAG2016 (Mai 2016) – Paris -178- Publications et communications -179- Publications et communications Développement d'un polarimètre de Mueller à codage spectral utilisant une swept-source. Application à la microscopie à balayage laser. La polarimétrie de Mueller est une technique optique qui mesure la réponse polarimétrique complète d'un milieu sous la forme d'une seule matrice de Mueller afin de remonter à ses propriétés optiques comme le dichroı̈sme, la biréfringence et la dépolarisation. Le couplage avec la microscopie non-linéaire (SHG par exemple) permet d'avoir accès à des informations précises sur un milieu biologique (structure, organisation, . . . ). Cela impose de passer à une modalité d'imagerie à balayage laser, qui nécessite de mesurer la réponse polarimétrique du milieu pixelpar-pixel en des temps relativement courts (de l'ordre de la microseconde). Le but de cette thèse est de mettre en oeuvre un polarimètre de Mueller dont les cadences d'acquisition sont compatibles avec l'imagerie à balayage laser. Dans un premier temps, un polarimètre de Mueller inédit est proposé, basé sur le codage spectral de la polarisation dont toute l'information polarimétrique de l'échantillon est mesurée sous la forme d'un seul signal d'intensité en un temps record (10 μs). Ce dispositif est constitué d'une source à balayage rapide en longueur d'onde à 100 kHz (ou swept-source), de lames de phase d'ordre élevé et d'un détecteur monocanal. Les erreurs systématiques qui entachent la mesure sont évaluées et des méthodes de correction permettent de les prendre en compte dans une étape d'étalonnage qui utilise la réponse de deux milieux étalons. Ensuite, le polarimètre est implémenté dans un microscope commercial à balayage laser, utilisé initialement pour réaliser de l'imagerie non-linéaire (SHG). Cela requiert un redimensionnement du montage, ainsi que la synchronisation entre les deux systèmes. Par ailleurs, un protocole de calibration du dispositif est développé et permet de tenir compte de l'ensemble des erreurs systématiques du polarimètre indépendamment des anisotropies optiques engendrées par le microscope. Enfin, les premières images polarimétriques de Mueller en microscopie à balayage laser ont été acquises sur des échantillons inhomogènes spatialement (rubans adhésifs et cristaux de roches). La potentialité de la microscopie multimodale est démontrée sur des échantillons de fibroses de foie, en couplant l'imagerie polarimétrique de Mueller et la microscopie non-linéaire au sein d'un seul instrument. Mots clés : polarisation, polarimétrie de Mueller, instrumentation optique, calibration, microscopie, multimodale. -180- Publications et communications Development of a spectral encoding Mueller polarimeter using a swept-source. Application to laser scanning microscopy. Mueller polarimetry is an optical technique allowing the acquisition of the full polarimetric signature of a medium with a single Mueller matrix, and leading to its polarimetric parameters such as dichroism, birefringence and depolarization. Coupling Mueller polarimetry with nonlinear microscopy techniques (SHG for example), more precise information about the medium could be obtained (structure, organization . . . ). This imaging technique uses a laser scanning system to measure the Mueller matrix of a medium point-to-point quickly (of the order of the microsecond). The aim of this thesis is to develop a Mueller polarimeter compatible with the laser scanning system. First, a new Mueller polarimeter is proposed using spectral encoding of the polarization and measuring the full polarimetric signature of a sample with a single channeled spectrum in a fast way (10 μs). This setup is composed of a 100 kHz swept-source laser, high order retarders and a single channel detector. Systematic errors on the Mueller matrix measurement are evaluated and correction methods take into account these errors in a calibration step that uses polarimetric signature of two references medium. Then, the polarimeter is implemented on a commercial laser scanning microscope that usually images non-linear contrasts (SHG). The update needs to reduce the dimension of the polarimeter and ensure an electronic synchronization between these two systems. However, a new calibration step is proposed and takes into account all the systematic errors of the polarimeter, independently of the optical anisotropy induced by the microscope. Finally, the images with the first Mueller scanning microscope are obtained with spatially inhomogeneous samples (cellophane tapes, rocks). The potentiality of the multimodal scanning microscopy Mueller/SHG on the same instrument is demonstrated in the case of hepatic fibrosis. Key words : polarization, Mueller polarimetry, optical instrumentation, calibration, microscopy, multimodal. -181-
{'path': '06/tel.archives-ouvertes.fr-tel-01533680-document.txt'}
MÉMOIRE DU DIPLÔME D'ÉTUDES SPECIALISÉES DE PHARMACIE OPTION PHARMACIE HOSPITALIÈRE – PRATIQUE ET RECHERCHE Soutenu le Mercredi 6 Octobre 2021 Par Madame FLORESTANO Victoria Née le 14 Mai 1993 à Nice Conformément aux dispositions de l'Arrêté du 04 octobre 1988 tenant lieu de THÈSE POUR LE DIPLÔME D'ÉTAT DE DOCTEUR EN PHARMACIE ----oOo---- TITRE : Etude comparative de vraie vie du traitement standard du Purpura Thrombotique Thrombocytopénique avec et sans caplacizumab dans un centre de référence des Microangiopathies Thrombotiques THESE ARTICLE ----oOo---- JURY : Président : Monsieur le Professeur Pascal RATHELOT Membres : Madame le Docteur Manon ROCHE Madame le Docteur Sophie GENSOLLEN Madame le Docteur Pascale POULLIN Madame le Docteur Hélène PEYRIERE Université d'Aix-Marseille – Faculté de Pharmacie – 27 boulevard Jean Moulin – CS 30064 - 13385 Marseille cedex 05 - France Tél. : +33 (0)4 91 83 55 00 - Fax : +33 (0)4 91 80 26 12 27 Boulevard Jean Moulin – 13385 MARSEILLE Cedex 05 Tel. : 04 91 83 55 00 – Fax : 04 91 80 26 12 ADMINISTRATION : Doyen : Mme Françoise DIGNAT-GEORGE Vice-Doyens : M. Jean-Paul BORG, M. François DEVRED, M. Pascal RATHELOT Chargés de Mission : Mme Pascale BARBIER, M. David BERGE-LEFRANC, Mme Manon CARRE, Mme Caroline DUCROS, Mme Frédérique GRIMALDI, M. Guillaume HACHE Conseiller du Doyen : M. Patrice VANELLE Doyens honoraires : M. Patrice VANELLE, M. Pierre TIMON-DAVID, Professeurs émérites : M. José SAMPOL, M. Athanassios ILIADIS, M. Henri PORTUGAL, M. Philippe CHARPIOT Professeurs honoraires : M. Guy BALANSARD, M. Yves BARRA, Mme Claudette BRIAND, M. Jacques CATALIN, Mme Andrée CREMIEUX, M. Aimé CREVAT, M. Gérard DUMENIL, M. Alain DURAND, Mme Danielle GARÇON, M. Maurice JALFRE, M. Joseph JOACHIM, M. Maurice LANZA, M. José MALDONADO, M. Patrick REGLI, M. Jean-Claude SARI Chef des Services Administratifs : Mme Florence GAUREL Chef de Cabinet : Mme Aurélie BELENGUER Responsable de la Scolarité : Mme Nathalie BESNARD DEPARTEMENT BIO-INGENIERIE PHARMACEUTIQUE Responsable : Professeur Philippe PICCERELLE PROFESSEURS BIOPHYSIQUE M. Vincent PEYROT M. Hervé KOVACIC GENIE GENETIQUE ET BIOINGENIERIE M. Christophe DUBOIS PHARMACIE GALENIQUE, PHARMACOTECHNIE INDUSTRIELLE, BIOPHARMACIE ET COSMETOLOGIE M. Philippe PICCERELLE -1- MAITRES DE CONFERENCES BIOPHYSIQUE M. Robert GILLI Mme Odile RIMET-GASPARINI Mme Pascale BARBIER M. François DEVRED Mme Manon CARRE M. Gilles BREUZARD Mme Alessandra PAGANO GENIE GENETIQUE ET BIOTECHNOLOGIE M. Eric SEREE-PACHA Mme Véronique REY-BOURGAREL PHARMACIE GALENIQUE, PHARMACOTECHNIE INDUSTRIELLE, BIOPHARMACIE ET COSMETOLOGIE M. Pascal PRINDERRE M. Emmanuel CAUTURE Mme Véronique ANDRIEU Mme Marie-Pierre SAVELLI BIO-INGENIERIE PHARMACEUTIQUE ET BIOTHERAPIES PHARMACO ECONOMIE, E-SANTE M. Jérémy MAGALON Mme Carole SIANI ENSEIGNANTS CONTRACTUELS ANGLAIS Mme Angélique GOODWIN DEPARTEMENT BIOLOGIE PHARMACEUTIQUE Responsable : Professeur Françoise DIGNAT-GEORGE PROFESSEURS BIOLOGIE CELLULAIRE M. Jean-Paul BORG HEMATOLOGIE ET IMMUNOLOGIE Mme Mme Mme Mme MICROBIOLOGIE M. Jean-Marc ROLAIN M. Philippe COLSON PARASITOLOGIE ET MYCOLOGIE MEDICALE, HYGIENE ET ZOOLOGIE Mme Nadine AZAS-KREDER Françoise DIGNAT-GEORGE Laurence CAMOIN-JAU Florence SABATIER-MALATERRE Nathalie BARDIN -2- MAITRES DE CONFERENCES BIOCHIMIE FONDAMENTALE, MOLECULAIRE ET CLINIQUE M. Thierry AUGIER M. Edouard LAMY Mme Alexandrine BERTAUD Mme Claire CERINI Mme Edwige TELLIER M. Stéphane POITEVIN HEMATOLOGIE ET IMMUNOLOGIE Mme Aurélie LEROYER M. Romaric LACROIX Mme Sylvie COINTE MICROBIOLOGIE Mme Michèle LAGET Mme Anne DAVIN-REGLI Mme Véronique ROUX M. Fadi BITTAR Mme Isabelle PAGNIER Mme Sophie EDOUARD M. Seydina Mouhamadou DIENE PARASITOLOGIE ET MYCOLOGIE MEDICALE, HYGIENE ET ZOOLOGIE Mme Carole DI GIORGIO M. Aurélien DUMETRE Mme Magali CASANOVA Mme Anita COHEN BIOLOGIE CELLULAIRE Mme Anne-Catherine LOUHMEAU ATER BIOCHIMIE FONDAMENTALE, MOLECULAIRE ET CLINIQUE Mme Anne-Claire DUCHEZ BIOLOGIE CELLULAIRE ET MOLECULAIRE Mme Alexandra WALTON A.H.U. HEMATOLOGIE ET IMMUNOLOGIE Mme Mélanie VELIER DEPARTEMENT CHIMIE PHARMACEUTIQUE Responsable : Professeur Patrice VANELLE PROFESSEURS CHIMIE ANALYTIQUE, QUALITOLOGIE ET NUTRITION Mme Catherine BADENS CHIMIE PHYSIQUE – PREVENTION DES RISQUES ET NUISANCES TECHNOLOGIQUES M. David BERGE-LEFRANC CHIMIE MINERALE ET STRUCTURALE – CHIMIE THERAPEUTIQUE M. Pascal RATHELOT M. Maxime CROZET CHIMIE ORGANIQUE PHARMACEUTIQUE M. Patrice VANELLE M. Thierry TERME PHARMACOGNOSIE, ETHNOPHARMACOGNOSIE Mme Evelyne OLLIVIER -3- MAITRES DE CONFERENCES BOTANIQUE ET CRYPTOGAMIE, BIOLOGIE CELLULAIRE Mme Anne FAVEL Mme Joëlle MOULIN-TRAFFORT CHIMIE ANALYTIQUE, QUALITOLOGIE ET NUTRITION Mme Catherine DEFOORT M. Alain NICOLAY Mme Estelle WOLFF Mme Elise LOMBARD Mme Camille DESGROUAS M. Charles DESMARCHELIER CHIMIE PHYSIQUE – PREVENTION DES RISQUES ET NUISANCES TECHNOLOGIQUES M. Pierre REBOUILLON CHIMIE THERAPEUTIQUE Mme Sandrine ALIBERT Mme Caroline DUCROS M. Marc MONTANA Mme Manon ROCHE Mme Fanny MATHIAS CHIMIE ORGANIQUE PHARMACEUTIQUE HYDROLOGIE M. Armand GELLIS M. Christophe CURTI Mme Julie BROGGI M. Nicolas PRIMAS M. Cédric SPITZ M. Sébastien REDON PHARMACOGNOSIE, ETHNOPHARMACOLOGIE M. Riad ELIAS Mme Valérie MAHIOU-LEDDET Mme Sok Siya BUN Mme Béatrice BAGHDIKIAN MAITRES DE CONFERENCE ASSOCIES A TEMPS PARTIEL (M.A.S.T.) CHIMIE ANALYTIQUE, QUALITOLOGIE ET NUTRITION Mme Anne-Marie PENET-LOREC CHIMIE PHYSIQUE – PREVENTION DES RISQUES ET NUISANCES TECHNOLOGIQUES M. Cyril PUJOL DROIT ET ECONOMIE DE LA PHARMACIE M. Marc LAMBERT GESTION PHARMACEUTIQUE, PHARMACOECONOMIE ET ETHIQUE PHARMACEUTIQUE OFFICINALE, DROIT ET COMMUNICATION PHARMACEUTIQUES A L'OFFICINE ET GESTION DE LA PHARMAFAC Mme Félicia FERRERA A.H.U. CHIMIE ANALYTIQUE, QUALITOLOGIE ET NUTRITION M. Mathieu CERINO ATER CHIMIE PHYSIQUE – PREVENTION DES RISQUES ET NUISANCES TECHNOLOGIQUES M. Duje BURIC -4- DEPARTEMENT MEDICAMENT ET SECURITE SANITAIRE Responsable : Professeur Benjamin GUILLET PROFESSEURS PHARMACIE CLINIQUE M. Stéphane HONORÉ PHARMACODYNAMIE M. Benjamin GUILLET TOXICOLOGIE ET PHARMACOCINETIQUE M. Bruno LACARELLE Mme Frédérique GRIMALDI M. Joseph CICCOLINI MAITRES DE CONFERENCES PHARMACODYNAMIE M. Guillaume HACHE Mme Ahlem BOUHLEL M. Philippe GARRIGUE PHYSIOLOGIE Mme Sylviane LORTET Mme Emmanuelle MANOS-SAMPOL TOXICOLOGIE ET PHARMACOCINETIQUE Mme Raphaëlle FANCIULLINO Mme Florence GATTACECCA TOXICOLOGIE GENERALE ET PHARMACIE CLINIQUE M. Pierre-Henri VILLARD Mme Caroline SOLAS-CHESNEAU Mme Marie-Anne ESTEVE A.H.U. PHYSIOLOGIE / PHARMACOLOGIE PHARMACIE CLINIQUE Mme Anaïs MOYON M. Florian CORREARD ATER. TOXICOLOGIE ET PHARMACOCINETIQUE Mme Anne RODALLEC -5- CHARGES D'ENSEIGNEMENT A LA FACULTE Mme Valérie AMIRAT-COMBRALIER, Pharmacien-Praticien hospitalier M. Pierre BERTAULT-PERES, Pharmacien-Praticien hospitalier Mme Marie-Hélène BERTOCCHIO, Pharmacien-Praticien hospitalier Mme Martine BUES-CHARBIT, Pharmacien-Praticien hospitalier M. Nicolas COSTE, Pharmacien-Praticien hospitalier Mme Sophie GENSOLLEN, Pharmacien-Praticien hospitalier M. Sylvain GONNET, Pharmacien titulaire Mme Florence LEANDRO, Pharmacien adjoint M. Stéphane PICHON, Pharmacien titulaire M. Patrick REGGIO, Pharmacien conseil, DRSM de l'Assurance Maladie Mme Clémence TABELE, Pharmacien-Praticien attaché Mme TONNEAU-PFUG, Pharmacien adjoint M. Badr Eddine TEHHANI, Pharmacien – Praticien hospitalier M. Joël VELLOZZI, Expert-Comptable Mise à jour le 23 janvier 2020 -6- Remerciements A Monsieur le Professeur Pascal Rathelot, je vous remercie de me faire l'honneur de présider le jury de cette thèse. Soyez assuré de ma sincère reconnaissance et de mon profond respect. A Madame le Docteur Manon Roche, je te remercie pour avoir acceptée d'encadrer ce travail. Merci pour ton implication, ta disponibilité. Je suis très honorée d'avoir pu travailler avec toi. A Madame le Docteur Sophie Gensollen, je vous remercie pour m'avoir aiguillé sur le sujet, pour votre disponibilité et pour tout ce que vous m'avez apporté durant mes stages à la Conception. Soyez assurée de mon respect et de ma reconnaissance. A Madame le Docteur Pascale Poullin, vous me faites l'honneur de participer à mon jury de thèse et d'évaluer ce travail, je vous en remercie. Soyez assurée de ma profonde gratitude et de mon estime. 7 A ma Maman, pour ton soutien inconditionnel, merci d'être toujours là, de toujours croire en moi. A mon Papa, tu me manques énormément. J'aurais aimé que tu sois là pour voir enfin l'aboutissement de toutes ces années d'étude. J'espère que tu es fier de moi. A mon frère et ma soeur, merci d'être toujours là et pour tous vos encouragements pendant toutes ces années d'études. On n'oubliera pas le fameux « Envoie tout ! ». A mes neveux, les années ont passé tellement vite mais vous resterez toujours mes bébés d'amour. Maintenant, c'est à votre tour de tout donner pour réussir. Aux amours de ma vie : A Alex, pour ton soutien sans faille, ta patience et de toujours m'épauler dans mes moments de doutes. A mon petit Aaron, tu as agrandi notre famille et changé notre vie. Tes sourires sont une bouffée de bonheur. A mes amis et à toutes les personnes que j'ai eu la chance de côtoyer à la fac et durant mon internat. 8 « L'Université n'entend donner aucune approbation, ni improbation aux opinions émises dans les thèses. Ces opinions doivent être considérées comme propres à leurs auteurs. » 9 Table des matières Liste des Abréviations 11 Liste des Figures 14 Liste des Tableaux 14 Introduction 15 I. Le PTT 18 1. Epidémiologie 18 2. Physiopathologie 19 a. L'hémostase primaire 19 b. Le facteur von Willebrand 20 c. La protéase ADAMTS 13 20 d. Historique de la physiopathologie du PTT 21 3. Manifestation de la maladie 25 4. Evolution du PTT 28 5. Diagnostics différentiels 30 II. Les traitements 33 1. Les échanges plasmatiques 33 2. Les corticoïdes 38 3. Le rituximab 39 4. Le caplacizumab 45 5. Les autres thérapeutiques 48 III. Etudes en condition de vie réelle pour l'évaluation des médicaments 51 1. L'évaluation des médicaments 51 2. Les études de vraie vie 53 IV. Contexte de l'étude 56 V. Article 57 VI. Discussion 78 Conclusion 83 Annexes 84 10 Liste des Abréviations ADAMTS 13 : A Disintegrin And Metalloprotease with ThromboSpondin-1 motifs, 13th member ADCC : Cytotoxicité Cellulaire Anticorps Dépendant AHAI : Anémie Hémolytique Auto-Immune AMM : Autorisation de Mise sur le Marché AP-HM : Assistance Publique des Hôpitaux de Marseille ASMR : Amélioration du Service Médical Rendu ATU : Autorisation Temporaire d'Utilisation CDC : Cytotoxicité Dépendante du Complément CEESP : Commission d'Evaluation Economique et de Santé Publique CEPS : Comité Economique des Produits de Santé CNR-MAT : Centre National de Référence des MAT CT : Commission de Transparence EFS : Etablissement Française du Sang EP : Echanges Plasmatiques FDA : Food and Drug Administration FVW: Facteur von Willebrand 11 GHS : Groupe Homogène de Séjour GRE : Glucocorticoïdes-Responsive-Elements HAS : Haute Autorité de Santé LDH : Lactate Déshydrogénase MAT : Microangiopathies Thrombotiques MDS : Médicament Dérivé du Sang NAC : N-acétylcystéine OMS : Organisation Mondiale de la Santé PFC-IA : Plasma Frais Congelé Inactivé par Amotosalen PFC-Se : Plasma Frais Congelé déleucocyté Sécurisé par quarantaine PFC-SD : Plasma Frais Congelé traité par Solvant Détergent PHRC : Programme Hospitalier de Recherche Clinique PTI : Purpura Thrombopénique Idiopathique PTT : Purpura Thrombotique Thrombocytopénique PUI : Pharmacie à Usage Intérieur QALY : Quality Adjusted Life Year RTU : Recommandation Temporaire d'Utilisation TVA : Taxe sur Valeur Ajoutée TRALI : Transfused Related Acute Lung Injury 12 SHU : Syndrome Hémolytique et Urémique SMR : Service Médical Rendu VSL : Véhicule Sanitaire Léger 13 Liste des Figures Figure 1 : Structure de la protéase ADAMTS 13 Figure 2 : Historique de la physiopathologie du PTT Figure 3 : Mécanismes physiopathologiques aboutissant à la formation des microthrombi dans le PTT Figure 4 : Signes cliniques et biologiques principaux du PTT Figure 5 : Les différentes formes de MAT Figure 6 : Le mécanisme d'action du caplacizumab Figure 7 : L'évaluation des médicaments par la HAS Liste des Tableaux Tableau 1 : Score prédictif d'un déficit sévère en ADAMTS 13 Tableau 2 : Score prédictif d'un déficit sévère en ADAMTS 13 Tableau 3 : L'évolution du PTT Tableau 4 : Les différents plasmas utilisés dans le PTT Tableau 5 : Principales études rapportant l'expérience du rituximab au cours du PTT acquis Tableau 6 : Récapitulatif des codes GHS, coûts et remboursements 14 Introduction Le Purpura Thrombotique Thrombocytopénique (PTT) est une forme de Microangiopathies Thrombotiques (MAT) caractérisé par un déficit en ADAMTS 13 (A Disintegrin And Metalloprotease with ThromboSpondin-1 motifs, 13th member), métalloprotéase responsable du clivage du Facteur von Willebrand (FVW)1. Le PTT se manifeste par une thrombopénie périphérique, une anémie hémolytique et une défaillance d'organes d'atteinte variable en fonction de la sévérité. C'est une pathologie rare mais potentiellement mortelle en l'absence d'une prise en charge précoce. Le diagnostic est difficile à poser car il n'y a pas de signes spécifiques. Les femmes sont majoritairement touchées avec un âge moyen se situant vers 40 ans2. Les Echanges Plasmatiques (EP) ont marqué un tournant dans la prise en charge du PTT en faisant passer le taux de mortalité de 90% à 10-20%3. Le traitement de référence repose désormais sur les EP, les corticoïdes et le rituximab. Malgré l'évolution de la prise en charge avec l'introduction de thérapies immunosuppressives, notamment le rituximab, 20% des patients restent réfractaires au traitement. La persistance d'un risque de rechute est toujours présente, pour 30 à 40% des patients qui récidivent, la ré-initiation du traitement est nécessaire. A chaque épisode de rechutes, le patient est exposé à un haut risque de mortalité et de complications4. 1 Veyradier A, Coppo P. ADAMTS 13, la protéase spécifique du clivage du facteur von Willebrand. Medecine Sciences 2011 ; 27 : 1097-1105 2 Korach JM, Petitpas D, Paris B, Bourgeade F, Passerat V, Berger P, et al. Plasma exchange in France : epidemiology 2001. Transfusion and apheresis science 2003 ; 29 :153-157 3 Retornaz F, Durand JM, Poullin P, Lefèvre P, Soubeyrand J. Le purpura thrombotique thrombocytopénique idiopathique ou syndrome de Moschowitz : actualités physiopathologiques et perspectives thérapeutiques. Revue de Medecine Interne 2000 ; 21 : 777-784 4 Hanlon A, Metijean A. Caplacizumab in adult patients with acquired thrombotic thrombocytopenic purpura. Therapeutic Adavances in Hematology 2020 ; 11 : 1-10 15 Depuis 2018, le caplacizumab a d'abord été en Autorisation Temporaire d'Utilisation (ATU) puis en post-ATU jusqu'en juin 2021, il a obtenu l'Autorisation de Mise sur le Marché (AMM) pour le traitement des adultes présentant un PTT acquis. C'est le premier médicament ayant l'AMM dans le traitement du PTT. Le caplacizumab est un nanocorps ciblant spécifiquement le domaine A1 du FVW. Ce traitement marque une nouvelle évolution dans la prise en charge de cette pathologie en permettant d'améliorer la survie des patients. D'après les résultats prometteurs des études réalisées pour la mise sur le marché de ce nanocorps, le nombre d'EP serait largement réduit, la durée d'hospitalisation en réanimation et en service conventionnel serait également écourtée par rapport au traitement standard. Les rechutes et les exacerbations seraient diminuées5,6. Le caplacizumab permettrait donc une économie des ressources hospitalières. La qualité de vie des patients est un élément important à prendre en compte dans l'évaluation des produits de santé mais reste la problématique du coût du traitement au regard de l'intérêt clinique7. Il est intéressant de vérifier tôt l'impact clinique et économique, d'autant plus que le caplacizumab n'a pas été inscrit sur la liste en sus. L'objectif de ce travail est d'étudier l'aspect économique de la prise en charge du PTT avec et sans caplacizumab en incluant efficacité et tolérance dans les conditions de vraie vie au sein d'un centre de référence des MAT. Dans un premier temps, nous aborderons les généralités sur le PTT et les différents traitements. Puis, nous évoquerons les études en condition de vie réelle pour l'évaluation des médicaments. Ensuite, les résultats de l'étude seront présentés sous la forme d'un article suivi 5 Peyvandi F, Scully M, Kremer Hovinga JA, Cataland S, Knöbl P, Wu H, Artoni A, Westwood JP, Taleghani MM, Jilma B, Callewaert F, Ulrichts H, Duby C, Tersago D et al. Caplacizumab for acquired thrombotic thrombocytopenic purpura. The new england journal of medecine 2016 ; 374 : 511-522 6 Scully M, Cateland SR, Peyvandi F, Coppo P, Knöbl P, Kremer Hovinga JA, Metijian A, de la Rubia J, Pavenski K, Callewaert F, Biswas D, De Winter H, Zeldin RK. Caplacizumab treatment for acquired thrombotic thrombocytopenic purpura. The new england journal of medecine 2019 ; 380 : 335-346 7 Note de synthèse relative à l'évaluation des technologies de santé, HAS, 2018 disponible à l'adresse suivante https://www.has-sante.fr/jcms/c_2883073/fr/evaluation-des-technologies-de-sante-a-la-has-place-de-la-qualitede-vie consulté le 24/08/2021 16 d'une discussion approfondie. Enfin, nous conclurons sur le coût et les bénéfices de ce nouveau traitement ainsi que sur la nécessité d'optimiser son utilisation. 17 I. Le PTT 1. Epidémiologie Le PTT auto-immun est une pathologie rare qui touche principalement l'adulte jeune vers 40 ans avec une prédominance féminine, le sexe ratio est de 2 femmes pour 1 homme8. La prévalence est de 10 cas par million de personnes et son incidence annuelle est de 1 à 2 cas par million de personnes9. Les sujets noirs semblent être davantage exposés.10 En effet, ils sont principalement présents dans les cohortes de patients présentant un PTT11. La présence des loci du système HLA DRB1*11 et DRB1*03 s'avèrent être une prédisposition génétique au PTT, tandis que, le locus DRB1*04 semble être protecteur12. Le PTT congénital est, quant à lui, encore plus rare et apparaît dans la période néonatale ou dans l'enfance. 8 Joly B, Stepanian A, Coppo P, Veyradier A. Exploration d'ADAMTS 13 dans le purpura thrombotique thrombocytopénique. Revue Francophone des Laboratoires, 2017 ; 494 : 33-40 9 Mariotte E, Azoulay E, Galicier L, Rondeau E, Zouiti F, Boisseau P, et al. Epidemiology and physiopathology microangiopathy with severe ADAMTS 13 deficiency (thrombotic thrombocytopenic purpura) : a cross-sectional analysis of the French national registry for thrombotic microangiopathy. Lancet Haematology, 2016 ; 3 : 237245 10 Sadler JE, Moake JL, Miyata T, George JN. Recent advances in thrombotic thrombocytopenic purpura. The American Society of Hematology Education Program, 2004 ; 407-423 11 Deligny C, Martino S, Jamme M, Busson M, Loiseau P, Azoulay E, Galicier L, Pène F, Prôvot F, Dossier A, Saheb S, Coppo P. Purpura thrombotique thrombocytopénique : impact de l'origine ethnique sur le pronostic, 2015 ; 36: A98-A99 12 Coppo P, Busson M, Veyradier A, Wynckel A, Poullin P, Azoulay E, et al. HLA-DRB1*11: a strong risk factor for acquired severe ADAMTS13 deficiency-related idiopathic thrombotic thrombocytopenic purpura in Caucasians. Journal o. Thromb. Haemost. 2010 ; 8 : 856-859. 18 2. Physiopathologie a. L'hémostase primaire L'hémostase est l'ensemble des phénomènes qui consiste à arrêter un saignement suite à une brèche vasculaire. L'hémostase primaire est la première étape et aboutit à la formation du clou plaquettaire. Différentes phases sont nécessaires à la formation de ce clou plaquettaire : l'adhésion, l'activation et l'agrégation des plaquettes. L'adhésion des plaquettes au sous-endothélium se réalise au niveau du collagène par l'intermédiaire du FVW. Celles-ci forment un pont moléculaire entre la matrice du sousendothélium et le complexe des glycoprotéines GPIb/IX/V à la surface des plaquettes, et entraîne l'interaction des plaquettes entre elles via la GPIIb-IIIa. L'activation des plaquettes fait suite à l'adhésion. En changeant de formes, celles-ci deviennent sphériques et libèrent leur contenu à l'extérieur (ADP/ATP, sérotonine). Enfin, la dernière étape, l'agrégation des plaquettes, par l'intermédiaire du fibrinogène permet la formation du clou plaquettaire. Ce thrombus plaquettaire est ensuite consolidé par un réseau de fibrines qui correspond à l'étape de coagulation ou hémostase secondaire. Puis, la fibrinolyse permet la destruction de ce caillot une fois la brèche réparée. 19 b. Le facteur von Willebrand Le FVW est une glycoprotéine organisée en multimères. Son pouvoir adhésif augmente proportionnellement à sa taille1. Il est synthétisé par les mégacaryocytes et les cellules endothéliales et est stocké dans les corps de Weibel-Palade. Ce facteur intervient dans l'adhésion et l'interaction des plaquettes, mais aussi lors de la coagulation en assurant le transport du facteur VIII. Les mégamultimères du FVW sont hyper adhésifs et fortement thrombogènes. Ils sont clivés par une protéase spécifique en fragments moins thrombogènes, la protéase ADAMTS 13. c. La protéase ADAMTS 13 L'ADAMTS 13 est une métalloprotéase spécifique du FVW8. C'est une glycoprotéine monocaténaire de 1 427 acides aminés, de masse moléculaire de 190 kDa. L'ADAMTS 13 est produite principalement par les cellules pré-sinusoïdales du foie, les cellules endothéliales et par les plaquettes. Sa concentration plasmatique est d'environ 1μg/ml13. Son gène se situe sur le chromosome 9. Il s'agit du 13ème membre de la famille des métalloprotéases ADAMTS. 1 Veyradier A, Coppo P. ADAMTS 13, la protéase spécifique du clivage du facteur von Willebrand. Medecine Sciences 2011 ; 27 : 1097-1105 8 Joly B, Stepanian A, Coppo P, Veyradier A. Exploration d'ADAMTS 13 dans le purpura thrombotique thrombocytopénique. Revue francocphone des laboratoires 2007 ; 294 : 33-40 13 Caron C. Protéase du clivage du facteur willebrand (ADAMTS 13) et purpura thrombotique thrombocytopénique (PTT). Revue Francophone des Laboratoires 2006 ; 378 : 21-28 20 Figure 1 : Structure de l'ADAMTS 131 d. Historique de la physiopathologie du PTT La compréhension de la physiopathologie du PTT est assez récente. En effet, le premier cas de PTT a été décrit en 1924 par Moschcowitz chez une jeune fille de 16 ans présentant une fièvre, une anémie, une atteinte cardiaque et des troubles neurologiques. A l'autopsie, des thrombi au niveau des capillaires et des artérioles ont été retrouvés14. En 1982, le rôle des multimères de haut poids moléculaire du FVW a été mis en évidence15. Le FVW est une glycoprotéine plasmatique libéré par les cellules endothéliales jouant un rôle essentiel dans la formation du thrombus plaquettaire en présence de forces de cisaillement élevées. Lors d'une brèche vasculaire, les multimères du FVW permettent l'adhésion des plaquettes au sous endothélium et l'agrégation des plaquettes entre elles. Le FVW forme des mégamultimères qui ont une activité procoagulante et, en l'absence de 1 Veyradier A, Coppo P. ADAMTS 13, la protéase spécifique du clivage du facteur von Willebrand. Medecine Sciences 2011 ; 27 : 1097-1105 14 Moschcowitz E. An acute febrile pleiochromic anemia with hyaline thrombosis of the terminal arterioles and capillaries ; an undescribed disease. Arch Intern Med 1925 ; 36 : 294-310 15 Moacke JL, Rudy CK, Troll IH. Unsually large plasma factor VIII : von Willebrand factor multimers in chronic relapsing thrombotic thrombocytopenic purpura. The New England journal of medecine 1982 ; 307 : 1432-1435 21 protéolyse, conduisent à la formation d'agrégats plaquettaires dans la circulation16. En situation physiologique, l'ADAMTS 13 régule l'activité du FVW en réduisant la taille de ses multimères de haut poids moléculaire et les rendant ainsi moins adhésifs au sous-endothélium et aux plaquettes. L'ADAMTS 13 est une métalloprotéase découverte en 1996, son rôle est mis en évidence deux ans plus tard17, 18 . L'activité ADAMTS 13 était faible dans le plasma des patients atteints de PTT, tandis que celle-ci se normalisait à la guérison. La présence d'un anticorps de type Ig G est responsable de cette diminution d'activité19, 20 . Les étapes sont présentées dans la Figure 2. 1924 : Description du 1er cas de PTT 1982 : Mise en évidence du rôle des multimères de haut poids moléculaires du FVW 1996 : Découverte de la protéase ADAMTS 13 1998 : Mise en évidence du rôle de la protéase ADAMTS 13 Figure 2 : Historique de la physiopathologie du PTT Le PTT est donc caractérisé par un déficit fonctionnel sévère acquis en ADAMTS 13 dû à la présence d'auto-anticorps anti ADAMTS 13 de type Ig G. Lors d'une agression, les cellules endothéliales libèrent des substances proagrégantes dans le plasma, notamment les mégamultimères du FVW qui augmentent donc l'agrégabilité des plaquettes. En cas de déficit en ADAMTS 13, les mégamultimères du FVW s'accumulent 16 Boehlen F, Robert-Ebadi H, de Moerloose P. La maladie de von Willebrand : une diathèse hémorragique fréquente et méconnue. Révue Médicale Suisse 2007 ; 3 : 346-350 17 Tsai H. Physiologic cleavage of von Willebrand factor by a plasma protease is dependent on its conformation and requires calcium ion. Blood 1996 ; 87 : 4235-4244 18 Furlan M, Robles R, Lamie B. Partial purification and characterization of a protease from human plasma cleaving von Willebrand factor to fragments producted by in vivo proteolysis. Blood 1996 ; 87 : 4223-4234 19 Furlan M, Robles R, Galbuserra M, Remuzzi G, Kyrle P, Brenner B, et al. Von Willebrand factor cleaving protease in thrombotic thrombocytopenic purpura and the hemolytic uremic syndrome. The New England journal of medecine 1998 ; 339 : 1578-1584 20 Tsai H, Lian E. Antibiodies to von Willebrand factor cleaving protease in acute thrombotic thrombocytopenic purpura. The New England journal of medecine 1998 ; 339 : 1585-1594 22 et entrainent la formation des microthrombi dans les capillaires de différents organes, principalement le cerveau, le coeur, le rein, responsables d'une ischémie tissulaire et d'une fragmentation des érythrocytes aboutissant aux schizocytes. Le mécanisme physiopathologique est décrit dans la Figure 3. 23 Figure 3 : Mécanismes physiopathologiques aboutissant à la formation des microthrombi dans le PTT21 21 Coppo P, Veyradier A. Microangiopathies thrombotiques : physiopathologie, diagnostic et traitement. Réanimation 2005 ; 14 : 594-603 24 3. Manifestation de la maladie En 1966, une pentade diagnostic est décrite, associant : une thrombopénie, une anémie hémolytique mécanique, des signes neurologiques, une atteinte rénale et de la fièvre22. Cette pentade sera remise en cause plus tard car ces signes ne sont retrouvés que dans 40% des cas23. Aujourd'hui, le diagnostic repose principalement sur une triade : thrombopénie périphérique, anémie hémolytique et défaillance d'organes d'atteinte variable. Les manifestations cliniques sont assez variables en fonction de la sévérité mais le début de la maladie est généralement brutal. Les signes cliniques doivent être connus afin de permettre de poser rapidement le diagnostic et commencer le traitement en urgence. Le diagnostic est avant tout clinique. Il n'y pas de symptômes spécifiques. Une première phase associant une asthénie, des douleurs abdominales, des myalgies, de la fièvre faisant évoquer un épisode infectieux précèdent généralement la survenue du PTT. Les signes cliniques sont en lien avec l'anémie (asthénie, dyspnée, pâleur, ), la thrombopénie (purpura pétéchial, ecchymoses, hématomes spontanés, ). Les organes le plus souvent touchés sont le cerveau, l'atteinte neurologique peut aller de la confusion jusqu'au coma (céphalées, convulsions, hémiparésie, aphasie, dysarthrie, ischémie cérébrale). Un autre organe pouvant être affecté est le coeur, l'atteinte cardiaque peut être seulement biologique marquée par une élévation de la troponine ou se manifeste par des douleurs thoraciques ou des troubles de la repolarisation sur l'électrocardiogramme (ECG) ou un infarctus du myocarde. Mais aussi, le rein, l'atteinte rénale se manifeste généralement par une hématurie, une protéinurie, une insuffisance rénale 22 Amorosi E, Witmann J. Report of 16 cases and literature review. Medecine 1966 ; 45 : 139-149 Schleinitz N, Poullin P, Camoin L, Veit V, Bernit E, Mazodier K, Lefèvre P, Dignat-Georges F, Kaplanski G, Durand JM, Harlé JR. Le purpura thrombotique thrombocytopénique acquis de l'adulte : actualités. La Revue de Médecine Interne 2008 ; 29 : 794-800 23 25 aigue modérée, la créatinine est rarement supérieure à 200 μmol/L,24 ce qui différencie le PTT du Syndrome Hémolytique et Urémique (SHU), principal diagnostic différentiel. D'autres organes peuvent également être touchés, le foie, on retrouve parfois un bilan hépatique perturbé chez certains patients, le pancréas, Le PTT est donc l'association d'une thrombopénie périphérique, d'une anémie hémolytique, d'un déficit en ADAMTS 13 et d'une défaillance d'organes. Ces signes sont décrits dans la Figure 4. Thrombopénie périphérique Déficit sévère en ADAMTS 13 PTT Anémie hémolytique Défaillance d'organes Figure 4 : Signes cliniques et biologiques principaux du PTT La thrombopénie est périphérique et sévère avec un taux de plaquettes très souvent inférieur à 30 G/L. Celle-ci, est due à une consommation plaquettaire excessive à cause de l'agrégation et de la formation des microthrombi. L'anémie est hémolytique, mécanique et régénérative avec une augmentation de la Lactate Déshydrogénase (LDH), de la bilirubine 24 Veyradier A, Meyer D. Thrombotic thrombocytopenic purpura and its diagnosis. Journal of thrombosis and haemostasis 2005 ; 3 : 2420-2427 26 libre, un effondrement de l'haptoglobine et une augmentation des réticulocytes avec la présence de schizocytes. La défaillance d'organes est de sévérité variable. Le déficit sévère en ADAMTS 13 est caractérisé par une activité ADAMTS 13 inférieure à 10 % avec la présence d'auto anticorps anti ADAMTS 13. Les signes cliniques sont généralement résolutifs après traitement mais des séquelles, notamment cardiovasculaires ou neurologiques, peuvent subsister en fonction du délai de diagnostic qui peut s'avérer long et difficile dans certains cas. Seule l'activité ADAMTS 13 permet de confirmer le diagnostic, mais le dosage n'est pas fait en routine. Un score prédictif d'un déficit sévère en ADAMTS 13 a donc été élaboré afin d'orienter au mieux le diagnostic et commencer la prise en charge le plus rapidement possible sans attendre le résultat. Celui-ci est basé sur les valeurs de la créatinine, du taux de plaquettes et/ou la présence d'anticorps antinucléaires et est présenté dans le Tableau 1 et 2. Caractéristiques des patients Odd ratio ajusté IC 95% Valeur p Créatininémie ≤ 200 μmol/L 23,4 8,8-62,5 <0,0001 Taux de plaquettes ≤ 30 x 109/L 9,1 3,4-24,2 <0,0001 Anticorps antinucléaires positifs 2,8 1,0-8,0 <0,05 Tableau 1 : Score prédictif d'un déficit sévère en ADAMTS 1325 25 Coppo P, Schwarzinger M, Buffet M, Wynckel A, Clabault K, Presne C, Poullin P, Malot S, Vanhille P, Azoulay E, Galicier L, Lemiale V, Mira JP, Ridel C, Rondeau E, Pourrat J, Girault S, Bordessoule D, Saheb S, Ramakers M, Hamidou M, Vernant JP, Guidet B, Wolf M, Veyradier A. Predictive features of severe acquired ADAMTS 13 deficiency in idiopathic thrombotic microangiopathies : the French TMA reference center experience. Plos One 2010 ; 5 : 1-9 27 Tous les critères positifs Au moins un critère positif Sensibilité 47% 98,8% Spécificité 98% 48,1% Valeur prédictive positive 98,7% 85% Valeur prédictive négative 38,6% 93,3% Tableau 2 : Score prédictif d'un déficit sévère en ADAMTS 13 4. Evolution du PTT Après traitement, le PTT peut évoluer de différentes façons : la rémission complète, l'exacerbation, la rechute ou alors être réfractaire au traitement. La rémission complète se traduit par une résolution complète des signes cliniques et biologiques. L'exacerbation correspond à la survenue d'une thrombopénie après une remontée du taux de plaquettes et nécessitant une reprise des EP. La rechute est, quant à elle, définie par un nouvel épisode survenant plus de 30 jours après le dernier EP. Enfin, le PTT peut être réfractaire au traitement, c'est-à-dire qu'il y a une absence de réponse au traitement standard. Ces différentes évolutions sont résumées dans le Tableau 3. 28 Résolution complète et durable des signes cliniques neurologiques (des séquelles peuvent toutefois subsister) et biologiques Rémission complète (taux de plaquettes ≥ 150 G/L, normalisation du taux de LDH et taux d'hémoglobine en hausse)26 Thrombopénie survenant après une réponse Exacerbation plaquettaire et nécessitant la reprise des EP dans les 30 jours suivant l'arrêt des EP Nouvel épisode plus de 30 jours après le Rechute dernier EP Absence de réponse au traitement standard Réfractaire (taux de plaquettes reste effondré) malgré intensification des EP Tableau 3 : Evolution du PTT 26 George J.N, Clinical practice. Thrombotic thrombocytopenic purpura. The New England Journal of Medecine, 2006 ; 354 : 1927-1935. 29 5. Diagnostics différentiels Les 2 principales formes de MAT sont le PTT et le SHU. Celles-ci se différencient en fonction du taux d'ADAMTS 13. La Figure 5 reprend la classification de ces microangiopathies. MAT ADAMTS 13 indétectable ADAMTS 13 détactable PTT SHU Congénital Acquis Idiopathique Non idiopathique Typique Atypique Postdiarrhéique (shigatoxines) Anomalie de la régulation la voie alterne du complément Grossesse Cancer Infection Figure 5 : Les différentes formes de MAT Le PTT se présente sous deux formes, soit héréditaire, soit acquise. Le PTT héréditaire est beaucoup plus rare et s'observe chez le nouveau-né ou l'enfant ou peut être révélé lors 30 d'une grossesse. Il résulte d'une mutation bi-allélique du gène ADAMTS 13 et se transmet selon un mode autosomique récessif (mutation homozygote ou double hétérozygote)27. Le PTT acquis est lié à la présence d'auto-anticorps. Dans 50% des cas, le PTT est idiopathique, dans les autres cas, il peut être secondaire à la prise de médicaments (chloroquine, ), à une infection (VIH), à une grossesse ou à une maladie auto-immune23, 28. Le SHU se manifeste de la même manière que le PTT, c'est-à-dire, une anémie hémolytique et une thrombopénie mais ce qui différencie les deux, c'est l'atteinte d'organes. Dans le SHU, l'atteinte rénale est prépondérante et l'activité ADAMTS 13 est normale19. On distingue le SHU épidémique ou post-diarrhéique et le SHU atypique. Il est soit d'origine post-infectieuse soit lié à des anomalies de la voie alterne du complément29. Bien que le SHU soit le principal diagnostic différentiel, les cytopénies auto-immunes peuvent également être considérées comme des diagnostics différentiels du PTT. Les cytopénies auto-immunes sont des maladies auto-immunes liées à la destruction des cellules sanguines : plaquettes, globules rouges et globules blancs par le système immunitaire. Il en existe différents types30. Ces cytopénies sont considérées comme des diagnostics différentiels de part leurs anomalies du bilan biologique communes au PTT. Le Purpura Thrombopénique Idiopathique (PTI) est la plus fréquente des cytopénies auto-immunes. Il est caractérisé par une destruction périphérique des plaquettes. Le PTI peut 19 Furlan M, Robles R, Galbuserra M, Remuzzi G, Kyrle P, Brenner B, et al. Von Willebrand factor cleaving protease in thrombotic thrombocytopenic purpura and the hemolytic uremic syndrome. The New England Journal of Medecine 1998 ; 339 : 1578-1584 23 Schleinitz N, Poullin P, Camoin L, Veit V, Bernit E, Mazodier K, Lefèvre P, Dignat-Georges F, Kaplanski G, Durand JM, Harlé JR. Le purpura thrombotique thrombocytopénique acquis de l'adulte : actualités. La Revue de Médecine Interne 2008 ; 29 : 794-800 27 Joly B, Coppo P, Veyradier A. Le purpura thrombotique thrombocytopénique à révélation pédiatrique. Révue d'Oncologie Hématologique Pédiatrique, 2017 ; 5 : 111-119 28 Veyradier A. Actualités sur la physiopathologie du purpura thrombotique thrombocytopénique. Revue Francophone des Laboratoires, 2013 ; 449 : 19-21 29 Hertig A, Ridel C, Rondeau E. Syndromes Hémolytiques et Urémiques de l'adulte. Néphrologie et Thérapeutique 2010 ; 6 : 258-271 30 Suarez F, Ghez D, Delarue R, Hermine O. Cytopénies auto-immunes périphériques. Réanimation, 2005 ; 14 : 587-593 31 survenir à tout âge, aussi bien chez l'enfant que chez l'adulte. La thrombopénie est profonde et est découverte fortuitement devant des signes cutanéo-muqueux (épistaxis, gingivorraghies), les autres lignées sont normales. Le diagnostic se fait par élimination. L'anémie hémolytique auto-immune (AHAI) est caractérisé par la destruction des globules rouges par l'intermédiaire d'auto-anticorps fixés sur des antigènes érythrocytaires. Le diagnostic repose sur la présence d'une anémie hémolytique avec un test de Coombs positif. Le Syndrome d'Evans est rare et est caractérisé par l'association du PTI et de l'AHAI. 32 II. Les traitements L'instauration du traitement se fait en urgence compte tenu du pronostic et de la mortalité. L'objectif est d'obtenir rapidement une normalisation plaquettaire. Le traitement se base sur trois piliers : - apporter l'ADAMTS 13 déficitaire par les EP, - cibler les anticorps grâce aux immunosuppresseurs (corticoïdes et rituximab), - empêcher la formation de nouveaux micro-agrégats grâce au caplacizumab, depuis sa commercialisation. 1. Les échanges plasmatiques La plasmaphérèse est une technique extracorporelle qui consiste à soustraire du plasma du patient, des macromolécules pathogènes et/ ou apporter un constituant manquant lorsque nécessaire comme dans le PTT et remplacer le plasma par un plasma compatible. Le plasma est séparé des autres composants sanguins par centrifugation ou filtration31. Le plasma permet de compenser tous les facteurs perdus lors de l'EP : l'albumine, les facteurs de coagulation, les immunoglobulines. Dans le PTT, les EP permettent de soustraire les multimères du FVW de très haut poids moléculaire et les auto-anticorps anti-ADAMTS13 et de permettre un apport exogène d'ADAMTS 13. 31 Pruijm M, Cherpillod A, Vogt B, Burnier M. La plasmaphérèse : technique, complication et indication. Revue Médicale Suisse 2008 ; 4 : 581-588 33 En 1976, Bukowski et al. a montré l'efficacité des EP avec un taux de 50% de survivants chez 16 patients32. En 1991, une étude canadienne prospective randomisée à comparer les EP versus la perfusion de plasma chez 102 patients (51 patients dans chaque groupe). La réponse était définie par un taux de plaquettes supérieur à 150 G/L et pas de nouvel évènement neurologique, à la fin du premier cycle de traitement une réponse est obtenue chez 47% des patients traités par EP contre 25% (p=0,002) et six mois après traitement, une réponse a été obtenue pour 78% des patients traités par EP contre 49% (p=0,002)33. Le traitement de référence du PTT repose donc désormais sur les EP en première intention en urgence à raison de 60 ml/kg/jour de plasma frais congelé (le volume plasmatique épuré correspond à 1,5 fois la masse plasmatique) jusqu'à la normalisation du taux plaquettes stable sur 48h (supérieur à 150 G/L). Dans certains cas très sévères, il peut y avoir une intensification des EP avec 2 EP par jour. Dans le cas où les EP ne peuvent pas être réalisés en urgence, des perfusions de grands volumes de plasma pourront être effectuées34. Mais, celle-ci est responsable de surcharges hydrosodées, de protéinuries de surcharge ou d'hyperprotidémies pouvant être responsables d'un syndrome d'hyperviscosité21. Il est possible d'utiliser différents plasmas dans le cadre des EP, le Plasma Frais Congelé déleucocyté Sécurisé par quarantaine (PFC-Se), le Plasma Frais Congelé traité par Solvant Détergent (PFC-SD), le Plasma Frais Congelé Inactivé par Amotosalen (PFC-IA). 21 Coppo P, Veyradier A. Microangiopathies thrombotiques : physiopathologie, diagnostic et traitement. Réanimation 2005 ; 14 : 594-603 32 Bukowski RM, Hewlett JS, Harris JW. Exchange transfusions in the treatment of thrombotic thrombocytopenic purpura. Semin Hematol 1976 ; 13 : 219-232 33 Rock GA, Shumak KH, Buskard NA, Blanchette V, Kelton J, Nair R, et al. Comparison of plasma exhange with plasma infusion in the treatment of thrombotic thrombocytopenic purpura. The new England journal of medecine 1991 ; 339 : 1578-1584 34 Coppo P, Bussel A, Adrie C, Alberti C, Le Gall JR, Schlemmer B. Early high dose plasma infusion versus plasmapheresis as an emergency treatment of thrombotic microangiopathy : a single center experience. Transfusion and apheresis science 2001 ; 24 : 163-164 34 Dans notre centre, Octaplas LG® est utilisé depuis 2017, il s'agit de PFC-SD, c'est le premier plasma industriel ayant obtenu l'AMM en France en 2016. Il a le statut de Médicament Dérivé du Sang (MDS), son circuit a été placé sous la responsabilité du pharmacien hospitalier. Il est viro-atténué et est issu d'un poolage de plusieurs dons, les poches ont un volume homogène de 200 ml. Octaplas LG® est donc utilisé principalement dans cette indication. Avant l'arrivée du PFC-SD à l' l'Assistance Publique des Hôpitaux de Marseille (AP-HM), les EP se faisaient à partir de PFC-Se délivré par l'Etablissement Français du Sang (EFS). Octaplas LG® a été référencé à l'AP-HM car le plasma est 100% VHE free, c'est-à-dire que le dépistage du virus de l'Hépatite E est systématiquement fait ce qui n'est pas le cas des autres plasmas de l'EFS. Ce plasma est globalement bien toléré par les patients, il entraine moins d'allergies et n'engendre pas de Syndrome de Détresse Respiratoire Post-Transfusionnelle (TRALI : Transfused Related Acute Lung Injury) du fait qu'il est issu d'un poolage de plusieurs dons permettant une dilution et une neutralisation par les antigènes HLA solubles des anticorps anti-HLA présents. Des études ont été publiées pour comparer les différents types de plasma utilisés pour les EP35, 36. Une étude française a montré qu'il n'y avait pas de différence d'efficacité entre le PFC-Se et le PFC-SD, le délai de normalisation du taux de plaquettes n'était pas significativement différent avec le PFC-SD et le PFC-Se (médiane 15 jours versus 19 respectivement, p=0,126)37. Une autre étude plus récente, de 2019, rapporte la première 35 Guignier C, Benamara A, Oriol P, Coppo P, Mariat C, Garraud O. Amotosalen-inactivated plasma is as equally well tolerated as quarantine plasma in patients undergoing large volume therapeutic plasma exhange. Transfusion clinique et biologique 2018 ; 25 : 73-77 36 Mintz PD, Neff A, MacKenzie, Goodnough LT, Hillyer C, Kessler C. A randomized controlled Phase III trial of therapeutic plasma exchange with fresh-frozen plasma (FFP) prepared with amotosalen and ultraviolet A light compared to untreated FFP in thrombotic thrombocytopenic purpura. Transfusion 2006 ; 46 : 1693-1704 37 Toussaint-Hacquard M, Coppo P, Soudant M, Chevreux L, Mathieu-Nafissi S, Lecompte T, et al. Type of plasma preparation used for plasma exchange and clinical outcome of adult patients with acquired idiopathic thrombotic thrombocytopenic purpura: a French retrospective multicenter cohort study: therapeutic plasma and TTP outcome. Transfusion 2015 ; 55 : 2445–2451 35 expérience d'utilisation d'Octaplas LG© en France dans les MAT, le PFC-SD est globalement bien toléré et a permis une rémission clinique chez tous les patients38. Il est possible de classer les plasmas en fonction de leur procédure de sécurisation et leur utilisation dans le PTT39, cette classification est précisée dans le Tableau 4. 38 Poullin P, Delmotte N, Sanderson F, Roche M, Gensollen S. Efficacy and safety of plasma exhange using a double viral inactivated and prion reduced solvent/ detergent fresh frozen plasma for the treatment of thrombotic microangiopathy : The first French experience in a single center. Transfusion and apheresis science, 2019 ; 59 39 Picod A, Provôt F, Coppo P. Therapeutic plasma exchange in thrombotic thrombocytopenic purpura. Presse Médicale 2019 ; 48 : 319-327 36 Plasma Description Utilisation dans le PTT Plasma stocké en quarantaine (ne subit aucun traitement) dans l'attente d'un nouveau test du Plasma de remplacement donneur afin de garantir historique PFC-Se l'absence d'agents pathogènes infectieux après une période d'attente. Inactivation par solvant PFC-SD détergent suivit d'une Mieux toléré que le PFC-Se ultrafiltration Traitement par une solution PFC-IA d'amotosalen puis exposition Pas de différence aux ultraviolets A. significative d'efficacité Elimination de l'amotosalen avec le PFC-Se par adsorption Moins efficace que le PFCTraité par le bleu de Plasma traité par bleu de Se. Arrêt de la production méthylène et exposition à la méthylène en France car réactions lumière visible allergiques plus fréquentes Tableau 4 : Les différents plasmas utilisés dans le PTT La plasmaphérèse n'est pas dénuée d'effets indésirables et ces effets peuvent être plus ou moins sévères. Les complications peuvent être liées au cathéter (thromboses veineuses, 37 sepsis, saignements, hématomes au point de ponction), au citrate (hypocalcémie) ou au plasma (allergies, TRALI)40. 2. Les corticoïdes Les corticoïdes agissent par le biais d'un récepteur intracytoplasmique spécifique appartenant à la superfamille des récepteurs aux stéroïdes. Ils ont une action directe sur la transcription par l'interaction au niveau des sites accepteurs Glucocorticoïdes-ResponsiveElements (GRE). Ils entrainent une activation de la transcription et une augmentation de la production des anti-inflammatoires (lipocortine 1, interleukine 10, protéine IkB) et une action indirecte par l'interaction avec les facteurs de transcription qui est le principal mécanisme responsable des effets anti-inflammatoires et immunosuppresseurs. Ils agissent sur les lymphocytes T, la production d'anticorps et sur la transcription des gènes de nombreuses cytokines. Ils sont très utilisés dans les pathologies auto-immunes. Dans le PTT, ils sont utilisés dès le début du traitement, et généralement, à la posologie de 1 mg/kg/jour en association avec les EP. Il n'y a pas d'études qui ont clairement établies leur efficacité mais ils restent néanmoins largement prescrits en première intention41, 21, 42 . La prescription des corticoïdes s'appuie sur le fait que le PTT est assimilé à une maladie 21 Coppo P, Veyradier A. Microangiopathies thrombotiques : physiopathologie, diagnostic et traitement. Réanimation 2005 ; 14 : 594-603 40 Ridel C, Kissling S, Mesnard L, Hertig A, Rondeau E. Echanges Plasmatiques en néphrologie : techniques et indications. Néphrologie et Thérapeutique 2010 ; 6 : 258-271 41 Bell WR, Braine HG, Ness PM, Kickler TS. Improved survival in thrombotic thrombocytopenic purpurahemolytic uremic syndrome. Clinical experience in 108 patients. The New England Journal of Medecine 1991 ; 325 : 398-403 42 Coppo P, Bussek A, Charrier S, Adrie C, Alberti C, Le Gall JR, et al. Early high dose plasma infusion vs plasmapheresis as an emergency treatment of thrombotic thrombocytopenic purpura/ hemolytic uremic syndrome. Medecine 2003 ; 82 : 27-38 38 auto-immune43. Il n'y a pas de consensus quant à la durée de prescription des corticoïdes, la décroissance commence généralement à se faire dès que le taux d'ADAMTS 13 est supérieur à 20% et le traitement dure moins de 3 mois afin de limiter les effets indésirables liés à la corticothérapie comme l'insomnie, le diabète cortico-induit, l'ostéoporose cortisonique. 3. Le rituximab Le rituximab est un anticorps monoclonal chimérique ciblant le CD20. Le CD20 est un marqueur très spécifique des lymphocytes B. Le mode d'action du rituximab est multiple : il induit l'apoptose par la voie mitochondriale, il agit par Cytotoxicité Dépendante du Complément (CDC) et par Cytotoxicité Cellulaire Anticorps Dépendant (ADCC). Il induit une déplétion durable des lymphocytes B. Son délai d'action est de 12 à 14 jours. La déplétion des lymphocytes B persiste pendant 6 à 12 mois. Le rituximab, largement utilisé dans les pathologies auto-immunes44, a aussi fait ses preuves dans le traitement du PTT acquis, notamment en cas de réponse sub-optimale au traitement standard. Dans le PTT, le rituximab n'a pas l'AMM mais dispose d'une Recommandation Temporaire d'Utilisation (RTU) « PTT auto-immum : phase aigüe réfractaire aux EP, en l'absence d'augmentation des plaquettes au 5ème jour malgré EP quotidiens et/ou par la rechute du taux de plaquettes à l'espacement des EP » reposant sur 2 études 45, 46 . L'étude de Froissart et al. a comparé 22 patients en réponse sub-optimale au 43 Benhamou Y, Grall M, Grange S. Les Microangiopathies Thrombotiques : approches diagnostiques et thérapeutiques. La Revue de Médecine Interne, 2016 ; 37 : A39-A43 44 Bosly A. Anticorps monoclonal anti-CD20 (rituximab) dans les maladies hématologiques et les affections auto-immunes. Réanimation 2006 ; 16 : 270-277 45 Froissart A, Buffet M, Veyradier A, Poullin P, Prôvot F, Malot S, et al. Efficacy and safety of first-line rituximab in severe, acquired thrombotic thrombocytopenic purpura with a suboptimal response to plasma exchange. Experience of the French Thrombotic Microangiopathies Reference Center. Critical Care Medecine 2012 ; 40 : 104-111 39 traitement standard par EP à une cohorte historique n'ayant pas reçu de rituximab. Le rituximab a été administré à la dose de 375mg/m2 à J1, J4, J8 et J15 à partir de la décision médicale d'administrer le rituximab. Une diminution significative de la durée nécessaire pour obtenir une rémission durable a été observée. La normalisation plaquettaire après injection de rituximab était de 12 jours. Les premiers cas d'utilisation du rituximab ont été décrits à partir de 2002. Le rituximab a d'abord été utilisé pour les cas sévères ou en cas de réponse sub-optimale au traitement standard par EP. Dans l'étude de Gutterman et al. 3 patients réfractaires aux EP ont reçu du rituximab à la dose de 375mg/m2/semaine, la durée de réponse pour 2 des 3 patients était de 17 à 23 mois47. Trois études prospectives, ont permis d'apporter un niveau de preuve plus important48, 49, 50. En effet, 100% de réponses ont été rapportées dans l'étude de Fakhouri et al. et, d'Heidel et al. et, un taux de réponses de 96% pour l'étude de Scully et al. Dans quatre études rétrospectives, les patients inclus étaient tous des patients en réponse suboptimale, le schéma d'administration était variable mais pour la plupart la dose administrée était de 375mg/m2/semaine avec un nombre variable de cures, la rémission complète a été obtenue dans la majorité des cas51, 52, 53, 54. 46 Scully M, McDonald V, Cavenagh J, Hunt BJ, Longair I, Cohen H et al. A phase 2 study of the safety and efficacy of rituximab with plasma exchange in acute thrombotic thrombocytopenic purpura. Blood 2001 ; 118 : 1746-1753 47 Gutterman LA, Kloster B, Tsai HM. Rituximab therapy for refractory thrombotic thrombocytopenic purpura. Blood Cells Mol Dis 2002 ; 28 : 385-391 48 Fakhouri F, Vernant JP, Veyradier A, Wolf M, Kaplanski G, Binaut R. Efficiency of curative and prophylactic treatment with rituximab in ADAMTS 13 déficient thromboctic thrombocytopenic purpura : a study of 11 cases. Blood 2005 ; 106 : 1932-1937 49 Heidel F, Lipka DB, Von Auer C, Huber C, Scharrer I, Hess G. Addition of rituximab to standard therapy improves response rate and progression-free survival in relapsed or refractory thrombotic thrombocytopenic purpura and auto-immune haemolityc anaemia. Thromb Haemost 2007 ; 97 : 228-233 50 Scully M, Cohen H, Cavanagh J, Benjamin S, Starke R, Killick S. Remission in acute refractory and relapsing thrombotic thrombocytopenic purpura following rituximab is associated with a reduction in IgG antibodies to ADAMTS 13. British Journal of Haematology 2007 ; 136 : 451-461 51 Jasti S, Coyle T, Gentile T, Rosales L, Poiesz B. Rituximab as an adjunct to plasma exchange in TTP : a report of 12 cases and review of littérature. Journal clinical of apheresis 2008 ; 23 : 151-156 52 Ling HT, Field JJ, Blinder MA. Sustained response with rituximab in patients with thrombotic thrombocytopenic purpura : a report of 13 cases and review of the literature. American Journal of hematology 2009 ; 84 : 418-421 40 Les différentes études sont décrites dans le Tableau 5. 53 Elliot MA, Heit JA, Pruthi RK, Gastineau DA, Winters JL, Hook CC. Rituximab for refractory and or relapsing thrombotic thrombocytopenic purpura related to immune-mediated severe ADAMTS 13 deficiency : a report of four cases and systematic review of literature. European journal of haemotology 2009 ; 83 : 365-372 54 De la Rubia J, Moscardo F, Gomez MJ, Guardia R, Rodriguez P, Sebrango A. Efficacy and safety of rituximab in adult patients with idiopathic relapsing or refractory thrombotic thrombocytopenic purpura : results of a Spanish multicenter study. Transfusion and apheresis science 2010 ; 43 : 299-303 41 Auteurs Type d'étude Nombre de patients Critères d'inclusion PTT Age Médian (années) Nombre médian de cures de rituximab Froissart et al. Prospective ouverte 22 Réfractaire 36,8 4 82 12±6,7 Aucune Scully et al. Prospective 25 Réfractaire + en rechute 43 4 100 11 Aucune De la Rubia et al. Rétrospective 24 Réfractaire + en rechute 24-72 4 87,5 14 Aucune 92 83 NA 18 Aucune Aucune 100 17,5 Infectieuses 100 26-35 Aucune 100 22 Aucune Ling et al. Jasti et al. Rétrospective 13 Réfractaire 42 NA Rétrospective 12 Réfractaire 43 1-13 Rétrospective Elliot et al. + revue de la 4 Réfractaire + en rechute 31,5 NA littérature Fakhouri et Ouverte, 11 Réfractaire + en rechute 38 4 al. multicentrique Ouverte Heidel et al. 8 Réfractaire + en rechute 46 4 comparative Tableau 5 : Principales études rapportant l'expérience du rituximab au cours du PTT acquis55 56 Rémission complète (%) Délai rémission complète (jours) Complications 55 Sauvètre G, Grange S, Froissart A, Veyradier A, Coppo P, Benhamou Y. La révolution des anticorps monoclonaux dans la prise en charge des microangiopathies thrombotiques. La revue de Medecine Interne 2015 ; 36 : 328-338 56 Froissart A, Veyradier A, Hié M, Benhamou Y, Coppo P. Rituximab in autoimmune thrombotic thrombocytopenic purpura : A success story. European Journal of Internal Medecine 2015 ; 26 : 659-665 42 Puis, le bénéfice de l'administration précoce de rituximab à la phase aiguë a été démontré notamment par Scully et al. dans une étude prospective évaluant le rituximab en association avec les EP dans les 3 jours suivant le diagnostic57. Quarante patients ont été inclus et comparés à une cohorte de patients n'ayant pas reçu de rituximab. La durée médiane de normalisation des plaquettes était de 12 jours, associée à une diminution significative de la durée d'hospitalisation pour les cas moins sévères. Dans une autre étude, l'intérêt de l'administration de rituximab dans les 3 jours post-admission a été démontré, la première cure de rituximab a été administrée dans les 3 jours chez 54 patients et plus de 3 jours après chez 32 patients. L'administration précoce était associée à une rémission plus rapide (12 jours versus 20 jours, p < 0,001)58. De nombreuses études (cas rapportés ou études rétrospectives ou prospectives) ont confirmé l'efficacité du rituximab dans le PTT réfractaire mais aussi à la phase aigüe. Cependant les modalités d'administrations, le rythme d'administration sont assez variables d'une étude à l'autre. Un protocole national du Centre National de Référence des MAT (CNR-MAT) préconise une administration de 375 mg/m2 à J1, J4, J8 et J15 de la décision d'initier ce traitement, généralement dans les 3 premiers jours. Au total, quatre perfusions de rituximab doivent être faites. Le rituximab a un excellent profil de tolérance et les effets secondaires sont rares, les principaux effets secondaires sont des réactions précoces liées à la perfusion (fièvre, frissons, tremblements, hypotension, nausées, réactions cutanées, rash ). Une 57 Scully M, McDonald V, Cavenagh J, Hunt BJ, Longair I, Cohen H et al. A phase 2 study of the safety and efficacy of rituximab with plasma exchange in acute thrombotic thrombocytopenic purpura. Blood 2001 ; 118 : 1746-1753 58 Westwood JP, Webster H, Mcguckin S, Mcdonald V, Machin SJ, Scully M. Rituximab for thrombotic thrombocytopenic purpura : benefit of early administration during acute episodes and use of prophylaxis to prevent relapse. Journal of thrombosis and haemostasis 2013 ; 11 : 481-490 43 prémédication 30 minutes avant l'injection est donc faite par du paracétamol, un antihistaminique et un corticoïde (excepté si déjà présent pour le traitement du PTT)59. Le rituximab est également utilisé en entretien seul pour éviter un nouvel épisode de PTT lorsque le taux d'ADAMTS 13 diminue avec présence d'anticorps anti-ADAMTS13 sans signes cliniques et biologiques de PTT. On estime à 30% le nombre de patients rechuteurs sans traitement préventif 60 . Les rechutes se font généralement dans la première année du premier épisode d'où la nécessité de faire un suivi régulier avec un dosage de l'activité ADAMTS 13, facteur prédictif de rechute. Malgré la combinaison EP-corticoïdes-rituximab, les besoins médicaux restent importants : il existe encore une mortalité de 15 à 20% en raison du délai d'action du rituximab (12 à 14 jours), des exacerbations à l'arrêt des EP dans presque la moitié des cas, et 10 % des patients sont réfractaires au traitement. 59 Doan T, Massarotti E. Rituximab. Drugs of today 2005 ; 41 : 785-797 Hie M, Gay J, Galicier L, Provot F, Malot S, Poullin P. Preemptive rituximab infusions efficiently prevent relapses in acquired thrombotic thrombocytopenic purpura. Experience of the French thrombotic microangiopathies reference center. Blood 2014 ; 124 : 204-210 60 44 4. Le caplacizumab C'est le premier médicament indiqué dans le traitement du PTT acquis. Cette molécule a d'abord été utilisée en ATU de cohorte puis en post-ATU jusqu'en juin 2021. La mise sur le marché de ce produit est particulièrement rapide et peut être mise en lien avec le besoin et l'intérêt clinique pour les patients. Le caplacizumab est un nanocorps bivalent c'est-à-dire une protéine dérivée des immunoglobulines de Camelidae possédant une forte homologie de séquence avec les domaines de régions variables des chaînes lourdes d'immunoglobulines humaines. Il est dirigé contre le domaine A1 du FVW. Il inhibe l'interaction entre les multimères du FVW et les plaquettes et empêche ainsi la formation de microthrombi et réduit les atteintes d'organes. Il n'a pas d'action sur les micro-agrégats déjà formés61. Le mécanisme d'action du caplacizumab est repris dans la Figure 6. Figure 6 : Mécanisme d'action du caplacizumab62 61 Poullin P, Bornet C, Veyradier A, Coppo P. Caplacizumab to treat immune-mediated thrombotic thrombocytopenic purpura. Drugs of today 2019 ; 55 : 367-376 62 Elverdi T, Eskazan A. Caplacizumab as an emerging treatment option for acquired thrombotic thrombocytopenic purpura. Drug Design, Development and Therapy, 2019 ; 13 : 1251-1258 45 Le protocole de cette molécule consiste en une première injection intraveineuse de 10 mg avant l'EP tandis que les doses suivantes se font en sous cutanée à la fin des EP pendant toute la durée des EP et jusqu'à 30 jours après leur arrêt. Le caplacizumab peut toutefois être prolongé si l'activité ADAMTS 13 reste inférieure à 10%. Du fait de son mode d'action, des effets indésirables mineurs à type d'hémorragies cutanéo-muqueuses sont fréquemment observés, essentiellement des gingivorragies, des épistaxis et des réactions au point d'injection. Deux études cliniques ont été publiées sur le caplacizumab. L'étude TITAN est l'étude de phase II comprenant 75 patients. C'est une étude multicentrique en double aveugle randomisée contrôlée versus placebo. Dans le groupe placebo, les patients étaient traités par le traitement standard (EP, corticoïdes et rituximab). Le critère principal était le temps de réponse plaquettaire. Le temps médian de la réponse plaquettaire était de 2,97 jours dans le groupe caplacizumab versus 4,79 jours dans le groupe placebo (p=0,005), la réduction était statistiquement significative. Le nombre moyen de jours d'EP a également réduit, 6,7 jours en moyenne versus 8,4 jours respectivement. Le caplacizumab a donc entraîné une résolution de l'épisode, une normalisation du taux de plaquettes et une résolution des marqueurs des lésions d'organes plus rapide5. Une analyse post hoc de l'essai de phase II a révélé une diminution significative des événements thromboemboliques majeurs, des exacerbations et de la mortalité liée au PTT avec le caplacizumab par rapport au placebo63. L'étude HERCULES est l'étude de phase III. C'est une étude multicentrique en double aveugle, contrôlée versus placebo comprenant 145 patients. Le groupe placebo était traité par le traitement standard. Le critère de jugement principal était le temps de 5 Peyvandi F, Scully M, Kremer Hovinga JA, Cataland S, Knöbl P, Wu H, Artoni A, Westwood JP, Taleghani MM, Jilma B, Callewaert F, Ulrichts H, Duby C, Tersago D et al. Caplacizumab for acquired thrombotic thrombocytopenic purpura. The New England Journal of Medecine 2016 ; 374 : 511-522 63 Peyvandi F, Scully M, Kremer Hovinga JA. Caplacizumab reduces the frequency of major thromboembolic events, exacerbations and death in patients with acquired thrombotic thombocytopenic purpura. Journal of thrombosis and haemostasis 2017 ; 15 : 1448-1452 46 normalisation plaquettaire. La médiane était de 2,69 jours versus 2,88 jours dans le groupe placebo (p=0,001), la réduction était statistiquement significative. Le nombre moyen de jours d'EP a également été réduit 5,8 jours versus 9,4 jours respectivement. La durée moyenne de séjour en unité de réanimation/ soins intensifs était de 3,6 jours dans le groupe caplacizumab versus 10,1 jours dans le groupe placebo. La durée moyenne d'hospitalisation était de 12 jours versus 16,2 jours respectivement. Aucun patient n'a été réfractaire au traitement dans le groupe caplacizumab tandis que 3 patients l'ont été dans le groupe placebo. De plus, la proportion de patients récidivant au cours de la période d'étude était plus faible dans le groupe caplacizumab (13%) que dans le groupe placebo (38% ; p < 0,001)6. En conclusion de ces deux études, le caplacizumab permet d'obtenir une normalisation rapide des plaquettes en moyenne en 5 jours et une diminution des exacerbations de PTT ainsi qu'une épargne des ressources en santé : diminution du nombre d'EP et donc du volume de plasma et diminution du nombre de journées d'hospitalisation. Une étude très récente a comparé une cohorte de 90 patients traités par EP, immunosuppresseurs : corticoïdes + rituximab et caplacizumab avec une cohorte historique de 180 patients traités par le traitement standard (EP, corticoïdes et rituximab). Le résultat principal était le caractère réfractaire et le décès dans les 30 jours suivant le diagnostic. Les résultats secondaires étaient les exacerbations, le délai de normalisation du taux de plaquettes, le nombre d'EP et le volume de plasma nécessaire pour obtenir une rémission durable. Un caractère réfractaire a été retrouvé dans 2,2% des patients traités par caplacizumab contre 12,5% (p=0,01). Il y a eu un seul décès contre 12 dans la cohorte historique. Une différence significative a été trouvé concernant les exacerbations (3,4% versus 44%, p < 0,01), le délai de normalisation du taux de plaquettes a été plus rapide (5 jours vs 12 jours, p < 0,01). Moins de séances d'EP (médiane de 5 jours vs 10 jours, p < 0,01) et des volumes plus faibles de 47 plasma (24,2 L vs 44,4 L, p < 0,01) ont été nécessaires. La durée d'hospitalisation a été significativement réduite de 41% (13 jours vs 22 jours, p < 0,01)64. Cette étude confirme les études TITAN et HERCULES. Le caplacizumab permet donc une accélération de la normalisation du taux de plaquettes, une réduction du nombre d'EP et donc du volume de plasma nécessaire, une réduction de la durée d'hospitalisation en réanimation et/ ou en service conventionnel et une protection des exacerbations jusqu'à l'amélioration de l'activité65. Les récentes recommandations publiées par la Société Internationale de Thrombose et d'Hémostase recommandent l'utilisation du caplacizumab en première ligne de traitement avec le traitement standard par EP, corticoïdes et rituximab66. 5. Les autres thérapeutiques Lorsque le PTT reste réfractaire malgré les traitements précédemment cités, d'autres traitements peuvent être utilisés. La vincristine était souvent utilisée avant l'arrivée du rituximab67. Elle est administrée à la dose de 1 à 2 mg une fois par semaine. Son action est rapide mais transitoire, le taux de 6 Scully M, Cateland SR, Peyvandi F, Coppo P, Knöbl P, Kremer Hovinga JA, Metijian A, de la Rubia J, Pavenski K, Callewaert F, Biswas D, De Winter H, Zeldin RK. Caplacizumab treatment for acquired thrombotic thrombocytopenic purpura. The New England Journal of Medecine 2019 ; 380 : 335-346 64 Coppo P, Bubenheim M, Azoulay E, Galicier L, Malot S, Bigé N, Poullin P, Provôt F, Martis N, et al. A regimen with caplacizumab, immunosuppression, and plasma exchange prevents unfavorable outcomes in immune-mediated TTP. Blood, 2021 ; 137 : 733-742 65 Le Besnerai M, Veyradier A, Benhamou Y, Coppo P. Caplacizumab : a change in the paradigm of thrombotic thrombocytopenic purpura treatment. Expert opinion on biological therapy 2019 ; 1744-7682 66 Zheng XL, Vesely SK, Cataland SR, et al. ISTH guidelines for treatment of thrombotic thrombocytopenic purpura. Journal of Thrombosis and Haemostasis, 2020 ; 18 : 2496-2502 67 Ziman A, Mitri M, Klapper E, Pepkowitz SH, Goldfinger D. Combination vincristine and plasma exchange as initial therapy in patient with thrombotic thrombocytopenic purpura : one institution's experience and review of the literature. Transfusion, 2005 ; 45 ; 41-49 48 plaquettes remonte généralement dès le 5ème jour 68 . Mais la toxicité neurologique en limite son utilisation. Quelques cas rapportés ont suggéré l'efficacité des immunoglobulines polyvalentes. Mais il n'y a pas vraiment de preuves claires des effets bénéfiques pour leur utilisation en première ligne 69. La cyclosporine A apparait également comme traitement efficace dans le PTT réfractaire70. La N-acétyl-cystéine (NAC) connue comme antidote des intoxications au paracétamol inhibe l'adhésion des plaquettes aux multimères solubles de FVW de haut poids moléculaire ancrés dans les cellules endothéliales en réduisant leur taille. Il semble que la NAC perturbe la liaison disulfure située dans le domaine A1 du FVW empêchant sa liaison au récepteur plaquettaire GP1b71. Le bortezomib, inhibiteur du protéasome, entraîne la déplétion des plasmocytes72. Il cible les plasmocytes à longue durée de vie responsables d'une production persistante d'autoanticorps malgré la déplétion des lymphocytes B73. Un traitement basé sur l'administration d'ADAMTS 13, un ADAMTS 13 recombinant, est actuellement en cours d'essai et pourrait remplacer les EP et donc diminuer les effets indésirables liés à ces EP74, 75. 68 Welborn JL, Emrick P, Acevedo M. Rapid improvement of thrombotic thrombocytopenic purpura with vincristine and plasmapheresis. American Journal of Haemotology, 1990 ; 35 : 18-21 69 Coppo P, Veyradier A. Current management and therapeutical perspectives in thrombotic thrombocytopenic purpura. La presse médicale, 2012 ; 41 : e163-e176 70 Nosari A, Redaelli R, Caimi TM, Mostarda G, Morra E. Cyclosporine therapy in refractory/relapsed patients with thrombotic thrombocytopenic purpura. American Journal of Hematology, 2009 ; 84, 313-314 71 Chen J, Reheman A, Gushiken FC et al. N-acetylcysteine reduces the size and activity of von Willebrand factor in human plasma and mice. Journal of Clinical Investigation, 2011 ; 121 : 593-603 72 Shortt J, Oh DH, Opat SS. ADAMTS 13 antibody depletion by bortezomib in thrombotic thrombocytopenic purpura. The New England Journal of Medecine, 2013 ; 368 : 90-92 73 Patriquin CJ, Thomas MR, Dutt T, Mc Guckin S, Blombery PA, Cranfield T, et al. Bortezomib in the treatment of refractory thrombotic thrombocytopenic purpura. British Journal of Haematology, 2016 ; 173 : 779785 49 Les transfusions de plaquettes sont, quant à elle, contre indiquées. En effet, elles représentent une cause de morbidité et de mortalité. Plusieurs cas d'aggravations cliniques (manifestations cérébrales voir décès) ont été rapportés76. 74 Sarode R. Recombinant ADAMTS 13 : goodbye, allergic reactions ! Blood, 2017 ; 130 : 2045-2046 Scully M, Knöbl P, Kentouche K, Rice L, Windyga J, Schneppenheim R, Kremer Hovinga J, Kajiwara M, Fujimura Y, Maggiore C, Doralt J, Hibbard C, Martell L, Ewenstein B. Recombinant ADAMTS-13 : first-inhuman pharmacokinetics and safety in congenital thrombotic thrombocytopenic purpura. Blood, 2017 ; 130 : 2055-2063 76 Coppo P. Pourquoi les transfusions de plaquettes sont-elles contre-indiquées chez les patients atteints d'un purpura thrombotique thrombocytopénique ? Réanimation, 2008 ; 17 : 412-417 75 50 III. Etudes en condition de vie réelle pour l'évaluation des médicaments 1. L'évaluation des médicaments La Haute Autorité de Santé (HAS) a pour mission d'évaluer les médicaments ayant obtenu l'AMM, sur le plan médical, économique et de santé publique en terme de progrès et d'intérêt en vue de la fixation de leur prix par le Comité Economique des Produits de Santé (CEPS) et de leur remboursement par l'Assurance Maladie. La HAS est aussi chargée de réévaluer leur indication régulièrement. Pour cela, deux commissions interviennent, la Commission de Transparence (CT) et la Commission d'Evaluation Economique et de Santé Publique (CEESP) dans le cas des médicaments innovants et pouvant avoir un impact significatif sur les dépenses de santé. La HAS s'appuie principalement sur les données issues des essais cliniques mais aussi de données de la vie réelle et de données médico-économiques dans le cas des médicaments innovants. La CT rend un avis sur le Service Médical Rendu (SMR) qui servira pour le remboursement en fonction du niveau attribué : important, modéré, faible ou insuffisant. L'Amélioration du Service Médical Rendu (ASMR) est un des critères utilisé pour la fixation du prix, le médicament est comparé aux médicaments déjà existants pour cette indication, celle-ci est cotée de I à V. 51 Les étapes de l'évaluation des médicaments sont décrites dans la Figure 7. Figure 7 : Evaluation des médicaments par la HAS 52 2. Les études de vraie vie Pour obtenir l'AMM, les industries pharmaceutiques doivent réaliser des études cliniques. Ces études sont contrôlées, les patients sont sélectionnés selon des critères d'inclusion stricts. Les études de vraie vie sont assez récentes, elles recueillent les données concernant l'utilisation, l'efficacité et la tolérance des produits de santé en dehors du cadre des essais cliniques et ainsi permettent de voir l'impact de ces produits dans la pratique courante. Ce sont des études observationnelles, reflétant ainsi les modalités de prise en charge des patients, il n'y a pas de critères d'inclusion et d'exclusion stricts77. Pour l'évaluation des médicaments, la HAS s'appuie sur les données des essais cliniques mais utilisent également de plus en plus les données en condition de vie réelle. L'utilisation des données en vie réelle permet d'optimiser ou ajuster la stratégie thérapeutique dans la pratique courante. La HAS a donc mis en place un guide méthodologique pour mener des études en vie réelle utilisables pour l'évaluation des médicaments et des dispositifs médicaux. Ce guide a pour objectif de proposer des points de repères pratiques sur les aspects méthodologiques afin d'optimiser le niveau de preuve des études et leurs résultats78. Ces études de vraie vie sont complémentaires des études cliniques et permettent de voir dans quelles mesures les conditions des essais cliniques sont applicables en pratique. Un des critères évalués avec les études de vraie vie est la qualité de vie, même si celleci peut aussi être intégrée dans les études cliniques. La qualité de vie, définie par 77 Rapport relatif aux données de vie réelle, un enjeu majeur pour la qualité des soins et la régulation du système de santé, réalisé à la demande de Madame la Ministre de la santé Marisol Touraine, 2017 disponible à l'adresse suivante : https://solidaritessante.gouv.fr/IMG/pdf/rapport_donnees_de_vie_reelle_medicaments_mai_2017vf.pdf consulté le 24/08/2021 78 Guide méthodologique relatif aux études en vie réelle pour l'évaluation des médicaments et dispositifs médicaux, HAS, 2021 disponible à l'adresse suivante : https://www.hassante.fr/upload/docs/application/pdf/2021-06/guide_etude_en_vie_reelle_medicaments__dm.pdf consulté le 24/08/2021 53 l'Organisation Mondiale de la Santé (OMS) en 1993 « comme la perception qu'un individu a de sa place dans la vie, dans le contexte de la culture et du système de valeurs dans lequel il vit, en relation avec ses objectifs, ses attentes, ses normes et ses inquiétudes. C'est donc un concept très large qui peut être influencé de manière complexe par la santé physique du sujet, son état psychologique et son niveau d'indépendance, ses relations sociales et sa relation aux éléments essentiels de son environnement » est un élément important à prendre en compte dans l'évaluation des produits de santé. Depuis quelques années, la notion de qualité de vie s'est largement développée dans l'évaluation des médicaments. Les grandes agences règlementaires nationales et internationales comme la Food and Drug Administration (FDA) ou encore la HAS recommandent l'intégration de l'évaluation de la qualité de vie dans les études cliniques des médicaments79. La qualité de vie se mesure selon deux approches, une approche clinique et une approche économique. L'approche clinique permet de quantifier le bénéfice clinique du point de vue du patient80. Cette approche se fait souvent par le biais de questionnaires. Dans les études médico-économiques, l'analyse de référence pour mesurer la qualité de vie est l'analyse coût-utilité. Le résultat évalué est la durée de vie pondérée par une mesure de la qualité de vie (QALY : Quality Adjusted Life Year)81. Le QALY correspond au gain en années de vie ajustées par la qualité. 79 Baumstarck K, Leroy T, Boyer L, Auquier P. Intérêt et limites de l'évaluation de la qualité de vie dans le champ des maladies chroniques, 2015 ; 36 : 24-30 80 Note de synthèse relative à l'évaluation des technologies de santé à la HAS : place de la qualité de vie, HAS, 2018 disponible à l'adresse suivante : https://www.has-sante.fr/upload/docs/application/pdf/201810/note_de_synthese_place_de_la_qualite_de_vie.pdf consulté le 24/08/2021 81 Guide méthodologique relatif aux choix méthodologiques pour l'évaluation économique à la HAS, HAS, 2020 disponible à l'adresse suivante : https://www.has-sante.fr/upload/docs/application/pdf/202007/guide_methodologique_evaluation_economique_has_2020_vf.pdf consulté le 24/08/2021 54 Depuis 2015, des adhérents d'associations de patients font également parties de la CT et participent à l'évaluation pour définir l'ASMR et le SMR des médicaments82. Les associations de patients et d'usagers participent également par le biais de questionnaires sur les médicaments mis en ligne régulièrement sur le site de la HAS permettant aux associations de s'exprimer sur la pathologie et leurs attentes vis-à-vis des traitements. Ces contributions sont ensuite transmises à la CT pour être prise en compte lors de l'évaluation. L'implication des patients permet d'avoir leur vécu de la maladie, leur ressenti, leur expérience des différents traitements et donc ainsi prendre en compte l'impact sur la qualité de vie. 82 Communiqué de presse relatif à l'arrivée des usagers à la CT et à la CNEMiDTS, HAS, 2015 disponible à l'adresse suivante : https://www.has-sante.fr/jcms/c_2573438/fr/arrivee-des-usagers-a-la-ct-et-a-la-cnedimts consulté le 24/08/2021 55 IV. Contexte de l'étude Comme évoqué, le PTT est une pathologie extrêmement rare et le diagnostic est complexe et nécessite une prise en charge en urgence. Très peu d'études avec de grandes cohortes de patients en conditions de vraie vie ont été publiées sur l'utilisation du caplacizumab. Au vu des résultats prometteurs des essais cliniques, il est intéressant d'étudier l'efficacité, la tolérance et le coût de ce produit dans les conditions de vraie vie. De plus, en ce qui concerne son développement et sa commercialisation, le laboratoire était en pleine négociation avec les autorités pour obtenir un prix au moment de notre étude. Bien que son prix soit assez important, il est important d'étudier le coût de cette prise en charge en condition réelle tout en tenant compte du bénéfice clinique pour le patient. Une récente étude de coût se basant sur les données obtenues des études TITAN et HERCULES a montré que l'ajout du caplacizumab au traitement standard n'apparaissait pas rentable aux Etats-Unis83. Une étude de vraie vie dans un centre de référence paraissait intéressante, de plus que la HAS encourage de plus en plus ces études pour aider à la prise de décision concernant le prix et le remboursement et lors des réévaluations des produits de santé. Une comparaison entre le coût d'hospitalisation et des traitements, avec et sans caplacizumab, et le remboursement reçu par l'hôpital a été faite en se plaçant du point de vue de l'hôpital. 83 Goshua G, Sinha P, Hendrickson J, Tormey C, Bendapudi P, Lee A. Cost effectiveness of caplacizumab in acquired thrombotic thrombocytopenic purpura. Blood, 2020 ; 136 : 18-19 56 V. Article L'article a été soumis le 27 juillet 2021 et est en cours de revue dans le journal « Journal of Pharmacy and Pharmaceutical Sciences » Clinical and economic comparison between standard treatment with and without caplacizumab for immune-mediated thrombotic thrombocytopenic purpura under real-life conditions in a thrombotic microangiopathy reference center Victoria Florestano1, Pascale Poullin2,3, Sophie Gensollen4, Manon Roche5,684 1 Service Central des Opérations Pharmaceutiques (SCOP), Assistance Publique - Hôpitaux de Marseille, Marseille, France 2 Service d'Hémaphérèse, Hôpital de La Conception, Assistance Publique-Hôpitaux de Marseille, Marseille, France 3 Centre de Référence Constitutif des Microangiopathies Thrombotiques, France 4 Pharmacie Usage Intérieur, Hôpital de la Conception, Assistance Publique-Hôpitaux de Marseille, Marseille, France 5 Service Central des Opérations Pharmaceutiques (SCOP), Assistance Publique - Hôpitaux de Marseille, Marseille, France 6 Aix Marseille Univ, ICR, UMR CNRS7273, Marseille, France 57 Corresponding author: Manon Roche Tel.: +33-4-91835525; Fax: 33-4-91-79-46-77; e-mail: manon.roche@univ-amu.fr; manon.roche@ap-hm.fr ; postal adress : AP-HM, Service Central des Opérations Pharmaceutiques (SCOP), Marseille, France; ABSTRACT Objectives: Caplacizumab is a new innovative therapy approved for the treatment of thrombotic thrombocytopenic purpura. In France, the pricing is currently in progress by the Healthcare Product Economic Committee. The objective is to evaluate the cost of this molecule taking into account the efficacy and safety of patients under real-life conditions. Methods: This is a retrospective study comparing two groups of patients: the CAPLA+ group treated by standard treatment (therapeutic plasma exchange, corticosteroid, and rituximab) and caplacizumab and the CAPLA− group treated by standard treatment. Criteria for efficacy and security were noted in each group (i.e., time of normalization of platelets count, length of hospital stay, number of therapeutic exchange, and adverse effects). The cost (i.e., hospitalization and treatment) was calculated in each group, considering drug reimbursement received by the hospital. Results: In the CAPLA+ group, the delay to normalization of platelets count decreased, as the number of therapeutic plasma exchange and plasma volume administered compared to the CAPLA− group. The length of hospitalization also decreased significantly. Caplacizumab brings an additional cost (€89 845 versus €31 249). Conclusion: Caplacizumab has a high cost for health insurance but it reduces hospital burden by reducing the number of therapeutic plasma exchange and the length of hospital stay. Caplacizumab in combination with standard treatment has benefits for patients; it improves patients' survival and decreases relapses and exacerbations, and the treatment can be continued at home. 58 INTRODUCTION The novelty of the work : The lack of data regarding economic and clinical use encouraging evaluation in clinical practice, moreover, the price in France is not yet fixed. We propose clinical and economic outcomes evaluation in patient with iTTP considering the benefit to the patient and from the perspective of the hospital and health insurance. Immune-mediated thrombotic thrombocytopenic purpura (iTTP) is a form of thrombotic microangiopathy characterized by a deficiency in a metalloproteinase ADAMTS 13 (A Disintegrin And Metalloprotease with ThromboSpondin-1 motifs, 13th member) activity, responsible for the cleavage of the von Willebrand factor (VVWF) (1). iTTP is caused by the production of inhibitory auto-antibodies against the ADAMTS 13 leading to the accumulation of ultra-large VVWF multimers (2). It is a rare, serious, and potentially fatal disease if not treated early. It mainly affects young adults (around 40 years of age) and mostly women (3). TTP is manifested by hemolytic anemia, peripheral thrombocytopenia, and organ failures variable according to the severity of the disease (4). Without appropriate treatment, the disease becomes fatal and adaptive management should be initiated in emergency (5). Therapeutic plasma exchange (TPE) is a turning point in the management of iTTP, reducing the mortality rate from 90% to 15–20% (6,7). The first-line treatment consists of TPE combined with corticosteroids and immune suppressive therapy (8). Rituximab, which is widely used in the treatment of autoimmune diseases, has shown to be very effective in the treatment of iTTP (9,10). Despite the TPE-corticosteroid–rituximab combination, the medical needs remain important due to a delay in the onset of action of rituximab (12 to 14 days), exacerbation when TPE are stopped in almost half of the cases and 10% of patients are refractory to the treatment (11,12). Caplacizumab is a humanized single variable domain nanobody targeting the A1 domain of VWF. The mechanism of action is to inhibit the interaction between VWF multimers and platelets and 59 prevent the formation of microthrombi; but there is no action on already formed microthrombi [13]. Caplacizumab has been approved for the treatment of iTTP in conjunction with TPE and immunosuppressive therapy by the European Medicines Agency in Europe in September 2018 and by the US Food and Drug Administration in February 2019. This is the first drug with marketing authorization for the treatment of iTTP. According to the promising results of the TITAN and HERCULES studies carried out for the marketing of this nanobody, the number of TPE is greatly reduced and the frequency of major thromboembolic events, exacerbations, and death are also reduced (14–16). The International Society on Thrombosis and Haemostasis TTP guidelines recommend the use of caplacizumab in first-line with the standard of care (TPE, corticosteroid, rituximab) (17). Discussions are underway for the pricing of caplacizumab in France, and it is important to assess the clinical and economic impact at an early stage. Indeed, cost remains the major barrier to its use in firstline with a standard treatment (18). The objective is to evaluate the cost of iTTP treatment in two groups of patients (i.e., with or without caplacizumab) under real-life conditions, including efficacy and tolerance. MATERIALS AND METHODS a. Study design This is a retrospective study evaluating the efficacy, safety, and cost of iTTP treatment under real-life conditions. All patients treated for iTTP between 2016 and 2020 were included. Exclusion criteria were the lack or absence of data or death at an early stage of treatment. Two groups of patients were compared: CAPLA− group patients were treated by treatment standard (TPE + corticosteroid + rituximab) and CAPLA+ group patients were treated by treatment standard and caplacizumab. 60 Patients of the CAPLA− group were not treated with caplacizumab because it was not yet available. Since caplacizumab is available in the hospital, all patients who are hospitalized for iTTP are treated with caplacizumab regardless of the severity. All patients were treated with TPE (1.5× plasma volume at each session) either with Octaplas LG® or secure fresh frozen plasma. Corticosteroids were administered at a dosage of 1 mg/kg/day, except for some severe cases for which the dosage was 1.5 mg/kg/day. Rituximab was administered at a dosage of 375 mg/m2 on day 1-4-8-15 from the decision to initiate treatment with rituximab, generally in the first three days. For the CAPLA+ group, caplacizumab is administered at a dosage of 10 mg by intravenous injection before TPE for the first injection, then 10 mg subcutaneously after TPE, and up to 30 days after TPE is stopped. Caplacizumab was started within two days of the start of TPE. In some cases, if the ADAMTS 13 activity remained collapsed, caplacizumab can be continued for more than 30 days. b. Data collection Data were collected from Pharma® software (software for prescriptions, pharmaceutical validation, and inventory management of drugs and medical devices), Axigate® computerized patient record software, and Visual Patient® software for biological analyses. The patient characteristics noted are age at admission, sex, weight, medical history, first episode or relapse, and death, and the biological parameters were platelets count, hemoglobin, reticulocytes count, schizocytes, ADAMTS 13 activity, ADAMTS 13 antibodies, creatinine, LDH, and haptoglobin. c. Efficacy and safety The efficacy of caplacizumab was assessed by noting the clinical and biological response: platelets count normalization for 2 days, number of TPE and plasma volume administered, number of exacerbation and relapse, length of hospitalization in intensive care unit or nephrology intensive care unit, and/or conventional ward, and number of rituximab treatments. An exacerbation is defined as thrombocytopenia occurring after a platelet response and requiring reinstatement of TPE within 30 61 days of stopping TPE. A relapse is defined as the occurrence of a new episode of TTP more than 30 days after the last TPE. Adverse events that occurred during hospitalization and adverse effects of caplacizumab were noted. d. Cost evaluation Only direct costs for the hospital were considered: the cost of hospitalization in intensive care unit and/or conventional ward and the cost of treatment. A comparison between the reimbursement received by the hospital and the cost of hospitalization was made. The French method of financing health care institutions is based on activity-based pricing, which means that diagnoses and medical procedures are coded using the medicalization program of the information system, which makes it possible to classify each stay within a homogenous group of patients, which is associated with a homogeneous group of stays. A financial revenue is allocated to the service for this stay. A list of expensive molecules has been defined and these molecules are reimbursed in addition to the cost of the treatment by the health insurance to allow access to innovation for all patients. There is another cost to take into account for the CAPLA+ group, which is the cost of caplacizumab after hospitalization because patients continue caplacizumab at home. Caplacizumab is delivered by a pharmacy hospital in the retrocession (outpatient dispensing of hospital-reserved drugs). They visit every week for consultation to monitor ADAMTS 13 activity and antibodies and caplacizumab is delivered after consultation. A margin of €22 is fixed for each retrocession made in addition to the cost of the drug. e. Statistical analysis Statistical tests were performed with SPSS (V.23). Comparisons between groups involved the Fisher's exact test and Student's t-test. Data are expressed in numbers, mean or median. A value of p < 0.05 was considered significant. 62 Figure 1 shows the materials and methods used in the study. Figure 1. Material and methods 1. Patient inclusion CAPLA – CAPLA + Treatment: Treatment: TPE, corticosteroids, rituxumab TPE, corticosteroids rituximab, caplacizumab 2. Data collection Patients characteristics Efficacy and safety - Delay to normalization of platelet count Number of TPE Volume of TPE Length of hospitalization in intensive care unit and / or conventional ward Adverse effects during hospitalization Treatment by caplacizumab : Duration and adverse effects Direct costs 3. Analysis 63 RESULTS a. Study population characteristics A total of 25 patients were included. Two patients were excluded because of a lack of data and death at an early stage of the treatment. Fourteen patients were treated with caplacizumab (CAPLA+) and 11 patients were not (CAPLA−). Most of the patients were women, 86% in the CAPLA+ group and 55% in the CAPLA− group. For 11 of 14 patients in the CAPLA+ group and nine of 11 patients in the CAPLA− group, there was an initial episode. An autoimmune field was present in five patients in each group. The characteristics of patients are provided in Table 1. Table 1: Study population characteristics Mean age (range) in years Median age Female number (%) Initial TTP Mean platelet count G/L Median platelet count CAPLA + CAPLA− (N=14) (N=11) 46.2 (27–72) 46 (16–68) 41.5 57 12 (86) 6 (55) 11 9 11.6 26.3 10.5 (3–30) 11 (3–70) p-value NS* (range) G/L *Not significant b. Efficacy and safety outcomes All results related to efficacy are noted in Table 2. One early relapse and two exacerbations of the iTTP were observed in the CAPLA− group, while there was only one exacerbation in the CAPLA+ group. One patient's platelets count decreased a few days after cessation of TPE but it was a postrituximab serum disease. 64 Normalization of platelet count was faster in patients treated with caplacizumab but there is no significant difference between the two groups (p = 0.162). The mean number of TPE was lower in the CAPLA+ group compared to the CAPLA− group (6 to 13), and the difference is significant (p = 0.009). The volume of plasma required for treatment of the acute episode also decreased significantly from 62 L to 27 L (p = 0.021). The mean length of stay in the intensive care unit was respectively four days to eight days in the CAPLA− group and the length of stay in the conventional ward was 13 days (CAPLA+) and 24 days (CAPLA−). The mean length of hospitalization stay was significantly reduced in the CAPLA+ group (p = 0.023). 65 Table 2: Efficacy outcomes CAPLA + CAPLA− Complete remission 13 8 Exacerbation 1 2 Relapse 0 1 Total number of TPE 84 147 Mean 8 26 Median (range) 7 (4–26) 8 (5–35) Mean 6 13 Median (range) 5 (4–14) 10 (6–33) Mean 27 62 Median (range) 22 (16–35) 45 (18–161) p-value Days to remission NS Number of TPE to remission 0.009 Volume of plasma in liters 0.021 Number of patients who have a stay in the intensive care unit 11 (79) 6 (55) (%) Number of days in the intensive care unit Mean 4 15 Median (range) 3 (1–14) 5 (3–65) Mean 13 24 Median (range) 11 (7–24) 20 (9–64) Mean 16 30 Median (range) 14 (9–36) 28 (9–65) Number of days in the conventional ward Total number days of hospitalization 0.023 Five patients continued caplacizumab beyond 30 days after the end of TPE due to a persistent collapse of ADAMTS 13 activity. In contrast, two patients stopped caplacizumab early due to an 66 allergic reaction (17 days after) and an extensive bruising and hematoma at the caplacizumab injection site (21 days after). Adverse events during hospitalization were mainly related to TPE. These events were paresthesia, hypotension, malaise, dizziness, headache, precordial pain, and allergic reaction. Two patients in each group had a pulmonary embolism whose cause was multifactorial (central catheter, prothrombotic disease, stay in the intensive care unit, and so on). The main adverse effects of caplacizumab are those described in the summary of product characteristics and the trials: gingivorrhagia, epistaxis, and bruising at the injection site. In the CAPLA+ group, one patient had corticosteroid-induced osteoporosis and one patient presented corticosteroid-induced diabetes. c. Cost evaluation The reimbursement received by the hospital and the cost of hospitalization and treatment are provided in Table 3. The cost is higher in the CAPLA+ group because there is an additional molecule. But the differential cost is higher in the CAPLA− group. In the CAPLA+ group, the patient who has the higher differential cost is the patient who had the higher number of TPE. 67 Table 3: Evaluation of the hospitalization cost CAPLA+ CAPLA− Reimbursement received by the hospital Mean (€) 93 246 33 985 Median (€) (range) 87 141 (59 883–181 929) 27 959 (12 462–70 583) Mean (€) 94 707 47 348 Median (€) (range) 89 845 (56 764–202 959) 31 249 (11 370–105 845) Mean (€) −1 461 −13 363 Median (€) (range) −1 444 (−21 029–11 379) −7 920 (−44 035–1 092) Cost hospitalization + treatment Differential between reimbursement and cost Caplacizumab is continued at home, in an outpatient setting, and 12 patients to 14 patients came to the hospital ambulatory (outpatient) pharmacy. This represents a total of 370 caplacizumab and 52 drugs dispensation for a total of €1 586 964 (Table 4). Table 4: Cost of caplacizumab CAPLA+ Caplacizumab delivered in the retrocession Total 370 Mean 26 Median (range) 20 (2–73) Number total of drug dispensation 52 Cost of drug dispensation € Total 1 586 964 Mean 132 247 Median (range) 94 358 (8 594–313 098) 68 DISCUSSION The results of our evaluation in real-life situations are consistent with those of the TITAN and HERCULES trials and the study of Coppo et al. (19). In the last study listed, 90 patients treated with the triplet regimen strategy combining caplacizumab with frontline rituximab and TPE/corticosteroids treatments were compared with a historical cohort of 180 patients treated with the standard regimen (TPE, corticosteroid, and rituximab as per clinician's practice). Caplacizumab represents an important advance in the treatment of TTP and improves short-term outcomes like refractoriness and mortality (18). Caplacizumab protects exacerbations until the ADAMTS 13 activity improves (20). In the CAPLA+ group, the delay to normalization of platelet count decreased, as the number of TPE and plasma volume administered compared to the CAPLA− group. The length of hospitalization in the intensive care unit and conventional wards also decreased significantly. Adverse effects induced by caplacizumab were comparable to those found in the studies (epistaxis, gingivorrhagia, and so on) (14, 15, 19). From these results, the triplet regimen is considered the best standard of care and is recommended in the first-line of treatment. The aim of the triplet regimen consists in acting on the different aspects of the physiopathology of iTTP (19): TPE brings the deficient ADAMTS 13 and eliminates the autoantibodies against ADAMTS 13, immunosuppressive therapies (corticosteroids and rituximab) act on antibodies, and caplacizumab prevents the formation of microthrombi and minimizes ischemic organ damage responsible for long-term sequelae (21). The major obstacle to use caplacizumab in the front line remains its high cost. Caplacizumab brings a high additional cost compared to the standard treatment (€94 707 versus €47 348). The cost is higher in the CAPLA+ group but the differential cost is higher in the CAPLA− group, which is quite surprising. Caplacizumab seems not responsible for this difference; however, TPE could be a cause. TPE is expensive (approximately €100 per 200 ml plasma bag) and not reimbursed in addition like expensive molecules. The higher differential seems to be linked to the number of TPEs. The higher differential cost concerns patients who had the most TPE. 69 Our study considers the point of view of the hospital; caplacizumab makes cost-saving in the hospital because it generates less TPE and therefore requires less plasma volume. But on the other hand, it leads to an additional cost for the health insurance, particularly with the cost of caplacizumab (approximately € 4 000 one injection), the follow-up after hospitalization, which requires weekly consultation, retrocession, and ADAMTS 13 activity and ADAMTS 13 antibodies assay. Caplacizumab is for now reimbursed in addition because it has the status of post-temporary use authorization and its price is not effective yet. After hospitalization, patients continue caplacizumab at home, so it is another cost for the health insurance. The deliveries are weekly because of the high price of the drug, the preservation with the need to respect the cold chain, and given the size of the box, the patients' fridge is not always big enough to store all the boxes and if a breakdown occurs, the loss would be less important. Patients are therefore obliged to return every week and often live far from the hospital and require transportation by a medical vehicle, which is another cost to take into account. Another problem is the measurement of ADAMTS 13 activity; it is not done routinely so there can be a delay of few days between the consultation and the results and the stop of caplacizumab. In the study of Goshua, the cost of caplacizumab was calculated from TITAN and HERCULES trials and it appears to be not cost effective compared to the standard of care in the United States. Indeed, caplacizumab has a higher cost but has also an improvement in effectiveness measured using Quality-Adjusted Life Years (QALYs) (22). Price and health system are not the same in different countries. It is important to consider the benefits for the patient because iTTP is a rare disease that mainly affects women who are professionally active. The onset of the disease is abrupt, and patients find themselves in the intensive care unit from one day to the next. The treatment with caplacizumab has the advantage that it can be continued at home. It has drawbacks like the fact that it is a subcutaneous injection but the patient can do it himself/herself or call a liberal nurse. This drawback is 70 less than the adverse effects associated with TPE and the consequences of a long hospital stay in an intensive care unit. TPE is a long medical procedure, in which each session generally lasts 3 hours and has frequent but minor undesirable effects that are reversible when the session is stopped (paresthesia and hypotension). Patients often need a central venous catheter, as this is an invasive procedure that can lead to immediate complications (pneumothorax, gas embolism, and hemorrhage), thrombotic and infectious complications (23,24). The stays in the intensive care unit are often associated with posttraumatic stress states, especially when the stay is long. This state of stress alters the quality of life in the months following discharge from the intensive care unit because it can be responsible for acute anxiety, nightmares, and depression (25). Our cost analysis has some limitations. We have considered the transmitted coding information that may have errors but we choose to not correct these errors because it was a study under real-life conditions. The marketing of this drug is particularly rapid and can be linked to the need and clinical interests of patients. Caplacizumab is a recent innovative therapy approved for the treatment of iTTP, in combination with TPE and immunosuppressive therapy, which improves patient survival, decreases relapses and exacerbations, and reduces hospital burden. It is an expensive molecule whose use has yet to be optimized. One of the possibilities would be to reduce the duration of exposure to this drug by stopping it as soon as ADAMTS 13 activity becomes detectable at a level that has been consensually recognized as protective for patients (> 20%) (26). This strategy could reduce the frequency of adverse events, save significant amounts of caplacizumab, and could be cost effective. Indeed, if caplacizumab was stopped as soon as ADAMTS 13 activity is greater than 20%, 8 out of 14 patients could have stopped caplacizumab before the end of hospitalization. In a Germanic study of 60 patients, ADAMTS 13 activity was used to guide the duration of the treatment (27). Caplacizumab was stopped before the end of the 30 days recommended in 34 of 60 patients with a favorable outcome whenever ADAMTS 13 activities were >10%. In 11 of 34 patients, caplacizumab was stopped while ADAMTS 13 activities were <10% and cause exacerbations or 71 relapses. Of the patients, 58,3% stopped caplacizumab before the 30 days recommended, which represents a cost-savings of € 2,49 million. Studies are needed to assess this strategy. Several cases of iTTP were treated only by caplacizumab and rituximab (28, 29). For most of the patients, it was a relapse, not a severe form of iTTP or life-threatening. The question is whether caplacizumab would eliminate the need for TPE. This would make the treatment more cost effective as there would be no need for plasma. More studies are needed to identify which patients would benefit from the treatment with caplacizumab without TPE. Conclusion The management of TTP has improved dramatically in recent years with TPE and rituximab. The clinical need is still significant because it is a serious and potentially fatal pathology. Caplacizumab brings an additional cost compared to the standard treatment, which is to be weighed against the fact that it had a real clinical benefit to the patients through faster platelet normalization, reduced TPE, shorter hospital stays, and fewer exacerbations. It is not cost effective for the insurance health because of the hospitalization and the follow-up but it reduces hospital burden. The use of caplacizumab has to be optimized. In France, it is important that caplacizumab be included on the list in addition to the activity-based pricing system in order to continue to be used. 72 ACKNOWLEDGMENTS We thank the controller and the physician responsible for medical information and evaluation for the information concerning reimbursement, cost, and coding of stays. REFERENCES (1) Veyradier A, Coppo P. ADAMTS 13, la protéase spécifique du clivage du facteur von Willebrand. Medecines / Sciences, 2011; 27: 1097-1105 https://doi.org/10.1051/medsci/20112712016 (2) Veyradier A, Meyer D. Thrombotic thrombocytopenic purpura and its diagnosis. Journal of Thrombosis and Haemostasis, 2005; 3: 2420-2427 https://doi.org/10.1111/j.1538-7836.2005.01350.x (3) Korach JM, Petitpas D, Paris B, Bourgeade F, Passerat V, Berger P, et al. Plasma exchange in France : epidemiology 2001. Transfusion and Apheresis Science, 2003; 29: 153-157 https://doi.org/10.1016/S1473-0502(03)00120-4 (4) Coppo P, Veyradier A. Microangiopathies thrombotiques: physiopathologie, diagnostic et traitement. Réanimation, 2005; 14: 594-603 (5) Coppo P, Schwarzinger M, Buffet M, Wynckel A, Clabault K, Presne C, et al. Predictive features of severe acquired ADAMTS13 deficiency in idiopathic thrombotic microangiopathies: the French TMA reference center experience. Plos One 2010; 5: 1-9 DOI :10.1371/journal.pone.0010208 (6) Rock GA, Shumak KH, Buskard NA, Blanchette V, Kelton J, Nair R, et al. Comparison of plasma exchange with plasma infusion in the treatment of thrombotic thrombocytopenic purpura. The New England Journal of Medicine 1991; 339: 1578-1584 DOI: 10.1056/NEJM199108083250604 (7) Retornaz F, Durand JM, Poullin P, Lefèvre P, Soubeyrand J. Le purpura thrombotique thrombocytopénique idiopathique ou syndrome de Moschowitz : actualités physiopathologiques et 73 perspectives thérapeutiques. Revue de Medecine Interne, 2000; 21: 777-784 DOI: 10.1016/s02488663(00)00223-x (8) Scully M, Hunt B, Benjamin S, Liesner R, Rose P, Peyvandi F, et al. Guidelines on the diagnosis and management of thrombotic thrombocytopenic purpura and other thrombotic microangiopathies. British Journal of Haematology, 2012; 158: 323-335 DOI: 10.1111/j.1365-2141.2012.09167.x (9) Sauvètre G, Grange S, Froissart A, Veyradier A, Coppo P, Benhamou Y. La révolution des anticorps monoclonaux dans la prise en charge des microangiopathies thrombotiques. La Revue de Médecine Interne, 2015; 36: 328-338 https://doi.org/10.1016/j.revmed.2014.10.364 (10) Westwood JP, Webster H, Mcguckin S, Mcdonals V, Machin SJ, Scully M. Rituximab for thrombotic thrombocytopenic purpura: benefit of early administration during acute episodes and use of prophylaxis to prevent relapse. Journal of Thrombosis and Haemostasis, 2012; 11: 481-490 DOI: 10.1111/jth.12114 (11) Le Besnerais M, Veyradier A, Benhamou Y, Coppo P. Caplacizumab : a change in the paradigm of thrombotic thrombocytopenic purpura treatment. Expert Opinion on Biological Therapy 2019; 19: 1127-1134 DOI: 10.1080/14712598.2019.1650908 (12) Poullin P, Bornet C, Veyradier A, Coppo P. Caplacizumab to treat immune-mediated thrombotic thrombocytopenic purpura. Drugs of Today, 2019; 55: 367-376 DOI: 10.1016/j.amjmed.2019.03.009 (13) Sargentini-Maier ML, De Decker P, Tersteeg C, Canvin J, Callewaert F, De Winter H. Clinical pharmacology of caplacizumab for the treatment of patients with acquired thrombotic thrombocytopenic purpura. Expert Review of Clinical Pharmacology, 2019; 12: 537-545 https://doi.org/10.1080/17512433.2019.1607293 (14) Scully M, Cataland SR, Peyvandi F, Coppo P, Knöbl P, Kremer Hovinga JA, et al. Caplacizumab treatment for acquired thrombotic thrombocytopenic purpura. The New England Journal of Medicine, 2019; 380: 335-346 DOI: 10.1056/NEJMoa1806311 74 (15) Peyvandi F, Scully M, Kremer Hovinga JA, Cataland S, Knöbl P, et al. Caplacizumab for acquired thrombotic thrombocytopenic purpura. The New England Journal of Medicine, 2016; 376: 511-522 DOI: 10.1056/NEJMoa1806311 (16) Peyvandi F, Scully M, Kremer Hovinga JA, Knöbl P, Cataland S, De Beuf K, et al. Caplacizumab reduces the frequency of major thromboembolic events, exacerbations and death in patients with acquired thrombotic thrombocytopenic purpura. Journal of Thrombosis and Haemostasis, 2017; 15: 1448-1452 DOI: 10.1111/jth.13716 (17) Zheng XL, Vesely SK, Cataland SR, Coppo P, Geldziler B, Iorio A, et al. ISTH guidelines for treatment of thrombotic thrombocytopenic purpura. Journal Thrombosis Haemostasis. 2020; 18: 24962502 DOI: 10.1111/jth.15010 (18) Chaturvedi S. Counting the cost of caplacizumab. Blood, 2021; 137: 871-872 https://doi.org/10.1182/blood.2020009250 (19) Coppo P, Bubenheim M, Azoulay E, Galicier L, Malot S, Bigé N, et al. A regimen with caplacizumab, immunosuppression and plasma exchange prevents unfavorable outcomes in immunemediated TTP. Blood, 2021; 137: 733-742 DOI: 10.1182/blood.2020008021 (20) Coppo P, Ciler A, George JN. Thrombotic thrombocytopenic purpura: Toward targeted therapy and precision medicine. Research and Practice in Thrombosis and Haemostasis, 2019; 3: 2637 https://doi.org/10.1002/rth2.12160 (21) George JN. TTP: The evolution of clinical practice. Blood, 2021; 137: 719-720 https://doi.org/10.1182/blood.2020009654 (22) Goshua G, Sinha P, Hendrickson JE, Tormey C, Bendapudi P, Lee AL. Cost effectiveness of caplacizumab in acquired thrombotic thrombocytopenic purpura. Blood, 2021; 137: 969-976 DOI: 10.1182/blood.2020006052 75 (23) Picod A, Provôt F, Coppo P. Therapeutic plasma exchange in thrombotic thrombocytopenic purpura. Presse Médicale, 2019; 48: 319-327 DOI: 10.1016/j.lpm.2019.08.024 (24) Page EE, Kremer Hovinga JA, Terrell DR, Vesely SK, George JN. Thrombotic thrombocytopenic purpura diagnostic criteria, clinical features, and long-term outcomes from 1995 through 2015. Blood Advances, 2017; 1: 590-600 DOI: 10.1182/bloodadvances.2017005124 (25) Bauerheim N, Masseret E, Mercier E, Dequin PF, El-Hage W. Etat de stress post-traumatique après un séjour en réanimation : influence des modalités de sédation. La Presse Médicale, 2013; 42: 287-294 https://doi.org/10.1016/j.lpm.2012.06.010 (26) Sadler JE. Von Willebrand factor, ADAMTS13, and thrombotic thrombocytopenic purpura. Blood, 2008; 112:11-18 https://doi.org/10.1182/blood-2008-02-078170 (27) Völker LA, Kaufeld J, Miesbach W, Brähler S, Reinhardt M, Kühne L, et al. ADAMTS 13 and VWF activities guide individualized caplacizumab treatment in patients with TTP. Blood Advances, 2020; 4: 3093-3101 DOI: 10.1182/bloodadvances.2020001987 (28) Sukumar S, George JN, Cataland SR. Shared decision making thrombotic thrombocytopenic purpura and caplacizumab. The American Society of Hematology, 2020; 95: E76- E77 https://doi.org/10.1002/ajh.25715 (29) Völker LA, Brinkkoetter PT, Knöbl PN, Krstic M, Kaufeld J, Menne J, et al. Treatment of acquired thrombotic thrombocytopenic purpura without plasma exchange in selected patients under caplacizumab. Journal Thrombosis Haemostasis, 2020; 18: 3061-3066 DOI: 10.1111/jth.15045 76 AUTHORS' CONTRIBUTIONS All authors gave final approval of the version to be submitted and any revised version. Victoria FLORESTANO wrote the paper. She made substantial contributions to the conception and design, acquisition of data, and analysis and interpretation of data. Pascale POULLIN made substantial contributions to the conception, design, and analysis of data. She participated in revising publications critically for important intellectual content. Sophie GENSOLLEN made substantial contributions to the conception and design. She participated in revising publications critically for important intellectual content. Manon ROCHE made substantial contributions to the conception and design, the acquisition of data, and the analysis and interpretation of data. She participated in revising publications critically for important intellectual content. Consent to Participate and Consent for Publication Consent to Participate and Consent for Publication are related to the institutional research ethics board authorization. Number: 42W5EA Availability of Data and Materials The datasets generated during the current study are available from the corresponding author on reasonable request. DISCLOSURE OF INTEREST Pascale Poullin is a member of the advisory board for Sanofi. Victoria Florestano, Sophie Gensollen and Manon Roche declare that they have no competing interest. 77 VI. Discussion Les résultats cliniques de notre étude sont concordants avec ceux des études sur le caplacizumab. En effet, dans le groupe CAPLA+, le délai de normalisation du taux de plaquettes était plus rapide. Une différence significative a été montré pour le nombre d'EP (p=0,009) et donc le volume de plasma nécessaire (p=0,021) et la durée d'hospitalisation (p=0,023). Concernant le coût, nous avons vu que le différentiel de coût, pour l'hôpital, n'est pas plus important dans le groupe CAPLA+, au contraire il l'est dans le groupe CAPLA-. En effet, le coût d'hospitalisation est plus élevé mais le caplacizumab était remboursé en sus car en post-ATU au moment de l'étude. Les EP pourraient être une cause de ce différentiel, la poche de plasma de 200 ml coûte en moyenne 100 € et le volume de plasma nécessaire était beaucoup plus important (en moyenne 62 L contre 27 L dans le groupe CAPLA+). Le coût, le remboursement ainsi que le différentiel pour chaque patient est renseigné en annexe dans le Tableau 6. En France, le caplacizumab pourrait apparaitre « rentable » pour l'hôpital car il permet tout de même une économie des ressources (moins de volume de plasma nécessaire, durée d'hospitalisation réduite). Depuis juin 2021, le caplacizumab n'étant plus en post-ATU, il n'est plus remboursé en sus lors des hospitalisations. Le prix du caplacizumab est maintenant d'environ 3 600€. La durée moyenne d'hospitalisation des patients traités par caplacizumab est de 16 jours ce qui représente un coût de 61 200€ de caplacizumab. Ce coût est à mettre en balance avec le fait que les patients qui ne sont pas traités par caplacizumab restent hospitalisés 30 jours en moyenne et ont le double d'EP (6 versus 13 en moyenne). Au coût d'hospitalisation, il faut ajouter le coût du suivi et le coût de la rétrocession du caplacizumab. Le suivi est hebdomadaire jusqu'à la fin du traitement par caplacizumab. 78 Les patients viennent chaque semaine à l'hôpital pour contrôler l'activité ADAMTS 13 et les anticorps anti-ADAMTS 13. Les dosages ne sont pas faits en routine, il y a donc un délai entre l'analyse et le résultat. Il faut prendre également en compte que souvent les patients habitent loin de l'hôpital et peuvent nécessiter un transport par Véhicule Sanitaire Léger (VSL). La rétrocession du caplacizumab se fait par la Pharmacie à Usage Intérieur (PUI). Les dispensations sont également hebdomadaires du fait du coût du traitement, des conditions de conservation (au réfrigérateur), de la taille des boîtes qui peut être difficilement stockable pour le patient et du fait que s'il y a une panne, la perte serait moins importante. Le traitement par caplacizumab pourrait s'avérer également rentable car la rétrocession génère une recette pour l'hôpital. En effet, les médicaments rétrocédés sont remboursés aux hôpitaux sur la base du prix de cession, c'est-à-dire le prix déclaré par les laboratoires au CEPS + la Taxe sur Valeur Ajoutée (TVA) + la marge forfaitaire fixée par ligne de prescription de 22€, pour les médicaments en post-ATU, le prix correspond au prix d'achat. Notre étude présente quelques limites. En effet, le nombre de patients inclus est limité compte tenu du fait que celle-ci soit monocentrique et que la pathologie soit rare. Des erreurs dans le codage des séjours ont été relevées lors du recueil de données. Afin de rester dans le cadre d'une étude de vraie vie, ces erreurs pouvant être délétères pour l'hôpital n'ont pas été corrigées. Les prix ne sont pas les mêmes dans tous les pays et le système de santé est également différent. Dans l'étude de coût de Goshua, le caplacizumab n'apparait pas rentable en première ligne de traitement ($ 8 000 l'injection de caplacizumab aux Etats-Unis ce qui équivaut à 6 800€). Dans un modèle de Markov basé sur les résultats de l'étude TITAN, l'ajout de caplacizumab au traitement standard entraîne un coût du traitement plus élevé que le traitement standard seul (551 878 $ pour le caplacizumab versus 151 947 $). Il y a tout de 79 même une amélioration de l'indicateur QALY avec l'ajout du caplacizumab (3,19 versus 2,92). Dans cette analyse, le Ratio Différentiel Coût-Résultat (RDCR, ICER : Incremental Cost-Effectiveness Ratio en anglais) est de 1 482 260 $ soit nettement plus que le seuil accepté aux Etats-Unis qui est de 195 300 $85. Il est aussi important de prendre en compte que le PTT est une pathologie rare, touchant très peu de patients et que les traitements des maladies orphelines sont très chers. Le but n'est pas de faire des économies sur ces traitements mais d'optimiser leur utilisation tout en prenant en compte le bénéfice pour ces patients qui n'est pas négligeable dans le cas du caplacizumab. Le PTT est une pathologie souvent méconnue et qui touche principalement les femmes qui sont professionnellement actives. L'apparition de la maladie est brutale, et les patients se retrouvent du jour au lendemain en réanimation. Le traitement par caplacizumab a l'avantage de pouvoir être poursuivi à domicile. L'inconvénient est qu'il s'agit d'une injection sous cutanée quotidienne mais le patient peut la faire lui-même ou faire appel à une infirmière libérale. Cet inconvénient est mineur comparé aux effets indésirables associés aux EP et les conséquences d'un long séjour en réanimation. La plasmaphérèse est un long processus médical, les séances durent généralement 3h et ont de fréquents mais mineurs effets indésirables et réversibles à l'arrêt de l'EP (paresthésie, hypotension, ). Les patients ont souvent besoin d'un cathéter veineux central, c'est une procédure invasive qui peut amener à des complications immédiates (pneumothorax, embolie pulmonaire, hémorragie, ) et des complications thrombotiques et même infectieuses39. Les séjours en réanimation sont souvent associés à des états de stress post-traumatiques, et d'autant plus que le séjour est long. Cet état 85 Goshua G, Sinha P, Hendrickson J, Tormey C, Bendapudi P, Lee AI. Cost-effectiveness of caplacizumab in acquired thrombotic thrombocytopenic purpura. Blood, 2021 ; 7 : 969-976 80 de stress peut altérer la qualité de vie des patients dans les mois qui suivent la sortie de réanimation et peut être responsable d'anxiété, cauchemars et dépression86. Le PTT peut être responsable de séquelles assez conséquentes notamment cardiaques (infarctus du myocarde) et neurologiques (AVC) nécessitant une prise en charge supplémentaire de ces complications et altérant la qualité de vie. L'impact du caplacizumab sur le long terme n'est pas encore vraiment connu. Des études de vraie vie seraient nécessaires pour savoir si le caplacizumab par son mécanisme d'action d'inhiber la formation des microthrombi, responsable des ischémies d'organes, pourrait réduire ces séquelles et donc avoir un impact sur l'analyse coût-bénéfice87. La commercialisation de ce médicament est particulièrement rapide est peut-être lié au besoin et à l'intérêt clinique des patients. Le caplacizumab est une thérapie récente et innovante approuvé pour le traitement du PTT en combinaison avec les EP et immunosuppresseurs, ce qui permet d'augmenter la survie des patients, de diminuer les rechutes et les exacerbations ainsi que les ressources hospitalières. Il s'agit d'une molécule onéreuse dont l'usage reste à optimiser. Une des voies d'amélioration serait de réduire la durée d'exposition au médicament en l'arrêtant dès que l'activité d'ADAMTS13 devient détectable à un niveau consensuellement reconnu comme protecteur pour les patients (>20%)88. Cette stratégie personnalisée pourrait réduire la fréquence des effets indésirables, épargner des quantités importantes de caplacizumab, et pourrait s'avérer rentable. Afin de répondre à cette hypothèse, un Programme Hospitalier de Recherche Clinique (PHRC) « Caplavie » a été mis en place. En effet, si le caplacizumab avait été stoppé dès que l'activité 39 Picod A, Provôt F, Coppo P. Therapeutic plasma exchange in thrombotic thrombocytopenic purpura. Presse Médicale 2019 ; 48 : 319-327 86 Bauerheim N, Masseret E, Mercier E, Dequin PF, El-Hage W. Etat de stress post-traumatique après un séjour en réanimation : influence des modalités de sédation. La Presse Médicale 2013 ; 42 : 287-294 87 Chaturvedi S. Counting the cost of caplacizumab. Blood, 2021 ; 137 : 871-872 88 Sadler JE. Von Willebrand factor, ADAMTS13, and thrombotic thrombocytopenic purpura. Blood. 2008 Jul 1;112(1):11-8 81 ADAMTS 13 était supérieure à 20%, 8 des 14 patients auraient pu arrêter le caplacizumab avant la fin de l'hospitalisation. Dans une étude récente allemande, l'activité ADAMTS 13 a été utilisé pour guider la durée de traitement par caplacizumab après arrêt des EP, 58,3% des 60 patients ont arrêté le traitement avant les 30 jours post EP, ce qui représente une économie de 2,49 millions d'euros89. Des études ont montré l'efficacité de l'utilisation du caplacizumab et du rituximab sans EP90, 91 . Pour la plupart des cas, il s'agissait d'une rechute sans sévérité. Une question qui pourrait alors se poser serait, est-ce que le caplacizumab pourrait permettre de ne plus faire d'EP ? Cela serait révolutionnaire pour la prise en charge du PTT. D'autres études sont nécessaires pour identifier les patients qui seraient le plus susceptibles de bénéficier du caplacizumab comme par exemple les patients réfractaires au traitement standard, ou qui présentent des signes cardiaques ou neurologiques prédictifs de mortalité, ou tout simplement les patients en rechute sans signe de sévérité ni de gravité. 89 Völker LA, Brinkkoetter PT, Knöbl PN, et al. Treatment of acquired thrombotic thrombocytopenic purpura without plasma exchange in selected patients under caplacizumab. Journal Thrombosis Haemostasis, 2020 ; 18 : 3061-3066 90 Sukumar S, George JN, Cataland SR. Shared decision making thrombotic thrombocytopenic purpura and caplacizumab. The American Society of Heamtology, 2020 ; 95 : E76-E77 91 Völker LA, Brinkkoetter PT, Knöbl PN, et al. Treatment of acquired thrombotic thrombocytopenic purpura without plasma exchange in selected patients under caplacizumab. Journal Thrombosis Haemostasis, 2020 ; 18 : 3061-3066 82 Conclusion La prise en charge du PTT a largement évolué depuis sa découverte. Le caplacizumab apparaît comme une molécule pouvant être utilisée en première ligne de traitement au même titre que le traitement standard. Un des obstacles principaux reste son coût élevé, d'autant plus qu'il n'a pas été inscrit sur la liste en sus. Dans notre étude, le caplacizumab représente un coût certain pour l'Assurance Maladie avec l'hospitalisation, le suivi et la rétrocession du caplacizumab. Mais pour l'hôpital, il pourrait apparaître « rentable », en fonction de la durée de traitement pendant le séjour, du fait qu'il permet une économie des ressources avec notamment une réduction du nombre d'EP et une diminution de la durée d'hospitalisation et génère en plus une recette par la rétrocession. Il faut prendre en compte également le bénéfice pour le patient, la diminution du risque de rechutes, d'exacerbations, du fait que l'injection de caplacizumab peut être faite à domicile. D'autres études sont nécessaires afin de mettre en avant l'économie de ressources générée grâce au caplacizumab et notamment son impact sur les séquelles mais également des études sur l'optimisation de son utilisation afin de réduire la durée de traitement ou son utilisation seule sans EP. De nouvelles perspectives de traitement sont en cours d'étude, avec notamment le développement d'un ADAMTS 13 recombinant. 83 Annexes 84 CAPLA + Code Patients GHS Coût (€) CAPLA - Différentiel Total (Coût – Code remboursement Patients Remboursement) GHS (€) (€) Coût (€) Différentiel Total (Coût – remboursement Remboursement) (€) (€) 1 6189 98 588 97 312 -1 276 1 3070 28 843 20 923 -7 920 2 6189 91 385 90 626 -758 2 3069 96 446 60 524 -35 922 3 196 149 531 160 910 11 379 3 6193 11 370 12 462 1 092 4 3070 89 035 91 357 2 321 4 3070 105 844 61 810 -44 035 5 6189 124 612 123 000 -1 613 5 3070 43 689 32 514 -11 174 6 3069 61 665 59 883 -1 781 6 7075 / 3068 41 801 30 392 -11 409 7 6188 95 062 90 356 -4 706 7 3069 31 249 27 959 -3 290 8 6183 72 097 67 767 -4 330 8 6190 89 965 70 583 -19 382 9 3071 20 959 181 929 -21 029 9 3069 21 373 15 778 -5 595 10 3069 61 316 61 443 127 10 3070 25 725 21 653 -4 072 11 3069 90 654 83 925 -6 729 11 3069 24 522 19 235 -5 287 12 3069 72 744 71 029 -1 716 13 3069 59 482 60 516 1 034 14 3069 56 764 65 386 8 622 Tableau 6 : Récapitulatif des codes GHS, coûts et remboursements 85 SERMENT DE GALIEN Je jure, en présence de mes maîtres de la Faculté, des conseillers de l'Ordre des pharmaciens et de mes condisciples :  D'honorer ceux qui m'ont instruit dans les préceptes de mon art et de leur témoigner ma reconnaissance en restant fidèle à leur enseignement.  D'exercer, dans l'intérêt de la santé publique, ma profession avec conscience et de respecter non seulement la législation en vigueur, mais aussi les règles de l'honneur, de la probité et du désintéressement.  De ne jamais oublier ma responsabilité et mes devoirs envers le malade et sa dignité humaine, de respecter le secret professionnel.  En aucun cas, je ne consentirai à utiliser mes connaissances et mon état pour corrompre les moeurs et favoriser des actes criminels. Que les hommes m'accordent leur estime si je suis fidèle à mes promesses. Que je sois couvert d'opprobre, méprisé de mes confrères, si j'y manque. Université d'Aix-Marseille – Faculté de Pharmacie – 27 bd Jean Moulin – CS 30064 - 13385 Marseille cedex 05 - France Tél. : +33 (0)4 91 83 55 00 - Fax : +33 (0)4 91 80 26 12
{'path': '53/dumas.ccsd.cnrs.fr-dumas-03551628-document.txt'}
Apprendre à se questionner pour construire ses gestes professionnels : jeux traditionnels en EPS en maternelle Martin Anceaume To cite this version: Martin Anceaume. Apprendre à se questionner pour construire ses gestes professionnels : jeux traditionnels en EPS en maternelle. Education. 2016. dumas-01366884 HAL Id: dumas-01366884 https://dumas.ccsd.cnrs.fr/dumas-01366884 Submitted on 15 Sep 2016 Année universitaire 2015-2016 Master Métiers de l'enseignement, de l'éducation et de la formation Mention Premier degré Apprendre à se questionner pour construire ses gestes professionnels Jeux traditionnels en EPS en Maternelle Présenté par Martin Anceaume Première partie rédigée en collaboration avec Romain Jennequin Mémoire de M2 encadré par Christine Bertola Attestation de non-plagiat Je soussigné Martin Anceaume Auteur du mémoire de master 2 MEEF-PE Apprendre à se questionner pour construire ses gestes professionnels. Jeux traditionnels en EPS en Maternelle. déclare sur l'honneur que ce mémoire est le fruit d'un travail personnel, que je n'ai ni contrefait, ni falsifié, ni copié tout ou partie de l'oeuvre d'autrui afin de la faire passer pour mienne. Toutes les sources d'information utilisées et les citations d'auteur ont été mentionnées conformément aux usages en vigueur. Je suis conscient que le fait de ne pas citer une source ou de ne pas la citer clairement et complètement est constitutif de plagiat, que le plagiat est considéré comme une faute grave au sein de l'Université, pouvant être sévèrement sanctionnée par la loi. Fait à Saint-Gervais les Bains, le 16 mai 2016. Signature de l'étudiant: Autorisation de diffusion électronique d'un mémoire de Master 2 MEEF dans la base DUMAS1 ----------------------------------------------------------------------------------------------------------------- Autorisation de l'étudiant Je soussigné Martin Anceaume auteur et signataire du mémoire de niveau Master 2, intitulé : Apprendre à se questionner pour construire ses gestes professionnels. Jeux traditionnels en EPS en Maternelle. ,agissant en l'absence de toute contrainte, Autorise le Service Interétablissement de Documentation de l'Université Grenoble Alpes-Grenoble INP à le diffuser, sans limitation de temps, sur la base DUMAS en texte intégral.  Je certifie la conformité de la version électronique déposée avec l'exemplaire imprimé remis au jury.  Je m'engage à signaler les documents pour lesquels je ne détiens pas les droits de reproduction et de représentation ou les autorisations afférentes. Ces documents devront être masqués ou retirés de la version diffusée sur la base DUMAS par les auteurs.  La présente autorisation de diffusion n'a pas de caractère exclusif. L'auteur conserve par conséquent toutes les possibilités de cession de ses droits et de diffusion concomitante de son mémoire.  Je renonce à toute rémunération pour la diffusion effectuée dans les conditions précisées cidessus.  Conformément à la loi « informatiques et libertés » du 6 janvier 1978, modifiée en 2004, je pourrai à tout moment modifier cette autorisation de diffusion par simple lettre ou courriel à la BUPE : membupe@univ-grenoble-alpes.fr Fait à Saint Gervais les Bains , le 16 mai 2016. Signature de l'étudiant, Précédée de la mention « bon pour accord » Bon pour accord, 1 La base DUMAS (Dépôt Universitaire des Mémoires Après Soutenance) est en accès libre à l'adresse : http://dumas.ccsd.cnrs.fr/ NB : le mémoire sera diffusé sur Dumas si la note obtenue pour l'écrit est supérieure ou égale à 16/20 et si l'auteur et le responsable de mémoire en donnent l'autorisation 2 Entourer la mention choisie Table des matières 1. Partie théorique: introduction, état de l'art et problématique1 1.1. Introduction1 1.2. État de l'art. 2 1.2.1. Un peu d'histoire: de l'industrialisation à l'ergologie2 1.2.2. Qu'est ce que travailler?3 1.2.2.1. Travail prescrit vs travail réel3 1.2.2.2. « Travailler n'est pas exécuter »4 1.2.2.3. « Travailler, c'est échouer »5 1.2.2.4. « Travailler, c'est tricher »5 1.2.2.5. « Travailler c'est être discret »7 1.2.3. Du prescrit au réel, la constitution des savoirs dans l'action7 1.2.3.1. « E, A, S, R, U et I »: les six composantes du signe hexadique7 1.2.3.2. La constitution des savoirs: 6ème composante d'une structure hexadique8 1.3. Problématique9 1.4. L'EPS en maternelle: travail prescrit de l'enseignant9 1.4.1. Enseigner l'EPS en maternelle: instructions officielles et culture commune9 1.4.2. Les jeux traditionnels en maternelle: un travail prescrit par les programmes11 1.4.3. Des prescriptions pour tous, mais pas tous avec les mêmes préoccupations12 1.5. Hypothèses12 2. Méthode. 13 2.1. Participants14 2.2. Matériel14 2.3. Procédure: un entretien en autoconfrontation simple14 2.3.1. Recueil de données15 2.3.2. Présentation des résultats15 3. Résultats17 3.1. Complexité de la tâche et des difficultés à se représenter les rôles pour les élèves17 3.2. Passation de consigne du jeu de la situation de référence18 3.3. Simplification des attentes de la situation de référence19 3.4. Amir: reformulation de la consigne et démonstration20 3.5. Élisa: un manque d'implication dans la tâche21 3.6. Owen ou le non respect des consignes22 4. Discussion23 4.1. La complexité de la tâche comme inducteur du respect des règles23 4.1.1. Simplification des attentes suite au constat d'une tâche non adaptée24 4.1.2. Le contrôle comme préoccupation essentielle de l'enseignent débutant24 4.1.3. Conclusion sur le thème de la complexité de la tâche26 4.2. La complexité de la tâche: à l'origine d'un manque d'implication27 4.3. La passation de consignes: déterminant d'une bonne compréhension de la tâche29 4.3.1. L'attitude de l'enseignant comme inducteur d'une bonne transmission29 4.3.2. Des rôles qui donnent du sens à l'activité: quelle représentation pour l'élève ?30 4.3.3. Reformulation et démonstration de l'élève: composantes de la consigne?30 4.3.4. Conclusion sur le thème des consignes33 5. Conclusion33 6. Bibliographie34 7. Présentation des annexes-17.1. Fiche de préparation de séquence-17.2. Fiche de préparation de séance-27.3. Modèle d'autorisation de filmer distribué aux parents-37.4. Verbatim de l'entretien en autoconfrontation-4- 1. Partie théorique: introduction, état de l'art et problématique. 1.1. Introduction. Fréquemment, l'enseignant débutant se trouve dérouté, désarçonné suite à une séance en classe n'ayant pas fonctionné comme prévu. Cela peut devenir source de remises en cause de sa pratique, de ses croyances et parfois même jusqu'à sa légitimité provoquant ainsi une perte de confiance et un mal-être plus ou moins conséquent chez l'enseignant. C'est l'expression « comme prévu », pouvant être entendue dans le langage courant de tout enseignant qui attire notre attention dans cette étude. On remarque qu'il y a très souvent un écart entre ce que l'enseignant avait prévu de faire et de faire faire à ses élèves et ce qui s'est réellement passé. A travers l'analyse de cet écart, nous essayons, avec ce mémoire, de comprendre la manière dont l'enseignant débutant peut construire ses gestes professionnels. Nous examinerons ce que les chercheurs ont pu écrire sur cette question: comment expliquer et analyser cette distorsion entre conception et réalisation qui opère dans chaque métier ? Des concepts d'ergologie, de psychologie y seront décrits. Puis, nous nous intéresserons plus particulièrement au cadre de l'Education Physique et Sportive en Maternelle puisque c'est à partir de séances d'EPS dans nos classes de Petite et de Petite/Moyenne Section que nous essaierons de répondre à la problématique. Rainer Maria Rilke disait : « Efforcez-vous d'aimer vos questions []. Ne cherchez pas pour le moment des réponses qui ne peuvent vous être apportées parce que vous ne sauriez pas les vivre. Ne vivez pour l'instant que vos questions. Peut-être simplement en les vivant, finirezvous par entrer insensiblement un jour dans les réponses. »1. Cette réflexion a motivé l'objectif et la méthode de notre mémoire. Afin de dépasser le constat du « ça n'a pas marché », l'enseignant doit tenter non pas de trouver instantanément une issue à ses doutes mais plutôt de les « vivre » et ainsi d'obtenir une sorte de réflexe de questionnement. Pour cela, nous proposons une méthode d'entretien en autoconfrontation avec un tiers expérimenté. Celui-ci permettra de relever et d'analyser ses gestes professionnels à partir d'une vidéo le filmant durant une séance d'Education Physique et Sportive avec ses élèves. Ainsi, il revient sur ce qui le marque, relève bien souvent ce qui ne lui a pas plu dans sa manière d'agir et par conséquent se questionne sur sa pratique de manière plus détaillée. Dans un second temps, l'enseignant mettra en parallèle ses questionnements apparus lors de la séance avec ceux soulevés lors de l'entretien afin de construire ses gestes professionnels. Ceux-ci seront présentés dans une partie « Résultats » et discutés entre les deux auteurs de ce mémoire. 1 Rilke, R.M. s.d. Lettres à un jeune poète. La Bibliothèque électronique du Québec. 1 1.2. État de l'art. 1.2.1. Un peu d'histoire: de l'industrialisation à l'ergologie. États-Unis, 1898: Une équipe charge dans des wagons des gueuses de fonte. Chaque ouvrier prend une gueuse, pesant 40 kg chacune, avance sur un pan incliné qui conduit au wagon et jette sa charge dans le fond. Au bout de sa journée, il en a ainsi transporté treize tonnes. Un monsieur s'approche de l'un des ouvriers, un petit Hollandais []. - Vous gagnez un dollar quinze par jour, je crois, dit le monsieur. [] Voulez-vous gagner désormais un dollar quatre-vingt-cinq? - Que faudra-t-il faire? - C'est tout simple. Quelqu'un viendra demain et vous ferez exactement ce qu'il vous dira toute la journée. Quand il vous dira de prendre une gueuse et de la transporter, vous le ferez. Sans discuter. Un bon ouvrier fait ce qu'on lui dit et ne discute pas. Le lendemain, les choses se passent exactement ainsi. Le petit Hollandais se met au travail. Toute la journée, l'homme qui se trouve auprès de lui, avec un chronomètre, lui dit: maintenant ramassez une gueuse et transportez la; maintenant asseyez-vous et reposez-vous Travaillez Reposez-vous. Le petit Hollandais obéit sans discuter. A cinq heures et demie, après avoir manipulé cinquante tonnes de gueuses au lieu de treize, le petit Hollandais touchait en effet soixante-dix cents de plus qu'à son habitude. 1 C'est dans son livre intitulé « The principles of scientific management », publié en 1911, que l'ingénieur américain Frederick Winslow Taylor (1856-1915) rapporte cette anecdote. Dans un contexte d'essor de l'industrialisation, il se fait remarquer en proposant une « Organisation Scientifique du Travail », définissant les critères permettant la production de masse avec un maximum de rendement. Le taylorisme est né. Parmi ces critères, la division du travail entre conception (analyse des techniques de production) et exécution (application de la meilleure façon de produire) fait la distinction entre les « cols blancs », ingénieurs, et les « cols bleus », ouvriers. Alors que le taylorisme révèle rapidement certaines limites, pouvant aller de la perte de motivation aux troubles musculo-squelettiques, une nouvelle discipline se met en place: « l'ergonomie ». Ayant pour objectif « l'étude scientifique de la relation entre l'homme et ses moyens, méthodes et milieux de travail 2» et l'application de ces connaissances à la conception de systèmes « qui puissent être utilisés avec le maximum de confort, de sécurité et d'efficacité par le plus grand nombre 3», cette discipline soulève la question d'une plus grande considération de l'humain au coeur de l'activité de travail. Avec les années, elle s'enrichit de 1 Taylor (1911). Cité dans Wikipédia, rubrique «Taylorisme». Repéré à https://fr.wikipedia.org/wiki/Taylorisme 2 Extrait de la définition adoptée par le IVème Congrès international d'ergonomie (1969). 3 Extrait de la définition de l'ergonomie retenue par la Société d'Ergonomie de la Langue Française. Sources 2 et 3 repérées à https://fr.wikipedia.org/wiki/Ergonomie 2 nouvelles pratiques, mises en oeuvre par de multiples acteurs (ingénieurs, psychologues, ). Malgré le souci apporté au bien-être de l'humain dans son contexte de travail, l'ergonomie n'aura servi qu'a définir des règles, si bien adaptées soient-elles. Europe, 2016: Les grandes transformations technologiques et mondialisées qui reconfigurent aujourd'hui les formes du travail humain ne doivent pas faire oublier les questionnements et affirmations souvent péremptoires du début des années quatrevingt. La mise en cause larvée ou ouverte des organisations tayloriennes de travail lors des événements de 1968 en Europe devait conduire la décennie suivante à rechercher des alternatives partielles, []. Dans les faits, le «paradigme» de l'«organisation scientifique du travail» n'a pas été abandonné, mais il ne pouvait plus être un idéal affirmé de gouvernement du travail. (Vatin, 2006, en ligne) C'est à Yves Schwartz, professeur à l'université de Provence, que l'on doit le terme d'ergologie, reconstruit dans son acception moderne : « sa conception d'une philosophie du travail engagée dans l'action ergonomique remonte au début des années 1980, mais ce n'est que dix ans plus tard qu'il la désigne sous le terme d'ergologie » (Vatin, 2006, en ligne). Par la notion d'« approche ergologique », Schwartz désigne « une attitude philosophique attentive à l'activité humaine in presentia » (Vatin, 2006, en ligne). Si l'ergonomie participe de la définition des règles au travail, l'ergologie se concentre plutôt sur l'adaptation de l'humain à ces règles. Étudier le travail serait alors le moyen de comprendre comment on travaille. 1.2.2. Qu'est ce que travailler? Pour répondre à cette question, il nous faut tout d'abord faire la distinction entre deux éléments: le travail prescrit et le travail réel. 1.2.2.1. Travail prescrit vs travail réel. Le travail prescrit est littéralement le travail qui est demandé au sujet. Celui-ci doit être fait en respectant plusieurs normes. Ces normes, de plusieurs types, expriment ce qui est attendu des décisionnaires et dictent l'activité de celui qui exécute une tâche. Les lois, par définition, ne doivent pas être transgressées. Elles sont généralement fixées par des textes officiels tels que le code du travail. Les règlements sont écrits et soumis à celui qui exécute la tâche, le plus 3 souvent par les membres des bureaux des méthodes. Ces règlements définissent les consignes, que l'exécutant doit respecter, pour effectuer son travail. Ils représentent une organisation formelle du travail permettant de prescrire les consignes afin que les ouvriers n'aient plus qu' à exécuter la tâche (Taylor, 1911). À ces lois et règlements viennent s'ajouter les « normes antécédentes », définies comme telles par Schwartz: « il y a toute une série de normes antécédentes, bien plus large qu'une simple énumération de procédures. En quelque sorte, les normes antécédentes, c'est ce qui préexiste avant qu'on entre soi-même dans un lieu de travail, indépendamment de soi, de la personne » (2008, p. 13). Il décrit ici le lieu de travail comme un endroit où existent une multitude de normes antécédentes, comme les normes du groupe. D'après lui, ces normes peuvent être des manières de faire, des règles communes élaborées à partir de l'activité de travail mais qui diffèrent des règlements car elles ne sont pas écrites. Elles représentent une organisation informelle du travail. Le travail prescrit traduit cette idée d'une utilisation de soi par les autres, dans le sens où il se définit comme l'exécution pure et simple des prescriptions. Or, toujours selon Schwartz, « le travail n'est jamais pure exécution » (2008, p.10). 1.2.2.2. « Travailler n'est pas exécuter ». Dans le cadre de son étude sur « les facteurs sociaux en ergonomie » en 1970, Wisner étudie un modèle de travail taylorien (Schwartz & Mencacci, 2008). Il s'agit d'un travail à la chaîne où des résistances devaient être fixées dans les orifices prévus en un temps imparti. Malgré l'aspect prédictif de cette tâche, Wisner observe des réorganisations par rapport à ce qui avait été prescrit par le bureau des méthodes (Schwartz & Mencacci, 2008). Il y aurait donc un écart entre le travail prescrit et le travail réel de celui qui exécute la tâche. Selon Schwartz , « il y a toujours quelque chose de l'ordre de cet écart entre ce qui est anticipé, y compris par nous-même, et ce qui est produit quand on se met à faire ce qu'il a été décidé de faire. Le travail n'est jamais pure exécution » (2008, p.10). S'il considère cet écart irréductible comme une règle universelle, il pense cependant qu'il n'est cependant «jamais entièrement anticipable » (2008, p.10) et reste propre à chacun. D'après Schwartz, le travail correspond à une « espèce d' ambiguïté entre usage de soi par soi 4 et usage de soi par les autres. [] Si le travail n'était qu'exécution, comme on le pensait, s'il n'était qu'usage de soi par les autres, le schéma du travail prescrit ne différerait pas du travail réellement accompli » (2008, p.11). Pourquoi cet écart entre le prescrit et le réel? Pourquoi, alors même que les responsables des bureaux des méthodes planifient les actions les mieux appropriées afin d'effectuer une tâche, les exécutants dérivent-ils du travail prescrit pour une « utilisation du soi par soi »? 1.2.2.3. « Travailler, c'est échouer ». Selon Dejours , « le réel se fait toujours connaître au sujet par sa résistance aux procédures, aux savoir-faire, à la technique, à la connaissance, c'est à dire par la mise en échec de la maîtrise. Travailler, c'est échouer » (2003, p.14). Schwartz parle de « trous de normes » (2008, p.11). Les caractéristiques propres à chacun, selon que nous sommes plus ou moins performants par rapport à la tâche à réaliser, induisent des écarts par rapport aux normes. Si les sujets exécutaient les consignes à la lettre, cela ne fonctionnerait pas car celles-ci sont insuffisantes. En effet, d'après Dejours, « la caractéristique majeur du « travailler » c'est que, même si le travail est bien conçu, si l'organisation du travail est rigoureuse, si les consignes et les procédures sont claires, il est impossible d'atteindre la qualité en respectant scrupuleusement les prescriptions » (2003, p.13). C'est donc par l'échec que le réel se fait connaître au sujet, entraînant de multiples sentiments affectifs comme la colère, le sentiment d'impuissance, la déception. C'est toujours affectivement que le réel du monde se révèle au sujet (Dejours, 2003). 1.2.2.4. « Travailler, c'est tricher ». Dejours souligne le paradoxe lié à cette situation: « pour bien faire, il faut se mettre en infraction » (2003, p.16). En effet, si les normes ne suffisent plus, soit parce qu'elles ne sont pas adaptées à la situation ou soit parce qu'elles sont insuffisantes, travailler suppose de s'écarter des prescriptions et d'utiliser d'autres chemins. Selon Dejours, « Comme ces prescriptions ont en général un caractère normatif, bien travailler c'est toujours faire des infractions » (2003, p.15). Il ajoute que « respecter scrupuleusement les prescriptions, ce n'est 5 rien d'autre que faire la grève du zèle, et la production s'arrête. Travailler, au contraire, c'est faire du zèle; en l'occurrence, c'est chercher les ajustements des prescriptions qui impliquent souvent des tricheries » (2003, page 17). Dans ce contexte, les trous de normes peuvent alors devenir angoissants, non seulement par la mise en échec qu'ils provoquent pour le sujet, mais aussi par le fait que celui-ci doit alors se positionner en infraction. Schwartz parle de « dramatique d'usage de soi » (2008, p.12) pour évoquer cette mise en échec et les conséquences qui en découlent. Dans leur proposition de « vocabulaire ergologique », Durrive et Schwartz décrivent le processus de cette dramatique: A l'origine, un drame -individuel ou collectif- a lieu quand des événements surviennent, rompant les rythmes des séquences habituelles, anticipables, de la vie. D'où nécessité de réagir, de traiter ces événements, ce qui en même temps produit d'autres événements, donc transforme le rapport avec le milieu et les personnes. La situation est alors matrice de variabilité, matrice d'histoire parce qu'elle engendre de l'autrement du fait des choix à faire pour traiter les événements. L'activité apparaît alors comme une tension, une dramatique. (Durrive et Schwartz, 2001, en ligne) Ces choix à faire pour traiter les événements font alors l'objet d'un travail d'interprétation de la part du sujet. Selon Schwartz, «Il y a interprétation des normes. C'est à dire que chacun doit réinterpréter les normes, et renormaliser – se donner à soi-même des normes – qui intègrent les normes incontournables » (2008, p. 12). Cette interprétation donne lieu à un débat de normes, ayant pour objectif de maintenir l'équilibre entre l'usage de soi par les autres et l'usage de soi par soi. Ce débat de normes est un arbitrage: C'est comment moi, aujourd'hui, j'arbitre entre usage de soi par les autres - les normes antécédentes - , et puis sous quelle forme je pourrais les faire miennes, les réajuster, c'est l'usage de soi par soi. C'est par l'intermédiaire de l'usage de soi par soi qu'on débouche sur des renormalisations. (Schwartz, 2008, p.13) Travailler est donc un équilibre entre l'usage de soi par soi et par les autres. Si la renormalisation des prescriptions fait partie de l'exécution de la tâche, elle nécessite de « faire du zèle », en ce sens où l'on s'écarte alors des prescriptions pour se mettre en infraction. 6 1.2.2.5. « Travailler c'est être discret ». Les statuts accordés à ces renormalisations peuvent être multiples, suivant que l'encadrement soit bien ou mal intentionné, mais ils dépendront avant tout de la fin heureuse ou non de l'événement en cours. Dans le cas où cet arbitrage rend possible une fin heureuse, on parlera de sens de l'initiative et de savoir- faire. Ces renormalisations pourront alors obtenir le statut de « ficelles de métier », après avis du collectif de travail. Parfois même, elles donneront naissances à de nouvelles normes, récupérées et imposées par les bureaux d'études, qui deviendront à leur tour des normes antécédentes. Dans le cas contraire, en cas d'incident, la volonté de bien faire du sujet sera remise en cause, et on parlera alors de manquement aux règlements ou aux prescriptions. Sachant cela, il va sans dire que celui qui n'a pas renoncé à bien travailler doit continuer à faire du zèle, mais à l'abri du regard de la hiérarchie, parfois même de ses collègues (Dejours, 2003). Pour pouvoir être intelligent dans son travail, il faut savoir faire preuve de discrétion. Au-delà, [] celui qui veut pouvoir continuer à aimer son travail devra apprendre à cacher ses ficelles et à cultiver le secret. Enfin, [], il arrive que l'on soit obligé de passer de la discrétion au secret, et enfin à la clandestinité. (Dejours, 2003, p.17) 1.2.3. Du prescrit au réel, la constitution des savoirs dans l'action. Il est admis que travailler suppose une renormalisation du travail prescrit pour arriver au travail réel. Cette renormalisation induit des « gestes professionnels ». Selon Bucheton et Soulé, « le choix du terme geste traduit l'idée que l'action [] est toujours adressée et inscrite dans des codes. Un geste est une action [] inscrite dans une culture partagée » (2009a, p.3233). Il est intéressant d'analyser les éléments qui constituent ce processus de renormalisation. Pour cela, Theureau met en avant la notion de « signe hexadique », qui a pour objectif de « décrire la constitution des savoirs dans l'action d'un acteur à un instant donné » (2010, p.2 ). Selon lui, la notion de signe hexadique relie entre elles « six composantes essentielles [] qui constituent le coeur d'une phénoménologie de l'activité humaine, [] et qui constitue une description abstraite de l'expérience d'un acteur à un instant donné, ou encore de sa conscience pré réflexive » (2010, p.5). 1.2.3.1. « E, A, S, R, U et I »: les six composantes du signe hexadique. Theureau définit les six composantes du signe hexadique (2010, p. 6 et 7) : 7 - E : Engagement dans la situation : [] c'est la résultante du faisceau de préoccupations immanentes à l'activité de l'acteur à un instant donné découlant de son cours d'action passé. [] - A : Structure d'anticipation : ce qui, compte tenu de E, est attendu par l'acteur dans sa situation dynamique à un instant donné, à la suite de son cours d'action passé. [] - S : Référentiel : les types, relations entre types et principes d'interprétation appartenant à la culture de l'acteur qu'il peut mobiliser compte tenu de E et A à un instant donné. [] - R : Representamen : ce qui, à un instant donné, fait effectivement signe pour l'acteur, associé à une spécification de E [] = choc (c'est-à-dire un écart radical relativement aux attentes A). [] - U : Unité élémentaire du cours d'action : fraction de cours d'action. Elle est produite grâce aux éléments du Référentiel (S) (types, relations entre types et principes d'interprétation) effectivement mobilisés à un instant donné [], en relation avec une interprétation hypothétique. [] Elle est associée à une transformation de A en A'. [] - I : Interprétant : transformation de S accompagnant l'achèvement de U. [] (Theureau, 2010, p.6-7) Selon Theureau, « L' hypothèse globale traduite par cette notion de signe hexadique est qu'une unité (U) du cours d'action [] a pour structure sous-jacente une pentade Engagement dans la situation (E) – Structure d'anticipation (A) – Référentiel (S) – Representamen (R) – Interprétant (I) ainsi construite » (2010, p. 7). Il ajoute que « ces relations [] sont dyadiques (entre E et A, entre U et R et entre U et A) ou triadiques (entre E, A et S et entre I, S et U) » (2010, p. 8). 1.2.3.2. La constitution des savoirs: 6 ème composante d'une structure hexadique. La constitution des savoirs dans l'action d'un acteur à un instant donné (que nous appellerons « T ») se définit comme la sixième composante d'une structure hexadique, elle-même comprenant l'Unité du cours d'action de l'acteur à cet instant comme cinquième composante (Theureau, 2010). Cette sixième composante, l'interprétant (I), représente la conscience réflexive de l'acteur. Cette réflexion a pour objectif la mise en mémoire des choses qui fonctionnent. Elle se traduit par la transformation du référentiel (S) à l'instant « T », en un nouveau référentiel (S ') à l'instant « T ' » Ainsi, la composante « Interprétant » donne lieu à apprentissage: La notion d'interprétant traduit l'idée d'une part que l'action s'accompagne toujours de quelque apprentissage ou développement ou découverte, d'autre part que ces derniers sont toujours situés dynamiquement. D'où la nécessité de se donner les moyens méthodologiques de recueil de données et d'analyse pour préciser quel apprentissage ou développement – ou quelle découverte – est en jeu dans un cours d'action donné, aussi routinier qu'il soit ou apparaisse. (Theureau, 2010, p.12) 8 Selon Theureau, « l'ordre dans lequel sont présentés les six éléments qui composent le signe hexadique compte : A suppose E ; S suppose E et A ; R suppose S, A et E ; etc. » (2010, p.7). U suppose R, S, A et E ; I suppose U, R, S, A et E. (Theureau, 2010) 1.3. Problématique. Si des métiers dont le caractère « prescrit » comme le travail à la chaîne peuvent donner lieu à des renormalisations, il semble intéressant de transposer ces connaissances à un milieu moins figé et plus dynamique car traitant de l'« humain » : l'enseignement. Cette étude a pour objectif de comprendre la manière dont l'enseignant débutant peut construire ses gestes professionnels. Pour cela, nous proposons d'analyser deux séances de jeux traditionnels en EPS, dispensées par deux Professeurs des Écoles Stagiaire (PES) en petite et/ou moyenne section. Celles-ci seront filmées et lors d'un entretien en autoconfrontation avec un tiers expérimenté, chaque enseignant utilisera le support vidéo de sa séance. Dans un premier temps, il s'agira d'analyser les gestes professionnels ayant pour origine un processus de renormalisation de la part de l'enseignant à un instant « T ». Cette analyse doit permettre de répondre à la question : cet agir peut-il participer à la constitution de ses savoirs ? Dans un second temps, les éléments pris en compte lors de entretien en autoconfrontation (« T ' »), doivent permettre de répondre à la question : quel peut être l'écart entre l'apprentissage à l'instant « T » d'une situation et l'apprentissage après la visualisation de cette même situation pendant l'entretien (« T '»)? Le but étant pour l'enseignant débutant d'en tirer des bénéfices dans le cadre de sa formation. 1.4. L'EPS en maternelle: travail prescrit de l'enseignant. Pour percevoir cet éventuel écart entre le « travail prescrit » et le « travail réel » de l'enseignant, il semble nécessaire de décrire les normes inhérentes à la profession. Ces normes ont été citées précédemment sous les notions de « lois », « règlements » et « culture commune ». S'agissant des enseignants, nous parleront de « lois », « d'instructions officielles », de « programmes », de « culture commune » et de « croyances ». Ces normes constituent le référentiel disponible pour l'enseignant le jour de sa prestation en d'EPS. 9 1.4.1. Enseigner l'EPS en maternelle: instructions officielles et culture commune. Les programmes d'enseignement présentent l'école maternelle comme « un cycle unique, fondamental pour la réussite de tous » (Ministère de l'Education Nationale, 2015, en ligne). La mission principale de l'école maternelle est de donner envie aux enfants d'aller à l'école pour apprendre, affirmer et épanouir leur personnalité (MEN, 2013, en ligne). Elle doit être une école qui : « -S'adapte aux jeunes enfants et tient compte de leur développement [] -Organise des modalités spécifiques d'apprentissage, selon lesquelles les élèves apprennent en jouant, en réfléchissant et en résolvant des problèmes, en s'exerçant, en se remémorant et en mémorisant [] -Permette aux enfants d'apprendre ensemble et de vivre ensemble, de comprendre la fonction de l'école, de se construire comme personne singulière au sein d'un groupe » (MEN, 2015, traduction libre). Ces programmes nous recommandent de traiter ce cycle de l'école maternelle de manière spécifique. D'après Pontais, « l'école maternelle, c'est l'école des petits, et par conséquent une école où l'approche de l'enfant se veut essentiellement globale, corporelle, affective et sociale » (2002, en ligne). Ainsi, les traditions pédagogiques de la maternelle proviennent de théories pédagogiques qui ont centré leurs discours sur le fait que l'enfant porte en lui tous les éléments nécessaires à son développement (Pontais, 2002). Dans ce cadre, le bien-être, la découverte et l'exploration, la réussite et le plaisir sont les bases de l'enseignement. Ces théories et « traditions » applicables à l'école maternelle sont aussi valables pour l'EPS. Elles marquent les pratiques et donnent lieu à une pédagogie où le maître s'efface, fait confiance à la seule confrontation entre l'enfant et le milieu, pourvu que celui-ci soit riche (Pontais, 2002). Si l'objectif est de permettre à chacun de se construire soi-même en se servant du côté ludique comme source de motivation, la construction d'un cadre de jeu ne peut se suffire à elle-même et la médiation doit intervenir. L'enjeu est de permettre à l'enfant de comprendre qu'il existe des normes inhérentes à l'activité elle-même (Bautier, 2002). Ces normes sont souvent l'objet d'une première prise de conscience de la part de l'élève que c'est une autre personne, ou une règle, qui décide de la validité ou de la qualité de sa prestation. Au sein de l'école, l'activité ou le jeu devient un objet d'apprentissage, contrairement à celui ou celle qui ne s'y déroule pas. Ainsi, Bautier pense que « si pour les élèves jeunes, apprendre c'est faire et faire c'est apprendre, il ne faut pas limiter le « apprendre à faire ». Il faut identifier les objectifs de ces différents « faire » en terme d'objet d'apprentissage et établir des critères d'apprentissage pour que l'enfant se situe dans l'apprentissage » (2002, p. 7). « Au bout du compte, l'élève doit pouvoir mettre en relation : à quoi je joue ? Pourquoi je joue ? Comment je dois m'y prendre pour mieux jouer ? » (Pontais, 2002, en ligne). 10 1.4.2. Les jeux traditionnels en maternelle: un travail prescrit par les programmes. Les jeux traditionnels en maternelle relèvent du domaine « Agir, s'exprimer, comprendre à travers l'activité physique ». Voici ce qui est prescrit concernant la composante « Agir dans l'espace, dans la durée et sur les objets »: En agissant sur et avec des objets de tailles, de formes ou de poids différents (balles, ballons, sacs de graines, anneaux), l'enfant en expérimente les propriétés, découvre des utilisations possibles (lancer, attraper, faire rouler), essaie de reproduire un effet qu'il a obtenu au hasard des tâtonnements. Il progresse dans la perception et l'anticipation de la trajectoire d'un objet dans l'espace qui sont, même après l'âge de cinq ans, encore difficiles. (MEN, 2015, p.12) Concernant la composante « Collaborer, coopérer, s'opposer »: Pour le jeune enfant, l'école est le plus souvent le lieu d'une première découverte des jeux moteurs vécus en collectif. La fonction de ce collectif, l'appropriation de différents modes d'organisation, le partage du matériel et la compréhension des rôles nécessitent des apprentissages. Les règles communes (délimitations de l'espace, but du jeu, droits et interdits ) sont une des conditions du plaisir de jouer, dans le respect des autres. Pour les plus jeunes, l'atteinte d'un but commun se fait tout d'abord par l'association d'actions réalisées en parallèle, sans réelle coordination. Il s'agit, dans les formes de jeu les plus simples, de comprendre et de s'approprier un seul rôle. L'exercice de rôles différents instaure les premières collaborations (vider une zone des objets qui s'y trouvent, collaborer afin de les échanger, les transporter, les ranger dans un autre camp). Puis, sont proposées des situations dans lesquelles existe un réel antagonisme des intentions (dérober des objets, poursuivre des joueurs pour les attraper, s'échapper pour les éviter) ou une réversibilité des statuts des joueurs (si le chat touche la souris, celle-ci devient chat à sa place). D'autres situations ludiques permettent aux plus grands d'entrer au contact du corps de l'autre, d'apprendre à le respecter et d'explorer des actions en relation avec des intentions de coopération ou d'opposition spécifiques (saisir, soulever, pousser, tirer, immobiliser). Que ce soit dans ces jeux à deux ou dans des jeux de groupe, tous peuvent utilement s'approprier des rôles sociaux variés : arbitre, observateur, responsable de la marque ou de la durée du jeu. (MEN, 2015, p.12-13) De manière plus formelle, voici ce qui est attendu des enfants en fin d'école maternelle, concernant le domaine et les composantes retenues: Courir, sauter, lancer de différentes façons, dans des espaces et avec des matériels variés, dans un but précis. - Ajuster et enchaîner ses actions et ses déplacements en fonction d'obstacles à franchir ou de la trajectoire d'objet sur lesquels agir. Coopérer, exercer des rôles différents complémentaires, s'opposer, élaborer des stratégies pour viser un but ou un effet commun. (MEN, 2015, p.13) Ces éléments sont pris en compte pour l'élaboration de la fiche de séquence (cf : annexe 1, p. -1-) et de la fiche de préparation de séance (cf : annexe 2, p. -2-). 11 1.4.3. Des prescriptions pour tous, mais pas tous avec les mêmes préoccupations. Si les différents éléments et acteurs prescriptifs du travail de l'enseignant lui permettent de maintenir un cap sur les objectifs visés et compétences à atteindre pour les élèves, les compétences à mettre en oeuvre pour arriver à ses fins restent complexes et multiples. A l'image d'un apprenti conducteur ayant une multitude d'informations à traiter, le professeur des école stagiaire, débutant, se voit confronté dans ses débuts à des préoccupations souvent différentes de celles de l'enseignant expert. L'activité des enseignants est organisée de façon hiérarchique, selon cinq variables : - La variable « ordre » concerne les préoccupations des enseignants quant au contrôle des élèves et au suivi des règles de vie et de travail ; - La variable « participation » correspond aux préoccupations relatives à l'engagement des élèves dans les tâches scolaires ; - La variable « travail » correspond aux préoccupations de voir les élèves déployer une activité conforme à un réel travail ; - La variable « apprentissages » correspond aux préoccupations de dépasser le caractère immédiat de l'engagement des élèves dans un travail et d'évaluer ses effets à terme, et non les performances ou les comportements ici et maintenant []; - La variable « développement » correspond aux préoccupations des enseignants d'apprécier l'activité des élèves selon une visée éducative à long terme []. (Durand, 1996, cité dans une communication personnelle) Cette organisation hiérarchique des préoccupations professionnelles est définie par une relation d'inclusion (Durand, 1996, cité dans une communication personnelle). En effet, pour pouvoir se préoccuper de la participation des élèves, il faut d'abord avoir été confronté au cadre de la variable « ordre » puis avoir réussi à le dépasser. L'aboutissement de l'activité de l'enseignant se révèle être la préoccupation des apprentissages et du développement sur le long terme. L'enseignant débutant, par son manque d'expérience, a souvent des difficultés à voir plus loin que le contrôle de l'ordre et de l'ambiance de travail (Durand, 1996, cité dans communication personnelle). 1.5. Hypothèses. L'analyse de la construction des gestes professionnels de l'enseignant débutant doit être abordée à la lumière de ces informations. Ainsi, la méthode mise en place doit donc vérifier l'hypothèse de ce modèle hiérarchisé des préoccupations des enseignants (Durand, 1996, cité dans une communication personnelle), selon laquelle l'enseignant débutant se situerait plutôt sur des préoccupations de contrôle et/ou de participation. 12 2. Méthode. Dans un premier temps, la méthode mise en place a pour objectif d' analyser les gestes professionnels de l'enseignant débutant afin de comprendre dans quelle mesure ces derniers peuvent participer à la constitution des ses savoirs. Le pari empirique de cette notion de signe hexadique est de décrire la constitution des savoirs dans l'action d'un acteur à un instant donné [que nous appellerons « T »] comme la sixième composante d'une structure hexadique, comprenant comme cinquième composante l'Unité du cours d'action de cet acteur à cet instant. Par définition, cette dernière constitue une fraction de son activité qui est significative pour cet acteur à cet instant, c'est-à-dire qui donne lieu pour lui à expérience, c'est-à-dire encore qui est pré-réflexive, c'est-à-dire enfin qui est montrable, racontable et commentable par cet acteur immédiatement après son accomplissement à un observateur-interlocuteur moyennant des conditions matérielles et sociales favorables d'observation et d'interlocution. (Theureau, 2010, p. 2). Il s'agit donc dans un premier temps d'observer/filmer l'acteur en action à l'instant « T ». Lors de l'entretien en autoconfrontation, celui-ci devra s'arrêter sur une fraction du cours d'action qui est significative pour lui afin de la développer. Pour cela des conditions favorables d'observations et d'interlocution doivent être créées. Il est nécessaire que le chercheur soit « un guide externe à une relation hiérarchique » (Archenoult, 2002 cité dans Beckers et Leroy, 2010, p.3), afin d'éviter les comportements défensifs et/ou un phénomène de désirabilité sociale, un discours d'auto justification plutôt qu'un discours sur l'expérience propre (Beckers et Leroy, 2010). La notion de signe hexadique fait l'hypothèse du caractère fractal de l'activité humaine donnant lieu à l'expérience. [] [Si] la concaténation de signes hexadiques engendre une description fractale d'un cours d'action donné, [] elle est au moins censée en caractériser un aspect important, à la fois empiriquement et pratiquement. (Theureau, 2010, p. 6) Mais si cette méthode utilise la notion de signe hexadique empruntée à Theureau pour analyser les gestes professionnels de l'enseignant à l'instant « T », elle s'inscrit dans une démarche plus globale de formation en incorporant un élément supplémentaire: le Representamen à l'instant « T ' ». Celui-ci permet à l'enseignant de prendre en compte des éléments dont il n'aurait pas eu conscience à l'instant « T ». Sa réflexion, ainsi que l'élaboration du nouveau référentiel qui en découle s'en trouvent modifiés. 13 2.1. Participants. Les auteurs de ce mémoire sont deux professeurs des écoles stagiaires : Martin Anceaume et Romain Jennequin. Martin Anceaume est enseignant à l'école Chef-Lieu à Passy (74). Dans sa classe de Petite et Moyenne Section (PMS), il y a 14 élèves de Petite Section (PS) et 10 élèves de Moyenne Section (MS). Lors du tournage de la vidéo, il y avait 18 élèves pour faire la séance d'EPS proposée. Romain Jennequin est enseignant à l'école François Buloz à SaintJulien-en-Genevois (74). Sur les 26 élèves de sa classe, 20 étaient présents le jour de la vidéo. La séance s'est déroulée sous forme de co-intervention avec l'ATSEM. Pour chaque moitié de séance, l'activité de l'enseignant s'est déroulée avec un groupe de 10 élèves. Les auteurs ont été assisté de leur maître de mémoire, Christine Bertola. Enseignante à l'ESPE de Bonneville, elle s'est investie du rôle d'observatrice-interlocutrice lors de l'entretien en autoconfrontation pour les deux enseignants. C'est elle qui a filmé Martin. Romain a été filmé par Stéphanie Massa, sa Professeur des Écoles Maître Formatrice (PEMF). 2.2. Matériel. Le support de notre analyse est une séance qui dure entre 35 et 45 minutes en EPS. Les deux auteurs ont été filmés chacun dans leur école. Chacune des deux séances commence à l'entrée dans la salle de motricité des classes de PS et de PS-MS et se termine au départ des élèves. Le choix de passer par le biais d'une vidéo permettra un retour brut dénué de toute interprétation sur l'activité de l'enseignant, ce qui aurait pu arriver s'il avait fallu se baser sur la prise de notes d'un intervenant extérieur (Beckers et Leroy, 2010). Les séances ont été filmées à l'aide d'une caméra sur pied, principalement en plans larges de la classe avec le PES comme sujet principal. L'activité du PES ainsi que l'activité des élèves ont été filmées. La place de la caméra n'étais pas figée, de manière à obtenir les plans les plus précis possibles de l'enseignant et à filmer toujours les différents protagonistes de la séance, surtout lors des dialogues entre le PES et le groupe mais aussi entre le PES et les élèves individuellement. 2.3. Procédure: un entretien en autoconfrontation simple. « L'autoconfrontation simple » se définit comme étant la réunion d'un chercheur spécialiste et d'un sujet devant un média qu'est la vidéo afin de faire revivre l'action passée au sujet (Clot, Faïta, Fernandez & Scheller, 2000). Cette autoconfrontation permet au sujet de verbaliser sa pensée dans l'action (instant « T ») et ex situ (lors du visionnage, à « T ' »), afin d'analyser son action. Ceci se fera grâce au chercheur qui incitera le sujet à mettre en mots les actes qui 14 relèvent de sa conscience pré réflexive : ce qui est non-observable (Beckers et Leroy, 2010). L'autoconfrontation a pour but de faire prendre conscience au sujet de ces différentes strates de la mise en action de la pensée. Il ne s'agit pas de mobiliser la situation passée comme un objet figé mais de « la faire revivre » (Clot et al., 2010), c'est-à-dire l'appréhender dans un mouvement dynamique comme un filtre colorant la situation présente ou future. Finalement, comme le disent Clot et al., « l'expérience passée est ainsi promue au rang de moyen pour vivre la situation présente ou future » (2010, p.6). Cette dernière phrase se révèle être la pierre angulaire de notre travail car c'est bien pour des « situations futures » que nous conduisons cette réflexion. Les deux PES visionnent une première fois seuls le film de leur séance dans un délai relativement court de manière à garder en mémoire les sentiments et les émotions in situ. Les deux séances se sont déroulées durant le mois de janvier 2016. Ils choisissent trois extraits qui sont les plus marquants pour eux. Ce seront les Unités du Cours d'Action (UCA) qui seront détaillées plus tard dans ce mémoire. Lors d'un entretien individuel d'autoconfrontation avec Mme Bertola, les deux PES reviennent sur des situations choisies préalablement et développent sous forme d'un dialogue ce qui leur semble important. Plus tard, ils sélectionneront chacun trois UCA et les développeront dans ce mémoire. Selon Beckers et Leroy, il y a plusieurs choses qui peuvent motiver un sujet à relever un passage de la vidéo: « la description de l'action, la description de la pensée dans l'action, la description des informations perçues grâce à la vidéo qui n'avaient pas été identifiées dans l'action, l'analyse de l'activité (l'action et la pensée dans l'action) ainsi mise-à-jour, et la recherche d'alternatives » (2010, p.3). Cet entretien d'auto-confrontation est filmé de manière à voir les deux acteurs ainsi que le film qu'ils visionnent. 2.3.1. Recueil de données. Cet entretien est retranscrit sous forme de verbatim par chacun des 2 PES (cf: annexe 4, p. -4-). Il permet la mise en parallèle des faits observés pendant le temps de classe ( T ) et les observations et retours sur la séance pendant le temps d'autoconfrontation ( T ' ). 2.3.2. Présentation des résultats. La mise en page retenue pour la présentation des résultats est exposée ci-dessous. Elle est accompagnée des explications permettant de comprendre le traitement des informations. 1/ Unité du Cours d'Action (UCA). Cette unité est nommée, au regard du thème évoqué par la situation. Afin de respecter l'anonymat, les prénoms des élèves ont été modifiés. Elle fait référence à un passage du verbatim qui a fait sens au stagiaire lors de sa visualisation vidéo. « Qui a fait sens » pour le stagiaire sous-entend ici qu'il y a eu un écart entre le travail prescrit et le travail réel. L'UCA est donc le support ayant permis l'analyse de cet écart entre le 15 prescrit et le réel. Le choix des UCA retenues et analysées a été fait de manière raisonnée par le stagiaire concerné, au regard de la problématique et des hypothèses soulevées par ce mémoire. a) Description de la situation. Afin de comprendre la situation, les faits sont relatés à l'instant « T-1 » (cours d'action passé), puis de manière précise à l'instant « T » (unité élémentaire du cours d'action (U), fraction du cours d'action faisant sens pour l'acteur). b) Extrait d'entretien. L'extrait de l'entretien concernant l'UCA est référé à l'annexe 4. c) Présentation des résultats. Les données recueillies sont classées dans le tableau suivant. Les termes employés entre guillemets sont empruntés à Theureau (cf. 1.2.3.1., p.7). Ils permettent l'analyse des gestes professionnels de l'enseignant à l'instant « T ». T = temps de l'unité élémentaire (U) T ' = temps de l'entretien Engagement dans la situation (E) (Préoccupations) « C'est la résultante du faisceau de préoccupations immanentes à l'activité de l'acteur à un instant donné découlant de son cours d'action passé » Structure d'anticipation (A) (Attentes) « Ce qui, compte tenu de E, est attendu par l'acteur dans sa situation dynamique à un instant donné » Référentiel (S) « Les types, relations entre types et principes d'interprétation appartenant à la culture de l'acteur qu'il peut mobiliser compte tenu de E et A à un instant donné » Il s'agit du nouveau référentiel (S'), suite à la conscience réflexive de l'acteur (Interprétant). C'est l'objectif final : constitution des savoirs, construction des gestes professionnels. Representamen (R) « Ce qui, à un instant donné, fait effectivement signe pour l'acteur, associé à une spécification de E [] = choc (c'est-à-dire un écart radical relativement aux attentes A) » Ce qui, à l'instant « T ' », fait effectivement signe pour l'acteur, associé à une préoccupation différente de l'instant « T »: « prendre conscience ». Unité élémentaire du cours d'action (U) « Fraction de cours d'action. Elle est produite grâce aux éléments du Référentiel (S) (types, relations entre types et principes d'interprétation) effectivement mobilisés à un instant donné [], en relation avec une interprétation hypothétique » Interprétant (I) « Transformation de S accompagnant l'achèvement de U » Ce processus de transformation représente la conscience réflexive de l'acteur. Elle a pour objectif la mise en mémoire des choses qui fonctionnent et se traduit par la transformation du référentiel (S) à l'instant « T », en un nouveau référentiel (S') à l'instant « T ' ». Cette réflexion se base sur les éléments du Representamen à l'instant « T », auxquels sont associés dans le cadre de ce mémoire les éléments du Representamen à l'instant « T ' ». Cette conscience réflexive de l'acteur (Interprétant) est donc associée à la discussion des résultats, ayant ellemême participé de la transformation du référentiel. 16 3. Résultats. 3.1. Complexité de la tâche et des difficultés à se représenter les rôles pour les élèves. a) UCA 1, Martin. Le jeu de la situation de découverte : un jeu difficile (2 rôles réversibles) et des détails comptant pour l'appropriation d'un jeu (nommer le jeu, donner des rôles qui font sens) qui entraînent de difficultés à réaliser la tâche demandée. b) Se reporter à l'annexe 4 (mémoire Martin) de la page -4- (l.41) à la page -8- (l.26) c) Présentation des résultats. T T' Engagement dans la situation (E) (Préoccupations) -Que les enfants restent avec leur trio. -Que les lancers soient propres et qu'il n'y ait pas des balles dans tous les sens. -Qu'ils soient investis dans le jeu Structure d'anticipation (A) (Attentes) -Qu'ils comprennent la logique « attaquant-défenseur » -Qu'ils comprennent et appliquent la réversibilité des rôles Référentiel (S) -Jeu simple qui permet d'amener la -Nécessité de théâtraliser ce jeu, situation de référence avec des avec des rôles, des situations qui règles plus complexes. soient plus adaptées pour des maternelles. -Le jeu ne m'aura pas aidé pour amener la situation de référence Representamen (R) -Tout le monde n'a pas compris les règles du jeu : les joueurs sont mal placés, sortent des cerceaux. -Les balles s'éparpillent. Les lancers deviennent de plus en plus brouillons. -Élèves posent des questions, c'est très brouillon Unité élémentaire du cours d'action (U) -Arrêt du jeu pour refaire une explication Interprétant (I) -Le jeu proposé n'a pas motivé les élèves à la hauteur de mes attentes. Ils se sont réappropriés la situation et le rôle de l'élève du milieu a été transformé en quelque chose de plus amusant pour eux. -Le jeu n'a pas été très utile pour amener la situation de référence : peu de liens et la technique proposée lors de la verbalisation a été peu appliquée. 17 -Le rôle du joueur du milieu qui intercepte la balle n'est pas bien compris. Il a été réadapté par la plupart des élèves (laissent passer la balle sous les jambes) -Pas d'explicitation du pourquoi du rassemblement. Élèves ne savent pas qu'on se rassemble pour réexpliquer et pour mieux jouer. 3.2. Passation de consigne du jeu de la situation de référence. a) UCA 2, Martin. Passation de consigne du jeu de la situation de référence : l'importance de ses modalités (ordre des consignes, dispositions spatiales, regroupement des élèves pour capter leur attention) b) Se reporter à l'annexe 4 (mémoire Martin), page -8- (l.28 à l.69) c) Présentation des résultats. T T' Engagement dans la situation (E) (Préoccupations) -Que les élèves comprennent bien la consigne pour entrer dans le jeu -Que le matériel soit prêt et que la consigne soit efficace -Que le jeu soit mis en place pour qu'ils puissent visualiser facilement Structure d'anticipation (A) (Attentes) -Qu'ils soient pleinement concentrés (attentifs, yeux et oreilles tournées vers moi) et ce rapidement. -Que la consigne soit rapide Référentiel (S) -Élèves assis, attentifs, sans distractions pour qu'ils entendent toute la consigne et ce dans un temps limité pour les élèves de PS. -Matériel déjà disposé et terrain balisé aident à la compréhension d'un jeu. -Consigne et jeu complexes donc besoin de toute l'attention des élèves -Il est préférable que les élèves soient déjà en activité lors d'une passation de consigne -Le matériel doit être mis en place au préalable ou bien pouvoir être installé plus rapidement -La mise en action du maître ou des élèves va capter l'attention Representamen (R) -Des élèves ne sont pas assis, sont parfois trop éloignés pour se sentir impliqués. -Des élèves touchent le matériel servant à baliser le terrain pendant que je suis en train de parler. -Élèves touchent au rideau. D'autres se disputent. -Niveau sonore élevé -Énervement sur le fait qu'ils ne soient pas attentifs alors que je n'ai pas encore vraiment commencé l'explication du nouveau jeu. -Quand je lance l'explication (1'30 plus tard), les élèves sont à l'écoute Unité élémentaire du cours d'action (U) -Gestes d'énervement successifs : -Retirer une partie du balisage (bande jaune) -Élévation de la voix -Sanctions et menaces de sanctions. Interprétant (I) -Réfléchir à une introduction progressive des consignes et des différents rôles. Cela permettrait de faire des consignes plus courtes (avec des élèves plus actifs) et de les faire assimiler aux élèves plus facilement. -Le lancement d'un nouveau jeu relativement complexe au bout de 30 minutes de séance est compliqué pour des petits. -La mise en action (la théâtralisation) de l'enseignant ou des élèves permet de capter plus facilement l'attention de tous 18 3.3. Simplification des attentes de la situation de référence. a) UCA 3, Martin. Simplification des attentes de la situation de référence : Quels sont les facteurs entraînant l'enseignant débutant à simplifier ses attentes ? De quelle manière le fait-il et dans quel but ? b) Se reporter à l'annexe 4 (mémoire Martin) de la page -8- (l.96) à la page -10- (l.33) c) Présentation des résultats. T T' Engagement dans la situation (E) (Préoccupations) -Qu'on ait le temps de faire une partie de la situation de référence. -Que les élèves soient encore en l'état d'intégrer et de comprendre un nouveau jeu après 30' d'activité. -Que les élèves soient impliqués et motivés. Structure d'anticipation (A) (Attentes) -Qu'ils aient compris la règle du jeu : les différents rôles, les espaces, comment on gagne. -Qu'ils aient compris ce que j'attends d'eux → mettre en pratique, dans ce nouveau jeu, les techniques utilisées au jeu précédent. Référentiel (S) -Les techniques et gestes utilisés lors du jeu précédent vont permettre d'introduire le jeu de référence car celui-ci est dans la continuité. -Situation proposée devrait être motivante pour les élèves. -Le jeu intervient tard dans la séance à cause de la situation de découverte qui a duré trop longtemps. -Règles du jeu doivent être introduites progressivement. -Matériel installé en amont (dossards déjà enfilés) Representamen (R) -Consigne longue et peu claire : Confusion, je ne finis pas mes phrases. -Jeu difficile : rôles différents, plusieurs espaces délimités. -Seule la consigne de la délimitation des 3 espaces me paraît claire -Mise en place longue (constitution des équipes, dossards) -La référence à un jeu précédent perturbe la compréhension des élèves. -L'installation est encore plus longue que ce que j'avais perçu en temps T (7') -La délimitation de l'espace est comprise par les élèves Unité élémentaire du cours d'action (U) -Je change mes objectifs initiaux : au lieu de comprendre tous les rôles et les différentes stratégies, je souhaite juste qu'ils comprennent la disposition spatiale. Je simplifie mes attentes et positive : Cela sera plus facile le lendemain. Interprétant (I) -Il est difficile d'introduire un nouveau jeu après 30 minutes d'activité chez des jeunes enfants. Qui plus est, si ce jeu est complexe et contient beaucoup de règles. -Quand il y a beaucoup de règles et qu'elles sont complexes (rôles d'attaquant et de défenseurs), il est préférable de les introduire progressivement pendant le jeu. -La situation de découverte, trop longue et peu motivante n'a pas aidé les élèves à mieux s'approprier la situation de référence qui elle était plus motivante. 19 3.4. Amir: reformulation de la consigne et démonstration. a) UCA 4, Romain. Je choisis Amir car il semblait le seul à avoir très bien réalisé la tâche auparavant. En difficulté avec la langue française, il ne comprend pas ce que je lui demande. Je dois donc lui montrer ce que j'attends de lui à travers des mimes. b) Se reporter à l'annexe 4 (mémoire Romain), de la page -5- (l. 26) à la page -6- (l.17). c) Présentation des résultats. T T' Engagement dans la situation (E) (Préoccupations) -Je veux qu'Amir explique et fasse la démonstration de l'action à réaliser. -Volonté que les élèves s'identifient à Amir, de créer ainsi une motivation. -Volonté que les élèves comprennent bien la tâche. Structure d'anticipation (A) (Attentes) -Amir doit reformuler la consigne. -Puis, il doit se placer entre les lignes jaune et rouge et s'opposer à Julie: il doit tenter de l'empêcher de tirer sur les quilles, en la gênant et/ ou en interceptant la balle. Référentiel (S) - Communication personnelle: après passation de consigne, importance de la reformulation par un élève pour voir s'il a bien compris. -Importance de la démonstration faite par un élève pour aider le groupe classe à s'identifier. -Le choix de l'élève doit être pertinent et anticipé. Ne pas se servir d'élèves allophones pour des démonstrations qui doivent être accompagnées de verbalisations. -Importance de présenter un exemple de tâche correctement réalisée. La démonstration doit être faite par le maître en premier lieu. Representamen -Amir n'est pas capable de verbaliser (R) la consigne en français. -Amir ne comprend pas ce qu'il doit montrer, même s'il sait le faire. -Il franchit la ligne rouge et se dirige vers la caisse à ballons. -La zone « défenseurs » est trop grande et offre la possibilité de plusieurs consignes: gêner/ s'opposer au niveau de la ligne rouge, ou intercepter au milieu de la zone. Amir ne sait pas où se placer. Unité Unité élémentaire du cours d'action (U) -Je passe sur la verbalisation, transformation des attentes. -Je me place avec lui en opposition à Julie. Elle fait rouler une balle que je rejette. En mimant l'action à réaliser, j'espère qu'Amir va comprendre ce qu'il doit faire. Interprétant (I) -Le choix d'Amir n'a pas été judicieux, car il ne parle et ne comprend pas assez bien le français. -Règle trop floue: la zone « défenseurs », comprise entre deux lignes, offre deux possibilités deux tâches différentes: gêner/ s'opposer ou intercepter. 20 3.5. Élisa: un manque d'implication dans la tâche. a) UCA 5, Romain. Le jeu est commencé depuis environ une minute. Tous les élèves semblent impliqués dans la tâche, sauf Elisa qui est complètement perdue. Pour l'aider, je lui prends les mains dans l'intention de faire avec elle, puis finalement je fais à sa place. b) Se reporter à l'annexe 4 (mémoire Romain), page -8- (l. 27 à 35). c) Présentation des résultats. T T' Engagement dans la situation (E) (Préoccupations) -Le jeu est lancé, je souhaite que tous les élèves soient impliqués dans la tâche et participent en proposant de véritables essais d'actions. Structure d'anticipation (A) (Attentes) -Attente de comportements en corrélations avec les consignes. -Volonté de voir une réelle opposition des défenseurs, qui doivent gêner les attaquants. -Volonté de voir une réelle intention d'intercepter une balle de la part des défenseurs. Référentiel (S) -Placement des défenseurs sur la trajectoire des attaquants en cas d'opposition, ou sur la trajectoire de la balle en cas de volonté d'interception. -Référentiel = différentes sources informationnelles concernant le jeu de l'île aux trésors en petite section. -Proposer un type de jeux adapté au cycle 1: jeu en fusion. -Le maître peut prendre le rôle de l'opposant dans un premier temps puis le proposer à quelques élèves. -Pour l'apprentissage d'une tâche d'anticipation-coïncidence, adapter la situation au niveau des élèves. Representamen (R) -Aucune action de la part d'Élisa, elle est complètement perdue et reste immobile au milieu des défenseurs. -Depuis le début de la partie, Élisa n'a pas bougé. Elle observe le jeu qui se déroule sans être capable de s'approprier son rôle. Unité élémentaire du cours d'action (U) -Je me rapproche d'Élisa. -Je l'encourage, me met à sa hauteur et lui prend les deux mains pour mimer une défense. Je joue un moment avec elle de cette manière. Interprétant (I) -Type de jeu trop complexe: il s'agit d'un jeu de droits et devoirs différents, plutôt adapté pour le cycle 2. -Tâche trop complexe: une tâche d'anticipation-coïncidence comme celleci doit être adaptée à cette tranche d'âge. Offrir une possibilité de traitement de l'information plus longue: augmenter les distances, proposer des objets à intercepter plus volumineux. -Ne pas additionner ces deux contraintes dans un même exercice. 21 3.6. Owen ou le non respect des consignes. a) UCA 6, Romain. Le jeu semble bien se dérouler, mis à part la non participation d'Elisa et quelques difficultés. Lorsque je tourne la tête, j'aperçois Owen, qui est attaquant, qui remet sur pied deux quilles de la zone cible. Il se place à deux mètres (dans le camp des défenseurs) pour essayer de les faire tomber. Je saisis Owen pour le ramener dans son camp et replace les quilles à terre pour réinstaurer une situation juste en terme de résultat. b) Se référer à l'annexe 4 (mémoire Romain), de la page -8- (l.36) à la page -9- (l. 33). c) Présentation des résultats. T T' Engagement dans la situation (E) (Préoccupations) -Le jeu est lancé, je souhaite que les élèves soient impliqués dans la tâche et proposent de véritables essais d'actions. -Volonté que les élèves respectent les consignes. Structure d'anticipation (A) (Attentes) -Les attaquants doivent viser les quilles et tirer depuis leur camp, en restant derrière la ligne rouge. -Ils doivent se démarquer, pour éviter les défenseurs si besoin. Référentiel (S) -Dans un jeu ou sport collectif ayant pour objectif d'énoncer un résultat (score, vainqueur), les joueurs doivent respecter les règles. -Il ne doit pas y avoir de remise en question de l'enseignant qui dicte les règles. -Nécessité de proposer une tâche de complexité adaptée aux élèves. Lors d'une tâche de complexité évolutive, ne pas hésiter à faire évoluer le dispositif du jeu (ici la distance de tir). Representamen (R) -Owen franchit la ligne rouge. -Il remet sur pied deux quilles qui étaient tombées, puis se place à deux mètres (dans la zone « défenseurs ») pour viser et essayer de les faire tomber. -Owen franchit la ligne et vient se placer devant la seule quille qui reste debout. Il la vise et la loupe. Il se remet donc deux quilles supplémentaires pour essayer de les viser à deux mètres. -Avec une seule quille debout, la tâche semble trop difficile à réaliser depuis le camp des attaquants. Unité élémentaire du cours d'action (U) -Lorsque je vois Owen, je le prend et le remet sur le chemin de son camp, celui des attaquants. -Je remets à terre les deux quilles dans le soucis de pouvoir compter le score à la fin de la manche. Interprétant (I) -Au fur et à mesure du jeu, la tâche est devenue de plus en plus complexe. -Elle est passée d'une action de lancer presque hasardeux avec une grande probabilité de réussite à une action de visée très complexe. 22 4. Discussion. Dans un premier temps, nous analyserons les gestes professionnels à l'origine du processus de renormalisation induits par les écarts entre le travail prescrit et le travail réel. Cette analyse doit permettre de répondre à la question : cet agir peut-il participer de la constitution des savoirs de l'enseignant ? Puis, il s'agit de comprendre comment l'intégralité de la démarche mise en place pour cette étude peut participer de la constitution des savoirs et de la construction des gestes professionnels de l'enseignant débutant. Par « intégralité » de cette démarche, nous entendons la prise en compte du Representamen à « T ' », permettant une prise de conscience différée et associée deux préoccupations propres à l'entretien : prendre conscience du comportement de l'enseignant à l'instant « T » et aborder cette prise de conscience en lien avec une théorie didactique et pédagogique adaptée à la situation. Nous choisissons d'aborder cette discussion suivant plusieurs thématiques, ayant pour origines nos diverses préoccupations à l'instant « T ». Ces thèmes sont : la complexité de la tâche comme inducteur du respect des règles – L'engagement des élèves dans la tâche – La passation de consignes comme déterminant d'une bonne compréhension de la tâche. Alors que la constitution des savoirs dans l'action se construit à partir de l'interprétant (Theureau, 2010), il a semblé nécessaire de prendre en compte quelques éléments de la littérature scientifique, ayant permis d'apporter une réponse aux questions soulevées par la prise en compte du Representamen à « T ' ». Ainsi, nous choisissons de développer chaque thème comme suit : a) Bref rappel de la situation ; b) Analyse des gestes professionnels de l'enseignant à l'instant « T » ; c) Prise en compte du Representamen à « T ' », et mise en lien avec les quelques éléments de la littérature scientifique en vue de l'élaboration d'un nouveau référentiel. 4.1. La complexité de la tâche comme inducteur du respect des règles. La renormalisation de la part des élèves et donc un non respect des consignes semble être la conséquence d'une tâche qui s'avère trop complexe. Nous remarquons que face à ces renormalisations, nos réactions ont été différentes. L'attitude de l'enseignant, à l'instant « T », s'est en partie déterminée selon s'il a eu conscience ou non que la complexité de la tâche était adaptée à ses élèves. 23 4.1.1. Simplification des attentes suite au constat d'une tâche non adaptée. a) Lors de cette situation (cf : 3.3, p. 19), les attentes de l'enseignant étaient que les élèves puissent mettre en application les techniques abordées antérieurement durant un exercice lors de la séance. b) La première réponse à cette renormalisation par les élèves a été la simplification des attentes de l'enseignant suite à une prise de conscience de la difficulté des élèves face à cette activité. Cette simplification se fait suite à la passation de consignes où il se rend compte au travers d'une consigne longue et confuse (Representamen) du degré important de complexité de la tâche pour des élèves de Petite et Moyenne Section : 2 rôles différents, plusieurs espaces de jeu, tâche d'anticipation-coïncidence mobilisant une prise d'information importante. (cf: annexe 1, p. -1- et annexe 2, p. -2-). À la fin de la consigne, intervient l'Unité Elémentaire du Cours d'Action où l'enseignant se rend compte que la consigne la plus claire et adaptée était la délimitation des trois espaces sur le terrain (zone du milieu + zones périphériques), par conséquent, il remet en question ses attentes initiales (compréhension des rôles, application des stratégies). Celles-ci sont simplifiées et à partir de ce moment-là, l'enseignant n'en a plus qu'une : compréhension et familiarisation avec la délimitation du terrain. c) On voit ainsi par quels processus il a modifié ses gestes professionnels. Ainsi, on peut penser que cette nouvelle attente donnant lieu à une nouvelle UCA a amené l'enseignant vers de nouvelles préoccupations (Cette simplification est-elle adaptée aux élèves ? Sera-t-elle pénalisante pour la suite de la séquence ?). Les élèves, en renormalisant le jeu à leur manière tout en respectant la consigne du terrain ont confirmé l'enseignant dans ses nouvelles préoccupations. Par ailleurs, il s'agit ici, en montrant cette UCA « double », de soulever une des limites de notre démarche : les tableaux d'analyses proposés dans le but d'élaborer un nouveau référentiel sont-ils suffisants pour affirmer la pertinence de celui-ci ? 4.1.2. Le contrôle comme préoccupation essentielle de l'enseignent débutant. a) A l'instant où l'enseignant est lui-même engagé dans l'action, la consigne passée auparavant semble être comprise par tous. Chaque élève participe, en respectant le rôle qui lui a été attribué. Dans ce schéma qui semble se dérouler de manière convenable, un élève se fait tout à coup remarquer, à la manière d'un individu perturbateur. Le petit Owen, pourtant attaquant, vient de franchir la ligne rouge, abandonnant son camp pour pénétrer dans la zone où sont placées les cibles. Il récupère deux quilles au sol, qu'il remet sur pied, puis se place à deux 24 mètres à peine, dans le camp des défenseurs, pour tenter de les faire tomber. Par cette action, l'élève transgresse les règles du jeu. Sans attendre, l'enseignant intervient pour ramener l'élève dans son camp, puis remet à terre les deux quilles pour restituer l'ordre. Le jeu poursuit son cours, après ce bref retour à la norme. b) Cette action de l'élève aurait pu questionner l'enseignant sur les motivations profondes d'une telle transgression. Cependant, à cet instant « T », ses préoccupations premières étaient orientées sur le respect des règles. Le retour à la norme sans autre discussion a semblé être la seule réponse possible. Nous vérifions ici l'hypothèse selon laquelle la variable « ordre » (cf. 1.4.3., p. 12) semble être la préoccupation dominante pour un enseignant débutant. Cela est du moins vrai pour cette situation. Cette préoccupation relative au contrôle des élèves et au respect des règles a induit chez l'enseignant son positionnement sous forme de « tour de contrôle »: Cette posture de contrôle vise à mettre en place un certain cadrage de la situation: par un pilotage serré de l'avancée des tâches, l'enseignant cherche à faire avancer tout le groupe en synchronie. Les gestes d'évaluations constants ramènent à l'enseignant placé en «tour de contrôle», la médiation de toute les interactions des élèves (Bucheton, 2009a, p.40). Cette posture de contrôle, propre à l'enseignant débutant dans ses préoccupations de maintien de l'ordre et de la discipline, n'a donc laissé à l'élève en infraction aucune chance d'exercer son talent, ni de renormaliser la situation à ses capacités propres du moment. Réagissant presque à la manière d'un automate, il est passé à côté d'une question de la plus haute importance. Pourquoi? c) Le visionnage de la vidéo et l'étude du Representamen à « T ' » a permis à l'enseignant de prendre en compte un élément essentiel permettant de répondre à cette question, dont il n'avait pas conscience à l'instant « T »: l'évolution de la complexité de la tâche au cours du temps. Ce qui au départ pouvait se révéler comme étant une tâche de lancer plus ou moins hasardeuse dans une direction pour avoir une chance de réussite, est rapidement devenue une tâche de visée dont la précision n'a fait que s'amplifier, jusqu'à devenir réellement complexe. C'est pourquoi, une fois la tâche devenue trop complexe, le petit Owen, plein de bonne volonté pour participer, s'est mis en infraction pour réaliser la tâche. A la manière de l'ouvrier ou de l'enseignant se plaçant en infraction, il a lui-même renormalisé les consignes, afin de combler les trous de normes pouvant exister et ainsi ne pas faire la grève du zèle (cf: 1.2.2.4., p. 5). C'est ainsi qu'il a pu les faire siennes et les adapter à ses capacités du moment, lui permettant de continuer à jouer. 25 Si la réponse de l'enseignant lui semble pour le moins inévitable dans un premier temps, il sera intéressant à l'avenir de prendre quelques secondes de recul afin d'éviter toute réponse précipitée, en décalage avec une réelle difficulté de la part des élèves. Dans cette situation, il aurait été tout simplement intéressant, soit de remettre quelques quilles pour que les élèves puissent continuer à jouer, soit d'arrêter le jeu un instant afin de rapprocher la zone des attaquants. Nous espérons que cette situation puisse aider à l'élaboration d'un nouveau référentiel, permettant de passer de cette préoccupation première d' « ordre » à une préoccupation de « travail », incluant une réelle réflexion et un plus haut niveau de conscience professionnelle dans la résolution de conflits de ce genre. 4.1.3. Conclusion sur le thème de la complexité de la tâche. Au même titre que nous effectuons un travail de renormalisation dans notre travail d'enseignant, les élèves eux-mêmes font ce travail de renormalisation des consignes, adaptant le niveau de complexité de la tâche à leurs capacités propres du moment. Ainsi, tout comme il existe un décalage entre le prescrit d'une situation et le réel de celle-ci pour l'enseignant, il existe aussi un décalage entre la vision de la tâche par l'enseignant et la vision de la tâche par les élèves. Le prescrit de l'enseignant n'est pas le réel des élèves. Cette renormalisation des élèves, se traduisant par le non respect de certaines règles, peut parfois être ressentie par l'enseignant comme une mise à l'épreuve de sa légitimité. Dans un contexte où les préoccupations principales de l'enseignant débutant sont orientées sur le contrôle de la classe (Ria, 2011), les élèves dont la participation nécessite une renormalisation des consignes et donc une transgression des règles peuvent parfois être perçus par l'enseignant comme des individus perturbateurs, sources d'inconfort pour celui-ci. Car en effet, le réel se fait toujours connaître par un effet de surprise désagréable, c'est-à-dire sur un mode affectif (Dejours, 2003). Sans toutefois parler de comportements pouvant aller jusqu'à la dépression, cela peut être source de réactions le plus souvent négatives, voire désabusées et entraîner des discours du type : « de toute façon, celui-ci il n'écoute jamais rien ! ». Cet écueil ne se justifie pas . En effet, dans leur grande majorité, les élèves sont volontaires. Ils ont envie de faire, de participer et de répondre aux exigences de leur maître, souvent même pour « lui faire plaisir » lorsque cela est à leur portée. Ainsi, cette démarche permet à l'enseignant de dépasser ces premières impressions, afin de s'engager dans une démarche plus profonde et une réelle réflexion sur les causes de ces renormalisations. Pour cela, de solides connaissances concernant la didactique de l'activité semblent être un pré-requis essentiel. La conclusion 26 inhérente à la fin de cette discussion concerne la place accordée aux savoirs et l'utilisation qui peut en être faite. Si la proposition d'une tâche de complexité adaptée au niveau des élèves permet de s'assurer de leur bonne participation et de la non transgression des règles, elle devient par la même occasion un moyen de contrôler le groupe classe, réduisant les risques de dérives disciplinaires. A travers cette démarche, l'enseignant débutant, acquière donc en expérience en ce sens où il a conscience de devoir déplacer ses préoccupations du contrôle vers l'incorporation des savoirs et des apprentissages. Ces dernières préoccupations se révéleront être non seulement des objectifs en tant que tels, mais aussi de nouveaux moyens au service du contrôle de la discipline. 4.2. La complexité de la tâche: à l'origine d'un manque d'implication. a) A « T -1 » de cette unité élémentaire du cours d'action (cf : 3.5., p. 21), proposer une tâche de complexité adaptée aux élèves ne fait pas partie des préoccupations de l'enseignant. Alors que la petite Élisa semble perdue (Representamen), ce qui dans un premier temps apparaît comme un non respect de la consigne, de par sa non participation au jeu, semble tout à coup revêtir d'une importance tout autre. Pour elle, la tâche est trop complexe. Sans toutefois élargir cette interprétation hypothétique à l'intégralité du groupe, les préoccupations de l'enseignant quant à l'implication de tous les élèves dans la tâche s'en retrouvent bouleversées. b) Utilisant son référentiel à l'instant « T » pour tenter d'apporter une réponse à cet échec, il se rapproche de l'élève pour l'aider, puis finit par jouer à la marionnette en faisant à sa place. Notons ici la relation triadique entre (S), (I) et (U). Dans un premier temps, le Référentiel (U) a permis à l'enseignant une Inteprétation hypothétique de la situation (I), à l'origine de sa renormalisation des événements (U). Cette renormalisation (U) donnant à nouveau lieu à une Interprétation (I) (dans le cadre de ce mémoire, en lien avec le Representamen (R') à l'instant « T ' »), lui même à l'origine de l'élaboration d'un nouveau Rérérentiel (S '). c) L'entretien en autoconfrontation et le support vidéo ont permis à l'enseignant de prendre conscience que, bien qu'Élisa soit la seule à ne pas participer du tout, la tâche semblait trop complexe pour l'ensemble des élèves ayant le rôle de défenseur. Après réflexion et analyse de la situation lors de l'étape Interprétant (I) à « T ' », il semble effectivement que la tâche proposée était trop complexe. En effet, même si la myélinisation permettant la conduction du flux nerveux est déjà arrivée à son terme à l'entrée en maternelle, le développement psychomoteur de l'enfant à trois ans n'est pas encore optimal (Thomas, 2002). 27 D'après Kramer, le joueur peut être assimilé à un ordinateur: [Il] reçoit des informations, les traite et sort une réponse. Ce système comporte plusieurs facteurs limitants. Le premier est la vitesse de traitement des données. Le second est constitué par la « taille » du canal d'entrée. Ces considérations permettent d'expliquer la difficulté de résoudre les tâches d'anticipation -coïncidence dans lesquelles on retrouve ce qu'on appelle le problème du conflit vitesse -précision (Kramer, 2003, p. 6). Si les élèves réagissent dans un premier temps de manière proactive aux stimuli, l'enjeu de l'apprentissage dans une tâche d'anticipation-coïncidence doit les amener à apporter progressivement des réponses de manière rétroactive. Pour cela, une organisation du terrain permettant un temps long de traitement de l'information et des situations simples sont des prérequis indispensables. L'organisation matérielle de cette situation n'a pas permis un tel apprentissage. Au-delà de ces aspects théoriques permettant d'enrichir le référentiel, la réaction de l'enseignant dans sa renormalisation de la situation semble être pertinente à analyser. Quelle peut être la place pour les apprentissages, lorsque l'enseignant se met à « faire à la place de » ? La réponse semble simple : aucune. Cette posture d'étayage contre-productive de la part de l'enseignant est définie par Bucheton et Soulé comme une « une variante de la posture de contrôle » (cf : 4.1.2, p.24) où « le maître, pour avancer plus vite, peut aller jusqu'à faire à la place de l'élève » (2009a, p.40). On comprend bien les désagréments d'une telle situation en terme de construction des apprentissages pour l'élève. Cette définition du « contre-étayage » nous questionne sur la relation au temps de l'enseignant et nous ramène à nouveau à une des postures réflexes typiques de l'enseignant débutant. Il est vrai que dans cette situation, le temps perçu comme contraignant et éphémère, a amené l'enseignant à réagir de manière inadapté, privilégiant un rapide retour à la norme et à ses préoccupations en faisant à la place d'Élisa. Or, tout comme il faut être capable de résister aux élèves, aux collègues, aux instructions ou à la hiérarchie, il faut aussi être capable de se résister soi-même, notamment en évitant toute réponse hâtive (Bucheton, 2009b). Des comportements inappropriés de la part des élèves relèvent de réels symptômes et doivent être pris en compte de manière réfléchie. Pour cela, de solides connaissances concernant la didactique de l'activité semblent être un pré-requis essentiel pour s'assurer de la bonne participation et d'un apprentissage correct de la part des élèves. L'objectif étant bien sûr de passer progressivement de cette posture de « contreétayage », de « faire à la place de », à une démarche d'étayage incluant les « faire comprendre, faire dire et faire faire ». 28 4.3. La passation de consignes: déterminant d'une bonne compréhension de la tâche. Dans toutes les matières et plus particulièrement en EPS qui implique une importante mobilité et du mouvement chez les élèves, la passation de consignes est un passage clé pour amener les élèves vers la situation anticipée et ses objectifs. 4.3.1. L'attitude de l'enseignant comme inducteur d'une bonne transmission. a) Lors de la situation n°2 (cf. 3.2., p. 18), on voit l'enseignant en difficulté et perdant patience lors de sa passation de consignes. Son référentiel lui dit que les élèves doivent être silencieux, assis, attentifs, non distrayables pour comprendre les règles d'un jeu. Or, celui-ci a du mal à canaliser le grand groupe et à un stade avancé de la séance les élèves de maternelle ont tendance à se disperser. b) Face à tous ces éléments, l'enseignant, sentant qu'il perd le contrôle et inquiet de perdre du temps et de ne pas pouvoir aller au terme de sa séance, s'énerve et perd patience. On peut relever encore une fois ce qu'on pourrait appeler le « réflexe de contrôle » de Durand (1996) dont l'enseignant fait preuve lorsqu'il perd le contrôle. Il est intéressant de noter ici le décalage qui va s'opérer entre le référentiel à T et celui à T'. Et en cela, le postulat de Durand se justifie encore plus. En effet, lors de sa préparation, l'enseignant a dans son référentiel, bien ancré en lui, la conviction que le contrôle de ses élèves et le maintien de l'ordre lui permettra de pouvoir passer sa consigne et de se faire comprendre. C'est à travers ce filtre que seront définies les modalités de la passation de consigne. Or, il s'aperçoit que la disposition spatiale des élèves (face à l'enseignant, en ligne et donc éloignés sur les extrémités) n'est pas propice à un engagement des élèves dans la situation. L'endroit non plus n'est pas adapté, la présence des fenêtres donnant sur la cour où d'autres élèves sont en train de jouer, et celle des ficelles des rideaux perturbent l'attention des élèves. c) Grâce à l'autoconfrontation, l'enseignant verra son référentiel évoluer dans la mesure où il pourra se rendre compte (Representamen à T') qu'il arrive à obtenir l'attention du groupe non pas en élevant la voix et en s'énervant mais en rentrant dans l'explication du jeu et dans sa mise en action. En effet, en visionnant la vidéo de la séance, il se rend compte qu'après 1'30 à essayer d'obtenir le silence en multipliant les gestes d'énervement, il parvient à son but en se mettant en action concrètement. On peut s'étonner de la manière dont les élèves ont su capter le moment où il fallait être à l'écoute lorsque l'enseignant s'est mis en action pour passer sa consigne. 29 4.3.2. Des rôles qui donnent du sens à l'activité : quelle représentation pour l'élève ? a) Dans la situation n°1, on pense que l'enseignant se confronte à une renormalisation des élèves suite à un manque de motivation. Comme lors de la situation n°6, l'enseignant fait face à des transgressions de la part de ses élèves. Ceux-ci ne répondent pas aux attentes de l'enseignant et vont à l'encontre de ses préoccupations. b) Il y a ici dans cette unité d'action plusieurs éléments analysables comme conséquence de la passation de consigne. On suppose premièrement une renormalisation effectuée par les élèves due à une tâche demandée trop complexe notamment pour l'élève du milieu au sein des trios. (cf. Annexe 2 (Martin), p.-2-). La réversibilité des rôles s'avère être très compliquée à assumer pour des élèves de PS-MS. La réinterprétation par les élèves peut se traduire deuxièmement par un manque de motivation et donc un défaut d'enrôlement dans l'étayage de l'enseignant. En effet, lors de sa passation de consigne, l'enseignant n'a pas pris soin de théâtraliser le jeu, de créer une situation avec un imaginaire qui prenne sens pour eux. Il le remarque d'autant plus que lors de la situation de référence, grâce à l'espace de la « rivière » au rôle de « crocodile », les élèves ont investi le jeu avec beaucoup de motivation et ont compris des règles du jeu qui faisaient sens pour eux (« le crocodile ne peut pas sortir de la rivière »). c) Le référentiel de l'enseignant a donc évolué. Si l'enrôlement des élèves dans une situation - qui leur donne envie de participer au jeu - faisait déjà partie de son référentiel, il saura désormais que la mise en situation avec des rôles créant du sens pour les élèves permettra une meilleure compréhension des règles du jeu. 4.3.3. Reformulation et démonstration de l'élève: composantes de la consigne? a) Lors de cette situation (cf. 3.4., p.20), b) nous remarquons la volonté de l'enseignant d'utiliser la consigne comme moyen d'une bonne compréhension de la tâche à effectuer par les élèves. Dans un cadre propice à l'écoute où les élèves sont attentifs, il a pu se détacher de la variable « ordre », pour se centrer d'avantage sur des préoccupations de « travail », avec pour soucis de « voir les élèves déployer une activité conforme à un réel travail » (cf. 1.4.3., p.12). La reformulation de la consigne et la démonstration par un élève sont utilisées d'une part pour motiver le groupe, d'autre part afin de leur proposer un exemple et s'assurer de leur compréhension. La préoccupation de l'enseignant l'amène à choisir Amir pour la démonstration, un choix anticipé car il savait qu'il était parmi ceux qui avaient le mieux compris et réalisé la tâche la fois précédente. 30 L'enseignant se retrouve doublement en échec dans sa préoccupation à proposer une reformulation et une démonstration claire aux élèves, qui leur permettront par la suite de déployer une réelle activité de travail. En effet, si la situation a été analysée à l'aide d'un seul et unique tableau, elle peut néanmoins se décomposer en deux parties: 1/ Dans un premier temps, l'enseignant s'est retrouvé bousculé dans sa volonté de proposer une reformulation claire de la part d'Amir. Rapidement, cette prise de conscience l'a amené à modifier ses attentes, passant de (A) à l'instant « T » (proposer une reformulation de la consigne), à (A') à l'instant « T+1 ». Au regard de la méthode utilisée, cette renormalisation à elle seule aurait pu permettre la constitution d'un tableau de résultats. Il nous a semblé intéressant de poursuivre le cours d'action jusqu'à son terme. 2/ Attentes à « T+1 »= En dépit d'une reformulation, Amir doit proposer une démonstration à ses camarades. Toujours engagé dans ses préoccupations de départ, l'enseignant se retrouve à nouveau confronté à un échec. En difficulté avec la langue française, Amir ne semble pas comprendre ce que lui demande de démontrer son maître. Celui-ci est donc amené à devoir mimer la situation à Amir, afin que lui-même comprenne ce qui est attendu et propose une démonstration correcte. Nous retenons cette unité élémentaire du cours d'action pour la suite de la discussion. Dans une situation où l'objectif est la démonstration par l'élève à ses camarades et non une participation réelle au jeu ou un apprentissage en soi, il est difficile de parler de « posture d'accompagnement », même si l'enseignant apporte une aide ponctuelle par le mime. Ici, l'enseignant a du faire la démonstration à Amir, afin qu'il puisse la faire pour ses camarades. Le flou qu'a pu engendrer cette situation, de part les erreurs faites par Amir et la confusion que cela a pu engendrer pour le groupe classe, remettent en causes les préoccupations de l'enseignant et doivent faire l'objet d'une réflexion. c) La prise en compte du Representamen à « T ' » nous permet de prendre en compte plusieurs éléments essentiels dans l'élaboration d'un nouveau référentiel : i/ Dans une classe où la majorité des élèves n'ont pas comme langue maternelle le français et où celui-ci est encore peu maîtrisé, les dispositifs mis en place semblent produire une surcharge cognitive. En effet, ce jeu de type droits et devoirs différents peu adapté pour ce cycle offre plusieurs rôles. Ainsi, lorsque Amir rentre sur le terrain, il essaie toute les possibilités (faire tomber les quilles, aller chercher un ballon). N'ayant pas compris la consigne à l'oral, le dispositif et la complexité de ce type de jeu ne lui permettent pas de comprendre ce qu'il doit faire. 31 ii/ A l'instant où Amir a vu le maître réaliser la tâche, il a compris ce qu'il devait montrer et a correctement effectué cette démonstration. Néanmoins, la difficulté de cette tâche d'anticipation-coïncidence ne lui a pas permis une réussite dans sa démonstration. Il est alors intéressant de se demander si la volonté de l'enseignant était de montrer une procédure ou le résultat final d'une action. Cela fera partie des nouvelles préoccupations de l'enseignant. Si la préoccupation de l'enseignant était bien le « travail », nous remarquons ici qu'il n'est pas encore engagé dans une démarche ayant pour préoccupation « l'apprentissage » (cf. 1.4.3., p.12). Car en effet, selon Guyot-Séchet et Coupel, l'enjeu consiste « à développer la capacité de l'élève à se construire une représentation de la tâche à effectuer à partir de la consigne et non pas par imitation d'un modèle, ou de l'action de l'enseignant » (2010, p.6). Or, Amir est dans l'imitation. iii/ La démonstration faite à Amir par l'enseignant a écarté une possibilité d'action. En effet, la zone des défenseurs offrait deux possibilités d'actions: -Proches de la ligne rouge, les défenseurs pouvaient gêner les attaquants et/ ou intercepter les balles; -Proches de la lignes jaunes, les défenseurs ne pouvaient qu'essayer d'intercepter les balles, avec toute la complexité de cette tâche d'anticipation-coïncidence. Pour un même rôle (défenseur), il y avait donc bien deux types d'actions possibles, et de complexités différentes. En plus d'une possible surcharge cognitive ne permettant pas l'implication dans la tâche (cf: 4.2., p.27), cette confusion n'a sans doute pas participé d'une consigne structurante et explicite, ni pour Amir, ni pour le groupe classe. Tout ces éléments remettent en question le référentiel de l'enseignant, ses connaissances et croyances préalables. Afin de proposer une consigne qui facilite l'entrée dans l'activité et qui ne soit pas une source de difficulté, voire un frein ou un obstacle aux apprentissages visés (Guyot-Séchet et Coupel, 2010), l'enseignant modifiera à l'avenir sa stratégie, au profit d'un modèle d'enseignement plus explicite: DIRE: - rendre explicites les objectifs visés - rendre explicites les ressources et connaissances dont l'élève aura besoin - rendre explicites lesstratégies permettant de réussir MONTRER: - donner des exemples, réaliser la tâche devant les élèves et verbaliser comment je m'y prends [] GUIDER: - permettre aux élèves de rendre explicites leurs stratégies - envoyer un feed-back aux élèves (Pobel-Burtin, 2015-2016, 17) La démonstration sera donc désormais attribuée au maître dans un premier temps, afin de proposer un modèle juste aux élèves. 32 4.3.4. Conclusion sur le thème des consignes. Les éléments à prendre en compte lors d'une passation de consignes sont nombreux. Pourtant, il est intéressant d'observer qu'à l'instant « T » les préoccupations des deux enseignants sont les mêmes, à savoir donner aux élèves le plus de chances pour qu'ils comprennent et effectuent la tâche attendue. Face à la diversité des manières de passer une consigne, les enseignants, non sans avoir mesuré l'importance de cette porte d'entrée dans le jeu, se sont retrouvés en décalage par rapport à leurs attentes. La réflexion qui fait suite à leurs renormalisations questionne leurs représentations des différentes théories pédagogiques, faisant ainsi évoluer leur référentiel. Lors de la situation n°4 (cf : 3.4., p.20), la démonstration d'Amir ne s'avère pas pertinente. La théorie constructiviste où l'enseignant se met en retrait afin de laisser l'expression aux élèves pour ne pas avoir un effet modélisant atteint sa limite, notamment face à des élèves en difficultés de compréhension de la langue française. Son nouveau référentiel inclura désormais une approche tournée vers l'enseignement explicite. La situation n°2 (cf. 3.2., p.18) donne à voir un autre conflit de théories. Si l'enseignant opte à l'instant « T » pour une approche traditionaliste de manière assez autoritariste, avec l'obtention du silence par la menace de sanction et les cris, il se rend compte à l'instant « T ' » que finalement, c'est une toute autre attitude qui lui a permis de passer sa consigne et de s'assurer de sa compréhension : la mise en action, la démonstration et la théâtralisation. Malgré deux situations différentes, les préoccupations communes aux deux enseignants les ont amenés vers une même manière de renormaliser la situation, optant pour un enseignement plus explicite. 5. Conclusion. A travers ces trois thèmes pédagogiques sélectionnés, on voit comment par l'autoconfrontation et la remise en question, l'enseignant est capable dans un premier temps de se rendre compte de son action grâce à la verbalisation et dans un second temps de l'analyser, la mettre en lien avec tout ce qui gravite autour afin de construire ses gestes professionnels. Dans l'exemple mentionné dans la partie précédente, il est troublant de mesurer la force de tout le processus mobilisé par cette étude qui peut entraîner jusqu'à la remise en question de ses choix et pratiques pédagogiques. La réflexion de Rilke, véhiculant l'idée que la réponse à une question est secondaire s'est illustrée en filigrane de notre étude. Nous pensons que cette étude a pu démontrer, aux enseignants que nous sommes, l'importance de la remise en question et la valeur ajoutée qu'elle apporte à notre pratique. Des questionnements émergent les solutions. 33 6. Bibliographie. Bautier, E. (2002). Quels enjeux pour la maternelle ?, contre-pied, 11, 5-7. Beckers, J. & Leroy, C. (2010). Entretiens d'autoconfrontation dans un dispositif de formation initiale des enseignants : mise au point d'une méthodologie et premiers résultats. Repéré à: https://plone.unige.ch/aref2010/symposiums-longs/coordinateurs-en-b/dispositifprofessionnalisant-de-formation-initiale-des-enseignants/Entretiens %20dautoconfrontation.p df/at_download/file Bucheton, D. & Soulé, Y. (2009a). Les gestes professionnels et le jeu des postures de l'enseignant dans la classe : un multi-agenda de préoccupations enchassées. Repéré à http://educationdidactique.revues.org/543 Bucheton, D. (dir) (2009b). L'agir enseignant, des gestes professionnels ajustés. Toulouse : Octares. Clot, Y., Faïta, D., Fernandez, G. & Scheller, L. (2000).Entretiens en autoconfrontation croisée : une méthode en clinique de l'activité. ooooo Repéré à : https://pistes.revues.org/3833 Dejours, C. (2003). L'évaluation du travail à l'épreuve du réel. Critique et fondements de l'évaluation. INRA, 13-17. Durrive, L. & Schwartz, Y. (2001). Proposition de « vocabulaire ergologique ». Repéré à http://sites.univ-provence.fr/ergolog/html/vocabulaire.php Guyot-Séchet, Y. & Coupel, J-L. (2010). Apprendre le language des consignes PS.MS.GS. Paris: RETZ. Kramer, D. (2003). Théorie des APS : généralités sur les sports collectifs (résumé). Repéré à http://www.phoenixhockey.be/wp-content/uploads/2012/01/theorie_dom.pdf MEN (2013). LOI n° 2013-595 du 8 juillet 2013 d'orientation et de programmation pour la refondation de l'école de la République. Repéré à https://www.legifrance.gouv.fr/eli/loi/2013/7/8/MENX1241105L/jo#JORFSCTA000 027678034 MEN (2015). Programme d'enseignement de l'école maternelle. Bulletin officiel spécial n°2 du 26 mars 2015. huhjjjjjjjjjjjjjjjjjjjjjjjjjjjjjjjjjjjjjjjjjjjjjjjjjjjjjjjjjjjjjjjjjjjjjjjjjjjjjjjjjjjjjjjjjjjjjjjjjjjj Repéré à http://www.education.gouv.fr/pid25535/bulletin_officiel.html?cid_bo=86940 Pobel-Burtin, C. (2015-2016). "Enseignement explicite et socio-constructivisme: pourquoi ces pédagogies ne s'opposent-elles pas?". D'après le cours de Cécile Nurra. Pontais, C. (2002). Quel EPS en maternelle ? Contre-pied, 11. Repéré à http://www.epsetsociete.fr/Quelle-EPS-en-maternelle Ria, L. (2011). Extrait du colloque « Le travail enseignant au XXIe siècle ». Repéré à http://neo.ens-lyon.fr/neo/formation/analyse/outil2 Schwartz, Y. & Mencacci, N. (2008). Trajectoire ergologique et genèse du concept d'usage de soi. Informática na educaçao : teoria & prática. Porto Alegre, v.11, n.1, 9-13. Taylor, F. W. (1911). The principles of scientific management.New York and London : Harper and brothers publishers. Theureau, J. (2010). La constitution des savoirs dans l'action.pppppppppppppppppppppppp Repéré à http://www.coursdaction.fr/12-Histoire%20du%20programme%20de%20recherche / 2010-JT-R54.pdf Thomas, N. (2002). Psychomotricité : développement psychomoteur de l'enfant. Repéré à http://www.chups.jussieu.fr/polysPSM/psychomot/devPSMenf/devPSMenf.pdf Vatin, F. (2006). Origines historiques de l'ergonomie et de l'ergologie. Repéré à http://sites.univ-provence.fr/ergolog/html/historique.php 34 ANNEXE N°1 – Fiche de préparation de séquence S'exprimer à travers l'activité physique et sportive Séance 1 Séance 2 Séance 3 Séance 4 Séance 5 Séance 6 Séance 7 Séance 8 Module : Jeux traditionnels collectifs Objectifs :  Atteindre une zone défendue par des adversaires  Lancer dans les intervalles ou au-dessus afin d'éviter les adversaires  Lancer à un partenaire avec précision  Prendre des informations Objectifs : -Découverte des balles. -Lancer loin. Objectifs : -Lancer à un partenaire. -Lancer à l'adulte quand c'est son tour. -Lancer par-dessus un enfant. Objectifs : -Lancer à un partenaire. -Lancer à l'adulte quand c'est son tour. -Lancer par-dessus un enfant. Objectifs : -Lancer à un partenaire. -Intercepter la balle lors d'une passe. -Découvrir « franchir la rivière » Objectifs : Franchir la rivière -Lancer dans les intervalles ou par-dessus l'adversaire Objectifs : Franchir la rivière -Lancer à un partenaire avec précision (limiter les possibles déplacements des élèves) Objectifs : Découverte du jeu « la ville défendue » Objectifs : La ville défendue -Prendre l'information, se décaler pour lancer dans les intervalles ou par-dessus l'adversaire. -Lancer à un partenaire avec précision. -1- Vendredi 11/12 -Echauffement (manipulation) -Echange avec partenaire -Lancer à l'adulte Jeudi 17/12 -Idem Vendredi 18/12 -Echauffement -Jeu du taureau -Franchir la rivière Mercredi 06/01 -Franchir la rivière Jeudi 07/01 -Franchir la rivière Vendredi 08/01 -La ville défendue Jeudi 14/01 -La ville défendue Vendredi 15/01 ANNEXE N°2 – Fiche de préparation de séance PS-MS S'exprimer à travers l'activité physique et sportive Module : Jeux traditionnels collectifs Séance 4 : Franchir la rivière Matériel : Des balles – Des cerceaux – 2 lignes jaunes – Une caisse pour récupérer les balles Objectif : -Lancer à un partenaire -Se décaler pour faire la passe dans un espace vide -Intercepter la balle lors d'une passe. -Découvrir « franchir la rivière » Phase 1 Phase 2 Phase 3 Phase 4 Phase 5 Echauffement : Elèves utilisent tout l'espace du terrain. Manipulation de balle : Balle dans une main – la faire passer dans l'autre – la faire passer derrière son dos – entre ses jambes – lancer et rattraper Récupérer les balles. Les faire s'asseoir près de la fenêtre « Nous allons faire un nouveau jeu. Il y aura 2 enfants dans des cerceaux qui se feront des passes en faisant rouler la balle et un autre enfant au milieu devra attraper la balle pendant une passe. (Montrer un exemple avec 2 MS en faisant celui au milieu.) Si celui du milieu attrape la balle, il prend la place de l'enfant qui a fait la passe. Les enfants qui sont dans les cerceaux n'ont pas le droit d'en sortir pour faire la passe (Montrer un exemple). « Quand je vous le dirai, il faudra se mettre dans un cerceau comme cela. Les MS vont se mettre dans les cerceaux verts et les PS dans les cerceaux rouges ». Disposer les cerceaux en appelant les enfants et en mettant 7-8 MS au milieu. Tourner dans les rangs, s'assurer que tout le monde ait compris. Verbalisation : (enfants s'assoient à la fenêtre). Comment peut-on faire pour faire une passe au copain sans que celui du milieu ne l'attrape ? Réponses attendues : Bien lancer, lancer fort, lancer. → Se décaler pour pouvoir bien voir le copain et lui lancer Refaire jouer. Faire s'asseoir les élèves. Ramasser les cônes. Nouveau jeu : « Franchir la rivière (Attention, ce n'est pas le même jeu que celui des crocodiles) » Mettre la moitié des élèves dans l'espace du milieu entre les lignes. Ils sont dans la rivière (distribuer dossards). Consigne : « Il va y avoir des bleus de chaque côté de la rivière. Le but pour ceux qui sont ici est d'envoyer la balle aux copains de l'autre côté de la rivière. Les rouges dans la rivière vont essayer d'attraper les balles que vous envoyez de l'autre côté. Il est interdit de sortir de la rivière pour les rouges. Et les Bleus, vous ne pouvez pas aller de l'autre côté de la rivière. Il faut récupérer le plus de balles possible.» Lancer le jeu. Faire des arrêts réguliers pour réguler le jeu (Activité de chacun, lancer de balle) Changer les équipes Récupérer les balles + retour au calme + Bilan : A quoi avons-nous joué ? Comment faire pour lancer la balle de l'autre côté de la rivière sans qu'elle soit attrapée ? -2- 5-10 minutes 5-10 minutes 5 minutes 15-20 minutes 5 minutes ANNEXE N°3 – Modèle d'autorisation de filmer distribué aux parents Université Joseph Fourier ESPE de Grenoble Antenne de Bonneville Autorisation de filmer en vue de l'exploitation pour une recherche universitaire. Dans le cadre de la réalisation d'un mémoire de master conduit par l'enseignant(e) de la classe de votre enfant, une séance d'Education Physique sera filmée au cours des prochaines semaines. Ce film sera utilisé uniquement à usage de recherche et de formation, pour analyser l'activité de l'enseignant, sans diffusion sur internet. Nous avons besoin pour cela de votre autorisation de filmer votre enfant. En cas de refus de votre part, il ne pourra participer à ce travail. Je soussigné(e) (Nom, prénom, adresse des parents de l'élève filmé), père, mère, tuteur (1) de l'élève autorise Monsieur Anceaume Martin , enseignant stagiaire en M2 MEEF à l'ESPE de Bonneville, ainsi que Mme Christine BERTOLA, formatrice à l'ESPE de Grenoble et doctorante à l'Université Montpellier 3, à reproduire, exploiter ou représenter le film enregistré par lui et représentant mon enfant pour les usages suivants : - exploitation des données recueillies dans le cadre du mémoire de master 2 MEEF; - présentation du corpus dans le cadre de la thèse de doctorat suivie par Mme Thérèse PérezRoux, Université Montpellier 3, école doctorale 58; - exploitation des données recueillies dans le cadre de la formation des enseignants. Je garantis, par le présent contrat, aux composantes de l'Université Joseph Fourier de Grenoble, ESPE de Grenoble, antenne de Bonneville, la jouissance, sans contrepartie financière, des supports recueillis ou constitués sous réserve de préserver l'identité de mon enfant par l'anonymat des données recueillies et que l'exploitation de ces fichiers s'inscrive dans la perspective de la commission nationale informatique et liberté (loi n°78-17 du 06 janvier 1978). Pour faire valoir ce que de droit. Fait à le Signature des deux parties (Précédée de la mention « Lu et approuvé ») (1) Rayer la mention inutile -3- ANNEXE N°4 : Verbatim. Ici, est retranscrit l'entretien d'autoconfrontation entre l'enseignant Martin Anceaume (appelé M) et l'observateur-interlocuteur Christine Bertola (appelée C). Les phrases en italique ne font pas partie du dialogue, elles donnent des informations sur le déroulement de l'entretien. Les majuscules seules dans le dialogue sont les initiales des prénoms des élèves. Les points de suspension entre crochets désignent des passages qui n'ont pas été retranscrits ici car jugés non utiles à la compréhension. 5 10 15 20 25 30 35 40 45 50 Minute 17 de la vidéo de séance : moment de la 1ere verbalisation M : Là, du coup, comme à chaque séance de motricité, je trouve que les moments pour se rassembler, et là je me le dis encore une fois, je trouve que les moments pour se rassembler c'est très long. Ça met à chaque fois beaucoup de temps à venir se rassembler à un endroit pour qu'on puisse discuter parce qu'ils sont dans le feu de l'action. Ouais, à chaque fois, j'ai l'impression de perdre 5 minutes. C : Oui, toi tu trouves que ce temps est trop long par rapport à tes attentes ? Toi, t'aimerais que ça se passe comment ? M : Qu'ils lâchent tout de suite ce qu'on fait. Qu'ils comprennent, comme je leur ai déjà expliqué mais bon, que plus vite, on lâche les balles, on vient s'assoir, on discute, plus vite on retourne jouer [] C : Donc, là, 18'07, c'est le moment où tu attaques ta consigne. Et tu sais quand est-ce que ça a commencé ? M : Au moment où je dis : « On arrête, on va s'assoir sur le » C'était encore avant. A 16'12. C : Donc, ils ont mis moins de 2 minutes pour arrêter l'activité, ranger les balles, aller s'assoir et être prêts à t'écouter. M : Oui. [] C : En fait, c'est comme si tu souhaitais une instantanéité. Qu'à partir du moment où t'as tapé dans les mains, que dans la minute qui suive, tout soit prêt pour enchainer. M : Je me dis que c'est faisable. Je tape dans les mains, je dis Je crois même que cette fois-ci je suis plutôt clair sur la consigne. On pose la balle dans le cerceau, on va s'assoir dos à la fenêtre comme d'habitude et puis voilà, on va discuter. C : D'accord. Et t'as l'impression que toi, ça va te manquer ces 2 minutes dans la pratique. M : Oui. Enfin, ça manque à moi mais ça manque aussi à ceux qui sont prêts et qui attendent les autres. C : On va se remettre juste avant que tu prennes la décision du rassemblement, c'est un moment que tu as prévu à ce moment-là dans ta, dans ta fiche de prep, mais qu'est-ce qui fait qu'à ce moment-là, tu prends cette décision ? M : Parce que, je vois que ça commence à être un peu Qu'ils comprennent moins, qu'ils sont moins dans l'activité, que tout le monde n'a pas compris explicitement. Enfin, tout le monde n'a pas compris les règles du jeu, j'ai l'impression. Et, j'avais prévu de faire ce temps-là en milieu de partie pour y rejouer. Alors, je n'ai pas chronométré combien de temps ils ont été en activité finalement. Ça a dû être 5 minutes à peu près, et là je regarde et je vois que certains ne 55 comprennent pas et puis il y a un enfant (montre avec le doigt sur l'écran) qui était là avec les autres et là il vient de repartir là. C : Lequel ? M : (en montrant) Lui, le petit qui est dans le cerceau 60 et qui vient de repartir derrière. Normalement, il est C : Il change de cerceau. Et ça, tu le vois en regardant le film ou tu le vois à ce moment-là ? M : Je le vois en regardant le film. Sur le moment je ne l'ai pas vu, mais je vois qu'il y en a qui ne savent pas 65 trop ce qu'ils doivent faire. Ils ont leur balle mais bon Ils passent au copain sans trop savoir pourquoi [] C : (en montrant) Là, exactement, tu vois quoi ? M : Là elle m'explique que Je crois qu'A 70 m'explique que Je sais plus, je crois qu'elle me dit que S, que le petit là n'est pas allé au milieu alors qu'il devrait. Enfin, bon. Du coup, je lui dis Enfin, le fait qu'ils me posent des questions, je me dis bon on va se rassembler, on va refaire un point. [] Et on 75 réexplique le jeu C : D'accord. Donc, on retourne sur ta consigne. La vidéo défile M : Je me suis rendu compte en voyant la vidéo et c'est pour ça que je l'ai sélectionné, que Enfin, sur le 80 moment je ne m'en suis pas rendu compte. Qu'en fait, je n'ai pas dit pourquoi on s'était rassis tous. Je ne leur ai pas dit : « On va se rassoir parce que je vois que vous avez un peu de mal à comprendre ». Pour réexpliquer les règles du jeu. Je les fais s'asseoir et 85 dans ma tête c'est clair que c'est pour ça. Et sauf, qu'en fait, en revoyant la vidéo, je me rends compte que dans ma tête oui peut-être mais dans la leur Ils ne savent pas pourquoi on se rassoit. Ils font ce que je leur demande mais ils ne savent pas exactement pourquoi 90 on fait ça. Ils attendent que je pose une question, ce que je vais faire, sauf que je ne leur dis pas qu'on reparle parce que j'ai vu qu'il y avait des difficultés, que je vais leur expliquer une technique pour pouvoir mieux jouer et que je vais leur rappeler le but du jeu 95 et Une chose que je ne fais pas d'ailleurs, je ne leur rappelle pas le but du jeu, j'ai remarqué ça aussi en regardant la vidéo. C : Donc, il y a beaucoup de Là, pour toi, t'as vu des choses, t'as vu que le jeu pendant que tu conduisais 100 l'activité T'as vu que des enfants étaient perdus. [] C'est ça ? T'as perçu d'autres choses pendant qu'ils jouaient ? M : J'ai vu qu'il y en avait qui ne se sentaient pas impliqués. Du coup, je me dis, il y en a certains c'est 105 habituel qu'ils ne se sentent pas impliqués et qu'ils n'aient pas spécialement envie de jouer ou Enfin, -4- 5 10 15 20 25 30 35 40 45 50 55 qui sont un peu terrifiés de jouer tous ensemble comme ça. Mais je me dis qu'on va faire un petit rappel et on va voir ce qu'il va se passer ensuite C : Et ton idée, c'est de relancer le jeu pour mieux jouer à ce jeu-là ? M : Oui, oui, complétement. C : Et, eux tu ne leur redis pas ? Interruption de l'entretien C : Bien, alors, tout est clair dans ta tête à ce momentlà ? Le déroulement très précis et tu perçois quand tu regardes l'image un écart entre ton activité et l'activité des enfants et tu ne leur donnes pas les clés pour te suivre M : Je vais leur donner une technique après là. C : Oui, vas-y. [] (en montrant) Tu les vois tous ? Qui est-ce que tu vois ? M : Je vois principalement eux (en montrant). Je crois qu'il y en a qui sont là, il me semble, je ne m'en rappelle plus. Je vois elles, les 2 qui ne sont pas prêtes à écouter visiblement, alors je vais les séparer. La vidéo du 1er rassemblement tourne M : Donc, là, pendant qu'il parlait, je les voyais les 3 qui n'étaient pas dedans. Donc, je me dis, je vais les rapprocher de moi, déjà. Je vais en mettre une là, une là et une là. Et peut-être qu'une fois qu'elles ne seront plus ensemble, elles seront peut-être un peu plus Un peu plus « focus » sur ce qu'on est en train de faire. C : Le petit, là, il vient bien de te redire la règle du jeu. M : Oui C : Tu sens que Bon, il y a les 3 petites que tu perçois là pendant vraiment que tu fais la leçon. Et Quand tu regardes la vidéo, qu'est-ce que tu vois de l'attention des élèves ? M : Je vois que là, les 4-5 ici, ils sont avec S qui vient de parler. Eux, je ne sais pas trop et je vois que eux, bon, ils écoutent mais Ça dépend (en montrant). Et sur le moment, par contre, je ne le vois pas. Je ne vois que lui, ses copains à côté. Et les 3 derrière qui bougent, parce qu'elles ont attiré mon attention. D'ailleurs, je n'ai même pas entendu la fin de ce qu'il a dit parce que j'étais déjà là-bas. C : Et dans ton idée, ce petit, tu lui donnes la parole pour qu'il redise la tâche, c'est quoi ton idée ? M : Parce que je me dis que si moi, je ne l'ai pas Enfin, c'est devenu un réflexe en fait, c'est un truc que j'ai appris pendant le Master. Je me dis que si moi, ils n'ont pas compris ma consigne, si c'est un de leur camarade qui redit la consigne avec ces mots à lui, ce sera plus efficace. C : D'accord. Bon alors, tu te dis que, si lui, il redit Ton attente à ce moment-là, de lui donner la parole, c'est de mieux faire comprendre aux autres, à tous, ce qu'ils n'auraient pas forcément compris. M : Oui C : D'accord. Et quand tu regardes la vidéo ? (La vidéo avance) M : En disant ça, le « comment on fait », j'attends qu'ils me disent une technique particulière, mais Parce que là, dans ma tête, c'est clair que ils savent que 60 si celui qui est au milieu, si on l'envoie tout doucement en face, celui qui est au milieu va forcément l'attraper. Et quand je demande comment on fait, j'attends qu'ils réfléchissent à une technique. C : Mais, tout à l'heure, quand tu m'as dit que t'avais 65 arrêté pour faire le bilan, t'as arrêté pour rappeler le jeu. Parce que, le jeu, il y en avaient qui changeaient de cerceau, qui ne prenaient pas la place de Donc, tout à l'heure, pour commencer, tu me dis, j'arrête pour rappeler la règle du jeu. Mais là, ce que t'es en 70 train de demander, c'est une technique. C'est déjà plus tout à fait la même chose M : Non. Mais je sais qu'à ce moment-là, je switch sur autre chose. C : Et dans ta prévision de séance, ce moment-là, tu 75 l'as prévu comme étant quelque chose pour faire émerger des techniques ou pour dire « Bon, ba, voilà, on a essayé le jeu pendant 5 minutes, on refait le point pour être sûr de ce à quoi on joue » ? M : En fait, j'imagine les 2. J'imaginais que les règles 80 du jeu auraient été comprises plus facilement et qu'il y aurait moins besoin de rappeler les règles du jeu. Donc, je compte faire les 2. D'abord, rappeler les règles du jeu très rapidement et finalement là, je suis déjà plus dans les règles du jeu. 85 C : Mais, tu t'en rends compte ? M : Je sais que je veux faire émerger une technique mais à ce moment-là, je ne pense plus trop aux règles du jeu. Ou alors, je me dis que ça vient en même temps. Des règles du jeu, émerge la technique Rires 90 C : T'as changé d'objectif là, hein ? La vidéo avance C : Qu'est-ce que t'en fais de leur réponse ? M : Je ne sais plus ce qu'elle me dit exactement mais là, je me dis que je vais directement introduire mon 95 truc. C'est vrai que je ne m'arrête pas sur ce qu'elle vient de dire, parce que peut-être que je n'ai pas très bien compris ce qu'elle veut me dire sur le moment. Là, encore une fois, je me dis « Bon, là, ils sont calmes, j'ai à peu près, l'attention de tout le monde. En tout 100 cas, j'en ai l'impression. » Et je me dis que je vais me mettre en action pour montrer comme ça en plus, ceux qui n'ont pas l'attention, de me voir en action, ça va réattirer leur attention. Et je me dis que si j'attends trop, ils vont bouger, ils vont commencer à s'exciter et 105 là, je ne pourrai plus montrer ma technique. C : Donc, ton intention là, c'est de montrer la technique ? M : Oui C : Et tu les perçois attentifs ? 110 M : Là, je les perçois attentifs. C : Y compris, quand tu regardes le film ? M : Oui. Enfin, à l'écoute (en parlant des enfants). Il y en a toujours certains non Ou qui papillonnent ailleurs mais du coup, je me dis que ceux qui sont 115 ailleurs et qui n'écoutent pas trop, quand je vais me mettre en action, là ils vont regarder parce qu'en général, ils se mettent à regarder. C : Donc, on regarde, parce que c'est intéressant. -5- 5 10 15 20 25 30 35 40 45 50 55 Lecture de la vidéo. M : Eux, ils regardent. Eux aussi. Lui, il regardait il y a 2 secondes. J, elle joue avec ses chaussons. Eux, ils regardent plus ou moins. Globalement, une grosse majorité regarde. C : Oui, t'es satisfait du degré d'attention. M : Et je me dis que je ne sais pas si j'aurais mieux donc je profite de C : De ce moment-là, pour donner la technique M : Oui C : Et tu fais une démonstration C : Et, est-ce qu'ils comprennent que Ça, c'est quoi pour toi (en montrant la caisse de balles) ? M : Bin, j'ai dit : « imaginons que » Dans ma tête, je suis mon fil, là. C'est vrai que je ne demande pas confirmation de savoir « c'est quoi la caisse ». C : Oui, ou de demander à un enfant de venir jouer le rôle. M : Oui. Bin, ça la démonstration, c'était C : C'était de l'improvisation ta démonstration ? M : Bin, je savais que j'allais la faire mais je n'avais pas encore vraiment réfléchi avec quelles modalités. Sauf que là, il y avait la caisse, je me suis dit que c'était aussi simple de Plutôt que ce soit un enfant C : Donc, toi quand t'as prévu le jeu, tu savais déjà que tu ferais cette démonstration ? M : Oui C : Ça allait avec ta proposition ? M : Oui C : Et donc, toutes leurs idées là : lancer vite, lancer entre les jambes et puis la proposition qu'on n'a pas essayé de comprendre mais qu'on pourrait essayer de comprendre. Ces propositions-là, on en fait quoi ? M : Bin, sur le moment, je leur dis « oui, ça, ça marche, c'est une technique possible » mais je sais que moi, mon objectif, c'est qu'ils réfléchissent à trouver un espace pour lancer la balle. Alors, c'est vrai qu'entre les jambes, c'est un espace mais dans la préparation, je ne pensais pas qu'ils lanceraient énormément entre les jambes. Je me suis rendu compte aussi en voyant la vidéo que il y en a pour qui, c'est Ils n'avaient pas compris le but du jeu vraiment parce qu'ils étaient au milieu, ils écartaient les jambes et ils regardaient la balle passer. C'est en voyant la vidéo que je l'ai vu sinon, c'est vrai qu'ils n'ont pas compris que le but du jeu et là, c'est pareil dans cette verbalisation, je me rends compte que je ne redis pas le but du jeu, c'est-àdire que celui du milieu doit attraper la balle. C : Mais t'es sur la technique. M : Oui [] La vidéo continue M : Voilà. Là, je me suis rendu compte aussi que je leur donne une technique comme ça mais je ne leur dis pas « faut le faire, faut essayer On essaye d'utiliser cette technique-là » Je leur donne et Comme si c'était : ils ont vu et puis C : C'est comme ça qu'il faut faire. Toi, ton intention là, c'est qu'ils retournent et qu'ils fassent ce que tu viens de leur montrer et après quand on va 60 regarder ce qu'il va se passer Mais ce qui est intéressant, c'est Je veux boucler cette histoire du temps où ça a commencé parce qu'on a vu qu'il y avait un tout petit peu moins de 2 minutes pour qu'ils viennent s'assoir. 65 M : Jusqu'à 18' C : C'était jusqu'à 18' ? M : Oui. Ou jusqu'à 16', je ne sais plus C : Non, c'était de 16' à 17' hein ? Non, de 16' à 18'. Ça, ça te paraissait long cette mise en place. Et celle70 ci, donc on va dire que ça a démarré à 18' admettons. Ça a duré 3'30 et elle te parait courte. M : Sur le moment, oui. Parce que je parle et que je suis dans mon truc. Et la phase d'avant, je suis en attente donc ça me parait plus long. 75 C : Et eux, de leur point de vue ? M : Bin, de leur point de vue, je ne sais pas, je pense que 3'30, ce n'est pas excessif comme attention là, maintenant, à ce moment-là. Je me dis que En général, quand je prévois les verbalisations, je prévois 80 même 5 minutes. C : D'accord, dans ta fiche de prep, c'est même 5 minutes. Donc là, entre les 2 minutes d'installation et les 3 minutes d'explication, t'es dans ton temps prévu ? 85 M : Oui, finalement, oui. C : Donc, ça se passe pour l'instant comme t'as prévu ? M : Oui C : Donc on va voir si Toi, tu t'imagines à ce 90 moment-là qu'ils retournent vite se remettre dans les cerceaux. M : Oui La vidéo continue M : Là, pareil. Sur le moment, je ne pensais pas qu'ils 95 allaient oublier là où ils étaient. Pourtant, c'était clairement plausible. Et, du coup, je me dis : Bon ce n'est pas grave, on va reprendre. Mais, bon, même moi, je ne me rappelle pas où ils étaient tous. Plus ou moins, mais pas tous. Donc, je les replace et j'espère 100 que Enfin, j'attends qu'il y ait une bonne mise en action. C : Et tu te dis quoi à ce moment-là ? M : Là, je me dis : Mince, j'avais oublié que Enfin, je n'ai pas anticipé ce moment de remise en place. Pour 105 moi, je pensais qu'ils se rappelleraient où ils étaient et qu'ils auraient envie de rejouer du coup et que ils se remettraient vite en place et qu'ils reprendraient vite la balle et c'est reparti. C : Donc, à chaque fois, tu imagines les temps 110 d'activité Donc, tu prévois 5 minutes pour ce que tu as à dire, tu prévois tant de minutes de jeu mais entre M : Je ne prévois pas, non.[] Ou alors, je me dis que ça empiète un peu sur le temps de jeu donc, oui. 115 C'est vrai qu'en soi, ce n'est pas très grave puis c'est indispensable. Enfin, ce n'est pas indispensable mais ces 2 minutes de battement entre chaque phase, c'est vrai que je ne les prévois pas dans ma fiche. -6- 5 10 15 20 25 30 35 40 45 50 55 C : Non, mais même dans ton imagination. M : Oui A chaque fois, je pense que ça va plus vite. C : Et, ça t'énerve un peu quand tu pratiques, ça ? M : Non. Au début, oui, beaucoup. Enfin, ça m'énerve C : Qu'est-ce que tu ressens toi dans ce moment-là ? M : Là, j'ai juste envie « Allez, on y va, on y va ! » Je ne me laisse pas arrêter par les « Machin, il m'a fait ci. Et lui, il était là. Et moi, j'étais là » Je veux qu'on se remette vite dans l'action. Et je voudrais qu'ils se disent la même chose, eux « Allez, tant pis, on se remet vite dans l'action et on joue parce qu'on est là pour jouer ». Mais, c'est peut-être avec l'habitude du coup que ça se passe comme ça Mais, non, ça ne m'agace pas. C : D'accord. [] Est-ce que t'as l'impression que ta consigne qui était censée relancer, à ce moment-là M : Bin, là, je ne réfléchis pas à ça en fait. Enfin, à ce moment-là, dans ma tête, je suis avec elles 2 (en parlant de 2 enfants qui se disputent). Et je n'ai pas encore vu les autres. Enfin, je ne regarde pas encore ce que font les autres. S'ils font comme je le voudrais. C : D'accord. Mais quand on regarde la vidéo. Entre l'activité des élèves avant le rassemblement où tu trouvais qu'ils changeaient de cerceaux, qu'ils n'avaient pas compris la règle du jeu et maintenant, est-ce qu'il y a quelque chose qui te fait dire ? M : Je trouve qu'il n'y a pas de progression C'est peut-être même pire. Ceux qui n'étaient pas dedans avant ne sont toujours pas plus dedans. Tu vois (en montrant) elle est avec son cerceau. Elle refait pareil, elle écarte les jambes parce que C : Elle pense qu'il faut faire un petit tunnel. M : Oui voilà. Et que c'est rigolo quand c'est comme ça. C, il est au milieu un peu sur le côté. Ah, je me dis peut-être que M a vu, peut-être qu'elle a compris que quand je me décale sur le côté en fait ça marche. Il y a peut-être elle qui a compris. C : Et là, pendant le moment de la leçon, tu sens comment ce démarrage d'activité ? M : Je le sens poussif. Il y en a 2-3 qui jouent. Surtout, je n'arrive pas à voir s'ils font vraiment la technique, je regarde juste qui est en train de jouer, est-ce qu'ils ne sont pas tous en train de, voilà, faire du houla-hoop avec leur cerceau ou est-ce qu'ils sont en train de jouer, effectivement, avec un au milieu, est-ce qu'ils sont bien positionnés déjà. C : Donc, c'est ça que tu regardes. Tu reviens à ton idée première, c'est-à-dire, est-ce qu'ils jouent bien au bon jeu. M : Oui C : Tu relaisses tomber ta technique M : Oui. [] Là, il y en a une qui pleure puisque comme M était au milieu, qu'il a récupéré sa balle, du coup il lui dit « ba, je prends ta place maintenant » C : Et elle, elle n'a juste pas compris encore les règles du jeu. M : Et elle n'a pas compris les règles du jeu Et je m'en doute en plus, puisque je sais que c'est une des 3 60 qui n'écoutaient pas, qui jouait au début à gauche et au final, je l'ai mise à droite. Et au final, elle ne jouait toujours pas, enfin elle n'écoutait toujours pas. Donc là, j'essaye de régler ces gros pleurs. C : Bon, après, on déborde du moment que t'as choisi 65 mais c'était pour voir si ton intention par ton moment de verbalisation avait eu un effet et ce que toi t'en pensais à la fois dans le moment de la leçon et dans le moment où tu regardes la vidéo. M : Bin, non, visiblement, il n'y a pas eu de Enfin, 70 ils n'ont pas compris et puis j'ai vite abandonné. Je me suis vite rendu compte que Voilà. Comme à chaque fois, d'ailleurs, en motricité, où je me sens frustré parce que je sens que tout ce que je propose est trop compliqué ou pas adapté Souvent, ça ne marche pas 75 quoi. C : Alors là tu te dis, par exemple, c'est un moment qui ne marche pas selon toi ? M : Ba, je me dis qu'ils ont joué à la balle, qu'ils se sont faits des passes entre eux, qu'ils étaient content 80 mais je ne sais pas s'ils ont appris grand-chose. Si, ils se sont améliorés en passe de balles en faisant rouler mais ce n'était pas ce que je voulais. Il n'y a pas eu le rôle de celui au milieu. C : En même temps, c'est très complexe. Il y en a 85 plusieurs qui se mettaient au milieu. M : Il y en a plusieurs qui se mettaient au milieu et qui savaient qu'ils devaient récupérer la balle et prendre la place de l'autre. Finalement, c'est vrai que c'est déjà un gros truc pour eux. Il y a 2 rôles différents. Quand 90 j'attrape la balle au milieu, il se passe quelque chose, je dois prendre la place de quelqu'un d'autre. Il y en a qui ont réussi et c'est vrai que c'est déjà pas mal. C : Oui, mais, finalement, il y en a peu qui sont sur cette forme-là d'activité, qui ont bien compris puisque 95 ça génère encore des pleurs. M : Oui. Il y en a qui sont 2 parce qu'il y en a qui sont partis aux toilettes. Donc là, je laisse avancer le jeu mais je sais que dans 2 minutes, 3 minutes max, j'arrête. 100 C : Ah, à ce moment-là, tu sais que tu vas arrêter ? M : Oui, parce que je vois bien que ça ne démarre pas et puis que de toute façon, je ne peux pas les observer pour voir ce qu'ils font parce qu'il y en a toujours un qui a besoin de moi. Puis, je vois bien qu'entre ceux 105 qui sont partis aux toilettes Ouais, ça ne me va pas. C : Donc, la décision que tu prends à ce moment-là, quand tu perçois que ça ne va pas, c'est : « on va arrêter dans 2-3 minutes » ? M : Oui, puis on va essayer le nouveau jeu 110 C : D'accord, c'est ce que tu te dis là ? M : Oui Je me dis j'ai 2-3-4 minutes quand même pour voir C : Finalement, par rapport à avant le bilan M : C'est pire ! [] 115 C : Et là ? (en montrant des enfants qui s'agitent) M : Oui, je les vois. Du coup, je vais les voir et me rapprocher d'eux en espérant qu'ils se remettent en place et que ça reparte. Je ne sais plus ce qu'il se passe -7- 5 10 15 20 25 30 35 40 45 50 55 exactement. Je reste un peu pour qu'ils me montrent. Alors, ils savent que Tu vois, ils se sont rappelés des positions. Un au milieu, je te donne la balle à toi parce que c'est toi qui dois la lancer. C : Ils connaissent le jeu M : Ils connaissent le jeu mais juste ils n'avaient pas envie de jouer parce que ça ne leur a pas assez plu pour qu'ils puissent rester dedans. C : Dès lors que tu n'es pas là à surveiller Tu te dis ça à ce moment-là ? M : Euh, non là, je m'en rends compte. Là, je vois juste que les MS, comme souvent, je compte sur eux parce que je sais qu'ils ont compris. C'est d'ailleurs comme ça que je les ai placés. Il y a 2 tiers PS, 1 tiers MS. Je place toujours mes MS avec un PS parce que je compte sur eux pour réexpliquer et moduler les PS. C : Mais là, quand tu regardes le film, tu te dis : « Dans le fond, peut-être que le jeu ne les intéresse pas. » ? M : Oui C : Alors que ce n'est pas quelque chose que tu as envisagé à ce moment-là. Je te propose qu'on aille sur ton prochain moment parce que j'ai peur qu'on n'ait pas le temps. On reviendra sur ce jeu pour l'analyser vraiment ce qu'il se passe du point de vue des comportements mais j'ai envie qu'on voit tes autres sélections. M : Alors, ça, c'est l'explication du nouveau jeu. Euh, là, je me rends compte que c'est trop long. Enfin, je ne m'en rends pas compte tout de suite. Mais, dans tout le passage Déjà, l'installation est longue parce que là déjà, il y a une bande (matériel de la séance) qui a été installée, donc ça fait déjà un petit moment. Je crois qu'à ce moment-là, il y a les autres de l'autre classe qui sortent dehors. Enfin, je ne sais plus mais il se passe quelque chose dans la cour à la fenêtre et il y en a beaucoup qui regardent. La vidéo reprend C : Là, tu commences à avoir des gestes M :Oui, d'énervement. C : C'est quoi qui te ? M : Bin, c'est toujours pareil. A chaque fois que j'installe le jeu J'installe et après j'explique. Et à chaque fois, ils « triturent » ce qu'il se passe C : Ils manipulent M : Oui, ils manipulent. Il y a un plot, bin je le prends. Le cerceau, tu vois c'est pareil, à chaque fois, ils le tapent par terre. Là, la bande jaune, ba on la touche pour voir. C : Oui. C'est des enfants M : C'est des enfants. Mais en même temps, je me dis que l'inverse Si j'expliquais sans matériel, ce ne serait pas non plus Ce serait vachement plus difficile pour eux de voir. Du coup, je n'ai pas le choix alors je la décale (la bande) comme ça. C : Ça te gêne qu'ils touchent ce matériel pendant que tu expliques ? M : Oui, parce qu'ils n'écoutent pas. C : D'accord. En même temps, tu n'as pas encore 60 vraiment commencé. M : Non C : Voilà, alors tu commences à être un petit peu agacé ? M : Là, je suis un petit peu agacé oui, ça fait 30 65 minutes (de séance). C : Et la première situation, tu l'avais arrêtée parce qu'elle avait un peu Elle avait un peu tourné court, enfin, je ne sais pas comment dire ça, mais Non ? M : Oui et puis je voyais le temps passer aussi. J'aurais 70 voulu la continuer pour qu'ils la maitrisent. C : Celle d'avant ? M : Celle d'avant. Mais en même temps, dans ma préparation, elle n'était pas prévu de toute façon aussi longue. 75 C : D'accord. Donc, dans ta préparation, tu savais qu'il fallait que tu passes à ce jeu ? M : Oui C : Mais dans le temps réel, tu t'es dit qu'ils auraient besoin d'un peu plus de temps pour réussir ? 80 M : Oui. Et puis, j'avais sous-estimé Dans ma fiche de prep, tu vois, à chaque fois, je ne prévois pas les 3 minutes de flottement entre chaque phase. Et là, l'explication du nouveau jeu arrive au bout de 30 minutes alors que je crois dans la préparation, c'était 85 En tout cas, au bout de 30 minutes, on était en train de jouer. C : Donc là, tu te sens un peu en retard en fait [] Et tu réexpliques quelque chose de tout à fait différent ? Ce n'est pas une variable du jeu d'avant ? 90 M : Non. C : Après 30 minutes, tu ré-entames quelque chose de tout à fait différent ? C'est comme ça que tu l'envisageais ? M : C'est comme ça que je l'envisageais, oui. 95 La vidéo reprend M : Là, après avoir vu l'explication, je me rends compte que, déjà, mes consignes ne sont pas claires du tout. C : Parce que ? 100 M : Bin, parce que, là, je dis le but du jeu. Hop, je m'arrête, « là, on est déjà dans la rivière là » C : Ah oui, tu ne finis pas tes phrases La vidéo reprend M : Là, je me rends compte, « Mince ! ». Parce qu'en 105 fait, on a déjà joué à la rivière aux crocodiles et ils adoraient ça. Tu sais, les crocodiles sont là et ils doivent passer de l'autre côté sans se faire toucher par ceux qui sont dans la rivière. Et là, au début de la consigne, on ne l'a pas vu 110 C : Si, si, tu leur dis je m'en rappelle. Tu leur dis : « on va jouer à la rivière » M : « On va jouer comme à la rivière aux crocodiles ». C : Et là, à ce moment-là 115 M : A ce moment-là, je me dis « Mince, ils confondent ! » puis je me dis « bon, on va continuer » La vidéo reprend -8- 5 10 15 20 25 30 35 40 45 50 55 M : Là, je ne comprends pas ce qu'il me dit mais je me dis « ce n'est pas grave, je ne perds pas mon fil » La vidéo reprend C : Alors là, t'as l'impression de ramer quand t'expliques ton jeu ou c'est clair ? M : Là, non, je me dis que c'est trop long, qu'il y a beaucoup trop de choses. Je ne pense pas qu'ils aient compris. Mais, je me dis « bon, de toute façon, on y va, tant pis ! » C : Oui, à ce moment-là, tu sens que de toute façon, tu ne peux plus trop en dire davantage. M : Oui, et que ça fait plus d'une demi-heure et que de toute manière, ce sera compliqué. Donc, je me dis « ouais, ok, on va voir, on va essayer. ». Je me dis aussi qu'au pire, ils auront vu un peu comment c'est disposé et que demain, on pourra reprendre plus facilement en fait. C : Donc, ton idée c'est : On va déjà essayer de voir l'organisation du jeu ? M : C'est ça. Parce que je me rends compte qu'au final, les seules consignes qui étaient claires, pour moi, c'est celles « quand je suis dans la rivière, je n'en sors pas. Quand je suis de ce côté-là, j'y reste aussi, je ne traverse pas. Et quand je suis là, pareil. ». Et je me rends compte après en regardant la vidéo que ça, ils l'ont compris, le reste pas trop. Mais je me dis « bon, ba, au moins, déjà ». Enfin, je me le dis plutôt après « au moins, on passera moins de temps sur l'organisation spatiale (la prochaine fois) ». C : L'objectif de ce jeu, de cette séquence, c'est d'apprendre quoi en fait ? M : C'est de trouver des espaces, de ne pas rester fixe. Se décaler pour trouver un espace Prendre de l'information et se décaler pour trouver un espace et envoyer la balle. C : Donc, c'est de s'envoyer la balle et qu'il y ait bonne réception en face ? M : Oui. A la limite, la réception, ce n'est pas le plus important. Le plus important, c'est celui qui lance. A quel moment il lance et où il lance. Et ceux du milieu, est-ce qu'ils se déplacent avec le joueur qu'il y a en face, tu vois ? Est-ce qu'ils se mettent dans la trajectoire ? C : Et donc, là, tu leur donnes tout le jeu, complexe, on va dire Tout le jeu final qui est relativement complexe, où il y a tout dedans, dès le premier jour après 30 minutes d'activité ? M : Ouais C : Et là, t'as le sentiment que c'est compliqué de leur expliquer le jeu complexe ? Tu le sens ça ? M : Oui, oui, je le sens parce que même moi, je m'embrouille dans mes explications. Je sais qu'il y a peu de chances que ça marche. C : Donc, tu te dis que finalement, s'ils comprennent déjà qu'il y a 2 espaces et une rivière, c'est déjà pas mal. M : Oui C : Déjà, dans ta tête, tu simplifies tes attentes. Déjà, à ce moment-là, tu lâches sur une partie de tes attentes ? 60 M : Oui. La vidéo reprend M : Et à chaque fois, je me dis aussi « Mince, mon matos, il est à un moment ici, à un moment, là » M : Donc là, je prends 3 PS qui sont vraiment très 65 petits, qui papillonnent un peu + M, M et une autre MS aussi pour équilibrer. D'ailleurs, je me dis aussi à ce moment-là « Mince, j'avais oublié ce temps pour mettre les dossards ». C : Tu te dis ça à ce moment-là ? 70 M : Oui, j'avais oublié que Quand j'ai le matos devant moi, je me dis « Ah oui, c'est vrai ». [] C : Et donc, tu commences à avoir une gestuelle un peu précipitée ? M : Oui, il faut aller vite. 75 C : Là, tu commences une course contre la montre ? M : C'est un peu ça, oui. Parce qu'en même temps, les autres à côté sont au taquet C : Et tu le sens ? M : Oui, je le sens. Mais, je veux que, eux, d'abord 80 aient le dossard. Comme ça après, j'appelle ceux qui viennent là et ceux qui viennent là et on peut jouer. [] La vidéo reprend C : Alors là, on arrive sur tes 35 minutes là. On va le voir, non ? On y va ? 85 C : En fait, il y a une installation du jeu qui est complexe Mais, ils sont relativement Tu les trouves comment à ce moment-là ? M : Là, ça va. Je commence à me dire Ils sont en train de faire les crocodiles au milieu là. 90 C : Ah oui ! Là tu perçois M : Oui, avant je ne percevais pas. Je me disais « j'espère qu'ils ne vont pas confondre les 2 jeux ». C : Depuis tout à l'heure, là. M : Quand je les vois commencer à faire les crocos, je 95 me dis « Mince ». Tu vois, ils ont bien compris les espaces parce qu'ils ne sortent pas de la rivière. Lui, il vient les taquiner en se mettant là pour jouer mais il ne rentre pas dans la rivière donc je me dis « au moins ». 100 C : Déjà, en termes de compréhension de l'espace, c'est bien. C : T'as prévu qu'ils feraient ça à 4 pattes ? M : Oui Non, en fait ce que j'avais prévu, c'est que eux (ceux du milieu) soient debout 105 C : Ah, et c'est le contraire qu'il se passe. Et tu t'en rends compte, là ? M : Ouais, je m'en rends compte Ou alors, peut-être que je ne pense plus à ce détail maintenant. C : Mais quand tu vois le film, tu te dis ? 110 M : Oui, c'est l'inverse, normalement Mais, c'est parce que eux là, sont des crocodiles. C : Alors dans leur tête, c'est des crocodiles donc ils se mettent à 4 pattes ? M : Oui. Enfin, c'est comme ça que je l'interprète. 115 Parce que quand on jouait aux crocodiles C : Ce n'est pas très gênant qu'ils se prennent pour des crocodiles. -9- 5 10 15 20 25 30 35 40 45 50 55 M : Non, ce n'est pas très gênant mais ce qui est gênant, c'est qu'eux jouent aux crocodiles et qu'ils ont oublié qu'ils devaient récupérer les balles au milieu. La vidéo reprend M : Là, N me soule. Elle m'exaspère vraiment très fort. Là, je vois qu'elle est partie à la porte parce qu'elle veut retourner voir C (l'ATSEM). [] C : Comment tu perçois ton ressenti tout au long de la séance ? Parce que c'est fort, tu dis carrément que la petite t'exaspère. M : Je sens que je suis moins patient, je suis moins Je ne sais pas, je suis moins flexible. Je voudrais qu'on aille vite, vite Là où je voudrais aller. Et le temps passe et ça rame un peu, je vois que ce n'est pas une grande réussite. Je n'ai pas l'impression qu'ils se soient beaucoup amusés non plus. Et je me dis que c'est raté s'ils ne se sont pas amusés. C : Tu te dis ça à ce moment-là ? M : A ce moment-là, oui Vers la fin. Plusieurs fois vers la fin, oui. Là quand elle me dit « je veux retourner voir C (l'ATSEM) » c'est parce qu'elle ne s'amuse pas. C : Donc, toi tu le vis comme un ? M : Bin, je le vis comme un échec de la séance. C : Et ça t'énerve un peu ? M : Oui, bin, je suis un peu déçu quoi. Je suis déçu de moi-même. Mince, ça a raté. Et là, je suis déjà dans l'après. Qu'est-ce qu'il faut faire ? Comment améliorer la chose ? Qu'est-ce qu'il faudrait faire ? C : T'as déjà abandonné ça ? M : Là, oui. On va faire une partie pour qu'ils puissent jouer une fois pour voir. Je sais que je ne ferai pas de verbalisation après parce qu'on n'a pas le temps. C : Ok. J'aurais bien aimé qu'on les voit jouer une fois un peu avant d'arrêter la vidéo. [] M : Là, on voit déjà qu'il y en a certains qui ont compris. Les garçons qui étaient là au début où j'ai dit « Vous envoyez les balles ». Eux, ils envoient les balles à eux Ils ont compris, ils se retournent et c'est vers là qu'il faut aller. Là, je vois bien que les autres, ils Ils mettent un peu de temps. C : Mince, j'aurais voulu voir sur le plan Tu vois, parce que je pense que quand même dans ton intention, entre le premier jeu et ça, t'attendais une communauté de réponses motrices. Alors, en fait, la réponse des enfants Alors, qu'estce que tu vois là ? M : Je regarde. Là, j'étais sur elle. Je ne sais plus ce qu'il y avait d'autre. Je vois Je regarde l'heure ! Je me dis « Mince ! » C : Tu te dis « Mince quoi » ? M : Ba que c'est trop tard. En plus, là, je vois que Il se passe des choses. Je me dis qu'on pourrait vraiment Que limite, ça marche mieux que l'autre (jeu). Il y a de l'activité, il y a de la réponse, il y a des techniques, ils envoient en l'air. Les autres suivent tant bien que mal ce qu'il se passe mais il se passe quand même des choses intéressantes et je me dis « bin, on 60 va quand même ne pas en parler parce qu'il n'y a plus le temps ». C : Donc, le jeu il te semble intéressant ? T'as un peu ramé pour le mettre en place mais là dans ce petit temps de regard où tu as vu, tu te dis « ah, ça se tient 65 ce jeu » ? M : Ouais, il se passe des choses C : Des choses intéressantes. Et là, dans le même mouvement, tu regardes ta montre M : et je me dis « dommage ! ». 70 C : Dommage ? M : Je me dis ba mince ! Je ne sais plus quelle heure il était. Il était 10, on doit être dehors à et quart Je me dis aussi que l'autre jeu était trop long, peut-être. Et qu'on aurait dû passer à celui-là plus rapidement. 75 Parce que l'autre jeu, dans ma tête, il ne sert juste qu'à amener celui-là. C : Oui, dans ta prep. Mais dans la réalité ? M : Dans la réalité C : Ça ne t'a pas aidé à passer ta consigne ? 80 M : Non. C : Pour toi, il y a un lien entre les 2 jeux. Le premier devait aider le deuxième. Et finalement, c'est le deuxième qui te séduit le plus du point de vue de l'enthousiasme des enfants ? 85 M : Oui, du point de vue de l'enthousiasme des enfants, oui. C : C'est intéressant ça. On va rester là-dessus, on arrête là. -10- Année universitaire 2015-2016 Master 2 Métiers de l'enseignement, de l'éducation et de la formation Mention Premier degré Titre du mémoire : Apprendre à se questionner pour construire ses gestes professionnels. Jeux traditionnels en EPS en Maternelle. Auteur : Martin Anceaume Résumé : Dans toute activité de travail, il existe toujours un écart entre le travail prescrit « pour » et le travail réalisé « par » un sujet. Cet écart entraîne tout acteur à effectuer des gestes professionnels lui permettant de renormaliser une situation. L'analyse conduite à travers ce mémoire porte sur deux séances de jeux traditionnels en EPS, dispensées respectivement par deux professeurs des écoles stagiaires en petite et petite/moyenne section de maternelle. Dans un cadre de formation, cette étude a pour objectif de comprendre la manière dont l'enseignant débutant peut construire ses gestes professionnels. Lors de l'entretien en autoconfrontation avec un tiers expérimenté, chaque enseignant utilise le support vidéo de sa séance. Dans un premier temps, l'entretien permet à l'enseignant d'analyser ses gestes professionnels à un instant « T » (lors de la séance), avec pour question sous-jacente : l'agir de l'enseignant à cet instant « T » peut-il participer à la constitution de ses savoirs ? Dans un second temps, les éléments pris en compte lors de la visualisation de la vidéo (T') doivent permettre de vérifier – ou non – s'il peut exister un décalage entre la constitution des savoirs à l'instant « T » et la constitution des savoirs après cette prise de conscience à l'instant « T' ». Mots clés : EPS – Cycle 1/École Maternelle – Petite section/Moyenne section – Enseignant débutant – Renormalisation – Entretien en autoconfrontation – Construction des gestes professionnels. Summary : In every work activity, there is always a gap between prescribed work and real work done by the one performing the task. This gap trains every teacher to perform professional gestures in the goal to restandard a situation. In this research, we analyse two sessions in traditional games in Physical Education with a 1st and 2nd preschool class. Within a framework of training, this study aims to understand the way a novice teacher builds his professional gestures. During a self-confrontation interview, each teacher uses screening of the recording of his session. Firstly, the interview allows the teacher to analyse his professional gestures at a « T » moment (during the session) with this question : can his gestures participate to the formation of his knowledge ? Secondly, elements taken into account during the interview « T' » must be able to check – or not – if there is a gap concerning the formation of his knowledge between moment « T » and moment « T' ». Key words : Physical Education – 1st Preschool class/2nd Preschool class – Novice teacher – Restandardisation – Self-confrontation interviex – Professional gestures construction
{'path': '34/dumas.ccsd.cnrs.fr-dumas-01366884-document.txt'}
Technologies de l'Information et de la Communication et " architexture " organisationnelle : présentation Florian Hémont, Anne Mayère, Isabelle Bazet, Jean-Luc Bouillon To cite this version: Florian Hémont, Anne Mayère, Isabelle Bazet, Jean-Luc Bouillon. Technologies de l'Information et de la Communication et " architexture " organisationnelle : présentation. Communication - Information, médias, théories, pratiques, Universite Laval, 2017, 34 (2), 10.4000/communication.7276. hal-02100132 HAL Id: hal-02100132 https://hal.univ-rennes2.fr/hal-02100132 Submitted on 15 Apr 2019 Communication Information médias théories pratiques vol. 34/2 | 2017 Vol. 34/2 Technologies de l'Information et de la Communication et « architexture » organisationnelle Présentation Florian Hémont, Anne Mayère, Isabelle Bazet et Jean-Luc Bouillon Édition électronique URL : http://journals.openedition.org/communication/7276 DOI : 10.4000/communication.7276 ISBN : 978-2-921383-81-3 ISSN : 1920-7344 Éditeur Université Laval Ce document vous est offert par Université Rennes 2 Référence électronique Florian Hémont, Anne Mayère, Isabelle Bazet et Jean-Luc Bouillon, « Technologies de l'Information et de la Communication et « architexture » organisationnelle », Communication [En ligne], vol. 34/2 | 2017, mis en ligne le 10 juillet 2017, consulté le 15 avril 2019. URL : http://journals.openedition.org/ communication/7276 ; DOI : 10.4000/communication.7276 Ce document a été généré automatiquement le 15 avril 2019. Les contenus de la revue Communication sont mis à disposition selon les termes de la Licence Creative Commons Attribution - Pas d'Utilisation Commerciale - Pas de Modification 4.0 International. Technologies de l'Information et de la Communication et « architexture » orga Technologies de l'Information et de la Communication et « architexture » organisationnelle Présentation Florian Hémont, Anne Mayère, Isabelle Bazet et Jean-Luc Bouillon 1 Dans un contexte de numérisation généralisée, force est de constater que les médiations numériques occupent désormais une place prépondérante et qu'elles ne sont pas sans incidences sur la manière dont nous faisons l'expérience du quotidien et dont les échanges et les modalités d'action et d'agir collectifs prennent forme. C'est autour de ce constat que les textes thématiques suivants sont articulés. 2 Les recherches autour des technologies numériques de l'information et de la communication nous semblent trop souvent laisser de côté la question même de ces technologies, de la façon dont elles sont conçues pour équiper certaines activités et dont elles participent à mettre en forme l'agir. Par ailleurs, la référence au numérique conduit souvent à renvoyer ces technologies à un espace qui serait de l'ordre du « virtuel », en cela opposé au « réel ». De la virtualité à l'immatérialité, il n'y a qu'un pas, qui est souvent franchi. Le présent numéro vise à prendre au sérieux la matérialité de ces technologies : non seulement en ce qu'elles prennent appui sur des objets et des réseaux techniques on ne peut plus matériels, et qui requièrent tout un travail de maintenance, souvent invisible (Denis et Pontille, 2010 et 2012), mais aussi en ce que les applications informatisées qui mettent en forme les « écrits d'écran » et leurs enchaînements, leurs articulations possibles ou entravées, configurent les possibilités de l'écriture, de la lecture et des conversations. 3 Cette matérialité des technologies, nous proposons de l'appréhender plus spécifiquement dans son rapport aux processus organisants. Il s'agit ici de se positionner dans une approche non essentialiste de l'organisation, dans la lignée des travaux de Karl E. Weick (1995), de l'école de Montréal (Taylor et Van Every, 2000 ; Cooren, 2010), et plus largement des recherches relevant de la communication constitutive des organisations Communication, vol. 34/2 | 2017 1 Technologies de l'Information et de la Communication et « architexture » orga (Putnam et Mumby, 2014). En cela, ce qui fait « organisation » n'est pas établi a priori, mais repéré dans les configurations de processus organisants qui lui donnent forme, et qui participent à ses transformations. L'idée défendue ici est qu'il y a un lien intime entre organisation et communication. Les formes d'organisations qui émergent, qui s'instancient, dépendent des formes de communication qui s'élaborent. Et le développement des formes de communication est lui-même étroitement corrélé aux éléments organisationnels (règles, consignes, textes1, etc.) qui proposent, dans des scènes interactionnelles, des modalités d'agir et des manières de voir. Dans ces scènes interactionnelles, un plenum of agencies2 (Cooren, 2006) agit ou est rendu agissant. Toutefois, dans ces approches, la question des technologies, des outils techniques, demeure peu investie (ou alors relayée à sa dimension matérielle), alors que selon nous elle devrait y trouver toute sa place. Car aujourd'hui, dans une époque de dislocation intense des organisations (Le Moënne, 2004) et d'équipement massif en technologies numériques de l'information et de la communication, cette question se place, selon nous, au centre des dynamiques entre la communication et l'organisation. 4 Les études qui investissent la question de la production et de la mise en oeuvre de technologies ne sont pas nouvelles. Nous pensons ici à des travaux marquants comme ceux du Centre de Sociologie de l'Innovation3, ceux de l'action située4 et de la cognition distribuée5, puis du Computer-Supported Cooperative Work, ou encore de la théorie de l'activité6. Toutes ces approches ont pour point commun de tisser des liens entre technologies et pratiques en proposant des concepts qui permettent de saisir les dynamiques sociales 1) qui participent de l'élaboration de ces technologies ou 2) qui s'élaborent en pratique7. Plus récemment, Lucy Suchman (2007) est revenue sur le terme technologie en insistant sur le fait qu'il peut être problématique, car les technologies ne sont pas seulement des artefacts ou des objets techniques, elles prennent aussi leur place et leur sens en situation d'usage. Dans une même veine, Wanda J. Orlikowski (2007) précise que le terme technologie attire bien souvent l'attention des chercheurs sur le matériel ou sur la partie du logiciel des dispositifs. Elle ajoute que cela a pour effet de privilégier des études sur les moments d'adoption de technologie au détriment d'une conception dans laquelle les technologies traversent l'ensemble de l'activité organisationnelle. Dans le sillon des évolutions de ces travaux, Paul Leonardi, dans l'ouvrage collectif Materiality and organizing: Social interaction in a technological world, exprime son malaise face aux différentes tentatives de conceptualisation qui visent à définir les technologies. Il présente et met en tension trois expressions : « materiality, sociomateriality, and socio-technical systems ». « Materiality » renvoie plus particulièrement aux propriétés intrinsèques des artefacts, « sociomateriality » fait référence à l'enaction de pratiques dans lesquelles se trouvent imbriqués des phénomènes sociaux (normes, institutions, discours) et de la matérialité. Enfin, « socio-technical systems » renvoie à un environnement plus large, comme celui de l'agencement des pratiques de travail au sein d'une organisation en lien avec les dispositifs techniques (2012 : 42). 5 En nous inscrivant dans cette démarche, nous pensons que le concept d'architexte permet de préciser certaines dynamiques sémio-techno-pragmatiques organisationnelles. Afin d'en relever les intérêts heuristiques et les limites, nous proposons ici de mener des discussions autour de ce concept. Communication, vol. 34/2 | 2017 2 Technologies de l'Information et de la Communication et « architexture » orga Architexte, une focale particulière 6 Nous retenons un questionnement qui dépasse la seule désignation de la « matérialité » pour spécifier ce qui la constitue, la met en forme, et contribue ainsi à configurer l'agir (Denis, 2015). Dans la lignée d'autres travaux sur la matérialité et les processus organisants (Leonardi, Nardi et Kallinikos, 2012), nous proposons comme fil directeur de ce questionnement une mise en discussion de la notion d'architexte développée par Yves Jeanneret et Emmanuël Souchier à la fin des années 1990 (Jeanneret et Souchier, 1999) - et régulièrement retravaillée depuis lors (Tardy et Jeanneret, 2014 ; Jeanneret, 2015) - afin d'étudier les « écrits d'écran ». L'architexte est une écriture de l'écriture, qui la prescrit. Ces auteurs nomment les « architextes (de archè : origine et commandement), les outils qui permettent de représenter la structure du texte à l'écran et qui, non contents de représenter la structure du texte, en commandent l'exécution et la réalisation. Autrement dit, le texte naît de l'architexte qui en balise l'écriture » (Jeanneret et Souchier, op. cit. : 103). En considérant cette écriture en bonne part invisibilisée, qui apparaît « en creux » dans les espaces d'écran dédiés à la lecture, à l'écriture et à leurs enchaînements, il s'agit notamment d'interroger les actants qui agissent ainsi en coulisses et les modèles projetés, car « situés au commencement et au commandement de l'acte d'écrire, les maîtres de l'architexte détiennent un pouvoir considérable sur la production du texte et par là même sur celle du sens et de l'interprétation » (ibid. : 106). 7 Dans le présent dossier, il s'agit d'explorer la dimension heuristique de cette notion et de sa mise au travail. Il s'agit également de l'examiner à partir d'autres notions proches et d'ouvrir le débat du cercle des recherches françaises ou francophones qui la mobilisent pour explorer sa contribution potentielle dans divers questionnements contemporains, allant des infrastructure studies aux travaux caractérisant ce qui équipe les transformations du travail de production d'information et les formes de collaboration. Le premier texte de ce numéro rend compte d'un entretien avec Yves Jeanneret autour du concept d'architexte. Il permet de revenir sur la genèse du concept ainsi que sur les perspectives d'analyse qu'il a ouvertes. Architextes : investir la question des « technologies d'organisation » 8 La sociologie des usages des technologies de l'information et de la communication n'a eu de cesse d'insister sur le fait que les pratiques des dispositifs techniques devaient être appréhendées dans ce qu'elles ont de situé, d'émergent. Sans souscrire à un déterminisme technologique ou social, il importe de mettre en question le prêt-à-organiser par le prêtà-écrire qui est ainsi inscrit dans les équipements numériques, et régulièrement retravaillé à l'épreuve des pratiques et des changements organisationnels. Il s'agit d'explorer la façon dont un dispositif technique est le fruit d'inscriptions, et donc de prescriptions (Akrich, 1991) de formes d'écrire et de lire, et de pre-scriptions d'agir, individuelles et collectives. En cela il est question ici de dispositifs qui proposent des formes de dynamiques sociales, locales ou plus globales. 9 Explorer la notion d'architexte permet de préciser les dynamiques à l'oeuvre et ainsi d'approfondir et de prolonger les réflexions sur les tensions entre la technologie et Communication, vol. 34/2 | 2017 3 Technologies de l'Information et de la Communication et « architexture » orga l'organisation. Car si les technologies de l'information et de la communication (TIC) ou les technologies numériques de l'information et de la communication (TNIC) proposent des schèmes interprétatifs et actionnels (Verbeek, 2006), elles sont aussi porteuses de formes d'échange et d'organisation du social, de l'activité. C'est ici que se situe notre intérêt pour cette notion, en ce qu'elle invite à lier ce qui relève d'un rapport sémio-pragmatique à l'objet technique, à une dimension politique entendue au sens large de choix, de catégorisation, de vision du social, de l'organisation, de mise en ordre symbolique 10 Examiner la dimension organisationnelle de l'agir à partir des architextes, c'est donc adopter une position médiane qui offre la possibilité de mettre en regard pratiques et pre-scriptions des modalités d'agir. Il nous semble que cette perspective fait tout l'intérêt de mettre au jour les enjeux politiques afférents aux mises en forme et en pratique des TIC/TNIC. 11 Afin de prolonger ce que Gilbert de Terssac et Isabelle Bazet (2007) ont proposé sous l'expression « technologie d'organisation » lorsqu'ils exploraient la dimension organisante des ERP (Enterprise Resource Planning) dans le secteur de l'industrie, la dimension heuristique de la notion d'architexte est ici plus particulièrement envisagée dans son aspect organisationnel. Ce positionnement amène alors à déplacer cette notion en tissant des liens entre les architextes et, non seulement les pratiques qui se déploient autour des textes, mais l'ensemble des pratiques que les architextes visent à encadrer, ou tout du moins pour lesquelles ils proposent des formes d'interaction et d'agir. 12 Certains travaux récents ont amorcé cette réflexion dans différents domaines : l'industrie (Hémont et Mayère, 2014 ; Sarrouy et Hémont, 2015), les milieux hospitaliers (Bonneville et Grosjean, 2012 ; Mayère, Bazet et Roux, 2012), les débats publics (Mabi, 2014) ou les universités (Bonneville, 2014). Les textes du présent dossier thématique viennent étendre les domaines dans lesquels ce lien entre technologie, formes de communication et formes d'organisation est interrogé et ainsi alimenter la discussion scientifique. 13 Questionner les formes de performativité de ces technologies d'organisation, et plus particulièrement de leur architexte, sur les formes d'organisation des agir collectifs nous semble d'un intérêt particulièrement actuel ; en retour, il convient d'interroger la façon dont des organisations contribuent à produire des architextes. Il s'agit également d'examiner ce que ces architextes font aux individus et aux collectifs, et ce qu'ils en font. Organisation des textes thématiques 14 Les quatre articles de ce numéro thématique proposent des approches relativement variées. Si le premier texte examine la conceptualisation même de la notion d'architexte et vise à la prolonger, les autres textes relèvent d'approches plus empiriques et partent de terrains pour l'actualiser et la mettre au travail dans des contextes variés comme la communication organisationnelle et les médiations culturelles. 15 Le premier article, de Ronan German et Lénaïck Leyoudec et intitulé « La genèse de l'architexte en contexte patrimonial : croisement de deux observations participantes en contrat CIFRE », nous propose d'étudier des architextes en fonction de leur fabrique. Comme le relèvent ces auteurs, la caractérisation d'un architexte est souvent opérée indirectement, par l'étude de ce qu'il conforme dans les pratiques, faute de pouvoir accéder aux concepteurs. Parce qu'ils ont été intégrés dans deux agences dans le cadre de bourses CIFRE en tant que membres des équipes de conception, les auteurs ont pu Communication, vol. 34/2 | 2017 4 Technologies de l'Information et de la Communication et « architexture » orga observer de l'intérieur la conception et le déploiement de deux architextes configurant des sites Web à destination de musées et de monuments historiques. Sur cette base, ils posent la question de savoir qui sont « les maîtres de l'architexte » : s'agit-il des seuls concepteurs, dans de telles configurations de commandes ou de marchés publics qui font intervenir, simultanément ou successivement, une diversité d'organisations ? Les auteurs mettent en évidence des formes d'industrialisation de la conception des architextes, par incrémentations et stabilisations successives de fonctionnalités récurrentes, dans un contexte de marchés publics fortement contraints. 16 Cet article nous permet d'entrer dans l'analyse sémiotique des « écrits d'écran », couplée à celle de verbatim d'entretiens et d'éléments de codes informatiques, pour repérer des traces de ces sédimentations successives, au cours desquelles certaines demandes spécifiques sont retenues comme généralisables, ou certaines innovations testées sur la base d'hypothèses concernant leur attractivité plus générale. Que ce soit dans les signes passeurs, dans l'ontologie structurant des bases de données ou dans des éléments du code informatique, les architextes présentent ainsi les marques de ces trajectoires faites de négociations et de compromis. Les auteurs concluent dès lors que la maîtrise des architextes s'avère distribuée, plurielle dans la prise d'initiative, entre projet industriel des prestataires et projet d'établissement des organisations clientes successives. 17 Dans le deuxième article du dossier, Karolina Swiderek explore, sur le terrain du contrôle aérien, les architextes « supports d'outils-méthodes » qui viennent guider et équiper les actions de lecture et d'écriture en situation professionnelle, et contribuer ainsi à la production de l'organisation. L'auteure s'inscrit ainsi dans le prolongement des « approches constitutives » selon lesquelles l'organisation résulte de processus communicationnels et renouvelle les analyses en termes de dialectique entre « textes » et « conversations » (Taylor et Van Every, op. cit.). Elle s'intéresse plus spécifiquement au fonctionnement d'un système de gestion de la sécurité dans le contrôle aérien, sur le plan de la notification et du traitement des événements liés aux accidents et incidents. Dans ce cadre, les architextes, prenant la forme concrète d'une multitude de formulaires, traduisent tout d'abord les normes fixées institutionnellement. Ils sont produits par des auteurs autorisés, en particulier des experts, fournissent des instructions pour l'écriture, prescrivent certaines manières de faire, en interdisent d'autres. Mais dans le même temps, ils constituent des espaces scripturaux, où se composent collectivement et en situation la négociation du sens des événements et la façon de les relater. Le plus souvent, rendre compte d'un accident ou d'un incident ne se limite pas à la retranscription d'un fait objectif, mais implique des processus interprétatifs, où interviennent les sensibilités subjectives et les expériences individuelles. 18 L'architexte, le formulaire, ne saurait être considéré comme un simple cadre contraignant nécessaire à recueillir des informations. Il structure l'agir collectif et participe à la co-production des significations. Chaque nouvel écrit déclenche de nouvelles actions à l'échelle de la cellule qualité-sécurité, l'activité est étendue dans le temps, alimentée au fur et à mesure de l'arrivée des nouveaux écrits. L'architexte lié à la notification s'étend, lors du traitement des événements, à une « architexture » élargie à l'ensemble de l'organisation, intégrant la diversité des formes scripturales, sur support papier ou numérique. Comme le souligne Swiderek, « à travers chaque nouvelle écriture [], les acteurs réalisent ce qui a été inscrit dans les documents normatifs []. Par conséquent, ils actualisent les règles de notification ainsi que de traitement des événements dans la pratique ». Défini de manière normative, l'architexte se co-construit Communication, vol. 34/2 | 2017 5 Technologies de l'Information et de la Communication et « architexture » orga au quotidien, ce qui valide son agentivité (il fait agir ceux qui s'en servent) et légitime son existence (il fait l'objet d'une appropriation). C'est ainsi que les architextes contribuent en pratique à la production permanente de l'organisation et constituent un concept permettant de saisir des dynamiques organisationnelles complexes, reliant situations quotidiennes et évolutions générales. 19 Dans la troisième contribution à ce dossier, Cédric Calvignac et Jan Smolinski relatent une expérience de médiation culturelle qui s'organise autour de la production et du test d'une application mobile. Cette application mobile propose d'accompagner la découverte de lieux particuliers de la ville d'Albi dans le sud-ouest de la France. Elle propose du contenu sur certains sites de la ville tout en affichant la position du téléphone sur une carte numérique. En complément, cette application est également utilisée comme un collecteur de données (temps d'attention, géolocalisation, etc.) qui servent ensuite à l'analyse de l'organisation de la visite de la ville. Deux groupes témoins sont constitués, le premier avec un livret qui présente les monuments et le second avec une application Web mobile en complément du livret. La comparaison des organisations du rapport à la ville, à la manière de la parcourir, de s'orienter, de s'arrêter et d'observer semble indiquer que l'introduction de l'application n'est pas sans effet sur ces comportements : Les équipements techniques participent de façon significative à l'économie organisationnelle de la visite dans son ensemble, ne serait-ce que par leur propension à faire ralentir ou accélérer le pas, à provoquer des arrêts et piétinements. Ces constantes de déplacement induites par l'usage d'un dispositif ont pour conséquence directe de modifier le degré d'attention des visiteurs. [] Le dispositif en question organise la façon dont les lecteurs vont à l'information, la façon dont les usagers s'emparent des prescriptions formulées. 20 Entre la dimension synoptique de la carte papier et le caractère auto-centré proposé par la carte numérique, les pratiques qui s'élaborent semblent donc diverger quelque peu. 21 Par ailleurs, dans le fond, ce texte agencé en deux temps (la conception de l'application et sa mise en oeuvre) revient tout d'abord sur le fait que la conception d'un dispositif s'élabore à base d'« emprunts architextuels » qui peuvent à l'occasion, une fois en usage, avoir une incidence sur les rapports avec les contenus proposés - ainsi les auteurs précisent-ils la force que l'architexte peut exercer sur le texte, sur la manière dont les représentations inscrites dans le dispositif participent ou non à l'enaction d'une expérience de découverte touristique d'une ville. Ensuite, le texte propose de revenir sur les décalages entre les prescriptions d'usages escomptés et le développement de pratiques en situation, par exemple en ce qui concerne les « ouvertures attentionnelles » et les manières de recourir à l'application mobile. 22 Dans le quatrième et dernier article du dossier thématique, Cléo Collomb propose de déplier le caractère computationnel, calculatoire de l'architexte. Elle cherche à faire compter les non-humains dans les « écrits d'écran » en proposant une reformulation épistémologique du concept d'architexte. L'auteure développe un volet technosémiotique, jusque-là inexploré. La focale consiste dès lors à donner une place - sa place - à la machine en révélant ce qu'elle fait. Il s'agit de s'intéresser à la façon dont les machines travaillent à partir d'une forme singulière d'écriture : l'écriture binaire. Ce détour vise à « faire compter les machines computationnelles » pour conter en quelque sorte les chemins qu'elles esquissent, les voies qu'elles tracent pour elles-mêmes. 23 Cette contribution nous invite à une série de dévoilements. Communication, vol. 34/2 | 2017 6 Technologies de l'Information et de la Communication et « architexture » orga 24 Premièrement, elle nous sort de la neutralisation dans laquelle l'émergence du concept d'architexte a cantonné les machines, les réduisant à de simples instruments. Ce positionnement occulte, selon l'auteure, la dimension processuelle de l'activité computationnelle à laquelle il faut redonner place, car cette activité ne se réduit pas à ce qui permet d'afficher du texte à l'écran. L'auteure souligne que l'explicitation de ce qui pilote « l'écriture de l'écriture » a notamment été abordée par les chercheurs en fonction d'un intérêt marqué pour le dévoilement du versant applicatif des machines (software) et des chemins qui y sont prescrits ou proscrits. Or, la seule focale sur les applications n'épuise pas ce qui se joue au coeur de la machine et l'auteure nous invite à aller plus loin, en rompant avec ce qu'elle assimile à la « fétichisation du code source » portée notamment par le courant des media studies. 25 Deuxièmement, il s'agit dès lors, en s'amendant d'une posture anthropocentrée, de construire une opérationnalité théorique du concept d'architexte en reconnaissant que la machine agit et que son activité relève du calcul. Le questionnement s'oriente alors sur une piste méthodologique : comment l'humain peut-il saisir l'activité propre de la machine ? L'écriture binaire constituerait une prise pour parvenir à une telle entreprise. Oui, mais à condition de considérer que l'écriture-calcul est une radicalisation conceptuelle qui s'inscrit dans une raison graphique (Goody, 1979). C'est ainsi que l'auteure nous invite à distinguer l'écriture-calcul des machines et l'écriture-texte des humains. Au bout du compte, cette piste de l'écriture-calcul et de l'agentivité singulière des machines trouverait dans l'étude méthodique des bogues une voie d'explicitation. En effet, Collomb propose d'envisager le bogue comme relevant du fonctionnement « extraordinaire » des machines et, à partir de leur examen minutieux, de donner à voir comment les machines agissent pour elles-mêmes tout en rendant lisible le caractère singulier de cette écriture architextuelle. Mise en perspective 26 Au fil de ces articles, la notion d'architexte est ainsi mise au travail de diverses façons, dans une filiation plus ou moins étroite avec sa formulation première, mais qui permet d'en mieux cerner les capacités heuristiques, avec ce qui peut être considéré à la fois comme une approche méthodologique et comme une ouverture théorique sur la prise en compte de formes d'agentivité des systèmes techniques en bonne part ignorées ou « aplaties » par la sociologie des usages. L'article de Collomb ouvre le plus avant cette orientation en nous proposant de prendre pleinement au sérieux la capacité d'action autonome des machines, leur agentivité dans ce qu'elle a de spécifique. Dans un contexte de numérisation accélérée, démultipliée, il paraît également tout particulièrement pertinent d'explorer les modalités d'industrialisation des architextes, les façons dont ils reprennent et étendent des formes, des représentations, des modes de raisonnement. Ainsi German et Leyoudec nous donnent-ils à voir comment des professionnels du multimédia cherchent à stabiliser des composants standard, par itérations entre différents contrats, au travers de microcomposants tels que des signes passeurs censés symboliser la notion d'oeuvres, ou d'orientations plus structurantes, par exemple celle qui consiste à mettre en avant la performance des collections par la mise en écran de leur mesure quantifiée. 27 La notion d'architexte, loin d'être « purement technique », permet d'interroger ce qui se loge comme pouvoir dans une série de codes ou dans une composition d'écran. Il ne s'agit Communication, vol. 34/2 | 2017 7 Technologies de l'Information et de la Communication et « architexture » orga pas pour autant de revenir à une forme de déterminisme technique, mais bien d'explorer au plus fin des écrans et de leurs enchaînements ce qu'ils nous font et ce que nous en faisons. En cela, le questionnement de cet objet pluriel, multiforme, est aussi une invitation à explorer de façon précise les allers-retours entre conception et pratiques en situation, dans leur dynamique, leurs interactions. En effet, l'emprise croissante des architextes et de leur emboîtement intervient en même temps que se développent des formes de malléabilité, des rythmes et des natures d'évolution diversifiés, bien loin du séquençage linéaire « conception-utilisation » qui a pu, en partie, caractériser les premières décennies des technologies numériques. Explorer les interactions entre architextes et pratiques, comme le font Calvignac et Smolinski, c'est en cela aussi mettre en évidence la banalisation accélérée de techniques qui se veulent « modernes » et dont la capacité à « faire une différence dans l'action » s'avère parfois limitée, lorsqu'elles reposent plus sur des redondances de mises en texte que sur des évolutions au regard des pratiques usuelles - en l'occurrence ici de visites touristiques. 28 En conclusion, ce dossier se veut avant tout une invitation à poursuivre ce travail de recensement et de caractérisation des architextes, à en établir des généalogies et à explorer les façons dont prennent forme les interactions entre la conception des architextes et leurs pratiques. C'est également une invitation à interroger plus avant la façon dont les architextes peuvent faire débat, controverse, dont ils peuvent ou non recomposer les façons de faire et d'écrire, ou se fondre dans l'écologie des artefacts et des pratiques déjà conformés par des méta-architextes inscrits dans des filiations communes. Plus généralement, ces travaux invitent à explorer en profondeur la manière dont ces objets informatiques participent d'une certaine mise en ordre de pans d'activités. Cette mise en ordre est supportée par des dispositifs qui sont alors proposés comme allant de soi. Ce faisant, les formes de pouvoir qui y sont déposées sont euphémisées. Les régimes de contrôle sont pour partie invisibilisés, et ces formats articulés au coeur même des architextes banalisent leur mise en oeuvre. Il nous semble ainsi que les travaux actuels sur les algorithmes (Cardon, 2015 ; Ertzscheid, 2015 ; Rouvroy, 2013) ouvrent une voie de prolongement tout à fait stimulante. 29 Nous espérons avec ce dossier stimuler votre curiosité pour cette notion et ses capacités heuristiques, et que le travail ici rassemblé suscitera discussions et prolongements. BIBLIOGRAPHIE AKRICH, Madeleine (1990), « De la sociologie des techniques à une sociologie des usages », Techniques & culture, (16) : 83-110. AKRICH, Madeleine (1991), « L'analyse socio-technique », dans Dominique VINCK (dir.), La gestion de la recherche, Bruxelles, De Boeck, p. 339-353. AKRICH, Madeleine (1993a), « Les formes de la médiation technique », Réseaux, (60) : 87-98. AKRICH, Madeleine (1993b), « Les objets techniques et leurs utilisateurs, de la conception à l'action », Raisons pratiques, (4) : 35-57. Communication, vol. 34/2 | 2017 8 Technologies de l'Information et de la Communication et « architexture » orga BONNEVILLE, Luc (2014), « Les pressions vécues et décrites par des professeurs d'une université canadienne », Questions de communication, 26 : 197-218. BONNEVILLE, Luc et Sylvie GROSJEAN (2012), « Pourquoi faut-il sortir de la parole instrumentalisée en milieu de travail ? », Communication, 30(2) : 2-21. CARDON, Dominique (2015), À quoi rêvent les algorithmes : nos vies à l'heure des big data, Paris, Seuil, Coll. « La République des idées ». COOREN, François (2010), « Le cahier des charges d'un (méta)-modèle constitutif de la communication : une proposition », Revue internationale Communication sociale et publique, 3-4 : 103-122. COOREN, François (2006), « The organizational world as a plenum of agencies », dans François COOREN, James R. TAYLOR et Elizabeth J. VAN EVERY (dir.), Communication as Organizing: Empirical and Theoretical Explorations in the Dynamic of Text and Conversation, Londres, LEA, p. 81-100. DENIS, Jérôme (2015), Le travail invisible de l'écrit. Enquête dans les coulisses de la société de l'information. Thèse d'habilitation à diriger des recherches, garant Franck COCHOY, Toulouse, Université de Toulouse. DENIS, Jérôme et David PONTILLE (2010), « Performativité de l'écrit et travail de maintenance », Réseaux, 163(5) : 105-130. DENIS, Jérôme et David PONTILLE (2012), « Travailleurs de l'écrit, matières de l'information », Revue d'anthropologie des connaissances, 6(1) : 1-20. ENGESTRÖM, Yrjö (1987), Learning by expanding: An activity-theoretical approach to developmental research, Helsinki, Orienta-Konsultit Oy. ENGESTRÖM, Yrjö (2000), « Activity theory as a framework for analyzing and redesigning work », Ergonomics, 43(7): 960-974. ERTZSCHEID, Olivier (2015), « Usages de l'information numérique : comprendre les nouvelles enclosures algorithmiques pour mieux s'en libérer », Revue française des sciences de l'information et de la communication, 6, mis en ligne le 29 janvier 2015. [En ligne]. http://rfsic.revues.org/1425. Page consultée le 21 février 2015. GOODY, Jack (1979), La raison graphique : la domestication de la pensée sauvage, traduit de l'anglais pas Jean BAZIN et Alban BENSA, Paris, Minuit. HÉMONT, Florian et Anne MAYÈRE (2014), « Pour une lecture communicationnelle du travail d'équipement des sous-traitants : le cas du 5S dans l'aéronautique », Études de communication. Langages, information, médiations, 42 : 127-148. HUTCHINS, Edwin (1994), « Comment le "cockpit" se souvient de ses vitesses », Sociologie du travail, 36(4) : 451-473. JEANNERET, Yves (2015), Critiques de la trivialité. Les médiations de la communication, enjeu de pouvoir, Paris, Éditions Non Standard. JEANNERET, Yves et Emmanüel SOUCHIER (1999), « Pour une poétique de "l'écrit d'écran" », Xoana. Images et sciences sociales. Multimédias en recherche, 6 : 97-107. LATOUR, Bruno (2006), « Les "vues" de l'esprit. Une introduction à l'anthropologie des sciences et des techniques », dans Madeleine AKRICH et Michel CALLON (dir.), Sociologie de la traduction. Textes fondateurs, Paris, Presses de l'École des mines de Paris. LE MOËNNE, Christian (2004), « La communication organisationnelle à l'heure de la dislocation spatio-temporelle des entreprises », Sciences de la société, 62 : 209-224. Communication, vol. 34/2 | 2017 9 Technologies de l'Information et de la Communication et « architexture » orga LEONARDI, Paul M. (2012), « Materiality, sociomateriality, and socio-technical systems: What do these terms mean? How are they different? Do we need them? », dans Paul M. LEONARDI, Bonnie A. NARDI et Jannis KALLINIKOS, Materiality and Organizing: Social Interaction in a Technological World, Oxford, Oxford University Press, p. 25-48. LEONARDI, Paul M., Bonnie A. NARDI et Jannis KALLINIKOS (2012), Materiality and Organizing: Social Interaction in a Technological World, Oxford, Oxford University Press. MABI, Clément (2014), Le débat CNDP et ses publics à l'épreuve du numérique. Entre espoirs d'inclusion et contournement de la critique sociale. Thèse de doctorat, sous la direction de Laurence MONNOYER-SMITH, Compiègne, Université de technologie de Compiègne. MAYÈRE, Anne, Isabelle BAZET et Angélique ROUX (2012), « "Zéro papier" et "pense-bêtes" à l'aune de l'informatisation du dossier de soins », Revue d'anthropologie des connaissances, 6(1) : 115-139. ORLIKOWSKI, Wanda J. (2000), « Using technology and constituting structures: A practice lens for studying technology in organizations », Organization Science, 11(4): 404-428. ORLIKOWSKI, Wanda J. (2007), « Sociomaterial practices: Exploring technology at work », Organization Studies, 28(9): 1435-1448. PUTNAM, Linda L. et Dennis K. MUMBY (dir.) (2014), The SAGE Handbook of the Organizational Communication: Advances in Theory, Research and Methods, 3e édition, Los Angeles (CA), Sage Publications. ROUVROY, Antoinette et Thomas BERN (2013), « Gouvernementalité algorithmique et perspectives d'émancipation », Réseaux, 177 : 163-196. SARROUY, Olivier et Florian HÉMONT (2015), « Écritures organisationnelles et médiations numériques : le cas d'une plateforme de crowdsourcing », Actes du colloque international Communication organisationnelle, Processus communicant, processus organisants et leurs médiations, Toulouse, p. 276-285. SUCHMAN, Lucy A. (1994), Plans and Situated Actions: The Problem of Human-Machine Communication, New York, Cambridge University Press. SUCHMAN, Lucy A. (2007), Human-Machine Reconfigurations: Plans and Situated Actions, New York, Cambridge University Press. TARDY, Cécile et Yves JEANNERET (dir.) (2014), L'écriture des médias informatisés. Espaces de pratiques, Paris, Lavoisier, Coll. « Hermès Science ». TAYLOR, James R. et Elizabeth J. VAN EVERY (2011), The Emergent Organization. Communication As Its Site and Surface, Athènes, LEA Publishers. TERSSAC, Gilbert de et Isabelle BAZET (2007), « Les TIC-TAC de la rationalisation : un travail d'organisation ? », dans Gilbert de TERSSAC, Isabelle BAZET et Lucien RAPP (dir.), La rationalisation dans les entreprises par les technologies coopératives, Toulouse, Octarès, p. 7-27. VERBEEK, Peter-Paul (2006), « Materializing morality: Design ethics and technological mediation », Science, Technology et Human Values, 31(3): 361-380. WEICK, Karl E. (1995), Sensemaking in Organizations, Londres, Sage Publications. Communication, vol. 34/2 | 2017 10 Technologies de l'Information et de la Communication et « architexture » orga NOTES 1. En tant qu'écrit, mais aussi en tant que discours comme manifestation d'une production de sens. 2. Dans ce plenum of agencies, l'auteur prend en considération tant les acteurs humains que les acteurs non humains (des panneaux de signalisation, des discours, des entités invoquées durant les interactions, etc.). 3. Voir Latour (2006), Akrich (1990, 1991, 1993a et 1993b), etc. 4. Voir Suchman (1994). 5. Voir Hutchins (1994). 6. Voir Yrjö Engeström (1987, 2000). 7. « Technology-in-practice » pour reprendre l'expression de Wanda J. Orlikowski (2000). INDEX Mots-clés : architexture, numérisation, matérialité, écrit d'écran, technologie Keywords : architext, digitalization, materiality, screen-based writings, technology Palabras claves : architext, digitalización, materialidad, escritos de pantalla, tecnología AUTEURS FLORIAN HÉMONT Florian Hémont est Maître de conférences, membre de l'unité de recherche Plurilinguismes, Représentations, Expressions Francophones, Information, Communication, Sociolinguistique (PREFICS), Université Rennes 2. Courriel : florian.hemont@univ-rennes2.fr ANNE MAYÈRE Anne Mayère est Professeure, membre du Centre d'Etude et de Recherche Travail, Organisation, Pouvoir (CERTOP), Université Toulouse 3. Courriel : anne.mayere@iut-tlse3.fr ISABELLE BAZET Isabelle Bazet est Maître de conférences, membre du Centre d'Etude et de Recherche Travail, Organisation, Pouvoir (CERTOP), Université Toulouse 3. Courriel : isabelle.bazet@iut-tarbes.fr JEAN-LUC BOUILLON Jean-Luc Bouillon est Professeur, membre de l'unité de recherche Plurilinguismes, Représentations, Expressions Francophones, Information, Communication, Sociolinguistique (PREFics), Université Rennes 2. Courriel : jean-luc.bouillon@univ-rennes2.fr Communication, vol. 34/2 | 2017 11
{'path': '30/hal.univ-rennes2.fr-hal-02100132-document.txt'}
Coût du travail et exportations : analyses sur données d'entreprises Clément Malgouyres To cite this version: Clément Malgouyres. Coût du travail et exportations : analyses sur données d'entreprises. [Rapport de recherche] Rapport IPP n°20, Institut des politiques publiques (IPP). 2019. halshs-02514729 HAL Id: halshs-02514729 https://halshs.archives-ouvertes.fr/halshs-02514729 Submitted on 22 Mar 2020 RAPPORT IPP N°20 – JANVIER 2019 Coût du travail et exportations : analyses sur données d'entreprises Clément Malgouyres L'Institut des politiques publiques (IPP) est développé dans le cadre d'un partenariat scientifique entre PSE-Ecole d'économie de Paris (PSE) et le Centre de Recherche en Economie et Statistique (CREST). L'IPP vise à promouvoir l'analyse et l'évaluation quantitatives des politiques publiques en s'appuyant sur les méthodes les plus récentes de la recherche en économie. www.ipp.eu RAPPORT IPP N°20 –JANVIER 2019 Coût du travail et exportations : analyses sur données d'entreprises Clément Malgouyres AUTEUR DU RAPPOR T Clément Malgouyres est titulaire d'un doctorat en économie à l'Institut universitaire européen de Florence en 2016. Il s'intéressent à l'économie du travail et à l'économie publique. Ses travaux récents portent sur la fiscalité de entreprises, l'évaluation de politiques publiques à partir de données administratives ainsi que les interactions entre commerce international, technologie et marché du travail. Page personnelle : https://sites.google.com/site/clementmalgouyres R EMERCIEMENTS Je souhaite remercier tout l'équipe du Conseil d'analyse économique (CAE) pour les interactions fructueuses que nous avons pu avoir tout au long de ce projet, en particulier Samuel Delpeuch, Etienne Fize, Yannick L'Horty, Philippe Martin, Thierry Mayer et Hélène Paris. Je tiens aussi à remercie Sophie Cottet pour son aide afin de me familiariser avec le modèle TAXIPP. Je tiens à remercier également l'équipe du Centre d'accès sécurisé à distance (CASD) pour leur réactivité et leur efficacité, notamment dans le le traitement des exports CASD que pour la résolution de problèmes techniques. 1 Coût du travail et exportations : analyses sur données d'entreprises 2 S YNTHÈSE DES RÉSULTATS ● Cette étude vise à mesurer l'impact du coût du travail sur la compétitivité des entreprises françaises, mesurée par la propension à exporter. Trois réformes visant à alléger le coût du travail sont exploitées : i) le pacte de responsabilité de 2015 ; ii) le CICE ; et les allègements généraux de 1995, dits allègements Juppé. Aucune des analyses réalisées ne met en évidence d'effets positifs d'une baisse du coût du travail sur les exportations. ● Le Pacte de responsabilité 2015 (PR15) a mis en place une baisse du taux de cotisations sociales d'allocations familiales de 1,8 point sur les salaires inférieurs à 1,6 Smic. Sur un ensemble d'entreprises exposées de façon similaire au CICE, nous comparons les entreprises plus ou moins touchées par Pacte de responsabilité. Aucun effet n'est détecté sur les variables de commerce international (valeur exportée, marge extensive, valeur unitaire). Certaines spécifications suggèrent un effet sur l'emploi, les ventes totales et la valeur, mais ces effets restent sensibles à l'année de référence utilisée et ne sont pas considérés comme robustes. En revanche, il apparaît de façon robuste que, en dehors du secteur manufacturier, une forte part de la baisse du coût du travail a été transmise dans le taux de marge (mesuré par le ratio de l'excédent brut d'exploitation par rapport aux ventes). Il faut noter que ces résulats sont obtenus sur un échantillon particulier d'entreprises, qui ne diffèrent pas en termes d'exposition au CICE ou aux allè3 Coût du travail et exportations : analyses sur données d'entreprises gements généraux de cotisations. De plus, l'analyse met en avant le rôle de l'externalisation de certains services qui introduit vraisemblablement un biais dans la mesure du vrai choc sur le coût du travail que représente le PR15. Bien qu'informatifs sur les liens entre coût du travail et performances des entreprises, les résultats de cette étude doivent être interprétés comme des corrélations davantage que comme des effets causaux. En effet, les trajectoires des entreprises traitées sur la période pré-traitement sont légèrement différentes de celles des entreprises qui font partie du groupe de contrôle. ● L'analyse du CICE confirme l'absence d'effet significatif du CICE sur les exportations entre 2013 et 2017. Cette analyse est une simple extension de Malgouyres et Mayer (2018) aux années 2016 et 2017. De plus, en utilisant une spécification proche, nous analysons les effets sur Pacte de responsabilité 2016 qui a étendu la baisse du taux de cotisations sociales d'allocations familiales de 1,8 point sur les salaires inférieurs à 3,5 Smic. Nous ne trouvons pas d'effet sur les exportations. Néanmoins compte tenu du faible recul temporel, nous ne tenons pas cette absence d'effet détecté comme très informative. ● L'analyse met en lumière des effets positifs et significatifs de la Ristourne Juppé II sur la performance des entreprises, selon des ordres de grandeur globalement comparables aux résultats de Crépon et Desplatz (2001). Pour autant, les effets sur les variables de commerce international ne sont pas significatifs. Ainsi, même si au sein du secteur manufacturier, les allègements généralisés de cotisations employeurs semblent fortement corrélés avec la création / le maintien d'emplois ainsi que la hausse de la valeur ajoutée, l'analyse ne permet pas de mettre en évidence un effet positif sur la compétitivité internationale. Alors que (i) coût du travail et performance à l'exportation sont fortement néga4 Synthèse des résultats tivement corrélées (voir par exemple Decramer et al., 2016; Malgouyres et Mayer, 2018), (ii) que certains travaux soulignent la réactivité des prix et valeurs exportées aux variations de certains coûts de production (tel que l'électricité, voir Fontagné et al., 2017), ce rapport ne permet pas de mettre à jour de corrélation entre une source particulière de variation de coût du travail (les exonérations de cotisations sociales) et la compétitivité internationale. 5 Coût du travail et exportations : analyses sur données d'entreprises 6 S OMMAIRE Remerciements 1 Synthèse des résultats 5 Introduction 9 1 Élément d'évaluation du Pacte de responsabilité 2015 1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1.1 Description de la mesure . . . . . . . . . . . . . . . . . . . . . . . 1.1.2 Statistiques descriptives . . . . . . . . . . . . . . . . . . . . . . . 1.2 Stratégie empirique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2.1 Constitution de l'échantillon d'estimation et des principales variables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2.2 Spécification . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3 Résultats sur les variables de commerce international . . . . . . . . . 1.4 Résultats sur d'autres variables liées à la compétitivité : forme réduite 1.5 Transmission du coût du travail dans le taux de profit . . . . . . . . . 1.6 Hétérogénéité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.6.1 Hétérogénéité des effets : forme réduite . . . . . . . . . . . . . 1.6.2 Hétérogénéité de la transmission du choc dans les profits . . . 1.7 Test additionnels : le rôle de l'« externalisation » . . . . . . . . . . . . 1.8 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 13 13 14 15 2 Extension de l'évaluation du CICE sur la compétitivité : 2013-2017 2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2 Résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2.1 Différences longues . . . . . . . . . . . . . . . . . . . . . . . . 2.2.2 Croissance cumulée . . . . . . . . . . . . . . . . . . . . . . . . 2.3 Extension de l'analyse au Pacte de responsabilité 2016 . . . . . . . 2.3.1 Description de la mesure . . . . . . . . . . . . . . . . . . . . . 2.3.2 Spécification empirique . . . . . . . . . . . . . . . . . . . . . 43 43 44 44 46 47 48 48 7 . . . . . . . . . . . . . . 18 20 21 24 26 30 30 34 37 40 Coût du travail et exportations : analyses sur données d'entreprises 2.3.3 Résultats sur le Pacte de responsabilité 2016 . . . . . . . . . . . 49 2.4 Discussion et conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . 50 3 La ristourne Juppé II et la performance à l'exportation des entreprises ciblées : 1995-1997 3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2 Approche empirique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2.1 Mesurer les effets ex-ante de la baisse de charges sur le coût du travail . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2.2 Stratégie empirique . . . . . . . . . . . . . . . . . . . . . . . . . 3.3 Résultats de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.4 Variable de commerce international . . . . . . . . . . . . . . . . . . . . 3.5 Discussion et conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . 51 51 52 52 54 57 60 61 Annexe A 63 Annexe B 67 Références 69 Liste des tableaux 73 Liste des figures 75 8 I NTRODUCTION Contexte de l'étude La compétitivité est une préoccupation souvent invoquée par les décideurs publics afin de justifier des réformes 1 . Bien que l'objectif des réformes en faveur de la compétitivité soit généralement de nature macroéconomique – assurer un équilibre durable de la balance commerciale notamment – les politiques concernées sont souvent micro-économiques. C'est particulièrement vrai dans les unions monétaires telles que la zone euro, où les variations du taux de change nominal ne sont pas une option. Certains des outils d'intervention disponibles en faveur de la compétitivité visent la compétitivité dite "hors-prix". On peut citer parmi eux les crédits d'impôt en faveur de la R&D (Hombert et Matray, 2018) ou encore les réformes du système éducatif en faveur de l'apprentissage (Villeroy de Galhau, François, 2015). Il est toutefois probable que l'impact de ce type de mesures ne se manifeste qu'à longterme. Les politiques à court terme visent généralement à réduire les coûts des entreprises domestiques par rapport à ceux des entreprises étrangères concurrentes afin de renforcer la "compétitivité-prix". L'idée de base qui sous-tend ces politiques est que la performance à l'exportation des entreprises est déterminée par le prix à l'exportation et que la répercussion de la réduction des coûts unitaires sur les 1. Un récent exemple est la suggestion par le Groupe d'experts du Smic de revoir les règles de revalorisation du salaire minimum dont « conséquences peuvent être fâcheuses pour la compétitivité française » (p.67, RapportSmic, 2017). 9 Coût du travail et exportations : analyses sur données d'entreprises prix à l'exportation est assez élevée pour que les parts de marché des entreprises nationales sur les marchés internationaux augmentent. Les politiques visant à contenir le coût de production unitaire des entreprises nationales se sont intéressées à un intrant en particulier : le travail. Ces politiques peuvent alors prendre plusieurs formes : modération salariale, flexibilisation de la réglementation du marché du travail, ou encore baisse des prélèvements sociaux sur le travail et leur transfert vers d'autres ressources. Notre étude se concentre sur la dernière de ces politiques. Depuis le début des années 1990, le gouvernement français a mis en place un ensemble de politiques de réductions des cotisations employeurs avec pour objectif explicite la création d'emploi et parfois le maintien de la compétitivité internationale des entreprises françaises. Du point de vue de leur montant, ces politiques constituent la première politique de l'emploi en France (L'Horty, 2006). Ce rapport vise à déterminer si elles participent également à améliorer la compétitivité des entreprises affectées. Objectifs de l'étude L'étude vise à isoler la réaction des entreprises en matière de compétitivité internationale à une variation du coût du travail générée par des politiques d'exonération des cotisations employeurs. À cette fin, trois réformes sont analysées sur la base de données micro-économiques. La méthode consiste à exploiter l'hétérogénéité des effets mécaniques des politiques mises en place selon la structure initiale des salaires des entreprises. Naturellement les politiques évaluées ont (vraisemblablement) des effets macro-économiques que les méthodes mises en place ici ne permettent pas d'estimer mais seulement de neutraliser – par exemple en effectuant des comparaisons au sein de secteurs précis afin de prendre en compte les effets du cycle économique qui peut être différencié selon les domaines d'activité. Ainsi, ce rapport vise à estimer les effets relatifs des 10 Introduction politiques analysées entre entreprises plus ou moins affectées, sans rendre compte des effets agrégés de ces politiques qui affectent l'ensemble des entreprises dans l'économie. Plan du rapport Chapitre 1 : Éléments d'évaluation du Pacte de responsabilité 2015 Le Pacte de responsabilité 2015 a instauré une réduction de 1,8 point des cotisations sociales employeurs pour les rémunérations qui n'excèdent pas 1,6 Smic annuel. Ce chapitre vise à estimer les effets de ce dispositif sur les exportations des entreprises intensément affectées par le dispositif. D'autres variables d'intérêt sont également analysées. Chapitre 2 : Actualisation de l'évaluation du Crédit d'impôt en faveur de la compétitivité et de l'emploi (CICE) et éclairages sur le Pacte de responsabilité 2016 Ce chapitre est une actualisation des travaux de Malgouyres et Mayer (2018) visant à estimer les effets du CICE sur les performances des entreprises françaises à l'export. Le Pacte de responsabilité 2016 a étendu la baisse de cotisations sociales employeurs de 1,8 point accordée en 2015 jusqu'à 3,5 Smic à partir d'avril 2016. Cette mesure est également analysée. Chapitre 3 : Effets de la Ristourne Juppé II sur la compétitivité internationale Ce chapitre examine les effets de la ristourne Juppé II mise en place à la fin de 1996 jusqu'au 31 décembre 1997 sur les exportations des entreprises françaises en adoptant une stratégie d'identification proche de Crépon et Desplatz (2001). 11 Coût du travail et exportations : analyses sur données d'entreprises 12 C HAPITRE 1 É LÉMENT D ' ÉVALUATION RESPONSABILITÉ DU PACTE DE 2015 1.1 Introduction 1.1.1 Description de la mesure La loi 2014-892 du 8 août 2014 de financement rectificative de la sécurité sociale pour 2014 a institué une réduction du taux de cotisations d'allocations familiales sur les cotisations acquittées à compter du 1er janvier 2015. Ce dispositif consiste en une réduction de 1,8 point pour les rémunérations qui n'excèdent pas 1,6 Smic annuel. Le taux est fixé à 3,45 % en 2015. Le coût de cette mesure est estimé à 4,58 Mds e pour l'année 2015 (PLFSS, 2017). Seize mois après la mise en place de cette première mesure, elle est étendue aux salariés jusqu'à 3,5 Smic – à partir du 1er avril 2016. Cette extension rend l'évaluation de la mesure de 2015 sur la base de comparaisons inter-entreprises délicate dans la mesure où les entreprises qui sont potentiellement de bons groupes de contrôle sont en fait soumises au même dispositif dès avril 2016. Dès lors, cette approche ne peut capturer que des effets de court terme. 13 Coût du travail et exportations : analyses sur données d'entreprises 1.1.2 Statistiques descriptives On construit un indicateur de la part des cotisations employeurs dans le coût total du travail à partir des données FARE. Cet indicateur est donc défini comme : rics = CSi M Si où MS fait référence à la masse salariale brute et CS aux charges sociales et où l'indice i indexe les entreprises. Nous dénotons également Gi,14 (w) la part de la masse salariale revenant aux salariés dont le salaire horaire est inférieur à w au sein de l'entreprise i en 2014 1 . La graphique 1.2 montre le ratio moyen rcs pour différents quantiles de Gi,14 (1.6) construit sur la base des données DADS pour les années 2014 et 2015 (axe gauche). On présente également le changement entre 2014 et 2015 pour la même variable (ligne rouge, axe de droite). Il apparaît une relation très clairement négative entre Gi,14 (1.6) et ritcs en 2014 comme en 2015. On remarque en outre que l'évolution du ratio ∆rics est plus fortement négative pour les quantiles élevés de Gi,14 (1.6). F IGURE 1.1 – Les entreprises avec une forte % MS < 1.6 Smic ont vu leurs charges baisser (a) Tous secteurs .46 (b) Secteur manufacturier 0 .46 .44 .42 .42 -.002 .4 .36 .34 -.006 ∆ Ratio -.004 .32 .3 -.008 .28 -.005 .38 ∆ Ratio .38 % CS / MS brute .4 % CS / MS brute 0 .44 .36 .34 .32 -.01 .3 .28 .26 .26 -.01 .24 .24 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 -.015 0 1 2 3 4 5 Quantile de part MS<1.6 SMIC 2014 2015 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 Quantile de part MS<1.6 SMIC ∆ 2014-2015 (axe de droite) 2014 Note: Quantile = 0 : Share = 0; Quantile = 21 : Share = 1 2015 ∆ 2014-2015 (axe de droite) Note: Quantile = 0 : Share = 0; Quantile = 21 : Share = 1 Notes : Sources DADS, FARE et Fichier MVC. L'échantillon correspond à l'ensemble des entreprises présentes dans les bases DADS et FARE sur la période 2009-2015 (échantillon cylindré). 1. La variable dite charges sociales issue des liasses fiscales contient l'ensemble des charges patronales liées aux rémunérations des salariés (cotisations de sécurité sociale, supplémentent familial, versements aux mutuelles et caisses de retaite etc.). Elle contient également d'autres charges de personnel (les versements faits aux comités d'entreprise et d'établissement, coût de médecine du travail etc.). 14 Chap. 1 – Pacte de Responsabilité 2015 L'évolution moyenne est nulle pour les quantiles 1 à 5 et devient progressivement plus négative avec une valeur maximale (en valeur absolue) un peu au dessus de 1 point de pourcentage. La relation entre quantile de part de masse salariale en dessous de 1,6 Smic et l'évolution ratio CS/MS est monotone et négative, mis à part les deux quantiles extrêmes, dénotés 0 et 21 qui correspondent respectivement à une part de 0 et 1 de part de la masse salariale en dessous de 1,6 Smic 2 . F IGURE 1.2 – Les entreprises avec une forte % MS < 1.6 Smic ne sont pas devenues plus actives à l'export (marge extensive et marge intensive entre 2014 et 2015) .21 .2 .19 .18 .17 .16 .15 .14 .13 .12 .11 .1 .09 .08 .07 .06 .05 .04 .03 .02 .01 (b) Marge extensive .8 .003 .02 .75 .7 .65 0 .6 .55 .01 .5 ∆ Ratio .001 \% Exportateurs .002 ∆ Ratio Exportations / CA (a) Marge intensive .45 .4 .35 0 .3 .25 .2 .15 -.001 0 1 2 3 4 5 6 7 8 9 .1 10 11 12 13 14 15 16 17 18 19 20 21 -.01 0 1 2 3 4 5 Quantile de part MS<1.6 SMIC 2014 2015 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 Quantile de part MS<1.6 SMIC ∆ 2014-2015 (axe de droite) 2014 Note: Quantile = 0 : Share = 0; Quantile = 21 : Share = 1 2015 ∆ 2014-2015 (axe de droite) Note: Quantile = 0 : Share = 0; Quantile = 21 : Share = 1 Notes : Sources DADS, FARE et Fichier MVC et douanes. L'échantillon correspond à l'ensemble des entreprises présentes dans les bases DADS et FARE sur la période 2009-2015 (échantillon cylindré) et dont l'activité principale relève du secteur manufacturier en 2014. 1.2 Stratégie empirique Contrairement aux allègements de cotisations employeurs en vigueur jusqu'alors, le PR 2015 introduit une discontinuité dans le taux d'allègement moyen à 1,6 Smic – de la même façon que le CICE à 2,5 Smic. Nous essayons d'exploiter cette discontinuité afin de comparer des entreprises dont les dynamiques de l'emploi, des salaires 2. Le premier quantile est exclu de l'analyse empirique. 15 Coût du travail et exportations : analyses sur données d'entreprises et de la compétitivité sont comparables mais qui ont été affectées différemment par le dispositif. Nous dénotons Git (w) la part de la masse salariale d'une entreprise i au cours de l'année t qui revient à des salariés dont le salaire horaire est inférieur à w fois le Smic. Les entreprises qui ont bénéficié au maximum de la réforme sont celles pour lesquelles la condition Gi,15 (1.6) = 1 est vérifiée. Une première approche "naïve" pourrait consister à comparer les entreprises pour lesquels Gi,15 (1.6) = 1 par rapport à celles pour lesquelles telles Gi,15 (1.6) = 0. Ces deux groupes d'entreprises ayant été affectés très différemment par la réduction du 1er janvier 2015, leur comparaison maximiserait la chance que l'on observe des effets. Néanmoins, cette approche apparaît problématique pour deux principales raisons : 1. La masse salariale en 2015 est une variable endogène car possiblement affectée par la politique de baisse des cotisations jusqu'à 1,6 Smic (causalité inverse). Par exemple, une entreprise subissant en 2015 un choc de demande négatif (domestique ou bien à l'étranger) verra ses ventes décliner (par définition) et transmettra vraisemblablement une partie du choc sur la croissance de la rémunération de ses employés, ce qui augmentera mécaniquement la part de la masse salariale qui est éligible à l'exonération du PR15. Dès lors, une estimation considérant la part contemporaine éligible au PR15 sera vraisemblablement biaisée négativement. 2. Ces entreprises sont susceptibles de différer le long de nombreuses dimensions observées et non observées et de suivre des tendances très divergentes, ne serait-ce qu'en raison, par exemple, des politiques menées avant celle de 2015 et qui reposent également sur la structure de la masse salariale – en particulier le CICE et les allègements généraux de cotisations employeurs (biais de variable omise). 16 Chap. 1 – Pacte de Responsabilité 2015 Nous adoptons deux solutions afin de répondre aux problèmes exposés ci-dessus. 1. Afin de résoudre le problème de causalité inverse, nous utilisons, comme cela est standard dans la littérature, la structure salariale la dernière année avant la mise en place du dispositif, en 2014 (Gi,14 (1.6)). 3 2. Afin d'essayer de comparer des entreprises comparables mais néanmoins différemment affectées par la réforme de 2015, nous imposons quelques restrictions sur la structure salariale des entreprises en question. En particulier nous définissons les groupes de la façon suivante : 1. Groupe à forte exposition au Pacte de responsabilité ou groupe de traitement : Il s'agit des entreprises dont l'exposition au PR15 excède le quartile supérieur d'exposition au sein du secteur manufacturier (plus formellement Gi,14 (1.6) ≥ Qmfg 75 (Gi,14 (1.6))) et dont moins de 60 % de la masse salariale revient à des salariés payés en dessous de 1,3 Smic (Gi,14 (1.3) ≤ 0.60). La restriction du la part de la masse salariale en dessous de 1,3 Smic vise à s'assurer que l'entreprise ne soit pas excessivement intensive en travail très peu qualifié. Cette restriction vise également à s'assurer que les entreprises n'étaient pas excessivement affectées par les allègements généraux dont le barème est dégressif jusqu'à 1,6 Smic mais est très concentré sur le bas de la distribution des salaires. 2. Groupe à faible exposition au Pacte de responsabilité ou groupe de contrôle : Appartiennent à ce groupe les entreprises dont l'exposition au PR 15 est inférieur au quartile supérieur d'exposition, toujours défini au sein du secteur manufacturier (Gi,14 (1.6) < Q75 (Gi,14 (1.6))), et dont au moins 95 % de la masse 3. La technique consistant à appliquer le barème post-réforme à l'assiette pré-réforme afin de construire un instrument qui permettent d'amoindrir les problèmes de causalité inverse est classique en économie publique que ce soit dans le cadre d'évaluation au niveau individuel (see e.g. Auten et Carroll, 1999) ou bien de l'entreprise (voir par exemple Bunel et L'Horty, 2012; Saez et al., 2017). Elle est comparable à la technique des instruments shift-share (Bartik) en ce qu'elle interagit des caractéristiques pré-réformes qui varient en coupe mais sont fixes au cours du temps avec des variables qui sont communes à l'ensemble de la coupe des unités mais varient au cours du temps afin d'obtenir une variable qui varie au niveau de l'unité et de la période d'observation (voir par exemple Goldsmith-Pinkham et al., 2018). 17 Coût du travail et exportations : analyses sur données d'entreprises salariale revient à des salariés dont le salaire horaire est inférieur à 2,5 Smic (Gi,14 (2.5) ≥ 0.95). La restriction de la part de la masse salariale en dessus de 2,5 Smic vise à s'assurer que les entreprises du groupe de contrôle ne sont pas affectées différemment par le CICE que celles du groupe de traitement 4 . Le Tableau 1.1 montre que les groupes de contrôle et de traitement au PR 15 diffèrent le long de nombreuses dimensions. On constate notamment que les entreprises fortement exposées sont plus grandes, moins productives et paient des salaires par tête plus faibles que celles du groupe de contrôles. Elles sont aussi plus profitables sur la base du ratio EBE sur chiffre d'affaire. En ce qui concerne le commerce international, on voit que les entreprises des deux groupes sont comparables en termes de part de vente à l'étranger et de marge extensive (exportations positives). En revanche les entreprises fortement exposées ont des ventes plus élevées et des valeurs unitaires plus faibles. La distribution de Gi,14 (1.6) pour les groupes de contrôle et de traitement est présentée dans la Figure 1.3. 1.2.1 Constitution de l'échantillon d'estimation et des principales variables L'échantillon d'estimation est composé des entreprises qui appartiennent soit au groupe de contrôle soit au groupe de traitement (voir condition ci-dessus), qui sont présentes dans la base de données FARE et DADS de façon continue entre 2009 et 2015 et qui ont au moins 4 employés par année au cours de la période 2009-2015 5 . Les ratios entre variables issues de FARE ont été winsorisés au 0.5 et 99.5ème percentile. On exclut de l'échantillon les entreprises dont aucun des 4. La définition des groupes de traitement en utilisant le quartile supérieure au sein de chaque secteur aboutit à des résultats très proches qui ne sont pas reportés dans ce rapport mais peuvent être obtenus auprès de l'auteur du rapport. 5. Nous travaillons donc sur la base d'un échantillon cylindré ce qui implique que nous ne prenons pas en compte l'effet du PR 15 sur les fermetures d'entreprises. Néanmoins, compte tenu de l'ampleur limitée de la politique, cet effet est vraisemblablement très limité. 18 Chap. 1 – Pacte de Responsabilité 2015 TABLEAU 1.1 – Caractéristiques des entreprises à forte et à faible exposition au PR15 Variable % éligible (MS) Manufacturier Construction Commerce et transports Hôtels restaurants Information et finance Services aux entr. Autres Âge de l'entreprise Effectifs (ETP) ln VA / L ln W / L EBE / CA CS / CA CA ≤ 1M euros CA ≤ 2M euros X/S 1(X > 0) ln V ln U ̄V Observations (1) Faible exposition (2) Forte exposition (3) Différence 0.444 (0.183) 0.141 (0.348) 0.302 (0.459) 0.287 (0.453) 0.063 (0.243) 0.036 (0.187) 0.085 (0.279) 0.078 (0.268) 20.334 (12.723) 8.771 (18.490) 10.782 (0.435) 10.336 (0.346) 0.049 (0.086) 0.098 (0.051) 0.573 (0.495) 0.840 (0.366) 0.021 (0.099) 0.092 (0.289) 10.215 (2.403) 2.384 (2.399) 0.834 (0.107) 0.158 (0.365) 0.159 (0.366) 0.377 (0.485) 0.135 (0.342) 0.015 (0.122) 0.029 (0.169) 0.118 (0.323) 20.376 (12.917) 21.287 (183.109) 10.617 (0.422) 10.199 (0.340) 0.051 (0.083) 0.083 (0.046) 0.484 (0.500) 0.737 (0.440) 0.019 (0.094) 0.095 (0.294) 10.444 (2.569) 1.604 (2.427) 0.390 (0.000)*** 0.017 (0.000)*** -0.143 (0.000)*** 0.089 (0.000)*** 0.072 (0.000)*** -0.021 (0.000)*** -0.056 (0.000)*** 0.040 (0.000)*** 0.042 (0.651) 12.516 (0.000)*** -0.165 (0.000)*** -0.137 (0.000)*** 0.002 (0.002)*** -0.015 (0.000)*** -0.089 (0.000)*** -0.104 (0.000)*** -0.001 (0.082)* 0.003 (0.100)* 0.229 (0.000)*** -0.781 (0.000)*** 37,755 37,535 75,290 Notes : Voir le Tableau 1.2 pour une définition détaillée des variables. Le groupe de traitement est celui dit à "forte exposition" à la baisse des cotisations familiales jusqu'à 1.6 Smic. Il contient les entreprises situées au-delà du quartile supérieur de la distribution de la la part de la masse salariale en dessous de 1,6 Smic (défini au sein du secteur manufacturier) en 2014 et qui, en outre, ont une part de leur masse salariale en dessous de 1,3 Smic de moins de 60 %. Le groupe de contrôle est celui dit à "faible exposition". Il contient les entreprises situées en dessous du quartile supérieur de la distribution de la part de la masse salariale en dessous de 1,6 Smic sur les années 2014 au sein du secteur manufacturier et qui, en outre, ont une part de leur masse salariale en dessous de 2,5 Smic supérieure à 95 %. 19 Coût du travail et exportations : analyses sur données d'entreprises F IGURE 1.3 – Distribution de la part de MS <1.6 Smic au sein de l'échantillon d'analyse (b) Secteur manufacturier 1300 1.0e+04 9500 9000 8500 8000 7500 7000 6500 6000 5500 5000 4500 4000 3500 3000 2500 2000 1500 1000 500 0 1200 1100 1000 nombre de firmes nombre de firmes (a) Tous secteurs 900 800 700 600 500 400 300 200 100 0 0 .2 .4 .6 .8 1 0 % MS < 1.6 SMIC (2014) Forte exposition .2 .4 .6 .8 1 % MS < 1.6 SMIC _14 Faible exposition Forte exposition Moyenne de la part de la MS éligible : faible exposition = .458; forte = .864 Faible exposition Moyenne de la part de la MS éligible : faible exposition = .485; forte = .856 Notes : Le groupe de traitement est celui dit à "forte exposition" à la baisse des cotisations familiales jusqu'à 1.6 Smic. Il contient les entreprises situées au-delà du quartile supérieur de la distribution de la la part de la masse salariale en dessous de 1,6 Smic (défini au sein du secteur manufacturier) en 2014 et qui, en outre, ont une part de leur masse salariale en dessous de 1,3 Smic de moins de 60 %. Le groupe de contrôle est celui dit à "faible exposition". Il contient les entreprises situées en dessous du quartile supérieur de la distribution de la part de la masse salariale en dessous de 1,6 Smic sur les années 2014 au sein du secteur manufacturier et qui, en outre, ont une part de leur masse salariale en dessous de 2,5 Smic supérieure à 95 %. salariés n'est rémunéré en dessous de 1,6 Smic. L'ensemble des variables utilisées dans l'analyse sont décrites dans le Tableau 1.2. 1.2.2 Spécification La spécification principale est la suivante : yit = β[Ti × 1{t≥2015} ] + Xit′ δ + αi + μs(i)t + uit (1.1) où : ● yit fait référence à une variable dépendante pour l'entreprise i à la période t. ● μs(i)t est un effet fixe année × secteur. Le secteur d'activité de l'entreprise i est dénoté s(i). Il est fixe au cours du temps et déterminé sur la base de 2014. ● Xit′ est un ensemble de variable de contrôles qui sont ajoutées progressive20 Chap. 1 – Pacte de Responsabilité 2015 TABLEAU 1.2 – Description des variables Nom de variables Description Âge de l'entreprise Effectifs Effectifs (ETP) ln VA / L ln W / L EBE / CA CS / CA X/S 1(X > 0) ln X ln U ̄V Année d'exercice moins année de création de l'entreprise (FARE) Effectifs au 31/12 de l'année considérée (FARE) Effectifs moyen en équivalent temps plein (FARE) log de la valeur ajoutée par emploi (FARE) log de salaire et traitement par emploi (FARE) ratio de l'Excédent brut d'exploitation sur le chiffre d'affaire total (FARE) ratio des charges sociales sur le chiffre d'affaire (FARE) ratio de la valeur des exportations dans les douanes sur le CA total dans FARE indicatrice égale à 1 si les exportations sont positives log de la valeur des exports log de la valeur unitaire moyenne. Les valeurs unitaires sont calculées chaque année pour chaque produit exporté par une entreprise donnée. La moyenne est effectuée au niveau entreprise - année en utilisant la distribution des ventes par produit en 2014 comme poids. ment dans les estimations ci-dessous. ● Ti est une indicatrice qui est égale à 1 pour les entreprises au sein du groupe traitement. 1.3 Résultats sur les variables de commerce international Cette section présente un ensemble de résultats pour les variables de coût du travail (estimation d'une sorte de première étape) et de compétitivité internationale. Le Tableau 1.3 montre les résultats pour le secteur manufacturier. La colonne (1) montre un effet négatif, très précis, sur le taux de cotisations sociales. La valeur moyenne des charges sociales par rapport à la masse salariale brute est en moyenne de 0.30. Le coefficient de -0.00632 implique une diminution équivalent à 2 % de ce ratio. L'introduction de variables de contrôle retardées pour la productivité apparente du travail et le salaire moyen affecte à peine le coefficient (colonne 2). En revanche, l'introduction d'effets fixes secteur - année au lieu de simple effets fixes année diminue d'un quart la taille de l'effet estimé (colonne 3). L'interaction 21 Coût du travail et exportations : analyses sur données d'entreprises d'indicatrices année et secteur autorise la conjoncture à avoir un effet hétérogène sur les entreprises selon leur secteur d'activité. Le reste de l'analyse conservera cet ensemble d'effets fixes. Le coefficient de la colonne (3) implique une diminution équivalente à 1.6 % de la moyenne du ratio charges sociales sur masse salariale. Si la baisse de cotisations associé au PR15 est d'une ampleur modeste, ces résultats confirment que les données disponibles et la stratégie empirique mise en place sont à même de mesurer les effets de première étape de cette politique. Le reste des colonnes du tableau s'intéresse aux variables de compétitivité. La spécification choisie ne détecte aucune évolution différentielle statistiquement significative entre groupe fortement et faiblement exposé en 2015 en termes de marge extensive (colonne 4), de ratio d'exportations sur chiffre d'affaires (colonne 5), de valeur des exportations (colonne 6) et de valeur unitaire moyenne (colonne 7). On peut mettre en relation la taille des coefficients des colonnes (6) et (7) afin d'obtenir une élasticité prix de la valeur et du volume des exportations. L'élasticité de la demande impliquée par ces coefficients est de -1,98, une valeur relativement plausible compte tenu des résultats de la littérature 6 . Bien que le secteur manufacturier soit le principal exportateur de biens, des entreprises non-classifiées comme manufacturières participent au commerce international. On étend donc l'analyse à l'ensemble des entreprises de l'échantillon. Les résultats présentés dans le Tableau 1.4 sont de même nature que ceux présentés ci-dessus. On constate un effet de première étape précisément estimé et d'une ampleur plausible 7 , néanmoins les estimations ne parviennent pas à détecter d'effet sur les variables liées à la compétitivité internationale. 6. On obtient l'élasticité-prix de la demande en soustrayant 1 au ratio de l'effet sur les ventes sur l'effet sur les valeur unitaires. 7. En effet, l'écart d'intensité de traitement entre les deux groupes est de 0.39 (voir la première ligne de le Tableau 1.1) et le taux d'exonération est de 1.8 pp, ce qui suggère un effet de 0.00702. Les effets estimés dans les colonnes 1 et 2 sont proches de ce chiffre. 22 Chap. 1 – Pacte de Responsabilité 2015 TABLEAU 1.3 – Effet du PR15 sur le poids des charges sociales et la compétitivité : secteur manufacturier Charges sociales Di × 1t≥2015 Commerce international (1) (2) (3) (4) CS / MS CS / MS CS / MS 1(X > 0) -0.00632*** -0.00621*** -0.00473*** 0.00147 (0.000928) (0.000926) (0.000977) (0.00415) (5) X/S 0.000573 (0.000691) (6) ln V 0.0526 (0.0412) (7) ln U ̄V -0.0535 (0.0572) ln VA / L t−1 0.00796*** 0.00816*** 0.0251*** 0.00393*** 0.184*** 0.0689 (0.00116) (0.00116) (0.00590) (0.00103) (0.0416) (0.0587) ln W/L t−1 -0.000744 (0.00188) 66852 0.835 √ √ Observations R2 EF entreprises EF année EF année × secteur Fstat # entreprises 66852 0.835 √ √ 46 11142 45 11142 -0.000990 (0.00188) 66852 0.836 √ -0.0243*** -0.00132 (0.00779) (0.00125) 89136 89136 0.782 0.894 √ √ -0.00605 (0.0618) 22277 0.843 √ 0.0174 (0.0813) 13236 0.762 √ √ √ √ √ √ 23 11142 11142 11142 3662 2622 Notes : Cette table présente les résultats d'une double-différence (voir équation: 1.1). L'échantillon est un panel cylindré d'entreprises appartenant au secteur manufacturier en 2014 ayant au moins 4 employés par année au cours de la période 2009-2015. Le groupe de traitement comprend les entreprises avec une part de masse salariale (MS) <1.6 Smic en-dessus du quartile supérieur en 2014 et moins de 60% de MS au dessous de 1.3 Smic. Le groupe de contrôle comprend les entreprises qui sont en dessous du quartile supérieur en termes de MS < 1.6 Smic et dont plus de 95% de la masse salariale est rémunérée en dessous de 2.5 Smic. Les contrôles observables sont le log retardé du salaire moyen et de la VA par travailleur. Écarts-types robustes groupés au niveau de l'entreprise. Les secteurs sont définis au niveau 2-digits (NAF2 – division). TABLEAU 1.4 – Effet du PR15 sur le poids des charges sociales et la compétitivité : tous secteurs Charges sociales Di × 1t≥2015 Commerce international (1) (2) (3) (4) CS / MS CS / MS CS / MS 1(X > 0) -0.00616*** -0.00619*** -0.00466***-0.000668 (0.000412) (0.000410) (0.000435) (0.00112) (5) X/S -0.000000337 (0.000151) (6) (7) ln X ln U ̄V 0.0239 -0.0274 (0.0294) (0.0383) ln VA / L t−1 0.0125*** 0.0125*** 0.0100*** 0.00107*** 0.201*** 0.0544 (0.000624) (0.000623) (0.00167) (0.000272) (0.0290) (0.0349) ln W / L t−1 -0.0120*** -0.0122*** -0.00850*** -0.000576** -0.0978** -0.106* (0.00102) (0.00102) (0.00193) (0.000278) (0.0433) (0.0559) 446346 446346 595128 595128 51245 29149 0.865 0.866 0.739 0.889 0.837 0.796 √ √ √ √ √ √ √ √ √ √ √ √ Observations R2 EF entreprise EF année EF année × Secteur F-stat # entreprises 446346 0.865 √ √ 224 74391 228 74391 115 74391 74391 74391 9413 6224 Notes : Cette table présente les résultats d'une double-différence (voir équation: 1.1). L'échantillon est un panel cylindré d'entreprises ayant au moins 4 employés par année au cours de la période 2009-2015. Le groupe de traitement comprend les entreprises avec une part de masse salariale (MS) <1.6 Smic supérieure au quartile supérieur en 2014 (défini au sein du secteur manufacturier) et moins de 60% de MS au dessous de 1.3 Smic. Le groupe de contrôle comprend les entreprises qui sont en dessous du quartile supérieur en termes de MS < 1.6 Smic et dont plus de 95% de la masse salariale est rémunérée en dessous de 2.5 Smic. Les contrôles observables sont le log retardé du salaire moyen et de la VA par travailleur. Écarts-types robustes groupés au niveau de l'entreprise. Les secteurs sont définis au niveau 2-digits (NAF2 – division). 23 Coût du travail et exportations : analyses sur données d'entreprises 1.4 Résultats sur d'autres variables liées à la compétitivité : forme réduite La section 3.2 montre une baisse effective du poids des charges sociales au sein du groupe d'entreprises fortement exposées au PR15. En l'absence de réponse comportementale des entreprises les plus fortement affectées en termes de commerce international, il peut être informatif de considérer l'effet de cette baisse de charges sur d'autres variables, qui bien qu'elles ne soient pas aussi directement liées à la compétitivité internationale que les variables liées aux exportations, sont néanmoins d'intérêt pour les décideurs publics et plus généralement peuvent nous aider à comprendre les effets moyens du dispositif. Nous considérons un ensemble de variables liées à la performance des entreprises dans le Tableau 1.5. La colonne (1) confirme l'effet négatif de la politique sur le poids des charges sociales par rapport au chiffre d'affaire total. La colonne (2) montre un effet positif net de la politique sur le taux de marge, défini comme le ratio de l'excédent brut d'exploitation par rapport au chiffre d'affaires total, au sein de l'ensemble des entreprises considérées. Néanmoins, l'effet de la politique sur la profitabilité est non significatif et très proche de zéro au sein du secteur manufacturier (panel inférieur colonne 2) 8 . On constate un effet positif sur la masse salariale (colonne 4), le chiffre d'affaires total (colonne 5), la valeur ajoutée (colonne 6), et les effectifs en équivalent temps plein (colonne 7). L'effet sur les effectifs temps plein est de la même ampleur que celle sur la masse salariale, ce qui implique un effet nul sur les salaires moyens. On remarque que l'effet sur les ventes concerne les ventes domestiques (colonne 8) avec un effet plus fort que sur les ventes totales sans que cet écart ne soit significatif (colonne 9). 8. Cette définition du taux de profit est proche de celle adoptée par Nickell (1996) à l'exception des amortissements et des charges financières (qui ne sont pas déduites de l'EBE). 24 Chap. 1 – Pacte de Responsabilité 2015 TABLEAU 1.5 – Effet de l'exposition au PR 15 sur d'autres variables d'intérêt Tous secteurs Di × 1t≥2015 Observations R2 # entreprises Di × 1t≥2015 Observations R2 # entreprises EF entreprises EF année × Secteur ContrÃt'les retardés (1) (2) (3) CS / CA EBE / CA Residu EBE -0.00169*** 0.00191*** 0.000215 (0.000157) (0.000506) (0.000460) 446327 446327 446327 0.906 0.670 0.766 74391 74391 74391 (4) (5) (6) (7) (8) (9) Ln MS Ln CA Ln VA Ln Eff. ETP Ln CA dom. Diff (8)-(5) 0.00984*** 0.0104*** 0.0104*** 0.0109*** 0.0115*** 0.00109 (0.00178) (0.00183) (0.00243) (0.00171) (0.00209) (0.00103) 446346 446327 446346 446346 446346 446346 0.959 0.971 0.932 0.963 0.961 0.754 74391 74391 74391 74391 74391 74391 Secteur manufacturier (1) (2) -0.00151*** 0.000300 (0.000389) (0.00135) 66852 66852 0.878 0.629 11142 11142 √ √ √ √ √ √ (4) (5) (6) 0.0101** 0.0105** 0.00134 (0.00432) (0.00457) (0.00643) 66852 66852 66852 0.958 0.971 0.923 11142 11142 11142 √ √ √ √ √ √ √ √ √ (3) -0.00121 (0.00123) 66852 0.699 11142 √ √ √ (7) 0.0107** (0.00431) 66852 0.963 11142 √ √ √ (8) 0.0137** (0.00538) 66852 0.960 11142 √ √ √ (9) 0.00329 (0.00300) 66852 0.818 11142 √ √ √ Notes : Cette table présente les résultats d'une double-différence (voir équation: 1.1). L'échantillon est un panel cylindré d'entreprises ayant au moins 4 employés par année au cours de la période 2009-2015. Le groupe de traitement comprend les entreprises avec une part de masse salariale (MS) <1.6 Smic supérieure au quartile supérieur en 2014 (défini au sein du secteur manufacturier) et moins de 60% de MS au dessous de 1.3 Smic. Le groupe de contrôle comprend les entreprises qui sont en dessous du quartile supérieur en termes de MS < 1.6 Smic et dont plus de 95% de la masse salariale est rémunérée en dessous de 2.5 Smic. Les contrôles observables sont le log retardé du salaire moyen et de la VA par travailleur. Écarts-types robustes groupés au niveau de l'entreprise. Les secteurs sont définis au niveau 2-digits (NAF2 – division). On présente dans le Tableau 1.6 un simple test de robustesse qui consiste à construire le groupe de contrôle et de traitement selon la structure salariale sur l'année 2013 plutôt que sur 2014. Ce test permet de s'assurer que les effets estimés plus haut ne reflètent pas un simple phénomène de rebond. On peut imaginer en effet qu'une partie des entreprises fortement exposées sur la base de leurs salaires 2014 ont fait l'expérience d'un choc particulièrement négatif et sont alors susceptible de relativement mieux performer en 2015. On constate que les effets sur le poids des charges sociales et le taux de marge sont atténués mais demeurent qualitativement similaires à ceux du Tableau 1.5 et leur ratio est à peine affecté. Néanmoins on constate désormais un effet négatif sur l'emploi (colonne 4) et des effets nuls sur l'ensemble des autres variables. Ainsi, il semble que les effets mis en lumière sur les variables autres que les charges sociales et l'EBE soient peu robustes à l'année utilisée pour la définition du groupe de traitement. En l'absence de travail statistique supplémentaire, il n'est pas aisé de déterminer quel est l'ensemble de résultat le plus crédible. Un effet négatif du PR15 sur l'emploi n'est pas crédible et reflète le plus vraisemblablement un biais de sélection négatif. L'effet positif sur l'emploi en équivalent temps (ETP) dans le 25 Coût du travail et exportations : analyses sur données d'entreprises Tableau 1.5 suggère une élasticité de la demande de travail autour de 2,5, ce qui tend à être dans le haut du support ce que trouve la littérature 9 . TABLEAU 1.6 – Définition de la variable d'exposition sur 2013 au lieu de 2014 Tous secteurs Di × 1t≥2015 Observations R2 # firms Di × 1t≥2015 Observations R2 # firms Firm FE Year × Sector FE ContrÃt'les retardÃl's (1) (2) (3) CS / CA EBE / CA Residu EBE -0.000945*** 0.00163*** 0.000690 (0.000159) (0.000511) (0.000466) 431350 431350 431350 0.907 0.674 0.770 71895 71895 71895 (4) (5) (6) (7) (8) Ln MS Ln CA Ln VA Ln Eff. ETP Ln CA dom. 0.000212 0.00223 0.00281 -0.00647*** 0.00350 (0.00181) (0.00190) (0.00246) (0.00176) (0.00213) 431370 431350 431370 431370 431370 0.959 0.970 0.932 0.962 0.960 71895 71895 71895 71895 71895 Secteur manufacturier (1) (2) -0.000853** 0.000657 (0.000394) (0.00137) 64524 64524 0.880 0.635 10754 10754 √ √ √ √ √ √ (4) (5) -0.00351 -0.000902 (0.00444) (0.00472) 64524 64524 0.960 0.971 10754 10754 √ √ √ √ √ √ (3) -0.000196 (0.00125) 64524 0.705 10754 √ √ √ (6) -0.00351 (0.00667) 64524 0.926 10754 √ √ √ (7) (8) -0.00950** 0.00445 (0.00433) (0.00576) 64524 64524 0.965 0.958 10754 10754 √ √ √ √ √ √ (9) Diff (8) - (5) 0.00128 (0.00104) 431370 0.753 71895 (9) 0.00511 (0.00328) 64524 0.815 10754 √ √ √ Notes : Cette table présente les résultats d'une double-différence (voir équation: 1.1). L'échantillon est un panel cylindré d'entreprises ayant au moins 4 employés par année au cours de la période 2009-2015. Le groupe de traitement comprend les entreprises avec une part de masse salariale (MS) <1.6 Smic dans en-dessus du quartile supérieur entre 2012 et 2014 et moins de 60% de MS au dessous de 1.3 Smic. Le groupe de contrôle comprend les entreprises qui sont en dessous du quartile supérieur en termes de MS < 1.6 Smic et dont plus de 95% de la masse salariale est rémunérée en dessous de 2.5 Smic. Les contrôles observables sont le log retardé du salaire moyen et de la VA par travailleur. Écarts-types robustes groupés au niveau de l'entreprise. Les secteurs sont définis au niveau 2-digits (NAF2 – division). 1.5 Transmission du coût du travail dans le taux de profit Dans cette section, nous nous intéressons plus en détail à la transmission de la baisse du coût du travail dans le taux de profit des entreprises affectées. En particulier, nous estimons la part de baisse des charges sociales qui a été répercutée dans les profits. Nous procédons à cette fin à une estimation par variable instrumentale où nous instrumentons le taux de charges sociales par l'interaction de l'ap9. On déduit l'élasticité au coût moyen du travail de la façon suivante. Le PR15 induit une baisse en % des cotisations patronales de 1,7 %. On note donc : ∆CS/CS = 1.7 %. Le coût du travail unitaire moyen est égal à : salaire moyen + charges sociales moyennes. On note : CT = w + CS. On a vu que la politique n'a pas d'effet sur le salaire moyen dès lors : ∆CT /CT = ∆CS/(w + CS) = CS ∆CS/CS w+CS . On définit l'élasticité de la demande de travail de la façon suivante : ∆L/L ∆CT /CT ∆L/L 1% ∆L/L = = = 2.55 1 ∆CT /CT ∆CS/CS CS 1.7 % 1+0.3 −1 w+CS 26 . On note que : Chap. 1 – Pacte de Responsabilité 2015 partenance au groupe fortement exposé au Pacte de responsabilité 2015 avec une indicatrice post-réforme. La spécification s'écrit de la façon suivante : EBE CS ) =β( ) + Xit′ δ + αi + μs(i)t + uit CA it CA it CS ( ) = β1 [Ti × 1{t≥2015} ] + Xit′ δ1 + α1,i + μ1,s(i)t + u1,it CA it ( (1.2) (1.3) La ligne supérieure correspond à la deuxième étape alors que la ligne inférieure correspond à la première étape de l'estimation par variable instrumentale. Le paramètre β donne une mesure du "pass-through" dans le profit de la baisse du coût du travail : un coefficient de 1 suggère que chaque euro de baisse de charges est venu augmenter le profit de 1 euro. Le tableau 1.7 présente les principaux résultats. On voit que les régressions de panel produisent des coefficients significativement inférieurs à 1 (colonne 1). Les colonnes (2) et (3) présentent respectivement la forme réduite et l'estimation de la première étape. On voit colonne (4) que les variations de taux de charges sociales induites par le PR15 ont été transmises 1 pour 1 dans le taux de profit des entreprises traitées. On constate cependant que cet effet ne tient pas dans le secteur manufacturier où la répercussion des coût du travail est très proche de zéro. L'introduction de contrôles retardés dans la spécification n'affecte que très marginalement le coefficient estimé et on ne peut toujours pas rejeter l'hypothèse d'un taux de transmission de 100 % lorsque l'on considère l'ensemble des firmes (colonne 5, panel du haut) et de 0 % lorsque l'on restreint l'échantillon aux entreprises du secteur manufacturier (colonne 5, panel du bas, on note cependant que le coefficient est estimé avec très peu de précision). Le Tableau 1.8 confirme la robustesse des résultats à la période utilisée afin de définir la variable de traitement (2012-2014 au lieu de la seule année 2014). La Figure 1.4 montre les résultats d'une spécification dynamique qui autorise les coefficients associés au groupe de traitement à varier au cours du temps et sont 27 Coût du travail et exportations : analyses sur données d'entreprises TABLEAU 1.7 – Répercussion de la baisse du coût du travail dans le taux de profit Tous secteurs CS / CA (1) (2) EBE / CA EBE / CA -1.436*** (0.0121) Di × 1t≥2015 Observations R2 # entreprises 446327 0.730 74391 CS / CA (1) -1.644*** (0.0297) Di × 1t≥2015 Observations R2 # entreprises EF entreprise EF année × secteur Contrôles retardés 66852 0.705 11142 √ √ (3) CS / CA (4) (5) 2SLS : EBE / CA – -1.104*** -1.128*** (0.279) (0.271) 0.00186*** -0.00168*** (0.000519) (0.000157) 446327 446327 446327 0.664 0.906 0.727 74391 74391 74391 Secteur manufacturier (2) -0.000104 (0.00139) 66852 0.623 11142 √ √ (3) -0.00146*** (0.000391) 66852 0.878 11142 √ √ 446327 0.731 74391 (4) 0.0712 (0.960) (5) -0.199 (0.876) 66852 0.616 11142 √ √ 66852 0.647 11142 √ √ √ Notes : Cette table présente les résultats d'une double-différence instrumentée (voir équation: 1.2). La colonne (1) est une régression en panel du taux de profit sur la coût du travail. Les colonne (2) et (3) correspondent respectivement au forme réduite et à la première étape de l'estimation par variable instrumentale, où le coût du travail (CS/CA) est instrumenté par l'appartenance au groupe de traitement après 2015 (Di × 1t≥2015 ). Les résultats de la deuxième étape sont montrés dans les colonnes (4) et (5) qui diffèrent par l'inclusion de contrôles observables retardés en colonne (5). Les contrôles observables sont le log retardé du salaire moyen et de la VA par travailleur. L'échantillon est un panel cylindré d'entreprises ayant au moins 4 employés par année au cours de la période 2009-2015. Le groupe de traitement comprend les entreprises avec une part de masse salariale (MS) <1.6 Smic supérieur au quartile supérieur en 2014 (défini au sein du secteur manufacturier) et moins de 60% de MS au dessous de 1.3 Smic. Le groupe de contrôle comprend les entreprises qui sont en dessous du quartile supérieur en termes de MS < 1.6 Smic et dont plus de 95% de la masse salariale est rémunérée en dessous de 2.5 Smic. Les contrôles observables sont le log retardé du salaire moyen et de la VA par travailleur. Écarts-types robustes groupés au niveau de l'entreprise. Les secteurs sont définis au niveau 2-digits (NAF2 – division). exprimés en termes relatifs à 2014, année pour laquelle le coefficient est normalisé à zéro. Si les pré-tendances ne sont pas parfaitement parallèles, ce qui incite à interpréter les résultats ci-dessus avec prudence, on voit néanmoins un changement brutal dans la taille des coefficients en 2015 et 2016. L'atténuation de la taille des effets entre 2015 et 2016 est cohérente avec la possibilité que les entreprises à faible exposition au PR15 ont été affectées par le PR16 10 . 10. Nous n'avons pu avoir accès à la base FARE 2016 que quelques semaines avant la remise de rapport ce qui explique que le coeur de l'analyse sur des variables non issues des douanes ne porte que sur les années 2009-2015. 28 Chap. 1 – Pacte de Responsabilité 2015 TABLEAU 1.8 – Profit pass-through : Définition de la variable d'exposition sur 20122014 au lieu de 2014 Tous secteurs (1) (2) EBE / CA EBE / CA -1.415*** (0.0127) CS / CA Di × 1t≥2015 Observations R2 # entreprises 404200 0.733 67370 CS / CA (1) -1.632*** (0.0318) Di × 1t≥2015 Observations R2 # entreprises EF entreprise EF année × secteur Contrôles retardés 61674 0.706 10279 √ √ (3) CS / CA (4) (5) 2SLS : EBE / CA – -1.188*** -1.157*** (0.351) (0.344) 0.00167*** -0.00141*** (0.000545) (0.000165) 404200 404200 404200 0.671 0.907 0.731 67370 67370 67370 Secteur manufacturier (2) -0.000519 (0.00145) 61674 0.628 10279 √ √ (3) -0.00115*** (0.000407) 61674 0.880 10279 √ √ 404200 0.735 67370 (4) 0.452 (1.341) (5) 0.219 (1.234) 61674 0.579 10279 √ √ 61674 0.612 10279 √ √ √ F IGURE 1.4 – Effet sur le poids des charges sociales et le taux de profit 20112016 : double différence dynamique .004 EBE / ventes Charges sociales / ventes .002 0 -.002 -.004 2011 2012 2013 2014 2015 2016 year Notes : Les coefficients sont issus de l'estimation de la spécification suivante : ′ yit = ∑2016 d=2011,d≠2014 βd [Ti × 1{t=d} ] + Xit δ + αi + μs(i)t + uit où l'ensemble des notations est identique à précédemment – voir description de l'équation 1.1. On autorise ici les coefficients à varier au cours du temps. Le coefficient de 2014 (dernière année avant la réforme) est normalisé à 0. 29 Coût du travail et exportations : analyses sur données d'entreprises 1.6 Hétérogénéité 1.6.1 Hétérogénéité des effets : forme réduite Notre analyse empirique a montré de fortes répercussions de la réduction des charges sociales sur le taux de profit, mais peu d'effets robustes sur la croissance de l'emploi et des entreprises en général. On peut penser cependant que cet effet est hétérogène. Schématiquement, on peut considérer que le PR15 affecte les entreprises via deux canaux : (i) il génère une baisse du coût marginal de production et représente également (ii) une injection de trésorerie. En théorie, les entreprises qui sont particulièrement limitées dans leur accès à la finance externe (dette ou capitaux propres) devraient être particulièrement sensibles à l'effet de trésorerie suscité alors que l'ensemble des firmes exposées au PR15 bénéficient de l'effet de baisse du coût marginal. Afin d'explorer cette potentielle hétérogénéité des effets selon le degré de contrainte de crédit, nous utilisons trois proxies (très imparfaits) : âge, capacité d'autofinancement (rapporté aux immobilisations) et profitabilité (EBE/CA). Ces variables sont mesurées en 2014 et nous divisons l'échantillon en deux selon la position des entreprises par rapport à la valeur médiane. Les résultats pour l'ensemble des secteurs sont reportés dans les Tableaux 1.9 (âge), 1.10 (CAF) et 1.11 (taux de marge). 30 Chap. 1 – Pacte de Responsabilité 2015 TABLEAU 1.9 – Hétérogénéité des effets selon l'âge : tous secteurs Tous secteurs > âge médian (1) 1(X > 0) -0.00131 (0.00223) 34951 Di × 1t≥2015 # entreprises (2) X/S -0.000155 (0.000245) 34951 (3) ln X 0.0436 (0.0404) 5091 (4) (5) (6) (7) (8) (9) ln U ̄V Ln Eff. Ln MS Ln CA Ln VA Ln Eff. ETP -0.0582 0.00460 0.00624** 0.00735*** 0.00592* 0.00876*** (0.0469) (0.00286) (0.00244) (0.00248) (0.00345) (0.00230) 3812 34951 34951 34951 34951 34951 ≤ âge médian Di × 1t≥2015 -0.000406 0.000380** -0.0300 (0.00170) (0.000183) (0.0548) # entreprises 39436 39436 3229 √ √ √ EF entreprise √ √ √ EF année × Secteur √ √ √ Contrôles retardés -0.0159 -0.00164 0.0106*** 0.0110*** 0.0123*** 0.0108*** (0.0678) (0.00318) (0.00254) (0.00264) (0.00342) (0.00248) 2392 39436 39436 39436 39436 39436 √ √ √ √ √ √ √ √ √ √ √ √ √ √ √ √ √ √ Notes : Cette table présente les résultats d'une double-différence (voir équation: 1.1) sur deux sous-échantillons en fonction de leur position par rapport à la valeur médiane de la variable considérée en 2014. L'échantillon est un panel cylindré d'entreprises ayant au moins 4 employés par année au cours de la période 2009-2015. Le groupe de traitement comprend les entreprises avec une part de masse salariale (MS) <1.6 Smic supérieure au quartile supérieur en 2014 (défini au sein du secteur manufacturier) et moins de 60% de MS au dessous de 1.3 Smic. Le groupe de contrôle comprend les entreprises qui sont en dessous du quartile supérieur en termes de MS < 1.6 Smic et dont plus de 95% de la masse salariale est rémunérée en dessous de 2.5 Smic. Les contrôles observables sont le log retardé du salaire moyen et de la VA par travailleur. Écarts-types robustes groupés au niveau de l'entreprise. Les secteurs sont définis au niveau 2-digits (NAF2 – division). TABLEAU 1.10 – Hétérogénéité des effet selon la capacité d'autofinancement : tous secteurs Tous secteurs > CAF médiane Di × 1t≥2015 # entreprises (1) (2) 1(X > 0) X/S -0.000349 0.000274 (0.00200) (0.000209) 36290 36290 (3) (4) (5) Ln X ln U ̄V Ln Eff. -0.00515 -0.0434 0.00282 (0.0450) (0.0535) (0.00293) 4166 3151 36290 (6) (7) (8) (9) Ln MS Ln CA Ln VA Ln Eff. ETP 0.0117*** 0.0136*** 0.0146*** 0.0155*** (0.00246) (0.00256) (0.00309) (0.00232) 36290 36290 36290 36290 ≤ CAF médiane Di × 1t≥2015 # entreprises EF entreprise EF année × secteur Contrôles retardés -0.00131 (0.00190) 38098 √ √ √ 0.0000317 (0.000217) 38098 √ √ √ 0.0433 (0.0473) 4151 √ √ √ -0.0351 0.00306 (0.0546) (0.00309) 3050 38098 √ √ √ √ √ √ 0.0107*** 0.00982*** 0.00865** 0.00921*** (0.00241) (0.00251) (0.00369) (0.00237) 38098 38098 38098 38098 √ √ √ √ √ √ √ √ √ √ √ √ Notes : Cette table présente les résultats d'une double-différence (voir équation: 1.1) sur deux sous-échantillons en fonction de leur position par rapport à la valeur médiane de la variable considérée en 2014. L'échantillon est un panel cylindré d'entreprises ayant au moins 4 employés par année au cours de la période 2009-2015. Le groupe de traitement comprend les entreprises avec une part de masse salariale (MS) <1.6 Smic supérieure au quartile supérieur en 2014 (défini au sein du secteur manufacturier) et moins de 60% de MS au dessous de 1.3 Smic. Le groupe de contrôle comprend les entreprises qui sont en dessous du quartile supérieur en termes de MS < 1.6 Smic et dont plus de 95% de la masse salariale est rémunérée en dessous de 2.5 Smic. Les contrôles observables sont le log retardé du salaire moyen et de la VA par travailleur. Écarts-types robustes groupés au niveau de l'entreprise. Les secteurs sont définis au niveau 2-digits (NAF2 – division). 31 Coût du travail et exportations : analyses sur données d'entreprises TABLEAU 1.11 – Hétérogénéité des effet selon la profitabilité initiale : tous secteurs Tous secteurs EBE / CA > médiane Di × 1t≥2015 # entreprises (1) 1(X > 0) -0.000440 (0.00191) 35797 (2) (3) X/S Ln X 0.000180 0.00149 (0.000201) (0.0493) 35797 3653 (4) ln U ̄V -0.0935 (0.0576) 2706 (5) Ln Eff. 0.000948 (0.00310) 35797 (6) (7) (8) (9) Ln MS Ln CA Ln VA Ln Eff. ETP 0.00727*** 0.0115*** 0.00890*** 0.0112*** (0.00245) (0.00248) (0.00300) (0.00231) 35797 35797 35797 35797 EBE / CA ≤ médiane Di × 1t≥2015 # entreprises EF entreprise EF année × secteur Contrôles retardés -0.00148 (0.00199) 38592 √ √ √ 0.000120 0.0300 0.00831 (0.000224) (0.0441) (0.0515) 38592 4664 3495 √ √ √ √ √ √ √ √ √ 0.00402 (0.00296) 38592 √ √ √ 0.0139*** 0.0108*** 0.0133*** 0.0123*** (0.00244) (0.00262) (0.00374) (0.00241) 38592 38592 38592 38592 √ √ √ √ √ √ √ √ √ √ √ √ Notes : Cette table présente les résultats d'une double-différence (voir équation: 1.1) sur deux sous-échantillons en fonction de leur position par rapport à la valeur médiane de la variable considérée en 2014. L'échantillon est un panel cylindré d'entreprises ayant au moins 4 employés par année au cours de la période 2009-2015. Le groupe de traitement comprend les entreprises avec une part de masse salariale (MS) <1.6 Smic supérieure au quartile supérieur en 2014 (défini au sein du secteur manufacturier) et moins de 60% de MS au dessous de 1.3 Smic. Le groupe de contrôle comprend les entreprises qui sont en dessous du quartile supérieur en termes de MS < 1.6 Smic et dont plus de 95% de la masse salariale est rémunérée en dessous de 2.5 Smic. Les contrôles observables sont le log retardé du salaire moyen et de la VA par travailleur. Écarts-types robustes groupés au niveau de l'entreprise. Les secteurs sont définis au niveau 2-digits (NAF2 – division). TABLEAU 1.12 – Hétérogénéité des effets selon l'âge : secteur manufacturier Secteur manufacturier > âge médian Di × 1t≥2015 # entreprises (1) 1(X > 0) 0.00182 (0.00683) 6067 (2) X/S 0.000518 (0.000978) 6067 (3) (4) (5) Ln X ln U ̄V Ln Eff. 0.0978* -0.0413 0.00467 (0.0554) (0.0646) (0.00619) 2179 1733 6067 (6) Ln MS 0.000221 (0.00548) 6067 (7) (8) (9) Ln CA Ln VA Ln Eff. ETP 0.00335 -0.00631 0.00775 (0.00583) (0.00869) (0.00539) 6067 6067 6067 ≤ âge médian Di × 1t≥2015 0.00118 (0.00676) # entreprises 5074 √ EF entreprise √ EF année × secteur √ Contrôles retardés 0.00200** -0.0937 (0.000874) (0.0770) 5074 1170 √ √ √ √ √ √ -0.0570 (0.108) 884 √ √ √ 0.00459 (0.00776) 5074 √ √ √ 0.0160** 0.0134* 0.00474 (0.00683) (0.00720) (0.00961) 5074 5074 5074 √ √ √ √ √ √ √ √ √ 0.00877 (0.00690) 5074 √ √ √ Notes : Cette table présente les résultats d'une double-différence (voir équation: 1.1) sur deux sous-échantillons en fonction de leur position par rapport à la valeur médiane de la variable considérée en 2014. L'échantillon est un panel cylindré d'entreprises ayant au moins 4 employés par année au cours de la période 2009-2015. Le groupe de traitement comprend les entreprises avec une part de masse salariale (MS) <1.6 Smic supérieure au quartile supérieur en 2014 (défini au sein du secteur manufacturier) et moins de 60% de MS au dessous de 1.3 Smic. Le groupe de contrôle comprend les entreprises qui sont en dessous du quartile supérieur en termes de MS < 1.6 Smic et dont plus de 95% de la masse salariale est rémunérée en dessous de 2.5 Smic. Les contrôles observables sont le log retardé du salaire moyen et de la VA par travailleur. Écarts-types robustes groupés au niveau de l'entreprise. Les secteurs sont définis au niveau 2-digits (NAF2 – division). 32 Chap. 1 – Pacte de Responsabilité 2015 TABLEAU 1.13 – Hétérogénéité des effet selon la capacité d'autofinancement : secteur manufacturier Secteur manufacturier > CAF médiane Di × 1t≥2015 # entreprises (1) 1(X > 0) 0.00198 (0.00733) 5145 (2) X/S 0.00112 (0.000897) 5145 (3) Ln X 0.0287 (0.0637) 1555 (4) ln U ̄V -0.0395 (0.0793) 1211 (5) (6) (7) (8) (9) Ln Eff. Ln MS Ln CA Ln VA Ln Eff. ETP 0.0145** 0.0175*** 0.0244*** 0.0162** 0.0236*** (0.00642) (0.00590) (0.00641) (0.00795) (0.00577) 5145 5145 5145 5145 5145 ≤ CAF médiane Di × 1t≥2015 0.000958 (0.00641) # entreprises 5996 √ EF entreprise √ EF année × secteur √ Contrôles retardés 0.00137 (0.000983) 5996 √ √ √ 0.0590 (0.0632) 1794 √ √ √ -0.0362 (0.0778) 1406 √ √ √ 0.00472 (0.00695) 5996 √ √ √ 0.00927 (0.00583) 5996 √ √ √ 0.00293 -0.00706 (0.00617) (0.00975) 5996 5996 √ √ √ √ √ √ 0.00476 (0.00595) 5996 √ √ √ Notes : Cette table présente les résultats d'une double-différence (voir équation: 1.1) sur deux sous-échantillons en fonction de leur position par rapport à la valeur médiane de la variable considérée en 2014. L'échantillon est un panel cylindré d'entreprises ayant au moins 4 employés par année au cours de la période 2009-2015. Le groupe de traitement comprend les entreprises avec une part de masse salariale (MS) <1.6 Smic supérieure au quartile supérieur en 2014 (défini au sein du secteur manufacturier) et moins de 60% de MS au dessous de 1.3 Smic. Le groupe de contrôle comprend les entreprises qui sont en dessous du quartile supérieur en termes de MS < 1.6 Smic et dont plus de 95% de la masse salariale est rémunérée en dessous de 2.5 Smic. Les contrôles observables sont le log retardé du salaire moyen et de la VA par travailleur. Écarts-types robustes groupés au niveau de l'entreprise. Les secteurs sont définis au niveau 2-digits (NAF2 – division). TABLEAU 1.14 – Hétérogénéité des effet selon la profitabilité initiale : secteur manufacturier Secteur manufacturier EBE / CA > médiane Di × 1t≥2015 # entreprises (1) 1(X > 0) 0.00381 (0.00676) 5865 (2) X/S 0.000888 (0.000807) 5865 (3) Ln X 0.0319 (0.0605) 1691 (4) ln U ̄V -0.115 (0.0780) 1289 (5) Ln Eff. 0.0116* (0.00609) 5865 (6) Ln MS 0.00705 (0.00550) 5865 (7) (8) (9) Ln CA Ln VA Ln Eff. ETP 0.0168*** 0.00893 0.0113** (0.00583) (0.00722) (0.00545) 5865 5865 5865 EBE / CA ≤ médiane Di × 1t≥2015 -0.00282 (0.00697) # entreprises 5277 √ EF entreprise √ EF année × secteur √ Contrôles retardés 0.00153 (0.00109) 5277 √ √ √ 0.0474 (0.0684) 1658 √ √ √ 0.0509 0.000689 (0.0797) (0.00748) 1328 5277 √ √ √ √ √ √ 0.0126** 0.00264 (0.00638) (0.00691) 5277 5277 √ √ √ √ √ √ -0.00856 (0.0108) 5277 √ √ √ 0.00937 (0.00644) 5277 √ √ √ Notes : Cette table présente les résultats d'une double-différence (voir équation: 1.1) sur deux sous-échantillons en fonction de leur position par rapport à la valeur médiane de la variable considérée en 2014. L'échantillon est un panel cylindré d'entreprises ayant au moins 4 employés par année au cours de la période 2009-2015. Le groupe de traitement comprend les entreprises avec une part de masse salariale (MS) <1.6 Smic supérieure au quartile supérieur en 2014 (défini au sein du secteur manufacturier) et moins de 60% de MS au dessous de 1.3 Smic. Le groupe de contrôle comprend les entreprises qui sont en dessous du quartile supérieur en termes de MS < 1.6 Smic et dont plus de 95% de la masse salariale est rémunérée en dessous de 2.5 Smic. Les contrôles observables sont le log retardé du salaire moyen et de la VA par travailleur. Écarts-types robustes groupés au niveau de l'entreprise. Les secteurs sont définis au niveau 2-digits (NAF2 – division). 33 Coût du travail et exportations : analyses sur données d'entreprises 1.6.2 Hétérogénéité de la transmission du choc dans les profits Cette section examine l'hétérogénéité de la baisse du coût du travail dans les profit (EBE) selon les trois mêmes caractéristiques que précédemment : âge (Tableau 1.15, la capacité d'autofinancement (Tableau 1.16) et le profit initial (Tableau 1.17). TABLEAU 1.15 – Hétérogénéité du profit pass-through selon l'âge de l'entreprise Tous secteurs > âge médian Di × 1t≥2015 CS / CA Observations R2 # entreprises En dessous âge médian (1) (2) (3) (4) EBE / CA CS / CA EBE / CA EBE / CA 0.00213*** -0.00182*** (0.000753) (0.000225) 209706 0.685 34951 209706 0.914 34951 (5) (6) (7) EBE / CA CS / CA EBE / CA 0.00175** -0.00160*** (0.000719) (0.000220) -1.169*** -1.165*** (0.372) (0.361) 209706 209706 236597 0.746 0.751 0.645 34951 34951 39436 Secteur manufacturier > âge médian Di × 1t≥2015 (1) 0.000590 (0.00189) (2) -0.00123** (0.000524) CS / CA Observations R2 # entreprises EF entreprise EF année × secteur Contrôles retardés 36402 0.625 6067 √ √ 36402 0.887 6067 √ √ 236597 0.899 39436 -1.093*** (0.407) 236597 0.709 39436 (8) EBE / CA -1.136*** (0.395) 236597 0.714 39436 En dessous âge médian (3) (4) -0.479 (1.449) 36402 0.668 6067 √ √ -0.724 (1.342) 36402 0.689 6067 √ √ √ (5) -0.000525 (0.00209) 30444 0.619 5074 √ √ (6) -0.00188*** (0.000591) 30444 0.867 5074 √ √ (7) (8) 0.279 (1.149) 30444 0.589 5074 √ √ 0.0340 (1.052) 30444 0.622 5074 √ √ √ Notes : Cette table présente les résultats d'une double-différence instrumentée (voir équation: 1.2) sur deux sous-échantillons en fonction de leur position par rapport à la valeur médiane de la variable considérée en 2014. Les colonnes (1) et (5) correspondent respectivement à la forme réduite et les colonnes (2) et (6) à la première étape de l'estimation par variable instrumentale, où le coût du travail (CS/CA) est instrumenté par l'appartenance au groupe de traitement après 2015 (Di × 1t≥2015 ). Les résultats de la deuxième étape sont montrés dans les colonnes (3) et (4) ainsi que (7) et (8). Dans les colonnes (4) et (8) des contrôles observables retardés sont introduits (le log retardé du salaire moyen et de la VA par travailleur). L'échantillon est un panel cylindré d'entreprises ayant au moins 4 employés par année au cours de la période 2009-2015. Le groupe de traitement comprend les entreprises avec une part de masse salariale (MS) <1.6 Smic supérieur au quartile supérieur en 2014 (défini au sein du secteur manufacturier) et moins de 60% de MS au dessous de 1.3 Smic. Le groupe de contrôle comprend les entreprises qui sont en dessous du quartile supérieur en termes de MS < 1.6 Smic et dont plus de 95% de la masse salariale est rémunérée en dessous de 2.5 Smic. Les contrôles observables sont le log retardé du salaire moyen et de la VA par travailleur. Écarts-types robustes groupés au niveau de l'entreprise. Les secteurs sont définis au niveau 2-digits (NAF2 – division). 34 Chap. 1 – Pacte de Responsabilité 2015 TABLEAU 1.16 – Hétérogénéité du "profit pass-through" selon la capacité d'autofinancement Tous secteurs Di × 1t≥2015 CAF élevée Faible CAF (1) (2) (3) (4) EBE / CA CS / CA EBE / CA EBE / CA 0.00197*** -0.00175*** (0.000683) (0.000221) (5) (6) (7) (8) EBE / CA CS / CA EBE / CA EBE / CA 0.00158** -0.00157*** (0.000779) (0.000224) CS / CA Observations R2 # entreprises 217733 0.689 36290 217733 0.908 36290 -1.129*** -1.113*** (0.359) (0.348) 217733 217733 228576 0.740 0.746 0.570 36290 36290 38098 Secteur manufacturier CAF élevée Di × 1t≥2015 (1) 0.00166 (0.00182) (2) -0.00253*** (0.000552) CS / CA Observations R2 # entreprises EF entreprise EF année × secteur Contrôles retardés 30870 0.643 5145 √ √ 30870 0.880 5145 √ √ 228576 0.904 38098 -1.004** -1.035** (0.446) (0.435) 228576 228576 0.651 0.656 38098 38098 Faible CAF (3) (4) -0.656 (0.677) 30870 0.691 5145 √ √ -0.692 (0.650) 30870 0.700 5145 √ √ √ (5) -0.00188 (0.00208) 35976 0.505 5996 √ √ (6) -0.000403 (0.000552) 35976 0.873 5996 √ √ (7) (8) 4.656 (9.951) 35976 -0.895 5996 √ √ 3.061 (6.950) 35976 -0.228 5996 √ √ √ Notes : Cette table présente les résultats d'une double-différence instrumentée (voir équation: 1.2) sur deux sous-échantillons en fonction de leur position par rapport à la valeur médiane de la variable considérée en 2014. Les colonnes (1) et (5) correspondent respectivement à la forme réduite et les colonnes (2) et (6) à la première étape de l'estimation par variable instrumentale, où le coût du travail (CS/CA) est instrumenté par l'appartenance au groupe de traitement après 2015 (Di × 1t≥2015 ). Les résultats de la deuxième étape sont montrés dans les colonnes (3) et (4) ainsi que (7) et (8). Dans les colonnes (4) et (8) des contrôles observables retardés sont introduits (le log retardé du salaire moyen et de la VA par travailleur). L'échantillon est un panel cylindré d'entreprises ayant au moins 4 employés par année au cours de la période 2009-2015. Le groupe de traitement comprend les entreprises avec une part de masse salariale (MS) <1.6 Smic supérieur au quartile supérieur en 2014 (défini au sein du secteur manufacturier) et moins de 60% de MS au dessous de 1.3 Smic. Le groupe de contrôle comprend les entreprises qui sont en dessous du quartile supérieur en termes de MS < 1.6 Smic et dont plus de 95% de la masse salariale est rémunérée en dessous de 2.5 Smic. Les contrôles observables sont le log retardé du salaire moyen et de la VA par travailleur. Écarts-types robustes groupés au niveau de l'entreprise. Les secteurs sont définis au niveau 2-digits (NAF2 – division). 35 Coût du travail et exportations : analyses sur données d'entreprises TABLEAU 1.17 – Hétérogénéité du "profit pass-through" selon le taux de profit Tous secteurs Taux de profit élevée Di × 1t≥2015 (1) (2) (3) (4) EBE / CA CS / CA EBE / CA EBE / CA 0.00155** -0.00182*** (0.000731) (0.000222) CS / CA Observations R2 # entreprises Faible taux de profit 214779 0.647 35797 214779 0.899 35797 (5) (6) (7) EBE / CA CS / CA EBE / CA 0.00211*** -0.00158*** (0.000734) (0.000223) -0.851** -0.825** (0.374) (0.359) 214779 214779 231536 0.698 0.707 0.381 35797 35797 38592 Secteur manufacturier Taux de profit élevée Di × 1t≥2015 (1) 0.00115 (0.00175) (2) -0.00229*** (0.000517) CS / CA Observations R2 # entreprises EF entreprise EF année × secteur Contrôles retardés 35190 0.590 5865 √ √ 35190 0.875 5865 √ √ 231536 0.912 38592 -1.337*** (0.411) 231536 0.517 38592 (8) EBE / CA -1.366*** (0.404) 231536 0.520 38592 Faible taux de profit (3) (4) -0.499 (0.725) 35190 0.633 5865 √ √ -0.641 (0.671) 35190 0.653 5865 √ √ √ (5) -0.00156 (0.00220) 31662 0.378 5277 √ √ (6) -0.000547 (0.000590) 31662 0.880 5277 √ √ (7) (8) 2.850 (6.129) 31662 -0.475 5277 √ √ 2.074 (5.038) 31662 -0.164 5277 √ √ √ Notes : Cette table présente les résultats d'une double-différence instrumentée (voir équation: 1.2) sur deux sous-échantillons en fonction de leur position par rapport à la valeur médiane de la variable considérée en 2014. Les colonnes (1) et (5) correspondent respectivement à la forme réduite et les colonnes (2) et (6) à la première étape de l'estimation par variable instrumentale, où le coût du travail (CS/CA) est instrumenté par l'appartenance au groupe de traitement après 2015 (Di × 1t≥2015 ). Les résultats de la deuxième étape sont montrés dans les colonnes (3) et (4) ainsi que (7) et (8). Dans les colonnes (4) et (8) des contrôles observables retardés sont introduits (le log retardé du salaire moyen et de la VA par travailleur). L'échantillon est un panel cylindré d'entreprises ayant au moins 4 employés par année au cours de la période 2009-2015. Le groupe de traitement comprend les entreprises avec une part de masse salariale (MS) <1.6 Smic supérieur au quartile supérieur en 2014 (défini au sein du secteur manufacturier) et moins de 60% de MS au dessous de 1.3 Smic. Le groupe de contrôle comprend les entreprises qui sont en dessous du quartile supérieur en termes de MS < 1.6 Smic et dont plus de 95% de la masse salariale est rémunérée en dessous de 2.5 Smic. Les contrôles observables sont le log retardé du salaire moyen et de la VA par travailleur. Écarts-types robustes groupés au niveau de l'entreprise. Les secteurs sont définis au niveau 2-digits (NAF2 – division). 36 Chap. 1 – Pacte de Responsabilité 2015 1.7 Test additionnels : le rôle de l'« externalisation » Le coût du travail est un déterminant du coût total de production qui à son tour détermine le prix optimal décidé par l'entreprise. Empiriquement, la hausse des prix payés par le consommateur semble être un important canal d'ajustement aux variations du salaire minimum (Aaronson, 2001; Renkin et al., 2017; Harasztosi et Lindner, 2018). Dès lors, il est vraisemblable qu'une partie des effets d'une politique de baisse du coût du travail transite via la répercussion (pass-through) de cette baisse dans le prix des consommations intermédiaires. Par exemple, dans le cas de l'évaluation du CICE, Monin et Suarez-Castillo (2018) trouvent une corrélation négative entre l'évolution des prix et l'exposition au CICE, au sein de certains secteurs. Certains de ces secteurs étant fournisseurs d'intrants pour le reste de l'économie, il apparaît plausible que les effets du CICE sur les prix aient pu être transmis via les liens de consommations intermédiaires et se propager au reste de l'économie. Comme la plupart des études sur le sujet portant sur des données de firmes, nous ne prenons en compte que l'exposition directe à la baisse de coût générée par le PR15 (i.e. celle liée aux salariés directement employés par l'entreprise) sans prendre en compte l'exposition indirecte liée à la diminution du coût des intrants, notamment celle des services externalisés. Les données dont nous disposons pour cette étude ne permettent en effet pas de prendre en compte de façon très détaillée le rôle des relations input-output. Nous ne connaissons pas la structure salariale des fournisseurs d'une entreprise donnée, dès lors nous ne pouvons pas calculer précisément son exposition indirecte à la baisse du coût du travail associée au PR15. Nous pouvons en revanche examiner des entreprises plus ou moins exposées au canal de l'externalisation, selon qu'elles ont plus ou moins recours à l'externalisation de certains services. En effet, nous connaissons les dépenses en prestations de 37 Coût du travail et exportations : analyses sur données d'entreprises services de chaque entreprise 11 . Dès lors, nous pouvons examiner dans quelle mesure les effets estimés diffèrent pour les entreprises qui externalisent peu et pour lesquelles le canal indirect est moins important, par rapport aux entreprises qui externalisent plus fortement. Nous calculons un indice d'externalisation de la façon suivante : Ratio Ext = Dépenses prestations Dépenses prestations + Salaires et traitement + Charges Sociales et classons les entreprises selon que leur indice est au-dessus ou en dessous de la valeur médiane en 2014. Les résultats pour l'ensemble des secteurs sont présentés dans le Tableau 1.18. On constate une certaine hétérogénéité dans la réaction des entreprises en termes de compétitivité internationale notamment sur les variables portant sur la marge intensive dans les colonnes (2) et (3). Cette hétérogénéité est confirmée lorsque l'on restreint l'estimation sur le secteur manufacturier (Tableau 1.19). Les effets positifs sur la part des exportations par rapport aux ventes et sur la valeur des exportations sont positifs et (marginalement) significatifs pour les entreprises qui externalisent peu et pour lesquelles l'erreur de mesure dans le choc que l'on mesure est susceptible d'être moindre. On peut tenter de fournir un ordre de grandeur des effets estimés. Sur la base de la colonne (2) du Tableau 1.18, on voit un effet de 0.000278 sur la ratio export sur ventes totales. Cela correspond à une hausse de 1,3 % (par rapport à la moyenne du ratio en 2014). L'effet mécanique sur le coût du travail des salariés au-dessous de 1,6 Smic est de 1,8 point de pourcentage (exprimé en salaire brut) ce qui ce traduit 11. Nous nous concentrons sur les prestations de service car elles sont plus susceptibles de correspondre à des producteurs domestiques et intensifs en bas salaire. À cette fin, nous utilisons une variable issue des liasses fiscales "Autres achats et charges externes" qui sont principalement constitués des charges externes, c'est-à-dire les services achetés par l'entreprise pour assurer son activité courante tels que les achats d'études et de prestations de services, de matériel, d'équipements et de travaux directement incorporés aux ouvrages et aux produits (sous-traitance), la sous-traitance générale, les charges locatives et de copropriété ou frais de publicité. 38 Chap. 1 – Pacte de Responsabilité 2015 par une baisse du coût du travail (salaires bruts plus charges sociales) d'environ 1.26 % (si l'on considère une part du salaire brut dans le coût du travail de 0,7). Sur la base d'une élasticité-prix de la demande de 5, et d'une part du coût direct des salariés en dessous de 1,6 Smic dans le coût des secteurs exportateurs de 3 % (Koehl et Simon, 2018) on s'attendrait à un effet de 0,10 % 12 . L'effet semble donc plus élevé qu'anticipé mais il est fort possible que le calcul ci-dessus se fonde sur une sous-estimation de la part dans les coûts de production des firmes traitées des salariés en dessous de 1,6 Smic. Par définition ces entreprises sont intensives en travail peu rémunéré. Une part de 9 % qui correspond à l'économie dans son ensemble (Koehl et Simon, 2018) aboutirait à un prédiction d'un effet d'environ 0,45 % ce qui est plus proche de l'effet effectivement estimé. L'ordre de grandeur semble dès lors plausible. Ces résultats ne montrent pas directement l'importance des relations inputoutput dans la transmission de choc sur le coût du travail, mais ils soulignent le fait qu'il est vraisemblablement important de les prendre en compte dans le cadre d'une évaluation des politiques de coût du travail. Il s'agit d'un canal sur lequel peu de résultats existent au niveau firme, certainement du fait de la difficulté de reconstituer les réseau des fournisseurs des entreprises à partir des données disponibles. Ces résultats s'appuient sur une mesure imparfaite de l'externalisation et dès lors semblent trop fragiles pour guider directement la formulation de politiques publiques. Néanmoins ils appellent à approfondir notre connaissance concernant le rôle de ce facteur dans la transmission des dispositifs d'exonérations de cotisations sociales employeurs au sein de l'économie. 12. On obtient sur la base du produit : (5 − 1) × 0.03 × 0.0126 ≈ 0.15 % 39 Coût du travail et exportations : analyses sur données d'entreprises TABLEAU 1.18 – Hétérogénéité des effet selon l'externalisation : tous secteurs Tous secteurs Externalisation > médiane Di × 1t≥2015 # entreprises (1) (2) (3) 1(X > 0) X/S Ln X -0.000484 -0.0000204 -0.0179 (0.00235) (0.000267) (0.0368) 37759 37759 6416 (4) (5) (6) (7) (8) (9) ln U ̄V Ln Eff. Ln MS Ln CA Ln VA Ln Eff. ETP -0.0587 0.00735** 0.0114*** 0.00900*** 0.0115*** 0.0135*** (0.0409) (0.00313) (0.00272) (0.00280) (0.00401) (0.00257) 4900 37759 37759 37759 37759 37759 Externalisation ≤ médiane Di × 1t≥2015 # entreprises EF entreprises Année × EF secteur ContrÃt'les retardés -0.00159 (0.00148) 36631 √ √ √ 0.000278* 0.134* (0.000150) (0.0707) 36631 1905 √ √ √ √ √ √ 0.0184 (0.106) 1301 √ √ √ -0.00285 (0.00301) 36631 √ √ √ 0.00886*** 0.0115*** 0.0102*** 0.00897*** (0.00230) (0.00237) (0.00279) (0.00227) 36631 36631 36631 36631 √ √ √ √ √ √ √ √ √ √ √ √ Notes : Cette table présente les résultats d'une double-différence (voir équation: 1.1) sur deux sous-échantillons en fonction de leur position par rapport à la valeur médiane de la variable considérée en 2014. L'échantillon est un panel cylindré d'entreprises ayant au moins 4 employés par année au cours de la période 2009-2015. Le groupe de traitement comprend les entreprises avec une part de masse salariale (MS) <1.6 Smic supérieure au quartile supérieur en 2014 (défini au sein du secteur manufacturier) et moins de 60% de MS au dessous de 1.3 Smic. Le groupe de contrôle comprend les entreprises qui sont en dessous du quartile supérieur en termes de MS < 1.6 Smic et dont plus de 95% de la masse salariale est rémunérée en dessous de 2.5 Smic. Les contrôles observables sont le log retardé du salaire moyen et de la VA par travailleur. Écarts-types robustes groupés au niveau de l'entreprise. Les secteurs sont définis au niveau 2-digits (NAF2 – division). TABLEAU 1.19 – Hétérogénéité des effet selon l'externalisation : secteur manufacturier Secteur manufacturier Externalisation > médiane Di × 1t≥2015 # firms (1) 1(X > 0) 0.000828 (0.00755) 5775 (2) X/S 0.000727 (0.00109) 5775 (3) Ln X -0.0144 (0.0506) 2489 (4) (5) (6) ln U ̄V Ln Eff. Ln MS -0.0662 0.0140** 0.0116* (0.0593) (0.00684) (0.00622) 1982 5775 5775 (7) Ln CA 0.0120* (0.00674) 5775 (8) Ln VA -0.00113 (0.0103) 5775 (9) Ln Eff. ETP 0.0131** (0.00606) 5775 Externalisation ≤ médiane Di × 1t≥2015 0.00147 (0.00584) # entreprises 5367 √ EF entreprise √ EF année × secteur √ Contrôles retardés 0.00177** 0.178* (0.000740) (0.102) 5367 860 √ √ √ √ √ √ 0.0597 (0.142) 635 √ √ √ -0.00166 0.00763 (0.00690) (0.00596) 5367 5367 √ √ √ √ √ √ 0.00809 0.00301 (0.00607) (0.00744) 5367 5367 √ √ √ √ √ √ 0.00779 (0.00606) 5367 √ √ √ Notes : Cette table présente les résultats d'une double-différence (voir équation: 1.1) sur deux sous-échantillons en fonction de leur position par rapport à la valeur médiane de la variable considérée en 2014. L'échantillon est un panel cylindré d'entreprises ayant au moins 4 employés par année au cours de la période 2009-2015. Le groupe de traitement comprend les entreprises avec une part de masse salariale (MS) <1.6 Smic supérieure au quartile supérieur en 2014 (défini au sein du secteur manufacturier) et moins de 60% de MS au dessous de 1.3 Smic. Le groupe de contrôle comprend les entreprises qui sont en dessous du quartile supérieur en termes de MS < 1.6 Smic et dont plus de 95% de la masse salariale est rémunérée en dessous de 2.5 Smic. Les contrôles observables sont le log retardé du salaire moyen et de la VA par travailleur. Écarts-types robustes groupés au niveau de l'entreprise. Les secteurs sont définis au niveau 2-digits (NAF2 – division). 1.8 Conclusion Ce chapitre s'est intéressé aux effets d'une mesure du Pacte de responsabilité appliquée en 2015 qui consistait à baisser de 1,8 point les charges sociales sur les salaires inférieurs à 1,6 Smic. Il s'agit d'une réduction limitée du coût du travail. Afin de mesurer les effets de cette mesure sur le comportement des entreprises 40 Chap. 1 – Pacte de Responsabilité 2015 et leur profitabilité, nous suivons une simple stratégie de double-différence où nous divisons les entreprises selon leur niveau d'exposition ex ante à la mesure en fonction de leur structure salariale 2014. Afin d'essayer d'augmenter la comparabilité des entreprises, nous imposons également des restrictions additionnelles sur la part de leur salaires à 1,3 et 2,5 Smic. En dépit de l'ampleur limitée de la mesure, l'analyse parvient à estimer l'effet de la mesure sur le poids relatif des charges sociales (par rapport aux ventes ou bien à la masse salariale brute), ce qui constitue une sorte de première étape. Néanmoins, aucun effet n'est détecté sur les différentes mesures d'exportations des entreprises. Cette absence d'effet peut être en partie expliquée par le fait que l'échantillon contient en moyenne des entreprises relativement petites et orientées vers le marché domestique. Il est également difficile de détecter un effet moyen de la mesure sur l'emploi, les ventes ou encore la valeur ajoutée. Le résultat le plus robuste qui ressort de l'analyse empirique est le fait que l'on ne peut jamais rejeter l'hypothèse selon laquelle 100 % des baisses de charges sociales aient été transmises dans l'EBE. Un cadre conceptuel stylisé présenté dans l'Annexe B permet de rendre compte des résultats en mettant en relation les résultats sur l'emploi et ceux sur les profits. 41 Coût du travail et exportations : analyses sur données d'entreprises 42 C HAPITRE 2 E XTENSION DE L' ÉVALUATION DU SUR LA COMPÉTITIVITÉ 2.1 CICE : 2013-2017 Introduction Ce chapitre est une actualisation des travaux de Malgouyres et Mayer (2018) visant à estimer les effets du CICE sur les performances des entreprises françaises à l'export. La spécification estimée est la suivante : ∆ ln xind = βd × ηi [ln(1 − ν)] + W′i,2011 γ + FEsd + FEnd + uind , (2.1) où : ● i et n indicent les entreprises et les destinations, respectivement. ● ∆ ln xind ≡ ln xind /xin,2012 est égal à la croissance des exportations de l'entreprise i vers le marché n entre l'année d et 2012 avec d ∈ {2013, 2014, , 2017}. ● ηi est la part de la masse salariale reçue par des salariés payés en dessous de 2,5 Smic (donc éligibles au CICE) au sein de l'entreprise i en 2012. [ln(1 − ν)] est le logarithme de un moins le taux de subvention moyen au cours de la 43 Coût du travail et exportations : analyses sur données d'entreprises période ν = 0.058 (ce terme est constant entre entreprises donc il ne fait que changer l'échelle des coefficients estimés sans impact sur l'inférence). ● W′i,2011 est un ensemble de variable de contrôles (alternativement en première différence entre 2010 et 2011 ou bien en niveau en 2011). ● FEsd et FEnd sont deux ensemble d'effets fixes au niveau secteur (NAF2 2 digit) et destination, respectivement. Cette approche conserve donc une observation par entreprise-destination et projette directement le changement des exportations par rapport à 2012 pour plusieurs horizons temporels sur la variation moyenne du coût du travail induite par les politiques entre 2012 et 2017. Cette méthode a l'avantage de permettre des effets variables dans le temps et n'impose pas de restrictions dynamiques sur la structure des "lags" (Jordà, 2005; Zidar, 2017). 2.2 Résultats 2.2.1 Différences longues Les résultats de l'estimation de la spécification (2.1) sont présentés dans les tableaux 2.1 et 2.2. Lorsque les contrôles sont introduits en première différence, on constate une forte instabilité des coefficients d'une année sur l'autre (Tableau 2.1). On remarque de plus que lorsque les contrôles sont introduits en niveau (Tableau 2.2), les coefficients sont assez différents de ceux présentés dans le Tableau 2.1. La sensibilité des coefficients à la forme des contrôles (première différence ou niveau) est problématique. Néanmoins les deux approches concordent en ce qu'elles ne parviennent pas à mettre en lumière une association statistique robuste entre exposition ex-ante (c'est-à-dire sur la base de variables prédéterminées au moment de la mise en place de la politique) au CICE et croissance des exportations. 44 Chap. 2 – CICE et PR 2016 TABLEAU 2.1 – Différences longues, contrôles en première différence (1) ∆ ln x′ 12,′ 13 0.670* (0.357) (2) ∆ ln x′ 12,′ 14 1.014** (0.442) (3) ∆ ln x′ 12,′ 15 0.488 (0.531) (4) ∆ ln x′ 12,′ 16 1.489** (0.620) (5) ∆ ln x′ 12,′ 17 0.317 (0.669) ∆ ln VA / Li,t−1 0.0107 (0.0170) 0.00921 (0.0210) -0.00879 (0.0237) -0.0421 (0.0283) -0.0276 (0.0319) ∆ ln Immoi,t−1 0.122*** 0.182*** 0.193*** 0.246*** 0.252*** (0.0291) (0.0350) (0.0431) (0.0501) (0.0573) ∆ ln Salaire moyeni,t−1 0.0680* (0.0403) 0.0803* (0.0464) ∆ ln Heuresi,t−1 0.0835** (0.0422) 158613 0.005 √ 0.133*** 0.167*** 0.245*** 0.288*** (0.0472) (0.0576) (0.0785) (0.0745) 141439 136860 131866 127232 0.007 0.013 0.016 0.017 √ √ √ √ -ηi ln(1 − 0.058) Observations R2 EF Destination × année # entreprises 13473 0.106* (0.0543) 13276 13169 0.186*** 0.177** (0.0620) (0.0700) 13096 12996 Notes : Chaque colonne correspond à l'estimation de la spécification présentée dans l'équation (2.1) pour différentes valeur de d, c'est-à-dire l'horizon temporel sur lequel la croissance des exportations est calculée par rapport à l'année de référence 2012 : colonne (1) 2013, colonne (2) 2014, , (5) 2017. La variable [η2012 ln(1 − ν)] représente le degré d'exposition au CICE sur la base de la structure salariale de 2012. TABLEAU 2.2 – Différences longues, contrôles en niveau -ηi ln(1 − 0.058) (1) ∆ ln x′ 12,′ 13 0.686 (0.505) (2) ∆ ln x′ 12,′ 14 0.0169 (0.604) (3) ∆ ln x′ 12,′ 15 -0.423 (0.726) (4) ∆ ln x′ 12,′ 16 0.469 (0.828) (5) ∆ ln x′ 12,′ 17 -0.796 (0.914) ln VA / L′ 11 0.0308*** 0.0471*** 0.0794*** 0.114*** 0.111*** (0.0104) (0.0132) (0.0155) (0.0187) (0.0215) ln Immo′ 11 -0.00274 (0.00499) -0.00246 (0.00652) ln Salaire moyen′ 11 -0.0221 (0.0252) -0.0880*** -0.120*** -0.133*** -0.155*** (0.0303) (0.0368) (0.0419) (0.0439) ln Heurest -0.00238 (0.00659) 159025 0.005 √ -0.0145* (0.00878) 141795 0.007 √ -0.00336 (0.0103) 137208 0.013 √ -0.000719 (0.0119) 132210 0.015 √ -0.000451 (0.0135) 127542 0.016 √ 13525 13328 13220 13147 13046 Observations R2 EF Destination × année # entreprises -0.0105 (0.00767) -0.0227** -0.0186* (0.00888) (0.00984) Notes : Chaque colonne correspond à l'estimation de la spécification présentée dans l'équation (2.1) pour différentes valeur de d, c'est-à-dire l'horizon temporel sur lequel la croissance des exportations est calculée par rapport à l'année de référence 2012 : colonne (1) 2013, colonne (2) 2014, , (5) 2017. La variable [η2012 ln(1 − ν)] représente le degré d'exposition au CICE sur la base de la structure salariale de 2012. 45 Coût du travail et exportations : analyses sur données d'entreprises 2.2.2 Croissance cumulée La faible stabilité des coefficients estimés ci-dessus (Tableaux 2.1 et 2.2 ) pourrait s'expliquer par le fait que de nombreuses entreprises exportent une année donnée vers une destination particulière mais pas l'autre – le panel est cylindré au niveau entreprise mais pas au niveau entreprise × destination. Dans cette soussection, nous définissons une variable dépendante qui est égale à la croissance cumulée des exportations jusqu'à une date d donnée par rapport à la valeur des exportations pour les années 2010-2012 (qui précédent la mise en place de la politique). La variable est définie de la manière suivante : ⎛ 2012 ∆ ln xcind ≡ ln ( ∑ xnit ) ⎝ t=2010 2013+d −1 2013+d ∑ xnit t=2013 ⎞ ⎠ 2012 = ln ( ∑ xnit ) − ln ( ∑ xnit ) t=2013 (2.2) t=2010 La variable ∆ ln xcind devrait être moins volatile que ∆ ln xind pour deux raisons principales : le point de référence est défini par rapport à la moyenne des années 2010 à 2012 et elle est faiblement croissante en d. Les résultats sont globalement comparables avec ceux la sous-section précédente. On ne constate pas d'effet du CICE durable. On constate que les coefficients sont peu sensibles à l'introduction des variables de contrôles en première différence ou en niveau. Un coefficient significativement positif est estimé pour l'année 2013 dans les deux cas, néanmoins il semble peu plausible que le CICE ait un effet de court terme (1 an) sans qu'aucun effet de moyen terme ne soit mis en évidence. On peut donc douter de la nature causale de cette association statistique. 46 Chap. 2 – CICE et PR 2016 TABLEAU 2.3 – Taux de croissance cumulée, contrôles en niveau −η12 × ln(1 − 0.058) (1) ∆ ln xcin,2013 1.224** (0.570) (2) ∆ ln xcin,2014 0.316 (0.522) (3) ∆ ln xcin,2015 0.189 (0.538) (4) ∆ ln xcin,2016 -0.108 (0.572) (5) ∆ ln xcin,2017 -0.196 (0.633) ln VA par travailleurs ′ 11 0.0770*** 0.0811*** 0.0835*** 0.0859*** 0.109*** (0.0125) (0.0114) (0.0125) (0.0127) (0.0137) ln valeur immo ′ 11 -0.00190 (0.00552) -0.00759 (0.00535) -0.0167*** -0.0173*** -0.0199*** (0.00548) (0.00577) (0.00627) ln emploi ′ 11 -0.00361 (0.00736) -0.00256 (0.00731) 0.00895 (0.00740) ln Salaire moyen ′ 11 -0.104*** -0.107*** -0.0901*** -0.0941*** -0.111*** (0.0282) (0.0251) (0.0276) (0.0295) (0.0334) 111817 111145 111130 111163 117454 0.015 0.013 0.015 0.016 0.018 √ √ √ √ √ Observations R2 EF Destination × année # entreprises 12591 12569 0.00962 (0.00784) 12556 0.0189** (0.00853) 12547 12750 TABLEAU 2.4 – Taux de croissance cumulée, contrôles en première différence −η12 × ln(1 − 0.058) (1) (2) ∆ ln xcin,2013 ∆ ln xcin,2014 1.161*** 0.583 (0.438) (0.395) (3) ∆ ln xcin,2015 0.179 (0.393) (4) ∆ ln xcin,2016 -0.0775 (0.408) (5) ∆ ln xcin,2017 -0.515 (0.439) ∆ ln VA par travailleurs ′ 11 0.0584*** 0.0635*** 0.0880*** 0.0861*** 0.0946*** (0.0197) (0.0180) (0.0198) (0.0206) (0.0215) ∆ ln valeur immo ′ 11 0.0609** (0.0266) 0.0844*** 0.102*** (0.0280) (0.0299) 0.108*** (0.0310) 0.115*** (0.0340) ∆ ln emploi ′ 11 0.0858** (0.0349) 0.125*** (0.0414) 0.132*** (0.0429) 0.144*** (0.0470) 0.136*** (0.0523) ∆ ln Salaire moyen ′ 11 -0.0665* (0.0381) 107412 0.017 √ -0.0745* (0.0394) 106742 0.015 √ -0.0880** (0.0424) 106582 0.016 √ -0.0839* (0.0449) 106507 0.018 √ -0.0997** (0.0492) 111669 0.020 √ 12387 12364 Observations R2 EF Destination × année # entreprises 2.3 12353 12346 12524 Extension de l'analyse au Pacte de responsabilité 2016 47 Coût du travail et exportations : analyses sur données d'entreprises 2.3.1 Description de la mesure La baisse du taux de cotisations sociales d'allocations familiales de 1,8 point mise en place au 1er janvier 2015 a été étendue de 1,6 à 3,5 Smic au 1er avril 2016. Nous utilisons une approche similaire à celle appliquée au CICE afin d'estimer l'effet de cette extension. 2.3.2 Spécification empirique La stratégie empirique est équivalente à celle de l'évaluation du CICE, à l'exception que l'on agrège les exportations au niveau firme-année. ∆2 ln Xi = β × ηib,3.5 + W′i,2014 γ + FEs(i) + ui , (2.3) où : ● ∆2 ln Xi ≡ ln Xi,2017 /Xi,2015 est égal à la croissance des exportations de l'entreprise i entre l'année 2017 et 2015. On considère également ∆1 ln Xi (croissance entre 2016 et 2015) ainsi que ∆ ln Xi (croissance moyenne sur la période 2016/2017 par rapport à 2015). ● ηib,3.5 est la part de la masse salariale reçue par des salariés payé entre 1,6 et 3,5 Smic (donc éligible au PR16) au sein de l'entreprise i en 2015. La variable ηib,3.5 a une moyenne de 0.427, un écart-type de 0.2447, une médiane de 0.4301, une décile inférieur de 0.0612 et un décile supérieur de 0.7534. ● W′i,2014 est un ensemble de variable de contrôles en niveau de 2014. ● FEs est un ensemble d'effets fixes sectoriels (NAF2 2 digit). On peut caractériser le ciblage des entreprises exportatrices par le dispositif PR16 par rapport au dispositif PR15 en comparant au sein de notre échantillon la corrélation entre des mesures de performance d'exportation en 2014 et ηib,3.5 et ηi1.6 48 Chap. 2 – CICE et PR 2016 (la part de la masse salariale associée à des salaires horaires inférieurs à 1,6 Smic) évalués en 2015. On obtient les deux corrélations suivantes : Corr(ηib,3.5 ,1(X14 > 0))=0.13 et Corr(ηi1.6 ,1(X14 > 0))=-0.2298. On voit donc que l'exposition au PR15 est négativement corrélée avec la marge extensive des exportations en 2014 et que l'inverse est vrai pour l'exposition au PR16. On voit aussi que la part d'exportateurs est de 15 % dans le décile supérieur η 1.6 et de 65 % dans le décile inférieur (après avoir pris en compte les effets de compositions sectoriels en "résidualisant" les variables vis-à-vis d'effets fixes secteur). Au contraire, la part d'exportateurs est de 55% dans le décile supérieur η b,3.5 et de 27,5 % dans le décile inférieur. Le ciblage direct du PR16 est donc, de façon peu surprenante, plus favorable aux exportateurs. 2.3.3 Résultats sur le Pacte de responsabilité 2016 Pour résumer les résultats de manière rapide, il est impossible de détecter un effet statistique du PR16 sur les variables de commerce international (Tableau 2.5). TABLEAU 2.5 – PR16 : croissance des exportations régressée sur l'exposition au traitement % MS entre 1.6 et 3.5 SMIC 2015 Observations R2 Secteur FE Contrôles retardés Pas de contrôles retardées Contrôles retardées (1) (2) (3) ̄X ∆1 ln X ∆2 ln X ∆ ln 0.0245 -0.0358 0.0600 (0.0359) (0.0432) (0.0387) (4) (5) (6) ̄X ∆1 ln X ∆2 ln X ∆ ln 0.0386 -0.0160 0.0550 (0.0391) (0.0469) (0.0422) 15995 0.002 √ 15442 0.002 √ 16391 0.002 √ 15930 0.004 √ √ 15382 0.004 √ √ 16324 0.004 √ √ Notes : Chaque colonne correspond à l'estimation de la spécification présentée dans l'équation 2.3. Les contrôles retardés en niveau incluent : ln VA par travailleur, ln Immobilisations, ln Salaire moyen, ln Heures travaillées. 49 Coût du travail et exportations : analyses sur données d'entreprises 2.4 Discussion et conclusion Ni le CICE ni le PR16 ne sont associés avec des effets statistiquement significatifs sur la performance à l'exportation. Même avec un ciblage du PR16 est bien plus orienté vers les firmes exportatrices que les autres mesures analysées (notamment le PR15), l'analyse ne parvient pas à détecter d'effet sur le comportement exportateur des firmes françaises. Il convient de prendre ces résultats avec prudence car, contrairement aux autres analyses (Ristourne II, PR15), nous n'avons pas pu valider notre mesure d'exposition en s'assurant quelle soit fortement corrélée à l'évolution du poids des cotisations sociales documenté par les entreprises dans les liasses fiscales (FARE). Annexe TABLEAU 2.6 – PR16 : heterogeneité selon le degré d'externalisation Externalisation élevée % MS entre 1.6 et 3.5 SMIC 2015 Observations R2 Secteur FE Contrôles retardés (1) (2) ∆1 ln X ∆2 ln X 0.0520 -0.0558 (0.0577) (0.0710) 10877 0.005 √ √ 10595 0.005 √ √ Faible externalisation (3) (4) ̄X ∆ ln ∆1 ln X 0.0255 0.0487 (0.0618) (0.0790) 11136 0.008 √ √ 5738 0.008 √ √ (5) (6) ̄X ∆2 ln X ∆ ln -0.00548 0.0662 (0.0923) (0.0835) 5483 0.011 √ √ 5904 0.009 √ √ Notes : Chaque colonne correspond à l'estimation de la spécification présentée dans l'équation 2.3. Les contrôles retardés en niveau incluent : ln VA par travailleur, ln Immobilisations, ln Salaire moyen, ln Heures travaillées. Une entreprise est considérée comme ayant un forte degré d'externalisation si le ratio de autres charges externes par rapport au coût du travail (masse salariale et charges sociales) en 2014 est plus élevé que la valeur médiane de cette variable au sein du secteur manufacturier. 50 C HAPITRE 3 LA RISTOURNE J UPPÉ II ET LA PERFORMANCE À L' EXPOR TATION DES ENTREPRISES CIBLÉES 3.1 : 1995-1997 Introduction Dans ce chapitre, nous examinons les effets de la ristourne Juppé II mise en place à la fin de 1996 jusqu'au 31 décembre 1997. Cette ristourne a considérablement augmenté le taux d'exonération autour du Smic par rapport aux dispositifs précédents – voir Figure 3.1. Nous adoptons une stratégie d'identification identique à celle de Crépon et Desplatz (2001) et examinons les effets de la baisse de charges entre 1995 et 1997 sur la compétitivité internationale 1 . 1. Néanmoins, contrairement à Crépon et Desplatz (2001), nous restreindrons nos travaux à une spécification linéaire. 51 Coût du travail et exportations : analyses sur données d'entreprises F IGURE 3.1 – Exonérations de cotisations employeurs entre 1994 et 1997 .35 Du 1er juil. 1993 au 30 juin 1994 Du 1er juil. 1994 au 31 déc. 1994 Du 1er janv. 1995 au 31 août 1995 .3 exonération / salaire brut Du 1er sept. 1995 au 30 sept. 1996 (Ristourne Juppé I) Du 1er oct. 1996 au 31 déc. 1997 (Ristourne Juppé II) .25 .2 .15 .1 .05 0 1 1.1 1.2 1.3 1.4 1.5 1.6 1.7 1.8 1.9 2 2.1 2.2 2.3 2.4 2.5 2.6 salaire brut (en smic) Notes : Ce graphique représente l'effet en termes de réduction du coût du travail des différents dispositifs mis en place entre 1993 et 1997 exprimé en pourcentage du salaire brut, pour les employeurs éligibles à ces dispositifs. Sources : Barèmes IPP, Prélèvements sociaux (avril 2018) 3.2 3.2.1 Approche empirique Mesurer les effets ex-ante de la baisse de charges sur le coût du travail Des techniques de microsimulation sont nécessaires afin de calculer le coût de la main-d'oeuvre à partir des informations disponibles dans les données des fichiers postes DADS. Le présent travail repose sur l'utilisation du modèle TAXIPP développé à l'Institut des politiques publiques (IPP), et en particulier sur le module cotisations sociales. Le modèle tient compte du barème des contributions de sécurité sociale, tel qu'il est recueilli dans les Barèmes IPP, et calcule les cotisations sociales employeurs et employés ainsi que les exonérations de cotisations sociales employeurs. Le modèle simule de manière très détaillée la complexité des CSP françaises, y compris les régimes locaux de sécurité sociale tels que celui de la région Alsace-Moselle. 52 Chap. 3 – Ristourne Juppé II Afin de microsimuler les effets ex-ante, nous appliquons le barème 1997 sur la structure salariale des entreprises en 1995 en utilisant les mesures monétaires (notamment le Smic et les plafonds de sécurité sociale) de 1995. Nous appliquons ensuite le barème de 1995 sur les données 1995. Une difficulté provient du changement de barème au cours de l'année 1995 alors que les données dont nous disposons sont de fréquence annuelle. Nous appliquons donc une moyenne pondérée des barèmes en vigueur au cours de l'année 1995 à hauteur de la durée d'application de chaque barème. Plus formellement, en notant θt les mesures monétaires pour l'année t, xi les caractéristiques pertinentes d'un salarié i (incluant les caractéristiques de son employeur) et Td (θ, X) la fonction qui retourne le coût du travail sur la base du barème d, des paramètres monétaires θ et des caractéristiques individuelles X. On note également f ∶ i ↦ j la fonction qui assigne un individu i à une entreprise j. Nous calculons notre instrument de la façon suivante : Zj = − ln ( ∑i∶f (i)=j T1997 (θ1995 , xi ) ) ∑i∶f (i)=j T1995 (θ1995 , xi ) (3.1) La variable Zj mesure donc l'effet ex-ante en points de log des variations de barème entre le 1er janvier 1995 et le 31 décembre 1997. En plus des exonérations de cotisations employeurs, des changements de taux de cotisations différenciés selon les niveaux de revenus sont intervenus sur la période considérée. Il est important de prendre en compte ces augmentations car elles sont certainement corrélées avec les exonérations de cotisations employeurs. On note en particulier une forte hausse du taux tranche 2 (1 à 3 Plafond de sécurité sociale) des taux AGIRC (cadres) pour les tranches B (1 à 4 PSS) et C (4 à 8 PSS). Cela explique vraisemblablement le fait qu'une partie non négligeable des entreprises sont associées à une hausse du coût du travail (Z négatif) – voir Figure 3.2. Dès lors, il est important d'interpréter nos résultats comme reflétant des variations dans le coût du travail dont toutes n'ont 53 Coût du travail et exportations : analyses sur données d'entreprises pas pour origine la Ristourne Juppé mais également divers changements de barème des cotisations sociales employeurs. F IGURE 3.2 – Distribution de la baisse du coût du travail ex-ante entre 1995 et 1997 : Secteur manufacturier 200 Density 150 100 50 0 0 .02 .04 .06 .08 g Notes : Cet histogramme représente la densité du la variation ex-ante du coût du travail induite par le changement de barème des allègements de cotisations employeurs entre 1995 et 1997 – voir Equation 3.1 pour une définition. 3.2.2 Stratégie empirique La spécification principale est la suivante : ∆ ln yi = βZi + x′i δ + μs(i) + ui (3.2) où : ● ∆ ln yi est le changement du log de la variable y pour l'entreprise i entre 1997 54 Chap. 3 – Ristourne Juppé II et 1995. ● Zi est la variable qui mesure la baisse ex-ante du coût du travail impliqué par les changements d'exonérations et de barème plus généralement entre début 1995 et 1997. ● xi est un ensemble de variables de contrôles ● μs est un effet fixe secteur Des statistiques descriptives sont présentées dans la Table 3.1. Nous pouvons voir dans quelle mesure la baisse ex-ante du coût du travail Zi est corrélée avec une baisse de la part des charges sociales au sein du coût du travail. Les résultats sont exposés graphiquement dans la Figure 3.3 qui montre l'évolution moyenne du ratio CS/Coût du travail par quantiles de Z. La relation très nettement négative. 55 Coût du travail et exportations : analyses sur données d'entreprises F IGURE 3.3 – La part des charges sociales dans le coût du travail a diminué dans les entreprises plus exposées aux exonérations Juppé en 1995 .005 .005 0 0 ∆ (Charges sociales / Coût du travail) ∆ (Charges sociales / Coût du travail) (Secteur manufacturier à gauche et tertiaire à droite) -.005 -.01 -.015 -.02 -.005 -.01 -.015 -.02 -.01 0 .01 .02 .03 -.01 T('95,'97)/T('95,'95) - 1 0 .01 .02 .03 T('95,'97)/T('95,'95) - 1 Notes : Chaque point représente la moyenne du changement entre 1995 et 1997 du ratio de charges sociales sur coût du travail total (salaires bruts plus charges sociales) pour différents quantiles Z – voir définition Equation (3.2). 56 Chap. 3 – Ristourne Juppé II TABLEAU 3.1 – Statistiques descriptives Manufacturier Tertiaire Ex ante ∆ coût du travail Ex-ante ∆ coût du travail 0.00196 0.00276 −−, 0 si négative 0.00354 0.00425 −−, conditionellement à > 0 0.00814 0.00864 Variables au niveau entreprise Part de la dette 0.65026 0.70148 Coût apparent du crédit 0.03860 0.03291 Ln K/L 4.91780 4.53677 EBE / K 0.70305 0.86057 Ln VA 8.51941 7.97364 Ln Salaire brute 14.79130 14.23438 Ln VA / L 0.24822 0.22388 δ = taux de dépréciation 0.22034 0.17341 Ln Chiffre d'affaires 9.35006 9.01378 Structure emploi Part emp. qualif., jeune et masculin 0.01197 0.01358 Part emp. qualif., âge moyen et masculin 0.14492 0.15843 Part emp. qualif., âgé et masculin 0.05236 0.05093 Part emp. moyen. qualif., jeune et masculin 0.04946 0.06128 Part emp. moyen. qualif., âge moyen et masculin 0.23096 0.23251 Part emp. moyen. qualif., âgé et masculin 0.03867 0.04061 Part emp. peu qualif., jeune et masculin 0.06245 0.04304 Part emp. peu qualif., âge moyen et masculin 0.10255 0.03788 Part emp. peu qualif., âgé et masculin 0.01694 0.00648 Part emp. qualif., jeune et féminin 0.00481 0.01054 Part emp. qualif., âge moyen et féminin 0.03546 0.06723 Part emp. qualif., âgé et féminin 0.01093 0.01562 Part emp. moyen. qualif., jeune et féminin 0.02268 0.05026 Part emp. moyen. qualif., âge moyen et féminin 0.09992 0.14551 Part emp. moyen. qualif., âgé et féminin 0.01934 0.02551 Part emp. peu qualif., jeune et féminin 0.01811 0.01432 Part emp. peu qualif., âge moyen et féminin 0.06392 0.01950 Part emp. peu qualif., âgé et féminin 0.01458 0.00676 Dynamiques ∆ ln V A95 1.95531 1.93985 94 ∆ ln Salaire brut95 0.06167 0.04354 94 ∆ ln Effectifs Moyens (ETP)95 0.04710 0.05297 94 Commerce internationale 97 ∆ ln X95 0.12705 0.05180 Valeur (milliers Francs) 3483321.85508 1683860.13471 Observations 3.3 38876 116567 Manuf., exportateur en 1994 0.00120 0.00288 0.00739 0.63384 0.04328 5.09690 0.76334 9.00142 15.24136 0.28339 0.21549 9.87175 0.01283 0.15207 0.05298 0.04167 0.21188 0.03700 0.05819 0.10887 0.01832 0.00529 0.03936 0.01135 0.02085 0.10013 0.01841 0.01906 0.07512 0.01660 1.95561 0.06549 0.04766 0.12705 3483321.85508 24227 Résultats de base Avant d'examiner directement l'effet de la baisse du coût du travail sur les performances à l'exportations, nous vérifions qu'en dépit de certaines différences avec les travaux de Crépon et Desplatz (2001) nous trouvons des effets d'un ordre de grandeur similaire concernant les variables liées à l'emploi. Le Tableau 3.2 présente les résultats d'une spécification qui inclut comme va57 Coût du travail et exportations : analyses sur données d'entreprises riable de contrôle la liste détaillée ci-dessous (l'ensemble des variable est mesuré en 1995) : ● Le taux d'endettement : il est mesuré comme étant le ratio de la dette par rapport à la valeur des fonds propres. ● L'intensité capitaliste (en log) : il s'agit du ratio immobilisations totales sur effectifs. ● Taux de dépréciation du capital : amortissement sur total du bilan brut ● Coût de la dette : ratio charges financières sur dette. ● Masse salariale brute (DADS, en log) ● Productivité apparente du travail (en log), sur la base de la valeur ajoutée brute (aux coûts des facteurs) sur les effectifs moyens (ETP). ● Ventes (log) : chiffre d'affaires total Ces variables sont décrites dans la Table 3.1 sous le chapeau "Variables au niveau entreprises". La spécification n'inclut aucun contrôle au niveau sectoriel. La ligne β̂ × ḡ présente le produit du coefficient estimé avec la valeur moyenne du traitement multipliée par cent. TABLEAU 3.2 – 1995-1997 : Contrôles de base 1995 Secteur manufacturier (1) (2) (3) ∆ ln Emploi ∆ ln V A ∆(CS/CT ) Tertiaire (4) (5) ∆ ln CT/L ∆ ln Emploi (6) (7) (8) ∆ ln V A ∆(CS/CT ) ∆ ln CT/L ∆CT ex-ante 3.459*** 0.845*** -0.934*** (0.226) (0.236) (0.0294) -3.241*** (0.202) 2.989*** 0.851*** -0.560*** (0.126) (0.128) (0.0164) -2.329*** (0.116) Observations Adjusted R2 β̂ × ḡ (in %) Contrôles 1 38661 0.046 .68% √ 38661 0.032 -.64% √ 115327 0.032 .82% √ 115327 0.028 -.64% √ 38659 0.044 .17% √ 38661 0.051 -.18% √ 115309 0.029 .23% √ 115327 0.023 -.15% √ Notes : Cette table présente les résultats d'une régression linéaire en première différence (voir équation: 3.2). L'échantillon est un panel cylindré d'entreprises ayant au moins 4 employés par année au cours de la période 1995-1997. Les écarts-types robustes sont reportés entre parenthèses. Le Tableau 3.3 présente les résultats de la même spécification en termes de 58 Chap. 3 – Ristourne Juppé II contrôles observables, mais en ajoutant des effets fixes sectoriels au niveau 3 digit (NAF 2003 Rev 1). TABLEAU 3.3 – 1995-1997 : Contrôles 1995 de base + EF secteur Secteur manufacturier (1) (2) (3) ∆ ln Emploi ∆ ln V A ∆(CS/CT ) Tertiaire (4) (5) (6) (7) ∆ ln CT/L ∆ ln Emploi ∆ ln V A ∆(CS/CT ) (8) ∆ ln CT/L ∆CT ex-ante 3.469*** 1.722*** -0.682*** (0.237) (0.253) (0.0289) -2.223*** (0.209) 2.741*** 0.913*** -0.435*** (0.131) (0.135) (0.0174) -1.720*** (0.120) Observations Adjusted R2 β̂ × ḡ (in %) Cont. 1 + EF secteur 38661 0.062 .68% √ 38661 0.045 -.44% √ 115323 0.049 .76% √ 115323 0.038 -.47% √ 38659 0.057 .34% √ 38661 0.088 -.13% √ 115305 0.045 .25% √ 115323 0.031 -.12% √ Notes : Cette table présente les résultats d'une régression linéaire en première différence (voir équation: 3.2). L'échantillon est un panel cylindré d'entreprises ayant au moins 4 employés par année au cours de la période 1995-1997. Les écarts-types robustes sont reportés entre parenthèses. Le Tableau 3.4 conserve l'ensemble des contrôles observables et des effets fixes sectoriels inclus précédemment et ajoute un ensemble de contrôles sur la structure de la main d'oeuvre en terme de qualification, âge et sexe. Ces variables sont décrites dans la Table 3.1 sous le chapeau "Structure emploi". TABLEAU 3.4 – 1995-1997 : Contrôles 1995 extensifs + EF secteur Secteur manufacturier (1) (2) (3) ∆ ln Emploi ∆ ln V A ∆(CS/CT ) Tertiaire (4) (5) (6) (7) ∆ ln CT/L ∆ ln Emploi ∆ ln V A ∆(CS/CT ) (8) ∆ ln CT/L ∆CT ex-ante 2.471*** 0.924*** -0.575*** (0.245) (0.263) (0.0306) -1.701*** (0.219) 1.886*** 0.176 (0.134) (0.139) -0.400*** (0.0181) -1.486*** (0.124) Observations Adjusted R2 β̂ × ḡ (in %) Contrôles 2 38661 0.075 .49% √ 38661 0.048 -.33% √ 115323 0.061 .52% √ 115323 0.034 -.11% √ 115323 0.040 -.41% √ 38659 0.074 .18% √ 38661 0.096 -.11% √ 115305 0.059 .05% √ Notes : Cette table présente les résultats d'une régression linéaire en première différence (voir équation: 3.2). L'échantillon est un panel cylindré d'entreprises ayant au moins 4 employés par année au cours de la période 1995-1997. Les écarts-types robustes sont reportés entre parenthèses. Le Tableau 3.5 conserve l'ensemble des contrôles observables et des effets fixes sectoriels inclus précédemment et ajoute un ensemble de contrôle en première différence entre 1994 et 1995. Ces variables sont décrites dans la Table 3.1 sous le chapeau "Dynamiques". 59 Coût du travail et exportations : analyses sur données d'entreprises On peut faire le ratio du coefficient de la colonne (1) et (4) pour obtenir une élasticité de la demande de travail. L'élasticité pour le secteur manufacturier impliquée par les résultats du Tableau 3.2 est de -1.07 ce qui est plus élevé, mais reste comparable à celle que l'on peut déduire du Tableau 4 (colonne 1) de Crépon et Desplatz (2001) (-0,7). En revanche, les résultats du Tableau 3.5 implique une élasticité de de -1,6, ce qui est largement plus élevée mais demeure dans le même ordre de grandeur que d'autres résultats obtenus dans la littérature (voir par exemple Kramarz et Philippon, 2001). TABLEAU 3.5 – 1995-1997 : Contrôles 1995 extensifs + EF secteur + ∆94-95 Secteur manufacturier (1) (2) (3) ∆ ln Emploi ∆ ln V A ∆(CS/CT ) Tertiaire (4) (5) ∆ ln CT/L ∆ ln Emploi (6) (7) (8) ∆ ln V A ∆(CS/CT ) ∆ ln CT/L ∆CT ex-ante 2.180*** 1.038*** -0.581*** (0.238) (0.260) (0.0305) -1.371*** (0.202) 1.597*** 0.234 (0.131) (0.138) -0.409*** (0.0180) -1.191*** (0.118) Observations Adjusted R2 β̂ × ḡ (in %) Contrôles 3 38485 0.111 .43% √ 38485 0.153 -.27% √ 114867 0.104 .44% √ 114867 0.039 -.11% √ 114867 0.132 -.33% √ 38483 0.093 .2% √ 38485 0.101 -.11% √ 114850 0.073 .06% √ Notes : Cette table présente les résultats d'une régression linéaire en première différence (voir équation: 3.2). L'échantillon est un panel cylindré d'entreprises ayant au moins 4 employés par année au cours de la période 1995-1997. Les écarts-types robustes sont reportés entre parenthèses. 3.4 Variable de commerce international Les résultats concernant le commerce international sont présentés dans le Tableau 3.6. On ne trouve encore une fois aucun effet significatif sur le secteur manufacturier. 60 Annexe A TABLEAU 3.6 – Effets sur les exportations : 1995-1997 Secteur manufacturier Tertiaire (1) 97 ∆X95 (2) 97 ∆c X95 (3) ∆#dest97 95 (4) ∆#prod97 95 (5) 97 ∆X95 (6) 97 ∆c X95 (7) ∆#dest97 95 (8) ∆#prod97 95 ∆CT ex-ante 0.646 (1.888) -1.834 (1.752) 1.141 (2.850) 1.305 (2.565) 1.225 (1.435) 0.361 (1.289) 9.049*** 15.47*** (2.476) (2.374) Observations Adjusted R2 β̂ × ḡ (in %) 15785 0.009 .18% 16367 0.010 -.5% 11733 0.445 .32% 13987 0.318 .36% 18368 0.012 .34% 19307 0.017 .1% 12924 0.360 2.5% 16100 0.297 4.27% Notes : Cette table présente les résultats d'une régression linéaire en première différence (voir équation: 3.2). L'échantillon est un panel cylindré d'entreprises ayant au moins 4 employés par année au cours de la période 1995-1997. Les écartstypes robustes sont reportés entre parenthèses. 3.5 Discussion et conclusion L'évolution du barème des baisses de cotisations employeurs entre 1995 et 1997 a affecté de façon très hétérogène les entreprises en fonction de leur structure salariale initiale. Dans cette section, nous exploitons cette hétérogénéité afin d'estimer dans quelle mesure les entreprises les plus bénéficiaires de ces politiques ont augmenté leur performance à l'exportation. Nous ne parvenons à mettre en évidence aucun effet positif de ces baisses du coût du travail sur la compétitivité internationale. Nous trouvons néanmoins de forts effets sur l'emploi dont l'amplitude est relativement robuste aux différents ensembles de contrôles introduits. Il est notable que, dans un même contexte empirique, nous mettons en évidence une forte réactivité de l'emploi sans parvenir à détecter un effet positif sur les exportations. On remarque également que dans le cas du secteur manufacturier, les effets sur l'emploi sont bien supérieurs à ceux sur la valeur ajoutée, de telle sorte que la productivité apparente des entreprises les plus touchées décline du fait de la politique. Si cet écart correspond bien à une intensification de l'activité économique en emploi, il pose la question de l'effet des politiques (successives) de baisse du coût du travail sur l'investissement dans la qualité et la montée en gamme du secteur manufacturier français. 61 Coût du travail et exportations : analyses sur données d'entreprises 62 A NNEXE A Description données utilisées Cette section de de l'annexe décrit les données utilisées dans cette étude. 2 1. Le fichier des Déclarations annuelles de données sociales (DADS) : Le champ des fichiers "DADS-grand format" produits annuellement par l'Insee porte depuis 2009 sur l'ensemble des salariés : aux salariés des établissements relevant du secteur privé et des fonctions publiques territoriale et hospitalière s'ajoutent, depuis 2009, les salariés de la fonction publique d'État et ceux des particuliers employeurs. Pour le secteur privé, la source est la Déclaration annuelle de données sociales (DADS). Il s'agit d'une formalité déclarative que doit accomplir toute entreprise employant des salariés. L'Insee reçoit les déclarations DADS soit de la Cnav (régime général), soit de la DGFiP (MSA et certains régimes spéciaux). Les informations relatives aux trois fonctions publiques proviennent pour leur part du Système d'information sur les agents du service public (Siasp) qui exploite deux sources : les DADS et les fichiers de paie des agents de l'État. Sur le champ des particuliers employeurs sont exploitées les déclarations de salaires dans le cadre des dispositifs suivants : chèque emploi-service universel (Cesu), prestation 2. Cette description est inspirée de celle données dans le Rapport 2017 du Comité de suivi du Crédit d'impôt pour la compétitivité et l'emploi. 63 Coût du travail et exportations : analyses sur données d'entreprises d'accueil du jeune enfant (Paje) et déclaration nominative simplifiée (DNS). Ces données sont, après redressements, regroupées dans une base couvrant l'ensemble des salariés, appelée "DADS-grand format". Cette base se distingue des bases de données administratives par les traitements effectués pour assurer la mise en conformité aux concepts statistiques, par l'exhaustivité de la collecte et l'absence de doubles comptes, et enfin par le redressement de certaines variables pour en assurer la qualité statistique. 2. Le fichier approché des résultats d'ESANE (FARE) : Le fichier FARE est issu du dispositif ESANE (Élaboration des statistiques annuelles d'entreprise), dispositif combinant des données administratives (obtenues à partir des déclarations annuelles de bénéfices que font les entreprises à l'administration fiscale et à partir des données annuelles de données sociales qui fournissent des informations sur les salariés) et des données obtenues à partir d'un échantillon d'entreprises enquêtées par un questionnaire spécifique pour produire des statistiques structurelles d'entreprise (enquête sectorielle annuelle/ESA). Le fichier FARE permet de calculer des indicateurs financiers sur les entreprises. 3. Le fichier des mouvements sur créances (MVC) : Ce fichier fiscal est constitué de l'ensemble des opérations enregistrées en matière de créances d'impôt sur les sociétés (IS) : écritures d'initialisation de la créance, d'imputations et de restitutions. Ce fichier est actualisé par les services fiscaux au fur et mesure de la liquidation de l'impôt par les entreprises. Les services fiscaux s'appuient sur les relevés de soldes d'IS dans lesquels les entreprises assujetties mentionnent les créances à prendre en compte lors de la liquidation. Le fichier MVC est la base de données la plus complète et la plus proche de la réalité comptable dont dispose l'administration fiscale. 64 Annexe B À signaler toutefois que les écritures d'initialisation des créances sont généralement inscrites au moment de la liquidation de l'IS et qu'en cas de préfinancement cette initialisation correspond à l'évaluation de la créance effectuée par l'entreprise obtenue en préfinancement : le fichier MVC inclut ainsi des créances "pures" et des créances "estimées". 4. Le fichier des données de Douanes Les données des Douanes fournies par la DGDDI contiennent des informations sur les échanges de marchandises collectées par le service statistique des Douanes, à partir des déclarations d'échanges de biens (DEB) pour les échanges avec les 27 autres États membres de l'Union européenne et des déclarations en douane (DAU) pour les échanges avec les autres pays (nommés pays tiers). Plusieurs modes de recueil de l'information coexistent traduisant notamment la plus ou moins grande informatisation des relations entre les opérateurs et la Douane. À l'issue du contrôle et de la validation des données qui portent chaque mois sur plus de 10 millions d'articles de déclaration, le service statistique des Douanes assure un vaste programme de production et de diffusion statistique avec notamment la publication du chiffre du commerce extérieur. Les données des douanes donnent les flux import-export des entreprises par produit et par destination. Les obligations déclaratives concernent les flux qui dépassent un certain seuil fixé à 460 000 euros depuis 2011. Cela conduit à ne pas observer les petits exportateurs qui échangent des montants inférieurs à ce seuil. Le flux d'échange est observé au niveau du produit à un niveau de désagrégation à huit chiffres de la nomenclature combinée internationale des produits ou système harmonisé (NC8), en valeur (euros) et en volume (masse en kg ou unités). 65 Coût du travail et exportations : analyses sur données d'entreprises 66 A NNEXE B : C HAPITRE 1 Cadre conceptuel On considère une entreprise qui opère une fonction de production F qui utilise du travail (L) et d'autres facteurs de production (K). L'entreprise choisit les facteur de production de façon à maximiser son profit : max Π = F − rK − w(1 + τ )L K,L où w(1 + τ ) et r font référence aux coût du travail et des autres facteurs respectivement. Les conditions de première ordre sont les suivantes : FL = (1 + τ )w and FK = r On considère l'effet d'une variation dans le taux de charges sociales τ sur le taux de profit. On prend une approximation du deuxième ordre sur le profit : ∂Π 1 ∂ 2Π × ∆τ + × (∆τ )2 ∂τ 2 ∂τ 2 1 ∂L = −Lw∆τ + w × (∆τ )2 2 ∂τ 1 = −Lw∆τ + wL εLτ × (∆τ )2 /τ 2 1 L ∆τ ) = −Lw∆τ (1 + ετ 2 τ ∆Π ≈ 67 (3.3) Coût du travail et exportations : analyses sur données d'entreprises On divise les deux côtés de l'équation par la valeur des ventes S, on obtient l'équation suivante : ∆Π Lw 1 ∆τ ≈− ∆τ (1 + εLτ ) S S 2 τ (3.4) On construit CS/S comme contrepartie empirique de Lwτ /S. On sait que le PR15 affecte significativement Lwτ /S. On peut alors adopter une approche par 2SLS où l'on instrument Lwτ /S par l'exposition à la réforme interagie avec une indicatrice post réforme (Ti 1t≥2015 ) : Π Lw ( ) =( τ ) × β + ψit + it S it S it Lw ( τ ) = [Ti 1t≥2015 ] × β1 + ψit1 + 1it S it (3.5) (3.6) Sous l'hypothèse que la réforme PR15 est un bon instrument pour le taux de charges sociales, l'estimateur par variable instrumental de β devrait être tendre vers ), c'est-à-dire le taux de transmission des coûts du travail dans les profit − (1 + 21 εLτ ∆τ τ (profit-pass through of labor costs). De plus, dans ce simple modèle, l'élasticité (de court terme) de la demande de travail par rapport à son coût est nulle, le passthough dans les profits sera proche de -1, et réciproquement. Draca et al. (2011) montrent sur données anglaises que ce cadre conceptuel très simple ne peu pas être rejeté dans le cadre d'une évaluation de la réaction de court terme (2 à 3 ans) des entreprises à une hausse du salaire minimum. Compte tenu d'une répercussion de 100% de la baisse du coût du travail dans les profits ainsi que d'une réaction de le demande de travail estimée de façon peu robuste mais dont le coefficient est proche de 0 dans de nombreuses spécifications, ce cadre théorique simple semble bien rendre compte des résultats empiriques sur le PR15, même si un approfondissement de ces travaux apparaît nécessaire à ce stade. 68 R ÉFÉRENCES Aaronson, D. (2001). Price pass-through and the minimum wage. Review of Economics and statistics, 83(1), p. 158–169. Auten, G. et Carroll, R. (1999). The effect of income taxes on household income. The Review of Economics and Statistics, 81(4), p. 681–693. Bunel, M. et L'Horty, Y. (2012). The effects of reduced social security contributions on employment : An evaluation of the 2003 french reform*. Fiscal Studies, 33(3), p. 371–398. Crépon, B. et Desplatz, R. (2001). Une nouvelle évaluation des effets des allégements de charges sociales sur les bas salaires suivi de commentaires de yannick l'horty et guy lacroix. Economie et statistique, 348(1), p. 3–34. Decramer, S., Fuss, C., et Konings, J. (2016). How do exporters react to changes in cost competitiveness ? The World Economy, 39(10), p. 1558–1583. Draca, M., Machin, S., et Van Reenen, J. (2011). Minimum wages and firm profitability. American economic journal : applied economics, 3(1), p. 129–51. Fontagné, L., Martin, P., et Orefice, G. (2017). The International Elasticity Puzzle Is Worse Than You Think. Working Papers 2017-03, CEPII research center. Goldsmith-Pinkham, P., Sorkin, I., et Swift, H. (2018). Bartik Instruments : What, When, Why, and How. Technical Report w24408, National Bureau of Economic Research, Cambridge, MA. 69 Coût du travail et exportations : analyses sur données d'entreprises Harasztosi, P. et Lindner, A. (2018). Who pays for the minimum wage ? mimeo UCL. Hombert, J. et Matray, A. (2018). Can innovation help us manufacturing firms escape import competition from china ? The Journal of Finance, 73(5), p. 2003– 2039. Jordà, s. (2005). Estimation and inference of impulse responses by local projections. American Economic Review, 95(1), p. 161–182. Koehl, L. et Simon, O. (2018). Quels poids des bas salaires, directs et indirects, dans la production des branches ? Document INSEE. Kramarz, F. et Philippon, T. (2001). The impact of differential payroll tax subsidies on minimum wage employment. Journal of Public Economics, 82(1), p. 115–146. L'Horty, Y. (2006). Les nouvelles politiques de l'emploi. La découverte. Malgouyres, C. et Mayer, T. (2018). Exports and labor costs : evidence from a french policy. Review of World Economics, p. 1–26. Monin, R. et Suarez-Castillo, M. (2018). Price response to a massive labor cost cut : Evidence from french firm-level data. Journee methodologie statistique de l'INSEE. Nickell, S. J. (1996). Competition and corporate performance. Journal of political economy, 104(4), p. 724–746. PLFSS (2017). Plfss 2018 : Annexe 5 présentation des mesures dŠexonérations de cotisations et contributions et de leur compensation. Technical report, PLFSS 2018. RapportSmic (2017). Salaire minimum interprofessionnel de croissance : 2017. Rapport du Groupe d'experts sur le Smic. 70 Références Renkin, T., Montialoux, C., et Siegenthaler, M. (2017). The pass-through of minimum wages into us retail prices : Evidence from supermarket scanner dataa. JOB MARKET PAPER. Saez, E., Schoefer, B., et Seim, D. (2017). Payroll taxes, firm behavior, and rent sharing : Evidence from a young workers' tax cut in sweden. NBER Working Paper, No. 23976. Villeroy de Galhau, François (2015). Discours "La compétitivité française : nouveaux enjeux, nouvelles mesures". Banque de France / France Stratégie. Zidar, O. M. (2017). Tax cuts for whom ? heterogeneous effects of income tax changes on growth and employment. Journal of Political Economy, forthcoming. 71 Coût du travail et exportations : analyses sur données d'entreprises 72 L ISTE DES TABLEAUX 1.1 Caractéristiques des entreprises à forte et à faible exposition au PR15 19 1.2 Description des variables . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 1.3 Effet du PR15 sur le poids des charges sociales et la compétitivité : secteur manufacturier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 1.4 Effet du PR15 sur le poids des charges sociales et la compétitivité : tous secteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 1.5 Effet de l'exposition au PR 15 sur d'autres variables d'intérêt . . . . . 25 1.6 Définition de la variable d'exposition sur 2013 au lieu de 2014 . . . . 26 1.7 Répercussion de la baisse du coût du travail dans le taux de profit . . 28 1.8 Profit pass-through : Définition de la variable d'exposition sur 20122014 au lieu de 2014 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 1.9 Hétérogénéité des effets selon l'âge : tous secteurs . . . . . . . . . . . 31 1.10 Hétérogénéité des effet selon la capacité d'autofinancement : tous secteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 1.11 Hétérogénéité des effet selon la profitabilité initiale : tous secteurs . 32 1.12 Hétérogénéité des effets selon l'âge : secteur manufacturier . . . . . . 32 1.13 Hétérogénéité des effet selon la capacité d'autofinancement : secteur manufacturier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 1.14 Hétérogénéité des effet selon la profitabilité initiale : secteur manufacturier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 73 Coût du travail et exportations : analyses sur données d'entreprises 1.15 Hétérogénéité du profit pass-through selon l'âge de l'entreprise . . . 34 1.16 Hétérogénéité du "profit pass-through" selon la capacité d'autofinancement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 1.17 Hétérogénéité du "profit pass-through" selon le taux de profit . . . . 36 1.18 Hétérogénéité des effet selon l'externalisation : tous secteurs . . . . . 40 1.19 Hétérogénéité des effet selon l'externalisation : secteur manufacturier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40 2.1 Différences longues, contrôles en première différence . . . . . . . . . . 45 2.2 Différences longues, contrôles en niveau . . . . . . . . . . . . . . . . . 45 2.3 Taux de croissance cumulée, contrôles en niveau . . . . . . . . . . . . 47 2.4 Taux de croissance cumulée, contrôles en première différence . . . . . 47 2.5 PR16 : croissance des exportations régressée sur l'exposition au traitement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 2.6 PR16 : heterogeneité selon le degré d'externalisation . . . . . . . . . 50 3.1 Statistiques descriptives . . . . . . . . . . . . . . . . . . . . . . . . . . . 57 3.2 1995-1997 : Contrôles de base 1995 . . . . . . . . . . . . . . . . . . . . 58 3.3 1995-1997 : Contrôles 1995 de base + EF secteur . . . . . . . . . . . 59 3.4 1995-1997 : Contrôles 1995 extensifs + EF secteur . . . . . . . . . . . 59 3.5 1995-1997 : Contrôles 1995 extensifs + EF secteur + ∆94-95 . . . . 60 3.6 Effets sur les exportations : 1995-1997 . . . . . . . . . . . . . . . . . . 61 74 L ISTE DES FIGURES 1.1 Les entreprises avec une forte % MS < 1.6 Smic ont vu leurs charges baisser . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 1.2 Les entreprises avec une forte % MS < 1.6 Smic ne sont pas devenues plus actives à l'export (marge extensive et marge intensive entre 2014 et 2015) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 1.3 Distribution de la part de MS <1.6 Smic au sein de l'échantillon d'analyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 1.4 Effet sur le poids des charges sociales et le taux de profit 2011-2016 : double différence dynamique . . . . . . . . . . . . . . . . . . . . . . . . 29 3.1 Exonérations de cotisations employeurs entre 1994 et 1997 . . . . . 52 3.2 Distribution de la baisse du coût du travail ex-ante entre 1995 et 1997 : Secteur manufacturier . . . . . . . . . . . . . . . . . . . . . . . . 54 3.3 La part des charges sociales dans le coût du travail a diminué dans les entreprises plus exposées aux exonérations Juppé en 1995 (Secteur manufacturier à gauche et tertiaire à droite) . . . . . . . . . . . . . . . 56 75 L'Institut des politiques publiques (IPP) est développé dans le cadre d'un partenariat scientifique entre PSE-Ecole d'économie de Paris (PSE) et le Centre de Recherche en Économie et Statistique (CREST). L'IPP vise à promouvoir l'analyse et l'évaluation quantitatives des politiques publiques en s'appuyant sur les méthodes les plus récentes de la recherche en économie. PSE a pour ambition de développer, au plus haut niveau international, la recherche en économie et la diffusion de ses résultats. Elle rassemble une communauté de près de 140 chercheurs et 200 doctorants, et offre des enseignements en Master, École d'été et Executive education à la pointe de la discipline économique. Fondée par le CNRS, l'EHESS, l'ENS, l'École des PontsParisTech, l'INRA, et l'Université Paris 1 Panthéon Sorbonne, PSE associe à son projet des partenaires privés et institutionnels. Désormais solidement installée dans le paysage académique mondial, la fondation décloisonne ce qui doit l'être pour accomplir son ambition d'excellence : elle associe l'université et les grandes écoles, nourrit les échanges entre l'analyse économique et les autres sciences sociales, inscrit la recherche académique dans la société, et appuie les travaux de ses équipes sur de multiples partenariats. www.parisschoolofeconomics.eu Le CREST est un centre de recherche regroupant des chercheurs de l'ENSAE, de l'ENSAI et du département d'économie de l'Ecole Polytechnique. Centre interdisciplinaire spécialisé en méthodes quantitatives appliquées aux sciences sociales, le CREST est organisé en 4 thématiques : Économie, Statistiques, FinanceAssurance et Sociologie. La culture commune des équipes est celle d'un attachement fort aux méthodes quantitatives, aux données, à la modélisation mathématiques, et d'allers-retours continus entre les modèles théoriques et les preuves empiriques permettant d'analyser des problématiques sociétales et économiques concrètes. http ://crest.science
{'path': '68/halshs.archives-ouvertes.fr-halshs-02514729-document.txt'}
L'alternance et les licences professionnelles du département STID de Grenoble Caroline Bazzoli, Marlène Villanova, Frédérique Letué To cite this version: Caroline Bazzoli, Marlène Villanova, Frédérique Letué. L'alternance et les licences professionnelles du département STID de Grenoble. Statistique et Enseignement, Société Française de Statistique, 2017, Statitistique et Enseignement, 8 (1), pp.73-87. hal-01475962 HAL Id: hal-01475962 https://hal.archives-ouvertes.fr/hal-01475962 Submitted on 24 Feb 2017 I Dossier spécial L'ALTERNANCE ET LES LICENCES PROFESSIONNELLES DU DÉPARTEMENT STID DE GRENOBLE Caroline BAZZOLI 1 , Marlène VILLANOVA 2 et Frédérique LETUE 3 TITLE Sandwich courses for professional degrees in the STID department of University GrenobleAlpes RÉSUMÉ Le département STID de l'IUT2 de l'Université Grenoble Alpes intègre dans son offre de formations des licences professionnelles (LP) qui peuvent être réalisées en alternance. L'alternance est possible pour ces trois LP en contrat de professionnalisation et/ou en apprentissage. Depuis plus de 6 ans, le département STID est donc engagé sur la voie de l'alternance, soit lors de la création de nouvelles formations, soit dans le cadre d'une réorientation de son offre de formation dans l'objectif de renforcer une pédagogie déjà très soucieuse de l'intégration professionnelle des étudiants. La qualité des relations qu'entretient le département STID avec les milieux professionnels liés aux spécialités des différentes LP, mais aussi l'engagement du personnel enseignant ont permis la concrétisation de ce défi. Cet article introduit dans un premier temps le contexte du « passage » à l'alternance pour les LP du département STID de Grenoble. Un bilan est ensuite proposé, en termes de nombres de contrats signés et d'insertion professionnelle. Nous évaluons l'impact de ce type de formation par rapport aux étudiants en cycle classique sur la recherche d'un emploi. Nous discutons enfin des moyens mis en oeuvre au sein du département, des principales difficultés rencontrées, mais aussi des éléments positifs que nous dégageons de l'ouverture de ces formations vers l'alternance. Mots-clés : STID, licence professionnelle, alternance. ABSTRACT The STID department of IUT2 of University Grenoble Alpes includes in its training courses, professional degrees (top-up one year diploma) that can be performed as sandwich courses. The sandwich system is possible for these three university degrees with professional training contracts and/or apprenticeship contracts. For over 6 years, the STID department has therefore engaged on the path of sandwich training, either creating new degrees or by reorganizing the provision of training to strengthen pedagogy, which is already performed to facilitate the professional integration of students. The quality of the relationship between the STID department and professional circles as well as the involvement of the teaching staff have been key to success. This article initially introduces the context of the development of sandwich training in the STID department of Grenoble. An assessment for the three university trainings is then proposed in terms of number of the professional contracts signed and professional integration. Finally, we discuss the best way of implementing this in the department, main problems encountered and potential solutions found. Keywords: STID, professionnal degree, sandwich course. 1 Université Grenoble-Alpes, IUT2 Département Statistique et Informatique Décisionnelle (STID), caroline.bazzoli@iut2univ-grenoble-alpes.fr 2 Université Grenoble-Alpes, IUT2 Département Statistique et Informatique Décisionnelle (STID), marlene.villanova-oliver@iut2.univ-grenoble-alpes.fr 3 Université Grenoble-Alpes, IUT2 Département Statistique et Informatique Décisionnelle (STID), frederique.letue@iut2.univ-grenoble-alpes.fr Statistique et Enseignement, 8(1), 73–87, http://www.statistique-et-enseignement.fr © Société Française de Statistique (SFdS), Février/February 2017 74 I Dossier spécial LP en alternance - STID Grenoble 1 Introduction Une licence professionnelle (LP) s'adresse à des titulaires d'un diplôme de niveau bac+2 qui souhaitent acquérir un niveau de qualification supérieur avec une spécialisation plus fine dans un domaine proche de leur compétence ou bien pour une double compétence. Une LP se prépare en 1 an. L'un des objectifs d'une LP est d'insérer les diplômés dans le monde du travail à l'issue de la formation. Celle-ci est ainsi orientée vers les applications professionnelles. Une partie des enseignements (40%) est assurée par des professionnels et les étudiants doivent obligatoirement réaliser un projet tutoré en équipe sur l'année, de même qu'un stage en milieu professionnel d'une durée de 12 à 16 semaines pour les étudiants sous le régime universitaire standard (nommé dans la suite cycle classique). Toujours dans un cadre de professionnalisation, une alternative à ce régime est de réaliser la formation en alternance, une formule pédagogique alliant théorie et mise en pratique en milieu professionnel. Ce système de formation, de plus en plus prisé par les étudiants, comprend deux types de contrats : le contrat de professionnalisation et le contrat d'apprentissage. Ces deux types de contrats poursuivent le même objectif de formation mais leur mise en oeuvre diffère (organismes de financement, publics concernés, durée du contrat, rémunération). Alors que le contrat d'apprentissage concerne aussi bien des entreprises publiques que privées, des professions libérales, des associations, le contrat de professionnalisation ne concerne que des structures privées. De plus, les organismes de financement des contrats d'apprentissage, qui dépendent de la région, imposent chacun leurs propres contraintes administratives et pédagogiques : calendrier d'alternance, contrôle des absences des étudiants, visites des tuteurs universitaires en entreprise, etc., ce qui n'est pas le cas pour les contrats de professionalisation pour lesquels l'équipe pédagogique organise le suivi comme elle l'entend (voir détails sur le Portail de l'alternance 4 ). Le département STatistique et Informatique Décisionnelle (STID) de l'IUT2 de l'Université Grenoble-Alpes intègre dans son offre de formations des LP orientées vers les métiers du décisionnel et de la statistique. L'ensemble de ces formations est proposé en alternance depuis maintenant plus de 6 ans. Fort de son expérience, le département se propose d'établir dans cet article un bilan sur l'intérêt de ce régime. Pour cela, la Section 2 introduit les LP du département STID de Grenoble, ouvertes jusqu'à la rentrée 2016, et le contexte de leur « passage » à l'alternance. La Section 3 propose un bilan en termes de recrutement, de missions confiées aux alternants pendant l'alternance et d'insertion professionnelle post-formation, pour les trois LP existantes. Les moyens mis en oeuvre au sein du département et les principales difficultés rencontrées dans le « passage » de ces formations au régime de l'alternance clôturent cette section. La Section 4 décrit l'évolution récente de ces formations en alternance au sein du département. 2 Les LP en alternance à STID Grenoble Le retour d'expérience décrit dans cet article s'appuie sur les trois LP proposées par le département STID entre 2001 et 2016 5 : 4 Portail 5 Voir de l'alternance : www.alternance.emploi.gouv.fr l'évolution des formations en Section 5. Statistique et Enseignement, 8(1), 73–87, http://www.statistique-et-enseignement.fr © Société Française de Statistique (SFdS), Février/February 2017 I Dossier spécial 75 C. Bazzoli et al. • la LP Biostatistique, • la LP Etudes Statistiques, Sondage et Marketing (ESSM), • la LP Etudes Statistiques et Système d'Information Géographique (ESSIG). La LP Biostatistique, créée en 2001, propose l'alternance en contrat de professionnalisation depuis 2014. La LP ESSM, ouverte depuis 2005 en cycle classique peut être réalisée en alternance sous la forme de contrat de professionnalisation, depuis maintenant trois ans. L'ensemble des étudiants (alternants et non alternants) constitue une seule promotion, i.e. un unique groupe. La LP ESSIG est proposée en alternance en contrat de professionnalisation depuis sa création en 2009. Sur la période 2009-2013, des étudiants ont aussi été accueillis chaque année en formation classique. Toutefois, depuis 2013, elle est habilitée par FormaSup Isère Drôme Ardèche 6 pour accueillir des apprentis et n'accueille plus d'étudiants hors alternance (pour des contraintes de calendrier). Ces formations proposent d'acquérir des compétences essentielles en statistique et en informatique pour la représentation, le traitement, l'exploitation et l'analyse des données. Elles s'inscrivent dans trois domaines d'applications différents de la statistique : la santé pour la LP Biostatistique, les sondages et le marketing pour la LP ESSM, les systèmes d'information géographique et l'analyse spatiale pour la LP ESSIG. Les métiers et les secteurs d'activités sont représentés sur la Figure 1. Les compétences et connaissances spécifiques visées en fin de formation sont présentées dans le Tableau 1. 6 FormaSup Isère Drôme Ardèche : www.formasup.ida.com Statistique et Enseignement, 8(1), 73–87, http://www.statistique-et-enseignement.fr © Société Française de Statistique (SFdS), Février/February 2017 76 I Dossier spécial LP en alternance - STID Grenoble F IGURE 1 – Métiers et secteurs d'activités à la fin des LP de STID Grenoble. *Contract Research Organization (CRO) sont des sociétés prestataires de services dans le secteur de la santé. ** Le géomaticien est le spécialiste du traitement de l'information géographique de la collecte des données jusqu'à la production de cartes thématiques et la mise en place de systèmes d'information géographique. Pour les trois LP, les étudiants recrutés chaque année sont principalement issus de diplômes avec une forte composante : • en informatique : DUT Informatique, DUT Statistique et Informatique Décisionnelle (STID), L2 Informatique, L2 Mathématiques et Informatique Appliquées en Sciences Sociales (MIASS), BTS Informatique, etc. • en statistique : DUT STID, L2 MIASS, etc. Sont également étudiées, les candidatures issues de diplômes orientés vers les spécialisations des LP. La LP Biostatistique recrute notamment des étudiants issus de L2 à M2 de biologie (pour une double compétence à partir du M1), de DUT Analyses biologiques et biochimiques, BTS Analyse de biologie médicale, Bioanalyses et contrôles, Biotechnologies, étudiants de médecine ou pharmacie, etc. Pour la LP ESSM, sont considérées les candidatures d'étudiants titulaires d'une formation universitaire avec de sérieuses bases en marketing, techniques de commercialisation, gestion : DUT/BTS Techniques de Commercialisation (TC), DUT Gestion des Entreprises et des Administrations (GEA), BTS Communication des Entreprises, BTS Action Commerciale, Parcours L1-L2 Economie-Gestion (Eco-G), Méthodes Informatiques ApStatistique et Enseignement, 8(1), 73–87, http://www.statistique-et-enseignement.fr © Société Française de Statistique (SFdS), Février/February 2017 I Dossier spécial 77 C. Bazzoli et al. TABLEAU 1 – Compétences visées à la sortie des formations Compétences LP Participer à l'élaboration de protocoles d'essais cliniques, assurer le contrôle de la cohérence des données Gérer et administrer des bases de données médicales, notamment dans le cadre d'un essai clinique ou d'un établissement hospitalier Biostatistique Développer des applications informatiques de gestion des données cliniques Maîtriser les principaux logiciels de statistique utilisés dans le milieu médical et pharmaceutique (SAS) Réaliser des analyses statistiques Savoir-faire spécifique dans la réalisation et l'analyse de données marketing Maîtriser les méthodes et outils de traitement statistique des données quantitatives ESSM Être capable de gérer les différentes étapes d'une enquête Maîtriser les outils logiciels d'administration et de traitements d'enquête Maîtriser la conception et la gestion de bases de données Maîtriser les principaux logiciels SIG du marché (ArcGis, MapInfo et QGIS) ESSIG Etre capable de développer des fonctionnalités et applications SIG spécifiques Maîtriser les outils statistiques de traitement des données géographiques Maîtriser les fondements, méthodes et outils de l'analyse spatiale pliquées à la Gestion des Entreprises (MIAGE). Pour la LP ESSIG, les candidatures d'étudiants titulaires d'une formation en lien avec la donnée géographique – L2 Géographie, Aménagement du territoire, BTS Gestion et Protection de la Nature, Gestion Forestière, Gestion et Maîtrise de l'Eau, etc. – sont possibles. Ces formations ont la particularité d'accueillir des étudiants issus de divers parcours de l'enseignement supérieur, apportant chacun des compétences complémentaires. Cette situation, reconnue comme une richesse pédagogique par les étudiants et les intervenants, favorise la cohésion au sein des promotions. Chaque parcours intègre des enseignements spécifiques au milieu professionnel d'insertion. Le contenu de ces formations s'articule autour de cinq Unités d'Enseignement (UE). Deux UE concernent les enseignements de la statistique et de l'informatique. Une UE couvre la spécialité de chaque formation. Une UE est consacrée à la gestion de l'information et de la communication en anglais et intègre aussi un module d'insertion professionnelle. La dernière UE est composée du projet tutoré et du stage (en formation classique ou en alternance). Le volume total d'heures relevant du tronc commun est différent d'une formation à l'autre. La répartition des heures par UE est également différente à la marge. Les maquettes de chacune des LP sont en Annexe 1. Statistique et Enseignement, 8(1), 73–87, http://www.statistique-et-enseignement.fr © Société Française de Statistique (SFdS), Février/February 2017 78 I Dossier spécial LP en alternance - STID Grenoble Les formations débutent par une mise à niveau, proposée de manière optionnelle selon les cursus d'origine des étudiants. Du fait de l'alternance, un calendrier particulier est adopté où se succèdent des séquences de cours et en entreprise. Le programme pédagogique est organisé différemment d'une formation à l'autre. En LP Biostatistique et ESSM, les étudiants non alternants travaillent sur leurs projets tutorés pendant que les alternants sont en entreprise. Pour la LP ESSIG, des modules complets sont traités sur chaque période de cours, ce qui assure une montée en compétences progressive des alternants et qui permet aux entreprises d'organiser les missions de l'alternance en fonction de cela. Dans un cadre de formation orientée vers l'intégration dans le monde professionnel, le régime de l'alternance s'imposait au département. Cette décision répond aussi à une forte demande du monde professionnel et du marché de l'emploi ; par exemple, la LP ESSIG s'est orientée vers l'apprentissage pour s'ouvrir aux collectivités territoriales, seulement autorisées à prendre des étudiants sous ce type de contrat. Étonnamment, malgré les avantages de ce régime pour les étudiants, ceux-ci se montrent parfois réservés vis-à-vis de l'alternance dans nos formations. Ce point sera abordé en Section 4. 3 3.1 Mise en oeuvre de l'alternance : modalités et bilan Un recrutement différent d'une formation à l'autre La Figure 2 schématise la répartition des étudiants des trois formations en fonction de leur dernier diplôme obtenu. De manière générale, le recrutement des étudiants en LP ESSM et en LP Biostatistique est similaire pour les deux formations. Il diffère légèrement pour la LP ESSIG, qui attire plus d'étudiants de Master généralement en Géographie et Aménagement du territoire. Rappelons que le public de la LP ESSIG est constitué uniquement d'étudiants en alternance. Le Tableau 2 présente la répartition des étudiants selon leur régime de formation pour la LP ESSIG et la LP ESSM depuis leur ouverture en alternance. Pour la LP ESSM, on remarque que les alternants restent très minoritaires dans chaque promotion et cela également en LP Biostatistique. Pour ces deux dernières formations, les étudiants décrochant un contrat avec une entreprise pour réaliser leur formation sont principalement des étudiants avec un DUT STID, et cela très facilement pour ceux ayant déjà suivi leur DUT en alternance. Cela s'explique le plus souvent par le fait que les entreprises recherchent en général un étudiant ayant déjà des compétences en statistique et/ou en informatique lors de son intégration, ce qui va de fait un peu à l'encontre du principe de l'alternance puisque l'étudiant est censé acquérir ces compétences au fil de l'année de formation. De plus, l'alternance n'est sans doute pas adaptée à tous les profils d'étudiants. Nous observons très souvent, à ce niveau d'étude, des étudiants avec un certain manque de maturité et d'autonomie pour évoluer sereinement dans le cadre d'une alternance. L'année de son ouverture à l'alternance, un étudiant de la LP Biostatistique a décroché un contrat avec une entreprise de l'industrie pharmaceutique. Ce contrat a été renouvelé l'année suivante avec un autre étudiant. Quatre autres l'ont complété dans une Contract Research Organization (CRO, société prestataire de services dans le secteur de la santé) en Bretagne, un institut de recherche en région Provence-Alpes-Côte d'Azur, une industrie vétérinaire et une entreprise de dispositifs médicaux en région Auvergne-Rhône-Alpes. Ce dernier contrat a malStatistique et Enseignement, 8(1), 73–87, http://www.statistique-et-enseignement.fr © Société Française de Statistique (SFdS), Février/February 2017 I Dossier spécial 79 C. Bazzoli et al. F IGURE 2 – Profils des étudiants recrutés dans les différentes LP de STID Grenoble de 2009 à 2016. heureusement été rompu du fait de l'étudiant. La LP ESSM, depuis la rentrée 2011, accueille de plus en plus d'alternants malgré une baisse du nombre de contrats durant la deuxième et troisième année d'ouverture. Lors des trois premières années en alternance, les contrats ont été signés principalement avec de grandes entreprises (secteur pharmaceutique, secteur du négoce des matériaux) localisées dans la région Auvergne-Rhône-Alpes. Les deux années suivantes, se sont ajoutés des instituts de sondages parisiens ainsi que des sociétés de commerce en ligne (e-commerce). Réaliser une alternance dans la région parisienne est non seulement dépendant des offres proposées par ces entreprises mais également de l'origine géographique des étudiants recrutés. Les étudiants originaires de Paris, par leurs études antérieures ou pour des raisons familiales, sont principalement les signataires des contrats sur cette région. Concernant la LP ESSIG les quatre premières années, la formation était accessible en formation classique ou en alternance avec contrat de professionnalisation. Depuis sa création en 2009, le nombre de contrats en alternance est variable. L'année 2013 est celle de l'ouverture à l'apprentissage et de la fin de l'accueil des étudiants en formation classique. Cette année-là, 5 contrats d'apprentissage et 2 contrats de professionnalisation ont été intégrés. Le calendrier de recrutement initialement en vigueur n'était pas complètement adapté à la recherche de contrat. En 2014, nous avons modifié ce calendrier afin de laisser plus de temps aux candidats admisStatistique et Enseignement, 8(1), 73–87, http://www.statistique-et-enseignement.fr © Société Française de Statistique (SFdS), Février/February 2017 80 I Dossier spécial LP en alternance - STID Grenoble sibles pour trouver un organisme prêt à leur proposer un contrat d'alternance. Cette annéelà, 12 contrats d'apprentissage ont été accueillis contre 8 l'année suivante, plus un contrat de professionnalisation. Depuis sa création, la LP ESSIG place ses alternants dans des milieux professionnels variés, que ce soit dans les types de structures d'accueil (grandes entreprises, bureaux d'études, collectivités territoriales - notamment avec l'ouverture à l'apprentissage, etc.) ou les domaines d'application (aménagement du territoire, développement économique, gestion réseaux d'énergie, transport, etc.). La localisation géographique des employeurs dépasse largement la sphère locale puisque plusieurs contrats émanent chaque année de toute la région Auvergne-Rhône-Alpes mais aussi de toute la France (Caen, Lille, Marseille, Nantes, Strasbourg, Toulouse, etc.) TABLEAU 2 – Répartition des étudiants en fonction du régime de la formation (Clas. : formation classique, Alt. : alternants) pour la LP ESSIG et la LP ESSM depuis leur ouverture en alternance. Année universitaire 2009-10 2010-11 2011-12 2012-13 Clas. Alt. Clas. Alt. Clas. Alt. Clas. Alt. LP ESSM - - - - 18 2 12 4 LP ESSIG 2 4 5 8 8 3 6 7 Année universitaire 3.2 2013-14 2014-15 2015-16 Total Clas. Alt. Clas. Alt. Clas. Alt. Clas. Alt. LP ESSM 12 1 11 6 11 7 64 20 LP ESSIG - 7 - 12 - 10 21 41 Une insertion professionnelle rapide et réussie LP Biostatistique - L'étudiante en alternance en 2014-2015 a continué à travailler dans son entreprise, en étant embauchée en CDD par un sous-traitant. La deuxième année, l'une des alternants a été recrutée en CDI par son entreprise d'alternance, un autre a choisi de poursuivre ses études en Master. Les deux autres étaient en recherche d'emploi au moment de leur soutenance. L'une d'entre eux notamment, pour qui la statistique était un complément de formation après un Master de pyschologie, a choisi de revenir vers sa discipline d'origine, malgré une alternance très réussie. Les postes obtenus par les étudiants de la LP Biostatistique (alternants ou pas) sont essentiellement des postes de « data-manager » ou de « programmeur statisticien (SAS) ». La Figure 3 décrit l'insertion professionnelle des diplômés des LP ESSIG et LP ESSM pour les étudiants en alternance. LP ESSM - Un tiers des étudiants alternants s'insèrent professionnellement à 8 mois, pour la plupart en CDI. Ce taux est comparable à celui des étudiants en formation initale (46% en emploi). On remarque que la majorité des étudiants sont en recherche d'emploi. Il s'agit le plus souvent d'étudiants qui recherchent un emploi dans la région grenobloise ou lyonnaise ou dans une région spécifique où le vivier d'offres est plus pauvre. Un taux de 80% d'insertion professionnelle est rapidement atteint 1 an après la fin de la formation. En revanche, contrairement Statistique et Enseignement, 8(1), 73–87, http://www.statistique-et-enseignement.fr © Société Française de Statistique (SFdS), Février/February 2017 I Dossier spécial 81 C. Bazzoli et al. F IGURE 3 – Insertion professionnelle des étudiants diplomés de la LP ESSIG (A) et la LP ESSM (B) ayant suivi ces formations en alternance. Pour la LP ESSIG de 2010 à 2015, ces données sont issues d'une enquête réalisée en janvier 2016 auprès de l'ensemble des étudiants diplômés de la formation. Pour la LP ESSM, les données des années 2012 à 2015 sont issues d'une enquête interne à l'université huit mois après l'obtention du diplôme. Les chiffres de 2016 ont été obtenus à la sortie des formations. aux étudiants en cycle classique (28% en poursuites d'études), les étudiants en alternance restent dans l'esprit d'une LP en faisant le choix de ne pas poursuivre leurs études. Les diplômés alternants ou pas trouvent pour la plupart un emploi sur la région parisienne dans des instituts de sondages et sont rattachés à un poste de chargé d'études ou assistant chargé d'études ou bien chargé de traitement. Ils sont amenés à travailler dans le domaine des enquêtes et de la statistique. On trouve également quelques gestionnaires de données ou des programmeurs. LP ESSIG - Les diplômés ayant répondu se répartissent de la façon suivante : 38 en emploi (dont près de 60% en CDI), 9 en recherche d'emploi, 4 en poursuites d'études. Ces chiffres illustrent bien l'objectif premier de la LP en alternance à savoir l'insertion professionnelle rapide. Diplômés en juin 2015, les 5 demandeurs d'emplois ont occupé un CDD à l'issue de leur alternance et cherchent tous un emploi depuis moins de 3 mois au moment de l'enquête menée en janvier 2016. Comme pour la LP ESSM, les niveaux d'emploi sont en concordance avec le niveau du diplôme. Ils couvrent essentiellement des fonctions de chargé d'études SIG, Statistique et Enseignement, 8(1), 73–87, http://www.statistique-et-enseignement.fr © Société Française de Statistique (SFdS), Février/February 2017 82 I Dossier spécial LP en alternance - STID Grenoble développeur/technicien SIG, cartographe, administrateur de bases de données géoréférencées. Quelques diplômés, parmi les plus anciens, ont progressé dans leur organisme pour atteindre des fonctions de manager ou de responsable géomatique. Les secteurs d'activité des diplômés reflètent assez fidèlement la diversité des applications des SIG et des types d'employeurs : grandes entreprises gestionnaires de réseaux (énergie, eau), développeurs d'applications SIG, bureaux d'études géomatiques, société de services spécialisées, collectivités territoriales. 3.3 Quelques difficultés . . . Même si l'ouverture à l'alternance des formations fait souvent suite à un engouement pédagogique de la part des enseignants, sa mise en oeuvre n'est pourtant pas sans difficultés. Un recrutement difficile - Pour le recrutement des étudiants en alternance, une contrainte supplémentaire peut être la signature du contrat ou du moins d'avoir trouvé une entreprise pour le déroulement de l'année. Ceci entraine une recherche d'entreprise plus précoce et une étude des dossiers de candidature plus tôt également. Dès février, nous sollicitons les entreprises et les étudiants pour trouver ou répondre à une offre d'alternance. Encore faut-il que les étudiants soient convaincus du régime qu'ils souhaitent suivre en LP. L'alternance reste un choix modéré pour les étudiants, surtout pour ceux n'ayant jamais connu ce régime lors de leur formation antérieure. C'est une difficulté dont il faut tenir compte lors du recrutement. Elle est plus facilement gérable pour les formations proposant à la fois le cursus inital et le cursus en alternance puisque les étudiants peuvent toujours intégrer la formation en cycle classique si aucune entreprise d'accueil n'a été trouvée. En revanche, pour la LP ESSIG, ce point reste fortement problématique. Nous pensons que l'hésitation des étudiants pour le cursus en alternance, accentuée par l'absence de régime classique pour suivre la formation si aucun contrat n'est signé, a conduit à une baisse de l'intérêt des étudiants pour cette formation, soit à une diminution du nombre de candidatures. A terme, cela peut devenir une menace pour la demande de réaccréditation des formations. Pour ces raisons, la LP ESSIG sera accessible à nouveau en formation classique à la rentrée 2017. Par ailleurs, pour essayer d'enrayer ce manque d'engouement pour l'alternance dans le département, nous avons décidé d'introduire dans la pédagogie du DUT (module projet personnel et professionnel) une sensibilisation des étudiants à ce régime de formation. Equilibre entre pédagogie et le monde professionnel - La construction du calendrier sur l'année doit répondre principalement aux besoins des différents organismes d'accueil des alternants, ce qui pose parfois problème. Il doit tenir compte du rythme de travail des entreprises d'accueil et de la durée des périodes en entreprise pour les étudiants. Il peut aussi influencer l'assimilation des compétences par l'étudiant puisqu'il va définir la répartition des enseignements et des évaluations sur l'année tout en respectant un rythme de 35h par semaine. Pour la LP ESSM et la LP Biostatistique, accueillant dans la même promotion des étudiants en alternance et en cycle classique, la construction du calendrier ne doit pas contenir de période longue en entreprise (plus de 4 à 5 semaines). Les étudiants en cycle classique n'ont pas de cours sur ces périodes bien qu'ils soient occupés avec la réalisation d'études dans le cadre des projets tutorés. Par conséquent, les périodes en entreprise chevauchent généralement les interruptions pédagogiques. Il existe donc un équilibre à trouver entre la pédagogie et le besoin professionnel, tout en tenant compte du rythme soutenu de l'année pour l'étudiant. Statistique et Enseignement, 8(1), 73–87, http://www.statistique-et-enseignement.fr © Société Française de Statistique (SFdS), Février/February 2017 I Dossier spécial 83 C. Bazzoli et al. Une gestion administrative lourde - L'alternance est une modalité pédagogique dont la gestion administrative est complexe car elle mobilise une multitude d'acteurs. Les quatre entités en charge de cette mise en place sont la cellule de formation continue de l'IUT2 ou FormaSup pour l'apprentissage, qui s'occupent principalement de la signature des contrats, le responsable de la formation, l'équipe pédagogique, constituée de l'ensemble des tuteurs pédagogiques et l'étudiant. Ils vont suivre les étudiants tout au long de leurs parcours en alternance. Suivre l'étudiant durant toute la période de son contrat en alternance oblige le tuteur à le rencontrer un certain nombre de fois sur son lieu de travail, afin de faire le point sur le déroulement du stage en entreprise, et à rencontrer le tuteur entreprise pour s'assurer de l'intérêt des missions de l'alternant, de son intégration, de ses progrès, etc. L'équipe pédagogique du département STID est une petite équipe et en conséquence, plusieurs membres sont impliqués dans les 3 LP en tant que responsables, enseignants, tuteurs d'alternances et de stages, attribuant une charge supplémentaire à ces enseignants. Développer l'alternance reste une tâche difficile pour l'équipe enseignante même si cette dernière a redoublé d'efforts dans ce sens depuis sa mise en place. A ce titre, un poste d'enseignant contractuel (CDD LRU) a été recruté en 2014 et 2015 au sein du département mais malheureuseument la pérennité de ce poste n'a pu être assurée. Une charge supplémentaire est également portée sur le personnel administratif du département qui doit prendre en charge le contrôle des absences (recensement, réception des justificatifs, signature des feuilles de présences, remontées d'états). 4 Evolution récente des formations Suite à la campagne d'accréditation des formations pour 2016-2021, le département STID propose une nouvelle offre de formation pour les LP depuis la rentrée 2016. Ce changement fait suite à une évaluation de la précédente offre (2010-2015) selon différents critères : l'insertion professionnelle, le recrutement, l'accompagnement des étudiants, . . . Il tient notamment compte de la mise en conformité des intitulés de LP, une réflexion déjà initiée depuis un certain temps. Ceci a entrainé un important réaménagement des LP au sein du département STID. Les LP ESSIG et ESSM ont fusionné pour créer la LP mention Métiers du Décisionnel et de la Statistique (MDS) avec deux parcours, ESSM et ESSIG, respectant les deux anciennes spécialités. Ce regroupement n'a eu aucune incidence sur les publics concernés, les objectifs des formations et l'organisation de l'alternance, à part une réouverture en formation classique du parcours ESSIG suite aux problèmes de recrutement évoqués en amont. Suite à un nombre décroissant d'étudiants candidats à la LP Biostatistique et à un taux d'insertion professionnelle insuffisant (les étudiants poursuivant leurs études après la LP), et malgré la satisfaction des entreprises prenant ses étudiants en stage, l'ouverture de la LP Biostatistique n'a pas été renouvelée. Cette fermeture est cependant compensée pour le département STID par l'ouverture d'un parcours Big Data complètement en alternance, en collaboration avec le département informatique de l'IUT2 de Grenoble, décrit par Dupuy-Chessa et al. (2016). Les maquettes de ces nouvelles formations sont présentées sur le site de l'IUT2 de Grenoble7 . 7 Site de l'IUT2 de Grenoble : www.iut2.upmf-grenoble.fr Statistique et Enseignement, 8(1), 73–87, http://www.statistique-et-enseignement.fr © Société Française de Statistique (SFdS), Février/February 2017 84 I Dossier spécial LP en alternance - STID Grenoble 5 Conclusion L'alternance est une valeur ajoutée indéniable pour l'étudiant. Il semble montrer une plus forte motivation pour suivre les enseignements et permet une insertion très satisfaisante dans le milieu professionnel. Ces étudiants montrent une maturité et un recul sur l'entreprise plus nets que les étudiants en cursus classique. L'alternance offre clairement de nombreux avantages pour l'étudiant : expérience, statut de salarié, insertion professionnelle facilitée. Néanmoins, elle présente une mise en oeuvre difficile et contraignante pour une « petite » équipe pédagogique. Le recrutement parfois difficile ne rend pas la tâche plus aisée. Quand bien même, la qualité des relations qu'entretient le département STID avec les milieux professionnels, mais aussi l'engagement du personnel enseignant et administratif ont permis la concrétisation de ce défi. Au fil des années, ces formations ont vu le nombre de contrats progresser à chaque rentrée, ce qui reste pour le département un vrai succès. Références [1] Dupuy-Chessa, S., Lambert-Lacroix, S., G. Blanco-Lainé (2016), Un parcours Big Data en alternance dans une licence professionnelle, Statistique et Enseignement, 7 (1), 121–126. Statistique et Enseignement, 8(1), 73–87, http://www.statistique-et-enseignement.fr © Société Française de Statistique (SFdS), Février/February 2017 I Dossier spécial 85 C. Bazzoli et al. Annexe 1 TABLEAU 3 – Maquette de la LP Biostatisque jusqu'en 2016 UNITES D'ENSEIGNEMENTS (UE) et Matières Heures UE0 MISE A NIVEAU UE1 STATISTIQUE 40 100 Analyse des données 30 Durées de vie 20 Modèle linéaire 30 Etudes longitudinales 20 UE2 INFORMATIQUE 100 Bases de données 40 Logiciel SAS 50 Logiciels spécifiques de statistique (R) 10 UE3 BIOLOGIE ET SANTE 100 Biologie et santé 40 Qualité 10 Epidémiologie 30 Essais cliniques 20 UE4 GESTION DE L INFORMATION ET DE LA COMMUNICATION ECTS 60 Techniques de communication 20 Tableaux de bord, Gestion de projet 10 Anglais 30 UE5 PROJET TUTORE et STAGE 12 12 6 18 Projet tutoré 6 Stage Total 12 12 400 Statistique et Enseignement, 8(1), 73–87, http://www.statistique-et-enseignement.fr © Société Française de Statistique (SFdS), Février/February 2017 60 86 I Dossier spécial LP en alternance - STID Grenoble TABLEAU 4 – Maquette de la LP ESSM jusqu'en 2016 UNITES D'ENSEIGNEMENTS (UE) et Matières Heures UE0 MISE A NIVEAU UE1 STATISTIQUE 60 120 Modélisation 56 Sondages 40 Analyse des Données 24 UE2 INFORMATIQUE 120 Bases de données et Programmation 65 Data Mining 16 Logiciels spécifiques de statistique et d'enquêtes 29 UE3 METHODOLOGIE DE L'ENQUETE ET DU MARKETING 130 Méthodologie de l'enquête 55 Marketing 75 UE4 COMPETENCES COMPLEMENTAIRES ECTS 12 12 12 85 Expression-communication, Insertion professionnelle 15 Sources de données, Démarche qualité 30 Anglais 40 UE5 PROJET TUTORE et STAGE 9 15 Projet tutoré 5 Stage Total 10 515 60 Statistique et Enseignement, 8(1), 73–87, http://www.statistique-et-enseignement.fr © Société Française de Statistique (SFdS), Février/February 2017 I Dossier spécial 87 C. Bazzoli et al. TABLEAU 5 – Maquette de la LP ESSIG jusqu'en 2016 UNITES D'ENSEIGNEMENTS (UE) et Matières Heures ECTS UE0 MISE A NIVEAU UE1 STASTISTIQUE ET ANALYSE SPATIALE 48 120 Statistique descriptive 36 Analyse des données et data mining 36 Statistique spatiale et modélisation 48 UE2 INFORMATIQUE 144 Bases de données 48 Programmation 48 Technologies du web 48 UE3 CONNAISSANCE ET PRATIQUE DES SIG 146 Données géoréférencées 48 Outils SIG 50 Applications SIG 48 UE4 COMPETENCES COMPLEMENTAIRES Techniques d'expression Les métiers des SIG 78 12 13 7 24 9 Anglais technique 36 Gestion de projet 9 UE5 PROJET TUTORE et STAGE 18 Projet tutoré 6 Stage Total 10 12 536 60 Statistique et Enseignement, 8(1), 73–87, http://www.statistique-et-enseignement.fr © Société Française de Statistique (SFdS), Février/February 2017
{'path': '55/hal.archives-ouvertes.fr-hal-01475962-document.txt'}
Les classes d'objets Gaston Gross To cite this version: Gaston Gross. Les classes d'objets. Lalies (Paris), Paris: Presses de l'Ecole normale supérieure, 2008, pp.111-165. halshs-00410784 HAL Id: halshs-00410784 https://halshs.archives-ouvertes.fr/halshs-00410784 Submitted on 10 Oct 2011 Gaston Gross LDI Université Paris13/CNRS Les classes d'objets 1. Fondement méthodologique des dictionnaires Une pratique scolaire fréquente consiste à demander à un élève de définir le sens d'un mot. Cet exercice semble banal mais il pose des questions de fond de nature théorique. Imaginons qu'il s'agisse de définir le « sens » du verbe abattre. À une telle question, il est impossible de répondre de façon satisfaisante. Admettons que l'élève réponde par tuer. On voit qu'il aura sélectionné un des sens du verbe abattre, celui sans doute qui lui venait le plus naturellement à l'esprit et qu'il identifie à l'aide d'un synonyme. La réponse est arbitraire et il ne serait pas étonnant qu'un autre élève propose démoraliser, un autre encore couper. Chacun d'eux aura pointé, parmi les différentes significations du verbe abattre, celle qui s'impose à lui au moment de la question. Le maître ne saurait évidemment se contenter des équivalences proposées. Il lui reviendrait de faire découvrir les conditions dans lesquelles le verbe abattre prend la ou les signification(s) proposée(s). Il apparaîtrait alors clairement qu'en dehors de tout contexte, il est impossible de décider auxquels des huit ou dix « sens » du verbe abattre on a affaire. C'est donc le contexte linguistique, autrement dit son environnement, qui détermine le sens d'un terme. Ce petit exercice scolaire permet d'envisager de façon nouvelle la notion de polysémie. Comme on le sait, la plupart des dictionnaires signalent dans leur préface l'étendue de leur nomenclature et précisent le nombre déterminé de significations auxquelles correspondent ces entrées. Cette différence justifie la notion de polysémie. Le nombre de significations est impressionnant parfois, comme dans le cas du verbe prendre. Or, il se pourrait que le concept même de polysémie soit un artefact de la lexicographie. En effet, dans un texte et de façon générale dans tout discours, les mots ne sont que très rarement ambigus. L'ambiguïté peut apparaître en cas de télescopage de constructions syntaxiques, comme le faisaient remarquer avec insistance les premiers travaux de la grammaire générative (Cf. N. Chomsky 1956 : Les Américains jugent les Vietnamiens coupables). Quant à la polysémie proprement dite, on observera qu'il n'existe aucun prédicat qui ait plusieurs significations dans un environnement constant. La polysémie n'est donc pas un problème textuel, à la différence de la synonymie, qui correspond à une vraie réalité linguistique. Les conséquences théoriques qu'on doit tirer de ces observations sont nombreuses et bouleversent les découpages habituels de l'analyse linguistique. Si un mot ne peut pas être défini en lui-même, c'est-à-dire hors contexte, mais seulement dans un environnement syntaxique donné, alors le lexique ne peut pas être séparé de la syntaxe, c'est-à-dire de la combinatoire des mots. La sémantique n'est pas autonome non plus : elle est le résultat des éléments lexicaux organisés d'une façon déterminée (distribution). Qu'il est soit ainsi est confirmé par les auteurs de dictionnaires eux-mêmes qui, timidement et sans aucune méthode, notent pour un prédicat donné, le ou les arguments qui permettent de séparer un emploi d'un autre. Pas de sémantique sans syntaxe donc, c'est-à-dire sans contexte. 2 2. Contextes aléatoires et contextes appropriés Nous allons examiner, dans ce qui suit, ce que nous entendons par le mot « contexte » et qui ne saurait être assimilé à ce que l'on appelle quelquefois, de façon superficielle, les environnements de gauche et de droite d'un mot. 2.1. Contextes aléatoires On peut être tenté de dire que toutes les informations nécessaires à la reconnaissance du sens d'un mot sont définies par ses environnements stricts, susceptibles être dégagés à l'aide de logiciels d'extraction opérant sur de vastes corpus. Il suffirait d'éliminer les doublons pour déterminer ainsi comment ces environnements permettent de sélectionner le sens d'un mot en contexte. Or, cette recherche des co-occurrents ne peut pas être mécanique. Une requête consistant à sélectionner les cinquante caractères qui précèdent ou qui suivent immédiatement un verbe, par exemple, ne sauraient constituer les conditions nécessaires à cette expérimentation. En effet, les éléments contextuels qui définissent un mot ne lui sont pas nécessairement contigus, comme on le postule par définition pour les éléments de la phrase simple, où les arguments encadrent strictement le prédicat. En effet, dans les textes, on observe souvent entre un prédicat et ses arguments des insertions de diverses natures, qui n'appartiennent pas en propre au schéma d'arguments et qu'il faut banaliser si l'on veut retrouver la distribution qui rend compte du sens du prédicat. Ces insertions peuvent être : a) des incises : Il faut tailler, comme on le sait, les arbres au début du printemps. Louis XIV, à ce qu'on dit, a réduit le pouvoir des nobles. Il se serait servi, à ce que j'ai cru comprendre, d'un exemple très ambigu. L'État, nous le savons tous, tire ses ressources de l'impôt indirect. b) des négations : Les adolescents ne jouent plus aux billes. Il n'a répondu, sur aucun point, à mes questions. c) des adverbes : Pierre a participé grandement à cette victoire. Paul a changé radicalement de conduite. d) des circonstancielles : Pierre a oublié, avant de partir, de fermer le gaz. e) des déterminants nominaux Paul a lu un tas de livres. Il y avait à l'arrière du front un monceau de cadavres. Il a versé dans son thé un nuage de lait. Dans ces phrases, le système doit être capable de reconnaître que : a) l'environnement de droite de tailler est non pas comme on le sait mais le substantif arbre ; b) l'environnement de droite de Louis XIV est réduire et que à ce qu'on dit n'est pas pertinent pour la description de ce verbe ; 3 c) la négation dans b) est une règle générale de la grammaire et qu'elle ne joue aucun rôle dans la définition syntaxique de jouer. Il arrive parfois que la négation fasse partie de la structure même de la phrase simple comme dans n'en faire qu'à sa tête ; ou ne pas en rater une. Ce type d'information doit alors figurer dans un dictionnaire ; d) les adverbes grandement, radicalement ne font pas partie du schéma d'arguments des prédicats participer ou changer, contrairement, par exemple, aux constructions suivantes où l'adverbe est obligatoire et constitue pour ainsi dire un « argument » : se comporter Adv, présenter bien, bien / mal accueillir que ; e) les propositions et compléments circonstanciels qui s'insèrent à l'intérieur d'un schéma d'arguments. Avant de partir doit être mis entre parenthèses pour pouvoir relier oublier et son complément fermer le gaz. f) Un logiciel doit être en mesure de considérer un tas de et un monceau de comme des déterminants nominaux quantifieurs et non des compléments du verbe lire, par exemple. On voit que si on définit les prédicats par la nature de leurs arguments, on est obligé de faire le tri, dans l'environnement immédiat, entre ce qui est ou n'est pas pertinent dans la définition des mots. La distribution d'un élément ne s'identifie donc pas à son contexte matériel immédiat, mais repose sur une analyse qui détecte les éléments dont l'interdépendance constitue des ensembles significatifs. 2.2. Contextes contraints On observe un grand nombre de cas où l'environnement immédiat, dépourvu d'éléments hétérogènes, n'est pas non plus éclairant pour la détermination de la construction et donc du sens d'un prédicat. C'est le cas des constructions figées. 2.2.1. Insertions dans les suites figées M. Gross (1993) a signalé que les constructions verbales figées n'ont pas une structure interne différente des constructions régulières. Elles acceptent des insertions du type qu'on vient de voir, ce qui ne les distingue pas formellement des constructions libres, au regard de la contiguïté des éléments : Pierre prend toujours les vessies pour des lanternes. La moutarde lui a, semble-t-il, monté au nez. Il faut donc chercher sur un autre plan la pertinence des environnements. 2.2.2. Un environnement contraint et non compositionnel Indépendamment de ce fait, les constructions figées constituent, du point de vue sémantique, de « faux » environnements, puisque le sens du prédicat n'y est pas déterminé par la nature des arguments. C'est l'ensemble constitué par le verbe et la séquence des substantifs qui le suivent qui forme une unité sémantique. L'établissement du sens ne peut pas se faire sur la base d'une combinatoire, c'est-à-dire de la syntaxe régulière, mais de façon externe et globale. L'ensemble est doté d'une signification qui n'est pas fonction de celle de ses éléments composants. Il arrive que ces suites figées aient pour synonyme un lexème simple, mais ce n'est pas toujours le cas. De plus, un verbe figé, c'est-à-dire suivi d'un substantif qui 4 n'a pas de réelle fonction syntaxique, peut en outre avoir des arguments réguliers, tout comme un verbe simple : (tirer les vers du nez) à N hum (donner du fil à retordre) à Nhum (apporter de l'eau au moulin) de Nhum 2.2.3. Contextes significatifs La détermination de sens d'un prédicat à l'aide du contexte n'est donc pas une opération triviale. Le contexte n'est une donnée immédiate que quand il s'agit de textes. Il est vrai qu'un discours n'est jamais une suite de phrases élémentaires, telles qu'elles sont définies dans les grammaires. Et pourtant la phrase simple est l'outil le plus important dans l'analyse des textes. Le premier travail de tout traitement automatique consiste donc à reconnaître toutes les phrases simples qui le composent. L'étude du « ciment » qui relie ces phrases entre elles constitue une seconde étape. C'est dans le cadre de la phrase simple que l'on peut mettre au point les environnements pertinents et, comme elle est définie par l'existence d'un prédicat, il faut donc être en mesure de détecter dans un texte l'ensemble des prédicats qui le composent. L'analyse consiste alors à reconnaître les structures phrastiques qui figurent dans un texte à partir de la description exhaustive des prédicats qui sont décrits dans le dictionnaire électronique. 3. La phrase comme unité minimale d'analyse Comme nous venons de la voir, les mots doivent être définis dans le cadre de la phrase simple, dont nous rappelons la définition : - une phrase simple est composée d'un prédicat, de son schéma d'arguments et de son actualisation ; - il existe deux types de prédicats : les prédicats du premier ordre, dont les arguments sont des substantifs élémentaires et les prédicats du second ordre, dont l'un au moins des arguments est un autre prédicat ; - un prédicat, qu'il soit du premier ou du second ordre, peut être morphologiquement un verbe, un nom, un adjectif, une préposition ; - un schéma d'arguments est défini comme la suite la plus longue des arguments ; - les arguments sont définis par leur classe sémantique ; - l'actualisation comprend celle du prédicat (temps et aspects) et celle des arguments (déterminants). Cette description implique qu'on soit en mesure de distinguer un argument d'un circonstant. Nous dirons qu'un groupe nominal est un argument et non un circonstant, s'il est induit par le sens du prédicat. Ainsi dans : Paul a acheté cette voiture à Jean pour mille euros 5 le complément pour mille euros est un argument et non un complément circonstanciel, malgré ce que dit la tradition, du fait que le verbe acheter implique la notion de prix. Dès lors que les phrases simples sont reconnues, on procédera à l'analyse des phrase complexes, qui sont fondées sur des prédicats du second ordre, c'est-à-dire ceux qui relient les subordonnées aux principales par l'intermédiaire d'un connecteur (cf. G. Gross et M. Prandi 2004). 3. Problèmes posés par la description des phrases La notion de phrase simple est donc une notion théorique qui met en jeu une conception générale de l'analyse linguistique et des procédures qu'il faut mettre en oeuvre pour décrire les mots. Ce point de vue invalide certaines pratiques descriptives, comme celui des niveaux de description et du statut de la morphologie. a) Le problème des niveaux d'analyse La tradition admet que la description linguistique comprend trois niveaux : le lexique, la syntaxe et la sémantique. Nous avons vu plus haut que la sémantique ne peut pas être indépendante de la syntaxe, ce qui rend oiseuses les réflexions sur la caractère syntaxique des phrases comme : D'incolores idées vertes dorment furieusement, phrase qui serait syntaxiquement correcte mais sémantiquement fausse. L'information apportée par la seule structure de cette phrase Dét Adj N Adj V Adv est si vague qu'elle est inutile, du fait des ambiguïtés potentielles innombrables dont elle est porteuse. Maurice Gross, lui aussi, pensait que les structures syntaxiques sont premières et qu'elles sont des réceptacles de la matière sémantique. Sa démarche consistait à poser des schémas de phrases (NVN, NVN à N, etc.), à examiner leur extension dans le lexique et à décrire les significations dont ils sont porteurs. Mais ces schémas n'apportent aucune information sémantique réelle. On peut le constater en examinant la Table 1 de Méthodes en syntaxe (1975), qui est définie syntaxiquement de la façon suivante : N0 V Vinf W. Mais cette séquence catégorielle génère des classes sémantiques de prédicats totalement hétérogènes. On y trouve en position verbale actualisée : - de vrais verbes aspectuels : achever de, aller, arrêter de, cesser de, commencer à, commencer de, commencer par, continuer à , continuer de, finir de, finir par, recommencer à ; - des verbes d'activité : se dépêcher de, se grouiller de, se hâter de, se magner de, se presser de ; - des verbes psychologiques ou intellectuels : choisir entre, hésiter à, se contenter de, daigner, se déballonner de, se décider à, se défiler de, se dégonfler de, se dégrouiller de, se démerder de ; - des verbes d'opérations de l'esprit : omettre de, oublier de, opter pour, pencher pour ; - des verbes modaux : devoir, se devoir de, pouvoir ; - des verbes d'efforts : s'efforcer de, s'empresser de, tenter de ; Nous concluons qu'une phrase ne peut pas être définie par un socle constitué d'une séquence abstraite de catégories, mais par un prédicat réel, c'est-à-dire un ou des mots 6 lexicaux ouvrant des positions argumentales définies sémantiquement, qui correspondent à des classes de substantifs. Si l'unité minimale d'analyse est la phrase, il n'y a pas lieu de distinguer le lexique, la syntaxe et la sémantique. b) Le problème des substantifs abstraits Un substantif abstrait est un prédicat et constitue donc le noyau d'une phrase, il ne peut pas être réduit à un argument élémentaire d'une phrase simple. Dans une suite comme : J'admire ta patience. le mot patience est un prédicat nominal, comme on peut le constater en lui restituant son actualisation, grâce au verbe support avoir : J'admire la patience que tu as. Tu as de la patience. Cette dernière phrase est le pendant nominal d'une phrase adjectivale : Tu es patient. Cette observation est d'une importance majeure pour l'analyse logique ou grammaticale. Quand un groupe prépositionnel comprend un substantif abstrait, donc un prédicat, on est en présence d'une subordonnée circonstancielle et non d'un complément circonstanciel. C'est le cas, par exemple, de par dépit ou encore de avec rage, qui sont analysés traditionnellement comme des compléments de motif et de manière. c) Le problème de l'insuffisance des traits syntaxiques Les prédicats sont définis, comme nous l'avons vu, par la nature sémantique de leurs arguments. Cette observation est fondée empiriquement sur le fait qu'il n'existe pas de prédicat qui ait deux significations différentes avec les mêmes classes d'arguments. Pour rendre compte des différents emplois d'un prédicat, on se sert, depuis la grammaire dite « structurale », essentiellement des traits comme : concret, abstrait, humain. Cette pratique s'observe dans des dictionnaires comme le Dictionnaire du français contemporain (Larousse). Cet outil descriptif est cependant trop sommaire. Imaginons que nous ayons à traduire en anglais le verbe porter. Le recours aux traits que nous venons d'évoquer nous permet de faire une première classification. On aura ainsi deux emplois différents selon que l'objet est un abstrait : Luc porte un nom français Luc bears a French name ou un nom concret : Luc porte une valise Luc carries a case Les traits concret et abstrait permettent donc de distinguer deux emplois différents du verbe français porter, correspondant à deux traductions différentes en anglais. Deux 7 remarques s'imposent cependant. Tout d'abord, si l'on dit que le premier emploi est défini par un objet abstrait, on aura défini une règle trop riche, car la plupart des substantifs abstraits sont exclus avec ce verbe (*Il porte de la gentillesse). En fait, cet emploi de porter est approprié aux seuls substantifs de dénomination. Ensuite, la définition du second emploi est elle aussi trop riche. En effet, le substantif veste est lui aussi un concret, mais la traduction anglaise serait erronée si on l'identifiait à un pur et simple concret : *Luc carries a jacket. Le verbe porter se traduit par to wear si l'objet est un <vêtement>. On voit que le trait <vêtement> doit figurer dans notre outil de description, et cela pour bien d'autres raisons que de prévoir la bonne traduction en anglais. Examinons encore deux autres exemples. Le substantif capitaine est codé tout naturellement comme un substantif humain, dans certains environnement Le capitaine a donné l'ordre de lever le camp. S'il en est ainsi, on décrira donc la phrase Paul est passé capitaine comme un emploi du verbe passer défini par deux substantifs humains. Mais alors notre règle générera des phrases fausses comme : *Paul est passé (frère, voisin, traître, Français). où cependant en position d'objet figurent également des substantifs humains. Si, en revanche, nous décrivons capitaine par un classifieur comme <grade>, alors toutes les phrases que nous générerons seront correctes. Le second exemple met en jeu le substantif autoroute, qu'on définira en première approximation comme un locatif. On codera donc l'adjectif roulant dans la phrase Cette autoroute est roulante de la façon suivante : roulant (locatif). On observe pourtant que tous les substantifs locatifs ne sont pas compatibles avec cet adjectif. Une bonne génération automatique implique que l'on crée la classe des <voies>. Si l'on décrit en extension ces deux classes (capitaine, adjudant, général, etc.), (route, autoroute, chemin, etc.), on est en mesure de ne former que des phrases correctes avec ces deux prédicats. 4. Quatre niveaux de précision pour décrire les arguments L'objectif d'un dictionnaire électronique est de décrire en extension les différents emplois des prédicats, de telle sorte qu'on soit en mesure de générer des phrases correctes. Nous devons donc prévoir des classes sémantiques définissant les arguments qui soient appropriées à chacun de ces emplois. Cette description exige quatre niveaux de précision. 4.1. Prédicats sans restrictions sélectionnelles Certains prédicats n'imposent à leurs arguments (ou à l'un de leurs arguments) aucune restriction sélectionnelle. C'est le cas, par exemple, des verbes parler de ou de penser à en ce qui concerne leurs objets. En effet, on ne voit pas quels substantifs seraient exclus dans cette position. Il suffit, dans ce cas, de désigner ces positions par le code N, signalant au système qu'il a le choix entre tous les substantifs du dictionnaire. 4.2. Les Hyperclasses D'autres prédicats, en revanche, sélectionnent parmi les substantifs de grandes classes sémantiques, que nous appelons hyperclasses et qui correspondent approximativement aux « traits » évoqués plus haut à propos des dictionnaires. Elles sont au nombre de six : humain, 8 animal, végétal, inanimé concret, locatif, temps. Ces traits sont illustrés par les exemples suivants : a) les humains (parler, rire) ; b) les animaux (crever) ; c) les végétaux (pousser, faner) ; d) les artefacts (fabriquer, casser) ; e) les locatifs (regagner, avoir une surface de, être sis) ; f) les noms de temps (durer, remettre à). On observera aussi que nous n'avons pas pris en compte dans la liste des traits les abstraits, puisqu'il s'agit, comme nous l'avons vu plus haut, de prédicats et non d'arguments élémentaires. 4.3. Les Classes d'objets Mais la plupart des prédicats ont un spectre plus restreint que ceux que nous venons d'évoquer. Nous avons vu plus haut que, si on code les arguments du verbe porter ou de l'adjectif roulant à l'aide des traits humain ou locatif, on génère des phrases fausses. Il faut donc mettre au point des classes plus fines pour décrire ces emplois avec la précision nécessaire à leur reconnaissance. Examinons de ce point de vue quelques emplois du verbe suivre. Soit la phrase : Vous suivrez ce chemin. Si on remplace l'objet chemin par des substantifs comme route, rue, voie, sentier, le verbe suivre garde le même sens. On conviendra de regrouper ces substantifs et tous les autres du même type sous le terme générique de <voies>. Cet emploi est donc défini en termes d'arguments par cette classe. Si, en revanche, on substitue à chemin le mot cours, alors on a affaire à un autre emploi et cours forme une classe avec séminaire, stage, formation, cycle d'étude, etc., qu'on rangera sous le classifieur d'<enseignement>. Un synonyme possible est assister à. On voit que l'interprétation du verbe est fonction de la classe sémantique des synonymes en position d'objets. Le sens du verbe suivre serait encore différent si le complément était recommandation, suggestion, avis qu'on classerait comme <conseils>. Une autre différence de sens s'observe si on remplace le substantif chemin par des mots comme cure, médication, régime, thérapeutique, qui relèveraient de la classe des <traitements>. Les classes <voies >, <enseignements>, <conseils >, <traitements> correspondent à ce que nous appelons des classes d'objets, que nous décrivons plus loin. Ces informations doivent figurer dans le dictionnaire comme classifieurs de substantifs-arguments. On se prend à rêver que cette notion figure dans des dictionnaires comme Gaffiot ou Bailly ! 4.4. Les singletons Il existe enfin des prédicats dont le spectre argumental est réduit à une unité, comme dans abaisser une perpendiculaire. La position d'objet ne se prête à aucun paradigme. On est dans les conditions formelles des verbes figés. Cependant, il n'y a pas ici de figement, car le complément est susceptible de restructurations qui sont le fait des arguments. On peut employer le passif ou la mise en évidence : la perpendiculaire a été abaissée ; la perpendiculaire, on doit l'abaisser tout de suite. 4.5. Exemples de description de quelques verbes 9 allonger/N0 : couturier/N1 : vêtements/N2 : deuml allonger/N0 : cuisinier/N1 : potagessaucesN2 : avec huilebouilloneau allonger/N0 : <hum>/N1 : argentpourboire/N2 : à <hum> allonger (s')/N0 : <hum>/N1 : <hum>/N2 : sur <sol>,lit,civières atteindre/N0 :<hum>/N1 :<loc> atteindre/N0 :<hum>/N1 :<âge> atteindre/N0 :<hum>/N1 :à <but> atteindre/N0 :<eau>N1 : <niveau> atteindre/N0 :<hum>/N1 :<hum>N2 :à <téléphone> atteindre/N0 :< projectile>/N1 :<hum>,<cible> atteindre/N0 : <maladie>/N1 :<hum> atteindre/N0 :<hum>/N1 : <public> atteindre/N0 : <malheur>/N1 :<hum> coller /N0:<hum>/N1:<inc>/N2: avec <colle> coller/N0:<hum>/N1:<inc>/N2: dans <contenant>(jeter) coller/N0:<examinateur>/N1:<candidat>/N2 : à <examen> coller/N0: <proviseur>/N1:<élève>/N2: pour <temps> coller/N0:<vêtement>/N1: à <partie du corps>/N2 coller/N0:<aliments>/N1:à <casserolle>/N2 4.2. Quelques applications : adjectifs juste /N0 : <hum> juste /N0 : <hum>/N1 : avec <hum> juste /N0 : <action> juste /N0 : <récompense, punition> juste /N0 : <calcul, déduction> juste /N0 : <vêtement> juste/N0 : <instr de mesure> juste/N0 : <instr de musique> aigre/N0: <fruit>/N1: au goût aigre/N0: <vin> aigre/N0: <lait> aigre/N0: <son, voix>/N1: à l'oreille aigre/N0: <froid, vent> aigre/N0: <couleur> aigre/N0: hum/N1: de caractère 5. Classes d'objets et disparité argumentale : les compléments sont plus importants que les sujets Pour mettre en évidence les différents emplois d'un prédicat, nous avons eu recours à la nature sémantique des arguments. Ce faisant, nous avons mis sur le même plan le sujet et les objets. Mais ces deux types d'arguments n'ont pas la même valeur informative dans la 10 reconnaissance des emplois. On le voit bien avec l'exemple du verbe casser. À partir d'un début de phrase comme : Paul casse X il est difficile d'interpréter le sens du verbe. Il est toujours possible, évidemment, de donner le sens qui vient le plus facilement à l'esprit ou celui qui est le plus fréquent. Mais il est impossible de se déterminer à partir du seul sujet. Si l'on indique les compléments, la signification des emplois est transparente : casser du verre casser une vitre casser une cloison casser une jambe casser un caillou casser une chaussure casser un contrat casser une décision casser un rythme casser un officier Si, dans le dernier exemple, l'objet ne désigne pas un <grade> mais un humain générique, sans autre spécification, alors le sens de casser est « briser moralement ». Prenons un dernier exemple. Il est presque impossible de dire ce que signifie : Paul arrange L'indication du sujet a donc, là encore, un faible indice de discrimination. Observons maintenant la valeur discriminatoire des compléments : arranger des papiers arranger un morceau de musique arranger un appartement arranger des fleurs dans un vase arranger un voyage arranger un conflit Le sens est clair à chaque fois. Il existe une ambiguïté quand l'objet est un humain : arranger Paul. Les deux interprétations dépendent alors de la nature du sujet : On l'a salement arrangé. Cela arrange Paul. La démonstration serait encore plus éclairante avec le verbe prendre. Le sujet ne permet de reconnaître l'emploi que dans peu de cas : Cela prend = (Le béton, la mayonnaise) prend. 11 Pour les autres emplois, l'indication du seul sujet humain ne permet pas que ce verbe puisse être correctement interprété ; ce qui est le cas, en revanche, avec la présence d'un complément : prendre un aliment prendre un moyen de transport individuel prendre un moyen de transport en commun prendre une voie prendre une place forte prendre un objet La conclusion à tirer, c'est que les compléments apportent beaucoup plus d'informations que le sujet dans l'interprétation d'un prédicat. 6. Propriétés des classes d'objets Nous montrons dans ce qui suit l'intérêt théorique et descriptif que représente la notion théorique de classes d'objets, que nous allons définir dans un premier temps. 6.1. Définition Une classe d'objets est un « ensemble de substantifs, sémantiquement homogènes, qui détermine une rupture d'interprétation d'un prédicat donné, en délimitant un emploi spécifique ». Cette définition implique que les classes d'objets ne sont pas des concepts sémantiques abstraits mais des entités construites sur des bases syntaxiques et déterminées par la signification des prédicats. Ces classes ne sauraient être confondues avec ce que l'on appelle des « réseaux sémantiques » qui n'ont aucune base syntaxique et constituent des ensembles vagues sans valeur opérationnelle sur la plan linguistique. Notre définition des classes d'objets montre qu'elles sont induites par les prédicats. Comme ces derniers ne sont pas nécessairement isomorphes, on doit admettre que les classes peuvent varier d'une langue à l'autre. Mais les descriptions bilingues ont montré empiriquement que l'immense majorité des classes sont communes aux différentes langues, qu'elles soient européennes ou non. 6.2. Syntaxe d'une classe d'objets Nous avons envisagé les classes d'objets du point de vue des prédicats. Nous avons montré ainsi qu'elles permettent de rendre compte de façon précise du spectre argumental de chaque emploi verbal. La définition en extension des classes permet de générer toutes les phrases possibles relevant d'un même emploi. Mais il est possible aussi de partir d'une classe d'objets donnée et d'examiner l'ensemble des prédicats qu'ils peuvent compléter. En effet, la classe des <arbres> n'est pas appropriée seulement au verbe abattre mais aussi à planter, émonder, tailler, élaguer, etc. Si nous faisons ainsi le recensement de tous les prédicats où peut figurer une classe d'objets, on peut la décrire entièrement. Soit la classe des <défauts humains>, comme traître. Cette classe est caractérisée par les structures syntaxiques suivantes : a) ils peuvent figurer, en position prédicative, dans une phrase avec être : Luc est un traître 12 b) ils peuvent être au vocatif : Traître ! c) le vocatif a une variante du type : Espèce de traître ! d) ou encore : Traître que tu es ! e) l'ordre des éléments peut être inversé : Ce traître de Luc. f) les éléments sont des compléments naturels en position de second complément du verbe traiter N1 de N2 : Nous avons traité Luc de traître. 6.3. La notion d'opérateurs appropriés Soit encore la classe des <vêtements>. Bien entendu, les éléments de cette classe sont compatibles avec un verbe comme acheter. Mais on comprendra que ce verbe n'est pas strictement approprié à ces substantifs et possède un spectre argumental beaucoup plus vaste. On ne peut donc pas se servir de ce verbe pour délimiter la classe des <vêtements>. Il arrive qu'un prédicat puisse à lui tout seul déterminer une classe d'objets. C'est le cas par exemple de : émonder pour celle des arbres. Mais la plupart du temps, les opérateurs ne sont appropriés à une classe que par l'un de leurs emplois. Ainsi, le verbe porter peut opérer sur n'importe quel concret, au sens de porter <une charge>. C'est un autre emploi de ce verbe qui est approprié à la classe des <vêtements>. La définition syntaxique d'une classe peut donc se faire aussi à l'aide d'un groupement d'emplois de prédicats. Si porter peut, dans un de ses sens, s'appliquer à tous les concrets, une combinaison de verbes comme porter, mettre, ôter, enfiler ne délimite que des noms de <vêtements>. On trouvera ici un certain nombre de prédicats (verbes et adjectifs) appropriés à cette classe. 6.3.1. Opérateurs verbaux a) En position d'objet : bâtir/N0:hum/N1:<vêtem> boutonner/N0:hum/N1:<vêtem> cintrer/N0:hum/N1:<vêtem> coudre/N0:hum/N1:<pièce>/N2:à <vêtem> dégrafer/N0:hum/N1:<vêtem> enfiler/N0:hum/N1:<vêtem> enlever/N0:hum/N1:<vêtem> essayer/N0:hum/N1:<vêtem> mettre/N0:hum/N1:<vêtem> 13 ôter/N0:hum/N1:<vêtem> ourler/N0:hum/N1:<vêtem> passer/N0:hum/N1:<vêtem> porter/N0:hum/N1:<vêtem> raccommoder/N0:hum/N1:<vêtem> rallonger/N0:hum/N1:<vêtem> retoucher/N0:hum/N1:<vêtem> b) En position de sujet : boulocher/N0:<vêtem> déteindre/N0:<vêtem> froncer/N0:<vêtem> plisser/N0:<vêtem> se froisser/N0:<vêtem> seoir advm/N0:<vêtem> serrer/N0:<vêtem> 6.3.2. Opérateurs adjectivaux b) En position d'objet : accoutré/N0:hum/de N1:<vêtem> attifé/N0:hum/de N1:<vêtem> boudiné/N0:hum/dans N1:<vêtem> sanglé/N0:hum/dans N1:<vêtem> vêtu/N0:hum/de N1:<vêtem> a) En position de sujet : ajusté/N0:<vêtem> ample/N0:<vêtem> bouffant/N0:<vêtem> cintré/N0:<vêtem> collant/N0:<vêtem> décousu/N0:<vêtem> défraîchi/N0:<vêtem> dégriffé/N0:<vêtem> élimé/N0:<vêtem> juste/N0:<vêtem> moulant/N0:<vêtem> rapiécé/N0:<vêtem> seyant/N0:<vêtem> 6.4. Définition linguistique de quelques classes La notion d'opérateur approprié permet de définir les mots de façon interne à la langue, sans recours à des informations de nature encyclopédique, comme on va le voir à propos de la classe des <arbres> et des <factures>. 14 6.4.1. Description syntaxique de la classe des <arbres> Le Petit Robert définit ainsi la notion d'arbre « végétal pouvant atteindre des dimensions et un âge considérables, dont la tige ligneuse se ramifie à partir d'une certaine hauteur au-dessus du sol ». On peut considérer cette définition comme externe et « réaliste » du mot. Mais on peut aussi définir ce terme à l'aide des outils que nous offre la langue ellemême, c'est-à-dire à l'aide des opérateurs qui lui sont appropriés. Voici ceux qui sont les plus fréquents dans un très vaste corpus (10 années du journal Le Monde). Nous les avons classés par ordre de fréquence inverse : planter (210), abattre (100), tomber (78), couper (36), arracher (30), tailler (27), déraciner (15), émonder (5), ébrancher (5). On observe que, contrairement à ce qu'on aurait pu croire, les opérateurs les plus appropriés ne sont pas fonction de leur fréquence. Les six verbes les plus fréquents ont d'autres emplois et ne sont pas en eux-mêmes strictement appropriés à la notion d'arbre. Ce sont les derniers de cette liste qui définissent la classe des <arbres> avec le plus de précision. Nous allons analyser deux autres classes à l'aide de leurs opérateurs appropriés. 6.4.2. Les factures Soit la classe des <factures> dont voici quelques éléments : état de frais, facture, note, relevé de compte, ainsi que l'ensemble des noms composés construits sur la substantif note : note d'électricité, note d'honoraires, note d'hôtel, note d'un artisan, note d'un entrepreneur, note de blanchisseuse, note de crédit, note de droit d'auteur, note de frais de transport, note de frais, note de gaz, note de manucure, note de pressing, note de restaurant, note de téléphone, etc. Cette classe est naturellement caractérisée par l'ensemble des prédicats qui lui sont appropriés : Verbes : acquitter/N0:<acheteur>/N1:<facture> annuler/N0:<acheteur>/N1:<facture> augmenter/N0:<vendeur>/N1:<facture> baisser/N0:<vendeur>/N1:<facture> corser/N0:<vendeur>/N1:<facture> demander/N0:<acheteur> /N1:<facture>/N2:à <vendeur> dresser/N0:<vendeur>/N1:<facture>/N2: à l'ordre de <acheteur> établir/N0:<vendeur>/N1:<facture>/N2: à l'ordre de <acheteur> fournir/N0:<vendeur>/N1:<facture>/N2:à <acheteur> grossir/N0:<vendeur>/N1:<facture> honorer/N0:<acheteur>/N1:<facture> payer/N0:<acheteur>/N1:<facture>/N2:à <vendeur> présenter/N0:<vendeur>/N1:<facture>/N2:à <acheteur> régler/N0:<acheteur>/N1:<facture>/N2:à <vendeur> s'élever/N0:<facture>/N1: à Card<unité monétaire> solder/N0:<acheteur>/N1:<facture> Adjectifs : lourd/N0 : <facture> 15 salé/N0 : <facture> astronomique/N0 : <facture> détaillé/N0 : <facture> Nous n'accordons pas l'adjectif étant donné que la classe peut comporter éventuellement des substantifs masculins. Les distinctions qu'on peut établir entre les différents termes ne sont pas de nature syntaxique mais pragmatique : une addition est une <facture> que l'on établit dans un restaurant ; une note est la <facture> qu'on paie dans un hôtel ; un état de frais est établi par un employé à l'intention de son employeur ; un relevé (de compte) représente la <facture> que l'on reçoit d'une administration prestataire de services (EDF, GDF). 7. Intérêts de la notion de classe : Comme nous l'avons vu, les classes d'objets ne correspondent pas à des entités sémantiques floues, comme le sont les réseaux sémantiques, mais à des ensembles de substantifs correspondant à des positions argumentales et donc fondées syntaxiquement. Nous présentons ici l'apport théorique de cette notion à l'analyse linguistique. 7.1. Délimitation des emplois de prédicats Nous avons déjà signalé que les classes d'objets permettent de mettre en évidence les différents emplois d'un prédicat morphologique donné. Voici une application au verbe abattre : abattre/N0 :hum/N :< arbre> abattre/N0 :hum/N :<aéronef> abattre/N0 :hum/N :<construction> abattre/N0 :hum/N1 :hum abattre/N0 :évé/N :hum abattre/N0 :hum/N :cartes abattre/N0 :hum/N :minerai abattre/N0 :hum/N :<animal de bouch> Cette description vaut évidemment pour les opérateurs adjectivaux : sévère <sanction> : punition sévère sévère <look> : aspect sévère sévère <échec> : défaite sévère aigu <son> : sifflement aigu aigu <maladie infectieuse> : bronchite aiguë aigu <douleur> : souffrance aiguë tendre <aliment> : haricots tendres tendre <couleur> : vert tendre tendre <musique> : chanson tendre 7.2. Reconnaissance et génération par une description en extension 16 Si l'on dresse la liste des éléments lexicaux des classes d'objets, on est en mesure de reconnaître les différents emplois d'un prédicat donné. Ce recensement est long, mais réalisable. Imaginons que nous ayons à déterminer un emploi spécifique de l'adjectif chargé. Nous recherchons son argument. S'il s'agit d'une <voie>, l'adjectif aura comme synonyme encombré ou encore embouteillé et la traduction en anglais sera congested. Cette traduction sera valable pour tous les substantifs de la classe des <voies>: aéroroute, autoroute, autoroute de contournement, autostrade, avenue. Le recensement systématique des <voies> permet donc de prédire un bon synonyme et une traduction adéquate. De même, le verbe prendre est synonyme d'emprunter avec la classe des <moyens de transports en commun>. Si on dresse cette liste, l'équivalence peut être prédite automatiquement du fait de la description en extension de cette classe : autobus, autobus à impériale, autobus à trolley, autocar, autocar d'excursion, autocar long-courrier, train, train de banlieue, train à grande vitesse. Cette équivalence ne vaut pas pour les <moyens de transports individuels> : prendre sa voiture n'est pas l'emprunter. Par plaisanterie, ce dernier verbe peut signifier voler, mais cette interprétation ne vaudrait pas pour les <moyens de transports collectifs>. 7.3. Traitement automatique de la synonymie Dès lors qu'on a reconnu un emploi donné, c'est-à-dire qu'on est en mesure de reconnaître le sens exact d'un prédicat en maîtrisant la nature de ses arguments, on peut traiter de façon efficace le problème de la synonymie. Voici quelques exemples : abattre/n0 :hum/n1 : <arbre>/sy : couper abattre/N0 :hum/N1 :<aéronef> /Sy :descendre abattre/N0 :hum/N1 :<construction> /Sy :démolir abattre/N0 :hum/N1 :hum/Sy :exécuter abattre/N0 :événement/N1 :hum/Sy :démoraliser abattre/N0 :hum/N1 :cartes/Sy :déposer abattre/N0 :hum/N1 :minerai/Sy :détacher abattre/N0 :hum/N1 :<animal de bouch>/Sy : tuer Un travail semblable peut être fait sur les adjectifs (inc est mis pour inanimé concret) : âpre/N0: <voie, terrain>/S: abrupt, escarpé, accidenté âpre/N0: <év.météo> (froid, vent)/S: rigoureux âpre/N0: <saison>/S: rigoureux âpre/N0: <inc>/S: rugueux, râpeux, rêche âpre/N0: <son,voix>/S: rude âpre/N0: <boisson,aliment>/S: âcre, désagréable âpre/N0: <combat,discussion>/S: violent, sévère âpre/N0:<propos,texte>/S: violent, hargneux, agressif, dur Le même type de description rend compte des antonymes : âpre/N0: <voie, terrain>A:plane âpre/N0: <év.météo> (froid,vent)/A: doux, clément âpre/N0: <saison>/A: doux,clément âpre/N0: <inc>/A: lisse,moelleux âpre/N0: <son, voix>/A: agréable âpre/N0: <boisson, aliment>/A: doux,sucré 17 âpre/N0: <combat, discussion>/A:amène âpre/N0:<propos, texte>/A: aimable, indulgent Ces conditions ne sont pas réunies, par exemple, par la fonction « Synonymie » du logiciel Word, comme nous allons le montrer à propos de l'adjectif âpre, pour lequel Word distingue six séries synonymiques (les adjectifs en gras dans la liste suivante, proposée par Word, font l'objet d'un commentaire de notre part) : âpre : accidenté, escarpé, abrupt, raboteux âpre : dur, pénible, austère, cruel, violent, sévère, véhément, rigoureux, rêche âpre : cupide, avide, ardent, vif âpre : âcre, acide, acrimonieux, acerbe, aigre, mordant âpre : agreste, rustique, sauvage, brutal, ladre, rude, revêche L'adjectif rêche est un adjectif du <toucher> qui qualifie des objets comme tissu ou, de façon générale, n'importe quelle surface d'un objet, ce qui n'est pas le cas des autres adjectifs qui figurent dans la même série. Rien ne permet de savoir que l'adjectif rigoureux comme synonyme de âpre relève du domaine de la météo et s'applique soit à des saisons (automne, hiver) soit à des phénomènes météorologiques comme vent ou froid. Les adjectifs violent et véhément sont appropriés à la classe des <combats> et à celle des <discussions>, ce qui n'est pas dit. On ne voit pas non plus pour quelle raison l'adjectif rêche figure dans la même série. Cupide et avide ne sont pas synonymes de âpre tout court mais de l'adjectif composé âpre au gain. Il n'y a aucune indication sur les contextes dans lesquels ardent est synonyme de âpre. Enfin, il est difficile de trouver des classes de substantifs où âpre soit synonyme de agreste, rustique, sauvage. Il est clair que la synonymie est fonction du contexte syntaxique et ne peut pas être établie sur la base d'un mot isolé. 7.4. Intérêt pour la traduction Dès lors que l'on a décrit les opérateurs en notant avec la précision maximale le domaine des arguments, il devient assez facile, dans un dictionnaire électronique, de proposer des équivalents pour la traduction. On aura ainsi : abattre/n0 :h/n :< arbre>/sy : couper/e:to cut down/ d :fällen abattre/N0 :h/N :<aéronef>/Sy :descendre/E:to shoot down/D :abschiessen abattre/N0 :h/N :<construction>cloison/Sy :démolir/E:to pull down/D :abreissen abattre/N0 :h/N1 :h/Sy :exécuter/E:to shoot down/D :erschiessen abattre/N0 :évé/N :h/Sy :démoraliser/E:todemoralize/D :niederdrücken abattre/N0 :h/N :cartes/Sy :déposer/E:to lay down/D :ablegen abattre/N0 :h/N :minerai/Sy :détacher/E:to break away/D : abattre/N0 :h/N :<anim de bouch>/Sy : /E:to break away/D :schlachten où h désigne un substantif humain. Voici un autre exemple : prendre <aliment>/E:to have, eat/D: essen, nehmen prendre <boisson>/E:to have,drink/D: trinken, nehmen prendre <moyen de transport>/E: to take, go by/D: benützen prendre <ville>/E: to capture/D: einnehmen prendre <maladie infectieuse>/E: to catch/D: holen 18 7.5. Traitement des prépositions On sait que pour le traitement automatique des langues et, en particulier pour la traduction automatique, les prépositions présentent des difficultés sans nombre. Les classes d'objets permettent d'éviter beaucoup d'erreurs d'analyse. Le fait d'établir des classes correspondant à chaque préposition permet de lever une foule d'ambiguïtés et vient au secours de l'analyse linguistique, qu'elle rend plus aisée. Voici quelques exemples : à <N temps ponctuel> : à deux heures à <ville> : à Marseille à <ingrédients> : à l'ail, au poivre à <cardinal> : à trois, à quatre à <lieu de travail> : au bureau, au labo à <combustible> : au mazout, à l'électricité à <monnaie> : à cent francs à <moyen de transport animal> : à cheval, à chameau etc. en <matière> : en fer, en plastique en <vêtement> : en pyjama, en veste en <pays> : en France, en Allemagne en <année> : en 1992 en <saison> : en été, en automne en <mois> : en avril, en mai en <moyen de transport en commun> : en avion, en train en <N forme> : en poire, en banane en <couleur> : en rouge, en violet en <langue> : en français, en allemand en <qualité> : en connaisseur, en savant 7.6. Classes d'objets et traitement de l'anaphore Les classes d'objets permettent de détecter automatiquement et de traiter de façon rigoureuse les figures de rhétoriques, qui semblent au premier abord échapper à un traitement mécanique. Pour mettre en lumière la procédure que nous allons utiliser, nous exposerons d'abord le problème de la structuration des classes entre elles. Les classes d'objets ne sont pas décrites en elles-mêmes et de façon isolée, car ce traitement occasionnerait une énorme redondance. Soit la classe des <moyens de transports individuels> (voiture, auto, berline, etc.). Si l'on dresse la liste des opérateurs appropriés à cette classe, on aura des verbes strictement appropriés comme conduire ou garer en position d'objets et démarrer, caler ou être en seconde (vitesse) en position de sujet. Il se trouve que ces verbes s'appliqueraient aussi à tous les <moyens de transports terrestres> : autocar, camion. Pour éviter de répéter les opérateurs appropriés à chaque sous-classe, on établira une hiérarchie des moyens de transports et on attribuera les opérateurs appropriés aux classes super-ordonnées. Les classes « inférieures » hériteront de toutes les propriétés des classes qui les dominent. On évite ainsi les redondances. Ainsi, dans un autre domaine, un terme comme pinot noir héritera de tous les opérateurs appropriés à la classe des vins qui, à son tour héritera de celle des <alcools>, et cette dernière héritera des opérateurs appropriés à celle des <boissons>. Cette hiérarchisation 19 vaut aussi pour les prédicats, qu'ils soient nominaux ou verbaux, comme nous allons le voir. Soit la phrase : L'individu arrêté par la police avait (commis un assassinat, assassiné son voisin). Il est possible de reprendre ces prédicats par une anaphore nominale, dite « fidèle » : L'individu arrêté par la police avait (commis un assassinat, assassiné son voisin). Cet assassinat a été puni de vingt ans de prison. Une première constatation s'impose : l'anaphore est indépendante de la barrière des catégories, ce qui montre l'intérêt d'une description sémantique. Une reprise par une anaphore verbale poserait plus de problèmes, en particulier de nature aspectuelle. Pour anaphoriser des prédicats d'action, une simple répétition verbale (anaphore fidèle) est stylistiquement inappropriée : Paul a assassiné son voisin. Il l'a assassiné par jalousie. Si l'on veut éviter ce qui paraît une telle répétition, on peut penser au verbe faire, que nous avons vu plus haut ou, mieux encore, à un classifieur d'action comme agir : Paul a assassiné son voisin. Il a agi ainsi par jalousie. Quand il s'agit moins d'une action ponctuelle que d'une habitude, l'anaphore peut être prise en charge par la racine comport- : Il nous a fait la tête. (Il se comporte ainsi, il a ce comportement) chaque fois qu'on lui refuse ce qu'il demande. Mais le classifieur super-ordonné le plus évident est ici le mot crime : Il a assassiné son voisin. Ce crime a été puni rapidement. À un niveau plus élevé, on peut trouver un substantif comme geste ou acte : (Ce geste, cet acte), il l'avait fait pour se venger de son patron. On voit que la hiérarchisation des classes permet de générer des anaphores de façon naturelle et aisée. 7.7. Classes d'objets et mécanisme de la métaphore Nous allons montrer comment les classes d'objets permettent de mettre en évidence le mécanisme qui est à la base d'une autre figure de rhétorique : la métaphore. Nous allons illustrer notre analyse par deux exemples. 7.7.1. Moyens de transports « deux roues » Parmi les moyens de transports routiers, on peut isoler la sous-classe des <transports par animal> : cheval, mulet, chameau, âne, etc. Les opérateurs qui leur sont appropriés sont, entre 20 autres : voyager à dos de, faire une promenade à, monter, faire du, être à califourchon sur, se déplacer à dos de, tomber de, faire une chute de. Ces animaux ne sont interprétés comme moyens de transports qu'avec les opérateurs que nous avons mentionnés. D'autres verbes les verseraient dans la classe des animaux de traits : brider, harnacher, atteler, dételer. Observons maintenant le comportement des moyens de transports individuels appelés <deuxroues>. On constate qu'ils ont des opérateurs appropriés communs à la classe précédente : a) À la différence des autres moyens de transports, qui prennent la préposition en : voyager en (bateau, voiture, train), on a ici la préposition à, qui est commune aux transports animaux et aux deux-roues (être, aller, monter, faire un tour) à (cheval, vélo, moto) ; b) on trouve aussi des verbes construits avec la préposition sur : être perché sur (son vélo, son cheval) ; c) les éléments des deux classes sont des compléments naturels du verbe enfourcher : enfourcher (son cheval, son vélo) ; d) de plus, ce sont des compléments de certains prédicats de mouvement : (tomber, faire une chute) de (cheval, vélo, moto). Le mécanisme de la métaphore est donc le suivant : il y a métaphore quand une classe d'objets (ici les <deux-roues>) emprunte les opérateurs appropriés à une autre classe d'objets (les <moyens de transports animaux>). La métaphore est donc une particularité des langues naturelles qui interdit que l'on établisse des arborescences en dehors de la syntaxe. 7.7.2. L'argent et les liquides Les substantifs relevant de la classe d'objets <argent> (dollar, euro) ont comme prédicats strictement appropriés les verbes suivants : coûter/N0 : <inc>/N1 : <argent> dépenser/N0 : hum/N1 : <argent> gagner/N0 : hum/N1 : <argent> perdre/N0 : hum/N1 : <argent> placer/N0 : hum/N1 : <argent>/N2 : Prép Nloc prêter/N0 : hum/N1 : <argent>/N2 : à hum Tous les substantifs qui peuvent figurer en position argumentale avec l'ensemble de ces verbes appartiennent nécessairement à la classe <argent>. Examinons maintenant les prédicats appropriés aux substantifs qui désignent des <liquides>. On prendra comme exemple prototypique le substantif eau. baigner /N0 : hum/N1 : dans <eau>/N2 : couler à flots/N0 : <eau>/N1:/N2 : drainer/N0 : <canalisation>/N1 : <eau>/N2 : Nloc injecter/N0 : hum/N1 : <eau>/N2 : dans <matière> nager/N0 : hum/N1 : dans <eau>/N2 : pomper/N0 : hum/N1 : <eau>/N2 : de Nloc soutirer/N0 : hum/N1 : <eau>/N2 : de <contenant> 21 transvaser/N0 : hum/N1 : <eau>/N2 : de <contenant>/N3 : à <contenant> verser/N0 : hum/N1 : <eau>/N2 : à hum On observera que tous ces opérateurs, appropriés à la classe des <liquides>, s'appliquent aussi aux substantifs de la classe <argent> : baigner /N0 : hum/N1 : dans <argent>/N2 : couler à flots/N0 : <argent>/N1:/N2 : drainer/N0 : <projet>/N1 : <argent>/N2 : injecter/N0 : hum/N1 : <argent>/N2 : dans <entreprise>, <projet> nager/N0 : hum/N1 : dans <argent>/N2 : pomper/N0 : hum/N1 : <argent>/N2 : à hum soutirer/N0 : hum/N1 : <argent>/N2 : à hum transvaser/N0 : hum/N1 : <argent>/N2 : de <compte>/N3 : à <compte> verser/N0 : hum/N1 : <argent>/N2 : à hum La notion d'opérateurs strictement appropriés permet donc de détecter les métaphores d'un texte. 7.7.3. Les relations d'héritage Les relations entre classes sont fondées sur des bases syntaxiques représentées par les liens établis entre les prédicats et les arguments et non des nuages sémantiques sans contours précis, comme le sont les réseaux sémantiques. Nous allons établir une structuration du vocabulaire des <boissons>, avec comme objectif de définir la classe des <vins>. Nous commençons par le niveau le plus élevé, incarné par le terme <boisson>, que nous définissons non pas comme un équivalent de <liquide>, mais comme un liquide destiné à être bu. De ce fait, la classe est définie par les opérateurs suivants : - verbes : boire, siroter, siffler ; - prédicat nominal (aspect itératif) : être buveur de ; - adjectifs : insipide, imbuvable, potable. Les opérateurs que nous venons de donner sont communs à toutes les boissons. Nous mettons ensuite au point la sous-classe des <boissons alcoolisées>, à l'aide des opérateurs : titrer /N0:<alcool>/N1 :[Card] degré(s) avoir [Card] degré(s), avoir une teneur (en alcool) de [Card] degrés. D'autres prédicats s'appliquent aux alcools : cuver/N0 :hum/N1 :alcool picoler /N0 :hum/N1 :alcool enivrer/N0 :alcool/N1 :hum À l'aide d'autres opérateurs, on peut établir des sous-classes, séparant les alcools forts des autres. On créera la classe des <alcools et spiritueux> en se servant d'un verbe comme distiller, qui a la particularité d'avoir en position d'objet la source et le résultat : 22 On distille des prunes. On distille du schnaps. Les deux emplois ne sont cependant pas confondus, du fait des opérateurs généraux des <boissons> dont héritent les alcools, mais non les fruits. Les <vins> sont définis par des prédicats dont le nombre est impressionnant. En voici quelques-uns sur plusieurs centaines : Verbes : décanter/N0:hum/N1: <vin> se madériser/N0: <vin> tirer/N0: hum/N1 :<vin> Adjectifs : aigre/N0:<vin> aigrelet/N0:<vin> âpre/N0:<vin> capiteux/N0:<vin> charpenté/N0:<vin> corsé/N0:<vin> équilibré/N0:<vin> gouleyant/N0:<vin> tuilé/N0:<vin> Il ne faut pas confondre ces adjectifs, qui sont des opérateurs appropriés à l'ensemble des vins, avec un petit nombre d'adjectifs qui désignent des types de vins : vin blanc, vin rouge, vin rosé, vin gris, etc. Certains adjectifs sont strictement appropriés comme gouleyant ou tuilé, d'autres non comme équilibré ou âpre, qui ont d'autres emplois. Mais la classe des <vins> peut être délimitée par une combinaison de prédicats à emplois multiples : un substantif dont on peut dire à la fois qu'il est aigre, corsé et charpenté appartient nécessairement à la classe des <vins>. Ainsi pour mettre au point l'arborescence qui mène au <vin>, on part du niveau le plus élevé de la notion de <concret>. À ce titre, les substantifs désignant des <vins> héritent de toutes les propriétés générales des concrets : poids, volume, couleur, etc. Le second embranchement séparera les liquides des objets solides. Pour les définir, on aura des verbes comme verser, couler, déborder, imbiber, s'égoutter et des adjectifs comme dense, fluide, huileux. Parmi ces liquides, on séparera les objets naturels (eau, eau de pluie, eau de source) des artefacts à l'aide des prédicats suivants : fabriquer, réaliser, mettre au point, produire, etc. On distinguera alors parmi les liquides les boissons, etc. Un tel travail descriptif est d'abord un problème de linguistique plus que de représentation informatique. 8. Classes d'objets et conjugaison des prédicats nominaux 8.1. Une conjugaison lexicale Les prédicats nominaux sont définis, comme les prédicats verbaux, par un domaine d'arguments et par leur inscription dans le temps (conjugaison). En français, et dans la plupart des langues indo-européennes, la conjugaison verbale est suffixale, mais on sait qu'à l'origine, elle était aussi de nature lexicale. Certaines désinences verbales, en particulier celle 23 de l'imparfait –ais et celle du futur –ai, sont des résidus d'anciennes formes du verbe avoir. Cette analyse s'appliquait déjà au latin. En se réduisant à des désinences, ces verbes perdent leur autonomie syntaxique et ne conservent que les indications temporelles réduites à des marqueurs morphologiques. La conjugaison nominale n'a pas atteint ce stade. Les noms prédicatifs sont actualisés par un type particulier de verbes, appelés verbes supports. Ceux-ci précèdent le prédicat nominal, de sorte que, sur le plan strictement superficiel, il n'y a pas de différence dans les séquences catégorielles entre une phrase à prédicat verbal et une autre à prédicat nominal. Cependant les verbes supports ont des propriétés totalement différentes des prédicats verbaux, comme nous le montrerons dans ce qui suit. 8.2. Différences syntaxiques entre un verbe support et un verbe prédicatif Soit les deux phrases : Paul a donné une gifle à Jean. Paul a donné un livre à Jean. Dans l'analyse classique, on affirme que dans les deux cas le verbe donner a trois arguments : un sujet (Paul), un complément direct (respectivement livre et gifle), un complément indirect second introduit par la préposition à (Jean). Mais c'est passer sous silence de grandes différences : - - - - - le complément direct livre est un substantif concret tandis que gifle est abstrait ; le déterminant est à peu près libre avec le substantif livre, tandis qu'il existe de fortes contraintes sur le déterminant de gifle : les quantifieurs y sont possibles Paul a donné (deux, trois, plusieurs) gifles à Jean, mais non le défini : *Paul lui a donné la gifle, ni certains possessifs : *Paul lui a donné (ma, ta, notre) gifle ; la pronominalisation de livre (Ce livre, Paul l'a donné à Jean) est naturelle, ce qui n'est pas le cas avec gifle : ?Cette gifle, Paul la lui a donnée ; l'interrogation en que est naturelle quand elle porte sur le complément concret mais non sur l'abstrait : Qu'est ce que Paul lui a donné ? – Un livre, *une gifle ; le verbe donner peut être nominalisé dans la première phrase, c'est-à-dire quand il est prédicatif mais non dans la seconde : Paul lui a fait don d'un livre ; *Paul lui a fait don d'une gifle ; le complément en à N semble dépendre du substantif gifle dans la première phrase mais non de livre dans la seconde : la gifle de Paul à Jean ; *le livre de Paul à Jean ; le substantif gifle est associé au verbe gifler, de sorte qu'en gros donner une gifle est synonyme de gifler. On dira que le prédicat, i.e. le mot qui sélectionne les arguments, n'est pas le verbe donner mais le substantif gifle ; la seconde phrase n'est donc pas une phrase à trois arguments mais à deux seulement, selon le schéma suivant : gifle (Paul Jean) et le verbe donner n'est pas un prédicat mais un verbe qui « conjugue » le prédicat nominal gifle. Nous appelons ce type de verbes des verbes supports. 8.3. Statut théorique des verbes supports Les verbes supports peuvent être définis théoriquement de la façon suivante : 24 a) Leur propriété essentielle est d'actualiser les prédicats nominaux. Dans une phrase comme Paul a fait un voyage à Rome, ce n'est pas le verbe faire qui sélectionne les arguments mais le substantif voyage, qui est le prédicat de la phrase. Le verbe faire « conjugue » ce substantif prédicatif, l'inscrit dans le temps. b) Il découle de là que le verbe support peut être effacé dans une phrase, sans que celle-ci perde son statut de phrase : l'actualisation seule sera absente. Cet effacement se fait par l'intermédiaire d'une phrase relative : Paul a fait un voyage à Rome. le voyage que Paul a fait à Rome le voyage de Paul à Rome L'effacement de l'actualisation s'observe aussi avec les prédicats verbaux : on a alors une réduction infinitive : j'ai entendu descendre Paul où le verbe de la complétive ne porte pas de marque d'actualisation mais hérite de celle du verbe de la principale j'ai entendu. c) Les transformations morphologiques (nominalisation, adjectivation, « verbalisation ») sont le fait des prédicats. Les verbes supports ne peuvent faire l'objet d'un changement de catégorie. Les supports être, faire, avoir n'ont jamais de forme nominale. Donner n'est nominalisable que lorsqu'il est prédicatif. Luc a donné une pierre précieuse à Léa Luc a fait don d'une pierre précieuse à Léa Le don d'une pierre précieuse est un geste symbolique. Luc a donné un conseil à Paul. Luc a fait don d'un conseil à Paul. *Le don d'un conseil n'est que de l'hypocrisie. d) On a pensé pendant longtemps que les verbes supports avaient pour fonction d'être des agents de nominalisation (cf. J. Giry 1978). Le support faire permet ainsi au verbe voyager de prendre une forme nominale voyage : Paul a voyagé. Paul a fait un voyage. Cette fonction de nominalisation des verbes supports n'est pourtant pas une propriété définitionnelle, car il existe à peu près deux fois plus de prédicats nominaux « autonomes » qu'il n'y en a de déverbaux : Paul a fait un tour en Italie. Paul a fait une sottise. e) Comme les verbes supports actualisent les prédicats nominaux, ils prennent en charge, en outre, les informations aspectuelles qui peuvent les caractériser. Paul fait une tournée de conférences. 25 Paul entame une tournée de conférences. Paul a fait une bêtise. Paul multiplie les bêtises. 8.4. Une conjugaison qui repose sur des classes sémantiques Pour bien des raisons (enseignement du français comme langue seconde ou analyse automatique de textes), il est important d'être en mesure de prédire la conjugaison de tous les prédicats. Or, à la différence des verbes, le choix du support est directement lié à la nature sémantique du prédicat nominal. La conjugaison nominale est directement dépendante des classes d'objets. On est donc contraint à sous-catégoriser les substantifs. La première arborescence est celle qui sépare les prédicats nominaux en trois hyperclasses : les actions, les états, les événements. À chacune de ces classes correspondent respectivement des supports génériques faire (un travail), avoir (une bonne santé) et avoir lieu (un match aura lieu ce soir). Plus de 60% des prédicats nominaux peuvent être conjugués de la sorte. Il suffit pour eux de coder cette propriété sémantique et on générera la conjugaison adéquate : Paul a fait un voyage en Italie. Paul a un bon caractère. Un tremblement de terre a eu lieu en Turquie. Les autres prédicats nominaux, il s'agit de plusieurs dizaines de milliers de substantifs, ont des supports appropriés qui sont fonction de leur classe sémantique. Ainsi les prédicats de <coups>, qui sont incontestablement des actions, sont actualisés par le support donner : (*faire, donner) une claque à Nhum. De même, faire est très peu naturel avec les actions techniques, qui prennent procéder à (*faire, procéder à) le tirage au sort du gagnant ; (*faire, procéder à) l'arrestation du meurtrier. Le substantif conclusion ne prend pas le support générique faire, il est actualisé par le verbe tirer, qui lui est strictement approprié : Luc a conclu que Paul avait tort ; Luc a tiré la conclusion que Paul avait tort. 8.5. Verbes supports et classes de prédicats Nous venons de voir que, pour conjuguer les prédicats nominaux, on ne peut pas se contenter de classer les prédicats nominaux en actions, états et événements, mais qu'il faut mettre au point les sous-classes (classes d'objets) auxquelles ils appartiennent. Le nombre de ces classes n'est pas connu à l'heure actuelle. Leur dénombrement permettra de mettre au point un « Bescherelle » des prédicats nominaux (voir plus loin). Voici, à titre d'illustration, quelques-unes de ces classes. Nous mettons les supports en italique et nous donnons entre parenthèses des substantifs prédicatifs à titre d'exemples. 8.5.1. Actions Action générale : déployer (activité), effectuer (un repli), effectuer (voyage, tour) Action sur N : exercer (tyrannie, pression) Aides : accorder (une faveur à), allouer (allocation), apporter (aide), attribuer (subvention), prêter (aide, concours), prêter (attention) Attitude : arborer (sourire) Combats : engager (combat, conversation), mener (combat, guerre), livrer (bataille, combat), mener (opérations, interventions) 26 Comportements : épouser (une attitude, un comportement), faire preuve de (courage) Cours-enseignement : dispenser (enseignement), donner (cours) Crimes : commettre (crime, forfait), consommer (crime), perpétrer (crime) Coups : administrer (gifle, baptême), allonger (gifle), asséner (un coup), bourrer (qqn. de coups), crépiter (coups), décocher (coup), distribuer (claques), filer (claque, gifle), flanquer (gifle, coup), foutre (gifle, claque), passer (coup, gifle), porter (coup, estocade, attaque) Cris : émettre (cri, soupir), jeter (regard, cri), lancer (cri), pousser (cri, barrissement) Décision : prendre (décision) Gestes : esquisser (geste, sourire), lancer (signe, sourire) Opposition : opposer (fin de non-recevoir), opposer (refus) Opérations chirurgicales : pratiquer (opération, endoscopie), pratiquer (une incision) Paroles : adresser (un salut à), égrener, élever (des protestations), formuler (un souhait), hasarder (une réplique), infliger (démenti), jeter (défi), lever (objection, protestation), passer (coup de fil), prodiguer (conseils), proférer (des propos), soulever (une objection), tenir (discours, propos), tirer (conclusion), trousser (compliment) Ordres : brailler (un ordre), donner (ordre), gueuler (un ordre), hurler (un ordre), intimer (un ordre) Punition : infliger (défaite) Questions : poser (questions) Perception : jeter (regard, défi), porter (regard (adj) ) Recherches, enquêtes : mener (enquête, recherches) Sentiments : avoir (peur, respect), baigner dans (joie, bonheur), bouillonner (de colère), brûler (d'amour), cajoler (un rêve), caresser (désir, projet, rêve), déborder (d'affection), éprouver (joie, plaisir), nourrir (amour, haine), plonger dans (malheur), ressentir (douleur, joie, tristesse), sombrer dans (mélancolie) Changements : négocier (un virage ), opérer (un changement) 8.5.2. États Propriétés assurer (responsabilité), partager (défauts), porter (accent, accent grave), porter (blessure à Npc), porter (intérêt ), porter (nom, dénomination), porter (responsabilité), posséder (qualités), être doté (force), être doué de (facultés) États événementiels accuser (la fatigue), afficher (recul, changement), afficher (santé resplendissante, excédent de), connaître (un regain de, une montée de, déclin), enregistrer (des changements), être sujet à (vertige), manifester (des signes de fatigue), présenter (symptômes, des signes de fatigue), respirer (la santé), révéler (un taux de N), traduire (une baisse de rythme) 8.5.3. Événements Le français a comme particularité que tous les événements, quelle que soit leur nature, peuvent être actualisés par le support avoir lieu : un séisme a eu lieu dans l'océan Indien ; une cérémonie commémorative a eu lieu aux Invalides. Une première sous-classification sépare les événements « fortuits » des événements « organisés ». Les premiers prennent le support se 27 produire : un séisme s'est produit dans l'océan Indien et les seconds se dérouler : une cérémonie commémorative s'est déroulée aux Invalides. Voici une petite liste de supports correspondant à des sous-classes d'événements : (malheur) advenir ; (signes) apparaître ; (accident) arriver ; (conflit) éclater ; se faire (silence), se passer (tractation) ; (trêve) intervenir ; (difficultés) naître : (troubles) s'annoncer ; (paix) se faire ; (difficultés) se faire jour ; (empêchements) se former ; (obstacles) se lever ; (symptômes) se manifester ; (obstacles) se produire ; (insuffisances) se révéler ; (difficultés) surgir ; (incident) survenir ; ( défaillances) venir au jour. 8.6. Variantes de verbes supports On appelle variantes libres des verbes supports qui n'apportent, par rapport aux supports considérés comme standards, aucune information spécifique, comme des changements aspectuels et des modifications de structures. Paul a fait un voyage à Rome. Paul a effectué un voyage à Rome. Paul a fait un exploit. Paul a accompli un exploit. Ces variantes sont à peu près équivalentes du point de vue du niveau de langue et de l'aspect. 8.7. Verbes supports et niveaux de langue Certaines variantes relèvent d'une différence de niveau de langue. Ainsi le support donner avec gifle peut être paraphrasé par des verbes comme administrer, filer, flanquer, foutre, allonger, etc. De même, avec les prédicats de <don> ou de <secours>, on aura une petit paradigme comme donner, accorder, attribuer. 8.8. Verbes supports métaphoriques À côté de verbes supports basiques ou élémentaires, on trouve des supports « lourds » de nature métaphorique : Paul (a, éprouve, ressent) de l'amour pour Marie. Paul (a, caresse) l'espoir de réussir. Voici d'autres exemples : apporter/aide ; brosser/ tableau ; cajoler/rêve ; caresser/désir, projet, rêve ; consommer/crime ; déployer/activité ; effectuer/voyage, tour ; entretenir/ relations avec ; filer/claque, gifle ; jeter/cri ; jeter/regard à qqn ; lancer/regard ; lancer/cri, appel ; lancer/défi ; lancer/signe, sourire ; négocier/ virage ; porter/attention ; porter/regard + adj ; prendre/bain ; prendre/décision ; prêter/aide, concours ; prêter/attention. Ces verbes sont de nature métaphorique et ont un fonctionnement de verbes supports. Cependant, ils mériteraient une étude qui mettrait en évidence s'ils ont exactement les mêmes propriétés que les supports standards. 28 8.9. Verbes supports et passif Les verbes déponents du latin comme admirari ne peuvent pas prendre de désinence de passif, car ils en ont déjà formellement une. Le latin procède alors à une forme supplétive en habere : Paulus admiratur Marcum. Marcus habet admirationem Pauli. Nous ne sommes pas en mesure de dire combien de verbes sont concernés par cette construction en latin. Elle existe aussi en français, où nous avons des données plus précises. Nous indiquons ici le couple formé par le verbe support actif et le support passif : Donner/recevoir : Luc a giflé Paul. Paul a été giflé par Luc. Luc a donné une gifle à Paul. Paul a reçu une gifle (de le part de + de) Luc. faire/recevoir : Luc a fait un salut à Paul. Paul a reçu un salut de Luc. Luc a fait des compliments à Paul. Paul a reçu des compliments de Luc. faire/subir Luc a fait des vexations à Paul. Paul a subi des vexations de la part de Luc. infliger/subir Luc a infligé un camouflet à Paul. Paul a subi un camouflet de la part de Luc. Luc a infligé un échec à Paul. Paul a subi un échec de la part de Luc. exercer/subir Luc a exercé de fortes pressions sur Paul. Paul a subi de fortes pressions de la part de Luc. avoir/avoir 29 Luc a du respect pour cette attitude. Cette attitude a le respect de Luc. Procéder à/faire l'objet de On procède alors au nettoyage complet de la piste. La piste fait alors l'objet d'un nettoyage complet. Voici quelques autres supports passifs : bénéficier de (prêt), écoper de (punition), encaisser (coups), endurer (souffrance), essuyer (échec, défaite), être l'objet de (critiques), obtenir (une subvention), palper (une subvention), prendre (gifle, coup), ramasser (coups). Le passif nominal concerne en français plus de cinq mille substantifs, ce qui veut dire qu'il est numériquement plus important que le passif verbal, qui concerne environ deux mille verbes. 8.10. Verbes supports et aspect Nous avons vu jusqu'à présent que la fonction première des verbes supports est d'inscrire les prédicats nominaux dans le temps. Certains supports apportent, en outre, des informations aspectuelles. On trouvera dans ce qui suit un certain nombre d'exemples. 8.10.1. L'inchoatif Si l'on part de l'exemple suivant : Paul fait une étude sur la vinification, on peut remplacer le support faire par d'autres verbes qui prennent en charge l'aspect inchoatif : Paul (commence, entame, entreprend) une étude sur la vinification Cependant commencer et entreprendre ne sont pas des supports mais des auxiliaires, car ils sont compatibles avec un (vrai) support. Or, deux supports ne peuvent pas figurer ensemble dans une même phrase : Paul commence à faire une étude sur la vinification. Paul entreprend de faire une étude sur la vinification. *Paul entame de faire une étude sur la vinification. Paul entame une étude sur la vinification. Nous considérons donc entamer comme seule forme inchoative de faire dans les exemples cidessus. Voici d'autres exemples d'inchoatifs de nature diverse : Luc (fait, esquisse) un geste de protestation. Luc (fait, esquisse) une grimace. Luc (a, entame) des négociations avec Paul. Cette pratique (est, tombe) en désuétude. Luc (fait, débute) un tour de chant. Luc (traite, aborde) un sujet délicat. Luc (fait, ébauche) un plan de la ville. 30 La liste des supports inchoatifs est assez conséquente : aborder (la trentaine), accéder à (la sagesse), acquérir (une capacité), adopter (attitude), amorcer (geste), attaquer (un travail), attraper (grippe), embrasser (une croyance), entonner (chant), prendre/perdre (poids, assurance). Les états et les événements ont eux aussi des supports inchoatifs. 8.10.2. Le progressif La notion de progression ou de déroulement d'une action ou d'un événement est prise en charge par des supports spécifiques. On fera ici la même distinction entre verbes auxiliaires et verbes supports : Luc fait l'ascension du Mont Blanc. Luc (continue, poursuit) l'ascension du Mont Blanc Luc (continue, *poursuit) de faire l'ascension du mont Blanc Luc poursuit (la, son) ascension du mont Blanc La forme pronominale se poursuivre traduit l'aspect progressif des prédicats événementiels : Il y a un conflit entre ces deux personnes. Le conflit entre ces deux personnes se poursuit. En voici d'autres concernant à la fois les actions, les états et les événements : perdurer (grève), garder (calme), garder (souvenir, sentiment), persévérer (dans son N), persister (symptômes), poursuivre (travail, recherches), conserver (son calme). 8.10.3. Le terminatif Les verbes suivants peuvent être considérés comme des supports « terminatifs » : interrompre, suspendre : *Luc a interrompu de faire son travail. Luc a interrompu son travail. Luc a suspendu les hostilités contre ses voisins. Quand un prédicat nominal est caractérisé par un aspect terminatif, il existe des contraintes sur sa détermination : l'indéfini est difficile dans ce cas : ?Luc a suspendu des hostilités. Ces restrictions s'observent aussi avec le verbe perdre (cf. R. Vivès 1983) qui traduit plutôt que l'aspect terminatif le fait que l'état ou le procès sont révolus : Luc a de la bonne humeur *Luc a perdu de la bonne humeur Luc a perdu (E, de) sa bonne humeur où le possessif renvoie à un sujet coréférent sous-jacent que l'on peut reconstituer : Luc a perdu la bonne humeur qu'il avait. 31 On peut ranger dans cette classe les emplois suivants : abandonner (son arrogance), aboutir (échec), atteindre (but), baisser (pression, poids), boucler (travail, randonnée), disparaître (symptômes), perdre (respect, souvenir). 8.10.4. L'itératif Il existe des supports spécifiques, munis du préfixe re- qui ont la particularité de ne pas avoir d'existence autonome : Luc a lancé un appel à Paul. Luc a (réitéré, *itéré) son appel à Paul. Luc a fait une demande au ministère. Luc a (renouvelé, *nouvelé) sa demande au ministère. Les verbes suivants ne peuvent pas non plus être analysés comme ayant un préfixe : Luc a donné des conseils à Paul. Luc a ressassé ses conseils à Paul. Luc a (donné, adressé) un avertissement à Paul. Luc a rabâché son avertissement à Paul. Luc a seriné des avertissements à Paul. Luc a multiplié les mises en garde à Paul. Les supports qui véhiculent une interprétation fréquentative imposent aux prédicats nominaux et à leur détermination certaines restrictions. Avec multiplier le substantif prédicatif est obligatoirement au pluriel, avec une interprétation anaphorique : Luc a fait une mise en garde à Paul. Luc a multiplié (*des, les) mises en garde à Paul. 8.10.5. L'intensif-multiplicatif I. Mel'cuk (1988) a attiré l'attention sur l'importance linguistique de l'expression du haut degré en dégageant sa « fonction lexicale » magn. Cet aspect concerne à la fois les actions, les états et les événements. Le verbe support qui actualise les coups est naturellement le verbe donner : Luc a donné un coup à Paul. Le verbe asséner est interprété comme un intensif par rapport à donner. De même, les prédicats de <sentiments> prennent pour la plupart le support avoir. La notion de haut degré est prise en charge par une grande diversité de verbes en fonction des différents types de sentiments. En voici quelques exemples : joie (avoir, être de/déborder de, être inondé de) peur (avoir/trembler de) amour (avoir/déborder de) ingratitude (avoir/être un monstre) Les supports itératifs sont nombreux et diversifiés : abreuver de (conseils, reproches), accabler de (reproches), accumuler (les bêtises), aligner (les échecs), arroser (qqn de 32 subventions), asperger (qqn de subventions), assaillir (malheurs), bombarder (qqn de conseils), capitaliser (des avantages), cumuler (défauts, inconvénients), déverser (des tonnes d'injures sur), fourmiller (de fautes), gaver (qqn de conseils), marteler (mots, propos), rabâcher (propos). 8.10.6. Le télique Un substantif comme sérénité est neutre par rapport à l'opposition que nous venons de faire. Une phrase comme : Luc est d'une grande sérénité traduit un état indépendamment d'un éventuel événement antérieur, on dira qu'il s'agit d'un état stable. Certains adverbes accentuent cette interprétation : Luc est naturellement d'une grande sérénité Luc est d'une sérénité naturelle Si l'on veut attribuer à sérénité un aspect télique, on aura recours au support atteindre (à), trouver : Luc a atteint la sérénité Luc a trouvé la paix en quelques instants 8.11. Problèmes de traduction : le cas de l'italien et de l'espagnol Nous avons dit plus haut que toutes les langues ont des verbes supports. Il est intéressant d'examiner de ce point de vue des langues génétiquement proches comme le français, d'une part, et l'italien et l'espagnol, de l'autre. Nous mettrons en évidence les similitudes et les différences. Ces informations nous ont été fournies par M. Prandi (Bologne) et R. Simone (Rome 3) pour l'italien et par José Luis Herrero (Salamanque) et à Xavier Blanco (Barcelone) pour l'espagnol. 8.11.1. Italien Voici quelques exemples où l'italien et le français ont choisi les mêmes supports : Actions : adopter une attitude/adottare une attegiamento caresser un rêve/accarezzare un sogno commettre un crime/commettere un delitto donner un ordre/dare un ordine emettre un cri/emmettere un grido faire une description/fare une descrzzione pratiquer une opération/praticare une operazione États accuser la fatigue/accusare la stanchessa avoir peur/avere paura brûler d'amour/ardere d'amore éprouver de la joie/provare gioia 33 nourrir de l'amour/nutrire amore porter un nom/portare un nome Événements avoir lieu/avere luogo courrir un danger/correre un pericolo On observe ensuite deux supports italiens pour un support français : apporter de l'aide/portare, dare aiuto lancer (signe, sourire)/mandare un segno, fare un sorriso Verbes supports différents : Les supports peuvent reposer sur des métaphores différentes : abreuver de conseils/inondare di consigli déverser des injures/vomitare insulti essuyer un échec/incassare uno sacco négocier un virage/prendere une curva pleuvoir des coups/grandinare colpi seriner des propos/ripetere Voici des supports différents : accorder une faveur/fare un favore livrer (combat, bataille)/dare battiglia mener (combat, bataille)/condurre une guerra passer contrat/firmare un contratto passer un coup de téléphone/fare une telefonata passer un coup/dare un schiaffo prendre un bain/fare un bagno 8.11.2. Espagnol Voici des cas où une traduction littérale en espagnol du verbe support français serait inadéquate : arriver un malheur = (*llegar / suceder) una desgracia assurer une responsabilité = (*asegurar / asumir) una responsabilidad écoper d'une punition = (*achicar / (recibir + sufrir) un castigo éprouver de la joie = (*probar / (sentir + experimentar una _ Modif) felicidad faire attention = prestar atención / *hacer atención faire preuve de courage = *hacer prueba de valor / mostrar valor faire un bisou = (dar / *hacer) un beso faire un pas = (dar / *hacer) un paso faire une promenade = (dar / *hacer) un paseo filer une gifle = (*hilar / (meter + arrear + soltar) una bofetada (fam.) passer un contrat = (*pasar / (firmar + cerrar) un contrato 34 passer un coup de fil = (*pasar / hacer) una llamada Dans les exemples suivants, une traduction littérale de l'espagnol vers le français serait source d'erreurs : albergar dudas = *héberger des doutes barajar una hipótesis = *battre (comme on bat les cartes) une hypothèse cabe la posibilidad = *la possibilité ne tient pas/il y a une possibilité conciliar el sueño = *concilier le sommeil" (arriver à s'endormir) esgrimir un argumento = brandir (comme on brandit une épée) un argument estampar su firma = *estamper sa signature" apposer sa signature evacuar consultas con = *évacuer des consultations avec gastar una broma = *dépenser une blague girar una visita a unas instalaciones (soutenu) = *tourner une visite à des équipements largar un discurso (fam.) = *larguer/débiter un discours llamar la atención de alguien = *appeler/attirer l'attention de qqn On voit que dans des langues aussi apparentées génétiquement que les langues latines, il est impossible de traduire littéralement les verbes supports. 8.12. Intérêt linguistique de la notion de verbe support La notion de verbe support ainsi définie est d'une grande importance dans l'architecture générale de l'analyse syntaxique, car elle permet : a) de montrer qu'il existe une conjugaison nominale, parallèle à celle des verbes, et qui apporte aux prédicats nominaux les informations de temps et d'aspect ; b) de rendre compte d'emplois différents de prédicats nominaux : comme nous le verrons plus loin, le même prédicat nominal regard n'a pas le même sens selon les différents supports qui peuvent l'actualiser ; c) de montrer, par leur effacement possible, la constitution interne des groupes nominaux : Jean a donné une réponse à cette question, la réponse que Jean a donnée à cette question, la réponse de Jean à cette question ; d) d'expliquer la forme de la préposition dans un groupe nominal : avoir de l'admiration pour N être en admiration devant N être supérieur à N avoir de la supériorité sur la supériorité de N sur N e) de former des passifs avec des prédicats nominaux ; f) de permettre des constructions réciproques de prédicats nominaux : Paul et Jean se sont donné des coups. 35 Paul et Jean ont échangé des coups. g) d'analyser le possessif, qui n'est qu'une forme anaphorique des génitifs subjectifs ou objectifs : Luc a le désir de réussir le désir que Luc a de réussir le désir de Luc de réussir son désir de réussir Je connais la réponse que Luc a donnée Je connais la réponse de Luc Je connais sa réponse h) d'expliquer la formation des locutions conjonctives : Luc a dit cela avec le but de convaincre Luc a dit cela : il avait le but de convaincre Luc a dit cela avec le désir de convaincre Luc a dit cela : il avait le désir de convaincre Luc a dit cela : il désirait convaincre Luc a dit cela : il était désireux de convaincre 8.13. Un Bescherelle des noms prédicatifs Si l'on parle de conjugaisons à propos des noms prédicatifs, il est raisonnable de penser qu'on peut les présenter sous forme de paradigmes, ce que fait un manuel comme le Bescherelle pour les verbes. Nous proposons ici une structuration possible d'une telle description pour les substantifs prédicatifs. Les informations pertinentes concernent : - les relations temporelles ; les propriétés aspectuelles ; les déterminants des prédicats nominaux. Voici les paramètres et une grille d'analyse : 1. Classes des <Nx > 2. Verbes supports de base 3. Verbes supports appropriés 4. Verbes supports passifs 5. Verbes supports réciproques 6. Déterminants 7. Verbes supports aspectuels Inchoatif Intensif Itératif Itératif-intensif 36 Progressif Terminatif 8. Construction événementielles Nous proposons ici la description de quelques classes. Nous séparerons les actions des états et des événements. 8.13.1. Actions Classes des <accords> : accord, alliance, convention Verbes supports : faire Verbes supports appropriés : passer, réaliser Verbes supports passifs : obtenir, avoir Verbes supports réciproques : Déterminants : quantifieurs, indéfinis Verbes supports aspectuels : Inchoatif : engager, contracter Intensif : Itératif : multiplier, renouveler Itératif-intensif : Progressif : entretenir, poursuivre Terminatif : trouver, parvenir à, aboutir arriver à, établir Constructions événementielles : intervenir, naître, intervenir, aboutir Classes des <accusations> : accusation, critique, attaque Verbes supports : faire Verbes supports appropriés : porter, former, lancer, formuler, tenir, jeter, adresser, prononcer, jeter à la tête Verbes supports passifs : subir, faire l'objet de, souffrir, recevoir, essuyer, encourir Verbes supports réciproques : échanger Déterminants : indéfinis, un-modif, le-modif Verbes supports aspectuels : Inchoatif : engager, déclencher, forger Intensif : renforcer Itératif : répéter, renouveler, multiplier, réitérer Itératif-intensif : accabler Nhum de, accumuler Progressif : poursuivre, prolonger, maintenir Terminatif : abandonner, lever, interrompre, mettre un terme à Constructions événementielles : avoir lieu Classes des <ascendant> : ascendant, autorité, empire, emprise, influence, mainmise, pouvoir, domination Verbes supports : avoir, posséder Verbes supports appropriés : exercer Verbes supports passifs : subir Verbes supports réciproques : Déterminants : 37 Verbes supports aspectuels : Inchoatif : acquérir, établir, prendre, trouver Intensif : posséder Itératif : retrouver, reprendre Itératif-intensif : Progressif : accroître, augmenter, garder, accentuer, conserver, renforcer Terminatif : perdre Constructions événementielles : exister Classes des <bruits vocaux> : cri, hurlement, râle Verbes supports : faire, avoir Verbes supports appropriés : pousser, lancer, émettre, jeter, exhaler, lâcher, proférer, répandre, élever, proférer, élever, laisser échapper Verbes supports passifs : Verbes supports réciproques : Déterminants : quantifieurs, un-modif Verbes supports aspectuels : Inchoatif : élever Intensif : Itératif : répéter, multiplier Itératif-intensif : Progressif : poursuivre, prolonger Terminatif : interrompre, étouffer, contenir, étrangler Constructions événementielles : il y a, s'élever, retentir, éclater, fuser 8.13.2. États Classes des <responsabilités > : responsabilité Verbes supports : avoir Verbes supports appropriés : porter, exercer, assumer, détenir, tenir Verbes supports réciproques : partager Déterminants : le-modif, un-modif Verbes supports aspectuels : Inchoatif : endosser, encourir Intensif : Itératif : Itératif-intensif : Progressif : conserver, garder Terminatif : abandonner, échapper à, perdre Constructions événementielles : Classes des <retards > : retard Verbes supports : avoir, connaître Verbes supports appropriés : accuser, afficher, enregistrer, subir, marquer, annoncer Verbes supports réciproques : Déterminants : un-modif 38 Verbes supports aspectuels : Inchoatif : prendre Intensif : Itératif : Itératif-intensif : accumuler Progressif : augmenter Terminatif : réduire Constructions événementielles : s'établir, s'installer, apparaître, se creuser Classes des <sentiments envers autrui > : admiration, amour, haine, jalousie Verbes supports : avoir Verbes supports appropriés : porter, éprouver, ressentir, nourrir Verbes supports réciproques : se porter, se vouer Verbes supports passifs : encourir, faire l'objet de Déterminants : un-modif Verbes supports aspectuels : Inchoatif : concevoir Intensif : vouer à Itératif : Itératif-intensif : baver (d'admiration), brûler (d'amour), pâlir (d'envie), crever (de haine, de jalousie) Progressif : Terminatif : perdre Constructions événementielles : Classes des <sentiments orientés vers le futur> : ambition, désir, espoir Verbes supports : avoir, éprouver Verbes supports appropriés : caresser, nourrir Verbes supports passifs : Verbes supports réciproques : partager Déterminants : indéfinis, un-modif, le-modif Verbes supports aspectuels : Inchoatif : concevoir Intensif : Itératif : Itératif-intensif : brûler de N Progressif : garder, poursuivre, conserver Terminatif : abandonner, perdre, Constructions événementielles : il y a chez Nhum le N<sentimfutur> 13.3.3. Événements Classes des <crises > : crise, crise économique, crise financière Verbes supports : avoir lieu, y avoir, exister Verbes supports appropriés : intervenir, se produire, survenir, se manifester Déterminants : un, un-modif 39 Verbes supports aspectuels : Inchoatif : naître, arriver, se déclarer, apparaître, émerger Imminent : s'approcher, se profiler (à l'horizon), approcher, rôder Intensif : s'instaurer Itératif : se succéder, se multiplier, réapparaître Itératif-intensif : s'exacerber Progressif : s'aggraver, continuer, se développer, s'amplifier, se prolonger, s'enliser, se résorber, progresser, persister, s'envenimer, s'intensifier Terminatif : prendre fin, s'achever, finir, cesser Causatifs : provoquer, déclencher, désamorcer, dénouer, créer, mettre un terme à, mettre fin à, susciter, enrayer, remédier à, engendrer, entretenir, endiguer, approfondir Autres sujets : subir, avoir, connaître, faire face à, être confronté à, souffrir de, affronter, entrer en, plonger dans, passer par, enregistrer, aborder Classes des < dangers> : danger, risque Verbes supports : avoir lieu, y avoir, exister Verbes supports appropriés : Déterminants : du, un-modif, indéfinis Verbes supports aspectuels : Inchoatif : menacer, survenir, pointer, apparaître, poindre, approche, surgir Intensif : Itératif : revenir, reprendre Itératif-intensif : augmenter, diminuer, reculer, s'éloigner Progressif : continuer, demeurer, planer sur, grossir Terminatif : cesser, passer Classes des < fêtes> : Verbes supports : avoir lieu, y avoir, Verbes supports appropriés : se dérouler, arriver Déterminants : un, un-modif Verbes supports aspectuels : Inchoatif : commencer Intensif : culminer Itératif : Itératif-intensif : Progressif : durer, se prolonger, se poursuivre Terminatif : finir, se terminer, cesser Causatifs : organiser, donner, célébrer, préparer Classes des <incendies > : incendie Verbes supports : avoir lieu, y avoir, se produire Verbes supports appropriés : Déterminants : un, un-modif, Verbes supports aspectuels : Inchoatif : se déclencher, se déclarer Intensif : faire rage Itératif : se multiplier 40 Itératif-intensif : Progressif : se propager, continuer, s'étendre, Terminatif : s'éteindre, prendre fin, s'arrêter Classes des < odeurs> : odeur Verbes supports évé : avoir lieu, y avoir, flotter, régner, émaner de, se répandre, s'élever, s'évaporer Verbes supports états : avoir, exhaler, répandre, dégager, posséder, produire, échapper de Verbes supports appropriés : Déterminants : un, un-modif, un-de N Verbes supports aspectuels : Inchoatif : arriver Intensif : Itératif : reprendre Itératif-intensif : Progressif : garder, traîner, rester, persister, se conserver, reculer Terminatif : perdre, mourir, se dissiper Classes des <obstacles > : obstacle Verbes supports : avoir lieu, y avoir Verbes supports appropriés : se présenter, arriver, se dresser, arriver, survenir Déterminants : un, un-modif, numéral Verbes supports aspectuels : Inchoatif : se lever, paraître, apparaître, poindre Intensif : Itératif : se multiplier Itératif-intensif : Progressif : rester, demeurer, subsister Terminatif : disparaître, tomber, cesser d'être Causatifs : dresser, mettre, faire, vaincre, réduire, élever, aplanir, susciter, opposer, écarter, enlever, ôter Classes des <épidémies > : épidémie, pandémie Verbes supports : avoir lieu, y avoir Verbes supports appropriés : se manifester Déterminants : un, un-modif, un- de N Verbes supports aspectuels : Inchoatif : se déclarer, éclater, apparaître, se manifester Intensif : faire rage, sévir Itératif : Itératif-intensif : Progressif : se poursuivre, se propager, durer, continuer, s'intensifier, reculer, régresser Terminatif : disparaître, cesser 41 9. La notion d'emploi de prédicat : le substantif prédicatif regard Nous allons montrer maintenant que l'introduction de la notion de classe sémantique de prédicats permet de décrire les différents emplois d'un prédicat de façon plus approfondie qu'à l'aide de la seule indication des classes sémantiques des arguments. Nous allons illustrer ce fait en analysant le substantif regard qu'on décrit généralement comme un prédicat de perception. Nous allons montrer, en décrivant avec une certaine minutie l'ensemble de ses emplois, que la sémantique et la syntaxe sont à ce point mêlées qu'il est difficile d'attribuer des propriétés qui soient propres à l'une ou à l'autre. L'introduction d'une classification sémantique dans la description des prédicats permet de rendre compte de ce qu'est un emploi dans le sens que nous avons indiqué plus haut. 9.1. Emploi intransitif : prédicat de propriété Il existe un emploi du substantif regard qui est caractérisé par une absence de complément mais par la présence obligatoire d'un modifieur : *Paul a un regard. Paul a un regard terne. Nous décrivons dans le détail les propriétés de cet emploi. Le sujet est un humain (ou éventuellement un animal, de compagnie par exemple). Il n'y a pas de complément, comme nous venons de le dire. Le verbe support de ce prédicat nominal est avoir ou encore posséder et peut-être afficher. Un modifieur est obligatoire qui décrit le regard : ardent, étincelant, brûlant, terne, vide, fuyant, mobile, vitreux ; mais les adjectifs impliquant une activité de la part du sujet sont exclus en coin, en biais. Le déterminant de regard est l'indéfini un ou défini le au singulier : Paul a (le, un) regard vif. Le pluriel est interdit : *Paul a (des, les) regards vifs. Le substantif regard ne peut pas être repris par un verbe support actif : *Paul a un regard terne, comme il le fait tous les lundis matins. Il ne s'agit donc pas d'un prédicat d'action. La phrase adjectivale parallèle souligne le fait que le substantif regard désigne une propriété, un trait caractéristique : Le regard de Paul est (vif, terne). Ce prédicat peut avoir une interprétation passagère ou habituelle : Paul a un regard terne (ce matin, habituellement). Le substantif regard peut être remplacé ici par le substantif oeil : Paul a l'oeil (vif, terne). Le pluriel est douteux avec le défini : Paul a les yeux vifs, l'indéfini serait meilleur Paul a des yeux vifs. Comme tout support, avoir peut être effacé le regard (vif, terne) de Paul. Il n'existe pas d'emploi métonymique (montée de l'adjectif) : *Paul est (terne, vif) (de, du) regard. La construction impersonnelle est possible : Il y a (de la vivacité, de la mobilité, du feu) dans le regard de Paul. Enfin, cet emploi de regard n'a pas de correspondant verbal. Le substantif regard désigne ici une propriété. Certes, elle est moins « physique » que dans : Paul a les jambes arquées, mais elle constitue une particularité qui permet de caractériser un individu déterminé. Notons enfin que regard n'a pas de lien avec le substantif vue comme dans : Paul a une vue perçante. Comme on le voit par la description que nous venons de faire, il est très difficile de faire la part entre ce qui est syntaxique ou sémantique. Nous voyons que le schéma d'arguments met en jeu un certain type d'adjectifs descriptifs, qui décrivent non seulement des propriétés physiques, mais à travers elles un reflet de la psychologie. 42 9.2. Emploi transitif avec modifieur : prédicat de comportement Un second emploi est illustré par la phrase suivante, dont la structure de surface ne diffère de la précédente que par la présence d'un complément prépositionnel : Paul a eu un regard (amical, dédaigneux) pour Jean. Ici le sujet est strictement humain. Le complément est soit un humain soit une activité humaine. Le complément est introduit par la préposition pour. Parallèlement à avoir, deux autres supports sont possibles : accorder, concéder. Dans ce cas, la préposition introduisant l'objet est à : Paul lui a accordé un regard attentif. Le déterminant est relativement contraint : l'article indéfini : Paul a eu un regard amical pour Jean ; le pluriel n'est pas très clair : Paul a eu des regards amicaux pour Jean. Le défini est impossible : *Paul a eu le regard (amical) pour Jean ; le possessif est impossible aussi : *Paul a eu son regard pour Jean. Un modifieur est obligatoire, sauf à la forme négative : Paul n'a même pas eu un regard pour Jean. Mais il s'agit peut-être d'une suite figée. Le support est effaçable : le regard dédaigneux de Paul pour Jean ; son regard dédaigneux pour Jean. Regard peut difficilement être remplacé par oeil : *Paul n'a même pas eu un oeil pour Jean ; *l'oeil dédaigneux de Paul pour Jean. L'adjectif est de nature comportementale : amical, attentif, dédaigneux, hautain mais non descriptif fixe, fuyant, mobile, acéré, vif, perçant. La construction impersonnelle existe : il y a eu un regard dédaigneux pour Jean de la part de Paul. On observe aussi un changement de thématisation, où l'objet figure en position de sujet : J'ai eu droit à un regard de sa part. Avec cet emploi, il existe une construction parallèle impliquant le construction verbale : Paul a regardé Jean dédaigneusement. Ici non plus regard n'est pas un prédicat de perception. Il traduit métaphorique le comportement d'un individu à l'égard d'un autre. 9.3. Emplois comme prédicats de perception Les emplois qui suivent correspondent à des prédicats de perception au sens strict du mot. On verra que les emplois métaphoriques sont pris en charge par des verbes supports qui sont les pivots de ces métaphores. On verra aussi que les prédicats de perception visuelle sont intimement liés à la notion de mouvement ou de causation de mouvement. 9.3.1. Lancer comme support métaphorique représentant des causatifs de mouvement Paul a lancé un regard furtif sur le tableau. Paul a lancé un regard rapide dans cette direction. Le sujet désigne un humain et le complément correspond à un spectre plus large. Il peut représenter soit un humain, un concret en général ou encore un locatif. Le causatif de mouvement lancer forme un petit paradigme appartenant à la même classe : jeter, balancer, envoyer, filer. Les prépositions sont fonction de la nature du complément. S'il s'agit d'un locatif on aura vers, en direction de. Si le complément est un concret, la préposition est essentiellement sur. S'il s'agit d'une activité, le préposition peut être à ou sur : Je vais jeter un regard (à, sur) ton texte. Si le complément est un humain, ces prépositions induisent des interprétations différentes : jeter un regard sur qqn (surveiller) ; jeter un regard à (entrer en communication). Les déterminants sont réduits à l'indéfini : jeter (un, des) regards à N, suivis facultativement de modifieurs adjectivaux. Le défini le est exclu, peut-être aussi le possessif : ?Paul a jeté son regard sur ce texte. Dans cette position le substantif regard peut 43 être remplacé par le substantif oeil au singulier ou au pluriel : jeter un oeil (à, sur) N ; jeter les yeux (*à, vers, sur) N ; jeter un coup d'oeil (à, sur) N. Nous sommes en présence d'un prédicat de perception active, ce qui implique que les modifieurs adjectivaux sont dynamiques et non pas descriptifs : un regard (en biais, en coin, en coulisse, oblique, furtif). On constate la réduction du verbe support : le regard de Paul à Jean ; ?le regard de Paul sur ce texte. Le verbe jeter implique une action rapide : jeter un regard rapide sur ce texte. Cet emploi a une construction verbale parallèle : Paul m'a regardé en coin. La nature du support et la métaphore qui l'explique impliquent une action volontaire et consciente. Il peut y avoir ambiguïté d'interprétation avec l'emploi précédent : Il a eu un regard amical pour Jean ; Il a jeté un regard amical à Jean. 9.3.2. Perception active : décocher, métaphore des armes de jet Paul décoche un regard sévère à Jean. L'emploi métaphorique est ici plus marqué qu'avec le support lancer. Le sujet est humain, de même que l'objet, ce qui exclut les locatifs et les concrets. Le verbe support décocher a un quasi-synonyme : darder. Avec ce dernier verbe, la préposition est plutôt sur que à, qui est caractéristique du verbe lancer. Ces deux verbes expriment d'une façon claire la métaphore qui met en jeu les <armes de trait>, comme le souligne les définitions du Petit Robert : « décocher : lancer avec un arc, une arme de trait » ; « darder : lancer (une arme, un objet) comme on ferait d'un dard ». Parmi les déterminants on trouve : un suivi d'un modifieur (avec la possibilité d'une intonation exclamative) et l'indéfini pluriel il lui décocha des regards assassins. En revanche, le défini et le possessif sont impossibles : *il lui décocha son regard. La métaphore de l'arme de trait implique une action rapide : *décocher un long regard de désapprobation. De plus, décocher a une interprétation inchoative. La métaphore implique une idée d'hostilité, comme le montrent les adjectifs appropriés hostile, haineux, courroucé, de désapprobation, acéré, inquisiteur. D'autres verbes permettent de filer la métaphore : assassiner du regard. Le substantif oeil ne peut pas remplacer regard : *décocher un oeil sévère. L'effacement du verbe support est exclu, sous peine de la perte de la métaphore : le regard de Paul (à, sur) Jean vient de l'emploi en jeter. Il est impossible de thématiser regard : *le regard de Paul se (darde, décoche) sur Jean. Le verbe regarder n'est pas le synonyme de décocher un regard, car on perdrait la métaphore et ce, même en présence des adjectifs d'hostilité que nous avons évoqués plus haut. 9.3.4. Perception active : métaphore des armes (épée, pistolet) Une métaphore similaire met en jeu des armes à feu et des armes blanches. Cette métaphore est prise en charge par le verbe braquer qui est approprié à ce type d'armes : Paul a braqué (son épée, son pistolet) sur Jean. Le substantif regard prend la place de ces objets : Paul a braqué son regard (sur le nouveau venu, vers la porte). Cet emploi a les caractéristiques suivantes du point de vue du schéma d'arguments. Le sujet est humain et l'objet peut désigner soit un humain soit un concret soit encore un locatif. Le support braquer a pour synonymes diriger, pointer. Les prépositions sont de nature locative directionnelle : vers, en direction de, sur. Le déterminant du prédicat regard peut être un possessif (singulier ou pluriel) et l'indéfini suivi d'un modifieur. Le substantif oeil peut se substituer à regard, mais seulement au pluriel : Paul a braqué ses yeux en direction de Paul. L'interprétation agressive est mise en évidence par la nature des adjectifs réprobateur, de reproche, scrutateur, investigateur, *fixe, *fuyant. Cet emploi est caractérisé par un aspect résultatif : le 44 regard de Paul est braqué sur N ; Paul a le regard braqué sur N. On observe encore la thématisation du prédicat : le regard de Paul se braque subitement vers N. 9.3.5. Perception active : métaphore du mouvement orienté vers le haut et le bas Paul (baisse, lève) son regard (sur Marie, vers le fond). Le schéma d'arguments est le même que dans l'emploi précédent. Le sujet est humain et l'objet peut désigner un humain, un concret ou un locatif. Le complément est obligatoire, sinon on a affaire à la suite plus ou moins figée baisser les yeux, au sens de ne pas vouloir regarder. La préposition peut être sur ou vers. Il existe d'autres verbes représentant le même emploi : lever, tourner, relever. Le prédicat regard a ici comme déterminants le possessif et le défini le. L'effacement du verbe support constituerait une perte de sens et est donc exclu. Le substantif peut être remplacé par le pluriel yeux : baisser ses yeux (sur, vers)N. Le prédicat peut être thématisé : son regard se tourne vers, ?son regard se baisse, ses yeux se sont levés, baissés, tournés vers N. L'aspect du prédicat peut être résultatif, comme on le voit dans les exemples suivants : Paul tient son regard (levé, baissé) vers N. Cet emploi a un présupposé : baisser son regard sur implique qu'on soit dans une position supérieure et le contraire pour lever les yeux sur. Peut-être ces constructions sont-elles des suites plus ou moins figées où elles signifient approximativement avoir de l'intérêt pour, faire attention à ou demander la clémence de. 9.3.6. Perception active : métaphore de causatif du mouvement Les emplois qui suivent sont assez proches de celui que nous venons d'examiner. Ils mettent en jeu des causatifs de mouvement. 9.3.6.1. Verbe porter Paul porte (son, ses regards) sur ce tableau. Le verbe porter n'est pas le seul dans cet emploi. On trouve aussi promener, laisser traîner, etc. Les prépositions sont de nature locative : sur, vers, dans la direction de. Il existe des restrictions sur la détermination : on vient de voir que le possessif est le déterminant le plus naturel. La possibilité du défini et de l'indéfini n'est pas claire. Le substantif regard peut être remplacé par le substantif yeux, obligatoirement au pluriel. La thématisation du prédicat est naturelle : Le regard de Paul se porte vers ce spectacle ; le regard de Paul se promène sur cette toile. Le prédicat regard a ici un aspect duratif, progressif mais il n'y a pas d'interprétation résultative *Paul a le regard porté sur N ; Paul, le regard porté sur N, s'avançait vers lui. Si le déterminant est l'indéfini suivi d'un modifieur, on a une autre interprétation : Paul porte un regard sévère sur cette conduite, où l'on interprète regard sévère comme le synonyme de juger sévèrement. Les autres verbes que nous avons signalés ne permettent pas cette interprétation. 9.3.6.2. Verbe détourner Paul détourne son regard de ce spectacle Le sujet est toujours humain et le complément, outre les classes que nous avons vues plus haut, peut être un événement. Le verbe peut être remplacé par éloigner. La préposition 45 est de. Le déterminant est le possessif et le défini le. On note la synonymie entre regard et yeux : détourner (son regard, les yeux) de ce spectacle. Du point de vue pragmatique, le sens du verbe implique que l'objet désigne un événement négatif ou terrifiant : Ils ont détourné (leur regard, les yeux) de ce spectacle effrayant. Dans les textes on trouve, pour qualifier regard, des adjectifs du type effrayé, effaré, apeuré. Il existe une lecture métaphorique : ne pas vouloir prendre en considération. La nature de détourner n'est pas claire : derrière le possessif il est difficile de trouver un support. Cf. Il a perdu sa bonne humeur = Il a perdu la bonne humeur qu'il avait. Dans Il a détourné son regard de N, on ne peut pas postuler Il a détourné le regard qu'il avait jeté sur N 9.3.6.3. Métaphore de la fixation Paul plante son regard dans les yeux de Jean. Paul plante son regard sur le décolleté de Jeanne. Dans cet emploi l'objet est assez fortement restreint. Il existe des compléments assez contraints comme yeux ou, de façon générale, tout objet qui attire l'attention ou qui intrigue. Aspectuellement, il s'agit d'un emploi duratif, qui est susceptible d'une interprétation résultative : son regard resta planté sur N ; Paul avait le regard planté sur N. Pragmatiquement, le sens véhicule une idée d'agression, de prise de possession ou de fascination. 9.3.6.4. Emploi résultatif Paul a posé son regard sur Marie Ici encore le verbe traduit le résultat d'un mouvement ou plutôt la fin d'un mouvement. L'argument-objet peut désigner un humain ou tout objet concret, à l'exclusion d'un événement. Nous n'avons pas trouvé de substitut au verbe poser. La préposition est la plupart du temps sur, comme l'exige le sémantisme du verbe poser. Le substantif regard est déterminé par le possessif (singulier et pluriel), le défini le et l'indéfini un-modif. On trouve le pluriel yeux. Le prédicat nominal peut figurer en position de sujet : Le regard de Paul s'est posé sur Marie. On note, parmi les adjectifs appropriés appuyé, attentif, perçant, profond. Un emploi quasiment similaire met en jeu le verbe arrêter : Paul arrête son regard sur N. La différence sémantique est ténue, le verbe arrêter possède une interprétation terminative mais non une lecture résultative : Paul a (le regard, les yeux) arrêté(s) sur N ; le regard de Paul est arrêté sur ce spectacle. 9.4. Restructurations Après avoir examiné les constructions où le substantif regard figure en position d'objet direct, nous examinons maintenant celles où il figure en position de « complément » indirect. On a alors en présence d'une restructuration du type : Paul Vsup Dét regard Prép N1 Paul V N1 du regard Ces constructions sont souvent de nature aspectuelle. Le verbe est employé métaphoriquement et traduit : 46 a) un mouvement : Paul accompagne la voiture du regard. Paul suit la voiture du regard. Paul parcourt le paysage du regard. b) un geste : Paul embrasse le paysage du regard. c) un prédicat de « recherche » : Paul scrute le paysage du regard. Paul fouille le paysage du regard. d) d'autres métaphores : Paul couve Marie du regard. Paul dévore Marie du regard. Paul déshabille Marie du regard. 9.5. Autres thématisations Nous examinons rapidement les constructions où le substantif regard occupe la position de sujet. Nous rencontrons ici encore des prédicats de mouvement : Le regard de Paul est tombé sur une vielle photo. Son regard court le long de la crête. Son regard découvre un vaste paysage. Son regard rencontre celui de Marie. Son regard bute sur un détail inattendu. À cela s'ajoute le fait que ces constructions mettent en jeu une métonymie : le substantif regard désigne la personne elle-même. 10. Classes d'objets et locutions conjonctives Les locutions conjonctives sont décrites de façon superficielle par les grammaires, même universitaires. On les considère comme des catégories composées, au même titre que les locutions verbales ou les noms composés, alors que leur syntaxique est très libre. 10.1. Degrés de liberté des locutions prépositives La notion même de « locution » implique un certain degré de figement. Or, les locutions qui introduisent des subordonnées circonstancielles ne le sont que rarement. Le substantif qui est leur pivot ne l'est pas, pas plus que la détermination de ce substantif. 47 10.1.1. La détermination Elle est bien plus complexe qu'on le croit. Deux types de déterminants sont à envisager : la détermination affirmative comprenant des éléments cataphoriques et anaphoriques, et différentes autres déterminations. Détermination cataphorique : - les définis : dans le but de, pour la raison que, au moment où ; - l'article zéro : afin que/de ; en raison de, à cause de, en vue de ; - l'article indéfini un : dans un but commercial, avec une volonté ferme de. On remarquera que tous ces déterminants annoncent la subordonnée : ils jouent un rôle cataphorique. Ce rôle peut être souligné par des éléments cataphoriques évidents : dans le but suivant : plaire à tout le monde ; pour la raison que voici : il faisait trop froid. Il faut ajouter qu'il existe des contraintes entre ces articles et la forme de la subordonnée : l'indéfini un n'est pas compatible avec une subordonnée conjuguée mais avec la forme nominale ou adjectivale du prédicat de la subordonnée : *dans un but qu'il fasse du commerce ; dans un but de commerce ; dans un but commercial. On observera que dans la configuration syntaxique représentée par la phrase complexe, c'est-à-dire une principale suivie d'une subordonnée, la cataphore représentée par la détermination du substantif relateur implique que l'information véhiculée par la subordonnée soit nouvelle, que l'interlocuteur ne la connaît pas. Dans L'enfant a raconté cette histoire afin de calmer ses parents, la motivation de l'enfant constitue pour l'auditeur une information nouvelle, inconnue auparavant. Cela est vrai de toute subordonnée à détermination cataphorique. Détermination anaphorique Mais on peut aisément imaginer une situation où le locuteur rappelle une « circonstance » que l'interlocuteur connaissait déjà mais qu'il éprouve le besoin de lui remettr en mémoire. Ce rappel est pris en charge par une anaphore. Ce cas de figure ne semble jamais avoir été évoqué dans les grammaires d'usage. On aura alors un autre type de détermination du substantif relateur. On trouvera : a) le relatif de liaison : en vue de quoi, à la suite de quoi ; b) les pronoms cela ou là : en raison de cela, d'ici là ; c) le démonstratif ce : dans ce but, pour cette raison, à cet effet, à cette fin. Il est clair que si on avait pris soin d'étudier ainsi la diversité de la détermination, on n'aurait jamais parlé de « locutions » conjonctives. Autres déterminants Il existe encore d'autres déterminants, ce qui confirme notre observation que les locutions ne doivent pas être assimilée à des suites toutes faites : - des déterminants interrogatifs : dans quel but ?, pour quelle raison ?, à quel moment ? des déterminants négatifs : à aucun moment, dans nul autre but que de V. 48 Le degré de liberté des « locutions conjonctives » est encore confirmée par le fait que souvent la préposition introductrice peut faire l'objet d'un choix : (dans, avec) l'intention de contenter tout le monde. 10.1.2. Le substantif C'est un fait d'observation que le substantif qui figure dans la plupart des locutions conjonctives n'est pas figé non plus : à (le ,moment, l'instant, l'heure, la minute) où pour (la raison, le motif) que P de (façon, manière, sorte) que P avec (la volonté, le dessein, l'intention) de V Comme on le voit, le substantif qui figure dans les locutions conjonctives ou prépositives peut faire l'objet d'un choix. Il serait erroné de penser qu'il existe une locution conjonctive au moment où parallèle à quand et qui serait une locution toute faite, alors que le substantif moment peut permuter avec une dizaine d'autres substantifs temporels, susceptibles de figurer dans le même position : au moment où, à l'heure où, à l'instant où, à la minute où. 10.1.3. Autres thématisations La structure canonique de la phrase complexe, une principale suivie d'une subordonnée, met l'accent sur le verbe de la principale : Jean a dit cela avec le désir de convaincre. Mais il est possible aussi de thématiser le verbe de la subordonnée : Convaincre était le désir qu'il avait en disant cela. et aussi le relateur lui-même : Le désir qu'il avait en disant cela état de convaincre. La notion de « locution » est pour ainsi dire l'arbre qui cache la forêt. On remarque ici l'influence d'une position théorique sur les descriptions : le fait d'appeler ces suites des « locutions » a détourné les grammairiens d'examiner leur fonctionnement. D'autre part, pour l'analyse que nous avons proposée, il faut disposer de notions théoriques comme prédicat nominal et de verbe support. Le français a créé des relateurs composés en prenant des substantifs traduisant par eux-mêmes une relation sémantique donnée et en bloquant leur actualisation. 10.2. A propos de l'interchangeabilité des locutions La finalité est considérée généralement comme une relation sémantique homogène dont l'expression est prise en charge indifféremment par des prépositions et des locutions conjonctives. Cette conception unitaire de la finalité repose, semble-t-il, sur le fait que tous les relateurs sont substituables les uns aux autres et qu'aucun n'exprime une relation sémantique qu'un autre ne pourrait prendre en charge également. C'est ce que montre clairement la 49 tradition lexicographique qui n'établit pas de sous-classes. Le dictionnaire latin-français Gaffiot traduit la conjonction latine ut par afin que, pour que. Les dictionnaires modernes adoptent la même attitude. Le dictionnaire Pons (Klett) traduit um zu par pour, afin de. Le mot Absicht est traduit tantôt par but (jd verfolgt eine Absicht mit etw : qq poursuit un but avec qqc) et tantôt par intention (in der Absicht etw zu tun : dans l'intention de faire qc). Le même dictionnaire traduit afin de par um zu et afin que par damit (afin qu'on puisse vous prévenir : damit wir Ihnen Bescheid geben können). Il se peut qu'il y ait entre les différents moyens exprimant la finalité des différences de niveaux de langue mais ils expriment tous, admet-on implicitement, une même idée : un homme agit consciemment d'une certaine façon parce qu'il veut obtenir un résultat donné. 10.3. Classes sémantiques des connecteurs de finalité Nous allons nous servir de la notion de classes de prédicats pour décrire avec précision les locutions introduisant les subordonnées finales. Nous proposons ainsi une nouvelle classification de ce type de subordonnées. Nous prendrons comme exemples quatre connecteurs que nous étudierons successivement : dans le but de, en vue de, dans l'intention de, avec le désir de. 10.3.1. Prédicats locatifs Le substantif but est un type particulier de locatif qu'on pourrait appeler « lieu orienté », dans la mesure où il désigne la destination d'un déplacement : Paris est le but de mon voyage. Ce terme se différencie donc des locatifs « statiques » comme lieu, salle, scène, etc. Dans ce sens, il existe d'autres lieux orientés susceptibles de traduire une expression de but. Tout d'abord, deux termes empruntés à la langue militaire : objectif et cible, qui désignent respectivement « un point contre lequel est dirigée une opération stratégique ou tactique » (Petit Robert) et « but que l'on vise et sur lequel on tire ». On a donc affaire dans le sens premier à un lieu qu'on doit conquérir ou à un objet sur lequel on fait feu. À partir de ces emplois locatifs « orientés » on obtient, par métaphore, la finalité comme « quelque chose que l'on veut atteindre ». La classe que nous venons de mettre en évidence a comme propriété syntaxique d'avoir comme sujet soit un humain soit une phrase : Paul a pour but d'apprendre le français ; ce voyage a pour but d'apprendre le français. La relation entre ces deux types de sujet est de nature métonymique. Aucun des autres connecteurs n'a de sujet phrastique : *Ce voyage a comme (désir, intention, vue) d'apprendre le français. La métaphore permettant de traduire une finalité à l'aide d'un type particulier de locatif est étayée par un très grand nombre de prédicats verbaux et adjectivaux appropriés qui illustrent qu'elle est bien ancrée dans le lexique. Les exemples que nous allons donner sont des emplois exprimant la finalité à l'aide d'éléments lexicaux relevant du « lieu ». Voici un certain nombre de verbes : - verbes de mouvement directionnels, spécifiques des « destinations » : Paul a atteint le but qu'il s'était fixé. Paul voulait marquer le coup, il est parvenu à son but. Paul s'était proposé de changer la situation, il touche à son but. Paul voulait se faire connaître. Il a raté son (but, objectif). Malgré tous ses efforts, Paul a manqué son (but, objectif). 50 - verbes traduisant l'effort déployé en vue du résultat désiré : Paul poursuit le but qu'il s'était fixé de changer la situation. Paul (maintient, tend vers) ce but. Paul voulait rompre. Il est allé droit au but. - verbes de « détournement » : Paul a perdu de vue le but qu'il s'était fixé. Paul (s'est détourné du, a renoncé au) but qu'il s'était fixé. - prédicats de "distance" : Paul est encore loin (du but, de l'objectif) qu'il s'était fixé. Paul s'est éloigné de son (but, objectif) initial. De même, un certain nombre d'adjectifs définissant ces substantifs sont spécifiquement appropriés à des locatifs : - adjectifs d'éloignement : Luc a fait cela dans le but lointain de changer la situation. Luc a tenté le coup, avec l'objectif, qu'il croyait proche, de décrocher le gros lot. - adjectifs caractérisant des lieux faciles ou difficiles à atteindre : Paul veut décrocher ce diplôme. Cet objectif est inaccessible pour lui. Le but que Paul s'était fixé était (facile, difficile) à atteindre. - adjectifs désignant une notion d'importance : Paul veut clarifier la situation. Ce but est (prioritaire, incontournable). L'objectif principal de Luc est de satisfaire les clients. - adjectifs aspectuels : Paul s'est ressaisi dans le but (immédiat, final, ultime) de se comporter comme tout le monde. On rangera dans cette liste de substantifs locatifs, le mot fin que l'on trouve dans afin que/de et dont la syntaxe est un plus archaïque, i.e. contrainte mais fondamentalement la même : Paul s'est proposé pour (but, fin) de réduire ces tensions. Luc s'est (donné, assigné, fixé) (pour, comme) (but, fin) de régler ce problème. Paul continue à se battre : il poursuit (un but, une fin) louable. Paul s'est (fixé, assigné, donné, imposé, proposé) pour fin de bien faire. Luc voulait ne plus être impliqué dans cette histoire ; il est (arrivé, parvenu) à (son but, ses fins). 51 10.3.2. Prédicats de perception La finalité peut être traduite par une autre classe de prédicats. Le substantif vue est un prédicat de perception, comme on le voit dans les exemples suivants jeter, porter, tourner sa vue sur N. Du fait que le regard est « orienté », ce substantif a donné lieu à une interprétation locative comme être en vue : (la côte est en vue) ou temporelle dans : une solution est en vue. Cette interprétation directionnelle de la vue a donné lieu métaphoriquement à une lecture finale dans les expressions un peu anciennes comme dans la vue de, dans la seule vue de. En français moderne, la forme est plutôt avoir en vue : Paul s'est mis à lire ce roman, il a en vue d'apprendre le français. Dans ce cas, le verbe support avoir peut être effacé et l'on obtient : Paul s'est mis à lire ce livre, en vue d'apprendre le français. Le substantif perspective a une syntaxe et une sémantique assez voisines. L'adjectif en perspective s'emploie avec un nom de lieu (la côte est en perspective) soit un nom d'événement (des ennuis sont en perspective). Mais cette suite peut avoir un sens actif Paul s'est mis à lire ce roman, il a en perspective d'apprendre le français et avec l'effacement du support : Paul s'est mis à lire ce roman, en perspective d'apprendre le français. Une autre racine de perception, vis-, donne respectivement le verbe viser et le substantif visée. La métaphore est là aussi militaire. Viser est défini par le Grand Robert de la façon suivante : « regarder attentivement une cible afin de l'atteindre par un projectile » ou dans son emploi intransitif : « diriger attentivement son regard vers la cible à atteindre ». Métaphoriquement, ce verbe signifie « chercher à atteindre, guigner, rechercher» : Paul s'est montré poli avec tout le monde, il visait la députation. Le substantif visée est d'emploi plus restreint. Il est surtout employé au pluriel : Paul s'est montré poli avec tout le monde, il a des visées sur la députation. La même métaphore militaire est à l'oeuvre avec le substantif point de mire. Ce mot signifie « endroit où l'on veut que le coup de feu porte ». Le support est avoir : Paul a pour point de mire de réussir cet examen. 10.3.3. Prédicats d'opérations intellectuelles Les substantifs que nous rangeons dans cette catégorie représentent l'intention qu'a un humain lorsqu'il fait une action. Outre le terme intention, cette classe comprend des substantifs comme dessein, volonté, idée, projet. Ces relateurs de but traduisent de la part du sujet une maîtrise de la situation. L'adjectif inconscient ne s'applique pas à eux comme il peut le faire avec les substantifs locatifs ou avec les noms de sentiments dont nous parlerons dans la section suivante : *avec l'intention inconsciente de plaire. D'autres adjectifs confirment cette interprétation avec le dessein (ferme, irrévocable, arrêté) de refuser la proposition. Notons que les verbes qui caractérisent les substantifs locatifs ne sont pas possibles ici : *(atteindre, poursuivre, se fixer) l'intention de ; *(aller droit à, parvenir à, toucher à) l'intention de. Ces verbes sont aussi différents de ceux qui accompagnent les prédicats de sentiments, que nous verrons plus loin. Parmi les plus fréquents on trouve : afficher, avoir, caresser, manifester (l'intention de faire quelque chose). 10.3.4. Les prédicats de sentiments Un grand nombre de prédicats de sentiments sont susceptibles de traduire la notion de finalité. On prendra comme exemple prototypique le substantif désir. L'idée que cette classe de substantifs peut avoir une interprétation finale a été perçue vaguement par la tradition grammaticale. Les grammaires latines enseignent qu'on peut traduire la forme ne (négation du ut final) non pas par afin que nepas mais par de peur que qui inclut un nom de sentiment. 52 Il est logique que les verbes supports soient ceux des prédicats de sentiments : (avoir, éprouver, ressentir, nourrir, caresser) le désir de faire quelque chose. On observera qu'on est en présence de verbes supports spécifiques qui ne s'appliquent pas aux autres classes de substantifs. C'est le cas, en particulier, pour éprouver, ressentir. Il existe aussi des adjectifs appropriés : avec le désir (inconscient, vif, ardent) de faire quelque chose. Les verbes spécifiques des locatifs sont également impossibles ici : (approcher de, atteindre, parvenir à) le désir de. La finalité exprimée par les sentiments est spécifique du point de vue sémantique. Alors que les locatifs et les noms de perception désignent un lieu métonymique que l'on veut rejoindre ou que l'on fixe des yeux, et que les prédicats intellectuels mettent l'accent sur la détermination en vue d'un résultat, on est ici devant une métaphore différente qui est illustrée par des verbes comme pousser ou mouvoir : (mû, poussé) par un désir irrésistible de partir en Orient. Les sentiments sont présentés comme une force qui entraîne la personne, comme une voile pousserait un bateau. Les locatifs attirent vers l'avant, les sentiments poussent de l'intérieur. Cette force peut être inconsciente et entraîner quelqu'un malgré lui. 11. Classes d'objets et aide à la rédaction Les classes d'objets et les dictionnaires qui sont élaborés sur cette base peuvent constituer une aide à la rédaction de textes. Nous allons en donner un exemple simplifié. Soit la phrase : Le Ministère a réduit les subventions aux universités. Les outils qui sont actuellement à notre disposition sont de deux types : la correction orthographique et l'indication de la synonymie. a) Les logiciels de correction orthographique font intervenir de plus en plus la syntaxe dans la détection des fautes de graphie. Ainsi certains d'entre eux signalent l'absence de l's du pluriel dans une suite comme *les subventions aux universités. Mais à l'heure actuelle, c'est essentiellement à l'orthographe d'usage que servent les correcteurs orthographiques. b) La synonymie propose des équivalents, sans tenir compte cependant de la notion d'emploi, c'est-à-dire des environnements, comme nous l'avons signalé plus haut. Ainsi, si l'on recherche sous Word les synonymes des mots de cette phrase, on obtient : : Ministère : Cabinet, Conseil, Département, Gouvernement, maroquin, portefeuille Réduit : diminué, simplifié Subvention : aide, renfort, coopération, participation On voit que les substituts proposés que nous avons mis en gras ne peuvent pas être considérés comme des équivalents acceptables des mots en question. L'indication automatique de la synonymie n'est possible que si l'on est en mesure de reconnaître les classes d'objets correspondant aux arguments des prédicats. Les dictionnaires reposant sur les classes d'objets permettent de pallier ces inconvénients. Nous allons proposer quelques exemples. 11.1. Vue d'ensemble des emplois de réduire 53 Nous donnons ici les différents emplois du verbe réduire, décrits à l'aide des classes d'objets : réduire/N0 : chirurgien/N1 : fracture/N2 :/S: rebouter/A: réduire /N0 : hum/N1 : minerai/N2 :/S: éliminer l'oxygène de/A: réduire /N0 : hum/N1 : (sauce, jus)/N2 :/S: épaissir/A: allonger réduire /N0 : hum/N1 : fils/N2 :/S : rapprocher/A: écarter réduire /N0 : hum, pays/N1 : hum, pays/N2:/S : vaincre/A:libérer réduire /N0 : hum /N1 : hum/N2 : en <esclavage>/S: rabaisser/A: sortir réduire /N0 : hum, évé/N1 : hum/N2 : à <état>/S : contraindre/A: réduire /N0 : hum, évé/N1 : hum/N2 : à <action>/S : contraindre/A: libérer réduire /N0 : hum /N1 :<tout> /N2 : à <Npt >/S : diviser/A: recomposer réduire /N0 : hum /N1 :inc/N2 : en <miettes, pièces>/S : casser/A: recoller réduire /N0 : photographe/N1 : photo/N2 : de %/S: diminuer/A: agrandir réduire /N0 : hum/N1 :<valeur>/N2 : de %/card /S : diminuer/A: augmenter réduire /N0 : hum/N1 :< un texte>N2 : de %/S: raccourcir/A: Cette description met en évidence que l'emploi de réduire illustré par la phrase cidessus correspond à l'avant-dernier emploi, celui dont les arguments sont respectivement un humain, une valeur et un pourcentage. Cette vue synthétique du verbe permet de reconnaître l'emploi en question. 11.2. Suite la plus longue : deuxième complément possible Ce schéma d'arguments permet en outre de montrer que la phrase en question est une sous-structure, à laquelle manque un second complément, c'est-à-dire celui qui indique le pourcentage ou encore un chiffre. On aura ainsi : N2 : pourcentage : réduire la subvention de 30% N2 : valeur : réduire la subvention de 3 millions d'euros 11.3. Synonymie/antonymie Dès lors que les classes d'objets sont décrites avec précision, le dictionnaire est en mesure de fournir des synonymes fiables, appartenant aux classes suivantes : <Autorités politiques> : gouvernement, Ministre, Pouvoir, Conseil des ministres <réduire> : diminuer, baisser, raccourcir, rogner, rabaisser <Aides> : allocation de base, allocation spéciale, allocation spécifique, subvention de fonctionnement, subvention d'équilibre, subvention d'équipement, subvention d'investissement <Ecoles> : collège, école élémentaire, école libre, école maternelle, école normale, école publique, lycée technique, université 54 La combinaison de ces différentes classes permet de construire un grand nombre de phrases que l'on peut considérer comme des quasi-synonymes. 11.4. Changement morphologique du prédicat Un dictionnaire électronique doit porter les indications morphologiques concernant les catégories grammaticales que la racine est susceptible de prendre. Dans l'emploi qui nous concerne, le verbe réduire est associé au substantif réduction, qui a comme synonymes diminution, compression. La conjugaison de ce prédicat nominal est la suivante : 11.4.1. Conjugaison du prédicat nominal réduction Voici la conjugaison active et passive du prédicat réduction : Verbes supports actifs : effectuer, procéder à, opérer Le Ministère a (effectué, procédé à, opéré) une réduction des subventions aux universités de 30%. Verbes supports passifs : faire l'objet de, subir Les subventions aux universités ont subi une réduction de 30%. Les subventions aux universités ont fait l'objet d'une réduction de 30%. 11.4.2. Déterminant du prédicat nominal réduction Les déterminants d'un prédicat nominal sont fonction à la fois de la nature sémantique du prédicat nominal lui-même et du verbe support. Dans l'exemple que nous examinons, on a la détermination suivante : l'article défini est impossible, sauf s'il est accompagné d'un modifieur : ?Le Ministère a procédé à la réduction de 30% des subventions aux Universités. Le Ministère a précédé à la réduction annoncée de 30% des subventions aux Universités. L'article indéfini est possible, qu'il soit suivi ou non d'un modifieur : Le Ministère a procédé à une réduction de 30% des subventions aux Universités. Le Ministère a procédé à une réduction inattendue de 30% des subventions aux universités. 11.4.3. Opérateurs adjectivaux appropriés au prédicat réduction Les prédicats nominaux, comme tous les prédicats, peuvent être caractérisés par des opérateurs qui leur sont appropriés (cf. § 6.3.). Ceux qui s'appliquent le plus fréquemment à réduction sont : drastique, sévère, considérable, importante, supplémentaire, globale, sensible, additionnelle, massive. L'indication de ces modifieurs fournit des moyens d'expression bien plus diversifiés. 11.5. Tranformations 55 Un dictionnaire électronique doit permettre de générer toutes les restructurations dont est susceptible un emploi de prédicat. On y fera figurer les informations suivantes : Interrogation : De combien le Ministère a-t-il réduit les subventions aux universités ? De 30%. Pronominalisation : Comme le complément en de N implique une quantité, la pronominalisation ne sera pas en cela :*réduire la subvention (de cela, de ça, en) mais par un pronom quantifieur : réduire la subvention (de tant, d'autant, de beaucoup, de peu). Mises en évidence : C'est de 30% que le Ministère a réduit les subventions aux universités. Les subventions aux universités, le Ministère les a réduites de 30%. Tournure événementielle : Il y a eu une réduction de 30% des subventions aux universités de la part du Ministère 11.6. Autres thématisations : Thématisation du datif : Les universités se sont vu réduire leurs subventions de 30%. Les universités se sont vu infliger une diminution de 30% de leurs subventions. Thématisation du prédicat nominal : Les subventions aux universités ont fait l'objet d'une réduction de 30%. 11.7. Syntaxe du prédicat subvention Le dictionnaire électronique fournira aussi des informations sur la génération du substantif prédicatif subvention. - Forme verbale associée : Le ministère subventionne les Universités. - Verbes supports du prédicat nominal subvention Actif : accorder/N0: hum/N1: <aide financière>/N2: à hum attribuer/N0: hum/N1: <aide financière>/N2: à hum verser/N0: hum/N1: <aide financière>/N2: à hum 56 Passif : bénéficier/N0: hum/N1: de <aide financière>/N2: de la part de hum se voir attribuer/N0: hum/N1: <aide financière>/N2: de la part de hum toucher/N0: hum/N1: <aide financière>/N2: de la part de hum - Effacement du support : la subvention du ministère aux universités - Opérateurs appropriés au prédicat subvention : Verbes : actualiser/N0: hum/N1: <aide financière>/N2: augmenter/N0: hum/N1: <aide financière>/N2: à hum calculer/N0: hum/N1: <aide financière>/N2: diminuer/N0: hum/N1: <aide financière>/N2: à hum indexer/N0: hum/N1: <aide financière>/N2: sur ina réajuster/N0: hum/N1: <aide financière>/N2: recalculer/N0: hum/N1: <aide financière>/N2: réévaluer/N0: hum/N1: <aide financière>/N2:à hum Conclusion Les règles de grammaire ont toujours reposé sur quelques exemples élémentaires, forgés par le grammairien ou extraits d'oeuvres littéraires. Or, ces exemples ne rendent compte jamais compte de la totalité des emplois concernés. C'est ce qu'ont clairement mis en lumière les extractions faites depuis un certain temps grâce aux outils informatiques qui sont maintenant à la disposition des chercheurs en linguistique. Le souci de fonder les descriptions sur de vastes corpus a modifié notre exigence en matière de couverture des données. Ces outils nouveaux permettent d'envisager pour la linguistique des objectifs multiples : enseignement assisté par ordinateur, traitement automatique de la langue (reconnaissance ou génération). Il faut parallèlement modifier les méthodes de description linguistique. Les classes d'objets sont un outil puissant favorisant ce renouvellement. Bibliographie Anscombre, J.-Cl., 1984, « La représentation de la notion de cause dans la langue », Cahiers de grammaire n°8, Toulouse, p. 3-53. Anscombre, J.-C., 1995, « Morphologie et représentation événementielle : le cas des noms de sentiment et d'attitude », Langue Française n°105, Larousse, Paris, p. 40-54. Bach, E., 1986, « The algebra of events », Linguistics and Philosophy n°9, p. 5-16. 57 Baudet, S., 1990, « Représentations d'états, d'événements et d'actions », Langages n°100, Larousse, Paris, p. 45-64. Bescherelle, 1990, L'art de conjuguer, Hatier, Paris. Brinton, L., 1988, The development of English aspectual systems, Cambridge University Press, Cambridge. Buvet, P.-A., 1998, « Détermination et classes d'objets », Langages n°131, Larousse, Paris, p. 91-102. Cadiot, P., 1990, « À propos du complément circonstanciel de but », Langue Française, n°86, pp. 51-64. Chomsky, N., 1957, Syntactic Structures, Mouton, La Haye. Chomsky, N., 1965, Aspects of the Theory of Syntax, The Massachusetts Institute of Technology, Cambridge, USA. Danlos, L., 1988a, « Les phrases à verbe support être Prép », Langages, n°90, Larousse, Paris, p. 23-37. Danlos, L., 1988b, « Les problèmes posés par les verbes supports en traduction automatique », Colloque LIANA : Informatique et langue naturelle, Nantes. Desclés, J.-P., 1991, « Archétypes cognitifs et types de procès », Travaux de Linguistique et de Philologie, n° 29, Klincksieck, Paris, p. 171-195. Emorine M., 1992, Formalisation syntaxique et sémantique des constructions à verbes supports en français et en espagnol dans une grammaire catégorielle d'unification", Thèse de doctorat, Université Clermont-Ferrand 2. Franckel, J.-J., 1989, Etude de quelques marqueurs aspectuels du français, Droz, Genève. Fuchs, C., 1991, « Les typologies de procès : un carrefour théorique interdisciplinaire », Travaux de Linguistique et de Philologie, n° 29, Klincksieck, Paris, p. 9-17. Gingras, L., 1991, « Dans le but de, dans un but de, dans un but (+ adj) », L'actualité terminologique, vol. 24, n°1, pp. 4. Giry-Schneider, J., 1978, « Interprétation aspectuelle des constructions verbales à double analyse », Linguisticae Investigationes II:1, John Benjamins, B.V., Amsterdam, p. 2354. Giry-Schneider, J., 1987, Les prédicats nominaux en français : les phrases simples à verbes supports, Droz, Genève. Gross, G., 1988, « Réflexions sur la notion de locution conjonctive », Langue Française, n° 77, Paris, Larousse, pp. 19-36. Gross, G., 1989, Les constructions converses du français, Droz, Genève. Gross, G., 1993, « Trois applications de la notion de verbe support », L'information grammaticale, n° 59, Paris, p. 16-22. Gross, G., 1994, « Classes d'objets et description des verbes », Langages, n°115, Larousse, Paris, p. 15-30. Gross, G., 1994, « Connecteurs et traitement automatique », TA-TAO : recherches de pointe et applications immédiates, FMA, Beyrouth et AUPELF-UREF (Québec), p. 287-306. Gross, G., 1996, « Semantische Umgebung der Konnektoren », Leuvense Bijdragen n° 84, Leuven, p. 295-311. Gross, G ., 1996, « Une typologie sémantique des connecteurs : l'exemple de la cause », Studi italiani di linguistica teoetica e applicata, 15/1, Pise, p. 153-179. Gross, G., 1996, Les expressions figées en français, Ophrys, Paris, 160 p. Gross, G., 1998, « Pour une véritable fonction synonymie dans un traitement de textes », Langages n°131, Larousse, Paris. Gross, G., 1999, « Étude lexicale des locutions conjonctives », Mémoires de la Société de Linguistique de Paris, Nouvelle Série, Tome VII, Peeters, pp. 23-40. 58 Gross, G., 2005, « Les circonstancielles sont des complétives », La syntaxe au coeur de la grammaire, recueil offert en hommage pour le 60e anniversaire de Claude Muller, Presses Universitaires de Rennes, pp. 121-127. Gross, G., Prandi, M., 2004, La Finalité. Fondements conceptuels et genèse linguistique, Louvain-la-Neuve, De Boeck. Duculot, 284 p. Gross, M., 1975, Méthodes en syntaxe, Hermann, Paris. Gross, M., 1981, « Les bases empiriques de la notion de prédicat sémantique », Langages, n°63, Larousse, Paris, p. 7-52. Gross, M.,1986, Grammaire transformationnelle du français. Syntaxe de l'adverbe, Asstril, Paris. Gross, M., 1993, « Les phrases figées en français », L'Information Grammaticale, n°59, pp. 36-41. Guenthner, Fr., 1998, Constructions, classes et domaines : concepts de base pour un dictionnaire de l'allemand, Langages n°131, Larousse, Paris, p. 45-55. Guimier, Cl. et alii, 1993, 1001 Circonstants, Presses Universitaires de Caen. Harris, Z.S., 1976, Notes du cours de syntaxe, Le Seuil, Paris. Heide, G., Pape, S., 1976, Funktionsverbgefüge als Problem der Beschreibung komplexer Verben in der Valenztheorie, Forschungsberichte des Instituts für deutsche Sprache, Tübingen. Kiefer, F., 1974, Essais de sémantique générale, Paris, Mame. Kleiber, G., 1990, La sémantique du prototype, PUF, Paris. Leeman, D., 1995, « Pourquoi peut-on dire Max est en colère mais non *Max est en peur ? Hypothèses sur la construction être en N », Langue Française n°105, Larousse, Paris, p. 55-69. Lees, R.B., 1960, The grammar of English Nominalizations, Mouton, La Haye. Lepesant, D. et Mathieu-Colas, M., 1998, « Introduction aux classes d'objets », Langages n°131, Larousse, Paris, p. 6-33. Martin, R., 1988, « Temporalité et classes de verbes », L'Information Grammaticale, n° 39, Paris, p. 3-8. Mathieu-Colas, M., 1998, « Illustration d'une classe d'objets : les voies de communication », Langages n°131, Larousse, Paris, p. 77-90. Mel'cuk, I., 1988, « Principes et critères de description dans le DEC », DEC 2, Les Presses de l'Université de Montréal, p. 27-39. Muller, Cl., 1996, La subordination française, Armand Colin. Piot, M., 1995, Composition transformationnelle des phrases par subordination et coordination, Thèse de Doctorat d'État, Paris, Université Paris 7. Prandi, M., 1994, Le proposizioni finali in italiano : uno studio di grammatica filosofica, manuscrit. Prandi, M., 1998, « Contraintes conceptuelles sur la distribution », Langages n°131, Larousse, Paris, p. 34-44. Vendler, Z., 1968, Adjectives and Nominalizations, La Haye, Mouton. Vivès, R., 1983, Avoir, prendre, perdre : constructions à verbes supports et extensions aspectuelles, Thèse de 3° cycle, Université Paris VIII et LADL. Von Polenz, P., 1963, Funktionsverben im heutigen Deutsch, Wirkendes Wort, Beiheft 5, Düsseldorf, Schwann, 46p.
{'path': '04/halshs.archives-ouvertes.fr-halshs-00410784-document.txt'}
Emploi, enfant et aspirateur : quelles évolutions chez les jeunes couples depuis 2005 ? Thomas Couppié, Dominique Epiphane To cite this version: Thomas Couppié, Dominique Epiphane. Emploi, enfant et aspirateur : quelles évolutions chez les jeunes couples depuis 2005 ?. Céreq Bref, Centre d'études et de recherches sur les qualifications, 2021, 403, 4 p. halshs-03284441 HAL Id: halshs-03284441 https://halshs.archives-ouvertes.fr/halshs-03284441 Submitted on 12 Jul 2021 BREF 403 2021 Bulletin de Recherches Emploi Formation Emploi, enfant et aspirateur : quelles évolutions chez les jeunes couples depuis 2005 ? Thomas COUPPIÉ Dominique EPIPHANE (Céreq) JEUNE MÉNAGE ENQUÊTE GÉNÉRATION RELATION TRAVAILFAMILLE DIVISION SEXUELLE DU TRAVAIL GENRE * Quelques jalons : 2002 : instauration du congé de paternité de 11 jours. 2006 : loi relative à l'égalité salariale entre les femmes et les hommes, qui renforce les droits des femmes en congé de maternité, notamment en matière de salaires, de congés et de protection contre les discriminations. 2008 : « Charte de la Parentalité en Entreprise » qui encourage le développement de bonnes pratiques de conciliation entre vie professionnelle et vie familiale. 2014 : loi sur l'égalité professionnelle qui incite les pères à prendre un congé parental. Comment les premières années de vie active s'articulent-elles avec les débuts de la vie conjugale et familiale ? Les enquêtes Génération du Céreq documentent ce double processus de construction familiale et professionnelle sur les sept premières années qui suivent la sortie de formation initiale, et permettent d'offrir un panorama des évolutions. Pour les jeunes en couple en 2005, ces deux « carrières » s'agençaient différemment pour les femmes et pour les hommes : ceux de 2017 ontils pu dépoussiérer les stéréotypes et balayer les clivages encore à l'oeuvre parmi leurs aînés ? D epuis plus de vingt ans, la question des inégalités entre les femmes et les hommes sur le marché du travail est au coeur des politiques publiques. Leur philosophie est non seulement de veiller à l'égalité professionnelle entre les sexes, mais aussi de favoriser l'articulation des temps de vie au sein des familles*. Ce volontarisme politique, également porté par l'Union européenne, vise à soutenir le rapprochement des carrières des femmes et des hommes, reconnaissant ainsi que la construction familiale et ses implications sur la carrière professionnelle pèsent incontestablement plus sur les épaules des femmes. Les enquêtes Génération permettent d'analyser les liens entre les débuts de « carrières » professionnelle et familiale des jeunes, à travers des questions portant sur la vie en couple, la répartition des tâches domestiques, les éventuelles conséquences de la naissance d'un enfant sur la vie professionnelle (Cf. Encadré méthodologique). Elles offrent de surcroît l'occasion d'interroger les évolutions intervenues au sein des jeunes couples à 12 ans d'intervalle. [1] Un décalage croissant entre début de vie active et construction familiale L'arrivée sur le marché du travail constitue l'un des jalons importants du passage des jeunes à l'âge adulte. Si hommes et femmes connaissent des modalités et des rythmes d'accès à l'emploi relativement proches, ce n'est pas le cas de leur trajectoire familiale. Dans un contexte de désynchronisation croissante de ces temps sociaux, des distinctions fortes entre jeunes femmes et jeunes hommes persistent au fil des Générations [2]. Ainsi, un décalage sexué perdure dans la précocité à fonder sa propre famille (Cf. Tableau 1). Parmi les sortant*es de formation initiale de 2010 comme de 1998, les jeunes femmes sont deux fois plus nombreuses que les jeunes hommes à être déjà installées en couple à la fin de leurs études. Plus généralement, la première installation intervient beaucoup plus tôt pour les femmes, mais elle est considérablement retardée pour les jeunes de la Génération 2010. Il faut en effet compter 13 mois de plus pour que la moitié des jeunes femmes de cette Génération aient une première expérience de couple, par rapport à celles de la Génération 1998 (3 ans et 3 mois sont nécessaires après la sortie de formation pour atteindre cette proportion, contre 2 ans et 2 mois). Pour les jeunes hommes, deux ans de plus sont nécessaires pour que 50 % d'entre eux connaissent leur première installation en couple, par rapport à ceux de 1998 (7 ans après leur sortie de formation au lieu de 5). Au moment de l'enquête, un peu plus de sept ans après leur sortie du système scolaire, l'écart entre les deux sexes persiste puisque moins de la moitié des jeunes hommes sont en couple contre près des deux tiers des jeunes femmes (cf. Tableau 1). Ce recul du temps d'installation à deux pour la Génération 2010 par rapport à celui observé 12 ans 1 Temps de construction familiale après la fin des études G 1998 G 2010 Femme Homme Femme Homme 24 mois 19 mois 28 mois 26 mois Vivent chez leurs parents à la fin des études 61 % 74 % 56 % 70 % Vivent en couple à la fin des études 24 % 12 % 24 % 11 % 26 mois 62 mois 39 mois 85 mois Vivent en couple 7 ans après la fin de leurs études 71 % 53 % 62 % 43 % Ont au moins un enfant 7 ans après la fin de leurs études 55 % 29 % 42 % 20 % Temps médian d'accès au 1er emploi à durée indéterminée Temps médian de la 1ère mise en couple Source : Céreq, interrogations à 7 ans (2005 pour la Génération 1998, 2017 pour la Génération 2010). auparavant se traduit également par une baisse conséquente de la proportion de jeunes parents, chez les hommes comme chez les femmes. En 2017, seulement 43 % d'entre elles et 20 % d'entre eux ont au moins un enfant (contre respectivement 55 % et 29 % en 2005 pour la Génération 98). Être mère modifie la situation professionnelle de nombreuses jeunes femmes en couple En 2017 comme en 2005, la situation professionnelle des jeunes hommes en couple ne paraît pas avoir été affectée par une éventuelle paternité, ni par le nombre d'enfants. In fine, quelle que soit leur situation familiale, la grande majorité d'entre eux (89 %) travaillent à temps plein, 4 % à temps partiel et 7 % ne sont pas en emploi. En revanche, la situation professionnelle varie beaucoup plus du côté des jeunes femmes en couple : celle des jeunes mères diffère nettement de celle des jeunes femmes qui ne sont pas mères. Tout d'abord, elles sont plus nombreuses à ne pas travailler : 14 % des mères de plusieurs enfants sont inactives et 11 % sont au chômage, contre 2 Incidences de la naissance des enfants sur l'emploi des parents Déclarent que l'arrivée de leur 1er enfant : Femme Homme G1998 G2010 G1998 G2010 36 % 49 % 14 % 14 % Sont passé*es à temps partiel 16 % 24 % 2% 2% Ont changé de poste ou accepté une mutation 11 % 8% 3% 4% Ont démissionné de leur emploi 10 % 7% 4% 4% Ont pris un congé parental 11 % 27 % 8% 7% A eu une ou plusieurs incidences sur leur emploi Déclarent que l'arrivée de leur 2ème enfant : A eu une ou plusieurs incidences sur leur emploi Sont passé*es à temps partiel 68 % 61 % 11 % 14 % 31 % 36 % 3% 6% Ont changé de poste ou accepté une mutation 6% 7% 2% 3% Ont démissionné de leur emploi 5% 7% 1% 1% Ont pris un congé parental 51 % 35 % 8% 7% Source : Céreq, enquêtes Génération 1998 et 2010 à 7 ans. Champ : jeunes parents vivant en couple 7 ans après la fin des études, en emploi au moment de la naissance. P2 BREF N°403 - 2021 respectivement 4 % et 8 % des jeunes femmes sans enfant. Toutefois, et comme c'était le cas pour la Génération précédente, ces proportions diffèrent fortement selon leur niveau scolaire : en 2017, l'inactivité concerne 4 % des jeunes mères diplômées d'un Bac+5 ou plus et 23 % de celles diplômées de l'enseignement secondaire. Par ailleurs, les femmes sont toujours plus nombreuses à travailler à temps plein quand elles n'ont pas d'enfant que lorsqu'elles sont déjà mères. Quelle que soit la Génération, la proportion de celles qui travaillent, et surtout de celles qui travaillent à temps plein, est plus faible pour les jeunes mères, a fortiori lorsqu'elles ont plusieurs enfants. La situation professionnelle des jeunes femmes diplômées de l'enseignement supérieur long est toutefois beaucoup moins affectée par leur situation familiale que celle des diplômées de l'enseignement secondaire. C'était déjà vrai en 2005, mais cela l'est encore davantage en 2017. En revanche, être père, que ce soit d'un ou de deux enfants, n'impacte aucunement la situation professionnelle des jeunes hommes à 7 ans. Ces différences observées entre pères et mères après sept ans passés sur le marché du travail semblent prendre leur source en amont, en fonction de leur situation professionnelle au moment de la naissance des enfants, et de l'inflexion de la vie professionnelle qui a été choisie ou s'est imposée à ce moment-là. Les conditions professionnelles entourant l'arrivée des enfants diffèrent de façon significative entre pères et mères [5]. Ainsi, seul un homme sur douze contre une femme sur quatre n'est pas en emploi au moment de l'arrivée de l'enfant (ou du deuxième s'il y en a plusieurs). De surcroît, les jeunes mères en emploi adaptent beaucoup plus fréquemment leur activité suite à une naissance que les jeunes pères. Ainsi, 14 % des pères, mais près de la moitié des mères (49 %), déclarent que la naissance de leur premier enfant a eu une ou plusieurs incidences sur leur emploi. L'arrivée d'un deuxième enfant a encore davantage d'incidences pour les mères en emploi puisque 61 % d'entre elles déclarent explicitement un changement professionnel à cette occasion, contre, invariablement, 14 % des pères (cf. Tableau 2). Ces changements professionnels peuvent prendre des formes multiples et s'accroissent après la naissance du deuxième enfant. On observe toutefois une baisse considérable du recours au congé après le deuxième enfant entre les deux Générations (-16 points). On peut faire l'hypothèse que la forte augmentation du niveau de diplôme des jeunes mères entre les deux Générations, conjuguée aux évolutions du cadre règlementaire et des prestations associées au congé parental**, ont réduit de façon substantielle l'intérêt que les couples pouvaient trouver au renoncement provisoire de l'un d'entre eux à son activité professionnelle [4] [6]. Les conditions et inflexions de la vie professionnelle entourant la naissance d'un enfant ne sont pas sans conséquences sur la situation ultérieure des jeunes mères. En 2017, parmi les femmes en emploi avant la naissance de leur dernier enfant, celles ayant infléchi leur activité professionnelle ont 3,7 fois moins de chances d'être en emploi à temps plein et 1,4 fois plus de chances de ne plus être en emploi après la naissance, que celles qui n'ont pas modifié leur activité professionnelle. Quant aux mères qui ne travaillaient pas juste avant la naissance de leur dernier enfant (aux trois quarts non diplômées ou diplômées de l'enseignement secondaire), elles ont, à la date de l'enquête, 9,2 fois moins de chances d'être en emploi à temps plein et 12,4 fois plus de chances de ne pas l'être du tout après la naissance. Les hommes sont nettement moins concernés par les conséquences de ces interactions entre naissance et situation professionnelle : d'une part, parce qu'ils sont très majoritairement en emploi au moment de la naissance et n'infléchissent que rarement leur activité professionnelle à cette occasion, d'autre part, parce que les rares concernés voient leur situation professionnelle ultérieure davantage ou plus rapidement évoluer vers la norme d'emploi à temps plein. Ainsi, tandis que les profils des hommes, qu'ils soient pères ou non, sont assez homogènes, se dessinent en revanche différentes catégories de jeunes mères. Si certaines acceptent une réduction voire une inter4 3 Modèles de couples* en 2005 et 2017 Couple « moderne » 14 % 2017 2005 19 % Couple « paritaire » 45 % 37 % Couple « traditionnel » 0% 36 % 10 20 30 49 % 40 50 60 * Voir l'encadré méthodologique pour la définition des modèles de couples. Source : Céreq, enquêtes Génération 1998 et 2010 à 7 ans. Champ : jeunes vivant en couple 7 ans après la fin des études. Graphisme : Céreq. ruption de leur activité professionnelle, d'autres en revanche ne modifient pas – ou seulement temporairement – leur investissement professionnel à la naissance de leurs enfants et se trouvent, au terme de leur septième année de vie active, dans des conditions professionnelles proches des femmes sans enfant. ** Allocation parentale d'éducation (APE), jusqu'en 2004, remplacée par le complément de libre choix d'activité (entre 2004 et 2014) puis par la prestation partagée d'éducation de l'enfant (PreParE) à partir de 2014. L'inégal retentissement de la construction familiale sur la situation professionnelle des femmes et des hommes demeure donc toujours d'actualité. De fait, il interroge les rôles sociaux au sein des couples et la place que chacun*e (s')accorde ou s'assigne dans les sphères professionnelle et privée. Dans la sphère privée, outre la charge parentale, l'implication dans le travail domestique est également un élément révélateur de ces rôles [3]. Une polarisation des rôles sociaux au sein des couples, qui s'affaiblit d'une Génération à l'autre Globalement, la part des couples où la femme s'occupe principalement des tâches ménagères (couple « traditionnel ») a diminué entre les deux Générations. Si 49 % des jeunes en couple déclaraient être dans ce cas en 2005, ils sont 36 % en 2017. Des variations apparaissent dans l'investissement domestique selon notamment le capital scolaire et L'investissement dans les tâches domestiques au sein des jeunes couples en 2017 Part de «fortement investi*es» parmi celles et ceux Femme Homme 36% 27% qui ont un enfant 42% 20% qui ont plusieurs enfants 51% 22% qui n'ont pas d'enfant qui ont continué à travailler dans les mêmes conditions après la naissance** 39% 21% qui ont connu une inflexion professionnelle* après la naissance** 47% 23% qui ne travaillaient pas avant la naissance** 56% 21% dont le congé de paternité associé à la naissance** (11 jours) a été pris en partie ou en totalité (enquêté ou le conjoint) 50% 22% * Passage à temps partiel, congé parental ** Ici, la naissance de l'enfant unique ou du deuxième (si plusieurs). « Fortement investi*es » : femme d'un couple «traditionnel» ou homme d'un couple «moderne ». Source : Céreq, enquêtes Génération 1998 et 2010 à 7 ans. Champ : jeunes vivant en couple 7 ans après la fin des études. P3 BREF N°403 - 2021 5 Encadré méthodologique Les résultats présentés dans ce Céreq Bref s'appuient sur l'exploitation statistique des enquêtes Génération 1998 et Génération 2010 menées par le Céreq sur les cheminements professionnels de jeunes ayant terminé leur formation initiale en 1998 et 2010. Ils mobilisent la troisième interrogation de ces deux Générations réalisée respectivement à l'automne 2005 et à l'automne 2017. Ils concernent les jeunes vivant en couple au moment de cette interrogation, un peu plus de 7 ans après la fin de leurs études, entendus ici comme les jeunes déclarant vivre avec un compagnon ou une compagne dans un logement différent du logement parental. Ces deux enquêtes permettent d'analyser les liens entre débuts de carrière professionnelle et début de « carrière » familiale, grâce à un module portant sur les caractéristiques individuelles et l'environnement familial des individus, la répartition des tâches domestiques au sein du couple et les éventuelles conséquences de la naissance d'un enfant sur la vie professionnelle. Ce module n'intègre cependant pas encore de questions permettant de distinguer les couples hétérosexuels des couples homosexuels. Les modèles de couples définissant l'implication dans les tâches domestiques de chacun des conjoints ont été évalués à partir des réponses des jeunes vivant en couple aux trois questions suivantes : « Qui passe le plus souvent l'aspirateur chez vous ? », « Qui prépare le repas du soir le plus souvent, quand vous êtes ensemble chez vous ? » et « Qui fait les courses le plus souvent ? ». Les possibilités de réponses à ces questions étaient : « Vous », « Votre conjoint », « Les deux indifféremment », « Les deux ensemble » ou « Quelqu'un d'autre ». Dans un couple « traditionnel », la femme effectue elle-même ces trois tâches, ou en effectue deux, la troisième étant soit partagée avec le conjoint, soit déléguée à un tiers. Dans un couple « paritaire », les deux membres du couple se répartissent les tâches ou délèguent de façon à être autant impliqués ou que l'implication de la femme ne dépasse pas celle de l'homme de l'équivalent d'une tâche entière. Enfin, un couple est qualifié de « moderne » quand la femme est globalement moins impliquée que l'homme dans la réalisation de ces tâches domestiques. En savoir plus [1] « Vivre en couple et être parent : impacts sur les débuts de carrière », T. Couppié et D. Epiphane, Céreq Bref n°241, 2007. [2] « Quitter le domicile parental : un processus très lié au parcours scolaire et professionnel », A. Robert, E. Sulzer, France Portrait Social, Insee Références, 2020. [3] « Le temps domestique et parental des hommes et des femmes : quels facteurs d'évolutions en 25 ans? », C. Champagne, A. Pailhé et A. Solaz, Économie et Statistique n° 478-479-480, 2015. [4] « Les Français et les congés de maternité et paternité : opinion et recours », K. Antunez, G. Buisson, Etudes et Résultats n°1098, DREES, 2019. [5] « Après une naissance, un homme sur neuf réduit ou cesse temporairement son activité contre une femme sur deux », Stéphanie Govillot, Insee Première n°1454, 2013. [6] L'accueil des enfants de moins de trois ans, Haut conseil de la famille de l'enfance et de l'âge, Rapport du 10 avril 2018. S'inscrire à la lettre d'information social des jeunes femmes. Quelle que soit la Génération observée, la part des couples « traditionnels » diminue systématiquement au fur et à mesure qu'augmente le niveau de diplôme de l'enquêtée. En 2017, on constate un écart de 10 points entre les diplômées de l'enseignement supérieur long et celles de l'enseignement secondaire. L'investissement domestique des jeunes femmes reste également lié au type de profession qu'elles exercent, les cadres continuant à être moins représentées dans ce type de couple que les employées. Mais cet investissement est également dépendant de leurs trajectoires familiale et professionnelle. Les jeunes femmes sans enfant sont moins souvent « fortement investies » que les mères qui, elles-mêmes, se distinguent à la fois selon le nombre d'enfant mais aussi leur situation professionnelle et son inflexion au moment de l'arrivée de leur dernier enfant (cf. Tableau 3). De façon asymétrique, la forte implication des pères reste modeste en toutes circonstances, qu'ils aient ou non opéré un changement professionnel après la naissance de leur(s) enfant(s), ou qu'ils aient seulement bénéficié du congé de paternité instauré en 2002. Par ailleurs, au sein des jeunes couples, en 2017 comme en 2005, les femmes « fortement investies » DEPUIS 1971 Mieux connaître les liens formation - emploi - travail. Un collectif scientifique au service de l'action publique. + d'infos et tous les travaux sur www.cereq.fr Établissement public national sous la tutelle du ministère chargé de l'éducation et du ministère chargé de l'emploi. dans les tâches ménagères sont 1,5 fois moins en emploi à temps plein que les femmes dont le couple partage les tâches de façon plus égalitaire. Elles se trouvent aussi être 1,4 fois plus souvent hors de l'emploi. Ce résultat se retrouve chez les mères comme chez les femmes sans enfant. Sans surprise, les hommes dans ce modèle de couple « traditionnel » sont en revanche plus fréquemment en emploi à temps plein que les autres. Quant à ceux qui dérogent à ce modèle en déclarant s'impliquer très fortement dans l'univers domestique (soit environ un quart des hommes en couple), ils sont significativement (1,7 fois) moins souvent en emploi à temps plein, et deux fois plus souvent en dehors de l'emploi. Au final, tous les clivages ne sont pas balayés et de fortes disparités sexuées subsistent dans les jeunes couples de 2017. Pour les femmes, l'intrication des sphères privée et professionnelle demeure prégnante, la maternité conduisant nombre d'entre elles, provisoirement ou plus durablement, à réduire ou suspendre leur participation à l'emploi. Des évolutions notables se dessinent cependant, pour l'essentiel du côté des femmes. Si une certaine mise à distance de l'emploi au moment de l'arrivée du premier enfant se renforce entre les deux enquêtes, elle apparaît plus transitoire, moins porteuse de conséquences sur leur participation au marché du travail à moyen terme. De plus, cette évolution va de pair avec un certain affaiblissement de la polarisation des rôles sociaux dans la répartition du travail domestique au sein des couples, dépoussiérant ainsi certains stéréotypes. Ces évolutions apparaissent heureuses au regard des risques, toujours réels, d'une dissolution de la cellule familiale et des conséquences économiques auxquelles elle expose les femmes en situation de parent isolé. Ainsi, à l'automne 2017, 16 % des mères ne vivent pas ou plus en couple ; parmi celles-ci, 42 % n'ont pas d'emploi. Reste que si, au sein des couples, les relations entre famille, emploi et travail domestique évoluent chez les jeunes femmes, les changements chez les hommes sont beaucoup plus discrets, se concentrent vers une participation plus active au travail domestique et ne remettent nullement en cause le primat de l'emploi, y compris au moment de la naissance d'enfant(s). En effet, les réformes passées (congé de paternité en 2002, congé parental en 2014) n'ont guère influé sur la façon dont ils articulaient les deux sphères. De ce point de vue, la nouvelle réforme du congé de paternité – étendu à partir de juillet 2021 à 28 jours – est annoncée comme un moyen supplémentaire de faciliter cette conciliation. Portera-t-elle ses fruits en la matière, alors que ce congé va rester, en grande partie, non obligatoire ? BREF N°403|2021 Bulletin de Recherches Emploi Formation du Céreq Directrice de la publication : Florence Lefresne Secrétariat de rédaction et mise en page : Stéphanie Vincent Dépôt légal à parution / Publication gratuite / ISSN 0758-1858 Centre d'études et de recherches sur les qualifications 10, place de la Joliette CS 21321 • 13567 Marseille Cedex 02 T. +33 (0)4 91 13 28 28 • F. +33 (0)4 91 13 28 80
{'path': '50/halshs.archives-ouvertes.fr-halshs-03284441-document.txt'}
Licence professionnelle Bibliothèque Rapport Hcéres To cite this version: Rapport d'évaluation d'une licence professionnelle. Licence professionnelle Bibliothèque. 2013, Université Paris Ouest Nanterre La Défense. hceres-02038258 HAL Id: hceres-02038258 https://hal-hceres.archives-ouvertes.fr/hceres-02038258 Submitted on 20 Feb 2019 Section des Formations et des diplômes Rapport d'évaluation de la licence professionnelle Bibliothèque de l'Université Paris Ouest Nanterre La Défense Vague D – 2014-2018 Campagne d'évaluation 2012-2013 Section des Formations et des diplômes Le président de l'AERES "signe [], les rapports d'évaluation, [] contresignés pour chaque section par le directeur concerné" (Article 9, alinéa 3, du décret n°2006-1334 du 3 novembre 2006, modifié). Evaluation des diplômes Licences Professionnelles – Vague D Académie : Versailles Établissement déposant : Université Paris Ouest Nanterre La Défense Académie(s) : / Etablissement(s) co-habilité(s) : / Spécialité : Bibliothèque Dénomination nationale : SP6-Ressources documentaires et bases de données Demande n° S3LP140007268 Périmètre de la formation  Site(s) (lieux où la formation est dispensée, y compris pour les diplômes délocalisés) : POUND (Pôle métiers du livre) - Saint Cloud (92)  Délocalisation(s) : /  Diplôme(s) conjoint(s) avec un (des) établissement(s) à l'étranger : /  Convention(s) avec le monde professionnel : Médiadix, Centre régional de formation des bibliothèques, le Centre national de la littérature pour la jeunesse, La Joie par les Livres, service du département Art et littérature de la Bibliothèque Nationale de France  Secteur professionnel demandé : SP6-Communication et information Présentation de la spécialité La licence professionnelle Ressources documentaires et bases de données, a été ouverte en septembre 2001, commune à trois options : Librairie, Edition, Bibliothèque. En 2009, ces trois options sont devenues des licences professionnelles à part entière. La licence professionnelle Bibliothèque prépare aux métiers de médiateur et de gestionnaire de secteur. Elle prépare à l'ensemble des concours de la filière Bibliothèque (de la catégorie C à la catégorie A) en fonction publique territoriale et fonction publique d'Etat. Elle permet également d'accéder à des emplois contractuels de catégorie B ou B+. Une formation équivalente est proposée à l'Université Paris Descartes (Paris 5) sous le nom Métiers de l'édition, spécialité Métiers de l'édition, des bibliothèques et du commerce des livres. Au niveau national, des licences professionnelles Ressources documentaires et bases de données sont délivrées par des universités dispersées sur tout le territoire, chacune avec sa spécialité. Le pôle Métiers du livre de l'Université Paris Ouest Nanterre La Défense propose une offre multi-niveaux : outre la licence professionnelle, il existe un DUT Information-communication, et un master professionnel Information et communication, parcours Métiers du livre. 1 La licence professionnelle se déroule selon le parcours suivant : 410 heures de cours universitaires et professionnels, plus 140 heures de projet tuteuré suivi de 15 semaines de stage encadré par des professionnels. Grâce aux conventions signées avec Médiadix et La Joie par les Livres, deux orientations se dégagent : médiation, et littérature jeunesse. Synthèse de l'évaluation  Appréciation globale : La licence professionnelle bénéficie grandement de la présence du Centre régional de formation aux carrières de bibliothèques en Ile-de-France, Médiadix, au pôle Métiers du livre de Saint-Cloud. Ce dernier participe très largement à l'encadrement et au contenu pédagogique de la formation. Médiadix gère la bibliothèque du pôle Métiers du livre et valorise la formation par une préparation aux concours des bibliothèques. Une convention régit cette coopération. Une autre convention a été signée avec la Joie par les Livres pour une spécialisation en littérature jeunesse. La licence professionnelle recrute parmi les bac +2 (DUT, BTS, L2). Elle recrute également des postulants en VAE ou VAP (valorisation des Acquis de l'Expérience ou Professionnels). Les candidats viennent presque pour moitié de province. Il n'en reste pas moins que la majorité des étudiants admis viennent du DUT de l'Université. Pour exemple, selon les statistiques des deux dernières années : 2010-2011 : 52 dossiers, 14 étudiants retenus, tous de l'établissement ; 2011-2012 : 43 dossiers, 10 étudiants retenus, 8 de l'établissement. La licence professionnelle Bibliothèque conserve un tronc commun avec les Licences professionnelles Edition et Librairie, avec lesquelles elle formait une seule licence professionnelle à trois options de 2001 à 2009. Ce tronc commun est destiné à approfondir la culture générale des étudiants, en mettant l'accent sur les sciences humaines, l'art, la littérature, l'édition, ainsi que la culture de l'information. Ces enseignements sont dispensés sous forme de cours magistraux, TD et TP pour l'étude de l'anglais spécialisé. Toutefois, l'encadrement n'a peut-être pas assez pris en compte dans l'enseignement nombre de nouveautés dans le domaine de l'information et de l'apprentissage des connaissances : psychologie cognitive appliquée, e-learning, nouvelles technologies d'accès à la connaissance, et autres. La formation est assurée par cinq enseignants universitaires, deux professeurs de lycée, ainsi qu'un maître de langue et un lecteur. Des réunions pédagogiques annuelles font le point et évaluent cet enseignement (des changements devraient intervenir dans un futur proche puisque la licence professionnelle Edition va disparaître en l'état). L'enseignement académique comprend 130 heures de cours sur les 410 heures de l'enseignement complet, il reste donc 380 heures pour les enseignements professionnels, dont la construction a ainsi grandement bénéficié de l'expérience de Médiadix. Prodigués sous forme de TD, en séance d'une demie journée à une journée, les enseignements professionnels concernent des connaissances nécessaires à des encadrants en bibliothèque : économie spécialisée, principalement en marchés publics, informatique spécialisée, médiation du livre et gestion d'équipe, connaissance de la littérature jeunesse, de l'audiovisuel et des genres musicaux (de la culture générale encore, plus spécialisée), et recherche spécialisée. Un projet tuteuré (à un ou plusieurs étudiants) de 140 heures est encadré par les enseignants professionnels, sur des thèmes en liaison avec le mémoire de fin d'études. Un stage de 15 semaines en bibliothèque est ensuite à effectuer, avec prescription d'une mission qui fait l'objet d'un mémoire de stage. Les enseignants professionnels comprennent neuf personnes : six bibliothécaires ou conservateurs, dont deux de Médiadix, un médiateur culturel (comédien), et deux PAST, professeurs associés, un conservateur et un bibliothécaire. Un conservateur Médiadix, également chargé de la formation continue dans cet organisme, coordonne les enseignements. Les enseignants professionnels se réunissent pour faire le point et évaluer leurs enseignements, ils coopèrent avec les universitaires pour définir les matières de culture générale à proposer. Le responsable de la formation pilote des réunions avec le responsable de l'IUT et Médiadix. Le conseil de perfectionnement, composé du responsable de la formation, de deux conservateurs Médiadix et de deux étudiants, permet de recueillir annuellement les remarques et les suggestions d'enseignants et étudiants. Dans l'optique d'un recrutement plus large pour la formation, les formateurs ont aussi des contacts avec les responsables de licences proches, pour lesquels ils organisent des modules professionnalisants. Des passerelles seront éventuellement proposées pour les L2, avec rattrapages de modules techniques en début d'année. En ce qui concerne l'accès à la formation du public handicapé, aucune précision n'a été apportée, à part l'allusion à la cellule « Handicap » de l'Université. 2 Le bibliothécaire formé à gérer intellectuellement et matériellement les collections de documents, les présenter et les promouvoir auprès du public, tout en utilisant les moyens techniques les plus novateurs, trouve–t-il un poste après sa formation ? Des enquêtes sérieuses ont été menées à partir de 2009 (celles d'avant restent très aléatoires, vu le petit nombre de réponses reçues). Il n'y a donc pas beaucoup de recul, mais en trois ans on peut se faire une idée du taux et de la qualité de l'insertion professionnelle des étudiants-bibliothécaires. Tout d'abord, très peu d'entre eux ont poursuivi leurs études, ce qui est conforme aux objectifs des licences professionnelles, et entre 70 et 75 % ont trouvé un poste dans un délai inférieur à six mois, dans des structures de bibliothèques ou de médiathèques, pour la grande majorité, ce qui confirme le bien-fondé et l'utilité de cette formation, toute orientée qu'elle est vers la préparation de bibliothécaires efficaces, et capables de passer les divers concours des bibliothèques, dont on pourrait dire qu'elles foisonnent dans la région Ile–de-France.  Points forts : • • • •  Des partenariats passés avec Médiadix et la Joie par les livres. La possibilité pour les étudiants de préparer les concours publics des bibliothèques. Le taux et la qualité de l'insertion professionnelle. Le conseil de perfectionnement actif et se réunissant de manière régulière. Point faible : • Le contenu des enseignements ne prend pas suffisamment en compte les nouveautés dans le domaine de l'information et l'apprentissage des connaissances. Recommandations pour l'établissement Il conviendrait que la licence professionnelle élargisse son recrutement en dehors du DUT de l'établissement, en réservant un certain nombre de places pour des postulants très motivés venant d'autres horizons. Des passerelles avec des formations de licence pourraient également être mises en place. La formation gagnerait à élargir ses liens avec les milieux professionnels, le périmètre étant très centré vers l'organisme de formation local et ne profitant pas assez de la richesse en établissements et en professionnels dans la région Ile-de-France. On pourrait aussi repenser la construction des modules, aussi bien de culture générale que d'enseignement professionnel, par une prise en compte de nouveaux aspects (par exemple l'histoire des sciences, la psychologie appliquée, les nouvelles méthodes d'apprentissage mais aussi la gestion de bibliothèque, le droit de l'information et les nouvelles technologies de l'information), en diversifiant et en enrichissant l'encadrement. Notation  Projet pédagogique (A+, A, B, C) : B  Insertion  Lien professionnelle (A+, A, B, C) : A avec les milieux professionnels (A+, A, B, C) : A  Pilotage de la licence (A+, A, B, C) : A 3 Observations de l'établissement CAMPAGNE D'HABILITATION, VAGUE D Observations relatives au rapport d'évaluation de la LICENCE PROFESSIONNELLE, spécialité : SPECIALITE, BIBLIOTHEQUE Demande n° S3LP140007268 Responsable de la formation : NOM Prénom CLÉMENT Sarah Email sarah.clement@u-paris10.fr 1/ Observations portant sur la rubrique « SYNTHESE DE L'EVALUATION » Appréciation La synthèse de l'évaluation témoigne de l'attention portée à notre diplôme et d'une globale reconnaissance de ses atouts, comme de ses limites. Plusieurs remarques sont intéressantes et constructives : elles vont nous permettre d'améliorer l'offre de formation. Il se trouve qu'elles correspondent en partie à des évolutions envisagées notamment lors du dernier conseil de perfectionnement (voir le rapport en annexe), ce qui confirme le bien-fondé de nos orientations communes. Points forts Nous remercions l'AERES pour sa lecture attentive du dossier et pour la richesse de ses recommandations qui nous permettront d'améliorer et d'élargir la formation, tant sur le plan des recrutements que des contenus. Points Nous revenons dans cette partie « points faibles » sur le contenu des cours déjà faibles existants qui répondent en partie aux préconisations des experts. Il s'agit ici d'expliciter des intitulés un peu trop génériques : - - Les NTIC sont prises en compte dès le DUT et complétées en LP par le cours intitulé « Panorama des évolutions du web » (dans l'UE 8) axé sur les formes ouvertes contributives (web 2.0, le web de données et le web de service). Ce cours dispensé par Muriel Amar, spécialiste des questions numériques, permet aux étudiants de connaître les évolutions du web pour y positionner activités et services de la bibliothèque. Il revient sur la façon dont les bibliothèques utilisent les médias sociaux (comptes facebook, twitter) pour la valorisation. En DUT sera également proposé en première année un cours sur la culture numérique et notamment sur les digital natives. Une partie des heures consacrées à l'audiovisuel sera dédiée cette année à un cours de gestion de fonds de vidéothèque (valorisation des politiques documentaires, acquisitions et droit du film) pour renforcer le volet professionnel de la formation. Toutefois nous prenons en compte la remarque des rapporteurs sur l'élargissement de l'offre d'enseignement en NTIC et sommes volontaires pour renforcer encore cet aspect de la formation. 2/ Observations portant sur la rubrique « RECOMMANDATION POUR L'ETABLISSEMENT » - Pour l'ouverture aux autres formations que le DUT : elle est prévue à la rentrée 2014. Nous allons préciser nos critères de recrutement en direction des étudiants des filières générales. Nous avons fait une proposition de passerelle avec les UFR et nous tenons à disposition de notre université pour faire avancer ce projet. Par ailleurs chaque année nous accueillons déjà un ou deux étudiants ayant d'autres diplômes que le DUT. Pour l'élargissement aux autres DUT que celui de Nanterre, signalons que peu d'étudiants de notre DUT ont été recrutés cette année, ce qui confirme notre volonté d'ouverture à des « postulants motivés » venant d'horizons variés. - En ce qui concerne l'élargissement des liens avec les milieux professionnels, nous rappelons que la formation a signé une convention avec la Bibliothèque Nationale de France qui assure 40 heures de cours dans la formation (dispensées par la Joie par les livres) et que Muriel Amar, PAST à l'IUT est également conservateur à la BNF. Nos liens avec cette institution majeure du milieu des bibliothèques sont donc très étroits et viennent s'ajouter à ceux tissés avec Mediadix. Nous envisageons en outre l'année prochaine de faire des projets tuteurés réels au sein de plusieurs établissements (Bibliothèque de Levallois et de Fresnes notamment), ce qui permettra de renforcer des partenariats avec d'autres bibliothèques. Jusqu'à présent ces projets tuteurés étaient fictifs, les ancrer dans la réalité en donnant aux étudiants une mission effective à réaliser dans une structure professionnelle paraît un bon moyen d'élargir nos liens avec les établissements d'Ile-de-France. - Pour l'introduction à la culture scientifique : l'enseignement SHS tel qu'il est conçu (UE 3) contient une composante épistémologique (qu'est-ce que la science, le clivage science de l'homme / science de la nature, la question de la nature humaine avec une ouverture vers les neurosciences). Néanmoins nous prenons bonne note du souhait des rapporteurs sur ce point. - Afin d'ouvrir les enseignements à la psychologie cognitive appliquée et de renforcer les cours de NTIC, nous pensons créer un cours sur l'ergonomie visuelle qui pourrait être dispensé par Joëlle Cohen, spécialiste de l'ergonomie cognitive et des interactions homme-machine (IHM). Ce cours permettrait aux étudiants de mieux connaître les lois des processus visuels, ainsi que les conditions générales d'efficacité des dispositifs de visualisation des informations. - Le droit de l'information est déjà traité en DUT et dans l'UE 4 (Droit et économie du livre). En revanche un nouveau cours de management et gestion d'équipe est envisagé, ce qui va dans le sens des propositions émises par les rapporteurs sur les nouvelles méthodes de gestion des bibliothèques. 3/ Observations portant sur la rubrique « NOTATION » Le dossier soumis à l'AERES n'a pas suffisamment détaillé le contenu pédagogique des enseignements professionnels, ce qui peut expliquer l'obtention de la note B sur ce point. Or il se trouve que le contenu pédagogique de la formation est très apprécié des étudiants (comme le relève la dernière enquête de satisfaction : nous joignons en annexe le rapport du conseil de perfectionnement pour l'année 2012-2013 qui en témoigne) et qu'un certain nombre des préconisations des experts ont été anticipées par la maquette de la licence professionnelle, mais n'ont pas été suffisamment mises en valeur dans le dossier. Pas d'observation particulière sur les autres notes. REMARQUE : Les responsables de formation ont apporté, ci-dessus, les observations relatives au rapport d'évaluation de leur formation qui leur semblaient pertinentes. Deux précisions sont apportées par l'Etablissement : 1/ L'Observatoire de la Vie Etudiante (OVE) de l'Université Paris Ouest Nanterre La Défense a été mis en place en juin 2013. En partenariat avec les responsables de formation, il a pour missions de collecter, analyser et diffuser des enquêtes sur la réussite des étudiants dans leur formation et sur leur devenir professionnel. Les équipes de formations bénéficieront, dans le contrat 2014-2018, de ces données demandées par l'AERES. Accessible directement sur le site de l'université ( http://ove.u-paris10.fr/ ), l'OVE publiera les enquêtes nationales ou celles de l'établissement. 2/ Dans le contrat 2014-2018, l'Etablissement s'engage également à définir et à formaliser, en concertation avec les équipes de formation, une procédure d'évaluation des formations par les étudiants, en s'appuyant sur les nombreuses formes d'évaluation qui existent d'ores et déjà dans l'Université Paris Ouest Nanterre La Défense. Le Président de l'Université Paris Ouest Nanterre La Défense M. Jean-François Balaudé ANNEXE : COMPTE RENDU CONSEIL DE PERFECTIONNEMENT LP BIBLIOTHEQUE 22 AVRIL 2013 Enseignants présents : Muriel Amar, Sarah Clément, Laurence Favreau, Camille Jove Excusées : Claudine Hervouët, Sandrine Lagore Etudiants présents : Maddy Léchevin, Marion Clément CALENDRIER : le recrutement aura lieu les 12 et 13 juin, le mémoire de stage est à rendre le 10 juin, les soutenances auront lieu les 17, 19 et 24 juin. I Remarques des étudiants sur la formation : Maddy Léchevin et Marion Clément ont mené une enquête de satisfaction auprès de la promotion et nous présentent leurs résultats (80% des étudiants ont répondu à l'enquête) : Points positifs : - - - - Les mercredis et samedis réservés aux vacations doivent être conservés. Les étudiants sont très contents actuellement de leur stage. Ils ont apprécié durant l'année la mise à disposition du matériel informatique, la formation en petit groupe ainsi que l'encadrement et le fort investissement de leurs professeurs qui ont pour la plupart donné des supports de cours très riches. Le nouveau cours de Martine Parmentier sur la connaissance musicale, mis en place cette année, a été très apprécié. Axé sur la musique en bibliothèque, il a toute sa place dans la formation. Les contenus des cours professionnels sont très satisfaisants. Les cours du tronc commun sont dans l'ensemble aussi très satisfaisants, même si certaines matières ont pu poser quelques difficultés à certains, notamment les sciences humaines et la littérature, qu'ils jugent cependant très utiles dans l'optique des concours de catégorie A. En droit les étudiants ont apprécié la clarté du cours et son ancrage dans l'actualité. Les cours d'histoire de l'édition, de sciences humaines et de littérature ont été jugés très enrichissants et denses. Le bilan des projets tuteurés et parcours culturel est très positif, même si les étudiants regrettent que la répartition des sujets de parcours culturel ait été faite trop tard. Les étudiants souhaiteraient que les enseignants harmonisent également la date de rendu des parcours. Les étudiants sont toujours très satisfaits des cours donnés par la Joie par les livres. Points négatifs : - Les étudiants n'ont pas eu l'intégralité de leurs notes à ce jour. Une partie vient de leur être envoyée et il leur a été répondu que le nécessaire sera fait pour qu'ils obtiennent les dernières au plus vite. Ils évoquent un problème de consigne dans le partiel d'histoire de l'art. Les étudiants regrettent encore des redondances dans la formation, en histoire de l'édition et à la Joie par les livres sur la presse jeunesse. Pour éviter ces redondances, une vingtaine d'heures à la Joie par les livres a été supprimée cette année, il faudrait donc harmoniser le contenu du cours pour éviter les redites. Choses à améliorer : - - Les étudiants souhaitent que le cours d'audiovisuel intègre des éléments sur la gestion d'un fonds de vidéothèque, sur la valorisation des politiques documentaires, sur les acquisitions et le droit du film. Les questions d'analyse filmique doivent être complétées par un cours plus ancré sur la spécificité du film en bibliothèque. On envisage donc d'y consacrer 20 heures sur les quarante allouées à l'audiovisuel. La question des redondances a été comme l'année précédente évoquée. Les deux étudiantes n'ayant pas fait de DUT et celles qui viennent de l'IUT Paris Descartes ont constaté très peu de redondances avec leur formation d'origine. En revanche celles du DUT de St Cloud et de Dijon déplorent encore trop de redites (sur le catalogage, le droit d'auteur et l'histoire de l'édition jeunesse). Il leur a été répondu que le diplôme s'adresse à des étudiants venant d'horizons divers et qu'il doit s'adapter à chacun en faisant une remise à niveau globale. Les étudiants sont prévenus du risque de redondances lors des recrutements. En outre les enseignants conseillent aux étudiants d'intervenir davantage pour rappeler ce qu'ils savent déjà. II Questions diverses - Etudiants comme enseignants restent très favorables sur le principe d'un cours de management et gestion d'équipe qui pourrait être donné par Valérie Grignoux de la BNF. - Muriel Amar rappelle que la réforme Peillon sur la semaine de quatre jours et demi amène certaines bibliothèques à accueillir des élèves de 15h45 à 16h30. Cette ouverture sur la ville de la bibliothèque, qui devient co-partenaire de l'école, est intéressante, même si elle est pour l'instant perçue avec crainte par le personnel. Les étudiants en stage travaillent actuellement sur la mise en place d'animations de 15-20 mn pour l'année prochaine sur ces créneaux horaires. - Deux enseignantes de la LP nous quittent l'an prochain. Laurence Favreau met à la disposition du futur intervenant ses supports de cours et nous l'en remercions. - Muriel Amar suggère qu'une conférence de 3 heures soit consacrée à la présentation d'une ludothèque par un professionnel. Le jeu est un appui cognitif intéressant pour l'apprentissage de la lecture et se développe de plus en plus en médiathèque. - Projets tuteurés : Les sujets de projets tuteurés seront remis courant juin au responsable de la LP, en même temps que ceux de deuxième année et d'AS. Muriel Amar souligne que ces projets fictifs sont « ancrés dans une fausse réalité ». L'idée de s'appuyer sur de vrais commanditaires, en faisant appel au réseau des anciens, comme le fait l'IUT de Paris V, est évoquée. Si la gestion en amont est plus lourde, la dimension réelle du projet pourrait diminuer l'impression de redondance des étudiants ayant déjà réalisé un PT en DUT. Les tuteurs n'identifient que la structure d'accueil elle-même en charge du sujet de PT qu'elle confie aux étudiants (ex : commémoration d'un écrivain à Radio France, organisation d'un événement dans un Institut de Jeunesse et des Sports, etc.) - Enquête à 6 mois diplômés 2012 : L'équipe se félicite du taux de 80% d'insertion professionnelle à 6 mois. Deux étudiantes de l'année dernière demeurent néanmoins en recherche d'emploi. - Ouverture aux L2 : La question de l'ouverture aux L2 est aussi évoquée. La maquette de cours de remise à niveau pour les étudiants de Nanterre qui auraient choisi l'option bibliothèque dans leur parcours est présentée à l'équipe et validée. Les deux étudiantes qui n'avaient pas de DUT cette année avaient déjà travaillé significativement en bibliothèque. Sandrine Lagore les a utilement remises à niveau en catalogage en début d'année et elles n'ont eu aucune difficulté pour suivre la formation. En conclusion les nouvelles orientations mises en place cette année (meilleure spécialisation dans le domaine culturel, arts visuels et musique, ainsi que dans les nouvelles technologies) semblent apporter satisfaction. Davantage affinées, elles seront reconduites l'année prochaine. Un nouveau cours de management devrait également être proposé. Pour l'équipe, Sarah Clément
{'path': '36/hal-hceres.archives-ouvertes.fr-hceres-02038258-document.txt'}
Pourquoi et comment élaguer notre sapin vosgien ? Jean Locatelli To cite this version: Jean Locatelli. Pourquoi et comment élaguer notre sapin vosgien ?. Revue forestière française, AgroParisTech, 1977, 29 (5), pp.375-380. 10.4267/2042/21156. hal-03396312 HAL Id: hal-03396312 https://hal.archives-ouvertes.fr/hal-03396312 Submitted on 22 Oct 2021 POURQUOI ET COMMENT ÉLAGUER NOTRE SAPIN VOSGIEN ? J . LOCATELLI C/ass. Oxford 245.1 : 174 Abies Le sapin pectiné (Abies a/ba) est certainement un des arbres les plus aimés des sylviculteurs de nos montagnes par sa sylviculture et sa régénération facile, sa productivité et même tout simplement par sa beauté . Mais en tirons-nous tout le parti possible? Une pratique de près de 30 ans dans la sapinière vosgienne nous a encouragé à exposer notre point de vue sur l'élagage du sapin pectiné. Tout d'abord une constatation : nos sapinières ne fournissent pas assez de bois de qualité, donc à valeur élevée, au mètre cube et trop de bois de charpente ou de coffrage . Il est courant d'observer dans les vieilles futaies régulières vosgiennes de 100 à 120 ans avec un diamètre moyen de 45/60, la présence de noeuds sur la quasi-totalité du fût, cependant débarrassé de branches vivantes sur près de 20 m . Malgré la beauté des tiges et des peuplements, en dépit de la faible décroissance, de la régularité des accroissements, la quasi-totalité de la production, sauf les deux premiers mètres de la bille de pied, passera en charpente. Qu'en est-il en scierie? En regardant débiter une bille, on remarque, dès la tombée de la dosse et de la première planche, l'apparition de noeuds noirs ou blancs (morts ou adhérents) de diamètre plus ou moins gros de 0,5 à 5 cm, déclassant irrémédiablement le produit tombant de la scie . L'art du scieur de tête à éliminer les noeuds ne saurait remplacer celui du forestier de les éviter pendant la vie de l'arbre. Au cours des dernières décennies, l'observation, cent fois répétée, du travail du sagard dans les diverses scieries résineuses approvisionnées par les massifs des vallées (Zorn, Sarre, Vezouze), les renseignements reçus, les notes prises au cours de ces observations et surtout l'analyse des débits dans les scieries domaniales de Machet-Saint-Sauveur et Abreschviller, nous permettent de chiffrer pour les scieries à débit rapide une production de bois de choix (Plot et I) d'environ 10 à 12 % du volume scié. Pour la scierie artisanale, la production de choix peut être majorée de 20 à 25 % par une meilleure et plus longue présentation de la bille, ceci au détriment de la qualité charpente choisie. La mécanisation de plus en plus poussée, le débit de plus en plus rapide, le rythme accéléré de l'ensemble des postes d'une scierie moderne contribuent à abaisser ce pourcentage de bois de qualité . Comme la valeur marchande de l'arbre arrivé à maturité est fonction en grande partie de la valeur des produits que l'on en tire, il est facile de voir l'intérêt d'une action plus décisive du sylviculteur. UN EXEMPLE SIMPLE Prenons un sapin courant dans notre région donnant une grume de 28 m de long et 0,65 m de diamètre à 1,30 m, soit 5,05 m 3 sur écorce et 4,60 m 3 sous écorce. 375 R .F. F. XXIX - 5 - 1977 J . LOCATELLI La première bille de 8 m (2,11 m 3 ) se présente avec un noyau central de 40 à 50 cm avec des noeuds attachés donnant uniquement de la qualité charpente ou bastaings et une partie extérieure peu épaisse sans noeuds constituant le bois de premier choix, avec, entre les deux, une zone intermédiaire comprenant des noeuds non adhérents, tombant au sciage et de qualité médiocre. Le volume du noyau central et de la zone intermédiaire peut être estimé en hypothèse favorable à : 2 r x 0,48 4 x 8 = 1,44 m 3 tandis que l'extérieur pour le bois de choix ne représente que 0,67 m 3 (31 %) . En estimant que la troisième « tronce » (les 4 m suivants) donne encore 5 cm sur le rayon de bois de choix soit 0,23 m 3 de bois de choix, on peut tirer de ce bel arbre 0,67 + 0,23 = 0,90 m 3 soit moins de 20 % dans la meilleure hypothèse. Au prix 1974, la qualité menuiserie-ébénisterie a été payée aux environs de 350 F le mètre cube sur pied, la qualité charpente environ 200 F . Ce sapin de 0,65 de diamètre à 1,30 m aurait donc valu : 0,90 x 350 = 315 F + 3,70 x 200 = 740 F 1 055 F Supposons que la même tige ait été élaguée à partir du diamètre 12 cm sur une hauteur de 8 m, on aurait obtenu au même âge le même volume 4,60 m 3 sous écorce mais avec une bille de pied de bien meilleure qualité . En supposant le même volume de cette bille soit 2,11 m 3 avec un noyau de 17 cm de diamètre (en tenant compte de la cicatrisation), elle fournirait un volume de bois de choix de 2,11 – 0,18 = 1,93 m 3 . Pour l'ensemble de la tige, on aurait ainsi : 1,93 + 0,23 = 2,16 m 3 soit 46 % de bois de qualité, plus du double que dans le premier cas. Avec les mêmes bases que précédemment, ce sapin de 0,65 de diamètre à 1,30 m aurait donc valu : 2,16 x '350 = 756 F + 2,44 x 200 = 488 F 1 244 F Ce calcul simple montre que l'élagage à 8 m apporterait à la récolte un supplément de valeur de 189 F. LA PRATIQUE DE L'ÉLAGAGE La création de peuplements capables de produire une forte proportion de sciages de haute qualité passe, dans notre hypothèse, par un élagage artificiel opéré dans la sapinière jeune. Convaincu de la validité de cette hypothèse, dans les forêts domaniales de Bousson, de Grandcheneau, les forêts communales d'Angomont, Bréménil, Cirey-sur-Vezouze, Neuviller, Petitmont, Val-et-Châtillon (toutes en Meurthe-et-Moselle) entre 1955 et 1973, plus de 19 000 sapins ont été élagués . Et c'est à partir de cette expérience très concrète qu'il sera exposé très pratiquement où, quoi, quand et comment élaguer dans le cas de la sapinière basse vosgienne ? Chaque lecteur pouvant ensuite adapter au cas de ses peuplements. II faut élaguer assez tôt, entre 30 et 40 ans, environ 300 arbres par hectare sur des parcelles entières de bonne qualité . 376 Technique et forêt Entre l'abondance de tiges d'un jeune peuplement issu de régénération naturelle et le nombre restreint des arbres du peuplement définitif, il faut évidemment choisir les tiges à élaguer. Il serait en effet aberrant d'élaguer des arbres destinés à partir en éclaircie qui ne produiront donc pas du bois de choix justifiant les frais d'élagage. Mais d'abord, de façon réaliste, il ne faut travailler que sur des surfaces suffisantes pouvant, lors de la mise en marché, fournir des lots homogènes suffisamment importants donc 3 à 5 ha au minimum . Sur le plan économique, rien ne sert d'élaguer 10 ou 20 sapins par-ci, par-là. Les peuplements choisis devront être assurés d'une bonne longévité naturelle, peu sensibles aux chablis, maladies ou dégâts de gel . Un sol très fertile n'est pas de nécessité première, des accroissements bien réguliers sont bien préférables et à notre connaissance des cernes de 2 à 3 mm sont les plus appréciés pour le bois de qualité recherché. Il faut attendre au moins la coupe définitive car, jusque-là, il y a toujours des risques de dégâts d'exploitation . Mais il vaut mieux une décennie d'attente de façon à juger les réactions du peuplement à la pleine lumière et déterminer les plus vigoureux . En effet, aussitôt après la coupe définitive, on ne peut connaître ceux qui formeront l'élite, qu'il s'agira de discerner et d'ordonner ; d'autre part, les bris de neige sont assez fréquents sur les tiges frêles aux systèmes racinaires encore mal étoffés et aux houppiers irréguliers. Ceci ne veut pas dire qu'il faut s'endormir pendant ce temps ; il faut éduquer cette jeunesse car il ne faut pas croire qu'entre 15 et 30 ans « ça va se débrouiller tout seul » . Cette décennie d'attente doit être utilisée pour les dépressages qui améliorent la structure des perchis . Mais ceci est une autre histoire . Si on commence trop tôt après le dépressage dans des bas perchis de 4 à 8 m de hauteur, diamètre 8 à 12 cm, il faudra répéter l'élagage des branches vivantes pour avoir une grume de 8 m nette de noeuds . L'attente de 10 à 12 ans permet de trouver un perchis de 9 à 14 m, de diamètre 12 à 20 cm déjà marqué par l'élagage naturel. Le bois de choix : résultat de l'élagage vers 1900 377 R .F .F . XXIX - 5 - 1977 J . LOCATELLI A notre avis, l'entrée de l'élagueur dans le peuplement doit donc se faire entre 20 et 60 ans au plus tard pour un diamètre à 1,30 m compris entre 12 et 32 cm, la meilleure période se situant entre 30 et 40 ans, diamètre 12 à 18 cm. Le choix des arbres à élaguer dans le peuplement ne peut résulter que de l'application d'une méthode de sélection . MM . Martinot-Lagarde et Perrotte écrivent ( 1 ) : « dans l'idéal, les arbres de place devraient être à la fois : - les meilleurs arbres de la parcelle; - des tiges régulièrement réparties sur le terrain à intervalle donné ». Les sapins à élaguer présenteront donc les caractéristiques suivantes : bonne vigueur; fût rectiligne à faible décroissance; cime bien développée; absence de tares (dorges, gélivures, fourches, blessures) ; capacité à réagir à l'éclaircie; branches à élaguer pas trop grosses (diamètre 4 cm maximum). L'observation de belles futaies de sapin à l'âge d'exploitabilité (120-130 ans) donne des moyennes voisines de 300 tiges par ha soit une répartition des tiges tous les 5 à 7 m. Dans la pratique, les jeunes perchis bien réussis de 7 à 12 cm de diamètre permettent assez facilement cette désignation, mais on a alors tendance à en marquer trop jusqu'à 400/500. Dans les perchis plus âgés - diamètre 12 à 22 cm - la sélection naturelle a déjà fait son oeuvre et les dominants devront être examinés de près. Dans les perchis plus hétérogènes, et Dieu sait s'il y en a après des coupes de régénération ayant traîné, après des accidents par chablis ou d'exploitation, le choix des sujets à élaguer devient plus difficile et la gamme des diamètres va de 10 à 30 cm . Pour conserver la densité suffisante, il est nécessaire de garder les plus vigoureux mais il faut toutefois s'abstenir d'élaguer des sapins portant encore des branches vivantes au-dessous de 4 m ou avec des noeuds de plus de 4 cm de diamètre. Plus l'âge du peuplement sera avancé, plus l'on est conduit à retenir les tiges déjà avancées dans la course et plus il est difficile de respecter une bonne répartition ; cette post-désignation n'est en fait qu'une confirmation . Plus tard, la nature a opéré une telle sélection en faveur des plus vigoureux souvent très branchus, à fort défilement, mal répartis qu'il n'est plus possible d'envisager honnêtement une production de bois de choix et qu'il est donc inutile d'élaguer. Le choix des arbres à élaguer est une opération d'équipe menée comme un classique martelage en réserve . Le personnel sensibilisé au problème et dûment qualifié se place en virée, parcourt chacun un couloir de sélection de la largeur retenue comme intervalle et opère en accord constant avec ses voisins pour l'observation des arbres et le meilleur respect des espacements. C'est un travail assez long qui exige un examen attentif de l'arbre et qui ne doit pas être mené simultanément avec une opération de martelage . Les agents doivent posséder toutes les qualités d'un excellent marteleur, coup d'oeil, jugement sûr, conscience de l'avenir, c'est-à-dire savoir apprécier rapidement et pleinement la qualité et la place de l'arbre dans les enlèvements successifs que seront les éclaircies ultérieures. L'arbre retenu est d'abord indiqué par une ficelle (car ceci permet de revenir éventuellement sur le choix sans laisser de traces) puis griffé à 1,30 m et mesuré sur le trait de griffe . Lors de l'élagage, il sera marqué d'un anneau de peinture, rafraîchi ensuite tous les 20 ans. Cette marque à la peinture semble, à l'expérience, indispensable pour éviter toute erreur possible des futurs marteleurs ; d'où l'importance lors du choix de la vue globale de la vie 11 Cf . Bulletin technique de l'Office national des forêts, n°4 . - La technique de désignation d'arbres de place par carrés. 378 Technique et forêt du peuplement sur les 60 à 100 ans à venir et de la qualité de l'opérateur . C'est en même temps un label de qualité attribué au peuplement et un signe évident, pour les visiteurs à l'ceil peu exercé, que le forestier ne se contente pas de se promener dans les forêts. Bien entendu, une éclaircie forte par le haut devrait suivre rapidement pour favoriser les sapins choisis et ainsi augmenter leur accroissement et améliorer la proportion de bois de choix dans la production totale de la parcelle ou, encore mieux si c'était possible, deux éclaircies légères avec une rotation de 4 ans. L'élagage se fera autant que possible en période d'arrêt de la végétation pour réduire les exsudations de résine et les attaques de champignons . D'autre part, en cette saison de ralentissement des autres travaux sylvicoles, ceci favorise l'emploi permanent des ouvriers . Bien que le rendement soit diminué en période de neige ou avec des températures jusqu'à -5 °C, on peut toujours couper des branches mortes ou noeuds noirs. Avec 20 ans d'expériences et de nombreux essais d'outils divers, ce sont toujours l'égoïne et la scie Ervé, avec une denture inclinée au pas de 6 mm, qui sont à préférer (il est regrettable que la scie mise au point par M . Cochard à l'École nationale des eaux et forêts ne soit pas commercialisée car, en réalité, c'est elle qui donne le plus de satisfaction). Jusqu'à 4 m de hauteur, l'élagage est effectué depuis le sol avec l'égoïne puis la scie Ervé avec ses deux éléments assemblables de 1,25 m de long, de préférence en bambou équipés d'embouts filetés plutôt que les rallonges classiques en aluminium. Au-dessus de 4 m, l'utilisation d'échelles coulissantes en bois, équipées en haut de deux oreilles métalliques pour assurer leur tenue sur des fûts de 15 cm de diamètre, s'est révélée la plus économique. Les branches sont sciées au ras du bourrelet d'insertion en évitant toute blessure au fût. Ne sont enlevées que les branches mortes ou les branches touchées par un arrêt quasi complet de végétation, déjà dépérissantes. Sur le sapin, la cicatrisation des plaies d'élagage n'a posé jusqu'à ce jour aucun problème. Pour les branches vivantes, les tissus de la surface de coupe se dessèchent à l'air . Le pourtour du bourrelet se développe et recouvre au fil des ans la cicatrice d'élagage . Dans un délai de 6 à 10 ans, le bourrelet de cicatrisation n'est plus visible. Pour les arbres un peu isolés, il apparaît parfois de petits gourmands de quelques centimètres venant des bourgeons proventifs . C'est sans grande conséquence car ils donneront des petits noeuds vivants de 2 mm de diamètre ne provoquant pas de déclassement dans le bois de choix et, au contraire, lui conférant une certaine esthétique. QUEL EST LE COÛT ET LA RENTABILITÉ DE L'OPÉRATION? Donnons quelques résultats très concrets et précis venant de cette pratique de plus de 20 ans. Le choix des arbres à élaguer, bien que tout le coût ne soit pas à porter au seul élagage, s'élève à environ 0,84 F par arbre. Une équipe de deux agents faisant le choix, deux agents assurant la mesure, un pointeur et un technicien responsable de l'opération choisissent et inventorient 150 tiges de sapin à l'heure dans des peuplements corrects, soit pour une journée de 8 heures 1 200 sapins pour 1 010 F (prix 1973). Un programme de 3 000 sapins par an nécessite au mieux trois jours de travail de l'équipe, soit 120 heures de travail effectif pour le personnel technique. L'élagage proprement dit peut se faire en deux passages (un premier jusqu'à 6 m, un deuxième trois ans après sur 2 m supplémentaires), soit en trois passages successifs jusqu'à 4, puis 6 et enfin 8 m . Bien évidemment, le coût s'accroît avec la hauteur, les deux derniers mètres 379 R .F .F . XXIX - 5 - 1977 J . LOCATELLI étant presqu'aussi coûteux que les six premiers . La hauteur élaguée de 8 m parait être un maximum tout en permettant d'obtenir deux billes de 4 m, longueur d'utilisation fréquente pour ce bois de qualité. Les comptes de l'année 1973 donnent les coûts suivants 3 passages 2 passages jusqu'à 4 m . jusqu'à 6 m jusqu'à 8 m peinture matériel et divers 0,80 2,00 2,60 0,30 0,10 2,70 2,60 0,30 0,10 Total T .T .C 5,80 F 5,70 F L'opération élagage revient donc à 5,80 + 0,84 = 6,64 F, mettons pour simplifier et tenir compte des imprévus 7 F par tige. Si, dans une optique très réaliste, nous retenons comme variables moyennes, l'élagage à 30 ans et la récolte à 120 ans, un coût d'élagage de 7 F par tige et un supplément de valeur sur pied de 189 F dû à la proportion plus élevée de bois de choix, le bénéfice net actualisé, aux taux couramment admis pour les sapinières vosgiennes de 2 à 3 %, est à l'année de l'opération (année 30) de 13,50 F (à 2,5 %) . Le taux interne de rentabilité (celui qui annule le bénéfice net actualisé) est proche de 3,75 %, assez nettement supérieur au taux de fonctionnement du peuplement. Il est vrai d'une part que tout le bois sans noeuds ne donnera pas des sciages ébénisteriemenuiserie par suite des dosses, des délignures, de la sciure, des pertes au sciage, mais le calcul est basé sur le prix du bois sur pied et la différence est l'affaire du scieur . D'autre part, on peut logiquement espérer un raccourcissement des révolutions avec la demande de moins gros diamètres et le développement de scieries hautement mécanisées . Seul l'élagage permettra de satisfaire la demande croissante de sciages de choix, de droit fil et sans noeuds pour la raboterie, la menuiserie, les moulures, etc ., et de charpente de toute première qualité. Pour le sapin, le profit financier de l'élagage est supérieur au taux couramment admis pour la sapinière, mais certes n'est pas exceptionnel . Mais la disparition progressive des scieries faiblement mécanisées et, à l'opposé, la demande croissante de sciages de sapin de haute qualité dont la proportion est actuellement ridiculement basse conduisent à chercher à assurer en plus grande quantité et plus rapidement la production de bois de choix. Il faudra d'ailleurs sensibiliser la clientèle scieurs et fabricants en aval à cette production tant pour sa qualité technique et sa présentation esthétique que pour sa résistance mécanique. A ce titre, l'anneau de peinture entretenu jusqu'à la récolte dans les peuplements travaillés est une véritable affiche publicitaire ; ce qui n'exclut pas de donner à l'acheteur une garantie de qualité si, comme ce devrait être la règle, les dates et les inventaires lors des opérations d'élagage sont scrupuleusement portés au calepin d'aménagement. Enfin, la pratique de l'élagage exige du sylviculteur une culture plus suivie et plus intensive de la sapinière de production . Comme on dit dans les Vosges « faire de la belle ouvrage », n'est-ce pas aussi la fierté du forestier? Jean LOCATELLI Chef technicien de l'Office national des forêts Val-et-Châtillon 54480 CIREY-SUR-VEZOUZE 380
{'path': '01/hal.archives-ouvertes.fr-hal-03396312-document.txt'}
Temporalités d'action et pratiques d'anticipation stratégique en contexte extrême : le cas de l'émergence d'une crise en course au large Sylvain Mondon To cite this version: Sylvain Mondon. Temporalités d'action et pratiques d'anticipation stratégique en contexte extrême : le cas de l'émergence d'une crise en course au large. XXXème conférence annuelle de l'Association internationale de management stratégique (AIMS), Association internationale de management stratégique (AIMS), Jun 2021, En ligne, France. halshs-03324387 HAL Id: halshs-03324387 https://halshs.archives-ouvertes.fr/halshs-03324387 Submitted on 23 Aug 2021 XXXème conférence de l'AIMS Temporalités d'action et pratiques d'anticipation stratégique en contexte extrême : le cas de l'émergence d'une crise en course au large Mondon, Sylvain Conservatoire national des arts et métiers, Laboratoire interdisciplinaire de recherches en sciences de l'action (EA4603) Sylvain.Mondon@lecnam.net Résumé : L'organisation évoluant en contexte extrême est habituée à traiter des changements de temporalités sous forte pression. La recherche qualitative exploratoire empirique orientée par la pratique vise à identifier et circonscrire les phénomènes organisationnels se produisant pendant ces changements de temporalités. L'accès à des pratiques d'anticipation stratégique au moment où elles se produisent est rendu possible par une observation ethnographique en immersion au sein d'une organisation de course au large à la voile en compétition. Le cas conduit à enchevêtrer l'activité d'anticipation stratégique avec l'activité de recherche. En croisant le point de vue de l'action et celui de l'organisation, l'approche permet d'établir des relations entre la temporalité de l'action, rythmée par la succession d'événements et les temporalités organisationnelles, rythmées par l'émergence d'une crise. Interpréter les phénomènes organisationnels et les événements en cours d'action ressort, à travers une pratique transformatrice, comme une condition stratégique pour gérer les changements sous forte pression. Mots-clés : pratique de choix, stratégie comme pratique, course à la voile, période de transition, propagation d'effets 1 XXXème conférence de l'AIMS Temporalités d'action et pratiques d'anticipation stratégique en contexte extrême : le cas de l'émergence d'une crise en course au large INTRODUCTION Par une mise en tension de l'organisation, les contextes extrêmes sont présumés rendre les phénomènes organisationnels plus visibles que les contextes standards (Bouty et al., 2012). Que l'activité organisée soit orientée par la haute fiabilité, la sûreté , la réactivité ou la gestion des risques (Weick & Sutcliffe, 2007 ; Van der Vegt et al., 2015 ; Bieder et al., 2018), en contexte extrême l'organisation fait partie d'une action évolutive et incertaine qui ne peut être complètement maîtrisée (Hällgren et al., 2018 ; Allard-Poesi & Giordano, 2019). Ces contextes sont associés à des événements générateurs de risques qui, lorsqu'ils se produisent, concrétisent des situations extrêmes de gestion s'imposant à l'organisation (Lebraty, 2013 ; Giordano, 2019). Le contexte est qualifié d'extrême lorsque l'intensité des événements susceptibles de se produire induit une exposition dommageable physiquement ou psychologiquement pour les membres de l'organisation (Hannah at al., 2009). Dans un effort fédérateur soutenu par cette définition et orienté par une vision processuelle de l'organisation, Hällgren et al. (2018) établissent une typologie de contextes extrêmes sur la base d'une revue de littérature inédite. Tout en repoussant l'ambition d'unification théorique, les auteurs soulignent l'importance de confronter une variété d'études de cas pour renforcer les efforts de théorisation portés par différents courants et thèmes de recherche (ex. contingence, décision, résilience, apprentissage, parties prenantes). S'agissant des contextes d'urgence, définis par l'occurrence effective d'un événement aux effets néfastes en lien direct avec le coeur d'activité de l'organisation, Hällgren et al. (2018) déplorent le faible nombre de recherches basées sur des observations ethnographiques et des entretiens, comparativement aux recherches sur documents. Dans le cadre plus ciblé des situations de gestion, Lièvre (2016) note l'importance pour développer un programme de recherche sur le management des situations extrêmes, de s'intéresser à la perception par les praticiens des décalages entre ce qui est planifié et la situation vécue, à partir d'une analyse croisée de cas de gestion de projets innovants. Les caractéristiques de la course au large à la voile permettent de développer une recherche abordant deux dimensions complémentaires jugées insuffisamment traitées : approche ethnographique par la pratique (Gherardi, 2019) des effets des décalages entre les intentions planifiées et la situation vécue (Mintzberg, 1994 ; Baumard, 2012). Pendant les compétitions de course au large à la voile, les éléments naturels ne peuvent être maîtrisés et les temporalités de gestion ne peuvent pas toujours être anticipées ni complètement contrôlées. De plus, en compétition, la trajectoire du bateau matérialise dans le temps et dans l'espace la résultante de l'activité de l'organisation et permet d'évaluer la performance cumulative des choix stratégiques à chaque instant par deux grandeurs physiques unidimensionnelles : le temps écoulé depuis le départ ; la distance à l'arrivée. Bien que d'accès malaisé, le terrain de la course au large présente un autre intérêt important, comme le fait de donner à voir simultanément la résultante de l'activité de toutes les organisations concurrentes. Peu étudié en sciences de gestion, le terrain de la voile a cependant donné lieu à plusieurs publications académiques traitant des pratiques de coordination et des temporalités associées dans les flux d'activité des managers à travers le cas d'équipages en régates côtières (Bouty & DruckerGodard, 2011, 2019). En navigation hauturière en trimaran de 80 pieds en fibres de carbone, le contexte devient extrême et chaque membre de l'unité stratégique est habitué à effectuer des choix dans des situations évolutives, incertaines et sous pression temporelle dans un milieu où des événements exposant la vie des marins peuvent se produire. Ces praticiens agissent dans une tension permanente entre sécurité et performance. Le milieu physique, dans ses 2 XXXème conférence de l'AIMS composantes atmosphériques et océaniques, bien que de mieux en mieux représenté par les modèles de prévision numériques du temps comporte toujours des incertitudes importantes (ex. : phénomène de petite échelle, prévisibilité limitée aux échéances lointaines, zone de transition entre systèmes, systèmes à évolution rapide) (Pailleux et al., 2015). En donnant à voir des éléments pertinents de l'action, ce terrain offre la possibilité d'étudier l'influence dans l'action des décalages temporels entre les effets des événements et les effets des pratiques pour mieux comprendre la dualité organisationnelle anticipation-réactivité. C'est dans le cadre conceptuel des contextes extrêmes que la recherche qualitative exploratoire orientée par la pratique pose la question de mieux comprendre les phénomènes organisationnels se produisant lorsque les événements de l'action se révèlent en tension avec les intentions stratégiques planifiées. Les cas paroxystiques de situations extrêmes conduisent à des crises (Williams et al., 2018) caractérisées « par des événements de faible probabilité et des conséquences élevées qui menacent les buts les plus fondamentaux d'une organisation » (Weick 1988, p. 305). La question du décalage temporels est encore plus sensible en cas de crise où « les décideurs se doivent d'agir et de décider vite, c'est-à-dire d'ajuster leurs décisions et leurs actes au déroulement du temps » (Guarnelli et al. 2016, p. 157) afin d'éviter des conséquences potentiellement catastrophiques où la survie de l'organisation est en jeu (Lagadec 2012 ; Roux-Dufort 2009). C'est précisément dans un tel contexte paroxystique que la question de recherche est traitée puisque pendant l'observation en immersion, l'émergence d'une situation de crise a transformé, en quelques secondes, un contexte risqué en contexte d'urgence. Nous présentons, dans un premier temps, le cadre théorique au croisement des contextes extrêmes et de la stratégie comme pratique dans une posture interprétative. Très dépendant du terrain, les choix méthodologiques basés sur l'observation ethnographique orientée par la pratique sont ensuite présentés et justifiés. Les extraits les plus saillants du corpus de données sont présentés sous forme de décomposition de phases d'action et de description épaisse. L'analyse interprétative des relations entre pratiques de choix et occurrence d'événements est ensuite conduite. Enfin, nous discutons ces résultats, leurs apports méthodologiques et les opportunités théoriques qu'ils offrent dans le cadre d'une théorie pratique du strategizing en organisation (Corradi et al., 2010) actionnable en contexte extrême et potentiellement transposable en contexte plus standard (Avenier, 2009). 1. CADRE CONCEPTUEL ET CHOIX METHODOLOGIQUES 1.1. CADRE CONCEPTUEL : STRATEGIE COMME PRATIQUE EN CONTEXTE EXTREME Les situations extrêmes permettent d'observer la façon dont les praticiens se comportent sous de fortes contraintes et de révéler des pratiques et usages difficilement discernables lors de situations plus standards (Godé & Lebraty, 2013). Engager un effort de théorisation directement à partir de données de première main ressort comme relativement rare dans la littérature des quatre dernières décennies sur les contextes extrêmes. Il n'est donc pas surprenant que la compréhension des phénomènes organisationnels se produisant pendant les périodes de transition, au moment où l'activité organisée est directement influencée par un événement extrême, soit lacunaire. Il est de ce fait logique que la catégorisation RED (risqué, urgence, disruptif) des contextes extrêmes (Hällgren et al., 2018) suggère une grille de lecture et des apports théoriques de phénomènes organisationnels valables seulement au sein d'une de ces catégories (exemple de la catégorie E : apports théoriques à l'apprentissage organisationnel à partir de cas d'urgence ; exemple de la catégorie R : la culture de la sûreté comme condition de performance des organisations de haute fiabilité). En se focalisant sur un changement de type de contexte, la recherche vise ici à apporter un éclairage original sur les phénomènes organisationnels observables à ce moment-là. Pour y parvenir, la recherche 3 XXXème conférence de l'AIMS s'appuie principalement sur le recueil et l'analyse de données collectées en temps réel, pendant l'action en train de se faire en contexte extrême. Les phénomènes organisationnels sur lesquels l'attention est portée ici sont circonscrits aux pratiques de choix sans présumer de forme spécifique pour la notion de décision du fait de la variété des représentations (Marchais-Roubelat, 2012). Trois limitations du concept de décision ressortent (Langley et al., 1995) : la réification de la décision, la déshumanisation du décideur et l'isolement du processus de décision. Aussi, pour éviter de distordre la perception même de l'action du fait de ces limitations, Langley et al. (1995) proposent de ne pas traiter la décision comme indispensable à tout type d'action et formulent cinq recommandations à destination des chercheurs : pister les problèmes à venir au lieu des décisions passées ; essayer de nouvelles perspectives et échelles d'analyse ; suivre les processus en temps réel mais aussi rétrospectivement ; se concentrer sur les gens ; ré-analyser des processus de décision déjà analysés et pas seulement les nouveaux. Pendant la recherche de performance, les pratiques de choix s'inscrivent dans les activités de strategizing au sens des actes concourant à la stratégie réalisée (Jarzabkowski et al., 2007). Dans cette compréhension, la notion englobe l'ensemble des activités influençant la stratégie réalisée et offre une perspective multi-niveaux de traitement des enjeux stratégiques (Jarzabkowski, 2004 ; Tsoukas, 2015). Cette vision relationnelle du monde, inscrite dans la branche dwelling worldview du courant de la stratégie comme pratique (SAP), offre un cadre théorique favorable à l'étude des relations d'influence dans l'action, qu'elles soient formalisées ou émergentes (Chia & Rasche, 2015 ; Bouty et al, 2019). L'adoption symétrique d'une définition relationnelle de la pratique définit un espace de compatibilité théorique entre la SAP et les études fondées sur la pratique (Orlikowski, 2015 ; Gherardi, 2019). Outre la définition relationnelle de la pratique, nous la considérons ici aussi comme un moyen d'observation (Practice-oriented research) (Orlikowski, 2000 ; Corradi et al, 2010). Dans l'espace théorique ainsi délimité, développer des connaissances cumulatives reste un défi, en premier lieu méthodologique, notamment pour accéder à la richesse de la réflexivité des praticiens (Langley, 2015 ; Rouleau, 2015 ; Sandberg & Tsoukas, 2020). En visant un apport en termes de strategizing réalisé en contexte extrême, il s'agit ici de conduire une observation ethnographique orientée par la pratique de choix pour interpréter la dualité organisationnelle anticipation-réactivité au bénéfice d'une analyse multi-niveaux (opérations, stratégie, parties-prenantes). Les exigences méthodologiques associées à cette ambition sont explicitées ci-après. 1.2. COURSE AU LARGE A LA VOILE ET METHODE D'OBSERVATION EN IMMERSION En course au large, les choix stratégiques sont effectués au sein de l'organisation constituée autour de l'équipage. Les règles de certaines compétitions autorisent le recours à une assistance stratégique depuis la terre nommé routage. L'unité assurant les choix stratégiques se compose généralement de membres d'équipage en mer associés à un routeur à terre. La concentration au sein d'une unité circonscrite des praticiens en capacité d'élaborer la stratégie constitue une caractéristique importante pour notre recherche : l'espace de l'activité organisée où se produisent les pratiques influençant la stratégie effective de l'organisation est circonscrit. La compacité de cette unité stratégique au sein de l'organisation n'évacue cependant pas complètement des influences externes à la compétition concernée (ex. projet sportif du skipper, projet marketing du sponsor). Le défi méthodologique consiste à concevoir un dispositif de recherche en profondeur dans l'organisation pour rendre visible les pratiques de choix stratégiques au sein de l'organisation au moment et à l'endroit où elles se produisent (Whiteman & Cooper, 2011 ; Langley & Klag, 2019). En matière de course océanique, les multicoques de la classe ultime ont des vitesses de pointe atteignant 40 noeuds (le tour d'horizon se renouvèle en 30 minutes) et la tension entre sécurité 4 XXXème conférence de l'AIMS et performance est permanente pour toute navigation. Grâce à une expérience passée de onze années dans le domaine du conseil stratégique de skippers d'un des chercheurs, le dispositif d'observation participante en immersion a pu être enchevêtré avec les processus de décision de l'organisation. Compte-tenu de la double dynamique des éléments naturels et du bateau, traverser l'océan Atlantique à la voile d'est en ouest depuis le continent européen n'est pas envisageable sans effectuer de choix. Autrement dit, il n'est pas possible de ne rien choisir, le choix stratégique minimal étant le mimétisme consistant à reproduire la trajectoire d'un concurrent présumé plus avisé. Partant de ce constat, nous sommes confiants sur le fait que des choix seront effectués au sein de l'organisation pendant les périodes de compétition. A ce stade, deux aspects dimensionnants se dégagent : accéder aux processus de choix et saisir les pratiques pendant les moments importants pour les processus de choix. Plusieurs méthodes ont été développées avec succès pour étudier des opérations de terrain et des activités de sport de haut niveau sous forte pression (Giordano & Musca, 2012 ; Macquet & Stanton, 2014 ; Hoffmann & Klein, 2015). Cependant, réaliser des observations en temps réel en immersion au sein d'une organisation de haute technologie, opérant en contexte extrême, n'a rien de trivial. Une fois l'accès au terrain acquis, l'enjeu consiste à définir le positionnement de l'observateur dans les différents flux d'informations du système formé par le trimaran, l'équipage, l'équipe à terre, le sponsor, la direction de course, les médias. D'un point de vue éthique, il ne nous est absolument pas paru envisageable de viser à orienter délibérément l'action de l'organisation pour susciter des modifications de comportement. Les techniques de recherche action ou de recherche intervention ne sont donc pas compatibles avec le respect de la manière de naviguer de l'équipage visant à minimiser les risques de déstabilisation de l'organisation pendant le cours de l'action. Dans notre cas, l'unité organisationnelle au sein de laquelle sont effectués les choix stratégiques relativement à la course est composée de trois marins bénéficiant chacun de plus de 20 ans d'expérience à très haut niveau : un skipper (L) et un co-skipper (R) à bord et d'un routeur (D) à terre. Pendant la course, le skipper L concentre les fonctions de dirigeant, de stratège et d'opérateur. Le co-skipper R assure des fonctions de conseiller en stratégie et d'opérateur. Le routeur D assure la fonction d'analyste stratégique, de planification stratégique et de conseiller en stratégie. En course, les deux marins réalisent des activités multiples à bord : conduite du bateau à la barre, réglage des voiles et des appendices, programmation du pilote automatique, répartitions des masses, maintenance du matériel, coordination et cadencement d'activités, communication avec les médias, évaluation de la performance, détermination de familles de trajectoires pertinentes et du plan de marche, choix de modalités de course (offensive, défensive, conservatrice, exposée), analyse comparative des trajectoires concurrentes, observation et compréhension des phénomènes météorologiques et océaniques. L'attention du routeur D se concentre sur tous les éléments ne relevant pas des activités de conduite de l'outil de production que constitue le bateau. Sachant précisément « où » regarder mais ne sachant pas « quand », le parti a été pris d'enchevêtrer en continu la recherche avec l'activité de l'organisation au moyen d'une observation en temps réel en immersion au sein de l'unité stratégique. La position la plus encastrée accessible consiste à réaliser le shadowing du routeur D en partageant ses lieux de travail et de vie pendant 60h (port départ, transport et domicile) réparties sur 4 jours (Le jour du départ, les 2 jours qui le précèdent et le jour qui le suit). Cette période de shadowing au sens strict a été précédée (la semaine précédant le départ) et suivie (jusqu'au retour au port d'attache du trimaran) d'une forme distancielle au cours de laquelle le chercheur fait partie de tous les flux d'information relatifs à la stratégie de course soit directement (email) soit indirectement (discussions rapportées par D). Le suivi comme son ombre du routeur D a permis de participer aux 4 séances de travail collectives de l'unité stratégique au cours des 48h précédent le départ, à toutes les conversations professionnelles associant le routeur (sous 5 XXXème conférence de l'AIMS forme orale ou écrite) et de réaliser des entretiens libres et semi-directifs de D pendant l'action en train de se faire et d'avoir accès aux principaux instruments de bord en temps réel. De plus, en différé de l'action deux auto-confrontations de L puis de R avec leur trajectoire réalisée ont été effectuées (Mollo & Falzon, 2004). En complément, les documents produits par les organisateurs de la course, la presse et le sponsor ont aussi été collectés. L'enchevêtrement de l'activité de recherche est conditionné à un accès potentiel à cette expertise sous forme de niveau d'escalade dans d'hypothétiques situations où l'unité ferait face à une situation nécessitant l'adjonction de capacités supplémentaires détenues par le chercheur immergé. Cette caractéristique du dispositif méthodologique constitue la dimension participante de l'observation ethnographique. Lorsqu'elle se réalise, cette possibilité constitue, par construction, un marqueur de moments où les modalités d'engagement dans l'action changent de niveau conceptuel à l'occasion d'activité réflexive en temps réel des praticiens (Weick, 2007 ; Sandberg & Tsoukas, 2011 ; Sandberg & Tsoukas, 2020). Pour se prémunir du risque de sur-interprétation lié à la connaissance experte de l'activité, à la familiarité du domaine ou à la projection de cadres théoriques par le chercheur immergé, un deuxième chercheur est situé en position externe à l'organisation et à l'action (Mondon & MarchaisRoubelat, 2017). Le suivi externe permet de maintenir au meilleur niveau les capacités de recherche pendant les brefs instants où le chercheur immergé peut se voir mobilisé par l'activation de l'escalade. Parmi les pratiques de choix, notre ambition est de saisir celles associées à des choix stratégiques et de saisir, dans ce sous-ensemble, des traces d'anticipation. Après avoir établi une relation entre les éléments d'anticipation et les événements attendus, l'ambition est de repérer les décalages entre événements et pratiques d'anticipation et les effets de ces décalages à la fois au sein de l'action et au sein de l'organisation. A l'issue de la collecte, la condensation des données brutes par indexation, repérage, triangulation, entretiens et auto-confrontations produit un corpus riche, varié et foisonnant (Miles et al, 2019). L'exploitation du corpus ainsi préparé alimente une interprétation approfondie, principalement sous forme de description épaisse des pratiques de choix situées et enchevêtrées dans l'action (Gherardi, 2019). 2. ANALYSE DES RESULTATS DE L'EMERGENCE D'UNE CRISE Dans un environnement physique dont certains éléments constituent les sources principales de performance pour l'organisation puisque le vent est la force motrice de tout voilier, connaître l'évolution des intentions des praticiens par rapport à ces éléments pendant que l'action est en train de se faire constitue le point de départ de l'observation participante qui débute 8 jours avant le départ de la course. Cette durée correspond à l'ordre de grandeur de la prévisibilité des systèmes dépressions et anticyclones conditionnant le force et la direction du vent. Outre l'expérience des courses passées et la connaissance de la climatologie de l'océan Atlantique qui ont orientées la conception et la préparation spécifique du bateau, les premières prévisions fiables constituent l'élément initiateur de la réflexion stratégique pour une course donnée. Le caractère extrême des conditions d'opération de l'organisation peut être délimité au sens large, par toute la période comprise entre le largage des amarres dans le port du Havre pour rejoindre la zone de départ et l'amarrage du bateau de retour à son port d'attache. En nous intéressant à l'émergence de la crise, nous constatons que, dans l'action vue comme un processus historique (Chia, 1999), la séquence temporelle segmentée à partir de l'évaluation des risques pour l'organisation se représente chronologiquement ainsi : période avec des risques opérationnels faibles et maîtrisés (bateau au port) ; période avec des risques opérationnels modérés maîtrisés (convoyage vers la zone de départ) ; période avec des risques opérationnels modérés sous contrôle (compétition en Manche) ; période avec des risques opérationnels forts sous contrôle (compétition dans le Golfe de Gascogne) ; transfert entre des risques opérationnels et des risques vitaux (chavirage) ; période de crise avec des risques 6 XXXème conférence de l'AIMS vitaux critiques (trimaran retourné au large de la Galice) ; transfert entre des risques vitaux et des risques opérationnels (évacuation par hélitreuillage) ; période avec des risques opérationnels forts sous contrôle (remorquage du trimaran à l'envers vers Lorient). Nous n'abordons pas directement les modalités de gestion des risques ni les modalités de gestion de crise mais nous concentrons notre attention sur l'influence organisationnelle de l'émergence de la crise à travers les effets des événements. 2.1. DESCRIPTION EPAISSE D'UN MOMENT DE STRATEGIZING Dans la perspective d'analyser les relations entre les effets des événements et les pratiques de choix, l'observation ethnographique de la séance de travail de l'unité stratégique (L, R et D) consacrée à l'établissement de la stratégie de la première semaine de course a pu être réalisée. A la lumière du déroulement de l'action, cette séance, partiellement filmée par l'agence de presse de l'équipe, s'est révélée être celle où la stratégie de course a été déterminée. Comptetenu de ce constat, la description des pratiques des choix et le repérage d'éléments d'anticipation y revêt un intérêt majeur pour la recherche puisque les pratiques observées pendant ce moment ont conduit à forger très précisément les intentions du skipper et du coskipper en bénéficiant d'un dialogue critique avec le routeur. Le samedi 24 octobre au soir, veille du départ de la course, l'unité stratégique a planifié une séance de travail à partir de 19h (sans précision de durée) sur le lieu de résidence du skipper L et du co-skipper R (le salon d'un hôtel) en présence du chercheur. La séance est animée par D sous les orientations de L. Une discussion sur un format identique mais d'une durée plus courte a eu lieu entre 8h et 8h30 le matin : l'objet était l'appropriation des prévisions météo pour les 3 premiers jours de course. La journée de L et R a été rythmée par des interviews auprès de la presse, d'ultimes consignes de préparation du bateau à l'équipe technique (avitaillement, rangement, informatique, électronique). Le routeur D et le chercheur sont ensemble depuis 7h30. Cette proximité a permis de partager la même compréhension des prévisions météo et des enjeux stratégiques associés d'une part et d'affiner la compréhension des capacités intrinsèques (polaire de vitesse) et relativement aux concurrents du bateau. Un échange sur la base des informations météo les plus fiables a eu lieu à fréquence biquotidienne au moyen d'une boucle de mail entre L, R, D et le chercheur au cours des 3 jours qui ont précédés et à fréquence quotidienne pendant les 3 jours d'avant (soit depuis le dimanche précédent). L'unité stratégique a ainsi développé progressivement, par accumulation, actualisation et sédimentation, une vision commune de l'enchainement des événements physiques pour les premiers jours de course avec un horizon temporel augmentant de 24h chaque jour. La quantité d'information échangée est donc croissante au sein de l'unité stratégique depuis le début des échanges continus. A ces informations, se sont ajoutés les éléments détaillés concernant l'organisation de la zone de départ (ligne de départ, points de passage du parcours côtier, zones avec bateaux spectateurs, zones interdites) présentés par la direction de course le samedi 24 de 10h à 12h accompagné d'un briefing météo officiel et du rappel des consignes de départ des pontons. La réunion stratégique du samedi soir se situe à l'issue d'une semaine d'intégration progressive d'informations à la fois de plus en plus complexes pour les aspects relatifs à la journée du départ et à l'horizon de temps en course de plus en plus lointain. Deux dimensions d'anticipation sont traitées par l'unité et ressortent des échanges : l'anticipation relative à un événement fixe dans le temps, le départ dont la date et l'heure sont connues depuis plusieurs mois ; l'anticipation relative à une séquence dynamique d'événements météorologiques et océaniques dont l'occurrence est fluctuante avec une incertitude faible aux courtes échéances et une incertitude croissante avec l'augmentation de l'échéance jusqu'à une absence d'information stable au-delà de 10e jour de course. 7 XXXème conférence de l'AIMS La discussion de L, R et D se concentre rapidement sur le second aspect, après quelques commentaires visant à évacuer la discussion sur l'éventualité d'un report du départ suggérée par certains concurrents à la direction de course qui n'a finalement pas donné suite. Un examen analytique et méticuleux de chacune des deux familles de trajectoires se séparant significativement après une quinzaine d'heure de course est présenté par D. L et R en commentant l'analyse au fil de l'eau induisent une modulation de l'appréciation de D qui ajuste à la volée le cadrage des familles de route (en déplaçant sur la carte les points de passage et recalculant avec le logiciel de routage l'estimation des heures de passage). Pour chaque facteur d'influence, le début et la fin de la période d'influence sont estimés, la manière de gérer l'influence est planifiée, les conséquences rétroactives en termes de gestion opérationnelles sont évaluées pour finalement déterminer la planification de la séquence d'actes opérationnels nécessaires. La logique de course pour chacune des deux familles de trajectoires est ainsi méthodiquement affinée et partagée. Les intentions d'actes sont verbalisées et leur justification est exposée et critiquée jusqu'à l'aboutissement d'une interprétation consensuelle et cohérente sur chaque famille de trajectoire pour tous les membres de l'unité stratégique (Sandberg, 2005). L'issue de cette séance de strategizing se résume en deux cartes (court terme et long terme) représentant chacune les deux logiques d'actions possibles se matérialisant par deux familles de trajectoires (la carte long terme élaborée avant le départ est présentée figure 1). Ces cartes matérialisent les intentions la veille du départ forgées tout au long d'une séquence d'une semaine de réflexion d'intensité croissante. Les intentions stratégiques sont basées sur les prévisions météorologiques et intègrent les contraintes d'opérations, les logiques de navigation adoptées relativement aux avantages supposés des concurrents, les capacités intrinsèques du voilier ou encore la gestion prévisionnelle des efforts dans la durée. Le contenu informatif de ces cartes dépasse les seules logiques de course puisqu'elles comportent de manière intégrée le rendement de l'outil de production par rapport aux forces motrices, le référentiel de prévision (phénomènes, modèle de prévision numérique, vent) et océanique (état de mer), les plans de marche estimatifs (portes, points et horaires de passage). Elles indiquent de manière implicite des opérations à bord (ex. changement de voile, changement d'amure) et les moments compatibles avec la préparation de l'enchaînement de ces opérations. Il s'agit d'un outil synthétique sous forme de représentation graphique de deux plans de marches opérationnels prévisionnels produits par la réflexion stratégique mobilisant toutes les informations disponibles à date. Figure 1. Familles de trajectoires envisagées sur une route ouest et une route sud 8 XXXème conférence de l'AIMS A partir de la production de ce document de référence dans une posture d'anticipation appliquée à toutes les éléments accessibles, les prochaines pratiques de strategizing sont rythmées par trois facteurs : la réalisation effective le long de la route des événements anticipés ; la production biquotidienne à heure fixe des sorties des 4 principaux modèles de prévision numérique du temps (D en partage l'analyse avec L et R vers 10h et 22h) ; les moments que l'équipage peut consacrer aux choix de route. Si les deux premiers facteurs sont découplés, les moments consacrés au strategizing à bord se sont eux révélés directement couplés à chacun des deux premiers facteurs (matérialisés par des échanges bidirectionnels de messages électroniques ou d'appels téléphoniques depuis le bord vers le routeur). Ces pratiques contribuent à faire évoluer la compréhension de la dynamique des événements en assurant une synchronisation des événements perçus à bord avec les événements perçus à terre en croisant le regard depuis la petite échelle (l'équipage) avec le regard depuis la grande échelle (le routeur). En résumé les pratiques ont pour effet simultané de synchroniser le plan avec les événements et de rendre cohérente l'interprétation des membres de l'unité au moins deux fois par jour et autant de fois que le nécessite la succession des événements. Il résulte des aller-retours fréquents entre la conduite des opérations et actualisation de la stratégie, une synchronisation maîtrisée de l'anticipation des effets des événements avec l'interprétation de l'action en train de se faire (trajectoire de l'organisation, trajectoire des concurrents, succession des phénomènes physiques) sous forme de plan de marche évolutif. Ce fonctionnement reflète une posture d'anticipation permanente orientée par une stratégie adaptative. Autrement dit, la pratique opérationnelle est fondée sur l'anticipation et la pratique stratégique est fondée sur l'adaptation réactive tant que la stratégie initiale établie (ici, la veille du départ) reste valable. La figure 2 présente la carte actualisée sur la base des échanges (un appel en cours de nuit et échanges de mail) le lundi 26 en fin de matinée, il s'agit de la dernière carte produite avant la survenue du chavirage. Figure 2. Trajectoires envisagées sur la route sud 9 XXXème conférence de l'AIMS 2.2. INTERPRETATION D'UN MOMENT DE TRANSFERT : LE CHAVIRAGE Pour faciliter l'indexation dans la temporalité de l'action, nous repérons des périodes nommées « phases » où certaines logiques d'action sont dominantes avec des « transferts » au moment de changement de phases où deux logiques distinctes coexistent (Marchais-Roubelat, 2000). Le tableau 1 récapitule des éléments variés de caractérisation directe de la tension de la situation (anticipée, perçue ou vécue) par les praticiens impliqués dans la gestion stratégique et opérationnelle. La période de transfert constituée par les quelques heures autour du chavirage se caractérise par un niveau de risque réalisé tel, que la vie de L et R sont exposées. Lors d'un chavirage, le transfert de phase est rapide (quelques secondes dans le temps et quelques dizaines de mètres dans l'espace : quand L indique « 2 secondes » (cf verbatim en annexe) il indique le moment précis où l'enchaînement négatif des choses devient irréversible. L'auto-confrontation et les témoignages à chaud attestent un passage de la recherche de performance à la nécessité de survie. La situation extrême de type risqué devient à ce moment-là une situation d'urgence que le caractère de risque exacerbé qualifie de crise. La description de la séquence sous cette forme fait ressortir une évolution graduelle continue du niveau de risque au cours du temps. Les témoignages des praticiens font ressortir quatre autres éléments importants pour comprendre l'évolution des enjeux de la séquence : la perception d'un niveau de risque opérationnel ; un choix stratégique effectué en sortie de Manche ; une conscience aiguë de la sensibilité des opérations pour les différentes phases ; le chavirage n'est pas un événement inconnu pour le skipper L. A l'issue du choix de route sud effectué à bord et annoncé par L au moyen d'un appel à D, la navigation a été résolument prudente compte-tenu des conditions météorologiques et océaniques exploitées. Les rendements inférieurs à 100% utilisés pour le calcul des routes théoriques par D à cet endroitlà illustrent explicitement (cf. figure 2) cette logique de navigation pour la traversée du Golfe de Gascogne. Une navigation offensive n'est pas envisagée par L avant la latitude de Lisbonne dans le cas le plus optimiste. En focalisant l'attention sur le moment du transfert, le témoignage livré par le skipper L le lendemain (cf tableau 2 en annexe) recroisé avec les auto-confrontations à froid, apporte un éclairage sur la relation entre les deux événements séparés de moins de 10 secondes, marqueurs du transfert entre la course et l'urgence qui s'est réalisé dans ce court intervalle de temps : la rafale de vent et le chavirage du trimaran. Le début de la période est marqué par l'influence de la rafale de vent dont la force et l'angle sont un peu plus défavorables que toutes les précédentes. L est en train d'évaluer les modalités 10 XXXème conférence de l'AIMS de la prochaine opération visant à optimiser la conduite des opérations dans le cadre de la stratégie en cours et R est en train d'effectuer les réglages courants sur le pont. La perception du caractère inhabituel relativement aux autres rafales a été perçu corporellement en une fraction de seconde par L assis à la table à carte et R debout sur le pont sous la forme d'une accélération du bateau plus intense. C'est à ce moment précis que la logique de course s'est interrompue simultanément pour R et L. R a cherché à libérer la voile responsable de la surpuissance, sans y parvenir avant d'être déséquilibré. L s'est précipité à l'extérieur où il a vu R en train de glisser et l'a saisi par la cheville pour l'entraîner à l'intérieur de l'habitacle avant que l'inclinaison de la plateforme ne le permette plus. Une fois à l'intérieur, L et R se sont préparés à la fin du retournement de la plateforme de plusieurs tonnes. La totalité de cette séquence s'est déroulée en moins de 10 secondes (durée estimée) et sans échanger un mot. Une fois le bateau retourné et l'absence de blessure grave constaté, le rassemblement du matériel de sécurité a été effectué puis les préparatifs pour sécuriser la plateforme ont démarré peu de temps avant la tombée de la nuit. La description de cette séquence reflète une bascule très rapide d'une logique d'activité à base d'anticipation à une logique d'activité à base d'adaptation réactive. Ce moment de transfert a été initié par une perception corporelle (une accélération) de quelque chose d'inattendu à ce moment-là. Sans qu'une coordination n'ait été nécessaire, les deux membres de l'équipage ont chacun réagi instantanément à l'événement perçu, tous les deux dans une logique de préservation de la vie. Le contact physique entre L et R a constitué le premier acte de coordination des deux flux d'activités. La bascule de l'équipe à terre d'une logique de course à une logique de préservation de la vie s'est opérée au moment où L a joint D par téléphone quelques dizaines de minutes après le chavirage. Alors que D avait perçu, une interruption des informations automatiques transmises depuis le bord et constaté l'échec du positionnement à la demande de la balise principale. Avant de recevoir l'appel, D avait perçu que quelque chose d'anormal était possible et s'en été ouvert au chercheur qui de ce fait était en éveil maximum également. Une fois l'information reçue et l'échange visant à recomposer le fonctionnement de l'unité pour la gestion de la crise accompli, D a relayé l'information vers l'équipe technique, les organisateurs de la course, les proches des marins, le sponsor et le service de presse. D a ainsi démarré la prise en charge de la coordination de l'ensemble des opérations avec comme seule finalité d'éviter toute aggravation de la situation même conscient que le pire avait été évité au moment du chavirage. A bord comme à terre, la posture dominante pendant le transfert a été une adaptation réactive et dès que la nouvelle phase est identifiée comme telle, la posture d'anticipation (en mer : mise en sécurité ; à terre : organisation des secours) redevient la norme. Notons cependant, que, malgré un recouvrement, la période de temps correspondant au transfert ne coïncide pas complètement entre l'équipage en mer et le routeur à terre. Le décalage en entrée dans la période est lié à la perception des effets de l'événement de l'action en train de se faire (directe en mer, indirecte à terre). Pour ce qui est de la sortie, l'appel de L à D constitue un marqueur de la fin du transfert pour L comme pour D avec une pratique de coordination visant à remettre l'organisation dans une posture d'anticipation de la suite des effets irréversibles des événements. En nous appuyant sur les pratiques de choix observées avant et après le chavirage, et les phases nommées respectivement traversée du Golfe de Gascogne et dérive du trimaran retourné, nous avons reconstitué dans le tableau 1 les principales fonctions assurées. Tableau 1. Phases d'action, transfert et ingénierie des choix PHASE ENJEUX DOMINANTS Gagner rapidement navigation dans l'ouest offensive (Manche) préservant INGENIERIE DES CHOIX L : opérateur et décideur opérationnel et stratégique ; R : opérateur, conseil opérationnel et stratégique ; routeur (D): approfondissement de les l'analyse et conseil stratégique ; chercheur en immersion : niveau 11 XXXème conférence de l'AIMS deux options de d'escalade du routeur ; directeur technique (D) : veille active en route anticipation d'intervention potentielle ; équipe technique : niveau d'escalade du directeur technique Transfert : actuation du choix de la route sud par un appel au routeur Gagner prudemment navigation L : opérateur et décideur opérationnel et stratégique ; R : opérateur, vers le sud (Golfe de prudente sur la conseil opérationnel et stratégique ; routeur (D) : approfondissement de Gascogne) & route sud l'analyse et conseil stratégique ; chercheur en immersion : niveau navigation prudente d'escalade du routeur ; directeur technique (D) : veille active en sur la route sud anticipation d'intervention potentielle ; équipe technique : niveau d'escalade du directeur technique Transfert : chavirage Préserver la vie de sauvegarde des L : opérateur et décideur opérationnel ; R : opérateur ; directeur l'équipage (large de personnes et technique (D) : décideur stratégique et coordinateur ; équipe technique : la Galice) des biens centre opérationnel et conseil stratégique ; routeur (D) : conseil stratégique ; chercheur en immersion : vecteur d'information avec sécurité météo direction de course Transfert : hélitreuillage Rapatrier avec reprise précaution le d'activité trimaran endommagé (traversée du Golfe de Gascogne) L : décideur opérationnel, conseil stratégique, coordinateur ; R : conseil opérationnel ; directeur technique (D) : conseil opérationnel et coordinateur ; équipe technique : opérateur ; fournisseurs : niveau d'escalade équipe technique ; routeur (D) : veille sécurité relation sécurité météo direction de course ; chercheur en immersion : spectateur ; sponsor : décideur stratégique Transfert : mise en oeuvre du remorquage Nous mettons en évidence une ré-attribution des fonctions pour les deux changements de phases reportés avec notamment une répartition très différente des centres décisionnels pour chacune des trois phases. La principale caractéristique est l'aspect centralisé de la pratique décisionnelle pendant la phase de compétition, l'aspect dual de la pratique décisionnelle pendant la phase de dérive et l'aspect réticulaire de la pratique décisionnelle dans la phase de rapatriement. 3. DISCUSSION En course, la trajectoire du bateau donne à voir la résultante de l'activité de l'organisation dans le temps et dans l'espace. Cette résultante intègre les effets de toutes les pratiques passées et contient l'anticipation des événements futurs au niveau de la conduite des opérations comme au niveau stratégique pendant une course mais aussi au niveau de la conception de l'activité. L'appareillage méthodologique élaboré pour explorer ce terrain en contexte extrême est proche de celui déployé pour une étude de cas d'expédition d'alpiniste mettant en oeuvre deux expertises (alpiniste et routeur en montagne) dans « un couplage in situ-distant » (Giordano & Rickli, 2013). Notre approche s'en distingue essentiellement par le niveau de profondeur de l'immersion atteinte grâce à l'enchevêtrement de la recherche au point de positionner le chercheur comme membre de l'unité stratégique potentiellement mobilisable (Langley & Klag, 2019). Cette caractéristique donnant accès à tous moments aux mêmes informations que celles manipulées par le conseiller en stratégie (routeur) au moment où il les manipule en positionnant le chercheur en contact direct avec les flux d'informations stratégiques et opérationnels. Outre l'accès à l'information circulant au sein de l'organisation avec une appropriation orientée par l'anticipation de différents horizons temporels du futur tels que les anticipent les praticiens (Weick, 2002), la méthode d'observation participante en immersion donne accès aux pratiques au moment où elles se produisent et à la propagation de leur influence au sein de l'organisation et au sein de l'action au moment où elles se réalisent. Les résultats montrent que la méthode employée permet d'accéder à la dimension 12 XXXème conférence de l'AIMS transformatrice des pratiques (Gherardi, 2019) et offre la possibilité d'une contribution à une théorie pratique de l'organisation en contexte extrême (Corradi et al., 2010). Plus précisément, dans le cadre théorique de la vision relationnelle du monde dans le courant de la stratégie comme pratique (Chia & Rasche, 2015), la méthodologie de recherche donne accès à l'influence des pratiques de strategizing en train d'être réalisées en contexte extrême par les praticiens (Rouleau, 2015). Ces travaux ouvrent également une porte pour une contribution aux développements des connaissances par une compréhension plus profonde des phénomènes organisationnels en contexte extrême visant la construction d'une théorie pratique de l'activité multi-niveaux de strategizing émergent chemin faisant (Langley, 2015 ; Bouty et al, 2019). Au cours de l'observation participante en immersion, l'organisation évoluant en contexte extrême de type « risqué » a fait face à l'émergence d'un contexte de type « urgence » (Hällgren et al., 2018) consécutivement à l'occurrence d'un événement anticipé dans la conception de l'outil de production (alarme anti-chavirage), anticipé dans la planification stratégique (choix de route et de voiles) et anticipé dans la conduite opérationnelle (tolérance des réglages du pilote automatique et des voiles) dont l'intensité a atteint un seuil rendant la réalisation d'une crise irréversible par le dépassement soudain des capacités de gestion de l'organisation à tous ces niveaux d'anticipation. A plusieurs moments dans la séquence d'événements, les trois membres de l'unité stratégique agissant chacun dans une temporalité propre ont perçu l'irréversibilité et adopté, après une adaptation réactive très rapide, une pratique réflexive au moment où il s'est agi de préserver la vie à bord. Le rythme d'engagement dans la pratique réflexive à été très rapide pour à bord (de l'ordre de quelques secondes) et plus lent et décalé dans le temps (de l'ordre de plusieurs dizaines de minutes) pour le routeur à terre. L'engagement a eu lieu dès la perception d'indices par chacun des trois praticiens laissant supposer qu'un problème majeur est en train de se produire. Le réalignement des temporalités de pratiques entre les deux membres d'équipage s'est opéré lorsque les deux marins ont établi un contact physique direct conduisant à leur mise en sécurité dans l'habitacle alors que la plateforme est en train de se retourner dans un mouvement irréversible. Le réalignement des temporalités entre la terre et le bord s'est opéré plusieurs dizaines de minutes après le chavirage au moyen d'un échange oral direct. L'investigation réflexive relevée ici correspond à « l'alliance de la pensée et de l'action qui, partant du doute [] interprété comme l'expérience d'une situation problématique [] ressentie comme une surprise bloque le courant d'activité spontanée et déclenche des pensées et des actions dont l'objectif est de rétablir ce courant » (Argyris & Schön, 2001, p. 33, citant Dewey, 1929). Lorsque l'engagement dans l'action des participants est interrompu par la défaillance (le chavirage), les participants (après la phase de sauvegarde) se sont mis à considérer différemment les composantes de leur activité en les distinguant (Sandberg & Tsoukas 2011). Il s'agit d'une observation de transfert de mode d'activité depuis un accomplissement consciencieux (absorbed coping) vers une délibération thématique impliquée (involved thematic deliberation). Ce transfert constitue une manifestation de réflexivité en train de questionner une pratique. Notons que la réflexivité constitue elle-même une pratique connaissable. L'extrait présenté de manière condensée, constitue un cas de confrontation d'organisation à une crise où les enjeux basculent en quelques secondes de la recherche de performance à la sauvegarde de la vie humaine. À l'échelle du bateau, il s'agit d'une disparition brutale d'enjeux liés à la performance sportive. Il ne reste alors plus que les enjeux liés à la préservation de la vie, qui étaient déjà présents avant la crise mais avec une priorité moindre en matière de ressources de traitement. Une fois les enjeux liés à la préservation de la vie des deux membres en mer, l'enjeu dominant se situe au niveau de la survie de l'organisation dans son ensemble (pas seulement l'unité stratégique) après la survenance de la crise. Nous 13 XXXème conférence de l'AIMS constatons la recomposition de l'ingénierie des choix au travers des changements de pratiques décisionnelles observées à chaque début de phase et effectuées sur une durée très brève (estimée à moins de 2 heures). Les deux changements de pratiques décisionnelles mettent en évidence le polymorphisme au cours du temps de l'organisation habituée à évoluer en contexte extrême et sa capacité à adopter un fonctionnement performant en fonction des circonstances changeantes. Il s'agit d'une forme d'organisation contingente à transformation rapide. Nous en déduisons que les enjeux dominants de l'action ont une influence significative et directe sur l'organisation évoluant en contexte extrême. Lorsqu'on se place du point de vue de l'action considérée comme un processus historique matérialisé par un flux d'événements, il apparaît, d'une part, une éphémérité des enjeux qui caractérisent les phases de l'action, et d'autre part une adaptation de l'organisation aux enjeux. L'adaptation se produit de manière différenciée au sein de l'organisation en contexte extrême selon deux modes en fonction des circonstances : le mode de l'anticipation ; le mode de la réaction. Il s'agit ici bien plus qu'une forme d'adaptabilité par rapport aux circonstances, il s'agit d'une transformation en profondeur de l'organisation, visible dans les modalités d'exercice des pratiques de choix stratégiques en contexte extrême. Nous inférons de ce cas empirique qu'en contexte extrême, l'aptitude de l'organisation à se transformer en cohérence avec les enjeux de l'action constitue une condition essentielle de performance, où la nature de la performance peut elle-même varier. A l'examen de la séquence d'activités opérationnelles enchâssées dans une activité stratégique, il ressort que les organisations de course au large en multicoque Ultime s'apparentent à des organisations de haute fiabilité où la notion de sûreté contient des dimensions temporelles opérationnelles et stratégiques plurielles se matérialisant en pratiques dans l'action (Weick & Sutcliffe, 2007 ; Gherardi, 2008 ; Bieder et al., 2018) révélées au moment de la réalisation d'une crise excédant temporairement les capacités de traitement opérationnel de l'organisation (Sandberg et Tsoukas, 2020). CONCLUSION L'étude apporte un éclairage inédit sur un phénomène organisationnel singulier paroxystique : une gestion de crise vitale dont l'issue a été sans dommage physique grave pour l'équipage. Ce cas ressort comme représentatif des contextes extrêmes de type « urgence » (Hällgren et al. 2018) dans la mesure où les effets produits par un événement moteur, devenant soudainement néfaste du fait de son intensité, situent les enjeux de l'action au niveau de la préservation de la vie avec une pression temporelle très forte. En croisant le point de vue de l'action et celui de l'organisation, l'approche par la pratique permet d'établir des relations entre la temporalité de l'action, rythmée par la succession d'événements (Chia, 1999 ; Jarzabkowski, 2004), et les temporalités organisationnelles plurielles (Gherardi & Strati, 1988 ; Orlikowski & Yates 2002), rythmées ici par les effets irréversibles de l'émergence d'une crise (Williams et al., 2018). Interpréter les phénomènes organisationnels et les événements en cours d'action ressort, à travers une pratique transformatrice réalisée, comme une condition stratégique pour gérer les changements sous forte pression. La concentration des fonctions de dirigeant, stratège et opérateur au sein d'une unité organisationnelle resserrée, observée en temps réel, permet de saisir l'influence des pratiques de strategizing en train de se faire y compris à l'échelle micro (Johnson et al, 2003). Au-delà des relations entre événements et pratiques de strategizing en contexte extrême, nous avons montré l'influence dans l'action des décalages temporels entre les effets des événements et les effets des pratiques. La mise en perspective sous forme de trajectoires d'effets et de décalages de trajectoires d'effets dans l'action suggèrent, en contexte extrême, un axe de travail prometteur en matière d'anticipation stratégique et d'anticipation de changement de temporalités (Roubelat, 2016 ; Marchais-Roubelat & Roubelat, 2016). 14 XXXème conférence de l'AIMS Combiner, en fonction des circonstances de l'action et des rythmes propres de l'organisation, la réactivité et l'anticipation pourrait renforcer la performance de l'organisation en contexte extrême risqué et en situation de crise en particulier. Un champ d'investigation sur le couple anticipation-réactivité en relation avec l'émergence d'événements s'offre à nous (MarchaisRoubelat & Mondon 2020) au moyen d'une approche par la pratique (Gherardi, 2016). REFERENCES Allard-Poesi, F. & Giordano, Y. (2015). Performing Leadership "In-Between" Earth and Sky. M@n@gement, 18(2), 103-131. Argyris, C. & Schön, D. A. (2001). Apprentissage organisationnel. Théorie, méthode, pratique. De Boeck Supérieur, Paris. Avenier, M.-J. (2009). Franchir un fossé réputé infranchissable : construire des savoirs scientifiques pertinents pour la pratique, Management & Avenir, 30(10), 188–206. Baumard, P. (2015). Le vide stratégique, CNRS éditions, Paris. Bieder, C., Gilbert, C., Journé, B. & Laroche, H. (2018). Beyond Safety Training: Embedding Safety in Professional Skills. Springer Briefs in Safety Management, Springer. Bouty, I. & Drucker-Godard, C. (2011). Emergence de l'agir collectif dans la course à la voile : rythme et coordination. Management et Avenir, 41(1), 435-448. Bouty, I. & Drucker-Godard, C. (2019). Managerial work and coordination: A practice-based approach onboard a racing sailboat. Human Relations, 72(3), 565-587. Bouty, I., Godé, C., Drucker-Godard, C., Lièvre, P., Nizet, J. & Pichault, F. (2012). Coordination practices in extreme situations. European Management Journal, 30(6), 475-489. Bouty, I., Gomez, M. L. & Chia, R. (2019). Strategy emergence as wayfinding. M@n@gement, 22(3), 438-465. Chia, R. (1999). A "rhizomic" model of organizational. Change and transformation: Perspective from a metaphysics of change. British Journal of Management, 10(3), 209-227. Chia, R. & Rasche, A. (2015). Epistemological Alternatives for Researching Strategy as Practice : Building and Dwelling Worldviews, In D. Golsorkhi, L. Rouleau, D. Seidl, D. & E. Vaara (Eds.) Cambridge Handbook of Strategy as Practice (pp. 44-57). Cambridge University Press. Corradi, G., Gherardi, S. & Verzelloni, L. (2010). Through the practice lens : Where is the bandwagon of practice-based studies heading ? Management Learning, 41(3), 265-283. Dewey, J. (1929). The quest for certainty : a study of the relation of knowledge and action, Balch and Company, New York. Gherardi, S. (2016). To start practice theorizing anew : The contribution of the concepts of agencement and formativeness. Organization, 23 (5), 680-698. Gherardi, S. (2019). How to conduct a practice-based study: Problems and methods. Second edition, Edward Elgar Publishing, Cheltenham. Gherardi, S. & Strati, A. (1988). The temporal dimension in organizational studies. Organization studies, 9(2), 149-164. Giordano, Y. (2019). Les organisations en contextes extrêmes, In S. Liarte (Eds.) Les grands courants en management stratégique (pp. 445-472). EMS Editions, Caen. 15 XXXème conférence de l'AIMS Giordano, Y. & Musca, G. (2012). Les alpinistes dans l'imprévu, pour une approche naturaliste de la décision ? Revue française de gestion, 225(6), 83-107. Giordano, Y. & Rickli, R. (2013). Experts en relation distante, le cas d'un routage météorologique sur la voie nord de l'everest In Actes de la 18e conférence de l'association information et management, Lyon. Godé, C. & Lebraty, J.F. (2013). Improving decision making in extreme situations: The case of a military Decision Support System. The International Journal of Technology and Human Interaction, 9(1), 1-17. Guarnelli, J., Lebraty, J.F. & Pastorelli, I. (2016). Prise de décision et contextes extrêmes. le cas des acteurs d'une chaîne des secours d'urgence. Revue française de gestion, 257(4), 111127. Hällgren, M., Rouleau, L. & De Rond, M. (2018). A matter of life or death: How extreme context research matters for management and organization studies. Academy of Management Annals, 12(1), 111-153. Hannah, S.T., Uhl-Bien, M., Avolio, B.J. & Cavarretta, F.L. (2009). A framework for examining leadership in extreme contexts. The Leadership Quarterly, 20(6), 897-919. Hoffman, R. & Klein, G., (2017). Challenges and Prospects for the Paradigm of Naturalistic Decision Making, 11 (1), 97-104. Jarzabkowski, P. (2004). Strategy as practice : recursiveness, adaptation, and practices-in-use. Organization Studies, 25(4), 529-560. Jarzabkowski, P., Balogun J. & Seidl, D. (2007). Strategizing : The challenges of a practice perspective, Human Relations, 60(1), 5-27. Johnson, G., Melin, L. & Whittington, R. (2003). Micro strategy and strategizing: Towards an activity-based view? Journal of Management Studies, 40(1), 3-22. Lagadec, P. (2012). Gestion de crise : nouvelle donne. Sécurité et stratégie, 10(3), 50-52. Langley, A. (2015). The ongoing challenge of developing cumulative knowledge about strategy as practice, In D. Golsorkhi, L. Rouleau, D. Seidl, D. & Vaara E. (Eds.) Cambridge Handbook of Strategy as Practice (pp. 111-127), Cambridge University Press. Langley, A., Mintzberg, H., Pitcher, P., Posada, E. & Saint-Macary, J. (1995). Opening up decision making : the view from the black stool. Organization Science, 6(3), 260-279. Langley, A. & Klag, M. (2019). Being Where? Navigating the Involvement Paradox in Qualitative Research Accounts. Organizational Research Methods, 22(2), 515-538. Lebraty, J.F. (2013). SI et situations extrêmes, Systèmes d'information et management, 18(1), 3-10. Lièvre, P. (2016). État et développement d'un programme de recherche : Management des situations extrêmes. Revue française de gestion, 257(4), 79-94. Macquet, A. & Stanton, N.A. (2014). Do the coach and athlete have the same "picture" of the situation? Distributed situation awareness in an elite sport context. Applied Ergonomics, 45(3), 724-733. Marchais-Roubelat, A. (2000). De la décision à l'action, Essai de stratégie et de tactique, Economica, Paris. 16 XXXème conférence de l'AIMS Marchais-Roubelat, A. & Mondon, S. (2020). Pratique d'anticipation et anticipation de pratiques : événement, imprévu et stratégie, In actes de la XXIXe conférence internationale de management stratégique, Toulouse. Marchais-Roubelat, A. & Roubelat, F. (2016). Dominance, stakeholders' moves and leadership shifts: New directions for transforming futures. Futures, 80, 45-53. Miles, M.B., Huberman, A.M. & Saldaña, J. (2019). Qualitative data analysis, a methods sourcebook, fourth edition, SAGE. Mintzberg, H. (1994). Grandeur et décadence de la planification stratégique, Dunod, Paris. Mollo, V. & Falzon, P. (2004). Auto and allo-confrontation as tools for reflective activities, Applied Ergonomics, 35(6), p. 531–540. Mondon, S. & Marchais-Roubelat, A. (2017). Decision processes in action at sea, a methodological challenge for real world research In Gore J. & Ward P. (Eds.) Naturalistic Decision Making and Uncertainty. Proceedings of the13th Bi- Annual Naturalistic Decision Making Conference, Bath University, Bath. Orlikowski, W. J. (2000). Using technology and constituting structures : A practice lens for studying technology in organizations, Organization Sciences, 11(4), p. 367–472. Orlikowski, W.J. (2015). Practice in research: phenomenon perspective and philosophy, In In D. Golsorkhi, L. Rouleau, D. Seidl, D. & Vaara E. (Eds.) Cambridge Handbook of Strategy as Practice (pp. 33-43). Cambridge University Press. Orlikowski, W.J. & Yates, J. (2002). It's about time : Temporal structuring in organizations. Organization Science, 13 (6), 684-700. Pailleux, J., Geleyn, J.-F., El Khatib, R., Fisher, C., Halrud, M., Thépaut, J.-N., Rabier, F. Anderson, E., Salmond, D., Burridge, D., Simmons, A. & Courtier, P. (2015). Les 25 ans du système de prévision numérique du temps IFS/Arpège. La Météorologie, 8(89), 18-27. Roubelat, F. (2016). Mouvement, planification par scénarios et capacités d'action, enjeux et propositions méthodologiques, Stratégique, 3(113), 168-188. Rouleau, L. (2015). Studying strategizing through biographical methods: narratives of practices and life trajectories of practitioners, In D. Golsorkhi, L. Rouleau, D. Seidl, D. & Vaara E. (Eds.) Cambridge Handbook of Strategy as Practice (pp. 111-127). Cambridge University Press. Roux-Dufort, C. (2009). The devil lies in details ! how crises build up within organizations, Journal of Contingencies and Crisis Management, 17(1), 4-11. Sandberg, J. (2005). How do we justify knowledge produced within interpretive approaches ?, Organizational research methods, 8(1), 41-68. Sandberg, J. & Tsoukas H. (2011). Grasping the logic of practice : theorizing through practical rationality. Academy of Management Review, 36 (2), 338-360. Sandberg, J. & Tsoukas, H. (2020). Sensemaking Reconsidered: Towards a broader understanding through phenomenology. Organization Theory, 1(1), 1-34. Tsoukas, H. (2015). Making strategy: meta-theoretical insights from Heidegggerian phonomenology, In D. Golsorkhi, L. Rouleau, D. Seidl, D. & Vaara E. (Eds.) Cambridge Handbook of Strategy as Practice (pp. 58-77). Cambridge University Press. van der Vegt, G.S., Essens, P., Wahlstrom, M. & George, G. (2015). Managing Risk and Resilience. Academy of Management Journal, 58(4), 971-980. 17 XXXème conférence de l'AIMS Weick, K.E. (2002). Real-time reflexivity: prods to reflection. Organization Studies, 23(6), 893-898. Weick, K.E. (2007). The generative properties of richness. Academy of Management Journal, 50(1), 14-19. Weick, K.E. & Sutcliffe, K.M. (2007). Managing the unexpected, resilient performance in an age of uncertainty, John Wiley and Sons, San Francisco. Whiteman, G. & Cooper, W.H. (2011). Ecological sensemaking. Academy of Management Journal, 54(5), 889-911. Williams, T., Gruber, D., Sutcliffe, K.M., Shepherd, D. & Zhao, E.Y. (2018). Organizational Response to Adversity: Fusing Crisis Management and Resilience Research Streams. Academy of Management Annals, 11(2), 733-769. ANNEXE Tableau 2. Verbatims des praticiens situés au sein de la séquence d'action. DATE SOURCE EXTRAIT Samedi 24 octobre 2015 à 7h30 – point d'info stratégie de l'unité stratégique Samedi 24 octobre 2015 à 19h – définition de la stratégie de course par l'unité stratégique 24 octobre Skipper L & 2015 à 19h : co-skipper R dernière déclaration avant départ « Dernière mise au point de la météo avant le départ » « il y aura encore un petit briefing demain matin, rapide pour voir les évolutions de la nuit, mais à 90 % à 95 % on connaît à peu près la route, on sait ce qui nous attend » « très difficile de naviguer correctement dans de la grosse mer » « privilégier une route qui nous emmène à la fois dans le sud et dans l'ouest aussi » « il va falloir doser » « ce point de décision là jouera aussi beaucoup sur les stratégies suivantes aussi » « il faut bien peser tout ça » « d'ici le départ on va encore bien tergiverser et après le départ aussi » « par rapport à des bateaux de 30m ça ne va pas être facile de jouer à égalité » « il va falloir jongler entre la grosse mer et les bascules de vent » « il va falloir aussi passer tout ça sans casser les bateaux et pouvoir sortir avec un bateau indemne en ménageant les bonshommes » « on va avoir une belle première nuit, je pense qu'on va être assez rapide, voire très rapide peut-être, après un départ dans le tout petit temps, et puis après le saute-moutons va commencer, donc après on ira pas très vite pour des bateaux comme ça, mais bon, à bord ça va vomir son quatre heure » « on ira pas très vite pour des bateaux comme ça » Dimanche 25 octobre 2015 à 7h30 – Actualisation des routes possibles (discussion) Dimanche 25 octobre 2015 à 9h – Départ du ponton Dimanche 25 octobre 2015 à 11h56 – Actualisation des routes possibles Dimanche 25 octobre 2015 à 13h30 – Départ de la course Dimanche 25 octobre 2015 à 21h30 – Actualisation des possibilités de route (D → L et R) Lundi 26 octobre 2015 - 1h – Annonce choix de la route (L → D) Lundi 26 octobre 2015 - 3h - bifurcation irréversible des routes (Ouessant) Lundi 26 octobre 2015 - 10h10 – Analyse des possibilités de route (D → L et R) Lundi 26 octobre 2015 à 21h30 – Accusé réception des information (R → D) Lundi 26 octobre 2015 à 20h15 – Chavirage (L intérieur, R sur le pont) Lundi 26 octobre 2015 à 21h30 – Information du chavirage (L → D) puis relai de D vers proches, équipe et direction de course Lundi 26 octobre 2015 à 23h04 – Annonce publique du chavirage par la direction de course Mardi 27 octobre 2015 à 16h20 -Déclenchement de la balise de détresse (L) 18 XXXème conférence de l'AIMS Mardi 27 octobre 2015 17h40 -Evacuation par hélitreuillage de la marine espagnole 27 octobre Skipper L 2015 à 19h 1ere déclaration après chavirage départ « Je n'ai pas vu grand-chose car j'étais dans le bateau. On était au près, sous trinquette, dans de la mer, avec entre 15 et 17 noeuds de vent. Dix minutes avant, avec Bilou, on se posait la question de savoir s'il fallait qu'on déroule le solent ou pas. Je ne sais pas ce qui s'est passé, j'ai juste eu le temps de bondir et d'attraper Bilou pour l'attirer dans la descente. Est-ce que c'est le fait d'une vague ou d'une survente ou bien des deux, c'est difficile à dire C'est dur parce que nous avions passé le plus gros du mauvais temps et que la météo allait vraiment en s'arrangeant. » « J'ai déjà vécu ça il y a deux ans. Revivre deux fois de suite la même chose, ça commence à faire beaucoup. Je n'ai pas pensé à la Transat mais au bateau, à toute cette somme de boulot et d'énergie que nous avons dépensé pour que le Maxi80 Prince de Bretagne soit comme il est. C'est terrible de voir tous ces efforts foutus en l'air en l'espace de deux secondes et de penser aux conséquences qu'il va y avoir derrière. » « Hier soir, quand j'ai appelé D, il m'a annoncé des vents de plus en plus forts, précisant que ça pourrait monter jusqu'à 40 noeuds dans la soirée de jeudi. Cet après-midi, il y avait déjà cinq à six mètres de creux et ça soufflait à 30 noeuds. Je me suis dit que ça ne valait pas la peine de se mettre en danger à deux dans une mer pas loin d'être démontée. J'ai quand même fait en sorte de larguer le gréement pour soulager le bateau. J'y suis parvenu après deux bonnes heures passées dans l'eau » Suivi distant de la dérive de la plateforme (balise et modélisation) Remorquage Arrivée au port d'attache Mise au sec du trimaran au chantier Mai 2016 : Skipper L autoconfrontation « euh ouais après le vent il est dur » « au début de ce bord là on fait un bord qui était, qui était bien, et puis après, ça s'est mis à refuser » « et c'est revenu, ben au moment du chavirage c'était un un un une une belle droite euh forte » Nov. 2017 : Co-skipper autoR confrontation « danger pour la plateforme d'aller prendre un peu de, euh baston » « dans le sud du Golfe le vent à mollit un peu, c'était instable » « on virait ça refusait, on virait ça refusait, c'était foireux » 19
{'path': '36/halshs.archives-ouvertes.fr-halshs-03324387-document.txt'}
Fratrie germaine et appropriation de la famille recomposée par l'enfant de 6 à 13 ans : une approche bioécologique Lou Charlotte Djo To cite this version: Lou Charlotte Djo. Fratrie germaine et appropriation de la famille recomposée par l'enfant de 6 à 13 ans : une approche bioécologique. Psychologie. Université Toulouse le Mirail - Toulouse II, 2013. Français. NNT : 2013TOU20099. tel-00967352 HAL Id: tel-00967352 https://tel.archives-ouvertes.fr/tel-00967352 Submitted on 28 Mar 2014 ฀ ฀ ฀ ฀ ฀ ฀ ฀ %&506-064& %0$503"5%&-6/*7&34*52 ฀ ฀ ฀ Université Toulouse II฀ Le Mirail (UT2 Le Mirail)  ฀ ฀ ฀ PSYCHOLOGIE ฀ ฀ ฀ ฀฀ ฀ ฀ ฀ DJO Lou Bouénan Charlotte ฀ lundi 14 octobre 2013 ฀ ฀ ฀ ฀ ฀ FRATRIE GERMAINE ET APPROPRIATION DE LA FAMILLE RECOMPOSEE PAR L'ENFANT DE 6 A 13 ANS : ฀ ฀ Une Approche Bioécologique ฀ ฀ ฀ ฀ ฀ Socialisation, COgnition (CLESCO) Comportement, Langage, Education, ฀ ฀ ฀ ฀ Laboratoire Psychologie du Développement et Processus de Socialisation (PDPS) EA 1687 ฀ ฀ ฀ Chantal ZAOUCHE GAUDRON, Professeure (Université Toulouse II - Le Mirail) Alain BAUBION-BROYE, Professeur (Université Toulouse II - Le Mirail) ฀ Agnès FLORIN, Professeure ฀ (Université de Nantes) Anne-Marie FONTAINE, Professeure฀ (Universidade do Porto, Portugal) Remerciements J'adresse mes remerciements les plus sincères : • au Prof. Chantal Zaouche Gaudron pour avoir cru en l'aboutissement de cette thèse et pour toute la volonté et la rigueur qu'elle a mis dans l'encadrement de cette thèse. Pour votre soutien, vos conseils avisés, votre patience et votre disponibilité (même pendant les vacances cet été), vous avez toute ma gratitude. • au Prof. Alain Baubion-Broye pour ces éclairages avisés. • au Prof. Agnès Florin et au Prof. Anne-Marie Fontaine qui me font le grand honneur d'être rapporteurs et membres du jury de cette thèse. Merci d'accepter de porter un regard constructif sur ce travail. Aux membres de l'équipe « Milieux, Groupes et Psychologie du Jeune Enfant » pour leur accueil et leur soutien. Tout particulièrement à Veronique Rouyer, et à Hélène Ricaud-Droisy, pour les premières réflexions et les échanges constructifs, les premières élaborations que nous avons eu sur ce thème de recherche. Merci également à Stéphanie pour ses remarques constructives et les relectures. Je remercie les doctorant(e)s du Laboratoire pour leur soutien, leurs encouragements et leur mobilisation à mes côtés. Merci pour vos relectures. Merci à Amandine, Liên, Elodie, Lucie, Olivia, Marie-José, Flora, Nancy, Céline, Diep, Marie L., Claudia, Christelle, Marie P., Audrey B, Raymond, Julien, et à mes compagnons de longue date : Marie-Frédérique, Audrey R, Nathalie et Yoan. Merci à la Mme Gwenola Martin, Directrice, « Enfance et Loisirs » de la mairie de Toulouse. Je tiens à exprimer ma gratitude à Omar Ez-Zinbi et Eddy Nau, et aux membres de la direction des centres de loisir : Petit Capitol, Patte d'Oie, Sept Deniers, Maourine, Borderouge pour leur accueil et leur aide dans la réalisation du terrain. Aussi, je voudrais dire exprimer ma profonde gratitude à toutes ces familles qui ont accepté de participer à cette étude et sans lesquelles la fin de cette étude de cette étude n'aurait été qu'illusoire. Merci pour votre confiance et votre disponibilité. A mes proches Mon père, pour son soutien durant toutes ces années d'études et ses « courage ma fille » qui m'ont continuellement accompagné A ma mère pour son soutien. i A Arthur, mon mari, pour sa présence, sa patience, son soutien dans ce projet de doctorat. Grand merci pour ta contribution à la réalisation de ce travail, pour les relectures, les mises en formes, les éclairages statistiques. A mes frères et soeurs, fratrie ressource, qui a certainement inspiré ce travail. Merci à Bernard, Alfred, Paulin, Nathalie, Félicité, Noëlle, Victorine, Serge, Joëlle, Josiane, Arnold, Géraldine, Alain, Yann et Nathan. Merci à Herman pour ces conseils et ces enseignements. La famille Bruyère-Idalgo, je vous remercie pour la grande amitié dont vous avez fait montre toutes ces années. ii A mon père, A ma mère, A mon mari, A ma fratrie, A ma famille iii A la mémoire de, Bernard, Nathalie iv Résumé L'objectif de cette étude est d'analyser comment l'enfant s'approprie la recomposition familiale (Malrieu & Malrieu, 1973 ; Malrieu, 1976) et quels rôles jouent les relations dans la fratrie germaine dans cette appropriation (Bush & Ehrenberg, 2003). Notre analyse se fonde sur une approche bioécosystémique avec le modèle Processus, Personne, Contexte, Temps (PPCT) de Bronfenbrenner (1996), qui nous permet de mettre en lien les facteurs individuels, le contexte de la famille recomposée et le développement de l'enfant. Notre échantillon se compose de 23 enfants de familles recomposées, 12 filles et 11 garçons, âgés de 6 à 13 ans (moyenne d'âge = 9,21 ; écart-type = 2,27). Leurs relations dans la fratrie germaine sont examinées à partir d'un entretien semi-directif. Le processus d'appropriation de la famille recomposée a été appréhendé à l'aide du dessin de la famille, du Kidcope (Spirito, Stark et Williams, 1988), du Child Behavior Checklist (CBCL, Achenbach, 1991) et de l'Autoquestionnaire Qualité de vie-enfant-imagé (AUQEI, Magnificat & Dazord, 1997). Les principaux résultats révèlent des représentations de la famille différentes selon les enfants. Ces représentations indiquent que les enfants font des choix électifs des membres de leur famille sur la base des liens biologiques, des personnes significatives dans leur vie et de la qualité des rapports avec leur entourage. Le facteur de stress le plus souvent évoqué par les enfants est le beau-parent et son approche éducative. La stratégie la plus mobilisée et jugée efficace par les enfants réfère au soutien social. Dans l'ensemble les enfants présentent une adaptation socio-affective et une qualité de vie satisfaisante. Au niveau des représentations des relations dans la fratrie germaine, il ressort qu'elles sont perçues par la majorité des enfants comme une ressource dans la recomposition familiale, étant à la fois continue et soutenante. Les analyses bivariées font ressortir une influence significative de l'âge sur l'efficacité des stratégies de coping, et du sexe sur la représentation de la famille et la fréquence de mobilisation de la stratégie « résignation ». En outre, le sexe et la configuration de la fratrie semblent influencer l'adaptation socio-affective des enfants, tandis que le mode de garde a un effet sur la représentation de la famille. Enfin, un lien apparait entre le temps écoulé depuis la séparation et l'efficacité de la stratégie « soutien social », et la durée de la recomposition semble, quant à elle, influencer l'adaptation socio-affective des enfants. Mots clés : enfant, famille recomposée, modèle bioécosystémique, fratrie germaine, appropriation, représentation de la famille, coping, adaptation socio-affective, qualité de vie. v Abstract The present study aimed at investigating how a child appropriates his stepfamily or blended family (Malrieu & Malrieu, 1973; Malrieu, 1976) and how sibling relationships might influence that appropriation (Bush & Ehrenberg, 2003). Our analysis is based on the bioecological approach from Bronfenbrenner (1996) using the Process-Person-Context-Time (PPCT) model, further allowing the correlation of personal characteristics, stepfamily context and child development. The study sample was composed of 23 children: 12 girls and 11 boys between the ages of 6 and 13 (with a 9.21 mean and 2.27 standard deviation), from 15 stepfamilies. The relationships between the siblings were examined using a semi-directive interview. The appropriation process of the stepfamily by the children was investigated on the basis of four methods: the drawing of the family, the Kidcope (Spirito, Stark and Williams, 1988), the Child Behavior Checklist (CBCL, Achenbach, 1991) and the "AUtoquestionnaire Qualité de vie-Enfant-Imagé" (AUQEI, Magnificat & Dazord, 1997). Different family representations are shown from the results. They indicate that children are making elective choices between members of their stepfamily mainly on the basis of their biological relationships, the most important persons influencing their life and also the quality of the relationship with their close circle. It is worthwhile to emphasize that the most stressful experience generally evoked by children usually originates from the stepparent and his/her educational approach. Furthermore, the results show that the social support appears as the most efficient strategy often used by the children to overcome the difficulties which may occur in their stepfamilies. Generally, we noticed a satisfying socio-emotional adaptation and life quality of the sampled children. Mostly, their representations of the relationship among siblings are found as a resource within their stepfamily as long as those relationships are both sustained and supportive. Cross-correlated statistical analysis of the data showed age as a significant influence on the efficiency of employed coping strategies as well as the significance of sex on family representations and frequency of the use of the "resignation" strategy. Additionally, the sex and configuration of siblings seem to influence the socioemotional adaptation of children, while child custody and family representation seem to be correlated. Finally, the elapsed time since separation and the efficiency of the "social support" strategy appears correlated, while the socio-emotional adaptation of children seemed dependent on the duration before the second union. Keywords: Child, stepfamily / blended family, bioecological family model, sibling, appropriation / adaptation, representation of the family, coping, socio-emotional adaptation, quality of life vi Sommaire REMERCIEMENTS I RESUME V ABSTRACT VI INTRODUCTION 1 PARTIE THEORIQUE 4 CHAPITRE 1. LA FAMILLE RECOMPOSEE : CONTEXTE SOCIAL ET REFERENCES THEORIQUES 1 I. Définition et historique de la famille recomposée 1 II. Mutations sociales et famille recomposée 4 II.1. Fonctionnement de la famille 4 II.2. Les institutions familiales 5 II.2.1. Désaffection du mariage 5 II.2.2. Accroissement du taux de divorce et de séparation 7 III. Les modèles théoriques 9 III.1. Le système familial 10 III.1.1. Le processus de « débordement » (« Spillover ») 12 III.1.2. Le processus de compensation (« compensatory ») 13 III.2. Le modèle écosystémique et le modèle bioécologique 13 CHAPITRE 2. TRAJECTOIRE ET DYNAMIQUE DE LA FAMILLE RECOMPOSEE 19 I. Divorce ou séparation et réorganisation de la parentalité 19 I.1. Le divorce/la séparation et le développement de l'enfant 19 I.2. La coparentalité 22 I.3. Système de garde 29 I.3.1. Détermination du système de garde 29 I.3.2. Système de garde et développement de l'enfant 31 I.3.3. Système de garde et relation parent-enfant 33 II. La recomposition familiale 35 II.1. Le système familial 35 II.1.1. Les sous-systèmes familiaux 39 II.1.1.1. Relation conjugale dans la famille recomposée 39 I.1.1.1. La pluriparentalité 41 I.1.1.1.1. Pluriprentalité et système de filiation 42 I.1.1.1.2. Pluriparentalité et nomination des liens de parenté 43 I.1.1.1.3. Pluriparentalité et définition des rôles parentaux 44 I.1.1.1.4. Pluriparentalité et Relation parents-enfants 48 I.1.1.2. La fratrie recomposée 50 CHAPITRE 3. APPROPRIATION DE LA FAMILLE RECOMPOSEE 55 I. Bases théoriques 55 II. L'appropriation dans la représentation de la famille 57 II.1. II.2. II.3. III. Conflits conjugaux et représentation de la famille 58 Structure familiale et représentation de la famille 59 Représentation des rôles parentaux 62 Appropriation par stratégie de Coping 64 III.1. Définition et approches théoriques du stress et du coping 64 III.1.1. L'approche physiologique 64 III.1.2. L'approche psychodynamique 65 III.1.3. La théorie transactionnelle 66 vii III.1.3.1. Le stress dans la théorie transactionnelle 66 III.1.3.2. Le coping dans la théorie transactionnelle 68 III.2. Recomposition familiale et coping 69 IV. L'adaptation socio-affective 74 IV.1. IV.2. V. L'enfant et ses relations familiales 74 Recomposition familiale et adaptation socio-affective 77 La qualité de vie de l'enfant 81 V.3. V.4. V.5. Historique et définition 81 La qualité de vie subjective 83 Famille et qualité de vie subjective de l'enfant 85 CHAPITRE 4. RECOMPOSITION FAMILIALE ET RELATIONS FRATERNELLES 89 I. Dynamique des relations fraternelles 89 I.1. La dimension verticale 89 I.1.1. Le complexe fraternel 89 I.1.2. Le lien fraternel 91 I.2. Dimension horizontale 91 I.2.1. Caractéristiques de la fratrie 91 I.2.1.1. La position dans la fratrie 92 I.2.1.2. Ecart d'âge au sein de la fratrie : 93 I.2.1.3. Composition sexuée de la fratrie et configuration de la fratrie 94 I.2.2. Fonctions des relations fraternelles 95 I.2.2.1. Fonction d'attachement 95 I.2.2.1.1. De l'attachement mère-enfant à l'attachement fraternel 95 I.2.2.1.2. L'attachement fraternel 97 I.2.2.2. La fonction de suppléance parentale 98 I.2.2.3. Fonction d'apprentissage des rôles sociaux 100 II. La fratrie germaine dans la recomposition familiale 101 CHAPITRE 5. PROBLEMATIQUE 108 PARTIE EMPIRIQUE 120 CHAPITRE 1. LES VARIABLES 122 I. Résultat du développement : L'appropriation de la famille recomposée par l'enfant 122 I.1. I.2. I.3. I.4. La représentation de la famille 122 Les stratégies de coping 122 L'adaptation socio-affective 123 La qualité de vie de l'enfant 123 II. III. IV. V. Processus proximal : La représentation des relations avec la fratrie germaine 124 Les caractéristiques personnelles de l'enfant 124 Le contexte 124 Les variables liées au Temps 125 CHAPITRE 2. LES OUTILS 126 I. Résultat du développement : L'appropriation de la famille recomposée 126 I.1. I.2. I.3. I.4. Le dessin de la famille 126 Le Kidcope 128 Le Child Behavior Checklist 4/18 130 L'autoqestionnaire Qualité de vie-Enfant-Imagé 132 II. III. Processus proximal : Représentation des relations fraternelles (l'entretien semi-directif) 133 Le questionnaire sociodémographique et le questionnaire sur la recomposition familiale 135 CHAPITRE 3. POPULATION 138 I. Critères d'inclusion 138 II. Accès à la population 140 III. Procédure de recueil des données 142 viii CHAPITRE 4. PRESENTATION DES RESULTATS 143 I. Profil de l'échantillon 143 I.1. Caractéristiques personnelles des enfants 143 I.1.1. La variable sexe 143 I.1.2. L'âge des enfants 143 I.1.3. La position dans la fratrie 144 I.2. Le contexte familial 145 I.2.1. Les caractéristiques des fratries germaines 145 II.1.1.1. Le sexe et la configuration des fratries 145 II.1.1.2. L'écart d'âge dans les fratries 145 II.1.2. Caractéristiques des parents 146 II.1.3. Caractéristiques des familles avant et après la séparation 148 II.1.4. Caractéristiques des familles recomposées 152 II.2. Le temps 153 II. Analyse des données 155 II.1. Appropriation de la famille recomposée 155 II.1.1. La représentation de la famille 155 II.1.1.1. Analyse graphique et formelle des dessins de la famille. 155 II.1.1.2. Analyse de contenu des dessins 156 II.1.1.2.1. Structure de la famille 157 II.1.1.2.2. Les relations familiales 160 II.1.2. Les stratégies de coping 162 II.1.2.1. Les situations stressantes 162 II.1.2.2. Statistiques descriptives des scores des enfants pour la fréquence d'utilisation des stratégies 164 II.1.2.3. Statistiques descriptives des scores des enfants pour l'efficacité des stratégies utilisées 165 II.1.3. L'adaptation socio-affective 166 II.1.4. La qualité de vie 167 II.1.4.1. Niveau de satisfaction de vie 168 II.1.4.2. Analyse des questions ouvertes 169 II.2. Représentation des relations dans la fratrie germaine 174 III. Analyses bivariées 186 III.1. Effet des caractéristiques individuelles, du contexte et du temps sur les résultats du développement 186 III.1.1. Effets des caractéristiques individuelles des enfants sur les résultats développementaux 186 III.1.1.1. Âge 186 III.1.3.1. Variable sexe 187 III.1.3.2. Position dans la fratrie 188 III.1.4. Effets du processus proximal sur les résultats développementaux : la signification de la fratrie 189 III.1.3. Effets des caractéristiques du contexte sur les résultats développementaux 190 III.1.3.1. Sexe de la fratrie 190 III.1.3.2. Configuration de la fratrie 190 III.1.3.3. Ecart d'âge 190 III.1.3.4. Nombre de foyer(s) recomposés(s) 191 III.1.3.5. Types de familles recomposées 192 III.1.3.6. Mode de garde 192 III.1.4. Effets du facteur temps sur les résultats développementaux 194 III.1.4.1. Âge des enfants au moment de la recomposition familiale 194 III.1.4.2. Temps écoulé depuis la séparation 194 III.1.4.3. Durée de la recomposition familiale 195 III.2. Effet des caractéristiques individuelles, du contexte et du temps sur le processus proximal : la représentation des relations fraternelles 195 IV. Comparaison des enfants au sein d'une même fratrie 196 IV.1. Appropriation de la famille recomposée 196 IV.1.1. La représentation de la famille 196 ix IV.1.2. Les stratégies de coping 197 IV.1.3. L'adaptation socio-affective 199 IV.1.4. Qualité de vie 200 IV.2. Représentation des relations fraternelles 200 CHAPITRE 5. DISCUSSION 202 I. Appropriation de la famille recomposée par l'enfant 202 I.1. I.2. I.3. I.4. II. III. IV. V. VI. VII. Représentation de la famille 202 Les stratégies de Coping 205 Adaptation socio-affective 205 Qualité de vie 206 Représentation des relations dans la fratrie germaine 207 Caractéristiques personnelles 211 Représentation de la fratrie et appropriation 212 Contexte familial 213 Temps 214 Comparaison des enfants au sein d'une même fratrie 215 CONCLUSION 216 REFERENCES BIBLIOGRAPHIQUES 222 INDEX 238 LISTE DES FIGURES 243 LISTE DES TABLEAUX 244 x Introduction Introduction La famille recomposée s'inscrit dorénavant dans le contexte social des changements que connaît la structure familiale dans ses institutions, sa structure et son fonctionnement. En France, 1,2 millions d'enfants mineurs vivaient dans une famille recomposée en 2006 selon l'INSEE (Vivas, 2009). La recomposition familiale renvoie à des modifications et à une nouvelle organisation dans le système familial. Elle débute par la séparation du couple conjugal et se poursuit avec le passage d'un foyer nucléaire à deux distincts, celui du père et celui de la mère. Il s'en suit une réorganisation de la parentalité de par la remise en couple d'un ou des deux parents. De nouveaux liens fraternels peuvent se former si le beau-père ou la belle-mère avait déjà des enfants ou quand des enfants naissent de la nouvelle union. L'enfant de famille recomposée a vécu dans différentes structures familiales, (Hurstel, 1993 ; Villeneuve-Gokalp, 1993), et il ressort de cette trajectoire une constellation familiale composée de plusieurs figures parentales et de différents foyers (Fine, 2001 ; Neyrand, 2001 ; Théry, 1993). Cette nouvelle structure familiale implique de nouveaux liens, y compris fraternels, et une réorganisation des rôles et des statuts de chacun. L'enfant est amené à s'approprier la recomposition familiale et à construire sa famille recomposée. Notre analyse de l'appropriation, dans le cadre de la psychologie du développement, se base sur l'approche théorique du sujet co-acteur de son développement (Malrieu, 1976 ; Baubion-Broye, Malrieu & Tap, 1987). Dans cette perspective, l'appropriation peut être définie comme un processus qui envoie à la part active de l'enfant dans son développent et dans sa construction en tant que sujet. Elle est re-signification par le sujet de ses milieux de vie et des éléments qui lui sont transmis. Cette re-signification permet à l'enfant d'atténuer les contradictions que peuvent engendrer ses milieux de vie et les conflits qu'ils peuvent entraîner. L'ensemble permet à l'enfant de retrouver un équilibre psychosocial (Malrieu, 1973 ; 1976) et de trouver un équilibre entre ses besoins et son environnement. Dans le cadre de la famille recomposée, un premier équilibre familial est remis en cause par la séparation et la remise en couple. L'enfant va s'approprier les changements dans la famille en faisant des choix pour délimiter les contours de sa famille (qui en fait partie et qui n'en fait pas partie), il va aussi questionner sa définition de la famille et des liens familiaux. 1 Introduction Les relations fraternelles constituent l'un des principaux liens sociaux de l'enfant. Dans la recomposition familiale, la fratrie germaine est le sous-système de la famille nucléaire qui connaît le moins de changements, dans la mesure où les frères et soeurs germains restent la plupart du temps ensemble lors du passage de la famille nucléaire à la famille recomposée. Les relations fraternelles sont rattachées aux relations parent-enfant et peuvent être définies sous l'angle des conflits et de la rivalité (Gayet, 1993). Mais, elles peuvent également être analysées sous l'angle d'un sous-système « fratrie » (Almodovar, 1998) qui a des rôles et des fonctions qui lui sont propres et qui contribue au développement psychosocial de l'enfant. Les rôles et fonctions des relations fraternelles dans le développement de l'enfant ont été mis en évidence sous les termes d'attachement fraternel (Stewart, 1983), de suppléance parentale (Almodovar, 1998), et d'apprentissage des rôles sociaux (Meynckens-Fourez, 2002). Au niveau des transitions familiales telles que la séparation ou le remariage, les études portent, d'une part, sur les effets (dégradation ou amélioration) de ces transitions sur les relations fraternelles (Bush & Ehrenberg, 2003) et d'autre part, sur les relations fraternelles comme variable modératrice des effets des transitions familiales sur le développement de l'enfant (Gass, Jenkins & Dunn, 2007). Notre travail s'inscrit à la suite de ces études et vise à répondre aux interrogations suivantes : Comment l'enfant s'approprie la famille recomposée et quels rôles jouent les relations fraternelles dans cette appropriation ? Il s'appuie sur la théorie bioécologique et le modèle « Processus-Personne-Contexte-Temps » (PPCT) de Bronfenbrenner (1996) qui permet d'analyser le développement de l'enfant en lien avec ses caractéristiques personnelles, le contexte et le facteur temps. La partie théorique se décline en quatre chapitres. Le premier pose les fondements de notre étude. Il porte sur le contexte social dans lequel s'inscrit la famille recomposée et les cadres théoriques de notre étude. Le deuxième chapitre est centré sur la famille recomposée en tant que système familial et la recomposition familiale comme une transition familiale rattachée à d'autres transitions telle que la séparation. Il propose une revue de la littérature sur les modifications de la structure familiale, de la séparation à la recomposition et sur le fonctionnement de la famille recomposée. Le troisième chapitre est consacré à l'appropriation. Il vise à la définir en tant que processus dans le développement de l'enfant et à expliciter les différentes composantes que sont la représentation de la famille, le coping, l'adaptation socio-affective et la qualité de vie. Dans le cadre du quatrième chapitre, nous aborderons les relations fraternelles dans leurs caractéristiques et fonctions générales puis 2 Introduction dans le contexte particulier de la recomposition familiale. Le dernier chapitre de cette partie théorique présente la problématique qui fonde notre démarche de recherche. Dans la partie empirique nous décrirons tout d'abord la méthodologie mise en place, plus précisément, les variables et les outils de recueil de données ainsi que la population. Au niveau de l'appropriation de la famille recomposée nous avons eu recours au test du dessin de la famille, pour appréhender la représentation de la famille. Les stratégies de coping ont été analysées à l'aide du « Kidcope » (Spirito, Stark & Williams, 1987). L'adaptation socioaffective a été mesurée grâce au « Child Behavior Checklist » (CBCL, Achenbach, 1991) et la qualité de vie a été appréhendée par « l'Autoquestionnaire Qualité de vie-enfant-imagé » (AUQEI, Magnificat & Dazord, 1997). Quant aux relations dans la fratrie germaine, elles sont été examinées à partir d'un entretien semi-directif. Les enfants qui ont participés à cette recherche sont âgés de 6 à 13 ans, vivent dans une famille recomposée et appartiennent à une fratrie germaine. Ensuite nous présenterons les résultats obtenus de manière descriptive et inférentielle dans le cadre du modèle PPCT (Bronfenbrenner, 1996). Cette partie s'achève sur une discussion autour de l'articulation entre les éléments théoriques et les résultats obtenus. La conclusion permettra de mettre en exergue les principaux apports de notre travail et de proposer quelques pistes de recherches et d'intervention qui pourraient contribuer à une meilleure compréhension de l'enfant et de sa famille recomposée. 3 Partie théorique Partie théorique 4 Chapitre 1. La famille recomposée : Contexte social et références théoriques Chapitre 1. La famille recomposée : Contexte social et références théoriques L'objectif de ce chapitre est, d'une part, d'inscrire notre étude dans le contexte social des changements que connaissent la société et la famille en France. Il vise, d'autre part, à poser le cadre théorique dans lequel se situe ce travail. Il comprend trois points. Le premier est centré sur le terme de « famille recomposée ». Il nous permet de le définir et de retracer l'évolution des conceptions et des expressions utilisées dans ce domaine. Le deuxième point est une analyse des mutations sociales et familiales qui fondent la famille recomposée. Le troisième point de ce chapitre présente les approches théoriques sur la famille et le développement de l'enfant qui vont orienter notre étude. I. Définition et historique de la famille recomposée De manière générale, la famille recomposée est définie par l'INSEE1 comme une famille qui comprend « un couple d'adulte, mariés ou non, et au moins un enfant né d'une union précédente de l'un des conjoints. Les enfants qui vivent avec leurs parents et des demifrères ou demi-soeurs font aussi partie d'une famille recomposée ». Plus spécifiquement, la famille recomposée peut être qualifiée de simple ou de complexe en fonction des liens parentaux entre les figures parentales et les enfants et en fonction des types de fratries qui cohabitent dans un foyer donné. Cette distinction est beaucoup plus utilisée au Canada et dans les pays anglo-saxons en général. Les définitions diffèrent sensiblement d'un pays à l'autre et d'une étude à l'autre. Nous retiendrons celle donnée par Statistique Canada2. La famille recomposée simple (« stepfamily ») désigne une famille où tous les enfants sont les enfants biologiques ou adoptés d'un seul des conjoints ou partenaires et dont la naissance est survenue avant la relation actuelle (fratrie germaine). La famille recomposée complexe (« complex stepfamily » ou « blended family ») renvoie à trois situations familiales différentes (Statistique Canada, 2012) : une famille recomposée avec au moins un enfant d'une union précédente de chaque conjoint et aucun enfant issu de la 1 Institut National de la Statistique et des Etudes Economiques 2 http://www12.statcan.gc.ca/census-recensement/2011/ref/dict/fam004-fra.cfm 1 Chapitre 1. La famille recomposée : Contexte social et références théoriques relation actuelle des deux conjoints (quasi-frères et fratrie germaine) ; une famille recomposée avec au moins un enfant né d'une union précédente d'un des conjoints et au moins un enfant né de l'union actuelle des deux conjoints (fratrie germaine et demi-frères) ; une famille recomposée avec des enfants issus d'une union précédente de chacun des conjoints et au moins un enfant né de l'union actuelle des deux conjoints (quasi-frères, fratrie germaine et demi-frères). En outre, la famille recomposée s'étend au-delà d'un foyer du fait que les enfants des premières unions ne vivent pas avec leurs deux parents biologiques. Sous cet angle, elle désigne le réseau qui relie entre eux différents foyers issus de la séparation de couples initiaux. Autrement dit, il s'agit d'une constellation familiale basée sur le remariage ou la remise en couple de parents séparés et qui est donc constituée d'au moins deux foyers, celui du père et celui de la mère avec au centre leurs enfants (Théry, 1995). Sur le plan historique, il apparaît que l'étude des secondes unions s'est faite au fil des années à partir de termes variés qui sont sous-tendus par des conceptions de la famille et des objets d'étude différents. Avant le XIXe siècle, le divorce qui était une procédure de séparation exceptionnelle, ne donnait aucunement le droit aux séparés de se remarier, en raison de l'indissolubilité du mariage réaffirmée par l'église catholique. Les recompositions familiales étaient alors plus liées à un fort taux de mortalité qu'au divorce. Le veuf ou la veuve avait non seulement le droit, mais aussi l'obligation de se remarier, pour le bon fonctionnement du ménage dont la subsistance reposait sur le travail conjoint des couples ou sur la répartition des tâches entre mari et femme. Par ailleurs, ces remariages se faisaient très rapidement et dans certaines régions les arrangements se déroulaient même pendant les cérémonies funèbres du conjoint défunt (Burguière, 1993 ; Goody, 1985). De plus, l'écart d'âge entre les conjoints - nettement plus marqué quand l'un des conjoints était veuf - pouvait entraîner des remariages successifs si bien que certains enfants se retrouvaient sous l'autorité de parents qui n'avaient avec eux aucun lien de sang (Burguière, 1993). L'évolution de la société et de la famille débouchent dans les années 1950 et 1960 sur la famille nucléaire, considérée comme la norme culturelle. Les remariages sont alors étudiés, en comparaison avec les premiers mariages et les termes utilisés sont entre autres « foyer normal », « vrais parents ». Dans ce cadre, les différences sont interprétées comme des déviances, qui confirment sans cesse le postulat initial selon lequel les familles issues du remariage sont en quelque sorte des fausses familles, et à ce titre, source de difficultés 2 Chapitre 1. La famille recomposée : Contexte social et références théoriques multiples (Théry, 1993). Dans les années 1970, il n'est plus question de remariage, mais de famille reconstituée. Ce vocable permet de prendre en compte, aussi bien des unions légitimes que des unions de fait, la présence au foyer d'enfants dits de « premiers lits » est essentielle, et il ne concerne que les familles issues du divorce. C'est dans les années 1980 que la famille recomposée apparaît comme objet d'étude. Elle englobe l'ensemble du réseau familial dont les enfants de la première union sont partie prenante. La famille recomposée va au-delà du nouveau couple (Théry, 1993) dans la mesure où cette approche prend en compte la dimension temporelle de la recomposition, la trajectoire de cette famille et son fonctionnement. En effet, les familles recomposées se construisent à partir d'un passé conjugal, un divorce ou une séparation, et quelques fois des années de monoparentalité. La recomposition familiale n'est pas un phénomène nouveau, mais elle s'inscrit dans les changements de la famille parce qu'elle a des fondements différents, et qu'elle est en pleine extension. En effet, le fait qu'elle soit issue désormais du divorce et non du veuvage change qualitativement les secondes unions (Théry, 1993). Les familles recomposées sont de plus en plus nombreuses. Entre 1990 et 1999, leur nombre a augmenté de 10% et le nombre d'enfants de moins de 25 ans qui y vivent de 11% (Barre, 2003). En outre, des données plus récentes et plus spécifiques aux enfants mineurs montrent la part non négligeable des familles recomposées dans le paysage familial. En 2006, environ 1,2 millions (9%) d'enfants de moins de 18 ans vivent dans une famille recomposée en France métropolitaine environ 800 000 (6%) vivent avec un parent et un beau-parent et environ 400 000 enfants sont nés après la recomposition. Parmi les 800 000 qui vivent avec un parent et un beau-parent, 600 000 vivent avec leur mère et un beau-père. Au niveau de la distribution en âge, les enfants mineurs qui vivent dans une famille recomposée se répartissent comme suit : 0-6 ans 7,2% ; elle se stabilise entre 7 et 14 ans à environ 10%, de 7 à 13 ans à 9,9% et de 14 à 17 ans, à 9,8% (Vivas, 2009). Ces changements au niveau des facteurs qui expliquent la recomposition familiale et l'augmentation de leur pourcentage sont liés à des mutations sociales. Elles favorisent le développement d'un cadre social différent qu'il convient de définir. Quelles sont ces mutations sociales et quels sont leurs liens avec la famille recomposée ? 3 Chapitre 1. La famille recomposée : Contexte social et références théoriques II. Mutations sociales et famille recomposée Ces dernières années, la famille a connu d'importants changements liés à l'évolution de la société et des représentations vers une plus grande égalité des sexes et des droits individuels. Ces mutations se traduisent par une redéfinition des fondements de la famille et de ses institutions et débouchent sur de nouvelles structures familiales. Nous aborderons ces changements sociaux en nous appuyant sur des analyses psychologiques, sociologiques et sur des données statistiques. II.1. Fonctionnement de la famille Les changements au niveau du fonctionnement de la famille concernent surtout les femmes et leur place dans la société et dans la famille. En effet, les femmes dont les activités se limitaient au foyer et aux soins apportés aux enfants, sont sorties du foyer, du fait de l'industrialisation et des guerres, pour occuper des postes réservés aux hommes. Ayant ainsi pris conscience de leurs capacités, elles se sont engagées dans une lutte pour l'égalité des sexes dans tous les domaines. Après plusieurs années de combat, il leur a été accordé les mêmes droits que les hommes, dans la société comme dans la famille. Cette nouvelle position de la femme est pour Théry (1997), le moteur de fond des changements au niveau de la famille. Selon elle, tous ces changements n'auraient pas été possibles si les femmes étaient restées dans la situation d'inégalité dans laquelle elles étaient, à la fois par rapport à la dépendance économique et à la dépendance vis-à-vis de leur mari. En effet, l'une des conséquences de cette évolution sociale est la redéfinition des rapports conjugaux et de l'organisation de la famille en général. La femme est désormais une interlocutrice à part entière de l'homme (Théry, 1997) : elle est associée aux prises de décisions, elle contribue financièrement aux charges familiales, et elle a aussi son mot à dire dans le règlement des conflits conjugaux et dans l'orientation de la relation conjugale. Neyrand (2003) souligne également l'effet de l'évolution de la femme sur la structure familiale. Il évoque une égalisation des positions parentales et des positions conjugales, favorisées par l'éducation des jeunes filles, l'accès au contrôle par les femmes de la programmation des naissances, la salarisation et l'investissement professionnel féminin, et l'égalité politique des sexes. La mesure symbolique de cette démocratisation a été le passage, avec la loi de 19701, de la puissance paternelle à l'autorité parentale conjointe, qui indique 4 Chapitre 1. La famille recomposée : Contexte social et références théoriques que « l'autorité appartient aux père et mère pour protéger l'enfant dans sa sécurité, sa santé et sa moralité. Ils ont à son égard droit et devoir de garde, de surveillance et d'éducation ». Enfin, la démocratisation de la famille peut également être analysée sous l'angle de la perte du pouvoir paternel. L'autorité parentale met fin au règne absolu de l'homme sur la famille. Olivier (1996) étend le changement de la position du père dans la famille à plusieurs siècles. Selon elle, les prémices de l'affaiblissement paternel s'annonçaient dès le XVIIIe siècle, lorsqu'en 1873, en faisant tomber la tête du roi, les citoyens prônaient l'égalité de tous et refusaient l'injustice par laquelle certaines personnes étaient au-dessus des autres. Les lois des XIXe et XXe siècles ont progressivement affaibli la puissance paternelle. En effet, la loi de 1881 interdisait aux pères de placer leurs enfants chez les tiers, à la seule fin d'en tirer profit. En 1889, l'assistance publique est déclarée responsable des enfants dont les pères auraient été déchus de leurs droits. En 1935, le droit de correction est aboli, et en 1970, le terme de puissance paternelle est remplacé par celui d'autorité parentale. L'organisation de la famille a évolué vers une plus grande égalité des positions de l'homme et de la femme au niveau conjugal et parental. Les rôles familiaux ne sont plus exclusivement réservés au père ou à la mère. Ces changements remettent en cause la conception traditionnelle de la famille et, de ce fait, les institutions qui la fondent. II.2. Les institutions familiales La famille est un maillon essentiel de la société. Aussi est-elle rattachée à des institutions sociales telles que le mariage et le divorce, qui orientent son évolution. Les modifications de la place et des représentations sociales de ces institutions influencent la famille. II.2.1. Désaffection du mariage A l'origine, le mariage est une institution sociale essentielle à la construction d'une famille. C'est une institution sacrée qui consacre l'union de deux personnes. Elle est sacrée parce qu'elle symbolise leur engagement mutuel à partager leur vie, et surtout parce que cet engagement relie leurs deux familles, et est pris devant la communauté, la société en général et devant Dieu pour la cérémonie religieuse. Le caractère sacré du mariage le rendait irréversible, il garantissait l'union et la stabilité à la famille. Mais, depuis quelques années, la conception du mariage a changé, et avec elle, celle de la famille. Le mariage n'est plus un 5 Chapitre 1. La famille recomposée : Contexte social et références théoriques préalable à la vie de famille : en 1965, 10% seulement des nouveaux couples débutaient leur vie commune sans se marier, trente ans plus tard la proportion est passée à 90% (Daguet, 1996). Il n'est plus nécessaire de se marier pour vivre ensemble et fonder une famille. La vie en couple sous la forme de concubinage ou de Pacte Civil de Solidarité (PACS) est de ce fait un mode de vie qui se développe de plus en plus. Les données de l'enquête « famille et logement » réalisée par l'INSEE en 2011, montre que 8,5 millions d'adultes sont en couples sans être mariés. Parmi eux 1,4 millions ont officialisé leur union avec leur conjoint par un PACS, et 7,2 millions sont en union libre, notamment les plus jeunes : avant 25 ans, 84% des adultes en couple sont en union libre (Buisson & Lapinte, 2013). Le concubinage ou l'union libre est la plus libre des situations conjugales. Il est désormais inscrit dans le code civil, depuis la loi de novembre 1999, et y est défini comme une union de fait. Cette définition souligne le fait que le concubinage n'a aucune base juridique ou religieuse. Les concubins sont donc juridiquement considérés comme des étrangers. Mais il existe un certificat de vie commune ou de concubinage, délivré par les municipalités pour servir de justificatif dans la constitution de certains dossiers. Le PACS, quant à lui, a été institué par la loi n° 99-944 du 15 novembre 1999. Il y est défini en son article premier, comme étant un contrat conclu par deux personnes physiques majeures, de sexes différents ou de même sexe pour organiser leur vie commune. Il se situe donc entre le concubinage et le mariage. Il répond à la recherche de liberté conjugale des partenaires et leur donne la possibilité de définir le cadre de leur vie commune. Depuis sa création, le PACS remporte un vif succès. Son nombre est en constante augmentation : de 22 271 dont 16 859 de sexe opposés en 2000, il est à 205 558 dont 196 415 de sexe opposés en 2010, selon l'INSEE3. Il offre plus de liberté que le mariage. En effet, comme le souligne la définition, c'est un contrat, et à ce titre les partenaires ont une grande liberté pour en éditer les closes. Ils définissent les règles qui vont diriger leur vie commune selon leurs aspirations, selon le sens qu'ils veulent donner à leur relation. Avec le PACS, l'accent est plus mis sur l'aspect contractuel, que sur la relation et sa consécration. Aussi, la séparation est-elle beaucoup plus simple que pour le mariage. Les partenaires définissent eux-mêmes les clauses de leur séparation dans leur PACS. De plus, le PACS peut être annulé par décision unilatérale d'un des partenaires. Il est donc moins contraignant que le mariage qui ne peut être annulé que dans les cas définis par la loi. 3 http://www.insee.fr/fr/themes/tableau.asp?reg_id=0&ref_id=NATTEF02327 6 Chapitre 1. La famille recomposée : Contexte social et références théoriques Concurrencé par ces modes de vie qui prônent la liberté dans le couple, le nombre de mariage a considérablement baissé. En France, il est passé de 305 400 en 2000 à 241 000 en 2012 soit 64 400 mariage en moins (INSEE4). En outre, le mariage est défini par des règles, des fondements qui sont différents de ceux qui le caractérisaient dans la société traditionnelle. Cette différence s'explique par les variations liées à la place de l'individu dans la société et à ses rapports avec les autres. La société moderne est centrée sur l'individu, son autonomie, son plaisir, et son épanouissement (Neyrand, 2003). Elle a réduit le mariage à une sphère strictement privée qui ne concerne plus que deux personnes. Le choix singulier des partenaires se substitue aux obligations imposées par la communauté et la tradition (Renaud, 1997). Mais le changement le plus important réside dans la dévalorisation relative de l'idée selon laquelle un des objectifs du mariage serait la stabilité (De Singly, 2002). L'importance de l'individu et de ses sentiments dans le mariage fragilise la relation conjugale dans la mesure où ces éléments sont à l'opposé des principes du mariage. En effet, le mariage à l'origine était basé sur la mise en commun, la symbiose de deux personnes pour ne plus former qu'une seule personne. Il était relié à la famille traditionnelle perçue comme un groupe social dans lequel l'esprit de groupe primait sur l'individualité. Chaque membre concourant au bien-être et à la cohésion du groupe. Aussi, la famille traditionnelle exaltait-elle la stabilité et sacralisait la durée, alors que la famille postmoderne met l'accent sur l'authenticité, la qualité et l'intensité de la relation (Renaud, 1997). Le mariage, dépouillé du poids et des principes de la communauté traditionnelle, est désormais personnel et réversible. Il n'est plus l'institution hautement contraignante d'autrefois qui représentait une garantie contre la séparation et l'instabilité de la famille. Cette nouvelle conception du mariage conduit à une autre réalité qui se développe dans le domaine de la famille : le divorce. II.2.2. Accroissement du taux de divorce et de séparation La désacralisation du mariage et l'instabilité de la famille se traduit par une augmentation du taux de divorces et de séparations. Le divorce traduit la dissolution des liens du mariage civil, et il est prononcé au terme d'un jugement. Pour les couples non mariés, il s'agit plutôt d'une séparation. Cette augmentation ne concerne pas uniquement les couples mariés mais s'étend à toutes les unions. Entre 1962 et 1990, le nombre de divorce a été multiplié par 3.5 en général et celui des couples mariés l'a été par 1.7. L'indicateur 4 http://www.insee.fr/fr/themes/tableau.asp?reg_id=0&ref_id=NATTEF02327 7 Chapitre 1. La famille recomposée : Contexte social et références théoriques conjoncturel de divortialité qui donne le nombre de divorce que compterait à terme 100 mariages si les taux par durée de mariage restaient ceux de l'année considérée, est passé de 10 divorces pour 100 mariages en 1953 et 1963, à 20 en 1977, et 30 en 1985 (Daguet, 1996). Ainsi les unions rompues dépassent 100 000 chaque année. Le nombre de divorce est estimé à 132 977 en 2011 (INSEE5). Les dissolutions de PACS progressent également, en 2003, 5300 pactes ont été rompus (Richet-Mastain, 2005). En outre, ces divorces se font de plus en plus tôt, après seulement quelques années de vie commune. Pour 10 000 mariages célébrés en 2008, 413 ont été rompus avant trois ans de mariage en France métropolitaine (INSEE6). Cette augmentation est le reflet des modifications qu'ont connues les unions conjugales et les rapports interindividuels en général. Ces modifications ont fragilisé le mariage, le rendant personnel, sans contrainte et réversible (Neyrand, 2003). Il s'en est suivi une banalisation du divorce, alors qu'il a été longtemps considéré comme inacceptable et honteux (Daguet, 1996). La législation évolue également dans le sens de la facilitation du divorce. De nouvelles formes de divorces permettent des séparations plus simples et plus rapides. En effet, interdit en 1563 sous la pression religieuse, le divorce a été instauré en 1792, un an après l'institution du mariage civil. Il se faisait alors librement par accord des deux parties. En 1804, le code civil restreint la possibilité de divorcer à « la faute », les conditions étant limitées. Aboli en 1816, le divorce est rétabli en 1884 avec la loi Naquet sur le seul fondement de fautes précises telles que l'adultère. Les lois se succèderont pour instaurer des limites au divorce et éviter les abus, et c'est, dans ce cadre, que s'inscrit la loi de 1941 qui interdisait aux époux mariés depuis moins de trois ans de divorcer. La loi de 1975 a marqué un retour à la liberté de divorcer avec l'instauration de trois autres motifs de divorce et la prise en compte des souhaits du couple. En effet, cette loi a ajouté au divorce par faute, qui était le seul motif du divorce, le divorce par consentement mutuel, le divorce sur demande acceptée et le divorce pour rupture de la vie commune. Depuis cette loi, les motifs de divorce sont donc au nombre de quatre. L'avancée vers la liberté de divorcer est encore plus marquée avec la loi de janvier 2005, qui a simplifié et modernisé les procédures de divorce de la loi de 1975. Cette loi touche tous les cas de divorce et allège les procédures pour chacun d'eux : - le divorce par rupture de la vie commune est remplacé par le divorce par altération définitive du lien conjugal qui est une procédure qui peut être engagée par la volonté d'un seul conjoint. 5 http://www.insee.fr/fr/themes/tableau.asp?reg_id=0&ref_id=bilandemo8 6 http://www.insee.fr/fr/themes/tableau.asp?reg_id=0&ref_id=bilandemo4 8 Chapitre 1. La famille recomposée : Contexte social et références théoriques Le divorce peut être prononcé après deux ans de séparation constatée au lieu de six ans auparavant ; - le divorce sur demande acceptée est remplacé par le divorce accepté et un accord de principe remplace l'obligation pour les époux de rendre un « mémoire » expliquant leur décision ; - la double comparution est remplacée par une comparution unique, dans le divorce par consentement mutuel ; - le divorce pour faute est maintenu, mais limité aux cas les plus graves. Le nombre de divorce a connu un pic l'année de cette reforme, il a été estimé à 155 253. C'est le nombre le plus élevé de divorce entre 1995 et 2011. Toutes ces réformes rendent le divorce plus accessible et plus rapide pour les couples mariés, et les couples qui ne sont pas mariés se séparent avec encore moins de formalités. Ainsi, en résumé, les mutations sociales dans les institutions et les rôles familiaux conduisent aux familles recomposées et à des changements dans la définition de la famille. Dans ce cadre, la famille est de moins en moins stable dans le temps et renvoie à une trajectoire avec des transitions familiales telle que la famille recomposée. L'étude des familles recomposées dans cette perspective peut être rattachée à l'approche systémique de la famille et du développement de l'enfant. III. Les modèles théoriques L'approche systémique a enrichi les études sur la famille et l'enfant. Elle tire ses origines de la théorie générale des systèmes du biologiste Bertalanffy (1973) qui visait à dégager les propriétés des systèmes ouverts pour une lecture généralisable de leur fonctionnement. Le système est un tout, un complexe d'éléments en interaction. Tout changement au niveau d'un élément entraîne des changements au niveau du système et l'ensemble du système est plus que la somme des parties. Le terme de système ouvert signifie que chaque système est en interaction avec son environnement donc avec les autres systèmes. Cette théorie s'est enrichie d'autres modèles issus de la physique, des mathématiques et de la biologie : - La théorie des catastrophes (Thom, 1972) qui indique qu'à partir d'une valeur critique de rupture de l'état d'équilibre, un système complexe va changer d'état de façon brutale et imprévisible et tendre vers un nouvel équilibre. Le changement d'état étant quantitatif mais aussi qualitatif. 9 Chapitre 1. La famille recomposée : Contexte social et références théoriques - Les théories du chaos qui ont souligné l'aléatoire dans des systèmes déterministes les rendant imprédictibles. A la notion de déterminisme s'oppose donc celle d'effet stochastique et à la notion de causalité celle de l'aléatoire et des règles probabilistes. Tout système peut s'organiser mais l'apparition de nouvelles structures dépend de la stabilité ou de l'instabilité du système et des événements aléatoires. Le désordre peut être à l'origine d'une nouvelle structure ordonnée. - Les modèles biologiques de l'auto-organisation dans lesquels les organismes vivants sont des systèmes auto-organisateurs qui à partir d'un événement aléatoire et du bruit (dépourvu de signification) font émerger la complexité et le sens. Ces théories apportent un éclaircissement au fonctionnement d'un système. Un évènement aléatoire peut rompre l'équilibre d'un système, provoqué des changements et donné une nouvelle structure au système. Cette nouvelle structure s'appuie sur une activité de réorganisation et de signification. Il ressort de la théorie générale des systèmes, qu'il est possible d'observer les caractéristiques d'un système en tout élément : objets inanimés, organismes, processus mentaux ou groupes sociaux. Il y a des systèmes partout. La théorie des systèmes a influencé des approches en psychologie. Elle a inspiré l'approche systémique de la famille et le modèle écosystémique du développement de l'enfant. III.1. Le système familial En 1951, Bateson est l'un des précurseurs de l'application du modèle systémique à la famille. Il a établi un lien entre les psychopathologies et un dysfonctionnement du système de communication et d'interaction dans la famille. L'ensemble de la famille est alors inclus dans le traitement des problèmes émotifs d'un individu. Sur cette base et avec d'autres auteurs tels que John Weakland, Jay Haley, William Fry, l'école de Palo Alto a été créée. Don Jackson la rejoint en 1954 avec son travail sur l'homéostasie familiale. Il définit la famille comme un système homéostatique c'est-à-dire que le système familial se trouve toujours en équilibre grâce à des phénomènes de feedback négatif. Les difficultés psychologiques d'un des membres de la famille renvoient à un système familial pathologique dont l'équilibre repose sur la maladie de ce membre. La prise en charge thérapeutique va porter sur le système familial et aura pour objectif de trouver un nouvel équilibre familial à partir d'une réorganisation du système des relations familiales. En 1959, Don Jackson crée le Mental Research Institute (MIR) pour appliquer les recherches du groupe à la psychothérapie. Il y 10 Chapitre 1. La famille recomposée : Contexte social et références théoriques travaille notamment avec Jules Riskin, Virginia Satir, Paul Watzlawick, John Weakland et Jay Halay (Winkin, 2000). La thérapie brève va être conceptualisée avec les apports d'Erickson. Des recherches sont menées sur la communication dans la famille et les troubles mentaux (Born, 2005). Une autre dimension est donnée à la théorie du système familial avec la rencontre de Jay Halay (qui a quitté l'école de Palo Alto) et Salvador Minuchin. Influencé par les théories familiales de l'école Palo Alto, Minuchin (1974) va développer la théorie structurale de la famille. Il observe que l'organisation familiale des jeunes délinquants est différente de celle des familles qui ont un membre psychotique. Il aboutit à l'idée que la délinquance peut être une stratégie d'adaptation à la structure familiale et à la communauté à laquelle ils appartiennent (Minuchin, 1967). Son intérêt se porte alors sur l'organisation et la composition des familles saines. Selon Minuchin (1974), la famille est un système social, une unité vivante. Elle a un passé, un présent, un futur et des règles particulières et relativement stable de fonctionnement. Il élabore un modèle dans lequel la famille est divisée en sous-systèmes avec des frontières intergénérationnelles et individuelles bien définies. Les membres de chaque sous-système sont définis par rapport à leur génération et leur rôle dans la famille. Le dysfonctionnement familial est pour lui dû à une confusion des sous-systèmes et une mauvaise hiérarchie des rôles. Il analyse la qualité des frontières et des relations entre les membres du système familial à partir d'un outil, la carte familiale qui permet de visualiser la configuration familiale (Bellemare, 2000). Les sous-systèmes définis par Minuchin (1974) sont : le couple parental, le couple conjugal et la fratrie. Ces soussystèmes familiaux sont interdépendants et jouent un rôle important dans le développement de l'enfant. Il ressort de l'application de la théorie systémique à la famille que la famille est un système, un ensemble composé d'éléments en interaction. A ce titre, elle est dynamique et répond aux principes de la totalité, l'ensemble des individus est plus que la somme de ces individus. La famille est un système ouvert, l'environnement et la famille s'influencent mutuellement. Elle provoque des changements sociaux mais s'adapte aussi à des changements sociaux de par sa capacité à s'auto-organiser. Cette propriété est liée à celle de l'homéostasie. La famille veille au maintien de son équilibre parfois au détriment de certains de ses membres, parfois dans un mouvement évolutif d'équilibre entre stabilité et changement (Born, 2005). La famille est un système hiérarchique et chaque membre de la famille appartient à un sous-système qui définit sa place et son rôle. Les sous-systèmes sont délimités par des frontières qui doivent être précisées, mais également flexibles pour permettre la communication entre les sous-systèmes et un meilleur fonctionnement de la famille. Les sous11 Chapitre 1. La famille recomposée : Contexte social et références théoriques systèmes sont liés les uns aux autres et tout changement dans un sous-système entraîne des changements dans les autres sous-systèmes. L'interdépendance des sous-systèmes renvoie à des processus tel que le processus de « débordement » (« spillover ») et celui de compensation (« compensatory ») (Engfer, 1988 ; Pinel-Jacquemin & Zaouche-Gaudron, 2009) III.1.1. Le processus de « débordement » (« Spillover ») L'hypothèse du processus de débordement a été émise dans le cadre de l'analyse des liens entre les sous-systèmes couple parental et parent-enfant. Elle indique littéralement le débordement des affects d'un sous-système à un autre. Cette hypothèse implique l'expression dans un sous-système donné d'affects ou de sentiments qui ont été engendrés dans un autre : les conflits conjugaux vont altérer les relations parent-enfant. Erel et Burman (1995) relèvent quatre mécanismes par lesquels ce processus se développe. Le premier issu de la littérature sur le système familial renvoie au fait que les difficultés de la relation conjugale vont être transférées dans la relation parent-enfant. Le parent peut alors devenir surprotecteur ou blâmer l'enfant qui devient un bouc émissaire ou un souffre douleur. Le deuxième mécanisme qui relève de la théorie de l'apprentissage social se traduit par le fait que les relations conjugales peuvent servir de modèle aux relations parentenfant. Les parents qui ont une relation conjugale conflictuelle donnent à l'enfant un modèle d'interaction hostile ou qui manque de chaleur et d'attention. Le troisième mécanisme se réfère à l'effet des conflits conjugaux sur la socialisation de l'enfant. Avec ce mécanisme, les parents qui connaissent des conflits conjugaux inculquent moins de discipline à leur enfant et utilisent moins de techniques optimales d'éducation que les parents qui n'ont pas de conflits conjugaux. Le dernier mécanisme répertorié par Erel et Burman (1995), est issu de la littérature sociologique sur le stress familial et les tensions liées aux rôles. Il renvoie à une influence qui peut se faire dans trois directions. D'abord de la relation conjugale à la relation parent-enfant : il est, par exemple, difficile pour un parent stressé par les conflits conjugaux d'éduquer avec sensibilité et de répondre aux besoins et désirs de son enfant. Ensuite de la relation parent-enfant à la relation conjugale : dans ce cas, par exemple, la qualité des relations conjugales s'affaiblit avec l'arrivée d'un enfant surtout si l'enfant a des caractéristiques qui nécessitent une attention particulière. La dernière direction est plutôt un 12 Chapitre 1. La famille recomposée : Contexte social et références théoriques facteur qui va affecter toute la famille et déclencher des conflits dans chacun des soussystèmes familiaux. III.1.2. Le processus de compensation (« compensatory ») L'hypothèse du processus de compensation définit un processus selon lequel un individu cherche des expériences opposées et des satisfactions dans un système pour combler les déficiences d'un autre (Erel & Burman, 1995). Elle suppose une corrélation négative entre les systèmes concernés. En l'occurrence, une relation conjugale de bonne qualité est liée à une relation parent-enfant de mauvaise qualité. Dans le système familial, un parent qui n'est pas satisfait de sa relation conjugale va s'investir dans la relation parent-enfant pour compenser les failles de la relation conjugale. En outre, le processus de compensation peut être lié au processus de triangulation et de coalition transgénérationnelle développé par Munichin (1974). Ce processus se met en place lorsque le sous-système conjugal, voire le bloc conjugal est affaibli par des conflits et que l'enfant s'allie à un parent contre l'autre. La famille recomposée est analysée selon l'approche systémique dans des études telles que celles d'Hetherington, Henderson et Reiss (1999). Ces auteurs ont dirigé une étude systémique de la famille recomposée dans laquelle chacun des sous-systèmes de la famille recomposée est analysé. De manière générale, les études se focalisent sur un ou deux soussystèmes notamment le sous-système beau-père/enfant et le sous-système parent non résident/enfant. L'approche systémique a influencé un autre modèle, le modèle écosystémique de Bronfenbrenner (1979). Ce modèle va au delà du système familial et intègre l'ensemble des composantes du contexte de vie de l'enfant dans l'analyse de son développement. III.2. Le modèle écosystémique et le modèle bioécologique Le modèle écosystémique de Bronfenbrenner (1979), comme son nom l'indique, s'appuie sur la théorie des systèmes et sur l'écologie. La théorie des systèmes préconise une approche globale des éléments, considérés comme des systèmes interdépendants. L'écologie, c'est l'étude des relations que les êtres vivants entretiennent avec leur environnement en vu d'un équilibre adaptatif. Selon Bronfenbrenner (1979), le développement d'une personne 13 Chapitre 1. La famille recomposée : Contexte social et références théoriques résulte de ses interactions avec son environnement. Dans son modèle, l'individu constitue un système qui se développe en lien avec d'autres systèmes, tels que la famille, qui l'influencent et qu'il influence. Il distingue six systèmes interdépendants : - l'ontosystème : il représente l'individu, ses caractéristiques innées ou acquises, son histoire personnelle, ses habiletés, tout ce qui lui est propre. -le microsystème : il représente les lieux ou contextes immédiats dans lequel l'individu à une participation active et directe (famille, club de sport) - le mésosystème : c'est un ensemble de lien et processus qui prennent place entre deux ou plusieurs microsystèmes (famille et travail ; échange entre parents et enseignants) - l'exosystème : il représente les lieux ou contexte dans lesquels l'individu n'est pas directement impliqué mais qui influencent néanmoins sa vie (ministère, service sociaux) - le macrosystème : c'est l'ensemble des croyances, des valeurs, des idéologies, façon de vivre d'une culture ou d'une sous culture. - le chronosystème : il se réfère aux influences découlant du passage du temps. Selon cette approche, le développement d'une personne ne peut être compris qu'en prenant en compte l'ensemble du contexte dans lequel elle évolue. Bronfenbrenner (1996) introduit des changements théoriques dans ce premier modèle qui évolue vers le modèle bioécologique et un cadre opérationnel dénommé Processus-Personne-Contexte-Temps (PPCT). Le modèle bioécologique s'inscrit dans le prolongement du modèle écosystémique. Il constitue une nouvelle formulation de l'approche de Bronfenbrenner (1979) qui intègre des innovations théoriques sur la forme et le contenu de la première formulation. Le modèle écosystémique est centré sur l'environnement comme un élément fondamental dans le developpement de l'enfant. L'environnement est alors découpé en systèmes qui sont définis par leur influence sur le développement de l'enfant. Avec le modèle bioécologique, Bronfenbrenner (1996) étend sa théorie et rajoute le préfixe « bio » à « écologie » pour marquer l'importance qu'il accorde aux ressources biologiques de la personne dans son développement et développe le concept de processus. Il donne une dimension plus grande à la personne et à ses interactions dans le modèle bioécologique qu'il définit à travers deux propositions (Bronfenbrenner & Moris, 1998). La première indique que dans les premières phases mais aussi tout au long de la vie, le développement humain se produit à travers des processus interactifs progressivement complexes et réciproques entre un organisme humain biopsychologique actif et des personnes, objets et symboles dans son environnement 14 Chapitre 1. La famille recomposée : Contexte social et références théoriques immédiat. Pour être efficaces, les interactions doivent se dérouler sur une base assez régulière et sur une longue période de temps. Ce type d'interactions durables que l'homme a dans son environnement immédiat est appelé processus proximal. La seconde proposition établit un lien entre le processus proximal et des variables liées à l'individu ainsi qu'au contexte. Elle stipule que la forme, la puissance, le contenu et la direction selon laquelle les processus proximaux influencent le développement varient systématiquement selon l'effet combiné des caractéristiques de la personne, de l'environnement (aussi bien immédiat que lointain) dans lequel le processus se déroule, la nature du résultat du développement considéré, les continuités dans la société et les changements qui s'opèrent tout au long de la vie et la période historique dans laquelle la personne vit. Selon Bronfenbrenner et Morris (1998), ces deux propositions sont théoriquement interdépendantes et peuvent faire l'objet de tests empiriques. Mais un modèle de recherche opérationnel permet de les analyser : c'est le modèle Processus-Personne-Contexte-Temps (PPCT). Le modèle Processus-Personne-Contexte-Temps (PPCT) Le PPCT est un modèle d'analyse du développement qui regroupe l'ensemble des facteurs environnementaux et personnels qui ont une influence sur le développement. L'aspect du développement qui est analysé est appelé résultat du développement et il est déterminé par des Processus proximaux, les caractéristiques de la Personne, le Contexte et le Temps (Bronfenbrenner & Morris, 1998). Le processus proximal désigne une interaction entre l'individu et son environnement (Bronfenbrenner & Ceci, 1994). Bronfenbrenner et Morris (1998) attribuent un rôle capital aux processus proximaux qu'il qualifie « d'engins du développement ». Les processus proximaux sont définis dans la première proposition du modèle mais il convient d'y revenir et de souligner leur spécificité par rapport à l'environnement. Le processus peut être considéré comme élément de l'environnement de la personne et a des similitudes avec le microsystème. Mais les auteurs font une distinction entre les deux éléments basés sur les propriétés du processus qu'ils définissent : Le processus proximal est une interaction qui se construit à travers une activité dans laquelle la personne est engagée. Cette activité doit se produire sur des bases stables régulières et sur un intervalle de temps suffisamment important pour croître en complexité. Il ne s'agit donc pas d'activités qu'un enfant peut avoir avec un parent pendant 15 Chapitre 1. La famille recomposée : Contexte social et références théoriques un week-end ou d'activités qui sont discontinues et connaissent des interruptions. La simple répétition de l'activité n'est pas efficace car l'activité doit être dynamique et évoluer dans le temps. De plus le développement d'un processus proximal n'est pas unidirectionnel, il se coconstruit réciproquement par les deux éléments engagés dans l'activité. Par ailleurs le processus proximal n'est pas limité aux interactions entre individus ; il implique également les interactions avec les objets et les symboles. Mais pour que ces interactions soient réciproques, les objets et symboles présents dans l'environnement immédiat doivent susciter l'attention, l'exploration, la manipulation, l'élaboration et l'imagination. En outre, les effets du contexte, des facteurs personnels et du temps engendrent des changements significatifs dans le contenu, le temps et l'efficacité du processus proximal. En effet, pour continuer à être efficace, le processus proximal doit également évoluer et devenir plus complexe, au fur et à mesure que l'enfant grandit et acquiert des capacités. De plus, les principales personnes avec lesquelles les enfants interagissent sur des bases stables, régulières et sur une période étendue sont les parents. Mais au fur et à mesure qu'ils grandissent d'autres personnes telles que les frères et soeurs, les pairs jouent également ce rôle. Les caractéristiques de la personne sont présentées dans le modèle bioécologique comme des précurseurs du développement. Les processus qui relèvent de ces caractéristiques et qui ont un effet modérateur sur le développement sont : les caractéristiques de force, de ressource et de demande (Bronfenbrenner & Morris, 1998 ; Bronfenbrenner, 2005). Il y a deux sortes de caractéristiques de force : les caractéristiques génératrices de développement qui sont des dispositions à des comportements actifs qui vont activer le processus proximal et soutenir son fonctionnement ; les caractéristiques perturbatrices de développement qui sont des dispositions à des comportements qui vont interférer activement avec le processus proximal et le retarder ou même empêcher son développement. Les caractéristiques qui perturbent le développement sont, par exemple, l'impulsivité, le caractère explosif, l'agressivité, la violence, les difficultés à contrôler ses émotions et son comportement. A l'opposé, il y a les personnes qui se désintéressent de leur entourage, qui ont généralement tendance à éviter ou à se retirer des activités. Les personnes qui présentent ces caractéristiques auront des difficultés à s'engager dans un processus proximal dont la structure devient de plus en plus complexe et requièrent des interactions réciproques dans un laps de temps important. Au contraire les caractéristiques génératrices de développement impliquent des orientations actives telles que la curiosité, la tendance à initier et s'engager 16 Chapitre 1. La famille recomposée : Contexte social et références théoriques dans des activités seul ou avec d'autres personnes, qui répond aux initiatives des autres, qui sont capables de poursuivre un but sur du long terme. Les caractéristiques « ressource » sont des caractéristiques personnelles qui en elles-mêmes n'impliquent pas des dispositions à l'action, mais constituent des passifs et des actifs biopsychologiques qui influencent la capacité de l'organisme à s'engager effectivement dans un processus proximal. Les passifs renvoient, par exemple, à des failles génétiques, un faible poids à la naissance, un handicap physique. Au contraire, les actifs se présentent comme des capacités, des connaissances, des habilités et des expériences qui vont étendre le domaine dans lequel les processus proximaux peuvent faire leur travail constructif et parfois devenir une source de la complexification progressive de la structure des interactions qui constituent les propriétés d'un processus proximal défini. Les caractéristiques « demande » ont pour particularité de pouvoir motiver ou décourager des réactions de la part de l'entourage social. Ces caractéristiques peuvent perturber ou stimuler les processus de maturation psychologique. Par exemple, un enfant difficile versus un enfant heureux, un physique attractif versus un physique non attractif. Le contexte dans le modèle bioécologique renvoie à l'environnement mais avec des réajustements. L'environnement écologique est défini par Bronfenbrenner (1979) comme « un ensemble de structures encastrées les unes dans les autres, comme des poupées russes ». Dans le modèle bioécologique, la définition de ces structures est la même sur le fond mais contient des éléments additionnels, afin de créer un lien avec l'élément central du nouveau modèle qui est le processus proximal. Le contexte environnemental est subdivisé en contexte immédiat et contexte distal. Le contexte immédiat renvoie au cadre le plus proche du sujet dans lequel l'activité se développe et dans lequel le sujet est directement engagé donc au microsystème (famille, classe, groupe de pairs, lieu de travail). Le contexte distal renvoie aux contextes plus larges dans lesquels le contexte immédiat est imbriqué, tels que la classe sociale, la culture, l'époque historique (Bronfenbrenner & Ceci, 1994). Il renvoie à l'exosystème et au macrosystème. Le concept « temps » apparaît sous trois dimensions dans les propositions du modèle bioécologique. D'abord comme une des propriétés du processus proximal c'est-à-dire la stabilité de l'environnement dans lequel les interactions se développent et leur prolongement dans le temps. Les processus proximaux ne peuvent pas fonctionner efficacement dans des environnements instables et imprédictibles dans le temps et l'espace. Les deux autres 17 Chapitre 1. La famille recomposée : Contexte social et références théoriques dimensions du temps dans le modèle bioécologique sont le parcours de vie (life course) et l'époque historique. L'influence de l'époque historique se traduit, par exemple, par le fait que des pratiques éducatives ou des modes de vie peuvent changer d'une époque à une autre. Pour ce qui concerne le parcours de vie, les évènements influencent le développement de façon différente selon le moment de la vie auquel ils arrivent. Le modèle écosystémique et en particulier le PPCT sont utilisés dans les études sur la famille recomposée. Ils permettent de prendre en compte l'ensemble des aspects environnementaux et personnels qui influencent le fonctionnement de cette structure familiale, dans son analyse et dans l'analyse du développement de l'enfant qui y vit (SaintJacques & Chamberland, 2000 ; Saint-Jacques & Cloutier, 2004). Il ressort au terme de ce chapitre, que la famille recomposée peut être définie comme une famille qui comprend un couple d'adulte et au moins un enfant né d'une union précédente d'un des conjoints. Elle peut être qualifiée de simple ou de complexe selon sa composition. La famille recomposée s'inscrit dans les changements que connaît la famille dans ses institutions et son fonctionnement. L'analyse de la famille recomposée peut se faire en référence à l'approche systémique de la famille et l'approche bioécologique de Bronfenbrenner (1996). Sur la base de ces modèles théoriques, nous allons porter notre intérêt, dans le chapitre suivant au contexte familial que constitue la famille recomposée. La famille recomposée y sera abordée comme un système familial avec des sous-systèmes. 18 Chapitre 2. Trajectoire et dynamique de la famille recomposée Chapitre 2. Trajectoire et dynamique de la famille recomposée La famille est en générale définie, au niveau de sa structure, comme un ensemble de personnes vivant sous le même toit et unis par les liens du sang (Castellan, 1982). Trois caractéristiques ressortent de cette définition : les liens de sang qui unissent les membres de la famille que sont le père, la mère et leurs enfants ; la résidence commune et la notion de stabilité qui sous-tend la vie familiale. Cette définition et les caractéristiques qu'elle met en valeur, renvoient à une famille nucléaire stable qui évolue selon le cours habituel de la vie et dont les changements sont liés, entre autres, à des naissances et au départ de l'aîné de la maison. La famille recomposée ne répond pas à ces critères. En effet, elle se construit à la suite d'une famille nucléaire qui connaît les transitions familiales que sont le divorce ou la séparation et la recomposition familiale. La famille nucléaire devient alors une étape dans la trajectoire familiale. La transition familiale est un processus de changement après une période de temps et qui est caractérisée par la recherche d'une nouvelle organisation fonctionnelle (Beaudoin, Beaudry, Carrier, Cloutier, Drapeau, Duquette, Saint-Jacques, Simard, Vachon, 1997). Il convient donc d'analyser les différentes transitions familiales qui précèdent la recomposition famille et les nouvelles organisations consécutives à ces transitions. I. Divorce ou séparation et réorganisation de la parentalité I.1. Le divorce/la séparation et le développement de l'enfant Malgré sa banalisation sociale, le divorce renferme des souffrances psychologiques et peut être vécu difficilement par certains membres de la famille. Les aspects psychologiques du divorce sont liés aux rapports intrafamiliaux avant et après le divorce, aux causes du divorce et à la manière dont il s'est déroulé. Ils concernent aussi bien les parents que les enfants. La psychopathologie du divorce décrite par Poussin et Martin-Lebrun (1997) se rapporte, pour les parents, à l'estime de soi et au narcissisme. Ils soulignent le fait que les parents remettent en cause l'estime qu'ils ont d'eux, ils s'interrogent sur leur propre valeur, sur leur capacité à susciter l'amour et à le retenir. L'estime de soi se construit sur le narcissisme et se renforce par les expériences réussies qui confortent le sujet dans ses capacités. Quand le narcissisme n'est pas bien développé, le doute s'installe et les manifestations pathologiques se 19 Chapitre 2. Trajectoire et dynamique de la famille recomposée développent progressivement. Ils définissent trois formes possibles pour le développement de ces manifestations : la forme défensive, la forme abandonnique, et la forme mixte. Pour les enfants, les problèmes psychologiques découlent du comportement des parents et sont fonction de leur âge et de leur stade de développement. L'attitude des parents face au divorce a des conséquences psychologiques sur l'enfant. L'enfant peut se retrouver pris dans les conflits qui opposent ses parents. Il est souvent celui par lequel se font les échanges entre des parents qui n'arrivent plus à communiquer, ou le support sur lequel s'appuient les parents pour faire face à leur souffrance. Ces différentes situations peuvent entraîner des troubles du comportement des crises d'angoisses ou des sentiments dépressifs chez l'enfant (Poussin & Martin-Lebrun, 1997). Les troubles psychologiques de l'enfant sont également liés à l'interprétation qu'il fait de la situation en fonction de son stade de développement. Entre deux et trois ans, la séparation parentale peut perturber le développement psychomoteur du jeune enfant en diminuant sa capacité à investir de nouveaux domaines d'exploration comme la marche, le jeu ou la propreté. Elle peut également entraîner un blocage au niveau du langage, dans une attitude plus globale de repli sur soi et d'inhibition traduisant la difficulté à accepter les changements survenus (op.cit., 1997). L'enfant âgé de trois à six ans peut avoir des troubles du comportement qui vont retentir sur ses premiers pas dans l'univers de l'école. Il peut se sentir coupable de la situation et avoir un comportement agressif ou se replier sur lui-même. Strohschen (2005) analyse les conditions dans lesquelles le divorce des parents entraîne des troubles chez certains enfants et de la résilience chez d'autres. L'étude a porté sur 2819 enfants âgés de 4 à 7 ans et vivant dans une famille nucléaire au moment du premier entretien. Il a ensuite (quatre ans après) comparé l'évolution de la santé mentale des enfants dont les parents ont divorcé à celle des enfants dont les parents sont toujours mariés. Les auteurs ont mesuré le niveau d'anxiété/dépression des enfants grâce à une échelle de sept items et leurs comportements anti-sociaux par une échelle de six items renseignées par les parents. Les échelles portent sur les fréquences auxquelles les enfants semblent heureux, tristes, dépressifs pour l'anxiété/dépression et les fréquences auxquelles les enfants ont des comportements anti-sociaux tels que la tricherie ou le mensonge. Les résultats montrent que les enfants dont les parents divorcent plus tard, présentent un niveau plus élevé d'anxiété/dépression et de comportements anti-sociaux que les autres, même avant le divorce. Il y a une augmentation du niveau d'anxiété/dépression, mais pas des comportements anti-sociaux, avec le divorce. Un lien significatif entre le divorce des parents et le niveau de disfonctionnement de la famille avant le divorce suggère que les 20 Chapitre 2. Trajectoire et dynamique de la famille recomposée comportements anti-sociaux baissent lorsqu'il y a divorce dans les familles qui connaissent un haut niveau de disfonctionnement. La recherche de Oldehinkel, Ormel, Veenstral, DeWinter, et Verlhulst (2008), donnent encore plus de précision sur les troubles psychologiques liés au divorce chez l'enfant. Ils examinent si le lien entre le divorce des parents et les symptômes de dépression diffèrent selon le sexe des enfants. Leur étude porte sur 2149 enfants âgés de 10 à 15 ans de parents divorcés (les parents résidents se sont remis en couple dans 36,7% des cas) ; Les résultats revèlent que plus les enfants sont âgés plus le divorce parental est associé à des symptômes de dépression chez les filles. Ces données suggèrent que les filles de parents divorcés sont plus enclines à développer des symptômes dépressifs à l'adolescence. La dépression a été appréhendée à l'aide du Child behavior Checklist (CBCL, Achenbach, 1991) renseigné par les parents et le Youth Self-Report (YSR, Achenbach, 1991) renseigné par les enfants. D'autres auteurs (Potter, 2010 ; Babalis, Xanthakou, Papa et Tsolou, 2011) ont abordés le sujet sous d'autres angles, ceux des variables modératrices et l'approche comparative. Potter (2010) examine le rôle du bien-être de l'enfant dans la relation entre le divorce des parents et les résultats académiques des enfants. Les enfants sont au nombre de 10061 issus d'une base de donnée « Early, childhood longituditunal study-Kindergerten cohort (ECLS-K) »Les résultats suggèrent que le divorce est associé à une diminution du bien-être psychologique chez l'enfant et que cette baisse peut expliquer le lien entre le divorce et une baisse des résultats académique. Le bien-être psychologique des enfants a été estimé à partir des renseignements fournis par l'instituteur et un parent ou l'enfant sur les comportements internalisées et externalisés ainsi que les compétences sociales. Les indices d'évaluation pour ces différentes composantes du bien-être étant fournis par le ECLS-K. Babalis et al., (2011), ont pour leur part, réalisé une étude comparative sur l'adaptation psychosociale d'enfants d'école maternelle dont les parents ont divorcé ou issus de famille nucléaire en Grèce. Leur échantillon est constitué de 60 enfants, âgé de 4 à 6 ans avec une moyenne d'âge est de 5, 21, 30 de parents divorcé et 30 de famille nucléaire. L'adaptation scolaire a été appréhendée à partir d'un entretien avec les instituteurs. Les enfants ont dessiné une famille imaginaire dans le cadre du test de la famille. Les résultats montrent qu'il n'y a pas de différence entre les deux groupes au niveau de l'adaptation scolaire, des compétences sociales et des performances scolaires. Mais ils indiquent une corrélation significative entre la qualité des relations interpersonnelles, c'est-à-dire, la communication entre parents, la relation parent absent/enfant et les performances scolaires. Lorsque les parents ont une communication 21 Chapitre 2. Trajectoire et dynamique de la famille recomposée positive, sans tension et sans conflits, les enfants ont de bonnes relations avec le parent absent. Par ailleurs, les enfants qui ont de bonnes relations avec leur parent absent ont des performances scolaires élevées selon les instituteurs. Un lien significatif apparaît entre le type de famille et l'émergence de troubles émotionnels et comportementaux chez les enfants. Ceux qui sont de parents divorcés présentant plus de troubles que ceux de familles nucléaires. Les dessins des enfants montrent une différence significative entre les deux groupes. Concernant la famille dessinée, les enfants de famille nucléaire ont tendance à reproduire leur famille réelle alors que ceux de parents divorcés vont plutôt dessiner une famille imaginaire. Concernant les additions et les omissions, les analyses révèlent plus d'omissions chez les enfants de familles nucléaires, et ces omissions concernent en majorité leur fratrie. Par contre les enfants de parents divorcés, qui vivent avec un seul parent, ce sont les additions qui sont plus élevées, et la personne rajoutée est le plus souvent le père. Au niveau des couleurs, les dessins des enfants de familles nucléaires sont plus colorés et les couleurs utilisées sont principalement des couleurs chaudes et éclatantes. Alors que les enfants de parents divorcés sont juste assez colorés et les couleurs utilisées sont plutôt froides. Le divorce ou la séparation des parents est la première transition que connaissent les enfants de familles recomposées. Elle conduit à une nouvelle structure familiale dans laquelle les parents ne vivent plus ensemble ainsi qu'à une nouvelle organisation dans l'exercice de la parentalité et dans les relations parent-enfant. Cette nouvelle organisation renvoie à la coparentalité et au système de garde. I.2. La coparentalité Le couple parental constitue une entité face à l'enfant. Il est le premier responsable de l'enfant face à la société et, à ce titre, il est chargé de lui transmettre les normes et valeurs de base qui régissent la société. Ses rapports avec l'enfant peuvent être définis en termes d'éducation, de transmission de culture et de représentation. Les parents apportent à l'enfant les bases de son développement psychologique et social, mais leur action sur l'enfant est liée à la qualité de leur rapport et à leur unité parentale. La coparentalité renvoie à cette coopération parentale. Dans le cadre des études sur les familles biparentales, la coparentalité désigne l'aspect de la parentalité selon lequel chaque parent peut compter sur le soutien de l'autre face aux frustrations de la parentalité (Gable, Crnic & Blesky, 1994). Elle définit la qualité de la 22 Chapitre 2. Trajectoire et dynamique de la famille recomposée coordination entre les adultes dans leur rôle de parents (McHale, Kuersten-Hogan, Lauretti & Rasmussen, 2000). Mais ce terme est beaucoup plus utilisé, surtout en France, comme un principe juridique régissant la parentalité après le divorce. En effet en France, la parentalité après le divorce a connu des modifications pour répondre au mieux aux besoins de l'enfant. Depuis la loi de 1970, il n'est plus question de puissance paternelle, mais d'autorité parentale conjointe pour les parents mariés. L'exercice conjoint de l'autorité parentale a été ensuite étendu à l'après divorce avec la loi de 1987, puis à l'après séparation avec celle de 1993. Cette évolution est traduite par le terme de coparentalité qui introduit l'idée non seulement que la parentalité concerne à égalité les deux parents mais qu'elle devient détachable de la conjugalité (Neyrand, 2003). C'est aujourd'hui un droit pour l'enfant d'être élevé par ses deux parents, au-delà des aléas de la vie du couple (Ducrocq, 2004). Sur la base de ce principe, la prise en charge des enfants après le divorce est organisée par les parents ou le juge, de sorte que l'enfant conserve la relation avec ses deux parents. La coparentalité après la séparation renvoie au soutien, à la coordination, au partage des responsabilités parentales, à l'implication de chaque parent dans la vie de l'enfant, au maintien de bonnes relations pour des parents dans l'éducation de leurs enfants alors qu'ils ont mis fin aux autres liens liés au mariage et se sont engagés dans de nouvelles relations de couple. Cette spécificité peut rendre son application difficile et conduit à une diversité de relation coparentale. Nehami (2004) en a définit trois : - la relation coparentale « coopérative » : qui désigne une relation coparentale de bonne qualité. L'affrontement est moins utilisé pour résoudre les conflits, les parents sont prêts à faire des compromis et font preuve de flexibilité dans les conflits. Chaque parent fait preuve d'une implication modérée dans ses fonctions parentales et les charges parentales sont équitablement partagées. - la relation coparentale « parallèle » : la relation coparentale y est moins bonne que dans la relation coopérative. Dans ce type de relation les mères sont plus aptes à faire des compromis que les pères qui eux utilisent plus l'affrontement. Mais les pères assument leur responsabilité parentale. - la relation coparentale « conflictuelle » : elle est la plus négative. Les pères ont une fonction parentale faible. Concernant les conflits, les pères et les mères sont plus aptes à attaquer que ceux des deux autres types et les mères sont moins prêtes à faire des compromis que les pères. 23 Chapitre 2. Trajectoire et dynamique de la famille recomposée Plusieurs facteurs tels que la procédure de divorce, le système de garde, les rapports interpersonnels, le remariage peuvent expliquer ces différences dans les relations coparentales. Le divorce marque la fin d'une union conjugale et, à ce titre, peut s'accompagner de conflits liés aux causes du divorce et/ou à sa procédure. L'intensité de ces conflits peut déterminer le niveau et la forme de la coparentalité comme le montrent les entretiens réalisés auprès de 1000 parents par Maccoby (1990). Son analyse indique que plus l'hostilité interparentale au moment du divorce est élevée plus le niveau de conflit dans la coparentalité est important. D'autres variables telles que l'initiative et la responsabilité du divorce, la difficulté et la durée qui caractérisent la procédure de divorce ont été mises en lien avec la relation coparentale et l'exercice de la parentalité. Il apparaît alors que plus la procédure légale est longue et conflictuelle, moins la relation coparentale est décrite comme bonne par chacun des parents. De plus, ces variables liées à la procédure de divorce ont un lien significatif avec l'exercice de la parentalité seulement chez les pères. L'étude de Nehami (2003) révèle, en effet, que plus ils assument la responsabilité de leur divorce, plus ils se considèrent comme initiateur du divorce, plus ils investissent leur fonction parentale. Les données ont été recueillies auprès de 50 couples à l'aide d'une échelle basée sur le « parental involvement scale » (Ahrons, 1981). Le système de garde occupe une place importante dans la relation coparentale. Il définit la nouvelle place des parents dans la vie des enfants et le cadre dans lequel la relation coparentale se développe. Dans ce cadre, la garde exclusive ou principale à un parent ne semble pas favorisée une coparentalité. Poussin et Martin-Lebrun (1997) relèvent dans les termes utilisés pour désigner les parents dans ces modes de garde, une inégalité dans le partage des rôles parentaux après le divorce. Le parent hébergeant qualifie celui qui a obtenu l'hébergement principal et qui se sent conforté dans son rôle parental. Le parent visiteur désigne celui qui cherche à ne pas devenir seulement un visiteur, comme peut l'être un étranger à la famille. L'appellation « parent visiteur » marque l'affaiblissement du rôle parental. Cette inégalité peut être encore plus importante si le parent hébergeant utilise le pouvoir que lui confère sa position pour empêcher l'autre parent d'accomplir sa fonction parentale. En effet, il peut constituer une entrave à l'exercice du droit de visite de l'autre parent, et celle-ci conduit souvent à l'interruption de la relation entre l'enfant et l'autre parent. 24 Chapitre 2. Trajectoire et dynamique de la famille recomposée Dans le même ordre d'idée, Neyrand (2003) mentionne la tendance à la « monoparentalisation », qui se traduit par l'attribution systématique de la garde des enfants à la mère, comme une logique contraire à la coparentalité. En effet, les enfants sont confiés à la mère dans 77% des cas contre seulement 8% pour le père (Ministère de la justice, 2007). Pour l'auteur, cette logique crée une discordance entre les deux niveaux de la filiation et de la prise en charge, qui rend difficile l'exercice de la coparentalité après le divorce. En effet, « l'aspect de la parentalité qui recoupe la parenté s'exprime dans la double filiation, et se symétrise de plus en plus, alors que l'aspect spécifique de la parentalité, celui qui la caractérise et s'exprime d'abord dans la présence auprès de l'enfant, reste asymétrique » (op.cit., 71). La monoparentalisation ne signifie donc pas la négation de l'autre parent dans sa double dimension biologique et sociale, mais seulement dans sa dimension éducative et relationnelle. Un autre système de garde, la résidence alternée, semble accordée aux deux parents la même place. Il est composé du mot « résidence » qui désigne le lieu d'habitation de l'enfant et implique son droit d'y résider, d'avoir un « chez soi ». Il renvoie à l'alternance de l'enfant d'une résidence parentale à l'autre dans le cadre de l'organisation d'un exercice conjoint de la parentalité. Mais la relation coparentale est-elle meilleure dans ce système de garde ? L'étude de Maccoby (1990) apporte une réponse à cette question. Elle a comparé la qualité de la relation coparentale dans trois systèmes de gardes : garde principale à la mère, garde principale au père et garde alternée, 18 mois après le divorce. L'objectif de cette comparaison était de savoir si les parents maintenaient une plus grande coordination et avaient moins de conflit avec la garde alternée ou la garde principale accordée à un des parents. Les entretiens avec les parents révèlent que même si les parents de la résidence alternée maintiennent un niveau assez haut de communication, leur niveau de conflit ne diffère pas de ceux pour qui la résidence principale est attribuée à un des parents. Les résultats de Baude (2012) abordent dans le même sens au sujet de la communication entre les parents qui pratiquent la résidence alternée. Elle a analysé la relation coparentale entre les parents sur la base de quatre indicateurs : l'interaction coparentale, l'alliance parentale, l'hostilité verbale, l'hostilité indirecte. Son étude a été réalisée sur 38 familles à partir de trois outils : l'échelle d'interaction coparentale (Arhons & Wallisch, 1987), l'inventaire de l'alliance parentale (Abidin & Brunner, 1995), l'échelle de conflit post-divorce (Sonnenblick & Schwarz, 1992). Les résultats indiquent que les parents en résidence alternée se concertent pour les décisions importantes concernant l'éducation de l'enfant. Concernant le niveau de conflit, son étude n'est pas comparative ce qui rend la 25 Chapitre 2. Trajectoire et dynamique de la famille recomposée confrontation à celle de Maccoby (1990) difficile. Mais, elle définit trois typologies de relation coparentale : la relation coopérative, mixte et conflictuelle. La majorité des parents ayant une relation coparentale « coopérative », marquée par une coordination éducative fréquente et par une relation à la fois soutenante et peu conflictuelle. Les relations coparentales se construisent sur les rapports entre les parents. Les liens qu'ils maintiennent au delà des liens conjugaux vont orienter la relation coparentale. Dozier, Sollie, Stack et Smith (1993) ont abordé les rapports entre anciens conjoints sous l'angle des relations d'attachement. Leur étude analyse l'influence de l'attachement en termes de lien d'amitié ou de dépendance sur la relation coparentale. Un échantillon de 41 hommes et 54 femmes a renseigné des questionnaires sur l'attachement après le divorce, la coparentalité (qualité et niveau de partage) et de qualité de la communication (conflit ou soutien). Les résultats montrent que le lien d'amitié favorise non seulement une relation coparentale de soutien et de partage mais aussi réduit les conflits sur l'éducation des enfants. Les liens de dépendance sont liés à une relation coparentale de soutien et de partage pour les femmes. Sous un autre angle, Pruett, Williams, Insabella et Little (2003) ont réalisé une étude longitudinale sur le lien entre la dynamique familiale, le recours à un avocat et l'adaptation de jeunes enfants âgé de 0 à 6 ans au moment de la séparation des parents. Les parents qui ont participé à cette recherche sont au nmobre de 212, 102 pères non résidents et 110 mères en garde principale. Les résultats indiquent que l'effet des conflits parentaux sur le niveau d'adaptation de l'enfant passe par l'implication paternelle, la relation parent-enfant, et l'implication d'un avocat. En effet, les conflits parentaux importants réduisent l'implication du père non résident alors que l'implication paternelle est liée à des comportements adaptés chez l'enfant. De plus, les conflits parentaux entrainent des changements négatifs dans la relation parent-enfant aussi bien pour le père que pour la mère. Des symptômes psychologiques importants chez les parents sont également liés à des changements négatifs dans la relation parent-enfant. En outre les mères qui ont des symptômes psychologiques importants ont moins recours à un avocat et cela prédit des problèmes internalisés chez l'enfant. Par ailleurs les changements négatifs prédisent des problèmes de comportement et les conflits parentaux importants augmentent l'implication des avocats. Dans cette même approche, Sbarra et Emery (2008) ont mis en évidence l'influence des relations interpersonnelles des parents divorcés sur les conflits dans la coparentalité. Leur échantillon est constitué de 109 parents et les aspects des relations interpersonnelles pris en compte dans 26 Chapitre 2. Trajectoire et dynamique de la famille recomposée leur étude sont la non acceptation de la fin du mariage et la résolution des conflits liés à la garde des enfants (médiation ou litige). Les données sur les conflits et la non acceptation de la fin du mariage ont été recueillies 5 semaines, 13 mois et 12 ans après le règlement des conflits. Les pères rapportent un haut niveau de conflit initial quand leurs ex-partenaires acceptent la fin du mariage. Selon les résultats, les parents qui ont recours à la médiation pour la garde des enfants rapportent une baisse des conflits dans l'année qui suit la résolution des disputes, alors que ceux qui ont des litiges rapportent une augmentation des conflits. La médiation apparaît comme un élément qui réduit fortement les conflits après le divorce. L'étude de Baude (2012) indique que les relations post-conjugales, définies par les interactions post-conjugales et la relation d'attachement entre ex-partenaire, peuvent également influencer la relation coparentale. L'auteur met en évidence un lien significatif entre les profils de relation post-conjugale et les profils de relation coparentale. Les sujets qui entretiennent une relation post-conjugale amicale ou dépendante ont tous développé une relation coparentale « coopérative ». Par contre ceux qui ont développé une relation postconjugale indépendante se répartissent dans les trois profils de relation coparentale, coopérative, mixte et conflictuelle. La procédure de divorce, le système de garde et les rapports interpersonnels pris séparément semblent influencer la relation coparentale. Qu'en est-il de leur combinaison ou de leur association à d'autres facteurs ? Arditti et Kelly (1994) ont relevé un certain nombre de variable qui expliquent les variations dans la qualité des relations coparentales telles qu'elles sont décrites par les pères. Les données ont été recueillies auprès de 225 pères divorcés. Il en ressort que les pères qui disent avoir de bon rapport avec leur ex-épouse sont également satisfaits de leur système de garde. Ces pères ont tendance à se blâmer pour l'échec de leur mariage et discutent d'un plus grand nombre de sujet avec leurs ex-épouses. Ils ont également un haut niveau d'éducation, et rapportent qu'ils étaient très proches de leurs enfants avant le divorce. De plus, la personnalité des parents pourrait moduler l'effet de la procédure du divorce sur les types de relation coparentale (coopératif, parallèle et conflictuel). Les parents du type coopératif sont tous les deux à l'initiative du divorce et assument chacun la responsabilité de l'échec de leur mariage. Ils rapportent également une procédure de divorce relativement facile et rapide. Leur coopération après le divorce est le prolongement de leur coopération pendant la séparation et le divorce. Au niveau de la personnalité, chacun d'eux a montré un haut niveau de moi différencié et peu de narcissisme. Les parents des types parallèle et conflictuel rapportent une 27 Chapitre 2. Trajectoire et dynamique de la famille recomposée longue et difficile procédure de divorce et les pères assument moins la responsabilité de leur divorce. Au niveau de la personnalité, ils présentent un faible score de moi différencié et ont un haut niveau de narcissisme (Nehami, 2004). L'étude de Bonach (2005) qui s'inscrit dans une approche plus large des facteurs qui influencent la relation coparentale a examiné les facteurs cognitifs, contextuels et perceptifs qui contribuent à la qualité de la coparentalité. Elle est basée sur un échantillon de 135 parents séparés qui ont des enfants mineurs dont l'âge est compris, en majorité, entre 6 et 12 ans. Les facteurs cognitifs pris en compte sont : l'attribution des responsabilités, la gravité accordée aux fautes et le pardon. Au niveau du contexte, les variables sont l'hostilité dans la procédure de divorce, la satisfaction avec les arrangements concernant les charges financières pour l'enfant, la satisfaction avec le système de garde, le temps qui s'est écoulé depuis le divorce, la durée du mariage, la cohabitation avant le mariage et le nombre d'enfant. Les variables sur la perception des relations avec l'autre parent renvoie à la perception qu'ont les partenaires de leur adaptation au divorce, du statut financier de leur ancien conjoint, la perception qu'ils ont de la responsabilité de leur ancien conjoint dans le divorce, la perception du degré auquel les participants blâment leur ancien conjoint ou se blâment pour le divorce et à quel point ils leur ont pardonné et leur perception des conflits avant le divorce et les conflits actuels. Les données ont été recueillies à l'aide de questionnaires il en ressort que les relations coparentales sont pour la plupart chargées de colère et d'hostilité. Les données indiquent que la satisfaction avec les arrangements concernant les charges financières pour l'enfant, une procédure de divorce moins hostile et le pardon sont les facteurs qui prédisent le mieux la qualité de la coparentalité. Les nouvelles questions de conflits entre les parents sont liées à l'accès à l'enfant et à la pension alimentaire. Une autre variable des transitions familiales, le remariage, influence la qualité de la relation coparentale. Christensen et Rettig (1995) ont analysé la relation entre le remariage et les indicateurs de la coparentalité avec 372 femmes et 277 hommes, 3 ans après leur divorce. Le remariage est associé à des interactions coparentales moins fréquentes, à une relation coparentale moins soutenante et à plus d'attitudes négatives envers l'autre parent aussi bien chez les hommes que chez les femmes. Il est également associé à moins de satisfaction dans la parentalité et un faible niveau d'implication dans les activités de l'enfant pour les hommes remariés. 28 Chapitre 2. Trajectoire et dynamique de la famille recomposée Dans une approche descriptive, Braithwaite, McBride et Schrodt (2003) se sont intéressés aux interactions quotidiennes de « l'équipe parentale » c'est-à-dire des adultes qui ont des relations coparentales au sein de différents ménages recomposés. Les 22 parents, beauxparents et partenaires, de leur échantillon, ont été suivis pendant deux semaines et à chaque fois qu'ils étaient en interaction avec un adulte de l'autre ménage. Leur analyse porte sur la fréquence, le calendrier, la localisation, la longueur des interactions ; l'initiateur, le canal et le sujet des interactions et les raisons des interactions. Les interactions sont courtes, ce sont des rencontres de tous les jours plutôt que de grandes rencontres planifiées. La majorité des interactions se fait par téléphone, suivi de face à face puis les messages électroniques. Les participants disent utiliser ces canaux pour des raisons de commodité et de proximité. La majorité des sujets abordée est en rapport avec l'enfant, les petits conflits, et les adultes ont une satisfaction modérée de leur interaction. Ces résultats suggèrent, selon les auteurs, que ces équipes parentales ont trouvé un équilibre et développé des modes d'interaction qui fonctionnent assez bien. La qualité de la relation coparentale dans la recomposition familiale découle des différents aspects de la recomposition. Chaque variable de la recomposition a une influence sur la relation coparentale et peut affecter sa qualité. Les remaniements dans la parentalité après la séparation peuvent être également abordés sous l'angle du système de garde. I.3. Système de garde Le système de garde définit le temps que l'enfant passe avec chaque parent. L'étude du système de garde peut s'articuler autour de trois points : le choix du système de garde, ses effets sur le développement de l'enfant et sur les relations parent-enfant. I.3.1. Détermination du système de garde La détermination du système de garde relève des parents et/ou des juges. Au niveau des parents, des sociologues et des démographes ont, à partir de base de données, identifiés des facteurs qui orientent le choix du système de garde. Litton & Kelly (1995) ont établi un modèle pour déterminer les cas où la mère ou le père pourrait avoir la garde exclusive de l'enfant. Ce modèle est basé sur l'analyse de 509 cas de divorce impliquant des 29 Chapitre 2. Trajectoire et dynamique de la famille recomposée enfants mineurs. Selon leur modèle, les chances d'une garde paternelle sont renforcées : lorsque les enfants sont plus grands, en particulier si l'aîné est de sexe masculin ; lorsque le père est demandeur et si une enquête de la cour de justice a été faite pendant la procédure de divorce. Au contraire, les chances de garde paternelle sont réduites par un niveau élevé d'éducation chez la mère, le chômage du père, et les arriérés de pension alimentaire avant le jugement final. Leurs résultats sont confirmés par l'étude de Huang, Han et Garfinkel (2003) qui ont étudié l'influence de la pension alimentaire sur le choix de la garde conjointe. Les résultats de leur étude indiquent que le paiement effectif de la pension alimentaire augmente la probabilité d'une garde conjointe et la garde conjointe accroît l'implication du parent nonrésident. Dans le même ordre d'idée, Juby, Lebourdais et Marcil-Gratton (2005) ont analysé le lien entre la répartition des rôles dans le couple avant la séparation et les systèmes de garde. La probabilité pour que le couple applique la résidence alternée plutôt qu'une garde maternelle exclusive est liée à la répartition des sources de revenus dans le foyer avant le divorce. L'activité de la mère est alors importante ; en effet, contrairement aux couples où seul le père travaille, les couples où les deux parents travaillent sont deux fois plus susceptibles de partager la garde de leur enfant quand ils se séparent. Il apparaît également que l'insécurité du travail n'est pas propice à la garde partagée. Lorsqu'aucun des parents ne travaille à plein temps la garde alternée est moins probable que pour les couples avec une répartition traditionnelle des rôles. Les horaires de travail ont également leur importance. Si le père travaille aux heures où l'enfant pourrait être à la maison, le couple est significativement moins susceptible d'opter pour une garde conjointe, ce qui n'est pas le cas lorsque seule la mère travaille le soir et les week-ends. Le niveau d'éducation influence le système de garde. Les mères qui ont un diplôme de niveau supérieur sont plus disposées à partager la garde que les mères qui ont arrêté leurs études après le lycée. De plus, la garde alternée est plus probable quand les pères ont un niveau plus élevé que les mères. Sur le plan de la garde exclusive paternelle ou maternelle, l'étude révèle que la probabilité d'une garde paternelle est faible lorsque le père travaille le soir et le week-end. Elle est néanmoins plus commune dans les couples avec une répartition traditionnelle des rôles. La présence d'un nouveau partenaire auprès de la mère augmente les chances du père d'avoir la garde exclusive de l'enfant particulièrement quand la mère vit avec un nouveau partenaire dans les 6 mois qui suivent la séparation. Les pères qui ne sont pas mariés à la mère de leur enfant sont moins susceptibles d'avoir une garde définie par décision de justice. Contrairement à la garde conjointe, être désigné comme le parent le plus proche de l'enfant multiplie les chances de garde paternelle 30 Chapitre 2. Trajectoire et dynamique de la famille recomposée par six, alors qu'être perçu comme celui qui pourvoit aux besoins de la famille n'augmente pas ses chances. I.3.2. Système de garde et développement de l'enfant Deux conceptions différentes se dégagent des études sur le système de garde et le développement de l'enfant. La première est que la garde conjointe, quelle que soit sa forme est plus positive pour le développement de l'enfant que la garde exclusive maternelle ou paternelle. Cette conception apparaît dans les résultats des études de Wolchik, Braver et Sandler (1985) et Bauserman (2002). En effet, Wolchik et ses collaborateurs (1985) ont comparé des enfants âgés de 8 à 15 ans en garde conjointe ou garde maternelle exclusive. Leur recherche porte sur 133 enfants qui ont expérimenté la séparation de leurs parents dans les 30 derniers mois. Les participants ont été interrogés sur leur récente expérience de divorce et ont complété des questionnaires sur l'anxiété, la dépression, l'estime de soi et l'hostilité. Les enfants en garde conjointe rapportent une expérience significativement plus positive que ceux en garde maternelle exclusive. Ils présentent également un niveau plus haut d'estime de soi et ont plus de contact avec le parent non-résident que les enfants en garde maternelle exclusive. Bauserman (2002) a, quant à lui, effectué une analyse de 33 études qui comparent le développement d'enfant en garde conjointe versus garde exclusive. Ces travaux réalisés entre 1982 et 1999, comparent l'adaptation psychologique ou comportementale des enfants dans les deux formes de garde. Il ressort de cette analyse que les enfants en garde conjointe, qu'elle soit alternée ou pas, ont un score d'adaptation plus élevé que ceux qui sont en garde exclusive. En effet, Il n'y a pas de différence significative entre la garde conjointe en résidence alternée et la garde conjointe avec la résidence principale chez l'un des parents en majorité la mère. Dans les deux types de garde conjointe, les enfants sont mieux adaptés que ceux qui sont en garde exclusive. La deuxième conception ressort des études qui indiquent une différence entre les différentes formes de garde conjointe, certaines pouvant être négatives pour le développement de l'enfant (Baude & Zaouche Gaudron, 2010). Phélip (2006) et Rottman (2006) ont, à partir de leur expérience professionnelle, établit un lien entre la résidence alternée et des troubles du développement chez les enfants. Pour Phélip (2006), la résidence alternée entraîne des troubles de l'attachement dont les causes sont : 31 Chapitre 2. Trajectoire et dynamique de la famille recomposée - la séparation de la figure d'attachement principale, surtout si cette séparation est prolongée et/ ou répétée ; - le jeune âge de l'enfant lors de cette séparation. Le nourrisson et le jeune enfant ressentent la séparation comme un évènement définitif et comme la perte du lien affectif et physique et de la sécurité qu'il apporte ; - l'éloignement nocturne qui prive l'enfant des soins appropriés et rassurant de la nuit qui sont importants pour construire un lien d'attachement sécure entre la mère et l'enfant ; - l'instabilité du cadre de vie qui ne permet pas à l'enfant « de bénéficier d'un cadre de vie stable et intime et de l'environnement unique dont chaque être humain a besoin ». De plus la résidence alternée peut correspondre en cas de conflit à « deux vies physiques et deux vies psychologiques largement indépendantes l'une de l'autre, cloisonnées, sans pont ni communication l'une avec l'autre » (op.cit., 11). Ces troubles de l'attachement se traduisent par des symptômes tels que l'eczéma, les crises d'asthme, l'agressivité envers la mère, les réveils nocturnes, un état dépressif. Rottman (2006), pédopsychiatre et psychanalyste, indique que la résidence alternée affecte la construction d'une bonne relation d'objet mère-enfant qui est dans un premier temps fusionnelle et constitue la base de la différenciation moi-autrui et de son ouverture au monde. Elle affecte également l'acquisition de la permanence d'objet. Les conséquences de la résidence alternée se traduisent également en termes de mécanisme de défense. Rottman (2006) évoque le clivage qui peut être utilisé par l'enfant sous différentes formes. L'enfant peut se couper de son propre ressenti ou, par rapport à ses deux milieux de vie, se couper en « deux parties qui s'ignorent l'une l'autre pour éviter la difficulté d'avoir à articuler deux mondes opposés qu'on lui demande d'intérioriser » (op.cit., 117). Il risque alors de se construire en faux self ou en double personnalité. L'enfant peut aussi avoir recours au clivage d'objet, l'un des parents est alors considéré comme radicalement mauvais et l'autre radicalement bon. Il n'y a pas de fusion du bon et du mauvais objet dans chaque parent. L'auteur décrit également un syndrome lié à la résidence alternée : le syndrome de Salomon. Elle le définit comme la folie de l'égalité qui se traduit par une exigence rigide de symétrie absolue des choses, avec une revendication d'un partage égal quel qu'en soit le prix à payer par l'enfant sur le plan psychique ou physique. D'autres données ( Baude , 2012 ; Baude & Zaouche Gaudron, 2013) viennent nuancer le lien fait entre la résidence alternée et les troubles du développement chez l'enfant par Phélip (2006) et Rottman (2006). Ses résultats sont basés sur une approche écosystémique. Baude 32 Chapitre 2. Trajectoire et dynamique de la famille recomposée (2012) a analysé la contribution de facteurs individuels, familiaux et contextuels sur l'adaptation socio-affective et la qualité de vie d'enfants en résidence alternée. 38 familles et leurs 56 enfants âgés de 4 à 12 ans ont participé à l'étude. Les données ont été recueillies à partir de questionnaires. Les résultats indiquent d'une part, que les enfants en résidence alternée ont une qualité de vie globalement satisfaisante, notamment dans la sphère familiale. En outre les trois quarts des enfants ont une adaptation non pathologique. D'autre part, l'analyse des facteurs qui influencent le développement des enfants, fait ressortir le sexe et l'âge des enfants ont un effet significatif au niveau individuel. En effet les filles sont plus nombreuses à se situer dans la zone pathologique de l'échelle d'adaptation extériorisée et les enfants de 4 à 6 ans tendent à présenter moins de problèmes intériorisés. Au niveau familial, la coparentalité a une influence sur le développement de l'enfant, l'hostilité indirect étant le facteur de risque le plus marqué. Au niveau du contexte la relation post-conjugale, le degré d'hostilité pré-séparation et le style d'accord formulé par les parents semble avoir une influence sur le développement de l'enfant. Les systèmes de garde ont également été étudiés sous l'angle de leur impact sur les relations parent-enfant. I.3.3. Système de garde et relation parent-enfant La garde principale des enfants est le plus souvent attribuée à la mère (Neyrand, 2003). De plus il semble que les pères non gardien initient moins de contacts avec leur enfant que les mères non gardiennes. Les pères et les mères non gardien ne diffèrent pas significativement au niveau des contacts physiques mais les mères rajoutent plus que les pères des contacts par téléphone et par courrier aux contacts physiques (Stewart, 1999). Aussi les effets du système de garde sur la relation parent-enfant sont plus analysés en termes de maintien de la relation père-enfant. Dans ce cadre, Seltzer (1991) a mis en évidence des variables qui différencient les pères dans leur implication auprès de leur enfant. Il a analysé trois composantes de l'implication des pères non-résidents auprès de leur enfant : le contact social, l'implication économique et la participation aux décisions liées à l'éducation de l'enfant. Cette analyse a portée sur des données issues d'une base de données et renseignées par des mères de 1350 familles avec des enfants âgés de moins de 18 ans. Les résultats indiquent que l'implication paternelle auprès de leur enfant varie selon les circonstances de la naissance de l'enfant et leur mode de vie actuelle. Les pères dont l'enfant est né hors mariage sont moins impliqués auprès 33 Chapitre 2. Trajectoire et dynamique de la famille recomposée de leur enfant sur toutes les dimensions : le soutien financier, les visites, les prises de décisions, par rapport à ceux dont l'enfant est né dans le mariage. De plus, le statut socioéconomique et la proximité géographique accroissent l'implication paternelle alors que la durée de la séparation la réduit. Il ressort également de l'analyse de Seltzer (1999) une définition assez stable du rôle du père après le divorce : payer la pension alimentaire, les visites, participer aux prises de décision pour l'éducation de l'enfant sont des activités qui vont de pair. En effet, les pères qui sont engagés dans l'une de ces activités sont également engagés dans les deux autres. Dans une étude plus récente basée sur une approche qualitative et le point de vue de l'enfant, Nixon (2012) fait ressortir les processus qui facilitent ou restreignent chez l'enfant le sentiment d'être proche de son père non résidents. Des entretiens semi-directifs ont été réalisés avec 27 enfants dont l'âge est compris entre 8 et 17 ans, qui ont grandi dans une famille monoparentale avec leur mère et dont le père est non résident depuis la petite enfance de l'enfant. Ces entretiens révèlent une fragilité des liens entre les enfants et leurs pères non résident. Il est difficile pour les enfants de se sentir proche de leurs pères quand les modalités de contact ont été détachées des activités de soins et de la possibilité d'immersion dans la vie quotidienne de chacun. De plus, l'expérience que les enfants ont d'être proche de leur père non résident est reliée à la perception qu'ils ont de son engagement dans leur relation et dans son rôle de parent, et à un sentiment de connexion et de familiarité avec leur père. En outre, le manque d'effort de la part du père pour maintenir le contact ou leur échec à respecter les arrangements réduit les sentiments de proximité des enfants envers leur père et favorise des sentiments de déception et de colère. Les enfants ont démontré leur capacité à agir comme agent au sein de leur famille, à donner leur propre sens à cette relation et à accepter ou rejeter leur père comme personne qui peut jouer un rôle significatif dans leur vie. D'autres auteurs se sont intéressées à des facteurs précis et à leurs influences sur la relation parent non résident-enfant. Arditti (1992) par exemple s'est intéressée au système de garde. Elle a utilisé les déclarations de 212 pères divorcés pour mettre en exergue les différences entre les pères en garde conjointe et ceux qui n'ont pas la garde de leur enfant. Sur les 14 variables étudiées 9 se sont révélées discriminantes : la fréquence des visites, le niveau d'éducation des pères, la satisfaction par rapport au système de garde, l'estime de soi, l'accord pour l'éducation, la pension alimentaire, la proximité avec l'enfant avant le divorce, les revenus et l'hostilité liée au divorce. Les trois premières variables ont le plus fort taux de discrimination. En effet, les pères en garde conjointe voient leurs enfant plus fréquemment, 34 Chapitre 2. Trajectoire et dynamique de la famille recomposée se montrent plus satisfaits de leur système de garde et ont un niveau d'éducation plus élevé que ceux qui n'ont pas la garde de leur enfant. Stewart (2010) s'est plutôt focalisé sur le type de famille dans la relation parent non résident-enfant. Son étude visait à analyser l'implication des mères et des pères non résidents (visite et soutien des enfants) auprès d'enfants qui résident dans différents types de familles : familles monoparentales, familles recomposées avec des parents mariés ou en concubinage, des familles dirigées par des grands-parents, d'autres membres de la parenté ou des personnes qui ne sont pas de la parenté. Elle a porté sur un échantillon de 13085 enfants avec un parent non résident du « National Survey of America's families ». Les résultats indiquent que les relations entre le système de garde et l'implication des parents sont complexes et dépendent à la fois du genre du parent non résident et du type d'implication pris en compte. Mais de manière générale la participation des parents non résidents est faible quel que soit le type de ménage. La séparation conduit à une nouvelle structure familiale. Elle renvoie à la vie familiale de chacun des conjoints avec les enfants avant qu'il ne s'engage dans une nouvelle relation. L'enfant peut vivre plusieurs années dans cette structure familiale, sa garde étant confiée le plus souvent à sa mère. Cette structure familiale devient famille recomposée avec l'arrivée d'un tiers, nouveau compagnon ou nouvelle compagne du parent. II. La recomposition familiale II.1. Le système familial La famille recomposée succède à la séparation et à la structure familiale constituée d'un seul parent. Sur le plan formel, la recomposition familiale se définit par l'entrée d'un compagnon ou d'une compagne dans la vie d'un ou des deux parents. Mais sur le plan fonctionnel, elle renvoie à un processus de recomposition lié à la construction progressive de liens, de relations et de rôles familiaux. Le processus de recomposition peut s'avérer difficile, d'abord parce qu'il est influencé par les transitions familiales précédentes abordées plus haut. Ensuite, le processus de recomposition met en jeu des acteurs qui sont plus nombreux que dans la famille nucléaire, des attentes et des représentations. Ce cadre spécifique conduit Hetherington (1999) à évoquer le processus de recomposition en termes de défis. Il en a identifié six à relever par les membres de la famille recomposée. Au niveau des figures parentales, les défis sont : le développement d'une relation conjugale solide qui est rendu 35 Chapitre 2. Trajectoire et dynamique de la famille recomposée difficile par la présence au préalable d'enfants ; le maintien des liens avec le parent biologique non gardien avec l'entrée du beau-parent ; développer, définir des rôles, les responsabilités et les relations familiales du beau-parent. Au niveau de l'enfant, s'adapter à la relation conjugale actuelle, aux possibles altérations dans sa relation avec son parent biologique gardien et la construction d'une relation avec un beau-parent. L'enfant est également amené à maintenir ou à développer des relations avec une fratrie germaine, une demi-fratrie et une quasi fratrie à l'intérieur et à l'extérieur du foyer. En outre, tous les membres de la famille doivent gérer les liens de parenté biologique et liés à la recomposition qui sont en dehors du foyer (le parent non gardien, les grands-parents). Ces défis peuvent être encore plus complexes quand il y a eu plusieurs recompositions. Au plan psychanalytique, la recomposition familiale s'accompagne de processus psychologiques liés à la création d'un lien affectif de parenté entre des adultes et des enfants, entre des fratries que n'unissent le plus souvent ni lien biologique, ni lien légal (Hurstel & Carré, 1993). La recomposition familiale réactualise la problématique oedipienne et cette réactualisation peut se nouer en crise symptomatique. Lors de la recomposition familiale, l'enfant a peur de perdre à nouveau l'autre parent et il doit faire une place au nouveau compagnon entre lui et son parent. Cette situation est source de jalousie, de rivalité ou d'un sentiment d'abandon. Dans le même ordre d'idée, Polard (2000) évoque un travail psychique de recomposition et le définit comme « un processus intrapsychique par lequel chaque sujet réussit suffisamment bien à élaborer et à symboliser cette nouvelle expérience » (op.cit., 64). Ce travail psychique de recomposition consiste à élaborer une perte et à s'en détacher pour rendre possible de nouveaux investissements. Il est intense dans les premiers temps de la recomposition et est effectué par un grands nombre de sujets dont le nouveau couple, les enfants des premières unions et l'autre parent. Ce travail consiste également « pour chaque sujet à tracer les nouveaux contours, les limites spatiales et temporelles de la nouvelle famille. Comme l'inscription symbolique est moins lisible que dans une famille classique, il est vital de trouver des repères » (op.cit, 64). Sur le plan métapsychologique, « il s'agit de lier des quantités d'énergies et d'affects très importants en rapport avec les modifications et les tensions relationnelles et intrapsychiques. Ces quantités sont libérées du fait de conflits internes, mais aussi du fait d'une carence, de trous de nomination du système symbolique » (op.cit., 64). Selon cet auteur, ce travail est déclenché par l'annonce et la réalité de la recomposition familiale, qui implique une redéfinition des liens, un questionnement des places et rôles de chacun. La recomposition familiale confronte les sujets à une série de pertes 36 Chapitre 2. Trajectoire et dynamique de la famille recomposée en relation avec les problématiques de la séparation et de l'oedipe. La problématique de la séparation est liée à la dislocation d'une première cellule familiale, au fait que dans la famille recomposée il y a au moins un absent qui génère un manque, à des pertes liées aux modifications dans l'espace, à l'absence réelle d'un parent, à la définition des places, à l'aménagement ou au renoncement à des représentations idéales. Le travail de recomposition est aussi un travail de symbolisation avec l'élaboration des pertes. Il renvoie donc à la capacité des sujets à symboliser, c'est-à-dire « rendre présente l'absence, se situer et situer les autres par rapport aux liens de parenté, nommer les liens, pallier ainsi l'absence de modèles de mythes. C'est parler les séparations, les absences, les manques » (op.cit., 67). Cette capacité de symbolisation définit deux états psychiques : − états psychiques « symbolisateurs » qui consistent à « porter l'autre et soi même par une activité intense de symbolisation » (op.cit., 67). − états psychiques « passage-à-l'acteur » qui traduit un échec de symbolisation et se caractérise par des débordements pulsionnels, et des passages à l'acte. Dans un travail de recomposition, il existe le plus souvent une alternance ou une intrication de ces deux états. Enfin, il définit un travail de recomposition suffisamment bon comme « une élaboration psychique qui permette d'intégrer les différentes pertes rencontrées, d'accepter l'absence d'au moins toujours une personne, de composer avec des idéaux et tout particulièrement de porter par la pensée l'autre et soi-même avec de la création symbolique » (op.cit., 68). Le processus de recomposition au niveau du système familial peut être influencé par des facteurs liés aux structures familiales antérieures et au fonctionnement de la famille recomposée. Selon Blöss (1996), la trajectoire des acteurs de la recomposition et la dynamique des relations éducatives dans la famille recomposée peuvent déterminer l'intégration familiale du beau-père. La distribution des rôles éducatifs dans l'union antérieure des figures parentales va prédéfinir leurs rôles éducatifs dans la famille recomposée. En effet, la plus ou moins forte dissymétrie sexuelle des rôles éducatifs lors de l'union antérieure de la mère gardienne conditionne fortement le niveau d'intégration familiale du beau-père. L'habitude prise par la mère de s'occuper principalement de son enfant au cours de l'union précédente, prolongée au cours de la vie monoparentale, tend à l'inciter à poursuivre la prise en charge quasi exclusive de son enfant. En outre, la relation entre le père biologique et son enfant définit la place du 37 Chapitre 2. Trajectoire et dynamique de la famille recomposée beau-père. Blöss (1996) indique que l'intensité du lien éducatif père-enfant est inversement proportionnelle à l'intensité de la relation éducative beau-parentale. La rupture de l'union conjugale alors que l'enfant est en bas âge affaiblit la relation père-enfant. La faiblesse, voire l'absence de lien éducatif paternel, favorise le remariage de la mère gardienne, et dans une moindre mesure son désir de concevoir un enfant de cette nouvelle union. Dans le cas contraire, le premier mariage, rendu vivace ou prégnant par la permanence des liens biparentaux, constitue en quelque sorte une cause de complication de la vie du nouveau couple. En plus de ces deux facteurs, la trajectoire des beaux-pères influence également la perception qu'ils ont de leur position dans la nouvelle alliance et définit deux logiques de recomposition : une recomposition avec un beau père décidé à épouser la mère et à se poser en père pour le bel-enfant, et une recomposition avec un beau-père repoussant toute velléité d'occuper une place de parent et demeurant à distance du couple mère-enfant. Ces logiques sont liées à la position que donne la mère gardienne au beau-père auprès d'elle et de son enfant. Par ailleurs les conflits entre parents biologiques ont un effet négatif sur la qualité des rapports entre beau-père et bel-enfant (MacDonald & DeMaris, 2002). D'autres études ont plutôt mis l'accent sur l'importance de la communication dans le fonctionnement de la famille recomposée. L'étude de Braithwaite, Olson, Golish, Soukup, Turman (2001) montre que les familles recomposées ont un fonctionnement positif et peuvent développer un haut niveau de solidarité entre ses membres quand il existe une communication ouverte, c'est-à-dire une capacité de la famille à discuter les rôles familiaux, les limites, le partage d'identité, l'adaptation au sein de la famille, les attentes diverses, les conflits, et les sentiments. Dans le même ordre d'idée, l'étude de Golish (2003) montre que les familles recomposées qui utilisent la parole pour résoudre les problèmes de la famille ont une image positive de famille et démontrent une bonne conscience de la sévérité des problèmes. Elle indique également que la mise en place de la communication dans une famille recomposée doit répondre à une logique particulière, parce que les règles de communication dans un système de famille recomposée sont compliquées par un réseau de limites. Les familles présentent des stratégies différentes de communication, ce qui conduit à une diversité dans le développement des communications dans les familles recomposées. Le développement des familles recomposées est unique et basé sur le modèle de communication familiale (Golish, 2003). La communication en famille recomposée repose sur les parents et la qualité de leur 38 Chapitre 2. Trajectoire et dynamique de la famille recomposée relation. Elle est définie par rapport aux liens qui existent entre les foyers qui composent le réseau familial. L'influence de la trajectoire des acteurs de la recomposition, des relations éducatives et de la communication peut être également analysée au niveau des sous-systèmes familiaux que sont le couple conjugal, les sous-systèmes figure parentale/enfant et la fratrie. II.1.1. Les sous-systèmes familiaux II.1.1.1. Relation conjugale dans la famille recomposée Le couple conjugal dans la famille recomposée est confronté à des défis du fait du contexte particulier dans lequel il se construit. Aussi il peut être considéré comme plus fragile que le couple dans la famille non recomposées. De ce fait, la durée de l'union constitue une variable qui est prise en compte ou qui est contrôlée dans l'étude des couples de famille recomposée. Les couples sont répartis en deux groupes ceux dont l'union date de moins de 5 ans et ceux dont l'union date de plus de 5 ans. Les couples de moins de 5 ans sont considérés comme plus fragiles que ceux de plus de 5 ans qui eux sont considérés comme des « survivants ». De plus, après 5 ans, les couples de familles recomposées semblent moins différents des couples de familles non recomposées (Hetherington, 1999 ; Slattery, Bruce, Halford & Nicholson, 2011). Le couple conjugal semble mieux gérer ses défis familiaux avec le temps. Par ailleurs, le statut matrimonial du couple peut influencer la stabilité du couple. En effet, les couples en concubinage se révèlent plus instables que ceux qui sont mariés (Martin, Le Bourdais & Lapierre-Adamcyk, 2011). En plus du facteur temps et du statut matrimonial, les liens entre le contexte familial et la relation conjugale sont analysés. Les facteurs du contexte familial sont, entre autres, le type de familles recomposées, les liens familiaux, et la dynamique du couple. Le caractère complexe de la famille recomposée semble ne pas favoriser des relations conjugales harmonieuses. Selon Clingenpeel (1981), les couples dans les familles recomposées simples ont une meilleure relation conjugale que les couples dans les familles recomposées complexes. La présence de « quasi liens » dans la famille recomposée complexe semble fragiliser les relations conjugales. Cette influence des quasi-liens a été mise en évidence dans de son étude menée auprès de 40 couples : 27 de familles recomposées 39 Chapitre 2. Trajectoire et dynamique de la famille recomposée complexes et 13 de familles recomposées simples. Dans les familles recomposées complexes, chaque conjoint a des enfants d'un précédent mariage mais il n'y a que la mère qui a la garde de ses enfants. Les résultats indiquent que les couples pour lesquels les contacts avec les quasi sont de fréquence modérée ont une meilleure relation conjugale que ceux où les contacts avec les quasi sont de forte ou faible fréquence. Ces résultats sont confirmés par ceux de Hetherington (1999). Il ressort que les liens biologiques entre les enfants et les conjoints ont plus d'influence sur les relations conjugales que le type de famille. Ces liens peuvent accroître ou non les conflits conjugaux liés à l'éducation des enfants. Il apparaît que les conflits conjugaux liés à l'éducation des enfants sont plus importants dans les familles où les enfants sont biologiquement liés à la mère et sont les beaux-enfants du père. La configuration du couple qui défini la famille recomposée matricentré ou patricentré peut également avoir une influence sur la relation conjugale. Le couple dans une famille recomposée matricentrée est composée de la mère biologique de l'enfant et d'un beau-père, dans la famille patricentré le couple se compose plutôt du père biologique de l'enfant et d'une belle-mère. Il semble que les familles avec une belle-mère ont moins de risque de séparation que les familles avec un beau-père (Martin & al., 2011) Au delà des caractéristiques de la famille recomposée, la dynamique du couple peut favoriser ou non sa stabilité et sa gestion des défis de la recomposition. La qualité de la communication, les caractéristiques personnelles et le processus de coping peuvent définir la fragilité ou la force du couple dans la recomposition famille (Martin & al., 2011). Selon Saint-Jacques, Robitaille, Godbout, Parent, Drapeau et Gagne (2011), l'instabilité de certaines familles recomposées s'explique moins par les défis et les problèmes liés à la famille recomposée que par la manière dont ils les abordent. Les auteurs ont, à partir d'une étude qualitative, comparé les couples qui sont restés ensemble et les couples qui se sont séparés. Il ressort qu'une bonne communication est importante pour la relation conjugale. Au niveau des caractéristiques personnelles, ne pas être enclin aux compromis pouvait affecter les relations de couple. Alors que des caractéristiques telles que la maturité, l'humour, le respect a un effet sur la stabilité des familles recomposées. Les croyances et les valeurs des personnes peuvent également avoir un effet sur la stabilité de leur relation conjugale. En ce qui concerne les stratégies de coping, les couples qui se séparent utilisent plus des stratégies d'évitement, des stratégies inefficaces et persévèrent moins que ceux qui restent ensemble. Dans le même ordre d'idée, O'Brian, Delongis, Pomaki, Puterman, Zwicker (2011) se sont intéressés à l'utilisation de la « réponse empathique » comme stratégie de coping dans les couples de familles recomposées. La 40 Chapitre 2. Trajectoire et dynamique de la famille recomposée « réponse empathique » est une forme de coping basée sur la relation. Les résultats indiquent que les maris et les femmes ont tendance à accroître leur utilisation de réponses empathiques lorsque les stresseurs familiaux ont une forte signification personnelle. L'utilisation de réponses empathiques à la fois chez le mari que chez la femme semble être liée à une adaptation aux stresseurs conjugaux. Une forte utilisation de réponses empathiques est associée à un faible niveau de tension. L'utilisation de réponse empathique pourrait être une stratégie efficace pour faire face au stress quotidien. La recomposition familiale au niveau du couple semble être influencée par les caractéristiques personnelles des membres du couple, la dynamique du couple et leur manière de faire face aux difficultés de la recomposition. Qu'en est-il de la recomposition familiale au niveau des relations parents-enfants ? I.1.1.1. La pluriparentalité La recomposition familiale pose la question de la parentalité, dans la mesure où, elle est composée de personnes ayant un passé familial différent et renvoie à plusieurs figures parentales. En effet, la parentalité est plus complexe dans la famille recomposée car elle s'inscrit dans un réseau familial. Cette complexité est liée aux composantes de la parentalité définies par Houzel (1999) en psychologie et Théry (1995) en sociologie. Houzel (1999) identifie trois niveaux d'analyse de la parentalité : - L'exercice de la parentalité, il a un aspect fondateur car il définit les cadres nécessaires pour qu'une famille se développe. Il renvoie « aux droits et devoirs qui sont attachés aux fonction parentales, à la place qui est donnée dans l'organisation du groupe social à chacun des protagonistes, enfant, père et mère dans un ensemble organisé et notamment dans une filiation et une généalogie » (op.cit., 115). - L'expérience de la parentalité correspond à l'expérience subjective de ceux qui sont chargés des fonctions parentales. C'est le niveau d'analyse de l'expérience affective et imaginaire, des fantasmes conscients et inconscients de tout individu engagé dans un processus de « parentification ». Il inclut le désir d'enfant et la « parentification ». - La pratique de la parentalité concerne les tâches effectives, objectivement observables qui incombent à chacun des parents. Elle comporte, entre autres, les soins à l'enfant, les interactions comportementales et les pratiques éducatives. 41 Chapitre 2. Trajectoire et dynamique de la famille recomposée Selon Houzel (1999), il n'est pas possible d'isoler la pratique de la parentalité de l'exercice et de l'expérience de la parentalité. Ces trois aspects de la parentalité sont interdépendants dans la pratique. « Qu'ils le veuillent ou non, les adultes amenés à prendre en charge un enfant séparé de ses parents sont investis d'une forme ou une autre d'exercice de la parentalité et font au contact des enfants qui leur sont confiés une certaine expérience de la parentalité » (op.cit., 116). Dans la famille recomposée, quatre adultes peuvent parfois prétendre à une forme ou une autre de parentalité. Sous un autre angle, Théry (1995) définit la parentalité comme le « lien de parenté qui unit deux parents à leur enfant, à la différence de cette relation beaucoup plus vaste que l'enfant entretient avec tous les acteurs de sa parenté » (op.cit., 102). Elle identifie trois composantes fondamentales de la parentalité : - la parentalité biologique est une question de fait, dans la mesure où le parent biologique d'un enfant est son géniteur ; - la parentalité domestique est également une question de fait, le parent domestique est celui qui abrite et élève l'enfant dans sa maison. La cohabitation sous un même toit étant essentielle dans ce cadre ; - la parentalité généalogique est une construction culturelle. Elle permet d'inscrire l'enfant dans une représentation de la parenté et de l'instituer ainsi comme sujet. Sa valeur est d'établir un ordre symbolique du monde. Ces trois composantes de la parentalité étaient assumées par une seule personne dans le mariage. Mais en cas de rupture et de recomposition, les différentes composantes de la parentalité sont dissociées, et l'enfant peut avoir des représentants différents pour chaque composante de la parentalité. En effet, dans les familles recomposées, il est plus question de pluriparentalité que de parentalité ; plusieurs sortes de parents sociaux s'ajoutent aux parents par le sang (Fine, 2001). La pluriparentalité dans la famille recomposée a été analysée sous plusieurs axes dont le système de filiation européen, la nomination des liens de parenté et la répartition des rôles. I.1.1.1.1. Pluriprentalité et système de filiation La famille recomposée bouleverse le système de filiation européen. En effet, Fine (2001) fait ressortir la contradiction que constituent les familles recomposées pour le système de filiation européen. Le système de filiation en Europe est caractérisé par la bilatéralité. Elle est transmise par les deux branches, paternelle et maternelle, et par l'idéologie du sang, le sang 42 Chapitre 2. Trajectoire et dynamique de la famille recomposée étant le vecteur de transmission des caractéristiques spécifiques. Les filiations sociales, telles que le parrainage et l'adoption, qui pouvaient conduire à une pluriparentalité, étaient organisées de sorte que l'enfant n'ait pas plusieurs parents. Le parrain et la marraine sont investis d'une fonction symbolique, distincte de celle, nourricière, des parents. Ce sont des parents idéaux qui apportent une assistance morale et ils n'ont pas une fonction de tuteurs. Les deux liens de filiation sont distincts et hiérarchisés. Dans le cas de l'adoption, « le secret présentait en outre l'avantage de cacher l'illégitimité de l'enfant mais surtout, il donnait l'assurance aux parents adoptifs d'être à l'abri de toute concurrence, » (op.cit., 75). La pluriparentalité était donc évitée, l'exclusivité étant donnée aux parents de sang ou aux parents adoptifs. Fine (2001) relève que dans les familles recomposées, le droit tranche pour l'exclusivité des parents de sang, dans l'exercice des tâches éducatives, le beau-parent n'ayant pas le statut de parent. Mais, dans l'optique de reconstituer une nouvelle entité familiale conforme à la norme de l'exclusivité, les services sociaux et les acteurs de la recomposition ont favorisé l'instauration d'un modèle de substitution, le beau-parent étant invité à tenir la place du parent absent. Hurstel et Carré (1993) donnent une explication psychologique à cette tendance. Selon elles, la préoccupation qu'ont les acteurs de la recomposition de former une « vraie famille », exprime une forme de morcellement de l'image du corps à vivre avec des repères approximatifs, et la tentative en réponse de s'identifier les uns par rapport aux autres dans une unité familiale construite. Les repères utilisés sont principalement des noms inscrits dans des institutions légales, à travers le mariage et l'adoption. Ces institutions permettent de parer au morcellement du sujet, et de répondre à la question, « Qui suis-je ? Quelle est ma place nominale ? ». Mais ces tentatives d'unification ont des répercussions sur les enfants. En effet, elles sont vécues par les enfants « comme un effacement des différences, les plongeant alors dans une confusion généalogique » (op.cit., 203). De plus, la construction d'un lien affectif de parenté entre des adultes et des enfants, entre des fratries que n'unissent le plus souvent ni lien biologique, ni lien légal, réactualise la problématique oedipienne et la rivalité fraternelle chez l'enfant, et cette réactualisation peut se nouer en crise symptomatique (Hurstel & Carré 1993). I.1.1.1.2. Pluriparentalité et nomination des liens de parenté Les familles recomposées posent des problèmes de vocabulaire. Pour le psychanalyste Winter (1995), les liens entre les personnes d'une famille recomposée sont innommables et 43 Chapitre 2. Trajectoire et dynamique de la famille recomposée cette confusion de liens ne peut être dissipée que par le législateur. Il considère qu'il revient au législateur de fixer les mots qui permettront la représentation symbolique du père, et à son existence qui tient à la parole de la mère. Winter relève qu'il y a des familles avec des enfants pour lesquels aucun des adultes présents ne représente la même chose, ni n'est appelé de la même manière. Selon Winter (1995), cette situation dégrade encore plus la fonction paternelle, puisqu'elle dégrade la fonction même du langage et pourrait affecter la capacité de l'enfant à intégrer le symbolique. En sociologie, Théry (1991) souligne le fait que la recomposition familiale se heurte à une inadéquation du vocabulaire de la parenté. Selon elle, le beau-parent est celui qui cristallise pour l'essentiel les difficultés de langage car il est difficile de le nommer. En effet, elle note que le mot propre désignant l'époux d'un parent, parâtre ou marâtre, n'est plus d'usage, et que le beau-parent est aussi bien le parent de l'époux que l'époux du parent. Pour Théry (1991), cette confusion signale un malaise lié, d'une part, à la prégnance du mythe de la méchante marâtre, et d'autre part, au parent non gardien qui risque de perdre son appellation et de devenir un monsieur. Le beau-parent menace l'identité de parent, du parent non gardien, de par la place qu'il occupe dans la vie quotidienne de l'enfant (Théry, 1991). I.1.1.1.3. Pluriparentalité et définition des rôles parentaux La parentalité dans les familles recomposées, c'est la définition du parent, la dénomination des membres, mais aussi et surtout la distribution des rôles. La recomposition familiale implique les parents biologiques, et les beaux parents qui, de par leur relation avec les parents biologiques, font figure de parent. Les parents biologiques sont aux yeux de la loi les seuls à avoir une autorité parentale sur l'enfant. Le père et la mère sont engagés dans un système de coparentalité qui s'étend au-delà de la conjugalité. Une famille recomposée peut alors compter quatre sous-systèmes : mère-enfant, père-enfant, belle-mère/enfant, beaupère/enfant. Au niveau des sous-systèmes qui concernent les parents biologiques, la séparation affaiblit la coparentalité, surtout en ce qui concerne la fonction du père. En effet, la garde de l'enfant étant dans la plupart des cas confiée à la mère, celle-ci se retrouve confortée dans son rôle de parent et acquiert plus de pouvoir. Le père, par contre, voit sa position s'affaiblir. Les contacts sociaux entre un père et son enfant dont il n'a pas la garde paraissent plus fréquents pour les enfants qui viennent de séjourner chez leur père et chez ceux qui ne 44 Chapitre 2. Trajectoire et dynamique de la famille recomposée vivent pas avec un beau-père ; les enfants semblent donc établir des séquences de relation avec les figures parentales qui les entourent et ne pas être disposés à avoir des relations avec l'ensemble des figures parentales dans le même temps (Seltzer, 1988). Pour Naouri (1995), un homme qui divorce de sa femme divorce peu ou prou de ses enfants. Il devient un père du sang, le père du nom, le père de l'histoire, mais plus du tout le père de la fonction. Naouri (1995) considère, dans la lignée psychanalytique, que la fonction de père passe par la mère qui le désigne et l'accepte comme tel. Aussi après le divorce, les droits du père existent-ils en termes juridiques, mais pas dans l'inscription inconsciente qui repose sur le corps de la mère, auquel les enfants sont longtemps comme branchés par tout leurs sens et par leur cerveau. Ils n'écoutent leur père que s'il est face à leur mère dans une position possible de père. Cette position n'est pas partagée par Décoret (1997), pour qui « définir la paternité comme uniquement relative à la maternité est aussi absurde que de définir la femme par rapport à l'homme ; c'est nier le père en tant que personne et la relation directe qu'il a avec ses enfants » (op.cit., 85). L'auteur souligne le fait que les pères séparés sont toujours des pères. Il démontre, à partir d'exemples et de témoignages, qu'il existe des pères qui prenaient soin de leurs enfants aussi bien que la mère, sinon même plus, et qui souffrent de la séparation d'avec leurs enfants. Ces pères voudraient conserver leur place auprès d'eux, mais deux mécanismes complémentaires conduisent à leur exclusion : la nécessité, réaffirmée par les décisions des juges, de concentrer le pouvoir parental entre les mains d'un seul parent, et le fait que la mère est considérée comme « un peu plus parent » que le père. Décoret (1997) évoque également les difficultés auxquelles sont confrontés les pères dans l'accomplissement de leur devoir, après la séparation. Le père doit apprendre à être parent sans l'autre. « Le père privé de ses enfants va devoir exercer son devoir pendant un laps de temps très court ; il lui faudra rentabiliser. Il est alors en conflit intérieur entre le désir de profiter au maximum de ses enfants et celui de leur insuffler sa conception de l'existence, de les éduquer dans ce temps si court » (op.cit., 54). Le père se retrouvant parent principal va devoir tout assumer du jour au lendemain. Les pères ont également des difficultés à fixer des limites et des cadres à leurs enfants, après la séparation. « Le père lointain aura du mal à affirmer son autorité et, ne voyant les enfants que quelques jours de temps en temps aura tendance à être laxiste. Quant au père qui héberge ses enfants, il a souvent peur que cet état change si ceux-ci, par exemple, décident d'aller vivre chez leur mère. Il peut alors hésiter à faire des actes d'autorité et d'agir par démagogie plus que par pédagogie » op.cit., 56). 45 Chapitre 2. Trajectoire et dynamique de la famille recomposée Les beaux-parents sont ceux qui occupent la place du parent biologique au sein des nouvelles familles. Le rôle du beau-parent dans la famille recomposée a fait l'objet de plusieurs analyses qui font ressortir sa spécificité. En effet, « le beau-parent est l'irruption, au coeur de la famille, de relations qui relèvent partiellement d'un autre ordre, celui de l'amitié. Adulte, il assume une autorité et une responsabilité. Mais il les définit comme une autorité de conseiller, une responsabilité en second, différente de celle des parents » (Théry, 1995, 108). Le prénom est l'appellation la plus fréquemment utilisée par les beaux-enfants pour désigner le beau-parent. Cette appellation montre sa spécificité mais souligne également les ambiguïtés de son rôle. Le beau-parent se mue en « ni vrai parent, ni pair ». Il se situe en quelque sorte entre l'en-deçà, l'ami, le copain, et l'au-delà, le parent. L'autre spécificité de son statut est qu'il n'existe que par et dans l'actualité du lien qui unit le beau-parent et le parent (Théry, 1991). Les résultats de l'étude de Blöss (1996) confirment ceux de Théry (1991), et indiquent que les fonctions assumées par le beau-père relèvent moins d'une logique de substitution que d'une logique de constitution d'une nouvelle « paternité sociale ». Mais la présence du beaupère, même sporadique, reste une présence symbolique quotidiennement forte associée à la figure d'un homme protecteur. « Le beau-père incarne de façon emblématique l'autorité traditionnellement dévolue à l'homme présent dans le foyer, alors que dans la vie de tous les jours, c'est la mère qui l'exerce. Il fonctionne comme un « garde fou ». Ce qui a plus pour conséquence de rassurer ou de conforter la mère que d'inquiéter ou de contrarier son enfant dans la vie de tous les jours. La division domestique des relations éducatives réserve à la mère le soin de sévir. Le beau-père est, quant à lui, cantonné dans un rôle d'avertissement ou au plus de réprimandes verbales » (op.cit., 128). La paternité sociale qu'exerce le beau-père est essentiellement d'ordre matériel et moral. Elle s'apparente donc à un devoir qu'il estime nécessaire de remplir, étant donné le lien qui l'unit à la mère de cet enfant. Le rôle de beau-parent se construit dans une dynamique familiale et peut être influencé par les représentations que tous les membres de la famille ont du statut de beau-père et par leurs attentes. L'étude de Graham (2010) donne un cadre des représentations et des attentes au sujet du parent en jeu dans les familles recomposées. Elle examine comment les membres de familles recomposées définissent et négocient le rôle du beau-parent dans des familles nouvellement recomposées en Nouvelle Zélande. Son analyse porte sur 105 familles recomposées dont les membres cohabitent depuis au moins 4 ans. Le recueil de données s'est 46 Chapitre 2. Trajectoire et dynamique de la famille recomposée fait en deux temps à 12 mois d'intervalle auprès de trois membres de chaque famille : un enfant dont l'âge est compris entre 7 et 11 ans, le parent biologique résident et le beau-parent. Les participants ont renseigné des questionnaires qui permettent d'appréhender la perception que chacun a du rôle du beau-parent et du fonctionnement de la famille recomposée. Les résultats suggèrent que les beaux-parents, les parents et les enfants perçoivent le beau-parent comme jouant un rôle actif à la fois sur les aspects chaleureux et les aspects de contrôle. Par ailleurs, cette perception change peu sur la période des 12 mois de l'étude. Lorsque les écarts entre les scores de rôles réels et les scores de rôles idéaux ont été examinés, tous les membres de la famille recomposée ont déclaré vouloir que le beau-parent s'implique plus qu'il ne le fait actuellement, dans des comportements de chaleur. Les parents et les beaux-parents souhaiteraient dans l'idéal que le beau-parent soit plus impliqué dans les comportements de contrôle également mais les enfants, quant à eux souhaiteraient qu'il s'y implique moins. L'analyse des différences entre les membres de la famille révèle que les beaux-enfants sont ceux qui souhaitent le moins que le beau-parent soit impliqué dans les comportements de chaleur et de contrôle. Les adultes utilisent des stratégies telles que discuter avec le partenaire, parler avec les enfants, avoir des retours des enfants et de l'autre parent biologique. Les négociations sont plus susceptibles de se faire dans les douze mois qui suivent lorsque le fonctionnement est plus problématique au début. Les membres de la famille peuvent par ailleurs faciliter l'intégration du beau-père dans la famille. Shapiro et Stewart (2012) analysent le lien entre d'une part l'expérience de beauparent, le soutien et la validation venant de trois sources : le partenaire, l'autre parent biologique, et les beaux-enfants et d'autre part les symptômes de dépression. L'analyse des données recueillies auprès de 125 beaux-parents indiquent que la validation du beau-parent par l'ensemble des trois sources est associée à de faibles symptômes de dépression. Le soutien du partenaire émerge comme seul prédicateur significatif. Il est également le plus associé à de faibles niveaux de symptômes de dépression dans les premières années de l'expérience de beau-parent. Ces résultats soulignent l'importance du soutien et de la facilitation de la part du partenaire, lorsque la famille s'adapte à sa nouvelle structure. En outre, Le beau-père et la belle-mère ont des rapports différents avec leur bel-enfant. Les beaux-pères surveillent et contrôlent moins leur bel-enfant que les belles-mères (Fisher, Leve, O'Leary, & Leve, 2003). Ces dernières sont plus investies dans l'éducation quotidienne des enfants que les beaux-pères compte tenu de la répartition des rôles entre sexes dans l'univers domestique (Martial, 1997). 47 Chapitre 2. Trajectoire et dynamique de la famille recomposée I.1.1.1.4. Pluriparentalité et Relation parents-enfants Les relations parents-enfants dans la famille recomposée sont marquées par la structure de la famille et sa composition. Les liens, les statuts et les rôles vont orienter les relations à l'intérieur de chaque sous-système parent-enfant et d'un sous-système parentenfant à un autre. Au niveau des figures parentales, le lien biologique semble être un des facteurs déterminant des relations parents-enfants. L'influence du lien biologique apparaît dans les comparaisons faites par Hetherington (1999) entre la relation que chaque figure parentale a avec son enfant biologique et celle qu'elle a avec son bel-enfant. Sur un plan affectif, il semble que chaque figure parentale est plus chaleureuse, apporte plus de soutien et est plus concernée par son enfant biologique que ses beaux-enfants. Pour ce qui concerne l'éducation, les beaux-pères semblent être moins susceptibles de diriger et d'exercer un contrôle sur leur beaux-enfants que sur leurs propres enfants. Au niveau des conflits parent/enfant, les mères sont plus susceptibles que les pères d'entrer dans une relation conflictuelle avec leurs enfants biologiques qu'avec leurs beaux-enfants dans les familles recomposées complexes. La durée de recomposition des familles (au moins 5 ans) ne semble pas améliorer la qualité des relations beaux-parents/enfant. Les beaux-parents paraissent toujours plus distants et moins engagés auprès de leurs beaux-enfants que de leurs enfants. Et les beaux-enfants se montrent plus distants et ont des relations moins affectueuses avec leurs beaux-parents. Les beaux-parents et beaux-enfants peuvent être proches, avoir une relation constructive, mais les liens semblent être plus difficiles à établir entre parents non biologiques et enfants. Dans le même ordre d'idée, Gosselin, Doyon, Laflamme et David (2007) examinent les enjeux liés à la conciliation des rôles de belle-mère et de mère biologique. Leur étude a été menée sur à un échantillon de 12 participantes. Celles-ci ont été rencontrées individuellement en entrevue de forme semi-structurée dont le thème central concerne l'expérience de la maternité biologique et son intrication avec le rôle de belle-mère dans la famille recomposée. Trois thématiques émergent de l'analyse : une comparaison entre l'attachement maternel et la relation beau-parentale ; l'exploration des enjeux de la gestion de la dynamique familiale ; les défis liés au développement d'une identité familiale. Au niveau de l'attachement maternel et de la relation beau-parentale les participantes évoquent une différence entre les deux relations. Il apparait dans leur discours qu'elles ont un amour maternel beaucoup plus fort pour leur enfant biologique que pour leur bel-enfant. Pour elles, l'attachement à leurs enfants biologiques se fait sur des bases naturelles qui n'existent pas 48 Chapitre 2. Trajectoire et dynamique de la famille recomposée dans la relation beau-parentale. De plus, les participantes indiquent qu'elles ont un lien filial avec leur enfant biologique alors que le lien qu'elles ont avec leur bel-enfant est un lien indirect qui passe par le lien au père, il peut s'arrêter en cas de rupture ou si la relation avec le bel-enfant est problématique. Les participantes disent également ne pas se reconnaître en ces enfants qui appartiennent à d'autres parents. Leurs liens avec leur bel-enfant est fragile et contextuel et peut être atténué par l'absence d'un quotidien partagé. Les femmes de l'étude se sont montrées préoccupées par l'inégalité de leur investissement affectif envers les enfants de la famille recomposée. Elles ont un souci d'équité entre les enfants. Elles peuvent donc tempérer leurs démonstrations affectives envers leur enfant et compenser ces démonstrations affectives par des démonstrations envers leur bel-enfant. Ces démonstrations sont alors vécues comme compensatoires et non spontanées et le souci d'équité peut affecter leur expérience maternelle. Toutefois, la particularité de la relation avec un bel-enfant fait qu'elle revêt des aspects positifs. Lorsqu'elles apprécient la personnalité de leur bel-enfant, certaines belles-mères de l'étude apprécient d'avoir une relation plaisante avec lui sans avoir à le materner et à exercer un rôle d'autorité. En outre, cette expérience peut leur permettre de compenser une expérience insatisfaisante dans leur rôle de mère ou de vivre une expérience différente avec un enfant de sexe opposé à celui de son enfant biologique. Dans les familles recomposées complexes la conciliation des deux rôles a des effets différents sur la relation belle-mère/enfant. La mère est déjà mère et cela peut entraver l'investissement initial du bel-enfant. Les différences de traitement sont encore plus importantes dans ce contexte et chacun des conjoints fait une comparaison entre son investissement auprès de son enfant et de son bel-enfant. De plus la comparaison s'étend ici à une comparaison de l'équité démontrée par chacun des conjoints envers les enfants de l'autre. Du côté de l'enfant la qualité des relations avec le beau-parent semble être influencée par des facteurs liés au contexte dans lequel les relations se développent, aux interactions et contributions du beau-parent dans la vie familiale. Selon l'étude de Ganong, Coleman et Jamison (2011), les enfants évaluent les avantages qu'ils reçoivent du beau-parent pour eux et leurs parents et répondent en fonction du résultat de cette évaluation aux efforts du beauparent pour établir une relation. Les réponses vont de l'enthousiasme à aucune réponse. L'évaluation du beau-parent faite par l'enfant est influencée par des données qui proviennent des parents biologiques et de la fratrie recomposée (la fratrie germaine, les demi-frères et 49 Chapitre 2. Trajectoire et dynamique de la famille recomposée soeurs). L'âge de l'enfant au moment où commence la relation, le genre de l'enfant et du beau-parent puis le temps passé ensemble du fait du système de garde forment le contexte dans lequel chaque relation se développe. Ils ont identifié six patterns du développement des relations dans la recomposition : accepter en tant que parent, lien depuis le début, accepter avec ambivalence, trajectoires changeantes, le rejet et la coexistence. Ces patterns de développement ont des trajectoires différentes étroitement liées à des différences qualitatives dans les relations enfants-beau-parents. Les relations parent-enfant dans la famille recomposée concernent la construction de nouveaux liens (beau-enfant) mais aussi le maintien de premiers liens (les liens parents biologiques-enfant). Comment ces deux dimensions s'influencent-elles ? L'étude de King (2009) apporte des éléments de réponse à cette question. Elle examine comment l'entrée d'un beau-père dans la famille influence les liens qu'ont les adolescents avec leur mère et leur père non-résident et comment les premiers liens avec chaque parent biologique influencent le développement de liens beau-parent /enfant. L'étude a été réalisée en deux temps auprès de 1753 adolescents qui vivaient avec leur mère dans le premier temps et qui sont soit dans une famille restée monoparentale, une famille avec un couple en cohabitation, ou mariée dans le deuxième temps qui s'est fait environ un an après. Concernant les premiers liens, il ressort que la formation d'une famille recomposée a peu de conséquences sur les liens adolescentspère non résident. Cependant les adolescents deviennent moins proches de leur mère quand elle commence à cohabiter avec un beau-père. Au niveau des nouveaux liens, les résultats indiquent qu'il est plus probable que les adolescents deviennent proches de leur beau-père marié à leur mère s'ils étaient proches de leur mère avant l'arrivée de ce beau-père. Les premiers liens adolescent-père non résident ne semblent pas être reliés à la relation adolescents/beau-père. I.1.1.2. La fratrie recomposée La recomposition familiale peut entraîner une recomposition de la fratrie. Cette recomposition se traduit par une modification de la structure de la fratrie, une diversité de lien fraternel dans le sous-système et de la répartition de l'espace. La fratrie recomposée est une fratrie qui se constitue à la remise en couple d'un ou des deux parents avec un partenaire qui lui aussi a déjà eu des enfants ou lorsque des enfants nés 50 Chapitre 2. Trajectoire et dynamique de la famille recomposée de la nouvelle union viennent s'ajouter aux enfants des précédentes unions. Selon Poittevin (2005), il y a fratrie recomposée à partir de deux entités de germains. Le terme de germains est utilisé pour désigner les enfants qui ont le même père et la même mère biologique. Elle définit différentes formes de fratrie recomposée : la fratrie de quasi qui regroupe deux entités de germains n'ayant aucun lien biologique entre elles ; la fratrie de demis composée d'une entité de germains issue du nouveau couple et une entité de germains issue de l'un des adultes, les enfants ont au moins un parent en commun ; la fratrie mixte qui regroupe une entité de germains issue du nouveau couple ainsi qu'une entité de germains issue de chacun des conjoints, elle regroupe à la fois des germains, des quasis et des demis frères. La fratrie recomposée soulève un certain nombre de question en rapport avec le nom de famille des enfants. Les enfants ayant des pères différents ont des noms de famille différents au sein de la fratrie recomposée (Angel, 1996). Se pose aussi la question de la filiation. Les quasis frères n'ont aucun lien de parenté et les enfants ont des liens différents avec les figures parentales présentes dans le foyer. De plus la répartition de l'espace peut être remise en cause. Dans certains cas l'enfant est amené à partager sa chambre et voir ainsi son espace personnel se modifier et être envahi. Il arrive aussi que l'enfant n'aie pas d'espace à lui en tant que tel chez l'un des parents par manque de place et dorme par exemple dans le salon (Siméon, 1999). En outre, la taille et la composition de la fratrie change entraînant une redéfinition des positions et des rôles dans la fratrie, les aînés peuvent ainsi perdre leur rang et leur rôle d'aîné dans la fratrie recomposée. Ces changements de position et de rôle peuvent déstabiliser les aînés qui ne retrouvent plus leur place tant auprès des adultes qu'auprès des membres de la fratrie, ils perdent leur statut de confidents auprès des adultes et au niveau de la fratrie, leur pouvoir et leur utilité (Angel, 1996; Siméon, 1999). De plus, les aînés de fratrie impliqués dans une séparation et une recomposition peuvent être amenés à combler les vides affectifs, à remplir les fonctions laissées vacantes, à être des confidents, à prendre soin des plus jeunes et à être des espions pour les parents auprès de l'autre famille. Ces rôles et fonctions les marginalisent progressivement et affectent leur processus de socialisation. Le poids de ces responsabilités peut être à l'origine de comportements défensifs tel que la prise de poids pour se croire plus apte ou des dépressions (Siméon, 1999). 51 Chapitre 2. Trajectoire et dynamique de la famille recomposée Dans l'ensemble, cette configuration de fratrie peut avoir un effet sur le développement de chacun des enfants qui la compose comme l'indique l'étude de Tillman (2008). Cette étude explore la proportion à laquelle le fait de vivre avec une fratrie de composition "non traditionnelle" explique le lien entre les problèmes académiques et le fait de vivre dans une famille recomposée. Les analyses de Tilman (2008) sont basées sur les données du « National Longitudinal Study of Adolescent Health ». Les résultats indiquent qu'une fratrie « non traditionnelle » est associée à un bas niveau académique et un haut niveau de problèmes de comportement liés à l'école. De plus, les problèmes associés à une fratrie « non traditionnelle » s'accroissent ou restent constants tant que les membres de la famille vivent ensemble. Les autres aspects de la famille recomposée qui affectent les résultats académiques des jeunes semblent être la complexité, l'ambigüité et le stress liés au fait de vivre avec une fratrie « non traditionnelle ». Par ailleurs, l'étude de la fratrie recomposée est marquée d'une part par des comparaisons entre les différents groupes fraternels qu'elle renferme et entre ces groupes et la fratrie germaine dans les familles nucléaires. D'autre part, les liens rattachés à la recomposition c'est-à-dire les quasi et demi-frères sont analysés. L'étude de Bernstein (1997) se situe dans ce cadre. Elle a analysé les variables qui affectent les relations entre l'enfant d'une première union et l'enfant né dans la famille recomposée. L'auteur a interviewé 155 participants issus de 55 familles recomposées. Les analyses qualitatives des données indiquent que la nature et la qualité des relations des demifrères sont variées, complexes et déterminées par plusieurs facteurs dont : le niveau de développement de la famille recomposée à la naissance de l'enfant de la nouvelle union ; l'âge et les enjeux du stade de développement de l'aîné en ce moment ; la différence d'âge entre les demi-frères ; le nombre d'enfants dans chaque fratrie germaine ; le genre du parent et du beau-parent, le type de famille recomposée (simple ou complexe) puis le système de garde avec les conflits dans les relations entre les foyers. Au niveau des comparaisons, Anderson (1999) s'est intéressé à la qualité des relations fraternelles dans les fratries germaines, entre demi-frères, et entre quasi-frères vivant dans une famille recomposée et celles de fratries germaines de familles non recomposées. Les fratries qui participent à l'étude sont des dyades de même sexe avec une différence d'âge de 5 ans maximum. Les moyennes d'âge dans les différents groupes sont comprises entre 12 et 15 ans. Les positions dans la fratrie sont variées. Les relations fraternelles sont appréhendées à l'aide d'une version révisée par Anderson et Rice (1992) du « Sibling Inventory of Behavior de Schafer et Edgerton, (1981). Les six 52 Chapitre 2. Trajectoire et dynamique de la famille recomposée dimensions de cette version révisée sont : la rivalité, l'agression, l'embarras/l'évitement, enseignement/directivité, empathie, camaraderie. L'analyse des facteurs a permis de souligner un aspect positif et un aspect négatif. Les résultats mettent en exergue une relation entre quasi-frères qu'Anderson (1999) qualifie d'unique. Elle se différencie des autres par le fait qu'elle est moins négative, et de façon singulière, elles présentent moins d'agressivité et de rivalité. Mais elles ne sont pas pour autant plus positives que les autres relations. En outre, les relations entre demi-frères/soeurs sont celles qui sont le plus proches des relations dans les fratries germaines de familles non recomposées. Il y a peu de différence entre les relations fraternelles entre demi-frères dans la famille recomposée et fratries germaines dans les familles non recomposées. De plus les facteurs personnels et le temps semblent jouer un rôle important dans les relations fraternelles. En effet les dyades de filles montrent plus d'empathie, sont plus directive, dans leur relation que les dyades de garçons. Mais il n'y a pas de différence entre les filles et les garçons sur les autres aspects des relations fraternelles. Au fil du temps, les relations fraternelles des adolescents sont caractérisées par moins de rivalité, d'agression et de camaraderie, mais le niveau d'empathie reste similaire et le déclin dans les relations fraternelles est plus visible chez les garçons. Les résultats d'Anderson (1999) sur les relations entre quasi-frères/soeurs peuvent être éclairés par les résultats de Farmer (2006). Celle-ci porte sur la dynamique des relations entre quasi-frères selon le point de vue des quasi-frères eux-mêmes. Dans ce cadre, des entretiens ont été menés avec 29 jeunes adultes qui ont un quasi-frère. Les participants appartiennent à des familles recomposées avec un remariage, en cohabitation et des familles recomposées de premier mariage. Les fratries vivent ensemble ou non. L'échantillon consiste en 29 participants âgés de 18 à 33 ans. L'entretien était basé sur les thèmes suivants : la formation de la relation avec le quasi-frère ou la quasi-soeur et la qualité de celle-ci ; l'utilisation par les participants du terme « quasi » et leur définition de la famille ; comment selon eux les membres de la société perçoivent la famille recomposée et comment leur perception a influencé leur relation de quasi-frère/ soeurs. Les résultats indiquent que les quasi-frères/soeurs peuvent avoir : - une relation de « co-confident », caractérisée par une confiance mutuelle et le fait de pouvoir compter l'un sur l'autre ; selon les participants la relation est importante même si elle n'est pas comme la relation avec la fratrie germaine. La relation de co-confident est associée à l'acceptation de la nouvelle structure familiale, au développement de relations, au soutien 53 Chapitre 2. Trajectoire et dynamique de la famille recomposée mutuel, à une absence de sentiment de gène par rapport à leur relation et à des relations familiales positives en générale. - une relation « neutre » qui même si elle n'est pas aussi positive que la relation de coconfident n'est pas pour autant négative. Il n'y a pas d'attachement émotionnel pour le quasifrère ou la quasi-soeur. Cette relation neutre peut être mise en lien avec les relations ni négatives ni spécialement positives relevées entre quasi-frères/soeurs par Anderson (1999). La recomposition familiale conduit à une nouvelle structure fraternelle. Elle remet en cause les liens et les positions dans la fratrie. Les relations fraternelles entre quasi-frères et demi-frères sont différentes et ont chacune leur spécificité. La famille recomposée renvoie à un ensemble de particularités et de défis du fait qu'elle est une transition familiale qui se met en place à la suite d'autres transitions familiales. Elle hérite de l'histoire et de l'organisation de la première structure familiale ce qui peut rendre son fonctionnement complexe. La recomposition familiale modifie la structure de la famille. Elle introduit de nouveaux membres et redéfinit les liens familiaux. L'enfant de famille recomposée est amené à s'approprier ces changements. Le prochain chapitre vise à analyser les composantes du processus d'appropriation de la famille recomposition chez l'enfant. 54 Chapitre 3. Appropriation de la famille recomposée Chapitre 3. Appropriation de la famille recomposée I. Bases théoriques En psychologie du développement, l'appropriation peut être définie comme un processus par lequel le sujet se construit dans ses rapports avec la société. Elle est rattachée aux processus de subjectivation, de socialisation et d'interstructuration. Malrieu (1976) définit la subjectivation comme le processus par lequel l'enfant devient sujet. Elle est « l'activité par laquelle se produit la mise à distance à l'égard d'activité assumées, par l'installation dans une visée autre, et la mise en relation de ses activités à cette visée autre » (op.cit., 10). Selon lui, les activités assumées sont par ce processus dénaturées ; (re) signifiées ; prises dans un conflit ; lieu d'une totalisation provisoire, par un contrôle qui vise à maintenir ensemble deux activités de sens divergent. Malrieu (1976) émet des hypothèses selon lesquelles les conduites peuvent être extraites de leur finalité originelle par le déplacement, celui-ci émanant d'une mise en relation de deux désirs, et est une activité d'acculturation. L'enfant est amené à trouver un compromis entre ses désirs et ceux de l'adulte et cela entraîne un conflit qui est surmonté par une identification à autrui. Pour être refoulé, l'activité primitive est (re)signifiée et cette (re) signification exige que l'enfant s'identifie à l'autre. Cette identification permet une composition de l'activité ancienne avec les conduites culturelles qui confèrent leur signification à cette activité. En outre, la subjectivation passe par plusieurs phases. La première, la phase présymbolique s'étend sur les douze premiers mois de l'enfant. Elle part des premières interactions de l'enfant avec son milieu et débouche sur une présubjectivité. Malrieu (1976) utilise le terme de présubjectivité et non de subjectivité parce que : - l'enfant utilise certaines expériences de son passé ; - il intervient comme cause des modifications du milieu et surtout des réactions d'autrui, avec le sentiment d'un pouvoir sur celui-ci ; - il manifeste son attachement à autrui, et différentie ses réactions aux personnes. Selon lui, le terme de subjectivité parce que les réactions de l'enfant obéissent à un processus de conditionnement qui exclue une intention. 55 Chapitre 3. Appropriation de la famille recomposée L'appropriation des comportements constitue, avec le langage, la deuxième phase de la subjectivation, la phase symbolique. Malrieu (1976) situe l'étape de l'appropriation du comportement entre 10 et 20 mois. Selon lui, l'appropriation s'effectue sur le fondement des imitations simples. Il rejoint Wallon (1942) sur le lien entre appropriation et imitation. En effet, Malrieu (1976) définit l'étape de l'appropriation comme celle où le sujet se constitue comme centre d'action et centre de signification. L'intention fonde ses actes, elle lie le passé au présent. « Le comportement est-il effectué à distance de lui-même ; il est signifié comme expression du moi, revendiqué comme manifestation d'autonomie (l'enfant veut agir tout seul) en face d'autrui ». (op. cit.,16). L'appropriation est un processus central dans la subjectivation chez l'enfant. Elle est déplacement, identification, (re) signification et dans le même temps autonomie, contrôle et orientation de ses conduites, signification de ses actes et début d'identité dans le temps. L'appropriation donne sa substance au sujet. Elle fait du sujet un coacteur de son développement psychosocial. L'enfant restructure les apports de son milieu et se construit comme un sujet social par appropriation. Cette part active du sujet apparaît également dans la socialisation de l'enfant avec la personnalisation. L'appropriation est un des fondements de la socialisation définie comme un processus à deux versants : l'acculturation et la personnalisation (Malrieu & Malrieu, 1973 ; Malrieu, 1976). L'acculturation renvoie à la transformation continue des conduites primitives dans le cadre des modèles proposés par les milieux sociaux dans lesquels est plongé l'enfant et la personnalisation est le processus par lequel l'enfant restructure les systèmes d'attitudes et les cadres de références élaborés dans les pratiques de l'éducation, (Malrieu & Malrieu, 1973). La socialisation se définit sous ces deux aspects parce que les pratiques culturelles transmises à l'enfant sont sources de conflit pour lui de par les contradictions qu'elles peuvent comporter. La résolution de ces conflits nécessite, de la part de l'enfant, une activité d'organisation, de redéfinition, d'appropriation de ces apports sociaux. L'appropriation soustend la personnalisation, elle permet la coordination des fins et des moyens, des idéaux et des capacités réelles et actuelles du moi et des autres en fonction des situations et des institutions. La personnalisation renvoie à des tentatives constamment renouvelées d'unification du moi, basées sur un équilibre entre les besoins, les désirs du sujet et les normes et institutions sociales (Tap, 1988). 56 Chapitre 3. Appropriation de la famille recomposée Dans ce même ordre d'idée, l'appropriation intervient dans l'interstructuration sujetmilieu. Malrieu (1976, 9) définit le sujet comme « le processus d'intégration suscité par la rencontre d'une totalisation interne et d'une totalisation externe toutes deux traversées de conflits ». Il part de l'hypothèse que l'enfant et son milieu sont à la recherche d'une unité et se servent l'un de l'autre pour l'atteindre. La recherche d'unité du sujet conduit à un mouvement d'unification du milieu qui est dans le sujet. Cette recherche est constante pour l'enfant dans la mesure où ses premières unifications sont sans cesse remises en cause, entre autres, par la maturation ou les crises de société. Le sujet a ainsi une fonction de séparation autant que d'unification. Il assure l'alternance des unifications mais aussi leur articulation par déplacement d'une position à une autre. Pour Baubion-Broye, Malrieu et Tap (1987), l'appropriation est le moyen par lequel se réalise la première des quatre phases de l'interstructuration, l'ancrage plural et l'emprise socio-culturelle. Selon ces auteurs, l'appropriation permet à l'individu soumis à des influences multiples de s'ancrer dans les relations duelles ou plurielles avec autrui, de s'intégrer dans les réseaux culturels et les rapports sociaux, et de construire ses propres réseaux cognitifs, axiologiques et praxiques. En référence à ces éléments théoriques, l'appropriation de la famille recomposée met le sujet au centre du processus de recomposition et le conduit à définir des stratégies de recomposition et de coping qui lui sont propres. L'appropriation permet au sujet de s'adapter (adaptation/assimilation) aux changements et aux particularités de sa famille, de répondre à ses besoins psychosociaux et d'avoir une qualité de vie satisfaisante. II. L'appropriation dans la représentation de la famille La représentation dépend de la fonction symbolique. Laterrasse (1993) la définit comme la fonction qui consiste dans la substitution d'une réalité x (le signifiant) à une réalité absente y (le signifié) à laquelle x renvoie. En effet, la fonction symbolique établit un lien entre un signifiant et un signifié. Elle rend possible l'acquisition du langage, ou des signes collectifs et elle est également liée aux symboles ou images intervenant dans le développement de l'imitation, du jeu et des représentations (Piaget, 1945). L'enfant acquiert la fonction symbolique vers 18 mois/2 ans et redéfinit son rapport au monde. Elle lui permet d'organiser ses connaissances sur lui et sur le monde, de construire des représentations, qui 57 Chapitre 3. Appropriation de la famille recomposée structurent le lien social, orientent son rapport au monde et guident ses conduites. Selon Wallon (1946), l'enfant est un être social et se construit dans ses interactions avec l'autre. L'enfant est un sujet dépendant de l'autre et de son appartenance sociale mais il est aussi un sujet face à l'autre, un sujet actif dans son environnement social. Il passe progressivement d'actes typiquement moteurs à des actes réfléchis soutenus par des représentations (Wallon, 1942). La construction des représentations se fait sur la base de représentations sociales c'està-dire de représentations communes à une communauté à un groupe. L'enfant construit sa représentation de la famille sur la base de la représentation sociale de la famille à laquelle il est confronté. Selon De La Haye (1982), les règles qui définissent la composition et le fonctionnement normal des familles sont assez homogènes dans toutes les strates de la société. La famille est donc l'objet de représentations sociales largement partagées. De plus, « le discours social sur la famille, non seulement préexiste au discours individuel mais surtout il préexiste à l'expérience individuelle de la famille, il fournit au sujet le vocabulaire et les fragments de théorie selon lesquelles celui-ci formulera son expérience » (op. cit., 307). L'enfant replace les représentations sociales de la famille dans le contexte familial dans lequel il vit. Il les réorganise, en retenant certains éléments et en remplaçant d'autres, et il élabore ainsi sa propre représentation de la famille en général, et simultanément sa représentation de sa propre famille (De La Haye, 1982). La représentation de la famille du point de vue de l'enfant a été étudiée dans son lien avec les conflits conjugaux, le type de famille, mais également sous l'angle des rôles parentaux, des relations familiales et de la configuration de la famille. II.1. Conflits conjugaux et représentation de la famille L'enfant est un élément essentiel dans l'étude des conflits conjugaux. En effet, Erel et Kissil (2003) ont montré qu'il est une meilleure source d'information sur les conflits parentaux et leur impact sur son développement que les parents et les observateurs. Ainsi selon l'étude de Shamir, Schudlich et Cummings (2001), les conflits conjugaux ont une influence sur la représentation des relations familiales de l'enfant âgé de 5 à 8 ans. Ces auteurs ont analysé le lien entre les stratégies de conflits (évitement ou capitulation, collaboration, impasse, agression verbale, agression physique, implication de l'enfant, exposition de l'enfant) utilisées par chacun des deux parents et la représentation des sous-systèmes 58 Chapitre 3. Appropriation de la famille recomposée familiaux chez l'enfant. Les résultats indiquent que toutes ces stratégies de conflits sont liées à une représentation négative des relations familiales chez l'enfant. Cependant, la stratégie de l'impasse est celle qui prédit le mieux une représentation négative des relations familiales. De plus, les stratégies négatives (évitement ou capitulation, agression verbale, agression physique) sont liées à une représentation très négative des sous-systèmes familiaux. La collaboration qui est une stratégie positive donne une représentation moins négative, mais pas positive des sous-systèmes familiaux. Par ailleurs, l'exposition de l'enfant aux conflits est la stratégie qui est liée à une représentation négative des quatre sous-systèmes de la famille. Dans la même perspective, Winter, Davies, Hightower et Meyer (2006) ont étudié le lien entre les conflits conjugaux, la qualité de la communication des instituteurs sur les événements stressants de la famille et la représentation de la famille d'enfants d'âge préscolaire. Les résultats de leur étude indiquent que les enfants présentant un haut niveau de représentation sécure de la famille bénéficient d'une cohérence entre un bas niveau de discorde familiale et une communication qui renforce la sécurité familiale. Au contraire, une incohérence entre les expériences familiales et la communication, c'est-à-dire un haut niveau de discorde familiale et une communication qui affaiblit la sécurité familiale, donne un niveau faible de représentation sécure chez l'enfant. De plus, les conflits conjugaux et les représentations négatives des relations familiales de l'enfant qui s'y rattachent, orientent les conduites des enfants. Les enfants âgés de 5 à 8 ans qui montrent des dispositions négatives envers les conflits entre pairs et des comportements agressifs dans les scénarios de conflit entre pairs, ont des parents qui ont des rapports conflictuels. La représentation des rapports parents-enfant est une variable intermédiaire entre les conflits conjugaux et la conception que l'enfant a des comportements conflictuels envers les pairs (Schudlich, Shamir, Cummings, 2004). Ces études montrent l'influence des conflits conjugaux sur la représentation de la famille et la conduite des enfants. D'autres études ont mis en évidence l'influence de la structure de la famille sur la représentation de la famille chez l'enfant. II.2. Structure familiale et représentation de la famille La structure familiale est également au centre des études sur la représentation de la famille. La représentation de la famille sous cet angle renvoie à la différence famille recomposée/famille non recomposée et à son appropriation par l'enfant. Aussi, il apparaît que 59 Chapitre 3. Appropriation de la famille recomposée les enfants de famille recomposée ont des stratégies de recomposition qui peuvent être différentes de celles mises en place par les figures parentales (Mietkiewivz & Schneider, 2005). L'étude de Wedemeyer, Bickhard et Cooper (1989) peut être située dans cette optique. Ils ont, dans une étude transversale, mesuré l'effet du stade de développement de l'intelligence, du sexe, et du type de famille sur la représentation de la famille par l'enfant. Des enfants des stades préopératoire, opératoire concret et opératoire formel appartenant à des familles « intactes » et des familles divorcées ont été interrogés. Leurs réponses ont été analysées sous deux aspects : le niveau de complexité des concepts utilisés et les dimensions de la famille (relations familiales, biologie, fonctions domestiques, facteurs législatifs, la corésidence, les facteurs émotionnels et les rôles sociaux) auxquelles ces concepts sont liés. Les résultats indiquent d'une part que la complexité des concepts utilisés par les enfants est fortement liée au stade de développement de l'intelligence et au sexe à un degré moindre. D'autre part, ils révèlent que la fréquence d'utilisation des dimensions de la famille est fortement influencée par le niveau général de développement et non par le stade de développement de l'intelligence en particulier, par les « modifications » de la famille et à un degré moindre, par le sexe. Cette étude souligne l'influence du type de famille, divorcée ou non, sur la représentation de la famille. Dans une autre approche basée sur le dessin de la famille, Dun, O'Connor et Levy (2002) ont, quant à eux, analysé la composition et la configuration de la famille selon la représentation d'enfants âgés de 5 à 7 ans. Les relations entre le type de famille et les liens biologiques d'une part, et l'omission de membres de la famille et le regroupement des parents d'autre part, ont été examinés. L'analyse des dessins montre que les enfants de famille recomposée et monoparentale ont plus tendance à exclure des membres de la famille que les enfants de famille non recomposée. De plus, les exclusions dépendent des liens biologiques. Les enfants ayant un lien biologique avec les deux parents résidents ont plutôt tendance à regrouper leurs parents. Ces résultats sont confirmés dans une autre étude réalisée par Roe, Bridges, Dunn, O'Connor (2006). Cette dernière porte sur les dessins de famille de 166 enfants âgés de 7 ans. Elle confirme et précise les résultats de l'étude précédente. Ainsi, les demi-frères et les quasi-frères sont plus susceptibles d'être exclus que les frères et soeurs germains, et les Membres non-résidents de la famille étaient plus susceptibles d'être exclus que les membres résidents. Le lien biologique et la résidence semblent être des aspects importants de la représentation de la famille des enfants de familles recomposées. Mais d'autres facteurs 60 Chapitre 3. Appropriation de la famille recomposée peuvent fonder les représentations de la famille chez l'enfant de famille recomposée. Ils se traduisent par d'autres processus et d'autres restructurations de la famille. Théry (1991) note la tendance au niveau de la fratrie de réunir l'ensemble des enfants sous le terme de frère. Le fait de désigner sous un terme unique les liens entre enfants « est une forme d'indifférence qu'on affiche, qu'on revendique : peu importe que la famille soit composite, si elle trouve une unité dans la qualité d'un attachement mutuel, peut être plus précieux de n'être pas imposé par la naissance » (op.cit., 149). Dans une approche psychanalytique, Hurstel et Carré (1993) relèvent dans le choix généralisé de l'appellation frère et les stratégies développées autour de ce choix fait par les sujets, certains processus psychiques spécifiques aux fratries recomposées notamment le déclenchement d'un mécanisme de défense par rapport à une situation encore trop stigmatisante, et la volonté de témoigner de la solidarité du réseau. Ces tendances au niveau de la fratrie et les objectifs qu'elles sous tendent se rapportent à la différence que les enfants font entre leur famille recomposée et les familles non recomposées. Elles indiquent que les enfants la rapproche des familles non recomposées. Cette conception est confirmée par les données des entretiens semi-directifs menés par Saint-Jacques et Chamberland (2000) auprès de 26 jeunes de familles recomposées. Ces jeunes semblent ne pas attribuer une étiquette d'anormalité à leur famille. L'élément important pour eux paraît être la présence de deux figures parentales avec lesquelles ils sont en interaction quotidienne. La présence des deux figures parentales fait que la famille recomposée leur donne la possibilité de vivre une « vraie vie de famille ». Les résultats de l'étude de Poittevin (2005) sont plus explicites. Elle a réalisé une étude sur 55 enfants âgés de 7 à 20 ans qui ont exprimé leur conception personnelle de la fraternité, basée sur leur vécu et leur ressenti. Les dénominations qu'ils utilisent sont des indicateurs des relations et des liens qu'ils ont avec les autres enfants. Son analyse des entretiens des enfants de famille recomposée sur leur relation fraternelle a fait ressortir une nouvelle catégorie : « frères et soeurs d'habitation ». Cette catégorie désigne les « enfants qui ne sont pas frères et soeurs de sang mais qui partagent des expériences familiales et fraternelles dans un lieu commun » (op.cit., 197). En référence aux normes sociales, ils utilisent également les termes de frère et soeur pour désigner les « demi » ou les « quasi » frères avec lesquels ils ont des liens forts. Mais, Poittevin (2005) relève également que les dénominations frères et soeurs permettent aux enfants de se rapprocher de l'idéal parental de la fratrie recomposée. Ils rendent compte aussi de l'intention de l'enfant de maintenir sa propre intégration dans le 61 Chapitre 3. Appropriation de la famille recomposée groupe et d'occuper au mieux sa place sociale. Par ailleurs, elle note une différence entre les enfants uniques et les germains. Les enfants uniques utilisent frères et soeurs pour désigner leurs demi et quasi frères, alors que les germains utilisent « frères et soeurs » pour leurs propres germains et des comparatifs tels que « presque comme un frère/une soeur » pour leur demis et quasi frères. Ces études qui abordent la représentation de la famille recomposée sous l'angle de la structure, font ressortir une représentation de la famille recomposée qui, de manière générale, se réfère à la famille nucléaire. Mais deux processus de recomposition sont mis en exergue. La première est de définir une famille proche de la famille nucléaire en se basant sur le lien biologique et en excluant certains membres de la famille recomposée. La deuxième est de regrouper tous les membres dans une seule famille en se basant dans certains cas sur le vécu. La représentation de la famille comporte un autre axe, celui des rôles parentaux. Son analyse permet d'accéder à d'autres aspects du point de vue de l'enfant. II.3. Représentation des rôles parentaux La représentation de la famille chez l'enfant inclut les rôles parentaux. Elle porte alors sur la représentation que les enfants ont des rôles parentaux en général et dans la famille recomposée. Schvaneveldt, Fryer et Ostler (1970) ont interrogé des enfants âgés de 3 à 5 ans sur leur perception du « bon » et du « mauvais » parent. Les résultats indiquent que les enfants arrivent très bien à verbaliser leur perception à cet âge. Ils perçoivent leurs propres parents comme « bons » dans l'ensemble. De plus, les garçons mettent plus l'accent que les filles sur la nourriture, les tâches domestiques et les soins maternels dans leur présentation de la « bonne maman ». Les filles par contre évoquent plus les activités récréatives que les garçons. La « mauvaise » mère est pour les garçons celle qui montre des failles au niveau des tâches domestiques et des soins maternels alors que pour les filles il est plus question de discipline et d'autorité. Le « bon » papa est pour les filles celui qui participe aux tâches domestiques et aux soins donnés à l'enfant alors que les garçons font plus référence aux activités récréatives. Le mauvais père est pour les filles comme pour les garçons, défini en rapport avec le manque de discipline et de responsabilité familiale. Ces résultats montrent que la répartition sexuelle des rôles est déjà importante dans les liens que font les enfants entre leurs besoins et les figures parentales. Dans le même ordre d'idée, Watson et Amgott-Kwan (1983) ont analysé les étapes 62 Chapitre 3. Appropriation de la famille recomposée de la conception des rôles parentaux chez l'enfant entre 3 et 7 ans. Entre 3 et 4 ans, les enfants décrivent les rôles parentaux en termes de comportements strictement appropriés aux rôles. Vers 6 ans, ils sont capables de concevoir le rôle parental en lien avec un autre rôle complémentaire. Et vers 7 ans, la plupart des enfants peuvent décrire et expliquer comment deux rôles familiaux peuvent se présenter simultanément chez la même personne. L'évolution de la conception des rôles avec l'âge a été également mise en évidence par Fu, Goodwin, Spoarkowki et Hinkle (1987). Ils ont interrogé des enfants âgés entre 4 et 10 ans sur leur conception de la famille et des rôles parentaux. Les résultats indiquent que les enfants les plus âgés étaient plus aptes à définir les multiples rôles des parents et la fonction de la famille ainsi que la relation entre ces deux facteurs. Dans le contexte de la famille recomposée, Saint-Jacques et Chamberland (2000) ont à partir de 26 entrevues avec des jeunes de familles recomposées âgés en moyenne de 15 ans, relevé 4 logiques de recomposition: - la logique de substitution (15 situations) : elle se caractérise par le fait que le beau-parent joue un rôle de parent auprès de l'enfant alors que le rôle du parent biologique quand il est présent dans la vie du jeune, se limite à la sphère des loisirs, de l'affectivité et du soutien financier. - La logique de pérennité (4 jeunes) : elle se caractérise par le fait que les ex-conjoints continuent d'assumer leur rôle au-delà de la séparation conjugale et du fait de ne pas vivre constamment avec leur enfant. Les relations entre eux sont harmonieuses et basées sur la coopération. Le jeune a un libre accès à ses parents et entretient des contacts réguliers avec eux. - La logique d'exclusion (3 situations) : elle se caractérise par le fait que le jeune ne se sente pas intégré à la famille recomposée. Les jeunes de ce groupe vivent principalement dans une famille monoparentale matricentrique et à temps partiel au sein d'une famille recomposée patricentrique. La relation avec la mère gardienne est très positive alors qu'elle est conflictuelle avec le père non gardien. - La logique de monoparentalité (4 situations), ici le rôle du beau-parent gardien se limite à celui de conjoint du parent. Il n'est ni un parent de substitution, ni un parent en plus. L'enfant construit sa représentation de la famille selon son âge, selon le type de famille à laquelle il appartient et les relations qu'il établit avec les membres de sa famille. L'appropriation de la famille recomposée passe par une redéfinition de la structure familiale 63 Chapitre 3. Appropriation de la famille recomposée et des liens familiaux. Elle implique par ailleurs de faire face aux difficultés liées à la recomposition et au stress qu'elles entraînent. III. Appropriation par stratégie de Coping III.1. Définition et approches théoriques du stress et du coping Le terme de « coping » est un terme anglosaxon. En effet, il vient de « to cope with », c'est-à-dire gérer avec succès, faire face, venir à bout et ce terme renvoie de manière générale à la gestion de situations difficiles et du stress qu'elles entrainent. Le coping implique une situation stressante entraînant la rupture d'un équilibre chez la personne. Ainsi, les stratégies de coping ou stratégies adaptatives désignent les moyens mis en oeuvre par la personne pour faire face au stress et retrouver son équilibre. La recomposition familiale comporte une part de stress dans la mesure où elle constitue la rupture d'un ancien équilibre que représentait la famille nucléaire. Ce stress est lié aux changements, à la construction de nouvelles relations et de nouveaux liens (Hetterington, 1992). Les enfants de familles recomposées peuvent être amenés à faire face à ce stress et à mettre en place des stratégies de coping. Différentes approches du stress et du coping se dégagent de la littérature : l'approche physiologique, l'approche psychodynamique et l'approche contextuelle ou théorie transactionnelle. Nous allons poursuivre notre analyse du concept de coping en présentant les éléments essentiels de chacune de ces approches. III.1.1. L'approche physiologique L'approche physiologique est l'une des premières approches du stress. Elle a été développée par des précurseurs comme Canon (1927) qui a émit l'hypothèse que toute menace a pour résultat une réaction de fuite ou de combat et que cette réaction est une réaction au stress qui peut être physique ou social. A la suite de Canon, Selye élabore en 1956 une théorie sur « le syndrome général d'adaptation ». Ce syndrome désigne un ensemble de symptômes qui apparaissent en réponse à toutes formes d'agression subie par l'organisme. Il évolue selon trois stades successifs : le stade de la réaction d'alarme au cours duquel les forces de défenses sont mobilisées ; le stade de résistance au cours duquel les ressources sont utilisées pour l'adaptation à l'agent stressant et enfin le stade d'épuisement qui reflète l'insuffisance des ressources et se traduit par l'apparition de troubles somatiques. Selye 64 Chapitre 3. Appropriation de la famille recomposée (1956) définit le stress comme une réponse non spécifique du corps à une demande de l'environnement. Les stresseurs provoquent des réactions biologiques d'adaptation au niveau du corps qui sont des indicateurs du stress. L'auteur distingue les réactions positives d'adaptations « eustress » des réactions négatives d'adaptation « distress ». L'approche physiologique du stress apporte des éléments qui participent à la compréhension des composantes biologiques du stress. Mais elle comporte des limites dans la mesure où elle ne repose que sur le schéma stimulus-réponse et est essentiellement physiologique. De plus, elle ne prend pas en compte les aspects psychologiques du stress et les différences interindividuelles. La part active du sujet dans la perception du stress et dans la construction des réponses adaptatives n'est également pas prise en compte. La théorie n'intègre pas l'influence des ressources psychologiques et sociales. III.1.2. L'approche psychodynamique L'approche psychodynamique du stress et du coping a pour fondement la psychologie du moi et les mécanismes de défense de la psychanalyse. Dans cette approche, le coping est appréhendé comme un mécanisme de défense du moi. Il désigne des moyens cognitifs inconscients utilisés par le moi pour réduire ou supprimer l'angoisse (Paulhan, 1992 ; Dumont, 2001). Les mécanismes de défense ont été catégorisés en stratégies plus ou mois adaptatives. Plus une stratégie est souple, par opposition à rigide, proche de la réalité ou mature, plus elle est adaptative. Ainsi, les mécanismes tels que la projection sont des stratégies moins adaptatives que des mécanismes tels que l'humour, l'anticipation, l'altruisme, la sublimation (Vaillant, 1977 ; Vaillant, 2000). Une autre conception du coping se rattache à cette approche est celle du coping comme un trait de personnalité. L'idée ici est que les personnes ont des « styles de coping », c'est-à-dire que, face à des évènements stressants, elles auront tendance à utiliser certains types de stratégies de coping plutôt que d'autres (Dumont, 2001). Selon cette conception, certaines caractéristiques stables de la personne vont orienter les stratégies de coping qui seront les mêmes (constantes) d'une situation à une autre comme des traits de personnalité (Paulhan, 1992). De plus l'approche psychodynamique met l'accent sur un aspect important du stress et du coping qui est la réduction des tensions et des conflits internes par la régulation des émotions. Elle analyse les processus inconscients mis en oeuvre par le sujet pour retrouver son 65 Chapitre 3. Appropriation de la famille recomposée équilibre émotionnel. Mais elle reste incomplète parce qu'elle n'aborde pas l'autre aspect du coping, à savoir la résolution de problème et les stratégies conscientes du coping (Paulhan, 1992). En outre, appréhender les stratégies de coping comme des traits de personnalité revient à ignorer les variations intra individuelles et les variations dues aux caractéristiques de la situation. III.1.3. La théorie transactionnelle III.1.3.1. Le stress dans la théorie transactionnelle Le modèle transactionnel personne-environnement considère qu'il y a stress lorsque la personne est confrontée à une situation pour laquelle elle ne dispose pas des ressources suffisantes pour y faire face (Lazarus, 1966). Le stress résulte d'une relation personneenvironnement qui est évaluée par la personne comme excédante pour ses ressources ou menaçante pour son bien-être (Lazarus & Folkman, 1984). L'élément central dans cette approche est donc l'évaluation que le sujet fait de la situation et de ses ressources. Cette évaluation se situe entre le stresseur et la réponse de stress. Elle va être différente d'un individu à l'autre, mais aussi pour un même individu à des moments différents et d'une situation à une autre. L'évaluation est une transaction entre l'individu et l'environnement qui implique une interaction entre les caractéristiques de la personne et celles de l'environnement. Les caractéristiques de la personne les plus déterminants dans l'évaluation sont l'engagement (commitments) et les croyances (beliefs). Ces deux caractéristiques influencent l'évaluation en déterminant ce qui est important pour le bien-être dans une situation donnée. Elles modèlent la compréhension que la personne a de la situation, donc ses émotions et ses stratégies de coping et donnent les bases pour l'évaluation des résultats. L'engagement exprime ce qui est important pour la personne et ce qui a du sens pour elle. Ainsi, le sujet détermine ce qui est dangereux dans une situation stressante particulière. Toute situation qui implique de maintenir un fort niveau d'engagement sera évaluée comme très significatif dans la mesure où les résultats ont des préjudices ou menacent l'engagement ou facilite son expression. L'engagement sous-tend également les choix que font les personnes ou qu'elles sont préparées à faire pour maintenir des valeurs idéales ou pour atteindre des buts. L'engagement a une composante cognitive en termes de choix et de but à atteindre, mais il a aussi une composante émotionnelle qui apporte du mouvement, de l'intensité, de la persistance, de l'affectivité et de la direction à la réponse du sujet. 66 Chapitre 3. Appropriation de la famille recomposée Par ailleurs, les croyances déterminent la réalité des éléments c'est-à-dire comment ils se présentent dans l'environnement. Elles façonnent la compréhension des éléments et ont une influence implicite sur la perception que le sujet a de sa relation avec son environnement. Leur influence devient plus explicite lorsqu'elles connaissent un changement important ou lorsque la personne passe à un système de croyance très différent. Quant aux caractéristiques de la situation, elles influencent le résultat de l'évaluation faite par le sujet de sa capacité à y faire face. Une situation peut être évaluée stressante ou non selon qu'elle présente ou non les caractéristiques suivantes : la nouveauté, la prédictibilité, l'incertitude, les facteurs du temps et l'ambiguité. - La nouveauté : Lazarus et Folkman (1984) utilisent le terme de « nouveauté » pour définir les situations nouvelles pour le sujet, situations pour lesquelles il n'a aucune expérience. Dans le processus de stress, une situation nouvelle qui n'a jamais été associée directement ou indirectement à un danger ne sera pas évaluée comme une menace par le sujet. Dans le même ordre d'idée, toute situation qui n'aura pas été préalablement associée à l'excellence ou au profit ne sera pas évaluée comme un challenge par le sujet. Les auteurs soulignent que la plupart des situations ne sont pas entièrement nouvelles pour les sujets. En effet, certains aspects de ces nouvelles situations seront familiers au sujet ou la situation aura une ressemblance générale avec une autre situation. - La prédictibilité : elle fait référence au fait qu'il y a certaines caractéristiques de l'environnement qui peuvent être discernées, découvertes et apprises. Il s'agit d'avertisseurs qui informent le sujet de l'arrivée prochaine d'un évènement et lui permettent de l'anticiper. Ils atténuent l'effet néfaste de la situation. - L'incertitude : le caractère incertain d'une situation peut être source de stress. L'incertitude introduit la notion de probabilité avec une différence entre estimation subjective et estimation objective de la probabilité avec laquelle une situation peut se produire. L'incertitude peut avoir un effet inhibiteur sur un processus de coping anticipé et créer un état de confusion chez le sujet. - Les facteurs du temps : trois facteurs temporels sont pris en compte par Lazarus et Folkman (1984) : l'imminence, la durée et l'incertitude du temps. L'imminence ou non d'une situation a une influence sur le processus d'évaluation et de gestion de la situation. Plus une situation est imminente plus l'évaluation est urgente. Une situation moins imminente va donner lieu à une évaluation plus complexe. Le temps peut augmenter la menace mais il peut également permettre un traitement de la situation sur un versant plus cognitif et réduire le stress. La 67 Chapitre 3. Appropriation de la famille recomposée durée renvoie à la durée de l'évènement, et l'incertitude du temps désigne le fait de ne pas savoir quand l'événement va se produire. Notons que cette incertitude peut susciter des activités de coping pour réduire le stress. - L'ambigüité fait intervenir les facteurs personnels. Elle augmente la menace si des dispositions existent chez la personne ou si d'autres éléments indiquent une potentielle menace. L'ambigüité peut réduire le stress en offrant des interprétations alternatives de la situation. - Le moment de la vie auquel un évènement arrive influence l'évaluation. Un évènement qui arrive à une période inattendu peut être plus stressant, de parle fait qu'il soit inattendu, privant ainsi la personne du soutien appropriée de ses pairs, de la possibilité de se préparer et d'engager des actes de coping anticipés. Lazarus et Folkman (1984) distinguent deux formes d'évaluation, l'évaluation primaire et l'évaluation secondaire. L'évaluation primaire concerne le stresseur. Elle permet de déterminer sa nature, les enjeux qu'elle comporte. L'évaluation secondaire porte sur les ressources dont dispose le sujet pour faire face à la situation. Les indications « primaire » et « secondaire » n'indiquent pas une primauté ou une supériorité de l'une des évaluations sur l'autre mais servent uniquement à les distinguer. Ces deux évaluations sont des processus parallèles et simultanés (Gobance, 2009). Les stratégies de coping sont déterminées par cette double évaluation. Il existe un aller-retour entre ces deux évaluations pour réajuster les stratégies. III.1.3.2. Le coping dans la théorie transactionnelle Une situation jugée stressante crée un déséquilibre chez l'individu et pour réduire ce déséquilibre l'individu met en place un processus de coping. Dans l'approche transactionnelle le coping est appréhendé comme un processus et non comme un trait ou un comportement automatique d'adaptation. Pour Lazarus et Folkman (1984, 141) le coping est « l'ensemble des efforts cognitifs et comportementaux, qui changent constamment, fournis pour gérer des demandes spécifiques externes et internes qui ont été évaluées comme supérieures aux ressources. » Contrairement aux autres approches le coping est lié à une situation précise et il est susceptible de changer d'une situation à une autre. Le coping renvoie à tous les types d'efforts qui visent à gérer le stress quelque soit le résultat. Le 68 Chapitre 3. Appropriation de la famille recomposée coping sert à agir sur la situation stressante pour la modifier (coping centré sur le problème) et réguler les émotions liées au stress (coping centré sur les émotions). Les stratégies de coping d'une personne sont déterminées par les ressources de la personne (santé, énergie, croyances, compétences sociales, support social, ressources matérielles), mais aussi par des contraintes qui peuvent réduire les ressources. Les contraintes personnelles peuvent être des croyances et des valeurs qui interdissent certains comportements tandis que les contraintes environnementales peuvent être les institutions qui contrecarrent les efforts de coping. Les bases théoriques étant précisées, nous allons dans la suite de notre réflexion, passer en revue certaines études qui peuvent nous éclairer sur les stratégies de coping chez l'enfant. III.2. Recomposition familiale et coping L'analyse du coping ou conduites d'adaptation aux situations stressantes portent entre autres sur les aspects stressants des transitions familiales, les stratégies de coping utilisées par les enfants, les déterminants de leurs choix et l'efficacité du coping. La famille recomposée est une structure familiale dont les composantes stressantes peuvent être déduites de sa structure et des enjeux qu'elle implique (Hetherington, 1999). Mais il apparaît encore plus pertinent de questionner le stress dans la famille recomposée tel qu'il est perçu par ses membres. Dans cette optique, Lutz (1983) a examiné les aspects stressants de la famille recomposée selon le point de vue d'adolescents de familles recomposées. Son étude vise à examiner les relations entre les facteurs évoqués dans la littérature, comme ayant un effet sur l'intégration de la famille recomposée et le niveau de stress perçu par les adolescents de familles recomposées. L'étude porte sur 103 adolescents âgés de 12 à 18 ans qui vivent dans une famille recomposée. Ils ont répondu à un questionnaire basé sur 11 aspects de la famille recomposée considérés comme des sources de stress (la loyauté partagée, la discipline, pseudomutualité, avoir un parent biologique qui vit ailleurs, des attentes irréalistes, le désir de voir les parents biologique se réunir, les pertes importantes, la constellation familiale, les questions sexuelles, être membre de deux foyers, les attitudes sociale). Pour chaque aspect, 39 items ont été soumis à l'adolescent, avec les modalités de réponses suivantes, « stressant », « pas stressant » et « ne s'applique pas ». Le questionnaire se termine par trois questions ouvertes. Selon les participants, la loyauté partagée est le premier facteur stressant. Elle désigne le sentiment chez l'adolescent d'être 69 Chapitre 3. Appropriation de la famille recomposée déloyal envers quelqu'un parce qu'il a des sentiments positifs pour une autre personne. Le deuxième aspect le plus stressant est selon les participants la discipline. Elle fait référence à l'établissement et au renforcement de règles familiales. Enfin, le fait d'appartenir à deux foyers familiaux et les attitudes sociales arrivent en fin de liste. Ce sont les aspects de la famille recomposée qui ont été qualifiés de stressants par le moins de participants. En effet, 40% des participants mentionnent avoir expérimenté les réajustements liés au fait d'appartenir à deux foyers, mais il semble que les participants trouvent plus stressant de ne pas pouvoir voir leur parent non gardien que les déplacements entre deux foyers. Les attitudes sociales (expliquer le fait d'avoir un beau-père, avoir un nom différent de celui d'autres membres de la famille) sont les aspects le plus expérimenté par les participants mais ne sont pas considérés comme stressants. L'étude examine également le lien entre le stress perçu par les sujets et des facteurs démographiques. Il y a une corrélation positive entre le temps passé dans une famille recomposée et le niveau de stress perçu par les sujets. Les participants qui n'avaient pas passé plus de 2 ans dans la famille recomposée expriment plus de stress que ceux qui y ont passé plus de deux ans. D'autres études analysent les stratégies de coping et leur efficacité dans le cadre plus spécifique de la séparation parentale, Halpenny, Greene et Hogan (2008) ont réalisé une étude sur la perception qu'a l'enfant du rôle joué par différents types de soutien informel (famille, amis) et formel (service de soutien, école) dans leurs efforts de coping. L'étude a été réalisée en Irlande avec 60 enfants de 2 tranches d'âges 8-12 ans et 14-17 ans. Une approche qualitative a été utilisée avec des entretiens semi-directifs. Il ressort de leur étude que les enfants semblent mieux s'adapter à la séparation quand ils sont satisfaits du système de garde, quand ils sont informés de ce qui se passe au début et tout au long du processus sans être impliqués dans les relations parentales ou conflictuelles à un niveau inconfortable et enfin quand ils évitent l'isolement par des contacts avec d'autres enfants de parents séparés. Au niveau du soutien social, les principaux résultats soulignent l'importance pour l'enfant d'être sélectif sur les personnes auxquelles il demande et dont il accepte le soutien. La famille est la source de soutien préférée pour la majorité des enfants. La plupart des enfants ont recours à la fois au soutien de source formelle et informelle. En dehors de la famille, les services de soutien formel émergent comme la source de soutien la plus valorisée par les enfants en comparaison aux soutiens formels liés à l'école. Les avantages qu'offrent ces services selon les enfants sont multiples. D'abord, ils leurs permettent d'évoquer leurs sentiments dans un 70 Chapitre 3. Appropriation de la famille recomposée environnement sécurisé et rassurant qui aide les enfants à donner un sens à ce qui se passe et à mieux comprendre la situation. Ensuite, ces services offrent un cadre d'échange et de partage d'expérience avec des pairs dans la même situation : participer à des groupes avec des enfants dont les parents sont séparés leur permet de dépasser le sentiment d'être différent et exclu. De plus, les enfants disent avoir l'assurance de construire des relations de confiance et de confidentialité avec les conseillers dans ces services. Enfin, le plus grand avantage qu'offrent ces services aux enfants est de réduire le sentiment d'être isolé. Des aspects développementaux apparaissent aussi dans les réponses des enfants : pour les plus jeunes, les activités qui donnent la possibilité de se distraire étaient plus favorisées que celles basées sur la discussion, alors que pour les plus grands les opportunités d'exprimer leur sentiment étaient plus valorisées. L'obstacle le plus significatif pour recourir à ces services est la crainte d'être stigmatisé, d'être considéré comme un enfant avec des troubles psychologiques ou qui n'a pas réussi à s'adapter. Le coping peut être aussi analysé comme variable médiatrice ou modératrice entre les situations de stress et leurs conséquences sur le développement de l'enfant. Sandler, Tein, Mehta, Wolchik et Ayers (2000) ont analysé le lien entre le coping, l'efficacité du coping et des problèmes psychologiques chez des enfants de parents divorcés. La population de l'étude est composée de 356 enfants âgés de 9 à 12 qui ont des parents divorcés et leurs mères. Le divorce des parents remonte à pas plus de 2 ans. Les facteurs stressants de l'environnement pris en compte dans l'étude sont : les difficultés économiques, les évènements négatifs liés au divorce, la baisse du moral chez la mère. Les résultats de l'étude indiquent que l'efficacité du coping est une variable médiatrice entre les efforts de coping actifs et les problèmes psychologiques chez l'enfant de parents divorcés. Il en ressort que l'utilisation de stratégies actives de coping conduit à une augmentation de la perception de l'efficacité du coping et que l'efficacité du coping conduit à une baisse des troubles internalisés. Au niveau des stratégies d'évitement, un haut niveau de coping d'évitement, entraîne une faible perception de l'efficacité du coping et cette faible perception a un lien positif avec les troubles internalisés et les troubles externalisés. Dans la même optique, Nicolotti, El-Sheikh et Whitson (2003), ont examiné les stratégies de coping des enfants face aux conflits parentaux comme des prédicateurs, des médiateurs et des modérateurs de la relation entre les conflits conjugaux et les problèmes internalisés, externalisés et de santé physique. Dans le contexte des conflits conjugaux, un haut niveau de coping actif et de soutien combinés sont un facteur de protection contre d'une 71 Chapitre 3. Appropriation de la famille recomposée part, les symptômes de dépression et des problèmes d'estime de soi chez les filles, et d'autre part, contre les problèmes de santé chez les filles et les garçons. Le coping d'évitement est un facteur de vulnérabilité pour les problèmes internalisés, externalisés et de santé physique chez les garçons. Le coping de distraction est protecteur contre les problèmes de dépression et de santé chez les enfants. En dehors du contexte familial, les facteurs de la situation peuvent avoir une influence sur les stratégies de coping. Vierhaus et Lohaus (2009) ont essayé de mieux définir le lien entre ces variables. Ils ont examiné dans une étude en Allemagne, le lien entre les réponses émotionnelles que sont l'anxiété, la colère et les stratégies de coping utilisées. De plus, ils se sont intéressés à la consistance de ce lien dans une tranche d'âge donnée. Les enfants qui ont participé à l'étude sont au nombre de 437 et sont en 2e année de primaire (7-8 ans) au moment des premières mesures. De nouvelles mesures ont été réalisées en 3e, 4e et 5e année de primaire dans le cadre d'une étude longitudinale. Les enfants ont été soumis à une courte description de 4 situations stressantes de la vie quotidienne. Il leur a été demandé, d'indiquer l'intensité de leur sentiment de colère et d'angoisse et les stratégies de coping qu'ils utiliseraient dans chacune des quatre situations à l'aide de questionnaires. Les réponses de coping ont été regroupées en 5 stratégies de coping : résolution de problème, recherche de soutien social, coping palliatif (qui agit sur les symptômes et non sur la cause), extériorisation des émotions, évitement. Les résultats indiquent que l'anxiété est reliée à la recherche d'un soutien social, à un coping palliatif et à un coping d'évitement, alors que la colère est associée à un coping d'extériorisation des émotions. La stratégie de résolution de problème semble n'être reliée à aucune des deux émotions. Cette structure apparaît invariable pour la 2e, 3e, 4e et 5e année de primaire et peut être généralisée à la tranche d'âge. Par ailleurs, les stratégies de coping ont été abordées en lien avec le genre des enfants. Deux études, l'une réalisée en Allemagne et l'autre en Espagne, présentent des résultats similaires à ce sujet. Celle réalisée en Allemagne est celle d'Eschenbeck, Kohlmann et Lohaus (2007). L'objectif est d'analyser l'effet du genre et l'interaction entre le genre, le type de situation stressante et le groupe d'âge dans les stratégies de coping dans l'enfance et à l'adolescence. L'étude a porté sur 1990 enfants et adolescents : 957 garçons et 1033 filles de la 3e à la 8e année de scolarité (primaire et collège). Les participants ont répondu à un questionnaire de coping, le SSKJ 3-8 (Lohaus, Eschenbeck, Kohlmann, & Klein-Hebling, 2006) qui a cinq sous-échelles : la recherche du soutien social, la résolution de problème, le 72 Chapitre 3. Appropriation de la famille recomposée coping d'évitement, la régulation palliative par les émotions et la régulation émotionnelle liée à la colère. Les résultats indiquent que, de manière générale, les filles utilisent plus la recherche de soutien social et la résolution de problème alors que les garçons utilisent plus le coping d'évitement. La seconde recherche réalisée en Espagne par Rodríguez, Torres et Páez (2012) a analysé le rôle de l'âge et du genre dans les stratégies de coping utilisées par des élèves pour faire face aux situations stressantes de la vie quotidienne. Ces situations sont liées à quatre domaines de vie de l'enfant : la famille, la santé, l'école et les interactions entre pairs. 402 élèves âgés de 9 à 12 ans ont participé à l'étude. Les stratégies de coping ont été mesurées à l'aide du « Childhood Coping Scale » (Morales, trianes, Blanca, 2011) qui comprend 35 items et renvoie à 9 stratégies différentes de coping situées entre la stratégie de résolution de problème et les stratégies non productives de coping. Les résultats indiquent que les filles ont plutôt recours à des stratégies centrées sur le problème (les solutions actives, parler du problème à quelqu'un d'autre, recherche d'informations et les attitudes positives), alors que les garçons ont recours à des stratégies non productives (comportements agressifs). Concernant la variable âge, chez les filles et les garçons, les plus jeunes ont plus tendance à garder le problème pour eux. Le coping est le processus par lequel l'enfant de famille recomposée fait face au stress que peut susciter la recomposition familiale. Les enfants de famille recomposée procèdent à leur propre évaluation du degré de stress que comporte chacune des composantes de la famille recomposée. Le choix de leurs stratégies de coping peut être influencé par leur âge, leur sexe et répond à des besoins spécifiques. De plus l'effet de ses stratégies sur les problèmes qu'entraîne le stress dépend de leur efficacité, elle-même étant fonction du type de problème et du type de stratégie utilisé. La restructuration de la famille recomposée par l'enfant et ses stratégies de coping face au stress visent à lui donner un équilibre psychosocial. L'un des processus qui est marqué par cet équilibre psychosocial est son adaptation socio-affective. 73 Chapitre 3. Appropriation de la famille recomposée IV. L'adaptation socio-affective IV.1. L'enfant et ses relations familiales L'enfant se construit à travers les relations qu'il entretient avec son entourage. Selon Wallon (1946), le développement de l'enfant ne peut être envisagé sans l'autre parce qu'il est essentiellement social. En effet, l'enfant s'individualise et se socialise dans ses interactions avec l'autre et dans des milieux différents. Le milieu est l'ensemble plus ou moins durable des circonstances où se poursuivent des existences individuelles. Il est le complément indispensable de l'être vivant et doit répondre à ses besoins et à ses aptitudes sensori-motrices puis psychomotrices (Wallon, 1954). La famille est généralement le premier milieu de vie de l'enfant, son premier espace social. Les membres de la famille sont les premiers autres avec lesquels il établit des relations. Le rôle du milieu familial dans le développement et l'adaptation socio-affective de l'enfant relève de sa structure et des interactions entre ses membres (Zaouche-Gaudron, 2002 ; Baudier & Celeste, 2004). Ces relations se développent dans le cadre global de la famille, mais aussi dans les sous-systèmes familiaux, mère-enfant, père-enfant, couple parental, couple conjugal. La relation mère-enfant occupe une place importante dans les études du développement de l'enfant qui indiquent qu'elle relève en grande partie de l'affectivité (Wallon, 1946, 1952, 1954, Malher, 1980). Les psychanalystes ont également souligné l'aspect affectif et fusionnel de la relation mère-enfant, mais aussi l'importance que cette relation a pour le développement de l'enfant. Spitz (1965) désigne la relation mère-enfant par le terme de « dyade » et la présente comme « une relation en quelque sorte isolée de l'environnement et que maintiennent des liens affectifs extrêmement puissants » (op. cit., 96). L'auteur décrit des troubles du développement liés à une insuffisance de soins maternels et des apports affectifs que l'enfant doit retirer des échanges avec sa mère : la dépression anaclitique qui est provoquée par une carence affective partielle qui ne s'étend pas au-delà de cinq mois, et l'hospitalisme, provoqué par une carence affective totale qui s'étend au-delà des six mois de carence affective, et entraîne une aggravation des symptômes de la première carence. Dans cette même perspective, Winnicott (1957) a mis l'accent sur l'effet de la qualité de la relation mère-enfant dans le développement de la personnalité de l'enfant. Le rôle de la mère est d'être disponible pour le bébé et de répondre à ses besoins. Mais, elle doit trouver le bon équilibre dans la satisfaction des besoins de l'enfant, être bonne et non parfaite pour 74 Chapitre 3. Appropriation de la famille recomposée permettre au « self » de l'enfant de se développer. Cet équilibre passe également par la compréhension et la tolérance face aux pulsions agressives de l'enfant afin qu'il ne les refoule pas et puisse exprimer son « vrai self ». Une bonne relation mère-enfant est une relation harmonieuse mais aussi conflictuelle, car elle favorise l'affirmation de la personnalité de l'enfant. C'est dans ce contexte que Bowlby introduit en 1958 un terme particulier dans la relation mère-enfant : l'attachement. Ce terme désigne un lien affectif entre la mère et l'enfant qui s'établit dès la naissance de l'enfant. Ce lien n'est pas déterminé par les besoins physiologiques comme la nourriture, mais par un besoin inné de l'enfant d'aller vers l'autre, d'être en lien avec l'autre. Le comportement d'attachement s'observe lorsque certains systèmes comportementaux sont activés. Ces systèmes comportementaux résultant de l'interaction entre l'enfant et la figure principale de son environnement : sa mère (Bowlby, 1969). La relation mère-enfant apporte à l'enfant de l'affection et un sentiment de sécurité nécessaire à son positionnement en tant que sujet et la construction de relations sociales. Au niveau de la relation père-enfant, il est de plus en plus questions d'un père présent auprès de l'enfant pendant toutes les périodes de sa vie, et qui marque sa présence par des rapports directs et spécifiques avec l'enfant. Les relations père-enfant réfèrent, d'une part, au père « suffisamment présent » qui fait écho à la mère suffisamment bonne de Winnicott (1957), et, d'autre part, au père différencié de la mère dans la manière dont il assume les tâches parentales et dans sa contribution au développement de l'enfant (Le Camus, 2001 ; Zaouche-Gaudron, 1997). Au niveau de l'attachement, Bowlby (1969) avait développé un modèle monotropic de l'attachement qui ne concernait que la relation mère-enfant. Mais certaines études opérationnelles ont fait ressortir une relation d'attachement père-enfant et vont définir des approches différentes. Pour Bowlby (1978) le père est la première figure d'attachement secondaire, la mère étant la figure d'attachement principale. Lamb (1997) relativise cette position, il ressort de ses études que les enfants peuvent en règle générale s'attacher à l'un ou l'autre des parents, la préférence pour la mère étant plus marquée dans les situations de stress. Paquette (2004), définit un le lien affectif père-enfant spécifique et propose l'expression « relation d'activation » pour le qualifier. La relation d'activation pèreenfant permet de répondre au besoin de l'enfant d'être activé, et de se surpasser. Dans une relation d'activation de qualité, l'enfant apprendrait à faire face aux menaces et à l'étrangeté de son environnement physique et social. Les jeux de lutte père-enfant à l'âge préscolaire 75 Chapitre 3. Appropriation de la famille recomposée permettent aux enfants d'apprendre à prendre, de façon socialisée sans agresser autrui, leur place dans un monde compétitif. Dans l'ensemble, ces études montrent que le père a une relation spécifique avec l'enfant qui se développe parallèlement à celle de la mère avec l'enfant, et non dans un second temps. Les caractéristiques de cette relation indiquent qu'elle s'inscrit dans une logique d'ouverture au monde, de personnalisation et de socialisation. Les travaux sur le couple parental portent, entre autres, sur la concordance éducative qui est définit par Rouyer (2003), comme le degré d'accord existant au sein du couple parental sur l'implication parental et les contributions paternelle et maternelle. L'auteur a analysé l'influence de la concordance éducative, sur la construction de l'identité sexuée du jeune enfant âgé de 4 ans, au niveau des processus d'identification et de catégorisation. Les résultats indiquent que, plus les parents sont concordants au niveau de l'implication parentale, plus les filles sont conformes aux rôles de sexe au niveau des activités et s'identifient au parent de même sexe. En ce qui concerne les contributions éducatives, il apparaît qu'une concordance est positivement liée au score d'identification au parent de même sexe et à celui des jouets féminins pour les filles. Chez les garçons, la concordance dans les contributions éducatives est positivement liée à la représentation de soi en tant qu'individu sexué mais aussi à la distinction par l'enfant des deux personnages parentaux dans sa production graphique. La concordance éducative a donc un effet sur le processus de sexuation. Au niveau du développement cognitif, Roberts, Bomstein, Slater et Barrett (1999), ont montré que l'environnement parental constitué de l'éducation parentale et du statut socio-économique, a un effet sur le développement cognitif de l'enfant à partir de 12 mois. Par ailleurs, l'influence des rapports dans le couple conjugale sur le développement de l'enfant a été examinée. Selon Kitzmann (2000), les pères paraissent moins engagés envers leur fils après une discussion conflictuelle avec la mère. Mais l'effet des conflits conjugaux sur les activités parentales peut être modéré par le sexe de l'enfant. Sturgle-Apple, Davies, Boker et Cummings (2004) précisent que les conflits conjugaux conduisent à une baisse des réactions parentales, à la peine des garçons, mais à une augmentation des réactions parentales à la peine de la fille. Les conflits conjugaux influencent également la qualité de l'attachement parent-enfant. Observés alors que l'enfant a 6 mois, ils prédisent une relation d'attachement moins sécure entre l'enfant d'âge préscolaire et sa mère. De plus, des conflits conjugaux 76 Chapitre 3. Appropriation de la famille recomposée importants alors que l'enfant a 3 ans sont liés à une relation d'attachement moins sécure avec la mère et le père (Frosch, Mangelsdorf et McHale, 2000). Dans une approche culturelle comparative, Shamir, Cummings, Davies et Goeke-Morey (2005) ont fait une étude avec des enfants israéliens et américains âgé de 5 à 6 ans. Les résultats de leur étude indiquent que les enfants réagissent négativement aux conflits conjugaux dans les deux cultures et sont sensibles au sujet des conflits, qu'ils s'intensifient ou non, qu'ils se résolvent ou pas. Aussi l'effet positif des rapports non conflictuels a t-il été démontré. Les enfants dont les parents entretiennent des rapports affectifs et intimes sont considérés par leurs éducateurs préscolaires comme étant les plus compétents et les moins difficiles à encadrer (NICH, 2004). L'analyse des différents sous-systèmes liés aux parents montre que chaque parent a une relation spécifique avec son enfant. Mais cette relation est influencée, en partie, par la qualité des relations au sein du couple parental. Le milieu familial dans sa structure et ses interactions influence le développement de l'enfant. Quels sont les effets de la famille recomposée sur le développement de l'enfant ? IV.2. Recomposition familiale et adaptation socio-affective L'adaptation socio-affective a été beaucoup étudiée dans le cadre des recompositions familiales et plus généralement des transitions familiales. Les dimensions de l'adaptation socio-affective sont entre autres, les comportements externalisés et internalisés, l'anxiété, la dépression, les acquisitions intellectuelles et les résultats académiques. Elles sont mises en lien avec des aspects de la recomposition familiale tels que les transitions familiales, la particularité de la structure familiale et les relations familiales. Dans l'analyse de la recomposition familiale comme transition familiale, l'accent est mis sur la discontinuité dans la famille, la répétition de cette discontinuité, les recommencements qu'elle constitue pour l'enfant. Les troubles du comportement chez l'enfant sont rattachés aux discontinuités vécues plutôt qu'au fait de vivre dans une famille recomposée. L'étude de Saint-Jacques, Cloutier, Pauzé, Simard, Cagné et Poulin (2006) s'inscrit dans cette approche. Les auteurs se sont intéressés à l'effet des transitions familiales multiples sur les troubles du comportement extériorisés et intériorisés ainsi que sur l'anxiété et la depression chez les enfants. La population de l'étude est composée de 741 enfants âgés 77 Chapitre 3. Appropriation de la famille recomposée de 4 à 17 ans et vivant dans trois différentes structures familiales : famille nucléaire, recomposée et monoparentale. Les données ont été recueillies à partir du « Child Behavior Checklist » (CBCL, Achenbach & Edelbrock, 1983) pour les troubles du comportement et du « Diagnostic Interview Schedule for Children-Revised Version » (DISC-R, Shaffer, SchwabStone, Fisher, Cohen, Piacentini, Davies, Conners & Regier, 1993) pour l'anxiété et la depression. Les résultats indiquent que les enfants de familles recomposées ont plus de troubles du comportement que les enfants de famille non recomposée. Mais ils soulignent surtout que le nombre de transitions familiales détermine plus l'importance des troubles du comportement chez l'enfant que la structure familiale dans laquelle il vit à un moment donné. En effet, les enfants qui ont vécu au moins une recomposition ont plus de troubles du comportement que ceux de famille non recomposée peu importe qu'ils vivent maintenant dans une famille recomposée ou monoparentale. De plus, les enfants de familles monoparentales qui ont vécu au moins une recomposition ont plus de trouble du comportement que ceux qui n'ont pas connu de recomposition. En outre, le nombre de transitions a également une influence sur le niveau d'anxiété et la dépression chez l'enfant. Les résultats indiquent également que l'environnement familial prédit mieux les troubles du comportement que la structure familiale. Dans la même perspective, Sun et Li (2011) analysent les effets de la structure et de la stabilité de la famille sur la trajectoire des performances scolaires des enfants. Leur étude compare la courbe d'évolution des performances scolaires des enfants, de la maternelle au CM2, de trois types de familles stables et trois types de familles non stables. Elle est réalisée sur une base de données qui porte sur 8008 enfants. Il en ressort que les enfants de familles stables avec deux parents biologiques et stables recomposées font constamment de meilleurs progrès dans leurs performances en mathématique et en lecture en comparaison à leurs pairs de familles stables monoparentales, instables avec deux parents biologiques et de familles d'alternances instables avec plusieurs transitions. Ces résultats sont proches de ceux de SaintJacques et al. (2006) sur l'importance de la stabilité et du nombre de recomposition. La différence entre les deux travaux est que selon les résultats de Sun et Li (2011) il n'y a pas de différence entre les enfants de famille recomposées stables, qui n'ont donc vécu qu'une recomposition, et ceux de familles non recomposées. Dans leur recherche une seule recomposition semble ne pas avoir d'influence sur le développement de l'enfant alors que dans celle de Saint-Jacques et al. (2006) dès que l'enfant vit une recomposition son développement s'en trouve affecté. 78 Chapitre 3. Appropriation de la famille recomposée En plus du nombre de recompositions, les facteurs d'âge ou de période de développement et le statut marital du couple dans la famille recomposée peuvent avoir une influence sur les effets de la recomposition sur le développement de l'enfant. Selon Ryan et Claessens (2012) ces variables ont un effet modulateur sur les effets de la recomposition sur le développement de l'enfant. Ces auteurs n'utilisent pas le terme de transition mais de changement dans la structure familiale. Les résultats de leur étude indiquent que les changements dans la structure familiale pendant les premières années de la vie ont une plus grande influence sur le développement du comportement de l'enfant que ceux qui interviennent ultérieurement. En outre, les changements dans la structure familiale sont plus problématiques pour les enfants nés de parents mariés que pour les enfants nés de parents non mariés. Par ailleurs la famille recomposée, dans sa composition a un effet sur le développement de l'enfant comme l'indique les résultats de l'étude de Hofferth (2006). L'auteur fait le lien, d'une part, entre la résidence avec les parents biologiques et non biologiques mariés et non mariés, et d'autre part les acquisitions cognitives et les problèmes comportementaux des enfants âgés de 3 à 12 ans, en contrôlant les facteurs qui rendent ces familles différentes. L'étude a porté sur 2380 foyers comprenant 3563 enfants issus d'une base de données. L'adaptation socio-affective des enfants a été mesurée à l'aide du « Behavior Problem index » (Peterson & Zill, 1986). Les résultats montrent que les différences de réussite ne sont pas associées au fait que la structure familiale soit centrée sur le père, mais plutôt à des facteurs démographiques et économiques qui varient selon les familles. En revanche, les problèmes de comportement semblent liés à la structure familiale. Les enfants dans tous les types de famille, sauf la famille de parents biologiques mariés ont montré des niveaux plus élevés de problèmes de comportement. De plus, les temps d'engagement paternel et maternel expliquent certaines des différences dans les problèmes de comportement entre les familles. Bien que les enfants de familles recomposées aient tendance à atteindre des niveaux inférieurs à ceux de familles non recomposées dans les acquisitions cognitives, les beaux-enfants dans les familles recomposées atteignent des niveaux comparables à ceux de leurs demi-frères et soeurs. Enfin, les enfants dans les familles recomposées ont tendance à avoir moins de problèmes de comportement que ceux qui n'ont pas de familles recomposées. 79 Chapitre 3. Appropriation de la famille recomposée Les études précédentes se sont intéressées à différents aspects de la famille recomposée en lien avec la trajectoire de la famille recomposée et sa composition. Ces aspects s'avèrent importants dans l'adaptation de l'enfant de famille recomposée. Saint-Jacques et Chamberland (2000) étendent cette analyse de l'adaptation socioaffective des enfants de familles recomposées à d'autres facteurs tels que l'environnement familial et les facteurs personnels à partir du modèle PPCT de Bronfenbrenner (1996). Ce travail porte sur 234 jeunes de familles recomposées et 2515 jeunes de famille nucléaires, monparentale et vivant en garde partagée. Elles remarquent qu'un environnement familial de bonne qualité favorise un niveau d'adaptation socioaffective élevé chez les adolescents. Plus précisément, la qualité du climat familial et la qualité de la relation avec la figure paternelle apparaissent comme les facteurs les plus importants de l'environnement familial. La qualité de la relation avec la figure maternelle est liée au degré de bien-être du jeune, au degré de problème d'anxiété, au nombre de problèmes de comportement et au degré de difficultés dans le milieu scolaire. Seule la qualité des relations fraternelles est corrélée au bien-être personnel des jeunes. Au niveau des caractéristiques personnelles, les garçons ont moins de difficultés d'adaptation que les filles. Ils présentent plus de troubles du comportement extériorisés alors que les filles présentent plus de troubles de comportement intériorisés. En outre, le temps écoulé ne favorise pas une meilleure adaptation chez les jeunes. Plus la recomposition est ancienne plus la proportion de jeunes avec un faible niveau d'adaptation s'accroit. Au niveau de la trajectoire de la famille, aucun des jeunes ayant vécu une discontinuité importante n'a un niveau d'adaptation au dessus de la moyenne. Ces travaux montrent que la structure familiale a une influence sur l'adaptation des jeunes mais que l'environnement familial semble avoir une influence encore plus importante. Cette influence de l'environnement familial est confirmée par l'étude de King (2007). Elle examine la prévalence, les antécédents et les conséquences du fait que l'adolescent de famille recomposée soit proche de chacun de ses parents biologiques. Les données proviennent de 294 adolescents du « National Longitudinal Study of Adolescent Health » qui vivent avec leur père biologique et ont à la fois une belle-mère et une mère biologique non résidente. Les résultats indiquent que les adolescents diffèrent dans leur tendance à être proche de leur père résident, de leur belle-mère résidente et de leur mère non résidente, mais quand ils arrivent à être proche d'eux, cela s'avère bénéfique pour eux. En effet, Les adolescents qui 80 Chapitre 3. Appropriation de la famille recomposée sont proche à la fois de leur père résident et de leur mère non résidente ont moins de problèmes de comportement intériorisés et extériorisés. De plus, Saint-Jacques et Lépine (2009) montrent que le niveau d'adaptation sociale des jeunes est associé au style parental du beau-père. Les données collectées auprès de 104 adolescents indiquent que les jeunes qui perçoivent leur beau-père comme étant démocratique ou chaleureux profitent particulièrement de cette relation. La famille joue un rôle important dans le développement de l'enfant. Ce rôle est fondé par le fait qu'elle constitue le premier cadre de construction du sujet et de socialisation du sujet. La famille recomposée de par sa structure et sa trajectoire peut avoir un effet sur le développement de l'enfant. Cet effet peut être lié à sa structure mais surtout aux transitions familiales qu'elle renferme et à l'environnement familial. En dehors de l'adaptation socio-affective un deuxième processus peut témoigner de l'efficacité ou non des stratégies de recomposition mise en place par l'enfant : sa qualité de vie subjective. V. La qualité de vie de l'enfant L'appropriation de la famille recomposée par l'enfant renvoie à sa qualité de vie dans ses principaux milieux de vie que sont la famille et l'école. Le lien établi ici entre appropriation et qualité de vie relève du fait que l'appropriation de la famille recomposée par l'enfant vise un équilibre psychosocial et qu'il peut se traduire en termes de niveaux de qualité de vie. Dans notre approche, la qualité de vie n'est pas simplement « quelque chose » qu'une personne reçoit mais aussi « quelque chose » qu'elle s'efforce de créer activement en interaction avec d'autres personnes (Holm, Holst & Perlt, 2000). V.3. Historique et définition La qualité de vie apparait d'abord comme un indice national de l'état d'une nation et de sa population. Elle se mesure au niveau de vie du pays et elle est principalement basée sur des facteurs économiques et matériels, donc sur le bien-être économique et ses indicateurs objectifs (revenu, pouvoir d'achat, biens matériels) comme des déterminants du bien-être social. Les données sont alors utilisées dans le cadre des politiques sociales. 81 Chapitre 3. Appropriation de la famille recomposée Une autre phase va marquer les études et l'utilisation du terme « qualité de vie » dans les années 1960-1970 (Schalock, Keith, Verdugo & Gomez). Plusieurs auteurs (Shea & KingFarlow, 1976 ; Cumming, 1997 ; Noll, 2000) relient le début de cette phase au discours officiel de London B. Johnson. Elle est impulsée par le mouvement dit des « indicateurs sociaux ». Avec ce mouvement, les limites de l'approche économique pour évaluer les politiques sociales et mesurer les changements sociaux sont relevées, et les indicateurs sociaux sont introduits dans l'analyse de la qualité de vie des nations et des populations (Bognar, 2005). Ces indicateurs sociaux sont liés à la vie sociale et à l'environnement de vie tels que les relations sociales, le taux de criminalité, le taux de chômage, l'espérance de vie, la présence d'école. Cependant, les travaux de recherche restent toujours fondés sur des indicateurs objectifs des conditions de vie. Un autre groupe de chercheurs va s'intéresser à la manière dont les personnes perçoivent et évaluent leurs conditions de vie c'est-à-dire des données que les indicateurs objectifs ne permettent pas d'obtenir. Ils vont utiliser des indicateurs subjectifs qui peuvent appréhender le sens et l'importance que les personnes donnent à leurs conditions objectives de vie. Les études mettent l'accent sur le bonheur et la satisfaction de vie comme indicateurs du bien-être (Replay, 2003 ; Bognar, 2005). Les deux approches sont souvent envisagées de manière opposée, mais la qualité de vie est de plus en plus analysée sous les deux aspects : objectif et subjectif (Cumming, Lau, Davey, & McGillivray, 2010). La qualité de vie peut, dans ce cadre, être définie comme « la combinaison d'indicateurs subjectifs et objectifs de bien-être dans plusieurs domaines de la vie considérés comme saillant dans une culture à une période donnée, tout en étant cohérant avec les standards universels des droits de l'homme » (Koot, 2001, 6). Du point de vue de la santé, l'Organisation Mondiale de la Santé (OMS) évoque des aspects de la qualité de vie dans sa définition de la santé de 1946 entrée en vigueur en 1948 en ces termes « la santé est un état complet de bien-être physique, psychologique et social ». L'OMS définit en 1994 la qualité de vie comme « la façon dont les individus perçoivent leur position dans la vie, dans le contexte de la culture et du système de valeurs dans lesquels ils vivent en relation avec leurs buts, attentes, normes et préoccupations. Il s'agit d'un concept large, qui incorpore de façon complexe la santé physique d'une personne, son état psychologique, son degré d'indépendance, ses relations sociales, ses convictions personnelles et sa relation avec des éléments importants de l'environnement ». 82 Chapitre 3. Appropriation de la famille recomposée Par ailleurs, en santé mentale, la qualité de vie a été abordée dans le cadre de l'amélioration des conditions de vie de patients psychiatriques chroniques (Mercier & Filion, 1987). De façon générale, les études sur la qualité de vie dans le domaine de la santé portent sur la qualité de vie de personnes avec une déficience mentale, une maladie chronique et leur famille. Des études également menées en pédiatrie ont favorisé le développement d'outils d'analyse de la qualité de vie liée à la santé chez les enfants et leur famille. La qualité de vie est une notion qui est appréhendée sous plusieurs aspects : sémantique, théorique, des facteurs qui la définissent et l'influence, la manière de la mesurer. Au niveau sémantique, la notion de « qualité de vie » est associée à d'autres termes tels que le bien-être (well-being / welfare), la satisfaction de vie (life satisfaction), le bonheur (happiness) et la santé mentale. Ces termes peuvent être considérés comme des composantes différentes de la qualité de vie mais sont également utilisés de manière interchangeable comme des synonymes de la qualité de vie selon les composantes que l'on privilégie. La qualité de vie recoupe plusieurs disciplines : la philosophie, l'économie, la sociologie, la psychologie, la médecine. Ces disciplines ont contribué à l'enrichissement et à la vulgarisation de ce terme (Bruchon-Schweitzer, 2002). Les facteurs qui selon elles la déterminent sont des facteurs économiques, environnementaux, biologiques, émotionnels, cognitifs. La qualité de vie se caractérise par le domaine concerné (qualité de vie liée à la santé / qualité de vie générale), le ou les sujets de l'étude (qualité de vie individuelle / qualité de vie collective), et la manière de l'appréhender qualité de vie subjective / qualité de vie objective. Nous nous focaliserons dans notre analyse sur la qualité de vie subjective dans le domaine de la vie générale et plus précisément de la famille dans la mesure où nous intéressons au point de vue de l'enfant et à son vécu familial. V.4. La qualité de vie subjective La qualité de vie subjective ou bien-être subjectif met le sujet au centre de l'évaluation de la qualité de vie. Elle peut être considérée comme une approche psychologique de la qualité de vie. Diener, Eunkook, Lucas et Smith (1999) la définissent comme un vaste ensemble de phénomène qui inclut les réponses émotionnelles des personnes, leur domaine de satisfaction et leur jugement global de la satisfaction de vie. Selon Replay (2003), la qualité de vie subjective est un état psychologique qui représente un résumé de l'estimation de la 83 Chapitre 3. Appropriation de la famille recomposée satisfaction de vie dans un nombre limité de domaine. Certains auteurs tel que, Campbell, (1981), ont établi une liste plus ou moins exhaustive de ces domaines de la qualité de vie subjective. Ils concernent, entre autres, le mariage, la famille, l'amitié, le travail, la santé, les loisirs et activités sociales, l'éducation, la perception de soi, les conditions standards de vie, la religion. En outre, le bien-être subjectif a une composante affective et une composante cognitive. La première se subdivise en affects agréables (joie, bonheur) et en affects désagréables (tristesse, stress). La seconde concerne l'évaluation cognitive de la satisfaction de vie par le sujet (Diener & al., 1999). De plus, la qualité de vie subjective est déterminée par des facteurs liés à la personne et à la situation, les facteurs personnels ayant une influence plus importante sur la qualité de vie subjective. Les caractéristiques personnelles qui influencent la qualité de vie sont des facteurs biologiques innés qui renvoient également à la qualité de vie comme un trait de personnalité mais aussi des facteurs qui relèvent de la combinaison des d'aspects innés et environnementaux. L'approche basée sur les facteurs innés stipule que certaines personnes ont des prédispositions génétiques pour être heureux ou pas. Elle fait référence à l'hérédité et au fait que les variations dans le bien-être subjectif sont beaucoup plus liées à des gènes qu'a l'environnement. L'étude de Lykken et Tellegen (1996) se situe dans cette perspective. Elle indique sur la base d'une recherche portant sur des jumeaux monozygotes et dizygote éduqués ensemble ou séparément, que la qualité de vie courante est influencée à 40% par les gènes pour les émotions positives, et à 55% pour les émotions négatives. L'influence de l'hérédité est encore plus forte quand il s'agit de la qualité de vie subjective à long terme, elle est alors de 80%. Cette approche souligne la part de l'hérédité dans la qualité de vie surtout à long terme mais elle comporte des limites parce qu'elle ne peut donner une estimation exacte et constante de la part de l'hérédité. Les pourcentages de l'hérédité révélés par les travaux (Gatz, Pedersen, Plomin & Nesselroade, 1992 ; McGue & Chritensen, 1997) indiquent que la part de l'hérédité diffère et peut être plus faible d'un aspect de la qualité de vie à l'autre et d'un contexte à l'autre. La part de l'hérédité semble être influencée par les difficultés ou des changements dans l'environnement ainsi que par la composante de la qualité de vie prise en compte (Diener et al., 1999). Par ailleurs, la qualité de vie subjective peut être déterminée par les traits de personnalité. Dans ce cadre, l'extraversion et le névrotisme sont les traits les plus 84 Chapitre 3. Appropriation de la famille recomposée souvent mis en lien avec la qualité de vie subjective. Les études indiquent que l'extraversion influence les affects positifs et le névrotisme les affects négatifs (Diener et al., 1999). D'autres traits de la personnalité tels que l'estime de soi et l'optimisme ont été reliés à la qualité de vie subjective. Enfin, l'approche interactionniste qui suggère une interaction entre les facteurs de la personne et de l'environnement. L'effet des facteurs personnels sur la qualité de vie subjective étant modéré par des facteurs environnementaux. D'autres approches l'une sociologique et l'autre biologique peuvent être relevées dans les études sur la qualité de vie. L'approche dite « multiple discrepancy theories » stipule que les individus se comparent à différents standards incluant d'autres personnes, les conditions du passé, les aspirations et le niveau idéal de satisfaction, les besoins et les buts. La qualité de vie subjective est alors basée sur l'écart entre les conditions actuelles et ces standards. Lorsque le standard de référence est plus haut, l'évaluation est négative et s'il est inférieur l'évaluation est positive (Michalos, 1985 ; Diener et al.,1999). La particularité de cette approche est qu'elle renvoie à une référence extérieure pour l'évaluation de la qualité de vie . Le modèle homéostatique stipule que le bien-être subjectif est géré par un système qui est appelé « l'homéostasie du bien-être subjectif ». L'homéostasie implique des mécanismes multiples, dont certains sont des dispositions et incluent des processus d'adaptation et des restructurations cognitives. D'autres sont des ressources externes à la personne telles que les ressources financières et les relations avec des proches, qui peuvent être utilisées pour protéger le sujet de l'adversité. Ces éléments oeuvrent de concert pour maintenir le bien-être subjectif à une moyenne d'environ 75 sur une échelle de 0 à 100. Cette valeur varie d'une nation à l'autre et d'un groupe à l'autre ces différences étant dues à une baisse de l'homéostasie. Ce système a une capacité limitée pour gérer les défis si bien que si le niveau de stress est plus élevé que les ressources, l'homéostasie baisse et le bien-être subjectif descend en dessous de son niveau normal. (Cummins, & al., 2010 ; Replay, 2003). V.5. Famille et qualité de vie subjective de l'enfant La qualité de vie subjective a été peu étudiée chez l'enfant. Les travaux sur l'enfant dans le domaine de la qualité de vie sont beaucoup plus liés à la qualité de vie en rapport avec la santé (santé physique, mentale, trouble du développement). Ils analysent le bien-être subjectif des enfants confrontés à des maladies ou celui des enfants appartenant à leur fratrie. D'autres 85 Chapitre 3. Appropriation de la famille recomposée études (King & Soblewski, 2006 ; Magnuson & Berger, 2009 ; Vandewater & Lansford, 2012) se réfèrent au bien-être défini comme la santé mentale et l'adaptation psychosociale de l'enfant. En ce sens les indicateurs du bien-être renvoient aux comportements extériorisés ou intériorisés, à l'anxiété et la dépression et non au bonheur et à la satisfaction de vie. Les recherches qui portent sur la qualité de vie subjective telle que nous l'abordons dans notre étude utilisent plus les termes de bonheur (hapinness) ou de satisfaction de vie plutôt que de bien-être ou qualité de vie subjective. Sous cet angle des facteurs familiaux et sociaux qui peuvent avoir une influence sur la qualité de vie peuvent être relevés. Les relations familiales et amicales font partie de ces facteurs comme l'indique Holder & Coleman (2009). Ces auteurs ont analysé le lien entre le bonheur et les relations sociales chez 432 enfants âgés de 9 à 12 ans. Les données ont été recueillies auprès des enfants et leurs parents grace au « Piers Harris Children self concept scale 2 » ou « Piers-Harris 2 » (Piers & Herzberg, 2002), du « faces scales » (Andrews & Withey, 1976) et du « Children's questionnaires » (Holdman & Coleman, 2009) Les résultats indiquent une corrélation entre les items de chacune des catégories d'interactions sociales et les trois évaluations du bonheur chez l'enfant. Les changements dans le bonheur mesuré chez l'enfant sont associés à des interactions sociales positives impliquant la famille et les amis. Les interactions sociales négatives expliquent également des variations dans le bonheur mesuré chez l'enfant. Il n'y a pas de corrélation significative entre les variables démographiques liées à la famille et le bonheur chez l'enfant. Plus largement, les facteurs personnels et le contexte social dans lequel vit l'enfant peuvent influencer sa qualité de vie. L'optimisme comme trait, un rapport positif à l'école, le soutien perçu du voisinage, le soutien perçu des parents et la relation positive avec les pairs prédisent significativement et positivement la satisfaction de vie des enfants (Oberle, Schonert-Reichl & Zumbo, 2011). Dans le cadre plus spécifique de la famille, la structure de la famille, les relations familiales et le stress familial semblent avoir un lien avec la qualité de vie. Plus précisément, le bon fonctionnement du système familial peut être rattaché à la satisfaction familiale chez chacun de ses membres. Selon Bandura, Caprara, Barbaranelli, Regalia et Scabini (2011), l'efficacité des dyades et l'efficacité collective perçue dans le système familial déterminent la qualité du fonctionnement familial et la satisfaction avec la vie familiale. Leur étude réalisée 86 Chapitre 3. Appropriation de la famille recomposée avec 142 familles révèle que l'efficacité de la dyade parent-enfant, de la dyade conjugale, et de la filiation sont liées à la satisfaction familiale à travers la médiation de l'impact de l'efficacité de la famille collective. Un sens élevé de la collectivité familiale est accompagné par la communication familiale et des confidences franches par les adolescents sur leurs activités en dehors de la maison. L'efficacité de la famille collective contribue à la satisfaction avec la famille des parents et des adolescents à la fois directement et à travers son impact sur la qualité du fonctionnement de la famille. Dans ce même ordre d'idées, nous pouvons évoquer deux analyses faites à partir de données issues de l'étude internationale « Health Behaviour school-aged children » (2006) réalisée en collaboration avec l'OMS. Elles mettent en exergue l'importance de la communication et de la structure familiale dans la satisfaction de vie chez des enfants de familles « intactes », monoparentales et recomposées. En effet à partir des données recueillies à Scotland (4959 participants), Levin et Currie (2010) mettent en évidence un lien entre à la fois la communication mère-enfant et père-enfant et la satisfaction de vie chez les enfants. Les relations avec la mère s'avèrent particulièrement importantes surtout chez les filles. Chez les garçons, la communication avec les parents ne modère pas l'effet de la structure familiale. Le fait de ne pas vivre dans une famille traditionnelle avec deux parents est un prédicateur d'une satisfaction de vie faible même quand la communication avec un ou plusieurs parents est facile chez les garçons. La deuxième analyse issue de ce projet de recherche est réalisée par Bjarnason, Bendtsen, Arnarsson, Borup, Iannotti, Löfstedt, Haapasalo et Niclasen (2012). Ils ont examiné les différences dans la satisfaction de vie d'enfants de différentes structures familiales dans 36 pays occidentaux industrialisés. Les enfants sont âgés de 11, 13 et 15 ans avec un échantillon minimum de 1536 enfants par pays. La population totale de l'étude est de 184 496. Il en ressort une influence de la structure familiale sur la satisfaction de vie des enfants. Les enfants de familles monoparentales et recomposées indiquent un niveau de satisfaction de vie moins élevé que celui des enfants qui vivent avec leurs deux parents. Le fonctionnement de la famille influence également le niveau de satisfaction de vie. A ce niveau, la garde conjointe semble favorisée un niveau de satisfaction de vie plus élevé que les autres modes de fonctionnement dans les familles « non intactes ». En outre, les difficultés de communication avec les parents sont fortement reliées à un bas niveau de satisfaction de vie. La comparaison entre les pays révèle que les enfants des pays nordiques, qui ont un fort système de bien-être social, présentent un très haut niveau de satisfaction de vie dans tous les types de famille sauf celles qui sont monoparentales avec un père. 87 Chapitre 3. Appropriation de la famille recomposée Enfin, la famille peut également avoir une influence sur la satisfaction de vie à travers son faible niveau socio-économique, des perturbations dans sa structure, l'accumulation de grands événements de vie, et les conflits inter-parentaux perçus. Ces éléments sont des facteurs de stress et peuvent à ce titre influencer la satisfaction de vie. De plus, les évènements de vie et les conflits inter-parentaux apparaissent comme des prédicateurs de la satisfaction de vie (Chapel, Suldo & Ogg, 2012). La qualité de vie se décline sous plusieurs axes en fonction des objectifs visés. La qualité de vie subjective peut être déterminée par différents facteurs dont la famille. Au niveau de la famille recomposée, sa structure, le fonctionnement de la famille et les relations familiales peuvent influencer la qualité de vie subjective de l'enfant. Ce chapitre nous a permis de définir et de situer le processus d'appropriation dans le développement de l'enfant de famille recomposée. L'appropriation est le processus par lequel l'enfant réorganise la famille recomposée et lui donne son sens. L'enfant est un acteur de la recomposition familiale. Il fait de la famille recomposée sa famille en la restructurant, pour l'intégrer à ses croyances, à son système de valeur, et pour qu'elle réponde à ses besoins et à ses désirs. L'appropriation de la famille recomposée consiste pour l'enfant à définir les contours de sa famille, à restructurer les liens, les rôles et les statuts de la famille. S'approprier la famille recomposition consiste également pour l'enfant à mettre en place des stratégies pour faire face aux difficultés auxquelles il peut confronter. L'objectif du processus d'appropriation est de trouver un nouvel équilibre familial et psychosocial. Il favorise une bonne adaptation socio-affective et une qualité de vie satisfaisante. L'appropriation est un processus qui relève du sujet mais qui s'inscrit dans le lien social. L'enfant s'approprie ces changements en utilisant des significations partagées avec autrui dans le cadre des relations interpersonnelles. Il s'appuie alors sur ses expériences passées, ses premiers liens et ses premières représentations. Les composantes de son milieu, telles que la fratrie germaine, peuvent orienter l'appropriation. L'objectif du chapitre suivant est de faire ressortir les caractéristiques de la fratrie germaine et de les mettre en lien avec la recomposition et le processus d'appropriation. 88 Chapitre 4. Recomposition familiale et relations fraternelles Chapitre 4. Recomposition familiale et relations fraternelles La recomposition familiale entraîne des changements au niveau de la structure et des relations fraternelles mais aussi au niveau de sa position dans le système familial. Dans l'optique d'analyser les changements et les constances dans la fratrie en lien avec la recomposition familiale, nous allons d'abord poser les aspects fondamentaux de la fratrie et des relations fraternelles. I. Dynamique des relations fraternelles Le sous-système fratrie est celui auquel appartient l'enfant. Il peut être analysé sous deux dimensions : une dimension verticale liée aux relations parents-enfants et une dimension horizontale qui renvoie à la spécificité des relations entre enfants (Almodovar, 1998). I.1. La dimension verticale Les relations fraternelles ont dans un premier temps été étudiées dans une approche psychanalytique. Dans cette approche, elles sont analysées dans leur dimension verticale c'est-à-dire comme dépendante des relations parents-enfants et décrites sous les termes de complexes et de conflits. I.1.1. Le complexe fraternel Le complexe fraternel constitue l'un des fondements des relations fraternelles dans leur dimension verticale puisqu'il est rattaché au complexe d'oedipe et à la relation parentsenfants. Il trouve ses origines dans le fait que l'aîné considère son cadet comme un rival dans le désir de s'accaparer l'amour et l'attention des parents (Freud, 1916 ; Zaouche Gaudron, 2010). Le complexe fraternel se rapproche du complexe d'oedipe par l'ambivalence des désirs qui l'alimente. Selon Gayet (1993), il conjugue un désir de séduction et un désir de destruction. Le désir de séduction renvoie à un inceste fraternel dans lequel le couple infantile prend le couple parental pour modèle. Le parent dominant devient le modèle de l'aîné et le parent dominé celui du cadet. Le désir de destruction se traduit par une agressivité de l'aîné envers le cadet. Mais à la différence du complexe d'oedipe, le complexe fraternel porte 89 Chapitre 4. Recomposition familiale et relations fraternelles souvent sur la même personne. Il est dyadique et non triadique. Chaque frère et chaque soeur est pris individuellement comme objet du complexe (Gayet, 1993). Le complexe fraternel est avec le complexe de sevrage et le complexe d'intrusion les trois complexes familiaux définis par Lacan (1938). Ces trois complexes sont imbriqués dans les relations fraternelles en ce sens que le complexe de sevrage et le complexe d'intrusion sont importants dans le développement du complexe fraternel. Le complexe fraternel repose sur l'intrusion du cadet dans la relation entre l'aîné et les parents, décrite par Lacan (1938) dans le complexe d'intrusion. Il « représente l'expérience que réalise le sujet primitif, le plus souvent quand il voit un ou plusieurs de ses semblables participer avec lui à la relation domestique, autrement dit, lorsqu'il se connaît des frères » (op.cit., 35). Il est donc vécu par l'aîné traumatisé par l'arrivée de son frère. En effet, le narcissisme infantile conduit l'aîné à exiger l'exclusivité de l'amour parental; il ne peut accepter qu'un autre devienne, à sa place, l'objet de cet amour (Gayet, 1993). En outre le complexe fraternel est influencé par l'âge, le niveau de maturité affective de l'aîné et la phase à laquelle il se situe dans ses relations avec les parents. En effet, Le moment de l'intrusion du cadet détermine sa signification pour l'aîné et les manifestations du complexe fraternel. Si le sujet est « surpris par l'intrus dans le désarroi du sevrage, il le réactive sans cesse à son spectacle; il fait alors une régression » (Lacan, 1938, p 47). L'aîné revit la situation de sevrage et devient jaloux et agressif. Pour Lacan (1938), ce processus passe par une identification au nouveau né. Si au contraire, l'intrus ne survient qu'après le complexe d'oedipe, « il est adopté le plus souvent sur le plan des identifications parentales, plus denses affectivement et plus riches de structure » (op.cit., 47). L'effet est alors différent : le frère n'est plus pour l'aîné un obstacle ou un reflet, mais « une personne digne d'amour ou de haine. Les pulsions agressives se subliment en tendresse ou en sévérité » (op.cit., 47). Ces complexes au-delà de leurs aspects conflictuels sont structurants pour le sujet. L'agressivité de l'aîné envers le cadet, lié au désir de destruction, va être réprimée par les parents. La répression parentale accentuera la peur des représailles puis le sentiment de culpabilité, lorsqu'un niveau suffisant de maturation affective sera atteint. La culpabilité se développe progressivement avec le développement de la morale et du surmoi et efface le complexe fraternel en même tant qu'elle le relègue définitivement dans l'inconscient. La culpabilité est une sorte de résidu du complexe fraternel. Elle se manifeste par un besoin de protéger le cadet contre toute agression possible ou réelle du monde extérieur, agression que 90 Chapitre 4. Recomposition familiale et relations fraternelles l'aîné sent confusément à la mesure de la haine qu'il éprouvait dans le passé (Gayet, 1993). La jalousie envers l'intrus participe à la différenciation moi-autrui (Wallon, 1946; Lacan, 1938). I.1.2. Le lien fraternel Le lien fraternel est définit par un même lien de filiation. Mais le lien fraternel ne garantit pas la qualité de la relation fraternelle. Les relations fraternelles se construisent d'individu à individu entre les membres d'une même fratrie (Benghosi, 2000). Caillé (2004) fait la distinction entre fratrie et fraternité. Il y'a une certaine contradiction logique entre les deux concepts. Le lien de fratrie est déterminé par le fait d'avoir des parents communs, il est biologique alors que la fraternité relève du choix. La fratrie ne repose pas sur la fraternité mais plutôt sur la « fratitude ». Selon lui, être frères et soeurs c'est vivre en état de fratitude c'est-à-dire faire l'expérience d'une condition existentielle qui vous est imposée. Il présente la fratitude comme un état délicat et potentiellement dangereux pour l'individu. Elle est porteuse de « rivalité complexe » et de « concurrence sauvage », notamment pour être le préféré des parents, et peut conduire à des drames. Une fratrie ne peut être un atout pour ses membres que si elle sort de la fratitude par le haut c'est-à-dire par un « jeu infini », jeu relationnel qui favorisera la découverte et le respect de l'identité particulière de chacun d'entre eux. Les frères et soeurs ne pourront faire l'expérience de la fraternité qu'une fois sortis de la fratitude. I.2. Dimension horizontale I.2.1. Caractéristiques de la fratrie La fratrie se distingue des autres relations familiales par le temps que l'enfant passe avec elle. L'enfant passe beaucoup de temps avec ses frères et soeurs qui sont ses premiers partenaires de jeux. De plus, les liens fraternels se distinguent des liens parents-enfants par leur longévité et la constante qu'elle représente dans la famille. Ils sont généralement vingt à trente ans plus longs que les liens parents-enfant et demeurent une constante en dépit de l'âge, des divorces des parents et des ruptures qui peuvent se produire entre frères et soeurs (Goldbeter-Merinfeld, 2004). Au niveau de sa structure, la fratrie se caractérise par des variables morphologiques qui, selon Bourguignon (1999), peuvent être présentées comme suit : 91 Chapitre 4. Recomposition familiale et relations fraternelles - la succession qui implique une position propre à chaque enfant et des intervalles entre les naissances. La position renvoie à la place qu'occupe chaque enfant selon son rang de naissance et les intervalles entre les naissances définissent les écarts entre les âges. - la distribution des sexes aboutit à des configurations très différentes selon le sexe des enfants en position d'aîné et de cadet et va définir le caractère mixte ou pas de la fratrie ; - la taille de la fratrie. Il y a fratrie à partir de deux enfants et une fratrie de cette taille fonctionne comme un couple avec des alliances, l'alternance du pouvoir et des rapport de domination/soumission. Les familles plus nombreuses offrent des possibilités de rapports diversifiés favorisant les comparaisons, les regroupements par âge, par sexe et par affinités. Des réplications de la relation parent-enfant sont possibles au sein du groupe fraternel, les aînés protégeant, dominant les plus jeunes. Ces variables influencent les interactions et les expériences dans la fratrie, donc les individus (Toman, 1987). I.2.1.1. La position dans la fratrie Les membres d'une fratrie ont chacun une place et un rôle selon son rang de naissance. L'aîné, le premier né des enfants, fait du couple une famille et le deuxième, le cadet, créé la fratrie (Camdessus, 1998). Ces différentes positions donnent aux enfants des vécus et des rôles différents dans la fratrie « le premier perdra sa position centrale d'enfant unique dès l'arrivée d'un cadet. Pour les suivants, l'aîné fait déjà partie de l'environnement familial. Chaque nouvelle naissance implique une renégociation des places et des territoires respectifs. » (Bourguignon, 1999, 8), L'aîné est le premier né de la famille et le seul avoir vécu seul avec ses parents quelques temps, l'arrivé du cadet constitue un grand changement pour lui par rapport à ses relations avec les parents et son rôle auprès du cadet. L'aîné perd certains de ses privilèges car il bénéficie moins de l'attention et du temps de ses parents. Cette situation crée des sentiments de haine et de jalousie envers le cadet. Ces sentiments peuvent s'exprimer par des comportements régressifs et agressifs. Par ailleurs l'arrivée du cadet place l'aîné en position de grand frère, de grand tout simplement et il doit agir en tant que tel auprès de son cadet (Rufo, 2002 ; Jaques, 2008) L'aîné se voit attribuer des responsabilités vis à vis de son cadet pour aider les parents. Il est amené à renoncer à certaines choses en faveur de son cadet (Féchant-Pitavy, 2003). Son ancien statut d'enfant unique lui confère une plus grande 92 Chapitre 4. Recomposition familiale et relations fraternelles proximité avec les adultes de la famille puisqu'il a déjà partagé avec eux des jeux et des découvertes. Il est la référence qui permet d'établir des comparaisons avec ses cadets. Il peut être investi d'une certaine autorité sur les cadets. La position d'aîné semble influencer les traits de personnalité. L'aîné est décrit comme une personne plus conformiste, autoritaire, dominateur, ambitieux (lett, 2004). Le cadet va plutôt développer des sentiments de jalousie par rapport aux aptitudes plus grandes de l'aîné. Contrairement à l'aîné qui défend une place acquise, le cadet va chercher à se créer une place dans sa famille déjà constituée (Jaques, 2008). Le cadet agit comme s'il était en concurrence avec son aîné, il est sous la pression de surpasser son aîné (Adler, 1928). Le cadet va adopter un comportement opposé à celui de son aîné (Jacques, 2008). Il va développer des idées novatrices et contestataires et apparaît ainsi, comme une personne moins conformiste que l'aîné qui est souvent qualifiée de rebelle, (Lett, 2004). I.2.1.2. Ecart d'âge au sein de la fratrie : L'écart d'âge entre les variables tient son importance dans une fratrie du fait qu'elle peut moduler les relations fraternelles. La proximité et les conflits entre les enfants seront plus ou moins fort selon leur écart d'âge. Pour Angel (1996) un faible écart d'âge d'un an ou deux, va favoriser la proximité entre les enfants mais aussi une rivalité et une jalousie plus intense. Plus cet écart va être grand plus les conflits seront moindre. Ainsi un écart d'âge de six ans va atténuer les conflits entre les enfants parce que l'aîné est plus autonome, est scolarisé et s'est constitué un réseau d'amis. Rufo (2002) situe également le bon écart d'âge entre les enfants à six ou sept ans. A cet âge l'aîné a acquis avec le complexe d'oedipe, une organisation qui lui permet de s'identifier avec plus d'assurance au rôle parental. « Les pulsions agressives cèdent alors la place à la tendresse » (op.cit., 43). L'enfant a eu le temps de se construire des souvenirs de famille qui lui sont propres et qui compensent le fait que sa mère soit moins disponible. La compétition pour conquérir l'amour des parents est moins aiguë parce que l'aîné a moins besoin de leur présence. Pour d'autres auteurs (Widmer, 1999 ; Brun, 2003) par contre, l'écart d'âge a moins d'influence que l'âge et le niveau de développement des enfants sur les relations fraternelles. Les données obtenues par Widmer (1999) indiquent que c'est moins la différence d'âge que les âges respectifs des deux germains qui comptent. Selon l'auteur, les germains ne se disputent pas du fait d'une faible ou forte différence d'âge mais parce que l'un ou l'autre (ou les deux) appartiennent à une classe d'âge propice aux conflits 93 Chapitre 4. Recomposition familiale et relations fraternelles fraternels. Ainsi la différence d'âge serait moins déterminante que l'âge des individus. « Il y a des âges qui sont producteurs de conflits entre les germains, tout comme dans la relation aux parents » (op.cit., 51). Pour Brun (2003), le niveau de développement de l'aîné va définir son comportement, le mode de communication qu'il va utiliser et de ce fait les relations fraternelles. I.2.1.3. Composition sexuée de la fratrie et configuration de la fratrie La configuration de la fratrie est définie par deux aspects : la position dans la fratrie et le sexe des enfants. Dans une dyade de deux enfants la combinaison de ces deux facteurs donnent les configurations suivantes : aîné-cadet ; aîné-cadette, aînée-cadet, aînée-cadette. Toman (1987) définit l'influence de ces configurations sur l'enfant et ses relations fraternelles. Ainsi dans une configuration de deux frères, le frère aîné d'un frère apprend à assumer la responsabilité de son frère, à le protéger et à renoncer à certaines choses en sa faveur. Ce rôle est un peu plus difficile au début parce qu'il ne reçoit rien en retour de son cadet mais plus tard il peut avoir droit à des faveurs, à une reconnaissance et à l'acceptation de sa tutelle par le cadet ce qui peut être gratifiant pour lui ou au contraire avoir un cadet qui le défi, rejette sa direction et ses soins et entre en compétition avec lui. La relation est alors moins gratifiante. Quant au cadet son frère aîné lui apparaît comme plus fort et parfait, et cela peut crée un besoin de le rattraper, de le surpasser ou de s'opposer à lui. Les conflits de pouvoir seront d'autant plus forts que l'écart d'âge est faible, un ou deux ans, avec quatre ou cinq ans d'écart leur personnalité se développe dans une indépendance plus grande. Dans une configuration Frère et soeur, le frère aîné d'une cadette lorsqu'il réalise la différence de sexe peut ne pas rentrer en compétition avec elle, ils forment un couple comme les parents. La soeur cadette d'un frère apprend à admirer son frère, à accepter sa protection, ses soins et sa tutelle. Dans une configuration de soeur et frère, la soeur aînée d'un cadet peut jouer à la mère avec lui, elle est emmené à s'occuper de lui, à le garder, le protéger à être responsable de lui ; le frère cadet peut l'admirer et profiter de ses soins. Configuration de deux soeurs, l'aînée à l'avantage d'être plus forte et intelligente dans les premières années. Mais la soeur cadette peut être considérée comme une rivale pour l'affection du père. La soeur lorsque l'écart d'âge est faible elle apprend à dominer sa jalousie et à prendre ses responsabilités vis-à-vis de sa soeur, elle joue un rôle de mère à son égard. La 94 Chapitre 4. Recomposition familiale et relations fraternelles cadette est dépendante de l'ainée et accepte d'emblée son autorité et son aide, mais essaie tout de même de s'affirmer, de faire aussi bien que sa soeur ou même mieux et enfin de s'opposer à elle. En ce qui concerne la composition sexuée, elle semble influencer l'intensité de conflits dans la fratrie selon la description faite par Toman (1987). Il apparaît dans son analyse des configurations que les relations fraternelles sont différentes selon que la fratrie est mixte ou non. Les conflits semblent être atténués dans les fratries de sexes différents parce que les enfants sont moins en compétition. Aussi, selon Stewart (1983), la mixité modère les rivalités fraternelles et facilite les identifications parentales. Cependant l'étude de Widmer (1999) ne montre aucun effet du sexe sur la fréquence des conflits qui est identique dans les fratries mixtes et unisexuées. I.2.2. Fonctions des relations fraternelles Les relations fraternelles remplissent au moins trois fonctions : − une fonction d'attachement, de sécurisation, de ressource ; − une fonction de suppléance parentale ; − une fonction d'apprentissage des rôles sociaux et cognitifs. I.2.2.1. Fonction d'attachement I.2.2.1.1. De l'attachement mère-enfant à l'attachement fraternel Bowlby introduit en 1958 un terme particulier dans la relation mère-enfant: l'attachement. Ce terme désigne un lien affectif entre la mère et l'enfant qui s'établit dès la naissance de l'enfant. Ce lien n'est pas déterminé par les besoins physiologiques comme la nourriture, mais par un besoin inné de l'enfant d'aller vers l'autre, d'être en lien avec l'autre. Le comportement d'attachement s'observe lorsque certains systèmes comportementaux sont activés par des situations perçues comme menaçantes. Ces systèmes comportementaux résultant de l'interaction entre l'enfant et la figure principale de son environnement : sa mère (Bowlby, 1969). L'enfant, à partir de ces interactions, forme une représentation des réponses parentales, les modèles internes opérants (MIO) qui guident son comportement d'attachement. Plusieurs autres auteurs ont contribués à l'élaboration et à l'opérationnalisation de cette théorie. En 1978, Ainsworth, Blehar, Waters et Wall ont élaboré un protocole expérimental de sept 95 Chapitre 4. Recomposition familiale et relations fraternelles épisodes pour L'observation des interactions mère-enfant : la situation étrange, « strange situation ». Ils ont défini des formes différentes d'attachement mère-enfant : l'attachement sécurisant (classification B), l'attachement évitant (classification A), l'attachement résistantambivalent (classification C), l'attachement désorganisé /désorienté (classification D), (Tarabulsy & al., 2000). Ce lien prend des formes différentes d'une phase à une autre du développement. Entre 3 et 4 ans le développement des aptitudes cognitives, motrices, langagières de l'enfant, lui permettent d'influencer le comportement de ses parents à son égard, de communiquer et d'obtenir une meilleure satisfaction de ses besoins, une meilleure compréhension parentsenfants. Le développement de la locomotion permet à l'enfant d'explorer son monde élargi et d'entrer en contact avec une plus large variété de personne. A 6 ans il y a un déplacement au niveau du fonctionnement avec la scolarisation, l'apprentissage des rôles sociaux (Bowlby, 1969, Ainsworth, 1991). L'attachement ne se limite pas à la relation précoce mère-enfant, c'est un lien affectif. En effet, selon Ainsworth (1991), le lien affectif diffère de la relation sur trois points. La relation est dyadique alors que le lien affectif bien qu'il se construise dans un contexte dyadique s'appui sur une représentation interne chez l'individu. Le lien affectif est par définition de longue durée alors que la relation peut être de longue durée ou éphémère. La relation a des composantes différentes et certaines de ces composantes ne relève pas d'un lien affectif. Il définit le lien affectif comme un lien de durée relativement longue dans lequel le partenaire est important en tant que personne unique, non interchangeable avec quelqu'un d'autre. Dans le lien affectif il y a un désir de maintenir la proximité avec le partenaire une séparation inexplicable peut provoquer de la détresse et une perte définitive, de la douleur » (op.cit., 38). L'attachement est un lien affectif. De ce fait une figure d'attachement n'est pas interchangeable avec une autre même si le sujet peut être attaché à d'autres personnes. Il y a dans l'attachement un besoin de maintenir la proximité, une séparation provoque de la détresse, des retrouvailles de la joie, et la perte définitive de la douleur. Mais contrairement aux autres liens affectifs, l'attachement comporte la recherche d'une expérience de sécurité et de confort dans la relation avec l'autre. 96 Chapitre 4. Recomposition familiale et relations fraternelles Sur la base de ces éléments théoriques, les études sur l'attachement visent à comprendre l'évolution de l'attachement mère-enfant avec l'âge de l'enfant mais aussi les autres liens d'attachement de l'enfant dans la famille. La théorie a donc été construite sur la base de la relation précoce mère-enfant, mais elle a été étendue aux autres phases du développement de l'enfant, à la relation père-enfant et à la fratrie. I.2.2.1.2. L'attachement fraternel Les membres d'une fratrie tissent des liens affectifs d'attachement. Ces liens sont mis en évidence sous forme de substitution parentale. Stewart (1983) a observé le comportement interpersonnel de 54 mères, leur aîné d'âge préscolaire et leur cadet pour déterminer la capacité de l'aîné à jouer le rôle d'une figure d'attachement subsidiaire. Les résultats indiquent que 52% des aînés rassurent et apportent du confort à leur cadet en l'absence de leur mère. Des différences ont été observées selon que les dyades fraternelles sont mixtes ou non. Les frères aînés sont plus actifs dans les soins qu'ils donnent à leur jeune soeur et les soeurs aînés dans les soins donnés à leur jeune frère. Les frères aînés ont tendance à répondre exactement à la demande de soin de l'enfant, alors que les soeurs aînées ont tendance à aller au delà de ce qui leur est demandé. Dans le prolongement de cette étude, Stewart et Marvin (1984) introduisent une nouvelle variable, présentée sous le terme de « perpective-taking » et analysent son lien avec la capacité des aînés à être des figures d'attachement subsidiaires. Le terme de « perspectivetaking » se réfère à la capacité de l'enfant, à faire des inférences sur les projets de la mère et à faire de bonnes prédictions sur son retour. L'enfant peut coopérer avec sa mère et se mettre d'accord avec elle sur le comportement de chacun pendant la séparation. Leur étude fait ressortir un lien structurel et fonctionnel entre l'habilité de « perspective-taking » et le comportement de « caregiving ». Les enfants qui ne sont pas capables de « perspectivetaking » jouent rarement le rôle de « caregivers ». De plus les mères ont plus tendance à demander aux aînés de prendre soin de leur cadet seulement si l'aîné est capable de « perspective- taking ». Certains enfants sont amenés à jouer le rôle de parents auprès de leurs frères et soeurs et avoir une position de donneur de soins. Ainsworth (1991) assimile ce rôle à celui d'un père qui prend soin de ces enfants et considère que l'aîné d'une fratrie qui joue ce rôle peut devenir 97 Chapitre 4. Recomposition familiale et relations fraternelles une figure d'attachement supplémentaire pour son jeune frère. Aussi le lien fraternel peut-il constituer un support pour l'enfant dans des situations difficiles. Selon Ainsworth (1991), lorsqu' un ou plusieurs frères sont séparés de leur figure d'attachement principale et qu'il traverse cette épreuve ensemble, la détresse de chacun peut être réduite par les interactions avec les autres. Dans une situation de décès d'un parent, la douleur de l'enfant et son sentiment d'abandon peuvent être atténués par les soins qu'il reçoit de son aîné qui joue alors un rôle de protecteur. Ce rôle a un double effet il est bénéfique et pour le cadet et pour l'aîné. Prendre soin de son jeune frère procure à l'aîné lui-même un sentiment de sécurité soit parce qu'il se sent moins impuissant, soit parce que cela le détourne de sa propre détresse (Ainsworth, 1991). L'attachement fraternel est aussi mis en évidence dans les interactions de tutelle. TroupelCremel (2006) a analysé le lien entre l'attachement et les interactions de tutelle, au niveau de la fratrie, et les résultats de son étude indiquent que l'aîné est une figure d'attachement sécurisée pour leur puîné dans 70% des fratries étudiées. De plus, la qualité de l'attachement est influencée par les caractéristiques de la fratrie, mais aussi par la représentation que se fait l'aîné des niveaux d'opposition et de coopération qui existent au sein de sa fratrie. Cette représentation varie avec l'âge. En effet, les aînés qui appartiennent au groupe des jeunes enfants ont une représentation ambivalente des relations fraternelles qui se rapporte aussi bien à la coopération qu'à l'opposition alors qu'avec les adolescents, il y a une baisse soit de l'opposition soit de la coopération. Aussi les interactions de tutelle fraternelle sont-elles influencées par la représentation et le type d'attachement. La comparaison entre ces interactions de tutelles et celles des parents indiquent que contrairement à la mère, le tuteur fraternel apporte plus d'aides directes à son cadet et se focalise davantage sur la performance au détriment de la transmission d'un savoir faire. De plus les filles proposent à leur cadet une tutelle « guidante » comme le feraient les mères alors que les garçons mettent en place une tutelle du type « laisser faire » proche de celle des pères. I.2.2.2. La fonction de suppléance parentale La fonction de suppléance parentale que comporte la fratrie dans sa dimension horizontale est soulignée en psychologie. Le groupe fraternel est analysé par Almodovar (1998) comme un micro-système autonome par rapport au couple parental et régi par des lois qui lui seraient propres. Le groupe fraternel et le couple parental sont deux micro-systèmes 98 Chapitre 4. Recomposition familiale et relations fraternelles qui appartiennent à un méso-système et entretiennent des relations complexes. Il souligne que le groupe fraternel assure une fonction de contenance psychique de substitution auprès de l'enfant surtout dans les situations de crise familiale telles que la séparation des parents. La fonction de suppléance parentale est très présente chez les thérapeutes de la famille. Benghosi (2000), présente la fratrie comme un groupe qu'il définit comme une entité psychique différente de la somme des psychés individuelles des frères et des soeurs et auquel il correspond un appareil psychique de fratrie avec un contenant groupal de fratrie. Il attribut à la fratrie une fonction d'étayage et de « remaillage » du lien généalogique dans les thérapies familiales sur « les pathologies du contenant généalogique ». En effet, Benghosi (2000) décrit un contenant généalogique groupal familial constitué de maille c'est-à-dire un agencement de liens psychiques. Le maillage est alors le travail psychique de construction/déconstruction et d'organisation de ces liens psychiques. Il permet « l'intégrité et le maintien des contenants généalogiques groupaux, familiaux, et communautaires » (op.cit., 106). Les pathologies du contenant généalogique sont liées à des failles dans le maillage dues à des problèmes de transmission psychique. Selon Benghosi (op.cit., 107), « tout processus qui met en jeu une attaque destructrice du lien de filiation se traduit au niveau groupal par une défaillance des contenants psychiques ». La fonction de remaillage de la fratrie passe par « les loyautés généalogiques » qui constituent un héritage familial inconscient porté par les différents membres de la famille. « Elles correspondent pour chaque membre du groupe fratrie à une responsabilité d'appartenance ». Chaque sujet appartient à la fois au groupe fratrie et au groupe famille qui le contient et qu'il participe à constituer. La thérapie fait ressortir les différents aspects de l'héritage familial porté par chaque membre de la fratrie et permet la restitution du roman généalogique groupal familial dans le sens descendants-ascendants. La fratrie assure la transmission du mythe familial structurante de l'identité et de la différence. Les sujets se construisent d'abord comme frères et soeurs, membres d'un même groupe-fratrie. Ainsi la fonction d'étayage du contenant fratrie fait de la fratrie un organisateur du lien généalogique. La sociologie accorde également à la fratrie cette fonction de suppléance parentale. Selon Langevin (1998, p19), « il rentre dans la fonction de frère ou de soeur d'être en réserve face au manque ou à l'adversité qui affaiblirait la famille car c'est à l'intérieur du cercle familial que sont puisées les ressources de survie de la parentèle en cas de besoin. Etre frères et soeur suppose une mobilisation possible sous différentes formes : un apport de travail, de protection et de prise en charge éducative des plus jeunes ». 99 Chapitre 4. Recomposition familiale et relations fraternelles I.2.2.3. Fonction d'apprentissage des rôles sociaux Les relations entre frères et soeurs dans leur dimension horizontale contribuent au développement psychosocial de l'enfant. Porot (1954) indique que la fonction essentielle des frères et soeurs est de permettre la meilleure socialisation possible de l'enfant. Cette contribution porte sur deux aspects: la construction du moi et l'apprentissage des rôles sociaux. Les contacts fraternels de tous les instants participent à la prise de conscience du « moi » et à l'autonomisation par rapport au monde extérieur (Porot, 1954). En effet, l'expérience fraternelle banale confronte l'enfant de façon permanente au frère comme obstacle, comme limitation à sa toute puissance imaginaire et cela contribue à la différenciation moi/autrui (Almodovar, 1998). De plus les rapports des enfants entre eux sont la répétition des rôles qu'ils joueront plus tard dans la société. C'est avec les frères et soeurs que l'enfant joue le plus et éprouve ses premiers affects envers un pair. Les relations fraternelles permettent à l'enfant de connaître le partage, l'égalité et le respect. Il apprend avec sa fratrie à gérer son agressivité, à découvrir la complicité, et à se situer par rapport à des pairs (Meynckens-Fourez, 2002 ; Espiau et Beaumatin, 2003). Les relations fraternelles amènent l'enfant à penser son rapport au monde et son rapport à autrui, un autrui proche en âge dans une relation plus égalitaire, plus horizontale, à l'image de ce qu'il peut être amené à vivre à l'extérieur du monde familial (Espiau et Beaumatin, 2003). La rivalité fraternelle est alors normale et nécessaire car elle permet à l'enfant d'apprendre à faire face à la lutte que constitue la vie (Porot, 1954). Sous cet angle, le sous-système fratrie peut être défini comme un laboratoire qui offre de nombreuses occasions de rivalités, de complémentarités, d'identifications et d'oppositions (Meynckens-Fourez, 2004). Par ailleurs les relations fraternelles positives favorisent une bonne adaptation sociale de l'enfant. Elles contribuent à son bien-être des enfants (Widmer & Weiss, 2000 ; Pike, Coldwell & Dunn, 2005) 100 Chapitre 4. Recomposition familiale et relations fraternelles II. La fratrie germaine dans la recomposition familiale La fratrie est une entité familiale qui est de plus en plus au centre des travaux sur le développement de l'enfant dans des situations de vie particulières. Ces situations sont dites particulières parce qu'elles sont caractérisées par un niveau de difficultés et d'enjeux importants. Elles peuvent, de ce fait, être source de stress et affecter le développement de l'enfant. Elles sont regroupées sous des termes tels que : événements de vie, stress familial et transitions familiales. Les travaux sur la fratrie dans ces situations familiales difficiles s'articulent autour de trois points : la présence ou absence de fratrie, la qualité des relations fraternelles et la fratrie comme facteur de protection ou son effet tampon. La première question qui fonde ces travaux est : quel effet ces situations difficiles ont sur la qualité des relations fraternelles ? Cette question est abordée en référence à l'approche systémique et aux processus de « spill over » et de « compensation ». Les relations dans le sous-système conjugal et parents-enfants vont influencer les relations dans le sous-système fratrie. Sous cet angle, l'effet des transitions familiales sur la qualité des relations fraternelles peut être positif et/ou négatif. Selon l'étude de Drapeau, Simard, Beaudry et Charbonneau (2000), les relations fraternelles sont plus harmonieuses dans les situations de placement en familles d'accueil et de divorce parental lorsque la fratrie n'est pas séparée. Les auteurs ont, en effet, réalisé une étude sur les relations fraternelles selon que la fratrie est séparée ou non, lors d'un placement en famille d'accueil ou d'un divorce parental. Les résultats indiquent que les fratries sont susceptibles d'être séparées lorsque les enfants sont grands et lorsqu'il y a un grand écart d'âge entre les enfants. En outre, les enfants qui sont séparés sont moins souvent en contact surtout dans les situations de placement en famille d'accueil. De plus, les enfants de fratrie intacte ont des relations plus harmonieuses avec leurs frères et soeurs que ceux de fratrie séparée. Il apparaît donc que les deux types de transition familiale ont un impact négatif plus important sur les relations fraternelles lorsque la fratrie est séparée. Ces résultats semblent être confirmés par ceux obtenus par Abbey & Dallos (2004). Leur étude examine l'impact du divorce sur les relations entre frères et soeurs. C'est une étude exploratoire qualitative qui porte sur 8 jeunes femmes qui parlent des effets du divorce de leurs parents sur leurs relations avec leurs fratries. Les résultats font ressortir trois thèmes : un 101 Chapitre 4. Recomposition familiale et relations fraternelles changement au fil du temps, un impact émotionnel du divorce et un processus systémique. Plus précisément, les participantes évoquent une augmentation de la proximité dans leurs relations fraternelles due au fait de partager ensemble la même expérience du divorce parental. Pour ce qui est du processus systémique, il se traduit par le fait que l'augmentation de la proximité entre les membres de la fratrie est une conséquence de l'indisponibilité des parents pendant le divorce. Ces deux études ont des résultats qui tendent vers un effet positif des transitions familiales sur les relations fraternelles. Ces résultats diffèrent de ceux obtenus par Hetherington (1989). Elle a analysé les effets à long terme du divorce et du remariage sur les enfants et identifie deux alternatives : - les transitions familiales augmentent la rivalité et l'hostilité dans la fratrie. Les frères et soeurs rentrent en compétition pour les rares ressources que procurent l'amour et l'attention parentale après le divorce ou le remariage de leurs parents. - les frères et soeurs qui traversent des transitions conjugales peuvent considérer les relations avec les adultes comme instables, non fiables et douloureuses. Ils se tournent alors les uns vers les autres pour le réconfort, le soutien et l'alliance. Les résultats de l'étude indiquent que la fratrie dans les familles recomposées présente plus de problèmes que les fratries de familles intactes. Ils sont plus agressifs les uns envers les autres, évitant, montrent plus de rivalité et sont moins chaleureux que dans les autres fratries. Les comportements agressifs sont plus fréquents quand le cadet est en interaction avec un frère de sexe masculin. De plus les rivalités fraternelles, l'agressivité, et le désengagement accroissent les comportements antisociaux et réduisent les comportements pro-sociaux dans les familles divorcées et les familles recomposées. Il ya moins d'implications dans la protection de la fratrie. L'étude de Bush & Ehrenberg (2003) donne des résultats plus nuancés. Ces auteurs ont réalisé une étude exploratoire sur la perception de l'influence des transitions familiales sur les relations fraternelles. Ils ont dans une approche rétrospective, interrogé des adolescents et des jeunes adultes sur leurs relations fraternelles dans un contexte de divorce parental vécu pendant l'enfance. Les entretiens ont porté sur leurs relations fraternelles maintenant, avant, pendant et après la séparation des parents. Une première analyse qualitative a permis de faire ressortir sept thèmes : l'impact du divorce sur les relations fraternelles, la permanence de la proximité fraternelle, la parentalisation, la variation dans l'impact du divorce, le 102 Chapitre 4. Recomposition familiale et relations fraternelles prolongement de l'impact, la constance de la relation fraternelle et l'effet des relations fraternelles sur la manière de faire face au divorce. Une autre analyse a examiné la fréquence de ces thèmes dans les protocoles en lien avec les caractéristiques des participants et de la fratrie à laquelle ils appartiennent. Les résultats concernant l'impact du divorce sur les relations fraternelles indiquent deux types d'impacts : le rapprochement ou le conflit. Plus des 2/3 des sujets affirment que le divorce les a rapprochés de leur frère ou de leur soeur. Différentes causes ont été liées à ce rapprochement. Certaines se rapportent à leur mode de vie, il s'agit du fait d'être ensemble d'un parent à un autre, de partager une chambre dans une autre maison ou de rester seul dans la maison pendant que le parent gardien travaille. D'autres à des changements dans leur relation. Les sujets évoquent alors le fait que le divorce créé un contexte qui révèle les frères et soeurs sous d'autres facettes ou accélère la maturation des relations fraternelles. Les sujets indiquent également que le divorce les a rapprochés de leur frère ou soeur parce qu'il constituait une expérience commune, il leur permettait d'avoir quelque chose en commun. Le divorce était une bonne raison pour s'ouvrir les uns aux autres. Il conduit à une sorte de coalition, d'unité. Au niveau des conflits, 33% des sujets évoquent une augmentation des querelles et de l'irritabilité pendant le divorce des parents. L'explication la plus commune est que le divorce provoque des sentiments d'insécurité et de confusion qui s'expriment par l'agressivité entre frères et soeurs. Mais plusieurs participants soulignent que leur fratrie constituait un support pour eux dans cette période de confusion et de réorganisation parce qu'elle était stable et nécessitait peu de reconstruction. D'autres participants relient les conflits au fait qu'ils déversaient leur colère sur leur fratrie parce qu'elle était plus disponible et qu'ils hésitaient à l'exprimer directement à leurs parents. Les conflits sont également liés au désaccord dans la fratrie sur les stratégies de coping. Selon les sujets les conflits sont transitoires et se limitent aux deux premières années suivant le divorce. Pour plusieurs d'entre eux ces conflits n'ont pas d'effets durables sur leur relation fraternelle. Une minorité des sujets, 17% estime que leurs conflits fraternels ont baissé pendant la séparation. Ils ont évité les conflits pour ne pas créer plus de problème aux parents, ou pour pouvoir bénéficier du soutien de la fratrie. Mais les deux types d'impact sont souvent associés, 60% des sujets qui évoquent une augmentation de la proximité mentionnent également une augmentation des conflits. 103 Chapitre 4. Recomposition familiale et relations fraternelles Les résultats montrent également que l'impact du divorce sur les relations fraternelles se traduit par le fait de prendre soin des plus jeunes. 40% des sujets affirment avoir eu un frère ou une soeur pour figure parentale ou qu'ils ont été eux-mêmes une figure parentale pour un frère ou une soeur. Leur rôle de parent naît de l'indisponibilité des parents. Les aînés aident les plus jeunes à faire face à la situation. Ils peuvent également les protéger des détails douloureux du divorce. Pour les sujets ce rôle rapproche la fratrie dans la mesure où il révèle l'intérêt que les aînés portent à leur cadet. Cependant il peut y avoir un effet négatif sur la fratrie, lorsque le frère ou la soeur devient la figure parentale dominante en prenant également soin du parent gardien. La deuxième question qui fonde les travaux sur la fratrie dans les situations familiales difficiles est la suivante : quelles influences la fratrie a sur l'effet de ces situations sur le développement de l'enfant ? Elle est analysée en référence au modèle de « l'effet tampon » (buffer effect). Selon ce modèle les ressources personnelles ou environnementales vont intervenir entre le stresseur et sa répercussion sur le sujet. Elles jouent un rôle de tampon entre les événements difficiles et le sujet. L'effet tampon de la fratrie dans l'appropriation de situations de divorce et de recomposition familiale par l'enfant est abordé sous différents aspects. La fratrie peut être abordée en termes de présence ou non de fratrie. L'étude de Kempton, Arlistead, Wierson, Forehand (1991) s'inscrit dans cette approche. Ils examinent l'effet tampon de la présence d'une fratrie contre les effets négatifs du divorce parental sur de jeunes adolescents. 79 adolescents de familles intactes, 77 de familles divorcées, leurs mères et un de leurs enseignants ont participé à l'étude. Les variables indépendantes de leur analyse étaient le genre de l'adolescent, le statut marital des parents (divorcé ou non), et la fratrie (pas de fratrie, un grand frère ou une grande soeur seulement, un petit frère ou une petite soeur seulement). Les mesures dépendantes ont porté sur les comportements externalisés tel que rapporté par l'enseignant et les comportements intériorisés tel que rapporté par l'enseignant et l'adolescent. Les résultats indiquent un lien significatif entre le statut marital et la fratrie. De manière générale, les adolescents de parents divorcés présentent plus de troubles du comportement externalisés que ceux de parents non divorcés. Toutefois les adolescents sans fratrie semblent présenter plus de problèmes externalisés que les autres. 104 Chapitre 4. Recomposition familiale et relations fraternelles Dans cette même approche de la fratrie et toujours dans le domaine de la famille, Lockwood, Gaylord, Kizman et Cohen (2002) indiquent qu'avoir une fratrie peut avoir un effet tampon dans des situations de haut stress. L'effet tampon (buffer effect) de la fratrie dans les situations de divorce et de recomposition familiale peut être abordé dans le sens de la qualité des relations fraternelles et de son effet sur le développement de l'enfant. Dans cette approche les données semblent indiquer que des relations fraternelles positives ont un effet tampon contre les effets négatifs des situations difficiles. Selon Hetherington (1989) cet effet n'est pas immédiat. Il a réalisé une analyse des facteurs qui contribuent à faire des enfants de parents divorcés et de famille recomposées, des survivants, des gagnants ou des perdants. Il ressort de son analyse que les relations fraternelles positives jouent un rôle plus important de protection chez les aînés que chez les cadets. Mais ce rôle de protection de la fratrie apparaît plus tard dans la recomposition. Selon lui, les relations parents-enfants sont si fortes dans les premiers moments, que les relations fraternelles ne peuvent les modérer. L'effet protecteur de la fratrie germaine se présente sous différentes formes et le rôle de l'aîné est souvent souligné comme le montre les études de Bush & Ehrenberg (2003) et Jacobs & Sillars (2012). Ces études sont toutes les deux basées sur des entretiens rétrospectifs et ont été réalisées auprès d'adultes qui sont des enfants de parents divorcés. Bush & Ehrenberg (2003) ont analysé l'influence de la fratrie sur la capacité des sujets à faire face à la situation de divorce. Les résultats indiquent que pour 67% des sujets leur fratrie a eu un effet positif sur leur capacité à faire face au divorce de leurs parents. Selon les participants, les frères et soeurs sont disponibles pour parler du divorce. En outre, les aînés rassurent les plus jeunes sur le bon déroulement des événements. Ils peuvent aider leur cadet à comprendre leurs sentiments sur le divorce, à mettre des mots sur la situation ou ils leur apprennent à faire face. La majorité des sujets évoque également des éléments qui les ont aidés plus subtilement. Il s'agit de la réaction des aînés face au divorce : leur sérénité, le fait de ne pas être seul à traverser cette épreuve, de leur présence à leur côté, de la stabilité que représente la fratrie, de l'humour, de la distraction qui les libère du stress. Jacobs & Sillars (2012) examinent le soutien social de la fratrie après le divorce des parents. Les relations fraternelles étaient différentes selon la forme et la direction du soutien, comme indiqué dans les sept types de relations de soutien frères et soeurs (séparé, les pairs, les alliés, les adversaires, les parents, protecteur, encourageant). Une relation fraternelle basée sur la 105 Chapitre 4. Recomposition familiale et relations fraternelles disponibilité et le compagnonnage prédit un meilleur ajustement au divorce. Les analyses qualitatives ont suggéré que la compagnie d'un frère rassure et encourage la résilience, même en l'absence de messages de soutien explicites ou d'aide tangible. La fratrie de soutien a semblé protéger les enfants en fournissant un sentiment de continuité et d'expérience partagée lors de la réorganisation de la famille. Le soutien entre frères et soeurs a généralement joué un rôle complémentaire à l'appui des parents. Toutefois, la fratrie fournit parfois un soutien de compensation plus important et direct dans les cas où un soutien parental approprié n'est pas disponible. Cette assistance a permis d'aider les enfants à surmonter les changements familiaux particulièrement stressants, mais n'a pas atténué leurs sentiments négatifs au sujet du divorce. L'effet tampon de la fratrie a été mis en évidence dans une approche plus générale des évènements ou des situations stressantes qui touchent la famille. Widmer & Weiss (2000) ont réalisé une étude basée sur l'hypothèse que le support d'un aîné bien adapté est associé à une adaptation sociale positive pour les adolescents désavantagés du centre ville. L'échantillon est composé de 148 fratries qui cohabitent dans zone urbaine. Cette étude examine le lien entre le support d'un aîné, l'adaptation d'un aîné et l'adaptation d'un cadet dans le domaine de la délinquance, la réussite académique et la santé mentale. Leur étude montre que le support de l'aîné n'a un effet significatif sur le développement du cadet que si celui-ci bénéficie d'une bonne image auprès du cadet. Dans cette même perspective générale, Gass, Jenkins et Dunn (2007) utilisent le terme d'événements stressants pour désigner les évènements qui peuvent bouleverser la famille. Ce terme englobe les maladies, les accidents, la mort, les catastrophes, les séparations définitives, les événements liés à la justice, au conjugal et à l'école. Ils analysent l'effet protecteur des relations fraternelles positives face à ces événements stressants. Il ressort de leur étude que ni les évènements stressants, ni l'affection fraternelle pris isolément ne sont des prédicateurs significatifs de changement au niveau du fonctionnement interne et externe des enfants. Mais leur interaction est un prédicateur significatif de changement dans le fonctionnement interne de l'enfant. Après une expérience stressante, les enfants qui ont des aînés très affectifs connaissent moins de changement dans leur fonctionnement interne en comparaison aux enfants qui n'ont pas de relation très affective avec leur aîné. Les relations fraternelles affectives ont un effet modérateur sur la relation entre 106 Chapitre 4. Recomposition familiale et relations fraternelles les évènements stressants et l'adaptation psychosociale de l'enfant. De plus l'effet protecteur des relations fraternelles affectives ne dépend pas de la qualité des relations mère-enfant. Plus précise que les 2 études précédentes. Celle de Waite, Shanahan, Calkins, Keane et O'Brien (2011) vise à savoir si la fonction protectrice de la chaleur fraternelle varie selon les domaines. Plus précisément, est-ce que la chaleur fraternelle modère l'association entre les différents domaines (les événements concernant la famille dans son ensemble, les évènements de la vie personnelle du jeune, les évènements qui concernent la fratrie) et aussi bien les symptômes de dépressions que les comportements de prise de risque. Les participants étaient au nombre de 187 jeunes âgés de 9 à 18 ans. Les modèles de régression multiple révèlent que la chaleur fraternelle est un facteur de protection contre les symptômes de dépression pour les évènements qui concernent la famille dans son ensemble, mais pas pour les évènements concernant la vie personnelle du jeune et les évènements concernant la fratrie. Les résultats soulignent l'importance de contextualiser les fonctions de protection de la chaleur fraternelle en prenant en compte les domaines des facteurs de stress et d'ajustement. Enfin la qualité des relations fraternelles a également été abordée en termes de processus en référence au modèle PPCT de Bronfenbrenner (1996). Le lien entre les relations fraternelles et le développement de jeunes âgés de 12 à 16 ans est analysé. Il en ressort que la qualité des relations fraternelles est associée au bien-être personnel des jeunes (Saint-Jacques & Chamberland 2000). Les relations fraternelles appartiennent au système familial et peuvent à ce titre être influencée par les relations parents-enfants et conjugales. Cependant les relations fraternelles ont leur propre spécificité, leur propre dynamique. Dans la recomposition familiale les relations fraternelles peuvent se détériorer ou au contraire se renforcer. Lorsqu'elles se détériorent, elles connaissent une exacerbation de la rivalité et deviennent plus conflictuelles et agressives. Cependant lorsqu'elles se renforcent les relations fraternelles peuvent être rassurantes et soutenantes. Les relations fraternelles sont positives elles peuvent atténuer les effets négatifs de la recomposition sur l'enfant. 107 Chapitre 5. Problématique Chapitre 5. Problématique L'INSEE estime à 1.2 million le nombre d'enfants mineurs qui vivent dans une famille recomposée (Vivas, 2009). La famille recomposée est définie par la séparation d'au moins un couple initial et les nouvelles unions qui se construisent à la suite de cette séparation. Elle renvoie à un réseau familial constitué d'au moins deux foyers, celui du père et celui de la mère avec au centre leurs enfants (Théry, 1995). Par ailleurs, les frères et soeurs germains de familles recomposées restent ensemble d'un foyer à un autre de la constellation dans 98% des cas (Chaussebourg, 2007). Aussi la question centrale de notre étude est la suivante : Comment l'enfant s'approprie la famille recomposée et quel rôle joue la fratrie germaine dans cette appropriation ? Nous l'abordons dans une perspective bioécologique (Bronfenbrenner, 1996). Les relations dans la fratrie germaine sont alors analysées comme un processus proximal dans l'appropriation de la famille recomposée par l'enfant. Notre objectif est d'appréhender la famille recomposée du point de vue de l'enfant, il se décline en deux axes : - analyser la manière dont l'enfant se saisit des changements dans sa famille et des particularités de la famille recomposée. - mettre en évidence les aspects des relations dans la fratrie germaine qui selon l'enfant influencent positivement ou négativement son appropriation. La famille recomposée est abordée comme une transition familiale qui intervient à la suite d'une autre qui est la séparation. Cette transition conduit aux premières modifications dans la parentalité et la relation parent-enfant qui auront une influence sur la structure et le fonctionnement de la famille recomposée. Comment la parentalité est-elle remaniée de la séparation à la recomposition familiale ? Quels sont les effets de ses remaniements sur la relation parent-enfant et le développement de l'enfant ? La séparation est la première transition que connaît l'enfant de famille recomposée et qui entraîne des conséquences son développement. Ces dernières peuvent être liées, d'une part, à l'attitude des parents face au divorce. En effet, les parents peuvent impliquer l'enfant dans les conflits qui les opposent. Il est alors amené dans certains cas, à prendre partie, à être le messager entre ses parents ou à jouer un rôle de support pour un parent face aux difficultés du divorce (Poussin & Martin-Lebrun, 1997). D'autre part, les troubles psychologiques de 108 Chapitre 5. Problématique l'enfant peuvent être liés à son interprétation de la situation et sont fonction de son stade de développement. Entre 2 et 3 ans, les difficultés à accepter la situation peuvent se traduire chez l'enfant par des troubles dans son développement psychomoteur et des troubles du langage. Ces difficultés peuvent également se traduire par un repli sur soi et une inhibition. Par contre, entre 3 et 6 ans la séparation peut entraîner des troubles du comportement chez l'enfant et une baisse de son bien-être psychologique qui vont affecter ses acquisitions scolaires (Poussin & Martin-Lebrun, 1997 ; Potter, 2010). La séparation peut susciter un sentiment de culpabilité qui va se traduire par de l'agressivité et un repli sur soi (Poussin et Martin-Lebrun, 1997). Elle peut être source d'anxiété et de dépression chez l'enfant (Stroshschein, 2005 ; Oldehinkel et al., 2008). Par ailleurs, la séparation des parents conduit à une nouvelle organisation de la parentalité basée sur les termes de coparentalité et de système de garde. La parentalité doit se détacher de la conjugalité mais cela peut s'avérer difficile. Aussi, la question de la qualité de la relation coparentale et son impact sur les rôles parentaux se pose t-elle. La qualité de la relation coparentale peut avoir un effet sur la parentalité, surtout sur celle du père. Cet effet se traduit dans les failles qui apparaissent dans sa mise en place, avec l'attribution de la garde de l'enfant à la mère au détriment du père dans 85% des cas, les pères sont moins présents auprès de leur enfant et leur parentalité se trouve affectée dans leur dimension éducative et relationnelle (Neyrand, 2003). De plus, les obstacles à la coparentalité se décrivent en termes de rapport entre les parents qui sont déterminés par la relation conjugale, la procédure de divorce et qui vont définir la qualité de la relation coparentale. Une relation coparentale conflictuelle affaiblit l'implication des pères auprès de leur enfant (Nehami, 2004). En outre, les parents reorganisent leur parentalité sur un système de garde qu'ils choisissent ou qui leur est imposé par décision judiciaire. Les recherches sur ce sujet tendent à faire ressortir l'effet des différents systèmes de garde sur le développement de l'enfant et sur les relations parent-enfant et à définir le meilleur système de garde pour le développement de l'enfant. Il ressort de ces études, d'une part, que la garde conjointe est plus positive pour le développement de l'enfant que la garde exclusive. En effet, les enfants en garde conjointe ont une meilleure adaptation psychologique et comportementale (Wolchik & al. 1985 ; Bauserman, 2002). De plus, leurs pères sont plus impliqués dans leur éducation et les voient plus souvent (Arditti, 1992). Mais il en ressort, d'autre part, que la garde alternée pouvait être à l'origine de troubles du développement chez l'enfant de moins de 6 ans. Des études de cas 109 Chapitre 5. Problématique montrent que la résidence alternée peut provoquer des troubles de l'attachement chez les jeunes enfants parce qu'elle implique une séparation prolongée et/ou répétée de la figure d'attachement principale. Elle définit une instabilité du cadre de vie de l'enfant et dans les cas de conflit elle peut correspondre à deux vies indépendantes (Phélip, 2006). D'autres troubles sont relevés par Rottman (2006), dans l'acquisition de la permanence de l'objet, dans la construction d'une bonne relation d'objet et de la personnalité. Ces troubles sont liés au recours à des mécanismes de défense tel que le clivage par l'enfant pour faire face à l'indépendance de ses deux résidences. Mais les troubles du développement chez l'enfant en résidence alternée peuvent être liés à d'autres facteurs et non seulement au système de garde. Ces facteurs sont, entre autres, la relation coparentale, le sexe et l'âge de l'enfant. Les troubles du développement chez l'enfant en résidence alternée semblent être liés à l'interaction de plusieurs facteurs et non à un effet exclusif du système de garde (Baude, 2012, 2013). La séparation a donc des conséquences sur le développement de l'enfant mais aussi sur la structure familiale. Elle conduit à deux foyers celui de la mère et celui du père et les relations parent-enfant sont définies par la coparentalité et le système de garde. La remise en couple d'un parent constitue une autre transition familiale : la recomposition familiale. Elle va hériter de ces premiers changements dus à la séparation, mais elle-même entraîner des modifications. Quelle est la dynamique de la famille recomposée ? Quels sont les conflits auxquels est confronté l'enfant dans la recomposition familiale ? La remise en couple crée une nouvelle structure familiale. Elle apporte d'autres modifications à la parentalité et une redéfinition les liens familiaux qui peuvent être source de conflits pour l'enfant. En effet, de nouvelles figures parentales entrent dans sa vie et bouleversent le système traditionnel de filiation basé sur le père, la mère biologique et les liens du sang (Fine, 2001). Il en découle une pluriparentalité qui se traduit, entre autres, par des difficultés pour la nomination des liens avec les beaux-parents. Leur statut dans la parenté n'est pas bien défini et le terme de beaux-parents peut créer une confusion dans la mesure où il désigne également les parents d'un conjoint (Théry, 1991 ; Winter, 1995). La pluriparentalité se traduit aussi par une remise en cause des rôles parentaux. Le beau-parent a une position de parent de par sa relation avec un des parents biologiques. Cette position peut être envisagée sous l'angle d'une substitution parentale. Le beau-père ou la belle-mère est présent au quotidien auprès de l'enfant et peut constituer une menace pour l'identité de parent du parent non gardien (Théry, 1991 ; Naouri, 1995). Mais le beau-parent peut définir son rôle 110 Chapitre 5. Problématique dans la famille comme différent de celui de parent. Dans ce cas, il participe à l'éducation de l'enfant sur un plan secondaire et s'attribue une autorité de conseiller. Il se situe alors entre l'ami et le parent (Théry, 1995). Le beau-parent constitue une nouvelle parentalité sociale. Mais la paternité sociale du beau-père s'associe à une fonction symbolique d'autorité qui vise plus à soutenir la mère qu'a inquiéter l'enfant (Blöss, 1996). Du point de vue de l'enfant, le beau-père semble être plus autoritaire qu'il ne le devrait (Graham, 2010). Par ailleurs, les liens entre parents non biologiques et enfants peuvent être difficiles à établir. Les relations figure parentale-enfant semblent être influencées par les liens biologiques. Chaque figure parentale étant plus chaleureuse et plus investie dans l'éducation de son enfant biologique que dans celle de son bel-enfant (Hetherington, 1999). En outre, les relations mère-enfant et belle-mère/enfant sont présentées comme différentes au niveau de l'attachement maternel, par les femmes qui concilient les deux rôles. De plus, la conciliation de ces deux rôles pose la question de l'équité parentale. Le souci d'équité chez le beau-parent peut se traduire par un affaiblissement des démonstrations affectives dans la relation mèreenfant et des démonstrations affectives compensatoires dans la relation belle-mère/enfant. Il peut affecter aussi bien les relations mère-enfant et belle-mère enfant (Gosselin & al., 2007). Du côté de l'enfant la qualité des premières relations parent-enfant peut influencer la construction de nouveaux liens tout comme l'arrivée d'un beau-parent peut modifier la qualité des premières relations parent-enfant. La relation mère-enfant peut s'affaiblir avec l'arrivée d'un beau-parent et un enfant qui est proche de sa mère peut plus facilement devenir proche de son beau-père (King, 2009). En outre, les enfants semblent répondent, favorablement ou non, aux efforts du beau-parent pour établir une relation, en fonction des résultats de leur évaluation des apports bénéfiques du beau-parent, pour eux et leur parents (Ganong & al., 2001). La parentalité dans la famille recomposée pourrait être source de conflits psychologiques pour l'enfant. Elle affecte la relation parents-enfant. Son milieu familial est composé des nouveaux foyers construits par chacun de ses parents. Ces foyers peuvent être, selon la qualité de la coparentalité et le système de garde, très indépendants et entraîner des contradictions, des discontinuités dans la vie familiale de l'enfant. De plus, la pluriparentalité conduit l'enfant à questionner la place des figures parentales mais aussi ses liens de filiation, son identité. Elle fragilise la fonction de contenance psychique du couple parental pour l'enfant (Almodovar, 1998). Dans la recomposition familiale, l'enjeu pour l'enfant est de créer de nouveaux liens mais aussi de maintenir les anciens, de s'approprier la famille recomposée. 111 Chapitre 5. Problématique Comment l'enfant de famille recomposée s'approprie les changements familiaux ? La recomposition familiale peut être source de conflits psychosociaux pour l'enfant et l'amener à trouver des stratégies d'appropriation. L'enfant de famille recomposée est confronté à des changements. La structure et le fonctionnement de la famille recomposée diffèrent de ceux de la famille nucléaire dans laquelle il a vécu. Ces différences entraînent des conflits internes qui conduisent l'enfant à faire des choix et à réorganiser ses liens familiaux. Il s'approprie les éléments de cette nouvelle famille en leur donnant du sens et en les rattachant à ses besoins et à ses désirs. L'appropriation permet à l'enfant de trouver un équilibre psychosocial. Il va donc être nécessaire à chaque fois qu'un équilibre sera rompu et qu'il faudra en trouver un autre (Malrieu & Malrieu, 1973 ; Malrieu, 1976). L'appropriation de la famille recomposée se révèle dans les représentations de la famille, les stratégies de coping, l'adaptation socio-affective et la qualité de vie. Dans la recomposition familiale, l'enfant est amené à se construire un nouvel équilibre dans la famille recomposée en lieu et place d'un ancien équilibre familial qui est rompu par la séparation et la remise en couple des parents. L'enfant est inscrit dans un processus de recomposition qui remet en cause les représentations de la famille. L'appropriation de la famille recomposée par l'enfant implique un réajustement de ses représentations et de son organisation de la famille (Lanneau, 1998). C'est un travail psychique qui consiste à concevoir et à symboliser sa nouvelle structure familiale. La séparation des parents se traduit chez l'enfant par des pertes et des absences qui génèrent des manques. L'enfant doit faire le deuil de la famille nucléaire et trouver de nouveaux repères dans la famille recomposée. Il va reconstruire sa famille, définir et nommer ses liens avec les autres par de la création symbolique parce que les critères peuvent être différents de ceux qui définissent habituellement la famille (Polard, 2000). La représentation de la famille dans le cadre des séparations et des recompositions familiales est influencée par les conflits conjugaux et la structure familiale. Les conflits conjugaux ont une influence négative sur la représentation de la famille chez l'enfant (Schudlich & Cummings, 2001 ; Winter & al., 2006 ). Le type de famille quant à lui, déterminer la composition de la famille selon l'enfant. Sous cet angle, les enfants de familles recomposées ont plus tendance à exclure des membres de la famille que les enfants de familles non recomposées. Nous pouvons dégager deux logiques des travaux que nous avons analysés : une première d'exclusion et une autre d'intégration. La logique d'exclusion vise à retrouver une structure familiale proche de la famille nucléaire en excluant certains membres de la constellation familiale. Les exclusions sont basées sur les liens 112 Chapitre 5. Problématique biologiques ou la résidence. De ce fait, les demi-frères, les quasi-frères et les membres non résidents sont plus susceptibles d'être exclus de la représentation de la famille (Dun & al., 2002 ; Roe & al., 2006). Au contraire, la logique d'intégration vise à retrouver une structure familiale proche de la famille nucléaire en intégrant tous les membres de la famille. Elle est basée sur une uniformisation des liens. Elle se traduit au niveau des liens fraternels par l'appellation frère qui est utilisée pour tous les membres de la fratrie recomposée (Théry, 1991 ; Hurstel, 1993 ; Poittevin, 2005). Par ailleurs les représentations de la famille ont été abordées sous l'angle des rôles parentaux. Les enfants attribuent des rôles à chaque parent et les qualifient de « bon » ou « mauvais » parents selon qu'ils accomplissent ou non les tâches liées à leur rôle (Schvaneldt et al., 1970). Cette représentation des rôles parentaux évolue avec l'âge (Watson, 1983, Amgott-Kwan, 1983). Dans la famille recomposée les rôles et les places dans la famille déterminent les logiques de recomposition chez les enfants (Saint-Jacques & Chamberland, 2000). Le processus de recomposition comporte des difficultés qui peuvent être source de stress. L'appropriation de la famille recomposée consiste également à trouver des stratégies de coping. Nous abordons le coping selon le modèle transactionnel de Lazarus & Folkman (1984). Dans ce modèle, le coping est un processus et non un trait. Le processus de coping dans notre étude est lié à la recomposition familiale et renvoie aux stratégies mises en place par l'enfant pour faire face aux difficultés auxquelles il peut être confronté. Notre analyse du coping dans la recomposition familiale s'articule autour de trois axes : les facteurs de stress, les stratégies utilisées et leur efficacité. Les aspects de la recomposition familiale qui sont source de stress sont, entre autres, la loyauté, la discipline avec les changements au niveau des règles, l'appartenance à deux foyers, la différence par rapport aux autres enfants et leurs familles. La loyauté et la discipline semblent être les facteurs les plus stressants pour les enfants (Lutz, 1983). Au niveau des stratégies de coping, il apparaît que leur choix est influencé par le type d'émotion suscité par le stresseur et le sexe et l'âge. Les enfants semblent utiliser les stratégies de recherche d'un soutien social, de coping palliatif et de coping d'évitement face à l'anxiété. La colère par contre est associée à un coping d'extériorisation des émotions (Vierhaus & Lohaus, 2009). En ce qui concerne l'influence du sexe et de l'âge sur l'utilisation des stratégies, il apparaît que les filles utilisent plus la recherche de soutien social et la résolution de problème. Leurs stratégies sont centrées sur le problème, elles sont actives et visent à trouver des solutions. Quant aux garçons, ils utilisent plus des stratégies non productives telles que le coping d'évitement et les comportements 113 Chapitre 5. Problématique agressifs. Concernant la variable âge, les filles et les garçons les plus jeunes ont plus tendance à garder le problème pour eux. (Eschenbeck & al., 2007 ; Rodríguez, 2012). Au niveau de l'efficacité du coping, les stratégies de coping ou leur efficacité peuvent être analysées comme variable médiatrice ou modératrice entre le stresseur et ses effets sur le développement. En effet, l'efficacité du coping perçu peut être envisagée comme variable médiatrice entre la stratégie de coping et les conséquences du stresseur. Dans ce cadre, l'utilisation de stratégies actives de coping conduit à une efficacité du coping qui est perçu comme forte, et cette perception conduit à une baisse de troubles internalisés. Cependant, un haut niveau de coping d'évitement entraîne une efficacité du coping perçu comme faible et cette perception a un lien positif avec les troubles internalisés et les troubles externalisés (Sandler & al., 2000). Comme variable modératrice, les stratégies de coping peuvent être réparties en facteur de protection et facteur de vulnérabilité dans un contexte de conflits conjugaux. Dans cette perspective, un coping qui est à la fois actif et de soutien est un facteur de protection contre les problèmes de santé chez les enfants et contre les symptômes de dépression et des problèmes d'estime de soi chez les filles. Le coping d'évitement est un facteur de vulnérabilité pour les problèmes internalisés, externalisés et de santé physique chez les garçons. Le coping de distraction est protecteur contre les problèmes de dépression et de santé chez les enfants (Nicolotti & al., 2003). L'équilibre psychosocial que pourrait apporter à l'enfant, sa reconstruction de la famille et ses stratégies de coping peut se révéler dans son adaptation socio-affective et sa qualité de vie. La famille joue un rôle important dans l'adaptation socio-affective de l'enfant en tant que milieu de vie et lieu d'interactions constructives. La relation mère-enfant est principalement basée sur l'affectivité. Elle apporte à l'enfant les fondements affectifs qui lui permettent de se positionner comme sujet et de construire ses relations sociales (Wallon, 1952 ; spitz, 1965 ; Boowlby, 1958, Malher, 1980). La relation père-enfant, quant à elle, favorise la socialisation de l'enfant. Elle est orientée vers l'ouverture au monde extérieur et la socialisation (Le Camus, 2001 ; Bergonnier-Dupuy, 1997 ; Zaouche-Gaudron, 1997 ; Paquette, 2004). Par ailleurs le couple conjugale influence le développement de l'enfant à travers la relation conjugale et l'éducation. La qualité de la relation conjugale peut influencer le développement de l'enfant directement par les conflits conjugaux ou par l'effet des conflits conjugaux sur les relations parents-enfant. Les conflits conjugaux sont associés à des troubles de l'attachement chez l'enfant (Frosch, 2000). Ils affaiblissent les relations parents-enfant, les 114 Chapitre 5. Problématique parents étant moins engagés auprès de leurs enfants et moins attentifs à leurs besoins (Kitzman, 2000 ; Sturge-Apple & al., 2004). Au niveau de la recomposition familiale l'adaptation socio-affective des enfants porte sur les comportements externalisés et internalisés. De manière générale les études qui comparent l'adaptation socio-affective des enfants de familles recomposées à celui des enfants de famille non recomposée indiquent que les enfants de famille recomposées ont plus de troubles du développement que ceux de familles non recomposées. Mais ces études montrent, qu'au delà de la structure, ce sont l'instabilité et les transitions familiales qui affectent le développement de l'enfant. Les enfants ayant vécu au moins une recomposition ont plus de troubles du développement que ceux de familles nucléaires (Saint-Jacques et al., 2006). De plus, le nombre de transitions va définir le niveau d'instabilité de la famille. Ainsi plus les enfants auront vécu de transition plus ils présenteront des troubles du développement (Sun & Li, 2011). Au niveau de la famille recomposée elle même, l'effet des transitions semble plus important quand elles interviennent dans les premières années de vie et lorsque les enfants sont nés de parents mariés (Ryan & Claessens, 2012). Par ailleurs, le contexte familial peut avoir une influence sur le développement de l'enfant. Un environnement familial de bonne qualité, caractérisé par un bon climat familial et des relations familiales de bonne qualité, est associé à une adaptation socio-affective élevée chez l'enfant (Saint-Jacques & Chamberland, 2000). L'appropriation de la famille recomposée par l'enfant peut se traduire dans sa qualité de vie subjective. La qualité de vie subjective ou bien-être subjectif est l'évaluation faite par l'enfant de sa satisfaction de vie et de son bonheur dans ses différents milieux de vie. Elle a une composante affective (joie, bonheur, tristesse) et une composante cognitive qui est l'évaluation cognitive de la satisfaction de vie (Diener & al.1999). La qualité de vie subjective de l'enfant peut être déterminée par des facteurs personnels, des facteurs liés à sa famille et d'autres liés à son environnement social. En effet, l'optimisme est un trait de personnalité qui semble être associé à un niveau de satisfaction de vie élevé. De plus, les relations familiales et amicales positives ont une influence positive sur le bonheur chez l'enfant (Holder & Colman, 2009 ; Oberle & al., 2011). Par ailleurs, la structure de la famille peut expliquer les différences de niveau de satisfaction de vie entre les enfants. De manière générale, les enfants de familles non recomposées indiquent un niveau de satisfaction de vie plus élevé que ceux de familles recomposées. Cependant, le fonctionnement de la famille recomposée est lié à des variations au niveau des enfants. Les enfants en garde 115 Chapitre 5. Problématique conjointe ont un niveau de satisfaction de vie plus élevé que les autres enfants de familles recomposées (Bjarnason & al., 2012). En outre une dynamique familiale basée sur un haut sens de la collectivité et une communication parent-enfant positive sont associées à un bon niveau de satisfaction de vie (Bandura & al., 2011 ; Levin & Currie (2010). De plus la satisfaction de vie chez l'enfant peut être influencée par des facteurs de stress familiaux tels qu'un faible niveau socio-économique, des perturbations dans sa structure, l'accumulation de grands événements de vie, et les conflits inter-parentaux perçus (Chapel & al., 2012). L'appropriation de la famille recomposée renvoie une redéfinition de la structure et des liens familiaux par l'enfant et aux stratégies de coping qu'il utilise pour faire face aux difficultés liées à la recomposition familiale. Elle fait de l'enfant un acteur de la recomposition. Le processus d'appropriation relève du sujet mais s'inscrit dans le lien social. L'enfant s'approprie ces changements en utilisant des significations partagées avec autrui dans le cadre des relations interpersonnelles. Les changements tels que la recomposition familiale conduisent l'enfant à réaménager et à questionner le système de relation dans lequel il est inscrit (Beaumatin & al., 2005). Il s'appuie alors sur ses expériences passées, ses premiers liens et ses premières représentations. L'enfant utilise les éléments de son milieu dans l'appropriation de la famille recomposée. Les composantes de son milieu peuvent donc orienter l'appropriation et nous considérons que la fratrie germaine peut être une de ces composantes. Quelles ressources et quelles contraintes représentent la fratrie germaine pour l'enfant dans la famille recomposée ? L'enfant est un sujet actif dans la famille recomposée, il ne subit pas passivement les changements, mais se construit sa propre famille recomposée. Cette construction personnelle s'appuie sur des processus psychologiques mais aussi sur les composantes et les apports du milieu familial. La fratrie est l'une d'elle. Dans la famille recomposée, il est plus question de fratrie recomposée que de fratrie, dans la mesure où la fratrie recomposée renferme des liens fraternels différents. En effet, la fratrie recomposée peut regrouper des frères germains, des demi-frères et des quasis frères. Les frères germains ont les deux parents en commun. Nous nous focalisons sur la fratrie germaine comme élément de stabilité pour l'enfant dans la famille recomposée. En effet le lien fraternel 116 Chapitre 5. Problématique contribue à maintenir une forme irréductible de permanence (Langevin, 1998). La fratrie germaine constitue l'une des entités de la famille nucléaire qui est transférée dans la famille recomposée. Elle assure une forme de continuité familiale (Jacobs & Sillars, 2012). La fratrie peut être donc une ressource ou une contrainte pour l'enfant dans la recomposition familiale. Les enfants qui appartiennent à une fratrie semblent avoir moins de troubles du comportement que ceux qui n'ont pas de fratrie (Kempton & al., 1991). La compagnie d'un frère paraît rassurer et encourager la résilience, même en l'absence de messages de soutien explicites ou d'aide tangible (Jacobs & Sillars, 2012). Les ressources de la fratrie germaine se définissent en termes de repère identitaire, de figure d'attachement subsidiaire, de soutien et d'effet tampon. La fratrie germaine peut être un repère identitaire pour les enfants face à la multiplicité des origines et la complexité des liens de filiation. Elle pallie aux failles de la structure familiale et du couple parental dans la transmission psychique du lien de filiation. L'appartenance à une fratrie permet à l'enfant de se construire comme membre d'une famille et de s'inscrire dans des liens généalogiques. La fratrie a une fonction d'étayage et d'organisateur du lien généalogique (Benghosi, 2000). Les enfants s'appuient sur leur lien avec leur fratrie germaine pour définir leur lien avec les membres de la famille recomposée. Certains enfants utilisent le terme « frère » pour l'ensemble des enfants (Théry, 1991). D'autres établissent de nouveaux liens avec l'expression « c'est presqu'un frère » Poittevin (2005). La recomposition familiale peut augmenter la proximité entre frères et soeurs (Abbey & Dallos, 2004). Les aînés peuvent devenir des figures d'attachement subsidiaires, ils rassurent les cadets sur le bon déroulement des événements, ils les aident à comprendre la situation et leur apprennent des stratégies pour faire face à la situation (Stewart, 1983 ; Stewart & Marvin, 1984). Les frères aînés peuvent assurer un rôle de parent auprès de leur cadet dans la famille recomposée. La recomposition familiale a des conséquences sur la vie des parents. Les parents sont moins disponibles, soit parce qu'ils se mettent à travailler soit parce qu'ils sont affectés psychologiquement par la séparation. Les aînés deviennent des « caregivers » et sont donc de potentielles figures d'attachement, une base de sécurité pour leur cadet. De plus, cette responsabilité atténue leur propre souffrance ; elle nécessite qu'ils se montrent forts et les détourne de leurs propres angoisses (Ainsworth, 1991). La fratrie fournit parfois un soutien de 117 Chapitre 5. Problématique compensation plus important et direct dans les cas ou un soutien parental approprié n'est pas disponible (Jacobs & Sillars, 2012) La fratrie apporte également à chaque enfant des compagnons de jeux, de la distraction qui libère du stress. Elle atténue, ainsi, les souffrances de chacun de ses membres par la force du groupe qu'elle constitue et par les effets bénéfiques des interactions qu'elle favorise. La fratrie peut aider à faire face à la recomposition familiale. Elle constitue un « groupe de parole » pour chacun de ses membres, les frères et soeurs étant plus disponibles pour parler de la séparation (Bush & Ehrenberg, 2003). Les relations fraternelles affectives ont un effet modérateur sur la relation entre le stress de la recomposition familiale et l'adaptation psychosociale de l'enfant (Gass & al., 2007). La chaleur fraternelle est un facteur de protection contre les symptômes de dépression (Waite & al., 2011) la qualité des relations fraternelles est associée au bien-être personnel des jeunes (Saint-Jacques, 1996 ; SaintJacques & Chanberland 2000). La recomposition familiale peut accélérer la maturation des relations fraternelles. Elle rapproche les frères et soeurs qui se sentent moins différents les uns des autres de par l'expérience commune qu'ils partagent (Polard, 2000). Aussi, les difficultés de la situation peuvent-elles amener les frères et soeurs à mettre fin à leur conflit et à être plus proches les uns des autres (Bush & Ehrenberg, 2003). La fratrie peut tout autant être une contrainte pour l'enfant dans la recomposition familiale. Elle est porteuse de rivalités, de conflits qui conduisent à des drames et à des déchirements. La qualité de la relation fraternelle conditionne la nature de l'influence de la fratrie. Elle doit dépasser les conflits et les rivalités pour constituer un atout pour ses membres (Caillé, 2004). Les liens biologiques de la fratrie germaine peuvent constituer un repère identitaire mais aussi une contrainte s'ils conduisent à une loyauté de chaque membre de la fratrie envers les autres. Cette loyauté peut être un obstacle à l'investissement des nouvelles relations que crée la recomposition familiale. La fonction de substitut parental est rattachée à des responsabilités, des obligations et peut être une contrainte pour l'enfant. De plus la recomposition familiale dans certains cas perturbe la maturation des relations fraternelles. C'est une période de confusion qui peut augmenter l'agressivité et l'irritabilité des membres de la fratrie (Hetherington, 1989 ; Bush & Ehrenberg, 2003). 118 Chapitre 5. Problématique La fratrie germaine est une ressource pour l'enfant dans la recomposition familiale lorsque les relations fraternelles sont de bonnes qualités. Elle apporte à ses membres de la stabilité, l'appartenance à une filiation, un attachement sécurisé et une prise en charge physiologique et psychologique, mais peut aussi être une contrainte, une source de conflit pour l'enfant. Sur la base de tous les éléments développés dans ce chapitre, nous émettons l'hypothèse générale suivante : L'enfant de famille recomposée s'approprie les changements dans la structure et les relations familiales et la fratrie germaine a une influence sur ce processus. Dans la famille recomposée la fratrie germaine constitue le principal élément de continuité lorsqu'elle n'est pas séparée. Elle est le sous-système familial qui change le moins et peut compenser les failles des sous-systèmes parentaux et parent-enfant. La fratrie germaine relie la famille nucléaire à la famille recomposée et les différents foyers de la recomposition familiale les uns aux autres. 119 Partie empirique Partie empirique 120 Partie empirique Cette partie sera consacrée à la présentation de notre méthodologie de recherche et des résultats obtenus. Nous y décrirons nos variables et leurs indicateurs, les outils mobilisés pour le recueil des données ainsi que la population de l'étude. 121 Chapitre 1. Les variables Chapitre 1. Les variables Les variables de notre étude sont analysées selon le modèle Processus-Personne-ContexteTemps (PPCT) de Bronfenbrenner (1996). Elles seront présentées dans ce chapitre sous les termes de résultat du développement, de processus proximal, de personne, de contexte et de temps. I. Résultat du développement : L'appropriation de la famille recomposée par l'enfant Le résultat du développement désigne, selon Bronfenbrenner (1998), le processus du développement qui est analysé. Dans notre étude, l'appropriation de la famille recomposée par l'enfant est le résultat du développement. Elle est (re) signification de la famille recomposée par l'enfant et est appréhendée à partir des indicateurs suivants : La représentation de la famille, les stratégies de coping, l'adaptation socio-affective et la qualité de vie. I.1. La représentation de la famille Elle renvoie à la définition de la famille propre à l'enfant, à la recomposition de la structure et des liens familiaux. Au niveau de la structure, sont analysées : - la composition de la famille, c'est-à-dire les personnes qui, selon l'enfant, sont les membres de sa famille ; - la logique de recomposition qui examine la signification de la composition familiale par rapport à la trajectoire de la famille. Au niveau des liens, nous nous intéresserons à la représentation que l'enfant a des liens qui se développent avec la recomposition c'est-à-dire les liens avec les demi-frères/soeurs, les quasifrères/soeurs et les beaux-parents. Notre analyse sera basée sur le statut et le rôle assignés aux membres ainsi que les appellations utilisés. I.2. Les stratégies de coping 122 Chapitre 1. Les variables Elles peuvent être définies comme les méthodes mises en place ou utilisées par le sujet pour faire face au stress ou aux conflits engendrés par la recomposition. Elles renvoient aux comportements et émotions développés par le sujet en réponse au stress de la recomposition. Les stratégies de coping constituent un indicateur de l'appropriation de la famille recomposée parce qu'elles s'inscrivent dans la recherche d'un équilibre psychologique personnel. Le sujet choisit ses stratégies en fonction de son évaluation personnelle de la situation, de son vécu, et des éléments de son environnement. Elles sont appréhendées dans notre étude non pas comme un trait de personnalité mais comme un processus mis en place par rapport à une situation donnée et à un moment donné (Lazarus & Folkman, 1984). Les stratégies sont analysées sous deux aspects : - la fréquence de mobilisation de la stratégie ; - l'efficacité de la stratégie telle qu'elle est évaluée par l'enfant. I.3. L'adaptation socio-affective Elle est considérée ici comme la traduction de l'appropriation de la recomposition familiale dans le comportement et l'état psychique de l'enfant. Elle sera analysée selon la perception d'un des parents biologiques et à travers trois dimensions principales: • l'adaptation intériorisée de l'enfant dont les indicateurs sont : l'anxiété / dépression, le repli sur soi et les plaintes somatiques. • l'adaptation extériorisée dont les indicateurs sont : l'agressivité et les comportements délinquants. • L'adaptation générale I.4. La qualité de vie de l'enfant Au même titre que l'adaptation socio-affective, le niveau de qualité de vie de l'enfant peut traduire l'appropriation de la famille recomposée par l'enfant. Il s'agit, ici, de sa qualité de vie subjective appréhendée par son niveau de satisfaction de vie dans différents domaines tels que la famille. 123 Chapitre 1. Les variables II. Processus proximal : La représentation des relations avec la fratrie germaine Le processus proximal joue un rôle majeur dans le développement de l'enfant, il est « l'engin du développement » (Bronfenbrenner, 2005). La représentation des relations avec la fratrie germaine, est notre processus proximal et sera au centre de notre analyse de l'appropriation de la famille recomposée par l'enfant. Elle réfère à la signification que l'enfant donne à ses relations avec son frère/soeur germain, en d'autres termes, les apports ou les inconvénients des relations fraternelles dans la recomposition familiale (ressource et/ou contrainte). III. Les caractéristiques personnelles de l'enfant Les variables liées à la personne de l'enfant qui seront prise en compte dans l'analyse des résultats sont les suivantes : - L'âge - Le sexe - La position dans la fratrie (aîné ou cadet) Ces variables apparaissent dans la littérature comme des caractéristiques susceptibles d'influencer les relations fraternelles et le développement de l'enfant. IV. Le contexte Il renvoie à la famille dans sa structure et son fonctionnement. A ce niveau, l'accent est mis sur trois dimensions : les caractéristiques de la fratrie germaine : sexe de la fratrie, configuration de la fratrie, écart d'âge ; le mode de garde : garde principale, résidence alternée, garde exclusive ; les caractéristiques de la famille recomposée : nombre de foyers recomposés ; type de famille recomposée simple ou complexe (présence de demi, et/ou de quasi frères et soeurs). 124 Chapitre 1. Les variables V. Les variables liées au Temps Le temps, dans le modèle PPCT de Bronfenbrenner (1998), renvoie à la stabilité de l'environnement, aux effets du temps sur l'évolution, au moment du développement et à la chronologie de la recomposition familiale. Dans cette étude il est pris en compte à travers : - l'âge des enfants au moment de la recomposition ; - le temps écoulé depuis la séparation ; - la durée de la recomposition. 125 Chapitre 2. Les outils Chapitre 2. Les outils I. Résultat du développement : L'appropriation de la famille recomposée I.1. Le dessin de la famille Objectifs La représentation que l'enfant a de sa famille sera appréhendée à partir du test « le dessin de la famille ». Ce test nous permettra d'accéder à la conception qu'a l'enfant de la famille, et plus précisément à la définition de sa structure familiale et de ses liens familiaux. Il peut nous apporter des éléments de réponse aux questions suivantes : qui, selon l'enfant, fait partie de sa famille et quel statut lui donne-t-il ? Les tests projectifs permettent d'accéder aux aspects conscients et inconscients du vécu du sujet. Ils offrent une grande liberté de réponse et favorise ainsi l'expression par le sujet de ses sentiments et de ses désirs. Ils permettent la référence au réel mais aussi à l'imaginaire et à la réalité psychique (Anzieu & Chabert, 1995). Plusieurs épreuves projectives ont pour thème la famille et s'appuient sur le monde enfantin avec des images, des animaux (Le patte noire, Corman, 1961) ; des figurines (histoires à compléter ; scéno-test). Notre choix s'est porté sur le dessin de la famille, d'abord parce qu'il s'agit de dessiner et que le dessin est une activité courante et ludique pour l'enfant. Boulanger (1990), le présente comme un moyen naturel de s'exprimer. Ensuite, le dessin de la famille est un dessin libre qui permet à l'enfant de présenter sa façon personnelle de concevoir son environnement (Corman, 1961). En outre, parce que le dessin de la famille est d'administration facile et qui demande un matériel léger (une feuille de papier A4, un crayon noir, et des crayons de couleur). Par ailleurs, les apports du dessin de la famille dans l'étude de la représentation de la famille chez l'enfant ont été soulignés tant au niveau de la pratique que de la recherche. Selon Porot (1954), le dessin de la famille donne accès aux véritables sentiments que le sujet éprouve vis-à-vis de sa famille et la place qu'il pense occuper au sein de celle-ci. Il permet d'appréhender comment le sujet se représente intérieurement sa propre famille au plan de l'organisation et des relations. Aussi, dans le contexte particulier de la famille recomposée, le dessin permet à l'enfant d'extérioriser ses tentatives d'adaptation et de résolution de ses conflits (Boulanger, 1990). Il permet aux membres d'une famille séparée ou recomposée d'illustrer leur perception de la situation 126 Chapitre 2. Les outils actuelle et la manière dont ils intègrent les changements qui se sont produits dans leur famille (Mietkiewicz, 2005). Descriptif Le dessin de la famille est une épreuve, semi-structurée qui consiste à donner une feuille de papier A4, un crayon et des crayons de couleur à l'enfant pour qu'il dessine. Des consignes différentes peuvent être données à l'enfant quant au dessin de la famille qu'il doit réaliser : « dessine ta famille » (Porot, 1954) ; « dessine une famille » (Corman, 1961) ; « dessine ta famille avec tes grands-parents » (Mietkiewicz, 2005). La consigne que nous avons choisie de donner à l'enfant est « dessine ta famille ». Cette consigne relève de l'approche de Porot (1954). Elle est plus conforme à l'objectif de notre étude que celle de Corman (1961) dans la mesure où elle permet de limiter la projection de l'enfant à sa famille contrairement à celle de Corman. En effet, elle fixe un cadre à l'enfant mais lui laisse la liberté de dessiner qui il veut, où il veut et comme il le veut. Cette consigne permet de connaître la famille de l'enfant telle qu'il se l'est appropriée, ce qui est bien plus important que de savoir ce qu'elle est exactement (Porot, 1954). Une fois le dessin terminé, les explications et les commentaires de l'enfant sont recueillis à l'aide d'un entretien semi-directif. Le guide d'entretien a été construit sur la base des questions proposées par Corman (1961), que nous avons reformulées et auxquelles nous avons ajouté d'autres questions. Il a été élaboré en référence à nos dimensions de la représentation de la famille recomposée à savoir : l'intégration de la nouvelle structure familiale et la redéfinition des liens avec les membres de la famille. Méthode d'analyse L'analyse des dessins réalisés par les enfants se fera sous deux angles : les caractéristiques du dessin d'une part, et d'autre part, le sens que l'enfant lui donne. Les caractéristiques du dessin seront analysées en référence à la grille de cotation proposée par Jourdan-Ionescu et Lanache (2000). Nous nous intéresserons seulement à certains éléments de l'aspect du dessin : l'emplacement (sens de la feuille, qualité de la distribution des éléments du dessin, la situation du dessin sur la feuille, l'utilisation de la feuille, la distribution des personnages) et les couleurs du dessin. Notre attention se portera ensuite sur la composition de la famille dessinée par l'enfant par rapport à sa constellation familiale. 127 Chapitre 2. Les outils Au niveau du sens du dessin, l'analyse sera basée sur l'entretien avec l'enfant. Nous nous intéressons à la logique qui sous-tend le dessin. I.2. Le Kidcope Objectifs Le Kidcope est une échelle développée par Spirito, Stark et Williams (1988), qui permet d'évaluer la fréquence d'utilisation des stratégies cognitives et comportementales des enfants en réponse à un stress. Il repose sur l'idée que le coping n'est pas un trait stable de personnalité mais un processus qui change dans le temps pour une même personne en fonction du type de stress, l'évaluation de ce stress par la personne et de l'efficacité des stratégies particulières de coping employées (Lazarus & Folkman, 1984 ; Spirito et al., 1988). Il sera utilisé pour relever les stratégies utilisées par les enfants pour faire face aux difficultés liées à la recomposition familiale. Descriptif Le kidcope est une brève échelle auto-administrée de 15 items en rapport avec 10 stratégies de coping. 5 de ses stratégies sont appréhendées à partir de 2 items : distraction ; retrait social; résolution de problème; régulation émotionnelle; pensée magique. Les 5 autres stratégies sont appréhendées à partir d'un item : restructuration cognitive; autocritique ; blâmer les autres; support social; résignation. Ces stratégies ont été retenues à partir d'une revue de littérature sur le coping. Le kidcope a été testé sur des adolescents en bonne santé, des patients en pédiatrie et des enfants . La validité du kidcope a été réalisée par des comparaisons avec d'autres mesures standardisée du coping : « The Coping Strategy Inventory (CSY) et le « Adolescent-Coping Orientation for Problem Experience Inventory (ACOPE). Les propriétés métriques indiquent une corrélation modérée ou forte entre le kidcope et ces mesures du coping (Stallard, Velleman, Langsford, Baldwin, 2001). Le kidcope a été d'abord construit pour des adolescents et a ensuite été adapté à des enfants plus jeunes. Il existe deux versions du Kidcope : une destinée à des enfants âgés de 13 à 18 ans et une autre destinée à des enfants de 7 à 12 ans. Dans notre étude, nous avons utilisé la version destinée à des enfants âgés de 7 à 12 ans. 128 Chapitre 2. Les outils En ce qui concerne la passation du Kidcope, il est d'abord demandé à l'enfant de rapporter un problème en lien avec une situation spécifique. Puis, l'enfant doit indiquer à partir d'une échelle de Likert en quatre points (0= pas du tout ; 1= parfois ; 2=souvent ; 3= presque tout le temps) la fréquence d'utilisation des différentes stratégies de coping. L'enfant évalue par la suite l'efficacité des stratégies utilisées également à partir d'une échelle de Likert en quatre points : 0= pas du tout ; 1= un peu ; 2= assez ; 3= beaucoup (Spirito & al., 1988). Méthode d'analyse Nous effectuerons deux sortes d'analyse à partir des données recueillies par le Kidcope : une analyse qualitative des stresseurs évoqués par les enfants et une analyse quantitative de la fréquence et de l'efficacité des stratégies de coping. L'analyse qualitative portera sur les thèmes des stresseurs, l'élément stresseurs et les personnes concernés. Au niveau de l'analyse quantitative, les auteurs ne présentent pas de manière détaillée la méthode de cotation et d'analyse de leur outil dans l'article dans lequel ils décrivent son développement (Spirito & al., 1988) ou dans des publications ultérieures. Il existe différentes méthodes de cotation et d'analyse du kidcope dans la littérature. Stallard et ses collaborateurs (2001), par exemple, ont demandé aux participants de leur étude de choisir un item parmi les items proposés pour indiquer la stratégie qu'ils utilisent. Les auteurs analysent ensuite les pourcentages d'utilisation des stratégies de coping. Dans notre étude, les enfants ont utilisé l'échelle de Likert comme indiqué par Spirito et ses collaborateurs (1988) pour indiquer les fréquences et l'efficacité des stratégies. Les items ont été cotés de 0 à 3 selon la réponse de l'enfant. Pour les stratégies qui comportaient deux items une moyenne des scores aux deux items a été calculée pour obtenir un score pour la stratégie. Une moyenne des scores de tous les enfants aux différentes stratégies à été calculé et ce sont ces différentes moyennes qui sont comparées pour déterminer les stratégies les plus utilisées par les enfants. La même méthode a été appliquée pour déterminer les stratégies que les enfants trouvaient les plus efficaces (Tourigny, 2009). 129 Chapitre 2. Les outils I.3. Le Child Behavior Checklist 4/18 Objectif Le Child behavior checklist CBCL (Achenbach, 1991) est un questionnaire qui mesure l'adaptation psychosociale de l'enfant. Il permet d'évaluer de manière standardisée les troubles du comportement intériorisés tels que l'anxiété, la dépression et les troubles du comportement extériorisés, tels que l'agressivité. Le CBCL est un des outils les plus complets pour l'analyse du développement de l'enfant. Il permet d'aborder plusieurs aspects du développent de l'enfant. A ce titre il est beaucoup utilisé dans la recherche et la pratique clinique. Dans le cadre des familles recomposées, il est souvent utilisé pour comparer le développement des enfants de familles recomposées à ceux de familles non recomposées. Dans notre étude, il sera utilisé pour avoir une mesure standardisée de l'adaptation socioaffective des enfants de notre échantillon afin de la mettre en lien avec les autres facteurs de leur développement. Descriptif Le CBCL mesure l'adaptation socio-affective de l'enfant telle qu'elle est perçue par les parents. Il est constitué d'un ensemble d'items rattachés à des composantes différentes du développement socio-affectif de l'enfant. Un premier groupe de questions se rapportent aux activités de l'enfant et à ses compétences dans les domaines scolaires et sociaux. Ce premier volet ne sera pas pris en compte dans notre étude. Le deuxième volet du questionnaire porte sur l'adaptation générale de l'enfant. Il comporte 113 items liés à des problèmes spécifiques. Il est demandé au parent de situer l'enfant par rapport à chacun de ses problèmes sur une échelle à trois modalités : 0= pas vrai ; 1= à peu près vrai ou parfois vrai ; 2= très vrai ou souvent vrai. Le CBCL permet d'obtenir le niveau d'adaptation de l'enfant aux sous- échelles : repli sur soi, plaintes somatiques, anxiété/dépression, problèmes sociaux, trouble de la pensée, trouble de l'attention, les comportements délinquants et les comportements agressifs. Plus généralement, il permet d'obtenir le niveau d'adaptation de l'enfant aux échelles « problèmes intériorisés », « problèmes extériorisés » et « adaptation générale ». Méthode d'analyse Le CBCL produit 11 scores principaux à partir des réponses du parent. Ces scores sont des scores bruts qui sont ensuite convertis en score T selon le sexe et l'âge de l'enfant. 130 Chapitre 2. Les outils Les items sont d'abord regroupés en huit sous échelles correspondantes chacune à un aspect de l'adaptation socio-affective de l'enfant. Un premier score brut est ainsi obtenu pour chacune de ces sous-échelles : le repli sur soi, les plaintes somatiques, l'anxiété/dépression, les problèmes sociaux, les troubles de la pensée, de l'attention, les comportements délinquants et les comportements agressifs. Ensuite certaines de ces sous-échelles sont regroupées en deux échelles globales et deux scores bruts : - L'échelle des « problèmes intériorisés » regroupe les sous-échelles : Le repli sur soi, plaintes somatiques, anxiété/dépression. Le score brut de « problèmes intériorisés » est obtenu en additionnant les scores à ces trois sous-échelles. - L'échelle des « problèmes extériorisés » regroupe les sous-échelles suivantes : les comportements délinquants et les comportements agressifs. Le score brut de l'échelle « problèmes extériorisés » est obtenu en additionnant les scores à ces deux sous-échelles. Enfin, un dernier score brut, celui de l' « adaptation générale » est obtenu à partir de la somme des sores de l'ensemble des items (sauf les items 2 et 4). La conversion des scores bruts en scores T se fait à partir de deux grilles : une pour les souséchelles et une pour les échelles globales. Ces grilles sont réparties en trois zones pathologiques définies selon les scores T obtenus par les enfants. Ces zones indiquent le niveau d'adaptation socio-affective de l'enfant. Pour les sous-échelles - repli sur soi, plaintes somatiques, anxiété/dépression, problèmes sociaux, trouble de la pensée, trouble de l'attention, les comportements délinquants et les comportements agressifs - les zones sont définies comme suit : - zone non pathologique : score équivalent ou inférieur à 66 - zone limite : score T compris entre 67 et 70 - zone pathologique : score T équivalent ou supérieur à 71. Pour les échelles « problèmes intériorisés », « problèmes extériorisés », « adaptation générale », les zones sont définies comme suit : - zone non pathologique : score équivalent ou inférieur à 59 - zone limite : score T compris entre 60 et 63 - zone pathologique : score T équivalent ou supérieur à 64 131 Chapitre 2. Les outils I.4. L'autoqestionnaire Qualité de vie-Enfant-Imagé Objectifs L'AUtoquestionnaire de Qualité de vie – Enfant Imagé (AUQEI, Manificat & Dazord, 1997) nous permet de mesurer la qualité de vie de l'enfant, selon son propre point de vue. Il répond ainsi à l'orientation générale de l'étude qui donne une place centrale à l'enfant. Le AUQEI couvre un large champ de thématique avec des items qui portent sur les relations familiales, les relations sociales, les activités (jeu, scolarité, loisirs), la santé, les « fonctions » (sommeil, repas), la séparation. De plus les questions sont simples et faciles à comprendre, les modalités de réponses sont bien adaptées à l'enfant avec les images. Il commence par une question ouverte, ce qui peut être très intéressant par rapport à la liberté laissée à l'enfant et aux choix qu'il pourrait faire dans ses réponses. Descriptif Le AUQEI est un autoquestionnaire imagé composé d'une question ouverte et de 26 questions fermées. Il mesure le niveau de satisfaction de l'enfant par rapport à divers domaines de sa vie tels que : l'autonomie (items 15, 19, 24, 25) ; les loisirs (items 11, 21, 25) ; les fonctions (items 1, 2, 4, 5, 8) et la famille (items 3, 10, 13, 16, 18). Chaque question est présentée avec 4 paliers de réponse symbolisés par le visage d'un enfant qui expriment des états émotionnels différents, comme le montre la Figure 1. Quelquefois tu n'es pas content du tout Quelquefois tu n'es pas content Quelque fois tu es content Quelquefois tu es très content Figure 1: Les quatre paliers de réponse à chaque item de l'AUQEI 132 Chapitre 2. Les outils Le questionnaire comporte deux phases : A et B. La première phase (A) porte sur la question ouverte dans laquelle il est demandé à l'enfant de chercher dans sa propre expérience une situation qui le renvoie à chacun des 4 états émotionnels puis de justifier ses réponses. Cette première question ouverte a pour but de présenter les 4 paliers de satisfaction à l'enfant et l'amener à les intérioriser. Les quatre paliers sont clairement définis dans cette première question. Dans la deuxième phase (B), il est demandé à l'enfant de cocher la case correspondant le plus à ce qu'il ressent face au domaine évoqué. Les définitions des paliers ne sont pas indiquées pour les items de cette partie, elles sont remplacées par les chiffres 0,1,2, et 3. L'étude de validation réalisée par Magnificat et Dazord (1997) lui confère des qualités psychométriques satisfaisantes. Méthode d'analyse Le AUQEI donne lieu à deux analyses : une analyse qualitative et une analyse quantitative. L'analyse qualitative porte sur la phase A c'est-à-dire la première question ouverte. Les différentes réponses des enfants à chaque palier ont été regroupées en un seul texte qui est soumis à une analyse de contenu. Notre analyse s'est faite selon le schéma suivant : nous avons relevé les thèmes abordés, les aspects de ces thèmes qui sont abordés, le sujet c'est-àdire la ou les personnes impliquées. Au niveau de l'analyse quantitative, le codage de chaque question fermée s'effectue en attribuant à chaque palier de réponse une note, allant de 0 « pas du tout content » à 3 « très content ». Le score global de qualité de vie correspond à la moyenne obtenue par l'enfant, c'est-à-dire à la somme des scores à l'ensemble des items divisée par le nombre d'items. Un faible score de satisfaction (< à 1,5) correspond à une qualité de vie globalement altérée. II. Processus proximal : Représentation des relations fraternelles (l'entretien semi-directif) Objectifs L'entretien semi-directif nous permet de ramener les relations fraternelles au cadre de la recomposition familiale. L'aspect semi-directif offre la possibilité de définir les thèmes abordés tout en laissant à l'enfant la possibilité de s'exprimer plus largement et de donner 133 Chapitre 2. Les outils libre court à sa spontanéité. L'objectif visé avec cet entretien semi-directif est de relever la signification (ressources, contraintes) que l'enfant donne à ses relations avec son frère/soeur germain dans son processus de recomposition. Descriptif L'entretien semi-directif a été réalisé auprès des enfants à partir d'une grille d'entretien que nous avons construite autour des thèmes de la recomposition familiale. Les thèmes de la grille d'entretien sont : le divorce, les relations parents-enfants, le mode de garde, la remise en couple d'un ou des deux parents, les relations fraternelles (germains, demi-frères/soeurs, quasi-frères/soeurs). De manière générale, il porte sur les transitions familiales et la réorganisation familiale qu'elles sous-tendent, le vécu de l'enfant (les difficultés, les avantages liés à ces transitions) et surtout sur les ressources et les contraintes que constituent les relations fraternelles dans l'appropriation de ces transitions par l'enfant. Méthodes d'analyse L'analyse des entretiens sera une analyse classique ou papier crayon. Elle va consister à analyser chacun des entretiens et à regrouper les résultats de cette première analyse pour chaque thème de la recomposition. Le but de l'analyse est d'une part de donner un contenu aux composantes de la recomposition abordées et aux termes de ressources et de contraintes des relations dans la fratrie germaine selon le point de vue de l'enfant. D'autre part, il s'agit de définir pour chaque enfant la signification de ses relations avec son frère/ soeur germain en vue d'analyser les fréquences et les pourcentages de chaque signification. L'analyse de chaque entretien est faite selon le schéma suivant : - Le divorce : le vécu de l'enfant, les effets sur les relations dans la fratrie germaine, les ressources des relations dans la fratrie germaine, les contraintes des relations dans la fratrie germaine ; - Les relations parents-enfants après le divorce : les changements dans les relations parentsenfants, l'effet de compensation et de parentalisation, les ressources des relations dans la fratrie germaine, les contraintes des relations dans la fratrie germaine ; - Le mode de garde : les difficultés liées au mode de garde, les avantages liés au mode de garde, la stabilité de la relation fraternelle, les ressources des relations dans la fratrie germaine, les contraintes des relations dans la fratrie germaine ; 134 Chapitre 2. Les outils - La remise en couple : les relations beau-parent/enfant, les changements dans le fonctionnement de la famille, les ressources des relations dans la fratrie germaine, les contraintes des relations dans la fratrie germaine ; - La fratrie germaine : la définition des liens et des relations avec la fratrie germaine (définitions des fonctions, des rôles, des relations, de la spécificité des relations avec la fratrie germaine), la spécificité des ressources de la fratrie germaine et les contraintes de la fratrie germaine ; - Les demi-frères/soeurs : la relation avec les demi-frères, la nomination et la définition du lien, les changements dans la famille, le vécu de ces changements par l'enfant, les ressources de la fratrie, les contraintes de la fratrie, relations demi-frères/soeurs et relations avec la fratrie germaine ; - les quasi-frères/soeurs : la relation avec les quasi-frères/soeurs, la nomination et la définition du lien, les changements dans la famille, le vécu de ces changements par l'enfant, les ressources de la fratrie, les contraintes de la fratrie, relations demi-frères/soeurs et relations fratrie germaine. La validation de l'analyse se fera par la méthode inter-juges. III. Le questionnaire sociodémographique et le questionnaire sur la recomposition familiale Objectifs Les parents ont, en plus du CBCL, rempli deux autres questionnaires : un questionnaire sociodémographique et un questionnaire sur la recomposition familiale. Ces questionnaires ont permis de recueillir des données sur l'enfant, son contexte familial et les facteurs temps de la recomposition. Description Le questionnaire sociodémographique est composé de 10 questions. Il nous indique le parent qui répond et nous renseigne sur l'âge des parents, leurs départements de résidence, leurs catégories socioprofessionnelles, leurs statuts d'emploi et leurs temps de travail. Le questionnaire sur la recomposition familiale est composé de 14 questions fermées et une question ouverte pour permettre aux parents qui répondent de rajouter des informations 135 Chapitre 2. Les outils ou de donner des précisions. Il porte sur la famille avant le divorce, sur le divorce, le mode garde, sur les différents foyers recomposés ou non de la constellation familiale et sur la relation coparentale. Méthode d'analyse Les données recueillies ont été analysées pour définir les caractéristiques personnelles des enfants (âge, sexe, position dans la fratrie) et les caractéristiques de leurs familles (statut matrimonial, durée des relations conjugales, durée de la séparation, nombre de transitions, éléments liés au mode de garde, à la présence de demi-frères/soeurs et de quassifrères/soeurs). 136 Chapitre 2. Les outils Tableau 1: Synthèse des variables et outils Variables Appropriation de la famille recomposée Indicateurs Méthodes Sujets Résultat du développement Représentation de la Structure de la famille famille Relations familiales Dessin de la famille Enfants Stratégie de coping Kidcope Adaptation socioaffective Qualité de vie Représentation des relations dans la fratrie germaine Modalités Non pathologique Limite pathologique Satisfaisante Non satisfaisante Processus proximal - Ressource - Contrainte - Ressource et contrainte - Neutre Personne - Aîné - Cadet Position dans la fratrie Sexe Age Contexte Trajectoire de la famille recomposée Caractéristiques de la fratrie germaine Nombre de foyers recomposés Type de famille recomposée Système de garde Age de l'enfant au moment de la recomposition Temps entre la séparation et la recomposition Temps écoulé depuis la séparation Durée de la recomposition Nombre de recomposition - Féminin - Masculin - Plus jeune - Plus âgé Contexte - Fratrie de même sexe - Fratrie mixte - 1 foyer - 2 foyers - Simple - Complexe - Garde principale - Garde alternée - Garde exclusive Temps Enfants CBCL Enfants AUQEI Entretien semidirectif Entretien sociodémographique et trajectoire de la famille Enfants Enfants Parent Entretien sociodémographique et trajectoire de la famille Parent Entretien sociodémographique et trajectoire Parent - Une recomposition - Plus d'une recomposition 137 Chapitre 3. Population Chapitre 3. Population Epstein, Baldwin et Bishop (1983) soulignent l'importance de préciser que même si l'objet de l'étude est la famille, la source des données est un membre de la famille. Les données recueillies indiquent la perception que cette personne a de sa famille et de son fonctionnement. L'essentiel de nos données provient de l'enfant dans la mesure où nous nous intéressons à sa représentation de sa famille et de ses relations familiales. Cependant, nous avons eu recours à un des parents biologiques pour obtenir des informations sur les parents, la trajectoire de la famille et sa structure ainsi que sur l'adaptation socio-affective de l'enfant. En effet, il peut être difficile pour les enfants de nous renseigner sur leurs parents et de bien situer les transitions familiales dans le temps avec des dates précises. Ces données relèvent donc plutôt de la perception du parent qui a répondu aux questionnaires. Nous avons donc deux sources de données : une principale qui est l'enfant et une complémentaire qui est le parent qui a participé à l'étude. Ces précisions étant faites, nous allons maintenant présenter les critères d'inclusion des enfants, puis les démarches mises en oeuvre pour accéder à la population. I. Critères d'inclusion Ce travail de recherche porte sur les enfants de familles recomposées et leur fratrie germaine. La population de notre étude regroupe les enfants qui résident sur le territoire français. Compte tenu de la sensibilité du thème et en prévision des difficultés d'accès à la population, nous n'avons retenu que trois critères principaux et essentiels pour l'étude : l'appartenance à une famille recomposée, l'appartenance à une fratrie germaine et l'âge. La famille recomposée Les enfants de notre population sont des enfants qui appartiennent à une famille recomposée c'est-à-dire que leurs parents se sont séparés, et au moins l'un des deux parents s'est remis en couple. L'enfant de famille recomposée appartient plus à une constellation familiale qu'a une famille, le terme constellation inclut les deux foyers familiaux de l'enfant : celui du père et celui de la mère. Sous cet angle, au moins un des foyers de la constellation doit être recomposé au moment de l'étude. L'autre foyer peut être recomposé ou pas. Le parent et le beau-parent doivent vivre en couple mais peuvent être mariés, pacsés ou en 138 Chapitre 3. Population concubinage. La recomposition peut être récente ou ancienne mais ce facteur sera pris en compte dans le cadre de notre recherche. La fratrie germaine Les enfants de notre population appartiennent à une fratrie germaine c'est-à-dire qu'ils ont au moins un frère ou une soeur qui a le même père et la même mère biologique qu'eux et peuvent donc appartenir à une fratrie germaine de plus de deux enfants. Les enfants et leur frère/soeur germain (e) ont vécu ensemble, d'abord au sein d'une famille nucléaire, puis la séparation de leurs parents et la famille recomposée. Ils ne doivent pas avoir été séparés de leur frère/soeur par le mode de garde et sont avec lui/elle d'un foyer à l'autre de la constellation familiale. Les enfants peuvent avoir n'importe quelle position dans la fratrie : ils peuvent être des aînés ou des cadets et leurs fratries peuvent être mixtes ou non. L'enfant peut avoir ou non des demi-frères/soeurs et des quasi-frères/soeurs. L'âge L'âge des enfants de notre population est compris entre 6 et 13 ans. Nous avons choisi cette tranche d'âge afin de nous donner la possibilité d'intégrer un maximum de membres d'une même fratrie. La tranche d'âge de 6 à 13 ans tient compte des écarts d'âge tout en restant, relativement, dans une même phase de développement. Il est, de ce fait, possible de supposer que les enfants de cette tranche d'âge ont acquis des aptitudes dans les phases de développement précédentes, (0-3 ans ; 3-6 ans). En effet, la différenciation moi/autrui est acquise (Wallon, 1949 ; Malher & al., 1980). Ils ont la capacité de s'approprier les éléments que leur fournit leur milieu de vie par le processus de subjectivation (Malrieu, 1976). La fonction symbolique est acquise. Ses manifestations que sont l'imitation différée, le jeu symbolique, le dessin, l'image mentale, et le langage qui ont fait leur apparition à 18 mois/2 ans sont plus développées à 6 ans. Ces acquisitions rendent les enfants de 6 à 13 ans capables de se représenter les situations, d'exprimer leurs choix, leurs opinions et de s'affirmer. Sur le plan socio-affectif, les enfants de cette tranche d'âge se situent plutôt dans la phase de latence. Il s'agit d'une phase un peu moins conflictuelle dans le développement de l'enfant parce qu'elle se situe après la sortie de l'Oedipe et avant l'entrée dans l'adolescence. Contrairement à Hetherington et al. (1999) dont l'étude de la famille recomposée se focalise sur la phase conflictuelle de l'adolescence, nous avons fait le choix de la phase de latence afin de réduire les effets des conflits parent-enfant, liés au complexe d'oedipe ou à l'adolescence. 139 Chapitre 3. Population Au niveau familial, l'enfant a acquis le sentiment d'appartenir à une structure familiale. Il n'est plus seul en face de ses parents (Wallon, 1952). De plus, vers 6-7 ans, l'enfant se conçoit comme une unité susceptible d'entrer dans différents groupes et, en s'y ajoutant, de les modifier. C'est également à cet âge que les cadets s'éloignent un peu des adultes pour se rapprocher des aînés (Wallon, 1952). En outre, vers 12 ans, l'enfant développe selon Wallon (1952), l'esprit de responsabilité qui est la synthèse des tendances à dominer et à se sacrifier. Cet esprit de responsabilité confère un droit de domination mais comporte aussi un devoir de sacrifice. II. Accès à la population Des démarches multiples et diverses ont été menées en vue d'accéder à la population. Nous nous sommes d'abord adressée aux écoles avec des demandes d'autorisation aux inspections académiques de la Haute Garonne, du Gers et du Tarn, nous n'avons obtenu aucune réponse positive. Puis, nous nous sommes adressée aux circonscriptions ou nous n'avons eu l'autorisation que d'une seule circonscription. Après les circonscriptions, nous avons contacté les directeurs d'écoles. Ceux qui ont accepté de travailler avec nous ont soit uniquement accepté de mettre des affiches sur le tableau d'information des parents, soit décidé de relever dans leurs effectifs les enfants qui répondaient aux critères de notre étude afin de remettre eux-mêmes aux parents les demandes de participation. Ces méthodes n'ont pas été concluantes, nous avons eu peu de retours et les enfants ne répondaient pas aux critères de la fratrie germaine. Au final, les démarches liées aux écoles ne nous ont pas permis d'accéder à notre population, d'abord en raison de la difficulté à obtenir des autorisations. En outre, nous sommes passées par des forums, des médecins ont été sollicités avec des affiches ainsi que des psychothérapeutes dans des associations afin qu'ils soumettent à leurs adhérents des demandes, mais ces démarches n'ont pas abouti. Nous avons également mis des affiches dans les départements et laboratoires de l'université mais un seul enfant a pu être recruté par ce moyen. Par ailleurs nous avons eu recours au bouche-à-oreilles. Dans ce cadre, nous avons diffusé notre recherche de population auprès d'amis, de collègues et de leurs connaissances. Les enfants recrutés par ce moyen sont au nombre de 10. 140 Chapitre 3. Population Enfin, nous nous sommes adressée à la mairie de Toulouse, et nous avons fait une demande de stage auprès de la Direction de la Enfance et Loisirs pour travailler avec les centres de loisirs. Nous avons eu une réponse positive ce qui nous a permis d'accéder à des centres de loisirs dans le cadre d'un stage avec des conventions entre l'Université de Toulouse 2 et la mairie de Toulouse. Nous avons été dans les centres de loisirs les mercredis et pendant les vacances scolaires. Nous avons présenté directement notre recherche aux parents, nous leur avons également distribué des flyers avec un petit résumé de la recherche et les critères pour y participer. Les parents intéressés ont reçu un résumé un peu plus détaillé de l'étude et la fiche d'accord parental. Les premières rencontres avec les enfants ont entraîné un bouche-à-oreille entre enfants. En effet, certains des enfants rencontrés en ont parlé à leurs amis dont les parents étaient séparés et ces amis sont venus nous voir pour participer à l'étude. Ceux qui répondaient aux critères ont pu ainsi participer avec l'accord de leurs parents. Au total, 12 enfants ont été recrutés à partir des centres de loisirs. (cf. Tableau 2) Tableau 2: Récapitulatif de la constitution de l'échantillon Affiches Bouche-à-oreille Centres de loisir Effectifs Pourcentage 1 10 12 4,35% 43,48% 52,17% Notre échantillon comporte 23 enfants de familles recomposées qui appartiennent à une fratrie germaine. Au niveau de leur famille, nous emploierons les termes de constellation et de foyer ainsi, les 23 enfants appartiennent à 15 constellations familiales et à 30 foyers. Dans chaque cas, un des parents de l'enfant a été sollicité pour renseigner les données sur les caractéristiques personnelles de l'enfant et son contexte familial. Dans le cadre de notre étude, les questionnaires ont été renseignés en majorité par les mères des enfants : 12 mères (80%) et seulement 3 pères (20%) sur un total de 15 parents. Ces parents sont ceux que nous avons rencontrés en premier et à qui nous avons présenté la recherche. La proportion élevée des mères peut être mise en lien avec le mode de garde, les mères ayant le plus souvent la garde principale. En outre, 2 des pères qui ont participé appliquent la résidence alternée et passent autant de temps avec l'enfant que la mère. 141 Chapitre 3. Population III. Procédure de recueil des données Les parents qui ont accepté de participer à l'étude ont reçu une enveloppe contenant quatre documents : - une lettre d'accord à signer par les parents pour donner leur consentement écrit. Elle rappelle le thème, les objectifs de la recherche, les critères d'inclusion des enfants et les conditions dans lesquelles les enfants seront rencontrés. - un questionnaire sur les caractéristiques sociodémographiques des parents - un questionnaire sur la recomposition familiale qui permet de retracer la trajectoire de la famille - un questionnaire sur le développement socio-affectif des enfants (Child Behavior Checklist, CBCL, Achenbach, 1991) pour chacun des enfants qui participe à l'étude. Les parents ont renseigné ses documents et nous les ont renvoyés soit directement, soit par courrier, soit par mail. Les rencontres avec les enfants ont eu lieu à domicile pour les enfants recrutés par le bouche à oreille et au centre de loisir pour ceux recrutés dans les centres de loisir. Pour respecter le caractère anonyme et confidentiel des réponses, les passations ont été individuelles et ont eu lieu dans des pièces isolées des autres pour éviter le plus possible d'être entendus. La confidentialité s'est avérée très importante et nécessaire pour évoquer certains sujets chez les enfants. Elle leur a été signifiée au début de la rencontre et rappelée à chaque fois que c'était nécessaire pour les rassurer. Les entretiens ont été enregistrés, nous avons donc présenté l'enregistreur aux enfants. Nous nous sommes assurée que cela ne les déranger pas. Les enfants ont pu manipuler l'appareil, mettre les piles, le mettre en marche par exemple pour se familiariser avec lui. Les enfants pouvaient également écouter quelques minutes de l'enregistrement. Les différents tests ont été proposés aux enfants selon l'ordre suivant : le dessin de la famille, l'entretien semi-directif, le Kidcope (Spirito et al., 1988) et le AUQEI (Manificat & Dazord, 1997) . Les passations se sont faites selon le rythme de l'enfant et de manière détendue. Le temps général de passation était en moyenne d'une heure. Nous avons indiqué aux enfants qu'ils pouvaient demander une pause à tout moment et à la fin de chaque épreuve nous leur demandions s'ils voulaient prendre une pause. Dans l'ensemble, les épreuves ont été bien acceptées par les enfants, l'aspect ludique des épreuves a eu un effet positif. La plupart des enfants n'a pas voulu prendre une pause et ont trouvé les épreuves intéressantes. 142 Chapitre 4. Présentation des résultats Chapitre 4. Présentation des résultats I. Profil de l'échantillon Les données de notre étude seront analysées et présentées dans le cadre du modèle PPCT de Bronfenbrenner (1998). Nous commencerons par les caractéristiques personnelles des enfants de notre échantillon, ensuite les caractéristiques du contexte familial, puis les variables du développement de l'enfant et enfin le processus proximal. I.1. Caractéristiques personnelles des enfants Les caractéristiques personnelles des enfants se rapportent au sexe, à l'âge et la position dans la fratrie. I.1.1. La variable sexe Notre échantillon regroupe 12 filles (52,2%) et 11 garçons (47,8%). Il est de ce fait relativement homogène en ce qui concerne le sexe des enfants comme l'illustre la Figure 2. Figure 2 : Répartition de l'échantillon selon le sexe I.1.2. L'âge des enfants Les enfants qui ont participé à l'étude sont âgés de 6 à 13 ans. La distribution des âges est résumée dans le Tableau 3. 143 Chapitre 4. Présentation des résultats Tableau 3: Statistiques des âges des sujets de l'échantillon Min Max Moyenne Ecart type Médiane Skewness Kurtosis Echantillon générale Filles 6 13 9,21 2,27 9 0,087 -1,040 6 13 8,75 2,34 8,50 0,412 - 0,741 Garçons 6 13 9,72 2,19 10 - 0,201 - 0,783 Selon cette distribution des âges, la moyenne d'âge de l'échantillon est de 9,21 ans avec un ecart type de 2,27. Par ailleurs, les asymétries sont de 0,412 pour les filles et - 0,201 pour les garçons. Elles révèlent que la plupart des filles a un âge inférieur à la moyenne contrairement aux garçons dont l'âge se situe en majorité au-dessus de la moyenne. De plus, la moyenne d'âge des filles (8,7) est inférieure à celle des garçons (9,72). Ces données indiquent que les filles sont plus jeunes que les garçons. Les enfants de notre échantillon peuvent être répartis en deux groupes d'âge sur la base de la médiane de l'échantillon général qui est de 9 : les plus jeunes (≤ à 9 ans), soit 12 enfants et les plus âgés (> à 9 ans), soit 11 enfants. I.1.3. La position dans la fratrie Les enfants de notre échantillon appartiennent à des fratries germaines de 2 et 3 enfants. Plus précisément, 19 enfants proviennent d'une fratrie germaine de 2 enfants et 4 enfants d'une fratrie germaine de 3 enfants. Pour les enfants de fratries de trois enfants, nous leur avons demandé de choisir le frère ou la soeur dont ils souhaitaient parler. Aussi les fratries présentées et évoquées dans le travail sont des fratries de 2, l'enfant évoque ses relations fraternelles avec un frère ou une soeur. Les termes d'aîné et de cadet désigneront, dans nos analyses, la position des enfants dans la dyade évoquée dans l'étude et non la position réelle de l'enfant dans l'ensemble de sa fratrie. Notre échantillon comporte 9 aînés soit 39,1%. La proportion des aînés se subdivise en 5 filles (21,74%) et 4 garçons (17,39%). Les cadets de l'échantillon sont au nombre de 14 soit 60,9%. Ils se répartissent uniformément au niveau du sexe avec 7 filles (30,43%) et 7 garçons (30,43%). Les aînés sont âgés de 6 à 13 ans avec une moyenne d'âge de 9,33 et un écart type de 2,34. Les cadets sont également âgés de 6 à 13 ans mais avec une moyenne d'âge de 9,14 et un écart type de 2,31. Ces indications sont rassemblées dans le Tableau 4. 144 Chapitre 4. Présentation des résultats Tableau 4: Statistiques des âges selon la position dans la fratrie Min Max m σ Médiane Asymétrie Aplatissement Aîné 6 13 9,33 2,34 9 -0,66 -0,333 Cadets 6 13 9,14 2,31 9 0,188 -1,243 I.2. Le contexte familial I.2.1. Les caractéristiques des fratries germaines Les caractéristiques de la fratrie se déclinent selon trois aspects : le sexe de la fratrie, leur configuration et l'écart d'âge dans la fratrie. II.1.1.1. Le sexe et la configuration des fratries La répartition des fratries des enfants de l'échantillon selon leur sexe montre une quasi-uniformité : 52% de fratries unisexes, soit 12 enfants et 47,8% de fratries mixtes, soit 11 enfants. Au niveau de la configuration des fratries, définie en fonction du sexe et de la position des enfants, les fratries se répartissent comme suit : 30,4% de fratries ayant la configuration « Aîné-Cadet » (7 enfants) ; 21,7% dans la configuration « Aînée-Cadette » (5 enfants) ; 26,1% pour la configuration « Aînée-Cadet » (6 enfants) et 21,7% pour la configuration « Aîné-cadette » (5 enfants). La Figure 3 illustre cette répartition. Figure 3: Répartition enfants les configurations fraternelles II.1.1.2. L'écart d'âgedes dans les dans fratries 145 Chapitre 4. Présentation des résultats Pour ce qui concerne l'écart d'âge, la répartition des fratries présentée dans la Figure 4 montre que l'échantillon est légèrement dominé par la tranche de 0-2 ans. Elle constitue environ 47,8% c'est-à dire 11 enfants. Cette tranche est suivie par celle de 2 à 4 ans avec 43,50%, ce qui représente 10 enfants. La troisième tranche de 6 ans et plus, constitue une minorité avec 8,7% soit 2 enfants. Figure 4: Répartition des enfants selon les écarts d'âge dans leur fratrie II.1.2. Caractéristiques des parents Les informations recueillies auprès des parents ont permis d'établir leur profil basé sur leur âge, leurs catégories socioprofessionnelles, leur statut d'emploi et leur temps de travail. Il apparaît, selon les données recueillies, que les mères des enfants de notre échantillon ont entre 29 et 46 ans avec une moyenne d'âge de 38,13 ans et un écart-type de 5,65. Les pères, quant à eux, se situent entre 27 et 65 ans, avec une moyenne d'âge de 40,86 ans et un écart-type de 8,44 (cf. Tableau 5). Tableau 5: Statistiques des parents de l'échantillon "enfants" en fonction du sexe Min Max m σ Médiane Skewness Kurtosis Age de la mère 29 46 38,13 5,65 41 -0,392 1,555 Age du père 27 65 40,86 8,44 40 -1,400 4,531 146 Chapitre 4. Présentation des résultats Leur répartition du point de vue de la catégorie socio-professionnelle montre au niveau des mères des enfants de notre échantillon que la catégorie socioprofessionnelle la plus représentée est celle des « employées » avec 46,7%, suivie de celle des professions intermédiaires ou cadre moyen avec 26,7%. Les « cadres et professions intellectuelles supérieures » ne représentent que 13,3 % soit 2 mères sur 15. Par contre, les catégories « ouvrier », « chômeur », « agriculteur exploitant » et « retraité » ne sont pas représentées chez les mères de notre échantillon. La répartition des catégories socioprofessionnelles chez les pères apparaît plus équilibrée. La catégorie « artisan, commerçant, chef d'entreprise » est la plus représentée avec 26,7%, suivie par celles des « cadre, profession intellectuelle supérieure » et des « professions intermédiaires (cadres moyens) » avec 20% chacune. Par ailleurs, la différence majeure entre les pères et les mères se situe au niveau de la catégorie « employé » qui regroupe près de la moitié des mères (46,7%) alors que chez les pères elle ne représente que 13,3%. Les catégories « agriculteur exploitant » et « retraité » ne sont également pas représentées chez les pères de notre échantillon (cf. Tableau 6). Tableau 6: Catégorie socioprofessionnelle des parents Mères Effectifs 0 Pourcentage 0,0% Pères Effectifs 0 Pourcentage 0,0% Artisans, commerçant, chef d'entreprise Cadre, profession intellectuelle supérieure Profession intermédiaire 0 0,0% 4 26,7% 2 13,3% 3 20,0% 4 26,7% 3 20,0% Employé 7 46,7% 2 13,3% Ouvrier 0 0,0% 1 6,7% retraité 0 0,0% 0 0,0% Chômeur 0 0,0% 2 13,3% Autre, sans activité professionnelle 2 13,3% 0 0,0% 15 100% 15 100% Agriculteur, exploitant Total Au niveau du statut d'emploi et du temps de travail, la majorité des parents de notre échantillon est en contrat à durée indéterminé et travaille à temps plein. 73,3 % des mères sont 147 Chapitre 4. Présentation des résultats en Contrat à Durée Indéterminé (CDI). Elles sont également 73,3% à travailler à temps plein contre seulement 13,3 % à temps partiel. Au niveau des pères, 60% des pères sont en CDI et tous les pères qui ont une activité professionnelle l'exercent à temps plein. Ces données ont été présentées dans les Tableau 7 et Tableau 8. Tableau 7: Répartition des parents selon leur statut d'embauche Sans activité / Chômeur CDD CDI Non salarié Mères Effectifs 2 Pourcentage 13,3% Pères Effectifs 2 Pourcentage 13,3% 1 11 1 6,7% 73,3% 6,7% 1 9 3 6,7% 60% 20% Tableau 8: Répartition des parents selon leur temps de travail Sans activité / Chômeur Temps partiel Temps plein Mères Effectifs 2 2 11 Pourcentage 13,3% Pères Effectifs 2 Pourcentage 13,3% 13,3% 73,3% 0 13 0,0% 86,7 II.1.3. Caractéristiques des familles avant et après la séparation Ces caractéristiques donnent des indications sur la famille nucléaire et sur la réorganisation de la parentalité après la séparation. Statut matrimonial Au niveau du statut matrimonial de couples avant la séparation, 53% des couples ont été mariés ce qui correspond à 8 enfants, 33,3% étaient en concubinage pour 7 enfants et 13,3% étaient pacsés ce qui correspond à 3 enfants (13%). Ces statistiques sont regroupées dans le Tableau 9. Tableau 9: Statut matrimonial des couples avant la séparation Marié Concubinage Pacsé Couples conjugaux Effectifs Pourcentage 8 53,3% 5 33,3% 2 13,3% Enfants concernés Effectifs Pourcentage 13 56,5% 7 30,4% 3 13,0% 148 Chapitre 4. Présentation des résultats Parentalité après la séparation La description de la parentalité après la séparation s'articule autour de 4 points : la distance entre les foyers de la constellation, la décision du mode de garde, le mode de garde, la relation coparentale. - La distance entre le foyer de la mère et celui du père : la distance entre les deux foyers peut influencer le mode de garde (le choix du mode de garde appliqué et comment il est vécu par l'enfant) et les relations parents-enfants. Dans notre échantillon, les 3⁄4 des parents habitent dans le même département, ce qui correspond à une distance relativement courte entre les foyers parentaux pour la majorité des enfants de notre échantillon (18 enfants, 78,3%). Les autres parents habitent des départements différents qui sont soit pas très éloignés (13,3% pour 3 enfants), éloignés (6,7% pour 1 enfant) ou très éloignés (6,7% pour 1 enfant). Le Tableau 10 résume les données sur la distance des foyers. Tableau 10: Distance entre les foyers du père et de la mère Même département Département pas très éloignés Département éloignés Département très éloignés Total Couples parentaux Effectifs Pourcentage 11 73,3% 2 13,3% 1 6,7% 1 6,7% 15 100% Enfants concernés Effectifs Pourcentage 18 78,3% 3 13,0% 1 4,3% 1 4,3% 23 100% - La décision du mode de garde désigne la procédure par laquelle le mode de garde a été défini et mis en place. Les différentes procédures peuvent renseigner sur les conflits entre parents au moment de la séparation et elles peuvent influencer la relation coparentale. Notre échantillon regroupe différents modes de garde dont les choix renvoient à des procédures différents. En effet, le choix du mode de garde peut se faire uniquement au niveau des parents lorsqu'ils réussissent à se mettre d'accord sur le mode de garde qui leur convient à tous les deux. Le mode de garde est alors décidé à l'amiable entre les deux parents. Cette décision à l'amiable peut être entérinée ou non par un juge. A l'opposée, le mode de garde peut être imposé aux parents par décision de justice, lorsque les parents ne s'accordent pas sur le mode de garde à adopter. Ces trois procédures apparaissent uniformément dans notre 149 Chapitre 4. Présentation des résultats échantillon. La décision à l'amiable puis entérinée par un juge concerne 33,3% des parents pour 9 enfants : 20% pour une garde principale chez la mère (3 couples parentaux), 6,67% pour une résidence alternée (1 couple parental) et 6 ,67% une garde exclusive chez le père (1 couple parental). Au niveau de la décision prise uniquement à l'amiable, les 33,3% concernent 7 enfants et se répartissent comme suit : 20% pour une garde principale chez la mère (3 couples parentaux) et (13,33%) pour une garde alternée (2 couples parentaux). les mode de garde imposés par décision de justice concernent également 7 enfants et se repartissent comme suit : 13,33 % pour une garde alternée à la demande du père (2 couples parentaux), 13,33 % pour une garde principale chez la mère (2 couples parentaux) et 6,67% pour une garde exclusive chez la mère (1 couple parental). Le Tableau 11 regroupe les effectifs et les pourcentages pour les différentes procédures. Tableau 11: Procédures de décision du mode de garde Amiable Justice Amiable/Justice Total Couple parentaux Effectifs Pourcentage (%) 5 33,3 5 33,3 5 33,3 15 100 Enfants concernés Effectifs Pourcentage (%) 7 30,4 7 39,1 9 39,1 23 100 Par ailleurs le mode de garde le plus appliqué par les parents est la garde principale chez la mère (53,3%). L'enfant vit principalement avec sa mère et voit son père certains week-end (un week-end sur deux ; deux week-end sur trois) et une partie des vacances (moitié des vacances ; 3 semaines en août et une semaine à Noël). La résidence alternée est le deuxième mode de garde le plus appliqué par les parents (33,3%). Dans ce cadre, l'enfant réside chez chacun de ses parents en alternance et selon un temps défini de manière égale pour chaque parent. Dans notre échantillon, le rythme défini par les parents est celui d'une semaine sur deux avec des aménagements en fonction des besoins de l'enfant et des disponibilités des parents, les facteurs organisationnels (distance entre l'école et le domicile des parents). Dans certains cas, ces aménagements peuvent aller jusqu'à toute une période de garde principale chez un parent. En dehors de ces deux principaux modes de garde, nous avons quatre gardes exclusives : une garde exclusive pour le père avec des séjours chez la mère, adoptée par un couple (6,7%) et trois gardes exclusives chez la mère avec pour le père des visites dans un point rencontre désigné par un juge des enfants (6,7%). (cf. Tableau 12) 150 Chapitre 4. Présentation des résultats Tableau 12: Répartition des couples et des enfants selon le mode garde Principale/Mère Alternée Exclusive/Mère Exclusive/Père Total Couple parental Effectifs Pourcentage 8 53,3% 5 33,3% 1 6,7% 1 6,7% 15 100% Enfants concernés Effectifs Pourcentage 13 56,5% 6 26,1% 3 13,0% 1 4,3% 23 100% Un autre aspect de la parentalité après la séparation est la coparentalité. Il a été demandé au parent de qualifier la relation avec leur ex-conjoint en choisissant un des qualificatifs suivants : coopérative, conflictuelle, distante, ou de la définir autrement. Les données sont donc très partielles et basées sur l'avis d'un seul parent, mais elles nous donnent, tout de même, une indication minimale sur les relations coparentales des couples parentaux. Selon les réponses obtenues, 66,7% des parents estiment que leur relation avec leur ex-conjoint est coopérative et 33,3% qualifient leur relation de conflictuelle. (cf. Tableau 13) Tableau 13: Répartition des couples et des enfants en fonction de la relation coparentale Conflictuelle Coopérative Distante Autre Total Couple parentale Effectifs Pourcentage 5 33,3% 10 66,7% 0 0,0% 0 0,0% 15 100% Enfants concernés Effectifs Pourcentage 8 34,8% 15 65,2% 0 0,0% 0 0,0% 23 100% La combinaison des facteurs, mode de garde et relation coparentale, indique que les parents qui appliquent une résidence alternée qualifient tous leur relation avec leur exconjoint de coopérative : aussi bien les 2 couples parentaux (40%) pour lesquels elle a été imposée par la justice que pour les 3 couples parentaux (60 %) qui l'ont décidé à l'amiable. Ils représentent la moitié des parents qui ont une relation coopérative. L'autre moitié des relations coopérative est constituée de parents qui appliquent une garde principale chez la mère. (cf. Tableau 14) Tableau 14: Tableau croisé relation coparentale / mode de garde Principale Relation coparentale Conflictuelle Coopérative Total 3 5 8 Mode de garde Alternée Exclusive père 0 1 5 0 5 1 Exclusive mère 1 0 1 Total 5 10 15 151 Chapitre 4. Présentation des résultats Parmi les parents qui qualifient leur relation de conflictuelle, 3 (60 %) appliquent une garde principale chez la mère et 1 (20 %) une garde exclusive chez la mère et 1 (20 %) une garde exclusive chez le père. De plus 3/5 (60 %) des couples qui ont une relation conflictuelle appliquent un système de garde imposé par la justice. II.1.4. Caractéristiques des familles recomposées La présentation des constellations familiales des enfants de notre échantillon portera d'abord sur la structure de la constellation familiale, c'est-à-dire : le nombre de foyers recomposés, le statut matrimonial des figures parentales dans les foyers recomposés, la présence de demi-frères et soeurs et la présence de quasi frères et soeurs. Nous indiquerons ensuite les facteurs liés au temps : le temps entre la séparation et les recompositions, la durée des recompositions ainsi que le nombre de transition familiale. L'analyse des constellations familiales auxquelles appartiennent les enfants de notre échantillon montre que 10 de ces constellations soit 66,7% comportent deux foyers recomposés c'est-à-dire que chacun des parents s'est remis en couple. Pour les 33% des constellations restantes, seulement un des parents s'est remis en couple. Dans l'ensemble, 25 foyers sur les 30 liés à notre échantillon sont recomposés, 13 de ces foyers sont centrés sur la mère (couple conjugal mère et beau-père) et 12 sur le père (couple conjugal père et bellemère). (cf. Tableau 15) Tableau 15: Répartition des familles et des enfants en fonction du nombre de foyers recomposés Deux foyers Foyer/Mère Foyer/Père Total Constellations familiales Effectifs Pourcentage 10 66,7% 3 20,0% 2 13,3% 15 100% Nombre d'enfants concernés Effectifs Pourcentage 16 69,6% 5 21,7% 2 8,7% 23 100% En outre, les 13 foyers recomposés centrés sur la mère sont en majorité des foyers dans lesquels la mère et le beau-père vivent en concubinage, 6 foyers (40%), suivis de ceux ou le couple est marié (4 foyers ou 26,7%), 1 seul couple mère/beau-père est pacsé (6,7%) et 2 autres sont en unions libres (13,3%). Pour ce qui concerne les 12 foyers recomposés centrés sur le père, le couple père/ belle-mère est en concubinage pour 7 foyers (46,7%), il est marié pour 2 foyers (13,3%), pacsés 152 Chapitre 4. Présentation des résultats également pour 2 foyers (13,3%) et un seul couple père/ belle-mère est en union libre (6,7%) (cf. Tableau 16). Tableau 16: Statut matrimonial actuel dans les foyers recomposés Mère Pas de recomposition Union libre Concubinage Pacsé Marié Total Effectif 2 % 13,3% Enfants concernés Effectif % 2 8,7 2 6 1 4 15 15,39% 46,15% 7,69% 30,77% 100% 2 13 1 5 23 8,7 56,5 4,3 21,7 100% Pères Effectif % 3 20 Enfants concernés Effectif % 5 21,7 1 7 2 2 15 2 12 2 2 23 8,33 58,33 16,67 16,67 100% 8,7 52,2 8,7 8,7 100% Ainsi, une analyse groupée des situations matrimoniales des 25 foyers recomposés montre que dans 52% des foyers, les couples vivent en concubinage. Il en ressort que les enfants de notre échantillon vivent des recompositions qui sont plus basées sur le concubinage que sur le mariage et le PACS. Au niveau de la fratrie recomposée, les fratries germaines des enfants ont été décrites séparément parce qu'elles constituent le processus proximal. Nous allons évoquer ici les autres composantes de la fratrie recomposée que sont les demi-frères/soeurs et les quasifrères/soeurs, sous l'angle de leur présence ou non dans les foyers. Les demi-frères et soeurs sont présents dans 5/13 foyers recomposés centrés sur la mère et dans 6/12 foyers recomposés centrés sur le père. Quant aux quasi-frères et soeurs, ils sont présents dans 5/13 foyers recomposés centrés sur la mère et également dans 5/12 foyers recomposés centrés sur le père. Les demi-frères et soeurs sont présents dans 5/13 foyers recomposés centrés sur la mère et dans 6/12 foyers recomposés centrés sur le père. Quant aux quasi-frères et soeurs, ils sont présents dans 5/13 foyers recomposés centrés sur la mère et également dans 5/12 foyers recomposés centrés sur le père. II.2. Le temps Les facteurs temps concernent la durée de relation conjugale, le temps depuis la séparation, le temps entre la séparation et la recomposition, la durée des recompositions et les transitions familiales. 153 Chapitre 4. Présentation des résultats La durée de la relation conjugale des parents varie entre 4 et 17 ans. Nous avons défini des tranches de 5 ans dans lesquelles nous avons reparti les parents selon la durée de leur relation conjugale. Dans ce cadre, 26,7% des relations conjugales ont une durée inférieure ou égale à 5 ans, une proportion qui représente 8 enfants (34,8%). 40% des relations se situent entre 5 et 10 ans. Cette tranche est la plus importante en ce qui concerne les relations conjugales elle regroupe également 8 enfants (34,8%). Dans la tranche de 10 à 15 ans, le pourcentage de couple est de 20% pour 5 enfants (21,7%). Enfin, seulement 13,3% des couples se situent entre 15 et 20 ans, soit 2 enfants (8,7%). Par ailleurs, le temps depuis la séparation varie quant à lui de 1,5 an à 12 ans. Sur la base des mêmes tranches de temps utilisées pour la relation conjugale, il se répartit comme suit : près de la moitié, 46%, des couples se situent dans la tranche inférieure ou égale à 5 ans, ce qui correspond à 11 enfants (47,8). La seconde tranche de 5 à 10 ans, représente le tiers des couples (33,3%) et concerne 8 enfants (34,8%). La tranche de 10 à 15 ans constitue 20% des couples pour 4 enfants (17,4%). Aucun couple ne se situe au delà des 15 ans. Ces données montrent que les enfants de notre échantillon sont en majorité dans des situations de séparations assez récentes, ce qui peut influencer leur appropriation de la recomposition familiale (cf. Tableau 17). Tableau 17: Durée de la relation conjugale et temps depuis la séparation 0-5 ans 5-10 ans 10-15 ans 15-20 ans Total Durée de la relation Effectif % parents 4 26,7 6 40 3 20 2 13,3 15 100 Nombre d'enfants Effectif enfants 8 8 5 2 23 % 34,8 34,8 21,7 8,7 100 Temps depuis la séparation Effectif % parents 7 46,7 5 33,3 3 20 0 0 15 100 Nombre d'enfants Effectif enfants 11 8 4 0 23 % 47,8 34,8 17,4 0 100 Au niveau de la durée entre la séparation et la recomposition, les mères se répartissent comme suit : 3 soit 20% se sont remises en couple moins d'un an après la séparation, la majorité 8 mères (53,3%) se sont remis en couple entre 1 et 5 ans après la séparation et seulement une mère (6,7%) s'est remise en couple 5 ans après la séparation. Les pères, quant à eux, sont aussi nombreux à se situer dans la tranche de moins d'un an que dans la tranche de 1 à 5 ans. En effet, 5 pères (33,3%) se sont remis en couple moins d'un an 154 Chapitre 4. Présentation des résultats après la séparation et également 5 pères (33,3%) se sont remis en couple entre 1 et 5 ans après la séparation. La durée des recompositions est un facteur qui est souvent contrôlé dans les recherches sur les familles recomposées. Elle apparaît dans ces recherches comme une variable qui, par exemple, influence les relations familiales, ou qui définit la fragilité ou non des couples. En ce sens la période de 0 à 5 ans est considérée comme difficile et fragile. Les recompositions dans notre échantillon se situe en majorité dans cette période de 0 à 5 ans, 8 des recompositions chez les mères (53,3 %) et 9 chez les pères (60%). Dans la tranche de 5 à 10 ans, on retrouve 2 recompositions chez les pères (13,3%) et 4 recompositions chez les mères (26,7%). La dernière tranche de 10 à 15 n'existe que chez les pères et compte 2 recompositions (13,3%). Enfin, une analyse des constellations sous l'angle des transitions familiales indique que la majorité des enfants (17 enfants) a vécu une séparation et une remise en couple avec l'un et ou les deux parents. Par contre, une minorité d'enfants (6 enfants) a vécu plus de transitions familiales. Parmi ces 6 enfants, 4 ont vécu deux séparations et une remise en couple avec l'un de leurs parents, et 2 enfants ont vécu 3 séparations et 3 remises en couple avec l'un de leur parent. II. Analyse des données II.1. Appropriation de la famille recomposée II.1.1. La représentation de la famille La représentation de la famille par l'enfant est appréhendée à partir du dessin de la famille. Notre analyse portera principalement sur le contenu des dessins. Les autres niveaux d'analyses, notamment, les niveaux graphique et formel seront brièvement mentionnés. Nous avons fait le choix de mettre l'accent sur la structure et la composition de famille, eu égard aux questions de recherche posées. II.1.1.1. Analyse graphique et formelle des dessins de la famille. La consigne donnée aux enfants dans notre étude est : « dessine ta famille » et les outils qui leur ont été remis pour la réalisation du dessin sont : une feuille de papier blanche 155 Chapitre 4. Présentation des résultats format A4, un crayon à papier et des crayons de couleur. Nous évoquerons ici quelques aspects liés à l'utilisation de ces outils par l'enfant et à la structure formelle de son dessin. La feuille de papier est présentée à l'enfant dans le sens vertical. La plupart des enfants (22) ont conservé cette position, seulement un enfant a préféré changer la position de la feuille pour l'utiliser dans le sens horizontal. Le crayon à papier a été utilisé par presque tous les enfants pour dessiner, un seul enfant a préféré un crayon de couleur noir pour son dessin. Au niveau du recours au crayon de couleurs, 12 enfants ont préféré ne pas utiliser de crayon de couleur et 11 ont colorié leur dessin. La majorité des enfants (8 enfants) a réalisé un dessin qui occupe toute la page, soit avec les membres de la famille soit en rajoutant un paysage ou un cadre tel qu'une maison. Il y a ensuite les enfants dont le dessin se situe dans le bas de la feuille (4 enfants). D'autres enfants ont utilisé la zone gauche (3 enfants), les zones du haut et du centre concernent chacune deux enfants. Aucun enfant de notre échantillon n'a un dessin qui occupe la zone droite de la page. En dehors des enfants qui ont réalisé leur dessin dans une zone ou une autre de la page deux enfants ont utilisé les deux pages de la feuille pour continuer leur dessin parce que, selon eux, il n'y avait plus de place sur la première page. II.1.1.2. Analyse de contenu des dessins Les premiers éléments du contenu qui peuvent être relevés sont, entre autres, la première personne dessinée et l'organisation du dessin. La mère est la première personne dessinée pour 9 enfants, un frère ou une soeur germain (e) pour 5 enfants et pour un enfant, un quasi-frère, l'enfant lui même pour 4 enfants, le père pour 3 enfants et le beau-père pour un enfant. Au-delà de la première personne dessinée, l'organisation de l'ensemble du dessin peut permettre de mieux le comprendre. Dans le cadre de notre échantillon quatre organisations peuvent être définies : - l'organisation « nuancée » (9 enfants), il n'y a pas d'organisation tranchée en termes de sous-système, on retrouve dans ce groupe, par exemple, les enfants qui se dessinent en premier, puis les parents et ses frères et soeurs ; - l'organisation « différenciée » (6 enfants) basée sur les liens biologiques et la trajectoire de la famille. Une enfant de ce groupe a par exemple, dessiné les membres de sa famille 156 Chapitre 4. Présentation des résultats nucléaire d'avant la séparation d'abord, puis les personnes qui se sont rajoutées à la famille avec la recomposition. - la fratrie puis les figures parentales et le cas échéant la famille élargie (4 enfants) ; - les figures parentales, puis la fratrie et le cas échéant la famille élargie (4 enfants). II.1.1.2.1. Structure de la famille La comparaison entre les familles dessinées par les enfants et leurs familles réelles nous a permis de faire ressortir dans un premier temps quatre profils de famille : « les familles globales », les « familles composites », les « familles d'un foyer » et les « familles d'origine ». Ces profils indiquent l'orientation générale donnée au dessin par l'enfant, et ont été établis sur la base des personnes présentes et absentes, ainsi que de à la logique qui soustend le dessin. Les « familles globales » Les enfants de ce profil sont au nombre de sept. Les « familles globales » désignent les familles basées sur l'idée de faire figurer tous les membres des deux foyers sur le dessin. On y retrouve le père et la mère biologiques, ainsi que tous ou presque tous les membres de leurs différents foyers. Ces enfants décident que ces personnes peuvent être figurées pour différentes raisons : ils sont proches de ces personnes (cf., dessin S1), ces personnes sont proches de celles qu'ils aiment (cf., dessin S11), ces personnes font partie de leur vie depuis un moment (cf., dessin S15). Mais les enfants de ce profil peuvent marquer les différences entre les personnes de leur dessin sur la base des liens familiaux ou des foyers parentaux. Les différenciations, basées sur les liens, sont représentées dans la position des personnes sur le dessin : par exemple une première ligne avec les membres de la famille avant la séparation et en dessous une deuxième ligne avec les beaux-parents et les quasi-frères qui sont liés à la recomposition (cf., dessin S15). Les enfants qui font référence aux différents foyers peuvent également utilisés la méthode des deux lignes, le foyer de la mère sur une ligne et le foyer du père sur une autre (cf., dessin S9), ou représenter les deux foyers sur une même ligne dans deux maisons pour être au plus près de la réalité (cf., dessin S10). Les « familles globales » sont bien sûr celles dans lesquelles il y a le moins de personnes d'avant le divorce, qui sont absentes. Nous notons cependant, que l'enfant ne s'est pas représenté dans deux dessins : le premier (S1) parce que pour lui il fallait dessiner les 157 Chapitre 4. Présentation des résultats membres de sa famille autres que lui et la deuxième (S21) parce qu'elle ne trouve pas sa place dans la famille qu'elle a dessinée. S21 commence à peine à accepter la séparation de ses parents et n'a pas une bonne image du remariage de son père à cause des circonstances dans lesquelles il s'est fait. Elle n'a pas de bon rapport avec sa belle-mère mais l'a mise dans le dessin de sa famille. Elle a représenté ce qu'on pourrait appeler sa famille mais comme celleci ne répond pas à sa vision de la famille, elle n'y figure pas. Les absences liées à la recomposition au niveau des « familles globales » concernent les demi et quasi frères et soeurs pour deux enfants d'une même famille S9 et S10. Il apparaît qu'elles ont de bon rapport avec leur quasi-soeur mais qu'elle est beaucoup plus grande et qu'elles ne la voient qu'occasionnellement. Le demi-frère n'apparaît pas seulement sur le dessin de S9. Son dessin est basé sur l'idée d'avoir un équilibre entre les deux foyers représentés chacun sur une ligne en termes de figure parentale et de nombre d'enfants. La première ligne comporte son père, sa belle-mère et elle-même et la deuxième sa mère son beau-père et sa soeur germaine. Selon elle, si elle rajoutait le demi-frère il aurait fallu trouver un autre membre à rajouter sur l'autre ligne pour avoir le même nombre sur les deux lignes. Les logiques données par les enfants de ce profil sont des logiques de continuité. Les enfants d'intègrent les changements familiaux avec, pour certains d'entre eux, une acceptation ou non de ces changements. « Famille composite » Cette représentation ressort chez quatre enfants. Ce profil regroupe les enfants qui choisissent les membres de leur famille. Les choix sont déterminés par les liens biologiques et les relations qu'ils ont avec les personnes ainsi que par les statuts qu'il leur donne. Les liens biologiques expliquent que ces familles regroupent en majorité les membres de la famille d'avant la séparation : les parents et la fratrie germaine. Ils justifient également la présence de demi-frère/soeurs sur le dessin « il est de maman ». Mais le lien biologique, à lui seul, ne détermine pas les choix des enfants, la qualité des rapports avec les personnes, peut être plus déterminante que le lien biologique. Le dessin de S4 illustre bien cet aspect, l'enfant n'a pas mis son père sur le dessin parce qu'il ne le voit presque plus, son beau-père également ne figure pas sur le dessin parce qu'il ne s'est pas encore totalement habitué à sa présence : « ma famille, elle est comme ça et le fait qu'il y a un nouveau papa, c'est un peu étrange. Donc je 158 Chapitre 4. Présentation des résultats préfère laisser la photo comme ça ». S'il devait rajouter une figure paternelle ce serait son beau-père et non son père, parce qu'il est plus proche de lui « j'aurais préféré mettre l'autre parce que comme ça fait longtemps que mes parents ils ont divorcé, avec le nouveau je me suis un peu mieux adapté ». Le statut justifie la présence ou non des personnes sur le dessin. Ainsi, S7 n'a pas mis son beau-père sur le dessin. Il affirme qu'il aurait pu le mettre sur « la même feuille mais pas sur ce dessin », selon lui ce serait « autre chose » parce que le beaupère ne fait pas partie de sa famille. S23 a, quant à elle, préféré mettre ces quasi-frères qui ont un statut de frères sur son dessin et non son beau-père ou ses demi-frères. Elle est plus proche de ses quasi-frères avec qui elle vit principalement et dont elle prend soin que de ses demifrères qui sont chez son père et qu'elle ne voit pas beaucoup. La coprésence, les interactions et les relations prennent dans ce cas le pas sur le lien biologique. Dans les familles composites, les absences concernent plus largement les personnes liées à la recomposition, c'est-à-dire, le beau-père, la belle-mère et les demi-frères et soeurs. La logique ici est une recomposition propre à l'enfant basée sur des choix électifs. L'enfant redéfinit sa structure familiale et ses liens familiaux. « Famille un foyer » Ce profil regroupe six enfants. Ils représentent un des foyers de la constellation, en général celui où il séjourne au moment de la passation ou celui ou il passe le plus de temps. On retrouve dans ce groupe des enfants (3) qui ne vivent que dans un foyer. Ils ne voient presque plus l'autre parent et quand ils doivent le voir les rencontres se font en point rencontre. Ici se joue une logique de substitution parentale « pour moi il ne fait plus partie de la famille » les personnes qui sont sur leur dessin sont celles qu'ils voient le plus souvent. Les autres enfants en garde principale ou résidence alternée disent avoir dessiné sans trop y réfléchir le foyer dans lequel ils vivaient, ou parce que cela aurait pris du temps pour dessiner tout le monde. Les personnes absentes ici ne renvoient pas aux liens, aux rapports ou aux statuts, mais à l'appartenance à un foyer. Elles concernent donc à la fois des personnes d'avant et après la recomposition. Dans la majorité des cas, la fratrie germaine est présente en plus des enfants qu'ils retrouvent dans le foyer dessiné, demi et ou quasi-frères/soeurs. Un enfant (S18) se 159 Chapitre 4. Présentation des résultats démarque de cette majorité, d'abord parce qu'il n'a pas dessiné le foyer où il se trouvait lors de la passation et ensuite parce que sa soeur germaine et lui ne figurent pas sur le dessin. La famille d'un foyer peut renvoyer à une logique de deux familles ou de deux composantes familiales distinctes. « Famille d'origine » La représentation « famille d'origine » regroupe six enfants. Dans ce profil, l'enfant ne dessine que la famille d'avant la séparation. Elle exprime un désir de revoir les parents ensemble même si cela n'est plus possible ou le fait que les nouveaux membres de la famille ne font pas encore vraiment partie de la famille : « tu m'as demandé de faire ma famille et B., il n'est pas trop de ma famille. Il est un tout petit peu de la famille ». Les enfants mentionnent bien que ce n'est pas la réalité actuelle « en fait le dessin n'est pas vrai, dans la réalité ce n'est pas possible qu'on soit tous ensemble, ou que papa et maman soient tous les deux avec nous ». D'autres restent plus proches de la réalité en ne dessinant pas les deux parents parce qu'ils sont divorcés, même si papa reste l'amoureux de maman « papa il est divorcé c'est pour cela ». Ces familles ne comportent aucuns membres issus de la recomposition. La logique qui soustend le dessin est une logique de pérennité de la famille nucléaire. Tableau 18: Résumé des représentations de la structure familiale Effectifs Pourcentage « Famille globales » / logique de « continuité » 7 30,4% « Familles composite » / logique des choix sélectifs 4 17,4% « Familles d'un foyer » / logique de deux familles ou de deux composantes familiales distinctes « Famille d'origine » / logique de « pérennité » 6 26,1% 6 26,1% 23 100% Total II.1.1.2.2. Les relations familiales Au niveau des relations familiales, nous nous sommes surtout intéressés aux relations avec les beaux-parents, les demi-frères/soeurs et les quasi-frères/soeurs. 160 Chapitre 4. Présentation des résultats Les beaux-parents Les enfants de notre échantillon appellent leur beau-père et leur belle-mère par leur prénom. Ils leur donnent une place de parents, seulement deux enfants (S20 et S12) ont donné à leur beau-père une position d'ami. Les enfants font la différence entre un parent et un ami. Un parent gronde, s'occupe d'eux, les aide pour les devoirs « un ami ils ne nous gronderaient pas alors que lui il nous gronde souvent » ; « elle gronde, elle s'occupe de nous ». Le beauparent « parent » est aussi celui avec qui on a des activités, qui aide pour les devoirs. C'est un parent parce qu'il est le parent d'un demi-frère/soeur, parce qu'il est présent dans leur vie et leur achète des choses. « Une maman c'est gentil, ça fait des câlins à leur enfant », une maman parce qu' « elle ne fait que le ménage ». Le beau-parent remplace le parent absent. Pour les enfants pour qui, il est important d'avoir deux figures parentales dans chacun des foyers pour avoir un équilibre familial. Cette position est justifiée par les enfants par son rôle auprès d'eux et en référence à leur représentation des rôles parentaux : le beau-parent est parent parce qu'il gronde, donne des soins, aide pour les devoirs, son lien avec le parentbiologique et le fait qu'il occupe la position du parent absent, un parent c'est quelqu'un qui accepte d'être à la fois affectueux et autoritaire. Un ami ne gronde pas. Les enfants l'appellent par leur prénom parce que c'est comme ça qu'il s'appelle, c'est comme ça qu'il s'est présenté ou qu'il a été présenté par le parent. Les surnoms également peuvent être ceux donnés par le beau-parent dès le départ, ou ils viennent avec le temps et les liens qui se développent. Pour certains enfants le beau-parent ne fait pas partie de la famille: ils ne s'entendent pas avec eux, ou le processus, qui ferait de lui un membre de la famille est en cours, ou les enfants définissent leur lien avec eux seulement par rapport aux parents et non par rapport à lui : « c'est mon beau-parent, parce qu'il est avec maman » Les demi-frères/soeurs Les enfants ont un parent en commun avec leurs demi-frères/soeurs. Ils les appellent frères/soeurs ou beau-petit-frère. Les demi-frères/soeurs ne figurent pas toujours sur les dessins mais, de manière générale les enfants ont de très bons rapports avec eux, ils sont heureux de les avoir et les considèrent comme, un frères/soeur et même davantage, parce qu'ils les ont vus naître et ils prennent soin d'eux. Un seul enfant sur les dix sept qui en ont a des rapports conflictuels avec ses demi-frères. 161 Chapitre 4. Présentation des résultats Les quasi-frères/soeurs Le terme de quasi-frères/soeurs n'est pas utilisé par les enfants, ils disent demifrères/soeurs ou beau-frères/soeurs ou directement frères/soeurs. Pour la plupart des enfants, ils ne sont pas membres de leur famille, ils sont soit « personne », soit « comme des amis », soit comme une grande cousine. II.1.2. Les stratégies de coping Comme indiqué auparavent les stratégies de coping sont appréhendées à partir du Kidcope qui propose aux enfants de définir une situation stressante, les stratégies de coping utilisées pour faire face à cette situation et l'efficacité de ces stratégies. Nous analyserons, dans un premier temps, les situations stressantes évoquées par les enfants puis la fréquence avec laquelle les stratégies sont mobilisées, et enfin l'évaluation de l'efficacité de ces stratégies par les enfants. II.1.2.1. Les situations stressantes Les enfants ont évoqué les situations qui sont sources de stress pour eux en répondant à la question : « Pour commencer, tu vas penser à une situation ou à quelque chose dans ta famille qui t'embête le plus ou qui est le plus difficile pour toi». Les réponses des enfants ont fait l'objet d'une analyse de contenu dans l'objectif de faire ressortir les thèmes et les personnes impliquées dans ces situations de stress. En d'autres termes elle vise à répondre aux questions : qui est le problème et quel est le problème ? Les deux grands thèmes abordés par les enfants sont la famille (16/23), et l'école (4/23). Deux enfants disent n'identifier aucune difficulté particulière et un enfant ne souhaite pas mentionner le problème auquel il pense. La famille Les enfants font majoritairement référence à la sphère familiale (16/23). Dans ce cadre, le beau-parent est indiqué par six enfants comme source de difficulté. Les problèmes liés aux beaux-parents relèvent de sa personnalité, de sa présence dans leur vie (S 11 : « Que C. (belle-mère) soit là »), et des rapports difficiles qu'ils ont avec eux. Pour d'autres enfants, les problèmes sont liés à leur approche éducative, car il les trouve sévères (S18 : « CY (beau162 Chapitre 4. Présentation des résultats père) est vraiment très, très beaucoup sévère » ; (S10 : « Que J.Y (beau-père) me gronde »). Enfin, certains enfants n'apprécient pas la proximité parent/beau-parent. La deuxième source de stress pour les enfants est la séparation des parents. Elle est source de stress d'une part, parce que les enfants désirent qu'ils se remettent en couple pour avoir des activités avec eux, et d'autre part, parce que ce désir s'accompagne d'un conflit de loyauté en raison d'un beau-parent soutenant (S12 : « Qu'ils reviennent ensemble tous les deux. Ce qui me gêne quand même c'est qu'il n'y aura pas A. (beau-père) et quand même il est gentil et j'ai des copines que leur parent ne sont pas divorcés et ils peuvent faire des choses ensemble. »). Les enfants évoquent, ici, le fait que leurs parents ne sont plus proches. La séparation pose également un problème de concordance éducative entre les deux parents, (S6 : « Quand papa et maman se sont séparés parce qu'ils veulent toujours qu'on fasse des trucs, comme jouer à la console, chez maman on y a droit chez papa non, ils ne veulent pas les mêmes choses. »). Il est aussi question des relations parent-enfant après la séparation. A ce niveau, deux enfants évoquent la garde alternée, plus précisément le temps des trajets en voiture et quand les parents ne sont pas d'accord sur l'organisation entre les deux maisons. La garde principale est source de stress pour un des enfants, parce qu'elle l'éloigne du parent qu'il ne voit pas aussi souvent que l'autre. La rupture des relations père-enfant est mentionnée par un enfant. Enfin, le stress pour deux enfants provient également de l'atmosphère familiale, en termes de dispute ( S15 : « les disputes entre tout le monde ») et de stress de la mère qui est débordée et qui réclame de l'aide (S19 : « Quand ma mère stresse parce qu'elle n'a pas fini de s'occuper de petits et qu'elle me crie dessus pour que je l'aide »). . Par ailleurs, deux enfants évoquent des situations liées à leurs frères/soeurs germains. Ce sont la relation conflictuelle avec le frère S23 « J'aimerais que mon frère se dispute moins avec moi ») et le fait de regarder le frère jouer au football, parce qu'il n'aime pas rester sans rien faire. L'école Pour quatre enfants, les sources de stress sont plutôt rattachées à l'école et non à la famille. Dans ce cadre ils évoquent la maîtresse : « je n'aime pas comment la maîtresse elle parle, quand elle dit mal élevé », leur rapport négatif à l'école (S13 : « Je n'aime pas aller à l'école »), le temps de devoirs et enfin le fait d'être gardé à l'école ou au centre de loisirs. 163 Chapitre 4. Présentation des résultats II.1.2.2. Statistiques descriptives des scores des enfants pour la fréquence d'utilisation des stratégies Les statistiques présentées dans le Tableau 19 décrivent les distributions des fréquences d'utilisation des stratégies de coping. Le premier constat est que seuls la « pensée magique » et le « soutien social » présentent des moyennes (respectivement 1,73 et 1,78) au-delà de la moyenne théorique de 1,5 de chacun de ces items. Il est aussi intéressant de remarquer que l'asymétrie de la distribution de chacun de ces items, est négative. Par ailleurs, bien que présentant des moyennes (de 1.47) légèrement inférieures à la moyenne théorique, il ressort que les stratégies « résolution de problèmes » et « restructuration cognitive » sont aussi utilisées par l'échantillon. Tableau 19 : Statistiques descriptives des scores des enfants pour la fréquence d'utilisation des stratégies Distraction Retrait social Restructuration cognitive Autocritique Blâmer les autres Résolution de problèmes Régulation émotionnelle Pensée magique Soutien social Résignation Min 0 0 0 0 0 0 0 0 0 0 Max 2,5 3 3 3 3 3 2 3 3 3 m 1,28 1,02 1,47 0,69 0,65 1,47 1,15 1,73 1,78 0,78 σ 0,85 0,97 1,08 0,97 0,98 1,13 0,68 1 1,27 1,04 Médiane 1,5 0,5 1 0 0 1 1,5 2 2 0 Skewness -0,031 0,504 0,061 1,331 1,425 0,007 -0,373 -1,219 -0,271 1 Kurtosis -1,219 -1,049 -1,209 0,876 1,037 -1,572 -1,048 -1,073 -1,733 -0,321 Les moyennes des fréquences d'utilisation de toutes ces stratégies sont résumées par ordre croissant dans la Figure 5. 164 Chapitre 4. Présentation des résultats Figure 5 : Moyennes des fréquences d'utilisation des stratégies II.1.2.3. Statistiques descriptives des scores des enfants pour l'efficacité des stratégies utilisées L'efficacité des stratégies utilisées par les enfants de l'échantillon est à la fois résumée dans le Tableau 20 et organisée par ordre croissant dans la Figure 6. Il ressort très clairement que la stratégie la plus efficace, selon les enfants, est le « soutien social » et les stratégies les moins efficaces sont « blâmer les autres » et « autocritique ». Tableau 20 : Statistiques descriptives des scores des enfants pour l'efficacité des stratégies utilisées Distraction Retrait social Restructuration cognitive Autocritique Blâmer les autres Résolution de problèmes Régulation émotionnelle Pensée magique Soutien social Résignation Min 0 0 0 0 0 0 0 0 0 0 Max 2,50 2 3 2 1 3 2,50 3 3 3 m 1,17 0,47 1,21 0,21 0,21 1,45 0,91 1,34 1,91 0,73 σ 0,88 0,59 0,99 0,510 0,42 1,21 0,70 1,02 1,16 1,05 Médiane 1,50 0,50 1 0 0 1,50 1 1,5 2 0 Skewness -0,153 1,164 0,424 2,468 1,468 0,132 0,337 0,312 -0,574 1,341 Kurtosis -1,445 0,569 -0,725 5,859 0,161 -1,719 -0,479 -0,837 -1,172 0,650 165 Chapitre 4. Présentation des résultats Figure 6 : Efficacité des stratégies utilisées II.1.3. L'adaptation socio-affective Le Tableau 21 décrit la distribution des scores T des enfants de notre échantillon au CBCL, outils utilisé pour appréhender leur adaptation socio-affective. Tableau 21 : Distribution des scores T aux sous-échelles et échelles du CBCL Repli sur soi Plaintes somatiques Anxiété/Dépression Adaptation intériorisée Comportements délinquants Comportements agressifs Adaptation extériorisée Problèmes sociaux Troubles de la pensée Trouble de l'attention Adaptation générale Min 50 50 50 34 50 50 32 31 50 50 27 Max 73 72 82 78 74 80 80 76 70 80 76 m 55,52 54,60 55,60 51,91 56,04 54,43 49,47 53,95 53,91 54,34 50,08 σ 6,38 7,46 9,72 12,27 8,39 7,72 12,88 8,82 7,03 50 46 Médiane 54 50 50 50 50 50 49 50 50 7,87 13,27 Skewness 1,123 1,276 1,705 0,559 0,998 2,115 0,456 0,194 1,437 2,092 0,480 Kurtosis 0,865 0,064 1,729 - 0,407 - 0,655 4,610 - 0,060 2,088 0,410 4,183 - 0,490 L'analyse des moyennes des scores T indique qu'elles se situent toutes en dessous de 60 donc hors des zones limites (scores de 60 à 63) et pathologiques (score ≥ à 64). De manière générale, notre échantillon se situe à toutes les échelles et sous-échelles du CBCL dans la zone non pathologique. 166 Chapitre 4. Présentation des résultats D'autre part, la différence entre les moyennes des scores à l'adaptation intériorisée et l'adaptation extériorisée est faible. Les enfants de notre échantillon semblent ne pas avoir plus de problèmes d'adaptation intériorisée que de difficultés d'adaptation extériorisée. Tableau 22 : Répartition des enfants selon les zones pathologiques aux sous-échelles et échelles du CBCL Repli sur soi Plaintes somatiques Anxiété/Dépression Adaptation intériorisée Comportements délinquants Comportements agressifs Adaptation extériorisée Problèmes sociaux Troubles de la pensée Trouble de l'attention Adaptation générale Zones non pathologique Effectif % 22 95,7 21 91,3 19 82,6 19 82,6 19 82,6 21 91,3 19 82,6 22 95,7 21 91,3 21 91,3 18 78,3 Zone limite Zone pathologique Effectif 0 1 1 0 3 1 1 0 2 1 1 Effectif 1 1 3 4 1 1 3 1 0 1 4 % 0 4,3 4,3 0 13 4,3 4,3 0 8,7 4,3 4,3 % 4,3 4,3 13 17,4 4,03 4,3 13 4,3 0 4,3 17,4 Au niveau des scores individuels, on observe que la majorité des enfants de notre échantillon, 18 enfants soit 78%, se situe dans la zone non pathologique pour l'adaptation générale, tout comme pour l'adaptation intériorisée et l'adaptation extériorisée (19 enfants soit 82,6%). Dans la zone limite, le pourcentage d'enfants est le même pour l'adaptation extériorisée, et l'adaptation générale (4,3%). Notre échantillon compte 4 enfants dans la zone pathologique aussi bien pour l'adaptation générale que pour l'adaptation intériorisée et 3 enfants dans la zone pathologique pour l'adaptation extériorisée. (cf. Tableau 22) Sur l'ensemble des échelles et sous-échelles, il apparaît que quinze des enfants de notre échantillon se situent en zone non pathologique et seulement deux des enfants se situent en zone pathologique à la fois pour l'adaptation intériorisée, l'adaptation extériorisée et l'adaptation générale. II.1.4. La qualité de vie Les données recueillies sur la qualité de vie des enfants feront l'objet de deux analyses : une analyse quantitative des scores obtenus par les enfants et qui indiquent leur 167 Chapitre 4. Présentation des résultats niveau de satisfaction, et une analyse qualitative des réponses des enfants aux quatre premières questions ouvertes du test de l'AUQEI. II.1.4.1. Niveau de satisfaction de vie La Figure 7 indique que presque tous les enfants (21 enfants, 91,30%) de notre échantillon ont une qualité de vie satisfaisante (score moyen ≥ 1,5). Seulement 2 enfants soit 8,70 %, ont obtenu un sore moyen inférieur à 1,5 et ont une qualité de vie non satisfaisante. Figure 7: Répartition des enfants en fonction du niveau de satisfaction de vie Une analyse des scores de notre échantillon dans son ensemble indique que notre échantillon a un score moyen de 2.02, ce qui signifie qu'il a globalement une qualité de vie satisfaisante. L'écart type est de 0,30, autrement dit, les données sont concentrées autour de la moyenne. L'asymétrie négative indique que les moyennes individuelles sont plutôt supérieures à la moyenne. (cf. Tableau 23) Tableau 23: Statistiques descriptives du niveau de satisfaction de vie AUQEI Min 1,30 Max 2,53 Moy 2,02 σ 0,30 Médiane 2,11 Skewness -0,984 Kurtosis 0,991 Les données recueillies au questionnaire AUQEI ont été analysées par item avec une comparaison des moyennes obtenues par les enfants de notre échantillon à chaque item. Les résultats de cette analyse sont représentés par la Figure 8. Ils indiquent que les trois items qui ont les moyennes les plus élevées, sont ceux qui réfèrent aux loisirs et à la détente, celui qui a la moyenne la plus élevée étant « anniversaire » (moy = 3). L'item qui arrive après est celui des « frères et soeurs » avec une moyenne de 2,65. A l'inverse, les items qui ont les scores les 168 Chapitre 4. Présentation des résultats plus bas sont liés à la santé (« rester à l'hôpital », m= 0,73 et la « consultation chez le docteur », m= 1,21) et à la séparation (« loin de ta famille », m= 1). Figure 8 : Moyenne des scores aux items de l'AUQEI II.1.4.2. Analyse des questions ouvertes Le questionnaire AUQEI comporte une question ouverte qui permet d'obtenir des réponses spontanées des sujets. En effet, il est demandé aux enfants de chercher dans leurs 169 Chapitre 4. Présentation des résultats propres expériences une situation vécue pour chacun des quatre paliers de satisfaction utilisés dans le questionnaire et de justifier leurs choix. Les quatre paliers de satisfaction sont : « quelques fois tu n'es pas content du tout » ; « quelques fois tu n'es pas content » ; « quelques fois tu es content » ; « quelques fois tu es très content ». Nous analyserons les réponses des enfants pour chacun des paliers, en mettant l'accent sur les thèmes abordés, les sujets évoqués et les personnes impliquées. « Quelques fois tu n'es pas content du tout. Dis pourquoi. » Presque tous les enfants ont évoqué une situation pour ce palier de satisfaction, un seul enfant n'a pas trouvé de situation qui le renvoie à cet état. Les thèmes abordés par les enfants sont la famille, l'école, la mort, les amis et les enfants eux-mêmes. La famille : elle est le thème le plus abordé, 13 enfants, soit 52%, ont fait ce choix. Les sujets abordés pour ce thème sont : - Les beaux-parents pour quatre enfants : ils évoquent leur sévérité à leur égard, leurs rapports difficiles avec eux et les différences qu'ils font entre eux et leurs enfants. - Les relations parents-enfants pour trois enfants : ils font référence à l'éducation parentale avec les punitions et le fait de se faire gronder. - Les relations fraternelles pour trois enfants : il est question ici des quasi-frères ou des relations conflictuelles avec un frère/soeur germain. - La séparation des parents, avec plus précisément, les disputes, les rapports distants entre les parents et l'absence de proximité entre eux, a été abordée par deux enfants. - Le mode de garde est évoqué par un enfant sous l'angle de l'organisation et du temps perdu quand les horaires ne sont pas respectés les parents. les enfants eux-mêmes : En dehors de la famille, les enfants (6 enfants soit 26%), ont parlé d'eux, de ce qu'ils n'aiment pas, de ce qui ne répond pas à leur désir ou n'est pas à leur goût en matière d'alimentation, de jeux et dans leurs rapports avec les autres en général. L'école, les amis et la mort : d'autres thèmes ont été évoqués de façon isolée par des enfants, il s'agit des mauvaises notes à l'école, des amis qui déménagent, de la mort du chien d'une amie. Les sentiments exprimés pour justifier le choix des situations mentionnées pour ce palier sont : elles « énervent », elles « rendent triste », elles « font peur » et « sont stressantes ». 170 Chapitre 4. Présentation des résultats « Quelques fois tu n'es pas content. Dis pourquoi. » Tous les enfants ont indiqué une situation qui les renvoie à ce palier de satisfaction. Les thèmes évoqués par les enfants pour ce deuxième palier sont sensiblement les mêmes que ceux du premier, c'est-à-dire, la famille, l'enfant, les amis, l'école. La famille : elle est encore le sujet le plus abordé par les enfants (13 enfants soit 56%). La fratrie et la garde partagée sont un peu plus abordés ici. - Au niveau de la fratrie, on retrouve les aînés de fratrie germaine qui évoque les aspects contraignants de leur position d'aîné : être dérangé par les cadets, les pleurs pour des caprices, s'en occuper alors qu'on souhaiterait faire autre chose. Le demi-frère est évoqué sous un angle plus positif par une enfant, elle n'est pas contente quand il se fait mal. - La garde conjointe regroupe différents types de mode de garde et des avis différents pour un même type de garde d'un enfant à l'autre. On a le fait d'être en voiture pour une garde principale, et pour la garde alternée, les oublis scolaires pour un enfant et au contraire un mécontentement pour la suspension d'une résidence alternée pour une autre enfant, parce qu'il ne voit plus aussi souvent sa mère dont elle est très proche. - Les beaux-parents sont évoqués ici par rapport à leurs méthodes éducatives : « quand E. gronde et fait des reproches, la façon dont elle le dit » et dans leur rapport avec leur parent biologique. - Les enfants mentionnent également les disputes entre parents et l'impossibilité d'être avec les deux parents à la fois. Les enfants eux-mêmes: ceux qui parlent d'eux indiquent qu'ils ne sont pas contents quand ils ne sont pas le centre de l'attention (1 enfant), quand ils sont dérangés pendant une activité (1 enfant), quand ils perdent à un jeu (2 enfants), ils n'aiment pas les méchancetés (1 enfant) et ranger leur chambre (1 enfant). Les amis et l'école : Concernant les amis, il est question d'en être éloigné pour une enfant et de ne plus en avoir pour un autre enfant. L'école et les mauvaises notes sont évoquées de façon isolée par un enfant. « Quelques fois tu es content. Dis pourquoi. » Un seul enfant n'a pas trouvé de situation pour ce palier. Pour les autres enfants, il ressort de l'analyse des réponses les mêmes thèmes que pour les deux précédents, c'est-à-dire, la famille, l'enfant, l'école, les amis. 171 Chapitre 4. Présentation des résultats La famille : Les enfants évoquent ce qu'ils apprécient dans leur vie familiale. - Les aspects positifs de leur mode de garde, « je suis content car je peux voir mes deux autres proches » concernant la résidence alternée, ou « rester les week-ends avec ma mère, pas parce que je n'aime pas mon père, mais parce que je n'aime pas les voyages et que là-bas ce n'est pas ma maison » pour une garde principale chez la mère. Sur un plan général, un enfant apprécient de partager de bons moments avec ses proches. -Au niveau des relations fraternelles, les situations appréciées par les enfants sont : « être tout seul à côté de ma soeur » pour la fratrie germaine ; la naissance d'un demi-frère, le sourire d'une demi-soeur ou le fait de jouer avec l'ensemble de sa fratrie. -Les enfants évoquent les beaux-parents ici pour dire qu'ils sont contents pour leurs parents parce qu'ils ont trouvé des amoureux. -Les enfants aiment quand il n'y a pas de dispute. Dans le cadre des relations parents-enfants, les enfants sont satisfaits quand ils ont des discussions avec un parent avec qui les relations sont un peu difficiles « parfois il y a des dialogues avec mon père, quand on arrive à communiquer. J'ai toujours voulu être proche de lui comme mon frère ». Les enfants eux-mêmes : Concernant leur propre personne, les sujets abordés par les enfants sont la réussite personnelle, avoir de belles choses, les anniversaires et Noël pour les cadeaux (2 enfants), quand ils ont ce qu'ils veulent (2 enfants), les loisirs c'est-à-dire les jeux, le cinéma « je joue à la console de jeux, ça me rend joyeux, ça dégage mes nerfs ». L'école et les amis : les enfants sont contents quand ils sont de bonnes notes à l'école. Au niveau des amis, les enfants mentionnent le fait de se sentir bien avec eux, l'absence de conflit qui sont évoqués « voir mes amis, on est toujours d'accord, on fait toujours la même chose. On se sent comme avec soi-même ». « Quelques fois tu es très content. Dis pourquoi. » Deux enfants n'ont pas trouvé de situation pour ce palier. On retrouve toujours les mêmes thèmes que pour les autres paliers. La famille : Sur un plan général, les enfants évoquent les fêtes familiales, les rigolades, les bons moments en famille et le fait de recevoir des cadeaux. Ils sont satisfaits d'avoir une famille soutenante : « parce que je suis avec des gens qui me soutiennent ». 172 Chapitre 4. Présentation des résultats - Au niveau du mode de garde : la diversité des espaces de vie qu'offre la garde alternée et le fait de retrouver l'autre parent parce qu'il leur a manqué apporte de la satisfaction aux enfants. - Les beaux-parents pour le bonheur qu'ils apportent aux parents : « le fait qu'ils aient refait leur vie. Ils sont plus heureux ». - Concernant les relations fraternelles le partage quand le frère prête ses choses, passer du temps à parler avec son frère, pour la fratrie germaine et l'arrivé d'un demi-frère. Les enfants eux-mêmes : ils évoquent leurs activités sportives, notamment, le fait de gagner des matchs et d'avoir des récompenses (3 enfants) ainsi que le fait de s'amuser et de jouer à des jeux qu'ils adorent. Les amis et l'école : les enfants sont très contents de sortir avec leurs amis, de parler, de rigoler, de faire la fête avec eux (2 enfants). Pour ce qui est de l'école, un enfant aime beaucoup le challenge des évaluations « avoir une grosse évaluation à l'école ; avoir le 20 c'est parfait. Faire quelque chose de bien ça me fait du bien ». En guise de synthèse des résultats obtenus au niveau de l'appropriation de la famille, notons qu'il ressort des dessins réalisés par les enfants quatre représentations de la famille : la « famille globale » liée à une logique de continuité, « la famille composite » qui renvoie à des choix sélectifs, la « famille d'un foyer » basée sur une logique de deux familles ou deux composantes familiales distinctes, « la famille d'origine » qui se rapporte à une logique de pérennité de la famille nucléaire. Pour ce qui concerne les stratégies de coping le beau-parent est le premier stresseur selon les enfants et le soutien social est la stratégie de coping la plus mobilisée par les enfants et également celle qu'ils jugent la plus efficace. Les enfants de notre échantillon présentent dans l'ensemble une adaptation socio-affective et une qualité de vie satisfaisante. Les thèmes évoqués par les enfants pour les différents paliers de satisfaction de vie sont : la famille, l'enfant lui-même, les amis et l'école. 173 Chapitre 4. Présentation des résultats II.2. Représentation des relations dans la fratrie germaine Les entretiens sur les relations fraternelles ont été analysés selon les différents thèmes sur lesquels ils étaient basés c'est-à-dire : la séparation, les relations parents-enfants, le mode de garde, les relations beaux-parents/enfants, les relations avec la fratrie germaine, les relations avec les demi-frères/soeurs et les quasi- frères/soeurs. Pour chacun des thèmes nous analyserons le vécu de l'enfant les changements dans la famille puis les ressources et contraintes de la fratrie germaine. Séparation et les relations fraternelles La séparation des parents a été abordée avec les enfants parce qu'elle est la transition familiale qui précède la réorganisation de la famille. La majorité des enfants de notre échantillon ne se souvient pas vraiment du moment de la séparation de leurs parents. Les enfants ont été informés de la séparation par leurs parents, soit ensemble, soit séparément. Certains enfants en ont retenu des phrases comme « papa et maman, on ne s'aime plus », « notre père nous a dit qu'avec maman, ils ne s'entendaient plus, qu'ils avaient des problèmes et qu'ils ne pouvaient plus vivre ensemble ». D'un point de vue pratique, Ils ont compris que leurs parents ne seraient plus ensemble (les parents séparés « ça veut dire qu'ils ne sont plus au même endroit »), mais n'ont pas toujours saisis le sens de cette séparation « je ne comprenais pas, parce que pour moi ça n'était pas logique ». A l'annonce de la séparation, certains enfants se sont inquiétés de leurs sorts et du maintien des relations avec leurs parents « je me disais où est-ce que je vais aller, quand est-ce que je vais y aller ». Dans ces moments de doutes et d'interrogations, la fratrie joue un rôle majeur, les enfants l'évoquent en termes de discussion, de partage de sentiments et d'aide à la compréhension. Les discussions au sein de la fratrie, quand elles ont eu lieu, ont été un complément essentiel des discussions avec les parents. Elles ont permis, par exemple, à certains aînés de s'assurer que les cadets avaient compris la situation « je lui ai plus expliqué à mon avis. Je me suis assurée qu'elle avait bien compris ». Les enfants discutent avec leurs frères/soeurs de la séparation de leurs parents et de leur désir de les revoir ensemble. De manière générale, les enfants ont plutôt vécu avec leur frère/soeur germain, la tristesse et les pleurs. La fratrie est en ce sens un groupe de soutien et de partage. Cependant, certains enfants ont préféré dissimuler leur tristesse et leurs pleurs aux parents et à leur frère/soeur pour différentes raisons. En ce qui concerne les parents, les enfants évoquent la volonté de les préserver, d'éviter qu'ils s'inquiètent pour eux en plus des difficultés qu'ils traversaient. Au niveau de la fratrie, les 174 Chapitre 4. Présentation des résultats enfants indiquent que leurs frères/soeurs étaient trop jeunes pour comprendre ce qui se passait, donc ils ne pouvaient pas en discuter avec lui ou elle. D'autres enfants, par contre, gardaient leur tristesse pour eux parce que leur frère/soeur ne partageait pas leurs sentiments sur la situation : le frère/soeur n'était pas aussi triste qu'eux et ne comprenait pas pourquoi ils l'étaient autant. Dans ce cadre, la fratrie devient une préoccupation supplémentaire et une autre source de difficultés. On peut également relever un contexte dans lequel l'enfant se retrouve isolé face à ses difficultés. Les enfants expriment également des sentiments contradictoires : d'un coté de la tristesse pour la séparation et de l'autre l'excitation pour les cadeaux qui seront plus nombreux. Cette ambivalence traduit des conflits liés à la séparation. Le soutien fraternel est principalement mis en avant par les enfants, cependant ils relèvent certains inconvénients. En effet, les aînés, mentionnent le fait d'être trop sollicités par leurs cadets pour des activités et pour des questions liées à la séparation des parents : « il ne fait que m'embêter. Il voulait que je joue avec lui, il voulait toujours que je fasse un truc pour lui, il voulait que je l'accompagne à chaque fois quelque part ». Leur frère/soeur pose beaucoup de questions, surtout la nuit, lorsqu'il n'y a plus les parents, ce qui peut être embêtant : « Ça dépend quand elle en pose mille à la fois làCe qui me gène c'est parce que je ne sais pas pourquoi, elle attend que ça soit la nuit pour m'en parler et quand moi je rentre je suis fatiguée et là je lui dis A. on en parlera demain pas aujourd'hui, pas ce soir ». Relations parents-enfants après la séparation L'un des changements les plus importants dans les relations parent-enfants est, du point de vue des enfants, de ne plus avoir leurs deux parents ensemble. Ils ne les voient plus aussi souvent et n'ont plus de repas ensemble avec eux. Les parents ne sont plus proches et ils ne leur donnent plus de soins ensemble : « je ne vois plus du tout mes parents se faire des câlins, se faire des bisous sur la bouche, après je ne les vois plus dormir ensemble, me bercer en même temps, ça j'aurais tellement préféré que ça reste ». En outre, certains enfants mentionnent, une dégradation des relations avec leurs pères au niveau de la communication et de l'affection « Je me rappelle un peu des engueulades avec mon père parce qu'il savait que je n'aimais pas aller chez lui et ça l'énervait, alors des fois il m'engueulait », « papa, moi et S. ça a beaucoup changé on l'aime moins qu'avant ». Dans le cadre de ces changements, un frère/soeur peut être un substitut parental pour l'enfant par les soins et l'attention qu'il lui porte. Ainsi, les relations dans la fratrie germaine semblent 175 Chapitre 4. Présentation des résultats aider à combler l'absence d'un parent dans les foyers ou à compenser les rapports conflictuels avec les parents. Les aînés considèrent que c'est leur rôle « c'est normal », « je servirai comme parent parce que je me suis dit ça serait mieux pour elle, donc pour moi aussi », et les cadets apprécient qu'ils le fassent : « C'est S. qui fait comme un papa avec moi, comme un vrai papa, comme un vrai papa, parce que papa c'est comme si c'était un faux, il était un vrai avant maintenant non. Ça me plaît parce que ça me donne l'impression, c'est comme si c'était mon papa d'avant, celui que j'aimais. » Garde conjointe L'objectif ici, recueillir les sentiments des enfants sur le fait de vivre entre deux maisons. Les enfants sont amenés à relever les avantages et les inconvénients liés à cette situation ainsi que les ressources et les contraintes des relations dans la fratrie germaine. La plupart des enfants de notre échantillon continuent à voir régulièrement leurs deux parents et seulement trois d'entre eux ne voient presque plus leur père. Le premier avantage de la garde conjointe est, selon les enfants, le maintien des relations avec chaque parent. Ensuite, ils évoquent le fait de vivre dans des « paysages différents » et enfin, de « faire de la route » pour ceux qui aiment les voyages. Les inconvénients sont plutôt liés aux relations avec les beaux-parents. Les enfants déclarent qu'il y a quelque fois un des foyers dans lequel ils se sentent moins bien et où ils aiment moins se rendre parce qu'ils ont des relations conflictuelles avec le beau-parent. Par ailleurs, les enfants évoquent des difficultés liées à l'organisation pratique de la garde conjointe, par exemple, le fait de ne pas connaître le programme, quand les périodes dédiées à chaque parent varient beaucoup : « je ne sais plus ou mettre la tête C. non plus, enfin voilà quoi je ne sais plus exactement quand est-ce que je vais chez maman, quand est-ce que je vais chez papa ». Les trajets sont également mentionnés par les enfants en termes de temps, de distance à parcourir et de moyens de transport. Les enfants estiment que les trajets entre les deux maisons leur prennent beaucoup de temps : « après je suis un peu toujours en voiture, par exemple la semaine de la rentrée c'est ma mère qui va venir me chercher, en fait je vais prendre le bus je vais arriver chez moi et après c'est ma mère qui va me ramener et tout mais pour moi ça va me prendre du temps en voiture ». Les trajets constituent selon eux beaucoup de distance à parcourir. « J'en ai marre de faire trop de route, on fait de la route une fois pour aller au tennis, une fois pour aller chez maman, une fois pour aller à l'école, une fois pour aller faire des courses, j'en ai marre de faire des routes ». Enfin, les moyens de transport sont 176 Chapitre 4. Présentation des résultats évoqués par une enfant en garde principale dont les parents vivent dans deux pays différents. Elle trouve embêtant le fait d'avoir deux maisons parce qu'elle a peur en avion et en bateau : « Parce que je n'aime pas trop l'avion et j'ai peur que l'avion soit en panne et qu'on tombe et le bateau aussi ». Au-delà des relations beaux-parents/enfants et de l'organisation pratique les enfants soulignent la discontinuité d'une maison à l'autre sur le plan des approches éducatives. En effet, les enfants font des comparaisons entre les parents et notent les différences dans leurs approches éducatives. Certains tirent profit de ces différences, d'autres par contre ont des difficultés à jongler entre ce qui est interdit dans une maison et pas dans l'autre et à faire face aux disputes entre les parents quant aux activités qu'ils font chez l'un et l'autre. Ces discordances créent des confusions et des incompréhensions chez les enfants. Un autre inconvénient qui se rattache au fait d'avoir deux maisons, tient justement à cette division en deux et au fait de ne pas avoir tout ensemble et tout le temps. Les enfants affirment que quand ils sont dans une maison l'autre leur manque : « Quand je suis chez maman je veux aller chez papa et quand je suis chez papa je veux aller chez maman ». De plus, les parents ne se voient quasiment pas, il n'est plus possible d'être avec les deux parents et de partager des moments avec eux. « Les inconvénients ce serait que mes parents ne se voient quasiment pas, que moi du coup je ne sais plus ou mettre la tête, C. non plus, enfin voilà quoi, après on a des photos de lui sur le réfrigérateur, on fait quelques sorties de temps en temps, mais pas avec maman, que papa, C. et moi » Au niveau de la garde conjointe, les ressources de la relation dans la fratrie germaine mis en avant par les enfants concernent la distraction. La plupart des enfants affirment que le frère ou la soeur permet de ne pas s'ennuyer : « ça n'aurait pas été pareille on rigole, on joue ». Une autre ressource renvoie au fonctionnement du système familial et de ses sous-systèmes. Les relations dans la fratrie germaine délimitent un sous-système « fratrie » et permet à l'enfant de rester dans son sous-système et de bénéficier de la sécurité qu'il lui apporte. En effet, selon les enfants le fait d'être avec leur frère/soeur leur évite d'être seul avec le couple parent/beauparent et d'affronter tout seul les difficultés avec le beau-parent « je dois tout faire toute seule, enfin je dois être avec elle toute seule alors quand ils sont là ils me protègent et tout, ils me défendent ». Au niveau des contraintes, certains aînés notent que, du fait des sollicitations de leur cadet, être seul pourrait leur permettre d'être au calme quand ils sont fatigués. 177 Chapitre 4. Présentation des résultats Remise en couple La recomposition est abordée avec les enfants sous l'angle de l'arrivée du ou des beaux-parents dans leurs vie familiale. Plus précisément, nous nous intéressons à leur sentiment par rapport à la présence d'un beau-parent dans leur vie, à leur relation avec les beaux-parents et aux modifications dans la famille liées aux beaux-parents. Les enfants, de manière générale se souviennent de la remise en couple d'au moins un de leur parent. Les parents leur ont présenté le beau-parent dans la majorité des cas. Mais dans d'autres, l'enfant l'a découvert, ou l'a compris au fil du temps : « a force je me suis rendu compte mais au début non ». Les enfants évoquent leur surprise à l'annonce de la remise en couple parce qu'ils ne s'y attendaient pas ou parce qu'elle s'est faite tout de suite après la séparation des parents : « je ne sais pas comment ils ont fait, ils ont trouvé direct une autre personne. ». Ils déclarent dans l'ensemble ne pas avoir eu de sentiments négatifs sur la remise en couple des parents en tant que telle, qui apparaît comme un événement positif après la phase difficile de la séparation. Dans ce cadre la remise en couple du deuxième parent est encore plus appréciée parce qu'avec elle, les deux parents retrouvent un équilibre : « J'étais plutôt contente qu'il refasse sa vie avec une autre femme, Parce que maman elle était d'abord avec CY et parfois je le trouvais assez jaloux, enfin, jaloux, il faut s'abstenir quand même mais il était un peu distant, trop distant et donc ça me faisait un peu peur et j'étais bien contente qu'il refasse sa vie avec une autre femme. » Ainsi, les avantages de la remise en couple selon les enfants concernent d'abord les parents. Les enfants estiment qu'elle améliore la vie des parents dans la mesure où, ils ne sont plus seuls, et paraissent plus heureux et détendus : « Papa déjà, il est plus heureux, il fume moins » ; « J'étais super contente de voir que maman elle ne serait plus toute seule et tout ça. » Ensuite, la remise en couple des parents comporte des avantages pour les enfants eux-mêmes. Ils remarquent une baisse des disputes entre eux et leurs parents. « Bah c'est mieux à la maison, il y a moins de dispute, parce que quand il n'y avait pas R., il y avait tout le temps des disputes, maman et nous on se disputait, parce qu'elle était triste elle était toute seule alors maman, S. et moi on ne faisait que se disputer ». En outre, les enfants apprécient d'avoir des beaux-parents qui sont gentils avec eux « elle est très gentille avec moi ». Un autre avantage de la remise en couple des parents pour les enfants tient à l'équilibre familial qu'elle leur apporte. Ce besoin d'équilibre apparaît très clairement chez deux enfants au sein d'une même fratrie. Il ressort de leurs entretiens qu'il est lié à la structure et au 178 Chapitre 4. Présentation des résultats fonctionnement de la famille telle que les enfants se la représentent. Sur le plan structural, les beaux-parents permettent d'avoir deux figures parentales dans chaque foyer : une figure maternelle et une figure paternelle : « j'aime bien quand il y a deux personnes ». Au niveau du fonctionnement de la famille, il se situe dans la répartition des rôles parentaux et dans les soins apportés aux enfants. Pour les enfants, Il faut deux personnes pour s'occuper d'eux, surtout quand ils sont encore jeunes : « moi je saurai me débrouiller toute seule donc les parents je n'aurai pas besoin de deux, un ça suffiraelle aurait besoin de deux personnes ». Ainsi, la remise en couple libère l'aîné de l'obligation de se substituer au parent absent auprès de sa soeur cadette « Je me disais bon, s'ils ne trouvent pas d'autres personnes, eh bah, ce sera mieux pour A., parce que ça fera papa et maman. Je servirai comme parent parce que je me suis dit ça serait mieux pour elle, donc pour moi aussi ». Cette représentation du fonctionnement de la famille s'appuie sur le fonctionnement de la famille avant la séparation, « papa qui s'occupe d'A. et pendant ce temps maman elle s'occupe de moi et on trouvait ça bien. Et donc je me suis dit pour A. si maman elle s'occupait de moi, qu'est-ce qu'elle va faire A. donc je me suis dite maman elle s'occupe de moi et moi je m'occupe d'A. ». Un dernier avantage de la remise en couple est qu'elle permet la naissance des demi-frères/soeurs « sans elle il n'y aurait pas M. ». Au contraire, les inconvénients de la remise en couple des parents situent au niveau du désir des enfants de revoir leurs parents ensemble, des relations beaux-parents/enfants et dans la vie familiale. Malgré la séparation effective des parents, les enfants espèrent qu'ils se remettent ensemble et en ce sens la remise en couple constitue un autre obstacle à la réalisation de ce désir. En effet, les enfants se préoccupent désormais en plus, de ce que les beaux-parents vont se retrouver seuls si leurs parents se remettent ensemble et sont amenés à trouver des solutions pour eux. «si papa et maman se remettent ensemble, D et J.Y. vont se mettre ensemble ». En ce qui concerne les relations beaux-parents/enfants, les enfants évoquent leurs approches éducatives, ils estiment notamment, qu'ils sont trop sévères, plus sévères que leurs parents. De plus les beaux-parents introduisent des changements dans la vie familiale. Ils définissent de nouvelles règles dans la vie familiale dont les enfants ne comprennent pas toujours le bien fondé. Des modifications apparaissent également dans la relation parent-enfant avec l'arrivée du beau-parent, par exemple au niveau de l'attribution des petits noms affectueux : « ma mère elle m'appelait DD., maintenant c'est E. qu'elle appelle DD., donc voilà je ne suis pas 179 Chapitre 4. Présentation des résultats contente », des rapports père-enfant « Papa est moins gentil » ou dans la décoration de la maison. Par ailleurs, les enfants soulignent l'évolution dans le temps, des relations beauxparents/enfants, celles-ci pouvant s'améliorer ou au contraire se dégrader. En effet les enfants notent que leur relations avec leurs beaux-parents étaient plus conflictuelle ou distante dans les premiers moments et que maintenant ils sont plus proches : « Bah au début je lui répondais un peu, enfin tout le monde lui répondait un peu donc il pensait bon voilà au début on se cherchait » ; « Au début c'était madame, et puis après papa m'a demandé de l'appelé C. et puis après genre il y a deux ans on a commencé a lui donné des surnoms parce qu'on la connaissait bien mieux ». Au niveau de la remise en couple des parents, les relations dans la fratrie germaine peuvent servir de cadre d'échange et de compréhension. Le frère/soeur germain peut aider à comprendre qui est le beau-parent c'est-à-dire la nature de sa relation avec leur parent et la raison de sa présence avec eux, quand les parents ne l'expliquent pas clairement. En outre, la fratrie germaine peut être un lieu de soutien et de consolation : « Avec C. je dis mais non, je vais arranger ça et C. il dit, je le déteste CY, je le déteste. Donc en général c'est non C., c'est bon, quand il le dit devant moi je lui dis non C, c'est non ce n'est pas grave et finalement il se calme » ; « On en parle la journée ou moi je me suis faite gronder et A. s'est faite gronder. Celle qui s'est faite grondé dit à l'autre tu l'aime à J.Y. et l'autre elle fait ouui, ça dépend de si on l'aime ou on ne l'aime pas. ». Elle peut également être un lieu d'élaboration de stratégies pour faire face aux relations conflictuelles avec les beaux-parents. En effet, certains enfants donnent avec leurs frères/soeurs des surnoms à la belle-mère. « parce qu'on ne l'aime pas alors on l'appelle dans notre tête comme je te l'ai dit tout à l'heure, on l'appelle C. la méchante. » D'autres ont constitué ensemble une boite à idée pour mettre fin à la relation mère/beau-père parce que le beau-père est trop sévère : « on a commencé à faire des listes, on avait une grande boîte comme ça et dedans on mettait des petits rouleaux qu'on accrochait, on mettait des trucs du style mélanger les papiers de CY, euhéteindre la lumière à CY, écrire un mot d'amour à un autre garçon et tu le laisses sur la table de la part de maman » Relations dans la fratrie germaine Les enfants définissent leurs frères/soeurs par leurs liens « un frère ou une soeur c'est quand on a la même maman et le même papa. Il fait partie de la famille ». Au niveau de leurs relations, ils évoquent les échanges de connaissances : « C'est moi qui lui apprend, elle 180 Chapitre 4. Présentation des résultats m'apprend des choses qu'elle a fait à l'école, qu'elle va faire à l'école. » ; « C'est qu'il veut savoir plein de chose et que j'adore expliquer des trucs ». Les enfants mentionnent des apports liés au bien-être psychologique et au sentiment de sécurité, selon eux, avoir un frère/soeur « ça fait du bien », il permet de ne pas être seul, il veille sur eux, les protège. Ils soulignent le soutien dont ils bénéficient dans les relations fraternelles : « les frères et soeurs s'entraident pour les devoirs ou en cas de problème » ; « c'est quelqu'un sur qui tu peux compter, qui peut t'aider, avec qui des fois tu peux faire des choses, jouer enfin avoir des discussions ». Celui avec qui on partage des vécus difficiles tels que le divorce et la recomposition « il m'écoute, il me parle, des fois on se fait des câlins pour se consoler et voilà. C'est mon meilleur ami, mon confident ». Les relations fraternelles occupe à ce niveau une place centrale dans la recomposition : « c'est très important, si je n'avais pas de frère je ne sais pas comment j'aurais fait ». La relation dans la fratrie germaine se distingue d'autres relations telles que la relation amicale et la relation parent-enfant par sa stabilité, sa continuité d'un foyer à l'autre et en tout temps. Contrairement aux demi-frères/soeurs ou quasi-frères/soeurs ou à un amis « le frère il est tout le temps là, tu peux jouer avec lui même à la maison ». La spécificité de la relation dans la fratrie germaine tient également à leur expérience commune qui fait du frère/soeur la personne la plus à même de comprendre et de soutenir l'enfant : « ça me fait du bien qu'il soit du même avis que moi, qu'il comprenne ce que je ressens et tout , avec mon père je n'arrivais pas à en parlé, avec ma mère j'en ai parlé, mais la seule chose qu'elle pouvait me dire c'était qu'ils ne se remettraient pas ensemble, après elle me faisait un câlin mais elle ne pouvait pas vraiment ressentir ce que je ressentais ». Elle constitue un cadre de confiance pour discuter, par exemple, du beau-parent contrairement à la relation avec les demi et quasi-frères/soeurs : « Mais aussi c'est normal parce que c'est leur mère alors si je le dis à eux ils vont aller le répété surtout que c'est des rapporteurs ». Les enfants mentionnent également l'aspect ambivalent des relations et l'évolution dans les relations fraternelles. Les relations fraternelles ne sont pas positives pour tous les aspects de la vie familiale. Pour un des enfants, elles sont soutenantes face aux difficultés de la recomposition mais plutôt conflictuelles dans d'autres circonstances. Pour une autre enfant les relations ont connu une évolution, elles sont passées d'une phase moins soutenante au moment de la séparation et de la recomposition à une plus grande proximité : « quand on était petit on n'en parlait pas beaucoup, mais maintenant on en parle surtout ». 181 Chapitre 4. Présentation des résultats Les aspects négatifs indiqués par les enfants réfèrent pour les aînés à la responsabilité liée au fait de prendre soin de leur frères/soeurs et de les protéger: « c'est que quand tu as une petite soeur, c'est plutôt ça, tu ne veux pas qu'on lui fasse du mal, pas trop » ; « à la récréation je ne joue pas je le surveille ». Il ressort également des réponses des enfants des conflits dans la fratrie germaine. Certains enfants estiment que la présence de leurs frères/soeurs n'est pas bénéfique pour eux et pensent qu'ils seraient mieux seuls : « pour moi je préférerais ne pas avoir de petit frère » ; « il me gène». Ils expriment de la jalousie et de la rivalité : « il a plus de tout en fait, plus que moi » ou de l'agressivité « un frère ça me sert de punching ball ». Enfin, les enfants peuvent être moins proches et ne pas partager beaucoup d'activités : « il vit sa vie, moi je vie la mienne ». Demi-frères/soeurs Dans notre échantillon dix-sept enfants ont au moins un demi-frère/soeur. L'arrivée ou la présence d'un demi-frère/soeur est considérée comme positive, dans l'ensemble, par presque tous les enfants, un seul enfant trouve cela négatif. Les aspects positifs qui ressortent des réponses des enfants sont rattachés à plusieurs facteurs : l'âge des demi-frères/soeurs, la position dans la fratrie et les ressources qu'ils constituent pour l'enfant dans la recomposition. L'âge des demi frères/soeurs influencent la qualité des relations dans la mesure ou ils sont pour la plupart encore bébés ou dans la petite enfance et que les enfants les trouvent « mignons », « trop chou » ; ce ne sont pas encore des compagnons de jeu mais ils ont un aspect ludique « c'est comme une grosse poupée ». Concernant la position dans la fratrie, les enfants évoquent une différence entre la dyade qu'ils forment avec leur demi-frères/soeurs et celle qu'ils constituent avec leurs frères/soeurs germains, par rapport à leur position dans chacune de ces dyades fraternelles. En effet, tous les enfants ont une position d'aîné face aux demi-frères/soeurs. Ils leurs donnent des soins, pour les cadets c'est un nouveau rôle, quant aux aînés, ils peuvent à nouveau prendre soins d'un frère plus jeune, leurs cadets ayant de moins en moins besoin d'eux. Ainsi, les enfants s'occupent des demi-frères et soeurs et sont très proches d'eux : « je les ai vu naitre, je les ai vu grandir, pour moi c'est comme mes frères, après ce n'est pas pareil parce que D. c'est mon grand frère ». Au niveau de la recomposition les enfants notent peu de changements avec l'arrivée d'un demi-frère/soeur parce que « c'est encore un bébé ». Les changements liés aux demi 182 Chapitre 4. Présentation des résultats frères/soeurs ont des aspects positifs et des aspects négatifs. Les réponses concernant les aspects positifs sont par exemple « que des bonnes choses ». Prendre soin d'eux constitue une sorte d'occupation que les enfants apprécient « quand on arrive on se lave direct les mains et après on va avec M. donc ça fait une sorte d'occupation » ; « Ils m'aident, enfin, ça me rend plus mature, plus forte par rapport à ça ». Cependant, certains enfants soulignent que participer aux soins donnés aux demi-frères et soeurs peut être embêtant quand ils ont envie de faire autre chose. En outre, les parents et beaux-parents sont moins disponibles pour eux car les bébés demandent beaucoup de soins et d'attention ce qui réduit le temps qui leur est consacré. Pour un des enfants son père ne l'aime plus depuis que ces demi-frères sont arrivés : « c'est à cause de mes deux petits frères, avant il m'achetait plein de chose et avec les petits qui sont arrivés il a commencé à pas m'aimer ». Par contre une enfant considère ce manque de disponibilité comme un point positif dans ces rapports avec sa belle-mère dans la mesure où, plus elle est occupée avec ses enfants, moins elles ont des interactions et moins il y a de conflits. Les demi-frères/soeurs constituent une sorte de rempart entre elle et sa belle-mère. « Parce que c'est ses enfants, donc finalement, elle s'occupe beaucoup plus d'eux que de moi, ça me permet que j'ai moins de dialogue ». Dans la continuité de ce qui précède, notons que les enfants relèvent les différences faites par les beaux parents entre leurs enfants (les demi-frères/soeurs) et eux. Par ailleurs, les demifrères/soeurs ne sont pas toujours comme de « grosses poupées », pour certains enfants, ils sont « méchants, tapent et mordent » Les relations dans la fratrie germaine servent de repère dans la définition des liens et vont constituent une base de comparaison. Les enfants ne rapportent pas de contraintes particulières de la relation dans la fratrie germaine dans la construction de leur relation avec leurs demi-frères. Les deux membres de la fratrie germaine ont en général de bon rapport avec les demi-frères/soeurs donc il n'existe pas de conflits ou de difficultés particulières à ce niveau. Pour l'enfant qui n'a pas de bons rapports avec ses demi-frères/soeurs, sa soeur ne vit pas la même chose que lui et ne lui apporte pas de soutien. Quasi-frères et soeurs Notre échantillon compte douze enfants qui ont au moins un quasi-frère/soeur. La plupart des enfants n'a pas eu d'inquiétude par rapport au fait d'avoir des quasi-frères/soeurs. Un seul enfant dit avoir eu des appréhensions sur le fait de s'entendre avec eux. Pour une autre au contraire, c'était qu'avec les enfants se serait plus simple, parce qu'un des enfants de sa belle183 Chapitre 4. Présentation des résultats mère était son amoureux à l'école avant de devenir son quasi-frère. Tous les enfants ne sont pas en contact avec leurs quasi-frères/soeurs, la fréquence des rapports dépend de l'âge et du mode de garde des quasi-frères/soeurs. Pour les plus jeunes, les parents essayent de coordonner les séjours de sorte à avoir tous les enfants au même moment, donc les quasifrères/soeurs se voient régulièrement au rythme des modes de gardes. Avec les plus âgés, c'est-à-dire les jeunes adultes ou adultes, les contacts sont moins fréquents, voir inexistant quand ils vivent à l'étranger. Parmi ces douze enfants, dix voient leurs quasi-frères/soeurs régulièrement et trois quelques fois. Les relations avec les quasi-frères/soeurs sont positives dans l'ensemble. Les enfants les considèrent comme des copains, et à ce titre, ils peuvent être de meilleures compagnons de jeu qu'un frère/soeurs germain parce qu'il a le même âge qu'eux ou des compagnons de jeu en plus du frère ou de la soeur germaine, ce qui élargit les possibilités de jeu « et quand euh bah mes demi-frères quand ils invitent des amis, moi j'invite mes amis en même temps et parfois on peut faire des grands trucs ensemble donc voilà. » Par ailleurs, la relation quais-frères/soeurs peut être meilleure que la relation dans la fratrie germaine, sous certains angles. Selon deux enfants elle est moins conflictuelle parce qu'elle est plus amicale que fraternelle «» Lorsque les quasi sont au contraire plus grand, c'est-à-dire jeune adulte et qu'ils ne les voient que quelques fois, pour une des enfants de notre échantillon ces jours sont des jours spéciaux qu'elle apprécie : « ça fait qu'on dîne qu'on mange à table, ça fait comme une petite fête et j'aime bien ça ». La présence de quasi-frères/soeurs peut avoir des inconvénients. Certains enfants indiquent que le fait d'être plus nombreux limite le nombre d'amis qu'ils peuvent inviter à la maison. D'autres trouvent qu'ils ne sont pas gentils et ont des relations conflictuelles avec eux. Les quasi-frères/soeurs peuvent avoir un effet sur les relations parents-enfants, une des enfants indique que son père s'intéresse plus à ses quasi-frères/soeurs qu'a eux dans la mesure où il se trompe dans les prénoms « en fait papa il rigole moins avec moi et avec S. à cause de H., quand je lui parle il ne fait que penser à H. il dit oui H. » On retrouve également une relation neutre, avec une des enfants qui ne note aucun avantage ou inconvénient à la présence de ses quasi-frères/soeurs, pour elle c'est sans importance « Ce n'est ni difficile, ni important, ils sont là mais voilà. Depuis toujours on n'a jamais été très proches ». 184 Chapitre 4. Présentation des résultats Les relations fraternelles donnent une idée de ce que pourront être les relations avec des quasi-frères/soeurs, ils pourront être des compagnons de jeux comme les frères et soeurs germains. Elles font que les enfants pensent qu'ils vont les voir tout le temps mais se rendent compte que ce n'est pas le cas. L'enfant partage avec son frère/soeur germains le sentiment d'être moins important pour les parents, ils en discutent. Au total, Les entretiens avec les enfants font ressortir trois représentations des relations dans la fratrie germaine : la fratrie « ressource », la fratrie « contrainte », la fratrie « neutre ». Une relation fraternelle « ressource » constitue un cadre de discussion sur les changements dans la famille et permet de mieux les comprendre. Elle se construit sur une expérience de vie commune, qui fait du frère/soeur la personne la plus à même de comprendre le vécu familial de l'enfant et de la fratrie germaine un lieu d'élaboration de stratégies de coping. Elle permet de rompre avec la solitude et de se distraire. Cette relation est soutenante parce que continue, rassurante et protectrice. Au Contraire, une relation fraternelle peut être une « contrainte » selon deux angles. Le premier est celui de la relation conflictuelle, distante qui est plus basée sur la rivalité et la jalousie que sur l'échange et le partage. La contrainte, ici, peut également être liée à une divergence dans le vécu de la recomposition familiale entre frères et soeurs, et aux conflits qu'elle suscite. Sous le deuxième angle, la contrainte est plutôt liée au poids des responsabilités dont se sentent investis les aînés envers leurs cadets. Cette responsabilité consiste à veiller à son bien-être et réfèrent aux soins et à la protection face aux difficultés. Sous les deux angles la relation fraternelle « contrainte » constitue une difficulté en plus pour l'enfant dans la recomposition qu'une ressource. La troisième représentation qui se dégage des entretiens est la représentation « neutre », la relation fraternelle est positive, les enfants s'entendent bien, jouent ensemble mais elle n'a pas une signification particulière dans la recomposition. Les enfants ne partagent pas leur vécu et leur sentiment sur la recomposition. Cette représentation est également celle des enfants pour qui ce sont les amis qui jouent le rôle de ressource parce que le frère/soeur est trop jeune et aussi parce que les amis ont déjà vécu la séparation et la recomposition. 185 Chapitre 4. Présentation des résultats Tableau 24: Représentation des relations dans la fratrie germaine Ressource Contrainte Neutre Total Effectif Pourcentage (%) 10 6 7 23 43,48 26,09 30,43 100 III. Analyses bivariées Sur la base du modèle écosystémique de Bronfenbrenner, nous présenterons ici l'effet sur les résultats développementaux des enfants des variables relatives aux caractéristiques individuelles de ces derniers, aux processus proximaux, aux caractéristiques du contexte et du facteur temps. III.1. Effet des caractéristiques individuelles, du contexte et du temps sur les résultats du développement III.1.1. Effets des caractéristiques individuelles des enfants sur les résultats développementaux III.1.1.1. Âge Pour pouvoir croiser les deux variables, cette variable a été scindée au seuil de la médiane en 2 modalités (6-9 ans/10-13 ans). Précisons que pour les analyses suivantes, la variable numérique est conservée. Un test exact de Fisher indique que l'association entre l'âge des enfants et leurs représentations de la famille n'est pas significative (p = 0,938). Rappelons que les stratégies de coping ont été évaluées à travers deux aspects, à savoir la fréquence avec laquelle elles sont mobilisées par les enfants face à une situation de stress et la façon dont les enfants estiment l'efficacité de stratégies. L'analyse des effets de l'âge des enfants sur la fréquence d'utilisation des stratégies de coping n'a montré qu'une tendance significative sur la stratégie « blâmer les autres » (Rho de Spearman (rs) = 0,378 ; p = 0.076). Plus les enfants sont âgés, plus ils tendent à utiliser cette stratégie de coping. Concernant leur efficacité, l'âge des enfants est associé significativement aux stratégies de coping « retrait social » (rs = 0,431 ; p = 0,040), « blâmer les autres » (rs = 0.449 ; p = 0.032), 186 Chapitre 4. Présentation des résultats « régulation émotionnelle » (rs = 0,475 p = 0,022) et « soutien social » (rs = 0,426 ; p = 0,043). Une tendance à la significativité ressort pour la stratégie « autocritique » (rs = 0,364 ; p = 0,088). En d'autres termes, plus les enfants sont âgés, plus ils trouvent que ces stratégies sont efficaces. Concernant les scores obtenus aux CBCL, des associations négatives sont observées entre l'âge et les résultats d'adaptation générale (rs = -0,166), d'adaptation intériorisée (rs = -0,133) et extériorisée (rs = -0,307), toutefois, ces résultats sont non-significatifs. Pour ce qui concerne la qualité de vie des enfants, on constate une association négative avec leur âge. Toutefois, le coefficient de corrélation est très faible (rs = -0,115) et non-significatif. III.1.3.1. Variable sexe Un test exact de Fisher a été réalisé pour évaluer l'influence du sexe des enfants sur leurs représentations de la famille. Les résultats montrent une tendance à la significativité (p = 0,053). Le V de Cramer (= 0,585 ; p = 0,050) indique que le sexe explique 34% des variations dans les représentations de la famille. Le croisement des deux variables indique que les garçons ont tendance à avoir une représentation de la famille dite « d'un foyer » (5 enfants, soit 45%), alors que les filles ont plutôt une représentation de la famille dite « globale » (6 enfants, soit 50%). (cf. Tableau 25) Tableau 25: Tableau croisé des variables sexe et représentation de la famille « famille globale » Masculin Sexe Féminin Total Représentation de la famille « famille « famille « famille composite » d'un foyer » d'origine » Total Effectif 1 3 5 2 11 Pourcentage 9,1% 27,3% 45,5% 18,2% 100,0% Effectif 6 1 1 4 12 Pourcentage 50,0% 8,3% 8,3% 33,3% 100,0% Effectif 7 4 6 6 23 Pourcentage 30,4% 17,4% 26,1% 26,1% 100,0% Le sexe des enfants a un effet significatif sur la fréquence à laquelle ils utilisent la stratégie de coping « résignation » (Mann-Whitney (U) = 30,50 ; p = 0,015). Les garçons tendent à utiliser 187 Chapitre 4. Présentation des résultats davantage cette stratégie que les filles. La différence entre les filles et les garçons sur les items évaluant leur perception de l'efficacité des stratégies mobilisées n'est pas significative. L'analyse de l'effet du sexe sur les scores obtenus par les enfants au CBCL et au AUQEI ne montre pas de corrélation significative avec le sexe des enfants. III.1.3.2. Position dans la fratrie L'analyse de l'effet de la position de l'enfant dans sa fratrie sur sa représentation de la famille n'a pas montré d'association significative (test exact de Fisher ; p = 0,747) La position de l'enfant dans sa fratrie n'a pas de lien significatif avec la fréquence des stratégies de coping utilisées (Mann-Whitney). Les résultats du test évaluant l'influence de la position dans la fratrie sur l'efficacité perçue des stratégies de coping ne montrent aucune corrélation significative entre ces deux variables. Les analyses statistiques conduites n'ont permis de mettre en évidence aucune interaction significative entre la position dans la fratrie et les scores obtenus aux échelles du CBCL. En revanche, il semble y avoir une association à tendance significative entre cette variable et les scores obtenus par les enfants au AUQEI (U = 92,50 ; p = 0,063). Comparativement aux aînés, les cadets tendent à avoir une qualité de vie plus satisfaisante. 188 Chapitre 4. Présentation des résultats Tableau 26: Résumé des interactions entre les résultats du développement et les caractéristiques personnelles Âge Représentations de la famille Sexe Position dans la fratrie p < 0,10 Stratégies de coping Fréquence d'utilisation des stratégies de coping Distraction (Fréquence) Retrait social Restructuration cognitive Autocritique Blâmer les autres p < 0,10 Résolution de problème Régulation émotionnelle Pensée magique Soutien social Résignation Efficacité des stratégies p < 0,05 Distraction Retrait social p < 0,05 p < 0,10 Restructuration cognitive Autocritique p < 0,10 Blâmer les autres p < 0,05 Résolution de problème Régulation émotionnelle p < 0,05 Pensée magique Soutien social p < 0,05 Résignation Adaptation socio-affective Adaptation intériorisée Adaptation extériorisée Adaptation générale Qualité de vie p < 0,10 III.1.4. Effets du processus proximal sur les résultats développementaux : la signification de la fratrie Lorsqu'on s'intéresse à la signification que les enfants ont de leur fratrie, aucun effet sur les résultats développementaux n'apparait au plan statistique (test exact de Fisher ; Kruskall-wallis). 189 Chapitre 4. Présentation des résultats III.1.3. Effets des caractéristiques du contexte sur les résultats développementaux III.1.3.1. Sexe de la fratrie L'analyse de l'effet du sexe de la fratrie sur sa représentation de la famille n'a pas montré d'association significative (test exact de Fisher ; p = 1,000) Le sexe de la fratrie n'agit pas significativement sur les stratégies de coping, ni en termes de fréquence ni en termes d'efficacité (Mann-Whitney). Le sexe de la fratrie a un effet significatif ou à tendance significative sur les résultats à deux des trois échelles du CBCL : les enfants de fratrie mixte sont évalués par leurs parents comme ayant davantage de problèmes que les enfants de fratrie unisexe sur l'échelle de problèmes intériorisés (U = 110 ; p = 0,007) et de problèmes d'adaptation générale (U = 96 ; p = 0,064). La différence sur l'échelle du AUQEI n'est en revanche pas significative (Mann-Whitney). III.1.3.2. Configuration de la fratrie Un test exact de Fisher ne permet pas d'attester que la configuration de la fratrie est associée significativement à la représentation que les enfants ont de leur famille (p = 0,427) La configuration de la fratrie n'a ni de lien significatif avec la fréquence à laquelle les enfants mobilisent les stratégies de coping, ni avec leur évaluation de l'efficacité de ces stratégies (Kruskal-Wallis). La configuration de la fratrie a un effet significatif sur les scores obtenus aux échelles de problèmes intériorisés (p = 0.035), et d'adaptation générale (p = 0.024). Les enfants qui appartiennent à une fratrie « fille-garçon » sont ceux qui rencontrent le plus de difficultés sur les échelles intériorisée et d'adaptation générale. Aucun effet de cette variable n'est apparu sur les scores obtenus par les enfants au AUQEI. III.1.3.3. Ecart d'âge L'analyse de l'écart d'âge sur les représentations par les enfants de leur famille a montré une association significative (test exact de Fisher significatif ; p = 0.026). Le V de 190 Chapitre 4. Présentation des résultats Cramer (= 0,499 ; p = 0,067) indique que l'écart d'âge explique 25% des variations dans les représentations de la famille. Les résultats du croisement des deux variables révèlent que les enfants qui ont un écart d'âge compris entre 0 et 2 ans avec leur frère/soeur ont une représentation de la famille « d'un foyer » alors que ceux qui ont entre 2 et 4 ans d'écart avec leur frère/soeur ont une représentation « globale ». (cf. Tableau 27) Tableau 27: Tableau croisé des variables écart d'âge et représentation de la famille « famille globale » Entre 0 et 2 Ecart d'âge (année) Entre 2 et 4 Entre 6 et plus Total Représentation de la famille « famille « famille « famille composite » d'un foyer » d'origine » Total Effectif 0 3 5 3 11 Pourcentage 0,0% 27,3% 45,5% 27,3% 100,0% Effectif 6 1 1 2 10 Pourcentage 60,0% 10,0% 10,0% 20,0% 100,0% Effectif 1 0 0 1 2 Pourcentage 50,0% 0,0% 0,0% 50,0% 100,0% Effectif 7 4 6 6 23 Pourcentage 30,4% 17,4% 26,1% 26,1% 100,0% L'écart d'âge a un effet qui tend à la significativité seulement pour l'efficacité avec laquelle les enfants perçoivent la stratégie de coping « retrait social » (Kruskal-Wallis ; p = 0.053). Lorsque l'écart d'âge est compris entre 2 et 4, les enfants tendent à mobiliser davantage la stratégie de coping « retrait social ». Cette variable n'a pas de lien significatif avec les échelles du CBCL et de l'AUQEI. III.1.3.4. Nombre de foyer(s) recomposés(s) Aucune association n'a été trouvée entre le nombre de familles recomposées et les représentations que les enfants ont de leur famille (test exact de Fisher ; p = 0,612) L'analyse de l'influence de cette variable sur la fréquence d'utilisation et l'efficacité des stratégies de coping n'a montré aucun résultat significatif. Cette variable n'a, également, pas d'effet significatif sur les scores obtenus aux échelles du CBCL et du AUQEI. 191 Chapitre 4. Présentation des résultats III.1.3.5. Types de familles recomposées Lorsqu'on s'intéresse aux types de familles recomposées, aucun effet sur les résultats développementaux n'apparait statistiquement significatif (test exact de Fisher ; Kruskallwallis). III.1.3.6. Mode de garde Le mode de garde est associé significativement à la représentation que les enfants ont de leur famille (test exact de Fisher ; p = 0,002). Le V de Cramer (= 0,647 ; p = 0,004) indique que le sexe explique 42% des variations dans les représentations de la famille. Le croisement des deux variables montre que les enfants en résidence alternée semblent tous avoir une représentation « globale » de leur famille alors que ce type de représentation est très minoritaire chez ceux qui sont en garde principale chez la mère. Ceux-ci se répartissent dans les trois autres types de représentation, avec une prédominance de la représentation « famille d'origine » (cf. Tableau 28) Tableau 28: Tableau croisé des variables « mode de garde » et « représentation de la famille » Alternée Mode de garde Principale / Mère Exclusive Total Effectif Pourcentage Effectif Pourcentage Effectif Pourcentage Effectif Pourcentage « famille globale » 6 100,0% 1 Représentation de la famille « famille « famille composite » d'un foyer » 0 0 0,0% 0,0% 3 4 « famille d'origine » 0 0,0% 5 6 100,0% 13 7,7% 23,1% 30,8% 38,5% 100,0% 0 ,0% 1 25,0% 2 50,0% 1 25,0% 4 100,0% 7 7 4 6 6 30,4% 30,4% 17,4% 26,1% 26,1% Total Le mode de garde influence de façon significative la fréquence d'utilisation des stratégies de coping : « Restructuration cognitive » (p = 0,089). Les enfants en résidence alternée mobilisent davantage comparativement aux enfants en garde exclusive maternelle ou en garde principale. Concernant leur efficacité, l'évaluation des enfants est différente selon le mode de garde pour les stratégies coping « retrait social » (p = 0,090) et « soutien social » (p = 0,079) (Kruskal-Wallis). En d'autres termes, les enfants en résidence alternée et en garde principale à 192 Chapitre 4. Présentation des résultats la mère tendent davantage à mobiliser ces stratégies de coping que ceux qui sont en garde exclusive. Les analyses statistiques conduites avec cette variable n'ont permis de montrer aucune interaction significative les scores obtenus aux échelles du CBCL et au AUQEI. Tableau 29: Résumé des interactions entre les résultats du développement et les caractéristiques du contexte Caractéristique de la fratrie Sexe de la fratrie Configuration de la fratrie Représentations de la famille Stratégies de coping Ecart d'âge p < 0,05 Nombre de foyer(s) recomposé(s) Types de familles Mode de garde p < 0,01 Distraction (Fréquence) Retrait social p < 0,10 Restructuration cognitive Autocritique Blâmer les autres Résolution de problème Régulation émotionnelle Pensée magique Soutien social Résignation Distraction p < 0,10 Retrait social p < 0,10 restructuration cognitive Autocritique Blâmer les autres p < 0,10 Résolution de problème Régulation émotionnelle Pensée magique p < 0,10 Soutien social Résignation Adaptation socio-affective Adaptation intériorisée p < 0,01 p < 0,10 Adaptation extériorisée Adaptation générale p < 0,05 p < 0,10 p < 0,05 Qualité de vie 193 Chapitre 4. Présentation des résultats III.1.4. Effets du facteur temps sur les résultats développementaux III.1.4.1. Âge des enfants au moment de la recomposition familiale Pour pouvoir croiser les 2 variables, cette variable a été scindée au seuil de la médiane en 2 modalités (1-3 ans/4-9ans ans). Précisons que pour les analyses suivantes, la variable numérique est conservée. Un test exact de Fisher indique que l'association entre l'âge des enfants n'est pas significative (p = 0,942). L'analyse des effets de l'âge des enfants au moment de la recomposition familiale sur la fréquence d'utilisation des stratégies de coping n'a montré qu'une tendance significative sur la stratégie « blâmer les autres » (rs = 0,387 ; p = 0.068) (Rho de Spearman). Plus les enfants sont âgés au moment de la recomposition plus ils tendent à utiliser cette stratégie de coping. Concernant leur efficacité, cette variable est associé significativement pour la stratégie « régulation émotionnelle » (rs = 0,424 ; p = 0,044). En d'autres termes, plus les enfants sont âgés au moment de la recomposition, plus ils trouvent que cette stratégie est efficace. Au niveau des scores obtenus aux CBCL, des associations positives sont observées entre l'âge des enfants au moment de la recomposition familiale et les résultats d'adaptation générale (rs = 0,352), d'adaptation intériorisée (rs = 0,325) et extériorisée (rs = 0,193) (Rho de Spearman) ce qui suggère que plus les enfants sont âgés au moment de la recomposition, plus ils rencontrent de problèmes d'ordre socio-affectif. Toutefois, ces résultats sont non-significatifs. Pour ce qui concerne leur qualité de vie, on constate une association négative et significative avec cette variable. La force du coefficient de corrélation est modéré (rs = -0,562 ; p = 0,005) (Rho de Spearman). Plus l'âge des enfants est élevé au moment de la recomposition, moins ils sont satisfaits de leur qualité de vie. III.1.4.2. Temps écoulé depuis la séparation Pour pouvoir croiser les 2 variables cette variable a été découpé au seuil de la médiane en 2 modalités (1-6 ans/7-12 ans). Précisons que pour les analyses suivantes, la variable numérique est conservée. Un test exact de Fisher indique que l'association entre l'âge des enfants et leur représentation de la famille n'est pas significative (p = 0,528). Des corrélations bivariées (rho de spearman) montrent que le temps écoulé depuis la séparation tend à être associé significativement à la fréquence à laquelle les enfants mobilisent 194 Chapitre 4. Présentation des résultats les stratégies de coping « retrait social » (rs = 0,388 ; p = 0,067) et « soutien social » (rs = 0,397 ; p = 0,061). Plus le temps écoulé est important après la séparation, plus les enfants font appel à ces stratégies. Concernant l'efficacité, on note des associations significatives ou à tendance à la significativité avec les stratégies « distraction » (rs = 0,386 ; p = 0,069), « résolution de problèmes » (rs = 0,387 ; p = 0,068) et « soutien social » (rs = 0,456 ; p = 0,029). Autrement dit, plus le temps écoulé est important, plus les enfants jugent ces stratégies comme efficaces. Aucune association significative ne ressort entre cette variable et les scores d'adaptation socio-affective et de qualité de vie. III.1.4.3. Durée de la recomposition familiale Pour pouvoir croiser les 2 variables, cette variable a été scindée au seuil de la médiane en 2 modalités (1-4 ans/5-12ans ans). Précisons que pour les analyses suivantes, la variable numérique est conservée. Un test exact de Fisher indique que l'association entre l'âge des enfants et leur représentation de la famille n'est pas significative (p = 0,528). Aucune association significative ne ressort entre la durée de la recomposition familiale et les stratégies de coping mobilisées par les enfants, ni en termes de fréquence, ni en termes d'efficacité. Des corrélations bivariées (rho de spearman) montrent que le temps écoulé depuis la première recomposition familiale est associé significativement et modérément aux scores obtenus par les enfants aux échelles d'adaptation intériorisée (rs = -0,424 ; p = 0,044), d'adaptation extériorisée (rs = -0,548 ; p = 0,007) et d'adaptation générale (rs = -0,505 ; p = 0,014). Plus le temps depuis la première recomposition est important, moins les enfants ne présentent de difficultés sur ces trois sous-échelles. Cette variable ne covarie en revanche pas avec la qualité de vie des enfants. III.2. Effet des caractéristiques individuelles, du contexte et du temps sur le processus proximal : la représentation des relations fraternelles Les analyses évaluant les interactions entre les caractéristiques individuelles des enfants (âge, sexe et position dans la fratrie), les caractéristiques du contexte (sexe de la fratrie, 195 Chapitre 4. Présentation des résultats configuration de la fratrie, écart d'âge, nombre de foyer(s) recomposés(s), types de familles recomposées, mode de garde) et le facteur temps (âge des enfants au moment de la recomposition familiale, temps écoulé depuis la séparation et durée de la recomposition familiale) d'un côté et le processus proximal de l'autre (la signification de la fratrie) n'ont montré aucune association significative (test exact de Fisher). IV. Comparaison des enfants au sein d'une même fratrie Notre échantillon compte huit dyades fraternelles dont les deux enfants ont participé à l'étude. Ces enfants vivent dans le même contexte familial, il apparaît, de ce fait, intéressant de confronter leurs résultats aux tests utilisés dans cette étude. L'objectif de ces confrontations est de faire ressortir les concordances et les divergences dans le vécu familial et l'appropriation de la famille recomposée des deux enfants. Notre analyse portera sur la représentation de la famille, les stratégies de coping, l'adaptation socio-affective, la qualité de vie et la représentation des relations fraternelles. IV.1. Appropriation de la famille recomposée IV.1.1. La représentation de la famille La représentation de la famille est appréhendée à partir du dessin de la famille (Corman, 1961, Porot, 1954, Jourdan-Ionescu et Lachance, 2000). Les aspects graphiques des dessins indiquent que seulement deux dyades ont une même utilisation des zones de page de dessin. Dans la dyade S22/S23, le dessin des enfants se situe dans le bas de la feuille et dans la dyade S9/S10, il occupe toute la page. Les enfants des six autres dyades ont utilisé une zone différente de celle de leur frère/soeur germain. Les deux dessins portent de la couleur pour quatre dyades, ils ne portent pas de couleur pour trois dyades et enfin, pour une dyade, un dessin porte de la couleur et l'autre non. Au niveau du contenu des dessins, il n'y a qu'une seule dyade où la première personne dessinée est pour chacun des enfants son frère germain. Concernant l'organisation du dessin, il existe une concordance pour trois dyades, une (S7/S8) avec l'organisation « la fratrie puis les figures parentales », une (S12/S13) avec l'organisation « les figures parentales puis la fratrie » et la troisième (S9/S10) avec une organisation différenciée. 196 Chapitre 4. Présentation des résultats La représentation générale de la famille, seulement deux dyades ont la même représentation c'est-à-dire « famille globale » pour la fratrie S9/S10 et la « famille d'origine » pour la fratrie S12/S13. Dans les six autres dyades chaque enfant a sa représentation de la famille. IV.1.2. Les stratégies de coping Dans le cadre des stratégies de coping, les comparaisons vont porter sur les trois angles de notre analyse, à savoir, la situation stressante évoquée par les enfants, la fréquence avec laquelle les stratégies sont mobilisées et l'évaluation de leur efficacité par les enfants. Rappelons que les stratégies de coping sont appréhendées à l'aide du Kidcope (Spirito & al., 1988) et que dans ce test, la fréquence de mobilisation des stratégies est indiquée à partir des possibilités de réponse suivantes : « pas du tout », « parfois », « souvent » « presque tout le temps ». L'efficacité des stratégies, quant à elle, est estimée sur la base des modalités de réponses suivantes : « pas du tout », « un peu », « assez » et « beaucoup ». Les situations stressantes Au niveau des stresseurs, ceux évoqués par les enfants des dyades sont différents autant sur les thèmes que sur les difficultés ou les personnes qui posent problème. Les fréquences de mobilastion des stratégies Des similitudes et des divergences peuvent être relevées dans la fréquence avec laquelle les enfants mobilisent les stratégies de coping. Seule la dyade S12/ S13 n'a aucune similitude dans la fréquence d'utilisation des stratégies, toutes les autres dyades ont des similitudes et des divergences. La dyade S3/S4 n'utilise « pas du tout » les stratégies de « retrait social » et de « blâmer les autres ». Les enfants de cette dyade utilisent « parfois » la « restructuration cognitive et aucun des deux n'utilise une des stratégies « presque tout le temps ». Une autre dyade (S4/S5) n'utilise « pas du tout » les stratégies de « retrait social » et « blâmer les autres », elle utilise « parfois » les stratégies « restructuration cognitive », « résolution de problème », « régulation émotive » et « soutien social ». Mais les enfants diffèrent quant aux stratégies qu'ils utilisent le plus. S5 utilise souvent la « pensée magique » et la « résignation » alors que S4 n'utilise que parfois la « résignation ». Aucun des deux n'utilise une des stratégies « presque tout le temps ». 197 Chapitre 4. Présentation des résultats La dyade S7/S8 n'utilise « pas du tout » « l'autocritique », les enfants utilisent tous les deux le « soutien social » « presque tout le temps ». Par contre S8 utilise « presque tout le temps » « la résignation » alors que S7 ne l'utilise « pas du tout ». La dyade S9/S10 n'utilise « pas du tout » « l'autocritique » et la « résignation ». Les enfants n'ont pas de similitude dans la stratégie qu'elles utilisent. La dyade S17/S18 n'utilise « pas du tout » la stratégie « blâmer les autres », ils utilisent « souvent » le « retrait social » mais sont différents sur l'utilisation des autres stratégies. Par exemple, S17 utilise presque tout le temps l'autocritique, alors que S18 ne l'utilise pas du tout. S18 utilise la « résignation » presque tout le temps alors que S17 ne l'utilise que parfois. Pour la dyade S19/S20, les enfants utilisent tous les deux « souvent » « la distraction », « la régulation émotionnelle » et le « soutien social ». Les enfants diffèrent pour l'utilisation de la « restructuration cognitive », « la résolution de problème » et « la pensée magique » que S20 utilise « presque tout le temps » alors que S18 ne les utilise que « parfois » ou « pas du tout ». La dyade S22/S23 n'a en commun que le fait de ne pas du tout utiliser « la résignation ». Mais la stratégie que S22 utilise « presque tout le temps » est « la pensée magique » alors que pour S23 c'est le « soutien social ». L'efficacité des stratégies Au sein de la dyade S3/S4, les enfants sont d'accord pour dire que « le retrait social », « la restructuration cognitive », « l'autocritique », « blâmer les autres », ne sont « pas du tout » ou « un peu » efficace. Mais ils ne sont pas d'accord sur les stratégies qui sont efficaces. S3 trouve « la résignation » efficace mais pour S4 c'est plutôt « la résolution de problème » et « le soutien social ». La dyade S4/S5 trouve également que « le retrait social », « la restructuration cognitive », « l'autocritique », « blâmer les autres », ne sont « pas du tout » ou « un peu » efficaces. Concernant les stratégies, selon S4, ce sont « la résolution de problème » et « le soutien social » alors que pour S5 c'est plutôt « la pensée magique ». Les enfants de la dyade S7/S8 trouvent tous les deux que les stratégies « autocritique » et « blâmer les autres » ne sont « pas du tout » efficaces mais que « le soutien social » est 198 Chapitre 4. Présentation des résultats « beaucoup » efficace. Mais ils ont des avis différents sur « la résolution de problème », S7 la trouve « beaucoup » efficace alors que pour S8 elle est « un peu » efficace. Pour la dyade S9/S10, les stratégies « autocritiques », « blâmer » et « résignation » ne sont « pas du tout » efficaces. Concernant les stratégies efficaces, elles ont des avis très différents au sujet de « la résolution de problème » et du « soutien social ». Pour S8 elles sont « beaucoup » efficaces et pour S9, elles ne le sont « pas du tout ». Au sein de la dyade S12/ S13, les enfants ne sont d'accord que sur deux éléments. Ils trouvent « l'autocritique » « pas du tout » efficace et le soutien social « un peu » efficace. Au niveau de la dyade S17/S18, les deux enfants trouvent que les stratégies « autocritique » et « blâmer les autres » ne sont « pas du tout » efficaces, mais pour S17, seul « le soutien social » est « beaucoup » efficace, alors que pour S18, ce sont « la pensée magique » et « la résignation » qui sont « beaucoup » efficaces. Pour la dyade S22/S23, « la résignation » n'est « pas du tout » efficace. Les enfants n'ont pas le même point de vue sur l'efficacité des stratégies : S22 estime que les stratégies « restructuration cognitive » et « pensée magique » sont efficaces alors que pour S23, c'est plutôt « le soutien social ». IV.1.3. L'adaptation socio-affective L'analyse de l'adaptation socio-affective est basée sur le CBCL (Achenbach, 1991). La comparaison des résultats obtenus par les dyades aux trois échelles principales du CBCL montre qu'il existe des différences au sein de deux fratries, S12/S13 et S17/S18. Ces fratries sont composées d'enfants qui se situent en zones pathologique et limite. Pour l'adaptation intériorisée, on note que dans la fratrie S12/S13, S12 est en zone pathologique alors que S13 est en zone non pathologique. Ils sont tous les deux en zone non pathologique pour l'adaptation extériorisée, et pour l'adaptation générale S12 est en zone pathologique et S13 en zone limite. Au niveau de la fratrie S17/S18, S17 se situe en zone pathologique alors que S18 se situe en zone non pathologique pour l'adaptation intériorisée. En qui concerne l'adaptation extériorisée, S17 est en zone non pathologique et S18 en zone limite, et enfin S17 est en zone pathologique alors que S18 est en zone non pathologique pour l'adaptation générale. Dans les 199 Chapitre 4. Présentation des résultats six autres fratries, les enfants ont les mêmes résultats et elles se situent toutes en zone non pathologique. IV.1.4. Qualité de vie La qualité de vie a été appréhendée à partir du AUQEI (Manificat & Dazord, 1997). Au niveau des réponses ouvertes, il n'y a pas de similitude entre les situations évoquées par les enfants d'une même fratrie pour les propositions « Quelques fois tu n'es pas content du tout » et « Quelques fois tu n'es pas content ». Les réponses sont similaires pour une fratrie dans la proposition « quelques fois tu es content », il s'agit de la dyade S22/S23, les deux enfants sont contents quand ils ont eu ce qu'ils voulaient. Elles sont également similaires pour une fratrie dans la proposition « quelques fois tu es très content », les enfants de la dyade S12/S13 n'a pas trouvé de situation qui les rende très contents, ils ont tous les deux répondu « rien ». Le niveau de satisfaction de vie est satisfaisant pour les enfants de six des huit dyades analysées et est différent pour les enfants de deux dyades S12/S13 et S17/S18. Dans la première, S13 a une qualité de vie non satisfaisante alors que pour S12, elle est satisfaisante. Dans la deuxième, c'est S17 qui une qualité de vie non satisfaisante et S18 une qualité de vie satisfaisante. IV.2. Représentation des relations fraternelles La comparaison des représentations des relations dans la fratrie germaine qui ressortent des entretiens indique que les dyades concordantes sont un plus nombreuses (5 dyades) que celles qui sont divergentes (3 dyades). Les fratries concordantes sont pour trois dyades des représentations « ressources » (S3/S4 ; S4/S5 ; S9/S10) et pour les deux autres (S7/S8; S12/S13), des représentations « neutres ». Concernant les fratries divergentes, deux ont des représentations « ressource » pour l'un des enfants et « contrainte » pour l'autre (S17 /S18; S19/S20). Et pour une des dyades (S22/S23), les représentations sont « neutre » pour l'un des enfants et « contrainte » pour l'autre. Il ressort de ces analyses comparatives des divergences et des concordances dans l'appropriation de la famille recomposée par les enfants et dans leurs représentations de leur 200 Chapitre 4. Présentation des résultats relation avec leur frère/soeur germain. Les divergences se situent plus au niveau de la représentation de la famille et des stratégies de coping et les concordances au niveau de la qualité de vie, de l'adaptation socio-affective et des représentations des relations dans la fratrie germaine. De manière générale, les divergences indiquent que les enfants d'une même fratrie peuvent avoir un vécu différent de leurs relations avec leur frère/soeur germain et de la recomposition familiale. Elle suggère des processus d'appropriation propre à chaque enfant. Au niveau des similitudes, les représentations « ressource » pour chacun des enfants renvoient à des vécus assez proches et à une communauté d'expérience d'une part, et d'autre part, au fait que chacun des enfants peut être une ressource pour l'autre. Les concordances peuvent être rattachées a un effet du contexte c'est –à-dire à une influence de la structure familiale, des parents ou dans une dimension horizontale à une influence du groupe fraternel. 201 Chapitre 5. Discussion Chapitre 5. Discussion L'objectif de notre étude est d'apporter des éléments à la compréhension de la famille recomposée, en l'abordant du point de vue de l'enfant. Dans cette partie nous discuterons les résultats issus de notre travail dans le cadre du modèle PPCT de Bronfenbrenner (1996). Dans un premier temps, nous nous intéresserons aux résultats concernant l'appropriation de la famille recomposée par l'enfant (les résultats du développement), ensuite ceux de la représentation de la relation dans la fratrie germaine (le processus proximal), puis nous reviendrons sur l'influence des caractéristiques personnelles, du processus proximal, du contexte familial et des variables relatives au temps sur les résultats du développement. Nous évoquerons aussi les différences et les similitudes entre les résultats des enfants au sein d'une même fratrie. I. Appropriation de la famille recomposée par l'enfant De manière générale, les composantes et les outils utilisés pour analyser l'appropriation de la famille recomposée par les enfants indiquent que les enfants sont des sujets actifs dans la recomposition familiale. Ils délimitent les contours de leurs familles et définissent leurs liens avec les membres de leur entourage, font face aux facteurs de stress liés à la recomposition et cela se traduit par une adaptation socio-affective et une qualité de vie satisfaisantes. I.1. Représentation de la famille L'analyse des dessins de la famille réalisés par les enfants fait ressortir des représentations différentes de la famille sous-tendues par des logiques : la « famille globale » liée à une logique de continuité, « la famille composite » qui renvoie à des choix sélectifs, la « famille d'un foyer » basée sur une logique de deux familles ou deux composantes familiales distinctes, « la famille d'origine » qui se rapporte à une logique de pérennité de la famille nucléaire. Ces représentations familiales et les logiques qui les fondent sont propres à l'enfant et indiquent qu'il s'approprie la famille recomposée. Les études sur la représentation de la famille chez des enfants de familles recomposées que nous avons recensées n'établissent pas de typologie de la famille, nos résultats ne seront donc pas confronter à ceux d'autres d'études 202 Chapitre 5. Discussion sur ce plan. Par contre, des logiques ont été définies par Saint-Jacques et Chamberland (2000) à partir d'entretiens réalisés auprès d'adolescents. Ces logiques sont différentes des notre par rapport aux facteurs qui les définissent. En effet, nos logiques sont basées sur la composition et les contours de la famille définis par l'enfant alors que celle de Saint-Jacques et Chamberland (2000) portent sur la continuité ou non dans le fonctionnement de la famille et les relations parents-enfants dans la recomposition. Les logiques construites sont différentes mais peuvent être complémentaires dans l'étude des enfants de familles recomposées. Par ailleurs, il apparaît avec ces représentations que les facteurs qui influencent les choix des enfants dans la composition de leurs familles sont les liens biologiques, la co-résidence, la qualité des rapports, la proximité et la durée des relations. Ainsi, les personnes le plus souvent absentes sont celles issues de la recomposition (beau-père, belle-mère, quasi-frères et soeurs, demi-frères et soeurs). Ces résultats sont cohérents avec ceux obtenus par Dun et al. (2002) et Roe et al. (2006) qui révèlent que les enfants de familles recomposées peuvent être sélectifs dans la composition de leurs familles et mettent en évidence l'importance des liens biologiques et de la co-résidence. En effet, les demi-frères et les quasi-frères sont plus susceptibles d'être exclus que les frères et soeurs germains, et les membres non résidents sont plus susceptibles d'être exclus que les résidents. Les résultats de notre étude soulignent également l'importance de la co-résidence et des liens biologiques mais aussi de la qualité des rapports qui crée ou affaiblit les liens. La composition des familles réalisées par les enfants de notre étude peut également être mise en lien avec celle des enfants de l'étude de Babalis et al. (2011). Ces auteurs ont comparé les dessins de famille d'enfants de familles nucléaires à ceux d'enfants de parents séparés, et notent que les frères et soeurs germains sont représentés par les enfants de parents séparés alors que ceux de familles nucléaires ont tendance à les omettre dans leur dessin de la famille. Sous cet angle, la composition des dessins réalisés par ces enfants de parents divorcés, est proche de celle des dessins des enfants de notre recherche, qui indique que les frères et soeurs germains sont présents sur la quasi totalité des dessins. Ces résultats peuvent suggérer une différence entre les représentations des relations fraternelles dans la famille nucléaire et dans les familles qui connaissent des transitions familiales. Les enfants de parents séparés semblent plus considérer leurs frères et soeurs germains comme des membres de leur famille que ceux de familles nucléaire. L'enfant s'approprie également les liens familiaux avec les beaux-parents. Ces derniers ont une position de parent pour presque tous les enfants et ceux-ci les appellent par 203 Chapitre 5. Discussion leurs prénoms ou des surnoms. Ces données diffèrent sur certains points de celles de Théry (1991 ; 1995) et Bloss (1996) dans le champ de la sociologie, dans la mesure où seulement deux des enfants de notre étude considèrent leurs beaux-parents comme un ami. Les enfants de notre étude attribuent à leur beau-parent un statut de parents qui n'est, certes, pas basé sur les liens biologiques mais sur un fonctionnement de parent qui est exercé directement auprès d'eux. Ce rôle est parfois défini comme très autoritaire par les enfants et de ce point de vue, nos résultats convergent avec ceux de Saint-Jacques et Lépine (2009). En effet, ces auteurs indiquent que pour la majorité des enfants, leur beau-père est impliqué auprès d'eux et pour un tiers d'entre eux, il apparaît autoritaire. Pour ce qui concerne l'appellation du beau-parent par son prénom, les résultats obtenus sont cohérents avec ceux de Théry (1995), l'utilisation du prénom est, pour les enfants de notre étude, la manière la plus normale et simple d'appeler le beau-père en dehors de « beau-père ». Les liens familiaux des enfants avec leurs demi-frères/soeurs sont marqués par l'appellation de frère/soeur comme pour les frères et soeurs germains. L'appellation frère/soeur signifie pour l'enfant qu'il ne fait pas de différence, à priori, entre les membres de sa fratrie recomposée. Elle est utilisée pour les demi-frères parce qu'ils ont un parent en commun ou parce qu'ils ont construit avec eux un lien basé sur la cohabitation et sur le fait de participer aux soins qui leur sont donnés depuis leurs naissances. Ces données sont cohérentes avec celles de Hurstel et Carré (1993) qui indiquent que l'appellation de frères/soeurs pour tous les membres de la fratrie peut être une volonté de témoigner de la solidarité du groupe. Elles sont proches de celles de Poittevin (2005) qui définit, à partir du discours des enfants, un lien fraternel « frères et soeurs d'habitations », ce terme désigne « les enfants qui ne sont pas frères et soeurs de sang mais qui partagent des expériences familiales et fraternelles dans un lieu commun » (op.cit., 197). La participation aux soins renvoie à l'âge des demi-frères/soeurs comme facteur susceptible d'influencer les relations que les enfants construisent avec eux. L'âge est l'un des facteurs mis en évidence par Berstein (1997) comme pouvant affecter les relations des enfants avec leurs demi-frères/soeurs. L'appellation « frère » est plus rarement utilisée pour les quasi-frères et quand c'est le cas, cela est lié à la cohabitation mais surtout au jeune âge des quasi-frères qui favorise le développement d'un lien lié aux soins et au caractère attachant des bébés. 204 Chapitre 5. Discussion I.2. Les stratégies de Coping Les stresseurs évoqués par les enfants sont liés au beau-parent, il s'agit notamment de son arrivée dans la famille et de sa sévérité au niveau de l'éducation. Ces résultats vont dans le même sens que ceux de l'étude de Lutz (1983) qui indiquent que la discipline, c'est-à-dire l'établissement et le renforcement de règles familiales est, selon les adolescents de son échantillon, le deuxième aspect le plus stressant de la famille recomposée. Le soutien social apparait comme la stratégie la plus utilisée par les enfants et également celle qui, selon eux, est la plus efficace. Ces résultats peuvent être mis en lien avec ceux de Halpenny et al. (2008) qui indiquent que la famille est la source de soutien préférée pour la majorité des enfants de leur échantillon et que les enfants sont sélectifs sur les personnes auxquelles ils demandent et celles dont ils acceptent le soutien. I.3. Adaptation socio-affective De façon générale, notre échantillon se situe en zone non pathologique aussi bien pour l'adaptation intériorisée et l'adaptation extériorisée que pour l'adaptation générale. Sur le plan individuel, dix-huit enfants se situent en zone non pathologique pour l'adaptation générale et dix-neuf enfants se situent en zone non pathologique aussi bien pour l'adaptation intériorisée que pour l'adaptation extériorisée. Si l'on prend en compte toutes les échelles et souséchelles, quinze des enfants de notre échantillon se situent en zone non pathologique pour toutes les échelles et sous-échelles du CBCL et semblent ne présenter aucun problème d'adaptation contre seulement deux enfants qui se situent en zone pathologique ou limite à plusieurs échelles et sous-échelles dont l'adaptation intériorisée, extériorisée et générale. Les études qui analysent le développement socio-affectif des enfants de famille recomposée sont, pour celles que nous avons pu recenser, des études comparatives qui analysent les différences de développement d'enfants de diverses structures familiales avec le CBCL (Saint-Jacques & al., 2006) ou d'autres outils (Hofferth, 2006). Selon ces études les enfants de familles recomposées présentent plus de troubles du développement que les enfants de familles « intactes ». Nous ne ferons pas de comparaison directe avec ces études, étant donné que notre étude n'est pas comparative et que tous les enfants de notre échantillon appartiennent à une famille recomposée. 205 Chapitre 5. Discussion I.4. Qualité de vie Les enfants de notre échantillon affichent, de manière générale, une bonne qualité de vie. Leurs scores moyens au AUQEÏ indiquent qu'ils sont presque tous satisfaits de leur vie, seulement deux enfants semblent ne pas l'être. Ces résultats ne peuvent pas vraiment être confrontés à ceux des études qui comparent les enfants de familles recomposées à ceux d'autres types de familles et qui indiquent que ils ont un niveau de satisfaction plus faible que ceux de famille nucléaire (Levin & Currie, 2010 ; Bjarnasson et al., 2012). Pour autant l'examen item par item révèle que celui de « frères et soeurs » est l'item familial le plus évalué positivement par les enfants, suggérant que les interactions avec leurs frères et soeurs leurs apportent une certaine satisfaction. Les réponses spontanées viennent appuyer ces données quantitatives. Les enfants y expriment spontanément leur satisfaction quant à passer du temps avec leurs frères et soeurs et de manière générale avec les personnes qui leurs sont proches. La garde conjointe et surtout la résidence alternée sont en ce sens source de satisfaction, parce qu'elles leurs permettent de voir régulièrement leurs deux parents et de passer du temps avec chacun d'eux. Ces données rejoignent celles de Bjarnasson et al. (2012. Ces auteurs montrent à partir d'une étude internationale que la garde conjointe semble favoriser un niveau de satisfaction plus élevé que les autres modes de garde. Les enfants sont également satisfaits de voir leurs parents heureux et d'avoir une atmosphère familiale apaisée ce qui peut être mis en lien avec les résultats de l'étude de Chapel et al. (2012) qui indiquent que les conflits interparentaux peuvent avoir une influence négative sur la satisfaction de vie. Les bonnes relations familiales, notamment la communication parents-enfants sont également une source de satisfaction pour les enfants. Cet aspect évoqué par les enfants peut être mis en lien avec les études de Holder et Colman (2009), Levin et Currie (2010) et Bjarnasson et al. (2012). L'étude de Holder et Colman (2009) fait ressortir un lien entre les interactions positives dans la famille et le bonheur chez des enfants âgés de 9 à 12 ans. Les enfants ont renseigné trois questionnaires : « Piers-Harris 2 » (Piers & Herzberg, 2002) ; « the faces scale », (Andrews & Withey, 1976) ; « Children'questionnaires » (Holdman & Coleman, 2009). Ces outils sont différents du AUQEÏ, mais ils recueillent également le point de vue de l'enfant et l'un d'entre eux, le « Faces scale » est basé sur des images d'expressions faciales représentants des émotions comme le AUQEÏ. Au niveau de la communication parent-enfant, Levin et Currie (2010) ont noté une association entre la communication mère-enfant et père-enfant et le bonheur chez trois groupes d'enfants de moyenne d'âge, 11,5, 13,5 et 15,5 ans. Les 206 Chapitre 5. Discussion participants ont indiqué leur niveau de satisfaction de vie sur une échelle allant de 0 à 10. L'étude de Bjarnasson et al. (2012), quant à elle, indique que les difficultés de communication avec les parents sont fortement reliées à un bas niveau de satisfaction de vie. II. Représentation des relations dans la fratrie germaine L'entretien semi-directif sur les relations fraternelles a permis de recueillir le vécu des enfants sur les aspects de la recomposition que sont : la séparation, les relations parentsenfants, le mode de garde, les beaux-parents, les relations fraternelles. La séparation a suscité chez les enfants des sentiments de tristesse, des inquiétudes, des incompréhensions, des difficultés à l'accepter. Les relations parent-enfant connaissent des changements, les enfants ne voient plus leurs parents ensembles et certains rapports pèreenfants se sont dégradés. Au niveau de la garde conjointe, les enfants apprécient le fait de maintenir des relations avec leurs deux parents, de vivre dans des environnements différents. Ces données sont proches de celles des études de Wolchik (1985) et Bauserman (2002), qui montrent que, comparées à la garde exclusive, toutes les formes de garde conjointe sont plus positives pour le développement de l'enfant. Par contre, les enfants n'apprécient pas toujours la perte de temps et les trajets entre les deux maisons. Certains se perdent dans la répartition des temps à passer avec chaque parent dans la garde principale quand le programme n'est pas fixe. D'autres mentionnent des difficultés liées à des discordances éducatives d'un foyer à l'autre et des disputes engendrées entre les parents. Ces résultats sont cohérents avec ceux de Baude (2012) quant à l'influence de la coparentalité et de l'hostilité entre parent sur le développement de l'enfant. L'arrivée des beaux-parents dans la vie des enfants comporte selon eux des aspects positifs et des aspects négatifs. Les aspects positifs se rapportent aux parents et à ce que leur apportent le beau-parent. Les beaux-parents rendent les parents heureux, leur permettent de rompre avec la solitude. Certains enfants évoquent des aspects positifs les concernant, les beaux-parents permettent d'avoir une structure familiale complète qu'ils conçoivent comme étant constituée de deux figures parentales et d'enfants. Il est nécessaire d'être deux pour prendre soin d'un enfant surtout quand il est jeune et en ce sens, les beaux-parents aident les parents mais surtout évitent à l'enfant une forme de parentalisation comme le souligne l'une des enfants. Les beaux-parents permettent la naissance des demi-frères. Ce point de vue des enfants sur leur structure familiale rejoint celui des adolescents dans l'étude de Saint-Jacques et 207 Chapitre 5. Discussion Chamberland (2000). Il ressort des entretiens qu'elles ont menés avec les adolescents que ceux-ci n'attribuent pas d'étiquette « d'anormalité » à leur famille, l'important pour eux étant la présence des deux figures parentales. Les aspects négatifs concernent plus l'enfant lui-même. Les beaux-parents réduisent les chances que les parents se remettent ensemble. De plus, leur présence dans la vie des parents avant la séparation et/ou leur arrivée tout de suite après qu'elle est eue lieu est surprenant et difficile à accepter pour certains enfants. Les méthodes éducatives des beaux-parents constituent un autre aspect négatif, avec, plus précisément, le durcissement des règles et la sévérité des beaux-parents. Les enfants n'apprécient également pas les changements dans les relations parent-enfant liés à l'arrivée des beaux-parents. Certains trouvent que les parents sont moins gentils avec eux. D'autres ne sont pas satisfaits de voir que les beaux-parents sont ceux à qui les parents donnent désormais les petits noms affectueux qui étaient les leur. Ces résultats peuvent également être mis en lien avec ceux de Ganong et al. (2011) qui indiquent que les enfants évaluent les avantages que représentent le beau-parent pour eux et leurs parents et que le résultat de cette évaluation influence leur relation avec leurs beauxparents. Quasi-frères/soeurs Les aspects positifs liés à la présence de quasi-frères/soeurs sont, quand ils ont le même âge qu'eux, d'avoir plus de compagnons et de possibilité de jeu et, pour certains enfants, la relation plus amicale est moins conflictuelle que dans la fratrie germaine. Ces aspects des relations quasi-frères/soeurs sont cohérents avec ceux indiqués par Anderson (1999). L'auteur qualifie les relations quasi-frères/soeurs d'uniques parce qu'elles présentent moins d'agressivité et de rivalité. Les aspects négatifs des relations avec les quasi-frères/soeurs, selon certains enfants, relèvent de rapports conflictuels avec eux ou du sentiment que les parents s'intéressent plus aux quasifrères/soeurs qu'à eux. Une autre forme de relations avec les quasi-frères/soeurs apparaît dans les entretiens, une relation qui peut être qualifié de « neutre » en référence aux types de relation définis par Farmer (2006) dans son étude. La « relation neutre » renvoie, selon Farmer (2006), à l'absence d'attachement émotionnel pour le quasi-frère ou la quasi-soeur. 208 Chapitre 5. Discussion Demi-frères/soeurs Pour la plupart des enfants, les demi-frères/soeurs constituent un aspect positif de la recomposition, un seul enfant a des relations conflictuelles avec ses demi-frères. Les enfants sont en effet proches de leurs demi-frères/soeurs et ils apprécient de prendre soin d'eux. Pour une des enfants, la présence de ses demi-frères a un double intérêt : prendre soin d'eux la rend plus mature et l'aide à s'adapter à la recomposition d'une part et d'autre part leur présence réduit les conflits avec sa belle-mère parce qu'elle est moins disponible. Les relations positives entre demi-frères/soeurs ont été relevées dans d'autres études telles que celles d'Anderson (1999) qui indiquent qu'elles sont les plus positives de la fratrie recomposée et les plus proches des fratries germaines dans les familles non recomposées. La fratrie germaine : les changements Il ressort de l'entretien des enfants trois formes de modifications dans les relations dans la fratrie germaine avec la recomposition : une exacerbation des conflits, une plus grande proximité ou des conflits puis de la proximité. Une augmentation des conflits dans la recomposition est très clairement exprimée par deux enfants. Elle porte sur l'attention des parents dont ils pensent encore moins bénéficier dans la recomposition. Ces données sont proches des résultats obtenus par Hetheringthon (1989) qui indiquent que les fratries dans les familles recomposées montrent plus de rivalités et d'agressivité que celles de familles non recomposées. Au contraire, certains enfants estiment qu'ils sont plus proches de leurs frères/soeur avec la recomposition. L'influence de la recomposition sur les relations fraternelles est positive dans ces cas et cet effet est comparable à celui relevé par Abbey et Dallos (2004). Les participantes à cette étude évoquent une augmentation de la proximité dans leurs relations fraternelles due au fait de partager ensemble la même expérience du divorce parental. La troisième forme d'évolution des relations apparaît chez une enfant, les relations avec son frère était conflictuelles au début de la recomposition du fait qu'ils avaient un vécu différent de la situation. Désormais, il comprend ses difficultés et ils sont devenus très proches. Cette évolution des relations a été relevée par Hetherington (1989), selon lui le rôle de protection de la fratrie apparaît plus tard dans la recomposition parce que les relations parents-enfants, très fortes dans les premiers moments, ne peuvent être modérer par les relations fraternelles. Bush et Ehrenberg (2003) ont également relevé une augmentation des 209 Chapitre 5. Discussion conflits dans la fratrie qui semble résulter du sentiment d'insécurité et de confusion que connaissent les enfants après la séparation ou du désaccord dans la fratrie sur les stratégies de coping. Selon les sujets de cette étude, ces conflits sont transitoires et se limitent aux deux premières années après le divorce. Fratrie ressource, fratrie contrainte Les entretiens avec les enfants ont fait ressortir trois types de représentation des relations fraternelles : « ressource », « contrainte » et « neutre ». La majorité des enfants se représente leurs relations fraternelles comme une ressource dans la recomposition familiale. Les ressources de la fratrie germaine définies par les enfants se déclinent sous différents aspects : ressource contre la solitude et l'ennuie, présence rassurante et protectrice, elle permet de ne pas se sentir seul et d'avoir des compagnons de jeu. De plus, les frères/soeurs permettent de constituer un sous-système fratrie qui donne à l'enfant la possibilité d'être dans son groupe de pairs et d'être moins en interaction avec le couple parent/beau-parent. La fratrie germaine constitue également un cadre de discussion et d'échange sur le vécu familial. Au sein de la fratrie, les enfants évoquent la recomposition familiale à un autre niveau que celui des parents. Ils reviennent, ainsi, sur certaines explications données par les parents ou d'abordent des aspects qu'ils ne peuvent pas évoquer avec eux. La fratrie germaine se distingue comme étai important et différent des autres ressources comme les parents, les amis ou les demi ou quasi frères et soeurs. D'abord, parce que c'est une relation stable et continue dans le temps et d'un foyer à un autre de la famille recomposée. Ensuite, parce que le frère/la soeur germaine vit la même expérience et peut être plus à même de comprendre les difficultés de chacun. Le frère et la soeur est celui avec qui des stratégies de coping telles que une boîte à idées pour provoquer une séparation entre le parent et le beauparent trop sévère, ou des surnoms « méchants » au beau-parent avec qui les relations sont difficiles, peuvent être mises en place en toute confiance. En effet, contrairement au demi ou quasi-frères/soeurs, le frère/soeur germains n'a pas de lien biologique avec le beau-parent et a autant besoin de ces stratégies que lui parce qu'il connait les mêmes difficultés. Dans ce cadre des relations fraternelles conflictuelles en générale peuvent se muer en complicité face aux difficultés de la recomposition. Par ailleurs, un frère/soeur peut jouer le rôle d'un substitut 210 Chapitre 5. Discussion parental en soutien à un parent ou quand les relations parents-enfants connaissent une certaine dégradation. A l'opposé, les contraintes liées à la fratrie germaine dans la recomposition sont liées aux conflits au sein des relations fraternelles. Ces conflits relèvent de la rivalité pour l'attention des parents. Ils peuvent également être dus à une divergence de point de vue et de vécu de la séparation des parents et de la recomposition familiale. Des pressions peuvent être rattachées à la responsabilité dont se sentent investies les aîné-e-s de prendre soin de leurs cadets ou de les protéger des difficultés. Les enfants évoquent également des contraintes liées aux sollicitations répétées du cadet. Au total ces résultats concordent avec ceux de Hetherington (1989), de Bush et Ehrenberg (2003) et de Jacobs et Sillars (2012). III. Caractéristiques personnelles Les caractéristiques personnelles prise en compte sont l'âge, le sexe et la position dans la fratrie. Des liens apparaissent entre ces variables et quelques composantes de l'appropriation de la famille. La position dans la fratrie n'a pas de lien au plan statistique avec les composantes de l'appropriation. Par contre les analyses indiquent une association significative entre l'âge et l'efficacité des stratégies de coping « retrait social », « blâmer les autres », « régulation émotionnelle » et « soutien social ». Il semble que plus les enfants sont âgés plus ils trouvent ces stratégies efficaces. L'étude de Rodríguez et al. (2012) établit une corrélation entre l'âge et les stratégies de coping chez des enfants de familles non recomposées et révèle que les enfants les plus jeunes ont tendance à garder leur problème pour eux. Ce résultat ne peut pas être directement comparé au notre mais il indique tout comme nos résultats une influence de l'âge sur les stratégies de coping. Le sexe des enfants est plutôt associé à la représentation de la famille et à la fréquence d'utilisation de la stratégie « résignation ». Le croisement entre les variables sexe et représentation de la famille indique que les filles ont plus tendance à avoir une représentation de la famille « globale », alors que les garçons ont plus une représentation de la famille « un foyer ». La représentation de la famille « globale » comme nous l'avons indiqué relève d'une logique de continuité et d'intégration des modifications familiales dans leur représentation. Les enfants présentent la famille telle qu'elle est, de manière objective puis lui donnent une interprétation subjective. De plus les dessins de ce profil comportent des détails, des 211 Chapitre 5. Discussion précisions. Nous pouvons, sur la base de ces éléments faire l'hypothèse que cette représentation est plus présente chez les filles parce qu'elles sont plus minutieuses et plus soucieuses du détail alors que les garçons vont être plus pragmatiques et simplifier les éléments. Concernant les stratégies de coping, les garçons utilisent plus « la résignation » que les filles. Ce résultat rejoint celui de Rodríguez et al. (2012) qui montrent que les filles ont plutôt recours à des stratégies centrées sur le problème (les solutions actives, parler du problème à quelqu'un d'autre, recherche d'informations et les attitudes positives), alors que les garçons mobilisent des stratégies non productives. Il peut aussi être mis en lien avec ceux de d'Eschenbeck et al. (2007) selon lesquels les filles utilisent plus la recherche de soutien social et la résolution de problème alors que les garçons ont plutôt recours au coping d'évitement. Dans ces deux études les stratégies utilisées par les garçons sont moins productives ou moins actives que celles des filles. IV. Représentation de la fratrie et appropriation . Sur le plan statistique il n'apparait pas de lien entre la signification de la fratrie et les composantes de l'appropriation. Ce résultat peut s'expliquer par la taille restreinte de notre échantillon. Une analyse sur une population plus importante pourrait aboutir à un résultat différent au vu des indications qui ressortent des entretiens sur les relations fraternelles et la qualité de vie. En effet, les enfants soulignent le bien-être que leur apportent les relations dans la fratrie germaine notamment à travers les discussions et le soutien. De plus ce lien a été mis en évidence par Saint-Jacques (1996) et Saint et Chamberland (2000), leurs études font ressortir une association positive entre la qualité des relations fraternelles et le bien-être personnel des jeunes. Des liens ont aussi été mis en évidence entre des relations fraternelles et l'adaptation socioaffective des enfants notamment dans l'étude de Gass et al. (2007) qui montre que les relations fraternelles affectives ont un effet modérateur sur l'influence des évènements stressants sur l'adaptation psychosociale des enfants. Une autre étude, celle de Waite et al. (2011) souligne le fait que la chaleur fraternelle est un facteur de protection contre les symptômes de dépression pour les évènements qui concernent la famille dans son ensemble. 212 Chapitre 5. Discussion V. Contexte familial Les analyses statistiques font ressortir des liens entre deux aspects du contexte familial et certaines composantes de l'appropriation de la famille recomposée par l'enfant. Plus précisément, le sexe et la configuration de la fratrie semblent influencés l'adaptation socioaffective des enfants. Il apparaît que les enfants appartenant à une fratrie mixte présentent davantage de difficultés d'adaptation intériorisée. Les fratries sont définies comme plus conflictuelles que les fratries unisexes ce qui pourrait expliquer que les enfants de ces fratries aient plus de difficultés d'adaptation intériorisée (Toman, 1987). Au niveau de la configuration les fratries dont l'aîné est une fille et le cadet un garçon, sont celles qui rencontrent le plus de difficultés d'adaptation intériorisée et générale. La soeur ainée d'un cadet a tendance à jouer un rôle maternel auprès de son cadet par identification à la mère (Toman, 1987 ; Widmer, 1999). Les soeurs aînées jouent davantage le rôle de parent que les garçons (Widmer, 1999). Ce rôle peut être plus important dans la recomposition familiale et constitué une source de troubles de l'adaptation intériorisée et générale. L'écart d'âge dans les fratries, par contre, semble être associé à la représentation de la famille et à l'efficacité de la stratégie de coping « retrait social ». Ainsi les enfants dont l'écart d'âge avec le frère/soeur est compris entre 0 et 2 ans tendent à avoir une représentation de la famille dite « famille d'origine » alors que ceux qui l'écart d'âge est compris entre 2 et 4 ans ont davantage une représentation de la famille dite « globale ». Plus l'écart d'âge dans la fratrie est élevé, moins les enfants sont affectés par l'arrivée d'un cadet et la rivalité fraternelle est moins forte (Toman, 1987 ; Angel, 1996 ; Rufo, 2002). Les enfants de ces fratries pourraient être plus ouverts à l'idée d'intégrer de nouveaux membres dans leur famille. Pour ce qui concerne l'efficacité de la stratégie « retrait social », les enfants dont l'écart d'âge avec le frère/soeur est compris entre 2 et 4 ans sont plus enclins à estimer cette stratégie comme efficace. Ce résultat peut s'expliquer par le fait que les enfants de l'écart d'âge compris entre 2 et 4 ans ont vécu plus longtemps seuls que ceux dont l'écart d'âge est compris entre 0 et 2 ans. En dehors des caractéristiques de la fratrie, seul le mode de garde est associé à l'appropriation de la famille par l'enfant, notamment à sa représentation de la famille. Ainsi comme le montre le croisement entre ces deux variables, les enfants en résidence alternée ont tous une représentation de la famille dite « famille globale » et ceux en garde principale chez la mère une représentation dite « famille d'un foyer ». Il est possible ici d'émettre l'hypothèse selon laquelle, les enfants en résidence alternée vont plus développer le sentiment d'appartenir 213 Chapitre 5. Discussion aux deux foyers de la constellation que ceux en garde principale du fait de l'équivalence du temps qu'ils passent dans chaque foyer. VI. Temps Les facteurs du temps pris en compte dans notre étude sont : l'âge au moment de la recomposition, le temps écoulé depuis la séparation et la durée recomposition. L'âge des enfants au moment de la recomposition semble lié à l'efficacité de la stratégie de coping « régulation émotionnelle » et à la qualité de vie des enfants. Les analyses statistiques indiquent que plus les enfants sont âgés au moment de la recomposition, plus ils trouvent cette stratégie de coping efficace. L'association est plutôt négative et pour ce qui concerne la qualité de vie des enfants. En effet plus les enfants sont âgés au moment de la recomposition, moins ils sont satisfaits de leur vie. Nous pouvons supposer que les enfants les plus âgés ont plus de difficultés à accepter la recomposition parce qu'ils ont vécus plus longtemps dans la famille nucléaire et accepter moins bien les changements que les plus jeunes. Un lien apparait entre le temps écoulé depuis la séparation et l'efficacité de la stratégie de coping « soutien social », plus ce temps est élevé plus les enfants accordent de l'efficacité à cette stratégie. Le soutien social étant la stratégie la plus utilisée et la plus efficace selon les enfants, ce résultat peut être mis en lien avec la corrélation qui apparaît entre le temps passé dans une famille recomposée et le niveau de stress perçu par les sujets dans l'étude de Lutz (1983). Plus les participants à cette étude qui avaient passés plus de 2 ans dans la famille recomposée exprimaient moins de stress que ceux qui y vivent depuis un temps en dessous de deux ans Lutz (1983). Le soutien social peut être encore plus efficace avec le temps parce que le niveau de stress a également diminué. Quant à la durée de la recomposition, elle semble influencer l'adaptation socio-affective des enfants, les analyses statistiques montrent que plus la première recomposition est ancienne, moins les enfants présentent de difficultés d'adaptation intériorisée, extériorisée et générale au CBCL. Ces résultats sont contraires à ceux obtenus par Saint-Jacques et Chamberland (2000) et selon lesquels, le temps écoulé ne favorise pas une meilleure adaptation chez les jeunes : Plus la recomposition est ancienne plus la proportion de jeune avec un faible niveau d'adaptation est élevé. La différence entre les résultats peut être attribuée aux caractéristiques des familles recomposées et aux processus proximaux tels que les relations dans la fratrie germaine. 214 Chapitre 5. Discussion VII. Comparaison des enfants au sein d'une même fratrie Les comparaisons faites entre les enfants d'une même fratrie mettent en exergue les différences et les similitudes entre les enfants d'une même fratrie. Les divergences sont plus importantes au niveau de la représentation de la famille et des stratégies de coping, il n'y a presque pas de similitude entre les enfants des dyades sur les stratégies qu'ils trouvent efficaces. Au niveau de l'adaptation socio-affective et du coping, les divergences sont faibles seulement deux dyades pour chacune de ces composantes. Concernant la signification de la fratrie, trois dyades ont des représentations différentes. Dans la majorité des dyades, les enfants ont la même représentation de leurs relations fraternelles. Ces divergences et ces concordances dans le vécu familial et l'appropriation de la famille par les enfants renvoient à une appropriation de la famille propre à chaque enfant, mais également à l'influence du milieu sur cette appropriation. Ces données sont cohérentes avec celle de Mietkiewicz (2005), selon laquelle des frères et soeurs d'une même famille et des jumeaux qui occupent la même place dans la famille, ont des représentations différentes de leur famille. Ces disparités montrent, selon l'auteur, que les modalités relationnelles valorisées et autorisées par les parents ne suffisent pas à déterminer leurs représentations. 215 Conclusion Conclusion Notre recherche porte sur l'appropriation de la famille recomposée par l'enfant en lien avec ses relations fraternelles, ses caractéristiques personnelles et son contexte familial, dans une perspective bioécosystémique (Bronfenbrenner, 1996). L'objectif de ce travail est d'analyser la recomposition familiale du point de vue de l'enfant, à partir des processus psychologiques et sociaux par lesquels il s'approprie la famille recomposée. Nous nous sommes intéressée à sa représentation de la famille, à ses stratégies de coping ainsi qu'à son adaptation psychosociale et à sa qualité de vie subjective d'une part, et d'autre part, à la relation dans la fratrie germaine et à son influence sur ces processus d'appropriation. L'approche systémique de manière générale constitue le fondement de notre recherche. Dans ce cadre, la famille est étudiée comme un système avec des sous-systèmes interdépendants dans la recomposition familiale et le modèle PPCT (Bronfenbrenner, 1996) permet d'articuler les différents axes de ce travail et de l'opérationnaliser. Cette approche donne à l'enfant une place centrale dans notre étude, tout en mettant l'accent sur les relations dans la fratrie germaine comme processus proximal. Les principaux résultats obtenus au niveau du développement de l'enfant indiquent une appropriation de la famille recomposée propre à l'enfant. Concernant la représentation de la famille, il apparaît que les enfants redéfinissent ou réaffirment les contours de leur famille. Les dessins réalisés par les enfants ont permis d'établir quatre types de représentation de la famille sous-tendues par des logiques : la « famille globale » liée à une logique de continuité, « la famille composite » qui renvoie à des choix sélectifs, la « famille d'un foyer » basée sur une logique de deux familles ou deux composantes familiales distinctes, « la famille d'origine » qui se rapporte à une logique de pérennité de la famille nucléaire. Les membres de la famille des enfants sont des personnes avec qui ils ont des liens biologiques, des personnes significatives, des personnes avec lesquelles ils ont de bon rapport et qui prennent soin d'eux. Les personnes qui sont le plus souvent absentes sont celles qui sont issues de la recomposition : les beaux-parents, les demi et quasi-frères/soeurs. Au niveau des liens familiaux, les enfants donnent aux beaux-parents une position de parent sur la base de leur rôle auprès d'eux et aux demi-frères/soeurs celle de frères/soeurs. Les facteurs qui justifient cette position de frère/soeur sont les liens biologiques, la cohabitation, la proximité liées à leur 216 Conclusion âge et à la participation aux soins qui leur sont donnés. Les résultats obtenus au niveau de la représentation des liens suggèrent que les enfants utilisent leurs relations avec leurs parents et leurs fratries comme référence pour définir leur lien dans la famille recomposée. Les analyses statistiques révèlent un lien entre la représentation de la famille et le sexe. Les filles ont plus tendance à avoir une représentation de la famille « globale », alors que les garçons ont une représentation de la famille « un foyer ». Au niveau du contexte familial le mode de garde semble influencer la représentation de la famille, les enfants en résidence alternée ayant plus une représentation de la famille dite « famille globale » et ceux en garde principale chez la mère une représentation dite « famille d'un foyer ». Au niveau des stratégies de coping, il apparaît que les enfants mobilisent certaines stratégies plus que d'autres pour faire face aux difficultés qu'ils peuvent rencontrer et évaluent l'efficacité de ces stratégies. Les facteurs de stress évoqués par les enfants se rattachent en premier aux relations conflictuelles avec leurs beaux-parents, ensuite à la séparation des parents et aux modifications dans les relations parents-enfants qu'elle entraîne. Le soutien social est la stratégie qu'ils mobilisent le plus souvent et qu'ils trouvent la plus efficace. Les analyses sur le lien entre les stratégies de coping et les caractéristiques personnelles indiquent une association entre l'âge et l'efficacité des stratégies de coping « retrait social », « blâmer les autres », « régulation émotionnelle » et « soutien social ». Il semble que plus les enfants sont âgés plus ils trouvent les stratégies efficaces. Le sexe des enfants est plutôt associé à la fréquence d'utilisation de la stratégie « résignation ». Les garçons utilisent plus « la résignation » comme stratégie de coping que les filles. Pour ce qui concerne le contexte familial, les enfants dont l'écart d'âge avec le frère/soeur est compris entre 2 et 4 ans sont plus enclins à estimer la stratégie « retrait social » comme efficace. Les variables du temps l'âge des enfants au moment de la recomposition et le temps écoulé depuis la séparation ont un lien avec les stratégies de coping. L'âge des enfants au moment de la recomposition semble lié à l'efficacité de la stratégie de coping « régulation émotionnelle », plus les enfants sont âgés au moment de la recomposition, plus ils trouvent cette stratégie de coping efficace. Le temps écoulé depuis la séparation influence l'évaluation de l'efficacité de la stratégie de coping « soutien social », plus ce temps est élevé plus les enfants accordent de l'efficacité à cette stratégie. 217 Conclusion De manière générale, Les enfants présentent une adaptation socio-affective satisfaisante. La majorité des enfants de notre échantillon se situent en zone non pathologique aux différentes échelles d'adaptation pour les échelles d'adaptation intériorisée et extériorisée et pour l'adaptation générale. Pour les trois échelles combinées, enfants se situent dans la zone non pathologique. L'adaptation socio-affective des enfants semble influencée par des variables du contexte familial, notamment par le sexe et la configuration de la fratrie. Il apparaît que les enfants appartenant à une fratrie mixte présentent davantage de difficultés d'adaptation intériorisée que ceux d'une fratrie unisexe. Au niveau de la configuration, les fratries dont l'aîné est une fille et le cadet un garçon, sont celles qui rencontrent le plus de difficultés d'adaptation intériorisée et générale. Les analyses montrent un effet du temps sur adaptation socio-affective des enfants, plus la première recomposition est ancienne, moins les enfants présentent de difficultés d'adaptation intériorisée, extériorisée et générale au CBCL. Enfin, les enfants ont en général une qualité de vie satisfaisante. Celle-ci semble liée à l'âge des enfants au moment de la recomposition, de sorte que, plus les enfants sont âgés au moment de la recomposition, moins ils sont satisfaits de leur vie. Sur le plan du processus proximal, l'objectif des entretiens sur la fratrie était de relever avec l'enfant les difficultés liées à des composantes de la recomposition puis d'analyser avec lui les ressources et les contraintes de la fratrie germaine dans ces situations. Au niveau de la séparation, les enfants évoquent des sentiments de tristesse, d'inquiétude et des difficultés à comprendre la situation ainsi qu'un effet négatif sur les relations père-enfant. Concernant la garde conjointe et le fait d'avoir deux résidences, les enfants relèvent les avantages de la garde conjointe, la plus importante étant le maintien des relations avec les deux parents. Les difficultés se rapportent au temps des trajets, au fait de se perdre dans l'organisation des temps de garde dans la garde principale quand les périodes pour chaque parent changent beaucoup et à l'absence de concordance éducative entre les deux foyers. Pour ce qui concerne les beaux-parents, les enfants évaluent les aspects positifs de leur présence dans la famille en termes de bonheur des parents et, pour eux, le fait de retrouver un équilibre dans la structure familiale (Saint-Jacques & Chamberland, 2000 ; Ganong & al., 2011). Les difficultés liées aux beaux-parents sont pour les enfants le durcissement des règles dans la famille et la 218 Conclusion sévérité des beux-parents envers eux et les différences faites entre les enfants et les effets négatifs sur leur relation avec leurs parents. Au niveau des quasi-frères, il ressort que les relations avec eux peuvent être positives parce qu'elles comportent moins de conflits qu'une fratrie germaine. De plus, quand ils ont le même âge que l'enfant, ils représentent des compagnons de jeu en plus. Ces relations sont conflictuelles pour certains enfants et pour d'autres elles sont neutres. Les enfants expriment dans leur grande majorité leur proximité avec leurs demi-frères/soeurs qu'ils considèrent comme des frères. Il ressort des entretiens que les enfants apprécient de prendre soins d'eux et, pour certains enfants, ils facilitent les relations avec les beaux-parents de manière indirecte, dans la mesure où ils retiennent l'attention des beaux-parents, qui sont moins disponibles et ont de ce fait, moins d'interactions et moins de conflits avec eux. La recomposition familiale peut avoir un effet négatif sur les relations avec le frère/soeur germain en exacerbant la rivalité et la jalousie entre enfant ou un effet positif sur ces relations quand elles rapprochent encore plus les frères et soeurs. Il ressort des entretiens que dix enfants se représentent leurs relations avec leur frère/soeur germain comme une ressource, six comme une contrainte et sept comme neutre. Elles sont une ressource pour l'enfant lorsqu'elles permettent de se distraire et de ne pas se sentir seul. La présence d'un frère/soeur permet de rester dans son sous-système. Les enfants essayent de mieux comprendre les transitions familiales avec leurs frères/soeurs. La fratrie germaine constitue un cadre de discussion et d'échange sur le vécu familial. Le frère/soeur peut être un substitut parental en soutien à un parent ou pour compenser une relation parent-enfant devenue conflictuelle après le divorce. La relation dans la fratrie germaine est une ressource particulière et différente des autres parce que c'est une relation stable, les frères et soeurs partagent la même expérience familiale, les enfants peuvent se faire confiance pour évoquer leurs difficultés, par exemple, avec les beaux-parents et mettre en place des stratégies en secret parce qu'ils n'ont tous les deux pas de liens biologiques avec eux. Au contraire, elles constituent une contrainte lorsqu'elles sont conflictuelles, les conflits pouvant être liés à la rivalité pour l'attention des parents comme le souligne Hetheringthon (1999), ou à une divergence dans le vécu des transitions familiales. La représentation neutre renvoie à une relation qui n'est pas conflictuelle mais qui n'a pas une signification particulière dans la recomposition. Les comparaisons entre les enfants d'une même fratrie font ressortir cette différence de vécu familial entre les enfants surtout dans leur représentation de la famille et leurs stratégies de 219 Conclusion coping. Des similitudes ont également été relevées entre les enfants surtout au niveau des représentations des relations fraternelles. Au vu de ces différents résultats obtenus au terme de notre recherche, la contribution de notre travail aux études sur le développement de l'enfant de famille recomposée se situe à différents niveaux : d'abord, elle apporte des éléments à la compréhension de la famille selon le point de vue l'enfant. En effet, elle donne des indications sur son vécu des transitions, ses représentations de la structure et des relations familiales, ses stratégies de coping, son adaptation socio-affective et sa qualité de vie. Ensuite elle comporte une analyse des ressources et des contraintes des relations dans la fratrie germaine dans le contexte de la recomposition familiale. Cette analyse porte sur des données issues d'entretiens semi-directifs avec les enfants et permet de donner un contenu aux termes de ressource et de contrainte des relations dans la fratrie germaine telles que l'enfant se les représente. Les comparaisons des enfants au sein d'une même fratrie renvoient à des similitudes et des différences dans les dyades fraternelles. Par ailleurs, le recours au modèle PPCT comme cadre théorique apporte une vision plus globale du développement de l'enfant. Il permet d'analyser l'influence des caractéristiques personnelles, du contexte et du temps sur l'appropriation de la famille par l'enfant. Pour autant, ces résultats ne peuvent être généralisés du fait de la taille restreinte de notre échantillon et de son hétérogénéité. En effet, une des limites principales de notre étude est qu'elle porte sur un échantillon de 23 enfants. Elle pose la question de sa représentativité mais aussi celle de la solidité des analyses statistiques conduites puisque nous n'avons pu utiliser de tests paramétriques, généralement admis comme étant plus puissants que les tests non paramétriques. Les recherches qui portent sur la famille recomposée sont réalisées en générale avec des effectifs plus importants notamment en Amérique du nord, surtout lorsqu'elles sont basées sur des questionnaires ou sur des bases de données, ou lorsqu'elles sont internationales (Bjarnason & al., 2012). Mais des études plus qualitatives portent sur des effectifs proches du nôtre voir de moindre importance (Gosselin & al. 2007). Il serait, quoi qu'il en soit, intéressant d'étendre la recherche à une population plus importante et plus homogène, ce qui permettrait de mieux analyser les variations entre sujets. Par ailleurs, notre étude se focalise sur la fratrie germaine comme processus proximal, d'autres relations telles que les relations parents-enfants semblent influencer les relations dans la fratrie germaine et son effet sur le développement de l'enfant. Une étude plus approfondie de ces relations 220 Conclusion pourrait permettre de mieux analyser le lien entre ces deux sous-sytèmes familiaux. Les relations demi-frères/soeurs apparaissent comme une ressource potentielle pour les enfants dans la famille recomposée et pourrait constituer une variable intéressante dans l'analyse de l'évolution des relations dans la famille recomposée. En dehors de la famille, les relations amicales sont d'autres relations entre pairs qui ont été évoquées par certains enfants comme ressource, parce que le frère/la soeur était trop jeune et également parce que les amis ont déjà vécu des transitions familiales. Dans une perspective développementale, il nous paraît intéressant d'appréhender l'évolution des représentations de la famille, des stratégies de coping et des relations dans la fratrie germaine. Ces représentations et ces stratégies peuvent connaître des variations en lien avec l'évolution des relations dans la famille recomposée ainsi que le niveau de développement des enfants et de leur frère/soeur. Les enfants mentionnent des changements avec le temps, des points de vue sur la séparation et la recomposition au sein de la fratrie qui permettent à une relation fraternelle « contrainte » d'évoluer vers une relation « ressource ». Sur un plan pratique, notre étude confirme l'importance des relations dans la fratrie germaine dans le développement de l'enfant de famille recomposée. Elle met en exergue la diversité des ressources que peuvent constituer ces relations pour l'enfant mais aussi les contraintes que constituent les relations conflictuelles. La prise en compte de ces relations et l'évaluation de leurs ressources et contraintes s'avèrent nécessaires dans les prises en charges des enfants (Siméon, 2002). Les résultats de notre travail confirment également l'intérêt d'aborder la famille recomposée du point de vue de l'enfant et de porter une attention particulière à ses représentations et les logiques qui les sous-tendent. 221 Références bibliographiques Références bibliographiques Abbey, C., & Dallos, R. (2004). The experience of the impact of divorce on sibling relationship: a qualitative study. Clinical Child Psychology and Psychiatry, 9 (2), 241259. Achenbach, T.M. (1991). Manuel for the youth self report and 1991 profile. Burlington, VT : University of Vermont Departement of Psychiatry. Adler, A. (1928). Characteristics of the first, second, and third children. Children, 3, 14. Anderson, E.R. (1999). Sibling, half sibling and stepsibling relationships in remarried families. Monographs of the Society for Research in Child Development, 64 (4), 101126. Ainsworth, M. (1991). Attachement and other affectional bonds accross the life cycle. In C.M. Parkes, J. Stevenson-Hinde, P. Maris (Eds.), Attachement accross the life cycle (pp. 3351). London : Routledge. Almodovar, J.P. (1998). Penser les expériences fraternelles. In B. Camdessus (Ed), La fratrie inconnue : Liens du sang, liens du coeur (pp. 51-72). Paris : ESF. Angel, S. (1996). Des frères et des soeurs : les liens complexes de la fraternité. Paris : Robert Laffont. Anzieu, D., Chabert, C. (1995). Les méthodes projectives. Paris : PUF Arditti, J.A. (1991). Differences between fathers with joint custody and noncustodial fathers. American Journal of Orthopsychiatry, 62 (2), 186-195. Arditti, J.A., & Kelly, M. (1994). Fathers' perspectives of their co-parental relationships postdivorce: Implications for family practice and legal reform. Family Relations, 43 (1), 61-67. Babalis, T., Xanthakou, Y., Papa, C. & Tsolou, O. (2011). Preschool age children, divorce and adjustment: a case study in Greek kindergarten. Electronic Journal of research in educational Psychology, 9 (3), 1403-1426. Bandura, A., Caprara, G.V., Barbaranelli, C., Regalia, C., et Scabini, E. (2011). Impact of family efficacity beliefs on quality of family functioning and satisfaction with family life. Applied Psychology, 60 (3), 421-448. Barre, C. (2003). 1,6 million d'enfants vivent dans une famille recomposée. Division enquêtes et études démographique. Paris, INSEE. Baubion-Broye, A., Malrieu, P., Tap, P. (1987). L'interstructuration du sujet et des institutions. Bulletin de psychologie, XL(379), 435-447. Baude, A. & Zaouche Gaudron, C. (2010). Le développement de l'enfant en résidence alternée : revue de la question. Neuropsychiatrie de l'enfance et de l'adolescence, 58(8), 523-531. 222 Références bibliographiques Baude, A. (2012). Développement socioaffectif des enfants en résidence alternée : une approche écosystémique. Conduites intériorisées et extériorisées et qualité de vie des enfants de 4 à 12 ans en résidence alternée. Thèse Doctorat nouveau régime. Université de Toulouse-Le Mirail. Baude, A. & Zaouche Gaudron, C. (2013). L'adaptation socioaffective d'enfants de 4 à 12 ans en résidence alternée : une approche écosystémique Neuropsychiatrie de l''enfance et de l'adolescence. (à paraitre) Baudier, A., & Celeste, B. (2004). Le développement affectif et social du jeune enfant. Paris : Nathan université. Bauserman, R. (2002). Child adjustment in joint-custody versus sole-custody arrangements: A meta-analytic review. Journal of Family Psychology, 16 (1), 91-102. Beaudoin, S., Beaudry, M., Carrier, G, Cloutier, R., Drapeau, S., Duquette, M.T, SaintJacques, M.C., Simard, M., & Vachon, J. (1997). Réflexions critiques autour du concept de transition familiale. Cahiers internationaux de psychologie sociale, 35, 49-67. Beaumatin, A., Espiau, G., & Troupel, O. (2005). Subjectivation de l'enfant, relation interpersonnelles et changements au sein de la famille. In G. Bergonnier-Dupuy (Ed), L'enfant, acteur et/ou sujet au sein de la famille, (pp. 42-53). Ramonville Saint-Agne : Erès. Benghozi, P. (2000). L'intérêt clinique du lien de fratrie, ou le « contenant fratrie » comme étayage du lien généalogique. Dialogue, 150, 105-121. Bernstein, A.C. (1997).Stepfamilies from siblings' perspectives. Marriage and Family Review, 26 (1-12), 153-175. Bertalanffy, L.V. (1973). La théorie générale des systèmes. Paris : Dunod Bjarnason,T., Bendtsen, P., Arnarsson,A.M., Borup, L., Iannotti, R.J., Löfstedt, P., Haapasalo, L., & Niclasen, B. (2012). Life satisfaction among children in different family structures: a comparative study of 36 western societies. Child and Society, 26, 51-62. Blöss, T. (1996). Education familiales et beau-parenté, L'empreinte des trajectoires biographiques. Paris : L'Harmattan. Bognar, G. (2005). The concept of quality of life. Social theory and practice, 31(4), 561-580. Bonach, K. (2005). Factors contributing to quality coparenting: Implications for family policy. Journal of Divorce & Remarriage, 43 (3-4), 79-104. Born, M. (2005) Psychologie de la délinquance. Bruxelles : Editions De Boeck Université. Bourguignon, O., (1999). Le fraternel. In O. Bourguignon (Ed), le fraternel (pp7-80). Paris : Dunod. 223 Références bibliographiques Boulanger, N. (1990). Etude comparative entre les dessins de la maison, de l'arbre et du chemin d'enfants de parents séparents ou divorcés et ceux d'enfants de familles traditionnelles, agés entre 8 et 13 ans. Université du Quebec à trois rivières. Bowlby, J (1969). Attachement et Perte. Vol. 1 l'attachement. Paris : PUF, 1978. Burguière, A. (1993). De la famille en miettes à la famille recomposée. In T, Meulders-Klein & I, Théry (Eds.). Les recompositions familiales aujourd'hui, (pp. 23-31). Paris : Nathan. Braithwaite, D.O., Olson, L., N., Golish, T. D., Soukup, C., & Turman, P. (2001). Becoming a family : Developmental processes represented in blended family discourse. Journal of Applied Communication Research, 29 (3), 221-247 Braithwaite, D.O., McBride, M.C., & Schrodt, P. (2003). 'Parent Teams' and the Everyday Interactions of Co-parenting in Stepfamilies. Communication Reports, 16(2), 93-111. Bronfenbrenner, U. (1979). Toward an ecology of human development. Cambridge, Harvard University Press. Bronfenbrenner, U., & Ceci, J.S. (1994). Nature-Nurture Reconceptualized in Developmental Perspective : A Bioecological model. Psychological review, 101(4), 568-586. Bronfenbrenner, U. (1996). Le modèle PPCT dans la recherche en psychologie du développement : principes, applications et implications. In R. Tessier & M. Tarabulsy (Eds.), Le modèle écologique dans l'étude du développement de l'enfant (pp. 11-59), Sainte-Foy : presses universitaires du Québec. Bronfenbrenner, U. & Morris, P. (1998). The ecology of developmental process. In W. Damon & R.M. Lerner (Eds.), Handbook of child psychology, Vol 1 : theoretical models of human development (pp. 993-1028). USA: John Wiley & Sons. Bronfenbrenner, U. (2005). Making human being human: Bioecological Perspective on Human Development. Sage Publication. Brun, S. (2003). Contribution à l'étude de représentations fraternelles chez les jeunes adultes. Thèse de Doctorat Nouveau Régime. Paris : Université ParisX-Nanterre. Buisson, G., & Lapinte, A. (2013). Le couple dans tous ses états : non-cohabitation, conjoints de même sexe, PACS Insee Premiere, 1435. Bush, J.E., & Ehrenberg, M.F. (2003). Young persons' perspectives on the influence of family transitions on sibling relationships: A qualitative exploration. Journal of Divorce & Remarriage, 39(3-4), 1-35. Cahen, J. (2001). Réussir malgré sa dyslexie : du côté de l'espoir. Paris : L'harmattan. Caillé, P. (2004). Fratries sans fraternité. Cahiers critiques de thérapie familiale et de pratique de réseau, 1(32), 11-22. 224 Références bibliographiques Camdessus, B. (1998). La fratrie : une longue aventure. In B. Camdessus (Ed), La fratrie inconnue : Liens du sang, liens du coeur (pp. 7-16). Paris : ESF. Campbell, A. (1981). The sense of well-being in America: recent patterns and trends; New York: McGraw-Hill. Castellan, Y. (1982). La famille. Paris : PUF. Chapel, A.M., Suldo, S.M., & Ogg, J.A. (2012). Associations between adolescents' family stressors and life satisfaction. Journal of child and family Studies. Chaussebourg, L. (2007). Contribution à l'entretien et l'éducation des enfants mineurs dans les jugements de divorce. INFOSTAT JUSTICE, 93, 1-4. Christensen, D.H., & Rettig, K.D. (1995) The relationship of remarriage to post-divorce coparenting. Clingempeel, W.G., (1981). Quasi kin relationships and marital quality in stepfather families. Journal of personality and social psychology, 41(5), 890-901. Corman, L. (1961). Le test du dessin de la famille. Paris : PUF (Ed. 1990). Cummins, R. A., Lau, A. L. D., Davey, G. & McGillivray, J. (2010). Measuring subjective wellbeing : the personal wellbeing index – Intellectual disability. In R. Kober (Ed), Enhancing the quality of life of people with intellectual disabilities. Social Indicators Research 41, 33-46. Daguet, F (1996). Mariage, divorce et union libre. Division enquêtes et études démographique. Paris, INSEE. De Singly, F. (2002). Sociologie de la famille contemporaine. Paris : Nathan Université. Décoret, B. (1997). Pères séparés pères tout de même. Paris : Economica. De la Haye, A-M. (1982). Composition de la fratrie d'origine et représentation de la famille. Bulletin de Psychologie, 35 (354), pp307-316. Diener, E., Suh, E.M., Lucas, R.E., Smith, H.L. (1999). Subjective well-being: Three decades of progress. Psychological Bulletin, 125(2), 276-302. Dozier, B.S., Sollie, D.L, Stack, L.J., Smith, T.A. 1993). The effects of postdivorce attachment on coparenting relationships. Journal of Divorce & Remarriage, 19(3-4), 109-123. Special issue: The stepfamily puzzle: Intergenerational influences. Drapeau, S., Simard, M., Beaudry, M., & Charbonneau, C. (2000). Siblings in family transitions. Family Relations, 49(1), 77-85. Ducrocq, K. (2004). Coparentalité et recomposition familiale. Mémoire Master recherche, Droit des personnes et de la famille. Université Lille 2- Droit et Santé, Ecole doctorale N°74 faculté des sciences juridiques, politiques et sociales. Dumont, M. (2010). Les stratégies adaptatives. In M. Dumont & B. Plancherel (Eds.), Stress et adaptation chez l'enfant (pp 53-68). Québec : Presse de l'université du Québec. 225 Références bibliographiques Dunn, J., O'Connor, T. G., Levy, I. (2002). Out of picture: A study of family drawings by children from step-, single-parent, and non-step families. Journal of clinical child and adolescent psychology, 31 (4), 505-502. Engfer, S. (1988). The interrelatedness of marriage and the mather-child relationship. In R. A. Hinde & J Stevenson-Hinde (Eds.), Relationships within families: mutual influences (pp. 104-118). Oxford, England : Clarendon. Epstein, N.B., Baldwin, L.M., Bischop, D.S. (1994). The McMaster Family assement divice. Journal of Marital and Family Therapy, 9 (2), 171-180. Erel, O., & Burman, B. (1995). Interrelatedness of marital relations and parent-child relations: A meta-analytic review. Psychological Bulletin, 118 (1), 108-132. Erel, O. & Kissil, K. (2003). The linkage between multiple perspectives of the marital relationship and preschoolers' adjustment. Journal of child and family studies, 12 (4), 411-423. Eschenbeck, H., Kohlmann, C-W., & Lohaus, A. (2007). Gender differences in coping strategies in children and adolescents. Journal of individual differences, 28 (1), 18-26. Espiau, G., & Beaumatin, A. (2003). Rôle de la fratrie dans la socialisation de l'enfant. In M. de Léonardis, V. Rouyer, H., Féchant-Pitavy, C. Zaouche-Gaudron & Y. Prêteur (Eds.), L'enfant dans le lien social : Perspective de la psychologie du développement (pp 113117). Ramonville Saint-Agne : Erès. Farmer, M. (2006). Stepsibling as co-confidants; Conference papers American sociological association, 2006 Annual Meeting Montréal, 1-21. Féchant-Pitavy, H. (2003). Le rôle de la fratrie dans le développement de l'enfant : présentation de deux ouvrants de recherche. In Šulová, C. Zaouche-Gaudron, l'enfant d'âge préscolaire et son monde. Prague : Univerzita Karlova v Praze, Nakladatelství Karolinum. Fine, A. (2001). Pluriparentalités et système de filiation dans les sociétés occidentales. In D. Le Gall & Y. Bettahar. (Eds.), La pluriparentalité (pp. 69-93). Paris : PUF. Fisher, P.A., Leve, L.D., O'Leary, C.C., & Leve, C. (2003). Parental monitoring of children's behavior: Variation across stepmother, stepfather, and two-parent biological families. Family Relations, 52(1), 45-62. Freud, S. (1916); Introduction à la psychanalyse. Paris : PUF. Frosch,C. A., Mangelsdorf, S. C., McHale, J. L. (2000). Marital behavior and the security of preschooler-parent attachment relationships. Journal of Family Psychology, 14 (1), 144-161. 226 Références bibliographiques Fu, V. R., Goodwin, M. P., Sporakowki, M. J., Hinkle, D. E. (1987). Children's thinking about family characteristics and parent attributes. Journal of Genetic Psychology, 148 (2), 153-166. Gable, S., Crnic, K., & Blesky, J. (1994). Coparenting within the family system : influences on children's development. Family Relations, 43, 380-386. Ganong, H.L., Coleman, M., & Jamison, T. (2011). Patterns of stepchild, stepparent relationship development. Journal of Marriage and Family, 73, 396-413. Gass, K., Jenkins, J., & Dunn, J. (2007). Are sibling relationships protective ? A longitudinal study. Journal of child psychology and psychiatry, 48 (2), 167-175. Gatz, M., Pedersen, N.L., Plomin, R. & Nesselroade, J.R. (1992). Importance of schared environments for symptoms of depression in older adults. Journal of abnormal Psychology. 101, 701-708. Gayet, D. (1993). Les relations fraternelles : approches psychologique et anthropologique des fratries. Paris : Delachaux et Niestlé. Gobance, L. (2009) ; Le stress et l'estime de soi des enfsnts en compétition : vers un modèle prenant en compte l'estime de soi dans le processus transactionnel de stress lors des premières confrontations à des situations d'évaluation sociale. Thèse de Doctorat nouveau régime. Université de Reims Champagne Ardenne. Goldbeter-Merinfeld, E. (2004). Frères et soeurs au croisement des temps et des lieux. Cahiers critiques de thérapie familiale et de pratique de réseau, 1(32), 91-104. Golish, T. D. (2003). Stepfamilly communication strengths understanding the ties that bind. Human Communication research, 29 (1), 41-80 Goody, J. (1985). L'évolution de la famille et du mariage en Europe. Paris : Armand Collin. Gosselin, J., Doyon, J., Laflamme, V., David, H. (2007). Etre mère dans une famille recomposée : défis de la conciliation des rôles de belle-mère et de mère biologique. Psychologie Française, 52, 217-229. Graham, K.R. (2010). The step parent role: how it is defined and negotiated in stepfamilies in New Zealand. Thèse de doctorat en philosophie et politiques publique : Victoria University of Wellington. Halpenny, A.M., Greene, S., & Hogan, D.(2008). Children's perspectives on coping and support following parental separation. Child care in practice, 14 (3), 311-325. Hetherington, M.E. (1989). Coping with family transitions: winners, losers and survivors. Child Development, 60, 1-14. 227 Références bibliographiques Hetherington, M.E. (1992). Coping with marital transitions: a family systems perspective. In M.E. Hetherington & W.G. Glingempeel, (Eds.), Coping with marital transitions: a family systems perspective. Hetherington, M.E, (1999). Family functioning and the adjustment of adolescent siblings in diverse types of families. Monographs of the Society for Research in Child Development, 64 (4), 1-25. Hetherington, M.E, Henderson, S.H., Reiss, D. (1999). Adolescent siblings in stepfamilies: family functioning and adolescent adjustment. Monographs of the Society for Research in Child Development, 64 (4), i-209. Hofferth, S.L. (2006). Residential father family type and child well-being: investment versus selection. Demography, 43(1), 53-77. Holder, M.D., & Coleman, B. (2009). The contribution of social relationships to children's happiness. Journal of hapiness studies; 10, 329-349. Holm, P, Holst, J., Perlt, B. (2000). Ecrire ensemble votre vie : la problématique de la qualité de vie au Danemark. In D. Good, G. Magerotte & R. Leblanc (Eds.) Qualité de vie pour les personnes présentant un handicap : perspectives internationales. (pp. 11-38). Bruxelle : De Boeck Université. Houzel, D (1999). Les enjeux de la parentalité. Ramonville Saint-Agne : Erès (Ed. 2006) Huang, C.C., Han, W.J., & Garfinkel, I. (2003). Child Support Enforcement, Joint Legal Custody, and Parental Involvement. Social Service Review, 77(2), 255-278. Hurstel, F., & Carré, C. (1993). Processus psychologiques et parentés plurielles. In T. Meulders-Klein & I. Théry (Eds.), Les recompositions familiales aujourd'hui (pp. 191214). Paris : Nathan. Jacobs, K. & Sillars, A. (2012). Sibling support during post-divorce adjustment: An idiographic analysis of support forms, functions, and relationship types. Journal of Family Communication, 12(2),167-187 Jaques, K. (2008). Quelle place dans la fratrie ? Identité fraternelle et influence du rang sur la personnalité. Bruxelles : De Boeck. Jourdan-Ionescu, C. & Lachance, J. (2000). Le dessin de la famille : présentation, grille de cotation et éléments d'interprétation. Paris: EAP Juby, H., Lebourdais, C., & Marcil-Gratton, N. (2005). Sharing Roles, Sharing Custody? Couples' Characteristics and Children's Living Arrangements at Separation. Journal of Marriage and Family, 67(1), 157-172. Kempton, T., Arlistead, L., Wierson, M., Forehand , R. (1991). Presence of a sibling as a potential Buffer following parental divorce: an examination of young adolescents. Journal of Clinical Child Psychology, 20 (4), 434-438. King, V., & Sobolewski, J.M. (2006). Nonresident fathers'contributions to adolescent wellbeing. Journal of Marriage and Family, 68 (3): 537-557. 228 Références bibliographiques King, V. (2007).When children have two mothers: relationships with nonresident mothers, stepmothers and fathers. Journanl of Family and Marriage, 69, 1178-1193. King, V. (2009). Stepfamily formation: implications for adolescent ties to mothers, nonresident fathers, and stepfathers. Journal of Marriage and Family, 71, 954-968. Kitzmann, C. (2000). Effects of marital conflict on subsequent triadic family interactions and parenting. Developmental psychology, 36 (1), 3-13. Koot, H.M. (2001). The study of quality of life: concepts and methods. In H.M. Koot & J.L. Wallander (Eds), quality of live in child and adolescent illness: concepts, methods and findings (pp 3-22). New York : Brunner-Routledge Lacan, J. (1938). Les complexes familiaux. Paris : Le Seuil, Navarin, 1984. Lamb, M E. (1997). L'influence du père sur le développement de l'enfant. Enfance, 3, 337-349. Laterrasse, C (1993). Le développement de la fonction symbolique (représentation et langage). In Not, L. (Ed.) Le développement psychologique de l'enfant et de l'adolescent, (pp. 67-90). Toulouse : éditions Universitaires du Sud. Lazarus, R.S. (1966). Psychological stress and the coping process. New York : McGraw-hill. Lazarus, R.S., Folkman, S. (1984). Stress, appraisal, and coping. New York : Springer publishing company. Le Camus, J. (2001). La fonction du père dans les premières années de la vie de l'enfant. Perspectives ouverts par la psychologie du développement. In C, Zaouche-Gaudron (Ed.), Problématique paternelle, (pp. 75-93). Ramonville Saint-Agne : Erès. Lett, D., Histoire des frères et soeurs. Paris : La Martinière. Litton, G.F., Kelly, R.F., (1995). Determinants of child custody arrangements at divorce. Journal of Marriage & the Family, 57(3), pp. 693-708. Lockwood, R.L., Gaylord, N.K., Kizman, K.M., & Cohen, R. (2002). Family stress and children's rejection by peers: Do siblings provide a buffer? Journal of child and Family Studies. 11, 331-345. Lutz, P. (1983). The stepfamily: an adolescent perspective. Family Relations, 32, 367-375. Lykken, D., Tellegen, A., (1996). Happiness is a stochastic phenomenon. Psychological science 7(3), 186-189. Maccoby, E.E., Depner, C.E., & Mnookin, R.H. (1990). Coparenting in the second year after divorce. Journal of Marriage & the Family, 52(1), 141-155. Macdonald, W. L., & DeMaris, A. (2002). Stepfather-stepchid relationship quality. Journal of Family Issues, 23(1), 121-137. Magnusson, K.A, & Berger, L.M. (2009). Family structure states and transitions: associations 229 Références bibliographiques with children's well-being during middle childhood. Journal of Marriage and Family, 71 (3), 575-591. McGue, M., & Christensen, K. (1997). Genetics and environmental contributions to depression symptomatology: evidence from Danish twins 75 years of age and older. Journal of abnormal psychology. 106, 439-448. Mahler, M., Pine, F., & Bergman, A. (1975). La naissance psychologique de l'être humain. Paris : Science de l'Homme Payot (Ed. française, 1980). Malrieu, P., & Malrieu, S. (1973). La socialisation. In H. Gratiot-Alphandéry et R. Zazzo (Eds), Traité de psychologie de l'enfant vol. 5 (pp 10-234). Paris : PUF. Malrieu, P. (1976). Etude génétique de la construction du sujet. Psychologie et éducation, 259(1),3-22. Manificat, S. & Dazord, A. (1997).Evaluation de la qualité de vie de l'enfant : validation d'un questionnaire, premiers résultats. Neuropsychiatrie de l'enfant et de l'adolescent. 45 (3), 106-114. Martial, A. (1997). Actes du colloque « la famille : Les nouveaux équilibres ». Union régionale des associations familiales Midi-Pyrénées. Toulouse. McHale, J., Kuersten-Hogan, R., Lauretti, A., & Rasmussen, J.L. (2000). Parental reports of coparenting and observed coparenting behavior during the toddler period. Journal of Family Psychology, 14 (2), 220-236. Martin, V., Lebourdais, C., Lapierre-Adamcyk. (2011). Stepfamily instability in Canada, the impact of family composition and union type. Journal of family research, 23, 196-218. Mercier, C., Filion, J. (1987). La qualité de vie : perspectives théoriques et empiriques. Santé mentale au Québec, 12(1), 135-143. Michalos, A.C., (1985). Multiple discrepancies theory (MDT). Social Indicators research, 16, 347-413. Mietkiewicz, M-C. & Schneider, B. (2005). L'enfant et sa famille recompsée. In G, Bergonnier-Dupuy (Ed), l'enfant acteur et/ou sujet au sein de la famille, (pp.103-111). Ramonville Saint-Agne : Erès. Meynckens-Fourez, M. (2002). La fratrie : le point de vue éco-systémique. In, E., TilmansOstyn et M., Meynckens-Fourez (Eds), Les ressources de la fratrie, (pp.37-68). Ramonville Saint-Agne : Erès. Meynckens-Fourez, M. (2004). Frères et soeurs : entre disputes et complicités, entre amour et haine. Réflexion thérapeutique. Cahiers critiques de thérapie familiale et de pratique de réseau, 1(32), 67-89. Minuchin, S. (1974). Families and family therapy. Cambridge : Harvard university Press. 230 Références bibliographiques Naouri, A. (1995). Un homme qui divorce de sa femme divorce toujours de ses enfants. In I. Théry (Ed), Recomposer une famille, des rôles et des sentiments (pp.69-83). Paris : Textuel. Nehami, B. (2003). Divorce process variables and the co-parental relationship and parental role fulfillment of divorced patients. Family Process, 42 (1), 117-131. Nehami, B. (2004). Typology of post-divorce parental relationships and behaviors. Journal of Divorce & Remarriage, 41 (3-4), 53-79. Neyrand, G. (2003). Etre co-parents après la séparation, une entreprise incertaine. Pratiques psychologiques, 2, 67-77. NICH (National Institute of Child Health and Human Development Early Child Care Research Network) (2004). Fathers' and mothers' parenting behavior and beliefs as predictors of children' s social adjustment in the transition to school. Journal of Family Psychology,18 (4), 628-638. Nicolotti, L., El-Sheikh, M. & Whitson, S.M. (2003). Children coping with marital conflict and their adjustment and physical health: vulnerability and protective functions. Journal of Family Psychology. 17 (3), 315-326. Nixon, E., Greene, S., & Hogan, D. (2012). "Like an uncle but more, but less than a father": Irish children's relationships with nonresident fathers. Journal of Family Psychology, 26 (3), 381-390. Oberle, E., Schonert-Reichl , K.A., & Zumbo, B.D. (2011). Life satisfaction in early adolescence: personal, neighborhood, shool, family and peer influences. Journal of Youth and Adolescence, 40, 889-901. Oldehinkel, A.J., Ormel, J., Veenstral, R., DeWinter, A.F., & Verlhulst, F.C. (2008). Parental divorce and offspring depressive symptoms: Dutch developmental trends during early adolescence. Journal of Marriage and Family, 70, 284-293. Olivier, C. (1996). Que sont les pères devenus ? In G. Neyrand. (Ed) La famille malgré tout (pp. 140-143). Paris : Le Seuil. O'Brian, T.B., Delongis, A., Pomaki, G., Puterman, E., Zwicker, A. (2011). Couple coping with stress: the role of empathic responding. European Psychologist, 14 (1), 18-28. Paquette, D. (2004). La relation père-enfant et l'ouverture au monde. Enfance, 2, 205-225. Pauhan, I. (1992). Le concept de coping. L'année Psychologique, 92 (4), 547-557. Phélip, J. (2006). Le livre noir de la garde alternée. Paris : Dunod. Pike, A., Coldwell, J., & Dunn, J.F. (2005). Sibling relationships in early/middle childhood: links with individual adjustment. Journal of Psychology, 19 (4), 523-532. Pinel-Jacquemin, S. (2009). Système familial et attachement : l'influence des relations intrafamiliales sur la qualité de la relation parent-enfants dans les familles de deux 231 Références bibliographiques enfants de 6 à 12 ans. Thèse de Doctorat Nouveau Régime. Université de Toulouse-Le Mirail. Poittevin, A. (2005). Un regard sociologique sur les relations entre enfant dans les familles recomposées. In G. Bergonnier-Dupuy (Ed), L'enfant, acteur et/ou sujet au sein de la famille, (pp. 93-101). Ramonville Saint-Agne : Erès Polard, J. (2000). Les recompositions familiales et le travail psychique de recomposition. Dialogue, 150, 63-69. Porot, M. (1954). L'enfant et les relations familiales. Paris : PUF, 1971. Potter, D. (2010). Psychosocial well-being and the relationship between divorce and children's academic achievement. Journal of Marriage and Family, 72, 933-946. Poussin, G., & Martin-Lebrun, E. (1997). Psychologie de la séparation parentale. Paris: Dunod. Pruett, M.K., Williams, T.Y., Insabella, G., & Little, T.D. (2003). Family and legal indicators of child adjustment to divorce among families with young children. Journal of Family Psychology, 17(2), 169-180. Replay, M. (2003).Quality of live research : a critical introduction. London : Sage publication. Renaud. (1997). Les changements. In J. Zwick (Ed). La famille autrement, petite histoire d'une révolution tranquille (pp. 7-19). Bruxelles : Labor Richet-Mastain, L. (2005). Bilan démographique 2004 : Nette diminution des décès. Division Enquêtes et Etudes démographiques. Paris : INSEE. Roberts, E., Bornstein, M., Slater, A., Barrett, J. (1999). Early cognitive development and parental education. Infant and Child Development, 8, 49-62. Robitaille, D., Côté, C. (2011). Une grille d'évaluation systémique des familles recomposées. Service Social, 39 (3), 135-156. Rodríguez, F.M.M., Torres, M.V.T., & Páez, J.M. (2012). Gender and age differences in how children cope with daily stress. Electronic Journal of Research in Educational Psychology, 10 (1), 095-110. Roe, A., Bridges, L., Dunn, J., O'Connor, T. (2006). Young children's representations of their families: a longitudinal follow-up study of family drawing by children living in different family setting. International Journal of biehavioral Development 30 (6), 529-536. Rottman, H. (2006). Le syndrome de Salomon. In J. Phélip (Ed), Le livre noir de la résidence alternée (pp.84-121). Paris : Dunod. Rouyer, V. (2003). Concordance éducative du couple parental et construction de l'identité sexuée des 232 Références bibliographiques filles et des garçons de 4 ans. Pratiques psychologiques, 2, 23-32. Rufo, M., (2002). Frères et soeurs, une maladie d'amour. Paris : Fayard. Ryan, R.M. & Claessens, A. (2012). Associations between family structure changes and chidren's behavior problem: the moderating effects of timing and marital birth. Developmental Psychology Saint-Jacques, M.-C., Chanberland, C. (2000). Que nous apprend une lecture écologique de l'adaptation des jeunes de familles recomposées. In M. Simard & J. Alary (Eds), Comprendre la famille : actes du 5e symposium québécois de recherche sur la famille. Québec : Presses de l'Université du Québec. Saint-Jacques, M.-C., & Cloutier, R. (2004). Recomposition familiale et adaptation des enfants. Psychologie Québec, Mars, 18-23. Saint-Jacques, M.-C., Cloutier, R., Pauzé, R., Simard, M., Gagné, M.H., Poulin, A. (2006). The impact of serial transitions on behavioral and psychological problems among children in child protection services. Child Welfare, 85 (6), 941-964. November/December. Saint-Jacques, M.-C., & Lépine, R., (2009). Le style parental des beaux-péres dans les familles recomposées. Canadian Journal of Behavioural Science, 41 (1), 22-30. Sandler, I.N., Tein, J.Y., Mehta, P., Wolchik, S., & Ayers, T. (2000). Coping efficacity and psychological problems of children of divorce. Child Development 71 (4), 1088-1118. Sbarra, D.A., & Emery, R.E. (2008). Deeper into divorce: Using actor-partner analyses to explore systemic differences in coparenting conflict following custody dispute resolution. Journal of Family Psychology, 22 (1), 144-152. Schvaneveldt, J. D., Fryer, M., Ostler, R. (1970). Concepts of 'badness' and 'goodness' of parents as perceived by nursery school children. Family Coordinator, 19 (1), 98-103. Schudlich, T. D. R., Shamir, H., Cummings, E. M. (2004). Marital conflict, children's representations of family relationships, and children's dispositions towards peer conflict strategies. Social development, 13 (2), 171-192. Shamir, H., Schudlich, T. D. R., Cummings, E. M. (2001). Marital conflict, parenting styles, and children's representations of family relationship. Parenting Science and Practice, 1, (1-2), 123151. Shamir, H., Cummings, E. M., Davies, P.T. & Goeke-Morey, M. C. (2005). Children's reactions to marital conflict in Israel and in the United States. Parenting Science and Practice, 5 (4), 371-386. 233 Références bibliographiques Selye, H. (1956). The stress of life; New York : McGraw-Hill Seltzer, J.A. (1991). Relationships between fathers and children who live apart: The father's role after separation. Journal of Marriage and the Family, 53, 79-101. Seltzer, J. A., & Bianchi, S. M. (1988). Children's contact with absent parents. Journal of Marriage and the Family, 50, 663–677 Siméon, M. (1999). Que sont les fratries devenues dans les séparations et les recompositions ? In E. Tilmans-Ostyn & M. Meynckens-Fourez (Eds), Les ressources de la fratrie (pp 139-163). Ramonville Saint-Agne : Erès. Schalock, R.L., Keith, K.D., Verdugo, M.A. & Gomez, L.E. (2010). Quality of life model development and use in the field of intellectual disability. In R. Kober (Ed), Enhancing the quality of life of people with intellectual disabilities. Social Indicators Research , 41, 17-32. Shapiro, D. N., & Stewart, A. J. (2012). Dyadic Support in Stepfamilies: Buffering Against Depressive Symptoms Among More and Less Experienced Stepparents. Journal of Family Psychology, Aug 27. Shea, W. R., King-Farlow, J. (1976). Values and quality of live. New York : Sciences History Publications. Slattery, M. E., Bruce, V., Halford, W.K., & Nicholson, J.M. (2011). Predicting married and cohabiting couples' futures from their descriptions of stepfamily life. Journal of Family Psychology, 25 (4). Spirito, Stark, William (1988). Development of a brief coping checklist for use with pediatric populations. Journal of pediatriac psychology, 13 (4), 555-574. Spitz, R. A. (1965). L'enfant et sa famille. Paris : Payot, 1995. Stallard, P., Velleman, R., Langsford, J., Baldwin, S., (2001). Coping and psychological distress in children involved in road traffic accidents. British Journal of clinical Psychology, 40, 197-208. Stewart, R.B. (1983).Sibling attachment relationships: Child-infant interaction in the Strange Situation. Developmental Psychology, 19 (2), 192-199. Stewart, R.B., & Marvin, R.S. (1984). Sibling relations: The role of conceptual perspectivetaking in the ontogeny of sibling caregiving. Child Development, 55, 1322-1332. Stewart, S. D. (1999). Nonresident mothers and fathers social contact with children. Journal of Marriage and the Family, 61 (4), 894-907. Stewart, S. (2010). Children with nonresidentparents: living arrangements, visitations and child support. Journal of Family and Marriage, 72, 1078-1091. 234 Références bibliographiques Strohschein, L. (2005). Parental divorce and child mental health. Journal of Mariage and Family, 67, 1286-1300. Sturgle-Apple, M. L., Davies, P.T., Boker, S. M., Cummings, E. M. (2004). Interparental discord and parenting: testing the moderating roles of child and parent gender. Parenting Science and Practice, 4 (4), 361-380. Sun, Y. & Li, Y. (2011). Effects of family structure type and stability on children's academic performance trajectories. Journal of Marriage and Family. 73, 541-556. Tap, P. (1988). La société pygmalion? Intégration sociale et réalisation de la personne. Paris : Dunod. Tillman, K.H. (2008). 'Non-traditional'siblings and the academic outcomes of adolescents. Social Science Research. 37, 88–108. Théry, I. (1991). Trouver le mot juste. Langage et parenté dans les recompositions familiales après le divorce. In M. Segalen (Ed), Jeux de famille (pp.137-156) Paris : Presses du CNRS; Théry, I. (1993). Le temps des recompositions familiales. In T, Meulders-Klein & I, Théry (Eds.), Les recompositions familiales aujourd'hui, (pp. 5-21). Paris : Nathan. Théry, I. (1995). Parent / beau-parent, refonder les places pour libérer les sentiments. In I. Théry (Ed), Recomposer une famille, des rôles et des sentiments (pp. 87-111). Paris : Textuel. Théry, I. (1997). Actes du colloque « la famille : Les nouveaux équilibres ». Union régionale des associations familiales Midi-Pyrénées. Toulouse. Thom, R. (1972). Stabilité structurelle et morphogenèse. Paris : Interéditions. Toman, W. (1987). Constellations fraternelles et structures familiales : leurs effets sur la personnalité et le comportement. Paris : ESF. Troupel-Cremel, O. (2006). Attachement fraternel, styles des relations et des interactions de tutelle au sein des fratries de jeunes enfants : effet modulateur de la représentation des relations fraternelles de l'aîné. Thèse de Doctorat nouveau régime. Toulouse : Université de Toulouse II- Le Mirail. Vaillant, G.E. (1977). Adaptation to life. Boston : Little Brown. Vaillant, G.E. (2000). Adaptive mental mechanisms : their role in positive psychology. American psychologist, 55 (1), 89-98. Vandewater, E.A. & Lansford, J.E. (2012). Influence of family structure and parental conflict on children's well-being. Family relations, 47 (4), 323-330. Vierhaus, M., & Lohaus, A., (2009). Children perception of relations between anger or 235 Références bibliographiques anxiety and coping : continuity and discontinuity of relational structures. Social Development, 18 (3), 747-763. Villeneuve-Gokalp, C. (1993). De la famille d'origine à la famille recomposée. In T, Meulders-Klein & I, Théry (Eds.). Les recompositions familiales aujourd'hui (pp. 67-79). Paris : Nathan. Vivas, E. (2009). 1,2 million d'enfants de moins de 18 ans vivent dans une famille recomposée. Insee Premiere, 1259. Waite, E.B., Shanahan, L., Calkins, S.D., Keane, S.P., & O'Brien, M. (2011). Life events, sibling warmth, and youths'ajustment. Journal of Marriage and Family, 73, 902-913. Wallon, H. (1949). Les origines du caractère chez l'enfant. Paris : PUF, 1998. Wallon, H. (1952). Les étapes de la socialisation. Enfance, n°spécial, Henri Wallon, 1985, 309-323 Wallon, H. (1946). Le rôle de l'autre dans la conscience du moi. Enfance, n° spécial, Henri Wallon, 1985279-286. Wallon, H. (1942). De l'acte à la pensée. Paris : Flammarion, 1970 Wallon, H. (1954). Les milieux, les groupes et la psychogenèse de l'enfant. Enfance, 1985. Numéro spécial, Henri Wallon. Watson, M. W. & Amgott-kwan, T. (1983). Transitions in children's understanding of parental roles. Developmental Psychology, 19 (5), 659-666. Wedemeyer, N.V., Bickhard, M. H., Cooper, R. G. (1989). The development of structural complexity in the child's concept of family: The effect of cognitive stage, sex, and intactness of family. Journal of Genetic Psychology, 150 (4), 341-357. Widmer, E. (1999). Les relations fraternelles des adolescents. Paris : PUF. Widmer, E.D., & Weiss, C.C. (2000). Do older sibling make a difference? The effect of older sibling adjustment of socially disadvantaged adolescents. Journal of Research on Adolescence, 10 (1) 1-27. Winnicott, D. W. (1957). L'enfant et sa famille. Paris : PUF, 1995. Winkin, Y. (2000). La nouvelle communication. Paris : Editions du Seuil. Winter, J.P. (1995).Des liens innommables. In I. Théry (Ed), Recomposer une famille, des rôles et des sentiments (pp.55-68). Paris : Textuel. Winter, M. A., Davies, P.T., Hightower, A. D., Meyer, S. C. (2006). Relations among family discord, 236 Références bibliographiques caregiver communication, and children's family representations. Journal of family psychology, 20 (2), 348-351. Wolchik, S., Braver, S., & Sandler, I. (1985). Maternal versus joint custody: Children's postseparation experiences and adjustment. Journal of Clinical Child Psychology, 14 (1). . pp. 5-10. Special issue: Childhood vulnerability: Families and life stress: I. Zaouche-Gaudron, C. (2002). Le développement social de l'enfant. (Du bébé à l'enfant d'âge scolaire). Paris : Dunod. Zaouche-Gaudron, C. (1997). Influence de la différenciation paternelle sur la construction de l'identité sexuée de l'enfant de 20 mois. Enfance, 50 (3), 425-424. Zaouche-Gaudron, C. (2010). Le développement social : Du bébé à l'enfant d'âge scolaire. Paris : Dunod Site internet Statistique Canada, 2012 Statistique Canada, Recensement de la population de 2011 : Les familles et la situation des particuliers dans le ménage au Canada. http://www.statcan.gc.ca/daily-quotidien/120919/dq120919a-fra.htm http://www12.statcan.gc.ca/census-recensement/2011/ref/dict/fam004-fra.cfm Ministère de la justice (2007) http://www.justice.gouv.fr/art_pix/1_stat_divorce_20090722.pdf 237 Index Index Abbey 101, 117, 209, 222 Achenbach iv, v, 3, 21, 199, 222, 246 Adler 93, 222 Ainsworth 95, 96, 97, 117, 222 Almodovar 89, 98, 100, 111, 222 Amgott-kwan 236 Anderson 52, 53, 54, 208, 209, 222 Angel 51, 93, 222 Anzieu 222 Arditti 27, 34, 109, 222 Arlistead 104, 228 Arnarsson 87, 223 Ayers 71, 233 Bornstein 232 Borup 87, 223 Boulanger 224 Bourguignon 91, 92, 223 Bowlby 75, 95, 96, 224 Braithwaite 29, 38, 224 Braver 31, 237 Bridges 60, 232 Bronfenbrenner iv, v, 3, 13, 14, 15, 16, 17, 18, 80, 107, 143, 186, 216, 224, 246 Bruce 39, 234 Brun 93, 224 Buisson 6, 224 Burguière 2, 224 Burman 12, 13, 226 Bush 2, 102, 105, 118, 224 B C Babalis 21, 203, 222 Baldwin 128, 138, 226, 234 Bandura 86, 116, 222 Barbaranelli 86, 222 Barre 3, 222 Barrett 76, 232 Baubion-Broye 1, 57, 222 Baude 25, 27, 31, 32, 110, 207, 222, 223 Baudier 74, 223 Bauserman 31, 109, 223 Beaudoin 19, 223 Beaudry 19, 101, 223, 225 Beaumatin 100, 116, 223, 226 Bendtsen 87, 223 Benghozi 223 Berger 86, 229 Bergman 230 Bernstein 52, 223 Bertalanffy 9, 223 Bianchi 234 Bickhard 60, 236 Bischop 226 Bjarnason 87, 116, 220, 223 Blesky 22, 227 Blöss 37, 46, 111, 223 Bognar 82, 223 Boker 76, 235 Bonach 28, 223 Born 11, 223 Cahen 224 Caillé 91, 118, 224 Camdessus 92, 222, 225 Campbell 84, 225 Caprara 86, 222 Carré 36, 43, 61, 228 Carrier 19, 223 Castellan 19, 225 Ceci 15, 17, 224 Celeste 223 Chabert 222 Chanberland 107, 118, 233 Chapel 88, 116, 206, 225 Charbonneau 101, 225 Chaussebourg 108, 225 Christensen 28, 225, 230 Claessens79, 115, 233 Cloutier 18, 19, 77, 223, 233 Cohen 78, 105, 229 Coldwell 100, 231 Coleman 49, 86, 206, 227, 228 Cooper 60, 236 Corman 196, 225 Côté 232 Crnic 22, 227 Cummings 58, 59, 76, 77, 112, 233, 235 Cummins 85, 225 A 238 Index D Daguet 6, 8, 225 Dallos 101, 117, 209, 222 Davey 225 David 48, 227 Davies 59, 76, 77, 78, 233, 235, 236 Dazord iv, v, 3, 200, 230, 246 De la Haye 225 De Singly 7, 225 Décoret 45, 225 Delongis 40, 231 DeMaris 38, 229 Depner 229 Diener 83, 84, 85, 115, 225 Doyon 48, 227 Dozier 26, 225 Drapeau 19, 40, 101, 223, 225 Ducrocq 23, 225 Dumont 65, 225 Dunn 2, 60, 100, 106, 226, 227, 231, 232 Duquette 19, 223 E Ehrenberg 2, 102, 105, 118, 224 El-Sheikh 71, 231 Emery 26, 233 Engfer 12, 226 Epstein 138, 226 Erel 12, 13, 58, 226 Eschenbeck 72, 114, 212, 226 Espiau 100, 223, 226 F Farmer 53, 208, 226 Féchant-Pitavy 92, 226 Filion 83, 230 Fine 1, 42, 43, 110, 226 Fisher 47, 186, 187, 188, 189, 190, 191, 192, 194, 195, 196, 226 Folkman 66, 67, 68, 113, 229 Forehand 104, 228 Freud 89, 226 Fryer 62, 233 Fu 63, 227 G Ganong 49, 111, 208, 218, 227 Garfinkel 30, 228 Gass 2, 106, 118, 227 Gatz 84, 227 Gayet 89, 90, 91, 227 Gaylord 105, 229 Gobance 68, 227 Goeke-Morey 77, 233 Goldbeter-Merinfeld 91, 227 Golish38, 224, 227 Gomez 82, 234 Goodwin 63, 227 Goody 2, 227 Gosselin 48, 111, 220, 227 Graham 46, 111, 227 Greene 70, 227, 231 H Haapasalo 87, 223 Halford 39, 234 Halpenny 70, 205, 227 Han 30, 228 Henderson 13, 228 Hetherington 13, 35, 39, 40, 48, 69, 102, 105, 111, 118, 139, 209, 211, 227, 228 Hightower 236 Hinkle 63, 227 Hofferth79, 205, 228 Hogan70, 227, 231 Holder 86, 115, 206, 228 Holm 81, 228 Holst 81, 228 Houzel 41, 42, 228 Huang 228 Hurstel 1, 36, 43, 61, 113, 228 I Iannotti 87, 223 Insabella 26, 232 J Jacobs 105, 117, 118, 211, 228 Jamison 49, 227 Jaques92, 93, 228 Jenkins 106, 227 Jourdan-Ionescu 196, 228 Juby 30, 228 Gable 22, 227 239 Index K Keith 82, 234 Kelly 27, 29, 222, 229 Kempton 104, 117, 228 King 50, 80, 82, 86, 111, 228, 229, 234 King-Farlow 82, 234 Kissil 58, 226 Kizman 105, 229 Kohlmann 72, 226 Koot 82, 229 Kuersten-Hogan 23, 230 L Lacan 90, 91, 229 Lachance 196, 228 Laflamme 48, 227 Lamb 75, 229 Langsford 128, 234 Lanneau 112 Lansford 86, 235 Lapierre-Adamcyk 39, 230 Lapinte 224 Laterrasse 57, 229 Lau 225 Lauretti 23, 230 Lazarus 66, 67, 68, 113, 229 Le Camus 75, 114, 229 Lebourdais 30, 228, 230 Lépine 81, 204, 233 Lett 93, 229 Leve 226 Levy 60, 226 Li 235 Little 26, 232, 235 Litton 29, 229 Lockwood 105, 229 Löfstedt 87, 223 Lohaus 72, 113, 226, 235 Lucas 83, 225 Lutz 69, 113, 205, 214, 229 Lykken 84, 229 M Maccoby 24, 25, 229 Macdonald 229 Magnusson 229 Mahler 230 Malrieu iv, v, 55, 56, 57, 112, 222, 230, 246 Manificat 200, 230 Marcil-Gratton 228 Martial 47, 230 Martin 19, 20, 24, 39, 40, 108, 230, 232 Martin-Lebrun 19, 20, 24, 108, 232 McBride 29, 224 McGillivray 225 McGue 84, 230 McHale 23, 77, 230 Mehta 71, 233 Mercier 83, 230 Meyer 59, 236 Meynckens-Fourez100, 230, 234 Michalos 85, 230 Mietkiewicz 230 Minuchin 11, 230 Mnookin 229 Morris 15, 16, 224 N Naouri 45, 110, 231 Nehami 23, 24, 28, 109, 231 Nesselroade 84, 227 Neyrand 1, 4, 7, 8, 23, 25, 33, 109, 231 NICH 77, 231 Nicholson 39, 234 Niclasen 87, 223 Nicolotti 71, 114, 231 Nixon 34, 231 O O'Brian 40, 231 O'Connor 60, 226, 232 O'Leary 226 Oberle 86, 115, 231 Ogg 88, 225 Olivier 5, 231 Olson 38, 224 Ostler 62, 233 P Páez 73, 232 Papa 222 Paquette75, 114, 231 Pauhan 231 Pedersen 84, 227 Perlt 228 Phélip 31, 32, 110, 231, 232 Pike 100, 231 240 Index Pine 230 Pinel-Jacquemin 12, 231 Plancherel 225 Plomin 84, 227 Poittevin 51, 61, 113, 117, 232 Polard 36, 112, 118, 232 Pomaki 40, 231 Porot 100, 196, 232 Potter 21, 109, 232 Poussin 19, 20, 24, 108, 232 Pruett 26, 232 Puterman 40, 231 R Rasmussen 23, 230 Regalia 86, 222 Reiss 13, 228 Renaud 7, 232 Replay 82, 83, 85, 232 Rettig 28, 225 Richet-Mastain 8, 232 Roberts 76, 232 Robitaille 40, 232 Rodríguez 73, 114, 211, 212, 232 Roe 60, 113, 203, 232 Rottman 31, 32, 110, 232 Rouyer 76, 226, 232 Rufo 92, 93, 213, 233 Ryan 79, 115, 233 S Saint-Jacques . 18, 19, 40, 61, 63, 77, 78, 80, 81, 113, 115, 118, 203, 204, 205, 207, 212, 214, 218, 223, 233 Sandler 31, 71, 114, 233, 237 Sbarra 26, 233 Scabini 86, 222 Schalock 82, 234 Schneider 60, 230 Schonert-Reichl 86, 231 Schrodt 29, 224 Schudlich 58, 59, 112, 233 Schvaneveldt 62, 233 Seltzer 33, 45, 234 Selye 64, 234 Shamir 58, 59, 77, 233 Shapiro 47, 234 Shea 82, 234 Sillars 105, 117, 118, 211, 228 Simard 19, 77, 101, 223, 225, 233 Siméon 51, 221, 234 Slater 76, 232 Slattery 39, 234 Smith 26, 83, 225 Sobolewski 228 Sollie 26, 225 Soukup 38, 224 Spirito iv, v, 3, 197, 234, 246 Spitz 74, 234 Sporakowki 227 Stack 26, 225 Stallard 128, 129, 234 Stewart 2, 33, 35, 47, 95, 97, 117, 234 Strohschein 235 Sturgle-Apple 235 Suh 225 Suldo 88, 225 Sun 78, 115, 235 T Tap 1, 56, 57, 222, 235 Tarabulsy 96, 224 Tein 71, 233 Tellegen 84, 229 Théry 1, 2, 3, 4, 41, 42, 44, 46, 61, 108, 110, 113, 117, 224, 228, 231, 235, 236 Thom 9, 235 Tillman 52, 235 Toman 92, 94, 235 Torres 73, 232 Troupel98, 223, 235 Tsolou 21, 222 Turman 38, 224 V Vachon 19, 223 Vaillant 65, 235 Vandewater 86, 235 Velleman 128, 234 Verdugo 82, 234 Vierhaus 72, 113, 235 Villeneuve-Gokalp 1, 236 Vivas 1, 3, 108, 236 W Waite 107, 118, 212, 236 Wallon 56, 58, 74, 91, 114, 236 Watson 62, 113, 236 Wedemeyer 236 241 Index Weiss 100, 106, 236 Whitson 71, 231 Widmer93, 95, 100, 106, 213, 236 Wierson 104, 228 Williams iv, v, 3, 26, 232, 246 Winkin 11, 236 Winnicott 74, 236 Winter 43, 59, 110, 112, 236 Wolchik 31, 71, 109, 207, 233, 237 X Xanthakou 21, 222 Z Zaouche Gaudron 31, 32, 89, 222, 223 Zaouche-Gaudron 12, 74, 75, 114, 226, 229, 237 Zumbo 86, 231 Zwicker 40, 231 242 Liste des figures Liste des figures Figure 1: Les quatre paliers de réponse à chaque item de l'AUQEI -------------------------------------------------------- 132 Figure 2 : Répartition de l'échantillon selon le sexe ----------------------------------------------------------------------------- 143 Figure 3: Répartition des enfants dans les configurations fraternelles ---------------------------------------------------- 145 Figure 4: Répartition des enfants selon les écarts d'âge dans leur fratrie ------------------------------------------------ 146 Figure 5 : Moyennes des fréquences d'utilisation des stratégies ------------------------------------------------------------- 165 Figure 6 : Efficacité des stratégies utilisées --------------------------------------------------------------------------------------- 166 Figure 7: Répartition des enfants en fonction du niveau de satisfaction de vie ----------------------------------------- 168 Figure 8 : Moyenne des scores aux items de l'AUQEI ------------------------------------------------------------------------- 169 243 Liste des tableaux Liste des tableaux Tableau 2: Synthèse des variables et outils ---------------------------------------------------------------------------------------- 137 Tableau 1: Récapitulatif de la constitution de l'échantillon ------------------------------------------------------------------- 141 Tableau 3: Statistiques des âges des sujets de l'échantillon------------------------------------------------------------------- 144 Tableau 4: Statistiques des âges selon la position dans la fratrie ----------------------------------------------------------- 145 Tableau 5: Statistiques des parents de l'échantillon "enfants" en fonction du sexe ------------------------------------- 146 Tableau 6: Catégorie socioprofessionnelle des parents ------------------------------------------------------------------------ 147 Tableau 7: Répartition des parents selon leur statut d'embauche ----------------------------------------------------------- 148 Tableau 8: Répartition des parents selon leur temps de travail -------------------------------------------------------------- 148 Tableau 9: Statut matrimonial des couples avant la séparation ------------------------------------------------------------- 148 Tableau 10: Distance entre les foyers du père et de la mère ------------------------------------------------------------------ 149 Tableau 11: Procédures de décision du mode de garde ------------------------------------------------------------------------ 150 Tableau 12: Répartition des couples et des enfants selon le mode garde-------------------------------------------------- 151 Tableau 13: Répartition des couples et des enfants en fonction de la relation coparentale -------------------------- 151 Tableau 14: Tableau croisé relation coparentale / mode de garde --------------------------------------------------------- 151 Tableau 15: Répartition des familles et des enfants en fonction du nombre de foyers recomposés----------------- 152 Tableau 16: Statut matrimonial actuel dans les foyers recomposés--------------------------------------------------------- 153 Tableau 17: Durée de la relation conjugale et temps depuis la séparation ----------------------------------------------- 154 Tableau 18: Résumé des représentations de la structure familiale ---------------------------------------------------------- 160 Tableau 19 : Statistiques descriptives des scores des enfants pour la fréquence d'utilisation des stratégies ---- 164 Tableau 20 : Statistiques descriptives des scores des enfants pour l'efficacité des stratégies utilisées ------------ 165 Tableau 21 : Distribution des scores T aux sous-échelles et échelles du CBCL ----------------------------------------- 166 Tableau 22 : Répartition des enfants selon les zones pathologiques aux sous-échelles et échelles du CBCL --- 167 Tableau 23: Statistiques descriptives du niveau de satisfaction de vie ----------------------------------------------------- 168 Tableau 24: Représentation des relations dans la fratrie germaine -------------------------------------------------------- 186 Tableau 25: Tableau croisé des variables sexe et représentation de la famille ------------------------------------------ 187 Tableau 26: Résumé des interactions entre les résultats du développement et les caractéristiques personnelles ------------------------------------------------------------------------------------------------------------------------------------------------- 189 Tableau 27: Tableau croisé des variables écart d'âge et représentation de la famille -------------------------------- 191 Tableau 28: Tableau croisé des variables « mode de garde » et « représentation de la famille » ------------------ 192 Tableau 29: Résumé des interactions entre les résultats du développement et les caractéristiques du contexte 193 244 FRATRIE GERMAINE ET APPROPRIATION DE LA FAMILLE RECOMPOSEE PAR L'ENFANT DE 6 A 13 ANS : Une Approche Bioécologique Résumé L'objectif de cette étude est d'analyser comment l'enfant s'approprie la recomposition familiale (Malrieu & Malrieu, 1973 ; Malrieu, 1976) et quels rôles jouent les relations dans la fratrie germaine dans cette appropriation (Bush & Ehrenberg, 2003). Notre analyse se fonde sur une approche bioécosystémique avec le modèle Processus, Personne, Contexte, Temps (PPCT) de Bronfenbrenner (1996), qui nous permet de mettre en lien les facteurs individuels, le contexte de la famille recomposée et le développement de l'enfant. Notre échantillon se compose de 23 enfants de familles recomposées, 12 filles et 11 garçons, âgés de 6 à 13 ans (moyenne d'âge = 9,21 ; écart-type = 2,27). Leurs relations dans la fratrie germaine sont examinées à partir d'un entretien semi-directif. Le processus d'appropriation de la famille recomposée a été appréhendé à l'aide du dessin de la famille, du Kidcope (Spirito, Stark et Williams, 1988), du Child Behavior Checklist (CBCL, Achenbach, 1991) et de l'Autoquestionnaire Qualité de vie-enfant-imagé (AUQEI, Magnificat & Dazord, 1997). Les principaux résultats révèlent des représentations de la famille différentes selon les enfants. Ces représentations indiquent que les enfants font des choix électifs des membres de leur famille sur la base des liens biologiques, des personnes significatives dans leur vie et de la qualité des rapports avec leur entourage. Le facteur de stress le plus souvent évoqué par les enfants est le beau-parent et son approche éducative. La stratégie la plus mobilisée et jugée efficace par les enfants réfère au soutien social. Dans l'ensemble les enfants présentent une adaptation socio-affective et une qualité de vie satisfaisante. Au niveau des représentations des relations dans la fratrie germaine, il ressort qu'elles sont perçues par la majorité des enfants comme une ressource dans la recomposition familiale, étant à la fois continue et soutenante. Les analyses bivariées font ressortir une influence significative de l'âge sur l'efficacité des stratégies de coping, et du sexe sur la représentation de la famille et la fréquence de mobilisation de la stratégie « résignation ». En outre, le sexe et la configuration de la fratrie semblent influencer l'adaptation socio-affective des enfants, tandis que le mode de garde a un effet sur la représentation de la famille. Enfin, un lien apparait entre le temps écoulé depuis la séparation et l'efficacité de la stratégie « soutien social », et la durée de la recomposition semble, quant à elle, influencer l'adaptation socio-affective des enfants. Mots clés : enfant, famille recomposée, modèle bioécosystémique, fratrie germaine, appropriation, représentation de la famille, coping, adaptation socio-affective, qualité de vie. Abstract The present study aimed at investigating how a child appropriates his stepfamily or blended family (Malrieu & Malrieu, 1973; Malrieu, 1976) and how sibling relationships might influence that appropriation (Bush & Ehrenberg, 2003). Our analysis is based on the bioecological approach from Bronfenbrenner (1996) using the Process-Person-Context-Time (PPCT) model, further allowing the correlation of personal characteristics, stepfamily context and child development. The study sample was composed of 23 children: 12 girls and 11 boys between the ages of 6 and 13 (with a 9.21 mean and 2.27 standard deviation), from 15 stepfamilies. The relationships between the siblings were examined using a semi-directive interview. The appropriation process of the stepfamily by the children was investigated on the basis of four methods: the drawing of the family, the Kidcope (Spirito, Stark and Williams, 1988), the Child Behavior Checklist (CBCL, Achenbach, 1991) and the "AUtoquestionnaire Qualité de vie-Enfant-Imagé" (AUQEI, Magnificat & Dazord, 1997). Different family representations are shown from the results. They indicate that children are making elective choices between members of their stepfamily mainly on the basis of their biological relationships, the most important persons influencing their life and also the quality of the relationship with their close circle. It is worthwhile to emphasize that the most stressful experience generally evoked by children usually originates from the stepparent and his/her educational approach. Furthermore, the results show that the social support appears as the most efficient strategy often used by the children to overcome the difficulties which may occur in their stepfamilies. Generally, we noticed a satisfying socio-emotional adaptation and life quality of the sampled children. Mostly, their representations of the relationship among siblings are found as a resource within their stepfamily as long as those relationships are both sustained and supportive. Cross-correlated statistical analysis of the data showed age as a significant influence on the efficiency of employed coping strategies as well as the significance of sex on family representations and frequency of the use of the "resignation" strategy. Additionally, the sex and configuration of siblings seem to influence the socio-emotional adaptation of children, while child custody and family representation seem to be correlated. Finally, the elapsed time since separation and the efficiency of the "social support" strategy appears correlated, while the socio-emotional adaptation of children seemed dependent on the duration before the second union. Keywords: Child, stepfamily / blended family, bioecological family model, sibling, appropriation / adaptation, representation of the family, coping, socio-emotional adaptation, quality of life
{'path': '51/tel.archives-ouvertes.fr-tel-00967352-document.txt'}
Etude micromécanique du comportement thermomécanique des alliages à mémoire de forme Denis Entemeyer To cite this version: Denis Entemeyer. Etude micromécanique du comportement thermomécanique des alliages à mémoire de forme. Autre. Université Paul Verlaine - Metz, 1996. Français. NNT : 1996METZ035S. tel01777144 HAL Id: tel-01777144 https://hal.univ-lorraine.fr/tel-01777144 Submitted on 24 Apr 2018 AVERTISSEMENT Ce document est le fruit d'un long travail approuvé par le jury de soutenance et mis à disposition de l'ensemble de la communauté universitaire élargie. Il est soumis à la propriété intellectuelle de l'auteur. Ceci implique une obligation de citation et de référencement lors de l'utilisation de ce document. D'autre part, toute contrefaçon, plagiat, reproduction encourt une poursuite pénale. illicite Contact : ddoc-theses-contact@univ-lorraine.fr LIENS Code de la Propriété Intellectuelle. articles L 122. 4 Code de la Propriété Intellectuelle. articles L 335.2- L 335.10 http://www.cfcopies.com/V2/leg/leg_droi.php http://www.culture.gouv.fr/culture/infos-pratiques/droits/protection.htm b,roçhoï THESE présentéeà L'UNIVERSITÉ DE METZ BlBl-lOThEtrv e -,rr v cr(SITAIRE dsu[sç Pour I'obtentiondu titre de DOCTEUR EN SCIENCESDE L'INGÉNIEUR OPTIONSMÉCANIQUE ET MATÉRIAUX I par Denis ENTEMEYER DU Étuun MIcRovtÉc.l'NrQI/E c oMPoRrEMENI r IIERMOMECAryr_QU_E DnS ALLIAGES A MEMOIRE DE FORME SoutenueIe20 décembre1996devantla commissiond'examen: M. M. Berveiller,université de Metz, Directeurde thèse M. E. Patoor,Universitéde Metz, Directeurde thèse' dapporteur Palaiseau, M. Q. S. Nguyen.,ÉcolePolytechnique M. J. Van Humbeeck,Universitéde Leuven,Rapporteur Universitéde Montpellier M. A. Chrysochoos, M. J. C. Brachet,CEA de Saclay- CEREN{/SRMA M. A. Eberhardt,Universitéde Metz M. P. Lipinski,UniversitêdeMetz - Laboratoire de Physiqueet Mécanique des Matériaux - -iunn cNRSt2rs)- InstitutSupérieur et Productique deGénieMécanique École Nationale d'Ingénieursde Metz Ile du SaulcY,57045Metz Cedex0l I Remerciements Ce travail a été réalisé au Laboratoire de Physique et Mécanique des Matériaux de I'Institut Supérieurde Génie Mécaniqueet Productique de l'Université de Metz au sein de l'équipe du Pr. M. Berveiller. Je remercie avant tout Monsieur M. Berveiller pour m'avoir témoigné sa confiance en m'accueillant au sein de son équipe et m'avoir donné ainsi I'occasion de vivre une expérienceenrichissante' Je remercieMonsieur E. Patoorpour son suivi, son aide et soutientout au long de ce travail. Je remercie également Monsieur A. Eberhardt qui m'a fait bénéficier de sa compétencedansle domaine expérimental. Je tiens à remercier MessieursQ. s. Nguyen et J. Van Humbeeck pour avoir acceptéde présiderce travail ainsi que MessieursA. Chrysochoos, J.C. Brachet et P. Lipinski pour leur participationau jury' Je tiens à remercier le personnel de I'Institut Supérieur de Génie Mécanique et Productique, celui de l'École Nationale d'Ingénieurs de Metzet les étudiant(e)s(Joel,Eric, Xavier, Anne, Isabelle,Seddiq,David, Patrick, Frédéric et LaurenQ que j'ai cotoyé tout au long de ces trois annéespour leur gentillesseet disponibitité. Je n'oublie pas ma famille ainsi que mes ami(e)s les plus proches qui ont participé directement ou indirectement à ce travail' Merci à vous, lecteur, qui témoignez d'un besoin ou'de I'intérêt à ce travail. Avant-Propos Certainspoints liés à la lecture de ce rapport sont ici développés: . Les référencesbibtiographiquessont placéesen fin de chaquechapitre: certainessont donc répétéessi elles sont utiliséesdansdeux chapitres différents. Elles sont référencéesentre crochetspar les initiales des trois premiers auteurs de I'article suivies de I'année de parution (ex: tABCl2l). . . Certainsrappelsou élémentsnécessairesà une lecture fluide sont placés (1)). en bas de page, référencéspar un chiffre entreparenthèse(ex: Les calculs longs et complexesou entièrementcalquésà partir de la littérature existantesont en annexe.On y faitréférence à partfudu texte d'une manièredirecte (ex: voir annexeX). -1- l. Sommaire Sommaire 6 Page CHAPITREI: Introduction I nÉnÉnnNcEsBIBLIocRAPHIQUES 10 p4ge CHAPITRE II: Étudebibliographique 12 Page II.1 - INTRODUCTION 14 page DES rr.2 - cARacrÉnIsrrQunscÉNÉnaLES L4 page ALLIacnsÀ vtÉuorRpDEFoRME l.z.t - RAPPEL suR LEs omrÉnENTS 15 p. COMPORTEMENTDES SOLIDES 15 simPles Il.2.I.l - ComPortements 15 complexes II.2.I.2 - Comportements II.2.|.3-Comportementliésauxtransformations t6 de phase 17 - LA TRANSFORMATON MARTENSITIQUE p. TT.2.2 18 I1.2.2.L- Classification 24 de déformation II.2.2.2- Mécanismes ,27 - Diagrammed'état 11.2.2.3 II.2.3 - COMPORTEMENTDES ALLIAGES À 28 p. IVTÉUONEDE FORME 28 Effet mémoiresimplesens 11.2.3.129 1I.2.3.2- Effet mémoiredoublesens 30 II.2.3.3- Effet caoutchoutique 3r II.2.3.4- Pouvoiramortissant 32 .5 - Superthermoélasticité 11.2.3 1T.2.4- DIFFÉRENTS TYPES D'ALLIAGE ET 37 p. DOMAINES D'APPLICATION II.3 - MODÉLISATION DU COMPORTEMENT DES ALLIAGES À IVTÉUOTNNDE FORME: LES 40 page DIFFÉRENTES APPROCHES . . . . . . . . . . . .4. .0p . II.3.1- OBJECTIF -2 - Sonmtaire rr.3.2_LES AppRocHESPHÉNOMÉNOLOGTQUE: LE MODÈLEBOURBON-LEXCELLENT . . . . . - . . . . . .4. l. p . II.3.3 - LES APPROCHESPAR TRANSITION D'ÉCHELLE --p.46 II.3.3.1- L'approche deSun 47 - L'approche 1I.3.3.2 utilisée 51 II.4 . CONCLUSION page 55 nÉrÉnnNcEsBrBLrocRApHreuES rr pâ$€ 57 CHAPITRE III: Modélisariondu fluage anisothenne Page 65 - IIT.I INTRODUCTION TN,.z. LB COMPORTEMENTDU MONOCRISTAL TII.2.I CINÉMATIQUE DE LA TRANSFORMATTON - CNTTENE ITT.2.2 DE TRANSFORMATION page 67 page 6E .----.p. 69 . . . - . . . . . . . .7. .5p . IIL.2.2.1- poteiiticlthermoclynarnique i5 rrr.2.z-z- Lagrangienréactualisé et forcesmotrices 80 IILZ.Z.3- pseudo_porenriel dedissipation 82 - LOI DE COMPORTEMENT ITT.2.3 . . . . . . . . . . . .8. .4p . III.2.3.l - Loi d'évolution 84 III.2.3.2 - Modulestangentsthermoméc aniques .85 III.3 - LE COMPORTEMENTDU POLYCRISTAL page 87 IIT.3.I- DÉFINITIONDU PROBTÈUB . . . . . . . . . . . .8. .7p . III.3.2 - HOMOGÉTVÉTSETION ET LOCALISATION . . . . . . . . . . . .8. .9p . III.3.3 - APPROCHEAUTOCOUÉNNU-IE . . . . . . . . . . . .9. .1p . III.3.3.I - Équationintégralethermomécanique 91 lII.3.3.Z- Résolution formelle 98 III.3.3.3- Approximation autocohérente à un site 101 trr.3.4- REMARQUE . . . . . . " . " . .1. 0 p5 . ITI.4 - INFLUENCE DE LA VITESSE DE SOLLICITATION page 106 III.4.I - INTRODUCTION . . . . . . . . . . .1. p0.6 -3- Sommaire IIT.4.2- ÉVOIUTION DE LA TEMPÉRATUREDU POLYCRISTAL AVEC LE TAUX DE .p. 108 MARTENSTTE 111 -page rrl.5. - CONCLUSION pgge113 nÉ,fÉnBNCES BIBLIOGRAPHIQIIES m CHAPITRE IV: Résultatsexpérimentaux Pagell7 pourun alliageCuAlBe IV.l - INTRODUCTION IV .2. DISPOSITIT DPÉRIMENTAL tv.2.r- verÉnml D'ESSAI IV .22-PNÉPENATIONDESÉPROUVETTES 1V.2.3- PMTÉNENTSTYPESD'ESSAI I V . 3 - S U P E R T H E R M O É L A S T I C I T É DES MONOCRITAIIX CuAlBe IV.3.I - INTRODUCTION IV .3.2- SUPERÉLASTICITÉ IV.3.3 . FLUAGE ANISOTHERME IV.3.4 - DIAGRAMME D'ÉTAT IV.4 . SUPERTHERMOÉLASTICITÉ D B S POLYCRISTAIX CuAlBe IV.4.1- INTRODUCTION TV.4.2- SUPERÉLASTICITÉ IV.4.3 . FLUAGE ANISOTHERME TV.4.4 - INFLUENCE DE LA VITESSE DE SOLLICITATION IV.5. CONCLUSION rv nÉrÉnnNcns BIBLToGRAPHIQUES 1lE page 119 page 119 p. 122 p. 125 p. 126 page 126 p. t27 p. .p.r32 . . . . . . . . . . .1. p3.6 139 page p.139 141 p. 145 p. 151 p. 152 page 154 page CHAPITRE V: Résultatsnumériquespour 156 Page desalliagesCuZnAl et CuAlBe 158 page V.l .INTRODUCTTON -4- Sommaire Y.2 . COMPORTEMBNT SUPERTHERMO. Ér,asrreuE page 159 V.2.1- CAS DESALLIAGES DE TYPECuZnAl p. 159 V.2.I.l Données utilisées 159 V.2.I.2 - Résultats l6l V.2.2 CAS DES ALLIAGES DE TYPE CuAlBe p. 165 ' V.2.2.1- Donnéesutilisées 165 V.2.2.2 Résultats 167 V.2.3 . INFLUENCE DE LA VITESSE DE SOLLICITATION V.2.3.1- Casdesalliagesde typeCuZnAl V.2.3.2- Casdesalliagesde typeCuAlBe V.2.3.3- Conclusion V3 - ÉTUNN MICROSTRUCTURALE V.3.I - INTRODUCTION v.3.2 - CINÉTTQUE ET OÉF'OnNAATTON DE TRANSFORMATION V.3.2.1-Cinétique Y.3.2.2- Déformationmoyennede transformation V.3.3 - COMPORTEMENTINTRAGRANTJLAIRE V.3.3.1- Répartitiondescontraintesinternes V.3.3.2- Déformationdesgrains V.3.4 - ÉVOITMON DE LA MICROSTRUCTURE V.3.4.1- Nombrede grainsactifs V.3.4.2- Nombrede variantesactives Y.3.4.3 - Évolution des variantespendantle chargement V.3.5 - INFLUENCE DE LA MATRICE D'INTERACTTON V.3.6. CONCLUSION p. r72 173 174 176 page177 p. 177 p. 178 178 181 p. 183 184 ' 192 p. 198 198 200 206 nÉrÉnnNcns BrBLrocRApHreuEs v p. 214 p.217 page 219 CHAPITREVI: Conclusion Page22I ANNEXES Page224 -5- CHAPITREI : Introduction CHAPITREI: - Introduction- L'effet mémoirede forme est connudepuisles annéestrenteet si cette étonnantepropriétéfait depuisI'objetd'uneconstantecuriosité,I'usagedes alliagesà mémoirede forme (AMF) resteencorepeudéveloppé.En effet, il aurafallu attendrela fin desannéessoixantepour voir seconcrétiserles premièresapplicationsindustriellesde cet effet.Cesapplicationssontalors souventtrès pointues,entraînantune productionmarginale:manchonsde ou plots amortissants raccordementpour tubuluresdansI'aéronautique, sécuritésthermiquespour la surveillancede systèmede chauffagedansles centralesnucléaires,certainestechniquesmédicalesles emploient égalementpour desagrafesou desimplantsdentaires.Le développement industrielde cettetechnologieest assezlent et très peud'applicationsont débouchésur uneproductionde masse[B94]. pourtant, les AMF possèdentdes propriétéstrès particulièresqui leur permettraientd'occuperde nouvellesfonctionset ceodansde nombreux La plus médiatiquede ces propriétésest domainestSSSTltFST]tPBgQl. I'effet mémoire:les AMF sont en effet capablesde retrouverlew forme initiale après une déformation mécaniqueou thermique largement supérieureà la déforrrationéIastiqueou à la dilatationthermiqueclassique des métaux. Les alliages à mémoire de forme sont également c'est à dire qu'ils sont capablesde s'allongerde superthermoélastiques, jusqu'à107odansle casde monocristaux) manièreréversible(de3 à S%o,et sous I'effet d'une contraintemécaniqueou d'un refroidissementsous contrainte.L'effet caoutchoutiqueest une autre de leur propriété:pour lorsqu'unalliageà mémoirede forme certainesconditionsde température, une défonnationrésiduelle subit un étirement,il conserveau relâchement qui augmentesi le matériauest de nouveauétiré puis relâché.Les AMF -6- CHAPITRE I : Introduction présententégalementd'importantescapacitésd'amortissementdes chocs ou d'affénuationdes vibrations mécaniques. Toutes ces propriétéssont liées à une transformationde phaseàl'état solide lJcgzl au cours de laquelle une phasemère (austénite)donne naissancede manière cristallographiquementréversible à une phaseappeléemartensite tCOC79llO9OllBP94l.Les mécanismesélémentairesde déformationliés à cette transformation (responsablesdu comportementmacroscopique)ainsi que les propriétésqui en découlentsont rappelésau chapitre II. On constateque c'est pour I'essentiella superthermoélasticité qui est à la base des développementsindustriels liés à I'utilisation des alliages à mémoire de forme lDZ90l. L'orthodontie, I'habillement, la lunetterie, les articles de sport sont autant de secteursoù une ou plusieurs applications ont vu le jour. Pendant longtemps, le prix des alliages, des problèmes métallurgiqueset la méconnaissance de leur comportementont constitué des obstaclesà ce développement.De nombreuxprogrèsont été réalisés depuis le milieu des années80. L'élaborationet la transformationde ces alliages sont maintenantmieux connues,les prix ont baisséde manière significative et de nombreuxaspectsde leur comportementsont maintenant modélisésde façon satisfaisante.La complexité desphénomènesphysiques à I'origine de ce comportement et la diversité des échelles où ces phénomènesagissentjustifient I'emploi des méthodes modernes de transition d'échelle pour modéliser ce comportement.Ces méthodesont déjà connu de nombreux succèsdans la modélisationd'autresclassesde comportement et sont particulièrement bien adaptées aux matériaux macrohomogèneset microhétérogènestBZ84ltBZg3l. Le modèle autocohérents'est montré très bien adaptéà la modélisation des trajets de chargementisothermedansles alliages à mémoire de forme (modélisation du comportementsuperélastique[PEB941). Ce travail s'inscrit dans la poursuite de cette démarcheen simulant la réponseobtenueen fluage anisotherme(cycle thermique sous contrainte appliquée constante). Le chapitre III traite de la modélisation du comportementsuperthermoélastique desalliagesà mémoire de forme, et en 7- CHAPûRE I : Introduction permet Une approchemicromécanique particulierdu fluageanisotherrne. du de rendrecomptedu comportementmonocristallin.Le comportement polycristal est obtenu à I'aide de la méthodede transition d'éche|le autocohérente.La prise en compte du caractère exothermique (rirartensite(endothermique)de la transformationausténite-martensite austénite)permet de prendre en compte I'influencede la vitesse de superélastique' déformationsur le comportement (CuZnAl) Jusqu'audébutdesannées90, lesalliagescuivre-zinc-aluminium fournissaientI'essentieldes applicationsindustriellespour les alliagesà basede Cuivre lflgzl.Actuellement,I'alliagele plus prometteurdanscette classede matériaux est I'alliage de type cuivre-aluminium-berylium mécaniques'sa stable,bonnescaractéristiques (CuAlBe): comportement déformationde transformationaffeint6Vopourle polycristal.Un alliagede au chapitreIV' Le Laboratoirede ce type est caractérisémécaniquement physiqueet MécaniquedesMatériauxde I'Universitéde Metz a développé une techniqueoriginale d'élaborationde fil monocristallin qui permet d'obtenir le même alliage à la fin sous forme de monocristauxet de mécaniqueplus polycristaux.Cettetechniquepermetune ca.ractérisation complètedu matériauqui est très bien adaptéeà la validation d'une approchemicro-macro. Les résultatsnumériqueset expérimentauxsont ensuiteconfrontéset confortentle choix de la modélisationcar ils sont en accord sur de nombreuxpoints. Cette comparaisonfait I'objet du chapitreV' Dans ce chapitre,d'autresrésultatsrelatifsà la cinétiquede la transformationou au comportementintragranulairesont égalementexploités,ce qui fait du schémade modélisationun outil puissantet très utile à la compréhension des mécanismesde la transformation,parallèlementà I'observation cristallograPhique. Le chapitreVI concluece travail.On y retrouveles thèmesimportantsdes décrits,les résultatsscientifiquess'y rapportant'les travauxprécédemment -8- CHAPITRE I : Introduction possibilitésd'évolutionet une vision future de la continuitédestravaux.En effet, si la modélisation du comportement superthermoélastiquedes alliages à mémoire de forme est une étape essentielle dans le développement de ces matériaux, on pense aussi au problème de I'adaptation des modèles de comportementà I'industrie, par I'introduction dans un code de calcul de structure par exemple tc95l. parallèlement, l'étude de matériaux tels que les TRIP-steelpassepar une connaissance approfondie du comportementdes alliagesà mémoire de forme tB96l. On trouve en annexesdes calculs qui ne sont pas développésdans le corps de ce mémoire et les thèmesliés directementà l'écriture inforniatique et à sesparticularités spécifiques. -9- CHAPITREI : Introduction - Références bibliograPhiques tB94l BordeY., "Lesalliagesà mémoiredeforme", dansIndustries no755(1994) et Techniques, tB96l tBP94l BumbielerF., Thèseencours,Universitéde MeTz(1996) des BerveillefM., Patoor8., "PropriétésThermomécaniques Alliagesà Mémoirede Forme",dansTechnologiedesalliages à mémoirede forme,Éd. HeT tès,Paris(Igg4) lBZ84l BerveillerM.,zaoui A., "Modettingof thePlasticBehaviorof Media,,,J.Eng.Mat. andTech.,106,pp.295Inhomogeneous 299(1984) tBzg3l tCOCTgl Berveiller M., Zaoui A., "Modélisationdu Comportement Ch. de,Formation MécaniquedesSolidesMicrohétérogènes", Cluny (1993) AvancéedeMéc.desPolymères, CohenM., OlsonG.B.,ClappP.C.,"On the Classiftcationof Displacive Phase Transformation",Proc. ICOMAT'7!, Cambridge(MA), MIT, PP.1-11 (1979) IDZg}l Duerig T.W., ZadnoG.R., "An Engineer'sPerspectiveof dansEngineeringaspectsof ShapeMemory Pseudoelasticity", Alloys, ButterworthHeinemannPub., Londres,pp.369-393 (1eeO) ISBN0-750-61009-3 tF87l FremondM., "Matériauxà mémoiredeformel C.R. Acad' Paris,T304,SérielI,7,pp'239-2M(1987) Sciences, tc95l simplesen alliage ù d'éléments Gillet Y., "Dimensionnement mémoiredeforme",Thèse,UniversitédeMetz(1995) -t0- CHAPITRE I : Introduction lH92l HornbogenE., "Alloys with shapeMemory - New Materiars for the Technologyof the Future ?", dansprogressin shape memoryalloys,Éd. S. Eucken,Allemagne,pp.3-22 (lgg2) ISBN3-88355-178-3 UC92l JenaA.K., chaturvediM.c., dansPhasetransformationsin Materials,Éd.PrenriceHall,U.S.A.(lgg}) rsBN0-13-663055-3 to90l otsuka K., "crystallographyof Martensitic Transformations andInttice InvartantShears",dansMartensitictransformation II, Éd. by Muddle8.C., pp.393-404 (1990) rsBN 0-87849-610-6 tPBgOl PatoorE., Berveiller M., dansLes alliagesà mémoire de forme,Éd.Hermès,Paris,65pp. (1990) rsBN 2-86601-236-4 tPEB94l Patoor E., EberhardtA., Berveiller M., "Micromechanical Modelling of the ShapeMemory Behavior", procs ASME WAM'94,ChicagoI.L., AMD- 189/PVD-292,pp.22-37(1994) tSS87l Suzuki Y., SekiguchiY., "Applicationsof ShapeMemory Alloys", dans Shaoememory alloys, Gordonand Breach Science Publ.,1, pp.176-269 (1987) rsBN 2-88124-136-0 - II - CHAPITRE II : Étudebibliographique CHAPITREII: - Étudebibliographique. II.1 - INTRODUCTION 14 Page rr.2- c Aru\crÉTsrIQI JESCÉNÉnel-gS DES ALLIAGES À VIÉUOIREDE FORME Page14 rr.z.r - RAPPELsuR LEs pm'rÉnENTS 15 COMPORTEMENTDES SOLIDES l5 simples ll.2.l.l - Comportements r6 complexes I1.2.I.2- Comportements liés aux transformations ll.2.L3 - Comportement t6 de phase tr.2.2- LA TRANSFORMATIONMARTENSruQIJE 17 - Classification 18 11.2.2.1 - Mécanismes 24 de déformation 11.2.2.2 27 n.2.2.3- Diagrammed'état T1.2.3- COMPORTEMENT DES ALLIAGES À .28 VTÉIUONEDE FORME 28 f.2.3.1 - Effet mémoiresimplesens - Effet mémoiredoublesens 29 11.2.3.2 30 1I.2.3.3- Effet caoutchoutique 31 n.2.3.4- Pouvoiramortissant - Superthermoélasticité 32 11.2.3.5 1I.2.4 . DIFFÉRENTS TYPES D'ALLIAGES ET DOMAINES D'APPLICATION -12- CHAPITRE II : Étudebibliosraphique MOD ÉTISATION II.3 DU COMPORTEMENT DES ALLIAGES À DE MÉMOIRE FORME: LEs NNTÉNENTES APPROCI{ES Page 40 É :,m II.3.I - OBJECTIF prmNOMeNOLOcrQr.IES: n3.2 - LESAppROCrmS LE MODÈTN BOURBON LEXCELLENT 41 II.3.3 - LES APPROCHES PAR TRANSITION o'Écrmtte II.3.3.1- L'approche de Sun 1I.3.3.2- L'approcheutilisée r,.4 - CONCLUSION 46 47 51 Page 55 nÉTBnBNCESBTBLTOGRAPHTQTJES tr Page 57 -13- II : Étudebibliographique CHAPITRE Dans ce chapitre, nous abordons en premiër lieu les caractéristiquesgénéralesdes alliages à mémoiredeforme et de Ia transform.ationmartensitique. En secondlieu, on discute des dffirentes approches tiées à l'élaboration de modèles de comportementpour ces mntértaux- ILl - INTRODUCTTON Les alliagesà mémoirede forme sontdesmatériauxà vocationindustrielleAinsi, unenonneAFNOR tA9ll définit le vocabulaireutilisé pour décrire les divers paramètresdécrivantla transformationmartensitiquedansles leur maîtrisepassepar la AMF. Commepour tousles matériauxmodernes, difficultés.Dansle casdesalliagesà mémoirede résolutionde nombreuses forme, la cristallographie,la métallurgie,la thermodynamiqueet la mécaniquesont autantde domainesque I'on doit pouvoirmaîtrisersi I'on veut entreprendrela mise en oeuvre de cette nouv.elletechnologie préalable à toute tH92ltPB90l. La première partie de ce chapitre, a pourbufi modélisationdu comportemento . de préciserles mécanismesqui sont à la basedu comportementdes alliagesà mémoirede forme. de ce comportement.On . de dégagerles principalescaractéristiques s'attarderaplus particulièrementsur la propriétéqui constitueI'objet de ce mémoire:la supertherrroélasticité. rr.2 - CARACTÉRISTIQUESCÉNÉRALES DES DE FORME ALLIAGES À TVTÉUOIRE Cette section commence par rappeler les différentes classes de comportementobservéesdansles solidestLCS2l. On abordeensuiteles -14- mécanismesde déformation liés à la transformation martensitique [N7g]. Les différents aspectsde ce comportementsont présentésen troisième partie [SS87]tBW4l. II.2.I - RAPPELSSUR LES DIFtr'ÉRENTS COMPORTEMENTSDES SOLIDES U2.1.1- Comportementssimples En phase solide, on distingue généralement. trois types de comportements simples:l'élasticité,la plasticitéet la viscosité. II Élasticité E] F z Éos z o U gP uÉnonuenoN Fig. II-1: courbe de traction érastoplastiqued,un matériau solide classique. l^a limite érastique o, sépare l,élasticité (a) de la plasticité (b). (a) Très souvent, l'élasticité se traduit par une relation linéaire entre la contrainte et la déformation. C'est une déformation réversible, après déchargecomplète aucunedéformationrésiduellene subsiste. (b) La plasticité apparaîtlorsque la contrainte dépasseun certain seuil o5 (limite élastique).La déformationqui en résulte n'est plus complètement -15- CHAPITREII: Énde bibliogran' :'' ePlorsquela réversible,le matériauconserveunedéformationpermanente contrainte est relâchée(fig.Il- I ). (c) La viscosité est classiquementobservéequand le comportement du matériau dépendde la vitessede déformation è- on peut adjoindrela dilatationthermique. À ces trois comportements, Souvent,la relation entrela déformationthermiqueet la températureest linéaire. prochede la linéarité,on parlealorsde thermoélasticité U.2,1.2- Comportementscomplexes plusieursdes La courbede tractiond'un solideprésentegénéralement comportementssimples cités précédemment;on parle alors d'un comportement complexe tel l'élastoplasticité(fig.II-1) ou la Les problèmesde mise en forme des matériaux viscoélastoplasticité. de cescomportements (laminage,fluage)imposentunebonneconnaissance il faut garderà I'espritquela majoritédessystèmes complexes.Cependant, en servicedansI'industrien'utilisequele domaineélastique(l). mécaniques Cela ne permetpas de déformationréversiblesupérieureà O,2Vopour les métauxusuels.De même,la dilatationthermiquen'excèdepas0,0017ode plus complexesexistent déformationpar degré.D'autrescomportements de phasede cependantdansles matériaux:ils sontliés auxtransformations l'étatsolide. fr2.1.3- comportementsliés aux transformationsde phase On utilise depuis très longtemps les propriétés obtenues par transformationde phaselors de l'élaborationdes matériaux(traitement thermique par exemple) mais le mécanicien ne slintéresseà ces phénomènesque depuis peu. Ainsi, lorsqu'en 1936, des chercheurs découvrentun alliage capablede changerde forme puis de la retrouver sous I'effet d'une faible variation de température(20 à 30 degrés),on à s'intéresserde plus près à une transformationde phase (1) Exempled'unélémentautomobileQongeron, portière,capot)-.L'élémentestemboutid'unemanière plecise tout en conservantles propriétésmécaniques-(résistance, forme une lui donner de complexe^afin Ouretq. Une fois en servicesur le véhicule, une intrusion dans le domaineplastiquedu matériau ou saréparation. sonchangement l'élémentet nécessite inéversiblement endommage -t6- fut observéesur de nombreuxalliagesmétalliqueset on imâgina alors I'utilisationdespropriétésdestransformations de phasependantI'utilisation de systèmesmécaniques (et non plus seulementlors de l'élaborationdes matériaux).Même si cet "effet mémoire"est la plus spectaculairedes propriétésdesalliagesditsjustementà mémoirede forrne,il estrestrictifde ne considérer que cet aspect. La transformationmartensitiqueest responsable d'autrespropriétésqui rendentcesalliagesintéressants d'un point de vue industriel IB94llDZ90l: I'effet caoutchoutique,le pouvoir amortissantet la superthermoélasticité. À ce jour, la plupart des applicationsindustriellesutilise cettedernière,sur laquellenous allons nousattacherplus particulièrement dansce mémoire. I.2.2 - LA TRANSFORMATTON MARTENSTTIQT E . À I'origine, la transfonnationmartensitiquedésignela transformationde phaseayant lieu dansles alliagesfer-carbonelors d'un refroidissement rapide aprèsune phasede stabilisationà haute température.Dans ces aciers, on nomme "austénite"la phasestableà haute températureet "martensite"(en I'honneurdu métallurgisteallemandAdolf Martens) la phaseissuede I'austénitepar la transformation martensitique, stableà basse température. Parextension,la transformation martensitiqùe a plus étéreliée au mécanismequ'auproduitde la transformation lui-même.Ainsi, le terme de transformationmartensitiques'estgénéraliséà de nombreuxsystèmes dont les transitionsde phasepossèdent lescaractéristiques typiquesde celle des aciers.C'est le cas non seulementde certainsalliagesà basede fer (Fecr, FeNi,),à basede cuivre (cuzn, cuAl, cuzn*, cuAlBe) mais égalementde certainsmétauxpurs (Co, Ti, Cr,), de certaines céramiques(Zro) IK90l et de certains polymères.L'étude de cette transition de phase a permis de dégager un certain nombre de caractéristiques qui la distinguentdes autrestransformationsen phase solide des matériaux.Ces caractéristiques ont servi à établir une classification proposée parcohenet al. en 1979tcoc79](fig.ll-2). -t7- CHAPITREII: Euàe bibliograPhiouz Déformation de Bain etmorphologiecinertqae ondes de déplacement(shufflel Energie interfaciale Transfonlationdoninée Par- TransforrrationsPar shuffle Ençie de déformation TransformationsPardéformation homogènedu réseau Existenced'un plan invariant Pas de ligne invariante à Transformations dominantedéviatorique à Transformations dominantedilatométrique (vibrationdu réseau) Trnsfonrution _ dominézpar Energiede déformation (distorsiondu réseau) dephasedisplacives(sans Fig.II-2: Classiftcationdestransrormations propàséepar Cohen,olson et ClapptCoCTgl' Wl 1.2.2.1' Classification La transformationmartensitiqueest une transitionde phaseà l'état (également solide qui fait partie des transformationssans diffusion structuralpendant appeléesdisplacives).Elle conduità un changement -I8- lequel les atomes se déplacentsur de faibles distances,inférieures à la distanceinteratomique,et selon un modecoopératif. Les transformationsdisplacivessont décritescommeune combinaison d'une déformationhomogènedu réseau(ou déformationde Bain) et de shuffle, termeanglo-saxondésignantle résultatde I'action sur les atomes d'ondesde déplacement(fig.Il-3). Le premiermécanismesedéfinit par un changementde taille et de forme de la maille élémentaire,entraînantune augmentationde l'énergiede déformationélastique(fig.Il-3d). Dans le secondmécanisme,seulela distributiondesatomesà I'intérieurde la maille changeet altèrela structureet la symétriedu cristal (fig.Il-3b). Dans les deuxcas,uneinterfaceséparantles deuxphases(mèreet.produit)est créée et produituneénergieinterfaciale. t( I I { I ,r-- Fig.II-3: Illustration schématique des deux mécanismes intervenqnt dans les transformations displacives: (a) Déformation de Bain, (b) Shffie. Les morphologies caractéristiquesde la martensite observée expérimentalementsont manifestementassociéesà l'énergie de -t9- CHAPïïRE II: Etudebibliographique . déformation[VDK74]tN78l et entraîneque la déformationde Bain est martensitique. associéeà la transformation Parmi ces transformationsdominéespar une déformationhomogènedu réseau,il faut distinguerle modede déformationprincipal.Dansle casoù la déformationest à dominantedilatométrique(fig.Il-4b), il nlest pas Au contraire; possiblede trouverun vecteurinchanEépae la transformation. le volume obtenu aprèsun cisaillementpur (déformationà dominante déviatorique,fig.Il-4a) intersectele volumeoriginel,impliquantI'existence pendantla transformation. de vecteursdontla normeresteinchangée Déformation à dominante Maille unité mère ^yN* V'=V b)oi VolumeV v'> v (ou V' < V) Fig.II-4: Représentationschématiqueles contributions diviatorique (a) et dilatométrique(b) d'unedéformation de Bain. pendant [a transformationmartensitique,la variation de volume est généralementfaible et il existeuneinterfacecommuneaux phasesmèreet IJC}?|. De ce fait, on martensitique(invarianteà l'échellemacroscopique) impliquant dansles transformations classela transformationmartensitique -20- CHAPIRE II: Étudebibliolraphiaue une déformation à dominante déviatorique, avec exi'stenced'un plan d'accolement(ou dhabitaQ entre les phasesmèreet produit. Parmi cestransformations, on peutencoredifférencierles transfonnations quasi-martensitiques dont I'amplitudedesdéplacements dueaux vibrations du réseauestgrandepar rapportà celleinduitepar la distorsiondu réseau. En résumé, les caractéristiquesessentiellesde la transformation martensitiquesontles suivantes: L' C'estune transformationsansdiffrrsion.Il n'y a pasde modification de la compositionchimiquedu matériauet elle progrebse d'unemanière indépendantedu temps(le mouvementde I'interfaceenhela phasemère et la phaseproduiteest simplementlimité par la vitessedu son dansle matériau) 2' Elle implique une déformationdu réseaucristallin qui conduit à un changement de formemacroscopique caractérisé par (fig.Il-5): - unefaible variationde volume(danslesAMF). - un cisaillementimportantselonun plan et unedirectionbien définis. I I t--_____ ' Phasemère Fig.II-S: Représentation sckématique du changrment .Jorm, macroscopique associéà l'apparitiond'unevariantede mnnensite. 3. La transformationest associéeà une diminutionde symétrie:en conséquence, différentesvariantesd'orientationéquivalentesontformés [vDK74]. un monocristalde phasemère se transformeen une ou plusieurs variantesséparéespar des interfaces(fig.Il-6). Afin de minimiserl'énergied'interactionentrela martensiteforméeet I'austénite -21 CHAPITREII: Énde bibliosraphique encore présente,ces variantesont généralementla forme de plaquettes aplatiesdont le plan principal est le plan d'habitatou plan d'accolement. Ce plan et le plan de cisaillement de la martensitesont généralement bien définispour une classed'alliage. Fig.ll-6: Micrographie et représentation schénnti Et e d'une transformationpolyvariantecwec MI, M2, M3 trois variantes de martensite et l'austéniteIP890]. 4. La transformationmartensitiquedémarreponctuellementpar desinterfacesqui a lieu par déplacement nucléation.La croissance d'interface convertitla phasemère en martensite.Ce déplacement produit des frictions avec le réseau cristallin qui entraînent une dissipationintrinsèque.Cette dissipationest à I'origine de la différence (directe) entre les températuresde transformationsausténite-martensite et martensite-austénite(inverse). La transformationmartensitique d'un phénomèned'hystérésis. s'accompagne les 5. C'estunetransitionde phasedu premierordre.En conséquence, accompagnées directeet inversesont respectivement transformations d'un dégagementde chaleur (transition exothermique)et d'une absorptionde chaleur(transitionendothermique)(fig.Il-7). -22- CHAPITRE I I : Etude bibliosraphique Clmleur dégagée Quantitéde chaleurÂQ Chaleur absorbée Fig.II-7: Quantité de chaleur AQ dégagëependant une transfonnation nnrtensitique lors d'un cycle thermique à contrainte nulle. Mesure par calorimétrie dffirentielle à balayage (DSC) obtenue par Hautcoeur A. - LPMM Université de Metz tH96l. 6' Comme pour tout changementd'état,la contrainteet la température agissentsur la transformationmartensitique.Ces deux quantitéssont les variables thermodynamiques extérieures qui transformation. contrôlent la Cependant,la transformation martensitiquene produit pas d'effet mémoire dans tous les matériaux. Pour ceci, il faut que la transformation soit thermoélastique,c'est à dire qu'elle ne mette en jeu que des phénomènes élastiqueset ne provoqueaucunedéformationplastiquede la phasemère. Dans ce cas,la transformationinversese déroulepar mouvemeritsinverses des interfaceset non paspar nucléationde I'austénitedans la marterlsite. Finalement,c'estune "transformationde phasedisplacive thermoélastique du premier ordre caractériséepar une déformationhomogène du réseau -23- à I'origine du comportementparticulierdesalliagesà mémoirede forme. desvariantes de déforrrationliés à la croissance L'analysedesmécanismes de martensitepermetd'en déduireun certainnombrede caractéristiques particulières. L.2.2.2 - Mécanismesde déformation La transformationmartensitiqueconstitueun mode de déformation du réseaucristallin.Ce changementde ayantpour origineun changement de contraintesinternes réseau,appelédéformationde Bain; s'accompagne très importantesdues à la coexistencedes deux phasespendant la transition.Pourrelaxercescontraintesinternes,on innoduitun mécanisme à réseauinvariant.Cettedernièredéformationpeut être d'accommodation un glissementpur, un maclageou une combinaisonde glissementset de maclespouvantseréalisersoit dansI'austénite,soit dansla martensite.En n'assuretoujours I'additionde cesdeuxdéformations grandesdéformations, par pasI'invariancedu plan d'habitat.Une transformationsupplémentaire rotation est donc nécessairepour décrire totalementla transformation globale(frg.tr-8). glissement Bain * maclage -+ Réseau invariant + Rotation A M AM Fig.II-\: Décompositionde la transformation-martensitique en Ecanismes de déformationsimples:déformationde Bain, déformation à réseauinvariantet rotation. -24- CHAPITRE II: Étude bibliosraphiq ue Finalement, la déformation macroscopiquequi en résulte se composed'un glissement parallèle au plan de I'interface et d'une extension perpendiculaireà ce plan (fig.Il-9). Plan dhabitat F ig. I I -9: Caractéristiquescristallographiques associées à laformntion d'une variante de mnrtensite. Ainsi, la théorie phénoménologiquede Weschler, Lieberman et Read [WLR53] permet de déterminer à partir des mesures cristallographiques effectuéessur les deux phaseset la donnéede la déformation à réseau invariant, les caractéristiquesde la transformationqui sont tSWTgO]: ' La normale n au plan d'accolementséparantI'austénitede la martensite . La direction de transformationm . L'amplitude de déplacementg suivant la direction m . Les relations d'orientationcristallographiqueentre les deux phases Ce mécanismeest à la basedes différents comportementsobservésdansles alliages à mémoire de forme. Selon le nombre,la natureet la séquencedes cycles de chargement thermomécaniques,on distingue des classesde -25- II: ÉtudebibliograPhiaue CHAPITRE mais comportementcorespondant à des mécanismesphysiquesdifférents faisant toujours intervenir la transformationmartensitique.De nombreuses cas de observationsexpérimentalesIDDATS]IGS6I ont montré que, dansle la plasticité de transformation pure (transformation martensitique en I'absencede plasticité classique),les mécanismesde déformation sont au nombre de trois: formation de martensiteorientée,formation de structures et réorientationdesvariantes(tab.Il- I 0)' autoaccommodantes n*H*fl Formation (réversible) de martensite orientée Par des (i) contraintesinternesou appliquées. â Transformation avecdéformation macroscoPique l*H*ffi (ii) Dans certains sYstèmes,les variantes s'arrangent de telle manière que les changements de forme s'accommodentmutuellement â Transformation sansdéformation (lors d'un refroidissement sans macroscoPique contrainteappliquéepar exemple). (iii) Réorientation Partielle et réversible des variantes Par applicationdescontraintesexternes. ffi*Ë*fl =à Déformation macroscopiquesans transformation Tab.II-10:Mécanismesde déformationélémentairesintervenantlors 7,u*t,onsformationmarteniitiq,,.AestI,austénite,MIetM2deux variantesde mnrtensite. -26- /\ 1r .2.3 - Diagrammed'état ï aspectintéressantdes transformationsmartensitiquesest le rôle joué par les contraintesexternes(hydrostatique ou uniaxialepar exemple). La thermodynamiqueet I'expériencemontrent que les températuresde transformationsont affectéespar I'applicationde tellescontraintes.Ainsi, un alliage à mémoire de forme monocristallinse caractérisepar un diagrammed'étatqui indique,selonles valeursde la contrainteet de la températu re,l' étatmicrostructuraldu matériau(fig.tr- I 1). E] F z ? ù zF o U Mf Ms As Af TEMPERATTIRE Fig.II-ll: Diogrammed'étatschémntique pour un AMF monocristallin.Ins lignesMSMS,6#5,) et MJM1 reprësententrespectivementIe début et la fin dè ia transformationdirecte austénite-martensite (inverse mnrtensit e austénite). Lors du chargementde I'alliagemonocristallin(2), la phasemartensitique apparaîtrasur la ligne MSMS'etla transformationseracomplèteau-delàde la ligne MrMr. Enhe cesdeuxlignes,il y a coexistence desdeuxphases.À la décharge,la transformationinverseseraeffectivede AsAs, à ArAr. La différenceentre les températuresde transformationdirecte et inverse représente I'hystérésis de la transformation ts93l. (z/ Le diagramme d'état pour un polycristal n'estpas aussi simple et évident: les températu.", d" début et de fin de transformation ne sont pas aussiclairement définies (voir ch.rv). -27 - transformation T dépend de I'entropie de déformation ÂS et de la déformation de transformationgT 1liée à la formation d'une variante) dans la direction de la contrainteappliquée[WBR79] do dT AS ;f Remarque: La relation entre dO et dT est constante expérimentalement, ce qui signffie que la quantité thermodynamique ^S est indépendante de la température et de Ia containte. Connaissantla déformation de transformation, les essaisde traction uniaxiale sont très utiles afin de déterminer I'entopie de transformntion. Selon le trajet de chargementdans I'espacedes contrainteset de la en déformationtout à fait différentes, on observedesréponses température, ou propriétésqueI'on peut regrouper traduisantdifférentscomportements en cinqclasses. - COMPORTEMENTDESALLIAGES À IUEUOIREDE FORME 11.2.3 Les alliages à mémoire de forme présententdifférents types de comportements: effets mémoire simple et double sens' effet Ils présententégalemêntun fort caoutchoutique,superthermoélasticité. pouvoiramortissant. fr23.1- Effet mémoiresimPlesens Cet effet est observélors d'un chargementséquentiel(fig.Il-l2). Un d'une manière matériauà l'état martensitique,déformémécaniquement irréversible,retrouvesaformeinitiale s'il estchauffédansle apparemment domaineausténitique. -28- CHAPITREII : Etudebibliosraphisue c) E A (f=0) B (f = 1) = ET=0 (yD (f = 1) f, n ETÉO E (f=0) En A, l'échantillon estentièrement austénitique, la fractionvolumiquede martensitef vaut 0. jusqu'enB provoquela Le refroidissement transformation complètede l'échantillonpar la formation de variantes et de groupes autoaccommodants, entraînantune déformation detransformation macroscopique ET nulle. L'application d'une contraintefavorise les variantesles mieux orientéeset entraîneune réorientation,déformantl'échantillond'uhe manièreapparemment irréversible. Le retouren phaseausténitique(point E) par réchauffage a pour effet d'annuler la déformationrésiduellepar la transformation -> austénite inversemartensite Fig.II-12: a) chargement thermomécanique peftnettentd'obtenir: b) I'effetmémoiresimplesens.c) descriptiondesmécanismes. 1I.2.3.2- Effet mémoiredouble sens Cet effet se manifestelors d'un cycle thermiquesanscontraintes appliquéesaprèsque le matériauait subi un traitementd'éducation.Cette éducationconsisteà modifierl'étatinternedu matériau(parpiégeagede la martensiteou augmentation de la densitéde dislocation[RG87]ISVD92]) -29- CHAPITRE II : Etudebibliographique On obtientainsi un champde au moyende traitementsthermomécaniques. contraintesinternesspécifiquequi oriente les varianteset entraîneune déformationmacroscopiquede transformationlors d'un refroidissement sanscontraintesappliquées(fig.Il- I 3). Fig.II-L3: Représentationschématiquede l'ffit mémoire dàuble sens. a) Exemplesde traitementsd'éducation(en pointillés gras) et chargement (en trait fin) permettant d'obtenirl'ffit mémoiredoublesens(b). Le matériaupeut alorsprendredeux étatsstablespar simplevariationde température. II.23.3 - Effet caoutchoutique estmoinstié à la transformationmartensitique L'effet caoutchoutique La phasemartensitiquese elle-mêmequ'auproduitde cettetransformation. caractérisepar I'existencede nombreusesinterfacesentre variantesde martensite.Si une contrainteinférieureà un certainseuilest appliquée,le un caractèreréversible.Ceci entraîne mouvementde cesinterfacespossède que pour une contraintedonnéeod, la déformationtotalee est nettement supérieureà la déformationélastiquere de la martensite(fig.Il-l4). Cet effet est désignépar effet caoutchoutiqueou, dans certains cas' par parréorientation. pseudoélasticité -30- CHAPITRE II: Ende bibliographique -Jr---> i-e3l- rreor-l E Fig.II-L4: Représentation schémntique de l'ffit caoutchoutique. a) Chargementmécaniqueet b) Résultat. n23.4 - Pouvoir amortissant Cet effet est directement relié au mouvement des interfaces austénite/martensite et martensite/martensite. En effet, un échantillon martensitiqueconsisteen un grand nombrede domaines(ou plaquettes) d'orientationscristallographiques différentesqui sontmobilessousI'action d'une contrainte. La friction associéeau mouvementréversibledes interfacesentraîneune transformationirréversibled'énergiemécaniqueen énergiethermiquedissipée.Ceci est la causedu fort pouvoir amortissant 6.s alliagesà mémoirede forme(fig.Il-l5). On observe,par exemplelors d'oscillationsmécaniqueslibres, une diminutionde I'amplitudedesoscillationsen fonctiondu temps(fig.Il-l5a). Si ^W est la perte d'énergiepar cycle et W l'énergieméianique du système,on définit le ffottementintemeF par: F_ 1 ^\ry 2n V/ Le facteur de qualité Q (F=Q-1) prend des valeurs très différentesen fonction de l'état cristallographiquedu matériau:c'est pendant la transformationmartensitique qu'il estle plusimportantcar il estassociéau mouvementdesinterfacesentreausténiteet martensite(fig.Il-lsb). - 3t - CHAPITRE II : Etude bibliographique q-t a) Amplituded'une sollicitationmécanique r0-2 5.10-3 Martensite 104 de l'ffit amortissantdesalliagesà mémoire F\g.II-LS:Représentation deforme. II.2.3.5 - Superthermoélasticité est observé lorsque la Le comportementsuperthermoélastique transformationest assistéepar une contrainteappliquée.Lors d'un essai ou d'un cycle thermique (fluage mécanique(essai superélastique) anisotherme),la transformationmartensitiqueest responsablede déformationsde plusieursordresde grandeursupérieursà celles des et ce,d'unemanièrerecouvrable(fig.Il-13). alliagesclassiques, a) Superélasticité: La températurede I'essain'influe pas sur la déformationmaximaleeC OB,OC,ODet OE:plus la mais sur lescontraintesseuilsde transformation estélevée,plus cescontraintesle sontégalement. température du temps,la Bien que la transformationmartensitiquesoit indépendante vitessede déformationpossèdeune forte influencesur le comportement superélastique.Lorsque celle-ci augmente,la contrainte seuil de transformation(oB) et la pentede transformation(ligne BC) augmente également.Au contraire, I'hystérésisde la transformationdiminue tDDA78l. Cet effet est lié à la chaleur latente de transformation, (fig.Il- I a). d'uncouplagethermomécanique responsable -32- CHAPITRE il : É,tudebibliopraphiaue a) T=Ti t * De O à A et B: Thermoélasticité classiquede I'austénite. x De B à C: Créationet croissance desvariantesdemartensite. * De C à C' et D: Thermoelasticité classiquedela martensite. t De D à E: Retourpseudoélastique desvariantes. * De E à O: Retourthermoélastique deI'austénite. EjS.II-L3: Représentationde l'effet superthermoélastique dans lè cas d'un essai de superélasticitéisotherme(a) et d'un àssai de fluage anisotherme(b) sur un monocristal. Chargement imposé E Chargement réel:l'échantillon (transformation s'échauffe exothermique) MS 1i T Fig.II-14: Représentation schématique du couplage thermomécaniquedu à la chaleur lat ente de transformntion. -33- de l'échantillon.S'il s'agitd'un.monocristal,un naturecristallographique essai de traction occasionneI'apparitiond'une unique variante de martensite[DKT74] qui entraîneune déformationréversiblepouvant arteindrel0-l (fig.Il-15). Au contraire,dans un polycristal,plusieurs danschaquegrain, entraînantune déformation de variantesapparaîssent plus faible,pouvantatteindrejusqu'à6l0-2 (fig'Il-16)tsl' transformation Fig.ll-|5: Éprouvettemonocristallineavant et après transforntation ,n itartensitesousl'ffit d'unecontainte(d'aprèsDominiakS' ffi-tt, - LPMM - (JniversitédeMetz). des ($II.2.l.l) représente 6)Bupp91la rhermoélasricité linéairedesaciersou alliagesclassiques par (essai traction de isothermes pour chargements des d'environ1g-3 révcrsibles déformations exemple)ou de | Û5 K-l lorsde variationsde tempéralure' -34- CHAPITREII: 500um Fig.ll-16: Micrographies montrant la croissance de Ia phase nmrtensitiquedans un polycristal de CuAIBe (d'après A. Eberhardt LPMM - Universitéde Metz). -15 CHAPITRE II: ûude btbl b) Fluageanisotherme: Les températuresde transition augmententlorsque la contrainte appliquéeaugmente.La déformationmaximale de transformationest égalementfonction de cettecontrainte.Pour descontraintesimportantes, on obtientune déformationsimilaireà celle obtenuelors d'essaisde Si les contraintessont faibles,on observeI'apparitionde superélasticité. (fig.Il-17) qui font chuterla varianteset de groupesautoaccommodants déformationde transformation. t+ 100um Fig.ll-17: Formation de groupes de variantes .contrainte iîtooaeonttnodantes l.ors d'un refroidissementSoLts nulle (cl,aprèsDominiak s. - LPMM - Universitéde Metz). Là aussi,le comportementdépendde la naturecristailographiquede I'échantillon(fig.II- I 8). - 36- CHAPITRE II : Étude bibliosraphiq ue l0-r Déformation maximale de transformation 3à610-2 Contrainteappliquée FiS.lI-18: Représentation schématique de Ia déforrnationmnximnlede transformationlors d'essais de fluage anisothermepour un mono et un polycristal. Les applicationsindustriellesde la superthermoélasticité sont multiples: branchesde lunettes,fils et prothèsesdentaires[894].'Cependant, elles recourent principalement à I'effet superélastiqueisotherme. Le comportementobservéen fluageanisotherme n'estpas encoreexploité,le manquede modèleset une certaineméconnaissance du comportementen sontles principauxresponsables. 11.2.4 - DIFFERENTS TYPES D'ALLIAGES ET DOMAINES D'APPLICATION Historiquement,les alliagesde nickel et de titane(NiTi) sontlçs premiers alliages à mémoire de forme à avoir été utilisés dans I'industrie.La métallurgiede cesalliagesest complexeet leur coût restepar conséquent trèsélevé.Moins onéreux,les alliagescuivreuxsontégalementplus faciles ils résistentassezmal à des à fabriqueret à mettreen oeuvre.Cependant, -37- aluminium-nickel (CuAlNi) ont une meilleure tenue en température d'environ200"C) mais sont plus difficiles à (usqu'à des températures élaborerquelesCuZnAl (tab.Il-l9). TiNi Densitéfte/m3) Résistivité(10-6 Wm) Austénite CuAlNi CuZnAl 6500 72W 7800 I 0.1 0.07 0.14 o.l2 Martensite 0.8 470-620 400480 Chaleurspécifique(J/lcg/K)- 390 Chaleur de transformation(J/ke) 250ae 8000 80m Moduled'Young(GP4) 70-98 80-100 70-100 Limite élastique(MPa) Austénite 150-300 Martensite200-800 150-300 r50-3m -200/100 -zm,ll70 -2ae1r20 To de transformation (oC) 20-30 20-30 t0-20 t5 l0 30 Monocristal t0 10 l0 Polycristal 4 2 2 ("C) Hvstérésis Amortissement(Vo) Déf. de transformation(%o) e,t de Tab.II-|9: Propriétés thermomécaniques principaw alliagesà mémoiredeforme tBPg4l' pansformationdes Les alliages de cuivre-aluminium-béryllium(cuAlBe) développés mécaniqueset une récemmentprésententde bonnescaractéristiques déformationde transformationsupérieureaux autresalliagescuivreux,il I'alliagele plus prometteurauniveauindustriel' estactuellement Les domainesd'applicationdes AMF peuventêtre classésen quatre et amortisseur' superélastique : actuateur,connecteur, classes . Les actuateursélectriquesou thermiquesserventà la productiond'un travail (forceet déPlacement). -38- ,CHAPITREII: Etudebibliograi,': . Domainesd'application desAMF Secteursindustriels Actuateurs: Changement de formeet production d'untravail (ressort, lames) - électriques - thermiques Contrôle du déglaçagedes lignesde hautetension Contrôle du fléchissement des lignes de hautetension Disjoncteur Fusiblesréarmables pour transformateur Valveanti-feu Systèmede détection AutomobilelTransport: Activateurs dans les Emboutspour cadrede Connecteurs: Maintien,serrage, positionnement de pièces,attachesde toutessortes Connecteursà grand nombred'entrées-sorties Relaisde sécurité Mécaniquedivens: Revêtement anti-cavitation Amortisseurmécanique Rondelles Embouts de tuyauterie Superélastiquae: Déformation importanteet reprise de la formeinitiale unefois la contrainte Branches de lunette superélastiques Fils superélastiques Amortisseurs: Diminutiondu niveaudebruit et desvibrations superélastiques Prothèsesdentaires Planche. I I -20: Principales tions des -39_ iagesà mémoiredeforme tB94l. CHAPITREII : É,tudebibliosraphique Les connecteursutilisent I'effet mémoire double sens et le retour contraint. Le but est de produire une force (de serr4gepar exemple) importante. Les applications de la superélasticitésont liées aux importantes déformationsréversiblesqu'il estpossibled'obtenir. s'utilisentafin de diminuerles niveauxde vibrationet Les amortisseurs de bruit. peuventêtreutiliséesdanstousles Cesdifférentesclassesde comportement secteursindustriels(PlancheII-20). Les principauxsuccèsproviennentdes dansle secteurdu textile (armaturede applicationsde la superélasticité soutien-gorges [T90]), de la lunetterie(brancheset pont de lunette superélastiquestM92l) et du biomédical tF92bl (fils dentaires la bagued'étanchéité superélastiques tF88ltF92al).Pour les connecteurs, RaychemtR89l est I'applicationla plus importante.Les actuateurssont multiples(briseroches[T92], compteurde cycle,tA95l)et peuventêtre intégrés dans de nombreux mécanismes(thermomarqueur,cafetière électrique,friteuse,) tB94ltT90lU921. II.3 - MODÉI-ISNTIONDU COMPORTEMENTDES ALLIAGES À MÉMOIRE DE FORME: LES NMTÉNENTESAPPROCHES II.3.1- OBJECTIF Le but essentieldu présenttravail est de décrire le comportement d'un alliageà mémoirede forme.Ceffeprédiction,sous thermomécanique formed'unesimulationnumérique,doit permettrede déterminerla réponse (principalementla déformation)à un chargementdonné (contrainteset température)la plus proche possible de la réalité expérimentale. L'élaborationde modèlesde comportementdes alliagesà mémoirede difficile par le caractèrenon linéairede formeest rendueparticulièrement -40- CHAPITRE II : Étude biblio graphique la transformationmartensitique. Cependant, de nombreuxtravauxtelsceux de SaburiT. [SWT80],BerveillerM. lBZ84l, TanakaK. [TKS86], Sun fait avancerla Q.P. tSH94l, PatoorE. [PEB94]ont considérablement recherchedans ce domaine.L'élaborationde lois de comportementdu matériauamèneà envisagerplusieurstypesde démarches. Les deux plus globale connuedepuis courantessont I'approchephénoménologique longtempset I'approche"micro-macro"(microscopiqueavec transition d'échelle)qui sedéveloppefortementactuellement. . LE MOPÈI,E 11.3.2- LES APPROCFTES PTÉNOTr,TÉUOIOCIQI.JES BOURBONLEXCELLENT L'approchephénoménologique reposesur unedescriptionmacroscopique du phénomèneà modéliser.Cetteméthodepennetde traiterle milieu d'une manière homogèneà I'aide de lois standardsdans lesquellesles phénomènesphysiquessont représentés par des variables.Ces dernières sont identifiéesà partir d'essaismacroscopiques usuels.Les méthodes découlantde cette approchesont très utiliséescar elles donnentdes résultatsrapideset bien adaptésaux cas de chargementsmonotoneset proportionnels.Cesmodèless'intègrentaisémentdansun codede calculde structure.Cependant,dans le cas de chargements plus complexes,les paramètresdu modèle sont difficiles à obtenir par I'identification expérimentale. Ils manquentd'unebasephysiqueet ne tiennentpascompte explicitementde la microstructure.Par conséquent,il est difficile de prévoir dans quel sensjoue la microstructurevis à vis de telle ou telle propriété mécaniqueglobale. Ces modèlessouffrent d'un manquede caractèreprédictif, ils ne prédisentpas par exemplele comportement dissymétriquedes alliagesà mémoirede fonne observéen traction et en compression:la prise en compte phénoménologique de ce caractère (à identifier). nécessited'introduireunevariablesupplémentaire De nombreuses étudesphénoménologiques ont servisà la modélisation du comportementdes alliagesà mémoirede forme, pour les chargements -41- CHAPITREII: Énde bibliosraphique mécaniquesisothermesITKS861tF87l[PEB88a][RL94] ou anisothermes lBe2ltLBLe4lIBLLesl. On discute ici d'un modèle de superthermoélasticité qui, pour rendre comptedu comportementen fluageanisotherme, considèredeux typesde martensite:une martensite"autoaccommodée" (ou "thermique")et une martensite"orientée"possédantchacuneleur propre fraction volumique bien qu'il n'existeaucunedifférencecristallographique entre ces deux martensites. Le modèleBourbon-Lexcellent [895] s'inscritdansle cadrede la thermodynamique desprocessus irréversibles.L'énergielibre'spécifique du matériau permet, par l'écriture du second principe de la thermodynamique,de définir les critèresde débutde transformationdirecte et inverse. * Hypothèseset loh de comportement Le systèmeconsidéréestun systèmetriphasé: Phasel: austénite Phase 2: martensiteautoaccommodante. Thermiquement activée,cette martensitene génèrepasde déformationmacroscopique. Phqse 3: martensiteorientée.Induite par la contrainte,la totalité de la déformationde transformation lui estassociée. Soient to, el, ef et eff les déformationtotale,élastique,de transformation et thermique de la phasecr (c=1, 2 ou 3). Les constantes thermoélastiques sontconsidérées égalesdanslestroisphases. et tf=r? -ef =tr' tèl=,?=t3=t, (rr.1) Llhypothèsequi consisteà différencierdeuxmartensites permetd'écrire: rl =r?-o =) gt =g? -42- (rr.2) CHAPITRE II : Etude bibtiographiaue En notant f, f6 et fu les fractions volumiques totale (f=f6+f1), de martensiteorientée et de martensiteautoaccommodée,la loi d'éitolution de la déformation de transformationest donnéepar: (rr.3) êr = eTfo mesuréeà partir d'un avec eT la déformationmaximalede transformation, essai de traction. Une première imprécisiondu modèle provient de l'absencede loi d'évolution pour eT. Cette variab.leest supposée appliqué. du chargement indépendante La déformationtotalee du matériautriphasés'écrit: (rr.4) s - (l - fo - rr)rt + f7E2+ foe3 s'écriventalors: et les lois de comportement o=pfl=o. t=te fst *t1 et er = erfo (II.5) avecE le moduled'Young,p la massevolumiqueet Q l'énergielibre du système. x É,nergtetibre du système L'énergielibre spécifiquede chacunedes phasess est composéed'une énergiechimique,d'uneénergieélastiqueet de la chaleurspécifique. rI -rln -ri)' -efl -r,âo *cu[t-* . oâo Qo(r*,r)= ro) +(r" (rr.6) ,f,or én"tgie interneet entropiede la phaseu à I'équilibre "t thermodynamique Cv: chaleurspécifique deréférence et température T et Tg: température ufo a o L'énergie libre du systèmetriphaséest défini de la manièresuivante: -43- ue CHAPITRE II : Étudebibtiographia O- (l - fo - fr)Ol + fr 02+ fo 03+ ^O (rr.7) ÂQ est un termed'interactionentreles différentesphases,choisi comme étant donné par la relation: ÂQ= (fo * rrXr - f. - fr)Qi,+ fofl$1s (rr.8) l'énergied'interactionentreI'austénite(la,martensite Qit ( Q;1)représente orientée)et la martensite(la martensiteautoaccommodée). Le calculdonnepour l'énergielibre du système: -trn+l -rr)' fo - t +cfr-r0 v 3(,-rr 0(e,r,fo,fr)= tO) 2p\ \ +uôl- r *ôt- fr6(r) + f(l - f)qit t(.ât -'ôt ) avec:nf trl = (uôt"ât )- (rr.e) (r.10) * Inis d'évolation permetd'écrireles équationsd'étatet de L'inégalitéde Clausius-Duhem définir les critères de transitionde phase.Bourbon et Lexcellent. choisissentde sépareren deux partiescetteinégalité,ce qui revient à découplerla martensite"thermique"de la martensite"orientée".Sous elless'écrivent: forme incrémentale, nltrlt>o où II: et IIf et nftrlft>o (r.11) sont les forces motrices associéesà I'apparitiondes orientéeet thermique. martensites rl - - rrôi, +nfitrl #=+-(r-2r)oit (rr.12) ri = -foôi,+n6trl #=-(r-2r)Qit (rr.13) -44- CHAPITREII : Etudebibliosraphique Pour préciser les cinétiquesde transformation,Bourbon et al. définissent deux fonctions critères Yl et Y2 pour chacunedesdeux martensitesafin de caractériser les transformation directe et inverse: dYj=g définit la transformation directe et dYj=O h transformationinverse (a=o ou T). yJ - ill - t! tzc) et yA --rl *k?@ù Gr.r4) Les fonctionsk sontprisessousles formessuivantes: * - ô,,)r" r.ftro)=+m(l- ro)+(oOn ao - zlr"1r - rr)* (a0,, - ô,,)r, r.frrr)=+fo, "(-o*(t-tg)) UiL J - ô,,Xr" - r) r.3rr.): (+Q,, +h(ro)* u1 . t - ôi,)(rr - r) n?rrr): +(00,, +lr-or"(-o'(t-^9))lh11 .l "î l, Les critères(II.14) permettentd'obtenirles lois d'évolutionde f6 et fu. Cependant, ellesdoiventencoresatisfairelesexpressions suivantes: = -l:-fa)b' pour ra tansformntiondirecte: {1" PourIa transformntion inverse: Jil t Lrr=-(l -rri'i t = -fob? f tr; =-rr;1i (II'15) GI16) Les paramètres introduit, ("L ,,uzo,u'r,uT,b1,b2,b'-,b; sont à ) déterminer d'une manière phénoménologiquepar l'étude de résultats expérimentaux.Cette approchepermet d'obtenir un bon accord avec les courbes expérimentalesde superthermoélasticité(fig.Il-21). Ce modèle ignore cependantla réalité physique du mécanismede déformation associé à la transformation martensitique,en particulier la multiplicité des produits de la transformation(les variantes).Les paramètresde ce modèle n'ont, -45- CHAPITREII : Étudebibliosraphique pour certains,aucunerêalitéphysique:on leur assigneune valeur qui auxessais expérimentaux. permetauxrésultatsdecolrespondre l,t ' u[ tfl") 3l zaf 26f l:10 l?0 2.41 221 t00 IJ EO (fr 10 Tccr 0 Stnin (f,,) r0aes4050ae708090 Fig. II-21: Confrontation des conrbesexpérimentales {Cineq phénonÉnologique par de l'approche et théoriques obterrues Bourbon-Lexcellent [895]. a) Essai superélastique à T=Ms+16"C. b) E'ssaidèfluage anisothennesolts80 MPa. On choisit dans ce travail une approchemicromécaniqueavec transition d'échelle qui nécessiteI'utilisation de variablesinternes représentantau mieux la microstructureet possédantun sensphysiqueprécis. PARTRANSITIOND'ÉCHELLE II.3.3- LES APPROCHES utilisentunetransition ou micro-macro, d'homogénéisation, Cesapproches microstructuraux d'échellequi prenden compteI'influencedesparamètres existent,chacuneétant global. Plusieursapproches sur le comportement optimalepourunecertainemicrostructure. périodique[8L76][P87]donnentde bons d'homogénéisation Les méthodes résultatspour des matériauxde typecompositeà fibres.La méthodedes un faible moduleseffectifs tP87l est optimalelorsquele milieu présente sont trèsperformantes désordretandisque les méthodesautocohérentes très désordonnées pour des milieux présentantdes microstructures tel queI'acieret sesalliages).Ellesvisentà (matériaumicrohétérogène -46- CHAPûRE II: É,ndebiblioeraphique déduire le comportementd'un milieu hétérogènede celui de ses constituants. L'utilisationdesméthodesautocohérentes nécessite au préalableunebonne descriptiondu comportementau niveaumicroscopique.À ce niveau,les approchespeuventêtre différentes.On discutedansun premiertemps I'approchemicromécanique utilisée par Sun tSH93l puis la méthode développéeprincipalementpar Berveiller et Zaoti lBZ84lIBZ93l qai serviraà rendrecomptedu comportement macroscopique à parth de l'étude du comportement monocristallin(ChapitreIII). II.33.1 - L'approchede Sun [SH93]tSH94l Pour déterminerle comportement superthermoélastique desalliagesà mémoire de forme, Sun Q.P. et Hwang K.C. utilisent une approche micromécaniquebaséesur la thermodynamique de la ffansfonnation.Le volumereprésentatifdu comportement globalest constituéd'un ensemble de grains pour lesquelsil n'existe que deux états microstructuraux possibles:austénitiqueset martensitiques.Les grains transformésse comportentcommeuneinclusionde fractionvolumiquef dansunematrice par lesgrainsnontransformés élastiquereprésentée (fig.A-2z). E i 3 ,E i i , T 1) 'lf-('i:)v, / % I'r, û'r 2.oy =- Echantillon Elément représentntif o- Graii Fig. II-22: Microstructure et modélisation micromécaniquede l' élément r epré sentatif. -47- Dans l'hypothèse des petites perturbationsola déformation totale macroscopiqueest donnéepar la moyenne volumique des défonnations locales élastiqueee et inélastiqueeP. E',=('i ), . ('l ), (rr.r7) de la,matriceet Si V, Vn,, VI sont les volumesde l'élémentreprésentatif, de I'inclusion(V=Vm+VÙet pour un matériauisotropeet homogène,la E estobtenuepar la relationsuivante: déformationmacroscopique Eij=n[ +ef = M,jnrn+ t(ti )n (tr.18) D'une manièreincrémentale,en supposantla vitessede déformation moyennemicroscopiquefaible devantla vitessede déformationtotale macroscopique,Sun obtient: = Mi3roin+ eff + f (rf ËI = Mi;r.rir.r )ou, (rr.re) localeePestdirigéesuivant La déformationinélastique(detransformation) la contraintemoyennedansla matricesM et est limitée par I'amplitudedu cisaillementg du réseau. ef 'rt.-tlf =-ç:- (rr.20) avec: g =13elr (u.2r) 'f 'f "n z "oy oY=;.Ff+ =3,F''ff ,3q (n.22) extérieures sM représenteI'effet combinédescontraintesmacroscopiques et descontraintesinternes.SelonEshelbyet Tanaka,ce tenseurs'écritpour uneinclusionsphérique: -48- CHAPffiREII: Étudebibliosraphique 'f =(":)u,= S,j avec: fB1 (r)(sl)v 21t(rXsv- Br(r) (rr.23) 7) (tr.24) ls(l - v) * Etude thermodynantique L'énergiecomplémentaire Y associéeà la transformationest fonction des variablesde contrôleE (contrainteappliquée)et T (température) et de deux variables internesf (fraction de martensite)et (rf ) (déformation ''J/VI moyenne de transformation).Pour un volume unitaire, on a: (,\ y[ >,T,f,(eP\ l=-(u/,r +\i/z*wru,+ÂG.6-r,:EI) tn.zsy \ [t-'r/vr/ . Wl+W2 représente l'énergiede déformationélastique. 1 \Ml =:EiiMiinIn est reliée directement à la contrainte macroscopique et w2: -Irr(r)e2r * esrla cause des f,tr(rx2 (ril)u,(rf )", contraintesinternesproduitespar la transformation. 6(yrta- ye )f 'th{ et sontles . wru. = constituel'énergiesurfacique. ïn d6 énergiessurfaciques desphasesmartensiteet austéniteet do le diamètre du grain. ' ÂGch : ^GA+t (r)r estl'énergiechimique Sun et al. décriventles effets d'hystérésisen introduisantun pseudo potentielW6 qui représente l'énergiedissipéependantla transfoqmation. f V/d = Dgf"u t. avec: fcu = ldfl la fractionvolumiquecumulée J 0 de martensite et D6 une constantè du matériau. -49- CHAPITREt!; ÉtuAeUiUnolraph@ Le comportementde la transformationest décrit par l'équilibre énergétique et le secondprincipe de la thermodynamique,à savoir: . âv. a\P /;p\ =wa _\ )o =Ët.ftrJ(êil/u, Y>,r ' (rr.26) On obtient alors pour le critère de transformationFg - rB1 cs(r)=0 ,, (r,r,r,(ef)", rrr(efl )))=Ër(tu ' (rr.27) avec: ( /.p\ : - rB1 - rBltrl(ef )(rx fBr rrl(ef Jlsii )" ) )r,,11tu \-,i/vr)- \2 1.-,j \ - (rr.28) et: co(r)- Ds. ^GA+t(r)-;t tG)î2(rr.zs) ry+ Sunet al. proposequeCo(T) dépendégalementde la fractionvolumiquef et pose: (rr.30) Co(T,f ) = Co(T) + a(T)f(T) où ct(T) est ajustéed'une manièrephénoménologique. * Loi de comportement L'accroissementde la transformationf en fonction des paramètres extérieuresimposésS et t est obtenueen utilisant la relation de Ëç=Q.Le résultatest: consistence r= l+rio'', [ -.M [.^^ArM,-. [çL -50- .[+'#\'i)u, ( E *V CHAPITREI I : É,tudebiblioeraphique _4ldBr(r)* oarr).li] 4) dr drJJ (tr.31) (+Br(r)+c(r)) La loi de comportement macroscopique est,en utilisant(II.19): I, - rB1 rrs[s,, cl(ril)u, ,r[r." - rB1 rrl(ril")u, u.32) Dans ce modèleprésenté,la déforrrationde transformationconserveune forme à priori et la réalitéphysiquedu mécanismede déformationassocié à la transformationmartensitiqueest toujoursignorée.Le nombredes variablesinternesestfaible:fractionde martensiteet déformationmoyenne de transformation.Sur un plan théorique,le choix d'unplus grandnombre de variablesinternes,commeles fractionsvolumiquesdes différentes variantesde martensite,se justifie plus facilement.L'échellelocale de descriptionest alorsla variantede martensite:cela nécessitela prise en comptedescontraintesphysiquesexercées surcesvariables. il,.33.2 - L'approcheutilisée Nous n'énoncerons ici que les principesgénérauxde la méthode.Ils seronttraduits sousforme mathématiquedansle chapitreIII consacréà l'élaborationde la solution.Le principede la méthodereposesur le fait qu'un matériauhétérogèneest constituéd'un nombreimportantde grains ayant un comportementspécifique.Il est donc permisde penserqu'en connaissantle comportementdes grains ainsi que les textures cristallographique et morphologique, cetteméthodeà transitiond'échelle permettrade calculerd'unemanièredéterministele comportementglobal du matériau.Cependant,la méthodene recourepas à une description statistiqueet systématique de la structurehétérogène du matériau.Elle est - 5t - CHAPITREII : Étudebibliographique fondéesurunehypothèseimplicitede distributionqui estcelledu désordre elle requiert,pour avoir un sens,une parfait tK78l. En conséquence, (fig.Ilet de microhétérogénéité double condition de macrohomogénêité 23). Fig.II-23: Représentationschématiquedes conditions de d<<l et l<<Let de microhétérogénéitémàcrohomogénéité Cetteméthodeest doncparticulièrementadaptéeà l'étudede l'a structure polycristallinede I'acier,desalliagescourantset desalliagesà mémoirede de déformationest lié élémentaire forme.Danscesalliages,le mécanisme à la formation des plaquettesde martensitedansles grains.On cherche donc à déterminerle comportementlocal (microscopique)à l'échelledu sontprisesen comptepar transition grain.Les interactionsintergranulaires global(macroscopique). d'échellepour déterminerle comportement Ainsi, on chercheà représenterun agrégathétérogèneque constitueun alliage polycristallinpar un matériauhomogènede mêmecomportement (inconnubien sur).Nous sommesalors amenésà traiter le problèmeréel d'unemanièresimplifiée(fig.il-zq. à un site(4),on assimileles Dans le cas de la méthodeautocohérente entrechaqueélémentde I'agrégatet I'ensemblede interactionsmécaniques tous les autresaux interactionsentre cet élémentet le milieu'homogène le milieu I on chercheà ivalent à n sitesdéveloppépar Fassi6)-4) une approcheplus précisetelle que le modèleautocohérent n "*irt" et avecles n grainsvoisins. équivalent le milieu Ës interactioniavec Fetni [F85].Il prenâ "n "o*pt" -52- CHAPITREII: Ende bibtiographique Matériau Homogène Equivalent Fig.II-24: Schématisationdu principe d'une méthode d'homogénéisation. En fait, on remplacele milieu granulaireentourantun certainélémentpar un milieu homogènede comportement inconnumaiséquivalentà celui du milieu initial (fig.Il-25). M.H.E. (+ Interaction.d'un grain assimiléà lnteractiondu grain avecresaures gratns avecle M.H.E. Fig.II-2S: Fondementsde la méthodeautocohérenteù un site. Ce problème se ramènealors à celui de I'interaction entre une inclusion et une matrice infinie (le matériau homogèneéquivalent),bien connu des mécaniciens,Eshelby I'ayant traité en 1961 [861]. La solution, explicite -53- élément de I'agrégat. Il suffit, pour identifier le comportement du milieu homogèneéquivalent,de relier les variablesglobales(cellesde l'agrégat) aux variables locales (celles des éléments de I'agrégat) par le biais de relationsde localisation(fig.Il-26). + + + Llpl tz pz + appliquéeaux alliagesà mémoire Fis.II-26: Méthodeautocohérente des relationsde localisationqui Ll et L2 représentent aer*r. peimettent de déterminer la propriété.du milieu homogène -équivalent ù partir de cellede chaqueconstituant' On peut noter que le modèleautocohérentprend en comptela forme et maisla notion I'orientationdesgrainspa-rrapportau repèremacroscopique d'infini néglige la répartitionspatialedes grains.Cette.notion implique soit trèspetite représentatif égalementquela taille I du volumeélémentaire L de la pièce(fig.[-23). faceauxdimensions a permisde passerde modèles L'évolution des méthodesautocohérentes simples,commeceuxde Sachsts28l ou de Taylor [T38], à desmodèles par HersheytH54l et KrônertK58ltK6ll qui plus complexesdéveloppés appliquésà la ont été les premiersà formulerdes schémasautocohérents dansle casde comportementlinéaire. mécaniquedessolideshétérogènes Hi1 tH65l abordad'unemanièreplus généraleet rigoureuseles équations ce qui conduisitBerveiller et du schémaautocohérent, fondamentales Zaoui [8284], puis Lipinski [L889]tL92l a améliorécette méthodequi fournit actuellementde nombreux modèles satisfaisantspour des non linéaires.Le schémanumériqued'unetelle méthode comportements mais plus est plus lourd que celui des approchesphénoménologiques -54- CHAPITRE II: Etude fiables, il peut servir de basepour dévetopperun modèleanalytique destiné à être introduit dans un code de calcul de structure[G95]. Concernantles alliages à mémoire de forme, I'approchedonnede bonsrésultatsdansle cas de chargementisotherme[PEB88b][PEB94]en I'absencede cyclage.Une nouvelle génération de modèles autocohérentsdits à double transition d'échelle est développéedepuis peu [M94]tL95l. Ces modèlesont une approche plus fine à l'échelle microscopique et permettent de rendre compte plus physiquementdu comportementplastiqueet des phénomènes liés aux dislocations et à leur mouvement(formation des cellules de dislocation). La méthode autocohérentese caractérisepar son adaptabilitéà une grande variété de problèmes des mécaniquesdes matériaux hétérogènes.Sa principale limitation est liée à I'abandonde toute description de la répartition spatialedes grains, du au fait que I'on assimile I'environnement de chaqueinclusion (ou grain) à un milieu homogèneinfini. TI.4. CONCLUSION Dans ce chapitre à caractèrebibliographique, nous avons souligné les propriétés de la transformation martensitique: absence de diffusion, déformation caractériséepar une faible variation de volume et un fort cisaillement n'engendrantpas de plasticité,multiplicité des produits de la transformation. Les mécanismesde déformation impliqués dans le comportement des alliages à mémoire de forme ont également été étudiés: transformation mono et polyvariante, réorientation en phase martensitique, accommodationdesvariantes. Le caractère endo et exothermique de la transformation entraînant un dégagementet une absorptionde chaleurlors des transformationsdirecte et inverse est également souligné. Ce phénomène est responsablede I'influence de [a vitesse de déformation sur le comportement -55- les alliagesà mémoire de forme. Au niveau de la modélisation, I'approcheadoptéeprocèdeen deux étapes interagissantI'une avecI'autre.Il s'agit dansun premier tempsde préciser la forme des relations de comportementlocal puis d'effectuer la transition d'échelle permettantde relier les grandeursmacroscopiquesaux grandeurs microscopiques.Cela va nous permettre d'accéderau comportement superthermoélastiqueet notamment,par une meilleure prise en compte de la température, au comportement en fluage anisothermeet aux effets de vitesseen superélasticité. -56- CHAPITREII : Etudebibliosraphique - Référencesbibliographiques- lAell Norme FrançaiseNF A51-080, "Alliages à mémoire: (1991) vocabulaire et mesures" tAesl AMT, "AMT your partner for shapememorysolutions", Dépliantcommercial( 1995) A.M.T. n.v. / Industrieweg43 | B-3540 Herk-de-Stad (Belgique) Tél: +32(0) 131553513 lBe2) BrinsonL.C., "Constitutive behaviorof ShapeMemoryAlloy: One dimensionalthermomechanicalderivation with nonconstantmaterialfunctionsand redefinedmartensiteinternal variable",MaterialsandDevices,pp.729-742 (1992) tBe4l BordeY., "Lesalliagesà mémoiredeforme", dansIndustries et Techniques, no755(1994) tBe5l Bourbon L.C., "Contribution à l'étude isotherme et anisothermedu comportement cycliquedesalliagesà mémoire deforme", Thèse,Universitéde Fanche-Comté (1994) [8L76] BourgatJ.F.,LauchonH., "Applicationof thehomogeneization methodto compositematerials with periodic structure", Rapportde recherche n"208,IRIA(1976) lBLLesl BourbonG., LexcellentC., Leclercq5., "Modellingof thenon isothermalcyclic behaviourof a polycrystallineCu Zn AI ShapeMemoryAlloy", ProcsICOMAT'95,Lausanne,Les Éditionrde Physique,pp.22I-226(1995) -57- CHAPITREII : É,tudebibliographique tBPe4l des Berveiller M., Patoor 8., "PropriétésThermomécaniques Alliages à Mémoire de Forme", dans Technologie des alliages à mémoire de forme, Éd. H".mès, Paris (1994) lBZ84l Berveiller M., Zaoui A., "Modelling of the Plastic Behnvior of InhomogeneousMedia", J. Eng. Mat. and Tech., 106, pp'295- 29e(1984) IBZe3l BerveillerM., ZaourA., "Modélisationdu Cor4portement Mécaniquedes SolidesMicrohétérogènes';Ch. de Formation Cluny(1993) AvancéedeMéc.desPolymères, of tCOCTgl CohenM., OlsonG.8., ClappP.C.,"On the'Classification Displacive Phase Transformation",Proc. ICOMAT'79, Cambridge(MA), MIT, PP.l-l L (1979) tD82l cofficienfs", Symp. and homogenized Duvaut G., "EJTective on FunctionalAnalysisand Differential Equations,Lisboa, Portugal(1982) [DDATS] DelaeyL., DeVos J., AernoudtE., "ShapeMemory Effect, superelasticityand Damping in cuznAl Alloys", INCRA Report78R1,pp.55(1978) Projectno238, \ù/arlimont H., tDKTT4l Delaey L., Krishnan R.V., Tass H., and the memoryeffict pseudoelasticity "Thermoplasticity, J. Mater.Sci.,9, with martensitictransform.ations", associated s44(r974) pp.1536-1 IDZg}l Duerig T.W., ZadnoG.R., "An Engineer'sPerspectiveof dansEngineeringaspectspf ShapeMemory Pseudoelasticity", Alloys, ButterworthHeinemannPub., Londres,pp'369-393 (1eeO) ISBN 0-750-61009-3 -58- CHAPITRE II : Etude biblioeraphique tE6ll EshelbyJ.D., "Elastic inclusionsand inhomogenei,ties", Prog. in Solid Mech., 2, pp.89-140(1961) tF85l Fassi-Fehri O., "Le problème de Ia paire d'inclusions plastiques et hétérogènes dans une matrice isonope application à I'étude du comportement des matériaux compositeset de la plasticité", Thèse, Université de Metz (re85) lF87l FremondM., "Matériauxà mémoirede forme", C.R. Acad. Sciences, Paris,T304,SérieII,7, pp.239-244 (1987) tF88l FLEXMEDICS Co., "Precision Superelastic archwire products developedfor optimumresultsand accuracyin the corrective appliancesystem",Dépliantcommercial( I 988) FlexMedicsCorporation| 620Ford Center| 420North Fifth Street/ Minneapolis, Minnesota55401(U.S.A.) Tél: (612)338-8265 IF92al FURUKAWA ELECTRIC Co., "Furukawa NT Alloys", Dépliantcommercial (1992) The FurukawaElectricCo.,LTD / 6-1 Mamnouchi2-chomeI Chiyoda-ku/ Tokyo (Japan) Tél: (03) 286-321113219 tFe2bl FLEXMEDICS Co., "Nickel-Titanium MeniscalSutureNeedle Kit ", Dépliantcommercial(1992)tF88l tG86l GueninG., "Alliagesà mémoirede forme", Techniquesde I'Ingénieur, M530(1986) tcesl Gillet Y., "Dimensionnement d'éIéments simplesen alliage à mémoiredeforme",Thèse,UniversitédeMetz (1995) tHs4l HersheyA.V.,J. Appl.Mech.,21,pp.236(1954) -59- CHAPûRE II: ÉtudebibliosraPhique tH65l mechanicsof compositematerials", Hill R., "A self-consistent J. Mech.Phys.Solids",13,pp.2I3-222(1965) tHezl HornbogetrE., "Alloys with ShapeMemory- New Materials for the Technologyof the Future ?"0dansProgressin shape memoryalloys,Éd. S. Eucken,Allemagne,pp.3-22'(I992) rsBN 3-88355-178-3 tHe6l HautcoeurA., Thèseen cours,LPMM, Universitéde Metz Irezl IMAGO, "Imago: la matière vive", Dépliant commercial (reez) tICezl in JenaA.K., ChaturvediM.c., dansPhasetransformations Materials,Éd. PrenticeHall, U.S.A.(1992) rsBN0-13-6630s5-3 tKssI Krôner E., "KontinuumsTheorie das Versetzungenund gen", Z. Phys.,-151,pp.504( I 958) Eigenspannun tK6ll Krôner E., "Zur plastischenVerformungdes Vielfristalls", (1961) ActaMet.,9,pp.155-161 tK78l KrônerE.,J. Phys.F.,MetalPhys.,8,pp.2261(1978) tKe0l in Ceromfcs",dans Kelly P.M., "MartensiticTransformntions I, Éd. by MuddleB.C., pp.335MartensiticTransformations 346(r9e0) rsBN0-87849-610-6 tLe2l Lipinski P., "Modélisationdu comportementdes métauxen transformationsélastoplastiques finies à partir des méthodes de transitiond'échelle",Mémoire d'habilitationà diriger des Universitéde Metz (1992) recherches, ll,esl de Ia formation des LemoineX., "Analysemicromécanique sur le comportemcnt cellulesde dislocationset conséquences desaciers",Thèse,Universitéde Metz (1995) CHAPITREI I : Étudebibliographique tLBse] Lipinski P., Berveiller M., "Ela'stoplasticityof metals at large strains", Int. J. of microinhomogeneous Plasticity,5, pp.149-172(1989) lLBLe4l LeclercqS.,BourbonG., LexcellentC., "Pldsticitylike model of MartensitePhase Transitionin ShapeMemory Alloys", ProcsESOMAT'94,Barcelone,Les Éditionsde Physique, (1994) pp.513-518 tLC82l J. Lemaitre,J.L. Chaboche,dansMécaniquedes matériaux solides,BA.PUNOD,Paris(1982) lMezl MARCHON, "Flexon:TheMetal With a Memory",Dépliant commercial(1992) Marchon@/ 35 Hub Drive / Melville / New York L1747 (u.s.A.) Tél:(516)755-2020 tMe4l Muller D., "Influence de l'écrouissage non local et de l'hétérogénéisation inffagranulaire sur le comportement des acierspolycristallins",Thèse,Universitéde Metz (lgg4) tN78l Z. Nishiyama, dans Martensitic transformation, Academic Press,New York (1978) rsBN0.12.519850-7 lP87l Pideri C., "Matériaux compositesélastiques.Comparaison de quelquesméthod.es d'homogénéisation",Thèse, Université P. et M. Curie,ParisVI (1987) tPBeOl Patoor E., Berveiller M., dans Les alliages à mémoire de forme, Éd. Hrr.ès, Paris,(1990) isBN 2.86601.236-4 -61- \ CHAPITREII: Étude [PEB88a] PatoorE., EberhardtA., BerveillerM., "Thermomechanical behaviourof shapememoryalloys",Arch. Mech.,40, pp-775794(1e88) tPEBSSbl PatoorE., EberhardtA., BerveillerM., "An Integral Equation B,ehaviorof Shape for the PolycrystallineThermomechanical Memory Alloys"o Procs. MECAMAT, Besançon'France, (1988) pp.3r9-329 tPEBg4l Patoor E., EberhardtA., Berveiller M., "Micromechnnical Modelling of the ShapeMemory Behavior", Procs ASME WAM'94,ChicagoI.L., AMD-IP/PVD -292,pp- 22-37(1994) tR89l RAYCHEM, "TINEL@ Shape Memory Alloys", Dépliant commercial(1989) RaychemCorporation/ Metals Division / 300 Constitution Drive / MenloPark/ CA94025(U.S.A.) TéL (415)361-s895 tRG87l and Origin Rios-JaraD., GueninG., "On the Characterization of the dislocationsassociatedwith the Two-WayMemory Alloys", Acta Met., 35, Effect in Cu-Zn-AlThermoelastic et pp.I2l-126(1987) pp.109-119 Raniecki8., LexcellentC., Eur.J. Mech.A/Solids,13,n"1,pp. zr-so(t9e4) ts28l Zeit. Der SachsA., "Zur Ableitungeiner Fliessbedingung", V.D.I.,72, pp.739-747 (1928) tse3l Stoiber J., "HysteresisEffects during Martensitic Phase in Cu-Zn-AlShapeMemoryAlloys", Thèse Transformations (1993) de Lausanne Fédérale n"l115, ÉcolePolytechnique -62- CHAPITREII : Étudebibliosraphique tSH93l Sun Q.P.,HwangK.C., "Micromechanics modellingfor the ConstitutiveBehavior of Pollycrystalline Shape Memory AlIoys",J.Mech.Phys.Solids,4l,pp.l-I7 (Igg3) [SH94] Sun Q.P., Hwang K.C., "Micromechanics Constitutive D escription of Thermoelastic Mart ensitic Transformations ", Advancesin AppliedMechanics,31, AcademicPress,New York, pp. 249-298(1994) tSS87l Suzuki Y., SekiguchiY., "Applicationsof ShapeMemory Alloys", dansShape memory alloys, Gordon and Breach (1987) Publ.,1,pp.176-269 Science rsBN 2-88124-136-0 [SVD92] StalmansR., Van HumbeeckJ., DelaeyL., "The Two Way Memory Effect in Copper-BasedShapeMemory Alloys Thermodynamicsand Mechanisms",Acta Met. Mater.,40, nol.1, pp.292l-2931(1992) tSWTS0l SaburiT., WaymanC.M., TanakaK., NennoS., "Theshape memorymechanism in I&Rm.artensitic alloys",Acta Met., 28, pp.15-32( 1980) tT3Sl Taylor G.Y ., "Plasticsnain in metals",J. Inst. Mehls, 62, pp.307-324(1938) [T90] TOKIN, "ShapeMemoryAlloy", Dépliantcommercial(1990) Tokin Corporation HazamaBldg. / 5-8 Kita-Aoyama2-chome/ Minato-ku / Tokyo 107(Japon) Tél: (03) 402-6166 IT92l TOKIN, "Silent Rock or ConcreteBreaker Using Shape MemoryAlloy", Dépliantcommercial(1992) -63- CHAPITREII : Étudebibliographique Tokin America lnc. I 155 Nicholson Lane / San Jose / cA9s134(U.S.A.) Tél:408-432-8020 trKSs6l of Tanaka K., Kobayashi S., Sato Y., "Thermomechanics Transformation Pseudoelasticityand ShapeMemory Effect in Alloys ", Int. J. Plasticity,2, pp.59-72 (1986) lwBRTgl Wollants P., de Bonte M., Roos J.R., "A Thermodynamic Analysis of the Stess-InducedMartensitic Transformntion in a SingleCrystal",Z. Metallkde,&, pp.113-117(1979) lvDKT4l Warlimont H., Delaey L., Krishnan R.V., Tass H., "Thermoelasticity,pseudoelasticityand the Memory Effict Associated with Martensitic Transformations",J.' of Mater. Sci.,9,pp.1536(1974) D.S.,ReadT.A., "On the theory tWLR53l WeschlerM.S.,Liebermann of theformationof martensite",Trans.AIME, I97, pp.1503lsls (1953) -64- CHAPITRE I I I : M odéIisation duflua I e anisotherme CHAPITREIII: - Modélisationdu fluageanisothenne 67 Page III.I - INTRODUCTION ITT.2 - LE COMPORTEMENT DU 68 Page MONOCRISTAL rrr.2.r - CINÉMATIQUE DE LA TRANSFORMATION rr.z.z-crurÈnnDETRANSFoRMATIoN Ill.2.2.l - Potentielthermodynamique - Lagrangienréactualisé et forcesmotrices 111.2.2.2 de dissipation II1.2.2.3- Pseudo-potentiel - LOI DE COMPORTEMENT TTI.2.3 II1.2.3.1- Loi d'évolution III.2.3.2 - Modulestangentsthermomécaniques 69 75 75 80 82 84 84 85 III.3 - LE COMPORTEMENT DU 87 Page POLYCRISTAL III.3.T . OÉTTNITIONDU PROBIÈUN 89 TII.3.2- HOMOGÉi'ÉISNNON ET LOCALISATION 91 III.3.3 - APPROCTIEAUTOCOHÉNENTE 9l III.3.3.1 - Équationintégralethermomécanique 98 - Résolutionformelle 111.3.3.2 101 à un site III.3.3.3- Approximationautocohérente 105 rrl.3.4- REMARQIJE -65- CHAPITREIII : Modélisationdufluage anisotherme TTI.4- INFLUENCE DE LA VITESSE DE SOLLICITATION Page106 III.4.I - INTRODUCTION r06 III.4.2 - ÉVOIUTION DE LA TEMPÉRATUREDU POLYCRISTAL AVEC LE TAUX DE MARTENSITE M.5 - CONCLUSION 108 Page 111 nÉrnnsNCES BrBLrocRAPHreuES rrr Page113 -66- CHAPITRE I I I : ModéIisationdufluage ani!gtherme Dans ce chapitre, on présente la modéIisation adoptée pour décrire le comportementlié aux transformations martensitiques thermoélastiquesassistéespar un champ de contrainte. On considère Ia contrainte et la températurecomme'variables de contrôle. Le grain est pris comme éIément du volume représentatifet on définit la loi de comportementpour ce volume assimilé à un monocristal. Les effits intergranulairessont pris en comptepar une méthodede transition d'échelle. Nousétablissons d'abord Ie formalisme nécessaire à la localisation et l'homogénéisationdans le cas où la températureest une variable. L'équation intégrale thermomécaniqueainsi obtenueest résolue en utilisant l'approximntion autocohérenteà un site. ru.l .INTRODUCTION desalliagesà mémoire Le présenttravail portesur la superthermoélasticité parla formationde plaquettesde secaractérise de forme.Ce comportement martensiteorientéesparun champde contrainteappliquée($II.2.2.2).Deux typesde chargementsimple sont possibles:soit la contrainteappliquée superélastique), soit imposéeconstante(comportement varie à température varie (fluage est imposéeet la température la contraintemacroscopique anisotherme). Cetteétudefait suiteà une sériede travauxsurla modélisationdesalliages à mémoirede formeréalisésau Laboratoirede Physiqueet Mécaniquedes Matériauxde I'Universitéde Metz au seinde l'équipedu Pr. M. Berveiller. Un premiermodèlesimplifiê a vu le jour en 1986tP86ltPEB87l.Il considéraitune seulevariantepargrainet permettaitd'obtenirdespremiers Suiteà ce premiersuccèset sur la basedu modèle résultatssatisfaisants. développéen plasticitépar Lipinski [L92], B€Hh tB92l établit un en modèlede comportementpour la transformationausténite-martensite utilisant une approximationde type t0 I 1l pour décrireI'orientationdes variantesde martensite.El Amrani tE94l utilise ensuiteune orientation -67- CHAPI TRE I I I : Modélisation dufl uage anisotherme justifiée par desobservations (de Wpe12 ll l2l), ce qui cristallographiques a permis d'expliquer I'origine de la dissymétrieen traction et en d'hystérésis compression.Patoor[P95] inclut entretempsles phénomènes et de décharge(transformationinverse),ce qui permetd'aboutir à un modèlede comportementtrès performantpour le caractèresuperélastique (isotherme)des alliages à mémoire de forme. Ces modèlesprennent égalementen compte les contraintescinématiquesliées aux différentes fractionsvolumiques(devarianteset globale). Faisantsuite à ces travaux,I'objet de cette étude est'de considérerla températurecommevariablede contrôleau mêmetitre que la contrainte. (à l'échelledu réseaucristalLin) En adoptantune approchemicromécanique physiquesqui sont qui prenden compteles mécanismes microscopiques responsablesde la transformationmartensitique,on caractérisele comportementd'un monocristal($ilI.2). Cetteétapenécessitede définir un qui permetde décrirel'équilibreet l'évolution potentielthermodynamique d'un volume d'austéniteet de martensiteen fonction de variablesde contrôle telles que la températureet la contrainte.Le comportementdu polycristal est ensuite obtenu par I'approcheautocohérente($III.3). L'écriture et la résolutiond'une nouvelleéquationintégrale,sont alors nécessaires: on obtient ainsi une descriptiondu fluage anisotherme.On réaliseensuiteune étudethermiquesimplifiée,baséesur les résultatsde la classiqueet les travauxde Chrysochoos[CPM93].Ceci thermodynamique permet de prendreen compteles variationsde températureliées aux transformations directeet inverseet de rendrecomptede I'effetde la vitesse de déformationsur le comportement. - LE COMPORTEMENTDU MONOCRISTAL TTT.2 Plusieurs solutions existent quant au choix de l'échelle locale de description. Le volume constituépar un ensemblede grains peut constituer l'élément représentatif[SH94]. Dans ces modèlesla fraction de martensite -68- CHAPIT RE I I I : M odélisation du fl uage anisotheftne dans les grains prend les valeurs 0 ou I sans possibilité d'obtenir des informations précisessur l'évolution de la microstructure.À L'inverse, les modèles à frontières mobiles décrivent très précisémentcette évolution mais sont très lourds numériquementsi I'on veut décrire le comportement d'un polycristal constituéde nombreuxgrains On choisit une échelle de description intermédiaire considérant les variantesde martensitedans les grains. Une étudecinématiquepermet une description précise des mécanismesde déformation. La définition d'un potentiel thermodynamique permet d'établir un critère de transformation pour chaquevariante de martensite[PEB88]. On aboutit finalement à la loi de comportementdu monocristal [EPE95]. ru,.2.1- CINÉMATIQIIE DE LA TRANSFORMATION Considéronsun milieu soumis à I'application d'un chargement T. défini par unecontrainteE et unetempérature thermomécanique(s) participent à la En un point donnér du matériau,plusieursmécanismes déformationtotalelocalee(r): - l'élasticitéee(r), - la plasticitéeP(r), - la dilatationthermiqueeth(r), - la transformation eTlr;. martensitique Le comportementengendrépar I'ensemblede ces déformationsest inélastique,uneapprocheen vitessede déformationestdoncindispensable. on peutécrire: infinitésimales, desdéformations DansI'hypothèse =èi,(r)+ef(r)* èf (.)+e$tr) è1.;(r) (trI.1) (5) On négligelesdéfautsengendrés I'effetdu cyclagen'estdoncpasmodélisé. par le chargement: -69- CHAPITRE I I I : M odélisation du fl uage anisotherme . La déformation élastique est reliée en tout point r, du matériau à la contrainte locale o(r) par le module des compliancess(r) du milieu: (r) efi(r) - sijkl(r)ôr<r ô1(r) = cUkl(r)efu(r) (III.2a) (forme duale (rrr.2b) avec c(r) module élastique) . La déformationthermiqueest donnéepar le tenseurdesdilatations thermiquesa(r) du matériau.Si T(r) est la températureen chaque point: efftr)= crij(r)t(r) (rrr.3) . En présenced'une transformationmartensitiquethermoélastique(cas des alliages à mémoire de forme), les déformationsplastiquespeuvent êtrenégligées. (rrr.4) e[(r)=o Les quantitésglobalessontobtenuespar la moyennesur le volumeV des quantitéslocales correspondantes : . lF EU=VJ rU(r)dv (m.s) V . Eij= lr VJ (rrr.6) ot:(r)dv V On introduit I'expressionde la déformationlocale e(r)(Eq.III.1) dans l'équation(III.5). Ë,j: * Jrt(r)dv.* J'ii(r)dv.* J,gr,) av (rrr.7) Hvoothèses: . Le module de complaisanceélastiques(r) est uniforme et égal dans d'après(III.2a) et (III.6): les deux phases:s(r)=5=$.Par conséquent, -70- *Jq(r) dv= lrijnJon,(r)dv= Slnin (rrr.8) . Le modulethermiquecli3est de la forme uôii et la températureT est uniformedansle matériau: supposée ijrti(r) V dv- aî01; GII.e) Finalement,la déformationtotaleE du monocristal(III.7) s'écrit: Éi = Siinin É'j=nï:*nfh+e$avec Éfj'=aô1it Ëi=*Je[tr)ov (m.10) V Les contributions élastiqueet thermique sont obtenuesde façon'classiqueà partir des relations de thermoélasticité linéaire pour des matériaux homogènes.Le calcul de la déformation totale du monocristal requiert égalementla connaissancedu champ de déformation {e transformation associéau changementde phase.Pour cela, une étudecristallographiquede la transformationest nécessaire. La déformation de transformation est nulle dans I'austénite et on fait I'hypothèse d'une déformation uniforme par morceaux dans la martensite (fig.III-l). En notant V6 le volume d'austénite,VM le volume de martensite(Vn+Vu=V) et Vn les volumes des différentes variantes de martensite,on obtient: IJe$r,l dv=i l'$rrldv=I'if" (m.11) VVMn avec fn=Vn/V et en la fraction volumique et la déformation de transformationde la varianten. -71- CHAPITRE III : Modélisation du fluage anisotherme schématique du champde déformationde F|g.III-I: Représentation transformntion(uniforrnepar morceaux). La déformationen liée à la formationd'unevariantede martensiteest caractériséepar sa normale n, sa direction de transformationm et I'amplitudede glissementg (fig.I[-2). Cescaractéristiques sont fonction de maille desdeuxphaseset desrelationsd'orientationliant desparamètres celles-citWLR53l. Austénite Fig.III-2: Transformation d'un élément de volume d'austéniteen martensite(formation d'uneplaquette). -72- CHAPITRE I I I : ModéIisation duflua I e anisotherme D'après ce formalisme, les composantesdu vecteur déplacementu d'un point P de coordonnéesinitiales xi s'obtient,en utilisant la convention de I'indicemuet: (rrr.12) u1- $xin3mi La déformationintrinsèquetn associéeà la transformationde la varianten u. Dansle casdesdéformationsinfinitésimales,elle dérivedu déplacement estdéfinieparla partiesymétriquede ce gradient. ,l =jt(",-, * minl)- nis (rrr.13) Rn estappelétenseurd'orientationde la varianten. Cetteapprochecinématiquepermetde rendrecompted'unemanièresimple de la déformabilitédesalliagesà mémoirede forme.Dansun monocristal monovariant,une variation f ae la fraction volumique entraîneune variationeT de la déformationdéfiniepar: - gRlif èT (rrr.14) Dans le cas où plusieursvariantesse forment, chacuned'elles contribue à la déformation globale avec sa fraction volumique propre fn et son tenseur d'orientationRn. Par sommation,on obtient: èT: )enfff" (m.1s) n Cette formulationpermetde caractériseret de prendreen compteles ($II.2.2.2),à savoir: vrrsprécédemment différentsmécanismes . La formation de martensiteorientéeimpliquant une déformationde macroscopique: transformation Exemple:Transformationmonovariante(R=0,5) complète(f- I ) avecS=0,2(valeurcourantepour un alliagedecuivre). r) s-- ,r 'rl .- "t \ -73- CHAPITRE I I I : Modélisationdufluage anisothenne = ér=gRT +él=0,2 * 0,5 *I = 0,1 soit l}Vo . La formation de variantes autoaccommodantesentraînant une transformation sansdéformation macroscopique: Exemple: Transformation équi-volume ffI +=0,5) de 2 variantes avec des tenseursd'orientationopposés(RI=0,3 et R2--0,3) =tr=B gt yt + R2P) +{=0,2*(0,15-0,19=0 . La possibilité de réorientationen phasemartensitiquepermettantune déformation de transformationsanstransformation: Exemple:Au départ,2 variantesavecf|--f2=0,5, RI =0,3 et R2=0,2 ={=B 81 7t*Pz7t, =éf--0,2 * 0,5* 0,5= o,o5soit5vo Unecontrainteappliquéeprivilégie Ia varianteI 6l = 11aux dépens de la variante2 (P=0). +eT=g RI fl +éI=0,2 * 0,3 * I = 0,06soit 6Vo Sans transformation(Ia fraction totale de martensiteest restée égaleà I), la déformntionde transformntionaugm.ente. Commeles paramètresg et Rn sont complètement définis par la nature de la transformation, cristallographique la relation(III.15) montreque les fractionsvolumiquesfn sontde bonsparamètres pour décrirel'évolutionde la microstructureet caractériser l'étatde déformationdu matériau. Remarque: . Des limitations physiques évidentessont imposéesaux fractions volumiquesdesdifférentesvariantesn, V n , f n> 0 (m.16) . et la fractionvolumiquetotalede martensite f ne peutexcéderI'unité: f->fn<l Grr.17) n -74- CHAPITRE I I I : M odélisation du Jluage anisotherme -1n Finalement: . uu. + E,j = Siittln ih ttr +a13t+>eRûfn (rrr.18) n Cette expression nécessitela connaissancede l'évolution des fractions volumiques pendantIa transformation.Un potentiel thermodynamiqueva permettred'aboutirà ceslois d'évolution. '(lltt.)2 - cRITÈREDETRANSFoRMATIoN m.2.2.1- Potentielthermodynamique V soumisà un étatde un cristaldevolumederéférence Considérons déformation E à la températureT. L'énergie libre d'Helmholtz Q associéeà ce volume est composée de plusieurs contributions ayant différentes sont une énergieélastique significationsphysiquestE6ll. Cescomposantes Wél*, une énergiechimique ÂGç6et une énergieinterfacialeWint. O(EU,T, fn ) = AGcrr* Wélu,+ Wint (rrr.19) La transformation martensitiqueest provoquéesoit par I'accroissementdE de la contrainte,soit par un abaissementdT de la température.Les variables de contrôle étant la contrainte et la température, l'énergie libre complémentaireY est mieux adaptéeà la descriptiondu comportement thermomécaniquedes alliages à mémoire de forme: Y(Eij, T, fn ) = -(nCch * Wélas+ Wint- >,:E,i) (rrr.20) T et de Cetteénergiedépendde la contrainteappliquéeI, de la température variablesqui décriventl'état microstructuraldu matériau.Afin de prendre physiquesresponsables les du comportement, en compteles mécanismes fractionsvolumiquesdesdifférentesvariantesde martensitesont choisies commevariablesinternes. -75- CHAP ITRE I I I : M odélisation du fluage anisotherme - L'Énergiechimique L'énergie chimique est liée à la différence des énergiescristallographiques Gx des deux phases(x=A pour I'austénite,x=M pour la martensite),elle est fonction de la températureT. AG"6(T) = J [o*(r) cA1ry]av (rrr.21) v1a La transformation martensitique ne faisant pas intervenir de changement dans la composition chimique, les phasesmère et produit peuvent être traitéescomme un systèmea un seul composant. Pour les températures proches de la température d'équilibre thermodynamiqueTg, une approximation linéaire de GM(T)-6A(T) est courammentutilisée (fig.III-3). -B(T-ro)vrra ÂGcrr (rrr.22) o = d O aG.t - GM-GA I .o o) bo () r[.1 Température Fig.III-3 : Représentation schématique desénergies Iibreschimiquesde I'austéniteet de Ia martensite. (III.22) le coefficientde proportionnalitéB et DansI'expressionprécédente la températureTg sontdesconstantes du matériau.Ellessontfonctionde la compositionchimiquede I'alliage. - L'Énergie interfaciale L'énergie interfaciale associéeà la formation d'un domainemartensitique -76- CHAPITRE I II : M odélisationdu fluage anisothenne est la sommation sur toutes les interfaces austénite-martensiteet martensite-martensitede la densitéd'énergieinterfacialeY(r). wint = (rrr.23) Jr(r)ds S Cette énergien'est pas directementreliée au volume de ce domaine mais simplementà son ratio volume/surface.La cinétiqueet la morphologie de la transformation de phase des alliages à mémoire de forme sont caractériséespar une déformation de Bain, qui implique une transformation dominéepar l'énergiede déformation.En effet, la martensitese crée sous forme de plaquettesallongéesqui font apparaîtred'importantessurfaces d'interfacesmais un très faible volume. Cette observationamèneà négliger l'énergie interfaciale. (rrI.24) Wint = 0 - L'Énergie élastique L'énergieélastiqueest le demiertermequi contribueau potentielY. Elle est associéeaux déformationsélastiquesqui sont liées au chargement imposéet auxcontraintesinternes: dV wélu,=ïloii(r)efi (rrr.2s) V Avec les hypothèsesadoptées(températureT et module thermique CI, uniformes) le champ de déformation thermique tth ne produit pas de contraintesinterneset est négligé.Dans I'expression(III.25), le champ de déformation élastiques'écrit: + efitr) = eii(r) - r$trl (rrr.26) -ltoi;(r)e$(r)dv =iloii(r)eii(r)dv v/éru, (rrr.27) VV -77- CHAP ITRE I I I : M odélisationdu flunge anisotherme . En intégrant la première intégrale par parties: lr (r)dv= ori(r)eU tJ VVS lr rJoii (r)ui,i(r)dv= lr ;Joii (r)ui(r)n;dS Or, surla frontièreS: oii (r) = IU lr l r I (r)njot (r)niot = (r)dv ;>U Jui )[ "tt(r)ui ;>tj Jul,i Finalement: lc iloii(r)e,j I (r) dv - :Y rij E,j (rrr.28) V . Pourle secondtermede l'équation(lll.27), on décompose le champde contraintelocal o(r) en un champde contrainteappliquéeZ et des fluctuationslocalest(r). (rrr.2e) o;i (r) = I,j + tii (r) t(r) définit un champà valeur moyennenulle. Il représentele champde contrainteinternelié aux incompatibilitésde déformationdesdifférentes variantesdansle volumereprésentatif considéré. L'énergieélastique(llI.27) seréécritalors: -ifl1(r)e$(r)dv = wér^ ,J-+w,iET iur,,r v (r)e[(r)dv wér^--! u>,,s,jkrrr.r itti; V (rrr.30) (Éqs.lll.22,lll.23 Les différentescontributionsénergétiques déterminées et III.30), l'énergielibre complémentaire par unité de volume (III.20) devientalors: -78- CHAPITRE III : M odélisationdufluage anisotherme Y(>rj,T,fn) - -B(T-ro )Ifn +!t,:t':"rn +c,rpÂT + n (r)dv *t,i Ieffrn +,)ç ltil(r)e$ (rrr.3r) Misesà partlesvariablesde contrôle(contrainteappliquéeI et température T) et les variablesinternes(fractionsvolumiquesfn), les autres'paramètres dansce potentielsontconnus:S et cr sont les modules qui apparaissent thermoélastiquesdu matériau, T0 est la températured'équilibre thermodynamique,B est une constantechimique du matériau et les par déformationsde transformationtn sontdonnéescristallographiquement les tenseursd'orientationRn et I'amplitudede déformationg. Le dernier termede l'équation(III.31) resteà déterminer.Ce termedécrit l'énergie élastiqueassociéeaux contraintesinternesd'incompatibilitéde la transformation.Il est lié à la formationde la phasemartensitiqueet aux interactionsentre les variantesmais ne se réduit pas facilementà une fonction des variablesfn. Pour surmontercettedifficulté, une évaluation physiquessur la croissance réalisteest obtenueà partir de considérations desplaquettesde martensitependantla transformationmartensitique.Des et M.O. BenSalah par O. Fassi-Fehri réalisées analysesmicromécaniques la tFHBSTltBgZlpermettentd'écrirele terme d'énergieélasticiuesous forme d'unematriced'interactionHnm.Cettematriceinclueles facteursde forme et d'orientationde la microstructure,ce qui permet de décrire l'évolutionde l'état microstructuralpendantla transformationen utilisant les seulesvariablesinternesfn. Ces analysesreposentsur I'hypothèse croissancede quelquesvariantes suivante,bien vérifiéeen superélasticité: dans des domainesbien délimités du grain. L'annexe I détaille les hypothèsesqui permettentd'aboutirà I'expressionsuivantepour l'énergie d'interaction: -*{rtrlr$(r) dv= wint=t>11nmrn;m -Vtr'fl -79- (rrr.32) CHAp ITRE I I I : Modélisation dufl uage anisotherme La matrice obtenueest fortementanisotrope,elle comprenddeux types de termes. Un terme faible symbolise I'interaction entre les variantes autoaccommodantes, pour lesquellesil existe une interface commune compatible entre elles, c'est à dire ne nécessitantpas de déformation élastiqued'accommodation.Le terme fort relie les variantesincompatibles, l'interfacecommunes'orientantafin de minimiser (sansI'annuler)l'énergie élastiqueassociée(voir annexe1). Le potentiel thermodynamiques'écrit alors: Y(ru,T,fn)= -B(T-ro)Ifn +lpusiir<rrn +crp.ÂT+ n +>u>rfifn :>Hnmrnrm Grr.33) Cetteéquationdécrit l'étatdu systèmeausténite-martensite en I'absencede processusdissipatifs.L'optimisationde cette fonctionnellepermet de définir l'état d'équilibred'un mélangeausténite+martensite soumisà un chargementthermomécanique donnépar I et T. Les variablesinternesfn prennentla valeurqui minimisece potentiel.Toutefois,'ilfaut prendreen compteles limitationsphysiques(III.16) et (III.17) existantessur ces quantités.un lagrangienréactualiséL(r,ii,T,F) permetde résoudrecette difficulté. f11.2.2.2- Lagrangienréactualiséet forcesmotrices Le lagrangienréactualiséva permettrede réécrireles inégalités relativesaux contraintess'exerçant sur les variablesfir et f sodsformede relationsd'égalité,plus exploitables. ces variablesinternespossèdent un sensphysiqueclair: ' lesn fractionsvolumiques fn nepeuventêtrenégatives: conditionIII.16 ' la fractionvolumiquetotalene peutêtresupérieure à l: conditionIII.17 Irn=o ( + I f <1 Ai(fn)<Bi (III.34a) -80- CHAP ITREI I I : Modéli sation dufl uage anisother.me etBi=0 pouri=l àn avec {ot,t")=-fn I At(fn)-f etBl=l Pouri=0 (rrr.34b) L'écrituredu lagrangiennécessiteI'utilisationde n+l multiplicateursde Lagrange1,1,qui ont la particularitéd'êtretoujourspositifsou nuls,ainsi: r,[o,(rn)- ]=o soit ,;i} ", {^;l11 (rrr.3s) Le Lagrangienfonctionnel L est défini ainsi: t(tr:,r,fn)= *(tU,r,fn)- >rtlnttrnI - si] (rrr.36) L'état qui minimise cette fonction est obtenupar les conditionsoptimales de Kuhn-Tucker.Les contraintes(III.16) et (III.17) s'exprimentalors: À,lnt(fn)-B,]=o avec ]4 )o (rrr.37) La force motrice pn qui agit sur la variable interne fh est classiquement obtenuepar la dérivée du potentiel contraintpar rapportà F [R7'l]: Ftr=aL_aY->rtH dfn dfn r Fn= -B(T- To)+>,:rfi (rrr.38) m où Ig (resp.Àn)estle multiplicateurassociéà la contrainted'inégalitéf < I (resp.-fn<0). ne décrit pas entièrementle À ce stade,le potentielthermodynamique des alliagesà mémoirede forme, il est comportementthermomécanique Un effet d'hystérésisest montré par ces purementthermoélastique. dû à de la dissipationcauséepar matériaux[DOV88],vraisemblablement les frictions interfacialeset la production de défauts,durant la -8t - CHAP ITRE II I : M odélisation dufluase anisotherme transformation.On choisit d'introduire un secondpotentiel afin de rendre compte de ce phénomène.Ce pseudo-potentielde dissipation, noté Wd, prend en compte I'effet d'hystérésisd'unemanièrephénoménologique. 111.2.2.3- Pseudo-potentiel de dissipation Ce potentiel est généralementsupposéêtre proportionnel à la fraction volumique cumuléefçu de martensite[SH93]. wd = = P. Jlar; F"f.u (rrr.39) où Fç estuneconstantepositivedu matériau. et l'équilibreénergétique La secondeloi de la thermodynamique détermine la loi d'évolutionde Wd. (rrr.40) vlr,r=Ûd>o La force motrice thermodynamiqueF exercéesur une variante n a besoin d'atteindre la valeur critique $ pour produire une croissancede cette variante. Cette valeur critique est liée à l'état microstructural du matériau, on suppose qu'elle peut être décrite uniquement par I'ensemble des variables fn. La condition (III.40) permet alors d'obtenir les conditions suivantes pour les transformations austénite->martensite et martensite+ austénite. A+M: I anfn= F"f (III.41a) M+A: -F"f I o"fn- (rrr.41b) n quela dissipation En supposant s'effectue sanscouplageentreles variantes, les conditions(III.41) peuvents'exprimerd'unemanièreindépendante sur chaquevariante,qui doit alorsvérifier le critèrede transformation local, martensitiques directe(+) êt inverse(-): définipourlestransformations -82- CHAPITRE III: ModéIisation dtt (rrr.42) -B(T- To)+>,iril m n+l relations (III.16)et (III.17)fournissent Les conditionscinématiques à satisfaire: supplémentaires l. I ^n = B(T- T0)- >ljsil+ )Hnmfm + ÀoI F,> 0 * -B(r- lh = tm h)+ r1.;efi GII.43) Finalement,la relation (lll.42) signifie que la variante n peut'être active lorsque la contrainterésolue sur cette varianteatteint une valeur critique dépendant de la température et de la fraction volumique des autres variantes déjà formées. Elle montre que si le début de la transformation n'est fonction que du mode de sollicitation et de paramètresintrinsèquesà la nature de la transition de phase,la fin de la transformationest fortement dépendantede l' étatmicrostructuralRem.arque: À l'état libre de contrainte, on peut définir les températures de transformationMg et Ay caractériséespar I'absencede martensite (fl=O Y n). -g(InI, - To)= F. ^. . [ : = t-"(or- h)=-F" [*,=Tr-+ 1o,=Tr.+ (rrr.44) directe,la frontièreinitiale s'écrit: Ainsi, pourla transformation -B(T- Ms)+Iiiefi= o e r,:Ri= - M,) T(t (rrr.4s) -83- CHAP ITRE I I I : Modélisation du fluage anisotherme Cette équationgénéralisela relation de Patel et Cohen tPC53l qui relie la température de transformation à la contrainte appliquée. Lors d'un chargementmécaniqueà températureconstante,la première variante qui apparaît est celle pour laquelle la contrainterésolueI Rn est maximale. Aussi, lorsquela contrainteappliquéeest nulle, toutesles variantesdoivent se former à T=Ms. En définitive, tous les paramètresutilisés dans la description de la transformation (To , F", B, [ , lrl , g) peuvent être déterminés expérimentalement ou déduitsd'uneanalysemicromécanique(matriceH). On a vu les conditionsd'activationdes varianteset donc d'apparitionde la martensite,il faut maintenantrelier l'évolutiondesvariablesinternesfn aux paramètresdu chargement,à savoir la contrainteet la température. TII.2.3- LOI DE COMPORTEMENT III.2.3.1 - Loi d'évolution La démarchethermodynamique précédentenous fournit un critère local de transformationquechaquevariantede martensitedoit vérifier pour être susceptiblede s'activer.Pour cesvariantes,leur fractionvolumique peut progresserlorsque les paramètrescaractérisantle chargement évoluent.Il faut donc trouverune relationentrel'évolutiondesfractions volumiquedechaquevarianteetcesparamètres(contrainte> température T). La loi de consistance permetd'écrire: =#or.#dr+{6sn dFn Ce qui revientà écrire,d'après(III.38): rililii-BdT-IHnmdfm-o -84- -6 (rrr.46) drn=I[""* ]-' ('il-û - Bdr) (rrr.47) m Cette équation indique que la progression d'une variante dépend non seulementde I'accroissementde la contrainte réduite sur cette variante, mais ausside la présencedes autresvariantes.Lors d'un refroidissementà contrainteconstante(fluageanisotherme),la matriced'interactionH influe sur les progressionsdes variantesen privilégiant les variantesà,interaction faible. 111.2.3.2- Modules tangents thermomécaniques Les modules tangents thermomécaniquesl(r) et m(r) relient la déformation totale locale à la contraintelocale et à la température: ô i 1( r ) = l i j u ( r ) è t t ( r ) - m l i ( r ) f (rrr.48) le comportement local, Afin de déterminercesmodulesqui représentent nousallonsétablirune relationdu mêmetype ô(r)=f(er.r(r),t) afin précédentes. d'identifierlesmodulesl(r) et m(r) auxexpressions Pourcela,on utilisela loi de Hooke: (r)- éili(r)- e[rf .l] GII.4e) (r)[ekr ô1i(r)= ciin(r)eir(r) - ci.;r.r : s contributions Rappeldesdifférente =crôst I e|li(r) j e[1t'l Ln puisqu'ildoit être vérifié pour toute Le critèreest égalementnécessaire, varianten: (ru.s0) =Bt+)Hnmfm tËqôpq m -85- CHAPITRE I I I : Modélisation du .fluage anisotherme La loi de comportement(III.49), introduitedansle critère (III.50) donne: () tËqCpq.rl tr,(t) - crôrst \m)m (+ I"ntft (+ I -aôrrf) - Bt + efincpqrs>r[ft = rËqcpqrr(È.r(r) *"n*f* = - (t * rËqcpqrroô^)f efncnorrèrr(r) (I[.51a) m *Hn- = avec: Hnm+ efocnnrreil (III.srb) Soit, en inversantl'équation: - (n * fn = I(*rn'")-t[rËn"pq,,ê,,(r) 4ncpq.,oô,,)r]Grr.s2) m Cette expression, réintroduite dans la loi de Hooke (III.49), perïnet d'obtenir la contraintelocale en fonction des variablesdésirées. On a: t ôi1(r) - Ciikr O6O1 lrll ^ t* -*r-l - I l.n,.) lll -cii*1r)loôs I n't ) (,,I.53) L'expressiondes modulesthermomécaniques locaux est ainsi déterminée, ils s'expriment: -86- CHAP ITREI I I : M odélisation du fluage anisothenne liir.l(r)= Ciin (r) -Ciirs(r)Irl,(.""*l' Irffi - crig(r) mu(r) = C1n(r)aô1p I r[,( .t"'f t (r) efioCoon (n + r6cpqrroôr,) o,ffi (rrr.s4) On a établi un critère de transformationpermettantde déterminerquelles sont les variantesqui s'activent.D'aprèsce critère et la connaissancedes variantes présentesdans le monocristal,on déterminp leurs fractions volumiquesen fonction desparamètresde contrôleque sont la contrainteet de l'évolutionde la transformationdansun la température.La connaissance monocristalest donc possible,et ce, pour un chargementthermomécanique quelconque(dI ou dT). Il est ensuitepossiblede déterminerles propriétés du monocristalqui est l'élémentconstitutifde I'agrégatpolycristallin. DU POLYCRISTAL III.3 - COMPORTEMENT III.3.I - DÉFINITIONDU PROBLEME intragranulairenous a permis Jusqu'àprésent,l'étudedu comportement du grain. La microstructureplus d'aboutirà la loi de comportement liées desdifficultéssupplémentaires, complexedu polycristalfait apparaître aux interactionsentre les différentsgrains. La méthodede transition résoutcettedifficulté en remplaçantle milieu d'échelleautocohérente entourantun grainpar un milieu homogènelBZ84IlBZ93l. Les hétérogène sont alors celles du grain avec ce milieu contraintesintergranulaires quela structurepolycristalline).On fait homogène(demêmecomportement T estuniformedansle polycristal. quela température l'hypothèse localpeutêtredéfinide la manièresuivante: Le comportement -87- CHAPITREI II : Modélisationdufluage anisotherme ôii (r) - liikt(r)ér.l(r) - m1(r)T (m.ss) ei;(r) = gijkl(r)ôn (r) + nii(r)f (rrr.s6) Remaraue: (III-56)+(III-55) + ' (r)=[li1u (r)] Biin I t = (r)] mn(r) Ini1(')[lr:* (rrr.57) o(r)e(rlT Comportementlocal: connu Comportement global:à déterminerI, E, T Fig.III-4: Position du problème et formalisme utilisé. Les variables en minuscules (majuscules) se rapportent au comportement microscop ique (mncroscopique). On supposeque le comportementglobal (ou effectifl)est défini de manière similaire par les relationssuivantes: - Mîjttt i,j = r,"i.;llEn (rrr.s8) -88- CHAP ITRE I I I : Modélisation dufl unge anisotherme (rrr.s9) +Nfirrî ËI =cfirfi>r.r Remarque: (III-59)+ (III-58)+ =[t"',T']-' I"ru= (rrr.60) Milf l*ift [t",,ï,]-' du comportement Les modulgsfeff s1Çeff sontles modulesmécaniques macroscopique,ils suffisent pour rendre compte du cornportement isothermedesalliagesà mémoirede forme tPEB94l.Afin de modéliserle comportementanisothermede ces alliages,on introduit les modules thermiqueseffectifs14eff91i{eff. III.3.2 - HOMOGÉT'ÉISANON ET LOCALISATION L'objectif étant de décrire le comportementglobal à partir des relations de comportementlocal, on introduit deux relationsde localisation: ô1i(r) = Biig (r)Ir.r + b1i(r)T èii(r) = Ailn (t)Ër.r+ a1i(r)f (rrr.6l) (rrr.62) et L'intt'oduction de localisationmécaniques. A(r) et B(r) sontles tenseurs le calcul destenseursde localisationthermiquea(r) et b(r) sontnécessaires En effet, il en fluageanisotherme. si I'on veut modéliserle comportement entraîneune modificationdes est évidentqu'unevariationde température champslocauxde contrainteet de déformation. Le champde Les relationsde moyenneusuellesdoiventêtre satisfaites. contrainteest statiquementadmissible(divO- 0) et O.n=I.n sur le contour: -89- CHAPITRE III: Modélisation du fluage anisotherme .lF IU= (rrr.63) dv VJ "U(r) V adririssible(e(r) est Le champ de déformationest cinématiquement compatibleet dérive d'un champde déplacement u vérifiant u=E.n sur le contour): . lf (rrr.64) EU=VJtrj(r)dv v Remarque: On peut citer deux propriétés importantesdes tenseursde localisation: -*J"u(r)dv o VV (III.61)+(III.63)= (r) dv = Iiikr et + JnXn v l.r VJ br(r)dv=o V De plus, on peut éviter de déterminer tous ces tenseursde localisation, sachantqu'ils sont interdépendants.En ffit, (III.60)+(III.59) +(III.62) + = Ai3kr (rl[t?lt-n i-n *[o,:0,trl[rf,r-" è;1(r) ]-trill + uiirrl]t ]-t (rrr.6s) En introduisant ce résultat dans la loi de compoftementlocale (1il.55) puis en identifiant ù (III.6I), on obtient: ( r ^rr r-l (r) = (r)Ar1r"(r)[Lffipq I B,:oo li3n ] (III'66) tM;tnt (r)[nor-"rrl[r;11n0 (r) * akr,r,]-m1i trl = l,1ru f {ox Les tenseurs de localisation étant interdépendants,nous choisissonsde calculer A(r) et a(r) uniquement. Ces considérationsfaites, on détermine les modules thermomécaniques apparaissantdans les lois de comportement globales. En introduisant (lll.62) dans(III.55), on obtient: -90- CHAPITRE I I I : M odélisation du fluage anisotherme ôi1(r) = liSkl(r)An*n (r)E*n + [ri;n(r)an(r) - miltr)]t En moyennantcette expressionsur tout le volume V et en identifiant le résultatà la relation(III.58), on aboutit à: (r)Amnn(r) dv l-ïfi,= Jti1n,,, * V (rrr.67) - liin(r)ag1r;] av *ïft = J[mi1(r) i V La déterminationdu comportementthermomécaniquemacroscopiquese ramène alors au calcul de ;eff s1 IVIeff à partir des modules locaux l(r) et m(r), des relationsde moyenne(III.63) et thermomécaniques (III.64) er des tenseursde localisation A(r) et a(r). La déterminationdes tenseursA(r) et a(r) s'obtientpar résolution d'une équation intégrale qui relie le comportementlocal (en I'occulrencele gradientde vitessedu milieu microhétérogène)aux conditions globalescinématiques(imposéessur la frontière du solide macrohomogène).Par rapport aux précédentstravaux, cette équation intégrale devient thermomécanique,elle prend en compte le terme températureainsi que les nouveauxtenseursde localisation introduits a(r) et b(r). III.3.3. APPROCHEAUTOCOUÉNENTE III.3.3.I - Équation intégralethermomécanique local aux L'objectif est d'obtenirune relationliant le comportement conditionsglobalesafin d'identifierles tenseursde localisation(relation 11l.62).L'équationintégralereprésentele premierpasdu calcul qui nous mèneraaux coefficientseffectifs.Les résultatsobtenusdanscettepartie seront tout à fait généraux.C'est l'étape suivante,I'approximation -9t - CHAP ITRE I I I : M odélisation du fluage anisothenne autocohérenteà un site, qui nous mènera à la résolution complète et exploitabledu problème. A) Définitions L'écriture de l'équation intégrale repose sur trois équations fondamentaleset nécessiteune technique de résolution particulière, la méthodedu tenseurde Green. - Le tenseurde Green Dans un volume V et de frontière S, une force unitaire f appliquéeen r' induit un déplacementu de la particule située en r. On introduit alors le tenseurde GreenG(r,r') tel que (fig.III-5): (rrr.68) u i ( r ) : G , j( r , r ' ) f i ( r ' ) û(r) V Fig.lII-S: Définition du tenseurde Green G Dans le cas ou tout un ensemblede forcess'exercedansle volume dV' entourantr', on écrit alors: ui(r)= J c,i{r,,' )fi (r' ) dV' (rrr.69) V Un milieu infini(6)est invariablepar translation.La variable représentative est alors l'écart r-r' et non plus les positions respectivesr et r'. D'où I'introduction d'un tenseurd. G.r"n G(t-r') uduptéà r. nquivaut à faire l'hypothèse d'un milieu dont le volume élémentaire (le grain) est caracléristique du milieu. -92- ui(r) = J OU(r - r' )fi (r' ) dv' (rrl.70) V Pour un milieu infini et homogènede module élastiqueL0, le tenseur de Green défini précédemmentse calcule comme étant la solution de l'équation de Navier: Ll1gGm,lj(t - r' ) + ôirô(r - r' ) = 0 (rrr.71) avec ôim: le symbole de Kronecker, ô(r-r') la distribution de Dirac, de G(r). Elle est La résolutionde (III.7l) est connueet donneI'expression complexeet ne fait pasI'objetde ce travail (cetterésolutionestdétailléeen quepar identificationavecl'équationde annexe2). On remarquecependant de l'élastostatique tB93l Navierobtenuegràceaux lois classiques (rrr.72) *fi =g Loi3tour.,g Gkm désignele déplacementau point r dans la direction k provoqué par I'application au point r' du milieu infini de module L0 d'une force unité fi = ôipô(r-r') s'exerçantdans la direction m. Le tenseur de Green étant défini, nous pouvons, à partir des équations fondamentalesqui régissentle problème,construirel'équation intégrale qui lui est liée. - Relationsfondamentales Soit notre milieu infini macrohomogèneet microhétérogènesoumis sur sa frontière (de normale n) à un champde déplacementud tel que: (rrr.73) ul = Eijnj -93 - CHAPITRE I II : ModéIisation du fl uage anisothenne En premier lieu, l'équilibre d'un élémentde volume dV en I'absencede forcesde volume impose: og,j =0 avec q symétrique (rrr.74) le champde déformationvérifie les Dansle casdespetitesperturbations, équationsde compatibilitéet dérivedoncd'unchampde déplacement u(r): eii(r) - ùi,j(r) = j (0,,,(r) + ù;,i(r)) (rrr.75) Ces conditions s'appliquentau niveau local pour lequel la loi de comportement(III.55) doit être égalementvérifiée.En appliquantcette dernièredansla relationd'équilibre(III.74), celle-ciseréécrit: (t)ekl(r) - mii(r)t],. = 0 Ili1g (rrr.76) On tient comptede nouveauici de la température en utilisantI'expression (III.55) qui relie le champde contraintelocal au champde déformation local et à la température. Cetterelationd'équilibreestle point de départde l'écriturede l'équationintégralethermomécanique. B) Résolution Un des principes de base des méthodesà transition d'échelle est d'introduire un milieu homogène de référence(fig.III-6) de modules thermomécaniquesL0 et M0 et soumis à une déformation uniforme E0, ce qui permet d'exprimer les modules locaux en fonction de leurs parties déviatricesôl(r) et ôm(r): (r) liin(r)- L$u+ ôl;1n mu(r) = Mfl+ ômii(r) (rrr.77) (rrr.78) Ainsi, la condition(III.76) devient: -94- CHAPITRE I I I : Modéli sation du fl uageanisotherme + ôliin(')]êu(r) - [tB * ômi;trl]t],,= o {[I-Orir.r (rrr.79) l(r) ou m(r) ôl(r) ou ôm(r) des propriétés F ig.I II -6: Représentationschématique gène. déviatricesdu milieumicrohétéro dansle matériauconduità: L'hypothèsede I'uniformitéde la température (r)t],, = o (r)èr.r(r) - ôm1i (r) + [ôri3r<r L!jr.rèr.r,j (rrr.80) peutseréécrire: Au regarddessymétriesdu module10, cetteexpression (r)ùr,r(r) - ômi.;{r)t],j= O (r) + L01inùr,ri [ili1r<r (rrr.81) La résolutionde ce systèmed'équationsdont les inconnuessont les vitesses de déplacementsù(r) fait appel au tenseurde Green pour le milieu infini homogènede module Lo. On introduit le conceptde forces volumiquesfictives fi, f' = ôlijn(r)ùr,r(r) - ômii(r)T (III.81)sousla forme: deréécrire cequi permet -95- (rrr.82) CHAPITRE I I I : Modélisation dufluage anisotheime (rrr.83) (r) + fi,j = 0 L?jr.lùr,lj On reconnaît dans cette expression,la forme de l'équation qui définit le tenseur de Green (III.7|). Cette écriture va permettre de déterminer les déplacementsu(r) sousla forme d'une équationintégrale. Cette équation ne sera plus seulementmécaniquecar elle doit prendreen compte les effets de la température. Les propriétésdu tenseurde Krôneckerôim et de la distribution de Dirac ô (r-r') permettentd'écrirepour la vitessede déplacementù(r): - r' ) dV' ù* (r) = Or(r)ô1n,ô(r J (rrr.84) V peutseréécrire: D'après(III.71),ceffeexpression (r (r' ù* (r)- -I-Tr.r J onrn,U r' )u; ) dv' (rrr.8s) V En utilisant les deux propriétéssuivantes: et Gkr,lj (r - r' ) = [Gnr,(r-r,) (r - r' ),, ],j - -Gkm,I j Gk.,lj (r - r' ) = -Gkm,l'(r-r')(r - r' ),i = Gk-,t1 (rrr.86) (ur.87) on résouten intégrant deux fois par parties.Ainsi, on a: Gk*,I,j, ùi (r' ) = [Gnn ,1,ùi (r' )],,, Gk n,l,ùi,J(r' ) (rrr.88) (r')].,' - Gkrnùi,j,t'(r') ù1,1 (rrr.89) et: Gkm,t'ùi,J(r') = [On- Finalement,le termedansI'intégralede I'expression(III.85) peut s'écrire: Gkr,lj ùi (r' ) = [Gorn,1ùi(r')],, ùi,J(r')],, * Gk* ùi,J1,(r') [On,o , (rrr.eo) -96- CHAPITRE I II : M odélisation du fluage anisotherme L'intégrationdes trois membresdonnele résultatsuivantpour la vitessede déplacementù(r) ù r n( r ) = I l * 1 2+ \ . GII.91) Calculde It: Il = - J t9,"[on*,1'ùi(r' )],,,dV' V It peutencores'écrire: d'Ostrogradslcy, Parle théorème ' = -Jf t O .j ùi (r')ni' dS' LijgGm,L Ir S Sur la frontière, cette intégrale est la solution relative à un milieu homogèneayant même géométrieet soumisaux mêmeconditions limites en surfaceque le solide considéré.Ainsi: Ir - ù3,(.) (trI.9la) . Calculde Iz. Pour 12,le résultatest nul car les conditionsaux limites appliquéesau imposé(III.73): volumeV sontuniquementdesconditionsde déplacement ' O .1 ùi,1(r' )n1dS'= Gn,"Efi(r' )n1dS'= 0 lz = f rLijnGrrn J I (ilI.glb) . Calculde Il: D'après(III.87),Il seréécrit: 13= -J tT*Gk* ùi,jr(r') dv' V (+ I3: -J tT* [on* ùi,j(r')],,av'-l tgrotokm,r ùi,i(r'),dv' VV (+ ùi,i(r')dV' dS'-Jtfr*Okm,l ùi,i(r')n1 r, : -JL0i.lnGmn SV dV' dV'= <+ 13= -JGorn,,l9.i6ùi,i(r') JOo*,,f; -97- ([I.9lc) CHAPITRE I I I : M odélisation duflusge anisotherme En définitive, (III.9l) se simplifie de la manièresuivante: (r - r' l[ôfiir,l(r' )ùr(r' ) - ôm;;(r' )t] AV' ùm(r) - ù$ (r) + J Ono,,, V (rrr.92) Ou encore,aprèsdérivationet symétrisation: - ômii(r'lî] av' (r) - Ë9.,n * arnU(r- r' l[ôli1r.r(r' Ë,nn )en(r' ) J V avec: (rrr.e3) l,nn,j= j[o*,,in +cni,3m] le tenseurde Greensymétrisé. La relation obtenue (III.93) constitue une équation intégrale thermomécaniquereliant indireetementla vitesse de déformation loeale è(r) au chargementthermomécaniquecarzctêisépar É0 et f . Sa solution permet de calculer les tenseursde localisation A(r)'et a(r). Diverses méthodes existent, comme la méthode de Born par approximations successivesou encore I'approcheautocohérente.Cette dernière est utilisée car, bien que moins rigoureuse,elle ne nécessitepas de moyensde calcul trop complexesou trop performantset esttrès bien adaptéeà nos exigences. III3.3.2 - Résolutionformelle D'après IDZ73\, le tenseurde Green symétriséf(r-r') peut être locale1l1r)et une composante non locale en une composante décomposé ;nl(r_r'). - r' ) + rilh(r- r' ) I-iin(r- r' ) = riJn(r)ô(r (rrr.e4) avecô(r-r') la fonctionde Dirac.aupointr'. On peutalorsréécme(III.93) sousla forme suivante: -98- CHAPITRE I II : Modélisat ion du fluage anisotherme (r)ekl(r) - ôm1i(r)t] e,nn(r) = E$n * rl""U1r;[ôli1g (r - r' l[ôrxn(r' )en(r' ) - ôm1(r'lf ] ov' (ttl.gs) * J aât"u V Cette expressionmontre effectivementque la déformationau point r résulte de la contribution de plusieursfacteurs,à savoir: a) Lesconditionslimites b) L'effet du point r surlui-même (effet local) c) L'effetdespointsr' surr (effet à distance) oel ,:) La difficulté majeure de cette équation est le calcul du terme non local. Dans le but de supprimer ce dernier, cherchons les conditions qui I'annulent,c'està dire: (r')î] av'= o (r' )èn(r' ) - ôm1 ( - r' l[ôri3n J t*t"t: r V (r') - m1i (r';t + rrafft] (r' (r' ov'= o J[rxr.r )en ) L01.;r.rer.r v = (r' (r' lf] av'-L?.in, Jrnt(r') dv'+vtrtflt o JIrr1n )èg ) mi3(r' v v Grr.96) Le premier terme intégréreprésentela contraintelocale ô(r) et en vertu des relationsde moyenne(III.63) et (III.64), cetteéquationest équivalente à: +vuflt =o vi,.i- vI-!1sep Soit i,j = L$nEn- Mlt (rrr.e7) On s'aperçoitque la condition qui permet d'annulerle terme non local de l'équation intégrale thermomécanique(III.95) est relative au choix du -99- CHAPITRE I II : Modélisation du fluage anisotherme milieu homogène de référence.La condition (III.97) est à la base de I'approximation autocohérente:par identification avec (III.58), on déduit que le milieu homogènede référencedoit être égal au milieu homogène équivalent que I'on chercheà déterminer,soit: =t-",fil, Jt9:nt (rrr.98) l*8 =tljtt Dans ces conditionsseulement, l'équationintégralethe'rmomécanique se simplifie: (r) = Ë$n+ *nU 1ry[ôlilrcr (r)en(r) - ôm11{r)t] é,nn Orr.ge) possible, I'inversion En supposant onpeutécrire: è,,,n(r) : {I*no, - r[r,:(r)ôli.;no f r)] Ë$,.,- *nr* (r)ômr.(r)t (rr.100) À ce stade,on voit apparaître la forme è(r)=t(Éo,f) Cui va nous permettreI'identificationdestenseursde localisationA(r) et a(r). En effet, (lll.62) nousautoriseà écrire: ( J Ailn (r) - r-l I - I.i]n'n (r)ôl'"nkt (r)l _J_____ r___ [Ii1r<l L r r , (III.l0l) (r){r*n (r)ômn,n (r) [a;1(r) Ai3H Un rappel des principauxrésultatspermetde définir le comportement généralde la manièresuivante: * Comportement macroscopique Iir, - *ïjttf -L"ii{rEr.r (rrr.A) +Nfirrt l",i =cfiflr>r.r * Modules thermomécaniqaes macro scopiqaes -t00- CHA PITRE I I I : M odéIi sat ion du fluag e ani sotherme t",:t[,= * J trjmn(r)An'ns(r) dv V (rrr.B) - tiin(r)an1r;]ov *îtt = J[mi1(r) i V * Tenseursde localisation (r)ôlrn11 (r)] Aip (r) - [ti1n- r1!,nn (r)ôm*n(r) a1i(r) - Aiikt(t)I.fu,on (m.c) * Modules thermomécaniques mieroscopiques (r) = Ciin(r) - Ciirs (r) I tl, li.;ru (."""';-' (r) efincnnr.r ll,IIl .tn')-t = ciSn(r)aôp- ciin (r) rt, ( m;.;(r) (t * ,Ëqcpq*oô,, I ) tr'ffi avec *Hn* = Hrm+ efincnorre$ (rrr.D) (rrr.E) Jusqu'àprésent,les formulationssont encoreformelles et donc trop généralespour permettreune résolutionet un calcul siniple desdifférents macroscopique. En effet, le moduleset tenseursdécrivantle comportement milieu est considérécomme "continu".Pour simplifier ce problèmeet permettreune simulationnumérique,on supposedans la suite que les propriétésdu milieu sontcontinuesparmorceaux. [I.3.3.3 - Approximation autocohérenteà un site cristallographiques Un polycristalestconstituéde grainsd'orientations consisteà considérerle différentes.L'approximationautocohérente homogène. intragranulaire comportement le milieu granulairequ'estle polycristalpar On choisitdoncde représenter N inclusionsI de volumeVI, danslesquellesles champsde vitessesde déformationet de contraintesontuniformes(fig.III-7). Ainsi, si HI(r) estla -tu- CHAPITRE III: Modélisation du fonction indicatriced'Heaviside,les champsÈ(r), ô(r), ôl(r) et ôm(r) du polycristal sont des champs continus par morceaux et ont les formes particulières suivantes: (rrr.102) éi.;(r) I (rr.103) ô;1(r) I (r) = ) art,,n,Ht ôliir<t t.l (rrr.104) I (ru.10s) ô mi .;(r) I avec: rHr I \( r ')-= { t t i r e v l - 1 0 s ir e v l Fig.III-7: Approximntionautocohérente: Lespropriétéssont unifurmesdanslesgrains. considérées A priori, cetteapproximationd'homogénéité intragranulaire peut paraître injustifiéepour l'étudedu comportement desalliagesà mémoirede forme. Les différentesvariantesde martensitequi peuventapparaîtredansle grain ont tendanceà s'opposerà cette hypothèse.Cependant,on estimeque I'approchemicromécaniqueantérieurepermettantla déterminationdu monocristallin(du grain)estsuffisamment comportement réalisted'unpoint de vue physiquepour justifier cetteapproximation réaliséeà l'échelle supérieure. -r02- CHAPITRE I II: Modélisation dufluage anisotherme Si I'on considèrealors une inclusionde volume VI et pour r€VI, on peut écrire: eii(r) = elli ôliin(r) - orllr.r et ômii(r) = ômlij L'équationintégrale(III. 100)devientalors: - ô*lî] ov (')lôrlinrL, * J.1,,,,: è*n(r)=Éfl,n (m.106) VI Le champ de déformationdansI'inclusion,en tenantcompte des relations de moyennese calculecommesuit: .r = I r (r) dv èt il' v rJ.eii (ur.r07) (III.106): C'està dire,d'après - ô,nlt[ =Elnn dvdv'(m.r08) * èlnn #[tt:n,'|, J.l*1(r) Posons: = L l.tl'",,(r) dvdv' ',Il",: # VI VI (rr.109) Le calcul analytiquede ce tenseurest assezcomplexe,il figure en annexe2. Il représenteet décrit les interactionsdu grain I sur lui-même. Les effets des autresgrains sur le grain I ne sont pas directementpris en compte du fait de I'annulation des termes à distancepar le choix du milieu homogène de référence.On parle alors d'une approximation autocohérenteà un site. Cependant,et c'est là un des atoutsde la méthodeautocohérente,ils sont tout de même pris en compte au traversde I'interactionentre le grain I et le milieu homogène équivalent (censé représenteraussi fidèlement que possiblele comportementdu milieu granulaire). -103- CHAPITRE I I I : M odélisation dufluage anisotherme Danscesconditions(III.108)devient: - 41"10.1t =E9'n +*l"r;orfinelkr èlnn (rrr.110) Ou bien encore: - rilnuorlno èLn=[rn,nnn ] rjtn.,o-[,t ]-tE$o lr*non rfi,,i1arfpq (rrr.1 11) On en déduit donc, par identificationavec (III.62); les tenseursde localisationAI et aI relatifsau grainI. - rfiI"uorfpq [r,nnoo ] Iol""* : (rr.112) l"l =nfr.rrill,,'nô-Ln nt^-->^ Lr alPrçù l^^ lçù -^l^+i^-^ lçrclLrurlù l^ rrs ur\rJçrurs ( l l l A 2 . \ ^ + ( l ] t f  / , 1\ ^ : - ^ : çL \ur.v'Î/r 4lllùl \rrr.\rJ,, ^"^ Yue l^ JÂf?-i+i^rÉ \rçrll[Ll\Ir de la fonction d'Heaviside,la contraintemacroscopiques'écrit, en notant fI=!I/! la fraction volumique du grain I: iU=i{,u(r)dv=+Iul (+ iu =rI>(tl*'|, )- rtl(-lt) II (+ i,j =rI>(tl*A[,*nË,"")*rII(tl""ilt)-rI>(*iî) III -'n'',)t (ru.l13) (+ i,.;=Itt(tl*Al,,nn)","n+),rI(rl,,nr"L, paridentificationavec(III.58): Finalement, t",f,," I (rr.114) - *l tîjtt I tt (rlilor"Lr ) I -t04- CHA PITRE I I I : M odéIi sat i on duflua ge anisotherme Le seul point non résolu est relatif au tenseurd'interactionTII défini à partir du tenseur de Green G(r). Ceci est effectué en annexe2, d'une manière analytique d'abord puis à I'aide une méthodede résolution numérique élaborée par Lipinski [LCB87], incluse dans le modèle informatique développépour ce travail. Le point nouveauest le calcul des modules effectifs 14effs1i{eff qui permettentde relier une variation de températureà ses conséquencessur les champs de déformation et de'contrainte macroscopiques. rrr.3.4- REMARQUE À ce stade,le problème peut être considérécomme résolu, ou tout au moins partiellementdansla mesureou les résultatspossèdentune forme implicite. En effet, les tenseursde localisationdépendentdes modules effectifs (III.112) qui, eux même, sont fonction des tenseurs localisations (III.ll4). Cette difficulté est résoluenumériquementpar I'utilisation d'une formulation incrémentale.Lors d'un chargement,la détermination des propriétésdans une inclusion (un grain) se réalise en la supposantentourée du matériau homogèneéquivalent dont les propriétés ont été déterminéesau pas précédent.L'annexe 3 abordeces considérationsnumériques,on y trouve égalementles organigrammes,la notion de tempsde calcul et certainsproblèmesparticuliersà l'écriture du programmeinformatique. La températuren'est pas seulementune variable de contrôle pour la transformation martensitique: certains .effets thermiques sont intrinsèques à la transformation. En particulier, on observe un dégagementde chaleur lors de la transformation directe et une absorptionlors de la transformationinverse.L'étude suivante permet de prendre en compte ces phénomèneset d'apprécier I'influence de la vitessede sollicitationsur le comportementmécanique. -105- CHAPITRE I I I : Modélisation du.fluageanisotherme III.4 - INFLUENCE DE LA SOLLICITATION VITESSE DE III.4.1 - INTRODUCTION Le modèle présentéjusqu'ici permetde rendrecomptedes comportements en superélasticitéet fluage anisothermedesalliages à mémoire de forme en présencede variations de températureetlou de contraintesimposéesde I'extérieur. La transformation martensitiqueétant une transition du premier ordreo elle s'accompagned'un dégagementde chaleur lors du passage austénite+ martensite(transformationexothermique)et d'une absorptionde chaleur par la transformationinverse martensite-+austénite(transformation endothermique).Ces phénomènesmodifient localement la températurede I'alliageen fonction du sensde la transfonnation,de la vitessede fornnation de la martensiteet des conditions d'échangede chaleurdu matériauavec I'extérieur(conditionsaux limites imposéesà l'éprouvette)[VD81]. La prise en compte de ce phénomèneinterdit de considérerla températureT comme homogène dans l'échantillon et égale à la températureextérieure imposée dansl'équation (III.56). Une écriture correcteserait (en notant 0(r) le champ de températuredansl'échantillon): e(r) = g(r)o(r) + n(r)O(r) avecE et Textles conditionsaux limites imposéesau système. Ce phénomènea déjà été I'objet de plusieursmodélisations.Abeyaratneet Knowles [AKK94] ont étudié ce problèmedans un barreausoumis à une élongation. La température y est considéréecomme non uniforme et l'équation de la chaleur est résolueen considérantdifférentesconditions aux limites aux extrémités du bareau. Zanzotto et aL.lFZ9ll ont étudié le même problème en utilisant une loi de comportementdifférente pour le matériau. Plus récemment, Lexcellent et al. ILGS96] ont étudié ce t06 - CHAPITRE III : Modélisation du fluage anisotherme phénomène dans un monocristal monovariant. Dans I'approche par transition d'échelleque nous avonschoisie,la prise en compted'un champ de température variable rend impossible les opérations de localisation réaliséesau $III.3.3.l.: seulesdeuxsolutionssontpossibles.Soit le modèle est restreint aux sollicitations suffisamment lentes pour que l'équilibre thermique 0(r)=fext soit supposéconservé.Cette hypothèseest implicite dansle 9III.3.3.1.Une deuxièmesolutionconsisteà simplifierle problème Chrysochoos[CPM93] a montré à partir de considérationsexpérimentales. d'une part que la chaleurde transformationa une influence non négligeable sur la réponsemécaniquedu matériau(la températures'élèvede plusieurs degrésdans l'échantillon) et d'autrepart que l'élévationde températurese produit de façon assezuniforme dansles échantillonspolycristallins.Cette dernière constatationperrnet de simplifier suffisammentle problème pour rendre possibleI'utilisation de la méthodede transitiond'échelledu $III.3 tout en conservantle mécanismeà I'originede la modificationde la réponse mécanique(la variation de température). Dans la suite, on supposeque le champ de température0(r) dans le polycristal est uniforme et de valeur T différente de la température extérieureText. On supposedonc que le gradient de températureest nul dans le matériau. Cette hypothèseest justifiée d'une part par le fait que I'austéniteet la martensiteont des conductivitésthermiquestrès proches. D'autre part, dans un polycristal, la multitude des sites de transformation entraîneune répartition des sourcesde chaleurrelativementhomogènedans l'échantillon. Cette hypothèserevient à considérerun matériau à I'intérieur duquel la conductionde la chaleurest infinie ou tout au moins pour lequel les échangesde chaleurse produisentà desvitessessupérieuresd'au moins un ordre de grandeurà celles dessollicitations mécaniques. Dans ce cas,I'approchepar transitiond'échelleproposéedansce travail est d'établirla relationqui existeentrela inchangée.Il est seulementnécessaire formation de la martensite (ou sa disparition) et la températureT. Les conceptset résultatsde la thermodynamiquedes processusirréversibles constituentici le cadrethermodynamiquetB68l qui va permettreune prise en comptede cesphénomènes. -t07- CHAP ITRE I I I : Modélisation du fluage anisotherme 111.4.2. ÉVOIUTION DE LA TEMPÉRATURE DU POLYCRISTAL AVEC LE TAUX DE MARTENSITE Dans ce paragraphe,on rechercheune relation globale liant le taux de martensite formée (ou résorbée)et la variation de températureobservée dans l'échantillon. On obtient cette relation en complétant I'analyse thermodynamiqueréaliséeau $III.2.2.1. On considèrecomme volume élémentairereprésentatifun cristal d'austénite. Le point de départ est l'écriture du secondprincipe de la thermodynamique. Soit aDl'énergie libre d'Helmholtz du système.Cette énergie dépend de la déformation totale E, de la températureT et des variables internes fn choisies pour décrire l'évolution des aspectsmicrostructuraux.L'écriture du secondprincipe conduit à I'inégalitéde Clausius-Duhem[G73]: D= oiiËii- p>$f" ntôfn - $sruotr) >o r- (m.1ls) Danscetteexpressionde la dissipationD, o estle tenseurdescontraintes,p la massevolumiqueet q le vecteurcourantde chaleur. Parhypothèse: grad(T)- g (rrr.116) Cette hypothèseentraîneégalementla nullité du vecteur courantde chaleur q. En effet, on supposeque la conductionde chaleurévolue suivantune loi linéaire isotropede type Fourrier, c'està dire: 9 = -k grad(T) (III.I l7) avec k la conductivité thermique du matériau (assimilée comme étant infinie puisque la températureest la même en tout point de l'échantillon à tout moment).Finalement,I'expression(III.115) se réduit à la dissipation intrinsèqueDl, qui doit êtrepositiveou nulle. -t08- CHAPITRE III: Modélisatiott du fluage anisotherme Dr=o,jEI-P>4f" i afn =o (rrlr18) Dans les conditionsexpérimentalesdes essaisréalisés(absencede sources volumiques de chaleur), on montre dans Chrysochoos [CD92] que l'équationde la chaleurse simplifie sousla forme: ^t - pcrt-k r-D1I +pr>+fn I =o (rrr.l19) f,ararn au pointconsidéré. t estla dérivéeparticulairede la température . ;aTt =; + î grad(T)=; aT d'après(III.116).De plus, î étantla vitesse . . de la particule,ce termeest négligeabledansle casde faiblesvitessesde sollicitations sur desmatériauxmétalliques. AT est le laplaciende la températureT. Par hypothèse:AT=0 Cf et k sont respectivementla chaleur spécifiqueà'fh constantset le . coefficient de conductionisotrope. Au secondmembre,on retrouvela dissipationintrinsèqueet les termes de couplagethermomécanique. Le gradientde températureest nul. ChrysochoostCPM93l a montré que la dissipationintrinsèqueD1 est très faible devant la chaleur latente de transformation de phase. Elle est donc négligée dans ce ,calcul. En l'équationde la chaleur(III.I19) seréduit à: conséquence, (rrr.120) pcrt=prl*t" ; dr afn À ce stade,il est nécessairede rappelerla forme du potentielO. Son expressionest déterminéeà partir de l'énergielibre d'Helmholtzpar unité d'unvolumesoumisà un champ de volumeOy qui décritla transformation ET). eT(r)(et macroscopique de transformationmicroscopique t09 - CHAPITREIII: Modélisationdu fluaReanisotherme *u (u,r,er) = - n[ ("*,- ) )ci3n i(",, "i, -*Jtri r'F[ (r)dv+B(r- rox (rrr.r2r) V Ce potentiel s'écritalors,pour les fractionsvolumiquesconsidéréescomme variablesinternes: ("n,- Ei,) i(ru ET)cry.r *u(",T,fn)- .;>Hnmf nfm+ B(r - ro )If n (rrr.r22) nn *-i*" (rrr.123) Par unité de masse: (III.120)seréécritalors: et I'expression =4f crt=TIEf" ' p io avecf=Ifn (rrr.r24) n on détermine une variation de température proportionnelle à I'accroissementde fraction volumique. On a fait I'hypothèse d'une transmission instantanéede la chaleur dans l'échantillon, on peut donc généraliserce résultatpour un polycristal,les quantitésCf, B, p et T étant supposéeshomogène.Il vient: (rrr.12s) t=T " f Pcr Cette équation de couplage est introduite dans le modèle et permet de rendrecompte de I'influencede la vitessede sollicitation sur des alliagesà basede Cuivre ($V.2.3). Deux casextrêmessontpossibles:le casisotherme pour une vitessede sollicitationlenteet le cas adiabatique(priseen compte de l'équationde couplageIII.l25) si la vitessede déformationest rapide. L'étude de vitessesde sollicitation intermédiairestelle que le processusne - II0- CHAPITREIII: Modélisationdu réalisée en introduisant un soit ni isotherme ni adiabatique peut être chaleur avec l'èxtérieur h paramètre phénoménologiqued'échange de (III.125) sousla forme suivante: tLGSg6l). on réécritalorsl'équation (rII.126) pcrt + n(r - lext)= rnf Si h est infini' on retrouve Si h=0, on est en présenced'un cas adiabatique' dansles cas intermédiaires' le cas isotherme.Les valeursde h sont à ajuster M.5 - CONCLUSION les équations littérales Le but de ce chapitre était en premier lieu d'établir des alliagesà mémoire de relatives au comportementsuperthermoélastique anisotherme'En second forme, en vue de modéliserdes essaisde fluage de chaleur pendant les lieu, une prise en considération des échanges compte de I'influence de la transformations a êtéeffectuée afin de rendre vitessede sollicitation en superélasticité' pelmet de prendreen compte: Le cadrethéoriquedévetoppéjusqu'àprésent . Le comportementlocal desconstituantset notammentla prise en compte savoir la formation des des mécanismesélémentairesde déformation, à ainsi aux modules différentes variantes de martensite.On a pu aboutir variantes activées thermomécaniqueslocaux en fonction des différentes monocristal' et de leur fraction volumique respectivedansle la . L'effet des paramètres de contrôle que sont la contrainte et et évolution) des température sur la transformation (activation présenteslors de la différentes variantes de martensitepouvant être transformationde phased'un volume monocristallin. du . Les interactions intergranulaires lors de la détermination thermomécaniques comportementpolycristallin à partir des modules monocristallinsquirégissentlecomportementdesgrains. -ill- CHAPITREIII: Modétisationdu ' La texture cristallographiquedonnéepar les orientationscristallines des différents grains composant le polycristal par rapport au repère macroscopiquepar le biais desanglesd'Euler. La texture morphologique (forme et orientation des grains) prise en compte lors de la déterminationdu tenseurd'interaction. L'influence de la vitessede sollicitation par la prise en compte des échangesthermiquesaccompagnant la transformation. -t12- CHAPITRE III: Modélisation du fluape anisotherme - Référencesbibliographiques- [AKK94] AbeyaratneR., Kim s.J.,KnowlesJ.K.,"continuumModelling of Shape Memory Alloys", dans Mechanics of phase Transformation andShaoeMemoryAlloys, Éd.by BrinsonL.C andMoratrB., AMD, 189,PVP, ry,ASME (1994) tB68l Boccara N., dans Les principesde la Thermodynamique Classique, Éd. PUF,Coll.Sup.(1968) lBe2l BensalahM.O., "Contributionà l'étude des comportements thermomécaniques desmono et polycristauxen plasticité de transformation", Thèsed'Etat,UniversitéMohammedV, Rabat, Maroc(1992) tBe3l BerveillerM., "comportement mécaniquedesmatériauxsolides microhétérogènes", Coursde D.E.A.,Universitéde Metz(1993) [BZ84l BerveillerM., ZaouiA., "Modellingof the plastic Behaviorof Inhomogeneous Media",J. Eng. Mat. andTech.,106, pp.295299 (1984) tBZe3l BerveillerM., Zaoui A., "Modélisationdu Comportement Mécaniquedes SolidesMicrohétérogènes", Ch. de Formation Avancéede Méc.desPolymères, Cluny(1993) ICDezl ChrysochoosA., Dupré J.C., "An infra-red 'set-upfor Continuum Thermomecanics", Actes du colloqueeIRT, Eurotherm,Seminar27, Éa. Européennes Thermiqueset Industries(1992) [CPM93] ChrysochoosA., Pham H., MaisonneuveO., "(Jne analyse expérimentaledu comportementthermomécaniqued'un alliage -n3- CHA PIT RE I I I : M odéIi sati on du fl uage anisotherme à mémoiredeforme de typecu-zn-A|", c.R. Acad.Sci. Paris, 3I 6, SérieII, PP.I 031-1036 (1993) IDOV88] Delaey L., Ortin J., Van HumbeeckJ., Procs of Phase É0. C.W. Lorimes,The Instituteof Metals, transformations'87, @ (1e88) lDZ73l DederichsP.H.,7-ellerR., "VariationalTreatmentof the Elastic Constantsof DesorderedMaterials",Z. Phys',259, pp'103 (re73) tE6ll Prog.in EshelbyJ.D., "Elasticinclusionsand inhomogeneities", (1961) SolidMech.,2,PP.89-140 tE94l à l'étudemicromécanique El AmraniZinfiM., "Contributions s thermoélastiques ", Thèse, martensitique des transformations Universitéde Metz(1994) tEPEg5l EntemeyerD., Patoor E., EberhardtA., Berveiller M., "MicromechanicalModelling of the Superthermoelastic Behavior of Materials UndergoingThermoelasticPhase Les Éditionsde Transition",Procsof ICOMAT'95,Lausanne, ( 1988) Physique,pp.233-238 tFHB8Tl FassiFehri O., Hihi A., BerveillerM., "Elastic Interactions Single Crystals",Scripta BetweenVariantsin Pseudoelastic (1987) Met.,21,PP.771 Irug\ Fedelich8., ZanzottoG., "One-DimensionalQuasistatic Evolutionof ShapeMemoryMaterial insidethe Nonisothermal HysteresisLoop", Cont.Mech.and Therm.,3, pp'25I-276 (lee1) tG73l Germain P., dans "Cours de mécaniquedes milieux continus", Éd. Masson,1, Paris(1973) -il4- CHAPITRE I I I : Modélisation dufluage anisotherme tL92l des métauxen Lipinski P., "Modélisationdu comportement transformationsélastoplastiques finies à partir desméthodesde transition d'échelle",Thèsed'habilitation,LPMM, ISGMP, Universitéde Metz (1992) ILCBST] Lipinski P., Corvasce F., Berveiller M., "Effect of morphologicaltextureon the overall elasto-plasticbehaviorof (1987) 3thRISOInt. Symp.,pp.409-414 metallicpolycrystals", tLGSg6l Lexcellent C., Goo 8.C., Sun Q.P., Bernardini J., "Characterization,Thermomechanicalbehavior and ConstitutiveModel of ShapeMemory Micromechanical-based ActaMater.,44,no9,pp.3773-3780 Cu-Zn-AISingleCrystals", (ree6) tP86l Patoor 8., "Contribution à l'étude de la plasticité de transformation dans les mono et polycristaux métalliques", Thèse,Universitéde Metz (1986) tP95l Patoor 8., "Comportementthermomécaniquedes alliages à mémoiredeforme", Mémoire d'habilitation, Université de Metz, (1ees) tPC53l PatelJ.R.,CohenM., "CriterionfortheActionof AppliedStress Acta Met., 1, pp.531-538 in the MartensiticTransformation", (1es3) IPEBST] Patoor E., Eberhardt A., Berveillet M., " Potentiel pseudoélastiqueet plasticité de transformation martensitique dans les mono et polycristauxmétalliques",ActaMet., 35, nol l, (1987) pp.2779-2789 [PEB88] Patoor E., Eberhardt A., Berveillet M., "Thermomechanical behaviour of shapememoryalloys", Arch. Mech., 40, pp.775794 (1988) -I15- rme CHAPITREI I I : M odélisationdufl uageanisothe [PEB94] Patoor E., Eberhardt A., Berveiller M., "Micromechanical Modelling oï the ShapeMemory Behavior", Procs ASME V/AM'94,ChicagoI.L., AMD-l89/PVD-292,pp.22:37(1994) tR7ll RiceJ.R., "Inelasticconstitutiverelationsfor solids:an internal variabletheoryand itsapplicationto metalplasticity",J. Mech. (197I) Phys.Solids,19,pp.433-455 tSH93l modellingfor the Sun Q.P., Hwang K.C., "Micromechanics ConstitutiveBehavior of PollycrystallineShapeMemory Alloys",J.Mech.Phys.Solids,4l,pp.I-17 (Igg3) [SH94] Sun Q.P., Hwang K.C., "Micromechanics Constitutive Descriptionof Thermoelastic Martensitic Transformations", Advancesin Applied Mechanics,31, AcademicPress,New York, pp. 249-298(1994) tVDSll Van HumbeekJ., DelaeyL., "The influenceof çtrain-rate, amplitudeand temperatureon the hysteresisof a pseudoelastic Cu-Zn-Alsinglecrystal",J. de Phys.,C5, noI0,42, pp.10071 0 1 1( 1 9 8 1 ) D.S.,ReadT.A., "On the theoryof [WLR53] WeschlerM.S.,Liebermann theformationof martensite", Trans.AIME, 197, pp.l503-1515 (1es3) - l16- CHAPITREIV: - Résultatsexpérimentaux pourun alliage CuAlBery.I - INTNODUCTION PageI 18 rv.z- DrsposrrrF urpÉrunnENTAL Page 119 tv.z.t- uarÉruEl.D'ESSAI rv.2.z- pnÉpenerroN onsÉpnouvETTES pm'rÉnsNTs tv.z.3 TypES D'ESSArs r19 r22 t25 IV.3 . SUPERTHERMOÉLASTICITÉ NBS MONOCRISTAUXCuAlBe PageI 26 IV.3.1- INTRODUCTION rv.3.2- suppnÉresrrctrÉ IV.3.3- FLUAGEANISOTTIERME IV.3.4- DIAGRAMMB D'ÉTAT 126 127 r32 . . . . . . . . . . .I.3. .6. . IV.4 . SUPERTHERMOÉLASTICITÉ NBS POLYCRISTAUXCuAlBe Page139 IV.4.1.INTRODUCTTON rv.4.2- suppnÉr.esnctrÉ IV.4.3- FLUAGEANISOTHERME TV.4.4 - INFLUENCE DE LA VITESSE DE SOLLICITATION r39 t4l 145 151 ry.5 . CONCLUSION Page152 nÉT"ERENCES BIBLIOGRAPHIQUES IV Page154 -il7- CHAPITREIV: Résultats Ce chapitre décrit des essaisde traction isotherme et de fluage anisotherme réalisés sur un alliage à mémoire deforme de rype CuAtBe. Ces essais sont réalisés sur des éprouvettes monocristallines et polycristallines de même compos,ition. L'influence de la vitesse de sollicitation sur Ie comportement superéIastiquedespolycristaux est égalementétudiée. IV.l - INTRODUCTION Les atliagesà mémoirede forme de typeCuAlBe sontactuellementI'objet études,leurspropriétésen font desalliagestrèsintéressants de nombreuses pour les applicationsindustrielles.Ces alliagesprésententune stabilité thermiquebien supérieureaux CuZnAl et une mise en oeuvreplus facile que les CuAlNi (absencede précipité y fragilisant). Les propriétés à cellesdesCuZnAl tB90ltF93l. sontégalementsupérieures mécaniques faible, étantencore,très Le nombred'étudesportantsur leur comportement à cetteétude. cet alliageaétê choisicornmesupportexpérimental Au sein du Laboratoirede Physiqueet Mécaniquedes Matériaux de I'universitéde Metz, A. Hautcoeura mis au point uneméthodeindustrielle d'élaborationde fil monocristallinen alliage cuivreux tH96l. Cette méthodeprésentela particularitéde pouvoir réaliserdes monocristauxà monoet polycristallines partir de polycristauxet d'obtenirdeséprouveffes de même composition,ce qui permetd'effectuertout'un ensemblede à la validationd'uneapproche mesuresoriginalesparfaitementadaptées micro-macro.Rappelonsquele modèleutilisé dansce travail déterminele desgrainsqui le comportementd'un polycristalà partir du comportement commedesmonocristaux.Ces constituent,ces derniersétantconsidérés essaisvont ainsi permettrede valider le modèleet de caractériserle uniaxialeset à de I'alliageCuAlBesoumisà descontraintes comportement desvariationsde temPérature. I18- pour un alliaee CuAlBe CHAPITREIV: Résultatsexpérimentaux IY,2 - DISPOSITIFEXPERIMENTAL 1V.2.1- MATÉRIEL D'ESSAI l-c"".ig"""" rc-l l: MachinedetractionZWICK l00kN 2: Unité de commandeélectronique de la machinedetraction: programmenumériquement le pilotageet réaliseI'acquisitiondes données -l00oCà +200'C 3: Enceintethermostatée: 4: Unité de commandede I'enceintethermostatée 5: Micro-ordinateur PC:Entréedesdonnées liéesà I'essaiet stockage desÉsultats 6: Imprimante 7: Eprouvette 8: Extensomètre 9: Capteurdetempérature fixé sur l'échantillon Fig.N-I: Dispositifexpérimental utilisépour réaliserdesessais de tractionsuperéIastique à dffirentes températures et deflunge anisothermesousdffi rentes conffaintes appliquées. -ilg- CHAPITRE IV: Résultats expérimentauxpour un alliage CuAlBe mécaniques sontmisenoeuvre: Deuxtypesd'essais . Desessaisde tractionuniaxialeisotherme:essaisde superélasticité. . Des cyclesthermiquesà contrainteuniaxialeimposée'constante: essais de fluageanisotherme. Ces différentsessaissont réaliséssur une machinede tractionZWICK de la d'une capacitéde l00kN (PhotolY-z),la vitessede déplacement traverse mobile est imposée.La machineest pilotée par un microordinateurqui réaliseégalementI'acquisitiondesdonnées. programmablequi L'éprouvetteest placéedansune enceintethermostatée contrôlela températurede I'essai.Cetteenceintepermetde réaliserles cycles en températuredans la plage de -100 à 200"C. Les vitesses nominalesde refroidissementet de chauffagesontles suivantes:3lVmin. entre0 et 100'C.,lK/min entre-100et OoCet entre100et 200'C. Il n'est paspossiblede réglercesparamètres, seulesles températures de consigne peuventêtremodifiées. L'éprouvetteoune fois fixée dansles morsde la machinede traction, est pour la mesuredesdéformations. équipéeen sonmilieu d'un extensomètre Une sondefixée à l'éprouvettepermetde mesurerla températureen surface.Le systèmede serrageet de fixation des éprouvettespermet d'éviterla torsionde l'éprouvettelors de la miseen placeet pendantI'essai (PhotoIV-3). qui est imposéeindépendamment, Mise à part la température, I'essaiest piloté à partir d'un micro-ordinateur PC équipédu logiciel ZWICK1008 qui permetla commandede I'essai(via I'unitéde commandeélectronique) et I'acquisitiondesdonnées.PendantI'essai,cetteacquisitionsefait selon un incrémentimposép- I'utilisateuret concernecinq paramètres: . Le tempst (seconde) . Le déplacement x de la traverse(mm) . L'effort F appliquéà l'échantillon(N.) . L'allongementÂl mesurépar I'extensomètre (mm) . La température T mesuréeau contactde l'échantillon("C) t20 - e CuAIBe CHAPITREIV: Résultatse. Photo.lV-2: Machine de traction utilisée pour les essais de superéIasticttéet defluage anisothernte. Plutto.lV-3: Di,spositifde serrageet de ntontagede l'éprouvette.Il pennet d'éviter la torsiottdeséprouvettesoLtttlotttogeet en Coursd'eSsai. I2I CHAPITRE IV: RésultatsexpérimentauxWur un alliage CuAlBe Au cours des essais,on négligela variation de sectionde l'éprouvette.Les déformations e et contrainteso sont calculées d'après les relations suivantes: f,:- ^l le et $=- F Ss avecl0 et Sg la longueuret sectioninitiale. desfichiersobtenuspermetde tracerles courbeso-e Un post-traitement (superélasticité) Il permetégalementde suivre et t-T (fluageanisotherme). imposés(paramètres supposés les dériveséventuellesdes paramètres ou contrainteo, en fluage constants):températureT en superélasticité anisotherme. 1V.2.2- PNÉPNRATIONDESÉPROWETTES Les essaisont été effectuéssur un alliageCuAlBede composition(en Vo massique):lI,6VoAl et 0,57oBe. Les polycristauxsont fournispar la sociétéTréfimétauxsousforme de fil de section circulaire d'environ 1,5 mm de diamètre.À partir de ces polycristaux,desmonocristauxsontélaborésau Laboratoirede Physiqueet MécaniquedesMatériauxtH96l. On obtientainsidesmonocristaux d'une longueurde I mètreet de sectionidentiqueà celle des polycristaux.La méthodeutiliséepermetde conserverla compositionde I'alliage. Les éprouvettesutiliséessont coupéesà partir des différents'fTls,leurs principalescaractéristiques sontdonnéesdansle tableauIV-4. Longueurutile moyenne (mm) Diamètre moyen (mm) To Ms ("c) Monocristal 100 1,5 =S Polvcr.brut r00 1.46 =-40 Tableau IV-4: Caractéristiques des éprouvettes monocristallines et p olycristallines brutes de livraison. -t22- CHAPITREIV: Résultutsex Les échantillonsdisponiblesétantsousforme de fils, la réalisationd'essais est impossible. de compression On choisit la phaseausténitiquecomme étatinitial et on rechercheun état de départ le plus uniforme possiblepour toutes les cristallographique à éprouvettes.Pour ces raisons,on effectueun recuit à 690"C commun I'ensembledeséchantillonspolycristallins.On réalisele traitementsuivant: . Préchauffagedu four à 690"C . Introductiondeséprouvettes et maintienà 690'C pendant5 min' . à I'air libreRefroidissement d'augmenterla taille des grains [896]' Ce traitementa pour conséquence pm' Sur les échantillonsbruts, le diamètremoyen des grainsest de 100 Après traitement,ce diamètreest multiplié par trois environ (fig.IV-5)' Un tel résultat est égalementresponsablede modifications au niveau des températuresde transformationtH96l. Fig. IV-5: Micrographies de I'état initial et de l'état recuit (d'après *5' Hiiro,rnr A. - LPMM - IJniversitéde Metz tH96l): Grossissement - t23- CHAPITRE IV: Résultatsexpérimentauxpour un alliage CuAlBe Pour les monocristaux,aucun traitementthermiquen'est nécessaire.Seul une immersion pendantcinq minutesdansde I'acide nitrique dilué à 60Vo permet de détecterles joints de grain indésirableset de sélectionnerles éprouvettesentièrementmonocristallines. On supposeque le comportementde I'alliagemonocristallinétudié s'inscrit dans le même type de diagramme de phase métastable que celui précédement déterminé pour un alliage CuAlBe de composition légèrementdifférente (fig.IV-6): Il,6Vo Al et 0,52VoBe en 7o massique lHEP94l. 350 F"+ cl' p'(8") À o tr Ë rso E (Y-> F") U cr'-->B' -70 -50 -30 -l MS Af 50 T.i 70 90 I l0 (oC) Température 130 T.a Fig.N-6: Diagramme d'état métastableobtenupour un alliage CuAlBe monocristallin(Ms=- I 0"C) [ HEP94]. Comme pour les alliagesde type CuAlNi [SSo85], on observequatre types de martensite:t', F', F" et G'. La phase 0' r" forme à partir de -t24- pour un alliage CuAlBe CHAPITREIV: Résultatsexpérimentaux I'austénitep et la phaseB" à partir de la martensitef. Le diagrammelaisse : apparaîtrequatretempératurescaractéristiques - MS, la températurede début de la transformationausténite-martensite, - Af, la températurede fin de la transfonnationmartensite-austénite, - Tci est la températurecritique à laquelleles transformationsinverses c['+ F' et B'+ B ont lieu simultanément. - Tca est la températurecritique à laquelle les transformatio,nsdirectes p'+ F "t F'-) c[' ont lieu simultanément. On s'attacherapendantnos essaisà ne caractériserque le comportementlié à la transformation martensitique B + B'. Au-delà de 250 MPa et de 130oC,le diagrammeindiqueI'apparitionde nouvellesphases.On se limite donc au niveau de la contrainte maximale et de la températuremaximale pour éviter I'apparitionde cette secondetransformationde phase.Pour tenir compte de la composition légèrementdifférente de I'alliage utilisé ici, les contraintessont limitées à 200 MPa et la températureà 100"C. LV.2.3- DIFFÉRENTSTYPESD'ESSAIS pour caractériser le cornportement Trois sériesd'essaisont étéeffectuées de I'alliageCuAlBe. . Dans un premiertemps,des essaisisothermes(tractionuniaxiale+ décharge)à T>Ms permettentd'apprécierI'influencede la température Ils permettentégalementde sur le comportementsuperélastique. physiquesou mécaniques indispensables à mesurercertainsparamètres la modélisation. . Dans un secondtemps,des essaisde fluage anisothermeont été effectués.Ces essaispermettentde caractériserd'une manièreplus Pour les complèteI'alliagedansle diagrammecontrainte-température. on s'aperçoitque le rôle joué par la contrainte essaisanisothermes, appliquéeest nettementplus importantquecelui de la températurelors desessaisisothermes. -r25- CHAPITRE IV: Résultatsexpérimentauxpour an alliage CuAlBe Ces deux sériessont réaliséesà la fois sur les éprouvettesmonocristallines et polycristallines. ' L'influence de la vitesse de sollicitation sur le comportement superélastiqueest égalementétudiéepour le polycristal. Remaroue: L'extensomètreest calibré à la longueur initiale lo=Q,94mm. (environ I}Vo de la longueur utile des éprouvettes),de façon à éviter les effets de bord dans la zone de mesure.Il est toujours placé au centre de l'éprouvette. IV.3 - SUPERTHERMOÉIASTICITÉ MONOCRISTAUXCuAlBe DES IV.3.I - INTRODUCTION La réponse mécanique d'un monocristal dépend fortement de son orientation cristallographique[HIM88]. Dans le but de s'affranchirde cet effet, tous les essaissont effectuéssur un seul et unique échantillon.Ceci (-tù l \ 'a^l 3 \i À r \J \ I N,b ) \\ v est permis de part le caractère réversible du comportement superthermoélastique. Cependant,des étudesont montré que la fatigue affectele comportement du monocristal. On observe une diminution de la contrainte seuil de transformation ainsi qu'une augmentationde la pente de transformation [MS94]. Un tel comportementest relié à la productionde défautspendant la transformation martensitiqueet à I'interaction entre ces défauts et la transformationelle-même [SRA85I. Pour limiter ces effets, on choisit de ne pas effectuerde cyclagepour chaqueconditiond'essai;de plus, un flash thermique à 200'C permet de restaurerl'échantillon aprèschaque essai lHEPe4l. 126- CHAPITREIV: Résultatse Les différentsessaissont effectuésdansI'ordredonnéen fig. IV-7. En premier lieu on réalise des essaisisothermesà des températures croissantes: chaqueessaiestsuivid'unflashthermique. Unepremièresérie d'essaisanisothermeest ensuiteréaliséepour des niveauxde contrainte décroissants. Cette séquenceéduquel'échantillon,une déformationde transformationde 47oest obtenuepour un refroidissement sanscontrainte. Une secondeséried'essaisde mêmetype est effectuéeen réalisantcette fois ci un flashthermiqueaprèschaquesollicitation.Seulsles résultatsde cettedeuxièmesériesontexploitésdansIa suite. T ("C) Rq:. 5;gnlfie que l'éprouvette a subi un flash thermique 8 ",4:^ E (MPa) Fig.IV-7: séquencerécapitulativedes essaiseXectuéssur le monocristal. TV.3.2- SUPERÉLASTICITÉ on choisit la vitessede traversesuffisamment faible.(lmm/min)pour -t27- CHAPITREN: Résultatse quasi-statique [E96]. supposerdesconditionsde chargement Afin de ne pas engendrerde plasticitéou une transformationF'+ cr' de la chargeà la déchargeest de 87ode (fig.Iv-6), le critèrede passage déformation mesuréepar I'extensomètre.L'arrêt de I'essai intervient lorsquela contraintes'annulelors de la décharge. croissantes Cinq essaisde tractionsont effectuéspour des températures comprisesentre7 et 80"C (fig. IV-8). â 100 È Ë80 E É U 60 4)6 Déformation(Vo) 1 Ftg.N.8t Courbesde traction superëlastiquepour le monocristal CuAlBe à dffi rentestempératures. donne:E=2104 MPa. Le moduled'Young,mesurésurlescourbes, - t28- pourunalliaSecuAlBe e.rpérimentau.r 1HAPITREIV: Résultats On obtient comme prévu des décalagesentre les différentes courbes (fig.Iv-8). La températurede I'essai détermine la contrainte seuil de transformation:la dépendanceainsi obtenueest linéaire. a) b) t--r du début de la transformation @hotographie *50) *"4r^Wue dansw, ittrr,rrtristalCuAlBe(Grossissement: et b) Schémàtisationd'après observationsexpérimentalesde la fonnation de la martensitedcutsun,nonocristaltB96l. -129- CHAPITREIV: Résultats r un alliase CtAIBe En traction uniaxiale,Ia martensiteforméeest normalementconstituée d'uneseulevariante[DKT74](fig.IV-9);ra mieux orientéepar rapportau repèredu chargement. La transformation de phasese réaliseà contrainte quasi-constante. Le plateaude la transformation esthorizontalpour 80oC, il est moins marquépour les températures prusfaibles:40o, 20" et 7"c. Deuxphénomènes distinctspeuventexpliquercettelégèrepente. ' D'une part, il est possibleque les contraintes localesassociéesà I'apparitionde la premièrevariantesont supérieuresà la contrainte externeet entraînentainsiI'apparitiond'unesecondevariante. ' D'autrepart, il est égalementpossibleque l'échantillon se transforme d'unemanièreplus homogèneà bassecontraintequ'auxcontraintesplus élevées.Dansce cas,plusieurssitesde transformation sontprésentset la transformationa lieu pour une part plus ou moins importanteen dehorsde la zonede mesurede I'extensomètre. par rapport à une transformationhétérogène où unevariantecroît dansla zone.demesure (et pour unemêmecontrainteappliquée), la déformationmesuréesera plusfaible. L'hystérésis augmentesensiblement pourles essaisà 60oet 80"C.Elle est d'environ25 MPa pour les essaisà 20 et 40oc (mesuréeà 4vo de déformation), ce qui correspondà celle obtenue par d'autres expérimentateurs sur des alliages CuAlBe de compositiondifférente tHEP94l. L'augmentationde I'hystérésisaux essaiseffectuésà 60 (36 MPa) et 80"C (58 MPa) provientsûrementd'unesecondetransformation martensitique (B'+a') qui se produità hautescontraintes.La contrainte seuil de la transformation inverseo'-+Ê' de cettesecondemartensite(o') étantinférieureà cellede la première(B'),celaexpliqueI'augmentation de I'hystérésis. Ces essaissont réalisésà vitessede traverseimposée.Les vitessesde déformationcorrespondantes sontdéduitesdescourbesde déformationen fonctiondu temps(fig.IV-10). La vitessede déformationpour la partie élastiqueest égaleà 3 l0-4 s-l. Les vitessesde déformationdans le -t30- domainede transformationvarient suivantla températurede I'essai(tab.Iv1l). Cependantcettevariation ne peut pas être responsabledes différences de penteobservéeslors des essais.En effet, il est connu que I'influence est inverse: plus la vitesse de déformation est impoftante, plu's la pente s'accroît[DDA78]. ôrôî 1o 8 4 s6q ;6 'Ë fil € \o,L 4\o 100 150 Temps(seconde) F|g.IV-IO: Courbesde déformationenfonctio@ superélastiques à dffirentes températures pour le monocristal. L'irrégularité des courbes(notammentà 80'C) provient de déformations ayant lieu en dehors de la zone de mesure de I'ektensomètre.La déformation obtenue est alors à caractère plus homogène à travers l'échantillon To de I'essai(oC) Vit. dedéf.êr 1s-11 7 20 40 60 80 1,6l0-3 1,6l0-3 2,1 l0-3 2,1 l0-3 3,2 l0-3 Tab-IV-Il: Vitessesde déformation mesuréespour les essaisisothermes sur monocristauxà vitessede traverseimposéeconstante. -I3I- )HAPITRE IV: Résultatsexpérimentauxpour un hlliaSe cuAlBe pour une même vitesse de déplacementde la traverse, on obtient des vitesses de déformation différentes suivant la température de I'essai. pendant un même incrément de temps et par conséquent'unmême taux de déformation globale de l'éprouvette, la déformation mesuréeà 7oC est deux fois plus faible qu'à 80"c. Aux températuresplus faibles, la déformation est moins localisée, il se peut que deux plaquettes de martensiteapparaissentet progressent:une dans la zone de mesureet la secondeen dehorsde cette zone. IV.3.3- FLUAGE ANISOTHERME Une fois l'éprouvettemiseen place,I'essaidémarreparliapplicationd'une contraintequi resteensuiteconstantependanttout I'essai.Une température commandele refroidissement de consigne(dansle domainemartensitique) de l'étuve et de l'éprouvette.Le dispositifexpérimentalne pennetpas et de chauffageet par d'intervenirau niveaudesvitessesde refroidissement conséquent,sur les vitessesde déformation(fig.Iv-l2). La courbe permet de mesurerpour le refroidissementles température(temps) suivants: gradientsde température o -$ lUminutedansle domainede température [60",-5"C]et o -J trUminute [-5',-60'C]. dansle domainede température La vitessede chauffageestde 12trUminute Les vitessesde déformationsontau maximumde eT = I,65.10-4 pour à ta vitesseminimalelors des I'essaià l,imp = 60 MPa, ce qui correspond essaisisothermes.Nous pouvons donc dire que les conditions de pourcesessais. sontquasi-statiques chargement entreI comprises croissantes Lesessaissonteffectuéspourdescontraintes et 60 MPa. Les courbesobtenuessont typiquesdU comportement d'unalliageà mémoiredeforme(fig'IV-l3)' anisotherme t32 - GHAPITRE IVt Rétultottt*- "'' "' - n - - un oiliog, crrArB" 60 40 U 20 Ia E \(l) 0 o A. ,(.) -20 -40 I -60 i 0 12t \e E o crl tr \l) â I 'ol 8l t 6[ I' 4l I 2l t ol 0 (seconde) 3000 Fig.IV- 12: Evolution de Ia températur, @ (b) enfonction du tempslors des essaisdefluage anisàthermedu monocristal CuAlBe. Les températures de transformation sontfonctionde la contrainteappliquée (fig.Iv-13). Il faut noterque la déformationmaximalede transformation obtenuedépendégalementdu niveaude contrainte(fig.IV -14). Ce phénomèneest en accordavec le mécanismed'accommodation des variantesde martensite.En I'absence de contraintesou lorsquecelles-ci sont très faibles,les variantesforméesne sont pas orientées(favorisées mécaniquement), elles ont alors tendanceà s'accommoderafin de minimiserl'énergieélastique. -t33- CHAPITREN: Résultats 2 À o,i 0 o 4ù 40"-b ?J-2o:tt Temffrature('C) Essaisde fluage anisothermepour un monocristal CuAlBe à fiS.IWS, s. dffi rentescontraintes imposées constante l0 oa 8 Eèe o' '<= ËË 6 Ëtr È.o =(, EF 4 ,9b )Qo QË 2 .a 0102030 40 Contrainte 50 MPa) 60 éformationmaximalede transformationenfonction de 2 fiiirà li: appUquAelors d'essaisde fluage anisothermepour le monocristal CuAlBe. -134- CHAPITRE IV: Résultatsexpérimentawcpour un alliage CuAlBe On peut scinderla courbeIV-14 en trois parties: . Au-dessus de 20 MPa, la courbe tend à se saturer pour une valeur proche de IÙVo,valeur obtenuepour une transformationmonovariante et pour un chargementsuperélastique.Ce résultat s'interprètecomme I'effet de la contrainte qui oriente et favorise la variante la mieux orientée par rapport au repère du chargement: dans ce cas, la transformationest monovariante. ' Une partie à bassecontrainte(< 20 MPa) pour laquellela déformation décroît fortement avec la contrainte appliquée. Celle-ci, plus assez importante, ne favorise plus une seule variante et permet à plusieurs variantes de s'accommoderen faisant chuter la déformation de transformationglobale. . Pour les très faibles contraintes (< 5 MPa), l'éprouvette semble légèrementéduquée.Idéalement,un fluage anisothermesanscontrainte devrait aboutir à une transformation complète sans déformation macroscopiquede transformation. La courbeIV-14 peut être représentésur un mêmegraphiqueque les essais (fig.IV-15). On note une très bonne correspondanceavec superélastiques I'essai superélastiqueà 7'C. Ce type de résultat est attendu par Waram [W90]: pour un essai superélastiqueà une températureégale à M5, la courbe de comportement(et principalementla pente de transformation) doit correspondreà la partie linéaire à faible contraintede la courbe de déformation maximale de transformationobtenuelors d'essaisde fluage anisotherme.Le fait que la correspondance soit bonne pour I'essaià 7"C oC, (Ms + quelques voir tab.IV-I7) montre que notre échantillon s'est légèrementéduquélors des essaisde fluage anisotherme -135- CHAPITRE IV: Résultatsexpérimentauxpour un alliage CUAIBe 70 60 50 À ë40 O tr Ë30 U 20 l0 0 46 Déformation(Vo) à 7"C et la Figure IV-15: Comparaisonentre Ia courbesuperélastique ,*rb, d, déf"rmationmaximalede transformafiàneT*ae'obtriu, à parrir desessaisdefluage anisotherme. IV.3.4 - DIAGRAMME D'ÉTAT et fluagesanisothermes),on À partir des essaisprécédents(superélastiques déduit le diagramme de phase contrainte-températurequi permet de I'alliage. caractérisercristallographiquementet thermomécaniquement C'est une donnéeimportantepour I'utilisation des alliages à mémoire de forme car il permet de différencier les domainesde stabilité des différentes phases.Par exemple,la droite de débutde transformationdirecte (MsMs') représentele départ de la transformationausténite-martensitelors d'un chargement(application d'unecontrainteou refroidissement). Plusieurstechniquesexistentquant à sa déterminationexpérimentale.On utilise une méthode d'intersection des tangentes schématiquement -136- CHAPITREIV: Résultats représentéesur la figure IV-16. La même méthodea été utilisée pour déterminerles lignesMMr, AsAs'. ArAr. ContrainteI Déformation Température T Déformation 11 ,72 Fig.IV-16: Reprêsentationschématiquede la méthode de détermination par intersection des tangentesde la ligne de départ de la transformation directe (MSIUIS,). Les différentspointsreprésentant chaqueessai(isothermeet anisotherme) sont portés dans le diagrammecontrainte-température. Les lignes de transformation sontobtenuespar interpolationlinéaire(fig.IV-lg). On en déduitles caractéristiques dela transformation (tab.IV-17). Lignede PenteO'Â, Equationobtenuepar Température de interpolation linéaire transformation ("C) (MPaK-l) Sup:I = -11,2+2,OT Flu:I=-8,7+2,07 5,5 4,4 2 2 E=-9,6+2,07 4.8 2 MrMr E=14,5+1,6T -9,3 1,6 ASAS' I=-15,4+1,67 9,4 1,6 ArAr S u p :I = -17,2+1,37 Flu:E = -25,6+1,'17 l3 14,7 12.6 1,3 transformation MSMS' E = - 1 7 , 3+ 1 . 4T 1,7 T,4 TableauN-17: Caractéristiques de la transformationde I'alliage CuAlBe monocristallin. On dffirencie les résultats obtenuspar les essais (Sud et ceuxobtenusparflunge anisothèrme superélastiques (Flu). -137- t20 crl = 100 o) Ê Ë 80 E U 60 40 Temffrature("C) -fig.IV-I8t Diagramme d'état expérimental pour I'alliage CuAlBe monocristallin. Les pentesdes droites de transformationreprésententdes valeurs courantes pour un alliage à base de Cuivre: les valeurs prochesde 2iV4PalK sont similaires à celles obtenues par Hautcoeur [HEP94] pour un alliage CuAlBe de compositionlégèrementdifférente(1,9 MPa/K). t 3 8- pour Lutalliage CuAlBe CHAPITRE IV: Résultatsexpérintentau.tc IV.4 - SUPERTHERMOÉINSTICITÉ POLYCRISTAUXCUAIBE DES IV.4.1- INTRODUCTION à sontplus,difficiles Iesessaissurpolycristaux Parrapportau monocristal, plus complexeet naturepolyvariantede la microstructure interpréter: (fig.lV-19),interaction dejoints entrelesgrains,présence transformation sontmoinsmarquées. de grainfont quelestransitions Fig.lV-19: Micrographie représentantles variantes dans un grain d'un polycristal CuAIBe. L'effet du cyclageest beaucoupplus importantque sur les monocristaux: forte évolution du comportementdès les premierscycleset restauration incomplètepar flash thermique.L'utilisationd'uneéprouvetteuniqueest donc impossible:chaqueessaiestréalisésur une éprouvettedifférente.Un t 3 9- CHAPITRE N: Résultatsexpérimentaurpour un qlliage CuAlBe léger cyclage (entre cinq et dix cycles) permetd'obtenir une stabilisationdu comportement(fi g.IV-20). 300 250 (ll =2w !'ç Ë lsO o U 100 2,5 2 1,5 Déformation(7o) 7 6 s 5 É €al4 Ê L qY? \(l) n 2 I 0 -100 -50 0 100 50 ('C) Température 150 200 (T=60'C)et b) Fluagesanisothermes FtgJV-2Ua) Cyclessuperélastiques rz--no up;a) sur l'alliage cuAtBepolycristallin: au-delàde quelques cycles,le comportementeststable. -t40- CHAPITRE N: Résultats expérimentauxpour un alliage CuAlBe IV .4.2- SUPERÉLASTICITE au premieret aucinquièmecycle. principalement On s'intéresse Le critère de fin de chargement(décharge)est de 3Voen déformation Ce choix résulted'un compromis:éviter mesuréepar I'extensomètre. I'apparitionde déformationsplastiqueset faire apparaîtreclairementles martensitique. pentesde transformation de la traverseest Commepour le monocristal,la vitessede déplacement Lesessaisont étéeffectués imposéeet égaleà I mm/min(quasi-statique). suivantes:20, 40, 60,80 et 100'C.L'évolutionde la aux températures en fig.IV-21,les vitesses déformationen fonctiondu tempsestreprésentée calculéessontindiquéesdansletab.lY-ZZ. de déformationcorrespondantes 3,5 3 s o Cll 2,5 2 É 1,5 \() 1 0,5 0 100 2w 300 400 Temps(seconde) 100 2w 300 400 Temps(seconde) Fig.IV-2L: Graphes déformation-tempspour un polycristal CuAlBe: a) Premiers cycles; b) Cinquièmescycles(rapportésà la mêmeorigine). La vitessede déformationmoyenneest d'environ2lga (tab.IV-}z). Pour une même vitesse de déplacementde la traverse, les vitesses étaient d'environ 2 I0-3 pour le monocristal. La transformationdu monocristal se déroule par I'apparition et la propagation d'une variante dans tout l'échantillon. Quand I'extensomètremesureune déformation, on est a peu -t4t- CHAPITREN: Résultatse. un alliase CuAlBe près certain qu'en dehors de la zone de mesure, il n'y a pas de transformation.À I'inuerse,pour le polycristal,la transformationn'est pas Iocaliséemais se déroule "uniformément"danstoute l'éprouvette.La zone de mesure de I'extensomètrecorrespondantau dixième de la longueur utile de l'éprouvette,pour un même accroissementde temps et donç un même déplacementde traverse,on mesureenviron dix fois moins de déformation pour le polycristalque pour le monocristal. Températurede I'essai Vitessede déformarionè (s-l) ler cycle 5èmecycle 20"c 40'c 2,I 104 2,5 104 1,7r04 l,g4 r0-4 60'c 80'c 100'c 1,65104 1,65104 1,75104 r,62r04 r,75r0-4 1 , 81 0 4 Fig.IV-22: Vitessesde déformation lors des essaisisothermespour un polycristal CuAlBe. Le module d'Young E, d'après les courbes de traction, est'd'environ 60 GPa. Si nous choisissonsun coefficientde Poissonv=0,3, le module de cisaillementp vaut 23 GPa. Contrairement au monocristal pour lequel la transformationa lieu pour une contrainte quasimentconstante(plateaude transformation),on observeune pente de transformationsur les courbesde superélasticitédu polycristal (fig.IV-23). Cette pente est due à la multitude des variantesqui apparaît pendant la transformation et aux interactions intergranulaires.Elles entraînentune déformation moindre qu'une transformationmonovariante pour un mêmeaccroissement de contrainte. La déformation qui subsiste lorsque le matériau n'est plus sollicité mécaniquement(frg.IY-23b) est attribuéeà une déformationplastiquequi se produit localementdans l'échantillon [PS84] (notammentaux joints de grain) et à de la martensitepiégéedansI'austénitetcggl. -t42- CHAPITRE IV: Résultatsexpérimentauxpour un alliage CuAlBe 400 350 300 g zso à ; 2oo .E g Ë E l5o 100 50 0 400 350 300 È ; Ë 250 200 ! É E lso 100 50 0 1,5 2 Déformation(7o) 2,5 Fig.IV-23: Courbes de comportementisothermepour plusieurs températures de l'alliage CuAlBepolycristallin:a) Premierscycles.b) cycles. Cinquièmes -t43- CHAPITREIV: Résultatsexpirjmentauxpour un alliage CuAlBe L'hystérésismesuréeà 1,5 7o de déformation (Âo), la'pente de transformation(0o) et la contrainte seuil de transformation (Mso) sont relevéespourlescyclesI et 5 dansle tableauIV-24. Température(oC) Âo (MPa) 0o (MPa) Mso ('C) 20 40 60 80 100 Cycle I 83 67 59 55 78 Cvcle 5 67 55 46 42 50 CycleI 2085 3285 2657 2543 2228 Cvcle5 3943 4É.28 4000 3828 417| Cycle I 133 170 207 252 322 Cvcle 5 85 r42 174 226 278 Tab.N-24: Évolution des caractéristiques de la transformation martensitique avec la températureen traction uniaxiale pour un alliage CuAlBe p oly c ristallin. cd À b t00 5000 80 4000 60 6. 30@ O. ë 40 b 2000 <D 20 1000 0 0 0 20 40 60 80 100 120 ('C) Temperature 0 20 40 60 80 100 120 Température fC) F\S.IV-2S:Évolutionde l'hystérésisAo (a) et de la pente eo ft) en pour ,l'alliage fonction de la températurede l'essai superélastique CuAlBe poIycri stallin. Il existeun intervallede température [60-80oC]pour laquelleI'hystérésis de la transformation estminimale,quelquesoitIe cycle(fig.IV-25a).pour des essaisréalisésà des températuresinférieures,I'accroissement de I'hystérésis estdu principalement à de la martensite piégée,visiblesur les -r44- CHAPITREIV: Résultats courbesde comportementlV-23. Pour I'essaià 100"C,I'accroissementde Ao est attribué à la présenced'une secondetransformationmartensitique (0'+a') lors du chargement.La contrainte seuil de retour à la phase austénitique de cf,' étant inférieure à celle de F', elle provoque de Ao. I'accroissement La pentede transformation0o est quasimentconstanteau cinquièmecycle. Un léger cyclagepermetdonc de stabilisercettevaleurà 4100 +350 MPa. IV.4.3- FLUAGEANISOTHERME Les essaisde fluage anisothermeont été réaliséspour les contraintes suivantes25, 50,75,100,150et 200MPa(fig-lV-27).Aprèsla imposées I'essaiestprogrammépar la donnéede misesouscontraintede l'éprouvette, deux températuresde consignede part et d'autre du domaine de permettreà de consignesontsupposées Cestempératures transformation. directeet inversecomplètes. l'échantillonde subirdestransformations de la modificationde la contrainteappliquéesont Les conséquences AT (mesuréeà mimultiples:tout d'abord,au niveaude I'hystérésis et dela pente0T (ld€ / dTl) (tab.IV-26). transformation) AT (K) Contrainteappliquée (MPa) Cvcle5 CvcleI 42 52.5 200 150 100 75 50 25 39 31,5 24 30.7 34.5 24 19,5 19.5 t2 n.7 er (K-1) Cycle 1 Cvcle5 9,2I04 6,9 r04 10-3 8,2 L0-4 g,g l0-4 7,5 r0-4 7.9 r0-4 7.2 r0-4 8,9 104 7,5 r04 5.2 r04 6.3 10-4 Tab.IV-26:Propriétésde la transformationlors des essaisde fluage anisothermepour l' alliage CuAIBe p olyc ristallin. -t45- CHAPITREIV: Résultatsexpérimentaux pour un alliage cuArBe 6 5 S4 tr '5 (rl E3 \() 2 1 0 _100 7 6 5 N E4 cl tr 63 2 I 0 Fig.lv-27: courbes de fluage anisothermede l'alliage cuAlBe polycristallin.a) Premierscycles;b) Cinquièmes cycles. - t46- pour un alliageCuAlBe CHAPITREN: Résultatsexpérimentaux Pour I'hystérésisde la transformation,la contrainteappliquéejoue le même rôle que la température lors des essais isothermes (fig.IV-28): augmentationde I'hystérésispour une contrainteappliquéeplus importante. L'influence du nombre de cycles est cependantmoins marquéepour ces essais anisothermes.La pente de transformationse stabilise après cinq cycles:elle estde 7,0 104 + I,2104. U 60 1,2 50 I 40 - 'v 0.8 (1 '9 -30 0,6 '<D 20 0,4 l0 0,2 0 0 fiS.IV-28:- Evolution de l'hystérésis(a) et de la pente (b) enfonction de la contrainte appliquéependant l'essaidefluage anisotherme. L'évolution de la déformationen fonction du temps (fig.IV-29) permet le calcul des vitesses de déformations. La vitesse de variation de la températuredans l'étuve pour I'essaià 25 MPa conduit à une vitesse de déformation de 10-5.Les autres essaiscorrespondentà des vitessesde déformation encoreplus faibles. La déformation maximale de transformationdépendégalementfortement de la contrainteappliquée(fig.IV-30). Deux stadessont toujours présents: évolution linéaire puis saturation(comme pour le monocristal), mais la courbe est quantitativement différente. La partie linéaire aux plus faibles contraintes(< 150MPa)possèdeune pentenettementplus faible, tandis que la saturationintervient plus tardivementet pour une valeur plus faible de la déformation: 6Vo.Cette valeur est la valeur maximale de transformation obtenue pour des essaisde superélasticité.Cela montre que,'lorsque la -t47- \ I CHAPITRE IV: Résultats expérimentauxpour un alliase CuAlBe contrainte appliquée est importante lors d'essaisde fluage anisotherme,le comportementdoit être similaire au comportementsuperélastique. 7 6 BeJ E4 GI E3 \d) â2 I 0 7 6 èR E 5 4 crl tr ,9 3 \(D a 2 1, oo t40 l0 3seconde FiS.IV-29: Déformation en fonction du temps lors d'essaisde fluage anisothermepour l'alliage CuAlBepolycristallin: a) lers cycles; b) Jèmescycles(ramenésà la mêmeorigine). La différence de comportement au niveau de la contrainte maximale de transformation est importante suivant la nature cristallographique de I'alliage (fig.Iv-30). Pour le monocristal, de très faibles contraintes suffisent à privilégier la variante la mieux orientée, conduisant à une déformation de transformationimportante.Pour le polycristal, bien qu'il existe égalementdes variantesbien orientéesdanschaquegrain, celles-ci -t48- pour un alliage CuAlBe CHAPITREN: Résultatsexpérimentaux ne réussissentpas à transformercomplètementl'échantillon.Gêné par sa structuregranulaire,la transformationdu polycristal engendreun champ de contrainte interne que d'autres variantes (moins bien orientées) tentent d'accommoder. Cette légère accommodation,interne aux'grains du polycristal, réduit la déformation maximale de transformation du polycristal. t0 6 ,Tmax ii,/.4 i:lti i:./.4: : 4 0 , 0 50 'i"""""'2""'2""""'; i.a.ai i.a,/i lt t I 150 100 (MPa) Contrainte 200 250 Fig.IV-31:Evolutionde la déformntionmaximalede transformationen fonction de la contrainte appliquéepour l'alliage CUAIBe polycristallin. Le diagrammed'état(ligneMSMS',MfMf, ASAS'et ArAr) esttracépour le polycristal. On différencie les points obtenus par les essais à partir desessaisde fluageahisotherme et ceuxdéterminés superélastiques sontrelatives (fig.IV-31).Les courbesutiliséespourobtenirce diagramme -t49- CHAPITRE N: Résultats expérùnentauxpour un alliase CuAIBe aux premiers cycles. Les pentesdes lignes de transition sont proches de 2Mpa ç-l (tab.IV-32). 250 GI o{ ëzffi (u E rsO E U -40 -20 FiS.lV-3I: Diagramme d'état expérimental de l'alliage CuAlBe polycristallin. (MrMs' et A5A5')sont bien Les lignes de départdes transformations définies quel que soit le type de chargement.L'erreur obtenueen approximantceslignesde transitionpar desdroitesest faible.Les lignes MfMf et AtAf ne sontpasaussinettementdéfinies. - t50- CHAPITRE IV : Résultatsexpérimentaux Ligne de Équationobtenuepar Température de dYa, Pente transformation interpolationlinéaire transformation ('C) (MPaK-l) MSMS' S u p :I =78,7+ 2,37 F l u :I =72,3+2,27 -34,5 -33 Z.-- 73,2+ 2,3 T E - 226,8+ 5,9 T 2=75, 9+2,87 2,3 2,2 -31.5 -38,3 -26.9 2,3 Sup:I = -15,7+2,27 F l u :I ' = 3 3 , 0 + 1 , 5 7 7,2 - 21,4 2=20,5+I,7 T -12.1 MrMr ASAS. ArAr 5,9 2.8 2,2 1,5 1,7 TableauN-32: Caractéristiquesde la transformationde l'alliage CuAlBe polycristallin. On dffirencie les résultats obtenus par les essais superélastiques(SuD et ceuxobtenusparfluage anisotherme(Flu). 1V.4.4- INFLUENCE DE LA VITESSE DE SOLLICITATION L'effet de la vitessede sollicitationa étéréalisésur un polycristal CuAlBe à la températurede 60"C (fig.IV-33). Les essaisont été réaliséspour des vitessesd'avancesde traverse(et vitessede déformationcorrespondante) de 0,1 (2,3 l}-s r-1)et 100mm/min.(1,4 10-2s-1). La pente de transformationaugmenteavec la vitessede déformation. Ceci semblejustifié si I'on considèreque plus la vitesse de déformation est importante, plus les échangesde chaleur de l'éprouvettevers,l'extérieur sont réduits. En effet la transformationmartensitiqueest accompagnéed'un dégagementde chaleur (effet exothermique)qui est dissipé aisémentdans le cas de vitesses faibles. À I'inverse, une vitesse de déformation importante entraîneun accroissementde températuredans l'éprouvette,ce qui se représentedans le diagramme d'état contrainte-températurepar un trajet de chargementdifférent (fig.IV-34). Ainsi, pour un même niveau de contrainte,la déformationobtenuelors d'un essaià vitessede sollicitation rapide seraplus faible que pour un essaià vitessede sollicitation lente. On note égalementune augmentationde 27 MPa de la contrainte seuil de transformation pour I'essai à vitesse de déformation importante. Cette - I5I - CHAPITRE IV: Résultatse augmentation est supérieureà l'élévation attenduede températuredans l'éprouvette(10 degrésau maximum,ce qui correspondà 20 MPa). ctl 300 o 'ËF2 0 AE |r tr r'l v too 0 0,5 I 1,5 2 2,5 3 0 3,5 0,5 I 1,5 2 2,5 3 3,5 Déformation (Vo) Déformation (Vo) fiS.IV-33t l"ftuence de la vitessede sollicitation sur l'alliage CuAlBe potycristallin pour un essai àT=60"C. a) Cyclel, b) Cycle 15- M5 a) T b) Fig. IV-34: Représentationschématiquede l'influence de Ia iitesse di solticitation sur les courbesde comportementsuperélastiques. IV.5 - CONCLUSION L'alliage CuAlBe étudié sous sa forme monocristallineet polycristalline permet d'apprécier une partie des propriétésqui font de cet alliage un -152- CHAPITRE IV: Résultatsexpérimentauxpour un alliage CuAlBe produit intéressantpour des applicationsindustrielles.Au niveau de son comportement superthermoélastique, il est capable de subir des déformationsréversiblesd'environ5Vo.ll peut en subir de plus importantes mais il est nécessairealors d'étudier plus précisément la seconde transformationde phase B' déformations. Les résultatsprésentés dansce chapitrepermettentde caractériser certaines donnéesdu matériau,qui vontêtreintroduitesdansle modèle.Les résultats présentés expérimentaux dansce chapitrevont êtreconfrontésaux résultats de la simulationnumériquepar transitiond'échelleappliquéeà un tel alliage. -153- pour un alliage CuAlBe CHAPITRE N: Résultatsexpérimentaluc - Référencesbibliographiques- tBeOl Belkahla S., "Élaborationet caractérisationde nouveaux alliagesà mémoiredefonne bassetempératuretype CuAIBe", Thèse no90 ISAL 0095, Institut National des sciences de Lyon (1990) appliquées tBe6l Buathier.,"Étudede la fatigue mécaniqued'un monocristal CuAIBe- É,tudede la transformationmartensitiquedans un polycristal",Rapportde Stage,LPMM, Universitéde Metz (1ee6) tc88l Contardo L., "Étude des traitements d'éducation, de la stabilité et de I'origine de l'ffit mémoiredoublesensdans un alliage Cu Zn Al", Thèse no88ISAL0048, I.N.S.A. Lyon (1e88) IDDAT8l DelaeyL., DeVosJ., AernoudtE., "ShapeMemory Effict, Superelasticityand Damping in CuZnAl Alloys", INCRA Projectn"238,Report78R1,pp.55(1978) lDKfi4l Delaey L., Krishnan R.V., Tass H., Warlimont H., pseudoelasticityand the memoryeffect "Thermoplasticity, J. Mater.Sci.,9, with mnrtensitictransformations", associated pp.1536-15M (1974) tEe6l tFe3l interne(1996) EberhardtA., Communication Flores ZunîgaH., "stabititéthermiquede la phaseB et de l'effetmémoiredoublesensd'un alliage à mémoiredeforme de type Cu-AI-Ùe",Thèsen'93 ISAL 0107,Institut National de Lyon (1993) appliquées dessciences - 154- CHAPITREIV: Résultats A., Thèseen cours,Universitéde Metz Hautcoeur lHEPe4l HautcoeurA., EberhardtA., Patoor E., Berveiller M', Behaviorof MonocrystallineCu-Al-Be "Thermomecanical tHe6l ShapeMemoryAltoy and Determinationof the Metastable (1994) PhaseDiagram",Procsof ESOMAT'94,pp.459-464 lHrMssl HorikawaH., IchinoseS., Morii K., MyazakiS., OtsukaK', (1988) Metalt.Trans.,l9A, pp.915-923 lMS94l Malarria J., Sade M., "The effect of temperature on cyclingof CuZnAlsinglecrystals",ScriptaMet. pseudoelastic (1994) andMater.,30, PP.24l-246 lPs84l PerkinsJ., SponholzR., "stress-induced martensite transformationscycling and two way shapememorytraining 154. pp'313in CuZnAlAlloys",MetallurgicalTransactions, 32r (t984) tsRA85l SadeM., RapacioliR., AhlersM., "Fatigue in cu-zn-Al (1985) SingleCrystals"'ActaMet.,33.no3,pp'487-497 H., ShimizuK., OtsukaK., Trans.Jpn.Met., 26. tSSOSsl Sakamoto pp.638(198s) tV/901 WaramT., "DesignPrinciplesfor NiTi Actuators",dans Engineeringaspectsof ShapeMemory Alloys, Butterworth Pub.,Londres,pp.234(1990) Heinemann ISBN0-750-61009-3 -t55- CHAPITREV: Résultatsnumériques CHAPITREV: - Résultatsnumériquespour desalliages CuZnAlet CuAlBe V.l - INTRODUCTION Page 158 V.2 - COMPORTEMENT SUPER. Page159 THERMOÉI-aSTIQUE V.2.1- CAS DESALLIAGESDE TYPECuZnAl utilisées V.2.Ll - Données V.2.L2- Résultats V.2.2- CAS DESALLIAGES DE TYPECuAlBe utilisées V.2.2.1- Données Y .2.2.2- Résultats V.2.3 - INFLUENCE DE LA VITESSE DE SOLLICITATION V.2.3.1- CasdesalliagesdetypeCuZnAl V.2.3.2- CasdesalliagesdetypeCuAlBe V.2.3.3- Conclusion V.3 - ETUDEMICROSTRUCTURALE 159 r59 r6r r65 r65 167 172 173 174 176 Page177 r77 V.3.1- INTRODUCTION v.3.2 - CrNÉTTQUEET DÉF'ORUATTONDE TRANSFORMATION 178 178 V.3.2.1- Cinétique 181 Y.3.2.2- Déformationmoyennede transformation 183 V.3.3 - COMPORTEMENTINTRAGRANT]LAIRE internes 184 V.3.3.1- Répartitiondescontraintes V.3.3.2- Déformation desgrains 192 V.3.4- ÉVOT-UTIONDE LA MICROSTRUCTURE 198 V.3.4.1- Nombrede grainsactifs 198 actives Y.3.4.2- Nombrede variantes 200 - 156- CHAPITREV: Résultatsnumériques V.3.4.3 - Évolution des variantes pendant le 206 chargement V.3.5 - INFLUENCE DE LA MATRICE 214 D'INTERACTION ENTRE LES VARIANTES V.3.6- CONCLUSION 217 V ngruneNCES BIBLIOGRAPHIQUES -157- Page219 CHAPITREV: Résultatsnumériques L'objet de ce chapitre est de présenter les résultats numériques obtenus en appliquant le modèle autocohérentà des alliages CuZnAl et CuAIBe. Ces résultatsportent sur le comportement macroscopique, la cinétique de la transformation et sur des aspectsmicrostructuraux.L'influence du mode de chargement sur cesparamètres est mis en évidence. V.l - INTRODUCTION La modélisation du fluage anisothermeélaborée au chapitre III est à I'origine de l'écriture d'un programme informatique FORTRAN 77. Le programmedéveloppépour le comportementsuperélastiqueisotherme a servi de baseà ce travail. En annexe3, on trouve certainescaractéristiques propres à ce programme et les principales difficultés rencontrées.Ce chapitre présenteles résultatsnumériquesobtenus. de deux alliages aété éttrdié: Le comportementsuperthermoélastique . Un alliage de type CuZnAl, dont le comportement superélastique isotherme a fait I'objet de plusieurs études et dont les résultats expérimentauxproviennentde la littérature. . Un alliage de type CuAlBe, dont la caractérisationdu comportement thermomécaniquea été présentéeau chapitreprécédent. Les résultatsobtenusconcernentplusieurséchellesde description.Tout d'abord,à l'échellede l'échantillon,les courbescontrainte-déformationet déformation-températuresont définies pour les deux types d'alliages. Les résultats ainsi obtenus sont confrontés aux mesuresexpérimentales. L'influence de la vitessede déformationest égalementétudiée. À une échelleplus fine, l'évolution de paramètresutilisés comme variables internesdansles approchesphénoménologiquesest étudiée. La méthode de modélisation employée permet égalementd'obtenir des informations microstructurales.On peut ainsi obtenir l'évolution de la contrainte interne, de la déformation, de la fraction de martensite et -158- CHAPITREV: Résultatsnumériques l'évolution des différentes variantes dans chaque grain au cours du chargement. Y .2 -COMPORTEMENTSUPERTHERMOELASTIQUE V.2.1- CAS DESALLIAGESCuZnAl Pour ce type d'alliage, de nombreuxrésultatsexpérimentauxsont disponiblesdansla littérature.Les premiersdéveloppements du modèle autocohérentappliquéaux alliagesà mémoirede forme ont été appliqués avecsuccèsà ce typed'alliage[E94]. V.2.l.l - Donnéesutilisées Les modules thermoélastiques sont le module de cisaillement F=30 GPa,le coefficientde Poissonv=0,3 et le coefficientde dilatation thermiques=15 10-6K-1. La structurepolycristallineestdécritepar 100grainssphériqueso de même volume, dont les orientationscristallographiques sont choisies (afin de ne pasinduired'effetde texture). aléatoirement Danscesalliagesla normalen au pland'habitatainsi quela directionde m des variantessont de type 12 Il 121(tab.V-l). Ces transformation de quatre'variantes. variantesforment six groupesautoaccommodants L'amplitude de déplacementg est de 0,23. Ces caractêristiques sontdonnésparDeVoset al. [DAD78]. cristallographiques Le coefficientB estégalà 0,2 MPa/K tDKT74l. La matrice d'interactionHnm est constituéde deux typesde termes: ElAmrani a déterminéles valeursgl=p/1000 pour les variantes compatibleset 112=pl20}pourles autres[894]. Les résultatsobtenussontcomparésà desessaisexpérimentaux réaliséspar VachertV9ll en superélasticité et parLeclercq[LBL94] et Bourbon[894] la compositionsuivante(en L'alliagetestépossède en fluageanisotherme. -r59- CHAPITREV: Résultatsnwnériques 7-net 4,097oAl. Sestempératures 7omassique):25,57Vo de transformation, obtenuespar mesurede résistivité,sontles suivantes: M5=40"C,Ap52"C (soit,d'aprèsla relationIlI.44:Fc=1,2MPa) n2 n3 m1 I -0,182 o,669 0,721 -0.165 m2 -o.737 2 -0 ,1 8 2 o,721 0,669 -0.165 0,655 -0,737 3 0.182 o.669 0,721 0.165 -o,737 0,655 4 0 .1 8 2 0,165 0,655 -0,737 5 -o,669 o.721 0,669 -0.182 0,721 0,737 -0,165 0,655 6 -o.721 -0.182 0,669 -0,655 -0,165 -o.737 7 -o.669 o.t82 0.721 0,737 0,165 0,655 8 -o.721 0 ,1 8 2 0,669 -0,655 0,165 -0,737 9 -0.182 -0,669 o.721 -0,165 0,737 0,655 10 -0.182 -0.721 0,669 -0,165 -0,655 -o,737 lt 0 .1 8 2 -0,669 0.721 0,165 o,737 0.655 T2 0,192 -0,72r 0,669 0,165 -0,655 -0.737 13 o,721 -0,182 o,669 0.655 -0,16s -o,737 t4 o,669 -o,182 o,721 -o.737 -0.165 0,655 l5 o,721 0,182 0,669 0.655 -0,737 l6 0,669 0 ,1 8 2 0.72r -0.737 0.165 0,655 T7 o,669 -o,721 0,182 -0.737 -0,655 0,165 l8 -0,669 0.182 0.65s o,737 0.165 t9 o,721 -o,669 o,721 0,182 0.737 0,655 0,165 20 -o,721 o,669 0,182 -0.655 -o.737 0,165 2l -o,721 -0,669 0.182 -0,655 0.165 22 -o,669 -o,721 0.182 0,737 o.737 -0,655 23 o,721 0,669 0,182 0.655 -o,737 0.165 24 0,669 0.721 0.182 -0,737 0,655 Variante n1 0,165 m3 0,655 0.165 0.165 Tableau V-I: Déftnition des normales aux plans d'habitat et des directions de transformations utilisées pour décrire la cristallographie de Ia transformation martensitique dans les alliages à mémoiredeforme de type CuZnAl \DADTS| - 160- CHAPITREV: Résultatsnumériques Y.2.1.2- Résultats (plancheV-2) un essaien superélasticité On comparesuccessivement à 56oC,des essaisde fluage anisothermeà 48, 65, 80, 100 et 124 MPa aux modélisationsnumériquescorrespondantes. On constateque le modèle décrit à la fois la superélasticitéet le fluage anisothérme.Les pentes de transformation, seuils de transformation et hystérésissont décrits correctementpour les deux modesde chargement, sansintroduire de paramètrenouveau. Les résultats superélastiquesayant déjà été largement commentés lors d'études précédentes[E94], on examine plus en détail les résultats de fluage anisotherme. On détermine expérimentalement et numériquement plusieurs desessaisde fluageanisotherme(tab.V-3): caractéristiques - Lapente de transformationldeTafl (0T) mesuréepour la partie linéaire . (entre I et27o de transformation)pour la transformationdirecte. L'hystérésisen températureÂT mesuréeàI,SVode déformation. . Latempérature de transition M$. . Ladéformation maximale de transformation6Tmax Les températures de transition Mg de chaque essai obtenues numériquementsont conforrnesà celle déterminéesexpérimentalemenfiles erreursen valeur absoluene dépassentpas IUVo. La valeur absoluede la pentede/dT est tracéefig.V-4a. On remarqueque la valeur obtenuepour I'essaiexpérimentalà 65 MPa ne s'inscritpas dans la relation décroissantequi apparaîtpour les autresessais.Hormis pour cette valeur de 65 MPa, la correspondancenumérique est bonne, bien ne soit observée. qu'aucunedécroissance - 1 6 1- CHAPITREV: Résultatsnumériques 3,5 3 2,5 ô: too èar () tr F qJ L Ëso 1,5 I O 0,5 0 3,5 3,5 3 3 2,5 2,5 èa ,) 2 F q) 1,5 1,5 I I 0,5 0,5 0 20 40 60 80 100 r20 20 40 60 80 lm 0 60 80 100 120 3,5 3,5 3 3 2,5 2,5 èer no 2 F 1,5 (^) 1,5 l I 0,5 0,5 0 0 20 40 60 80 100 120 Temffrature (oC) 0 20 40 60 80 100 r20 Temperature(oC) Planche V-2: ConfrontationExpérience-Modélisation pour un alliage CuZnAlpolycristallin. a) Tractionsuperélastique à T=56oC.et de b à f) Essaisdefluage anisotherme à 49, 65, 80,100 et 124MPa. -t62- CHAPITREV: Résultatsnumériques 4EMPa Mg Exp: ("C) Num: Erreur relative (Vo) 80 MPa 65 MPa 38,5 40,8 49,4 45,8 55,6 54,6 +6 -7 -2 lfi) MPa 12/MPa 70 72,9 61,2 62,8 +3 +4 er Exp: 1,510-3 2,1 l0-3 1,4l0-3 1;310-3 l , l l 0 - 3 (K-l) Num: 1,3l0-3 1,310-3 1,310-3 1,310-3 1,3l0-3 -38 -7 10,8 17,3 18,6 21,7 24,4 20,9 .25,9 22,4 28,8 21,2 +60 +17 -15 -t3 -26 2,08 2,,57 2,M 2,69 2,89 2,78 3,33 2,84 3,32 2,94 +23,6 +10,2 -3,6 -14,5 -I1,6 -t3 Erreur relative (Vo) Exp: Num: ^T (K) Erreur relative (7o) gTmax Exp: (Vo) Num: Erreur relative (7o) +18 Tableau V-3: Confrontation Expérience-Modélisation et erreur relative pour les caractéritiques de la transformation de l'alliag,e CUZnAI polycristallin. 30 2,5 25 2 20 !É r's 3rs (.1 a Er Frl F (D 5F F E 0! 60 80 100 120 t40 40 60 80 100 120 140 Contrainte(MPa) Contrainte (MPa) Fig. V-4: Évolutions expérimentaleet numérique de a) Ia pente de transformation et de b) l'hystérésisde la transformation pour un alliage CuZnAl polycristallin lors d'essaisdefluage anisotherme. -163- CHAPITRE V: Résultatsnumériques L'hystérésismesuréeà l%ode déformationcroît expérimentalement avec la contrainte appliquée lors du fluage anisotherme (fig.V-ab). Numériquement,cet effet n'est pas très bien modélisé,la tendanceétant plutôt une hystérésisconstanteet donc indépendantede la'contrainte appliquée. Cette erreur est très certainementliée à la valeur de la déformation maximale de transformation, elle-même incorrectement modélisée(fig.V-5). Pour cettevaleurds gTmax,la tendanceexpérimentale est analogue à celle déterminée au chapitre précédent sur un alliage CuAlBe, à savoir: une premièrephaselinéaire (pour les contraintes inférieures à 100 MPa) et une saturationds sTmaxpour les contraintesplus importantes. Numériquement,la saturationintervient à une valeur plus faible de la déformationet correspond à desvaleursd'hystérésis inférieures aux valeursexpérimentales. Aux Taiblesniveauxde contrainte(k7OMPa), I'hystérésismesuréeà partir descourbesexpérimentales est inférieureà celle obtenuesur lescourbesnumériques, la déformationde transformation expérimentale estégalementplusfaible. 3,5 3 2,5 ),Tmax 1,5 I 0 ,5 0 20 40 60 80 100 Contrainteappliquée(MPa) t20 140 Fig. V-5: Evolution expérimentale et numérique de la dèformation maximale de transformation avec la contrainte appliquée en fluage anisothermepour un alliage CuZnAlpolycrtstallin. -t64- CHAPITREV: Résultatsnumériques Les écarts entre les valeurs expérimentaleet numérique restentnéanmoins raisonnablesdans I'intervalle de contrainteétudié. La modélisationadoptée représente de façon satisfaisante les grandes tendances du fluage anisotherme.Le même modèle est capablede décrire la superélasticitéet le fluage anisothermesansintroduire de variablesinternessupplémentaires. V.2.2 - CAS DES ALLIAGES CuAlBe L'alliageCuAlBe est un alliagequi sedéveloppefortementactuellement lF93l. Plus stable que I'alliage CuZnAl.,il peut développerà l'état de transformationplus polycristallin, une déformationmacroscopique importante(usqu'à6Voau lieu de 2 à 37opourles CuZnAl).Les données utilisées proviennentde deux sources:les résultatsexpérimentauxdu déterminéesau chapitre précédentet des donnéescristallographiques Laboratoired'EtudedesTexturesAppliquéesaux Matériaux(LETAM) de I'Universitéde Metz par F. MoreautM96l. V .2.2.\ - Donnéesutilisées de I'alliageCuAlBeutilisé dans thermomécanique Le comportement cette étude a étê caractériséau chapitre précédent.Les modules le coefficientde sontle modulede cisaillementF=3OGPa, thermoélastiques Poissonv=0,3et le coefficientde dilatationthermiquea=15 19-6oç-1.Les à partir du de transformationobtenuesexpérimentalement températures Ap-12oC.La forcecritique diagrammed'état(fig.IV-31)sont MS=-3O.C, Fs est êgaleà 1,8MPa (Eq.III.44).D'aprèsMoreau[MTB94][M96],dans ces alliages la normale n au plan d'habitatet la direction de transformation m des variantessont de type [1 4 4](tab.V-6).Comme pour les alliages CuZnAl, les variantes observéesdans ces alliages forment six groupes de quatrevariantes.L'amplitude de déplacementg est autoaccommodants de 0,22. Le coefficient B est égal à 4,2 MPalK. La matrice d'interaction Hnm est constituéde deux types de termes:Hl=!r/350 pour les variantes 165- compatibles et 112=p170pour les autres.La structure polycristalline est décritecommepour I'alliageprécédent par 100grainssphériques, de même volume et dont les orientationscristallographiquessont choisies (matériaunon texturé). aléatoirement Variante nl -0 .1 6 8 n2 n3 0,688 0.705 ml m2 - 0 , 1 5 1 -0.9M 2 -0 .1 6 8 0.705 0.688 -0.151 3 0 .1 6 8 0.688 0.705 0.151 4 0.705 0.688 0.151 5 0 .1 6 8 -0.688 -0.168 0.705 o.9M 0.846 -0.151 6 -0.705 -0.168 0.688 -0.846 - 0.151 -0.9a 7 -0.688 0"168 0.705 0.904 0.151 8 -0.705 0,689 -0.846 0,151 9 -0.168 0 .1 6 8 -0.688 0.846 -0.9M 0.705 - 0.151 o.9M 0.846 10 -0 .1 6 8 -0.705 0.688 - 0,151 -0.846 -o.9u ll 0 .1 6 8 -0,688 0.705 0,151 I2 0 .1 6 8 -0,705 0.688 0.15r 0.904 -0.846 0.846 -0.904 t3 0.705 -0.168 0.688 0,846 - 0.151 -0.904 t4 0.688 -0,168 0.705 -0.9@ -0.151 0.846 l5 0.705 0 .1 6 8 0.688 0.846 0.151 -0.904 t6 0,699 0.70s -0.904 0,688 0.168 -0.904 0,151 -0,846 0.846 t7 0 .1 6 8 -0"705 0.168 0.846 0.904 0.151 t9 0.705 -0.688 -0.688 0,705 0.168 20 0.168 2l -0.705 0.688 -0.688 0.846 -0.904 0.151 -0.705 0.904 -0.846 0.168 -0.846 22 -0.688 -0,705 0.168 0.904 0.904 -0.846 0.151 23 0.705 0,699 0.168 -0.904 0.151 24 0.688 0.705 0.168 0.846 -0,904 0.846 0.151 l8 0,846 -0.9M m3 0.M6 -0.9M 0.846 -0.904 0.846 0.151 0,151 0.151 Tableau v-6: Définition des normales aux plans d'habitat et des directions de transformations utilisées pour décrire la cristallographie de la tansformation martensitique dans les alliages à mémoiredeforme de type CuAlBetMg6]. - 166- ffrr--------_ CHAPITREV: Résultats V .2.2.2- Résultats Aucuneétudesimilaireà I'alliageCuZnAl IE94l n'aété faite sur I'alliage CuAlBe. En conséquence,les résultatsobtenusseront détaillés. isotherme:la planche Tout d'abord, pour le comportementsuperélastique V-8 reprend les premiers cycles des essaissuperélastiquesisothermes réalisés pour des températures de 20, 40, 60, 80 et 100"C. Les caractéristiquesde la transformation (expérimentaleset numériques) sont comparéesdans le tableauV-7. Pente0E (MPa) 100'c EOOC 60'c 40"c 20"c 2330 3100 2803 2980 29r0 2867 3203 2400 2200 2483 +20,2 +6,3 - 1,5 -25,t +12.9 78 50 55 52,7 59 5r,2 67 53,8 83 53,2 -35,9 -4,2 -13,2 - 19,7 -35,9 322 Num: 300 252 253 207 207 r33 -0,4 0 170 161 -5,3 Exp: Num: Erreur relative (7o) Âo Hystérésis (MPa) ExP: Num: Erreur relative (Vo) Contrainteseuil ExP: u$ Wtra) Erreur relative (Vo) -8 109 -18 et erreur relative TableauV-7: ConfrontationExpérience-Modélisation -pory trois caractéritiquesde la transformationlors d'essais de super éIasti cité de l' alliage CuAlBe polycristallinLes contraintesseuils de transformationsont les caractéristiquesles mieux représentéesnumériquement.On s'attarderapar la suite sur la possibilité de représenter numériquement un diagramme d'état fidèle à la réalité expérimentale. On représenteles évolutions expérimentaleet numériquede la pente et de I'hystérésis (fig.V-9) avec la températurede I'essai superélastique.Les écartssont faibles au niveau de la pente(fig.V-9a) qui, de plus, tend à se stabiliseravecles cycleslors desessaisexpérimentaux(fig.Iv-25)- -167- CHAPITREV: Résultatsnumériques 400 400 300 300 2W 2W 100 100 0 0 11,522,53 00,5 1,5 zt00 400 300 300 200 240 100 100 0 0 00,5 11,522,53 00,5 2 2,5 3 11,522,53 {9") 400 300 Lêgende: 200 - Expérience Modélisation 100 0 0,5 I 1,5 2 2,5 3 {9") pour un alliage Planche V-8: ConfrontationExpérience-Modélisation à 100,80,60,40 CuAIBepolycristallin.De a) à e) EssaissuperéIastiques et 20"C. - 168- CHAPITREV: Résultatsnumértques 90 80 ,^7O GI A ct -60 N À N CD 50 40 30 20 40 60 80 100 t20 Temprature ("C) 20 40 60 80 lm Temprature fC) no Fig. V-9: Evolutions expérimentaleet numériqr, ,t, o1 to prnte de transformationet de b) l'hystérésisde la transformationpour un alliage CuAlBepolycristallin lors d'essaisde superélasticité. (fig.V-9b)I'erreurla plusimportanteestobtenuepourles PourI'hystérésis essaisextrêmes(20 et 100'C).À cestempératures, desphénomènes non pris en comptedansle modèlepeuventintervenir:plasticitéet seconde transformationde phaseà 100oC,martensitepiégêeet réorientationà 20"c. De plus, il existedesmargesd'erreur(numériqueet expérimentale) non prisesen compteici, qui engloberaitprobablement les.erreursrelatives obtenuesici. En effet, on observevisuellementun trèsbon accordentreles courbesde comportement expérimentales et numériques(PlancheV-8). On confronteaussi les résultatsexpérimentauxet les simulationspar I'approcheautocohérente des essaisde fluage anisothermepour un intervalle de contrainteplus importantque dans le cas CuZnAl. Les contraintesuniaxialesappliquées sontde 50,75, 100, 150et 200 Mpa (PlancheV-10). La courbede déformationglobalede transformation (fig.V-l0f) montre qu'à nouveau,les résultatsde modélisationsont inférieursaux résultatsexpérimentaux pourles plus faiblescontrainteset supérieursà hautescontraintes. - 169- CHAPITREV: Résultatsnwnériques 61 II sl I s 4lI É o cl tr 3 Lr q: \o) o 2 I 0 -50 - 100 1 0Lr 0 50 -100 -50 -t 100 150 2w 3,5 3 3 2,5 s 2,5 2 É 2 '.5 cll 0 50 lm 150 1,5 1,5 I \O o I 0,5 0,5 0 0 -20 0 4 20 40 60 -60 80 100 3l r r t 6i r r- t 5 t-2,5 -f )F- F s É I T 5 F T I 2- s F F GI 1s , 5t-tr tr F .9 \() o É F, t E 2 'q) Il F F F I I t 33 l - Il l - t r F I I 40 0L -20 20 0 Temperature('C) i if)i : i^rii_4 j--.---i-:--t-----.---i--.iiJ! i i .'i !:,1.-!--: '9 - i i .o': """""i".''-r:r""'i;'""""""i"""""""'f """ " : i ' i l À : : , ^ . . a i ^.' " .Ç i iJi 22 l """ "" !" "r'"""" 1'-'-'-"-""'i" F tr sr0,5 -60 F 4+ F F r F 0u t r'0-20020406080 vtii: : i i " """'-"1""'""' rffi- - - .j- - Exfr ience ll --o-i| Modélisation 250 100 150 2w 50 (MPa) appliquée Contrainte Planche V-10: Comportement en fluage anisotherme: conÏrontation Expérience-Modélisation pour un alliage CuAIBe polycristallin. a) 200MPa. b) IShMPa. c) I\ùMPa. d) 75 MPa. e) 50MPa-170- 50 MPa To de transition Exp: rra$t"cl Num: Erreur ( "C) Pente0T 1ç_t) Erreur relative(Vo) lfi) MPa 150MPa 2fi) MPa -10,9 -TI,3 -3,1 -5,8 8,,7 2,9 36,2 28,6 59,8 43,6 -0,4 -2,7 -5,8 -7,6 -16,2 l0-3 l0-3 9,2 104 9,9 l0-4 +37,6 Exp: 7,5 104 8,9104 8,9 l0-4 Num: 10-3 10-3 10-3 +33,3 +12,4 +12,4 Hystérésis ÂT Exp: (K) Num: Erreur relative(Vo) gTmax Exp: (7o) Num: Erreur relative(Vo) 75 MPa lg,5 2l,g +12,3 24 26,2 31,5 27,5 39 30,1 52,5 30,8 +9,2 -12,7 -22,9 -41,3 1,33 2,57 2,2r 2,9 2,75 3,23 4,79 3,41 5,25 3,65 +93,2 +31,2 +17,4 -28,6 -30,5 Tableau V-I I : Confrontation Expérience-ModéIisationet erreur relative pour les caractéristiques de la transformntion par fluage anisotherme de I'allia ge CUZnAIp olyc ristallin. ^ ir I 1,2 60 I 50 0.8 40 0,6 3ro Er Er 0,4 (D 4zo 0,2 l0 0 0 50 100 150 2w Conrrainte(MPa) 250 Fig. V-12: Evolutions expérimentale et numérique de a) la pente de transformation et de b) l'hystérésis de Ia transformation d'un alliage CuAlBe p oly cri stall in p ar flua ge anisotherme. I7t - CHAPITREV: Résultatsnumé dansle tableauV-11 de la transformation On compareles caractéristiques fig.V-12. Les résultats et on traceles évolutionsde penteet d'hystérésis par rapport aux sont globalementcorrectssansI'ajout de paramètres Les seuilsde transitionet les pentes isotherme. résultatsen superélasticité sontbien définis,I'erreurla plus importanteest réalisée de transformation au niveau de I'hystérésiset de la déformationobtenueen fin de transformation,et cela, pour des niveaux de contraintesfaibles ou importants.Pour cesderniers,il estcertainquela plasticitéet la seconde desécarts.Pourla sonten partieresponsables transformationmartensitique simulationnumérique,la déformationmaximalede transformationobtenue est toujoursinférieureà 4Vo,or elle peutatteindre57oexpérimentalement. On remarque(plancheV-10, fig.a et b) que dansce cas' I'hystérésis à celleobtenueparmodélisationalorsquedans expérimentalest supérieure les autrescas, I'accordest correct.Ce résultatsembleindiquer que la transformationF'+cr' joue un rôle importantdans ces alliages.Cette qui se produit à descontraintesélevéespermet secondetransformation, d'accroîtrefortementla déformationdesmonocristaux(iusqu'à207o)mais du $V.3 permet accroîtI'hystérésiségalement.L'étudemicrostructurale d'expliquerI'originedesécartsobservésà bassecontrainte. V.2.3- INFLUENCEDE LA VITESSEDE SOLLICITATION On peutfacilementétudierles deuxcasextrêmes.Si on considèrequela transformationse produit suffisammentlentementpour que la chaleur latentede transformationdiffuse hors du matériau,la transformationest isothermeet l'équationde couplage(III.125)n'intervientpas.Les résultats si on ont étéétudiésjusqu'àprésent.À I'inrrerse, liés à ce typed'hypothèse considèreun processussuffisamentrapidepour qu'aucunéchangede est adiabatiqueet chaleuravecI'extérieurpuisseseproduire,le processus l'élévationde températurequi en résulteest donnéepar l'équationde (III.125). couplage -172- CHAPITREV: Résultatsnmné V.2.3.1- CasdesalliagesCuZnAl Une premièrevalidationconsisteen la comparaison du modèleavec des expériencesréaliséessur un alliage CuZnAl par Chrysochoos [CPM93].Le dispositifainsique les techniques numériques de traitement desdonnéessont présentés danslCD9Zl: un dispositifde thermographie infrarougepermettantune mesureprécisedu champde températurede l'éprouvette estcoupléà unemachinedetraction. L'alliageutiliséestcaractérisé par lestempératures de transitionsuivantes: Ms=l5oCet Apl9,5oC. La pentedesdroitesdetransitionestde I'ordrede 2 MPaJK.Les caractéristiques thermoélastiques sont:E=70 Gpa,v=0,33, s=18.10-6K-1,p=7700kglm3,Cr=393JlkglK.La température ambiante Tg estde 30'C. Les courbesexpérimèntales de comporrement et diévolutionde la température de l'éprouvette sontprésentés surla figure(V-13).On intègre dansle modèlel'équationde couplage(III.126) quipermetde déterminer les évolutionsde température avecI'accroissement de fractionvolumique. En ajustant le paramètrephénoménologique h afin d'obtenir une correspondance entre les courbesde comportementnumériqueet expérimentale, on obtientuneévolutionde température en bonaccordavec I'expérimentation (V-14).Danscecas,h=50000Jlm3tK. 5.0 80 J.0 60 c? v, qt Ir 10 t4 t.0 -r.0 20 -3.0 -5.O Fig. V-13: a) Courbe de comportementet b) Réponseen tentpératurepour un essaisuperélastiquesur un alliage CuznAIpolycristallin. 173- CHAPITREV: Résultatsnumériques 100 5 80 3 Oi I e-60 () É Ë40 -l U -3 20 -5 0,5 I o 1,5 0,2 0,4 0,6 0,8 I 1,2 Déformation (7o) pour en température et b) Réponse Fig. V-14:a) Courbede comportement sur un alliageCuZnAlpolycristallin. unesimulationd'essaisuperélastique Y.2.3.2- Cas desalliagesCuAlBe Une deuxièmevalidationde ce type d'essaia êtêréâliséeen utilisant les résultatsexpérimentauxdu paragrapheIV.3. Les caractéristiques à introduiresontla massevolumiqueP=7700kg/m3et la supplémentaires chaleurlatentede transformationCr=400J/kg/K (valeursmoyennespour desalliagesbasecuivre).Aucunemesurede températuren'aêté effectuée mais I'utilisationde deux vitessesde sollicitationdifférentespermetde de l'éprouvettesurles de température visualiserleseffetsde I'augmentation de traction.On retrouvefig.V-l5a lors d'essais courbesde comportement à 60"C (cycle 1) superélastiques les résultatsd'essaisexpérimentaux réaliséspour des vitessesd'avancede la traversede 0,1 et 100mm/min. sontde 2,3 I0-5et I,410-2s-1. colrespondantes Lesvitessesdedéformation on simuledeuxessais(fig.V-l5b): Numériquement, . (Jn essaipour lequella températurede l'échantillonresteconstante. Dans ce cas, on considèreque toute la chaleurest dissipéevers I'extérieur.La sollicitationest isothermeet correspondau cas d'une vitessede sollicitationtrèslente. . Un secondessaidanslequel on considèreque les dégagements et directe et les transformations absorptionsde chaleuraccompagnant -t74- CHAPITREV: Résultatsnumériques inverse restent confinés dans le matériau. La température de l'échantillon évolue en conséquence.on est alors en présenced'une sollicitation adiabatique,c'est le cas d'un test à vitessede sollicitation très rapide où la chaleurn'a pas la possibilitéde se dissiper. 350 300 250 CIl À è2U-J. o) É lso Ë É U 100 50 0 3,5 350 72 300 70 250 68 e 200 66 GI Pr c;, Ê -l o 5 E(Dr A' Ê 15 0 Ë É @ U 100 62 50 60 0 6 5 58 1,5 2 2,5 Déformation(7o\ 3,5 Fig. V-L5: a) Influence de la vitessede sollicitation (expértmentale)et b) Résultatsde simulation pour un alliage CuAlBepolycrtstallin à T-60"C. -175- CHAPITREV: Résultatsnumériques Expérimentalement,la contrainte de transformationaugmentede I47o, cet effet n'est pas représenténumériquement(elle est la même pour les deux simulations). De même, l'évolution de la valeur de I'hystérésisn'est pas obtenue: +57Voexpérimentalement,alors que numériquement celle-ci diminue de 6Vo. Ce résultat numérique rejoint cependant les travaux réaliséspar Delaey et al. [DDA78] qui note (sur un plus grand nombre d'expérienceet sur un alliage de CuZnAl) une diminution de I'hystérésis quandla vitessede déformationaugmente. La pente de transformation évolue dans le bon sens De plus, quantitativementl'évolution est très proche: +24,7 7o expéimentalementet +28,4 7o potJrla simulation numérique.L'augmentationde températurede 5oC dans l'échantillon déterminéenumériquementest en accord avec les mesures effectuées sur des alliages CuZnAl. Les caractéristiquesdes différentescourbessont reprisesdansle tableauV-16. Modélisation Expérience 2.3 10-ss-l 1.410-2s-l Isotherme Adiabatique go (Mpa) 2286 3086 G35vo) 2571 3657 G42vo) Âo (MPa) 62 96 (+s+Eo) 52.3 5I,9 (-o,8Eo) Mso (MPa) 2r0 240 210 207 Tableau V-16: ConfrontationExpérience-Modélisationet erreur relative pour les caractéritiquesde la transformation lors d'essaisà dffirentes vitessesde sollicitation. V.2.3.3- Conclusion Les grandestendancesde I'influence de la vitessede déformation sont prises en compte sans paramètressupplémentaires.La description des mécanismestelle qu'elle a été effectuée et modélisée suffit à décrire correctementl'évolution des courbes de comportementisotherme et adiabatique.Pour un cas de sollicitation ni isotherme,ni adiabatique,des vitesses de déformation intermédiaires peuvent être modélisés en - 176- CHAPITREV: Résultatsnumiriques introduisant un paramètrephénoménologiqued'échangethermique avec I'extérieurdansle modèle. V.3 - ETUDE MICROSTRUCTURALE V.3.I - INTRODUCTION Jusqu'à présent, seuls des résultats concernant le comportement macroscopiqueont été présentés.L'atout du modèledéveloppéest que pour obtenir ce comportement, il est nécessairede déterminer celui de ses constituants,à savoir les grains. Ainsi, tout au long du chargement,il est possible d'enregistrercertainesde leurs caractéristiqueset d'avoir alors accèsà ce que I'on peut nommer le comportementmicroscopique. Dans cettepartie,nousétudionsseptchargements différents(fig.V-17): . Trois simulations d'essaissuperélastiquespour des températuresde M5+1", M5+40o et M5+100'C. Le chargements'arrêtelorsque la fraction volumiquetotale de martensiteatteind757o. . Quatre simulations d'essaisde fluage anisothennepour des contraintes appliquéesvariant de 10 MPa à 500 MPa (valeursintermédiaires:100 et 250 MPa). La simulationstoppeà90Vode martensiteformée. Ils sont appliqués à I'alliage CuZnAl pour lequel le comportement superthermoélastiquemacroscopiquea été,éudié (V.2. 1. I ). Ces simulationsont pour buts: . de montrer toutesles capacitésdu modèleet d'analyserles informations obtenues sur: les contraintes internes, la déformation des grains, l'évolution de la microstructure(nombrede variantesactives) . de comparer ces résultats pour des trajets de chargementdifférents (isotherme et anisotherme)et pour des niveaux de températureet de contrainte différents. -t77- CHAPITREV: Résultatsnumé, de mettre en évidenceles mécanismesde déformation en oeuvre lors de ces différents ffajets de chargement. On s'intéressedans cette étude uniquement à la transformation directe . (austénite-martensite). 800 cd g 600 à () É crl E 4oo U 2N 50 100 Temt'rature("C) 150 fE.V-tZ: Représentationschématiquedes dffirents traiets de chargement simulés. DE TRANSFORMATION ET DÉFORMATION v.3.2- CrNÉTIe{JE L'approche micromécaniqueutilisée permet d'étudier la cinétique de la transformation. Ceci nous donne des informations supplémentairessur le comportementet notammentsur des paramètresmacroscopiquescomme la fraction volumique de martensite et la déformation mdyenne de transformationutilisés dansdesapprochesphénoménologiques. Y.3.2.1-Cinétique L'évolution de la fraction globale de martensite au cours de la transformationlaisseapparaîtretrois stadeslors du chargement(fig.V-l8): -t78- I I q) .n tr I crl o,g 4toc. 0,8 Ê 6) € 0,6 c) = 0,6 5 0,4 E tr 0,4 .E .9 o,z 0,2 a cl 0 0 200 400 600 800 1000 Contrainte(MPa) Fig.V-18: Evolution de Iafraction volumiquetotale de mnrteisite au cours du chargement.a) Essaissuperélastiques;b) EssaisdeJluage anisotherme. Au départ de la transformation, on observeune croissanceprogressive des pentes df/dl' et df/dT: on parle d'initiation de la transformation, phase pendant laquelle les grains commencent successivementà se transformer. Ce phénomènen'est pas visible pour I'essai isotherme à 4l"C et pour I'essaianisothermesous 10MPa, signifiant qu'epour ces essais,tous les grains démarrentleur transformationdès le début du chargement. La phaselinéaire suivante correspondà la pente de transformation: elle colrespond à des pentes sur les courbesde comportementcontraintedéformation et déformation-température aux valeurs moyennes suivantes:dI/dET=35OOMPaet dT/dET=-750K. Enfin, pour des niveaux de transformationplus importants, un effet de durcissementest observé.Cette dernièreobservationest reliée à des conditions cinématiques particulières: quelques grains sont alors entièrement transformés et ne participent plus qu'élastiquementà la déformation. Cet effet de saturation intervient aux environs de 807o de martensite,cette valeur ayant tendanceà diminuer lorsque la contrainte macroscopiqueaugmente.Ce résultatprédit que pour des contraintes - r79- associéesà macroscoplquesimportantes,la contrainteet la température et que la la fin de la transformation (Mç, soit f=1) sont incorrectes mécanisme de transformation martensitique n'est plus le seul déformationinélastiqueàceniveaudecontrainte. de transformation à la Il est égalementintéressantde relier la déformation à nouveauapparaître fraction volumique de martensite(fig.v-19). On voit les étapesde la transformation' 1l ./i . . 4 80"c i - -- -- -. -r i- -. - -. É3 o ^l o'/.1 i i Lia \c) €L i : I o o,2 0,4 0,6 0,8 I o Fractionvolumiquede martensite 0,2 Fractionvol 0,4 0,6 0,8 I de martensite enfonction de la transformation' 7= ffi,olumiqieglobaleâ,*o,t,,site:a)Essaisdesuperélasticité;b) Essaisdefluages anisotherrnes' pour tous les La phased'initiation de la transformationest identique des chargements.De pente de/df=10-1,elle colrespondà I'activation Plus la variantes les mieux orientées par rapport au chargement' phaseest longue' contraintemacroscopiqueest importante,plus cette L'évolution ultérieureest différente suivant le type de chargement' (fig.V-l9a), une seconde Pour les simulationsd'essaissuperélastiques phaselinéaire poursuit la transformation:c'est donc une transformation qui terminent la homogène, avec des variantes bien établies la pente transformation. Pour les simulations de fluages anisothermes' transformation' La diminue progressivement tout au long de la 180- CHAPITREV: RésultatsnunÉ, contrainte macroscopiquen'évoluant pas, I'effet [hermique (refroidissement)est de permettreà des variantesd'apparaître tout au long de la transformationen accornmodant la transformation. v .3.2.2' Déformationmoyennede transformation ces courbes sont plus représentatives de la cinétique de la transformation.Le rapportmoyende la déformationde transformation sur la fraction volumique de martensite(déformationmoyenne de transformation)est une variablemacroscopique utile pour élaborerdes modèlesphénoménologiques tP95l. Sa valeur,en I'absencede résultats expérimentauxpermettantde la définir, est souventconsidérée comme constante.Nous voyonsqu'il n'en est rien et que cette variable est au contrairetrèssensibleà la naturedu chargement thermomécanique imposé (fie.V-20). cette variablemacroscopique, notéeET, est définie par ra relation suivante: 1 gT= 1';av Vy Jrr VM où V1,4est le volume global de martensite. t4 t4 l2 t2 l0 l0 8 eT (qo) 6 8 6 4 4 2 2 0 0 0,2 0,4 Fraction volu 0,6 0,8 0 _0 I de martensite F|S.V-2}:Evolution.de lq aaform .0,2 0,4 0,6 Essaisde superélasticité;b) Essaisdefluage'anisotherme. -r\t- 0,g I Fractionvolumiquedemartensite CHAPITREV: Résultatsn On note une diminution rapide de sa valeur en début de transformation pour finalement obtenir un niveau de saturationplus ou moins marqué qui dépend de la contrainte macroscopiqueet de la température.Ce type d'évolution, attendupar Raniecki et al. [RLT92], est très importantepour qui ne peuventla négliger. les approchesphénoménologiques La valeur eT=1 lVo obtenuepour les fractions volumiquesde'martensite proches de 0 équivaut à un tenseur d'orientation moyen des variantes activéesn égal à 0,48. Ceci montrebien qu'audépartde la transformation, ce sont les variantesles mieux orientéesqui se transforment.La chute de cette valeur au cours de la transformation indique que d'autres variantes La valeur eT =8,75Voest particulière, moins bien orientéesapparaîssent. elle indique la fin de la phased'initiation et le départ de la transformation des derniersgrains dont les variantessont très mal orientées,entraînantune nouvelle chute brutale de la déformationmoyennede transformation.Cette valeur de 8,75Voest prochede celle obtenueen utilisant un modèle statique (contrainteuniforme) pour la transition d'échelle[E94]. Les simulations d'essaissuperélastiques(fig.V-20a) font ressortir une valeur de saturation fonction de la température.Cette saturation indique que la valeur moyennedu tenseurd'orientationn'évolueplus et qu'il n'y a pas d'apparition tardive de nouvelles variantes.La situation est différente pour les simulations d'essaide fluage anisotherme(fig.V-20b)' pour lesquels les courbes diminuent sans se saturer,prouvant qu'il y a bien accommodationdes variantesjusqu'à la fin de la transformation. Cet effet est directement visible sur les courbes d'évolution de la déformation moyenne de transformation en fonction de la contrainte appliquéepour différents taux de transformation(résultatsdes simulations de fluage anisothermeuniquement:fig.V-z|). On s'aperçoitque pour un même taux de transformation, la déformation moyenne de transformation diminue avec la contrainte appliquée. Cette évolution montre que la formation de structures autoaccommodantesest très importante lors des essaisde fluage anisothermesousfaible contrainte.Cette évolution dépend -182- CHAPITREV: Résultatsnumé, égalementdu taux global de martensite.Les courbespour lvo et 907ode fraction volumique de martensite sont qualitativement similaires aux courbesde déformations maximalesde transformationgTmaxobtenueslors des essais expérimentaux sur les alliages mono et polycristallins de CuAlBe (fig.IV-30). En fin de chargemenr,la déformation moyenne de transformationse rapprochede la courbe sTmaxdu polycristal. À lVo de transformation,l'évolution se rapprochede la courbedu monocristal.Pour ce taux de transformation,I'ensembledes grains du polycristal a tendanceà se comporter comme des monocristauxen ne présentantqu'une variante de martensiteen transformation. l0 8 'n t' (Vo) 6 100 2N 300 4m 500 Contrainte appliquée aurefroidissement (MPa) 600 Fig.V-2L: Evolution de Ia déformation moyenn, de transJornation en fonction de la contrainte appliquée et du taux de martensite pour les simulations defluage anisotherune. V.3.3 - COMPORTEMENTINTRAGRANULAIRE L'étude a étê réalisé pour 100 grains dont les orientations cristallographiques ontétéchoisiesaléatoirement. -r83- On étudie tout d'abord les contraintesintergranulaireset la déformation des grains. La représentationde ces donnéesdans le triangle standarddes orientations cristallographiquespermet de donner une image globale de I'hétérogénêitédes champsde contrainteet de déformation à l'échelle de l'échantillon. Quelques grains significatifs sont ensuite choisis afin d'étudier leur comportementspécifique en liaison avec leur orientation cristallographique.Dans ce cas, afin de ne pas alourdir les graphiques, seulsles quatreschargementsextrêmessont considérés.On note dans la suite: . Sl I'essaisuperélastiqueàT=140'C . 52 I'essaisuperélastique à T = 4l"C . . Fl I'essaide fluage anisothermeavecI = 500 MPa F2l'essai de fluage anisothermeavec I = 10 MPa V.3.3.1 - Répartition des contraintes internes On distingue classiquementplusieursniveaux de contraintesinternes: Les contraintesd'ordre I correspondentaux fluctuations de la contrainte globale à l'échelle de l'échantillon. Dans notre cas, la contrainte macroscopiqueimposée I est homogène. En conséquence,les contraintesd'ordre I sont nulles. Les contraintesd'ordre II correspondentaux contrainteset interactions entre les grains (intergranulaires).Le modèle à transition d'échelle utilisé permetde les déterminer(équationsIII.29 et III.53). Ce sont ces contraintesque nous étudionspar la suite. Enfin, les contraintesd'ordreIII correspondentaux interactionsentre les différentes variantesà I'intérieur d'un même grain (intragranulaires). Elles sont prises en compte dans la déterminationdu Comportementdu grain($III.2). Pour toutes nos simulations, la contrainte imposée .est une traction uniaxialed'axe(Ox). On choisitde relier la composante(1,1) du tenseurde contrainte interne à la fraction volumique du grain. L'étude des autres composantesne fournit pas d'informations intéressantes.Ceci permet t84- d'obtenir une vue d'ensemblede l'évolution de l'état de contrainte avec l'évolution de la transformation (PlancheV-22). On réalise ceci pour trois taux de fraction volumique globale: 10, 50 et 75vo. La légende est identique pour tous les graphes. Dans cette partie, on privilégie I'aspectcomparatif des Ésultats. Ainsi, la même échelle est utilisée pour graduer chaque graphe au détriment de certainsrésultatsquantitatifs. 500 250 ttt o r) I i -250 : 8i, @ d q o i I -500 0 0,2 0,4 0,6 0,9 o 500 0,2 0,4 0,6 0,9 500 d) F2 250 250 tt, t1 o -250 -250 -500 0 ----t- o,2 0,4 0,6 0,9 I Fractionde martensite -5m o PlancheV-22: 0,2 0,4 0,6 0,9 I Fraction de martensite de contrainte internepour tous les grains constitunnt le polycristal en fonction de Ia fraction volumique de martensite dans le grain: a) Essai SI, b) Essai 52,c) EssaiFI, d) EssaiF2. -185- numériques V: Résultats CHAPITRE macroscopique S I et Fl sont des simulationspour lesquellesla contrainte globale)' Dans ce cas' la est importante (500 MPa ù I07o de martensite (fig.V-18) et implique phased,initiationde la transformationest importante avec des grains qui se la coexistencede grainsplus ou moins transformés forte hétérogénéitéde la déforment élastiquement.On observealors une contrainte interne des différents grains' dans tous les grains pour Au contraire,la transformationapparaîttrès tôt internes sont les simulations 52 et F2. En conséquence,les contraintes chargement)' homogènesdansles grains (et faibles au débutdu produit souscontrainte On remarqueégalementque si la transformationse Fl et F2, cela n'estpas macroscopiqueconstantepour les essaisde fluage évolue fortement en le cas pour les différents grains. La contrainteinterne cours de transformation. S1) On peut classerles grainsen trois catégories: - Les grains qui possèdentune contrainte interne de traction en début de chargement importante (>150 MPa). Ils se transformentpeu pour lesquels Ia puis cette tendance s'inverse et ils sont les premiers 75Vode martensite fraction volumique de martensiteatteint IOTVo'Pour d'environ 300 MPa globale, la contrainteinterne maximaleen traction est rapport 7D = ll3 semble et la contraintemacroscopiquede 900 MPa. Le placésautour du pôle tl l ll réalistepour un tel chargement.Ces grains sont grainsmal orientéspar dansle triangle standard(fig.v-23) et sont donc des rapport au rePèredu chargement' - À l'inverse, les grains possédantles contraintes internes de rapidementau départ compressionles plus importantesse transforment (alors que la fraction mais ne dépassentpas 60vo en fin de chargement orientéset proches globalede martensiteest de|Sfto)-Ces grainssontbien dupôlet00U. (ltl = 100MPa) ont descomportements - Lesgrainsintermédiaires très différents les unspar rapportaux autres,leur -186- transformationvarie de t. tAE estd'environ0,12. s2) Les contraintes internes développéesdans les grains sont plus homogènes, le rapport rl; moyen est de 0,2 fois la contrainte macroscopique(pour f=75Vo). Fl) Le comportementest similaire à I'essaiSl. Des grains se transforment beaucoupen développantdes contraintesintemes de traction importantes et des grains se transforment peu pour des contraintes internes de compression. F2) comportement nettement plus homogène pour les grains. seuls quelques grains développent une contrainte de compression très importante: -425 Mpa pour re grain 12,ce qui représenteplus de 40 fois la contrainte macroscopique.Dans ce cas, il sembleque la contrainte interne soit largement surestimée.Mis à part querquesgrains particuliers, le rapport 1AE moyen en fin de chargement est de 5 fois la contrainte macroscopique. Afin d'approfondir les remarquesprécédentes,on représentel'évolution de la contrainte interne en fonction de la fraction de martensitedans le grain pour quatre grains dont le comportementest particulièrement significatif. Leur orientationest définie par les trois anglesd'Euler gl,gma,r,g2. Ils sont donnésdans le tableauV-24 et représentésdansle triangle standard (fig.V-23). Grain 12 Grain76 Tableau V-24: Valeurs des trois angles d'Euler définissant l,orientation des quatre grains dont on étudie I'évôIutionde la càntainte interne. r87- rô rt.l O\v o\q 88o88 - t.t- CnÉÊ(r) .R.F té r t'= +a+ ttt |l t +1. +l . t' ! t t . ll a r r -r r r r t -l rl + lt be ro f- tl ca-r x'F ââ =q l r i i ; t * 'l + I .* a u rt + + ta. *-t! ,, + I t {r+ | + *o+ t r .ll + *- * + ' , I l!'n "i * l{ r ++ +tf { rf +t+ ttt +trf tt CHAPITREV: Résulnts nwmé ri cpres t + rn*t, *f "- r.+o ;Ot * .J'.' d.* \e cri ll (H 1Sl % L ôO È a % qù È rs L i 'S - ù b-e ô 5a tt* S* G\l .P = -o È,tl .Èr \S .xÈ t. --rl %R Ë:J Ët sh \, ^v qs' CHAPITRE V: Résultatsnumériques 40 4t 20 iiir; iil -20 o 0,2 0,4 0 0,6 0,8 0,2 0,4 0,6 0,8 200 300 100 2W 0 ^cl 100 -100 -2c0 e0 - -lm P -200 -300 o o,2 0,4 0,6 0,8 I Fraction de martensite o 1 0,2 0,4 0,6 0,8 Fraction de martensite de la contrainte interneau cours du chargement @on pour les grains 12, 14, 20 et 76. a) Essai SI, b) Essai 52, c) Essai Fl, d) Essai F2. . Le grain 76 est celui qui développela plus importante contrainte interne de ffaction dans I'essaiS1. Prochedu pôle [111], il est très mal orienté et les variantes apparaissentdonc tardivement lors du chargement. Cette apparition tardive s'accompagnenéanmoinsd'une relaxation de la contrainte interne lors des chargementsS1 et Fl (fig.V-25a etY-25c). Cette contrainte interne élevée provoque une trausformation rapide du grain: il est le premier à atteindre I00Vode martensite.Sa contrainteinterne augmente alors de façon importante suite aux interactions avec les autres grains qui continuent de se transformeret de se déformer. -189- Le grain 20: son comportementest à I'opposédu précédent.Bien orienté (prochedu pôle [001]), il démarrerapidementsa transformation. L'interaction avec le milieu environnant(les autresgrains non transformés) . bloque sa transformation et génèreune contrainte interne de compression très importante (figs.V-2la,Y-25b etY-Z1c). Les propriétésde ce grain étant directement reliées à son orientation favorable par rapport à la contrainte appliquée,les particularitésde ce grain disparaissentlors de' I'essai52 où il développeune contrainteinternede traction(fig.V-25d). . Le grain 14 développeune contrainte interne de traction pour les trois premiers chargementset de compressionpour I'essai F2. Son comportementest intermédiaireaux deux grainsprécédents; . Le grain 12 développe une contrainte interne de compression moyennependantles essaisde superélasticité.Ce grain génèrepar contre la plus importante contrainte interne de compressionlors des essaisde fluage anisotherme(fig.V-25d). On s'aperçoità la vue des résultatsprécédentsque l'évolution de la contrainteinterneestrelativementsimilaired'unemanièrequalitativepour et pour le fluage anisothermeà haute les chargementssuperélastiques contrainte.Pourcesessais,I'orientationdu grainsembleprimordialedans le comportement(fig.V-23 eTV-26). Ces résultatssont à r9'li9r d'une parHorikawaet al. [HIM88],surdes manièrequalitativeauxessaisréalisés monocristaux.Les résultatsmontrentque la courbede comportementest de I'orientationcristallinedu monocristal(fig.V-z7). fortementdépendante Pouruneorientationprochede [111],on observele seuildetransformation 1eplus élevéet la,déformationde transformation!a plus faiblei ce résultat s'appliqueégalementau grain76 constituantnotrepolycristal.À liinverse, les orientationsprochesde t0011entraînentune transformalionplus importantepour un niveau de contraintgplus faible.'Le grain 20 du polycristalest.dansce cas.Les grains12 et 14 sontdescasintermédiaires: la contrainte est cependantplUs.importantepour le grain L4, dont confînnéepar les I'orientationest prochede [O11],ce qui eStégalement résultatsexPérimentaux. -teÔ- CHAPITREV: RésultatsrumÉ, 1200 t000 ë 'a 8oo L èo a 600 C) g 4oo U 0,01 0,o2 0,03 0,04 0,05 0,06 0,07 Déformation du grain Fig. V-26: Evolution de la contrainte en fonction de la déformation du grain poltr les qttatresgrains choisis. E l o n g o l i o nË J Fig. V-27: Influence de l'orientatiort cristalline sur le comportement superélastiqueI HIM88]. -t9t- numé CHAPITREV: Résultats L'étude de la déformation dansles grainspermet de compléterces résultats en montrant les différents mécanismesen oeuvre dans les différents grains en fonction de leur orientation cristallographique. V.3.3.2 - Déformation des grains On relie pour les 100 grains, la déformation et la fraction de martensitedu grain. Ceci est réalisé pour les trois valeurs de'la fraction volumique globale précédentes(10, 50 et 75Vo).On étudie la composante (1,1) du tenseurdes déformations(fig.V-28). Les comportementssont à nouveautrès homogènespour les simulations n'engendrantpas d'importantescontraintesmacroscopiques(S2 et F2). Pour les essaisSl et Fl en début de chargement,des grains se déforment jusqu'à dix fois plus que d'autres.En fin de chargementet pour la simulation Fl (Contrainte macroscopiqueégale à 900 MPa), on trouve encoreun rapportde deuxpour les grainsles plus et les moins déformés. 51) On retrouve pour I'essai isotherme à 140oC les deux types de comportementextrêmes: - Des grains qui tardent à se transformeret qui finalement sont les premiers à être complètementtransformés.Ces grains (avec d'ir-nportantes contraintesinternesde traction) sont ceux qui se déformentle moins. Ils sontprochesdu pôle [ 11]. - Les grainsavec d'importantescontraintesinternesde compression sont ceux qui se déforment le plus. Ils s'alignent selon une pente bien précise qui correspondà la relation déformation-fractionde martensitede la transformationd'un monocristalmonovariant.Ils sont prochesdu pôle t00u. 52) Le comportementde ces grainsest intermédiaire:nettementplus homogèneen déformation,les grainsdiffèrent principalementpar leur plus le toujourscettecaractéristique: On notecependant transformation. grainsetransforme,moinsil sedéforme. -t92- CHAPITREV: Résultatsnumé, e 1t 0,07 0,07 0,06 0,06 0,05 0,05 0,04 0,04 0,03 0,03 o,o2 0,02 i b)i ls2 I i-l : ii . . . . . . . . -i-__._ . . . """t"'-""':' :; : 0,01 v v : 0,01 0 0 o 0 0,2 0,4 0,6 0,9 o,o7 o,2 0,4 0,6 0,9 0,07 ! i o)!lrz i vrilrzl i 0,06 0,06 '-.--+.---.--.-+-.--,t.-.---r-----.t-, t:ii ;::ii 0,05 0,05 '--i------1--.--'.1----t-----i---, :tii: ii;: i:i: i::: :::il 0,04 0,04 ttt 0,03 0,03 o,o2 0,02 0,01 0,01 iti:: ;:i:: ii::: --.-'-i-'.-.---.-.--i-,-----i-----i------.-t-- i i i orjl$ :. i i ffisF; --i----.---l_.-,:.--_-,-,:---_--.--. iii; ii:: 0 o 0,2 0,4 0,6 0,9 0 I Fractiondemartensite o 0,2 0,4 0,6 0,9 I Fractiondemartensite Planche V-28: Etats de déformation pour tous les grains constituant le polycristal en fonction de Ia fraction volumique de martensite dans Ie grain. Fl) Comportementsimilaire à I'essaisuperélastique à 140"C avec cependantdes niveauxde déformationinférieurspour unemêmefraction volumiquede martensite globale. r93- qu'il n'y a pas de fluage anisothermesous 10 MPa. On remarqueà nouveau I'orientation du grain' relation marquéeentre la déformationobtenueet peut être établie' Les À partir de ces résultats, une remarquegénérale C1cône est grainss'inscriventtoujoursà I'intérieurd'un cône représentatif mais il évoluelors des essais identiquepour tous les essaissuperélastiques appliquée(fig'V-29)' de fluage anisothermeen fonction de la contrainte gIIlâX t: ào € tr ctt E Ea_ eb gmin ti \o) Fraction de marten si te dans le grain Essais à supeÉlastiques T température gmin s1 glnax tb et ta -ffi"-fraction Essaisde fluage sous anisotherme contrainteE deT indépendants diminuentlorsque I diminue tendentverseminet gmax lorsque T diminue tendentvers edn sl gmaxlorsque E diminue -ci dans lequel les relations de martensitedesgrains s'inscrivent. -r94- CHAPITREV: Résultats La branchesupérieure du cônereprésente le comportement desgrainsqui se déformentbeaucoupet se transformentpeu (zonea). Ils représentent environl/3 desgrainspour sl. Lors desessaissl, s2 et Fl, cesgrains présentent un comportement typiquementmonocristallinmonovariant,ce sont des grains bien orientés.La brancheinférieuredu cône (zone b) représente les grainsmal orientés(l/3 des grainspour Fl):,apparition tardivede la martensite, accroissement de Ia contrainteinterne(égaleà la contraintemacroscopique jusqu'àI'apparitionde la premièrevariante) et finalementtransformationrapideproduisantpeude déformation. On trace l'évolution de la déformationen fonction de la fraction de martensitedans le grain pour quatregrainsparticuliers. On choisit les grainsles moinset plus transformés (40 et 100Vo) lors de l,essaiSl (grain 9l et 26). Cesdeuxgrainspossèdent la mêmedéformati on (4vo) pour75vo de martensiteglobale.on choisitégalementles grainsles moins et plus transformés(50 et 96vo)à 75vode martensitepour I'essai de fluage anisotherme 52 (grain89 et 90).Les anglesqui définissent I'orientationde cesgrainssontdonnésdansle tableauV_30. Ql Grain26 Grain89 Grain90 19ffiâX @ 24,37 54.62 113,6 40,33 7,04 75.13 302,49 73.6s 259,79 Grain 9l 236,91 79,13 339,09 v-30: Tableau valeurs des troisanglesd'Euler définissantyorientation desquatregrainsdont on étudiel'évâlutionde la iayormatton. Les grains89 et 90 sont atypiques:respectivement très mal et très bien orientés,ils conserventleur particularitéquel que soit le chargement (déformationmini et maxi). Les grains 26 et 91, de comportement relativementdifférentlors de I'essaiSl, ont desévolutions en déformation et transformationsimilairespourlestrois autreschargements. -t95- fi t tô rJ) t + t-- tt* t++ t t I Èe B-o èe È-. Èa Èe an ÀaÀa H - a'l *. ,.t 0 0 'o ôi xF àà Nxl o.+ ''o_ ô x'7 t lr + ++ + j +t rt + qL I + a ! fi a + + t aa t* t \e lo f- tl €H oo 4à xF tsE O, 'lct ocj xÈ^ CHLPITRE V: Réswltatsnumériques 4 o\ +l 't +! + .-t \a v H tl eH r{ F5 t+ È èO a % L s N F ô. sË, ut\ sq) ss \r\ È5 kË È.: r-H sss L ss È\ SR CHAPITREV: Résultats 0,04 0,07 0,06 0,03 0,05 ç'"- - 0,04 o,oz o,ot o,o2 0,01 0,01 0 0 o,2 0,4 0,6 0,8 0,4 0,6 0,8 0,2 0,4 0,6 0,8 0,05 0,04 0,03 ttl 0,02 0,01 0 0,2 1 0,2 0,4 0,6 0,8 Fraction de martensite 1 Fractiondemartensite tion de la déformationdansles grains 20, 89,90et 91 des chargements:a) 51,b) 52, c) FI et d) F2' PlancheV-31: ," t""^ En définitive, nous pouvonsdresser|e bilan suivant: Pour les essaisde superélasticitéà températureconstante,on différencie trois types de grains: . Les grainsbien orientés,prochedu pôle t0011.Ils sontles premiersà se transformer et développent une contrainte interne de compression importante. Elle est due à I'environnement qui tend à limiter la transformation de ces grains. En fin de chargement, ces grains présententla plus importante déformation de transformation mais ne sont pas totalementtransformés. -197- Les grains mal orientés,proche du pôle [111], développentune contrainte interne de traction importante.Ils se transformenttotalement mais avecune faible déformation de transformation. Un troisième type de grains présenteun comportementintermédiaire (zone c sur fig.Y-29). À ta vue des représentationsdans le triaqgle standard(fig.V-33), on observecependantune relation certaine entre I'orientation et la contrainte:oula déformationdu grain. Pour les essais de fluage anisotherme à contrainte' constante, l"q conclusions sont plus modérées,surtout à bassecontrainte. Lorsque la contrainte appliquée est importante, la relation entre transformation et orientation est identique. Le comportementse rapproche alors d'un comportementsuperélastique.Lorsque la contrainteappliquée'est faible, I'influence de I'orientation des grains n'est plus prépondérante.L^ contrainte interne et la déformation deviennentplus homogènessur I'ensemble des grains. L'analyse de l'évolution de la microstructure intragranulairepermetde mettre en évidencecertainsmécanismes. V.3.4- ÉVOIUTION DE LA MICROSTRUCTURE tels que le nombr; de On abordeici les paramètresplus microstructuraux grainsactifs,de variantesactivesainsiquel'évolutionde cesvariantesdans les grainspendantle chargement. ; V.3.4.1- Nombre de grains actifs (NGA) Les courbesd'évolutiondu nombrede grainsagtifsNGA (fig.V-33) ' permettentd'apprécierlestrois stadesde la trahsformation: a. Initiation de la transformation:le nombrede gràinsactifs crgit jusqu'à la sa valeur maximalede 100.Cetteph.1sea est très rapide"lorsque .:;: températureou la contraintediminue. Théoriquement,sanscontrainteet pour une températureégaleà MS, toutesles variantes(et tous les grains) doivent s'activer.À d"s températureset des contraintesplus élevées, I'orientation du grain par rapport au repère du chargement est le -.r98- CHAPITREV: Résultatsnumëriques paramètre qui définit le moment du départ de la transformation du grain. b'Transformation homogène:NGA=100. Elle correspondà une faible évolution de la microstructure:les variantesapparueslors de la phasea) croissentsansapparition de nouvellesvariantes. c' Durcissement(NGA<100): des grains ne sont plus actifs parce qu'ils sont entièrementmartensitiques. 100 80 60 40 20 0 500MPa - 250MPa lffi MPa I"" l0 MPa r234 Déformation(7o) Fig.V-33:Evolution du nombrede grains en transformationaw cours di' chargement:a) Essaisisothermes, b) Essaisanisotherunes. Pour les essaisisothermesà 80 et 140oC,on noteun renversement de la tendance en fin de transformation.Numériquement,seules deux possibilitéssontenvisageables: soit unedesvariantessatisfaitle critèrede transformationinverseet le grain redevientactif par transformation martensite-austénite, soit une solutionénergétiquement plus faible est apparue et une variante accroît sa fraction volumique aux dépendsd'une autre variante (dans ce cas, la fraction volumique de martensitedans le grain resteégaleà 1). Les courbessuivantesprouventque cettedernièrehypothèseest justifiée. Alors que la fraction volumique de martensitedansle grain 19 est égale à 1 (fig.V-34a), les variantes 7 et l0 de ce grain, après une phase de -r99- (fig'V-34b)' Cette prolongent la transformationen réactivant le grain par réorientation activité est très limitée cependant,la transformation de la transformationtotale' représente2Vo o,096 0 . 37 :i: i. ta)i ) i i :!i . . - . - . . . - . . . . r . - . . . . . . . . ' . - - . - . . - r - - . . . ' - . -. '-i i".""' " - ' iii èo (.) ; 0.8 ii l / : (u !9 t-' I i : ê 7 tl 0 , 09 4 0,37 //i il/ o () c) E 0,6 0'092 0.3 Ê B Ê ô É!i (! I !9 (;) ï o.+ 19 l| O O 0 , 09 0,36 lo It IL t! o,2 0,3 0 0.7 0'8 0,6 0,4 Fractionglobaledemartensite 0,2 0,'12 0,'14 0,0tE 0,76 Fraction globale de martensite 'mique de martensitedans le W,t'uÉiotutiondesfiactions,'o.t!yi1y''des,uariantes7et]0du 'giro,in (Essai SI). à 140"C 19 pour l'essaisuperélastique V.3.4.2- Nombre de variantesactives(NVA) dont On distinguevariantesactiveset variantesactivées:unevariante mais la fraction volumiqueest différentede zéroest unevarianteactivée la fig'Velle n'estpasforcémentactive(exempledesvariantes7 et l0 de et0'72)' 34b quandla fractionglobalede martensiteestcompriseentre0'7 évolue Une varianteactiveest une variantedont la fractionvolumique étudié' pendantI'incrémentde chargement du En fonction du chargement,on observedes évolutionsdifférentes (fig.V-35)' nombremoyende variantesactivespal grainactif -200- CHAPITRE V: Résultatsnumé Pour les essaisisothermes(fig.v-35a): plus la températuredé I'essaiest importante (et donc la contrainte macroscopique),plus le nombre de variantesactivespar grain est faible. Cet effet est directementrelié au pouvoir d'orientationde la contraintemacroscopiquequi privilégie les variantes les mieux orientées.pour les essaisà 140 et 4!"C, la diminution de NVA par grain en fin de chargementcorrespondà I'augmentationdu nombrede grainsactifs (fig.V-33). En fluage anisotherme (fig.v-35b), la transformation du grain s'accompagnent de la formationde nombreuses variantes. 4 8 3,5 1 É3 .E bo \ z 6 2.5 ) 2 4 1,5 3 I 2 1234 1234 Déformation(Vo) Déformation (Vo) Fig.V-35: Cinématiquede la transformation. volution du nombre moyen de variantes actives par grain au cours du chargement:a) Essais isothermes,b) Essaisanisotherrnes. Une représentationdans le triangle standardpermetde compléterces observations (fig.V-36).À chaqueorientation(grain),on associele nombre de variantesformées.Le résultatobtenuesttotalement différenisuivantle type de simulation.Lors de I'essaisuperélastique à T=Ms+100.c (s1) et pour une fractionglobalede martensitede 75vo,aucungrain n'a produit plusde six variantes. PourI'essaide fluageanisotherme sousl0 Mpa (F2), aucungrainn'ena produitmoinsde5. -20r - vl c) c.t d \o -! cn rô c.rs\o r(arô + + +ti rt lt + le + 'l 0 to - t + tl r t l T t.dl t-tr r aù r! t t++ + ilt + | tt**r l. I + arlo. r ri. t*t i rf. è+a i \oco=SiP ,âÉa.icÀ,4 tal É il' =4 9oe=S: 'rlËo,Jc.) 'R'É ÉF ., I HC =H s .R .F - CHAPITREV: Résultatsnumériques s ro f:. tl cai \e ct-{ tl CH 2û. 4 È OO ë qi L \ Èâ .s TS fâ qi Si tt- ÈH Ë ss -o \) xr Lrr ËS (Èq !È r.r .sË iù \) tËE s-u S-ô' '.< A CHAP ITRE-Vi Résultatsnumériques Le nombre moyen de variantes activées par grain pour les quatre chargementsest de: . Sl (MS+100.C): 3,51 variantes/grain. . 52 (MS+l"C): 4,3variantes/grain. . . F1 (500 MPa):5,25 variantes/grain. F2 (10 MPa):8,97 variantes/grain. On remarque que c'est la nature des chargementsqui détermine le nombre de variantes activées dans les grains (plutôt 9ue la contrainte macroscopique).Pour les essaisde superélasticité,il existe toujours une relation gntre le nombre de variantesdans le grain et son orientation. Si on rapprochecesrésultatsde lr-fig.Y-Z3, il sembleque pour les grainsbien et mal orientés (grains dont la valeur absolue de la contrainte interne est importante), le nombre de variantesactivéesaugmente.Pour les essaisde fluage, anisotherme,la tendance est imprécise, il semble toutefois que le nombre de variantes activées soit plus faible pour les grains proches de 11111(mal orientés). Cette analyseest affinée en élaborantun critère permettantde discernerles variantesmajoritaires.En effet, pour certainsgrainsqui génèrentplus d'une dizaine de variantes, il arrive que la fraction de certaines soient négligeablesdevant la fraction des variantesles plus importantes.Ainsi, pour un même nombre de variantesactivées,il se peut que deux grains aient une évolution de microstructuretotalementdifférente. L'évolution des variantes dans deux grains possédant le même nombre de variantes activées (dix) lors d'un essai de fluage anisothermesous 10 MPa est représentéefig.V-37. En fin de chargement,le grain 11 (fig.V-37a) a générêquatre variantesprincipales (2.,10, 3 et 19) tandis que le grain4 (fig.V-37b) n'en a gênérêque deux (6 et7). -203= E nwmérlqae V: Réswltats 1HAPETRE g 0,3 IE .EI g -8 € 0,2 ,E E ,F o'1 FI 0 0 0r2 or4 0,6 0'E demarenslae Fraetlon -ffie ng-U-32- 0,2 0,4 0,6 0'E Fraetlondemalaenclre wv.vw gr@lns wwreùde.wx dans ëttwYtYY dgS VAWAWeS@e m@reelaËave EVOLW|IOry deflwase ess@t torsd'wn yàfJylfXg',!:é,^ Tuu*t tt *êiiîry*b4t MPa:a) Graln11,b) Gratn4' ââxàiné*eà 10 qui ne volumiques dc plusfaiblecfrastions variantcs Afin dc négligcrlcs eritèr€deehoix on êtabhtun àla mierostruetur€, faiblement pwtleipentque Ceer{êrecst|e euivant: majodtaires. quelesvariantes quineeonserve Dansun grain qui possèden variantesaetivées(D1)' Soit fn h fractionvolumiquede la nièmevariante,avecfn>fn+l' Le minimun de n tel que fn>3(fn+t; est |e nombre de variantes majoritairesdanscegrain. 51 pourlesehaegcments eenombredansle trianglestandard Onrepréscnte dang majoritaires quele nombredc variantes On s'aperçoit etF2.(fiCV-38). lorsdesesseisdefluageanisotlrermc' lesgrains,s'il csttoujourssupérieur la minimise tout de même lc nombrede variantesqui dominent de eRvuedeI'amélioration Cerésultataurasonimportanec transfomration. ($V.5). les essaisanisothemcs pendant dela microstructure la description l'évolutiondesvariantes à déerireet eomparer nousmaintenant Attaehons imposé' danslesgrainssuivantle typedechargement demartensite -204 -. t 6.1 EE 'R'â ôlsf\oae- 23 xÉ HF -!é,4ÉcÀ-! CHAPITREV: RésalntsnumÉrisues Bq la rtl Èe ll ({d\OOOS -lcôôF!o\ :t ?- r +ar + OôT :r ,'' ', + ri ' tt t t. * e c a s 4 L s 4 q) rS L $Ê \SO S4 %(J JS'q) ooR s$ \u 4È, sÈ \3 \) \3* êS 's 'É V.3.4.3 - Évolution des variantes pendant le chargemeni Il n'estpaspossiblede représentercesévolutionspour tous les grains. À partir des observationsprécédentes,on déterminetrois famille de grains: les grains dont I'orientationest bonne,mauvaiseet moyenne.On étudie un grain dans chaque famille. Pour ces grains, on représentela fraction volumique des variantesde martensitequi apparaissentlors des différents chargements.Cela permet de visualiserles différents mécanismesqui entrent en jeu suivant la température ou le niveau de contrainte du chargement. A) Grain 20 Le grain 20, placéprèsdu pôle [001] dansle trianglestandard(fig.V23), fait partiedes grainsbien orientés,qui sont les premiersà démarrer ou de fluage leur transformationlors des essaissuperélastiques soushautecontrainte.Ce grain a étê choisi car il génèrela anisotherme plus forte contrainteinterne de compressionet la plus importante déformationde transformationdurantces essais.Il fait partie également en fin de chargement. desgrainslesmoinstransformés Sl et 52 et pendantles essaisde superélasticité Les évolutionsobservées de fluage Fl sont relativementsimilaires.Il y a formation de quatre variantes(9, 16,5 et3) dont deuxqui prédominent(9 et 16). Ce type d'évolution entraîneune transformationdu grain de 60Vopour une (essaiSl). de 6,5Voen fin de chargement déformation parlestroisvariantes PourI'essaidefluageF},lavariante 16estremplacée de la variante9 (10, 1l et 12)qui complètentle groupeautoaccommodant ce grainpossèdealorsune de 8OVo, (groupeIII). Pourunetransformation déformationfaible prochedeZVo.On voit que I'apparitiondu'groupeIII (qui occupeprès de 90Vodu volumede martensiteformée)entraîneune de la déformation. importanteaccornmodation On peut noterégalementque pour chaqueessai,les variantesles mieux orientées9 et 16 sontlespremièresà s'activer.Malgrécetteprédisposition, -206- CHAPITREV: RésuJtats numériques la variante 16 évolue très peu lors de I'essai F2. Elle tend même à disparaitreen fin de chargement. o,2 0,4 0,6 0,8 0,25 0,3 0,2 0,25 0,4 0,6 0,9 0,4 0,6 0.8 0,2 0,15 0,15 fn 0,1 0,I 0,05 0 o 0,05 0,2 0,4 0,6 0 0,9 0 Fraction de martensite 0,2 Fraction de martensite Planche V-39: Evolution des variantesde martensitedans le grain 20 pour quatres chargements a) Essai superéIastiqueù Mg+ 100"C, b) Essai superélastiqueà M|+I"C, c) Essai de fluage anisothermesous500MPa, d) Essaidefluage anisothermesousI)MPa. B) Grain 76 À I'inverse du grain 20, le grain 76 possède une orientation défavorable. -207- 0,6 0,5 0,5 0,4 0,4 0,3 0,3 f' 0,2 0,2 0,I 0,I 0 0 0,2 0,4 0,6 0.2 0,5 0,5 0,4 0,4 0,3 0,3 0,2 0,2 0, I 0,1 0,4 0,6 0,8 0,6 0,8 fn 0 0 0,2 0,4 0,6 0,8 0,2 0,4 Fractionde martensite Fractionde martensite WEvolutiondeIafractionvolumiquedesvariantesde martensite dans le grain 76 pour quatres chargements a) Essai superélastiqueà MS+l00oc, b) Essai superélastiqueù IUIS+IoC,c) Essai defluage anisothermesous500MPa, d) Essaidefluage anisothermesous I0MPa. Pour I'essai superélastiqueà 140oC,ce grain démarresa transformation tardivementpar I'apparitionde la variante 19,la mieux orientéedu grain. Cependant,cette variante cèderapidementsa place à deux autresvariantes (6 et 7) qui font partie d'un même groupeet qui permettentà la contrainte -208- CHAPITREV: Résultatsnumériques interne importante de se relaxer (fig.V-4Oa).En fin de chargement,ce grain est entièrementtransforméavecune déformation de 3Vo. Lors de I'essai de fluage anisotherme à faible contrainte, le groupe autoaccommodantII est complété par les variantes5 et 8, il représente alors plus de 957o de la martensiteformée dans le grain (le grain s'est égalemententièrementtransformé).La déformationest réduite à ZVo.On peut noter que pour cet essai,la transformationapparaîtdès le début du chargement,prouvant que I'orientationdu grain a peu d'importancesur le est faible. comportementlorsquela contraintemacroscopique C) Grain 14 La contrainte interne de ce grain est moyenne lors des différents chargements.Son orientationestprochede t0111. Comme pour les deux grainsprécédents,quatrevariantesapparaissentlors de I'essai isotherme à 140"C. La déformation est de 3,5Vo et la transformationde 50Voen fin de chargement.Les contraintesétant plus faibles dans ce grain, elles ne favorisent pas particulièrementles deux variantesbien orientéesde ce grain (5 et22). Ce grain développetout de même une importantecontrainteinterne pour 52 et setransformealors à80Vo. Même remarque pour F2, où on voit apparaître deux groupes autoaccommodantsincomplets,entraînantla présencede nombreuses variantesmajoritaires, qui ne sont pas toutes compatiblesentre elles. Le groupeVI (variantes21, 22 et 23) représente83Tode la transformation,le complémentse partageentreles deux variantesdu groupeIV (14 et 15). Ces courbesconfirmentI'effet de la contrainteappliquéelors de l'évolution des variantes dans les grains. Elle privilégient plus ou moins selon ainsi que leur évolution. I'orientationdu grain les variantesqui apparaissent Cet effet est ressentipour les essaisS1, 52 et F1. La simulationF2 amène une remarqueattendueexpérimentalement:lorsque la contrainte appliquée est faible, le nombre de variantes dans les grains est important et ces variantesont tendanceà former des groupesautoaccommodants. -209- CHAPITREV: Résultatsnumériques o,25 0,5 0,2 0,4 0,l5 0,3 0, I 0,2 0,05 0,1 fn 0 0 0,35 0,3 0,25 fn 0,2 0,15 0, I 0,05 0 0,2 0,4 0,6 0,2 0,8 0,4 0,6 0,8 Fractiondemartensite Fractiondemartensite dansle grain 14pour PlancheV-41:Evolutiondesvariantesdemartensite à Mg+100"C,b) Essai a) Essaisuperélastique quatreschargements sous500MPa, à Ms+I"C, c) Essaidefluageanisotherme superéIastique sousl0MPa. d) Essaidefluage anisotherme D) Autresrésultats Dl) Groupesautoaccommodants Parmi les simulationseffectuées,seuleF2 est génératricede majoritaires).On complets(parmilesvariantes' groupesautoaccommodants dansle trianglestandardles grainsqui génèrentde tels groupes représente -2t0- CHAPITRE V: Résultats numériques et les fractions de ces groupes par rapport au taux de transformation du grain(fre.V-aD. FZ Fractionglobalede martensite=90Vo Apparitiond'un groupe autoaccommodant I oui L_j Non 242 54:79.l%o 9tzt4.7 xzv%o -\ 2Oz / Numéro du grain l7z 67.57o Proportion du groupe 011 001 64246.27o 45zE73Vo 79286.6Vo Fig. V-42: Représentation des grains et de Ia proportion du groupe autoaccommodantqui apparaît lors de l'essai F2. Les groupes autoaccommodantscomplets apparaissentdans neuf grains plutôt bien orientés.Pour ceux qui sont vraiment très prochesdu pôle t0011 (grains l7 et 64), leur proportion diminue du fait de I'apparition d'un secondgroupe incomplet. Pour les neuf grains, on relie la proportion du groupe autoaccommodantà la déformation et à la transformation du grain (fig.V-43). Pour huit grainssur neuf, la déformationgrains est inférieure à la déformationmacroscopique(fig.V-43b). L'écartest faible car il ne suffit pas de la présence d'un groupe complet pour accommoder la transformation,il faut égalementque les proportionsdes quatre variantes dans ce groupe soient similaires. Le grain 64, malgré la présenced'un groupe autoaccommodantcomplet parmi ses variantes majoritaires, se transforme peu et se déforme beaucoup.Dans ce grain, un secondgroupe incomplet et d'autres variantes apparaissent$tg.V-44), entraînant de -2tr - CHAPITRE V: Résultats numériques nombreusesincompatibilités de transformationet une contrainte interne importante(r - -135 MPa). 2,4 â 100 'E 95 i ia)i | i, .a .-.-.-.i.,.,-.-.1------i-.----l--i i i i' : i ! i i l i I ! i,' i iiiir Be OÇ -uur id" tiansfoimati.i" ji tu pbtycri{tat (p} i €90 E8s k Ê80 bt) - -'a i i i r'| I - it r' ii ii ! : 2.r € \o : i: ,,,, t î ;;i": i ,';;t i j,.,-i + i i €7s Ê70 k iiii.,i j.-----i-.-.1-:--i---.---+--i----.- tr '< ,,4 ,j--------.--i-------.i----.-i---.----i.r""' H bt) i iiiii "";'ï-"""""1"""'-""1""'-"'-'l'-""---"i""' di 6 s Ë s0 i i '40 ,,,r""'r""'f'' 60 70 80 90 dugrouPe Proportion 100 autoaccommodant(Vo) 50 60 70 80 90 hoportion du groupe autoaccommdant(7o) 100 h ffansformation et de la déformation avec la @ae {opo,tio,dugroupeautoaccommodantcompletquiapparqitlorsde l'essaiF2. o,25 0 ,2 ct) () L d 0,15 (t) () () Ë r1 . 0,1 0,05 0 0,2 0,8 0,6 0,4 Fractionglobaledemartensite des variantes dans Ie grain 64 pour @ion l'essai defluage anisothermesousI0 MPq. -212- CHAPITRE I l L I I N CI ' I Résultats activée variante D2)Première La premièrevarianteactivéeest toujotlrsla mieux orientéepar rapportau repèredr-rchargement(quel que soit le type de chargernent). elle 1'estpas toujourscelle qui possèdela plus irnportante Cependant, Elle peuttnêtnedanscertainscas fractiol voluniqueen fin de chargellent. (exen-rple de la variattte19 dr-r de la microstructure totaleruent disparaître grain76 sur la fig.V-40d). Soit ft la fraction volunique globalede tnartensitepour laquellela variantemoinsbien parLlneseconde premièrevarianteactivéeestdépassée en fonction de f1 pour les quatresch.lrgements orientée.01 représente du grain(fig.V-a5) I'orientation fl < 257o > 257o eL <757o ) lJ':/o 'f l Fraction dc globak: rnartcu"site pour t le.,qLtalr eschar genr enlsSl,52, FI et F 2 F i g . V -4 5 : R e p ré .re ntatior pour lequel.la prentière varictttte cle,sgrctinç àri nr,., cle tian,t.frtrntation tlart'sIe gruin' ocrivéen'estpltr.sla pltr,sitnprtrtctrtfe 2t3 CHAPITREV: Résultatsnumériques Sl) Dans plus de 20Vodes grains, la première variante'activéen'est pas celle qui possède la plus importante fraction volumique en fin de chargement.C'est le cas principalementpour les grains mal orientés qui génèrentdes contraintesinternesde traction importantes. Fl) Même remarquepour I'essaide fluage anisothermesous500 MPa. Le nombre plus important de grains dans lesquels la variante majoritaire changeest du au rapport conffainte interne/contraintemacroscopiqueplus important 52 et F2) Les niveaux de contraintesinternessont plus faibles, il n'y a plus de relation entre f1 et I'orientationdu grain. V.3.5 - INFLUENCE DE LA MATRICE D'INTERACTION ENTRE LES VARIANTES On a vu au $V.2 que la déformation maximale de transformation était fonction de la contrainte appliquée lors d'un essaide fluage anisotherme. Idéalement, pour une contrainte appliquée qui tend vers 0 MPa, la déformation globale de transformation tend vers 0 également. Cette propriété est due à I'apparition de groupes autoaccommodantspour lesquelsles variantesprogressent,mais ne génèrentpas de déformation macroscopique.Au cours de la simulation numérique, l'écait avec les résultats expérimentaux s'accroît lorsque la contrainte appliquée diminue (fig.V-S et V-100. On a vu au $V.3.3 que le comportementintragranulaire respecte les observations métallurgiques, en montrant I'apparition de à faible nombreusesvarianteset I'apparitionde groupesautoaccommodants contrainte: l'étude micromécaniquen'est donc pas mise en cause. Au contraire, elle est consolidéedans sa raison d'être par ces résultats. La principale source d'erreurs se situe au niveau de la matrice d'interaction entre les variantes. Lors de la déterminationde la matrice d'interaction,deux hypothèsesfortes ont été réalisées(annexe1): -214- CHAPITREV: Résultatsnumériques . L'augmentationde la fraction volumique pour une variante donnéese fait essentiellementpar un accroissementdu nombre de plaquettesde cette variante dans une région limitée du grain. Ces considérations permettent de représenterla microstructurepar une description de type "cluster" dans laquelle le volume occupé par une variante est un . domainebien défini du grain. Le nombre de variantes en transformation lors d'un chargementest limité (<5). Ces hypothèsessont justifiées dans le cas d'essaissuperélastiqueou de fluage anisothermesous haute contrainte.Elles ne le sont plus en fluage bassecontrainte. La formation de groupes autoaccommodantset I'absenced'orientation mécaniquement privilégiée par la contrainte laisse apparaître de nombreusesvariantes(expérimentalementet numériquement).Dant ce cas, I'utilisation de la matrice conduit à une surestimation importante de l'énergie associéeà cette configuration. La réorientation, qui permettrait à des variantes d'un même groupe de s'accommoder(en évoluant vers la même fraction volumique), est mal décrite: on a vu que seulesdes infimes réorganisationsétaientpermises(fig.V-34). Deux nouvelles matricesd'interactionont été testées.Elles sont toujours constituées de deux termes, faible et fort (variantes compatibles et incompatible). La première matrice testée(matriceHl) ne considèrecomme compatibles que les variantes faisant partie d'un même groupe autoaccommodant. Ainsi, chaque variante est compatible aux trois autres qui constituentle groupecomplet et incompatibleà toutesles autres. La secondematrice (matrice H2) proposeune solution intermédiaire.II pour lesquelsles incompatibilitésde existedes groupesautoaccommodants déformation sont inférieures aux autres deux à deux (voir tab.Al.5 en annexe1). Par exemple,entrele groupeI et III, il y a plus de variantes compatibles qu'entre le groupe I et II. On considèrealors que les deux groupesI et III sont compatiblesentre eux. Ainsi, dansla matrice,chaque -215- CHAPITREV: Résultatsnumé est compatible à sePt autres (les trois de son groupe et les quatres du groupecomPatible). 6 5 Oa ËÀe 4 F.v x6 trctl tÉ . J .9H =(,] EF .L ,9! P^9 1 0 3,5 Oa ÉN xx .t1È ,li9 > .t) tsç ,g tj llJq) QE 120 100 80 Contrainteappliquée(MPa) de Ia déformation moximale de transformation avec @on T7*rtrointe appliquée et le type de matrice d'interaction H lors d'essais defluage anisôtherme.a) Apptication à l'alliage CuAlBe.b) Application à l'alliage CuZnAl. -216- CHAPITREV: Résultats On simule des essaisde fluage anisothermeà différentes contraintes pour les trois matrices (fig.V-46). Les donnéesd'entrée sont identiques, y compris les valeurs des termes faible et fort de la matrice. Le seul changement intervient au niveau de la construction de la matrice d'interaction. La matrice d'interaction Hl fournit le meilleur résultat. Elle permet à la déformation globale de transformationde diminuer plus rapidementlors d'essaisde fluage anisothermeà bassecontrainte.Ce résultat est logique puisque cette matrice privilégie fortement les variantesd'un même groupe autoaccommodant.Les grains ne développentplus d'autresvariantesqui ont pour effet d'augmenterla déformation. À haute contrainte, le résultat est meilleur également (fig.v-46a), en effet, la déformation de transformation est supérieureà celle obtenuepar I'utilisation de la matrice classiqueH. Pour ces niveaux de contrainte,les grains qui se déforment peu sont ceux qui se transforment beaucoup et qui développent une contrainte interne de traction importante.En permettantde diminuer celleci (en privilégiant les variantesd'un mêmegroupe), on représentemieux le comportementdu fluage à hautecontrainteégalement. V.3.6 - CONCLUSION Les résultats relatifs à l'évolution de la microstructurenous donnent de nombreusesinformations sur le comportementmicroscopique. ' En premier lieu, on a vu que l'évolution de la microstructuredans les grains est très différente suivantle type de chargement:3 à 5 variantes par grain en moyenne en superélasticité,plus de 8 en fluage anisotherme. . Les simulations de fluage anisotherme montrent également un comportementdifférent suivant la contrainteappliquée:si celle-ci est importante, le comportement se rapproche de celui d'un essai superélastique. -2t7- CHAPITRE V: Résultatsnumériques On a vu égalementque les grainsse comportentdifféremmentsuivant leur orientation par rapport au repèredu chargement. . Les grains bien orientés développent une contrainte interne de compressionimportante, ils se transforment peu mais se déforment beaucoup. . Au contraire, les grains mal orientés se déforment peu pour une transformation importante et génèrent des contraintes internes de traction. Cet effet de I'orientationest très faible pour les essaisanisothermessous faible contrainte appliquée.Le comportementdes grains est alors plus homogène,il devient difficile d'établirles raisonsqui font que certainsse transforment peu ou beaucoup, se déforment ou non L'évolution microstructurale devient le principal paramètre responsable du comportement.Les contraintesdansles grains sont plus homogènes,seules les interactionsentre les différentesvarianteset leur nombre infiuent sur le taux de transformation et, en moindre partie, sur la déformation. Si un groupeautoaccommodant apparaîtet occupeplus de 60Vodu volume de martensitedans un grain, la déformations'entrouveraaccommodéeet le grain se transformera aisément (dans ce cas, le nombre de variantes majoritaires serafaible). Au contraire,la présencesignificative d'un second groupe ou de variantes isolées (extérieuresau groupe dominant) entraîne des incompatibilitésimportantesentre les variantes,une énergieélastique importanteet une faible transformation. Ces derniersgrains qui développentbeaucoupde variantespendant leur transformation, sont à I'origine des limites d'application du modèle au fluage anisothermeà faible contrainte.En effet, dansce cas,les hypothèses qui ont serviesà la détermination de la matriced'interactionne sontplus vérifiées. -218- CHAPITRE V: Résultatsnumériques - Références bibliographiques- tBe4l Bourbon G., "Contributionà I'étudeisothermeet anisotherrne du comportementcycliquedes alliages à mémoire'deforme", Thèse,Universitéde Franche-Comté(1994) ICDg2l Chrysochoos A., Dupré J.C., "An infra-red set-up for Continuum Thermomecenics",Actes du colloque QIRT, Eurotherm, Seminar 2'7, Éd. EuropéennesThermiques et Industries(1992) lcPM93l ChrysochoosA., Pham H., MaisonneuveO., " Une analyse expérimentale du comportement thermomécanique d'un alliage à mémoire de forme de type Cu-Zn-A|", C.R. Acad. (1993) Sci.Paris,M, SérieII, pp.1031-1036 [DADTsl DeVos J., Aernoudt E., Delaey L., "The Crystallography of the Martensitic Transformation of B.C.C. into 9R a GeneralizedMathematical Model" , Z. Metallkde, 69, H7,, pp.438-444(1978) [DDATsl Delaey L., DeVos J., Aernoudt E., "ShapeMemory Effect, Superelasticityand Damping in CuZnAI Alloys", INCRA Projectn"238,Report78R1,pp.55(1978) lDKTT4l Delaey L., Krishnan R.V., Tass H., Warlimont H., "Thermoplasticity, pseudoelasticity and the memory effect associatedwith martensitictransformations",J. Mater. Sci., 9, (r974) pp.1536-rs44 -2t9- CHAPITREV: Résultatsnumériques tB94l El AmranizinfiM., "Contributionsà l'étudemicromêcanique des transformationsmartensitiques thermoélastiques ", Thèse, Université de Metz (1994) tF93l Flores ZunigaH., "stabilitéthermiquede la phaseB et de l'effetmémoiredoublesensd'un alliageà mémoiredeforme de type Cu-Al-ùe",Thèseno93ISAL 0107,InstitutNational deLyon (1993) appliquées dessciences tHIMS8l HorikawaH., IchinoseS.,Morii K., MyazakiS., OtsukaK., Metall.Trans.,19A,pp.9l5-923(1988) tLBLg4l LeclercqS.,BourbonG.,LexcellentC.,"PlasticityLikeModel of MartensitePhaseTransitionin ShapeMemoryAlloys", Les Éditionsde Physiques, ProcsESOMAT'94,Barcelone, France,pp.5l3-518 (1994) tM96l Moreau F., LETAM, Universitéde Metz, Comrhunication interne(1996) tMTBg4l MoreauF., Tidu A., BarbeP., EberhardtA., HeizmanJ.J., "Studyof CuAlBeShapeMemoryAlloy by X-Raydffiaction", (1994) Procsof ESOMAT'94,pp.269-274 tPesl des alliages à thermomécanique Patoor8., "Comportement mémoirede forme", Mémoired'habilitation,Universitéde Metz,ISGMP,LPMM, Metz(1995) lRLTe2l Raniecki 8., LexcellentC., TanakaK., "Thermodynamic Behaviourof ShapeMemoryAlloys",, Modelsof Pseudoelastic Arch.of Mech.,3Q992) tveu Vacher P., "Etude du comportementpseudçélastique d'alliagesà mémoiredeforme CuZnAlpolycristallins",Thèse, (1991) Besançon UniversitédeFranche-Comté, -220- CHAPITREVI: Conclusion CHAPITREVI: - Conclusion- Ce mémoirecomprendune étudeà la fois théoriqueet expérimentaledu des alliagesà mémoirede forme. comportementsuperthermoélastique adoptéepermetd'obtenirà la fois des L'approchemicrothermomécanique sur la réponsedu matériauà une sollicitation résultatsmacroscopiques donnée (courbes >-E et E-T) et des informationsà caractère microstructural(formationdes variantesde martensitedansles grains). Dans ce travail, de nombreux résultats nouveaux concernantla ont étéobtenus. modélisationdu fluageanisotherme Les propriétésthermomécaniqueslocales d'un volume monocristallin soumis à une transformationde phasemartensitiquesont déterminéesen fonction des variablesqui contrôlent la transformationet d'un ensemble de variablesinternesdécrivantla microstructure.L'apport de cette étude est la considérationde la températureen tant que variable de contrôle au même titre que la contrainte macroscopique.La microstructure est décrite par les fractions volumiques des différentes variantes de martensite. Les tenseursde localisationrelient les quantitéslocales aux quantités Deux nouveaux tenseursde localisation globales correspondantes. thermique sont introduits. Ils relient la contrainte et la déformation locales à la températureimposée. Le comportementmacroscopiqueest obtenu à partir de la résolution d'une nouvelle équation intégrale. Cette équation thermomécaniqueest résolue en introduisant les hypothèsessimplificatrices appropriées: approximation autocohérenteà un site et uniformité de la température dans l'échantillon. Dans l'état, elle peut servir pour toute modélisation du comportementthermomécaniquedes matériauxmicrohétérogèneset -221 - CHAPITREVI: Conclusion macrohomogènes.Elle généralisedansI'espacecontrainte-température l'équation obtenuepour les cas de chargementsmécaniquesisothermes. IJn schémade résolution numérique est mis en oeuvre. Il permet de . traiter des édifices polycristallins pour les cas de chargementisotherme et anisotherrnesansvariable supplémentaire.Les variables d'entÉe sont obtenuesà partir d'observationscristallographiquesou déduites d'étude micromécanique. . Une étude simplifiée basée sur la thermodynamiquedes processus irréversibles permet une prise en compte des dégagements et absorptions de chaleur accompagnantles transformationsdirecte et inverse. Parallèlementà ce travail théoriqueet numérique,une étude expérimentale permet de caractériserthermomécaniquementun alliage particulier de cuivre-aluminium-bérylium. L'originalité de cettecaractérisationest qu'elle aété réaliséeavec des monocristauxet polycristaux de même composition. . Des essais de traction superélastiqueisotherme à partir du domaine austénitiquefont apparaîtrele mécanismede déformationprincipal de la transformation martensitique:transformationinduite par la contrainte. . . Des essais de fluage anisotherme à contrainte imposée constante montrent I'influence du niveau de contrainte macroscopique.Pour des valeurs faibles de la contrainte, la transformation est nettement influencée par le mécanismed'autoaccommodationdes variantes. L'influence des paramètresde contrôle (températureen supbrélasticité isotherme et contrainte en fluage anisotherme)permet de caractériser Le cristallographiquementI'alliage dansI'espacecontrainte-température. . diagrammed'état est alors tracépour le monocrist*t le polycristal. Deux essaisà vitessede déformation lente et rapide (censésreprésenter des transformationspurementisothermeet adiabatique)sont également comparés La confrontation des prévisions théoriquesaux mesuresexpérimentales fournit des résultatssatisfaisants. . Les résultats de modélisation du comportementisotherme confirment les bons résultatsobtenuspour d'autresalliages. -222- CHAPITREVI: Conclusion Les résultats de modélisation du comportement anisoth'ermesont corrects, en laissant toutefois apparaître une limitation quant à la description du phénomèned'autoaccommodationà basse contrainte. . Cette limitation est liée à la descriptionmicromécaniqueemployée lors du calcul de l'énergied'interactiondue aux contraintesinternes. Laprise en compte des échangesthermiquespendantla transformation . est très satisfaisante.Elle rend compte de I'influence de la vitesse de isothermes. sollicitation(de déformation)lors d'essaissuperélastiques L'approche utilisée permet également d'obtenir des résultats microstructurauxintéressants:évolution au cours du chargementdes contraintes internes d'ordre II, de la déformation et des fractions volumiques dans les grains qui constituentle polycristal. En fonction de I'orientation des grains, les propriétés de ceux-ci diffèrent comparativement.Ce résultat permet d'espérerobtenir des comportements du polycristal. "à la carte"suivantla texturecristallographique Cette étude s'inscrit dans une suite de différents travaux visant à un développementindustriel des alliagesà mémoire de forme. D'autresétapes pour une meilleureprédictiondu comportement sontencorenécessaires des alliages à mémoire de forme. . Une meilleure prise en comptedu mécanismed'autoaccommodationdes . variantesde martensitecompléterala descriptiondu fl.uageanisotherme et permettrade modéliserI'effet mémoiresimple sens. L'effet du cyclage avec apparition de plasticité par création de défauts est envisageable.On pourra alors espérerla modélisation de I'effet mémoiredoublesenset deseffetsde fatigue. L'étudedesalliagesà mémoirede formeouvredespistespour celle des Trip-Steel,alliagespour lesquelsle couplageentre la plasticité et la transformation de phase conduit à des propriétés remarquables: déformation irréversible très importanteavant striction. -223 - ^ - Annexes ANNEXE 1: Calculde l'énergied'interaction V/int intervenant dans le potentiel de Page225 du monocristal transformation AI.1 - RAPPEL AI.2 - ASPECTS MICROSTRUCTURAUX ET CALCUL DE L'ÉNERGIED'INTERACTION A1.3 - nÉpensNCES BIBLIocRAPHIQUES 226 232 ANNEXE 2: Déterminationdu tenseurTII et Page233 du tenseurde GreenG(r) 233 A2.I - RAPPEL A2.z- nÉrenuINATIoN DU TENSEURDE GREEN 233 A2.3 - oÉTSRMINATIoN DU TENSEUR 235 D'INTERACTIONTtr Az.4- nÉsolurloN NuuÉruQLJE A2.5- ngrnnrNcEsBIBLIOGRAPHIQUES ANNEXE 3: Résolutionnumérique A3.I - INTRODUCTIONET FORMALISME A3.2- VARIANTES ACTIVES A3.3 - TEMPSDE CALCUL A3.4- nÉrBnsNCES BIBLIocRAPHIQUES -224- 236 237 238 Page .238 .24r 243 24 ANNEXE 1: - Calcul de l'énergied'interactiorWint intervenantdansle potentielde transformationdu monocristal- A1.1- RAPPEL associéà la transformationde phased'un Le potentiel thermodynamique La décompositiondu monocristala été déterminéau chapitre111.2.2.1. champ de contraintelocal o(r) en deux champs(champde contrainte I et champde contrainteinternet(r)) a permisd'établirla macroscopique relationsuivante(III.3l): y(>rj,T,fn)- -B(T-ro)Ifn +1>USilrcrrru +aÂTr1.1 + n (r)e$(r)dv *r,:Ieftrn+ *yii (Al.l) B et Tg sont des constantesdu matériau. S et a sont les modules thermoélastiqueset tn est la déformationde la varianten. Les différentes contributions ont été réduites à des fonctions des paramètresde contrôle (contrainte I et températureT) et des variables internes fn (fractions volumiques des variantes n) mis à part le dernier terme de la relation. Ce terme symbolise l'énergie d'interaction ygint associéeà I'apparitionde la phasemartensitique.Son évaluationnécessite la connaissanceprécise de la microstructure,c'est à dire la forme et la répartition spatialedes variantes. vgint= -*J ti3r'le[ (r)dv V -22s- (41.2) Annexes AT.2 - ASPECTS MICROSTRUCTURAUX ET CALCUL DE L'ÉNERGIED'INTERACTION un matériaupolycristaltinà un stadeavancé La figure A1-1 représente peuventêtrefaites: Deux observations martensitique. d'unetransformation le nombrede variantesforméesestlimité (3 à 4 pargrain sur24 possibles) d'ellecroîtdansun domainebien définidu grain. et chacune Fig.Al-I: Micrographie représentantles variqntes dans un grain d'un polycristal CUAIBe[BUA96] F"=+ f'n-v -5. ET,V en, vn, fn e"=r Fig. AI-2: Aspectsmicrostructurauxde Ia transfonnation et définition des paramètres utilisés pour caractériser la microstructure. -226 - Annexes Les sources de contraintes internes proviennent majoritairement des interactions martensite/martensite.En conséquence,pour déterminer l'énergie d'interaction,on utilise une descriptionde type "cluster". La figure AI-2 schématisecette structureen faisant apparaîtreles paramètres microstructurauxcaractéristiques,à savoir: . ET et V: La déformation de transformationet le volume du grain (monocristal). . En, yn, Fn: La déformationde transformationmoyenne,le volume et la fraction volumique du domainedélimité par la variante n ( la variante est considéréecomme I'ensembledesplaquettes). . tn, vn, fn: La déformation de transformation,le volume et la fraction volumique de la plaquettede martensiten. . gnt Le taux de la plaquetten dansle domaineassocié. La valeur moyenne du champ de déformation de transformation dans le domaine n est défini comme suit: ;'tjD - - 1 V" Je[rr)av el l='lqn (A1.3) vn Ces hypothèsespermettentde simplifier I'intégrale(A1.2) par une sommationsur les différentsdomainesn. wint= -*f v ,11 tr)r[ tr)av= Zy L "U"U'n i>tfic,jv (41.4) où Tn estla valeurmoyennede la contrainteinternesur le volumeVn. Or, la valeurmoyennede la contrainteinternedansun monocristalestnulle,ce qui permetd'écrirela propriétésuivante: =!Ioief,vn =o (r)e$av * vJ.ii n -227- (41.6) l Annexes L'addition des deux dernières relations permet d'exprimer l'énergie d'interaction sousla forme: =wint *>ril'ilvn* +>t,je[v" nn =;>til (ti -.il )t' (â wint (41.7) n En considérantle domainen comme une inclusion ellipsoïdalecaractérisée par un tenseurd'Eshelby5n [E6U, la contrainteuniforme Tn'dans cette inclusions'exprimeainsi: tl --ci3s(tno,- silr,, X"I E[) (A1.8) L'énergie d'interactions'exprimealors: -stmXrl,-E[F" -e[)cr1r.r(t*^ = wint ;>(q n (Ar.e) En superélasticitéou en fluage anisothermeà haute contrainte, le nombre de variantes (domaines)reste timité. Cette énergiepeut donc être évaluée en limitant le calcul de l'énergie d'interaction pour des paires de variantes. Dans le cas de deux domaines p et 9, la déformation globale de transformationdevient: ET=ril on+Cfiru avecFP+Fe=1 (A1.10) aplatis:SP=S9=SP9 commedesellipsoïdes sontconsidérés Si cesdomaines et l'énergied'interactiondevientalors: - sll,, - E:!) tnr.rrl - cfi (tno. wint= (ri X.l, )cr1r.r ]nnrr -228- Annexes La déformation moyenne de transformation en et la fraction volumique F du domaine n peuvent s'exprimer à partir des paramètres fn et t n intrinsèquesà la transformation. €il- tilqn et Fn = t/r" (Ar.r2) L'énergied'interactions'écritalors: f9 t ^ ^ ^\ | n, -- I'I f'IP :-(eeef - sfl,, - rnrl -,porl, w. (tn,,, "rn[ Z )ciig )(*nrl, ) çp gq (41.13) de la transformation est identiquepour Si I'on supposeque I'avancement alorsgP=gQet W1n1s'écrit: touslesdomaines, | ^ ^t ^ ^\ r nn \l wint=lrrvrt(ri - rfi)ci3n (to,^- sll,,Xrl,- e,q, ) rA1.14) Cette équationdonne la valeur de l'énergied'interactionWint en fonction des variables internes fn mais égalementen fonction de la forme et de I'orientation du domaine (par I'intermédiaire des tn et Spq). La minimisation de cettecontribution(tab.Al-3) conduit à définir une matrice d'interaction Hnm (tab.A1-4) qui décrit les interactionsélastiquesentre variantes tE94]. En accord avec les observationsexpérimentales,elle comporte des termestrès faibles dansle casde variantesautoaccomodantes tandis que des termes importants sont associésaux incompatibilités de transformation de certainesvariantes,dites incompatibles.La minimisation conduit à écrire l'énergied'interactionsousla forme: wint= (A1.1s) i>Hnmfnfm n.m -229- Annexes - sflfl"" dét(^eil ) aefqciir.,(In,,"n )orlfi Type d'interaction n m I I 0 0 1 2 3 0 3.810-2 Compatible 0 0.2 r0-2 Compatible 4 0 Compatible I 5 0.01 3.7 t0-2 1 . 41 02 I 0.22 I 6 7 I 8 I 9 I 10 I I 11 0.22 0 0.03 0 I I 0 -0.03 I t2 t3 1 I4 I I 15 t6 T7 0 0.2t 1 I 1 0.21 Compattble Incompatible 0.21 1.3rc-2 0.20 Incompatible 4.4r04 Compatible 3.810-2 0.3 10-2 Incompatible 3.810-2 0.18 1 . 11 0 - 2 Incompatible Compatible Incompatible Compatible Incompatible Compatible 0.20 lncompatible -0.01 r.4 t0-2 Incompatible -0.21 0.20 Incompatible 18 t3 10-6 1.010-2 lncompatible 19 -0.22 0.20 Incompatible 20 0 I 2l 0 0.8 10-2 0.8 10-2 1 22 23 24 I I I Compatible Compatible -0.2r 0.19 Incompatible -13 t0-6 -0.22 1.010-2 lncompatible 0.21 Incompatible w,interactionentrelavarianten=]etl,esautres *iiontrt pour un alliage CuZnAI. Déterminationde la condition d'existencàd'un plan invariant (AEpq) et minimisation de I'équation (At.8). -230- Annexes I 3 4 3 2 4 5 6 7 I 3 2 X X t0 X 6 X 4 x x 2 3 X X x t5 X 6 X 4 l3 X X x 4 X 6 x x X x X x 4 x 6 3 2 l0 X X X 2 3 X l5 X 2 3 l I t6 5 6 8 12 t 3 l 4 l 5 l 6 t 7 l 8 t 9 20 2 l 22 23 24 3 I I z t0 2 I 8 9 il X x x x x l0 X x l5 X l3 X x 6 X 4 t5 X X 4 X X t3 X t6 X X 6 X X X l5 l6 X X X X X l0 X x l3 x X l6 X X x X X l5 x X X X X X l0 X X X X l0 X X 6 X x t6 X X x x l3 X X X X t6 l5 l3 X 3 2 X X t3 X x 4 2 3 X X X t6 4 X 6 x I 3 2 X x l3 X 2 3 X X 9 l0 I tl 3 2 X t2 2 3 l5 X I l3 X l6 X X l3 X x X X X X t5 x t0 X X X t0 X X l6 X X x X l5 X X X x x l0 x x X 3 2 x 13 X X 2 3 t6 x X x l0 x x l0 X X l3 X l0 X X l6 x X l3 X X l5 X X x x x X t4 I t5 3 2 X X X I6 2 J X X l5 X X X x l6 I 3 2 X 4 X 6 2 3 4 X 6 x x 6 x 4 6 X 4 x 3 2 2 3 t7 l8 I t9 3 2 20 2 3 I 2l 22 I 23 3 2 24 2 3 I TableauAI-5: Matrice d'interaction H déterminépour un alliage CuZnAl [ElA,94]. I, 2 et 3: Variantesd'un mêmegroupe autoaccommodpnt;4, 6, 10, 13, I5 et 16: Variantes compatibles;X: Variantes incompatibles.Its groupes en gras ont de nombreusescompatibilitésavec Ie groupe entouré d'une double ligneplacé sur la mêmeligne (justificatifde H2, $y.3.5). En définitive, le potentiel thermodynamiqueassociéà la transformation martensitiqued'un monocristal est décrit par les seulesvariablesfh, comme le montre le résultatsuivant: Y(tU,T,fn)- -B(T-Ts)It" +j>i:s1kllkt+sATIn + n *>,ilefftn+ i>Hnmrnrm fl'ffi - 23t - (A1.10) Annexes A1.3- nerensNcEs BIBLIOGRAPHIQUES lq94l El AmrantZirifi M., "Contributionsà l'étudemicromécanique des transformationsmartensit iques thermoélastiques ", Thèse, Universitéde Metz (1994) tE6U Eshelby J.D., "Elastic inclusionsand inhomogeneities",Prog. (1961) in SolidMech.,2, PP.89-140 tF85l Fassi-FehriO., "Leproblèm,ede la paire d'inclusionsplastiques et hétérogènesdans une matrice isotrope - application à l'étude du comportementdesmatériaux compositeset de Ia plasticité", Thèsed'État,Universitéde Metz (1985) -232- -,/ ANNEXE2: - Déterminationdu tenseurTII et du tenseur de GreenG(r) - A.2.1- RAPPEL Le tenseurd'interactionTII est indispensableà la déterminationdes tenseursde localisation.Son expressiona été définie en $III.3.3.3 @q.III.109),elleestfonctiondu tenseurde Greensymétriséf(r): .,.II = r;in I c f- (r) dvdv' ç1 J. JUo' VI VI = (r)+Grj,ri 1r;lovav' #J Jt"-',ri (42.1) Le tenseurde Green G(r) est la solution de l'équation de Navier obtenue par les lois classiquesde l'élastostatique. Si L0 est le module du milieu et fi=ôimô(r-r') une force volumique, l'équation qui définit G(r) est la suivante: (, - r' ) + ôirnô(r- r' ) = Q L?jr.rGm,U (A2.2) A2.2- NÉTERMINATIONDU TENSEURDE GREEN La méthode de calcul est basée sur les techniques de transformée de Fourier du tenseur de Green. Cette méthode a étê proposéepar Kneer lK65l et développéepar Mura [MK71]. -233 - Annexes La transforméede Fourierde G(r), notée ôttl si k est le vecteurconjugué de r, est donnéepar: ônrn(k) = on. 1r;e+iki'idv, J (A2.3) Vt de Fourierinverseestalors: Satransformée Gk, (r) = * u'u ôrrn1k;e-ikiridvn I (A2-4) vp En dérivantdeux fois cette expressionpar rapport à la position r, on obtient: Gk.,rj(r) = # dvn 1k;e-ikiri (A2.s) {--rkjôm En faisant de même pour la distribution de Dirac ô(r), on a: 1 puisô1r;-# t"-ik'''dvk 51r.;= 'v (A2.6) Vç (A2-2),cette En reportantles résultats(A2.5) et (A2.6) dansI'expression dernièrepeutse réêcire(d'aprèsle théorèmede I'intégralenulle): (A2.7) Loi1.rôm(k)klkj= ôim À c" stadeintervientla forme de I'inclusion.En effet,I'inclusionpossède un repèreprincipal d'inertie (ou repèremorphologique),généralement différent du repèrecristallographiqueet danslequel le vecteurk a pour : (dansI'hypothèse d'inclusionssphériques) coordonnées -234- = sin0 cosg lXt - sin0sinI avec: ki : kIi 1X, l1t - cos0 du vecteurk sphériques k,0 et g sontlescoordonnées L'équation(AII-7) devientalors: (A2.8) (k) = ôi. Lljr.rk'XrXjGr. qui définitô(t ), à savoir: t k2ôr*(k)=[r.},:r.rxrx:J A2.3 . DÉTERMINATION D'INTERACTIONTII (Az.s) DU TENSEUR La transformée de Fourier de G(r) étant définie, on remplabe dans la définition du tenseut 1II (A2.1), le tenseurde Green par sa transforméede Fourier inverse(A2.5), ce qui donne: -ri) (r;] dvdv' dvl (k) eitit'i + k1k1ôpi r,11, .,--. +I6n' | | [[r,r1ôni ,i, ri, u*. (A2.10) l'élémentdevolumedVp estdonnépar: sphériques, En coordonnées (A2.11) dvk - k2 sin0 d0 dtpdk Dansce nouveaurepère,(A2.10)s'écritdonc: rII. 'ljkl - (k)+ uzxtxicn, ,* ,'flo'*r,rjôr.i \-wr^Yr- rLJtn>]jrt *f JO rcTcl 0 Ë -235- Annexes [ [ JJ vI vI -ri) "it'r'' dv dv, dk dg d0 (A2.rz) En choisissant13suivantk, on a (si a estle rayon de la sphère): dVdv, dk-Qry)3 Ïu, I Jritit.i-ri) 3 o (A2.r3) vIvI Finalement,on obtient PourTII; -riikr II : u3 n 2n i , . (k) rur + - v u2xfli1rilrc;] 2*--.â oqae ?J"nt Jlu"rrjôni (A2.r4) 00 aveck2ô(k) donnépar(A2.9). A2.4- nÉSOLUTIONNUMÉruQUe Le tenseurTII donné par l'expression(A2.14) ne peut être calculé dansun que dansles cassimplesd'inclusionssphériques analytiquement milieu isotrope.Pour toute autreconfiguration,une méthodenumérique élaboréepar Lipinski IL93l est employéeet intégréedansle processus numérique.Cette intégrationnumériqueest basée sur la méthode de Gauss. d'intégration soit unefonctionf(0,rp):Sonintégralepour -1< 0 < 1 et -1< I < I peut par la doublesommesuivante: êtreapprochée II NM r= [[r(e,e)ded9->If(Oi,9i)wiw; j,jt (A2.1s) i=l j=l avec: N et M: Le nombre de points d'intégrationselon0 et rp 01et g.1:Les positionsdes points d'intégration(dépendde N et M) -236- Annexes wi et w3:Les poids d'intégration (égalementdépendantde N et M) Les valeurs des poids ainsi que les positionsdes points d'intégrationsont prédéfinis ([R65] par exemple).Deux changementsde variablepermettent de ramenerle calcul de TII (A2.14) au cas décrit précédemment(A2.15) tl-e3l. BIBLIOGRAPHIQUES A2.5- REFERENCES tK6sl Kneer G., "(Jber die Berechnungder Elastizitritsmoduln VielkristallinerAggregatemit Texture",Phys.StatusSolidi,9, (196s) pp.825838 tl.e3l des métauxen Lipinski P., "Modélisationdu comportement transformationsélastoplastiques finies, à partir deisméthodes de transition d'échelle",Mémoire d'habilitation,ISGMP, LPMM, UniversitédeMetz (1993) tMK7ll Mura T., Kinoshita N., "Green'sfunctionsfor anisotropic elasticity",Phys.StatusSolidi(b),47, pp.607-618(1971) tResl RalstonA., A First Coursein NumericalAnalysis,McGrawHill (196s) -237- Annexes ANNEXE 3: - Résolutionnumérique- A3.1 - INTRODUCTIONET FORMALISME On considèrele comportementdu matériaucomme indépendantdu temps (pas de viscosité) même s'il existe un effet de vitesse ayant une autre origine ($III.4). Dès lors, même si le caractère non linéaire de la transformation martensitiquedes alliages à mémoire de forme impose une écriture des lois de comportementsousforme de vitesses,la variable temps est ici utilisée pour repérerles états successifsdu matériau au cours du chargement.Par conséquent,la notion de dérivée temporelled'une variable corïespond à la variation de celle-ci entre deux événementssuccessifs (infiniment rapprochés).Ceci justifie dans un premier temps I'utilisation d'une formulation incrémentale pour l'écriture du schémanumérique. De plus, les équations(III.Il2) et (III.l14) permettantle calcul des modules effectifs possèdentune forme implicite, ce qui constitue la principale difficulté de résolution. Lipinski et al. [L889] ont proposé une approximationnumériquequi consisteà choisir commemilieu dê référence celui dont le comportementa été déterminéau pas de calcul précédent (ceci est possiblede par la formulationnumériqueincrémentale). L'incrément macroscopiqueimposé (numériquement)peut être de deux types: "mécanique" (en contrainte dI ou en déformation dE) lors d'un chargementisotherme ou "thermique" (incrément de températuredT) lors d'un essai anisotherme.Dans ce deuxième cas, le niveau de contrainte appliqué doit être égalementcontrôlé pendantla simulation. Pour ces deux types de chargement, la vérification du niveau de contrainte (à une tolérance ( admise) est le critère qui permet le passageà I'incrément suivant. À ce stade, on peut présenterI'organigrammeprincipal de la -238- /f, simulation numérique, qui est principalement relié au comportement macroscopique(plancheA3- I ). Données d'entrée: - liées au matériau: rMs,B, Fs, Af,Rrj,Hflffi, Ciikl, a rNombre de grainset orientationde chacun r Forme des grains+ Ttr - liéesauchargement: dl1i, dT Au départ, les modules thermomécaniquessont L"ff= C égaux aux modules il élastiquesdu matériau: GtE N"ff= û, M"ff= ccr dE = Geff d> + Neffdr d Calcul des nouvelles propriétés(lI et mI) et des fractions volumiquesdes variantesdu grain C>eTI)t ont été testés Nouveau modules effectifs -t ,eff=I M"q -I t I I( fr trRr lI ur - - Oeff= fff I) N"ff= çeff 14eff I et déformation de transformation macroscopique: f = fmax o E =Emax 7 a_ l=lmax- Nouvelincrément I=I+ dI T-Tmin tlt+at PlancheA3-I: Organigrammedu schémade résolutionnumériquepour la superthermoéIasticitédes alliages à mémoiredeforme. -239- Annexes Calcul des tenseurs de localisation: ôlI= lI - ,eft TIIôllfl d=[l- Calculde la déformationet de la contraintedansle grainI: et ô mI= -I- M"ff et aI=AITIIômI del=dog+dar doI=rIoJ--Idr r toutesles variantes Recherchedes variantes potentiellement actives: golRn = B (T - Ts) +"I""-f* i F"- l.n+ î,0 e t f n l > 0 ( I " > 0 ) e r f I < 1( l o > 0 ) quand toutes les variantes ont été testées Parmi toutesles variantespotentiellement actives,recherchede la combinaisonqui minimisel'énergie: ( >ijttj) Calcul de I'incrément de fraction volumique et des nouvelles propriétésdu grain: tf*roJt-rYr*R"c .,)dd >[H"ARncR'] sdfnl= mI= c a- cIRo > t d""f Rnc R-l-l[ Yr-Rnc cil nm f*I= f nI+ dfnl et dJI= IgRndf nI Quand tous les grains ont été testés PlancheA3-2: Organigrammede calcul despropriétés des grains. -240- Annexes La partie concernant le comportement local est représenté par I'organigramme de la planche A3-2, il est relatif à l'évolution du comportementet au calcul des propriétésdansun grain. A3.2- VARIANTES ACTIVES La transformation ou la déformation dansun grain résulte de I'activation et de l'évolution de une ou plusieurs variantesde martensite.Pour cela, au moins une condition doit être satisfaitepour activer la transformation: cette condition se traduit par la vérification du critère local définit par l'équationlll.42. Parmi ces variantes potentiellementactives, les équations (III.43) et (IIl.47) définissentcellesqui le sont réellementmais dans la pratique,ces relations sont utilisées uniquement pour déterminer les vitesses de déformation de transformationpour une combinaisonde varianteschoisies. Avant cela, il faut choisir parmi toutes les variantes potentiellement actives,la combinaisonqui I'est effectivementet qui corresponddonc à la solution. Ce choix est basésur un critère énergétiquequi correspondà la minimisation de la solutiondu théorèmedes travauxvirtuels exprimé sous forme incrémentale. Finalement, le choix de la combinaison active impose de suivre le cheminementsuivant: . Choix d'unecombinaisonparmi toutescellespossibles . . . . lI et mI de la combinaison Calcul des modulesthermomécaniques Déterminationdu tenseurde localisationAI Calcul des déformationset contraintesdansle grain Détermination des taux de déformationdesdifférentesvariantesavec rejet de la solution si une de ces valeursest négatives . Calcul de eldol et mise en mémoirede la combinaisonqui minimise cette forme. -24t - Annexes Ces opérationssont effectuéespour toutesles combinaisonspossibles,la solutionchoisieest celle qui minimisel'énergiede déformation' Un tel algorithmeest très consommateuren calculs (et par conséquenten temps): Pour un nombrex de variantespotentiellementactives,le nombre de combinaisonsNç à testerest donné,par: x Nc=I"l nX où: Ct* = i=0 x! i! (x-i)! (43.1) pour x=0 (aucunevariante potentiellementactive), Nc=1 colrespondà la solution élastique.En conditions isothermesou lorsque la contrainte appliquéeest importante,le nombre moyen de variantespotentiellement actives généralementconstatéest de 5; le nombre de combinaisonsest alors de32, ce qui resteraisonnable. À I'inverse,lors d'un cycle thermiquependantlequel la contrainteimposée est faible, le nombre de variantes potentiellementactives peut être beaucoupplus important. Pour x=10, le nombrede combinaisonsà tester est Ns=1Q24.Ce chiffre est multiplié par 16384dans le cas extrême où toutesles variantessont potentiellementactives(24 vartantespossiblelors d'un refroidissementà l'état libre de contraintepour un alliage à basede Cuivre). Nous aborderonsles tempsde calcul ultérieurement. Un autre problème subsiste lors de la résolution numérique (relatif à I'incrémentation de charge). La déterminationdes variantes actives est effective dans la configuration du début de I'incrémentationde charge.En fonction de la valeur de cet incrément,il n'estpas évident que la solution soit encorevalable en fin d'incrémentation.Il est nécessairealori de définir des étapesintermédiaires de calcul qui vont permettre la prise en compte de modifications des variantes actives, comme I'activation ou la désactivationdes variantespendantI'incrémentimposé. -242- a Annexes La relation (A3.2) permetde définir un "temps" t sansdimensionpendant lequel la solution reste valable. En scindantle critère en deux membres dont I'un représenteraitla cission résolue (fonction de la contrainte), et I'autre la cission critique (fonction de la températureet des autresvariantes actives), on peut prédire I'instant ou le critère sera satisfait pour une nouvellevariante(fig.A3-3). +- xc-xr dt, - dt" a v e c :s i t > 1 : si t<1: (A3.2) La solutionestvalableduranttoutela totalitéde macroscopique. I'incrément Un incrémentintermédiaireestnécessaire. Le système n'estpasactif ./ .- ./ Tr+ôTr Tc+ôTc Fig. A3-3: Détermination des pas de calcul intermédiairespar calcul de la "durée" de validit é d'une combinaison. A3.3 - TEMPSDE CALCUL Les calculs se font sur une station de travail Hewlett-Packard7351125 autonomeou sur la stationHewlett-Packard700/RX relié à un réseau. -243- Annexes Le temps de calcul est principalementdépendantdu trajet de chargement, et non de I'incrémentde chargementimposé.Une simulation quelconque Ce nombre peut représenteen moyenne300 incrémentsmacroscopiques. être multiplié par 3 afin de prendre en compte les incréments intermédiaires.À chaquefois, et pour chaquegrain (100 dansnotre cas),le test relatif aux combinaisonspotentiellementactives(2x si x est le nombre de variantespotentiellementactives)est effectuéainsi que tous les calculs qui lui sont associés.Ceci représentefinalement le chiffre de 90000*2x combinaisonstestéesquel que soit le chargementavec x le nombre de variantespotentiellementactivesen moyenne(1<x324). . Pour un chargementisotherme, le temps moyen pour charger et . déchargerà 37ode déformationde transformationest de 20 rninutes. Pour un chargementanisotherme,le temps dépend de la contrainte appliquée. Pour de très faibles contraintes (10 à 25 MPa), le temps moyen est d'une dizained'heures(fonctionde I'occupationdu réseau). On note toutefois que, si le temps d'un essaiexpérimentalen superélasticité isothermen'estque de quelquesminutespour un cycle, les essaisen fluage anisothermepeuventprendre8 à 20 heures(fig.Iv-29). BIBLIOGRAPHIQIJES A3.4 - REFERENCES lLB8el Lipinski P., Berveiller M., "Elastoplasticityof micrometalsat largestrains",Int.J. of Plasticity,5, inhomogeneous pp.r49-172(1989) -244-
{'path': '19/hal.univ-lorraine.fr-tel-01777144-document.txt'}
Journée scientifique 2015 de la Fondation Nestlé France : Comprendre les comportements alimentaires Mardi 31 mars 2015 Le repas en collectivité: vecteur de transmission du modèle alimentaire français? Anne Lhuissier et Christine Tichit (INRA-ALISS, équipe Solal) Anne Lhuissier et Christine Tichit 31/ 03/ 2015 INTRODUCTION  Regroupe 7 chercheurs et docteurs de l'équipe Solal  Question des repas en collectivité : - transversale à nos recherches individuelles - pas nécessairement au coeur de ces recherches  Méthode: analyse des matériaux déjà collectés mais non exploités sous cet angle - principalement qualitatifs (observations et entretiens individuels et collectifs) - incursion quantitative dans l'enquête Emploi du temps de l'iNSEE .02 Anne Lhuissier et Christine Tichit J / MOIS / ANNEE SOMMAIRE  Le projet: points de départ et questionnements  Points de vue croisés sur la cantine scolaire .03 Anne Lhuissier et Christine Tichit 31/03/ 2015 _01 Le projet: points de départ et questionnements .04 Anne Lhuissier et Christine Tichit 31/03 / 2015 Les cantines des adultes  Histoire  Institutions patronales au même titre que d'autres prestations de biens et services (logement etc.) ou monétaires (primes etc.) dans l'ordre de la reproduction du travail et l'espace extérieur au procès productif.  Manger au travail (Le Mouvement social, avril-juin 2014, « L'alimentation au travail depuis le milieu du XIXe siècle »)  Sociologie  La formation et le travail des professionnels de la cuisine (Dondeyne, 2002; Mériot, 2002 ; Laporte, 2010)  Manger au travail (Consommations et Sociétés, « L'alimentation au travail », 2001) Distanciation vis-à-vis du travail - Recomposition des liens sur la base autre que ceux du travail - Briser l'ordre imposé par la hiérarchie  Alimentation envisagée dans le cadre strict du temps et de l'espace professionnels  Lieu d'observation décision alimentaire et modifications des pratiques de consommation (Poulain, 2001) .05 Anne Lhuissier et Christine Tichit 31 / 03 / 2015 Les cantines scolaires  Moins de travaux, regain d'intérêt récent  Les collèges  Dimension du (dé)plaisir du repas en cantine  Cantines selon le point de vue des parents  Que représente un repas à la cantine pour un enfant? Quid déroulement des repas? Perceptions différentes selon les groupes d'âge? Etc. (AlimAdos + différentes thèses)  Pouvoirs publics  Désaffection, notamment en ZEP  Qualité nutritionnelle des plats servis (AFSSA, 2007) .06 Anne Lhuissier et Christine Tichit 31 / 03 / 2015 Les principaux questionnements du projet  Comment la fréquentation des cantines s'insère dans des modèles familiaux et individuels de consommation?  Comment les cantines peuvent être un lieu de transmission de messages de santé?  Quel peut être le rôle des professionnels dans cette mission éducative?  3 axes de recherche .07 Anne Lhuissier et Christine Tichit 31 / 03 / 2015 1. Différenciation sociale du recours et rapport à la cantine  au cours de la vie: mobilisation d'habitus et de dispositions situés selon l'âge, le sexe, l'appartenance sociale ou l'origine ethnique  Point de vue genré sur les repas collectifs - désaffection plus importante chez les garçons - Personnel féminin des maisons de retraite  reproduction des stéréotypes  Différenciation sociale : rapport entretenu à l'alimentation et à l'institution pourvoyeuse du repas diffère selon la position et l'origine sociales  Complémentarités et/ou tensions entre modèles alimentaires socialement et culturellement différents .08 Anne Lhuissier et Christine Tichit 31 / 03 / 2015 2. Inscription du repas collectif dans les habitudes et rythmes quotidiens (individuels et familiaux)  Routine des repas collectifs, similaires aux repas domestiques marqués par le poids de l'habitude : même table, même place, mêmes convives  Support de la construction des identités - Trouver sa place (sens propre et figuré) pour les jeunes comme les vieux, est un des principaux enjeux des repas pris avec les pairs - Espaces de liberté: participent de la construction des identités sociales et individuelles  Interroger leur fréquentation non dans ce cadre unique- scolaire ou professionnel- mais en relation avec l'alimentation domestique .09 Anne Lhuissier et Christine Tichit 31 / 03 / 2015 3. Contraintes et adaptations au cadre collectif  Espaces contraignants pour les usagers  tensions entre gestion collective et attentes/besoins individuels  Institution qui décide pour soi de ce que l'on va manger  lieux de délégation des pratiques alimentaires Comment les acteurs se réapproprient ces normes et ces contraintes?  Comment se joue l'intermédiation entre groupes aux intérêts pas nécessairement convergents? .010 Anne Lhuissier et Christine Tichit 31 / 03 / 2015 _02 Points de vue croisés sur la cantine scolaire .011 Anne Lhuissier et Christine Tichit 31/03/2015 Plan • La cantine à la française • 3 terrains complémentaires : éclairage spécifique de chaque terrain • Résonnance des 3 terrains sur un résultat commun : la place de la cantine dans la sociabilité enfantine. Focus sur les enjeux du placement à table. .012 La restauration scolaire en France - Enjeu de l'action publique : - instrument de l'aide sociale (César, 2002, 2006) - Enjeu nutritionnel et de santé publique (PNNS), implication des diététiciens territoriaux (municipalité, Département) - Enjeu de communication municipale : par ex, le bio - Discours médiatique : Les polémiques récurrentes dans les médias : halal, menu alternatif, bio - Constats scientifiques : - manque de visibilité et de reconnaissance de la cantine (Téchouères 2003), - Restitution d'une vision plutôt négative de la cantine: cristallise les mécontentements des parents et des enfants (Mayo 1989, César 2006, Guetat et lioré 2009) .013 La restauration scolaire à la française : un modèle très homogène Moment très structuré par l'institution : horaire, menu, règlement affiché - Caractère obligatoire : pas d'alternative sur le site scolaire / choix annuel externat vs cantine - Contenu du menu scolaire: o normes diététiques (viande, crudité/fruit, féculent, légume, produit laitier), o structuration : entrée /plat/(fromage)/ dessert + eau + pain - Contexte du repas scolaire: o lieu : espace réservé dans les locaux o horaire fixe : 11h30-13h30 o service à table/self-service Un moment à part dans la journée scolaire française - Coupure de la journée scolaire (parmi les plus plus longues d'Europe) - Pas d'espace d'échange en classe / la récré, les couloirs d'interclasse (collège) et la cantine sont les lieux privilégiés d'échange entre les élèves - Moment le plus informel de la journée, surtout au collège (moins de surveillants) - Placement généralement libre (surtout au collège, surtout en self-service) .014 Trois terrains complémentaires • 3 angles d'approche : – Géraldine Comoretto : thèse sur les repas à l'école élémentaire (dont cantine, mais aussi goûter) – Aurélie Maurice : thèse sur la réception des prescriptions alimentaires à travers l'analyse d'un projet d'éducation alimentaire au collège, sollicitant les préadolescents comme ressorts des actions de santé publique – Christine Tichit : terrain sur les pratiques alimentaires et physiques d'élèves de Collège, mettant l'accent sur les enfants de migrants. .015 Comparaison des 3 terrains Thème Repas à l'école Réception des normes nutrition Chercheure Géraldine Comoretto (doctorat) Aurélie Maurice (doctorat) Christine Tichit Sites 3 élémentaires dont une en zep 1 self service/2 service à table 2 collèges dont un en zep 2 self services CM2 zep + collège zep 2 self service Lieu Grande banlieue ouest Proche banlieue est Paris. Quartier en voie de gentrification Echantillon Tous niveaux 800 élèves environ 2 classes de 5ème , 1 / collège 55 élèves et qq familles Quest. Internet auprès de 500 élèves Focus group: 50 élèves 4ème, 25 6ème Datation terrain Thèse 2009-2014 Soutenue en mars 2015 100 jours d'observation Thèse 2010-2014 Soutenue en nov. 2014 100 jours d'observation Terrain continu depuis 2010 Enquête internet en 2011-12 Focus Group en 2011-12, 2013-14 Méthode Obs. participante : animatrice, dame de service, étudiante. Entretien avec les adultes de la cantine. Observation participante : statut « adulte-ado ». Entretien avec élèves Entretien avec famille Enquête internet + Focus group av élèves Statut chercheur : expérimentation démarche scientifique via projet « science et alimentation » spécificité Les usages du jeu à la cantine Rapport entre les élèves et adultes de la cantine Le personnel de cantine Les relations entre pairs de la classe à la cantine Les rapports de genre à la cantine Le rapport des élèves à la cantine Les plats préférés/détestés Les alternatives à la cantine : le rôle des externes NOM DE L'AUTEUR / NOM DE LA PRESENTATION Acculturation alimentaire .016 JOUR / MOIS / ANNEE Un avis globalement positif sur la cantine Réponses ordonnées d'élèves de 6ème et 4ème (n=75), (Tichit 2014) 98% 89% 81% 74% 72% 60% 51% 47% 15% 9% 6% Je retrouve les copains/copines J'en profite pour discuter On attend trop longtemps, il y a trop la queue (self service) Je passe un bon moment On ne mange qu'entre filles / qu'entre garçons je préfèrerais ne pas venir à la cantine mais je n'ai pas le choix Je me détends, je pense à autre chose je ne vois pas le temps passer à la cantine Je déteste la cantine Je m'ennuie à la cantine je n'ai pas assez de temps pour manger « Le moment que je préfère à l'école ? La cantine ! Pas pour manger mais pour discuter.» (Focus Group, fille de 4ème, Tichit 2014) .017 Enjeu territorial du placement à table : - - - Un libre choix sous contrainte : o Le placement est souvent le seul libre choix de l'élève qui ne choisit ni vraiment l'heure, ni la durée, ni le menu de repas (choix limité). o Choix libre mais contraint par les dispositions prises par les élèves pour se retrouver bien placé dans la queue, parmi les 1ers pour avoir le choix des tables. Appropriation de la table comme d'un territoire du groupe : créer un entre soi o la table est le territoire privé du groupe (vs territoire public de la cour), elle matérialise les amitiés et le sentiment d'appartenance au groupe d'élection o Entre filles et garçons :  Avant ce2 : filles et g plus ou moins ensemble  Ce2 : 8ans / séparation spontanée des sexes, raréfaction des tables mixtes qui se poursuit jusqu'au collège : « Hé non tu (ne) manges pas là ! C'est la table des filles ici ! » (Comoretto, École Les Opalines, 13/11/09) // au collège : 72% des élèves mangent encore entre filles vs garçons  Créer un entre soi de confiance : la nature des conversations change, tout se passe comme si chaque sexe s'isolait pour mieux parler de l'autre. o Le poids de la classe d'âge : En primaire : les grands se distinguent en refusant de manger avec les petits. Enjeu de distinction. Hiérarchie de l'espace autour de la table o Une fois la table réservée le placement a lui aussi son importance : côte à côte plutôt que face à face surtout chez les filles ; culture de la meilleure amie, dyade ou ptit gpe de filles (Pasquier, AM). o Volonté de Proximité (côte à côte) qui va parfois jusqu'au mimétisme (vestimentaire, .018 coiffure,langage) Mimétisme et circulation alimentaire Le mimétisme alimentaire : - plateau composé à l'identique : faire comme les copains (cf personnel de cantine) Clara (en tête de file) : Zoé, banane, banane ! (Puis se tournant vers Emma) On prend l'entrée ? Emma acquiesce. Clara : Zoé, prend l'entrée aussi !(Comoretto, École Les Primevères, 19/05/11) - Manière de manger (par ex : découper la pomme) - Rejet collectif de l'aliment : observation confirmée par le personnel de cantine : (à propos du fromage) « en plus c'est contagieux, t'en as un qui n'aime pas, personne aime ! » (Comoretto) Solène : T'as déjà mangé de la langue de boeuf ? Juliette : Beurk non ! Solène : Et du cheval ? Elise : Jamais ! Solène : Moi je mangerai jamais de cheval de toute ma vie. En choeur : Moi non plus ! (Comoretto, École Les Coryphées, 04/05/10) - Enjeu du mimétisme : faire comme les autres pour s'intégrer au groupe, renforcer le sentiment d'appartenance et d'affinité Se ressembler et se distinguer à la fois : Circulation des aliments de plateau en plateau : - Marque d'attention et d'amitié  prendre pour son ami un dessert dont on ne veut pas, attitude solidaire  Expression de la connaissance du goût de l'autre - Stratégies d'échange ou de don:  donner à l'élève populaire pour attirer son attention et celle du groupe  donner ou partager pour se reconnaitre mutuellement membres du groupe .019 Le revers du placement libre : l'isolement - - - Les élèves exclus du groupe : c'est toujours à la cantine que les problèmes arrivent (Maurice) pour eux c'est le pire moment de la journée, l'angoisse de déambuler seul avec son plateau sans savoir où se placer : affichage très clair de son isolement / avec en plus la crainte de se faire rejeter, visiblement, d'une table ! Les profils d'élèves exclus: o la « nouvelle » qui continue de manger seule, une semaine / pendant 6 mois o le timide : anticiper le risque de rejet, ne pas oser demander à intégrer le groupe o l'enfant qui joue seul avec ses jouets à table, qui veut être tranquille, lire un livre en mangeant (situation surtout observée en primaire) Les stratégies de contournement : o trainer pour pouvoir boucher les trous et ne pas se retrouver seul (primaire, cf rôle des animateurs qui placent les enfants seuls) o faire la quête auprès des groupes, pour être accepté à leur table / un élève populaire trouve tjs ne table qui lui fait une place o s'inscrire sur les activités d'interclasse (basket, journal du collège) pour justifier un repas rapide voir décalé (avant les autres) et éviter la confrontation avec les ex copains/copines o manger chez soi pour échapper à ce moment stigmatisant/ par crainte des autres o en primaire intervention de l'adulte pour déplacer un enfant turbulent ou imposer un .020 enfant à table Conclusions : Regards croisés sur la cantine comme espace de sociabilité enfantine o Enjeu de la composition/choix du groupe de table = se sentir suffisamment en confiance dans le groupe pour exprimer ses gouts/dégouts, expérimenter, transgresser Pouvoir se ressembler et se distinguer à la fois o L'aliment devient support de la culture du groupe par le mimétisme, le don ou le partage .021
{'path': '08/hal.inrae.fr-hal-02801891-document.txt'}
Incidence, facteurs de risques et diagnostic de l'infection à herpès virus humain 6 après allogreffe de cellules souches hématopoïétiques à l'ère de la biologie moléculaire Matthieu Guery To cite this version: Matthieu Guery. Incidence, facteurs de risques et diagnostic de l'infection à herpès virus humain 6 après allogreffe de cellules souches hématopoïétiques à l'ère de la biologie moléculaire. Sciences pharmaceutiques. 2010. hal-01734027 HAL Id: hal-01734027 https://hal.univ-lorraine.fr/hal-01734027 Submitted on 14 Mar 2018 AVERTISSEMENT Ce document est le fruit d'un long travail approuvé par le jury de soutenance et mis à disposition de l'ensemble de la communauté universitaire élargie. Il est soumis à la propriété intellectuelle de l'auteur. Ceci implique une obligation de citation et de référencement lors de l'utilisation de ce document. D'autre part, toute contrefaçon, plagiat, reproduction encourt une poursuite pénale. illicite Contact : ddoc-theses-contact@univ-lorraine.fr LIENS Code de la Propriété Intellectuelle. articles L 122. 4 Code de la Propriété Intellectuelle. articles L 335.2- L 335.10 http://www.cfcopies.com/V2/leg/leg_droi.php http://www.culture.gouv.fr/culture/infos-pratiques/droits/protection.htm UNIVERSITE HENRI POINCARE - NANCY I 2010 ____________________________________________________________________________ FACULTE DE PHARMACIE THESE Mémoire DES de Biologie médicale Soutenu devant le Jury Interrégional Le 04 octobre 2010 pour le DIPLOME D'ETAT de DOCTEUR en PHARMACIE par Matthieu GUERY né le 17 Novembre 1981 à Nantes (44) __________ Incidence, facteurs de risque et diagnostic de l'infection à herpèsvirus humain 6 après allogreffe de cellules souches hématopoïétiques à l'ère de la biologie moléculaire __________ Membres du Jury Président : Monsieur le Professeur C. GANTZER Juges : Monsieur le Professeur P. BORDIGONI Madame le Docteur V. VENARD Mademoiselle le Docteur H. JEULIN Mademoiselle le Docteur N. AGRINIER UNIVERSITÉ Henri Poincaré, NANCY 1 FACULTÉ DE PHARMACIE Année universitaire 2009-2010 DOYEN Francine PAULUS Vice-Doyen Francine KEDZIEREWICZ Président du Conseil de la Pédagogie Bertrand RIHN Commission de la Recherche Christophe GANTZER Mobilité ERASMUS et Communication Francine KEDZIEREWICZ Hygiène Sécurité Laurent DIEZ Responsable de la filière Officine : Responsables de la filière Industrie : Francine PAULUS Isabelle LARTAUD, Jean-Bernard REGNOUF de VAINS Responsable du Collège d'Enseignement : Jean-Michel SIMON Pharmaceutique Hospitalier DOYEN HONORAIRE Chantal FINANCE Claude VIGNERON PROFESSEURS EMERITES Jeffrey ATKINSON Marie-Madeleine GALTEAU Gérard SIEST Claude VIGNERON PROFESSEURS HONORAIRES Roger BONALY Thérèse GIRARD Maurice HOFFMANN Michel JACQUE Lucien LALLOZ Pierre LECTARD Vincent LOPPINET Marcel MIRJOLET François MORTIER Maurice PIERFITTE Janine SCHWARTZBROD Louis SCHWARTZBROD MAITRES DE CONFERENCES HONORAIRES Monique ALBERT Gérald CATAU Jean-Claude CHEVIN Jocelyne COLLOMB Bernard DANGIEN Marie-Claude FUZELLIER Françoise HINZELIN Marie-Andrée IMBS Marie-Hélène LIVERTOUX Jean-Louis MONAL Dominique NOTTER Marie-France POCHON Anne ROVEL Maria WELLMAN-ROUSSEAU ASSISTANT HONORAIRE Marie-Catherine BERTHE Annie PAVIS Section 1.01 ENSEIGNANTS PROFESSEURS Gilles AULAGNER Pharmacie clinique Alain BAGREL Biochimie Jean-Claude BLOCK Santé publique Christine CAPDEVILLE-ATKINSON Pharmacologie cardiovasculaire Chantal FINANCE Virologie, Immunologie Pascale FRIANT-MICHEL Mathématiques, Physique, Audioprothèse Christophe GANTZER Microbiologie environnementale Max HENRY Botanique, Mycologie Jean-Yves JOUZEAU Bioanalyse du médicament Pierre LABRUDE Physiologie, Orthopédie, Maintien à domicile Isabelle LARTAUD Pharmacologie cardiovasculaire Dominique LAURAIN-MATTAR Pharmacognosie Brigitte LEININGER-MULLER Biochimie Pierre LEROY Chimie physique générale Philippe MAINCENT Pharmacie galénique Alain MARSURA Chimie thérapeutique Patrick MENU Physiologie Jean-Louis MERLIN Biologie cellulaire oncologique Jean-Bernard REGNOUF de VAINS Chimie thérapeutique Bertrand RIHN Biochimie, Biologie moléculaire Jean-Michel SIMON Economie de la santé, législation pharmaceutique MAITRES DE CONFÉRENCES Sandrine BANAS Parasitologie Mariette BEAUD Biologie cellulaire Emmanuelle BENOIT Communication et santé Isabelle BERTRAND Microbiologie environnementale Michel BOISBRUN Chimie thérapeutique François BONNEAUX Chimie thérapeutique Ariane BOUDIER Chimie Physique Cédric BOURA Physiologie Igor CLAROT Chimie analytique Joël COULON Biochimie Sébastien DADE Bio-informatique Dominique DECOLIN Chimie analytique Béatrice DEMORE Pharmacie clinique Joël DUCOURNEAU Biophysique, audioprothèse, acoustique Florence DUMARCAY Chimie thérapeutique François DUPUIS Pharmacologie Raphaël DUVAL Microbiologie clinique Béatrice FAIVRE Hématologie - Génie Biologique Adel FAIZ Biophysique-acoustique 5 Luc FERRARI Toxicologie Stéphane GIBAUD Pharmacie clinique Thierry HUMBERT Chimie organique Frédéric JORAND Santé et environnement Olivier JOUBERT Toxicologie, sécurité sanitaire Francine KEDZIEREWICZ Pharmacie galénique Alexandrine LAMBERT Informatique, Biostatistiques Faten MERHI-SOUSSI Hématologie biologique Christophe MERLIN Microbiologie environnementale et moléculaire Blandine MOREAU Pharmacognosie Maxime MOURER Pharmacochimie supramoléculaire Francine PAULUS Informatique Christine PERDICAKIS Chimie organique Caroline PERRIN-SARRADO Pharmacologie Virginie PICHON Biophysique Anne SAPIN Pharmacie galénique Marie-Paule SAUDER Mycologie, Botanique Nathalie THILLY Santé publique Gabriel TROCKLE Pharmacologie Marie-Noëlle VAULTIER Biodiversité végétale et fongique Mohamed ZAIOU Biochimie et Biologie moléculaire Colette ZINUTTI Pharmacie galénique PROFESSEUR ASSOCIE Anne MAHEUT-BOSSER Sémiologie PROFESSEUR AGREGE Christophe COCHAUD Anglais Bibliothèque Universitaire Santé - Lionnois (Pharmacie - Odontologie) Anne-Pascale PARRET Directeur 6 A MONSIEUR LE PROFESSEUR C. GANTZER Professeur à la faculté de Pharmacie de Nancy Vous me faites l'honneur d'accepter la présidence de ce jury. Veuillez trouver ici l'expression de ma grattitude et de mon profond respect. 7 A MONSIEUR LE PROFESSEUR P. BORDIGONI Professeur à la faculté de Médecine de Nancy Vous avez accepté de participer à ce travail et d'en juger le contenu. Soyez assuré de ma profonde reconnaissance. 8 A MADEMOISELLE LE DOCTEUR N. AGRINIER Assistante hospitalo-universitaire au CHU de Nancy Je vous suis reconnaissant de l'intérêt et du soutien que vous avez porté sur ce travail. Vous me faites l'honneur de participer à ce jury. Veuillez trouver ici l'expression de ma gratitude et de mon profond respect. 9 A MADEMOISELLE LE DOCTEUR H. JEULIN Assistante hospitalo-universitaire au CHU de Nancy J'ai repris une partie du travail que tu avais amorcé. Tu m'as soutenu par tes connaissances, ton intellect et ta disponibilité. Sois assurée de ma sincère reconnaissance. 10 A MADAME LE DOCTEUR V. VENARD Maître de conférences à la faculté de Pharmacie de Nancy Vous m'avez accueilli au laboratoire de virologie et vous avez accepter d'encadrer et de diriger ce travail. Trouvez ici l'expression de ma gratitude et de ma reconnaissance. 11 A l'ensemble du personnel du laboratoire de virologie Pour votre accueil et votre soutien technique A l'ensemble du personnel des laboratoires Pour votre accueil chaleureux Pour avoir participer à ma formation A mes amis A ma famille 12 « LA FACULTE N'ENTEND DONNER AUCUNE APPROBATION, NI IMPROBATION AUX OPINIONS EM ISES DANS LES THESES, CES OPINIONS DOIVENT ETRE CONSIDEREES COMME PROPRES A LEUR AUTEUR ». 13 S ERMENT DES A POTHICAIRES je jure, en présence des maîtres de la Faculté, des conseillers de l'ordre des pharmaciens et de mes condisciples : Ð' honorer ceux qui m'ont instruit dans les préceptes de mon art et de leur témoigner ma reconnaissance en restant fidèle à leur enseignement. Ð'exercer, dans l'intérêt de la santé publique, ma profession avec conscience et de respecter non seulement la législation en vigueur, mais aussi les règles de l'honneur, de la probité et du désintéressement. Ðe ne jamais oublier ma responsabilité et mes devoirs envers le malade et sa dignité humaine ; en aucun cas, je ne consentirai à utiliser mes connaissances et mon état pour corrompre les moeurs et favoriser des actes criminels. Que les hommes m'accordent leur estime si je suis fidèle à mes promesses. Que je sois couvert d'opprobre et méprisé de mes confrères si j'y manque. 14 SOMMAIRE SOMMAIRE 15 Liste des abréviations 17 Liste des Figures 18 Liste des tableaux 20 INTRODUCTION 22 GENERALITES 24 I. Description du sixième herpèsvirus humain 24 I.1. Découverte et classification 24 I.2. Fréquence et transmission 25 I.2.1. Incidence et prévalence 25 I.2.2. Transmission 26 I.3. Morphologie et structure 27 I.3.1. Le virion 27 I.3.2. Le génome 29 I.4. Cycle de réplication virale 31 I.4.1. Adsorption et entrée du virus 31 I.4.2. Transcription et réplication de l'ADN 33 I.4.3. Assemblage des virus et excrétion cellulaire 34 I.5. Physiopathologie 37 I.5.1. Tropisme cellulaire 37 I.5.2. Effets sur la cellule hôte 37 I.5.3. Latence 38 II. Manifestations cliniques et traitement des infections à HHV-6 39 II.1. Manifestations cliniques 39 II.1.1. Au cours de la primo-infection 39 II.1.2. Au cours de la réactivation 41 II.2. Traitement 43 III. Intégration 46 IV. Diagnostic des infections à HHV-6 48 IV.1.1. Diagnostic direct 48 IV.1.2. Diagnostic indirect 52 15 TRAVAIL PERSONNEL Erreur ! Signet non défini. I. Problématique 53 II. Matériels et méthodes 53 II.1. Etude de cohorte 54 II.1.1. Population ciblée 54 II.1.2. Prophylaxies et traitements 54 II.1.3. Suivi infectieux 56 II.1.4. Suivi clinique 57 II.1.5. Analyses statistiques 58 II.2. Diagnostic et suivi virologique des patients HHV-6 59 II.2.1. Echantillons 59 II.2.2. PCR HHV-6 60 II.2.3. PCR albumine 64 II.2.4. analyses 67 III. Résultats 68 III.1. Etude de cohorte 68 III.1.1. Description de la cohorte 68 III.1.2. Incidence et délai de la réactivation HHV-6 72 III.1.3. Facteurs associés à la survenue d'une réactivation HHV-6 72 III.1.4. Co-infections 75 III.1.5. Manifestations cliniques associées à l'HHV-6 77 III.1.6. HHV-6 et mortalité 80 III.1.7. Efficacité du traitement 84 III.1.8. Conclusion 85 III.2. Diagnostic et suivi virologique des patients HHV-6 86 III.2.1. Patients ayant présentés une réactivation 86 III.2.2. Patients ayant présenté une intégration 94 III.2.3. Conclusion 99 DISCUSSION 106 CONCLUSION 114 BIBLIOGRAPHIE 115 ANNEXES 127 16 Liste des abréviations HHV-6 HerpèsVirus Humain 6 CMV CytoMégaloVirus EBV Epstein Barr Virus HSV Herpès Simplex Virus VZV Varicelle Zona Virus ADN Acide DésoxyriboNucléique °C Degrés Celsius ADN Acide DésoxyriboNucléique LAL Leucémie Aigue Lymphoblastique LAM Leucémie Aigue Myeloblastique LLC Leucémie Lymphoïde Chronique LMC Leucémie Myéloïde Chronique LMMC Leucémie MyéloMonocytaire Chronique SMD Syndrome MyéloDisplasique SMP Syndrome MyéloProlifératif CSH Cellules Souches Hématopoïétiques CSP Cellules Souches Périphériques ICT Irradiation Corporelle Totale MTX Méthotrexate CsA Ciclosporine PCR Polymérase Chaîne Réaction FISH Fluorescente In Situ Hybridation CHU Centre Hospitalo-Universitaire SNC Système Nerveux Central 17 Liste des Figures Figure 1 : Arbre phylogénique des Herpesviridae d'après [Moore et al., 1996] 25 Figure 2 : Photo en microscopie électronique d'une particule d'herpèsvirus 28 Figure 3 : Représentation schématique d'une particule virale d'HHV-6 28 Figure 4 : Organisation génomique de l'HHV-6 [Dominguez et al., 1999] 29 Figure 5: Interactions complexes glycoprotéines virales de l'HHV-6 et récepteurs cellulaires [Mori et al., 2009] 32 Figure 6: Processus de fusion cellulaire de l'HHV-6 selon [Mori et al., 2009] 33 Figure 7: Cycle réplicatif de l'HHV-6 [De Bolle et al., 2005b] 36 Figure 8: Exanthème subit du nourrisson 40 Figure 9. Isolement de l'HHV-6 en culture cellulaire [Salahuddin et al., 1986, Taniguchi et al., 2000] 49 Figure 10. HHV-6 en microscopie électronique (Laboratoire de Virologie, Groupe hospitalier de la Pitié-Salpêtrière) 50 Figure 11: Incidence cumulative de l'HHV-6 sur 150 jours post-greffe 72 Figure 12: Incidence de la réactivation HHV-6 en fonction du greffon et du stade de GVHA 75 Figure 13: Survie cumulée en Kaplan Meier en fonction du statut HHV-6 80 Figure 14: Incidence de la réactivation en fonction de la technique PCR 87 Figure 15: Délai de la réactivation 88 Figure 16: Réactivation HHV-6 avec encéphalite 92 Figure 17: Réactivation HV-6 asymptomatique 93 18 Figure 18: Profil intégration patient 1 95 Figure 19: Profil intégration patient 2 96 Figure 20: Profil intégration patient 3 98 Figure 21: Charges virales patient ayant présenté une encéphalite à HHV-6 en post-greffe 101 Figure 22: Profil théorique d'une réactivation de l'HHV-6 en post-greffe chez le patient greffé de CSH 103 Figure 23: Profil théorique d'une intégration de l'HHV-6 en post-greffe chez le patient greffé de CSH à partir d'un donneur intégré 103 Figure 24: Profil théorique d'une intégration de l'HHV-6 en pré-greffe chez un patient greffé de CSH 104 Figure 25: Algorithme de prise en charge biologique des infections à HHV-6 en postallogreffe de CSH 105 19 Liste des tableaux Tableau 1: Les voies de transmission de l'HHV-6 27 Tableau 2: Exemples de fonctions des ORF du ségment U de l'HHV-6 [Gompels and Macaulay et al., 1995] 31 Tableau 3: Efficacité des antiviraux anti-HHV-6 [de Pagter et al., 2008a] 44 Tableau 4: Techniques PCR quantitative HHV-6 en temps réel 51 Tableau 5: Amorces PCR qualitative 1999-2003 61 Tableau 6: Mix PCR qualitative 1999-2003 61 Tableau 7: Amorces et sonde PCR quantitative HHV-6 Gène U65-66 [Gautheret-Dejean et al., 2002] 62 Tableau 8: Composition du mix pour la PCR HHV-6 [Gautheret-Dejean et al., 2002] 63 Tableau 9: Amorces et sonde ALB gene pour PCR albumine (Gautheret-Dejean et al., 2002) 65 Tableau 10: Composition du mix de PCR albumine (Laurendeau et al., 1999) 65 Tableau 11: Dilution gamme d'étalonnage PCR albumine 66 Tableau 12: Conditionnements et effectifs 70 Tableau 13: Caractéristiques des patients de la cohorte 71 Tableau 14: Facteurs associés à la réactivation HHV-6 73 Tableau 15: Co-infections HHV-6 et autres agents infectieux 76 Tableau 16. Manifestations cliniques associées à la réactivation de l'HHV-6 78 Tableau 17: Influence de l'infection à HHV-6 sur la reconstitution hématologique et sur la sévérité de la GVHA 79 20 Tableau 18: Facteurs associés au décès 81 Tableau 19: Causes du décès 83 Tableau 20: Prévalence des traitements antiviraux au sein de la population HHV-6+ 84 Tableau 21: Effet du traitement anti-HHV-6 sur la mortalité 85 Tableau 22: Intensité de la charge virale au moment de la première détection et au pic . 89 Tableau 23: Pourcentage de patients HHV-6+ ayant une charge virale >2500 copies/mL 90 Tableau 26: Association intensité de le charge virale HHV-6 / signes cliniques 90 21 INTRODUCTION Comme tous les herpèsvirus, l'herpèsvirus humain 6 (HHV-6) reste à l'état latent tout au long de la vie au sein de son hôte infecté. Dans cet état le virus reste inactif et ne se multiplie pas. Cette latence virale peut être entrecoupée d'épisodes de réactivation où le virus devient actif, réplique et au cours desquels des particules virales infectieuses sont alors produites. Si cette réactivation est généralement asymptomatique chez le sujet immunocompétent, elle peut être potentiellement grave, voire fatale chez le sujet immunodéprimé, et particulièrement chez les receveurs de greffes. La greffe de cellules souches hématopoïétiques (CSH) est indiquée dans les affections du tissu hématopoïétique ou dans certain cas de tumeurs solides. Elle constitue un terrain favorable aux réactivations virales, de part l'immunodépression qui l'entoure. L'incidence des réactivations de l'HHV-6 dans ce contexte est importante. Bien que le diagnostic de réactivation à HHV-6 soit porté, la responsabilité clinique de l'HHV-6 reste encore rarement évoquée d'emblée comme peut l'être celle du cytomégalovirus (CMV) par exemple, pourtant le risque est réel. En effet le pouvoir pathogène de l'HHV-6 chez le sujet greffé de CSH, longtemps sujet à controverse, est aujourd'hui reconnu dans les retards de sortie d'aplasie et les insuffisances médullaires [Carrigan and Knox et al., 1994, Drobyski et al., 1993], les encéphalites [Drobyski et al., 1994],les réactions du greffon contre l'hôte (GVHD) et les rashs fébriles [Asano et al., 1991, Wilborn et al., 1994, Yoshikawa et al., 1991]. Des études reconnaissent même la réactivation HHV-6 comme un facteur de mortalité dans les greffes de CSH [de Pagter et al., 2008b, Zerr et al., 2005]. Il apparaît donc nécessaire de posséder les moyens de diagnostiquer et de suivre les infections à HHV-6 au sein de ces populations immunodéprimées, afin d'en prévenir les complications par un traitement approprié. Ces moyens de diagnostic et de suivi sont actuellement essentiellement basés sur la biologie moléculaire. L'objectif de ce travail est d'établir à partir d'arguments clinico-biologiques un algorithme de prise en charge de l'infection à HHV-6 chez les patients allogreffés de CSH. Et pour cela, après de brèves généralités sur le virus de l'HHV-6, nous procéderons à un travail en deux temps. Tout d'abord dans un premier temps, nous apprécierons au sein d'une cohorte de patients allogreffés de CSH, la fréquence des réactivations à HHV-6, les facteurs de risques, les manifestations cliniques et les co-infections associés à ces 22 réactivations, ainsi que l'efficacité des traitements antiviraux utilisés. Puis dans un deuxième temps, nous étudierons les profils virologiques de patients ciblés au sein de cette cohorte, pour définir des profils virologiques théoriques correspondant aux différentes situations cliniques. 23 GENERALITES I. Description du sixième herpèsvirus humain I.1. Découverte et classification L'herpèsvirus humain 6 (HHV-6) a été isolé pour la première fois en 1986, à partir de cellules mononuclées du sang périphérique (peripheral blood mono cells, PBMCs) de 6 patients atteints de syndromes lymphoprolifératifs, dont deux porteurs du virus de l'immunodéficience humaine (VIH) [Salahuddin et al., 1986]. Observé par microscopie électronique, ce nouvel herpèsvirus fut d'abord baptisé « HBLV » (Human B lymphotropic virus) [Josephs et al., 1986] en raison de son tropisme in vitro pour des cellules B fraîchement isolées. D'autres travaux postérieurs démontrèrent un lymphotropisme T [Lusso et al., 1988, Lusso et al., 1987], ce qui valut le changement d'appellation pour HHV-6 [Ablashi et al., 1987]. L'HHV-6 forme avec l'HHV-7 le genre Roseolovirus de la sous famille des Betaherpesvirinae [Black and Pellett et al., 1999, Caserta et al., 2001] auquel appartient également le cytomégalovirus humain. 24 Figure 1 : Arbre phylogénique des Herpesviridae d'après [Moore et al., 1996] Il existe deux types d'HHV-6, A et B. Ils se différencient sur des critères de croissance virale, d'épidémiologie, de séquences génomiques et de propriétés antigéniques [Ablashi et al., 1991]. I.2. Fréquence et transmission L'épidémiologie de l'HHV-6 est marquée par son caractère ubiquitaire, non saisonnier et sa séroprévalence élevée chez l'enfant dès le plus jeune âge. I.2.1. Incidence et prévalence La répartition géographique mondiale de l'HHV-6 est variable. Les séroprévalences de l'un et/ou l'autre des deux variants atteignent 70 à 100% selon les populations concernées [Bhattarakosol et al., 2001, Ranger et al., 1991, Wu et al., 1997]. Dans les pays développés, plus de 95% de la population est estimée séropositive. Le contact avec le virus se fait 25 généralement entre l'âge de 6 et 15 mois [Enders et al., 1990, Okuno et al., 1991]. La séroprévalence augmente avec l'âge [Bhattarakosol et al., 2001]. I.2.2. Transmission La principale voie de transmission est sans aucun doute la salive, l'ADN de l'HHV-6 étant très souvent retrouvé dans la salive et les glandes salivaires, site de latence de l'HHV-6B [Collot et al., 2002, Di Luca et al., 1995, Fox et al., 1990, Zhao et al., 1997]. La transmission est donc principalement horizontale par voie oro-pharyngée et touche de ce fait surtout les personnes vivant en promiscuité : enfants, parents-enfants [Mukai et al., 1994, van Loon et al., 1995]. La transmission se fait majoritairement dans les deux premières années de la vie par voie salivaire pour l'HHV-6B [Levy et al., 1990], pour l'HHV6A, virus plutôt neurotrope, l'âge et le mode de contamination restent encore indéterminés (Tableau 1). D'autres modes de transmission ont été évoqués, tels que les dons de sang ou les transplantations chez les patients séronégatifs [Hudnall et al., 2008, Yoshikawa et al., 1998], la transmission sexuelle et la transmission intra-utérine, suite à la détection d'ADN HHV-6 dans le tractus génital de 20% de femmes enceintes [Maeda et al., 1997, Okuno et al., 1995] et dans des échantillons de sang de cordon de nouveau-nés ainsi que dans des foetus issus de fausses couches [Adams et al., 1998, Aubin et al., 1992]. La dissémination oro-fécale commune chez les enfants reste trop peu documentée malgré la détection de l''ADN de l'HHV-6 dans des selles [Suga et al., 1998]. Plus récemment, un dernier mode de transmission a été mis en évidence, lorsque dans de rares cas le génome de l'HHV-6 est transmit par voie héréditaire après que celui-ci se soit intégré au sein du génome cellulaire des cellules germinatives d'un ou des parents [Daibata et al., 1999, Hall et al., 2008, Tanaka-Taya et al., 2004]; l'intégration chromosomique du génome de l'HHV-6 sera décrite ultérieurement. 26 Tableau 1: Les voies de transmission de l'HHV-6 Voies Fréquence Références Oropharyngée salive et sécrétions respiratoires +++ Don de sang, tissus, organes + [Hudnall et al., 2008, Yoshikawa et al., 1998] Sexuelle, intra-utérine + [Aubin et al., 1992] Orofécale ± [Suga et al., 1998] Virus intégré + [Daibata et al., 1999, Tanaka-Taya et al., 2004, Hall et al., 2008] [Fox et al., 1990] [Di Luca et al., 1995] [Collot et al., 2002] I.3. Morphologie et structure I.3.1. Le virion La structure de l'HHV-6 est analogue à celle des autres herpèsvirus (Figure 2), elle est composée de quatre éléments structuraux : un noyau, une nucléocapside, un tégument, une enveloppe. Les virions matures possèdent un diamètre de 160 à 200 nm de diamètre et la nucléocapside mesure 90 à 110 nm [Biberfeld et al., 1987, Yoshida et al., 1989]. La capside, à symétrie icosaédrique et contenant 162 capsomères, renferme le génome viral sous forme d'un ADN bicaténaire linéaire à l'intérieur d'un corps dense aux électrons. Le tégument, matrice protéique dont l'épaisseur varie entre 20 et 40 nm, occupe l'espace entre la nucléocapside et l'enveloppe. Celle-ci est constituée d'une bicouche lipidique dérivant des membranes de la cellule hôte sur laquelle sont ancrées des glycoprotéines virales. 27 Figure 2 : Photo en microscopie électronique d'une particule d'herpèsvirus (http://web.uct.ac.za/depts/mmi/stannard/herpes.html) Tégument Enveloppe Capside Core Glycoprotéine Figure 3 : Représentation schématique d'une particule virale d'HHV-6 28 I.3.2. Le génome Le génome de l'HHV-6 est constitué d'une molécule d'ADN bicaténaire linéaire d'environ 160 kb pour le type B et 140 kb pour le type A. Les souches U1102 de l'HHV-6A et Z29 et HST de l'HHV-6B ont entièrement été séquencées [Dominguez et al., 1999, Gompels et al., 1995, Isegawa et al., 1999]. L'architecture génomique de l'HHV-6 (Figure 1) est particulière parmi les herpèsvirus car elle inclut une région unique U de 143-144 kb bordée par des répétitions terminales DR (Direct Repeats) de 8-9 kb. Figure 4 : Organisation génomique de l'HHV-6 [Dominguez et al., 1999] DRL et DRR : Répétition directe gauche et droite R1, R2, R3 : Répétitions internes, gènes intervenant dans la stimulation de la transcription Gènes β : Bloc des gènes uniques aux β-herpesvirinae Blocs I à VII : Blocs des gènes conservés communs aux Herpesviridae. Les gènes uniques à HHV-6A (U1102) sont DR4, DR5, DR8, U1, U61, U78, U88, U92 et U93 ; ceux uniques à HHV-6B (Z29) sont appelés B1 à B9. La région R0 n'est retrouvée que chez HHV-6B (Z29). 29 Les cadres ouverts de lecture (open reading frame, ORF) de la région unique sont appelés U1-U100; leurs fonctions sont présentées dans le Tableau 2. Ce segment U contient sept blocs de gènes caractéristiques des Herpesviridae codant pour les composants du virion et pour les enzymes nécessaires à la réplication de l'ADN [Campadelli et al., 1999]. Il contient également un bloc commun aux Betaherpesvirinae (U2 à U19) et des gènes spécifiques des Roséolovirus HHV-6 et 7 (U20-U24, U26, U85 et U100). Au sein des régions terminales les DR contiennent des motifs de clivage et d'empaquetage nommés pac-1 et pac-2 ainsi qu'une répétition d'hexanucléotides (GGGTTA)n [Thomson et al., 1994]. Les régions pac-1 et pac-2 sont impliquées dans la réplication et dans la latence du virus [Gompels and Macaulay et al., 1995, Torelli et al., 1995]. Les répétitions d'hexanucléotides, identiques aux hexamères télomériques des vertébrés, pourraient quant à elles être impliquées dans l'intégration du virus au génome cellulaire [Daibata et al., 1999]. D'autres ensembles de réitérations internes existent, ils se situent à l'extrémité droite du segment U et sont dénommés R1, R2 et R3 [Clark et al., 2000]. Séquences et divergences génétiques des génomes de l'HHV-6A et B ont été étudiés par plusieurs équipes [Dominguez et al., 1999, Gompels et al., 1995, Isegawa et al., 1999]. L'homologie globale entre les deux variants est de 90 %; 88 des 97 gènes sont communs, neuf sont spécifiques de chaque variant. Les similarités génétiques se situent dans la partie médiane de la séquence U (U2-U85), les différences se situent surtout dans les gènes U86 à U100. 30 Tableau 2: Exemples de fonctions des ORF du ségment U de l'HHV-6 [Gompels and Macaulay et al., 1995] Gène Fonctions U3 Transactivateur, famille des gènes US22 du CMV U11 pp100, protéine structurale majeure antigénémique U12 Récepteur de chimiokines U16/17 Transactivateur, famille des gènes US22 du CMV U27 pp41, facteur de processivité de l'ADN pol U38 Sous unité catalytique de l'ADN polymérase U39 Glycoprotéine gB U41 Protéine majeure de liaison à l'ADN U43-74-77 Complex hélicase/primase U48 Glycoprotéine gH U51 Récepteur de chimiokines U65 Protéine du tégument U69 Kinase du ganciclovir, phosphotransférase U73 Protéine de liaison à l'origine U79/80 Protéine intervenant dans la réplication de l'ADN U81 Uracil-ADN glycosylase U82 Glycoprotéine gL U83 Chimiokine virale U86/87 Transactivateur, protéine IE2, locus IE-A U89 Transactivateur, protéine IE1, locus IE-A U100 Glycoprotéine gQ, complex gp82-105 I.4. Cycle de réplication virale I.4.1. Adsorption et entrée du virus • Fixation de la particule virale La fixation de la particule virale sur la membrane cellulaire se fait sur un récepteur bien identifié : le CD46 [Santoro et al., 1999], récepteur des cellules nucléées impliqué par 31 ailleurs dans la régulation du complément. Ce récepteur est présent à la surface d'un grand nombre de cellules, or l'HHV-6 ne se fixe pas sur toutes ces cellules, il existe donc probablement d'autres (co)récepteurs non identifiés à ce jour. Le complexe de glycoprotéines gH/gL/gQ1/gQ2 codé respectivement par les gènes U48, 82 et 100 chez l'HHV-6A, sert de ligand viral pour la fixation au CD46 cellulaire [Mori et al., 2003b], ce qui n'est pas le cas pour l'HHV-6B HST [Mori et al., 2004] (Figure 5). D'autres études ont montré que d'autres souches d'HHV-6B PL-1 et Z29 se fixaient sur le CD46 par leur complexe gH/gL/gQ1/gQ2 [Pedersen et al., 2006, Santoro et al., 1999]. Le mécanisme de fixation de l'HHV-6B reste encore interrogatif. Un autre complexe gH/gL/gO codé par le gène U47 est évoqué dans le processus de fixation cellulaire, ce complexe se fixerait sur un autre récepteur que le CD46 [Mori et al., 2003a, Pedersen et al., 2006]. La fixation de l'HHV-6 apparaît donc complexe et varie aussi bien selon les variants A et B, ce qui expliquerait peut-être leur différence de tropisme, que selon les souches au sein d'un même variant [Pedersen et al., 2006]. Figure 5: Interactions complexes glycoprotéines virales de l'HHV-6 et récepteurs cellulaires [Mori et al., 2009] • Fusion de l'enveloppe virale La fusion de l'enveloppe virale à la membrane cellulaire est un processus complexe encore mal défini. Il ferait intervenir à l'instar des autres herpèsvirus les complexes gH, gL décrits auparavant et surtout gB codé par le gène U39. Une étude montre que la présence d'anticorps anti-gH et anti-gB inhiberait la fusion cellulaire de l'HHV-6 [Foa-Tomasi et al., 1991, Mori et al., 2002]. Les gH et gL interviendraient avec le gQ dans l'interaction avec le 32 CD46 comme décrit auparavant, le gB, par fixation sur un récepteur inconnu, entraînerait la fusion cellulaire [Takeda et al., 1996] (Figure 6). Figure 6: Processus de fusion cellulaire de l'HHV-6 selon [Mori et al., 2009] I.4.2. Transcription et réplication de l'ADN • Décapsidation Après fusion de l'enveloppe virale, la nucléocapside est transportée vers le pore nucléaire via le réseau microtubulaire du cytoplasme. Une fois le pore nucléaire atteint, seul le génome viral est libéré dans le nucléoplasme (figure 7). • Transcription et réplication de l'ADN viral A l'instar des autres herpèsvirus, le virus utilise les outils de transcription et de traduction cellulaires pour produire trois classes de protéines virales [Braun et al., 1997b] : - les protéines IE (Immediate Early), très précoces, synthétisées en quelques heures après l'infection; elles jouent un rôle dans la régulation de l'expression d'autres gènes. Il a été récemment rapporté que deux protéines IE1 et IE2 distinguaient les deux variants HHV6A et HHV-6B (L.Flamand, abstract 3-2, 6th International Conference on HHV6 & 7, 2008). 33 - les protéines E (Early), précoces, sont détectées 3 à 8h après l'infection, elles jouent un rôle dans le métabolisme et la réplication de l'ADN ainsi que dans la régulation des gènes tardifs. - les protéines L (Late), tardives, détectables à partir de 8h après l'infection; elles jouent un rôle dans l'assemblage des particules virales matures La réplication de l'ADN proprement dite fait, elle, intervenir sept facteurs codés par des gènes viraux. Ainsi la protéine de liaison, codée par le gène U73, se lie à l'origine de réplication lytique (ori-lyt) et dénature une portion du génome viral qui s'est préalablement circularisé par juxtaposition des DRs à son entrée dans le noyau. Cette liaison est maintenue par un complexe hélicase/primase impliquant les produits des gènes U43, U74 et U77. Cette étape fournit des amorces ARN pour la synthèse d'un ADN simple brin. Ce brin d'ADN est stabilisé par la protéine majeure de liaison à l'ADN (codée par le gène U41) dans la fourche de réplication. La synthèse du brin complémentaire est catalysée par l'ADN polymérase (impliquant le gène U38) et dirigée par un facteur de processivité (impliquant le gène U27). Alors que la formation des brins néoformés se poursuit, la structure circulaire de réplication est coupée pour former un cercle roulant intermédiaire. I.4.3. Assemblage des virus et excrétion cellulaire • Encapsidation Les longs brins d'ADN concatémériques sont clivés puis encapsidés grâce à l'intervention de protéines de clivage et d'empaquetage activées par les signaux spécifiques d'empaquetage pac présents aux extrémités du génome viral. • Bourgeonnement Les nucléocapsides nouvellement formées bourgeonnent à partir de la membrane nucléaire et sortent du noyau avec une membrane intermédiaire dépourvue de glycoprotéines. Une fois dans le cytoplasme, elles acquièrent leur tégument au sein du tégusome puis leur enveloppe et leurs glycoprotéines au niveau du complexe golgien. Les virions formés sont pris en charge par des vésicules de transport vers la surface cellulaire et sont libérés par exocytose ou lyse cellulaire. 34 La durée totale depuis l'infection jusqu'à la libération de nouveaux virions est approximativement de 72h. 35 Figure 7: Cycle réplicatif de l'HHV-6 [De Bolle et al., 2005b] 36 I.5. Physiopathologie I.5.1. Tropisme cellulaire Comme nous l'avons évoqué auparavant, l'HHV-6 utilise principalement le récepteur CD46 pour se fixer à la surface cellulaire de ses cellules cibles. Ce récepteur est présent à la surface de toutes les cellules nucléées, et l'HHV-6 ne se fixe pas sur toutes ces cellules, mais ceci peut peut-être déjà expliquer son tropisme étendu. In vivo, l'HHV-6 a un tropisme préférentiel pour les cellules mononucléées. Ainsi l'HHV-6 peut infecter les lymphocytes CD4+ et CD8+, les cellules NK, les monocytes et macrophages, les cellules dendritiques, les fibroblastes, les cellules épithéliales, les cellules endothéliales des vaisseaux et les précurseurs de la moelle osseuse [Asada et al., 1999, Luppi et al., 1999, Robert et al., 1996, Simmons et al., 1992]. L'HHV-6A semble avoir un tropisme plus étendu, notamment un neurotropisme marqué [Hall et al., 1998] et il est le seul à infecter les lymphocytes CD8+, les cellules NK et les fibroblastes embryonnaires [Grivel et al., 2003]. Les lymphocytes CD4+ sont la cible optimale pour une réplication complète pour les deux variants [Lusso and Gallo et al., 1995, Lusso et al., 1995, Lusso et al., 1988] [Takahashi et al., 1989]. In vitro, l'HHV-6 peut être différencié en types par sa capacité à infecter des lignées particulières continues de cellules T (Abalshi et al., 1993) mais il est toutefois difficile à cultiver. L'HHV-6A souche GS est le plus souvent cultivé sur la lignée humaine T lymphoblastoïde HSB-2 alors que la souche U1102 peut être propagée au sein de cellules humaines J JHAN. La souche prototype Z29 de l'HHV-6B a été adaptée à la culture sur la lignée lymphocytaire T Molt-3, alors que la souche HST de l'HHV-6B croît préférentiellement au sein de cellules lymphoblastoïdes T humaines MT4 [Braun et al., 1997a, Clark et al., 2000]. I.5.2. Effets sur la cellule hôte L'HHV-6 induit sur la cellule hôte de profondes modifications, incluant une marginalisation de la chromatine [Nii et al., 1990], un arrêt de la synthèse d'ADN [Di Luca et al., 1990] et une stimulation généralisée de la synthèse protéique au sein de la cellule hôte [Balachandran et al., 1989, Black et al., 1992]. La conséquence de ces modifications 37 est le développement d'un effet cytopathogène se manifestant par une ballonisation provoquant la formation de cellules géantes multinucléées ou syncytia [Salahuddin et al., 1986]. Des études in vitro ont montré que l'HHV-6 a des propriétés immunomodulatrices. L'HHV-6A inhibe l'expression de CD3 dans les cellules T infectées, altérant la signalisation transmembranaire médiée par l'immunité [Lusso et al., 1991]. L'infection des PBMC semble également supprimer les fonctions des cellules T, entraînant une diminution de la synthèse d'IL-2 et de la prolifération cellulaire [Flamand et al., 1995]. L'HHV-6 stimule l'expression de certaines cytokines. Ainsi, in vitro l'infection des PBMC induit l'expression des cytokines pro-inflammatoires : HHV-6A (mais pas HHV-6B) stimule la synthèse d'IFN-γ et d'IL-1β, HHV-6A et HHV-6B stimulent l'expression de TNF-α [Flamand et al., 1991, Santoro et al., 1999]. L'expression d'IL-10 et d'IL-12 est stimulée dans les monocytes/macrophages [Li et al., 1997] L'infection des PBMC par HHV-6A conduit à une augmentation de la cytotoxicité des cellules NK, ce qui peut passer en partie par une expression accrue d'IL-15 [Flamand et al., 1996]. Le virus a également été rapporté comme inducteur de l'apoptose dans les cellules T CD4+ [Dockrell et al., 2003]. De plus, l'HHV-6 et plus particulièrement le type A, a la capacité de moduler la fluidité membranaire de la cellule et d'induire l'expression de CD4 et d'autres molécules de la membrane cellulaire dans les cellules infectées [Clark et al., 2000, Torrisi et al., 1999]. Les propriétés immunomodulatrices de l'HHV-6A font que ce variant présente généralement une pathogénicité plus importante que l'HHV-6. I.5.3. Latence Au même titre que les autres herpèsvirus, l'HHV-6 persiste toute la vie au sein de son organisme hôte. Cette persistance se caractérise soit par un état latent entrecoupé de périodes de réactivation, soit par une réplication chronique avec une production continue plus ou moins importante de particules infectieuses. Pendant l'infection latente, aucun virus infectieux n'est produit, l'intégrité de la cellule hôte est préservée et les antigènes viraux caractéristiques d'une infection productive ne sont pas exprimés, l'HHV-6 est ainsi à l'abri du système immunitaire de l'hôte infecté. Seuls quelques transcrits associés à la latence de l'HHV-6, transcrits du gène U94 et les transcrits associés à la latence, peuvent être détectés. Au plan cellulaire, la latence peut être définie comme une infection au cours de laquelle le génome viral est présent sous forme épisomale non réplicative et à partir de laquelle il peut se réactiver. Au niveau de l'hôte infecté, la latence peut être 38 définie comme une phase cliniquement muette, pouvant aboutir à une réactivation du virus, c'est-à-dire à la reprise d'un cycle lytique. Cette réactivation de l'HHV-6 peut alors être symptomatique ou non. Les deux formes de persistance, latence et réplication chronique, peuvent être présentes au sein du même individu bien que les sites anatomiques les portant soient différents. Les glandes salivaires [Krueger et al., 1990] et le tissu cérébral semblent arborer l'infection chronique à HHV-6 alors que les monocytes [Kondo et al., 1991] et les cellules progénitrices de la moelle osseuse [Luppi et al., 1999] sont des sites probables de latence. Les mécanismes impliqués dans la mise en état de latence restent méconnus dans le détail, mais il semble que le gêne U94 joue un rôle important. U94 est un gène IE [Mirandola et al., 1998] exprimé à faible niveau pendant l'infection lytique [Rapp et al., 2000], mais est un transcrit majeur pendant la latence. Il a été le seul détecté dans les PBMCs des personnes saines suggérant le fait qu'il est capable d'établir et/ou de maintenir l'infection latente [Rotola et al., 1998]. La protéine U94 pourrait avoir une fonction dans la régulation de la latence soit en se liant à une séquence spécifique de l'ADN (comme le fait la protéine Rep de l'AAV-2), soit c'est un répresseur des gènes viraux IE (comme les transcrits LAT associés à la latence d'HSV-1) [Rotola et al., 1998]. On parle aussi de son éventuelle implication dans l'intégration de l'HHV-6 au sein du génome cellulaire (cf paragraphe intégration). Les transcrits issus des ORF U90-89 et U90-86/87, appelés LTs (latency-associated transcripts), semblent être associés à la latence [Kondo et al., 2002]. II. Manifestations cliniques et traitement des infections à HHV-6 II.1. Manifestations cliniques II.1.1. Au cours de la primo-infection La primo-infection à HHV-6 est, dans la plupart des cas, asymptomatique. La forme cliniquement apparente appelée roséole infantile ou sixème maladie infantile ou encore exanthème subit a été pour la première fois reconnue en 1988 [Yamanishi et al., 1988] 39 (Figure 8). Elle survient communément vers l'âge de 6 mois [Asano et al., 1994], et est caractérisée par une fièvre intense supérieure à 39°c de deux à trois jours, puis par un rash cutané caractéristique sur le tronc, le cou et le visage. Les complications les plus courantes sont des crises fébriles, des syndromes mononucléosidiques, des convulsions, des malaises, des otites, des symptômes gastro-intestinaux ou du tractus respiratoire, des méningites [Asano et al., 1994, Barone et al., 1995, Hall et al., 1994, Kondo et al., 1993, Torre et al., 2005, Ward and Gray et al., 1994]. Des complications plus sévères du système nerveux central (SNC), telles que des méningo-encéphalites et des encéphalopathies, existent mais sont rares [Birnbaum et al., 2005, Kato et al., 2003, Yoshikawa and Asano et al., 2000]. L'ADN de l'HHV-6 a été détecté dans les liquides céphalo-rachidiens (LCR) d'enfants ayant présentés des convulsions durant la primo-infection ou la réactivation. Il a également été rapporté des cas d'hépatites fulminantes, des dysfonctionnements hépatiques, des thrombocytopénies et des syndromes d'hémophagocytose [De Bolle et al., 2005a]. Chez l'adulte la primo-infection HHV-6 est plus que rare étant donné la forte séroprévalence chez l'enfant, et est donc mal documentée. Lorsqu'elle est symptomatique, elle se manifeste le plus souvent par un simple syndrôme mononucéosique [Akashi et al., 1993, Goedhard et al., 1995, Sumiyoshi et al., 1995] , mais des cas d'hépatite fulminante existent [Sobue et al., 1991]. Chez l'immunodéprimé, la primo-infection est bien plus symptomatique et même parfois fatale [Lau et al., 1998, Rossi et al., 2001]. Au niveau des variants, l'HHV-6B est le plus souvent impliqué dans les primoinfections dans les deux premières années de vie. Cela peut s'expliquer par le fait que l'HHV-6B réplique dans les glandes salivaires [Levy et al., 1990] et le mode principal de transmission de l'HHV-6 est comme nous l'avons vu précédemment la salive. Figure 8: Exanthème subit du nourrisson (http://aapredbook.aappublications.org/week/063_03.jpg) 40 II.1.2. Au cours de la réactivation II.1.2.1 Chez l'immunocompétent Chez l'immunocompétent, l'HHV 6 peut être responsable d'accès inexpliqués de fièvre avec polyadénopathies et convulsions, ou d'un syndrome mimant une mononucléose infectieuse. Au vu de la haute séroprévalence dans la population adulte, ces manifestations sont vraisemblablement attribuables à une réactivation virale endogène. Des rares cas d'hépatite fulminante, d'insuffisance hépatique, de thrombocytopénie, de paralysie faciale, et des atteintes neurologiques à type de méningo-encéphalite sont possibles. Le neurotropisme marqué de l'HHV-6A le rend suspect dans de nombreuses atteintes du système nerveux central. En effet, l'HHV-6 a été trouvé in situ dans les oligodendrocytes des plaques de démyélinisation [Challoner et al., 1995]. Des niveaux élevés de récepteur CD46 soluble dans le sérum et le liquide céphalo-rachidien ont été corrélés à la présence d'ADN de l'HHV-6 dans le sérum de patients atteints de SEP [Soldan and Jacobson et al., 2001]. Ces niveaux accrus de CD46 avaient précédemment été décrits dans plusieurs désordres auto-immuns, dont la SEP. Il existe d'autres cas divers d'adultes immunocompétents présentant une maladie aiguë du système nerveux central due à une infection active à HHV-6 [Beovic et al., 2001, Denes et al., 2004, Mackenzie et al., 1995]. D'autre part l'HHV-6 a été, à l'origine, isolé chez des patients présentant des désordres lymphoprolifératifs [Salahuddin et al., 1986]; son rôle possible dans l'oncogenèse a été recherché. En effet, certains gènes d'HHV-6 codent des protéines transactivatrices, dont la pDR7 qui a été décrite comme ayant des propriétés de transformation ([Kashanchi et al., 1997]. II.1.2.2 Chez l'immunodéprimé • Greffés de CSH L'incidence des réactivations HHV-6 varie de 30 à 91 %, auto et allo greffes confondues (annexe 1), suivant les études. Si beaucoup sont asymptomatiques, les réactivations symptomatiques apparaissent pratiquement toutes dans les 15 à 100 jours qui suivent la greffe. Ce sont les syndromes fébriles et les rashs cutanés les symptômes les plus couramment rencontrés [Asano et al., 1991, Cone et al., 1993, Wilborn et al., 1994, Yoshikawa et al., 1991]. Des cas d'encéphalites à HHV-6, parfois fatales, sont aussi 41 avancées [Drobyski et al., 1994], elles sont confirmées par la détection du génome de l'HHV-6 dans le LCR et en l'absence de toute autre étiologie. La réactivation de l'HHV-6 dans les greffes de CSH est également une importante cause d'insuffisance médullaire [Carrigan and Knox et al., 1994, Drobyski et al., 1993], de retard de sortie d'aplasie [Singh and Carrigan et al., 1996], et de thrombopénies prolongées [Zerr et al., 2005]. Les leucopénies sont les plus courantes (83 %), suivis par des thrombopénies (67 %) et des anémies (50 %). L'insuffisance médullaire peut être transitoire ou chronique [Knox and Carrigan et al., 1996]. L'atteinte des lignées myéloïde et plaquettaire est corrélée à l'intensité de la réplication virale [Boutolleau et al., 2003] [Ogata et al., 2006]. L'implication de la réactivation HHV-6 dans les pneumonies interstitielles est elle controversée. D'abord évoquée par Carrigan en 1993 devant un tableau de pneumopathie interstitielle idiopathique avec des biopsies pulmonaires positives en HHV-6 et des charges virales croissantes, elle n'a pas été retrouvée dans une étude japonaise d'une cohorte pédiatrique [Yoshikawa et al., 2002]. D'autre part, un lien semble établi entre la GVHD et l'infection à HHV-6, la fréquence des infections à HHV-6 augmente avec la sévérité de la GVHD [Wilborn et al., 1994], et l'association avec la GVHA est retrouvée significative dans d'autres études [Hentrich et al., 2005, Wang et al., 2008]. • Greffe d'organes solides Le pourcentage d'infections à HHV-6 en post-greffe d'organes est important, il atteint 30 à 60 % chez les greffés rénaux selon les études [DesJardin et al., 1998], 24 % pour les greffes hépatiques [Dockrell et al., 1997], et est trop peu étudié chez les greffés cardiaques. Bien que la plupart du temps asymptomatique, les symptômes imputés à HHV6 après élimination des autres étiologies sont par ordre décroissant, les syndromes fébriles et les rashs cutanés [Humar et al., 2002, Jacobs et al., 1994], les myelosuppressions [Morris et al., 1989, Singh et al., 1997, Singh et al., 1995], des hépatites et rejet de greffons [Acott et al., 1996, Hoshino et al., 1995, Humar et al., 2002, Lautenschlager et al., 1998, Okuno et al., 1990], des troubles neurologiques [Rogers et al., 2000] et même des encéphalites [Montejo et al., 2002, Singh and Paterson et al., 2000]. • Chez le sidéen La réactivation de l'HHV-6 chez les patients atteints du VIH est assez fréquemment détectée mais ses répercutions cliniques sont rares. Dans des cas isolés, la réactivation de l'HHV-6 chez des patients sidéens a été associée à des encéphalites [Knox et al., 1995], des pneumopathies [Nigro et al., 1995] ou des rétinites [Qavi et al., 1995, Reux et al., 1992]. A 42 l'heure actuelle on ignore si l'HHV-6 agit simplement en tant que pathogène opportuniste ou agit en synergie avec le VIH sur la progression de la maladie. II.2. Traitement Chez l'immunocompétent, les infections à HHV-6 sont asymptomatiques ou limitées chez le jeune enfant et ne nécessitent donc normalement pas de traitement. En revanche chez l'immunodéprimé les infections symptomatiques peuvent être graves et nécessitent un traitement. Il n'existe pas de médicament antiviral spécifique de l'HHV-6, l'arsenal thérapeutique proposé est donc celui des antiherpétiques et plus particulièrement ceux utilisés sur un autre membre des Betaherpesvirinae, le CMV. Sont potentiellement actifs sur le CMV, les analogues nucléosidiques (Ganciclovir et Valganciclovir, Acyclovir et Valaciclovir), un analogue nucléotidique (Cidofovir) et un analogue de pyrophosphate (Foscarnet). L'efficacité clinique de ces molécules n'a encore jamais été réellement prouvée, on se base actuellement sur les cas de littérature qui décrivent l'efficacité des thérapies antivirales instaurées avec succès chez des patients au contexte clinique très variable. 43 Tableau 3: Efficacité des antiviraux anti-HHV-6 [de Pagter et al., 2008a] Antiviral Type d'antiviral Efficacité in vitro EC 50 (μM)* Efficacité in vivo rapportée Auteurs Ganciclovir Analogue nucléosidique Bonne 69 Bonne [Mookerjee and Vogelsang et al., 1997]; [Yoshida et al., 2002] Aciclovir Analogue nucléosidique Faible 185 Inefficace [Yoshida et al., 1998] Foscarnet Analogue pyrophosphate Excellente 25 Efficace [Deray et al., 1989] Cidofovir Analogue nucléotidique Excellente 9,8 Efficace [Denes et al., 2004] Maribavir Analogue nucléosidique Inefficace >100 Inefficace [Williams et al., 2003] Cyclopropavir Analogue méthylenecyclopropane Bonne 7,8 En cours d'étude [Kern et al., 2005] *EC50: 50% concentration efficace. Toutes les EC50 ont été déterminées sur des cellules MOLT-3-T infectées par de l'HHV-6B de la souche Z-29, sauf pour le cyclopropavir où ce sont des lymphocytes de sang de cordon qui ont été utilisés 44 • Analogues nucléosidiques L'Acyclovir (ACV) et le Ganciclovir (GCV) sont des analogues de la désoxyguanosine qui doivent être sous forme triphosphorylée pour être actifs. Dans le cas de l'HHV-6, le premier groupement phosphate, qui convertit l'analogue de nucléosides en son dérivé monophosphate, est ajouté par une phosphotransférase codée par le gène U69. L'expression de cette protéine permet la phosphorylation du GCV [Ansari and Emery et al., 1999]. Les deux autres phosphorylations sont assurées par des kinases cellulaires. Sous leurs formes actives triphosphates, l'ACV et le GCV entrent en compétition avec la dGTP en tant que substrat pour l'ADN polymérase virale. Suite à son insertion dans l'ADN en cours de réplication, la synthèse de l'ADN prend fin. L'activité in vitro du GCV contre HHV6 est très supérieure à celle de l'ACV [Agut et al., 1991, Manichanh et al., 2000]Yoshida et al., 1998). En raison de leurs faibles activités l'ACV et le Val-ACV ne sont donc utilisés ni dans le traitement ni dans la prévention des maladies à HHV-6. A l'inverse, plusieurs cas rapportés montrent l'efficacité clinique du GCV in vivo chez des greffés de moelle osseuse ou d'organe solide [Johnston et al., 1999, Mookerjee and Vogelsang et al., 1997, Paterson et al., 1999, Rieux et al., 1998, Yoshida et al., 2002], bien que quelques cas d'infection fulminante à HHV-6 n'aient montré aucune réponse [Rossi et al., 2001]. L'utilisation du GCV en prophylaxie, à l'inverse de l'ACV, s'est montrée efficace en empêchant la réactivation d'HHV-6 chez des receveurs de moelle osseuse et de cellules souches [Rapaport et al., 2002, Tokimasa et al., 2002]. Cependant le GCV est à manier avec précaution car il peut causer d'importants effets secondaires hématotoxiques dosedépendants [McGavin and Goa et al., 2001]. • Analogues nucléotidiques Le Cidofovir (CDV) est un analogue des nucléosides phosphonates qui appartient à la famille des dérivés phosphonylméthoxyalkyl des purines et des pyrimidines. Etant donné que sa structure primaire comprend un groupement phosphate, il n'a pas besoin d'être phosphorylé. Les kinases cellulaires le convertissent en sa forme diphosphate qui est alors un inhibiteur compétitif de l'ADN polymérase viral. Sa sélectivité est assurée par la plus grande affinité du CDV diphosphate pour l'ADN polymérase virale que pour les ADN polymérase cellulaires. Le CDV montre une forte activité contre l'HHV-6 in vitro [Reymen et al., 1995] et c'est le composé le plus actif sur l'HHV-6 avec le foscarnet. Cependant il présente une néphrotoxicité importante [Denes et al., 2004]. • Analogues de pyrophosphate Le Foscarnet (PFA) est un analogue des pyrophosphates inorganiques qui ne nécessite pas d'activation préalable par les TK virales ou cellulaires. Le PFA bloque le site de liaison 45 des pyrophosphates inorganiques sur l'ADN polymérase et empêche ainsi le clivage des NTP et le transfert des pyrophosphates inorganiques sur l'ADN polymérase virale. Des études ont montré l'utilisation réussie du Foscarnet dans le traitement des encéphalites à HHV-6 chez des receveurs de greffe [Bethge et al., 1999, Zerr et al., 2002], alors que d'autres ont eu un résultat décevant [Rossi et al., 2001, Tiacci et al., 2000]. • Résistance La première étude de résistance d'HHV-6 aux antiviraux a été menée par Manichanh en 2001 [Manichanh et al., 2001]. Son équipe a isolé un mutant après l'avoir soumis à des concentrations croissantes de GCV les concentrations inhibitrices IC50 du mutant HHV-6 étaient 24, 52 et trois fois plus élevées que les IC50 de la souche sauvage, respectivement pour le GCV, le CDV et le PFA. Deux mutations de substitution ont alors été identifiées : M318V dans la phosphotransférase pU69 (analogue de M460V/I de la pUL97 du CMV [Baldanti et al., 2002], et A961V dans l'ADN polymérase pU38 d'HHV-6. La mutation M318V a également été détectée par PCR sur des PBMC infectées par l'HHV-6. Ces PBMC ont été isolées d'un patient atteint du SIDA longtemps traité par du GCV pour une infection à CMV. Par la suite, la même équipe a développé une PCR quantitative en temps réel permettant de mettre en évidence, lors d'essais anti-viraux, la résistance au GCV due à cette mutation [Mace et al., 2003]. Safronetz [Safronetz et al., 2003] a pu évaluer l'impact d'une série de mutations de la pU69 d'HHV-6. Ces mutations ont été introduites à des positions correspondant aux codons de la pUL97 du CMV conférant la résistance au GCV. Les substitutions M318V, C448G, C463Y de pU69, correspondant respectivement aux mutations M460V, C592G, C607Y de pUL97, altèrent significativement la phosphorylation du GCV par pU69 et confèrent ainsi la résistance d'HHV-6 au GCV. III. Intégration Ce phénomène, bien qu'excessivement rare ou sous estimé, a été pour la première fois évoqué par Luppi et al. [Luppi et al., 1993] chez trois patients atteints de lymphomes et de sclérose en plaque par la mise en évidence de sites d'intégration de l'HHV-6 au niveau des extrémités télomériques du chromosome 17 (17p13) par technique FISH (Fluorescence In Situ Hybridation) au sein des PBMCs de ces patients. Des études britanniques chez des donneurs de sang et japonaises dans une population suspectée infectée par l'HHV-6 évaluent l'incidence de ce phénomène respectivement à 0,8% et 0,21% [Leong et al., 2007, 46 Tanaka-Taya et al., 2004]. Une étude italienne plus récente chez des greffés de CSH et d'organes solides conclue à une incidence de 0,9% [Potenza et al., 2009]. Le principal élément d'orientation est à la base dans toute ces études la présence d'une charge virale très importante (≥ 1copie/cellule) et persistante dans les cellules mononucléées du sang périphérique [Clark et al., 1996, Clark et al., 2006, Leong et al., 2007, Ward et al., 2006, Ward et al., 2005], non régressive sous traitement [Hubacek et al., 2007b]. L'intégration de l'HHV-6 au génome cellulaire a été confirmée pour certains par hybridation fluorescente in situ [Daibata et al., 1998, Morris et al., 1999] ou par détection de l'HHV-6 dans les follicules capillaires [Ward et al., 2006]. Ward évoque une intégration génomique devant des charges virales dans le sang > 7 log, dans le sérum > 5,3 log, et dans les follicules capillaires > 4,2 log. Les mécanismes en jeux dans l'intégration génomique sont encore peu connus et peu étudiés. Elle se ferait via les DRs et notamment les séquences répétées terminales (TTAGGG)n identiques aux hexamères télomériques des chromosomes humains [Morris et al., 1999] et avec lesquelles ils se recombineraient. En revanche, les sites d'intégration diffèrent suivant les études, 17p13 [Morris et al., 1999], 1q44 (Daibata et al, 1998a), 22q13 (Daibata et al, 1998b; Tanaka-Taya et al, 2004), 11p15.5 [Clark et al., 2006] et 9q34, 10q26, 19q13 [Nacheva et al., 2008]. Le phénomène d'intégration se déroulerait pendant la période de latence où la protéine U94, fortement exprimée pendant cette période jouerait un rôle dans l'intégration de l'ADN viral au sein du génome de la cellule hôte. Comme son homologue la protéine rep chez l'AAV-2, qui permet l'intégration de l'AAV-2 en ciblant des séquences d'ADN spécifiques, la protéine U94 qui présente les mêmes propriétés, pourrait agir de la même manière [Rotola et al., 1998]. Les deux variants A et B de l'HHV-6 sont tous les deux impliqués dans ce phénomène [Clark and Ward et al., 2008]. La découverte par une équipe japonaise [Daibata et al., 1999] lors d'une étude familiale par FISH sur des PBMCs, de formes intégrées de l'HHV-6 (CIHHV-6) sur le chromosome 22q13 chez une patiente atteinte d'un lymphome de burkitt, 1q44 chez son mari, et l'association 22q13 et 1q44 chez leur fille, a pour la première fois évoqué la possibilité d'une transmission héréditaire de l'HHV-6 intégré. Cette étude poussée sur trois générations montre la persistance d'une forme intégrée au niveau du site 1q44 sur les trois générations. Une étude plus récente et plus étendue chez des nouveaux nés américains montre que 86% des infections congénitales à HHV-6 sont de forme intégrée [Hall et al., 2008], la forme intégrée étant évoquée sur des critères de charges virales HHV-6 élevée (≥1 gec/cellule) et sur la positivité HHV-6 des follicules pileux. La transmission via la greffe de CSH a également été évoqué chez des receveurs présentant des charges virales HHV-6 élevées (≥1 gec/cellule) en post-greffe alors qu'elles étaient négatives en pré-greffe [Jeulin et al., 2009b], donneurs et receveurs ayant dans certaines études été testés par 47 technique FISH montrant une intégration chromosomique au même endroit 17p13.3 [Clark et al., 2006]. Cliniquement, aucune étude ne documente à ce jour, une implication de l'intégration génomique de l'HHV-6. IV. Diagnostic des infections à HHV-6 Le diagnostic des infections à HHV-6, potentiellement grave, fait appel à plusieurs techniques qui dépendent aujourd'hui, au-delà des considérations économiques, de la sensibilité, de la spécificité et de la rapidité de la technique, mais également de la nature du prélèvement analysé et de l'état immunitaire du patient. Compte tenu de la forte séroprévalence de l'HHV-6 dans la population générale et de son caractère opportuniste chez l'immunodéprimé, la détection du génome de l'HHV-6, technique très sensible, spécifique et rapide, est actuellement la technique de choix. IV.1.1. Diagnostic direct IV.1.1.1 La culture cellulaire La mise en évidence de l'HHV-6 par culture cellulaire date de sa découverte en 1986, en effet le virus a été isolé en cultivant des cellules mononuclées de sang périphérique de patients avec des lymphocytes de donneurs sains préalablement stimulés par de l'interleukine 2 et de la phytohémagglutinine. Des cellules mononuclées de sang de cordon peuvent également être utilisées [Yamanishi et al., 1988]. Il faut 5 à 21 jours de culture pour observer la réplication virale sous forme d'un effet cytopathogène (ECP) caractéristique : cellules ballonisées géantes et réfringentes [Salahuddin et al., 1986, Taniguchi et al., 2000]. L'identification du virus impliqué, et notamment du variant, se fait ensuite par immunofluorescence à l'aide d'anticorps monoclonaux dirigés contre l'HHV-6 [Singh and Carrigan et al., 1996] ou par PCR. 48 Figure 9. Isolement de l'HHV-6 en culture cellulaire [Salahuddin et al., 1986, Taniguchi et al., 2000] a) b) cellules lymphoblastiques saines cellules lymphoblastiques infectées par l'HHV-6 (x200) C'est la technique de référence, elle met en évidence une infection réplicative et donc active. Cependant certaines souches donnent parfois un ECP invisible ou fugace. La technique est longue, coûteuse et peu sensible en général. Elle dépend de la qualité des lymphocytes du donneur et, pour les cellules en lignée, la sensibilité est très souvent faible. IV.1.1.2 Microscopie électronique L'avantage de cette technique est qu'elle met directement en évidence la particule virale. La sensibilité reste néanmoins faible et elle nécessite un équipement délicat et coûteux. 49 Figure 10. HHV-6 en microscopie électronique (Laboratoire de Virologie, Groupe hospitalier de la Pitié-Salpêtrière) IV.1.1.3 Détection d'antigènes La recherche se fait par immunofluorescence ou immunoperoxydase sur cellules ou tissus infectés. Les antigènes sont détectés par des anticorps monoclonaux spécifiques qui sont eux même mis en évidence à l'aide d'un conjugué marqué à l'isothiocyanate de fluorescéine ou à la péroxydase. Des anticorps réagissent avec des antigènes communs aux deux variants HHV-6 [Okuno et al., 1992], et d'autres sont spécifiques de chaque variant [Foa-Tomasi et al., 1995]. Ces techniques sont utilisées pour les confirmations de culture et également dans la détection d'antigène HHV-6 dans les tissus [Lautenschlager et al., 1998]. La détection d'antigènes directement dans les prélèvements sanguins existe, elle consiste à récupérer les PBMCs par centrifugation sur gradient de Ficoll-Hypaque et à les déposer sur une lame par cytocentrifugation. Des anticorps monoclonaux sont utilisés ensuite pour révéler un antigène commun aux deux variants et la protéine p101 spécifique de l'HHV-6B [Lautenschlager et al., 2000]. Les avantages de ces techniques sont que la présence d'antigène est un signe du caractère réplicatif du virus et que l'on peut différencier les deux variants, mais les anticorps sont parfois de mauvaise qualité et il existe des réactivités croisées avec d'autres herpèsvirus. Les antigènes peuvent être dégradés par les différentes étapes dont la fixation sur lame. IV.1.1.4 Détection du génome viral 50 La détection de l'ADN viral par amplification génique (PCR) est la méthode de détection la plus répandue actuellement. Elle est applicable à une grande variété d'échantillons biologiques tels que le sang total, le plasma, le LCR ou les biopsies. La difficulté à distinguer une infection latente d'une infection active, a très vite mis à mal la PCR qualitative. De nombreuses techniques de PCR quantitatives ont alors vu le jour. La première génération de PCR quantitative, compétitive [Clark et al., 1996], plutôt compliquée a laissé la place aux PCR en temps réel. Certains travaux se sont orientés sur des sondes Taqman, d'autres sur des sondes d'hybridation, avec des gènes cibles différents (Tableau 4). Pour la virémie HHV-6, signe d'une réactivation systémique, le dilemme du choix de l'échantillon, plasma ou cellules mononuclées, a été résolu par la possibilité d'utiliser le sang total [Achour et al., 2007, Deback et al., 2008]. Aujourd'hui la technique est commercialisée en kits qui utilisent essentiellement des sondes Taqman. Des Kits permettent de quantifier un gène de contrôle cellulaire afin de rapporter la charge virale HHV-6 par rapport au nombre de cellules sont en cours de validation. Tableau 4: Techniques PCR quantitative HHV-6 en temps réel Technique Prélèvements Gène Espèces étudié reconnues Auteurs TaqMan Plasma U67 Non [Locatelli et al., 2000] Hybridation Sang U11 Non [Aritaki et al., 2001] TaqMan Plasma, PBL IE1 Oui [Nitsche et al., 2001] TaqMan Sang, LCR U65-U66 Non [Gautheret-Dejean et al., 2002] TaqMan Salive, biopsie U22 Non [Collot et al., 2002] TaqMan Plasma, PBMC IE1 Oui [Sashihara et al., 2002] Hybridation PBMC U38 Oui [Safronetz et al., 2003] TaqMan plasma U38 Oui [Reddy and Manna et al., 2005] La détection et/ou la quantification des ARN messagers viraux, signe d'une réplication virale, est un complément intéressant mais reste complexe devant la fragilité de ces ARN, et ne semble pas adaptée à une approche systématique. Elle reste réservée au domaine de la recherche [Andre-Garnier et al., 2004, Caserta et al., 2004]. La PCR en temps réel a l'avantage d'être une technique sensible, spécifique et rapide, mais elle présente aussi la meilleure qualité de standardisation et de reproductibilité par rapport aux autres techniques. Cependant, elle présente les défauts communs aux techniques de biologie moléculaire: présence d'inhibiteur de la PCR, rigueur de 51 manipulation. Autre inconvénient de cette technique et non des moindres, on ne peut pas affirmer l'état dans lequel se trouve le virus, latent, réplicatif, ou intégré, à partir d'une charge virale ne reflétant pas le caractère réplicatif du virus. IV.1.2. Diagnostic indirect Les techniques sérologiques utilisent l'immunofluorescence ([Briggs et al., 1988, Krueger et al., 1991], les tests ELISA (enzyme-linked immunosorbent assay) [Nigro et al., 1995, Parker and Weber et al., 1993], ou l'immunoblot [LaCroix et al., 2000]. Compte tenu de la forte séroprévalence de l'HHV-6, le seul intérêt diagnostic de la recherche d'IgG est de prouver la séroconversion [Ueda et al., 1989]. La détection d'IgM, généralement signe d'une primo-infection ou d'une réactivation, n'est pas forcément un bon indicateur dans le cas de ce virus. En effet de nombreux enfants ayant une culture positive pour HHV-6 ne développent pas de réponse IgM détectable et environ 5 % des adultes sains présentent des IgM anti-HHV-6 à n'importe quel moment [Suga et al., 1992]. 52 TRAVAIL PERSONNEL I. Problématique Les études menées sur des populations allogreffées de CSH montrent que l'incidence des réactivations de l'HHV-6 est très variable de 28,0% à 78,0% (Annexe 1). Si les facteurs de risque et les manifestations cliniques associés à cette réactivation restent assez similaires entre ces études, les techniques de diagnostic ont largement évolué. La biologie moléculaire est aujourd'hui incontournable dans le diagnostic des infections à HHV-6 chez le sujet greffé de CSH par rapport aux autres techniques plus contraignantes, moins sensibles et moins spécifiques (isolement viral, antigénémie). L'avènement de la PCR en temps réel a permis de clarifier en partie la confusion entre infection latente et infection active, posée par la PCR qualitative [Boutolleau et al., 2006, Deback et al., 2008, Gautheret-Dejean et al., 2002]. Cependant la découverte récente de l'intégration de l'HHV6 au génome cellulaire a perturbé le diagnostic moléculaire des infections à HHV-6. La reconnaissance d'une intégration génomique apparaît aujourd'hui nécessaire pour interpréter correctement une charge virale très élevée dans le sang ou dans un organe et éviter un traitement inutile et une fausse orientation vers une réactivation virale. Or, les tests spécifiques de détection des formes intégrées (hybridation in situ) sont peu répandus et ne sont actuellement pas utilisables en routine. Il faut donc pouvoir proposer, à partir des moyens de diagnostic moléculaire utilisés en routine et des observations cliniques, des arguments permettant d'orienter la prise en charge des patients atteints d'infections à HHV-6 dans les allogreffes de CSH. II. Matériels et méthodes 53 II.1. Etude de cohorte II.1.1. Population ciblée Cette étude rétrospective concerne 390 patients, adultes comme enfants, ayant reçu une allogreffe de cellules souches hématopoïétiques entre le 1er janvier 1999 et le 31 décembre 2008 dans le service de transplantation médullaire du CHU de Nancy. Ont également été inclus les patients ayant reçu plusieurs allogreffes sur cette période. L'ensemble des données a été fourni par le service de transplantation médullaire du CHU de Nancy, le recueil a été fait jusqu'à la date des dernières nouvelles connues pour chaque patient. II.1.2. Prophylaxies et traitements II.1.2.1 Conditionnements Le conditionnement préalable d'allogreffe de CSH a deux objectifs principaux : l'action anti tumorale et l'action immunosuppressive. Différents schémas sont disponibles, ils se différencient surtout en fonction de leurs propriétés myélotoxique et immunomodulatrice. Le choix est fonction de l'hémopathie, du type de greffon et de l'âge. A partir du recueil des données, les conditionnements ont été séparés en deux catégories: les conditionnements myéloablatifs et les conditionnements atténués. Les conditionnements myéloablatifs sont réservés aux patients de moins de 50 ans; les schémas utilisés au sein de cette cohorte ont comporté soit la radiothérapie corporelle totale (ICT), soit le busulfan. L'ICT à la dose de 12 grays a été le plus souvent associée au cyclophosphamide (120 mg/Kg), mais aussi au melphalan (140 mg/m2) et dans des indications particulières à la fludarabine (150-200 mg/m2), à l'étoposide, au thiotepa et à l'aracytine. En ce qui concerne le busulfan (14-20 mg/Kg) il a lui aussi été le plus souvent associé au cyclophosphamide (120-200 mg/Kg) mais également au melphalan (140 mg/m2) et la fludarabine (150-180 mg/m2), voir au thiotepa. Pour les plus jeunes greffés, la radiothérapie a été évitée et remplacée par l'usage du busulfan en raison des séquelles cognitives et hormonales chez le jeune enfant. Les conditionnements « atténués » présentent une composante plus immunosuppressive que myélotoxique, ce qui permet l'accès de l'allogreffe à des patients 54 d'âge plus avancé présentant des facteurs de comorbidité contre-indiquant les conditionnements myéloablatifs. La plupart de ces conditionnements ont eu pour base la fludarabine (120-200 mg/m2), agent immunosuppresseur majeur, auquelle ont été associés d'autres immunosuppresseurs d'activité myélotoxique variable, le cyclophosphamide (40120 mg/Kg), le busulfan à faible dose (3.2-12.8 mg/Kg), le melphalan (70-140 mg/m2) ou une irradiation complète de faible intensité (2 grays). D'autres schémas sans fludarabine ont également été utilisés : irradiation faible intensité ou busulfan faible dose avec cyclophosphamide, melphalan et/ou aracytine. Les patients souffrant d'aplasie médullaire ont bénéficié d'un conditionnement particulier à base de cyclophosphamide seul à la dose de 50 mg/kg/j pendant quatre jours. A noter également que deux LLC ont reçu en complément des anticorps monoclonaux antiCD20 et un désordre immunitaire des anticorps monoclonaux anti-CD52, le but étant d'augmenter le taux de rémission si la fludarabine n'est pas suffisamment efficace. II.1.2.2 Prophylaxie de la réaction du greffon contre l'hôte L'association la plus utilisée est l'association méthotrexate (MTX) intraveineuse à la dose de 15 mg/m2 à J1 puis de 10 mg/m2 aux J3, J6 et J11 avec la ciclosporine (CsA) intraveineuse en continue 3mg/Kg/j de J-1 à J30 suivit par un relai oral jusqu'à J180. Le mycophenylate mofetil (Cellcept) remplace parfois le méthotrexate chez les patients ayant des conditionnements atténués. Dans les greffes de sang placentaire, le MTX est souvent par des corticostéroïdes. D'autres prophylaxies ont été plus rarement utilisés telles que la CsA seule, le MTX seul ou la T-déplétion in vivo ou in vitro du greffon. Le sérum anti-lymphocytaire (SAL) est également utilisé dans la prévention de la GVHD aigue comme chronique et dans la prévention du rejet du greffon par son effet de Tdéplétion in vivo. On différencie les SAL issus du sérum de cheval (lymphoglobulines) ou du sérum de lapin (thymoglobulines et Frésénius®). Les SAL sont principalement utilisés dans les allogreffes non apparentées. Les patients ayant bénéficié de SAL ont principalement eu des thymoglobulines à la dose de ± 7,5 mg/Kg (2,5-15 mg/Kg) et du Frésénius® aux doses de 40 mg/Kg ou 90 mg/Kg. II.1.2.3 Prophylaxie antivirale La prévention des complications virales secondaires au déficit immunitaire induit par les chimiothérapies et autres traitements immunosuppresseurs a comporté : de l'aciclovir intraveineuse (IV) avec relai par valaciclovir per os pour l'HSV et le VZV pour tous les patients jusqu'à J180. Pour le CMV, l'EBV, l'HHV-6 et l'adénovirus une stratégie 55 préemptive a été mise en place, par ganciclovir pour le CMV, mabthera pour l'EBV, vistide pour l'adénovirus et foscarnet pour l'HHV-6. Cependant trois patients ont bénéficié d'une prophylaxie pour le CMV par Cymévan®. II.1.3. Suivi infectieux II.1.3.1 HHV-6 La stratégie adoptée par le service de transplantation médullaire du CHU de Nancy est un suivi virologique de l'HHV-6 bihebdomadaire les trois premiers mois puis hebdomadaire jusqu'à J100, par technique PCR sur échantillons de sang total. Les patients à risque peuvent bénéficier d'une surveillance prolongée. II.1.3.2 Autres viroses Un suivi identique à l'HHV-6 jusqu'à J100 a été réalisé pour le CMV, l'EBV et l'adénovirus, également par PCR quantitative en temps réel. Le suivi perdure toutes les deux à quatre semaines si le patient présente une GVHC. II.1.3.3 Autres infections Un suivi a été également réalisé pour les infections à HSV, à VZV, à virus respiratoires, les septicémies, les infections fongiques et la toxoplasmose. Les virus respiratoires incluent les virus de la grippe A et B, le virus respiratoire syncythial et les virus parainfluenza 1, 2 et 3. Les septicémies incluent les septicémies bactériennes et les infections fongiques invasives. Les infections fongiques non invasives ont été répertoriées dans les infections fongiques. Les données concernant les réactivations virales ont été fournies par le service de transplantation médullaire du CHU de Nancy. Pour l' HHV-6, elles ont été confrontées et complétées par les données du laboratoire de virologie du CHU de Nancy. Pour notre étude, la réactivation HHV-6 a été définie comme correspondant à la présence d'au moins une PCR positive sur l'ensemble des échantillons analysés dans les 150 jours qui ont suivi la greffe. Pour les autres infections, la période d'intéressement s'est également limitée à J150 après la greffe. 56 II.1.4. Suivi clinique II.1.4.1 Reconstitution hématologique Les données concernant les sorties d'aplasie et de thrombopénie post-greffe ont été fournies par le service de transplantation médullaire du CHU de Nancy. La sortie d'aplasie a été définie comme correspondant à une numération de polynucléaires neutrophiles >500/mm3, trois jours de suite; et la sortie de thrombopénie comme correspondant à une numération plaquettaire >20000/mm3, trois jours de suite sans transfusions. La prise de greffe est définie comme: plaquettes >50000/mm3 sans transfusions pendant une semaine, polynucléaires neutrophiles >500/mm3 trois jours de suite, leucocytes >1000/mm3 trois jours de suite. II.1.4.2 Réaction du greffon contre l'hôte Complication majeure de la greffe de CSH, la réaction du greffon contre l'hôte ou GVHD (Graft Versus Host Disease) s'exprime de deux façons : aigue (GVHA) (deux semaines à trois mois après la greffe), ou chronique (GVHC) (≥100 jours après la greffe). Le diagnostic de la GVHA se fait à partir de signes cliniques au niveau d'organes cibles : - la peau : rash cutané plus ou moins sévère - le tube digestif : nausées, diarrhées, douleurs abdominales, anorexie - le foie : cytolyse, ictère La GVHD aigue est classée en quatre stades selon les critères de Glucksberg-Seattle [Glucksberg et al., 1974]. La GVHC s'exprime au-delà de J100 et touche habituellement la peau, les yeux, la cavité buccale, le tractus digestif et les poumons avec des composantes plus ou moins inflammatoires avec établissement d'un score (0-3) selon le site et la sévérité. Les données concernant la GVHA ont été considérées, en revanche celles concernant la GVHC n'ont pas été prises en compte. II.1.4.3 Données cliniques 57 Les données cliniques ont été recueillies à partir des données fournies par le service de transplantation médullaire du CHU de Nancy ou directement dans les dossiers patients. II.1.4.4 Décès Les données concernant le décès, date et causes du décès, ont été fournies par le service de transplantation médullaire du CHU de Nancy. II.1.5. Analyses statistiques L'analyse a consisté dans un premier temps en une description brute des données recueillies avec une description des caractéristiques de l'ensemble des patients de la cohorte. Dans un second temps, la population de la cohorte (n=390) a été divisée en fonction de son statut HHV-6, tous les patients ayant eu au moins une charge virale positive dans les 150 jours suivant la greffe ont été placés dans le sous-groupe des HHV-6+, les autres dans le sous-groupe des HHV-6-. Les patients pour lesquels l'intégration de l'HHV-6 (n=3) était suspectée, ont été exclus des analyses statistiques en raison de la présence permanente du génome dans les cellules du sang, ou de l'organisme, indifféremment des caractéristiques ou facteurs de risques associés. L'étude de cohorte s'est donc faite sur un effectif de 387 patients. Sur cette population, nous avons évalué l'incidence cumulative de la réactivation HHV-6 brute et au sein de la population <18 ans. Les manifestations cliniques associées à la réactivation HHV-6 ont été appréciées en fonction des données recueillies dans les dossiers cliniques des patients. L'implication de l'HHV-6 a été suspectée devant la présence concomitante d'ADN HHV-6 dans les échantillons de sang total et de signes cliniques non documentés. Nous avons échelonné cette suspicion en "peu probable, forte, et avérée", en fonction des arguments clinico-biologiques. L'association de la réactivation HHV-6 avec les délais de sortie d'aplasie (Neutrophiles >0.5 G/L) et de thrombopénie (Plaquettes >20 G/L et Plaquettes >50 G/L) a été testé statistiquement. Les facteurs associés à la réactivation HHV-6 ont été évalués par l'analyse statistique de l'association entre les données recueillies (âge, sexe, malignité de l'hémopathie, nature du greffon, allotype du donneur, conditionnement, prise de SAL, prophylaxie GVHD, sévérité GVHA) et la réactivation. L'association entre l'infection à HHV-6 et d'autres co-infections (CMV, EBV, Adénovirus, VZV, HSV, virus respiratoires, mycoses, septicémies, toxoplasmose) a été 58 évaluée statistiquement en tenant compte des facteurs de risque associés à ces infections (GVHA ≥ 2, délai de sortie d'aplasie). L'impact de l'infection à HHV-6 sur la survie a été évalué par une représentation en Kaplan Meier de la survie cumulée entre les populations HHV-6+ (réactivant l'HHV_6) et HHV-6-. Les facteurs associés au décès (âge, malignité de l'hémopathie, la réactivation HHV-6, CMV, EBV, la présence d'une infection au moins, la présence d'un GVHA) ont été testés. Les variables qualitatives ont été exprimées par leur effectif et leur pourcentage, les variables quantitatives par leur moyenne et écart-type. Les comparaisons ont été effectuées en fonction du type de variable par le test du Chi2 (ou le test de Fischer si les effectifs étaient insuffisants) et par le test t de Student. La valeur du seuil de significativité statistique a été fixée à 0,05. Les analyses statistiques ont été réalisées par le Dr Nelly Agrinier du service d'épidémiologie et d'évaluations cliniques du CHU de Nancy. II.2. Diagnostic et suivi virologique des patients HHV-6 II.2.1. Echantillons II.2.1.1 Prélèvements et préparation des échantillons Les ADN ont été obtenus à partir d'échantillons de sang total, LCR ou biopsies, de 390 patients allogreffés de CSH de janvier 1999 à décembre 2008. La fréquence des prélèvements de sang total s'est faite au rythme de deux prélèvements par semaine pendant trois mois puis un prélèvement par semaine jusqu'à J100 comme nous l'avons évoqué auparavant. Les aliquots d'ADN extraits ont été stockés à -80°C une fois les analyses effectuées. Un prélèvement capillaire a également été effectué, il a été conservé dans de l'eau pour extraction qualité PCR fournie dans le kit Argene CMV HHV6,7,8 RgeneTM durant le transport. II.2.1.2 Extraction de l'ADN II.2.1.2.a) Méthode manuelle 59 L'extraction de l'ADN de certains prélèvements sanguins, et du prélèvement capillaire a été réalisée manuellement à l'aide du kit Qiagen : QIAamp® DNA Blood Mini Kit (Annexe 3). • Echantillons sanguins (Annexe 2) L'échantillon est préalablement lysé en présence de protéases dans un tampon de lyse. Les lysats sont ensuite déposés dans une colonne contenant un gel de silice sur lequel l'ADN va se lier. Les caractéristiques physicochimiques du lysat sont telles que les protéines et les autres contaminants pouvant inhiber la PCR ne sont pas retenus sur la membrane. Le tampon de lyse permet d'optimiser les capacités de liaison de l'ADN sur ce gel. Une fois l'ADN fixé sur la colonne, celle-ci est lavée à l'aide de deux tampons de lavage. Cette opération permet d'éliminer la totalité des éventuels contaminants sans affecter la liaison de l'ADN au gel. L'étape d'élution, par du tampon d'élution ou de l'eau distillée, permet d'obtenir un ADN purifié directement utilisable en PCR. L'ADN élué est conservé à -80°C. • Echantillon capillaire Le prélèvement de cheveux a été traité comme une biopsie. Il a été préalablement broyé dans de l'eau pour extraction PCR fournie dans le kit Argene CMV HHV6,7,8 R-geneTM puis 200 μL du broyat a été mis à incuber 3 heures au bain marie à 56°C. Il a ensuite suivi la même procédure qu'une biopsie (Annexe 3). L'ADN élué a été conservé à -80°C. II.2.1.2.b) Méthode automatisée La plupart des échantillons sanguins ont été extraits de manière automatisée sur le MagNA Pure LC® de Roche diagnostic (Annexe 4). Le principe est le même que la méthode manuelle mis à part le fait que l'on utilise des particules magnétiques couplées à la silice et non une colonne. L'échantillon de sang est lysé avec un tampon contenant de la protéinase K et des agents chaotropiques. L'ADN libéré se lie à la silice présente à la surface de particules magnétiques. Ces dernières sont séparées magnétiquement du reste. Tout ce qui ne s'est pas fixé et tous les interférents de PCR sont éliminés par une série de lavages successifs. L'ADN fixé et purifié est ensuite recueilli par élution et conservé à 80°C. II.2.2. PCR HHV-6 II.2.2.1 De 1999 à 2003 60 De 1999 à 2003, une PCR qualitative était utilisée. Les résultats étaient rendus positif ou négatif, le variant A ou B.étant identifié. • Amorces utilisées Amorces HHV6 A+B sens Séquences 5' GCG TGA ATC AAA CCT CGC TCG A 3' HHV6 A+B anti-sens 5' GCC TTA CTC GGA ATC TAC TGC 3' Tableau 5: Amorces PCR qualitative 1999-2003 • Protocole PCR qualitative 1999-2003 Quantité pour un tube Réactif Tampon 5 μl MgCl2 1 μl dNTP 1 μl HHV6 A+B sens 10 μM 1 μl HHV6 A+B antisens 10 μM 1 μl Sonde Taq Man 10 μM 0,30 μl Eau qsp 40 μl 35,7 μl ADN 5 μl Total 50 μl Tableau 6: Mix PCR qualitative 1999-2003 61 • Conditions PCR 7 min à 95°C 1min à 94°C 1min à 55°C 40 cycles 1 min à 72°C 10 min à 72°C II.2.2.2 De 2003 à 2006 De 2003 à 2006, c'est la PCR quantitative décrite par Agnès Gautheret-Dejean [Gautheret-Dejean et al., 2002] qui a été utilisée. La séquence de nucléotides à amplifier correspond à environ 173 pb de la souche U1102 situées aux positions 101529-101701 dans les gènes U65-66 de HHV-6. La séquence des amorces et de la sonde Taq Man et les conditions de la PCR sont décrites en dessous. La quantification se fait par rapport à une gamme étalon d'ADN plasmidique dans laquelle la concentration d'HHV-6 est connue (1011 copies/mL) et à partir de laquelle on prépare plusieurs dilutions pour avoir une gamme de 103 à 107 copies/mL. Le seuil de sensibilité était de 200 copies/mL. L'expression des résultats est donnée en copies/mL. Le variant n'était pas identifié. • Sondes et amorces utilisées Amorces et sondes Séquences HHV6-sens 5' GAC AAT CAC ATG CCT GGA TAA TG 3' HHV6-anti-sens 5' TGT AAG CGT GTG GTA ATG GAC TAA 3' HHV6-sonde 5'-FAM-AGC AGC TGG CGA AAA GTG CTG TGC-TAMRA-3' Tableau 7: Amorces et sonde PCR quantitative HHV-6 Gène U65-66 [Gautheret-Dejean et al., 2002] 62 • Protocole pour la PCR HHV-6 [Gautheret-Dejean et al., 2002] Quantité pour un tube Réactif Taq Man® PCR Master mix HHV6-sens 10 μM 25 μl 1 μl HHV6-antisens 10 μM 1 μl Sonde Taq Man 10 μM 0,50 μl Eau qsp 40 μl 12,5 μl ADN 10 μl Total 50 μl Tableau 8: Composition du mix pour la PCR HHV-6 [Gautheret-Dejean et al., 2002] • Conditions PCR Thermocycleur ABI PRISM® 7000 SDS Incubation : 2 min à 50°C Dénaturation : 10 min à 95°C PCR 45 cycles Un cycle : 15 sec à 95°C 1 min à 60°C 63 II.2.2.3 Après 2006 Depuis 2006, le laboratoire de virologie utilise la PCR quantitative en temps réel du laboratoire Argene CMV HHV6,7,8 R-geneTM. Elle permet de quantifier le génome de l'HHV6 dans le sang total, le plasma, le sérum et le LCR. L'extraction de l'ADN a été faite de façon manuelle ou automatisée comme vu au chapitre précédent. L'amplification a été faite sur un thermocycleur Rotor-Gene 6000®. La limite de détection est inférieure à 250 copies/mL. Le seuil de quantification est fixé à 2500 copies/mL et la gamme de quantification va jusqu'à 107 copies/mL. II.2.3. PCR albumine Neuf patients présentant une cinétique de charges virales HHV-6 positives ont été sélectionnés pour être quantifiés en PCR albumine. Le but de cette PCR étant de quantifier le nombre de cellules afin de rapporter la charge virale HHV-6 au nombre de cellules. II.2.3.1 PCR albumine [Gautheret-Dejean et al., 2002] L'ADN a été extrait selon le protocole d'extraction décrit dans la partie matériels et méthodes. Le protocole utilisé ici est celui décrit par Agnès Gautheret-Dejean dans Journal of Virological Methods [Gautheret-Dejean et al., 2002]. Il s'agit d'une PCR Taq Man en temps réel. • Sondes et amorce utilisées Les amorces et sondes utilisées pour amplifiées le gène de l'albumine ont été fournies par Agnès Gautheret-Dejean du laboratoire de Virologie de la Pitié-Salpêtrière et décrites auparavant par Ingrid Laurendeau du laboratoire de Génétique Moléculaire de la faculté des sciences pharmaceutiques et biologiques Paris V [Laurendeau et al., 1999]. 64 Amorces et sondes Séquences Alb-sens 5' GCT GTC ATC TCT TGT GGG GTG T 3' Alb-antisens 5' ACT CAT GGG AGC TGC TGG TTC 3' Alb-sonde 5'-FAM-CCT GTC ATG CCC ACA CAA ATC TCT CC-TAMRA-3' Tableau 9: Amorces et sonde ALB gene pour PCR albumine (Gautheret-Dejean et al., 2002) • Protocole de PCR albumine Quantité pour un tube Réactif Taq Man® PCR Master mix 25 μl Albumine sens 10 μM 1 μl Albumine antisens 10 μM 1 μl Sonde albumine 10μM 0,5 μl Eau qsp 40μl 12,5 μl ADN 10 μl Total 50 μl Tableau 10: Composition du mix de PCR albumine (Laurendeau et al., 1999) • Conditions PCR Thermocycleur ABI PRISM® 7000 SDS Incubation : 2 min à 50°C Dénaturation : 10 min à 95°C PCR 45 cycles Un cycle : 15 sec à 95°C 1 min à 65°C 65 II.2.3.2 Gamme de quantification La gamme de quantification a été établie à partir de dilutions d'ADN génomique humain (Human Genomic DNA® Roche 0,2 mg/mL). En tenant compte des données des travaux de Laurendeau et al. (1999) sur les facteurs de conversion entre quantité d'ADN et génome diploïde [Laurendeau et al., 1999], notre solution initiale est à 6‚06 1010 génome équivalent copie (gec) d'albumine/mL. Le génome équivalent copie (gec) correspond en fait au nombre d'exemplaires du gène présents. La gamme de dilution a été faite en fonction des valeurs normales des leucocytes dans le sang: 4.106-1.107 cellules/mL ce qui correspond à 8.106-2.107 gec albumine/mL en estimant qu'il y a deux copies du gène albumine par cellule [Laurendeau et al., 1999]. La gamme a donc été établie entre 105 et 108 gec albumine/mL. Dilutions Volume ADN (μl) Volume eau (μl) Pur 50 1/10 50 1/100 50 1/1000 50 1/10000 50 1/100000 0 450 450 450 450 450 50 gec alb/ml 6,06.1010 6,06.109 6,06.108 6,06.107 6,06.106 6,06.105 Tableau 11: Dilution gamme d'étalonnage PCR albumine II.2.3.3 Expression des résultats II.2.3.3.a) Charge virale en copies/mL Les résultats de la PCR HHV-6 des échantillons de sang ont été rendus en copies/mL lorsque la charge virale éait quantifiable (≥2500 copies/mL); les résultats <2500 copies/mL mais supérieurs au seuil de détection sont rendus détectable. Le résultat de la PCR HHV-6 sur le prélèvement capillaire a été rendu de manière qualitative en détectable ou non détectable. Les résultats de la PCR albumine sont rendus en gec d'albumine/mL. 66 II.2.3.3.b) Charge virale HHV-6 exprimée en copies/106 cellules Les charges virales HHV-6 en copies/mL ont été rapportées au nombre de cellules. Le nombre de cellules est calculé à partir des résultats de la PCR albumine. Selon Laurendeau [Laurendeau et al., 1999], il y a deux copies du gène de l'albumine par cellules. Pour avoir le nombre de cellules, il faut donc diviser les résultats de PCR albumine exprimés en gec/mL, par deux pour obtenir le nombre de cellules par millilitre. La charge virale en copies/106 cellules est donc donnée par l'opération suivante : Copies/106 cellules = [HHV-6 copies/mL] / [(albumine en gec/mL)/2] x 106 II.2.4. Analyses Les incidences en fonction des techniques PCR utilisées seront évaluées. L'influence de certains facteurs (cordon, âge) sur l'intensité des charges virales ainsi que l'impact de l'intensité de ces charges sur les symptômes cliniques, seront appréciés. Puis à partir des données de charges virales en copies/mL et en copies/cellules obtenues, nous analyserons certains profils virologiques de la cohorte correspondant aux situations de réactivation virale et d'intégration génomique. 67 III. Résultats III.1. Etude de cohorte La population de la cohorte a été divisée en fonction de son statut HHV-6, tous les patients ayant eu une charge virale positive dans les 150 jours suivant la greffe ont été placés dans le sous-groupe des HHV-6+, les autres dans le sous-groupe des HHV-6-. Les patients pour lesquels l'intégration de l'HHV-6 est suspectée ont été exclus des analyses statistiques en raison de la présence permanente du génome dans les cellules du sang, ou de l'organisme, indifféremment des caractéristiques ou facteurs de risques associés. Cette population (n=3) sera évoquée dans le chapitre suivant. Une fois divisés, les effectifs HHV6+ et HHV-6- représentent respectivement n=57 et n=330 III.1.1. Description de la cohorte L'étude a porté sur 236 (60,5%) allogreffes d'enfants et 154 (39,5%) allogreffes d'adultes, l'âge médian étant de 23,7 ans. Les patients étaient atteints d'hémopathies malignes n=332 (85,1%), surtout des leucémies aigues LAM et LAL n=215 (64,8%) ou chroniques LMC, LMMC, LLC n=40 (12,1%), quelques syndromes myélodysplasiques et myéloprolifératifs n=34 (10,2%), quelques lymphomes n=36 (10,8%), lymphomes du manteau, LNH et maladies de Hodgkin, ainsi que des myélomes multiples n=7 (2,1%). Les diagnostics initiaux d'hémopathies non malignes n=24 (6,2%) comportaient surtout des aplasies médullaires idiopathiques n=15 (62,5%), des anémies de Fanconi n=6 (25,0%), des cas de drépanocytose n=2 (8,3%), une lymphohistiocytose primitive n=1 (4,2%). Certains patients atteints de tumeurs solides ont également été allogreffés n=26 (6,7%). La plupart des greffons étaient des moelles ou des cellules souches périphériques n=325 (83,9%). Les greffons placentaires ont représenté 16,1% (n=62) des greffons. La parenté du greffon était présente dans 49,1% (n=191) des cas. 68 Le conditionnement s'est avéré myéloablatif dans 52,7% (n=204) des cas. Le détail des conditionnements myéloablatifs et atténués est fourni dans le tableau 12. Les prophylaxies GVHD se sont basées sur les associations CsA+MTX n=175 (44,9%), CsA+Cell n=138 (35,4%), CsA+Méthylprednisolone n=37 (9,5%). La CsA a été utilisée seule dans 24 cas (6,1%) et le MTX seul dans dix cas (2,6%); deux patients (0,5%) n'ont pas eu de prophylaxie. Les patients ayant bénéficié de SAL n=229 (59,9%), ont eu surtout du Frésénius n=148 (38,5%). Les sorties d'aplasie se sont déroulées dans des délais inférieurs à 30 jours pour 82,4% des patients (n=243), et les sorties de thrombopénie dans des délais inférieurs à 45 jours pour 88,3% des patients (n=212). Pour la GVHA, 58,5% ont fait une GVHA ≥ 2 (n=223). La mortalité s'élève à 46,8% (n=181), dans des délais aléatoires allant de 1 à 2993 jours après la greffe avec un délai médian de 185 jours. 69 Tableau 12: Conditionnements et effectifs Conditionnements myéloablatifs Avec ICT 12 120 12 120 12 120 Sans ICT ICT /Cy 81 ICT /Cy /platine 1 ICT /Cy /VP16 12 140 12 140 12 140 ICT /Mel /Arac ICT /Mel 1 12 18 6 ICT /Mel /Thiotepa 10 3 12 ICT /VP16 4 12 160 7,5-12 10 ICT /VP16/Fluda ICT 2 200 /Thiotepa /Fluda 12 ICT /Arac 12 12 ICT /Fluda 90 Conditionnements atténués 2 1 Avec fludarabine 200 Cy /BU ou BU* 52 200 150 Cy /BU ou BU*/Fluda 200 16 10 Cy /BU /Thiotepa 120 12-17 120 12-17 Cy /BU* Cy /BU* 10-16 120 10-16 120 16-21 Cy /BU Cy /BU Cy /BU 120 20 5 160 150 /Fluda Cy /BU* 1 3 /Fluda 120 2 /Mel 140 16-19 140 /Mel 180 Cy /BU /Fluda 1 140 Mel /Fluda 2 200 140 2 140 Mel /ICT /Fluda Mel /ICT /Fluda 70 2 Mel /ICT /Fluda 2 ICT /Fluda BU* 1 40 4,5 50 2 5 1 /Fluda 120-180 Cy /ICT /Fluda Cy /ICT /Fluda 120 Cy /Fluda 60 200 125 150 Cy /ICT /Fluda 125 120-125 Fluda /Arac 6 60 ICT /Cy /Fluda 4,5 40 ICT /Cy /Fluda 123 Total Total=195 72 Total 150 6 7 6 60 1 Cy /ICT 1 Cy /BU* 22 140 13 3 1 2 9 60 120 1 200 Cy /ICT4 ICT /Cy 11 10 120 1 2 2 BU /Fluda 8 4 Cy /Fluda 4-8 Total 150 120 200 1 140 90 3,2-9,6 Sans fludarabine 74 140 1 5 125 4 20 Mel /BU /Arac 12 120 Cy /BU 200 2 2 Cy /ICT 60 3 2 Cy /ICT /Fluda 2 1 200 60 ICT /Fluda 1 1 2 1 200 4 ICT Cy BU* 12,8 80 2 4 Cy /ICT 1 Total 37 1 1 145 Total=182 ICT2=irradiation corporelle totale (2 grays), Cy200=cyclophosphamide (200 mg/Kg), Bu16=busulfan (16 mg/Kg), Fluda150=fludarabine (150 mg/Kg), Mel140=melphalan (140 mg/m2), VP16=étoposide, AraC12=aracytine (12 mg/Kg), Thiotepa10=thiotépa (10 mg/Kg) 70 Tableau 13: Caractéristiques des patients de la cohorte Caractéristiques Age (médiane, années) Sexe M/F Diagnostic Allotype donneur Effectifs N=390 23,7 (0,3-64,4) 237/153 Hémopathies malignes Hémopathies non malignes Tumeurs solides Autres % 332 24 26 8 Prophylaxie GVHD (suite) 60,8/39,2 85,1 6,2 6,7 2 Effectifs N=390 % CsA + Méthylprednisolone 37 9,5 CsA MTX 24 10 6,1 2,6 Déplétion lymphocytes T ex vivo +/- MTX, CsA, SAL 4 1 Pas de prophylaxie 2 0,5 79 148 20,5 38,5 2 156 0,5 40,5 <30 jours 31-45 jours >45 jours 243 40 12 82,4 13,6 4 <45 jours 212 88,3 45-100 jours >100 jours 24 4 10 1,7 Caractéristiques SAL Thymoglobulines Frésénius Campath Absence ® ® Apparenté Non apparenté (Moelle + CSP) Sang placentaire 191 49,1 136 35 62 15,9 Moelle 206 53,2 CSP 117 30,2 Sang placentaire Moelle + CSP 62 2 16,1 0,5 Conditionnements Myéloablatifs Atténués 204 183 52,7 47,3 Incidence GVHA Stades 0-1 Stades ≥2 158 223 40,5 58,5 Prophylaxie GVHD CsA+MTX CsA+Cellcept 175 138 44,9 35,4 Décès Oui Non 181 206 46,8 53,2 Greffon Délai sortie d'aplasie Délai plaquettes >20 G/L 71 III.1.2. Incidence et délai de la réactivation HHV-6 57 personnes ont fait une réactivation à HHV-6 sur un effectif de 387 personnes en excluant les trois personnes où le génome de l'HHV-6 est suspecté intégré. Le taux d'incidence s'élève à 14,7% à 150 jours en post-greffe (Figure 11). Le nombre d'événements se répartie de la façon suivante: trois événements (5,3%) entre J4 et J7, 40 événements (70,2%) entre J10 et J44, huit événements (14%) entre J49 et J81, rien entre J81 et J132, et cinq événements (10,5%) entre J132 et J150. L'incidence observée dans la population <18 ans, s'élève à 18,3% (28/153). La répartition des événements est sensiblement identique à celle de la cohorte. 20,0 18,0 Incidence cumulative (%) 16,0 14,0 12,0 Cohorte 10,0 Enfants (<18 ans) 8,0 6,0 4,0 2,0 0,0 0 10 20 30 40 50 60 70 80 90 100 110 120 130 140 150 Jours post-greffe Figure 11: Incidence cumulative de l'HHV-6 sur 150 jours post-greffe III.1.3. Facteurs associés à la survenue d'une réactivation HHV-6 Les deux populations HHV-6+ et HHV-6- ont été comparées afin de définir d'éventuels facteurs de risques de la réactivation HHV-6 en post-greffe de CSH. Les résultats obtenus en analyse univariée sont présentés dans le Tableau 16. 72 Tableau 14: Facteurs associés à la réactivation HHV-6 Patients HHV-6 N 326 Age Sexe Homme Femme Diagnostic initial Hémopathie maligne Hémopathie non maligne Tumeurs solides Autres N=330 %/moy 26,6 Patients HHV-6 + ET* 18,1 N 57 N=57 %/moy 23,4 ET* 16,5 p** NS 198 132 60,0 40,0 39 18 68,4 31,6 NS 281 21 20 8 85,2 6,4 6,1 2,4 48 3 6 . 84,2 5,3 10,5 NS 182 107 36 2 55,7 32,7 11,0 0,6 24 7 26 . 42,1 12,3 45,6 <0,0001 170 123 36 51,7 37,4 10,9 21 10 26 36,8 17,5 45,6 <0,0001 0,0533 Greffon Moëlle CSP Cordon Moëlle et CSP Allotype du donneur Apparenté Non apparenté (moelle+CSP) Non apparenté (cordon) Conditionnement attenué myéloablatif Sérum anti-lymphocytaire Thyroglobuline Fresenius Absence Campath Prophylaxie de la réaction du greffon contre CsA+MTX CsA+Cell CsA+Méthylprednisolone MTX CsA 160 167 48,9 51,1 20 37 35,1 64,9 65 127 132 2 l'hôte 156 117 22 9 20 19,9 39,0 40,5 0,6 14 19 23 . 25 33,9 41,1 NS 47,2 35,5 6,7 2,7 6,1 19 18 15 1 4 33,3 31,5 26,3 0,2 0,7 0,0093 GVH aiguë Stades 0 et 1 Stades ≥2 142 180 44,1 55,9 15 41 26,8 73,2 0,0152 * Ecart Type ** Test du Chi-2 ou test exact de Fisher pour variables qualitatives, test issu d'un test de Student pour les variables quantitatives NS Non Significatif (p>0,05) 73 Les résultats nous montrent que les proportions de greffons de type de cordon et de GVHA ≥ 2 sont plus importantes chez les patients qui ont réactivé l'HHV-6 que chez ceux qui ne l'ont pas réactivé (26 (45,6%) vs 36 (11,0%), p< 0,0001 pour les greffons de cordon; 41 (73,2%) vs 180 (55,9%), p= 0,0152 pour les GVHA ≥ 2). De plus, les proportions de greffes de cordon non apparentée et de prophyalxie GVHD par CsA+Méthylprednisolone sont plus importantes au sein de la population qui a réactivé l'HHV-6 (26 (45,6%) vs 36 (10,9%), p< 0,0001 pour les greffes de cordon non apparentées; 15 (26,3%) vs 22 (6,7%), p=0,0093 pour la prophylaxie GVHD par CsA+Méthylprednisolone). Hors cette prophylaxie GVHD par CsA+Méthyllprednisolone n'est donnée que dans les greffes de cordon. Ceci ne fait que donc que confirmer le lien déjà établi entre la réactivation HHV-6 et le greffon de type cordon. La différence de proportion de conditionnements myéloablatifs observée entre les patients réactivant l'HHV-6 et ceux ne le réactivant pas n'est pas statistiquement significative (37 (64,7%) vs 167 (51,1%), p= 0,0533 (NS)). Pour le reste, les patients présentant une réactivation HHV-6 ne sont pas plus âgés que ceux ne réactivant pas (23,4 ± 16,5 vs 26,6 ± 18,1 ans, p= NS), et il y a proportionnellement autant d'hémopathies malignes et de patients ayant pris du SAL de type Frésénius© dans les populations réactivant ou pas l'HHV-6 (48 (84,2%) vs 281 (85,2%), p= NS pour les hémopathies malignes; 19 (33,9%) vs 127 (39,0%), p= NS pour la prise de Frésénius©. Les incidences de réactivation HHV-6 on été étudiées au sein des facteurs statistiquement associés (Figure 12). Ainsi, on observe que 41,9% (26/62) des patients ayant eu un greffon de type cordon réactive leur HHV-6 contre 11,7% (24/204) pour les moelles et 6,1% (7/114) pour les CSP. Les incidences augmentent également en fonction du stade de GVHA, 9,6% (15/157) pour les stades 0 et 1, 17,9% (32/179) pour le stade 2 et 21,4% (9/42) pour les stades ≥3. 74 50 Cordon Incidence (%) 40 30 20 GVHA ≥3 GVHA 2 Incidence cohorte Moelle 10 GVHA 0 et 1 CSP 0 Figure 12: Incidence de la réactivation HHV-6 en fonction du greffon et du stade de GVHA III.1.4. Co-infections La problématique posée ici est de savoir si la réactivation HHV-6 favoriserait d'autres infections concomitantes ou vice versa. Les données fournies dans ce tableau répertorient les infections virales, bactériennes, fongiques et toxoplasmiques dans les populations HHV6+ et HHV-6- dans un délai de 150 jours suivant la greffe, ce délai étant identique au délai de considération de la population HHV-6+. Ont été testé en parallèle, les facteurs pouvant favoriser les co-infections : délai de sortie d'aplasie, GVHA ≥ 2. 75 Tableau 15: Co-infections HHV-6 et autres agents infectieux Patients HHV-6 N=330 N %/moy ET* Cytomégalovirus oui 70 Epstein Barr virus oui 33 Adénovirus oui 45 Virus Herpes simplex oui 11 Virus du zona et de la varicelle oui 3 Virus respiratoires oui 19 Mycose oui 85 Septicémie oui 40 Toxoplasmose oui 2 Au moins une infection oui 198 GVH aiguë grade ≥2 oui 180 Délai de sortie d'aplasie médiane (jours) 247 Patients HHV-6 + N=57 N %/moy ET* p** 22,3 13 23,2 NS 10,3 5 8,9 NS 14,1 14 25,5 0,033 3,4 4 7,1 NS 0,9 1 1,8 NS 5,9 6 10,7 NS 26,2 6 10,7 0,012 12,4 20 35,7 <0,0001 0,9 2 4,2 NS 60 40 71,4 NS 55,9 41 73,2 0,0152 44 29,5 24,1 13,5 15,4 0,017 * Ecart Type ** Test du Chi-2 ou test exact de Fisher pour variables qualitatives, test issu d'un test de Student pour les variables quantitatives NS Non Significatif (p>0,05) Les patients ayant réactivé l'HHV-6 présente proportionnellement plus d'infections à adénovirus et de septicémies que ceux qui n'ont pas réactivé (14 (25,5%) vs 45 (14,1%), p= 0,033 pour les adénovirus; 20 (35,7%) vs 40 (12,4%), p< 0,0001 pour les septicémies. Une fois ajustés sur les variables GVHA et délai de sortie d'aplasie, le lien avec les adénovirus n'est plus retrouvé (OR= 1.560 CI [0.685-3.556], p= NS), celui avec les septicémies est conservé (OR= 3.457 CI [1.635-7.311], p=0.001). 76 La proportion d'infections mycosiques est moins importante chez les patients ayant réactivé leur HHV-6 que chez ceux qui ne l'ont pas réactivé (6 (10,7%) vs 85 (26,2%), p= 0,012). Pour les autres infections, il n'y a pas de différence significative de répartition entre les deux groupes et notamment pour le CMV (13 (23,2%) vs 70 (22,3%), p= NS). III.1.5. Manifestations cliniques associées à l'HHV-6 La majorité des réactivations sont restées asymptomatiques ou supposées asymptomatiques 65% (37/57) indépendamment de la stratégie préemptive. 31 cas étaient cliniquement totalement asymptomatiques malgré des ADNémies persistantes et la découverte d'ADN HHV-6 dans les biopsies intestinales de huit patients et des biopsies pulmonaires de deux patients. Les signes cliniques (fièvre) de cinq autres cas se sont avérés documentés par d'autres agents infectieux. Dans les formes symptomatiques 35% (20/57) (Tableau 16), deux encéphalites à HHV6 ont été avérées et documentées par la détection de l'ADN HHV-6 dans le LCR et dans le sang total. Un autre cas d'encéphalite HHV-6 a été suspecté face à la présence concomitante d'une ADNémie HHV-6 et d'un syndrome confusionnel. Il a ensuite été écarté devant l'absence d'autres arguments. L'HHV-6 a également été impliqué dans des cytopénies (n=8), dont deux peu probables, se manifestant par des pancytopénies persistantes (n=6) et donc des retards de sortie d'aplasie, ainsi que par une bi-cytopénie persistante associant lymphopénie et thrombopénie, et dans une thrombopénie seule persistante. Ces implications étant basées sur la présence d'ADNémie HHV-6 concomitante avec ces cytopénies sans autres agents infectieux documentés. Les deux cytopénies dont la liaison avec l'HHV-6 a été jugée peu probable, présentaient par ailleurs de l'ADNémie CMV. Trois fièvres non documentées sans GVHA sont concordantes avec la présence d'ADNémie HHV-6. L'implication dans le retard de prise du greffon et dans la sévérité des GVHD a été évoquée à cinq reprises. Enfin il a été signalé la présence d'HHV-6 dans des biopsies de l'appareil digestif haut comme bas, chez neuf patients qui par ailleurs avaient présentés une ADNémie HHV-6. L'implication clinique a été suspectée que dans un cas d'oesophagite. Pour ce qui est de l'implication dans les rashs cutanés, il a été difficile de faire la distinction entre GVHD et réactivation symptomatique de l'HHV-6. Un cas a été rapporté devant la persistance et l'extension d'un rash cutané concomitant avec une ADNémie HHV6 persistante sous traitement antiviral. 77 L'analyse statistique de l'association entre la réactivation HHV-6, les retards de sortie d'aplasie et les retards de sortie de thrombopénie (Tableau 17) nous montre que les délais médians de sortie d'aplasie (polynucléaires >0,5 G/L), de sorties de thrombopénie (plaquettes >20 G/L et >50 G/L) en jours post-greffe sont plus longs au sein de la population HHV-6+ que dans la population HHV-6- (29,5 ± 15,4 vs 24,1 ± 13,5, p= 0,0170 pour les sorties d'aplasie; 69,0 ± 140,6 vs 25,7 ± 17,4, p= 0,0004 pour les plaquettes >20 G/L; 67,1 ± 128,0 vs 33,0 ± 27,3, p= 0,011 pour les plaquettes >50 G/L). Une fois ajusté sur les variables GVHA ≥ 2 et présence au minimum d'une infection, les liens avec l'allongement des sorties d'aplasie et de thrombopénie >50 G/L sont conservés (OR=1,931 CI [1,078-3,457], p=0,027 pour les sorties d'aplasie; OR=2,64 CI [1,14-5,49], p=0,26 pour les plaquettes >50 G/L). L'analyse statistique de l'association entre la réactivation HHV-6 et la sévérité des GVHA (stades ≥3) (Tableau 17) nous montre que la proportion de GVHA ≥ 3 est plus importante dans la population HHV-6+ que dans la population HHV-6- (9 (16,1%) vs 33 (10,2%), p= 0,0444). Tableau 16. Manifestations cliniques associées à la réactivation de l'HHV-6 Suspicion HHV-6 N=22 N Peu probable N N % 2 . 1 3 13,6 . 6 2 8 36,4 . . 1 1 4,5 . 3 1 4 18,2 . 1 . 1 4,5 . . 1 1 4,5 . . 4 4 18,2 Avérée Forte N Total Encéphalite/SNC Cytopénies Rash cutané Fièvre OEsophagite Retard prise greffon GVHD sévère 78 Tableau 17: Influence de l'infection à HHV-6 sur la reconstitution hématologique et sur la sévérité de la GVHA Patients HHV-6- Patients HHV-6+ N=330 N=57 N %/moy ET* N %/moy ET* p** 247 24,1 13,5 44 29,5 15,4 0,017 197 25,7 17,4 36 69 140,6 0,0004 Médiane (jours) 180 33 27,3 35 67,1 128 0,0011 Stades 0; 1 142 44,1 15 26,8 Stades 2 147 45,7 32 57,1 Stades ≥3 33 10,2 9 16,1 Polynucléaires >0,5 G/L Médiane (jours) Plaquettes >20 G/L Médiane (jours) Plaquettes >50 G/L GVHA 0,0444 * Ecart Type ** Test du Chi-2 ou test exact de Fisher pour variables qualitatives, test issu d'un test de Student pour les variables quantitatives NS Non Significatif (p>0,05) 79 III.1.6. HHV-6 et mortalité III.1.6.1 Survie cumulée et facteurs associés au décès 100 Survie cumulée (%) survie HHV-6+ survie HHV-6- 80 60 40 0 50 100 150 200 250 300 350 400 450 500 Semaines post-greffe Figure 13: Survie cumulée en Kaplan Meier en fonction du statut HHV-6 La proportion de survivants dans la cohorte est de 54,5% (n=203) au bout de la 500ème semaine post-transplantation, elle est de 47,4% (n=27) au sein de la population HHV-6+ et de 53,3% (n=176) au sein de la population HHV-6-. Pour la population HHV-6+, les décès (n=26/29 (89,7%)) sont concentrés sur les 105 semaines qui suivent la greffe avant de se stabiliser. Pour la population HHV-6-, les décès sont plus étalés dans le temps, il faut 179 semaines post-greffe pour atteindre la même proportion de décès (n=143/152 (94,1%)). Les facteurs associés au décès ont été analysés dans le tableau 18. La proportion d'infections HHV-6 n'est pas plus importante chez les patients qui sont décédés que chez ceux qui ne le sont pas (29 (16,4%) vs 27 (13,3%), p= NS). Les facteurs dont les proportions sont significativement plus importantes au sein de la population décédée par rapport à celle qui ne l'est pas, sont: les hémopathies malignes (161 (89,0% ̈) vs 165 (81,3%), p= 0,0241), les infections mycosiques (56 (30,9%) vs 35 (17,6%), p= 0,0023), la toxoplasmose (4 (3,3%) vs 0, p= 0,032), la présence d'au moins une infection (121 (66,9%) vs 117 (57,6%), p= 0,063), la présence d'un GVHA (135 (75,0%) vs 127 (64,1%), p= 0,0222). 80 Tableau 18: Facteurs associés au décès Décès Age Diagnostic Hémopathies malignes Hémopathies non malignes Autres HHV-6 oui CMV oui EBV oui Adénovirus oui HSV oui Zona oui Virus respiratoire oui Mycose oui Septicémie oui Toxoplasmose oui Au moins une infection oui GVHA oui N 203 Non N=203 %/moy 22,5 ET* 17,5 N 181 Oui N=181 %/moy 29,7 ET* p** 17,2 <0,0001 165 19 19 81,3 9,4 9,4 161 5 15 89 2,8 8,3 0,0241 27 13,3 29 16,4 NS 43 21,9 40 23 NS 18 9,1 20 11,2 NS 27 13,6 32 18,3 NS 6 3,1 9 5 NS 3 1,5 1 0,6 NS 12 6,1 13 7,3 NS 35 17,6 56 30,9 0,0023 29 14,6 31 17,4 NS 4 3,3 0,0332 . 117 57,6 121 66,9 0,0633 129 64,2 135 75 0,0223 * Ecart Type ** Test du Chi-2 ou test exact de Fisher pour variables qualitatives, test issu d'un test de Student pour les variables quantitatives NS Non Significatif (p>0,05) III.1.6.2 Causes du décès Les causes du décès au sein de la cohorte sont données dans le tableau 19. Les proportions de décès par GVHA, GVHC, infections et pneumopathies interstitielles sont plus 81 importantes dans la population HHV-6+ décédée que dans la population HHV-6- décédée (14,3% vs 6,2% pour GVHA; 10,7% vs 5,5% pour GVHC; 21,4% vs 13,8% pour infections; 14,3% vs 6,9% pour pneumopathies interstitielles). Cependant, ces différences de proportions n'ont pas été testées statistiquement, afin de ne pas donner de fausse significativité, en raison du manque de données concernant les décès de 31 patients HHV-6-. 82 Tableau 19: Causes du décès Patients HHV-6 - décédés N=176 N %/moy Patients HHV-6 + décédés N=28 N %/moy Maladie veino-occlusive 2 1,4 . . 1 0,7 . . . . 1 3,6 9 6,2 4 14,3 8 5,5 3 10,7 20 13,8 6 21,4 10 6,9 4 14,3 3 2,1 1 3,6 5 3,4 . . 1 0,7 . . 2 1,4 . . 2 1,4 . . 60 41,4 6 21,4 2 1,4 1 3,6 13 9 2 7,1 7 4,8 . . Déchéance neurologique Déchéance cardiaque GVHA GVHC Infections Pneumopathie interstitielle Microangiopathie Rejet Déchéance hépatique Toxicité du conditionnement LymphomeB Rechute Cancer secondaire Déchéance multivicérale Autres Non renseigné 31 83 III.1.7. Efficacité du traitement • Efficacité sur l'infection HHV-6 Tous les patients ayant présenté une réactivation HHV-6 n'ont pas été traités, la stratégie prophylactique de traitement est préemptive. Seuls les patients dont l'imputabilité clinique de l'infection HHV-6 était suspectée ou ceux présentant plusieurs charges virales HHV-6 positives successives, ont bénéficié d'un traitement. Le foscarnet a été donné en première intention, le ganciclovir et le cidofovir étant donnés en fonction de la tolérance, de la fonction rénale et de la présence d'une co-infection virale. Moins d'un patient sur deux a bénéficié d'un traitement (n=27 (47,3%)) (Tableau 20). Ont été inclus dans les patients traités, ceux ayant reçu une de ces trois molécules pour cette indication et ceux ayant reçu une de ces trois molécules pour une autre indication (CMV, adénovirus) pendant une période concomitante à l'infection HHV-6. Tableau 20: Prévalence des traitements antiviraux au sein de la population HHV-6+ Traitement Oui N=27 N % 12 44,4 7 25,9 5 18,5 2 7,4 1 3,7 Foscarnet Ganciclovir Cidofovir Foscarnet+ganciclovir Cidofovir+ganciclovir Pour les patients traités par foscarnet sur une durée de 14 jours, huit traitements ont été couronnés de succès avec négativation de l'ADNémie, deux patients ont vu leur charge virale diminuer sans pour autant se négativer, deux autres n'ont eu aucun effet du 84 traitement sur la charge virale HHV-6. Parmi les sept patients traités par ganciclovir, trois traitements ont été couronnés de succès, un n'a eu aucun effet et a été changé par du foscavir, et trois autres ont été difficiles à évaluer car indiqués à l'origine pour le CMV, ils n'ont pas bénéficié d'une durée suffisamment longue de traitement et se sont négativés que tardivement après l'arrêt du ganciclovir. Pour le cidofovir, deux patients ont été traités avec succès, les trois autres traités à la base pour une adénovirose n'ont pas bénéficié d'une durée suffisamment longue pour juger de l'efficacité. Les bithérapies (n=3) ont été efficaces. • Efficacité sur la mortalité Nous avons testé l'impact du traitement de la réactivation HHV-6 sur la mortalité de la population HHV-6+ (Tableau 21). La proportion de patients traités n'est pas plus importante chez les patients HHV-6+ décédés que chez les HHV-6+non traités (15 (51,7%) vs 13 (46,4%)). Tableau 21: Effet du traitement anti-HHV-6 sur la mortalité Décès Non Oui N=203 N=181 N %/moy N %/moy p** 27 13,3 29 16,4 NS 13 46,4 15 51,7 NS HHV-6 oui Traitement anti-HHV-6 oui III.1.8. Conclusion Sur cette cohorte de 390 patients allogreffés de CSH sur une période de dix ans, l'incidence des réactivations HHV-6 atteint 15% sur un suivi de 150 jours post-greffe. La majorité ayant été considéré comme asymptomatique (65%), les répercutions cliniques de ces réactivations ont été difficiles à mettre en évidence. Deux cas avérés d'encéphalites et quelques cas de cytopénie, retard de sortie d'aplasie ont été rapportés (n=8), ainsi que trois fièvres non documentées, un rash, quatre GVHD sévère. L'analyse statistique des 85 facteurs associés à la réactivation HHV-6 a mis en évidence un lien entre la réactivation HHV-6 et le type de greffon et la GVHA. La réactivation HHV-6 augmente significativement le délai de sortie de thrombopénie, le délai de sortie d'aplasie et la sévérité du GVHA. Aucun lien n'est retrouvé avec l'âge, le sexe, la malignité de l'hémopathie, la parenté du donneur, le conditionnement ou la prescription de SAL. Le lien entre la réactivation HHV-6 et d'autres infections a été établi pour les septicémies; en revanche, ce lien n'est pas significatif pour le CMV et les autres virus. L'impact de la réactivation HHV-6 sur la mortalité n'a pas été établi. Les facteurs associés significativement au décès sont l'âge, la pathologie initiale, les septicémies, les infections fongiques, les GVHA. Auparavant nous avons pu établir un lien significatif entre la réactivation HHV-6 et les septicémies, les GVHA. Enfin, concernant le traitement antiviral des infections HHV-6, si l'efficacité a été établie sur la négativation des ADNémies HHV-6, l'impact sur la survie de la population HHV-6+ n'est pas significatif. III.2. Diagnostic et suivi virologique des patients HHV-6 Sur les 390 patients allogreffés analysés, 60 ont eu au moins une charge virale positive dans les 150 jours qui ont suivi leur greffe. Une charge virale est considérée comme positive à partir du moment où elle est détectable. Parmi ces 60 patients, 57 ont présenté une réactivation virale classique avec absence de charge virale détectable en pré greffe, apparition d'une charge virale et négativation à plus ou moins long terme, avec ou sans traitement; deux patients ont présenté en post-greffe des charges virales très élevées qui se maintiennent supérieures à 106 copies/mL ; une patiente présentait déjà une charge virale supérieure à 106 copies/mL en pré-greffe, avant d'observer une diminution de sa charge virale en post-greffe. On observe donc deux types de population selon l'intensité de la charge virale. Une fois la réactivation virale établie analytiquement, reste à distinguer les simples réactivations virologiques des réactivations cliniquement significatives. III.2.1. Patients ayant présentés une réactivation 86 III.2.1.1 Incidence de la réactivation HHV-6 par rapport aux techniques de PCR Sur la période considérée (10 ans), trois PCR différentes ont été utilisées pour le diagnostic des infections à HHV-6. L'incidence des réactivations HHV-6 de 1999 à 2003 avec l'utilisation d'une PCR qualitative classique, s'élève à 7,63% (10/131). Celle entre 2003 et 2006 avec l'utilisation d'une PCR quantitative, s'élève à 21,8% (26/119). Et enfin celle utilisant de la PCR quantitative en temps réel de 2006 à 2008, s'élève à 15,3% (21/137) (Figure 14). 25 Incidence cumulée (%) 20 PCR qualitative 1999-2003 15 PCR quantitative 2003-2006 10 PCR quantitative temps réel 2006-2008 5 0 0 50 100 150 Jours post-greffe Figure 14: Incidence de la réactivation en fonction de la technique PCR III.2.1.2 Délai de la réactivation HHV-6 Les délais de réactivation virale s'échelonnent de J4 à J156 (Figure 15). 45,6% des réactivations se déroulent entre deux et quatre semaines après la greffe, 5,3% dans la première semaine, et 49,1% au-delà de quatre semaines dont 22,8% supérieur à sept semaines. Le délai médian se situant à 23 jours après la greffe. 87 30 25 % patients 20 15 10 5 0 1 2 3 4 5 6 7 8 >8 semaines après greffe Figure 15: Délai de la réactivation III.2.1.3 Intensité de la charge virale HHV-6 • Valeurs des charges virales HHV-6 Les charges virales à la première détection ont été à 74,5% (35/47) détectables (>250 copies/mL et <2500 copies/mL). Les 12 autres charges virales (25,5%) ont été quantifiables (≥2500 copies/mL), entre 2319 et 174000 copies/mL (médiane à 4769 copies/mL). A noter que les résultats antérieurs à 2003 (n=10) ont été rendus de manière qualitative, leur intensité n'est donc pas évaluable, c'est pourquoi ils n'ont pas été comptabilisés dans le tableau. Pour les pics viraux, 16 (34,0%) ont été quantifiables, de 2312 à 1740000 copies/mL (médiane à 28258 copies/mL) (Tableau 22). 88 Tableau 22: Intensité de la charge virale au moment de la première détection et au pic Effectifs patients N=57 1ère charge virale pic charge virale N % N % 35 74,5 31 66,0 9 19,1 4 8,5 2 4,3 8 17,0 1 2,1 4 8,5 0 0,0 0 0,0 détectable < 2,5.103 2,5.103-1.104 1.104-1.105 1.105-1.106 >106 A noter que l'ensemble des réactivations ayant présenté une charge virale quantifiable (≥2500 copies/mL) à la première détection, se situe dans des délais ne dépassant pas 50 jours. Pour les réactivations plus tardives (>50 jours), les charges virales n'ont pas dépassé le seuil de quantification, se situant entre le seuil de détection (250 copies/mL) et le seuil de quantification (2500 copies/mL). • Facteurs influençant l'intensité de la charge virale HHV-6 Nous avons étudiés l'influence de facteurs décrits dans la littérature sur l'intensité de la charge virale HHV-6 (Tableau 23). Les receveurs de sang de cordon seraient associés à des réactivations avec des charges virales HHV-6 plus intenses que dans les autres types de greffon [Sashihara et al., 2002, Tanaka et al., 2005, Yamane et al., 2007]. Cette observation n'est pas confirmée ici. En effet, parmi les receveurs de sang de cordon HHV6+, 23,1% (6/26) ont une charge virale supérieure au seuil de quantification (>2500 copies/mL) contre 25,0%(6/24) chez les receveurs de moelle. Le type de greffon n'a donc pas d'incidence sur l'intensité des charges virales HHV-6. D'autre part, il a été décrit dans les infections à adénovirus chez les greffés de CSH que le jeune âge est associé à des charges virales de forte intensité [Feuchtinger et al., 2007]. Dans notre étude, il y a 17,9% des patients <18 ans qui ont eu des charges 89 quantifiables (>2500 copies/mL), contre 24,1% chez les patient >18 ans. La médiane d'âge des patients ayant des charges >2500 copies/mL est de 23,2 ans; celle de la population HHV-6+ entière est de 23,4 ans. Il n'y a donc pas d'influence de l'âge sur l'intensité des charges virales. Tableau 23: Pourcentage de patients HHV-6+ ayant une charge virale >2500 copies/mL Effectifs patients Age <18 ans 1ère charge virale >2500 copies/mL • Greffon >18 ans Moelle CSP Cordon N=28 % N=29 % N=24 % N=7 % N=26 % 5 17,9 7 24,1 6 25,0 0 0,0 6 23,1 Association intensité de la charge virale et signes cliniques Parmi les patients présentant une charge virale quantifiable (>2500 copies/mL) à la première détection, 16,7% (2/12) ont présenté des signes cliniques. Pour ceux dont la première charge virale est seulement détectable (<2500 copies/mL), 34,3% (12/35) ont présenté des signes cliniques. Il ne semble donc pas qu'il y ait de liaisons entre l'intensité des charges virales à la première détection et la répercussion clinique. Pour les pics de charges virales HHV-6, 18,8% (3/16) sont associés à des signes cliniques lorsque la charge virale est quantifiable et 35,5% (11/31) lorsqu'elles restent seulement détectables. Tableau 24: Association intensité de le charge virale HHV-6 / signes cliniques Effectifs patients 1ère charge virale <2500 copies/mL N=35 % pic charge virale >2500 copies/mL N=12 % <2500 copies/mL N=31 % >2500 copies/mL N=16 % Symptomatiques 12 34,3 2 16,7 13 22,8 3 25,0 23 65,7 10 83,3 18 54,1 13 75,0 Asymptomatiques 90 III.2.1.4 Exemples de profils de réactivation 91 Limite de quantification Charge virale HHV-6 en copies/mL LCR + Charge virale HHV-6 en copies/1E+06 cellules Foscavir® Leucocytes 1,E+02 1,E+00 1,E+04 78 74 70 66 62 58 54 50 Jours post-greffe 46 42 38 34 30 26 22 18 14 10 6 1,E-02 2 1,E+00 -2 1,E-01 -6 1,E+02 109 Leucocytes/mL 1,E+01 1,E+06 -1 0 HHV-6 Eq copies 1,E+08 Figure 16: Réactivation HHV-6 avec encéphalite Pour ce patient, la réactivation HHV-6 a eu lieue dans la troisième semaine, la charge virale est importante à la première détection 1,33 .106 copies/106 cellules mais <106 copies/mL. Elle se traduit cliniquement par une encéphalite et régresse sous traitement pour se négativer. 92 Limite de quantification Charge virale HHV-6 en copies/mL HHV-6 Eq copies 1,E+10 Foscavir® 1,E+08 1,E+01 1,E+06 1,E+00 1,E+04 1,E-01 1,E+02 10 0 90 80 70 60 50 40 30 20 10 1,E-02 0 -1 0 1,E+00 109 Leucocytes/mL Charge virale HHV-6 en copies/1E+06 cellules 1,E+02 Leucocytes Jours post-greffe Figure 17: Réactivation HV-6 asymptomatique Chez ce deuxième patient, la réactivation a lieu dans la deuxième semaine, elle ne se traduit pas cliniquement et régresse sous foscavir (traitement de 14 jours) pour se négativer. 93 III.2.2. Patients ayant présenté une intégration III.2.2.1 Délai et intensité des charges virales HHV-6 • Patients présentant un profil d'intégration en post-greffe Trois patients ont présenté des profils particuliers, deux patients ne présentant pas de charges virales en pré-greffe ont présenté des charges virales très rapidement en postgreffe (J1 pour l'un et J6 pour l'autre). L'intensité des ADNémies atteint des taux très élevés >106 copies/mL dès J17 et J26 pour ne plus redescendre en dessous 106 copies/mL ensuite. L'expression des charges virales en copies/106 cellules nous montre que les charges virales atteignent des taux >106 copies/106 cellules très rapidement dès les premiers jours (J1 et J26). Puis ces charges virales se stabilisent à 107 copies/106 cellules dès J8 pour le patient 1 et à 106 copies/106 cellules à J28 pour le patient 2. Les chimères reviennent 100% donneur à J30. Les PBMC des donneurs des deux patients ont été testés, ils présentent des charges virales très élevés >107 copies/mL. 94 Limite de détection Charge virale HHV-6 en copies/mL Charge virale HHV-6 en copies/1E+06 cellules Leucocytes 1,E+02 1,E+06 1,E+00 1,E+04 1,E-01 1,E+02 60 50 40 30 20 10 1,E-02 0 1,E+00 109 Leucocytes/mL 1,E+01 1,E+08 -1 0 HHV-6 Eq copies 1,E+10 Jours post-greffe Figure 18: Profil intégration patient 1 95 Limite de quantification Charge virale HHV-6 en copies/mL Charge virale HHV-6 en copies/1E+06 cellules Leucocytes 1,E+02 1,E+10 1,E+01 1,E+06 1,E+04 1,E+00 109 Leucocytes/mL Cymevan® 1,E+08 1,E+02 60 55 50 45 40 35 30 25 20 15 10 5 0 1,E-01 -5 1,E+00 -1 0 HHV-6 Eq copies Foscavir ® Jours post-greffe Figure 19: Profil intégration patient 2 96 On remarque que la mise en place d'un traitement antiviral chez le patient 2, du foscarnet de J6 à J28 et du ganciclovir de J30 à J48, n'a aucun effet sur la charge virale HHV-6 qui reste toujours supérieure à 106 copies/106 cellules. Le patient 1 n'a eu aucun traitement de mis en place. Pendant la période d'aplasie, aucun signe clinique n'a été répertorié, ni aucun autre virus détecté. • Patient présentant un profil d'intégration en pré-greffe Une patiente présentait en pré-greffe une charge virale élevée >106 copies/mL sur plusieurs prélèvements consécutifs. La charge virale a ensuite décru progressivement suite à l'aplasie et à la greffe de moelle pour se stabiliser à une charge virale détectable à partir de J180. La chimère est revenue 100% donneur à partir de J30. Les PBMC du donneur ont été testés en HHV-6 et se sont révélés négatifs. Un prélèvement capillaire chez le receveur est revenu positif à HHV-6. Les résultats exprimés en copies/106 cellules montrent également une décroissance globale entre J12 et J120. Un traitement antiviral par Foscavir® est instauré à partir de J7 jusqu'à J28, alors que la charge virale en copies/mL décroît au même rythme que sans traitement, la charge virale exprimée en copies/106 cellules, elle, augmente jusqu'à 109 copies/106 cellules à J19 puis décroît ensuite de J19 à J26 pour retrouver la même pente que la courbe en copies/mL. Cliniquement, une fièvre non documentée est répertoriée de J1 à J15. 97 Limite de détection Fièvre Charge virale HHV-6 en copies/1E+06 cellules Charge virale HHV-6 en copies/mL Foscavir® Leucocytes 1,E+00 1,E-01 9 1,E+01 1,E+05 1,E+04 1,E+03 1,E+02 1,E+01 0 0 0 0 0 0 0 0 0 0 0 0 0 0 23 22 21 20 19 18 17 16 15 14 13 12 11 10 90 80 70 60 50 40 30 20 10 1,E-02 0 1,E+00 -1 0 HHV-6 Eq copies 1,E+08 1,E+07 1,E+06 10 Leucocytes/mL 1,E+02 1,E+10 1,E+09 Jours post-greffe Figure 20: Profil intégration patient 3 98 III.2.3. Conclusion Le but est de définir des profils théoriques de réactivation virale et d'intégration virale de l'HHV-6 dans les greffes de CSH afin d'identifier et traiter les véritables réactivations virales cliniquement expressives et d'éviter de traiter inutilement des patients chez qui le virus est intégré au génome cellulaire sans risque clinique associé à ce jour. III.2.3.1 Arguments cliniques et biologiques en faveur d'une réactivation • Charge virale HHV-6+ dans les semaines qui suivent la greffe L'HHV-6, au même titre que les autres herpèsvirus, est un virus latent et donc susceptible de se réactiver lorsque les conditions sont propices. L'aplasie qui entoure les greffes de CSH est un contexte propice à la réactivation de l'HHV-6. Donc toute présence d'une charge virale HHV-6 chez un allogreffé de CSH dans les semaines qui suivent la greffe est une réactivation virologique du virus HHV-6. La sortie d'aplasie se faisant préférentiellement dans les 30 jours qui suivent la greffe, les réactivations HHV-6 se font elles aussi surtout dans les quatre premières semaines qui suivent la greffe. • Charges virales HHV-6 modérées Des charges virales, en première détection et surtout au pic, d'intensité modérée 103-104 copies/mL (105-106 copies/106 cellules) sont plus en faveur d'une réactivation. Ça été le cas dans cette étude où la plupart des profils de réactivation ont eu des charges virales de faible intensité en dessous du seuil de quantification. • Signes cliniques La présence de signes cliniques, tels qu'encéphalites, cytopénies, rashs cutanés, fièvres, GVHD sévère, non documentés par un autre agent infectieux et en l'absence d'une co-infection virale comme notamment le CMV, en concomitance avec une ADNémie HHV-6 peut évoquer le fait que la réactivation virologique HHV-6 soit cliniquement expressive. • Efficacité du traitement antiviral Une baisse de la charge virale sous foscarnet, ganciclovir ou cidofovir signant une efficacité des traitements antiviraux agissant sur la réplication de l'HHV-6 est en faveur d'une réactivation virologique, définie comme étant la production d'un cycle de réplication complet. 99 L'ensemble de ces quatre facteurs constitue un faisceau d'arguments en faveur d'une réactivation virale HHV-6. III.2.3.2 Arguments cliniques et biologiques en faveur d'une intégration III.2.3.2.a) • Intégration chez le donneur de CSH Présence de charges virales très élevées chez le receveur dans les jours qui suivent la greffe La présence d'une charge virale élevée >106 copies/mL (107-109 copies/106 cellules) dans les jours qui suivent la greffe et la persistance de cette charge virale élevée évoque un profil d'intégration génomique des CSH du donneur. Cependant, la prudence s'impose car certain profil de réactivation virale présente des charges virales très élevées ponctuellement notamment dans les cas d'encéphalites, cela a été le cas d'un patient non inclus dans la cohorte, car greffé en 2009, qui a présenté une première charge virale >106 copies/mL qui a ensuite régressée sous traitement. 100 Limite de quantication Charge virale HHV-6 en copies/1E+06 cellules Charge virale HHV-6 en copies/mL Leucocytes 1,E+08 1,E+02 1,E+01 1,E+05 1,E+04 1,E+00 1,E+03 1,E+02 1,E-01 109 Leucocytes/mL 1,E+06 1,E+01 45 40 35 30 25 20 15 10 5 0 1,E-02 -5 1,E+00 -1 0 HHV-6 Eq copies 1,E+07 Jours post-greffe Figure 21: Charges virales patient ayant présenté une encéphalite à HHV-6 en post-greffe 101 • Absence de signes cliniques Une charge virale élevée sans signe clinique est en faveur d'un profil d'intégration. Les deux cas présentés dans la cohorte n'ont pas présenté de signe clinique. • Inefficacité du traitement antiviral L'absence d'effet des antiviraux classiquement actifs sur l'HHV-6 est en faveur d'une absence de réplication virale. • PBMC du donneur positif HHV-6 Une PCR positive sur les PBMC du donneur est en faveur d'une intégration génomique chez ce donneur. III.2.3.2.b) Intégration chez le receveur de CSH • Présence de charges virales très élevées chez le receveur avant la greffe • Absence de signes cliniques • Inefficacité du traitement antiviral • Diminution de la charge virale en post-greffe La chimérisation se faisant, il ne reste progressivement plus de cellules souches receveur remplacées par les CSH du donneur d'où la disparition progressive de la charge virale HHV-6. • PBMC donneur HHV-6 négatif • Recherche HHV-6 dans d'autres cellules La recherche positive d'HHV-6 dans d'autres cellules que celles du sang, telles que les follicules pilaires, évoque une intégration du receveur. III.2.3.3 Profils théoriques III.2.3.3.a) Réactivation 102 /ml Charge virale HHV-6 /cellules -10 0 5 Leucocytes Leucocytes 10 15 20 30 40 Jours post-greffe Figure 22: Profil théorique d'une réactivation de l'HHV-6 en post-greffe chez le patient greffé de CSH III.2.3.3.b) Donneur Leucocytes Charge virale HHV-6 • Intégration /ml /cellules Leucocytes -10 0 5 10 15 20 25 Jours post-greffe Figure 23: Profil théorique d'une intégration de l'HHV-6 en post-greffe chez le patient greffé de CSH à partir d'un donneur intégré • Receveur 103 Charge virale HHV-6 /ml -10 0 5 10 15 20 Leucocytes /cellules Leucocytes 25 Jours post-greffe Figure 24: Profil théorique d'une intégration de l'HHV-6 en pré-greffe chez un patient greffé de CSH III.2.3.4 Algorithme de prise en charge 104 PCR HHV-6 Positive Charge virale > 106 copies/mL Signes cliniques Charge virale < 106 copies/mL Signes cliniques + - - + Test thérapeutique Test thérapeutique + - + Virus intégré Réactivation virale Donneur positif Donneur négatif Transmission du virus intégré au décours de la greffe Patient receveur porteur d'un virus intégré Résistance virale Confirmé ée par la dé détection du virus Confirm dans les cellules épithé pithéliales Figure 25: Algorithme de prise en charge biologique des infections à HHV-6 en post-allogreffe de CSH 105 DISCUSSION Les infections à HHV-6 dans les greffes de CSH sont courantes, cependant leurs répercutions cliniques ne sont pas encore totalement élucidées. Pour essayer de clarifier cette situation, plusieurs études ont tenté d'évaluer l'incidence de la réactivation HHV-6 en utilisant différentes techniques incluant l'isolement du virus, la recherche d'antigénémie, et la PCR. Dans notre étude, en utilisant successivement une PCR qualitative de 1999 à 2003, une PCR quantitative de 2003 à 2006 et une PCR quantitative en temps réel de 2006 à aujourd'hui, sur la plus large cohorte étudiée (n=390), nous obtenons une incidence qui s'élève à 14,7%. Le délai de réactivation de l'HHV-6 médian se situe vers quatre semaines. La réactivation HHV-6 s'est trouvée statistiquement plus fréquente chez les patients ayant reçu un greffon de type cordon et chez les patients présentant une GVHA ≥ 2. Cliniquement, la réactivation HHV-6 se trouve statistiquement associée à un allongement des délais de sortie d'aplasie et de reconstitution plaquettaire, ainsi qu'à des GVHA plus sévères de stade ≥ 3. La proportion de septicémie s'est trouvé plus importante dans la population ayant réactivé l'HHV-6. Les infections à HHV-6 ont été responsables par ailleurs de deux encéphalites et suspectées d'être responsables de fièvres, d'un rash cutané et d'une oesophagite. Cependant la majorité (65%) des réactivations HHV-6 s'est avérée cliniquement silencieuse. La réactivation HHV-6 n'a pas été statistiquement retrouvée comme étant un facteur de mortalité. L'arsenal thérapeutique antiviral utilisé dans notre étude contre les infections à HHV-6 (foscarnet, ganciclovir, cidofovir ou bithérapies) s'est avéré efficace sauf pour deux patients traités par foscarnet et pour un patient traité par ganciclovir. Les études de la littérature sur la réactivation HHV-6 en post-allogreffe de CSH font état d'incidences plus élevées que dans notre étude, variant de 26,0 à 78,0% (Annexe 1). Si les effectifs considérés sont moindres par rapport à notre étude (26-228 vs 390), les périodes de suivi post-greffe sont concordants avec notre étude (5-52 semaines vs 21 106 semaines). La fréquence du suivi est hebdomadaire dans la plupart des études, elle est bihebdomadaire ou hebdomadaire dans notre étude. Les délais médians de réactivation HHV-6 se situent principalement dans le mois qui suit la greffe (3-7 semaines), comme celui de notre étude qui se situe dans la 4ème semaine. En revanche, les techniques utilisées sont très variables, elles ne sont pas standardisées, les sensibilités des tests sont variables ainsi que les échantillons utilisés (sang total/PBMC/plasma). L'utilisation de la PCR qualitative ne permet pas de distinguer une infection latente d'une infection active, les PCR utilisant les lymphocytes ou PBMC comme échantillons détectent le génome latent de l'HHV-6 et donnent donc des faux positifs [Yoshikawa et al., 2004], les PBMC ayant été identifiés comme un site de latence préférentiel de l'HHV-6 [Braun et al., 1997a]. L'arrivée de la PCR quantitative sur plasma ou sang total a permis de résoudre en partie ce problème [Achour et al., 2007]. Mais les sensibilités analytiques ne sont pas standardisées. Les seuils de détection analytiques varient de 25 à 250 copies/mL selon les études. Hors en regardant de plus près les études de Zerr et de Yamane par exemple [Yamane et al., 2007, Zerr et al., 2005], qui présentent des incidences de réactivation HHV-6 respective de 47,0% et de 48,0% avec des seuils de détection de 25 copies/mL et 200 copies/mL, on constate que dans l'étude de Zerr la charge virale médiane des patients HHV-6+ se situe à 138 copies/mL. Le seuil de détection de notre technique actuelle est de 250 copies/mL, soit dix fois plus élevé que celui de l'étude de Zerr. Avec notre technique actuelle, au minimum la moitié des patients n'aurait pas pu être détectée. Dans l'étude de Yamane, 15 des 36 échantillons positifs (41,7%) se situent juste au seuil de détection (200 copies/mL), notre seuil étant à 250 copies/mL nous ne les aurions pas détectés. De plus, comparativement les incidences des réactivations HHV-6 dans les greffes hépatiques présentent des écarts encore plus importants de 14% à 82% [Dockrell and Paya et al., 2001, Emery et al., 2001, Mendez et al., 2001]. Et au sein même de notre étude, l'incidence est très différente par rapport aux trois techniques de PCR utilisées. L'utilisation d'une PCR qualitative classique de 1999 à 2003, montre une incidence moindre par rapport aux PCR quantitatives utilisées par la suite de 2003 à 2006 et de 2006 à 2008 (7,63% (10/131) vs 21,8% (26/119) vs 15,3% (21/137)), nos deux techniques quantitatives ayant des seuils de détection différents (200 copies/mL vs 250 copies/mL). Le fait que les techniques de détection ne soient pas standardisées au niveau international et que les échantillons analysés soient différents entre les laboratoires, ne permet pas de comparer ces études. Concernant les facteurs de risque associés à la réactivation HHV-6, la littérature fait état des deux facteurs que nous avons trouvés dans notre étude: greffon de type cordon [Imbert-Marcille et al., 2000, Sashihara et al., 2002, Yamane et al., 2007] et la GVHA [de Pagter et al., 2008a, Radonic et al., 2005]. Pour le greffon de type cordon, l'immaturité 107 immunologique et l'absence de cellules T spécifiques [Yamane et al., 2007] semble être l'explication à ce risque associé. Pour la GVHA, l'explication est moins nette, certaines études la considèrent comme une manifestation clinique de la réactivation clinique [de Pagter et al., 2008a, Zerr et al., 2005], d'autres comme un facteur de risque [Radonic et al., 2005]. Il semble pourtant que l'HHV-6 soit par sa pathogénicité (infection lytique, réponse inflammatoire, lymphoprolifération) un facteur favorisant la GVHA [Grivel et al., 2003], comme cela est décrit pour d'autres réactivations virales [Gratama et al., 1987]. D'autres facteurs sont rapportés par la littérature: l'âge du patient, le risque étant plus important pour les patients < 18 ans [Zerr et al., 2005], l'incompatibilité du sexe donneur/receveur [Zerr et al., 2005], la non parenté du donneur [Hentrich et al., 2005, Ljungman et al., 2000], l'incompatibilité HLA donneur/receveur [Ogata et al., 2006, Yamane et al., 2007], la malignité de l'hémopathie [Zerr et al., 2005], le conditionnement myéloablatif [de Pagter et al., 2008b], l'utilisation de SAL [Ljungman et al., 2000], l'ICT [Savolainen et al., 2005], une prophylaxie par tacrolimus [Yamane et al., 2007] et la GVHC [de Pagter et al., 2008a]. Le fait que notre période d'intéressement se limte à J150 et que les patients décédés dans les cent premiers jours ne soient pas concidérés, nous a incités à ne pas étudier la GVHC sachant qu'elle se diagnostique qu'à partir de J100. Les incompatibilités HLA et les incompatibilités de sexe donneur/receveur n'ont pas été testées dans notre étude, les autres facteurs n'ont pas été significatifs ici. L'HHV-6 par son effet cytopathogène direct et ses propriétés immunomodulatrices [Lusso et al., 2006] est susceptible de créer un terrain favorable à d'autres infections. L'association CMV-HHV-6 a été la plus souvent mise en avant dans les réactivations virales chez les greffés de CSH. Déjà décrite en 1996 par Kadakia comme facteur de risque de l'infection à HHV-6 [Kadakia et al., 1996], elle sera reprise plus tard par deux autres équipes mais, cette fois-ci, comme manifestation clinique de l'infection à HHV-6 [Wang et al., 2006, Yamane et al., 2007]. Aucun lien similaire n'a pu être mis en avant dans notre étude, comme avec aucuns des autres virus. Le seul lien établit dans notre étude est celui avec les septicémies. Cliniquement l'ensemble des signes cliniques attribués, statistiquement ou pas, à la réactivation HHV-6 dans notre étude est répertorié dans la littérature, encéphalites [Drobyski et al., 1994], cytopénies [Singh and Carrigan et al., 1996], GVHA sévère [Zerr et al., 2005], fièvres et rashs [Asano et al., 1991]. Le rapport réactivation HHV-6 et mortalité n'a pas pu être établi dans notre étude. Les survies cumulées entre les populations HHV-6+ et HHV-6- sont quasiment identiques (47,4% vs 53,3%), la mortalité étant tout de même plus prononcée dans les semaines qui suivent la greffe pour la population HHV-6+. Et c'est peut-être là, que notre étude sur l'impact de l'infection à HHV-6 sur la survie montre ces 108 limites. En effet sachant que la majorité des décès au sein de la population se situait dans les 100 semaines qui ont suivi la greffe, peut-être aurions-nous du considérer la population décédée sur cette période et non sur la durée totale de considération de la cohorte (≈500 semaines). Dans l'étude où De Pagter établie un lien entre la réactivation HHV-6 et la mortalité, la période considérée correspond elle aussi à la période de considération de sa cohorte (≈150 jours) [de Pagter et al., 2008b]. L'étude sur la mortalité n'a donc pas été approfondie car elle nécessitait plus d'investigations sur la définition des délais à considérer, sur le suivi chronologique des facteurs susceptibles d'être associés au décès, et sur les causes associée au décès, ce qui n'était pas l'objectif principal de notre étude. L'étude de l'efficacité des traitements antiviraux sur les infections à HHV-6 a été également assez succincte. La seule chose qui peut être affirmée dans notre étude, est que les infections à HHV-6, associées à une symptomatologie sévère, ont été traitées avec succès par foscarnet (n=8), cidofovir (n=2) ou ganciclovir (n=3), conformément à ce que rapporte la littérature [Denes et al., 2004, Deray et al., 1989, Mookerjee and Vogelsang et al., 1997]. Certains traitements n'ont eu aucun impact sur les charges virales HHV-6, fautil parler de résistance virale ? La question nécessiterait également plus d'investigation sachant que des cas ont été décrits vis-à-vis du ganciclovir [Manichanh et al., 2001, Safronetz et al., 2003]. Dans la deuxième partie de notre travail, nous avons étudié les profils de suivi virologique de tous les patients ayant présenté au moins une charge virale HHV-6 positive (n=57), et des trois patients chez qui l'HHV-6 a été suspecté intégré. Parmi les 57 patients de notre étude ayant réactivé l'HHV-6, dix n'ont pas été analysés car leurs données étaient antérieures à 2003 et leurs charges virales rendues qualitativement. Pour les autres (n=47), la plupart des charges virales sont restées inférieures au seuil de quantification, entre 250 et 2500 copies/mL (74,5% à la première détection et 66,0% au pic de détection). L'intensité des charges virales lors de la réactivation HHV-6 est une variable souvent décrite dans les études de la littérature mais peu soumise à interprétation lorsqu'e celles-ci ne dépassent pas 106 copies/mL. L'équipe de De Pagter en 2008 a étudié chez des enfants greffés de CSH, les facteurs pouvant impacter sur l'intensité des charges virales lors de la réactivation HHV-6 [de Pagter et al., 2008b]. Les enfants ayant réactivé l'HHV-6 ont été divisés en trois groupes selon l'intensité de la charge virale, <250 copies/mL, entre 250 et 1000 copies/mL, et >1000 copies/mL. Aucun facteur de risque (âge, conditionnement, greffon) n'avait pu être associé à un groupe ou à un autre. Nous n'avons testé dans notre étude que le greffon de type cordon et l'âge, tous 109 deux déjà décrits dans la littérature; les charges virales HHV-6 seraient plus intenses chez les receveurs de sang de cordon que pour les autres types de greffon [Sashihara et al., 2002, Tanaka et al., 2005, Yamane et al., 2007], et le jeune âge serait associé à des charges virales de plus forte intensité dans les infections à adénovirus chez les greffés de CSH [Feuchtinger et al., 2007]. Dans notre étude, les proportions de patients HHV-6+ ayant des charges virales quantifiables (>2500 copies/mL) avec un greffon de sang de cordon ne diffèrent pas par rapport à ceux ayant des charges virales quantifiables avec un greffon de moelle (23,1% vs 25,0%), de même que le jeune âge non plus (17,9% vs 24,1%). Pour répondre à la problématique posée par la distinction entre infection active à HHV-6 et intégration de l'HHV-6 au génome cellulaire, nous avons établi des profils théoriques de suivi virologique correspondant à chaque situation (réactivation ou intégration) à partir d'exemples ciblés dans la cohorte étudiée. Le terme de réactivation virale HHV-6 correspond à une réinfection endogène à partir d'un HHV-6 resté à l'état latent. Dans la littérature, De Pagter a fait une revue bibliographique sur les réactivations chez les patients greffés de CSH [de Pagter et al., 2008a], l'ensemble des études répertoriées (Annexe 1) définie la réactivation HHV-6 comme la survenue d'au moins une charge virale dans les semaines qui suivent la greffe. Ces charges virales sont modérées <106 copies/mL [Ogata et al., 2006, Yamane et al., 2007, Zerr et al., 2005] et associées dans certains cas à des manifestations cliniques comme nous l'avons vu auparavant. Elles régressent généralement sous traitement antiviral adapté. L'étude des profils virologiques des 57 patients ayant réactivé l'HHV-6 confirme les observations de la littérature. Aucune charge virale ne dépasse 106 copies/mL à la première détection ni au pic viral, seule une dépasse 105 copies/mL à la première détection et quatre au pic viral. Le délai médian de réactivation est de 23 jours. Les charges virales ont généralement régressé sous traitement antiviral comme dans les deux profils que nous avons présentés. Le terme de virus HHV-6 intégré correspond à l'intégration du génome viral HHV-6 au génome de la cellule hôte. A l'heure actuelle, aucune technique de séquençage du génome intégré de l'HHV-6 n'existe. La multiplication des sites d'intégration en complique la tâche et ce ne sont pas des techniques applicables à grande échelle pour des virus à forte séroprévalence comme l'HHV-6. Seule la technique FISH arrive à mettre en évidence l'intégration génomique de l'HHV-6 [Tanaka-Taya et al., 2004, Torelli et al., 1995]. Cependant cette technique reste inférieure en terme de sensibilité et de spécificité à la biologie moléculaire, et elle est, elle non plus, pas applicable à grande échelle. En attendant de trouver des techniques adaptées, il faut pouvoir distinguer l'intégration 110 génomique de l'infection active à HHV-6 avec les moyens clinico-biologiques existants. Trois patients de la cohorte ont retenu notre attention et ont été suspectés d'avoir un génome viral HHV-6 intégré au génome cellulaire. Les trois présentaient des charges virales HHV-6 très importantes (>106 copies/mL) en permanence, deux dans les jours qui ont suivi la greffe et un dans les jours qui ont précédé la greffe. La présence de charges virales très importante (>106 copies/mL) est l'argument majeur en faveur d'une intégration, comme l'ont déjà démontrés Ward et Hubacek [Hubacek et al., 2007b, Ward et al., 2006]. En quantifiant en parallèle le gène cellulaire de l'actine, ils ont pu rapporter la charge virale au nombre de cellules et ainsi mettre en évidence qu'il y avait au moins une copie de génome viral par cellule dans les formes intégrées, ceci dans le sang comme dans les follicules pilleux. Ward a décrit pour la première fois la transmission de la forme intégrée de l'HHV-6 au cours d'une greffe de CSH, le génome intégré a été mis en évidence par technique FISH au niveau du chromosome 17 dans les PBMCs du donneur et du receveur en post-greffe mais pas dans les PBMCs du receveur en pré-greffe. Hubacek a mis en évidence la forme intégrée chez une patiente atteinte d'une anémie sévère aplasique. Il l'a confirmé en mettant en évidence l'ADN de l'HHV-6 ≥ 1copie/cellule sur un prélèvement capillaire. Une autre étude américaine sur des enfants présentant une intégration de l'HHV6 ,transmise de manière congénitale et confirmée par FISH en dehors d'un contexte de greffe de CSH, met en évidence la présence d'une charge virale élevée (≥1copie/cellule) dans les PBMCs, la salive, les urines, et les follicules pileux de ces enfants [Hall et al., 2008].Théoriquement l'intégration devrait concerner un nombre variable de cellules suivant le mode de transmission, soit une intégration dans toutes les cellules de l'organisme dans les cas de transmission verticale de cette forme intégrée décrite par Daibata [Daibata et al., 1999, Daibata et al., 1998], soit un mélange entre des cellules porteuses du génome et des cellules indemnes dans les autres modes de transmission (intra-utérine ?) encore soumis à interrogation [Hermouet and Minvielle et al., 2000, Luppi et al., 2006]. Dans le cadre des greffes de CSH, le choix de tester les PBMC du donneur apparaît judicieux pour conclure à la transmission de la forme intégrée au décours de la greffe. Le choix de tester un prélèvement capillaire chez le receveur apparaît, lui, judicieux pour conclure à une transmission héréditaire de la forme intégrée. Pour nos patients, nous avons retrouvé de l'ADN HHV-6 dans un prélèvement capillaire pour un patient et les PBMC des donneurs des deux autres patients ont été testés et ils présentaient des charges virales très importantes, comparables à celles trouvées dans le sang. L'ensemble des études sur l'intégration de l'HHV-6 n'associe, à ce jour, aucune manifestation clinique au virus intégré. Les traitements antiviraux n'ont également aucun 111 effet sur les charges virales des formes intégrées d'HHV-6 [Hubacek et al., 2007b]. Deux de nos patients ont bénéficié d'un traitement sans effet sur la charge virale HHV-6. Les profils de suivi virologique de ces trois patients correspondent à deux situations bien distinctes. Les profils d'intégration des patients 1 et 2 sont similaires au profil d'intégration post-greffe déjà décrit par Ward [Ward et al., 2006]. L'augmentation de la charge virale HHV-6 et des leucocytes en post-greffe sont strictement parallèles. La charge virale HHV-6 est très élevée, >106 copies/mL de sang total chez le receveur comme chez le donneur en post-greffe. Aucun signe clinique n'y est associé aussi bien chez le receveur que chez le donneur, il n'y a pas de réponse au traitement. Le profil du patient 3 est similaire à un cas déjà décrit par Hubacek [Hubacek et al., 2007a]. Chez un receveur porteur d'un HHV-6 intégré, la disparition de la charge virale HHV-6 est progressive après la greffe de CSH, sachant que le donneur n'est pas porteur. La charge virale devient non détectable dans le cas de Hubacek, elle reste détectable dans notre cas. Peut-être peut-on penser que des fragments du génome d'HHV-6 chromosomique soient relargés de compartiments extra-sanguins [Jeulin et al., 2009a]. D'un point de vue technique, le développement de la PCR du gène de l'albumine en parallèle de la PCR HHV-6 permet l'expression de la charge virale HHV-6 dans le sang par million de cellules [Gautheret-Dejean et al., 2002, Laurendeau et al., 1999]. Ce mode d'expression est plus approprié au suivi des infections à HHV-6 chez le sujet immunodéprimé. Dans le sang, les polynucléaires prennent une part importante dans la charge virale HHV-6. Les deux modes d'expression de la charge virale HHV-6 sont corrélés dans le sang et dans le LCR, lorsque le nombre de polynucléaires est normal. En revanche en cas de leucopénie, les charges virales exprimées en copies/106 cellules et celles exprimées en copies/mL ne sont plus corrélées [Gautheret-Dejean et al., 2009]. Ainsi, la charge virale peut être mesurée aussi bien dans le sang périphérique que dans un autre fluide biologique ou que dans n'importe quel tissu ou prélèvement cellulaire. Les mesures obtenues sont standardisées et peuvent ainsi être comparées entre différents compartiments de l'organisme. Dans les cas que nous avons étudié ici, la corrélation entre les charges virales exprimées en copies/mL et celles exprimées en copies/106 cellules semble correcte. Une seule discordance est apparue chez le patient porteur d'un virus intégré en pré-greffe: alors que sa charge virale dans le sang total décroît suite à la greffe de CSH, le patient présente une recrudescence de sa charge virale HHV-6 exprimée en copies/cellules à J19, non révélée par la charge virale en copies/mL, le patient étant encore légèrement neutropénique. S'agit-il d'un relargage massif passager ? S'agit-il d'une réactivation virale indépendante de la forme intégrée ? Toujours est-il que le suivi en 112 copies/cellules semble plus adapté, et permet de mettre en évidence des événements ignorés par la PCR en copies/mL chez le patient neutropénique. L'algorithme de prise en charge biologique des infections à HHV-6, que nous avons proposé, reprend toutes ces observations. Le seuil décisionnel est fixé à 106 copies/mL (1copie/cellule). Cependant comme nous l'avons observé chez un patient faisant une infection à HHV-6 avec encéphalite, des taux supérieurs à 106 copies/mL peuvent être associés à une réactivation virale. C'est pourquoi la charge virale seule ne suffit pas et doit être complétée par d'autres éléments: la clinique, la cinétique de la charge virale (présence d'une charge virale > 106 copies/mL sur plusieurs prélèvements consécutifs), la réponse au traitement. 113 CONCLUSION La mise en place du diagnostic moléculaire des infections à HHV-6 après allogreffe de CSH au laboratoire de virologie du CHU de Nancy, a permis sur ces dix années d'étude de détecter, de prévenir et de traiter des infections potentiellement graves. Comme nos l'avons vu, les techniques ne sont pas standardisées entre les laboratoires et ceci explique en partie les différences d'incidence trouvées entre les différentes études, sans pour autant qu'il y ait de répercussions cliniques. La découverte récente de l'intégration du virus au génome cellulaire a mis à mal l'interprétation des charges virales de forte intensité (>106 copies/mL), considérées jusqu'ici, le plus souvent à tort, comme des réactivations virales et traitées comme telles. Nous avons donc établi un algorithme de prise en charge biologique à partir d'éléments clinico-biologiques afin d'identifier les différentes situations virologique et clinique (intégration, réactivation virale symptomatique ou non). Cet algorithme présente l'avantage de se baser sur des arguments biologiques assez simples à mettre en avant à partir d'investigations peu invasives (sang total, follicules pileux) pour des patients ayant déjà des traitements lourds par ailleurs. Il a l'autre avantage d'identifier assez rapidement les profils d'intégration ou de réactivation virale afin d'éviter des traitements antiviraux dont la toxicité n'est pas négligeable. Deux situations potentielles mais peu probables restent cependant en suspend: Premièrement, que faire des charges virales <106 copies/mL non répondeuses aux traitements ? Doit-on parler de résistance virale ? Si la résistance au ganciclovir a été décrite, celle au foscarnet ou au cidofovir ne le sont pas encore. Nos deux cas d'échec thérapeutique du foscarnet n'ont pas eu de conséquence et les charges virales ont fini par être non détectables dans le temps. Deuxièmement, que faire des charges virales d'intensité constantes <106 copies/mL sur plusieurs prélèvements successifs, non répondeuses au traitement et sans clinique associée ? L'idée avancée par Luppi selon laquelle le phénomène d'intégration, hors transmission congénitale puisse ne concerner qu'une minorité de cellules infectées [Luppi et al., 2006], reste encore totalement hypothétique mais elle répondrait à cette situation. Une telle situation ne s'est pas présentée dans notre étude. 114 BIBLIOGRAPHIE 1. Ablashi DV, Balachandran N, Josephs SF, Hung CL, Krueger GR, Kramarsky B, et al. Genomic polymorphism, growth properties, and immunologic variations in human herpesvirus-6 isolates. Virology 1991;184:545-52. 2. Ablashi DV, Salahuddin SZ, Josephs SF, Imam F, Lusso P, Gallo RC, et al. HBLV (or HHV-6) in human cell lines. Nature 1987;329:207. 3. Achour A, Boutolleau D, Slim A, Agut H, Gautheret-Dejean A. Human herpesvirus6 (HHV-6) DNA in plasma reflects the presence of infected blood cells rather than circulating viral particles. J Clin Virol 2007;38:280-5. 4. Acott PD, Lee SH, Bitter-Suermann H, Lawen JG, Crocker JF. Infection concomitant with pediatric renal allograft rejection. Transplantation 1996;62:689-91. 5. Adams O, Krempe C, Kogler G, Wernet P, Scheid A. Congenital infections with human herpesvirus 6. J Infect Dis 1998;178:544-6. 6. Agut H, Aubin JT, Huraux JM. Homogeneous susceptibility of distinct human herpesvirus 6 strains to antivirals in vitro. J Infect Dis 1991;163:1382-3. 7. Akashi K, Eizuru Y, Sumiyoshi Y, Minematsu T, Hara S, Harada M, et al. Brief report: severe infectious mononucleosis-like syndrome and primary human herpesvirus 6 infection in an adult. N Engl J Med 1993;329:168-71. 8. Andre-Garnier E, Milpied N, Boutolleau D, Saiagh S, Billaudel S, Imbert-Marcille BM. Reactivation of human herpesvirus 6 during ex vivo expansion of circulating CD34+ haematopoietic stem cells. J Gen Virol 2004;85:3333-6. 9. Ansari A, Emery VC. The U69 gene of human herpesvirus 6 encodes a protein kinase which can confer ganciclovir sensitivity to baculoviruses. J Virol 1999;73:3284-91. 10. Asada H, Klaus-Kovtun V, Golding H, Katz SI, Blauvelt A. Human herpesvirus 6 infects dendritic cells and suppresses human immunodeficiency virus type 1 replication in coinfected cultures. J Virol 1999;73:4019-28. 11. Asano Y, Yoshikawa T, Suga S, Kobayashi I, Nakashima T, Yazaki T, et al. Clinical features of infants with primary human herpesvirus 6 infection (exanthem subitum, roseola infantum). Pediatrics 1994;93:104-8. 12. Asano Y, Yoshikawa T, Suga S, Nakashima T, Yazaki T, Fukuda M, et al. Reactivation of herpesvirus type 6 in children receiving bone marrow transplants for leukemia. N Engl J Med 1991;324:634-5. 13. Aubin JT, Poirel L, Agut H, Huraux JM, Bignozzi C, Brossard Y, et al. Intrauterine transmission of human herpesvirus 6. Lancet 1992;340:482-3. 14. Balachandran N, Amelse RE, Zhou WW, Chang CK. Identification of proteins specific for human herpesvirus 6-infected human T cells. J Virol 1989;63:2835-40. 15. Baldanti F, Michel D, Simoncini L, Heuschmid M, Zimmermann A, Minisini R, et al. Mutations in the UL97 ORF of ganciclovir-resistant clinical cytomegalovirus isolates differentially affect GCV phosphorylation as determined in a recombinant vaccinia virus system. Antiviral Res 2002;54:59-67. 16. Barone SR, Kaplan MH, Krilov LR. Human herpesvirus-6 infection in children with first febrile seizures. J Pediatr 1995;127:95-7. 115 17. Beovic B, Pecaric-Meglic N, Marin J, Bedernjak J, Muzlovic I, Cizman M. Fatal human herpesvirus 6-associated multifocal meningoencephalitis in an adult female patient. Scand J Infect Dis 2001;33:942-4. 18. Bethge W, Beck R, Jahn G, Mundinger P, Kanz L, Einsele H. Successful treatment of human herpesvirus-6 encephalitis after bone marrow transplantation. Bone Marrow Transplant 1999;24:1245-8. 19. Bhattarakosol P, Pancharoen C, Mekmullica J. Seroprevalence of anti-human herpes virus-6 IgG antibody in children of Bangkok, Thailand. Southeast Asian J Trop Med Public Health 2001;32:143-7. 20. Biberfeld P, Kramarsky B, Salahuddin SZ, Gallo RC. Ultrastructural characterization of a new human B lymphotropic DNA virus (human herpesvirus 6) isolated from patients with lymphoproliferative disease. J Natl Cancer Inst 1987;79:933-41. 21. Birnbaum T, Padovan CS, Sporer B, Rupprecht TA, Ausserer H, Jaeger G, et al. Severe meningoencephalitis caused by human herpesvirus 6 type B in an immunocompetent woman treated with ganciclovir. Clin Infect Dis 2005;40:887-9. 22. Black JB, Lopez C, Pellett PE. Induction of host cell protein synthesis by human herpesvirus 6. Virus Res 1992;22:13-23. 23. Black JB, Pellett PE. Human herpesvirus 7. Rev Med Virol 1999;9:245-62. 24. Boutolleau D, Agut H, Gautheret-Dejean A. Human herpesvirus 6 genome integration: a possible cause of misdiagnosis of active viral infection? J Infect Dis 2006;194:1019-20; author reply 1021-3. 25. Boutolleau D, Fernandez C, Andre E, Imbert-Marcille BM, Milpied N, Agut H, et al. Human herpesvirus (HHV)-6 and HHV-7: two closely related viruses with different infection profiles in stem cell transplantation recipients. J Infect Dis 2003;187:179-86. 26. Braun DK, Dominguez G, Pellett PE. Human herpesvirus 6. Clin Microbiol Rev 1997a;10:521-67. 27. Braun KA, Lao Y, He Z, Ingles CJ, Wold MS. Role of protein-protein interactions in the function of replication protein A (RPA): RPA modulates the activity of DNA polymerase alpha by multiple mechanisms. Biochemistry 1997b;36:8443-54. 28. Briggs M, Fox J, Tedder RS. Age prevalence of antibody to human herpesvirus 6. Lancet 1988;1:1058-9. 29. Campadelli P, Gangai C, Pasquale F. Automated morphometric analysis in peripheral neuropathies. Comput Biol Med 1999;29:147-56. 30. Carrigan DR, Knox KK. Human herpesvirus 6 (HHV-6) isolation from bone marrow: HHV-6-associated bone marrow suppression in bone marrow transplant patients. Blood 1994;84:3307-10. 31. Caserta MT, McDermott MP, Dewhurst S, Schnabel K, Carnahan JA, Gilbert L, et al. Human herpesvirus 6 (HHV6) DNA persistence and reactivation in healthy children. J Pediatr 2004;145:478-84. 32. Caserta MT, Mock DJ, Dewhurst S. Human herpesvirus 6. Clin Infect Dis 2001;33:829-33. 33. Challoner PB, Smith KT, Parker JD, MacLeod DL, Coulter SN, Rose TM, et al. Plaque-associated expression of human herpesvirus 6 in multiple sclerosis. Proc Natl Acad Sci U S A 1995;92:7440-4. 34. Clark DA. Human herpesvirus 6. Rev Med Virol 2000;10:155-73. 35. Clark DA, Ait-Khaled M, Wheeler AC, Kidd IM, McLaughlin JE, Johnson MA, et al. Quantification of human herpesvirus 6 in immunocompetent persons and post-mortem tissues from AIDS patients by PCR. J Gen Virol 1996;77 ( Pt 9):2271-5. 116 36. Clark DA, Nacheva EP, Leong HN, Brazma D, Li YT, Tsao EH, et al. Transmission of integrated human herpesvirus 6 through stem cell transplantation: implications for laboratory diagnosis. J Infect Dis 2006;193:912-6. 37. Clark DA, Ward KN. Importance of chromosomally integrated HHV-6A and -6B in the diagnosis of active HHV-6 infection. Herpes 2008;15:28-32. 38. Collot S, Petit B, Bordessoule D, Alain S, Touati M, Denis F, et al. Real-time PCR for quantification of human herpesvirus 6 DNA from lymph nodes and saliva. J Clin Microbiol 2002;40:2445-51. 39. Cone RW, Hackman RC, Huang ML, Bowden RA, Meyers JD, Metcalf M, et al. Human herpesvirus 6 in lung tissue from patients with pneumonitis after bone marrow transplantation. N Engl J Med 1993;329:156-61. 40. Daibata M, Taguchi T, Nemoto Y, Taguchi H, Miyoshi I. Inheritance of chromosomally integrated human herpesvirus 6 DNA. Blood 1999;94:1545-9. 41. Daibata M, Taguchi T, Sawada T, Taguchi H, Miyoshi I. Chromosomal transmission of human herpesvirus 6 DNA in acute lymphoblastic leukaemia. Lancet 1998;352:543-4. 42. De Bolle L, Naesens L, De Clercq E. Update on human herpesvirus 6 biology, clinical features, and therapy. Clin Microbiol Rev 2005a;18:217-45. 43. De Bolle L, Van Loon J, De Clercq E, Naesens L. Quantitative analysis of human herpesvirus 6 cell tropism. J Med Virol 2005b;75:76-85. 44. de Pagter PJ, Schuurman R, Meijer E, van Baarle D, Sanders EA, Boelens JJ. Human herpesvirus type 6 reactivation after haematopoietic stem cell transplantation. J Clin Virol 2008a;43:361-6. 45. de Pagter PJ, Schuurman R, Visscher H, de Vos M, Bierings M, van Loon AM, et al. Human herpes virus 6 plasma DNA positivity after hematopoietic stem cell transplantation in children: an important risk factor for clinical outcome. Biol Blood Marrow Transplant 2008b;14:831-9. 46. Deback C, Agbalika F, Scieux C, Marcelin AG, Gautheret-Dejean A, Cherot J, et al. Detection of human herpesviruses HHV-6, HHV-7 and HHV-8 in whole blood by real-time PCR using the new CMV, HHV-6, 7, 8 R-gene kit. J Virol Methods 2008;149:285-91. 47. Denes E, Magy L, Pradeau K, Alain S, Weinbreck P, Ranger-Rogez S. Successful treatment of human herpesvirus 6 encephalomyelitis in immunocompetent patient. Emerg Infect Dis 2004;10:729-31. 48. Deray G, Martinez F, Katlama C, Levaltier B, Beaufils H, Danis M, et al. Foscarnet nephrotoxicity: mechanism, incidence and prevention. Am J Nephrol 1989;9:316-21. 49. DesJardin JA, Gibbons L, Cho E, Supran SE, Falagas ME, Werner BG, et al. Human herpesvirus 6 reactivation is associated with cytomegalovirus infection and syndromes in kidney transplant recipients at risk for primary cytomegalovirus infection. J Infect Dis 1998;178:1783-6. 50. Di Luca D, Katsafanas G, Schirmer EC, Balachandran N, Frenkel N. The replication of viral and cellular DNA in human herpesvirus 6-infected cells. Virology 1990;175:199-210. 51. Di Luca D, Mirandola P, Ravaioli T, Dolcetti R, Frigatti A, Bovenzi P, et al. Human herpesviruses 6 and 7 in salivary glands and shedding in saliva of healthy and human immunodeficiency virus positive individuals. J Med Virol 1995;45:462-8. 52. Dockrell DH. Human herpesvirus 6: molecular biology and clinical features. J Med Microbiol 2003;52:5-18. 53. Dockrell DH, Paya CV. Human herpesvirus-6 and -7 in transplantation. Rev Med Virol 2001;11:23-36. 54. Dockrell DH, Prada J, Jones MF, Patel R, Badley AD, Harmsen WS, et al. Seroconversion to human herpesvirus 6 following liver transplantation is a marker of cytomegalovirus disease. J Infect Dis 1997;176:1135-40. 117 55. Dominguez G, Dambaugh TR, Stamey FR, Dewhurst S, Inoue N, Pellett PE. Human herpesvirus 6B genome sequence: coding content and comparison with human herpesvirus 6A. J Virol 1999;73:8040-52. 56. Drobyski WR, Dunne WM, Burd EM, Knox KK, Ash RC, Horowitz MM, et al. Human herpesvirus-6 (HHV-6) infection in allogeneic bone marrow transplant recipients: evidence of a marrow-suppressive role for HHV-6 in vivo. J Infect Dis 1993;167:735-9. 57. Drobyski WR, Knox KK, Majewski D, Carrigan DR. Brief report: fatal encephalitis due to variant B human herpesvirus-6 infection in a bone marrow-transplant recipient. N Engl J Med 1994;330:1356-60. 58. Emery VC. Human herpesviruses 6 and 7 in solid organ transplant recipients. Clin Infect Dis 2001;32:1357-60. 59. Enders G, Biber M, Meyer G, Helftenbein E. Prevalence of antibodies to human herpesvirus 6 in different age groups, in children with exanthema subitum, other acute exanthematous childhood diseases, Kawasaki syndrome, and acute infections with other herpesviruses and HIV. Infection 1990;18:12-5. 60. Feuchtinger T, Lang P, Handgretinger R. Adenovirus infection after allogeneic stem cell transplantation. Leuk Lymphoma 2007;48:244-55. 61. Flamand L, Gosselin J, D'Addario M, Hiscott J, Ablashi DV, Gallo RC, et al. Human herpesvirus 6 induces interleukin-1 beta and tumor necrosis factor alpha, but not interleukin-6, in peripheral blood mononuclear cell cultures. J Virol 1991;65:5105-10. 62. Flamand L, Gosselin J, Stefanescu I, Ablashi D, Menezes J. Immunosuppressive effect of human herpesvirus 6 on T-cell functions: suppression of interleukin-2 synthesis and cell proliferation. Blood 1995;85:1263-71. 63. Flamand L, Stefanescu I, Menezes J. Human herpesvirus-6 enhances natural killer cell cytotoxicity via IL-15. J Clin Invest 1996;97:1373-81. 64. Foa-Tomasi L, Avitabile E, Campadelli-Fiume G. Selection of a monoclonal antibody specific for variant B human herpesvirus 6-infected mononuclear cells. J Virol Methods 1995;51:289-96. 65. Foa-Tomasi L, Boscaro A, di Gaeta S, Campadelli-Fiume G. Monoclonal antibodies to gp100 inhibit penetration of human herpesvirus 6 and polykaryocyte formation in susceptible cells. J Virol 1991;65:4124-9. 66. Fox JD, Briggs M, Ward PA, Tedder RS. Human herpesvirus 6 in salivary glands. Lancet 1990;336:590-3. 67. Gautheret-Dejean A, Henquell C, Mousnier F, Boutolleau D, Bonnafous P, Dhedin N, et al. Different expression of human herpesvirus-6 (HHV-6) load in whole blood may have a significant impact on the diagnosis of active infection. J Clin Virol 2009;46:33-6. 68. Gautheret-Dejean A, Manichanh C, Thien-Ah-Koon F, Fillet AM, Mangeney N, Vidaud M, et al. Development of a real-time polymerase chain reaction assay for the diagnosis of human herpesvirus-6 infection and application to bone marrow transplant patients. J Virol Methods 2002;100:27-35. 69. Glucksberg H, Storb R, Fefer A, Buckner CD, Neiman PE, Clift RA, et al. Clinical manifestations of graft-versus-host disease in human recipients of marrow from HL-Amatched sibling donors. Transplantation 1974;18:295-304. 70. Goedhard JG, Galama JM, Wagenvoort JH. Active human herpesvirus 6 infection in an adolescent male. Clin Infect Dis 1995;20:1070-1. 71. Gompels UA, Macaulay HA. Characterization of human telomeric repeat sequences from human herpesvirus 6 and relationship to replication. J Gen Virol 1995;76 ( Pt 2):451-8. 72. Gompels UA, Nicholas J, Lawrence G, Jones M, Thomson BJ, Martin ME, et al. The DNA sequence of human herpesvirus-6: structure, coding content, and genome evolution. Virology 1995;209:29-51. 118 73. Gratama JW, Weiland HT, Hekker AC, Weijers TF, The TH, Stijnen T, et al. Herpes virus immunity and acute graft-versus-host disease. Transplant Proc 1987;19:2680-2. 74. Grivel JC, Santoro F, Chen S, Faga G, Malnati MS, Ito Y, et al. Pathogenic effects of human herpesvirus 6 in human lymphoid tissue ex vivo. J Virol 2003;77:8280-9. 75. Hall CB, Caserta MT, Schnabel K, Shelley LM, Marino AS, Carnahan JA, et al. Chromosomal integration of human herpesvirus 6 is the major mode of congenital human herpesvirus 6 infection. Pediatrics 2008;122:513-20. 76. Hall CB, Caserta MT, Schnabel KC, Long C, Epstein LG, Insel RA, et al. Persistence of human herpesvirus 6 according to site and variant: possible greater neurotropism of variant A. Clin Infect Dis 1998;26:132-7. 77. Hall CB, Long CE, Schnabel KC, Caserta MT, McIntyre KM, Costanzo MA, et al. Human herpesvirus-6 infection in children. A prospective study of complications and reactivation. N Engl J Med 1994;331:432-8. 78. Hentrich M, Oruzio D, Jager G, Schlemmer M, Schleuning M, Schiel X, et al. Impact of human herpesvirus-6 after haematopoietic stem cell transplantation. Br J Haematol 2005;128:66-72. 79. Hermouet S, Minvielle S. Inheritance of chromosomally integrated viral DNA? Blood 2000;95:1108-9. 80. Hoshino K, Nishi T, Adachi H, Ito H, Fukuda Y, Dohi K, et al. Human herpesvirus-6 infection in renal allografts: retrospective immunohistochemical study in Japanese recipients. Transpl Int 1995;8:169-73. 81. Hubacek P, Hyncicova K, Muzikova K, Cinek O, Zajac M, Sedlacek P. Disappearance of pre-existing high HHV-6 DNA load in blood after allogeneic SCT. Bone Marrow Transplant 2007a;40:805-6. 82. Hubacek P, Maalouf J, Zajickova M, Kouba M, Cinek O, Hyncicova K, et al. Failure of multiple antivirals to affect high HHV-6 DNAaemia resulting from viral chromosomal integration in case of severe aplastic anaemia. Haematologica 2007b;92:e98-e100. 83. Hudnall SD, Chen T, Allison P, Tyring SK, Heath A. Herpesvirus prevalence and viral load in healthy blood donors by quantitative real-time polymerase chain reaction. Transfusion 2008;48:1180-7. 84. Humar A, Kumar D, Caliendo AM, Moussa G, Ashi-Sulaiman A, Levy G, et al. Clinical impact of human herpesvirus 6 infection after liver transplantation. Transplantation 2002;73:599-604. 85. Imbert-Marcille BM, Tang XW, Lepelletier D, Besse B, Moreau P, Billaudel S, et al. Human herpesvirus 6 infection after autologous or allogeneic stem cell transplantation: a single-center prospective longitudinal study of 92 patients. Clin Infect Dis 2000;31:881-6. 86. Isegawa Y, Mukai T, Nakano K, Kagawa M, Chen J, Mori Y, et al. Comparison of the complete DNA sequences of human herpesvirus 6 variants A and B. J Virol 1999;73:8053-63. 87. Jacobs U, Ferber J, Klehr HU. Severe allograft dysfunction after OKT3-induced human herpes virus-6 reactivation. Transplant Proc 1994;26:3121. 88. Jeulin H, Guery M, Clement L, Salmon A, Beri M, Bordigoni P, et al. Chromosomally integrated HHV-6: slow decrease of HHV-6 viral load after hematopoietic stem-cell transplantation. Transplantation 2009a;88:1142-3. 89. Jeulin H, Salmon A, Gautheret-Dejean A, Agut H, Bordigoni P, Fortier B, et al. Contribution of human herpesvirus 6 (HHV-6) viral load in whole blood and serum to investigate integrated HHV-6 transmission after haematopoietic stem cell transplantation. J Clin Virol 2009b;45:43-6. 119 90. Johnston RE, Geretti AM, Prentice HG, Clark AD, Wheeler AC, Potter M, et al. HHV-6-related secondary graft failure following allogeneic bone marrow transplantation. Br J Haematol 1999;105:1041-3. 91. Josephs SF, Salahuddin SZ, Ablashi DV, Schachter F, Wong-Staal F, Gallo RC. Genomic analysis of the human B-lymphotropic virus (HBLV). Science 1986;234:601-3. 92. Kadakia MP, Rybka WB, Stewart JA, Patton JL, Stamey FR, Elsawy M, et al. Human herpesvirus 6: infection and disease following autologous and allogeneic bone marrow transplantation. Blood 1996;87:5341-54. 93. Kashanchi F, Araujo J, Doniger J, Muralidhar S, Hoch R, Khleif S, et al. Human herpesvirus 6 (HHV-6) ORF-1 transactivating gene exhibits malignant transforming activity and its protein binds to p53. Oncogene 1997;14:359-67. 94. Kato Z, Kozawa R, Teramoto T, Hashimoto K, Shinoda S, Kondo N. Acute cerebellitis in primary human herpesvirus-6 infection. Eur J Pediatr 2003;162:801-3. 95. Knox KK, Carrigan DR. Chronic myelosuppression associated with persistent bone marrow infection due to human herpesvirus 6 in a bone marrow transplant recipient. Clin Infect Dis 1996;22:174-5. 96. Knox KK, Harrington DP, Carrigan DR. Fulminant human herpesvirus six encephalitis in a human immunodeficiency virus-infected infant. J Med Virol 1995;45:288-92. 97. Kondo K, Kondo T, Okuno T, Takahashi M, Yamanishi K. Latent human herpesvirus 6 infection of human monocytes/macrophages. J Gen Virol 1991;72 ( Pt 6):14018. 98. Kondo K, Nagafuji H, Hata A, Tomomori C, Yamanishi K. Association of human herpesvirus 6 infection of the central nervous system with recurrence of febrile convulsions. J Infect Dis 1993;167:1197-200. 99. Kondo K, Shimada K, Sashihara J, Tanaka-Taya K, Yamanishi K. Identification of human herpesvirus 6 latency-associated transcripts. J Virol 2002;76:4145-51. 100. Krueger GR, Ablashi DV, Josephs SF, Salahuddin SZ, Lembke U, Ramon A, et al. Clinical indications and diagnostic techniques of human herpesvirus-6 (HHV-6) infection. In Vivo 1991;5:287-95. 101. Krueger GR, Wassermann K, De Clerck LS, Stevens WJ, Bourgeois N, Ablashi DV, et al. Latent herpesvirus-6 in salivary and bronchial glands. Lancet 1990;336:1255-6. 102. LaCroix S, Stewart JA, Thouless ME, Black JB. An immunoblot assay for detection of immunoglobulin M antibody to human herpesvirus 6. Clin Diagn Lab Immunol 2000;7:823-7. 103. Lau YL, Peiris M, Chan GC, Chan AC, Chiu D, Ha SY. Primary human herpes virus 6 infection transmitted from donor to recipient through bone marrow infusion. Bone Marrow Transplant 1998;21:1063-6. 104. Laurendeau I, Bahuau M, Vodovar N, Larramendy C, Olivi M, Bieche I, et al. TaqMan PCR-based gene dosage assay for predictive testing in individuals from a cancer family with INK4 locus haploinsufficiency. Clin Chem 1999;45:982-6. 105. Lautenschlager I, Hockerstedt K, Linnavuori K, Taskinen E. Human herpesvirus-6 infection after liver transplantation. Clin Infect Dis 1998;26:702-7. 106. Lautenschlager I, Linnavuori K, Hockerstedt K. Human herpesvirus-6 antigenemia after liver transplantation. Transplantation 2000;69:2561-6. 107. Leong HN, Tuke PW, Tedder RS, Khanom AB, Eglin RP, Atkinson CE, et al. The prevalence of chromosomally integrated human herpesvirus 6 genomes in the blood of UK blood donors. J Med Virol 2007;79:45-51. 108. Levy JA, Ferro F, Greenspan D, Lennette ET. Frequent isolation of HHV-6 from saliva and high seroprevalence of the virus in the population. Lancet 1990;335:1047-50. 120 109. Li C, Goodrich JM, Yang X. Interferon-gamma (IFN-gamma) regulates production of IL-10 and IL-12 in human herpesvirus-6 (HHV-6)-infected monocyte/macrophage lineage. Clin Exp Immunol 1997;109:421-5. 110. Ljungman P, Wang FZ, Clark DA, Emery VC, Remberger M, Ringden O, et al. High levels of human herpesvirus 6 DNA in peripheral blood leucocytes are correlated to platelet engraftment and disease in allogeneic stem cell transplant patients. Br J Haematol 2000;111:774-81. 111. Luppi M, Barozzi P, Bosco R, Vallerini D, Potenza L, Forghieri F, et al. Human herpesvirus 6 latency characterized by high viral load: chromosomal integration in many, but not all, cells. J Infect Dis 2006;194:1020-1; author reply 1021-3. 112. Luppi M, Barozzi P, Morris C, Maiorana A, Garber R, Bonacorsi G, et al. Human herpesvirus 6 latently infects early bone marrow progenitors in vivo. J Virol 1999;73:754-9. 113. Luppi M, Marasca R, Barozzi P, Ferrari S, Ceccherini-Nelli L, Batoni G, et al. Three cases of human herpesvirus-6 latent infection: integration of viral genome in peripheral blood mononuclear cell DNA. J Med Virol 1993;40:44-52. 114. Lusso P. HHV-6 and the immune system: mechanisms of immunomodulation and viral escape. J Clin Virol 2006;37 Suppl 1:S4-10. 115. Lusso P, Gallo RC. Human herpesvirus 6. Baillieres Clin Haematol 1995;8:201-23. 116. Lusso P, Garzino-Demo A, Crowley RW, Malnati MS. Infection of gamma/delta T lymphocytes by human herpesvirus 6: transcriptional induction of CD4 and susceptibility to HIV infection. J Exp Med 1995;181:1303-10. 117. Lusso P, Malnati M, De Maria A, Balotta C, DeRocco SE, Markham PD, et al. Productive infection of CD4+ and CD8+ mature human T cell populations and clones by human herpesvirus 6. Transcriptional down-regulation of CD3. J Immunol 1991;147:685-91. 118. Lusso P, Markham PD, Tschachler E, di Marzo Veronese F, Salahuddin SZ, Ablashi DV, et al. In vitro cellular tropism of human B-lymphotropic virus (human herpesvirus-6). J Exp Med 1988;167:1659-70. 119. Lusso P, Salahuddin SZ, Ablashi DV, Gallo RC, Di Marzo Veronese F, Markham PD. Diverse tropism of HBLV (human herpesvirus 6). Lancet 1987;2:743. 120. Mace M, Manichanh C, Bonnafous P, Precigout S, Boutolleau D, Gautheret-Dejean A, et al. Real-time PCR as a versatile tool for investigating the susceptibility of human herpesvirus 6 to antiviral agents. Antimicrob Agents Chemother 2003;47:3021-4. 121. Mackenzie IR, Carrigan DR, Wiley CA. Chronic myelopathy associated with human herpesvirus-6. Neurology 1995;45:2015-7. 122. Maeda T, Okuno T, Hayashi K, Nagata M, Ueda M, Terashima K, et al. Outcomes of infants whose mothers are positive for human herpesvirus-6 DNA within the genital tract in early gestation. Acta Paediatr Jpn 1997;39:653-7. 123. Manichanh C, Grenot P, Gautheret-Dejean A, Debre P, Huraux JM, Agut H. Susceptibility of human herpesvirus 6 to antiviral compounds by flow cytometry analysis. Cytometry 2000;40:135-40. 124. Manichanh C, Olivier-Aubron C, Lagarde JP, Aubin JT, Bossi P, Gautheret-Dejean A, et al. Selection of the same mutation in the U69 protein kinase gene of human herpesvirus6 after prolonged exposure to ganciclovir in vitro and in vivo. J Gen Virol 2001;82:2767-76. 125. McGavin JK, Goa KL. Ganciclovir: an update of its use in the prevention of cytomegalovirus infection and disease in transplant recipients. Drugs 2001;61:1153-83. 126. Mendez JC, Dockrell DH, Espy MJ, Smith TF, Wilson JA, Harmsen WS, et al. Human beta-herpesvirus interactions in solid organ transplant recipients. J Infect Dis 2001;183:179-184. 127. Mirandola P, Menegazzi P, Merighi S, Ravaioli T, Cassai E, Di Luca D. Temporal mapping of transcripts in herpesvirus 6 variants. J Virol 1998;72:3837-44. 121 128. Montejo M, Ramon Fernandez J, Testillano M, Valdivieso A, Aguirrebengoa K, Varas C, et al. Encephalitis caused by human herpesvirus-6 in a liver transplant recipient. Eur Neurol 2002;48:234-5. 129. Mookerjee BP, Vogelsang G. Human herpes virus-6 encephalitis after bone marrow transplantation: successful treatment with ganciclovir. Bone Marrow Transplant 1997;20:9056. 130. Moore PS, Gao SJ, Dominguez G, Cesarman E, Lungu O, Knowles DM, et al. Primary characterization of a herpesvirus agent associated with Kaposi's sarcomae. J Virol 1996;70:549-58. 131. Mori Y. Recent topics related to human herpesvirus 6 cell tropism. Cell Microbiol 2009;11:1001-6. 132. Mori Y, Akkapaiboon P, Yang X, Yamanishi K. The human herpesvirus 6 U100 gene product is the third component of the gH-gL glycoprotein complex on the viral envelope. J Virol 2003a;77:2452-8. 133. Mori Y, Akkapaiboon P, Yonemoto S, Koike M, Takemoto M, Sadaoka T, et al. Discovery of a second form of tripartite complex containing gH-gL of human herpesvirus 6 and observations on CD46. J Virol 2004;78:4609-16. 134. Mori Y, Seya T, Huang HL, Akkapaiboon P, Dhepakson P, Yamanishi K. Human herpesvirus 6 variant A but not variant B induces fusion from without in a variety of human cells through a human herpesvirus 6 entry receptor, CD46. J Virol 2002;76:6750-61. 135. Mori Y, Yang X, Akkapaiboon P, Okuno T, Yamanishi K. Human herpesvirus 6 variant A glycoprotein H-glycoprotein L-glycoprotein Q complex associates with human CD46. J Virol 2003b;77:4992-9. 136. Morris C, Luppi M, McDonald M, Barozzi P, Torelli G. Fine mapping of an apparently targeted latent human herpesvirus type 6 integration site in chromosome band 17p13.3. J Med Virol 1999;58:69-75. 137. Morris DJ, Littler E, Arrand JR, Jordan D, Mallick NP, Johnson RW. Human herpesvirus 6 infection in renal-transplant recipients. N Engl J Med 1989;320:1560-1. 138. Mukai T, Yamamoto T, Kondo T, Kondo K, Okuno T, Kosuge H, et al. Molecular epidemiological studies of human herpesvirus 6 in families. J Med Virol 1994;42:224-7. 139. Nacheva EP, Ward KN, Brazma D, Virgili A, Howard J, Leong HN, et al. Human herpesvirus 6 integrates within telomeric regions as evidenced by five different chromosomal sites. J Med Virol 2008;80:1952-8. 140. Nigro G, Luzi G, Krzysztofiak A, D'Orio F, Aiuti F. Detection of IgM antibodies to human herpesvirus 6 in Romanian children with nonprogressive human immunodeficiency virus disease. Pediatr Infect Dis J 1995;14:891-4. 141. Nii S, Yoshida M, Uno F, Kurata T, Ikuta K, Yamanishi K. Replication of human herpesvirus 6 (HHV-6): morphological aspects. Adv Exp Med Biol 1990;278:19-28. 142. Ogata M, Kikuchi H, Satou T, Kawano R, Ikewaki J, Kohno K, et al. Human herpesvirus 6 DNA in plasma after allogeneic stem cell transplantation: incidence and clinical significance. J Infect Dis 2006;193:68-79. 143. Okuno T, Higashi K, Shiraki K, Yamanishi K, Takahashi M, Kokado Y, et al. Human herpesvirus 6 infection in renal transplantation. Transplantation 1990;49:519-22. 144. Okuno T, Oishi H, Hayashi K, Nonogaki M, Tanaka K, Yamanishi K. Human herpesviruses 6 and 7 in cervixes of pregnant women. J Clin Microbiol 1995;33:1968-70. 145. Okuno T, Sao H, Yamanishi K. [Human herpes virus 6 (HHV-6)]. Uirusu 1991;41:65-76. 146. Okuno T, Shao H, Asada H, Shiraki K, Takahashi M, Yamanishi K. Analysis of human herpesvirus 6 glycoproteins recognized by monoclonal antibody OHV1. J Gen Virol 1992;73 ( Pt 2):443-7. 122 147. Parker CA, Weber JM. An enzyme-linked immunosorbent assay for the detection of IgG and IgM antibodies to human herpesvirus type 6. J Virol Methods 1993;41:265-75. 148. Paterson DL, Singh N, Gayowski T, Carrigan DR, Marino IR. Encephalopathy associated with human herpesvirus 6 in a liver transplant recipient. Liver Transpl Surg 1999;5:454-5. 149. Pedersen SM, Oster B, Bundgaard B, Hollsberg P. Induction of cell-cell fusion from without by human herpesvirus 6B. J Virol 2006;80:9916-20. 150. Potenza L, Barozzi P, Masetti M, Pecorari M, Bresciani P, Gautheret-Dejean A, et al. Prevalence of human herpesvirus-6 chromosomal integration (CIHHV-6) in Italian solid organ and allogeneic stem cell transplant patients. Am J Transplant 2009;9:1690-7. 151. Qavi HB, Green MT, Lewis DE, Hollinger FB, Pearson G, Ablashi DV. HIV-1 and HHV-6 antigens and transcripts in retinas of patients with AIDS in the absence of human cytomegalovirus. Invest Ophthalmol Vis Sci 1995;36:2040-7. 152. Radonic A, Oswald O, Thulke S, Brockhaus N, Nitsche A, Siegert W, et al. Infections with human herpesvirus 6 variant B delay platelet engraftment after allogeneic haematopoietic stem cell transplantation. Br J Haematol 2005;131:480-2. 153. Ranger S, Patillaud S, Denis F, Himmich A, Sangare A, M'Boup S, et al. Seroepidemiology of human herpesvirus-6 in pregnant women from different parts of the world. J Med Virol 1991;34:194-8. 154. Rapaport D, Engelhard D, Tagger G, Or R, Frenkel N. Antiviral prophylaxis may prevent human herpesvirus-6 reactivation in bone marrow transplant recipients. Transpl Infect Dis 2002;4:10-6. 155. Rapp JC, Krug LT, Inoue N, Dambaugh TR, Pellett PE. U94, the human herpesvirus 6 homolog of the parvovirus nonstructural gene, is highly conserved among isolates and is expressed at low mRNA levels as a spliced transcript. Virology 2000;268:504-16. 156. Reux I, Fillet AM, Agut H, Katlama C, Hauw JJ, LeHoang P. In situ detection of human herpesvirus 6 in retinitis associated with acquired immunodeficiency syndrome. Am J Ophthalmol 1992;114:375-7. 157. Reymen D, Naesens L, Balzarini J, Holy A, Dvorakova H, De Clercq E. Antiviral activity of selected acyclic nucleoside analogues against human herpesvirus 6. Antiviral Res 1995;28:343-57. 158. Rieux C, Gautheret-Dejean A, Challine-Lehmann D, Kirch C, Agut H, Vernant JP. Human herpesvirus-6 meningoencephalitis in a recipient of an unrelated allogeneic bone marrow transplantation. Transplantation 1998;65:1408-11. 159. Robert C, Aubin JT, Visse B, Fillet AM, Huraux JM, Agut H. Difference in permissiveness of human fibroblast cells to variants A and B of human herpesvirus-6. Res Virol 1996;147:219-25. 160. Rogers J, Rohal S, Carrigan DR, Kusne S, Knox KK, Gayowski T, et al. Human herpesvirus-6 in liver transplant recipients: role in pathogenesis of fungal infections, neurologic complications, and outcome. Transplantation 2000;69:2566-73. 161. Rossi C, Delforge ML, Jacobs F, Wissing M, Pradier O, Remmelink M, et al. Fatal primary infection due to human herpesvirus 6 variant A in a renal transplant recipient. Transplantation 2001;71:288-92. 162. Rotola A, Ravaioli T, Gonelli A, Dewhurst S, Cassai E, Di Luca D. U94 of human herpesvirus 6 is expressed in latently infected peripheral blood mononuclear cells and blocks viral gene expression in transformed lymphocytes in culture. Proc Natl Acad Sci U S A 1998;95:13911-6. 163. Safronetz D, Petric M, Tellier R, Parvez B, Tipples GA. Mapping ganciclovir resistance in the human herpesvirus-6 U69 protein kinase. J Med Virol 2003;71:434-9. 123 164. Salahuddin SZ, Ablashi DV, Markham PD, Josephs SF, Sturzenegger S, Kaplan M, et al. Isolation of a new virus, HBLV, in patients with lymphoproliferative disorders. Science 1986;234:596-601. 165. Santoro F, Kennedy PE, Locatelli G, Malnati MS, Berger EA, Lusso P. CD46 is a cellular receptor for human herpesvirus 6. Cell 1999;99:817-27. 166. Sashihara J, Tanaka-Taya K, Tanaka S, Amo K, Miyagawa H, Hosoi G, et al. High incidence of human herpesvirus 6 infection with a high viral load in cord blood stem cell transplant recipients. Blood 2002;100:2005-11. 167. Savolainen H, Lautenschlager I, Piiparinen H, Saarinen-Pihkala U, Hovi L, Vettenranta K. Human herpesvirus-6 and -7 in pediatric stem cell transplantation. Pediatr Blood Cancer 2005;45:820-5. 168. Simmons A, Demmrich Y, La Vista A, Smith K. Replication of human herpesvirus 6 in epithelial cells in vitro. J Infect Dis 1992;166:202-5. 169. Singh N, Carrigan DR. Human herpesvirus-6 in transplantation: an emerging pathogen. Ann Intern Med 1996;124:1065-71. 170. Singh N, Carrigan DR, Gayowski T, Marino IR. Human herpesvirus-6 infection in liver transplant recipients: documentation of pathogenicity. Transplantation 1997;64:674-8. 171. Singh N, Carrigan DR, Gayowski T, Singh J, Marino IR. Variant B human herpesvirus-6 associated febrile dermatosis with thrombocytopenia and encephalopathy in a liver transplant recipient. Transplantation 1995;60:1355-7. 172. Singh N, Paterson DL. Encephalitis caused by human herpesvirus-6 in transplant recipients: relevance of a novel neurotropic virus. Transplantation 2000;69:2474-9. 173. Sobue R, Miyazaki H, Okamoto M, Hirano M, Yoshikawa T, Suga S, et al. Fulminant hepatitis in primary human herpesvirus-6 infection. N Engl J Med 1991;324:1290. 174. Soldan SS, Jacobson S. Role of viruses in etiology and pathogenesis of multiple sclerosis. Adv Virus Res 2001;56:517-55. 175. Suga S, Suzuki K, Ihira M, Furukawa H, Yoshikawa T, Asano Y. [Clinical features of primary HHV-6 and HHV-7 infections]. Nippon Rinsho 1998;56:203-7. 176. Suga S, Yoshikawa T, Asano Y, Nakashima T, Yazaki T, Fukuda M, et al. IgM neutralizing antibody responses to human herpesvirus-6 in patients with exanthem subitum or organ transplantation. Microbiol Immunol 1992;36:495-506. 177. Sumiyoshi Y, Kikuchi M, Ohshima K, Takeshita M, Eizuru Y, Minamishima Y. A case of human herpesvirus-6 lymphadenitis with infectious mononucleosis-like syndrome. Pathol Int 1995;45:947-51. 178. Takahashi K, Sonoda S, Higashi K, Kondo T, Takahashi H, Takahashi M, et al. Predominant CD4 T-lymphocyte tropism of human herpesvirus 6-related virus. J Virol 1989;63:3161-3. 179. Takeda K, Okuno T, Isegawa Y, Yamanishi K. Identification of a variant A-specific neutralizing epitope on glycoprotein B (gB) of human herpesvirus-6 (HHV-6). Virology 1996;222:176-83. 180. Tanaka-Taya K, Sashihara J, Kurahashi H, Amo K, Miyagawa H, Kondo K, et al. Human herpesvirus 6 (HHV-6) is transmitted from parent to child in an integrated form and characterization of cases with chromosomally integrated HHV-6 DNA. J Med Virol 2004;73:465-73. 181. Tanaka M, Taguchi J, Hyo R, Kawano T, Hashimoto C, Motomura S, et al. Human herpesvirus-6 encephalitis after unrelated cord blood transplantation. Leuk Lymphoma 2005;46:561-6. 182. Taniguchi T, Shimamoto T, Isegawa Y, Kondo K, Yamanishi K. Structure of transcripts and proteins encoded by U79-80 of human herpesvirus 6 and its subcellular localization in infected cells. Virology 2000;271:307-20. 124 183. Thomson BJ, Dewhurst S, Gray D. Structure and heterogeneity of the a sequences of human herpesvirus 6 strain variants U1102 and Z29 and identification of human telomeric repeat sequences at the genomic termini. J Virol 1994;68:3007-14. 184. Tiacci E, Luppi M, Barozzi P, Gurdo G, Tabilio A, Ballanti S, et al. Fatal herpesvirus-6 encephalitis in a recipient of a T-cell-depleted peripheral blood stem cell transplant from a 3-loci mismatched related donor. Haematologica 2000;85:94-7. 185. Tokimasa S, Hara J, Osugi Y, Ohta H, Matsuda Y, Fujisaki H, et al. Ganciclovir is effective for prophylaxis and treatment of human herpesvirus-6 in allogeneic stem cell transplantation. Bone Marrow Transplant 2002;29:595-8. 186. Torelli G, Barozzi P, Marasca R, Cocconcelli P, Merelli E, Ceccherini-Nelli L, et al. Targeted integration of human herpesvirus 6 in the p arm of chromosome 17 of human peripheral blood mononuclear cells in vivo. J Med Virol 1995;46:178-88. 187. Torre D, Mancuso R, Ferrante P. Pathogenic mechanisms of meningitis/encephalitis caused by human herpesvirus-6 in immunocompetent adult patients. Clin Infect Dis 2005;41:422-3. 188. Torrisi MR, Gentile M, Cardinali G, Cirone M, Zompetta C, Lotti LV, et al. Intracellular transport and maturation pathway of human herpesvirus 6. Virology 1999;257:460-71. 189. Ueda K, Kusuhara K, Hirose M, Okada K, Miyazaki C, Tokugawa K, et al. Exanthem subitum and antibody to human herpesvirus-6. J Infect Dis 1989;159:750-2. 190. van Loon NM, Gummuluru S, Sherwood DJ, Marentes R, Hall CB, Dewhurst S. Direct sequence analysis of human herpesvirus 6 (HHV-6) sequences from infants and comparison of HHV-6 sequences from mother/infant pairs. Clin Infect Dis 1995;21:1017-9. 191. Wang LR, Dong LJ, Lu DP. [Prevalence of human herpesvirus-6 in allogeneic hematopoietic stem cell transplant recipients in correlation with cytomegalovirus infection]. Zhongguo Shi Yan Xue Ye Xue Za Zhi 2006;14:1204-9. 192. Wang LR, Dong LJ, Zhang MJ, Lu DP. Correlations of human herpesvirus 6B and CMV infection with acute GVHD in recipients of allogeneic haematopoietic stem cell transplantation. Bone Marrow Transplant 2008;42:673-7. 193. Ward KN, Gray JJ. Primary human herpesvirus-6 infection is frequently overlooked as a cause of febrile fits in young children. J Med Virol 1994;42:119-23. 194. Ward KN, Leong HN, Nacheva EP, Howard J, Atkinson CE, Davies NW, et al. Human herpesvirus 6 chromosomal integration in immunocompetent patients results in high levels of viral DNA in blood, sera, and hair follicles. J Clin Microbiol 2006;44:1571-4. 195. Ward KN, Thiruchelvam AD, Couto-Parada X. Unexpected occasional persistence of high levels of HHV-6 DNA in sera: detection of variants A and B. J Med Virol 2005;76:56370. 196. Wilborn F, Brinkmann V, Schmidt CA, Neipel F, Gelderblom H, Siegert W. Herpesvirus type 6 in patients undergoing bone marrow transplantation: serologic features and detection by polymerase chain reaction. Blood 1994;83:3052-8. 197. Wu Z, Mu G, Wang L. Seroprevalence of human herpesvirus-6 in healthy population in two provinces of north China. Chin Med Sci J 1997;12:111-4. 198. Yamane A, Mori T, Suzuki S, Mihara A, Yamazaki R, Aisa Y, et al. Risk factors for developing human herpesvirus 6 (HHV-6) reactivation after allogeneic hematopoietic stem cell transplantation and its association with central nervous system disorders. Biol Blood Marrow Transplant 2007;13:100-6. 199. Yamanishi K, Okuno T, Shiraki K, Takahashi M, Kondo T, Asano Y, et al. Identification of human herpesvirus-6 as a causal agent for exanthem subitum. Lancet 1988;1:1065-7. 125 200. Yoshida H, Matsunaga K, Ueda T, Yasumi M, Ishikawa J, Tomiyama Y, et al. Human herpesvirus 6 meningoencephalitis successfully treated with ganciclovir in a patient who underwent allogeneic bone marrow transplantation from an HLA-identical sibling. Int J Hematol 2002;75:421-5. 201. Yoshida M, Uno F, Bai ZL, Yamada M, Nii S, Sata T, et al. Electron microscopic study of a herpes-type virus isolated from an infant with exanthem subitum. Microbiol Immunol 1989;33:147-54. 202. Yoshikawa T. Human herpesvirus 6 infection in hematopoietic stem cell transplant patients. Br J Haematol 2004;124:421-32. 203. Yoshikawa T, Asano Y. Central nervous system complications in human herpesvirus-6 infection. Brain Dev 2000;22:307-14. 204. Yoshikawa T, Asano Y, Ihira M, Suzuki K, Ohashi M, Suga S, et al. Human herpesvirus 6 viremia in bone marrow transplant recipients: clinical features and risk factors. J Infect Dis 2002;185:847-53. 205. Yoshikawa T, Ihira M, Furukawa H, Suga S, Asonuma K, Tanaka K, et al. Four cases of human herpesvirus 6 variant B infection after pediatric liver transplantation. Transplantation 1998;65:1266-9. 206. Yoshikawa T, Suga S, Asano Y, Nakashima T, Yazaki T, Sobue R, et al. Human herpesvirus-6 infection in bone marrow transplantation. Blood 1991;78:1381-4. 207. Zerr DM, Corey L, Kim HW, Huang ML, Nguy L, Boeckh M. Clinical outcomes of human herpesvirus 6 reactivation after hematopoietic stem cell transplantation. Clin Infect Dis 2005;40:932-40. 208. Zerr DM, Gupta D, Huang ML, Carter R, Corey L. Effect of antivirals on human herpesvirus 6 replication in hematopoietic stem cell transplant recipients. Clin Infect Dis 2002;34:309-17. 209. Zhao J, Fan H, Mu G, Shen X, Cheng X. Detection of human herpesvirus 6(HHV-6) DNA in salivary glands by the polymerase chain reaction. Chin Med Sci J 1997;12:126-8. 126 ANNEXES 127 Annexe 1: Analyse bibliographique comparative de la réactivation HHV-6 en post-allogreffe de CSH Nombre de patients Suivi postgreffe Méthodes de détection virale % réactivation Facteurs de risque Clinique [de Pagter et al., 2008] 58 12 PCR (plasma) quantitative en temps réel hebdomadaire 67 NS GVHA et GVHC [de Pagter et al., 2008] 49 5 PCR (plasma) quantitative en temps réel hebdomadaire 56 Conditionnement myeloablatif GVHA, mortalité [Yamane et al., 2007] 46 5 PCR (plasma) quantitative en temps réel hebdomadaire 48 Greffon de sang de cordon, incompatibilité HLA donneur, prophylaxie par tacrolimus Réactivation CMV [Ogata et al., 2006] 50 7 PCR (plasma) quantitative en temps réel hebdomadaire 48 Incompatibilité HLA Thrombopénie [Wang et al., 2006] 72 12 PCR (PBMC) quantitative en temps réel hebdomadaire 49 NT Rash cutané, réactivation CMV [Hentrich et al., 2005] 228 20 PCR (lymphocytes) quantitative en temps réel hebdomadaire 42 Parenté du donneur GVHD, réactivation EBV [Sashihara et al., 2002] 27 17 PCR (PBMC) semi-quantitative hebdomadaire 59 Greffon de sang de cordon NS Auteurs [Zerr et al., 2005] 110 13 PCR (plasma) en temps réel hebdomadaire 47 Différence sexe donneur/receveur, hémopathie maligne, jeune âge, corticoïdes Thrombopénie, mortalité, sévérité GVHA, dysfonctionnement du SNC [Miyoshi et al., 2001] 25 12 PCR (PBMC) semi-quatitative, sérologie 68 / / [Ljungman et al., 2000] 74 12 PCR (lymphocytes) 78 Parenté du donneur, SAL thrombopénie 128 Nombre de patients Suivi postgreffe Méthodes de détection virale % réactivation Facteurs de risque Clinique [Imbert-Marcille et al., 2000] 28 13 PCR (PBMC) hebdomadaire 43 greffon Fièvre, anémie, neutropénie et thrombopénie [Yoshikawa et al., 1998] 30 8 PCR (PBMC), sérologie 57 / / [Chan et al., 1997] 43 12 PCR (lymphocytes) 26 NS NS [Wang et al., 1996] 37 52 PCR (leucocytes) 70 / / [Kadakia et al., 1996] 15 / Isolement viral (PBMC), PCR, sérologie 87 CMV infection, sinusites NS [Appleton et al., 1995] 34 12 PCR (lymphocytes) 76 NT GVHA [Wilborn et al., 1994] 36 10 PCR (leucocytes), PCR (urines), PCR(lavages buccaux) 72 NS GVHA [Frenkel et al., 1994] 44 12 Isolement viral (PBMC) 41 / / [Drobyski et al., 1993] 16 14 Isolement viral (PBMC) 37 / / [Yoshikawa et al., 1991] 25 8 Isolement viral (PBMC), sérologie 48 / / Auteurs NT Non Testé NS Non Significatif 129 Annexe 2 : Protocole d'extraction de l'ADN à partir du sang total à l'aide du Kit Qiagen, QIAamp® DNA Blood Mini Kit  Dans un micro tube ajouter : 20 μL de protéase K 200 μL d'échantillon 200 μL de Buffer AL Vortex 15 secondes Incuber 10 minutes à 56°C Centrifuger brièvement  Ajouter 200 μL d'éthanol absolu (96-100%) Vortex 15 secondes Centrifuger brièvement  Transférer le contenu de ce tube dans la colonne posée sur un tube Bien fermer la colonne et centrifuger 6000g:1min Jeter le tube  Ajouter 500 μL AW1 Buffer dans la colonne Centrifuger 6000g/1min/18°C Jeter le tube  Ajouter 500 μL AW2 Buffer dans la colonne Centrifuger 20 000g/3min/18°C Jeter le tube Poser la colonne sur le tube final (tube Eppendorf 1,5 mL)  Ajouter 200 μL Buffer AE chauffé au bain marie à 70°C 10 minutes Incuber à température ambiante 1 minute Centrifuger à 6000g/1min L'ADN extrait est conservé à -80°C 130 Annexe 3 : Protocole d'extraction de l'ADN à partir d'une biopsie à l'aide du Kit Qiagen, QIAamp® DNA Blood Mini Kit  Dans un micro tube ajouter : 15 μL de protéase K 200 μL d'échantillon préalablement broyé dans 500 μL d'eau stérile 100 μL de Buffer AL Incubation 3 heures minimum au bain-marie à 56°C Le reste de l'échantillon est conservé à -80°C.  Après les 3 heures d'incubation Centrifugation courte Ajouter 10 μL de contrôle interne (IC2) Ajouter 200 μL de buffer AL Vortex 15 secondes Incubation 10 minutes à 70°C Centrifugation courte  Ajouter 200 μL d'éthanol absolu (96-100%) Vortex 15 secondes Centrifugation courte  Transférer le contenu de ce tube dans la colonne posée sur un tube Bien fermer la colonne et centrifuger 6000g:1min Jeter le tube  Ajouter 500 μL AW1 Buffer dans la colonne Centrifuger 6000g/1min/18°C Jeter le tube  Ajouter 500 μL AW2 Buffer dans la colonne Centrifuger 12000g/3min/18°C Jeter le tube Centrifuger à vide 12000g/1min/18°C Poser la colonne sur le tube final (tube Eppendorf 1,5 mL)  Ajouter 100 μL Buffer AE chauffé au bain marie à 70°C 10 minutes Incuber à température ambiante 5 minutes Centrifuger à 6000g/1min L'ADN extrait est conservé à -80°C 131 Annexe 4 : Extraction ADN sur MagNA pure LC® 1) L'échantillon est placé dans le puits adéquat 2) Ajout protéinase K, digestion des protéines 3) Ajout Lysis/Binding Bufferis, lyse cellulaire complète, libération de l'ADN, dénaturation des protéines 4) Ajouts des particules magnétiques (MGPs Magntic Glass Particles), les conditions induites par les agents chaotropiques, l'isopropanol et le pouvoir ionisant du Lysis/Binding Bufferis sont telles que l'ADN se fixe sur la silice présente à la surface de ces particules. 5) Séparation magnétique des MGPs avec l'ADN lié du reste du lysat 6) Purification de l'ADN lié et élimination des nucléases, membranes cellulaires, inhibiteurs de PCR et agents chaotropiques par une série de lavages successifs 7) Elimination du tampon de lavage 8) Elution de l'ADN purifié à 70°C 132 133 N° d'identification : TITRE INCIDENCE, FACTEURS DE RISQUES ET DIAGNOSTIC DES INFECTIONS A HERPESVIRUS HUMAIN 6 APRES ALLOGREFFE DE CELLULES SOUCHES HEMATOPOIETIQUES A L'ERE DE LA BIOLOGIE MOLECULAIRE Thèse soutenue le 04 Octobre 2010 par Matthieu GUERY RESUME : Comme tous les herpèsvirus, l'herpèsvirus humain 6 (HHV-6) reste à l'état latent dans l'organisme après la primo-infection. Les réactivations virales qui découlent de cette latence peuvent être potentiellement graves chez les patients immunodéprimés et nécessitent un suivi virologique régulier, assuré aujourd'hui par la biologie moléculaire. La découverte récente d'une autre forme de persistance de l'HHV-6 sous forme intégrée au génome cellulaire a perturbé le diagnostic moléculaire des infections à HHV-6. Cette étude a consisté en l'analyse des réactivations à HHV-6 au sein d'une population allogreffée de CSH de 390 patients. 57 patients ont eu au moins une charge virale positive dans le sang total (incidence cumulative: 14,7% à J150), 65% (37/57) ont été asymptomatiques, et 35% (20/57) ont présenté des symptômes: encéphalites (2), cytopénies (6), fièvres (3) et oesophagites (1). Les facteurs de risques associés à la réactivation HHV-6 ont été la greffe de sang de cordon (p< 0,0001) et la GVHA ≥ 2 (p= 0,0152). Trois cas d'intégration génomique de l'HHV-6 ont été décrits. Un algorithme biologique de prise en charge des infections à HHV-6 après allogreffe de CSH a été établi à partir de trois paramètres: charge virale HHV-6 ≥106 copies/mL (1copie/cellule) ou <106 copies/mL (1copie/cellule), présence ou absence de signes cliniques, test thérapeutique positif ou négatif. MOTS CLES : Herpèsvirus humain 6-Diagnostic moléculaire-Réactivation virale-Facteurs de risqueIntégration-Algorithme Directeur de thèse Intitulé du laboratoire Laboratoire de virologie Dr VENARD Véronique Nature Bibliographique X X Thème 5 Expérimentale CHU Nancy Thèmes 1 – Sciences fondamentales 3 – Médicament 5 - Biologie 2 – Hygiène/Environnement 4 – Alimentation – Nutrition 6 – Pratique professionnelle 134
{'path': '21/hal.univ-lorraine.fr-hal-01734027-document.txt'}
LES MAMOCOQUES EN FROMAGERIE Costantino Gorini To cite this version: Costantino Gorini. LES MAMOCOQUES EN FROMAGERIE. Le Lait, INRA Editions, 1938, 18 (177), pp.710-711. hal-00895333 HAL Id: hal-00895333 https://hal.archives-ouvertes.fr/hal-00895333 Submitted on 1 Jan 1938 , . \ 710 C. GORINI.- LES MAMOCOQUES effet biologique donné est retardée. Or,si ce retard peut être sans , importance «in vitro» dans un milieu eugénésique, il n'en est pas de même dans le milieu intestinal. Ici, ~etarder l'épanouissement de là culture par des ingestions trop pauvres, c'est risquer de le compromettre ou tout au moins de l'entraver. 'Il est donc nécessaire d'agir par des apports massifs de-microorganismes, seuls capables dè réaliser cette concurrence vitale efficace qui est à la base de la réussite de l'implantation lactique. En résumé, une étude critique sommaire de la thérapie lactique nous montre' qu'il est indispensable de remplir les conditions suivantes: la .Ne faire appel qu'à un ferment, d'origine intestinale, seul capable de se fixer et de se dé velopper dans l'intestin: 20 N'utiliser que des germes vivants et en. pleine virulence. 30 N'employer que des cult.ures très riches . . LES~ MAMOCOQUES EN FROMAGERIE par • COSTANTINOGORINI (Milan) Notre distingué collègue', W. DORNER,écrit dans '« Le Lait», de mai dernier, page 451, ce qui suit: « Les microcoques de la mamelle sont, dans la règle, inoffensifs. Certains auteurs (GORINI) estiment qu'ils jouent un rôle favorable dans la maturation du fromage. Pour le Gruyère et l'Emmental, rien ne laisse supposer qu'Il. en soit ainsi. » , Nous le .remer cions parce qu'il nous donne l'occasion de répéter ici ce que. nous avons dit déjà maintesfois, et même récemment dans le Volume Jubilaire de Robert B'UR'RI(1937), etau Congrès mondial de Laiterie de Berlin (1937). Le rôle fromager des mamocoques, comme celui de tous les acidoprotéolytes, e~t complexe; mais avànt tout, par leur action solubilisante sur la caséine, ils sont des activateurs des ferments.lactiques, qui s'avantagent plutôt des produits caséolyti ques. Or, pour ne pas accepter que les mamocoques jouent unrôle favorable dans la maturation du Gruyère et de I'Emmental, il ne suffit pas de contester leur présence dans le fromage, il faut démontrer qu'ils ne se sont, point développés dans le lait avant son arrivée à la laiterie, dans les èuvettes _de repos et dans la chaudière .même. A ce propos, nous rappellerons les belles recherches de HANUSCH(Wien. Milchw. Ber., Dezember1933) qui a trouvé cons- EN FROMAGERIE 7Il tamment (parfois ~ême dans la proportion de50 % sur la microflore totale) différents types de mamocoques (parmi lesquels il faut compter aussi Streptococcusliquefaciens) dans le lait des cuvettes (Stotzenmilch) pour Ta fabrication de l'Emmental, conformément à' ce qui se vérifie 'dans le lait des cuves de maturation pour la fabrication" du fromage Parmesan. On doit en outre considérer que les protéases des mamocoques poursuivent leur activité même après' la mort des cellules. "". Et encore: l?ORNERmême n'a-t-il pas -observ€, avec EREKSON, que parmi huit Emmèntal le -mieux réussi comme .structure et comme goût a été celui dont le lait en chaudière 'contenait le plus grandnomhre de coccus acidoprotéolytiques 't Journal. Bact., 29, 70, 1935). REVUE LE TRAITEMENT DES EAUX RÉSIDUAIRES DE LAITERIE par G. GÉNIN. Ingénieur chimist.e E. P, Cl. La question de l'épuration des ea.uxrésid'uaires fournies par les diverses branches des industries chimiques et alimentaires est une de celles qui est particulièrement suivie par les administrations chargées de combattre l'empoisonnement des rivières. Une très importante conférence su~ ce sujet a eu lieu récemment en- Angleterre, au cours de' laquelle a été présentée une communication du DrA. PARKERsur la question du traitement et de l'évacuation des eaux résiduaires. En ce qui concerne plus particulièrement ce pays, c'est t'out d'abord une Commission royale qui fut chargée" de 1898 ~ 1915 d'entreprendre une vaste enquête sur les méthodes de traitement des eaux résiduaires industrielles et de procéder à des essais de laboratoire et industriels sur l'efficacité des méthodes dont on disposait à l'époque pour purifier les eaux industrielles. Les résultats de l'enquête entreprise à l'époque furent publiés dans 9 rapports consécutifs dont la conclusion essentielle était que ces eaux résiduaires pouvaient être classés en deux groupes : 1 a) Celles pour .lesquelles une épuration pouvait être considérée comme réalisable. b) Celles, pour lesquelles l'épuration était irréalisable, tout au moins avec les procédés dont on disposait à l'époque.
{'path': '10/hal.archives-ouvertes.fr-hal-00895333-document.txt'}
Postface "Le Fonds forestier national a 40 ans" Pierre Coulbois To cite this version: Pierre Coulbois. Postface "Le Fonds forestier national a 40 ans". Revue forestière française, AgroParisTech, 1987, 39 (S), pp.175-176. 10.4267/2042/25845. hal-03424676 HAL Id: hal-03424676 https://hal.archives-ouvertes.fr/hal-03424676 Submitted on 10 Nov 2021 POSTFACE Depuis 1947, le Fonds forestier national a puissamment contribué à la réalisation des objectifs qui avaient été assignés à la politique forestière. Les témoignages rassemblés dans ce numéro spécial de la Revue forestière française montrent d'autre part que, grâce à une réflexion permanente, les gestionnaires du Fonds ont su, tout en respectant les options de départ, introduire de nouvelles orientations . Ce fut le cas en 1967, lorsqu'il a été décidé de faire intervenir le Fonds dans un appui à la transformation du bois. Le Fonds forestier a dû être géré dans des conditions parfois difficiles, notamment par suite des à-coups survenus dans le rendement annuel de la taxe unique sur les produits forestiers . Ces heurts ont été amortis dans des conditions telles que finalement peu de demandes sont restées insatisfaites . De surcroît, le FFN a pu contribuer largement au fonctionnement des services forestiers de l'État, tant centraux qu'extérieurs. Mais il ne faut pas se cacher qu'aujourd'hui le temps des facilités est révolu, une plus grande précision dans l'élaboration d'une stratégie de l'utilisation du Fonds est devenue indispensable. Pour rechercher cette gestion plus efficace, un réseau d'instances consultatives et de propositions vient d'être mis dernièrement en place . Ce sont les Commissions régionales de la Forêt et des Produits forestiers, qui, après avoir analysé la situation et fait les bilans, auront à proposer des orientations adaptées au potentiel forestier, et à l'état des industries du bois de chaque région . De son côté, le Comité restreint, créé au sein du Conseil supérieur de la Forêt et des Produits forestiers, aura à présenter au Ministre des avis et à lui faire des propositions, issues d'une concertation entre l'administration et les professions, en matière d'orientation, de coordination et d'application des aides à l'investissement. Les évolutions en Europe, dans le monde, permettent de constater que, progressivement, la forêt et les industries de première transformation auront à sortir de leur milieu, traditionnellement protégé, pour se plonger dans un système très concurrentiel. 175 R.F.F . XXXIX - n° sp. 1987 Le Comité devra notamment se prononcer sur l'efficacité comparée, à terme, des interventions de l'État, et notamment du FFN, non seulement pour assurer la survie du système traditionnel, mais aussi pour accompagner les initiatives annonciatrices d'une transformation fondamentale du comportement des acteurs de la filière forêt-bois. Au niveau national et sur un plan plus général, la forêt et sa filière aval trouveront leur place dans l'aménagement de l'espace rural si l'activité économique qu'elles génèrent est la source d'un développement local de plus en plus indépendant d'une perpétuelle assistance, et ce tout en conservant leur rôle dans l'écologie du monde moderne. Au plan international, l'échéance de 1992 doit se traduire pour la filière-bois française, et donc pour la production de nos forêts, par de nouveaux espoirs . II nous faudra pour cela, par une recherche permanente pour la modernisation de notre système commercial, les technologies de l'amont à l'aval, seule façon d'accroître notre compétitivité face à la concurrence extérieure. Pour donner cet élan aux professions de la forêt et du bois, le Fonds forestier demeure l'atout irremplaçable qu'il faut conserver et consolider . P . COULBOIS Directeur de l'Espace rural et de la Forêt 176
{'path': '06/hal.archives-ouvertes.fr-hal-03424676-document.txt'}
Haut les masques ! Étude de l'impact psychomoteur du port du masque chez des enfants dans une classe de CM1 Marine Roy, Inès Yezrour To cite this version: Marine Roy, Inès Yezrour. Haut les masques ! Étude de l'impact psychomoteur du port du masque chez des enfants dans une classe de CM1. Médecine humaine et pathologie. 2021. dumas-03297160 HAL Id: dumas-03297160 https://dumas.ccsd.cnrs.fr/dumas-03297160 Submitted on 23 Jul 2021 Institut de Formation en Psychomotricité de la Pitié Salpêtrière Médecine Sorbonne Université Site Pitié Salpêtrière 91, boulevard de Site Pitié Salpêtrière 75013 PARIS Haut les masques ! Étude de l'impact psychomoteur du port du masque chez des enfants dans une classe de CM1 Mémoire présenté par ROY Marine et YEZROUR Inès. En vue de l'obtention du Diplôme d'Etat en Psychomotricité Noms des maitres de mémoire : Mme Aude VALENTIN-LEFRANC et Mme Jessica OZENNE « Se cacher est un plaisir, mais ne pas être trouvé est une catastrophe ». Donald Woods Winnicott, 1975 Remerciements Nous remercions tout d'abord nos directrices de mémoire, Madame Aude Valentin Lefranc et Madame Jessica Ozenne. Un grand merci pour votre encadrement, votre aide et vos conseils qui nous ont accompagnées tout au long de notre étude. Nous tenons également à remercier l'ensemble du corps enseignant de l'école Marie-Curie et plus particulièrement Madame Valverde, directrice de l'établissement et Madame Valenti, enseignante de la classe de CM1, de nous avoir donné l'occasion de réaliser notre projet de recherche sur le terrain. Merci pour leur écoute, leur disponibilité et leur confiance. Un grand merci aux élèves de cette même classe, dont chacun des 22 élèves a fait preuve d'une spontanéité, d'une bonne humeur, d'un désir de bien faire, d'une curiosité et d'une adaptabilité remarquables tout au long de nos interventions. Nous remercions également chaque enseignant qui a pris le temps de répondre à notre questionnaire, leur contribution a été essentielle à notre étude. Nous adressons nos sincères remerciements à tous les professeurs, psychomotriciens, maîtres de stage, étudiants de notre promotion et toutes les personnes qui par leurs paroles, leurs écrits, leurs conseils et leurs critiques ont guidé nos réflexions. Nous souhaitons également exprimer notre reconnaissance envers nos amis communs ou non, et nos familles qui nous ont apporté leur soutien moral et intellectuel tout au long de notre mémoire et plus globalement tout au long de cette dernière année d'étude. Merci à nos relectrices pour avoir relu et corrigé ce mémoire. Leurs conseils de rédaction ont été très précieux. Enfin, chacune, nous nous remercions mutuellement d'avoir été un binôme hors pair, sans faille et soutenant l'une envers l'autre. Nous avons réussi à avancer soudées à chaque étape du mémoire. SOMMAIRE Remerciements 4 Avant-propos 8 Introduction 10 PARTIE 1 : NAISSANCE DES PROJETS 13 I- Le cadre du projet expérimental 13 II- Apports théoriques de la psychomotricité 14 1. La psychomotricité 14 2. Éducation et système éducatif français 15 3. Prérequis de la classe de CM1 16 4. La prévention en question 17 PARTIE 2 : PRÉSENTATION DE L'ÉTUDE 20 I- Projet initial : L'influence du port du masque sur l'attention, l'écriture, le schéma corporel et la motricité des enfants en classe de CM1 21 1. Introduction 21 2. Hypothèses 22 II- Projet abouti : étude des impacts psychomoteurs du port du masque chez les enfants en classe de CM1 et création d'ateliers préventifs et pédagogiques. 23 1. Introduction 23 2. Temps 0 : Élaboration des entretiens d'après nos hypothèses sur l'impact du port du masque 24 3. Tests psychomoteurs sélectionnés et créés 25 3.1 Le dessin du bonhomme de Florence Goodenough 25 3.2 Le dessin de soi 26 3.3 Les somatognosies faciales 26 3.3 Reconnaissances des sept émotions 26 4. Questionnaires à destination des élèves 30 5. Questionnaire à destination des professeurs d'élémentaire 31 PARTIE 3 : PRÉSENTATION, OBSERVATIONS EN CLASSE ET RÉALISATION DES ENTRETIENS 33 I- Présentation et observations en classe 33 1. Temps 1 : Visite de l'école, présentations et observations de la classe 33 1.1 Visite de l'école et présentation33 1.2 Observation de la classe 34 2. II- Discussion 36 Temps 2 : Réalisation des entretiens individuels des enfants 37 1. Réalisation des entretiens 37 2. Discussion 38 PARTIE 4 : Temps 3 TRAITEMENT ET ANALYSE DES RÉSULTATS 39 III- Traitement des résultats des tests 39 1. Résultats du dessin du bonhomme : 39 2. Résultat du dessin de soi : 40 3. Résultats des somatognosies faciales : 41 4. Résultats des 7 émotions de base : 42 5. Discussion 43 IV- Traitement des résultats des questionnaires à destination des élèves : 43 1. Du côté de la sensorialité : 44 2. Du côté de la communication entre élèves et enseignants : 46 3. Du côté relationnel : 47 4. Du côté de la reconnaissance des émotions et du langage non verbal : 49 5. Discussion 50 PARTIE 5 : CONSTRUCTION, RÉALISATION ET RÉSULTATS DES ATELIERS 51 V- Temps 4 : Construction des différents ateliers en réponse aux résultats des entretiens individuels et de nos observations 51 1. Construction des ateliers en lien avec nos résultats par une approche psychomotrice 51 2. Qu'est-ce que la pédagogie ? 54 3. Discussion 55 VI- Temps 5 : Réalisation des ateliers et résultats 56 1. Présentation 56 2. Réalisation de l'atelier d'éducation et de prévention 56 2.1 À quoi sert le port du masque ? 57 2.2 Puzzle de la chronologie de la mise en place et du retrait du masque 57 2.3 Comptine du masque 59 3. Réalisation de l'atelier « joue ton émotion » 62 3.1 Mise en corps et conscience corporelle 63 3.2 Le loto des émotions 63 3.3 Mise en contexte des émotions 65 4. Réalisation de l'atelier "finir la journée en dessin" 66 5. Discussion 67 PARTIE 6 : APPLICATION PRATIQUE ET PISTES DE TRAVAIL 69 I- Et toi, tu en as pensé quoi ? 69 II- Résumé et synthèse des discussions 71 III- Apports et limites de notre intervention de psychomotriciennes à l'école. 73 Conclusion 74 Bibliographie 77 INDEX DES ILLUSTRATIONS 79 Annexes I Annexe I : Lettre de présentation de notre projet à destination de l'inspection I Annexe II : Autorisation parentale vierge II Annexe III : Décret de compétence du psychomotricien III Annexe IV : Fiches de passation et de cotation vierge du test BHK enfant V Annexe V : Fiches de passation et de cotation vierge du test de STROOP VII Annexe VI : Tableau de cotation vierge des items du Test du bonhomme de Goodenough XII Annexe VII : Fiche de cotation des somatognosies de Berges XIII Annexe VIII : Questionnaire vierge à destination des enfants XIV Annexe IX : Tableau des résultats bruts du questionnaire à destination des élèves XXII Annexe X : Questionnaire vierge à destination des enseignants XXV Annexe XI : Tableau des résultats bruts du questionnaire à destination des enseignants .XXXI Annexe XII : Dessins du bonhomme confrontés aux "dessin de soi" des 22 élèves de la classe de CM1 XL Annexe XIII : Dessins des masques des enfants réalisés durant l'atelier « Finir la journée en dessin » LI INDEX DES ANNEXES LVII Résumé Avant-propos Nous sommes deux étudiantes de troisième année de l'Institut de Formation de Psychomotricité de la Pitié Salpêtrière, Inès et Marine. Depuis le début de nos études, nous nous sommes toutes les deux orientées vers des stages accueillant des enfants. Nous avons fait toutes deux des stages longs en Centre Médico Psychologique (CMP) et respectivement en libéral et en Centre d'Action Médico-Sociale Précoce (CASMP). Nous avons donc eu la chance de rencontrer le travail du psychomotricien avec cette population et avons eu plaisir à être en relation avec les enfants et leurs familles. En septembre 2020, en pleine crise sanitaire de la COVID-19, nous nous sommes tous retrouvés pour la rentrée de notre troisième et dernière année d'étude au diplôme d'état de psychomotricité. Cette rentrée était bien différente des deux précédentes que nous avions connues. Nous nous retrouvions certes mais pas complètement. Nos visages étaient tous masqués. Nous étions contraints de respecter de nombreuses règles sanitaires : lavage des mains, distanciation sociale, port du masque obligatoire Un bon nombre de règles qui ont totalement chamboulé nos habitudes de vie. Très vite, la directrice de l'Institut de Formation de Psychomotricité (IFP) nous a parlé du mémoire de fin d'étude. Fameux mémoire qui représente l'aboutissement de nos trois années chargées et riches. Nous avions toutes les deux en tête les mêmes pistes de problématiques pour nos mémoires respectifs, alors pourquoi ne pas coupler nos idées et ainsi nous associer pour un mémoire à quatre mains ? Au départ, nous ne savions pas sur quel sujet travailler ni comment l'aborder. Nous n'avions pas vraiment d'idées arrêtées sur le lieu de stage dans lequel nous voulions mener notre étude. Nous avions chacune en tête des questions sur la période que nous étions en train de traverser et qui chamboulait tellement nos vies. Quels sont les effets du confinement sur nos relations sociales ? Qu'est-ce que toutes ces restrictions viennent mobiliser en chacun de nous ? Quels sont les effets psychocorporels du port du masque sur la population ? Nous sommes alors parties de nos ressentis et de ce qui était, pour nous, le plus difficile à vivre dans cette crise sanitaire. Il était clair pour chacune que le port du masque, imposé dans les centres-villes puis dans tous les lieux publics et enfin petit à petit sur tout le territoire national, avait beaucoup modifié nos habitudes et surtout nos interactions sociales. Effectivement, les expressions du visage sont le siège de la manifestation physique de nos émotions et plus largement de la communication verbale et non verbale. Alors comment peut-on continuer à exprimer nos émotions si la reconnaissance de ces expressions est entravée par le port du 8 masque ? Et si on applique ce questionnement aux enfants, qu'en est-il de leurs apprentissages scolaires et sociaux avec une barrière tel que le masque porté par l'adulte et par eux-mêmes ? Petit à petit, nous avons affiné nos questionnements et nous en sommes venues au questionnement suivant : quel est l'impact psychomoteur du port du masque chez les enfants en milieu scolaire ? Pour pouvoir lancer nos recherches, nous avons donc trouvé un stage expérimental dans une école primaire et plus précisément dans une classe de Cours Moyen Première année (CM1). Ce stage s'est déroulé du 6 Novembre 2020 au 18 Décembre 2020 tous les vendredis. 9 Introduction À la rentrée 2020, après avoir soulevé plusieurs questionnements autour de l'impact du port du masque chez les enfants en milieu scolaire, comme cités précédemment, nous avons décidé ensemble que notre stage expérimental serait le support de notre étude, nous devions cibler une tranche d'âge, soit un niveau scolaire précis. À cette période de l'année, en septembre-octobre 2020 le port du masque était obligatoire à partir de 12 ans, pour les collégiens et lycéens. Notre souhait étant de faire une comparaison des résultats de différents tests psychomoteurs selon si les enfants portent le masque ou pas, il était alors plus judicieux de trouver un stage en école élémentaire puisque nous avions la possibilité de mettre le masque aux élèves mais surtout de le leur enlever en dessous de 12 ans. Nous avons alors commencé à parler de notre sujet d'étude autour de nous et surtout à nos camarades de promotion. Par chance, nous avons une camarade, dont la mère est directrice d'une école élémentaire. Nous lui avons exposé notre projet et elle a tout de suite accepté de nous recevoir dans son école pour pouvoir le mener à bien. Nous avons donc trouvé un stage expérimental dans une école élémentaire et plus exactement dans une classe de CM1. Nous étions seulement quatre mois après la fin du premier confinement, les articles et revues scientifiques au sujet du port du masque étaient donc très rares et développaient plutôt des prévisions sur les effets du port du masque sur la population plutôt que des observations concrètes. Ce peu de réponses et d'études ou d'enquêtes issues de la communauté médicale nous a confortées dans le choix d'aller nous-mêmes observer d'un point de vue psychomoteur les impacts du port du masque sur la population et spécifiquement sur des élèves en école élémentaire. Parallèlement à notre étude, nous avons continué à nous renseigner sur les études, peu nombreuses, au sujet du port du masque chez les enfants.1 Une fois notre lieu de stage trouvé, et afin de commencer notre étude au plus vite, nous avons monté un premier projet nommé : "Influence du port du masque sur l'attention, l'écriture, le schéma corporel et la motricité des enfants en classe de CM1". Il constitue notre projet initial introduit par la couleur verte dans ce mémoire . Clicknrequete. (2020). Etude d'impact sur le port du masque à l'école. Consulté le 27 avril 2021 à l'adresse ://clicknrequete.com/wp-content/uploads/2020/12/etude-dimpact-port-du-masque-a-lecole-20decembre-2020.pdf Stevens, B. (2020, décembre 13). Covid 19 : L'impact du masque sur les apprentissages. Apili. Consulté le 27 avril 2021 à l'adresse : https://apili.fr/covid-19-limpact-reel-du-masque-sur-les-apprentissages-de-nosenfants/ 1 10 Mais, à la suite de changements de directives gouvernementales au sujet de la COVID19 qui imposaient le port du masque plus seulement aux enfants âgés de plus de douze ans mais également à ceux de 6 à 12 ans, notre projet initial a été chamboulé et nous avons dû réfléchir à un deuxième projet s'adaptant aux nouvelles mesures sanitaires. Ce deuxième projet sera intitulé : « étude des impacts psychomoteurs du port du masque chez les enfants en classe de CM1 et création d'ateliers préventifs et pédagogiques ». Il sera illustré par la couleur orange, et sera le projet abouti de notre étude . En résumé, nous proposons de lire notre mémoire selon le code couleur suivant : le projet initial sera introduit par a couleur verte et le projet abouti par la couleur orange. Voici la frise reprenant chronologiquement les deux projets que nous allons détailler ensuite. Figure 1 : Frise chronologique des deux projets d'étude. Nos problématiques sont les suivantes : - Quel est l'impact psychomoteur du port du masque chez les enfants en milieu scolaire ? - La psychomotricité peut-elle aider à l'intégration et l'apprivoisement d'un nouvel accessoire imposé à notre quotidien ? 11 Et plus largement : - Quel est le rôle de la psychomotricité en milieu scolaire ? Avant d'exposer chronologiquement le déroulement de nos deux projets, il nous semble important d'introduire le cadre théorique de ce stage expérimental et de nous attarder sur les notions de prévention et d'éducation puis de nous intéresser à leurs liens avec la psychomotricité. 12 PARTIE 1 : NAISSANCE DES PROJETS I- Le cadre du projet expérimental Le projet de recherche s'est déroulé dans le cadre d'un stage expérimental de troisième année. Ce sont des stages qui ont lieu dans des structures ou services où il n'y a pas de maître de stage psychomotricien mais deux tuteurs, l'un exerçant dans la structure et l'autre étant enseignant de l'IFP Pitié-Salpêtrière, Sorbonne Université. Ce stage s'est déroulé du 6 novembre au 18 décembre 2020. Nous avons été reçues par la directrice de l'établissement, qui sera notre tutrice interne, à qui nous avons expliqué notre projet d'étudier autour de la question du port du masque chez les enfants en milieu scolaire. Comme décrit plus haut, la directrice d'établissement s'est montrée très intéressée par notre projet et l'a rapidement exposé aux membres de son équipe pédagogique. Dans un premier temps, nous avons dû obtenir toutes les autorisations auprès de l'inspection afin de pouvoir débuter notre stage2. À la suite de l'accord de l'inspectrice de l'académie dont dépend cette école, deux enseignantes se sont montrées intéressées par notre projet et ont accepté de nous recevoir dans leurs classes respectives. Nous avons alors eu le choix entre deux classes, une classe de CM1 et une classe de CM2. Notre choix s'est porté vers la classe de CM1 pour des raisons de disponibilité et de liberté accordées par la professeure des écoles. Ensuite, ensemble, nous avons construit un planning de nos interventions, convenant le mieux possible à l'emploi du temps de la maîtresse ainsi qu'à l'organisation de son temps de classe. Effectivement, en intervenant auprès d'élèves en classe, nous avions à coeur de respecter au mieux l'organisation de leur journée et ainsi de réfléchir en amont à ce qui serait possible de faire ou pas étant donné le cadre temporel, parfois serré, qu'implique la scolarité. Jusqu'ici, la mise en place de notre projet autour du port du masque chez les enfants en milieu scolaire se déroulait parfaitement et nous étions face à une équipe ravie de nous accueillir dans son établissement. 2 Cf. Annexe I, lettre du projet à destination de l'inspection, p.I 13 Avant de commencer notre stage, nous avons fait parvenir aux parents de la classe des autorisations3, présentant notre projet et demandant l'accord pour que leur enfant puisse participer aux ateliers de psychomotricité et répondre au questionnaire. Tous ont répondu favorablement ce qui nous a permis de commencer notre stage le vendredi 6 novembre 2020. L'école se compose de huit classes : une classe de petite section, une classe de moyenne et grande section, une classe de grande section et CP, une classe de CP et CE1, une classe de CE1 et CE2, une classe de CM1, une classe de CM2 et enfin un dispositif ULIS. L'équipe se compose de la directrice, de neuf enseignants, deux Agents Territoriaux Spécialisés des Ecoles Maternelles (ATSEM), et de trois Accompagnants des Elèves en Situation de Handicap (AESH). Afin de mener à bien notre projet nous avons eu à notre disposition, la salle de classe des élèves de CM1, une grande salle destinée à la pause déjeuner des enseignants ainsi qu'une grande salle de motricité avec du matériel. II- Apports théoriques de la psychomotricité 1. La psychomotricité Trouver une définition simple et courte de la psychomotricité est une tâche ardue car ce terme désigne autant un large concept dans lequel s'intriquent des aspects moteurs, affectifs et cognitifs, que le nom d'une profession (être psychomotricien). La profession de psychomotricien est assez récente puisque le premier diplôme d'État de psychomotricien, sous l'appellation de psycho rééducateur, a été décrété en 1974. Le psychomotricien est un professionnel paramédical diplômé d'État. Son champ d'intervention est très vaste, s'applique à tous les âges de la vie et son travail consiste à veiller au bon équilibre du développement psychomoteur par ses interventions rééducatrices et thérapeutiques. Cette profession part du postulat que le psychisme et le moteur sont dépendants l'un de l'autre et que leurs composants sont en interrelation dans le développement de tout individu. Ainsi, « le psychomotricien ne peut envisager le mouvement sans les mécanismes cérébraux qui l'accompagnent [] ni son éventuel impact psychologique sur la personne (confiance, estime de soi, enjeu relationnel). Il considère sans cesse l'individu dans sa globalité. » (D'Ignazio & Martin, 2018, p. 11) 3 Cf. Annexe II, Autorisation parentale vierge, p.II 14 Le psychomotricien est habilité à accomplir, selon son décret de compétence 4, sur prescription médicale et après examen neuropsychologique du patient, les actes suivants : 1) Bilan psychomoteur. 2) Éducation précoce et stimulation psychomotrice. 3) Rééducation des troubles du développement psychomoteur ou des désordres psychomoteurs suivants, au moyen de techniques de relaxation dynamique, d'éducation gestuelle, d'expression corporelle ou plastique et par des activités rythmiques, de jeu, d'équilibration et de coordination. 4) Contribution, par des techniques d'approche corporelle, au traitement des déficiences intellectuelles, des troubles caractériels ou de la personnalité, des troubles des régulations émotionnelles et relationnelles et des troubles de la représentation du corps d'origine psychique ou physique. À la lecture de ce décret, en plus du soin qui est le mode d'intervention clef du psychomotricien, nous retrouvons également la prévention et l'éducation. Ce sont ces deux champs d'intervention de notre profession qui vont nous intéresser pour l'élaboration de notre projet à l'école. 2. Éducation et système éducatif français Le terme éducation vient du latin educare qui signifie nourrir, apporter les éléments fondamentaux à la satisfaction des besoins ou de educere qui signifie grandir, répondre à une volonté d'adaptation à l'environnement. Cela fait appel à la notion d'éducabilité, qui renvoie à la croyance que l'individu a des potentialités. L'éducation, dans son sens premier, vise donc à préparer les enfants à leur vie future et à leur fournir une certaine autonomie. L'éducation scolaire en France est financée à 58% par l'État français (qui finance en majeure partie l'enseignement du secteur public), par les collectivités territoriales à 24%, les entreprises à 9% et les ménages à 8%. La majorité des établissements du système scolaire sont sous le contrôle direct du ministère de l'Éducation Nationale. Les régions sont responsables du fonctionnement du matériel et de l'investissement dans les établissements scolaires lycéens, les collèges sont confiés aux départements et les communes s'occupent des écoles primaires. L'État conserve le champ pédagogique, contrôle et évalue l'organisation du système éducatif. L'Éducation Nationale compte quatre corps d'inspection, national ou 4 Cf. Annexe III, Décret de compétence du psychomotricien, p. III 15 régional et pédagogique ou administratif. Le conseil national des programmes, choisi par le ministre donne son avis sur l'élaboration et la conception des programmes scolaires. Enfin, le conseil supérieur de l'Éducation, composé des représentants des personnels, des usagers, de la collectivité, et du monde du travail, donne son avis sur les décisions administratives ou autres. Les principes fondateurs du système éducatif français sont la gratuité, la laïcité et l'obligation. De la Maternelle jusqu'à la fin du collège, la scolarité est divisée en quatre cycles : Cycle 1 Cycle des apprentissages primaires Petite, moyenne et grande section (Maternelle) Cycle 2 Cycle 3 Cycle des apprentissages Cours Préparatoire, Cours 1 et Cours 2 fondamentaux (Primaire) Cycle de consolidation Cours Moyen 1, Cours Moyen 2 (Primaire), sixième (Collège) Cycle 4 Cycle d'approfondissement Cinquième, quatrième, troisième (Collège) Tableau 1 : Récapitulatif des quatre cycles de la scolarité en France. Chaque cycle est composé de programmes articulés au socle commun de connaissances, de compétences et de culture. Ils assurent l'acquisition des connaissances et des compétences fondamentales, déclinent et précisent les objectifs définis par le socle commun. Le Cours Moyen 1 fait partie du cycle 3 qui est le cycle de consolidation. Il nous paraît important, avant toute intervention, d'avoir en tête les prérequis de la classe de CM1 afin de s'y appuyer. 3. Prérequis de la classe de CM1 Selon le site officiel de l'éducation nationale le programme de la classe de CM1 s'articule autour de cinq domaines : 1. Les langages pour penser et communiquer 2. Les méthodes et outils pour apprendre 3. La formation de la personne et du citoyen 4. Les systèmes naturels et les systèmes techniques 5. Les représentations du monde et l'activité humaine 16 Ces cinq domaines sont enseignés à travers les neuf matières suivantes : français, langues vivantes, arts plastiques, éducation musicale, histoire des arts, enseignement moral et civique, histoire et géographie, mathématiques et éducation physique et sportive. À la lecture des prérequis pour chaque matière, la première compétence attendue en Éducation physique et sportive a retenu notre attention. Effectivement, l'éducation physique et sportive répond aux enjeux de formation du socle commun en permettant à tous les élèves, filles et garçons ensemble et à égalité, a fortiori les plus éloignés de la pratique physique et sportive, de construire cinq compétences travaillées en continuité durant les différents cycles : • Développer sa motricité et apprendre à s'exprimer en utilisant son corps. En psychomotricité le corps est au premier plan. Il est au centre de nos relations et représente un moyen de communication avec l'environnement. Nous verrons plus tard à quel point cette compétence peut être impactée par le port du masque et de quelle manière la psychomotricité peut la soutenir. • S'approprier par la pratique physique et sportive, des méthodes et outils. • Partager des règles, assumer des rôles et responsabilités. • Apprendre à entretenir sa santé par une activité physique régulière. • S'approprier une culture physique sportive et artistique. 4. La prévention en question D'après le Centre National des Ressources Textuelles et Lexicales, la prévention se définit comme l'ensemble de mesures destinées à éviter un événement qu'on peut prévoir et dont on pense qu'il entraînerait un dommage pour l'individu ou la collectivité. Dans le domaine de la santé, la prévention peut se définir sous différents aspects. Selon le "Traité de Santé Publique" chapitre 15 : Prévention et promotion de la santé de François Bourdillon, Gilles Brucker, Didier Tabuteau : « La notion de prévention décrit l'ensemble des actions, des attitudes et comportements qui tendent à éviter la survenue de maladies ou de traumatismes ou à maintenir et à améliorer la santé. » Il existe deux types de prévention : la prévention dite de "protection" qui est une prévention "de" ou "contre". Elle se rapporte à la défense contre des agents ou des risques 17 identifiés, et la prévention dite "positive" du sujet ou de la population, sans référence à un risque précis, qui renvoie à l'idée de "promotion de la santé". Selon l'Organisation Mondiale de la Santé (OMS) en 1948 : « la prévention est l'ensemble des mesures visant à éviter ou réduire le nombre et la gravité des maladies, des accidents et des handicaps. » Il en existe trois types : 1. La prévention primaire : ensemble des actes visant à diminuer l'incidence d'une maladie dans une population et donc à réduire, autant que possible, les risques d'apparition de nouveaux cas. 2. La prévention secondaire : dont le but est de diminuer la prévalence d'une maladie dans une population. Ce stade recouvre les actes destinés à agir au tout début de l'apparition du trouble ou de la pathologie afin de s'opposer à son évolution ou encore pour faire disparaître les facteurs de risque. 3. La prévention tertiaire : qui intervient à un stade où il importe de diminuer la prévalence des incapacités chroniques ou des récidives dans une population et de réduire les complications, invalidités ou rechutes consécutives à la maladie. R. S. Gordon, en 1982, présente une classification de la prévention en trois parties : - La prévention universelle est destinée à l'ensemble de la population, quel que soit son état de santé. Les champs dits de l'éducation pour la santé qui insistent notamment sur les grandes règles d'hygiène, font donc partie intégrante de cette acceptation de la prévention. - La prévention sélective s'exerce en direction de sous-groupes de population spécifique : automobilistes, travailleurs en bâtiment, jeunes femmes, etc. La promotion de l'activité physique ou la contraception constituent des exemples d'actions de prévention sélective. - La prévention ciblée se fait non seulement en fonction de sous-groupes de la population mais aussi et surtout en fonction de l'existence de facteurs de risques spécifiques à cette partie bien identifiée de la population. Selon l'OMS (1998), la psychomotricité participe à la qualité des conditions de développement avec des interventions spécifiques soutenant l'équilibre psychique global des personnes et les liens sociaux. La psychomotricité est proposée à titre préventif dans certains établissements accueillant des enfants (crèches, écoles). Elle se fait en groupe, en 18 collaboration avec d'autres professionnels comme des éducateurs, des enseignants mais aussi avec les parents et est définie par plusieurs objectifs : - La stimulation du développement et des compétences de l'enfant. - Le dépistage précoce des éventuelles difficultés ou retards qui nécessiteraient une prise en charge. - Une exploration corporelle et ludique qui vise à favoriser et soutenir le développement global des enfants (motricité globale et fine, compétences sociales, perceptions). - Les activités sont conçues en étroite collaboration avec les enseignants et les professionnels concernés. - La proposition d'une approche différente et l'apport de nouveaux outils techniques favorisant l'enseignement. La prévention est alors l'accompagnement du développement et le soutien dans l'adaptation à l'environnement propre, comprenant l'Autre et le groupe. Notre intervention en classe de CM1 sur l'utilisation du port du masque et le travail autour de ses impacts aura pour visée une prévention universelle de protection primaire. 19 PARTIE 2 : PRÉSENTATION DE L'ÉTUDE Avant de détailler chronologiquement les deux projets d'études que nous avons mis en place au sein de la classe de CM1, voici une frise reprenant nos deux projets ainsi que le questionnaire à destination des enseignants d'Elémentaire que nous vous présenterons plus tard. Figure 2 : Frise générale des deux projets accompagnés du questionnaire des enseignants. Pour rappel, nous proposons de lire notre mémoire selon le code couleur suivant : le projet initial sera introduit par la couleur verte et le projet abouti mentionné en orange. De même, toute notre rédaction portant sur les réponses des enseignants au questionnaire sera indiquée par un code couleur bleu. 20 I- Projet initial : L'influence du port du masque sur l'attention, l'écriture, le schéma corporel et la motricité des enfants en classe de CM1 1. Introduction Notre projet de base, que nous pensions à réaliser auprès des enfants était une comparaison du comportement et des capacités psychomotrices des enfants en fonction du port ou non du masque. Afin de mener ce projet de comparaison 1, nous avions choisi une batterie de tests psychomoteurs que nous voulions proposer aux enfants une fois avec le masque et une fois sans le masque et ainsi comparer les résultats. Nous avions choisi de faire passer le BHK, pour observer comment le masque pouvait influencer le graphisme mais également la tenue de l'outil scripteur ou encore la posture. Le BHK est un test psychomoteur 5, durant lequel l'enfant doit réécrire un texte sur une feuille vierge à sa vitesse d'écriture habituelle pendant cinq minutes. Il évalue à la fois la vitesse d'écriture et la qualité de celle-ci. Aussi, nous avions prévu de faire passer le test de Stroop6, afin de se rendre compte de l'impact du masque sur l'attention des enfants. Ce test neuropsychologique évalue principalement l'attention sélective qui est la capacité à maintenir l'attention sur une cible quand des distracteurs sont présents, ou encore à tenir compte d'une des dimensions d'un stimulus tout en ignorant les autres. Le test du dessin du bonhomme de Goodenough 7, était prévu afin de voir si le masque impactait les représentations corporelles des élèves. C'est un test psychologique évaluant les connaissances du schéma corporel de l'enfant. Enfin nous prévoyions de mettre en place un parcours psychomoteur afin d'observer les coordinations motrices générales des enfants ainsi que les équilibres, l'aisance gestuelle et plus généralement la motricité générale avec et sans masque. 5 Cf. Annexe IV, Fiches de passation et de cotation du test BHK enfant, p.V Cf. Annexe V, Fiches de passation et de cotation du test du Stroop, p. VII 7 Cf. Annexe V, Tableau de cotation des items du test du bonhomme de Goodenough, p. XII 6 21 2. Hypothèses Avant de commencer ce projet, nos hypothèses étaient les suivantes : 1. Le port du masque modifierait la respiration ainsi que la posture des élèves lors de l'écriture et par conséquent la qualité de leur graphie ainsi que leur vitesse d'écriture. 2. Le port du masque impacterait l'attention des élèves. 3. Le port du masque modifierait les représentations corporelles notamment au niveau du visage. 4. Le masque ne ferait pas partie des accessoires représentés dans le dessin du bonhomme. 5. Le masque modifierait les coordinations motrices générales des enfants. Ce projet que nous avions monté était réalisable dans la mesure où nous pouvions faire la comparaison avec et sans masque. Malheureusement, le 2 novembre 2020 l'obligation du port du masque à l'école est entrée en vigueur dans la loi de l'article 36 du décret 2020-1310. Comme depuis maintenant plusieurs mois, nous étions contraintes de nous adapter à cette situation sanitaire instable. Effectivement, à partir de ce jour il était impossible de retirer le masque aux enfants, et donc d'effectuer une comparaison avec et sans masque, même dans le cadre de notre projet de mémoire. Cette nouvelle mesure gouvernementale ne nous a pas arrêtées et nous avons repensé notre projet. Nous avons alors monté un deuxième projet, le projet abouti : études de l'impact du port du masque chez les enfants dans une classe de CM1 et création d'ateliers pédagogiques et préventifs que nous allons exposer ci-dessous. 22 II- Projet abouti : étude des impacts psychomoteurs du port du masque chez les enfants en classe de CM1 et création d'ateliers préventifs et pédagogiques. 1. Introduction À partir du 2 novembre 2020, nous avons repensé notre projet de recherche. À la place d'une comparaison avec et sans masque, nous avons décidé de faire un état des lieux de l'intégration du masque chez les enfants et quels impacts ce dernier peut avoir, notamment dans la communication non verbale et la relation aux autres ainsi que dans le discernement des émotions. Nous nous sommes également demandé dans quelle mesure le masque est intégré dans le schéma corporel des enfants. En parallèle, nous avons pensé à réaliser un questionnaire à destination des enseignants d'Élémentaire, eux qui sont au plus proche des élèves et donc plus à même d'observer et relater un quelconque changement depuis l'arrivée du port du masque obligatoire en classe. Nous vous détaillerons le contenu de ce questionnaire au temps 0. Afin de mener nos recherches, nous avons mis en place un planning sur plusieurs journées avec différents temps que nous allons décrire : Figure 3 : Frise détaillant le projet d'étude des impacts du port du masque chez les enfants dans une classe de CM1 et création d'ateliers pédagogiques et préventifs. 23 2. Temps 0 : Élaboration des entretiens d'après nos hypothèses sur l'impact du port du masque Figure 4 : Frise focus sur le temps 0. Pour la construction de ce projet, nous sommes parties d'hypothèses se basant sur nos intuitions et nos connaissances psychomotrices : 1. Le port du masque aurait un impact sur l'intégration du schéma corporel des enfants. « Édifié sur la base des impressions tactiles, kinesthésiques, labyrinthique, visuelles, le schéma corporel réalise dans une construction active constamment remaniée des données actuelles et du passé, la synthèse dynamique, et qui fournit à nos actes, comme à nos perceptions, le cadre spatial de référence où ils prennent leur signification » (Ajuriaguerra, 1970). Le schéma corporel est le modèle perceptif du corps, aussi permanent qu'évolutif. 2. Le port du masque entraînerait des modifications de leur image du corps. L'image du corps est la représentation que chacun a de son corps. Pour Françoise Dolto, elle est « la synthèse vivante de nos expériences émotionnelles » (Dolto, 2014 p.22). L'image du corps est « portée par et croisée à notre schéma corporel » (Dolto, 2014). Elle est donc une image individuelle, liée à l'histoire du sujet qui reste active tout au long de la vie. 3. Le port du masque impacterait l'attention en classe, notamment dans la compréhension des consignes de l'institutrice. 4. Le port du masque provoquerait une certaine inhibition notamment dans la prise de parole. 5. Le port du masque aurait un impact dans la relation entre les enfants. 6. Le port du masque demande plus d'observation afin de comprendre les émotions des autres. 7. Le port du masque provoquerait une gêne sensorielle au niveau du visage et plus particulièrement de la sphère orale. 24 8. Le port du masque constituerait un obstacle dans la compréhension du langage non verbal qui est un échange n'ayant pas recours à la parole. En construisant notre nouveau projet, il nous est venue la question suivante : dans un contexte scolaire où l'immobilité et le silence sont demandés en classe, et où les expressions non verbales sont un moyen pour les enfants de communiquer en silence, comment les élèves ressentent la suppression d'une partie visible du visage et de ce fait l'appauvrissement des moyens de communication non verbale en classe ? À partir de l'ensemble de ces hypothèses et questionnements, nous avons sélectionné et créé des tests qui pourraient évaluer les grandes fonctions psychomotrices mises en jeu, telles que le schéma corporel, l'image du corps, le graphisme, la fonction tonique et la communication non verbale et comment le masque peut avoir un impact sur ces dernières. 3. Tests psychomoteurs sélectionnés et créés 3.1 Le dessin du bonhomme de Florence Goodenough Nous avons choisi de faire passer aux enfants le test du dessin du bonhomme de Goodenough8. Ce test est un test psychologique crée en 1926 par Florence Goodenough, une psychologue américaine. Il est étalonné pour les enfants de 3 à 13 ans. Il évalue la connaissance du schéma corporel et le niveau graphique quantitatif et qualitatif. Lors de la passation de ce test, l'enfant est face à une feuille vierge, avec à sa disposition uniquement un crayon à papier. La consigne est la suivante : « Sur cette feuille, dessine-moi un bonhomme, le plus beau que tu pourras, le plus joli. Prends ton temps ». Si l'enfant pose des questions nous répondons « Comme tu veux, fais pour le mieux ». La réalisation du dessin est suivie d'une phase d'enquête pendant laquelle on pose des questions à l'enfant sur des éléments de son dessin. Le temps moyen de ce test est de 5 à 10 minutes. Lors de la passation de ce test, nous pouvons aussi noter la qualité du tracé, la prise du crayon, le comportement de l'enfant, la verbalisation, l'emplacement du dessin sur la feuille et toutes observations relatives à sa production. Dans notre cas, nous avons particulièrement observé le comportement de l'enfant avec son masque et si celui-ci était représenté ou non sur le dessin. La cotation se fait à partir d'un tableau qui détaille les 51 items permettant d'obtenir un score final correspondant à un niveau génétique de la représentation du bonhomme. 8 Cf. Annexe V, Tableau de cotation des items du test du bonhomme de Goodenough, p. XII 25 3.2 Le dessin de soi Dans une volonté d'observer l'intégration ou la non-intégration du masque comme un accessoire faisant partie de la représentation des élèves, nous avons créé une proposition de dessin de soi. Inspirées par le dessin du bonhomme de Goodenough, nous avons donné aux élèves la consigne suivante « Dessine-toi, le plus fidèlement possible, tu as le droit d'utiliser des crayons de couleurs ». Volontairement, nous avons fait le choix de donner une consigne courte et peu détaillée, ne parlant à aucun moment du masque, afin de ne pas orienter le dessin de l'élève et lui laisser un maximum de liberté dans sa représentation. La cotation sera seulement quantitative et centrée sur la présence ou non du masque et sur les verbalisations de l'élève. 3.3 Les somatognosies faciales La somatognosie se réfère à la connaissance qu'un individu a de son corps et des relations entre les différentes parties. Les somatognosies s'évaluent en demandant à la personne évaluée si elle peut soit nommer la partie du corps montrée par l'examinateur soit montrer sur elle la partie du corps nommée par l'examinateur. Également, elles peuvent s'évaluer avec un dessin comme support. Nous savons qu'il existe un test étalonné de somatognosies de Berges9, qui questionne l'ensemble des parties du corps. Pour cette étude, il nous semblait plus judicieux de cibler la connaissance des parties du visage car c'est à ce niveau que le masque est porté. Nous avons fait le choix de demander aux enfants de montrer sur eux une partie du corps que nous leur nommions afin de voir comment ils se comportaient avec le masque sur leur visage. Effectivement, ce n'est pas la connaissance topographique des parties du visage qui nous intéresse mais plus le comportement et les réactions des élèves à l'évocation d'une partie cachée sous le masque. Nous avons demandé aux élèves, de nous montrer successivement les parties suivantes : nez, bouche, yeux, joues, sourcils, lèvres, cils, cheveux, pupilles, dents, oreilles, langue, lobe de l'oreille, palais, gencive, narine, front et cou. 3.3 Reconnaissances des sept émotions Comme mentionné plus haut notre 6ème hypothèse concerne la difficulté d'observation et d'adaptation des élèves à comprendre les émotions des autres avec le masque. Pour la valider ou l'infirmer il nous fallait alors créer une proposition qui demanderait aux élèves de reconnaître une émotion avec le masque porté sur leur visage et le visage de l'interlocuteur. 9 Cf. Annexe VII, Fiche de cotation du test des somatognosies de Bergès, p XIII 26 Avant de pouvoir mettre en place ce test, nous nous sommes demandé ce qu'étaient les émotions, leurs importances et leurs liens directs avec la communication non verbale et plus particulièrement avec les expressions faciales. Pour nos recherches nous nous sommes beaucoup appuyées sur deux ouvrages. Le premier s'intitule Comprendre les émotions, perspectives cognitives et comportementales, écrit par Paula Niedenthal, Silvia Krauth-Gruber et Francois Ric. Le second est un livre de Moïra Mikolajczak, Jordi Quoidbach, Ilios Kotsou et Delphine Nelis et a pour titre Les compétences émotionnelles. À la lecture des différentes recherches aux sujets des émotions nous nous sommes aperçues qu'elles s'accordaient à dire que trouver une définition simple et universelle à cellesci est très compliqué. Les définitions sont très variables et encore vagues. Nous avons choisi de définir les émotions « comme des phénomènes internes qui peuvent, mais pas toujours, être observables à travers les expressions et les comportements. » (Niedenthal et al., 2013, p13). On retrouve donc ici le lien entre émotion et expression émotionnelle et plus largement communication émotionnelle. Cette expressivité émotionnelle nous permet au quotidien de détecter un danger par l'identification de la peur sur autrui par exemple, de se préparer à faire face à une série de situations et d'orienter en conséquence les processus de prise de décision, de guider nos interactions sociales et d'améliorer la mémoire des événements importants. L'action d'exprimer une émotion, de percevoir et d'interpréter celles des autres est ainsi fondamentale pour le bon fonctionnement des relations interpersonnelles. Cette action peut se matérialiser sous forme d'expressions faciales, « les recherches sur la signification des expressions faciales suggèrent qu'elles ont des origines émotionnelles et sociales, et qu'elles communiquent donc aussi bien des messages émotionnels que sociaux. Selon le contexte social particulier, et selon la valence positive ou négative de l'événement émotionnel, l'expression faciale est spontanée et émotionnelle, ou instrumentale et sociale. » (Niedenthal et al., 2013, p143). Elle est donc au coeur de l'expressivité émotionnelle et donc au coeur de nos rapports sociaux. Selon le livre Les compétences émotionnelles, il existe cinq compétences émotionnelles de base qui sont les suivantes : identification, compréhension, expression, régulation, utilisation. Les compétences émotionnelles jouent un rôle essentiel dans la santé mentale, la santé physique, la performance au travail et les relations sociales. Elles se déclinent en deux versants : d'une part le versant intrapersonnel et de l'autre le versant extra-personnel. Cette approche est résumée dans le tableau extrait de ce livre. 27 Tableau 2 Les 5 compétences émotionnelles de base, tableau tiré de la page 7 du livre, Les compétences émotionnelles Nous pouvons alors assez facilement prévoir qu'avec le port du masque obligatoire pour les élèves mais également leurs interlocuteurs à l'école (camarades de classe et adultes) plusieurs compétences, si ce n'est toutes, sont impactées. Tout d'abord nous pouvons nous attendre à un impact sur l'identification des émotions d'autrui puisque le masque cache la moitié du visage si ce n'est plus, ce qui, de fait, complique l'identification des expressions faciales. Cette compétence est nécessaire car elle nous informe sur l'état de l'individu avec lequel on interagit. Elle permet des échanges interpersonnels et une adaptation sociale indispensable à l'Homme. En effet, identifier une émotion sur autrui permet de nous figurer l'état de notre relation avec lui, nous informe de ses besoins et de ses attentes. De plus « nous connaissons leurs émotions, nous pouvons comprendre ce qu'ils font et pourquoi, et aussi ce que nous ferions dans la même situation (Buck, 1983,1988). En effet, une émotion éprouvée et exprimée par un individu peut être communiquée à un autre, même si celui-ci n'a jamais vécu l'événement qui a été à l'origine de cette émotion. Cette communication émotionnelle repose sur le lien étroit entre la réponse émotionnelle et l'observation de l'expression faciale de l'émotion et d'autres gestes. » (Niedenthal et al., 2013, p73). 28 Au niveau de la capacité à exprimer ses émotions, elle est fortement corrélée au contexte relationnel et à la manière dont l'émotion a été perçue et vécue dans le passé. Elle nécessite une mise en mots et en corps qui peut être impactée elle aussi par le port du masque, tant du côté verbal avec une possible inhibition verbale, que du côté corporel avec un appauvrissement d'expressivité visible au niveau du visage. Les capacités de compréhension, de régulation et d'utilisation de ses émotions et de celles des autres découlent directement ou indirectement de la capacité d'identification et d'expression et peuvent donc être aussi impactées par le port du masque. Une fois le rôle et l'intérêt des émotions établies et le fait que le port du masque peut impacter directement l'expression faciale de celles-ci en cachant une partie du visage, il nous restait à choisir quelles émotions nous allions proposer aux élèves. Le concept d'émotion de base renvoie à deux approches différentes. La première considère à la manière des couleurs primaires, les émotions de base comme des éléments fondamentaux sur lesquelles on peut combiner d'autres éléments plus complexes pour arriver au panel d'émotions que l'on connaît aujourd'hui. La seconde renvoie à l'idée que les émotions de base sont codées dans nos gènes et sont de fait innées biologiquement. Ainsi de ces deux approches ressort un bon nombre de différentes émotions de base selon les théoriciens. La plupart inclue cependant de façon constante les cinq émotions suivantes : la joie, la tristesse, la colère, le dégoût et la peur auxquelles ils ajoutent parfois la surprise et l'amour. Ce sont donc sur ces sept émotions que nous avons choisi de baser notre test. Nous avons ainsi créé un test de reconnaissance d'émotions. Nous mimions avec notre visage les émotions suivantes : la joie, la tristesse, la colère, la surprise, la peur, de dégoût et l'amour. L'élève devait nous dire une par une à quelle émotion notre expression faciale lui avait fait penser. Nous savons pertinemment, que dans ces conditions, avec le port du masque obligatoire, nous ne pouvons évaluer la connaissance des émotions par les élèves car nous n'avons pas de moyen de savoir s'ils reconnaissent l'émotion jouée sans masque. L'intérêt de ce dispositif réside plus dans l'observation des stratégies mises en place par les élèves pour reconnaître l'émotion. Pour étayer les résultats de ces tests, nous avons créé un questionnaire ciblant le port du masque en classe. 29 4. Questionnaires à destination des élèves Nous avons pensé à 30 questions10 11 à adresser aux élèves à propos de leur relation avec le port du masque en classe. Voici les questions composant notre questionnaire : Les 4 premières questions se rapportent aux ressentis de l'élève après la passation du dessin du bonhomme de Goodenough et du dessin de soi. 1. Comment t'es-tu senti après et pendant les dessins ? 2. Quel dessin as-tu préféré faire ? 3. Est-ce que le masque t'a gêné pendant que tu dessinais ? 4. Est-ce que tu penses que les autres te voient comme tu t'es dessiné ? Les 8 questions suivantes s'intéressent aux sensations provoquées par le port du masque : 5. Est-ce que le masque te gène en classe ? 6. As-tu fréquemment envie d'enlever le masque ? 7. Est-ce que le masque te fait mal à la tête ? 8. Est-ce que le masque te fait mal derrière les oreilles ? 9. Est-ce que tu sens ton souffle dans le masque en classe ? 10. Est-ce que tu as l'impression de toucher plus souvent ton visage en classe ? 11. Est-ce que tu arrives à oublier que tu portes le masque ? 12. A quel moment de la journée sens-tu le plus le masque ? Les 5 questions suivantes concernent l'aspect relationnel : 13. As-tu l'impression d'être caché derrière ton masque ? 14. Est-ce que tu penses que la maîtresse te remarque moins en classe ? 15. Est-ce que tu as l'impression que tes camarades te regardent plus dans les yeux ? 16. Penses-tu que tes camarades imaginent correctement ton visage derrière ton masque ? 17. Est-ce que c'est difficile de voir uniquement la moitié du visage de tes camarades ? Les 5 questions suivantes s'intéressent à la communication : 18. Est-ce que tu as plus de difficultés à parler avec le masque sur ton visage en classe ? 10 11 Cf. Annexe VIII, Questionnaire vierge à destination des élèves, p. XIV. Cf. Annexe IX, Tableau des résultats bruts du questionnaire à destination des élèves, p. XXII 30 19. Est-ce que tu prends moins souvent la parole en classe ? 20. Est-ce que tu arrives à chuchoter avec tes camarades ? 21. Est-ce que tu entends moins bien avec le masque ? 22. Quand tu entends moins bien, que fais-tu ? Les 7 questions suivantes portent sur le langage non verbal : 23. Est-ce qu'avec le masque, tu arrives à discerner les émotions des autres ? 24. Quelle partie du corps regardes-tu pour savoir quand quelqu'un est joyeux ? 25. Quelle partie du corps regardes-tu pour savoir quand quelqu'un est triste ? 26. Sais-tu ce qu'est le langage non verbal et peux-tu le définir ? Selon leur réponse nous leur donnons une définition qui est la suivante : c'est la manière d'exprimer quelque chose avec le corps sans parler. 27. Comment tu penses qu'il s'exprime avec le masque ? 28. Quand tu veux faire comprendre quelque chose à un copain, mais que tu ne peux pas parler, comment fais-tu ? 29. Quelles parties du corps tu utilises ? Cette question permet de conclure le questionnaire : 30. Qu'est-ce que le port du masque à l'école a changé pour toi ? 5. Questionnaire à destination des professeurs d'élémentaire Nous avons créé un questionnaire en ligne à destination des enseignants d'élémentaire12 13qui était accessible de mi-novembre 2020 à mi-février 2021. Voici les questions proposées : 1. En quel niveau enseignez-vous ? 2. Combien d'élèves-y a-t-il dans votre classe ? 3. Selon vous, les élèves ont-ils eu une sensibilisation dans leur famille, à propos du port du masque en classe ? 4. Avez-vous pris un temps pour expliquer la raison du port du masque à vos élèves ? Si oui, quels ont été leurs questionnements et réactions ? 5. Les élèves portent-ils le masque correctement (bouche et nez couverts) ? 6. Les élèves se plaignent-ils du masque ? si oui, quelles sont les plaintes ? 7. Les élèves touchent-ils fréquemment leur masque ? 12 13 Cf. Annexe X, Questionnaire vierge à destination des enseignants, p. XXV Cf. Annexe XI, Tableau des résultats bruts du questionnaire à destination des enseignants, p. XXII 31 8. Concernant votre enseignement, avez-vous mis en place des adaptations à la suite du port du masque obligatoire en classe ? Si oui, lesquelles ? 9. Utilisez-vous plus le tableau en tant que support visuel, afin de faciliter la compréhension ? 10. Pensez-vous avoir plus recours à la gestuelle pour illustrer vos propos ? 11. Observez-vous un changement dans vos prises de parole (articulation et volume sonore) ? 12. Pensez-vous devoir répéter les consignes plus qu'auparavant ? 13. Observez-vous des changements de la concentration et de l'attention de vos élèves ? Si oui, quels sont-ils ? 14. Observez-vous une modification dans la prise de parole de vos élèves en classe ? 15. Cela vous gêne-t-il de ne voir que la moitié du visage de vos élèves ? Si oui, pourquoi ? 16. Avez-vous l'impression que le masque instaure une distance relationnelle entre vous et vos élèves ? Si oui comment ? 17. Pour finir, avez-vous des questionnements ou observations à nous faire part à propos de cette mesure ? A la fermeture de ce questionnaire le 15 février 2021, nous avons récolté 137 réponses d'enseignants différents. Nous ne nous attendions pas à un tel engouement, cela nous a permis d'avoir un échantillon assez conséquent pour appuyer notre étude. L'objectif de celuici était d'avoir le plus de retours possible quant aux effets observés du port du masque en classe. Nous avons pensé ce questionnaire afin de faire des liens entre les résultats de nos entretiens, les retours des élèves, nos propres observations et celles des enseignants. De manière à mettre en avant ces liens, nous avons décidé d'inclure les résultats de certaines réponses de ce questionnaire dans le déroulé de l'étude. Pour une meilleure clarté ils seront amenés sous la forme de diagrammes circulaires de couleur bleue et par le pictogramme suivant : 32 PARTIE 3 : PRÉSENTATION, OBSERVATIONS EN CLASSE ET RÉALISATION DES ENTRETIENS I- Présentation et observations en classe 1. Temps 1 : Visite de l'école, présentations et observations de la classe Figure 3: Frise focus sur le temps 1. 1.1 Visite de l'école et présentation Comme prévu, nous avons été accueillies par la directrice de l'établissement le vendredi 6 novembre 2020. La journée a commencé par une visite de l'école et des salles à notre disposition pour nos journées d'interventions. Ensuite, nous sommes allées dans la classe de CM1 pour nous présenter et exposer notre projet. Après s'être présentées aux élèves, leur avoir dit que nous étions étudiantes en psychomotricité et enlevé notre masque à distance pour leur montrer notre visage découvert, nous avons débuté en demandant aux élèves s'ils connaissaient la psychomotricité. Un élève, qui a été suivi en psychomotricité, a pris la parole et nous a dit "J'allais chez la psychomotricienne pour jouer. Elle m'aidait à travailler et à rester concentré plus longtemps". Nous avons rebondi sur sa réponse en donnant l'explication suivante : le psychomotricien travaille avec le corps et l'esprit de ses patients et permet de réadapter l'un aux changements de l'autre pour les faire fonctionner en harmonie. Lorsque le corps et l'esprit sont en conflit et 33 que leurs liens dysfonctionnent, on parle de troubles psychomoteurs. Le psychomotricien pense au patient dans sa globalité. Mais le corps et l'esprit, comment fonctionnent-ils ensemble ? Par exemple lorsque vous avez une évaluation à l'école et que vous êtes stressé, cela va avoir des répercussions sur votre corps. Par exemple vous pouvez avoir mal au ventre, avoir du mal à trouver le sommeil ou encore une perte d'appétit. Nous avons poursuivi en expliquant ce qu'était un mémoire de fin d'étude, sur quoi portait le nôtre et leur rôle à jouer dans cette étude. Nous leur avons ensuite expliqué les grandes lignes des différents temps de nos interventions : une première journée d'observation en classe, suivie de plusieurs journées d'entretiens individuels et enfin une journée d'ateliers. 1.2 Observation de la classe Une fois la présentation terminée, nous avons continué cette première journée en nous installant au fond de la classe pour observer le comportement des élèves. Ainsi nous avons eu l'occasion d'assister à différents temps scolaires : la dictée du vendredi matin, un temps de récréation, un entraînement de PPMS (plan particulier de mise en sûreté) pendant lequel les élèves devaient être immobiles et silencieux dans la classe pendant 30 minutes à la suite d'un signal donné par la direction et un cours de géographie. De nos observations ressortent plusieurs points : - Les élèves touchent fréquemment leur masque et certains ont eu besoin de le soulever quelques instants pour reprendre leur souffle. - Le masque est souvent placé sous le nez et n'est parfois pas adapté à la taille du visage des enfants. Tous les diagrammes bleus sont tirés des résultats du questionnaire à destination des enseignants. Figure 4: Diagramme circulaire du résultat de la question 5, "vos élèves portent-ils correctement le masque ?" 34 3/4 des enseignants observent que leurs élèves ne portent pas correctement le masque. - Lors du changement de masque après la pause déjeuner, la majorité n'utilise pas les élastiques pour retirer le masque, mais la partie bleue. En effet, chaque jour les enfants amènent un masque supplémentaire dans leur sac qu'ils portent après le repas. - Pendant la dictée, à plusieurs reprises, la maîtresse s'est éloignée des élèves et a soulevé son masque afin de montrer sa bouche pour accentuer l'articulation de certains mots compliqués. Cela montre la nécessité d'une adaptation. Figure 5: Diagramme circulaire de la question 8, "concernant votre enseignement, avez-vous mis en place des adaptations suit au port obligatoire du masque en classe ?" Comme l'enseignante de la classe de CM1, 91% des enseignants interrogés ont mis en place des adaptations en classe. Dans l'ensemble il en ressort qu'ils doivent hausser la voix, que certains temps ont été créés pour permettre aux élèves de baisser le masque pour respirer et aller boire plus fréquemment, qu'ils utilisent plus souvent des supports visuels et ont plus recours à la gestuelle et au langage non verbal. Également, 70 % des enseignants doivent répéter leurs consignes plus qu'auparavant. - Pendant la récréation le port du masque n'est pas respecté et beaucoup d'enfants l'enlèvent au moment de courir. - Pendant le PPMS, certains élèves voulant chuchoter entre eux, abaissent leur masque pour être entendu. Également pendant ce temps de silence les respirations des élèves 35 nous paraissaient bruyantes. Nous ne pouvons dire si leur forte respiration est due au port du masque ou si elle est la résultante d'une situation stressante. Nous avons utilisé nos observations de cette journée pour affiner et étayer l'élaboration des entretiens individuels que nous allons maintenant détailler. 2. Discussion Malgré les deux temporalités bien différentes, nos observations entrent globalement en accord avec les résultats des réponses des enseignants au questionnaire. Effectivement les enseignants étant avec leurs élèves 4 jours et demi par semaine et en moyenne 6 heures par jour, leurs observations sont forcément plus fines et complètes que les nôtres qui ne se sont faites que sur une seule journée. Nous avons conscience que ce temps d'observation en classe, très court, apparaît comme un biais dans notre étude et nous avons donc pris le parti d'interroger le plus d'enseignants possible afin d'étayer nos observations. Si nous avions eu la possibilité et le temps nécessaire à notre disposition, nous aurions voulu faire plus d'observations en classe mais, nous avons dû nous adapter à la temporalité imposée. Bien plus que nous le pensions, nos observations nous ont servies de point de départ et d'appui dans l'élaboration de notre étude. Néanmoins, nous avons remarqué à quel point notre bagage théorique ainsi que nos hypothèses psychomotrices préalablement construites ont influencé nos observations. Il aurait été intéressant de commencer par une journée d'observation sans avoir déjà trop pensé le projet et posé les hypothèses. 36 II- Temps 2 : Réalisation individuels des enfants des entretiens Figure 6; Frise focus du temps 2. 1. Réalisation des entretiens Ces bilans ont été proposés à un échantillon de vingt-deux élèves de la même classe de CM1. Leurs âges varient, au temps 2, entre 8 ans et 11 mois et 10 ans et 6 mois. Cette classe est composée de sept filles (31.8%) et de quinze garçons (68.2%). Les passations sont individuelles, chacune de nous était seule face à un enfant, espacée de lui par un bureau, à une distance de plus d'un mètre cinquante. Nous étions dans une grande salle de l'école, chacune dans un coin opposé de la pièce. Durant l'entretien les deux élèves présents en même temps se tournaient le dos, et étaient suffisamment éloignés pour éviter d'influencer leurs réponses. Chaque entretien individuel durait en moyenne trente minutes. Pour éviter le plus possible de biaiser les résultats, nous avons demandé à chaque enfant de ne pas raconter le déroulé de l'entretien à ses camarades en sortant de la pièce. Les entretiens débutaient par un temps où l'élève enlevait son masque pour en mettre un nouveau fourni par nos soins. Chacun passait en premier le dessin du bonhomme de Goodenough, puis un "dessin de soi", puis notre test de somatognosie faciale, puis la reconnaissance des sept émotions de base et enfin notre questionnaire élaboré au temps 0. 37 Le choix de cet enchaînement, a été réfléchi de sorte que la passation du dessin du bonhomme soit la première, pour éviter que les autres tests influent sur le dessin des élèves. Nous avons trouvé intéressant d'enchaîner sur la proposition du dessin de soi pour observer quels moyens les élèves utilisaient pour se dessiner différemment d'un bonhomme lambda. Ensuite, il était d'important, avant la reconnaissance des sept émotions et la passation du questionnaire, de faire une vérification et une consolidation de leur connaissance des parties de leur visage pour que chaque élève poursuive l'entretien avec la même base de savoirs. 2. Discussion Nous avons choisi de faire passer aux élèves cinq propositions dont seulement une est cotable quantitativement. Cela peut apparaître comme un biais de n'avoir que le dessin du bonhomme de Goodenough avec une cotation standardisée mais c'est un choix de notre part d'avoir créé des tests dont nous utiliserons les résultats de manière qualitative. De cette manière nous avons créé des propositions sur-mesure à notre étude et ciblant exactement ce que nous voulions. Toutefois, ce qui aurait permis une meilleure exploitation des résultats, aurait été de faire des entretiens-tests avec des enfants cobayes du même âge, hors de la classe de CM1. Cela aurait permis d'ajuster nos propositions à cette population, de vérifier la bonne compréhension de toutes nos propositions par des enfants de 9-10 ans, et ainsi affiner nos recherches. Nous n'avons pas pu mettre en place cette méthodologie par manque de temps. 38 PARTIE 4 : Temps 3 TRAITEMENT ET ANALYSE DES RÉSULTATS III- Traitement des résultats des tests Figure 7: Frise focus des temps 3 et 4. Afin de traiter les différents résultats et mettre en place nos différents ateliers nous avons utilisé deux types de méthodologie : une méthodologie quantitative et une méthodologie qualitative. Nous avons fait le choix de lier ces deux méthodologies pour obtenir des résultats les plus complets possible alliant des chiffres obtenus lors des questionnaires ou encore lors des cotations des tests standardisés ainsi que nos observations tout au long de notre étude. 1. Résultats du dessin du bonhomme : Nous avons coté les dessins du bonhomme conformément à la cotation du test de Goodenough14. Voici ce qu'il en ressort de nos cotations : sur vingt-deux élèves la moyenne est de 21/51 soit une moyenne d'âge de 8 ans pour des enfants de CM1, qui ont en moyenne 9 ans. Si on se base uniquement sur cette moyenne, les élèves ont une représentation du bonhomme correspondant à leur âge de développement. Cependant, les cotations révèlent que le score le plus bas est de 10/51 soit un âge correspondant à 5 ans et le score le plus haut est de 39/51 soit un âge correspondant de 12 ans. On observe donc une très grande marge entre le score le plus bas et score le plus haut ce qui traduit une grande disparité entre les élèves de la classe. Cf. Annexe XII, Dessins du bonhomme confrontés aux "dessin de soi" des 22 élèves de la classe de CM1, p. XXII 14 39 Nous avons traduit ces résultats dans le tableau suivant : Dessin du bonhomme de Nombre d'enfants Pourcentage Goodenough correspondant Retard supérieur à deux ans 11 50% Retard entre 2 ans et 6 mois 3 13.6% Correspond à son âge 2 9.1% Avance entre 6 mois et 2 ans 4 18.2% Avance supérieure à 2 ans 2 9.1% Tableau 3: Tableau d'analyse des résultats du test du bonhomme de Goodenough. On observe qu'au test du dessin du bonhomme de Goodenough seulement deux élèves, soit 9,1% ont une note correspondant à leur âge. 27,3%, soit un peu plus d'un quart, des élèves présentent un score supérieur au score attendu pour leur âge (un peu plus d'un quart). 63,6%, soit presque deux tiers des élèves présentent un score inférieur à leur âge. La moitié présente un retard supérieur à 2 ans. Ce nombre important d'élèves dans la classe avec un retard de représentation pose question. À quoi est dû ce retard chez des enfants considérés avec un développement correspondant à leur âge ? Est-ce dû à une cotation qui n'est plus adaptée à la génération actuelle ? Ou alors correspondrait-il plutôt à la révélation de certaines difficultés non diagnostiquées chez des élèves ? Sur les vingt-deux élèves, six élèves ont dessiné le masque sur leur dessin du bonhomme soit seulement 27%. 2. Résultat du dessin de soi : Sur les vingt-deux élèves, six ont dessiné un masque sur leur dessin les représentant, soit 27%. Mais, il ne s'agit pas exactement des six mêmes élèves ayant dessiné le masque sur le dessin du bonhomme. En effet, sur les six élèves, seulement quatre ont dessiné le masque sur les deux dessins (dessin du bonhomme et dessin de soi). Il y a donc deux élèves qui ont dessiné le masque uniquement sur le dessin du bonhomme et non pas sur le dessin les représentant et deux autres élèves qui n'ont pas dessiné le masque sur le dessin du bonhomme mais qui ont dessiné le masque sur le dessin les représentant. Les deux élèves ayant dessiné le masque uniquement sur le dessin du bonhomme ont donné les justifications suivantes : « Je ne l'ai pas dessiné sur moi parce que je préfère que l'on voie mon sourire » et « J'ai préféré dessiner un casque de pompier, parce que je veux être pompier plus tard et le masque c'est pour les infirmiers. » Les deux élèves qui ont dessiné le masque uniquement sur le dessin de soi ont tous les deux apporté l'explication suivante : « J'ai dessiné le masque sur 40 moi parce qu'en ce moment je suis obligé de le porter ». Concernant ceux qui n'ont ni représenté le masque sur le dessin du bonhomme, ni sur le dessin de soi, ils le justifient comme un oubli de leur part ou comme une volonté15. 3. Résultats des somatognosies faciales : Figure 8: Graphique représentant le pourcentage de réussite des somatognosies faciales passées avec le masque. Dans l'ensemble nous voyons que les somatognosies faciales sont bien acquises par les élèves. Cependant, dès la première partie du corps demandée, soit le nez, qui se trouvait donc sous le masque, nous avons pu observer que tous les enfants étaient surpris et désarmés. La plupart d'entre eux nous ont demandé s'ils devaient enlever le masque pour montrer le nez, ce à quoi nous répondions à l'enfant de faire comme il le souhaitait. Sept enfants ont abaissé leur masque à chaque partie du visage cachée. Les autres enfants sauf un ont montré les parties de leur visage couvertes par le masque en les pointant. Lorsque la partie du corps demandée se trouvait à l'intérieur de la bouche (dents, langue, palais, gencives) ces élèves étaient en difficulté pour nous expliquer clairement la localisation de celles-ci. Un enfant a retiré totalement son masque, et pendant toute la durée de l'entretien, pour montrer sa zone orale. Cf. Annexe XII, Dessins du bonhomme confrontés aux "dessin de soi" des 22 élèves de la classe de CM1, p. XXII 15 41 Cela révèle que, dans l'ensemble, les enfants se sont bien adaptés au port du masque afin de trouver des stratégies pour nous montrer les parties du corps que nous nommions, mais que leur vocabulaire topographique reste pauvre. 4. Résultats des 7 émotions de base : Figure 9: Histogramme des résultats de la reconnaissance des 7 émotions de base sur notre visage masqué. Les résultats de la reconnaissance des émotions montrent que les émotions joie, colère, tristesse et surprise ont été très bien reconnues par les élèves. Ces émotions s'expriment sur le visage par une mimique au niveau de la zone orale mais ont un fort retentissement au niveau des yeux. Ce qui ressort le plus des questionnements adressés aux élèves sur leurs stratégies pour reconnaître les émotions jouées avec le masque sur nos visages, c'est qu'ils se sont appuyés sur nos yeux et notre regard pour reconnaître l'émotion jouée. Par ailleurs, l'émotion de la peur n'a été reconnue que par douze élèves (55%), l'amour que par sept élèves (32%) et le dégoût que par trois élèves (13%). Effectivement ces émotions sont moins discernables au niveau des yeux et donc difficiles à reconnaître lorsque la moitié du visage est couverte par le masque. 42 5. Discussion Les entretiens individuels ont débuté par les dessins du bonhomme de Goodenough. Nous avons été assez surprises de constater que de nombreux dessins étaient très pauvres en détails. Également, la réaction des enfants face à la demande de produire un dessin a retenu notre attention. Beaucoup se sont montrés très réticents à l'idée de devoir dessiner, considérant cela comme une tâche désagréable. Nous avons retenu certains commentaires d'enfants qui sont souvent revenus : « Je n'aime pas dessiner je ne dessine jamais », « Je ne sais pas dessiner », « Je suis obligé de dessiner un bonhomme ? ». Au vu de ces observations, nous nous sommes questionnées sur l'actualité de la cotation du dessin du bonhomme de Goodenough. Effectivement, la cotation datant de 1926, est-elle toujours adaptée pour les enfants de la génération actuelle qui, d'après nos constatations, dessinent de moins en moins ? Concernant l'adaptation au port du masque, les enfants se sont relativement bien adaptés à celui-ci et montrent de réelles capacités à trouver de nouveaux moyens afin de pallier le manque d'informations que le visage peut normalement donner au niveau de la zone orale. Nous avons relevé la réponse d'une enseignante à la question 17 de leur questionnaire « Avez-vous des observations ou des remarques à nous faire part à propos de cette mesure ? » : « Je trouve que les enfants se sont très vite adaptés au port du masque. Je m'attendais à quelque chose de plus compliqué et à devoir leur dire souvent de le porter, mais ça n'a pas été le cas. Je suis ébahie (comme toujours) par leur capacité à s'adapter à toute situation (c'est leur force) même si on sent que depuis le retour de Noël, ils le portent un peu moins bien (sous le nez par exemple). Le plus dur est pour ceux qui portent des lunettes (buée), tout comme pour les adultes. ». La réponse de cette enseignante témoigne de la capacité d'adaptation au port du masque des élèves que nous avons également pu relever lors de nos entretiens. IV- Traitement des résultats des questionnaires à destination des élèves : Nous avons posé des questions aux enfants concernant leur rapport au masque pendant le temps scolaire. Nous avons choisi de présenter uniquement quelques questions et leurs réponses qui nous semblent pertinentes sous la forme de diagrammes circulaires de couleur orange. 43 1. Du côté de la sensorialité : Figure 10: Diagramme circulaire de la question 5, "est ce que le masque te gène en classe ?" Les réponses montrent que moins de la moitié des élèves se trouvent gênés par le masque en classe. Alors que nous aurions pu penser qu'il y en aurait beaucoup plus. Figure 11: Diagramme circulaire de la question 6, "Les élèves se plaignent-ils du masque ?" On peut mettre en relation les réponses des enseignants avec le résultat de la question « est-ce que le masque te gêne en classe » du diagramme ci-dessus. En effet, 45% des élèves sont gênés par le masque et selon les enseignants 54% s'en plaignent. Globalement, ces deux résultats concordent. Dans les réponses des enseignants, à la question « quelles sont les plaintes des élèves concernant le port du masque ? », nombreux sont ceux qui évoquent une gêne au niveau de la respiration : « Ils respirent mal, le masque gêne la vue ! Les masques sont humides donc désagréables ; Également, ils sont mal ajustés donc glissent tout le temps et donc gênent. », « Problèmes de buée qui reviennent souvent lors du port du masque avec 44 des lunettes. Les élèves évoquent des difficultés respiratoires après jeux de course pendant la récréation. » Aussi on retrouve des plaintes sensitives telles que : « Les élèves se plaignent de mal de tête », « Ils se grattent », « Les élastiques ne sont pas ajustés et font mal derrière les oreilles » De nombreuses récriminations que nous pouvons mettre en relation avec celles relatées par les élèves lors de nos entretiens individuels. Malgré tout, il apparaît une certaine différence dans les réponses données par les enseignants et celles données par les élèves. Effectivement, seulement 27,3% des élèves se plaignent d'un mal de tête alors que le mal de tête est la gêne qui revient le plus chez les professeurs. Figure 13: Diagramme circulaire de la question 9, "Est-ce Figure 12: Diagramme circulaire de la question 8, "Est ce que le masque te fait mal derrière les oreilles ?" que tu sens ton souffle dans ton masque en classe ?" Figure 14: Diagramme circulaire de la question 7, "Est-ce que le masque te fait mal à la tête ?" Au niveau des douleurs et gênes que peut provoquer le masque (mal de tête, mal derrière les oreilles, gêne en ressentant le souffle) nous remarquons que pour le mal de tête, même pas un quart des élèves sont concernés. La moitié des élèves se plaignent de douleurs aux oreilles et de gênes liées à la respiration (respectivement 55% et 54%). 45 2. Du côté de la communication entre élèves et enseignants : Figure 15: Diagramme circulaire de la question 18, "Est-ce que tu as plus de difficultés à parler avec le masque sur ton visage en classe ?" La quasi-totalité des élèves de la classe verbalisent des difficultés à parler avec le masque porté sur leurs visages. Ces réponses ont été accompagnées de commentaires de la part des élèves : « Je dois parler plus fort sinon on ne m'entend pas parler », « Il faut souvent répéter, c'est énervant ». Figure 16: Diagramme circulaire de la question 13,"Observez-vous une modification de la prise de parole de vos élèves en classe ?" Alors que 99% des élèves nous disent avoir des difficultés à parler avec le masque sur le visage, 76% des enseignants ne notent pas de changement dans la prise de parole de leurs élèves. Nous pouvons imaginer deux hypothèses à ces résultats : soit les difficultés des élèves à parler avec le masque n'entachent pas leur prise de parole donc ne sont pas perçues par les enseignants, soit leurs difficultés à parler avec le masque ont un retentissement sur leurs 46 prises de parole et donc sont observables par les professeurs. Ces deux hypothèses pourraient expliquer la différence de résultat des deux diagrammes ci contre. Figure 17: Diagramme circulaire de la question 21, "Est-ce que tu entends moins bien en classe, avec le masque ?" Il faut souligner que 59% des élèves indiquent moins bien entendre les autres. En conclusion : le masque s'avère être une réelle barrière à la communication verbale. Notamment en classe, l'attention est souvent difficile à maintenir tout au long de la journée, on peut donc imaginer à quel point le masque peut amplifier la difficulté à maintenir l'attention sur la journée entière de classe. Le masque demande un réel effort supplémentaire tant de la part des élèves pour bien entendre et écouter les paroles de l'enseignant que du côté de l'enseignant qui doit adapter son niveau sonore afin de se faire comprendre au mieux par tous ses élèves. 3. Du côté relationnel : Figure 18: Diagramme circulaire de la question 13, "As-tu l'impression d'être caché derrière ton masque ? » 47 La moitié des élèves ont l'impression d'être caché derrière leur masque. À ces réponses, certains ont ajouté : « Oui on ne voit plus mon visage », « Il faut se cacher pour ne pas être malade ». Un élève précise : « Heureusement qu'ils m'ont déjà vu sans le masque », cette réponse soulève un questionnement : comment est perçu le visage d'une personne inconnue, dont nous n'avons jamais vu le visage sans masque ? Figure 19: Diagramme circulaire de la question 16, "Avez-vous l'impression que le masque instaure une distance relationnelle entre vous et vos élèves ?" Une grande majorité des enseignants trouve que le masque instaure une distance dans leur relation avec leurs élèves. Ils développent en nous écrivant : « Oui, comme je les comprends moins bien, je les fais répéter et ils ont l'impression de se tromper et préfèrent alors ne plus prendre la parole » ou encore, « les expressions du visage sont limitées, la communication non verbale est difficile ce qui limite notre complicité ». Mais une grande majorité d'entre eux trouve que c'est l'ensemble des gestes barrières telle que la distanciation sociale qui participe à créer une distance relationnelle pesante et pas seulement le port du masque. Une enseignante nous offre le témoignage suivant : « je suis de base très tactile et aime bien le contact physique avec mes élèves quand il est nécessaire (pour les rassurer par exemple), actuellement c'est impossible et donc très frustrant. » 48 4. Du côté de la reconnaissance des émotions et du langage non verbal : Figure 20: Diagramme circulaire de la question 23,"Est-ce qu'avec le masque tu arrives à discerner les émotions des autres ?" Au niveau de la perception des émotions, 59% des élèves disent pouvoir correctement percevoir les émotions des autres malgré le masque. Toutefois, 19% ne savent pas répondre à la question. Selon nous, soit ils ne comprennent pas la question ou la signification du mot « émotions », soit ils sont réellement en difficulté quant à la reconnaissance de celles-ci. Figure 21: Diagramme circulaire de la question 24, "Quelle partie du corps regardes-tu pour savoir quand quelqu'un est Figure 22:Diagramme circulaire de la question 25, joyeux ?" "Quelle partie du corps regardes-tu pour savoir quand quelqu'un est triste ?" 49 Nous observons que la majorité des élèves s'appuie sur la partie visible du visage soit les yeux et les sourcils pour percevoir la joie et la tristesse chez l'autre. Il est intéressant de constater qu'ils se basent sur une partie du corps qui n'est pas dissimulée par le masque. Cependant dans la complexité de compréhension du langage non verbal, est-ce suffisant de ne s'appuyer que sur le regard ? Également, nous constatons que 15% ne savent pas comment reconnaître la joie et 26% la tristesse. Ces élèves manquent-ils de ressources pour interpréter les signaux des émotions de base ? Le masque appauvrit-il les échanges entre eux ? Certaines réponses des enseignants confirment ces hypothèses : « Je constate souvent des problèmes d'interprétation dans les relations entre élèves. Je gère plus de conflits liés à des mauvaises interprétations du regard d'autrui. », « Je les comprends moins bien, je reconnais moins leurs émotions et je peux donc moins anticiper leurs besoins. », « Nous n'avons pas accès à toutes les émotions que véhicule l'ensemble du visage. » 5. Discussion Le traitement de nos résultats a mis en lumière différentes problématiques, notamment sur le plan méthodologique. En effet, sûrement en raison d'un manque de méthodologie, après analyse de nos résultats, certaines questions apparaissaient comme peu claires et les résultats de ces dernières difficilement traitables. Cet éceuil ontre l'intérêt primordial de faire un préquestionnaire qui sert de test en amont de l'étude afin de tester la clarté et la précision des questions posées. En outre, nous avons été surpises par la complexité à trouver la forme adéquate de lecture de nos résultats afin que ceux-ci paraissent clairs. Enfin, quand nous avons construit notre étude nous n'avions pas prévu de mettre en parallèle les résultats du questionnaire des enseignants avec ceux du questionnaire des élèves c'est pour cela que l'intitulé des questions diffère d'un questionnaire à l'autre. 50 PARTIE 5 : CONSTRUCTION, RÉALISATION ET RÉSULTATS DES ATELIERS V- Temps 4 : Construction des différents ateliers en réponse aux résultats des entretiens individuels et de nos observations Figure 23: Frise focus sur les temps 3 et 4. Une semaine après avoir terminé les entretiens individuels, collecté et analysé les résultats, nous nous sommes demandé ce que nous pouvions proposer aux élèves, comme ateliers, sur une journée afin de répondre de manière psychomotrice aux problématiques soulevées lors des entretiens. 1. Construction des ateliers en lien avec nos résultats par une approche psychomotrice À partir de nos observations du temps 1 et de nos résultats des entretiens individuels avec les élèves nous avons construit différents ateliers qui se dérouleront sur une journée avec la classe. Nous allons exposer sous la forme de frises le cheminement de la construction des différents ateliers en partant de problématiques relevées puis en mettant en avant les outils psychomoteurs utilisés pour répondre à cette problématique et ainsi aboutir à un atelier. 51 Code couleur - Orange : problématiques relevées lors des observations et des entretiens individuels - Vieux rose : moyens psychomoteurs utilisés - Gris : atelier final mis en place Figure 24: Frise de la mise en place de l'atelier de prévention et d'éducation du port du masque. Lors de nos observations en classe nous avons pu observer que les élèves rencontraient des difficultés à mettre et à enlever leur masque. Effectivement cet enchaînement demande de mobiliser plusieurs fonctions psychomotrices telles que les repères temporaux, le schéma corporel ou encore la planification. Afin de soutenir la mise en place et le retrait du masque des enfants sur leur visage nous avons utilisé une pédagogie active passant par le rythme et le mouvement qui fera l'objet de notre atelier a) : l'atelier de prévention et d'éducation du port du masque. Figure 25: Frise de la mise en place de l'atelier "joue ton émotion" partie échauffement. À partir des résultats du dessin du bonhomme de Goodenough que nous avons exposés au temps 3, nous avons remarqué que, malgré une bonne connaissance topographique du schéma corporel, il apparaît une grande hétérogénéité dans la classe. Pour répondre à cette problématique nous avons pensé à la mise en place d'un temps de conscience corporelle afin 52 d'étayer le schéma corporel des enfants. Ce temps de conscience corporelle constituera la partie échauffement de l'atelier b) "joue ton émotion" Figure 26: Frise de la mise en place de l'atelier "joue ton émotion" partie loto des émotions. Nos observations qualitatives et nos résultats quantitatifs ont laissé apparaître que, dans l'ensemble, les enfants étaient en difficulté tant pour exprimer leurs émotions que pour reconnaître une émotion sur autrui avec le masque comme barrière à la communication non verbale. Nous avons alors orienté notre atelier b) "joue ton émotion" partie loto des émotions sur la conscience d'une utilisation de son corps de manière globale comme moyen de communication. Figure 27: Frise de la mise en place de l'atelier "joue ton émotion partie verbalisation. Au niveau des verbalisations, notamment de leurs émotions et ressentis, nous avons pu observer que les élèves n'étaient pas très à l'aise et donc très peu dans la verbalisation. Nous avons alors décidé d'inclure une partie verbalisation à l'atelier b "joue ton émotion" afin d'inciter les élèves à partager leurs ressentis. 53 Figure 28: Frise de la mise en place de l'atelier "finir la journée en dessin". Enfin, dans le souci de conclure la journée de manière construite et adaptée en incitant les élèves à synthétiser leurs idées autrement que par la parole, nous avons mis en place l'atelier c) "finir la journée en dessin". Nos décrirons l'ensemble de ces ateliers dans la partie dédiée au temps 5. Pour que nos trois ateliers aient du sens à l'école et constituent un réel intérêt préventif et pédagogique nous nous sommes intéressées à ce qu'était la pédagogie et quel lien pouvait-elle avoir avec notre intervention psychomotrice. 2. Qu'est-ce que la pédagogie ? La pédagogie est liée aux notions et aux modes d'apprentissage, elle n'a fait qu'évoluer au cours de l'Histoire, s'inscrivant dans des cultures, des savoirs et des théories du développement de l'enfant. « La pédagogie est la science de l'éducation, c'est-à-dire l'étude méthodologique, la recherche rationnelle des fins qu'on doit proposer en élevant les enfants et les moyens les mieux appropriés à cette fin » (Marion, 1967, p.7). L'apprentissage repose sur des réflexions pédagogiques mais aussi didactiques. La didactique est la science qui a pour objet l'apprentissage. Elle est l'étude des questions posées par l'enseignement et l'acquisition des connaissances dans les différentes disciplines scolaires qui vise à instruire les élèves. Elle transpose des savoirs dits "utiles" en savoirs enseignables, définit avec précision chaque objet de savoir qu'elle souhaite enseigner. Elle permet également de trouver la manière d'enseigner ce savoir aux apprenants. Les pédagogies reconnues, qui s'appuient sur des théories psychologiques ou conceptions philosophiques de l'enfant et de l'adulte, peuvent se découper en deux courants : les pédagogies actives et les pédagogies passives. 54 Il y a trois critères pour caractériser l'acte pédagogique : o le type d'activité (praxique, oral, écrit) ; o le mode de travail ou de groupement des élèves (individuel, collectif, groupe) ; o la place dans le processus d'enseignement (apprentissage, évaluation, renforcement). La pédagogie du psychomotricien est de nature plus active et se base sur une approche ludique par le jeu, les activités et les médiations dans le but de développer l'affectivité, la cognition et la motricité des élèves et ainsi faciliter leurs apprentissages. Ainsi, selon Aude Valentin-Lefranc la psychomotricité peut se concevoir comme un facilitateur des apprentissages : « la psychomotricité aide donc les enfants à revenir à l'expérimentation et à la manipulation par le corps et le jeu, et ainsi repasser par la sensation, la perception, indispensables à la représentation et à la compréhension. » (Vachez-Gatecel et al., 2019, p.113). Lors de la construction de nos ateliers, nous avons souhaité utiliser une pédagogie active, mettant en avant la mise en corps des élèves, en groupe, car celle-ci nous semblait la plus appropriée pour répondre à la majorité des difficultés soulevées au cours des entretiens. 3. Discussion Grâce à nos expériences respectives au cours de notre formation lors des travaux pratiques notamment d'expressivité et de conscience corporelle nous avons un assez gros bagage de propositions répondant à des problématiques et mettant en jeu différentes fonctions psychomotrices. Aussi grâce à nos stages, nous avons l'habitude de créer des propositions afin de répondre à un projet thérapeutique. Ainsi, à partir de nos hypothèses, le temps de construction de nos ateliers a été plutôt rapide et fluide. D'autant plus qu'à deux, nous nous sommes alliées pour trouver des propositions avec lesquelles chacune de nous était à l'aise. Cependant, nous avons construit les ateliers à partir de nos hypothèses, or certaines reposent uniquement sur nos observations qualitatives et l'interprétation des résultats en lien avec nos connaissances psychomotrices. Nos propositions se basent donc sur des réflexions personnelles, nous pouvons alors discuter de la légitimité de celles-ci. En effet, d'autres psychomotriciens auraient pu imaginer d'autres ateliers s'appuyant sur des interprétations divergentes des nôtres. 55 VI- Temps 5 : Réalisation des ateliers et résultats 1. Présentation Figure 29: Frise détaillant le temps 5. Sur la journée du 18 décembre 2020, nous avons réalisé trois ateliers différents, qui sont les suivants : a) Atelier prévention et éducation b) Atelier « Joue ton émotion ! » c) Atelier « Finir la journée en dessin » Nous avons choisi d'exposer les résultats qualitatifs et quantitatifs des ateliers réalisés au cours de cette journée dans le déroulement qui va suivre. 2. Réalisation de l'atelier d'éducation et de prévention Pour débuter la journée des ateliers du 18 Décembre 2020 il nous a paru primordial de commencer par une partie prévention et éducation du port du masque qui se déroulerait sur toute la matinée. En effet, le port du masque étant notre sujet central, il est important, avant de l'inclure dans un projet d'expressivité, de faire comprendre aux élèves pourquoi on le met et comment bien le porter. 56 2.1 À quoi sert le port du masque ? Pour ce faire, nous avons demandé aux élèves en classe entière, en présence de la maîtresse, quel était pour eux la fonction du masque. Très vite les enfants ont été capables de nous expliquer de manière claire et précise que le masque était porté dans le but de ne pas attraper le virus de la Covid19 mais également pour empêcher sa propagation s'ils en étaient eux-mêmes porteurs. Les élèves nous ont dit : « Le masque sert à ne pas attraper le virus des autres », « Le masque sert à ne pas être malade ", « Le masque sert à ne pas se faire des bisous », « Le masque sert à protéger papi et mamie » 2.2 Puzzle de la chronologie de la mise en place et du retrait du masque L'usage du masque étant dans les grandes lignes plutôt clair et établi dans la tête des élèves de la classe, nous avons ensuite voulu, de manière ludique, mettre en place un dispositif de puzzle de la chronologie du port du masque pour leur apprendre ou réapprendre comment mettre le masque et comment l'enlever. Mettre son masque Figure 30: Chronologie du port du masque présenté découpée aux enfants. Nous avons alors utilisé un support visuel (figure 33) illustrant un petit garçon effectuant plusieurs actions dans un ordre chronologique bien précis, dans le but de mettre le masque. À partir de cette illustration, nous avons simplement créé un puzzle en découpant chaque étape du port du masque et en les mélangeant. Nous avons distribué aux élèves les six vignettes représentant chacune une étape avec la consigne de retrouver le bon ordre pour que le petit garçon mette son masque correctement. Cet exercice met en avant plusieurs fonctions psychomotrices tels que les repères temporaux, la connaissance du schéma corporel, la planification qui est le fait de programmer un geste avant de l'effectuer et la visualisation d'un projet moteur. Les repères temporaux afin de se représenter l'enchaînement dans le bon ordre et étapes après étapes. La bonne connaissance du schéma corporel afin de placer son masque au bon endroit grâce aux 57 sensations tactiles, proprioceptives et kinesthésiques. Et la planification afin de visualiser le projet moteur permettant de mettre ou de retirer le masque puis de le réaliser correctement. « Le projet moteur n'est pas un plan clairement et consciemment élaboré indépendamment des structures tonico-motrices ; mais, en deçà de la conscience, il déclenche des stimulations nerveuses qui mettent le corps dans les conditions requises par l'action, en fonction d'une part, des afférences sensitives qui nous renseignent sur la position du corps et des objets, et d'autre part, des schèmes gnosiques : schéma corporel (), structuration spatio-temporelle. ». (Coste, 1994). Cependant, pour vingt-deux élèves dans la classe il y a vingt-deux manières différentes de mettre et d'enlever le masque, chacun utilisant une procédure différente pour atteindre le même but. L'important étant que la procédure soit automatisée pour chaque élève et qu'elle ne demande pas d'effort particulier. Nous avons ensuite pris en photo les combinaisons de chaque élève et il en ressort que huit élèves sur les vingt et un présents en classe ce jour n'ont pas su retrouver la bonne combinaison. Cela représente environ 38% de la classe. Une fois les combinaisons collectées nous avons donc repris avec la classe, étape par étape, la chronologie des actions à faire pour que les vignettes soient dans l'ordre pour chaque enfant. Nous avons également essayé d'expliquer la logique de cette chronologie pour que les enfants comprennent plutôt que simplement d'apprendre plus par coeur son déroulé. À la fin de ce temps chaque enfant avait les six vignettes représentant la chronologie du port du masque dans l'ordre sur son bureau et le déroulé était également écrit étape par étape au tableau afin de donner un repère visuel aux enfants. Enlever son masque Figure 31: Chronologie du retrait du masque présenté découpée aux enfants. Nous avons ensuite réitéré le même processus pour la chronologie du retrait du masque. Une fois de plus nous avons utilisé un visuel (figure 34) et en avons fait un puzzle que les 58 enfants devaient remettre dans l'ordre afin de trouver la chronologie correcte du retrait du masque étape par étape. À nouveau, nous avons pris en photo les combinaisons faites par les élèves et il en ressort que pour ces vignettes, dix enfants n'ont pas trouvé la bonne combinaison, soit 48% de la classe. Cela représente alors 10% de plus que la chronologie du port du masque. On peut ainsi se poser la question de la prévention qui est faite en amont. En effet on observe que les médias et les adultes mettent l'accent sur la manière de mettre le masque et de le porter mais très rarement sur la manière de le retirer ce qui du coup peut transparaître ici dans la connaissance de la suite d'étapes. Nous avons ensuite, de la même manière que pour la chronologie du port du masque, repris étape par étape la chronologie avec les enfants et inscrit la chronologie du retrait du masque, étape par étape, au tableau ce qui nous donnait le résultat comme suit : Figure 32: Photographie de la chronologie du port du masque et du retrait du masque fait avec les élèves au tableau dans la classe le 18 décembre 2020. 2.3 Comptine du masque Une fois la chronologie des étapes du port du masque et du retrait du masque manipulé expliquée et écrite au tableau, nous avons voulu faire intégrer aux élèves cette suite d'actions avec comme outil médiateur le rythme en s'inspirant du principe des comptines. Tout d'abord nous devions illustrer, à l'aide d'une gestuelle précise, les différentes étapes. En effet, pour des raisons évidentes, il n'était pas possible de réellement mettre et enlever les masques, 59 nous avons dès lors créé avec les enfants une suite de gestes pour mimer les actions en étant précis sur les parties du corps à utiliser. Par exemple, « je prends les élastiques en les pinçant entre mes pouces et mes index ». Chaque étape est un ensemble de gestes qui mis bout à bout constituent un ensemble de praxies. Une praxie est selon Michèle Mazeau, médecin de rééducation fonctionnelle : « La motricité, en elle-même (commande motrice analytique des différents muscles et groupes musculaires), n'est qu'une des composantes de notre activité gestuelle. Tous les gestes finalisés (mettre la cuillère à la bouche, se coiffer, tracer des lettres, jouer au tennis, s'habiller, tricoter ou battre des oeufs) supposent une gestion complexe de nombreux mouvements élémentaires, de modulations posturales, de régulations temporelles et spatiales, subtilement et très précisément coordonnées, et spécifiques à chaque geste, à chaque activité. Alors que les commandes motrices des muscles et / ou groupes musculaires – permettant les mouvements- sont en place très précocement dans le développement, et pour l'essentiel, sous contrôle génétique (« précablé »), les gestes (ensemble de mouvements permettant la réalisation d'un projet moteur finalisé) sont, eux, le fruit d'un très long apprentissage. Sous l'effet de la répétition, de l'entraînement, des essais et erreurs successifs, se construisent peu à peu des schémas, inscrits cérébralement, sortes de « cartes » toutes prêtes contenant l'ensemble des instructions pour planifier, pré-programmer chacun de nos gestes. Ce sont les praxies, qui permettent, à partir de la simple évocation du projet du geste, une réalisation gestuelle automatisée, harmonieuse et efficace. » (Mazeau, 2003) D'un point de vue pédagogique nous avons donc utilisé la compréhension de la décomposition des praxies pour mettre et enlever le masque pour permettre aux élèves, par l'action, de comprendre ces séquences motrices et ainsi les conceptualiser et les généraliser. Pour la suite de cet atelier nous avons introduit la notion de rythme à la classe. Le rythme est décrit comme la répétition régulière d'une structure donnée, il est à la base de l'expérience de la temporalité et se construit depuis la petite enfance. Avant de s'intellectualiser, cette perception du temps s'élabore à partir du ressenti des différents rythmes physiologiques (rythme respiratoire : régularité de la respiration ; rythme nycthéméral : l'alternance jour/nuit ; rythme digestif) et environnementaux (bercements réguliers lors du portage, soins et paroles répétés). C'est un mouvement dans une phrase musicale et une cadence à laquelle s'effectue une action. Cette répétition périodique, inhérente à un phénomène naturel, constitue un retour régulier, dans la chaîne parlée, d'impressions auditives analogues créées par divers éléments linguistiques. Cette notion rythmique est fondamentale en psychomotricité car elle inscrit le corps dans le temps. Elle nous permet de nous structurer dans le temps et l'espace 60 et de nous coordonner aux autres personnes du groupe. C'est cette fonctionnalité du rythme qui nous a intéressées pour cette proposition. Nous avons alors proposé aux élèves de créer une séquence rythmique simple à insérer entre chaque phrase et en utilisant le corps. Pour commencer, nous nous sommes mises d'accord pour taper quatre fois des pieds en alternance (TA, TA TA). En restant dos au tableau pour qu'ils nous voient faire les gestes et qu'ils puissent lire les phrases toujours inscrites au tableau, nous avons répété plusieurs fois les douze étapes (enlever les masques et mettre le masque). Pour commencer l'ensemble de la classe et nous-mêmes récitions les phrases entrecoupées des tapes des pieds et en mimant les gestes correspondant à chaque phrase. Nous avons rapidement observé que le rythme instauré les aidait à structurer la comptine et à se concentrer sur la prochaine étape associée au mime à faire. Nous avons répété ce processus plusieurs fois en variant des facteurs, par exemple le rythme entre les étapes évoluait ou les parties du corps utilisées changeaient Une fois avoir observé que les enfants regardaient de moins en moins le tableau pour lire les phrases et nos mouvements pour voir les mimes correspondants, nous avons décidé de donner à chacun une phrase à réciter. Nous sommes alors passés d'une voix groupale à douze voix individuelles participant à la comptine. Lorsque c'était à un élève de réciter sa phrase, les autres ne faisaient que le mime associé. Le rythme frappé entre chaque étape restait joué par toute la classe. Le rythme groupal représente ici l'expression même de l'énergie pulsionnelle qui se déploie au niveau sonore au sein d'un groupe à la recherche d'un unisson, d'une homophonie qui nécessite un accordage et une attention conjointe. La notion de groupe rassure l'individu dans les propositions. Nous désignons donc douze nouveaux élèves sur volontariat et ainsi de suite. Nous observons durant ce temps que les élèves sont de plus en plus à l'aise et ouverts aux modifications. En effet leurs gestes s'automatisent, ils finissent par connaître l'ordre des phrases par coeur par la répétition et sont donc plus enclins à lever la main pour s'approprier une phrase tout seul. En résumé, pour la réalisation de cet atelier nous avons structuré notre réflexion d'un point de vue psychomoteur dans le but de rendre l'apprentissage du port du masque ludique et interactif pour les enfants. Nous faisons ici le lien entre cet atelier et la pédagogie présentée plus haut. Nous avons étudié une certaine chronologie dans nos propositions afin que cellesci soient cohérentes. Nous avons débuté en introduisant un support visuel (le puzzle) afin de construire la chronologie du port du masque, ensuite, en faisant une autocorrection, les élèves devaient comprendre la construction de cette chronologie pour se l'approprier. Nous avons ensuite ajouté du sens à cette chronologie grâce au mime. Puis, nous avons mis en mots et 61 en corps les deux chronologies du port et du retrait du masque en faisant travailler les praxies et les coordinations des élèves. À cet enchaînement nous avons ajouté du rythme. Nous avons fait évoluer le dispositif en donnant des variantes jusqu'à ce que les élèves manient parfaitement l'enchaînement. Tout au long de cet atelier, nous avons eu à coeur que chaque élève trouve sa place et puisse se saisir d'une partie de la chronologie seul mais soutenu par le groupe. Dans les différents temps de cet atelier, nous avons cherché à faire passer les élèves par une expérimentation corporelle afin d'acquérir une notion (ici la manière de mettre et d'enlever le masque). Après plusieurs répétitions de la comptine créée ensemble en variant le nombre de personnes, les mouvements de transition et le rythme dont la visée était d'ancrer notre travail dans la mémoire gestuelle des enfants, la sonnerie signifiant le temps du déjeuner a sonné. Cette interruption marquait la transition entre la fin de la première partie axée sur la prévention et l'éducation et la seconde qui contrairement à la première ne se déroulait pas en classe mais dans la salle de motricité. 3. Réalisation de l'atelier « joue ton émotion » La suite de la journée d'atelier s'est déroulée sur toute l'après-midi du 18 Décembre 2020. Cette partie avait pour but de donner une réponse aux résultats que nous avions obtenus lors des entretiens en proposant aux enfants des propositions corporelles. En effet plusieurs conclusions sont apparues lors du traitement des données des questionnaires individuels réalisés auparavant au temps 2 : - Les dessins du bonhomme sont globalement très pauvres en détail et en expressions faciales malgré la bonne connaissance des somatognosies des enfants. - La reconnaissance des émotions avec le port du masque sur autrui demeure très partielle. - Identifier des actions ou des parties du corps à mettre en mouvement pour communiquer ses émotions sans parole et avec la moitié du visage cachée par le masque est difficile. Pour toute l'après-midi nous avions accès avec la classe entière, à l'ensemble de la salle de motricité de l'école. Cette salle était très grande avec beaucoup d'espace pour que chaque enfant circule sans être gêné par ses camarades. 62 3.1 Mise en corps et conscience corporelle Nous avons débuté l'après-midi par une mise en corps et un temps de conscience corporelle. L'une de nous a proposé un éveil corporel guidé aux élèves pendant que l'autre restait en retrait pour observer. Dans un premier temps, nous leur avons proposé de marcher dans la salle en prenant conscience des appuis des pieds sur le sol et en variant les marches (rapide, lente, légère, lourde, pointe des pieds, talons etc). Puis les enfants choisissaient une place dans la pièce et s'y allongeaient en fermant ou non les yeux. D'après nos observations seulement deux élèves ont fermé les yeux, les autres tournaient la tête dans tous les sens pour observer ou rire. Ensuite, nous avons organisé un temps de prise de conscience de la respiration et des appuis du corps au sol. Nous avons guidé les enfants afin de faire un état des lieux de leurs tensions ou détentes corporelles en partant des pieds et en remontant jusqu'au haut du crâne. Puis lentement, nous les avons guidés pour qu'ils se relèvent du sol tout en prenant conscience du chemin qu'ils empruntaient afin de se relever et de chaque mouvement et étirement de leurs parties du corps. L'objectif de la première proposition était de faire prendre conscience aux élèves des différentes parties de leur corps et qu'ils puissent verbaliser leurs mouvements. Effectivement, lors de nos entretiens individuels au temps 2, nous avons pu mettre en évidence une grande hétérogénéité des résultats au test du dessin du bonhomme de Goodenough. Notre objectif était alors d'étayer le schéma corporel et de donner les mêmes savoirs aux enfants sur la connaissance des parties du corps pour les propositions suivantes. 3.2 Le loto des émotions Après ce premier temps de mise en corps, nous avons enchaîné avec une proposition en lien direct avec le port du masque : la représentation et la compréhension des émotions de manière non verbale. Le but de cette proposition était de mettre en corps les émotions de base, de manière non verbale, en utilisant l'ensemble de son corps et de prendre conscience du recrutement tonique nécessaire afin de faire comprendre aux autres ce que l'on veut communiquer. En effet, comme l'écrit Henri Wallon (Wallon, 2015) « les émotions sont une formation d'origine posturale et elles ont pour étoffe le tonus musculaire ». Nous voulions mettre en avant le fait que les messages non verbaux ne sont pas seulement observables par des expressions faciales, difficilement discernables en raison du port du masque. Ces messages non verbaux, 63 ici à caractère émotionnel peuvent être identifiés par l'autre grâce à d'autres signaux comme le regard, les postures, les gestes, le recrutement tonique, les silences, la distance à l'autre qui constitue ce qu'on appelle la proxémie. Effectivement, nous avons décidé de mettre en place cet atelier à la suite des entretiens individuels du temps 2 qui ont fait apparaître des difficultés à mettre des mots sur les émotions et à détecter les signaux marqueurs des expressions chez l'autre avec le masque qui cache la moitié du visage dont la bouche qui renseigne beaucoup sur les expressions faciales. Mais, comme écrit plus haut, ce n'est pas la compréhension des émotions au niveau facial qui a posé problème aux enfants, c'est le fait que cette reconnaissance soit entravée par un objet cachant la moitié du visage : le masque. L'enjeu ici était donc de proposer un atelier aux enfants leur donnant des clefs pour comprendre ou exprimer leurs émotions d'une autre manière que par les expressions faciales, pour ainsi continuer à se faire comprendre dans un langage non verbal malgré le port du masque. Pour cet atelier, nous avons séparé la classe en sept groupes de trois enfants. Chaque groupe était dans un coin de la salle, à distance des autres groupes. Nous leur avons donné la consigne suivante : « vous allez devoir jouer l'émotion que vous allez piocher de 3 façons différentes en vous mettant d'accord sur la meilleure manière pour la faire deviner aux autres : le premier élève doit faire deviner l'émotion aux autres en utilisant seulement son visage, le deuxième peut utiliser tout son corps mais ne doit pas émettre de sons et le troisième peut utiliser tout son corps et émettre des sons (onomatopées) toujours sans mots. » Chaque groupe tirait, au hasard, un papier avec une des sept émotions de base inscrite dessus. Ensuite, ils devaient se mettre d'accord, ensemble, sur le rôle de chacun et la manière dont chacun devra interpréter l'émotion pour la faire deviner au reste de la classe. Une fois les sept émotions attribuées, à savoir, la joie, la tristesse, la colère, la surprise, la peur, le dégoût et l'amour, chaque groupe a présenté à la classe sa manière de jouer l'émotion suivant les trois manières énoncées auparavant. Le but des autres élèves était de deviner l'émotion jouée et d'expliquer sur quoi ils se sont appuyés pour reconnaître l'émotion. 64 Voici comment les élèves de chaque groupe ont joué les émotions : Consignes 1 - Uniquement avec d'expression le visage 2 – Tout le corps mais sans bruit 3 – Tout le corps et possibilité d'émettre un son Met les deux pouces en l'air Dirige son regard et sa tête vers le sol Croise les bras Dit "Yeah ! " Les émotions JOIE Plisse les yeux TRISTESSE Fait semblant de pleurer COLÈRE Fronce les sourcils SURPRISE Fait les gros yeux et lève les sourcils PEUR Écarquille les yeux DÉGOUT Dit avoir fait une grimace avec la bouche (nous ne l'avons pas vu) AMOUR Cligne rapidement des yeux Met les bras en croix sur la poitrine Tombe au sol Remue les mains rapidement Se fait un câlin à luimême Dit "Oh non" Grogne et tape du pied Dit "Waouh" Inspire et tombe au sol Dit "Beurk" Fait le bruit du bisou Tableau 4: Tableau détaillant la manière dont chaque groupe a joué son émotion. Chaque émotion jouée par chaque groupe a été reconnue sans trop de difficulté par l'ensemble de la classe. Après chaque passage, nous demandions au reste de la classe : « Est-ce que vous avez reconnu l'émotion jouée ? », « Qu'est ce qui a été modifié dans les trois représentations de l'émotion ? », « Selon vous, qu'est-ce qu'ils auraient pu ajouter, modifier ? ». La classe était en grande partie d'accord pour dire que c'est lorsque l'on utilise plusieurs parties de notre corps que les émotions sont le plus facilement identifiables malgré la présence du masque. De notre côté, il ressort que sur les sept élèves, pouvant utiliser tout leur corps et émettre des sons (onomatopées) mais pas de mots, seulement deux ont utilisé leur corps et leur voix (groupe de la colère et groupe de la peur). Les autres, n'ont utilisé qu'un son pour exprimer l'émotion qui leur avait été attribuée. Nous en concluons donc que l'utilisation de l'expression corporelle reste pauvre et difficile. Il est plus simple pour les enfants de communiquer et de se faire comprendre oralement. 3.3 Mise en contexte des émotions Pour terminer cet atelier nous avons repris une à une les émotions avec l'ensemble des élèves de la classe. Tout d'abord, nous leur avons demandé d'associer les émotions à un 65 contexte approprié : pour la joie les élèves se sont mis d'accord sur la victoire d'un match de foot par leur équipe préférée, et ont pensé à la défaite, d'un but, de leur équipe de foot préférée pour illustrer la tristesse. La colère a été assimilée à l'émotion ressentie lorsque leur frère ou soeur casse leur jouet favori, la surprise à la découverte d'une fête d'anniversaire surprise. La classe a ensuite mis en lien la peur avec la sensation ressentie dans le château hanté de Disneyland Paris. Pour eux, tenir un ver de terre dans sa main est une situation de dégoût. Enfin, d'après eux, l'amour est représenté dans les films lorsque deux personnes se tiennent la main. En s'appuyant sur des situations qu'ils venaient de nous énoncer, nous leur avons demandé de jouer les différentes scènes pour accentuer l'expression de l'émotion ressentie. Nous avons alors remarqué une nette différence dans le jeu des émotions. Effectivement guidés par une situation à imaginer et le travail que nous venions de faire, le corps était bien plus bien engagé que précédemment. 4. Réalisation de l'atelier "finir la journée en dessin" Enfin de retour en classe, nous avons trouvé intéressant de conclure cette journée par une proposition de trace graphique libre sur le support d'un masque vierge imprimé sur une feuille. Chaque enfant était assis à sa place face à cette feuille et la consigne donnée à l'oral était la suivante : « en utilisant vos crayons de couleurs ou vos stylos dessinez ou écrivez, après tout ce qu'on a dit et vécu ensemble aujourd'hui, ce que vous évoque le port masque. » Le but de cette proposition était de conclure cette journée en permettant aux enfants d'en laisser une trace. Au niveau spatio-temporel nous trouvions également intéressant de les prévenir que cette activité marquait la fin de notre intervention et qu'elle se fasse au même endroit où nous avions débuté la journée et non pas en salle de motricité. Cette proposition est également pertinente au niveau pédagogique car elle demande aux élèves de se rappeler du déroulement des différents ateliers et de leurs ressentis. Voici ce qui ressort en général des productions des élèves16 : - Dessin d'un moment de la journée, d'un atelier. - Dessin d'éléments qu'ils aiment sans lien avec la journée (Dragon Ball, arc-en-ciel, couleurs) Cf. Annexe XIII : Dessins des masques des enfants réalisés durant l'atelier « Finir la journée en dessin », p. XXVIII 16 66 - Phrase nous remerciant de notre intervention - Smiley symbolisant les émotions 5. Discussion Lors des ateliers réalisés avec les élèves plusieurs points ont retenu notre attention. Tout d'abord, lors de l'atelier « joue ton émotion », partie échauffement nous avons ressenti beaucoup de gêne de la part des élèves. Leur comportement lors de cette partie de mise en corps et de conscience corporelle a révélé que, pour la plupart d'entre eux, ils n'avaient jamais fait ce type de proposition et cela leur demandait un effort particulier. Inès, à la place d'observatrice durant ce temps, a pu remarquer que les élèves étaient très souvent dans l'imitation. À chaque mouvement que proposait Marine, pour mettre en mouvement son corps, tous reproduisaient exactement le même sans vraiment laisser libre cours à leur propre besoin corporel. Les enfants semblaient alors très peu à l'écoute de leurs ressentis et de leurs sensations mais semblaient chercher avant tout à bien réussir l'activité par une imitation fidèle, comme si nous étions en train d'évaluer leurs capacités à reproduire parfaitement les mouvements que nous leur proposions. Nous nous sommes alors demandé si cela n'était pas représentatif du système scolaire français dans lequel ils sont formés, qui évalue les capacités des élèves sous forme de notation et qui les forme à écouter et apprendre en reproduisant, répétant ou imitant, ce qu'on leur enseigne en laissant finalement peu ou moins de place à leur individualité, leur personnalité, leur imagination et leur expression personnelle. Cette réflexion reste une hypothèse personnelle qui repose sur des observations qui n'ont eu lieu qu'au cours d'une seule demi-journée. Par ailleurs, lors du temps calme de respiration et recentrage sur soi et ses sensations, très peu d'élèves ont pu fermer les yeux et se laisser totalement guider par nos mots. Beaucoup d'élèves étaient agités et rigolaient entre eux. Nous avons eu l'impression que le lâcher prise était un exercice difficile pour eux. C'est précisément face à ces situations que nous avons eu la confirmation que la psychomotricité aurait toute sa place à l'école. Enfin, nous avons fait face à quelques difficultés quant à la mise en pratique des ateliers que nous avions pensés. Même si dans l'ensemble tout s'est bien déroulé et que les élèves ont montré un réel engouement, nous ne nous attendions pas à ce que notre plus grande difficulté réside dans le fait de maintien du cadre. Étant habituées aux prises en charges en individuel ou en petit groupe, c'était la première fois que nous nous retrouvions seules face à 67 autant d'enfants en même temps. Nous devions alors mêler la présentation et la réalisation de nos différents ateliers de manière ludique, avec le maintien du cadre, la discipline qu'il suppose, et en parallèle relever des observations. Nous nous sommes rapidement rendu compte que la qualité de nos observations était moins bonne car nos deux attentions étaient monopolisées par le bon déroulement des ateliers. Si nous devions refaire une journée d'activité de ce type, nous nous attarderions davantage à donner un rôle précis à chacune pour chaque temps des ateliers, car ce point fait partie à part entière du bon déroulement d'une étude et d'une création d'ateliers psychomoteurs. 68 PARTIE 6 : APPLICATION PRATIQUE ET PISTES DE TRAVAIL I- Et toi, tu en as pensé quoi ? Nous avons fait le choix d'exposer nos ressentis et vécus sous la forme d'un dialogue entre nous deux, où chacune parle en son nom, exactement comme un retour que nous aurions pu faire ensemble à l'oral. - Inès : Et voilà, notre mémoire et notre étude sur ce sujet touche à sa fin. Quand on repense à tout ce qu'on a traversé en quelques mois Tu te souviens à la rentrée en septembre ? On ne pensait pas du tout en arriver là. - Marine : Oui tu as raison. Finalement rien que le fait d'écrire un mémoire à deux était un défi qu'on a bien relevé je trouve. Au cours de nos études on ne nous parle presque jamais du mémoire à deux à tel point qu'on a découvert ce type de mémoire à la rentrée de la 3ème année. C'est un travail tellement enrichissant quand, comme nous, on a la même façon de travailler, des attentes presque similaires et surtout des pensées complémentaires. - Inès : J'avais aussi une appréhension à écrire un mémoire à deux mais c'est tellement instructif d'exposer deux opinions parfois divergentes. Un mémoire à deux représente des remises en question permanentes mais qui t'apportent tellement. - Marine : Au départ, c'est notre questionnement commun autour du port du masque qui nous a fait nous rejoindre pour monter ce projet. C'était déjà rassurant d'avoir un même sujet qui nous intéressait toutes les deux dès le début et que chacune avait envie de creuser. - Inès : C'est vrai que la situation sanitaire que nous traversons depuis maintenant plus d'un an nous a beaucoup questionnées toutes les deux. Et d'ailleurs quelle situation ! Ça a parfois été difficile de composer avec. 69 - Marine : Dès le début, la situation sanitaire nous a mis une pression supplémentaire. Il fallait que l'on trouve vite un stage, pour rapidement commencer notre étude parce qu'on ne se savait pas comment la situation allait évoluer. Il y avait très peu de visibilité dans le futur et on avait très peur de devoir arrêter notre stage en cours de route. - Inès : Quand j'y pense, ce mémoire aurait eu une tout autre temporalité si on avait été dans une situation « ordinaire ». Mais en même temps je trouve qu'on a eu beaucoup de chance. On a trouvé notre stage facilement grâce à notre camarade dont la maman est directrice de l'établissement. En plus, l'équipe s'est montrée très flexible et nous a fait confiance très rapidement. - Marine : Mais rappelle-toi aussi que nous avons dû faire face à un gros chamboulement. Une fois avoir trouvé le lieu de stage, et avoir mis en place notre projet initial, de nouvelles mesures gouvernementales, obligeant le port du masque à l'école, ont été prononcées. On a dû faire preuve de réactivité et d'adaptation pour rebondir le plus vite possible et monter un nouveau projet. - Inès : De toute façon, tout au long de notre étude nous avons dû nous adapter. Dès le début de notre stage par exemple, lorsqu'on s'est rendu compte de la difficulté d'observer 22 élèves en même temps. On avait même prévu une grille d'observation pour chaque élève qu'on a rapidement abandonnée une fois sur le terrain. On aurait peut-être dû anticiper cela. - Marine : C'est très souvent une fois sur le terrain que l'on se rend compte que la pratique est éloignée de la théorie. Rappelle-toi lors des ateliers, il a été difficile de respecter le cadre qu'on avait pensé en amont. Mais finalement nous avons pu observer d'autres choses tout aussi intéressantes. - Inès : Et puis c'était tout nouveau pour nous d'être face à une classe entière et, je ne sais pas si tu es d'accord, mais le masque représentait parfois une réelle barrière à la communication. On a pu ainsi vivre les difficultés que nous ont relatées les enseignants à devoir garder leur masque tout au long de la journée. En effet le masque entrave notre discernement de leurs émotions et rend difficile l'observation de la compréhension des élèves lors de nos explications. 70 - Marine : Je suis d'accord mais, malgré ces difficultés nous avons toujours gardé en tête de faire de la prévention de manière ludique, sans oublier notre casquette de futures psychomotriciennes. - Inès : J'espère que l'on va pouvoir retourner à l'école. On avait prévu de le faire mais avec la situation actuelle, le confinement, le déplacement des vacances scolaires c'est compliqué. - Marine : J'espère aussi Dans tous les cas je retiens de ce projet avec toi que j'ai appris beaucoup sur moi. - Inès : Ah oui ? Moi aussi, j'ai appris qu'on avait une capacité d'adaptation assez rapide. - Marine : Moi j'ai appris qu'on était capable d'être face à une classe et de faire véhiculer nos idées et de faire adhérer les élèves à nos propositions : qu'il est important de savoir vulgariser les notions psychomotrices que l'on veut transmettre tant pour les élèves que pour les enseignants. - Inès : C'est là aussi où l'on voit toute l'importance d'avoir de véritables connaissances théoriques qui nous servent tout le temps d'appuis dans la construction de nos propositions. - Marine : Ce que je retiens c'est que, d'après moi, la psychomotricité a toute sa place dans le milieu scolaire. Et souviens-toi, les enseignants dans leurs réponses au questionnaire nous disent que la psychomotricité à l'école serait une grande aide pour eux. Peut-être qu'un jour la psychomotricité aura une place à part entière dans les établissements scolaires ? II- Résumé et synthèse des discussions Pour synthétiser l'ensemble de nos discussions, nous vous proposons un récapitulatif rapide de celles-ci développées au fil du mémoire. Lors du temps 1 correspondant à la visite de l'école, la présentation et les observations en classe, nous avons trouvé que nos observations, bien que réalisées sur un temps court, correspondaient plutôt bien à celles des enseignants interrogés en parallèle. Alors que nous 71 avions déjà commencé à penser notre étude en amont et à construire des hypothèses, ces observations en classe nous ont tout de même servi de point d'appui. Ce choix de notre part est discutable, car nous aurions également pu nous contenter de ne sélectionner que les observations de classe comme matière à la construction de la suite de notre étude. Au temps 2, nous avons réalisé des entretiens individuels avec les enfants de la classe. Ceux-ci étaient composés de cinq propositions mêlant un test standardisé, le dessin du bonhomme de Goodenough, plusieurs tests que nous avons créés et un questionnaire composé de trente questions. Cet agencement a été réfléchi et discuté en amont. Mais, faute de temps, nous n'avons pu réaliser un entretien test avec des cobayes qui nous aurait permis d'affiner nos propositions et d'ajuster nos questions à la tranche d'âge des élèves questionnés. Les réactions peu enthousiastes des élèves à la proposition de dessiner nous ont marquées et interrogées quant à leurs rapports au dessin. Nous avons pu relever que les enfants montrent une grande adaptabilité à nos propositions sans grande plainte concernant le port de masque. Au temps 3, le traitement des résultats a mis en avant différents biais dans notre méthodologie que nous avons identifiés et essayés de palier. Habituées à l'élaboration de propositions psychomotrices en stage nous n'avons pas rencontré de difficulté à mettre en place trois ateliers différents, à partir des résultats obtenus. Enfin, au temps 5 nous avons pu relever un manque d'expressivité corporelle de la part des enfants. Cette observation nous questionne quant à la place de leur corps et la conscience qu'ils ont de celui-ci au quotidien. Durant ce même temps, nous avons expérimenté la difficulté de maintien du cadre dans des propositions collectives. Pour conclure, l'élaboration de ces discussions nous a permis de prendre du recul et de remettre en perspective nos recherches. Ce travail de remise en question est tout aussi important et enrichissant que l'étude en elle-même car il participe à la progression de notre cheminement personnel et professionnel. 72 III- Apports et limites de notre intervention de psychomotriciennes à l'école. Au cours de notre étude nous avons mis en lumière différents apports et limites de notre intervention à l'école. Concernant les apports, nous avons pu relever lors de nos ateliers que l'expression corporelle s'avère être un exercice difficile pour les enfants et dont ils semblent ne pas avoir l'habitude. En psychomotricité, le corps est au premier plan et l'expressivité corporelle est une médiation souvent au coeur des accompagnements. L'intervention de la psychomotricité à l'école serait alors intéressante afin que les élèves puissent explorer différentes mises en jeu du corps. Plus précisément l'intervention de la psychomotricité à l'école dans une fonction de prévention serait particulièrement pertinente car c'est, souvent, le lieu où l'expression des troubles psychomoteurs y est la plus observable. Du côté des limites, il apparaît que nos interventions à l'école et nos recherches ont été réalisées sur une durée très courte. Nous avons dû nous adapter à des contraintes temporelles tant du côté de l'école que du côté du temps imparti pour la rédaction de notre mémoire. De ce fait, certaines hypothèses n'ont pas pu être explorées et certaines observations n'ont pas pu être exploitées entièrement. Aussi, par la collectivité qu'impose l'école, nous n'avons eu que très peu de temps en individuel avec les enfants. Lors de nos ateliers nous avons alors essayé de nous adapter à l'ensemble de la classe en essayant de répondre au mieux aux problématiques communes que nous avions relevées lors des entretiens individuels. 73 Conclusion Au début de notre étude nous nous sommes posé les questions suivantes : quel est l'impact psychomoteur du port du masque chez les enfants en milieu scolaire ? La psychomotricité peut-elle aider à l'intégration et à l'apprivoisement d'un nouvel accessoire imposé en classe ? Nous avons ainsi mis en place en classe de CM1, un temps d'observations et un temps d'entretiens individuels constitués d'un questionnaire et de différents tests sélectionnés et créés afin d'étudier plusieurs champs psychomoteurs tels que le schéma corporel, l'image du corps, la communication non verbale. De l'analyse des résultats quantitatifs et qualitatifs, résultent plusieurs constats : les élèves rencontrent des difficultés à mettre et enlever le masque de manière correcte. Malgré une bonne connaissance de l'emplacement de leurs parties du corps il est compliqué pour eux de les dessiner le plus précisément possible. Ils ont des difficultés de représentation et de compréhension des émotions de base lorsqu'on les exprime de manière non verbale, et d'un point de vue de l'expressivité verbale ils rencontrent des difficultés à mettre en mots leurs émotions et sensations liées au masque. Par une approche psychomotrice à laquelle nous sommes formées depuis maintenant trois années nous avons mis en place une série d'ateliers psychomoteurs pour répondre aux observations apparues lors des entretiens. Ces ateliers avaient un but préventif, éducatif mais également de découverte de la psychomotricité. De cette étude très enrichissante nous en concluons ceci : le port du masque, en cachant une partie du visage, impacte les interactions entre l'enfant, ses pairs et les enseignants et notamment l'expression des émotions. Les élèves doivent alors apprendre à s'adapter et à se servir d'autres indices pour traduire et repérer les émotions chez les autres. Ils doivent aussi apprendre à exprimer leurs émotions de manière plus accentuée en utilisant par exemple leurs postures ou les autres parties de leurs corps sous-investies jusqu'à maintenant. Pour s'adapter au mieux à ce nouvel objet et plus globalement à toutes les mesures de distanciation sociale mises en place lors de cette pandémie, des ateliers psychomoteurs autour de la communication non verbale et de l'expression des émotions seraient bénéfiques aux élèves. 74 En effet, le psychomotricien, par son approche à la fois psychique et somatique du sujet, pourrait, par ses observations et ses outils, soutenir l'adaptation des élèves au port du masque. Ainsi la place d'une approche psychomotrice tant préventive qu'éducative au sein même de l'école est essentielle. Elle permet d'accompagner les élèves dans l'adaptation au port d'un nouvel accessoire devenu obligatoire. En repassant par l'expérimentation par le corps, la psychomotricité aide les enfants à comprendre et apprendre par la sensation et la perception. Il est nécessaire, et à plus fortes raisons dans le contexte actuel, de proposer aux élèves une part d'apprentissage par le corps, le mouvement et la coopération. Dans un climat où nous sommes enfermés chez nous et entravés dans nos interactions physiques avec l'environnement, il faut s'adapter corporellement et verbalement. La psychomotricité proposerait par différents ateliers un espace d'expression passant par des expériences corporelles et relationnelles. Grâce à notre étude sur l'impact du port du masque auprès des élèves d'une classe de CM1 et dans le but d'étayer au maximum nos recherches, nous avons également approfondi l'impact qu'il peut avoir chez les enseignants. Nous avons alors ouvert notre étude en mettant en place un questionnaire auquel nous avons récolté pas moins de cent trente-sept réponses d'enseignants d'élémentaire. Ces derniers témoignent devoir adapter leur enseignement. La majorité d'entre eux a voulu nous faire part de ses ressentis quant à cette situation pesante qu'ils vivent en classe et de leur tristesse de voir se créer une distance relationnelle entre eux et leurs élèves. Ce recueil de témoignages ouvre ainsi des pistes de réflexion. De la même manière que nos ateliers psychomoteurs visaient à accompagner les enfants vers une meilleure adaptation du port du masque, serait-il possible de proposer aux enseignants une aide par intervention de la psychomotricité à l'école, afin de les accompagner au mieux dans cette situation inédite ? Il serait également intéressant d'envisager une recherche de grande ampleur sur le sujet, avec, par exemple, plusieurs établissements scolaires sollicités, plusieurs tranches d'âge d'enfants ou une étude s'intéressant à l'impact des mesures sanitaires sur les apprentissages des enfants dans différentes matières. Pour qu'une recherche de plus grande ampleur sur notre sujet d'étude soit la plus complète possible nous pensons nécessaire d'avoir assez de recul sur cette mesure et de pouvoir observer directement ses effets des mois voire des années après les décisions gouvernementales mises en place, et une fois que les mesures sanitaires se seront assouplies. Ces effets pourraient être également notables et observables dans nos prises en charge futures en psychomotricité. 75 Aussi, il serait intéressant d'étudier quelles sont les adaptations qui ont été mises en place au sein même des séances de psychomotricité. Effectivement, nous savons que le port du masque entrave la communication non verbale et notamment l'expression des émotions, mais qu'en est-il des enfants qui, par un handicap, sont au quotidien en difficulté dans les différents aspects communicationnels ? Le masque majore-t-il ces difficultés et a-t-il un impact dans la relation thérapeutique ? Comment aider ces patients à s'adapter à toutes ces nouvelles mesures ? 76 Bibliographie Abram, J., Athanassiou, C., & Hjulmand, K. (2003). Le langage de Winnicott : Dictionnaire explicatif des termes winnicottiens. Popesco. Annexe 2 Programme d'enseignement du cycle de consolidation (cycle 3). (s. d.). Ministère de l'Education Nationale de la Jeunesse et des Sports. Consulté le 27 avril 2021, à l'adresse https://www.education.gouv.fr/bo/15/Special11/MENE1526483Aannexe2.htm Bouchat, P., Metzler, H., & Rimé, B. (2020). Crise et pandémie. Impact émotionnel et psychosocial du confinement. Le Journal des psychologues, n° 380(8), 14‐20. Catheline, N. (2012). Psychopathologie de la scolarité (3rd Edition). Elsevier Masson. Clicknrequete. (2020). Etude d'impact sur le port du masque à l'école. Consulté le 27 avril 2021 à l'adresse https://clicknrequete.com/wp-content/uploads/2020/12/etude-dimpact-port-du- masque-a-lecole-20-decembre-2020.pdf Coste, J.-C. (1994). La psychomotricité. Presses Universitaires de France. Dasinieres, L. (2020). Pourquoi les enfants ne seront pas traumatisés par le port du masque. Heidi.News, 377.116. Consulté le 27 avril 2021 à l'adresse /education/pourquoi-les-enfants-ne-seront-pastraumatises-par-le-port-du-masque D'Ignazio, A., & Martin, J. (2018). 100 idées pour développer la psychomotricité des enfants. Tom Pousse. Dolto, F. (2014). L'image inconsciente du corps. Editions du Seuil. Gaie, B. (2014). Dyspraxie et troubles non-verbaux : Faire avec la complexité : étude de cas. Elsevier Masson. Mikolajczak, M., Quoidbach, J., Kotsou, I., & Nélis, D. (2020). Les compétences émotionnelles. Dunod. Ministère de l'éducation Nationale. (s. d.). Programmes et horaires à l'école élémentaire. Consulté le 27 avril 2021, à l'adresse https://www.education.gouv.fr/programmes-et-horaires-l-ecoleelementaire-9011 77 Niedenthal, P. M., Krauth-Gruber, S., & Ric, F. (2013). Comprendre les émotions : Perspectives cognitives et psycho-sociales. Mardaga. OMS, Unicef. (2020). Conseils sur le port du masque par les enfants dans la communauté dans le cadre de la pandémie de COVID-19. _Consulté le 27 avril 2021 à l'adresse http://apps.who.int/iris/bitstream/handle/10665/335945/WHO-2019-nCoV-IPC_MasksChildren-2020.1-fre.pdf?sequence=1&isAllowed=y Potel, C. (2019). Etre psychomotricien, un métier du présent, un métier d'avenir. Eres. Reeve, J., Kaelen, R., Nils, F., Vallerand, R. J., & Fenouillet, F. (2017). Psychologie de la motivation et des émotions. De Boeck Supérieur. Stevens, B. (2020, décembre 13). Covid 19 : L'impact du masque sur les apprentissages. Apili. Consulté le 27 avril 2021 à l'adresse https://apili.fr/covid-19-limpact-reel-du-masque-sur-lesapprentissages-de-nos-enfants/ Tcherkassof, A., & Frijda, N. H. (2014). Les émotions : Une conception relationnelle. L'annee psychologique, Vol. 114(3), 501‐535. Vachez-Gatecel, A., Valentin-Lefranc, A., & Cohen, D. (2019). Le grand livre des pratiques psychomotrices. Dunod. Wallon, H. (2015). Les origines du caractère chez l'enfant : Les préludes du sentiment de personnalité. Presses universitaires de France. Zapata, J. (2019). LA PSYCHOMOTRICITE AUPRES D'ELEVES D'ECOLE ELEMENTAIRE : APPORTS, INTERETS ET LIMITES Etude expérimentale sur l'intérêt de la psychomotricité dans un cadre préventif auprès d'une classe de CE2. Mémoire de Diplôme d'Etat de Psychomotricité, UPMC, Paris. 78 INDEX DES ILLUSTRATIONS Figure 1 : Frise chronologique des deux projets d'étude. 11 Tableau 1 : Récapitulatif des quatre cycles de la scolarité en France. 16 Figure 2 : Frise générale des deux projets accompagnés du questionnaire des enseignants. 20 Figure 3 : Frise détaillant le projet d'étude des impacts du port du masque chez les enfants dans une classe de CM1 et création d'ateliers pédagogiques et préventifs. 23 Figure 4 : Frise focus sur le temps 0. 24 Tableau 2 Les 5 compétences émotionnelles de base, tableau tiré de la page 7 du livre, Les compétences émotionnelles 28 Figure 3: Frise focus sur le temps 1. 33 Figure 4: Diagramme circulaire du résultat de la question 5, "vos élèves portent-ils correctement le masque ?" 34 Figure 5: Diagramme circulaire de la question 8, "concernant votre enseignement, avez-vous mis en place des adaptations suit au port obligatoire du masque en classe ?" 35 Figure 6; Frise focus du temps 2. 37 Figure 7: Frise focus des temps 3 et 4. 39 Tableau 3: Tableau d'analyse des résultats du test du bonhomme de Goodenough. 40 Figure 8: Graphique représentant le pourcentage de réussite des somatognosies faciales passées avec le masque. 41 Figure 9: Histogramme des résultats de la reconnaissance des 7 émotions de base sur notre visage masqué. 42 Figure 10: Diagramme circulaire de la question 5, "est ce que le masque te gène en classe ?" 44 Figure 11: Diagramme circulaire de la question 6, "Les élèves se plaignent-ils du masque ?" 44 Figure 12: Diagramme circulaire de la question 8, "Est ce que le masque te fait mal derrière les oreilles ?" 45 Figure 13: Diagramme circulaire de la question 9, "Est-ce que tu sens ton souffle dans ton masque en classe ?" 45 Figure 14: Diagramme circulaire de la question 7, "Est-ce que le masque te fait mal à la tête ?" 45 Figure 15: Diagramme circulaire de la question 18, "Est-ce que tu as plus de difficultés à parler avec le masque sur ton visage en classe ?" 46 Figure 16: Diagramme circulaire de la question 13,"Observez-vous une modification de la prise de parole de vos élèves en classe ?" 46 Figure 17: Diagramme circulaire de la question 21, "Est-ce que tu entends moins bien en classe, avec le masque ?" 47 79 Figure 18: Diagramme circulaire de la question 13, "As-tu l'impression d'être caché derrière ton masque ? » 47 Figure 19: Diagramme circulaire de la question 16, "Avez-vous l'impression que le masque instaure une distance relationnelle entre vous et vos élèves ?" 48 Figure 20: Diagramme circulaire de la question 23,"Est-ce qu'avec le masque tu arrives à discerner les émotions des autres ?" 49 Figure 21: Diagramme circulaire de la question 24, "Quelle partie du corps regardes-tu pour savoir quand quelqu'un est joyeux ?" 49 Figure 22:Diagramme circulaire de la question 25, "Quelle partie du corps regardes-tu pour savoir quand quelqu'un est triste ?" 49 Figure 23: Frise focus sur les temps 3 et 4. 51 Figure 24: Frise de la mise en place de l'atelier de prévention et d'éducation du port du masque. 52 Figure 25: Frise de la mise en place de l'atelier "joue ton émotion" partie échauffement. 52 Figure 26: Frise de la mise en place de l'atelier "joue ton émotion" partie loto des émotions. 53 Figure 27: Frise de la mise en place de l'atelier "joue ton émotion partie verbalisation. 53 Figure 28: Frise de la mise en place de l'atelier "finir la journée en dessin". 54 Figure 29: Frise détaillant le temps 5. 56 Figure 30: Chronologie du port du masque présenté découpée aux enfants. 57 Figure 31: Chronologie du retrait du masque présenté découpée aux enfants. 58 Figure 32: Photographie de la chronologie du port du masque et du retrait du masque fait avec les élèves au tableau dans la classe le 18 décembre 2020. 59 Tableau 4: Tableau détaillant la manière dont chaque groupe a joué son émotion. 65 80 Annexes Annexe I : Lettre de présentation de notre projet à destination de l'inspection I Annexe II : Autorisation parentale vierge II Annexe III : Décret de compétence du psychomotricien III IV Annexe VIII : Questionnaire vierge à destination des enfants XIV XV XVI XVII XVIII XIX XX XXI Annexe IX : Tableau des résultats bruts du questionnaire à destination des élèves XXII XXIII XXIV Annexe X : Questionnaire vierge à destination des enseignants XXV XXVI XXVII XXVIII XXIX XXX Annexe XI : Tableau des résultats bruts du questionnaire à destination des enseignants XXXI XXXII XXXIII XXXIV XXXV XXXVI XXXVII XXXVIII XXXIX Annexe XII : Dessins du bonhomme confrontés aux "dessin de soi" des 22 élèves de la classe de CM1 XL XLI XLII XLIII XLIV XLV XLVI XLVII XLVIII XLIX L Annexe XIII : Dessins des masques des enfants réalisés durant l'atelier « Finir la journée en dessin » LI LII LIII LIV LV LVI INDEX DES ANNEXES Annexe I : Lettre de présentation de notre projet à destination de l'inspection I Annexe II : Autorisation parentale vierge II Annexe III : Décret de compétence du psychomotricien III Annexe IV : Fiches de passation et de cotation vierge du test BHK enfant V Annexe V : Fiches de passation et de cotation vierge du test de STROOP VII Annexe VI : Tableau de cotation vierge des items du Test du bonhomme de Goodenough XII Annexe VII : Fiche de cotation des somatognosies de Berges XIII Annexe VIII : Questionnaire vierge à destination des enfants XIV Annexe IX : Tableau des résultats bruts du questionnaire à destination des élèves XXII Annexe X : Questionnaire vierge à destination des enseignants XXV Annexe XI : Tableau des résultats bruts du questionnaire à destination des enseignants XXXI Annexe XII : Dessins du bonhomme confrontés aux "dessin de soi" des 22 élèves de la classe de CM1 XL Annexe XIII : Dessins des masques des enfants réalisés durant l'atelier « Finir la journée en dessin » LI LVII Résumé Les expressions faciales sont parmi les stimuli les plus importants et occupent une place centrale dans notre vie sociale. De façon automatique, elles attirent l'attention et communiquent une énorme quantité d'informations sur l'état émotionnel de l'émetteur, sur ses motivations sociales et ses besoins. Les enfants les utilisent en permanence. Mais que se passe-t-il lorsqu'elles se retrouvent cachées derrière un masque ? Comment continuer à distinguer nos émotions ? C'est dans une classe de CM1 que nous avons décidé d'étudier l'impact psychomoteur du port du masque sur les élèves. Dans le contexte bien particulier de l'année scolaire 2020-2021 nous avons, à travers plusieurs tests psychomoteurs et questionnaires, tenté d'observer l'impact que peut avoir l'introduction obligatoire de cet accessoire en classe. Une fois certaines de ces conséquences, identifiées à travers une étude à la fois qualitative et quantitative, nous avons mis en place des ateliers axés notamment sur l'expression des émotions. Notre travail de futur psychomotricienne a été d'essayer de trouver des adaptations psychomotrices au port du masque afin d'aider les élèves à apprivoiser ce nouvel accessoire MOTS CLEFS : psychomotricité, mémoire de recherche, port du masque, école élémentaire, élèves émotions, communication non-verbale, expressivité corporelle. Summary Facial expressions are among the most important stimuli and occupy a central place in our social life. They automatically attract our attention and communicate a huge amount of information about the emotional state of the transmitter, about his/her social motivations and needs. Children use them all the time. But what happens when they are hidden behind a mask ? How to continue to distinguish our emotions ? It is in a class of CM1 (9-10 year-olds) that we decided to study the psychomotor impact of wearing a mask on the pupils. In the specific context of the 2020-2021 school year, we have attempted, through several psychomotor tests and questionnaires, to observe the impact of having to wear this accessory in school. After identifying some of the consequences, by doing a qualitative and quantitative study, we set up workshops focusing on the expression of emotions. Our work as future psychomotor therapists was to try to find psychomotor adaptations to the wearing of masks in order to help pupils feel at home with this new accessory. KEY WORDS : psychomotricity, research paper, wearing a mask, elementary school, pupils, emotions, non-verbal communication, body expressiveness.
{'path': '07/dumas.ccsd.cnrs.fr-dumas-03297160-document.txt'}
Les mécanismes de la neuropathie auditive AUNA1 Clément Surel To cite this version: Clément Surel. Les mécanismes de la neuropathie auditive AUNA1. Médecine humaine et pathologie. Université Montpellier, 2016. Français. NNT : 2016MONTT093. tel-01560972 HAL Id: tel-01560972 https://tel.archives-ouvertes.fr/tel-01560972 Submitted on 12 Jul 2017 Délivré par l'Université de Montpellier Préparée au sein de l'école doctorale Sciences Chimiques et Biologiques pour la Santé et de l'unité de recherche INSERM U1051 Institut des Neurosciences de Montpellier Spécialité : Neurosciences Présentée par Clément Surel Les mécanismes de la neuropathie auditive AUNA1 Soutenue le 19.12.2016 devant le jury composé de M. Salah EL-MESTIKAWY (président du jury) Rapporteur Directeur de recherche, Institut de Biologie Paris-Seine Mme Brigitte MALGRANGE Rapporteur Directrice de recherche, Université de Liège Examinateur Mme Sandrine MARLIN Praticienne hospitalière, Hôpital Necker, Paris M. Jean-Luc PUEL Co-directeur de thèse Professeur des universités, Institut des Neurosciences de Montpellier M. Régis NOUVIAN Co-directeur de thèse Chargé de recherche, Institut des Neurosciences de Montpellier 2 Remerciements Je tiens à remercier tout d'abord mon directeur de thèse Régis Nouvian d'avoir accepté d'être mon mentor durant cette aventure. De m'avoir appris tant de choses, autant sur le plan professionnel que personnel. D'avoir été toujours présent pour m'apporter son aide et ses conseils. Et de m'avoir encouragé du début à la fin. Je lui suis entièrement reconnaissant de son investissement, de sa confiance, de sa disponibilité, de son soutien sans faille et surtout de son amitié. Je remercie Jean-Luc Puel de m'avoir intégré dans son équipe, de m'avoir permis d'assister et de participer aux différents congrès et d'avoir porté autant d'intérêt à mon travail et à ma carrière professionnelle. Je remercie toutes les personnes qui ont apporté leur contribution de peu ou de loin à mon projet de thèse. Un grand merci à Marie Guillet d'avoir porté avec moi ce beau projet. De m'avoir appris la technique d'immunomarquage sur la cochlée et la microscopie confocale. Merci surtout pour sa gaîté et sa générosité qui ont marqué tous les bons moments que nous avons eus ensemble, que ce soit au laboratoire ou en dehors. Merci à Gaston Sendin. Pour son aide et ses conseils. Pour son optimisme, son humour et ses échanges toujours intéressants qui font de lui un excellent ami. Merci à Jérôme Bourien. Pour le travail qu'il a fourni sur le projet. Et surtout pour ce dynamisme et cette bonne humeur ! Je garderai de très bons souvenirs des congrès et de tous les moments que nous avons passés ensemble. Je le remercie également pour tous ses encouragements qui m'ont donné confiance en mon travail. Merci à Marc Lenoir pour son travail et ses très belles images. Pour m'avoir montré le principe de la microscopie électronique et fait découvrir le microscope à balayage. Pour toutes ses remarques constructives sur le projet et ses encouragements. Et merci à Willy Joly pour son aide et ses nombreux conseils en biologie moléculaire. Je remercie les membres de mes comités de suivie de thèse, Anne Debant, Salah El-Mestikawy et Cédric Raoul. Merci à eux pour l'intérêt qu'ils ont porté à mon travail, leurs conseils et leurs encouragements. Je remercie Brigitte Malgrange, Sandrine Marlin et Salah El-Mestikawy d'avoir accepté de juger ce travail et d'être membre de mon jury de thèse. Je remercie Alain Garcès pour l'enseignement qu'il m'a donné au cours de mes deux années de master. Pour cette passion qui l'anime et qu'il m'a fait partager. Je remercie Patrick Carroll de m'avoir accueilli dans son équipe durant mon master. Et merci aux membres de l'équipe 3 pour leur convivialité. Et pour leurs précieux conseils qui ont joué un rôle important dans la réussite de mon master et de mon doctorat. 3 Merci à Florian Hasselmann pour son amitié, son humour et tous ces échanges que nous avons eus entre cinéphiles. Merci à Piotr Kazmierczak pour ses conseils et sa conversation enrichissante. Un immense merci à Yulia Korchagina et Marine Chazalon, mes amies proches et confidentes! Pour leur amour, leur présence, leur soutien et leur réconfort. Enfin, je remercie toutes les personnes, au sein de l'équipe 2 ou au sein de l'INM, avec qui j'ai pu avoir des échanges et partagé au quotidien des petit moments de plaisir et de joie. 4 Sommaire 1. Introduction 8 2. Les neuropathies auditives 11 2.1. Transfert de l'information sonore 12 2.1.1. Anatomie de l'oreille 12 2.1.1.1. Anatomie de l'oreille externe, moyenne et interne 12 2.1.1.2. Anatomie de l'organe de Corti 15 2.1.1.3. L'appareil mécanotransducteur des CCI 16 2.1.1.4. Les stéréocils 18 2.1.1.5. La plaque cuticulaire 19 2.1.2. Physiologie de la cochlée 27 2.2. Synaptopathies auditives 28 2.2.1. Organisation de la synapse à ruban 28 2.2.2. La synaptopathie auditive DFNB9 31 2.2.3. La synaptopathie auditive DFNA25 33 2.2.4. La synaptopathie auditive SAAND 35 2.2.5. La synaptopathie auditive DFNB93 36 2.2.6. La synaptopathie auditive due à l'exposition au bruit 36 2.3. Neuropathies auditives 37 2.3.1. Les neuropathies auditives associées aux mutations du gène OPA1 37 2.3.2. La neuropathie auditive AUNX1 38 2.4. Myélinopathies auditives 39 2.4.1. Les myélinopathies auditives associées aux neuropathies sensorimotrices 39 5 2.5. Cellulopathies auditives 40 2.5.1. La cellulopathie auditive chez le bébé prématuré 40 2.5.2. La cellulopathie auditive due à une carence en thiamine 40 2.5.3. La cellulopathie auditive AUNA1 41 3. Matériel et méthodes 44 3.1. Animaux 45 3.2. Tampons et solutions 46 3.3. Anticorps 47 3.4. Génotypage 47 3.5. Enregistrements in-vivo 48 3.5.1. Enregistrements des Potentiels évoqués auditifs (PEA) 49 3.5.2. Enregistrements des produits de distorsion acoustiques 49 3.5.3. Electrococléographie 50 3.6. Patch-clamp et patch perforé 51 3.6.1. Enregistrement des courants potassiques et du potentiel de membrane 51 3.6.2 Enregistrement des courants calciques et de la capacité membranaire 52 3.7. Microscopie électronique 53 3.7.1 Préparation des cochlées 53 3.7.2 Microscopie électronique à balayage 53 3.7.2 Microscopie électronique à transmission 54 3.8. Immunomarquages 54 3.9. Test de la spécificité de l'anticorps anti-Diap3 55 3.9.1. Culture des cellules HEK 55 3.9.2. Plasmides 56 3.9.3. Transfection et extraction des protéines 56 3.9.4. Western Blot 57 6 4. Résultats 58 4.1. Les souris Diap3-Tg miment la neuropathie auditive AUNA1 59 4.2. Perte d'activité des CCI chez les souris Diap3-Tg 60 4.3. L'activité synaptique des CCI des souris Diap3-Tg est normale 62 4.4. Les courants K+ des CCI des souris Diap3-Tg ne sont pas perturbés 64 4.5. Une fusion des stéréocils est à l'origine de la perte d'activité des CCI des souris Diap3-Tg 66 4.6. Déformation de la plaque cuticulaire des CCI des souris Diap3-Tg 69 4.7. Remodelage du réseau de microtubule dans les CCI des souris Diap3-Tg 70 4.8. La réorganisation des microtubules dans les CCI des souris Diap3-Tg commence avant l'apparition de la surdité 75 4.9. Diap3 est localisée dans la plaque cuticulaire des CCI 77 5. Discussion 79 5.1. Remodelage du réseau de microtubule dans les CCI des souris Diap3-Tg 80 5.2. La surexpression de Diap3 perturbe la mécanotransduction des CCI 82 5.3. L'atteinte spécifique des CCI 83 5.4. Les souris Diap3-Tg miment la neuropathie auditive humaine AUNA1 86 5.5. Conclusion 87 6. Références 88 7. Manuscript 99 7 1. Introduction 8 Les neuropathies auditives forment une classe de surdités qui se caractérisent par des potentiels évoqués auditifs absents ou désynchronisés et des otoémissions acoustiques normales. Ces caractéristiques cliniques traduisent une atteinte des cellules ciliées internes (qui détectent les ondes sonores et les transforment en message nerveux) et/ou des neurones afférents primaires (qui véhiculent les messages nerveux jusqu'au noyau cochléaire), associée à une activité normale des cellules ciliées externes (qui amplifient les ondes sonores) (Starr et al., 1996). Figure 1.1 : Caractéristiques cliniques d'une neuropathie auditve. (a) La technique d'électrocochléographie permet de déceler les neuropathies auditives. Une électrode est insérée dans le canal auditif et posée sur la fenêtre ronde de la cochlée. Le potentiel cochléaire global, qui reflète l'activité électrique de la cochlée, est enregistré en présence d'un stimulus sonore. (b-e) Le potentiel cochléaire global comprend le potentiel microphonique qui reflète l'activité des cellules ciliées externes (b, d), le potentiel de sommation (PS) qui réflète l'activité des cellules ciliées internes (c, e), et le potentiel d'action composite (PAC) qui reflète l'activité des neurones afférents primaires (c, e). Le potentiel microphonique des sujets atteints de neuropathie auditive (d) est similaire à celui des sujets normo-entendants (b). En revanche, le potentiel d'action composite, présent chez les sujets normoentendants (c), n'est pas détecté chez les patients atteints de neuropathie auditive (e). Enfin, selon le type de neuropathie auditive, le potentiel de sommation peut être présent (e) ou absent. Image tirée de Moser et Starr, 2016. 9 AUNA1 (Auditory Neuropathy 1) est la première neuropathie auditive héréditaire à avoir été décrite (Starr et al., 2004). Elle est causée par une mutation ponctuelle dans le promoteur du gène Diaphanous homolog 3 (DIAPH3) qui induit une surexpression de DIAPH3 (Schoen et al., 2010). La protéine DIAPH3 appartient à la famille des formines, une classe de protéines ubiquitaires impliquées dans la régulation du cytosquelette (Bartolini et Gundersen, 2010; Kuhn et Geyer, 2014). Les fonctions spécifiques de DIAPH3 sont la nucléation et l'élongation des filaments d'actine ainsi que la stabilisation des microtubules. Pour étudier les mécanismes de la surdité AUNA1, l'équipe du Dr Marci Lesperance, à l'université du Michigan, a généré un modèle murin transgénique surexprimant le gène Diap3, l'orthologue murin de DIAPH3 (Schoen et al., 2013). Chez les souris transgéniques (Diap3-Tg), on note une élévation des seuils auditifs et une amplitude normale des produits de distorsions acoustiques (qui reflètent l'activité des cellules ciliées externes). Ces résultats montrent donc que les souris Diap3-Tg reproduisent la neuropathie auditive humaine AUNA1. Des défauts morphologiques furent observés dans les cellules ciliées internes des souris Diap3-Tg, cependant les mécanismes moléculaires à l'origine d'AUNA1 restaient indéterminés (Schoen et al., 2013). L'objectif de ma thèse était d'identifier les mécanismes responsables de la neuropathie auditive AUNA1. Pour ce faire, j'ai étudié le phénotype des souris Diap3-Tg à l'aide d'une approche multidisciplinaire. Mes résultats montrent un remaniement massif et précoce du réseau de microtubules à l'origine de la surdité AUNA1. Au-delà d'une meilleure compréhension d'AUNA1, les résultats obtenus soulignent la diversité des mécanismes pouvant conduire à une neuropathie auditive. 10 2. Les neuropathies auditives 11 Selon l'Organisation mondiale de la Santé, les déficits auditifs touchent 360 millions d'individus à travers le monde, soit 5% de la population mondiale1. Les traitements actuels pour venir en aide aux personnes sourdes et malentendantes sont les appareils auditifs, les implants cochléaires et la microchirurgie (utilisée dans les cas de surdité dus à une atteinte de l'oreille moyenne). Malheureusement, dans de nombreux cas, ces solutions sont insuffisantes voire inefficaces pour retrouver une audition satisfaisante. De nouvelles stratégies telles que la pharmacologie, la thérapie cellulaire ou la thérapie génique sont en cours de développement pour offrir à l'avenir de meilleurs traitements. Mais ces stratégies nécessitent une connaissance approfondie des mécanismes responsables des déficits auditifs. 2.1. Transfert de l'information sonore 2.1.1. Anatomie de l'oreille 2.1.1.1. Anatomie de l'oreille externe, moyenne et interne L'oreille se divise en trois parties : l'oreille externe, moyenne et interne. L'oreille externe se compose du pavillon et du conduit auditif, et a pour fonction de capter les sons. L'oreille moyenne comprend le tympan et les trois osselets (marteau, enclume étrier) et adapte l'impédance entre le milieu aérien et liquidien. Enfin, l'oreille interne est constituée de deux organes : le vestibule, organe sensoriel de l'équilibration, et la cochlée, organe périphérique de l'audition qui assure la transformation des ondes sonores en message nerveux (Fig. 2.1). 1 Fact sheet N°300 : http://www.who.int/mediacentre/factsheets/fs300/en/ 12 Figure 2.1 : Le système auditif périphérique. Le système auditif périphérique se divise en trois parties : l'oreille externe (E), l'oreille moyenne (M) et l'oreille interne (I). L'oreille externe est formée par le pavillon (1) et le conduit auditif externe (2). L'oreille moyenne, située entre le tympan (3) et la cochlée (6), assure grâce à la chaîne des osselets (4) un rôle d'adaptateur d'impédance entre le milieu aérien et le milieu liquidien. L'oreille interne est formée de deux organes distincts : le vestibule (5), l'organe sensoriel de l'équilibration et la cochlée (6), l'organe neuro-sensoriel de l'audition, dont la forme évoque celle d'un escargot. 5 4 1 2 3 6 E M I La cochlée est recouverte d'une paroi osseuse, la capsule optique, et renferme trois canaux (la rampe vestibulaire, le canal cochléaire et la rampe tympanique) enroulés autour d'un axe central, le modiolius. Ces canaux sont remplis de liquides physiologiques : la rampe tympanique et la rampe vestibulaire contiennent la périlymphe, un milieu riche en sodium, et le canal cochléaire contient l'endolymphe, un milieu riche en potassium. A la base de la cochlée, se trouve une ouverture dans la capsule optique, la fenêtre ovale, sur laquelle repose l'étrier, et qui marque l'entrée de la rampe vestibulaire. La rampe vestibulaire communique avec la rampe tympanique au niveau de l'hélicotrème situé à l'apex de la cochlée. La rampe tympanique rejoint la base de la cochlée jusqu'à une deuxième ouverture de la capsule optique, la fenêtre ronde. Le canal cochléaire est situé entre la rampe vestibulaire et la rampe tympanique. A l'intérieur du canal cochléaire, se trouve un épithélium neurosensoriel, l'organe de Corti, qui repose sur la membrane basilaire. 13 Figure 2.2 : La spirale cochléaire. Vue en microscopie électronique à balayage de la spire cochléaire d'une cochlée de rat. L'enroulement caractéristique de cet organe est nettement visible. Ici, la capsule otique, la strie vasculaire et la membrane tectoriale ont été délicatement enlevées, dévoilant l'organe de Corti. La partie située en bas de l'image correspond à la zone d'attache de la cochlée à l'os temporal et porte le nom de base. C'est également dans cette zone, à l'extrémité inférieure de la spirale, que se trouvent les deux fenêtres. Le sommet de la spirale porte, quant à lui, le nom d'apex. Barre d'échelle : 2 mm. Photo : Marc Lenoir. Figure 2.3 : Section axiale de la cochlée. Cette figure représente une section axiale (ou modiolaire, c'est à dire passant par le modiolus) de la cochlée. Elle montre de façon schématique l'enroulement des trois canaux de la cochlée : le canal cochléaire (1), contenant l'endolymphe, et les rampes vestibulaires (2) et tympaniques (3), formant le compartiment périlymphatique. La partie centrale de la cochlée (le modiolus) contient le ganglion spiral (4), où se trouvent les corps cellulaires des neurones auditifs primaires, et les fibres du nerf auditif (5) reliés aux structures du tronc cérébral. Schéma : Pujol et al., http://www.cochlea.eu/cochlee. 14 2.1.1.2. Anatomie de l'organe de Corti L'organe de Corti est composé de différents types de cellules, dont les cellules ciliées qui sont les cellules sensorielles de la cochlée. Ce sont des cellules épithéliales caractérisées par des expansions cytoplasmiques riches en actine, les stéréocils, émergeant de leur pôle apical. Il existe deux populations de cellules ciliées : les cellules ciliées externes (CCE) qui sont organisées en trois rangées le long de l'organe de Corti, et les cellules ciliées internes (CCI) organisés sur une seule rangée. La membrane tectoriale, une matrice acellulaire composée de collagène et de tectorine (Legan et al., 2000) coiffe les cellules ciliées. Les stéréocils des CCE sont ancrés dans la membrane tectoriale. Les CCI sont innervées par les fibres afférentes de types I, qui forment le ganglion spiral et projettent vers le noyau cochléaire. Les CCE sont innervées par les fibres de type II, qui forment une population minoritaire au sein du ganglion spiral : elles constituent en effet à peine 5 % de la population neuronale de cette structure. Figure 2.4 : Section transversale d'un tour de spire de la cochlée. Coupe transversale effectuée au niveau du troisième tour d'une cochlée de cobaye visualisée en microscopie électronique à balayage. Dans l'organe de Corti, la rangée de cellules ciliées internes (CCI) et les trois rangées de cellules ciliées externes (CCE) sont disposées de part et d'autre du tunnel de Corti (tC). Les CCE, dont la base repose sur les cellules de Deiters (D), modulent la transduction par des processus mécaniques actifs. Ceux-ci amplifient les mouvements de la membrane basilaire (mb) en un point précis dépendant de la fréquence, facilitant la stimulation des CCI et permettant l'envoi vers le cerveau d'un message bioélectrique finement accordé. mR : membrane de Reissner ; mt : membrane tectoriale; SV : Strie Vasculaire. GS : ganglion spiral. Barre d'échelle : 100 μM. Photo : Marc Lenoir (Inserm U1051). 15 Figure 2.5 : Représentation schématique des cellules ciliées. Gauche : Cellule ciliée interne (CCI). Droite : Cellule ciliée externe (CCE). Les cellules ciliées sont dotées d'un faisceau de stéréocil qui détecte les ondes sonores. Les stéréocils sont ancrées dans la plaque cuticulaire, une structure riche en actine et sont reliées entre eux par des filaments appelés tip-link. L'extrémité de chaque tip-link est connectée à un canal sensible à l'étirement. En réponse à une stimulation sonore, le canal mécanotransducteur s'ouvre et permet l'influx de cations, principalement du potassium et du calcium en raison de la composition de l'endolymphe (seuls les stéréocils baignent dans l'endolymphe, le corps cellulaire des CCI et CCE baigne dans la périlymphe). L'entrée de cations dépolarise alors les CCI et CCE. Tandis que 95 % des fibres du nerf auditif sont connectés avec les CCI et forment les fibres de type I, seule 5 % des fibres (de type II) projettent sur les CCE. 2.1.1.3. L'appareil mécanotransducteur des CCI La mécanotransduction est la conversion de forces mécaniques en signaux électriques. Le faisceau de stéréocil des CCI est l'appareil mécanotransducteur du système auditif. Celui-ci permet en effet de transformer les ondes sonores en potentiel de récepteur. Le faisceau de stéréocil est composé de plusieurs rangées de stéréocil de taille décroissante. Les stérocils sont des expansions cytoplasmiques constitués d'un grand nombre de filaments d'actine extrêmement compactés (Tilney et al., 1992). Ils sont ancrés dans une plateforme, la plaque cuticulaire, qui est elle-même constituée d'un enchevêtrement de filaments d'actine. Au cours du développement, une structure semblable aux stéréocils, le kinocil, contrôle la formation et l'orientation des stéréocils. Contrairement à ces derniers, le kinocil est un véritable cil constitué de microtubules. Lors de l'entrée en fonction de la cochlée, le corps du kinocil disparait et seule sa base, appelée corps basal, reste ancrée dans la plaque cuticulaire. 16 Dans la partie haute des stéréocils, se trouve le canal mécanotransducteur, un canal sensible à l'étirement responsable de la génération du potentiel de récepteur (Hudspeth, 1982; Jaramillo et Hudspeth, 1991; Lumpkin et Hudspeth, 1995). Lors d'une stimulation acoustique, les ondes sonores provoquent une déflection des stéréocils. La tension exercée sur la membrane plasmique provoque alors l'ouverture du canal mécanotransducteur qui génère ainsi un potentiel de récepteur. Figure 2.6 : Image de l'appareil mécanotransducteur d'une cellule ciliée auditive chez l'alligator, prise en microscopie électronique à transmission. Les stéréocils (S) sont des expansions cytoplasmiques constituées de filaments d'actine, dont la taille est largement supérieure à celle des microvillis (MV). Chaque stéréocil forme une racine (R) caractérisée par une extrême compaction d'un petit nombre de filament d'actine. Les racines s'insèrent dans la plaque cuticulaire (CP), ellemême, composée d'un enchevêtrement de filaments d'actine. Sous la plaque cuticulaire, se trouve un large contingent de mitochondries (M). SC : cellule de soutien. Barre d'échelle : 1μm. Image tirée de DeRosier et Tilney, 1989 d'après Tilney et al., 1980. 17 2.1.1.4. Les stéréocils Figure 2.7 : Images de divers faisceaux de stéréocils, prises en microscocpie électronique à balayage, chez différentes espèces. (A) Image prise chez la tortue du faisceau de stéréocil d'une cellule ciliée auditive, composée de neuf rangées de stéréocils et d'un kinocil (flèche). (B-C) Images prises chez le rat des faisceaux de stéréocil d'une cellule ciliée externe (B), composé de 3 rangées de stéréocils, et d'une cellule cilié interne (C), composé de 4 rangées de stéréocils. (D) Image prise chez la chauve-souris du faisceau de stéréocil d'une cellule ciliée interne répondant aux hautes fréquentes, composé de deux rangées de stéréocils. Barre d'échelle : 1 μm pour A, 2 μm pour B-D. Images prises par C. M. Hackney (A, B, D) et D. N. Furness (C). Figure tirée de Fettiplace et Kim, 2014. La composition moléculaire des stéréocils est un domaine d'étude dont l'exploration n'a débutée que très récemment. Une des questions les plus importantes est l'identité du canal mécanotransducteur. Bien que la nature de ce dernier reste encore inconnue, les données électrophysiologiques ont pu démontrer que ce canal est perméable aux cations, et notamment aux ions Ca2+. On estime qu'il y aurait 2 canaux mécanotransducteurs par stéréocils (Ricci et al., 2003). 18 Les stéréocils sont reliés entre eux par des filaments extracellulaires, à savoir les tiplinks, les lateral links et les ankles links (Bashtanov et al., 2004). Les tip-links connectent le sommet de chaque stéréocil à la partie supérieure du stéréocil voisin de plus grande taille (Pickles et al., 1984). Ils sont formés par une interaction entre la protocadhérine 25, localisée au sommet du petit stéréocil, et la cadhérine 23, localisée dans la partie supérieur du grand stéréocil (Kazmierczak et al., 2007). De part leur rigidité, les tip-links exercent une tension sur la membrane plasmique et jouent probablement un rôle essentiel dans l'ouverture du canal mécanotransducteur. Plusieurs études montrent que les agents pharmacologiques qui détruisent les tip-links abolissent également la mécanotransduction (Assad et al., 1991; Zhao et al., 1996). 2.1.1.5. La plaque cuticulaire La plaque cuticulaire est une matrice dense, faite de filaments d'actine, qui enveloppe la racine des stéréocils. Son rôle est fort probablement de maintenir la position des stéréocils. A ce jour, la structure et la composition moléculaire de la plaque cuticulaire sont encore peu connues. La surface apicale de la plaque cuticulaire semble être en contact direct avec la membrane plasmique (Tilney et al., 1983; Liberman, 1987). Les autres bords de la plaque cuticulaire, en revanche, baignent dans le cytoplasme. Ces observations suggèrent que la plaque cuticulaire ne serait pas fortement attachée aux autres structures de la cellule ciliée et aurait ainsi une certaine liberté de mouvement. Dans les cellules ciliées vestibulaires, la déflection du faisceau de stéréocil provoque un léger déplacement réversible de la plaque cuticulaire (Valat et al., 1991; Griguer et al., 1993). Cette mobilité restreinte de la plaque cuticulaire apporterait une certaine souplesse à l'ensemble du système et protégerait ainsi les stéréocils d'éventuels dommages mécaniques. 19 Parmi le grand nombre de filaments d'actine (~100 filaments) qui constituent le corps d'un stéréocil, seul quelques uns traversent la base, nettemnt plus étroite que le corps, pour former la racine du stéréocil et s'insérer dans la plaque cuticulaire (Kimura, 1975; DeRosier et Tilney, 1989). Les racines de certains stéréocils traversent entièrement la plaque cuticulaire (Takasaka et al., 1983; Furness et al., 2008). Dans leur étude, Vranceanu et al. ont montré que ces racines forment un angle de 110° dans la plaque cuticulaire et ressortent de la structure pour rejoindre la membrane plasmique du côté opposé au corps basal (Vranceanu et al., 2012). Les racines des stéréocils sont composées de β-actine, γ-actine, spectrine et tropomyosine. La protéine TRIOBP assure l'assemblage des filaments d'actine en faisceau et joue un rôle essentiel dans la formation des racines. La mutation du gène Triobp induit une surdité profonde chez l'homme (Riazuddin et al., 2006; Shahin et al., 2006). Chez les souris mutantes pour Triobp, les stéréocils se développent normalement mais ne forment pas de racine dans la plaque cuticulaire (Kitajiri et al., 2010). Ces stéréocils sont plus flexibles et se détériorent plus facilement, ce qui souligne l'importance des racines dans la rigidité et la résistance des stéréocils. Les mécanismes impliqués dans la formation des racines restent encore inconnus. 20 Figure 2.8 : Image de stéréocils et de leurs racines dans une cellule ciliée externe de cochon d'inde, prise en microscopie électronique à transmission. A la base des stétéocils, un petit nombre de filaments d'actines hautement compactés forme la racine, la partie du stéréocil qui est ancrée dans la plaque cuticulaire. Modifiée à partir de Fettiplace et Hackney, 2006. Contrairement aux stéréocils, la plaque cuticulaire est constituée de filaments d'actine qui ne semblent pas avoir d'organisation précise (Liberman, 1987; DeRosier et Tilney, 1989) mais qui sont néanmoins répartis de manière homogène dans l'ensemble de la structure (Raphael et al., 1994; Szarama et al., 2012). Il semblerait que les filaments d'actine de la plaque cuticulaire ne connectent pas directement ceux des stéréocils mais se lient à eux par l'intermédiaire de filaments linkers (Tilney et al., 1980). En effet, des descriptions détaillées de la plaque cuticulaire ont révélées la présence de filaments dépourvus de molécules d'actine, liant la racine des stéréocils à la plaque cuticulaire (Hirokawa et Tilney, 1982; Hirokawa, 1986; Arima et al., 1987). D'autres filaments linkers permettent également de lier entre eux les différents filaments d'actine de la plaque cuticulaire. Enfin, de petits filaments, divisés en plusieurs branches, attachent la surface apicale de la plaque cuticulaire à la membrane plasmique. Les protéines qui constituent ces différents groupes de filaments linkers n'ont pas encore été identifiées. 21 Une structure indépendante, la bande circonférentielle, constituée de filaments d'actine parallèles, forme un cercle autour de la plaque cuticulaire. La bande circonférentielle est localisée à proximité des jonctions adhérentes qui connectent les cellules ciliées aux cellules de soutien (Hirokawa et Tilney, 1982; Seaman et al., 1994) et est séparée de la plaque cuticulaire par un espace rempli de cytoplasme (Raphael et al., 1994). La plaque cuticulaire établit plusieurs connections avec le réseau de microtubule. Tout d'abord, le corps basal, inséré dans la plaque cuticulaire, projette des microtubules en direction du cytoplasme (Steyger et al., 1989; Sobkowicz et al., 1995). Par ailleurs, un groupe de microtubules organisés en anneau entoure la plaque cuticulaire des CCI (Furness et al., 1990; Raphael et al., 1994). Plusieurs études montrent également une insertion de microtubules en provenance du cytoplasme à l'intérieur même de la plaque cuticulaire (Jaeger et al., 1994; Antonellis et al., 2014). Des protéines linkers relient ces microtubules aux filaments d'actine de la plaque cuticulaire. Les protéines MAP-1A et MAP-1B, localisées aux sites d'insertion des microtubules pourraient en faire parti (Jaeger et al., 1994). Plus récemment, la protéine ACF7, connue pour connecter les filaments d'actine avec les microtubules, a été localisée tout autour de la plaque cuticulaire et pourrait être également une de ces protéines linkers (Antonellis et al., 2014). Ces microtubules permettraient de lier la plaque cuticulaire au reste de la cellule et lui permettre ainsi une certaine stabilité. Au cours du développement, les microtubules sont impliqués dans la formation de la plaque cuticulaire (Sobkowicz et al., 1995; Szarama et al., 2012). Les microtubules semblent également avoir un rôle réparateur. En effet, après une liaison de la cellule ciliée, les microtubules pénètrent dans la plaque cuticulaire et participent à sa restructuration ainsi qu'à la reformation des racines des stéréocils (Sobkowicz et al., 1995). 22 Figure 2.9 : Le cytosquelette du pôle apical des cellules ciliées. Les filaments d'actine (en rouge) sont fortement concentrés dans la plaque cuticulaire (CP), le faisceau de stéréocils et la bande circonférentielle. Durant le développement, le kinocil (en gris) participe au développement et à l'orientation du faisceau de stéréocil. Dans les cellules ciliées auditives, le kinocil disparaît durant le dernier stade du développement. Contrairement aux stéréocils, le kinocil est constitué de microtubule. Un certain nombre de microtubules émergent du corps basal (en vert) en direction du cytoplasme. A l'inverse, des colonnes de microtubules en provenance du cytoplasme pénètrent dans la plaque cuticulaire. Modifié d'après Pollock et McDermott, 2015. Au-dessous de la plaque cuticulaire, se trouve l'organelle striée, une structure faite d'un mélange de faisceau fins et épais, aussi parfois appelée corps de Friedmann (Friedmann et al., 1963; Slepecky et al., 1980; Vranceanu et al., 2012). Les deux structures sont séparées par un contingent de larges mitochondries mais sont connectées entre elles via les extensions de l'organelle striée. En effet, certains faisceaux de l'organelle striée contactent les racines des stéréocils. Par ailleurs, d'autres faisceaux de l'organelle striée s'attachent à la membrane plasmique. La sous-unité α2 de la spectrine est le seul constituant connu de l'organelle striée (Dememes et Scarfone, 1992). Le rôle supposé de l'organelle striée serait de stabiliser la plaque cuticulaire. 23 D'un point de vue moléculaire, les filaments d'actine qui constituent la plaque cuticulaire sont composés des isoformes γ- et β-actine (Furness et al., 2005; Perrin et al., 2010). L'isoforme γ-actine est la plus présente alors que l'isoforme β-actine est plus concentrée dans les racines des stéréocils. En plus de l'actine, plusieurs protéines participent à la structuration de la plaque cuticulaire : Plastine 1, ou Fimbrine, une protéine qui lie les filaments d'actine en faisceau, est localisée dans la plaque cuticulaire, ainsi que dans les stéréocils (Slepecky et Chamberlain, 1985). Si Plastine 1 est essentielle à la fasciculation des filaments d'actine dans les stéréocils, son rôle dans la plaque cuticulaire reste inconnu. Chez les souris mutantes pour Pls1, les cellules ciliées arborent des stéréocils anormalement fins, longs et courbés. En revanche, la taille ainsi que l'organisation des filaments d'actine de la plaque cuticulaire ne sont pas altérés (Taylor et al., 2015). La Myosine VI est localisée dans la plaque cuticulaire et le cytoplasme des cellules ciliées (Hasson et al., 1997). Chez la grenouille, elle est également située dans le faisceau de stéréocils ; ce qui ne semble pas être le cas chez le rongeur. Chez les souris Snell's waltzer, mutantes pour le gène Myo6, des excroissances de la plaque cuticulaire apparaissent entre les stéréocils (Self et al., 1999). Par ailleurs, les stéréocils s'allongent et fusionnent. La Myosine VI permettrait d'attacher la surface apicale de la plaque cuticulaire à la membrane plasmique. La myosine VIIa est localisée dans les stéréocils, la plaque cuticulaire ainsi que dans la région située autour de la plaque cuticulaire (Hasson et al., 1997). Des mutations dans le gène MYO7A sont responsables du syndrome Usher de type 1b et de surdités nonsyndromiques (Weil et al., 1995). Chez les souris Shaker-1, mutantes pour MYO7A, il y a une désorganisation du faisceau de stéréocil et une déformation de la plaque cuticulaire (Self et al., 1998). 24 La Protocadherine 15, une composante des tip links, est localisée sur toute la longueur des stéréocils y compris dans les racines à l'intérieur de la plaque cuticulaire (Ahmed et al., 2003; Senften et al., 2006). Une mutation de Pcdh15 chez la souris Ames waltzer entraîne des déficits auditifs et vestibulaires associés à une désorganisation des stéréocils, un défaut dans la polarité planaire et une déformation de la plaque cuticulaire (Pawlowski et al., 2006; Kikkawa et al., 2008). La Protocadherine 15 et la Myosine VIIa sont connues pour interagir ensemble (Senften et al., 2006) et les différentes mutations associées à ces deux protéines entraînent un mauvais positionnement des vésicules dans les cellules ciliées. Ainsi, ces deux protéines seraient impliquées dans le trafic vésiculaire au niveau de la plaque cuticulaire. Une mauvaise régulation de ce trafic serait responsable d'une déstructuration de la plaque cuticulaire et du faisceau de stéréocil. La protéine ACF7, qui lie les filaments d'actine et les microtubules (Leung et al., 1999), est présente autour de la plaque cuticulaire, dans le corps basal et au niveau de la surface basale de la plaque cuticulaire (Antonellis et al., 2014). Ces donnés suggèrent que ACF7 permettrait de relier les filaments d'actine de la plaque cuticulaire aux microtubules environnants. La protéine XIRP2, dont la fonction est de lier les filaments d'actine entre eux, est localisée dans les stéréocils, la plaque cuticulaire et la bande circonférentielle (Francis et al., 2015; Scheffer et al., 2015). Chez les souris mutantes pour Xirp2, les stéréocils dégénèrent et des expansions de la membrane plasmique apparaissent au niveau de la surface apicale des cellules ciliées (Scheffer et al., 2015). Ces expansions ne contiennent ni actine ni microtubules et semblent être causées par une déformation de la plaque cuticulaire ou une perte des connexions entre la plaque cuticulaire et la membrane plasmique. 25 Nom Localisation ACF7 Myosine VI Myosine VIIa Plastine-1 Profiline Protocadherine 15 SNX9 Spectrine Stéréocils et racines des stéréocils Stéréocils, plaque cuticulaire Plaque cuticulaire Plaque cuticulaire (surface apicale et entre les stéréocils) Plaque cuticulaire (surface apicale) Plaque cuticulaire Stéréocils, plaque cuticulaire Stéréocils et plaque cuticulaire Plaque cuticulaire Stéréocils Plaque cuticulaire Plaque cuticulaire Tropomyosine XIRP2 Stéréocils et racines des stéréocils Stéréocils, plaque cuticulaire β-actine γ-actine FCHSD1 α-actinine Rôle Constituant des filaments d'actine Constituant des filaments d'actine Favorise l'activité de SNX9 Elasticité de la plaque cuticulaire Liaison avec les microtubules Liaison avec la membrane plasmique Traffic vésiculaire Fasciculation des filaments d'actine Séquestration de l'actine Trafic vésiculaire Polymérisation des filaments d'actine Fasciculation des filaments d'actine Liaison avec la membrane plasmique Rigidité de la plaque cuticulaire Stabilisation des filaments d'actine Liaison entre les filaments d'actine Tableau 2.1 : Les protéines de la plaque cuticulaire Figure 2.10 : Principaux constituants des stéreocils et de la plaque cuticulaire. Outre les filaments d'actine, les stéréocils et la plaque cuticulaire sont constitués de diverses protéines associées au cytosquelette. Une première population de microtubule forme un anneau autour de la plaque cuticulaire. Juste en-dessous, se trouvent les filaments d'actine qui constituent la bande circonférentielle. Une seconde population de microtubule en provenance du cytoplasme s'insère dans la plaque cuticulaire. 26 2.1.2. Physiologie de la cochlée Lors d'une stimulation acoustique, les ondes sonores se propagent le long de la membrane basilaire et de la membrane tectoriale (Lee et al., 2015), depuis la base jusqu'à l'apex de la cochlée (axe tonotopique). Ce faisant, le mouvement des membranes basilaire et tectoriale provoque la déflection des stéréocils des cellules ciliées, et par conséquent l'ouverture du canal mécanotransducteur. L'entrée de cations, principalement de potassium, dépolarise alors les cellules ciliées. L'activation des CCE se traduit par l'amplification des mouvements des membranes basilaire et tectoriale et participe ainsi à la sélectivité en fréquence. A noter, que les CCE amplifient les ondes sonores grâce à leur propriétés électomotiles (Zheng et al., 2000; Liberman et al., 2002; Ashmore, 2008; Johnson et al., 2011) et/ou la déflection du faisceau de stéréocils (Kennedy et al., 2005). L'activation des CCI provoque l'entrée de calcium, à travers des canaux calciques voltage-dépendants, qui induit la libération de glutamate, le neurotransmetteur des CCI, dans la fente synaptique. Le glutamate active ensuite les neurones afférents qui véhiculent les informations sonores jusqu'au noyau cochléaire, situé dans le tronc cérébral. Les messages nerveux reçus par le noyau cochléaire sont ensuite transmis, via de multiple relais, au cortex auditif qui analyse et interprète les informations sonores. Ainsi, la détection et la transmission de l'information sonore, au niveau périphérique, se décomposent en plusieurs étapes : 1) transfert et propagation de l'onde sonore le long de la cochlée, 2) amplification des ondes sonores par les CCE, 3) libération du neurotransmetteur par les CCI et 4) activation des neurones afférents. Les neuropathies auditives forment une classe de surdités qui se caractérisent par des potentiels évoqués auditifs désynchronisés voire 27 absents et des otoémissions acoustiques (témoins de l'activité des CCE) normales. Les neuropathies auditives peuvent donc être le résultat d'une altération des synapses à rubans (synaptopathie), des fibres auditives (neuropathie), de la gaine de myéline recouvrant les fibres auditives (myélinopathie) ou des CCI (cellulopathie) (Moser et al., 2013). L'étiologie de la neuropathie auditive est complexe et comprend des facteurs aussi bien génétiques qu'environnementaux. Certaines neuropathies auditives sont associées à d'autres pathologies (neuropathies auditives syndromiques) alors que d'autres ne sont associées à aucun autre déficit (neuropathies auditives non-syndromiques). 2.2. Synaptopathies auditives 2.2.1. Organisation de la synapse à ruban La synapse entre la CCI et le neurone afférent permet un codage temporel précis et soutenu sur de longues périodes de temps. Sur le plan anatomique et fonctionnel, elle diffère des synapses du système nerveux central. L'élément présynaptique dans la CCI possède une structure particulière, dense aux électrons, appelée le ruban synaptique (Nouvian et al., 2006). Celui-ci est ancré à la membrane plasmique et est entouré d'une monocouche de vésicules synaptiques (environ une centaine par ruban). La protéine Ribeye est, à ce jour, le seul constituant connu du ruban synaptique (Schmitz et al., 2000; Zenisek et al., 2003). Il y a un ruban par synapse dans les CCI adultes et entre 6 à 20 synapses par CCI (Bourien et al., 2014; Kujawa et Liberman, 2009; Meyer et al., 2009). A noter que parmi le nombre total de rubans contenus dans une 28 cellule, 5% sont localisés dans le cytoplasme (rubans flottants cytoplasmiques) et reflètent probablement le recyclage des rubans à la membrane. Cependant, les rubans synaptiques sont relativement immobiles sur plusieurs minutes (entre 0.35 to 13.5 nm/sec; Zenisek et al., 2004). Chaque zone active est connectée par la terminaison d'une seule fibre afférente du nerf auditif. La forme des rubans varie en fonction des espèces et de l'âge. Par exemple, les rubans des cellules vestibulaires de la grenouille sont ronds (diamètre 400 nm environ) ; à l'inverse, ils ont une forme ovoïde dans les CCI adultes de souris (diamètre 300, 200 et 50 nm). Dans les CCI immatures, il y a plusieurs rubans par synapse. Figure 2.8 : Transduction des cellules ciliées internes. La dépolarisation de la cellule ciliée interne, en réponse à une onde sonore, ouvre les canaux calciques (rouge), situés à proximité des zones actives. Ces dernières se caractérisent par un ruban synaptique (gris), ancré à la membrane plasmique et entouré d'un halo de vésicules synaptique. L'élévation de calcium intracellulaire (points rouges) provoque l'exocytose des vésicules synaptiques et la libération du glutamate dans la fente synaptique. L'activation des récepteurs au glutamate (vert) est associée aux courants excitateurs post-synaptiques. Le message nerveux est véhiculé jusqu'au noyau cochléaire du tronc cérébral via les neurones auditifs primaires (bleu foncé). Les CCI n'expriment pas les gènes codants pour les protéines SNARE neuronales, indispensables à la fusion vésiculaire dans les synapses du système nerveux (Nouvian et al., 2011). Ainsi, par exemple, les synaptotagmines I et II, utilisées comme détecteur calcique de la fusion vésiculaire dans la plupart des synapses du système nerveux ne sont pas exprimées dans les CCI. En revanche, la CCI exprime le gène OTOF qui code pour la protéine otoferline, essentielle à la fusion vésiculaire et/ou au réapprovisionnement des vésicules synaptiques aux sites de fusion (Yasunaga et al., 1999; Roux et al., 2006; Pangrsic et al., 2010). De même, le 29 remplissage des vésicules synaptiques, dans les neurones glutamatergiques, est assuré par les transporteurs VGlut1 ou VGlut2, alors que, dans les CCI, cette activité est assurée par le transporteur VGlut3 (Ruel et al., 2008; Seal et al., 2008). Enfin, l'entrée de calcium au niveau des zones actives est assurée par le canal CaV1.3, à l'inverse des canaux CaV2.1 et CaV2.2 généralement utilisée par les neurones, en raison de leur perméabilité au calcium plus importante (Platzer et al., 2000; Brandt et al., 2003). Une perturbation de l'activité synaptique dans les CCI résulte en une neuropathie auditive, qui peut être aussi appelée, dans ce cas-là, synaptopathie auditive. Figure 2.9 : Principaux constituants des synapses à ruban. Les rubans synaptiques contiennent RIBEYE, Ctbp1 (pour C-terminal binding protein 1), Piccolo et Rab 3 (Khimich et al., 2005). L'empilement de RIBEYE forme le ruban grâce aux multiples interactions RIBEYERIBEYE (Magupalli et al., 2008). Bassoon ancre les rubans à la membrane (Dick et al., 2003). Harmonine régule la distribution des canaux calciques (Gregory et al., 2011) formés par les sous-unités Cav1.3/β2 (Brandt et al., 2003), et dont l'inactivation est régulée par les membres de la famille CaBP (Cui et al., 2007). RBP (Rim Binding Protein) pourrait être responsable de l'association des canaux calciques avec les vésicules synaptiques (Hibino et al., 2002). Outre Vglut3 et otoferline, les CCI expriment d'autres protéines vésiculaires, à savoir Cystein-String Protein (CSP), Synaptogyrine, Rabconnectine et Rab3 (Eybalin et al., 2002). 30 2.2.2. La synaptopathie auditive DFNB9 Une mutation du gène OTOF conduit à la surdité non-syndromique DFNB9. Chez la plupart des patients, la surdité est sévère voire profonde et apparait dès les deux premières années de la vie (Chaib et al., 1996). Chez les autres patients, la surdité est dépendante de la température corporelle (Varga et al., 2006; Marlin et al., 2010). En effet, les patients en question ont une audition proche de la norme lorsque leurs températures corporelles est de 37°C mais manifestent une surdité profonde lors d'un effort physique ou lors d'un état fiévreux, par exemple. L'otoferline appartient à la famille des ferlines, au même titre que la dysferline et la myoferline, connues pour réguler des processus de fusion membranaire. A l'instar des synaptotagmines, les ferlines sont constituées de plusieurs domaines C2 qui fixent le calcium et se lient aux phospholipides. L'otoferline est localisée à proximité des vésicules synaptiques (Roux et al., 2006). A ce jour, 90 mutations du gène OTOF conduisant à la synaptopathie auditive DFNB9 ont été recensées (Yasunaga et al., 1999). La plupart d'entre elles sont des mutations non-sens ou des troncations. Les souris knock-out pour OTOF (OTOF-KO) présentent une surdité sévère (Roux et al., 2006; Pangrsic et al., 2010). Chez ces souris, les potentiels évoqués auditifs sont absents mais les otoémissions acoutiques sont conservées. Au niveau cellulaire, l'exocytose des CCI est abolit, malgré la présence de vésicule synaptique à proximité de la membrane plasmique. L'otoferline, dans les CCI, pourrait assurer un rôle semblable à celui des synaptotagmines I et II, à savoir la détection du calcium pour entrainer la fusion vésiculaire. La localisation de l'otoferline autour des vésicules synaptiques, sa structure, ses propriétés biochimiques et les conséquences de sa perte de fonction sur l'exocytose soutiennent cette hypothèse. Toutefois, l'expression forcée de la synaptotagmine I dans la CCI ne parvient pas à 31 restaurer l'exocytose (Reisinger et al., 2011). Mais ceci pourrait s'expliquer par l'absence des partenaires de la synaptotagmine I dans la CCI. Un autre modèle pour la surdité DFNB9 est la souris Pachanga chez laquelle le gène OTOF comporte une mutation faux-sens (Pangrsic et al., 2010). Chez ce modèle, la mutation conduit à une baisse du niveau de production d'otoferlin. Les CCI de la souris Pachanga sont capables de répondre à un stimulus sonore de courte durée. En revanche, l'exocytose est altérée lorsque la stimulation sonore perdure un certain temps. Ces résultats suggèrent un second rôle de l'otoferline dans le recyclage vésiculaire, à savoir favoriser le réapprovisionnement vésiculaire. Ainsi, l'otoferline, en interaction avec la protéine AP2, accélérerait la libération du glutamate afin de permettre une endocytose et un recyclage rapide des vésicules synaptiques (Duncker et al., 2013; Jung et al., 2015). Par ailleurs, plusieurs études suggèrent que la synaptotagmine I participerait elle aussi à l'endocytose des vésicules synaptiques (Poskanzer et al., 2003; Nicholson-Tomishima et Ryan, 2004). Enfin, les filaments tethers qui assurent la liaison des vésicules à la membrane plasmique sont anormalement petits en absence d'otoferline. Ce résultat suggère que l'otoferline participerait à la maturation des vésicules (amorçage) afin de les rendre compétentes pour l'étape de fusion vésiculaire. Bien que les fonctions exactes de l'otoferline restent encore à déterminer, les données actuelles mettent en évidence un ou plusieurs rôles (amorçage, fusion, répapprovissionnement), indispensable(s) de l'otoferline dans la communication synaptique. Alors que les mutations non-sens et les troncations abolissent totalement l'activité de l'otoferline et par là-même celle de la synapse, les mutations faux-sens peuvent conduire à un phénotype plus modéré avec une baisse du niveau d'expression du gène OTOF, une altération d'une ou plusieurs fonctions de l'Otoferline, ou une perturbation des interactions entre l'otoferline et ses partenaires. 32 Figure 2.10 : Ferlines et exocytose. (A) Les synaptotagmines possèdent 2 domaines C2 (C2A et C2B), qui fixent les phospholipides de manière dépendante au calcium et confèrent aux synaptotagmines leur rôle de détecteur calcique dans la fusion vésiculaire. (B) Les ferlines possèdent plusieurs domaines C2. Fer-1 est essentielle à la fusion vésiculaire dans les spermatides de C. elegans. Dysferline est requis pour la réparation des fibres musculaires, qui nécessite la fusion de vésicules à la membrane de façon dépendante au calcium. Myoferline est impliquée dans la fusion des myoblastes, à l'origine des muscles squelettiques. En revanche, les rôles de Fer1L4, Fer1L5 et Fer1L6 restent indéterminés (Han et Campbell, 2007). (C) Mesure de l'exocytose des cellules ciliées internes en patch-clamp. L'ouverture des canaux calciques et l'influx de calcium (ICa2+) évoqué par un saut de potentiel dépolarisant (Vm) se traduit en patch-clamp par un courant entrant calcique. Ce dernier provoque la fusion de vésicules synaptiques à la membrane plasmique, qui se traduit par un saut de capacité membranaire (Cm, indice de la surface plasmique). Chez les souris dont le gène OTOF, qui code otoferline, a été invalidé par recombinaison homologue (rouge), l'entrée de calcium n'évoque pas de saut de capacité membranaire, ce qui indique l'absence d'exocytose (Roux et al., 2006). 2.2.3. La synaptopathie auditive DFNA25 DFNA25 est une surdité non-syndromique. Elle se manifeste après l'acquisition du langage (surdité post-linguale) et progresse avec l'âge. Le déficit auditif touche uniquement les hautes fréquences. DFNA25 est causée par une mutation dominante dans le gène SLC7a8 qui code pour le transporteur VGlut3 (Greene et al., 2001; Ruel et al., 2008). Ce dernier assure l'entrée du glutamate dans les vésicules synaptiques. Tandis que les souris dont le gène Slc17a8 a été invalidé présentent une surdité sévère, la surdité observée chez les patients DFNA25 est progressive. Ces résultats indiquent que les souris sans Vglut3 ne reproduisent pas la surdité DFNA25 et appellent à l'étude d'un modèle murin porteur de la mutation humaine A211V. Si la morphologie des synapses ainsi que l'entrée de calcium et le cycle vésiculaire au niveau du ruban synaptique sont normaux, les neurones afférents n'émettent aucun potentiel 33 d'action. Le mécanisme moléculaire par lequel la mutation de SLC7a8 affecte la communication synaptique dans la surdité DFNA25 reste encore à déterminer. Il est fort probable qu'une baisse de production de VGlut3 fonctionnel soit à l'origine d'une concentration trop faible de glutamate dans les vésicules synaptiques. Le faible taux de neurotransmetteur dans la fente synaptique expliquerait alors l'absence d'activation des neurones afférents. Néanmoins, on ne peut pas exclure l'hypothèse d'une mutation gain-defonction qui entraînerait, au contraire, une concentration trop élevée de glutamate dans les vésicules synaptiques, conduisant ainsi à un phénomène d'exitotoxicité sur les neurones afférents. Figure 2.11 : Vglut3 est essentielle au transfert synaptique. (A) Schéma décrivant le rôle supposé de Vglut3 dans les cellules ciliées internes (CCI). Chez les souris sauvages, l'entrée de calcium (points rouges) provoque la fusion des vésicules à la membrane plasmique et la libération de glutamate (points bleus) dans la fente synaptique. Chez les souris Vglut3-/-, les vésicules fusionnent toujours à la membrane plasmique mais le glutamate n'est pas libéré. (B) Enregistrement en patchclamp des boutons terminaux des fibres afférentes de type I. L'application de KCl provoque la dépolarisation des CCI et par conséquent la libération de glutamate sur la fibre du nerf auditif. Cette exocytose se traduit par des courants post-synaptiques excitateurs qui sont bloqués par l'antagoniste NBQX. Chez les souris Vglut3-/-, aucun courant postsynaptique excitateur n'est détecté, ce qui reflète l'absence de glutamate intravésiculaire (Seal et al., 2008). (C) Potentiels évoquées auditifs (PEA) en réponse à une stimulation sonore (haut, aABR) et électrique (bas, eABR). Tandis que l'absence des PEA chez la souris Vglut3-/- reflète l'absence de glutamate libéré, la réponse à une stimulation électrique montre que les fibres du nerf auditif sont toujours fonctionnelles (Ruel et al., 2008). Modifié d'après Moser et Starr, 2016. 34 2.2.4. La synaptopathie auditive SAAND Le syndrome SAND (tachycardie ou bradychardie associée à une surdité) est du à une mutation perte-de-fonction du gène CACNA1D. Ce dernier code pour la sous-unité α1 qui forme le pore du canal CaV1.3. La mutation induit l'insertion d'une glycine additionnelle dans la séquence de la sous-unité α1, ce qui bloque la conduction des ions Ca2+ (Baig et al., 2011). La sous-unité α1 apparaît donc être importante pour l'activité synaptique des CCI. En accord avec cette conclusion, les souris KO pour le gène CACNA1D développent une surdité due à une perte de l'activité synaptique des CCI (Platzer et al., 2000). A ce jour, aucune surdité liée à une mutation des autres sous-unités du canal CaV1.3 n'est été découverte. Néanmoins, une étude a démontré que la mutation de la sous-unité auxiliaire β2, chez la souris, conduit à une absence d'influx calcique au niveau du ruban synaptique et à une perte d'audition (Neef et al., 2009). Figure 2.12 : Propriétés biophysiques du canal calcique Cav1.3 sauvages et muté dans le syndrome SAAND. (a) Courbe intensité-potentiel des courants calciques, induits par l'expression du canal Cav1.3 sauvage ou muté exprimé dans des cellules HEK. La forme mutée ne produit aucun courant détectable, à l'inverse de la forme sauvage. (b) Exemples de courants calciques sauvages (haut), muté (milieu) et contrôle (bas). Tandis que la forme sauvage entraine l'apparition d'un courant calcique entrant, la forme mutée se distingue seulement par des courants de type capacitif, ce qui reflète un changement de conformation du canal en réponse à une dépolarisation. La mutation n'altère dons pas l'adressage du canal à la membrane plasmique. En revanche, la mutation pourrait altérer l'ouverture du pore, ou bien empêcher le passage des ions calciques au travers du canal (Baig et al., 2011). 35 2.2.5. La synaptopathie auditive DFNB93 La surdité DFNB93 est associée à une mutation de la protéine CABP2 qui module l'activité du canal CaV1.3. Les rôles supposés des protéines CABP est d'abaisser le seuil d'activation des canaux calciques (Haeseleer et al., 2004) et de prévenir leur inactivation par par la calmoduline (Schrauwen et al., 2012). La mutation responsable de la surdité DFNB93 est à l'origine d'un épissage alternatif et par conséquent d'une troncation de CABP2. La protéine CABP2 tronquée ne possède plus de domaine de liaison avec les ions Ca2+ et est incapable d'entrer compétition avec la calmoduline. 2.2.6. La synaptopathie auditive due à l'exposition au bruit L'exposition au bruit est une cause majeure de surdité, qui peut être associé à une perte de synapse entre les CCI et les neurones afférents (Puel et al., 1991; Henry et Mulroy, 1995; Puel et al., 1998; Stamataki et al., 2006; Sergeyenko et al., 2013). Lors d'une surexposition sonore (trauma acoustique), la libération massive de glutamate entraine le gonflement et l'éclatement des terminaisons des fibres afférentes. Malgré la réparation fonctionnelle de ces dernières (Puel et al., 1995), les rubans synaptiques disparaissent progressivement, sans doute en raison de l'influx massif de calcium présynaptiquement lors du trauma acoustique. Ce faisant, l'exposition au bruit pourrait être un facteur déterminant dans les neuropathies auditives acquises. 36 Figure 2.13 : Diminution du nombre de synapse suite à un trauma acoustique. (A) les fibres afférentes (a) contactent la cellule ciliée interne au niveau des rubans synaptiques. (B) Suite à un trauma acoustique, les terminaisons des fibres afférentes gonflent puis éclatent, en raison d'une libération massive de glutamate. (C) Après le trauma acoustique, un certain nombre de rubans synaptiques dégénèrent, probablement à cause d'une entré massive d'ions Ca 2+ durant le trauma acoustique. Ainsi, le nombre de synapse par cellule ciliée interne se retrouve diminué. 2.3. Neuropathies auditives 2.3.1. Les neuropathies auditives associées aux mutations du gène OPA1 La perte d'audition est fréquente chez le syndrome de l'atrophie optique dominante causé par une mutation du gène optic atrophy 1 (OPA1) (Yu-Wai-Man et al., 2010; Santarelli et al., 2015). La protéine OPA1 est une GTPase mitochondriale qui régule la structure de la 37 mitochondrie (Alexander et al., 2000; Delettre et al., 2000). La majorité des 200 mutations connues du gène OPA1 résulte en une troncation de la protéine et cause des atrophies optiques non-syndromique (Ferre et al., 2009). Les mutations non-sens, quant à elles, induisent probablement un effet dominant négatif, et sont responsables, dans 60% des cas, du syndrome de l'atrophie optique dominante qui associe cécité, surdité, neuropathie sensori-motrice, myopathie et ataxie (Yu-Wai-Man et al., 2010). Les analyses électrophysiologiques, réalisées chez les patients atteints de ce syndrome, révèlent un fonctionnement normal des CCE et des CCI mais une diminution de l'activité des neurones afférents (Santarelli et al., 2015). Les résultats favorisent l'hypothèse d'une dégénérescence des fibres auditives. Les souris OPA1DelTTAG, portant la mutation du gène OPA1 la plus fréquemment rencontrée chez l'homme, développent un syndrome d'atrophie optique dominante associant cécité, surdité progressive, encéphalomyopathie, ataxie, neuropathie périphérique et cardiomyopathie (Sarzi et al., 2012). Chez les souris OPA1DelTTAG, les fibres des nerfs optique et sciatique meurent par autophagie. Bien que les fibres auditives n'aient pas été observées, il est fort probable que ce processus se produise également dans le nerf auditif des souris OPA1DelTTAG. Ainsi, les analyses cliniques et les études réalisées sur modèle animal suggèrent une dégénérescence des fibres auditives chez le syndrome de l'atrophie optique dominante. 2.3.2. La neuropathie auditive AUNX1 La neuropathie auditive AUNX1 est caractérisée par une perte d'audition progressive, touchant surtout les basses fréquences (Wang et al., 2003; Wang et al., 2006). Le déficit auditif apparaît durant l'adolescence et s'accompagne, plusieurs mois ou années plus tard, de neuropathies sensitives. Les IRM des patients révèlent une hypoplasie du nerf auditif. 38 AUNX1 est causée par une mutation du gène Apoptosis-inducing Factor 1 (AIFM1), situé sur le chromosome X (Zong et al., 2015). AIFM1 est une flavoprotéine localisée dans l'espace intermembranaire de la mitochondrie. Elle est à la fois un facteur d'apoptose et une enzyme de type oxydoréductase (Hangen et al., 2010; Norberg et al., 2010; Polster, 2013). En présence de stimuli apoptotiques, AIFM1 se délocalise dans le noyau et induit un programme d'apoptose indépendant des caspases. Par ailleurs, grâce à son activité oxydoréductase et à ses interactions avec d'autres protéines mitochondriales, elle participe à l'activité de la chaîne respiratoire et régule la morphologie de la mitochondrie. Les diverses mutations responsables de la neuropathie AUNX1 affectent l'activité oxydoréductase d'AIFM1. Des examens histologiques réalisés chez la souris montrent une expression d'AIFM1 dans les deux populations de cellules ciliées ainsi que dans les neurones afférents. Les mécanismes moléculaires impliqués dans AUNX1 n'ont pas encore été étudiés. L'hypoplasie du nerf auditif observée chez les patients suggère une atteinte des fibres auditives. 2.4. Myélinopathies auditives 2.4.1. Les myélinopathies auditives associées aux neuropathies sensorimotrices Plusieurs neuropathies sensorimotrices de cause génétique sont accompagnées de neuropathie auditive. La maladie de Charcot-Marie-Tooth de type 1a, par exemple, est causée par une duplication du gène PMP22 et est à l'origine d'une neuropathie auditive (Kovach et al., 2002; Verhagen et al., 2005; Rance et Starr, 2015). Un autre exemple est celui de la neuropathie causée par une mutation du gène MPZ exprimé dans les cellules de Schwann et 39 codant pour la protéine Myelin Point Zero (Starr et al., 2003; Kabzinska et al., 2007). Des examens réalisés sur le nerf auditif d'un patient révèlent une démyélinisation et une perte des fibres auditives. 2.5. Cellulopathies auditives 2.5.1. La cellulopathie auditive chez le bébé prématuré La neuropathie auditive est particulièrement répandue chez les bébés prématurés (Kirkim et al., 2008). En effet, la probabilité pour un bébé prématuré de développer une neuropathie auditive est de 1 sur 50 alors que pour un bébé né à terme, elle est de 1 sur 1000 (Schulman-Galambos and Galambos, 1979). Le soin intensif et l'hyperbilirubinémie font partie des facteurs de risques. Les examens post-mortem révèlent chez les bébés prématurés atteints de neuropathie auditive un nombre normal de neurones afférents et une perte sélective des cellules ciliées internes (Amatuzzi et al., 2001). L'action de la bilirubine sur la cochlée est encore inconnue. Les principales hypothèses portent sur un effet toxique de l'oxyde nitrique sur l'élément présynaptique (Haustein et al., 2010) et une modification de l'homéostasie calcique (Spencer et al., 2002). 2.5.2. La cellulopathie auditive due à une carence en thiamine Une carence en thiamine (vitamine B1) est responsable de neuropathie auditive chez l'enfant (Attias et al., 2012). Les effets de la thiamine sur le système auditif ont été étudiés à 40 partir d'un modèle murin knock-out pour le gène Slc19a2 qui code pour un transporteur de la thiamine. Une de ces études démontre une perte rapide et massive des CCI induit par une alimentation pauvre en thiamine (Liberman et al., 2006). Cependant, la perte auditive est observée avant la dégénérescence des CCI (Oishi et al., 2002). De plus, chez les enfants ayant une carence en thiamine, la surdité est de nature transitoire et ne peut donc pas être due à une perte de CCI. Il semblerait donc que la carence de thiamine affecte d'abord l'activité des CCI avant d'induire leur perte. Des études supplémentaires sont donc nécessaires pour comprendre les effets exacts de la carence en thiamine sur les CCI. 2.5.3. La cellulopathie auditive AUNA1 AUNA1 est une neuropathie auditive génétique décrite pour la première fois chez une famille nord-américaine (Starr et al., 2004). Plusieurs membres de cette famille développent, en effet, une surdité associée à une activité normale des CCE. La transmission est dominante. La surdité semble apparaître au cours de l'adolescence et progresse sur 20 ans jusqu'à la perte totale de l'audition. Chez les sujets les plus âgés, la surdité est accompagnée d'une perte d'activité des CCE, reflétant probablement un effet du vieillissement. La neuropathie auditive AUNA1 est causée par une mutation dans le locus du gène Diaphanous homolog 3 (DIAPH3) (Schoen et al., 2010). Cette mutation est située, plus précisément, dans la région 5' non codante de DIAPH3. Elle correspond à une substitution de nucléotide dans l'élément « GC Box », un site de fixation pour les facteurs de transcription. La mutation induit une surexpression de DIAPH3. La quantification d'ARNm révèle, en effet, un niveau d'expression de DIAPH3 multiplié par 2 ou 3 dans les lymphoblastes des sujets atteints. La protéine DIAPH3 appartient à la famille des formines, des protéines ubiquitaires contrôlées par les 41 Rho-GTPases et impliquées dans la régulation du cytosquelette (Bartolini et Gundersen, 2010; Kuhn et Geyer, 2014). DIAPH3 favorise la nucléation et l'élongation des filaments d'actine et stabilise les microtubules. Figure 2.14 : Structure de la protéine DIAPH3. DIAPH3 est constitutivement inactive du fait de l'intéraction entre ses deux domaines auto-inhibiteurs GPTase Binding Domain (GBD) et Diaphanous autoregulatory domain (D). La liaison d'une RhoGTPase au domaine GBD induit l'activation de DIAPH3. DIAPH3 se lie aux filaments d'actine et aux microtubules via son domaine FH2. Le domaine FH1 se lie à la profiline, une protéine qui séquestre les monomères d'actine. Pour étudier la neuropathie auditive AUNA1, l'équipe du Dr Lesperance a généré un modèle murin transgénique surexprimant Diap3, l'orthologue murin de DIAPH3 (Schoen et al., 2013). Le transgène est composé d'un élément enhancer CMV (CytoMégaloVirus), d'un promoteur du gène β-actine de poulet et de la séquence codante du gène Diap3, le gène murin orthologue de DIAPH3. La combinaison de l'élément enhancer CMV et du promoteur β-actine de poulet permet une expression ubiquitaire et soutenue du gène Diap3. De cette manière, les souris transgéniques (Diap3-Tg) surexpriment Diap3. Parmi les différentes lignées Diap3-Tg ainsi obtenues, deux lignées développent une perte d'audition : la lignée FVB-Tg(CAGDiap3)924Lesp/J et la lignée FVB-Tg(CAG-Diap3)771Lesp. Elles seront ici renommées respectivement lignées Tg 924 et Tg 771. Le nombre de copies du transgène diffère entre les 42 deux lignées : la lignée Tg 924 comporte six copies du transgène alors que celui de la lignée Tg 771 en comporte huit. Schoen et al. ont montré dans ces deux lignées une surdité progressive associée à une activité normale des CCE, confirmant ainsi que le modèle murin reproduit la neuropathie auditive humaine AUNA1. Le nombre de synapses par CCI diminue progressivement. Cependant, cette perte synaptique se produit après l'apparition de la surdité et ne peut donc pas être considérée comme la cause de celle-ci. En revanche, l'observation des CCI en microscopie électronique révèle un gonflement du pôle apical et une fusion des stéréocils visibles dès les premières pertes d'audition. Le faisceau de stéréocils des CCI est le siège de la mécanotransduction, processus qui transforme les ondes sonores en signaux électriques. Il est ainsi fort probable que les déformations observées au pôle apical des CCI soient à l'origine d'une perte de la mécanotransduction et par conséquent de la neuropathie auditive AUNA1. 43 3. Matériel et méthodes 44 3.1. Animaux Les deux lignées murines Tg 924 et Tg 771 nous ont été gracieusement données par Marci Lesperance (University of Michigan Health System, Ann Arbor, MI, Etats-Unis). Les souris FVB/NJ sauvages ont été fournies par Janvier Labs. Les animaux ont été recueillis au sein de l'animalerie de l'Institut des Neurosciences de Montpellier. Leur hébergement et leur utilisation ont respectés le guide de bonne pratique de l'Institut National de la Santé et de la Recherche Médicale (INSERM). Le protocole d'expérimentation a été approuvé par le Ministère de l'Enseignement Supérieur et de la Recherche et il a été enregistré auprès du Comité National de Réflexion Ethique sur l'Expérimenation Animale sous le numéro 36 et auprès du Comité d'Ethique pour l'Expérimentation Animale Languedoc-Roussillon sous la référence CEEA-LR-12111. 45 3.2. Tampons et solutions Génotypage Tampon de lyse 100 mM Tris-HCl ; pH 7,6 200 mM NaCl 5 mM EDTA 0,2% SDS Immunomarquage Tampon de lavage PBS 1X 0,1% triton X-100 Tampon de blocage PBS 1X 10% Sérum d'âne 0,3% triton X-100 Solution d'incubation PBS 1X 1% Sérum d'âne 0,1% triton X-100 Extraction protéique et Western Blot Tampon de lyse pH 7,6 20 mM Tris-HCl ; 100 mM NaCl 5 mM EDTA 1% Triton X-100 1 mM Phenylmethylsulfonyl fluoride (PMSF) 1X cOmpleteTM Protease Inhibitor Cocktail (Sigma-Aldrich) Tampon de lavage Tris-buffered saline (TBS) 1X 0,1% Tween-20 Tampon de blocage TBS 1X 0,1% Tween-20 3% Lait 46 3.3. Anticorps Nom (fournisseur) CtBP2 (BD Transduction Laboratories) GluA2/3 (Millipore) Spectrine (Millipore) β1-tubuline (Novus Biologicals) β2-tubuline (Novus Biologicals) β4-tubuline (Abcam) α-tubuline-acétylée (Abcam) α-tubuline-détyrosinée (Abcam) α1-tubuline (Novus Biologicals) Amphiphysine (Novus Biological) GFP (Abcam) Diap3 (Eurogentec) (*) Dilution (Immunomarquages) 1/1000 1:50 1:400 1:10 1:500 1:200 1:500 1:500 1/500 1/200 1/200 Dilution (Western Blot) 1/5 000 1/10 000 1 /20 000 (*) L'anticorps anti-Diap3 est dirigé contre un motif spécifique de la protéine Diap3 murine (acide aminés 94-105 ; LSSETMENNPKA ) 3.4. Génotypage L'ADN a été extrait à partir de biopsie (doigt ou de bout de queue) prélevés sur les souris. Chaque échantillon a été digéré sur la nuit à 55°C dans 300μL de tampon de lyse contenant 100 μg/mL de protéinase K (Promega). Ils ont ensuite été centrifugés à 13 000 rpm pendant 5 min. Le surnageant a été récupéré et l'ADN a été précipité par ajout de 500μL d'isopropanol. Les échantillons ont à nouveau été centrifugés à 13 000 rpm pendant 10 min. Le surnageant a été jeté et l'ADN lavé avec 500 μL d'éthanol 70%. Les échantillons ont été vortexés et centrifugés à 13 000 rpm pendant 5 min. Après évaporation de l'éthanol, le culot a été resuspendu dans 100 μL d'eau distillée. La réaction de PCR a été préparée à partir de la solution « FastStart PCR Master Mix » (Roche), 0,2 μM d'amorce "Diap3-geno-Fwd" (5'-TGG TTA TTG TGC TGT CTC ATC A-3') et 0,2 μM d'amorce "Diap3-geno-Rev" (5'-TTG TCC AGC ATA TCA TCT GTC A- 3'). 1 μL d'échantillon à tester a été ajouté à 9μL du mélange et le tout a été incubé dans un 47 thermocycleur. Le programme de PCR utilisé était le suivant : 1) 10 min à 95°C ; 2) 40 cycles de 45 sec à 95°C, 40 sec à 62°C et 1 min à 72°C ; 3) 7 min à 72°C. Les échantillons ont ensuite été déposés sur un gel d'agarose 2% contenant du bromure d'éthidium. Après migration, les fragments amplifiés d'ADN ont été révélé par exposition aux UV. Le morceau de transgène amplifié par le couple d'amorce était reconnaissable par sa taille de 300 paires de bases (bp). 527 528 529 530 531 532 533 (Tg) (Tg) (Tg) (WT) (WT) (WT) (Tg) 400 bp 300 bp 200 bp Figure 3.1 : Exemple d'un résultat de génotypage. Ici, les souris numéros n°527 à 533 ont été génotypées. Les fragments d'ADN de 300 pb visibles sur le gel est le résultat de l'amplification d'une partie du transgène par la réaction de PCR. Les souris n°527, 528, 529 et 533 sont donc transgéniques (Tg) et les souris n°530, 531 et 532 sauvages (WT). 3.5. Enregistrements in-vivo Les souris ont été anesthésiées par une injection intra-péritonéale d'un mélange de Zolétil 50 (40 mg/Kg) et de Rompun 2% (3 mg/Kg), puis placées dans une chambre insonorisée, anéchoïque et faradisée. Leur température corporelle a été maintenue à 37°C grâce à une couverture chauffante régulée par une sonde rectale (Homeothermic Blanket Systems – Harvard Apparatus). 48 3.5.1. Enregistrements des Potentiels évoqués auditifs (PEA) L'audition des souris a été analysée à partir de l'enregistrement des PEA qui reflètent l'activité de la voie auditive ascendante en réponse à un stimulus sonore. Les PEA sont caractérisés par plusieurs ondes dont chacune reflète l'activité d'un relai ou d'un noyau le long de la voie auditive ascendante : l'onde I reflète l'activité du nerf auditif, l'onde II celle du noyau cochléaire, l'onde III celle du noyau olive supérieur, l'onde IV celle du lemniscus latéral et l'onde V celle du noyau colliculus inférieur. Deux électrodes ont été posées en sous-cutané sur les souris anesthésiées : l'une sur le vertex et l'autre sur la mastoïde gauche. Un haut-parleur (JBL 2426H) a été placé à 10,5 cm de l'oreille gauche. La différence de potentiel détectée entre les deux électrodes, en présence d'un stimulus sonore émis par le haut-parleur, correspond aux PEA. Ceux-ci ont d'abord été amplifiés 2500 fois (par un amplificateur P511 AC – Grass Technologies), puis échantillonnés (avec une fréquence de 50 kHz), enregistrés sur ordinateur (Dell T7 400) grâce à une carte d'acquisition NI PXI-1033 (National Instruments), filtrés avec un filtre bande-passante de 0,3 à 3 kHz et enfin moyennés (entre 150 et 1000 moyennages). La génération des stimuli et l'acquisition des données ont été réalisées grâce aux logiciels MATLAB (MathWorks) et LabView (National Instruments). 3.5.2. Enregistrements des produits de distorsion acoustiques L'amplification des ondes sonores par les CCE est imparfaite et résulte en une dénaturation du stimulus sonore. Ce son dénaturé est composé de fréquences sonores additionnelles appelées produits de distorsions. L'étude de ces produits de distorsion permet 49 donc d'analyser l'activité des CCE. Pour cela, on émet un stimulus sonore composé de deux fréquences f1 et f2 suffisamment proches, et on étudie le produit de distorsion le plus ample généré par les CCE qui est la fréquence 2f1-f2 (Puel et al., 1995). Une sonde ER-10C S/N 2528 (Etymotic Research), constituée de 2 émetteurs et d'un microphone, a été insérée dans le conduit auditif des souris anesthésiées. Les deux sons purs de fréquence f1 et f2 et d'une intensité de 65 dB SPL étaient délivrés par les émetteurs et la fréquence 2f1-f2 était enregistrée simultanément par le microphone. Les données ont été traitées avec le logiciel HearID auditory diagnostic system (Mimosa Acoustic). Le bruit de fond de la chambre insonorisée a également été enregistré. Toutes les ondes sonores d'une intensité inférieure à celle du bruit de fond n'ont pas été prises en compte dans l'analyse. 3.5.3. Electrococléographie L'électrocochléographie est une méthode qui permet d'enregistrer le potentiel d'action composite (PAC) qui reflète la décharge synchrone des neurones afférents, le potentiel de sommation (PS) qui reflète l'activité des CCI et le potentiel microphonique (PM) qui reflète l'activité des CCE, en réponse à un stimulus sonore. Une électrode d'argent a été posée sur la fenêtre ronde de la cochlée gauche des souris anesthésiées. Un haut-parleur (JBL 2426H) a été placé à proximité de l'oreille gauche. Le potentiel détecté par l'électrode, en présence d'un stimulus sonore émis par le haut-parleur, est le potentiel cochléaire global. Celui-ci a été traité de la même manière que les PEA mais filtrés cette fois-ci avec un filtre bande-passante de 0,001 à 20 kHz. Grâce au logiciel MATLAB, le potentiel cochléaire global a été filtré avec un filtre passe-bas de 3,5 kHz afin d'isoler le PAC le PS, ou un filtre passe-bande de 4 kHz afin d'isoler le PM. 50 3.6. Patch-clamp et patch perforé L'enregistrement des courants potassiques, du potentiel de membrane et des courants calciques a été réalisé par la technique de patch-clamp en configuration cellule entière. L'enregistrement de la capacité membranaire a été réalisé par la technique de patch perforé. Les pipettes de verre utilisées ont été obtenues par l'étirement de capillaires de verre en borosilicate (Kwik Fil, WPI) à l'aide d'une étireuse verticale PIP6 (HEKA). Les pipettes utilisées pour les enregistrements de courant ionique ont été préalablement recouvertes à leurs extrémités d'un polymère hydrophobe non conducteur (Sylgard). Après dislocation cervicale des souris, les cochlées ont été prélevées et disséquées dans la solution de dissection. Les organes de Corti ont été isolés et placés dans une chambre contenant une solution extracellulaire de composition variable selon l'expérience, sous un microscope droit Zeiss. Les CCE et les cellules de soutien ont été aspirées à l'aide d'une pipette de verre. Enfin, la pipette utilisée pour l'enregistrement, contenant une solution interne, de composition également variable selon l'expérience, a été apposée sur la CCI. 3.6.1. Enregistrement des courants potassiques et du potentiel de membrane La solution extracellulaire utilisée contenait : 5,8 mM KCl, 144 mM NaCl, 0,9 mM MgCl2-6H2O, 1,3 mM CaCl2, 10 mM HEPES et 10 mM D_Glucose. La solution interne contenait : 135 mM KCl, 1 mM MgCl2-6H2O, 10 mM HEPES, 2 mM Mg-ATP et 0,3 mM Na-GTP. Les courants enregistrés ont été échantillonnés avec une fréquence de 50 kHz et filtrés avec un filtre passe-bas de 5 kHz. 51 3.6.2 Enregistrement des courants calciques et de la capacité membranaire Pour l'enregistrement des courants calciques et de la capacité membranaire, les canaux potassiques ont été bloqués avec du Césium (Cs-glutamate), du tétraethylammonium (TEA) et de la 4-amino-pyridine (4-AP). La solution extracellulaire contenait : 2,8 mM KCl, 105 mM NaCl, 1 mM MgCl2-6H2O, 2 mM CaCl2, 10 mM HEPES, 35 mM TEA-Cl, 1 mM Cs-Cl et 10 mM D_Glucose. La solution interne utilisée pour l'enregistrement des courant calcique contenait : 135 mM Cs-glutamate, 10 mM TEA-Cl, 10 mM 4-AP, 1 mM MgCl2-6H2O, 10 mM HEPES, 2 mM Mg-ATP et 0,3 mM Na-GTP. Les courants enregistrés ont été filtrés avec un filtre passe-bas de 2 kHz et échantillonnés avec une fréquence de 40 kHz. La solution interne utilisée pour l'enregistrement de la capacité membranaire contenait : 135 Mm Cs-glutamate, 10 mM TEA-Cl, 10 mM 4-AP, 1 mM MgCl2-6H2O et 10 mM HEPES. Pour perforer la membrane, 400 μg/mL d'amphotéricine B fur ajouté à la solution interne. Les courants enregistrés ont été filtrés avec un filtre passe-bas de 2 kHz et échantillonnés avec une fréquence de 10 kHz. 52 3.7. Microscopie électronique 3.7.1 Préparation des cochlées Après dislocation cervicale des souris, les cochlées ont été prélevées et rincées brièvement dans un tampon phosphate (0,1 M ; pH 7,4). Elles ont ensuite été fixées par une injection intracochléaire de glutaraldéhyde 2,5% diluée dans le tampon phosphate puis par une incubation d'une heure à température ambiante dans le même fixateur. Elles ont ensuite été rincées à nouveau dans le tampon phosphate. 3.7.2 Microscopie électronique à balayage Les cochlées ont été disséquées dans le tampon phosphate. Afin de permettre l'observation de la surface de l'organe de Corti, une large ouverture a été réalisée dans la paroi osseuse, la strie vasculaire ainsi que les membranes de Reissner et tectoriale ont été retirées. Les cochlées ont ensuite été déshydratées par une série de bains dans une solution d'alcool de concentration croissante (de 30% à 100%). Une déshydratation finale a été réalisée dans du CO2 portée à son point critique (31°C ; 74 bars). Une fine couche d'orpalladium de 40 nm a été déposée sur les cochlées afin de les rendre conductrice. Les cochlées ont ensuite été scellées sur un plot métallique avec de la colle argentique et observées avec un microscope électronique à balayage Hitachi S4000. 53 3.7.2 Microscopie électronique à transmission Les cochlées ont été post-fixées par perfusion intracochléaire d'une solution d'acide osmique 2% diluée dans le tampon phosphate puis par incubation d'une heure dans cette même solution. Elles ont ensuite été rincées dans le tampon phosphate, déshydratées dans une solution d'alcool de concentration croissante (de 30% à 100%), enrobées dans une résine (EMBed 812) et chauffées à 60°C pendant 36h pour permettre la polymérisation de la résine. Les blocs de résine ont ensuite été scindés en deux avec une mini-scie circulaire suivant un axe verticale passant par le modiolus. Les demi-tours de cochlées obtenues ont été isolées et des portions de l'organe de Corti, sélectionnées à différents niveaux entre la base et l'apex, ont été collés sur un support de résine suivant la technique de (Spoendlin et Brun, 1974). Des coupes semi-fines (1 μm) et ultrafines (10 nm) ont été réalisées avec un ultramicrotome (Leica-Reichert Ultracut S). L'orientation de l'organe de Corti a été déterminée sur les coupes semi-fines colorées au bleu de toluidine observées en microscopie photonique. Les coupes ultrafines, contrastées avec de l'acétate d'uranyl et du citrate de plomb, ont été observées avec un microscope électronique à transmission Hitachi 7100. 3.8. Immunomarquages Les souris ont été sacrifiées par dislocation cervicale. Les cochlées ont été prélevées et placées dans une solution de PBS. Des trous ont été percés à l'apex ainsi qu'au niveau des fenêtres rondes et ovales pour permettre la diffusion du fixateur. Les cochlées ont été fixées par une solution de PFA 4% diluée dans du PBS durant 30 minutes puis rincées avec 3 bains successifs de 10 minutes dans la solution de lavage. Les cochlées ont été ensuite disséquées 54 dans la solution de lavage. Les tours apicaux des organes de Corti ont été extraits et incubés dans la solution de blocage. Durant l'étape de blocage, les tissus ont été recouverts de protéines qui ont retenu les fixations aspécifiques du/des anticorps primaire(s). Les organes de Corti ont ensuite été incubés sur la nuit à 4°C dans la solution d'incubation contenant le ou les anticorps primaire(s). Les tissus ont été rincés 5x5 min dans le tampon de lavage. Cette étape a permis d'éliminer les protéines ajoutées qui retenaient les fixations aspécifiques de l'anticorps. Ils ont ensuite été incubés 2 heures dans la solution d'incubation contenant le/les anticorps secondaire(s) couplés avec des fluorophores, la phalloïdine et/ou le colorant Hoechst. Ils ont été à nouveaux rincés 5x5 min puis montés entre lame et lamelle dans une solution de montage (Prolong Gold Antifade Reagent - Fisher scientific). Les échantillons ont été observés avec le microscope confocal Zeiss LSM780 ou Leica SP8-UV de la plateforme Montpellier RIO Imaging. Les séries d'images ont été analysées avec les logiciels ImageJ (Wayne Rasband, National Institutes of Health, USA) et, pour le comptage des synapses, MATLAB. 3.9. Test de la spécificité de l'anticorps anti-Diap3 La spécificité de l'anticorps anti-Diap3 a été testée en western blot sur des extraits protéiques de cellules rénales embryonnaires humaines 293 (HEK) surexprimant les protéines Diap1, Diap2 ou Diap3 fusionnées avec la GFP. 3.9.1. Culture des cellules HEK La lignée de cellules HEK a été maintenu dans un milieu de culture DMEM/F12 (life technologies, Carlsbad, CA, USA) supplémenté avec 10% de sérum foetal bovin (Gibco, 55 Carlsbad, CA, USA) et 1% de mélange Pénicilline/Streptomycine (Sigma-Aldrich, St Louis, MO, USA), dans un incubateur à CO2 (5% CO2 ; 37°C). 3.9.2. Plasmides Les plasmides utilisés pour induire la surexpression des protéines Diap-GFP dans les cellules HEK étaient : pReceiver-M03-Diap1 (Genecopoeia, Rockville, MD, USA), pEGFP-C3-Diap2 et pEFmEGFP-Diap3 (Addgene, Cambridge, MA, USA). Pour construire le plasmide pEGFP-C3-Diap2, la séquence codante du gène Diap2 a été sous-clonée à partir du plasmide donneur pCMV6-Ac-GFP-Diap2 (Origene, Rockville, MD, USA) dans le plasmide receveur pEGFP-C3 (Takara, Kyoto, Japan) grâce à l'utilisation du kit In-Fusion® HD Cloning Kit (Takara, Kyoto, Japan). Pour cela, la séquence codante du gène Diap2 a été amplifiée à partir du plasmide donneur avec les oligonucléotides suivants : Diap2-PEGFP-3-F (5'-GTACTCAGATCTCGAGATGGAGGAGCTCGGGG-3') et Diap2-PEGFP-2-R (5'-TAG ATCCGGTGGATCCTTGGATGACATGGCTCCATTG-3'). Le plasmide receveur a été digéré avec les enzymes de restriction XhoI et BamHI. Le sous-clonage a été réalisé selon le protocole fourni par Takara. 3.9.3. Transfection et extraction des protéines Environ 500 000 cellules HEK ont été déposées dans chaque puits d'une plaque 6-puits. 16 heures plus tard, la confluence des cellules était comprise entre 60% et 80%. Dans chaque puits, les cellules HEK ont été transfectées avec 6μg de plasmide grâce à 12μL de Lipofectamine 2000 (Invitrogen, Carlsbad, CA, USA), suivant le protocole fourni par Invritogen. 48 heures après la transfection, les cellules HEK ont été lysées avec le tampon de 56 lyse. Les lysats ont été récupérés et placés 2 heures sur une roue tournante à 4°C. Les échantillons ont été ensuite centrifugés 20 min à 13 200 rpm, à 4°C. Les surnageants ont été récupérés et placés à -80°C. La concentration en protéines des échantillons a été déterminée grâce à l'utilisation du kit PierceTM BCA Protein Assay Kit (Thermo Scientific, Rockford, IL, USA), suivant le protocole fourni. 3.9.4. Western Blot Chaque échantillon a été préparé à partir de 20 μg de protéine mélangés avec le tampon de charge (Bio-Rad, Hercules, CA, USA) et 0.05% de β-mercaptoéthanol (SigmaAldrich, St Louis, MO, USA). Les échantillons ont été préalablement chauffés 5 min à 95°C pour permettre la dénaturation des protéines par le β-mercaptoéthanol. Ils ont ensuite été déposés sur un gel de polyacrylamide 10% (Bio-Rad, Hercules, CA, USA). Après migration, les protéines ont été transférées sur des membranes de nitrocellulose (Bio-Rad, Hercules, CA, USA). Les membranes ont été brièvement nettoyées avec le tampon de lavage et incubées 1 heure dans le tampon de blocage. Les anticorps primaires ont ensuite été ajoutés dans le tampon de blocage et les membranes ont été placées à 4°C pendant la nuit. Les membranes ont été ensuite lavées 5x5 min avec le tampon de lavage. Puis, elles ont été incubées 2 heures dans le tampon de blocage contenant les anticorps secondaires couplées à la peroxydase. Après un dernier lavage de 5x5 min avec le tampon de lavage, les membranes ont été incubées entre 1 et 5 min dans une solution ECL (Bio-Rad, Hercules, CA, USA). Les marquages ont été révélés par exposition aux UV dans une cabine ChemiDocTM MP System (Bio-Rad, Hercules, CA, USA). 57 4. Résultats 58 4.1. Les souris Diap3-Tg miment la neuropathie auditive AUNA1 Afin de savoir si notre modèle réplique la neuropathie auditive AUNA1, nous avons tout d'abord mesuré les potentiels évoqués auditifs qui reflètent l'activitée de la voie auditive ascendante. Chez les souris sauvages, les potentiels évoqués auditifs se caractérisent par cinq ondes dont chacune représente l'activité synchrone d'un relais le long de la voie auditive ascendante (voir paragraphe 3.5.1). Chez les souris Diap3-Tg, on observe une diminution progressive de l'amplitude des potentiels évoqués auditifs (Fig. 4.1A,D) ainsi qu'une élévation des seuils auditifs (Fig. 4.1.B,E). A noter que la lignée Tg 771 présente un déficit auditif plus précoce. Nous avons ensuite testé les produits de distorsions acoustiques, indice de l'activité des cellules ciliées externes (CCE). Dans nos expériences, les deux lignées de souris transgéniques montrent des produits de distorsions acoustiques de forte amplitude (Fig. 4.1C,F). Cependant, on note une légère diminution de l'amplitude des produits de distorsions acoustiques chez la lignée Tg 771. L'ensemble de ces résultats montre donc que les souris Diap3-Tg présentent les manifestations d'une neuropathie auditive, à savoir une altération du transfert de l'information sonore avec un fonctionnement normal des CCE. 59 Figure 4.1 : Les souris Diap3-Tg développent une neuropathie auditive progressive. (A, D) Potentiels évoqués auditifs enregistrés chez les souris sauvages (A,D), Tg 924 (A) et Tg 771 (D), en présence d'un stimulus sonore de 16 kHz, à 80 dB SPL. (B, E) Audiogrammes des souris sauvages (B,E), Tg 924 (B) et Tg 771 (E). (C, F) Produits de distorsion acoustiques enregistrés chez les souris sauvages (C,F), Tg 924 (C) et Tg 771 (F) (les chiffres notés en rouge correspondent à l'âge des souris en mois ; *p < 0,05 ; **p < 0,01). 4.2. Perte d'activité des CCI chez les souris Diap3-Tg Afin de déterminer les structures responsables de la surdité observée chez les souris Diap3-Tg, nous avons mesuré l'activité électrique de la cochlée en électrocochléographie. Nos résultats montrent une diminution de l'amplitude du potentiel d'action composite, qui reflète l'activité synchrone des fibres du nerf auditif, et du potentiel de sommation, qui reflète l'activité des CCI (Fig. 4.2A,C,D). En revanche, le potentiel microphonique, qui reflète l'activité des CCE, n'est pas altéré, en accord avec la présence des produits de distorsions (Fig. 42B,E). Ces résultats démontrent donc une atteinte fonctionnelle des CCI chez les souris Diap3-Tg. 60 Figure 4.2. : Perte d'activité des CCI chez les souris Diap3-Tg. (A) Potentiel d'action composite (CAP) et potentiel de sommation (SP) enregistrés chez les souris sauvages, Tg 924 et Tg 771, en présence d'un stimulus sonore de 16 kHz à 80 dB SPL. (B) Potentiel microphonique (CM) enregistré chez les souris sauvages, Tg 924 et Tg 771, en présence d'un stimulus sonore de 16 kHz à 80 dB SPL. (C) Amplitude moyenne du potentiel d'action composite. (D) Amplitude moyenne du potentiel de sommation. (E) Amplitude moyenne du potentiel microphonique. 61 4.3. L'activité synaptique des CCI des souris Diap3-Tg est normale La majorité des neuropathies auditives non-syndromiques est due à une altération de la synapse entre les CCI et les fibres du nerf auditif (Moser et Starr, 2016). Nous avons testé l'activité synaptique des CCI des souris Diap3-Tg en mesurant les courants calciques, l'exocytose et le nombre de synapses. En raison de l'apparition précoce et de la progression rapide de la surdité chez la lignée Tg 771, les mesures ont étés réalisées uniquement sur cette lignée. Les courbes intensité-potentiel du courant Ca2+ sont comparables entres les CCI des souris sauvages et Diap3-Tg (Fig 4.3A), ce qui indique que la surexpression de Diap3 n'entraine aucune modification du nombre ou de la dépendance au potentiel des canaux calciques. Pour tester l'exocytose des CCI, nous avons mesuré les variations de la capacité membranaire des CCI, indice de la surface de la membrane plasmique. En réponse à des sauts dépolarisants, l'amplitude de l'exocytose est comparable entre les génotypes (Fig 4.3B-C). Les résultats obtenus montrent que le déficit auditif des souris Diap3-Tg ne provient donc pas d'une altération de la première synapse auditive. En accord avec ces résultats, le même nombre de synapse par CCI entre les souris sauvages et Diap3-Tg a été mesuré en microscopie confocale (Fig 4.3D-F). 62 Figure 4.3 : Activité synaptique normale dans les CCI des souris Diap3-Tg. (A) Courbe intensitépotentiel du courant Ca2+ dans les CCI des souris sauvages (courbe bleue) et Diap3-Tg (courbe rouge). (B) Capacité membranaire des CCI des souris sauvages (courbe bleue) et Diap3-Tg (courbe rouge). La dépolarisation induit une augmentation de la capacité membranaire chez les deux lignées. (C) Variation de la capacité membranaire en fonction de la durée de dépolarisation dans les CCI des souris sauvages (courbe bleue) et Diap3-Tg (courbe rouge). (D-F) Marquages des synapses entre les CCI et les neurones afférents, chez les souris sauvages (E) et Diap3-Tg (F). Le ruban synaptique des CCI est marqué par un anticorps anti-Ctpb2 (en vert), le récepteur GluA/3 sur les neurones afférents est marqué par un anticorps spécifique (en rouge) et le noyau des cellules est marqué par le colorant Hoechst (en bleu). (G) Nombre moyen de synapses par CCI chez les souris sauvages et Diap3-Tg. 63 4.4. Les courants K+ des CCI des souris Diap3-Tg ne sont pas perturbés Les courants potassiques sont essentiels au potentiel de récepteur des CCI. Par conséquent, l'altération de l'une des conductances potassiques pourrait être à l'origine de la diminution du potentiel de sommation chez les souris Diap3-Tg. Nous avons mesuré les conductances potassiques des CCI des souris sauvages et des souris Tg 771 âgées de 15 à 21 jours post-nataux. La dépolarisation des CCI provoque, dans un premier temps, l'apparition du courant rapide IK,f, et dans un second temps, celle du courant rectifiant retardé IK,s. Dans nos expériences, l'amplitude des courants IK,f, et IK,s des CCI est identique entre les deux génotypes (Fig. 4.4A-C). Par ailleurs, l'hyperpolarisation des CCI des souris sauvages provoque la désactivation du courant IK,n, responsable du maintien de la cellule au potentiel de repos. La désactivation du courant IK,n est également observé dans les CCI des souris Diap3-Tg, indiquant ainsi la préservation de ce courant chez les souris Diap3-Tg (Fig. 4.4D-E). En accord avec la présence d'Ik,n, le potentiel de membrane est identique entre les lignées sauvage et Tg 771 (Fig. 4.4F). L'ensemble de ces résultats montre donc que l'altération du potentiel de sommation des CCI chez les souris Diap3-Tg ne provient pas d'une perturbation des courants potassiques. 64 Figure 4.4 : Les courants potassiques des CCI des souris Diap3-Tg ne sont pas perturbés. (A-B) Intensité du courant potassique lors d'une dépolarisation dans les CCI des souris sauvages (A) et Diap3-Tg (B). (C) Intensités moyennes du courant potassique des CCI en fonction du voltage membranaire. « Early average » correspond à la moyenne obtenue après l'apparition du courant IK,f et « late average » correspond à la moyenne obtenue après l'apparition du courant IK,n. (D-E) Intensité du courant potassique lors d'une hyperpolarisation dans les CCI des souris sauvages (D) et Diap3-Tg (E). (F) Potentiel de membrane des CCI au repos chez les souris sauvages (bleue) et Diap3-Tg (rouge). 65 4.5. Une fusion des stéréocils est à l'origine de la perte d'activité des CCI des souris Diap3-Tg Le faisceau de stéréocils des CCI est le siège de la méchanotransduction. De ce fait, une atteinte anatomo-fonctionelle des stéréocils peut être à l'origine de surdités (Self et al., 1999; Goodyear et al., 2003; Kitajiri et al., 2010). Afin de savoir si la surdité AUNA1 est provoquée par une altération des stéréocils, nous avons observé la morphologie du pôle apical des CCI chez les souris Diap3-Tg. Nous avons d'abord examiné la surface de l'organe de Corti en microscopie électronique à balayage. Nos résultats, chez les souris Diap3-Tg, montrent un gonflement au niveau de la plaque cuticulaire des CCI, parfois associé à une fusion des stéréocils. Les CCE, elles, présentent une morphologie semblable à celles des souris sauvages. Nous avons également noté la disparition de quelques cellules ciliées (Fig. 4.5A-I). Nous avons ensuite observé la morphologie des CCI en microscopie électronique à transmission. Chez les CCI des souris sauvages, les filaments d'actine forment une zone très dense aux électrons dans les stéréocils et la plaque cuticulaire (Fig. 4.5J). Chez les souris sauvages âgées de 4 mois, une légère augmentation du volume de la plaque cuticulaire est parfois visible, pouvant être confondu avec le gonflement observé dans les CCI des souris Diap3-Tg (Fig. 4.5M). Dans certaines CCI des souris Diap3-Tg, les stéréocils sont fusionnés (Fig. 4.5K). Dans d'autres, ils sont invaginés dans le cytoplasme (Fig. 4.5N). La plaque cuticulaire n'apparaît plus comme une zone homogène mais semble déplacée vers la périphérie de la cellule, provoquant un fort gonflement au niveau du pôle apical. A l'inverse, aucune déformation n'est observée dans les CCE (Fig. 4.5L, O). 66 Nous avons ensuite déterminé les pourcentages de CCI et de CCE présentant des défauts morphologiques. Chez les souris Diap3-Tg, toutes les CCI présentent une plaque cuticulaire gonflée, alors que la proportion de CCI avec des stéréocils fusionnés augmente progressivement avec l'âge. Chez les souris sauvage âgées de 4 mois, nous avons également observé un grand nombre de CCI avec une plaque cuticulaire gonflée. En effet, notre méthode de comptage ne permet pas de différencier entre le fort gonflement du pôle apical observé dans les CCI des souris Diap3-Tg (Fig. 4.5K) et la légère augmentation de volume de la plaque cuticualire qui apparait dans certaines CCI des souris sauvages (Fig. 4.5M). Cependant, le nombre de CCI avec une plaque cuticulaire gonflée reste moins élevé chez les souris sauvages que chez les souris Diap3-Tg. En revanche, la fraction de CCE avec une plaque cuticulaire gonflée et/ou des stéréocils fusionnés reste relativement faible chez les souris Diap3-Tg. Enfin, on observe une perte des CCI et des CCE plus élevée chez les souris Diap3-Tg, par rapport aux souris sauvages (Fig. 4.6A-B). Afin de déterminer, entre le gonflement de la plaque cuticulaire et l'altération des stéréocils, l'origine de la surdité, nous avons corrélé les défauts morphologiques des cellules ciliées à la perte d'audition. Les résultats obtenus montrent qu'il n'y a pas de corrélation entre le gonflement de la plaque cuticulaire des CCI et la surdité. En effet, le gonflement de la plaque cuticulaire peut aussi bien être associé à une audition normale qu'à l'absence totale de potentiels auditifs évoqués. En revanche, la perte d'audition augmente de façon exponentielle avec la proportion de CCI présentant des stéréocils fusionnés (Fig. 4.6C). La perte d'activité des CCI chez les souris Diap3-Tg est donc due à l'atteinte des stéréocils. Néanmoins, le rôle supposé de la plaque cuticulaire étant d'assurer le maintien des stéréocils, il est fort probable que le gonflement de la plaque cuticulaire des CCI soit responsable de la fusion des stéréocils et indirectement de la perte auditive des souris Diap3-Tg. 67 Figure 4.5 : Défauts morphologiques dans la partie apicale des CCI chez les souris Diap3-Tg. (A-H) Organe de Corti des souris sauvages (A-B, E-F), Tg 924 (C-D) et Tg 771 (G-H) vu de dessus en microscopie électronique à balayage. Chez les souris Diap3-Tg, les CCI ont des stéréocils fusionnés et une plaque cuticulaire gonflée, alors que les CCE ont une morphologie semblable à celle des souris sauvages. On remarque également une perte de quelques CCE chez les deux lignées Tg 924 et Tg 771. (I) Organe de Corti chez la lignée Tg 771 vu de côté en microscopie électronique à balayage. (J-O) Coupes sagittales de cellules ciliées en microscopie électronique à transmission. (J, M) CCI de souris sauvages. On observe une légère augmentation du volume de la plaque cuticulaire dans certaines CCI (M). (K, N) CCI des lignées Tg 924 (K) et Tg 771 (N). On observe une fusion des stéréocils et un déplacement de la plaque cuticulaire vers la périphérie (K). Dans certaines CCI, les stéréocils sont invaginés dans le cytoplasme (N). (L, O) CCE des lignées Tg 924 et Tg 771. 68 Figure 4.6 : Quantification des défauts morphologiques de la partie apicale des CCI chez les souris Diap3-Tg. (A-B) Taux de perte des CCI et des CCE et pourcentages de CCI et de CCE affectées par des défauts morphologiques. (C) Le gonflement de la plaque cuticulaire des CCI n'est pas corrélé avec la perte d'audition des souris Diap3-Tg (graphique du haut). En revanche, la perte d'audition augmente de manière exponentielle avec le pourcentage de CCI présentant des stéréocils fusionnés (graphique du bas). 4.6. Déformation de la plaque cuticulaire des CCI chez les souris Diap3-Tg Nous avons analysé les déformations de la plaque cuticulaire au niveau moléculaire. Pour ce faire, nous avons examiné la distribution de deux constituants majeurs de la plaque cuticulaire, les filaments d'actine et la spectrine, en microscopie confocale. Chez les souris sauvages, ces deux constituants ont une répartition homogène dans l'ensemble de la plaque cuticulaire, à l'exception de l'empreinte du kinocil (Fig. 4.7A-A''). En revanche, chez les souris Diap3-Tg, l'actine et la spectrine sont fortement concentrés à la périphérie du pôle apical (Fig. 4.7B-C''). Ces résultats confirment une atteinte de l'intégrité de la plaque 69 cuticulaire. La redistribution des constituants de la plaque cuticulaire à la périphérie du pôle apical, pourrait expliquer la perte d'ancrage des stéréocils et par conséquent l'incapacité des CCI à coder les stimulations sonores chez les souris Diap3-Tg. Figure 4.7 : Déformation de la plaque cuticulaire des CCI chez les souris Diap3-Tg. (A-A'') Distribution homogène des filaments d'actines (en rouge) et de la spectrine (en vert) dans la plaque cuticulaire des CCI, chez les souris sauvages. (B-C'') Concentration des filaments d'actine (en rouge) et de la spectrine (en vert) à la périphérie des CCI chez les souris Tg 924 (B-B'') et Tg 771 (C-C''). Barre d'échelle : 5 μm. 4.7. Remodelage du réseau de microtubule dans les CCI des souris Diap3-Tg Diap3 est connu pour interagir directement avec les microtubules et assurer leur stabilisation (Palazzo et al., 2001). Il était donc intéressant de savoir si sa surexpression avait un impact sur le réseau de microtubule chez les souris Diap3-Tg. Pour le découvrir, nous avons analysé par immunomarquage l'organisation des microtubules dans la partie apicale des CCI. Les microtubules ont été marqués par un anticorps spécifique de la tubuline β2 et les filaments d'actine par la phalloïdine. Dans les CCI des souris sauvages, les microtubules forment une structure en anneau autour de la plaque cuticulaire (Furness et al., 1990 ; Fig. 4.8A-A'', D-D'', G-G''). Dans les CCI des souris Diap3-Tg, cette structure en anneau est absente et des microtubules sont présents au centre de la plaque cuticulaire, dans la zone 70 dépourvue d'actine (Fig. 4.8B-C'', E-F'', H-I''). Dans certaines CCI, des microtubules envahissent le faisceau de stéréocil. Le réseau de microtubule subit donc un remodelage dans la partie apicale des CCI des souris Diap3-Tg. L'intensité du marquage de la tubuline β2 augmente avec l'âge chez les souris Diap3-Tg, illustrant une accumulation progressive de microtubule dans la plaque cusiculaire. Cette accumulation de microtubule est plus rapide dans la lignée Tg 711 (Fig. 4.9). Le marquage des tubulines α1, β1 et β4 montrent également, chez les souris sauvages, une structure en anneau autour de la plaque cuticulaire des CCI, et chez les souris Diap3-Tg, une relocalisation des microtubules à l'intérieur même de la plaque cuticulaire (Fig. 4.10). Ces observations suggèrent donc que tous les isotypes de tubuline subissent le même remodelage. La présence anormale de microtubules au centre de la plaque cuticulaire pourrait s'expliquer par une stabilisation accrue des microtubules due à la surexpression de Diap3, les protégeant ainsi de la dépolymérisation. Selon cette hypothèse, les microtubules localisés au centre de la plaque cuticulaire des CCI chez les souris Diap3-Tg seraient donc stables. Pour le vérifier, nous avons réalisé un marquage de la tubuline α-acétylée ou de la tubuline α-détyrosinée, caractéristiques des microtubules stables, avec un co-marquage de tous les microtubules par l'anticorps anti-tubuline α1 précédemment utilisé. Nous avons observé une superposition des deux marquages dans les CCI des Diap3-Tg, démontrant ainsi que les microtubules anormalement localisés dans le centre de la plaque cuticulaire sont stables (marquage α-acétylée : Fig. 4.11 ; marquage α-détyrosinée : résultats non montrés). Ces résultats favorisent l'hypothèse selon laquelle la surexpression de Diap3 entraînerait une accumulation de microtubules stables au centre de la plaque cuticulaire, provoquant ainsi un remodelage du réseau de microtubule dans la partie apicale des CCI. 71 Figure 4.8 : Remodelage du réseau de microtubule dans les CCI des souris Diap3-Tg. (A-A'', D-D'', G-G'') Distribution des microtubules (marqués par un anticorps anti-tubuline β2 en vert) autour de la plaque cuticulaire (filaments d'actine marqués par la phalloïdine en rouge) dans les CCI des souris sauvages, à 1 mois (A-A''), 2 mois (D-D'') et 4 mois (G-G''). (B-C'', E-F'', H-I'') Réorganisation des microtubules (marqués par un anticorps anti-tubuline β2 en vert) qui envahissent la plaque cuticulaire (filaments d'actine marqués par la phalloïdine en rouge) et parfois même les stéréocils (flèches) dans les CCI des souris Tg 924 à 1 mois (B-B''), 2 mois (E-E'') et 4 mois (H-H'') et Tg 771 à 1 mois (C-C''), 2 mois (F-F'') et 4 mois (I-I''). Barre d'échelle : 5 μm. 72 Figure 4.9 : Quantification des marquages de tubuline et d'actine dans les CCI des souris sauvages et Diap3-Tg. (A-A'') Chez les souris sauvages âgées de 21 jours post-nataux (A), 1 mois (A') et 2 mois (A''), le marquage d'actine est plus intense que le marquage de la tubuline β2 à l'intérieur même de la plaque cuticulaire. Inversement le marquage de la tubuline β2 est plus intense que le marquage d'actine autour de la plaque cuticulaire. L'histogramme montre que l'intensité des deux marquages ne varie pas entre les différents âges. (B-C'') Chez les souris Tg 924 âgées de 21 jours post-nataux (B), 1 mois (B') et 2 mois (B'') et Tg 771 âgées de 21 jours post-nataux (C), 1 mois (C') et 2 mois (C''), le marquage de la tubuline β2 devient plus intense que le marquage d'actine à l'intérieur même de la plaque cuticulaire, à 1 mois chez les souris Tg 924, et à P21 chez les souris Tg 771. L'histogramme montre que l'intensité du marquage de la tubuline β2 augmente avec l'âge des souris, illustrant une accumulation de microtubule à l'intérieur de la plaque cuticulaire. 73 Figure 4.10 : Les tubulines α1, β1 et β4 subissent la même redistribution que la tubuline β2 chez les souris Diap3-Tg. (A-A'', C-C'', E-E'') Distribution des tubulines α1 (A'), β1 (C') et β4 (E') (en vert) autour de la plaque cuticulaire (filaments d'actine marqués par la phalloïdine en rouge) dans les CCI des souris sauvages. (B-B'', D-D'', F-F'') Distribution des tubulines α1 (B'), β1 (D') et β4 (F') (en vert) à l'intérieur de la plaque cuticulaire (filaments d'actine marqués par la phalloïdine en rouge) dans les CCI des souris Tg 771. Barre d'échelle : 5 μm. Figure 4.11 : Les microtubules dans la partie apicale des CCI sont stables. (A-D) Colocalisation des tubulines α-acétylée (en vert) et α1 (en magenta) autour de la plaque cuticulaire des CCI chez les souris sauvages. Les filaments d'actine sont marqués par la phalloïdine (en rouge). (E-H) Colocalisation des tubulines α-acétylée (en vert) et α1 (en magenta) à l'intérieur de la plaque cuticulaire dans les CCI des souris Diap3-Tg. Les filaments d'actine sont marqués par la phalloïdine en rouge. Barre d'échelle : 5 μm. 74 4.8. La réorganisation des microtubules dans les CCI des souris Diap3-Tg commence avant l'apparition de la surdité Si la réorganisation des microtubules est responsable du gonflement de la plaque cuticulaire, ce phénomène devrait s'amorcer au moment de l'apparition de la perte auditive, voire avant. Pour confirmer cette hypothèse, nous avons observé l'organisation des microtubules à 10, 15 et 21 jours post-nataux (P10, P15 et P21). A P10, quelques jours avant l'entrée en fonction de la cochlée, les seuls microtubules visibles dans les CCI des souris sauvages et Diap3-Tg, sont localisés à l'emplacement du kinocil (Fig. 4.12A-C''). A P15, lors de l'entrée en fonction de la cochlée, les microtubules forment une structure en anneau autour de la plaque cuticulaire des CCI des souris sauvages (Fig. 4.12D-D''). Aucun microtubule n'est présent à l'emplacement du kinocil maintenant disparu. Cette organisation est donc identique à celle précédemment décrite chez les souris adultes. Dans les CCI des souris Diap3-Tg, les microtubules arborent la même organisation que dans les CCI des souris sauvages. Toutefois, dans un certain nombre de CCI, des microtubules supplémentaires sont visibles au milieu de la plaque cuticulaire, illustrant l'amorçage de la réorganisation des microtubules (Fig. 4.12E-F''). A P21, quelques jours après l'entrée en fonction de la cochlée, le réseau de microtubule dans les CCI des souris sauvages maintient son organisation, à savoir une structure en anneau autour de la plaque cuticulaire (Fig. 4.12G-G''). Dans les CCI des souris Diap3-Tg, en revanche, le réseau de microtubules poursuit son remodelage. Dans une large fraction de CCI, des microtubules sont visibles au centre de la plaque cuticulaire alors que les microtubules encerclant la plaque cuticulaire semblent se désolidariser (Fig. 4.12H-I''). L'ensemble de ces résultats montre donc que le remodelage du réseau de microtubule dans les CCI des souris Diap3-Tg commence avant l'élévation des seuils auditifs et se poursuit avec la progression de la surdité. 75 Figure 4.12 : La réorganisation des microtubules débute dès l'entrée en fonction de la cochlée. (A-C'') A 10 jours post-nataux, dans la partie apicale des CCI des souris sauvages (A-A''), Tg 924 (BB'') et Tg 771 (C-C''), les seuls microtubules présents (marqués par un anticorps anti-tubuline β2 en vert) sont localisés au niveau du kinocil (têtes de fléche). Les filaments d'actine sont marqués par la phalloïdine (en rouge). (D-F'') A 15 jours post-nataux, dans les CCI des souris sauvages (D-D''), Tg 924 (E-E'') et Tg 771 (F-F''), les microtubules (marqués par un anticorps anti-tubuline β2 en vert) sont distribués autour de la plaque cuticulaire. Les filaments d'actine sont marqués par la phalloïdine (en rouge). Chez les souris Diap3-Tg, des microtubules supplémentaires sont visibles au centre de la plaque cuticulaire de certaines CCI (étoiles). (G-I'') A 21 jours post-nataux, dans les CCI des souris sauvages (G-G''), la structure en anneau de microtubules (marqués par un anticorps anti-tubuline β2 en vert) est maintenu autour de la plaque cuticulaire. Les filaments d'actine sont marqués par la phalloïdine en rouge. Dans les CCI des souris Tg 924 (H-H'') et Tg 771 (I-I''), cette structure en anneau est partiellement désorganisée. De plus, des microtubules supplémentaires sont visibles au centre de la plaque cuticulaire dans une partie des CCI (étoiles). Barre d'échelle : 5 μm. 76 4.9. Diap3 est localisée dans la plaque cuticulaire des CCI Si la protéine Diap3 est directement responsable de la réorganisation des microtubules dans les CCI des souris Diap3-Tg, alors celle-ci devrait se localiser dans la plaque cuticulaire des CCI. Pour valider cette hypothèse, nous avons étudié la localisation de Diap3 dans l'organe de Corti en microscopie confocale. La difficulté de cette expérience a été de trouver un anticorps spécifique de Diap3. En effet, la séquence protéique de Diap3 présente une forte homologie avec celles des protéines Diap1 et Diap2. Pour pallier à ce problème, nous avons conçus un nouvel anticorps reconnaissant un antigène présent dans la protéine Diap3 mais absent des protéines Diap1 et Diap2 (Fig 4.13A). Pour tester la spécificité de cet anticorps, nous avons réalisé un marquage de Diap3 en western blot sur des extraits protéiques de cellules HEK surexprimant les protéines Diap1, Diap2 ou Diap3 fusionnés avec une protéine GFP. Nos résultats confirment que notre anticorps anti-Diap3 reconnait la protéine Diap3 mais pas les protéines Diap1 et Diap2 (Fig. 4.13B). Chez les souris sauvages, Diap3 est très présente dans les deux populations de cellules ciliées. Dans les CCE, elle est située au niveau des stéréocils mais n'est pas détectée dans la plaque cuticulaire (Fig. 4.13A-A''). Dans les CCI, en revanche, elle est localisée à la fois dans les stéréocils et la plaque cuticulaire (Fig. 4.13B-B''). De même, chez les souris Diap3-Tg, la protéine est présente dans les CCE au niveau des stéréocils uniquement et dans les CCI au niveau des stéréocils et de la plaque cuticulaire (Fig. 4.13C-F''). Ces résultats démontrent que Diap3 est présente dans la plaque cuticulaire des CCI, lesquelles subissent un remodelage du cytosquelette, mais n'est pas présente dans la plaque cuticulaire des CCE, qui, elles, conservent une organisation adéquate de son réseau de microtubule. Ces résultats favorisent donc l'hypothèse d'une action directe de Diap3 sur les microtubules. La différence de localisation de Diap3 entre les deux contingents de cellules ciliées expliquerait l'atteinte spécifique des CCI. 77 Figure 4.13 : Diap3 est localisée dans la plaque cuticulaire des CCI. (A) Les 120 premiers acides animés de la séquence protéique de chaque protéine Diap murine. En rouge, l'antigène reconnu par l'anticorps anti-Diap3. (B) Western Blot sur des extraits protéiques de cellules HEK surexprimant les protéines Diap1, Diap2 ou Diap3 fusionnés avec une protéine GFP. Le marquage GFP confirme l'expression des trois protéines Diap dans les cellules HEK (à gauche ; ~160kDa). '-' correspondant aux cellules HEK non transfectées. Le marquage Diap3 confirme que l'anticorps anti-Diap3 reconnait la protéine Diap3 mais pas les protéines Diap1 et Diap2 (à droite). Les marquages α-Tubulines permettent d'estimer la quantité totale de protéine présente dans chaque condition. (C-C'', E-E'', G-G'') Dans les CCE des souris sauvages (C-C''), Tg 924 (E-E'') et Tg 771 (GG''), Diap3 (en vert) est localisée dans les stéréocils. Les filaments d'actines sont marqués par la phalloïdine (en rouge). (D-D'', F-F'', H-H'') Dans les CCI des souris sauvages (D-D''), Tg 924 (F-F'') et Tg 771 (H-H''), Diap3 (en vert) est localisée à la fois dans les stéréocils et la plaque cuticulaire. Les filaments d'actines sont marqués par la phalloïdine (en rouge). Barre d'échelle : 5 μm. 78 5. Discussion 79 Dans cette étude, nous avons démontré que les souris transgéniques surexprimant Diap3 présentent les caractéristiques de la neuropathie auditive humaine AUNA1, à savoir une surdité progressive associée à une activité normale des CCE. Le déficit auditif est du à une atteinte des CCI. La libération du glutamate et les courants potassiques ne sont pas altérés chez les souris transgéniques. Cependant, nous avons observé des défauts morphologiques au pôle apical des CCI, à savoir une déformation de la plaque cuticulaire et une fusion des stéréocils. La localisation aberrante de microtubule au centre de la plaque cuticulaire suggère qu'un remodelage du réseau de microtubule est à l'origine de la déformation de cette structure et est ainsi responsable de la surdité AUNA1. 5.1. Remodelage du réseau de microtubule dans les CCI des souris Diap3-Tg Diap3 appartient à la famille des formines, qui est connue pour promouvoir la nucléation et l'élongation des filaments d'actine ainsi que la stabilisation des microtubules (Ishizaki et al., 2001; Palazzo et al., 2001; Pruyne et al., 2002; Wen et al., 2004; Bartolini et al., 2008). Nous avons montré que, chez les souris sauvages, Diap3 est préférentiellement localisée dans les stéréocils des CCI et CCE ainsi que dans la plaque cuticulaire des CCI. En accord avec nos résultats, une récente étude protéomique a permis d'identifer Diap3 parmi les protéines constitutives des stéréocils dans les cellules ciliées vestibulaires de la souris (Krey et al., 2015). Etant donné l'abondance d'actine dans la partie apicale des cellules ciliées (Flock and Cheung, 1977; Slepecky and Chamberlain, 1985; Furness et al., 2005), Diap3 pourrait être un composant intégral de l'appareil mécanotransducteur, jouant un rôle clé dans 80 le renouvellement de l'actine (Schneider et al., 2002; Zhang et al., 2012; Drummond et al., 2015). Chez les souris Diap3-Tg, la protéine Diap3 est également présente dans les stéréocils des cellules ciliées et la plaque cuticulaire des CCI. La surexpression de diap3 ne modifie donc pas la localisation de la protéine mais résulterait plutôt en une accumulation de Diap3 dans la partie apicale des cellules ciliées. Ainsi, la surproduction de Diap3 pourrait entraîner une polymérisation plus importante de filament d'actine (Ishizaki et al., 2001; Pruyne et al., 2002). Dans ce scénario, l'excès d'actine engendrerait une hypertrophie de la plaque cuticulaire, correspondant au gonflement du pôle apical observée en microscopie électronique. Toutefois, dans un tel scénario, la distribution d'actine serait homogène dans la plaque cuticulaire. Or, nos résultats révèlent, au contraire, une zone dépourvue d'actine et de spectrine au centre de la plaque cuticulaire. Par ailleurs, cette zone est envahie par des microtubules. Ainsi, l'accumulation de Diap3 aurait donc pour effet de stabiliser préférentiellement des microtubules dans une région non appropriée. Cet excès de microtubules pourrait en retour exercer une contrainte physique sur la plaque cuticulaire et la déplacer vers la périphérie. Les microtubules présents au centre de la plaque cuticulaire pourraient provenir du contingent de microtubule qui entoure la plaque cuticulaire. Cependant, nous n'avons pas observé de marquage continu de la tubuline entre les microtubules organisés en anneau autour de la plaque cuticulaire et les microtubules occupant le centre de la plaque cuticulaire. Nos résultats suggèrent plutôt que Diap3 en excès stabiliserait des microtubules déjà présents dans la plaque cuticulaire. Ces microtubules proviendraient des colonnes de microtubules qui émergent du cytoplasme pour venir s'insérer dans la plaque cuticulaire (Jaeger et al., 1994; Antonellis et al., 2014). Il est intéressant de noter que trois mutations de la protéine DIAPH1 sont à l'origine de surdité (Lynch et al., 1997; Stritt et al., 2016; Ueyama et al., 2016). Ces mutations sont 81 toutes localisées dans la partie C-terminal de DIAPH1, laquelle comporte le domaine autoinhibiteur DAD. Il a été prouvé qu'au moins deux de ces mutations abolissent l'autoinhibition de DIAPH1, conduisant ainsi une forme constitutivement active de la protéine (Stritt et al., 2016; Ueyama et al., 2016). Chez les souris Diap1-Tg surexprimant le gène DIAPH1 muté, les CCI et CCE arborent des stéréocils fusionnés. Mais contrairement aux souris Diap3-Tg, ces souris présentent une perte relativement importante de CCE, conduisant à une baisse de l'amplitude des otoémissions acoustiques (Ueyama et al., 2016). Ainsi, l'ensemble de ces données et de nos propres résultats démontrent que les protéines DIAPH1/Diap1 et DIAPH3/Diap3 sont toutes deux nécessaires au maintient des stéréocils dans les cellules ciliées de la cochlée. Cependant des différences notables entre les souris Diap3-Tg et les souris Diap1-Tg, notamment l'altération du faisceau de stéréocils des CCE et l'absence de déformation de la plaque cuticulaire des CCI chez les souris Diap1-Tg, suggèrent que les deux protéines jouent un rôle différent sur le cytosquelette des cellules ciliées. 5.2. La surexpression de Diap3 perturbe la mécanotransduction des CCI La majorité des neuropathies auditives non-syndromiques est due à un défaut de la machinerie synaptique (Moser et Starr, 2016). Or, chez les souris Diap3-Tg, le recyclage synaptique et le nombre de ruban synaptique ne sont pas affectés, ce qui, comme décrit précédemment (Schoen et al., 2013), exclut une perturbation de l'activité synaptique à l'origine de la surdité AUNA1. Les défauts majeurs observés chez les souris Diap3-Tg résident plutôt dans la partie apicale des CCI, ces défauts sont une déformation de la plaque cuticulaire et une fusion des stéréocils. Ces anomalies causent probablement une altération de l'activité du canal mécanotransducteur (Beurg et al., 2009). La corrélation entre les défauts 82 morphologiques et l'élévation du seuil auditif montre que la surdité ne provient pas de la déformation de la plaque cuticulaire mais de la fusion des stéréocils. Cependant, le rôle supposé de la plaque cuticulaire étant d'assurer l'ancrage des stéréocils (DeRosier et Tilney, 1989; Furness et al., 2008; Vranceanu et al., 2012), la déformation de cette structure est, fort probablement, à l'origine de la fusion des stéréocils (Liberman, 1987; Kitajiri et al., 2010) et par conséquent de la surdité AUNA1. Il est possible aussi que la réorganisation des microtubules provoque directement la fusion des stéréocils comme le suggèrent certains de nos marquages qui montrent une invasion du faisceau de stéréocils par les microtubules. Par ailleurs, la matrice dense de microtubule à la base des stéréocils pourrait interférer avec le transport intracellulaire entre les stéréocils et le cytoplasme (Schneider et al., 2002; Zhang et al., 2012; Drummond et al., 2015). Ainsi, l'atteinte du faisceau de stéréocils pourrait modifier le comportement du canal mécanotransducteur. Ce dernier étant fortement dépendant de la déflection des stéréocils (Kozlov et al., 2011). 5.3. L'atteinte spécifique des CCI Il est assez surprenant de constater que la surexpression du gène Diap3 affecte uniquement les CCI alors que celui-ci est exprimé dans les deux populations de cellules ciliées. Ceci pourrait être dû au fait que Diap3 soit localisée dans la plaque cuticulaire des CCI mais pas dans celle des CCE. En effet, l'absence de colocalisation de Diap3 avec les microtubules de la plaque cuticulaire des CCE protégerait ce contingent de cellules ciliées des effets délétères de la surexpression de Diap3. Mais comment expliquer alors la différence de localisation de Diap3 entre les CCI et CCE ? Diap3 pourrait être adressée dans la plaque cuticulaire des CCI via un partenaire qui serait 1) exprimé dans les CCI, 2) absent des CCE et 83 3) localisé dans la plaque cuticulaire. En suivant cette hypothèse, nous avons tenté d'isoler une protéine partenaire de Diap3 répondant à ces critères. Pour cela, nous avons sous-traité la réalisation d'un crible par double-hybride afin d'identifer les partenaires de Diap3 dans l'oreille interne. Ce crible par double-hybride a été réalisé à partir d'une banque d'ARNm issue du vestibule dont les cellules ciliées présentent elles aussi un gonflement de la plaque cuticulaire (données non montrées). Au total, ce crible a permis d'identifier 106 interactants (Diagr. 5.1). Ensuite, nous avons réalisé, à partir de cette liste d'interactants, un crible par immunomarquage afin d'identifier les protéines exprimées spécifiquement dans les CCI et localisées dans la plaque cuticulaire. Pour restreindre le nombre de protéines à tester, nous avons établis deux listes de protéines candidates : les complexes RhoGTPases, connues pour activer les formines (liste « activateurs »), et les protéines associées au cytosquelette (liste « effecteurs ») (Table 5.1) (Evangelista et al., 2003; Wallar and Alberts, 2003; Goode and Eck, 2007; Bartolini and Gundersen, 2010). La liste « activateurs » a été complétée par l'ajout des RhoGTPases RhoA, RhoB, Rac1 et Cdc42 qui sont absentes des résultats du crible par double-hybride mais connues pour réguler l'activité de Diap3 dans d'autres systèmes (Alberts et al., 1998; Wallar et al., 2007; Ji et al., 2008). Nos résultats en immunomarquages montrent que toutes les protéines candidates de la liste « activateurs » sont exprimées à la fois dans les CCI et les CCE. Parmi les 13 protéines candidates de la liste « effecteurs », 12 sont exprimées à la fois dans les CCI et CCE. Seule la protéine Amphiphysine semble être spécifiquement exprimée dans les CCI. L'immunomarquage de l'Amphiphysine indique une localisation autour de la plaque cuticulaire des CCI et semble être absente dans les CCE (Fig. 5.1). L'Amphiphysine répond donc à nos deux premiers critères de sélection. Cependant, sa localisation n'est pas modifiée dans les CCI des souris Diap3-Tg (résultats non montrés). L'Amphiphysine ne semble donc pas être impliquée dans l'adressage de Diap3, ni dans le remodelage de réseau de microtubules. 84 Protéines associées au cytosquelette (16) Facteurs de transcription (15) Synthèse et dégradation des protéines (15) Protéines associées aux Rho GTPase (6) Voies de signalisation (autres que RhoGTPases) (11) Transport intracellulaire, endocytose et exocytose (10) Autre (18) Fonction inconnue (25) Diagramme 5.1 : Répartition des interactants de Diap3 selon leurs fonctions. Entre parenthèse, le nombre de protéines répertoriées dans chaque catégorie. Nom usuel Fonction(s) Liste "activateurs" (RhoGTPases et protéines associées) Arhgap4 Active certaines RhoGTPases Rab3gap2 Active Rab3 Rgl1 Active les RalGTPases Rgl2 Active les RalGTPases Rgl3 Active les RalGTPases Srgap1 Inhibe Rac1 RhoA RhoGTPase RhoB RhoGTPase Rac1 RhoGTPase Cdc42 RhoGTPase Liste effecteurs (protéines associées au cytosquelette) Se lit aux filaments d'actine, induit divers processus (croissance axonale, migration, Shootine1 etc.) Amphiphysine Facteur de nucléation des filaments d'actine Apc Stabilise les microtubules Apc2 Stabilise les microtubules Echange GTD/GTP dans le complexe ARF1/ARF5/ARF6 (nucléateur de filaments Arfgef2 d'actine) Diap1 Facteur de nucléation des filaments d'actine, stabilise les microtubules Diap2 Facteur de nucléation des filaments d'actine Se lit aux filaments d'actine et aux microtubules, stabilise certaines structures celluDystonine laires Fmnl2 Facteur de nucléation des filaments d'actine Herc2 Stabilise les centrosomes HEF1 Favorise la polymérisation des filaments d'actine Pericentrine Recrute la tubuline au centrosome Plectine Protéine d'échaffaudage liée aux microtubules et aux filaments d'actine Spectrine Stabilise le cytosquellette Nesprine-2 Lie les filaments d'actine au noyau Table 5.1 : Listes « activateurs » et « effecteurs ». En vert, les RhoGTPases absentes de la liste d'interactants mais connues pour réguler l'activité de Diap3. En rouge, les protéines Diap1 et Diap2 éliminées de la liste « effecteurs » faute d'anticorps spécifiques. 85 Figure 5.1 : La protéine Amphiphysine est spécifique des CCI. La protéine Amphysine (en vert) est localisée autour de la plaque cuticulaire des CCI chez les souris sauvages. Les filaments d'actine sont marqués par la phalloïdine (en rouge). Barre d'échelle : 5 μm. Alternativement, l'atteinte spécifique des CCI pourrait s'expliquer par un inhibiteur de Diap3 exprimé dans les CCE et absent des CCI, ce qui protégerait ainsi les CCE d'une activité excessive de Diap3. Enfin, un taux insuffisant de renouvellement des protéines dans les CCI pourrait expliquer une accumulation plus importante de Diap3 dans ces cellules. En effet, les CCE éliminerait plus facilement un excès de Diap3 grâce à un processus d'ubiquitination plus efficace (DeWard et Alberts, 2009). 5.4. Les souris Diap3-Tg miment la neuropathie auditive humaine AUNA1 Pour élucider les mécanismes de la neuropathie auditive AUNA1, causée par une surexpression du gène DIAPH3, nous avons étudié les souris transgéniques surexprimant le gène murin Diap3 (Schoen et al., 2013). Nos résultats démontrent que les souris Diap3-Tg répliquent les caractéristiques de la surdité AUNA1, à savoir une perte auditive progressive sans altération des CCE. Chez la lignée Tg 771, nous avons constaté une élévation plus rapide des seuils auditifs et une légère réduction des oto-émissions acoustiques. Cette dernière 86 pourrait être due à une perte plus importante de CCE dans cette lignée. De plus, la diminution du potentiel de sommation, les défauts morphologiques et le remodelage du réseau de microtubule sont plus précoce et progressent plus rapidement dans la lignée Tg 771. Ceci pourrait être du à un niveau d'expression plus élevé de Diap3 dans la ligné Tg 771 du fait d'un nombre de copie plus important du transgène inséré dans le génome (8 copies dans la lignée Tg 771 ; 6 dans la lignée Tg 924). Dans cette hypothèse, au-dessus d'un certain niveau d'expression de Diap3, les défauts anatomiques ne serait plus restreint aux CCI mais toucherait également les CCE, conduisant finalement à la dégénération de ces dernières. Toutefois, la quantité d'ARNm de Diap3 est similaire entre les deux génotypes (Schoen et al., 2013). Il est également possible qu'un site d'insertion du transgène différent entre les deux lignées puisse avoir un impact différent dans la survie des CCE. 5.5. Conclusion A travers cette étude, nous avons identifié les mécanismes moléculaires de la neuropathie auditive AUNA1. Ceci constitue une étape primordiale pour le développement d'un traitement en faveur des personnes atteintes de cette surdité. De plus, au-delà d'élucider les mécanismes d'AUNA1, notre étude dévoile ne nouvelle cause des neuropathies auditives, à savoir la ciliopathie spécifique des CCI. 87 6. Références 88 Ahmed ZM, Riazuddin S, Ahmad J, Bernstein SL, Guo Y, Sabar MF, Sieving P, Griffith AJ, Friedman TB, Belyantseva IA, Wilcox ER (2003) PCDH15 is expressed in the neurosensory epithelium of the eye and ear and mutant alleles are responsible for both USH1F and DFNB23. Hum Mol Genet 12:3215-3223. Alberts AS, Bouquin N, Johnston LH, Treisman R (1998) Analysis of RhoA-binding proteins reveals an interaction domain conserved in heterotrimeric G protein beta subunits and the yeast response regulator protein Skn7. J Biol Chem 273:8616-8622. Alexander C, Votruba M, Pesch UE, Thiselton DL, Mayer S, Moore A, Rodriguez M, Kellner U, Leo-Kottler B, Auburger G, Bhattacharya SS, Wissinger B (2000) OPA1, encoding a dynamin-related GTPase, is mutated in autosomal dominant optic atrophy linked to chromosome 3q28. Nat Genet 26:211-215. Amatuzzi MG, Northrop C, Liberman MC, Thornton A, Halpin C, Herrmann B, Pinto LE, Saenz A, Carranza A, Eavey RD (2001) Selective inner hair cell loss in premature infants and cochlea pathological patterns from neonatal intensive care unit autopsies. Arch Otolaryngol Head Neck Surg 127:629-636. Antonellis PJ, Pollock LM, Chou SW, Hassan A, Geng R, Chen X, Fuchs E, Alagramam KN, Auer M, McDermott BM, Jr. (2014) ACF7 is a hair-bundle antecedent, positioned to integrate cuticular plate actin and somatic tubulin. J Neurosci 34:305-312. Arima T, Uemura T, Yamamoto T (1987) Three-dimensional visualizations of the inner ear hair cell of the guinea pig. A rapid-freeze, deep-etch study of filamentous and membranous organelles. Hear Res 25:61-68. Ashmore J (2008) Cochlear outer hair cell motility. Physiol Rev 88:173-210. Assad JA, Shepherd GM, Corey DP (1991) Tip-link integrity and mechanical transduction in vertebrate hair cells. Neuron 7:985-994. Attias J, Raveh E, Aizer-Dannon A, Bloch-Mimouni A, Fattal-Valevski A (2012) Auditory system dysfunction due to infantile thiamine deficiency: long-term auditory sequelae. Audiol Neurootol 17:309-320. Baig SM, Koschak A, Lieb A, Gebhart M, Dafinger C, Nurnberg G, Ali A, Ahmad I, Sinnegger-Brauns MJ, Brandt N, Engel J, Mangoni ME, Farooq M, Khan HU, Nurnberg P, Striessnig J, Bolz HJ (2011) Loss of Ca(v)1.3 (CACNA1D) function in a human channelopathy with bradycardia and congenital deafness. Nat Neurosci 14:7784. Bartolini F, Gundersen GG (2010) Formins and microtubules. Biochim Biophys Acta 1803:164-173. Bartolini F, Moseley JB, Schmoranzer J, Cassimeris L, Goode BL, Gundersen GG (2008) The formin mDia2 stabilizes microtubules independently of its actin nucleation activity. J Cell Biol 181:523-536. Bashtanov ME, Goodyear RJ, Richardson GP, Russell IJ (2004) The mechanical properties of chick (Gallus domesticus) sensory hair bundles: relative contributions of structures sensitive to calcium chelation and subtilisin treatment. J Physiol 559:287-299. Beurg M, Fettiplace R, Nam JH, Ricci AJ (2009) Localization of inner hair cell mechanotransducer channels using high-speed calcium imaging. Nat Neurosci 12:553558. 89 Brandt A, Striessnig J, Moser T (2003) CaV1.3 channels are essential for development and presynaptic activity of cochlear inner hair cells. J Neurosci 23:10832-10840. Chaib H, Place C, Salem N, Chardenoux S, Vincent C, Weissenbach J, El-Zir E, Loiselet J, Petit C (1996) A gene responsible for a sensorineural nonsyndromic recessive deafness maps to chromosome 2p22-23. Hum Mol Genet 5:155-158. Delettre C, Lenaers G, Griffoin JM, Gigarel N, Lorenzo C, Belenguer P, Pelloquin L, Grosgeorge J, Turc-Carel C, Perret E, Astarie-Dequeker C, Lasquellec L, Arnaud B, Ducommun B, Kaplan J, Hamel CP (2000) Nuclear gene OPA1, encoding a mitochondrial dynamin-related protein, is mutated in dominant optic atrophy. Nat Genet 26:207-210. Dememes D, Scarfone E (1992) Fodrin immunocytochemical localization in the striated organelles of the rat vestibular hair cells. Hear Res 61:155-160. DeRosier DJ, Tilney LG (1989) The structure of the cuticular plate, an in vivo actin gel. J Cell Biol 109:2853-2867. DeWard AD, Alberts AS (2009) Ubiquitin-mediated degradation of the formin mDia2 upon completion of cell division. J Biol Chem 284:20061-20069. Drummond MC, Barzik M, Bird JE, Zhang DS, Lechene CP, Corey DP, Cunningham LL, Friedman TB (2015) Live-cell imaging of actin dynamics reveals mechanisms of stereocilia length regulation in the inner ear. Nat Commun 6:6873. Duncker SV, Franz C, Kuhn S, Schulte U, Campanelli D, Brandt N, Hirt B, Fakler B, Blin N, Ruth P, Engel J, Marcotti W, Zimmermann U, Knipper M (2013) Otoferlin couples to clathrin-mediated endocytosis in mature cochlear inner hair cells. J Neurosci 33:95089519. Evangelista M, Zigmond S, Boone C (2003) Formins: signaling effectors for assembly and polarization of actin filaments. J Cell Sci 116:2603-2611. Ferre M, Bonneau D, Milea D, Chevrollier A, Verny C, Dollfus H, Ayuso C, Defoort S, Vignal C, Zanlonghi X, Charlin JF, Kaplan J, Odent S, Hamel CP, Procaccio V, Reynier P, Amati-Bonneau P (2009) Molecular screening of 980 cases of suspected hereditary optic neuropathy with a report on 77 novel OPA1 mutations. Hum Mutat 30:E692-705. Fettiplace R, Hackney CM (2006) The sensory and motor roles of auditory hair cells. Nat Rev Neurosci 7:19-29. Fettiplace R, Kim KX (2014) The physiology of mechanoelectrical transduction channels in hearing. Physiol Rev 94:951-986. Flock A, Cheung HC (1977) Actin filaments in sensory hairs of inner ear receptor cells. J Cell Biol 75:339-343. Francis SP, Krey JF, Krystofiak ES, Cui R, Nanda S, Xu W, Kachar B, Barr-Gillespie PG, Shin JB (2015) A short splice form of Xin-actin binding repeat containing 2 (XIRP2) lacking the Xin repeats is required for maintenance of stereocilia morphology and hearing function. J Neurosci 35:1999-2014. Friedmann I, Cawthorne T, McLay K, Bird ES (1963) Electron Microscopic Observations on the Human Membranous Labyrinth with Particular Reference to M'eni'ere's Disease. J Ultrastruct Res 49:123-138. Furness DN, Hackney CM, Steyger PS (1990) Organization of microtubules in cochlear hair cells. J Electron Microsc Tech 15:261-279. 90 Furness DN, Katori Y, Mahendrasingam S, Hackney CM (2005) Differential distribution of beta- and gamma-actin in guinea-pig cochlear sensory and supporting cells. Hear Res 207:22-34. Furness DN, Mahendrasingam S, Ohashi M, Fettiplace R, Hackney CM (2008) The dimensions and composition of stereociliary rootlets in mammalian cochlear hair cells: comparison between high- and low-frequency cells and evidence for a connection to the lateral membrane. J Neurosci 28:6342-6353. Goode BL, Eck MJ (2007) Mechanism and function of formins in the control of actin assembly. Annu Rev Biochem 76:593-627. Goodyear RJ, Legan PK, Wright MB, Marcotti W, Oganesian A, Coats SA, Booth CJ, Kros CJ, Seifert RA, Bowen-Pope DF, Richardson GP (2003) A receptor-like inositol lipid phosphatase is required for the maturation of developing cochlear hair bundles. J Neurosci 23:9208-9219. Greene CC, McMillan PM, Barker SE, Kurnool P, Lomax MI, Burmeister M, Lesperance MM (2001) DFNA25, a novel locus for dominant nonsyndromic hereditary hearing impairment, maps to 12q21-24. Am J Hum Genet 68:254-260. Griguer C, Lehouelleur J, Valat J, Sahuquet A, Sans A (1993) Voltage dependent reversible movements of the apex in isolated guinea pig vestibular hair cells. Hear Res 67:110116. Haeseleer F, Imanishi Y, Maeda T, Possin DE, Maeda A, Lee A, Rieke F, Palczewski K (2004) Essential role of Ca2+-binding protein 4, a Cav1.4 channel regulator, in photoreceptor synaptic function. Nat Neurosci 7:1079-1087. Hangen E, Blomgren K, Benit P, Kroemer G, Modjtahedi N (2010) Life with or without AIF. Trends Biochem Sci 35:278-287. Hasson T, Gillespie PG, Garcia JA, MacDonald RB, Zhao Y, Yee AG, Mooseker MS, Corey DP (1997) Unconventional myosins in inner-ear sensory epithelia. J Cell Biol 137:1287-1307. Haustein MD, Read DJ, Steinert JR, Pilati N, Dinsdale D, Forsythe ID (2010) Acute hyperbilirubinaemia induces presynaptic neurodegeneration at a central glutamatergic synapse. J Physiol 588:4683-4693. Henry WR, Mulroy MJ (1995) Afferent synaptic changes in auditory hair cells during noiseinduced temporary threshold shift. Hear Res 84:81-90. Hirokawa N (1986) Cytoskeletal architecture of the chicken hair cells revealed with the quickfreeze, deep-etch technique. Hear Res 22:41-54. Hirokawa N, Tilney LG (1982) Interactions between actin filaments and between actin filaments and membranes in quick-frozen and deeply etched hair cells of the chick ear. J Cell Biol 95:249-261. Hudspeth AJ (1982) Extracellular current flow and the site of transduction by vertebrate hair cells. J Neurosci 2:1-10. Ishizaki T, Morishima Y, Okamoto M, Furuyashiki T, Kato T, Narumiya S (2001) Coordination of microtubules and the actin cytoskeleton by the Rho effector mDia1. Nat Cell Biol 3:8-14. Jaeger RG, Fex J, Kachar B (1994) Structural basis for mechanical transduction in the frog vestibular sensory apparatus: II. The role of microtubules in the organization of the cuticular plate. Hear Res 77:207-215. 91 Jaramillo F, Hudspeth AJ (1991) Localization of the hair cell's transduction channels at the hair bundle's top by iontophoretic application of a channel blocker. Neuron 7:409-420. Ji P, Jayapal SR, Lodish HF (2008) Enucleation of cultured mouse fetal erythroblasts requires Rac GTPases and mDia2. Nat Cell Biol 10:314-321. Johnson SL, Beurg M, Marcotti W, Fettiplace R (2011) Prestin-driven cochlear amplification is not limited by the outer hair cell membrane time constant. Neuron 70:1143-1154. Jung S, Maritzen T, Wichmann C, Jing Z, Neef A, Revelo NH, Al-Moyed H, Meese S, Wojcik SM, Panou I, Bulut H, Schu P, Ficner R, Reisinger E, Rizzoli SO, Neef J, Strenzke N, Haucke V, Moser T (2015) Disruption of adaptor protein 2mu (AP-2mu) in cochlear hair cells impairs vesicle reloading of synaptic release sites and hearing. EMBO J 34:2686-2702. Kabzinska D, Korwin-Piotrowska T, Drechsler H, Drac H, Hausmanowa-Petrusewicz I, Kochanski A (2007) Late-onset Charcot-Marie-Tooth type 2 disease with hearing impairment associated with a novel Pro105Thr mutation in the MPZ gene. Am J Med Genet A 143A:2196-2199. Kazmierczak P, Sakaguchi H, Tokita J, Wilson-Kubalek EM, Milligan RA, Muller U, Kachar B (2007) Cadherin 23 and protocadherin 15 interact to form tip-link filaments in sensory hair cells. Nature 449:87-91. Kennedy HJ, Crawford AC, Fettiplace R (2005) Force generation by mammalian hair bundles supports a role in cochlear amplification. Nature 433:880-883. Kikkawa YS, Pawlowski KS, Wright CG, Alagramam KN (2008) Development of outer hair cells in Ames waltzer mice: mutation in protocadherin 15 affects development of cuticular plate and associated structures. Anat Rec (Hoboken) 291:224-232. Kimura RS (1975) The ultrastructure of the organ of Corti. Int Rev Cytol 42:173-222. Kirkim G, Serbetcioglu B, Erdag TK, Ceryan K (2008) The frequency of auditory neuropathy detected by universal newborn hearing screening program. Int J Pediatr Otorhinolaryngol 72:1461-1469. Kitajiri S, Sakamoto T, Belyantseva IA, Goodyear RJ, Stepanyan R, Fujiwara I, Bird JE, Riazuddin S, Ahmed ZM, Hinshaw JE, Sellers J, Bartles JR, Hammer JA, 3rd, Richardson GP, Griffith AJ, Frolenkov GI, Friedman TB (2010) Actin-bundling protein TRIOBP forms resilient rootlets of hair cell stereocilia essential for hearing. Cell 141:786-798. Kovach MJ, Campbell KC, Herman K, Waggoner B, Gelber D, Hughes LF, Kimonis VE (2002) Anticipation in a unique family with Charcot-Marie-Tooth syndrome and deafness: delineation of the clinical features and review of the literature. Am J Med Genet 108:295-303. Kozlov AS, Baumgart J, Risler T, Versteegh CP, Hudspeth AJ (2011) Forces between clustered stereocilia minimize friction in the ear on a subnanometre scale. Nature 474:376-379. Krey JF, Sherman NE, Jeffery ED, Choi D, Barr-Gillespie PG (2015) The proteome of mouse vestibular hair bundles over development. Sci Data 2:150047. Kuhn S, Geyer M (2014) Formins as effector proteins of Rho GTPases. Small GTPases 5:e29513. 92 Lee HY, Raphael PD, Park J, Ellerbee AK, Applegate BE, Oghalai JS (2015) Noninvasive in vivo imaging reveals differences between tectorial membrane and basilar membrane traveling waves in the mouse cochlea. Proc Natl Acad Sci U S A 112:3128-3133. Legan PK, Lukashkina VA, Goodyear RJ, Kossi M, Russell IJ, Richardson GP (2000) A targeted deletion in alpha-tectorin reveals that the tectorial membrane is required for the gain and timing of cochlear feedback. Neuron 28:273-285. Leung CL, Sun D, Zheng M, Knowles DR, Liem RK (1999) Microtubule actin cross-linking factor (MACF): a hybrid of dystonin and dystrophin that can interact with the actin and microtubule cytoskeletons. J Cell Biol 147:1275-1286. Liberman MC (1987) Chronic ultrastructural changes in acoustic trauma: serial-section reconstruction of stereocilia and cuticular plates. Hear Res 26:65-88. Liberman MC, Tartaglini E, Fleming JC, Neufeld EJ (2006) Deletion of SLC19A2, the high affinity thiamine transporter, causes selective inner hair cell loss and an auditory neuropathy phenotype. J Assoc Res Otolaryngol 7:211-217. Liberman MC, Gao J, He DZ, Wu X, Jia S, Zuo J (2002) Prestin is required for electromotility of the outer hair cell and for the cochlear amplifier. Nature 419:300-304. Lumpkin EA, Hudspeth AJ (1995) Detection of Ca2+ entry through mechanosensitive channels localizes the site of mechanoelectrical transduction in hair cells. Proc Natl Acad Sci U S A 92:10297-10301. Lynch ED, Lee MK, Morrow JE, Welcsh PL, Leon PE, King MC (1997) Nonsyndromic deafness DFNA1 associated with mutation of a human homolog of the Drosophila gene diaphanous. Science 278:1315-1318. Marlin S, Feldmann D, Nguyen Y, Rouillon I, Loundon N, Jonard L, Bonnet C, Couderc R, Garabedian EN, Petit C, Denoyelle F (2010) Temperature-sensitive auditory neuropathy associated with an otoferlin mutation: Deafening fever! Biochem Biophys Res Commun 394:737-742. Moser T, Starr A (2016) Auditory neuropathy--neural and synaptic mechanisms. Nat Rev Neurol 12:135-149. Neef J, Gehrt A, Bulankina AV, Meyer AC, Riedel D, Gregg RG, Strenzke N, Moser T (2009) The Ca2+ channel subunit beta2 regulates Ca2+ channel abundance and function in inner hair cells and is required for hearing. J Neurosci 29:10730-10740. Nicholson-Tomishima K, Ryan TA (2004) Kinetic efficiency of endocytosis at mammalian CNS synapses requires synaptotagmin I. Proc Natl Acad Sci U S A 101:16648-16652. Norberg E, Orrenius S, Zhivotovsky B (2010) Mitochondrial regulation of cell death: processing of apoptosis-inducing factor (AIF). Biochem Biophys Res Commun 396:95-100. Nouvian R, Beutner D, Parsons TD, Moser T (2006) Structure and function of the hair cell ribbon synapse. J Membr Biol 209:153-165. Nouvian R, Neef J, Bulankina AV, Reisinger E, Pangrsic T, Frank T, Sikorra S, Brose N, Binz T, Moser T (2011) Exocytosis at the hair cell ribbon synapse apparently operates without neuronal SNARE proteins. Nat Neurosci 14:411-413. Oishi K, Hofmann S, Diaz GA, Brown T, Manwani D, Ng L, Young R, Vlassara H, Ioannou YA, Forrest D, Gelb BD (2002) Targeted disruption of Slc19a2, the gene encoding the high-affinity thiamin transporter Thtr-1, causes diabetes mellitus, sensorineural deafness and megaloblastosis in mice. Hum Mol Genet 11:2951-2960. 93 Palazzo AF, Cook TA, Alberts AS, Gundersen GG (2001) mDia mediates Rho-regulated formation and orientation of stable microtubules. Nat Cell Biol 3:723-729. Pangrsic T, Lasarow L, Reuter K, Takago H, Schwander M, Riedel D, Frank T, Tarantino LM, Bailey JS, Strenzke N, Brose N, Muller U, Reisinger E, Moser T (2010) Hearing requires otoferlin-dependent efficient replenishment of synaptic vesicles in hair cells. Nat Neurosci 13:869-876. Pawlowski KS, Kikkawa YS, Wright CG, Alagramam KN (2006) Progression of inner ear pathology in Ames waltzer mice and the role of protocadherin 15 in hair cell development. J Assoc Res Otolaryngol 7:83-94. Perrin BJ, Sonnemann KJ, Ervasti JM (2010) beta-actin and gamma-actin are each dispensable for auditory hair cell development but required for Stereocilia maintenance. PLoS Genet 6:e1001158. Pickles JO, Comis SD, Osborne MP (1984) Cross-links between stereocilia in the guinea pig organ of Corti, and their possible relation to sensory transduction. Hear Res 15:103112. Platzer J, Engel J, Schrott-Fischer A, Stephan K, Bova S, Chen H, Zheng H, Striessnig J (2000) Congenital deafness and sinoatrial node dysfunction in mice lacking class D Ltype Ca2+ channels. Cell 102:89-97. Pollock LM, McDermott BM, Jr. (2015) The cuticular plate: a riddle, wrapped in a mystery, inside a hair cell. Birth Defects Res C Embryo Today 105:126-139. Polster BM (2013) AIF, reactive oxygen species, and neurodegeneration: a "complex" problem. Neurochem Int 62:695-702. Poskanzer KE, Marek KW, Sweeney ST, Davis GW (2003) Synaptotagmin I is necessary for compensatory synaptic vesicle endocytosis in vivo. Nature 426:559-563. Pruyne D, Evangelista M, Yang C, Bi E, Zigmond S, Bretscher A, Boone C (2002) Role of formins in actin assembly: nucleation and barbed-end association. Science 297:612615. Puel J, Durrieu J, Rebillard G, Vidal D, Assié R, Uziel A (1995) Comparison between auditory brainstem responses and distortion products otoacoustic emissions after temporary threshold shift in guinea pig. Acta Acustica 3:75-82. Puel JL, Pujol R, Ladrech S, Eybalin M (1991) Alpha-amino-3-hydroxy-5-methyl-4-isoxazole propionic acid electrophysiological and neurotoxic effects in the guinea-pig cochlea. Neuroscience 45:63-72. Puel JL, Ruel J, Gervais d'Aldin C, Pujol R (1998) Excitotoxicity and repair of cochlear synapses after noise-trauma induced hearing loss. Neuroreport 9:2109-2114. Rance G, Starr A (2015) Pathophysiological mechanisms and functional hearing consequences of auditory neuropathy. Brain 138:3141-3158. Raphael Y, Athey BD, Wang Y, Lee MK, Altschuler RA (1994) F-actin, tubulin and spectrin in the organ of Corti: comparative distribution in different cell types and mammalian species. Hear Res 76:173-187. Reisinger E, Bresee C, Neef J, Nair R, Reuter K, Bulankina A, Nouvian R, Koch M, Buckers J, Kastrup L, Roux I, Petit C, Hell SW, Brose N, Rhee JS, Kugler S, Brigande JV, Moser T (2011) Probing the functional equivalence of otoferlin and synaptotagmin 1 in exocytosis. J Neurosci 31:4886-4895. 94 Riazuddin S, Khan SN, Ahmed ZM, Ghosh M, Caution K, Nazli S, Kabra M, Zafar AU, Chen K, Naz S, Antonellis A, Pavan WJ, Green ED, Wilcox ER, Friedman PL, Morell RJ, Friedman TB (2006) Mutations in TRIOBP, which encodes a putative cytoskeletalorganizing protein, are associated with nonsyndromic recessive deafness. Am J Hum Genet 78:137-143. Ricci AJ, Crawford AC, Fettiplace R (2003) Tonotopic variation in the conductance of the hair cell mechanotransducer channel. Neuron 40:983-990. Roux I, Safieddine S, Nouvian R, Grati M, Simmler MC, Bahloul A, Perfettini I, Le Gall M, Rostaing P, Hamard G, Triller A, Avan P, Moser T, Petit C (2006) Otoferlin, defective in a human deafness form, is essential for exocytosis at the auditory ribbon synapse. Cell 127:277-289. Ruel J, Emery S, Nouvian R, Bersot T, Amilhon B, Van Rybroek JM, Rebillard G, Lenoir M, Eybalin M, Delprat B, Sivakumaran TA, Giros B, El Mestikawy S, Moser T, Smith RJ, Lesperance MM, Puel JL (2008) Impairment of SLC17A8 encoding vesicular glutamate transporter-3, VGLUT3, underlies nonsyndromic deafness DFNA25 and inner hair cell dysfunction in null mice. Am J Hum Genet 83:278-292. Santarelli R, Rossi R, Scimemi P, Cama E, Valentino ML, La Morgia C, Caporali L, Liguori R, Magnavita V, Monteleone A, Biscaro A, Arslan E, Carelli V (2015) OPA1-related auditory neuropathy: site of lesion and outcome of cochlear implantation. Brain 138:563-576. Sarzi E, Angebault C, Seveno M, Gueguen N, Chaix B, Bielicki G, Boddaert N, MaussetBonnefont AL, Cazevieille C, Rigau V, Renou JP, Wang J, Delettre C, Brabet P, Puel JL, Hamel CP, Reynier P, Lenaers G (2012) The human OPA1delTTAG mutation induces premature age-related systemic neurodegeneration in mouse. Brain 135:35993613. Scheffer DI, Zhang DS, Shen J, Indzhykulian A, Karavitaki KD, Xu YJ, Wang Q, Lin JJ, Chen ZY, Corey DP (2015) XIRP2, an actin-binding protein essential for inner ear hair-cell stereocilia. Cell Rep 10:1811-1818. Schmitz F, Konigstorfer A, Sudhof TC (2000) RIBEYE, a component of synaptic ribbons: a protein's journey through evolution provides insight into synaptic ribbon function. Neuron 28:857-872. Schneider ME, Belyantseva IA, Azevedo RB, Kachar B (2002) Rapid renewal of auditory hair bundles. Nature 418:837-838. Schoen CJ, Burmeister M, Lesperance MM (2013) Diaphanous homolog 3 (Diap3) overexpression causes progressive hearing loss and inner hair cell defects in a transgenic mouse model of human deafness. PLoS One 8:e56520. Schoen CJ, Emery SB, Thorne MC, Ammana HR, Sliwerska E, Arnett J, Hortsch M, Hannan F, Burmeister M, Lesperance MM (2010) Increased activity of Diaphanous homolog 3 (DIAPH3)/diaphanous causes hearing defects in humans with auditory neuropathy and in Drosophila. Proc Natl Acad Sci U S A 107:13396-13401. Schrauwen I, Helfmann S, Inagaki A, Predoehl F, Tabatabaiefar MA, Picher MM, Sommen M, Seco CZ, Oostrik J, Kremer H, Dheedene A, Claes C, Fransen E, Chaleshtori MH, Coucke P, Lee A, Moser T, Van Camp G (2012) A mutation in CABP2, expressed in cochlear hair cells, causes autosomal-recessive hearing impairment. Am J Hum Genet 91:636-645. 95 Schulman-Galambos C, Galambos R (1979) Brain stem evoked response audiometry in newborn hearing screening. Arch Otolaryngol 105:86-90. Seal RP, Akil O, Yi E, Weber CM, Grant L, Yoo J, Clause A, Kandler K, Noebels JL, Glowatzki E, Lustig LR, Edwards RH (2008) Sensorineural deafness and seizures in mice lacking vesicular glutamate transporter 3. Neuron 57:263-275. Seaman JW, Jr., Walls SC, Wise SE, Jaeger RG (1994) Caveat emptor: rank transform methods and interaction. Trends Ecol Evol 9:261-263. Self T, Mahony M, Fleming J, Walsh J, Brown SD, Steel KP (1998) Shaker-1 mutations reveal roles for myosin VIIA in both development and function of cochlear hair cells. Development 125:557-566. Self T, Sobe T, Copeland NG, Jenkins NA, Avraham KB, Steel KP (1999) Role of myosin VI in the differentiation of cochlear hair cells. Dev Biol 214:331-341. Senften M, Schwander M, Kazmierczak P, Lillo C, Shin JB, Hasson T, Geleoc GS, Gillespie PG, Williams D, Holt JR, Muller U (2006) Physical and functional interaction between protocadherin 15 and myosin VIIa in mechanosensory hair cells. J Neurosci 26:20602071. Sergeyenko Y, Lall K, Liberman MC, Kujawa SG (2013) Age-related cochlear synaptopathy: an early-onset contributor to auditory functional decline. J Neurosci 33:13686-13694. Shahin H, Walsh T, Sobe T, Abu Sa'ed J, Abu Rayan A, Lynch ED, Lee MK, Avraham KB, King MC, Kanaan M (2006) Mutations in a novel isoform of TRIOBP that encodes a filamentous-actin binding protein are responsible for DFNB28 recessive nonsyndromic hearing loss. Am J Hum Genet 78:144-152. Slepecky N, Chamberlain SC (1985) Immunoelectron microscopic and immunofluorescent localization of cytoskeletal and muscle-like contractile proteins in inner ear sensory hair cells. Hear Res 20:245-260. Slepecky N, Hamernik RP, Henderson D (1980) A re-examination of a hair cell organelle in the cuticular plate region and its possible relation to active processes in the cochlea. Hear Res 2:413-421. Sobkowicz HM, Slapnick SM, August BK (1995) The kinocilium of auditory hair cells and evidence for its morphogenetic role during the regeneration of stereocilia and cuticular plates. J Neurocytol 24:633-653. Spencer RF, Shaia WT, Gleason AT, Sismanis A, Shapiro SM (2002) Changes in calciumbinding protein expression in the auditory brainstem nuclei of the jaundiced Gunn rat. Hear Res 171:129-141. Spoendlin H, Brun JP (1974) The block-surface technique for evaluation of cochlear pathology. Arch Otorhinolaryngol 208:137-145. Stamataki S, Francis HW, Lehar M, May BJ, Ryugo DK (2006) Synaptic alterations at inner hair cells precede spiral ganglion cell loss in aging C57BL/6J mice. Hear Res 221:104-118. Starr A, Picton TW, Sininger Y, Hood LJ, Berlin CI (1996) Auditory neuropathy. Brain 119 ( Pt 3):741-753. Starr A, Michalewski HJ, Zeng FG, Fujikawa-Brooks S, Linthicum F, Kim CS, Winnier D, Keats B (2003) Pathology and physiology of auditory neuropathy with a novel mutation in the MPZ gene (Tyr145->Ser). Brain 126:1604-1619. 96 Starr A, Isaacson B, Michalewski HJ, Zeng FG, Kong YY, Beale P, Paulson GW, Keats BJ, Lesperance MM (2004) A dominantly inherited progressive deafness affecting distal auditory nerve and hair cells. J Assoc Res Otolaryngol 5:411-426. Steyger PS, Furness DN, Hackney CM, Richardson GP (1989) Tubulin and microtubules in cochlear hair cells: comparative immunocytochemistry and ultrastructure. Hear Res 42:1-16. Stritt S et al. (2016) A gain-of-function variant in DIAPH1 causes dominant macrothrombocytopenia and hearing loss. Blood 127:2903-2914. Szarama KB, Gavara N, Petralia RS, Kelley MW, Chadwick RS (2012) Cytoskeletal changes in actin and microtubules underlie the developing surface mechanical properties of sensory and supporting cells in the mouse cochlea. Development 139:2187-2197. Takasaka T, Shinkawa H, Hashimoto S, Watanuki K, Kawamoto K (1983) High-voltage electron microscopic study of the inner ear. Technique and preliminary results. Ann Otol Rhinol Laryngol Suppl 101:1-12. Taylor R, Bullen A, Johnson SL, Grimm-Gunter EM, Rivero F, Marcotti W, Forge A, Daudet N (2015) Absence of plastin 1 causes abnormal maintenance of hair cell stereocilia and a moderate form of hearing loss in mice. Hum Mol Genet 24:37-49. Tilney LG, Derosier DJ, Mulroy MJ (1980) The organization of actin filaments in the stereocilia of cochlear hair cells. J Cell Biol 86:244-259. Tilney LG, Tilney MS, DeRosier DJ (1992) Actin filaments, stereocilia, and hair cells: how cells count and measure. Annu Rev Cell Biol 8:257-274. Tilney LG, Egelman EH, DeRosier DJ, Saunder JC (1983) Actin filaments, stereocilia, and hair cells of the bird cochlea. II. Packing of actin filaments in the stereocilia and in the cuticular plate and what happens to the organization when the stereocilia are bent. J Cell Biol 96:822-834. Ueyama T, Ninoyu Y, Nishio SY, Miyoshi T, Torii H, Nishimura K, Sugahara K, Sakata H, Thumkeo D, Sakaguchi H, Watanabe N, Usami SI, Saito N, Kitajiri SI (2016) Constitutive activation of DIA1 (DIAPH1) via C-terminal truncation causes human sensorineural hearing loss. EMBO Mol Med. Valat J, Griguer C, Lehouelleur J, Sans A (1991) Motile responses of isolated guinea pig vestibular hair cells. Neurosci Lett 127:231-236. Varga R, Avenarius MR, Kelley PM, Keats BJ, Berlin CI, Hood LJ, Morlet TG, Brashears SM, Starr A, Cohn ES, Smith RJ, Kimberling WJ (2006) OTOF mutations revealed by genetic analysis of hearing loss families including a potential temperature sensitive auditory neuropathy allele. J Med Genet 43:576-581. Verhagen WI, Huygen PL, Gabreels-Festen AA, Engelhart M, van Mierlo PJ, van Engelen BG (2005) Sensorineural hearing impairment in patients with Pmp22 duplication, deletion, and frameshift mutations. Otol Neurotol 26:405-414. Vranceanu F, Perkins GA, Terada M, Chidavaenzi RL, Ellisman MH, Lysakowski A (2012) Striated organelle, a cytoskeletal structure positioned to modulate hair-cell transduction. Proc Natl Acad Sci U S A 109:4473-4478. Wallar BJ, Alberts AS (2003) The formins: active scaffolds that remodel the cytoskeleton. Trends Cell Biol 13:435-446. Wallar BJ, Deward AD, Resau JH, Alberts AS (2007) RhoB and the mammalian Diaphanousrelated formin mDia2 in endosome trafficking. Exp Cell Res 313:560-571. 97 Wang Q, Gu R, Han D, Yang W (2003) Familial auditory neuropathy. Laryngoscope 113:1623-1629. Wang QJ, Li QZ, Rao SQ, Lee K, Huang XS, Yang WY, Zhai SQ, Guo WW, Guo YF, Yu N, Zhao YL, Yuan H, Guan J, Leal SM, Han DY, Shen Y (2006) AUNX1, a novel locus responsible for X linked recessive auditory and peripheral neuropathy, maps to Xq2327.3. J Med Genet 43:e33. Weil D, Blanchard S, Kaplan J, Guilford P, Gibson F, Walsh J, Mburu P, Varela A, Levilliers J, Weston MD, et al. (1995) Defective myosin VIIA gene responsible for Usher syndrome type 1B. Nature 374:60-61. Wen Y, Eng CH, Schmoranzer J, Cabrera-Poch N, Morris EJ, Chen M, Wallar BJ, Alberts AS, Gundersen GG (2004) EB1 and APC bind to mDia to stabilize microtubules downstream of Rho and promote cell migration. Nat Cell Biol 6:820-830. Yasunaga S, Grati M, Cohen-Salmon M, El-Amraoui A, Mustapha M, Salem N, El-Zir E, Loiselet J, Petit C (1999) A mutation in OTOF, encoding otoferlin, a FER-1-like protein, causes DFNB9, a nonsyndromic form of deafness. Nat Genet 21:363-369. Yu-Wai-Man P et al. (2010) Multi-system neurological disease is common in patients with OPA1 mutations. Brain 133:771-786. Zenisek D, Davila V, Wan L, Almers W (2003) Imaging calcium entry sites and ribbon structures in two presynaptic cells. J Neurosci 23:2538-2548. Zhang DS, Piazza V, Perrin BJ, Rzadzinska AK, Poczatek JC, Wang M, Prosser HM, Ervasti JM, Corey DP, Lechene CP (2012) Multi-isotope imaging mass spectrometry reveals slow protein turnover in hair-cell stereocilia. Nature 481:520-524. Zhao Y, Yamoah EN, Gillespie PG (1996) Regeneration of broken tip links and restoration of mechanical transduction in hair cells. Proc Natl Acad Sci U S A 93:15469-15474. Zheng J, Shen W, He DZ, Long KB, Madison LD, Dallos P (2000) Prestin is the motor protein of cochlear outer hair cells. Nature 405:149-155. Zong L et al. (2015) Mutations in apoptosis-inducing factor cause X-linked recessive auditory neuropathy spectrum disorder. J Med Genet 52:523-531. 98 7. Manuscript 99 Remodeling of the inner hair cell microtubule meshwork in auditory neuropathy AUNA1 Clément Surel1*, Marie Guillet1*, Marc Lenoir1, Jérôme Bourien1, Gaston Sendin1, Willy Joly1, Benjamin Delprat1, Marci M. Lesperance2, Jean-Luc Puel1 and Régis Nouvian1,3 *equal contribution 1 Inserm U1051- Institute for Neurosciences of Montpellier University of Montpellier, France 2 Division of Pediatric Otolaryngology, Department of Otolaryngology-Head and Neck Surgery, University of Michigan Health System, Ann Arbor, Michigan USA 48109 Corresponding author: Régis Nouvian Inserm U1051 - Institute for Neurosciences of Montpellier 80, rue Augustin Fliche - 34295 Montpellier Cedex 5, France Tel: 00 33 (0)6 43 34 46 88 - Fax: 00 33 (0)4 99 63 60 20 e-mail: regis.nouvian@inserm.fr Author Contributions: C.S, MG, ML, GS, WJ, JLP and RN Designed Research. C.S, MG, ML, GS Performed research. JB, BJ, MML, JLP and RN Contributed unpublished reagents/ analytic tools. C.S, MG, JB and RN Analyzed data. C.S, MG, ML, JB, GS, WJ, MML, JLP and RN Wrote the paper. Conflict of Interest: Authors report no conflict of interest. Funding sources: This work was supported by the Agence Nationale pour la Recherche (ANR-13-JSV1-0009-01 to R.N.). C.S. and W.J. are recipients of the EpiGenMed Labex fellowship. G.S. is a recipient of the Montpellier university postdoctoral fellowship. Keywords: Cochlea, Deafness, Diaphanous, Diap3, Cuticular Plate 100 Abstract Auditory neuropathy 1 (AUNA1) is a form of human deafness resulting from a point mutation in the 5' untranslated region of the Diaphanous homolog 3 (DIAPH3) gene. Notably, the DIAPH3 mutation leads to the overexpression of the DIAPH3 protein, a formin family member involved in cytoskeleton dynamics. Through study of diap3-overexpressing transgenic (Tg) mice, we examine in further detail the anatomical, functional and molecular mechanisms underlying AUNA1. We identify diap3 as a component of the stereociliary bundle in wild-type mice. In the diap3-overexpressing Tg mice, which show a progressive threshold shift associated with a defect in inner hair cells (IHCs), the neurotransmitter release and potassium conductances are not affected. Strikingly, the overexpression of diap3 results in a selective and early-onset alteration of the IHC cuticular plate. Molecular dissection of the apical components revealed that the microtubule meshwork first undergoes aberrant targeting into the cuticular plate of Tg IHCs, followed by collapse of the stereociliary bundle, with eventual loss of the IHC capacity to transmit incoming auditory stimuli. Significance statement The mutation in the Diaphanous homolog 3 gene, which leads to the diap3 protein overexpression, underlies the human deafness called auditory neuropathy 1 (AUNA1). While diap3 is known to regulate the cytoskeleton, the signaling cascade operating in AUNA1 is still unclear. Using transgenic mice, which overexpress diap3 and thus replicate AUNA1, we show that microtubules accumulate at the apical pole of auditory sensory cells, the inner hair cells. The microtubule network remodeling is followed by the anatomical alteration of the mechano-transduction apparatus, which could explain the failure to transduce acoustic stimuli into neural message. Altogether, this study deciphers the mechanism of AUNA1 deafness, the first step to developing a treatment for patients affected with this form of deafness. 101 Introduction Auditory neuropathy is a form of human deafness in which the auditory brainstem response (ABR) is absent or altered, while outer hair cells (OHCs), which amplify the sound stimulation in the cochlea, are still preserved (Starr et al., 1996; Rance and Starr, 2015). A variety of etiologies may result in this disorder, including defects in cochlear inner hair cells (IHCs) that transduce sound stimulation into neurotransmitter release, and defects or absence of the auditory afferent fibers that convey the neural message to the cochlear nuclei. Auditory neuropathy may be a systemic condition involving neuropathies of multiple cranial and peripheral nerves, while nonsyndromic auditory neuropathy is limited to the auditory nerve. At this time, most cases of nonsyndromic auditory neuropathy arise from synaptic transfer failure (Moser and Starr, 2016). A mutation in the Diaphanous homolog 3 (DIAPH3) gene is responsible for autosomal dominant non-syndromic auditory neuropathy 1 (AUNA1; Greene et al., 2001; Kim et al., 2004; Starr et al., 2004). DIAPH3 belongs to the formin related family, known to promote the nucleation and elongation of actin filaments and to stabilize microtubules (Wallar and Alberts, 2003; Higgs, 2005; Kovar, 2006). Strikingly, the point mutation in the 5' untranslated region of the human DIAPH3 leads to the overexpression of the DIAPH3 protein (Schoen et al., 2010). Accordingly, a drosophila model that expresses a constitutively active diaphanous protein in the auditory organ exhibits an impaired response to sound (Schoen et al., 2010). Transgenic (Tg) mice overexpressing diap3 (the murine ortholog of DIAPH3) have been an useful tool to dissect the AUNA1 mechanism (Schoen et al., 2013), demonstrating that the overexpression of diap3 in Tg mice recapitulates the human AUNA1 phenotype, i.e., a delayed-onset and progressive hearing loss leaving OHCs unaffected (Schoen et al., 2013). In addition, IHCs of Tg mice show fusion of the stereociliar bundle, implicated as the primary cause of the deafness (Schoen et al., 2013). However, the molecular mechanisms responsible for these morphological changes are still unknown. Here, we examine in further detail the anatomical, functional and molecular mechanisms underlying AUNA1, confirming that the diap3-overexpressing Tg mice mimic the human AUNA1 phenotype. Molecular dissection of the apical side revealed that the cytoskeleton meshwork undergoes an aberrant remodeling into the cuticular plate of Tg IHCs at early stages. Strikingly, the overexpression of diap3 leads to an accumulation of microtubules within 102 the IHC cuticular plate. Ultimately, the invasion of microtubules at the apical side of IHCs may interfere with the capability of these sensory cells to transduce incoming acoustic cues. 103 Material and methods Experiments were carried out in accordance with the animal welfare guidelines 2010/63/EC of the European Communities Council Directive regarding the care and use of animals for experimental procedures. Animals were housed in facilities accredited by the French "Ministère de l'Agriculture et de la Forêt" (Agreement C-34-172-36) and the experimental protocol was approved (Authorization CEEA-LR- 12111) by the Animal Ethics Committee of Languedoc-Roussillon (France). Animals. The diap3-overexpressing transgenic mice have been previously described (Schoen et al., 2013). In brief, these animals harbor a random insertion of the transgene, composed of the mouse diap3 gene driven by CMV promoter, in the genomic DNA (Schoen et al., 2013). Two lines of mice were obtained, differing in the number of inserted copies of the transgene: 8 for line 771 and 6 for line 924 (Schoen et al., 2013). Mice were bred in-house and maintained on a FVB/NJ genetic background. Line 924 (FVB-Tg(CAG-Diap3)924/Lesp/J is available from Jackson Laboratories (JAX Stock No. 017881). Line 771 (FVB/N-Tg(CAGDiap3)771Lesp/Mmmh) is available from the Mutant Mouse Research & Resource Center (www.mmrrc.org). Plasmids. Plasmids used for diap1-GFP and diap3-GFP expression in HEK293 cells were pReceiver-M03-Diap1 (Genecopoeia, Rockville, MD, USA) and pEFmEGFP-mDia2 (Addgene, Cambridge, MA, USA), respectively (GenBank accession number: diap1: BC070412.1; diap3: AF094519.1). Diap2 coding sequence was subcloned from the donor plasmid pCMV6-Ac-GFP-diap2 (Origene, Rockville, MD, USA) into the receiver plasmid pEGFP-C3 (Takara, Kyoto, Japan), using In-Fusion® HD Cloning Kit (Takara, Kyoto, Japan; National Center for Biotechnology Information Reference Sequence for diap2: NM_172493.2). Diap2 coding sequence was amplified from the donor plasmid using the primers diap2-PEGFP-3-F (5'-GTACTCAGATCTCGAGATGGAGGAGCTCGGGG-3') and diap2-PEGFP-2-R (5'-TAGATCCGGTGGATCCTTGGATGACATGGCTCCATTG-3') (Eurogentec, Liege, Belgium). The receiver plasmid was digested with XhoI and BamHI restriction enzymes (Promega, Madison, WI, USA). Sub-cloning was performed following the instructions from the manufacturer (Takara). Sequencing of the obtained plasmids for verification was performed by Genewiz (South Plainfield, NJ, USA). 104 Cell culture. Human embryo kidney 293 cell line (HEK293) was maintained in DMEM/F12 culture medium (life technologies, Carlsbad, CA, USA) with 10% of Fetal Bovine Serum (Gibco, Carlsbad, CA, USA) and 1% Penicillin/Streptomycin (Sigma-Aldrich, St Louis, MO, USA) at 37°C in a humidified atmosphere under 5% CO2. Cell transfection and protein extraction. Cells were grown to 60%-80% confluence and transfected with plasmids using Lipofectamine 2000 reagent (Invitrogen, Carlsbad, CA, USA), following the manufacturer's instruction. 48 hours after the transfection, HEK293 cells were lysed with a lysis buffer (pH: 7.6) containing in mM: 20 Tris-HCl, 100 NaCl, 5 EDTA, 1% Triton X-100, 1 Phenylmethylsulfonyl fluoride and cOmpleteTM Protease Inhibitor Cocktail 1X (Sigma-Aldrich, St Louis, MO, USA). Samples were placed on an orbital shaker 2 hours at 4°C then centrifuged during 20 min at 13,200 rpm and at 4°C. Supernatants were collected and protein concentration was determined using PierceTM BCA Protein Assay Kit (Thermo Scientific, Rockford, IL, USA). Western blot. Each sample was prepared by mixing 20 μg of protein with loading buffer 1X (Bio-Rad, Hercules, CA, USA) and 0.05% β-mercaptoethanol (Sigma-Aldrich, St Louis, MO, USA). Samples were heated 5 min at 95°C to allow denaturation of the proteins by β-mercaptoethanol. Samples were dropped on 10% polycrylamide gel (Bio-Rad, Hercules, CA, USA). After migration, proteins were transferred on membrane (Bio-Rad, Hercules, CA, USA). Membranes were incubated 1 hour in a blocking buffer containing: Tris-buffered saline (TBS) 1X, 0.001% Tween-20 and 3% milk. After blocking, primary antibodies were added into the blocking buffer and membranes were incubated overnight at 4°C. The used primary antibodies and their respective dilution were GFP 1:10,000 (Abcam, Cambridge, England, UK), Diap3 1:20,000 (Eurogentec, Liege, Belgium) and α-Tubulin 1:5,000 (Abcam, Cambridge, England, UK). Membranes were washed 5x5 min with the washing buffer containing: TBS and 0.001% Tween-20. They were incubated 2 hours in the blocking buffer containing secondary antibodies conjugated to horseradish peroxydase. They were washed 5x5 min with the washing buffer. After the last washing, membranes were incubated 1-5 min in ECL solution (Bio-Rad, Hercules, CA, USA) and staining were revealed using ChemiDocTM MP System instrument (Bio-Rad, Hercules, CA, USA). 105 Genotyping. Transgenic mice were identified by Polymerase Chain Reaction (PCR) analysis of genomic DNA using FastStart PCR Master Mix (Roche Applied Science, Penzberg, Germany). Tail or toe biopsies were digested overnight at 55°C in 300 μl of lysis buffer (containing in mM: 100 Tris-HCL pH 8.5; 5 EDTA; 0.2% SDS; 200 NaCl; pH : 8.5) with 100μg/ml of proteinase K (Promega, Madison, WI, USA). Samples were centrifuged 5 min at 10 000g and supernatants were collected. DNA was precipitated by addition of 500 μl of isopropanol. Samples were centrifuged 10 min at 10 000 g and supernatants were discarded. DNA was washed with 500 μl of EtOH 70% and centrifuged 5 min at 10 000 g. After evaporation of the EtOH, DNA was suspended in 100 μl of water. The PCR was conducted with the following thermal cycle program: 1 cycle of 95°C for 10 min; 40 cycles of 94°C for 40 s, 62°C for 30 s, 72°C for 1 min; final elongation step at 72°C for 7 min. A part of the exogenous promoter, unique to the transgene and therefore not present in the wild-type mouse genomic DNA, was detected using the 5'-TGG TTA TTG TGC TGT CTC ATC A-3' forward primer and the 5'-TTG TCC AGC ATA TCA TCT GTC A- 3' reverse primer (Eurogentec, Liege, Belgium). Thus, a 300-bp amplicon was only obtained from DNA of transgenic mice, which was visible on a 2% agarose gel electrophoresis of PCR product. In vivo recordings. Mice were anesthetized by an intraperitoneal injection of a mixture of Zoletil 50 (40mg/kg) and Rompun 2% (3mg/kg). The rectal temperature was measured with a thermistor probe, and maintained at 37.1°C ± 1°C, using a heated underblanket. (Homeothermic Blanket Systems, Harvard Apparatus). Heart rate was monitored via EKG electrodes. Auditory brainstem response and distortion product otoacoustic emission recordings. For auditory brainstem response (ABR), the acoustical stimuli consisted of 9-ms tone bursts, with a plateau and a 1-ms rise/fall time, delivered at a rate of 11/s with alternate polarity by a JBL 2426H loudspeaker in a calibrated free field. Stimuli were presented to the left ear by varying intensities from 100 dB SPL to 0 dB SPL, in 5 dB step. Stimuli were generated and data acquired using MATLAB (MathWorks, Natick, MA, USA) and LabView (National Instruments, Austin, TX, USA) software. The difference potential between vertex and mastoid intradermal needles was amplified (2500 times, VIP-20 amplifier), sampled (at a rate of 50 106 kHz), filtered (bandwidth of 0.3-3 kHz) and averaged (100 to 700 times). Data were displayed using LabView software and stored on a computer (Dell T7400). ABR thresholds were defined as the lowest sound intensity, which elicits a clearly distinguishable response. For distortion distortion product otoacoustic emission (DPOAE) recordings, an ER-10C S/N 2528 probe (Etymotic Research), consisting of two emitters and one microphone, was inserted in the left external auditory canal. Stimuli were two equilevel (65 dB SPL) primary tones f1 and f2 with a constant f2/f1 ratio of 1.2. The distortion 2f1-f2 was extracted from the ear canal sound pressure and processed by HearID auditory diagnostic system (Mimosa Acoustic) on a computer (Hewlett Packard). The probe was self-calibrated for the two stimulating tones before each recording. f1 and f2 were presented simultaneously, sweeping f2 from 20 kHz to 2 kHz by quarter octave steps. For each frequency, the distortion product 2f1-f2 and the neighboring noise amplitude levels were measured and expressed as a function of f2. Electrocochleography. A retroauricular incision of the skin was performed on anesthetized mice and the left tympanic bulla was opened. Cochlear potentials were recorded with a silver positive electrode placed on the round window membrane. The acoustical stimuli were identical to those used to elicit ABRs except for the alternate polarity. Gross cochlear potentials were amplified (2500 times, VIP-20 amplifier), sampled (at a rate of 50 kHz), filtered (bandwidth of 0.001-20 kHz), averaged (50 to 300 times), displayed with LabView software and stored on a computer (Dell T7400). The signal was then digitally filtered using MATLAB software with a low-pass filter (cut-off frequency 3.5 kHz) to measure the compound action potential (CAP) and the summating potential (SP), and with a band-pass filter centered on the frequency of stimulation with a 4 kHz span to measure the cochlear microphonic (CM). Patch-clamp recordings. After cervical dislocation of mice (postnatal day 13 [P13] to 19 [P19]), IHCs of the apical coil of freshly dissected organs of Corti were patch-clamped at their basolateral face at room temperature in tight whole-cell or perforated-patch configurations (Nouvian, 2007). The dissection solution contained the following in mM: 5.36 KCl, 141.7 NaCl, 1 MgCl2-6H2O, 0.5 MgSO4-7H2O, 10 HEPES and 10 D-glucose. For recording of K+ currents, the extracellular solution contained the following in mM: 5.8 KCl, 144 NaCl, 0.9 MgCl2-6H2O, 1.3 CaCl2, 10 HEPES, 10 D-Glucose. The pipette solution for recording of K+ currents contained the following in mM: 135 KCl, 1 MgCl2-6H2O, 10 HEPES, 2 Mg-ATP, 107 0.3 Na-GTP, 5 EGTA. For Ca2+ current and capacitance measurement recordings, the extracellular solution contained the following in mM: 2.8 KCl, 105 NaCl, 1 MgCl2-6H2O, 2 CaCl2, 10 HEPES, 35 TEA-Cl, 1 CsCl, 10 D-Glucose. The pipette solution for whole-cell recordings of Ca2+ currents contained the following in mM: 135 Cs-glutamic acid, TEA-Cl, 10 4-AP, 1 MgCl2-6H2O, 10 HEPES, 2 Mg-ATP, 0.3 Na-GTP. The pipette solution for perforated patch recordings contained the following in mM: 135 KCl, 10 HEPES, 1 MgCl2 and 400 μg/ml amphotericin B. Solutions were adjusted to pH 7.3 and had osmolarities between 290 and 310 mOsm/kg H2O. All chemicals were obtained from Sigma (St. Louis, MO, USA) with the exception of amphotericin B (Calbiochem, La Jolla, USA). Patch pipettes were pulled from borosilicate glass capillaries (Kwik Fil, WPI, Worcester, MA, USA) with a two-step vertical puller PIP 6 (HEKA Elektronik, Lambrecht, Germany) and coated with silicone elastomer (Sylgard). K+ current recordings and resting membrane potentials. Currents were low-pass filtered at 5 kHz and sampled at 50 kHz. Series resistance (Rs) was compensated on-line (80%; t = 10 μs), and all voltages were corrected for the voltage drop across the uncompensated series resistance (7.25 ± 0.31 MOhm for WT mice, 9.12 ± 0.99 MOhm for Tg mice) and for liquid junction potentials (-4 mV) measured between intra- and extracellular solutions. Except for the deactivated current recordings (KCNQ conductances), all currents were leakcorrected using P/n protocol (10 leak pulses with amplitudes of 20% of the original pulse from a holding potential of -104 mV). Ca2+ current recordings. Currents were low-pass filtered at 5 kHz and sampled at 10 kHz for exocytic cell membrane capacitance change (DCm) and at 40 kHz for Ca2+ current recordings. Ca2+ current was isolated using P/n protocols (10 leak pulses with amplitudes of 20% of the original pulse from a holding potential of -117 mV). Ca2+ current integrals were calculated from the total depolarization-evoked inward current, including Ca2+ tail currents after P/n leak subtraction (i.e. from the start of the depolarization step to 1.5 ms after the end of the depolarization step). Cells that displayed a membrane current exceeding -50 pA at 87mV were discarded from the analysis. No Rs compensation was applied, but recordings with Rs > 30 MOhm and Rs > 15 MOhm for perforated and whole-cell patch-clamp experiments, respectively, were discarded from the analysis. All voltages were corrected for liquid junction potentials calculated between pipette and bath (-17 mV). 108 Capacitance measurement recordings. Cell membrane capacitance (Cm) was measured using the Lindau–Neher technique (Lindau & Neher, 1988), implemented in the software-lockin module of Patchmaster (HEKA Elektronik) combined with compensation of pipette and resting cell capacitances by the EPC-10 (HEKA Elektronik) compensation circuitries. A 1 kHz, a 70 mV peak-to-peak sinusoid was applied about the holding potential of -87 mV. DCm was estimated as the difference of the mean Cm over 400 ms after the end of the depolarization (the initial 250 ms was skipped) and the mean prepulse capacitance (400 ms). Mean DCm estimates present grand averages calculated from the mean estimates of individual IHCs. Immunohistochemistry and confocal microscopy. Immunohistochemistry was performed on whole-mount preparations of organs of Corti. The mice were decapitated under deep anesthesia using 50 mg/kg pentobarbital and their cochleas were removed from the temporal bone and dissected in the patch-clamp dissecting solution. The apical turns of the cochleas were then fixed 15 min in 4% paraformaldehyde diluted in phosphate buffer (0.1 M, pH 7.3, 4°C); afterwards, they were immune-histochemically processed as a whole-mount. The tissues were rinsed 3x10 min in PBS (containing in mM: 130 NaCl, 2.68 KCl, 10 Na2HPO4, 1.47 KH2PO4), then preincubated 30 min in blocking solution (10% donkey serum, 0.3% Triton), then incubated overnight at 4°C in the incubation solution (1% donkey serum, 0.1% Triton) with primary antibodies or antisera. The primary antibodies used and their respective dilution were CtBP2 1:1000 (BD Transduction Laboratories, San Jose, CA, USA; RRID: AB_399431), GluA2/3 1:50 (RRID: AB_90710) and spectrin 1:400 (Millipore, Billerica, MA, USA; RRID AB_11214057), α1 tubulin 1:500 (RRID: AB_521686), β1 tubulin 1:10 and β2 tubulin 1:500 (Novus Biologicals, Littleton, CO, USA; RRID: AB_792489), β4 tubulin 1:200 (RRID:AB_297919), acetylated α tubulin 1:500 and detyrosinated α tubulin 1:500 (Abcam, Cambridge, England, UK; RRID:AB_869990). The diap3 antiserum was produced by Eurogentec (Liege, Belgium). It was raised in guinea pig against a specific motif of mouse diap3 (amino acids 94-105: LSSETMENNPKA). The dilution used was 1:200. Tissues were then rinsed 3x10 min in wash buffer (containing in mM: 15.8 Na2HPO4, 2.9 NaH2PO4, 0.3% Triton X-100, 450 NaCl) and incubated for 2 hours in the incubation solution with fluorescently labeled secondary antibodies, rhodamin-phalloidin (Molecular probes, Eugene, OR, USA) and/or Hoechst dye (Invitrogen, Carlsbad, CA, USA). They were finally rinsed 3x10 109 min in wash buffer and mounted in Prolong Gold Antifade Reagent (Fisher Scientific, Waltham, MA, USA). Tissues were examined with the Zeiss LSM780 (Zeiss, Oberkochen, Germany) or Leica SP8-UV (Leica, Wetzlar, Germany) confocal microscopes of the Montpellier RIO Imaging facility (Montpellier, France). Image stacks were then processed with ImageJ software (Wayne Rasband, National Institutes of Health, USA). For fluorescence analysis and synapse counting, image stacks were processed with MATLAB software. The juxtaposed spots of the presynaptic ribbon component RIBEYE and postsynaptic glutamate receptors subunits GluA2/3 allowed the quantification of the ribbon-containing synapses per IHC. For each condition (antibody, age, genotype), at least 3 cochleas were examined. Electron microscopy. Scanning (SEM) and transmission (TEM) electron microscopy were done for morphologic evaluation of the cochlear hair cells. For both techniques, the animals were decapitated under deep anaesthesia (pentobarbital, 50 mg/kg), their cochleas were removed from the temporal bone, perfused with a solution of 2.5% glutaraldehyde in 0.1 M phosphate buffer (pH 7.3–7.4), and immersed in the same fixative for 1 h at room temperature. For SEM, the bony capsule of the cochlea was dissected out, and the stria vascularis as well as the tectorial and Reissner's membranes were removed. After being rinsed in the phosphate buffer, the samples were dehydrated in a graded series of ethanol (30–100%), critical point dried in CO2, coated with gold–palladium, and observed under a Hitachi S4000 microscope. Examinations were made all along the cochlear spiral (around 6 mm long) from the apex to the basal end. For each condition (age and genotype), at least 3 cochleas were processed and examined using SEM. For TEM, the cochleas were post-fixed in a 2% aqueous solution of osmium tetroxide for 1 h, rinsed in phosphate buffer, dehydrated in a graded series of ethanol (30–100%), and embedded in Epon resin. Ultra-thin radial sections of the organ of Corti were cut in the 16 kHz region of the cochlea, mounted on formvar-coated grids, stained with uranyl acetate and lead citrate, and observed using a Hitachi 7100 microscope. For TEM, we examined one or two cochleas at each age in the Tg 924 line. Data analysis. Data were analyzed using MATLAB and Igor Pro (WaveMetrics, Lake Oswego, OR, USA) softwares. All these data are expressed as means ± standard error of mean (s.e.m.) and were compared by Student t-test and Wilcoxon test. 110 Results Diap3-overexpressing mutant mice replicate AUNA1. We examined the auditory system of two lines of Tg mice overexpressing the diap3 protein (Tg 771 and Tg 924). In response to incoming sound stimulation, both Tg lines showed a progressive reduction in the auditory brainstem response (ABR) amplitude (Fig. 1A, D). In addition, both Tg lines showed a progressive threshold shift (Fig. 1B, E). Hearing impairment progressed more rapidly in the Tg 771 mice as compared to the Tg 924 mice. Despite a slight reduction in the distortion product otoacoustic emissions (DPOAEs) amplitude in Tg 771 mice, both lines showed robust DPOAEs, indicating that OHC activity was essentially preserved (Fig. 1C, F). Altogether, the two Tg lines replicate the hallmarks of AUNA1 deafness, i.e, progressive hearing loss together with functional cochlear amplification. Altered transduction in IHCs of diap3-overexpressing mutant mice. To better understand the mechanisms underlying AUNA1, we measured the activity of the sensory hair cells in vivo using electrocochleography. Compound action potential was strongly diminished in both Tg lines (Fig. 2A, C). In addition, we found a drastic reduction in the summating potential amplitude (Fig. 2A, D). Consistent with robust DPOAEs in the Tg mice, both wildtype (WT) and Tg lines showed comparable strong cochlear microphonic responses (Fig. 2B, E). These results illustrate a selective alteration of IHC function in the Tg mice. Moreover, the reversal behavior of the summating potential, i.e., negative amplitude in the diap3 overexpressing mice, is reminiscent of changes in the ionic conductances of IHCs (Bobbin et al., 1990; 1991) or in the resting position of the stereocilia displacement-response curve (Corey and Hudspeth, 1983; Farris et al., 2006; Johnson et al., 2011). Normal synaptic vesicle recycling in diap3-overexpressing mutant mice. To determine whether the stimulation-secretion coupling is affected by the diap3 overexpression, calcium-triggered exocytosis was probed using patch-clamp recordings (Fuchs et al., 2003). Because the Tg 771 line already showed a threshold shift occurring immediately after the onset of hearing (threshold: 16.1 ± 1.4 dB SPL and 28.3± 1.7 dB SPL in P19-P22 WT and Tg 771, respectively, in response to 10 kHz tone burst. WT, n=9; Tg 771, n=3. p<0.05; Wilcoxon test), membrane capacitance, reflecting synaptic vesicle exocytosis, was measured in IHC from 2 to 111 4 weeks of age in this Tg line (Fig. 3). No difference was observed in the amplitude or in the voltage activation of the calcium current between WT and Tg 771 mice (Fig. 3A). In addition, membrane capacitance jumps evoked by calcium influx of different durations were comparable between WT and Tg 771 mice (Fig. 3B-C). Furthermore, the number of ribbon synapses was not altered in one month-old Tg 771 mice (Fig. 3D-G). Taken together, these data exclude a primary defect at the IHC ribbon synapse in AUNA1. Potassium currents are not affected in diap3-overexpressing mutant mice. Because IHC potassium conductances contribute to the receptor potential (Corey and Hudspeth, 1983), we then recorded the different potassium currents in IHC. In response to depolarizing step, IHC elicit fast and slow outward potassium currents, carried by BK and delayed-rectifier channels, respectively (Kros and Crawford, 1990; Marcotti et al., 2003; Oliver et al., 2003). No difference in the amplitude or voltage activation of K+ currents was measured between IHCs of WT and Tg 771 mice (Fig. 4A-C). In addition, IHCs from Tg 771 mice expressed a deactivating potassium current, which is carried by the KCNQ4 potassium channel and sets the resting membrane potential (Fig. 4D-E; Marcotti et al., 2003; Oliver et al., 2003). Accordingly, the resting membrane potential in IHCs of Tg 771 mice lies in the same voltage range as IHCs of WT mice (Fig. 4F). Therefore, a change in potassium conductance cannot account for the defective receptor potential in AUNA1 deafness. Distortion of the IHC cuticular plate is the primary defect in Tg mice. As the lack of receptor potential can be explained by a damage of the mechano-transducer apparatus (Corey and Hudspeth, 1983; Farris et al., 2006), the morphology of the hair cell apical pole was assessed using electron microscopy. In WT mice, stereocilia were nicely organized and anchored into the cuticular plate, which shows a normal appearance (Fig. 5A, E, F, J). As early as age 4 months, the WT IHC cuticular plate shows a little knob (Fig. 5B, M). In contrast, the diap3-overexpressing Tg mice showed a severe alteration at the IHC apical side (Fig. 5C-D, G-I, K, N). In both Tg lines, the cuticular plates of IHCs are drastically swollen all along the cochlea (Fig. 5C-D, G-I). Using TEM, the cuticular plate seems to be pushed toward the IHC periphery opposite to the stereociliary bundle leading to its accumulation at the upper side of the cell (Fig. 5K). The displacement of the cuticular plate could be also associated with disarrayed or fused stereocilia (Fig. 5K). Integration of fused stereocilia into the cell cytoplasm was also observed (Fig. 5N). Interestingly, the cuticular plate distortion started promptly after 112 the onset of hearing, while changes in the stereocilia organization progressively increased over the lifespan of the mice (Fig. 6A-B). In contrast, OHCs from diap3-overexpressing mice retained a normal morphology (Fig. 5C-D, G-H, I, L-O), although a few of them harbored a distorted apical pole (abnormal cuticular plate and stereociliary bundle) or were missing (Fig. 5G-I). To differentiate between the IHC cuticular plate swelling and the distorted stereocilia as the cause of the hearing loss, we correlated the morphological features to the ABR at different frequencies and ages (Fig. 6C). Plots of anatomical defect scores against the ABR amplitude demonstrated that hearing loss was independent of the cuticular plate distortion (Fig. 6C, top) but was highly correlated with fused stereocilia (Fig. 6C, bottom). Of note, the number of IHCs harboring a distorted cuticular plate in the 4-month-old WT mice is likely to be overestimated, since our 2D SEM screen could not discriminate the cuticular plate lump in the 4-month-old WT mice from the swelling in the diap3-overexpressing mice at this age. Nevertheless, these results suggest that i) the IHC cuticular plate abnormalities precede the defects of the stereociliary bundle, and that ii) hearing loss ultimately develops due to the disorganization of stereocilia, which most likely impedes the activity of the mechanotransducer channel. Molecular correlates of cuticular plate remodeling. The morphological distortion of the cuticular plate was then examined at the molecular level. Phalloidin-rhodamine and spectrin immunostainings indicate a severe alteration in the shape of the cuticular plate. While the F-actin as well as spectrin networks appear homogenously distributed in the cuticular plate of WT IHCs, they tend to concentrate at the border of IHCs from both Tg lines, leaving F-actin- and spectrin-free spots in the middle of the cuticular plate (Fig. 7). In contrast, the F-actin and spectrin distribution were not affected in the cuticular plate of OHCs (data not shown). Thus, the drastic remodeling of the cuticular plate molecular components may account for the anatomical alteration observed in electron microscopy. Aberrant microtubule meshwork distribution in Tg mice. Next, we sought to decipher the mechanism governing the cuticular plate defect in Tg IHCs. Because of the displacement of the cuticular plate, we reasoned that molecular scaffolding proteins interacting with the cuticular plate might be mis-targeted or disrupted. In this framework, microtubules 113 are potential candidates of interest, as they are known to surround the cuticular plate (Steyger et al., 1989; Furness et al., 1990; Jensen-Smith et al., 2003) and to be downstream targets of the diaphanous family members (Ishizaki et al., 2001; Palazzo et al., 2001; Wen et al., 2004; Bartolini et al., 2008). In WT IHCs, b2-tubulin subunit immunostainings revealed a ring-like distribution of microtubules around the cuticular plate (Fig. 8A-A''). In the Tg 771 and Tg 924 lines, microtubules were found inside the cuticular plate center (Fig. 8B, C). a1-, b1-, and b4tubulin subunits showed a similar pattern of distribution, i.e, inside the IHC cuticular plate in the diap3-overexpressing mice (data not shown). Close examination showed that microtubules preferentially populated the F-actin-free spot within the cuticular plate. At one-month, Tg 771 IHCs already show a large immunolabeling of microtubules within the cuticular plate center, while Tg 924 IHCs display a more progressive distribution of microtubules (Fig. 8B and C). At later stages, the immunostaining intensity of microtubules ring tended to be reduced in the Tg mice, suggesting a loss of the tubulin subunits that surround the cuticular plate (Fig. 8B and C). The strong overlap between the immunolabelings with antibodies against the a1 and its acetylated form suggests that the aberrant microtubules within the cuticular plate were stable (Fig. 9). The distribution of microtubules was not changed in OHCs (data not shown). These results suggest that in both Tg mice, aberrant distribution of microtubules may exert mechanical constraints against the cuticular plate and thus be responsible for the primary defect in IHCs. Early onset of microtubule meshwork remodeling. If the microtubule rearrangement is responsible to some extent for the cuticular plate distortion, which is observed right after the onset of hearing, we should then expect an early-onset of abnormal distribution of the microtubules within the cuticular plate. Before the onset of hearing, tubulin immunostaining was confined to the kinocilium area, but no ring-like distribution was conspicuously observed at this stage (Fig. 10A-C). After the onset of hearing, microtubules started to localize around the cuticular plate in the WT mice (Fig. 10 D, G). In Tg 771 and Tg 924 mice at P15 and P21, respectively, we also observed isolated microtubules at the cuticular plate center, below the stereociliary bundle (Fig. 10E-F, H-I). At later stages, microtubules were also found invading the stereociliary bundles. Taken together, these results suggest that microtubule meshwork remodeling occurs at early stages, invading the cuticular plate center, and coincides with the morphological swelling of the cuticular plate. 114 Diap3 accumulates at the IHC cuticular plate in Tg mice. The massive change in the microtubule distribution may be due to a preferential targeting of diap3 at the apical side of hair cells. To probe this hypothesis, we generated a specific antibody against diap3 (Fig. 11A-B). Using immunohistochemistry, we observed a strong labeling of the stereocilia in both WT IHCs and OHCs, as well as immunostaining of diap3 in the IHC cuticular plate (Fig. 11C-D). In the Tg mouse lines, diap3 was located in the IHC cuticular plate and in the stereocilia overlapping the actin distribution (Fig. 11F-H). However, we did not find expression of diap3 in the cuticular plate of Tg OHCs (Fig. 11E-G). These data suggest that diap3 is a component of the stereociliary bundle in both IHC and OHC and accumulates preferentially at the apical part of IHCs in the Tg lines. 115 Discussion We showed that the overexpression of diap3 in mouse mimics the auditory neuropathy 1 (AUNA1), i.e., the loss of the IHC transduction process without affecting OHC amplification. Neurotransmitter release and potassium currents in IHCs were not altered in the diap3overexpressing mice. However, we distinguished two different steps in the mutant mice: the distortion of the IHC cuticular plate followed by the loss of stereociliary bundle integrity. The aberrant localization of microtubules at the center of the cuticular plate makes the remodeling of the microtubule network an attractive mechanism accounting for the cuticular plate alteration and the AUNA1 deafness. Microtubule meshwork remodeling in diap3-overexpressing mutant mouse Diap3 belongs to the formin family, which is known to nucleate and elongate actin filaments and to stabilize microtubules (Ishizaki et al., 2001; Palazzo et al., 2001; Pruyne et al., 2002; Wen et al., 2004; Bartolini et al., 2008). In the WT mouse, our results show that diap3 is preferentially expressed in the stereociliary bundle of both hair cells and is also found in the cuticular plate of IHCs. Because of the large abundance of actin at the hair cell apical side (Flock and Cheung, 1977; Slepecky and Chamberlain, 1985; Furness et al., 2005), it is tempting to consider diap3 as an integral component of the transduction apparatus, with a key role in actin turnover (Schneider et al., 2002; Zhang et al., 2012; Drummond et al., 2015). Consistent with the diap3 localization, a proteomic study has recently identified diap3 in the mouse vestibular hair cell stereociliary bundle (Krey et al., 2015). In the diap3-overexpressing Tg mice, diap3 is properly distributed along the hair cell stereociliary bundle and, in addition, co-localizes with actin at the IHC cuticular plate. Thus, the abundant expression of diap3 results in its accumulation at the cuticular plate, which may in turn lead to a larger amount of actin (Ishizaki et al., 2001; Pruyne et al., 2002). In this scenario, the excess actin would expand the cuticular plate and lead to a swollen appearance under electron microscopy. Because of the dense and packed structure of the cuticular plate, the remodeling of the actin network would drag together the other components of the cuticular plate, such as spectrin (Drenckhahn et al., 1991; Furness et al., 2008; Vranceanu et al., 2012). However, under this hypothesis, the increase in actin volume would be homogenous within the cuticular plate of the hair cells. In contrast, the cuticular plate shows actin- and spectrin- 116 free zones, below the stereociliary bundle, which increased in size over time. We found out that microtubules populate the center of the IHCs cuticular plate, i. e., in the actin-free area, of the diap3-overexpressing Tg mice. Thus, the accumulation of diap3 at the cuticular plate may stabilize microtubules at an aberrant place. The excess of microtubules may in turn apply a mechanical force against the cuticular plate, and then displace the cuticular plate toward the periphery of IHCs. The distribution of microtubules within the cuticular plate center, i.e. in the actin-free zones, could be explained by the invasion of the pool of microtubules that surrounds the cuticular plate. However, we did not observe continuous extensions of microtubules from the IHC periphery to the center. Rather, the isolated zones of microtubules after the onset of hearing suggest a de novo stabilization of microtubules at the center of the cuticular plate. Interestingly, a gain-of-function variant in DIAPH1 gene, responsible for macrothrombocytopenia and hearing loss, increases actin polymerization and stabilizes microtubules (Ercan-Sencicek et al., 2015). It is therefore tempting to propose a similar scenario in this form of hearing impairment, i.e., an alteration of the apical pole of the hair cells, but the precise mechanism will require further examination using a knock-in mouse model. Diap3-over expression alters IHC mechanotransduction Up to now, defective transmitter release is the most prevalent mechanism to cause human auditory neuropathies (Rance and Starr, 2015). However, synaptic recycling and the number of ribbon synapses were not affected in the diap3 overexpressing mutants, which excludes the loss of the ribbon synapses as a primary cause of AUNA1 deafness, as previously described (Schoen et al., 2013). In contrast, the major abnormality lies at the IHC apical side, with a distortion of the cuticular plate followed by the fusion of the stereociliary bundle. While such abnormalities would most probably impair the activity of the mechanotransducer channel (Beurg et al., 2009), further experiments are needed to confirm whether the loss of the cuticular plate integrity affects the operating range of the mechanotranducer current (Fettiplace and Kim, 2014). However, the correlation between the degree of hearing loss to the anatomical features argues that the hearing impairment does not result from distortion of the cuticular plate but rather from the fusion of stereocilia. How can these two events be related to each other? Because the rootlets emanating from the stereocilia are embedded within the cuticular plate (DeRosier and Tilney, 1989; Furness et al., 2008; Vranceanu et al., 2012), loss of the anchoring structure might impede the stability of the stereocilia and lead to their collapse (Liberman, 1987; Kitajiri et al., 2010). Another cause of the severed stereocilia can be 117 due to the dense microtubule matrix at the base of the stereocilia, which could interfere with key components of trafficking and delivery toward the stereocilia (Schneider et al., 2002; Zhang et al., 2012; Drummond et al., 2015). IHC cuticular plate specific alteration Although diap3 is expressed in both OHC and IHC, only IHCs are affected. This can be explained by the lack of diap3 localization within the OHC cuticular plate, leading to spatial segregation of diap3 and the microtubule network in OHC. The discrepancy in diap3 distribution between hair cells might be due to a different rate of protein turnover. Indeed, the strong diap3 mRNA overexpression in the transgenic mice does not yield to an ubiquitous and massive distribution of diap3, suggesting a fine-tuning regulation at the protein level. The ubiquitination process may be more efficient in OHCs than in IHCs. In this hypothesis, OHCs would easily eliminate any excess of diap3 localized within the cuticular plate in contrast to IHCs (DeWard and Alberts, 2009). Alternatively, the specific IHC alteration might be due to the preferential expression in IHCs of a diap3 activator (a Rho-GTPase family member) or effector (a cytoskeleton binding protein) (Evangelista et al., 2003; Wallar and Alberts, 2003; Goode and Eck, 2007; Bartolini and Gundersen, 2010). However, the known activators/effectors of diap3 are ubiquitously expressed. On the other hand, diap3 is highly regulated (Wallar and Alberts, 2003). Thus, a unique suppressor/inhibitor present in OHCs and not IHCs may leave OHCs unaffected. Therefore, we cannot definitively exclude the presence of unknown protein partners, exclusively expressed in one of the hair-cell populations, which modulate diap3 or undergo a diaphanous-dependent regulation. Finally, a difference in actin or microtubules metabolism in OHC vs IHC might also explain the difference of phenotype between both hair cells. Diap3-over expressing mice replicate human AUNA1 hearing loss To decipher the mechanism of the auditory neuropathy AUNA1, caused by the overexpression of the formin protein diap3, we further investigated diap3-overexpressing Tg mice (Schoen et al., 2013). Our results demonstrate that these mutants replicate to some extent the AUNA1 features, i.e., a progressive hearing loss leaving OHCs largely unaffected. A more rapidly progressive threshold shift and a slight reduction of the DPOAEs amplitude were observed in the 771 mouse line, which can be attributed to the morphological alteration and loss 118 of a larger fraction of OHCs in this line. The different degree of OHCs vulnerability between the 924 and 771 lines might be due to the different number of transgene copies and thus in the diap3 expression between both genotypes. Thus, beyond a level of protein expression, the anatomical defects would not only be restricted to IHCs but would also occur in OHCs, leading ultimately to the degeneration of these cells. However, the mRNA expression level of diap3 is similar between both genotypes (Schoen et al., 2013), challenging this hypothesis. Alternatively, the transgene insertion site might differ between the two lines, and thus have a different impact on the survival of OHCs between both diap3-overexpressing lines. We identify diap3 as a novel component of the stereociliary bundle of IHCs and OHCs, and of the IHC cuticular plate. Identifying a new molecular component increases our understanding of IHC dynamics by demonstrating a novel mechanism of deafness in the collection of disorders known as auditory neuropathy. Deciphering the mechanism of AUNA1 deafness will be the first step to developing a treatment for patients affected with this form of deafness. 119 References Bartolini F, Gundersen GG (2010) Formins and microtubules. Biochim Biophys Acta 1803:164–173. Bartolini F, Moseley JB, Schmoranzer J, Cassimeris L, Goode BL, Gundersen GG (2008) The formin mDia2 stabilizes microtubules independently of its actin nucleation activity. J Cell Biol 181:523–536. Beurg M, Fettiplace R, Nam J-H, Ricci AJ (2009) Localization of inner hair cell mechanotransducer channels using high-speed calcium imaging. Nat Neurosci 12:553– 558. Bobbin RP, Fallon M, Kujawa SG (1991) Magnitude of the negative summating potential varies with perilymph calcium levels. Hear Res 56:101–110. Bobbin RP, Jastreboff PJ, Fallon M, Littman T (1990) Nimodipine, an L-channel Ca2+ antagonist, reverses the negative summating potential recorded from the guinea pig cochlea. Hear Res 46:277–287. Corey DP, Hudspeth AJ (1983) Analysis of the microphonic potential of the bullfrog's sacculus. J Neurosci 3:942–961. DeRosier DJ, Tilney LG (1989) The structure of the cuticular plate, an in vivo actin gel. J Cell Biol 109:2853–2867. DeWard AD, Alberts AS (2009) Ubiquitin-mediated degradation of the formin mDia2 upon completion of cell division. J Biol Chem 284:20061–20069. Drenckhahn D, Engel K, Höfer D, Merte C, Tilney L, Tilney M (1991) Three different actin filament assemblies occur in every hair cell: each contains a specific actin crosslinking protein. J Cell Biol 112:641–651. Drummond MC, Barzik M, Bird JE, Zhang D-S, Lechene CP, Corey DP, Cunningham LL, Friedman TB (2015) Live-cell imaging of actin dynamics reveals mechanisms of stereocilia length regulation in the inner ear. Nat Commun 6:6873. Ercan-Sencicek AG et al. (2015) Homozygous loss of DIAPH1 is a novel cause of microcephaly in humans. Eur J Hum Genet 23:165–172. Evangelista M, Zigmond S, Boone C (2003) Formins: signaling effectors for assembly and polarization of actin filaments. J Cell Sci 116:2603–2611. Farris HE, Wells GB, Ricci AJ (2006) Steady-state adaptation of mechanotransduction modulates the resting potential of auditory hair cells, providing an assay for endolymph [Ca2+]. J Neurosci 26:12526–12536. Fettiplace R, Kim KX (2014) The physiology of mechanoelectrical transduction channels in hearing. Physiol Rev 94:951–986. 120 Flock A, Cheung HC (1977) Actin filaments in sensory hairs of inner ear receptor cells. J Cell Biol 75:339–343. Fuchs PA, Glowatzki E, Moser T (2003) The afferent synapse of cochlear hair cells. Curr Opin Neurobiol 13:452–458. Furness DN, Hackney CM, Steyger PS (1990) Organization of microtubules in cochlear hair cells. J Electron Microsc Tech 15:261–279. Furness DN, Katori Y, Mahendrasingam S, Hackney CM (2005) Differential distribution of beta- and gamma-actin in guinea-pig cochlear sensory and supporting cells. Hear Res 207:22–34. Furness DN, Mahendrasingam S, Ohashi M, Fettiplace R, Hackney CM (2008) The dimensions and composition of stereociliary rootlets in mammalian cochlear hair cells: comparison between high- and low-frequency cells and evidence for a connection to the lateral membrane. J Neurosci 28:6342–6353. Goode BL, Eck MJ (2007) Mechanism and function of formins in the control of actin assembly. Annu Rev Biochem 76:593–627. Greene CC, McMillan PM, Barker SE, Kurnool P, Lomax MI, Burmeister M, Lesperance MM (2001) DFNA25, a novel locus for dominant nonsyndromic hereditary hearing impairment, maps to 12q21-24. Am J Hum Genet 68:254–260. Higgs HN (2005) Formin proteins: a domain-based approach. Trends Biochem Sci 30:342– 353. Ishizaki T, Morishima Y, Okamoto M, Furuyashiki T, Kato T, Narumiya S (2001) Coordination of microtubules and the actin cytoskeleton by the Rho effector mDia1. Nat Cell Biol 3:8–14. Jensen-Smith HC, Eley J, Steyger PS, Ludueña RF, Hallworth R (2003) Cell type-specific reduction of beta tubulin isotypes synthesized in the developing gerbil organ of Corti. J Neurocytol 32:185–197. Johnson SL, Beurg M, Marcotti W, Fettiplace R (2011) Prestin-driven cochlear amplification is not limited by the outer hair cell membrane time constant. Neuron 70:1143–1154. Kim TB, Isaacson B, Sivakumaran TA, Starr A, Keats BJB, Lesperance MM (2004) A gene responsible for autosomal dominant auditory neuropathy (AUNA1) maps to 13q14-21. J Med Genet 41:872–876. Kitajiri S-I, Sakamoto T, Belyantseva IA, Goodyear RJ, Stepanyan R, Fujiwara I, Bird JE, Riazuddin S, Riazuddin S, Ahmed ZM, Hinshaw JE, Sellers J, Bartles JR, Hammer JA, Richardson GP, Griffith AJ, Frolenkov GI, Friedman TB (2010) Actin-bundling protein TRIOBP forms resilient rootlets of hair cell stereocilia essential for hearing. Cell 141:786–798. Kovar DR (2006) Molecular details of formin-mediated actin assembly. Curr Opin Cell Biol 18:11–17. 121 Krey JF, Sherman NE, Jeffery ED, Choi D, Barr-Gillespie PG (2015) The proteome of mouse vestibular hair bundles over development. Sci Data 2:150047. Kros CJ, Crawford AC (1990) Potassium currents in inner hair cells isolated from the guineapig cochlea. J Physiol (Lond) 421:263–291. Liberman MC (1987) Chronic ultrastructural changes in acoustic trauma: serial-section reconstruction of stereocilia and cuticular plates. Hear Res 26:65–88. Marcotti W, Johnson SL, Holley MC, Kros CJ (2003) Developmental changes in the expression of potassium currents of embryonic, neonatal and mature mouse inner hair cells. J Physiol (Lond) 548:383–400. Moser T, Starr A (2016) Auditory neuropathy - neural and synaptic mechanisms. Nat Rev Neurol. Nouvian R (2007) Temperature enhances exocytosis efficiency at the mouse inner hair cell ribbon synapse. J Physiol (Lond) 584:535–542. Oliver D, Knipper M, Derst C, Fakler B (2003) Resting potential and submembrane calcium concentration of inner hair cells in the isolated mouse cochlea are set by KCNQ-type potassium channels. J Neurosci 23:2141–2149. Palazzo AF, Cook TA, Alberts AS, Gundersen GG (2001) mDia mediates Rho-regulated formation and orientation of stable microtubules. Nat Cell Biol 3:723–729. Pruyne D, Evangelista M, Yang C, Bi E, Zigmond S, Bretscher A, Boone C (2002) Role of formins in actin assembly: nucleation and barbed-end association. Science 297:612–615. Rance G, Starr A (2015) Pathophysiological mechanisms and functional hearing consequences of auditory neuropathy. Brain 138:3141–3158. Schneider ME, Belyantseva IA, Azevedo RB, Kachar B (2002) Rapid renewal of auditory hair bundles. Nature 418:837–838. Schoen CJ, Burmeister M, Lesperance MM (2013) Diaphanous homolog 3 (Diap3) overexpression causes progressive hearing loss and inner hair cell defects in a transgenic mouse model of human deafness. PLoS ONE 8:e56520. Schoen CJ, Emery SB, Thorne MC, Ammana HR, Sliwerska E, Arnett J, Hortsch M, Hannan F, Burmeister M, Lesperance MM (2010) Increased activity of Diaphanous homolog 3 (DIAPH3)/diaphanous causes hearing defects in humans with auditory neuropathy and in Drosophila. Proc Natl Acad Sci USA 107:13396–13401. Slepecky N, Chamberlain SC (1985) Immunoelectron microscopic and immunofluorescent localization of cytoskeletal and muscle-like contractile proteins in inner ear sensory hair cells. Hear Res 20:245–260. Starr A, Isaacson B, Michalewski HJ, Zeng F-G, Kong Y-Y, Beale P, Paulson GW, Keats BJB, Lesperance MM (2004) A dominantly inherited progressive deafness affecting distal auditory nerve and hair cells. J Assoc Res Otolaryngol 5:411–426. 122 Starr A, Picton TW, Sininger Y, Hood LJ, Berlin CI (1996) Auditory neuropathy. Brain 119 ( Pt 3):741–753. Steyger PS, Furness DN, Hackney CM, Richardson GP (1989) Tubulin and microtubules in cochlear hair cells: Comparative immunocytochemistry and ultrastructure. Hear Res 42:1–16. Vranceanu F, Perkins GA, Terada M, Chidavaenzi RL, Ellisman MH, Lysakowski A (2012) Striated organelle, a cytoskeletal structure positioned to modulate hair-cell transduction. Proc Natl Acad Sci USA 109:4473–4478. Wallar BJ, Alberts AS (2003) The formins: active scaffolds that remodel the cytoskeleton. Trends Cell Biol 13:435–446. Wen Y, Eng CH, Schmoranzer J, Cabrera-Poch N, Morris EJS, Chen M, Wallar BJ, Alberts AS, Gundersen GG (2004) EB1 and APC bind to mDia to stabilize microtubules downstream of Rho and promote cell migration. Nat Cell Biol 6:820–830. Zhang D-S, Piazza V, Perrin BJ, Rzadzinska AK, Poczatek JC, Wang M, Prosser HM, Ervasti JM, Corey DP, Lechene CP (2012) Multi-isotope imaging mass spectrometry reveals slow protein turnover in hair-cell stereocilia. Nature. 123 Figures & legends Figure 1: Transgenic mouse lines 924 (Tg 924) and 771 (Tg 771) mimic human AUNA1 deafness. (A, D) Representative auditory brainstem response (ABR) recordings evoked by 16 kHz tone burst at 80 dB SPL from 1- and 6-month-old wild type (WT), Tg 924 (A) and Tg 771 (D) mice. (B, E) Mean ABR audiograms from 1- to 6-month-old WT, Tg 924 (B) and Tg 771 (E) mice. (C, F) Distortion product otoacoustic emissions (DPOAEs) from 1- to 6-monthold WT, Tg 924 (C) and Tg 771 (F) mice. The mean 2f1-f2 amplitude level is shown as a function of f2 frequency. The black line indicates the background noise level. n indicates the number of cochleae recorded. Level of significance is given by the stars with *p<0.05; **p<0.01 ; ***p< 0.001 (Wilcoxon test). For (B) and (E), stars which are located next to the audiograms indicate a similar p-value for all the frequencies, except when otherwise noted. 124 Figure 2: Inner hair cell receptor potential is altered in diap3-overexpressing mice. (A) Mean compound action potential (CAP; N1-P1 amplitude) and summating potential (SP), reflecting the auditory afferent fiber activation and IHC receptor potential, respectively. (B) Cochlear microphonic (CM), reflecting the OHC activation. CAP, SP and CM were evoked by 16 kHz tone burst at 80 dB SPL in 4-month-old wild-type (WT) and Tg 924 mice and 2month-old WT and Tg 771 mice. (C-E) Mean CAP amplitude (C), SP amplitude (D) and CM amplitude (E) from 4-month-old WT and Tg 924 mice and 2-month-old WT and Tg 771 mice. n indicates the number of cochleae recorded. Level of significance is given by the stars with ***p< 0.001 (Wilcoxon test). 125 Figure 3: Ca2+-triggered exocytosis is not impaired in diap3-overexpressing mice. (A) Ca2+ current steady-state I/V relationships of WT (blue) and Tg 771 (red) mice IHCs between 13 to 16 postnatal days (P13-16). Steady-state amplitude was measured as the average over the last 5 ms of the 10 ms test pulse. (B) Ca2+ current (ICa2+) and membrane capacitance (Cm) traces, low-pass filtered at 100 Hz traces (from top to bottom) of representative WT (blue) and Tg (red) IHCs elicited by 20 ms depolarization to the peak Ca2+ current potential. (C) Kinetics of exocytosis (Cm) of WT (blue) and Tg (red) IHCs. (D) Scheme illustrating the synapse between IHC and afferent neuron. The IHC nucleus is shown in blue, the synaptic ribbon in green, and the post-synaptic glutamate receptor in red. (E-G) Comparable number of IHC ribbon synapses between WT and Tg 771 mice. Presynaptic ribbons and postsynaptic glutamate receptors are labeled using antibodies against CtBP2 and GluA2/3, respectively (E, F). (G) Note the comparable numbers of ribbon-containing afferent synapses per IHC from 1month-old WT (8.67 ± 0.38 synapse/IHCs, n=79 IHCs examined) and Tg 771 mice (8.19 ± 0.39, n=92 IHCs examined). No significant difference was found (p>0.05), n.s: not significant. 126 Figure 4: Normal potassium currents in diap3-overexpressing mice. (A-B) Representative outward currents recorded from 1-month-old WT (blue) and Tg 771 (red) IHCs. Currents were evoked by step depolarizations from a holding potential of -74 mV to the indicated potentials (voltage increment was 10 mV). (C) Average I-V relationships for WT (in blue) and Tg 771 (in red) IHCs derived from averaging currents 375 μs after the start of the depolarizing pulses over 250 μs (early average) and over the last 50 ms of depolarization steps (late average). Early and late averages indicate, respectively, fast- and slow- activating potassium current, corresponding to BK and delayed-rectifier channels. n indicates the number of IHCs recorded. (D-E) Representative current traces obtained from 1-month-old WT (blue, D) and Tg 771 (red, E) IHCs. Currents were elicited by a voltage step from a holding potential of -64 mV to a hyperpolarized potential of -154 mV. Zero current level is indicated by a dotted line. Note that the current was already activated at the resting potential of approximately -60 mV and became deactivated upon hyperpolarization, which is indicative of KCNQ4 currents. (F) Mean resting membrane potential of WT (blue) and Tg 771 (red) IHCs (no current injection). The resting membrane potentials were not significantly different between the genotypes. 127 Figure 5: Morphological defects at the cuticular plate and stereociliar bundles in inner hair cells of diap3-overexpressing mice. (A-J) Scanning electron microscopy of the organ of Corti in 1- (A, E), 4- (B) and 2- (F) month-old WT, in 1- (C) and 4- (D, I-J) month-old Tg 924 and in 1- (G) and 2- (H) month-old Tg 771 mice. Note the cuticular plate lump (white asterisk) in WT inner hair cells (IHCs) starting from 4-month-old (B). In the Tg lines (C-D, G-J), a severe swelling of the IHC cuticular plate is observed for all the ages. The alteration of the cuticular plate can be associated with disarrayed or fused stereociliar bundle. In addition, some outer hair cells (OHCs) are missing. (K-P) Transmission electron microscopy (TEM) from hair cells in 1- (K) and 6- (N) month-old WT, in 1- (L, M) month-old Tg 924 and in 2- (O, P) month-old Tg 771 mice. (K) In 1-month-old WT mice, the cuticular plate (CP) forms an electron-dense matrix, which is homogenously distributed at the IHC apical pole, except at the fonticulus. Note the presence of numerous mitochondria below the CP and the well-organized stereocilia (ST) above. (N) In 6-month-old WT mice, the CP has still a homogenous distribution. Note that the CP its area expands over the neighboring supporting cell (black asterisk), although TEM did not show swelling comparable to that seen in the Tg mice. (L) In 1-month-old Tg 924 mice, the CP dramatically accumulated at the border of the IHC 128 and the ST are fused. (M) In 1-month-old Tg 924 mice, the apical pole of OHCs looks normal with its CP anchoring the ST bundle. (O) In 2-month-old Tg 771 mice, the ST are embedded in the IHC cytoplasm. The CP is not confined to its regular position and the apical pole of the IHC protrudes toward the scala media. Note the discontinuous CP (arrow). (P) In 2-monthold Tg 771 mice, OHCs show a normal appearance with the CP anchoring the ST bundle. Scale bars: A-H: 20 μm, I: 10 μm, J: 2.5 μm, K-O: 500 nm, P: 2 μm. Figure 6: Quantification of the anatomical alteration in hair cells of diap3overexpressing mice. (A- B) Abnormal CP indicates the increase of the cuticular plate area. Abnormal ST indicates disarrayed or fused stereocilia. Note that 4-month-old WT mice exhibit a large cuticular plate that could not be easily distinguished from diap3-overexpressing mice. For OHCs, abnormal CP and ST were pooled because of the minimal defect observed in these cells. (C) top, fraction of IHCs with an abnormal CP plotted against the reduction in the ABR amplitude probed at 80 dB SPL. ABR with various amplitude reductions (0 to 90 %) can be measured with 100 % IHCs harboring a swollen cuticular plate. (C) bottom, fraction of IHCs harboring an abnormal ST plotted against the reduction in the ABR amplitude probed at 80 dB SPL. The relationship between the reduction in ABR amplitude and the alteration in the stereociliar bundle can be fitted by the following exponential: y =a*exp(b*x), where y is the fraction of IHCs with abnormal stereocilia, x the reduction in the ABR amplitude and a and b 129 are constants. For (C), the mean values correspond to the degree of anatomical damage in the 4 and 16 kHz coding frequency regions from 1-, 2- and 4-month-old mice and plotted against the ABR amplitude average at the corresponding coding frequencies (4 and 16 kHz) from different groups of 1-, 2- and 4-month-old mice. Individual data values correspond to the anatomo-functional correlation that has been obtained in the same mice. Figure 7: Disorganization of the cuticular plate components. (A-A'') In 2-month-old WT IHCs, F-actin (red, A) and spectrin (green, A') are homogeneously distributed in the whole cuticular plate, except for the kinocilium imprint. (A'') Merge of both labelings. (B-C'') In 2month-old Tg 924 (B-B'') and Tg 771 (C-C'') mice, actin filaments and spectrin are concentrated toward the periphery of the IHC apical part leaving an empty space at the cuticular plate center. Scale bars: 5 μm 130 Figure 8: Microtubule network remodeling in inner hair cells of diap3-overexpressing mice. (A-C'') Fluorescence intensity distribution of microtubules (green) and F-actin (red) at the cuticular plate section through x and y sections in WT (A-A''), Tg 771 (B-B'') and Tg 924 (C-C'') lines at 21 postnatal days (P21, A, B, C), 1- (A', B', C') and 2- (A'', B", C") monthold. Actin filaments are labeled using phalloidin-rhodamine (red) and microtubules are stained using an antibody against the b2-tubulin subunit (green). Pictures show a high-magnification of the cuticular plate section over a single IHC. Thick and thin lines represent the average and individual fluorescence intensities (n=9 IHCs in each conditions), respectively. Right: Histograms show the fluorescence average from an area of 4 μm2 located at the image center for the different genotypes and age. AU: arbitrary unit. **p<0.01 (Student's t-test). 131 Figure 9: Acetylated-microtubules populate the cuticular plate center in the diap3overexpressing mice. (A-H) F-actin and microtubules distribution at the IHC apical side from 2-month-old WT (A-D) and Tg 771 (E-H) mice. Actin filaments are labeled by phalloidin-rhodamine (red, A, E) and microtubules are stained using antibody against the acetyl-a1-tubulin (green, B, F) or against the a1-tubulin subunit (magenta, C, G). Scale bars: 5 μm. 132 Figure 10: Early-onset of the microtubule remodeling. F-actin and microtubules distribution at the IHC apical side from WT (A, D and G), Tg 924 (B, E and H) and Tg 771 (C, F and I) mice at 10, 15 and 21 postnatal days (P10, P15 and P21). Actin filaments are labeled by phalloidin-rhodamine (red) and microtubules are stained using antibody against the b2 tubulin subunit (green). (A-C'') At P10, the b2-tubulin staining is reminiscent of the kinocilium position (arrowheads). In 2- and 3-week-old WT mice, microtubules are distributed around the cuticular plate (green, D-D'', G-G''). In the P15 Tg 924 (E-E'' and H-H'') and P21 Tg 771 (F-F'' and I-I''), microtubules can be readily distinguished in the center of the cuticular plate below the stereociliar bundle (asterisk). Scale bars: 5 μm. 133 Figure 11: Accumulation of diap3 in the cuticular plate of IHCs of diap3-overexpressing mice. (A) Amino acid (1-120) sequence of mouse diap1, diap2 and diap3. The LSSETMENNPKA motif in the diap3 protein sequence (red) has been used to generate the diap3 antibody. (B) Western blot analysis of diap3 antibody specificity. HEK293 cells were transfected in parallel with plasmids encoding the GFP-diap1, -diap2 or -diap3 fusion protein. Protein extracts from HEK293 cells were probed with GFP (upper right panel) and diap3 (upper left panel) antibodies. '-' refers to non transfected HEK293 cells. GFP staining indicates efficient expression for each diap-GFP fusion protein in HEK293 cells (at ~160 kDa). Note that the diap3 antibody recognizes diap3-GFP protein but not diap1-GFP neither diap2-GFP proteins. On lower panels, α-tubulin staining are used as protein loading control. (C-D'') F- 134 actin and diap3 localization at the apical side of OHCs (C-C'') and IHCs (D-D'') in 2-monthold WT mice. Actin filaments are labeled by phalloidin-rhodamine (red, C-D) and diap3 is stained using an anti-diap3 antibody (green, C'-D'). Diap3 is preferentially localized inside the stereocilia of both hair cells (C'-D') and within the cuticular plate of IHCs (D'). (C''-D'') Merge of both immunolabelings. (E-H'') Localization of F-actin and diap3 in 2-month-old Tg 924 (E-F'') and Tg 771 (G-H'') mice. Actin filaments are concentrated toward the periphery of the IHC apical part leaving an actin-free zone in the IHC cuticular plate center (F, H). In the Tg 771 (E'-F') and Tg 924 (G'-H') mice, diap3 accumulates in the cuticular plate and stereocilia of IHCs (F'-H'), and only shows a stereociliary bundle localization in OHCs (E'G'). Scale bars: 5 μm. 135 Résumé La neuropathie auditive est une forme de surdité caractérisée par une atteinte des cellules ciliées internes (qui détectent les ondes sonores et les transforment en message nerveux) et/ou des neurones afférents primaires (qui véhiculent les messages nerveux jusqu'au noyau cochléaire), associée à une activité normale des cellules ciliées externes (qui amplifient les ondes sonores). AUNA1 est la première neuropathie auditive héréditaire à avoir été décrite. Elle est causée par une mutation ponctuelle située dans le promoteur du gène DIAPH3, résultant en une surexpression de DIAPH3. La protéine DIAPH3, un membre de la famille des formines, est connue pour promouvoir la nucléation et l'élongation des filaments d'actine ainsi que la stabilisation des microtubules. Nous avons étudié les mécanismes d'AUNA1 à partir d'un modèle murin transgénique surexprimant le gène diap3, l'orthologue murin de DIAPH3. Les souris transgéniques développent une surdité dont les caractéristiques sont semblables à celles d'AUNA1. Cette surdité est due à une perte d'activité des cellules ciliées internes. L'activité synaptique et les courants potassiques de ces cellules ne sont pas altérés. En revanche, la microscopie électronique révèle une fusion des stéréocils (expansions cytoplasmiques qui permettent la détection des ondes sonores) et une déformation de la plaque cuticulaire (plateforme qui assure l'ancrage des stéréocils). Par la technique d'immunomarquage, nous avons mis en évidence une invasion de la plaque cuticulaire par des microtubules. Enfin, nous avons démontré que la protéine Diap3 est localisée dans la plaque cuticulaire des cellules ciliées internes, suggérant ainsi que la surexpression de diap3 provoque un remodelage du réseau de microtubule des cellules ciliées internes, à l'origine de la surdité AUNA1. Mots-clés : Surdité, Cochlée, Cellule ciliée interne, Diaphanous, Microtubule Summary Auditory neuropathy is a type of deafness characterized by an alteration of the inner hair cells (which detect the acoustic waves and transform them into neural messages) and/or of the primary afferent neurons (which conduct the neural messages to the cochlear nucleus), associated with a normal activity of the outer hair cells (which amplify the acoustic waves). AUNA1 is the first hereditary auditory neuropathy which has been described. It is caused by a point mutation in the promoter of the DIAPH3 gene, resulting in an overexpression of DIAPH3. The DIAPH3 protein, a formin family member, is known to promote the actin filament nucleation and elongation and to stabilize the microtubules. We studied the AUNA1 mechanisms using a transgenic mouse model which overexpresses the diap3 gene, the mouse homologue of DIAPH3. Transgenic mice develop a deafness whose characteristics are similar to the ones of AUNA1. The hearing loss is due to a defect in the inner hair cell activity. The synaptic activity and the potassium currents of these cells are not altered. However, electron microscopy reveals a fusion of the stereocilia (cytoplasmic expansions which detect the acoustic waves) and a disruption of the cuticular plate (plateform which maintains stereocilia). By immunolabeling, we showed an invasion of the cuticular plate by microtubules. Eventually, we demonstrated that Diap3 is located in the inner hair cell cuticular plate, suggesting that the overexpression of diap3 provokes a remodeling of the inner hair cell microtubule network, underlying the AUNA1 deafness. Keywords: Deafness, Cochlea, Inner Hair Cell, Diaphanous, Microtubule 136
{'path': '63/tel.archives-ouvertes.fr-tel-01560972-document.txt'}
Evaluation des besoins en santé bucco-dentaire d'une population bénéficiant de la PASS (Permanence d'Accès aux Soins de Santé) au Centre Hospitalier Saint-Charles de Toul Joël Zimmer To cite this version: Joël Zimmer. Evaluation des besoins en santé bucco-dentaire d'une population bénéficiant de la PASS (Permanence d'Accès aux Soins de Santé) au Centre Hospitalier Saint-Charles de Toul. Sciences du Vivant [q-bio]. 2004. hal-01734051 HAL Id: hal-01734051 https://hal.univ-lorraine.fr/hal-01734051 Submitted on 14 Mar 2018 AVERTISSEMENT Ce document est le fruit d'un long travail approuvé par le jury de soutenance et mis à disposition de l'ensemble de la communauté universitaire élargie. Il est soumis à la propriété intellectuelle de l'auteur. Ceci implique une obligation de citation et de référencement lors de l'utilisation de ce document. D'autre part, toute contrefaçon, plagiat, reproduction encourt une poursuite pénale. illicite Contact : ddoc-theses-contact@univ-lorraine.fr LIENS Code de la Propriété Intellectuelle. articles L 122. 4 Code de la Propriété Intellectuelle. articles L 335.2- L 335.10 http://www.cfcopies.com/V2/leg/leg_droi.php http://www.culture.gouv.fr/culture/infos-pratiques/droits/protection.htm ACADEMIE DE NANCY-METZ UNIVERSITE HENRI POINCARE NANCY l FACULTE DE CHIRURGIE DENTAIRE Année 2004 THESE Pour le DIPLOME D'ETAT .DE.DOCTEUR EN CHIRURGIE DENTAIRE Par Joël ZIMMER Né le 09 février 1974 à METZ (57) Evaluation dès besoins en santé bucco-dentaire, D'une population bénéficiant de la PASS (Permanence d'Accès aux Soins de Santé) Au Centre Hospitalier Saint Charles de TOUL ~fJ) 48 Ji;, 'Présentée et soutenue publiquement le .- o"j !. AVR . 20 ' .O ' ". Examinateurs de la thèse : M. M. PANIGHI M. A. FONTAINE M. J.P. ARTIS M. O. ARTIS Président Juge Juge Juge Professeur des universités Professeur 1er grade Professeur 2ème grade Assistant ! ,<,: _ _ _ _._ _ 1 . '';;l(~~. ~ __ _. .~ . , •_._.__ _ ._. ,., _. ,_. _ _ _ _ BU PHARMA-ODONTOL \1 1IIIIIIIjllll~J~lllllllllll PPN 0 ~ '3l{~}';5)5;1 ACADEMIE DE NANCY-METZ UNIVERSITE HENRI POINCARE NANCY l FACULTE DE CHIRURGIE DENTAIRE Année 2004 THESE Pour le DIPLOME D'ETAT DE DOCTEUR EN CHIRURGIE DENTAIRE Par JoëlZIMMER Né le 09 février 1974 à METZ (57) Evaluation des besoins en santé bucco-dentaire, D'une population bénéficiant de la PASS (Permanence d'Accès aux Soins de Santé) Au Centre Hospitalier Saint Charles de TOUL Présentée et soutenue publiquement le Examinateurs de la thèse : M. M. PANIGHI M. A. FONTAINE M. J.P. ARTIS M. O. ARTIS Professeur des universités Professeur 1er grade Professeur 2éme grade Assistant Président Juge Juge Juge UNIVERSITE Henri Poincaré NANCY 1 FACULTE DE CHIRURGIE DENTAIRE Président : Professeur Claude BURLET Doyen : Professeur Jean-Paul LOUIS Docteur C. ARCHIEN - Docteur J.J. BONNIN L BABEL - Pro S.DURIVAUX - Pro G. J ACQUART -Pr, D. ROZENCWEIG Assesseur(s) : Pro F. ABT - Dr. Membres Honoraires: - Pro M. VIVIER J. VADOT Doyen Honoraire: Sous-section 56-01 Pédodontie M. Mme Mlle Mlle Sous-section 56-02 Orthopédie Dento-Faciale J. PREVOST MÔltre de Conférences D. DESPREZ-DROZ V. MINAUD-HELFER A. SARRAND Maître de Conférences Assistant Assistant Mme M.P. FILLEUL Professeur des Universités'" Mlle A. MARCHAL M. MAROT-NADEAU disponibilité M. WEISSENBACH Maître de Conférences'" Mme Assistant X X Sous-section 56-03 M. Prévention, Epidémiologie, Economie de la Santé, Odontologie légale Mlle M. Sous-section 57-01 Parodontologie M. N. MILLER M. P. AMBROSINI J. PENAUD S. DAOUT A. GRANDEMENGE M. Mlle Mlle Sous-section 57-02 Chirurgie Buccale, Pathologie et Thérapeutique, Anesthésiologie Et Réanimation M. M. M. M. M. Mlle Sous-section 57-03 M. Sciences Biologiques (Biochimie,Immunologie, Histologie, Embryologie, Génétique, Anatomie pathologique, Bactériologie, Pharmacologie) M. Sous-section 58-01 Odontologie Conservatrice, Endodontie Mme M. M. M. M. M. M. M Sous-section 58-02 Prothèses (Prothèse conjointe, Prothèse adjointe partielle, Prothèse complète, Pr~thèse maxillo-faciale) M. M. M. M. M. Mlle M. M M. * Sous-section 58-03 Mlle Sciences Anatomiques et Physiologiques M. Occlusodontiques, Biomatériaux, Biophysique, Radiologie M. temps plein - italique: responsable de la sous-section Assistant C. CLEMENT O. ARTIS Assistant MÔltre de Conférences Maître de Conférences MÔltre de Conférences Assistant Assistant Maître de Conférences P. BRAVETTI J.P. ARTIS D. VIEN NET C. WANG G. PERROT A. POLO Professeur 2èlne grade Maître de Conférences Maître de Conférences'" Assistant Assistant A. WESTPHAL Maître de Co nférences '" J.M. MARTRETTE V. STUTZMANN-MOBY C. AMORY A. FONTAINE M. PANIGHI J.J. BONNIN P. BAUDOT C. CHARTON M. ENGELS DEUTSCH Maître de Conférences J.P. LOUIS C. ARCHIEN C. LAUNOIS J. SCHOUVER B. BAYER M. BEAUCHAT L.M. FAVOT K. JHUGROO B. WEILER C. STRAZIELLE B. JACQUOT C. AREND Assistant MÔltre de Conférences Professeur le' grade '" Professeur des Universités '" MÔltre de Conférences Assistant Assistant Assistant Professeur des Universités'" MÔltre de Conférences '" Maître de Conférences Maître de Conférences Assistant Assistant Assistant Assistant Assistant Professeur des Universités'" Maître de Conférences Assistant Nancy, le 05.01.2004 Par délibération en date du Il décembre 1972, la Faculté de Chirurgie Dentaire a arrêté que les opinions émises dans les dissertations qui lui seront présentées doivent être considérées comme propres à leurs auteurs et qu'elle n'entend leur donner aucune approbation ni improbation. A Notre Président Monsieur le Professeur Marc PANIGHI Docteur en Chirurgie Dentaire Docteur de l'Université Henri POINCARÉ, NANCY-I Habilité à diriger les Recherches par l'Université Henri POINCARÉ, NANCY-I Professeur des Universités Sous - Section: Odontologie Conservatrice - Endodontie Vous nous faites le grand honneur d'accepter la présidence de notre thèse. Veuillez trouver ici l'expression de nos remerciements les plus sincères pour la qualité et le bon sens de votre enseignement. A Notre Juge Monsieur le Professeur Alain fONTAINE Chevalier de l'Ordre National du Mérite Docteur en Chirurgie Dentaire Docteur en Sciences Odontologiques Professeur 1er Grade Sous - Section: Odontologie Conservatrice - Endodontie Nous sommes sensible à l'honneur que vous nous avez fait en acceptant spontanément de juger notre travail. Veuillez trouver dans ce travail le témoignage de notre profond respect et de notre gratitude. A Notre Juge et Directeur de Thèse Monsieur le Professeur Jean-Paul ARTI5 Docteur en Chirurgie Dentaire Docteur en Sciences Odontologiques Docteur de l'Université Louis PASTEUR de STRASBOURG Habilité à diriger les Recherches par l'Université Henri POINCARÉ, NANCY-I Professeur du 2ème Grade Sous - Section: Chirurgie Buccale, Pathologie et Thérapeutique, Anesthésiologie et Réanimation Vous nous avez proposé spontanément de diriger notre travail et nous l'avez inspiré. Nous avons toujours pu compter sur votre disponibilité et votre aide tout au long de nos études. Au cours de notre stage clinique, vous avez su nous faire partager votre passion pour la dentisterie et en particulier pour la chirurgie buccale. Vous nous avez accordé votre confiance en nous accueil/ant au sein de votre cabinet en tant que chirurgien dentiste-adjoint. Que ce travail nous permette de vous exprimer notre vive reconnaissance ainsi que notre sincère amitié. A Notre Juge Monsieur le Docteur Olivier ARTIS Docteur en Chirurgie Dentaire Assistant Hospitalier Universitaire Sous - Section: Prévention, Epidémiologie, Economie de Santé, Odontologie Légale Nous sommes sensible à l'honneur que vous nous faites en acceptant de juger ce travail. Veuillez trouver dans ce travail le témoignage de notre amitié. Remerciements : A ma femme Sophie sans qu: Je ne serais là aujourd'hui, qu'elle voit en ce travail le témoignage de toute mon affection et de tout mon amour. A mes parents pour leurs sacrifices et leur soutien A mes frères et soeurs aînés: Catherine, Jean-Marc, Pascal A mes beaux-frères Eric et Luc et mes belles-soeurs Ludivine et Isabelle A mes neveux et nièces: Elodie, Emilie, Samuel et Noé A mes beaux-parents: Jean-Pierre et Marie-Claude Enfin, à tout le reste de la famille et à tous mes amis Ces dix dernières années ont été marquées dans nos sociétés dites « développées» par une extension du champ d'exclusion, en particulier dans le domaine de la santé. De nombreuses études concernant les pathologies médicales et psychiatriques, liées à la précarité et à la misère, ont été menées en France comme en Europe, dans le but d'évaluer les besoins de santé des populations exclues du système sanitaire. Cependant, les pathologies dentaires, qui ont une grande prévalence et une grande incidence dans ces populations très défavorisées, restent encore mal connues des équipes soignantes, alors qu'elles représentent un problème majeur de santé publique qu'il est urgent de traiter. Les services de soins susceptibles d'accueillir ces populations sont en général les services hospitaliers (CHU, CHR, quelques CH). Les traitements ne sont malheureusement que des traitements d'urgence, car ces patients sont souvent dans l'incapacité, après intervention d'urgence, de poursuivre les soins nécessaires à une réhabilitation orale complète, soit parce qu'ils n'ont pas la couverture sociale nécessaire, soit par méconnaissance des démarches possibles pour l'acquérir. C'est pourquoi des Programmes Régionaux d'Accès à la Prévention et aux Soins (PRAPS) ont été créés afin de mieux combattre l'ensemble des difficultés des patients en situation de précarité. Elles n'ont pas vocation à créer un dispositif, mais à évaluer les réussites locales, les manques, les compléments à apporter, en un mot, à coordonner et à améliorer l'efficacité du système sanitaire et social de manière à ce qu'il réponde mieux aux besoins (ne serait-ce déjà par la prise en charge de la douleur au niveau dentaire). Au Centre Hospitalier Saint Charles de TOUL, une demande de soins dentaires était présente, en accord avec la tutelle, celle-ci a accepté le projet de mettre en place une consultation dentaire dans le but d'évaluer les besoins en santé dentaire. - 1- -2- Le haut comité de santé publique estime dans son rapport de février 1998, que le phénomène de précarisation est devenu aujourd'hui massif puisqu'on peut estimer qu'il représente 20 à 25 % de la population totale vivant en France soit 12 à 15 millions de personnes, dès lors qu'il manque une ou plusieurs des sécurités essentielles: (34) - emploi, - logement, - cohésion familiale, - éducation, - qualification professionnelle, - santé, Chacun de ces éléments peut créer une vulnérabilité particulière aux évènements de la vie et lorsque survient la maladie, beaucoup de personnes vivant dans une situation précaire connaissent des difficultés d'accès aux services sociaux de santé. C'est pourquoi ont été créé les PRAPS, les Programmes régionaux d'accès à la Prévention et aux Soins, vingt six PRAPS ont été élaborées en 1999 en 3 temps: 1- un état des lieux départemental et une synthèse régionale des difficultés d'accès à la prévention et aux soins 2- le choix de priorités, d'objectifs et la sélection d'actions régionales et départementales 3- la définition de procédures d'évaluation du programme et de ses actions. Elle a mobilisé 10 000 acteurs sanitaires et sociaux de terrain directement concernés par ces problèmes. Les PRAPS ont ainsi encouragés les acteurs de la lutte contre les exclusions à s'engager sur le terrain sanitaire et incité les professionnels de la santé à s'interroger sur les inégalités d'accès au système de santé. -3- Le public qui apparaît prioritaire est celui des jeunes et la pathologie la plus fréquente est la santé mentale, les objectifs pour la période 2000 à 2002 étaient regroupés en 10 rubriques: 1- L'amélioration des capacités des services sociaux et de santé à accueillir, prendre en charge et suivre les problèmes de santé des personnes vivant dans des conditions précaires. 2- L'amélioration des conditions d'accès et de recours aux droits pour les personnes ayant des difficultés d'ordre social. 3- L'amélioration de l'accès des personnes vivant dans des conditions précaires aux dispositifs de prévention et de dépistage. 4- Le développement du travail en réseau des professionnels du sanitaire et social. 5- La création de conditions pour une meilleure prise en charge des problèmes de santé mentale et de souffrance psychique des personnes, en particulier des jeunes, en situation de grande précarité. 6- Le développement d'une connaissance spécifique des trajectoires de la précarisation et des problèmes de santé des personnes vivant des situations de précarité. 7- L'amélioration de l'information et de la communication auprès des professionnels des personnes vivant en situation de précarité et du grand public. 8- Le lancement d'actions visant à accroître les capacités de chaque personne à prendre en charge sa santé quelle que soit sa situation sociale ou économique. 9- Une plus grande efficacité des dispositifs sociaux et de santé destinés aux personnes vivant des situations de grande précarité par une meilleure coordination avec les autres dispositifs publics. 10- La mise en oeuvre d'actions spécifiques dirigées vers des groupes sociaux ou des pathologies particulières. -4- 1.1. PAUVRETE, PRECARITE ET EXCLUSION SOCIALE (28) «Des phénomènes mal connus sont nécessairement mal combattus. Et pour bien connaître. on ne peut borner son regard à la seule population pauvre et exclue visible. Il faut connaître les mécanismes qui génèrent la pauvreté. les processus qui permettent d'en sortir " il faut aussi relier les phénomènes observés aux mécanismes globaux de production des inégalités et de la pauvreté, que ce soit au niveau du marché du travail, du système de protection sociale, de l'exercice des sotidarités sociales et familiales. » (42) Il existe sur la pauvreté des données chiffrées relativement nombreuses et des indicateurs élaborés. Il est possible de décrire le niveau, les évolutions, la composition de la population définie comme pauvre depuis 1970. Par ailleurs, des comparaisons entre les divers pays de l'Union européenne sont effectuées d'après des indicateurs homogènes depuis 1994. Les mesures chiffrées de la pauvreté, malgré les progrès des connaissances statistiques, ont des limites. Les personnes les plus en difficultés sont difficiles à cerner dans les enquêtes générales, les indicateurs de la pauvreté correspondent à des définitions précises: ils sont des indicateurs d'inégalités de revenus. En revanche, ils ne permettent pas de visualiser diverses situations pouvant être à l'origine de la précarité et de l'exclusion comme: - rupture familiale - conditions de logement insalubre - capital scolaire ou qualification professionnelle limitée - fragilisation liée à la maladie Le Haut Comité de la Santé Publique ajoute dans son rapport de 1998: «Ne voir et ne vouloir traiter que l'exclusion et la grande pauvreté revient à occulter le fait de la précarité, est la traduction d'un renforcement des inégalités sociales qui est devenu en quelques années le problème le plus considérable que la société française ait eut à affronter depuis longtemps », -5- Il est donc important de clarifier les concepts: d'exclusion sociale (limites définies par le droit), de pauvreté (limites définies par l'économie) de précarité (processus de fragilisation des sécurités essentielles emploi, logement, cohésion familiale, éducation, qualification professionnelle, santé) On compte: - 0,3 millions de personnes pour l'exclusion (0,4 à 0,5 1'0) - 4,5 à 5 millions de personnes pour la pauvreté (8 à 10 1'0) - 12 à 15 millions de personnes pour la précarité (20 à 25 1'0) 1.1.1. DEFINITIONS DE TROIS CONCEPTS (24) 1.1.1.1. La pauvreté - Les mesures et les caractéristiques des ménages pauvres: Il existe trois indicateurs chiffrés de la pauvreté. Les deux premiers sont mis au point et actualisés par l'INSEE, à partir d'enquêtes statistiques régulières; le troisième est issu de sources administratives. - un indicateur monétaire Sont considérés comme pauvres, les ménages ou les individus dont les ressources sont inférieures à un seuil donné. En France, le seuil de pauvreté correspond à la moitié du niveau de vie médian. La médiane est la valeur qui sépare la population en deux parties égales. En se référant à l'enquête Revenus Fiscaux de l'INSEE de 1996, le nombre de ménages pauvres se situerait entre 1,7 et 1,8 millions (soit entre 7,3 et 7,9 1'0 des ménages). Ce qui représente 4,5 à 5,5 millions de personnes (soit entre 8 à 10 1'0 des individus, dont 1 000 000 enfants de moins de 14 ans et un peu plus d'un million de jeunes gens qui ont entre 15 et 24 ans). -6- Le seuil de grande pauvreté correspond au tiers du niveau de vie médian. De 1983 à 1993, la grande pauvreté a régressé en France passant de 5,5 '0 à 3,5 '0 des ménages soit environ 1,5 millions de personnes. Une telle évolution est en particuliers à mettre au crédit de l'augmentation régulière du nombre de bénéficiaires des minima sociaux. La mesure du taux de pauvreté est très sensible au seuil retenu comme le montre ce tableau ci-dessous: Taux de pauvreté à différents seuils: Seuil de pauvreté 40 10 médiane 50 10 médiane 6010 médiane Taux de pauvreté 3/0 7,3/0 13,4 10 Rapport 2000 de l'observatoire national de la pauvreté et de l'exclusion sociale (données INSEE, enquête Revenus Fiscaux 1996) Ce seuil de pauvreté correspond à un niveau de ressources monétaires d'environ 534 € par mois en 1996 pour une personne seule. Les ménages pauvres avaient en moyenne un revenu disponible de 420 € par mois et par personne, alors que les ménages dépassant le seuil de pauvreté avaient en moyenne 1245 € par mois et par personne. La composition du revenu des ménages pauvres révèle une forte dépendance par rapport aux prestations sociales qui ne se limitent pas aux minima sociaux. Ceux-ci représentent en effet 16 10 du revenu, alors que les prestations logement représentent 14 10, les retraites et autres transferts 22 10. Cependant, les revenus d'activité ne sont pas absents puisqu'ils pèsent près du tiers du revenu des ménages pauvres. La pauvreté est fortement liée à l'absence ou à l'irrégularité de l'emploi. Une exploitation particulière de l'enquête « revenus fiscaux» a été effectuée sur des individus actifs de 17 ans et plus afin de mesurer la liaison entre leur activité et l'appartenance à un ménage pauvre. Les résultats font apparaître que le chômage joue un rôle majeur: le taux de pauvreté est en effet de 4/0 pour les personnes ayant occupé un emploi en continu depuis 12 mois et de 26 10 pour celles qui ont été en permanence au chômage pendant la même période. Mais, la majorité des personnes actives pauvres occupent un emploi, 60/0 -7- d'entre eux occupent un emploi permanent dont 39'10 à temps complet, 17% alternent chômage et emploi, 23'10 au chômage. En dehors d'éventuels épisodes de chômage, le caractère temporaire ou instable de la situation d'emploi, le temps partiel, l'absence de qualification, le fait de débuter dans sa vie professionnelle constituent autant de facteurs individuels tendant à augmenter le risque de pauvreté. Si la pauvreté peut s'expliquer par le type d'emploi occupé, la composition de la famille joue également un rôle, en particulier la présence d'un conjoint sans emploi. Un tiers des travailleurs pauvres sont dans ce cas, le taux de pauvreté parmi eux atteint 16 '10 alors qu'il n'est que de 2 '10 pour les travailleurs pauvres dont le conjoint occupe également un emploi. Le taux de pauvreté est particulièrement élevé pour les familles monoparentales, dont le chef de famille est majoritairement une femme. Taux de pauvreté des familles monoparentales en 1996 : - 7,3 '10 pour l'ensemble des ménages - 13,6 '10 si la femme est active - 13,9 '10 si la femme est inactive D'après ces données on pourrait se demander pourquoi le taux de pauvreté est sensiblement pareil que la femme soit active ou pas? Seulement 30 '10 des femmes occupent un emploi à temps plein et 23 % ont un emploi permanent à temps partiel. - un indicateur de « condition de vie» Mis au point et calculé par l'INSEE, il ne se fonde pas sur une approche uniquement monétaire, mais sur diverses dimensions de la vie courante, pour lesquelles les ménages ressentent des difficultés: - confort du logement, - endettement, - consommation, - équipement. -8- La démarche la plus courante pour analyser la pauvreté en terme de condition de vie est d'isoler, parmi les ménages les plus en difficulté, une proportion proche du taux de pauvreté monétaire soit aux alentours de 101'0. 28 indicateurs élémentaires de conditions de vie sont retenus et regroupés en grands domaines: - difficultés budgétaires - retards de paiement - restriction de consommation - conditions de logement. Un indicateur global synthétisant l'ensemble des conditions de vie est également construit. A partir de ces données, on calcule pour chaque ménage une échelle globale de difficultés. Si l'on retient les ménages qui sont confrontés à un cumul de 9 difficultés ou plus, on retrouve en terme de conditions de vie (1999) 9 'ro des ménages, pour 8 difficultés ou plus: 12,6 'ro, pour 7 difficultés ou plus: 16 % Dans la majorité des cas, les caractéristiques des ménages pauvres en termes de conditions de vie se rapprochent de celles des ménages situés au dessous du seuil de pauvreté monétaire mais ces deux groupes ne se confondent pas. La situation par rapport au travail détermine des probabilités plus ou moins élevées d'appartenir à un ménage pauvre en termes de conditions de vie: - les ménages dont la personne de référence est chômeur font cinq fois plus souvent partie des ménages les plus en difficulté que ceux dont la personne de référence est active occupée; - ceux dont la personne de référence est employée ou ouvrier ont trois fois plus de risques de faire partie des ménages en difficultés que les cadres ou les professions intermédiaires, et presque deux fois plus que les agriculteurs et les commerçants. -9- D'autres facteurs interviennent: - 25 '10 des familles monoparentales font partie des ménages les plus pauvres, contre 18 '10 des couples avec plus de deux enfants, 16 '10 des personnes seules et seulement 10 '10 des couples sans enfant; - 25 '10 des ménages dont un des membres a connu un divorce ou un problème professionnel ayant détérioré le revenu du ménage, ont des difficultés importantes de conditions de vie, contre 12 '10 n'ayant pas connu ces évènements au cours des derniers mois; - 18 '10 des ménages dont un des membres a vécu un problème de santé grave ou un accident sont pauvres en termes de conditions de vie contre 12 '10 des autres ménages. Enfin, dans les agglomérations de plus de 20 000 habitants, 16,6 CYo des ménages éprouvent des difficultés de conditions de vie, contre 10% dans les unités urbaines plus petites. Les ménages locataires de leur résidence principale sont trois fois plus souvent concernés par les difficultés de conditions de vie que les propriétaires. - un indicateur de « pauvreté administrative» Cet indicateur chiffre le nombre de ménages qui relèvent de la solidarité nationale au titre des minima sociaux. Ces minima, au nombre de huit ont été créés progressivement pour combler des lacunes de la protection sociale: 1- Allocation supplémentaire d'invalidité (1930) 2- Minimum vieillesse (1956) 3- Allocation adulte handicapé (1975) 4- Allocation de parent isolé (1978) 5- Allocation de veuvage (1980) 6- Allocation de solidarité spécifique (1984) 7- AIlocation d'insertion (1984) 8- Revenu Minimum d'Insertion (1988) 9- Revenu Minimum d'Activité (2003 ? - 2004 ?) - 10 - Ce qui fait, 390 € pour une personne isolée percevant le R.M.I. au 31/07/2000; 550 € par mois pour une personne seule pour le minimum vieillesse et pour l'allocation adulte handicapé. Au I" janvier 2000, 3,2 millions d'allocataires étaient concernés par les différents minima sociaux; si l'on considère les conjoints et personnes à charge, 5,5 millions de personne vivaient à cette date dans un foyer allocataire d'un minimum social (soit environ 10 /0 de la population). Les jeunes de moins de 25 ans n'ont pas le droit au R.M.I. et ne sont donc pas comptés dans cette définition, pas plus bien entendu que les personnes qui ne recourent pas à ces prestations par défaut d'information, ou refus des démarches administratives ou de l'assistance. - Les évolutions de la pauvreté (31) De 1970 à 1984, la proportion de ménages qui vivent au-dessous d'un seuil de 50/0 de niveau de vie médian tel que mesuré par les enquêtes Revenus Fiscaux a diminué; cette proportion s'est ensuite stabilisée, pour remonter très légèrement entre 1990 et 1996. Taux de pauvreté et nombre de ménages pauvres de 1970 et 1996 15,7/0 Nombre de ménages pauvres 2538000 Seuil de pauvreté (€) pour une personne seule 316 € 1975 12,6 /0 2 221000 372 € 1979 9,1 /0 1 736 000 465€ 1984 7,1 /0 1435000 480€ 1990 7,1 /0 1544000 513 € 1996 7,3 /0 1673000 522 € Années Taux de pauvreté 1970 Rapport 2000 de l'observatoire national de la pauvreté et de l'exclusion sociale (données INSEE: enquête Revenus Fiscaux 1996) Le seuil de pauvreté augmente durant la période et correspond à la moitié du niveau de vie médian, pour une personne seule, il était en 1998 de 552 € et en 2000 de 564 €. - Il - Si l'on se réfère au revenu moyen, l'évolution fait apparaître un autre phénomène: le revenu moyen sraccroît beaucoup plus rapidement à partir de 1979 que le revenu médian. Ce constat signifie qu'il y a eu, depuis cette date, ouverture de l'éventail des revenus vers le haut, c'est à dire une augmentation plus rapide des hauts revenus. Le revenu moyen est en effet sensible à la structure du haut de la distribution, alors que le revenu médian ne l'est pas. Des travaux récents de l'INSEE confirment et étayent le constat d'un accroissement relatif des inégalités de revenu primaire sur la période 19901996. L'intensité de la pauvreté est définie par l'INSEE comme l'écart entre le niveau de vie moyen des pauvres et le seuil de pauvreté monétaire. Sur la période 1975-1996, le revenu moyen par unité de consommation s'est rapproché du seuil de pauvreté pour l'ensemble des ménages pauvres, mais à des rythmes différents pour les ménages de retraités et pour ceux de salariés: on constate en effet une nette amélioration de la situation des salariés pauvres depuis 1990, alors que celle des retraités pauvres reste plus élevée que celui des ménages de salariés. Intensité de la pauvreté: rapport du niveau de vie moyen des ménages pauvres au seuil de pauvreté Années 1975 Ensemble des ménages pauvres 73 1'0 Ménages de retraités pauvres 82 1'0 Ménages de salariés pauvres 68 1'0 1979 73 % 841'0 72 1'0 1990 78 1'0 871'0 76 1'0 1996 78 1'0 86 % 80 1'0 Rapport 2000 de l'observatoire national de la pauvreté et de l'exclusion sociale (données INSEE, enquête Revenus Fiscaux 1996) ex: en 1975, le niveau de vie moyen de l'ensemble des ménages pauvres représente 73 % du seuil de pauvreté - 12 - - Un taux de pauvreté proche de la moyenne européenne (29) (33) La pauvreté monétaire en Europe (12 pays + Autriche et FINLANDE, la SUEDE ne participe pas encore à l'étude), fait l'objet de mesures régulières à l'aide d'une enquête sur un questionnaire harmonisé. Les données sur l'ensemble européen, datant de 1996, font apparaître un taux de pauvreté monétaire des ménages de 11.8 '10. Les taux de pauvreté en Europe calculés avec les seuils nationaux s'établissent à 5-6 '10 pour les pays les moins touchés. - Les limites de la connaissance statistique de la pauvreté L'Observatoire national de la pauvreté et de l'exclusion sociale recense plusieurs types de limites à la connaissance statistique de la pauvreté. Un certain nombre de personnes échappent aux enquêtes générales (exemple: les personnes accueillies dans des centres d'hébergement, dans des foyers, dans les prisons, dans les hôpitaux pour des séjours de longue durée, dans les maisons de retraite ne sont pas prises en compte dans les enquêtes ménages effectuées par l'INSEE qui ne concernent que les ménages en logement ordinaire). En dépit des efforts effectués notamment pour le recensement de la population (disposition d'interprètes dans certaines zones, enquêtes complémentaires), les enquêteurs ne sont pas en mesure de lever la méfiance de certaines personnes (étrangers, notamment en situation irrégulière, habitants de cités et banlieues en difficulté), ou même de simplement toucher des personnes rencontrant de grandes difficultés avec l'écriture et la lecture, vivant en squat ou dans la rue, ou encore des gens très mobiles, habitant un temps chez des parents ou amis c'est à dire de personnes qui sont en fait en très grande difficulté. La situation des demandeurs d'asile pose également problème du fait des délais de traitement de leurs demandes et des capacités d'hébergement collectif qui n'ont pas été prévues pour faire face à l'afflux de demandes. Selon l'observatoire national de la pauvreté et de l'exclusion sociale: «Ces populations, non seulement sont visibles et peuvent alimenter /'incrédulité d'une opinion à laquelle on dit que la pauvreté diminue mais elles peuvent très bien s'accroître sans que les enquêtes puissent en prendre la mesure », - 13 - Les indicateurs chiffrés de la pauvreté présentent des limites mais surtout ils correspondent à une définition précise, ils sont des indicateurs d'inégalités de revenus. Or, le niveau de revenu n'est pas le seul critère pour définir la réalité de ce qu'est la vie dans la grande pauvreté: «Ne se référer qu'au revenu occulte des aspects comme la qualité du logement, l'alimentation, la santé. la tamille, ainsi que la dimension psychologique et relationnelle de la vie dans la pauvreté: celle-ci génère une souffrance morale, une déstructuration sociale, et un dénigrement de soi qui caractérisent tout autant cet état », 1.1.1.2. La précarité (51) Le Conseil économique et social a décidé, le 12 février 1985, de demander à sa section des Affaires sociales, présidé par René Teulade, de rédiger un rapport et de proposer un avis au gouvernement sur le thème «Grande pauvreté et précarité économique et sociale ». Membre très actif de cette section depuis six ans, le père Joseph WRESINSKI (1917-1988, est la fondateur, en 1957, du Mouvement International de lutte contre la misère et l'exclusion) avait été désigné comme rapporteur. Il avait réussi à provoquer la réflexion des personnalités les plus diverses, qu'elles soient ou non déjà impliquées dans la lutte contre la pauvreté. En même temps, il avait mobilisé l'ensemble des forces du mouvement et avait fait appel aux principales associations déjà engagées dans la lutte pour nourrir son rapport. L'originalité de ce rapport réside dans la présentation d'une analyse détaillée de la pauvreté persistante dans un pays riche et tient en plusieurs contributions majeures dont voici les définitions qu'il donne de la précarité et de la grande pauvreté: «La précarité est l'absence d'une ou plusieurs des sécurités, notamment celle de I'emploi. permettant aux personnes et aux familles d'assumer leurs obligations professionnelles, familiales et sociales et de jouir de leurs droits fondamentaux. L'insécurité qui en résulte peut être plus ou moins étendue et avoir des conséquencesplus ou moins graves et définitives. Elle conduit à la grande pauvreté, quand elle affecte - 14 - plusieurs domaines de l'existence, qu'elle devient persistante, qu'elle compromet les chances de ré-assumer ses responsabilités et de reconquérir ses droits par soi-même, dans un avenir prévisible », L'accent est mis sur la grande pauvreté en tant que déni des droits de l'homme. Il met aussi en évidence le lien très étroit qui existe entre misère et droits de l'homme. Quand on vit dans l'exclusion et dans la grande pauvreté, non seulement on perd logement, travail, ressources, santé, mais on perd aussi sa citoyenneté, la possibilité de voter, de participer à la vie associative et politique. Aussi la lutte contre la misère doit-elle être mise en oeuvre non pas comme une action charitable ou une oeuvre sociale, mais comme un combat pour les droits de l'homme impliquant la co-responsabilité de multiples partenaires. C'est toute la société qui est concernée et pas seulement les pauvres et les travailleurs sociaux. Ce rapport est exceptionnel aussi parce qu'il a été mené, non pas comme trop souvent, avec le seul point de vue des experts patentés, mais avec la collaboration de personnes, de familles et de groupes en situation de pauvreté, leur avis ayant été scrupuleusement pris en compte par le rapporteur. Comparé à d'autres documents sur la pauvreté, celui-ci a une force et une pertinence particulières, dues à la prise en considération du témoignage et de l'expérience de ceux qui connaissent la misère pour l'avoir vécue. Proposition d'une politique globale de lutte contre la misère (51) Le rapport du père WRESINSKI accorde une grande importance à l'interdépendance entre les différents domaines de la vie. Tout en présentant ainsi avec force ces propositions spécifiques à la santé, l'avis insiste sur la nécessité d'une cohérence d'ensemble, pour aboutir effectivement à une politique globale, assurant l'accès à des ressources suffisantes, à un logement décent, à une formation utile, à une citoyenneté effective. Il a donné une définition de la grande pauvreté et de la précarité, que les plus hautes instances internationales feront leur. Il a proposé une politique globale, cohérente et prospective prenant en considération notamment les problèmes de santé. Il a provoqué une mobilisation de l'administration en réaction à la pression des associations. - 15 - La notion de précarité est liée à celle d'insécurité. Chacune des insécurités qUi peuvent affecter les individus correspond à différents processus de fragilisation ou de précarisation: précarisation de l'emploi et du travail, érosion des solidarités familiales, carences de qualification et de formation initiale, fragilisations dues à la maladie ou à une faible santé. La particularité de chaque processus de précarisation est qu'il concerne une population particulière, hétérogène, et qu'il s'alimente directement des dysfonctionnements de l'ensemble de la société (exemple: précarisation de l'emploi et du travail qui s'alimente de la montée de l'incertitude économique). Mais, tous les salariés qui, à un moment ou un autre, acceptent des formes de contrats de travail juridiquement précarisés (contrat à durée déterminée, contrats d'insertion aidés par l'Etat, intérim) ou seront licenciés, ne basculeront pas dans la précarité. Une part de ces chômeurs retrouvera un emploi durable, utilisera l'offre de formation pour se réorienter et intégrer une nouvelle activité professionnelle et reconstruire sa sécurité salariale. Les trajectoires des individus s'infléchissent dès lors qu'une fragilisation dure et qu'elle se cumule avec d'autres fragilités, soit acquises précédemment, soit surgissant à l'occasion de difficulté principale. Ceux qui, au chômage, ne peuvent plus cacher des fragilités acquises ou latentes (la personne illettrée qui depuis vingt ans travaillait dans le bâtiment, la personne ayant des pratiques alcooliques répétées), ceux qui voient, à l'occasion du chômage, surgir d'autres fragilités, ceux dont le couple se brise (40% de risque supplémentaire de séparation pour les chômeurs de longue durée), ceux qui basculent dans la dépression, ceux-là voient leur risque de précarisation croître fortement. En rassemblant les données statistiques disponibles et en considérant la précarité comme un processus longitudinal, le Haut Comité de la Santé Publique estime que ceux qui sont aujourd'hui touchés de manière objective par la précarité ou qui l'ont été récemment, représentent probablement de 12 à 15 millions de personnes. La précarité, un combat quotidien pour 20 à 25 % de la population française. La situation de précarité est avant tout un combat contre des agressions dont la diversité a été soulignée: manque d'argent induisant déséquilibres de l'alimentation, économies sur le chauffage ou les vêtements, débrouille perpétuelle entre les huissiers et - 16 - les banques, violence au sein du monde du travail, menace perpétuelle du chômage, dédain ou éloignement de l'environnement familial ou social, environnement urbain dégradé, et souvent même souvenir de violences subies dans l'enfance, poids de situations d'échec scolaire et de déqualification sociale. Tous ces facteurs ne sont pas toujours réunis, mais plusieurs convergent généralement pour établir la situation de précarité. Au delà des effets directs sur la santé de ces situations, bien souvent extrêmement négatifs, il faut se représenter la lutte perpétuelle que représente un tel mode de vie. L'épuisement dans ce combat contre un « provisoire qui s'éternise», la lutte sans espoir contre des systèmes de « double contrainte» dans lesquels sont enfermées des personnes vivant des révoltes politiquement inexprimables ou des situations bouleversant tous leurs codes de valeurs: «La lutte quotidienne pour ne pas glisser sur une pente qui rapproche chaque jour de l'exclusion n'érode pas simplement le capital psychique: c'est le corps luimême qui s'use et qui atteint ainsi des états de vulnérabilité aux maladies que les contraintes d'environnement et de comportement associées à l'exclusion ne pourront qu'aggraver. » 1.1.1.3. L'exclusion sociale (41) (50) Le terme « d'exclusion» induit une représentation qui oppose inclus / exclus. «Ce qui est essentiel, et tous les travaux de recherche le soulignent, c'est que l'exclusion n'est pas isolée par une sorte de cordon sanitaire de ceux qui seraient insérés dans la société" lï Y a un continuum de situations, un ensemble de positions dont les relations avec le centre sont plus ou moins distendues », (41) Si l'exclusion est d'abord un processus social qui commence par une privation précise: « exclu de l'accès à l'emploi», « exclu du droit au logement», cette rupture ne devient dangereuse que parce qu'elle active et révèle d'autres fragilités présentes dans l'histoire de l'individu ou des populations. L'exclusion est en fait une réalité dynamique caractérisée par l'absence - pendant une période plus ou moins longue - de la possibilité de bénéficier des droits attachés à la situation sociale et à l'histoire de l'individu concerné. L'exclusion peut être économique (chômage de très longue durée), sociale (mères célibataires sans soutien familial ni social, personnes âgées isolées, jeunes déscolarisés, ) - 17 - ou même indirecte (immigrés ou handicapés qui ne peuvent profiter des mêmes droits ni participer aux mêmes activités que les autres). L'exclusion pose bien d'autres problèmes que la seule absence de ressources financières qui peut toujours être compensée par différentes formes d'assistance. Le problème essentiel est que l'exclusion est intimement liée à des sentiments d'inutilité sociale et de dévalorisation de soi qui entraînent une intense souffrance psychique et la difficulté à s'insérer dans un tissu relationnel. C'est également cette souffrance qui conduit au renoncement y compris des soins à son propre corps et finalement à l'adoption de comportements pathogènes qui aggravent une vulnérabilité souvent déjà importante aux maladies organiques et psychiques. (50) Du fait des nombreuses définitions de l'exclusion, il est difficile d'estimer avec exactitude le nombre des exclus. D'après le Haut Comité de la Santé Publique, si l'on utilise une définition minimaliste et que l'on considère qu'un exclu est une personne qui malgré son état de pauvreté ne bénéficie pas - parce qu'elle n'en a pas le droit, qu'elle ignore ses droits ou qu'elle n'a même plus l'énergie de faire les démarches nécessaires - des possibilités d'aide (revenu, logement, école, santé) correspondant le plus à sa situation, on peut estimer le nombre d'exclus à environ 0,4 - 0,5 10 de la population française soit au maximum 300 000 personnes résidant sur le territoire français. 1.1.2. ACCROISSEMENT ET DEPLACEMENT DES INEGALITES SOCIALES (37) Après les années 60 et 70, caractérisées par une tendance à la réduction des inégalités entre catégories sociales, l'évolution s'est nettement inversée au cours des années 80 et 90. Tout autant qu'à l'accroissement des inégalités entre groupes sociaux, on a assisté en même temps, dans la période récente, à une reconfiguration de celles-ci avec notamment un glissement progressif des situations de pauvreté relative des générations les plus âgées vers les générations les plus jeunes. Ces dernières prennent en effet de plein fouet l'inversion de la tendance observée, tandis que les personnes âgées bénéficient toujours des acquis progressifs de la protection sociale de la période antérieure. Cette inversion peut s'observer dans de nombreux domaines, qu'il s'agisse des revenus, du patrimoine, de l'emploi, de la consommation, du logement, de l'école, des usages sociaux du temps, de la maîtrise de l'espace public, de la santé. - 18 - Ces différents aspects ne sont évidemment pas indépendants les uns des autres, ils entretiennent entre eux des relations étroites et complexes. Ainsi, pour ne prendre que ces deux exemples, les inégalités de conditions d'emploi et de travail ou les inégalités de conditions de logement ne sont pas sans rapport avec les inégalités face à la maladie et à la mort. De la même manière, des conditions de santé médiocres risquent de défavoriser socialement les individus concernés» 1.1.2.1. Inégalités sociales de revenus (5) Concernant les revenus disponibles après redistribution (après déduction des prélèvements obligatoires et versement des prestations sociales), il apparaît parmi les salariés, que seuls les ménages de cadres ont vu leur niveau de vie s'accroître, celui des autres catégories stagnant, voire baissant, comme dans le cas des ouvriers non qualifiés: le rapport entre le niveau de vie moyen d'un ménage de cadre et celui d'un ménage d'ouvrier est passé de 2,44 en 1984 à 2,85 en 1994. Parmi les indépendants, toutes les catégories ont amélioré leur situation, y compris les agriculteurs; la situation relative de ces derniers s'est cependant dégradée par rapport à la moyenne des indépendants. Les ménages de membres de professions libérales ont vu leur niveau de vie s'accroître de près de 40 70 en dix ans en termes réels. La situation des retraités s'est aussi améliorée, poursuivant le mouvement antérieur: leur niveau de vie moyen semble désormais dépasser celui des actifs, du fait de pensions de retraite plus élevées, d'un taux d'activité féminine antérieure plus important, d'une plus grande fréquence de vie en couple permettant de cumuler deux pensions de retraite, mais avec de fortes disparités au sein d'une catégorie qui reste très hétérogène. En définitive, le rapport entre les catégories extrêmes (cadres supérieursprofessions libérales/ouvriers non qualifiés) est passé de 2,9 à 4,2. D'autres indicateurs de disparité de niveau de vie confirment cette aggravation des inégalités de revenus. Ces rapports sont le résultat d'une double évolution: la dégradation relative de la situation de ceux qui étaient déjà les plus défavorisés et l'amélioration concomitante de la situation relative de ceux qui comptaient déjà parmi les plus favorisés. - 19 - 1.1.2.2. Inégalités sociales de logement (1) Les inégalités face au logement se sont aggravées durant les années 80 et 90. Cinq millions de personnes (soit plus de 8 % de la population totale) ne disposaient pas en 1990 de logement ou de conditions de logement considérées comme Il normales Il. Aux exclus du droit au logement au sens strict, c'est à dire aux sans-abri (estimés à 600 000 par le Conseil de l'Europe en 1995), on peut ajouter les mal logés (les personnes vivant dans un logement insalubre), ceux qui occupent des logements de substitution (meublés, garnis, chambres d'hôtel, souvent insalubres, faute de pouvoir trouver mieux), ceux qui n'échappent aux autres situations que grâce à la solidarité familiale ou amicale, au prix souvent d'un surpeuplement des logements occupés (il s'agit aux deux tiers de jeunes de moins de 25 ans et on constate une sur-représentation des ouvriers). 1.1.2.3. Inégalités sociales d'éducation (4) Les taux de scolarisation ont considérablement augmenté à tous les niveaux, mais la valeur sociale des diplômes baisse, l'usage de la formation et des titres scolaires en fonction de l'origine sociale reste très inégal et le moment de l'élimination se déplace. Les inégalités perdurent sous des formes renouvelées: - parmi ceux qui connaissent un ou deux redoublement(s), au cours préparatoire ou au-delà, les deux tiers proviennent des catégories Il défavorisées Il (ouvriers, personnels de service ou inactifs). Ces dernières sont sous-représentées parmi ceux qui effectuent leur scolarité pendant la durée prévue, c'est à dire en cinq ans. - Au collège, les deux tiers des élèves en difficulté deux ans après leur entrée sont originaires des milieux défavorisés. Plus de neuf enfants de cadres sur dix arrivent en quatrième générale sans redoubler, contre à peine plus d'un sur deux dans les catégories ouvrières et assimilées. - En 1990, un enfant d'ouvrier avait 8,5 fois moins de chances d'obtenir un bac général qu'un enfant de cadre et 17 fois moins de chances d'avoir un bac C (scientifique). - 20- Les inégalités dans le recrutement des étudiants restent très importantes. Toutes disciplines confondues, en 1997, les enfants d'ouvriers ont toujours huit fois moins de chances d'accéder à l'université que les enfants de cadres, contre onze fois moins quinze ans plus tôt et vingt-huit fois moins trente ans plus tôt. Au début des années 90, dans les écoles d'ingénieurs et les écoles d'architecture, l'écart entre les chances d'accès des enfants d'ouvriers et de cadres va de 1 à 25. Il va même de 1 à 50 pour les écoles normales supérieures et de 1 à 73 pour les écoles de commerce. La proportion des jeunes d'origine « populaire» envisagée de manière très large (père paysan, ouvrier, employé, artisan ou commerçant) dans quatre grandes écoles prestigieuses (Ecole polytechnique, Ecole normale supérieure, ENA, HEC) a beaucoup diminué depuis 40 ans: 29 'ra des élèves étaient d'origine " populaire" dans la première moitié des années cinquante, seulement 9 'ra aujourd'hui. Les catégories les plus représentatives des couches populaires - les ouvriers et les employés - ne forment qu'une partie de cette catégorie dite« populaire»: un septième seulement dans le cas des élèves de Polytechnique. «L'élite scolaire est donc bien le produit d'une élite sociale, elle l'est même de plus en plus », Alain BIHR et Roland PFEFFERKORN concluent sur ces mots: «Si la France est aujourd'hui 90% plus riche qu'en 1970 (inflation déduite} cet accroissement de la richesse est allé de pair avec une augmentation de la pauvreté en raison de l'aggravation considérable des inégalités de répartition de la richesse nationale », (4) - 21 - 1.2. LES INTERACTIONS ENTRE LES PROCESSUS DE PRECARISATION ET LES PROCESSUS DE SANTE (22) (25) A l'image des processus de précarisation, les rapports entre santé et précarité relèvent d'interactions multiples, où se mêlent des données sociales, des faits objectifs et des vécus subjectifs. Ces interactions s'inscrivent dans la durée, le temps étant une dimension essentielle de la santé comme de la précarité. La santé n'est pas simplement un déterminant de la précarité, ni la précarité un déterminant de la santé comme le suppose tour à tour des modèles commodes mais réducteurs. Santé et précarité se conjuguent et contribuent mutuellement à creuser le passif d'un individu qui tente de faire face aux exigences d'une société où s'aggravent les inégalités. 1.2.1. LA SANTE, UN FACTEUR ET UN PRODUIT DU DEVELOPPEMENT ECONOMIQUE ET SOCIAL (46) La notion de santé, dans une approche de type santé publique, est tout aussi complexe et controversée que la notion de précarité. Comme pour la précarité, certaines définitions considèrent la santé comme un état alors qu'en revanche, d'autres sont plus sensibles à sa dimension de processus et de construction sociale. Sans renoncer à la définition de l'O.M.S. de la santé de 1946 : /1 état complet de bien être physique, mental et socialqui ne consiste pas seulement en l'absence de maladie ou d'infirmité I~ celle-ci l'a fortement modulée en 1986, lors de l'adoption de la charte d'Ottawa pour parvenir à un «état de complet bien-être physique, mental et social, lïndividu, ou le groupe, doit pouvoir Identifier et réaliser ses ambitions, satisfaire ses besoins et évoluer avec son milieu ou sr adapter. » (43) La santé est donc perçue comme ressource de la vie quotidienne, et non comme le but de la vie; c'est un concept positif mettant l'accent sur les ressourceS sociales et personnelles, et sur les capacités physiques. La promotion de la santé ne relève donc pas seulement du secteur de la santé, son ambition est le bien-être complet de l'individu. - 22- La santé exige un certain nombre de conditions et de ressources préalables, l'individu devant pouvoir notamment: - se loger, - accéder à l'éducation, - se nourrir convenablement, - disposer d'un certain revenu, - bénéficier d'un écosystème stable, - compter sur un apport durable de ressources, - avoir droit à la justice sociale - un traitement équitable. Cette définition de la santé apparaît donc comme un outil particulièrement pertinent lorsque l'on doit étudier des phénomènes de santé directement liés à l'environnement social. Elle rappelle qu'avant d'être le produit de la qualité des services de soins, la santé est - sauf cas particuliers liés à la génétique ou la biologie - la conséquence du fait qu'une personne bénéficie ou non de droits fondamentaux qui devraient être ceux de toute société démocratique. En effet, contrairement à la vision biomédicale qui attribue principalement l'amélioration de la santé à la qualité des services de santé et aux progrès de la biotechnologie, l'état d'une population est le résultat de l'influence de nombreux facteurs déterminants. Cependant, l'étude de ces déterminants n'est pas simple du fait à la fois de leur multiplicité et des nombreux liens qui existent entre eux, ce qui rend difficile l'appréciation du rôle spécifique de chacun. A titre d'exemple, la pauvreté et la précarité agissent incontestablement comme des déterminants de l'état de santé, mais elles exercent également une influence forte sur d'autres déterminants ce qui rend difficile l'identification de ceux sur lesquels on peut agir. Bien que l'on manque encore de données longitudinales indiscutables et d'outils de prévision, les premières analyses des effets de la précarité sur la santé, menées en France et dans d'autres pays font craindre une régression du niveau de santé des populations les plus fragiles, capable d'affecter la population générale et les générations futures. De nombreuses études partielles montrent en effet que les événements biographiques qui marquent particulièrement l'enfance et l'adolescence déterminent étroitement la santé ultérieure. La fréquence et la gravité de nombreuses affections sont étroitement corrélées aux événements biographiques tels que le deuil, la solidarité familiale, la - 23 - précarité, le niveau de vie des parents, la violence subie et agie, le niveau d'éducation, les conditions sanitaires de la petite enfance qui sont eux-mêmes étroitement liés entre eux. Par analogie avec le concept de « capital humain» tout se passe comme si l'individu disposait d'un « capital santé» mêlant la biologique et le biographique, sans cesse modifié par les événements positifs et négatifs de son existence, et bien entendu influencé par l'usage qui en est fait. Les formes actuelles de la précarité font peser sur ce « capital de lourdes hypothèques », Un des fils conducteurs pour comprendre les effets des processus de précarisation sur la santé des individus est celui de la souffrance psychique. Tous les acteurs de terrain qui côtoient les personnes en difficulté sont unanimes pour considérer ce symptôme comme central, par son intensité et sa fréquence: En agissant directement et indirectement sur les conditions socio-économiques, l'environnement, le comportement mais aussi sur l'accès à la protection sociale et aux soins, les processus de précarisation opèrent à de multiples niveaux sur l'état de santé. L'un des modes d'action - sinon le principal - de la précarité sur la santé, est qu'elle fragilise l'équilibre psychique en créant chez l'individu un sentiment d'insécurité qui lui-même va conduire à un état d'anxiété plus ou moins marqué. Si la situation de précarité se prolonge et devient permanente, elle entraîne une dégradation de l'image de soi et un sentiment d'inutilité sociale qui débouchent progressivement sur une souffrance psychique dont les modes d'expression dépendent de l'histoire personnelle. Dans les situations extrêmes, on assiste à une diminution de la vigilance voire de l'intérêt par rapport à son propre corps conduisant alors à des comportements à risque, à la consommation excessive de produits licites ou encore à l'usage de drogues. A l'initiative de la délégation interministérielle à la Ville (DIMV) et de la délégation interministérielle au RMI (DIMRMI), un groupe de travail« ville, santé mentale, précarité et exclusion sociale» s'est réuni de novembre 1993 à fin 1994. Les travaux de ce groupe composé de représentants d'administrations centrales et de services déconcentrés, d'établissements publics concernés par le sujet, de professionnels de terrain et de chercheurs - ont fait l'objet d'un rapport: « Pauvreté, Précarité et Pathologies mentales: une souffrance que l'on ne peut plus cacher », (36) (45) - 24- Cette souffrance est mal identifiée et non traitée par les dispositifs sociaux et psychiatriques classiques. L'intervention globale est peu développée entre le social et le sanitaire. Les objectifs Le groupe de travail a poursuivi un triple objectif: 1- améliorer la connaissance et la compréhension de ces phénomènes de souffrance psychique des personnes en situation de précarité; 2- mobiliser les institutions pour que ce problème soit pris en compte et que soit construit, à l'intersection des champs du social et du médical, un espace d'intervention commun; 3- repérer les lieux de collaboration existant déjà au niveau local ainsi que les nouvelles pratiques de prévention en santé mentale répondant au problème. Les conditions économiques et sociales de vie sont donc un déterminant fort de l'état de santé des populations: les études épidémiologiques vont toutes dans le même sens: plus on est pauvre, plus on est malade et plus on meurt jeune; partout on constate que le plus fort prédicteur de la maladie physique et/ou mentale et de la mortalité prématurée est le niveau socio-économique du foyer. Mais la Charte d'Ottawa rappelle également qu'il y a une relation circulaire entre la santé et l'environnement social: la santé est un produit du processus de développement mais elle est aussi l'un de ses déterminants majeurs: La bonne santé est une ressource majeure pour le développement social, économique et individuel et une importante dimension de la qualité de la vie. - 25 - 1.2.2. L'AGGRAVATION DES INEGALITES SOCIALES FACE A LA MALADIE ET A LA MORT (28) Les travaux de G. DESPLANQUES ont mis en évidence dès le début des années 1970 un fait majeur concernant la santé en France (et plus généralement celle des pays occidentaux). Ce fait, qui est aujourd'hui largement documenté, est l'inégalité sociale en termes de mortalité. En comparant la mortalité - ajustée sur l'âge - des différentes catégories socioprofessionnelles, il a montré qu'il y avait chez les hommes de 35 ans des différences d'espérance de vie considérables. Ceux qui vivent le plus longtemps se trouvent au sommet de l'échelle sociale, par le revenu ou par l'instruction (professions libérales, dirigeants d'entreprises, enseignants) alors que ceux qui ont l'espérance de vie la plus faible exercent des professions non qualifiées (manoeuvres et travailleurs agricoles). Evolutions des différences de mortalité entre les groupes socio-économiques [évolutions des décès de 25 à 64 ans entre (1981-1983) et (1989-1991) Taux standardisés par âge] Variation des taux de décès Surmortalité par rapport à la catégorie Il cadres supérieurs-professions libérales (81-83) / (89-91) (81-83) (89-91) ! 1 Ouvriers et employés Commerçonts cadres moyens Cadres , . superieurs professions libérales Masculin b 1 Féminin -8 ~o ~ -3 ~o - 19 ~o - 38 ~o 1 Il 1 Masculin 1 Féminin 1 Masculin 1 ~I~l~ ~_~~Ll~ 1.0 1.0 1.0 Féminin 1.5 1.4 1.0 Source: Rapport 1998 du Haut Comité de la santé publique (34) Les cadres supérieurs et professions libérales sont les référentiels - 26- On dénombre tous les décès hommes et femmes pour chacune des deux périodes 1981-1983 et 1989-1991, et pour chaque groupe socio-économique on calcule la variation du taux entre ces deux mêmes périodes. Les cadres supérieurs et les professions libérales sont pris comme référentiels dans la partie droite du tableau. Pour les ouvriers-employés, les taux de décès pour les personnes âgées de 25 et 64 ans, ont diminué de 2 'ro entre les deux périodes (1981-1983 et 1989-1991) la mortalité de ce groupe est trois fois plus élevée que celle des cadres supérieurs (2,5 fois, il ya 10 ans). L'observation ou l'évolution de la morbidité selon les groupes socio-économiques avant 65 ans montre que les taux de décès ont régressé plus rapidement ces dix dernières années dans les couches sociales les plus aisées que chez les ouvriers et ceci quelle que soit la pathologie en cause Evolutions des différences de mortalité entre classes sociales [évolution des décès du sexe masculin de 25 à 64 ans entre (1981-1983) et (1989-1991) Taux standardisés par âge] Variation des taux de décès Il (81-83) / (89-91) O-E Cancer poumon + 28 'ro Surmortalité par rapport à la catégorie cadres supérieurs-professions libérales (81-83) Il (89-91) C-CM CS-PL O-E C-CM CS-PL O-E 35 % - 3 'ro 2.7 1.2 1.0 3.6 1.6 1.0 7.6 2.4 1.0 10.2 2.9 1.0 9.6 3.4 9.3 3.0 1.0 1.5 1.0 2.5 1.6 1.0 10 2.5 1.4 - 29 'ro + Cancer VADS - 5 'ro - 15 'ro [- 29 'ro Alcoolisme - 25 'ro - 33 'ro - 23 'ro Infarctus - 14 'ro - 11 'ro - 47 'ro Maladies CVH - 18 'ro - 21 'ro Accidents circulation - 14 'ro - 2 'ro 2.1 Suicides - 2 'ro - 7 'ro 1- 18 % 1 2.4 - .;)0 1 Il ~ ~ 1 C-CM 1 CS-PL ~ 1.0 3.3 1.2 1.0 2.6 1.6 1.0 1.7 1.0 2.9 2.0 1 () 1 Source: Rapport 1998 du Haut Comité de la santé publique (34) O-E: ouvriers et employés C-CM : commerçants et cadres moyens CS-PL: cadres supérieurs et professions libérales Maladies CVH : maladies cérébro-vasculaires et hypertensives - 27- 1.0 En 20 ans, l'espérance de vie a augmenté pour toute la population, mais avec une croissance nettement plus marquée pour les plus favorisés. Ainsi, selon les chiffres de l'INSEE portant sur l'analyse de données de 1982 à 1996, l'espérance de vie des ouvriers de 35 ans est inférieure de 6,5 ans à celle des cadres et des professions libérales. (Pour les femmes, des inégalités d'espérance de vie existent également, mais les disparités sont plus réduites que pour les hommes à 35 ans, différence de 3,5 ans d'espérance de vie entre ouvrières et cadres-professions libérales). (7) Entre ces deux extrêmes, le niveau de l'espérance de vie à 35 ans croît globalement en suivant la hiérarchie des catégories professionnelles: ouvriers, employés, commerçants, cadres - professions libérales. Un manoeuvre a un risque trois fois plus élevé de mourir entre 35 et 65 ans qu'un ingénieur. Entre 25 ans et 64 ans, la surmortalité des ouvriers et employés par rapport aux cadres et professions libérales concerne pratiquement toutes les causes de décès, en particulier les maladies cardio-vasculaires, les cancers et les morts violentes. Si l'espérance de vie des catégories les moins favorisées s'alignait sur celles des cadres, 10 000 décès prématurés par an pourraient être évités. Ces disparités françaises se retrouvent dans d'autres pays européens mais à un moindre degré. Ainsi, selon une étude européenne, la mortalité des hommes de 45 à 59 ans exerçant une profession « manuelle» est en France supérieure de 71 1'0 par rapport à ceux ayant une autre activité. Dans les autres pays européens, cette surmortalité des travailleurs manuels s'échelonne seulement de 33 à 53 l'o. Si on prend en compte non plus la profession mais le niveau d'études, on observe également des disparités plus grandes en France que dans les autres pays, et ce pour les hommes comme pour les femmes. La nature des maladies contribuant le plus à la surmortalité des «manuels» par rapport aux «non manuels» varie aussi selon les pays. La France se caractérise par une contribution importante des maladies liées à l'alcool (certains cancers et maladies de l'appareil digestif notamment). Les inégalités sociales de santé commencent dès la naissance et s'incrustent à chaque étape de la vie. (37) - 28 - Les différences sociales de mortalité s'observent dès le début de la vie. Selon les dernières données (deuxième moitié des années 80), la mortalité périnatale - c'est à dire dans les jours précédant et suivant la naissance - varie de 7,1 décès pour 1 000 naissances pour les enfants dont le père est cadre à 10,2 pour mille pour ceux dont le père est ouvrier (à noter cependant qu'en 20 ans, les disparités à ce niveau se sont nettement atténuées). Ces différences sont moins fortes pour la moralité infantile, même si elles existent toujours. Les différences sociales de mortalité au début de la vie ne concernent pas seulement la mortalité, mais aussi la prématurité, et le faible poids de naissance. Le risque de naître prématuré est 1,2 à 2 fois plus élevé si les parents se situent au bas de l'échelle sociale que s'ils sont cadres. Seule une petite partie de ces disparités sont explicables par les facteurs de risque classiques comme l'âge maternel, la parité, l'emploi, le tabac ou la surveillance prénatale. Le faible poids de naissance est maintenant reconnu comme augmentant le risque de certaines des maladies les plus importantes à l'âge adulte, notamment les maladies cardio-vasculaires: les inégalités sociales de santé à la naissance peuvent donc avoir des conséquences à long terme. Au moment de l'adolescence, les enquêtes mettent en évidence le fait que les problèmes de santé, de maturation somatique (taille, corpulence) sont plus fréquents chez les plus modestes. A l'inverse, comme dans les autres pays francophones, la consommation d'alcool, de tabac et de cannabis affecte plus les enfants de milieux favorisés. Les résultats montrent que les enfants de cadres déclarent plus fréquemment que les autres des symptômes dépressifs et une prise de médicaments contre la nervosité ou l'insomnie, alors que la tentative de suicide est plus souvent relatée par les enfants d'ouvriers. Les rares données chiffrées sur les inégalités en matière de santé pour les personnes âgées résident dans la logique implacable qui frappent les plus déshérités tout au long de l'existence. Ainsi, une enquête a calculé, pour une population ayant pris sa retraite en 1972, que 10 ans après l'arrêt de l'activité professionnelle, 48 10 des ouvriers étaient décédés contre 18 10 des techniciens et des cadres. - 29- - Inégalités sociales de santé, quatre exemples (37) Cancers La mortalité par cancer fait également apparaître des différences sociales importantes, et comme pour les maladies cardio-vasculaires, elles concernent aussi bien la survenue du cancer que la létalité. Peu de données existent en France, mais elles vont toutefois dans le même sens que la littérature internationale. La survie après cancer est en moyenne plus basse dans les catégories socioprofessionnelles plus défavorisées, et ce, quelle que soit la localisation des cancers. En revanche, le risque de survenue d'un cancer en fonction de la catégorie socioprofessionnelle dépend de la localisation du cancer. Ainsi, le risque est plus élevé dans les catégories socioprofessionnelles basses pour les cancers du poumon, des voies aérodigestives supérieures, de l'oesophage, et du col utérin. Au contraire, le risque est plus élevé dans les catégories élevées pour le cancer du colon, et le cancer du sein. Cependant, pour cette dernière localisation, la relation semble s'inverser. Ces différences sociales d'incidence ne sont pas totalement expliquées par des différences dans les facteurs de risque, notamment ceux liés au mode de vie; le rôle des expositions professionnelles intervient dans certains cancers, celui du recours au dépistage dans d'autres. Maladies cardia-vasculaires Au cours des vingt dernières années, la mortalité par maladie coronarienne a nettement diminué. Mais cette diminution a davantage bénéficié aux cadres qu'aux employés ou aux ouvriers. Ainsi, en 1990, chez les hommes d'âge actif, le risque de mourir d'un infarctus est multiplié par 1.8 pour un ouvrier et par 3.5 pour un employé par rapport à un cadre. Selon les données des registres MONICA (MONItoring trends and determinants in CArdiovascular disease), ces différences sociales de santé concernent aussi bien la survenue (incidence) des maladies (avec un risque particulièrement élevé pour les employés), que la létalité (mortalité des personnes malades), particulièrement élevée chez les ouvriers. Des facteurs comme les comportements ou les conditions de travail peuvent expliquer en partie les différences dans la survenue de la maladie, mais le recours aux soins préventifs et la prise en charge médicale ambulatoire contribuent probablement aussi aux différences de létalité. - 30 - Incapacités et handicap Selon des données de l'INRETS (Institut National de Recherche sur les Transports et leur Sécurité), étude internationale coordonnée par l'OMS, les proportions de décédés et de blessés graves dans les accidents de la circulation, chez les conducteurs, sont nettement plus élevées chez les agriculteurs, les ouvriers et les chômeurs que dans les autres catégories. Si la situation sociale influe sur la santé, la santé influe également sur les conséquences sociales de la maladie: ainsi, parmi les personnes devenues tétraplégiques à la suite d'un accident, le pourcentage de celles ayant un emploi après l'accident est d'autant plus élevé qu'elles ont un diplôme de niveau élevé. Santé bucco-dentaire La santé bucco-dentaire des enfants est le seul élément connu de la santé selon la situation sociale des familles. Des enquêtes nationales répétées depuis 1987 montrent une amélioration globale de l'état de santé dentaire des enfants. Cependant, il existe toujours des différences importantes selon la catégorie socioprofessionnelle des parents, aussi bien pour le nombre moyen de dents cariées, absentes, ou obturées que pour le pourcentage d'enfants indemnes de caries. En 1998, à 12 ans, 47 "0 d'enfants de cadres supérieurs sont indemnes de caries, 43 1'0 dans les catégories intermédiaires, contre 32 % seulement chez les enfants d'ouvriers. La santé bucco-dentaire des adultes présente les mêmes caractéristiques sociales que celles des enfants. Si ces inégalités sociales de santé peuvent résulter en partie de différences dans les pratiques de prévention individuelle (hygiène dentaire, alimentation), l'accès aux soins préventifs ou curatifs précoces joue également un rôle, notamment en raison de leur coût: les données du CREDES (Centre de Recherche et de Documentation en Economie de la Santé) montrent que les soins dentaires sont ceux auxquels les personnes renoncent le plus fréquemment lorsqu'il y a renoncement aux soins pour des raisons financières. (3) - 31 - 1.3. PROTECTION SOCIALE ET SYSTEME DE SOINS: VERS PLUS D'EQUITE ET D'EGAUTE Le gouvernement a lancé deux types d'actions qui permettront de lutter contre les inégalités sociales de santé: - une action globale - une action plus spécifique 1.3.1 UNE ACTION GLOBALE DE DEVELOPPEMENT ECONOMIQUE ET DE LUTTE CONTRE LES EXCLUSIONS (7) « En raison de la persistance des précarités et du caractère muttidimensionne! du phénomène, et parce que tous les droits fondamentaux sont interdépendants et Indivisibles, la lutte contre la grande pauvreté et l'exclusion sociale ne saurait atteindre l'efficacité nécessaire sans une volonté forte et sans une conception d'ensemble» (39) Pour signifier l'ampleur du chantier à entreprendre et la diversité des domaines d'intervention, le rapport WRESINSKI (51) au Conseil économique et social avait, dès 1987, souligné la nécessité d'une loi d'orientation. Une longue marche Le 28 janvier 1992, le bureau du Conseil économique et social a confié à sa section des Affaires sociales la préparation d'un rapport sur l'évaluation des politiques publiques de lutte contre la grande pauvreté. Mme Geneviève de Gaulle Anthonioz, présidente du «Mouvement Atd Quart Monde », en a été le rapporteur. Ce travail a été effectué sous le contrôle du Conseil scientifique de l'évaluation. Il a impliqué des organismes de recherche indépendants, le Centre de Recherche pour l'Etude et l'Observation des Conditions de vie et le Centre d'Economie des Besoins Sociaux. La démarche d'évaluation s'est faite, d'une part, avec des personnes en situation de pauvreté (première fois que des personnes vivant dans la pauvreté sont associées directement à l'appréciation des politiques destinées à transformer leur condition), et d'autre part, avec les autres acteurs impliqués dans la lutte contre la pauvreté. Trois ans et demi de travail intensif ont été nécessaires pour relever ce défi. Les six cent trente-quatre pages du rapport et les cinquante-six pages de l'avis qui - 32 - sera voté par le Conseil économique et social sans aucune opposition constituent les travaux de référence pour comprendre la loi de lutte contre les exclusions. (51) Au cours de la campagne des élections présidentielles de 1995, Jacques Chirac fait de « la réduction de la fracture sociale» un thème majeur de son programme. Sous le double pilotage de Jacques Barrot et de Xavier Emmanuelli, le gouvernement Juppé met en chantier un projet de loi relatif au renforcement de la cohésion sociale. La dissolution de l'Assemblée nationale par Jacques Chirac, en plein débat sur le projet de loi relatif au renforcement de la cohésion sociale, crée une profonde déception des associations qui ont été associées à la rédaction du projet de loi. Le nouveau premier ministre Lionel Jospin prend l'engagement de reprendre le chantier. Dans son discours introductif à la première lecture du projet de loi (5 mai 1998), Martine Aubry, ministre de l'emploi et de la Solidarité, a exprimé son refus de voir «des hommes privés d'avenir et l'exclusion considérée comme le tribut à payer à la rentabilité de notre économie et à la compétitivité de la France sur le marché mondial », La dignité apparaît au coeur de la loi dont l'objectif est d'abord de garantir l'accès effectif aux droits fondamentaux, tremplin vers la réinsertion sociale. Il s'agit ensuite de prévenir les exclusions et de mieux agir ensemble contre elles, en s'appuyant chaque fois que cela est possible sur des solutions de droit commun. Les droits communs et indivisibles figurant dans la loi concernent les domaines de l'emploi, du logement, de la santé et de la citoyenneté. Sont aussi mentionnés les droits fondamentaux dans les domaines de l'éducation, de la formation, de la culture, de la protection de la famille et de l'enfance. Le gouvernement affiche donc sa volonté de faire progresser le droit à la protection de la santé, dans la droite ligne du préambule de la Constitution, selon lequel «la Nation garantit à tous la protection de la santé », Deux défis sont ainsi clairement identifiés: - difficultés d'accès à la protection sociale, - inadaptation des structures de prévention et de soins aux besoins des personnes en situation précaire. - 33 - Une loi sur la couverture maladie universelle doit répondre au premier défi, la loi contre les exclusions au second. Le texte de loi (39) C'est finalement le 29 juillet 1998 qu'a été promulguée la «loi d'orientation relative à la lutte contre les exclusions» comprenant cent cinquante-neuf articles. Son caractère d'orientation est très important, car il signifie que les principes et les ambitions qu'elle contient devront se trouver traduits par tous les textes qui suivront: aucun ne pourra y être contraire. Cette loi dispose en son article premier que «la lutte contre les exclusions est un impératif national» et donc une obligation. Elle représente l'engagement de notre pays à se remettre en question, tant que les droits fondamentaux de chacun ne seront pas respectés, et à aller jusqu'au bout de la destruction de la misère. Le principe fondateur du texte est le respect de l'égale dignité de tous les êtres humains. Il passe par la recherche tenace d'un accès effectif de tous à l'ensemble des droits fondamentaux et par la volonté de considérer les plus démunis comme des partenaires, c'est à dire de privilégier les attentes et les projets des personnes par rapport au fonctionnement des structures et à la réussite des dispositifs. 1.3.2. UNE ACTION PLUS SPECIFIQUEMENT SANITAIRE QUI COMPORTE DEUX VOLETS COMPLEMENTAIRES: - la mise en oeuvre de la couverture maladie universelle (CMU) (loi du 27 juillet 1999) qui vise à faire disparaître les barrières financières à l'accès aux soins (38) ; - les programmes régionaux d'accès à la prévention et aux soins (PRAPS), dont l'objectif est de mieux connaître l'ensemble des difficultés d'accès à la prévention et aux soins (organisationnels, psychologiques, culturels, sociaux, etc.) des personnes en situation de précarité afin de proposer des adaptations de notre système de santé réellement adaptées à leurs besoins. - 34- 1.3.2.1. La généralisation progressive de l'assurance maladie Alors que le droit à la santé fait partie des droits fondamentaux consacrés par le préambule de la Constitution du 27 octobre 1946, en 1998, un français sur sept déclarait avoir renoncé à se soigner, faute de moyens financiers. En étendant à tous les résidents en situation régulière l'accès à un régime de base, la loi du 27 juillet 1999 achève un processus engagé en 1945 par les fondateurs de la sécurité sociale: l'assurance maladie pour tous. Cette idée d'un droit de chacun à la sécurité sociale est l'aboutissement d'une longue évolution historique. Au cours des vingt dernières années, l'accès aux soins des plus démunis a été facilité par la généralisation progressive de l'assurance maladie, complétée par des dispositifs comme l'assurance personnelle, le RMI et la réforme de l'aide médicale. Le l'" janvier 2000, la loi portant création d'une couverture maladie universelle (CMU) est entrée en vigueur. Elle vise, d'une part, à garantir l'accès effectif à l'assurance maladie de base et, d'autre part, à assurer une couverture complémentaire aux six millions de personnes qui y ont renoncé, faute de ressources suffisantes. (38) L'accès effectif à la « CMU de base» concerne les quelques 700 00 personnes qui, avant la mise en place de la CMU, ne relevaient toujours pas d'un régime de base à partir des critères d'affiliation socio-professionnels traditionnels. Parmi elles, 150 000 étaient dépourvues de toute protection sociale et 550 000 étaient couvertes par le biais de l'assurance personnelle (50 000 acquittaient une cotisation. Les 500 000 autres voyaient leurs cotisations prises en charge par un tiers - caisse nationale des allocations familiales (CNAF), caisse centrale de mutualité sociale agricole (CCMSA) pour les bénéficiaires d'une prestation familiale, soit par l'aide sociale (aide médicale des départements), soit encore par le Fonds de solidarité vieillesse; ces mécanismes étaient stigmatisants et pouvaient entraîner, du fait de leur complexité, des ruptures de droit et des retards dans l'affiliation à la sécurité sociale). Selon les estimations du gouvernement, la complémentaire en matière de santé devrait couvrir six millions de personnes (dont trois millions de foyers), soit 10 ~o de la population. Elle couvre les dépenses suivantes: le ticket modérateur, le forfait hospitalier (sans limitation) et la prise en charge des frais d'optique, dentaires et d'appareillage dans - 35 - la limite d'un plafond. Elle permet également aux jeunes d'avoir leur propre carte de sécurité sociale dès seize ans, facilitant ainsi l'accès aux soins des jeunes dont les liens sont rompus avec la famille. Elle évite également en instaurant une application immédiate, toute avance de frais liés aux soins, y compris la part non remboursée par l'assurance maladie (notamment le ticket modérateur). La CMU s'inscrit complètement dans la démarche engagée par les programmes régionaux d'accès à la prévention et aux soins (PRAPS), dans la mesure où elle favorise l'accès à la santé des personnes en situation de précarité en apportant gratuité, proximité, rapidité et simplification. Aujourd'hui, au début de l'année 2004, le nombre de bénéficiaires de C.M.U. est évalué à 4,7 millions, parmi eux 4 millions résident en métropole. Le taux le plus faible est en Haute Savoie, 2,8 /'0 et le plus élevé dans les Bouches du Rhône 12,5/'0. 1.3.2.2. L'adaptation progressive du système de santé aux besoins des personnes en situation de précarité (32) Indépendamment des facteurs limitants que sont, pour les personnes en situation de pauvreté et de précarité, l'accès aux droits et l'absence de couverture complémentaire, il existe d'autres limites à l'accès aux soins: les unes étant propres aux personnes ellesmêmes et les autres étant - malgré des efforts notables - dues au système de soins. Il y a trop souvent entre la personne qui certes, est malade mais souffre d'abord d'une mauvaise image d'elle-même et le système de soins une distance psychologique fondamentale qui ne permet pas un dialogue serein et qui bien souvent se traduit à la fois par une résistance du patient à aller consulter et une incapacité du système de soins (public ou privé) à prendre en charge les problèmes spécifiques. S'ils s'inscrivent dans la continuité d'une logique enclenchée avec les programmes départementaux d'accès aux soins (PDAS) mis en place par la circulaire du 21 mars 1995, les PRAPS diffèrent toutefois des PDAS par leur caractère obligatoire et leur niveau - 36 - d'organisation régionale. En outre, les PRAPS comportent, au même titre que la dimension curative, une dimension préventive. L'objectif de ces programmes est de mieux connaître la nature des difficultés d'accès à la prévention et aux soins des personnes en situation de précarité afin de proposer des ajustements de notre système de santé réellement adaptés à leurs besoins. « Laccès à la prévention et aux soins des personnes les plus démunies constitue un objectifprioritaire de la politique de santé» (article 67). Cet objectif doit se concrétiser, en application de l'article 71, par l'élaboration de programmes régionaux d'accès à la prévention et aux soins (PRAPS). Ces programmes visent à faire évoluer le dispositif de prévention et de soins afin de lui permettre d'apporter des réponses coordonnées suffisamment précoces et adaptées aux besoins des personnes en situation de précarité. Ces programmes, qui prennent appui, sur les compétences déjà acquises des programmes régionaux de santé et des plans départementaux d'accès aux soins des populations en situation précaire, vont s'inscrire également dans les actions menées par le fonds national de prévention d'éducation et d'information sanitaire de la CNAMTS, les crédits régionalisés de promotion et d'éducation pour la santé, le fonds d'aide aux jeunes, la politique de la ville, l'alcoolisme, la toxicomanie, le sida. Les autres articles du volet santé de la loi d'orientation relative à la lutte contre les exclusions: - L'article 73 réaffirme le rôle social des établissements de santé. - L'article 74 prévoit le renforcement de l'accompagnement apporté par la PMI aux femmes enceintes et mères de famille, particulièrement les plus démunies. - L'article 75 invite les Caisses Primaires d'Assurance-Maladie (CPAM) à se recentrer sur les populations exposées aux risques de précarité. - 37 - - L'article 143 porte sur la multiplication, au sein des établissements scolaires, des comités d'éducation à la santé et à la citoyenneté, instances ouvertes aux élèves, aux parents et à la cité - L'article 151 met l'accent sur la nécessité de nouvelles formations: «Les établissements publics ou privés dispensant des formations sociales initiales, permanentes et supérieures contribuent à la qualification et à la promotion des professionnels et des personnels salariés et non salariés engagés dans la lutte contre l'exclusion » Les formations sociales définies par le schéma national susmentionné assurent à la fois une approche globale et transversale et une connaissance concrète des situations d'exclusion et de leurs causes. Elles préparent les travailleurs sociaux à la pratique du partenariat avec les personnes et les familles visées par l'action sociale. Circulaires d'application de la loi de lutte contre les exclusions et relatives à l'accès aux soins des personnes en situation de précarité Concernant les soins à l'hôpital : Au-delà de leur mission sanitaire, les hôpitaux ont une légitimité à intervenir en matière médico-sociale. Cette orientation est confirmée par la loi du 19 janvier 1994, qui étend les possibilités pour les établissements de santé publics et privés de créer et de gérer des structures de type médico-social. Par ailleurs, les hôpitaux publics sont régis par les principes fondamentaux du service public (continuité, neutralité, égalité) et, à ce titre, doivent garantir l'égal accès de tous aux soins qu'ils dispensent, notamment en urgence, en dehors de toute considération sur la situation économique, sociale ou administrative du patient. Ces dispositions ont été rappelées avec insistance par une série de circulaires ministérielles des 8 janvier 1988, 17 septembre 1993 et 21 mars 1995: 1/ l'hôpital est soumis à des obligations de service public et doit rester un lieu privilégié où les plus démunis peuvent faire valoirleurs droits ". (21) La circulaire du 17 septembre 1993 (18) souligne que, dans les situations d'urgence, il appartient au directeur de l'établissement de prononcer l'admission après constatation de - 38 - l'état du malade par un médecin ou un interne de l'établissement, même en l'absence de toute pièce d'état civil ou de renseignement relatif aux modalités de prise en charge des frais de séjour. Cette circulaire réaffirme la mission sociale de l'hôpital et propose deux mesures: - la mise en place de cellules d'accueil spécialisées pour aider les plus défavorisés à faire valoir leurs droits, - la passation de conventions avec l'Etat destinées à assurer la gratuité des soins externes et des médicaments pour les personnes sans résidence stable, les services de l'Etat remboursant aux hôpitaux la dépense engagée. Mais l'arrivée aux urgences des hôpitaux d'un nombre toujours croissant de malades en situation de précarité a nécessité la mise en place de structures d'accueil et de prises en charge médico-sociales (circulaire du 25 mai 1999 relative à la mise en place des Permanences d'Accès aux Soins de Santé (PASS)) qui facilitent la circulation des personnes dans l'hôpital et l'accès aux réseaux institutionnels ou associatifs de soins et d'accompagnement social par l'octroi de personnels supplémentaires, sociaux, administratifs, soignants ou médicaux, formés et sensibilisés aux situations de pauvreté. Ces dispositifs permettent une approche plus globale des personnes ainsi qu'un meilleur suivi de leur santé. Concernant les réseaux : (13) Les réseaux de soins ont pour objectif de mobiliser les ressources sanitaires, sociales et autres, sur un territoire donné, autour des besoins des personnes. Ils visent à assurer une meilleure orientation du patient, à favoriser la coordination et la continuité des soins qui lui sont dispensés et à promouvoir la délivrance de soins de proximité de qualité. Ils peuvent associer des médecins libéraux, d'autres professionnels de santé et des organismes à vocation sanitaire ou sociale. Ils organisent un accès plus rationnel au système de soins ainsi qu'une meilleure coordination dans cette prise en charge, qu'il s'agisse de soins ou de prévention. - 39 - L'objet de cette circulaire est de rappeler les grandes règles auxquelles les réseaux doivent se conformer et les évolutions vers lesquelles ils doivent tendre. Elle précise également, pour les seuls réseaux relevant d'un financement de l'Etat, les modalités d'examen de leurs demandes de financement. Elle envisage le passage de réseaux centrés sur le patient et le passage de réseaux par pathologie vers des réseaux polyvalents de proximité. Elle encourage le passage des soins vers la prévention, puis vers des actions de santé publique. Le soutien de l'Etat, qui évoluera dans l'avenir, devrait permettre en quelques années à un grand nombre de réseaux d'atteindre une solidité et une stabilité nécessaires pour prétendre à d'autres modes de financement de leur action qui seront ouverts par voie législative et réglementaire. Concernant l'annuaire santé - social: (12) Cet annuaire est destiné à l'ensemble des acteurs de terrain professionnels ou bénévoles, appartenant à des structures publiques ou privées, qui participent à la lutte contre les exclusions dans leur région, dans des domaines aussi divers que les secours financiers, la santé, l'emploi, le logement, la formation. Le principe de création de cet annuaire figure dans une circulaire qui stipule «qu'afin de faciliter le travail en réseaux, les professionnels doivent pouvoir disposer d'un annuaire de l'ensemble des acteurs participant à la lutte contre les exclusions dans leur région». Chaque document doit regrouper les acteurs du niveau régional ainsi qu'une déclinaison au niveau départemental, être facile à consulter et contenir des renseignements très pratiques. La réalisation de cet annuaire nécessite que chaque acteur puisse être interviewé afin d'obtenir, outre ses coordonnées précises, une définition courte de ses missions et ses possibilités d'intervention auprès des personnes en situation de précarité, notamment en urgence. Une mise à jour doit être effectuée au minimum tous les ans. - 40- Au cours de l'année 1999, les informations à rassembler dans l'annuaire et ses principales caractéristiques techniques ont été mises au point par un groupe de travail sur la base de l'expérience pratique de trois DRASS. L'annuaire sera disponible sur Internet. L'enjeu des Programmes Régionaux pour l'Accès à la Prévention et aux Soins des personnes en situation de précarité est triple: - un enjeu de santé publique puisqu'il s'agit de favoriser l'accès de tous au système de santé et ainsi d'améliorer l'ensemble des indicateurs de santé; - un enjeu institutionnel: faire évoluer le système de santé vers plus d'efficience par une meilleure prise en compte des besoins, par un fonctionnement plus partenarial, qui déterminent les conditions de protection de la santé de l'ensemble de la population, renforcer la dynamique régionale, en liaison avec les autres niveaux d'intervention (national, départemental, local) ; - un enjeu politique: prévenir l'exclusion et doter notre pays d'un bon système de santé, égalitaire et équitable. Dans un pays où l'état de santé global s'est considérablement amélioré depuis un siècle, la lutte pour le maintien de ces progrès qui restent fragiles doit être une priorité nationale qui réclame un engagement social de tous les secteurs de l'action publique et de la société civile. Prévenir la régression de l'état de santé des couches sociales les plus défavorisées et surtout de la jeunesse est un objectif dont le caractère éthique ne saurait échapper à l'ensemble de la société française. - 41 - - 42- (17) Mieux coordonner les acteurs et les différents dispositifs socio-sanitaires est un des enjeux majeurs des Programmes Régionaux d'Accès à la Prévention et aux Soins. En effet, les problèmes auxquels les personnes en situation de précarité doivent faire face sont complexes, multiples et ils ne peuvent être circonscrits à un champ unique, tel celui de la santé. La prise en charge globale des personnes en situation de précarité repose donc sur une approche transversale qui mobilise l'ensemble des acteurs du système socio-sanitaire, avec les personnes en situation de précarité elles mêmes. Par ailleurs, afin de ne pas buter sur l'empilement et la redondance des actions, une articulation du Programme Régional d'Accès à la Prévention et aux Soins avec les différents dispositifs socio-sanitaires existants doivent être recherchée. Après une présentation des différentes phases de l'élaboration des PRAPS, nous apprécierons dans quelle mesure le processus a permis de répondre ou non aux deux objectifs suivants: - créer une dynamique partenariale entre les acteurs du système socio-sanitaire, - coordonner les différents dispositifs socio-sanitaires. La participation des personnes en situation de précarité à la réflexion sur leurs problèmes d'accès à la prévention et aux soins est un axe essentiel de la méthode d'élaboration des PRAPS. Elle a cependant trop rarement été mise en oeuvre et devait faire l'objet d'un renforcement lors de l'élaboration, en 2002, des PRAPS de 2ème génération. - 43 - 2.1. ETAPES SUCCESSIVES DE L'ELABORATION DES PRAPS (19) (17) L'élaboration des Programmes Régionaux d'Accès à la Prévention et aux Soins, dont la responsabilité a été confiée par la loi au Préfet de Région, s'est déroulée en plusieurs phases: 1) l'analyse partenariale de l'existant et des principaux dysfonctionnements de l'accès à la prévention et aux soins. Cette analyse a été effectuée par chaque département de la région avec les partenaires impliqués sur le thème santé-précarité. Elle a donné lieu à des rapports départementaux, puis à un rapport régional; 2) la définition de priorités, d'objectifs et le choix des actions à mettre en oeuvre; 3) la définition des procédures d'évaluation tant du programme que de chacune des actions qui le compose. La circulaire demandait que la rédaction des programmes régionaux et des plans départementaux se fasse avant la fin de l'année 1999 selon le calendrier suivant: (19) - analyse de l'existant (jusqu'en juin 1999), - définition des objectifs et choix des priorités (été 1999), - choix des actions à mener dans les différents départements de la région ainsi qu'au niveau régional (automne 1999). Pour la grande majorité des régions l'élaboration des PRAPS a nécessité plus de temps. A la fin de l'année 1999, seuls 6 PRAPS sur les 26 étaient rédigés et avaient fait l'objet d'une validation officielle (avis favorable du Comité Régional des Politiques de Santé présidé par le Préfet de Région). 10 PRAPS supplémentaires ont été validés au cours du premier trimestre 2000, 5 au cours des mois d'avril et mai, 1 en octobre, 3 en décembre et 1 en février 2001. - 44- 1- Etat des lieux des difficultés d'accès à la prévention et aux soins Cette étape préalable a donné lieu à des analyses départementales et à une synthèse régionale visant à mieux cerner: - qui sont les personnes en situation de précarité et sur quels territoires viventelles? - quels sont les problèmes de santé prioritaires de ces personnes? - quelle est la nature des difficultés rencontrées par les personnes vivant en situation de précarité dans l'accès à la prévention et aux soins? Cette analyse de l'existant qui supposait de la part des services déconcentrés une fonction d'animation des partenaires, d'interpellation institutionnelle, d'expertise technique a été menée avec des méthodologies diverses (grille d'analyse élaborée par la région, renseignée par les départements ou analyse régionale qui complète des bilans départementaux hétérogènes dans leurs formes et leurs constats) et des partenaires plus ou moins nombreux. 2- Programme d'actions régionales et départementales pour 3 ans (2000-2002) Sur la base des états des lieux, les régions et les départements ont enclenché la phase de programmation: - définition de priorités, - choix d'objectifs généraux et opérationnels, - et mise en place d'un plan d'actions triennales. 3- La mise en place d'une procédure de suivi et d'évaluation des PRAPS Une évaluation du programme et des actions semble prévue dans tous les Programmes Régionaux d'Accès à la Prévention et aux Soins. Mais à ce stade des travaux, les modalités, les méthodologies envisagées sont précisées seulement dans un petit nombre de programmes régionaux. - 45 - 2.2. LA CREATION D'UNE DYNAMIQUE PARTENARIALE La mobilisation et la coordination des acteurs se sont organisées à partir de la mise en place de plusieurs instances et groupes de travail aux niveaux, national, régional, départemental et local. 2.2.1. DES PROGRAMMES INITIES ET SOUTENUS AU NIVEAU NATIONAL (38) Depuis la création des Programmes Régionaux d'Accès à la Prévention et aux Soins par l'article 71 de la loi de lutte contre les exclusions, les services centraux se sont impliqués: - dans la institutionnel préparation à l'élaboration des à mettre en place pour assurer départementale, conseils méthodologiques relatifs PRAPS: la définition du cadre programmation aux différents régionale et phases de la programmation (17) (19) (26) - dans un suivi et un soutien au travail d'élaboration des PRAPS par les services déconcentrés : organisation de plusieurs réunions des coordonnateurs PRAPS visant à faire le point sur l'état d'avancement des programmes, publication d'un journal trimestriel de 8 pages intitulé« Action PRAPS» valorisant les différentes expériences régionales; - dans un appui à la mise en oeuvre des PRAPS, renforcement des échanges entre services déconcentrés et centraux: rencontres nationales mais aussi interrégionales). (11) 2.2.1.1. Cadrage institutionnel et méthodologique - l'élaboration des PRAPS repose sur la création de trois types d'instances: - un Comité Régional des Politiques de Santé (CRPS), - un Groupe Technique Régional (GTR) - des Groupes de Travail Départementaux (GTD) - 46- 2.2.1.2. Suivi et soutien de l'élaboration des PRAPS Le dispositif d'appui national, coordonné par les services de la Direction Générale de la Santé - Sous-Direction « Santé et Société», bureau « Santé des populations, précarité et exclusion» - a été assuré par deux groupes de travail: - un groupe de suivi des PRAPS composé de représentants des services centraux (Direction Générale de la Santé, Direction Générale de l'Action Sociale, Direction de l'Hospitalisation et de l'Organisation des Soins, Délégation Interministérielle à la Ville, Délégation Interministérielle au RMI, Délégation Interministérielle pour l'Insertion des Jeunes, Protection Judiciaires de la Jeunesse, Education Nationale) et des services déconcentrés (les coordonnateurs PRAPS des régions Basse-Normandie, Centre, Pays de la Loire et Lorraine) ; - et un groupe d'experts extérieurs à l'administration composé de médecins de santé publique, d'élus locaux, de sociologues, d'économistes, de chercheurs. Afin d'appuyer les services déconcentrés dans leur mission d'élaboration des PRAPS, le dispositif d'appui national a organisé des rencontres nationales avec les coordonnateurs régionaux des programmes à 4 reprises au cours de l'année 1999. L'objet de ces rencontres était de faire le point sur l'état d'avancement des programmes, sur les problèmes rencontrés, sur les projets en cours. Ces journées ont favorisé les échanges entre les coordonnateurs et ont ainsi contribué à mutualiser les connaissances et les expériences menées. Au cours de ces journées, les coordonnateurs PRAPS ont exprimé en particulier le souhait d'être mieux formé sur la méthodologie de programmation. Des séances de formation ont donc été organisées à l'Ecole Nationale de la Santé Publique. Chaque année, il a également été organisé une réunion avec les personnes qui dans les DDASS comme dans les DRASS étaient chargées de l'élaboration des PRAPS. - 47- Afin de mieux faire connaître les PRAPS et de valoriser le travail accompli dans les régions, il a été décidé de créer un journal trimestriel de 8 pages intitulé Il Action PRAPS Il. Ce bulletin a vu son tirage s'accroître en fonction de la demande de différents acteurs. Le numéro de juin 2000 a été tiré à 30 000 exemplaires dont 15 000 diffusés avec la lettre de la Délégation Interministérielle à la Ville. Un numéro spécial tiré à 15 000 exemplaires (avec une version en anglais) a été édité en décembre 2000 à l'occasion du colloque européen sur «l'accès aux soins des plus démunis» qui s'est tenu le 16 décembre, Cité des Sciences de la Villette. 2.2.1.3. Suivi et mise en oeuvre des PRAPS Ce travail d'animation nationale, de soutien à la dynamique initié par les services déconcentrés s'est poursuivi en 2000 au cours de la première année de mise en oeuvre des PRAPS. L'élaboration des PRAPS a mobilisé environ 10 000 acteurs, aussi la circulaire insiste sur la nécessité de maintenir une mobilisation importante de ces acteurs dans la phase de mise en place opérationnelle des PRAPS. Elle souligne l'intérêt d'une disponibilité suffisante du coordonnateur PRAPS qui joue un rôle clé dans la conduite d'un tel programme. Enfin, elle précise la procédure de suivi national des crédits. (11) 2.2.2. DES PROGRAMMES ELABORES ET MIS EN OEUVRE PAR DES ACTEURS REGIONAUX, DEPARTEMENTAUX ET LOCAUX Concrètement, dans les régions, la dynamique partenariale s'est organisée à partir de la mise en place de trois types d'instances: - le Comité Régional des Politiques de Santé (CRPS) dont la mission est de suivre l'élaboration et la mise en oeuvre des PRAPS. Présidé par le Préfet de région, ce comité assure le pilotage politique du PRAPS. Il valide les priorités, les objectifs et les actions du PRAPS. - 48 - - Le Groupe Technique Régional (GTR) est chargé de la coordination de la préparation du PRAPS et de la programmation au niveau régional, en étroite collaboration avec les groupes de travail départementaux. La circulaire du 23 février 1999 précise que ce groupe 1/ a vocation à rassembler les points de vue de l'ensemble des institutions, disciplines, professionnels, et des départements l'initiative des DRASS. Il élabore les documents 1/ mais sa composition est laissée à à présenter au comité régional des politiques de santé. - Les groupes de travail départementaux (GTD), constitués sous la responsabilité du Préfet de chaque département, ils réunissent des acteurs du tissu associatif et des représentants des principales institutions locales concernées par les PRAPS. Les correspondants départementaux des PRAPS ont été chargés d'animer la phase de diagnostic local des difficultés d'accès à la prévention et aux soins des personnes en situation de précarité et aujourd'hui ils doivent mettre en oeuvre les actions du PRAPS avec l'ensemble des partenaires institutionnels et de terrain. 2.2.2.1. Le Comité Régional des Politiques de Santé (CRPS) - Cadre législatif et réglementaire Ce comité est crée par l'article 71 de la loi du 29 juillet 1998 relative à la lutte contre les exclusions: «Le programme régional d'accès à la prévention et aux soins est établi après consultation d'un comité, prësidë par le représentant de l'Etat dans la région ou le représentant de l'Etat dans la collectivité territoriale de Corse », (39) Le décret du 29 décembre 1998 précise le rôle et la composition de ce comité: - assurer tout d'abord le rôle de comité de pilotage du PRAPS et, pour ce faire, valide les grandes orientations du PRAPS et les objectifs proposés par le Groupe Technique Régional (GTD) (article 1). Il a donc pour mission de suivre l'élaboration et la mise en oeuvre des PRAPS. Il doit être consulté sur les méthodes d'évaluation du programme et être tenu informé des résultats de ces évaluations. En outre, l'article 2 charge ce comité d'exercer une mission générale de concertation, de suivi et d'évaluation pour la mise en oeuvre des Programmes Régionaux de Santé établis au vu des propositions de la Conférence Régionale de Santé (CRS). (26) - 49- - assurer que les difficultés des personnes les plus démunies sont bien prises en compte dans les programmes régionaux de santé. A cette fin, il doit associer à ses travaux un représentant du jury de la CRS et des représentants des organismes et des professionnels qui participent à ces programmes. (27) Ce comité se substitue ainsi au comité permanent de la conférence régionale de santé (20). Le ministère de l'emploi et de la solidarité a voulu ainsi éviter un empilement de structures rassemblant à peu près les mêmes personnes pour conduire des actions fortement liées les unes aux autres. Il est présidé par le Préfet de région. Le mandat des membres est de trois ans, renouvelable et comprend: - le Préfet de région : - le Directeur Régional des Affaires Sanitaires et Sociales dont les services assurent le secrétariat; - le Directeur de l'Agence Régionale de l'Hospitalisation ou son représentant; - un représentant de chacune des Directions Départementales des Affaires Sanitaires et Sociales de la région; - le Recteur d'Académie ou son représentant; - un représentant du Conseil régional désigné par son Assemblée; - un représentant de chaque Conseil Général désigné par son Assemblée; - deux représentants des communes désignés par l'association des maires la plus représentative; - un représentant de l'Union Régionale des Caisses d'Assurance Maladie proposé par son président; - le délégué régional du fonds d'action sociale pour les travailleurs immigrés et leurs familles, ou son représentant, dans les régions où il existe une délégation régionale de ce fonds; - d'autres représentants de services de l'Etat, d'associations et des personnes qualifiées peuvent, sur invitation du Président du comité, participer aux travaux du comité en fonction de l'ordre du jour; Ce comité fait appel en tant que de besoin à toute personne qualifiée, en particulier aux coordonnateurs des programmes régionaux de santé (PRS). - 50 - - fonctionnement du Comité Régionaldes Politiques de Santé dans les régions Dans les régions, les comités régionaux des politiques de santé ont été institués au cours de l'année 1999; ils se sont réunis deux à quatre fois depuis. Le décret du 29 décembre 1998 offrait: «La possibilite - sur invitation du Préfet de Région - d'ouvrir cette instance à des représentants d'associations, de services de l'Etat et à toute personne qualifiée. » Globalement, la composition du comité régional des politiques de santé fait apparaître que l'instance a été peu ouverte: - aux comités régionaux d'éducation sanitaire, - aux observatoires régionaux de santé, - aux associations qui oeuvrent au quotidien pour les personnes démunies (leur expérience étant précieuse pour renforcer l'efficacité des programmes et prendre en compte les réalités locales). Ces acteurs ont plutôt été impliqués au niveau des groupes techniques régionaux (GTR) ou au niveau des groupes de travail départementaux (GTD). Le CRPS (Comité Régional des Politiques de Santé) peut jouer un rôle important dans la définition d'une politique régionale de santé. La régionalisation de la politique de santé nécessite de s'appuyer sur une instance rassemblant les financeurs de la politique de santé. Par la qualité de son animation et l'implication de ses membres, le comité régional des politiques de santé peut être porteur de cette dynamique de régionalisation qui favorise la prise en compte des problèmes prioritaires des populations et la mobilisation des acteurs. 2.2.2.2. Le Groupe Technique Régional (GTR) Le Groupe Technique Régional (GTR) est chargé de l'interface entre le comité régional des politiques de santé (CRPS) et les groupes de travail départementaux (GTD). Il élabore la synthèse régionale des besoins à partir des analyses de l'existant réalisées dans les départements et des informations qu'il recueille au niveau régional. Il propose ensuite au comité régional des politiques de santé des objectifs et une - 51 - programmation d'actions à mettre en oeuvre. Il synthétise enfin les résultats et les évaluations des actions mises en oeuvre dans les départements et au niveau régional. Il a vocation à rassembler les points de vue de l'ensemble des institutions, disciplines, professionnels, et des départements. Sa composition est laissée à l'initiative des Directions régionales des Affaires Sanitaires et Sociales. Deux types de groupes techniques régionaux existent: - les uns ne sont constitués que de représentants des DDASS et DRASS, - les autres ont rassemblé autour des représentants des DDASS et DRASS, les acteurs les plus divers de l'action sanitaire et sociale, essayant d'être aussi représentatifs que possible. 2.2.2.3. Les Groupes de Travail Départementaux (GTD) La loi précise que le département est l'échelon d'analyse de l'existant et celui de la mise en oeuvre des actions de santé. Des groupes de travail départementaux (GTD) ont donc été constitués sous la responsabilité du Préfet de chaque département. Ces groupes, coordonnés par un membre du groupe technique régional (GTR), doivent réunir des représentants des Conseils Généraux, des organismes d'assurance maladie, des établissements assurant le service public hospitalier, des centres communaux ou intercommunaux d'action sociale, ainsi que des associations et des organismes concernés par la problématique santé-précarité. La concertation peut être démultipliée à un niveau infra départemental puisque c'est à ce niveau que l'implication des acteurs de la politique de la ville ou des représentants des réseaux de santé de proximité est la plus aisée. Le niveau départemental permet l'élaboration d'un plan départemental d'accès à la prévention et aux soins intégrant l'analyse départementale de l'existant, les objectifs régionaux, des objectifs départementaux spécifiques. En effet, les actions départementales doivent être conformes aux objectifs régionaux ou aux objectifs départementaux qui n'auraient pas été définis par le comité régional des politiques de - 52- santé mais qui correspondraient à des besoins locaux. Ces actions départementales doivent également intégrer les autres programmes d'action qui sont menés, notamment dans le cadre du dispositif RMI (actions d'insertion et cellules d'appui) et dans les dispositifs d'urgence sociale (errance des jeunes, lits d'hébergement pour soins, accueil d'urgence, centres d'hébergement et de réinsertion sociale). Finalement, l'élaboration des PRAPS s'est faite grâce à un va et vient d'informations entre les échelons locaux, départementaux et régionaux à savoir: - une analyse de l'existant (diagnostics départementaux et synthèse régionale), - le choix de priorités, la définition d'objectifs - la sélection d'actions régionales et départementales - la mise en place d'une procédure d'évaluation du programme Les travaux menés localement avaient pour mission de faire émerger les difficultés en matière d'accès à la prévention et aux soins. Grâce à ces travaux, des bilans (ou diagnostics) départementaux ont été produits. Le Groupe Technique Régional en a fait la synthèse et a complété par une analyse proprement régionale. Le bilan et les pistes de travail ont été soumis au Comité Régional des Politiques de Santé et conformément à ses missions, le comité a exprimé ses priorités. Les Groupes de Travail Départementaux élaborent leurs plans départementaux d'accès à la prévention et aux soins conformément aux objectifs régionaux ou aux objectifs départementaux spécifiques. Les documents produits sont adressés au groupe technique régional pour permettre la définition et l'évolution du programme. Les objectifs départementaux spécifiques et leur déclinaison en termes d'actions sont adressés pour information au comité régional des politiques de santé. L'échelon départemental a été celui du repérage des difficultés d'accès à la santé des personnes en situation de précarité, il est aujourd'hui celui de la mise en oeuvre des programmes. L'échelon régional est celui de la synthèse des problèmes repérés par les départements, celui de la formulation du PRAPS de 1ère génération (2000-2001-2002). Dans cet exercice nouveau d'élaboration partagée d'un programme de santé publique, il faut souligner le rôle central des coordonnateurs PRAPS. Ils ont participé à un travail - 53 - fondamental pour l'amélioration des performances de notre système sanitaire: celui de la fédération des énergies et des moyens. 2.2.3. LA COORDINA TIaN AVEC LES AUTRES DISPOSITIFS SOCIO-SANITAIREs Outre l'ambition de conjuguer les compétences d'acteurs d'horizons professionnels différents, l'élaboration des PRAPS devait - afin de ne pas nuire à la cohérence du système socio-sanitaire - se soucier de leur articulation avec les autres dispositifs ou schémas existants. Cette coordination des dispositifs est ainsi inscrite dans les objectifs prioritaires d'une majorité de PRAPS. 2.2.3.1. PRAPS et Schémas Sociaux - L'articulation des PRAPS avec les nouveaux schémas sociaux Le Schéma Accueil, Hébergement, Insertion (AHI) propose d'organiser les multiples services et structures assurant l'accueil et l'hébergement d'urgence, les Centres d'Hébergement et de Réinsertion Sociale (CHRS) et les entreprises ou associations participant à l'insertion par l'activité économique. Ces schémas crées par l'article 157 de la loi de lutte contre les exclusions procèdent, tout comme les PRAPS, d'une démarche ascendante des travaux: ils sont élaborés à partir de constats et d'initiatives de terrain. Ces schémas intègrent les problèmes de l'urgence sociale et de l'insertion mais la santé y est également présente, notamment par une recherche de l'expression des besoins des usagers. Les PRAPS font parfois référence à ces schémas et la réflexion menée pour l'élaboration du PRAPS pourrait être utilisée lors de l'élaboration du schéma Accueil, Hébergement, Insertion (AHI). En effet les populations concernées par le schéma AHI ont un état de santé souvent dégradé. Le système de prévention et de soins est rarement soucieux de la qualité de la réponse qu'il apporte à ces populations. La création des Commissions Départementales de l'Action Sociale d'Urgence (CDASU), prévue par l'article 154 de la loi de lutte contre l'exclusion (39), permet la - 54 - réunion d'acteurs institutionnels (Etat, Conseil Général, CCAS, CAF, organismes de sécurité sociale, ASSEDIC ) et associatifs qui ont pour objectif commun d'assurer la coordination des aides et l'examen global de la situation des personnes. Après avoir réalisé un répertoire exhaustif des aides, les acteurs sociaux constituent un réseau de référents dans chaque institution et service, et recherchent ensemble des solutions aux situations les plus complexes ou les plus difficiles. En mars 1999, une circulaire de la délégation interministérielle à la famille a préconisé le développement de réseaux d'écoute, d'appui et d'accompagnement des parents pour les soutenir dans leur rôle éducatif. Dans le PRAPS d'Alsace on peut lire que cette forme de prévention primaire a trouvé une adhésion rapide et massive, autant dans les associations familiales que dans le milieu scolaire et périscolaire, les CAF, les CCAS, les services sociaux et les centres socioculturels. En effet, la problématique est transversale et met en jeu tous les champs sociaux où évoluent l'enfant et les parents. Le rôle des parents est essentiel pour la santé des enfants et des jeunes. Soutenir les parents aujourd'hui, c'est prévenir les problèmes de santé de l'enfant ou du jeune demain. - L'articulation des PRAPS avec les dispositifs sociaux antérieurs à la loi de lutte contre les exclusions Ces nouveaux dispositifs doivent trouver leur place dans des ensembles déjà actifs, avec lesquels ils s' articuleront d'autant plus facilement que leurs acteurs travaillent en réseau ou en interaction régulière. Ainsi, les Programmes Départementaux d'Insertion (PDI), dispositif fondamental du RMI, concernent aussi les usagers des structures d'accueil; les actions développées en direction des familles recoupent certains domaines d'intervention de la politique de la ville; les fonds d'aide aux jeunes (FAJ) s'inscrivent dans l'ensemble des dispositifs de l'insertion, de l'emploi, du logement et de la santé. Pour l'Alsace, les Plans Départementaux d'Aide pour le Logement des Personnes Défavorisées (PDALPD), régulièrement évalués et révisés dans les deux départements, prennent en compte les données des PDI et peuvent cibler des groupes sociaux particuliers (nomades sédentarisés, familles nombreuses à faibles revenus), tout en recherchant la mixité sociale qui est un objectif constant de la politique de la ville et de l'intégration des personnes d'origine étrangère. - 55 - Ces différents programmes ne peuvent être élaborés et mis en oeuvre que par la coopération institutionnelle donnant toute sa place à la démarche associative. Coopération institutionnelle car de nombreux fonds sont alimentés par le Conseil Général, les villes et l'Etat, les services sociaux départementaux et municipaux en étant les principaux acteurs; coopération associative car les associations sont porteuses d'initiatives, proches des usagers et promotrices d'actions inscrites dans les différents programmes. La coordination des programmes se fait souvent au plus près des usagers. 2.2.3.2. Coordination des PRAPS avec les autres dispositifs sanitaires - PRAPS et PRS (Programmes Régionaux de Santé) (8) (9) (44) Ils sont le prolongement opérationnel des Conférences Régionales de Santé (CRS) qui ont pour mission d'établir les priorités de santé publique de la région et de faire des propositions pour améliorer l'état de santé des populations. Les Programmes Régionaux de Santé favorisent la mobilisation, la concertation et la coordination des pouvoirs publics, des institutions et des associations. Ils impliquent, dans la mise en oeuvre des solutions, les personnes, leurs familles, leurs milieux de vie et les professionnels avec lesquels ils sont en relation. Le PRAPS est un programme régional de santé dont la seule particularité est d'être imposé à toutes les régions par la loi et non pas issu d'une analyse régionale des problèmes prioritaires. Selon les coordonnateurs PRAPS, les deux tiers des thématiques des PRAPS sont également abordées dans le cadre d'un Programme Régional de Santé. La moitié des PRAPS indique que l'alcool est un thème prioritaire et qu'il est déjà abordé dans le cadre d'un Programme Régional de Santé. Ceci pose la question de l'articulation des actions et des financements des PRAPS et des PRS. - Thèmes prioritaires du PRAPS faisant par ailleurs l'objet d'un Programme régional de Santé Approche par problèmes de santé: Alcool, Mal être, VIH / VHB / VHC / MST, Toxicomanie, Tabac, Alimentation, Saturnisme, Cancer, problèmes dentaires - 56 - Approches par groupes de personnes: Santé des jeunes, Personnes âgées, Chômeurs, Santé des détenus, RMIstes Autres thèmes: Périnatalité, Education pour la santé Formation des professionnels, Lieux d'écoute, Accès aux soins Hôpitaux / PASS Actions transversales, Planification familiale, Médicaments, Accès aux droits / CMU - PRAPS et SROS (Schéma Régional d'Organisation Sanitaire) (40) L'article L 712-1 associe le schéma régional d'organisation sanitaire (SROS) à la carte sanitaire, afin «de prévoir et de susciter les évolutions nécessaires de l'offre de soins, en vue de satisfaire de manière optimale la demande de santé». L'article L 712-3 définit le rôle du schéma par rapport à la carte. Le schéma détermine la répartition géographique des installations et activités de soins qui permettrait d'assurer une satisfaction optimale des besoins de la population. Les schémas d'organisation sanitaire peuvent être révisés également à tout moment et obligatoirement tous les cinq ans. La circulaire du 26 mars 1998, définit les objectifs et les principes généraux pour la révision des schémas régionaux - le SROS s'inscrit dans une approche globale de la santé, en partant de la stratification des besoins de la population pour s'affranchir d'une approche exclusivement centrée sur l'offre hospitalière existante, - le SROS doit être resserré sur quelques priorités: les thèmes retenus résultant, soit des travaux de la Conférence Régionale de Santé, soit d'une volonté de corriger des dysfonctionnements déjà constatés, - le SROS doit être tourné vers l'action, être opérationnel et efficace, - le SROS doit prévoir les modalités de mise en oeuvre par les contrats d'objectifs et de moyens, la délivrance des autorisations, les incitations financières, l'agrément des réseaux de soins, - 57 - - le SROS doit avoir une légitimité démocratique et professionnelle, - le SROS doit comprendre la mise au point d'un dispositif d'évaluation. Par exemple, le S.R.O.S. de 2ème génération (portant sur les années 2000-2004) de la région Lorraine, arrêté par le Directeur de l'Agence Régionale d' Hospitalisation le 13 juillet 1999, aborde parmi les thèmes spécifiques répondant aux orientations nationales, l'accès aux soins des plus démunis. La mise en place des PASS fait donc l'objet d'un des volets du SROS. 2.2.4. FINANCEMENT DES PRAPS - DRASS - La CNAMTS par l'intermédiaire de fonds dont elle dispose - Le FNPEIS (Fond National de Prévention, d'Education et d'Information Sanitaire) - Les contrats de villes (volet santé) - PDI (Plan Départementaux d'Insertion) L'URCAM (Union régionale des Caisses d'Assurances Maladie) est un partenaire actif des PRAPS, car elle élabore les programmes (par les GTR - groupes de travail régional) et les évalue (par un comité scientifique). - 58 - - 59 - (10) (14) (15) (16) (18) (39) La loi d'orientation relative à la lutte contre les exclusions du 29 juillet 1998 prévoit la création de Permanences d'Accès aux Soins de Santé (PASS) dans les établissements publics de santé et les établissements de santé privés participant au service public hospitalier. Mises en place, dans le cadre des programmes régionaux d'accès à la prévention et aux soins (PRAPS - art. 76), les PASS sont des cellules de prises en charge médicosociales destinées à faciliter l'accès des personnes démunies au système hospitalier ainsi qu'aux réseaux d'accompagnement social. institutionnels ou associatifs Elles ont également de pour fonction soins d'accueil et d'accompagner les personnes en difficulté dans les démarches nécessaires à la reconnaissance de leurs droits sociaux. Les hôpitaux ont été confrontés, ces vingt dernières années à la précarisation des conditions de vie d'un nombre massif de malades: il s'en est suivi des difficultés dans leur accès aux soins et à la prévention aux conséquences dommageables tant pour les personnes qu'en terme de santé publique. Aux premières alertes et initiatives des associations humanitaires ont répondu progressivement la mise en place de dispositifs de prise en charge des malades précarisés au sein des hôpitaux ainsi que des mesures législatives et réglementaires. Plus récemment, la loi de lutte contre les exclusions et la mise en oeuvre de CMU (Couverture Maladie Universelle) sont venues renforcer les capacités du service public à répondre aux difficultés d'accès aux soins et à la prévention des malades. La mise en place les PASS dans les hôpitaux permet de repérer les personnes en difficulté, de les prendre en charge sans délais, de les aider à récupérer les droits sociaux et comme objectif principal les réintégrer au plus tôt dans le système de soins de droit commun. Ces principes, simples au premier abord, requièrent en fait auprès de personnes fragilisées par la vie et la maladie, de mettre en place des dispositifs appropriés, développer des savoir-faire qui ne sont pas encore communs dans nos hôpitaux et enfin de - 60 - s'adapter à des demandes souvent vécues comme contradictoires avec l'organisation hospitalière traditionnelle. La généralisation de la CMU devrait permettre de réduire les difficultés d'accès aux soins dans les hôpitaux. La précarité est une tendance lourde dans nos sociétés qui affecte des personnes aux parcours multiples et chaotiques et pour qui malheureusement, les mesures législatives et réglementaires mettent du temps à régler l'ensemble des problèmes qui se posent à eux. L'exemple du RMI et de la généralisation de la couverture sociale aux bénéficiaires montre bien qu'entre la décision politique et l'accès effectif au droit des personnes qui réellement le nécessitent, il ya un écart d'autant plus grand qu'on s'adresse à des publics fragilisés. 3.1. CADRE DE LA MISSION (18) Le 24 Juin 1999, sous la Direction des Hôpitaux, composée d'un directeur d'hôpital, de deux praticiens hospitaliers dont un Professeur des Universités ayant tous, selon leurs fonctions respectives, une expérience de terrain de la création de tels dispositifs, la méthodologie a consisté en des visites sur le terrain qui se sont échelonnées entre le 08 octobre 1999 et le 24 mars 2000, dans les 22 régions de l'hexagone. Ces visites ont été précédées d'une prise de contact avec les ARH et DRASS afin: - de déterminer les sites hospitaliers à visiter - d'établir les contacts avec les personnes concernées - d'organiser des réunions avec des représentants des DDASS, DRASS, ARH ainsi qu'avec les personnels des hôpitaux concernés par la mise en place des PASS. Lors des visites des sites, des groupes de travail ont élaboré sur place une grille d'évaluation. A l'issue de ces rencontres a été réalisé un rapport d'appréciation de chaque situation régionale. Il fallut ensuite faire face: - aux obstacles rencontrés à la mise en place des PASS - aux initiatives originales existantes, ou en projet, sur le terrain - à la validation des dispositifs - 61 - L'objectif était d'essayer de déterminer de façon plus précise: (16) - quels doivent être les principes concrets régissant la création des PASS? - comment les PASS doivent s'insérer dans les dispositifs plus larges de lutte contre l'impact de la précarité sur la santé, tant en terme de programme que de stratégies? - comment assurer la pérennisation au sein de l'institution hospitalière? 3.2. CONTEXTE La montée de la pauvreté et de la précarité s'est traduite en plusieurs années par l'arrivée aux portes de nombreux hôpitaux, en particuliers des urgences, d'un nombre croissant de malades: Parmi ceux-ci, nombreux sont ceux qu: connaissent des difficultés d'accès au système de droit commun: - soit du fait d'une absence ou d'une insuffisance de couverture maladie, que la CMU devrait venir combler en partie. - soit du fait de difficultés d'accès aux praticiens de ville: prédominance du secteur 2, inégalités de répartition géographique. - soit du fait de difficultés aux consultations hospitalières, spécialisées et sur rendez-vous, qui impliquent un recours médical en amont qui en assure un usage adapté et dans des délais raisonnables. Dans un premier temps, seules les associations humanitaires ont pris en charge ces publics et ont témoigné de leur exclusion sanitaire. Depuis le début des années 90, des initiatives de terrain au sein des hôpitaux se sont développées, confortées par des décrets et circulaires des pouvoirs publics aboutissant à la loi de lutte contre les exclusions. Ces dysfonctionnements dans l'accès aux soins touchent également l'accès à la prévention. - 62- La précarité et la pauvreté exigent donc des adaptations structurelles, des changements de mentalités et des modifications des pratiques professionnelles. La loi d'orientation à la lutte contre les exclusions du 29 juillet 1998 a prévu la prise en compte de la précarité par le système de santé, avec l'affirmation d'une nouvelle mission de l'hôpital, la lutte contre l'exclusion sociale par la mise en place de Permanence d'Accès aux Soins de Santé (PASS). Plus largement, cette mission s'intègre dans la mise en oeuvre de Programmes Régionaux d'Accès à la Prévention et aux Soins (PRAPS) (16) (18) Les PASS, au sein des hôpitaux, ont pour objectif d'offrir aux personnes vulnérables s'adressant aux hôpitaux des dispositifs visibles d'accueil, d'information, de prévention, d'orientation et de soins. Une partie des publics en situation précaire nécessite une prise en charge simultanée des aspects sanitaires et sociaux et les actions de santé ne doivent pas se limiter aux soins curatifs mais doivent accorder une place essentielle au suivi, à la prévention et à la promotion de la santé. Une telle mise en oeuvre ne peut se réaliser que par un travail en réseau. Ainsi, l'hôpital sera l'un des acteurs engagés dans la prévention et la lutte contre les exclusions dont la coordination devra être assurée par le comité départemental de coordination des politiques de préventions et de lutte contre les exclusions. L'hôpital doit veiller à la bonne prise en charge des personnes qui se présentent à ses portes ou qui lui sont signalées, quelle que soit l'origine de ce signalement. Les actions hospitalières prenant en compte la dimension médico-sociale des personnes les plus démunies s'harmoniseront, dès lors, avec l'ensemble des acteurs oeuvrant dans ce domaine: associations, médecins libéraux, professions para-médicales, DRASS, Conseils Régionaux, DDASS, Conseils Généraux, CCAS, CRAM et CPAM. On peut notamment ici rappeler la dimension sociale de la mission des secteurs de psychiatrie qui induit un travail en partenariat continu avec les acteurs sociaux, pour la prise en charge des populations psychiatrique et séjours en hébergement social. - 63 - L'objectif est donc le repérage, la prise en charge médicale et sociale, la facilitation des accès effectifs aux droits et l'intégration dans un réseau sanitaire et social d'amont et d'aval des personnes en difficulté. Elles sont adossées à des consultations de médecine en premier recours, sans rendez-vous à des horaires élargis et en dehors de l'urgence, ouvertes à toutes et à tous. Il ne s'agit en aucun cas de filières ou de guichets pour les «pauvres », Grâce à un dispositif simple et souple de repérage de difficultés, elles facilitent sans préalables, l'accès de chacun aux consultations et au plateau technique, ainsi qu'à l'ensemble des médicaments disponibles dans les pharmacies hospitalières. Il est insisté dans la loi et la circulaire, sur le rôle des PASS vis-à-vis des femmes démunies à la recherche de prévention en matière de contraception ou d'IVG ou d'accueil pour leurs enfants. 3.3. CONSTATS (14) Le nombre de PASS actuellement existantes et fonctionnelles recensées, indépendamment de leur type et qualité peut être estimé à une moyenne maximum de 4 par région, ce qui situerait à un maximum de 90 les PASS effectivement opérationnelles. Bien entendu il existe des projets de PASS qui sont très supérieurs à ce chiffre. La plupart des PASS, actuellement fonctionnelles, préexistaient à l'existence de la loi de juillet 1998 et de ses décrets d'application. Les PASS fonctionnelles consécutives à la loi, aux circulaires ainsi qu'aux subventions afférentes semblent encore très exceptionnelles. Cette comptabilité tient compte de l'ensemble des hôpitaux où l'établissement a pris une initiative concernant la prise en compte des malades en situation de précarité et non les seuls hôpitaux affichant réellement un dispositif intégré. Sur le plan qualitatif la nature des PASS, leur type de fonctionnement, les réseaux qui y sont attachés, leur localisation dans les établissements, les catégories de personnes impliquées (administratifs, soignants, travailleurs sociaux, médecins) sont variés selon les régions et au sein même de ces régions. Cette variété est certes le reflet de la diversité des situations: CHU, CHR, CH, hôpitaux de zones urbaines et hôpitaux ruraux; régions - 64- affectées par la crise et régions plus préservées. Mais ces données objectives sont loin de rendre compte de l' hétérogénéité des réponses et des dispositifs. 10 _ Un engagement des tutelles hétérogène Le premier constat est la grande inégalité de l'engagement des tutelles ARH, DRASS et DDASS sur ces sujets. Celles-ci sont le fait d'un certain nombre de facteurs. Une part de ces hétérogénéités est probablement en rapport avec l'importance du problème rencontré sur le terrain. Néanmoins, l'absence ou le retrait de l'engagement, n'est pas proportionnel à la gravité des problèmes rencontrés. Là où les Conférences Régionales de Santé ont fait de la question des liens entre précarité et santé une priorité, souvent déclinée selon des problèmes de santé ciblés : psychiatrie, problématique mère-enfant, pathologie des adolescents, pathologies des migrants, il s'en suit en général une stratégie de travail au niveau des DRASS et des ARH qui viennent conforter, soutenir voire solliciter des engagements personnels. Le délai entre, l'adoption de la loi par le parlement, la mise en route des circulaires d'application par les administrations, leur intégration dans les projets des agences régionales et la mise en oeuvre effective au niveau des établissements, est en règle générale un peu longue. Des attitudes attentistes semblent prévaloir sur la prise d'initiatives lorsque la mise en oeuvre repose sur la seule logique institutionnelle et n'est pas portée par des acteurs hospitaliers individuellement entreprenants. 20 _ Les PASS : des modèles divers Nous avons pu repérer trois types de dispositifs existants. Cette typologie pourra être précisée ultérieurement par des critères objectifs. Nous pouvons distinguer ainsi: - des PASS internes: Il s'agit de PASS situées soit au sein de polycliniques médicales ou de consultations de médecine générale, soit auprès des urgences, mais en général distinctes de l'activité d'urgence proprement dite. - 65 - Les personnes repérées aux divers points de l' hôpital : guichets de paiement, infirmières d'accueil de consultations, voire service des urgences, sont adressées à ce dispositif, qui en général a une forte composante médico-sociale et administrative. C'est au niveau de la consultation sociale que sont délivrés des bordereaux de circulation permettant un accès gratuit à l'ensemble des consultations de l' hôpital ainsi qu'au plateau technique. Une procédure de délivrance des médicaments est parfois organisée au sein de la pharmacie hospitalière, mais c'est loin d'être la règle. Les pharmaciens hospitaliers sont alors fortement impliqués dans la procédure. Ce type de PASS est retrouvé notamment à l'hôpital St. Antoine, AP/HP (PASS Baudelaire), à l'hôpital St. Louis, AP/HP (PASS Verlaine). au Centre d'Albret du CHU de Bordeaux, à l'espace Lionnois du CHU de Nancy, PASS du CHU André Grégoire de Montreuil, PASS au CHR de Besançon, PASS au CHU de Clermont Ferrand, PASS au CHU Valenciennes. Ces dispositifs se différencient par le degré de formalisation des protocoles de repérage et d'accès au système de soins hospitalier des personnes en difficulté. L'information au sein de l'établissement et a fortiori à l'extérieur de l'établissement, en dehors en général du réseau d'associations spécialisées qui y ont recours pour leurs bénéficiaires, est extrêmement variable et encore assez peu développée. Ce n'est pas une activité que les hôpitaux affichent, revendiquent et promeuvent, mais au contraire qu'ils développent en général dans "une discrétion de bon eloi", car elle n'est pas dans la logique de l' hôpital de haute technologie. - des PASS externes Ce type de dispositifs est plus particulièrement rencontré lorsque les établissements hospitaliers, CHU ou CHR, sont établis à distance de la ville. Ces PASS sont situées au niveau du centre ville, dans des locaux ad hoc, juridiquement dépendants de l' hôpital et qu' ils partagent avec des associations. Le personnel hospitalier est mis à disposition des PASS, souvent en association avec des médecins généralistes de ville qui bénéficient de vacations (2 à 4 par semaine). Il existe assez souvent un personnel polyvalent (infirmières, travailleurs sociaux), - 66 - travaillant à mi-temps PASS, à mi-temps au niveau d'un service hospitalier, ce qui permet une intégration de cette activité à l'activité de l'institution. Des véhicules de l' hôpital sont à la disposition des PASS pour transférer les malades à l' hôpital. Dans les projets les plus élaborés (CHU de Poitiers, CH de Chambéry), un multipartenariat réunit l'établissement hospitalier, les associations caritatives et la municipalité, et le dispositif associe à des degrés variables l' hébergement, la restauration à prix modiques, les soins et le travail social. Dans ces cas-là l'hôpital bénéficie d'une tête de pont, qui permet d'intégrer les personnes en difficulté qui ne pourraient y accéder pour des raisons culturelles, financières ou sociales. Ces PASS travaillent véritablement en réseau, elles ont une forte implication locale, avec des activités type consultations pour adolescents, programme de réduction des risques, programme auprès des sans abri et ont des liens forts avec les associations de malades du SIDA ou de malades du cancer. Que ce soit l'ensemble du dispositif qui s'appelle PASS ou que la PASS ne constitue qu'un maillon de la chaîne, peu importe: ce qui est à souligner c'est l'existence d'un réseau fonctionnel au plus près des personnes malades en situation de difficulté et qui permet d'établir un véritable lien, tant en amont qu'en aval avec l'établissement hospitalier, ses services et son plateau technique. Ce dispositif est animé par un comité de pilotage qui regroupe l'ensemble des partenaires intra et extra-hospitaliers. La plupart des PASS externes constituent des dispositifs à type de réseaux de proximité intégrés, assurant des tâches de santé, des tâches sociales et des tâches de solidarité. Dans ce contexte, l' hôpital n'avait aucun mal à trouver sa place, de soin et de prévention, sans déborder sur d'autres activités qui étaient assurées par les partenaires correspondants. Les divers problèmes des personnes simultanés ou associés, peuvent être pris ainsi en charge sans rupture. Il faut néanmoins veiller dans ce type de dispositif à ce que l'hôpital ne se décharge pas de sa mission sur les associations de terrain. Et que la PASS ne soit pas une simple antenne d'une association humanitaire avec laquelle l' hôpital a des liens distendus et incertains. - 67- - Il existe un troisième dispositif qualifié de PASS interne/externe Il s'agit en général de situations où l'hôpital est utilisé par les personnes sans-abri comme hébergement de jour voire même de nuit. Dans certains établissements, des initiatives ont été prises afin d'intégrer sur place spécifiquement ces personnes sans abri qui venaient spontanément s' héberger au sein de l'établissement. Dans ces dispositifs où la composante sociale est prédominante, avec un service social adapté, qui sert de lien entre les quartiers sensibles proches de l' hôpital et le service hospitalier. Un certain nombre de médiateurs (type emploi jeune) qui assurent la continuité de suivi des personnes, sont employés dans ces structures. Ces dispositifs, en général très ciblés sur les sans-abri lors de leur création, tendent à élargir leur compétence à des situations de précarité plus diverses rencontrées auprès des personnes tout venant à l' hôpital. Il existe aussi des PASS spécialisées, par exemple de soins dentaires CHU de Toulouse-Lagrave ou CHU de Bicêtre 3°- Un engagement fort des acteurs sur le terrain: quand on veut on peut. Aucune PA55 qui ne repose sur un engagement déterminé des acteurs de terrain: service social toujours, médecins souvent, cadre infirmiers plus rarement, direction hospitalière et CME, obligatoirement, si on veut que les dispositifs se pérennisent. Les acteurs sont aujourd'hui confortés par l'environnement législatif et réglementaire mais comme nous le savons, ce n'est pas suffisant pour développer et pérenniser un tel type de pratique qui exige de nouvelles façons d'agir au sein de l' hôpital : ouverture sur la cité, prise en compte de la trajectoire de précarité et de vie des malades, soins de santé primaires intégrant la dimension sociale et administrative des malades. Partout où des PA55 existent, existent des trésors de savoir-faire adaptés et décloisonnés. Reste à les formaliser et à les transmettre. - 68 - 3.4. PROPOSITIONS 10 ) Déterminer les besoins Précisée dans une circulaire, la mise en place d'une PASS doit être précédée d'une phase d'évaluation des besoins concrets de l'établissement. (18) Cette évaluation doit comporter une phase d'évaluation interne à l' hôpital. Une étude sur une durée de quelques semaines au maximum au niveau des urgences permet de préciser rapidement: - le type de clientèle qui a accès à l'hôpital par le canal des urgences, le type de problématique médicale et de santé posée - le pourcentage de ces personnes qui relèvent d'une prise en charge au niveau d'une PASS et du mode de consultation, autres que les urgences, type consultations de premier recours. Cette phase comporte évidemment également un bi lan au niveau de l'activité des services sociaux et des frais de séjour (évaluation des créances non recouvrées et des difficultés de paiement aux caisses). Cette évaluation interne à l' hôpital doit être complétée par une phase d'évaluation externe auprès des services sociaux de la ville, des associations d'hébergement et des associations médicales humanitaires, du SAMU social. Cette double évaluation des besoins est indispensable avant de pouvoir définir un dispositif adapté aux nécessités locales de l'établissement. 20 ) Connaître les textes législatifs et réglementaires concernant l'accueil et la prise en charge des personnes démunies au sein des établissements hospitaliers. Il existe un réel manque d'information des personnels concernés et ce quelles que soient les causes de ce déficit d'information. La Direction des Hôpitaux devrait mettre à la disposition des ARH et des DRASS, ainsi que des diverses DASS et établissements hospitaliers, un fascicule regroupant les textes législatifs de base concernant le rôle des hôpitaux dans la lutte contre les exclusions. - 69 - Il serait également nécessaire de constituer un vade-mecum PASS contenant des modèles de projets, des procédures d'évaluation, le rôle des divers acteurs, ainsi que l'intégration de la PASS au niveau du programme régional d'accès à la promotion et à la santé. 3°) Développer des consultations de Médecine Générale: « consultations de premier recours», ou de « soins primaires» sans rendez-vous à horaires élargis. (32) (43) Tant dans l'expérience des dispositifs les plus anciens que dans les créations plus récentes, l'existence des PASS reposent sur l'ouverture, au sein de l'hôpital, de consultations sans rendez-vous en dehors de l'urgence et ouvertes à tous. Les personnes qui relèvent des dispositifs PASS sont des personnes qui, en général, sont à distance du système de soins, et qui présentent des difficultés de recours au médecin praticien de ville (difficultés géographiques, d'horaires, raréfaction de médecins de secteur 1 dans certaines zones). Ces personnes recourent donc à l'hôpital. Or, pour elles la seule porte d'accès ouverte qui existe à l'hôpital est celle des urgences. C'est donc là qu'ils viennent frapper, là qu'ils s'adressent, là qu'ils sont accueillis et reçus. Ce sont, dans ce cadre, les pratiques de l'urgence qui dominent : c'est-à-dire une pratique médicale reposant sur l'élimination de l'urgence vitale et une sélection des risques les plus graves au détriment des problèmes de santé, ou des pathologies intriquées, qui sont reléguées au second plan. Il est difficile au sein de l'urgence d'intégrer des problèmes médicaux et sociaux, de répondre à des symptômes présentés par le malade et de pratiquer le dépistage de problèmes de santé ou de pathologies chroniques, d'assurer la prise en charge de pathologies intriquées dans des contextes sociaux, de vie et parfois culturels très divers et difficile à vivre par les malades. C'est pourquoi le développement de ce type de consultations, au sein des hôpitaux, est bien entendu ouvert à tous et non spécifique des malades en précarité. Ces consultations devraient se dérouler sur des horaires élargis, développer une capacité à prendre en charge des pathologies diverses souvent associées et de s'intéresser à des objectifs de santé publique issus des Conférences Régionales de Santé (CRS). De nouvelles pratiques médicales devraient être développées, intégrant le dépistage et l'orientation de problèmes d'addictions aux médicaments, aux produits illicites, à - 70- l'alcool; les problèmes de santé des adolescents; les problèmes de malnutrition chez les enfants ; les problèmes de la violence conjugale subie par les femmes ou de violence familiale subie par les enfants; le problème d'isolement des vieillards, et le problème dentaire. Cette liste est loin d'être exhaustive, elle a simplement pour but de recenser un certain nombre de problèmes de santé que nous avons rencontrés et qui pourraient enrichir ces pratiques de premier recours et de soins primaires. Ces consultations peuvent être situées au sein d'une Polyclinique, au sein d'un service de Médecine Interne, voire au sein d'un service d'Urgence ou dans un local extérieur à l'hôpital mais relié à lui. Il faut simplement noter qu'il ne s'agit pas de médecine d'urgence mais d'un autre type de pratique médicale. Il faut en effet du temps pour gérer, surtout lors de la première consultation, ces pathologies. Ces consultations peuvent associer praticiens hospitaliers et médecins de ville. Le dispositif PASS doit se greffer sur ces consultations de soins primaires. 4°) Construire une PASS, le dispositif doit comporter: - un système d'accueil et de repérage des situations de détresse - des consultations médicales - des consultations sociales - la délivrance d'une fiche de circulation permettant l'accès au plateau technique et la délivrance gratuite de médicaments. - Le repérage des situations de détresse Il serait utile d'avoir une personne d'accueil et d'orientation, sur le modèle de celle qui existe au sein des urgences, et qui organise l'accueil des consultations sans rendezvous. Celle-ci pourrait avoir comme fonction: - de recenser la demande médicale et les problèmes de santé associés - de proposer un entretien systématique avec le travailleur social - de disposer d'indicateurs d'alerte (sécurités essentielles) tels que le logement, le travail, la famille, mais aussi les organismes ou les institutions qui adressent le malade, la protection sociale effective du malade, les - 71 - ressources financières qUi lui permettent de s'alimenter. Autant d'indicateurs qui doivent être au mieux déterminés par l'équipe de la PASS, adaptés à la situation locale, afin d'être simples et reproductibles, ce qui permettra de bien utiliser auprès de chaque malade se présentant au sein de ces consultations. Nous rappelons que ces consultations étant ouvertes à tous ne regroupent pas uniquement des malades devant bénéficier du dispositif PASS. Des systèmes de repérage peuvent également exister au niveau des caisses, mais en général celles-ci ne repèrent que les malades ayant des problèmes de couverture sociale effective. Une formation de ce personnel est indispensable. La consultation médicale, sociale et l'accueil par la personne d'orientation devraient être effectués sur un site unique, concentré, afin que les divers professionnels puissent confronter leur connaissance et ainsi avoir une approche globale du patient. - La consultation médicale Il s'agit de développer une médecine de soins primaires et de premier recours à travers une approche globale et transversale. Ceci est valable tant pour la médecine générale que pour la médecine dentaire). La consultation médicale doit permettre: - de répondre aux symptômes présentés par le malade - de dépister les pathologies graves ou urgentes - d' évaluer le risque absolu lié à la situation socio-économique du patient et à sa trajectoire de vie (sur le modèle du risque absolu cardio-vasculaire) - de dépister des pathologies associées: - dépendances (alcool, drogues illicites, psychotropes) - pathologies virales chroniques: VIH, VHC, VHB - tuberculose - violences conjugales - 72- - de faire l'état sur la situation de prévention, et développer des stratégies d'information et d'éducation pour la santé - d'évaluer la situation globale du malade, c'est-à-dire la maladie, la trajectoire de vie et de précarité et les stratégies thérapeutiques adaptées, en particulier lorsqu'il s'agit de pathologies chroniques. Lors de cette consultation médicale il faudra évaluer la capacité du malade à se prendre en charge: capacité à revenir en consultation, à comprendre les prises en charge ou les recours aux spécialistes, à observer les thérapeutiques et prescriptions médicales. Il faut savoir que ces consultations constituent une opportunité essentielle dans la trajectoire de la maladie, mais également dans la trajectoire de vie du malade en situation de précarité. - La consultationsociale Il est très important que la consultation médicale et la consultation sociale puissent se faire, en tout cas lors de la première consultation, le même jour, de façon parallèle, quel que soit d'ailleurs l'ordre de priorité de ces consultations qui doivent se faire plus en fonction des possibilités que d'un schéma dogmatique. La consultation sociale doit comporter: - une évaluation de la situation de précarité - une évaluation: du logement, des ressources financières, du rapport au travail, de l'environnement familial, professionnel, amical et culturel, du réseau social - une évaluation de la couverture sociale et de la couverture médicale effective, de l'existence ou non d'une assurance complémentaire des vraies causes de l'inexistence d'une couverture sociale, des délais de récupération possible. - une évaluation de la capacité de prise en charge par le malade de sa situation sociale. - 73 - Une définition d'un plan de travail en fonction de la personne, adaptée tant à la ou aux pathologies qu'elle présente, qu'à sa situation de précarité, et qu'au type de traitement nécessaire, ainsi qu'à ses capacités de prise en charge. c'est au niveau du travailleur social que se fait la délivrance d'une fiche de circulation qui permet d'accéder aux examens complémentaires, et à la pharmacie hospitalière. - La fiche de circulation: Elle permet d'accéder au plateau technique de l' hôpital et aux divers examens complémentaires nécessités par l'état du malade. Bien entendu, ces prescriptions doivent être faites, comme pour tout malade, et comme pour n'importe quel malade, dans un souci de rapport coût/bénéfice, en tenant compte des informations attendues de ces examens et des coûts qu'ils représentent pour la collectivité. Il faut savoir que la charge financière des examens complémentaires est toujours très réduite dans les divers dispositifs que nous avons pu visiter. Au sein des PASS, la procédure de délivrance de médicaments est gratuite au niveau de la pharmacie hospitalière, qui organise les modalités et la durée de cette délivrance. La mise en place d'une PASS nécessite une coopération étroite avec les pharmaciens de l' hôpital. Au mieux, ils mettront à disposition des équipes médicales en charge des PASS, un document avec les médicaments disponibles à la pharmacie de l' hôpital et leur coût réel par unité ou par traitement. La coopération des pharmaciens est également nécessaire car lors de la délivrance des médicaments il est nécessaire pour certains malades d'avoir une délivrance accompagnée avec des explications complémentaires en fonction de leur vie quotidienne : nombre de repas, difficultés à garder les médicaments en lieu sûr, ou à les conserver quand ceux-ci nécessitent des méthodes de conservation telle que le froid. Le rôle des pharmaciens hospitaliers dans la délivrance et l'observance des thérapeutiques est essentiel en particulier pour ce type de malades. - 74- - Le comité de pilotaçe Toute PASS doit comporter un comité de pilotage intégrant médecins, pharmaciens, administrateurs, cadres infirmiers et services sociaux, si possible ouvert aux associations et services sociaux partenaires. Ces comités fonctionnent et se pérennisent dans la mesure où ils ne se contentent pas d'un suivi administratif ou financier, mais qu'y sont discutés, au cas par cas, les situations des malades qui posent ou ont posé problème dans leur accès aux soins à l' hôpital. 5°) Travailler en réseau Ce principe rejoint la nécessité du comité de pilotage ouvert à l'extérieur. Ce réseau n'est pas forcément un réseau spécialisé pour les malades en situation de précarité, mais intègre dans ses fonctions, ses objectifs et ses stratégies la dimension de la précarité et de la difficulté d'accès aux soins. Il s'agit d'un réseau composé de professionnels de santé, d'associations, tant d'hébergement que d'aides aux personnes en difficulté et d'associations médicales humanitaires, dispensaires municipaux et un réseau qui intègre des représentants, ou qui au moins a des connexions avec les divers services de l'État, ou les services régionaux de santé. 6°) Evaluer les PASS : toujours L'évaluation implique la définition d'objectifs. Au départ les PASS ont été validées sur leur capacité à récupérer les droits effectifs de couverture médicale pour les malades consultants, et il a été montré que 50'10 des personnes ayant recours à ce qui ne s'appelait pas PASS à l'époque, mais en avait tous les caractères, et 60'10 au bout de un an, récupèrent effectivement des droits sociaux. Maintenant que la CMU existe, des objectifs plus précis doivent être déterminés, à la lumière desquels il faudrait évaluer l'efficacité d'un tel type de dispositif: récupération de la capacité à être pris en charge dans le service des droits communs et sortie du circuit des urgences hospitalières ou des dispensaires associatifs. - 75 - L'évaluation doit s'intéresser à l'efficacité sociale et financière. Pour cela il faudra procéder à : Une amélioration du codage des diagnostics d'activités de consultations: en effet si l'on ne veut pas pénaliser le développement des activités ambulatoires et le développement de la mission sociale de l'hôpital, et que l'on veut également être capable d'évaluer et de piloter ce type d'activité, ce travail est indispensable. De même il est indispensable de développer le recueil des activités médicales et sociales, actes et coûts des examens complémentaires, des médicaments délivrés à titre gratuit. Divers outils de pilotage ont été mis en place dont il importerait d'évaluer la pertinence avant de la généraliser à l'ensemble des PASS : un outil commun d'évaluation et de pilotage est un objectif indispensable. r) Faire connaître les PASS : encore et encore Il nous est apparu que la PASS de TOUL reste peu connue au sein même de l'établissement, elle est d'ailleurs beaucoup plus connue à l'extérieur. L'intégration de ce genre de pratique à l'activité quotidienne de l' hôpital nécessite qu'elle soit affichée au même titre que d'autres activités qui paraissent des activités constitutives de la responsabilité de l'établissement hospitalier. Le service public et les établissements participant au service public hospitalier relèvent, de par la loi maintenant, de ce type de responsabilité et il est de leur rôle d'en informer les usagers, les malades et le personnel. Des modalités spécifiques d'information, à travers les associations spécialisées et les canaux appropriés, doivent être pensées. 8°) Former: sans cesse En ce qui concerne les médecins et les chirurgiens dentistes: Développer l'enseignement de la prise en charge des patients en situation de précarité: - 76- 1 - Au cours du premier cycle des études médicales en correspondance avec le responsable de l'enseignement des sciences sociales de santé publique. Prendre conscience, à travers les données de différentes études, de la précarité. 2- Au cours du 2e cycle, par la création d'un module de sensibilisation à la médecine de soins primaires ou médecine communautaire et des soins buccaux dentaires d'urgence (savoir reconnaître et traiter l'essentiel, sachant qu'il y a peu de chance que le patient ne revienne) 3- Au cours du 3e cycle, en développant des modules d'enseignement de la médecine générale et dentaire centrés sur la prise en charge des patients en situation de précarité ou en situation sociale difficile. 9°) Réfléchir, adapter, innover S'il est une conclusion est à retenir, c'est la richesse des initiatives qui ont surgi dans les hôpitaux pour répondre aux enjeux posés par les malades en situation de précarité. Si les initiatives restent encore limitées, les projets sont multiples et les réflexions des acteurs de terrain foisonnent. Le cadre des PASS est un cadre large qui doit permettre aux établissements de s'adapter aux réalités de l'environnement de l'hôpital, et ne cherche pas à faire passer ces réalités par une nouvelle porte étroite. Faciliter et favoriser les capacités d'innovation des hôpitaux afin de répondre pratiquement aux situations fluctuantes des personnes en précarité; aux difficultés des nouveaux publics qui apparaissent fragilisés par la vie, les progrès techniques et les migrations, nous semblent indispensable. Pour cela faudrait-il encore solliciter, promouvoir et soutenir les innovations dans l'organisation de nouvelles pratiques médico-sociales au sein des hôpitaux et non seulement les innovations technologiques ou scientifiques. - 77 - Il nous apparaît que la prise en charge par les hôpitaux des personnes précarisées par leur état de santé et leur trajectoire de vie n'en est encore qu'à ses débuts. Nombre d'inhibitions sont encore à vaincre et de préjugés à combattre afin que les établissements s'engagent sans réserves dans ce qui n'est après tout qu'une de leurs responsabilités de santé publique. L'engagement des tutelles est incontournable pour que réussissent les P.A.S.S., or, le problème existe aussi bien dans les C.H.U. des grandes villes que dans certaines zones rurales de petites ou moyennes villes. Certes l'échelle n'est pas la même, mais les réponses appropriées doivent être élaborées et mises en place partout. - 78 - - 79 - (30) Les dix dernières années ont été marquées, dans nos sociétés dites« développées », par une extension du champ d'exclusion, en particulier dans le domaine de la santé. De nombreuses études concernant les pathologies médicales et psychiatriques liées à la précarité et à la misère, ont été menées en France comme en EUROPE. Cependant, les pathologies dentaires qui ont une grande prévalence et une grande incidence dans ces populations très défavorisées, restent encore mal connues des équipes soignantes, alors qu'elles représentent un problème majeur de santé publique qu'il est urgent de traiter. 4.1. MATERIEL ET METHODE L'objectif principal de cette étude a été d'évaluer les besoins en santé bucco dentaire d'une population défavorisée, étudiée dans le cadre de la P.A.S.S. (Permanence d'accès aux soins de santé), à l'hôpital Saint Charles de TOUL. L'enquête a été réalisée entre le 01-01-2002 et le 31-12-2002. Pour chaque patient, un interrogatoire administratif, médical ainsi qu'un examen bucco dentaire ont été pratiqués. Les consultations ont au lieu chaque vendredi matin dans un des bureaux des consultations externes de l'hôpital, des plateaux composés d'un miroir, d'une sonde et d'une précelle nous ont été mis à disposition par l'hôpital. La PASS de TOUL a débuté en avril 2000. Depuis ces quatre années passées, le nombre de nouveaux cas par an ne cesse de croître: - en 2000: 50 - en 2001 : 78 - en 2002: 189 - en 2003: 262 Entre 2000 et 2003, la population de la PASS a été multipliée par plus de 5. - 80 - Population: La population retenue est celle fréquentant l'hôpital de TOUL dans le cadre de la P.A.S.S. Les critères d'inclusion de la population: - patients entrant dans le cadre de la PASS, dont le dossier a été ouvert entre le 01-01-2002 et le 31-01-2002 - patients n'ayant pas de couverture sociale (AME, CMU, Sécurité Sociale) - être âgés de plus de 15 ans, dans le but de coïncider avec les études dont la première tranche d'âge est entre 15 et 24 ans Le nombre de nouveaux patients pour 2002 était de 189, 127 patients ont été retirés de l'étude pour les raisons suivantes: - 61 patients qui possédaient une couverture sociale (AME, CMU ) - 38 patients âgés de moins de 15 ans - 18 patients qui ne se sont jamais présentés à la consultation Au total, 72 patients ont servi de support à l'étude. Recuei! des données: (annexe 1) - les données administratives: nom, prénom, sexe, date de naissance, adresse - les données médicales: pathologies générales (cardiaques, endocriniennes, hépatiques, rénales, digestives, neurologiques, hématologiques, infectieuses, traitement par radiothérapie), suivi et traitement en cours, le terrain (tabagisme, suspicion d'éthylisme, immunodépression, allergie), antécédents chirurgicaux. - les données dentaires: schéma dentaire (nous nous sommes inspirés de la fiche du Service Accueil Santé du C.H.U. de NANCY), indice de plaque (PLI), indice gingival (GI), nombre de couples masticatoires (molaires - prémolaires) et date de la dernière visite chez le dentiste. - 81 - Le schéma dentaire o : dent saine 1 : dent cariée ou non nécessitant une obturation 2 : dent cariée ou non nécessitant un soin endodontique 3 : dent nécessitant une extraction chirurgicale 4 : dent soignée (obturation sur une ou plusieurs faces) 5 : dent obturée nécessitant soit de refaire l'obturation soit de confectionner une couronne 6 : dent couronnée 7: appareil amovible résine ou stellite 8 : dent définitive non remplacée 9 : dent de sagesse incluse, canine incluse, agénésie, ou extraite pour raison orthodontique L'indice PLI: indice visuel d'évaluation de la plaque bactérienne o : absence de plaque (détermination à l'oeil) 1 : plaque visible à la sonde 2 : plaque visible à l'oeil, sans saignement 3 : plaque abondante L'indice GI : indice de mesure de l'indice gingival o : gencive saine 1 : gencive avec liseré rouge, gingivite 2 : présence de tartre Nombre de couples molaires - prémolaires: on considère un couple lorsqu'une prémolaire ou une molaire a une antagoniste, le score maximum pour une bouche étant de 8. - 82 - 4.2. RESULTATS Caractéristiques de la population: L'ensemble des nouveaux cas de la P.A.S.S. pour 2002 s'élève à 189 patients. Après nettoyage de la base de données, 72 patients servent de support à l'étude, qui se divise en 35 hommes dont la moyenne d'âge est 34,80 ans (écart type 15,24 ans) et en 37 femmes dont la moyenne d'âge est 31,41 ans (écart type 12,82 ans. La répartition est de 49 10 d'hommes et 51 10 de femmes. - Répartition des patients de la P.A.S.S. en 2002 suivant le sexe: Femmes 51% Hommes 49% - 83 - - Répartition des patients de la P.A.S.S. en 2002 suivant l'âge: Plus de 50 ans 11% 35 - 50 ans 20% 15 - 24 ans 43% 25 - 34 ans 26% - Répartition des patients de la P.A.S.S. en 2002 suivant le sexe et l'âge: "1El~-Hommes [II Femmes -- .-.---- 15 - 24 ans 25 - 34 ans 35 - 50 ans Plus de 50 ans - 84 - Résultat de l'évaluation de l'état bucco dentaire: - Besoin d'au moins un soin urgent: - 62 '10 des patients de la PA55 - 31 '10 des patients de la population générale . Nombre moyen de dents saines par sexe et par tranche d'âge Hommes Femmes 15-24 ans 25-34 ans 35-50 ans + 50 ans 16,3 15,6 17,3 16,4 15,1 12,6 Nombre moyen de dents nécessitant des soins conservateurs (caries, endodontie), Hommes Femmes 15-24 ans 25-34 ans 35-50 ans + 50 ans 4 5,1 4,4 4,9 5,9 3,6 Nombre moyen de dents absentes non remplacées (PA55), Hommes Femmes 15-24 ans 25-34 ans 35-50 ans + 50 ans 4.74 4,35 2,35 3,81 5,44 7,62 Nombre moyen de dents absentes non remplacées (population générale) Hommes Femmes 15-24 ans 25-34 ans 35-50 ans + 50 ans *** *** 0,52 1 1,42 2,62 Nombre moyen de dents couronnées et obturées, Hommes Femmes 15-24 ans 25-34 ans 35-50 ans + 50 ans 2,5 3,1 2,5 3,0 3,0 3,2 - 85 - Nombre moyen de dents nécessitant une extraction Hommes Femmes 15-24 ans 25-34 ans 35-50 ans + 50 ans 2,4 1,6 2,6 2,0 1,0 2,3 Nombre moyen d'appareil amovible trouvé en bouche Hommes Femmes 15-24 ans 25-34 ans 35-50 ans + 50 ans 0 0 0 0 0 0 Tatlleo.u 8 : Indice CAOD C A 0 CAOD Hommes 4,03 4,74 2,46 11,23 Femmes 5,10 4,35 3,11 12,56 15 - 24 ans 4,42 2,35 2,54 9,31 25 - 34 ans 4,86 3,81 3,00 11,67 35-50 ans 5,25 5,44 3,00 13,68 + 50 ans 3,55 7,62 3,22 14,33 Indice moyen Besoins en soins parodontaux : Indice de Plaque (en pourcentage de patients 10) PLI (indice de plaque) 0 1 2 3 Hommes 43 10 11 10 29 10 17/0 Femmes 54/0 22 10 11 10 13 10 15 - 24 ans 38 10 27/0 20/0 15 10 25 - 34 ans 52 10 14 10 10 10 24 % 35-50 ans 69/0 13 10 5 10 13 10 + 50 ans 44 10 12 10 22 10 22 10 - 86 - Tal:>leC:lu :LO : Indice Gingival 0 1 2 Hommes 48 10 7 10 45 10 Femmes 51 10 3 10 46 10 15 - 24 ans 35 10 8 10 57/0 25 - 34 ans 48 10 o 10 52 10 35-50 ans 75/0 o 10 25 10 + 50 ans 22 10 o 10 78 10 GI (indice gingival) : Nombre de couples masticatoires (molaires - prémolaires) : le score maximum étant de 8 Nombre de couples masticatoires moyens Hommes 4,84 Femmes 4,84 15 - 24 ans 5,65 25 - 34 ans 4,86 35-50 ans 3,75 + 50 ans 2,75 : Date de la dernière consultation chez un dentiste Population de la PASS Population générale (CREDES) Moins d'un an 34/0 47/0 1 à 2 ans 14 10 24/0 2à 5 ans 20/0 16 10 5à 10 ans 17/0 7/0 + 10 ans 15/0 6 10 - 87 - 4.3. DISCUSSION (2) (3) (30) (35) L'objectif principal de cette étude est d'évaluer l'état de santé bucco-dentaire des personnes en situation de précarité et ainsi d'évaluer les besoins en soins dentaires. Il serait judicieux d'essayer de déterminer les facteurs qui pourraient expliquer leurs recours ou non aux soins dentaires. Il nous apparaît que la prise en charge par les hôpitaux des personnes précarisées par leur état de santé et leur trajectoire de vie n'en est encore qu'à ses débuts. Nombre d'inhibitions sont encore à vaincre et de préjugés à combattre afin que les établissements s'engagent sans réserves dans ce qui n'est après tout qu'une de leurs responsabilités de santé publique. L'engagement des tutelles est incontournable pour que réussissent les P.A.S.S., or le problème existe aussi bien dans les C.H.U. des grandes villes que dans celles de moyenne et faible densité. Certes l'échelle n'est pas la même, mais les réponses appropriées doivent être élaborées et mises en place partout. L'enquête réalisée montre sans surprise que les personnes démunies fréquentant les P.A.S.S. ont un état de santé bucco-dentaire moins bon que la population générale. Elle révèle également que cet état de santé se dégrade vite avec l'âge. Le nombre de dents saines (absence de tout traitement ou de pathologie carieuse) représente en moyenne la moitié des dents (16,3 dents en moyenne chez les hommes et 15,6 dents en moyenne chez les femmes) Le nombre de dents absentes non remplacées passe de 2,3 en moyenne pour les 1524 ans à 7,6 pour les plus de 50 ans, par rapport à la population générale où la moyenne passe de 0,52 à 2,62. 52 1'0 des personnes interrogées sont de nationalité étrangère, il est d'ailleurs frappant de constater que leurs problèmes dentaires sont moins importants que ceux des français (3,2 dents absentes contre 5,7 en moyenne). - 88 - - L'état se dégrade fortement avec l'âge 76 /'0 des personnes déclarent avoir au moins une dent manquante (hormis les dents de sagesses ou autres dents incluses) non remplacée, contre 33/'0 dans la population générale. L'écart suivant les classes d'âge se creuse rapidement. Le nombre moyen de dents manquantes non remplacées (tableau 3) passe de 2,35 (pour les 15 - 25 ans) à 7,62 (pour les plus de 50 ans), alors que dans la population générale '0 d'entre molaires) contre 33 '0 dans la (tableau 4) il passe de D,52 à 2,62 seulement. Parmi la population de la PASS, 76 eux ont au moins une dent manquante (à l'exception des 3 0 population générale. Variation du nombre de dents absentes non remplacées dans la population générale Versus la population de la PASS --_ _ _ _-------_ • • • • 15 - 24 ans -.-~_ ~ 25 - 34 ans . ~_. .:"_---------{ 35 - 50 ans + 50 ans Les hommes ont plus de dents manquantes en moyenne (4,74) que les femmes (4,35) - Un besoin urgent de soins: 72 /'0 des patients observés ont besoins de soins dentaires urgents 90 /'0 d'entres aux ont des besoins en soins conservateurs 62 /'0 ont des besoins de soins chirurgicaux (au moins une extraction) 45 /'0 ont des besoins de soins prothétiques fixes ou amovibles - 89 - 45 /0 ont des besoins de soins parodontologiques (motivation à l'hygiène, prévention et détartrage). Au total, 33/0 ont des besoins qui se trouvent dans chaque catégorie, à la fois des soins conservateurs, chirurgicaux, prothétiques et parodontaux. Cette nécessité est d'autant plus importante que l'âge augmente puisqu'elle ne représente que 26 /0 pour les moins de 34 ans et 38 /0 pour les plus de 45 ans. - de trop rares visites quand el/es seraient nécessaires 34 /0 des patients (28 /0 d'hommes et 47 /0 de femmes) déclarent avoir consulté un chirurgien-dentiste durant l'année écoulée, alors que ce taux est proche de 50 /0 dans la population générale. Seulement 5 /0 nous ont avoué qu'ils seraient venus spontanément sans convocation. C'est une des raisons expliquant la faiblesse de leurs recours aux soins dentaires et donc à l'aggravation de leurs problèmes dentaires. Près d'un tiers n'a pas vu de chirurgien-dentiste depuis plus de 5 ans contre seulement 15 /0 en population générale. Il semblerait que plus le besoin en soins est important, plus le recours aux soins est faible. - un coefficient masticatoires très insuffisant: Les besoins en prothèse adjointe sont énormes puisqu'en considérant (comme la sécurité sociale auparavant) que 5 couples molaires-prémolaires (sur les 8 possibles) sont nécessaires pour avoir une mastication acceptable, il apparaît dans l'étude que dès 25 ans, la mastication est insuffisante médiocre « 5), à 35 ans très insuffisante « 4) et au-delà de 50 ans « 3). Au vu du tableau 7, ce constat est évident puisqu'il nous montre qu'aucun patient ne porte de prothèse adjointe. - Prévention et motivation à /'hyglêne Le tableau 9 témoigne néanmoins que les patients ont une bonne hygiène pour la moitié d'entre eux (PLI=O : absence de plaque). Ceci se confirme dans le tableau 10 qui nous montre pratiquement une absence totale de gingivite (GI=O), donc un brossage régulier. - 90- L'indice de plaque le plus élevé (PLI=3) se retrouve chez les 25-34 ans (25 % de la population), en revanche, le score le meilleur (PLI=O) se constate chez les 35-50 ans (70/0 de la population) Les plus jeunes (15-24 ans) ne se brossent pas assez bien les dents, un effort de prévention et d'apprentissage au brossage devrait plus toucher cette population. - Explication de refus des soins: Seulement 5 10 des patients seraient venus spontanément, les autres invoquent différents motifs de refus: - la peur d'avoir mal (90 10) - ne consulter qu'en urgence (douleur insoutenable et insupportable) (85 %) - l'aspect financier (68 10 des patients) deux fois plus qu'en population générale - les soins dentaires sont secondaires et inutiles (20 10) - 91 - - 92- Des gens sont dans le besoin, certains sont pauvres, voire très pauvres, d'autres sont dehors (S.D.F.) et d'autres en situation irrégulière (des « sans-papiers»). Il existe bien des aides: - AME (aide médicale de l'état) - CMU (Couverture Mutuelle Universelle) Il existe aussi des: - des PRS (Plan Régional pou la Santé) - des PRAPS (Plan Régional pour l'Accès à la prévention et aux Soins) - des lois Malgré tout ce qui est mis en oeuvre, certains n'y accèdent toujours pas, lorsqu'ils arrivent à l'hôpital, ils sont rejetés. La PASS (Permanence d'Accès aux Soins de Santé) s'adresse à ces gens. Il faut donc leur donner les soins urgents et les inclure dans un dispositif de soins à plus long terme existant, donc les insérer dans un système de type CMU. Au CH Saint Charles de TOUL, à plusieurs reprises, des patients se sont présentés à la PASS pour des problèmes dentaires. Du fait de l'incompréhension des interlocuteurs les recevant, tous les examens et soins possibles, à l'exception des soins dentaires leur ont été administrés, le problème de communication est crucial avec ces populations. A NANCY, la PASS se situe au centre Lionnois qui envoit ces patients au C.H.U. pour la prise en charge des soins dentaires. La aussi, dans un hôpital public, les patients se sentent rejetés, seuls les soins d'urgences et éventuellement extractions et soins conservateurs leur sont proposés à l'exclusion des soins prothétiques. Ne serait-ce pas possible, dans le cadre de la PASS, de la CMU ou d'un autre système de prendre en charge la réalisation de ces prothèses? C'est à notre avis le rôle du service public d'aider les plus démunis dans le respect de la loi et de la réglementation. Cette non prise en charge trouve sans doute son explication dans la multiplicité des lois, décrets, arrêtés et circulaires en tout genres, avec de nombreux sigles (PRS - PRAPS - ARH - DRASS - DDASS - SROS - PASS - CCAS ). - 93 - La difficulté principale de la prise en charge de ces patients réside dans la définition exacte du rôle de chaque organisme ainsi que de ses obligations et de ses responsabilités. La misère humaine est incommensurable, même dans un pays développé comme la france, avec des mesures comme l'A.ME, la C.M.U., dont on s'est tant glosé, on s'aperçoit que la Couverture Mutuelle Universelle n'est pas si universelle que cela et que des structures comme les PASS sont indispensables pour toucher certaines populations exclues des autres structures. Le problème dentaire n'a pas été pris en compte, dans une société où l'exclusion se fait sur l'apparence et l'esthétique. Les demandeurs d'emplois au sourire « édenté» sont très peu retenus par les employeurs potentiels. Le nécessité de réduction des coûts de santé, l'enveloppe globale des hôpitaux, fait que le geste dentaire se réduit la plupart du temps au geste d'urgence. Sachant que la réinsertion passe aussi par la réhabilitation dentaire, la cohérence du système de la PASS voudrait que la prise en charge des actes prothétiques soit assurée. C'est pourquoi, la PASS montre son utilité dans la prise en charge des personnes exclues des autres systèmes pour, d'une part assurer la prise en compte des urgences quelles qu'elles soient et d'autre part l'aiguillage des patients vers des structures capables d'assurer leur réhabilitation physique et leur réinsertion dans la communauté. - 94- Annexe 1 • Nom / Prénom : . • Date de naissance: • Tranche d'age: 015-24 025-34 035-50 0+50 • Adresse: . • Dernière consultation: 0 < 1 • Endocriniennes : o Diabète insulino-dépendant o Diabète non insulino-dépendant o Pathologie thyroïdienne o Autres: • Hépatiques o Hépatite virale: A, B, C : o Insuffisance hépatique Année: • Rénales o Insuffisance rénale o Hémodialyse 0 1à 2 0 2 à 5 + de 10 o 5 à 10 0 • Digestive o Ulcère gastrique, duodénal o Antécédents de douleurs gastriques • Traitement(s) en cours: • Neurologie o Epilepsie o Antécédent d'accident vasculaire cérébral TERRAIN • Hématologie o Hémophilie type: o Troubles de l'hémostase o Autres (thrombopénie, Anémie) • Tabagisme : oui / non • Ethylisme: oui / non • Immunodépression : o VIH o Greffé (ciclosporine, ) o Traitement immunosuppresseur (Corticoïdes, chimiothérapie, radiothérapie, ) • Allergie: o Médicaments. Lesquels: o Métaux: DIode: o Autre(s) : Infectieuses o Mononucléose infectieuse (MNI) o Tuberculose o Autres (ORL, ) * Radiothérapie . . • Cardiaques : o Hypertension artérielle o Rhumatisme art. aigu avec atteinte cardiaque o Insuffisance coronarienne (angor, infarctus) o Troubles du rythme o Pathologie valvulaire o Insuffisance cardiaque • Généraux: o Anesthésie générale: o Anesthésie dentaire locale: o Prothèse valvulaire: o Prothèse de hanche: o Autre • Odonto-stomatologiques - PLI: 0 0 0 1 0 2 0 3 - GI: DO Dl 02 - Nb de couples masticatoires: . . Annexe 2 AHI: AME: ARH: ASSEDIC: CAF: CCAS: CDASU: CEBS: CHRS: CMU: CNAMTS: CPAM: CRAM: CREDES: CRPS: CRS: DDASS: DRASS: FAJ: FNPEIS: GTD: GTR: PASS: PDALPD: PDAS: PDI: PRAPS: PRS: RMA: RMI: SROS: URCAM: Accueil, Hébergement et Insertion Aide médicale de l'Etat Agence Régionale de l'Hospitalisation Association pour l'emploi dans l'industrie et le commerce Caisse d'Allocation Familiale Centre Communal d'Action Social Commissions Départementales de l'Action Sociale d'Urgence Centre d'Economie des Besoins Sociaux Centre d'Hébergement et de Réinsertion Sociale Couverture Mutuelle Universelle Caisse Nationale d'Assurance Maladie des Travailleurs Salariés Caisse Primaire d'Assurance Maladie Caisse Régionale d'Assurance Maladie Centre de Recherche et de Documentation en Economie de Santé Comité Régional des Politiques de Santé Conférence Régionale de Santé Direction Départementale des Affaires Sanitaires et Sociales Direction Régionale des Affaires Sanitaires et Sociales Fonds d'Aide aux Jeunes Fond National de Prévention d'Education et d'Information Sanitaire Groupe de Travail Départemental Groupe de Travail Régional Permanence d'Accès aux Soins de Santé Plan Départemental d'Aide pour le Logement des Personnes Défavorisées Plan Départemental d'Accès aux Soins Programme Départementaux d'Insertion Programme Régional d'Accès à la Prévention et aux Soins Programme Régional de la Santé Revenu Minimum d'Activité Revenu Minimum d'Insertion Schéma Régional d'Organisation Sanitaire Union Régionale des Caisses d'Assurances Maladies 96 Annexe 3 PRAPS de LORRAINE Objectif général du programme: dans un délai de trois ans, permettre aux personnes en difficultés un accès au système de droit commun dans les domaines de la couverture sociale, de la prévention et des soins afin d'améliorer leur état de santé, par une meilleure connaissance des problèmes de santé liés à la précarité et par une plus grande coordination des acteurs. Préalable: Améliorer la connaissance et l'analyse de l'état de santé et du recours aux soins des publics en situation de précarité 1. Définir des indicateurs communs permettant de décrire la situation sociale, l'état de santé, les comportements de recours aux soins. 2. Formaliser, valider et mettre en oeuvre une grille d'indicateurs communs (santé, social). 3. Coordonner le recueil de données afin d'en faire une analyse et de le partager avec les décideurs et les acteurs. 4. Donner les moyens aux usagers de s'exprimer sur leurs besoins de santé. Priorité n° 1 : Améliorer la coordination des acteurs 1. Définir dans chaque département un ou plusieurs territoires de coordination des acteurs, permettant de couvrir l'ensemble du département. 2. Promouvoir le rôle des établissements de santé dans le domaine de la coordination. 3. Améliorer la connaissance et la lisibilité des interventions des différents acteurs (formalisation des réseaux) 4. Donner les moyens suffisants à ces lieux de coordination Priorité n° 2 : Permettre l'accès aux droits pour tous 1. Améliorer l'information dans le domaine de l'accès aux droits (information auprès des publics, des professionnels de santé, des acteurs sociaux et médico-sociaux, des associations caritatives) 2. Organiser et diversifier les relais locaux pour accompagner les personnes dans leurs démarches. Identifier dans chacun de ces relais un référent. 3. Former les relais locaux de façon régulière, afin d'intégrer les évolutions réglementaires. 97 4. Mettre en place un dispositif de veille des dysfonctionnements (avec les acteurs et les usagers) et d'évaluation (interne à l'assurance maladie) 5. Être attentif aux difficultés de certains publics: personnes d'origine étrangère, en situation irrégulière, travailleurs indépendants, agriculteurs en difficulté, personnes victimes de l'effet de seuil, en particulier les personnes âgées isolées bénéficiaires du FN.S. 6. Améliorer la lisibilité des dispositifs spécifiques, et les coordonner afin d'assurer une égalité de traitement des usagers 7. Favoriser l'accessibilité géographique par la présence physique de la C.P.A.M. dans les structures d'accueil et d'insertion, par la mise en place d'antennes mobiles, le redéploiement des services de conseils généraux. Priorité n° 3 : Améliorer l'accès à la prévention et aux soins des plus démunis 1. Développer et assurer la pérennisation des lieux d'accueil, d'écoute et de soins décentralisés en utilisant les structures existantes 2. Faciliter la prise en charge financière des frais de transport vers les lieux de prévention et de soins. 3. Pour toute personne nécessitant un accompagnement médico-social, aider les professionnels à la réalisation d'une évaluation globale initiale. Le projet de soins cohérent, coordonné et adapté qui est ainsi établi est négocié avec la personne 4. Renforcer les dispositifs de prise en charge des addictions (tabac, alcool, toxicomanies, médicaments) en fonction de besoins à évaluer. Ces dispositifs peuvent être ambulatoires (équipes de rue), en hospitalisation de jour Ils doivent s'appuyer sur une sensibilisation des hôpitaux généraux, des médecins généralistes en lien avec les équipes d'alcoologie et de liaison. Leurs modalités de fonctionnement doivent être lisibles pour l'ensemble des acteurs 5. Adapter les modalités d'intervention des structures de prévention et de soins en favorisant la sortie des soignants des structures. Le contact direct avec les publics au plus près de leurs lieux de vie permet d'atteindre un second objectif qui est une meilleure connaissance de leurs besoins par les équipes soignantes 6. Intégrer dans les projets des établissements et des services la prise en charge des personnes en situation de précarité. 98 Priorité n° 4 : Développer les actions d'éducation à la santé et de prévention au sein des dispositifs d'insertion sociale et professionnelle 1. Intégrer dans la durée l'éducation à la santé en terme de valeur et d'attitude dans les dispositifs d'insertion sociale et professionnelle. Pour atteindre cet objectif des formations à l'approche globale de la santé doivent être développées en privilégiant une démarche participative 2. Capitaliser et communiquer. Les expériences d'éducation à la santé doivent être mieux connues de façon à mutualiser les expériences. 3. Faciliter pour les acteurs sociaux le développement d'actions d'éducation à la santé par une aide au montage de projets, une planification pluriannuelle, une transversalité avec les actions d'insertion, une territorialisation. 4. Réaliser des actions de prévention dans une démarche de santé publique prenant en compte les besoins de santé identifiés et les demandes des personnes concernées dans leur diversité Priorité n° 5 : Développer la prise en charge médico-sociale au sein et autour des établissements de santé 1. Tous les établissements de santé (publics et P.S.P.H.) doivent avoir au moins un travailleur social. Les missions des travailleurs sociaux doivent être mieux identifiées. 2. Une P.A.S.S. (au moins) est créée par bassin de santé. Des P.A.S.S. spécialisées (psychiatrie, maternité) peuvent être créées en fonction des besoins. Ces P.A.S.S. ne doivent pas se substituer aux missions qui incombent à l'ensemble des établissements de santé: lutte contre l'exclusion sociale, sectorisation psychiatrique et psychiatrie de liaison, urgences psychiatriques, coordination de la prise en charge des femmes pendant la grossesse et au cours de la période post natale. Enfin, il faut rappeler que des permanences d'orthogénie adaptées aux personnes en situation de précarité doivent être installées dans l'ensemble des P.A.S.S. 3. Les établissements élaborent un projet global de prise en charge des personnes en situation de précarité, prévoyant notamment le repérage des personnes pouvant être en difficulté dans l'ensemble de l'établissement; les modalités d'intervention du travailleur social; les modalités de participation des différents services à la prise en charge des plus démunis; les possibilités de bilan médical, psychologique; l'organisation de la continuité des soins; les dispositifs prévus pour réintégrer le patient dans le droit commun; les modalités d'accompagnement des personnes au sein de l'hôpital vers les structures extérieures, des structures extérieures vers l'hôpital; les modalités de collaboration avec les partenaires extérieurs: formalisation du réseau; les besoins identifiés avec les partenaires en terme de consultations externes, avancées, délivrances de médicaments; le projet de formation des personnels. 99 4. Des conventions sont passées entre les établissements de santé et les D.D.A.S.S. prévoyant la prise en charge de consultations externes, de médicaments, et d'examens complémentaires. 5. Une double évaluation doit être réalisée, chaque année: évaluation interne à l'hôpital (activité de la P.A.S.S. mais aussi au niveau de tout l'établissement: connaissance du public en situation de précarité identifié au sein de l'hôpital, analyse de l'activité du service social, prise en compte par les services de la dimension sociale) ; évaluation D.R.A.S.S. / D.D.A.S.S. (élaboration d'une grille standardisée de recueil d'information pour évaluer l'activité de la P.A.S.S., impact de la P.A.S.S. dans l'amélioration de l'accès aux droits et aux soins: évaluation avec les partenaires, nombre de projets d'établissements et de contrats d'objectifs et de moyens qui ont intégré l'accueil des personnes les plus démunies à l'hôpital). 6. Les modalités de valorisation de l'activité sociale doivent faire l'objet d'un travail en concertation D.R.A.S.S. / D.D.A.S.S. / Etablissements de santé (P.M.S.T.). Priorité n° 6 : Renforcer les compétences des acteurs pour une prise en charge globale des personnes en situation de précarité 1. Développer des actions de sensibilisation des professionnels de santé aux problèmes liés à la précarité 2. Sensibiliser les acteurs sociaux et médicaux à l'approche multi-culturelle : perceptions de la santé, perceptions des structures de soins, problèmes multiples d'accès à la prévention et aux soins 3. Développer des actions de sensibilisation des acteurs sociaux aux réponses aux problèmes de santé des plus démunis 4. Encourager les formations territorialisées notamment en recherchant des financements complémentaires 5. Favoriser le développement de plates-formes de services, d'échanges de savoir sur des sites prioritaires. 6. Prendre en compte dans les formations initiales et continues, les aspects des effets de la précarité sur la santé: formation initiale des médecins, professions para-médicales, travailleurs sociaux. 100 Priorité n° 7 : Développer la prise en compte de la santé dans les politiques d'insertion sociale et professionnelle 1. Développer la présence de professionnels de santé au sein des cellules d'appui RMI et les dispositifs d'insertion pour les jeunes afin d'améliorer le repérage des difficultés, de diagnostic et afin de mettre en place des actions adaptées. 2. Mettre en place des commissions santé sur les sites politique de la ville. 3. Prendre en compte la santé dans les politiques d'insertion des populations d'origine étrangère, dans les plans départementaux d'accueil des gens du voyage, dans la lutte contre l'illettrisme. Des difficultés spécifiques d'accessibilité, de perception de la santé doivent être prises en compte de façon à développer des outils adaptés 4. Prendre en compte la santé dans les CHRS, les CADA, les foyers d'accueil. Les difficultés de santé doivent être mieux identifiées de façon à en tenir compte dans le contrat passé avec la personne et de façon à mettre en place des actions adaptées 5. Prendre en compte la santé dans les dispositifs de coordination des aides financières (CASU). La CMU ne va pas répondre à l'ensemble des difficultés d'accès aux soins. Des dispositifs spécifiques d'aide à l'accès à une mutuelle, seront peut-être conservés ou se mettront en place; des prises en charge de soins ou de prothèses onéreux seront recherchées. Les CASU mises en place dans le cadre de la loi de lutte contre les exclusions ont pour mission de coordonner les aides et d'apporter un outil d'observation sur les difficultés financières. Elles pourront être utilisées de façon à identifier les difficultés dues aux effets de seuil. Priorité n° 8 : Développer la prise en compte de la souffrance psychique 1. Identifier la souffrance psychique dans tous les lieux où elle s'exprime. L'objectif est de sensibiliser à l'importance de l'écoute, et de former les acteurs à cette écoute et au dépistage 2. Organiser et évaluer avec l'ensemble des acteurs d'un territoire une prise en charge partagée 3. Diversifier les réponses (loisirs, culture, sport) en s'assurant de la qualité des projets: respect des principes éthiques, participation du corps médical La prise en charge de la souffrance psychique est l'affaire de tous les acteurs. Tous les supports doivent être utilisés pour recréer du lien, favoriser l'expression, la créativité "- 4. Etre particulièrement attentif aux publics très éloignés de l'insertion ayant une ancienneté dans les dispositifs, ainsi qu'aux personnes isolées (personnes âgées, mères isolées) 101 Priorité n° 9 : Mobiliser l'ensemble des partenaires sur la prise en compte des problèmes de santé des jeunes (18 fiches) 1. Améliorer l'accès aux droits, notamment l'accès à la prise en charge des frais dentaires et d'optique: les jeunes ont été jusqu'alors très mal informés sur leurs droits (dispositifs mis en place par les Conseils Généraux et les CPAM) ou ont bénéficié de mesures très différentes d'un territoire à un autre. Il s'agit donc ici plus particulièrement de développer l'information. 2. Développer l'éducation à la santé dans tous les lieux d'accueil et de formation en favorisant la participation des publics 3. Former les acteurs sociaux à une approche nouvelle de la santé, et à une démarche permettant d'aller vers les jeunes éloignés de l'insertion. 4. Développer des modalités innovantes de prévention et d'accompagnement vers les soins, en particulier en favorisant la coordination des partenaires autour des jeunes 5. Développer une réflexion interdépartementale sur les besoins de santé des jeunes, à partir de la connaissance de leur état de santé, à partir de l'expression de leurs besoins et de l'évaluation des actions mises en place. 6. Travailler par objectifs pluriannuels. 7. Développer des formations spécifiques en santé publique sur la santé des adolescents et des jeunes. Priorité n° 10 : Améliorer les procédures d'élaboration des projets santé précarité et leur évaluation 1. Elaborer un dossier type de présentation de projets multifinanceurs pour aider les acteurs au montage de projets et aider les financeurs à la prise de décision. 2. Organiser l'évaluation des actions dans le cadre d'une programmation et avec des outils standardisés. 3. Organiser la communication sur les actions pour mutualiser les compétences et les expériences. 102 103 1- AMOSSE T., DOUSSIN A., FIRDION J.-M., MARPSAT M. et ROCHEREAU T. lité et santé des jeunes sans domicile ou en situation précaire PARIS, CREDES, septembre 2001, 85p 2- BANCHEREAU C., BROÏDO M., ROCHEREAU T. L'état de Santé bucco-dentaire et le recours au chirurgien dentiste selon les caractéristiques sociodémographiques PARIS, CREDES, Enquête santé et protection sociale, 24 octobre 2002 3- BEYNET A., MENAHEM G. Problèmes dentaires et précarité PARIS, CREDES, question n° 48, février 2002 4- BIHR A., PFEFFERKORN R. Déchiffrer les inégalités PARIS, SYROS, 1999 5- BREUIL-GENIER Pascale, Inégalités de revenus et de redistributton : évolutions 1970-1996 au seins des ménages salariés PARIS, INSEE, France portrait social, 2000-2001 6- CASTEL R. Les métamorphoses de la question sociale PARIS, Gallimard, 1995, 813p 7- CHAMBAZ Ch. Lapauvreté en France et en Europe PARIS, INSEE, n° 533, juillet 1997 8- Circulaire DGS/DS6D n02oo2/100 du 19 février 2002 relative aux Programmes régionaux d'accès à la prévention et aux soins en faveur des personnes en situation précaire (PRAPS), visant à préparer les PRAPS de deuxième génération (2003-2004-2005-2006). 9- Circulaire DGS/SD6D N° 2001/396 du 3 août 2001 relative au suivi des actions de santé en faveur des personnes en situation précaire 10- Circulaire DH/AFI/AS/CD N° 08240 du 27 juin 2000 relative à la délégation de crédits pour les permanences d'accès aux soins de santé (PASS) créées en 2000 11- Circulaire N° DGS/SP2/2ooo/324 du 13 juin 2000 relative au suivi des actions de santé en faveur des personnes en situation précaire 104 12- Circulaire DAGPB/DAS/DGS n° 2000-364 du 8 juin 2000 relative au projet d'annuaire des acteurs de la lutte contre les exclusions. 13- Circulaire DGS/DAS/DH/DSS/DIRMI n° 99-648 du 25 novembre 1999 relative aux réseaux de soins préventifs, curatifs, palliatifs ou sociaux 14- Circulaire DH/AF1/AS N° 99-542 du 4 octobre 1999 relative à l'évaluation des permanences d'accès aux soins de santé (PASS) installées en 1998 et 1999 et mise en place des PASS en 2000 15- Circulaire DHIAF1 n° 427 du 29 juillet 1999 relative à la délégation de crédits pour les permanences d'accès aux soins de santé (PASS) créées en 1999 16- Circulaire DH/AF1 n° 05960 du 25 mai 1999 relative à la mise en place des permanences d'accès aux soins de santé (PASS) 17- Circulaire DGS/SP2 n° 99-110 du 23 février 1999 relative à la mise en place des PRAPS 18- Circulaire DH/AF1 DGS/SP2 DAS/RV3 N°736 du 17 décembre 1998 relative à la mission de lutte contre l'exclusion sociale des établissements de santé participant au service public hospitalier et à l'accès aux soins des personnes les plus démunies (mise en place des PASS) 19- Circulaire DGS/DAGPB/DAS n° 981568 du 8 septembre 1998 relative à la mise en oeuvre de la loi d'orientation contre les exclusions sur les exercices 1998 et 1999 : action sociale et santé publique PRAPS 20- Circulaire DGS/SP1 n° 97-731 du 20 novembre 1997 relative aux conférences régionales de santé et aux programmes régionaux de santé 21- Circulaire DAS/DH/DGS/DPM/DSS/DIRMIIDIV n° 9508 du 21 mars 1995 relative à l'accès aux soins des personnes les plus démunies 22- COLLET M., MENAHEM G., PARIS V., PICARD H. Précarités, risqué et santé PARIS, CREDES, question n° 63, janvier 2003 23- Colloque national de Santé Publique Education à /a santé et précarité: /a santé dentaire en question PARIS: UFSBD : 31 janvier 2002 105 24- Communiqué du Conseil national des politiques de lutte contre la pauvreté et l'exclusion sociale (CNLE) septembre 2000, Rapport 2000, PARIS, La documentation Française, 2000 25- DEBIONNE François Paul La santé passe par la dignité - l'engagement d'un médecin PARIS, Les éditions Quart Monde, 2000 26- Décret n° 98-1216 du 29 décembre 1998 relatif aux programmes régionaux d'accès à la prévention et aux soins et modifiant le code de la santé publique 27- Décret n° 97-360 du 17 avril 1997 relatif aux conférences régionales de santé et notamment l'article R 767.6 28- DESPLANQUES G., NEYRET G., ROTH N. Pauvreté. Précarité. Exclusion PARIS, CNIS, n° 42, mars 1988,76 P 29- DRESS La protection des personnes à bas revenus dans les pays européens Etudes et Résultats, n° 19, juin 1999 30- DUPAS Cécile Précarité et accès aux soins" quelles solutions pour répondre aux besoins prothétiques? Th. Chir. Dent. : NANTES: 2001 31- GAULEJAC (de) V. Les sources de la honte PARIS, Desclée de Brouwer, 1994, 286p 32- GULLOUX K. et al. Pratiques en santéprécarité la santépublique à l'épreuve du terrain PARIS, Ministère de l'emploi et de la solidarité, 1997, 229p 33- EUPHA Ten Priority fields for public health in Europe SFSP 2000 106 34- Haut Comité de Santé Publique (HCSP) La progression de la précarité en France et SeS effets sur la santé RENNES, Editions ENSP, février 1998, 368p 35- HASSOUN D. Précarité et état bucco-dentaire PARIS,CREDES, décembre 1998 36- LAZARUS A., STROHL H. Pauvrete. Précarité et Pathologies mentales, une souffrance que l'onne peut plus cacher Rapport du groupe de travail ville, santé mentale, précarité et exclusion sociale PARIS, DIMV-DIMRM, 1995 37- LECLERC A., FASSIN D., GRANDJEAN H. (INSERM), Les inégalités sociales de santé PARIS, INSERM, La découverte, 2000, 448p 38- Loi n° 99-641 du 27 juillet 1999 portant création d'une couverture maladie universelle 39- Loi n° 98-657 du 29 juillet 1998 d'orientation relative à la lutte contre les exclusions et notamment son article 71 40- Loi n° 91- du 31-07-1991 relative aux SROS 41- MAISONDIEU J. La fabrique des exclus PARIS, Bayard, 1997, 258p 42- Observatoire national de la pauvreté et de l'exclusion sociale, Rapport 2000, PARIS, La documentation française, 2000 43- OMS, Fonds des nations unies pour l'enfance Les soins de santé primaires Conférence internationale sur les soins de santé primaires GENEVE, OMS, 1979 107 44- Ordonnance du 24 avril 1996 relative aux Programmes Régionaux de Santé (PRS) 45- ORESPERE Observatoire Régional sur la Souffrance Psychique en Rapport avec l'Exclusion Points de vue et rôle des acteurs de la clinique psychosociale Recherche-action, décembre 1999 46- PAUGAM S. Rapport du CERC n° 109, Précarité et risque d'exclusion en France PARIS, La documentation française, 1993, 169p 47 - Site INTERNET - Ministère de la santé http://www.sante.gouv.fr/ 48- Site INTERNET - Ministère de l'emploi, de la solidarité http://www.emploi-solidarite.gouv.fr/ 49- TOURRAINE A. Face à l'exclusion Revue Esprit, n° 169, 1991 50- VIDAL-NAQUET Pierre Détresse et urgence sociale Rapport de la MRIE, 1999 PARIS, La documentation Française, 2000 51- WRESINSKI J. Grandepauvreté et précarité économique et sociale PARIS, Journal Officiel, 1987 108 109 // q~()U\') 'i\r~I" i\\Î) i i tKiTD.:5hljmrf~Ii\i; . \,~: 7/:':~). 1 \.: \ • .Ii' ;'---<1 / ",,,_.,v /-j i\j (~, "' ./ "• • • ~. SES, EFIFE:rS S'UR I~A ejl~I"~: 1.1. PAUVRE:rE, PRECARITE i' 'i er YC - • ••• EXCLUSION SOCIALE 3 5 1.1.1. DEFINITIONS DE TROIS CONCEPTS 6 1.1.1.1. Le pauvreté 6 - Les mesures et les caractéristiques des ménages pauvres : - un indicateur monétaire - un indicateur de «condition de vie » - un indicateur de « pauvreté administrative » 6 6 8 10 - Les évolutions de la pauvreté - Un taux de pauvreté proche de la moyenne européenne - Les limites de la connaissance statistique de la pauvreté. 11 13 1.1.1.2. La précarité 14 1.1.1.3. L'exclusion sociale 17 13 1.1.2. ACCROISSEMENT ET DEPLACEMENT DES INEGALITES SOCIALES 18 1.1.2.1. Inégalités sociales de revenus 19 1.1.2.2.Inégalités sociales de logement 20 1.1.2.3. Inégalités sociales d'éducation 20 1.2. LES INTERACTIONS ENTRE LES PROCESSUS DE PRECARISATION er LES PROCESSUS DE SANTE 22 1.2.1. LA SANTE, UN FACTEUR ET UN PRODUIT DU DEVELOPPEMENT ECONOMIQUE ET SOCIAL 22 1.2.2. L'AGGRAVATION DESINEGALITES SOCIALES FACE A LA MALADIE ET A LA MORT 26 1.3. PROTECTION SOCIALE ET SYSTEME DE SOINS: VERS PLUS D'EQUITE ET D'EGALITE 32 1.3.1 UNE ACTION GLOBALE DE DEVELOPPEMENT ECONOMIQUE ET DE LUTTE CONTRE LES EXCLUSIONS 31 1.3.2. UNE ACTION PLUS SPECIFIQUEMENT SANITAIRE QUI COMPORTE DEUX VOLETS COMPLEMENTAIRES 34 1.3.2.1. La généralisation progressive de l'assurance maladie 35 1.3.2.2. L'adaptation progressive du système de santé aux besoins des personnes en situation de précarité 36 110 2. ELA9<:>RA1"IONI DE~) PRc::>GR'MMES C.'ACC:ES À LA IPRE~'EN1'ION ET ,AUX SOI:NS I(PRAPS 43 2.1. ETAPES SUCCESSIVES DE L'ELABORATION DES PRAPS 44 2.2. LA CREATION D'UNE DYNAMIQUE PARTENARIALE 46 2.2.1. DES PROGRAMMES INITIES ET SOUTENUS AU NIVEAU NATIONAL 46 2.2.1.1. Cadrage institutionnel et méthodologique 46 2.2.1.2. Suivi et soutien de l'élaboration des PRAPS 47 2.2.1.3. Suivi et mise en oeuvre des PRAPS 48 2.2.2. DES PROGRAMMES ELABORES ET MIS EN OEUVRE PAR DES ACTEURS REGIONAUX, DEPARTEMENTAUX ET LOCAUX 2.2.2.1. Le Comité Régional des Politiques de Santé (CRPS) 48 - Cadre législatif et réglementaire - fonctionnement du Comité Régional des Politiques de Santé dans les régions 49 49 51 2.2.2.2. Le Groupe Technique Régional (GTR) 51 2.2.2.3. Les Groupes de Travail Départementaux (GTD) 52 2.2.3. LA COORDINA TION AVEC LES AUTRES DISPOSITIFS SOCIO-SANITAIRES 2.2.3.1. PRAPS et schémas sociaux - L'articulation des PRAPS avec les nouveaux schémas sociaux, - L'articulation des PRAPS avec les dispositifs sociaux antérieurs à la loi de lutte contre les exclusions 2.2.3.2. Coordination des PRAPS avec les autres dispositifs sanitaires - PRAPS et PRS (Programmes Régionaux de Santé). - Thèmes prioritaires du PRAPS faisant par ailleurs l'objet d'un Programme régional de Santé - PRAPS et SROS (Schéma Régional d'Organisation Sanitaire) 2.2.4. FINANCEMENTS DES PRAPS 54 54 55 55 56 56 56 57 58 3. LES P'ASS (PElllMAIIJENICE C>'ACc=ESAU): SOINS DE ~SANITE) •60 3.1. CADRE DE LA MISSION 61 3.2. CONTEXTE 62 3.3. CONSTATS 64 3.4. PROPOSITIONS 69 1- Déterminer les besoins 2- Connaître les textes législatifs 3- Développer les consultations de Médecine Générale 4- Construire une PASS 5- Travailler en réseau 6- Evaluer les PASS : toujours 7- Faire connaître les PAS: encore et encore 8- Former: sans cesse 9- Réfléchir, adapter, innover 69 69 70 71 75 76 76 76 77 111 80 4.1. MATERIEL ET METHODE - population - Recueil des données 81 4.2. RESULTATS 83 81 81 - Caractéristiques de la population - Résultat de l'évaluation de l'état bucco dentaire 83 85 4.3. DISCUSSION 88 CONCLuSION 93 ANNEXE 1 : FICHE CUNIQUE 95 ANNEXE 2 : DEFINITION DES SIGLES 96 ANNEXE 3 : PRAPS DE LORRAINE 97 axaUOGBiAPRXl: 104 .*/**:*(~i5~!Tr .Ô, -~,-Or ' ;' ~~0:(~\\ , L : r , 1 1 m;n }le /\1 l\;' (.-~".j/ ' / 112 FACULTE DE CHIRURGIE DENTAIRE Jury: Président: Juges: M. PANIGHI - Professeur des Universités A. FONTAINE - Professeur de 1er Grade lP. ARTIS - Professeur de 2éme Grade O. ARTIS - Assistant Hospitalier Universitaire Thèse pour obtenir le diplôme D'Etat de Docteur en Chirurgie Dentaire présentée par: Monsieur ZIMMER Joël néee) à: METZ (Moselle) le 09 février 1974 et ayant pour titre : «Evaluation des besoins en santé bucco-dentaire d'une population bénéficiant de la PASS (Permanence d'Accès aux Soins de Santé)au Centre Hospitalier SaintCharles de TOUL» Pr. M. PANIGHI Autorise à soutenir et imprimer la thèse ~o -1 ïl1-~ / NANCY, le ~5 te.\J(~e.< ~4 UNIVERSITÉ HENRI POINCARÉ, Nancy 1 24-30 rue Lionnois - BP 3069 - 54013 Nancy Cedex France Tél: 33.(0)3.83.68.20.00 - Fax: 33.(0)3.83.68.21.00 ZIMMER (Joël) - Evaluation des besoins en santé buccodentaire, d'une population bénéficiant de la PASS (Permanence d'Accès aux Soins de Santé) au Centre Hospitalier Saint Charles de TOUL NANCY, 2004 : 111 f. : 30 cm Th. : Chir. Dent. : NANCY: 2004 Mots clés: - Exclusion PASS Précarité Santé bucco-dentaire ZIMMER (Joël) - Evaluation des besoins en santé bucco-dentaire, d'une population bénéficiant de la PASS (Permanence d'Accès aux Soins de Santé) au Centre Hospitalier Saint Charles de TOUL Th. : Chir. Dent. : NANCY: 2004 Ces dix dernières années ont été marquées par une extension du champ d'exclusion, en particulier dans le domaine de la santé. Le phénomène de précarisation est massif puisqu'il touche 20 à 25 '7'0 de la population dès lors qu'il manque une des sécurités essentielles tels que l'emploi, le logement, la cohésion familiale, l'éducation, la qualification professionnelle et la santé. C'est pourquoi la loi d'orientation relative à la lutte contre les exclusions du 29-07-1998 a permis la mise en place des PASS qui sont des structures ouvertes à tous. L'étude montre sans surprise que cette population défavorisée présente de multiples pathologies dentaires qui constituent un problème majeur de santé publique qu'il est urgent de traiter. La PASS est un dispositif de prise en charge et d'aiguillage des personnes exclues vers des structures capables d'assurer leur réhabilitation physique et leur réinsertion dans la communauté. JURY: Président Juge Juge Juge M. PANIGHI M. A. FONTAINE M. J.P. ARTIS M. O. ARTIS Adresse de l'auteur: ZIMMER Joël 21 rue du Général GENGOULT 54200 TOUL Professeur des Universités Professeur 1er grade Professeur 2ème grade Assistant ZIMMER (Joël) - Evaluation des besoins en santé buccodentaire, d'une population bénéficiant de la PASS (Permanence d'Accès aux Soins de Santé) au Centre Hospitalier Saint Charles de TOUL NANCY, 2004 : 111 f. : 30 cm Th. : Chir. Dent. : NANCY: 2004 Mots clés : - Exclusion -PASS - Précarité - Santé bucco-dentaire ZIMMER (Joël) - Evaluation des besoins en santé bucco-dentaire, d'une population bénéficiant de la PASS (Permanence d'Accès aux Soins de Santé) au Centre Hospitalier Saint Charles de TOUL Th. : Chir. Dent. : NANCY: 2004 Ces dix dernières années ont été marquées par une extension du champ d'exclusion, en particulier dans le domaine de la santé. Le phénomène de précarisation est massif puisqu'il touche 20 à 25 'Yo de la population dès lors qu'il manque une des sécurités essentielles tels que l'emploi, le logement, la cohésion familiale, l'éducation, la qualification professionnelle et la santé. C'est pourquoi la loi d'orientation relative à la lutte contre les exclusions du 29-07-1998 a permis la mise en place des PASS qui sont des structures ouvertes à tous. L'étude montre sans surprise que cette population défavorisée présente de multiples pathologi,es dentaires qui constituent un problème majeur de santé publique qu'il est urgent de traiter. La PASS est un dispositif de prise en charge et d'aiguillage des personnes exclues vers des structures capables d'assurer leur réhabilitation physique et leur réinsertion dans la communauté. JURY: Président Juge Juge Juge M. PANIGHI M. A. FONTAINE M. J.P. ARTIS M.O.ARTIS Adresse de l'auteur: ZIMMER Joël 21 rue du Général GENGOULT 54200 TOUL Professeur des Universités Professeur 1er grade Professeur 2ème grade Assistant
{'path': '28/hal.univ-lorraine.fr-hal-01734051-document.txt'}
Développement, adaptation et handicap. Régulations cardio-respiratoires et de la motricité Rapport Hcéres To cite this version: Rapport d'évaluation d'une entité de recherche. Développement, adaptation et handicap. Régulations cardio-respiratoires et de la motricité. 2012, Université de Lorraine. hceres-02029954 HAL Id: hceres-02029954 https://hal-hceres.archives-ouvertes.fr/hceres-02029954 Submitted on 20 Feb 2019 Section des Unités de recherche Rapport de l'AERES sur l'unité : Développement, Adaptation et Handicap, Régulations cardio-respiratoires et de la motricité DevAH sous tutelle des établissements et organismes : Faculté de Médecine de Nancy Université de Lorraine Février 2012 Section des Unités de recherche Unité Nom de l'unité : Développement, Adaptation et Handicap, Régulations cardiorespiratoires et de la motricité Acronyme de l'unité : DevAH Label demandé : Equipe d'accueil N° actuel : EA 3450 Nom du directeur (2009-2012) : M. François MARCHAL Nom du porteur de projet (2013-2017) : M. Philippe PERRIN Membres du comité d'experts Président : M. André DENJEAN, Paris Experts : Mme Emmanuelle APARTIS, Paris M. Frédéric LOFASO, Paris Représentants présents lors de la visite Délégué scientifique représentant de l'AERES : M. Michel AUBIER Représentant(s) des établissements et organismes tutelles de l'unité : M. Pierre MUTZENHARDT , Université de Lorraine 3 Rapport 1  Introduction Date et déroulement de la visite : La visite s'est déroulée le 14 février 2012. Elle a commencé par la présentation du bilan des deux unités qui s'associent pour former la nouvelle entité. Puis le comité d'experts a entendu la présentation du projet de l'unité par le porteur du projet, suivie des présentations des différents projets de recherche par leurs responsables respectifs. Il s'en est suivi une discussion générale sur le projet global et les projets détaillés. Ensuite, le comité a poursuivi ses entretiens par une discussion avec les doctorants de l'équipe puis avec les personnels IATOS. Une visite d'une partie des locaux consacrés à l'expérimentation animale a été faite. La visite s'est terminée par un entretien des membres du comité d'experts avec M. Philippe PERRIN, porteur du projet puis par une réunion à huis clos des membres du comité. Historique et localisation géographique de l'unité et description synthétique de son domaine et de ses activités : L'équipe de recherche DevAH provient de la réunion de deux équipes existant préalablement : d'une part l'EA 3450, ayant pour thématique principale la physiologie du développement dans un axe respiratoire comprenant le contrôle respiratoire et la bronchomotricité, et d'autre part le Groupe oto-neurologie, dans l'unité Inserm U954, ayant pour thématique le contrôle postural, l'équilibration et la motricité, avec une implication dans la maturation et le développement. Equipe de Direction : Le « G6 », bureau collégial, est constitué par le porteur du projet et l'ensemble des responsables de chacune des composantes participant à l'équipe. Effectifs de l'unité : 21 EC (dont 13 HDR, 12 PU-PH, 5 MCU, 2 MCU-PH, 2 AHU), 9 « autres chercheurs » dont 3 PH (dont 1 HDR), 2 ARC, 8 doctorants, 6 Biatos. 4 Nombre au 30/06/2011 * Nombre au 01/01/2013 * 2013-2017 Nombre de produisants du projet ** N1 : Enseignants-chercheurs) 21 21 21 N2 : Chercheurs des EPST ou EPIC 0 N3 : Autres enseignants-chercheurs et chercheurs 9 9 9 6 + 2 ARC 8 Effectifs N4 : Ingénieurs, techniciens et personnels administratifs titulaires* N5 : Ingénieurs, techniciens et personnels administratifs non titulaires* N6 : Post-doctorants ayant passé au moins 12 mois dans l'unité 1 N7 : Doctorants 8 N8 : Thèses soutenues 5 N9 : Nombre d'HDR soutenues 5 N10 : Personnes habilitées à diriger des recherches ou assimilées 14 TOTAL N1 à N7 47 38 30 * Si différent, indiquer entre parenthèses les ETP correspondants. ** Nombre de produisants de la période [1er janvier 2007-30 juin 2011] et qui seront présents en 2013-2017. Définition et téléchargement des critères : http://www.aeres-evaluation.fr/Evaluation/Evaluation-des-unites-de-recherche/Principes-d-evaluation. 5 2  Appréciation sur l'unité Avis global sur l'unité : Les deux équipes constituantes démontrent une très bonne expertise, dans leurs domaines respectifs. La réussite de leur association tient à la complémentarité et aux interactions qu'elles auront à coeur de développer. Le soutien institutionnel local, manifeste, permet d'envisager l'avenir immédiat de façon très positive. Points forts et opportunités : Les équipes ont une expertise reconnue, avec une parfaite adéquation des outils d'investigation, tant dans le domaine respiratoire que dans le domaine psycho-moteur, et aussi bien en recherche expérimentale animale qu'en investigation clinique. Les équipes définissent très bien les cohortes de malades, dont le suivi longitudinal est bien organisé. Le comité d'experts observe une très bonne intégration des deux équipes dans le tissu hospitalier et universitaire régional, permettant des collaborations étroites. Les équipes ont une production scientifique substantielle. Points à améliorer et risques : La cohérence du projet, les interactions internes et la lisibilité extérieure gagneraient à être améliorées en recentrant le projet autour des expertises des deux équipes, en mettant en avant les cohortes communes de patients, et l'intérêt de leur suivi longitudinal. L'aspect translationnel de la recherche doit être amélioré, en faisant appel si nécessaire à des collaborations permettant d'approfondir les aspects physiopathologiques des anomalies étudiées, soit sur un plan expérimantal animal, par l'utilisation d'outils biologiques (biologie cellulaire histologie, marquages, pharmacologie), soit sur un plan d'investigation clinique en utilisant des techniques d'imagerie fonctionnelle. Le niveau des publications internationales doit être amélioré, de même que la valorisation, l'accès à des contrats institutionnels ou industriels, ce qui permettrait d'accroître non seulement le financement de la recherche mais aussi le recrutement potentiel de doctorants extérieurs au milieu médical strict. La gouvernance en bureau à 6 personnes est une situation inhabituelle, qui peut poser problème et devra être évaluée. Recommandations : - Recentrer le projet pour lui donner plus de cohérence et de lisibilité. - Améliorer l'aspect translationnel de la recherche. - S'ouvrir sur l'extérieur pour étendre les collaborations, améliorer le financement et la valorisation, par la recherche de contrats nationaux et internationaux. - Accroître l'attractivité en diversifiant les recrutements de doctorants. - Assurer la qualité et la stabilité de la gouvernance, en définissant un contrat de fonctionnement clair. 6 3  Appréciations détaillées Appréciation sur la qualité scientifique et la production : Les deux équipes réunies ont une reconnaissance individuelle dans leur domaine respectif, en raison d'une expertise dans l'utilisation de concepts et d'outils parfaitement adaptés à leur thématique de recherche. Elles ont développé des plateformes technologiques d'exploration performantes dans leurs domaines d'expertise. Cependant la recherche est encore souvent descriptive, avec parfois seulement une démarche physiopathologique recourant à une démarche expérimentale adaptée (en particuliers modèles animaux). Dans chacun des axes on pourrait attendre des développements de recherche plus translationnels, par exemple dans le domaine de la pharmacologie, de la biologie cellulaire (pour les modèles animaux), ou de l'imagerie fonctionnelle (chez l'homme), faisant appel à des collaborations locales. Les interactions entre les deux équipes sont faibles et doivent être développées. Les publications des membres de l'équipe, dans les thématiques affichées, sont en nombre conséquent, mais plutôt dans des revues spécialisées de rang B. Beaucoup de publications cliniques plus éloignées des thèmes centraux de recherche, mais de bonne qualité, viennent compléter la production scientifique. Sur le bilan des deux équipes précédentes on note la soutenance de 5 thèses et 5 HDR, soulignant ainsi la productivité des équipes. Appréciation sur l'intégration de l'unité dans son environnement : La valorisation et les relations scientifiques, aussi bien avec le monde universitaire régional qu'avec le tissu industriel, sont faibles. Cela fragilise de l'équipe car peu de contrats externes sont demandés ou obtenus. Il est indispensable de mieux développer cet aspect, en répondant à des appels d'offres régionaux, nationaux et internationaux, permettant des financements externes conséquents. Les autorités de tutelle ont clairement apporté, lors de l'entretien avec le comité d'experts, leur soutien à la constitution de l'unité de recherche, et leur détermination à lui donner les moyens financiers, logistiques (locaux) et humains (en particulier 2 postes hospitalo-universitaires), nécessaires à son implantation et à son développement. Appréciation sur le rayonnement et l'attractivité de l'unité de recherche : Quelques collaborations internationales ont été établies (avec le Vietnam, le Royaume Uni, la Hollande), individuellement certains membres de l'équipe ont régulièrement des collaborations internationales, établies de longue date. Cependant peu d'échanges de chercheurs sont organisés. L'attractivité locale est cependant importante, permettant, en particulier à des médecins, de poursuivre un cursus académique de qualité. Mais les doctorants actuels sont en majorité médecins et peu d'entre-eux se destinent à des carrières d'enseignants-chercheurs. Appréciation sur la gouvernance et la vie de l'unité : Les membres de l'unité ont opté pour une gouvernance collégiale, en mettant en place un « bureau » de 6 personnes, représentant de façon équitable les origines universitaires, services hospitaliers ou disciplines (au sens du CNU). Cette gouvernance collégiale devra être évaluée. Il est important que soit mis en place un règlement intérieur qui permette d'anticiper les problèmes de gestion, en particulier concernant les contrats financiers. Appréciation sur la stratégie et le projet à cinq ans : La solidité de l'équipe dans la durée est liée à sa capacité à améliorer sa lisibilité, à démontrer la pertinence des interactions développées, à ouvrir des collaborations extérieures, et à obtenir des financements en dehors de l'institution universitaire ou hospitalière régionale. Les cohortes de patients autour desquels s'organise la recherche sont un atout majeur dans cette réussite. Le projet de recherche de l'équipe s'articule autour de deux thématiques concernant le contrôle de la respiration d'une part, le contrôle de la posture et de la motricité d'autre part, dans une prospective axée sur le développement et les adaptations. 7 Tel qu'il est présenté, ce projet ne fait pas suffisamment apparaître la cohérence et les interactions possibles entre les deux équipes qui sont à son initiative. Il risque d'être interprété comme une somme de projets émanant de deux équipes différentes dont le lien peut ne pas être évident. Pourtant la cohérence et les interactions sont évidentes si la présentation du projet est modifiée, en partant des cohortes de patients qui seront étudiées. En effet il s'agit principalement de trois cohortes : • Les enfants nés prématurés, dont le suivi longitudinal est parfaitement organisé dans la région et dont on connaît les risques pathologiques au cours du développement, axés autour des pathologies respiratoires d'une part, mais aussi des pathologies du développement neurologique et psychomoteur. Ces enfants développent des pathologies des voies aériennes, telles que asthme, toux chronique, voire bronchopneumopathie chronique, qu'il faut prévenir, dépister ou traiter. D'autre part les atteintes cérébrales liées à la prématurité ont des conséquences plus ou moins importantes sur la motricité qu'il faut là aussi dépister et prendre en charge très tôt pour éviter le handicap. • Les enfants et adolescents atteints de scoliose, pour lesquels les conséquences des déformations du squelette vont porter à la fois sur la respiration mais aussi l'équilibre, la posture et la motricité. L'évaluation précise des anomalies survenant au cours du développement, et des conséquences de leur correction par les traitements, en particulier orthopédique (chirurgical ou non), est primordiale pour le pronostic à long terme. • Les enfants atteints de dyslexie, dont un certain nombre appartiennent à la cohorte des anciens prématurés, et dont il est particulièrement intéressant d'étudier la motricité et la posture, en rapport avec la proprioception. Cela permet d'entrevoir des pistes intéressantes de prise en charge thérapeutique de réadaptation novatrice. En changeant ainsi la présentation du projet, on comprend mieux l'intérêt de l'association de ces deux équipes, la cohérence et la complémentarité évidente de leurs axes de recherche dans une meilleure évaluation globale des adaptations de la respiration et de la motricité au cours du développement. Dans ces conditions l'expertise des deux équipes, chacune dans son domaine, leur insertion et les collaborations développées, tant au niveau du CHU que de l'Université, sont le gage d'une réussite dans la mise en place et la réalisation des projets présentés. Appréciation sur l'implication de l'unité dans la formation : L'ensemble des membres de l'équipe est très bien implanté dans le tissu universitaire, avec des implications interdisciplinaires, à différents niveaux de cursus académique, de la formation initiale aux masters et à la formation continue post-universitaire. L'interpénétration entre les membres de l'équipe et ses doctorants paraît de bonne qualité, mais ces doctorant sont aussi le plus souvent des collaborateurs médicaux quotidiens ce qui facilite le relationnel. L'attractivité extérieure devra être améliorée en garantissant des financements durables. 8 4  Notation À l'issue des visites de la campagne d'évaluation 2011-2012, les présidents des comités d'experts, réunis par groupes disciplinaires, ont procédé à la notation des unités de recherche relevant de leur groupe (et, le cas échéant, des équipes internes de ces unités). Cette notation (A+, A, B, C) a porté sur chacun des quatre critères définis par l'AERES. Elle a été accompagnée d'une appréciation d'ensemble. Dans le cadre de cette notation, l'unité de recherche concernée par ce rapport (et, le cas échéant ses équipes internes) a (ont) obtenu l'appréciation d'ensemble et les notes suivantes : Appréciation d'ensemble de l'unité Développement, adaptation et handicap. Régulations cardio-respiratoire et de la motricité (DevAH) : Unité dont la production, le rayonnement, l'organisation, l'animation et le projet sont bons, mais pourraient être améliorés. Tableau de notation : C1 C2 C3 C4 Qualité scientifique et production. Rayonnement et attractivité, intégration dans l'environnement. Gouvernance et vie du laboratoire. Stratégie et projet scientifique. B B B B 9 5  Statistiques par domaines : SVE au 10/05/2012 Notes C1 C2 Rayonnement et attractivité, intégration dans l'environnement C3 C4 Gouvernance et vie du laboratoire Stratégie et projet scientifique Critères Qualité scientifique et production A+ 10 14 18 16 A 33 32 31 29 B 13 10 6 11 C 1 1 2 1 Non noté - - - - C1 C2 Rayonnement et attractivité, intégration dans l'environnement C3 C4 Gouvernance et vie du laboratoire Stratégie et projet scientifique Pourcentages Critères Qualité scientifique et production A+ 18% 25% 32% 28% A 58% 56% 54% 51% B 23% 18% 11% 19% C 2% 2% 4% 2% Non noté - - - - Domaine SVE - Répartition des notes par critère Nbre 35 A A A A 30 25 20 A+ A+ 15 A+ B A+ B B 10 B 5 C C NN C NN C NN NN 0 C1 C2 C3 C4 10 6  Observations générales des tutelles 11 Développement Adaptation Handicap Réponse au rapport du Comité d'experts du projet d'Equipe d'Accueil Développement, adaptation et handicap. Régulations cardio-respiratoires et de la motricité (DevAH) Selon les recommandations du Comité d'Evaluation, le projet d'EA DevAH sera recentré sur les trois cohortes retenues, de manière à permettre de meilleures interactions entre les différents enseignants-chercheurs, issus des deux équipes de la précédente contractualisation, en particulier dans le domaine de la physiologie, de la pédiatrie et des neurosciences. Ainsi, les trois cohortes identifiées dans le rapport, anciens prématurés, dyslexie et scoliose, seront au centre du nouveau projet, afin d'en optimiser la cohérence. Les membres de l'Equipe s'appuieront également sur les recommandations pour l'organisation et la stratégie pour conduire ce projet. En particulier, l'intensification des aspects translationnels sera privilégiée, grâce aux modèles expérimentaux chez l'animal, dans le domaine respiratoire. Ces modèles seront complétés par l'étude des aspects biologiques (inflammation) et d'imagerie fonctionnelle de l'hypoxie néo-natale, par des collaborations locales (plate-forme d'imagerie expérimentale « Nancyclotep ») ; par ailleurs, chez l'homme, les collaborations locales s'effectuent avec l'Unité INSERM U947 en imagerie fonctionnelle (Imagerie Adaptative Diagnostique et Interventionnelle (IADI), Pr J. Felblinger). Cette extension des collaborations, souhaitée également hors de notre région, s'effectuera à la fois au niveau national, en particulier avec l'Unité INSERM du Pr P. Denise à Caen, qui lui-même avait fait figurer ce souhait dans la réponse adressée à l'AERES lors de l'évaluation de l'Unité dont il est le Directeur, et au niveau international, avec le Vietnam, le Royaume Uni et la Hollande, comme indiqué dans le rapport d'évaluation, mais également par la poursuite des relations avec la Suède, la Suisse et l'Islande. Vandoeuvre-lès-Nancy, le 12 avril 2012 Professeur Philippe Perrin . Equilibration et Performance Motrice, UFR STAPS de Nancy Université de Lorraine – 30, rue du Jardin Botanique – 54600 Villers-lès-Nancy . ORL, Hôpital d'Enfants, et Laboratoire d'Analyse de la Posture, de l'Equilibration et de la Motricité (LAPEM), Tour Drouet – Hôpitaux de Brabois, CHU de Nancy – 54500 Vandoeuvre-lès-Nancy philippe.perrin@univ-lorraine.fr
{'path': '26/hal-hceres.archives-ouvertes.fr-hceres-02029954-document.txt'}
LIVING LABS, INNOVATION COLLABORATIVE ET ECOSYSTEMES: LE CAS DE L'INITIATIVE « CONCEPT MATURITY LEVELS » DANS LES MEDTECH Mathias BEJEAN12 Univ Paris-Est Créteil, IRG, F-94010 Créteil, France 2 Univ Gustave Eiffel, IRG, F-77447 Marne-la-Vallée, France mathias.bejean@u-pec.fr 1 Robert PICARD Forum des Living Labs en Santé et Autonomie robert.picard@forumllsa.org Gabrièle BREDA Altran – Département Recherche et Innovation gabriele.breda@altran.com Résumé Les Living Labs (LLs) sont de nouvelles formes de laboratoires mettant en oeuvre des approches collaboratives et expérimentales centrées sur les utilisateurs. Récemment, les capacités des LLs à développer des réseaux d'innovation ouverts et collaboratifs ont été soulignées. Mais les recherches sont encore peu nombreuses, alors même que le phénomène ne cesse d'évoluer en pratique. En s'appuyant sur l'analyse longitudinale d'une initiative en cours, les « CML Santé », impulsée par le Forum des Living Labs en Santé et Autonomie, cet article présente une recherche abductive visant à explorer et caractériser la manière dont les LLs peuvent contribuer, au-delà de projets d'innovation temporaires, à structurer des écosystèmes d'innovation ouverts et collaboratifs sur le long terme. En sus de contribuer à la littérature sur les LLs, l'article ouvre de nouvelles pistes de caractérisation des écosystèmes communautaires d'innovation jusqu'ici encore peu étudiés. Abstract Living Labs (LLs) are new forms of laboratories which implement collaborative and experimental user-centred approaches. Recently, the capabilities of LLs to develop open and collaborative innovation networks have been highlighted. But research is still limited, even though the phenomenon is constantly evolving in practice. Based on the longitudinal analysis of an ongoing initiative, the "CML Santé," promoted by the French Forum of Living Labs in Health and Autonomy, this article presents a phenomenon-based research aimed at exploring and characterizing how LLs can contribute, beyond temporary innovation projects, to structuring open and collaborative innovation ecosystems over the long term. In addition to contributing to the literature on LLs, the article opens up new avenues for the characterization of the hitherto little-studied innovation ecosystems following community-based models. Mots Clés : Living Labs ; innovation ouverte ; plateformes d'innovation; écosystèmes d'innovation; phenomenon-based research Keywords : Living Labs; open innovation; innovation platform; innovation ecosystems; phenomenon-based research JEL code : M100 Business Administration: General INTRODUCTION 1 En France, l'écosystème des dispositifs médicaux, appelé « Medtech », est complexe et éclaté. Il rassemble plus de 1300 entreprises (85000 emplois) dont 94% de PME pour un marché de près de 30 milliards d'euros. Pour les entreprises de cette filière, la rapidité du cycle de vie d'un dispositif médical (DM), en moyenne de 18 à 24 mois, impose un effort constant de R&D. Elles sont par ailleurs confrontées au renforcement des exigences réglementaires pour la commercialisation et le maintien des produits sur le marché1. Dans ce contexte, les processus d'innovation deviennent de plus en plus stratégiques, mais, différents de ceux du médicament, ils sont encore mal appréhendés par les acteurs publics comme privés. Face à ces enjeux, plusieurs acteurs importants de l'écosystème français des Medtech ont engagé une initiative nommée « CML Santé France », pour Concept Maturity Levels, visant à établir « un processus plus inclusif, lisible et structuré des processus d'innovation collaborative dans l'écosystème des Medtech français ». Mobilisant un réseau national, cette initiative rassemble, depuis 2017, des partenaires couvrant l'ensemble de la chaîne de valeur des Medtech, allant des laboratoires de recherche, aux start-ups et PME, en passant par les Centres d'Investigation Cliniques en Innovation Technologique de l'INSERM (CIC-IT) ainsi que de nouveaux types d'acteurs appelés « Living Labs », l'initiative ayant été impulsée par le Forum des Living Labs en Santé et Autonomie (Forum LLSA). Les Living Labs (LLs) sont de nouvelles formes de laboratoires qui consistent à mettre en oeuvre des approches collaboratives centrées sur les utilisateurs dans lesquelles, ces derniers, pris dans leur « vie réelle », ne sont plus réduits à de simples objets d'investigation, mais intégrés en tant que protagonistes à part entière des processus de recherche et d'innovation (Veeckman et al. 2013; Béjean et Moisdon 2017; Picard 2017). Nés au début des années 90 (Bajgier et al. 1991), puis popularisés en Europe à partir de 2006 (Dutilleul, Birrer, et Mensink 2010), le phénomène des LLs a pris de l'ampleur cette dernière décennie, donnant lieu à plusieurs recherches en sciences de gestion (Leminen et Westerlund 2019). Récemment, les capacités des LLs à développer des réseaux d'acteurs (Leminen 2013), à devenir des plateformes d'innovation ouverte (Leminen, Rajahonka, et Westerlund 2017), voire à structurer des écosystèmes d'innovation ouverts et collaboratifs (Del Vecchio et al. 2017), ont été soulignées. Mais les recherches sont encore récentes et insuffisamment nombreuses, alors même que le phénomène des LLs ne cesse d'évoluer en pratique. Au total, des travaux empiriques sont encore nécessaires pour mieux appréhender la manière dont les LLs peuvent contribuer, au-delà de projets d'innovation temporaires, à structurer l'émergence d'écosystèmes d'innovation ouverts et collaboratifs sur le long terme. Cet article vise à combler ce manque en explorant les dynamiques écosystémiques associées aux approches portées par les LLs. La littérature existante considérant qu'il n'existe pas de définition partagée du concept de LL (Veeckman et al. 2013; Westerlund, Leminen, et Habib 2018), cet article retient les trois caractéristiques communes aux LLs identifiés par Veeckman et al. (2013) : l'approche, l'environnement et l'impact (outcome). Bien que générales, ces caractéristiques sont adaptées à nos objectifs de recherche car elles permettent de relier les différents niveaux d'analyse impliqués dans les dynamiques écosystémiques associées aux LLs, du plus micro (i.e. l'approche) au plus macro (i.e. l'impact). En s'appuyant sur l'analyse longitudinale de l'initiative en cours « CML Santé France », cet article vise ainsi à répondre aux questions suivantes : Règlements européens 2017/745 et 746 relatifs respectivement aux DMs et DMs de diagnostic in vitro. L'obtention d'autorisation de commercialisation n'assurant toutefois pas la vente de ces dispositifs. 1 2 - Au niveau de l'approche des LLs : quelles démarches, méthodes et processus les Living Labs de l'initiative « CML Santé France » ont-ils développés pour favoriser des dynamiques écosystémiques ? - Au niveau de l'environnement des LLs : quelles transformations peut-on observer sur les modes et infrastructures de collaboration entre les LLs et leurs partenaires ? - Au niveau de l'impact : ces transformations dépassent-elles l'échelle de projets temporaires pour favoriser l'émergence d'écosystèmes d'innovation ouverts et collaboratifs? Étant donné le caractère émergent du phénomène étudié notre approche suit une logique abductive de type phenomenon-based research (von Krogh, Rossi-Lamastra, et Haefliger 2012). Les objectifs sont de distinguer les transformations à l'oeuvre dans l'initiative « CML Santé France » et d'explorer comment celles-ci contribuent ou non à développer des écosystèmes d'innovation ouverts et collaboratifs sur le long terme. L'initiative « CML Santé France » étant encore en cours de déploiement, cet article porte sur les premiers résultats de cette dynamique d'envergure nationale, portée par des structures déconcentrées en réseau. L'article est organisé comme suit : dans une première partie nous présentons les fondements théoriques de cette recherche, en particulier le concept de livings labs, ainsi que ses liens aux théories de l'innovation ouverte et des écosystèmes. Dans une seconde partie nous détaillons le contexte de notre recherche, ainsi que notre méthode de collecte et d'analyse des données. Les résultats sont présentés dans une troisième partie, puis discutés dans une quatrième. FONDEMENT THEORIQUE DE LA RECHERCHE Le concept de Living Lab Le concept de Living Lab (LL) est né au début des années 90. À l'époque, l'expression « living laboratory » est utilisée par des chercheurs (Bajgier et al. 1991) pour désigner l'expérimentation d'un nouveau modèle pédagogique de type learning-through-doing. Cette expérimentation est développée dans le cadre d'un cours de Recherche Opérationnelle à la Drexel University de Philadelphie (Operations Research). Elle vise à mettre les étudiants face à une situation de « vie réelle » dans la communauté de South Street, une importante zone commerciale et résidentielle de la ville. Pour les auteurs : « the course's unique feature is its commitment to an interdisciplinary approach to problem solving" (Bajgier et al. 1991, 708). Le concept est repris par un professeur du Massachusetts Institute of Technology, William J. Mitchell, permettant une diffusion plus large des principes méthodologiques. Constatant les possibilités offertes par l'informatique et les technologies de l'information, Mitchell propose de passer de recherches in vitro à des expérimentations in vivo. Il suggère d'équiper des espaces « vivants », comme un bâtiment ou une ville, avec des systèmes de capteurs permettant d'analyser la manière dont les gens réagissent ou interagissent avec des solutions technologiques nouvelles. Il définit la notion de « Living Lab » comme un espace d'expérimentation où les concepteurs peuvent chercher des inspirations, clarifier leurs idées ou tester leurs hypothèses en les confrontant à des situations de vie réelle. Sur la base de cette idée, plusieurs LLs sont lancés aux États-Unis. En Europe, l'idée se popularise à partir de 2006, lorsque la Commission Européenne soutient la création d'un réseau de 19 LLs, nommé « European Network of Living Labs » (ENoLL) (Dutilleul, Birrer, et Mensink 2010). 3 La plupart des spécialistes du champ considèrent qu'il n'existe pas encore de définition universelle partagée du concept de LL (Veeckman et al. 2013; Westerlund, Leminen, et Habib 2018). La littérature identifie cependant des caractéristiques communes aux LLs. Veeckman et al. (2013) identifient ainsi trois piliers : l'environnement, l'approche et l'impact (outcome) des LLs. Au niveau de ce dernier point, malgré la contribution de Leminen et al. (2012), les auteurs constatent plutôt un manque de travaux : « the literature is silent about which components affect the outcome in living labs ». Plus récemment, Westerlund et al (2018) ont suggéré, sans fournir de métrique détaillée, que l'impact d'un LL se mesure au niveau d'accomplissement de l'écosystème d'innovation collaborative créé localement, c'est-à-dire : à son impact social, au développement économique et commercial du territoire d'emploi concerné, ainsi qu'à la valeur d'usage créée pour les publics cibles. Au niveau de l'environnement, un LL possède généralement une infrastructure technique (ou un réseau de partenaires) permettant des expérimentations avec des utilisateurs réels. Son environnement se construit dans une logique d'écosystème, impliquant des parties prenantes variées (industriels, chercheurs, utilisateurs), le plus souvent associée selon la logique du projet en cours. Même si tous les LLs ne sont pas dans une volonté d'ouverture de leur modèle (Lenne 2017), le niveau d'ouverture recherché est souvent élevé, que cela soit sur le partage de la propriété intellectuelle ou le degré de participation des différentes parties prenantes, car le concept de LL se réfère à celui de « communauté » (valeurs, intérêts, pratiques) Si la durée de vie et l'échelle d'action des LLs peuvent varier, le concept implique nécessairement la présence de dispositifs permettant des expérimentations avec les utilisateurs en situation de vie réelle. Le LL peut alors jouer le rôle d'intermédiaire d'innovation ouverte au sein du territoire concerné (Fasshauer et Zadra-Veil 2020). Au niveau de l'approche, Veeckman et al. (2013) expliquent : « within a living lab stetting, test users are involved through different phases of the innovation cycle in which they can test, evaluate, and co-create the innovation. This means that test users must be able to give a positive or negative assessment of the innovation through, for example, surveys or in-depth interviews. Test users should be given the opportunity to shape the innovation in interaction with researchers and developers. Co-creation should be iterative and make use of, for example, participatory methods. » (Veeckman et al. 2013, 9). Leminen et al. (2014) considèrent, en outre, que les utilisateurs peuvent avoir 4 types de rôles en fonction de leur degré de participation (informant, tester, contributor, co-creator), la diversité de ces rôles reflétant également celle du réseau d'un LL (Leminen 2013). D'après Shurrman et al (2013), le concept de LL se trouve ainsi à la croisée de l'innovation ouverte théorisée par Chesbrough (2003) et de l'innovation par les usages identifiée par von Hippel (1986). Plus récemment, Westerlund et al. (2018) ont proposé de redéfinir le concept de LL comme des "plateformes d'innovation", proposant la définition suivante : « A living lab is a sociotechnical platform with shared resources, collaboration framework, and real-life context, which organizes its stakeholders into an innovation ecosystem that relies on representative governance, open standards, and diverse activities and methods to gather, create, communicate, and deliver new knowledge, validated solutions, professional development, and social impact. ». Cette définition est aujourd'hui reprise par le réseau paneuroopéen ENoLL : "[LLs are] user-centred, open innovation ecosystems based on systematic user co-creation approach, integrating research and innovation processes in real life communities and settings." (enoll.org). Un LL est, à ce titre, conçu comme un moyen de développer des écosystèmes d'innovation (Del Vecchio et al. 2017). Toutefois, il demeure encore une ambiguïté dans cette littérature sur l'usage des concepts de plateforme et 4 d'écosystème. Cette ambiguïté masque la variété des logiques de collaboration impliquées, pouvant aller de la plus altruiste à la plus transactionnelle (Aubouin et Capdevila 2019). Le concept d'écosystème La notion d' « écosystème d'affaires » (ESA) a été introduite par James F. Moore en 1993. Par analogie avec les écosystèmes biologiques, où interagissent différentes espèces entre elles et avec leur milieu, Moore entend montrer la richesse des interactions entre firmes au-delà des modèles dyadiques de compétition : « In a business ecosystem, companies coevolve capabilities around a new innovation: they work cooperatively and competitively to support new products, satisfy customer needs, and eventually incorporate the next round of innovations » (Moore 1993). Ce faisant, il propose d'envisager de nouveaux défis stratégiques pour les organisations, défis qu'il classe selon le type d'interaction (coopération vs. compétition) et le stade de maturité de l'ESA considéré (Birth, Expansion, Leadership, Selfrenewal). De nombreux travaux se sont inscrits dans cette vision écologique. La notion d'écosystème a souvent été rapprochée de celles de « plateforme » (Gawer et Cusumano 2014) et d'« architecture industrielle » (Jacobides et Billinger 2006). Au niveau des plateformes, Gawer et Cusumano (2014) distinguent les plateformes internes et externes : « We define internal (company or product) platforms as a set of assets organized in a common structure from which a company can efficiently develop and produce a stream of derivative products. We define external (industry) platforms as products, services, or technologies that act as a foundation upon which external innovators, organized as an innovative business ecosystem, can develop their own complementary products, technologies, or services. ». Au niveau des architectures industrielles, les auteurs considèrent la division du travail entre les entreprises – « qui fait quoi » - ainsi que leur captation de la valeur – « qui reçoit quoi » pour analyser comment certaines entreprises peuvent obtenir un architectural advantage au sein d'une industrie donnée (Ferraro et Gurses 2009). Si ces travaux élargissent la vision traditionnelle de dépendance bilatérale entre firmes pour intégrer des combinaisons multidimensionnelles de ressources dans des écosystèmes d'innovation (Jacobides, Knudsen, et Augier 2006; Adner et Kapoor 2010), la métaphore de l'écosystème possède toutefois ses limites (Fréry, Gratacap, et Isckia 2012). Koenig (2012) montre ainsi les contradictions de cette notion et leurs effets sur les recherches. Par exemple, au niveau de la composition des ESA, la définition de Moore identifiant une multiplicité d'acteurs publics et privés organisés en un « centre » et une « périphérie », la littérature est partagée entre les définitions mentionnant les acteurs périphériques (Iansiti et Levien 2004; Teece 2007; Fréry, Gratacap, et Isckia 2012) et celles qui en minorent les possibilités d'action propre (Adner 2006; Pierce 2009; Adner et Kapoor 2010). En outre, la plupart des travaux dominants ne s'intéressent qu'à des firmes, délaissant les écosystèmes plus hétérogènes, intégrant par exemple des acteurs publics, des usagers ou des associations. De même, Moore n'ayant étudié que des écosystèmes « assez peu démocratiques, dans lesquels une firme exerce une influence dominante en raison du contrôle qu'elle détient sur les ressources clé de l'écosystème. » (Koenig 2012, p. 213), la littérature s'est davantage intéressée aux stratégies d'« espèce dominante » d'un écosystème, par exemple dans les travaux sur les stratégies de « keystone » (Iansiti et Levien 2004), de « focal firm » (Adner et Kapoor 2010) ou de « platform leader » (Gawer et Cusumano 2002; Gawer et Cusumano 2008). À chaque fois, un acteur dominant fournit une fonction centrale à un écosystème d'utilisateurs, nommés complementors, contribuant en retour à la création de valeur (Tee et 5 Gawer 2009). Selon Koenig, cela montre « le peu de place accordé dans les recherches empiriques aux écosystèmes de type communautaires » (Koenig 2012, p. 221), alors même qu'ils semblent particulièrement adaptés aux écosystèmes d'innovation (Donada et Fournier 2014) et beaucoup plus proches des approches des LLs qui nous intéressent dans cet article. Au niveau des écosystèmes communautaires, Koenig (2012) en distingue deux types: les « communautés de destin » et les « communautés de foisonnement ». Dans les deux cas, la dimension « communautaire » repose sur la décentralisation du contrôle exercé sur les ressources essentielles de l'écosystème. Le type d'interdépendance entre les membres varie entre les deux formes considérées. Dans la communauté de destin, les membres sont liés par des « interdépendances réciproques » (logique intégrative, fortes exigences de coordination et de communication), tandis que dans la communauté de foisonnement, les membres sont liés par des interdépendances de « pool » (logique transactionnelle, faibles exigences de coordination et de communication). Si la logique intégrative semble plus propice à l'innovation (Adler 2001), Koenig précise que : « Tous les types d'écosystème peuvent certes être facteurs d'innovation, mais selon des modalités propres à chaque type, ils peuvent tout aussi bien favoriser la reproduction. » (Koenig 2012, p.221) Cadrage et questions de recherche Au niveau des LLs, notre revue de la littérature montre que les LLs se distinguent des formes classiques d'organisation de la recherche et l'innovation par leur approche centrée utilisateurs, leur environnement constitué pour appréhender des données d'usage et de « vie réelle », ainsi que des objectifs d'impact en termes d'innovation sociale et de développement de communauté, même si cette dernière orientation peut être variable selon les LLs. Pour autant, notre analyse montre que les dynamiques d'écosystèmes développées par les LLs sont encore très insuffisamment étudiées dans la littérature. Certains travaux montrent comment un LL peut devenir une plateforme d'innovation ouverte pour un réseau d'acteurs locaux, constituant ainsi un écosystème d'innovation local, mais sans préciser de quel type d'écosystème il s'agit, ni détailler réellement ce que le concept d'écosystème apporte par rapport à la notion de réseau. De même, à notre connaissance, aucuns travaux n'envisagent comment différents LLs peuvent collaborer entre eux à une plus grande échelle, par exemple nationale, pour contribuer à structurer des écosystèmes plus englobant dans un secteur donné. Notre objectif est donc de contribuer à la littérature sur les LLs en l'articulant à une meilleure compréhension des dynamiques écosystémiques qui sont portées par certains LLs. Au niveau des écosystèmes, notre revue de la littérature confirme que la notion d'écosystème est très intéressante pour aborder la dynamique de développement des LLs. Elle insiste sur la notion de « communauté », centrale dans la plupart des LLs et permet de dépasser l'analyse de projets ponctuels pour intégrer une perspective plus stratégique de long terme. En revanche, notre analyse révèle également plusieurs contradictions du concept initial introduit par Moore (1993). En particulier, certains écosystèmes ne fonctionnent pas du tout comme des communautés de destin, reposant davantage sur des logiques transactionnelles classiques, par exemple sous la forme de plateforme ou d'offreur de services, sans que des logiques contributives de communautés y soient associées (Koenig 2012). D'ailleurs, la littérature existante a encore trop peu étudié les dynamiques d'écosystèmes communautaires. Celles-ci peuvent s'avérer complexes, intégrant des logiques propres de division du travail et de création de valeur, ainsi que des modes de gouvernance et de financement spécifiques, tenant compte du caractère ouvert et collaboratif de beaucoup de ces structures. Enfin, notre analyse 6 nous a permis de comprendre que toute dynamique d'écosystème ne favorise pas nécessairement l'innovation, mais peut parfois encourager la reproduction. De ce fait, la suite de l'article s'appuie sur l'analyse longitudinale de l'initiative en cours « CML Santé France » pour explorer comment les LLs peuvent contribuer à l'émergence d'écosystèmes communautaires d'innovation. En particulier, suivant les trois piliers des LLs de Veeckman et al (2013), nous chercherons à répondre aux questions suivantes : - Au niveau de l'approche des LLs : quelles démarches, méthodes et processus les Living Labs de l'initiative « CML Santé France » ont-ils développés pour favoriser des dynamiques écosystémiques ? - Au niveau de l'environnement des LLs : quelles transformations peut-on observer sur les modes et infrastructures de collaboration entre les LLs et leurs partenaires ? - Au niveau de l'impact : ces transformations dépassent-elles l'échelle de projets temporaires pour favoriser l'émergence d'écosystèmes communautaires d'innovation? La section suivante détaille la méthode retenue pour répondre à ces questions, ainsi que le contexte de notre recherche. CONTEXTE ET METHODES Contexte de la recherche Cette recherche porte sur une initiative nationale impulsée par le Forum des Living Labs en Santé et Autonomie (Forum LLSA) nommée « CML Santé France ». Cette initiative a été rendue publique par le Forum LLSA en 2018, lors de son séminaire annuel. Elle est également mentionnée dans le rapport « Réflexions stratégiques sur la politique industrielle en matière de dispositifs médicaux » issu de la mission lancée en octobre 2018 par le Ministre de l'économie, confiée au Conseil Général de l'Économie et publié en avril 2019. Le Forum LLSA n'est pas un Living Lab (LL) en soi, mais constitue une organisation à but non lucratif fédérant une communauté de près de 40 LLs français sur les thématiques de la santé et de l'autonomie, ainsi qu'une vingtaine d'autres membres impliqués dans les approches de type LL (Picard et Noury 2015). L'initiative « CML Santé France » s'inscrit dans le cadre d'un partenariat entre le Forum LLSA et le réseau Tech4health des Centres d'Investigation Clinique en Innovation Technologique (CIC-IT) de l'INSERM. Spécialisés dans la recherche clinique pour les projets de Medtech, les CIC-IT apportent un soutien aux chefs de projets et aux entreprises dans la conception des protocoles cliniques, la faisabilité technique, les contraintes réglementaires et l'évaluation, notamment en vue de la Certification Européenne, dit « Marquage CE ». L'initiative « CML Santé France » vise une transformation des processus d'innovation dans les Medtech en vue d'établir « un processus plus inclusif, lisible et structuré des processus d'innovation collaborative dans l'écosystème des Medtech français afin de favoriser l'émergence de solutions désirables, accessibles et viables » (source : Forum LLSA). Les Concept Maturity Levels (CML) Le nom de l'initiative « CML Santé France » se réfère directement aux travaux de la NASA dans le domaine de l'innovation spatiale. Les CML sont une métrique de maturité de concepts 7 développée par le Jet Propulsion Laboratory (JPL - CalTech/NASA) afin de traiter les phases de formulation les plus précoces des processus d'innovation dans les missions spatiales (Ziemer, Ervin, et Lang 2013). L'ambition est de combiner l'approche des CML avec les logiques d'appropriation des solutions thérapeutiques technologiques développées par les LLs. Pour le président du Forum LLSA, « cela s'impose car le patient, la personne âgée ou fragile, ne sont pas passives par rapport à ce type de solution mais doivent agir de façon convenable et à bon escient pour en tirer bénéfice. » Les CML s'inspirent des Technology Readiness Levels (TRL), également développés par le JPL dans les années 80. Les TRL permettent d'évaluer la robustesse des connaissances pour une technologie donnée à un moment donné, ils sont devenus un outil mondial d'organisation et de communication de projets de R&D, notamment en innovation ouverte. Les CML visent à étendre les TRL pour intégrer des dimensions complémentaires de la maturité technologique, en particulier : la maturité des besoins et usages (e.g. cibles, usages, marchés) et de la programmatique (e.g. organisation, ingénierie des compétences, financement, risques, partenariats) d'un projet d'innovation. Comme le montre la Figure 1, dans le spatial les CML sont organisés en neuf niveaux de maturité, du moins mature (CML1 – « Cocktail napkin ») au plus mature (CML9 – « Critical Design Review »). Figure 1 - Des TRL aux CML (adapté du JPL - Caltech/Nasa) Prelim Integrated B/L CML 7 Initial Design CML 6 Concept Baseline CML 5 Preferred Design Point within Trade Space CML 4 Trade Space CML 3 Initial Feasibility F=ma Cocktail Napkin Méthode : une étude de cas longitudinale à visée abductive Notre article repose sur l'étude de cas longitudinale de l'initiative « CML Santé France ». Le choix d'une étude de cas, ainsi que de la logique abductive de notre recherche se justifient du fait que les LLs sont encore un nouveau phénomène (Yin 2003). Probablement précurseurs d'un nouveau rapport à l'expérimentation dans la société, les LLs font en outre intervenir de nombreux acteurs, aux cultures et expertises variées, et selon des modalités de participation encore mal appréhendées (Hakkarainen et Hyysalo 2013). Face à ce type de phénomène en émergence, la stratégie abductive de phenomenon-based research semble la plus adaptée : « Phenomenon-based research represents an important early phase within scientific inquiry. 8 CML 2 CML 1 In seeking to account for complex phenomena, researchers avoid beginning their analyses with the a priori formulation of hypotheses. []. Initial studies generate insights based on exploratory work, yielding data and research strategies that inform subsequent research designs. » (von Krogh, Rossi-Lamastra, et Haefliger 2012). Selon von Krogh et al (2012), la phase de développement du phénomène (embryonic, growth ou mature) nécessite des stratégies de recherche adaptées (distinguishing, exploring, designing, theorizing ou synthesizing). D'après la littérature sur les LLs (Leminen et Westerlund 2019) et nos propres observations, le phénomène des LLs est récemment entré dans une phase de croissance (growth). En revanche, le phénomène d'écosystème communautaire d'innovation, impliquant plusieurs LLs coopérant ensemble à une échelle globale et avec d'autres partenaires est nouveau. Certains concepts ont été proposés dans la littérature sur les LLs (réseaux d'innovation, plateforme d'innovation, écosystèmes), mais aucun ne semble encore suffisamment développé pour caractériser le phénomène avec précision. D'un point de vue conceptuel, la notion d'écosystème utilisée dans cette littérature n'est pas suffisamment précisée, il est difficile de savoir ce qu'elle désigne réellement comme phénomène. D'un point de vue empirique, le phénomène d'écosystème communautaire a été très peu étudié (Koenig 2012) et jamais, à notre connaissance, à une échelle autre que locale. Notre stratégie de recherche se positionne donc dans les stratégies de « caractérisation » (distinguishing) et d' « exploration » (exploring) du phénomène étudié. Cette stratégie de recherche justifie le recours à un récit longitudinal (narratives) pour restituer nos données d'observation, cette stratégie étant recommandée pour reconstruire des processus de transformation longs et complexes (Pettigrew 1990; Pettigrew 1992; Langley 1999). De la sorte, notre objectif est autant de contribuer à mieux comprendre le phénomène de ces nouveaux écosystèmes d'innovation que de proposer des notions théoriques pour mieux l'appréhender, suivant en cela von Krogh et al (2012) : « Approaching a phenomenon in a systematic way enables researchers to distinguish aspects of the phenomenon, propose and select theories, and conduct research using various types of research designs. » Comme le montre le Tableau 1, la collecte des données a eu lieu en deux grandes phases. La première couvre la genèse et le développement de l'initiative « CML Santé France », la seconde ses premières actions d'expérimentation et de diffusion. L'objectif général était de produire un récit longitudinal de l'initiative « CML Santé France » afin d'analyser ses conséquences en termes d'approche des LLs participants à l'initiative, mais également de transformations de leur l'environnement et d'impact global au niveau de l'écosystème des Medtech en France. L'ensemble de cette collecte de données a reposé sur des sources multiples, incluant une observation participante aux groupes de travail, aux moments de restitution et aux 20 entretiens semi-directifs effectués entre juin et juillet 2018. De même, l'analyse des documents de travail du groupe « CML Santé » et de ses partenaires a permis de reconstituer ce récit en intégrant et confrontant les différents points de vue. Au niveau de la première phase de la recherche, l'objectif était de collecter des données sur la genèse et le développement de l'approche « CML Santé France ». Outre la participation aux différentes actions du groupe « CML Santé », cette phase de la recherche s'est appuyée sur la participation à l'étude de cas multiples (Eisenhardt 2007) réalisée par l'équipe CML Santé. Afin de limiter les biais (Davis, Eisenhardt, et Bingham 2007) chaque étude de cas a fait l'objet d'au moins trois entretiens avec différentes personnes de l'écosystème impliqué. Les personnes interviewées ont notamment inclus: le chef de projet, le coordinateur du Living Lab ou du CIC-IT, un membre de l'équipe opérationnelle, un partenaire industriel extérieur. En 9 raison des difficultés d'accessibilité post-projet, aucun entretien n'a pu être réalisé avec des patients. Avant chaque entretien, un document décrivant la recherche a été envoyé. Ce document précisait les informations nécessaires à la bonne documentation des études de cas, en particulier : la description de l'écosystème des organisations impliquées dans le projet ; la proposition de valeur de la solution ; la population cible (patients, professionnels de santé) et l'environnement d'usage ; la classification de la solution selon la classification européenne des dispositifs médicaux ; les principales étapes du projet ; le type de données collectées. Les entretiens, d'une durée moyenne de 2h chacun, ont visé à expliciter les pratiques de projet d'innovation. Ils ont tous été retranscrits en intégralité. En termes de déroulement, après une introduction rappelant les objectifs de la recherche, ils ont systématiquement abordé les points suivants : le parcours professionnel de l'interviewé et son rôle dans le projet ; l'approche, l'environnement et l'impact du projet (en utilisant la documentation demandée au préalable), les difficultés rencontrées (changement du périmètre, problèmes de délai, qualité, relations avec les partenaires, etc.) ; les pratiques utilisées pour résoudre les problèmes rencontrés (tests, collaborations, etc.). Ces entretiens ont tous été analysés de façon thématique. En particulier, nous avons pu avoir accès au double codage réalisé par l'équipe « CML santé » selon les trois domaines de la méthodologie CML : marché/usage, organisation/réglementaire, technologie. Ce travail nous a permis de réaliser un deuxième niveau de codage pour regrouper les éléments relevant de nos trois niveaux d'analyse : l'approche, l'environnement et l'impact des projets sur les écosystèmes considérés. Au niveau de la seconde phase de recherche, notre objectif était de collecter des données sur les activités d'expérimentation et de diffusion de l'approche « CML Santé France ». De même que dans la première phase, en sus de la participation aux groupes de travail CML Santé, cette phase de recherche s'est appuyée sur une analyse de cas complémentaire. Cette fois-ci, nous ne pouvions recourir à une étude de cas multiples, faute de projets d'expérimentation lancés, et nous avons opté pour une analyse longitudinale de la première expérimentation « in vivo » menée par l'équipe CML Santé pour tester son approche. Nous avons collecté des données selon la méthodologie de l'étude de cas (Yin 2003) à partir des comptes rendus de l'équipe projet concernée, ainsi que des entretiens complémentaires avec le coordonnateur de l'expérimentation. Ces entretiens visaient une explicitation de la documentation. Ils n'ont pas été retranscrits ni codés à ce stade, mais pourraient l'être dans une recherche future. 10 Tableau 1 - Synthèse du contexte, des matériaux et de la méthode suivie 11 RESULTATS Dans cette partie nous présentons l'initiative « CML Santé France » de sa phase de genèse jusqu'à son aboutissement actuel, en passant par les étapes intermédiaires ayant permis au Forum LLSA et ses partenaires de développer l'approche des « CML Santé ». Les Tableaux 2 et 3 résument les principales observations documentées pour chacune des phases, ainsi que les interprétations que cet article propose. Il est organisé selon le triangle LL de Veeckman et al (2013) : approche, environnement et impact (outcome) sur l'écosystème d'innovation. Genèse de l'initiative : le groupe EVAL du Forum LLSA Au niveau de l'environnement, l'initiative « CML Santé France » est issue d'un groupe de travail du Forum LLSA sur l'évaluation d'usage lancé en mars 2017. Nommé « EVAL », ce groupe part du constat que les LLs sont de plus en plus sollicités pour des évaluations d'usage des dispositifs médicaux (ex. : accessibilité, appropriation, désirabilité). Il est constitué d'une quinzaine de personnes, associant, pour la première fois, le Forum LLSA au réseau Tech4Health des CIC-IT de l'INSERM. Ces derniers ont participé à l'élaboration du mandat du groupe. À l'exception d'un (EVALAB, du CHRU de Lille), aucun de ces CIC-IT n'était membre du Forum LLSA au départ. Au niveau de l'approche, une démarche compréhensive et participative est retenue. Elle vise à recueillir l'expérience de terrain à partir d'une sélection de cas correspondant à différents types de dispositifs médicaux, positionnés à différents moments du cycle de vie d'un produit. Sept projets sont finalement sélectionnés, permettant de commencer une documentation partagée des pratiques. Des tableaux comparatifs sont établis entre les méthodologies publiées par Tech4Health (Méthodologie ITECH) et le Forum LLSA (Picard 2017). L'analyse fait apparaître que les méthodes sont superposables au niveau des grandes étapes, mais que la description plus détaillées des étapes de travail diffère ainsi que leurs libellés. Au niveau de l'impact potentiel, ce travail révèle les phases « amont » sont les moins formalisées alors même qu'elles sont les plus problématiques. Le groupe perçoit la nécessité de s'intéresser de façon plus fine à « ce qui se passe vraiment dans les projets, dans une logique compréhensive ». En janvier 2018, il invite un chercheur en sciences de gestion, figurant parmi les auteurs du présent article, à présenter un retour d'expérience dans le cas du spatial. Celui-ci présente alors le développement des CML du Jet Propulsion Laboratory (JPL - Caltech/Nasa) et sa déclinaison en France au Centre National d'Études spatiales (CNES). La présentation des CML trouve un fort écho auprès du groupe EVAL. En analogie avec les activités de maturation de concepts innovants dans le spatial, le groupe explique que « dans beaucoup de projets de Medtech, il manque un effort de conception suffisant, on manque de temps. Ménager ce temps de maturation est un réel problème managérial. » Les porteurs des projets présentés dans le groupe EVAL donnent leur accord pour participer à un nouveau travail d'analyse approfondie sur les phases amont des processus d'innovation. En mars 2018, une équipe « CML Santé » est formée avec le mandat de mener cette « étude compréhensive » et approfondir les travaux du groupe EVAL en utilisant la méthodologie des CML. Développement de l'initiative : la formalisation des « CML santé » En termes d'approche, l'étude compréhensive se déroule de juillet à décembre 2018, elle vise tout d'abord à formaliser une méthodologie de type CML dans le domaine de la santé à partir 12 des pratiques et expériences de terrain. Cinq projets sont analysés, allant d'un dispositif de prévention des hémorragies du post-partum (Hemogyn 2) à un projet de bracelet dédié aux patients atteints d'apnée du sommeil (Motio), en passant par un dispositif de suivi des paramètres physiologiques de personnes en perte d'autonomie (Careware) ou encore un verre connecté permettant une automatisation du suivi des prises hydriques avec traçabilité (Connected Glass). Ces projets sont portés par des structures différentes incluant des LLs et des CIC-IT dans différentes régions de France : le CIC-IT de Grenoble, Kyomed (Montpellier), Innov-Autonomie (Nancy), Evalab (Lille) et le CHL/I2ML (Occitanie). Tableau 2 – Synthèse des résultats pour les phases de genèse et de développement Cette étude exploratoire aboutit à une première version des CML Santé. Elle distingue trois « drivers » des projets : les besoins et usages ; les systèmes et technologies ; l'organisation et la réglementation. Six niveaux de maturité sont définis, de la formulation de l'idée initiale (CML1) à la définition d'un plan de transfert préparant l'industrialisation (CML6). Ces CML sont ensuite positionnés sur un nouveau processus d'innovation collaborative (Cf. Figure 2) devant permettre aux différents partenaires d'un projet de Medtech (LLs, industriels, patients, professionnels, financeurs) de se coordonner selon le niveau de maturité du projet sur les différents « drivers ». Cette approche est présentée à tous les membres du Forum LLSA, et certains invités extérieurs, lors de son séminaire annuel du 17 octobre 2018. 13 Figure 2 - Première version de l'approche « CML Santé » (source : Forum LLSA) En termes d'environnement de travail et d'infrastructure, la première version du processus ayant été jugée positivement par les participants, elle permet à l'équipe « CML Santé » de lancer une seconde phase de la démarche. Il s'agit, d'une part, de poursuivre la définition des niveaux de maturité en les testant auprès de nouveaux acteurs. Cette action est réalisée sous la forme d'ateliers rassemblant une trentaine d'experts de l'écosystème des Medtech, spécialistes des trois « drivers » (besoins et usages ; systèmes et technologies ; organisation et la réglementation). D'autre part, le Forum LLSA et ses partenaires décident de financer sur fonds propre la réalisation d'un prototype fonctionnel d'un nouveau type de plateforme collaborative fondée sur les « CML Santé », puis de l'expérimenter. Expérimentation : tester in vivo un nouveau modèle d'innovation collaborative Un benchmark des plateformes collaboratives existantes révèle qu'il n'existe pas de solution répondant de façon satisfaisante à l'objectif poursuivi. Plusieurs scénarios d'usage sont réalisés (porteurs, startups, patients, experts, financeurs). En mars 2019, un premier scénario de « porteur de projet » est prototypé. Le terrain mobilisé est un groupement breton porteur d'une réponse à l'appel à projet TIGA « Territoire d'innovation de grande ambition » du PIA 3, dans le secteur du handicap, et dont plusieurs acteurs sont membres du Forum LLSA (ID2 Santé et les 3 LLSA de Bretagne). L'analyse de cette expérimentation convainc l'équipe « CML Santé » que l'implémentation de leur scénario est adaptée pour la gestion des collaborations entre les porteurs et les acteurs de leur écosystème. Un deuxième projet est identifié comme terrain d'expérimentation de la démarche, y compris la poursuite du prototypage de la plateforme collaborative. Ce projet de « gîte de répit », émane de Malakoff Médéric Humanis (MMH). Le groupe paritaire de protection sociale français, dans une activité de plus en plus concurrentielle, cherche à se différencier par le repérage et le soutien à des projets d'innovation collaborative au service des adhérents. Mais les responsables chargés d'évaluer les innovations en santé et sociales, proposées par les industriels, ne disposent que de peu d'éléments de preuve. Le projet de gîte de répit, porté par 14 une association issue du monde du handicap devient une opportunité pour tester, avec la contribution du Forum LLSA, un nouveau modèle d'innovation ouverte. L'association « Le laboratoire de répit » vise à développer un nouveau concept de gîte de répit inclusif pour les parents, aidants familiaux, qui accompagnent au quotidien des enfants en situation de handicap lourd. Le gîte se veut « un lieu expérimental d'inclusion et d'innovation sociale, un écosystème pour favoriser le mieux vivre ensemble ». Parmi ses objectifs, figure celui de devenir un catalyseur de développement technologique via l'expérimentation et l'usage, mais cette ambition est encore en phase de cristallisation. Sur proposition de MMH, l'association « Le laboratoire de répit » décide de collaborer avec le Forum LLSA. Le Forum LLSA souhaite faire de ce projet un démonstrateur d'un nouveau modèle d'innovation ouverte fondé sur les CML Santé. L'idée est de mobiliser « une diversité de Living Labs pour tirer le meilleur parti du potentiel de valeur du collectif. » La phase de lancement est réalisée par le Forum LLSA sous le contrôle de l'association bénéficiaire, gestionnaire du site. Le Forum assure la diffusion vers les LLSA membres d'un appel à manifestation d'intérêt (AMI) rédigé par l'association. La méthodologie CML est fixée comme cadre de positionnement des candidats. Les experts du Forum participent à la qualification et au positionnement des différentes expertises mobilisées dans le projet. En termes d'approche, le partenariat entre MMH, le Forum LLSA, Le Laboratoire de répit et 5 Living Labs permet de tester en vie réelle plusieurs objets connectés, des solutions de domotique, ainsi que des applications. Toutes déjà commercialisées, bien que parfois de façon non totalement aboutie, ces solutions améliorent l'accessibilité du site et le « bien vivre ensemble » pour les familles accueillies. Suite à ces tests, le Laboratoire de répit propose d'étendre la démarche à de nouveaux bâtiments à vocations diverses, en poursuivant les observations par un retour d'expérience des bénéficiaires : « Les aidants collaboreront ainsi activement à l'optimisation des solutions, et les fabricants pourront tester sur un marché de niche des solutions qui peuvent avoir vocation à être commercialisés à grande échelle ». Au niveau de l'impact, Le Laboratoire de répit développe une nouvelle proposition de valeur: « L'objectif n'est plus d'équiper un gite, mais celui de créer une structure en capacité de définir et mettre en oeuvre en continu les solutions techniques les plus adaptées aux besoins des familles.» Des méthodes et processus génériques se formalisent pour définir des services complémentaires, rendant possible l'intégration d'offreurs industriels innovants, désireux de valider l'attractivité de leur offre auprès des familles. À la fin de l'expérimentation, Le Laboratoire de répit annonce conserver les CML « comme élément clé de la maîtrise de cette programmation complexe », ainsi que dans la structuration de son écosystème. De premières actions de diffusion en France et à l'international Les actions génèrent des expériences jugées suffisamment positives pour une diffusion plus large. L'expérimentation avec le TIGA de Bretagne inspire les porteurs d'un autre TIGA Santé, dans la région Grand Est, qui décident d'investir dans une plateforme de type CML. De même, le CEA, via le LETI, rejoint le groupe de travail CML avec des chercheurs de l'École des Mines de Saint Etienne, pour travailler à la définition des CML préparant l'industrialisation des Medtech, c'est-à-dire des CML 5 à 9. Enfin, Calyxis, pôle d'expertise du risque porteur d'un LL membre du Forum LLSA, décide, avec le soutien de sa Région, de mettre en place une plateforme CML Santé pour faciliter la collaboration entre ses membres. 15 Dans une optique de « création de communs », une diffusion de l'approche CML Santé démarre très tôt au sein des réseaux partenaires (Réseau des CIC-IT, CA du Forum LLSA), puis s'élargit lors de communications internationales (Béjean et al. 2019; Béjean et Siqueira 2019) et l'organisation d'un événement académique (« Designing Future Health Innovations as Needed », BIOSTEC, Prague, février 2019). De même, les CML Santé sont intégrés dans une formation internationale pour de jeunes professionnels en charge de projets innovants de Medtech (ClinMeD/EIT Health, Grenoble, Juillet 2019). Enfin, le séminaire annuel du Forum 2019, ouvert aux non adhérents, inscrit ce thème à son programme et propose des ateliers de découverte de l'approche CML Santé à une centaine de participants. Au niveau européen, ces résultats et perspectives de déploiement sont présentés lors du Think Tank de la composante française du European Institute of Innovation and Technology (EIT), dont le compte-rendu est intégré aux réflexions stratégiques de l'EIT Health au niveau européen, dédié, en 2019, à la maîtrise du processus d'innovation dans les Medtech. Tableau 3 - Synthèse des résultats des phases d'expérimentation et de diffusion de l'initiative DISCUSSION En s'appuyant sur les résultats issus de l'étude longitudinale de l'initiative « CML Santé France », cette section présente deux axes de discussion intégrant les trois piliers identifiés dans la littérature : approche, environnement et impact des LLs (Veeckman et al. 2013). Approche et environnement : co-construction et plateforme collaborative 16 Au niveau de l'approche les LLs du Forum LLSA ont pu mobiliser leur capacité à coconcevoir avec les acteurs de leur écosystème, engageant une collaboration avec les CIC-IT de l'INSERM pour dépasser des difficultés méthodologiques lors des expérimentations et évaluations des projets d'innovation dans les Medtech. Dans le cadre de l'initiative « CML Santé France », l'approche impulsée par le Forum LLSA semble avoir permis de réconcilier les exigences de chacune des deux parties prenantes initiales (LLs et CIC-IT), en clarifiant les compétences de chacune, ainsi que les tâches à accomplir avant, pendant et après les essais cliniques, à chaque niveau de maturité. Une telle approche a permis d'expérimenter un nouveau modèle d'innovation collaborative dans le cas du projet mené avec l'association « Le laboratoire de répit ». Au-delà des cinq LLs et de leurs partenaires initiaux, ce modèle a permis d'ouvrir le projet aux utilisateurs du gîte, en particulier les parents des enfants handicapés, ainsi qu'à de nouveaux partenaires industriels souhaitant tester leurs technologies. Cette recherche a également permis d'analyser la mise-en-oeuvre d'une approche LL, non pas au niveau d'un projet d'innovation donné, mais au niveau d'une nouvelle méthodologie d'évaluation : les « CML Santé ». La manière dont cette métrique a été développée est à ce titre originale. Bruin et Rosemann (2005) estiment que, d'habitude, les difficultés pour développer des métriques de maturité ne concernent pas la formalisation d'un modèle, mais avant tout son adéquation, fondée expérimentalement, et son appropriation, assortie d'améliorations continues issues, tant des opérationnels que des décideurs. De même, selon Mettler (2011), trois types de limites existent : (i) beaucoup des modèles ne décrivent pas les actions concrètes à mettre en place pour structurer la maturation ; (ii) une « fausse certitude » (falsified certainty) est donnée aux décideurs, l'emphase sur les processus masquant les compétences réelles nécessaires aux professionnels pour s'engager et agir ; (iii) une focalisation trop forte sur la formalisation et l'amélioration entraîne une bureaucratisation qui limite les capacités d'innovation des acteurs de l'écosystème. L'approche collaborative et expérimentale, retenue par le Forum LLSA et ses partenaires, semble avoir permis de dépasser les trois limites pointées par la littérature. Au-delà d'une formalisation « papier » des différents attributs et niveaux de maturité d'un nouveau concept dans les Medtech, l'approche de co-construction et de test en situation de vie réelle a permis aux acteurs de l'initiative d'intégrer : (i) les outils et actions concrètes à mettre en place pour structurer leurs activités de maturation ; (ii) une cartographie des compétences nécessaires aux acteurs pour s'impliquer et agir réellement dans les projets (ex. : Laboratoire de répit), ainsi que des modes d'accompagnement et de formation pour les patients et les professionnels ; (iii) enfin, de prototyper un nouveau type de plateforme collaborative intégrant les CML Santé de façon dynamique. S'il est trop tôt pour évaluer son efficacité, son expérimentation semble avoir permis aux acteurs de gérer des collaborations complexes sans réduire leurs capacités d'innovation. Au niveau du pilier environnement, il s'agit, à notre connaissance, d'un type d'infrastructure d'innovation collaborative jusqu'ici non étudié dans la littérature sur les LLs. Impact : tiers de la transformation et écosystèmes d'innovation Notre étude longitudinale confirme la capacité des LLs à créer et animer des réseaux d'innovation dynamiques (Leminen, Westerlund, et Nyström 2012; Schuurman, De Marez, et Ballon 2013; Leminen, Rajahonka, et Westerlund 2017; Del Vecchio et al. 2017). Par exemple, dans les deux cas d'expérimentation in vivo (Laboratoire de répit et Bretagne) les LLs ont montré leur capacité, au-delà de projets d'innovation temporaires, à structurer l'émergence de réseaux et d'écosystèmes ouverts et collaboratifs sur le long terme. Dans ces deux cas, les écosystèmes développés localement dans notre recherche correspondent assez 17 bien à ce que la littérature existante a déjà décrit. En revanche, une dynamique d'écosystème au niveau interrégional, national et, depuis peu, européen, telle que celle induite par l'initiative CML Santé France n'avait jamais été étudiée à notre connaissance. Proposant la notion d' « écosystème communautaire » (Koenig 2012) pour analyser les dynamiques de réseaux formées par des LLs, notre approche a ainsi permis de révéler des impacts à grande échelle jusqu'ici non considérés dans les travaux sur les LLs. Nos observations suggèrent que l'initiative CML Santé France est en train de développer un langage partagé au niveau de l'écosystème des Medtech, reconfigurant la division du travail (ex : définition des tâches par CML), les modes de captation de la valeur (ex. meilleure reconnaissance de la valeur contributive des LLs), ainsi que les modes de financement (ex. : meilleure appréciation des risques pour les financeurs mutualistes comme Malakoff Médéric selon les CML considérés). L'ensemble a permis d'articuler les modèles d'usages, d'organisation et d'affaires, tout en conservant les modes d'expression et d'accompagnement des patients et des professionnels de santé propres à la philosophie des LLs. Enfin, notre recherche ouvre la question du statut des tiers de confiance dans ce type de transformation. En effet, dans le cas d'écosystèmes industriels classiques, la littérature existante focalise son attention sur les acteurs cherchant à façonner l'architecture industrielle de leur secteur en vue d'obtenir un « avantage concurrentiel » (keystonne advantage) (Iansiti et Levien 2004) ou « architectural » (architectural advantage) (Ferraro et Gurses 2009) pour s'arroger une position dominante dans la division du travail et capter le maximum de valeur. Beaucoup de termes existent alors pour désigner ces acteurs dominants cherchant à capter les transformations écosystémiques à leur profit, allant de la keystone firm (Iansiti et Levien 2004) à la focal firm (Adner et Kapoor 2010), en passant par le platform leader (Gawer et Cusumano 2014) ou encore l'architecte de l'inconnu (Agogué et al. 2013). Cependant, tout en étant utiles à notre stratégie abductive d'exploration (exploring) du phénomène, elles semblent insuffisantes pour notre ambition de le caractériser en propre (distinguishing). En effet, dans le cas que nous avons étudié, bien que de fortes logiques transactionnelles puissent exister entre les acteurs des Medtech, le Forum LLSA semble avoir joué un rôle de structuration différent de ceux habituellement considérés dans la littérature stratégique. Du fait de son attachement aux valeurs des LLs, il a veillé à garantir le libre partage des résultats de ses travaux, y compris du prototype de plateforme collaborative. À ce titre, il fonctionne davantage selon la logique de la communauté des LLs, décrite dans la littérature (Picard 2018; Westerlund, Leminen, et Habib 2018), que celle du marché, c'est-à-dire en cherchant un alignement sur les valeurs, avec une visée de création de commun et un rôle de tiers de confiance (Fasshauer et Zadra-Veil 2020). Au total, le Forum LLSA semble avoir joué ce rôle de tiers de confiance, également décrit récemment comme celui d'une « institution frontière » (Berthou 2018). Sa dynamique d'impulsion, de co-construction et d'accompagnement de la transformation demeure cependant encore mal appréhendée. Une telle observation pourrait être approfondie dans des recherches futures et ce serait une manière de contribuer à la littérature sur les « écosystèmes communautaires » encore trop peu étudiés. CONCLUSION ET PISTES DE RECHERCHE Notre recherche visait à répondre à trois types de questions à différents niveaux de l'écosystème des Medtech. Au niveau de l'approche des LLs, la recherche suggère que l'initiative « CML Santé France » s'est fondée sur les principes des LLs tout en la dépassant 18 pour intégrer des logiques d'écosystèmes plus globaux que ceux d'un projet donné. Ainsi, audelà d'une formalisation « papier » d'une méthodologie d'innovation commune, l'approche retenue s'est appuyée sur des logiques de co-construction et d'expérimentation en situation de vie réelle et multi-partenaires. Au niveau de l'environnement, cette initiative a permis de formaliser un langage partagé, les CML santé, et un prototype fonctionnel de plateforme collaborative, ayant été utilisés pour tester de nouveaux modèles d'innovation collaborative. Au niveau de l'impact global, l'initiative CML Santé France semble avoir eu un impact sur l'écosystème des Medtech, reconfigurant la division du travail (ex : meilleure formalisation des tâches et compétences d'innovation), les modes de captation de la valeur (ex. meilleure reconnaissance de la valeur contributive des acteurs), ainsi que les modes de financement (ex. : meilleure appréciation des risques pour les financeurs). En sus de contribuer à la littérature sur les LLs en explorant (exploring) un nouveau phénomène, notre recherche a permis de pointer les difficultés de caractérisation (distinguishing) des écosystèmes d'innovation fondés sur des logiques de communauté et de biens communs. En particulier, le rôle déterminant du Forum LLSA dans l'initiative étudiée montre l'importance d'un acteur en charge d'impulser une dynamique, de la nourrir et la partager, dans le but d'accompagner les transformations visées. Ce rôle de tiers de confiance, joué ici par le Forum LLSA, nous semble encore mal appréhendé par les notions existantes de platform leader ou d'architecte de l'industrie. Apparemment déterminante, cette question pourrait être explorée dans de futures recherches dans le but de mieux caractériser et distinguer les écosystèmes d'innovation fondés sur des logiques de communauté, par rapport à ceux, plus classiques, qui se fondent sur les logiques transactionnelles du marché. RÉFÉRENCES ADLER, P. S. 2001. Market, Hierarchy, and Trust: The Knowledge Economy and the Future of Capitalism. Organization Science 12 (2): 215‐34. ADNER, R. 2006. Match your innovation strategy to your innovation ecosystem. Harvard Business Review 84 (4): 1‐11. ADNER, R., et R. KAPOOR. 2010. Value creation in innovation ecosystems: how the structure of technological interdependence affects firm performance in new technology generations. Strategic Management Journal 31 (3): 306‐33. AGOGUE, M., G. COMTET, J.-F. MENUDET, R. PICARD, et P. LE MASSON. 2013. Managing innovative design within the health ecosystem : the Living Lab as an architect of the unknown. Management & Avenir Santé 1 (1): 17. AUBOUIN, N., et I. CAPDEVILA. 2019. La gestion des communautés de connaissances au sein des espaces de créativité et innovation : une variété de logiques de collaboration. Innovations 58 (1): 105. BAJGIER, S. M., H. D. MARAGAH, M. S. SACCUCCI, A. VERZILLI, et V. R. PRYBUTOK. 1991. Introducing Students to Community Operations Research by Using a City Neighborhood As A Living Laboratory. Operations Research 39 (5). INFORMS : 701‐9. BEJEAN, M., et J.-C. MOISDON. 2017. Recherche-intervention et Living Labs, une même lignée de « recherches immersives » ? Annales des Mines - Réalités industrielles Mai 2017 (2). Annales des mines: 54‐9. BEJEAN, M., et E. SIQUEIRA. 2019. Organizing Medtech Innovation with Concept Maturity Levels. In BIOSTEC - ClinMed19 - Special Session on Designing Future Health Innovations as Needed, Prague. 19 BEJEAN, M., A. MARTIN, R. PICARD, et E. SIQUEIRA. 2019. Coping with uncertainty for innovative concept maturation: exploring Concept Maturity Levels in MedTech innovation. In R&D Management conference. Paris, Polytechnique. BERTHOU, V. 2018. De l'intention d'innovation à son institutionnalisation : Le cas des Living Labs en Santé & Autonomie. Université Technologique de Troyes. CHESBROUGH, H. W. 2003. Open innovation: the new imperative for creating and profiting from technology. Harvard Business School Press. DAVIS, J. P., K. M. EISENHARDT, et C. B. BINGHAM. 2007. Developing theory through simulation methods. Academy of Management Review 32 (2): 480‐99. DONADA, C., et G. FOURNIER. 2014. Stratégie industrielle pour un écosystème en émergence : le cas de la mobilité 2.0, décarbonée, intermodale et collaborative. Revue d'économie industrielle 4 (148): 317‐48. DUTILLEUL, B., F. A. J. BIRRER, et W. MENSINK. 2010. Unpacking European Living Labs: Analysing Innovation's Social Dimensions. Central European Journal of Public Policy 4 (1): 60‐85. EISENHARDT, K. M. 2007. Theory building from cases: opportunities and challenges. Academy of Management Journal 50 (1): 25‐32. FASSHAUER, I., et C. ZADRA-VEIL. 2020. Le living lab, un intermédiaire d'innovation ouverte pour les territoires ruraux ou péri-urbains ? Innovations 61 (1): 15. FERRARO, F., et K. GURSES. 2009. Building architectural advantage in the US motion picture industry: Lew Wasserman and the Music Corporation of America. European Management Review 6 (4): 233‐49. FRERY, F., A. GRATACAP, et T. ISCKIA. 2012. Les écosystèmes d'affaires, par-delà la métaphore. Revue Francaise de Gestion 3 (222): 69‐75. GAWER, A., et M. A. CUSUMANO. 2002. Platform leadership: How Intel, Microsoft, and Cisco Drive Industry Innovation. Boston, MA, USA: Harvard Business School Press. GAWER, A., et M. A. CUSUMANO. 2008. How Companies Become Platform Leaders. MIT Sloan Management Review 49 (2): 28‐35. GAWER, A., et M. A. CUSUMANO. 2014. Industry Platforms and Ecosystem Innovation. Journal of Product Innovation Management 31 (3): 417‐33. HAKKARAINEN, L., et S. HYYSALO. 2013. How Do We Keep the Living Laboratory Alive? Learning and Conflicts in Living Lab Collaboration. Technology Innovation Management Review 3 (12): 16‐22. VON HIPPEL, E. 1986. Lead Users: A Source of Novel Product Concepts. Management Science 32 (7): 791‐805. IANSITI, M., et R. LEVIEN. 2004. Strategy as Ecology. Harvard Business Review 82 (3): 68‐78. JACOBIDES, M. G., et S. BILLINGER. 2006. Designing the Boundaries of the Firm : From « Make, Buy, or Ally » to the Dynamic Benefits of Vertical Architecture. Organization Science 17 (April): 249‐61. JACOBIDES, M. G., T. KNUDSEN, et M. AUGIER. 2006. Benefiting from innovation: Value creation, value appropriation and the role of industry architectures. Research Policy 35 (8): 1200‐21. KOENIG, G. 2012. Le concept d'écosystème d'affaires revisité. M@n@gement 15 (2): 209. VON KROGH, G., C. ROSSI-LAMASTRA, et S. HAEFLIGER. 2012. Phenomenon-based Research in Management and Organisation Science: When is it Rigorous and Does it Matter? Long Range Planning 45 (4): 277‐98. LANGLEY, A. 1999. Strategies for Theorizing from Process Data. The Academy of 20 Management Review 24 (4): 691. LEMINEN, S. 2013. Coordination and Participation in Living Lab Networks. Technology Innovation Management Review 3 (11): 5‐14. LEMINEN, S., et M. WESTERLUND. 2019. Living labs: From scattered initiatives to a global movement. Creativity and Innovation Management 28 (2): 250‐64. LEMINEN, S., M. WESTERLUND, et M. J. Kortelainen. 2012. A Recipe for Innovation through Living Lab Networks. In XXIII ISPIM Conference. Barcelona. LEMINEN, S., M. WESTERLUND, et A.-G. NYSTRÖM. 2012. Living Labs as OpenInnovation Networks. Technology Innovation Management Review 2 (9): 6‐11. LEMINEN, S., M. WESTERLUND, et A. G. NYSTRÖM. 2014. On becoming creative consumers - user roles in living labs networks. International Journal of Technology Marketing 9 (1): 33. LEMINEN, S., M. RAJAHONKA, et M. WESTERLUND. 2017. Towards Third-Generation Living Lab Networks in Cities. Technology Innovation Management Review 7 (11): 21‐35. LENNE, L. 2017. Humanicité, de l'utopie à l'hétérotopie. Recherche en InformationCommunication accompagnant un projet d'innovation urbaine. Thèse de doctorat. Lille: Université de Lille 3, GERIICO. MOORE, J. F. 1993. Predators and Prey: A New Ecology of Competition. Harvard Business Review 71 (3): 75‐86. PETTIGREW, A. M. 1990. Longitudinal Field Research on Change: Theory and Practice. Organization Science 1 (3): 267‐92. PETTIGREW, A. M. 1992. The character and significance of strategy process research. Strategic Management Journal 13 (S2): 5‐16. PICARD, R. 2017. La co-conception en living lab santé et autonomie. , concepts, méthodes et outils. Édité par Robert Picard. London: ISTE editions. PICARD, R. 2018. Connected healthcare for the citizen. ISTE Press. London: Elsevier. PICARD, R., et N. NOURY. 2015. The development of the living lab approach in the health and autonomy sector. In 17th International Conference on E-health Networking, Application & Services (HealthCom), 182‐8. Boston, MA, USA. PIERCE, L. 2009. Big losses in ecosystem niches: how core firm decisions drive complementary product shakeouts. Strategic Management Journal 30 (3): 323‐47. SCHUURMAN, D., L. DE MAREZ, et P. BALLON. 2013. Open Innovation Processes in Living Lab Innovation Systems: Insights from the LeYLab. Technology Innovation Management Review 3 (11): 28‐36. TEE, R., et A. GAWER. 2009. Industry architecture as a determinant of successful platform strategies: a case study of the i-mode mobile Internet service. European Management Review 6 (4): 217‐32. TEECE, D. J. 2007. Explicating dynamic capabilities: The nature and microfoundations of (sustainable) enterprise performance. Strategic Management Journal 28 (13): 1319‐50. DEL VECCHIO, P., G. ELIA, V. NDOU, G. SECUNDO, et F. SPECCHIA. 2017. Living lab as an approach to activate dynamic innovation ecosystems and networks: An empirical study. International Journal of Innovation and Technology Management 14 (5): 1750024. VEECKMAN, C., D. SCHUURMAN, S. LEMINEN, et M. WESTERLUND. 2013. Linking Living Lab Characteristics and Their Outcomes: Towards a Conceptual Framework. Technology Innovation Management Review 3 (12): 6‐15. WESTERLUND, M., S. LEMINEN, et C. HABIB. 2018. Key Constructs and a Definition of Living Labs as Innovation Platforms. Technology Innovation Management Review 8 (12): 51‐62. 21 YIN, R. K. 2003. Case study research : design and methods. Sage Publications. ZIEMER, J., J. ERVIN, et J. LANG. 2013. Exploring Mission Concepts with the JPL Innovation Foundry A-Team. In AIAA Space 2013. San Diego, California. 22
{'path': '05/hal.archives-ouvertes.fr-hal-03124306-document.txt'}